l1_min_c#
- sklearn.svm.l1_min_c(X, y, *, loss='squared_hinge', fit_intercept=True, intercept_scaling=1.0)[源代码]#
返回C的下限。
计算C的下限,以便对于(l1_min_C,无限)中的C,保证模型不为空。这适用于l1惩罚分类器,例如具有惩罚=' l1 '和linear_models的LinearSRC。具有惩罚=' l1 '的LogisticRegulation。
如果未设置fit()中的class_weight参数,则此值有效。
- 参数:
- X形状(n_samples,n_features)的{类数组,稀疏矩阵}
训练载体,在哪里
n_samples
是样本数量和n_features
是功能的数量。- y形状类似阵列(n_samples,)
相对于X的目标载体。
- loss' squared_hinge ',' log ',默认=' squared_hinge '
指定损失函数。对于“squared_hinge”,它是铰链损失的平方(又名L2损失)。“log”是逻辑回归模型的损失。
- fit_intercept布尔,默认=True
指定截取是否应由模型进行匹配。它必须与fit()方法参数匹配。
- intercept_scalingfloat,默认=1.0
当fit_intercept为True时,实例向量x变为 [x, intercept_scaling] ,即将常值等于intercept_scaling的“合成”特征附加到实例载体。它必须与fit()方法参数匹配。
- 返回:
- l1_min_c浮子
C的最小值。
示例
>>> from sklearn.svm import l1_min_c >>> from sklearn.datasets import make_classification >>> X, y = make_classification(n_samples=100, n_features=20, random_state=42) >>> print(f"{l1_min_c(X, y, loss='squared_hinge', fit_intercept=True):.4f}") 0.0044