l1_min_c#

sklearn.svm.l1_min_c(X, y, *, loss='squared_hinge', fit_intercept=True, intercept_scaling=1.0)[源代码]#

返回C的下限。

计算C的下限,以便对于(l1_min_C,无限)中的C,保证模型不为空。这适用于l1惩罚分类器,例如具有惩罚=' l1 '和linear_models的LinearSRC。具有惩罚=' l1 '的LogisticRegulation。

如果未设置fit()中的class_weight参数,则此值有效。

参数:
X形状(n_samples,n_features)的{类数组,稀疏矩阵}

训练载体,在哪里 n_samples 是样本数量和 n_features 是功能的数量。

y形状类似阵列(n_samples,)

相对于X的目标载体。

loss' squared_hinge ',' log ',默认=' squared_hinge '

指定损失函数。对于“squared_hinge”,它是铰链损失的平方(又名L2损失)。“log”是逻辑回归模型的损失。

fit_intercept布尔,默认=True

指定截取是否应由模型进行匹配。它必须与fit()方法参数匹配。

intercept_scalingfloat,默认=1.0

当fit_intercept为True时,实例向量x变为 [x, intercept_scaling] ,即将常值等于intercept_scaling的“合成”特征附加到实例载体。它必须与fit()方法参数匹配。

返回:
l1_min_c浮子

C的最小值。

示例

>>> from sklearn.svm import l1_min_c
>>> from sklearn.datasets import make_classification
>>> X, y = make_classification(n_samples=100, n_features=20, random_state=42)
>>> print(f"{l1_min_c(X, y, loss='squared_hinge', fit_intercept=True):.4f}")
0.0044