zero_one_loss#
- sklearn.metrics.zero_one_loss(y_true, y_pred, *, normalize=True, sample_weight=None)[源代码]#
零级损失。
如果正常化是
True
,返回错误分类的分数(float),否则返回错误分类的数量(int)。最好的成绩是0。阅读更多的 User Guide .
- 参数:
- y_true1D类数组或标签指示符数组/稀疏矩阵
地面真相(正确)标签。
- y_pred1D类数组或标签指示符数组/稀疏矩阵
预测标签,由分类器返回。
- normalize布尔,默认=True
如果
False
,返回错误分类的数量。否则,返回错误分类的比例。- sample_weight形状类似数组(n_samples,),默认=无
样本重量。
- 返回:
- lossfloat或int,
如果
normalize == True
,返回错误分类的分数(float),否则返回错误分类的数量(int)。
参见
accuracy_score
计算准确度分数。默认情况下,该函数将返回正确预测的分数除以预测总数。
hamming_loss
计算两组样本之间的平均海明损失或海明距离。
jaccard_score
计算Jaccard相似性系数得分。
注意到
在多标签分类中,zero_one_loss函数对应于子集零一损失:对于每个样本,必须正确预测整个标签集,否则该样本的损失等于一。
示例
>>> from sklearn.metrics import zero_one_loss >>> y_pred = [1, 2, 3, 4] >>> y_true = [2, 2, 3, 4] >>> zero_one_loss(y_true, y_pred) 0.25 >>> zero_one_loss(y_true, y_pred, normalize=False) 1.0
在具有二进制标签指示符的多标签情况下:
>>> import numpy as np >>> zero_one_loss(np.array([[0, 1], [1, 1]]), np.ones((2, 2))) 0.5