zero_one_loss#

sklearn.metrics.zero_one_loss(y_true, y_pred, *, normalize=True, sample_weight=None)[源代码]#

零级损失。

如果正常化是 True ,返回错误分类的分数(float),否则返回错误分类的数量(int)。最好的成绩是0。

阅读更多的 User Guide .

参数:
y_true1D类数组或标签指示符数组/稀疏矩阵

地面真相(正确)标签。

y_pred1D类数组或标签指示符数组/稀疏矩阵

预测标签,由分类器返回。

normalize布尔,默认=True

如果 False ,返回错误分类的数量。否则,返回错误分类的比例。

sample_weight形状类似数组(n_samples,),默认=无

样本重量。

返回:
lossfloat或int,

如果 normalize == True ,返回错误分类的分数(float),否则返回错误分类的数量(int)。

参见

accuracy_score

计算准确度分数。默认情况下,该函数将返回正确预测的分数除以预测总数。

hamming_loss

计算两组样本之间的平均海明损失或海明距离。

jaccard_score

计算Jaccard相似性系数得分。

注意到

在多标签分类中,zero_one_loss函数对应于子集零一损失:对于每个样本,必须正确预测整个标签集,否则该样本的损失等于一。

示例

>>> from sklearn.metrics import zero_one_loss
>>> y_pred = [1, 2, 3, 4]
>>> y_true = [2, 2, 3, 4]
>>> zero_one_loss(y_true, y_pred)
0.25
>>> zero_one_loss(y_true, y_pred, normalize=False)
1.0

在具有二进制标签指示符的多标签情况下:

>>> import numpy as np
>>> zero_one_loss(np.array([[0, 1], [1, 1]]), np.ones((2, 2)))
0.5