d2_tweedie_score#

sklearn.metrics.d2_tweedie_score(y_true, y_pred, *, sample_weight=None, power=0)[源代码]#

\(D^2\) 回归评分函数,解释了Tweedie偏差的分数。

最好的可能分数是1.0,并且可以是负的(因为模型可以任意更差)。一个总是使用经验平均值的模型 y_true 由于不考虑输入特征的持续预测,获得D#2评分为0.0。

阅读更多的 User Guide .

Added in version 1.0.

参数:
y_true形状类似阵列(n_samples,)

地面真相(正确)目标值。

y_pred形状类似阵列(n_samples,)

估计目标值。

sample_weight形状类似数组(n_samples,),默认=无

样本重量。

powerfloat,默认=0

Tweedie功率参数。功率<= 0或功率>= 1。

越高 p 真实目标和预测目标之间的极端偏差所赋予的权重就越小。

  • 功率< 0: Extreme stable distribution. Requires: y_pred >0。

  • power = 0:正态分布,输出对应于r2_score。y_true和y_pred可以是任何真实数字。

  • 功效= 1:Poisson分布。需要:y_true >= 0且y_pred > 0。

  • 1 < p < 2:复合Poisson分布。需要:y_true >= 0且y_pred > 0。

  • 功率= 2:伽玛分布。需要:y_true > 0且y_pred > 0。

  • 幂= 3:逆高斯分布。需要:y_true > 0且y_pred > 0。

  • 否则:正稳定分布。需要:y_true > 0且y_pred > 0。

返回:
z浮动或浮动数组

D^2分数。

注意到

这不是一个对称函数。

与R#2一样,D#2得分可能是负的(它实际上不需要是量D的平方)。

此指标对于单个样本没有明确定义,如果n_samples小于2,则将返回NaN值。

引用

[1]

当量(3.11)的Hastie,特雷弗J,Robert Tibshirani和Martin J. Wainwright。Sparsity的统计学习:套索和泛化。“(2015年)。https://hastie.su.domains/StatLearnSparsity/

示例

>>> from sklearn.metrics import d2_tweedie_score
>>> y_true = [0.5, 1, 2.5, 7]
>>> y_pred = [1, 1, 5, 3.5]
>>> d2_tweedie_score(y_true, y_pred)
0.285...
>>> d2_tweedie_score(y_true, y_pred, power=1)
0.487...
>>> d2_tweedie_score(y_true, y_pred, power=2)
0.630...
>>> d2_tweedie_score(y_true, y_true, power=2)
1.0