d2_tweedie_score#
- sklearn.metrics.d2_tweedie_score(y_true, y_pred, *, sample_weight=None, power=0)[源代码]#
\(D^2\) 回归评分函数,解释了Tweedie偏差的分数。
最好的可能分数是1.0,并且可以是负的(因为模型可以任意更差)。一个总是使用经验平均值的模型
y_true
由于不考虑输入特征的持续预测,获得D#2评分为0.0。阅读更多的 User Guide .
Added in version 1.0.
- 参数:
- y_true形状类似阵列(n_samples,)
地面真相(正确)目标值。
- y_pred形状类似阵列(n_samples,)
估计目标值。
- sample_weight形状类似数组(n_samples,),默认=无
样本重量。
- powerfloat,默认=0
Tweedie功率参数。功率<= 0或功率>= 1。
越高
p
真实目标和预测目标之间的极端偏差所赋予的权重就越小。功率< 0: Extreme stable distribution. Requires: y_pred >0。
power = 0:正态分布,输出对应于r2_score。y_true和y_pred可以是任何真实数字。
功效= 1:Poisson分布。需要:y_true >= 0且y_pred > 0。
1 < p < 2:复合Poisson分布。需要:y_true >= 0且y_pred > 0。
功率= 2:伽玛分布。需要:y_true > 0且y_pred > 0。
幂= 3:逆高斯分布。需要:y_true > 0且y_pred > 0。
否则:正稳定分布。需要:y_true > 0且y_pred > 0。
- 返回:
- z浮动或浮动数组
D^2分数。
注意到
这不是一个对称函数。
与R#2一样,D#2得分可能是负的(它实际上不需要是量D的平方)。
此指标对于单个样本没有明确定义,如果n_samples小于2,则将返回NaN值。
引用
[1]当量(3.11)的Hastie,特雷弗J,Robert Tibshirani和Martin J. Wainwright。Sparsity的统计学习:套索和泛化。“(2015年)。https://hastie.su.domains/StatLearnSparsity/
示例
>>> from sklearn.metrics import d2_tweedie_score >>> y_true = [0.5, 1, 2.5, 7] >>> y_pred = [1, 1, 5, 3.5] >>> d2_tweedie_score(y_true, y_pred) 0.285... >>> d2_tweedie_score(y_true, y_pred, power=1) 0.487... >>> d2_tweedie_score(y_true, y_pred, power=2) 0.630... >>> d2_tweedie_score(y_true, y_true, power=2) 1.0