LedoitWolf#
- class sklearn.covariance.LedoitWolf(*, store_precision=True, assume_centered=False, block_size=1000)[源代码]#
LedoitWolf估计。
Ledoit-Wolf是一种特殊的收缩形式,其中收缩系数是使用O计算的。勒多伊特和M. Wolf的公式如“大维度协方差矩阵的良好条件估计”中所述,Ledoit和Wolf,《多元分析杂志》,第88卷,第2期,2004年2月,第365-411页。
阅读更多的 User Guide .
- 参数:
- store_precision布尔,默认=True
指定是否存储估计的精度。
- assume_centered布尔,默认=假
如果为True,则数据在计算前不会集中。在处理均值几乎为零但不完全为零的数据时很有用。如果为False(默认值),数据将在计算前居中。
- block_sizeint,默认=1000
协方差矩阵在Ledoit-Wolf估计期间将被拆分成的块大小。这纯粹是内存优化,不影响结果。
- 属性:
- covariance_形状的nd数组(n_features,n_features)
估计的协方差矩阵。
- location_形状的nd数组(n_features,)
估计位置,即估计平均值。
- precision_形状的nd数组(n_features,n_features)
估计的伪逆矩阵。(仅在store_precision为True时才存储)
- shrinkage_浮子
用于计算缩小估计值的凸组合中的系数。范围 [0, 1] .
- n_features_in_int
期间看到的功能数量 fit .
Added in version 0.24.
- feature_names_in_ :nd形状数组 (
n_features_in_
,)nd数组形状( Names of features seen during fit. Defined only when
X
has feature names that are all strings.Added in version 1.0.
参见
EllipticEnvelope
用于检测高斯分布数据集中异常值的对象。
EmpiricalCovariance
最大似然协方差估计量。
GraphicalLasso
Sparse inverse covariance estimation with an l1-penalized estimator.
GraphicalLassoCV
具有l1罚分的交叉验证选择的稀疏逆协方差。
MinCovDet
最小协方差决定因素(协方差的稳健估计量)。
OAS
Oracle近似收缩估计。
ShrunkCovariance
具有收缩的协方差估计量。
注意到
正规化协方差是:
(1 -收缩) * cov + shrinkage * mo * NP. identification(n_features)
其中μ = Trace(cov)/ n_features和收缩率由Ledoit和Wolf公式给出(请参阅参考文献)
引用
“大维度协方差矩阵的良好条件估计”,Ledoit和Wolf,《多元分析杂志》,第88卷,第2期,2004年2月,第365-411页。
示例
>>> import numpy as np >>> from sklearn.covariance import LedoitWolf >>> real_cov = np.array([[.4, .2], ... [.2, .8]]) >>> np.random.seed(0) >>> X = np.random.multivariate_normal(mean=[0, 0], ... cov=real_cov, ... size=50) >>> cov = LedoitWolf().fit(X) >>> cov.covariance_ array([[0.4406..., 0.1616...], [0.1616..., 0.8022...]]) >>> cov.location_ array([ 0.0595... , -0.0075...])
另见 收缩协方差估计:LedoitWolf vs OAS和最大似然 以获取更详细的示例。
- error_norm(comp_cov, norm='frobenius', scaling=True, squared=True)[源代码]#
计算两个协方差估计量之间的均方误差。
- 参数:
- comp_cov形状类似阵列(n_features,n_features)
要比较的协方差。
- norm{“frobenius”,“spectral”},default=“frobenius”
用于计算误差的范数类型。可用的错误类型:- 'frobenius'(默认):sqrt(tr(A^t.A))- 'spectral':sqrt(max(eigenvalues(A^t.A))其中A是错误
(comp_cov - self.covariance_)
.- scaling布尔,默认=True
如果为True(默认),则将误差平方规范除以n_features。如果为假,则不会重新调整误差平方规范。
- squared布尔,默认=True
是计算平方误差规范还是误差规范。如果为True(默认),则返回平方误差规范。如果为假,则返回错误规范。
- 返回:
- result浮子
之间的均方误差(在Frobenius范数的意义上)
self
和comp_cov
协方差估计量
- fit(X, y=None)[源代码]#
将Ledoit-Wolf缩小协方差模型与X进行匹配。
- 参数:
- X形状类似阵列(n_samples,n_features)
训练数据,在哪里
n_samples
是样本数量和n_features
是功能的数量。- y忽视
未使用,按照惯例,为了API一致性而存在。
- 返回:
- self对象
返回实例本身。
- get_metadata_routing()[源代码]#
获取此对象的元数据路由。
请检查 User Guide 关于路由机制如何工作。
- 返回:
- routingMetadataRequest
A
MetadataRequest
封装路由信息。
- get_params(deep=True)[源代码]#
获取此估计器的参数。
- 参数:
- deep布尔,默认=True
如果为True,将返回此估计量和包含的作为估计量的子对象的参数。
- 返回:
- paramsdict
参数名称映射到其值。
- mahalanobis(X)[源代码]#
计算给定观测值的平方马哈拉诺比斯距离。
- 参数:
- X形状类似阵列(n_samples,n_features)
我们计算的观测结果,即Mahalanobis距离。假设观察值是从与用于匹配的数据相同的分布中得出的。
- 返回:
- dist形状的nd数组(n_samples,)
观测结果的马哈拉诺比斯距离平方。
- score(X_test, y=None)[源代码]#
计算的log似然
X_test
根据高斯模型估计。高斯模型由其均值和协方差矩阵定义,分别表示为:
self.location_
和self.covariance_
.- 参数:
- X_test形状类似阵列(n_samples,n_features)
我们计算其可能性的测试数据,其中
n_samples
是样本数量和n_features
是功能的数量。X_test
假设是从与适合(包括定中心)中使用的数据相同的分布中得出的。- y忽视
未使用,按照惯例,为了API一致性而存在。
- 返回:
- res浮子
的对数似然
X_test
与self.location_
和self.covariance_
分别作为高斯模型均值和协方差矩阵的估计量。