LedoitWolf#

class sklearn.covariance.LedoitWolf(*, store_precision=True, assume_centered=False, block_size=1000)[源代码]#

LedoitWolf估计。

Ledoit-Wolf是一种特殊的收缩形式,其中收缩系数是使用O计算的。勒多伊特和M. Wolf的公式如“大维度协方差矩阵的良好条件估计”中所述,Ledoit和Wolf,《多元分析杂志》,第88卷,第2期,2004年2月,第365-411页。

阅读更多的 User Guide .

参数:
store_precision布尔,默认=True

指定是否存储估计的精度。

assume_centered布尔,默认=假

如果为True,则数据在计算前不会集中。在处理均值几乎为零但不完全为零的数据时很有用。如果为False(默认值),数据将在计算前居中。

block_sizeint,默认=1000

协方差矩阵在Ledoit-Wolf估计期间将被拆分成的块大小。这纯粹是内存优化,不影响结果。

属性:
covariance_形状的nd数组(n_features,n_features)

估计的协方差矩阵。

location_形状的nd数组(n_features,)

估计位置,即估计平均值。

precision_形状的nd数组(n_features,n_features)

估计的伪逆矩阵。(仅在store_precision为True时才存储)

shrinkage_浮子

用于计算缩小估计值的凸组合中的系数。范围 [0, 1] .

n_features_in_int

期间看到的功能数量 fit .

Added in version 0.24.

feature_names_in_ :nd形状数组 (n_features_in_ ,)nd数组形状(

Names of features seen during fit. Defined only when X has feature names that are all strings.

Added in version 1.0.

参见

EllipticEnvelope

用于检测高斯分布数据集中异常值的对象。

EmpiricalCovariance

最大似然协方差估计量。

GraphicalLasso

Sparse inverse covariance estimation with an l1-penalized estimator.

GraphicalLassoCV

具有l1罚分的交叉验证选择的稀疏逆协方差。

MinCovDet

最小协方差决定因素(协方差的稳健估计量)。

OAS

Oracle近似收缩估计。

ShrunkCovariance

具有收缩的协方差估计量。

注意到

正规化协方差是:

(1 -收缩) * cov + shrinkage * mo * NP. identification(n_features)

其中μ = Trace(cov)/ n_features和收缩率由Ledoit和Wolf公式给出(请参阅参考文献)

引用

“大维度协方差矩阵的良好条件估计”,Ledoit和Wolf,《多元分析杂志》,第88卷,第2期,2004年2月,第365-411页。

示例

>>> import numpy as np
>>> from sklearn.covariance import LedoitWolf
>>> real_cov = np.array([[.4, .2],
...                      [.2, .8]])
>>> np.random.seed(0)
>>> X = np.random.multivariate_normal(mean=[0, 0],
...                                   cov=real_cov,
...                                   size=50)
>>> cov = LedoitWolf().fit(X)
>>> cov.covariance_
array([[0.4406..., 0.1616...],
       [0.1616..., 0.8022...]])
>>> cov.location_
array([ 0.0595... , -0.0075...])

另见 收缩协方差估计:LedoitWolf vs OAS和最大似然 以获取更详细的示例。

error_norm(comp_cov, norm='frobenius', scaling=True, squared=True)[源代码]#

计算两个协方差估计量之间的均方误差。

参数:
comp_cov形状类似阵列(n_features,n_features)

要比较的协方差。

norm{“frobenius”,“spectral”},default=“frobenius”

用于计算误差的范数类型。可用的错误类型:- 'frobenius'(默认):sqrt(tr(A^t.A))- 'spectral':sqrt(max(eigenvalues(A^t.A))其中A是错误 (comp_cov - self.covariance_) .

scaling布尔,默认=True

如果为True(默认),则将误差平方规范除以n_features。如果为假,则不会重新调整误差平方规范。

squared布尔,默认=True

是计算平方误差规范还是误差规范。如果为True(默认),则返回平方误差规范。如果为假,则返回错误规范。

返回:
result浮子

之间的均方误差(在Frobenius范数的意义上) selfcomp_cov 协方差估计量

fit(X, y=None)[源代码]#

将Ledoit-Wolf缩小协方差模型与X进行匹配。

参数:
X形状类似阵列(n_samples,n_features)

训练数据,在哪里 n_samples 是样本数量和 n_features 是功能的数量。

y忽视

未使用,按照惯例,为了API一致性而存在。

返回:
self对象

返回实例本身。

get_metadata_routing()[源代码]#

获取此对象的元数据路由。

请检查 User Guide 关于路由机制如何工作。

返回:
routingMetadataRequest

A MetadataRequest 封装路由信息。

get_params(deep=True)[源代码]#

获取此估计器的参数。

参数:
deep布尔,默认=True

如果为True,将返回此估计量和包含的作为估计量的子对象的参数。

返回:
paramsdict

参数名称映射到其值。

get_precision()[源代码]#

精确矩阵的收集器。

返回:
precision_形状类似阵列(n_features,n_features)

与当前协方差对象关联的精度矩阵。

mahalanobis(X)[源代码]#

计算给定观测值的平方马哈拉诺比斯距离。

参数:
X形状类似阵列(n_samples,n_features)

我们计算的观测结果,即Mahalanobis距离。假设观察值是从与用于匹配的数据相同的分布中得出的。

返回:
dist形状的nd数组(n_samples,)

观测结果的马哈拉诺比斯距离平方。

score(X_test, y=None)[源代码]#

计算的log似然 X_test 根据高斯模型估计。

高斯模型由其均值和协方差矩阵定义,分别表示为: self.location_self.covariance_ .

参数:
X_test形状类似阵列(n_samples,n_features)

我们计算其可能性的测试数据,其中 n_samples 是样本数量和 n_features 是功能的数量。 X_test 假设是从与适合(包括定中心)中使用的数据相同的分布中得出的。

y忽视

未使用,按照惯例,为了API一致性而存在。

返回:
res浮子

的对数似然 X_testself.location_self.covariance_ 分别作为高斯模型均值和协方差矩阵的估计量。

set_params(**params)[源代码]#

设置此估计器的参数。

该方法适用于简单估计器以及嵌套对象(例如 Pipeline ).后者具有以下形式的参数 <component>__<parameter> 以便可以更新嵌套对象的每个组件。

参数:
**paramsdict

估计参数。

返回:
self估计器实例

估计实例。