MinCovDet#

class sklearn.covariance.MinCovDet(*, store_precision=True, assume_centered=False, support_fraction=None, random_state=None)[源代码]#

最小协方差决定因素(MCB):协方差的稳健估计量。

最小协方差行列式协方差估计量将应用于高斯分布数据,但仍可能与来自单峰对称分布的数据相关。它不适用于多模态数据(在这种情况下,用于拟合MinCovDet对象的算法可能会失败)。应该考虑投影寻踪方法来处理多模态数据集。

阅读更多的 User Guide .

参数:
store_precision布尔,默认=True

指定是否存储估计的精度。

assume_centered布尔,默认=假

如果为True,则计算稳健位置和协方差估计的支持,并从中重新计算协方差估计,而无需对数据进行中心化。对于处理均值明显等于零但不完全为零的数据很有用。如果为假,则使用FastBCD算法直接计算稳健位置和协方差,无需额外处理。

support_fractionfloat,默认=无

包含在原始BCD估计支持中的积分比例。默认为无,这意味着算法中将使用supply_fraction的最小值: (n_samples + n_features + 1) / 2 * n_samples .参数必须在范围(0,1]内。

random_stateint,RandomState实例或无,默认=无

确定用于洗牌数据的伪随机数生成器。传递int以获得跨多个函数调用的可重复结果。看到 Glossary .

属性:
raw_location_形状的nd数组(n_features,)

在校正和重新加权之前的原始鲁棒估计位置。

raw_covariance_形状的nd数组(n_features,n_features)

修正和重新加权之前的原始稳健估计协方差。

raw_support_形状的nd数组(n_samples,)

在修正和重新加权之前,用于计算位置和形状的原始稳健估计的观察结果的掩蔽。

location_形状的nd数组(n_features,)

估计位置稳健。

covariance_形状的nd数组(n_features,n_features)

估计的稳健协方差矩阵。

precision_形状的nd数组(n_features,n_features)

估计的伪逆矩阵。(仅在store_precision为True时才存储)

support_形状的nd数组(n_samples,)

用于计算位置和形状稳健估计的观察结果的面具。

dist_形状的nd数组(n_samples,)

训练集的Mahalanobis距离(在其中 fit 称为)观察。

n_features_in_int

期间看到的功能数量 fit .

Added in version 0.24.

feature_names_in_ :nd形状数组 (n_features_in_ ,)nd数组形状(

Names of features seen during fit. Defined only when X has feature names that are all strings.

Added in version 1.0.

参见

EllipticEnvelope

用于检测高斯分布数据集中异常值的对象。

EmpiricalCovariance

最大似然协方差估计量。

GraphicalLasso

Sparse inverse covariance estimation with an l1-penalized estimator.

GraphicalLassoCV

具有l1罚分的交叉验证选择的稀疏逆协方差。

LedoitWolf

LedoitWolf估计。

OAS

Oracle近似收缩估计。

ShrunkCovariance

具有收缩的协方差估计量。

引用

[Rouseeuw1984]

PJ. seeuw。最小平方回归中位数。J. Am Stat Ass,79:871,1984。

[Rousseeuw]

最小协方差决定性估计量的快速算法,1999年,美国统计协会和美国质量学会,CLARMETRICS

[ButlerDavies]

R. W. Butler, P. L. Davies and M. Jhun, Asymptotics For The Minimum Covariance Determinant Estimator, The Annals of Statistics, 1993, Vol. 21, No. 3, 1385-1400

示例

>>> import numpy as np
>>> from sklearn.covariance import MinCovDet
>>> from sklearn.datasets import make_gaussian_quantiles
>>> real_cov = np.array([[.8, .3],
...                      [.3, .4]])
>>> rng = np.random.RandomState(0)
>>> X = rng.multivariate_normal(mean=[0, 0],
...                                   cov=real_cov,
...                                   size=500)
>>> cov = MinCovDet(random_state=0).fit(X)
>>> cov.covariance_
array([[0.7411..., 0.2535...],
       [0.2535..., 0.3053...]])
>>> cov.location_
array([0.0813... , 0.0427...])
correct_covariance(data)[源代码]#

对原始最小协方差决定性估计进行修正。

使用Thomseeuw和Van Driessen在 [RVD].

参数:
data形状类似阵列(n_samples,n_features)

数据矩阵,具有p个特征和n个样本。数据集必须是用于计算原始估计的数据集。

返回:
covariance_corrected形状的nd数组(n_features,n_features)

校正稳健协方差估计值。

引用

[RVD]

最小协方差决定性估计量的快速算法,1999年,美国统计协会和美国质量学会,CLARMETRICS

error_norm(comp_cov, norm='frobenius', scaling=True, squared=True)[源代码]#

计算两个协方差估计量之间的均方误差。

参数:
comp_cov形状类似阵列(n_features,n_features)

要比较的协方差。

norm{“frobenius”,“spectral”},default=“frobenius”

用于计算误差的范数类型。可用的错误类型:- 'frobenius'(默认):sqrt(tr(A^t.A))- 'spectral':sqrt(max(eigenvalues(A^t.A))其中A是错误 (comp_cov - self.covariance_) .

scaling布尔,默认=True

如果为True(默认),则将误差平方规范除以n_features。如果为假,则不会重新调整误差平方规范。

squared布尔,默认=True

是计算平方误差规范还是误差规范。如果为True(默认),则返回平方误差规范。如果为假,则返回错误规范。

返回:
result浮子

之间的均方误差(在Frobenius范数的意义上) selfcomp_cov 协方差估计量

fit(X, y=None)[源代码]#

使用FastMCD算法拟合最小协方差行列式。

参数:
X形状类似阵列(n_samples,n_features)

训练数据,在哪里 n_samples 是样本数量和 n_features 是功能的数量。

y忽视

未使用,按照惯例,为了API一致性而存在。

返回:
self对象

返回实例本身。

get_metadata_routing()[源代码]#

获取此对象的元数据路由。

请检查 User Guide 关于路由机制如何工作。

返回:
routingMetadataRequest

A MetadataRequest 封装路由信息。

get_params(deep=True)[源代码]#

获取此估计器的参数。

参数:
deep布尔,默认=True

如果为True,将返回此估计量和包含的作为估计量的子对象的参数。

返回:
paramsdict

参数名称映射到其值。

get_precision()[源代码]#

精确矩阵的收集器。

返回:
precision_形状类似阵列(n_features,n_features)

与当前协方差对象关联的精度矩阵。

mahalanobis(X)[源代码]#

计算给定观测值的平方马哈拉诺比斯距离。

参数:
X形状类似阵列(n_samples,n_features)

我们计算的观测结果,即Mahalanobis距离。假设观察值是从与用于匹配的数据相同的分布中得出的。

返回:
dist形状的nd数组(n_samples,)

观测结果的马哈拉诺比斯距离平方。

reweight_covariance(data)[源代码]#

重新加权原始最小协方差行列式估计值。

使用Thomseeuw方法(相当于在计算位置和协方差估计之前从数据集中删除外围观察)重新加权观察,中所述 [RVDriessen].

参数:
data形状类似阵列(n_samples,n_features)

数据矩阵,具有p个特征和n个样本。数据集必须是用于计算原始估计的数据集。

返回:
location_reweighted形状的nd数组(n_features,)

重新加权稳健位置估计。

covariance_reweighted形状的nd数组(n_features,n_features)

重新加权稳健协方差估计。

support_reweightednd形状数组(n_samples,),dstyle =bool

用于计算重新加权的稳健位置和协方差估计的观察结果的掩蔽。

引用

[RVDriessen]

最小协方差决定性估计量的快速算法,1999年,美国统计协会和美国质量学会,CLARMETRICS

score(X_test, y=None)[源代码]#

计算的log似然 X_test 根据高斯模型估计。

高斯模型由其均值和协方差矩阵定义,分别表示为: self.location_self.covariance_ .

参数:
X_test形状类似阵列(n_samples,n_features)

我们计算其可能性的测试数据,其中 n_samples 是样本数量和 n_features 是功能的数量。 X_test 假设是从与适合(包括定中心)中使用的数据相同的分布中得出的。

y忽视

未使用,按照惯例,为了API一致性而存在。

返回:
res浮子

的对数似然 X_testself.location_self.covariance_ 分别作为高斯模型均值和协方差矩阵的估计量。

set_params(**params)[源代码]#

设置此估计器的参数。

该方法适用于简单估计器以及嵌套对象(例如 Pipeline ).后者具有以下形式的参数 <component>__<parameter> 以便可以更新嵌套对象的每个组件。

参数:
**paramsdict

估计参数。

返回:
self估计器实例

估计实例。