MiniBatchSparsePCA#
- class sklearn.decomposition.MiniBatchSparsePCA(n_components=None, *, alpha=1, ridge_alpha=0.01, max_iter=1000, callback=None, batch_size=3, verbose=False, shuffle=True, n_jobs=None, method='lars', random_state=None, tol=0.001, max_no_improvement=10)[源代码]#
小批量稀疏主成分分析。
查找可以最佳重建数据的一组稀疏组件。 稀疏性的量可以通过L1罚分的系数(由参数Alpha给出)来控制。
有关比较稀疏PCA与PCA的示例,请参阅 Faces数据集分解
阅读更多的 User Guide .
- 参数:
- n_componentsint,默认=无
要提取的稀疏原子的数量。如果没有,那么
n_components
设置为n_features
.- alphaint,默认=1
稀疏性控制参数。值越高,组件越稀疏。
- ridge_alpha浮动,默认=0.01
调用转换方法时,为了改善条件反射而应用的山脊收缩量。
- max_iterint,默认=1_000
独立于任何早期停止标准启发式而停止之前在完整数据集上进行的最大迭代次数。
Added in version 1.2.
- callback可调用,默认值=无
每五次迭代调用一次的可调用。
- batch_sizeint,默认=3
每个迷你批次中要采用的功能数量。
- verboseint或bool,默认=False
控制冗长;越高,消息越多。预设为0。
- shuffle布尔,默认=True
是否在批量拆分数据之前对数据进行洗牌。
- n_jobsint,默认=无
要运行的并行作业数。
None
意思是1,除非在a中joblib.parallel_backend
上下文-1
意味着使用所有处理器。看到 Glossary 了解更多详细信息。- method' lars ',',默认=' lars '
用于优化的方法。拉尔:使用最小角度回归方法来解决套索问题(linear_models.lars_track)cs:使用坐标下降法来计算套索解(linear_models.Lasso)。如果估计的分量是稀疏的,则Lars将更快。
- random_stateint,RandomState实例或无,默认=无
用于随机洗牌时
shuffle
设置为True
,在在线词典学习期间。传递int以获得跨多个函数调用的可重复结果。看到 Glossary .- tol浮点数,默认值= 1 e-3
根据字典中2个步骤之间差异的规范控制提前停止。
To disable early stopping based on changes in the dictionary, set
tol
to 0.0.Added in version 1.1.
- max_no_improvementint或无,默认=10
根据小型批次的连续数量控制提前停止,但不会改善平滑成本函数。
要禁用基于成本函数的收敛检测,请设置
max_no_improvement
到None
.Added in version 1.1.
- 属性:
- components_ndrow形状数组(n_components,n_features)
从数据中提取的稀疏组件。
- n_components_int
估计组件数量。
Added in version 0.23.
- n_iter_int
运行的迭代次数。
- mean_形状的nd数组(n_features,)
每个特征的经验平均值,从训练集估计。等于
X.mean(axis=0)
.- n_features_in_int
期间看到的功能数量 fit .
Added in version 0.24.
- feature_names_in_ :nd形状数组 (
n_features_in_
,)nd数组形状( Names of features seen during fit. Defined only when
X
has feature names that are all strings.Added in version 1.0.
参见
DictionaryLearning
找一个对数据进行稀疏编码的字典。
IncrementalPCA
增量主成分分析。
PCA
主成分分析。
SparsePCA
稀疏主成分分析
TruncatedSVD
使用截断的奇异值降低维度。
示例
>>> import numpy as np >>> from sklearn.datasets import make_friedman1 >>> from sklearn.decomposition import MiniBatchSparsePCA >>> X, _ = make_friedman1(n_samples=200, n_features=30, random_state=0) >>> transformer = MiniBatchSparsePCA(n_components=5, batch_size=50, ... max_iter=10, random_state=0) >>> transformer.fit(X) MiniBatchSparsePCA(...) >>> X_transformed = transformer.transform(X) >>> X_transformed.shape (200, 5) >>> # most values in the components_ are zero (sparsity) >>> np.mean(transformer.components_ == 0) np.float64(0.9...)
- fit(X, y=None)[源代码]#
根据X中的数据匹配模型。
- 参数:
- X形状类似阵列(n_samples,n_features)
训练载体,在哪里
n_samples
是样本数量和n_features
是功能的数量。- y忽视
未使用,此处列出是为了按照惯例实现API一致性。
- 返回:
- self对象
返回实例本身。
- fit_transform(X, y=None, **fit_params)[源代码]#
适应数据,然后对其进行转换。
适合变压器
X
和y
具有可选参数fit_params
并返回的转换版本X
.- 参数:
- X形状类似阵列(n_samples,n_features)
输入样本。
- y形状为(n_samples,)或(n_samples,n_outputs)的阵列状, 默认值=无
目标值(无监督转换)。
- **fit_paramsdict
其他适合参数。
- 返回:
- X_newndray形状数组(n_samples,n_features_new)
变形的数组。
- get_feature_names_out(input_features=None)[源代码]#
获取用于转换的输出要素名称。
输出的功能名称将以大写的类别名称为开头。例如,如果Transformer输出3个特征,则输出的特征名称为:
["class_name0", "class_name1", "class_name2"]
.- 参数:
- input_features字符串或无的类数组,默认=无
仅用于通过中看到的名称验证要素名称
fit
.
- 返回:
- feature_names_out字符串对象的nd数组
转换的功能名称。
- get_metadata_routing()[源代码]#
获取此对象的元数据路由。
请检查 User Guide 关于路由机制如何工作。
- 返回:
- routingMetadataRequest
A
MetadataRequest
封装路由信息。
- get_params(deep=True)[源代码]#
获取此估计器的参数。
- 参数:
- deep布尔,默认=True
如果为True,将返回此估计量和包含的作为估计量的子对象的参数。
- 返回:
- paramsdict
参数名称映射到其值。
- inverse_transform(X)[源代码]#
将数据从潜在空间转换到原始空间。
由于正向分解引起的信息损失,这种倒置是一种近似。
Added in version 1.2.
- 参数:
- X形状的nd数组(n_samples,n_components)
潜在空间中的数据。
- 返回:
- X_original形状的nd数组(n_samples,n_features)
在原始空间中重建数据。
- set_output(*, transform=None)[源代码]#
设置输出容器。
看到 介绍 set_output API 了解如何使用API的示例。
- 参数:
- transform{“默认”,“pandas”,“polars”},默认=无
配置输出
transform
和fit_transform
."default"
:Transformer的默认输出格式"pandas"
:DataFrame输出"polars"
:两极输出None
:转换配置不变
Added in version 1.4:
"polars"
添加了选项。
- 返回:
- self估计器实例
估计实例。