DictionaryLearning#
- class sklearn.decomposition.DictionaryLearning(n_components=None, *, alpha=1, max_iter=1000, tol=1e-08, fit_algorithm='lars', transform_algorithm='omp', transform_n_nonzero_coefs=None, transform_alpha=None, n_jobs=None, code_init=None, dict_init=None, callback=None, verbose=False, split_sign=False, random_state=None, positive_code=False, positive_dict=False, transform_max_iter=1000)[源代码]#
字典学习。
找到一个在对匹配数据进行稀疏编码方面表现良好的字典(一组原子)。
解决优化问题::
(U^*,V^*) = argmin 0.5 || X - U V ||_Fro^2 + alpha * || U ||_1,1 (U,V) with || V_k ||_2 <= 1 for all 0 <= k < n_components
||.||_ Fro代表弗罗贝尼乌斯规范, ||.||_ 1,1代表逐项矩阵规范,它是矩阵中所有条目的绝对值的和。
阅读更多的 User Guide .
- 参数:
- n_componentsint,默认=无
要提取的字典元素数。如果没有,那么
n_components
设置为n_features
.- alphafloat,默认=1.0
稀疏性控制参数。
- max_iterint,默认=1000
要执行的最大迭代次数。
- tolfloat,默认= 1 e-8
数字误差容限。
- fit_algorithm' lars ',',默认=' lars '
-
Added in version 0.17: cd 坐标下降法提高速度。
- transform_algorithm搜索'lasso_lars','lasso_cd','lars','omp', 'threshold'},default='omp'
用于转换数据的算法:
'lars'
:使用最小角度回归法 (lars_path
);'lasso_lars'
:使用Lars计算Lasso解。'lasso_cd'
:使用坐标下降法计算Lasso解 (Lasso
).'lasso_lars'
如果估计的成分是稀疏的,则会更快。'omp'
:使用垂直匹配追求来估计稀疏解。'threshold'
:将投影中小于alpha的所有系数压缩为零dictionary * X'
.
Added in version 0.17: lasso_cd 坐标下降法提高速度。
- transform_n_nonzero_coefsint,默认=无
解决方案每列中要目标的非零系数数。这仅用于
algorithm='lars'
和algorithm='omp'
.如果None
那么transform_n_nonzero_coefs=int(n_features / 10)
.- transform_alphafloat,默认=无
如果
algorithm='lasso_lars'
或algorithm='lasso_cd'
,alpha
是适用于L1规范的惩罚。如果algorithm='threshold'
,alpha
是阈值的绝对值,低于该阈值的系数将被压缩为零。如果None
,默认为alpha
.在 1.2 版本发生变更: 当无时,默认值从1.0更改为
alpha
.- n_jobsint或无,默认=无
要运行的并行作业数。
None
意思是1,除非在a中joblib.parallel_backend
上下文-1
意味着使用所有处理器。看到 Glossary 了解更多详细信息。- code_init形状的nd数组(n_samples,n_components),默认=无
代码的初始值,用于热重启。仅在以下情况下使用
code_init
和dict_init
不是没有。- dict_init形状的nd数组(n_components,n_features),默认=无
字典的初始值,用于热重启。仅在以下情况下使用
code_init
和dict_init
不是没有。- callback可调用,默认值=无
每五次迭代调用一次的可调用。
Added in version 1.3.
- verbose布尔,默认=假
控制程序的冗长程度。
- split_sign布尔,默认=假
是否将稀疏特征载体拆分为负部分和正部分的级联。这可以提高下游分类器的性能。
- random_stateint,RandomState实例或无,默认=无
用于初始化字典时
dict_init
未指定,当shuffle
设置为True
,并更新字典。传递int以获得跨多个函数调用的可重复结果。看到 Glossary .- positive_code布尔,默认=假
在查找代码时是否强制执行积极性。
Added in version 0.20.
- positive_dict布尔,默认=假
在寻找字典时是否要加强积极态度。
Added in version 0.20.
- transform_max_iterint,默认=1000
如果出现以下情况,需要执行的最大迭代次数
algorithm='lasso_cd'
或'lasso_lars'
.Added in version 0.22.
- 属性:
- components_ndrow形状数组(n_components,n_features)
从数据中提取的字典原子
- error_阵列
每次迭代时的误差载体
- n_features_in_int
期间看到的功能数量 fit .
Added in version 0.24.
- feature_names_in_ :nd形状数组 (
n_features_in_
,)nd数组形状( Names of features seen during fit. Defined only when
X
has feature names that are all strings.Added in version 1.0.
- n_iter_int
运行的迭代次数。
参见
MiniBatchDictionaryLearning
一个更快、更不准确的字典学习算法版本。
MiniBatchSparsePCA
小批量稀疏主成分分析。
SparseCoder
Find a sparse representation of data from a fixed, precomputed dictionary.
SparsePCA
稀疏主成分分析
引用
J. Mairal, F. Bach, J. Ponce, G. Sapiro, 2009: Online dictionary learning for sparse coding (https://www.di.ens.fr/~fbach/mairal_icml09.pdf)
示例
>>> import numpy as np >>> from sklearn.datasets import make_sparse_coded_signal >>> from sklearn.decomposition import DictionaryLearning >>> X, dictionary, code = make_sparse_coded_signal( ... n_samples=30, n_components=15, n_features=20, n_nonzero_coefs=10, ... random_state=42, ... ) >>> dict_learner = DictionaryLearning( ... n_components=15, transform_algorithm='lasso_lars', transform_alpha=0.1, ... random_state=42, ... ) >>> X_transformed = dict_learner.fit(X).transform(X)
我们可以检查的稀疏程度
X_transformed
:>>> np.mean(X_transformed == 0) np.float64(0.52...)
我们可以比较稀疏编码信号的重建误差的平均平方欧几里得规范与原始信号的欧几里得规范平方:
>>> X_hat = X_transformed @ dict_learner.components_ >>> np.mean(np.sum((X_hat - X) ** 2, axis=1) / np.sum(X ** 2, axis=1)) np.float64(0.05...)
- fit(X, y=None)[源代码]#
根据X中的数据匹配模型。
- 参数:
- X形状类似阵列(n_samples,n_features)
训练载体,在哪里
n_samples
是样本数量和n_features
是功能的数量。- y忽视
未使用,按照惯例,为了API一致性而存在。
- 返回:
- self对象
返回实例本身。
- fit_transform(X, y=None)[源代码]#
根据X中的数据匹配模型并返回转换后的数据。
- 参数:
- X形状类似阵列(n_samples,n_features)
训练载体,在哪里
n_samples
是样本数量和n_features
是功能的数量。- y忽视
未使用,按照惯例,为了API一致性而存在。
- 返回:
- V形状的nd数组(n_samples,n_components)
转换的数据。
- get_feature_names_out(input_features=None)[源代码]#
获取用于转换的输出要素名称。
输出的功能名称将以大写的类别名称为开头。例如,如果Transformer输出3个特征,则输出的特征名称为:
["class_name0", "class_name1", "class_name2"]
.- 参数:
- input_features字符串或无的类数组,默认=无
仅用于通过中看到的名称验证要素名称
fit
.
- 返回:
- feature_names_out字符串对象的nd数组
转换的功能名称。
- get_metadata_routing()[源代码]#
获取此对象的元数据路由。
请检查 User Guide 关于路由机制如何工作。
- 返回:
- routingMetadataRequest
A
MetadataRequest
封装路由信息。
- get_params(deep=True)[源代码]#
获取此估计器的参数。
- 参数:
- deep布尔,默认=True
如果为True,将返回此估计量和包含的作为估计量的子对象的参数。
- 返回:
- paramsdict
参数名称映射到其值。
- set_output(*, transform=None)[源代码]#
设置输出容器。
看到 介绍 set_output API 了解如何使用API的示例。
- 参数:
- transform{“默认”,“pandas”,“polars”},默认=无
配置输出
transform
和fit_transform
."default"
:Transformer的默认输出格式"pandas"
:DataFrame输出"polars"
:两极输出None
:转换配置不变
Added in version 1.4:
"polars"
添加了选项。
- 返回:
- self估计器实例
估计实例。