DictionaryLearning#

class sklearn.decomposition.DictionaryLearning(n_components=None, *, alpha=1, max_iter=1000, tol=1e-08, fit_algorithm='lars', transform_algorithm='omp', transform_n_nonzero_coefs=None, transform_alpha=None, n_jobs=None, code_init=None, dict_init=None, callback=None, verbose=False, split_sign=False, random_state=None, positive_code=False, positive_dict=False, transform_max_iter=1000)[源代码]#

字典学习。

找到一个在对匹配数据进行稀疏编码方面表现良好的字典(一组原子)。

解决优化问题::

(U^*,V^*) = argmin 0.5 || X - U V ||_Fro^2 + alpha * || U ||_1,1
            (U,V)
            with || V_k ||_2 <= 1 for all  0 <= k < n_components

||.||_ Fro代表弗罗贝尼乌斯规范, ||.||_ 1,1代表逐项矩阵规范,它是矩阵中所有条目的绝对值的和。

阅读更多的 User Guide .

参数:
n_componentsint,默认=无

要提取的字典元素数。如果没有,那么 n_components 设置为 n_features .

alphafloat,默认=1.0

稀疏性控制参数。

max_iterint,默认=1000

要执行的最大迭代次数。

tolfloat,默认= 1 e-8

数字误差容限。

fit_algorithm' lars ',',默认=' lars '
  • 'lars' :使用最小角度回归方法解决套索问题 (lars_path );

  • 'cd' :使用坐标下降法计算Lasso解 (Lasso ).如果估计的分量是稀疏的,则Lars将更快。

Added in version 0.17: cd 坐标下降法提高速度。

transform_algorithm搜索'lasso_lars','lasso_cd','lars','omp', 'threshold'},default='omp'

用于转换数据的算法:

  • 'lars' :使用最小角度回归法 (lars_path );

  • 'lasso_lars' :使用Lars计算Lasso解。

  • 'lasso_cd' :使用坐标下降法计算Lasso解 (Lasso ). 'lasso_lars' 如果估计的成分是稀疏的,则会更快。

  • 'omp' :使用垂直匹配追求来估计稀疏解。

  • 'threshold' :将投影中小于alpha的所有系数压缩为零 dictionary * X' .

Added in version 0.17: lasso_cd 坐标下降法提高速度。

transform_n_nonzero_coefsint,默认=无

解决方案每列中要目标的非零系数数。这仅用于 algorithm='lars'algorithm='omp' .如果 None 那么 transform_n_nonzero_coefs=int(n_features / 10) .

transform_alphafloat,默认=无

如果 algorithm='lasso_lars'algorithm='lasso_cd' , alpha 是适用于L1规范的惩罚。如果 algorithm='threshold' , alpha 是阈值的绝对值,低于该阈值的系数将被压缩为零。如果 None ,默认为 alpha .

在 1.2 版本发生变更: 当无时,默认值从1.0更改为 alpha .

n_jobsint或无,默认=无

要运行的并行作业数。 None 意思是1,除非在a中 joblib.parallel_backend 上下文 -1 意味着使用所有处理器。看到 Glossary 了解更多详细信息。

code_init形状的nd数组(n_samples,n_components),默认=无

代码的初始值,用于热重启。仅在以下情况下使用 code_initdict_init 不是没有。

dict_init形状的nd数组(n_components,n_features),默认=无

字典的初始值,用于热重启。仅在以下情况下使用 code_initdict_init 不是没有。

callback可调用,默认值=无

每五次迭代调用一次的可调用。

Added in version 1.3.

verbose布尔,默认=假

控制程序的冗长程度。

split_sign布尔,默认=假

是否将稀疏特征载体拆分为负部分和正部分的级联。这可以提高下游分类器的性能。

random_stateint,RandomState实例或无,默认=无

用于初始化字典时 dict_init 未指定,当 shuffle 设置为 True ,并更新字典。传递int以获得跨多个函数调用的可重复结果。看到 Glossary .

positive_code布尔,默认=假

在查找代码时是否强制执行积极性。

Added in version 0.20.

positive_dict布尔,默认=假

在寻找字典时是否要加强积极态度。

Added in version 0.20.

transform_max_iterint,默认=1000

如果出现以下情况,需要执行的最大迭代次数 algorithm='lasso_cd''lasso_lars' .

Added in version 0.22.

属性:
components_ndrow形状数组(n_components,n_features)

从数据中提取的字典原子

error_阵列

每次迭代时的误差载体

n_features_in_int

期间看到的功能数量 fit .

Added in version 0.24.

feature_names_in_ :nd形状数组 (n_features_in_ ,)nd数组形状(

Names of features seen during fit. Defined only when X has feature names that are all strings.

Added in version 1.0.

n_iter_int

运行的迭代次数。

参见

MiniBatchDictionaryLearning

一个更快、更不准确的字典学习算法版本。

MiniBatchSparsePCA

小批量稀疏主成分分析。

SparseCoder

Find a sparse representation of data from a fixed, precomputed dictionary.

SparsePCA

稀疏主成分分析

引用

J. Mairal, F. Bach, J. Ponce, G. Sapiro, 2009: Online dictionary learning for sparse coding (https://www.di.ens.fr/~fbach/mairal_icml09.pdf)

示例

>>> import numpy as np
>>> from sklearn.datasets import make_sparse_coded_signal
>>> from sklearn.decomposition import DictionaryLearning
>>> X, dictionary, code = make_sparse_coded_signal(
...     n_samples=30, n_components=15, n_features=20, n_nonzero_coefs=10,
...     random_state=42,
... )
>>> dict_learner = DictionaryLearning(
...     n_components=15, transform_algorithm='lasso_lars', transform_alpha=0.1,
...     random_state=42,
... )
>>> X_transformed = dict_learner.fit(X).transform(X)

我们可以检查的稀疏程度 X_transformed :

>>> np.mean(X_transformed == 0)
np.float64(0.52...)

我们可以比较稀疏编码信号的重建误差的平均平方欧几里得规范与原始信号的欧几里得规范平方:

>>> X_hat = X_transformed @ dict_learner.components_
>>> np.mean(np.sum((X_hat - X) ** 2, axis=1) / np.sum(X ** 2, axis=1))
np.float64(0.05...)
fit(X, y=None)[源代码]#

根据X中的数据匹配模型。

参数:
X形状类似阵列(n_samples,n_features)

训练载体,在哪里 n_samples 是样本数量和 n_features 是功能的数量。

y忽视

未使用,按照惯例,为了API一致性而存在。

返回:
self对象

返回实例本身。

fit_transform(X, y=None)[源代码]#

根据X中的数据匹配模型并返回转换后的数据。

参数:
X形状类似阵列(n_samples,n_features)

训练载体,在哪里 n_samples 是样本数量和 n_features 是功能的数量。

y忽视

未使用,按照惯例,为了API一致性而存在。

返回:
V形状的nd数组(n_samples,n_components)

转换的数据。

get_feature_names_out(input_features=None)[源代码]#

获取用于转换的输出要素名称。

输出的功能名称将以大写的类别名称为开头。例如,如果Transformer输出3个特征,则输出的特征名称为: ["class_name0", "class_name1", "class_name2"] .

参数:
input_features字符串或无的类数组,默认=无

仅用于通过中看到的名称验证要素名称 fit .

返回:
feature_names_out字符串对象的nd数组

转换的功能名称。

get_metadata_routing()[源代码]#

获取此对象的元数据路由。

请检查 User Guide 关于路由机制如何工作。

返回:
routingMetadataRequest

A MetadataRequest 封装路由信息。

get_params(deep=True)[源代码]#

获取此估计器的参数。

参数:
deep布尔,默认=True

如果为True,将返回此估计量和包含的作为估计量的子对象的参数。

返回:
paramsdict

参数名称映射到其值。

set_output(*, transform=None)[源代码]#

设置输出容器。

看到 介绍 set_output API 了解如何使用API的示例。

参数:
transform{“默认”,“pandas”,“polars”},默认=无

配置输出 transformfit_transform .

  • "default" :Transformer的默认输出格式

  • "pandas" :DataFrame输出

  • "polars" :两极输出

  • None :转换配置不变

Added in version 1.4: "polars" 添加了选项。

返回:
self估计器实例

估计实例。

set_params(**params)[源代码]#

设置此估计器的参数。

该方法适用于简单估计器以及嵌套对象(例如 Pipeline ).后者具有以下形式的参数 <component>__<parameter> 以便可以更新嵌套对象的每个组件。

参数:
**paramsdict

估计参数。

返回:
self估计器实例

估计实例。

transform(X)[源代码]#

将数据编码为字典原子的稀疏组合。

编码方法由对象参数决定 transform_algorithm .

参数:
X形状的nd数组(n_samples,n_features)

要转换的测试数据必须具有与用于训练模型的数据相同数量的特征。

返回:
X_new形状的nd数组(n_samples,n_components)

转换的数据。