SparseCoder#
- class sklearn.decomposition.SparseCoder(dictionary, *, transform_algorithm='omp', transform_n_nonzero_coefs=None, transform_alpha=None, split_sign=False, n_jobs=None, positive_code=False, transform_max_iter=1000)[源代码]#
稀疏编码。
针对固定的预先计算的字典查找数据的稀疏表示。
结果的每一行都是稀疏编码问题的解决方案。目标是找到稀疏数组
code
这样::X ~= code * dictionary
阅读更多的 User Guide .
- 参数:
- dictionaryndrow形状数组(n_components,n_features)
用于稀疏编码的字典原子。假设线已被标准化为单位规范。
- transform_algorithm搜索'lasso_lars','lasso_cd','lars','omp', 'threshold'},default='omp'
用于转换数据的算法:
'lars'
:使用最小角度回归法 (linear_model.lars_path
);'lasso_lars'
:使用Lars计算Lasso解决方案;'lasso_cd'
:使用坐标下降法计算Lasso解(linear_models.Lasso)。'lasso_lars'
如果估计的成分稀疏,则会更快;'omp'
:使用垂直匹配追求来估计稀疏解;'threshold'
:将投影中小于alpha的所有系数压缩为零dictionary * X'
.
- transform_n_nonzero_coefsint,默认=无
解决方案每列中要目标的非零系数数。这仅用于
algorithm='lars'
和algorithm='omp'
并被覆盖alpha
在omp
案子如果None
那么transform_n_nonzero_coefs=int(n_features / 10)
.- transform_alphafloat,默认=无
如果
algorithm='lasso_lars'
或algorithm='lasso_cd'
,alpha
是适用于L1规范的惩罚。如果algorithm='threshold'
,alpha
是阈值的绝对值,低于该阈值的系数将被压缩为零。如果algorithm='omp'
,alpha
是容差参数:目标重建误差的值。在这种情况下,它覆盖n_nonzero_coefs
.如果None
,默认为1。- split_sign布尔,默认=假
是否将稀疏特征载体拆分为负部分和正部分的级联。这可以提高下游分类器的性能。
- n_jobsint,默认=无
要运行的并行作业数。
None
意思是1,除非在a中joblib.parallel_backend
上下文-1
意味着使用所有处理器。看到 Glossary 了解更多详细信息。- positive_code布尔,默认=假
在查找代码时是否强制执行积极性。
Added in version 0.20.
- transform_max_iterint,默认=1000
如果出现以下情况,需要执行的最大迭代次数
algorithm='lasso_cd'
或lasso_lars
.Added in version 0.22.
- 属性:
n_components_
int原子的数量。
n_features_in_
int期间看到的功能数量
fit
.- feature_names_in_ :nd形状数组 (
n_features_in_
,)nd数组形状( Names of features seen during fit. Defined only when
X
has feature names that are all strings.Added in version 1.0.
参见
DictionaryLearning
找一个对数据进行稀疏编码的字典。
MiniBatchDictionaryLearning
一个更快、更不准确的字典学习算法版本。
MiniBatchSparsePCA
小批量稀疏主成分分析。
SparsePCA
稀疏主成分分析
sparse_encode
稀疏编码,其中结果的每一行都是稀疏编码问题的解决方案。
示例
>>> import numpy as np >>> from sklearn.decomposition import SparseCoder >>> X = np.array([[-1, -1, -1], [0, 0, 3]]) >>> dictionary = np.array( ... [[0, 1, 0], ... [-1, -1, 2], ... [1, 1, 1], ... [0, 1, 1], ... [0, 2, 1]], ... dtype=np.float64 ... ) >>> coder = SparseCoder( ... dictionary=dictionary, transform_algorithm='lasso_lars', ... transform_alpha=1e-10, ... ) >>> coder.transform(X) array([[ 0., 0., -1., 0., 0.], [ 0., 1., 1., 0., 0.]])
- fit(X, y=None)[源代码]#
不做任何事情并不改变地返回估计器。
该方法只是为了实现通常的API,因此可以在管道中工作。
- 参数:
- X忽视
未使用,按照惯例,为了API一致性而存在。
- y忽视
未使用,按照惯例,为了API一致性而存在。
- 返回:
- self对象
返回实例本身。
- fit_transform(X, y=None, **fit_params)[源代码]#
适应数据,然后对其进行转换。
适合变压器
X
和y
具有可选参数fit_params
并返回的转换版本X
.- 参数:
- X形状类似阵列(n_samples,n_features)
输入样本。
- y形状为(n_samples,)或(n_samples,n_outputs)的阵列状, 默认值=无
目标值(无监督转换)。
- **fit_paramsdict
其他适合参数。
- 返回:
- X_newndray形状数组(n_samples,n_features_new)
变形的数组。
- get_feature_names_out(input_features=None)[源代码]#
获取用于转换的输出要素名称。
输出的功能名称将以大写的类别名称为开头。例如,如果Transformer输出3个特征,则输出的特征名称为:
["class_name0", "class_name1", "class_name2"]
.- 参数:
- input_features字符串或无的类数组,默认=无
仅用于通过中看到的名称验证要素名称
fit
.
- 返回:
- feature_names_out字符串对象的nd数组
转换的功能名称。
- get_metadata_routing()[源代码]#
获取此对象的元数据路由。
请检查 User Guide 关于路由机制如何工作。
- 返回:
- routingMetadataRequest
A
MetadataRequest
封装路由信息。
- get_params(deep=True)[源代码]#
获取此估计器的参数。
- 参数:
- deep布尔,默认=True
如果为True,将返回此估计量和包含的作为估计量的子对象的参数。
- 返回:
- paramsdict
参数名称映射到其值。
- set_output(*, transform=None)[源代码]#
设置输出容器。
看到 介绍 set_output API 了解如何使用API的示例。
- 参数:
- transform{“默认”,“pandas”,“polars”},默认=无
配置输出
transform
和fit_transform
."default"
:Transformer的默认输出格式"pandas"
:DataFrame输出"polars"
:两极输出None
:转换配置不变
Added in version 1.4:
"polars"
添加了选项。
- 返回:
- self估计器实例
估计实例。