lasso_path#

sklearn.linear_model.lasso_path(X, y, *, eps=0.001, n_alphas=100, alphas=None, precompute='auto', Xy=None, copy_X=True, coef_init=None, verbose=False, return_n_iter=False, positive=False, **params)[源代码]#

使用坐标下降计算Lasso路径。

Lasso优化功能因单输出和多输出而异。

对于单输出任务,它是::

(1 / (2 * n_samples)) * ||y - Xw||^2_2 + alpha * ||w||_1

对于多输出任务,它是::

(1 / (2 * n_samples)) * ||Y - XW||^2_Fro + alpha * ||W||_21

地点::

||W||_21 = \sum_i \sqrt{\sum_j w_{ij}^2}

即每一行的规范之和。

阅读更多的 User Guide .

参数:
X形状(n_samples,n_features)的{类数组,稀疏矩阵}

训练数据。作为Forrester连续数据直接传递,以避免不必要的内存重复。如果 y 那么是单输出 X 可以是稀疏的。

y形状(n_samples,)的{类数组,稀疏矩阵}或 (n_样本,n_目标)

目标值。

eps浮点数,默认值= 1 e-3

路径的长度。 eps=1e-3 意味着 alpha_min / alpha_max = 1e-3 .

n_alphasint,默认=100

正规化路径上阿尔法的数量。

alphas类数组,默认=无

在哪里计算模型的阿尔法列表。如果 None 阿尔法是自动设置的。

precompute“自动”、布尔或阵列状的形状 (n_features,n_features),默认='自动'

是否使用预先计算的Gram矩阵来加速计算。如果设置为 'auto' 让我们决定。Gram矩阵也可以作为参数传递。

Xy形状类似阵列(n_features,)或(n_features,n_targets), 默认值=无

Xy = np.dot(X.T,y),可以预先计算。只有在预先计算Gram矩阵时,它才有用。

copy_X布尔,默认=True

如果 True ,X将被复制;否则,可能会被覆盖。

coef_init形状类似阵列(n_features,),默认=无

系数的初始值。

verbosebool或int,默认=False

冗长的数量。

return_n_iter布尔,默认=假

是否返回迭代次数。

positive布尔,默认=假

如果设置为True,则强制系数为正。(Only前容 y.ndim == 1 ).

**paramskwargs

关键字参数传递给坐标下降求解器。

返回:
alphas形状的nd数组(n_alphas,)

沿着模型计算路径的阿尔法。

coefs形状的nd数组(n_features,n_alphas)或 (n_targets,n_features,n_alphas)

沿着路径的系数。

dual_gaps形状的nd数组(n_alphas,)

每个Alpha优化结束时的双重差距。

n_itersint列表

坐标下降优化器为达到每个Alpha的指定容差而进行的迭代次数。

参见

lars_path

使用LARS算法计算最小角度回归或Lasso路径。

Lasso

Lasso是一个估计稀疏系数的线性模型。

LassoLars

Lasso模型与最小角度回归(又名最小角度回归)进行匹配拉斯。

LassoCV

Lasso线性模型,沿着规则化路径迭代匹配。

LassoLarsCV

使用LARS算法交叉验证Lasso。

sklearn.decomposition.sparse_encode

估计器,可用于将信号从固定的原子转换为稀疏线性组合。

注意到

有关示例,请参阅 examples/linear_model/plot_lasso_lasso_lars_elasticnet_path.py .

为了避免不必要的内存重复,fit方法的X参数应直接作为Forrester连续的numpy数组传递。

请注意,在某些情况下,Lars求解器可能会更快地实现此功能。特别是,线性插值可用于检索lars_PATH输出的值之间的模型系数

示例

比较lasso_PATH和lars_PATH与插值:

>>> import numpy as np
>>> from sklearn.linear_model import lasso_path
>>> X = np.array([[1, 2, 3.1], [2.3, 5.4, 4.3]]).T
>>> y = np.array([1, 2, 3.1])
>>> # Use lasso_path to compute a coefficient path
>>> _, coef_path, _ = lasso_path(X, y, alphas=[5., 1., .5])
>>> print(coef_path)
[[0.         0.         0.46874778]
 [0.2159048  0.4425765  0.23689075]]
>>> # Now use lars_path and 1D linear interpolation to compute the
>>> # same path
>>> from sklearn.linear_model import lars_path
>>> alphas, active, coef_path_lars = lars_path(X, y, method='lasso')
>>> from scipy import interpolate
>>> coef_path_continuous = interpolate.interp1d(alphas[::-1],
...                                             coef_path_lars[:, ::-1])
>>> print(coef_path_continuous([5., 1., .5]))
[[0.         0.         0.46915237]
 [0.2159048  0.4425765  0.23668876]]