lasso_path#
- sklearn.linear_model.lasso_path(X, y, *, eps=0.001, n_alphas=100, alphas=None, precompute='auto', Xy=None, copy_X=True, coef_init=None, verbose=False, return_n_iter=False, positive=False, **params)[源代码]#
使用坐标下降计算Lasso路径。
Lasso优化功能因单输出和多输出而异。
对于单输出任务,它是::
(1 / (2 * n_samples)) * ||y - Xw||^2_2 + alpha * ||w||_1
对于多输出任务,它是::
(1 / (2 * n_samples)) * ||Y - XW||^2_Fro + alpha * ||W||_21
地点::
||W||_21 = \sum_i \sqrt{\sum_j w_{ij}^2}
即每一行的规范之和。
阅读更多的 User Guide .
- 参数:
- X形状(n_samples,n_features)的{类数组,稀疏矩阵}
训练数据。作为Forrester连续数据直接传递,以避免不必要的内存重复。如果
y
那么是单输出X
可以是稀疏的。- y形状(n_samples,)的{类数组,稀疏矩阵}或 (n_样本,n_目标)
目标值。
- eps浮点数,默认值= 1 e-3
路径的长度。
eps=1e-3
意味着alpha_min / alpha_max = 1e-3
.- n_alphasint,默认=100
正规化路径上阿尔法的数量。
- alphas类数组,默认=无
在哪里计算模型的阿尔法列表。如果
None
阿尔法是自动设置的。- precompute“自动”、布尔或阵列状的形状 (n_features,n_features),默认='自动'
是否使用预先计算的Gram矩阵来加速计算。如果设置为
'auto'
让我们决定。Gram矩阵也可以作为参数传递。- Xy形状类似阵列(n_features,)或(n_features,n_targets), 默认值=无
Xy = np.dot(X.T,y),可以预先计算。只有在预先计算Gram矩阵时,它才有用。
- copy_X布尔,默认=True
如果
True
,X将被复制;否则,可能会被覆盖。- coef_init形状类似阵列(n_features,),默认=无
系数的初始值。
- verbosebool或int,默认=False
冗长的数量。
- return_n_iter布尔,默认=假
是否返回迭代次数。
- positive布尔,默认=假
如果设置为True,则强制系数为正。(Only前容
y.ndim == 1
).- **paramskwargs
关键字参数传递给坐标下降求解器。
- 返回:
- alphas形状的nd数组(n_alphas,)
沿着模型计算路径的阿尔法。
- coefs形状的nd数组(n_features,n_alphas)或 (n_targets,n_features,n_alphas)
沿着路径的系数。
- dual_gaps形状的nd数组(n_alphas,)
每个Alpha优化结束时的双重差距。
- n_itersint列表
坐标下降优化器为达到每个Alpha的指定容差而进行的迭代次数。
参见
lars_path
使用LARS算法计算最小角度回归或Lasso路径。
Lasso
Lasso是一个估计稀疏系数的线性模型。
LassoLars
Lasso模型与最小角度回归(又名最小角度回归)进行匹配拉斯。
LassoCV
Lasso线性模型,沿着规则化路径迭代匹配。
LassoLarsCV
使用LARS算法交叉验证Lasso。
sklearn.decomposition.sparse_encode
估计器,可用于将信号从固定的原子转换为稀疏线性组合。
注意到
有关示例,请参阅 examples/linear_model/plot_lasso_lasso_lars_elasticnet_path.py .
为了避免不必要的内存重复,fit方法的X参数应直接作为Forrester连续的numpy数组传递。
请注意,在某些情况下,Lars求解器可能会更快地实现此功能。特别是,线性插值可用于检索lars_PATH输出的值之间的模型系数
示例
比较lasso_PATH和lars_PATH与插值:
>>> import numpy as np >>> from sklearn.linear_model import lasso_path >>> X = np.array([[1, 2, 3.1], [2.3, 5.4, 4.3]]).T >>> y = np.array([1, 2, 3.1]) >>> # Use lasso_path to compute a coefficient path >>> _, coef_path, _ = lasso_path(X, y, alphas=[5., 1., .5]) >>> print(coef_path) [[0. 0. 0.46874778] [0.2159048 0.4425765 0.23689075]]
>>> # Now use lars_path and 1D linear interpolation to compute the >>> # same path >>> from sklearn.linear_model import lars_path >>> alphas, active, coef_path_lars = lars_path(X, y, method='lasso') >>> from scipy import interpolate >>> coef_path_continuous = interpolate.interp1d(alphas[::-1], ... coef_path_lars[:, ::-1]) >>> print(coef_path_continuous([5., 1., .5])) [[0. 0. 0.46915237] [0.2159048 0.4425765 0.23668876]]