sklearn.linear_model#
多种线性模型。
User guide. 看到 线性模型 部分了解更多详细信息。
以下小节只是粗略的指导方针:同一估计器可以分为多个类别,具体取决于其参数。
Linear classifiers#
逻辑回归(又名logit、MaxEnt)分类器。 |
|
逻辑回归CV(又名logit,MaxEnt)分类器。 |
|
被动攻击性分类器。 |
|
Linear perceptron classifier. |
|
使用岭回归的分类器。 |
|
具有内置交叉验证的岭分类器。 |
|
线性分类器(支持者、逻辑回归等)接受新加坡元培训。 |
|
使用随机梯度下降来求解线性一类支持者。 |
经典线性回归#
普通最小平方线性回归。 |
|
Linear least squares with l2 regularization. |
|
具有内置交叉验证的岭回归。 |
|
线性模型通过最小化与新元的正规化经验损失来进行。 |
具有变量选择的回归量#
以下估计量具有内置的变量选择拟合过程,但使用L1或弹性网络惩罚的任何估计量也执行变量选择:通常 SGDRegressor
或 SGDClassifier
并处以适当的处罚。
以L1和L2先验组合作为正规化器的线性回归。 |
|
弹性网络模型,沿着规则化路径迭代匹配。 |
|
最小角度回归模型,又名 |
|
交叉验证的最小角回归模型。 |
|
线性模型之前使用L1作为正规化器(又名Lasso)进行训练。 |
|
Lasso线性模型,沿着规则化路径迭代匹配。 |
|
Lasso模型与最小角度回归(又名最小角度回归)进行匹配 |
|
使用LARS算法交叉验证Lasso。 |
|
Lasso模型与Lars匹配,使用BIC或AIC进行模型选择。 |
|
垂直匹配追求模型(OMP)。 |
|
交叉验证的垂直匹配追求模型(OMP)。 |
Bayesian回归量#
Bayesian ARD回归。 |
|
贝氏岭回归。 |
具有变量选择的多任务线性回归器#
这些估计器共同适应多个回归问题(或任务),同时引入稀疏系数。虽然推断出的系数在任务之间可能有所不同,但它们受到限制,必须同意所选择的特征(非零系数)。
多任务ElasticNet模型使用L1/L2混合规范作为正规化器进行训练。 |
|
多任务L1/L2 ElasticNet,内置交叉验证。 |
|
多任务Lasso模型使用L1/L2混合规范作为正规化器进行训练。 |
|
多任务Lasso模型使用L1/L2混合规范作为正规化器进行训练。 |
离群稳健回归量#
任何使用胡伯损失的估计器也对离群值具有鲁棒性,例如, SGDRegressor
与 loss='huber'
.
对异常值具有鲁棒性的L2正规化线性回归模型。 |
|
预测条件分位数的线性回归模型。 |
|
RANSAC (RANdom SAmple Consensus) algorithm. |
|
Theil-Sen Estimate:稳健的多元回归模型。 |
回归的广义线性模型(GLM)#
这些模型允许响应变量具有非正态分布的误差分布。
具有伽玛分布的广义线性模型。 |
|
具有Poisson分布的广义线性模型。 |
|
具有Tweedie分布的广义线性模型。 |
杂项#
被动侵略回归者。 |
|
通过坐标下降计算弹性净路径。 |
|
使用LARS算法计算最小角度回归或Lasso路径。 |
|
充足统计数据模式下的lars_track。 |
|
使用坐标下降计算Lasso路径。 |
|
垂直匹配追求(OMP)。 |
|
革兰氏正匹配追求(OMP)。 |
|
用法向方程的方法求解山脊方程。 |