1. 监督学习# 1.1. 线性模型 1.1.1. 普通最小二乘 1.1.2. 岭回归与分类 1.1.3. Lasso 1.1.4. 多任务套索 1.1.5. Elastic-Net 1.1.6. 多任务Elastic-Net 1.1.7. 最小角回归 1.1.8. LARS套索 1.1.9. 垂直匹配追求(OMP) 1.1.10. 贝叶斯回归 1.1.11. Logistic回归 1.1.12. 广义线性模型 1.1.13. 随机梯度下降-新加坡元 1.1.14. 感知器 1.1.15. 被动攻击算法 1.1.16. 稳健性回归:异常值和建模错误 1.1.17. 分位数回归 1.1.18. 多元回归:用基函数扩展线性模型 1.2. 线性和二次鉴别分析 1.2.1. 使用线性鉴别分析降低模糊性 1.2.2. LDA和QDA分类器的数学公式 1.2.3. LDA降维的数学公式 1.2.4. 收缩和协方差估计 1.2.5. 估计算法 1.3. 核岭回归 1.4. 支持向量机 1.4.1. 分类 1.4.2. 回归 1.4.3. 密度估计、新奇检测 1.4.4. 复杂性 1.4.5. 实际使用技巧 1.4.6. 核函数 1.4.7. 数学公式 1.4.8. 实现细节 1.5. 随机梯度下降 1.5.1. 分类 1.5.2. 回归 1.5.3. 在线一类支持者 1.5.4. 稀疏数据的随机梯度下降 1.5.5. 复杂性 1.5.6. 停止标准 1.5.7. 实际使用技巧 1.5.8. 数学公式 1.5.9. 实现细节 1.6. 最近邻居 1.6.1. 无人监督的最近邻居 1.6.2. 最近邻分类 1.6.3. 最近邻居回归 1.6.4. 最近邻居算法 1.6.5. 最近的重心分类器 1.6.6. 最近邻Transformer 1.6.7. 邻里要素分析 1.7. 高斯过程 1.7.1. 高斯过程回归(GPT) 1.7.2. 高斯过程分类(GSK) 1.7.3. 凝胶渗透控制示例 1.7.4. 高斯过程的核 1.8. 交叉分解 1.8.1. PLSCanonical 1.8.2. PLSSVD 1.8.3. PLSRegression 1.8.4. 典型相关分析 1.9. 朴素贝叶斯 1.9.1. 高斯天真的Bayes 1.9.2. 多项式朴素贝叶斯 1.9.3. 补充天真的Bayes 1.9.4. 伯努里天真的贝耶斯 1.9.5. 绝对天真的Bayes 1.9.6. 核心外天真的Bayes模型匹配 1.10. 决策树 1.10.1. 分类 1.10.2. 回归 1.10.3. 多输出问题 1.10.4. 复杂性 1.10.5. 实际使用技巧 1.10.6. 树算法:ID 3、C4.5、C5.0和CART 1.10.7. 数学公式 1.10.8. 缺失的价值观支持 1.10.9. 最小成本复杂性修剪 1.11. 合奏:梯度提升、随机森林、装袋、投票、堆叠 1.11.1. 受影响的树木 1.11.2. 随机森林和其他随机树木群落 1.11.3. 装袋元估计器 1.11.4. 投票分类器 1.11.5. 投票回归者 1.11.6. 堆叠概括 1.11.7. AdaBoost 1.12. 多类和多输出算法 1.12.1. 多类分类 1.12.2. 多标签分类 1.12.3. 多类多输出分类 1.12.4. 多输出回归 1.13. 特征选择 1.13.1. 删除低方差的功能 1.13.2. 单变量特征选择 1.13.3. 递归特征消除 1.13.4. 使用SelectFromModel选择特征 1.13.5. 顺序特征选择 1.13.6. 作为管道一部分的要素选择 1.14. 半监督学习 1.14.1. 自我培训 1.14.2. 标签传播 1.15. 保序回归 1.16. 概率定标 1.16.1. 校准曲线 1.16.2. 校准分类器 1.16.3. 使用 1.17. 神经网络模型(监督) 1.17.1. 多层感知器 1.17.2. 分类 1.17.3. 回归 1.17.4. 正则化 1.17.5. 算法 1.17.6. 复杂性 1.17.7. 实际使用技巧 1.17.8. 使用warm_start提供更多控制