Skip to main content
Ctrl+K
scikit-learn homepage
  • 安装
  • 用户指南
  • API
  • 示例
  • 社区
    • 入门
    • 解除历史记录
    • 术语表
    • 发展
    • FAQ
    • 支持
    • 相关项目
    • 路线图
    • 治理
    • 关于我们
  • GitHub
  • 安装
  • 用户指南
  • API
  • 示例
  • 社区
    • 入门
    • 解除历史记录
    • 术语表
    • 发展
    • FAQ
    • 支持
    • 相关项目
    • 路线图
    • 治理
    • 关于我们
  • GitHub

Section Navigation

  • 发布亮点
    • scikit-learn 1.6的发布亮点
    • scikit-learn 1.5的发布亮点
    • scikit-learn 1.4的发布亮点
    • scikit-learn 1.3的发布亮点
    • scikit-learn 1.1的发布亮点
    • scikit-learn 1.0的发布亮点
    • scikit-learn 0.24发布亮点
    • scikit-learn 0.23的发布亮点
  • 双聚类
    • 光谱双集群算法的演示
    • 光谱协同聚集算法的演示
    • 使用谱协同集群算法对文档进行二集群
  • 校准
    • 分类器校准的比较
    • 概率校准曲线
    • 分类器的概率校准
  • 分类
    • 分类器比较
    • 具有协方差椭圆体的线性和二次鉴别分析
    • 用于分类的正态、Ledoit-Wolf和OAS线性鉴别分析
    • 识别手写数字
  • 聚类
    • 手写数字数据上的K-Means集群演示
    • 硬币图像上的结构化Ward分层集群演示
    • 均值漂移集群算法的演示
    • 集群绩效评估中的机会调整
    • 有结构和不有结构的集聚
    • 具有不同指标的聚集性集群
    • K-Means++初始化的示例
    • 二分K均值和常规K均值性能比较
    • 比较BIRCH和MiniBatchKMeans
    • 在玩具数据集上比较不同的聚类算法
    • 在玩具数据集上比较不同的分层链接方法
    • K-Means和MiniBatchKMeans集群算法的比较
    • DBSCAN集群算法演示
    • HDSCAN集群算法演示
    • OPTICS分簇算法演示
    • 亲和力传播分簇算法演示
    • k均值假设的证明
    • k均值初始化影响的实证评估
    • 特征聚集
    • 特征聚集与单变量选择
    • 分层集群:结构化与非结构化病房
    • 归纳集群
    • 在线学习面部部分词典
    • 图分层聚集树图
    • 按地区划分希腊硬币的图片
    • 在KMeans聚类中使用轮廓分析选择聚类数
    • 用于图像分割的光谱集群
    • 2D数字嵌入上的各种聚集性聚集
    • 载体量化示例
  • 协方差估计
    • Ledoit-Wolf与OAS估计
    • 稳健协方差估计和Mahalanobis距离相关性
    • 稳健与经验协方差估计
    • 收缩协方差估计:LedoitWolf vs OAS和最大似然
    • 稀疏逆协方差估计
  • 交叉分解
    • 比较交叉分解方法
    • 主成分回归与偏最小平方回归
  • 数据集示例
    • 绘制随机生成的多标签数据集
  • 决策树
    • 决策树回归
    • 绘制在虹膜数据集上训练的决策树的决策面
    • 具有成本复杂性修剪的后修剪决策树
    • 了解决策树结构
  • 分解
    • 使用FastICA的盲源分离
    • Iris数据集LDA和PCA 2D投影的比较
    • Faces数据集分解
    • 因子分析(旋转)以可视化模式
    • 2D点云上的FastICA
    • 使用字典学习的图像去噪
    • 增量PCA
    • 核PCA
    • 使用概率PCA和因子分析(FA)进行模型选择
    • Iris数据集的主成分分析(PCA)
    • 使用预先计算的字典进行稀疏编码
  • 开发估算器
    • __sklearn_is_fitted__ 作为开发人员API
  • 集成方法
    • 梯度提升中的分类特征支持
    • 使用堆叠组合预测因子
    • 比较随机森林和柱状图梯度增强模型
    • 比较随机森林和多输出Meta估计量
    • 使用AdaBoost进行决策树回归
    • Gradient Boosting中的提前停止
    • 树木森林的重要性
    • 使用树木集合的特征转换
    • 梯度增强树的梯度中的功能
    • 梯度提升袋外估计
    • 梯度增强回归
    • 梯度提升正规化
    • 使用完全随机树哈希特征转换
    • 隔离森林示例
    • 单调约束
    • 多类AdaBoosted决策树
    • 随机森林的OOB错误
    • 绘制个人和投票回归预测图
    • 在虹膜数据集中绘制树木集合的决策面
    • 梯度Boosting回归的预测区间
    • 单一估计量与装袋:偏差方差分解
    • 两级AdaBoost
    • 可视化VotingClassifier的概率预测
  • 基于现实世界数据集的示例
    • 压缩感知:使用L1先验进行断层扫描重建(Lasso)
    • 使用特征脸和SVM的人脸识别示例
    • 基于核主成分分析的图像去噪
    • 时间序列预测的滞后特征
    • 模型复杂性影响
    • 真实数据集上的离群值检测
    • 预测延迟
    • 物种分布建模
    • 与时间相关的特征工程
    • 非负矩阵分解和潜在Dirichlet分配的主题提取
    • 股票市场结构可视化
    • 维基百科主特征量
  • 特征选择
    • F检验与互信息的比较
    • 基于模型的顺序特征选择
    • 流水线ANOVA SVM
    • 递归特征消除
    • 单变量特征选择
  • 冻结的估计者
    • 例子利用 FrozenEstimator
  • 高斯混合模型
    • 变异Bayesian高斯混合物的浓度先验型分析
    • 高斯混合物的密度估计
    • GMM检查方法
    • GMM协方差
    • 高斯混合模型椭圆体
    • 高斯混合模型选择
    • 高斯混合模型顺曲线
  • 机器学习的高斯过程
    • 高斯过程回归(GPT)估计数据噪音水平的能力
    • 核岭回归与高斯过程回归的比较
    • 使用高斯过程回归(GPT)预测Mona Loa数据集的二氧化碳水平
    • 高斯过程回归:基本入门示例
    • 虹膜数据集上的高斯过程分类(GSK)
    • 离散数据结构上的高斯过程
    • 异或数据集上的高斯过程分类(GSK)插图
    • 不同核的先验和后验高斯过程的说明
    • 高斯过程分类(GSK)的等概率线
    • 利用高斯过程分类(GSK)进行概率预测
  • 广义线性模型
    • 比较线性Bayesian回归量
    • 利用Bayesian Ridge回归进行曲线匹配
    • 多项和一对二回归的决策边界
    • 随机梯度下降的早停止
    • 使用预先计算的格拉姆矩阵和加权样本来匹配弹性网络
    • HuberRegressor与Ridge在具有强异常值的数据集上
    • 使用多任务Lasso进行联合特征选择
    • 逻辑回归中的L1罚分和稀疏性
    • 基于L1的稀疏信号模型
    • 通过信息标准选择Lasso模型
    • Lasso型号选择:AIC-BIC /交叉验证
    • 密集和稀疏数据上的套索
    • Lasso、Lasso-LARS和Elastic Net路径
    • 逻辑函数
    • 使用多项逻辑+ L1的MNIST分类
    • 20个新群体的多类稀疏逻辑回归
    • 非负最小平方
    • 使用随机梯度下降的一类支持者与一类支持者
    • 普通最小二乘和岭回归
    • 正交匹配追踪
    • 绘制岭系数作为正规化的函数
    • 在iris数据集上绘制多类新元
    • 多项和样条插值
    • 分位数回归
    • L1-逻辑回归的正规化路径
    • 作为L2正则化函数的脊系数
    • 鲁棒线性估计量匹配
    • 使用RASAC的鲁棒线性模型估计
    • 新元:分离超平面的最大裕度
    • 新元:处罚
    • 新元:加权样本
    • 新元:凸损失函数
    • Theil-Sen回归
  • 检查
    • 线性模型系数解释中的常见陷阱
    • 机器学习无法推断因果效应
    • 排列重要性与随机森林特征重要性(Millennium)
    • 具有多重共线或相关特征的排列重要性
  • 核近似
    • 具有多项核逼近的可扩展学习
  • 流形学习
    • 多种学习方法的比较
    • 分割球面上的流形学习方法
    • 手写数字的流形学习:局部线性嵌入,Isomap...
    • 多维标度
    • 瑞士滚动和瑞士洞减少
    • t-SNE:各种困惑度值对形状的影响
  • 杂项
    • 部分相关的高级绘图
    • 比较玩具数据集异常值检测的异常检测算法
    • 核岭回归与SVR的比较
    • 管道
    • NPS估计器和复杂管道
    • 基于RBS核的显式特征图逼近
    • 使用多输出估计器完成面
    • 介绍 set_output API
    • 保序回归
    • 元数据路由
    • 多标签分类
    • 随机投影嵌入的Johnson-Lindenstrauss界
    • 具有显示对象的可视化
  • 缺失值插补
    • 在构建估计器之前输入缺失值
    • 使用IterativeImputer的变体输入缺失值
  • 模型选择
    • 平衡模型复杂性和交叉验证分数
    • 比较随机搜索和网格搜索用于超参数估计
    • 网格搜索和连续减半的比较
    • 混淆矩阵
    • 具有交叉验证的网格搜索自定义改装策略
    • 基于cross_val_score和GridSearchCV的多度量评估演示
    • 模型正规化对训练和测试误差的影响
    • 嵌套与非嵌套交叉验证
    • 绘制交叉验证预测
    • 绘制学习曲线并检查模型的可扩展性
    • 事后调整决策函数的截止点
    • pr曲线
    • 具有交叉验证的接收器工作特性(ROC)
    • 用于文本特征提取和评估的样本管道
    • 使用网格搜索进行模型统计比较
    • 连续减半迭代
    • 用排列测试分类分数的重要性
    • 不足与过度贴合
    • 在scikit-learn中可视化交叉验证行为
  • 多类方法
    • 多类训练元估计器概述
  • 多输出方法
    • 使用分类器链的多标签分类
  • 最近邻居
    • TSNE的大约最近邻居
    • 缓存最近的邻居
    • 比较使用和不使用邻居成分分析的最近邻居
    • 利用邻居成分分析降低维度
    • 物种分布的核密度估计
    • 核密度估计
    • 最近的重心分类
    • 最近邻分类
    • 最近邻回归
    • 邻里要素分析插图
    • 利用本地异常值因子(LOF)进行新颖性检测
    • 使用局部离群因子(LOF)进行离群点检测
    • 简单的1D核密度估计
  • 神经网络
    • 比较MLP分类器的随机学习策略
    • 数字分类的受限制Boltzmann Machine功能
    • 多层感知器中的变化规则化
    • MNIST上MLP权重的可视化
  • 管道和复合估计量
    • 具有异类数据源的列Transformer
    • 混合类型的列Transformer
    • 级联多种特征提取方法
    • 回归模型中目标转换的效果
    • 流水线:链接PCA和逻辑回归
    • 使用Pipeline和GridSearchCV选择降维
  • 预处理
    • 比较不同缩放器对数据的影响与离群值
    • 比较目标编码器与其他编码器
    • 特征缩放的重要性
    • 将数据映射到正态分布
    • 目标编码器的内部交叉拟合
  • 半监督分类
    • Iris数据集上半监督分类器与支持机的决策边界
    • 不同阈值对自我训练的影响
    • 标签传播圈:学习复杂结构
    • 标签传播数字:主动学习
    • 标签传播数字:展示性能
    • 文本数据集的半监督分类
  • 支持向量机
    • 带非线性核(RBS)的一类支持者
    • 具有不同支持机核的地块分类边界
    • 在虹膜数据集中绘制不同的支持者分类器
    • 在LinearSRC中绘制支持载体
    • RBF SVM参数
    • 支持机边缘示例
    • SV打破平局示例
    • 具有自定义内核的支持者
    • SVM-Anova:具有单变量特征选择的支持者
    • SV:最大裕度分离超平面
    • 支持者:分离不平衡类别的超平面
    • 支持者:加权样本
    • 缩放SVCs的正规化参数
    • 使用线性和非线性核的支持量回归(SVR)
  • 使用文本文档
    • 使用稀疏特征对文本文档进行分类
    • 基于k-means的文本聚类
    • 收件箱Hasher和DictVectorizer比较
  • 示例
  • 决策树

决策树#

有关的例子 sklearn.tree module.

决策树回归

Decision Tree Regression

绘制在虹膜数据集上训练的决策树的决策面

Plot the decision surface of decision trees trained on the iris dataset

具有成本复杂性修剪的后修剪决策树

Post pruning decision trees with cost complexity pruning

了解决策树结构

Understanding the decision tree structure

上一页

绘制随机生成的多标签数据集

下一页

决策树回归

© Copyright 2007 - 2025, scikit-learn developers (BSD License).