DecisionTreeClassifier#

class sklearn.tree.DecisionTreeClassifier(*, criterion='gini', splitter='best', max_depth=None, min_samples_split=2, min_samples_leaf=1, min_weight_fraction_leaf=0.0, max_features=None, random_state=None, max_leaf_nodes=None, min_impurity_decrease=0.0, class_weight=None, ccp_alpha=0.0, monotonic_cst=None)[源代码]#

决策树分类器。

阅读更多的 User Guide .

参数:
criterion{“gini”,“entropy”,“log_loss”},默认=“gini”

衡量拆分质量的功能。支持的标准是“基尼”表示基尼不纯,“log_loss”和“entropy”表示香农信息收益,请参阅 数学公式 .

splitter{“最好”,“随机”},默认=“最好”

用于选择每个节点的拆分的策略。支持的策略是“最佳”选择最佳拆分,“随机”选择最佳随机拆分。

max_depthint,默认=无

树的最大深度。如果无,则扩展节点,直到所有叶都是纯的,或者直到所有叶包含的样本少于min_samples_split。

min_samples_splitint或float,默认=2

拆分内部节点所需的最小样本数:

  • 如果是int,那么考虑 min_samples_split 作为最小数量。

  • If float, then min_samples_split is a fraction and ceil(min_samples_split * n_samples) are the minimum number of samples for each split.

在 0.18 版本发生变更: 为分数添加了浮动值。

min_samples_leafint或float,默认=1

叶节点处所需的最小样本数量。任何深度的分裂点只有在至少离开时才会被考虑 min_samples_leaf 左分支和右分支中的训练样本。 这可能会平滑模型,特别是在回归中。

  • 如果是int,那么考虑 min_samples_leaf 作为最小数量。

  • If float, then min_samples_leaf is a fraction and ceil(min_samples_leaf * n_samples) are the minimum number of samples for each node.

在 0.18 版本发生变更: 为分数添加了浮动值。

min_weight_fraction_leaffloat,默认=0.0

叶节点所需的(所有输入样本的)权重总和的最小加权分数。当未提供sample_weight时,样本的重量相同。

max_featuresint、float或{“SQRT”,“log 2”},默认=无

寻找最佳拆分时需要考虑的功能数量:

  • 如果是int,那么考虑 max_features 每个分裂的特征。

  • If float, then max_features is a fraction and max(1, int(max_features * n_features_in_)) features are considered at each split.

  • 如果是“SQRT”,那么 max_features=sqrt(n_features) .

  • 如果“log 2”,那么 max_features=log2(n_features) .

  • If None, then max_features=n_features.

备注

在找到节点样本的至少一个有效分区之前,对拆分的搜索不会停止,即使它需要有效检查超过 max_features 功能.

random_stateint,RandomState实例或无,默认=无

控制估计器的随机性。这些功能总是在每次拆分时随机排列,即使 splitter 设置为 "best" .当 max_features < n_features ,算法将选择 max_features 在每次分裂中随机进行,然后找到其中的最佳分裂。但最佳发现的分裂可能会在不同的运行中有所不同,即使 max_features=n_features .如果标准的改进对于几个拆分是相同的,并且必须随机选择一个拆分,则是这种情况。为了在装配期间获得确定性行为, random_state 必须被固定为一个整数。看到 Glossary 有关详细信息

max_leaf_nodesint,默认=无

种植一棵树 max_leaf_nodes 以最好的方式。最佳节点定义为杂质的相对减少。如果无,则叶节点数量无限。

min_impurity_decreasefloat,默认=0.0

如果这种分裂导致杂质减少大于或等于该值,则节点将被分裂。

加权杂质减少方程如下:

N_t / N * (impurity - N_t_R / N_t * right_impurity
                    - N_t_L / N_t * left_impurity)

哪里 N 是样本总数, N_t 是当前节点处的样本数, N_t_L 是左侧子项中的样本数,并且 N_t_R 是正确子项中的样本数。

N , N_t , N_t_RN_t_L 如果 sample_weight 已通过。

Added in version 0.19.

class_weightdict,dict列表或“平衡”,默认=无

与形式中的类关联的权重 {class_label: weight} .如果无,则所有类别的权重都应该为1。对于多输出问题,可以按照与y列相同的顺序提供一个指令列表。

请注意,对于多输出(包括多标签),应按照其自己的指令为每个列的每个类定义权重。例如,对于四类多标签分类权重应为 [{0: 1, 1: 1}, {0: 1, 1: 5}, {0: 1, 1: 1}, {0: 1, 1: 1}] 而不是 [{1:1}, {2:5}, {3:1}, {4:1}] .

“平衡”模式使用y值自动调整与输入数据中的类别频率成反比例的权重, n_samples / (n_classes * np.bincount(y))

对于多输出,y每列的权重将相乘。

请注意,如果指定了sample_weight,这些权重将与sample_weight相乘(通过fit方法传递)。

ccp_alpha非负浮点数,默认值=0.0

复杂度参数用于最小成本-复杂度修剪。成本复杂性最大的子树小于 ccp_alpha 将被选中。默认情况下,不执行修剪。看到 最小成本复杂性修剪 有关详细信息看到 具有成本复杂性修剪的后修剪决策树 作为这种修剪的一个例子。

Added in version 0.22.

monotonic_cst形状(n_features)的int的类数组,默认=无
指示对每个要素强制执行的单调性约束。
  • 1:单调增加

  • 0:无约束

  • -1:单调减少

如果单调_cst为无,则不应用约束。

不支持单调性约束:
  • 多类分类(即当 n_classes > 2 ),

  • 多输出分类(即当 n_outputs_ > 1 ),

  • 分类在具有缺失值的数据上训练。

这些约束适用于正类的概率。

阅读更多的 User Guide .

Added in version 1.4.

属性:
classes_形状的nd数组(n_classes,)或nd数组列表

类标签(单输出问题),或类标签数组列表(多输出问题)。

feature_importances_形状的nd数组(n_features,)

Return the feature importances.

max_features_int

max_features的推断值。

n_classes_int或int列表

类数(对于单个输出问题),或包含每个输出的类数的列表(对于多输出问题)。

n_features_in_int

期间看到的功能数量 fit .

Added in version 0.24.

feature_names_in_ :nd形状数组 (n_features_in_ ,)nd数组形状(

Names of features seen during fit. Defined only when X has feature names that are all strings.

Added in version 1.0.

n_outputs_int

当时的输出数量 fit 是执行的。

tree_树实例

基础Tree对象。请参阅 help(sklearn.tree._tree.Tree) 对于树对象的属性和 了解决策树结构 这些属性的基本用法。

参见

DecisionTreeRegressor

决策树回归器。

注意到

控制树大小的参数的默认值(例如 max_depth , min_samples_leaf 等)导致完全生长和未修剪的树,这些树在某些数据集中可能非常大。为了减少内存消耗,应通过设置这些参数值来控制树的复杂性和大小。

predict 方法使用 numpy.argmax 对的输出的函数 predict_proba .这意味着,在最高预测概率并列的情况下,分类器将预测具有最低索引的并列类, classes_ .

引用

[2]

L.布莱曼,J·弗里德曼,R.奥尔申和C. Stone,“分类和回归树”,Wadsworth,贝尔蒙特,加利福尼亚州,1984年。

[3]

T.哈斯蒂河蒂布什拉尼和J·弗里德曼。《统计学习的要素》,Springer,2009年。

[4]

L.布莱曼和A.卡特勒,“随机森林”,https://www.stat.berkeley.edu/~breiman/RandomForests/cc_home.htm

示例

>>> from sklearn.datasets import load_iris
>>> from sklearn.model_selection import cross_val_score
>>> from sklearn.tree import DecisionTreeClassifier
>>> clf = DecisionTreeClassifier(random_state=0)
>>> iris = load_iris()
>>> cross_val_score(clf, iris.data, iris.target, cv=10)
...
...
array([ 1.     ,  0.93...,  0.86...,  0.93...,  0.93...,
        0.93...,  0.93...,  1.     ,  0.93...,  1.      ])
apply(X, check_input=True)[源代码]#

返回每个样本预测的叶子的索引。

Added in version 0.17.

参数:
X形状(n_samples,n_features)的{类数组,稀疏矩阵}

输入样本。在内部,它将被转换为 dtype=np.float32 并且如果将稀疏矩阵提供给稀疏矩阵 csr_matrix .

check_input布尔,默认=True

允许绕过多个输入检查。除非您知道自己在做什么,否则不要使用此参数。

返回:
X_leaves形状类似阵列(n_samples,)

对于X中的每个数据点x,返回叶x最终到达的索引。叶子在内编号 [0; self.tree_.node_count) ,编号中可能存在差距。

cost_complexity_pruning_path(X, y, sample_weight=None)[源代码]#

在最小成本复杂性修剪期间计算修剪路径。

看到 最小成本复杂性修剪 了解修剪过程的详细信息。

参数:
X形状(n_samples,n_features)的{类数组,稀疏矩阵}

训练输入样本。在内部,它将被转换为 dtype=np.float32 并且如果将稀疏矩阵提供给稀疏矩阵 csc_matrix .

y形状的类似阵列(n_samples,)或(n_samples,n_outputs)

目标值(类标签)为整数或字符串。

sample_weight形状类似数组(n_samples,),默认=无

样本重量。如果无,则样本的加权相等。在每个节点中搜索拆分时,会创建净零或负权重的子节点的拆分将被忽略。如果分裂会导致任何单个类在任一子节点中具有负权重,则也会被忽略。

返回:
ccp_path : Bunch

类似字典的对象,具有以下属性。

ccp_alphasndarray

剪枝过程中子树的有效alpha值。

杂质ndarray

对应Alpha值的子树叶的杂质总和 ccp_alphas .

decision_path(X, check_input=True)[源代码]#

返回树中的决策路径。

Added in version 0.18.

参数:
X形状(n_samples,n_features)的{类数组,稀疏矩阵}

输入样本。在内部,它将被转换为 dtype=np.float32 并且如果将稀疏矩阵提供给稀疏矩阵 csr_matrix .

check_input布尔,默认=True

允许绕过多个输入检查。除非您知道自己在做什么,否则不要使用此参数。

返回:
indicator形状稀疏矩阵(n_samples,n_nodes)

返回节点指示器CSR矩阵,其中非零元素表示样本经过节点。

fit(X, y, sample_weight=None, check_input=True)[源代码]#

根据训练集(X,y)构建决策树分类器。

参数:
X形状(n_samples,n_features)的{类数组,稀疏矩阵}

训练输入样本。在内部,它将被转换为 dtype=np.float32 并且如果将稀疏矩阵提供给稀疏矩阵 csc_matrix .

y形状的类似阵列(n_samples,)或(n_samples,n_outputs)

目标值(类标签)为整数或字符串。

sample_weight形状类似数组(n_samples,),默认=无

样本重量。如果无,则样本的加权相等。在每个节点中搜索拆分时,会创建净零或负权重的子节点的拆分将被忽略。如果分裂会导致任何单个类在任一子节点中具有负权重,则也会被忽略。

check_input布尔,默认=True

允许绕过多个输入检查。除非您知道自己在做什么,否则不要使用此参数。

返回:
selfDecisionTreeClassifier

拟合估计量。

get_depth()[源代码]#

返回决策树的深度。

树的深度是根和任何叶子之间的最大距离。

返回:
self.tree_.max_depthint

树的最大深度。

get_metadata_routing()[源代码]#

获取此对象的元数据路由。

请检查 User Guide 关于路由机制如何工作。

返回:
routingMetadataRequest

A MetadataRequest 封装路由信息。

get_n_leaves()[源代码]#

返回决策树的叶子数量。

返回:
self.tree_.n_leavesint

树叶数量。

get_params(deep=True)[源代码]#

获取此估计器的参数。

参数:
deep布尔,默认=True

如果为True,将返回此估计量和包含的作为估计量的子对象的参数。

返回:
paramsdict

参数名称映射到其值。

predict(X, check_input=True)[源代码]#

预测X的类或回归值。

对于分类模型,返回X中每个样本的预测类别。对于回归模型,返回基于X的预测值。

参数:
X形状(n_samples,n_features)的{类数组,稀疏矩阵}

输入样本。在内部,它将被转换为 dtype=np.float32 并且如果将稀疏矩阵提供给稀疏矩阵 csr_matrix .

check_input布尔,默认=True

允许绕过多个输入检查。除非您知道自己在做什么,否则不要使用此参数。

返回:
y形状的类似阵列(n_samples,)或(n_samples,n_outputs)

预测的类别或预测值。

predict_log_proba(X)[源代码]#

预测输入样本X的类别对数概率。

参数:
X形状(n_samples,n_features)的{类数组,稀疏矩阵}

输入样本。在内部,它将被转换为 dtype=np.float32 并且如果将稀疏矩阵提供给稀疏矩阵 csr_matrix .

返回:
proba形状的nd数组(n_samples,n_classes)或n_outputs列表 如果n_outputs > 1,则此类数组

输入样本的类对数概率。类的顺序与属性中的顺序相对应 classes_ .

predict_proba(X, check_input=True)[源代码]#

预测输入样本X的类别概率。

预测的类别概率是叶子中同一类别的样本的分数。

参数:
X形状(n_samples,n_features)的{类数组,稀疏矩阵}

输入样本。在内部,它将被转换为 dtype=np.float32 并且如果将稀疏矩阵提供给稀疏矩阵 csr_matrix .

check_input布尔,默认=True

允许绕过多个输入检查。除非您知道自己在做什么,否则不要使用此参数。

返回:
proba形状的nd数组(n_samples,n_classes)或n_outputs列表 如果n_outputs > 1,则此类数组

输入样本的类概率。类的顺序与属性中的顺序相对应 classes_ .

score(X, y, sample_weight=None)[源代码]#

返回给定测试数据和标签的平均准确度。

在多标签分类中,这是子集准确度,这是一个苛刻的指标,因为您需要为每个样本正确预测每个标签集。

参数:
X形状类似阵列(n_samples,n_features)

测试样本。

y形状的类似阵列(n_samples,)或(n_samples,n_outputs)

真正的标签 X .

sample_weight形状类似数组(n_samples,),默认=无

样本重量。

返回:
score浮子

平均准确度 self.predict(X) w.r.t. y .

set_fit_request(*, sample_weight: bool | None | str = '$UNCHANGED$') DecisionTreeClassifier[源代码]#

请求元数据传递给 fit

请注意,此方法仅适用于以下情况 enable_metadata_routing=True (见 sklearn.set_config ).请参阅 User Guide 关于路由机制如何工作。

The options for each parameter are:

  • True :元数据被请求并传递给 fit 如果提供的话。如果未提供元数据,则会忽略请求。

  • False :未请求元数据,元估计器不会将其传递给 fit .

  • None :不请求元数据,如果用户提供元估计器,则元估计器将引发错误。

  • str :元数据应通过此给定别名而不是原始名称传递给元估计器。

默认 (sklearn.utils.metadata_routing.UNCHANGED )保留现有请求。这允许您更改某些参数的请求,而不是其他参数。

Added in version 1.3.

备注

只有当该估计器用作元估计器的子估计器时,该方法才相关,例如在 Pipeline .否则就没有效果了。

参数:
sample_weight字符串、真、假或无, 默认=sklearn.utils. metalics_Routing.UNChanged

元数据路由 sample_weight 参数 fit .

返回:
self对象

更新的对象。

set_params(**params)[源代码]#

设置此估计器的参数。

该方法适用于简单估计器以及嵌套对象(例如 Pipeline ).后者具有以下形式的参数 <component>__<parameter> 以便可以更新嵌套对象的每个组件。

参数:
**paramsdict

估计参数。

返回:
self估计器实例

估计实例。

set_score_request(*, sample_weight: bool | None | str = '$UNCHANGED$') DecisionTreeClassifier[源代码]#

请求元数据传递给 score

请注意,此方法仅适用于以下情况 enable_metadata_routing=True (见 sklearn.set_config ).请参阅 User Guide 关于路由机制如何工作。

The options for each parameter are:

  • True :元数据被请求并传递给 score 如果提供的话。如果未提供元数据,则会忽略请求。

  • False :未请求元数据,元估计器不会将其传递给 score .

  • None :不请求元数据,如果用户提供元估计器,则元估计器将引发错误。

  • str :元数据应通过此给定别名而不是原始名称传递给元估计器。

默认 (sklearn.utils.metadata_routing.UNCHANGED )保留现有请求。这允许您更改某些参数的请求,而不是其他参数。

Added in version 1.3.

备注

只有当该估计器用作元估计器的子估计器时,该方法才相关,例如在 Pipeline .否则就没有效果了。

参数:
sample_weight字符串、真、假或无, 默认=sklearn.utils. metalics_Routing.UNChanged

元数据路由 sample_weight 参数 score .

返回:
self对象

更新的对象。