DecisionTreeClassifier#
- class sklearn.tree.DecisionTreeClassifier(*, criterion='gini', splitter='best', max_depth=None, min_samples_split=2, min_samples_leaf=1, min_weight_fraction_leaf=0.0, max_features=None, random_state=None, max_leaf_nodes=None, min_impurity_decrease=0.0, class_weight=None, ccp_alpha=0.0, monotonic_cst=None)[源代码]#
决策树分类器。
阅读更多的 User Guide .
- 参数:
- criterion{“gini”,“entropy”,“log_loss”},默认=“gini”
衡量拆分质量的功能。支持的标准是“基尼”表示基尼不纯,“log_loss”和“entropy”表示香农信息收益,请参阅 数学公式 .
- splitter{“最好”,“随机”},默认=“最好”
用于选择每个节点的拆分的策略。支持的策略是“最佳”选择最佳拆分,“随机”选择最佳随机拆分。
- max_depthint,默认=无
树的最大深度。如果无,则扩展节点,直到所有叶都是纯的,或者直到所有叶包含的样本少于min_samples_split。
- min_samples_splitint或float,默认=2
拆分内部节点所需的最小样本数:
如果是int,那么考虑
min_samples_split
作为最小数量。If float, then
min_samples_split
is a fraction andceil(min_samples_split * n_samples)
are the minimum number of samples for each split.
在 0.18 版本发生变更: 为分数添加了浮动值。
- min_samples_leafint或float,默认=1
叶节点处所需的最小样本数量。任何深度的分裂点只有在至少离开时才会被考虑
min_samples_leaf
左分支和右分支中的训练样本。 这可能会平滑模型,特别是在回归中。如果是int,那么考虑
min_samples_leaf
作为最小数量。If float, then
min_samples_leaf
is a fraction andceil(min_samples_leaf * n_samples)
are the minimum number of samples for each node.
在 0.18 版本发生变更: 为分数添加了浮动值。
- min_weight_fraction_leaffloat,默认=0.0
叶节点所需的(所有输入样本的)权重总和的最小加权分数。当未提供sample_weight时,样本的重量相同。
- max_featuresint、float或{“SQRT”,“log 2”},默认=无
寻找最佳拆分时需要考虑的功能数量:
如果是int,那么考虑
max_features
每个分裂的特征。If float, then
max_features
is a fraction andmax(1, int(max_features * n_features_in_))
features are considered at each split.如果是“SQRT”,那么
max_features=sqrt(n_features)
.如果“log 2”,那么
max_features=log2(n_features)
.If None, then
max_features=n_features
.
备注
在找到节点样本的至少一个有效分区之前,对拆分的搜索不会停止,即使它需要有效检查超过
max_features
功能.- random_stateint,RandomState实例或无,默认=无
控制估计器的随机性。这些功能总是在每次拆分时随机排列,即使
splitter
设置为"best"
.当max_features < n_features
,算法将选择max_features
在每次分裂中随机进行,然后找到其中的最佳分裂。但最佳发现的分裂可能会在不同的运行中有所不同,即使max_features=n_features
.如果标准的改进对于几个拆分是相同的,并且必须随机选择一个拆分,则是这种情况。为了在装配期间获得确定性行为,random_state
必须被固定为一个整数。看到 Glossary 有关详细信息- max_leaf_nodesint,默认=无
种植一棵树
max_leaf_nodes
以最好的方式。最佳节点定义为杂质的相对减少。如果无,则叶节点数量无限。- min_impurity_decreasefloat,默认=0.0
如果这种分裂导致杂质减少大于或等于该值,则节点将被分裂。
加权杂质减少方程如下:
N_t / N * (impurity - N_t_R / N_t * right_impurity - N_t_L / N_t * left_impurity)
哪里
N
是样本总数,N_t
是当前节点处的样本数,N_t_L
是左侧子项中的样本数,并且N_t_R
是正确子项中的样本数。N
,N_t
,N_t_R
和N_t_L
如果sample_weight
已通过。Added in version 0.19.
- class_weightdict,dict列表或“平衡”,默认=无
与形式中的类关联的权重
{class_label: weight}
.如果无,则所有类别的权重都应该为1。对于多输出问题,可以按照与y列相同的顺序提供一个指令列表。请注意,对于多输出(包括多标签),应按照其自己的指令为每个列的每个类定义权重。例如,对于四类多标签分类权重应为 [{0: 1, 1: 1}, {0: 1, 1: 5}, {0: 1, 1: 1}, {0: 1, 1: 1}] 而不是 [{1:1}, {2:5}, {3:1}, {4:1}] .
“平衡”模式使用y值自动调整与输入数据中的类别频率成反比例的权重,
n_samples / (n_classes * np.bincount(y))
对于多输出,y每列的权重将相乘。
请注意,如果指定了sample_weight,这些权重将与sample_weight相乘(通过fit方法传递)。
- ccp_alpha非负浮点数,默认值=0.0
复杂度参数用于最小成本-复杂度修剪。成本复杂性最大的子树小于
ccp_alpha
将被选中。默认情况下,不执行修剪。看到 最小成本复杂性修剪 有关详细信息看到 具有成本复杂性修剪的后修剪决策树 作为这种修剪的一个例子。Added in version 0.22.
- monotonic_cst形状(n_features)的int的类数组,默认=无
- 指示对每个要素强制执行的单调性约束。
1:单调增加
0:无约束
-1:单调减少
如果单调_cst为无,则不应用约束。
- 不支持单调性约束:
多类分类(即当
n_classes > 2
),多输出分类(即当
n_outputs_ > 1
),分类在具有缺失值的数据上训练。
这些约束适用于正类的概率。
阅读更多的 User Guide .
Added in version 1.4.
- 属性:
- classes_形状的nd数组(n_classes,)或nd数组列表
类标签(单输出问题),或类标签数组列表(多输出问题)。
feature_importances_
形状的nd数组(n_features,)Return the feature importances.
- max_features_int
max_features的推断值。
- n_classes_int或int列表
类数(对于单个输出问题),或包含每个输出的类数的列表(对于多输出问题)。
- n_features_in_int
期间看到的功能数量 fit .
Added in version 0.24.
- feature_names_in_ :nd形状数组 (
n_features_in_
,)nd数组形状( Names of features seen during fit. Defined only when
X
has feature names that are all strings.Added in version 1.0.
- n_outputs_int
当时的输出数量
fit
是执行的。- tree_树实例
基础Tree对象。请参阅
help(sklearn.tree._tree.Tree)
对于树对象的属性和 了解决策树结构 这些属性的基本用法。
参见
DecisionTreeRegressor
决策树回归器。
注意到
控制树大小的参数的默认值(例如
max_depth
,min_samples_leaf
等)导致完全生长和未修剪的树,这些树在某些数据集中可能非常大。为了减少内存消耗,应通过设置这些参数值来控制树的复杂性和大小。的
predict
方法使用numpy.argmax
对的输出的函数predict_proba
.这意味着,在最高预测概率并列的情况下,分类器将预测具有最低索引的并列类, classes_ .引用
[2]L.布莱曼,J·弗里德曼,R.奥尔申和C. Stone,“分类和回归树”,Wadsworth,贝尔蒙特,加利福尼亚州,1984年。
[3]T.哈斯蒂河蒂布什拉尼和J·弗里德曼。《统计学习的要素》,Springer,2009年。
[4]L.布莱曼和A.卡特勒,“随机森林”,https://www.stat.berkeley.edu/~breiman/RandomForests/cc_home.htm
示例
>>> from sklearn.datasets import load_iris >>> from sklearn.model_selection import cross_val_score >>> from sklearn.tree import DecisionTreeClassifier >>> clf = DecisionTreeClassifier(random_state=0) >>> iris = load_iris() >>> cross_val_score(clf, iris.data, iris.target, cv=10) ... ... array([ 1. , 0.93..., 0.86..., 0.93..., 0.93..., 0.93..., 0.93..., 1. , 0.93..., 1. ])
- apply(X, check_input=True)[源代码]#
返回每个样本预测的叶子的索引。
Added in version 0.17.
- 参数:
- X形状(n_samples,n_features)的{类数组,稀疏矩阵}
输入样本。在内部,它将被转换为
dtype=np.float32
并且如果将稀疏矩阵提供给稀疏矩阵csr_matrix
.- check_input布尔,默认=True
允许绕过多个输入检查。除非您知道自己在做什么,否则不要使用此参数。
- 返回:
- X_leaves形状类似阵列(n_samples,)
对于X中的每个数据点x,返回叶x最终到达的索引。叶子在内编号
[0; self.tree_.node_count)
,编号中可能存在差距。
- cost_complexity_pruning_path(X, y, sample_weight=None)[源代码]#
在最小成本复杂性修剪期间计算修剪路径。
看到 最小成本复杂性修剪 了解修剪过程的详细信息。
- 参数:
- X形状(n_samples,n_features)的{类数组,稀疏矩阵}
训练输入样本。在内部,它将被转换为
dtype=np.float32
并且如果将稀疏矩阵提供给稀疏矩阵csc_matrix
.- y形状的类似阵列(n_samples,)或(n_samples,n_outputs)
目标值(类标签)为整数或字符串。
- sample_weight形状类似数组(n_samples,),默认=无
样本重量。如果无,则样本的加权相等。在每个节点中搜索拆分时,会创建净零或负权重的子节点的拆分将被忽略。如果分裂会导致任何单个类在任一子节点中具有负权重,则也会被忽略。
- 返回:
- ccp_path :
Bunch
群 类似字典的对象,具有以下属性。
- ccp_alphasndarray
剪枝过程中子树的有效alpha值。
- 杂质ndarray
对应Alpha值的子树叶的杂质总和
ccp_alphas
.
- ccp_path :
- decision_path(X, check_input=True)[源代码]#
返回树中的决策路径。
Added in version 0.18.
- 参数:
- X形状(n_samples,n_features)的{类数组,稀疏矩阵}
输入样本。在内部,它将被转换为
dtype=np.float32
并且如果将稀疏矩阵提供给稀疏矩阵csr_matrix
.- check_input布尔,默认=True
允许绕过多个输入检查。除非您知道自己在做什么,否则不要使用此参数。
- 返回:
- indicator形状稀疏矩阵(n_samples,n_nodes)
返回节点指示器CSR矩阵,其中非零元素表示样本经过节点。
- fit(X, y, sample_weight=None, check_input=True)[源代码]#
根据训练集(X,y)构建决策树分类器。
- 参数:
- X形状(n_samples,n_features)的{类数组,稀疏矩阵}
训练输入样本。在内部,它将被转换为
dtype=np.float32
并且如果将稀疏矩阵提供给稀疏矩阵csc_matrix
.- y形状的类似阵列(n_samples,)或(n_samples,n_outputs)
目标值(类标签)为整数或字符串。
- sample_weight形状类似数组(n_samples,),默认=无
样本重量。如果无,则样本的加权相等。在每个节点中搜索拆分时,会创建净零或负权重的子节点的拆分将被忽略。如果分裂会导致任何单个类在任一子节点中具有负权重,则也会被忽略。
- check_input布尔,默认=True
允许绕过多个输入检查。除非您知道自己在做什么,否则不要使用此参数。
- 返回:
- selfDecisionTreeClassifier
拟合估计量。
- get_metadata_routing()[源代码]#
获取此对象的元数据路由。
请检查 User Guide 关于路由机制如何工作。
- 返回:
- routingMetadataRequest
A
MetadataRequest
封装路由信息。
- get_params(deep=True)[源代码]#
获取此估计器的参数。
- 参数:
- deep布尔,默认=True
如果为True,将返回此估计量和包含的作为估计量的子对象的参数。
- 返回:
- paramsdict
参数名称映射到其值。
- predict(X, check_input=True)[源代码]#
预测X的类或回归值。
对于分类模型,返回X中每个样本的预测类别。对于回归模型,返回基于X的预测值。
- 参数:
- X形状(n_samples,n_features)的{类数组,稀疏矩阵}
输入样本。在内部,它将被转换为
dtype=np.float32
并且如果将稀疏矩阵提供给稀疏矩阵csr_matrix
.- check_input布尔,默认=True
允许绕过多个输入检查。除非您知道自己在做什么,否则不要使用此参数。
- 返回:
- y形状的类似阵列(n_samples,)或(n_samples,n_outputs)
预测的类别或预测值。
- predict_log_proba(X)[源代码]#
预测输入样本X的类别对数概率。
- 参数:
- X形状(n_samples,n_features)的{类数组,稀疏矩阵}
输入样本。在内部,它将被转换为
dtype=np.float32
并且如果将稀疏矩阵提供给稀疏矩阵csr_matrix
.
- 返回:
- proba形状的nd数组(n_samples,n_classes)或n_outputs列表 如果n_outputs > 1,则此类数组
输入样本的类对数概率。类的顺序与属性中的顺序相对应 classes_ .
- predict_proba(X, check_input=True)[源代码]#
预测输入样本X的类别概率。
预测的类别概率是叶子中同一类别的样本的分数。
- 参数:
- X形状(n_samples,n_features)的{类数组,稀疏矩阵}
输入样本。在内部,它将被转换为
dtype=np.float32
并且如果将稀疏矩阵提供给稀疏矩阵csr_matrix
.- check_input布尔,默认=True
允许绕过多个输入检查。除非您知道自己在做什么,否则不要使用此参数。
- 返回:
- proba形状的nd数组(n_samples,n_classes)或n_outputs列表 如果n_outputs > 1,则此类数组
输入样本的类概率。类的顺序与属性中的顺序相对应 classes_ .
- score(X, y, sample_weight=None)[源代码]#
返回给定测试数据和标签的平均准确度。
在多标签分类中,这是子集准确度,这是一个苛刻的指标,因为您需要为每个样本正确预测每个标签集。
- 参数:
- X形状类似阵列(n_samples,n_features)
测试样本。
- y形状的类似阵列(n_samples,)或(n_samples,n_outputs)
真正的标签
X
.- sample_weight形状类似数组(n_samples,),默认=无
样本重量。
- 返回:
- score浮子
平均准确度
self.predict(X)
w.r.t.y
.
- set_fit_request(*, sample_weight: bool | None | str = '$UNCHANGED$') DecisionTreeClassifier [源代码]#
请求元数据传递给
fit
法请注意,此方法仅适用于以下情况
enable_metadata_routing=True
(见sklearn.set_config
).请参阅 User Guide 关于路由机制如何工作。The options for each parameter are:
True
:元数据被请求并传递给fit
如果提供的话。如果未提供元数据,则会忽略请求。False
:未请求元数据,元估计器不会将其传递给fit
.None
:不请求元数据,如果用户提供元估计器,则元估计器将引发错误。str
:元数据应通过此给定别名而不是原始名称传递给元估计器。
默认 (
sklearn.utils.metadata_routing.UNCHANGED
)保留现有请求。这允许您更改某些参数的请求,而不是其他参数。Added in version 1.3.
备注
只有当该估计器用作元估计器的子估计器时,该方法才相关,例如在
Pipeline
.否则就没有效果了。- 参数:
- sample_weight字符串、真、假或无, 默认=sklearn.utils. metalics_Routing.UNChanged
元数据路由
sample_weight
参数fit
.
- 返回:
- self对象
更新的对象。
- set_params(**params)[源代码]#
设置此估计器的参数。
该方法适用于简单估计器以及嵌套对象(例如
Pipeline
).后者具有以下形式的参数<component>__<parameter>
以便可以更新嵌套对象的每个组件。- 参数:
- **paramsdict
估计参数。
- 返回:
- self估计器实例
估计实例。
- set_score_request(*, sample_weight: bool | None | str = '$UNCHANGED$') DecisionTreeClassifier [源代码]#
请求元数据传递给
score
法请注意,此方法仅适用于以下情况
enable_metadata_routing=True
(见sklearn.set_config
).请参阅 User Guide 关于路由机制如何工作。The options for each parameter are:
True
:元数据被请求并传递给score
如果提供的话。如果未提供元数据,则会忽略请求。False
:未请求元数据,元估计器不会将其传递给score
.None
:不请求元数据,如果用户提供元估计器,则元估计器将引发错误。str
:元数据应通过此给定别名而不是原始名称传递给元估计器。
默认 (
sklearn.utils.metadata_routing.UNCHANGED
)保留现有请求。这允许您更改某些参数的请求,而不是其他参数。Added in version 1.3.
备注
只有当该估计器用作元估计器的子估计器时,该方法才相关,例如在
Pipeline
.否则就没有效果了。- 参数:
- sample_weight字符串、真、假或无, 默认=sklearn.utils. metalics_Routing.UNChanged
元数据路由
sample_weight
参数score
.
- 返回:
- self对象
更新的对象。