ExtraTreesClassifier#
- class sklearn.ensemble.ExtraTreesClassifier(n_estimators=100, *, criterion='gini', max_depth=None, min_samples_split=2, min_samples_leaf=1, min_weight_fraction_leaf=0.0, max_features='sqrt', max_leaf_nodes=None, min_impurity_decrease=0.0, bootstrap=False, oob_score=False, n_jobs=None, random_state=None, verbose=0, warm_start=False, class_weight=None, ccp_alpha=0.0, max_samples=None, monotonic_cst=None)[源代码]#
一个额外的树分类器。
此类实现了一个Meta估计器,该估计器适合许多随机决策树(又名额外树)对数据集的各个子样本进行计算,并使用平均值来提高预测准确性并控制过拟合。
阅读更多的 User Guide .
- 参数:
- n_estimatorsint,默认=100
森林中树木的数量。
在 0.22 版本发生变更: 的默认值
n_estimators
0.22时从10变为100。- criterion{“gini”,“entropy”,“log_loss”},默认=“gini”
衡量拆分质量的功能。支持的标准是“基尼”表示基尼不纯,“log_loss”和“entropy”表示香农信息收益,请参阅 数学公式 .注意:此参数是树特定的。
- max_depthint,默认=无
树的最大深度。如果无,则扩展节点,直到所有叶都是纯的,或者直到所有叶包含的样本少于min_samples_split。
- min_samples_splitint或float,默认=2
拆分内部节点所需的最小样本数:
如果是int,那么考虑
min_samples_split
作为最小数量。If float, then
min_samples_split
is a fraction andceil(min_samples_split * n_samples)
are the minimum number of samples for each split.
在 0.18 版本发生变更: 为分数添加了浮动值。
- min_samples_leafint或float,默认=1
叶节点处所需的最小样本数量。任何深度的分裂点只有在至少离开时才会被考虑
min_samples_leaf
左分支和右分支中的训练样本。 这可能会平滑模型,特别是在回归中。如果是int,那么考虑
min_samples_leaf
作为最小数量。If float, then
min_samples_leaf
is a fraction andceil(min_samples_leaf * n_samples)
are the minimum number of samples for each node.
在 0.18 版本发生变更: 为分数添加了浮动值。
- min_weight_fraction_leaffloat,默认=0.0
叶节点所需的(所有输入样本的)权重总和的最小加权分数。当未提供sample_weight时,样本的重量相同。
- max_features{“SQRT”,“log 2”,无},int或float,默认=“SQRT”
寻找最佳拆分时需要考虑的功能数量:
如果是int,那么考虑
max_features
每个分裂的特征。If float, then
max_features
is a fraction andmax(1, int(max_features * n_features_in_))
features are considered at each split.如果是“SQRT”,那么
max_features=sqrt(n_features)
.如果“log 2”,那么
max_features=log2(n_features)
.If None, then
max_features=n_features
.
在 1.1 版本发生变更: 违约
max_features
由"auto"
到"sqrt"
.注意:直到找到节点样本的至少一个有效分区,拆分的搜索才会停止,即使它需要有效检查超过
max_features
功能.- max_leaf_nodesint,默认=无
种植树木
max_leaf_nodes
以最好的方式。最佳节点定义为杂质的相对减少。如果无,则叶节点数量无限。- min_impurity_decreasefloat,默认=0.0
如果这种分裂导致杂质减少大于或等于该值,则节点将被分裂。
加权杂质减少方程如下:
N_t / N * (impurity - N_t_R / N_t * right_impurity - N_t_L / N_t * left_impurity)
哪里
N
是样本总数,N_t
是当前节点处的样本数,N_t_L
是左侧子项中的样本数,并且N_t_R
是正确子项中的样本数。N
,N_t
,N_t_R
和N_t_L
如果sample_weight
已通过。Added in version 0.19.
- bootstrap布尔,默认=假
构建树时是否使用引导样本。如果为False,则使用整个数据集来构建每棵树。
- oob_score布尔或可调用,默认=False
是否使用袋外样本来估计概括分数。默认情况下,
accuracy_score
采用了提供带有签名的可传唤件metric(y_true, y_pred)
使用自定义指标。仅在以下情况下可用bootstrap=True
.- n_jobsint,默认=无
并行运行的作业数。
fit
,predict
,decision_path
和apply
都在树木上平行排列。None
意思是1,除非在a中joblib.parallel_backend
上下文-1
意味着使用所有处理器。看到 Glossary 了解更多详细信息。- random_stateint,RandomState实例或无,默认=无
控制3个随机性来源:
构建树木时使用的样本的引导(如果
bootstrap=True
)在每个节点寻找最佳分割时要考虑的要素抽样(如果
max_features < n_features
)the draw of the splits for each of the
max_features
看到 Glossary 有关详细信息
- verboseint,默认=0
控制匹配和预测时的详细程度。
- warm_start布尔,默认=假
如果设置为
True
,重复使用上一次调用的解决方案来适应并向集合添加更多估计量,否则,只适合一个全新的森林。看到 Glossary 和 安装额外的树木 有关详细信息- class_weight{“平衡”,“平衡_子样本”},dict或dict列表, 默认值=无
与形式中的类关联的权重
{class_label: weight}
.如果没有给出,所有类别的权重都应该为一。对于多输出问题,可以按照与y列相同的顺序提供一个指令列表。请注意,对于多输出(包括多标签),应按照其自己的指令为每个列的每个类定义权重。例如,对于四类多标签分类权重应为 [{0: 1, 1: 1}, {0: 1, 1: 5}, {0: 1, 1: 1}, {0: 1, 1: 1}] 而不是 [{1:1}, {2:5}, {3:1}, {4:1}] .
“平衡”模式使用y值自动调整与输入数据中的类别频率成反比例的权重,
n_samples / (n_classes * np.bincount(y))
“balanced_subsample”模式与“balanced”模式相同,只是权重是根据每棵生长的树的引导样本计算的。
对于多输出,y每列的权重将相乘。
请注意,如果指定了sample_weight,这些权重将与sample_weight相乘(通过fit方法传递)。
- ccp_alpha非负浮点数,默认值=0.0
复杂度参数用于最小成本-复杂度修剪。成本复杂性最大的子树小于
ccp_alpha
将被选中。默认情况下,不执行修剪。看到 最小成本复杂性修剪 有关详细信息看到 具有成本复杂性修剪的后修剪决策树 作为这种修剪的一个例子。Added in version 0.22.
- max_samplesint或float,默认=无
如果bootstrap为True,则为从X中提取以训练每个基本估计量的样本数。
如果无(默认值),则绘制
X.shape[0]
样品如果是int,那么画
max_samples
样品如果是浮动的,那就画画
max_samples * X.shape[0]
样品因此,max_samples
应该在间隔(0.0, 1.0]
.
Added in version 0.22.
- monotonic_cst形状(n_features)的int的类数组,默认=无
- 指示对每个要素强制执行的单调性约束。
1:单调增加
0:无约束
-1:单调递减
如果单调_cst为无,则不应用约束。
- 不支持单调性约束:
多类分类(即当
n_classes > 2
),多输出分类(即当
n_outputs_ > 1
),分类在具有缺失值的数据上训练。
这些约束适用于正类的概率。
阅读更多的 User Guide .
Added in version 1.4.
- 属性:
- estimator_ :
ExtraTreeClassifier
ExtraTreeClassifier
用于创建匹配子估计量集合的子估计量模板。
Added in version 1.2:
base_estimator_
更名为estimator_
.- estimators_DecisionTreeClassiver列表
拟合子估计量的集合。
- classes_形状的nd数组(n_classes,)或此类数组的列表
类标签(单输出问题),或类标签数组列表(多输出问题)。
- n_classes_int或list
The number of classes (single output problem), or a list containing the number of classes for each output (multi-output problem).
feature_importances_
形状的nd数组(n_features,)基于杂质的特征很重要。
- n_features_in_int
期间看到的功能数量 fit .
Added in version 0.24.
- feature_names_in_ :nd形状数组 (
n_features_in_
,)nd数组形状( Names of features seen during fit. Defined only when
X
has feature names that are all strings.Added in version 1.0.
- n_outputs_int
当时的输出数量
fit
是执行的。- oob_score_浮子
使用袋外估计获得的训练数据集分数。此属性仅存在于
oob_score
是真的- oob_decision_function_形状的nd数组(n_samples,n_classes)或 (n_samples,n_classes,n_outputs)
使用训练集的袋外估计计算决策函数。如果n_estimators很小,那么在引导期间可能从未遗漏数据点。在这种情况下,
oob_decision_function_
可能含有NaN。此属性仅存在于oob_score
是真的estimators_samples_
list of arrays为每个基本估计量绘制的样本的子集。
- estimator_ :
参见
ExtraTreesRegressor
随机分裂的额外树回归量。
RandomForestClassifier
具有最佳分割的随机森林分类器。
RandomForestRegressor
使用具有最佳拆分的树来注册回归器。
注意到
控制树大小的参数的默认值(例如
max_depth
,min_samples_leaf
等)导致完全生长和未修剪的树,这些树在某些数据集中可能非常大。为了减少内存消耗,应通过设置这些参数值来控制树的复杂性和大小。引用
[1]P. Geurts, D. Ernst., and L. Wehenkel, "Extremely randomized trees", Machine Learning, 63(1), 3-42, 2006.
示例
>>> from sklearn.ensemble import ExtraTreesClassifier >>> from sklearn.datasets import make_classification >>> X, y = make_classification(n_features=4, random_state=0) >>> clf = ExtraTreesClassifier(n_estimators=100, random_state=0) >>> clf.fit(X, y) ExtraTreesClassifier(random_state=0) >>> clf.predict([[0, 0, 0, 0]]) array([1])
- apply(X)[源代码]#
将森林中的树应用于X,返回叶索引。
- 参数:
- X形状(n_samples,n_features)的{类数组,稀疏矩阵}
输入样本。在内部,它的d类型将转换为
dtype=np.float32
.如果提供了稀疏矩阵,则会将其转换为稀疏矩阵csr_matrix
.
- 返回:
- X_leaves形状的nd数组(n_samples,n_estimators)
对于X中的每个数据点x和森林中的每个树,返回x结束的叶子的索引。
- decision_path(X)[源代码]#
返回森林中的决策路径。
Added in version 0.18.
- 参数:
- X形状(n_samples,n_features)的{类数组,稀疏矩阵}
输入样本。在内部,它的d类型将转换为
dtype=np.float32
.如果提供了稀疏矩阵,则会将其转换为稀疏矩阵csr_matrix
.
- 返回:
- indicator形状稀疏矩阵(n_samples,n_nodes)
返回一个节点指示符矩阵,其中非零元素指示样本经过节点。该矩阵为CSR格式。
- n_nodes_ptr形状的nd数组(n_estimators + 1,)
指标中的列 [n_nodes_ptr[i] :n_nodes_Ptr [i+1] ]给出第i个估计器的指标值。
- fit(X, y, sample_weight=None)[源代码]#
根据训练集(X,y)构建树木森林。
- 参数:
- X形状(n_samples,n_features)的{类数组,稀疏矩阵}
The training input samples. Internally, its dtype will be converted to
dtype=np.float32
. If a sparse matrix is provided, it will be converted into a sparsecsc_matrix
.- y形状的类似阵列(n_samples,)或(n_samples,n_outputs)
The target values (class labels in classification, real numbers in regression).
- sample_weight形状类似数组(n_samples,),默认=无
样本重量。如果无,则样本的加权相等。在每个节点中搜索拆分时,会创建净零或负权重的子节点的拆分将被忽略。在分类的情况下,如果拆分会导致任何单个类在任一子节点中携带负权重,则也会被忽略。
- 返回:
- self对象
拟合估计量。
- get_metadata_routing()[源代码]#
获取此对象的元数据路由。
请检查 User Guide 关于路由机制如何工作。
- 返回:
- routingMetadataRequest
A
MetadataRequest
封装路由信息。
- get_params(deep=True)[源代码]#
获取此估计器的参数。
- 参数:
- deep布尔,默认=True
如果为True,将返回此估计量和包含的作为估计量的子对象的参数。
- 返回:
- paramsdict
参数名称映射到其值。
- predict(X)[源代码]#
预测X的类别。
输入样本的预测类别是森林中树木的投票,并通过它们的概率估计进行加权。也就是说,预测的类别是树中平均概率估计最高的类别。
- 参数:
- X形状(n_samples,n_features)的{类数组,稀疏矩阵}
输入样本。在内部,它的d类型将转换为
dtype=np.float32
.如果提供了稀疏矩阵,则会将其转换为稀疏矩阵csr_matrix
.
- 返回:
- y形状的nd数组(n_samples,)或(n_samples,n_outputs)
预测的班级。
- predict_log_proba(X)[源代码]#
预测X的类对数概率。
输入样本的预测类别对数概率计算为森林中树木的平均预测类别概率的对数。
- 参数:
- X形状(n_samples,n_features)的{类数组,稀疏矩阵}
输入样本。在内部,它的d类型将转换为
dtype=np.float32
.如果提供了稀疏矩阵,则会将其转换为稀疏矩阵csr_matrix
.
- 返回:
- p形状的nd数组(n_samples,n_classes),或此类数组的列表
输入样本的类概率。类的顺序与属性中的顺序相对应 classes_ .
- predict_proba(X)[源代码]#
预测X的类概率。
输入样本的预测类别概率被计算为森林中树木的平均预测类别概率。单棵树的类概率是叶子中同一类样本的比例。
- 参数:
- X形状(n_samples,n_features)的{类数组,稀疏矩阵}
输入样本。在内部,它的d类型将转换为
dtype=np.float32
.如果提供了稀疏矩阵,则会将其转换为稀疏矩阵csr_matrix
.
- 返回:
- p形状的nd数组(n_samples,n_classes),或此类数组的列表
输入样本的类概率。类的顺序与属性中的顺序相对应 classes_ .
- score(X, y, sample_weight=None)[源代码]#
返回给定测试数据和标签的平均准确度。
在多标签分类中,这是子集准确度,这是一个苛刻的指标,因为您需要为每个样本正确预测每个标签集。
- 参数:
- X形状类似阵列(n_samples,n_features)
测试样本。
- y形状的类似阵列(n_samples,)或(n_samples,n_outputs)
真正的标签
X
.- sample_weight形状类似数组(n_samples,),默认=无
样本重量。
- 返回:
- score浮子
平均准确度
self.predict(X)
w.r.t.y
.
- set_fit_request(*, sample_weight: bool | None | str = '$UNCHANGED$') ExtraTreesClassifier [源代码]#
请求元数据传递给
fit
法请注意,此方法仅适用于以下情况
enable_metadata_routing=True
(见sklearn.set_config
).请参阅 User Guide 关于路由机制如何工作。The options for each parameter are:
True
:元数据被请求并传递给fit
如果提供的话。如果未提供元数据,则会忽略请求。False
:未请求元数据,元估计器不会将其传递给fit
.None
:不请求元数据,如果用户提供元估计器,则元估计器将引发错误。str
:元数据应通过此给定别名而不是原始名称传递给元估计器。
默认 (
sklearn.utils.metadata_routing.UNCHANGED
)保留现有请求。这允许您更改某些参数的请求,而不是其他参数。Added in version 1.3.
备注
只有当该估计器用作元估计器的子估计器时,该方法才相关,例如在
Pipeline
.否则就没有效果了。- 参数:
- sample_weight字符串、真、假或无, 默认=sklearn.utils. metalics_Routing.UNChanged
元数据路由
sample_weight
参数fit
.
- 返回:
- self对象
更新的对象。
- set_params(**params)[源代码]#
设置此估计器的参数。
该方法适用于简单估计器以及嵌套对象(例如
Pipeline
).后者具有以下形式的参数<component>__<parameter>
以便可以更新嵌套对象的每个组件。- 参数:
- **paramsdict
估计参数。
- 返回:
- self估计器实例
估计实例。
- set_score_request(*, sample_weight: bool | None | str = '$UNCHANGED$') ExtraTreesClassifier [源代码]#
请求元数据传递给
score
法请注意,此方法仅适用于以下情况
enable_metadata_routing=True
(见sklearn.set_config
).请参阅 User Guide 关于路由机制如何工作。The options for each parameter are:
True
:元数据被请求并传递给score
如果提供的话。如果未提供元数据,则会忽略请求。False
:未请求元数据,元估计器不会将其传递给score
.None
:不请求元数据,如果用户提供元估计器,则元估计器将引发错误。str
:元数据应通过此给定别名而不是原始名称传递给元估计器。
默认 (
sklearn.utils.metadata_routing.UNCHANGED
)保留现有请求。这允许您更改某些参数的请求,而不是其他参数。Added in version 1.3.
备注
只有当该估计器用作元估计器的子估计器时,该方法才相关,例如在
Pipeline
.否则就没有效果了。- 参数:
- sample_weight字符串、真、假或无, 默认=sklearn.utils. metalics_Routing.UNChanged
元数据路由
sample_weight
参数score
.
- 返回:
- self对象
更新的对象。