ExtraTreeRegressor#
- class sklearn.tree.ExtraTreeRegressor(*, criterion='squared_error', splitter='random', max_depth=None, min_samples_split=2, min_samples_leaf=1, min_weight_fraction_leaf=0.0, max_features=1.0, random_state=None, min_impurity_decrease=0.0, max_leaf_nodes=None, ccp_alpha=0.0, monotonic_cst=None)[源代码]#
一个极其随机的树回归器。
额外树与经典决策树的构建方式不同。当寻找最佳拆分将节点的样本分为两组时,会为每个组绘制随机拆分
max_features
随机选择的特征并选择其中的最佳分割。当max_features
设置1,这相当于构建一个完全随机的决策树。警告:额外树仅应在集成方法中使用。
阅读更多的 User Guide .
- 参数:
- criterion{“平方误差”,“friedman_mse”,“绝对误差”,“poisson”}, 默认=“平方错误”
衡量拆分质量的功能。支持的标准是均方误差的“squared_oss”,其等于作为特征选择标准的方差减少,并使用每个终端节点的平均值最小化L2损失,“friedman_mse”,其使用均方误差和Friedman的改进分数来进行潜在分裂,“absolute_oss”用于平均绝对误差,其使用每个终端节点的中位数来最小化L1损失,以及“poisson”,它使用Poisson偏差的减少来寻找分裂。
Added in version 0.18: 平均绝对误差(MAE)标准。
Added in version 0.24: Poisson偏差准则。
- splitter{“随机”,“最好”},默认=“随机”
用于选择每个节点的拆分的策略。支持的策略是“最佳”选择最佳拆分,“随机”选择最佳随机拆分。
- max_depthint,默认=无
树的最大深度。如果无,则扩展节点,直到所有叶都是纯的,或者直到所有叶包含的样本少于min_samples_split。
- min_samples_splitint或float,默认=2
拆分内部节点所需的最小样本数:
如果是int,那么考虑
min_samples_split
作为最小数量。If float, then
min_samples_split
is a fraction andceil(min_samples_split * n_samples)
are the minimum number of samples for each split.
在 0.18 版本发生变更: 为分数添加了浮动值。
- min_samples_leafint或float,默认=1
叶节点处所需的最小样本数量。任何深度的分裂点只有在至少离开时才会被考虑
min_samples_leaf
左分支和右分支中的训练样本。 这可能会平滑模型,特别是在回归中。如果是int,那么考虑
min_samples_leaf
作为最小数量。If float, then
min_samples_leaf
is a fraction andceil(min_samples_leaf * n_samples)
are the minimum number of samples for each node.
在 0.18 版本发生变更: 为分数添加了浮动值。
- min_weight_fraction_leaffloat,默认=0.0
叶节点所需的(所有输入样本的)权重总和的最小加权分数。当未提供sample_weight时,样本的重量相同。
- max_featuresint、float、{“SQRT”,“log 2”}或无,默认=1.0
寻找最佳拆分时需要考虑的功能数量:
如果是int,那么考虑
max_features
每个分裂的特征。If float, then
max_features
is a fraction andmax(1, int(max_features * n_features_in_))
features are considered at each split.如果是“SQRT”,那么
max_features=sqrt(n_features)
.如果“log 2”,那么
max_features=log2(n_features)
.If None, then
max_features=n_features
.
在 1.1 版本发生变更: 违约
max_features
由"auto"
到1.0
.注意:直到找到节点样本的至少一个有效分区,拆分的搜索才会停止,即使它需要有效检查超过
max_features
功能.- random_stateint,RandomState实例或无,默认=无
Used to pick randomly the
max_features
used at each split. See Glossary for details.- min_impurity_decreasefloat,默认=0.0
如果这种分裂导致杂质减少大于或等于该值,则节点将被分裂。
加权杂质减少方程如下:
N_t / N * (impurity - N_t_R / N_t * right_impurity - N_t_L / N_t * left_impurity)
哪里
N
是样本总数,N_t
是当前节点处的样本数,N_t_L
是左侧子项中的样本数,并且N_t_R
是正确子项中的样本数。N
,N_t
,N_t_R
和N_t_L
如果sample_weight
已通过。Added in version 0.19.
- max_leaf_nodesint,默认=无
种植一棵树
max_leaf_nodes
以最好的方式。最佳节点定义为杂质的相对减少。如果无,则叶节点数量无限。- ccp_alpha非负浮点数,默认值=0.0
复杂度参数用于最小成本-复杂度修剪。成本复杂性最大的子树小于
ccp_alpha
将被选中。默认情况下,不执行修剪。看到 最小成本复杂性修剪 有关详细信息看到 具有成本复杂性修剪的后修剪决策树 作为这种修剪的一个例子。Added in version 0.22.
- monotonic_cst形状(n_features)的int的类数组,默认=无
- 指示对每个要素强制执行的单调性约束。
1:单调增加
0:无约束
-1:单调减少
如果单调_cst为无,则不应用约束。
- 不支持单调性约束:
多输出回归(即当
n_outputs_ > 1
),regressions trained on data with missing values.
阅读更多的 User Guide .
Added in version 1.4.
- 属性:
- max_features_int
max_features的推断值。
- n_features_in_int
期间看到的功能数量 fit .
Added in version 0.24.
- feature_names_in_ :nd形状数组 (
n_features_in_
,)nd数组形状( Names of features seen during fit. Defined only when
X
has feature names that are all strings.Added in version 1.0.
feature_importances_
形状的nd数组(n_features,)Return the feature importances.
- n_outputs_int
当时的输出数量
fit
是执行的。- tree_树实例
基础Tree对象。请参阅
help(sklearn.tree._tree.Tree)
对于树对象的属性和 了解决策树结构 这些属性的基本用法。
参见
ExtraTreeClassifier
一个极其随机的树分类器。
sklearn.ensemble.ExtraTreesClassifier
一个额外的树分类器。
sklearn.ensemble.ExtraTreesRegressor
额外的树回归因子。
注意到
控制树大小的参数的默认值(例如
max_depth
,min_samples_leaf
等)导致完全生长和未修剪的树,这些树在某些数据集中可能非常大。为了减少内存消耗,应通过设置这些参数值来控制树的复杂性和大小。引用
[1]P. Geurts, D. Ernst., and L. Wehenkel, "Extremely randomized trees", Machine Learning, 63(1), 3-42, 2006.
示例
>>> from sklearn.datasets import load_diabetes >>> from sklearn.model_selection import train_test_split >>> from sklearn.ensemble import BaggingRegressor >>> from sklearn.tree import ExtraTreeRegressor >>> X, y = load_diabetes(return_X_y=True) >>> X_train, X_test, y_train, y_test = train_test_split( ... X, y, random_state=0) >>> extra_tree = ExtraTreeRegressor(random_state=0) >>> reg = BaggingRegressor(extra_tree, random_state=0).fit( ... X_train, y_train) >>> reg.score(X_test, y_test) 0.33...
- apply(X, check_input=True)[源代码]#
返回每个样本预测的叶子的索引。
Added in version 0.17.
- 参数:
- X形状(n_samples,n_features)的{类数组,稀疏矩阵}
输入样本。在内部,它将被转换为
dtype=np.float32
并且如果将稀疏矩阵提供给稀疏矩阵csr_matrix
.- check_input布尔,默认=True
允许绕过多个输入检查。除非您知道自己在做什么,否则不要使用此参数。
- 返回:
- X_leaves形状类似阵列(n_samples,)
对于X中的每个数据点x,返回叶x最终到达的索引。叶子在内编号
[0; self.tree_.node_count)
,编号中可能存在差距。
- cost_complexity_pruning_path(X, y, sample_weight=None)[源代码]#
在最小成本复杂性修剪期间计算修剪路径。
看到 最小成本复杂性修剪 了解修剪过程的详细信息。
- 参数:
- X形状(n_samples,n_features)的{类数组,稀疏矩阵}
训练输入样本。在内部,它将被转换为
dtype=np.float32
并且如果将稀疏矩阵提供给稀疏矩阵csc_matrix
.- y形状的类似阵列(n_samples,)或(n_samples,n_outputs)
目标值(类标签)为整数或字符串。
- sample_weight形状类似数组(n_samples,),默认=无
样本重量。如果无,则样本的加权相等。在每个节点中搜索拆分时,会创建净零或负权重的子节点的拆分将被忽略。如果分裂会导致任何单个类在任一子节点中具有负权重,则也会被忽略。
- 返回:
- ccp_path :
Bunch
群 类似字典的对象,具有以下属性。
- ccp_alphasndarray
剪枝过程中子树的有效alpha值。
- 杂质ndarray
对应Alpha值的子树叶的杂质总和
ccp_alphas
.
- ccp_path :
- decision_path(X, check_input=True)[源代码]#
返回树中的决策路径。
Added in version 0.18.
- 参数:
- X形状(n_samples,n_features)的{类数组,稀疏矩阵}
输入样本。在内部,它将被转换为
dtype=np.float32
并且如果将稀疏矩阵提供给稀疏矩阵csr_matrix
.- check_input布尔,默认=True
允许绕过多个输入检查。除非您知道自己在做什么,否则不要使用此参数。
- 返回:
- indicator形状稀疏矩阵(n_samples,n_nodes)
返回节点指示器CSR矩阵,其中非零元素表示样本经过节点。
- fit(X, y, sample_weight=None, check_input=True)[源代码]#
从训练集(X,y)构建决策树回归器。
- 参数:
- X形状(n_samples,n_features)的{类数组,稀疏矩阵}
训练输入样本。在内部,它将被转换为
dtype=np.float32
并且如果将稀疏矩阵提供给稀疏矩阵csc_matrix
.- y形状的类似阵列(n_samples,)或(n_samples,n_outputs)
目标值(真实数字)。使用
dtype=np.float64
和order='C'
以获得最大效率。- sample_weight形状类似数组(n_samples,),默认=无
样本重量。如果无,则样本的加权相等。在每个节点中搜索拆分时,会创建净零或负权重的子节点的拆分将被忽略。
- check_input布尔,默认=True
允许绕过多个输入检查。除非您知道自己在做什么,否则不要使用此参数。
- 返回:
- selfDecisionTreeRegressor
拟合估计量。
- get_metadata_routing()[源代码]#
获取此对象的元数据路由。
请检查 User Guide 关于路由机制如何工作。
- 返回:
- routingMetadataRequest
A
MetadataRequest
封装路由信息。
- get_params(deep=True)[源代码]#
获取此估计器的参数。
- 参数:
- deep布尔,默认=True
如果为True,将返回此估计量和包含的作为估计量的子对象的参数。
- 返回:
- paramsdict
参数名称映射到其值。
- predict(X, check_input=True)[源代码]#
预测X的类或回归值。
对于分类模型,返回X中每个样本的预测类别。对于回归模型,返回基于X的预测值。
- 参数:
- X形状(n_samples,n_features)的{类数组,稀疏矩阵}
输入样本。在内部,它将被转换为
dtype=np.float32
并且如果将稀疏矩阵提供给稀疏矩阵csr_matrix
.- check_input布尔,默认=True
允许绕过多个输入检查。除非您知道自己在做什么,否则不要使用此参数。
- 返回:
- y形状的类似阵列(n_samples,)或(n_samples,n_outputs)
预测的类别或预测值。
- score(X, y, sample_weight=None)[源代码]#
返回预测的决定系数。
决定系数 \(R^2\) 被定义为 \((1 - \frac{u}{v})\) ,在哪里 \(u\) 是残差平方和
((y_true - y_pred)** 2).sum()
和 \(v\) 是平方总和((y_true - y_true.mean()) ** 2).sum()
.最好的可能分数是1.0,并且可以是负的(因为模型可以任意更差)。始终预测的期望值的恒定模型y
如果不考虑输入功能,就会得到 \(R^2\) 评分0.0。- 参数:
- X形状类似阵列(n_samples,n_features)
Test samples. For some estimators this may be a precomputed kernel matrix or a list of generic objects instead with shape
(n_samples, n_samples_fitted)
, wheren_samples_fitted
is the number of samples used in the fitting for the estimator.- y形状的类似阵列(n_samples,)或(n_samples,n_outputs)
真正的价值观
X
.- sample_weight形状类似数组(n_samples,),默认=无
样本重量。
- 返回:
- score浮子
\(R^2\) 的
self.predict(X)
w.r.t.y
.
注意到
的 \(R^2\) 呼叫时使用的分数
score
在回归器上使用multioutput='uniform_average'
从0.23版本开始,与默认值保持一致r2_score
.这影响了score
所有多输出回归器的方法(除了MultiOutputRegressor
).
- set_fit_request(*, sample_weight: bool | None | str = '$UNCHANGED$') ExtraTreeRegressor [源代码]#
请求元数据传递给
fit
法请注意,此方法仅适用于以下情况
enable_metadata_routing=True
(见sklearn.set_config
).请参阅 User Guide 关于路由机制如何工作。The options for each parameter are:
True
:元数据被请求并传递给fit
如果提供的话。如果未提供元数据,则会忽略请求。False
:未请求元数据,元估计器不会将其传递给fit
.None
:不请求元数据,如果用户提供元估计器,则元估计器将引发错误。str
:元数据应通过此给定别名而不是原始名称传递给元估计器。
默认 (
sklearn.utils.metadata_routing.UNCHANGED
)保留现有请求。这允许您更改某些参数的请求,而不是其他参数。Added in version 1.3.
备注
只有当该估计器用作元估计器的子估计器时,该方法才相关,例如在
Pipeline
.否则就没有效果了。- 参数:
- sample_weight字符串、真、假或无, 默认=sklearn.utils. metalics_Routing.UNChanged
元数据路由
sample_weight
参数fit
.
- 返回:
- self对象
更新的对象。
- set_params(**params)[源代码]#
设置此估计器的参数。
该方法适用于简单估计器以及嵌套对象(例如
Pipeline
).后者具有以下形式的参数<component>__<parameter>
以便可以更新嵌套对象的每个组件。- 参数:
- **paramsdict
估计参数。
- 返回:
- self估计器实例
估计实例。
- set_score_request(*, sample_weight: bool | None | str = '$UNCHANGED$') ExtraTreeRegressor [源代码]#
请求元数据传递给
score
法请注意,此方法仅适用于以下情况
enable_metadata_routing=True
(见sklearn.set_config
).请参阅 User Guide 关于路由机制如何工作。The options for each parameter are:
True
:元数据被请求并传递给score
如果提供的话。如果未提供元数据,则会忽略请求。False
:未请求元数据,元估计器不会将其传递给score
.None
:不请求元数据,如果用户提供元估计器,则元估计器将引发错误。str
:元数据应通过此给定别名而不是原始名称传递给元估计器。
默认 (
sklearn.utils.metadata_routing.UNCHANGED
)保留现有请求。这允许您更改某些参数的请求,而不是其他参数。Added in version 1.3.
备注
只有当该估计器用作元估计器的子估计器时,该方法才相关,例如在
Pipeline
.否则就没有效果了。- 参数:
- sample_weight字符串、真、假或无, 默认=sklearn.utils. metalics_Routing.UNChanged
元数据路由
sample_weight
参数score
.
- 返回:
- self对象
更新的对象。