RandomForestRegressor#

class sklearn.ensemble.RandomForestRegressor(n_estimators=100, *, criterion='squared_error', max_depth=None, min_samples_split=2, min_samples_leaf=1, min_weight_fraction_leaf=0.0, max_features=1.0, max_leaf_nodes=None, min_impurity_decrease=0.0, bootstrap=True, oob_score=False, n_jobs=None, random_state=None, verbose=0, warm_start=False, ccp_alpha=0.0, max_samples=None, monotonic_cst=None)[源代码]#

随机森林回归量。

随机森林是一种Meta估计器,它将许多决策树回归量与数据集的各个子样本相匹配,并使用平均值来提高预测准确性并控制过度匹配。森林中的树木使用最好的分裂策略,即相当于通过 splitter="best" 到下面的 DecisionTreeRegressor .子样本大小通过 max_samples 参数:如果 bootstrap=True (默认),否则整个数据集将用于构建每棵树。

有关基于树的集成模型之间的比较,请参见示例 比较随机森林和柱状图梯度增强模型 .

阅读更多的 User Guide .

参数:
n_estimatorsint,默认=100

森林中树木的数量。

在 0.22 版本发生变更: 的默认值 n_estimators 0.22时从10变为100。

criterion{“平方误差”,“绝对误差”,“friedman_mse”,“poisson”}, 默认=“平方错误”

衡量拆分质量的功能。支持的标准是均方误差的“squared_oss”,其等于作为特征选择标准的方差减少,并使用每个终端节点的平均值最小化L2损失,“friedman_mse”,其使用均方误差和Friedman的改进分数来进行潜在分裂,“absolute_oss”用于平均绝对误差,其使用每个终端节点的中位数来最小化L1损失,以及“poisson”,它使用Poisson偏差的减少来寻找分裂。使用“绝对错误”的训练明显比使用“平方错误”慢。

Added in version 0.18: 平均绝对误差(MAE)标准。

Added in version 1.0: Poisson准则。

max_depthint,默认=无

树的最大深度。如果无,则扩展节点,直到所有叶都是纯的,或者直到所有叶包含的样本少于min_samples_split。

min_samples_splitint或float,默认=2

拆分内部节点所需的最小样本数:

  • 如果是int,那么考虑 min_samples_split 作为最小数量。

  • If float, then min_samples_split is a fraction and ceil(min_samples_split * n_samples) are the minimum number of samples for each split.

在 0.18 版本发生变更: 为分数添加了浮动值。

min_samples_leafint或float,默认=1

叶节点处所需的最小样本数量。任何深度的分裂点只有在至少离开时才会被考虑 min_samples_leaf 左分支和右分支中的训练样本。 这可能会平滑模型,特别是在回归中。

  • 如果是int,那么考虑 min_samples_leaf 作为最小数量。

  • If float, then min_samples_leaf is a fraction and ceil(min_samples_leaf * n_samples) are the minimum number of samples for each node.

在 0.18 版本发生变更: 为分数添加了浮动值。

min_weight_fraction_leaffloat,默认=0.0

叶节点所需的(所有输入样本的)权重总和的最小加权分数。当未提供sample_weight时,样本的重量相同。

max_features{“SQRT”,“log 2”,无},int或float,默认=1.0

寻找最佳拆分时需要考虑的功能数量:

  • 如果是int,那么考虑 max_features 每个分裂的特征。

  • If float, then max_features is a fraction and max(1, int(max_features * n_features_in_)) features are considered at each split.

  • 如果是“SQRT”,那么 max_features=sqrt(n_features) .

  • 如果“log 2”,那么 max_features=log2(n_features) .

  • 如果无或1.0,那么 max_features=n_features .

备注

默认值1.0相当于袋装树,可以通过设置较小的值(例如0.3)来实现更多随机性。

在 1.1 版本发生变更: 违约 max_features"auto" 到1.0。

注意:直到找到节点样本的至少一个有效分区,拆分的搜索才会停止,即使它需要有效检查超过 max_features 功能.

max_leaf_nodesint,默认=无

种植树木 max_leaf_nodes 以最好的方式。最佳节点定义为杂质的相对减少。如果无,则叶节点数量无限。

min_impurity_decreasefloat,默认=0.0

如果这种分裂导致杂质减少大于或等于该值,则节点将被分裂。

加权杂质减少方程如下:

N_t / N * (impurity - N_t_R / N_t * right_impurity
                    - N_t_L / N_t * left_impurity)

哪里 N 是样本总数, N_t 是当前节点处的样本数, N_t_L 是左侧子项中的样本数,并且 N_t_R 是正确子项中的样本数。

N , N_t , N_t_RN_t_L 如果 sample_weight 已通过。

Added in version 0.19.

bootstrap布尔,默认=True

构建树时是否使用引导样本。如果为False,则使用整个数据集来构建每棵树。

oob_score布尔或可调用,默认=False

是否使用袋外样本来估计概括分数。默认情况下, r2_score 采用了提供带有签名的可传唤件 metric(y_true, y_pred) 使用自定义指标。仅在以下情况下可用 bootstrap=True .

n_jobsint,默认=无

并行运行的作业数。 fit , predict , decision_pathapply 都在树木上平行排列。 None 意思是1,除非在a中 joblib.parallel_backend 上下文 -1 意味着使用所有处理器。看到 Glossary 了解更多详细信息。

random_stateint,RandomState实例或无,默认=无

控制构建树时使用的样本自举的随机性(如果 bootstrap=True )以及在每个节点寻找最佳拆分时要考虑的要素抽样(如果 max_features < n_features ).看到 Glossary 有关详细信息

verboseint,默认=0

控制匹配和预测时的详细程度。

warm_start布尔,默认=假

如果设置为 True ,重复使用上一次调用的解决方案来适应并向集合添加更多估计量,否则,只适合一个全新的森林。看到 Glossary安装额外的树木 有关详细信息

ccp_alpha非负浮点数,默认值=0.0

复杂度参数用于最小成本-复杂度修剪。成本复杂性最大的子树小于 ccp_alpha 将被选中。默认情况下,不执行修剪。看到 最小成本复杂性修剪 有关详细信息看到 具有成本复杂性修剪的后修剪决策树 作为这种修剪的一个例子。

Added in version 0.22.

max_samplesint或float,默认=无

如果bootstrap为True,则为从X中提取以训练每个基本估计量的样本数。

  • 如果无(默认值),则绘制 X.shape[0] 样品

  • 如果是int,那么画 max_samples 样品

  • 如果是浮动的,那就画画 max(round(n_samples * max_samples), 1) 样品因此, max_samples 应该在间隔 (0.0, 1.0] .

Added in version 0.22.

monotonic_cst形状(n_features)的int的类数组,默认=无
指示对每个要素强制执行的单调性约束。
  • 1:单调增加

  • 0:无约束

  • -1:单调递减

如果单调_cst为无,则不应用约束。

不支持单调性约束:
  • 多输出回归(即当 n_outputs_ > 1 ),

  • regressions trained on data with missing values.

阅读更多的 User Guide .

Added in version 1.4.

属性:
estimator_ : DecisionTreeRegressorDecisionTreeRegressor

用于创建匹配子估计量集合的子估计量模板。

Added in version 1.2: base_estimator_ 更名为 estimator_ .

estimators_DecisionTreeRegressor列表

拟合子估计量的集合。

feature_importances_形状的nd数组(n_features,)

基于杂质的特征很重要。

n_features_in_int

期间看到的功能数量 fit .

Added in version 0.24.

feature_names_in_ :nd形状数组 (n_features_in_ ,)nd数组形状(

Names of features seen during fit. Defined only when X has feature names that are all strings.

Added in version 1.0.

n_outputs_int

当时的输出数量 fit 是执行的。

oob_score_浮子

使用袋外估计获得的训练数据集分数。此属性仅存在于 oob_score 是真的

oob_prediction_形状的nd数组(n_samples,)或(n_samples,n_outputs)

使用训练集的袋外估计计算预测。此属性仅存在于 oob_score 是真的

estimators_samples_list of arrays

为每个基本估计量绘制的样本的子集。

参见

sklearn.tree.DecisionTreeRegressor

决策树回归器。

sklearn.ensemble.ExtraTreesRegressor

极其随机的树回归子的集合。

sklearn.ensemble.HistGradientBoostingRegressor

一个基于柱状图的梯度增强回归树,对于大数据集来说非常快(n_samples >= 10_000)。

注意到

控制树大小的参数的默认值(例如 max_depth , min_samples_leaf 等)导致完全生长和未修剪的树,这些树在某些数据集中可能非常大。为了减少内存消耗,应通过设置这些参数值来控制树的复杂性和大小。

特征总是在每次拆分时随机排列。因此,即使使用相同的训练数据,最佳发现的分裂也可能会有所不同, max_features=n_featuresbootstrap=False ,如果在搜索最佳分裂期间列举的几个分裂的标准改进相同。为了在装配期间获得确定性行为, random_state 必须修复。

默认值 max_features=1.0 使用 n_features 而不是 n_features / 3 .后者最初是在 [1] ,而前者最近在经验上得到了证实, [2] .

引用

[1]
  1. Breiman,“Random Forests”,Machine Learning,45(1),5-32,2001。

[2]

P. Geurts, D. Ernst., and L. Wehenkel, "Extremely randomized trees", Machine Learning, 63(1), 3-42, 2006.

示例

>>> from sklearn.ensemble import RandomForestRegressor
>>> from sklearn.datasets import make_regression
>>> X, y = make_regression(n_features=4, n_informative=2,
...                        random_state=0, shuffle=False)
>>> regr = RandomForestRegressor(max_depth=2, random_state=0)
>>> regr.fit(X, y)
RandomForestRegressor(...)
>>> print(regr.predict([[0, 0, 0, 0]]))
[-8.32987858]
apply(X)[源代码]#

将森林中的树应用于X,返回叶索引。

参数:
X形状(n_samples,n_features)的{类数组,稀疏矩阵}

输入样本。在内部,它的d类型将转换为 dtype=np.float32 .如果提供了稀疏矩阵,则会将其转换为稀疏矩阵 csr_matrix .

返回:
X_leaves形状的nd数组(n_samples,n_estimators)

对于X中的每个数据点x和森林中的每个树,返回x结束的叶子的索引。

decision_path(X)[源代码]#

返回森林中的决策路径。

Added in version 0.18.

参数:
X形状(n_samples,n_features)的{类数组,稀疏矩阵}

输入样本。在内部,它的d类型将转换为 dtype=np.float32 .如果提供了稀疏矩阵,则会将其转换为稀疏矩阵 csr_matrix .

返回:
indicator形状稀疏矩阵(n_samples,n_nodes)

返回一个节点指示符矩阵,其中非零元素指示样本经过节点。该矩阵为CSR格式。

n_nodes_ptr形状的nd数组(n_estimators + 1,)

指标中的列 [n_nodes_ptr[i] :n_nodes_Ptr [i+1] ]给出第i个估计器的指标值。

fit(X, y, sample_weight=None)[源代码]#

根据训练集(X,y)构建树木森林。

参数:
X形状(n_samples,n_features)的{类数组,稀疏矩阵}

The training input samples. Internally, its dtype will be converted to dtype=np.float32. If a sparse matrix is provided, it will be converted into a sparse csc_matrix.

y形状的类似阵列(n_samples,)或(n_samples,n_outputs)

The target values (class labels in classification, real numbers in regression).

sample_weight形状类似数组(n_samples,),默认=无

样本重量。如果无,则样本的加权相等。在每个节点中搜索拆分时,会创建净零或负权重的子节点的拆分将被忽略。在分类的情况下,如果拆分会导致任何单个类在任一子节点中携带负权重,则也会被忽略。

返回:
self对象

拟合估计量。

get_metadata_routing()[源代码]#

获取此对象的元数据路由。

请检查 User Guide 关于路由机制如何工作。

返回:
routingMetadataRequest

A MetadataRequest 封装路由信息。

get_params(deep=True)[源代码]#

获取此估计器的参数。

参数:
deep布尔,默认=True

如果为True,将返回此估计量和包含的作为估计量的子对象的参数。

返回:
paramsdict

参数名称映射到其值。

predict(X)[源代码]#

预测X的回归目标。

输入样本的预测回归目标被计算为森林中树木的平均预测回归目标。

参数:
X形状(n_samples,n_features)的{类数组,稀疏矩阵}

输入样本。在内部,它的d类型将转换为 dtype=np.float32 .如果提供了稀疏矩阵,则会将其转换为稀疏矩阵 csr_matrix .

返回:
y形状的nd数组(n_samples,)或(n_samples,n_outputs)

预测值。

score(X, y, sample_weight=None)[源代码]#

返回预测的决定系数。

决定系数 \(R^2\) 被定义为 \((1 - \frac{u}{v})\) ,在哪里 \(u\) 是残差平方和 ((y_true - y_pred)** 2).sum()\(v\) 是平方总和 ((y_true - y_true.mean()) ** 2).sum() .最好的可能分数是1.0,并且可以是负的(因为模型可以任意更差)。始终预测的期望值的恒定模型 y 如果不考虑输入功能,就会得到 \(R^2\) 评分0.0。

参数:
X形状类似阵列(n_samples,n_features)

Test samples. For some estimators this may be a precomputed kernel matrix or a list of generic objects instead with shape (n_samples, n_samples_fitted), where n_samples_fitted is the number of samples used in the fitting for the estimator.

y形状的类似阵列(n_samples,)或(n_samples,n_outputs)

真正的价值观 X .

sample_weight形状类似数组(n_samples,),默认=无

样本重量。

返回:
score浮子

\(R^2\)self.predict(X) w.r.t. y .

注意到

\(R^2\) 呼叫时使用的分数 score 在回归器上使用 multioutput='uniform_average' 从0.23版本开始,与默认值保持一致 r2_score .这影响了 score 所有多输出回归器的方法(除了 MultiOutputRegressor ).

set_fit_request(*, sample_weight: bool | None | str = '$UNCHANGED$') RandomForestRegressor[源代码]#

请求元数据传递给 fit

请注意,此方法仅适用于以下情况 enable_metadata_routing=True (见 sklearn.set_config ).请参阅 User Guide 关于路由机制如何工作。

The options for each parameter are:

  • True :元数据被请求并传递给 fit 如果提供的话。如果未提供元数据,则会忽略请求。

  • False :未请求元数据,元估计器不会将其传递给 fit .

  • None :不请求元数据,如果用户提供元估计器,则元估计器将引发错误。

  • str :元数据应通过此给定别名而不是原始名称传递给元估计器。

默认 (sklearn.utils.metadata_routing.UNCHANGED )保留现有请求。这允许您更改某些参数的请求,而不是其他参数。

Added in version 1.3.

备注

只有当该估计器用作元估计器的子估计器时,该方法才相关,例如在 Pipeline .否则就没有效果了。

参数:
sample_weight字符串、真、假或无, 默认=sklearn.utils. metalics_Routing.UNChanged

元数据路由 sample_weight 参数 fit .

返回:
self对象

更新的对象。

set_params(**params)[源代码]#

设置此估计器的参数。

该方法适用于简单估计器以及嵌套对象(例如 Pipeline ).后者具有以下形式的参数 <component>__<parameter> 以便可以更新嵌套对象的每个组件。

参数:
**paramsdict

估计参数。

返回:
self估计器实例

估计实例。

set_score_request(*, sample_weight: bool | None | str = '$UNCHANGED$') RandomForestRegressor[源代码]#

请求元数据传递给 score

请注意,此方法仅适用于以下情况 enable_metadata_routing=True (见 sklearn.set_config ).请参阅 User Guide 关于路由机制如何工作。

The options for each parameter are:

  • True :元数据被请求并传递给 score 如果提供的话。如果未提供元数据,则会忽略请求。

  • False :未请求元数据,元估计器不会将其传递给 score .

  • None :不请求元数据,如果用户提供元估计器,则元估计器将引发错误。

  • str :元数据应通过此给定别名而不是原始名称传递给元估计器。

默认 (sklearn.utils.metadata_routing.UNCHANGED )保留现有请求。这允许您更改某些参数的请求,而不是其他参数。

Added in version 1.3.

备注

只有当该估计器用作元估计器的子估计器时,该方法才相关,例如在 Pipeline .否则就没有效果了。

参数:
sample_weight字符串、真、假或无, 默认=sklearn.utils. metalics_Routing.UNChanged

元数据路由 sample_weight 参数 score .

返回:
self对象

更新的对象。