KMeans#

class sklearn.cluster.KMeans(n_clusters=8, *, init='k-means++', n_init='auto', max_iter=300, tol=0.0001, verbose=0, random_state=None, copy_x=True, algorithm='lloyd')[源代码]#

K-Means聚类

阅读更多的 User Guide .

参数:
n_clustersint, default=8

要形成的集群数量以及要生成的重心数量。

有关如何为 n_clusters 参阅 在KMeans聚类中使用轮廓分析选择聚类数 .

init' k-means ++',可调用或类似数组的形状 (n_clusters,n_features),默认=' k-means ++'

初始化方法:

  • “k-means++”:使用采样选择初始集群重心 基于点的经验概率分布' 对整体惯性的贡献。这项技术可以加速 收敛实现的算法是“贪婪k-means++”。它 与香草k-means++的不同之处在于进行了多次尝试 每个采样步骤并选择其中最佳的重心。

  • 'random':选择 n_clusters 随机观察(行) 初始重心的数据。

  • 如果传递数组,则它的形状应该是(n_clusters,n_features) 并给出初始中心。

  • 如果传递可调用内容,它应该采用参数X、n_clusters和a 随机状态并返回初始化。

有关如何使用不同的示例 init 策略,请参阅 手写数字数据上的K-Means集群演示 .

有关初始化影响的评估,请参阅示例 k均值初始化影响的实证评估 .

n_init“Auto”或int,默认=“Auto”

使用不同质心种子运行k均值算法的次数。最后的结果是最好的输出 n_init 就惯性而言连续运行。对于稀疏的多维问题,建议运行几次(请参阅 使用k均值对稀疏数据进行聚集 ).

n_init='auto' ,运行次数取决于初始值:如果使用,则为10 init='random'init 是可调用的; 1如果使用 init='k-means++'init 是一个类似阵列的。

Added in version 1.2: 添加了“自动”选项 n_init .

在 1.4 版本发生变更: 默认值 n_init 改为 'auto' .

max_iterint,默认=300

k均值算法单次运行的最大迭代次数。

tolfloat,默认= 1 e-4

相对容差关于Frobenius范数的差异在两个连续迭代的聚类中心,以宣布收敛。

verboseint,默认=0

冗长模式。

random_stateint,RandomState实例或无,默认=无

确定重心初始化的随机数生成。使用int使随机性具有确定性。看到 Glossary .

copy_x布尔,默认=True

预计算距离时,首先将数据集中在数字上更准确。如果Copy_x为True(默认),则不会修改原始数据。如果为False,则修改原始数据,并在函数返回之前放回,但通过减法然后相加数据平均值可能会引入小的数字差异。请注意,如果原始数据不是C连续的,即使Copy_x为False,也会进行副本。如果原始数据很稀疏,但不是CSR格式,则即使Copy_x为False,也会创建副本。

algorithm{“lloyd”,“elkan”},默认=“lloyd”

要使用的K-means算法。经典的EM风格算法是 "lloyd" .的 "elkan" 通过使用三角不等式,对于某些具有明确集群的数据集,变异可以更有效。然而,由于分配了额外的形状数组,它的内存更加密集 (n_samples, n_clusters) .

在 0.18 版本发生变更: 添加了Elkan算法

在 1.1 版本发生变更: 将“full”重命名为“lloyd”,并弃用“auto”和“full”。更改“汽车”使用“劳埃德”而不是“埃尔坎”。

属性:
cluster_centers_形状的nd数组(n_classes,n_features)

集群中心的坐标。如果算法在完全收敛之前停止(请参阅 tolmax_iter ),这些不会与 labels_ .

labels_形状的nd数组(n_samples,)

每个点的标签

inertia_浮子

样本到其最近的集群中心的平方距离和,按样本权重加权(如果提供)。

n_iter_int

运行的迭代次数。

n_features_in_int

期间看到的功能数量 fit .

Added in version 0.24.

feature_names_in_ :nd形状数组 (n_features_in_ ,)nd数组形状(

Names of features seen during fit. Defined only when X has feature names that are all strings.

Added in version 1.0.

参见

MiniBatchKMeans

替代在线实施,使用小批量对中心位置进行增量更新。对于大规模学习(例如n_samples > 10 k),MiniBatchKMeans可能比默认的批处理实现快得多。

注意到

k均值问题可以使用劳埃德或埃尔坎算法来解决。

平均复杂度由O(k n T)给出,其中n是样本数量,T是迭代次数。

最坏情况下的复杂度为O(n^(k+2/p)),其中n = n_samples,p = n_features。参阅 "How slow is the k-means method?" D. Arthur and S. Vassilvitskii - SoCG2006. 了解更多详细信息。

在实践中,k-means算法非常快(可用的最快的集群算法之一),但它落入局部极小值。这就是为什么重新启动多次会很有用。

如果算法在完全收敛之前停止(因为 tolmax_iter ), labels_cluster_centers_ 不会是一致的,即 cluster_centers_ 将不是每个聚类中的点的均值。此外,估计器将重新分配 labels_ 在最后一次迭代之后 labels_ 符合 predict 在训练场上

示例

>>> from sklearn.cluster import KMeans
>>> import numpy as np
>>> X = np.array([[1, 2], [1, 4], [1, 0],
...               [10, 2], [10, 4], [10, 0]])
>>> kmeans = KMeans(n_clusters=2, random_state=0, n_init="auto").fit(X)
>>> kmeans.labels_
array([1, 1, 1, 0, 0, 0], dtype=int32)
>>> kmeans.predict([[0, 0], [12, 3]])
array([1, 0], dtype=int32)
>>> kmeans.cluster_centers_
array([[10.,  2.],
       [ 1.,  2.]])

有关K-Means常见问题以及如何解决这些问题的示例,请参阅 k均值假设的证明 .

有关如何使用K-Means对文本文档进行聚集的演示,请参阅 基于k-means的文本聚类 .

有关K-Means和MiniBatchKMeans之间的比较,请参阅示例 K-Means和MiniBatchKMeans集群算法的比较 .

有关K-Means和BisectingKMeans之间的比较,请参阅示例 二分K均值和常规K均值性能比较 .

fit(X, y=None, sample_weight=None)[源代码]#

计算k均值集群。

参数:
X形状(n_samples,n_features)的{类数组,稀疏矩阵}

要集群的训练实例。必须注意的是,数据将被转换为C排序,如果给定数据不是C连续的,这将导致内存复制。如果传递了稀疏矩阵,如果它不是CSR格式,则将创建副本。

y忽视

未使用,此处列出是为了按照惯例实现API一致性。

sample_weight形状类似数组(n_samples,),默认=无

X中每个观察的权重。如果无,则所有观察结果均被赋予相同的权重。 sample_weight 在初始化期间不使用,如果 init 是可调用或用户提供的数组。

Added in version 0.20.

返回:
self对象

拟合估计量。

fit_predict(X, y=None, sample_weight=None)[源代码]#

计算每个样本的集群中心并预测集群指数。

便利法;相当于先调用fit(X),然后调用predict(X)。

参数:
X形状(n_samples,n_features)的{类数组,稀疏矩阵}

需要转换的新数据。

y忽视

未使用,此处列出是为了按照惯例实现API一致性。

sample_weight形状类似数组(n_samples,),默认=无

X中每个观察的权重。如果无,则所有观察结果均被赋予相同的权重。

返回:
labels形状的nd数组(n_samples,)

每个样本所属的集群的索引。

fit_transform(X, y=None, sample_weight=None)[源代码]#

计算集群并将X转换到集群距离空间。

相当于fit(X).transform(X),但实现更有效。

参数:
X形状(n_samples,n_features)的{类数组,稀疏矩阵}

需要转换的新数据。

y忽视

未使用,此处列出是为了按照惯例实现API一致性。

sample_weight形状类似数组(n_samples,),默认=无

X中每个观察的权重。如果无,则所有观察结果均被赋予相同的权重。

返回:
X_new形状的nd数组(n_samples,n_classes)

X在新的空间中变形。

get_feature_names_out(input_features=None)[源代码]#

获取用于转换的输出要素名称。

输出的功能名称将以大写的类别名称为开头。例如,如果Transformer输出3个特征,则输出的特征名称为: ["class_name0", "class_name1", "class_name2"] .

参数:
input_features字符串或无的类数组,默认=无

仅用于通过中看到的名称验证要素名称 fit .

返回:
feature_names_out字符串对象的nd数组

转换的功能名称。

get_metadata_routing()[源代码]#

获取此对象的元数据路由。

请检查 User Guide 关于路由机制如何工作。

返回:
routingMetadataRequest

A MetadataRequest 封装路由信息。

get_params(deep=True)[源代码]#

获取此估计器的参数。

参数:
deep布尔,默认=True

如果为True,将返回此估计量和包含的作为估计量的子对象的参数。

返回:
paramsdict

参数名称映射到其值。

predict(X)[源代码]#

预测X中每个样本所属的最近集群。

在载体量化文献中, cluster_centers_ 称为代码簿,每个值都由 predict 是代码簿中最近代码的索引。

参数:
X形状(n_samples,n_features)的{类数组,稀疏矩阵}

需要预测的新数据。

返回:
labels形状的nd数组(n_samples,)

每个样本所属的集群的索引。

score(X, y=None, sample_weight=None)[源代码]#

与K均值目标上X的值相反。

参数:
X形状(n_samples,n_features)的{类数组,稀疏矩阵}

New data.

y忽视

未使用,此处列出是为了按照惯例实现API一致性。

sample_weight形状类似数组(n_samples,),默认=无

X中每个观察的权重。如果无,则所有观察结果均被赋予相同的权重。

返回:
score浮子

与K均值目标上X的值相反。

set_fit_request(*, sample_weight: bool | None | str = '$UNCHANGED$') KMeans[源代码]#

请求元数据传递给 fit

请注意,此方法仅适用于以下情况 enable_metadata_routing=True (见 sklearn.set_config ).请参阅 User Guide 关于路由机制如何工作。

The options for each parameter are:

  • True :元数据被请求并传递给 fit 如果提供的话。如果未提供元数据,则会忽略请求。

  • False :未请求元数据,元估计器不会将其传递给 fit .

  • None :不请求元数据,如果用户提供元估计器,则元估计器将引发错误。

  • str :元数据应通过此给定别名而不是原始名称传递给元估计器。

默认 (sklearn.utils.metadata_routing.UNCHANGED )保留现有请求。这允许您更改某些参数的请求,而不是其他参数。

Added in version 1.3.

备注

只有当该估计器用作元估计器的子估计器时,该方法才相关,例如在 Pipeline .否则就没有效果了。

参数:
sample_weight字符串、真、假或无, 默认=sklearn.utils. metalics_Routing.UNChanged

元数据路由 sample_weight 参数 fit .

返回:
self对象

更新的对象。

set_output(*, transform=None)[源代码]#

设置输出容器。

看到 介绍 set_output API 了解如何使用API的示例。

参数:
transform{“默认”,“pandas”,“polars”},默认=无

配置输出 transformfit_transform .

  • "default" :Transformer的默认输出格式

  • "pandas" :DataFrame输出

  • "polars" :两极输出

  • None :转换配置不变

Added in version 1.4: "polars" 添加了选项。

返回:
self估计器实例

估计实例。

set_params(**params)[源代码]#

设置此估计器的参数。

该方法适用于简单估计器以及嵌套对象(例如 Pipeline ).后者具有以下形式的参数 <component>__<parameter> 以便可以更新嵌套对象的每个组件。

参数:
**paramsdict

估计参数。

返回:
self估计器实例

估计实例。

set_score_request(*, sample_weight: bool | None | str = '$UNCHANGED$') KMeans[源代码]#

请求元数据传递给 score

请注意,此方法仅适用于以下情况 enable_metadata_routing=True (见 sklearn.set_config ).请参阅 User Guide 关于路由机制如何工作。

The options for each parameter are:

  • True :元数据被请求并传递给 score 如果提供的话。如果未提供元数据,则会忽略请求。

  • False :未请求元数据,元估计器不会将其传递给 score .

  • None :不请求元数据,如果用户提供元估计器,则元估计器将引发错误。

  • str :元数据应通过此给定别名而不是原始名称传递给元估计器。

默认 (sklearn.utils.metadata_routing.UNCHANGED )保留现有请求。这允许您更改某些参数的请求,而不是其他参数。

Added in version 1.3.

备注

只有当该估计器用作元估计器的子估计器时,该方法才相关,例如在 Pipeline .否则就没有效果了。

参数:
sample_weight字符串、真、假或无, 默认=sklearn.utils. metalics_Routing.UNChanged

元数据路由 sample_weight 参数 score .

返回:
self对象

更新的对象。

transform(X)[源代码]#

将X转换为群距空间。

在新空间中,每个维度都是到集群中心的距离。请注意,即使X是稀疏的, transform 通常会很密集。

参数:
X形状(n_samples,n_features)的{类数组,稀疏矩阵}

需要转换的新数据。

返回:
X_new形状的nd数组(n_samples,n_classes)

X在新的空间中变形。