您的位置:

sklearn聚类详解

一、sklearn聚类算法

聚类算法是一种机器学习算法,常见的sklearn聚类算法有KMeans、DBSCAN、层次聚类、高斯混合聚类等。其中,KMeans是最常用的一种聚类算法,也是sklearn中最基本的聚类算法之一。


from sklearn.cluster import KMeans

# 创建一个聚类器对象,参数n_clusters代表聚类的个数
kmeans = KMeans(n_clusters=3)

# 聚类
kmeans.fit(X)

二、sklearn数据集

sklearn中提供了一些经常被用来测试分类算法和聚类算法的数据集,例如鸢尾花数据集、手写数字数据集等。对于初学者来说,这些数据集可以用来快速地了解分类和聚类算法的基本使用。


from sklearn.datasets import load_iris

# 加载鸢尾花数据集
iris = load_iris()

# 获取数据集的特征和标签
X = iris.data
y = iris.target

三、sklearn聚类方法

sklearn中提供了多种聚类方法,包括KMeans、DBSCAN、层次聚类、高斯混合聚类等。这些聚类方法在聚类方式、聚类效果和使用方法上都有一定的区别。


# 使用KMeans聚类
from sklearn.cluster import KMeans

kmeans = KMeans(n_clusters=3)
kmeans.fit(X)

# 使用DBSCAN聚类
from sklearn.cluster import DBSCAN

dbscan = DBSCAN(eps=0.5, min_samples=5)
dbscan.fit(X)

四、sklearn聚类评价指标

在聚类中,我们常常需要评价聚类效果的好坏。常见的评价指标有轮廓系数(silhouette coefficient)、Calinski-Harabasz指数和Davies-Bouldin指数等。


# 使用轮廓系数评价KMeans聚类效果
from sklearn.metrics import silhouette_score

score = silhouette_score(X, kmeans.labels_, metric='euclidean')
print(score)

五、sklearn聚类分析

对于得到的聚类结果,我们需要进行可视化分析。sklearn中提供了多种可视化方法,例如利用t-SNE降维和PCA降维将高维数据可视化。


# 利用t-SNE可视化聚类效果
from sklearn.manifold import TSNE
import matplotlib.pyplot as plt

# 将高维数据降维到2维
tsne = TSNE(n_components=2, init='pca', random_state=501)
X_tsne = tsne.fit_transform(X)

# 绘制聚类效果图
plt.scatter(X_tsne[:, 0], X_tsne[:, 1], c=kmeans.labels_)
plt.show()

六、sklearn聚类实例

下面通过一个实际的案例来应用sklearn的聚类算法,对红酒进行聚类。


# 加载红酒数据集
from sklearn.datasets import load_wine
wine = load_wine()

# 使用KMeans聚类
from sklearn.cluster import KMeans
kmeans = KMeans(n_clusters=3)
kmeans.fit(wine.data)

# 可视化聚类结果
from sklearn.manifold import TSNE
import matplotlib.pyplot as plt

# 将高维数据降维到2维
tsne = TSNE(n_components=2, init='pca', random_state=501)
wine_tsne = tsne.fit_transform(wine.data)

# 绘制聚类效果图
plt.scatter(wine_tsne[:, 0], wine_tsne[:, 1], c=kmeans.labels_)
plt.show()

七、sklearn聚类代码

下面是一个完整的聚类代码示例,包括对数据的加载、标准化、聚类、聚类效果评估和可视化等。


# 加载数据集
from sklearn.datasets import load_iris
iris = load_iris()

# 标准化数据
from sklearn.preprocessing import StandardScaler
X = StandardScaler().fit_transform(iris.data)

# 使用KMeans聚类
from sklearn.cluster import KMeans
kmeans = KMeans(n_clusters=3)
kmeans.fit(X)

# 使用轮廓系数评价聚类效果
from sklearn.metrics import silhouette_score
score = silhouette_score(X, kmeans.labels_, metric='euclidean')
print("轮廓系数:", score)

# 使用t-SNE可视化聚类效果
from sklearn.manifold import TSNE
import matplotlib.pyplot as plt

# 将高维数据降维到2维
tsne = TSNE(n_components=2, init='pca', random_state=501)
X_tsne = tsne.fit_transform(X)

# 绘制聚类效果图
plt.scatter(X_tsne[:, 0], X_tsne[:, 1], c=kmeans.labels_)
plt.show()

八、sklearn聚类中心

在kmeans聚类算法中,聚类中心是聚类的核心,所有数据点都将根据它们与聚类中心之间的距离来进行聚类。


# 获取聚类中心
centers = kmeans.cluster_centers_

# 绘制聚类中心
plt.scatter(X_tsne[:, 0], X_tsne[:, 1], c=kmeans.labels_)
plt.scatter(centers[:, 0], centers[:, 1], c='r', s=120, marker='s')
plt.show()

九、sklearn聚类基于分层的聚类算法

分层聚类是一种聚类方法,它将数据点分为多个层次,并将同一层次中的数据点分为一个簇。sklearn中的分层聚类包括凝聚层次聚类和分裂层次聚类。


# 使用凝聚层次聚类
from sklearn.cluster import AgglomerativeClustering

agg = AgglomerativeClustering(n_clusters=3)
agg.fit(X)

# 可视化聚类结果
plt.scatter(X_tsne[:, 0], X_tsne[:, 1], c=agg.labels_)
plt.show()

十、sklearn聚类之前要标准化吗

在使用聚类算法之前,我们通常需要标准化数据,以保证各特征之间的差异对聚类结果的影响减小。由于聚类算法通常是基于距离计算的,因此数据中不同特征的量纲和范围可能会影响聚类结果。


# 数据标准化
from sklearn.preprocessing import StandardScaler
X = StandardScaler().fit_transform(X)