首页
技术小册
AIGC
面试刷题
技术文章
MAGENTO
云计算
视频课程
源码下载
PDF书籍
「涨薪秘籍」
登录
注册
1.1 为何选择机器学习
1.1.1 机器学习能够解决的问题
1.1.2 熟悉任务和数据
1.2 为何选择Python
1.3 scikit-learn
1.4 必要的库和工具
1.4.1 Jupyter Notebook
1.4.2 NumPy
1.4.3 SciPy
1.4.4 matplotlib
1.4.5 pandas
1.4.6 mglearn
1.5 Python 2 与Python 3 的对比
1.7 第 一个应用:鸢尾花分类
1.7.1 初识数据
1.7.2 衡量模型是否成功:训练数据与测试数据
1.7.3 要事第 一:观察数据
1.7.4 构建第 一个模型:k 近邻算法
1.7.5 做出预测
1.7.6 评估模型
2.1 分类与回归
2.2 泛化、过拟合与欠拟合
2.3 监督学习算法
2.3.1 一些样本数据集
2.3.2 k 近邻
2.3.3 线性模型
2.3.4 朴素贝叶斯分类器
2.3.5 决策树
2.3.6 决策树集成
2.3.7 核支持向量机
2.3.8 神经网络(深度学习)
2.4 分类器的不确定度估计
2.4.1 决策函数
2.4.2 预测概率
2.4.3 多分类问题的不确定度
3.1 无监督学习的类型
3.2 无监督学习的挑战
3.3 预处理与缩放
3.3.1 不同类型的预处理
3.3.2 应用数据变换
3.3.3 对训练数据和测试数据进行相同的缩放
3.3.4 预处理对监督学习的作用
3.4 降维、特征提取与流形学习
3.4.1 主成分分析
3.4.2 非负矩阵分解
3.4.3 用t-SNE 进行流形学习
3.5 聚类
3.5.1 k 均值聚类
3.5.2 凝聚聚类
3.5.3 DBSCAN
3.5.4 聚类算法的对比与评估
3.5.5 聚类方法小结
当前位置:
首页>>
技术小册>>
Python机器学习基础教程(上)
小册名称:Python机器学习基础教程(上)
### 3.5 聚类 在机器学习的广阔领域中,聚类是一种无监督学习的核心技术,它旨在将数据集中的样本划分为若干个组或“簇”,使得同一簇内的样本之间相似度较高,而不同簇之间的样本相似度较低。聚类算法不依赖于事先定义的类别标签,而是通过数据自身的特性来发现隐藏的结构或模式。这一特性使得聚类在市场细分、社交网络分析、图像分割、异常检测等众多领域具有广泛的应用。本章将深入探讨聚类的基本概念、常用算法以及它们在Python中的实现方法。 #### 3.5.1 聚类基础 ##### 3.5.1.1 聚类定义与目的 聚类,顾名思义,即将相似的对象聚集在一起。在数据科学中,聚类分析是指在没有明确指导(如标签或类别信息)的情况下,通过计算数据点之间的相似性或距离,将数据自动划分为多个组或簇的过程。聚类的目的是揭示数据的内在结构和分布规律,帮助人们理解数据的本质特征。 ##### 3.5.1.2 聚类与分类的区别 聚类与分类是机器学习中的两大重要分支,但它们在处理方式和应用场景上存在显著差异。分类是一种有监督学习方法,需要事先定义好类别标签,并通过训练模型来学习如何将新的数据点分配到已定义的类别中。而聚类则是一种无监督学习方法,不需要事先知道数据点的类别信息,直接根据数据自身的特性进行分组。 #### 3.5.2 常用聚类算法 聚类算法种类繁多,每种算法都有其独特的优势和适用场景。以下介绍几种常见的聚类算法: ##### 3.5.2.1 K-均值聚类(K-Means Clustering) K-均值是最著名的聚类算法之一,其核心思想是随机选择K个点作为初始聚类中心,然后根据数据点到各聚类中心的距离,将每个数据点分配给最近的聚类中心,形成K个簇。之后,重新计算每个簇的聚类中心(即簇内所有点的均值),并迭代上述过程,直到聚类中心不再发生变化或达到预设的迭代次数。K-均值算法简单高效,但对初始聚类中心的选择敏感,且只能处理球形簇。 ##### 3.5.2.2 层次聚类(Hierarchical Clustering) 层次聚类通过构建一个层次结构来分解数据集,可以是自底向上的聚合方法(如AGNES算法),也可以是自顶向下的分裂方法(如DIANA算法)。在聚合方法中,每个数据点最初被视为一个单独的簇,然后逐步合并最相似的簇,直到所有点合并为一个簇或达到预设的簇数量。层次聚类不需要预先指定簇的数量,但计算复杂度较高,且合并或分裂的决策一旦作出便不可逆转。 ##### 3.5.2.3 DBSCAN(Density-Based Spatial Clustering of Applications with Noise) DBSCAN是一种基于密度的聚类算法,它能够识别任意形状的簇,并能够有效处理噪声点和异常值。DBSCAN通过定义两个参数:邻域大小ε和最少点数MinPts,来识别高密度区域。如果一个点在其ε邻域内至少有MinPts个点,则该点被视为核心点,并扩展其簇以包含所有从该点可达的点。DBSCAN能够自动确定簇的数量,并对噪声点不敏感,但在密度差异较大的数据集上表现不佳。 ##### 3.5.2.4 谱聚类(Spectral Clustering) 谱聚类是一种基于图论的聚类方法,它将数据集视为一个图,图中的节点对应数据点,节点之间的边权重表示数据点之间的相似度。谱聚类首先计算图的拉普拉斯矩阵,然后对该矩阵进行特征分解,选取前K个最小非零特征值对应的特征向量,最后将这些特征向量作为新空间中的坐标,应用K-均值等聚类算法进行聚类。谱聚类能够处理复杂的非线性数据结构,但在处理大规模数据集时计算复杂度较高。 #### 3.5.3 Python中的聚类实现 在Python中,可以使用多个库来实现聚类算法,其中`scikit-learn`是最受欢迎和广泛使用的机器学习库之一。下面以K-均值聚类为例,展示如何在Python中使用`scikit-learn`进行聚类分析。 ```python from sklearn.cluster import KMeans from sklearn.datasets import make_blobs import matplotlib.pyplot as plt # 生成模拟数据 X, y = make_blobs(n_samples=300, centers=4, cluster_std=0.60, random_state=0) # 应用K-均值聚类 kmeans = KMeans(n_clusters=4) kmeans.fit(X) y_kmeans = kmeans.predict(X) # 可视化结果 plt.scatter(X[:, 0], X[:, 1], c=y_kmeans, s=50, cmap='viridis') centers = kmeans.cluster_centers_ plt.scatter(centers[:, 0], centers[:, 1], c='red', s=200, alpha=0.75) plt.title("K-Means Clustering") plt.xlabel("Feature 1") plt.ylabel("Feature 2") plt.show() ``` 上述代码首先生成了一个包含300个样本、4个中心的模拟数据集,然后应用K-均值聚类算法将其划分为4个簇,并通过散点图可视化聚类结果。红色点表示各簇的聚类中心。 #### 3.5.4 聚类评估 聚类评估是聚类分析中不可或缺的一环,它旨在量化聚类效果的好坏。由于聚类是无监督学习任务,没有明确的标签信息作为参考,因此聚类评估通常依赖于内部指标或外部指标。 ##### 3.5.4.1 内部指标 内部指标主要基于簇内数据点的相似度和簇间数据点的相异度来评估聚类效果,如轮廓系数(Silhouette Coefficient)、Calinski-Harabasz指数等。轮廓系数结合了凝聚度和分离度两个概念,值越大表示聚类效果越好。 ##### 3.5.4.2 外部指标 外部指标则需要将聚类结果与某种外部标准(如真实标签)进行比较,常用的外部指标有纯度(Purity)、兰德指数(Rand Index)等。这些指标通过比较聚类标签与真实标签的一致性来评估聚类效果。 #### 3.5.5 聚类应用实例 聚类分析在实际应用中有着广泛的用途。例如,在电商领域,可以利用聚类算法对顾客进行细分,以便实施更精准的营销策略;在生物医学领域,聚类可用于基因表达数据的分析,以发现具有相似表达模式的基因群组;在图像处理中,聚类可用于图像分割,将图像划分为不同的区域或对象。 #### 结语 聚类作为无监督学习的核心技术之一,在数据科学领域发挥着重要作用。通过本章的学习,我们了解了聚类的基本概念、常用算法及其在Python中的实现方法。同时,我们也探讨了聚类评估的重要性及其实践应用。掌握聚类技术,将有助于我们更深入地挖掘数据中的隐藏信息和价值。
上一篇:
3.4.3 用t-SNE 进行流形学习
下一篇:
3.5.1 k 均值聚类
该分类下的相关小册推荐:
Python机器学习基础教程(下)
Python编程轻松进阶(三)
Python机器学习实战
Python爬虫入门与实战开发(下)
Python神经网络入门与实践
Python与办公-玩转Word
机器学习算法原理与实战
Python合辑11-闭包函数
Python合辑8-变量和运算符
Python编程轻松进阶(一)
Python与办公-玩转PPT
Python与办公-玩转PDF