首页
技术小册
AIGC
面试刷题
技术文章
MAGENTO
云计算
视频课程
源码下载
PDF书籍
「涨薪秘籍」
登录
注册
01 | 二进制:不了解计算机的源头,你学什么编程
02 | 余数:原来取余操作本身就是个哈希函数
03 | 迭代法:不用编程语言的自带函数,你会如何计算平方根?
04 | 数学归纳法:如何用数学归纳提升代码的运行效率?
05 | 递归(上):泛化数学归纳,如何将复杂问题简单化?
06 | 递归(下):分而治之,从归并排序到MapReduce
07 | 排列:如何让计算机学会“田忌赛马”?
08 | 组合:如何让计算机安排世界杯的赛程?
09 | 动态规划(上):如何实现基于编辑距离的查询推荐?
10 | 动态规划(下):如何求得状态转移方程并进行编程实现?
11 | 树的深度优先搜索(上):如何才能高效率地查字典?
12 | 树的深度优先搜索(下):如何才能高效率地查字典?
13 | 树的广度优先搜索(上):人际关系的六度理论是真的吗?
14 | 树的广度优先搜索(下):为什么双向广度优先搜索的效率更高?
15 | 从树到图:如何让计算机学会看地图?
16 | 时间和空间复杂度(上):优化性能是否只是“纸上谈兵”?
17 | 时间和空间复杂度(下):如何使用六个法则进行复杂度分析?
18 | 总结课:数据结构、编程语句和基础算法体现了哪些数学思想?
19 | 概率和统计:编程为什么需要概率和统计?
20 | 概率基础(上):一篇文章帮你理解随机变量、概率分布和期望值
21 | 概率基础(下):联合概率、条件概率和贝叶斯法则,这些概率公式究竟能做什么?
22 | 朴素贝叶斯:如何让计算机学会自动分类?
23 | 文本分类:如何区分特定类型的新闻?
24 | 语言模型:如何使用链式法则和马尔科夫假设简化概率模型?
25 | 马尔科夫模型:从PageRank到语音识别,背后是什么模型在支撑?
26 | 信息熵:如何通过几个问题,测出你对应的武侠人物?
27 | 决策树:信息增益、增益比率和基尼指数的运用
28 | 熵、信息增益和卡方:如何寻找关键特征?
29 | 归一化和标准化:各种特征如何综合才是最合理的?
30 | 统计意义(上):如何通过显著性检验,判断你的A/B测试结果是不是巧合?
31 | 统计意义(下):如何通过显著性检验,判断你的A/B测试结果是不是巧合?
32 | 概率统计篇答疑和总结:为什么会有欠拟合和过拟合?
33 | 线性代数:线性代数到底都讲了些什么?
34 | 向量空间模型:如何让计算机理解现实事物之间的关系?
35 | 文本检索:如何让计算机处理自然语言?
36 | 文本聚类:如何过滤冗余的新闻?
37 | 矩阵(上):如何使用矩阵操作进行PageRank计算?
38 | 矩阵(下):如何使用矩阵操作进行协同过滤推荐?
39 | 线性回归(上):如何使用高斯消元求解线性方程组?
40 | 线性回归(中):如何使用最小二乘法进行直线拟合?
41 | 线性回归(下):如何使用最小二乘法进行效果验证?
42 | PCA主成分分析(上):如何利用协方差矩阵来降维?
43 | PCA主成分分析(下):为什么要计算协方差矩阵的特征值和特征向量?
44 | 奇异值分解:如何挖掘潜在的语义关系?
45 | 线性代数篇答疑和总结:矩阵乘法的几何意义是什么?
46 | 缓存系统:如何通过哈希表和队列实现高效访问?
47 | 搜索引擎(上):如何通过倒排索引和向量空间模型,打造一个简单的搜索引擎?
48 | 搜索引擎(下):如何通过查询的分类,让电商平台的搜索结果更相关?
49 | 推荐系统(上):如何实现基于相似度的协同过滤?
50 | 推荐系统(下):如何通过SVD分析用户和物品的矩阵?
51 | 综合应用篇答疑和总结:如何进行个性化用户画像的设计?
当前位置:
首页>>
技术小册>>
程序员必学数学基础课
小册名称:程序员必学数学基础课
### 42 | PCA主成分分析(上):如何利用协方差矩阵来降维? 在数据科学的浩瀚星空中,主成分分析(Principal Component Analysis, PCA)无疑是一颗璀璨的明星,它不仅照亮了数据降维的道路,还为数据可视化、特征提取、噪声去除等领域提供了强有力的工具。本章将深入探索PCA的核心原理,特别是如何通过协方差矩阵这一数学利器来实现数据的降维处理。 #### 引言 在处理高维数据时,我们常常会面临“维度灾难”的问题——随着维度的增加,数据的稀疏性急剧上升,计算复杂度飙升,同时模型的泛化能力可能下降。PCA作为一种有效的无监督学习方法,旨在通过线性变换将原始数据映射到一个新的低维空间中,同时尽可能保留数据的主要特征,即数据的变异性或信息量。 #### 理论基础 ##### 1. 协方差与协方差矩阵 在深入探讨PCA之前,我们需要先理解协方差(Covariance)和协方差矩阵(Covariance Matrix)的概念。协方差是衡量两个变量之间线性关系程度和方向的一个统计量。对于两个变量X和Y,其协方差定义为: \[ \text{Cov}(X, Y) = \frac{\sum_{i=1}^{n}(x_i - \bar{x})(y_i - \bar{y})}{n-1} \] 其中,$n$ 是样本数量,$x_i$ 和 $y_i$ 分别是X和Y的观测值,$\bar{x}$ 和 $\bar{y}$ 分别是X和Y的均值。协方差为正表示正相关,为负表示负相关,为零则表示不相关。 协方差矩阵则是将多个变量之间的两两协方差值组合成一个矩阵。对于一个包含$p$个变量的数据集,其协方差矩阵是一个$p \times p$的对称矩阵,矩阵中的每个元素$C_{ij}$表示第$i$个变量和第$j$个变量之间的协方差。 ##### 2. PCA的目标 PCA的目标是通过线性变换找到数据的主要成分(即主成分),这些主成分是原始数据的线性组合,且彼此之间相互正交(即不相关),同时尽可能多地保留原始数据的信息。具体来说,PCA寻找的是一系列的新坐标轴(主成分),数据在这些新坐标轴上的投影(即得分)能够最大化地解释数据的变异性。 #### PCA步骤详解:利用协方差矩阵降维 ##### 1. 数据预处理 - **中心化**:首先,需要将原始数据集中的每个特征(变量)进行中心化处理,即减去该特征的均值。这一步是为了确保协方差矩阵的计算不受数据位置(即均值)的影响。 ##### 2. 计算协方差矩阵 - 在数据中心化后,计算协方差矩阵。这个矩阵将展示各个特征之间的线性关系强度和方向。 ##### 3. 计算协方差矩阵的特征值和特征向量 - 特征值(Eigenvalues)表示了每个主成分所解释的变异性大小,而特征向量(Eigenvectors)则指示了数据在这些主成分方向上的投影方式。 - 通过对协方差矩阵进行特征分解(或更常见的,使用奇异值分解SVD,因为数值稳定性更好),我们可以得到一组按特征值大小降序排列的特征向量和对应的特征值。 ##### 4. 选择主成分 - 根据特征值的大小选择前k个最重要的主成分。这通常基于特征值的累积贡献率来决定,即前k个特征值之和占总特征值之和的比例。常见的选择标准包括保留90%或95%以上的信息。 ##### 5. 构建投影矩阵并进行数据转换 - 使用选定的前k个特征向量作为列构建投影矩阵(也称为转换矩阵)。 - 将原始数据集中的每个样本投影到这个新的低维空间中,即通过投影矩阵乘以原始数据(在已经中心化的情况下)来实现降维。 ##### 6. 解释与评估 - 分析降维后的数据,理解每个主成分所代表的意义(尽管这通常不是直接可解释的,但可以通过观察原始变量在每个主成分上的载荷系数来间接推断)。 - 通过比较降维前后数据的可视化效果、模型性能等指标来评估PCA的效果。 #### 实战案例分析 假设我们有一组关于某地区房价的数据集,包含房屋面积、卧室数量、房龄等多个特征。为了简化分析,我们可以使用PCA来减少特征的维度,同时保留数据的主要信息。通过计算协方差矩阵、特征分解、选择主成分等步骤,我们可以将原始的高维数据投影到一个低维空间(如二维或三维),从而更直观地观察数据间的关系和趋势。 #### 总结 PCA通过协方差矩阵这一强大的数学工具,实现了数据的有效降维,不仅简化了数据的复杂度,还保留了数据的主要信息。在实际应用中,PCA已成为处理高维数据不可或缺的一部分,广泛应用于机器学习、数据挖掘、图像处理等多个领域。通过本章的学习,我们深入理解了PCA的原理和步骤,为后续的数据分析和模型构建打下了坚实的基础。
上一篇:
41 | 线性回归(下):如何使用最小二乘法进行效果验证?
下一篇:
43 | PCA主成分分析(下):为什么要计算协方差矩阵的特征值和特征向量?
该分类下的相关小册推荐:
ChatGPT大模型:技术场景与商业应用(中)
ChatGPT通关之路(下)
ChatGPT原理与实战:大型语言模型(上)
大模型应用解决方案-基于ChatGPT(上)
ChatGLM3大模型本地化部署、应用开发与微调(下)
AI写作宝典:如何成为AI写作高手
巧用ChatGPT快速搞定数据分析
大模型应用解决方案-基于ChatGPT(下)
AI时代项目经理:ChatGPT与项目经理(下)
区块链权威指南(上)
AIGC原理与实践:零基础学大语言模型(四)
AI降临:ChatGPT实战与商业变现(上)