首页
技术小册
AIGC
面试刷题
技术文章
MAGENTO
云计算
视频课程
源码下载
PDF书籍
「涨薪秘籍」
登录
注册
01 | 二进制:不了解计算机的源头,你学什么编程
02 | 余数:原来取余操作本身就是个哈希函数
03 | 迭代法:不用编程语言的自带函数,你会如何计算平方根?
04 | 数学归纳法:如何用数学归纳提升代码的运行效率?
05 | 递归(上):泛化数学归纳,如何将复杂问题简单化?
06 | 递归(下):分而治之,从归并排序到MapReduce
07 | 排列:如何让计算机学会“田忌赛马”?
08 | 组合:如何让计算机安排世界杯的赛程?
09 | 动态规划(上):如何实现基于编辑距离的查询推荐?
10 | 动态规划(下):如何求得状态转移方程并进行编程实现?
11 | 树的深度优先搜索(上):如何才能高效率地查字典?
12 | 树的深度优先搜索(下):如何才能高效率地查字典?
13 | 树的广度优先搜索(上):人际关系的六度理论是真的吗?
14 | 树的广度优先搜索(下):为什么双向广度优先搜索的效率更高?
15 | 从树到图:如何让计算机学会看地图?
16 | 时间和空间复杂度(上):优化性能是否只是“纸上谈兵”?
17 | 时间和空间复杂度(下):如何使用六个法则进行复杂度分析?
18 | 总结课:数据结构、编程语句和基础算法体现了哪些数学思想?
19 | 概率和统计:编程为什么需要概率和统计?
20 | 概率基础(上):一篇文章帮你理解随机变量、概率分布和期望值
21 | 概率基础(下):联合概率、条件概率和贝叶斯法则,这些概率公式究竟能做什么?
22 | 朴素贝叶斯:如何让计算机学会自动分类?
23 | 文本分类:如何区分特定类型的新闻?
24 | 语言模型:如何使用链式法则和马尔科夫假设简化概率模型?
25 | 马尔科夫模型:从PageRank到语音识别,背后是什么模型在支撑?
26 | 信息熵:如何通过几个问题,测出你对应的武侠人物?
27 | 决策树:信息增益、增益比率和基尼指数的运用
28 | 熵、信息增益和卡方:如何寻找关键特征?
29 | 归一化和标准化:各种特征如何综合才是最合理的?
30 | 统计意义(上):如何通过显著性检验,判断你的A/B测试结果是不是巧合?
31 | 统计意义(下):如何通过显著性检验,判断你的A/B测试结果是不是巧合?
32 | 概率统计篇答疑和总结:为什么会有欠拟合和过拟合?
33 | 线性代数:线性代数到底都讲了些什么?
34 | 向量空间模型:如何让计算机理解现实事物之间的关系?
35 | 文本检索:如何让计算机处理自然语言?
36 | 文本聚类:如何过滤冗余的新闻?
37 | 矩阵(上):如何使用矩阵操作进行PageRank计算?
38 | 矩阵(下):如何使用矩阵操作进行协同过滤推荐?
39 | 线性回归(上):如何使用高斯消元求解线性方程组?
40 | 线性回归(中):如何使用最小二乘法进行直线拟合?
41 | 线性回归(下):如何使用最小二乘法进行效果验证?
42 | PCA主成分分析(上):如何利用协方差矩阵来降维?
43 | PCA主成分分析(下):为什么要计算协方差矩阵的特征值和特征向量?
44 | 奇异值分解:如何挖掘潜在的语义关系?
45 | 线性代数篇答疑和总结:矩阵乘法的几何意义是什么?
46 | 缓存系统:如何通过哈希表和队列实现高效访问?
47 | 搜索引擎(上):如何通过倒排索引和向量空间模型,打造一个简单的搜索引擎?
48 | 搜索引擎(下):如何通过查询的分类,让电商平台的搜索结果更相关?
49 | 推荐系统(上):如何实现基于相似度的协同过滤?
50 | 推荐系统(下):如何通过SVD分析用户和物品的矩阵?
51 | 综合应用篇答疑和总结:如何进行个性化用户画像的设计?
当前位置:
首页>>
技术小册>>
程序员必学数学基础课
小册名称:程序员必学数学基础课
### 40 | 线性回归(中):如何使用最小二乘法进行直线拟合? 在数据科学与机器学习的广阔领域中,线性回归无疑是最基础且应用广泛的模型之一。它不仅能够揭示变量之间的线性关系,还能通过预测分析为决策提供有力支持。本章将深入探讨线性回归模型的核心——如何使用最小二乘法(Least Squares Method)进行直线拟合,帮助读者理解其背后的数学原理及实际应用。 #### 40.1 线性回归概述 线性回归旨在通过一条直线(在多元线性回归中则为超平面)来最佳拟合一组数据点,使得这条直线能够尽可能准确地描述自变量(解释变量)与因变量(响应变量)之间的线性关系。具体来说,线性回归模型可以表示为: \[ y = \beta_0 + \beta_1x + \epsilon \] 其中,\(y\) 是因变量,\(x\) 是自变量,\(\beta_0\) 是截距项(常数项),\(\beta_1\) 是斜率(回归系数),\(\epsilon\) 是误差项,代表除线性关系外其他所有影响\(y\)的因素或随机误差。 #### 40.2 最小二乘法原理 最小二乘法是一种数学优化技术,它通过最小化误差的平方和来寻找数据的最佳函数匹配。在线性回归中,这个“最佳”通常指的是找到一条直线,使得所有观测点到这条直线的垂直距离(即残差)的平方和最小。 设有一组观测数据 \((x_1, y_1), (x_2, y_2), \ldots, (x_n, y_n)\),我们希望找到直线 \(y = \beta_0 + \beta_1x\),使得残差平方和(Residual Sum of Squares, RSS)最小: \[ RSS = \sum_{i=1}^{n} (y_i - (\beta_0 + \beta_1x_i))^2 \] 目标即为求解 \(\beta_0\) 和 \(\beta_1\),使得 \(RSS\) 达到最小值。 #### 40.3 求解最小二乘估计 为了找到使 \(RSS\) 最小的 \(\beta_0\) 和 \(\beta_1\),我们可以采用偏导数的方法,即分别对 \(RSS\) 关于 \(\beta_0\) 和 \(\beta_1\) 求偏导,并令其为0。 **步骤一:对 \(\beta_1\) 求偏导** \[ \frac{\partial RSS}{\partial \beta_1} = \sum_{i=1}^{n} -2x_i(y_i - (\beta_0 + \beta_1x_i)) = 0 \] 整理得: \[ \sum_{i=1}^{n} x_i(y_i - \beta_0 - \beta_1x_i) = 0 \] **步骤二:对 \(\beta_0\) 求偏导** \[ \frac{\partial RSS}{\partial \beta_0} = \sum_{i=1}^{n} -2(y_i - (\beta_0 + \beta_1x_i)) = 0 \] 整理得: \[ \sum_{i=1}^{n} (y_i - \beta_0 - \beta_1x_i) = 0 \] **步骤三:解方程组** 从上述两个方程中,我们可以解出 \(\beta_0\) 和 \(\beta_1\)。首先,从关于 \(\beta_1\) 的方程中解出 \(\beta_1\): \[ \beta_1 = \frac{\sum_{i=1}^{n} x_iy_i - n\bar{x}\bar{y}}{\sum_{i=1}^{n} x_i^2 - n\bar{x}^2} = \frac{\text{Cov}(x, y)}{\text{Var}(x)} \] 其中,\(\bar{x}\) 和 \(\bar{y}\) 分别是 \(x\) 和 \(y\) 的均值,\(\text{Cov}(x, y)\) 是 \(x\) 和 \(y\) 的协方差,\(\text{Var}(x)\) 是 \(x\) 的方差。 然后,将 \(\beta_1\) 代入关于 \(\beta_0\) 的方程中求解 \(\beta_0\): \[ \beta_0 = \bar{y} - \beta_1\bar{x} \] 这样,我们就得到了 \(\beta_0\) 和 \(\beta_1\) 的最小二乘估计值。 #### 40.4 最小二乘法的几何解释 从几何角度来看,最小二乘法实际上是在寻找一个超平面(在一维情况下为直线),使得所有数据点到这个超平面的垂直投影距离之和最小。这种解释直观地展示了最小二乘法为何能够有效地拟合数据。 #### 40.5 线性回归的假设与检验 虽然最小二乘法提供了线性回归系数的求解方法,但在实际应用中,我们还需要对模型的有效性进行检验。这通常涉及以下几个假设: 1. **线性关系假设**:自变量与因变量之间存在线性关系。 2. **独立同分布假设**:误差项 \(\epsilon\) 是独立同分布的,且均值为0,方差恒定。 3. **无多重共线性**:自变量之间不存在完全的线性关系。 为了验证这些假设,我们可能会进行诸如残差分析、拟合优度检验(如R²)、显著性检验(如t检验、F检验)等。 #### 40.6 实战案例:使用Python进行线性回归 接下来,我们通过一个简单的Python示例来展示如何使用最小二乘法进行线性回归。这里我们使用`scikit-learn`库中的`LinearRegression`模型,但实际上,手动实现最小二乘法也是一个很好的练习。 ```python import numpy as np from sklearn.model_selection import train_test_split from sklearn.linear_model import LinearRegression import matplotlib.pyplot as plt # 假设数据 X = np.array([[1], [2], [3], [4], [5], [6], [7], [8], [9], [10]]) # 注意:X需要是二维数组 y = np.array([2, 4, 5, 4, 5, 7, 8, 9, 11, 13]) # 划分训练集和测试集(这里仅为示例,实际中可能需要) X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=42) # 创建线性回归模型 model = LinearRegression() # 训练模型 model.fit(X_train, y_train) # 预测 y_pred = model.predict(X_test) # 输出系数和截距 print(f"Intercept: {model.intercept_}, Coefficient: {model.coef_}") # 可视化结果 plt.scatter(X_train, y_train, color='blue', label='Training data') plt.plot(X_train, model.predict(X_train), color='red', linewidth=3, label='Regression line') plt.xlabel('X') plt.ylabel('y') plt.title('Linear Regression Example') plt.legend() plt.show() ``` 上述代码展示了如何使用`scikit-learn`中的`LinearRegression`类进行线性回归的拟合与预测,并通过散点图和拟合直线进行可视化。 #### 40.7 总结 本章详细介绍了如何使用最小二乘法进行线性回归的直线拟合,包括其数学原理、求解过程、几何解释以及实际应用中的假设检验和Python实现。通过掌握最小二乘法,读者可以更加深入地理解线性回归模型的本质,为后续学习更复杂的统计与机器学习模型打下坚实的基础。
上一篇:
39 | 线性回归(上):如何使用高斯消元求解线性方程组?
下一篇:
41 | 线性回归(下):如何使用最小二乘法进行效果验证?
该分类下的相关小册推荐:
AI时代程序员:ChatGPT与程序员(中)
深入浅出人工智能(上)
一本书读懂AI绘画
深度强化学习--算法原理与金融实践(五)
AIGC原理与实践:零基础学大语言模型(三)
AI降临:ChatGPT实战与商业变现(上)
深度学习之LSTM模型
AIGC原理与实践:零基础学大语言模型(四)
人工智能技术基础(下)
推荐系统概念与原理
人人都能学AI,66个提问指令,14个AI工具
ChatGLM3大模型本地化部署、应用开发与微调(上)