首页
技术小册
AIGC
面试刷题
技术文章
MAGENTO
云计算
视频课程
源码下载
PDF书籍
「涨薪秘籍」
登录
注册
01 | 二进制:不了解计算机的源头,你学什么编程
02 | 余数:原来取余操作本身就是个哈希函数
03 | 迭代法:不用编程语言的自带函数,你会如何计算平方根?
04 | 数学归纳法:如何用数学归纳提升代码的运行效率?
05 | 递归(上):泛化数学归纳,如何将复杂问题简单化?
06 | 递归(下):分而治之,从归并排序到MapReduce
07 | 排列:如何让计算机学会“田忌赛马”?
08 | 组合:如何让计算机安排世界杯的赛程?
09 | 动态规划(上):如何实现基于编辑距离的查询推荐?
10 | 动态规划(下):如何求得状态转移方程并进行编程实现?
11 | 树的深度优先搜索(上):如何才能高效率地查字典?
12 | 树的深度优先搜索(下):如何才能高效率地查字典?
13 | 树的广度优先搜索(上):人际关系的六度理论是真的吗?
14 | 树的广度优先搜索(下):为什么双向广度优先搜索的效率更高?
15 | 从树到图:如何让计算机学会看地图?
16 | 时间和空间复杂度(上):优化性能是否只是“纸上谈兵”?
17 | 时间和空间复杂度(下):如何使用六个法则进行复杂度分析?
18 | 总结课:数据结构、编程语句和基础算法体现了哪些数学思想?
19 | 概率和统计:编程为什么需要概率和统计?
20 | 概率基础(上):一篇文章帮你理解随机变量、概率分布和期望值
21 | 概率基础(下):联合概率、条件概率和贝叶斯法则,这些概率公式究竟能做什么?
22 | 朴素贝叶斯:如何让计算机学会自动分类?
23 | 文本分类:如何区分特定类型的新闻?
24 | 语言模型:如何使用链式法则和马尔科夫假设简化概率模型?
25 | 马尔科夫模型:从PageRank到语音识别,背后是什么模型在支撑?
26 | 信息熵:如何通过几个问题,测出你对应的武侠人物?
27 | 决策树:信息增益、增益比率和基尼指数的运用
28 | 熵、信息增益和卡方:如何寻找关键特征?
29 | 归一化和标准化:各种特征如何综合才是最合理的?
30 | 统计意义(上):如何通过显著性检验,判断你的A/B测试结果是不是巧合?
31 | 统计意义(下):如何通过显著性检验,判断你的A/B测试结果是不是巧合?
32 | 概率统计篇答疑和总结:为什么会有欠拟合和过拟合?
33 | 线性代数:线性代数到底都讲了些什么?
34 | 向量空间模型:如何让计算机理解现实事物之间的关系?
35 | 文本检索:如何让计算机处理自然语言?
36 | 文本聚类:如何过滤冗余的新闻?
37 | 矩阵(上):如何使用矩阵操作进行PageRank计算?
38 | 矩阵(下):如何使用矩阵操作进行协同过滤推荐?
39 | 线性回归(上):如何使用高斯消元求解线性方程组?
40 | 线性回归(中):如何使用最小二乘法进行直线拟合?
41 | 线性回归(下):如何使用最小二乘法进行效果验证?
42 | PCA主成分分析(上):如何利用协方差矩阵来降维?
43 | PCA主成分分析(下):为什么要计算协方差矩阵的特征值和特征向量?
44 | 奇异值分解:如何挖掘潜在的语义关系?
45 | 线性代数篇答疑和总结:矩阵乘法的几何意义是什么?
46 | 缓存系统:如何通过哈希表和队列实现高效访问?
47 | 搜索引擎(上):如何通过倒排索引和向量空间模型,打造一个简单的搜索引擎?
48 | 搜索引擎(下):如何通过查询的分类,让电商平台的搜索结果更相关?
49 | 推荐系统(上):如何实现基于相似度的协同过滤?
50 | 推荐系统(下):如何通过SVD分析用户和物品的矩阵?
51 | 综合应用篇答疑和总结:如何进行个性化用户画像的设计?
当前位置:
首页>>
技术小册>>
程序员必学数学基础课
小册名称:程序员必学数学基础课
### 20 | 概率基础(上):一篇文章帮你理解随机变量、概率分布和期望值 在编程与数据科学的广阔天地中,概率论不仅是理论研究的基石,更是解决实际问题不可或缺的工具。本章节将带领你深入探索概率论的基础概念——随机变量、概率分布以及期望值,为你在编程实践中运用统计学知识打下坚实的基础。 #### 一、随机变量的引入 **1.1 定义与分类** 随机变量,顾名思义,是取值具有随机性的变量。在数学与统计学中,它用于描述某一随机现象的结果。根据取值范围的不同,随机变量可以分为两大类:离散型随机变量和连续型随机变量。 - **离散型随机变量**:其取值可以一一列举,且取值个数有限或可数个。例如,抛掷一枚六面骰子得到的点数就是一个离散型随机变量,其取值为1, 2, 3, 4, 5, 6。 - **连续型随机变量**:其取值可以在某一区间内任意取,且取值个数不可数。例如,测量某城市一天的气温就是一个连续型随机变量,气温可以是区间[0°C, 50°C]内的任意值。 **1.2 随机变量的表示** 通常,我们用大写字母(如X, Y)来表示随机变量,而其具体取值则用小写字母(如x, y)或具体数值表示。例如,若X表示抛掷一枚硬币正面朝上的次数,则X=1表示正面朝上了一次。 #### 二、概率分布:随机变量的“画像” **2.1 离散型随机变量的概率分布** 对于离散型随机变量,我们需要知道它取每一个可能值的概率,这就是离散型随机变量的概率分布。概率分布表或概率分布函数是描述这种关系的重要工具。 - **概率分布表**:列出随机变量所有可能的取值及其对应的概率。 - **概率分布函数(PMF)**:对于离散型随机变量X,其概率分布函数PMF定义为$P(X=x)$,表示X取值为x的概率。 **示例**:考虑抛掷一枚六面骰子,其概率分布表为: | X | 1 | 2 | 3 | 4 | 5 | 6 | |-----|-----|-----|-----|-----|-----|-----| | P(X) | 1/6 | 1/6 | 1/6 | 1/6 | 1/6 | 1/6 | 这里,PMF为$P(X=x) = \frac{1}{6}$,其中$x \in \{1, 2, 3, 4, 5, 6\}$。 **2.2 连续型随机变量的概率分布** 与离散型随机变量不同,连续型随机变量在某个具体值上的概率为0(因为存在无限多个可能值)。因此,我们需要用概率密度函数(PDF)来描述连续型随机变量的概率分布。 - **概率密度函数(PDF)**:对于连续型随机变量X,其概率密度函数f(x)满足:对于任意实数区间[a, b],X落在该区间的概率为$P(a \leq X \leq b) = \int_{a}^{b} f(x) \, dx$。 **示例**:正态分布(高斯分布)是最常见的连续型分布之一,其PDF为$f(x) = \frac{1}{\sigma\sqrt{2\pi}}e^{-\frac{(x-\mu)^2}{2\sigma^2}}$,其中$\mu$是均值,$\sigma$是标准差。 #### 三、期望值:随机变量的“平均”表现 **3.1 定义与性质** 期望值(Expected Value),又称均值或数学期望,是随机变量所有可能取值的加权平均数,权数为各取值的概率。期望值反映了随机变量的“平均”或“中心”趋势,是描述随机变量特性的一个重要数字特征。 - **离散型随机变量的期望值**:若X为离散型随机变量,其期望值E(X)定义为$E(X) = \sum_{i} x_i p_i$,其中$x_i$是X的所有可能取值,$p_i$是对应的概率。 - **连续型随机变量的期望值**:若X为连续型随机变量,其期望值E(X)定义为$E(X) = \int_{-\infty}^{\infty} x f(x) \, dx$,其中f(x)是X的PDF。 **性质**:期望值具有线性性质,即对于任意常数a和b,以及随机变量X和Y,有$E(aX+bY) = aE(X) + bE(Y)$。 **3.2 期望值的意义** 期望值在多个领域都有广泛的应用。在经济学中,它可以帮助预测投资回报;在决策分析中,它可以帮助评估不同策略的平均结果;在数据科学中,它是许多算法(如回归分析、聚类分析)的基础。 **示例**:考虑一个游戏,玩家每次支付1元参与,有50%的概率赢得2元,50%的概率不赢不亏。该游戏的期望收益为$E(X) = 0.5 \times 2 + 0.5 \times 0 = 1$元。虽然从长期来看,玩家每次参与的平均收益为1元(等于支付的费用),但实际上存在输赢的不确定性,因此期望值并不等同于每次的实际结果。 #### 四、深入思考与应用 **4.1 随机变量与概率分布的选择** 在实际问题中,选择合适的随机变量和概率分布至关重要。这需要根据问题的具体背景和数据进行判断。例如,在模拟网站访问量时,可能选择泊松分布或负二项分布来描述;在预测股票价格时,可能考虑使用对数正态分布。 **4.2 期望值的局限性** 虽然期望值提供了随机变量平均表现的度量,但它并不总能全面反映随机变量的特性。例如,两个随机变量可能有相同的期望值,但它们的方差(衡量数据离散程度的指标)可能大不相同,从而导致完全不同的风险水平。因此,在分析和决策时,除了期望值外,还需要考虑其他统计量如方差、中位数、众数等。 **4.3 编程实践中的应用** 在编程实践中,许多编程语言(如Python)提供了丰富的库(如NumPy、SciPy、Pandas)来支持概率论和统计学的计算。你可以利用这些库来生成随机变量、计算概率分布、求解期望值等,从而在实际项目中运用概率论的知识。 #### 结语 通过本章节的学习,你应该对随机变量、概率分布以及期望值有了较为深入的理解。这些概念不仅是概率论的基础,也是编程与数据科学中不可或缺的工具。希望你在未来的学习和工作中,能够灵活运用这些知识,解决实际问题,创造更大的价值。记住,概率论是一门既严谨又富有创造力的学科,它等待着你去探索、去发现、去应用。
上一篇:
19 | 概率和统计:编程为什么需要概率和统计?
下一篇:
21 | 概率基础(下):联合概率、条件概率和贝叶斯法则,这些概率公式究竟能做什么?
该分类下的相关小册推荐:
ChatGPT原理与实战:大型语言模型(中)
用ChatGPT轻松玩转机器学习与深度学习
AI时代程序员:ChatGPT与程序员(中)
深入浅出人工智能(上)
AI-Agent智能应用实战(上)
Midjourney新手攻略
ChatGPT完全指南
ChatGPT与提示工程(下)
一本书读懂AIGC提示词
生成式AI的崛起:ChatGPT如何重塑商业
AI Agent 智能体实战课
深度强化学习--算法原理与金融实践(五)