小册描述
目录
- 11.1 扩散模型简介
- 11.1.1 DDPM
- 11.1.2 扩散概率模型
- 11.1.3 正向扩散过程
- 11.1.4 反向扩散过程
- 11.1.5 正向扩散过程的数学细节
- 11.1.6 反向扩散过程的数学细节
- 11.1.7 训练目标和损失函数
- 11.2 使用PyTorch从零开始编写 DDPM
- 11.2.1 定义超参数
- 11.2.2 创建数据集
- 11.2.3 创建数据加载器
- 11.2.4 可视化数据集
- 11.2.5 DDPM架构
- 11.2.6 用残差块取代双卷积模块的优势
- 11.2.7 创建扩散类
- 11.2.8 正向扩散过程
- 11.2.9 可视化正向扩散过程
- 11.2.10 基于训练算法和采样算法的训练
- 11.2.11 从零开始训练DDPM
- 11.2.12 使用DDPM生成图像
- 12.1 CLIP简介
- 12.1.1 CLIP如何将图像与图像描述进行对齐
- 12.1.2 CLIP如何实现零样本 分类
- 12.1.3 CLIP原理
- 12.1.4 从零开始运行CLIP
- 12.1.5 CLIP应用
- 12.2 Stable Diffusion模型
- 12.2.1 Stable Diffusion模型的直观理解
- 12.2.2 Stable Diffusion模型的原理
- 12.3 从零开始实现Stable Diffusion
- 12.3.1 文生图
- 12.3.2 根据提示词修改图
- 12.4 Stable Diffusion 升级版简介
- 12.4.1 Stable Diffusion.0
- 12.4.2 Stable Diffusion XL
- 12.5 DALL·E模型
- 12.5.1 DALL·E简介
- 12.5.2 DALL·E简介
- 12.5.3 DALL·E与GAN的异同
- 12.5.4 DALL·E简介
- 13.1 矩阵的基本运算
- 13.1.1 矩阵加法
- 13.1.2 矩阵点积
- 13.1.3 转置
- 13.1.4 矩阵的阿达马积
- 13.1.5 行列式
- 13.2 随机变量及其分布
- 13.2.1 从随机事件到随机变量
- 13.2.2 离散型随机变量及其分布
- 13.2.3 连续型随机变量及其分布
- 13.2.4 随机变量的分布函数
- 13.2.5 多维随机变量及其分布
- 13.2.6 随机变量的数字特征
- 13.2.7 随机变量函数的分布
- 13.3 信息论
- 13.3.1 信息量
- 13.3.2 信息熵
- 13.3.3 条件熵
- 13.3.4 互信息
- 13.3.5 KL散度
- 13.3.6 交叉熵
- 13.3.7 JS散度
- 13.3.8 Wasserstein距离
- 13.3.9 困惑度
- 13.4 推断
- 13.4.1 极大似然估计
- 13.4.2 极大后验概率估计
- 13.4.3 EM算法
- 13.4.4 变分推断
- 13.4.5 马尔可夫链蒙特卡罗随机采样
- 13.5 强化学习
- 13.5.1 强化学习基本概念
- 13.5.2 强化学习基础算法
- 13.5.3 策略梯度