小册描述
目录
- 5.1 ProGAN简介
- 5.2 StyleGAN架构
- 5.3 StyleGAN的其他算法
- 5.4 用PyTorch从零开始实现StyleGAN
- 5.4.1 构建生成网络
- 5.4.2 构建判别器网络
- 5.4.3 损失函数
- 5.5 StyleGAN的最新进展
- 5.5.1 StyleGAN2简介
- 5.5.2 StyleGAN3简介
- 5.5.3 StyleGAN与DeepDream模型的异同
- 5.6 DragGAN简介
- 6.1 DeepDream模型
- 6.1.1 DeepDream的原理
- 6.1.2 DeepDream算法的流程
- 6.1.3 使用PyTorch实现DeepDream
- 6.2 普通风格迁移
- 6.2.1 内容损失
- 6.2.2 风格损失
- 6.2.3 使用PyTorch实现神经网络风格迁移
- 6.3 使用PyTorch实现图像修复
- 6.3.1 网络结构
- 6.3.2 损失函数
- 6.3.3 图像修复实例
- 6.4 风格迁移与StyleGAN模型
- 7.1 注意力机制简介
- 7.1.1 两种常见的注意力机制
- 7.1.2 来自生活的注意力
- 7.1.3 注意力机制的本质
- 7.2 带注意力机制的编码器-解码器架构
- 7.2.1 引入注意力机制
- 7.2.2 计算注意力分配概率分布值
- 7.3 自注意力
- 7.3.1 单层自注意力
- 7.3.2 多层自注意力
- 7.3.3 多头自注意力
- 7.3.4 自注意力与卷积网络、循环网络的比较
- 7.4 如何训练含自注意力的模型
- 7.4.1 将标记向量化
- 7.4.2 添加位置编码
- 7.4.3 逆嵌入过程
- 7.5 交叉注意力
- 7.5.1 Transformer解码器中的交叉注意力
- 7.5.2 Stable Diffusion解码器中的交叉注意力
- 7.5.2 Stable Diffusion解码器中的交叉注意力
- 7.5.3 交叉注意力与自注意力的异同
- 8.1 Transformer模型的直观理解
- 8.1.1 顶层设计
- 8.1.2 嵌入和向量化
- 8.1.3 位置编码
- 8.1.4 自注意力
- 8.1.5 掩码
- 8.1.6 多头注意力
- 8.1.7 残差连接
- 8.1.8 层归一化
- 8.1.9 解码器的输出
- 8.1.10 多层叠加
- 8.2 用PyTorch从零开始实现Transformer
- 8.2.1 构建编码器-解码器架构
- 8.2.2 构建编码器
- 8.2.3 构建解码器
- 8.2.4 构建多头注意力
- 8.2.5 构建前馈神经网络层
- 8.2.6 预处理输入数据
- 8.2.7 构建完整网络
- 8.2.8 训练模型
- 8.2.9 一个简单实例