小册描述
目录
- 9.1 大语言模型简介
- 9.2 可视化GPT原理
- 9.2.1 GPT简介
- 9.2.2 GPT的整体架构
- 9.2.3 GPT模型架构
- 9.2.4 GPT-2与BERT的多头注意力的区别
- 9.2.5 GPT-2的输入
- 9.2.6 GPT-2 计算遮掩自注意力的详细过程
- 9.2.7 GPT-2的输出
- 9.2.8 GPT-1与GPT-2的异同
- 9.3 GPT-3简介
- 9.4 可视化BERT原理
- 9.4.1 BERT的整体架构
- 9.4.2 BERT的输入
- 9.4.3 遮掩语言模型
- 9.4.4 预测下一个句子
- 9.4.5 微调
- 9.4.6 使用特征提取方法
- 9.5 用PyTorch实现BERT
- 9.5.1 BERTEmbedding类的代码
- 9.5.2 TransformerBlock类的代码
- 9.5.3 构建BERT的代码
- 9.6 用GPT-2生成文本
- 9.6.1 下载GPT-2预训练模型
- 9.6.2 用贪心搜索进行解码
- 9.6.3 用束搜索进行解码
- 9.6.4 用采样进行解码
- 9.6.5 用Top-K采样进行解码
- 9.6.6 用Top-p采样进行解码
- 9.6.7 用综合方法进行解码
- 10.1.1 ChatGPT核心技术
- 10.1.2 InstructGPT和ChatGPT的训练过程
- 10.1.3 指令微调
- 10.1.4 ChatGPT的不足
- 10.2 人类反馈强化学习
- 10.2.1 工作原理
- 10.2.2 工作流程
- 10.2.3 PPO算法
- 10.2.4 评估框架
- 10.2.5 创新与不足
- 10.3 Codex
- 10.3.1 对源代码进行预处理
- 10.3.2 处理代码块
- 10.3.3 将源代码数字化
- 10.3.4 衡量指标
- 10.3.5 Codex的逻辑推理能力是如何形成的
- 10.3.6 CodeGeeX的主要功能
- 10.3.7 CodeGeeX模型架构
- 10.4 如何将LaTeX数学公式语言转化为自然语言
- 10.5 使用PPO算法优化车杆游戏
- 10.5.1 构建策略网络
- 10.5.2 构建价值网络
- 10.5.3 构建PPO模型
- 10.5.4 定义超参数
- 10.5.5 实例化模型
- 10.5.6 训练模型
- 10.5.7 可视化迭代
- 10.6 使用RLHF算法提升GPT-2性能
- 10.6.1 基于中文情绪识别模型的正向评论生成机器人
- 10.6.2 对评论进行人工打分
- 10.6.3 标注排序序列替代直接打分
- 10.7 ChatGPT如何提升思维链推断能力
- 10.8 ChatGPT如何提升模型的数学逻辑推理能力