小册描述
目录
- 5.1提示注入攻击
- 5.2输入/输出验证5.3批处理提示
- 5.4提示链
- 5.4.1提示链作为防御提示注入的手段
- 5.4.2使用提示链来防止提示填充
- 5.4.3使用提示链来安全地使用多模态LLM
- 5.5思维链提示5.6重新审视小样本学习5.7测试和迭代快速开发
- 6.1案例研究: 构建一个推荐系统
- 6.1.1定义问题和数据
- 6.1.2推荐系统的定义
- 6.1.3基于万条用户行为数据构建推荐系统
- 6.1.4生成自定义字段来对比项目的相似性
- 6.1.5采用基础词向量构建基线
- 6.1.6准备微调数据
- 6.1.7使用Sentence Transformers微调开源嵌入器
- 6.1.8微调效果总结6.2本章小结
- 7.1案例研究: 视觉问答
- 7.1.1模型简介: DistilBERT、视觉转换器和GPT2
- 7.1.2隐藏状态投影和融合
- 7.1.3交叉注意力是什么以及为什么至关重要
- 7.1.4定制多模式联运模型
- 7.1.5数据: 视觉问答
- 7.1.6VQA训练迭代
- 7.2案例研究: 从反馈中强化学习
- 7.2.1FLANT5模型
- 7.2.2奖励模型: 情感和语法正确性
- 7.2.3Transformer强化学习
- 7.2.4RLF训练循环
- 8.1案例研究: 采用BERT对动漫进行多标签分类
- 8.1.1采用Jaccard相似分来评估动漫标题多标签分类的效果
- 8.1.2简单的微调大模型训练流程
- 8.1.3通用的开源大模型微调技巧
- 8.2采用GPT2生成LaTeX
- 8.2.1开源大模型的提示词工程
- 8.3Sinan尝试做出聪明而优美的回应: SAWYER
- 8.3.1有监督指令微调
- 8.3.2奖励模型的训练
- 8.3.3从(期望的)人类反馈中进行强化学习
- 8.4日新月异的微调世界
- 9.1闭源LLM应用于生产
- 9.2开源LLM应用于生产
- 9.2.1将LLM应用于推理
- 9.2.2互操作性
- 9.2.3模型量化
- 9.2.4模型剪枝
- 9.2.5知识蒸馏
- 9.2.6大模型的成本预估
- 9.2.7模型推送到Hugging Face仓库