小册描述
目录
- 10.1 SRL 入门
- 10.1.1 语义角色标注的定义
- 10.1.2 使用基于BERT 的预训练模型进行SRL
- 10.2 基于BERT 模型的SRL实验
- 10.3 基本示例
- 10.4 复杂示例
- 10.5 SRL 的能力范围
- 10.5.1 谓语分析的局限性
- 10.5.2 SRL 局限性的根本原因
- 11.1 Transforme方法论
- 11.2 Transforme方法0:试错法
- 11.3 Transforme方法1:NER
- 11.4 Transforme方法2:SRL
- 11.4.1 使用ELECTRA 进行问答
- 11.4.2 项目管理约束
- 11.4.3 通过SRL 查找问题
- 11.5.1 使用RoBERTa 模型探索Haystack
- 11.5.2 使用GTP-3 引擎探索问答
- 12.1 入门:使用Transformer进行情绪分析
- 12.2 斯坦福情绪树库(SST)
- 12.3 通过情绪分析预测客户行为
- 12.3.1 使用DistilBERT 进行情绪分析
- 12.3.2 使用Hugging Face 的其他模型进行情绪分析
- 12.4 使用GPT-3 进行情绪分析
- 12.5 工业4.0 依然需要人类
- 12.5.1 使用SRL 进行调查
- 12.5.2 使用Hugging Face进行调查
- 12.5.3 使用GPT-3 playground进行调查
- 13.1 对假新闻的情绪反应
- 13.2 理性处理假新闻的方法
- 13.2.1 定义假新闻解决路线图
- 14.1 使用BertViz 可视化Transformer
- 14.2 LIT
- 14.2.1 PCA
- 14.2.2 运行LIT
- 14.3 使用字典学习可视化Transformer
- 14.3.1 Transformer 因子
- 14.3.2 LIME
- 14.3.3 可视化界面
- 14.4 探索我们无法访问的模型
- 第15 章 从NLP 到计算机视觉
- 15.1 选择模型和生态系统
- 15.2 Reformer
- 15.3 DeBERTa
- 15.4 Transformer 视觉模型
- 15.4.1 ViT – Vision Transformer
- 15.4.2 CLIP
- 15.4.3 DALL-E
- 15.5 不断扩大的模型宇宙
- 16.1 AI助理-提示工程
- 16.1.1 具有有意义上下文的非正式英语
- 16.1.2 转喻和多义
- 16.1.3 省略
- 16.1.4 模糊上下文
- 16.1.5 引入传感器
- 16.1.6 有传感器但没有可见上下文
- 16.1.7 没有上下文的正式英语会话