小册描述
目录
- 51 | 神经网络的构建:Residual Connection和Dense Connection
- 52 | 神经网络的构建:Network in Network
- 53 | 神经网络的构建:Gating Mechanism和Attention
- 54 | 神经网络的构建:Memory
- 55 | 神经网络的构建:Activation Function
- 56 | 神经网络的构建:Normalization
- 57 | 神经网络的训练:初始化
- 58 | 神经网络的训练:学习率和Warm-up
- 59 | 神经网络的训练:新的PyTorch训练框架
- 60 | Transformer:如何通过Transformer榨取重要变量?
- 61 | Transformer代码实现剖析
- 62 | xDeepFM:如何用神经网络处理高维的特征?
- 63 | xDeepFM的代码解析
- 64 | 时序建模:如何用神经网络解决时间序列的预测问题?
- 65 | 图嵌入:如何将图关系纳入模型?
- 66 | 图网络简介:如何在图结构的基础上建立神经网络?
- 67 | 模型融合基础:如何让你所学到的模型方法一起发挥作用?
- 68 | 高级模型融合技巧:Metades是什么?
- 69 | 挖掘自然语言中的人工特征:如何用传统的特征解决问题?
- 70 | 重新审视Word Embedding:Negative Sampling和Contextual Embedding
- 71 | 深度迁移学习模型:从ELMo到BERT
- 72 | 深度迁移学习模型:RoBERTa、XLNet、ERNIE和T5
- 73 | 深度迁移学习模型:ALBERT和ELECTRA
- 74 | 深度迁移学习模型的微调:如何使用TensorFlow在TPU对模型进行微调
- 75 | 深度迁移学习模型的微调:TensorFlow BERT代码简析
- 76 | 深度迁移学习的微调:如何利用PyTorch实现深度迁移学习模型的微调及代码简析
- 77 | 优化器:Adam和AdamW
- 78 | 优化器:Lookahead,Radam和Lamb
- 79 | 多重loss的方式:如何使用多重loss来提高模型准确率?
- 80 | 数据扩充的基本方法:如何从少部分数据中扩充更多的数据并避免过拟合?
- 81 | UDA:一种系统的数据扩充框架
- 82 | Label Smoothing和Logit Squeezing
- 83 | 底层模型拼接:如何让不同的语言模型融合在一起从而达到更好的效果?
- 84 | 上层模型拼接:如何在语言模型基础上拼接更多的模型?
- 85 | 长文本分类:截取、关键词拼接和预测平均
- 86 | Virtual Adverserial Training:如何减少一般对抗训练难收敛的问题并提高结果的鲁棒性?
- 87 | 其他Embedding的训练:还有哪些Embedding方法?
- 88 | 训练预语言模型
- 89 | 多任务训练:如何利用多任务训练来提升效果?
- 90 | Domain Adaptation:如何利用其它有标注语料来提升效果?
- 91 | Few-shot Learning:是否有更好的利用不同任务的方法?
- 92 | 半监督学习:如何让没有标注的数据也派上用场?
- 93 | 依存分析和Semantic Parsing概述
- 94 | 依存分析和Universal Depdency Relattions
- 95 | 如何在Stanza中实现Dependency Parsing
- 96 | Shift Reduce算法
- 97 | 基于神经网络的依存分析算法
- 98 | 树神经网络:如何采用Tree LSTM和其它拓展方法?
- 99 | Semantic Parsing基础:Semantic Parsing的任务是什么?