小册描述
目录
- 01 | 我们为什么选择机器学习?
- 02 | 学习AI对我们有什么帮助?
- 03 | AI概览:宣传片外的人工智能
- 04 | AI项目流程:从实验到落地
- 05 | NLP领域简介:NLP基本任务及研究方向
- 06 | NLP应用:智能问答系统
- 07 | NLP应用:文本校对系统
- 08 | NLP的学习方法:如何在AI爆炸时代快速上手学习?
- 09 | 深度学习框架简介:如何选择合适的深度学习框架?
- 10 | 深度学习与硬件:CPU
- 11 | 深度学习与硬件:GPU
- 12 | 深度学习与硬件:TPU
- 13 | AI项目部署:基本原则
- 14 | AI项目部署:框架选择
- 15 | AI项目部署:微服务简介
- 16 | 统计学基础:随机性是如何改变数据拟合的本质的?
- 17 | 神经网络基础:神经网络还是复合函数
- 18 | 神经网络基础:训练神经网络
- 19 | 神经网络基础:神经网络的基础构成
- 20 | Embedding简介:为什么Embedding更适合编码文本特征?
- 21 | RNN简介:马尔可夫过程和隐马尔可夫过程
- 22 | RNN简介:RNN和LSTM
- 23 | CNN:卷积神经网络是什么?
- 24 | 环境部署:如何构建简单的深度学习环境?
- 25 | PyTorch简介:Tensor和相关运算
- 26 | PyTorch简介:如何构造Dataset和DataLoader?
- 27 | PyTorch简介:如何构造神经网络?
- 28 | 文本分类实践:如何进行简单的文本分类?
- 29 | 文本分类实践的评价:如何提升进一步的分类效果?
- 30 | 经典的数据挖掘方法:数据驱动型开发早期的努力
- 31 | 表格化数据挖掘基本流程:看看现在的数据挖掘都是怎么做的?
- 32 | Pandas简介:如何使用Pandas对数据进行处理?
- 33 | Matplotlib简介:如何进行简单的可视化分析?
- 34 | 半自动特征构建方法:Target Mean Encoding
- 35 | 半自动特征构建方法:Categorical Encoder
- 36 | 半自动特征构建方法:连续变量的离散化
- 37 | 半自动特征构建方法:Entity Embedding
- 38 | 半自动构建方法:Entity Embedding的实现
- 39 | 半自动特征构建方法:连续变量的转换
- 40 | 半自动特征构建方法:缺失变量和异常值的处理
- 41 | 自动特征构建方法:Symbolic learning和AutoCross简介
- 42 | 降维方法:PCA、NMF 和 tSNE
- 43 | 降维方法:Denoising Auto Encoders
- 44 | 降维方法:Variational Auto Encoder
- 45 | 变量选择方法
- 46 | 集成树模型:如何提升决策树的效果
- 47 | 集成树模型:GBDT和XgBoost的数学表达
- 48 | 集成树模型:LightGBM简介
- 49 | 集成树模型:CatBoost和NGBoost简介
- 50 | 神经网络建模:如何让神经网络实现你的数据挖掘需求