小册描述
目录
- 1.1 Diagnostics+AI系统示例
- 1.2 机器学习系统的类型
- 1.2.1 数据的表示
- 1.2.2 监督学习
- 1.2.3 无监督学习
- 1.2.4 强化学习
- 1.2.5 最适合Diagnostics+ AI的机器学习系统
- 1.3 构建Diagnostics+ AI
- 1.4 Diagnostics+的主要问题
- 1.4.1 数据泄露
- 1.4.2 偏见
- 1.4.3 监管不合规
- 1.4.4 概念漂移
- 1.5 如何解决这些主要问题
- 1.6 Interpretability与Explainability
- 1.7 你将在本书学到什么
- 1.7.1 本书使用的工具
- 1.7.2 阅读本书所需的基础知识
- 2.1 白盒模型概述
- 2.2 Diagnostics+ AI示例:预测糖尿病进展情况
- 2.3 线性回归
- 2.3.1 解释线性回归
- 2.3.2 线性回归的局限性
- 2.4 决策树
- 2.4.1 解释决策树
- 2.4.2 决策树的局限性
- 2.5 广义可加模型(GAM)
- 2.5.1 回归样条
- 2.5.2 GAM用于Diagnostics+AI预测糖尿病进展
- 2.5.3 解释GAM
- 2.5.4 GAM的局限性
- 2.6 展望黑盒模型
- 3.1 高中生成绩预测器
- 3.2 集成树
- 3.3 解释随机森林
- 3.4 模型无关方法:全局可解释
- 3.4.1 部分依赖图
- 3.4.2 特征的相互作用
- 4.1 Diagnostics+ AI示例:乳腺癌诊断
- 4.2 探索性数据分析
- 4.3 深度神经网络
- 4.3.1 数据准备
- 4.3.2 训练和评估DNN
- 4.4 解释DNN
- 4.5 LIME
- 4.6 SHAP
- 4.7 锚定
- 5.1 Diagnostics+ AI示例:浸润性导管癌检测
- 5.2 探索性数据分析
- 5.3 卷积神经网络
- 5.3.1 数据准备
- 5.3.2 训练和评估CNN
- 5.4 解释CNN
- 5.4.1 概率分布图
- 5.4.2 LIME
- 5.4.3 视觉归因法
- 5.5 标准反向传播
- 5.6 导向反向传播
- 5.7 其他基于梯度的方法
- 5.8 Grad-CAM和导向Grad-CAM
- 5.9 我应该使用哪种归因法