小册描述
目录
- 第1章 大模型时代的开端
- 1.1 大模型的历史与发展
- 1.1.1 大模型的“涌现”
- 1.1.2 深度学习与大模型的起源
- 1.1.3 大模型的概念与特点
- 1.1.4 大模型开启了深度学习的新时代
- 1.2 为什么要使用大模型
- 1.2.1 大模型与普通模型的区别
- 1.2.2 为什么选择ChatGLM
- 1.2.3 大模型应用场合与发展趋势
- 第2章 PyTorch 2.0深度学习环境搭建
- 2.1 安装Python开发环境
- 2.1.1 Miniconda的下载与安装
- 2.1.2 PyCharm的下载与安装
- 2.1.3 softmax函数练习
- 2.2 安装PyTorch 2.0
- 2.2.1 NVIDIA 10/20/30/40系列显卡选择的GPU版本
- 2.2.2 PyTorch 2.0 GPU NVIDIA运行库的安装
- 2.2.3 Hello PyTorch
- 2.3 Hello ChatGLM3
- 2.3.1 ChatGLM3简介与安装
- 2.3.2 CPU版本的ChatGLM3推演
- 2.3.3 GPU(INT4或INT8量化)版本的ChatGLM3推演
- 2.3.4 GPU(half或float量化)版本的ChatGLM3推演
- 2.3.5 离线状态的ChatGLM3的使用
- 2.3.6 ChatGLM的高级使用
- 第3章 基于gradio的云上自托管ChatGLM3部署实战
- 3.1 gradio的基本使用详解
- 3.1.1 从gradio的Interface开始
- 3.1.2 gradio输入与输出组件
- 3.1.3 启动gradio的launch
- 3.1.4 gradio中多样化的输入和输出组件
- 3.1.5 gradio中常用的几个组件
- 3.1.6 使用gradio搭建视频上色服务
- 3.2 基于gradio的猫狗分类可视化训练与预测实战
- 3.2.1 运行环境与数据集的准备
- 3.2.2 模型的设计
- 3.2.3 PyTorch模型训练的基本流程
- 3.2.4 可视化训练流程
- 3.2.5 使用训练好的模型完成gradio可视化图像分类
- 3.3 基于网页端的ChatGLM3部署和使用
- 3.3.1 使用gradio搭建ChatGLM3网页客户端
- 3.3.2 使用ChatGLM3自带的网页客户端
- 3.4 基于私有云服务的ChatGLM3部署和使用
- 3.4.1 使用FastAPI完成ChatGLM3私有云交互端口的搭建(重要)
- 3.4.2 基于streamlit的ChatGLM3自带的网页客户端
- 第4章 使用ChatGLM3与LangChain实现知识图谱抽取和智能问答
- 4.1 当ChatGLM3遇见LangChain
- 4.1.1 LangChain的基本构成、组件与典型场景
- 4.1.2 确认统一地址的ChatGLM3部署方案
- 4.1.3 使用ChatGLM3构建LangChain的LLM终端
- 4.1.4 从一个简单的提示模板开始
- 4.1.5 ChatGLM3格式化提示词的构建与使用
- 4.2 ChatGLM3+ LangChain搭建专业问答机器人
- 4.2.1 使用LangChain的LLM终端完成文本问答
- 4.2.2 数据准备与基础算法分析
- 4.2.3 使用LangChain完成提示语Prompt工程
- 4.2.4 基于ChatGLM3的LLM终端完成专业问答
- 4.3 使用ChatGLM3的LLM终端搭建知识图谱抽取与智能问答
- 4.3.1 基于ChatGLM3的LLM终端完成知识图谱抽取
- 4.3.2 基于ChatGLM3的LLM终端完成智能问答