ChatGLM3大模型本地化部署、应用开发与微调

ChatGLM3大模型本地化部署、应用开发与微调

查阅电子书
手机扫码
  • 微信扫一扫

    关注微信公众号

因版权原因待上架

编辑推荐

全方位、多角度地展示大模型本地化实战的完整方案。

内容简介

本书作为《PyTorch 2.0深度学习从零开始学》的姊妹篇,专注于大模型的本地化部署、应用开发以及微调等。

本书不仅系统地阐述了深度学习大模型的核心理论,更注重实践应用,通过丰富的案例和场景,引导读者从理论走向实践,真正领悟和掌握大模型本地化应用的精髓。

本书适合大模型的初学者、有一定基础的大模型研究人员、大模型应用开发人员。同时,本书还可作为高等院校或高职高专相关专业大模型课程的教材,助力培养新一代的大模型领域人才。

作者简介

作者王晓华,计算机专业讲师,长期讲授面向对象程序设计、数据结构、Hadoop程序设计等研究生和本科生相关课程;主要研究方向为云计算、数据挖掘。曾主持和参与多项国家和省级科研课题,独立科研项目获省级成果认定,发表过多篇论文,拥有一项专利。著有《Spark MLlib机器学习实践》《TensorFlow深度学习应用实践》《OpenCV TensorFlow深度学习与计算机视觉实战》等图书。

章节目录

版权信息

作者简介

内容简介

前言

第1章 大模型时代的开端

1.1 大模型的历史与发展

1.1.1 大模型的“涌现”

1.1.2 深度学习与大模型的起源

1.1.3 大模型的概念与特点

1.1.4 大模型开启了深度学习的新时代

1.2 为什么要使用大模型

1.2.1 大模型与普通模型的区别

1.2.2 为什么选择ChatGLM

1.2.3 大模型应用场合与发展趋势

1.3 本章小结

第2章 PyTorch 2.0深度学习环境搭建

2.1 安装Python开发环境

2.1.1 Miniconda的下载与安装

2.1.2 PyCharm的下载与安装

2.1.3 softmax函数练习

2.2 安装PyTorch 2.0

2.2.1 NVIDIA 10/20/30/40系列显卡选择的GPU版本

2.2.2 PyTorch 2.0 GPU NVIDIA运行库的安装

2.2.3 Hello PyTorch

2.3 Hello ChatGLM3

2.3.1 ChatGLM3简介与安装

2.3.2 CPU版本的ChatGLM3推演

2.3.3 GPU(INT4或INT8量化)版本的ChatGLM3推演

2.3.4 GPU(half或float量化)版本的ChatGLM3推演

2.3.5 离线状态的ChatGLM3的使用

2.3.6 ChatGLM的高级使用

2.4 本章小结

第3章 基于gradio的云上自托管ChatGLM3部署实战

3.1 gradio的基本使用详解

3.1.1 从gradio的Interface开始

3.1.2 gradio输入与输出组件

3.1.3 启动gradio的launch

3.1.4 gradio中多样化的输入和输出组件

3.1.5 gradio中常用的几个组件

3.1.6 使用gradio搭建视频上色服务

3.2 基于gradio的猫狗分类可视化训练与预测实战

3.2.1 运行环境与数据集的准备

3.2.2 模型的设计

3.2.3 PyTorch模型训练的基本流程

3.2.4 可视化训练流程

3.2.5 使用训练好的模型完成gradio可视化图像分类

3.3 基于网页端的ChatGLM3部署和使用

3.3.1 使用gradio搭建ChatGLM3网页客户端

3.3.2 使用ChatGLM3自带的网页客户端

3.4 基于私有云服务的ChatGLM3部署和使用

3.4.1 使用FastAPI完成ChatGLM3私有云交互端口的搭建(重要)

3.4.2 基于streamlit的ChatGLM3自带的网页客户端

3.5 本章小结

第4章 使用ChatGLM3与LangChain实现知识图谱抽取和智能问答

4.1 当ChatGLM3遇见LangChain

4.1.1 LangChain的基本构成、组件与典型场景

4.1.2 确认统一地址的ChatGLM3部署方案

4.1.3 使用ChatGLM3构建LangChain的LLM终端

4.1.4 从一个简单的提示模板开始

4.1.5 ChatGLM3格式化提示词的构建与使用

4.2 ChatGLM3+ LangChain搭建专业问答机器人

4.2.1 使用LangChain的LLM终端完成文本问答

4.2.2 数据准备与基础算法分析

4.2.3 使用LangChain完成提示语Prompt工程

4.2.4 基于ChatGLM3的LLM终端完成专业问答

4.3 使用ChatGLM3的LLM终端搭建知识图谱抽取与智能问答

4.3.1 基于ChatGLM3的LLM终端完成知识图谱抽取

4.3.2 基于ChatGLM3的LLM终端完成智能问答

4.4 本章小结

第5章 适配ChatGLM3终端的Template与Chain详解

5.1 基于输入模板的人机交互

5.1.1 提示模板的4种类型

5.1.2 可嵌套的提示模板

5.2 Template中示例的最佳选择

5.2.1 基于长度的输出示例

5.2.2 基于相似度的输出示例

5.3 使用Chain提高ChatGLM3的能力

5.3.1 Chain的数学计算方法

5.3.2 多次验证检查器

5.4 LangChain中的记忆功能

5.4.1 ConversationChain会话链的使用

5.4.2 系统memory的使用

5.5 基于ChatGLM3终端撰写剧情梗概、评论与宣传文案实战

5.5.1 对过程进行依次调用的顺序链SimpleSequentialChain

5.5.2 对过程进行依次调用的顺序链SequentialChain

5.5.3 对顺序链添加额外参数的方法

5.6 本章小结

第6章 ChatGLM3多文本检索的增强生成实战

6.1 使用自然语言处理方法对目标进行查找

6.1.1 数据集的准备

6.1.2 分别基于BM25与LLM终端进行目标查找的方法

6.1.3 建立工业级标准化输出:LLM终端与BM25结合

6.2 基于LLM终端完成文本内容抽取与文本问答

6.2.1 读取目标内容

6.2.2 LangChain对文档的读取与分割方法

6.2.3 基于LangChain的文本分块

6.2.4 找到最近似问题的文本段落

6.2.5 使用LLM终端完成智能文本问答

6.3 使用LLM终端完成反向问题推断

6.3.1 文本问题提取实战

6.3.2 存储提取后的内容

6.4 本章小结

第7章 构建以人为本的ChatGLM3规范化Prompt提示工程

7.1 提示工程模板构建的输入与输出格式

7.1.1 提示模板的输入格式

7.1.2 提示模板的输出格式

7.2 提示工程模板高级用法

7.2.1 提示模板的自定义格式

7.2.2 提示模板的FewShotPromptTemplate格式

7.2.3 部分格式化的提示模板详解

7.3 结合提示工程的网页搜索服务实战

7.3.1 网页搜索的API实现

7.3.2 网页问答提示模板的实现

7.3.3 结合网页搜索的LLM终端问答实战

7.4 本章小结

第8章 使用ChatGLM3的思维链构建

8.1 思维链初探

8.1.1 思维链源于人类使用自然语言的概念来理解事物

8.1.2 思维链的优势与应用场景

8.2 思维链详解及其实战

8.2.1 思维链详解

8.2.2 基于ChatGLM3的思维链实战

8.3 本章小结

第9章 GLM源码分析与文本生成实战

9.1 GLM组件详解

9.1.1 GLM模型架构重大突破:旋转位置编码

9.1.2 添加旋转位置编码的注意力机制

9.1.3 新型的激活函数GLU详解

9.1.4 GLM“三角掩码”与“错位”输入输出格式详解

9.2 GLM整体架构详解与文本生成实战

9.2.1 调整架构顺序的GLMBlock

9.2.2 自定义GLM模型(单文本生成版)

9.3 本章小结

第10章 低资源单GPU微调ChatGLM3实战

10.1 什么是大模型微调

10.1.1 大模型微调的作用

10.1.2 大模型微调技术有哪些

10.1.3 参数高效微调详解

10.2 ChatGLM3大模型微调的准备内容

10.2.1 从数据准备看ChatGLM3微调:有监督微调详解

10.2.2 从实施看ChatGLM3微调:LoRA详解

10.2.3 适配ChatGLM3微调的辅助库:PEFT详解

10.3 虚拟客服多轮问答实战

10.3.1 ChatGLM3数据输入结构和处理函数

10.3.2 ChatGLM3微调训练

10.3.3 ChatGLM3微调推理

10.4 加速的秘密:accelerate训练方法与模型量化详解

10.4.1 加速器accelerate详解与完整代码编写

10.4.2 加速的秘密1:大模型的量化技术

10.4.3 加速的秘密2:大模型的INT8量化方案

10.4.4 加速的秘密3:大模型ChatGLM3中的量化源码分析与实践

10.5 更快的量化训练方案:QLoRA基础内容详解

10.5.1 加速的秘密4:基于bitsandbytes的ChatGLM3量化QLoRA实现

10.5.2 加速的秘密5:QLoRA详解

10.5.3 微调的目的:让生成的结果更聚焦于任务

10.6 QLoRA微调文本生成实战

10.6.1 数据处理

10.6.2 损失函数设计

10.6.3 基于QLoRA的ChatGLM3文本生成微调实战

10.6.4 基于QLoRA的ChatGLM3文本生成

10.7 本章小结

第11章 会使用工具的ChatGLM3

11.1 ChatGLM3调用工具源码详解与实战

11.1.1 Python调用工具详解

11.1.2 ChatGLM3工具调用流程详解

11.1.3 大模型ChatGLM3工具调用实战详解

11.1.4 大模型ChatGLM3工具调用原理详解

11.1.5 ChatGLM3消息传递方式详解

11.2 ChatGLM3官方工具注册与调用源码分析与实战

11.2.1 Python中的装饰器与回调函数

11.2.2 ChatGLM3官方工具函数的注册源码分析详解

11.2.3 大模型ChatGLM3官方工具调用的判定依据详解

11.2.4 ChatGLM3官方工具函数的调用分析详解

11.2.5 ChatGLM3调用工具分析与实战演示

11.3 ChatGLM3实战:构建个人助理之美妆助手

11.3.1 背景和参考资料设定

11.3.2 美妆助手的使用实战

11.4 本章小结

第12章 上市公司财务报表非结构化信息抽取实战

12.1 超长文本处理功能的ChatGLM3与真实财务报表的处理

12.1.1 ChatGLM3-6B-32K模型的获取与缓存

12.1.2 超大规模的2020—2023年真实中国股票市场年度财务报表数据库的建立

12.2 单报表非结构化信息抽取实战

12.2.1 单报表数据探查与提取信息结构化处理

12.2.2 单报表数据非结构化信息抽取的实现

12.3 本章小结

第13章 上市公司财务报表智能问答与财务预警实战

13.1 基于ChatGLM3的非结构化数据抽取与大规模财务报表数据库的建立

13.1.1 逐行代码讲解使用ChatGLM3对关键数据进行抽取

13.1.2 大规模上市公司财务报表目标字段抽取函数的建立

13.1.3 大规模上市公司财务报表目标字段数据库的建立

13.2 基于自然语言的上市公司财务报表智能问答与财务预警实战

13.2.1 使用自然语言结合ChatGLM3实现上市公司财务报表智能问答与预警解决方案1

13.2.2 使用自然语言结合ChatGLM3-6B实现上市公司财务报表智能问答与预警解决方案2

13.2.3 使用自然语言结合ChatGLM3实现上市公司财务报表智能问答与预警解决方案3

13.3 本章小结

附录 大模型的“幻觉”

ChatGLM3大模型本地化部署、应用开发与微调是2024年由清华大学出版社出版,作者王晓华。

得书感谢您对《ChatGLM3大模型本地化部署、应用开发与微调》关注和支持,如本书内容有不良信息或侵权等情形的,请联系本网站。

购买这本书

你可能喜欢
开源云计算:部署、应用、运维 电子书
本书全面细致地讲解了开源云平台架构的规划、建设、部署和运维的全流程应用。通过介绍开源云计算平台OpenStack架构的设计理念、各个核心模块功能,结合实践经验,详细讲解了云计算平台的数据中心规划、行业应用、平台架构设计、部署实施、平台运行维护的知识。本书分为三部分:*一部分为基础篇,重点讲解云计算基础知识和技术标准;第二部分为应用篇,主要讲解云平台的服务和行业应用;第三部分为实践篇,通过结合具体案
建筑信息模型(BIM)技术与应用 电子书
本书主要内容包括BIM技术概论,BIM技术在土木工程方向的主要应用内容和特点以及方法,常用BIM平台介绍。针对目前通用度比较高的建模软件Autodesk公司的Revit建模平台深入讲解,Revit概述、BIM建模前期准备、结构模型创建、建筑模型创建、BIM标准化与快速建模技巧等。教材由浅入深,侧重于实际案例的应用。通过教学使得学生初步掌握BIM技术应用的理论基础知识,同时具备一定的实操基础能力,达
Bootstrap与移动应用开发 电子书
1、选取知识点核心实用,以互联网+实现终身学习2、以企业需求为设计导向,以任务驱动为讲解方式3、以案例为主线组织知识点,以实战项目来提升技术4、充分考虑学习者的认知曲线,由浅入深,边讲边练
ChatGPT原理与应用开发 电子书
Datawhale的开源大模型实战教程,透彻解读4类常见NLP任务的系统设计。
Python开发与财务应用 电子书
本书分九个项目,从基础知识入手,由浅入深、从易到难,涵盖了Python基础知识、Python基础语法、Python进阶语法、pandas基础、数据采集与清洗、Python数据可视化、Python财务会计应用、Python管理会计应用、综合应用等内容。