类似推荐
编辑推荐
预训练语言模型全攻略:一本书读懂DeepSeek核心技术。
内容简介
近年来,在自然语言处理领域,基于预训练语言模型的方法已形成全新范式。本书内容分为基础知识、预训练语言模型,以及实践与应用3个部分,共9章。
第一部分全面、系统地介绍自然语言处理、神经网络和预训练语言模型的相关知识。
第二部分介绍几种具有代表性的预训练语言模型的原理和机制(涉及注意力机制和Transformer模型),包括BERT及其变种,以及近年来发展迅猛的GPT和提示工程。
第三部分介绍了基于LangChain和ChatGLM-6B的知识库问答系统、基于大型语言模型的自然语言处理任务应用研究和大模型训练实战等具体应用,旨在从应用的角度加深读者对预训练语言模型理论的理解,便于读者在实践中提高技能,达到理论和实践的统一。
作者简介
编著者徐双双,自然语言处理工程师,在机器学习、深度学习和自然语言处理领域有十余年的算法研发经验,曾在一线大厂阿里巴巴、京东等担任过资深算法工程师和算法经理等职,现在在世界500强公司担任自然语言处理团队负责人,负责过金融和医疗领域的知识图谱、智能问答系统、文本生成系统等企业级核心项目。
章节目录
版权信息
内容提要
前言
资源与支持
第一部分 基础知识
第1章 自然语言处理介绍
1.1 什么是自然语言处理
1.2 自然语言处理的发展历史
1.3 自然语言的特性
1.4 自然语言处理的研究领域
1.5 自然语言处理的常规任务
1.6 自然语言处理的常用工具
第2章 神经网络预备知识
2.1 神经网络核心概念
2.2 神经网络主要类型
第3章 预训练语言模型基础知识
3.1 什么是预训练
3.2 文本表示方法的分类
3.3 词袋型文本表示方法
3.4 主题型文本表示方法
3.5 固定型词向量文本表示方法
3.6 动态型词向量文本表示方法
第二部分 预训练语言模型
第4章 注意力机制和Transformer模型
4.1 注意力机制简介
4.2 Transformer模型
第5章 BERT和变种BERT
5.1 BERT
5.2 变种BERT
第6章 GPT和提示工程
6.1 GPT系列
6.2 Prompt
第三部分 实践与应用
第7章 基于LangChain和ChatGLM-6B的知识库问答系统
7.1 核心组件
7.2 构建流程
7.3 趋势与挑战
第8章 基于大型语言模型的自然语言处理任务应用研究
8.1 文本分类任务
8.2 信息抽取任务
8.3 文本匹配任务
第9章 大模型训练实战
9.1 预训练阶段
9.2 指令微调阶段
9.3 奖励模型
9.4 RLHF微调
9.5 大模型评测
预训练语言模型:方法、实践与应用是2025年由人民邮电出版社出版,作者徐双双 编著。
得书感谢您对《预训练语言模型:方法、实践与应用》关注和支持,如本书内容有不良信息或侵权等情形的,请联系本网站。