GPT图解:大模型是怎样构建的

GPT图解:大模型是怎样构建的

查阅电子书
手机扫码
  • 微信扫一扫

    关注微信公众号

因版权原因待上架

编辑推荐

带你从0到1构建大模型。

内容简介

人工智能(AI),尤其是生成式语言模型和生成式人工智能(AIGC)模型,正以惊人的速度改变着我们的世界。驾驭这股潮流的关键,莫过于探究自然语言处理(NLP)技术的深奥秘境。

本书将带领读者踏上一段扣人心弦的探索之旅,让其亲身感受,并动手搭建语言模型。本书主要内容包括N-Gram,词袋模型(BoW),Word2Vec(W2V),神经概率语言模型(NPLM),循环神经网络(RNN),Seq2Seq(S2S),注意力机制,Transformer,从初代GPT到ChatGPT再到GPT-4等一系列突破性技术的诞生与演进。

本书将以生动活泼的笔触,将枯燥的技术细节化作轻松幽默的故事和缤纷多彩的图画,引领读者穿梭于不同技术的时空,见证自然语言处理技术的传承、演进与蜕变。在这场不断攀登技术新峰的奇妙之旅中,读者不仅能深入理解自然语言处理技术的核心原理,还能自己动手,从零开始搭建起一个又一个语言模型。

无论你是在校学生还是人工智能从业者,这本书都将成为一盏明灯,照亮你探索人工智能无限奥秘的道路。

作者简介

作者黄佳,笔名咖哥,新加坡科技研究局人工智能研究员。他在NLP、大模型、AI in MedTech、AI in FinTech等领域积累了丰富的项目经验。

章节目录

版权信息

内容提要

前言

资源与支持

序章 看似寻常最奇崛,成如容易却艰辛

GPT-4:点亮通用人工智能的火花

人工智能演进之路:神经网络两落三起

现代自然语言处理:从规则到统计

何为语言?信息又如何传播?

NLP是人类和计算机沟通的桥梁

NLP技术的演进史

大规模预训练语言模型:BERT与GPT争锋

语言模型的诞生和进化

统计语言模型的发展历程

基于Transformer架构的预训练模型

“预训练+微调大模型”的模式

以提示/指令模式直接使用大模型

从初代GPT到ChatGPT,再到GPT-4

GPT作为生成式模型的天然优势

ChatGPT背后的推手——OpenAI

从初代GPT到ChatGPT,再到GPT-4的进化史

第1课 高楼万丈平地起:语言模型的雏形N-Gram和简单文本表示Bag-of-Words

1.1 N-Gram模型

1.2 “词”是什么,如何“分词”

1.3 创建一个Bigram字符预测模型

1.4 词袋模型

1.5 用词袋模型计算文本相似度

小结

思考

第2课 问君文本何所似:词的向量表示Word2Vec和Embedding

2.1 词向量 ≈ 词嵌入

2.2 Word2Vec:CBOW模型和Skip-Gram模型

2.3 Skip-Gram模型的代码实现

2.4 CBOW模型的代码实现

2.5 通过nn.Embedding来实现词嵌入

小结

思考

第3课 山重水复疑无路:神经概率语言模型和循环神经网络

3.1 NPLM的起源

3.2 NPLM的实现

3.3 循环神经网络的结构

3.4 循环神经网络实战

小结

思考

第4课 柳暗花明又一村:Seq2Seq编码器-解码器架构

4.1 Seq2Seq架构

4.2 构建简单Seq2Seq架构

小结

思考

第5课 见微知著开慧眼:引入注意力机制

5.1 点积注意力

5.2 缩放点积注意力

5.3 编码器-解码器注意力

5.4 注意力机制中的Q、K、V

5.5 自注意力

5.6 多头自注意力

5.7 注意力掩码

5.8 其他类型的注意力

小结

思考

第6课 层峦叠翠上青天:搭建GPT核心组件Transformer

6.1 Transformer架构剖析

6.1.1 编码器-解码器架构

6.1.2 各种注意力的应用

6.1.3 编码器的输入和位置编码

6.1.4 编码器的内部结构

6.1.5 编码器的输出和编码器-解码器的连接

6.1.6 解码器的输入和位置编码

6.1.7 解码器的内部结构

6.1.8 解码器的输出和Transformer的输出头

6.2 Transformer代码实现

6.3 完成翻译任务

6.3.1 数据准备

6.3.2 训练Transformer模型

6.3.3 测试Transformer模型

小结

思考

第7课 芳林新叶催陈叶:训练出你的简版生成式GPT

7.1 BERT与GPT争锋

7.2 GPT:生成式自回归模型

7.3 构建GPT模型并完成文本生成任务

7.3.1 搭建GPT模型(解码器)

7.3.2 构建文本生成任务的数据集

7.3.3 训练过程中的自回归

7.3.4 文本生成中的自回归(贪婪搜索)

7.4 使用WikiText2数据集训练Wiki-GPT模型

7.4.1 用WikiText2构建Dataset和DataLoader

7.4.2 用DataLoader提供的数据进行训练

7.4.3 用Evaluation Dataset评估训练过程

7.4.4 文本生成中的自回归(集束搜索)

小结

思考

第8课 流水后波推前波:ChatGPT基于人类反馈的强化学习

8.1 从GPT到ChatGPT

8.2 在Wiki-GPT基础上训练自己的简版ChatGPT

8.3 用Hugging Face预训练GPT微调ChatGPT

8.4 ChatGPT的RLHF实战

8.4.1 强化学习基础知识

8.4.2 简单RLHF实战

小结

思考

第9课 生生不息的循环:使用强大的GPT-4 API

9.1 强大的OpenAI API

9.2 使用GPT-4 API

小结

思考

后记 莫等闲,白了少年头

GPT图解:大模型是怎样构建的是2023年由人民邮电出版社出版,作者黄佳。

得书感谢您对《GPT图解:大模型是怎样构建的》关注和支持,如本书内容有不良信息或侵权等情形的,请联系本网站。

购买这本书

你可能喜欢
工匠精神是怎样炼成的 电子书
自古以来,工匠以炉火纯青、登峰造极的技艺,以一丝不苟、精益求精的工作态度,以孜孜不倦、精雕细琢的职业精神,见证着平凡中的崇髙与伟大,谱写了人生辉煌的乐章。高尚的“工匠精神”是任何时代都绝不可缺少的。在当今社会,只有把工匠精神发挥得淋漓尽致,才能拥有竞争的优势。作为职场人,传承和发扬工匠精神不仅是生存和发展的需要,更是生活精彩、人生出彩的意义所在。本书以讲故事的方式,从多个方面论证了职业人培养“工匠
好记者是怎样“炼”成的? 电子书
本书从“敏锐的发现能力、开阔的宏观视野、深邃的历史眼光”等12个方面,对一个好记者所应具备的素质和能力,作了阐释。这12个方面内容,由一个一个作者亲历的故事构成。
咫尺匠心:新工匠是怎样炼成的 电子书
本书不仅从理念角度讲述何谓工匠精神及工匠精神的内涵,且着重于从文化和机制角度,阐述如何建设工匠精神、如何培育工匠文化。
掌控自己——轻松构建高效的个人管理模型 电子书
本书以3个人的故事为主线,讲述了个人管理系统搭建的全过程,其中包括个人管理的若干方法,概括为两个系统模型,分别是“WATCH”(表盘模型)和“IPO”(表带模型)。“WATCH”(表盘模型)是由WISH(愿望目标)、ACTION(行动计划)、TIME(时间记录)、COMMENTS(总结反思)和HYPERENERGY(充沛精力)等五个元素构成的,这个表盘通过强大的行动力让整个系统顺畅运转起来。仅有“
创业逻辑:构建永续发展的企业模型 电子书
本书总结了12个创业要素+数十个实际案例,手把手教你学会创业的底层逻辑。本书的目的就是向创业者传递经营“需要什么”“从明天开始应该做些什么”,并将其总结为创业成功不可或缺的12个要素。作为创业的前辈和创业咨询专家的作者,通过精选成功企业的案例,充分阐述了创业的基本逻辑,归纳了创业成功的方法。使用作者归纳的12个要素,你就可以让事业永续发展,并且这12个要素在企业发展的各个阶段都可以运用。