编辑推荐
本书帮助你快速了解自然语言处理的新技术及未来发展趋势。
内容简介
本书分为三部分。
第一部分聚焦于自然语言处理的高层次概述,包括自然语言处理的历史、该领域流行的应用,以及如何使用预训练模型来执行迁移学习和快速解决现实世界中的问题。
第二部分将深入研究自然语言处理的底层细节,包括预处理文本、分词和向量嵌入。然后探讨当今自然语言处理中有效的建模方法,如Transformer、注意力机制、普通循环神经网络、长短期记忆和门控循环单元。
第三部分将讨论应用自然语言处理很重要的方面——如何产品化已开发的模型,以便这些模型为组织提供看得见、摸得着的价值。我们将讨论当今可用工具的前景,分享对它们的看法。
作者简介
作者安库·A.帕特尔,一家隐形模式创业公司的联合创始人,也是River AI咨询公司的联合创始人和管理合伙人。
章节目录
版权信息
关于作者
关于封面
O'Reilly Media, Inc.介绍
业界评论
前言
第一部分 浮光掠影
第1章 自然语言处理介绍
1.1 什么是自然语言处理
1.2 基本的自然语言处理
1.3 总结
第2章 Transformer和迁移学习
2.1 利用fast.ai库进行训练
2.2 利用Hugging Face系列库进行推理
2.3 总结
第3章 NLP任务和应用程序
3.1 预训练语言模型
3.2 迁移学习和微调
3.3 NLP任务
3.4 自然语言数据集
3.5 NLP任务1:命名实体识别
3.6 NLP任务2:文本分类
3.7 总结
第二部分 纲举目张
第4章 分词
4.1 一个极简的分词器
4.2 Hugging Face的分词器
4.3 搭建自己的分词器
4.4 总结
第5章 向量嵌入:计算机如何“理解”单词
5.1 理解文本与读取文本
5.2 词向量
5.3 词向量嵌入实践
5.4 非词条的嵌入
5.5 总结
第6章 循环神经网络和其他序列模型
6.1 循环神经网络
6.2 长短期记忆网络
6.3 门控循环单元
6.4 总结
第7章 Transformer
7.1 从头开始构建Transformer
7.2 注意力机制
7.3 计算机视觉Transformer
7.4 总结
第8章 BERT方法论:博采众长创新篇
8.1 ImageNet
8.2 通往NLP“ImageNet时刻”之路
8.3 预训练的词向量嵌入
8.4 序列模型
8.5 循环神经网络
8.6 注意力机制
8.7 Transformer架构
8.8 NLP的“ImageNet时刻”
8.9 总结
第三部分 经世致用
第9章 工欲善其事,必先利其器
9.1 深度学习框架
9.2 可视化与实验跟踪
9.3 AutoML
9.4 机器学习基础设施和计算
9.5 边缘/终端侧推理
9.6 云推理和机器学习即服务
9.7 持续集成和持续交付
9.8 总结
第10章 可视化
10.1 我们的第一个Streamlit应用程序
10.2 总结
第11章 产品化
11.1 数据科学家、工程师和分析师
11.2 Databricks:你的统一数据分析平台
11.3 Databricks的安装
11.4 机器学习作业
11.5 MLflow
11.6 Databricks的替代品
11.7 总结
第12章 归纳提升
12.1 最后十课
12.2 最后的话
附录A 大规模训练
附录B CUDA
自然语言处理实战:预训练模型应用及其产品化是2022年由机械工业出版社华章分社出版,作者[美] 安库·A.帕特尔。
得书感谢您对《自然语言处理实战:预训练模型应用及其产品化》关注和支持,如本书内容有不良信息或侵权等情形的,请联系本网站。