类似推荐
编辑推荐
系统阐述注意力机制的产生背景和发展历程。
内容简介
“注意”作为一切思维活动的起点,一直是哲学、心理学和认知神经科学的重点研究对象。随着计算机技术的发展,人类对注意力机制的模拟和应用成为计算机科学领域的热点研究方向————让计算机能够具有类似人类的注意力机制,使其能够有效地应用于对数据的理解和分析。Transformer模型诞生后,注意力机制在人工智能各大重要领域的研究和应用更是如火如荼,成果丰硕。
本书从注意力机制这一重要角度入手,阐述注意力机制的产生背景和发展历程,通过详实的理论剖析,以深入浅出的方式着重介绍注意力机制在计算机视觉、自然语言处理,以及多模态机器学习三大人工智能方向中的应用思路、模型与算法。
本书以人工智能相关专业研究人员,特别是计算机视觉与自然语言处理等领域的研发人员作为主要读者对象,一方面帮其梳理技术的发展脉络、开拓思路、构建完整的认知体系;另一方面为其剖析算法原理、深刻理解算法细节。
作者简介
作者傅罡,博士,毕业于清华大学,高级工程师。现就职于同方威视技术股份有限公司人工智能研发中心,长期负责人工智能算法研发和研发管理工作。2015年,进入清华大学-同方威视校企联合博士后工作站进行博士后研究工作。2017年至今,作为技术负责人或骨干参与多个国家级和省部级重点研究项目。长期关注人工智能技术的进展。
章节目录
版权信息
前言
第1章 人类注意力与计算机注意力——从认识自我到改造世界
1.1 本源思考:哲学中的注意力
1.2 心路历程:心理学中的注意力
1.3 深入脑海:认知神经科学中的注意力
1.4 改造世界:计算机科学中的注意力
参考文献
第2章 计算机视觉中的注意力
2.1 注意力模型的分类
2.2 视觉显著性检测原理与模型剖析
2.3 注意力机制的计算机视觉应用与模型剖析
参考文献
第3章 自然语言处理中的注意力——“前Transformer”的时代
3.1 机器翻译与Seq2Seq模型
3.2 自然语言处理中注意力机制的起源
3.3 经典算法剖析
3.4 注意力机制的形式化表示
参考文献
第4章 “只要注意力”的Transformer
4.1 Transformer的诞生
4.2 Transformer的编码器-解码器架构
4.3 Transformer的输入与输出
4.4 Transformer的注意力机制
4.5 一些其他问题
参考文献
第5章 自然语言处理中的预训练范式与Transformer的“一统江湖”
5.1 语言建模
5.2 自然语言处理中的预训练范式
5.3 预训练模型概览
5.4 基于Transformer的预训练模型
参考文献
第6章 计算机视觉中的Transformer
6.1 视觉Transformer模型概览
6.2 卷积还是注意力?
6.3 Transformer的计算机视觉应用与算法剖析
参考文献
第7章 多模态机器学习中的注意力机制
7.1 多模态技术发展史
7.2 多模态机器学习面临的挑战
7.3 视觉语言多模态模型
7.4 经典多模态模型剖析
参考文献
人工智能注意力机制:体系、模型与算法剖析是2024年由机械工业出版社出版,作者傅罡。
得书感谢您对《人工智能注意力机制:体系、模型与算法剖析》关注和支持,如本书内容有不良信息或侵权等情形的,请联系本网站。