深度学习之美:AI时代的数据处理与最佳实践(博文视点AI系列)

深度学习之美:AI时代的数据处理与最佳实践(博文视点AI系列)

我想读
手机扫码
  • 微信扫一扫

    关注微信公众号

因版权原因待上架

类似推荐

编辑推荐

深度学习入门教程,集各项前沿技术之大成,含Hinton神经胶囊网络的详细解读。

内容简介

深度学习是人工智能的前沿技术。《深度学习之美:AI时代的数据处理与最佳实践》深入浅出地介绍了深度学习的相关理论和实践,《深度学习之美:AI时代的数据处理与最佳实践》共分16章,采用理论和实践双主线写作方式。第1章给出深度学习的大图。第2章和第3章,讲解了机器学习的相关基础理论。第4章和第5章,讲解了Python基础和基于Python的机器学习实战。第6至10章,先后讲解了M-P模型、感知机、多层神经网络、BP神经网络等知识。第11章讲解了被广泛认可的深度学习框架TensorFlow。第12章和第13章详细讲解了卷积神经网络,并给出了相关的实战项目。第14章和第15章,分别讲解了循环递归网络和长短期记忆(LSTM)网络。第16章讲解了神经胶囊网络,并给出了神经胶囊网络设计的详细论述和实践案例分析。

《深度学习之美:AI时代的数据处理与最佳实践》结构完整、行文流畅,是一本难得的零基础入门、图文并茂、通俗易懂、理论结合实战的深度学习书籍。

作者简介

作者张玉宏,工学博士,科普作家,阿里云云栖社区认证专家、专栏作家,畅销书《品味大数据》作者,电气和电子工程师协会(IEEE)会员,国际计算机协会(ACM)会员,中国计算机协会(CCF)会员。2012年毕业于电子科技大学,2009—2011年在美国西北大学做访问学者,现执教于河南工业大学。主要研究方向为高性能计算、大数据。发表SCI/EI论文10余篇,出版国内外学术专著5部。

章节目录

版权信息

内容简介

推荐序一 通俗也是一种美德

推荐序二 技术,也可以“美”到极致

自序 深度学习的浅度梦想

读者服务

第1章 一入侯门“深”似海,深度学习深几许

1.1 深度学习的巨大影响

1.2 什么是学习

1.3 什么是机器学习

1.4 机器学习的4个象限

1.5 什么是深度学习

1.6 “恋爱”中的深度学习

1.7 深度学习的方法论

1.8 有没有浅层学习

1.9 本章小结

1.10 请你思考

第2章 人工“碳”索意犹尽,智能“硅”来未可知

2.1 信数据者得永生吗

2.2 人工智能的“江湖定位”

2.3 深度学习的归属

2.4 机器学习的形式化定义

2.5 为什么要用神经网络

2.6 人工神经网络的特点

2.7 什么是通用近似定理

2.8 本章小结

2.9 请你思考

第3章 “机器学习”三重门,“中庸之道”趋若人

3.1 监督学习

3.1.1 感性认知监督学习

3.1.2 监督学习的形式化描述

3.1.3 k-近邻算法

3.2 非监督学习

3.2.1 感性认识非监督学习

3.2.2 非监督学习的代表—K均值聚类

3.3 半监督学习

3.4 从“中庸之道”看机器学习

3.5 强化学习

3.6 本章小结

3.7 请你思考

第4章 人生苦短对酒歌,我用Python乐趣多

4.1 Python概要

4.1.1 为什么要用Python

4.1.2 Python中常用的库

4.2 Python的版本之争

4.3 Python环境配置

4.3.1 Windows下的安装与配置

4.3.2 Mac下的安装与配置

4.4 Python编程基础

4.4.1 如何运行Python代码

4.4.2 代码缩进

4.4.3 注释

4.4.4 Python中的数据结构

4.4.5 函数的设计

4.4.6 模块的导入与使用

4.4.7 面向对象程序设计

4.5 本章小结

4.6 请你思考

第5章 机器学习终觉浅,Python带我来实践

5.1 线性回归

5.1.1 线性回归的概念

5.1.2 简易线性回归的Python实现详解

5.2 k-近邻算法

5.2.1 k-近邻算法的三个要素

5.2.2 k-近邻算法实战

5.2.3 使用scikit-learn实现k-近邻算法

5.3 本章小结

5.4 请你思考

第6章 神经网络不胜语,M-P模型似可寻

6.1 M-P神经元模型是什么

6.2 模型背后的那些人和事

6.3 激活函数是怎样的一种存在

6.4 什么是卷积函数

6.5 本章小结

6.6 请你思考

第7章 Hello World感知机,懂你我心才安息

7.1 网之初,感知机

7.2 感知机名称的由来

7.3 感性认识“感知机”

7.4 感知机是如何学习的

7.5 感知机训练法则

7.6 感知机的几何意义

7.7 基于Python的感知机实战

7.8 感知机的表征能力

7.9 本章小结

7.10 请你思考

第8章 损失函数减肥用,神经网络调权重

8.1 多层网络解决“异或”问题

8.2 感性认识多层前馈神经网络

8.3 是浅而“胖”好,还是深而“瘦”佳

8.4 分布式特征表达

8.5 丢弃学习与集成学习

8.6 现实很丰满,理想很骨感

8.7 损失函数的定义

8.8 热力学定律与梯度弥散

8.9 本章小结

8.10 请你思考

第9章 山重水复疑无路,最快下降问梯度

9.1 “鸟飞派”还飞不

9.2 1986年的那篇神作

9.3 多层感知机网络遇到的大问题

9.4 神经网络结构的设计

9.5 再议损失函数

9.6 什么是梯度

9.7 什么是梯度递减

9.8 梯度递减的线性回归实战

9.9 什么是随机梯度递减

9.10 利用SGD解决线性回归实战

9.11 本章小结

9.12 请你思考

第10章 BP算法双向传,链式求导最缠绵

10.1 BP算法极简史

10.2 正向传播信息

10.3 求导中的链式法则

10.4 误差反向传播

10.4.1 基于随机梯度下降的BP算法

10.4.2 输出层神经元的权值训练

10.4.3 隐含层神经元的权值训练

10.4.4 BP算法的感性认知

10.4.5 关于BP算法的补充说明

10.5 BP算法实战详细解释

10.5.1 初始化网络

10.5.2 信息前向传播

10.5.3 误差反向传播

10.5.4 训练网络(解决异或问题)

10.5.5 利用BP算法预测小麦品种的分类

10.6 本章小结

10.7 请你思考

第11章 一骑红尘江湖笑,TensorFlow谷歌造

11.1 TensorFlow概述

11.2 深度学习框架比较

11.2.1 Theano

11.2.2 Keras

11.2.3 Caffe

11.2.4 PyTorch

11.3 TensorFlow的安装

11.3.1 Anaconda的安装

11.3.2 TensorFlow的CPU版本安装

11.3.3 TensorFlow的源码编译

11.4 Jupyter Notebook的使用

11.4.1 Jupyter Notebook的由来

11.4.2 Jupyter Notebook的安装

11.5 TensorFlow中的基础语法

11.5.1 什么是数据流图

11.5.2 构建第一个TensorFlow数据流图

11.5.3 可视化展现的TensorBoard

11.5.4 TensorFlow的张量思维

11.5.5 TensorFlow中的数据类型

11.5.6 TensorFlow中的操作类型

11.5.7 TensorFlow中的Graph对象

11.5.8 TensorFlow中的Session

11.5.9 TensorFlow中的placeholder

11.5.10 TensorFlow中的Variable对象

11.5.11 TensorFlow中的名称作用域

11.5.12 张量的Reduce方向

11.6 手写数字识别MNIST

11.6.1 MNIST数据集简介

11.6.2 MNIST数据的获取与预处理

11.6.3 分类模型的构建—Softmax Regression

11.7 TensorFlow中的Eager执行模式

11.7.1 Eager执行模式的背景

11.7.2 Eager执行模式的安装

11.7.3 Eager执行模式的案例

11.7.4 Eager执行模式的MNIST模型构建

11.8 本章小结

11.9 请你思考

第12章 全面连接困何处,卷积网络显神威

12.1 卷积神经网络的历史

12.1.1 眼在何方?路在何方?

12.1.2 卷积神经网络的历史脉络

12.1.3 那场著名的学术赌局

12.2 卷积神经网络的概念

12.2.1 卷积的数学定义

12.2.2 生活中的卷积

12.3 图像处理中的卷积

12.3.1 计算机“视界”中的图像

12.3.2 什么是卷积核

12.3.3 卷积在图像处理中的应用

12.4 卷积神经网络的结构

12.5 卷积层要义

12.5.1 卷积层的设计动机

12.5.2 卷积层的局部连接

12.5.3 卷积层的3个核心概念

12.6 细说激活层

12.6.1 两个看似闲扯的问题

12.6.2 追寻问题的本质

12.6.3 ReLU的理论基础

12.6.4 ReLU的不足之处

12.7 详解池化层

12.8 勿忘全连接层

12.9 本章小结

12.10 请你思考

第13章 纸上谈兵终觉浅,绝知卷积要编程

13.1 TensorFlow的CNN架构

13.2 卷积层的实现

13.2.1 TensorFlow中的卷积函数

13.2.2 图像处理中的常用卷积核

13.3 激活函数的使用

13.3.1 Sigmoid函数

13.3.2 Tanh函数

13.3.3 修正线性单元——ReLU

13.3.4 Dropout函数

13.4 池化层的实现

13.5 规范化层

13.5.1 为什么需要规范化

13.5.2 局部响应规范化

13.5.3 批规范化

13.6 卷积神经网络在MNIST分类器中的应用

13.6.1 数据读取

13.6.2 初始化权值和偏置

13.6.3 卷积和池化

13.6.4 构建第一个卷积层

13.6.5 构建第二个卷积层

13.6.6 实现全连接层

13.6.7 实现Dropout层

13.6.8 实现Readout层

13.6.9 参数训练与模型评估

13.7 经典神经网络——AlexNet的实现

13.7.1 AlexNet的网络架构

13.7.2 数据读取

13.7.3 初始化权值和偏置

13.7.4 卷积和池化

13.7.5 局部响应归一化层

13.7.6 构建卷积层

13.7.7 实现全连接层和Dropout层

13.7.8 实现Readout层

13.7.9 参数训练与模型评估

13.8 本章小结

13.9 请你思考

第14章 循环递归RNN,序列建模套路深

14.1 你可能不具备的一种思维

14.2 标准神经网络的缺陷所在

14.3 RNN简史

14.3.1 Hopfield网络

14.3.2 Jordan递归神经网络

14.3.3 Elman递归神经网络

14.3.4 RNN的应用领域

14.4 RNN的理论基础

14.4.1 Elman递归神经网络

14.4.2 循环神经网络的生物学机理

14.5 RNN的结构

14.6 循环神经网络的训练

14.6.1 问题建模

14.6.2 确定优化目标函数

14.6.3 参数求解

14.7 基于RNN的TensorFlow实战——正弦序列预测

14.7.1 生成数据

14.7.2 定义权值和偏置

14.7.3 前向传播

14.7.4 定义损失函数

14.7.5 参数训练与模型评估

14.8 本章小结

14.9 请你思考

第15章 LSTM长短记,长序依赖可追忆

15.1 遗忘是好事还是坏事

15.2 施密德胡伯是何人

15.3 为什么需要LSTM

15.4 拆解LSTM

15.4.1 传统RNN的问题所在

15.4.2 改造的神经元

15.5 LSTM的前向计算

15.5.1 遗忘门

15.5.2 输入门

15.5.3 候选门

15.5.4 输出门

15.6 LSTM的训练流程

15.7 自然语言处理的一个假设

15.8 词向量表示方法

15.8.1 独热编码表示

15.8.2 分布式表示

15.8.3 词嵌入表示

15.9 自然语言处理的统计模型

15.9.1 NGram模型

15.9.2 基于神经网络的语言模型

15.9.3 基于循环神经网络的语言模型

15.9.4 LSTM语言模型的正则化

15.10 基于Penn Tree Bank的自然语言处理实战

15.10.1 下载及准备PTB数据集

15.10.2 导入基本包

15.10.3 定义相关的参数

15.10.4 语言模型的实现

15.10.5 训练并返回perplexity值

15.10.6 定义主函数并运行

15.10.7 运行结果

15.11 本章小结

15.12 请你思考

第16章 卷积网络虽动人,胶囊网络更传“神”

16.1 从神经元到神经胶囊

16.2 卷积神经网络面临的挑战

16.3 神经胶囊的提出

16.4 神经胶囊理论初探

16.4.1 神经胶囊的生物学基础

16.4.2 神经胶囊网络的哲学基础

16.5 神经胶囊的实例化参数

16.6 神经胶囊的工作流程

16.6.1 神经胶囊向量的计算

16.6.2 动态路由的工作机理

16.6.3 判断多数字存在性的边缘损失函数

16.6.4 胶囊神经网络的结构

16.7 CapsNet的验证与实验

16.7.1 重构和预测效果

16.7.2 胶囊输出向量的维度表征意义

16.7.3 重叠图像的分割

16.8 神经胶囊网络的TensorFlow实现

16.8.1 导入基本包及读取数据集

16.8.2 图像输入

16.8.3 卷积层Conv1的实现

16.8.4 PrimaryCaps层的实现

16.8.5 全连接层

16.8.6 路由协议算法

16.8.7 估计实体出现的概率

16.8.8 损失函数的实现

16.8.9 额外设置

16.8.10 训练和评估

16.8.11 运行结果

16.9 本章小结

16.10 请你思考

16.11 深度学习美在何处

后记

索引

深度学习之美:AI时代的数据处理与最佳实践(博文视点AI系列)是2018年由电子工业出版社出版,作者张玉宏。

得书感谢您对《深度学习之美:AI时代的数据处理与最佳实践(博文视点AI系列)》关注和支持,如本书内容有不良信息或侵权等情形的,请联系本网站。

你可能喜欢