深度学习实战:基于TensorFlow2和Keras(原书第2版)

深度学习实战:基于TensorFlow2和Keras(原书第2版)

查阅电子书
手机扫码
  • 微信扫一扫

    关注微信公众号

因版权原因待上架

编辑推荐

Google Cloud工程总监撰写,从工程实践角度,全面介绍现代神经网络、人工智能和深度学习技术。

内容简介

本书简洁且全面地介绍了现代神经网络、人工智能和深度学习技术,专门为软件工程师和数据科学家设计。

第1章逐步介绍神经网络的基础知识。

第2章比较TensorFlow 1.x和TensorFlow 2.0编程模型。

第3章重点介绍回归。

第4章介绍卷积神经网络及其在图像处理中的应用。

第5章讨论了CNN在图像、视频、音频和文本处理方面的高级应用。

第6章重点介绍生成对抗网络。

第7章介绍词嵌入。

第8章介绍基本嵌入方法的各种扩展。

第9章介绍自动编码器。

第10章深入研究无监督学习模型。

第11章重点介绍强化学习。

第12章介绍AutoML。

第13章介绍用于移动设备和物联网的TensorFlow的基础知识。

第14章讨论了云环境以及如何利用它来训练和部署模型。

第15章讨论了深度学习背后的数学。

第16章介绍TPU。

本书内容丰富,易于理解,示例具有代表性,是学习深度学习的绝佳指南。

章节目录

版权信息

前言

作者简介

审校者简介

第1章 基于TensorFlow 2.0的神经网络基础

1.1 TensorFlow是什么

1.2 Keras是什么

1.3 TensorFlow 2.0有哪些重要的改动

1.4 神经网络概述

1.5 感知器

1.6 多层感知器

1.6.1 感知器训练的问题及对策

1.6.2 激活函数——sigmoid函数

1.6.3 激活函数——tanh函数

1.6.4 激活函数——ReLU函数

1.6.5 两个拓展激活函数——ELU函数和LeakyReLU函数

1.6.6 激活函数总结

1.6.7 神经网络到底是什么

1.7 示例——识别手写数字

1.7.1 独热编码

1.7.2 在TensorFlow 2.0中定义一个简单的神经网络

1.7.3 运行一个简单的TensorFlow 2.0神经网络并建立测试基线

1.7.4 使用隐藏层改进TensorFlow 2.0的简单神经网络

1.7.5 利用随机失活进一步改进TensorFlow 2.0的简单神经网络

1.7.6 测试TensorFlow 2.0的不同优化器

1.7.7 增加epoch数

1.7.8 控制优化器学习率

1.7.9 增加内部隐藏神经元的数量

1.7.10 增加批量计算的大小

1.7.11 手写图识别实验总结

1.8 正则化

1.8.1 采用正则化以避免过拟合

1.8.2 理解批量归一化

1.9 Google Colab

1.10 情感分析

1.11 超参数调谐和AutoML

1.12 预测输出

1.13 反向传播的实用概述

1.14 我们学到了什么

1.15 迈向深度学习方式

1.16 参考文献

第2章 TensorFlow 1.x与2.x

2.1 理解TensorFlow 1.x

2.1.1 TensorFlow 1.x计算图程序结构

2.1.2 常量、变量和占位符的使用

2.1.3 操作对象示例

2.1.4 TensorFlow 2.x中的TensorFlow 1.x示例

2.2 理解TensorFlow 2.x

2.2.1 即刻执行

2.2.2 AutoGraph

2.2.3 Keras API的三种编程模型

2.2.4 回调

2.2.5 保存模型和权重

2.2.6 使用tf.data.datasets训练

2.2.7 tf.keras还是估算器

2.2.8 不规则张量

2.2.9 自定义训练

2.2.10 TensorFlow 2.x中的分布式训练

2.2.11 命名空间的改动

2.2.12 1.x至2.x的转换

2.2.13 高效使用TensorFlow 2.x

2.3 TensorFlow 2.x生态系统

2.4 Keras还是tf.keras

2.5 小结

第3章 回归

3.1 什么是回归

3.2 使用线性回归进行预测

3.2.1 简单线性回归

3.2.2 多线性回归

3.2.3 多元线性回归

3.3 TensorFlow Estimator

3.3.1 特征列

3.3.2 输入函数

3.3.3 使用TensorFlow Estimator API的MNIST

3.4 使用线性回归预测房价

3.5 分类任务和决策边界

3.5.1 logistic回归

3.5.2 MNIST数据集上的logistic回归

3.6 小结

3.7 参考文献

第4章 卷积神经网络

4.1 深度卷积神经网络

4.1.1 局部感受野

4.1.2 共享权重和偏差

4.1.3 数学示例

4.1.4 TensorFlow 2.x中的ConvNets

4.1.5 池化层

4.2 DCNN的示例——LeNet

4.2.1 TensorFlow 2.0中的LeNet代码

4.2.2 理解深度学习的力量

4.3 通过深度学习识别CIFAR-10图像

4.3.1 用更深的网络提高CIFAR-10的性能

4.3.2 用数据增强提高CIFAR-10的性能

4.3.3 基于CIFAR-10预测

4.4 用于大规模图像识别的超深度卷积网络

4.4.1 基于VGG16神经网络识别猫

4.4.2 使用tf.keras内置的VGG16 Net模块

4.4.3 复用预建深度学习模型以提取特征

4.5 小结

4.6 参考文献

第5章 高级卷积神经网络

5.1 计算机视觉

5.1.1 复杂任务的CNN组合

5.1.2 用tf.keras-estimator模型对Fashion-MNIST分类

5.1.3 在GPU上运行Fashion-MNIST tf.keras-estimator模型

5.1.4 用于迁移学习的Deep Inception-v3 Net

5.1.5 迁移学习:分类人和马

5.1.6 基于tf.keras和TensorFlow Hub的Application Zoo

5.1.7 其他CNN架构

5.1.8 回答有关图像的问题

5.1.9 风格迁移

5.1.10 创建DeepDream网络

5.1.11 查看深度网络学到的内容

5.2 视频

5.3 文本文件

5.4 音频和音乐

5.5 卷积运算小结

5.5.1 基本卷积神经网络

5.5.2 空洞卷积

5.5.3 可分离卷积

5.5.4 深度卷积

5.5.5 深度可分离卷积

5.6 胶囊网络

5.6.1 CNN有什么问题

5.6.2 Capsule网络有什么新功能

5.7 小结

5.8 参考文献

第6章 生成对抗网络

6.1 什么是GAN

6.2 深度卷积GAN

6.3 一些有趣的GAN架构

6.3.1 SRGAN

6.3.2 CycleGAN

6.3.3 InfoGAN

6.4 GAN的出色应用

6.5 TensorFlow 2.0中的CycleGAN

6.6 小结

6.7 参考文献

第7章 词嵌入

7.1 词嵌入的起源和基本原理

7.2 分布式表示

7.3 静态嵌入

7.3.1 Word2Vec

7.3.2 GloVe

7.4 使用gensim创建自己的嵌入

7.5 使用gensim探索嵌入空间

7.6 使用词嵌入检测垃圾短信

7.6.1 获取数据

7.6.2 准备待用数据

7.6.3 构建嵌入矩阵

7.6.4 定义垃圾短信分类器

7.6.5 训练和评估模型

7.6.6 运行垃圾短信检测器

7.7 神经嵌入

7.7.1 Item2Vec

7.7.2 node2vec

7.8 字符和子词嵌入

7.9 动态嵌入

7.10 句子和段落嵌入

7.11 基于语言模型的嵌入

7.11.1 使用BERT作为特征提取器

7.11.2 微调BERT

7.11.3 基于BERT命令行的分类

7.11.4 把BERT作为自己网络的一部分

7.12 小结

7.13 参考文献

第8章 循环神经网络

8.1 基本的RNN单元

8.1.1 时间反向传播

8.1.2 梯度消失和梯度爆炸

8.2 RNN单元变体

8.2.1 长短期记忆网络

8.2.2 门控循环单元

8.2.3 peephole LSTM

8.3 RNN变体

8.3.1 双向RNN

8.3.2 有状态RNN

8.4 RNN拓扑结构

8.4.1 一对多——学习生成文本

8.4.2 多对一——情感分析

8.4.3 多对多——POS标记

8.5 编码器-解码器架构

8.6 注意力机制

8.7 Transformer架构

8.8 小结

8.9 参考文献

第9章 自编码器

9.1 自编码器简介

9.2 香草自编码器

9.2.1 TensorFlow Keras层——定义自定义层

9.2.2 使用自编码器重构手写数字

9.3 稀疏自编码器

9.4 降噪自编码器

9.5 堆栈自编码器

9.5.1 用于去除图像噪声的卷积自编码器

9.5.2 Keras自编码器示例——句子向量

9.6 小结

9.7 参考文献

第10章 无监督学习

10.1 主成分分析

10.1.1 MNIST数据集上的PCA

10.1.2 TensorFlow嵌入式API

10.1.3 k-均值聚类

10.1.4 TensorFlow 2.0中的k-均值

10.1.5 k-均值的变体

10.2 自组织图

10.3 受限玻尔兹曼机

10.3.1 使用RBM重建图像

10.3.2 深度信念网络

10.4 变分自编码器

10.5 小结

10.6 参考文献

第11章 强化学习

11.1 概述

11.1.1 强化学习术语

11.1.2 深度强化学习算法

11.1.3 强化学习的成功案例

11.2 OpenAI Gym概述

11.3 深度Q网络

11.3.1 CartPole的深度Q网络

11.3.2 深度Q网络玩Atari游戏

11.3.3 DQN变体

11.4 深度确定性策略梯度

11.5 小结

11.6 参考文献

第12章 TensorFlow和云服务

12.1 云端深度学习

12.1.1 微软Azure

12.1.2 AWS

12.1.3 谷歌云平台

12.1.4 IBM云

12.2 云端虚拟机

12.2.1 亚马逊上的EC2

12.2.2 谷歌云平台上的计算实例

12.2.3 微软Azure上的虚拟机

12.3 云端的Jupyter Notebook

12.3.1 SageMaker

12.3.2 Google Colaboratory

12.3.3 微软Azure Notebook

12.4 用于生产的TensorFlow Extended

12.4.1 TFX管道

12.4.2 TFX管道组件

12.4.3 TFX库

12.5 TensorFlow企业版

12.6 小结

12.7 参考文献

第13章 用于移动设备和物联网的TensorFlow以及TensorFlow.js

13.1 TensorFlow Mobile

13.2 TensorFlow Lite

13.2.1 量化

13.2.2 FlatBuffer

13.2.3 Mobile转换器

13.2.4 移动优化解析器

13.2.5 支持平台

13.2.6 架构

13.2.7 使用TensorFlow Lite

13.2.8 应用程序的一个通用示例

13.2.9 使用GPU和加速器

13.2.10 应用程序示例

13.3 TensorFlow Lite中的预训练模型

13.3.1 图片分类

13.3.2 物体检测

13.3.3 姿势估计

13.3.4 智能回复

13.3.5 分割

13.3.6 风格迁移

13.3.7 文本分类

13.3.8 问答

13.3.9 使用移动GPU的注意事项

13.4 边缘联合学习概述

13.5 TensorFlow.js

13.5.1 普通TensorFlow.js

13.5.2 模型转换

13.5.3 预训练模型

13.5.4 Node.js

13.6 小结

13.7 参考文献

第14章 AutoML简介

14.1 什么是AutoML

14.2 实现AutoML

14.3 自动数据准备

14.4 自动特征工程

14.5 自动模型生成

14.6 AutoKeras

14.7 Google Cloud AutoML

14.7.1 使用Cloud AutoML——Tables解决方案

14.7.2 使用Cloud AutoML——Vision解决方案

14.7.3 使用Cloud AutoML——Text Classfication解决方案

14.7.4 使用Cloud AutoML——Translation解决方案

14.7.5 使用Cloud AutoML——Video Intelligence Classification解决方案

14.7.6 费用

14.8 将Google AutoML集成到Kaggle

14.9 小结

14.10 参考文献

第15章 深度学习相关的数学知识

15.1 历史

15.2 数学工具

15.2.1 随处可见的导数和梯度

15.2.2 梯度下降

15.2.3 链式法则

15.2.4 一些微分规则

15.2.5 矩阵运算

15.3 激活函数

15.3.1 sigmoid函数的导数

15.3.2 tanh函数的导数

15.3.3 ReLU函数的导数

15.4 反向传播

15.4.1 前向步骤

15.4.2 反向步骤

15.4.3 反向传播的局限性

15.4.4 交叉熵及其导数

15.4.5 批量梯度下降、随机梯度下降和小批量

15.5 关于反向传播和卷积的思考

15.6 关于反向传播和RNN的思考

15.7 关于TensorFlow和自动区分的说明

15.8 小结

15.9 参考文献

第16章 张量处理单元

16.1 CPU、GPU与TPU

16.1.1 CPU和GPU

16.1.2 TPU

16.2 三代TPU和边缘TPU

16.2.1 第一代TPU

16.2.2 第二代TPU

16.2.3 第三代TPU

16.2.4 边缘TPU

16.3 TPU性能

16.4 如何在Colab中使用TPU

16.4.1 检查TPU是否可用

16.4.2 用tf.data加载数据

16.4.3 建立模型并将其加载到TPU中

16.5 使用预训练的TPU模型

16.6 使用TensorFlow 2.1和夜间版

16.7 小结

16.8 参考文献

深度学习实战:基于TensorFlow2和Keras(原书第2版)是2021年由机械工业出版社华章分社出版,作者[意] 安东尼奥·古利。

得书感谢您对《深度学习实战:基于TensorFlow2和Keras(原书第2版)》关注和支持,如本书内容有不良信息或侵权等情形的,请联系本网站。

购买这本书

你可能喜欢
深度学习高手笔记·卷1:基础算法 电子书
本书从算法理论、算法源码、实验结果等方面对深度学习算法进行分析和介绍。
数据分析基础与案例实战(基于Excel软件) 电子书
本书分为8章,首先从数据分析技术概述入手,介绍了数据分析的基本概念、数据分析的工作流程、数据分析方法论与方法,并介绍了常用的数据分析工具;接着以Excel工具为例,从数据收集、数据加工与处理、统计分析、数据展示等数据分析工作流程切入,结合具体的案例进行数据剖析;最后将理论与实践相结合,讲解了电商数据、股票数据两个真实的企业案例。
Linux内核深度解析:基于ARM64架构的Linux4.x内核 电子书
基于ARM64架构的Linux 4.x内核,大量图例描述数据结构之间的关系和函数的执行流程 结合代码分析,以通俗化语言全面剖析Linux内核。
从零开始:机器学习的数学原理和算法实践 电子书
一学就会的数学知识,通俗易懂的算法原理,经典实用的编程实践。
组织和细胞培养技术(第4版) 电子书
全套教材共包括五个系列:科研公共学科主要围绕研究生科研中所需要的基本理论知识,以及从最初的科研设计到最终的论文发表的各个环节可能遇到的问题展开;实验技术与统计软件系列介绍了SAS统计软件、SPSS统计软件、分子生物学实验技术、免疫学实验技术等常用的统计软件以及实验技术;基础前沿与进展系列主要包括了基础学科中进展相对活跃的学科;临床基础与辅助学科系列包括了临床型研究生所需要进一步加强的相关学科内容;