封面
版权信息
译者序
前言
第一部分 神经网络入门
第1章 有监督学习入门
1.1 人工智能的历史
1.2 机器学习概述
1.2.1 有监督学习
1.2.2 无监督学习
1.2.3 半监督学习
1.2.4 强化学习
1.3 配置环境
1.3.1 了解虚拟环境
1.3.2 Anaconda
1.3.3 Docker
1.4 Python有监督学习实践
1.5 特征工程
1.6 有监督学习算法
1.6.1 指标
1.6.2 模型评估
1.7 总结
第2章 神经网络基础
2.1 感知器
2.2 Keras
2.3 前馈神经网络
2.3.1 反向传播介绍
2.3.2 激活函数
2.3.3 Keras实现
2.4 从头开始使用Python编写FFNN
2.4.1 FFNN的Keras实现
2.4.2 TensorBoard
2.4.3 XOR问题中的TensorBoard
2.5 总结
第二部分 深度学习应用
第3章 基于卷积神经网络的图像处理
3.1 理解卷积神经网络
3.2 卷积层
3.2.1 池化层
3.2.2 丢弃层
3.2.3 归一化层
3.2.4 输出层
3.3 Keras中的卷积神经网络
3.3.1 加载数据
3.3.2 创建模型
3.3.3 网络配置
3.4 Keras表情识别
3.5 优化网络
3.6 总结
第4章 利用文本嵌入
4.1 面向NLP的机器学习
4.2 理解词嵌入
4.2.1 词嵌入的应用
4.2.2 Word2vec
4.3 GloVe
4.3.1 全局矩阵分解
4.3.2 使用GloVe模型
4.3.3 基于GloVe的文本分类
4.4 总结
第5章 循环神经网络
5.1 理解循环神经网络
5.1.1 循环神经网络原理
5.1.2 循环神经网络类型
5.1.3 损失函数
5.2 长短期记忆
5.2.1 LSTM架构
5.2.2 Keras长短期记忆实现
5.3 PyTorch基础知识
5.4 总结
第6章 利用迁移学习重用神经网络
6.1 迁移学习理论
6.1.1 多任务学习介绍
6.1.2 重用其他网络作为特征提取器
6.2 实现多任务学习
6.3 特征提取
6.4 在PyTorch中实现迁移学习
6.5 总结
第三部分 高级应用领域
第7章 使用生成算法
7.1 判别算法与生成算法
7.2 理解GAN
7.2.1 训练GAN
7.2.2 GAN面临的挑战
7.3 GAN的发展变化和时间线
7.3.1 条件GAN
7.3.2 DCGAN
7.3.3 Pix2Pix GAN
7.3.4 StackGAN
7.3.5 CycleGAN
7.3.6 ProGAN
7.3.7 StarGAN
7.3.8 BigGAN
7.3.9 StyleGAN
7.3.10 Deepfake
7.3.11 RadialGAN
7.4 总结
7.5 延伸阅读
第8章 实现自编码器
8.1 自编码器概述
8.2 自编码器的应用
8.3 瓶颈和损失函数
8.4 自编码器的标准类型
8.4.1 欠完备自编码器
8.4.2 多层自编码器
8.4.3 卷积自编码器
8.4.4 稀疏自编码器
8.4.5 去噪自编码器
8.4.6 收缩自编码器
8.5 变分自编码器
8.6 训练变分自编码器
8.7 总结
8.8 延伸阅读
第9章 DBN
9.1 DBN概述
9.1.1 贝叶斯置信网络
9.1.2 受限玻尔兹曼机
9.2 DBN架构
9.3 训练DBN
9.4 微调
9.5 数据集和库
9.5.1 示例——有监督的DBN分类
9.5.2 示例——有监督的DBN回归
9.5.3 示例——无监督的DBN分类
9.6 总结
9.7 延伸阅读
第10章 强化学习
10.1 基本定义
10.2 Q-learning介绍
10.2.1 学习目标
10.2.2 策略优化
10.2.3 Q-learning方法
10.3 使用OpenAI Gym
10.4 冰湖问题
10.5 总结
第11章 下一步是什么
11.1 本书总结
11.2 机器学习的未来
11.3 通用人工智能
11.3.1 AI伦理问题
11.3.2 可解释性
11.3.3 自动化
11.3.4 AI安全性
11.3.5 问责制
11.4 结语
更新时间:2021-06-24 11:18:39