封面
版权信息
内容简介
前言
第1章 自然语言处理基础
1.1 认识自然语言处理
1.2 自然语言处理方面的任务
1.3 第一阶段:偏理论的理性主义
1.4 第二阶段:偏实践应用的经验主义
1.5 第三阶段:深度学习阶段
1.6 NLP中深度学习的局限性
1.7 NLP的应用场景
1.8 NLP的发展前景
1.9 总结
第2章 深度学习基础
2.1 深度学习介绍
2.2 深度学习演变简述
2.3 神经网络介绍
2.4 神经网络的基本结构
2.5 两层神经网络(多层感知器)
2.6 多层神经网络(深度学习)
2.7 编码器-解码器网络
2.8 随机梯度下降
2.9 反向传播
2.10 总结
第3章 TensorFlow
3.1 TensorFlow概念解读
3.2 TensorFlow主要特征
3.3 TensorFlow安装
3.4 TensorFlow计算图
3.5 TensorFlow张量和模型会话
3.6 TensorFlow工作原理
3.7 通过一个示例来认识TensorFlow
3.8 TensorFlow客户端
3.9 TensorFlow中常见元素解读
3.10 变量作用域机制
3.11 实现一个神经网络
3.12 总结
第4章 词嵌入
4.1 分布式表示
4.2 Word2vec模型(以Skip-Gram为例)
4.3 原始Skip-Gram模型和改进Skip-Gram模型对比分析
4.4 CBOW模型
4.5 Skip-Gram和CBOW对比
4.6 词嵌入算法的扩展
4.7 结构化Skip-Gram和连续窗口模型
4.8 GloVe模型
4.9 使用Word2Vec进行文档分类
4.10 总结
第5章 卷积神经网络与句子分类
5.1 认识卷积神经网络
5.2 输入层
5.3 卷积运算层
5.4 激活函数
5.5 池化层
5.6 全连接层
5.7 整合各层并使用反向传播进行训练
5.8 常见经典卷积神经网络
5.9 利用CNN对MNIST数据集进行图片分类
5.10 利用CNN进行句子分类
5.11 总结
第6章 循环神经网络
6.1 计算图及其展开
6.2 RNN解读
6.3 通过时间的反向传播算法
6.4 RNN的应用类型
6.5 利用RNN生成文本
6.6 输出新生成的文本片段
6.7 评估RNN的文本结果输出
6.8 困惑度——文本生成结果质量的度量
6.9 具有上下文特征的循环神经网络——RNN-CF
6.10 使用RNN-CF生成的文本
6.11 总结
第7章 长短期记忆
7.1 LSTM简述
7.2 LSTM工作原理详解
7.3 LSTM与标准RNN的区别
7.4 LSTM如何避免梯度消失和梯度爆炸问题
7.5 优化LSTM
7.6 LSTM的其他变体
7.7 总结
第8章 利用LSTM自动生成文本
8.1 文本到文本的生成
8.2 意义到文本的生成
8.3 数据到文本的生成
8.4 文本自动生成前的数据准备
8.5 实现LSTM
8.6 标准LSTM与带有窥视孔连接和GRU的LSTM的比较
8.7 优化LSTM——集束搜索
8.8 改进LSTM——使用词而不是n-gram生成文本
8.9 使用TensorFlow RNN API
8.10 总结
第9章 利用LSTM实现图像字幕自动生成
9.1 简要介绍
9.2 发展背景
9.3 利用深度学习框架从图像中生成字幕
9.4 评估指标和基准
9.5 近期研究
9.6 图像字幕的产业布局
9.7 详解图像字幕自动生成任务
9.8 总结
第10章 情感分析
10.1 认识情感分析
10.2 情感分析的问题
10.3 情感文档分类
10.4 句子主观性与情感分类
10.5 基于方面(Aspect)的情感分析
10.6 情感词典生成
10.7 意见摘要
10.8 比较观点分析
10.9 意见搜索
10.10 垃圾评论检测
10.11 评论的质量
10.12 利用TensorFlow进行中文情感分析实现
10.13 总结
第11章 机器翻译
11.1 机器翻译简介
11.2 基于规则的翻译
11.3 统计机器翻译
11.4 神经网络机器翻译
11.5 神经网络机器翻译(NMT)系统的前期准备工作
11.6 BLEU评分——评估机器翻译系统
11.7 完整实现神经网络机器翻译——德语到英语翻译
11.8 结合词向量训练神经网络机器翻译系统
11.9 优化神经网络机器翻译系统
11.10 实现注意力机制
11.11 可视化源语句和目标语句的注意力
11.12 历史性突破——BERT模型
11.13 总结
第12章 智能问答系统
12.1 概要
12.2 基于知识库的问答
12.3 机器理解中的深度学习
12.4 利用TensorFlow实现问答任务
12.5 总结
更新时间:2019-11-22 18:23:09