登录
深度学习核心技术与实践
暂无评分 作者:猿辅导研究团队著 出版社:电子工业出版社 出版日期:2018年02月 ISBN:978-7-121-32905-0 中图分类:TP181 ( 工业技术 > 自动化技术、计算机技术 > 自动化基础理论 > 人工智能理论 > 自动推理、机器学习 ) 标签:
评分: 借阅次数:2 收藏人数:0 推荐次数:0
封面 书名页 版权页 前言 目录页 第1部分 深度学习基础篇 1 概述 1.1 人工智能 1.1.1 人工智能的分类 1.1.2 人工智能发展史 1.2 机器学习 1.2.1 机器学习的由来 1.2.2 机器学习发展史 1.2.3 机器学习方法分类 1.2.4 机器学习中的基本概念 1.3 神经网络 1.3.1 神经网络发展史 参考文献 2 神经网络 2.1 在神经科学中对生物神经元的研究 2.1.1 神经元激活机制 2.1.2 神经元的特点 2.2 神经元模型 2.2.1 线性神经元 2.2.2 线性阈值神经元 2.2.3 Sigmoid神经元 2.2.4 Tanh神经元 2.2.5 ReLU 2.2.6 Maxout 2.2.7 Softmax 2.2.8 小结 2.3 感知机 2.3.1 感知机的提出 2.3.2 感知机的困境 2.4 DNN 2.4.1 输入层、输出层及隐层 2.4.2 目标函数的选取 2.4.3 前向传播 2.4.4 后向传播 2.4.5 参数更新 2.4.6 神经网络的训练步骤 参考文献 3 初始化模型 3.1 受限玻尔兹曼机 3.1.1 能量模型 3.1.2 带隐藏单元的能量模型 3.1.3 受限玻尔兹曼机基本原理 3.1.4 二值RBM 3.1.5 对比散度 3.2 自动编码器 3.2.1 稀疏自动编码器 3.2.2 降噪自动编码器 3.2.3 栈式自动编码器 3.3 深度信念网络 参考文献 4 卷积神经网络 4.1 卷积算子 4.2 卷积的特征 4.3 卷积网络典型结构 4.3.1 基本网络结构 4.3.2 构成卷积神经网络的层 4.3.3 网络结构模式 4.4 卷积网络的层 4.4.1 卷积层 4.4.2 池化层 参考文献 5 循环神经网络 5.1 循环神经网络简介 5.2 RNN、LSTM和GRU 5.3 双向RNN 5.4 RNN语言模型的简单实现 参考文献 6 深度学习优化算法 6.1 SGD 6.2 Momentum 6.3 NAG 6.4 Adagrad 6.5 RMSProp 6.6 Adadelta 6.7 Adam 6.8 AdaMax 6.9 Nadam 6.10 关于优化算法的使用 参考文献 7 深度学习训练技巧 7.1 数据预处理 7.2 权重初始化 7.3 正则化 7.3.1 提前终止 7.3.2 数据增强 7.3.3 L2/L1参数正则化 7.3.4 集成 7.3.5 Dropout 参考文献 8 深度学习框架 8.1 Theano 8.1.1 Theano 8.1.2 安装 8.1.3 计算图 8.2 Torch 8.2.1 概述 8.2.2 安装 8.2.3 核心结构 8.2.4 小试牛刀 8.3 PyTorch 8.3.1 概述 8.3.2 安装 8.3.3 核心结构 8.3.4 小试牛刀 8.4 Caffe 8.4.1 概述 8.4.2 安装 8.4.3 核心组件 8.4.4 小试牛刀 8.5 TensorFlow 8.5.1 概述 8.5.2 安装 8.5.3 核心结构 8.5.4 小试牛刀 8.6 MXNet 8.6.1 概述 8.6.2 安装 8.6.3 核心结构 8.6.4 小试牛刀 8.7 Keras 8.7.1 概述 8.7.2 安装 8.7.3 模块介绍 8.7.4 小试牛刀 参考文献 第2部分 计算机视觉篇 9 计算机视觉背景 9.1 传统计算机视觉 9.2 基于深度学习的计算机视觉 9.3 参考文献 10 图像分类模型 10.1 LeNet-5 10.2 AlexNet 10.3 VGGNet 10.3.1 网络结构 10.3.2 配置 10.3.3 讨论 10.3.4 几组实验 10.4 GoogLeNet 10.4.1 NIN 10.4.2 GoogLeNet的动机 10.4.3 网络结构细节 10.4.4 训练方法 10.4.5 后续改进版本 10.5 ResNet 10.5.1 基本思想 10.5.2 网络结构 10.6 DenseNet 10.7 DPN 参考文献 11 目标检测 11.1 相关研究 11.1.1 选择性搜索 11.1.2 OverFeat 11.2 基于区域提名的方法 11.2.1 R-CNN 11.2.2 SPP-net 11.2.3 Fast R-CNN 11.2.4 Faster R-CNN 11.2.5 R-FCN 11.3 端到端的方法 11.3.1 YOLO 11.3.2 SSD 11.4 小结 参考文献 12 语义分割 12.1 全卷积网络 12.1.1 FCN 12.1.2 DeconvNet 12.1.3 SegNet 12.1.4 DilatedConvNet 12.2 CRF/MRF的使用 12.2.1 DeepLab 12.2.2 CRFasRNN 12.2.3 DPN 12.3 实例分割 12.3.1 Mask R-CNN 参考文献 13 图像检索的深度哈希编码 13.1 传统哈希编码方法 13.2 CNNH 13.3 DSH 13.4 小结 参考文献 第3部分 语音识别篇 14 传统语音识别基础 14.1 语音识别简介 14.2 HMM简介 14.2.1 HMM是特殊的混合模型 14.2.2 转移概率矩阵 14.2.3 发射概率 14.2.4 Baum-Welch算法 14.2.5 后验概率 14.2.6 前向-后向算法 14.3 HMM梯度求解 14.3.1 梯度算法1 14.3.2 梯度算法2 14.3.3 梯度求解的重要性 14.4 孤立词识别 14.4.1 特征提取 14.4.2 孤立词建模 14.4.3 GMM-HMM 14.5 连续语音识别 14.6 Viterbi解码 14.7 三音素状态聚类 14.8 判别式训练 参考文献 15 基于WFST的语音解码 15.1 有限状态机 15.2 WFST及半环定义 15.2.1 WFST 15.2.2 半环(Semiring) 15.3 自动机操作 15.3.1 自动机基本操作 15.3.2 转换器基本操作 15.3.3 优化操作 15.4 基于WFST的语音识别系统 15.4.1 声学模型WFST 15.4.2 三音素WFST 15.4.3 发音字典WFST 15.4.4 语言模型WFST 15.4.5 WFST组合和优化 15.4.6 组合和优化实验 15.4.7 WFST解码 参考文献 16 深度语音识别 16.1 CD-DNN-HMM 16.2 TDNN 16.3 CTC 16.4 EESEN 16.5 Deep Speech 16.6 Chain 参考文献 17 CTC解码 17.1 序列标注 17.2 序列标注任务的解决办法 17.2.1 序列分类 17.2.2 分割分类 17.2.3 时序分类 17.3 隐马模型 17.4 CTC基本定义 17.5 CTC前向算法 17.6 CTC后向算法 17.7 CTC目标函数 17.8 CTC解码基本原理 17.8.1 最大概率路径解码 17.8.2 前缀搜索解码 17.8.3 约束解码 参考文献 第4部分 自然语言处理篇 18 自然语言处理简介 18.1 NLP的难点 18.2 NLP的研究范围 19 词性标注 19.1 传统词性标注模型 19.2 基于神经网络的词性标注模型 19.3 基于Bi-LSTM的神经网络词性标注模型 参考文献 20 依存句法分析 20.1 背景 20.2 SyntaxNet技术要点 20.2.1 Transition-based系统 20.2.2 “模板化”技术 20.2.3 Beam Search 参考文献 21 word2vec 21.1 背景 21.1.1 词向量 21.1.2 统计语言模型 21.1.3 神经网络语言模型 21.1.4 Log-linear模型 21.1.5 Log-bilinear模型 21.1.6 层次化Log-bilinear模型 21.2 CBOW模型 21.3 Skip-gram模型 21.4 Hierarchical Softmax与Negative Sampling 21.5 fastText 21.6 GloVe 21.7 小结 参考文献 22 神经网络机器翻译 22.1 机器翻译简介 22.2 神经网络机器翻译基本模型 22.3 基于Attention的神经网络机器翻译 22.4 谷歌机器翻译系统GNMT 22.5 基于卷积的机器翻译 22.6 小结 参考文献 第5部分 深度学习研究篇 23 Batch Normalization 23.1 前向与后向传播 23.1.1 前向传播 23.1.2 后向传播 23.2 有效性分析 23.2.1 内部协移 23.2.2 梯度流 23.3 使用与优化方法 23.4 小结 参考文献 24 Attention 24.1 从简单RNN到RNN + Attention 24.2 Soft Attention与Hard Attention 24.3 Attention的应用 24.4 小结 参考文献 25 多任务学习 25.1 背景 25.2 什么是多任务学习 25.3 多任务分类与其他分类概念的关系 25.3.1 二分类 25.3.2 多分类 25.3.3 多标签分类 25.3.4 相关关系 25.4 多任务学习如何发挥作用 25.4.1 提高泛化能力的潜在原因 25.4.2 多任务学习机制 25.4.3 后向传播多任务学习如何发现任务是相关的 25.5 多任务学习被广泛应用 25.5.1 使用未来预测现在 25.5.2 多种表示和度量 25.5.3 时间序列预测 25.5.4 使用不可操作特征 25.5.5 使用额外任务来聚焦 25.5.6 有序迁移 25.5.7 多个任务自然地出现 25.5.8 将输入变成输出 25.6 多任务深度学习应用 25.6.1 脸部特征点检测 25.6.2 DeepID2 25.6.3 Fast R-CNN 25.6.4 旋转人脸网络 25.6.5 实例感知语义分割的MNC 25.7 小结 参考文献 26 模型压缩 26.1 模型压缩的必要性 26.2 较浅的网络 26.3 剪枝 26.4 参数共享 26.5 紧凑网络 26.6 二值网络 26.7 小结 参考文献 27 增强学习 27.1 什么是增强学习 27.2 增强学习的数学表达形式 27.2.1 MDP 27.2.2 策略函数 27.2.3 奖励与回报 27.2.4 价值函数 27.2.5 贝尔曼方程 27.2.6 最优策略性质 27.3 用动态规划法求解增强学习问题 27.3.1 Agent的目标 27.3.2 策略评估 27.3.3 策略改进 27.3.4 策略迭代 27.3.5 策略迭代的例子 27.3.6 价值迭代 27.3.7 价值迭代的例子 27.3.8 策略函数和价值函数的关系 27.4 无模型算法 27.4.1 蒙特卡罗法 27.4.2 时序差分法 27.4.3 Q-Learning 27.5 Q-Learning的例子 27.6 AlphaGo原理剖析 27.6.1 围棋与机器博弈 27.6.2 Alpha-Beta树 27.6.3 MCTS 27.6.4 UCT 27.6.5 AlphaGo的训练策略 27.6.6 AlphaGo的招式搜索算法 27.6.7 围棋的对称性 27.7 AlphaGo Zero 参考文献 28 GAN 28.1 生成模型 28.2 生成对抗模型的概念 28.3 GAN实战 28.4 InfoGAN——探寻隐变量的内涵 28.5 Image-Image Translation 28.6 WGAN(Wasserstein GAN) 28.6.1 GAN目标函数的弱点 28.6.2 Wasserstein度量的优势 28.6.3 WGAN的目标函数 参考文献 A 本书涉及的开源资源列表 ..更多
推荐图书
中国古代笑话
《书立方》编委会编
上海科学普及出版社
After Effects CS6入门与提高
印象文化编著
人民邮电出版社
水平思考法——突破创新的思考方式
(美)保罗·斯隆(Paul Sloane)著
电子工业出版社
唐诗与宋词
莫砺锋著
南京大学出版社
儿童营养食谱
潘小安主编
世界图书出版广东有限公司
教师的别样风景——美国式教学智慧赏析
唐劲松编著
华东师范大学出版社
高校篮球教学开展的理论与实践研究
谭晓伟,岳抑波著
吉林人民出版社
返回顶部 用户指南
下载APP
关注我们