改善深层神经网络:超参数调试、正则化以及优化 deeplearning.ai

内容简介:
这门课会带领你从理解深度学习的理论到成功实践。深度学习过程并不是一个黑箱,你会理解什么在驱动网络,并且能够更系统化地得到好的运行结果。同时,你也会学习如何使用TensorFlow。
价格:
免费
课程介绍
第一周 深度学习的实用层面 1.1 训练 / 开发 / 测试集 1.1 训练 / 开发 / 测试集
第一周 深度学习的实用层面 1.2 偏差 / 方差 1.2 偏差 / 方差
第一周 深度学习的实用层面 1.3 机器学习基础 1.3 机器学习基础
第一周 深度学习的实用层面 1.4 正则化 1.4 正则化
第一周 深度学习的实用层面 1.5 为什么正则化可以减少过拟合? 1.5 为什么正则化可以减少过拟合?
第一周 深度学习的实用层面 1.6 Dropout 正则化 1.6 Dropout 正则化
第一周 深度学习的实用层面 1.7 理解 Dropout 1.7 理解 Dropout
第一周 深度学习的实用层面 1.8 其他正则化方法 1.8 其他正则化方法
第一周 深度学习的实用层面 1.9 正则化输入 1.9 正则化输入
第一周 深度学习的实用层面 1.10 梯度消失于梯度爆炸 1.10 梯度消失于梯度爆炸
第一周 深度学习的实用层面 1.11 神经网络的权重初始化 1.11 神经网络的权重初始化
第一周 深度学习的实用层面 1.12 梯度的数值逼近 1.12 梯度的数值逼近
第一周 深度学习的实用层面 1.13 梯度检验 1.13 梯度检验
第一周 深度学习的实用层面 1.14 关于梯度检验实现的注记 1.14 关于梯度检验实现的注记
第二周 优化算法 2.1 Mini-batch 梯度下降法 2.1 Mini-batch 梯度下降法
第二周 优化算法 2.2 理解 mini-batch 梯度下降法 2.2 理解 mini-batch 梯度下降法
第二周 优化算法 2.3 指数加权平均 2.3 指数加权平均
第二周 优化算法 2.4 理解指数加权平均 2.4 理解指数加权平均
第二周 优化算法 2.5 指数加权平均的偏差修正 2.5 指数加权平均的偏差修正
第二周 优化算法 2.6 动量梯度下降法 2.6 动量梯度下降法
第二周 优化算法 2.7 RMSprop 2.7 RMSprop
第二周 优化算法 2.8 Adam 优化算法 2.8 Adam 优化算法
第二周 优化算法 2.9 学习率衰减 2.9 学习率衰减
第二周 优化算法 2.10 局部最优的问题 2.10 局部最优的问题
第三周 超参数调试、Batch正则化和程序框架 3.1 调试处理 3.1 调试处理
第三周 超参数调试、Batch正则化和程序框架 3.2 为超参数选择合适的范围 3.2 为超参数选择合适的范围
第三周 超参数调试、Batch正则化和程序框架 3.3 超参数训练的实践:Pandas VS Caviar 3.3 超参数训练的实践:Pandas VS Caviar
第三周 超参数调试、Batch正则化和程序框架 3.4 正则化网络的激活函数 3.4 正则化网络的激活函数
第三周 超参数调试、Batch正则化和程序框架 3.5 将 Batch Norm 拟合进神经网络 3.5 将 Batch Norm 拟合进神经网络
第三周 超参数调试、Batch正则化和程序框架 3.6 Batch Norm 为什么奏效? 3.6 Batch Norm 为什么奏效?
第三周 超参数调试、Batch正则化和程序框架 3.7 测试时的Batch Norm 3.7 测试时的Batch Norm
第三周 超参数调试、Batch正则化和程序框架 3.8 Softmax 回归 3.8 Softmax 回归
第三周 超参数调试、Batch正则化和程序框架 3.9 训练一个 Softmax 分类器 3.9 训练一个 Softmax 分类器
第三周 超参数调试、Batch正则化和程序框架 3.10 深度学习框架 3.10 深度学习框架
第三周 超参数调试、Batch正则化和程序框架 3.11 TensorFlow 3.11 TensorFlow
【人工智能行业大师访谈】 1. 吴恩达采访 Yoshua Bengio Yoshua Bengio
【人工智能行业大师访谈】 2. 吴恩达采访 林元庆 林元庆
课程参数
课程评论

暂无课程评论信息 [发表课程评论]

课程咨询

暂无课程咨询信息 [发表课程咨询]