http://mp.weixin.qq.com/s/gTwX6xD5XlZJm2mOL4jeGQ

1.第一章:前言

这一部分主要是深度学习的一些基本介绍、一些发展历史。可以看一下这个封面,一幅漂亮的风景画,纽约中央公园遍地盛开的杜鹃花,仔细看有点不太正常,对了,这就计算机生成的,确切的说,是 Google deepmind 团队的杰作——梦幻公园。

2.第二章:线性代数

今天分享的是第二章:线性代数。从 27 页到 42 页,内容不多,基本都是传统形式上的概念。同样,我只讲直观思路,尽可能的少用公式,毕竟好多人见着数学公式就头疼,更不用说在 PPT 上看了,效果不好,容易催眠,看着看着就身在朝野心在汉了。

3.第三章:概率和信息论

这节课会讲到一些基本概念,常用的分布,频率学派和贝叶斯学派的差别,还有贝叶斯规则,概率图,最后是信息论。这里第四条可能很多人可能头一回见到,学了那么多概率,连这个都不知道,那你的概率真的白学了,真这样,不开玩笑。不过,老实说我也是前几年才知道这个学派的差别,因为浙大三版教材上就没提到这些,好像就提到一点,频率学派就是古典概率,没有什么其他的,这也是现行教材的缺陷。

4.第四章:数值计算

其实我们大部分人在运用机器学习或者深度学习的时候是不需要考虑这一章的内容的,这章的内容更多是针对算法的数学分析,包括误差的增长以及系统的稳定性。

第一,在机器学习、包括了深度学习中数值计算的应用。

第二,数值误差的问题

第三,简单的分析机器学习系统的稳定性问题

最后,针对优化问题给出了两种不同的优化算法,一种是梯度下降法,一种是限制优化算法。

http://mp.weixin.qq.com/s/HwGfrrJ4b2lehjai-pxqZw 数值计算——「Deep Learning」读书系列分享第四章分享总结

5. 第五章:机器学习基础

5.1 学习算法

5.2 Capacity, 过拟合和欠拟合

5.3 超参数和验证集

5.4 估计量,偏移值和方差

5.5 最大似然估计

5.6 贝叶斯统计

5.7 监督学习算法

5.8 无监督学习算法

5.9 随机梯度下降

5.10 构建机器学习算法

5.11 挑战深度学习

6.第六章:前馈神经网络

6.1 例子:学习异或

6.2 基于梯度的学习

6.3 隐藏层单元

6.4 架构设计

6.5 BP 算法和其他不同算法

6.6 历史记录?

7.第七章:深度网络的正则化

7.1 参数归一化惩罚

7.2 归一化惩罚作为条件最优化

7.3 正则化和欠约束问题

7.4 数据集增大

7.5 噪声鲁棒

7.6 半监督学习

7.7 多任务学习

7.8 早期中止

7.9 参数连接和参数共享

7.10 稀疏表达

7.11 Bagging and Other Ensemble Methods?

7.12 Dropout

7.13 对抗训练

7.14 切线距离,Tangent Prop 和流行切分类器?

results matching ""

    No results matching ""