mit6.S191


1. 概述

1.1. 感知器

image-20250302173357938

1.2. 激活函数

image-20250302173418796

1.3. 损失函数

1.3.1. 分类

image-20250302180326931

1.3.2. 定量

image-20250302180340787

1.4. 梯度下降

image-20250302181222102

1.5. 反向传播

image-20250302201710606

  1. 反向传播(Backpropagation)
    • 反向传播是通过计算损失函数关于每个权重的梯度,来更新网络的权重。
    • 从输出层开始,逐步向后(即从神经网络的最后一层到第一层)计算每个神经元对总损失的贡献。这被称为“反向传播”,因为它是沿着网络反向传播误差信号。

1.5.1. 反向传播的步骤

  1. 计算输出层的误差
    • 比较预测值和真实值,计算输出层的误差。
  2. 计算梯度
    • 使用链式法则(Chain Rule)计算每一层的梯度,这样就可以知道每个权重对于损失的影响。
  3. 更新权重
    • 知道了梯度后,就可以使用一定的学习率(learning rate)来调整权重,使得损失下降。具体来说,如果权重导致了更高的损失,就往反方向调整它。

1.6. 学习率

学习率自动调整算法

image-20250302202502602

1.7. 分批梯度下降

1.8. 正则化和早停机制

image-20250302203604219

随机丢失部分神经元

image-20250302203650285

2. RNN

image-20250302210306088

image-20250302210728169

image-20250302210739335

2.1. 顺序建模的设计标准

image-20250302211357941

Word prediction example 31:50 - Backpropagation through time 33:40 - Gradient issues 37:15 - Long short term memory (LSTM) 40:00 - RNN applications 44:00- Attention fundamentals 46:46 - Intuition of attention 49:13 - Attention and search relationship 51:22 - Learning attention with neural networks 57:45 - Scaling attention and applications 1:00:08 - Summary

2.2. 随着时间反向传播-梯度消失,学习能力下降

2.3. lstm

通过忘记一部分

image-20250303154530054

3. 卷积神经网络

获取不同框中的物体,两个神经网络共同使用。

image-20250304202546754

4. 强化学习

4.1. 自动编码器

将数据编码,降维

image-20250304220654243

解码器

image-20250304220912390

增加概率扭曲

image-20250304222137386

image-20250304224849011

4.2. 生成式对抗网络

image-20250304225133095

4.3. 强化学习

强化学习与无监督学习的区别

5. 致谢

  1. MIT Deep Learning 6.S191

文章作者: 小白菜
版权声明: 本博客所有文章除特別声明外,均采用 CC BY 4.0 许可协议。转载请注明来源 小白菜 !
评论
  目录