初步理解RNN和LSTM
- 开源代码
- 2025-09-19 00:18:02

RNN
RNN(Recurrent Neural Network,循环神经网络)是一种能够处理序列数据的神经网络。这里的时序信息可以指例如对于这一句话 “我吃了一个苹果”,“苹果” 的词性和意思,在这里取决于前面词的信息,如果没有 “我吃了一个” 这些词,“苹果” 也可以翻译为乔布斯搞出来的那个被咬了一口的苹果。
基本结构
在一个标准的RNN中,每一个时刻 tt 的输入 x_tx**t 和上一时刻 t-1t−1 的隐藏状态 h_{t-1}h**t−1 会通过网络生成当前时刻的输出 y_ty**t 和当前隐藏状态 h_th**t。
RNN的每一层都有一个共享的参数(例如权重矩阵),这个参数在每一时刻的计算中都会被使用,确保网络能够在整个序列中共享信息。
数学表达
隐藏状态计算:每个时刻的隐藏状态 h_t 是由当前输入 x_t 和上一时刻的隐藏状态 h_{t-1}计算得到的,公式如下:
$$ h_t = \text{tanh}(W_h \cdot [h_{t-1}, x_t] + b_h) $$
其中:
W_h 是隐藏状态的权重矩阵。
[h_{t-1}]是上一时刻的隐藏状态与当前时刻的输入拼接而成的向量。
b_h是偏置项。
\text{tanh} 是激活函数。
输出计算:当前时刻的输出 y_ty**t 是由当前隐藏状态 h_th**t 计算得到的,公式为:
其中:
W_y是输出的权重矩阵。
b_y 是偏置项。
梯度消失问题
RNN 所有的 timestep 共享一套参数 U,V,W在 RNN 反向传播过程中,需要计算 $U,V,W& 等参数的梯度,由公式可知,由于他是多层网络 ,计算梯度时是将各层的梯度链式 相乘的,由于激活函数的局限性,梯度会变得过大或过小,尤其是远距离的,虽然梯度不会消失,但是它是无法学习到远距离的信息的。
LSTMLSTM(Long Short-Term Memory)是RNN的一种特殊变体,专门为了解决RNN在处理长序列时面临的梯度消失问题而设计的。LSTM通过引入“门控”机制,控制信息的流动,能够有效地保留长期依赖信息。
结构图:
虽然看不太懂数学公式,但是他是通过引入门控结构来控制远距离的信息的,即
遗忘门(Forget Gate)
输入门(Input Gate)
输出门(Output Gate)
简单来说,就是引入更多的参数以便更细致的调整模型,这也是为什么结构这么复杂,实质上还是为了解决RNN的梯度下降问题。
初步理解RNN和LSTM由讯客互联开源代码栏目发布,感谢您对讯客互联的认可,以及对我们原创作品以及文章的青睐,非常欢迎各位朋友分享到个人网站或者朋友圈,但转载请说明文章出处“初步理解RNN和LSTM”
上一篇
git提交管理
下一篇
【Linux】进程信号