主页 > 开源代码  > 

初步理解RNN和LSTM

初步理解RNN和LSTM
RNN

RNN(Recurrent Neural Network,循环神经网络)是一种能够处理序列数据的神经网络。这里的时序信息可以指例如对于这一句话 “我吃了一个苹果”,“苹果” 的词性和意思,在这里取决于前面词的信息,如果没有 “我吃了一个” 这些词,“苹果” 也可以翻译为乔布斯搞出来的那个被咬了一口的苹果。

基本结构

在一个标准的RNN中,每一个时刻 tt 的输入 x_tx**t 和上一时刻 t-1t−1 的隐藏状态 h_{t-1}h**t−1 会通过网络生成当前时刻的输出 y_ty**t 和当前隐藏状态 h_th**t。

RNN的每一层都有一个共享的参数(例如权重矩阵),这个参数在每一时刻的计算中都会被使用,确保网络能够在整个序列中共享信息。

数学表达

隐藏状态计算:每个时刻的隐藏状态 h_t​ 是由当前输入 x_t​ 和上一时刻的隐藏状态 h_{t-1}计算得到的,公式如下:

$$ h_t = \text{tanh}(W_h \cdot [h_{t-1}, x_t] + b_h) $$

 

其中:

W_h 是隐藏状态的权重矩阵。

[h_{t-1}]是上一时刻的隐藏状态与当前时刻的输入拼接而成的向量。

b_h是偏置项。

\text{tanh} 是激活函数。

输出计算:当前时刻的输出 y_ty**t 是由当前隐藏状态 h_th**t 计算得到的,公式为:

 

其中:

W_y是输出的权重矩阵。

b_y 是偏置项。

梯度消失问题

RNN 所有的 timestep 共享一套参数 U,V,W在 RNN 反向传播过程中,需要计算 $U,V,W& 等参数的梯度,由公式可知,由于他是多层网络 ,计算梯度时是将各层的梯度链式 相乘的,由于激活函数的局限性,梯度会变得过大或过小,尤其是远距离的,虽然梯度不会消失,但是它是无法学习到远距离的信息的。

LSTM

LSTM(Long Short-Term Memory)是RNN的一种特殊变体,专门为了解决RNN在处理长序列时面临的梯度消失问题而设计的。LSTM通过引入“门控”机制,控制信息的流动,能够有效地保留长期依赖信息。

结构图:

虽然看不太懂数学公式,但是他是通过引入门控结构来控制远距离的信息的,即

遗忘门(Forget Gate)

输入门(Input Gate)

输出门(Output Gate)

简单来说,就是引入更多的参数以便更细致的调整模型,这也是为什么结构这么复杂,实质上还是为了解决RNN的梯度下降问题。

标签:

初步理解RNN和LSTM由讯客互联开源代码栏目发布,感谢您对讯客互联的认可,以及对我们原创作品以及文章的青睐,非常欢迎各位朋友分享到个人网站或者朋友圈,但转载请说明文章出处“初步理解RNN和LSTM