更改

循环神经网络

添加1,749字节2017年8月7日 (一) 12:23
=LSTM=
 
LSTM是RNN的一个改进,LSTM增加了一个主输入单元和其他三个辅助的门限输入单元:
 
记忆单元(memory cell)、输入门(input gate)、遗忘门(forget gate)及输出门(output gate)。
 
三个辅助输入分别控制网络是否输入,是否存储输入以及是否输出。
 
输入门(Input gate)控制是否输入,遗忘门(Forget gate)控制是否存储,输出门(Output gate)控制是否输出。
 
辅助单元可以寄存时间序列的输入,在训练过程中会利用后向传播的方式进行。
 
记忆单元和这些门单元的组合,大大提升了RNN处理远距离依赖问题的能力 ,解决RNN网络收敛慢的问题。
=GRU=
 
GRU (Gated Recurrent Unit)是Cho等提出的LSTM的简化版本,也是RNN的一种扩展。
 
GRU单元只有两个门:
 
重置门(reset gate),如果重置门关闭,会忽略掉历史信息,即历史不相干的信息不会影响未来的输出。
 
更新门(update gate),将LSTM的输入门和遗忘门合并,用于控制历史信息对当前时刻隐层输出的影响。如果更新门接近1,会把历史信息传递下去。
 
 
=参考文献=
 
[x] Long short term memory neural computation, Neural computation 9 (8), 1735-1780, 1997. 
 
[x] K. Cho et al., On the Properties of Neural Machine Translation Encoder-Decoder Approaches, SSST-8, 2014.
 
[x] Connectionist temporal classification labelling unsegmented sequence data with recurrent neural networks, ICML 2006.
[x] Speech recognition with deep recurrent neural networks, ICASSP 2013.
 
[x] Towards End-To-End Speech Recognition with Recurrent Neural Networks, ICML 2014.
 
[x] Speech 2 End-to-End Speech Recognition in English and Mandarin, JMLR 2016.
行政员管理员
6,105
个编辑