还没有账号去注册
无论是传统的RNN还是LSTM,都是从前往后传递信息,这在很多任务中都有局限性,比如词性标注任务,一个词的词性不止和前面的词有关还和后面的词有关。
为了解决该问题,设计出前向和方向的两条LSTM网络,被称为双向LSTM,也叫BiLSTM。其思想是将同一个输入序列分别接入向前和先后的两个LSTM中,然后将两个网络的隐含层连在一起,共同接入到输出层进行预测。
绘制的时候,可以修改 \l_step_int
来控制显示的层数。
https://tex.stackexchange.com/questions/564305/how-to-draw-bilstm-neural-network-in-latex/564374#564
暂无评论