对循环神经网络参数的理解|LSTM RNN Input_size Batch Sequence

在很多博客和知乎中我看到了许多对于pytorch框架中RNN接口的一些解析,但都较为浅显甚至出现一些不准确的理解,在这里我想阐述下我对于pytorch中RNN接口的参数的理解 。
我们经常看到的RNN网络是如图下所示:
【对循环神经网络参数的理解|LSTM RNN Input_size Batch Sequence】

对循环神经网络参数的理解|LSTM RNN Input_size Batch Sequence

文章插图
RNN的
1. timestep训练过程这个左边图中间循环的箭头难以理解,所以将其按照时间轴展开成多个单元 。
但是?。。。?
网络只有一个,网络只有一个,网络只有一个 ,  并不是想右边那样画的 。右边的图只不过是不同时刻的输入 。因为每个时刻RNN会产生两个输出,一个output和一个state(state是输入向下一个时序的结果),上一个时刻state和当前作为输入给当前网络,就如右图所示 。上图很容易造成了误解 。
比如我们需要预测一个sin函数,那么我们会用x的坐标去预测y,batch

    推荐阅读