使用Element Research RNN for Torch Lua处理可变长度序列的批处理

我正在尝试使用Element Research的RNN模块中提供的LSTM模型来训练音素音译数据。我有单独的X和Y的训练数据表。X和Y都包含每个训练示例作为张量,即X中的张量包含序列中每个字符的ASCII值,而Y中的张量包含生成的序列的ASCII值。我已经创建了数据,使得对于来自X和Y的特定示例,它被完美地排列并用零填充进行训练。因此,我可以一次训练一个LSTM。但是,问题是,我不知道如何进行批次训练,因为每个示例张量具有不同的长度。

我认为,通过这种表示,我可以让它变得清晰:

X{                                      Y{
[EEEEE00000]                            [00000MMMMM]
[EEE0000]                               [000MMMM]
[EEEEEEEE0000000000]                    [00000000MMMMMMMMMM]
.                                       .
.                                       .
.                                       .
}                                       }

其中, EEEE..代表输入序列,MMMM...代表输出序列..

我还没有设计模型,因为我正在考虑一个能够支持批量训练的适当模型。我要修改我的数据还是应该设计一种可以修改这个数据的模型?如果是在模型上,我怎么做?

注:每个训练示例都是独立的。因为每个示例都是独立的,所以这个LSTM必须在每次训练示例后忘记前一个序列。也就是说,反向传播只能在单个示例长度的时间步骤上进行。

点赞
用户49985
用户49985

你有一个长度可变的序列数据集,并且想要批处理。解决方案是将 X 和 Y 组织为 seqlen x batchsize 的张量,其中每个独立的序列都由零(或零张量)分隔:

0 0
1 2
1 2
2 3
0 0
2 3
2 3
1 2

在上面的示例中,我们有序列 1-1-2、2-2-1、2-2-3 和 3-3-2,每个序列之间由零分隔。

使用 rnn:maskZero()rnn 可以检测这些零,并在检测到时忘记先前的隐藏状态。这有效地意味着 BPTT 仅在序列的持续时间内反向传播(即零重置了 BPTT)。

2016-07-26 17:55:23