用torch实现卷积神经网络。训练网络时出现错误。

我试图根据以下教程构建我的卷积神经网络:

https://github.com/torch/tutorials/tree/master/2_supervised

问题在于我的图像尺寸与教程中使用的尺寸不同 (3x200x200)。而且我只有两个类别。

我所做的更改如下:

修改了要在 1_data.lua 中加载的数据集。

nfeats = 3
width = 200
height = 200
ninputs = nfeats*width*height

还有

nclass,noutputs

在 3_loss.lua 和 4_train.lua 中。

我的模型与教程中训练的模型相同。为了方便,我将代码放在下面:

model = nn.Sequential()

-- 阶段 1:滤波器银行->压扁->L2 池化->归一化
model:add(nn.SpatialConvolutionMM(nfeats, nstates[1], filtsize, filtsize))
model:add(nn.Tanh())
model:add(nn.SpatialLPPooling(nstates[1],2,poolsize,poolsize,poolsize,poolsize))
model:add(nn.SpatialSubtractiveNormalization(nstates[1], normkernel))

-- 阶段 2:滤波器银行->压扁->L2 池化->归一化
model:add(nn.SpatialConvolutionMM(nstates[1], nstates[2], filtsize, filtsize))
model:add(nn.Tanh())
model:add(nn.SpatialLPPooling(nstates[2],2,poolsize,poolsize,poolsize,poolsize))
model:add(nn.SpatialSubtractiveNormalization(nstates[2], normkernel))

-- 阶段 3:标准的两层神经网络
model:add(nn.Reshape(nstates[2]*filtsize*filtsize))
model:add(nn.Linear(nstates[2]*filtsize*filtsize, nstates[3]))
model:add(nn.Tanh())
model:add(nn.Linear(nstates[3], noutputs))

当我运行 doall.lua 文件时,会出现以下错误:

 ==> online epoch # 1 [batchSize = 1]
 /home/torch/install/share/lua/5.1/torch/Tensor.lua:462: Wrong size for view. Input size: 64x47x47. Output size: 64x1600
 stack traceback:
 [C]: in function 'error'
 /home/torch/install/share/lua/5.1/torch/Tensor.lua:462: in function 'view'
 /home/torch/install/share/lua/5.1/nn/Reshape.lua:49: in function 'updateOutput'
 /home/torch/install/share/lua/5.1/nn/Sequential.lua:29: in function 'forward'
 4_train.lua:160: in function 'opfunc'
 /home/torch/install/share/lua/5.1/optim/sgd.lua:43: in function 'optimMethod'
 4_train.lua:184: in function 'train'
 doall.lua:77: in main chunk
 [C]: in function 'dofile'
 [string "_RESULT={dofile('doall.lua' )}"]:1: in main chunk
 [C]: in function 'xpcall'
 /home/torch/install/share/lua/5.1/trepl/init.lua:630: in function 'repl'
 .../torch/install/lib/luarocks/rocks/trepl/scm-1/bin/th:185: in main chunk
 [C]: at 0x00406670

我被卡在这里已经一天了。请帮帮我。

点赞
用户1688185
用户1688185

问题是这个教程中的卷积神经网络被制作成使用固定尺寸的输入分辨率:32x32像素。在2个卷积/池化层之后,您将获得64个5x5分辨率的特征图。这给出了1600个元素的输入,接下来是完全连接的层。

正如您在教程中所看到的,这里有一个专门的“reshape”操作,可以将3D输入张量变换为具有1600个元素的1D张量:

-- nstates[2]*filtsize*filtsize = 64x5x5 = 1,600
model:add(nn.Reshape(nstates[2]*filtsize*filtsize))

当您使用更高分辨率的输入时,您会生成更高分辨率的输出特征图。在这里,一个200x200像素的输入会给出一个大小为47x47的64个输出特征图。这就是为什么会出现这个“错误的尺寸”的错误所在。

因此,您需要相应地调整reshape和以下线性层:

model:add(nn.Reshape(nstates[2]*47*47))
model:add(nn.Linear(nstates[2]*47*47, nstates[3]))
2015-06-20 15:43:41