使用torch7模型测试单个图像

我根据此链接here训练了我的模型。当我训练它时,它的准确率几乎达到了90%。我正在使用您在链接中找到的vgg_bn_drop.lua模型。但问题是,我不知道如何测试单个图像。

我知道如何测试模型。通过网络向前传递图像。

因此,测试模型将需要modelname:forward(image)。其中“modelname”是我训练的模型的名称,“forward”用于向前推进模型,“image”是我想要转发的图像位置。现在,我无法确定此网络中单个图像的维度。

所以, 我想做的是,拿一个图像。假设图像的尺寸为[3 x 32 x 32]。通过网络并获得结果。这个网络是否可行?

那里没有文档说明如何测试单个图像。

我尝试过的是,

1) 声明一个大小为(3x32x32)的张量。让我们称之为图像。`image = torch.Tensor(3x32x32)`。 向前传递此。

model:forward(image)

它会产生错误...h/install/share/lua/5.1/nn/SpatialBatchNormalization.lua:68: only mini-batch supported (4D tensor), got 3D tensor instead

2)我将图像重塑为(1,3,32,32)

image = image:reshape(1,3,32,32) 向前传递这个

model:forward(image)

它产生错误 ...ch/torch/install/share/lua/5.1/nn/BatchNormalization.lua:67: only mini-batch supported (2D tensor), got 1D tensor instead

所以我尝试了一些方法。但无法弄清楚如何将单个图像传递到该网络。你能帮我吗?

模型定义是

require 'nn'

local vgg = nn.Sequential()
——构建模块
local function ConvBNReLU(nInputPlane,nOutputPlane)
 vgg:add(nn.SpatialConvolution(nInputPlane,nOutputPlane,3,3,1,1,1,1))
 vgg:add(nn.SpatialBatchNormalization(nOutputPlane,1e-3))
 vgg:add(nn.ReLU(true))
 return vgg
end
——将使用”ceil“ MaxPooling,因为我们希望尽可能保存更多的特征空间
local MaxPooling = nn.SpatialMaxPooling

ConvBNReLU(3,64):add(nn.Dropout(0.3))
ConvBNReLU(64,64)
vgg:add(MaxPooling(2,2,2,2):ceil())
ConvBNReLU(64,128):add(nn.Dropout(0.4))
ConvBNReLU(128,128)
vgg:add(MaxPooling(2,2,2,2):ceil())
ConvBNReLU(128,256):add(nn.Dropout(0.4))
ConvBNReLU(256,256):add(nn.Dropout(0.4))
ConvBNReLU(256,256)
vgg:add(MaxPooling(2,2,2,2):ceil())
ConvBNReLU(256,512):add(nn.Dropout(0.4))
ConvBNReLU(512,512):add(nn.Dropout( 0.4))
ConvBNReLU(512,512)
vgg:add(MaxPooling(2,2,2,2):ceil())
ConvBNReLU(512,512):add(nn.Dropout(0.4))
ConvBNReLU(512,512):add(nn.Dropout(0.4))
ConvBNReLU(512,512)
vgg:add(MaxPooling(2,2,2,2):ceil())
vgg:add(nn.View(512))
vgg:add(nn.Dropout(0.5))
vgg:add(nn.Linear(512,512))
vgg:add(nn.BatchNormalization(512))
vgg:add(nn.ReLU(true))
vgg:add(nn.Dropout(0.5))
vgg:add(nn.Linear(512,10))

——初始化自MSR
本地函数MSRinit(net)
局部函数init(名称)
 for k,v in pairs(net:findModules(name)) do
 local n = v.kW * v.kH * v.nOutputPlane
 v.weight:正常(0,math.sqrt(2 / n))
 v.bias:zero()
 end
 end
 init'nn.SpatialConvolution'
end

MSRinit(vgg)
return vgg
点赞
用户4850610
用户4850610

错误是明显的:nn.BatchNormalization 期望输入一个二维张量 (batch),但是接收到了一个一维张量。你通过在输入中添加 batch 维度 (image:reshape(1,3,32,32)),但是在通过网络时,该维度丢失了。 nn.View 模块因此而有责。

假设模块使用以下参数进行实例化:

output_size = channels*height*width    -- (在你的情况下是 512)
view = nn.View(output_size)

并且给定一个维度为 batch_size x channels x height x width (1x512x1x1) 的输入张量。现在,该模块必须决定它是要返回一个 batch 还是单个非 batch 输出。

  1. 如果 batch_size > 1,则答案很明显:batch_size*channels*height*widthoutput_size 的倍数 => 输入为 batch => 输出必须是 batch。
  2. 如果 batch_size == 1,那么呢?1*channels*height*width == output_size,输入是 batch 还是非 batch?nn.View 假设它是非 batch,并生成一个单个输出 (不带 batch 维度)。

为了解决这个误解,可以指定非 batch 维度数量 NB (如果输入有 NB + 1 个维度,则为 batch):

view:setNumInputDims(NB)

考虑到上述内容,这将解决您的问题:

vgg:add(nn.View(512):setNumInputDims(3))
2016-03-31 19:50:41