运行谷歌Deep Q网络代码时出现了错误。

谷歌的深度 Q 网络用于 Atari 游戏已经到来。

https://github.com/rahular/deepmind-dqn

当我使用 GPU 设置运行它时

./run_gpu <game name>

我遇到了这个错误

../torch/bin/luajit: ./convnet.lua:22: attempt to call local 'convLayer' (a nil value)
stack traceback:
    ./convnet.lua:22: in function 'network'
    ./NeuralQLearner.lua:89: in function '__init'
    ...einforcement_Learning/torch/share/lua/5.1/torch/init.lua:51: in function <...einforcement_Learning/torch/share/lua/5.1/torch/init.lua:47>
    [C]: at 0x7f419423d380
    ./initenv.lua:133: in function 'setup'
    train_agent.lua:52: in main chunk
    [C]: at 0x00406230

引起这个问题的代码在这个文件中https://github.com/rahular/deepmind-dqn/blob/master/dqn/convnet.lua

并且它在这个函数中

function create_network(args)

    local net = nn.Sequential()
    net:add(nn.Reshape(unpack(args.input_dims)))

    --- first convolutional layer
    local convLayer = nn.SpatialConvolution

    if args.gpu >= 0 then
        net:add(nn.Transpose({1,2},{2,3},{3,4}))
        convLayer = nn.SpatialConvolutionCUDA
    end

    net:add(convLayer(args.hist_len*args.ncols, args.n_units[1],
                        args.filter_size[1], args.filter_size[1],
                        args.filter_stride[1], args.filter_stride[1],1))
    net:add(args.nl())

net:add(convLayer( 是第22行。

我在使用 GPU 设置,所以似乎

convLayer = nn.SpatialConvolutionCUDA

导致 convLayer 为 nil。

有人知道为什么 nn.SpatialConvolutionCUDA 返回 nil吗?

点赞
用户117844
用户117844

你最初写这个代码时是否具有 GPU 支持,还是你自己添加的?

你应该替换过时的层,即:

net:add(nn.Transpose({1,2},{2,3},{3,4}))
convLayer = nn.SpatialConvolutionCUDA

convLayer = nn.SpatialConvolution

查看层的文档。

编辑:使用此分支,我修复了 GPU 支持。

2015-04-10 15:11:21
用户1367788
用户1367788

找到了解决方案。

使用这个 Github 分支:

https://github.com/soumith/deepmind-atari

克隆这个分支后,使用 luarocks 安装 cutorch 和 cunn。

现在你可以运行代码了。

2015-04-14 08:14:59