如何在Torch nn包中禁用omp?
2015-5-20 22:56:28
收藏:0
阅读:58
评论:1
具体来说,我希望 nn.LogSoftMax 在输入张量的大小很小时不使用 omp。我有一个小脚本来测试运行时长。
如果 arg[1] 是 10,那么我基本的对数 Softmax 函数运行得更快:
0.00021696090698242
0.033425092697144
但是一旦 arg [1] 是 10,000,000,omp 确实会有很大帮助:
29.561321973801
0.11547803878784
所以我怀疑 omp 的开销非常高。如果我的代码需要多次调用 log softmax 小输入(比如张量大小只有 3),那么它将花费太多时间。是否有一种方法在某些情况下手动禁用 omp 的使用(但并不总是禁用)?
点赞
评论区的留言会收到邮件通知哦~
推荐文章
- 如何将两个不同的lua文件合成一个 东西有点长 大佬请耐心看完 我是小白研究几天了都没搞定
- 如何在roblox studio中1:1导入真实世界的地形?
- 求解,lua_resume的第二次调用继续执行协程问题。
- 【上海普陀区】内向猫网络招募【Skynet游戏框架Lua后端程序员】
- SF爱好求教:如何用lua实现游戏内调用数据库函数实现账号密码注册?
- Lua实现网站后台开发
- LUA错误显式返回,社区常见的规约是怎么样的
- lua5.3下载库失败
- 请问如何实现文本框内容和某个网页搜索框内容连接,并把网页输出来的结果反馈到另外一个文本框上
- lua lanes多线程使用
- 一个kv数据库
- openresty 有没有比较轻量的 docker 镜像
- 想问一下,有大佬用过luacurl吗
- 在Lua执行过程中使用Load函数出现问题
- 为什么 neovim 里没有显示一些特殊字符?
- Lua比较两个表的值(不考虑键的顺序)
- 有个lua简单的项目,外包,有意者加微信 liuheng600456详谈,最好在成都
- 如何在 Visual Studio 2022 中运行 Lua 代码?
- addEventListener 返回 nil Lua
- Lua中获取用户配置主目录的跨平台方法
有没有办法在某些情况下手动禁用 OMP 使用(但不总是)?
如果你真的想这样做,一种可能的方式是使用
torch.setnumthreads和torch.getnumthreads,如下所示:local nth = torch.getnumthreads() torch.setnumthreads(1) -- 做一些事情 torch.setnumthreads(nth)那么你就可以像这样猴子补丁
nn.LogSoftMax:nn.LogSoftMax.updateOutput = function(self, input) local nth = torch.getnumthreads() torch.setnumthreads(1) local out = input.nn.LogSoftMax_updateOutput(self, input) torch.setnumthreads(nth) return out end