如何处理大型数据集上训练词嵌入的内存问题?
2016-6-7 18:32:16
收藏:0
阅读:70
评论:0
我想要训练一个单词可预测性任务来生成词嵌入。文档集合包含 243k 篇文章。代码实现在 torch 中。我正在处理数据集的巨大尺寸,并需要想法来在这样一个包含 243 千篇完整文章文档集合上训练词嵌入。研究计算资源有时间限制,因此选择了增量模型训练:
- 增量模型训练:训练整个数据集的一种方法是使用增量模型训练,即在数据的一个 chunk 上训练模型并保存它。随后,选择相同的预训练模型,并在下一个 chunk 的数据上开始训练。我在这个方法中面临的问题是如何维护单词的词汇表/字典。在词嵌入方法中,字典/词汇表扮演着重要的角色。我们扫描所有文档并创建单词的词汇表,对于出现频率大于最小设定频率的单词。现实情况是这个词汇表是一个哈希映射,其中每个单词都与一个索引相关联,而在训练样本中,我们用词汇表中单词的索引替换单词以简化模型。在增量训练的情况下,如何逐步创建字典?我是否必须在最初的整个文档上创建词汇表/字典,然后逐步训练?还是有一种方法在增量训练中扩展词汇表?
- 另一个问题是词汇表数据结构的内存限制。我在 Torch 中实现我的模型,它基于 LUA。因此,LUA 对表的大小有限制,我无法将整个文档的词汇表加载到单个表中。如何克服这样的内存问题?
- 受Glove向量启发。在他们的论文中,他们说:“我们在不同大小的五个语料库上训练我们的模型:拥有 10 亿个标记的 2010 年维基百科转储,拥有 16 亿个 token 的 2014 年维基百科转储,拥有 43 亿个 token 的 Gigaword 5;Gigaword5 + Wikipedia2014 的组合,拥有 60 亿个 token;以及来自 Common Crawl5 的 420 亿个 token 的 Web 数据。我们使用 Stanford 分词器对每个语料库进行标记和小写,构建了 400,000 个最常见单词的词汇表6,然后构建了共现计数矩阵 X”。任何关于 Glove 向量如何在如此大的语料库和大的词汇表上训练以及他们的情况下如何处理内存限制的想法?论文参考 - http://nlp.stanford.edu/pubs/glove.pdf
- 是否有关于如何限制用于生成词嵌入的数据集的大小的想法?增加或减少文档数会如何影响词嵌入的性能或覆盖范围?是否使用抽样技术从数据集中抽样文档是个好主意?如果是,请推荐一些抽样技术。
点赞
评论区的留言会收到邮件通知哦~
推荐文章
- 如何将两个不同的lua文件合成一个 东西有点长 大佬请耐心看完 我是小白研究几天了都没搞定
- 如何在roblox studio中1:1导入真实世界的地形?
- 求解,lua_resume的第二次调用继续执行协程问题。
- 【上海普陀区】内向猫网络招募【Skynet游戏框架Lua后端程序员】
- SF爱好求教:如何用lua实现游戏内调用数据库函数实现账号密码注册?
- Lua实现网站后台开发
- LUA错误显式返回,社区常见的规约是怎么样的
- lua5.3下载库失败
- 请问如何实现文本框内容和某个网页搜索框内容连接,并把网页输出来的结果反馈到另外一个文本框上
- lua lanes多线程使用
- 一个kv数据库
- openresty 有没有比较轻量的 docker 镜像
- 想问一下,有大佬用过luacurl吗
- 在Lua执行过程中使用Load函数出现问题
- 为什么 neovim 里没有显示一些特殊字符?
- Lua比较两个表的值(不考虑键的顺序)
- 有个lua简单的项目,外包,有意者加微信 liuheng600456详谈,最好在成都
- 如何在 Visual Studio 2022 中运行 Lua 代码?
- addEventListener 返回 nil Lua
- Lua中获取用户配置主目录的跨平台方法