你好,游客 登录 注册 搜索
背景:
阅读新闻

Google发布MultiModel:能够学习不同领域多任务的神经网络

[日期:2017-07-20] 来源:infoq.com  作者:Roland Meertens ,译者 蔡芳芳 [字体: ]

Google开发了一种可以接受多种形式输入并能生成多种形式输出的算法。

目前,大部分机器学习应用程序都只能关注一个领域。机器翻译一次只能建立一个语言对的模型,而图像识别算法一次只执行一个任务(例如描述图像、判断图像所属类别或在图像中查找对象)。然而,我们的大脑在执行所有任务时都能表现得很好,并且能够将知识从一个领域转移到另一个领域。大脑甚至可以将通过听学到的知识转换成其他领域的知识:看到或者读到的知识。

Google开发了一个能够执行8个不同领域任务的模型:语音识别、图像分类和添加标题、句法解析、英德互译和英法互译。这个模型由编码器、解码器和“输入输出混频器”组成,其中“输入输出混频器”会将先前的输入和输出馈送到解码器。如下图所示,每个“花瓣”表示一种形式(声音、文本或图像)。神经网络可以通过任意一种输入和输出的形式来学习每个任务。

2016年11月,Google发布了zero-shot翻译。该算法将所有句子映射到“中间语言”,“中间语言”指的是一种对于每种输入语言和输出语言都相同的句子。Google只针对英韩语言对和英日语言对进行了训练,也就是说这个神经网络并未学习过对应的日韩语言对,但这时这个神经网络就能够进行日韩互译了。

 

Google报告称,使用MultiModel时使用少量训练数据的任务表现更好。机器学习模型通常在使用更多训练数据的时候表现更好。使用MultiModel可以从多个领域获取额外的数据。需要注意的是,使用这种方法并没有打破标准任务任何已有的记录。

MultiModel作为Tensor2Tensor库的一部分在GitHub开源。有关这个模型更详细的方法和研究结果可以在arxiv.com的论文One Model To Learn Them All中找到。

查看英文原文:Google Presents MultiModel: A Neural Network Capable of Learning Multiple Tasks in Multiple Domains

本文永久更新链接地址http://www.linuxidc.com/Linux/2017-07/145810.htm

linux
本文评论   查看全部评论 (0)
表情: 表情 姓名: 字数

       

评论声明
  • 尊重网上道德,遵守中华人民共和国的各项有关法律法规
  • 承担一切因您的行为而直接或间接导致的民事或刑事法律责任
  • 本站管理人员有权保留或删除其管辖留言中的任意内容
  • 本站有权在网站内转载或引用您的评论
  • 参与本评论即表明您已经阅读并接受上述条款