编者按:本文来自微信公众号“量子位”(ID:QbitAI),李杉 维金 编译自 Google Blog,36氪经授权发布。
谷歌AI Senior Fellow、谷歌大脑负责人Jeff Dean,按照惯例,今天开始发布2017年度的谷歌大脑年度总结。
在这份已经发布的总结中,Jeff Dean回顾了谷歌大脑团队过去一年的核心研究,以及在多个AI领域的研究进展。
Jeff Dean还把相关研究的论文等一并附上,堪称良心之作,值得收藏。
以下是最新发布的总结全文,括号内容为量子位注释:
作为谷歌整体人工智能计划的一部分,谷歌大脑团队致力于通过研究和系统工程,提升人工智能的技术水平。我们去年分享了2016年的工作总结。从那以后,我们在提升机器智能这个长期研究项目上继续取得进展,并与谷歌和Alphabet的多个团队合作,使用我们的研究成果来改善人们的生活。
我们将为2017年撰写两篇总结文章,这是第一篇,包括我们的一些基础研究工作,以及关于开源软件、数据集和机器学习的新硬件的更新。第二篇文章的重点是探讨我们针对机器学习能产生巨大影响的领域展开的深入研究,如医疗、机器人和一些基础科学领域,以及我们在创造性、公平和包容等方面所作的工作,并让你更加深入地了解我们。
我们团队的一个研究重点是促进我们的理解力和提高我们解决机器学习领域新问题的能力。以下是我们去年研究的几大主题。
自动化机器学习的目标是开发各种技术,让计算机自动解决新的机器学习问题,而不需要人类机器学习专家逐一干预。如果我们有朝一日真的能有真正的智能系统,这就是我们所需的基本能力。
我们开发了利用强化学习和进化算法设计神经网络体系结构的新方法。
(AutoML在去年5月的2017 Google I/O开发者大会上首次正式发布。这个新方法意在让让神经网络去设计神经网络,谷歌希望能借AutoML来促进深度学习开发者规模的扩张,让设计神经网络的人,从供不应求的PhD,变成成千上万的普通工程师。
在AutoML中,一个主控的神经网络可以提出一个“子”模型架构,并用特定的任务来训练这个子模型,评估它的性能,然后,主控收到反馈,并根据反馈来改进下一个提出的子模型。
这个过程,简单来说就是:生成新架构-测试-提供反馈供主控网络学习。在重复上千次后,主控网络学会了哪些架构能够在已知验证集上得到更高的准确率。)
将此项工作扩展到ImageNet最新分类和检测结果中,并展示了如何自动学习新的优化算法和有效的激活函数。我们正积极与我们的云人工智能团队合作,将这项技术提供给谷歌客户使用,并继续在多方面推动该研究。
(去年11月,谷歌对AutoML进行了升级。此前AutoML能设计出与人类设计的神经网络同等水平的小型神经网络,但始终被限制在CIFAR-10和Penn Treebank等小型数据集上。
为了让这种方法应用到ImageNet中,研究人员对AutoML做了两点调整,方便更容易地处理大型数据集。
相关论文:
Neural Optimizer Search with Reinforcement Learning
https://arxiv.org/abs/1709.07417
Searching for Activation Functions
https://arxiv.org/abs/1709.07417)
另一个主题是开发新技术,提高我们的计算系统在理解和生成人类语音方面的能力,包括我们与谷歌语音团队合作为一个端到端语音识别方法开发了一系列改进措施,把谷歌语音识别系统的相对词错误率降低了16%。这项工作有一个好处,那就是需要融合很多独立的研究线索。
(相关论文:
State-of-the-art Speech Recognition With Sequence-to-Sequence Models
https://arxiv.org/abs/1712.01769
Minimum Word Error Rate Training for Attention-based Sequence-to-Sequence Models
https://arxiv.org/abs/1712.01818
Multi-Dialect Speech Recognition With A Single Sequence-To-Sequence Model
https://arxiv.org/abs/1712.01541
Multilingual Speech Recognition With A Single End-To-End Model
https://arxiv.org/abs/1711.01694
Improving the Performance of Online Neural Transducer Modele
https://arxiv.org/abs/1712.01807
Monotonic Chunkwise Attention
https://arxiv.org/abs/1712.05382
Learning Hard Alignments with Variational Inference
https://arxiv.org/abs/1705.05524
No Need for a Lexicon? Evaluating the Value of the Pronunciation Lexica in End-to-End Models
https://arxiv.org/abs/1712.01864
An analysis of incorporating an external language model into a sequence-to-sequence model
https://arxiv.org/abs/1712.01996)
△Listen-Attend-Spell端到端语音识别模型的部件
我们还和谷歌机器感知团队合作,开发了一种进行文字到语音生成的新方法:Tacotron 2。这种新方法极大地改进了所生成语音的效果,模型达到的平均意见分(MOS)达到4.53,而你在有声书里听到的那些专业人类播音员,MOS也只有4.58,以前,计算机合成语音的最佳成绩是4.34。
(Tacotron 2合成音频试听:
https://google.github.io/tacotron/publications/tacotron2/index.html)
△Tacotron 2模型架构
我们继续开发新颖的机器学习算法和方法,包括对capsules的研究(在执行视觉任务时,明确地寻找激活功能协议,以此作为一种评估不同噪声假设的方法)。
相关报道:Hinton的Capsule论文终于公开
相关论文:
Dynamic Routing between Capsules
https://research.google.com/pubs/pub46351.html
sparsely-gated mixtures of experts (这能实现仍然具有计算效率的大型模型)。
在这个研究中,新的神经网络层只需要很小的计算能力提升,便能高效地提升模型的能力。
相关论文:
Outrageously Large Neural Networks: The Sparsely-Gated Mixture-of-Experts Layer
https://arxiv.org/abs/1701.06538
hypernetworks(使用一个模型的权重来生成另一个模型的权重)。
相关论文:
HYPERNETWORKS
https://openreview.net/pdf?id=rkpACe1lx
新型多模模型(使用相同模型执行音频、视觉和文本输入等多任务学习)。
相关报道:一个神经网络学习一切!
相关论文:
One Model To Learn Them All
https://arxiv.org/abs/1706.05137
基于注意力的机制(代替卷积和循环模型)。
相关论文:
Attention is All You Need
https://arxiv.org/pdf/1706.03762.pdf
符号和非符号学习优化方法。
相关论文:
Neural Optimizer Search with Reinforcement Learning
http://proceedings.mlr.press/v70/bello17a/bello17a.pdf
Learned Optimizers that Scale and Generalize
https://arxiv.org/abs/1703.04813
一项通过离散变量反向传播的技术。
相关论文:
Categorical Reparameterization with Gumbel-Softmax
https://arxiv.org/abs/1611.01144
以及对强化学习算法的一些改进。
相关论文:
Bridging the Gap Between Value and Policy Based Reinforcement Learning
https://arxiv.org/pdf/1702.08892.pdf
在计算机系统中用机器学习取代传统的启发式应用也是我们非常感兴趣的方向。我们已经展示了如何使用强化学习在把计算机图像映射到一组计算设备上的时候制定位置决策,效果比人类专家还好。
相关论文:
Bridging the Gap Between Value and Policy Based Reinforcement Learning
https://arxiv.org/pdf/1702.08892.pdf
我们与谷歌研究院的其他同事共同在“The Case for Learned Index Structures”中展示,神经网络不仅比传统的数据结构(B-树、哈希表和Bloom过滤器)更快,而且也小得多。我们认为,我们只是掌握了在核心计算系统中使用机器学习的皮毛。
相关报道:如何构建未来的机器学习芯片
相关论文:
The Case for Learned Index Structures
https://arxiv.org/abs/1712.01208
机器学习及其与安全与隐私的交互仍是我们研究的重点。在ICLR 2017的一篇得奖论文中,我们展示了机器学习技术可以用于提供不同的隐私保障方式。
相关论文:
Semi-supervised Knowledge Transfer for Deep Learning from Private Training Data
https://arxiv.org/abs/1610.05755
我们还继续调查了对抗样例的特性,包括在现实世界中展示对抗样例,以及如何在训练过程中规模化使用对抗样例,使模型更适用于对抗样例。
相关论文:
Adversarial examples in the physical world
https://research.google.com/pubs/pub45818.html
Adversarial Machine Learning at Scale
https://arxiv.org/abs/1611.01236
虽然通过机器学习技术得到了漂亮的结果,但更重要的是理解机器学习在什么时候能发挥作用,什么时候无效。
在另一篇ICLR 2017最佳论文中,我们展示了,当前机器学习理论框架无法解释深度学习方法取得的出色结果。
相关论文:
Understanding deep learning requires rethinking generalization
https://openreview.net/forum?id=Sy8gdB9xx¬eId=Sy8gdB9xx
我们还展示了,通过优化方法发现的最小值“平坦度”并不像最初想象中与良好的泛化方法密切相关。为了更好地理解深度框架中训练如何推进,我们发布了一系列分析随机矩阵的论文,因为这是大多数训练方法的出发点。
相关论文:
Nonlinear random matrix theory for deep learning
https://research.google.com/pubs/pub46342.html
理解深度学习的另一个重要途径是更好地衡量性能。我们在最近一项研究中比较了多种GAN方法,展示了良好的实验设计和统计严格性的重要性。许多GAN方法很热门,被用于增强生成模型,但实际上并没有带来性能优化。我们希望这项研究能给其他研究员带来范例,帮助他们展开健壮性更好的实验性研究。
我们正在开发能对机器学习系统进行更好表达的方法。去年3月,通过与OpenAI、DeepMind和YC Research等公司和机构合作,我们推出了新的开放科学在线杂志Distill,致力于支持人类对机器学习的理解。这份在线杂志的文章提供了清晰的机器学习概念,以及出色的交互式可视化工具。在推出第一年中,Distill发布了多篇有启发性的文章,旨在帮助人们了解机器学习的各种内部原理。我们期待2018年能带来更多内容。
△特征可视化
https://distill.pub/2017/feature-visualization/
△如何有效地使用t-SNE用于机器学习研究的开放数据集
MNIST、CIFAR-10、ImageNet、SVHN和WMD等开放数据集快速推动了机器学习的研究进展。我们团队和谷歌研究院一起,在过去一年里一直积极探索开放有趣的新数据集,用于开源机器学习领域的研究。我们提供了规模更大的有标签数据集,其中包括:
YouTube-8M:大于700万个YouTube视频,被标注为4716个不同类别
https://research.google.com/youtube8m/
YouTube-Bounding Boxes:来自21万个YouTube视频的500万个边界框
https://research.google.com/youtube-bb/
Speech Commands Dataset:数千名讲话者说出的简短命令
https://research.googleblog.com/2017/08/launching-speech-commands-dataset.html
AudioSet:200万个10秒钟YouTube短视频,用527个不同声音事件去标记
https://research.google.com/audioset/
Atomic Visual Actions(AVA):5.7万个视频片段中的21万个动作标签
https://research.google.com/ava/
Open Images:900万张获得知识共享许可的图片,被标记为6000个类别
https://github.com/openimages/dataset
Open Images with Bounding Boxes:600个类别的120万边界框
△YouTube-Bounding Boxes数据集示例TensorFlow和开源软件
△TensorFlow全球用户分布
http://jrvis.com/red-dwarf/?user=tensorflow&repo=tensorflow
在团队历史上,我们开发了一些工具,帮助我们在谷歌的多种产品中开展机器学习研究,部署机器学习系统。
2015年11月,我们开源了第二代机器学习框架TensorFlow,希望让机器学习界从我们的投入中受益。2月份,我们发布了TensorFlow 1.0。11月份,我们又发布了1.4版本,加入了以下重要内容:用于交互式非典型编程的Eager Execution、针对TensorFlow程序优化的编译器XLA,以及用于移动和嵌入式设备的轻量级解决方案TensorFlow Lite。
预编译的TensorFlow二进制文件已在180多个国家被下载了1000多万次,GitHub上的源代码已有超过1200名贡献者。
2月份,我们举办了首届TensorFlow开发者峰会,超过450人来到山景城现场参会,全球有6500多人观看了在线直播,包括35个国家的超过85场本地观看活动。所有演讲记录了下来,主题包括新特性,使用TensorFlow的新技术,以及对低级TensorFlow抽象的详细描述。
TensorFlow开发者峰会2017演讲视频:
https://www.youtube.com/playlist?list=PLOU2XLYxmsIKGc_NBoIhTn2Qhraji53cv
我们将于2018年3月30日在旧金山湾区举行另一场TensorFlow开发者峰会。现在你可以注册,保存日期,追踪最新消息。
TensorFlow开发者峰会2017注册地址:
https://services.google.com/fb/forms/tfds-2018-save-the-date/
我们很高兴看见,2017年TensorFlow得到了广泛应用,包括黄瓜分拣的自动化,在航拍照片中寻找海牛,对土豆进行分拣确保儿童食品安全,协助翻译新西兰鸟类保护区的鸟叫声,以及对坦桑尼亚最受欢迎根茎作物的病害进行识别。
11月,TensorFlow作为开源项目庆祝了两周岁生日。我们很高兴看到TensorFlow开发者和用户社区的兴起和繁荣。TensorFlow目前是GitHub上排名第一的机器学习平台,也是GitHub上的最火的五大代码库之一,被许多大大小小的企业和组织使用。
此外,GitHub上已有2.45万个与TensorFlow有关的不同代码库。目前的许多研究论文关于开源代码的TensorFlow实现,并提供了研究成果,帮助整个社区更容易地理解确切的研究方法,模仿或拓展相关工作。
Google Research其他团队的相关开源工作也令TensorFlow受益,其中包括TF-GAN。这是个轻量级库,用于TensorFlow、TensorFlow Lattice(一组用于晶格模型的估计工具),以及TensorFlow对象检测API中的生成对抗模型。随着模型数量的不断增长,TensorFlow模型库也在继续壮大。
TF-GAN
https://research.googleblog.com/2017/12/tfgan-lightweight-library-for.html
除TensorFlow之外,我们还发布了deeplearn.js,提供了一种在浏览器中配置深度学习API的开源、硬件加速的方法(无需下载或安装任何东西)。deeplearn.js的主页提供了许多很好的范例,包括Teachable Machine(一种计算机视觉模型,可以用自己的摄像头去训练)和Performance RNN(实现了基于实时神经网络的钢琴作曲和表演)。2018年,我们将在此基础上进一步推进,协助将TensorFlow模型直接部署至deeplearn.js环境。
相关链接:
Teachable Machine
https://teachablemachine.withgoogle.com/
Performance RNN
https://deeplearnjs.org/demos/performance_rnn
TPU
大约5年前,我们意识到,深度学习将极大地改变我们对硬件的需求。深度学习计算将带来计算密集型任务,同时具备两个特点:
一方面,它们主要由繁重的线性代数运算(矩阵乘法、向量运算等)组成;另一方面,它们对精度降低宽容度很高。
我们意识到,可以基于这两大特点来构建专用硬件,从而更高效地运行神经网络计算。因此,我们向谷歌的平台团队提供了设计输入,而他们设计并开发了第一代的“张量处理单元(TPU)”。这是一种单芯片ASIC,用于加速深度学习推理(与训练不同,推理用于已经过训练的神经网络)。
第一代TPU在数据中心的部署已有3年时间,谷歌搜索、谷歌翻译、谷歌照片,以及AlphaGo中的深度学习模型就使用了这种芯片,同时也给许多其他研究项目和产品提供了计算能力。去年6月,我们在ISCA 2017上发表了一篇论文,表明第一代TPU要比同时代GPU或CPU快15到30倍,而性能功耗比则提升了30倍到80倍。
△用ImageNet训练ResNet-50的实验表明,随着TPU数量的增长,神经网络训练加速
推理很重要,但训练的加速是个更重要的问题,同时也更困难。如果研究人员可以更快地尝试新想法,那么我们就可以取得更多突破。
我们的第二代TPU于去年5月在谷歌I/O大会上发布,提供了完整的系统(包括订制的ASIC芯片、电路板和连接方式),可以同时加速训练和推理。我们展示了单个设备的配置,以及包含多个机架的深度学习超级计算机配置,即TPU舱。我们宣布将通过谷歌云计算平台提供第二代设备,即云TPU。我们还启动了TensorFlow研究云(TFRC)项目,向愿意将工作成果分享给全世界的顶级机器学习研究员提供包含1000个云TPU的计算集群。
12月,我们又展示了一项成果:用TPU舱去训练ResNet-50 ImageNet模型,并在22分钟内取得了高水平的精确度。而传统工作站达到这样的效果需要几天甚至更长时间。我们认为,缩短研究周期将大大提高谷歌机器学习团队,以及所有使用云TPU的组织的效率。
如果你对云TPU、TPU舱和TensorFlow研究云感兴趣,那么可以在 g.co/tpusignup 注册,了解更多信息。我们很高兴,2018年能让更多工程师和研究员用上TPU。
原文:
https://research.googleblog.com/2018/01/the-google-brain-team-looking-back-on.html
这是Jeff Dean总结Google Brain 2017成就的上篇,他还会再写个下篇,谈一谈他们对机器学习应用于医疗、机器人、各种科学研究、创造等领域的研究,也会谈到Google Brain在公平性和包容性方面所做的工作。
See you later~