据GIGAOM报道,昨日,Facebook人工智能研究院(FAIR)开源了一系列软件库,以帮助开发者建立更大、更快的深度学习模型。开放的软件库在Facebook被称作模块。用它们替代机器学习领域常用的开发环境Torch中的默认模块,可以在更短的时间内训练更大规模的神经网络模型。
这些模块为适用英伟达的GPU进行了优化。一部分可以用来训练大型计算机视觉系统。部分模块也可以用来训练处理不同类型数据的模型。既可以进行文本识别、图像识别,也能用于语言模型的训练。部分模块将大型卷积神经网络模型的训练速度提升了23.5倍。
尽管这些模块在速度和规模上都有所提升,但FAIR的研究员Soumith Chintala表示,它们不会对当前已经在使用的模型产生非常大的影响。它的主要优势在于,处理像Facebook面对的巨大规模数据处理时,可以让研究人员使用一些过去不太可能使用的模型。
Facebook正与英伟达合作,重构一些英伟达用于处理网络规模级数据的深度学习编程软件库。为了让GPU更好地支持深度学习研究,英伟达也在简化GPU编程难度。所以,尽管Facebook使用的数据规模超过了目前许多主流的深度学习研究,它或许能与英伟达一起找到更好的处理方案。
此次软件库的开放意味着Facebook开始在更大的范围内开放深度学习资源。此前,他们曾经开放过数据中心和网络规模软件。Chintala表示,接下来Facebook会持续地开放代码,而不会像过去那样只在偶尔取得突破性进展的时候开放部分代码。
深度学习的应用场景日益丰富,从相册处理到无人驾驶汽车都可以用到深度学习的模型。代码开源也变得越来越重要。Facebook加入了Torch、Caffe、和创业公司Skymind推出的Deeplearning4j开放框架。此前Goolge也曾开源了基于深度学习的工具word2vec和一些支持深度学习的数据集。