Google:神经网络亟需最佳化硬件
2017-08-30
Google资深研究员Jeff Dean强调,硬件系统可针对执行少量特定的作业实现优化,并形成大量机器学习模型,从而打造更强大的神经网络…。
如果您目前尚未考虑到如何有效利用深度神经网络(deep neural network)来解决您的问题,那么您的脚步必须加快了。至少,根据Google资深研究员兼深度学习人工智能研究计划(即Google Brain)主持人Jeff Dean是这么认为的。
在日前于美国加州举行的Hot Chips大会专题演讲中,Dean介绍神经网络如何大幅改写运算设备,并在语音、视觉、搜寻、机器人与医疗保健等领域取得重大的进展。他强调,硬件系统可针对执行少量特定作业实现优化,并形成大量的机器学习(machine learning)模型,从而打造更强大的神经网络。
Dean说:“针对神经网络具备的特性打造专用计算机极具意义。如果你能开发出一套真正善于进行特定作业(例如加速的低精度线性代数)的系统,那就是业界梦寐以求的。”
针对美国国家工程院(National Academy of Engineering;NAE)于2008年提出的14项21世纪重大工程挑战,Dean认为,透过神经网络可望在解决这些所有问题时发挥重要作用。Dean在发表简报时特别着重于其中的五项挑战:恢复并改善城市建筑、推动健康资讯工程进展、更有效地用药,以及人类大脑的反向工程等。不过,对于NAE重大挑战清单中的最后一项——为科学探索打造工具,Dean却保留了他的看法。
Dean表示:“人们已经意识到我们需要更多的运算能力,才能解决这种种的问题。”
TPU Pods解决更大的问题
Google最近开始为其客户和研究人员提供可经由云端服务的第二代TensorFlow处理器单元(TPU)机器学习ASIC。这是一款客制化的加速器板,配备4个第二代装置,据称可带来180兆次浮点运算(TFLOPS)运算和64GB高带宽内存(HBM)的性能。
Dean表示,新的云端TPU芯片设计主要用于将彼此连接在一起,形成更大的配置——亦即被称为‘TPU Pod’的机器学习超级计算机。一个TPU Pod配置中包含64个第二代TPU,可提供11.5 petaflops以及 4TB的HBM内存。他并补充说,Google还免费提供了1,000个云端TPU给致力于开放机器学习研究的顶尖研究人员。
Dean说:“我们对于TPU Pod解决更大问题的可能性感到非常振奋。”
2015年,Google发表TensorFlow软件库,为机器学习开放来源,目标就在于建立一个可用于表达与交换机器学习想法与系统的通用平台。Dean并展示了一张图表,显示TensorFlow才刚过一年半,就已经比其他具有类似用途的库更受欢迎。
Google第二代TPU
Dean表示,近五年来迅速出现的神经网络,主要是受到过去20年来运算能力的重大进展而促成的。他并补充说自己在1990年时还为此撰写了一篇有关神经网络的论文。他认为,当时的神经网络发展几乎是可行的,但大约还需要更高60倍的运算能力。
Dean说:“而今,事实证明,我们真正需要更高大约100万倍的运算性能,而非60倍。”