量子计算:人工智能的革命性算力
2017-05-11
人工智能的发展可能存在三个阶段:服务器时代、云计算时代、量子计算时代。现阶段人工智能基本只能依靠集中处理的方式实现相关功能和应用,也就是通过云计算的方式。根据我们的判断,量子计算有望给人工智能带来的变革性变化在于小型化和移动化。当量子芯片中的量子比特数量达到一定数量后,计算能力将满足人工智能对运算能力的需求,人工智能将不再依赖于大型服务器集群。未来量子芯片小型化后,人工智能前端系统的快速实时处理便成为可能,比如车载智能系统、无人机智能系统等。
2017 年5 月3 日,中科院宣布首台光量子计算机在我国诞生,标志着我国量子计算已处于世界领先水平。人工智能产业的突破需要借助相关产业链的进一步完善,量子计算的超强算力有望加速人工智能的突破和商业化应用,可提前布局量子计算产业相关标的。建议从中科院与中科大的技术导入产业的途径中寻找投资机会,可关注中科曙光、神州信息、浙江东方、亨通光电。
全球数据总量发展趋势(EB) 资料来源:IDC,招商证券
量子计算发展历史 资料来源:招商证券
人工智能的瓶颈 数据庞大 算力有限是其中之一
人工智能的爆发是近两年才开始的,主要原因是使用效果上取得了突破。人工智能是一门计算机技术,主要让计算机去替代人来完成部分工作。如今主流的技术主要是指使用深度学习等算法来实现替代人工,完成大量简单重复性劳动。
虽然人工智能概念的提出已有将近60年了,但之前的发展速度一直偏慢,主要原因是无论方法如何进步,实际使用效果依旧差强人意。从2015年起,人工智能迎来了真正的大爆发,这在很大程度上与GPU的广泛应用有关。
人工智能的高速发展将为各个产业带来翻天覆地的变化。目前很多商业领域已经采用人工智能,尤其在谷歌、百度这样的公司,在它们的搜索、推荐、广告等领域都已使用了类似机器学习的技术。
目前人工智能应用最为广泛的是在人脸识别领域。人脸识别引入人工智能技术后,识别率大幅提升,其中核心的突破是在算法层面。在人脸识别中,人工智能能做到97%的识别正确率,超过了人类95%的识别率,这意味着大规模商业应用具备了价值的基础,尤其是在安防领域、金融领域等,机器做得比人更好。我们认为,人工智能最先涉及的领域包括但不限于安防、金融、教育、医疗、汽车等。
人工智能高速发展的基础是算法、数据和硬件算力
算法、数据和硬件算力组成了人工智能高速发展的三要素。人工智能的实现所需要具备的基础,第一个是优秀的人工智能算法,比如现在最流行的深度学习算法,就是近期人工智能领域中最大的突破之一,为人工智能的商业化带来了希望;第二个是被收集的大量数据,数据是驱动人工智能取得更好的识别率和精准度的核心因素;第三个是大量高性能硬件组成的计算能力,以前的硬件算力并不能满足人工智能的需求,当GPU和人工智能结合后,人工智能才迎来了真正的高速发展。从目前情况看,以上三要素缺一不可。
为什么人工智能近两年才开始爆发?主要是因为直到今日,人工智能的算法、数据和硬件才满足了人工智能的基本需求。算法方面,以人脸识别为例,在2013年深度学习应用到人脸识别之前,各种方法的识别成功率只有不到93%,低于人眼的识别率,因此不具备商业价值。而随着算法的更新,深度学习使得人脸识别的成功率提升到了97%,这才为人脸识别的应用奠定了商业化基础。第二,在数据方面,进入互联网时代后,出现了大数据的高速发展与积累,这为人工智能的训练学习过程奠定了良好的基础。比如,在AlphaGo的学习过程中,核心数据来自互联网的3000万例棋谱,而这些数据的积累是历经了十多年互联网行业的发展。所以直到今年,基于深度学习算法的AlphaGo才取得突破性进展。离开了这些棋谱数据的积累,机器战胜人是无法实现的。第三点是硬件的算力。在二十年前,一个机器人,当时是用32个CPU,达到120MHz的速度。现在的人工智能系统使用的是成百上千个GPU来提升计算能力,这使得处理学习或者智能的能力得到比较大地增强。之前用CPU一个月才能出结果,然后再去调整参数,一年只能调整12次,也就是有12次迭代。GPU产生后,大幅提升了计算量,现在用GPU可以一天就出结果,这样可以迭代得更快,这是技术大幅发展的条件。
大数据迎来爆发式增长 现有算力无法匹配
互联网时代下的大数据高速积累,现有计算能力无法匹配。全球的数据总量正以飞快的速度增长,根据IDC的数字宇宙报告,全球所有信息数据中的90%产生于近几年,数据总量正在以指数形式增长。从2003年的5EB,到2013年的4.4ZB,并将于2020年达到44ZB。也就是说,2020年每个人可以均摊到5200GB以上的数据量。而且到2020年,将近40%的信息都可能会被云提供商“触摸到”;约三分之一的数据,即超过13000EB的数据将具有大数据价值。基于现有的计算能力,在如此庞大的数据面前,人工智能的训练学习过程将变得无比漫长,甚至完全无法实现最基本的人工智能,因为数据量已经超出了内存和处理器的承载上限,这将极大限制人工智能的发展和应用。
摩尔定律趋于极限 经典计算瓶颈需要被打破
摩尔定律趋于失效,经典计算机的计算能力到达瓶颈。对于目前的经典计算机,处理器的计算性能已渐渐远离摩尔定律,因为CPU中晶体管的数量无法实现每两年翻一番的预期。顶级科学期刊《自然》杂志认为,主要原因是现有芯片设计工艺已达到10纳米,预计2020年到达2纳米。这个级别上的晶体管只能容纳10个原子,电子的行为将不再服从传统的半导体理论,此时晶体管将变得不再可靠。
摩尔定律到达瓶颈后,提升算力的方式只能靠增加芯片数量。目前,面对单个芯片的算力瓶颈,人们普遍的做法是做加法,即增加计算集群中芯片的总数量,来提升运算处理能力。比如:要计算1+1和2+2两个任务,对于单个芯片而言,就需要消耗两单位的计算时间,逐个完成这两个任务。而同时使用两个芯片的话,经过一定程序上的优化,可以实现在一个单位的计算时间内,完成这两项计算任务。
量子计算:人工智能的革命性算力
量子计算机有望提供更强的计算能力。量子计算机提供了另一条增强计算能力的思路,它的并行计算的特性,使得它可以一次同时处理多个任务,有望实现计算能力上的超越。
量子计算的算力呈指数级增长
量子计算的核心优势是可以实现高速并行计算。在计算机科学中,无论经典计算还是量子计算,他们的计算功能的实现都可以分解为简单的逻辑门运算。简单来讲,每一次逻辑门的运算都要消耗一个单位时间来完成。经典计算机的运算模式通常是一步一步进行的,它的每一个数字都是单独存储的,而且是逐个运算。所以对于4个数字进行同一个操作时,要消耗4单位时间。而在量子计算中,一个2个量子比特的存储器可以同时存储4个数字,这里一个量子态可以代表所有存储的数字。科学家通过特定设计对量子态进行一次变换,即可对4个数字同时操作,而且只消耗1单位时间。这种变换相当于经典计算的逻辑门,实现了对存储器中的数字并行运算,这被称为量子并行计算。可以看到,当量子比特数量越大时,这种运算速度的优势将越明显,它可以达到经典计算机不可比拟的运算速度和信息处理功能。
对于量子计算机,在半导体材料和超导材料等领域,科学家也已经积累了数十年的理论与经验。现在最有希望的量子计算机方案之一就是低温超导系统,它涉及了半导体材料与超导材料的应用,主要是基于硅晶体,掺杂一定量的超导材料,实现量子计算。而现有的技术积累将极大促进该方案的发展与快速突破,用更短的时间实现大规模的商业化应用。
值得注意的是,量子计算机的量子比特数量以指数增长的形式快速上升,从2003年起的1位量子比特,到2013年512位量子比特的计算机,再到2015年实现1000位量子比特。目前,非通用型量子计算机已经实现了1000位量子比特,在特定算法上,计算效率比经典计算机要快一亿倍。
量子计算机的全球商业化进程加速
量子计算机经过近40年时间的理论研究阶段,在2007年首次实现硬件方面的商业化。目前发展迅速的是非通用型量子计算机,而通用型量子计算机还处于起步阶段。我们认为,通用型量子计算机和非通用型量子计算机最终将在市场上共存,并共同向经典计算机的市场份额发起挑战。
“十三五”规划期间,量子计算机被我国列为重点研究方向之一,国内已有不少科研团队关注量子计算领域,他们的主要关注点在于量子算法和量子计算机的实现上。另有一些研究团队关注在高温新型超导材料等基础研究领域,这些基础研究的突破也能大力促进量子计算产业的高速发展。2016年8月,我国量子计算机研究取得突破性进展,中国科技大学量子实验室宣布成功研发了半导体量子芯片。
量子人工智能算法相比经典算法节省大量时间
经典计算机的计算核心使用的是中央处理器,是一种基于半导体理论设计的电子芯片,用于串行运算。而在量子计算机中,它的计算核心是量子芯片,通过量子的叠加性带来了并行运算的能力,替代传统的电子芯片。可以看到,量子计算机与经典计算机的物理实现完全不同,如果在量子计算机中使用经典算法的话,那么量子芯片将和普通电子芯片发挥基本相同的功能,只能实现串行计算。这是由于设计经典算法时,其设计思想是基于串行运算而得到的,这是经典算法自身的局限性。为此,需要设计相应的量子人工智能算法,才能实现量子计算的超强算力,这种专门面向量子计算设计的人工智能算法被称为量子人工智能算法。
量子计算提升人工智能效率 拓展应用场景
在很多应用领域,人工智能需要拥有快速处理数据、快速响应的能力。比如智能驾驶等应用场景,对于人工智能的反应速度要求很高。再比如手机上的人工智能系统,对于数据的处理能力要求非常高,在这些应用场景中,急需人工智能的硬件系统实现可移动化和快速响应能力。
随着人工智能对硬件计算能力的需求不断提升,人工智能从单机或者小型服务器模式,逐步转型为云计算模式。目前,随着人工智能应用的发展,单机或者小型服务器模式的劣势逐渐显现。一方面,这种模式可提供的算力到达了一个瓶颈阶段,已无法满足人工智能对算力的需求;另一方面,这种模式是一次性采购的,对于用户的资金压力较大,并且后期维护成本不低,需要自己搭建相应的软件环境。现阶段一种主要的解决方案是将人工智能应用或者服务放在云端,运用云计算平台提供更加优质廉价的人工智能服务,其主要的优点是可以按照实际需求来购买计算能力,随时满足现阶段的应用需求。另外,付费模式相对弹性,按照使用状况来逐次结算费用,减轻资金压力。
在摩尔定律近乎失效的情况下,基于现有的计算能力,在如此庞大的数据面前,人工智能的训练学习过程将变得无比漫长,甚至完全无法实现最基本的功能。而量子计算机的量子比特数量以指数形式增长,也就是每两年翻一番。又因为量子计算的特点,其计算能力是量子比特数量的指数级,这个增长速度将远远大于数据量的增长,为数据爆发时代的人工智能带来了强大的硬件基础。
从服务器到云计算,人工智能的应用场景得到了极大的拓展,我们认为量子计算也将拓展人工智能的应用场景。我们认为,人工智能的发展存在三个阶段:服务器时代、云计算时代、量子计算时代。其中量子计算时代为人工智能带来的颠覆,除了在计算能力方面,更重要的是极大地增加了应用场景。
量子计算可实现人工智能的小型化
现在的人工智能系统使用的是成百上千个GPU来提升计算能力,这使得处理学习或者智能的能力得到比较大地增强,然而这套系统也需要庞大的硬件机柜和相配套的硬件机房。较大型的人工智能硬件系统需要将近半个足球场的占地空间,这无疑是对人工智能发展的一个重要限制。随着大数据时代的不断进步,数据将呈现指数级增长,而基于CPU或者GPU云计算的数据中心将无法满足数据爆发的需求。
目前非通用型量子计算机已经实现了1000位量子比特,在特定算法上,计算效率比经典计算机要快一亿倍。也就是如果想要实现人工智能,原来需要一千台计算机,或者需要一万台计算机的规模,现在只要用一台量子计算机就可以了。而且这个量子计算机的计算能力完全能够满足人工智能对速度的要求,也就是人工智能将不再依赖于大型服务器集群,或者庞大的云计算中心。
量子计算可高速处理大数据 实现人工智能移动化
目前量子计算较为成功的应用集中在大数据快速搜索,这主要是因为在这个应用领域中,诞生了优秀的量子计算算法,使得经典计算体系中无解或者趋近无解的问题,在量子计算的环境中,转化为了可解并且能快速求解的状态,使得这个领域成为目前量子计算的重要应用方向。
量子芯片的大数据处理能力将实现人工智能的移动化,主要的应用场景包括:车载智能系统、无人机的智能系统或者手机上的人工智能系统。主要可行的方案有两种:第一是它们实时收集的大量信息和传感器数据,之后传输给云端的量子计算系统,在云端实现超短时间内的快速运算,然后再将结果反馈给相应移动端,实现对移动端的控制。这种方案的优势在于可以极大节省计算的时间,提高智能系统的响应速度。另一种方案是通过自身携带的量子计算系统,可以在本地处理大量的数据,并且得到实时响应,指导汽车自动驾驶或者对手机终端反馈信息。这个系统的优势是不只节省了计算时间,还完全省去了上传和下传数据的时间。但是这种方案的不确定性在于量子芯片能否在日常环境中直接使用,比如不再要求超低温的环境等。总之,这些应用场景对于数据处理能力的要求非常高,而量子计算通过节省大量的计算时间,实现可移动化的人工智能系统,提供数据的快速响应能力。