首页 / 资讯中心 / 趋势研究/第三波人工智能潮与以往有何不同?

第三波人工智能潮与以往有何不同?

发布时间:2019-06-26 分类:趋势研究

[本轮人工智能主要算法的灵感来源于认知科学、博弈论和量子力学等广阔的领域,大数据驱动的算法主导的科学研究范式(第四范式)被应用于各个学科的研究,他山之石可以攻玉,其他学科的进展也能反哺人工智能的创新,并可能起到至关重要的革命性作用,特别是脑科学、心理学等学科发展可能与AI的发展形成闭环和相互促进的良性关系。]
[由于受当时历史条件所限,AI能做的事情很有限,大众对AI前景不切实际的乐观和AI所承诺的能力均未能兑现,引发上世纪70年代长达10年的首次AI寒冬。]
[摩尔定律驱动算力在过去30年提升了百万倍,为数据驱动的人工智能提供了强劲的动力。]
人工智能(AI)自1956年诞生以来,60多年来经历了“三起二落”的波折的发展历程。
2016年,随着谷歌围棋机器人AlphaGo的一战成名,从国家到企业层面,随处都能见到人工智能的身影。随着经济增速的放缓以及资本的退潮,人工智能的“寒冬论”又开始甚嚣尘上,“一哄而上,一哄而散”带来了一地鸡毛,人工智能的未来,究竟何去何从?
人工智能历史会重演吗
AI之父、图灵奖获得者约翰·麦卡锡在1956年的达特茅斯夏季研讨会缔造“人工智能”一词时,曾有不同的声音。在英语中,Artificial(人工、人造)一词略带贬义,如人造革、人造丝等,暗藏着一点“假”的意思,当时英国的一些学者更愿意使用“思考机器”的提法。阿兰·图灵凭借他的“谜一样的机器”(enigma)破解了德军密码,大大加速了二战结束的进程,减少了上千万人的伤亡,居功至伟,他提出了著名问题:机器可以思考吗?
从这个角度看,其实人工智能这个术语还是贴切的。今天,AI的核心支柱——机器学习并不是在进行主动的学习,而只是在被“训练”,更本质的来说,只是通过寻找最小误差值的方法来进行参数拟合(Fitting),并不具有任何意识。在小数据等需要人类认知能力的领域,今天的AI就连5岁的孩子都比不上,例如,儿童在看到几张照片后,就能轻松地学习到“猫”的概念,而“先进的”卷积神经网络需要对大量的标签数据进行学习才能完成类似的任务。即便如是,得益于算法的改进和指数增长的计算能力,在特定的场景中,AI已经展现出令人惊叹的能力,并且对部分行业的创新产生了关键影响。
麦卡锡对人工智能的定义是:制造智能机器的科学与工程。在人工智能诞生后的十多年里,科学家们致力于通过模仿人的思维来实现智能。今天的人工智能算法,例如神经网络、知识图谱和对话机器人的雏形在那时都已经出现,由于受当时历史条件所限,AI能做的事情很有限,大众对AI前景不切实际的乐观和AI所承诺的能力均未能兑现,引发上世纪70年代长达10年的首次AI寒冬。
80年代初,日本成为了当时全球第二大经济体,在技术上也积极谋求世界领先的地位,提出了“五代机”(第五代计算机,前四代计算机代表性技术分别是:电子管、晶体管、大规模集成电路和超大规模集成电路)的设想,英美等政府也被迫跟进,对相关技术进行了大量投资,同时,机器学习的神经网络算法也出现了两项突破。基于物理学能量概念的霍普费尔德网络被提出;在今天深度学习中仍然具有重要作用的“反向传播”的方法被广泛应用于神经网络的参数训练中,取得了不错的效果,并成为今年(2019)图灵奖得主杰弗瑞·辛顿(JefferyHinton)获奖的重要依据之一;90年代初,时任贝尔实验室负责人的杨力昆(YannLeCun,纽约大学教授,2019年图灵奖得主,美国工程院院士,原FacebookAI研究院主任)实现了商用的手写数字识别,美国有10%的支票的识别使用了该算法,1992年,采用简单神经网络控制的卡内基梅隆大学的首辆无人驾驶的装甲车也上路了。尽管如此,但是受制于当时的计算力和数据量,人工智能逐渐湮没于快速崛起的互联网的夺目光芒中,但是,这个阶段的理论储备为今天的AI发展提供了重要的源泉(知识储备)。
前两次AI的繁荣具有两个特点:一是从参与者来看,主要政府投资主导,企业参与度低,落地应用极为有限;二是技术上均是以逻辑推理为核心的符号主义占据了主导地位,神经网络学派的发展长期被压抑,客观上,神经网络所需要的数据量和算力条件当时也不成熟,AI的主要形式也因此表现为确定的推理,难以处理现实中遇到的大量不确定性问题。
当下处在第三波人工智能浪潮之上
互联网30年的快速发展,社交网络、物联网和云计算所产生的海量数据为本轮人工智能的繁荣提供了燃料。摩尔定律驱动算力在过去30年提升了百万倍,为数据驱动的人工智能提供了强劲的动力。2006年,加拿大科学家杰弗里·辛顿(GeoffreyHinton)教授等人一年之内连发三篇重量级论文,标志着深度学习时代的开启。自2016年AlphaGo引爆了媒体以来,AI得到整个社会的关注。
与前两次人工智能浪潮不同,很多和业务紧密结合的AI应用场景已经或正在落地,企业成为了最主要的推动者。技术上,深度学习作为机器学习的一种,放弃了之前符号主义的机械推理,而采用了基于概率的范式,使得应用场景得以大幅度地拓展。符号主义则以知识图谱的形式延续下来,成为新一代搜索引擎的核心技术。
同时,繁荣之下的局限也是显而易见的。首先,深度学习技术上缺乏理论的支撑,目前是模型的结构和训练是经验主义主导,未来深度学习理论的诞生将能减少算法对算力和数据的依赖;其次缺乏突破性的算法思想。深度学习中大红大紫的卷积神经网络(CNN)和长短时记忆网络(LSTM)都是在上世纪八九十年代就被提出了的,只是囿于当时数据量和算力,才没有流行。本轮人工智能繁荣中真正令人眼前一亮的创新点乏善可陈,对抗神经网络(GAN)引入博弈论的思想、AlphaGo强化学习结合深度学习、自然语言处理中的词向量等技术可以算是为数不多的重要创新。
经典力学和量子力学的发展过程与今天的深度学习近似:第谷收集了大量行星运动数据,他的助手开普勒在这些数据中发现了行星运动三大定律,但未能指出背后的原理,直到牛顿在三大定律基础上提出万有引力定律;在量子力学领域,人们很早就获得了氢原子的光谱数据,但是无法解释。今天,我们拥有大数据,也有一些不错的深度学习模型,但是还缺乏理论的支撑。
本轮人工智能主要算法的灵感来源于认知科学、博弈论和量子力学等广阔的领域,大数据驱动的算法主导的科学研究范式(第四范式)被应用于各个学科的研究,他山之石可以攻玉,其他学科的进展也能反哺人工智能的创新,并可能起到至关重要的革命性作用,特别是脑科学、心理学等学科发展可能与AI的发展形成闭环和相互促进的良性关系。
在工业界,除了金融、零售等少数数据条件好而且“离钱近”的行业,传统行业在数字化转型过程中,面临数据采集、数据治理和缺乏人才等一系列挑战、直接利用人工智能变现具有一定难度。换个角度看,这些行业也具有极大的潜力,可以先从一些简单的“速赢”场景切入,逐步培育数据文化和人才,先对已有业务进行优化。
本轮人工智能的上半场在C端衣食住行方面都已普及,接下来的主战场将在B端,企业不要总是想着风口,踏踏实实地将一个个AI场景落地才是王道。整个社会各行业的数字化转型将持续数十年,即便学术界在未来十年在AI理论上没有大的突破,对于行业的AI场景落地并不会产生太大的瓶颈效应,大部分企业AI场景并非一定要使用最酷炫的技术,合适的技术才是最好的。
根据Gartner的估计,未来企业对于预测算法的需求将指数增长,其中大部分场景并不需要追求极致的预测准确率,使用目前流行的框架和工具,普通程序员和商业分析师就能满足大部分这类需求,对于少数核心场景,例如金融行业的风控,零售行业商品推荐,1%的准确率的提升都会带来巨大的价值,企业自然会在这些领域不遗余力地进行投入,数据科学家未来的用武之地也将转移到这些领域。
今天,AI的主要目标不再是让它像大脑一样思考,而是利用其独特的能力,做好人类的助手,如同工业革命解放我们的体力那样,AI解放我们重复性工作所需的脑力,让我们有更多的时间和精力从事更有价值的创造性工作。虽然,今天对于没有意识的AI统治人类的担心如同杞人忧天,但是我们已经看到大量的行业正在数字化转型的进程中,现实物理世界被逐渐映射到虚拟的数字空间之中,主宰虚拟世界的算法如同法律,其在虚拟世界中的决策作用在现实生活中不断显现,电影《黑客帝国》所预言的时代似乎已经触手可及。AI正在成为人类新的潜意识,替我们进行着各项决定,虽然我们好像拥有最终决策权,却对我们正生活在自己编织的信息茧房之中常常不自知。
(作者邬学宁系数据科学50人成员、复旦大学人工智能客座讲师)