首页 / 资讯中心 / 趋势研究/人工智能不能缺少因果推断

人工智能不能缺少因果推断

发布时间:2019-08-05 分类:趋势研究

 早在两千多年前,亚里士多德等西方哲学家就已经提出了因果的概念,并开始思考事件之间的“导致”关系。

可以说,因果思维是科学技术的基础。图灵奖获得者朱迪·珀尔在《为什么》一书中给出了很多因果推断的应用实例,它们来自社会各个领域的方方面面。既然因果论这么重要,为何它的数学形式化研究一直滞后,直到最近才初见雏形?主要原因就在于研究因果关系的必备工具之一的统计学在20世纪后才真正成为一门严谨的学问。

在书中,珀尔把因果论分为三个层面,他称之为“因果关系之梯”:第一层级研究“关联”,第二层级研究“干预”,第三层级研究“反事实推理”。珀尔特别指出,我们当前的AI(人工智能)和机器学习只处于最低的第一层级,只是被动地接受观测结果,考虑的是“如果我看到……会怎样”这类问题。

理论上可以证明,人工智能即便在因果关系之梯的最低层级做到极致,也无法跃升到干预层面,更不可能进入反事实的世界。这本书所讨论的几个悖论(伯克森悖论、辛普森悖论、伯克利大学招生悖论等)就曾长期困扰着统计学家,因为这些问题离开了因果论是不可能得到彻底解决的。珀尔也看出了这一问题的症结:缺少因果推断的AI只能是“人工智障”,是永远不可能透过数据看到世界的因果本质的。

作为处在因果关系之梯最低层级的机器学习技术,大数据分析和深度学习并不神秘,说得通俗一些,大数据分析就是多变量统计分析,深度学习就是隐层多了一些的神经网络而已,理论上没有太多新意。借助算力的提升,这轮AI的火爆主要表现在工程实践比以往更丰富了,应用层面的创新要远远超过基础理论的创新。珀尔教授认为大数据分析和深度学习(甚至多数传统的机器学习)都处于因果关系之梯的第一层级,因为它们的研究对象还是相关关系而非因果关系。

众所周知,这轮AI的爆发在很大程度上得益于算力的提升,例如,深度学习就是人工神经网络借助算力的“卷土重来”,把数据驱动的方法推向了一个巅峰。人们甚至产生了一个幻觉——“所有科学问题的答案都藏于数据之中,有待巧妙的数据挖掘技巧来揭示。”珀尔批判了这种思潮,他将因果模型置于更高的位置,把数学或统计建模的荣耀重新归还给了相应领域的专家。

人们喜欢从“数据”、“算法”、“算力”和“场景”四个角度谈论AI。珀尔试图告诉我们,数据固然重要,但它并不是推断的唯一来源,那些承载着知识或经验的“因果”模型,才是帮助机器从“人工智障”走向人工智能的关键所在。在珀尔看来,大数据分析和数据驱动的方法仅仅处在因果关系之梯的第一层,强人工智能还需要干预和反事实推理,如此让机器具备自由意志才可能实现,二者分属因果关系之梯的第二层级和第三层级。

我们不应该把AI技术对立起来,而应该相互取长补短。拿强化学习来说,它不同于有监督学习和无监督学习,是基于马尔科夫决策过程发展起来的第三类机器学习方法——智能体通过与环境互动变得越来越“聪明”。强化学习和因果推断都寻求策略,其中,行动之间是有因果关系的,但因果推断更开放一些,它可以利用数据之外的知识来推断策略的效果。强化学习允许推断干预的结果,因此能攀上因果关系之梯的第二层级。通过模拟环境,强化学习无须从现实世界获取观测数据来训练模型,所以也有可能产生反事实从而登上因果关系之梯的第三层级。

学术界对“强AI”一直持谨慎态度,多数学者倾向于“弱人工智能”,即思维机器可以在一些具体应用(如棋类游戏、人脸识别、信息检索等)上表现得十分出色,但本质上不可能达到人类的智能,譬如,像科学家一样思考,理解人类的语言并无障碍地与人类交流,创造具有真正美感的艺术,拥有人类的情感……大家没敢对强AI抱有太多的期望,主要原因是我们对如何形式化人类自身的因果推断能力了解甚少。

因果的形式化理论,不仅解决了困扰统计学家很多年的一些悖论,更重要的是,利用“干预”让人类和机器摆脱了被动观察,从而转向主动地去探索因果关系,以便做出更好的决策;利用“反事实推理”扩展了想象的空间,从而摆脱了现实世界的束缚。这两点突破实现了因果革命,并分别构成了因果关系之梯的第二层级和第三层级的内容。沿着因果关系之梯,机器便有望拥有强人工智能。

作者:【美】朱迪·珀尔