首页 / 资讯中心 / 交通百科/在当前和长期人工智能安全工作之间是否存在权衡?

在当前和长期人工智能安全工作之间是否存在权衡?

发布时间:2018-09-12 分类:交通百科

在机器学习社区和媒体文章中,我经常听到这样的话:“对超级智能的担忧分散了人们对当今人工智能面临的”现实“问题X的注意力”(X=算法偏见、技术失业、可解释性、数据隐私等)。这种争强好胜的态度给人的印象是,当前和长期的安全关切存在冲突。但他们之间真的有权衡吗?

人工智能

我们可以更具体地提出这样一个问题:这两种努力可能争夺哪些资源?

媒体关注

鉴于媒体对人工智能的浓厚兴趣,已经有很多关于这些问题的文章。有关高级人工智能安全的文章大多是危言耸听的终结者,忽视了问题的复杂性。可以理解的是,这激怒了许多人工智能研究人员,并导致他们中的一些人基于媒体上的漫画而不是真实的争论,对这些风险不屑一顾。媒体关注高级人工智能风险的总体效果是非常消极的,如果媒体完全停止有关超级智能的报道,把注意力集中在当今人工智能系统的安全和伦理问题上,这会让所有的人工智能研究人员开心。

资金

目前,高级人工智能安全工作的大部分资金来自捐助者和对这些问题特别感兴趣的组织,如开放慈善项目和埃隆·马斯克。他们不太可能资助那些不适用于高级人工智能系统的安全工作,因此他们对高级人工智能安全研究的捐款并没有从眼前的问题中拿出资金。相反,没有一个固定的资金,短期和长期的安全竞争,它更像是两个不断增长的馅饼,不能重叠的太多。这两个领域的资金都在不断增加,希望这一趋势能够持续下去。

人才

近年来,先进的人工智能安全领域有所发展,但规模仍然很小,研究人员从事这方面工作所造成的“人才外流”迄今微乎其微。在当前和长期问题上工作的动机也往往是不同的,这些问题往往吸引不同类型的人。例如,一个主要关心社会公正的人更有可能致力于算法偏见,而一个主要关心长期未来的人更有可能致力于超级智能风险的研究。

总的来说,在资金或人才方面似乎没有太多的权衡,而媒体的注意力权衡(理论上)可以通过将所有的播出时间都投入到当前的关注中来解决。这些问题不仅没有冲突,而且解决这些问题之间也有协同作用。双方都受益于在人工智能研究社区中培养一种关心社会影响和积极主动应对风险的文化。一些安全问题在近期和长期都具有高度相关性,例如可解释性和对抗性示例。我认为我们需要更多的人致力于解决当前系统的这些问题,同时保持对未来更先进系统的可伸缩性。

人工智能的安全问题太重要了,讨论不能因为诸如“我的问题比你的问题更好”这样的问题而脱轨。这种错误的二分法本身就是对确保人工智能对当今和未来世界产生积极影响这一共同目标的一种干扰。关心当前和未来人工智能系统安全的人是天生的盟友,让我们在实现这一共同目标的道路上相互支持。