首页 / 资讯中心 / 交通百科/当人工智能机器变得邪恶时,谁来负责?

当人工智能机器变得邪恶时,谁来负责?

发布时间:2018-10-09 分类:交通百科

微软(Microsoft)模仿少女的推特聊天机器人泰伊(Tay)的出现引起了很大的争议,在接入网络后的24小时内,Tay开始说一些奇怪的话,然后是一些冒犯性的东西。然后是一些非常令人讨厌的东西。比如叫佐伊·奎恩是“愚蠢的妓女”,还说大屠杀是“捏造的”,并说黑人应该被关进集中营,她支持墨西哥种族屠杀。

人工智能

那到底发生了什么?Tay的设计目的是通过使用机器学习来发展它的会话技能,最显著的是通过分析和整合人类社交媒体用户发送给她的推文的语言。微软显然没有预料到的是,推特会故意让泰伊说出冒犯性或其他不恰当的话。

现在,任何熟悉社交媒体网络世界的人都不应该对这件事感到惊讶当然,一个用“零寒意”设计的聊天机器人会学着成为种族主义者和不恰当的人,因为推特上充斥着说种族主义和不恰当的话的人。

以下是有关Tay的一些媒体头条:

“毫不奇怪,微软的人工智能 Bot Tay被骗成了种族主义者”(亚特兰大杂志-宪法)。

“在网上学到太多东西的MicrosoftAxesChatbot”(华盛顿邮报)。

“微软让Tay‘聊天机器人’离线后,Twitter让它发出冒犯性的评论”(福克斯新闻)。

“Twitter在不到24小时内就把微软的‘Tay’变成了一个种族主义的、性别歧视的、否认大屠杀的机器人”(Mediaite)。

“Twitter如何破坏微软的Tay:现实世界中AI人工智能危险的速成课程”(福布斯)。

“微软的友好机器人是如何在不到24小时内变成种族主义者的”(“环球邮报”)。

“Twitter如何腐蚀微软可爱的人工智能青少年‘Tay’”(CNET)。

当然,以上故事表明或暗示微软应该意识到这一点,并采取措施防止泰伊学会说冒犯的话。然而,令人惊讶的是,大量的媒体评论给人的印象是,微软给世界带来了一个可爱、天真的聊天机器人,Twitter变成了希特勒青年团的一个初出茅庐的成员。看来,当人工智能系统从Twitter身上学到不好的东西时,人们至少有一些倾向于指责Twitter,而不是怪罪于设计师。

现在,在Tay的案例中,从法律的角度来看,“谁该受责备”的问题可能并不重要。但是,当比发送青少年推文更重要的功能的人工智能系统“学会”从他们遇到的人身上做坏事时,会发生什么呢?人们是否仍然倾向于将大部分责任归咎于那些“教”人工智能做坏事的人,而不是人工智能的设计者?

对于学习人工智能系统的设计者来说,我不一定有什么问题。预编一个包含人类社会各种礼貌和礼仪规则的人工智能系统是非常困难的,特别是因为这些规则是高度情境性的,在不同的人类文化中差异很大,而且会随着时间的推移而发生变化。此外,人工智能系统不断提高的“学习”能力也是它们作为一项新兴技术如此有前途的主要原因。限制一个人工智能系统的学习能力,防止它学习坏的东西,也可能阻止它学习好的东西。

但是,将责任主要归咎于学习人工智能系统的后设计信息来源有几个问题。首先,要确定人工智能系统在哪里学到东西并不总是那么容易,人工智能可能会分析和整合比任何人都希望筛选的更多的数据;Tay设法在不到一天的时间内发送了近10万条推特信息,与此相关的是,如果人工智能系统的“不良行为”是它从许多不同的人那里学到的数千件小事的结果,那么让这些个人对人工智能的学习行为承担法律责任似乎是不公平的。此外,人们可能会“教”一个人工智能系统一些不好的东西。

由于这些原因,似乎有可能推动法律的发展,使人工智能开发人员将有一些责任,以防止“腐败”的系统。不幸的是,同样的问题会使人工智能前端的安全管理变得困难,也会将责任分配给后端人工智能设计人员的努力复杂化。

人工智能的开发工作可以在有限的可见基础设施下进行,扩散意味着工作在人工智能系统的单个部件上的个体可能位于彼此很远的地方。与此密切相关的一个特征是离散性,它指的是一个人工智能系统的各个组成部分可以在不同的地点和不同的时间设计,而不需要任何有意识的协调。最后,不透明性表示人工智能系统的内部工作可能是保密的,并且不容易受到逆向工程的影响。