首页 / 资讯中心 / 交通百科/如果不加以控制,人工智能本身就会变得有偏见

如果不加以控制,人工智能本身就会变得有偏见

发布时间:2018-09-10 分类:交通百科

如果用人工智能来管理世界,它就不会那么糟糕了,因为人工智能可以客观地对人类可能会搞砸的事情做出准确的决定。但如果我们要将缰绳移交给人工智能,那就必须公平。到目前为止,事实并非如此。在由人注释或策划的数据集上训练的ai人工智能 倾向于学习同样的种族主义者,性别歧视者或其他偏见的人。

慢慢地,程序员似乎正在纠正这些偏见,但即使我们成功地将自己的偏见从我们的代码中解脱出来,人工智能似乎也能够自己开发它。

在发表的一项新研究显示,人工智能代理人网络如何自主开发出不仅仅是对其他与自身相似的代理人的群体偏好,而且还是对那些不同的代理人的积极偏见。事实上,科学家们得出结论认为,开发这些偏差所需的认知能力非常低,这意味着它可以在整个地方弹出代码。

人工智能代理人的设立使他们可以向其他代理商捐赠虚拟货币,目的是尽可能多地获得回报。从本质上讲,他们必须选择分享多少以及与之分享哪些其他代理。实验背后的研究人员看到了两种趋势:人工智能代理人更有可能捐赠给其标有相似特征的人 (用任意数字值表示) 和对不同的人有偏见。人工智能代理人似乎已经了解到,对集体内部结果的捐赠会更多地进行回报,并且捐赠给其他人会积极地导致他们的损失。

这是一种比我们在现实世界中看到的更为抽象的偏见形式,其中算法被用于专门针对和压迫黑人。人工智能代理并没有像某些人那样对特定的少数群体产生特定的蔑视。相反,它是对一个模糊的“他者”的偏见,反对任何与他们不同的东西。而且,这是一种偏见,仅限于这种特殊的模拟的偏见。

但这项研究确实对现实世界的应用产生了重大影响,如果不加以控制,像这样的算法可能导致更大的制度化种族主义和性别歧视,尽管我们尽最大努力防止它,但在一些不可测的情况下,甚至会出现反人类的偏见。

据报道,有办法修复这个问题。例如,研究人员发现,他们可以通过强迫AI代理人参与他们所谓的全球学习,或者与他们自己的泡沫之外的不同AI代理进行交互来降低偏见程度。当AI代理人群的总体特征更多时,偏见程度也会下降,这仅仅是因为存在更多的内在多样性。研究人员将偏见的人暴露在现实生活中的其他视角中。

无论我们认为人工智能系统是多么客观、公正的机器,我们都需要接受系统中可能始终存在的故障,就目前而言,这意味着我们需要密切关注这些算法并注意自己的程序是否出现偏见。