首页 / 资讯中心 / 交通百科/我们如何将人工智能与人类价值观结合起来?

我们如何将人工智能与人类价值观结合起来?

发布时间:2018-09-27 分类:交通百科

社会组成的每一部分都会在一个未知的时间发生重大的改变,这一过渡中发挥作用的人有责任和机会来塑造最好的它。什么会引发这种变化?当然只有人工智能

人工智能

最近,人工智能和相关领域的一些顶尖人物聚在一起讨论如何确保人工智能在整个过渡过程中仍然是有益的,其结果是Asilomar AI原则文档。这23条原则的目的是提供一个框架,帮助人工智能造福尽可能多的人。

这些原则代表着对话的开始,现在对话正在进行中,我们需要对每一个单独的原则进行广泛的讨论。这些原则对不同的人意味着不同的事情,为了使社会尽可能多地受益,我们需要逐条考虑每一项原则。

价值比对

价值调整:高度自治的人工智能系统的设计应该确保它们的目标和行为能够在整个运行过程中与人类的价值保持一致。

在人工智能领域,我们面临着类似的情况:我们如何确保一个人工智能会做我们真正想做的事,同时又不会在错误的尝试中伤害人类,去做它的设计者所要求的事情?“机器人不会试图反抗人类,”加州大学伯克利分校罗素大学的助理教授、同事安卡·德拉甘解释说,“他们只会尝试优化我们让他们做的任何事情。”因此,我们需要确保告诉他们,为我们真正想要的世界进行优化。

我们想要什么?

了解我们想要什么是人工智能研究人员面临的最大挑战之一。当然,问题是要定义这些价值观到底是什么,因为人们可能有不同的文化,来自世界不同的地方,有不同的社会经济背景-我认为人们对这些价值观会有非常不同的看法,所以这才是真正的挑战。

在编程语言中编码人类价值观是非常困难的,但这一问题更难解决,因为我们人类在共同价值观上不一致,甚至我们在某些部分上达成一致意见也会随着时间的推移而改变。虽然有些价值观很难达成共识,但也有很多价值观是我们都默示认同的。任何人类都能理解与他们交往过的情感和情感价值,但很难保证机器人也能以同样的理解被编程。

我们可以进行科学研究,以真正了解如何从我们都认同的这些价值观转变为将其嵌入到与人类共同工作的人工智能系统中。研究人员从另一个角度来研究这个问题的,没有试着去理解人,而是试图训练机器人或人工智能在与人互动时,能够灵活地实现自己的目标。对于代理人来说,重要的是对他们的目标有不确定性,而不是假设他们是完全指定的,并且把人类的投入当作对真正潜在的期望目标的有价值的观察。

改写原则?

虽然大多数研究人员同意价值对齐原则的基本思想,但并不是每个人都同意它的措辞,更不用说如何实现它了。人工智能先驱、蒙特利尔大学教授YoshuaBengio认为,这不可能是完全一致的。有很多东西是与生俱来的,我们无法通过机器学习来获得,也可能很难通过哲学或内省来获得,所以还不完全清楚我们是否能够完美地对齐。

尽管价值匹配通常被认为是一个未来会出现的问题,但这是需要尽早解决的问题,我们今天必须担心如何执行这一原则。随着系统变得更加复杂,这将有助于解决更具挑战性的价值调整问题。这是帮助ai人工智能找出它应该做什么的一个步骤,不断地细化目标应该是人类和人工智能之间的一个持续的过程。

你怎么看?

人工智能与你自己的生活目标和愿望相一致对你来说意味着什么?它怎么能在同一时间与你和世界上的其他人保持一致呢?我们如何确保一个人的理想人工智能版本不会让你的生活更困难?我们如何就人类价值观达成一致?我们如何确保人工智能理解这些价值观?如果你有一个个人人工智能助手,它应该如何被编程来表现?如果我们让人工智能更多地参与到医学、警务或教育等领域,那会是什么样子呢?作为一个社会,我们还应该问些什么呢?