热门文章
如何设计理解人类需求的人工智能?
发布时间:2018-09-15 分类:交通百科
随着人工智能变得更加先进,程序员将期望与计算机交谈,就像他们与人类交谈一样。我们将使用自然语言与人工智能系统通信,而不是键入长而复杂的代码。
在当前的“程序综合”模型中,人类可以通过提供示例和概念演示来让计算机为其编写代码,但这种模型是有限的。在程序合成方面,计算机是识字者:他们不是在字里行间阅读并考虑意图,而是只做字面上真实的事情,而真正真实的事情并不总是人类想要的。
例如,如果向计算机询问以字母“a”开头的单词,它可能只返回“a”。“a”这个词字面上满足了你问题的要求,但它不是你想要的。类似地,如果你问一个ai人工智能系统“你能把盐递过来吗?”人工智能可能会保持静止并回答“是的”。这种行为,虽然从字面上讲与需求一致,但最终是无效的,因为人工智能没有将盐传递给您。
计算机科学家斯图尔特·拉塞尔给出了一个机器人吸尘器的例子,有人指示它“尽可能多地收集污垢”。通过编程来解释这一点,而不是考虑意图,真空吸尘器可能会找到一小块污垢,把它捡起来,放回原处,然后反复地把它捡起来放回去,有效地最大化污垢的垂直位移,这是它认为的“尽可能多地拾取污垢”。不难想象,在这种情况下,计算机按字面意思、严格地解释语句的趋势会变得极其不安全。
语用推理:真实与有益
随着人工智能系统在财政和资源分配方面承担更大的责任,我们不能让它只是单纯的理解最浅显的回答,为了解决这一沟通失误,科学家正致力于“人性化”编程,以防止人们因为对计算机说了不准确或错误的话而意外地造成伤害。随着人工智能的不断发展,我们将看到更先进的人工智能系统,它们可以接收来自人类操作人员的指令,这些系统能理解操作人员的意思。
人类在解释某人话语背后的含义时,会不断地进行这种分析。通过字里行间的阅读,人们了解了某人的意图和对他们有帮助的东西,而不是字面意义上的“真实”。
假设一个学生问教授她是否喜欢他的论文,教授说她喜欢论文的“某些部分”。最有可能的是,学生会认为教授不喜欢他论文的其他部分。这种语用推理对人类来说是常识,但程序综合不会产生这种联系。在会话中,“一些”一词显然意味着“并非全部”,但在数理逻辑中,“一些”只是指“任何超过零的数量”。因此,对于只在数学逻辑意义上理解事物的计算机来说,教授喜欢论文的某些部分这一事实并不排除她喜欢所有部分的可能性。
为了更好地理解人工智能系统如何学会实用推理和避免这些误解,科学家正在研究人们如何解释其他人的语言和指令。
在一次测试中,科学家给受试者提供了三个数据点-A、AAA和AAAAA-被试必须向后工作来确定顺序的规则-也就是实验者试图用例子传达的内容。在这种情况下,人体主体可能很快就会确定所有的数据点都有奇数的AS,因此规则是数据点必须有奇数的AS。
但是,在确定某些规则的概率的过程中,还有更多的内容。在这种情况下,认知科学家将我们的思维过程建模为贝叶斯推理-一种将新证据与先前的信念结合起来以确定一个假设(或规则)是否正确的方法。
作为文字合成器,计算机只能进行有限版本的贝叶斯推断。他们考虑这些例子与假设规则的一致性,但是他们没有考虑这些例子在假设规则中的代表性。具体来说,文字合成器只能推理那些没有以有限方式呈现的示例。考虑到数据集A、AAA和AAAAA,计算机可能会从逻辑上得出这样的结论:所有东西都必须有字母A。这条规则与示例字面上是一致的,但它不能表示或捕捉实验者的想法。相反,人类受试者理解实验者故意省略偶数例aa和aaa,并据此确定规则。
通过研究人类如何使用贝叶斯推理,科学家正在努力提高计算机识别信息的能力-比如“我喜欢你论文的某些部分”或“尽可能多地拾起污垢”这句话是有意选择的,以传达超出字面意义的信息。他的目标是制造一种具体的工具-一种实用的合成器-人们可以用它与计算机进行更有效的交流。
计算机与人之间的沟通差距是人工智能安全的核心问题之一,希望实用合成器有助于缩小这一差距。如果人工智能更深入地解释人们对他们说的话,他们就会更有效地创造我们想要的有益结果。