首页 / 资讯中心 / 交通百科/如何看待我们和人工智能的关系

如何看待我们和人工智能的关系

发布时间:2018-07-09 分类:交通百科

谈到人工智能的未来,有两种观点:

乌托邦观点:人工智能将迎来一个新的启蒙时代,在这个新时代里,人类不再工作,而是追求更崇高的目标。未未系统将被规划来治疗疾病,公平地解决争端,并且只以有益于我们的方式来增加我们人类的存在。

世界末日的观点是:人工智能将窃取我们的工作,在进化上超越人类,成为战争机器,并将遥远的未来置于当前的需求之上。我们难以控制的努力只会暴露出我们自身的缺点和将道德应用于我们无法控制的技术的能力的低下。

人工智能

和大多数事情一样,真相可能介于两者之间

不管你落在这个光谱的什么位置,重要的是要考虑随着技术的发展,人类应该怎样影响人工智能。一种观点认为,人类将在很大程度上形成人工智能的良心或道德结构。但我们要怎么做呢?我们怎样才能把伦理运用到人工智能中来帮助防止最坏的事情发生呢?

人与人工智能的关系

深度学习系统的力量在于它们决定自己的参数或特征。只要给他们一个任务或目标,指向他们的数据,他们处理其余的。例如,SAS可视化数据挖掘和机器学习中的自动汇总功能可以为自己找出最佳结果。但人仍然是整个过程中最关键的部分。

虽然未来的人工智能系统也可能能够收集他们自己的数据,但大多数当前的系统依靠人来提供输入参数,包括数据和最佳结果,这是通过学习定义类强化学习确定的。当您要求算法找出实现该结果的最佳方法时,您不知道机器将如何解决该问题。你只是知道它会比你更有效率。

鉴于目前人类和人工智能之间的这种关系,我们可以采取一些步骤,从道德上更好地控制人工智能项目的结果,让我们从这三个开始。

人工智能伦理的第一步:提供最好的数据

人工智能算法是通过一组用于通知或构建算法的数据来训练的。如果您的算法是将鲸鱼识别为马,显然您需要提供更多关于鲸鱼(和马)的数据。同样,如果您的算法是将动物识别为人类,则需要提供更多关于更多不同人类集合的数据。如果你的算法做出了不准确或不道德的决定,这可能意味着没有足够的数据来训练模型,或者学习强化不适合预期的结果。

当然,也有可能是人类在不知不觉中通过有偏见的数据选择或错误分配的强化值向系统注入了不道德的价值。总之,我们必须确保我们提供的数据和输入为算法绘制了完整和正确的图片。

人工智能伦理的第二步:提供适当的监督

为所有人工智能项目建立一个有明确所有者和利益相关者的治理系统。定义哪些决定你将自动与人工智能,哪些将需要人的投入。对过程中的所有部分分配责任,对人工智能错误负责,并为人工智能系统的开发设置明确的边界。这包括定期监测和审计算法,以确保偏见不会悄悄进入,而且模型仍按预期运作。

无论是数据科学家还是一位敬业的伦理学家,都应该有人负责人工智能的政策和协议,包括遵守规则。也许有一天,所有的组织都会建立一个首席人工智能伦理学家的角色。但是,无论标题如何,都必须有人负责确定输出和性能是否在给定的道德框架内。

就像我们一直需要治理、可跟踪性、监视和标准分析的改进一样,我们也对人工智能也是如此。然而,人工智能的影响要大得多,因为机器可以开始问题,自己定义答案。

人工智能伦理的第3步:考虑新技术的影响

为了让个人执行政策,这项技术必须允许人类做出调整。人类必须能够选择和调整训练数据,控制数据源,并选择数据转换的方式。同样,人工智能技术应该支持健壮的治理,包括数据访问和在算法不正确或在道德定义的边界之外操作时对算法进行指导的能力。

没有办法用人工智能来预测所有可能的场景,但重要的是要考虑到可能性,并为正面和负面的强化设置控制。例如,引入新的、甚至相互竞争的目标可以奖励符合道德的决定,并将不道德的决定认定为错误或被误导。一个人工智能系统被设计成对质量和效率给予同等的重视,将产生不同的结果,而不是一个完全集中在效率上的系统。此外,设计一个具有若干独立和相互冲突的目标的人工智能系统可能会增加该系统的问责制。

不要回避人工智能伦理

人工智能可以提高汽车安全和诊断癌症-但它也可以选择巡航导弹的目标。所有人工智能能力都有相当大的伦理影响,需要从多个角度加以讨论。我们如何确保人工智能的道德体系不被滥用?

上面的三个步骤只是一个开始。他们将帮助你开始关于为你的组织制定道德人工智能指导方针的艰难对话。你可能不愿划清这些道德界限,但我们不能回避这场对话。所以别等了。现在就开始讨论,这样您就可以确定边界,如何执行它们,甚至在必要时如何更改它们。