首页 / 资讯中心 / 交通百科/人工智能应该被监管吗?

人工智能应该被监管吗?

发布时间:2018-09-17 分类:交通百科

人工智能应该受到监管吗?可否加以规管?如果是这样,那么这些规定应该是什么样子的呢?

对于任何仍处于开发阶段的技术来说,这些都是难以回答的问题-像食品、制药、汽车和航空工业等行业的监管,通常是在糟糕的事情发生后才实施的,而不是在预期技术变得危险的情况下实施的。但人工智能发展得如此之快,人工智能技术的影响可能如此之大,以至于许多人不愿等待从错误中吸取教训,而是提前做好计划,积极主动地进行监管。

人工智能

在短期内,与自动驾驶汽车、人工智能和算法决策以及驱动社交媒体的“机器人”有关的问题需要决策者的关注,就像许多新技术一样。然而,从长远来看,人工智能可能对人类产生的影响涵盖了对人类的所有利益和风险,从可能发展出一个更加荒诞的社会,到人类文明可能的灭绝。因此,对于未来的监管者来说,这是一个特别具有挑战性的局面。

在人工智能领域,许多人已经在努力确保人工智能的发展是有益的,而不会对人工智能研究人员和开发人员造成不必要的限制。如果不将期望原则付诸实施,光是这些原则是不够的,还有一个问题仍然存在:政府监管和监督是否必要,以确保人工智能科学家和公司遵循这些原则和其他类似原则?

 对于AI的风险是什么,何时可能出现,以及AI是否会造成存在的风险,在人工智能研究人员之间存在分歧,但很少有研究人员认为AI不构成风险。即使在今天,我们也看到了狭隘的人工智能加剧歧视和失业问题的迹象,如果我们不采取适当的预防措施,我们可以预测问题会恶化,随着人工智能变得更加聪明和复杂,影响到更多的人。

许多人工智能研究人员签署了Asilomar原则-以及关于发展有益的人工智能和反对致命自主武器的公开信-表明研究人员之间有着强烈的共识,即我们需要做更多的工作来理解和应对人工智能的已知和潜在风险。

人工智能研究人员签署的一些原则与声明直接相关,包括:

1、科学-政策联系:人工智能研究人员与决策者之间应进行建设性的、健康的交流。

2、研究文化:应该在人工智能的研究人员和开发人员之间培养一种合作、信任和透明的文化。

3、矛盾回避:开发ai人工智能系统的团队应积极合作,避免在安全标准上出现拐角。

4、重要性:先进的人工智能可代表地球生命历史上的深刻变化,应以相应的关怀和资源加以规划和管理。

5、风险:人工智能系统构成的风险,特别是灾难性或存在性风险,必须通过与其预期影响相称的规划和缓解努力。

正确的政策和治理解决办法有助于使人工智能的发展符合这些原则,并鼓励就如何实现这一目标进行跨学科对话。最近成立的人工智能合作伙伴组织,包括领先的人工智能行业参与者,同样支持有原则的人工智能发展理念-他们的创始文件指出,当人工智能工具被用来补充或取代人类的决策时,我们必须确保它们是安全的、值得信赖的,并与受其行为影响的人的道德和偏好保持一致。其所建议的,第一步应该是提高政府官员对人工智能影响的认识。例如,自动化车辆预计将导致数百万人失业,这将影响到几乎每一位参加会谈的州长(假设他们还在任),但这一话题很少出现在政治讨论中。

人工智能研究人员对人工智能在改善我们的健康和福祉方面的巨大潜力感到兴奋-这是正确的:这就是为什么他们中的大多数人首先加入了这一领域。但是对于AI可能的误用和/或糟糕的设计也有合理的担忧,特别是在我们走向高级和更通用的AI的时候。

因为这些问题威胁着整个社会,它们不能留给一小群研究人员去解决。至少,政府官员需要了解和理解人工智能如何影响他们的选民,以及更多的人工智能安全研究如何在这些问题出现之前帮助我们解决这些问题。

我们不应该把重点放在监管是好是坏,而应该通过帮助我们的决策者了解人工智能进展的现实和影响,为未来的建设性监管奠定基础。让我们扪心自问:我们如何才能确保人工智能对所有人都有好处?谁需要参与这一努力?