首页 / 资讯中心 / 交通百科/如何防范ai人工智能的恶意使用?

如何防范ai人工智能的恶意使用?

发布时间:2018-09-10 分类:交通百科

我们如何预测、预防和(必要时)减轻恶意使用ai人工智能的有害影响?

人工智能不仅改变了现有威胁的性质和范围,而且扩大了我们将面临的威胁范围。他们对人工智能的许多有益的应用感到兴奋,包括它将协助防御能力的方式。但是,蓄意恶意使用人工智能造成的安全威胁的情况也是很严重的。

人工智能

我们的侧重点在于人们利用人工智能进行蓄意伤害的方式,人工智能可能在网络、物理和政治安全方面构成新的威胁,或改变现有威胁的性质。我们需要认识到这些风险,并采取措施加以管理,因为技术正在以指数级的速度发展。

人工智能系统往往比传统工具效率更高,可扩展性更好。此外,使用人工智能可以增加一个人对所采取行动的匿名性和心理距离,有可能降低犯罪和暴力行为的障碍。此外,人工智能系统有其自身独特的漏洞,包括来自数据中毒的风险,对抗性的例子,以及利用其设计中的缺陷。启用人工智能的攻击将超过传统的网络攻击,因为它们通常会更有效,目标更精确,更难以确定。

我们需要准备的攻击种类并不限于复杂的计算机黑客,主要存在三个安全领域:

1、数字安全:主要涉及网络攻击;

2、实体安全:指用无人机和其他物理系统进行攻击;

3、政治安全:包括监视、通过有针对性的宣传进行说服以及通过操纵视频进行欺骗。这些域有很大的重叠,但该框架对于识别不同类型的攻击、攻击背后的原理以及可用于保护我们自己的各种选择都很有用。

可以做些什么来为恶意使用人工智能跨这些领域做准备?可能是研究人员和决策者探索未来和集思广益的好方法,以管理最关键的威胁。例如,想象一个商业清洁机器人被改造成一个不可追踪的爆炸装置可能会吓到我们,但它也说明了为什么像机器人注册要求这样的政策可能是一个有用的选择。

每个领域也有自己可能的控制点和对策,例如,为了提高数字安全,公司可以提高消费者的意识,并鼓励白帽黑客发现代码中的漏洞。我们还可以向网络安全界学习,并采用一些措施,如人工智能开发中的红色团队、人工智能系统中的正式验证,以及负责任地披露人工智能漏洞。为了改善实体安全,政策制定者可能希望监管硬件开发,并禁止销售致命的自主武器。同时,媒体平台可以通过提供图像和视频真实性认证、假新闻检测和加密来最大限度地减少对政治安全的威胁。

这里提出四项建议,目的不是提供具体的技术或政策建议,而是提前注意值得进一步调查的领域。这些建议如下

1、决策者应与技术研究人员密切合作,调查、预防和减少人工智能的潜在恶意用途。

2、人工智能领域的研究人员和工程师应认真对待其工作的双重用途性质,允许与滥用有关的考虑影响研究优先事项和规范,并在可预见有害应用时主动接触相关行为者。

3、在研究领域找出最佳做法,采用更成熟的方法解决双重用途问题,如计算机安全问题,并在适用于人工智能的情况下引入最佳做法。

4、积极寻求扩大参与讨论这些挑战的利益攸关方和领域专家的范围。

最后是向网络安全界学习并与之合作,因为随着基于人工智能的系统变得更加广泛和有能力,网络安全事件的影响将不断扩大。其他研究领域包括探索不同的开放模式,在人工智能研究人员中促进责任文化,以及开发技术和政策解决方案。

恶意使用人工智能将影响我们如何构建和管理我们的数字基础设施,以及我们如何设计和分发人工智能系统,并可能需要政策和其他机构的回应。虽然这只是对人工智能将如何影响全球安全的必要理解的开始,但将推动讨论向前推进。