首页 / 资讯中心 / 交通百科/安全的人工智能可以从协作开始

安全的人工智能可以从协作开始

发布时间:2018-09-18 分类:交通百科

研究文化原则:应该在人工智能的研究人员和开发人员之间培养一种合作、信任和透明的文化。

竞争和保密只是做生意的一部分,即使在学术界,研究人员也常常将自己的想法和即将出现的发现保存起来,直到赠款或出版物最后确定为止。但有时,即使是竞争对手和研究实验室也在一起工作,对于组织来说,为了解决问题和解决挑战而进行合作,否则会导致重复成本和浪费时间,这种情况并不少见。

人工智能

这种友好的行为有助于团体更有效地解决监管问题,制定标准,并分享安全方面的最佳实践。尽管这些公司或研究实验室-无论是在ai人工智能领域还是任何其他领域-在某些问题上进行合作,他们的目标仍然是第一个开发新产品或做出新发现。

像人工智能这样的新技术,如何在合作确保安全和单独保护新想法之间划清界限?由于研究文化原则没有区分人工智能安全合作和人工智能系统开发,从与我讨论这一原则的人工智能研究人员和伦理学家的反应来看,它可以得到广义的解释。

必要的第一步

在早期阶段,它是关于创造一个共同的理解,有益的人工智能需要一个积极的承诺,使其结果为每个人都好,这不是默认的道路。为了确保这种权力在成熟时得到很好的利用,我们需要有一种文化,一套规范,一套期望,一套有利于好结果的制度。这就是我们要做的-让人们聚在一起,并致力于以一种互利的方式指导人工智能,否则任何人都会有强烈的动机去做其他事情。

这将是一个非常友好的原则,但它可以更好地在大学里发挥作用,因为在大学里,没有和工业界一样的竞争优势概念。大学也是能很好的培养研究人员之间的合作与信任…如果没有合作,我们都不会有任何进展,因为我们不会孤立地做事情。因此,我相信这种研究文化的想法不仅适用于人工智能-也希望它适用于人们所研究的许多学科。

但不幸的是,可能有一些组织,包括政府,不遵循透明和合作的原则。重要的是我们制定了指导方针,并以制定其他人认为他们需要遵循的规范为目标,那就是提醒大家注意人工智能的安全,这一点非常重要。

什么是合作、信任和透明的文化?

合作、信任和透明的文化是什么意思?自然会有两极分化的可能,在(道德)或风险或法律合规方面,他们认为技术人员可能没有考虑到某些问题。这是我们推进我们的工作所真正需要的信息时,你就会建立起合作、信任和透明的文化。我们怎样才能知道你需要更多什么,这样我们才能用这些问题很好地解决这个问题?这个原则是伟大的,但下一句话应该是:给我下一个步骤,使之成为现实。

团结一个支离破碎的社区

建立一个有凝聚力的合作文化会在很多事情上有所帮助,这将有助于加速研究和避免种族冲突,但我看到的人工智能社区的大问题是,没有人工智能社区,它是支离破碎的,它是一个科学怪人缝合在一起的各种社区。你有程序员,工程师,机器人专家;你有数据科学家,甚至不清楚什么是数据科学家。他们是从事统计学或经济学的人,还是工程师,还是程序员?…没有凝聚力的身份,这将是一个巨大的挑战,创造一个有凝聚力的文化,合作和信任,是透明的,但这是一个有价值的目标。

贯彻原则

人工智能研究界在合作、信任和透明度方面已经有了相当显著的规范,从NIP、AAAI和IJCAI的活跃气氛,到学术界、产业界和非政府组织之间越来越多的研究合作(无论是在项目方面还是在多个职位持有人方面),再到整个人工智能研究领域中不回避指出不良做法或违反规范的丰富博客社区,都有相当多的规范。

工业人工智能实验室公开出版的承诺是值得赞扬的,而且似乎正逐渐成为一种规范,迫使历史上不太开放的公司公开他们的研究。坦率地说,对高端人工智能研究技能的需求意味着,无论是个人还是群体,研究人员都可以对自己的工作环境提出强烈要求,从工资和零食等实际问题,到开放和项目选择的规范性问题。

人工智能研究中强烈的个人主义也表明,促进长期有益人工智能合作的方式将是与既有研究人员和培训研究人员讨论潜在风险,并培养责任感和对未来的监护。我们已经看到,一群见多识广、有道德观念和积极主动的研究团队,将能够将最佳实践奉若神明,并让他们的雇主和同事遵守有益人工智能的准则。

你怎么看?

随着诸如人工智能合作伙伴关系的形成,有可能我们已经看到工业和学术界开始朝着合作、信任和透明的方向前进的迹象了。但这就足够了吗?还是世界各国政府必须加入进来?总体而言,人工智能公司和研究实验室如何在不牺牲自己的想法和产品的情况下,确保共享必要的安全研究成果?