首页 / 资讯中心 / 交通百科/如果人工智能系统可以是“人”,他们应该有什么权利?

如果人工智能系统可以是“人”,他们应该有什么权利?

发布时间:2018-09-30 分类:交通百科

公司的成立并被赋予某些权利,是因为社会认为这样做在经济和社会上都是有益的。当然,在这方面已经有了很大的回击。法律界内外的许多人都在问,我们是否赋予了企业太多的权利,并把它们当作人来对待。那么,如果我们决定将人工智能系统作为某种意义上的“法人”对待,我们应该赋予它们什么权利和责任呢?

人工智能

这在一定程度上是因为企业人格的概念多年来已被证明是如此可塑性,即使公司是法律世界中最古老的人造“人”的例子,我们仍然没有坚定地决定公司应该拥有什么权利和责任。事实上,我能想到的法律“人格”的基本规则只有一条:从法律意义上讲,“人格”至少要求有起诉的权利和被起诉的能力。除此之外,“人格”的含义已经被证明是相当灵活的。这意味着,在很大程度上,我们应该能够在逐项权利和逐项责任的基础上决定ai人工智能人的概念所包含的权利和责任。

对于企业来说,产权和随之而来的责任是企业人格的核心,公司可以签订合同,但如果他们违反合同,也可以承担责任。他们可以拥有专利,但也可以因专利侵权而被起诉。是否应该将类似的财产权,不动产、知识产权还是其他资产授予人工智能系统?如果是这样的话,人工智能系统应该能够买卖这样的财产而不需要人类的同意吗?

如果人工智能的目标是鼓励更多的资金投入人工智能,那么这些问题的答案可能是“是的”。如果人工智能系统有自己的资产,就会有一个明显的资金来源,如果人工智能系统造成损害,受害者可以从中获得赔偿。但许多人可能会对人工智能系统感到不安,这些系统不仅执行金融和财产交易(电子系统已经在执行这些交易),而且自己拥有潜在的财产和金融资产。

从事言论自由,作出政治贡献的权利如何?公司显然没有能力进行字面意义上的“演讲”,但美国最高法院在“著名公民联合案”中坚定地认定,公司有权通过竞选捐款进行政治表达。而人工智能系统,不像企业,实际上能够进行文字(如果模拟的话)语言。16年3月,种族主义者Tay的滑稽举动表明,人工智能生成的演讲可能是冒犯性的,甚至是伤害性的。政府是否应该限制人工智能系统能够和不能说出的事情?或者,人工智能系统是否应该拥有人类一样的权利,在不受政府干预的情况下表达自己的观点?

或者这样说:人工智能系统应该得到宗教自由的保护吗?用宗教信仰来形容机器人听起来可能有些奇怪,但美国最高法院认为,非上市公司,即拥有少量所有者且不在股票市场上交易的公司,有权获得某种程度的宗教保护,至少从某种意义上说,这些公司不能被迫从事会违反其所有者和管理者宗教信仰的活动。

是否应该有类似的原则适用于人工智能系统?例如,制药业的人工智能系统是否有权拒绝发放避孕药具?谁应该有权设定人工智能系统的宗教信仰?设计这个系统的人?还是最终用户?应该允许人工智能设计者编写带有最终用户无法改变的宗教信仰的人工智能系统吗?

公司是一种理论结构,实际上只存在于纸面上。相比之下,人工智能系统实际上存在于物理世界中。没有人类代理人的帮助,公司就没有能力做任何事情。从定义上讲,一个自主的人工智能系统不受这些固有的限制。自动车辆、武器或电子交易系统的全部意义在于,它们可以在没有人类明确指示的情况下完成任务。

不幸的是,我们都不知道人工智能系统的自主性和实体存在的法律含义应该是什么。一方面,人工智能系统的自主性及其直接操纵物理世界的能力,引发了对人工智能人性化的问责问题,远远超过了围绕公司的已经很重要的问责问题。有了公司,我们总是可以让自己放心,即使公司在法律眼中是自己的“人”,人类也在拉动杠杆。如果我们承认以人工智能为基础的人,就不会有这样的保证,这可能意味着,我们希望对人工智能的人格化范围施加比企业人格化更大的限制。

另一方面,更大的自主性和物理存在的潜力使得人工智能系统看起来比公司更像人,这可能意味着我们应该给予人工智能系统比公司更多的权利。如果法律体系决定承认人工智能系统的某种形式的人格特征,那么看看这两种观点中哪一种观点占上风可能是一件他别疯狂的事情。