首页 / 资讯中心 / 交通百科/人工智能系统中关键术语的解析

人工智能系统中关键术语的解析

发布时间:2018-09-29 分类:交通百科

人工智能系统领域的许多研究人员担心人工智能系统发展的潜在短期后果,然而,想要考虑更先进人工智能系统的长期风险的人要少得多。为什么?要开始回答这个问题,它有助于我们更好地理解在未来5-10年里人工智能系统可能会出现的潜在问题,这将有助于我们更好地理解人工智能系统在未来5-10年的发展过程中可能会遇到的潜在问题。有助于更好地理解实际研究人员对人工智能系统安全性的担忧,而不是经常在媒体上提起的担忧。我们想要了解人工智能的信息,首先应该收料一些ai人工智能中的术语。

人工智能

如果您还没有接触或了解人工智能系统,以下术语可能会有所帮助:

人工智能:一种能学习执行认知任务的机器或程序,类似于人脑完成的任务。通常情况下,程序,或代理,被期望能够以某种方式与真实世界互动,而无需其创建者的持续监督。MicrosoftOffice被认为是一个计算机程序,因为它只会执行编程后的操作。Siri被大多数人认为是一个非常低级的人工智能系统,因为它必须适应周围的环境,对各种各样的所有者做出响应,并理解各种各样的请求,而不是所有的请求都可以事先编写好程序来处理。

人工智能系统水平有以下几个方面:

窄人工智能系统:这是一种只能执行特定任务的人工智能系统。Siri可以在搜索引擎上查找任何信息,但不能写书或开车。谷歌的自动驾驶汽车可以带你到你想去的地方,但他们不会做饭。AlphaGo可以击败世界上最好的围棋玩家,但它不能玩大富翁或研究癌症。这些程序中的每一个都可以做得和人类一样好,或者比人类更好,但是它们没有达到人类所拥有的能力的广度。

短期人工智能系统关注:最近人工智能系统发展的增长让许多研究人员担心未来5-10年可能会出现的一些问题。增加自主权将影响就业市场,并可能造成收入不平等。偏见,如性别歧视和种族主义,已经出现在一些节目中,人们担心这可能会加剧,因为人工智能系统变得更有能力。许多人想知道,在系统向公众发布之后,我们如何才能确保对系统的控制,就像微软的聊天机器人Tay(Chatbot Tay)的问题所显示的那样。透明度是人们经常提到的另一个问题,随着人工智能系统学会适应他们的环境,他们会修改程序以提高效率和准确性,而且跟踪人工智能系统为什么采取了一些行动也将变得越来越困难,这些是较普遍提到的一些关切,但还有许多其他关切。

高级人工智能系统和人工智能系统(AGI):随着人工智能系统程序扩展其能力,它将被认为是先进的。一旦它在能力和广度上达到了人类水平的智能,它就会被认为是普遍的智能。

长期的人工智能系统担忧:目前的预期是,我们可能在未来10至30年内开始看到更先进的人工智能系统。在大多数情况下,对长期人工智能系统的关注与对短期人工智能系统的关注类似,只是随着人工智能系统的发展,由此产生的问题可能更具破坏性、破坏性和/或破坏性。

超智能:在所有领域都比人类聪明的人工智能系统。

Agent:具有某种程度的人工智能系统能力的程序、机器或机器人,可以在模拟的环境或现实世界中自主行动。

机器学习:人工智能系统研究的一个领域,关注于智能体如何从环境、经验和交互中学习,以提高其功能和执行指定任务的能力。有了机器学习,人工智能系统将适应它的环境,而不需要额外的编程。例如,AlphaGo从一开始就没有被编程为比人类更好,它的程序员都不擅长围棋,无法与世界上最优秀的人竞争。相反,它被设计成玩很多围棋游戏,目的是赢得比赛。每赢一场或输一场,它就会学到更多关于如何在未来取胜的知识。

培训:这些是机器学习程序必须经过的迭代,以便通过调整程序的设置来学习如何更好地实现其目标。在AlphaGo的情况下,训练包括反复地玩。

神经网络和深层神经网络:神经网络是受动物中枢神经系统处理信息方式的启发而产生的程序,特别是在模式识别方面。这些是机器学习算法中的重要工具,可以帮助人工智能系统处理并从接收到的信息中学习,深层神经网络具有更多的复杂性。

强化学习:类似于训练狗,代理在其培训的每一次迭代中都会收到正反两方面的反馈,这样它就可以了解哪些行为应该寻找,哪些应该避免。

目标功能:这是人工智能系统程序的目标(它也可以包括子目标)。再次以AlphaGo为例,主要目标函数将是赢得围棋游戏。

奖励黑客:当人工智能系统想出一种不受欢迎的方式来实现它的目标或目标功能时。例如,如果你告诉机器人清理它看到的任何垃圾,它可能会把所有的垃圾都扔掉,这样它就看不到它们了。

可伸缩的监督:培训代理人自己解决问题,而不需要人的持续监督。

安全探索:训练代理人安全地探索其周围环境,不伤害自己或他人,也不引发一些可能难以恢复的负面结果。

对分布变化的鲁棒性:训练代理适应新的环境,并了解环境何时发生了变化,这样它就知道要更加谨慎。