首页 / 资讯中心 / 交通百科/人工智能自主学习和事故

人工智能自主学习和事故

发布时间:2018-10-10 分类:交通百科

近年来,随着科技产业的不断发展,STEM培训和研究在学校的重要性日益凸显。然而,谷歌和斯坦福之前传出的消息,让人们有理由相信,未来的希望可能会出现在书本上。

人工智能

为了开发出更好的语言识别软件,谷歌自然语言理解研究小组的研究人员训练了他们的深层神经网络,以预测一个作者在给定一些输入的情况下会写的下一个句子。研究小组使用了古腾堡计划上的经典文献,最初,他们给程序提供了句子,但没有对应的作者ID,程序能够以12.8%的错误率预测接下来的句子是什么。当将作者ID输入系统时,错误率降至11.1%。

然后,球队加大了赌注。使用写作样本和作者ID,研究人员让该程序应用梅耶斯·布里格人格测试来确定作者的人格特征。最终,这种类型的机器学习可以使人工智能更好地理解语言和人类的本性。不过,就目前而言,正如团队在他们的博客上解释的那样,该计划“可以帮助推出的Gm人工智能l收件箱中的智能回复功能提供更个性化的回复选项。”

与此同时,在斯坦福大学,另一组研究人员正在使用现代书籍来帮助他们的人工智能系统程序奥古尔理解人类的日常活动。

正如研究小组在他们的论文中解释的那样,AI人工智能不能在没有人工输入的情况下预测日常需求(例如,什么时候煮一壶咖啡,或者什么时候因为我们在睡觉而关闭电话)。他们认为,这是因为对于任何一个人来说,手工编程都有太多的日常琐碎任务和需求。相反,他们“通过分析超过10亿字的现代书籍来证明挖掘人类行为的广泛知识基础是可能的。

在其他新闻中,也许可以将从虚构中学习人类行为的机器开发应用到谷歌无人驾驶汽车等系统中,谷歌无人驾驶汽车承认对一次事故负有部分责任。谷歌的汽车行驶了100多万英里,发生了大约17起事故,然而,在其他情况下,这都是人类驾驶另一辆汽车的错误,或者是谷歌的一名员工驾驶谷歌汽车时发生的。

这起特殊事故的发生是因为谷歌汽车没有正确地预见到后面一辆公交车的行动,汽车轻微转向,以避开路上的障碍物,公共汽车的一侧撞上了汽车。在当时,驾驶方向盘的谷歌测试司机认为巴士会屈服,而巴士司机可能认为谷歌汽车会向巴士屈服。

这起事故提出了一个值得思考的有趣问题:对于自主系统所犯的罕见错误,人类会有多大的容忍度?正如我们在过去提到过的,如果自动驾驶汽车将美国每年32000的交通死亡人数减少一半,汽车制造商将得不到16000张感谢信,但会收到16000起诉讼,我们还会继续研究下去吗?