研究中的小诡计凸显了人工智能的缺陷

人工智能 2020-03-16 14:11:39

近几年,数十亿美元的资金被用于全球范围内发展人工智能,并将人工智能定位为一种能够重新定义多个行业的强大技术。

这些努力中的一些可能会被一小块黑色胶带破坏吗?

最近的一项实验强调了新兴人工智能系统的脆弱性。 麦克阿菲的研究人员欺骗了一个配备了交通工具巡航控制的特斯拉,使其误读限速标志,然后加速以匹配错误的读数。

他们改变了一个35英里每小时的速度限制标志,通过拉长中间部分的“3”与一块黑色胶带。 这一调整使特斯拉的计算机视觉算法误认为“3”是“8”。

目前,这可能是一个轻微的问题。 欺骗系统是驱动辅助功能的一部分。 人类仍然监督-并保留对车辆操作的所有责任。 但当类似的算法控制自动驾驶系统的动作时,这并不是一个遥远的飞跃,这不仅预示着特斯拉的麻烦,而且预示着整个行业的麻烦。

杜克大学教授、该校人类与自主实验室和杜克机器人研究所主任米西·卡明斯说,麦克阿菲的研究只是人工智能系统中“脆性”的最新表现。 她说,机器学习是人工智能的一个子集,在这种情况下用来训练计算机视觉算法,如特斯拉的算法,还不是那么聪明。

她说:“这里没有学习。 “如果我们的意思是我看到了一组关系,然后我可以把它推断到其他关系,我就称之为学习。 所有机器学习所做的就是识别并做出并不总是正确的联想。”

提供可能对安全操作有益或关键的上下文信息是人工智能努力的一个领域。 它还不能推理或适应不确定的情况。

卡明斯说:“一个人驾驶的人会看到中间的3号,知道有什么东西出了问题。” “你会说‘上帝,这是个可怕的新设计。 我不知道DOT在想什么? 或者如果你在市区看到一个每小时85英里的限速,你就会知道孩子们一直在胡闹。 你应该知道,车速限制仍然是35。”

这个月,她发表了自己对机器学习缺点的研究。 在她的论文“重新思考人工智能在安全关键环境中的成熟”中,她认为,虽然人工智能有帮助人类操作系统的希望,但这不应被误认为是人工智能取代人类的能力。

这样一个结论是在一个关键的交界处得出的。 汽车工业已经停止了销售主动系统,可以声称驾驶责任从人类。 事实上,已经有大量强化的司机辅助系统进入市场,如特斯拉的自动驾驶仪。 但是,人类责任和计算机责任之间的分界线是橡胶满足现实的地方。

正如卡明斯所说,问题的一部分在于机器学习“教”自己的方式。 这些系统必须摄取大量的数据,这些数据通常必须由人类标记。 除非一个系统看到某一特定场景的每一个可想象的排列-例如,数字3上的一条拉长的中线-否则很难保证任何系统都没有风险。 光线暗淡。 一种灌木,遮住了完整的标志。 少了一块牌子。 行人骑自行车过马路. 各种变量可能会混淆一个系统,该系统已经训练了有限的场景。 准备推出自动驾驶系统的公司可能会说,他们只需要更多特定条件的例子来训练他们的系统。

卡明斯在杜克大学的论文中写道:“虽然这是一个答案,但它提出了这样一个问题,即这种戴手指的工程有多少是实用的,甚至是可能的。”

这种“自下而上的推理”需要大量来自摄像机的数据,这种推理可能在受控环境中很好地工作,但它仍然是在交通等安全关键领域使用机器学习来理解计算机视觉的障碍。

对机器学习成熟度的担忧引发了更广泛的问题,即软件如何在运输领域实现,在运输领域,任何漏洞都可能带来致命后果。 卡明斯说,两起涉及波音737MAX的致命撞车事件清楚地提醒人们,当不成熟的软件被集成到成熟的硬件中时,会发生什么。

随着国会重新开始努力通过立法,为自动驾驶车辆集体上路铺平道路,卡明斯说,立法者认识到人工智能的缺陷是很重要的。 麦克阿菲的研究可能提供一个突破的时刻。

“大家都知道,”她说。 你可以阅读任何关于对抗性机器学习的论文。 但对于那些觉得我们在立法上进展太快的人——我也是其中之一——这将是一个很好的例证。 我确实认为这会产生效果。”

郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如作者信息标记有误,请第一时候联系我们修改或删除,多谢