研究揭示了基于脑电图的脑 机接口的安全漏洞

科技 2020-03-10 14:27:25

脑-机接口(BCIs)是将人脑与电子设备连接起来的工具,通常使用脑电图(EEG)。近年来,机器学习(ML)的进步使得更先进的BCI拼写器的发展成为可能,这是一种允许人们用思想与计算机交流的设备。

到目前为止,这一领域的大多数研究都集中在开发更快、更可靠的BCI分类器,而不是研究它们可能的安全漏洞。然而,最近的研究表明,机器学习算法有时会被攻击者愚弄,无论它们是用于计算机视觉、语音识别还是其他领域。这通常是用对抗性的例子来完成的,这些例子是人类无法区分的数据中的微小扰动。

华中科技大学的研究人员最近进行了一项研究,调查了基于脑电图的BCI拼写的安全性,更具体地说,研究了它们如何受到对抗性干扰的影响。他们在arXiv上发表的论文表明,BCI的拼写者被这些干扰愚弄了,因此很容易受到对手的攻击。

“这篇文章的目的是揭露一个关键的安全问题,在基于eeg的BCI拼写器和更广泛的基于eeg的BCIs中,这在以前很少受到关注,”进行这项研究的研究人员之一吴东瑞告诉TechXplore。“这表明,人们可以为P300和稳态视觉诱发电位(SSVEP) spellers生成微小的对抗性脑电图微扰模板,用于目标攻击。,误导用户对攻击者想要的任何字符的分类,而不管用户想要的字符是什么。”

P300 BCI拼字机已经在包括诊所在内的多个环境中用于评估或检测意识障碍。因此,对BCI拼写器的攻击可能会产生许多后果,从简单的可用性问题到严重的病人误诊。

“我们相信,一个新的和更详细的了解对手性脑电图干扰如何影响BCI分类可以告知BCIs的设计,以抵御这种攻击,”吴解释说。

Wu和他的同事发现,要对BCI拼字机进行成功的对抗性攻击,攻击者只需要访问一些用于训练设备的数据。他/她可以使用这些数据来训练扰动模板,然后将该模板添加到良性脑电图试验中来执行攻击。

目前进行对抗性攻击的方法有两个主要限制。首先,他们需要一些特定受试者的脑电图样本来创建对抗扰动模板。第二,为了更有效地实施攻击,攻击者需要知道脑电图刺激的准确时间。如果攻击者成功地克服了这些限制,他/她的攻击的影响可能会大得多。

他说:“在计算机视觉、语音识别和BCIs等许多机器学习应用中,防御对抗性攻击是一个常见的研究问题。”“如果我们知道攻击者采取的方法,那么我们就可以制定防御策略,就像我们防御电脑病毒一样:病毒首先爆发,然后我们找到杀死它的方法。”

攻击者总是试图找到新的方法来绕过安全措施,所以研究人员继续研究系统漏洞并提出新的安全措施是很重要的。虽然在确定了特定的漏洞之后开发有针对性的安全解决方案是不可避免的,但是发现系统的一般问题并采取预防措施可能非常有用。

吴和他的同事进行的这项研究有助于揭示与基于脑电图的BCIs相关的一般安全风险。他们的发现可能有助于找出可能减少对抗性攻击对这些装置的影响的初步解决办法。

Wu和他的同事希望他们的研究能鼓励其他人去研究基于脑电图的拼写器或其他BCI设备的局限性和弱点。他们的发现可能最终为开发加强BCIs安全的技术铺平道路,防止误诊和对抗性攻击的其他不良影响。

吴说:“我们想强调的是,这项研究的目的不是要破坏基于脑电图的BCIs,而是要证明对基于脑电图的BCIs进行严重的对抗攻击是可能的,从而暴露出一个此前很少受到关注的关键安全问题。”“在我们未来的研究中,我们计划制定战略来抵御这种攻击。同时,我们希望我们的研究能够引起更多研究者对基于脑电图的BCIs安全性的关注。”


郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如作者信息标记有误,请第一时候联系我们修改或删除,多谢