Timnit Gebru的实际论文可以解释为什么Google拒绝了她

手机 2020-12-12 16:52:45

由前谷歌人工智能伦理学家蒂姆尼特·格布鲁(Timnit Gebru)合着的一篇论文给谷歌提出了一些潜在的棘手问题,即人工智能语言模型是否可能太大,以及科技公司是否正在尽力减少潜在风险。该论文还质疑大型语言模型的环境成本和内在偏见。

Google的AI团队在2018年创建了这样的语言模型BERT,该模型是如此成功,以至于该公司将BERT纳入了其搜索引擎。搜索是Google业务中利润丰厚的部分;仅在今年第三季度,它就带来了263亿美元的收入。“今年,包括本季度在内,显示了Google的创始产品-搜索对人们的价值,”首席执行官Sundar Pichai在10月的一次投资者电话会议上说。

Gebru和她的团队提交了他们的论文,题目为“关于随机鹦鹉的危险:语言模型会变得太大吗?”参加研究会议。她在周三发布的一系列推文中说,经过内部审核,她被要求撤回该论文或从中删除Google员工的姓名。她说,她向Google询问了取消其名字的条件,如果他们不符合条件,则可以“在最后日期工作”。Gebru说,她随后从Google收到一封电子邮件,通知她“正在接受她的辞职立即生效”。

Google AI负责人Jeff Dean在给员工的一封电子邮件中写道,该论文“没有达到我们的出版标准。”他写道,Gebru继续在Google工作的条件之一是,公司要告诉她,谁审查了该论文及其具体反馈,但拒绝这样做。“蒂姆尼特写道,如果我们不满足这些要求,她将离开Goog​​le并在结束日期工作。我们接受并尊重她从Google辞职的决定。” Dean写道。

迪恩(Dean)在信中写道,该论文“忽略了太多相关研究”,声称该论文的合著者,华盛顿大学计算语言学教授艾米莉·本德尔(Emily M. Bender)对此提出了质疑。班德告诉《麻省理工科技评论》,该论文有六个合作者,是“没有个人甚至一对作者可以从事的工作”,并指出该论文引证了128个参考文献。

Gebru因其在算法偏差方面的工作而著称,尤其是在面部识别技术方面。在2018年,她与Joy Buolamwini合着了一篇论文,该论文表明识别肤色较深的人的错误率比识别肤色较浅的人的错误率高得多,因为用于训练算法的数据集绝大多数是白人。

格布鲁在周四发表的一次采访中对《连线》杂志说,她觉得自己正在受到审查。她说:“您不会有让公司一直开心的论文,也不会指出问题。”“这与成为那种研究者的含义是相反的。”

自从她被解雇的消息公开以来,数千名支持者,包括1,500多名Google员工,都签署了抗议信。“请我们签名,与蒂姆尼特·格布鲁(Timnit Gebru)博士一脉相承,蒂姆尼特·格布鲁(Timnit Gebru)博士在史无前例的研究审查制度下被任命为Google的研究人员和伦理人工智能(AI)联合小组的负责人。”标题为与Timnit Gebru博士站在一起。

“我们呼吁Google Research加强其对研究完整性的承诺,并明确承诺支持符合Google AI原则所作承诺的研究。”

请愿者要求Dean和其他人“参与审查Gebru博士论文的决定,并与道德AI团队会面,以解释领导单方面拒绝论文的过程。”

Google周六没有立即回应置评请求。

郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如作者信息标记有误,请第一时候联系我们修改或删除,多谢

最新文章