财新传媒
环科 > 要闻 > 正文

谷歌科学家:对大规模数据集“投毒”已成现实威胁

文|财新 周芊岍(实习),徐路易
2023年07月08日 08:00
谷歌DeepMind研究科学家尼古拉斯·卡里尼介绍,他们的测试表明,仅仅针对0.1%的数据集,就可以实现“后门投毒”。也就是说数据集拥有者仅需要对数据集进行一小部分的改变,就可以获得对机器学习模型的控制权
在7月7日于上海举办的世界人工智能大会人工智能风险与安全分论坛上,谷歌DeepMind研究科学家尼古拉斯·卡里尼(Nicholas Carlini)提醒大家,一些科学家们只用于学术层面上测试的安全攻击,已经成为了实际环境中的现实威胁。资料图:尼古拉斯·卡里尼(Nicholas Carlini)。图:尼古拉斯·卡里尼个人社交网络

  【财新网】“大规模数据集的投毒攻击,确实是可以在现实中实施的威胁,它能够对我们现在使用的模型产生重大的影响。”在7月7日于上海举办的世界人工智能大会人工智能风险与安全分论坛上,谷歌DeepMind研究科学家尼古拉斯·卡里尼(Nicholas Carlini)提醒大家,一些科学家们只用于学术层面上测试的安全攻击,已经成为了实际环境中的现实威胁。

  数据投毒是一种经典的攻击形式,攻击者将少量中毒样本添加到模型的训练数据集,使得模型在训练过程中“中毒”,破坏模型的可用性或完整性。卡里尼提出,当前机器学习界的一个很大问题是,机器学习研究通常只关注攻击的潜在影响,而不是它在实际应用中的可能性。因此,研究者更多在关心对手能够实现的最终目标,而不是对手如何真正实现这一目标。“我们以前认为这些攻击可能只是研究人员喜欢玩的学术恶作剧,但机器学习界真的需要关注所有这些安全攻击,并尝试理解什么是真正可以在实践中实施的实际威胁。”

  推荐进入财新数据库,可随时查阅宏观经济、股票债券、公司人物,财经数据尽在掌握。

责任编辑:冯禹丁 | 版面编辑:王永
推广

财新网主编精选版电邮 样例
财新网新闻版电邮全新升级!财新网主编精心编写,每个工作日定时投递,篇篇重磅,可信可引。
订阅