财新传媒
环科 > 要闻 > 正文

24位顶尖学者呼吁将至少1/3的AI研发资金用于确保安全

文|财新 徐路易,李子璇(实习)
2023年11月01日 12:58
联名文章强调,先进的人工智能系统有可能带来重大的社会风险。如果不仔细设计和部署这些系统,可能会加剧社会不公正,侵蚀社会稳定,削弱人们对现实的共同理解,还可能促成大规模犯罪或恐怖活动
据清华大学人工智能国际治理研究院,该论文代表顶尖人工智能学者就政府应如何应对人工智能风险达成的首次共识,同时也是迄今为止来自广泛专家群体对此问题提出的最具体和全面的建议。图:IC photo

  【财新网】24位全球顶尖的人工智能学者首次就如何应对人工智能(AI)风险达成共识。近日,一篇不到三页半的共识文章《AI飞速发展时代的风险管理》(Managing AI Risks in an Era of Rapid Progress)在预印本平台ArXiv上公开发表。论文作者包括三位图灵奖得主杰弗里·辛顿(Geoffrey Hinton)、约书亚·本吉奥(Yoshua Bengio)和姚期智、诺贝尔经济学奖得主丹尼尔·卡尼曼(Daniel Kahneman),中国作者包括清华大学智能产业研究院院长张亚勤、清华大学苏世民书院院长薛澜、华东政法大学法学院院长高奇琦等,此外还有来自美国、欧盟、英国等国家和地区的10多位顶尖的人工智能技术和治理领域的学者。

  推荐进入财新数据库,可随时查阅宏观经济、股票债券、公司人物,财经数据尽在掌握。

责任编辑:冯禹丁 | 版面编辑:李东昊
推广

财新网主编精选版电邮 样例
财新网新闻版电邮全新升级!财新网主编精心编写,每个工作日定时投递,篇篇重磅,可信可引。
订阅