【财新网】因一封新的公开信,人工智能再陷舆论漩涡。5月30日,人工智能安全中心(Center for AI Safety)发表公开声明,呼吁防范人工智能的生存风险,应该与流行病和核战争等其他大规模风险一样,成为全球优先议题。超过370名AI科学家和AI领袖已在声明上签名并表达支持,其中包括“深度学习三巨头”中的两位、杰弗里·辛顿(Geoffrey Hinton)与约书亚·本吉奥(Yoshua Bengio),OpenAI CEO萨姆·奥尔特曼(Sam Altman)、联合创始人伊尔亚·苏茨克维(Ilya Sutskever)和约翰·舒尔曼(John Schulman),以及清华大学教授张亚勤、助理教授詹仙园、中科院自动化所研究员曾毅研究员等。
这份短短的公开信着重对人工智能的风险性进行了强调,将其与流行病、核武器的风险进行对标。被称为“深度学习之父”的辛顿表示,AI技术发展的速度已经超过了自己曾经的预期,担心AI可能是对人类生存的威胁,而且威胁或比气候变化更为紧迫。