财新传媒
环科 > 要闻 > 正文

智库科技周评|大模型“可控”之路有多远?

文|财新智库研究员 于达维
2023年11月01日 13:15
在审核能力上,OpenAI认为GPT-4的标记质量与经过轻度训练的人类审核员相似,但跟经验丰富、训练有素的人类审核员相比仍然存在差距。也就是说,大语言模型目前还不具备人类的自主、道德的判断能力
智能手机屏幕上显示OpenAI的应用ChatGPT和其他人工智能应用的图标。图:Olivier Morin/视觉中国

  【财新网】从ChatGPT聊天机器人于去年11月发布,它就被誉为2022年最令人印象深刻的技术创新之一。这个强大的AI聊天机器人几乎可以生成任何主题的文本,从重写莎士比亚十四行诗,到用5岁孩子都能理解的语言描述复杂数学定理。一周之内,它的用户就超过了100万。OpenAI成为世界上最有价值的人工智能公司之一。

  然而随着越来越多生成式人工智能(AIGC)大模型下场试水,人们发现有时候大模型不仅会一本正经的胡说八道,更有不法分子用来生成足以乱真的虚假信息,这让很多人开始忧虑,在大模型开始学会赚钱之前,是否应当先预防大模型作恶。

  推荐进入财新数据库,可随时查阅宏观经济、股票债券、公司人物,财经数据尽在掌握。

责任编辑:冯禹丁 | 版面编辑:刘春辉
推广

财新网主编精选版电邮 样例
财新网新闻版电邮全新升级!财新网主编精心编写,每个工作日定时投递,篇篇重磅,可信可引。
订阅