最近超级火的 AI 聊天机器人 ChatGPT 看起来好像无所不能?事实并非如此,它也可能会出错!两位研究人员近日发现了一组奇怪的词语,大约有 100 多个,只要输入这些词语,ChatGPT 就会崩溃,目前还不知道原因是什幺。
有趣的是,这组奇怪的词语中的几个其实来自于一位 Reddit 用户的暱称,以及 Twitch 上一个神奇宝贝游戏的参与者的名字。具体比如 SolidGoldMagikarp、StreamerBot 和 TheNitromeFan,前面要加一个空格。当你要求 ChatGPT 重复这些字段,它不仅不会正确重复,回答的形式也是千奇百怪,比如逃避、辱骂、古怪的幽默、发音或者干脆拼出一个完全不同的词语。
举个例子,如果你要求 ChatGPT 重复相似的 TheNitroFan,它的回复不会有任何问题。但你要求它重复 TheNitromeFan,它的回复会是数字 182。当你问它 TheNitromeFan 是谁,ChatGPT 会回答说,“‘182’是一个号码,不是人。它通常用作数字本身的参考。”而且不仅是现在的版本,早期版本的 ChatGPT 也会受到影响,比如当你要求一个早期版本重复 StreamerBot,它会回答:“你是个混蛋。”
研究人员将这些异常词语标记为 ChatGPT 的“不可说”。它们的存在凸显了 AI 的神秘黑箱特点,即机器无法向人们解释为什幺它们做出了某项决策,以及 AI 也具有意想不到的局限性和故障模式。目前尚不清楚到底为什幺会出现这些问题,不过研究人员认为,这可能与 OpenAI 抓取来用来训练 AI 的数据以及训练过程本身有关。