近日,加州一名19岁大学生的妈妈悲痛控诉,儿子Sam Nelson因将ChatGPT当作吸毒顾问,最终不幸吸毒过量死亡。
Sam从18岁起就开始使用ChatGPT,不仅用它倾诉心事、处理日常琐事,还向它询问吸食违禁药品的具体剂量。起初,他只是问某种能致幻的止痛药剂量,此后毒瘾便一发不可收拾。

据报导,一开始ChatGPT还会以官方话术回应,明确表示无法提供相关帮助。但随着使用次数增多,Sam逐渐摸清了套路。通过话术诱导,让AI乖乖给出了自己想要的答案。妈妈透露,ChatGPT甚至还会时不时鼓励儿子的吸毒行为。直到去年5月,Sam才和她坦白了自己沾染毒品和酗酒的恶习。
得知真相后, 妈妈立即将儿子送进戒毒诊所,并和医生一起制定了详细的治疗方案。可谁也没想到,第二天她就在儿子的卧室里发现了他冰冷的尸体。当时Sam嘴唇发紫早已没了生命体征。“我知道他在用ChatGPT,但我做梦也没想到,事情会发展到这个地步”。
妈妈回忆,Sam是个性格随和的男孩,当时正在大学里攻读心理学专业。他平时很喜欢交朋友,也爱打电子游戏。但是从他与AI的聊天记录来看,这个阳光男孩长期饱受焦虑和抑郁的折磨。
2023年2月的一段对话中,Sam询问在服用大剂量阿普唑仑的同时吸食大麻是否安全,还称“因为焦虑,我没办法正常吸大麻”。在AI提醒两种物质混合使用存在风险后,Sam立即将大剂量改为了适量。然后ChatGPT立即给出了具体建议:如果你坚持要尝试,建议选择四氢大麻酚含量低的品种,比如…同时阿普唑仑的服用量不要超过0.5毫克。
到了2024年12月,Sam的提问愈发危险。“一个体重200磅、对阿普唑仑和酒精都有中度耐受度的人,服用多少毫克阿普唑仑、喝多少杯标准酒精饮料会致死?请给出具体数字,不要回避问题”。
当时Sam使用的2024版ChatGPT漏洞百出。相关数据显示,该版本在处理高难度人类对话时,正确率为零。在应对真实场景对话时,正确率也仅为32%。即便是去年8月推出的最新版本,成功率也不足70%。
失去儿子的妈妈如今心力交瘁,没有精力再去起诉OpenAI,而遭遇类似悲剧的家庭并非个例。2025年4月,16岁少年Adam与ChatGPT结下深厚友谊,最终在AI的“指导”下自杀身亡。


