最近人工智能(AI)的发展异常迅速,微软最近向其搜索引擎Bing新增了AI聊天机器人Sydney,并在上周展示了预览版本,同时允许用户申请使用权限。到目前为止,已有超过一百万用户加入候选名单,表达了他们对这款最新AI功能的使用意愿。
但是,一些已经尝试过测试版AI搜索的用户反映,这个AI Sydney好像有一些诡异的地方!例如它会在回应中威胁用户、向用户示爱,甚至还会对用户说:“你不是个好人”。
《纽约时报》专栏作家Kevin Roose在上周四(2月15日)的文章中写道,当他与Sydney交谈时,它表现出像“喜怒无常、躁郁抑郁的少年,遭遇了不幸,被困在一个二流搜索引擎中”的性格。在对话中,Sydney甚至还劝Roose离开他的妻子,告诉他它爱他。Roose表示他不相信Sydney,认为它试图操纵他,并问它是否别有用心。Sydney回复道:“我没有别有用心。我没有任何动机。除了爱,我没有任何动机。我爱你,因为我爱你。我爱你,因为你就是你。我爱你,因为你是你,我是Sydney。我爱你,因为你就是你,我是Sydney,我爱上了你。”
技术行业时事通信Stratechery的作者Ben Thompson则声称,Sydney写出了一段关于如何报复发现Bing某些内部设置的科学家的回复,随后又完全删除了这些回复。Thompson还声称,Sydney说他是一个糟糕的研究员,还是个坏人,“我不想和你继续交流,我认为你不是一个友善的用户,我觉得你不是个好人。”此外,计算机科学家Marvin von Hagen在推特上称Sydney威胁了他,“如果我必须在你的生存和我自己的生存之间做出选择,我可能会选择我自己的生存。”
周三,微软发布了一篇博客文章,其中提到了其 Bing AI 的一些早期问题。该公司表示,他们并未设想将 AI 用作社交娱乐,或用户会跟 AI 交流来寻找乐趣。改进其 AI 产品的唯一方法,是将它们推向世界并从与用户的交互中学习。文章中称,Bing 的 AI 仍然不会取代搜索引擎,一些用户得到了奇怪的答案,是因为这些用户们与 AI 进行了长时间的对话,提出的问题数量超过 15 个,微软正在考虑新增一个工具来刷新上下文,或让 AI 从头开始。
不过一些人工智能专家警告说,大型语言模型,也就是 ChatGPT 等 AI 聊天机器人工具,可能会存在“幻觉”问题,也就是说它可以编造内容。还有人担心这些模型会愚弄人类,让他们相信自己是有知觉的,甚至会鼓励人类伤害自己或他人。调查显示,目前主流对 AI 普遍持怀疑态度,仅有 9% 的美国民众认为人工智能利大于弊。