会员登录|免费注册|忘记密码|管理入口 返回主站||保存桌面
AI幻觉愈演愈烈?后真相时代,我们该怎么办
2025-03-12IP属地 湖北12

我问了某个当红的大模型一个问题:你的幻觉情况如何?


做了一个很长的思考解释之后,它回答的开场是:我的回答基于训练数据中的模式和算法生成,本身不具备意识或题图,因此严格来说不存在“幻觉”的主观体验。


结论是:我的“幻觉”是技术局限性的体现,而非主观行为。你可以将我视为一个高效但需要谨慎使用的信息助手——我的价值在于辅助思考,而非替代人类的判断力。


什么是AI的幻觉?非专业的AI使用者,惯于用真实或者虚假,来描述AI尤其是对话型大模型所提供的答案。但严格地说,对于大模型来说,并不存在真实或虚假这样概念。因为AI并不判断所谓信息的真实与虚假,它只不过依据自我所经受过的数据训练,以概率论的方式,来提供给使用者所寻找的信息。


或者再简单一点讲,AI只不过是从它所“看到”过的信息中,匹配给你最适合你的问题的信息。


幻觉所指的是,当大模型对你的问题的信息没看过,不了解,或者遗忘了的话,它就会编造出信息给你。它并不认为那是假信息,而是匹配给了你所需要的信息。它并不对准确性负责。


举两个最著名的幻觉案例。


DS和ChatGPT下国际象棋。开始的时候DS下不过GPT,还主动给GPT送人头。但是为了完成任务,DS开始编造,说国际象棋规则改了,用兵吃掉了GPT的后。还是没下过GPT的情况下,DS开始耍嘴皮子,愣生生地说服了GPT承认自己输掉了。


DS并没有价值或者道德判断,对于它来说,就是完成了一个概率任务。


另外一个案例,是美国的一个律师在法院开庭的时候,引用了ChatGPT所提供的六个案例,结果后来发现全都是AI编造的。律师乖乖认罚,交了5000美元罚金。


AI的幻觉到底有多大?


有个名为Vectara的公司,目前在测试AI的幻觉率方面堪称权威,根据它所发布的数据,某当红大模型的幻觉率是14.3%,是同行水平的4倍,而它的前身,只有3.9%。


但不要以为这就已经是极限,事实上,AI幻觉在所有的大模型中不同程度存在,表现最好的一款只有1.3%,幻觉最强的最高达到29.9%。


AI幻觉的确是一个技术性问题:因为大模型本身的设计,并不是与人类思考模式的所谓逻辑推理,更无论所谓的对错黑白,而只是一个在训练逻辑下的概率推算,以AI本身的运行逻辑去补白数据本身所未能够涉及到的知识,是一个合理的结果;但所谓不具有“主观”行为,却有待商榷。大模型本身的确不是主观的,但设计者是有主观的,因为他们要求大模型尽量完成用户的提问,也就是指令必须得到回复,于是大模型就“主观”地制造了幻觉。


对于幻觉问题,更加惊悚的地方在于:大模型的制造者们既不知道大模型回答问题的逻辑,也不知道幻觉产生或者为何如此产生的逻辑。也就是说,幻觉为什么会产生,以及为什么会这么产生,就连AI的制造者,自己都不知道原理。


所以没有人知道,幻觉什么时候产生,如何产生,是什么样子。当大模型给出一个“虚假”,也就是大模型自己所编造、生成或者胡扯出来的信息时,如果使用者未知,后来也没有人发现的话,那么这个信息大概率就会以真实的信息被保存,并且在后来被当成一种既有的知识使用。


在真实世界里,这不是幻觉,而是正在发生的事实。


图片

▲ 图源Pexels