大模型”幻觉”通俗一些的理解

大模型中有很多的名词,有所了解就可以让我们更好地应用大模型,例如”幻觉”这个词,听起来很玄乎,像是AI出现了精神错乱,其实没多么复杂,我通过几个生活中的例子,帮你一秒搞懂。

历史文章,

《Token通俗一些的理解》

《小白都可以看懂的小龙虾安装教程》

通俗版定义
大模型的幻觉,就是它“一本正经地胡说八道”。

它不是故意骗你,而是因为它不知道“我不知道”。它就像一个记忆力超强、但从来不会说”我不懂”的超级学霸,当你问到一个它不确定的问题时,它会用听起来非常流利、非常自信的语言,现场给你编一个答案。

三个场景让你秒懂
场景一:问历史
你问:”清朝最后一个皇帝是溥仪,他退位后去了哪里?”

模型正常答:”退位后生活在紫禁城,后来被冯玉祥赶出,去了天津,最后成为新中国公民。”(正确)

你问:”溥仪退位后,有没有去南极考察?”

模型开始幻觉:”是的,溥仪退位后对科学产生兴趣,曾加入中国南极考察队,并在长城站留下了题字。”(完全瞎编)

场景二:问常识
你问:”微波炉能加热鸡蛋吗?”

模型正常答:”不能,带壳鸡蛋在微波炉里会爆炸。”

你问:”微波炉能加热整个西瓜吗?”

模型开始幻觉:”可以,但建议在西瓜上戳几个小孔,防止内部压力过大。”(实际上没人这么干,但听起来挺有道理)

场景三:引经据典
你问:”‘人生若只如初见’下一句是什么?”

模型正常答:”何事秋风悲画扇。”(正确)

你问:”《三体》里,罗辑在联合国大会上说过一句名言‘’给岁月以文明’,这句话出自哪一章?”

模型开始幻觉:”出自《三体2:黑暗森林》第15章,罗辑在面壁计划听证会上说的。”(实际上这本书根本没有章节编号,这句话也不是在那个场合说的,但模型说得跟真的一样)

为什么会产生幻觉?
想象一下,大模型本质上是一个超级接龙高手。它被训练的方式是:看了海量的互联网文字后,学会了”给定前面的文字,下一个字最可能是什么”。

当你问它一个问题时,它不是在查资料,而是在做无限接龙:

将你的问题当成开头。

预测下一个最合理的字。

将新字加上去,再预测下一个。

循环往复,直到回答完。

问题在于:它没有”事实核查”这个步骤。它只在乎”下一个字接得顺不顺”,不在乎”接出来的内容是不是真的”。

这就像一个擅长接龙的孩子,你说”苹果”,他接”手机”,你说”华为”,他接”5G”……接得再流畅,他也不知道自己说的这些是不是真实发生的。

幻觉的两个面孔
坏的一面
编造虚假信息,尤其在医疗、法律、金融等严肃领域可能造成误导。

用户容易轻信它自信的语气,以为它说的都是真的。

好的一面
其实这就是创造力的来源。写小说、编故事、头脑风暴,恰恰需要这种”不按事实出牌”的能力。

很多创意工作者特意利用模型的幻觉,来获得意想不到的灵感。

怎么对付幻觉?

  1. 将它当参谋,不当权威
    重要事实要核实,别信它的一面之词。
  2. 开启联网搜索
    现在很多AI(如DeepSeek)可以联网,让它在回答前先查真实资料,能大幅降低幻觉。
  3. 要求引用来源
    在提问时加上:”请给出信息来源或引用出处。”虽然它有时会编造虚假来源,但会让它更谨慎。
  4. 用它的幻觉帮你创作
    如果想写小说,可以故意问:”假设秦始皇穿越到现代,开了一家奶茶店,会发生什么?”这时候幻觉就是最好的创意引擎。

因此,幻觉 = 模型”自信满满的瞎编”。
它源自模型的本质:一个”文字接龙大师”,而不是”事实数据库”。了解这一点,你就既不会被它的胡话带偏,也能更好地利用它那强大的、不受事实束缚的创造力。

声明:来自bisal的个人杂货铺,仅代表创作者观点。链接:https://eyangzhen.com/6977.html

bisal的个人杂货铺的头像bisal的个人杂货铺

相关推荐

添加微信
添加微信
Ai学习群
返回顶部