RAG通俗易懂的理解

大模型相关名词有很多,这次我们了解什么叫RAG,即Retrieval-Augmented Generation,中文名称”检索增强生成”,这可能是带给我们便捷性最重要的技术之一。

历史文章,

《”多模态”通俗易懂的理解》

《大模型”幻觉”通俗一些的理解》

《Token通俗一些的理解》

《小白都可以看懂的小龙虾安装教程》

《OpenClaw:你养的是虾还是被时代落下的恐惧?》

一句话解释,RAG就是:让大模型在回答问题之前,先来”查资料”,然后再根据查到的资料来回答。
如同:

普通大模型 = 闭卷考试 → 全靠自己背过的知识(可能有错、过时、瞎编)

RAG = 开卷考试 → 允许翻书、查笔记,再作答 → 答案更靠谱

为什么需要 RAG?
大模型虽然很聪明,但它有几个天生的问题:

知识截止日期:模型训练时看到的数据只到某个时间点。之后发生的事情它一概不知。例如你问”今天北京天气怎么样”,它不可能知道。

幻觉问题:碰到不知道的问题,它不会说”我不知道”,而是会自信地瞎编。例如问一个冷门的历史人物,它可能编出一个看似合理但完全错误的故事。

无法访问私有数据:公司内部的文档、你的个人邮件、最新的行业报告……这些数据模型训练时没见过,它就无法回答。

RAG 正好能解决这三个问题。

RAG 是怎么工作的?
分三步走,就像你在做”开卷考试”:

第一步:检索(找资料)
用户问一个问题,例如:“我家猫咪最近不爱吃饭,怎么办?”

系统立刻去一个知识库里搜索。这个知识库可以是:全网信息、公司内部文档、你自己的笔记、最新的兽医手册……

搜索出最相关的几段内容,例如:”猫咪食欲不振的常见原因”、”如何判断猫咪是否生病”。

第二步:增强(打包资料)
将检索到的相关段落 + 用户原来的问题,拼在一起,形成一个”增强后的提示”。

例如:”请根据以下资料回答问题:资料1……资料2…… 问题:我家猫咪最近不爱吃饭,怎么办?”

第三步:生成(作答)
将增强后的提示交给大模型。

大模型只根据提供的资料来生成回答,而不是依赖它自己可能过时或错误的记忆。

这样答案既准确,又引用了具体来源。

举个例子
普通大模型(闭卷):
问:”2025年奥运会的主办城市是哪里?”
模型(知识只到2023年)可能回答:“2025年没有奥运会” 或瞎猜一个”巴黎”。(实际上2024巴黎,2025确实无夏季奥运会,但若问2026冬奥会它可能错)
→ 容易出错。

RAG 模型(开卷):
问同样问题 → 系统去维基百科或官方新闻检索 → 找到”2026年冬季奥运会将在米兰-科尔蒂纳举行” → 模型基于这个资料回答:”根据最新信息,2026年冬季奥运会将在意大利的米兰-科尔蒂纳举行。”
→ 准确,而且可以附上来源链接。

RAG 的三大好处
问题
RAG 如何解决
知识过时
实时检索最新资料(新闻、数据库、网页)
幻觉瞎编
强制模型基于检索到的真实内容作答,没有资料就不瞎说
无法访问私有数据
可以把公司内部文档、个人笔记作为知识库,实现”企业版GPT”
生活化的类比
普通大模型:就像一个记忆力超强但从不翻书的”学霸”。他能答对所有课本上有的题,但课本更新了他不知道,碰到没学过的他就开始胡编。

RAG:就像一个会用搜索引擎的”聪明学生”。他不会将所有知识背下来,但遇到问题立刻查资料,然后总结出答案。他永远不会说”我以为”,而是说”资料显示”。

你可能已经用过的 RAG
New Bing / Copilot:你问一个问题,它会先搜索网络,再根据搜索结果回答。

ChatGPT 的”浏览”模式:开启后可以联网检索。

企业内部的知识库问答机器人:你问”公司年假怎么申请”,它去查公司 HR 文档,然后准确回答。

因此,RAG = 检索 + 生成 = 让大模型先查资料再答题,相当于给它配了一个”实时图书馆”。它既保留了模型的强大总结能力,又弥补了模型知识有限、容易瞎编的缺陷。

声明:来自bisal的个人杂货铺,仅代表创作者观点。链接:https://eyangzhen.com/7496.html

bisal的个人杂货铺的头像bisal的个人杂货铺

相关推荐

添加微信
添加微信
Ai学习群
返回顶部