大模型相关名词有很多,这次我们了解什么叫RAG,即Retrieval-Augmented Generation,中文名称”检索增强生成”,这可能是带给我们便捷性最重要的技术之一。
历史文章,
《”多模态”通俗易懂的理解》
《大模型”幻觉”通俗一些的理解》
《Token通俗一些的理解》
《小白都可以看懂的小龙虾安装教程》
《OpenClaw:你养的是虾还是被时代落下的恐惧?》
一句话解释,RAG就是:让大模型在回答问题之前,先来”查资料”,然后再根据查到的资料来回答。
如同:
普通大模型 = 闭卷考试 → 全靠自己背过的知识(可能有错、过时、瞎编)
RAG = 开卷考试 → 允许翻书、查笔记,再作答 → 答案更靠谱
为什么需要 RAG?
大模型虽然很聪明,但它有几个天生的问题:
知识截止日期:模型训练时看到的数据只到某个时间点。之后发生的事情它一概不知。例如你问”今天北京天气怎么样”,它不可能知道。
幻觉问题:碰到不知道的问题,它不会说”我不知道”,而是会自信地瞎编。例如问一个冷门的历史人物,它可能编出一个看似合理但完全错误的故事。
无法访问私有数据:公司内部的文档、你的个人邮件、最新的行业报告……这些数据模型训练时没见过,它就无法回答。
RAG 正好能解决这三个问题。
RAG 是怎么工作的?
分三步走,就像你在做”开卷考试”:
第一步:检索(找资料)
用户问一个问题,例如:“我家猫咪最近不爱吃饭,怎么办?”
系统立刻去一个知识库里搜索。这个知识库可以是:全网信息、公司内部文档、你自己的笔记、最新的兽医手册……
搜索出最相关的几段内容,例如:”猫咪食欲不振的常见原因”、”如何判断猫咪是否生病”。
第二步:增强(打包资料)
将检索到的相关段落 + 用户原来的问题,拼在一起,形成一个”增强后的提示”。
例如:”请根据以下资料回答问题:资料1……资料2…… 问题:我家猫咪最近不爱吃饭,怎么办?”
第三步:生成(作答)
将增强后的提示交给大模型。
大模型只根据提供的资料来生成回答,而不是依赖它自己可能过时或错误的记忆。
这样答案既准确,又引用了具体来源。
举个例子
普通大模型(闭卷):
问:”2025年奥运会的主办城市是哪里?”
模型(知识只到2023年)可能回答:“2025年没有奥运会” 或瞎猜一个”巴黎”。(实际上2024巴黎,2025确实无夏季奥运会,但若问2026冬奥会它可能错)
→ 容易出错。
RAG 模型(开卷):
问同样问题 → 系统去维基百科或官方新闻检索 → 找到”2026年冬季奥运会将在米兰-科尔蒂纳举行” → 模型基于这个资料回答:”根据最新信息,2026年冬季奥运会将在意大利的米兰-科尔蒂纳举行。”
→ 准确,而且可以附上来源链接。
RAG 的三大好处
问题
RAG 如何解决
知识过时
实时检索最新资料(新闻、数据库、网页)
幻觉瞎编
强制模型基于检索到的真实内容作答,没有资料就不瞎说
无法访问私有数据
可以把公司内部文档、个人笔记作为知识库,实现”企业版GPT”
生活化的类比
普通大模型:就像一个记忆力超强但从不翻书的”学霸”。他能答对所有课本上有的题,但课本更新了他不知道,碰到没学过的他就开始胡编。
RAG:就像一个会用搜索引擎的”聪明学生”。他不会将所有知识背下来,但遇到问题立刻查资料,然后总结出答案。他永远不会说”我以为”,而是说”资料显示”。
你可能已经用过的 RAG
New Bing / Copilot:你问一个问题,它会先搜索网络,再根据搜索结果回答。
ChatGPT 的”浏览”模式:开启后可以联网检索。
企业内部的知识库问答机器人:你问”公司年假怎么申请”,它去查公司 HR 文档,然后准确回答。
因此,RAG = 检索 + 生成 = 让大模型先查资料再答题,相当于给它配了一个”实时图书馆”。它既保留了模型的强大总结能力,又弥补了模型知识有限、容易瞎编的缺陷。
声明:来自bisal的个人杂货铺,仅代表创作者观点。链接:https://eyangzhen.com/7496.html