Hi,我是马丁。
不管你现在做的是业务系统还是中间件,面试多多少少都会被问到 AI 相关的东西。RAG 是什么?Agent 怎么实现?用过 MCP 吗?这些问题越来越高频。AI 不再是锦上添花,而是基础配置。
之前我发了 Ragent 项目介绍,和大家聊了 RAG 在实际落地中的复杂度。很多同学看完表示想上手体验,但一看部署文档——MySQL、Redis、Milvus、RocketMQ、Nacos……一堆中间件,还没开始学就先劝退了一半。
所以这次,我直接把示例网站搭好了,你打开浏览器就能玩。
🔗 示例网站地址:http://ragent.nageoffer.com
📦 GitHub 开源地址:https://github.com/nageoffer/ragent
先别急着看代码,来体验一下
与其让我在这里吹 Ragent 有多牛,不如你自己去试试。下面我挑几个典型场景,带你感受一下这个系统的能力边界。
场景一:MCP 工具调用——让 AI 帮你干活
RAG 系统如果只能查知识库,那跟搜索引擎有啥区别?真正有价值的是:AI 能调用外部工具,帮你查数据、做事情。
Ragent 集成了 MCP 协议,可以对接各种业务系统。来看两个例子:
统计销售数据
用户提问:
销售数据统计,如:销售总额、销售量、销售占比、销售趋势、销售预测等
AI 会自动识别这是一个需要调用业务系统的请求,提取参数,调用对应的 MCP 工具,把数据拿回来,再用自然语言组织成回答。
查询天气预报
用户提问:
广州和深圳未来5天的天气怎么样?
同样的逻辑——识别意图、提取参数、调用天气 API、返回结果。整个过程对用户完全透明,就像在跟一个能查资料的助手聊天。
这背后的技术细节:意图识别 → MCP 工具匹配 → LLM 参数提取 → 工具执行 → 结果整合。每一步都有对应的设计,后续源码解读会详细拆解。
场景二:打个招呼,看看 AI 怎么介绍自己
不是所有问题都需要检索知识库。有些是闲聊,有些是系统交互。Ragent 能区分这些意图,给出恰当的回应。
用户提问:
你是谁?
这种系统级的问题,走的是专门的意图分支,不会傻傻地去知识库里搜“你是谁”然后检索出一堆无关内容。
场景三:情绪回复——AI 也懂点人情世故
用户在问答结束后说:
答得不错
或者:
谢谢
如果 AI 还去知识库里搜索答得不错,那就完犊子了。Ragent 能识别这类情绪性/社交性的表达,给出自然的回应。
这个能力看似简单,但很多 RAG 系统做不好。原因是它们把所有输入都当成检索请求来处理,缺少意图识别这一层。
场景四:会话记忆——上下文不丢失
多轮对话是 RAG 系统的难点之一。看这个例子:
用户:OA 系统数据安全怎么做的?
AI:OA系统数据安全措施围绕“xxxx”这一核心目标……
用户:保险系统呢?
AI:保险系统的数据安全措施围绕“xxxx”的纵深防御目标……
第二轮用户只说了“保险系统呢”,但 AI 知道你问的是保险系统,不是保险系统数据安全怎么做的。
Ragent 的会话记忆不是简单地把历史对话全塞给模型。那样 Token 成本扛不住,模型也容易被早期不相关的内容干扰。它用的是滑动窗口 + 自动摘要压缩的机制,既保留关键上下文,又控制成本。
场景五:意图澄清——不确定就问清楚
这是我觉得 Ragent 做得比较用心的一个点。
假设知识库里有两个领域:OA 系统和保险业务,两边都有数据安全相关的内容。用户问:
数据安全怎么做的
如果系统硬猜一个,很可能猜错,全回答可能互相混淆答案。Ragent 的做法是:识别到意图模糊,主动引导用户澄清。
AI:您想咨询的是以下哪个方面的数据安全规定?
- OA 系统数据安全规范
- 保险业务数据安全合规要求
这背后是一套树形意图分类体系。意图树支持多级结构(领域 → 类目 → 话题),识别置信度不足时触发澄清流程,而不是硬着头皮给一个可能错误的答案。
场景六:后台管理系统
点击左上角可以进入管理后台,这里能看到 Ragent 的完整管理功能:
知识库管理:查看已入库的文档、分块数据、向量化状态
意图树编辑:了解 Ragent 的树形意图分类体系是怎么组织的
入库任务监控:查看文档从上传到可检索的完整 Pipeline 执行过程
链路追踪:每次对话请求经过的每个环节(重写、意图识别、检索、生成)都有详细的 Trace 记录
系统设置:模型配置、检索参数等系统级别的配置项
通过管理后台,你能看到一个企业级 RAG 系统在运维层面需要具备哪些能力,这些不是 Demo 项目会有的东西。
还有更多能力,一笔带过
篇幅有限,还有一些能力没展开讲,但 Ragent 都做了完整实现:
能力
说明
分布式限流
基于 Redis 的队列式限流,支持排队、超时、SSE 状态推送
模型负载均衡
多模型候选、优先级调度、自动降级切换
熔断降级
三态熔断器,模型挂了自动切到备用
全链路追踪
每次对话的每个环节都有 Trace 记录
文档入库流水线
可编排的 Pipeline,支持多种文档格式
问题重写与拆分
口语化问题展开、复杂问题拆解
这些能力组合在一起,才构成了一个企业级的 RAG 系统,而不是一个跑通 Demo 就收工的玩具。
为什么要搭示例网站?
说实话,搭这个示例站是有成本的——服务器、模型 API 调用、运维精力。但我还是决定做,原因有几个:
- 降低体验门槛
很多同学想学 RAG,但被部署环节劝退。Docker、中间件、配置文件……还没开始看代码就先折腾半天环境。有了示例网站,打开浏览器就能体验核心功能,先建立直观感受,再决定要不要深入。
- 让你知道好的 RAG 系统长什么样
市面上大部分 RAG 教程都是 Demo 级别的——调个 API、塞进向量库、让模型生成答案。三板斧下来,以为自己会了。
但真正的 RAG 系统要处理的问题多得多:用户问得模糊怎么办?多轮对话上下文怎么管理?模型不稳定怎么容错?这些问题在 Demo 里看不到,但在生产环境里会把你按在地上摩擦。
示例网站让你亲眼看到一个完整的 RAG 系统是怎么工作的,哪些细节是 Demo 教程不会告诉你的。
- 对项目质量的自信
敢把系统直接开放出来让大家体验,本身就是一种态度。不怕你试,试完你就知道这项目是不是值得学。
示例网站怎么玩?
访问地址:http://ragent.nageoffer.com
首页就是对话界面,输入框下面有示例问题标签,点一下就能自动填充,方便快速体验。
几个建议的查询体验路径:
先查看 MCP 工具调用:问天气、问销售数据,感受 AI 调用外部工具的能力
再试试多轮对话:连续追问几个问题,看会话记忆是否生效
故意问得模糊一点:看系统会不会主动引导你澄清
问完之后说谢谢:看情绪回复是否自然
体验完之后,如果你对背后的实现感兴趣,再去翻源码,会更有方向感。
考虑到担心模型本身被盗刷,示例网站目前仅开放查询相关功能。根据历史对话以及后管相关配置,也能体验系统。
项目开源地址
Ragent 是完全开源的,代码、文档、架构图全部公开。
📦 GitHub:https://github.com/nageoffer/ragent
如果你觉得项目还不错,去 GitHub 点个 Star 支持一下,这是对开源作者最好的认可。
写在最后
这篇文章的目的很简单:让你先体验,再决定要不要学。
示例网站摆在那里,打开就能玩。觉得有意思,再去看源码、看教程;觉得不适合自己,关掉就完事,不浪费彼此时间。
后续我会继续更新 Ragent 的源码解读和技术教程,从 RAG 原理到 MCP 协议,从向量检索到模型容错,目标是帮你建立一套完整的 AI 工程认知。
目前加入星球仍有优惠,扫码添加马哥好友,备注“优惠券”,即可领取专属福利。
声明:来自马丁玩编程,仅代表创作者观点。链接:https://eyangzhen.com/6807.html