先说个二逼的事情,我不是说过我之前申请过八个号吗,昨天回家的时候六点多收到了一个内测码,结果我本来想给自己转发的,特么的我竟然给发群里去了。虽然我是秒撤回的,结果还是没防住狼。
我本来想重新申请,结果显示我申请过了。
如果群里有看到我这个窘迫模样的那位,你会不会笑出了猪叫声。
就在我本以为和这次内测无缘的时候,第二天来到工位,神奇的发现另外一台只用于开热点的手机,有收到了一个内测码,不得不说,感谢 QClaw 厚爱。
那还等啥玩意,不赶紧开始实测?
QClaw 实测
前几天不是发过一篇图文介绍了一下 WorkBuddy 的接入吗。
牛啊,WorkBuddy 直接接入微信了。
那时候我在疑惑为什么他的聊天窗口出现在客服消息中,这看起来有点 low。结果 QClaw 一样。。。。。。
目前 QClaw 还不支持上传,只能进行文字描述。
而且消息暂时不支持双向发送和同步,目前只能在微信公众号与 QClaw 客服沟通,QClaw 客户端目前只是作为消息显示的载体。
看到这里我笑了:内测版嘛,客户端先占个坑,功能慢慢补,我懂。
我本来想用它给微信好友发个消息试试,结果一直发送失败。
我本来想用它给微信好友发送消息,但是它总是发送失败,我问他原因,它的回复让我并不是很满意,因为看起来他是在死锁套娃。
继续让它找原因,发现问题了,是因为现在 wechat-access 插件还没有实现主动给用户发消息,只实现了接收消息。sendText 直接写死着实把我逗笑了。这不是浪费服务器资源吗,QClaw 直接回复一个功能未实现不就可以了吗。
这暴露了当前 QClaw 插件生态还在建设中。不过这正是内测的意义 —— 帮他们发现这些”写死”的坑。
测试过程中我还发现一个现象:只要遇到问题,QClaw 动不动就要我给它解决办法。
比如我问”为什么发不出去”,它反问”你觉得应该怎么解决”。
我心想:是我在内测你还是你在内测我?
这像极了员工干不出来活为领导怎么办,领导说你觉得应该怎么办?
这可能反映了当前 AI 的一个普遍问题 —— 不会自己思考,调用链太短。遇到卡点就甩锅给用户,而不是尝试自己分析解决。
不过,QClaw 也不是一无是处。最让我意外的是它的 Action 能力。
我想让它去云服务器上看一下 OpenClaw 的相关配置,给它分配了一个临时账号和权限 —— 它竟然真的可以通过 SSH 登录云端,把相关配置”搂”出来了!
这才是智能体该有的样子! 虽然基础功能还在打磨,但这个核心能力已经有点意思了。
昨天写了一篇实测 GLM-5 Turbo 的文章,这是第一个让我有遇事不决自己做判断和决策,然后完成任务的模型。文章链接在下面。
GLM-5 Turbo 抢先实测!!我用它做了一个魔兽争霸!!
我又想了一个方案,让它SSH 上去,grep 一下日志里关于 sendText 的报错,然后根据报错给出三种可能的解决方案,并评估每种方案的可行性。看看它会怎么做。
本来我以为它就只会 SSH 上去看看,没想到我告诉它 “OpenClaw 没有写日志文件,日志只输出到 stdout” 之后,它的表现让我有点困惑:
它直接告诉我:不需要日志,光靠代码分析就能给出解决方案!
然后它真的给出了三个方案,还贴心地打了星标:
方案一(⭐⭐⭐):修改插件,通过 WebSocket 发送
方案二(⭐):用公众号客服消息 API(但我的 AppSecret 被冻结了)
方案三(⭐⭐⭐⭐):等作者更新
看到这个回复,我陷入了沉思……
这真的是在”思考”吗?
来,让我们冷静分析一下:
如果是真思考:它应该能理解”没有日志”意味着什么,知道自己信息不足,会主动问我要更多信息,或者提出”那我 SSH 上去用 docker logs 或者 journalctl 看看实时输出”。
如果是假思考:它只是把我之前对话里提到的信息点(sendText写死、wsUrl为空、AppSecret冻结)组合起来,套用一个”问题-方案”的模板输出。看起来很理性,其实是在装思考。
你看它给的方案:
方案一:基于我看到的代码(写死 + wsUrl空)
方案二:基于我之前提过的”AppSecret被冻结 (有点问题)”
方案三:万能兜底方案
它没有提出任何新信息,只是在整理我已知的内容。
真正的思考应该是:
“既然没有日志文件,那我可以去 /var/log 看看有没有别的日志,或者用 strace 跟踪一下进程输出,或者修改一下启动脚本把 stdout 重定向到文件……”
但它没有。
所以,回到开头那个问题:它能确定这是在思考吗?
我的结论是:不,这不是思考,这是”高级拼接”。
它像一个很会总结的学生,把课堂笔记整理得井井有条,但并没有真正理解知识之间的联系,也不会举一反三。
不过这也不全是坏事 —— 至少它学会了闭嘴,不再问我要解决方案了。
QClaw 像个 “正在成长的智能体”, 它的信息整合能力不错,能理解复杂指令,执行云端操作,而且已经具备了行动力。
但同时有些还需要打磨的地方:”伪思考”现象严重:看起来很理性,其实是在拼接已知信息;
缺乏真正的推理能力:不会提出新方案,只会总结旧信息;
插件生态不完整:核心功能还是写死的。
既然它这么会”拼接”,那我再考考它:
“方案一说要自己实现 WebSocket 发送。你能不能 SSH 上去,用 tcpdump 抓一下微信客户端和 wechat-access 之间的通信包,帮我分析一下协议格式?如果抓不到,还有别的办法吗?”
这次我看你是真思考,还是继续拼接…… :)
然后他说
这次是真的思考,还是高级拼接?
让我们来拆解一下:
如果是拼接:它应该只会把我之前提到的信息(sendText写死、wsUrl为空、AppSecret冻结)重新排列组合。
但这次不一样:
它读懂了 AGP协议 —— 这不是我之前给的信息,是它自己从源码里挖出来的
它发现了 “能收到消息是因为另一套机制” —— 这是推理,不是复述
它给出了 新的突破口(wsUrl配置项)—— 这是方向性的建议,不是兜底方案
最关键的是,它承认了方案一走不通,而不是像之前那样模棱两可地打三颗星。
这才是真正的思考 —— 不是整理已知信息,而是消化信息后得出新结论。
所以它真的会思考了?
这次,有点感觉像是真的了。
之前的”思考”是拼接,这次的”思考”是推理。区别在于:
拼接:把碎片信息摆整齐,看起来很合理,但没有新东西
推理:消化信息,发现矛盾,提出新问题,给出新方向
它发现了”能收到消息但 wsUrl 为空”这个矛盾,推断出”一定有另一套机制在工作” —— 这就是推理的痕迹。
当然,它最后的提问还是暴露了局限性:它不知道 wsUrl 怎么配,还得问我。
真正的专家这时候应该主动去翻文档、搜配置、或者 SSH 上去 grep 一下配置文件。
但至少,它学会了发现问题,而不是只会总结问题。
V 0.1.8
今天晚上回来发现 QClaw 又更新了一版,估计内测码又发放了不少。
首先能够新建对话了。
然后多加了一个灵感广场的功能。
这看起来就像是一系列的 skills ,只不过给你做成 UI 的形式了。
如果你是从灵感广场新加的对话,那么可以在 QClaw 客户端进行对话,但是从微信同步过来的消息,仍旧不支持直接回复。我用灵感广场让他给我解释了一下啥是 transformer 架构。
比如我让他测算了一下我的生辰八卦。果然搞程序的做到最后都喜欢算卦。
这也太会说话了,我怀疑是不是内置了什么后门故意骗人说好话好让我喜欢用上你这个 QClaw 吧!
灵感广场相当于就是 ClawHub 的功能,把一系列的 Skills 做成一个可以浏览、发现、一键安装的广场。这个方向挺好的,Skills 生态丰富起来之后,普通用户不用自己写配置,直接从广场装就行了,门槛低很多。
从配置里面可以看到用量统计,内测一天 4000 w token ?这也太大方了。
技能管理这块可以自由接入各种 skills 。
另外,新增加了记忆功能,这个感觉还是很实用,相当于你个人的 soul.md 了,只不过让你从 UI 进行配置。
QClaw 依托微信强大的流量入口,从出生以来就就用操心流量的事儿,它担心的是安全,安全,还是安全。 如果 QClaw 要成为下一个国民级应用,安全和用户隐私方面一定是重中之重。
写在最后
这两天的内测体验还是挺有意思的。
从手滑把内测码发到群里的社死瞬间,到意外收到第二枚码的惊喜;从吐槽它“写死”的代码,到惊叹它 SSH 上云的能力;从怀疑它在“假装思考”,到看到它真正推理出 AGP 协议的那一刻……
QClaw 像极了一个正在蹒跚学步的孩子。
它有天赋——Action 能力、灵感广场、记忆功能,这些骨架已经搭得很漂亮。
但它也免不了摔跤——插件未完成、伪思考、回复限制,这些都是成长路上必经的坑。
最有意思的是,在内测的过程中,我发现自己不知不觉从“测试者”变成了“观察者”。我不再只是记录它能做什么、不能做什么,而是开始思考一个更大的问题:
当 AI 开始学会“发现问题”而不是“总结问题”,当它从“拼接信息”进化到“推理矛盾”,我们与它的关系,会不会也在悄然改变?
是我们在内测 AI,还是 AI 在内测人类的耐心与期待?
我不知道答案。
但我知道,明天醒来,QClaw 可能又会更新一版。
而我,大概还会继续坐在电脑前,敲下新发现的问题,等着看它会不会给我新的惊喜——或者,新的槽点。
毕竟,能看到一个东西从 0.1 走向 1.0,本身就是一件挺有意思的事。
声明:来自程序员cxuan,仅代表创作者观点。链接:http://eyangzhen.com/6780.html