看完AGI-Next 2026后,我总结的几条核心判断

今年1月10日,清华大学基础模型北京市重点实验室联合智谱 AI 联合举办了一场AI峰会:AGI-Next 2026。

大会邀请了多位目前中国 AI 领域的领军人物,比如张钹院士和杨强院士、智谱 AI 的唐杰教授、月之暗面创始人杨植麟、阿里Qwen前技术负责人林俊旸,以及腾讯首席 AI 科学家姚顺雨等。

他们就 AGI 的发展范式和接下来的技术演进路径,进行了深入探讨。花了半天时间看完了本次峰会的全部内容,我从其中整理了几条关于 AGI 发展范式和技术路径的核心判断,分享给大家。

核心判断一:分化
1、腾讯首席 AI 科学家姚顺雨抛出了这样一个观点:接下来AI领域会面临巨大的分化,主要表现在两个方面,1-To C和To B不同方向发生分化;2-“垂直能力整合”和“模型与应用分层”两条技术路线开始分化。

姚顺雨举例说道,你问 AI “今天吃什么”,再强的模型也没办法给你满意和准确的回答,因为缺少上下文和具体情景。

2、To C方向,大多数普通用户在大多数场景下,其实并不需要很强的职能,而是那种快速直观的得到“答案”的体验。

接下来模型在To C方向,会更加注重上下文工程、长记忆以及一些基于个性化数据的服务。比如在保证合规的前提下,将你的微信聊天记录、网购和浏览记录塞进上下文,尽可能理解你的诉求。这就是上面提到的上下文和具体情景。

3、To B方向,用户具有更强的付费意愿和能力,特别是企业和一些专业人士。因此,接下来在To B的模型市场内部,会迎来一场强模型和弱模型的剧烈分化。

比如能力很强的模型完成端到端复杂任务的成功率可能是80%,弱一点的模型则只有60%。即使弱一点的模型Token使用成本更低,那B端用户为了避免任务失败和不可控的因素,也会选择更强的模型。

4、To C和To B场景,模型接下来的Road-Map也会根据客户的真实需求进行分化。

比如Anthropic 做 Finance 就是在与客户的高频交流中发现的机会,这是因为B端涉及很多生产交付环节,因此会给做AI 工具的公司足够大的试错空间,围绕上下文、业务场景开展端到端的任务优化。

反之,专注于AI工具和应用的公司,很难同时保持自训练模型+端到端任务交付并行的业务模式。因为交付很依赖于模型预训练带来的能力提升,因此后续做模型和做应用会出现路线分化。

核心判断二:新范式
5、力大砖飞的Scaling Law方式依然会继续前行,但也会有其他新的范式出现,探索新的技术路径。

Scaling Law,简单来说就是通过数学模型来预测,当你增加计算资源时,模型的性能会得到持续提升。其中有三个关键变量:模型参数、数据量、计算量。

模型参数:决定模型的容量(能记住多少东西);
数据量:决定模型的知识广度(看了多少都关系,影响模型泛化能力);
计算量:决定模型的训练深度(能训练多少轮,训练不足会导致模型能力不足);
目前除了不断增加数据和算力,不断探索模型能力上限之外,还存在其他的一些技术路径。

比如:self-learning、active learning、continual learning等,本质没什么区别。都是让AI在人类不介入的情况下自己定义奖励函数、交互方法甚至训练任务。

自主学习是为了让模型具备自反思与自学习能力,通过持续的自我评估与批判,模型能够逐步分辨哪些行为是有效的,哪些路径还有优化空间。

6、新范式面临的最大制约其实是想象力。

具体来说,假如有人宣布实现了新的技术范式,那我们该如何证明这个范式已经实现了?

阿里Qwen前技术负责人林俊旸认为,从更实际的角度来看,强化学习(Reinforcement Learning)还有很强的潜力等待挖掘。未来的新范式,很可能不再需要人类为AI提供Prompt,而是AI所处的环境(业务场景)本身就能给AI足够的Prompt。

7、新的技术范式,在探索时仍然要考虑很多因素。

比如,Active learning会带来很严重的安全挑战,即“哪些事它不该做”。self-learning很可能是很重要的范式,但必须给它注入正确的方向,并有一套新的评估标准。continual learning包含时间概念,特别是在长任务场景,一旦其中某个环节没做到100%,那么越往后能力就会呈指数级下降,因此需要一种方式来“清理噪音”。

8、多模态是接下来模型能力进化的一个重要方向,特别是原生多模态。

人的感知系统是多维且复杂的,既可以同时收集声音、触觉、视觉,还能将这些接收到的信息汇总处理。与之相比,目前的模型处理这种多维复杂信息的能力,其实还有很大的提升空间。

因此,多模态会是接下来一段时间,各家基模大厂持续投入的方向。无论是语音、图片,还是视觉,甚至所谓的“世界模型”,都成为了自然而然的选择。

核心判断三:智能体
9、Coding是通往Agent的必经之路。

当下的模型本质上依然是基于大量数据和规则下的规律拟合,然后“猜出”下一个词。在具体的实践场景中,Coding则是最适用且最为宽广的赛道。

10、模型即产品,Agent即产品。Agent要实现复杂的任务,对模型的能力要求很高。换个角度来说,模型+Agent,可以在很大程度上反应一个AI产品的能力。

11、未来,Agent很可能会成为一种“托管式”的在线服务。用户不需要在多个模型和Agent之间来回切换,只需要设定好目标和约束,Agent(或者说模型+Agent)就会在后台长时间独立运行,直到完成任务。

当然,要想做到上面提到的事,离不开上文的几种Scaling Law新范式,比如Self-evolution 以及 Active Learning。对用户来说,感受到AI的价值和魅力,往往是因为在某个长尾任务被AI完美解决。

12、决定Agent未来走向,有几个很重要的问题:

Agent是否真的具备解决人类任务的能力?能否真的创造价值?价值有多大?
使用Agent完成任务的真实成本有多大?如果调用API就能解决问题,那模型厂商很可能将Agent的能力融入模型,这是基座模型和应用之间永远的矛盾。
做AI应用公司的迭代速度有多快?是否能持续保持和模型厂商之间的时间和能力窗口,不断满足用户需求,直到模型和应用之间彻底分清各自的边界。

核心判断四:全球AI竞赛
13、中国的AI能力会很快进入全球第一梯队,这点从其他行业的发展就能得到结论。

中国最大的优势,就是规模效应以及极高的复现效率,从局部拿到优势,进而影响全局。

14、长期来说,全球AI竞赛对中国来说最核心的问题在于,是否具有足够多敢于突破范式、敢于冒险的人。除此之外,目前还存在两个现实瓶颈:

算力:相比于美国,算力中心所需的电力中国占优势,但最核心的在于高性能算力仍然需要时间突破。
市场:相比于美国,中国在To B市场的成熟度不够,且付费意愿较差。与此同时,To B领域存在的抄袭、盗版等问题依然是一个重要的影响因素。
15、中美之间的算力差异主要体现在两点:

量级:无论是算力卡还是算力中心的数量级,中国目前处于弱势。
结构:美国相当一部分算力投入到了下一代技术研究,而中国则仍处于解决任务交付量爆发带来的算力瓶颈。
16、从历史经验看,穷则变,变则通,中国有更紧迫的行动力思考算法和AI Infra的联合优化,最终倒逼创新不断发生,最终实现自己的软硬结合的下一代模型结构和芯片架构。

声明:来自老张的求知思考世界,仅代表创作者观点。链接:https://eyangzhen.com/7546.html

老张的求知思考世界的头像老张的求知思考世界

相关推荐

添加微信
添加微信
Ai学习群
返回顶部