几乎所有实验室的新一代模型都在使用前一代模型构建。人类不再是改进 AI 的唯一推动者。
语言学习效率低——存在报告偏差。视觉和其他感官信息可以更高效地传达世界知识。
当前基础设施基于"冻结模型"假设。当持续学习成为现实,RAG、微调、检索系统都需要重新设计。
模型在某些任务上出色、在看似简单的任务上失败,这指向深度学习表示知识的根本方式。
95% 的单步成功率在 100 步任务中变成 <1% 的整体成功率。社会信任基于失败的体验,而非平均表现。
治理、监管、社会信任、机构适应能力——这些不比技术部分容易。技术进步与社会能力之间的差距正在扩大。
"循环"在 AI 中有两个层面:微观层面是推理时让模型在问题中反复思考,宏观层面是模型自我改进的闭环。
最基本的循环是"思维链"(Chain of Thought)。当你让一个模型"一步步思考"时,它就在使用额外的 token 来循环处理问题。更高级的形式包括自适应计算、草稿笔记(Scratchpad)、负稀疏性(Negative Sparsity)。这些方法本质上都是让模型在困难问题上"投入更多思考时间",通过增加计算量而非增加参数量来提升性能。
更令人兴奋的是更高层面的循环——递归自我改进(Recursive Self-Improvement,简称 RSI)。这不是推理时的循环,而是整个模型开发流程的循环。Dehghani 将其描述为机器学习发展的自然延续:人类手动设计特征 → 深度学习自动学习表示 → 学习架构 → 数据驱动的方法 → 自我改进。每一步都在移除人类的瓶颈和偏见。
递归自我改进已经发生,但尚未完全自动化。关键瓶颈是长期任务和评估机制。
几年前提及递归自我改进,你还只能在会议上写一篇展望性论文。但今天,这已经成为现实:大多数人都没意识到,过去几个月里,几乎每个实验室的新一代模型都大量使用前一代模型构建。目前的情况是半自动化的。AI 参与了模型构建的各个环节,但仍需要人类监督和干预。方向很明确——完全自动化只是时间问题。
这里的"AI 构建 AI"不是简单地用 AI 工具来获得灵感。它的核心是:AI 自动更新自身权重、以递归方式改进自己、可能导致能力的指数级加速。从半自动化到完全自动化,需要解决两个问题:长期视野(Long Horizon)和完全自动化。一旦这两点实现,"人类改进 AI 的瓶颈"将被移除。
你只能改进你能够测量的东西。评估是当前最大的瓶颈,其次是构建安全的自动化环境。
团队如果有明确的评估指标,就能取得巨大进展。但如果没有——就像递归自我改进领域——进展就会异常困难。目前我们缺乏:衡量我们离完整自我改进闭环有多远的指标、评估模型在特定框架内帮助自己改进程度的方法、多轮循环后模型表现的测量工具。
构建评估环境的技术挑战也令人望而却步。想象一下创建一个环境,让 AI 能够在 Google 内部安全地执行研究工程师或研究科学家的所有工作——这涉及安全性保障、测量模型能推进任务多远多久、将所有这些组件连接成高效的运行环境、确保评估的多样性。
形式化验证是强大的工具,但只能处理"干净"的领域。模型崩溃风险存在,但可以通过锚定真实世界信号来避免。
形式化验证被认为是解锁递归自我改进的潜在钥匙。对于数学和代码逻辑,它非常强大——证明要么成立,要么不成立。但在现实世界的"混乱"领域,形式化验证变得困难。你无法写出形式证明来验证"医生的建议是否正确"。Dehghani 提出了一个有趣的问题:能否基于形式化验证的方法,为现实世界的混乱部分构建类似紧密的反馈循环?
模型崩溃是 AI 自我改进中的一个真正风险。当模型在一个完全封闭的循环中运作——比如只与自己对话或在受限环境中操作——它可能会过度适应那个特定环境,突然失去对其他任何事物的泛化能力。避免模型崩溃的核心是保持与真实世界的连接:确保有来自外部世界的信号、使用可靠的验证器、将模型锚定在真实数据上。
长期目标是通才模型,但短期专业化是学习边界的最快方式。
理想情况下,我们需要一个"知道一切"且"知道何时深入、何时泛化"的模型。想象一个智能编码代理:规划阶段需要通才能力——理解问题、收集信息、决定步骤;执行阶段需要专家能力——每一步都是顶级的编程能力。通才在规划时有用,专家在执行时强大。两者都需要。
但从短期来看,构建专业化模型可能是探索边界的最快方式。专业化模型通常成为通才模型的垫脚石。例如,专注于编码的自我改进→ 成功后 → 扩展到更广泛的能力。Dehghani 的一个重要观点:"人们不在乎他们的问题属于哪个类别"。如果人类称某事为问题,AI 就应该能够解决它。
预测未来几乎不可能。最有价值的可能是战略思维,而非在某个细分领域的绝对专业能力。
当 Karpathy 级别的研究者被自动化后,AI 就在创造自己。最终,是否无人理解 AI 如何工作?Dehghani 的回应充满了哲学思考。他提到自己一岁半的女儿,并反思过去几年里他多次被证明预言错误:有时他说"这会在六个月内发生"——从未发生;有时他说"这在未来十年内绝无可能解决"——两三个月后有人解决了。
Dehghani 对 Andrej Karpathy 的分析很有洞察:他的最令人印象深刻的方面不是他是个好程序员或好老师——他当然是——而是他对正在发生的事情有很好的整体视野。Karpathy 将自己置于信息流中,能够决定下一步最有影响力的行动是什么。而且他今天做的影响性事情与五年前完全不同。这种适应能力可能才是关键。
"数据"的定义正在扩展。未来数据工作将转向为模型提供更多感官信息和真实世界锚定。
当 AI 不断自我创造时,数据仍然重要吗?还是一切都变成计算?Dehghani 将"数据"的概念扩展到远超文本 token 的范围。数据是模型能够从中获得信号的任何事物:预测下一个 token(传统方式)、复杂的环境交互、物理世界的感官信息。
数据工作的价值不会消失,但会转向:构建环境——让模型能够与物理世界交互;提供感官锚定——确保模型在改进自己时保持与现实世界的连接。他提出了一个看似科幻但实际重要的问题:如何让模型能够"闻"?人类通过所有感官获得信息:椅子的硬度、房间的温度、视觉、听觉、触觉。这些输入塑造了我们对下一个想法的理解。
预训练是基础,你无法通过后训练弥补糟糕的基础模型。但后训练目前的投资回报率极高。
过去一年的主旋律是后训练(强化学习)的加速。进步将在未来几个月或一年内来自哪里?Dehghani 的回答很诚实:这取决于你何时问这个问题。预训练和后训练之间会来回摇摆。但有些原则是明确的:预训练是基础——你永远无法通过后训练来弥补糟糕的基础模型;后训练投资回报率目前极高——一个小巧的聪明想法可以让模型在行为上提升 10 倍,而成本只是预训练的一小部分。
Dehghani 自己在几个月前转向了 Gemini 的后训练工作(主要是编码和代理)。他见证了后训练是一个产生巨大影响的领域。但同时,Google DeepMind 在预训练方面也有大量令人兴奋的研究工作——新配方、新想法。这些工作将解锁许多下游可能性。
说"预训练已死"为时过早。新想法正在为预训练注入新活力,可能从根本上改变基础模型能力。
几个月前出现了"预训练已死"的叙事。Dehghani 不同意这个观点。推进预训练想法是一个复杂度和预期收益的函数:有低垂果实时→ 推进简单优雅的后训练想法;基础模型成为瓶颈时→ 承担复杂的前训练配方。他说"预训练已死"时,可能指的是一两年前的方法。那些方法确实显示出明显的收益递减。
但新想法正在为预训练注入新活力,突然开启通往"异域"的大门——可能从根本上改变基础模型长期能力的东西。这种"已死"然后"复活"的模式在技术发展中很常见。某项技术看似到达极限,但新的视角或方法重新点燃了它。这提醒我们不要过早宣布任何技术的死亡。
持续学习是关于保持更新,自我改进是关于变得更聪明。两者的共同敌人是冻结的权重。
持续学习主要是关于模型保持最新——就像医生不断阅读新研究来刷新知识,确保知识不会过时。目标是:模型的知识截止日期不在过去。自我改进是关于模型随时间变得更聪明、提升能力,模型自己完成这件事。两者都有一个共同敌人——权重冻结的模型。如果模型冻结而世界继续前进,你既得不到自我改进也得不到持续学习。
持续学习的一个主要问题是灾难性遗忘:模型训练完成后学习新信息,突然在主训练阶段学到的知识上出现退步。这是一个非常活跃的研究领域,但远未解决。持续学习目前还没有进入"利用阶段"——即我们有一个确定的配方,只需要将其产品化。它仍处于"探索阶段":研究者尝试不同想法,在想法之间跳跃,尚未形成共识。
加入一群相信别人不相信的愿景的超级聪明人,会改变你的人生。
Dehghani 在阿姆斯特丹大学获得博士学位。2016 年和 2017 年的几次实习将他推向主流。2017 年初在 Google Brain 实习,团队使用 LSTM 做摘要——他被震撼了:"这就是我余生想做的事"。2017 年晚些时候,招聘官告诉他,有个团队刚发表了一篇叫"Transformer"的论文,正在寻找实习生。
Dehghani 与 Łukasz Kaiser 聊天,Łukasz 对基于 Transformer 构建图灵机感到兴奋。但 Dehghani 的反应是:"我不知道是否想加入这个团队。他们做的东西太随机了。每个人都在做 LSTM。为什么要去和一群在这个叫 Transformer 的随机架构上工作的人在一起?它会死的。"然后招聘官找不到其他团队接纳他,所以他加入了。
重用参数和让模型多次处理自己的输出,开启了自适应计算的新方向。
Universal Transformer 论文写于 2018 年,被一个会议拒绝后于 2019 年被 ICLR 接受。论文的核心直觉是:模型重用参数并多次处理自己的输出。生成某些内容 → 将其再次传递给模型 → 模型有机会进一步完善。
Łukasz 有一个"算法任务"数据集。他们发现标准 Transformer 在某些问题上严重失败:将输入复制到输出、对超长输入进行算法操作。但循环可以完美处理这些问题。训练时使用固定计算量,但测试时让模型投入更多计算——在困难问题上"倾泻"更多 FLOPs——这个想法让他们非常兴奋。
当时,人们更多关注用自适应计算来降低简单问题的成本——为什么在句子末尾的简单 token 上使用所有 24 层?但现在,视角转向了另一个方向:增加困难问题的成本。"这是同一枚硬币的另一面。"如果你有一个困难问题,想运行推理两周——现在我们关注如何增加计算,而不是减少。
最简单的想法往往最强大:将图像切成小块,当作 token 处理,然后扩展。
这篇 2022 年的论文《An Image is Worth 16x16 Words》是另一个革命性贡献。有趣的是,Dehghani 以前从未做过视觉工作。他参与是因为办公桌就在视觉工作者旁边。当时他注意到一个问题:我们有 4000 亿参数的语言模型,但视觉方面最大的模型只有约 1 亿参数(ResNet)。为什么缩放没有收益?
他们开始思考:Transformer 中是否有某种东西使其可扩展?最初的想法很复杂——试图模仿卷积。但苏黎世的同事从一个简单想法开始:将图像分成 16×16 的像素块,每个块视为一个 token,忘记重叠块或窗口,直接适配到 Transformer,用判别训练进行扩展。它工作了。
这证明了 Transformer 可以像处理语言一样有效地处理图像。它为以下铺平了道路:视频采用 Transformer、音频采用 Transformer、原生多模态模型(如 Gemini 3)。单一架构、所有模态在训练期间——这让训练这些模型变得真正简单。
当模型能够原生处理所有模态时,真正的跨模态正迁移可能发生。
很多人认为图像生成是一个"翻译"过程:读取文本提示→翻译成图像指令→绘制。但 Gemini 是原生多模态的——同时处理文本和像素。Dehghani 最兴奋的是跨模态正迁移的可能性:如果训练模型擅长生成图像,它也会在生成文本方面变得更好吗?
这涉及语言学中的一个老概念——报告偏差:你拜访朋友家,看到香蕉形状的沙发。回家后,你谈论这个沙发的可能性远高于谈论普通沙发。"语言不谈论分布中间的东西。"但通过视觉输入,你有那个信息——无需报告它,它就在那里。通过语言获得关于世界的信息效率不高。不是不可能,而是不高效。
这就是世界模型的概念:理想情况下,模型应该了解世界;仅通过文本可能做到,但不高效;多模态是一个很好的捷径;学习模态的最佳方式是学习如何生成它。例如学习重力:通过视频训练模型学习比重力教科书容易得多——重力在视频中自然发生,教科本需要大量文本才能传达重力概念。
让模型在文本和像素空间中交替思考,可以实现增量生成和规划,绕过单次生成的限制。
Dehghani 希望将图像生成从"文本到图像的翻译器"推向"关于图像的思考机器"。这包括交错文本-图像生成:模型不仅可以在文本 token 中思考,还可以在像素空间中思考。生成文本→生成图像→生成更多文本→生成更多图像。
传统图像模型有阈值限制:询问 50 个细节的场景?可能;55 个?也许;60 个?需要重新训练。但使用交错生成,模型可以逐个生成细节:不期望模型第一次生成完美图像;期望模型规划生成。模型展现出真正的智能:"让我从大物体开始","稍后我会遇到困难,如果先放小物体,大物体就放不下了","下一步,中等物体,然后小的"。
速度提升来自模型大小、蒸馏配方和基础设施优化的结合。
Nano Banana 2(Gemini 3.1 Flash Image)能够生成令人惊叹的图像,速度快得惊人。是什么让这成为可能?模型大小——从 Pro 规模变为 Flash 规模;蒸馏配方——团队花时间完善蒸馏技术:知识蒸馏、其他需要蒸馏到更轻量过程的组件;基础设施优化——这是"隐形的英雄"。
Dehghani 描述场景:工程师随便走过来说"顺便说一句,我让模型快了 10 倍",非常随意的语气,令人印象深刻。图像模型与传统语言模型服务不同——不仅仅是下一个 token 预测。优秀的服务工程师可以找到不同的处理方式,带来显著的效率提升。
锯齿智能被低估,持续学习被低估。技术崇拜被高估——治理、社会信任和机构适应能力同样重要。
Dehghani 认为我们低估了锯齿智能的难度。当模型能做很难的数学证明却很难数出单词中的字母时,人们只是笑笑然后继续。但这指向了系统深处未解决的问题——这些系统如何表示和处理知识的方式。这不是一个可以修补的 bug。这是一个结构属性。"我们看到模型在某些事情上表现糟糕,人们说'哦,让我通过系统指令或提示来修补'——但这是这些模型学习方式的结构属性。"
持续学习被低估。基础模型目前本质上是"冻结在时间中"的。训练结束时一切结束,然后在这冻结模型之上构建了庞大的基础设施:RAG 管道、微调工作流、检索系统。这是一个过强的假设。我们需要更积极地思考持续学习,并将其推向生产。
Dehghani 认为人们过度相信推进技术面就足够了。"人们认为如果只是让模型更聪明,其他一切都会跟上。在我看,一个真正擅长技术问题但对其他一切有盲点的 AI 版本无法在世界中创造有意义的进步。"我们还有:治理、监管、社会信任、获取和利益分配、机构吸收和适应技术的能力。这些不是小问题,如果不比技术部分更难的话,它们真的很难。技术进步的步伐目前远远超过世界发展这些机制的能力,而这个差距正在变大。
Dehghani 不想从零开始。但他提到了几个令人兴奋的方向。超长期任务的完全自动化——机器运行两周、一个月。当前的代理令人印象深刻,演示很好,但复合可靠性问题讨论不够。如果代理需要 100 个连续步骤完成任务,每步成功率为 95%(已经很好),完成整个任务的概率是 0.95^100 < 1%。"人们体验的不是模型的平均性能——他们体验的是失败。模型犯一个愚蠢的错误对信任的损害大于 100 件事做对的益处。"
几乎所有实验室的新一代模型都在使用前一代模型构建。人类不再是改进 AI 的唯一推动者。但完全自动化还需要解决评估机制和长期任务可靠性问题。
语言学习效率低——存在报告偏差。视觉和其他感官信息可以更高效地传达世界知识。原生多模态训练最终可能实现跨模态正迁移。
当前基础设施基于"冻结模型"假设——RAG、微调、检索系统都建立在这个假设上。当持续学习成为现实,这些都需要重新设计。
模型在某些任务上出色、在看似简单的任务上失败,这指向深度学习表示知识的根本方式。理解这一点可能是解锁真正鲁棒智能的关键。
95% 的单步成功率在 100 步任务中变成 <1% 的整体成功率。社会信任基于失败的体验,而非平均表现。解决可靠性需要错误恢复机制。
治理、监管、社会信任、机构适应能力——这些不比技术部分容易。技术进步与社会能力之间的差距正在扩大。同时关注两者是唯一可持续的道路。
Universal Transformers 的参数重用、Vision Transformers 的"切块即 token"、Nano Banana 的交错生成——最有影响力的想法往往是最简单的。
不是在某个领域的绝对专业能力,而是战略思维——将所有参数放在桌面上,做出下一个最有影响力的决策的能力。适应变化的能力可能比任何特定技术技能都更重要。