The MAD Podcast

AI 正在构建 下一代 AI

一场关于递归自我改进、多模态学习、持续学习,以及 AI 如何构建下一代 AI 的深度对话。

主持人
Matt Turck
嘉宾
Mostafa Dehghani
时长
约 65 分钟
观看完整访谈

核心洞察

01

递归自我改进正在发生

几乎所有实验室的新一代模型都在使用前一代模型构建。人类不再是改进 AI 的唯一推动者。

02

多模态构建世界模型

语言学习效率低——存在报告偏差。视觉和其他感官信息可以更高效地传达世界知识。

03

持续学习是下一个前沿

当前基础设施基于"冻结模型"假设。当持续学习成为现实,RAG、微调、检索系统都需要重新设计。

04

锯齿智能的结构属性

模型在某些任务上出色、在看似简单的任务上失败,这指向深度学习表示知识的根本方式。

05

长期任务的可靠性挑战

95% 的单步成功率在 100 步任务中变成 <1% 的整体成功率。社会信任基于失败的体验,而非平均表现。

06

技术与社会适应并行

治理、监管、社会信任、机构适应能力——这些不比技术部分容易。技术进步与社会能力之间的差距正在扩大。

深度洞察

01

"循环"在 AI 中的真正含义

01:17 - 05:04
核心观点

"循环"在 AI 中有两个层面:微观层面是推理时让模型在问题中反复思考,宏观层面是模型自我改进的闭环。

深度阐述
微观层面:推理时的循环

最基本的循环是"思维链"(Chain of Thought)。当你让一个模型"一步步思考"时,它就在使用额外的 token 来循环处理问题。更高级的形式包括自适应计算、草稿笔记(Scratchpad)、负稀疏性(Negative Sparsity)。这些方法本质上都是让模型在困难问题上"投入更多思考时间",通过增加计算量而非增加参数量来提升性能。

宏观层面:开发循环中的自我改进

更令人兴奋的是更高层面的循环——递归自我改进(Recursive Self-Improvement,简称 RSI)。这不是推理时的循环,而是整个模型开发流程的循环。Dehghani 将其描述为机器学习发展的自然延续:人类手动设计特征 → 深度学习自动学习表示 → 学习架构 → 数据驱动的方法 → 自我改进。每一步都在移除人类的瓶颈和偏见。

人类手动设计特征 → 深度学习自动学习表示 → 学习架构 → 数据驱动的方法 → 自我改进
个人感受
Dehghani 强调这不是全新的范式,而是同一个故事的新篇章。这种渐进式的视角很重要——它提醒我们,AI 的发展是有轨迹可循的,不是突如其来的魔法。
02

递归自我改进:离我们有多远?

05:04 - 10:02
核心观点

递归自我改进已经发生,但尚未完全自动化。关键瓶颈是长期任务和评估机制。

深度阐述
现状:半自动化

几年前提及递归自我改进,你还只能在会议上写一篇展望性论文。但今天,这已经成为现实:大多数人都没意识到,过去几个月里,几乎每个实验室的新一代模型都大量使用前一代模型构建。目前的情况是半自动化的。AI 参与了模型构建的各个环节,但仍需要人类监督和干预。方向很明确——完全自动化只是时间问题。

AI 构建 AI 的具体含义

这里的"AI 构建 AI"不是简单地用 AI 工具来获得灵感。它的核心是:AI 自动更新自身权重、以递归方式改进自己、可能导致能力的指数级加速。从半自动化到完全自动化,需要解决两个问题:长期视野(Long Horizon)和完全自动化。一旦这两点实现,"人类改进 AI 的瓶颈"将被移除。

延伸思考
完全自动化的 AI 研究会带来什么?它可能意味着模型改进的速度将不再受限于人类研究者的数量、睡眠时间或认知限制。这是真正令人兴奋也令人警惕的前景。
03

三大瓶颈:评估、自动化环境、长期可靠性

10:02 - 12:36
核心观点

你只能改进你能够测量的东西。评估是当前最大的瓶颈,其次是构建安全的自动化环境。

深度阐述
瓶颈一:评估难题

团队如果有明确的评估指标,就能取得巨大进展。但如果没有——就像递归自我改进领域——进展就会异常困难。目前我们缺乏:衡量我们离完整自我改进闭环有多远的指标、评估模型在特定框架内帮助自己改进程度的方法、多轮循环后模型表现的测量工具。

瓶颈二:自动化环境的复杂性

构建评估环境的技术挑战也令人望而却步。想象一下创建一个环境,让 AI 能够在 Google 内部安全地执行研究工程师或研究科学家的所有工作——这涉及安全性保障、测量模型能推进任务多远多久、将所有这些组件连接成高效的运行环境、确保评估的多样性。

"你只能改进你能够测量的东西。到最后,这几乎成了哲学问题,而不仅仅是技术问题。"
个人感受
这里有一个有趣的悖论:为了让 AI 能够安全地自动化研究,我们需要先构建复杂的评估环境;但为了构建这些环境,我们又需要 AI 的帮助。这是一个鸡生蛋还是蛋生鸡的问题。
04

形式化验证与模型崩溃

12:36 - 15:33
核心观点

形式化验证是强大的工具,但只能处理"干净"的领域。模型崩溃风险存在,但可以通过锚定真实世界信号来避免。

深度阐述
形式化验证的局限性

形式化验证被认为是解锁递归自我改进的潜在钥匙。对于数学和代码逻辑,它非常强大——证明要么成立,要么不成立。但在现实世界的"混乱"领域,形式化验证变得困难。你无法写出形式证明来验证"医生的建议是否正确"。Dehghani 提出了一个有趣的问题:能否基于形式化验证的方法,为现实世界的混乱部分构建类似紧密的反馈循环?

模型崩溃:风险与防范

模型崩溃是 AI 自我改进中的一个真正风险。当模型在一个完全封闭的循环中运作——比如只与自己对话或在受限环境中操作——它可能会过度适应那个特定环境,突然失去对其他任何事物的泛化能力。避免模型崩溃的核心是保持与真实世界的连接:确保有来自外部世界的信号、使用可靠的验证器、将模型锚定在真实数据上。

"关键是保持与真实事物的锚定。如果你有强大的验证器或某种真实奖励信号,AI 生成的数据可能非常强大。"
延伸思考
这让人联想到人类的"回声室效应"。当人们只接触相似观点时,认知会变得狭隘。AI 是否也存在类似的风险?保持多样性接触和外部反馈,可能对 AI 和人类都同样重要。
05

泛化与专业化的权衡

15:33 - 18:04
核心观点

长期目标是通才模型,但短期专业化是学习边界的最快方式。

深度阐述
长期愿景:通才模型

理想情况下,我们需要一个"知道一切"且"知道何时深入、何时泛化"的模型。想象一个智能编码代理:规划阶段需要通才能力——理解问题、收集信息、决定步骤;执行阶段需要专家能力——每一步都是顶级的编程能力。通才在规划时有用,专家在执行时强大。两者都需要。

短期策略:专业化作为阶梯

但从短期来看,构建专业化模型可能是探索边界的最快方式。专业化模型通常成为通才模型的垫脚石。例如,专注于编码的自我改进→ 成功后 → 扩展到更广泛的能力。Dehghani 的一个重要观点:"人们不在乎他们的问题属于哪个类别"。如果人类称某事为问题,AI 就应该能够解决它。

延伸思考
这种泛化与专业化的权衡,反映了人类教育中的经典问题:是培养通才还是专才?也许答案不是二选一,而是如何培养既有广度又有深度的"T型人才"——这个概念可能同样适用于 AI 的设计。
06

顶尖 AI 研究者会被自动化吗?

20:57 - 24:02
核心观点

预测未来几乎不可能。最有价值的可能是战略思维,而非在某个细分领域的绝对专业能力。

深度阐述
难以预测的未来

当 Karpathy 级别的研究者被自动化后,AI 就在创造自己。最终,是否无人理解 AI 如何工作?Dehghani 的回应充满了哲学思考。他提到自己一岁半的女儿,并反思过去几年里他多次被证明预言错误:有时他说"这会在六个月内发生"——从未发生;有时他说"这在未来十年内绝无可能解决"——两三个月后有人解决了。

Karpathy 的真正价值

Dehghani 对 Andrej Karpathy 的分析很有洞察:他的最令人印象深刻的方面不是他是个好程序员或好老师——他当然是——而是他对正在发生的事情有很好的整体视野。Karpathy 将自己置于信息流中,能够决定下一步最有影响力的行动是什么。而且他今天做的影响性事情与五年前完全不同。这种适应能力可能才是关键。

"他的最令人印象深刻的方面不是他是个好程序员或好老师——他当然是——而是他对正在发生的事情有很好的整体视野。"
延伸思考
如果人类研究者的价值从"执行"转向"战略",那么教育体系是否需要相应变革?我们是否应该更多培养批判性思维、战略规划和跨学科综合能力,而非纯粹的技术技能?
07

数据 vs 计算:当 AI 构建 AI 时

24:02 - 26:22
核心观点

"数据"的定义正在扩展。未来数据工作将转向为模型提供更多感官信息和真实世界锚定。

深度阐述
数据概念的扩展

当 AI 不断自我创造时,数据仍然重要吗?还是一切都变成计算?Dehghani 将"数据"的概念扩展到远超文本 token 的范围。数据是模型能够从中获得信号的任何事物:预测下一个 token(传统方式)、复杂的环境交互、物理世界的感官信息。

数据工作的转变

数据工作的价值不会消失,但会转向:构建环境——让模型能够与物理世界交互;提供感官锚定——确保模型在改进自己时保持与现实世界的连接。他提出了一个看似科幻但实际重要的问题:如何让模型能够"闻"?人类通过所有感官获得信息:椅子的硬度、房间的温度、视觉、听觉、触觉。这些输入塑造了我们对下一个想法的理解。

延伸思考
"传感器即服务"的创业公司正在兴起。这个方向可能是 AI 从"文本世界的智能"走向"真实世界智能"的关键。如果 AI 只能理解文本和图像,它对世界的理解永远是间接的、有缺陷的。
08

后训练 vs 预训练:进步将来自哪里?

26:22 - 28:16
核心观点

预训练是基础,你无法通过后训练弥补糟糕的基础模型。但后训练目前的投资回报率极高。

深度阐述
摇摆与平衡

过去一年的主旋律是后训练(强化学习)的加速。进步将在未来几个月或一年内来自哪里?Dehghani 的回答很诚实:这取决于你何时问这个问题。预训练和后训练之间会来回摇摆。但有些原则是明确的:预训练是基础——你永远无法通过后训练来弥补糟糕的基础模型;后训练投资回报率目前极高——一个小巧的聪明想法可以让模型在行为上提升 10 倍,而成本只是预训练的一小部分。

同时推进

Dehghani 自己在几个月前转向了 Gemini 的后训练工作(主要是编码和代理)。他见证了后训练是一个产生巨大影响的领域。但同时,Google DeepMind 在预训练方面也有大量令人兴奋的研究工作——新配方、新想法。这些工作将解锁许多下游可能性。

延伸思考
这种摇摆让人联想到科学理论发展与实验验证的关系。预训练是构建理论框架,后训练是精细调整。两者都必要,但在不同时期,其中一个可能更紧迫。
09

预训练没有死——新配方带来新活力

28:16 - 29:45
核心观点

说"预训练已死"为时过早。新想法正在为预训练注入新活力,可能从根本上改变基础模型能力。

深度阐述
何时推进预训练

几个月前出现了"预训练已死"的叙事。Dehghani 不同意这个观点。推进预训练想法是一个复杂度和预期收益的函数:有低垂果实时→ 推进简单优雅的后训练想法;基础模型成为瓶颈时→ 承担复杂的前训练配方。他说"预训练已死"时,可能指的是一两年前的方法。那些方法确实显示出明显的收益递减。

新想法的突破

但新想法正在为预训练注入新活力,突然开启通往"异域"的大门——可能从根本上改变基础模型长期能力的东西。这种"已死"然后"复活"的模式在技术发展中很常见。某项技术看似到达极限,但新的视角或方法重新点燃了它。这提醒我们不要过早宣布任何技术的死亡。

10

持续学习 vs 自我改进:两个概念,一个共同敌人

29:45 - 33:43
核心观点

持续学习是关于保持更新,自我改进是关于变得更聪明。两者的共同敌人是冻结的权重。

深度阐述
两个概念的区别

持续学习主要是关于模型保持最新——就像医生不断阅读新研究来刷新知识,确保知识不会过时。目标是:模型的知识截止日期不在过去。自我改进是关于模型随时间变得更聪明、提升能力,模型自己完成这件事。两者都有一个共同敌人——权重冻结的模型。如果模型冻结而世界继续前进,你既得不到自我改进也得不到持续学习。

灾难性遗忘

持续学习的一个主要问题是灾难性遗忘:模型训练完成后学习新信息,突然在主训练阶段学到的知识上出现退步。这是一个非常活跃的研究领域,但远未解决。持续学习目前还没有进入"利用阶段"——即我们有一个确定的配方,只需要将其产品化。它仍处于"探索阶段":研究者尝试不同想法,在想法之间跳跃,尚未形成共识。

延伸思考
持续学习的突破可能彻底改变企业数据管道和 RAG 系统的构建方式。如果模型能够持续更新,当前基于"冻结模型"假设构建的庞大基础设施可能需要重新设计。
11

Mostafa Dehghani 的 AI 之路:从怀疑 Transformer 到改变世界

33:43 - 36:13
核心观点

加入一群相信别人不相信的愿景的超级聪明人,会改变你的人生。

深度阐述
关键的 2017 年

Dehghani 在阿姆斯特丹大学获得博士学位。2016 年和 2017 年的几次实习将他推向主流。2017 年初在 Google Brain 实习,团队使用 LSTM 做摘要——他被震撼了:"这就是我余生想做的事"。2017 年晚些时候,招聘官告诉他,有个团队刚发表了一篇叫"Transformer"的论文,正在寻找实习生。

怀疑与意外

Dehghani 与 Łukasz Kaiser 聊天,Łukasz 对基于 Transformer 构建图灵机感到兴奋。但 Dehghani 的反应是:"我不知道是否想加入这个团队。他们做的东西太随机了。每个人都在做 LSTM。为什么要去和一群在这个叫 Transformer 的随机架构上工作的人在一起?它会死的。"然后招聘官找不到其他团队接纳他,所以他加入了。

"我不知道是否想加入这个团队。他们做的东西太随机了。每个人都在做 LSTM。为什么要去和一群在这个叫 Transformer 的随机架构上工作的人在一起?它会死的。"
个人感受
这个故事有多层含义:运气和意外在职业生涯中扮演重要角色;与有远见的人一起工作可以改变你的轨迹;有时"被迫"进入不熟悉的领域会带来突破性发现。
12

Universal Transformers:递归深度的故事

36:13 - 39:56
核心观点

重用参数和让模型多次处理自己的输出,开启了自适应计算的新方向。

深度阐述
核心直觉

Universal Transformer 论文写于 2018 年,被一个会议拒绝后于 2019 年被 ICLR 接受。论文的核心直觉是:模型重用参数并多次处理自己的输出。生成某些内容 → 将其再次传递给模型 → 模型有机会进一步完善。

算法任务的突破

Łukasz 有一个"算法任务"数据集。他们发现标准 Transformer 在某些问题上严重失败:将输入复制到输出、对超长输入进行算法操作。但循环可以完美处理这些问题。训练时使用固定计算量,但测试时让模型投入更多计算——在困难问题上"倾泻"更多 FLOPs——这个想法让他们非常兴奋。

有趣的视角转变

当时,人们更多关注用自适应计算来降低简单问题的成本——为什么在句子末尾的简单 token 上使用所有 24 层?但现在,视角转向了另一个方向:增加困难问题的成本。"这是同一枚硬币的另一面。"如果你有一个困难问题,想运行推理两周——现在我们关注如何增加计算,而不是减少。

"这是同一枚硬币的另一面。"
延伸思考
这个方向现在重新受到关注。随着推理成本成为部署的主要瓶颈之一,自适应计算——在需要时增加、在不需要时减少——可能成为关键效率技术。
13

Vision Transformers:16×16 像素块如何改变了 AI

39:56 - 43:47
核心观点

最简单的想法往往最强大:将图像切成小块,当作 token 处理,然后扩展。

深度阐述
为什么是 Vision?

这篇 2022 年的论文《An Image is Worth 16x16 Words》是另一个革命性贡献。有趣的是,Dehghani 以前从未做过视觉工作。他参与是因为办公桌就在视觉工作者旁边。当时他注意到一个问题:我们有 4000 亿参数的语言模型,但视觉方面最大的模型只有约 1 亿参数(ResNet)。为什么缩放没有收益?

简单的解决方案

他们开始思考:Transformer 中是否有某种东西使其可扩展?最初的想法很复杂——试图模仿卷积。但苏黎世的同事从一个简单想法开始:将图像分成 16×16 的像素块,每个块视为一个 token,忘记重叠块或窗口,直接适配到 Transformer,用判别训练进行扩展。它工作了。

突破性意义

这证明了 Transformer 可以像处理语言一样有效地处理图像。它为以下铺平了道路:视频采用 Transformer、音频采用 Transformer、原生多模态模型(如 Gemini 3)。单一架构、所有模态在训练期间——这让训练这些模型变得真正简单。

延伸思考
这个故事再次证明:简单往往胜过复杂。团队最初追求复杂的集成方案,但最终是一个朴素的"切块当作 token"想法成功了。这种模式在 AI 历史上一再出现。
14

Gemini、多模态与 Nano Banana:原生多模态的力量

43:47 - 47:46
核心观点

当模型能够原生处理所有模态时,真正的跨模态正迁移可能发生。

深度阐述
正迁移的希望

很多人认为图像生成是一个"翻译"过程:读取文本提示→翻译成图像指令→绘制。但 Gemini 是原生多模态的——同时处理文本和像素。Dehghani 最兴奋的是跨模态正迁移的可能性:如果训练模型擅长生成图像,它也会在生成文本方面变得更好吗?

语言报告偏差

这涉及语言学中的一个老概念——报告偏差:你拜访朋友家,看到香蕉形状的沙发。回家后,你谈论这个沙发的可能性远高于谈论普通沙发。"语言不谈论分布中间的东西。"但通过视觉输入,你有那个信息——无需报告它,它就在那里。通过语言获得关于世界的信息效率不高。不是不可能,而是不高效。

世界模型

这就是世界模型的概念:理想情况下,模型应该了解世界;仅通过文本可能做到,但不高效;多模态是一个很好的捷径;学习模态的最佳方式是学习如何生成它。例如学习重力:通过视频训练模型学习比重力教科书容易得多——重力在视频中自然发生,教科本需要大量文本才能传达重力概念。

"语言不谈论分布中间的东西。"
延伸思考
如果跨模态正迁移真正实现,它可能开启一个新时代:学习一项技能自动提升其他技能。这更接近人类的学习方式——我们通过多种感官和经验综合发展智能。
15

增量生成:从翻译到思考机器

47:46 - 52:44
核心观点

让模型在文本和像素空间中交替思考,可以实现增量生成和规划,绕过单次生成的限制。

深度阐述
交错文本-图像生成

Dehghani 希望将图像生成从"文本到图像的翻译器"推向"关于图像的思考机器"。这包括交错文本-图像生成:模型不仅可以在文本 token 中思考,还可以在像素空间中思考。生成文本→生成图像→生成更多文本→生成更多图像。

增量生成的优势

传统图像模型有阈值限制:询问 50 个细节的场景?可能;55 个?也许;60 个?需要重新训练。但使用交错生成,模型可以逐个生成细节:不期望模型第一次生成完美图像;期望模型规划生成。模型展现出真正的智能:"让我从大物体开始","稍后我会遇到困难,如果先放小物体,大物体就放不下了","下一步,中等物体,然后小的"。

延伸思考
增量生成模仿了人类艺术家的创作过程。没有画家一次性完成所有细节——他们先规划构图,然后逐步填充。AI 采用类似策略可能产生更自然、更可控的生成结果。
16

Nano Banana 2:更快更高效的背后

52:44 - 54:44
核心观点

速度提升来自模型大小、蒸馏配方和基础设施优化的结合。

深度阐述
三大因素

Nano Banana 2(Gemini 3.1 Flash Image)能够生成令人惊叹的图像,速度快得惊人。是什么让这成为可能?模型大小——从 Pro 规模变为 Flash 规模;蒸馏配方——团队花时间完善蒸馏技术:知识蒸馏、其他需要蒸馏到更轻量过程的组件;基础设施优化——这是"隐形的英雄"。

不同的服务挑战

Dehghani 描述场景:工程师随便走过来说"顺便说一句,我让模型快了 10 倍",非常随意的语气,令人印象深刻。图像模型与传统语言模型服务不同——不仅仅是下一个 token 预测。优秀的服务工程师可以找到不同的处理方式,带来显著的效率提升。

延伸思考
这个故事提醒我们,公众看到的突破背后,往往是大量看不见的工程工作。那些"顺便说说我让模型快了 10 倍"的工程师,是 AI 进步的真正英雄之一。
17

热点观点:被低估和被高估的

54:53 - 59:56
核心观点

锯齿智能被低估,持续学习被低估。技术崇拜被高估——治理、社会信任和机构适应能力同样重要。

深度阐述
AI 领域做错了什么?

Dehghani 认为我们低估了锯齿智能的难度。当模型能做很难的数学证明却很难数出单词中的字母时,人们只是笑笑然后继续。但这指向了系统深处未解决的问题——这些系统如何表示和处理知识的方式。这不是一个可以修补的 bug。这是一个结构属性。"我们看到模型在某些事情上表现糟糕,人们说'哦,让我通过系统指令或提示来修补'——但这是这些模型学习方式的结构属性。"

被低估的是什么?

持续学习被低估。基础模型目前本质上是"冻结在时间中"的。训练结束时一切结束,然后在这冻结模型之上构建了庞大的基础设施:RAG 管道、微调工作流、检索系统。这是一个过强的假设。我们需要更积极地思考持续学习,并将其推向生产。

人们对什么过于自信?

Dehghani 认为人们过度相信推进技术面就足够了。"人们认为如果只是让模型更聪明,其他一切都会跟上。在我看,一个真正擅长技术问题但对其他一切有盲点的 AI 版本无法在世界中创造有意义的进步。"我们还有:治理、监管、社会信任、获取和利益分配、机构吸收和适应技术的能力。这些不是小问题,如果不比技术部分更难的话,它们真的很难。技术进步的步伐目前远远超过世界发展这些机制的能力,而这个差距正在变大。

超长期任务的完全自动化

Dehghani 不想从零开始。但他提到了几个令人兴奋的方向。超长期任务的完全自动化——机器运行两周、一个月。当前的代理令人印象深刻,演示很好,但复合可靠性问题讨论不够。如果代理需要 100 个连续步骤完成任务,每步成功率为 95%(已经很好),完成整个任务的概率是 0.95^100 < 1%。"人们体验的不是模型的平均性能——他们体验的是失败。模型犯一个愚蠢的错误对信任的损害大于 100 件事做对的益处。"

"人们体验的不是模型的平均性能——他们体验的是失败。模型犯一个愚蠢的错误对信任的损害大于 100 件事做对的益处。"
延伸思考
这最后的观点可能是最重要的。技术狂奔突进,但社会适应、治理框架、信任机制——这些"软"东西可能最终决定 AI 能否真正造福人类。忽视它们是危险的。

精华收获

🔄

递归自我改进正在发生

几乎所有实验室的新一代模型都在使用前一代模型构建。人类不再是改进 AI 的唯一推动者。但完全自动化还需要解决评估机制和长期任务可靠性问题。

🌐

多模态是构建世界模型的捷径

语言学习效率低——存在报告偏差。视觉和其他感官信息可以更高效地传达世界知识。原生多模态训练最终可能实现跨模态正迁移。

📚

持续学习是下一个巨大前沿

当前基础设施基于"冻结模型"假设——RAG、微调、检索系统都建立在这个假设上。当持续学习成为现实,这些都需要重新设计。

🧩

锯齿智能是结构属性

模型在某些任务上出色、在看似简单的任务上失败,这指向深度学习表示知识的根本方式。理解这一点可能是解锁真正鲁棒智能的关键。

📊

长期任务的可靠性是复合问题

95% 的单步成功率在 100 步任务中变成 <1% 的整体成功率。社会信任基于失败的体验,而非平均表现。解决可靠性需要错误恢复机制。

⚖️

技术进步必须与社会适应并行

治理、监管、社会信任、机构适应能力——这些不比技术部分容易。技术进步与社会能力之间的差距正在扩大。同时关注两者是唯一可持续的道路。

简单往往胜过复杂

Universal Transformers 的参数重用、Vision Transformers 的"切块即 token"、Nano Banana 的交错生成——最有影响力的想法往往是最简单的。

🎯

AI 时代最有价值的技能

不是在某个领域的绝对专业能力,而是战略思维——将所有参数放在桌面上,做出下一个最有影响力的决策的能力。适应变化的能力可能比任何特定技术技能都更重要。