如果现代 AI 行业是一座大厦,那么支撑它的 90% 的突破性成果都来自谷歌。DeepMind CEO 分享他对 AGI 时间表、模型商品化、药物研发革命和 AI 安全的深度思考。
观看完整访谈Demis 基于自 2010 年以来的持续推演,认为 AGI 有很大概率在五年内实现,他们至今仍在"正轨"上。
虽然性能提升从指数级放缓,但继续扩展算力仍然能带来可观回报,只是需要更多投入。
顶尖实验室之间的差距正在拉大,因为现有算法创新正在被"榨干",需要新的突破才能继续前进。
通过整合谷歌内部的人才、算力和资源,以创业公司的专注度执行,从追赶者变成了领先者。
AI 将在 5-10 年内完成整个药物设计引擎,Isomorphic Labs 正在构建通用药物发现平台。
需要国际标准的监管体系,建立类似国际原子能机构的 AI 安全机构,制定基准测试和认证机制。
AGI(通用人工智能)的标准应该清晰——它必须具备人类大脑的所有认知能力。
Demis 对 AGI 的定义始终如一:一个展现出人类大脑所有认知能力的系统。这个定义并非随意选择,而是基于一个基本事实——人类大脑是我们在整个宇宙中已知的唯一"通用智能可行"的存在证明。
"五年内有很大概率实现。"这个时间框架比很多人想象的要短,但 Demis 并非随口而言。他提到,早在 2010 年 DeepMind 创立之初,他的联合创始人 Shane Legg 就在博客中预测过 AGI 的到来。那时候 AI 还是冷门领域,几乎没人关注。他们通过推演算力和算法的进步速度,预测从 2010 年算起大约需要 20 年。现在回头看,他们几乎还在正轨上。
算力是当前 AI 发展的最大瓶颈,原因不仅是训练更大模型需要更多算力,更重要的是实验本身需要大量算力。
当人们谈论"扩展定律"(scaling laws)时,通常指的是构建参数越来越多、架构越来越大的系统。但 Demis 指出,算力紧缺还有另一个被忽视的原因——研究实验本身。
当研究人员有了新的算法想法,需要在合理的规模上测试它,否则结果无法应用到实际系统中。如果有大量研究员都在产生新想法,那么测试这些想法所需的算力就会非常惊人。"云计算就是我们的工作台。"Demis 这样描述。在这个工作台上,每一个新想法都需要足够的资源来验证,这正是算力需求爆炸式增长的原因。
我们没有触及扩展定律的极限,但回报率正在从指数级增长转向更平缓但仍可观的线性增长。
很多人声称 AI 的性能提升正在"平台化",Demis 认为这种看法过于简单。在早期,每新一代大型语言模型都能带来近乎翻倍的性能提升——这是指数级的增长。但显然,这种指数级增长不可能永远持续。在某个点,增速必然会放缓。
然而,放缓不等于停滞。Demis 强调,他和 Google DeepMind 仍然在通过算力扩展获得"非常可观的回报"。只是这些回报从早期的指数级变成了现在更平缓、但仍然重要的增长。他做了一个重要的区分:当增长不再呈指数级时,不代表扩展不再有价值。只是我们进入了一个新阶段——需要更多投入才能获得提升,但提升依然真实存在。
AI 在大多数领域都超出了 Demis 的预期,但仍然缺少一些关键能力,尤其是持续学习。
回顾过去五到十年,AI 的发展实际上比 Demis 当初想象的更快。比如视频生成模型,以及 DeepMind 最新的 Genie 系统——这是一个可以交互的世界模型。如果能时光倒流,把 Genie 展示给十年前的 Demis,他会感到震惊。
但有些东西仍然缺失。最明显的就是"持续学习"(continual learning)——这些系统在训练完成后、部署到世界后,无法继续学习新东西。它们的能力在部署的那一刻就被固定了。
人类大脑通过睡眠和强化学习优雅地整合新知识,而 AI 研究者还没有找到等效的机制。
这是一个看似基础却极其困难的问题。为什么人类可以持续学习,而 AI 不能?Demis 指出,所有顶尖实验室都在研究这个问题。人类大脑有一种优雅的解决方案——通过睡眠进行记忆巩固(consolidation)。白天形成的记忆会在睡眠中重放,其中一部分信息被优雅地整合到现有的知识库中。
他思考了一段时间,认为 AI 可能需要类似的机制——一种能够将新信息与现有知识库优雅融合的方法,而不是简单地覆盖或遗忘。
通过整合谷歌内部的所有 AI 人才、算力和资源,DeepMind 从追赶者变成了领先者。
几年前,DeepMind 在大模型领域还处于落后位置。但今天,Harry 在社交媒体上公开表示,DeepMind 已经成为他研究新节目时的"首选"。这种转变是如何发生的?
Demis 给出了答案:组织架构的调整。谷歌内部实际上一直拥有业界最深厚、最广泛的研究团队——Google Brain、Google Research 和 DeepMind。过去十年中,支撑现代 AI 行业的 90% 的突破都来自这些团队之一。无论是 AlphaGo 和强化学习,还是 Transformer 架构,都是这些团队的成果。
问题在于,这些力量是分散的。DeepMind 的整合策略包括:1. 人才整合:把全公司最顶尖的人才集中到一个方向;2. 资源整合:合并算力资源,构建统一的大型模型;3. 创业心态:以近乎初创公司的节奏和专注度推进。
持续学习、新的记忆系统架构、长期规划能力,以及解决"锯齿状智能"的不一致性问题。
当被问及"如果有人能实现突破,那应该是我们"时,Demis 列举了几个仍然缺失的关键能力:1. 持续学习:前面已经讨论过;2. 新的记忆系统:目前的长上下文窗口是一种"暴力"方案——把所有东西都塞进去。他认为需要发明更精细的记忆架构;3. 长期规划:现有系统不擅长跨越多年时间尺度的规划,而人类可以做到这一点;4. 一致性问题:Demis 把当前 AI 称为"锯齿状智能"(jagged intelligence)。
在某些任务上表现出色,但换一种提问方式,它们可能在很基础的事情上失败。一个真正通用的智能不应该有这些"空洞"——它应该在不同表达方式下保持稳定的推理能力。
顶尖实验室之间的差距正在拉大,拥有算法创新能力的一方将获得越来越大优势。
很多人担心大模型会商品化——所有模型的能力趋同,竞争变成单纯的成本比拼。Demis 不同意这种看法。他认为,目前三到四家领先实验室之间的差距正在扩大。原因很简单:现有的算法创新正在被"榨干",想要获得新的提升,需要发明全新的算法思路。
那些有能力发明新算法的实验室,将在未来几年获得更大优势。与此同时,AI 工具本身(编程工具、数学工具)也在帮助研究者构建下一代系统——这进一步扩大了领先者的优势。
开源模型将继续存在,但通常会落后前沿模型约六个月;它们更适合小型开发者和学术用途。
DeepMind 一直是开放科学和开源模型的支持者。从最初的 Transformer 到 AlphaFold,他们向研究社区贡献了大量成果。
但 Demis 对开源未来的判断很现实:开源模型通常会落后于绝对前沿约六个月。开源社区需要时间来重新实现和理解那些最新的创新。
这并不意味着 Google 会放弃开源。他们正在推进 Gemma 系列开源模型,目标是成为"同尺寸中最优"的选择。这些模型更适合:小型开发者、学术研究者、初创公司的早期阶段、边缘计算场景。
LLM 不会被替代,而是会作为基础组件,与其他系统(如世界模型)共同构成完整的 AGI。
关于 LLM 之后的世界,业界有不同观点。OpenAI 的首席科学家 Ilya Sutskever 认为可能需要全新的范式。Demis 则持不同看法。他坚定地认为基础模型不会消失,它们展现出的能力已经证明了自己的价值。
问题不在于"是否需要替代 LLM",而在于"LLM 是 AGI 的全部,还是只是其中一个关键组件"。他的判断是:LLM 将作为基础,在其上构建其他系统,比如世界模型。这不是替代关系,而是叠加关系。
当被问及五年后可能实现 AGI 的世界时,Demis 的回答充满了希望:科学和医学的"终极工具"、加速科学发现、找到疾病的治疗方法、迎来科学发现的"新黄金时代"。
AI 将在 5-10 年内完成整个药物设计引擎,但缩短临床试验时间需要监管体系的配合。
Harry 提到一个切身问题:他的母亲患有多发性硬化症,即使 AI 加速了药物发现,临床试验仍可能需要十年,这意味着他的母亲可能无法及时受益。
在 AlphaFold 解决蛋白质折叠问题后,DeepMind 分拆出了 Isomorphic Labs。这家公司专注于解决药物研发的其余环节——化合物设计、毒性测试等。Demis 预计,这个完整的药物设计引擎将在未来 5-10 年内准备就绪。
AI 可以通过以下方式加速:模拟人体代谢的部分过程、根据基因组分层患者、跳过某些步骤(如动物实验)。但关键在于监管体系。当首批"AI 设计的药物"完成整个流程后,监管机构需要足够的信心来接受模型的预测,从而允许简化流程。
需要国际标准的监管体系,测试系统是否具有欺骗性等不良特性,并建立认证机制。
Stephen Hawking 曾说:"我们在 AI 上必须一次做对,因为我们可能没有第二次机会。"Demis 完全同意这个判断。
他担忧两个主要风险:1. 恶意使用:这些技术是"双用途"的——可以用于科学和健康的巨大善举,也可能被不良行为者重新用于有害目的;2. 技术风险:当系统变得更强大、更具代理性、更自主时,如何确保它们保持在人类设定的护栏内。
理想的监管应该包括:最低标准(所有领先提供商都必须遵守的国际标准)、基准测试(检测不良特性的测试,如欺骗性)、认证机制(类似质量认证的"风筝标记",表明模型具有某些安全保障和承诺)。
最终裁决权应该在政府,但技术工作应由 AI 安全研究所等独立技术机构完成。
在一个充斥着真假难辨内容的媒体环境中,谁来验证 AI 系统的安全性?Demis 的答案是分层结构:技术层面由 AI 安全研究所等独立技术机构进行技术评估和审计;政府层面由政府承担最终责任。
他特别提到英国的 AI 安全研究所,认为它在 Rishi Sunak 任首相期间建立,正在做很棒的工作。美国也有类似机构。Demis 认为领先的 AI 研究国家都应该建立类似机构,配备高质量的研究人员,能够独立评估这些系统是否达到正确标准。这种"第三方审计"模式可能是建立公众信任的关键。
建立一个类似国际原子能机构的国际 AI 安全机构,制定基准测试和禁止事项(如不可读的机器语言输出)。
当 Harry 给他一个"魔法棒"——只能用于解决 AI 安全的一个问题时,Demis 的回答是:建立一个国际机构,类似国际原子能机构。AI 安全研究所可以接入这个机构,研究社区也应该参与制定正确的基准测试。
他特别提到一些需要禁止的行为:AI 系统输出人类无法理解的机器语言 token(这会引入新的脆弱性)。这些机构将测试这些方面,并给公众带来信心——这些将变得极其强大的系统已经过独立检查和审计。
AI 对就业的冲击将是工业革命的 10 倍,但速度是 10 倍;我们需要更好地缓解负面影响。
当 Harry 提到 Marc Andreessen 称"劳动置换问题完全是废话"时,Demis 表示他不同意。他承认,过去每次革命性技术都带来了大量工作 disruption。旧的工作消失,但新的、更高薪的工作出现——这是历史的常态。
Demis 将 AGI 的影响量化为"工业革命的 10 倍,但速度是 10 倍"。工业革命用了一个世纪展开,而 AGI 的变革将在十年内完成。他引用工业革命的历史:虽然带来了巨大动荡,但也带来了现代医学,儿童死亡率从 40% 降到极低水平。我们当然不希望这些进步没有发生,但这次,我们应该更好地缓解负面影响。
Demis 引用了一句名言:"我们总是高估一年内能做的事,而低估十年内能做的事。"他判断:短期(今天到明年):AI 在某些方面被过度炒作;长期(约十年尺度):AI 的革命性仍然被严重低估。
关于 AI 可能加剧的财富集中问题,Demis 提出了一些可能的解决方案:养老基金应该投资大型 AI 公司,确保每个人都有"一份";每个国家都应该建立主权财富基金来投资 AI;重新分配生产力收益,让每个人受益。他提到,AI 可能在 5-10 年内带来可再生能源的突破,如核聚变、新型电池、超导体等,这些可能彻底改变经济的性质。
AI 在中长期将"自给自足"能源成本,通过优化电网、气候建模,以及推动聚变等新技术。
AI 的能源需求是前所未有的。但 Demis 的判断令人意外:AI 在中长期将"多倍地回报"它消耗的能源。
他列举了三个方向:1. 优化现有基础设施:通过 AI 优化,国家电网可能获得 30-40% 的额外效率;2. 气候和天气建模:AI 可以提供最好的天气建模系统,帮助理解气候变化的影响并采取缓解措施;3. 突破性技术:AI 将帮助实现核聚变、新型电池、超导体等技术突破。
当人类拥有近乎无限的清洁能源(如核聚变)时,我们就能更便宜地进入太空——因为可以通过蒸馏海水获得无限火箭燃料。
英国拥有世界顶级的人才、科学传统,以及远离硅谷"喧嚣"的深度思考环境。
Demis 和 DeepMind 完全可以选择搬到硅谷,但他们选择了留在伦敦。原因有四:1. 人才优势:英国拥有世界前十大学中的三四所(剑桥、牛津、帝国理工、UCL),培养出了令人羡慕的毕业生和博士生;2. 科学传统:从图灵、霍金、达尔文到牛顿,英国有深厚的科学突破和思想家传统;3. 竞争环境:当时这里对深度科技创业人才的竞争更少,可以吸引欧洲顶尖大学的人才;4. 地理距离:远离硅谷的"漩涡"反而有助于深度思考和原创性。
Demis 提到,远离硅谷有一些劣势——不在这个网络中,不知道最新的八卦和趋势。但对于深度科技来说,这不是坏事。你不希望被最新的时尚分散注意力。DeepMind 从一开始就知道这是一场 20 年的马拉松。
欧洲缺乏的不是人才,而是成长阶段的资本。解锁养老基金的投资限制可能是关键。
欧洲一直被美国批评缺乏大型科技公司。目前,欧洲还没有市值超过万亿美元的公司。Demis 认为这并非不可能——Spotify、Helsing 都有潜力,他自己的 Isomorphic Labs 也希望成为第一家。但欧洲确实存在结构性劣势:市场分散(多个小市场组合)、缺乏成长阶段的资本。
他用"魔法棒"问题来回答如何解决这个问题:解锁养老基金对成长阶段科技公司的投资限制。欧洲擅长初创公司的早期阶段,但要跨越到"万亿级全球玩家"的鸿沟,需要十亿美元级别的融资。这种雄心和资本市场的支持能力,十年前 DeepMind 融资时缺失,今天仍然不足。
两个"野心过大"的人一见如故,因为他们都热爱科幻,思考方式都超出了常人。
2011 或 2012 年,在 Founders Fund 的投资组合会议上,Demis 和 Elon 第一次见面。那时候 DeepMind 还是"小小的后起之秀",有一个简短的演讲时段,而 Elon 是压轴的主讲嘉宾。他们在会后相遇——Demis 记得 Elon 说是在洗手间擦肩而过时认识的。
两人立刻产生了共鸣——他们都"野心过大",都热爱科幻。Demis 特别想去参观 SpaceX 的火箭工厂,Elon 邀请了他,这就是他们的第二次会面。
当技术和经济问题都解决后,我们仍需面对哲学问题;Demis 希望留下的遗产是推动科学进步,治愈疾病。
很多人在担心 AGI 带来的经济问题,但 Demis 担心的是更深层的问题。假设我们搞定了技术问题,也搞定了经济分配问题,然后呢?我们仍然需要回答:什么是意义?什么是目的?什么是意识?作为人类意味着什么?他说:"我们需要一些伟大的新哲学家来帮助我们应对这个问题。"
当被问及希望如何被记住时,Demis 的回答简洁而深刻:"推进科学,构建为世界带来不可思议利益的技术,比如治愈可怕的疾病。"
AGI 有很大概率在五年内实现。扩展定律未死,但回报率从指数级转向线性。顶尖实验室的差距正在拉大,算法创新能力成为关键优势。
持续学习、新的记忆系统架构、长期规划能力、解决"锯齿状智能"的一致性问题——这些是通往 AGI 的关键里程碑。
AI 将在 5-10 年内完成整个药物设计引擎。Isomorphic Labs 正在构建通用药物发现平台,但缩短临床试验需要监管体系的配合和信心建立。
需要国际标准的监管体系,测试欺骗性等不良特性,建立认证机制。Demis 建议建立类似国际原子能机构的 AI 安全机构。
AI 的影响将是工业革命的 10 倍,但速度是 10 倍。需要通过养老基金投资、主权财富基金等方式重新分配收益,更好地缓解负面影响。
AI 将在中长期"多倍回报"其能源消耗,通过优化电网(30-40% 效率提升)、气候建模,以及推动聚变、新型电池、超导体等突破。
欧洲缺乏的不是人才,而是成长阶段的资本。解锁养老基金投资可能是解决方案。Demis 选择留在英国,因为这里有顶级人才、科学传统和深度思考环境。
Demis 希望留下的遗产是推动科学进步,治愈疾病。当技术和经济问题都解决后,我们仍需面对"意义"、"目的"、"意识"这些更深层的问题。