OpenAI Town Hall

AI 时代 生存哲学

从 GPT-5 到 100 倍降本,从科学范式转移到人类创造力的最后堡垒。Sam Altman 为我们勾勒出未来两到三年内科技与社会的碰撞轮廓。

主讲人
Sam Altman
时长
59:44
话题数
16 个核心议题
观看完整视频

核心要点

01

软件工程重构

从"写代码"到"意图实现",工程师将转向更高维度的价值创造。

02

商业逻辑守恒

GTM(获取用户)依然是创业公司最难逾越的鸿沟。

03

智能成本下降

到 2027 年底,同等水平的智能成本将下降至少 100 倍。

04

创业者生存法则

通过"GPT-6 测试",确保你的产品价值与模型能力呈正相关。

05

科学范式转移

AI 将科学发现从"线性进度"推向"指数增长"。

06

AI 时代必备能力

高能动性、韧性与适配能力将成为决定胜负的硬通货。

深度洞察

01

软件工程的重构:从"写代码"到"意图实现"

00:00-02:16
核心观点

AI 的介入并非减少了软件工程师的需求,而是通过彻底改变工作的"形状",将人类从枯燥的编写与调试中解放,转向更高维度的价值创造。

深度阐述
职业形态的演变

未来的工程师不再是坐在显示器前疯狂打字的人,而是能够精准驱动计算机实现人类意图的"指挥官"。

价值捕获的转移

调试和打字的时间将大幅缩减。历史上每次工程技术的革新都让更多人加入了生产行列,世界对软件的需求从未放缓。

软件的"个性化时代"

我们正在走向一个每个人都能拥有"独家软件"的时代,软件将不再是静态的通用产品,而是根据个体需求实时生成和定制的工具。

个人感受
Sam Altman 展现出一种极其乐观的技术本质主义:他坚信技术进步带来的效率提升,最终总能转化为更广阔的就业市场和人类福祉。
02

商业逻辑的守恒:GTM 依然是最大的瓶颈

02:17-04:23
核心观点

即便 AI 让产品构建成本降至趋近于零,获取用户注意力(GTM)的难度依然遵循物理法则,成为创业公司最难逾越的鸿沟。

深度阐述
注意力的稀缺性

在万物丰饶的未来,人类的注意力是极少数无法复制的"大宗商品"。

旧规则依然有效

AI 并没有让建立一家伟大的企业变得更容易。差异化价值、获客肌肉、品牌粘性,这些传统的商业法则在 AI 时代依然是生死线。

自动化的双刃剑

虽然 AI 可以自动化营销和销售,但因为每个人都在用 AI 竞争,获客成本反而可能在这一过程中被推高。

"即便在一个激进丰饶的未来,人类的注意力依然是极其有限的商品,竞争只会更加激烈。"
03

智能体的未来:从单一工作流到多主体编排

04:33-07:01
核心观点

OpenAI 并不确定什么才是最佳的 AI 交互界面,但这正是开发者最大的机会所在——填补模型能力与用户价值之间的巨大鸿沟。

深度阐述
交互界面的多样性

有人喜欢像电影中那样操作 30 个屏幕的复杂系统,有人则喜欢安静的语音模式。OpenAI 无法独自定义所有场景。

"模型余力"现象

目前模型能做到的事情,与用户知道如何让它做到的事情之间,存在巨大的"悬垂(Overhang)"。谁能做出最好的工具帮助用户释放模型潜力,谁就是赢家。

不确定的愿景

OpenAI 会尝试自己的版本,但更希望看到开发者去探索多代理协作(Multi-agent orchestration)的不同范式。

04

经济层面的巨变:通缩压力与权力的重新分配

07:02-09:52
核心观点

AI 将成为一种极其强大的普惠力量,通过极低的成本让资源匮乏者获得曾经只有精英阶层拥有的生产力。

深度阐述
成本的代际跃迁

到今年年底,只需花费 100 到 1000 美元的推理费,配合一个好点子,就能完成曾经需要一个团队工作一年的软件开发。

平等化力量

这种极致的廉价不仅限于代码,随着机器人技术的进步,实物生产也将受此影响。这将为那些在传统社会结构中处于劣势的人提供一个公平的、无需依赖传统资源积累的机会。

政策的忧虑

他也警示,AI 可能导致权力和财富的高度集中,这需要政策层面的积极干预来防止。

05

模型进化的取舍:GPT-5 的"偏科"与全能理想

09:53-12:21
核心观点

OpenAI 在研发 GPT-5 系列时,战略性地优先选择了"智力与推理"而非"文采",但最终的目标依然是全能的通用智能。

深度阐述
带宽的限制

OpenAI 内部也面临带宽有限的问题,他们在 5.2 版本中倾尽全力攻克了逻辑推理、编程和工程智能。

智力的可塑性

Altman 相信智力是高度可替代的(Fungible)。一个能写复杂代码的模型,理应也能写出清晰的文章。

写作的本质

他认为写作的最高境界是"清晰的思考"而非"华丽的辞藻"。未来的模型将补齐文笔,但在当前阶段,推理能力的突破更为紧迫。

06

开发者关心的硬指标:100 倍降本与速度的抉择

12:22-14:27
核心观点

到 2027 年底,同等水平的智能成本将下降至少 100 倍,而"极致的速度"可能成为下一个溢价点。

深度阐述
降本曲线

OpenAI 内部对降本极具信心,100 倍的降幅被认为是保底目标。

速度 vs. 成本

Altman 观察到一个新趋势:用户对输出速度的需求(1/100 的延迟)甚至超过了对降本的需求。这对于 OpenAI 来说是两种截然不同的工程挑战。

始终在线的 AI

只有成本足够低,数千万个智能体才能在后台为客户"始终在线"地运行。

07

创业者的生存法则:通过"GPT-6 测试"

16:23-18:07
核心观点

不要构建那些模型稍微升级就能被"覆盖"的补丁式功能。真正的护城河在于:模型越强大,你的公司就越受益。

深度阐述
顺势而为

如果你必须祈祷 OpenAI 慢点更新,你的商业模式就是不可持续的。

网络效应

真正的护城河依然是传统的网络效应、用户粘性和对 GTM 难题的解决能力。

"如果 GPT-6 带来飞跃式的更新,你的公司会感到高兴还是悲伤?"
08

想法的溢出:如何让 AI 成为你的"Paul Graham"

19:32-23:05
核心观点

AI 最有价值的贡献之一将是作为"头脑风暴伙伴",通过理解你的背景和历史,为你提供高质量的种子灵感。

深度阐述
Paul Graham Bot

Altman 梦想构建一个像 Paul Graham(YC 创始人)那样的 AI。它擅长提问和提供"种子",哪怕 95% 的点子被拒绝,剩下的 5% 也足以改变世界。

超越琐碎

内部版本的 5.2 已经让科学家们感到惊叹,它的建议已不再琐碎,具备了产生科学洞见的能力。

09

科学研究的拐点:从"无限助教"到"无限博士后"

25:07-29:49
核心观点

AI 正将科学发现从"线性进度"推向"指数增长",科学家正在学习一种全新的"广度优先搜索"研究技能。

深度阐述
国际象棋类比

现在的科学研究正处于"深蓝击败卡斯帕罗夫"后的混合阶段。虽然目前人类+AI 强于纯 AI,但 AI 独立完成闭环研究的那一天终会到来。

研究范式的转移

科学家现在可以同时开启 20 个新课题,利用 AI 作为"无限的博士后"进行初步探索,而人类负责最后的判断和直觉筛选。

分布式实验室

比起 OpenAI 建立自己的湿实验室,Altman 更看好全球科研社区拥抱 AI 带来的分布式、去中心化的科学发现潮流。

10

安全与伦理:从"防火墙"转向"社会韧性"

29:50-33:15
核心观点

在生物安全和网络安全面前,单纯的封堵已不可行。社会必须像对待火灾一样,从构建底层韧性和代码规范入手。

深度阐述
生物安全警钟

Altman 坦言 2026 年最让他紧张的是生物安全(Bio-security)。模型在生物学上的表现过于出色。

防火安全类比

人类曾因火灾烧毁城市而禁止用火(如宵禁 curfew 的词源),但最终我们选择了建立建筑防火规范。AI 同样需要"社会化韧性",而不是指望实验室能永久封锁某些指令。

11

创作者的尊严:为什么我们依然在乎"人类制造"

51:40-55:24
核心观点

虽然 AI 能生成完美的艺术品,但人类对"创作者生命体验"的连接需求是不可替代的。

深度阐述
"Clanker"(敲击者)

这是 Altman 最喜欢的对 AI 的贬称,它生动体现了人们对机械产物的本能排斥。

主观评价的断层

实验表明,如果观众被告知一幅画是 AI 做的,他们的欣赏程度会立即暴跌。

生命经验的价值

我们读完一本伟大的小说,第一反应是想去了解作者的人生。这种跨越时空的人类连接,是 AI 永远无法提供的。未来的创作,人的策展、编辑和背后故事将占据价值的核心。

12

终极建议:AI 时代的必备软实力

57:39-59:44
核心观点

在这个瞬息万变的时代,具体的编程技能将退居二线,而高能动性(High Agency)、韧性与适配能力将成为决定胜负的硬通货。

深度阐述
不再是"学编程"

Altman 认为最核心的技能已经转向了那些"软技能"。

可学习的能动性

作为投资者,他最惊讶的发现是"高能动性"是可以学习的。通过高强度的训练(如三周的 Boot Camp),普通人也可以变得极其强大。

13

代理的"主权"之争:谁拥有 AI 的反馈回路?

34:00-39:15
核心观点

OpenAI 不会抢走开发者的用户数据和逻辑,相反,他们正在构建一种"标准接口",让开发者能够拥有并运行属于自己的私有代理。

深度阐述
所有权的分层

Altman 明确表示,OpenAI 的目标是做"底座"。他预言未来会有一种类似 POSIX 的代理协议,允许开发者在 OpenAI 的模型之上,保留对用户反馈回路(Feedback Loop)的控制权。

可靠性挑战

他承认当前的代理在面对"长路径任务"时依然不够稳定。34:00 左右,他提到 OpenAI 正在研发一种新的"自愈"机制,让模型在发现错误时能自动回溯。

"我们不希望成为唯一的应用层。如果所有的代理都长得一模一样,那将是互联网的灾难。"
14

隐私与定制的平衡:模型不再是"黑盒"

39:16-43:50
核心观点

OpenAI 正在从"通用模型"转向"可分叉(Forkable)"的模型架构,允许企业在完全隔离的环境下训练自己的微型垂直模型。

深度阐述
数据隔离的承诺

针对企业级用户的担忧,Altman 强调了 2026 年的新准则:任何通过 API 传输的专有业务逻辑,不仅不会被用于训练基础模型,甚至可以实现"端到端"的逻辑加密。

垂直化的护城河

他建议开发者不要试图在通用智力上超过 OpenAI,而应该去深挖那些"OpenAI 拿不到数据"的领域。例如,特定行业的合规流程、私有的工程文档等。

方法论指南

对于初创公司,他建议采用"大模型指挥 + 小模型执行"的架构,这比单纯依赖一个 GPT-5 更具成本效益。

15

Stargate 与算力平权:为什么 $100B 投资对你很重要

43:51-48:20
核心观点

巨大的基建投入(如 Stargate 项目)不是为了垄断,而是为了将智能的边际成本压低到"可以忽略不计"的程度,从而引发第二次工业革命。

深度阐述
智能即电力

他类比了 19 世纪的电力网。只有当电力便宜到家家户户都能用时,电灯、洗衣机、工厂才会出现。目前的 AI 还是"奢侈品"。

打破算力瓶颈

他坦言,现在的许多应用创新(如实时视频解析)受限于推理成本。Stargate 的目标是让每一个开发者都能以 2024 年万分之一的价格,调用 2026 年的顶级智力。

个人感受
他在描述这些宏大基建时,眼神中透露出一种近乎偏执的使命感,仿佛他看到的不是服务器架,而是人类文明的新底座。
16

硬件的迷思:OpenAI 会做手机吗?

48:21-51:39
核心观点

OpenAI 对成为另一个硬件厂商(如苹果)没有兴趣,但他们对"AI 原生形态的交互设备"充满好奇,并支持开发者去定义它。

深度阐述
软硬结合的必然性

Altman 认为现在的智能手机是为"指尖交互"设计的,并不适合"AI 代理"。他暗示了可穿戴设备、智能眼镜可能是更好的载体。

生态位选择

他澄清了关于 OpenAI 独立造芯和造手机的传闻。OpenAI 更倾向于作为"核心系统(OS)"存在,而非去做具体的硬件组装。

延伸思考

他提到,当 AI 能够"看"到你所看到的一切时,隐私的定义将被迫重写。这不是技术问题,而是社会契约的问题。

精华收获

1

个人竞争力的重塑

未来的核心不再是掌握某种具体的技术栈,而是具备驱动模型实现复杂目标的能力。"高能动性"和"适配能力"将是职业生涯的护城河。

2

创业的"金标准"

通过 GPT-6 测试。确保你的产品价值与模型能力呈正相关,而不是在模型迭代的边缘捡漏。

3

成本与效率的预判

做好智能成本下降 100 倍的准备,思考在"几乎免费的智力"和"极低延迟"的环境下,哪些曾经不可能的场景会变成刚需。

4

人文价值的溢价

在一个 AI 生成内容泛滥的时代,真实的人类体验、独特的生命故事以及深度的策展能力将变得比以往任何时候都更加值钱。

5

技术选型的启发

不要在 OpenAI 的路线上"硬碰硬"。利用即将到来的100倍降本机会,去构建那些现在看起来"贵得离谱"但在未来会成为常态的复杂应用。

6

代理(Agent)的开发思路

关注反馈回路(Feedback Loop)。谁能最快地根据真实世界的运行结果来微调代理的行为,谁就能在 GPT-6 时代生存下来。

7

学习的范式转移

从"记忆与练习"转向"思考与评估"。我们应当像对待计算器一样对待 AI 写作和编程工具,将教育的重心重新放回人类特有的批判性思维和创意起源上。