从 GPT-5 到 100 倍降本,从科学范式转移到人类创造力的最后堡垒。Sam Altman 为我们勾勒出未来两到三年内科技与社会的碰撞轮廓。
观看完整视频从"写代码"到"意图实现",工程师将转向更高维度的价值创造。
GTM(获取用户)依然是创业公司最难逾越的鸿沟。
到 2027 年底,同等水平的智能成本将下降至少 100 倍。
通过"GPT-6 测试",确保你的产品价值与模型能力呈正相关。
AI 将科学发现从"线性进度"推向"指数增长"。
高能动性、韧性与适配能力将成为决定胜负的硬通货。
AI 的介入并非减少了软件工程师的需求,而是通过彻底改变工作的"形状",将人类从枯燥的编写与调试中解放,转向更高维度的价值创造。
未来的工程师不再是坐在显示器前疯狂打字的人,而是能够精准驱动计算机实现人类意图的"指挥官"。
调试和打字的时间将大幅缩减。历史上每次工程技术的革新都让更多人加入了生产行列,世界对软件的需求从未放缓。
我们正在走向一个每个人都能拥有"独家软件"的时代,软件将不再是静态的通用产品,而是根据个体需求实时生成和定制的工具。
即便 AI 让产品构建成本降至趋近于零,获取用户注意力(GTM)的难度依然遵循物理法则,成为创业公司最难逾越的鸿沟。
在万物丰饶的未来,人类的注意力是极少数无法复制的"大宗商品"。
AI 并没有让建立一家伟大的企业变得更容易。差异化价值、获客肌肉、品牌粘性,这些传统的商业法则在 AI 时代依然是生死线。
虽然 AI 可以自动化营销和销售,但因为每个人都在用 AI 竞争,获客成本反而可能在这一过程中被推高。
OpenAI 并不确定什么才是最佳的 AI 交互界面,但这正是开发者最大的机会所在——填补模型能力与用户价值之间的巨大鸿沟。
有人喜欢像电影中那样操作 30 个屏幕的复杂系统,有人则喜欢安静的语音模式。OpenAI 无法独自定义所有场景。
目前模型能做到的事情,与用户知道如何让它做到的事情之间,存在巨大的"悬垂(Overhang)"。谁能做出最好的工具帮助用户释放模型潜力,谁就是赢家。
OpenAI 会尝试自己的版本,但更希望看到开发者去探索多代理协作(Multi-agent orchestration)的不同范式。
AI 将成为一种极其强大的普惠力量,通过极低的成本让资源匮乏者获得曾经只有精英阶层拥有的生产力。
到今年年底,只需花费 100 到 1000 美元的推理费,配合一个好点子,就能完成曾经需要一个团队工作一年的软件开发。
这种极致的廉价不仅限于代码,随着机器人技术的进步,实物生产也将受此影响。这将为那些在传统社会结构中处于劣势的人提供一个公平的、无需依赖传统资源积累的机会。
他也警示,AI 可能导致权力和财富的高度集中,这需要政策层面的积极干预来防止。
OpenAI 在研发 GPT-5 系列时,战略性地优先选择了"智力与推理"而非"文采",但最终的目标依然是全能的通用智能。
OpenAI 内部也面临带宽有限的问题,他们在 5.2 版本中倾尽全力攻克了逻辑推理、编程和工程智能。
Altman 相信智力是高度可替代的(Fungible)。一个能写复杂代码的模型,理应也能写出清晰的文章。
他认为写作的最高境界是"清晰的思考"而非"华丽的辞藻"。未来的模型将补齐文笔,但在当前阶段,推理能力的突破更为紧迫。
到 2027 年底,同等水平的智能成本将下降至少 100 倍,而"极致的速度"可能成为下一个溢价点。
OpenAI 内部对降本极具信心,100 倍的降幅被认为是保底目标。
Altman 观察到一个新趋势:用户对输出速度的需求(1/100 的延迟)甚至超过了对降本的需求。这对于 OpenAI 来说是两种截然不同的工程挑战。
只有成本足够低,数千万个智能体才能在后台为客户"始终在线"地运行。
不要构建那些模型稍微升级就能被"覆盖"的补丁式功能。真正的护城河在于:模型越强大,你的公司就越受益。
如果你必须祈祷 OpenAI 慢点更新,你的商业模式就是不可持续的。
真正的护城河依然是传统的网络效应、用户粘性和对 GTM 难题的解决能力。
AI 最有价值的贡献之一将是作为"头脑风暴伙伴",通过理解你的背景和历史,为你提供高质量的种子灵感。
Altman 梦想构建一个像 Paul Graham(YC 创始人)那样的 AI。它擅长提问和提供"种子",哪怕 95% 的点子被拒绝,剩下的 5% 也足以改变世界。
内部版本的 5.2 已经让科学家们感到惊叹,它的建议已不再琐碎,具备了产生科学洞见的能力。
AI 正将科学发现从"线性进度"推向"指数增长",科学家正在学习一种全新的"广度优先搜索"研究技能。
现在的科学研究正处于"深蓝击败卡斯帕罗夫"后的混合阶段。虽然目前人类+AI 强于纯 AI,但 AI 独立完成闭环研究的那一天终会到来。
科学家现在可以同时开启 20 个新课题,利用 AI 作为"无限的博士后"进行初步探索,而人类负责最后的判断和直觉筛选。
比起 OpenAI 建立自己的湿实验室,Altman 更看好全球科研社区拥抱 AI 带来的分布式、去中心化的科学发现潮流。
在生物安全和网络安全面前,单纯的封堵已不可行。社会必须像对待火灾一样,从构建底层韧性和代码规范入手。
Altman 坦言 2026 年最让他紧张的是生物安全(Bio-security)。模型在生物学上的表现过于出色。
人类曾因火灾烧毁城市而禁止用火(如宵禁 curfew 的词源),但最终我们选择了建立建筑防火规范。AI 同样需要"社会化韧性",而不是指望实验室能永久封锁某些指令。
虽然 AI 能生成完美的艺术品,但人类对"创作者生命体验"的连接需求是不可替代的。
这是 Altman 最喜欢的对 AI 的贬称,它生动体现了人们对机械产物的本能排斥。
实验表明,如果观众被告知一幅画是 AI 做的,他们的欣赏程度会立即暴跌。
我们读完一本伟大的小说,第一反应是想去了解作者的人生。这种跨越时空的人类连接,是 AI 永远无法提供的。未来的创作,人的策展、编辑和背后故事将占据价值的核心。
在这个瞬息万变的时代,具体的编程技能将退居二线,而高能动性(High Agency)、韧性与适配能力将成为决定胜负的硬通货。
Altman 认为最核心的技能已经转向了那些"软技能"。
作为投资者,他最惊讶的发现是"高能动性"是可以学习的。通过高强度的训练(如三周的 Boot Camp),普通人也可以变得极其强大。
OpenAI 不会抢走开发者的用户数据和逻辑,相反,他们正在构建一种"标准接口",让开发者能够拥有并运行属于自己的私有代理。
Altman 明确表示,OpenAI 的目标是做"底座"。他预言未来会有一种类似 POSIX 的代理协议,允许开发者在 OpenAI 的模型之上,保留对用户反馈回路(Feedback Loop)的控制权。
他承认当前的代理在面对"长路径任务"时依然不够稳定。34:00 左右,他提到 OpenAI 正在研发一种新的"自愈"机制,让模型在发现错误时能自动回溯。
OpenAI 正在从"通用模型"转向"可分叉(Forkable)"的模型架构,允许企业在完全隔离的环境下训练自己的微型垂直模型。
针对企业级用户的担忧,Altman 强调了 2026 年的新准则:任何通过 API 传输的专有业务逻辑,不仅不会被用于训练基础模型,甚至可以实现"端到端"的逻辑加密。
他建议开发者不要试图在通用智力上超过 OpenAI,而应该去深挖那些"OpenAI 拿不到数据"的领域。例如,特定行业的合规流程、私有的工程文档等。
对于初创公司,他建议采用"大模型指挥 + 小模型执行"的架构,这比单纯依赖一个 GPT-5 更具成本效益。
巨大的基建投入(如 Stargate 项目)不是为了垄断,而是为了将智能的边际成本压低到"可以忽略不计"的程度,从而引发第二次工业革命。
他类比了 19 世纪的电力网。只有当电力便宜到家家户户都能用时,电灯、洗衣机、工厂才会出现。目前的 AI 还是"奢侈品"。
他坦言,现在的许多应用创新(如实时视频解析)受限于推理成本。Stargate 的目标是让每一个开发者都能以 2024 年万分之一的价格,调用 2026 年的顶级智力。
OpenAI 对成为另一个硬件厂商(如苹果)没有兴趣,但他们对"AI 原生形态的交互设备"充满好奇,并支持开发者去定义它。
Altman 认为现在的智能手机是为"指尖交互"设计的,并不适合"AI 代理"。他暗示了可穿戴设备、智能眼镜可能是更好的载体。
他澄清了关于 OpenAI 独立造芯和造手机的传闻。OpenAI 更倾向于作为"核心系统(OS)"存在,而非去做具体的硬件组装。
他提到,当 AI 能够"看"到你所看到的一切时,隐私的定义将被迫重写。这不是技术问题,而是社会契约的问题。
未来的核心不再是掌握某种具体的技术栈,而是具备驱动模型实现复杂目标的能力。"高能动性"和"适配能力"将是职业生涯的护城河。
通过 GPT-6 测试。确保你的产品价值与模型能力呈正相关,而不是在模型迭代的边缘捡漏。
做好智能成本下降 100 倍的准备,思考在"几乎免费的智力"和"极低延迟"的环境下,哪些曾经不可能的场景会变成刚需。
在一个 AI 生成内容泛滥的时代,真实的人类体验、独特的生命故事以及深度的策展能力将变得比以往任何时候都更加值钱。
不要在 OpenAI 的路线上"硬碰硬"。利用即将到来的100倍降本机会,去构建那些现在看起来"贵得离谱"但在未来会成为常态的复杂应用。
关注反馈回路(Feedback Loop)。谁能最快地根据真实世界的运行结果来微调代理的行为,谁就能在 GPT-6 时代生存下来。
从"记忆与练习"转向"思考与评估"。我们应当像对待计算器一样对待 AI 写作和编程工具,将教育的重心重新放回人类特有的批判性思维和创意起源上。