奥特曼:OpenAI会持续招程序员,内部已实现近乎无限运行智能体;幼儿园应远离AI;曝内部两条模型优化曲线
创始人
2026-01-29 19:31:08

昨天,OpenAI 掌舵者 Sam Altman,主持了一场 OpenAI AMA研讨会,线上和现场的观众都提了不少既“接地气”又“超前”的问题。

全程一小时,Sam 可以说是几乎没有停下来思考。可以说信息密度有些超标。

观众们可以说汇聚了硅谷的不少精英,有斯坦福的学生兼创业者,也有互联网公司的CTO、独立开发者、留学生等等。总之都是 OpenAI 生态圈里的重度使用者。

PS:小编不得不佩服 Sam 的思考能力,属实惊人,可以看出这次的研讨会上,Sam 的输出十分坦诚,不是经过精心的包装的。 现在有点理解翁家翌的那句:Sam 在 OpenAI 是不可替代的。

Sam 现场发挥,逻辑思路非常清晰,同时给出了足量的OpenAI对于未来的判断。

当然,即便是 Sam,在面对AI发展的不确定性,也没有掩饰 OpenAI 的犹豫、失误与修正,他甚至当场承认「我们这次搞砸了」。

从“未来的软件只为一个人写”,到“GPT-5.x 在写作上确实退步了”,再到 2027 年智能成本可能下降为 1/100,这场研讨会的信息密度高到一个不太正常的程度。

更重要的是,你能清晰感知出:OpenAI 内部对 Agent、成本、GTM、安全、教育和科研的很多关键问题,其实还在进行中,没有标准答案,但方向已经呼之欲出。

新年伊始,OpenAI 未来的走向如何?

Sam 表示,OpenAI 依旧会坚持走通用模型的路线!未来的主流一定是非常强的通用模型。

其次,他透露,目前 OpenAI 正在两条曲线上探索。一条是“压低成本”的曲线,另一条则是“速度曲线”,即:在保持相同输出质量的情况下,能否以更高的价格,把响应时间缩短到原来的 1/100。

接下来,OpenAI在这两条曲线上寻找平衡点。

另外,据 Sam 观察, 目前市面上还有出现特别好的 Agent 构建工具,即便是自家的 AgentBuilder,也只是在探索到底该是怎样一个界面。

而对于创业者的一个犀利的问题:大模型的能力提升是否会挤压创业空间?

Sam 给出了一个自己的判断框架:如果 GPT-6 是一次极其惊人的升级,你的公司会感到高兴,还是难受?要构建那种“模型越强,你越开心”的产品。

另外对于类似“AI导致原有收入减少”的问题,Sam并不否认AI会给未来带来相当强烈的通缩压力,劳动力成本会大大降低,但同时,很多东西会变得极其便宜,所以这是一个偏向于好的消息。

未来的软件长什么样?

Sam 认为,软件会成为一种“相对稳定、缓慢演进”,但高度个人化的存在。这也在OpenAI得到了充分印证,OpenAI内部员工每个人都有自己的软件用法。

此外,一位OpenAI的开发者还替Sam回答了长时程Agent研究现状,他透露道,OpenAI内部已经有人用非常特殊的方式 prompt Codex,或者通过 SDK 搭建一个“外壳”,不断地让模型近乎几乎无限执行。

对于现在模型持续学习、自训练的热门方向,Sam 表示现在距离实现还有不短的距离,目前纯靠AI的方法不如“人类+AI”组合更强。

这里多说一嘴,有人在 Linkin 上注意到 OpenAI 在招聘软件工程师,Sam 回应说会持续招聘下去,因为他相信 OpenAI 不会成为一家“零员工”公司。

对于最近大火的 Clawdbot,Sam 表示自己已经准备好把自己所有的网站、历史记录都交给ChatGPT,那会很酷。但问题在于大模型的能力还不够Ready,虽然已经很接近。

大模型的安全方面,Sam 提醒:目前的“封堵限制”范式需要转向“韧性”范式。

让人感到意外的是,Sam 对于AI教育推广上,给出了一个不“鸡娃”的观点,他认为,幼儿园(含)之前,孩子们应该远离 AI。

可以看出,Sam 正在通过这场研讨会思考接下来几年,OpenAI 要走向哪里、并如何达到那里。

下面是小编为大家梳理的”一次被旁听到的” Sam 内部思考过程。

软件需求一点也没有减缓

未来的软件:只为一个人或极少数人写

Sam Altman:

谢谢大家今天能来。当我们开始思考下一代面向开发者的工具,以及如何使用这些正在上线的、极其强大的模型时,我们其实很想先听听你们的想法:你们想要什么,在想什么,有什么问题。

我希望今天结束的时候,我们能更清楚地知道该为你们构建什么,以及怎样把这些强大的模型真正变得有用。我想先从 Twitter 上的一个问题开始。

X用户提问:

在软件工程的“杰文斯悖论”上,你站在哪一边?如果 AI 让写代码变得又快又便宜,这会降低对软件工程师的需求,还是会因为定制软件变得更便宜,从而极大增加需求,让工程师在未来几十年里持续被需要?

Sam Altman:

我认为,“工程师”这个角色本身会发生非常大的变化。

未来可能会有更多的人,创造出更多的价值,也能捕获更多价值,他们的核心能力是让计算机去做他们想做的事,或者做别人想要的事,去设计对他人真正有用的体验。

但这个工作的形态,以及你花在敲代码、调试代码、处理各种细节上的时间,都会发生显著变化。

这种变化在工程史上已经发生过很多次。到目前为止,每一次变化的结果都是:更多的人能够加入进来并产生价值,世界里的软件总量也变得更多。

对软件的需求看起来完全没有放缓。

我对未来的判断是:我们会大量使用那种“只为一个人,或者极少数人”写的软件,而且我们会不断地定制自己的软件。

所以,会有更多的人让计算机去完成他们真正想做的事情,只是方式会和今天很不一样。

如果你把这也算作“软件工程”,那我觉得它只会变得更多,而且由此创造和消费的 GDP 在全球占比也会继续上升。

有没有现场的问题?如果没有,我这边还有一长串。可以直接来。

如何进入市场:找到差异化的价值

注意力依旧是最稀缺的资源

现场提问者:

首先,非常感谢你给我们这个机会。

从消费者的角度,我大量使用 ChatGPT,也经常在 Reddit 上看到大家在做的各种东西,不管是用 Codex、Lovable 还是 Cursor。

但现在看起来,一个新的问题出现了:GTM(市场进入)。我能把东西做出来,但我怎么找到真正能从中获得价值的人?这好像成了一个瓶颈。你怎么看这个问题?

Sam Altman:

在加入 OpenAI 之前,我在 Y Combinator 工作。几乎每一个创始人都会反复说一句话:

“我以为最难的是把产品做出来,结果真正难的是让任何人关心它、使用它,或者把人与人连接起来。”

所以,这件事一直都非常难。

只是现在,构建产品本身变得太容易了,于是你会更强烈地感受到这个落差。

我没有什么简单的答案。做生意一直都很难,你需要找到真正有差异化的价值,想办法把 go-to-market 跑起来。这些旧规则依然成立。

AI 让软件变得更容易开发,并不意味着其他事情会自动变简单。

当然,你已经开始看到一些变化:就像 AI 改变了软件工程一样,人们也在用 AI 自动化销售、自动化营销,这里面会出现一些成功案例。

但整体来看,这件事始终都会很难,因为即便是在一个极度富足的世界里,人类的注意力依然是极其稀缺的资源。

你永远在和其他人竞争分发能力。每一个潜在客户都很忙,都有别的事情要处理。

我完全可以想象这样一个未来:物质和能力都变得极度充裕,而人类注意力成了最后的核心商品。

所以我预期这件事会一直很难,你必须想出足够有创造力的办法,去做出真正好的东西。

Sam:目前还没有人把Agent开发工具做对

George(独立开发者):

谢谢你,Sam。我叫 George,是一名独立开发者,正在基于 Codex SDK 做一些东西,主要是多 Agent 的编排。

我想问的是你们的 agent builder 工具,以及你们对这个产品未来的整体愿景。

现在它看起来更像是工作流和 prompt 的串联。作为一个在 Codex SDK 之上构建产品的开发者,我想知道我是否“安全”?

你是否认为多 Agent 编排在 UI 层面会有很多不同形态的空间,还是你们会划出一些不希望别人碰的区域?

Sam Altman:

我们并不知道这一切最终会是什么样的界面。也不知道人们最终会想用什么方式来使用这些东西。

我们已经看到有人构建出非常复杂、惊人的多 Agent 系统;也看到有人只做了一个极其出色的、单一的交互线程。

这些形态不可能只靠我们自己想明白。而且,不是所有人都想要同一种东西。

会有人像老电影里那样,坐在一堆屏幕前,疯狂切换、操作;

也会有人希望只是在语音模式下,安静地跟计算机交流,每小时说一两句话,其余事情都交给系统自己处理。他们不想持续监督一堆 Agent。他们会非常认真地思考自己说的每一句话,但不想被复杂系统打扰。

很多事情都会经历这样的过程:大家不断尝试不同路径,世界最终会收敛到少数几种主流形态,但不可能一开始就知道答案。

我个人认为,构建工具来帮助人们真正驾驭这些极其强大的模型,是一件非常值得做的事。

现在模型能力与人们能真正发挥出来的能力之间,存在着一个巨大而且还在扩大的“落差”。一定会有人做出真正能填补这个落差的工具。到目前为止,还没有人完全做对。

我们也会尝试自己的版本,但这个领域的空间非常大,而且不同的人会有非常不同的偏好。

如果你们有什么希望我们构建的东西,随时告诉我们,我们可以尝试。

AI会带来强烈的通缩效应

Valerie Chapman(AI产品构建者):

你好,Sam。我是 Valerie Chapman,目前正在基于 OpenAI 构建一个叫 Ruth 的产品。

我很想听听你对这个问题的看法:目前,由于性别薪酬差距,女性每年大约“被迫”放弃了一百万美元的收入。

你怎么看 AI 在弥合这种已经存在了几十年的经济差距方面能发挥什么作用?

Sam Altman:

我觉得这里面有很多复杂的因素。但有一点我认为总体偏向于好消息:AI 会带来非常强烈的通缩效应。

我对这一点来回思考过,因为你也可以想象一些奇怪的情形,比如全球的资金都流向自我复制的数据中心之类的。

但整体来看,尤其是对于“坐在电脑前就能完成的工作”,再加上即将到来的机器人等领域,我们很可能会面对非常强的通缩压力。

我说“偏向于好”,是因为其中确实会有一些复杂的问题需要应对。但在那些不被社会或政策人为限制的领域,很多东西会变得极其便宜。

比如,如果不是因为政策原因,在旧金山多盖房子本来应该会非常快、非常便宜。

更重要的是,个体的能力会被极大地放大。不论社会结构是否曾经天然地给予他们优势,这种个人层面的赋能看起来只会持续增强。

坦白说,我到现在仍然很难完全消化这一点:也许到今年年底,只需要一百到一千美元的推理成本,再加上一个好想法,你就能做出一款软件,而这在过去需要一个团队花一年时间才能完成。

这种经济变化的量级,非常惊人。

它会带来极大的赋能、更丰富的资源、更低的创新门槛——不论是创建公司、开发新产品,还是推进科学发现。

我认为这本身会成为一种“拉平差距”的力量,让那些长期被不公平对待的人,获得真正的机会。

前提是,我们在政策层面不要犯下重大的错误——这确实是有可能发生的。我也确实担心某些未来路径:AI 可能会高度集中权力和财富。防止这种情况发生,应该成为政策层面的核心目标之一。

坦承 GPT5.x 搞砸了:能力尖刺化,但慢慢会赶上

Ben Hilac(Raindrop CTO):

你好,我叫 Ben Hilac,是 Raindrop 的 CTO。

我想问一个关于未来模型形态的问题:你如何看待“专用模型”和“通用模型”之间的取舍?

举个例子,GPT-4.5 是我第一次感觉“写作能力真的很强”的模型。但最近在 Twitter 和 X 上有很多关于 ChatGPT 里 GT-5 写作体验的讨论,觉得它有点难读、不够顺。

当然,GPT-5 在 agent 能力、工具使用、中间推理等方面都非常强。所以整体感觉是,模型现在变得有点“尖刺化”,甚至比以前更明显了。

有些能力的“尖峰”非常高,比如编程能力;但在写作这类维度上,却显得很不稳定,甚至退步。

我有点好奇,OpenAI 内部是如何看待这种能力分布的?

Sam Altman:说实话,我觉得这次是我们搞砸了。我们会在之后的 GPT-5.x 版本里,努力让它在写作方面明显好过 4.5。

我们确实做过一个取舍,我现在回看,仍然觉得这个取舍有其合理性:在 5.2 这一代,我们把绝大部分精力放在了智能性、推理、编程、工程能力这些方向上。而我们的带宽是有限的,有时候专注一个方向,就会忽略另一些。

但我相信,未来的主流一定是非常强的通用模型。

即便你在做一个“特别擅长写代码”的模型,也希望它能把文字写清楚。比如,如果你让它帮你生成一个完整应用,里面同样需要好的文字表达;当模型和你交互时,你也希望它具备一种有思考力、表达清晰的“人格”。

这里说的“写得好”,指的是思路清楚、表达准确,而不是文辞优美。

我的期待是:我们会推动未来的模型在所有这些维度上都做到非常强,而且我相信这是可以实现的。智能这件事,比我们直觉中更具“可迁移性”,我们完全有机会在一个模型里,把这些能力都做到很好。

眼下这个阶段,确实是一个特别重要的时间点,需要重点推动“编程智能”。但我们也会尽快在其他方面追上来。

2027年,GPT5.2级别的智能成本降低100倍!

提问者(Unifi CTO):我是 Unifi 的 CTO。正好呼应你刚才说的,我们也在做 GTM 自动化。你之前说过一句话,对我触动很大——“智能应该便宜到无需计量”。现在,我们为客户运行几百万、上千万、甚至上亿个 agent 的限制因素,主要还是成本。

你怎么看未来几个月、几年里,小模型以及整体成本结构的变化?开发者能否看到数量级级别的成本下降?

Sam Altman:我觉得,到 2027 年底,我们应该能够把接近 GPT-5.2 水平的高阶智能,做到一个数量级更低的成本。我自己的判断是,至少 100 倍的下降。

但这里还有一个我们过去没有足够重视的维度。现在模型的输出变得越来越复杂,越来越多的人开始关心速度,而不仅仅是成本。

在压低成本这条曲线上,我们做得非常好。你可以回头看看,从最早的 o1 preview 到现在,成本曲线下降得非常明显。

但我们没有同等强度地去思考另一件事:在保持相同输出质量的情况下,能否以更高的价格,把响应时间缩短到原来的 1/100。

对你们提到的很多场景来说,这一点会非常重要。接下来,我们必须在“成本优先”和“速度优先”之间找到平衡。这两件事在工程上是完全不同的问题。

但如果我们继续沿着市场当前最强烈的诉求——降低成本——去推进,那条曲线还有非常大的空间可以走。

定制界面将不断贴合个人使用方式

X用户提问:

当前的界面并不是为 agent 设计的,但我们正在看到“为我而生的应用”快速增长。为什么定制化界面的创新,会进一步加速 micro-app 的趋势?

Sam Altman:

这是我最近在使用 Codex 时非常强烈的一个体感变化。我已经不再把软件看成一种静态的东西了。

当我遇到一个小问题时,我会期待计算机立刻写点代码,把问题解决掉。而且我觉得这个趋势会走得更远。

我怀疑,我们使用计算机和操作系统的整体方式,都会发生变化。当然,这并不意味着每次你要编辑文档,系统就会当场给你生成一个全新的文字处理器。我们对界面是非常依赖“熟悉感”的,比如某个按钮必须在它原来的位置。

但在很多其他事情上,我认为我们会逐渐习惯:软件就是为我写的。也许我还是用同一个文字处理器,但我使用它的方式有很多重复的小习惯,而我希望软件能围绕这些习惯不断定制。

于是,软件会成为一种“相对稳定、缓慢演进”,但高度个人化的存在。它是为我写的,而你用的方式,可能和我完全不同。

工具不断为个人演化、不断贴合个人使用方式,这件事看起来几乎是必然会发生的。在 OpenAI 内部已经是这样了:大量人已经把 Codex 深度嵌入自己的工作流,每个人都有一套非常个人化的用法。

所以,这个方向几乎是确定的。关键在于,具体会长成什么样,人们会用什么方式去构建,这些都非常值得探索。

创业者跟大模型的边界:

构建模型越强,用户越开心的产品

X上提问:当初创公司的功能很容易被模型升级取代时,开发者该如何思考“长期护城河”?有没有哪一层,是你们承诺“不会吃掉”的?

Sam Altman:

现在很容易让人误以为:商业世界的“物理定律”已经完全变了。但至少目前,还没有。

变化的是,你可以更快地完成工作,也可以更快地构建新软件。但构建一家成功公司的其他规则并没有消失。

你仍然需要解决用户问题,需要解决 GTM,需要提供足够“粘性”的价值,建立某种护城河、网络效应或竞争优势。这些都没有变。

对我们来说也是一样的。已经有很多初创公司,做了某些事情——也许在理想情况下我们会更早做,但现实是已经来不及了。他们已经建立起了真正持久的优势,而这种情况未来还会继续发生。

我通常给出的一个判断框架是:如果 GPT-6 是一次极其惊人的升级,你的公司会感到高兴,还是难受?

我们希望模型能持续快速进步。所以我会鼓励大家去构建那种:模型越强,你越开心的产品。

这样的机会非常多。当然,也有另一类产品,是围绕模型边缘做的小补丁,如果你能在模型升级前积累足够优势,也依然可能成立。只是那条路会更艰难,也更让人焦虑。

无需人干预、长时程Agent何时到来

X用户:在当前即便是简单的链上任务,跑 5 到 10 步都会中断的情况下,真正能够长时间、自主运行、无需频繁人工干预的 agent,大概什么时候会出现?

Sam Altman:

有没有 OpenAI 的同事想回答?来。

OpenAI 团队成员:这件事高度取决于任务类型。

在 OpenAI 内部,我们已经看到一些场景:有人用非常特殊的方式 prompt Codex,或者通过 SDK 搭建一个“外壳”,不断地让模型继续运行,几乎是无限执行。

所以,这更多是一个“范围扩展”的问题,而不是“是否可行”的问题。如果你有一个非常具体、理解得非常透彻的任务,其实今天就可以开始尝试。

但如果你想要的是那种:“我 prompt 一下模型,让它帮我从零做一家创业公司”那这是一个开放得多、验证难度也高得多的问题。

我的建议是:把它拆解成 agent 可以自我验证的小问题,你只需要在最后验证最终输出。然后随着时间推移,逐步让 agent 承担越来越多、越来越复杂的任务。

问题是:人类的思考受限于工具

现场提问者:在消费侧,人类注意力是瓶颈;但在生产侧,对所有构建者来说,真正的瓶颈是“好点子”的质量。

我长期帮助 AI 公司做 GTM,很多时候我看到的现实是:产品本身其实并不值得用户投入注意力。

所以我的问题是:你们能构建什么样的工具,来提升人们提出“好想法”的能力?

Sam Altman:现在很流行把 AI 的输出称为“垃圾”,但这个世界上本来就有大量“人类生成的垃圾”。

提出真正好的新想法,本来就非常难。而且我越来越相信一句话:我们的思考能力,受限于我们所使用的工具。

我认为,我们应该尝试构建能帮助人们产生好想法的工具。这样的机会非常多。

随着创作成本持续下降,我们会拥有极其紧密的反馈回路,这会让我们更快地筛选出好想法。

当 AI 不仅能写复杂代码,还能发现新的科学规律时,我对未来出现一个全新的“可能性空间”是有信心的。

但有一种体验,已经被很多人反复提及:当你坐在一个 agentic 的代码生成器前,却不知道下一步该问什么。这本身,就已经成了一个普遍的问题。

模型已经具备了新潜力:帮助产生好想法

Sam Altman:如果我们能构建一些工具,真正帮助你产生好想法——我相信这是可以做到的——比如回顾你过去所有的工作、代码和思考路径,试着推断哪些方向可能对你有用、哪些东西可能会让你感兴趣,并且持续不断地给你建议。如果我们能提供一个真正优秀的“头脑风暴伙伴”,那会非常有价值。

我人生中大概遇到过三四个人,每次和他们聊完,我都会带着一堆新想法离开。他们并不一定直接给答案,而是特别擅长提问题,或者给你一些可以继续生长的“种子”。Paul Graham 在这方面简直是天花板级别。如果我们能做出一个“Paul Graham bot”,让你可以用类似的方式和它互动,哪怕其中 95% 的想法都会被你否掉,我依然认为,这会显著提升这个世界真正被构建出来的好东西的数量。

备注:Paul Graham,YC 的联合创始人,是 Sam 的师傅和伯乐。Paul Graham 很早就判断:Sam 不是“做某个产品的人”,而是“做平台、做系统、做时代变量的人”。

而从模型能力来看,它们理应具备做到这一点的潜力。我们内部使用的 5.2 的一个特殊版本,现在第一次开始听到科学家反馈:这些模型带来的科研进展,已经不再是那种“很表层、很简单”的提升了。我很难相信,一个能够提出全新科学洞见的模型,会无法在换一种使用方式、稍作不同训练之后,提出关于“该构建什么产品”的新洞见。

模型不会被现有技术锁死

Theo(开发者、YouTuber、YC 创业者):你好,我是 Theo,开发者、YouTuber,也是 YC 的创始人之一。我也非常想要那个 Paul Graham bot。

不过我想问一个偏技术层面的问题。我很喜欢那些“基础构建模块”发生演进的技术变革,我经历过很多 Web 世界里的巨大转折,比如迁移到 TypeScript、Tailwind 等。

我现在有一个担忧:随着模型和构建工具越来越强,我们会不会被“当前的技术形态”锁死?就像美国的电网,当初以某种方式建成之后,反而让后续改进变得异常困难。

你觉得这种风险在 AI 时代存在吗?我们现在是不是正在用当下的技术形态,打下一些未来很难替换的地基?因为即便只是让当前模型去使用两年前更新的一项技术,有时都感觉像在拔牙一样费劲。

你觉得我们未来还能不能足够好地“引导模型”去学习和使用新技术?还是说,我们已经基本确定会被当前这一代技术栈锁住了?

Sam Altman:我其实对模型使用新技术这件事非常乐观。

从本质上讲,如果我们使用模型的方式是对的,它们就是一个通用推理引擎。现在的架构里,它们还内置了大量关于世界的知识,但我认为整体方向是正确的。我希望,在接下来几年内,模型能够在“学习新工具、使用新技术”这件事上,甚至比人类更快。

一个我们会非常自豪的里程碑是:当模型面对一个完全陌生的环境、新工具、新技术时,你只需要解释一次,或者让它自己探索一次,它就能非常可靠地掌握并正确使用。这件事看起来并不遥远。

大模型距离自我闭环,还有不远的距离

人与AI协作,要比单纯的AI更强

现场提问者(科学家):我是一名科学家,年纪也偏大一些。在科学研究中,一个项目往往会衍生出多个新的研究方向,这些想法是指数级增长的,而一个科学家可支配的时间却是线性下降的。这些工具极大地加速了研究进程,但我们总是还想要更多。你之前提到过这一点,我想再追问:除了帮助我们在更短时间内推进更多有价值的想法之外,未来是否可能出现这样一个阶段——模型会接管整个科研流程?如果会,这更可能来自现有算法的持续演进,还是需要全新的思想、世界模型之类的突破?

Sam Altman:在大多数领域里,模型实现真正“完全闭环、自主运行”的科研,还有一段不短的距离。当然,我们可以看一些特殊领域,比如数学,它不需要湿实验室或物理输入。理论上,你只要不停地思考,就能取得巨大进展。但即便在数学领域,目前真正取得最快进展的研究者,也深度参与在模型的中间过程里。他们会看着模型的中间推导说:“不,这条路感觉不对,我直觉上另一条路径更有希望。”我已经见过一些数学家,他们现在几乎整天都在和最新模型协作,进展非常快,但他们和模型做的事情是不同的。

老实说,这让我想起了国际象棋历史中的一个阶段:Deep Blue 击败 Kasparov 之后,有一段时间,“人类 + AI”的组合比单纯的 AI 更强,人类负责从 AI 给出的十个走法中选最好的那个。但很快,AI 又变得更强,人类反而开始拖后腿。

我怀疑,在很多研究领域里,类似的过程都会发生。随着问题变得越来越复杂,AI 可能会在多步推理上,比大多数人、甚至所有人都更强。

但在创造力、直觉和判断力这些方面,当前这一代模型还远远没有接近人类水平。

我想不出一个“原则性理由”说明我们永远到不了那里,所以我假设终究会到。但至少现在,让 GPT-5 或 GPT-6 直接“去解决数学问题”,肯定还比不过几个顶尖研究者与模型协作、不断判断方向、筛选路径的效果。

在当前真正有效的工作流中,你提到了一个很重要的点:解决一个问题,往往会打开十几个新问题。这正是很多积极使用模型的科学家感到兴奋的地方。

他们确实会消耗大量 GPU,但他们掌握了一种新技能:列出二十个新问题,然后对它们做“广度优先搜索”,而不是在某一个问题上无限深挖。有人把 AI 形容为“无限数量的研究生”,我最近把这个说法升级成了“无限数量的博士后”。

至于自动化物理科学,我们内部一直在反复讨论:到底是为每个领域都构建自动化湿实验室,还是相信整个世界已经拥有大量设备,并且愿意把实验数据贡献回来。

从科学界对 5.2 的接受程度来看,后者似乎是可行的,而且会形成一个更容易扩展、更分布式、设备类型更多、参与者更聪明的体系。

大模型的安全思路需要转变:从“封堵”转为“韧性”

Emmy(斯坦福学生、生物安全创业者):你好,Sam。我叫 Emmy,是一名斯坦福学生,也在做一家生物安全方向的创业公司。顺着你刚才关于科学实验和云实验室的讨论,我们团队花了很多时间思考:如何防范 AI 赋能的生物重设计所带来的风险,同时又如何利用 AI 去强化安全基础设施。我的问题是:在你们的 GPT-6 路线图里,安全处在什么位置?以及更广泛地说,你们是如何思考这些问题的?是整体安全,还是更具体的生物安全?

Sam Altman:你是更想问整体安全,还是生物安全?如果可以的话,生物安全优先。坦率地说,到了 2026 年,AI 可能出问题的方式有很多……

Sam Altman:有一个我们确实非常紧张的领域是生物安全。模型在生物相关问题上已经相当强了。目前我们采取的策略——也不只是 OpenAI,而是整个行业——主要还是通过限制访问、加一堆分类器,尽量避免模型被用来制造新的病原体。但我并不觉得这种方式还能持续太久。

我认为,整个世界在 AI 安全,尤其是生物安全这件事上,需要完成一次观念转变:从“封堵”为主,转向“韧性”为主。我的联合创始人 Wojciech 用过一个我很喜欢的比喻,说的是火。火给社会带来了很多好处,但后来开始烧毁城市。我们一开始做的是限制火的使用。我上周末才学到一个冷知识,“宵禁”这个词,最早就来自于禁止夜间生火,因为城市会被烧掉。后来我们做得更聪明了,我们开始提高对火的韧性,制定消防规范,使用阻燃材料,还有一整套配套体系。现在,作为一个社会,我们在这件事上已经做得相当不错了。

我觉得我们需要用同样的方式看待 AI。AI 在生物恐怖主义上会是真正的问题,在网络安全上也会是真正的问题。但同时,AI 也是这些问题的解决方案之一,也能解决很多别的问题。所以我认为,这需要一次全社会层面的努力,去建设“韧性”的基础设施,而不是指望少数我们信任的实验室永远能精准地挡住所有不该发生的事情。世界上一定会有很多强大的模型存在。

我们已经和很多生物研究人员、公司聊过,讨论如果出现全新的病原体,需要具备什么样的能力来应对。很多人对这个问题都非常投入,也有不少反馈说,AI 在这里确实能帮上忙。但这不会是一个纯技术问题,单靠技术解决不了。整个世界都需要用不同于以往的方式去思考这些事。

所以,说实话,我对当前的状况非常紧张。但除了以“韧性”为核心的路径之外,我看不到别的路。而且 AI 的确可以帮助我们更快地建立这种能力。但如果今年 AI 真的出现一次“肉眼可见、非常严重”的失控事件,我觉得生物领域是一个相当合理的猜测。再往后一年、两年,你也可以想象还会有其他很多事情出问题。

教育方式需要改变,但不应该拒绝AI

提问者 Magna:你好,我叫 Magna。我的问题和“人类协作”有关。当我们谈到 AI 模型不断变强,它们已经非常擅长帮人快速学习一个主题、一个学科。这一点我们在 ChatGPT 和教育实验室里已经探索过了,我个人也从中受益很多。但我经常会反复想到一个问题:其他人类的角色在哪里?人类之间的协作还重要吗?当你几乎可以随时在指尖得到答案,为什么还要花时间、甚至承受一些摩擦,去问另一个人?

这也和你之前提到的一点有关——AI 编程工具已经能以远超人类团队的速度完成工作。所以当我在思考协作、合作以及集体智能的产出时,我知道“人类 + AI”是一条非常有力的路径。但那“人类 + 人类 + AI”呢?如果这样说得通的话。

Sam Altman:这里面有很多层意思。我可能比你们大多数人年纪都大一些,但 Google 出现的时候我还在读中学。老师当时试图让学生保证不使用它,因为大家有一种感觉:如果你可以随时查到任何东西,那为什么还要来上历史课?为什么还要背东西?

在我看来,这个想法当时就很荒谬。我反而觉得,我会因此变得更聪明、学到更多、能做更多事情。这就是我成年后要一直共存的工具。如果我不去学会使用它,反而才奇怪。就好像在很多年前,明明已经有计算器了,却还强迫我学算盘一样。那已经不再是一个有价值的技能了。我甚至都快想不起来计算器之前大家用的是什么了。

我对 AI 工具的感觉是一样的。我理解,在我们当前的教育方式下,AI 确实成了一个问题。但这恰恰说明,我们需要改变教育方式,而不是拒绝工具本身。你可以让 ChatGPT 帮你写东西,这就是世界将要运行的方式。你依然需要学会思考,而写作、练习写作,对学习如何思考依然非常重要。但我们教你如何思考的方式,以及评估你思考能力的方式,大概已经发生变化了,我们不应该假装一切都没变。我对这一点其实很乐观。那 10% 极端自学能力很强的学习者,已经在这种环境下表现得非常出色了。我们也会找到新的方式来教授课程,把其他学生一起带上。

你还提到一个问题:怎么让这一切成为一种协作体验,而不是你一个人对着电脑学习、产出、表现得很厉害,却始终是孤立的。到目前为止,我们还没有看到明显相反的证据,这也是我们一直在尝试衡量的事情。我的直觉是,在一个 AI 无处不在的世界里,人类之间的连接会变得更有价值,而不是更不重要。人们会更加珍惜和其他人聚在一起、一起工作的机会。

我们已经开始看到一些人在探索新的交互方式,让这种协作变得更容易。而当我们思考自己的硬件、自己的设备时,其实首先考虑的,可能就是一种“多人协作 + AI”的体验形态。我的感觉是,虽然还没有人真正把这件事做透,但我们会惊讶地发现,AI 在促进这种协作上的能力,远超以往任何一项技术。

你可以想象,五个人围坐在一张桌子旁,旁边还有一个小机器人之类的存在。作为一个群体,你们会变得高效得多。这会成为一种日常状态。每一次头脑风暴,每一次尝试解决问题,都会有一个 AI 自然地参与其中,帮助整个小组做得更好。

大模型并没有建立真正完善的安全基础设施

提问者:我的问题是,随着 Agent 开始在生产系统中移动、运行,而且是大规模运行,你觉得目前最被低估的失败模式是什么?是安全、成本、可靠性,还是别的?以及,与之相关的,现在最被低估、但其实最困难、最该投入的工作在哪里?

Sam Altman:问题到处都是。你提到的一点,其实有两层含义,也让我个人、以及在场很多人都感到意外。

我第一次开始用 Codex 的时候,我对自己非常有信心地说:不管怎么样,我绝对不会给这个东西完全、无人监督地访问我的电脑。结果我大概坚持了两个小时。然后我就想:它看起来真的挺合理的,这个 agent 做事也很克制,我每次都要手动批准这些命令真的很烦,我就先开一会儿看看会发生什么吧。结果我再也没有把“完全访问”关掉。我觉得很多人都有类似的经历。

所以我真正担心的是:这些系统带来的能力和便利性太强了,而失败一旦发生,可能是灾难性的。只是失败发生的概率又很低,于是大家会慢慢滑入一种“算了,YOLO,希望一切没事”的状态。

而随着模型能力不断增强,它们的行为也越来越难以完全理解。如果模型里存在某种对齐问题,或者在长期使用中,经过几周、几个月,逐渐浮现出某种复杂的系统性问题,比如你在构建系统时无意中引入了一个安全漏洞——你当然可以对“AI 失控”这条曲线有不同看法,看你想把它想象得多科幻。

但我真正认为会发生的是:采用这些工具的压力,以及它们带来的愉悦感和能力本身,会大到让人来不及认真思考自己到底是如何运行这些系统的,是否真的理解自己搭建的 sandbox。

我的总体担忧是:模型能力会非常陡峭地上升,我们会在某个能力水平上逐渐习惯它们、开始信任它们,但在此之前,并没有围绕它们建立起真正完善的、宏观层面的安全基础设施。然后我们就会在不知不觉中,走进某个问题里。

说实话,我觉得这是一个非常值得有人专门去做的公司方向。

奥特曼:幼儿园阶段并不需要大量使用AI

提问者 Claire:我想回到刚才关于教育的话题。我叫 Claire,是伯克利的大二学生,主修认知科学和设计。我在高中时,就看到身边的同学用 ChatGPT 写作文、做作业。现在到了大学,我们在各个层面讨论 AI 政策、课程设置、CS、人文等等。我想回到更早的阶段,比如幼儿园和中学,那是人真正学会如何解决问题、如何写作、如何思考的时期。作为一名父亲,你怎么看 AI 在这些非常关键的成长阶段,会如何影响、塑造教育?

Sam Altman:总体来说,我是赞成让幼儿园远离电脑的。我觉得幼儿园的孩子应该多在户外跑来跑去,玩真实的物体,学习如何与他人互动。所以不仅是 AI,我甚至觉得大多数时间里,幼儿园都不该有电脑。

从发展心理学角度来说,我们对技术对儿童的影响其实理解得还远远不够。关于社交媒体对青少年的影响,已经有很多研究,而且结果看起来相当糟糕。但我隐约感觉,更早期的技术介入,对更小的孩子,可能带来的影响还要更严重,只是讨论得反而更少。在我们真正理解这些影响之前,我觉得幼儿园阶段并不需要大量使用 AI。

3D推理是未来,但不是OpenAI最紧急的方向

提问者 Alan:你好,Sam。我在生物医药行业。生成式 AI 在临床试验文档写作上已经帮了大忙,大大加速了流程,非常惊人。我们也在尝试把它用于药物设计,尤其是化合物层面。但目前遇到的一个瓶颈是三维推理能力。你觉得这里会不会出现一个拐点,或者你是否看到未来会有什么突破?

点击添加图片描述(最多60个字) 编辑

Sam Altman:这个问题我们一定会解决。我不确定是不是 2026 年就能做到,但这是一个非常常见的需求,我们也知道该怎么做。只是现在还有很多更紧急的方向需要推进,但这件事一定会到来。

提问者 Dan:你好,Sam。我叫 Dan。我刚从伦敦的大学退学,加入了 Y Combinator W26 批次。我有两个快问。第一个是,我父母一直希望我回去把大学读完,你觉得大学在当前状态下,有时会不会反而成为限制?第二个问题是,你还做天使投资吗?

Sam Altman:我当年退学后,我父母花了整整十年才不再问我什么时候回去读书。所以我觉得父母就是会这样,他们爱你,也是在用他们认为最好的方式给你建议。你能做的,就是不断告诉他们:如果哪天我想回去,我随时都可以。但这个世界已经变了,而且会持续变化。

每个人都得自己做决定,而不是完全照着社会期待来。如果你是一个 AI 构建者,我个人认为,现在这个阶段,待在大学里未必是你时间的最佳使用方式。如果你是一个野心强、主观能动性很高的人,这本身就是一个非常不寻常的时代。你随时可以回去读书,这并不意味着大学对很多人不重要,也不意味着未来某一天它对你不重要。但在当下,你需要先把眼前这件事做了。我觉得他们最终会理解的。

至于第二个问题,我尊重这种 hustle,但我现在已经不做了。我其实挺怀念的,只是 OpenAI 的事情太多了,而且如果我投的公司刚好是 OpenAI 的大客户,这件事会变得很奇怪。所以我干脆停了。

ChatGPT账号可以用来登录三方AI应用,

Token和权限,也都带过来

提问者 Michael:你好,Sam。我是 Michael,来自 WorkOS,我们主要做认证、身份和登录相关的事情。我有一个功能请求:用 ChatGPT 账号登录。我觉得很多人都会想要这个。

Sam Altman:我们会做这个。很多人都一直在问。你具体需要什么?

提问者 Michael:至少是 token 额度,用户可以带着自己的账号和模型权限过来。但我觉得还有更多,比如我公司可以访问哪些 MCP server,ChatGPT 对我有哪些记忆,我在做哪些项目。ChatGPT 从工作层面、个人层面都非常了解我。我很好奇你们是怎么思考这些信息该如何被开发者使用的。

Sam Altman:我们确实想把这件事做成,但这件事也非常吓人,因为 ChatGPT 确实知道你太多事情了。就像你把很多秘密告诉一个非常亲近的人,你会相信他能理解非常细微的社会语境,知道什么时候该对谁说什么,什么时候该保密,什么时候有别的因素需要优先考虑。

我们的模型现在还没有完全到那个程度,虽然已经在接近了。老实说,如果现在让我把 ChatGPT 账号连到一堆网站,然后说“你自己判断什么时候该把我所有聊天记录和我连接过的信息分享出去”,我会感到不太舒服。

但一旦我们真的能做到那一步,这显然会是一个很有吸引力的能力。在此之前,我觉得可以先从一些更可控的方式开始,比如基于 token 配额,如果我付费用了 Pro 模型,就能在其他服务里使用它,这听起来就是一件挺不错的事。所以我认为我们至少会先做这一层,同时努力把信息共享这件事做对。因为这件事,我们真的不想搞砸。

OpenAI会持续招聘软件工程师

提问者 Oleg:嗨,Sam。我叫 Oleg。我想我们在座的人基本都同意,软件开发这门手艺在最近发生了巨大的变化。但与此同时,我在 LinkedIn 上仍然能看到 OpenAI 在招聘软件工程师。我很好奇,在过去几个月或几年里,你们的面试方式发生了哪些变化?

Sam Altman:我们还会继续招聘软件工程师。但这是第一次——我知道几乎所有公司、所有创业公司都在想同样的事——我们计划显著放慢人员扩张的速度,因为我们相信,用更少的人就能做更多的事情。

现在我们面临的很多阻碍,其实并不在技术本身,而是在公司内部长期积累下来的各种政策。这些政策从来没有设想过“AI 同事占多数”的情况,而这需要时间去调整。

但我觉得我们不该做的一件事,也是我希望其他公司不要做的,就是先非常激进地招聘,然后突然意识到 AI 能做大量工作,其实不需要那么多人,最后不得不进行一场非常难受的对话。

对我们来说,更合理的路径是:放慢招聘节奏,但持续招聘。我并不相信未来某一天 OpenAI 会变成“零员工”的公司。至少在很长一段时间里,我更相信会是这样一种状态:人数缓慢增长,但每个人能完成的事情大幅增加。我觉得这大概也是整个经济体系会呈现出来的形态。

至于面试本身,说实话,它还没有改变到应有的程度。但我今天刚刚参加了一场会议,讨论的正是我们希望它如何改变。我们的理想状态是,把候选人放到一个任务面前:这个任务在一年前,单靠一个人两周时间都不可能完成,而现在,我们希望看到他们用 10 分钟、20 分钟,或者类似的时间,把事情做出来。

核心在于,你希望通过面试看到一个人是否能够在这种全新的工作方式下高效地发挥作用。软件工程的面试长期以来就做得不太好,也不算特别相关,而现在,它变得更加不相关了。

这里其实还隐藏着一个更宏观的问题:未来会是什么样?是公司只雇很少的人,配上大量 AI 同事;还是说,真正胜出的公司会是完全由 AI 构成的——一机架 GPU,没有人类?

我非常希望是前者。虽然有不少理由让人觉得,后者似乎也有可能发生。但如果公司不能积极采用 AI,如果公司不知道该如何招聘那些真正会高效使用这些工具的人,它们最终就会被“全 AI 公司”击败。那种公司不需要遵守大企业里那些阻碍 AI 使用的“奇怪规则”。而那样的结果,对社会来说会是极其不稳定的。

我们一直在思考该如何谈论这件事,因为这听起来很容易显得像是在为自己谋利。但我依然认为,让企业尽快、大规模地采用 AI,真的非常重要。

关于AI创作:人们更在意作者是谁

提问者 Cole:你好,Sam。我叫 Cole,是一名创作者和电影摄影师。过去一年里,我们已经看到 AI 彻底改变了讲故事的方式,也改变了我们看待自我的方式。在创意领域有很多有意思的尝试,比如 Sora,它把“自我”当成画布,让你可以用 AI 把自己放进各种奇幻场景中。我很好奇,在模型不断进化的过程中,你怎么看待人类创作身份与 AI 辅助创作之间的关系,会走向哪里?

Sam Altman:目前我们能研究、也最能从中学到东西的,其实是图像生成。它出现得最早,创意社区对它的爱与恨也最强烈。

这里面有很多有趣的观察,其中一个是:当图片的消费者被告知“这是人做的”,而不是 AI 做的时,他们的欣赏度、满意度都会显著更高。我认为,在接下来的几十年里,这会是一个非常深层、持续存在的趋势:我们非常在意“人”,却几乎不在意“机器”。

在所有对 AI 的贬称里,我最喜欢的一个是“clanker”(小编注:行为生硬,不懂变通的人)。这个词非常精准地击中了人们的情绪反应。你会看到一些在我看来极其精美、极具创造力的图像,只要你告诉别人这是“clanker”做的,很多人的主观评价就会立刻大幅下降。

我去年在网上看到过一个实验:他们找来一些人,这些人声称自己非常讨厌 AI 生成的静态图像,而且坚信自己一眼就能分辨哪些是 AI 做的,因为“它们很糟糕”。研究者给他们看 10 张图片,让他们选出最喜欢的。结果是,一半完全由人类创作,一半完全由 AI 生成,而非常稳定地,他们会把 AI 生成的图片排在最前面。等到被告知真相之后,他们又会说,其实自己并不喜欢这些作品,这不是他们想要的。

这其实是在测试一件事:你真正喜欢的是什么。

当我读完一本非常喜欢的书,我做的第一件事,往往是去查作者是谁,了解他的生活经历,看看是什么样的人生把他引向了这本书。我感受到的是一种与陌生人的连接。如果我读完一部伟大的小说,最后才发现它是 AI 写的,我会感到某种失落,甚至有点沮丧。

我认为这是一个非常深刻、也非常持久的趋势。不过,如果一件艺术作品哪怕只是“稍微”由人类主导——至于这个“稍微”有多小,未来人们的感受可能还会变化——大家的情绪反应就没有那么强烈。这类事情其实已经发生了很久,比如数字艺术家使用 Photoshop,人们依然热爱他们的作品。

基于我们目前看到的创作者和消费者行为,我的判断是:创作者本人、他的生活经历、他在创作中的编辑、选择和取舍,都会变得非常重要。总体来说,我们并不会真正想要完全由 AI 生成的艺术作品,至少从图像领域给我们的启示是这样。

奥特曼:我已经准备好

让ChatGPT看自己的整个互联网生活

提问者 Keith Curry:你好,Sam。我叫 Keith Curry,刚从旧金山州立大学毕业。我的问题和个性化、记忆有关。第一部分是,你怎么看这件事未来的演进?第二部分是,你怎么看更细粒度的控制,比如对记忆进行分组:这是我的工作身份,这是我的个人身份。这样在不同提示下,我可以更有选择性地决定哪些信息被纳入上下文。

Sam Altman:我们会在“记忆”和“个性化”这件事上全力推进。很明显,人们需要它,而且它能极大提升工具的使用体验。

我自己在这件事上的态度也经历过变化。现在的我,已经准备好让 ChatGPT 看我的整个电脑、我的整个互联网生活,知道一切。它带来的价值实在太高了,我已经不像以前那样感到不安了。我真的希望所有 AI 公司都能非常严肃地对待安全和隐私问题,也希望整个社会都能这样做。因为这种效用太大了——AI 终究会了解我生活中的一切,我不打算阻止这件事发生。

我现在还没准备好戴那种全天候录像的眼镜,那在很多层面上依然让人不适。但我已经可以接受这样一种状态:你可以访问我的电脑,理解正在发生什么,对我有用,并且拥有我数字生活的一个完整映射。当然,我也很懒,大多数用户可能也一样。所以这更像是一个“足够好”的映射。

我不想坐在那里手动把信息分成“这是工作记忆”“这是个人记忆”“这是某一类偏好”。我真正想要、也相信是可能实现的,是 AI 对我生活中复杂规则、关系和层级结构有足够深入的理解,能够自动判断什么时候该用什么信息、在哪里该暴露什么。

这件事我们必须搞清楚,因为我觉得这正是大多数用户真正想要的。

AI时代,最值得学习的技能

提问者 Luan:你好,Sam。我叫 Luan,是一名来自越南的国际学校学生。我的问题是:在 AI 时代,你认为人们最重要、最值得学习的技能是什么?

Sam Altman:这些基本上都属于“软技能”。现在已经没有那种像过去一段时间里“学会编程”那样,显而易见、压倒性正确的单一技能了。

更重要的会是这些能力:成为一个高主观能动性的人,擅长产生想法,具备很强的韧性,能够快速适应一个持续变化的世界。我觉得,这些能力的重要性,会超过任何具体的单项技能。而且,它们都是可以被训练出来的。

这也是我在做创业投资之后,感到非常意外的一点:你真的可以把一些人集中起来,用三个月左右、类似训练营的方式,让他们在我刚才提到的这些维度上变得极其强大。这对我来说是一次很大的认知更新。

所以我认为,这些可能才是未来最关键的能力,而且它们的可学习性其实很高。

Sam Altman:我们是不是到时间了?好。非常感谢大家今天的到来和交流。我们真的非常希望听到你们的输入,知道你们希望我们去构建什么。

你们可以假设:未来我们会有一个能力是现在 100 倍的模型,拥有 100 倍的上下文长度,速度提升 100 倍,成本降低到原来的百分之一,工具调用几乎完美,并且在长时间交互中保持极强的一致性——我们会走到那一步的。

在这样的前提下,告诉我们你们希望它能做什么。我们会留下来,如果你觉得“我只需要这个 API”“我只需要这种基础能力”“我只需要这种运行时环境”,不管是什么,我们都是在为你们构建这些东西,我们也希望把它们真正做对。

再次感谢大家的到来。

⚠️
本网站信息内容及素材来源于网络采集或用户发布,如涉及侵权,请及时联系我们,发送链接至2697952338@QQ.COM,我们将第一时间进行核实与删除处理。

相关内容

热门资讯

邦迪智能科技申请用于定子激光焊... 国家知识产权局信息显示,邦迪智能科技(上海)股份有限公司申请一项名为“一种用于定子激光焊接的夹持装置...
澳超 惠灵顿凤凰 VS 墨尔本... 本场是澳超卡位战,两队仅差 2 分,凤凰抢分稳固季后赛席位,墨尔本城争胜冲击前二,墨尔本城虽上轮惨败...
《周五001澳超:惠灵顿凤凰主... 1.1~1.27【26中23】 1.26晚场回顾:005负+009双平 sp3.5命中 回顾十二月赛...
悉尼考拉新车资讯解读 深度剖析... 在悉尼这座充满活力的城市里,汽车不仅是代步工具,更是许多人生活方式的一部分。从一款新车初次亮相时的详...
原创 中... 中国驻澳大利亚大使肖千在2026年1月28日的媒体会上直接点出达尔文港租赁问题,说澳大利亚政府如果强...
原创 达... 澳大利亚飘了?居然想抢中企手里的达尔文港! 面对澳大利亚的行为,咱中国大使也是直接放狠话:敢坏规矩,...
周五002澳超 阿德莱德联VS... 1.1-1.28【25中21】 1.28回顾: 004负+014让胜 SP4.1 命中 近期赛事分析...