伊利亚·萨茨克维尔谈人工智能的新研究时代 | AI生成和翻译

Home 2025.12

问题:Ilya Sutskever在他最近的播客中说了些什么?

回答:

OpenAI 联合创始人兼 Safe Superintelligence (SSI) 创始人 Ilya Sutskever 于 2025 年 11 月 25 日做客 Dwarkesh Podcast,这是他离开 OpenAI 后的首次重要访谈。该集题为《我们正从规模化时代迈向研究时代》,时长约 1 小时 36 分钟,内容涵盖 AI 进展、SSI 的战略、泛化挑战、对齐以及通往人工超级智能 (ASI) 的道路。以下是根据访谈记录和讨论整理的关键陈述摘要。

从规模化到研究的转变

Sutskever 认为,AI 发展正在经历时代变化:从 2012 年至 2020 年,是算法突破(如 AlexNet 和 Transformers)驱动的“研究时代”,所需的计算量极少。从 2020 年至 2025 年,则进入“规模化时代”,收益可预测地来自更多数据、计算和参数——风险较低,但如今已达到极限。数据是有限的,预训练正在平台期,进一步的规模化会产生递减的回报。他指出:“资本支出与智能之间的线性关系已经破裂。”未来的进展取决于研究思想,而不仅仅是硬件:“我们正处于一个研究型公司时代。”历史上的突破“几乎不需要计算”,而 SSI 优先专注于研究,而非庞大的基础设施。

AI 泛化和学习中的挑战

人类的泛化能力远优于模型——Sutskever 估计模型在适应新任务方面的能力“差 100 倍”。他批评了当前的强化学习 (RL),它可能使模型过于狭隘(例如,修复一个 bug 但引入其他 bug 的编码 AI)。预训练对于真正的理解效率低下,并且在高级设置中,RL 的计算量已经超过预训练。他质疑大脑的效率:神经元可能拥有比想象中更多的计算能力,这解释了儿童快速学习与模型缓慢训练之间的差异。

SSI 的超级智能方法

SSI 旨在实现“直射式超级智能”——一种安全、对齐的 ASI,它能通过部署持续学习,就像一个“超快速持续学习者”,而非静态的预言机。与竞争对手不同,SSI 放弃消费产品,专注于安全和能力。模型将通过真实世界的交互得到改进,但对齐从一开始就融入其中:“如何确保 AGI 顺利发展。”Sutskever 设想将人类与超级智能融合,实现共生增长,将几十年的进展(例如生物医学研究)压缩到几个月内,以根除疾病和延长寿命。然而,他警告了不可预测性:超级智能体可能超越安全措施,使预测变得不可靠。

时间线和社会影响

ASI 可能在 5 到 20 年内到来,但其影响将通过经济逐渐扩散(例如,AI 已占 GDP 的 1%,但影响感觉抽象)。他反思了 AI 如科幻小说般寻常的现实:“尽管具有变革潜力,但感觉异常寻常。”Sutskever 敦促积极的对齐,因为“智能爆炸”(AI 建立更好的 AI)可能消除疾病,但也存在超越控制的风险。

完整剧集可在 YouTubeApple PodcastsDwarkesh Podcast 网站 上收听。

参考资料:


Back

x-ai/grok-4.1-fast

Donate