尘埃落定,微软 CEO 纳德拉发布消息,Sam Altman 和 Greg Brockman 和他们的团队将加入微软,Altman 作为 CEO 领导一支前沿 AI 研究团队。Sam Altman 转发推文确认消息。
同时,微软将与 OpenAI 及其新任 CEO Emmett Shear 继续深入合作。
在此之前,多家媒体爆料,OpenAI 董事会已任命 Twitch 前 CEO、联合创始人 Emmett Shear 为临时 CEO,代替现任临时 CEO Mira Murati(CTO)。同时媒体爆料,Ilya Sutskever 在周日晚上(北京时间周一上午)告知同事,尽管高管们努力让 Sam Altman 回来,但后者不会再担任 OpenAI 的首席执行官。
Ilya 内部发言后不久,数十名 OpenAI 员工提出离职。
下面我们提供两段内容。
*段是著名科技记者 Kara Swisher 梳理的时间线,一切是如何通向 Sam Altman Guest 工牌照的推文。
第二段是来自《大西洋月刊》的报道,原文标题「Inside the Chaos at OpenAI」(OpenAI混乱的背后内幕)。作者 Karen Hao 和 Charlie Warzel,前者正在写一本关于 OpenAI 的书。
01、愚蠢、古怪、疯狂、傻
Kara Swisher 梳理内容
- 好了,我回来几个小时了,我来给你们更新一下,毕竟 OpenAI 的愚蠢程度是史诗级的。所以我来告诉你们发生了什么:OpenAI 董事会与 Sam 的谈判正在进行的时候,截止时间本是太平洋时间的中午,但 Ilya 一方要求推迟到下午 5 点。这时候开始,一切变得古怪起来。
- 在与 Altman 和他的团队犹豫几个小时后,OpenAI 放弃了他们,找来了一个新的 CEO——我说得好听点,和临时 CEO Mira 以及 Altman 相比,新 CEO 确实一般般。但 Mira 想要 Altman 和 Brockman 回来,这是正确的举动,所以这位女士必须离开。
- 微软 CEO 纳德拉插手很深,他希望 Altman 回来,其他投资人 Sequoia 和 Thrive 没有插手太多。虽然该公司(微软)会在这次笨拙的转向后做一些好听的公开表达(它必须这么做),但我认为它实际上在想 WTF 和怎么退出。
- 其他相关人员对这种转变感到困惑,并归咎于剩下的 4 名董事会成员,他们显然在没有与外部顾问或沟通交流的前提下运作(毫无疑问)。「他们不在乎是否被起诉」,消息源说。
- 旁白:他们会被起诉的。真正的问题是谁在幕后只是他们,或者这只是一个真的笨到家的董事会。我完全支持公司治理,但这看起来真的很糟糕,即使他们的目的是从终结者手中拯救我们。
- 所以,到了周日的深夜(Sam 发布访客工牌照),Sam 的确再也不会成为 OpenAI 的访客了。「我们都傻眼了,」另一个信息源说。挺有道理的,因为它真的,非常傻。
- 现在我要睡觉了,除非我的手机响了、短信来了。尽管在周五的*报道之后,我尝试忽略这场闹剧,但这太疯狂了,你没办法不关心。总而言之,Sam 没了(No Sam)。某个陌生的新 CEO。OpenAI 董事会,反反复复,开车撞墙。诉讼即将到来。
02、《大西洋月刊》爆料一切源自ChatGPT
本文爆料了过去一年里,OpenAI 发生的巨变,一切开始于 OpenAI 发现 Anthropic 准备推出 Chatbot 产品开始,他们紧急开发了一款用于「低调的研究成果预览」的产品——ChatGPT。
11 月底发布后,一切都失控了,接下来发生的所有,都违背了 Ilya Sutskever 等人创办 OpenAI 时坚定的对齐路径。
矛盾不断激化,一发不可收拾。
以下是《大西洋月刊》报道原文。
ChatGPT 打破了公司的价值平衡
要理解过去两天发生的惊人事件——包括 OpenAI 首席执行官 Sam Altman 突然被解职的消息,以及随后公司可能与他重新接洽的传闻——首先需要了解的是:
OpenAI 与其他技术公司有着本质的不同。它并不像互联网时代的标志性公司如 Meta、Google 和 Microsoft 那样。
OpenAI 从一开始就有意规避科技行业普遍的追求规模扩张、推出消费产品前先行后问的价值观。成立于2015年的 OpenAI 是一个非营利组织,致力于创造能够惠及“全人类”的人工通用智能(AGI)。这种 AGI 预计将高度先进,能在“绝大多数经济价值工作”上胜过任何人,因此需要负责任的管理。OpenAI 旨在运作得更像是一个研究机构或智库。公司的宪章明确表示,OpenAI 的主要责任是对人类,而不是对投资者或员工。
然而,这种模式并没有持续太久。
2019年,OpenAI 成立了一个“限利”子公司,以筹集资金、吸引*人才,并最终推出商业产品。尽管如此,非营利董事会依然保持着完全的控制权。这些公司内部的细节是 OpenAI 快速崛起和 Altman 惊人下台的关键。Altman 上周五被董事会解职,这是公司内两大意识形态极端之间长期权力斗争的顶点——一方是源自硅谷、对快速商业化充满活力的技术乐观主义者;另一方则深陷于对 AI 作为人类存在风险的恐惧,并认为必须极其谨慎地控制。这两派虽然多年来设法共存,但也经历了不少波折。
大约一年前,这种微妙的平衡被打破了。根据当前和前员工的说法,问题的起因是 ChatGPT 的发布。
在外人看来,ChatGPT 是史上最成功的产品发布之一,它的增长速度超过了历史上任何其他消费者应用,似乎还重新定义了数百万人对自动化的威胁和希望的看法。
然而,ChatGPT 实际上使 OpenAI 分裂为两个截然不同的方向,加剧了已经存在的意识形态分歧。一方面,ChatGPT 加速了以盈利为目的的产品开发;另一方面,它对公司的基础设施和关注技术风险评估及控制的员工施加了前所未有的压力。这加剧了 OpenAI 内部不同派系之间本已紧张的关系,Altman 在2019年的一封员工邮件中将这些派系称为“部落”。
在《大西洋月刊》杂志与 OpenAI 的10位现任和前任员工的交谈中,显露出该公司内部正在发生的复杂变化,这一变化导致领导层之间出现了无法维持的裂痕。(出于对这些员工的保护,我们未透露他们的姓名——他们都担心公开对 OpenAI 内部事务的直言可能会带来不良后果。)
他们的叙述共同描绘了一个图景:公司追求盈利的压力与日俱增,与公司公开宣称的使命产生了冲突,这种矛盾在 ChatGPT 以及随后迅速推出的产品中达到了顶点。
“ChatGPT 发布后,盈利和收入的途径变得更加明确,”一位知情人士透露。“公司再也无法以致力于理想主义研究为由避免商业化。现在,客户的需求迫在眉睫。”
关于 Altman 被解雇的具体原因,以及他是否会回归其原职位,我们仍然一无所知。今天(美国时间11月19日)下午,Altman 访问了位于旧金山的 OpenAI 总部,讨论可能的协议,但他并未对我们的采访请求作出回应。
董事会在上周五宣布,经过“深思熟虑的审查过程”后发现,Altman 在与董事会的沟通中“未能始终保持坦诚”,这导致他们对他担任 OpenAI CEO 的能力失去了信心。一份由首席运营官发给员工的内部备忘录,经 OpenAI 发言人证实,随后指出,这次解雇是由于 Altman 与董事会之间的“沟通失误”,而非因为“任何与我们的财务、商务、安全或安全/隐私实践相关的不当行为”。但具体细节尚未公开。
我们所知道的是,过去一年对 OpenAI 来说充满了混乱,主要是由于公司发展方向上的显著分歧。
ChatGPT的发布是个偶然
在2022年秋季,也就是 ChatGPT 发布之前,OpenAI 的全体成员都在紧张准备其迄今为止最强大的大型语言模型 GPT-4 的发布。团队们努力完善这项能够流畅编写文章和代码、描述图像内容的技术。他们不仅为支撑这一产品准备必要的基础设施,还在完善决定哪些用户行为可被 OpenAI 容忍的政策。
在这一系列事件中,OpenAI 内部传出了一个消息,称它的竞争对手 Anthropic 正在研发自己的聊天机器人(Chatbot)。
这场竞争背后有着个人恩怨:Anthropic 是由那些在 2020 年离开 OpenAI 的员工创建的,据说他们离开是因为对公司快速推出产品的担忧。根据公司内三位员工的说法,OpenAI 的领导层在 11 月告诉员工,他们需要在几周内推出一款聊天机器人。
为此,他们决定发布一款现有的模型——GPT-3.5,但增加了一个聊天界面。领导层小心地将这看作是一次“低调的研究预览(low-key research preview)”,而不是正式的产品发布。Altman 和其他高管认为,通过把 GPT-3.5 交给公众使用,OpenAI 可以收集到更多有关人们如何使用和与 AI 互动的数据,这对 GPT-4 的发展大有裨益。这一举措也符合公司更广泛的推广策略,即逐步推出技术,让人们慢慢适应。
Altman 等高层开始强调一个观点:OpenAI 需要启动“数据驱动的增长”。
一些员工对于匆忙推出这个新的对话模型感到不安。公司在为 GPT-4 的准备工作中已经人手紧张,并且缺乏处理可能改变风险格局的聊天机器人的能力。就在几个月前,OpenAI 才推出了一种新的流量监控工具,旨在追踪用户的基本行为。该工具在完善监测人们如何使用公司产品的能力方面还处于发展阶段,这些监测结果将指导公司如何应对技术可能带来的危险和滥用风险。另一些员工则认为,将 GPT-3.5 转变为聊天机器人可能面临的挑战相对较小,因为这个模型已经经过了充分的测试和精炼。
公司坚决地推进,并于 11 月 30 日推出了 ChatGPT。
这次发布被看作是一件不重要的小事,因此公司并没有就聊天机器人的上线做出任何重大的全公司性的宣布。许多没有直接参与的员工,包括那些在安全职能部门的员工,甚至没有意识到这件事的发生。据一名员工称,一些知情的员工甚至开始了一个赌注池,赌在*周有多少人会使用这个工具。最高的估计是 10 万用户。OpenAI 的总裁在推特上宣布,这个工具在前五天内吸引了 100 万用户。
在 OpenAI 内部,“低调的研究预览”这一短语迅速成为一个热门梗,员工们甚至把它做成了笔记本电脑贴纸。
ChatGPT 的*成功给公司带来了巨大的压力。为了应对不断增长的流量,研究团队的计算资源被重新分配。由于流量的持续激增,OpenAI 的服务器多次崩溃,流量监控工具也屡次失效。即使该工具在线,员工也因其功能受限,难以深入了解用户的行为。
公司内部的安全团队试图减缓进度。这些团队致力于改进 ChatGPT,使其能够拒绝某些类型的滥用请求,并对其他咨询提供更合适的回答。但他们在开发如自动禁止反复滥用 ChatGPT 用户等功能上遇到困难。另一方面,公司的产品部门希望利用这股势头,加大商业化的力度。
公司雇佣了数百名员工,以积极扩大公司的产品和服务。
2月,OpenAI 推出了 ChatGPT 的付费版;3月,紧接着推出了一个 API 工具,或应用程序接口,帮助企业将 ChatGPT 集成到他们的产品中。两周后,公司最终推出了 GPT-4。
根据当时在公司的三名员工所述,这些新产品进一步加剧了问题。
流量监控工具的功能严重滞后,它只能提供有限的信息来识别哪些流量是由将 ChatGPT 和 GPT-4 通过新的 API 工具集成到其他产品中所产生的,这使得理解和阻止滥用变得更加困难。
与此同时,随着用户大规模创建账户,API 平台上的欺诈活动急剧增加,用户利用每个新账户附带的 20 美元按量付费服务信用额度进行牟利。阻止欺诈成为了首要任务,以减少收入损失,并防止用户通过创建新账户来逃避滥用的执法。原本规模就不大的信任与安全团队的员工被从其他滥用领域调走,专注于解决这个问题。
在日益增长的压力下,一些员工开始面临心理健康问题,公司内部沟通效果差。同事们有时只有在 Slack 上注意到同事消失后,才发现他们已经被解雇。
GPT-4 的发布也令专注于更高层次的人工智能安全挑战的对齐团队感到挫败。这些挑战包括开发各种技术,以确保模型遵循用户指令并防止其发表有害言论或“幻觉”——即错误地自信地呈现错误信息。
许多团队成员,尤其是越来越多对更高级人工智能模型的存在风险感到担忧的成员,对于 GPT-4 的快速发布和其广泛集成到其他产品中感到不安。他们认为自己所做的人工智能安全工作还远远不够。
这种紧张关系在高层爆发。随着 Altman 和 OpenAI 总裁 Greg Brockman 推动更多商业化,公司首席科学家 Ilya Sutskever 越来越担心 OpenAI 是否还遵守着其创造有益 AGI 的非营利组织使命。
人工智能先驱 Geoffrey Hinton 表示,随着 OpenAI 大型语言模型的快速进展,Sutskever 越来越确信 AGI 即将到来,因此更加专注于防范其可能的危险。Hinton 曾是 Sutskever 在多伦多大学的博士导师,并在多年来与他保持了密切联系。(Sutskever 没有回应置评请求。)
Ilya 和 Altman 理念冲突升级
面对这种全能技术的即将到来,Sutskever 开始扮演起精神*的角色,与他共事的三名员工向我们透露。
他经常热情地重复一句口号:“感受 AGI(Feel the AGI)”,意在强调公司即将实现其最终目标。在 2022 年 OpenAI 的假日派对上,该活动在加利福尼亚科学院举行,Sutskever 带领员工高喊:“感受 AGI!感受 AGI!”这个口号本身非常流行,以至于 OpenAI 的员工在 Slack 上创建了一个特殊的“感受 AGI”emoji表情。
随着 Sutskever 对 OpenAI 技术的力量越来越有信心,他也越来越倾向于公司内部关注存在风险的派别。
根据两位熟悉该事件的人士的信息,今年一次领导层的郊外活动中,Sutskever 委托了一位当地艺术家制作了一个木制雕像,代表“未对齐”的 AI——即不符合人类目标的 AI。他将其点燃,象征着 OpenAI 对其创始原则的承诺。
7月,OpenAI 宣布成立一个所谓的超级对齐团队,由 Sutskever 共同领导研究。OpenAI 表示,将扩大对齐团队的研究,以发展更多上游 AI 安全技术,并专门投入公司现有计算机芯片的 20%,为 AGI 在本世纪可能到来做好准备。
同时,公司其他部门继续推出新产品。在超级对齐团队成立不久后,OpenAI 发布了强大的图像生成器 DALL-E 3。
本月早些时候,公司举行了首次“开发者大会”,Altman 在此会议上推出了 GPTs,这是一种无需编程即可构建的定制版 ChatGPT。这些产品同样面临重大问题:根据公司最新信息,OpenAI 经历了一系列服务中断,包括 ChatGPT 及其 API 的大规模中断。
据 CNBC 报道,开发者大会三天后,微软因安全担忧暂时限制了员工使用 ChatGPT。
尽管有一系列事件的影响,Altman 扔持续推进他的商务计划。在他被解雇的前几天,他一直在宣传 OpenAI 持续的进步。他向《金融时报》透露,公司已经开始研发 GPT-5,并在几天后暗示 APEC 峰会将有令人惊奇的展示。“在过去几周中,我们揭开了无知的面纱,将探索的边界向前推进”他说。“能够参与其中是我职业生涯的一大荣耀。”
据报道,Altman 还在试图从软银和中东投资者那里筹集数十亿美元,以建立一家能与英伟达等半导体制造商竞争的芯片公司,同时降低 OpenAI 的成本。在一年之内,Altman 帮助 OpenAI 从一个混合研究型公司转变为一个全面增长的硅谷科技公司。
在这种背景下,紧张局势的升级就不难理解了。OpenAI 的宪章将原则置于利润、股东和任何个人之上。公司部分由 Sutskever 现在所代表的那个群体创立——那些对人工智能潜力感到恐惧,其信念有时似乎植根于科幻领域的人——他们也是 OpenAI 当前董事会的一部分。
但 Altman 同样将 OpenAI 的商业产品和筹资活动定位为实现公司最终目标的手段。他告诉员工,公司的模型仍处于发展的早期阶段,OpenAI 应该进行商业化并产生足够的收入,以确保它能在对齐和安全问题上无限制地投入资金;据报道,ChatGPT 预计每年将产生超过 10 亿美元的收入。
从某种角度来看,Altman 的解雇可以被视为 OpenAI 不同寻常结构下的一个惊人实验。这个实验可能正在解构我们所熟悉的公司,并可能改变人工智能的发展方向。如果 Altman 在投资者的压力和现有员工的强烈要求下重新回到公司,这将是 Altman 权力的巨大集中。这表明,尽管有它的宪章和崇高的信条,OpenAI 最终可能只不过是一个传统的科技公司。
然而,另一种解读是,无论 Altman 是否留任,都不太可能解决人工智能发展中的一个危险缺陷。
过去 24 小时,整个科技行业都在屏息以待,等待见证 Altman 和 OpenAI 的命运。尽管 Altman 和其他人口头上支持监管并声称欢迎全球的反馈,但这个动荡的周末清楚地表明,在可能是我们时代最重要技术的发展中,真正有发言权的人寥寥无几。
人工智能的未来正在被富裕的技术乐观主义者、狂热的末日预言者和价值数十亿美元的公司之间的意识形态斗争所决定。OpenAI 的命运可能悬而未决,但公司的自负——其名称所代表的开放性——已经显示了它的局限性。
未来似乎将在封闭的门后被决定。