问题出在萨姆・奥尔特曼身上:OpenAI内部人士不信任CEO
就在 OpenAI 发布政策建议、声称要确保超级智能 AI 能真正造福人类的同一天,《纽约客》刊出了一篇重磅调查 —— 质疑 CEO 萨姆・奥尔特曼是否真的能兑现 OpenAI 最重要的承诺。
将两份内容放在一起看,会让人感到强烈的割裂感。
一方面,OpenAI 宣称,当 AI 开始 “在人类辅助下仍能超越最聪明的人” 时,公司将推动相关政策,坚持以人为本。为实现这一目标,OpenAI 承诺会清醒、透明地披露风险,包括监控 AI 摆脱人类控制、政府利用 AI 破坏民主等极端场景。该公司警告称,如果不妥善管控这些风险,“人类将受到伤害”,随后又描绘了一幅值得信赖的未来图景:实现超级智能将意味着全人类更高的生活质量。
另一方面,《纽约客》采访了超 100 位熟悉奥尔特曼行事风格的人士,查阅了内部备忘录,并对奥尔特曼本人进行了超 12 次访谈。这篇长篇调查给出了完全相反的结论:无论 OpenAI 的愿景多么美好,公众都很难信任这位 CEO 去 “掌控 AI 的未来”。
整体来看,内部人士将奥尔特曼描绘成一个讨好型、权力欲极强、永远把自己放在第一位的人。正如一位董事会成员总结他的两种特质:
极强的讨好欲,希望在每一次互动中都被喜欢;
近乎反社会人格般,不在乎欺骗他人可能带来的后果。
《纽约客》并未找到所谓 “实锤证据”,但记者查阅了 OpenAI 前首席科学家伊利亚・苏茨克弗与前研究负责人达里奥・阿莫迪的内部信息,记录了一系列被指欺骗与操纵的行为。这些事件单独看或许微不足道,但放在一起,两人都认定:奥尔特曼没有为先进 AI 营造安全的研发环境。
“OpenAI 的问题,” 阿莫迪写道,“就是萨姆本人。”
忧心忡忡的公众对 AI 好感度持续下滑
奥尔特曼要么否认报道中的指控,要么声称忘记了某些事件。他还将自己前后矛盾的说法归咎于 AI 行业的快速变化,并承认自己过去一直回避冲突。
但随着政府对其模型依赖度上升、相关诉讼指控其技术不安全,外界对 OpenAI 的审查越来越严,奥尔特曼这些看似矛盾的言行已经难以被忽视。
《纽约客》指出,最明显的一点是:奥尔特曼最近不再将 OpenAI 塑造成阻挡 AI 末日的救世主,转而采用极度乐观的口吻。
OpenAI 发布的政策建议也呼应了这种基调。该公司首席全球事务官克里斯・莱哈尼向《华尔街日报》证实,OpenAI 正迫切担忧公众对 AI 的负面看法。在宣布这些旨在保护人类免受 AI 危害的宏大构想时,OpenAI 还推出了试点计划:提供最高10 万美元奖学金、最高100 万美元API 额度,用于支持相关政策研究。
但《纽约客》的报道让人不禁质疑:这些建议是否只是为了转移公众对儿童安全、就业替代、数据中心高能耗等日益加剧的恐慌?据 Axios 报道,哈佛与 MIT 近期民调显示,美国人最担心的是AI 能耗会降低生活质量。《华尔街日报》提到,这些担忧可能在中期选举前影响两党选情,而可能放缓 AI 发展的数据中心禁令正获得越来越多支持。
对奥尔特曼和他的公司而言,在这个关键节点让公众接受其 AI 愿景至关重要。因为一旦共和党失去国会控制权,可能会出台更严格的 AI 安全法规 —— 而《纽约客》指出,奥尔特曼曾私下游说反对这类法规。
《纽约客》认为,如果不信任奥尔特曼,就很难说服公众相信:OpenAI 不是为了巩固自身霸权而随意承诺。
OpenAI 到底在兜售什么?
OpenAI 表示:“我们并没有全部答案,甚至大部分答案都没有。” 该公司将其 “智能时代产业政策” 定位为迈向超级智能过程中以人为本的初步构想。
OpenAI 呼吁 “常识性” 监管与公私合作,快速落地成功方案,并提出了 “雄心勃勃” 的政策理念,确保人人都能使用 AI 并从中获益。其乐观愿景承认,它希望实现社会从未做到的事:保障互联网接入、确保 AI 在美国 “公平部署”,并让所有人都接受使用培训。
劳动者保护是 OpenAI 计划的核心。建议包括:
让员工参与 AI 系统应用讨论,提升生产力、改善职场安全;
为 AI 的有害用途设定明确界限;
对自动化劳动力征税,用于补贴社保、医疗补助、食品券、住房援助等核心项目;
鼓励企业与工会试点无薪降、产出不变的 32 小时四天工作制,之后将节省的时间转为永久缩短工时、可储存带薪假期,或两者兼有。
此外,OpenAI 还提议设立公共财富基金,让每位公民(包括不参与金融市场投资的人)都能分享 AI 驱动的经济增长收益。
OpenAI 称:“基金收益可直接分配给公民,让更多人无论初始财富与资本获取能力如何,都能直接分享 AI 增长的红利。”
OpenAI 提出,随着 AI 承担更多任务,人类可以转向照护类工作,并建议出台政策帮助失业人员接受培训,进入医疗、养老、托育、社区服务等领域。为让人们愿意从事这些历来被低估的女性主导岗位,OpenAI 建议推动社会认可照护工作是 “具有经济价值的劳动”。
OpenAI 表示,人类劳动者还需要利用 AI 加速科学进步。
但该公司强调,所有这些承诺的公共福利,只有在我们建设一个有韧性的社会、能快速应对风险实施、并让 AI 保持安全、可管控、符合民主价值观的前提下才能实现。
OpenAI 愿景的这一部分,要求像自己这样的公司开发安全系统,以提升公众对 AI 的信任。该公司似乎在暗示:我们应该相信这些系统有效,且只有在真正危险来临时才干预企业。
OpenAI 称:“随着我们迈向超级智能,少数高性能模型 —— 尤其是可能显著加剧化学、生物、放射、核或网络安全风险的模型 —— 可能需要更严格的管控。”
该公司认为,当那一天到来时,应建立全球风险沟通网络。但只有拥有最先进模型的公司才需要接受严格审计,以便小型企业仍能竞争。OpenAI 称这是确保没有企业滥用垄断地位打压对手、削弱民主价值观的路径,同时坚称公众参与对 AI 成功至关重要。
《纽约客》报道称,奥尔特曼过去曾成功说服对科技持怀疑态度的公众:他们的诉求,即便相互矛盾,也是他的诉求。但对已经声称受到 OpenAI 模型伤害的公众来说,要再相信这位 “他这一代最厉害的推销员” 提出的宏大构想,可能越来越难。
一位 OpenAI 研究员告诉《纽约客》:奥尔特曼的承诺有时像是暂时堵住批评的权宜之计,直到他达成下一个目标。一些乐观专家认为,超级智能可能只需两年就能实现 —— 这比埃隆・马斯克在 OpenAI 待的时间还长,马斯克后来公开批评奥尔特曼的管理方式并离职创立了自己的 AI 公司。
这位研究员说:“奥尔特曼会搭建一些理论上未来能约束他的机制,但真到了需要被约束的时候,他就会直接抛弃这些机制。”
加入微信
获取电子行业最新资讯
搜索微信公众号:EEPW
或用微信扫描左侧二维码
