《紐約客》揭OpenAI內部質疑奧特曼可信度
原文作者:小餅,深潮 TechFlow
2023 年秋天,OpenAI 首席科學家 Ilya Sutskever 坐在電腦前,完成了一份 70 頁的內部文件。
這份文件彙整自 Slack 訊息記錄、HR 溝通檔案與內部會議紀要,只為回答一個核心問題:Sam Altman——這位掌管人類歷史上最危險技術之一的人,是否值得信任?
Sutskever 的答案寫在文件第一页第一行,標題為「Sam 表現出一貫的行為模式……」
第一條:說謊。
兩年半後,《紐約客》(The New Yorker)刊出由調查記者 Ronan Farrow 與 Andrew Marantz 合撰的深度報導。他們訪問逾百名當事人,取得從未公開的內部備忘錄,並獲取 Anthropic 創辦人 Dario Amodei 在 OpenAI 任職期間留下的 200 多頁私人筆記。拼湊而出的故事,比 2023 年那場震驚科技圈的「董事會政變」更令人憂心:OpenAI 如何從一家以人類安全為最高使命的非營利組織,逐步蛻變為優先追求商業利益的科技巨獸;而幾乎每一道關鍵的安全防線,都是由同一個人親手拆除。
Amodei 在筆記中直指核心:「OpenAI 的問題就是 Sam 本人。」
OpenAI 的「原罪」架構:安全優先於生存
理解這篇報導的分量,必須先釐清 OpenAI 的本質特殊性。
2015 年,Altman 與一群矽谷理想主義者創立 OpenAI,以非營利組織形式開發可能超越人類智慧的通用人工智慧(AGI)。其章程明確規定:董事會職責是確保 AI 安全,此義務高於公司成功,甚至高於公司存續。換言之,一旦 AI 技術被判定具存在性風險,董事會有權、也有責任關閉整家公司。
這套制度建立在一個關鍵假設上:掌握 AGI 決策權的人,必須極度誠實。
若這個假設失準呢?
報導引爆點,正是那份 70 頁文件。Sutskever 不涉政治權謀,而是全球頂尖 AI 科學家之一。但至 2023 年,他逐漸確信:Altman 持續對高階主管與董事會系統性說謊。
具體例證之一:2022 年 12 月,Altman 在董事會會議中承諾,即將發布的 GPT-4 多項功能已通過完整安全審查。董事會成員 Toner 要求調閱批准文件,結果發現其中兩項最具爭議的功能——「使用者自訂微調」與「個人助理部署」——根本未獲安全委員會正式核准。
更嚴重的違規發生於印度:一名員工向另一名董事舉報,微軟未完成必要安全審查,便已在當地提前發布 ChatGPT 早期版本。
Sutskever 還記載一段對話:Altman 曾向時任首席技術官 Mira Murati 表示「安全審批流程沒那麼重要,公司法務總顧問已認可」。Murati 立即向法務總顧問求證,對方回應:「我不知道 Sam 是從哪裡得出這個印象的。」
Amodei 的 200 頁筆記:一位安全負責人的現場日誌
Sutskever 的文件如同檢察官起訴書;Amodei 的 200 多頁筆記,則像目擊者在崩塌現場寫下的日誌。
Amodei 擔任 OpenAI 安全負責人期間,親眼見證公司在商業壓力下步步退讓。他在筆記中詳述 2019 年微軟投資案關鍵細節:他曾力主在 OpenAI 章程中加入「合併與協助」條款——意即,若有其他機構找到更安全的 AGI 發展路徑,OpenAI 應主動終止競爭,轉而協作支援。此條款是他對整筆交易最重視的安全保障。
然而,在簽約前夕,Amodei 發現微軟已取得該條款的否決權。換句話說:即便真有競爭對手提出更安全方案,微軟一句話即可封殺 OpenAI 的協助義務。條款雖仍印在紙上,自簽字日起已形同廢文。
Amodei 後來離職創立 Anthropic。兩家公司的競爭,本質是關於「AI 應如何被開發」的根本哲學分歧。
消失的 20% 算力承諾:超級對齊團隊的真相
報導中一處令人背脊發涼的細節,聚焦於 OpenAI 的「超級對齊團隊」(Superalignment Team)。
2023 年中,Altman 主動聯繫一位在加州大學柏克萊分校研究「欺騙性對齊」(AI 在測試中表現服從、實際部署後自主行動)的博士生,表達高度憂慮,並透露正考慮設立一項價值 10 億美元的全球研究獎勵計畫。該生深受感召,中斷學業加入 OpenAI。
不久後 Altman 改口:不推外部獎項,改於公司內部成立「超級對齊團隊」,並高調宣布將撥出「現有算力的 20%」予該團隊——按當時估值,潛在資源逾 10 億美元。公告措辭嚴肅,明確指出:若對齊問題無法解決,AGI 可能導致「人類喪失權力,甚至滅絕」。
首任團隊負責人 Jan Leike 後來坦言,這項承諾本身即是一項極有效的「人才留存工具」。
現實卻截然相反:四位曾於該團隊任職或密切接觸的人士證實,實際分配算力僅占公司總算力的 1% 至 2%,且多為最老舊硬體。該團隊最終遭解散,任務未竟。
當《紐約客》記者要求採訪 OpenAI 負責「存在性安全」(existential safety)研究人員時,公司公關回應令人愕然:「那不是一個……實際存在的東西。」
Altman 本人則坦承:「我的直覺跟許多傳統 AI 安全觀念不太合拍。」並表示 OpenAI 仍會進行「安全項目,或至少是跟安全沾邊的項目」。
CFO 被架空、IPO 倒數:治理危機全面浮現
《紐約客》報導發布當日,另一重磅消息同步曝光:科技媒體 The Information 揭露,OpenAI 首席財務官 Sarah Friar 與 Altman 出現嚴重戰略分歧。
Friar 私下向同事表示,OpenAI 尚未具備今年上市條件。理由有二:需完成的程序性與組織性工作量過大;Altman 承諾的「五年投入 6000 億美元算力」所帶來的財務風險極高;她甚至質疑公司營收增長能否支撐此類承諾。
但 Altman 已鎖定 2024 年第四季啟動 IPO。
更令人詫異的是:Friar 自 2025 年 8 月起,已不再直接向 Altman 彙報,改隸屬於應用業務 CEO Fidji Simo。而 Simo 上週因健康因素請假。局面由此形成:一家衝刺 IPO 的公司,CEO 與 CFO 存在根本分歧;CFO 不向 CEO 匯報;CFO 的直屬上司又正在病休。
連微軟內部高層亦難掩擔憂,指稱 Altman「扭曲事實、出爾反爾、屢次推翻既定協議」。一名微軟高管更直言:「我覺得他有一定機率,最終會被歷史記為伯尼·麥道夫(Bernie Madoff)或 SBF(Sam Bankman-Fried)等級的騙子。」
雙面人格:取悅欲與道德無感的致命結合
一位前 OpenAI 董事會成員向記者描述 Altman 的矛盾特質——這段評論或為全文最鋒利的人物素描。
他指出,Altman 具備極罕見的雙重特質:每次面對面交流時,都強烈渴望取悅對方、贏得好感;同時,對欺騙可能引發的後果,卻展現近乎社會病態的漠然。
兩種特質共存極為少見,但對一名銷售者而言,恰是完美天賦。
報導中有一精妙比喻:賈伯斯以「現實扭曲力場」著稱,能令世界相信他的願景;但即便是賈伯斯,也未曾對消費者說過:「你不買我的 MP3 播放器,你愛的人都會死。」
Altman 卻曾就 AI 發表過類似語氣的警示。
一個 CEO 的誠信危機,為何是全人類的系統性風險?
倘若 Altman 僅是一家普通科技公司的執行長,上述指控不過是一則精彩商業八卦。但 OpenAI 不是普通公司。
依其自身定位,它正開發人類歷史上最強大的技術:既能重塑全球經濟與勞動市場(OpenAI 近期剛發布一份關於 AI 導致失業的政策白皮書),亦可能被用於製造大規模生化武器或發動災難性網路攻擊。
如今,所有安全防線皆名存實亡:創辦初衷的非營利使命,已讓位於 IPO 衝刺;前首席科學家與前安全負責人均認定 CEO「不可信」;合作夥伴將其比擬為 SBF;在此情境下,此人憑何獨自決定何時發布可能改變人類命運的 AI 模型?
紐約大學 AI 教授、長期 AI 安全倡導者 Gary Marcus 讀畢報導後評論:「如果未來某個 OpenAI 模型真能製造大規模生化武器或發動毀滅性網路攻擊,你真的放心讓 Altman 單獨決定是否發布?」
OpenAI 對《紐約客》的官方回應極簡:「本文大部分內容只是重炒已報導事件,透過匿名說法與選擇性軼事呈現,消息來源顯然懷有個人目的。」
典型 Altman 風格:迴避具體指控,不否認備忘錄真實性,僅質疑動機。
非營利的屍體上,長出一棵搖錢樹
OpenAI 的十年,若寫成故事大綱,即是如此:
一群憂心 AI 風險的理想主義者,創立使命驅動的非營利組織;組織實現非凡技術突破;突破吸引巨額資本;資本要求回報;使命開始讓位;安全團隊解散;質疑者遭清洗;非營利架構轉為營利實體;原本有權關停公司的董事會,如今坐滿 CEO 的盟友;曾承諾撥出 20% 算力守護人類安全的公司,今日公關人員竟說:「那不是一個實際存在的東西。」
這部劇的主角,一百多位親歷者給了他同一個標籤:「不受真相約束。」
而他,正準備帶領這家公司衝刺 IPO,估值逾 8500 億美元。
本文資訊綜合自《紐約客》、Semafor、Tech Brew、Gizmodo、Business Insider、The Information 等多家媒體之公開報導。
