不到十二小時內,Sam Altman 從公開聲援 Anthropic 到宣布與五角大廈達成協議。相似的條款,為 […] 〈Sam Altman 卑鄙?剛挺被五角大廈封殺的 Anthropic,轉身喊 OpenAI 拿下美國防部合約〉這篇文章最早發佈於動區BlockTempo《動區動趨-最具影響力的區塊鏈新聞媒體》。不到十二小時內,Sam Altman 從公開聲援 Anthropic 到宣布與五角大廈達成協議。相似的條款,為 […] 〈Sam Altman 卑鄙?剛挺被五角大廈封殺的 Anthropic,轉身喊 OpenAI 拿下美國防部合約〉這篇文章最早發佈於動區BlockTempo《動區動趨-最具影響力的區塊鏈新聞媒體》。

Sam Altman 卑鄙?剛挺被五角大廈封殺的 Anthropic,轉身喊 OpenAI 拿下美國防部合約

2026/03/01 18:53
閱讀時長 10 分鐘

不到十二小時內,Sam Altman 從公開聲援 Anthropic 到宣布與五角大廈達成協議。相似的條款,為何結果截然不同?這場 AI 安全原則與權力博弈的角力,揭示了矽谷與軍方合作的真實邏輯。 (前情提要:AI 助攻犯罪!駭客靠 Anthropic Claude 輕鬆入侵墨西哥政府,偷走 150GB 敏感資料 ) (背景補充:Anthropic 怒控 DeepSeek 等中國 AI 偷學 Claude,拿 2.4 萬假帳號狂刷 1,600 萬問答 )   昨 (28)日上午,Sam Altman 發了一條推文:「今晚,我們與美國陸軍部達成協議,將我們的模型部署到他們的機密網路中。」 但把時間往回撥大約十二小時,台北時間 2 月 27 日晚上。同樣是他,坐在 CNBC 的 Squawk Box 節目鏡頭前,用平靜的語氣說:「對於 Anthropic,儘管我們之間有很多分歧,我基本信任他們這家公司。我認為他們真的在乎安全。」他還說:「我不認為五角大廈應該用《國防生產法》威脅這些公司。」 不到十二小時,同一張嘴,前後兩段話。這中間發生了什麼,值得慢慢說清楚。 兩份相似的條款,兩個不一樣的結果 先把兩份合約的核心內容並排放在一起。 Anthropic 的要求:Claude 不得被用於大規模監控美國公民,不得被用於沒有人類介入的自主武器系統。 Altman 在推文裡宣布協議時,援引了兩條相同的原則:「我們長期以來相信,AI 不應當被用於大規模監控或自主致命武器,人類在高風險的自動化決策中應當始終在場。」他還寫道:「五角大廈同意這些原則,將它們反映在法律和政策中,我們把它們寫進了合約。」 文字幾乎完全一樣。 一家被封禁,被列為「供應鏈風險」,被川普在 Truth Social 上親自罵成「激進左派覺醒公司」。另一家拿到了合約,進入了五角大廈的機密網路,Sam Altman 在推文裡用了「reached an agreement」這個詞:平靜,商務,像是一筆普通的 B2B 交易完成了交割。 這是整篇文章要回答的問題:相近的條款,為什麼結果完全不同? 答案不在條款裡,在條款背後的邏輯裡。 有一個背景事實值得先說清楚:Anthropic 是這四家公司(另外三家是 OpenAI、Google、xAI)中唯一被允許將 AI 接入五角大廈機密網路的公司。OpenAI 的原有合約,只涵蓋非機密的日常辦公場景。 這次談判,本質上是 OpenAI 想進入機密網路,而五角大廈提出的入場條件,正是那個爭議性的「所有合法目的」條款。Anthropic 已經在裡面,但五角大廈要求拆掉它進來時設下的安全門。 五角大廈不在意寫什麼,而是誰說了算 理解這件事,需要先理解 Anthropic 的 Dario Amodei 在那封公開信裡到底說了什麼。 他寫道:「Anthropic 理解,軍事決策由五角大廈而非私人企業來做。我們從未針對特定軍事行動提出異議,也從未試圖以臨時方式限制我們技術的使用。」 然後他話鋒一轉:「但在極少數情況下,我們相信 AI 可能會破壞而非捍衛民主價值觀。威脅不會改變我們的立場:我們問心無愧,無法接受他們的要求。」 這句話翻譯成合約語言是什麼意思?Anthropic 要求把原則寫死在合約條款裡,形成硬性約束。如果對方違反,它有權拒絕繼續服務。 五角大廈聽到的是什麼?一家私人公司,告訴政府的軍隊:某些情況下,你的命令我可以不執行,邊界由我劃定。 這對任何一支軍隊來說都是不可接受的。不是因為他們真的想搞大規模監控,而是因為「判斷權歸誰」這件事本身,是軍事指揮體系裡最敏感的神經。軍事採購負責人 Jerry McGinn 說得很直接:軍方承包商通常無權告訴五角大廈他們的產品可以怎麼用、不能怎麼用,「否則每份合約都要談具體使用場景,這不現實」。 OpenAI 給了完全不同的答案。 Altman 在備忘錄裡告訴員工,OpenAI 將向五角大廈提議自建「safety stack」,一套由技術控制、政策框架和人工審核構成的多層防護系統,嵌在 AI 模型和實際使用之間。OpenAI 同時表示,可以向機密網路內部派駐持有安全許可證的研究人員,持續追蹤 AI 行為;模型只部署在雲端,不進入無人機這類邊緣系統。 翻譯過來是:你來看,你來監督,你看見所有事情發生。如果出了問題,我們共同承擔,不是你來找我要解釋。 「規則寫死,我來執行」和「我來嵌入,你來監督」,這是兩種完全不同的權力關係,而五角大廈只接受後者。 OpenAI 最擅長的,恰好是五角大廈最想要的 這裡有一個讓人有些不舒服的反諷需要說清楚。 OpenAI 向五角大廈承諾的「技術透明」和「持續監控」,在它自己的用戶身上,已經實踐了一遍。 2025 年 8 月,OpenAI 在一篇關於用戶心理健康危機的官方部落格文章裡,夾帶披露了一套新的監控機制:當系統檢測到用戶「計畫傷害他人」時,對話會被轉入專用管道,由一支經過培訓的人工審核團隊處理,這些審核員被授權將情況上報給執法機關。這是 OpenAI 主動發布的,但埋在一篇關注心理健康的長文中段,反應平靜。 2026 年 2 月,也就是這次合約簽署前不久,OpenAI 上線廣告系統並更新隱私政策,明確了一件事:免費和基礎付費用戶在使用 ChatGPT 時,系統會進行「會話內上下文分析」,根據對話話題向用戶展示相關廣告。比如你在討論食譜,可能會看到送餐服務的廣告。OpenAI 強調對話內容本身不會傳給廣告主,但分析行為是即時發生的。廣告於 2 月 9 日開始測試。 2025 年 11 月,OpenAI 的第三方分析服務商 Mixpanel 遭遇入侵,洩露了部分 API 用戶的姓名、電子郵件、大致地理位置、作業系統和瀏覽器資訊。OpenAI 隨後終止了與 Mixpanel 的合作,目前有訴訟立案。事件主要影響 API 開發者用戶,普通 ChatGPT 用戶受影響的是通過平台提交過協助中心工單的那部分人。 這就是那家向五角大廈承諾「技術透明、持續監...

免責聲明: 本網站轉載的文章均來源於公開平台,僅供參考。這些文章不代表 MEXC 的觀點或意見。所有版權歸原作者所有。如果您認為任何轉載文章侵犯了第三方權利,請聯絡 crypto.news@mexc.com 以便將其刪除。MEXC 不對轉載文章的及時性、準確性或完整性作出任何陳述或保證,並且不對基於此類內容所採取的任何行動或決定承擔責任。轉載材料僅供參考,不構成任何商業、金融、法律和/或稅務決策的建議、認可或依據。