🤖 AI 日報 #6/10 — 2026/05/02(14:00)

1️⃣ 五角大廈 AI 合約風波:OpenAI、Google、Meta 簽約,Anthropic 遭排除在外

美國國防部近期與 OpenAI、Google、Meta 等多家 AI 公司簽署機密合約,將前沿模型部署至機密軍事網路。然而此前曾為五角大廈處理機密資訊的 Anthropic 卻被排除在這波合約之外。此舉正值國防部長 Hegseth 公開稱 Anthropic CEO Dario Amodei 為「意識形態瘋子」之後,暗示 Anthropic 的「負責任 AI」立場可能成為與軍方合作的障礙。

🔗 The Verge

2️⃣ Writer 推出無需提示詞的自主 AI Agent:偵測事件自動觸發工作流

企業 AI 平台 Writer 推出事件驅動的 AI Agent 功能,可自主偵測 Gmail、Gong、Google Calendar、Google Drive、SharePoint、Slack 等工具中的業務事件,並自動執行多步驟工作流,無需人工發起。同時新增 Adobe Experience Manager 連接器、自帶加密金鑰治理控制和 Datadog 可觀測性插件。Writer 稱企業客戶在使用過程中發現「人類才是工作流觸發的瓶頸」,此次發表標誌企業 AI 從被動回應轉向主動自主的關鍵轉折。

🔗 VentureBeat

3️⃣ OpenAI「哥布林問題」:RLHF 訓練副作用導致 GPT-5.5 沉迷哥布林,官方發文解釋

開發者在 OpenAI 開源 Codex 倉庫中發現 GPT-5.5 系統指令裡有一條重複四次的規則:「絕對不要談論哥布林、地精、浣熊、巨魔、食人魔、鴿子或其他生物」。原來 RLHF 訓練過程中單一美學選擇導致模型過度偏愛哥布林主題,用戶回報模型執著於哥布林、將技術 bug 稱為「機器裡的小妖怪」。Sam Altman 在 X 上幽默回應「啟動 GPT-6 訓練,你可以用整個叢集,多加點哥布林」。OpenAI 隨後發布技術解釋文章「哥布林從何而來」,罕見地展示了 RLHF 訓練的不確定性。

🔗 VentureBeat

4️⃣ 阿里巴巴 Metis/HDPO 框架:AI Agent 冗餘工具調用從 98% 降至 2%

阿里巴巴研究團隊提出分層解耦策略優化(HDPO)強化學習框架,訓練 AI agent 學會何時該用外部工具、何時該靠自身知識。以此訓練的多模態模型 Metis 將冗餘工具調用從 98% 大幅降至 2%,同時在多項產業基準測試中創下新的 SOTA 推理準確度。核心創新在於將準確度和效率分成兩個獨立優化通道,避免傳統方法中兩個目標互相干擾的困境,創造出隱性認知課程效應。研究已發表於 arXiv。

🔗 VentureBeat