根據《Wired》的長篇深度報導,如果你想知道AI軍事化的未來長什麼樣子——不要看技術論文。去看那群正在做決定的人。
他們來自矽谷的AI實驗室、五角大廈的深處、頂級大學的倫理委員會、以及新一代的國防科技新創。《Wired》稱他們為**「AI戰爭之神」**——不是因為他們在打仗,而是因為他們的決策正在定義:AI在戰場上能做什麼、不能做什麼,以及誰有權利按下按鈕。
核心問題:AI能自己決定殺人嗎?
這是整個AI軍事化辯論的終極問題。目前的軍事AI系統(如美國的Project Maven影像辨識和以色列的「Gospel」目標推薦系統)仍然有**「人在迴路中」(human-in-the-loop)**的設計——AI推薦目標,但最終的攻擊命令由人類下達。
但技術上的界線正在模糊。當AI在0.3秒內識別了一個「威脅」、人類操作員只有2秒鐘做決定、而且戰場上的節奏越來越快時——「人在迴路中」在實踐中可能變成「人在橡皮圖章的位置上」。
報導中的核心人物之間,對這個問題存在根本性的分歧。鷹派認為:AI在某些場景下(如防禦性攔截來襲飛彈)必須被允許完全自主行動——因為人類的反應速度不夠快。鴿派認為:生死決策必須永遠由人類做出——AI只能提供資訊,不能做決定。務實派認為:問題不在「AI能不能自主」——而在「在什麼條件下、針對什麼目標、有多少時間壓力」。
矽谷的角色
報導特別聚焦了矽谷AI公司在軍事化中的矛盾處境。Google在2018年因為員工抗議而退出了Project Maven(軍用AI影像辨識計畫)。但Anduril和Palantir等「不怕爭議」的公司迅速填補了空缺。OpenAI在2024年修改了使用條款,刪除了禁止軍事用途的條款。Anthropic則堅持維持紅線——但這讓它在軍方眼中成了「不配合的公司」。
矽谷的態度光譜從「完全拒絕」到「積極擁抱」——而重心正在向「擁抱」的方向移動。驅動力很簡單:國防合約的金額太大了。五角大廈2026年的AI相關預算估計超過150億美元。沒有多少公司能長期抵抗這個數字的誘惑。
為什麼你應該在意?
AI武器的決策不會在你的同意下做出。但它的後果會影響所有人。如果AI自主武器被部署——不論是美國、中國還是其他國家——它將改變戰爭的基本性質。戰爭會變得更「容易」開始——因為不需要冒自己士兵的生命。戰爭會變得更快——AI的決策速度讓人類幾乎無法介入。而「誰該為AI殺的人負責」這個法律和倫理問題,目前沒有任何國際法框架能回答。
《Wired》這篇報導的價值不在給你答案——而在讓你知道:這些決定正在被做出。做決定的人不多。而他們的選擇,會決定所有人的未來。
📰 本文資料來源
- Wired:〈Meet the Gods of AI Warfare〉
- 背景參考:Project Maven 歷史;五角大廈 AI 預算估算;國際自主武器法律框架討論



編輯觀點
這篇報導是2026年最重要的AI深度報導之一。它揭示的不是技術細節——而是「誰」在做決定。在AI軍事化的辯論中,最危險的不是技術本身——而是決策者之間的共識正在快速形成,且這個共識可能比公眾意識到的更接近「讓AI自主做出殺人決定」。