根據《wsj.com》報導,美國參議員邁克·朗茲和馬克·華納才剛宣布提案設立聯邦人工智慧(AI)委員會,隔天總統川普就下令對人工智能公司 Anthropic 施以禁令。

這不是巧合,而是兩邊在技術規範與國家安全之間,正進行一場拉鋸戰。AI 研究的邊界,正在美國政治的裂痕中快速移動。


誰在控制 AI,誰就控制戰場

AI 的軍事用途早已不是科幻小說裡的夢想。去年 Pentagon 評估,將 Anthropic 標為「供應鏈風險」,主要是因為該公司拒絕調整 AI 技術中的一些限制功能——也就是美國軍方不認為這些「防護機制」足夠,無法確保戰場上的無人機、自動化武器等系統不出狀況。

戰術 AI 的道德與合法性,正在變成國會的頭號問題。Rounds 表示,AI 是「人類歷史上最多功能、又最危險的工具之一」。


新興委員會要幹嘛?

這個委員會的核心功能,是為 AI 政策設置「基本規則」。華納解釋,這不是為了製定法律,而是為了「界定什麼是我們該做的,什麼不該做」。

這個作法很像 2019 年成立的 Cyberspace Solarium 委員會。該組織曾針對美國網絡安全提出 82 項建議,截至 2024 年已有 75% 被執行或正在處理。但 2025 年川普上台後,有些建議的資金被砍、某些作業也遭叫停。

華納承認,AI 委員會的成功與否,將取決於兩黨能否暫緩對彼此的敵視,真正凝聚出一個共識。


AI 論戰,軍方與私人部門的角力

Anthropic 的行動不是孤例。該公司決定反將一軍,對五角大廈、國防部長彼得·赫格瑟、以及其他政府官員提起訴訟,聲稱其禁令違法,且剝奪了私營部門創新與合作的機會。

這類爭議反映了一個更巨大的問題:美國軍方是否能單獨定義 AI 如何使用?抑或是應與民間技術公司對話、設定共同準則?

華納形容這是一種「根本性、近乎存在主義」的問題,「我們不能等到 AI 摧毀了戰場、才開始辯論它的倫理限制。」


誰該擔任裁決者?

一個可能的答案,就是設置一個「跨黨派、跨領域」的委員會。Rounds 認為,這應該包括技術專家、國防分析師,以及關注人權與倫理的學者。

「我們得從頭到尾都想清楚。」Rounds 強調。尤其在 AI 開始能決定戰鬥結果、控制自動武器、甚至對外作戰的今天,這已經不只是技術問題。


台灣能學什麼?

對台灣而言,AI 委員會的成立並非遙遠的政策課題。近年來,科技產業快速上修 AI 預算、軍方也在探討自動化武器系統。當國家安全與民間技術交錯之時,台灣是否也要建立相對應的監管架構?

這不是要複製美國的步驟。美國在 AI 政權上已面臨兩極化,而台灣正處在技術與治理的探索期。但可以確定的是,AI 豊富了人類的力量,卻也模糊了道德與戰略的界線。

台灣若要維持對敏感技術的主動權,就必須提出一個自己的「AI 委員會」藍圖——不論是從軍事、產業,還是國家安全的角度切入。否則,AI 就不只是科技的未來,而是失控的未來。


延伸閱讀