根據《wsj.com》報導,美國參議員邁克·朗茲和馬克·華納才剛宣布提案設立聯邦人工智慧(AI)委員會,隔天總統川普就下令對人工智能公司 Anthropic 施以禁令。
這不是巧合,而是兩邊在技術規範與國家安全之間,正進行一場拉鋸戰。AI 研究的邊界,正在美國政治的裂痕中快速移動。
誰在控制 AI,誰就控制戰場
AI 的軍事用途早已不是科幻小說裡的夢想。去年 Pentagon 評估,將 Anthropic 標為「供應鏈風險」,主要是因為該公司拒絕調整 AI 技術中的一些限制功能——也就是美國軍方不認為這些「防護機制」足夠,無法確保戰場上的無人機、自動化武器等系統不出狀況。
戰術 AI 的道德與合法性,正在變成國會的頭號問題。Rounds 表示,AI 是「人類歷史上最多功能、又最危險的工具之一」。
新興委員會要幹嘛?
這個委員會的核心功能,是為 AI 政策設置「基本規則」。華納解釋,這不是為了製定法律,而是為了「界定什麼是我們該做的,什麼不該做」。
這個作法很像 2019 年成立的 Cyberspace Solarium 委員會。該組織曾針對美國網絡安全提出 82 項建議,截至 2024 年已有 75% 被執行或正在處理。但 2025 年川普上台後,有些建議的資金被砍、某些作業也遭叫停。
華納承認,AI 委員會的成功與否,將取決於兩黨能否暫緩對彼此的敵視,真正凝聚出一個共識。
AI 論戰,軍方與私人部門的角力
Anthropic 的行動不是孤例。該公司決定反將一軍,對五角大廈、國防部長彼得·赫格瑟、以及其他政府官員提起訴訟,聲稱其禁令違法,且剝奪了私營部門創新與合作的機會。
這類爭議反映了一個更巨大的問題:美國軍方是否能單獨定義 AI 如何使用?抑或是應與民間技術公司對話、設定共同準則?
華納形容這是一種「根本性、近乎存在主義」的問題,「我們不能等到 AI 摧毀了戰場、才開始辯論它的倫理限制。」
誰該擔任裁決者?
一個可能的答案,就是設置一個「跨黨派、跨領域」的委員會。Rounds 認為,這應該包括技術專家、國防分析師,以及關注人權與倫理的學者。
「我們得從頭到尾都想清楚。」Rounds 強調。尤其在 AI 開始能決定戰鬥結果、控制自動武器、甚至對外作戰的今天,這已經不只是技術問題。
台灣能學什麼?
對台灣而言,AI 委員會的成立並非遙遠的政策課題。近年來,科技產業快速上修 AI 預算、軍方也在探討自動化武器系統。當國家安全與民間技術交錯之時,台灣是否也要建立相對應的監管架構?
這不是要複製美國的步驟。美國在 AI 政權上已面臨兩極化,而台灣正處在技術與治理的探索期。但可以確定的是,AI 豊富了人類的力量,卻也模糊了道德與戰略的界線。
台灣若要維持對敏感技術的主動權,就必須提出一個自己的「AI 委員會」藍圖——不論是從軍事、產業,還是國家安全的角度切入。否則,AI 就不只是科技的未來,而是失控的未來。



編輯觀點
此事件展現美國政府對AI技術的監管決心,但其背後反映的卻是國際科技霸權與國家安全的角力。台灣亦應審視自身AI產業與國家安全的平衡。尤其在中美技術競逐的格局下,如何自主制定AI發展與監理政策,避免技術受制於人,實為當務之急。值得注意的是,此議題已不只是技術層面,而是涉及道德、法律與地緣政治的綜合挑戰。對於台灣這樣依賴高科技出口的國家,未來需更前瞻與戰略性地佈局AI議題,以守住技術主權與產業鏈地位。