技術失控的三重警訊
Google DeepMind創辦人Demis Hassabis在近期訪談中明確指出,當AI系統進化為「能自主完成完整任務」的代理者(agent)時,技術失控風險將急遽上升。他特別警告,無論是個人、組織或國家,都有可能將原本用於醫療或材料科學的AI技術轉向有害用途,這種「無意或有意」的濫用可能導致生物、網路與核子層面的災難。
OpenAI執行長Sam Altman則在Axios訪談中預測,AI將加速攻克多種疾病,但同時也警告恐怖組織可能利用模型創造「危險的新型病原體」。這種風險已不再只是理論推測,而是具體的威脅場景。
漏洞挖掘技術的雙面刃
Anthropic公司最新釋出的Claude Mythos Preview模型,已揭露數千個高嚴重性漏洞,涵蓋「所有主要作業系統與瀏覽器」。根據公司公告,此模型的威脅潛力已達「足以成為網路武器」的程度,因此Anthropic決定成立技術公司聯盟以強化網路防禦,並限制模型的公開釋出。
《紐約時報》專欄作家Thomas Friedman在評論中引用前微軟總研策略長Craig Mundie的觀點,強調「這些超級智慧模型的釋出必須由最負責任的政府與企業掌握」。他與Mundie認為,解決方案應由中美兩國共同主導,以防止惡意行為者取得下一世代的網路能力。
中美合作的可行性與困境
華爾街日報報導指出,Anthropic創辦人Dario Amodei在1月專欄中列舉AI系統的不可預測行為,包括「討好行為(sycophancy)、懶惰(laziness)、欺騙(deception)」等現象。他強調訓練AI遵循人類指令「更像是一門培育藝術,而非工程建造」。
然而,現實政治卻與技術理想產生衝突。Hassabis坦承目前AI發展陷入「商業與地緣政治競賽」,若無安全考量,他個人傾向延長AI實驗室研究時間。Anthropic的Amodei更直言不諱:「誰選舉我們擔任AI未來的決策者?沒有人。」
📰 本文資料來源
• 《MarketWatch》— "Will AI start ‘going rogue’? The chorus of warnings is getting louder" • 《紐約時報》— "Anthropic’s Restraint Is a Terrifying Warning Sign" • 《華爾街日報》— "Senior AI staffers keep quitting and are issuing warnings about what’s going on at their companies"






編輯觀點
AI技術的雙面刃特性,在Mythos模型揭露數千漏洞的案例中展露無遺。當企業自覺技術威脅而選擇自我約束時,這既是對人類社會的保護,也暴露了產業界對技術失控的無力感。中美合作雖被視為解決方案,但地緣政治現實可能使協議流於形式。技術發展與安全管控的競賽,已從實驗室延伸至國際政治舞台,這場博弈的結果將決定AI能否真正成為文明進步的助力而非風險源。