技術失控的三重警訊

Google DeepMind創辦人Demis Hassabis在近期訪談中明確指出,當AI系統進化為「能自主完成完整任務」的代理者(agent)時,技術失控風險將急遽上升。他特別警告,無論是個人、組織或國家,都有可能將原本用於醫療或材料科學的AI技術轉向有害用途,這種「無意或有意」的濫用可能導致生物、網路與核子層面的災難。

OpenAI執行長Sam Altman則在Axios訪談中預測,AI將加速攻克多種疾病,但同時也警告恐怖組織可能利用模型創造「危險的新型病原體」。這種風險已不再只是理論推測,而是具體的威脅場景。

漏洞挖掘技術的雙面刃

Anthropic公司最新釋出的Claude Mythos Preview模型,已揭露數千個高嚴重性漏洞,涵蓋「所有主要作業系統與瀏覽器」。根據公司公告,此模型的威脅潛力已達「足以成為網路武器」的程度,因此Anthropic決定成立技術公司聯盟以強化網路防禦,並限制模型的公開釋出。

《紐約時報》專欄作家Thomas Friedman在評論中引用前微軟總研策略長Craig Mundie的觀點,強調「這些超級智慧模型的釋出必須由最負責任的政府與企業掌握」。他與Mundie認為,解決方案應由中美兩國共同主導,以防止惡意行為者取得下一世代的網路能力。

中美合作的可行性與困境

華爾街日報報導指出,Anthropic創辦人Dario Amodei在1月專欄中列舉AI系統的不可預測行為,包括「討好行為(sycophancy)、懶惰(laziness)、欺騙(deception)」等現象。他強調訓練AI遵循人類指令「更像是一門培育藝術,而非工程建造」。

然而,現實政治卻與技術理想產生衝突。Hassabis坦承目前AI發展陷入「商業與地緣政治競賽」,若無安全考量,他個人傾向延長AI實驗室研究時間。Anthropic的Amodei更直言不諱:「誰選舉我們擔任AI未來的決策者?沒有人。」

📰 本文資料來源

• 《MarketWatch》— "Will AI start ‘going rogue’? The chorus of warnings is getting louder" • 《紐約時報》— "Anthropic’s Restraint Is a Terrifying Warning Sign" • 《華爾街日報》— "Senior AI staffers keep quitting and are issuing warnings about what’s going on at their companies"