根據《Inc Magazine》報導,AI安全領域的權威研究者Roman Yampolskiy指出,目前AI技術最大的風險,並非來自技術本身,而是企業與開發者過於急於部署AI系統,卻尚未真正理解其運作邏輯。這種缺乏透明度與控制的發展方式,可能對社會與企業帶來深遠的隱憂。

Yampolskiy長期專注於AI安全研究,他是最早提出AI風險控制與倫理架構的學者之一。根據他的研究,目前全球已有超過70%的企業在應用AI技術時,並未完全理解其背後的運作機制。這種「黑箱操作」的現象,使得AI應用在決策、預測與自動化方面,存在極大的不可控性。

「我們就像是在黑暗中駕車,卻以為掌握了所有方向。」Yampolskiy在接受專訪時強調。他指出,AI系統的複雜性與不透明性,讓企業在應用AI時往往產生誤判,尤其是在醫療、金融與司法等關鍵領域,一旦AI決策錯誤,後果可能極為嚴重。

根據國際AI治理協會(AI Governance Institute)2025年的報告,已有12%的AI相關爭議案件與黑箱決策有關。這也促使全球各國開始推動「AI透明度法規」與「可解釋AI(Explainable AI)」的發展。例如,歐盟在2024年通過的《人工智慧法案》,就明確要求企業必須提供AI決策的透明化解釋。

Yampolskiy進一步說明,企業在導入AI時,除了技術能力外,更需具備風險評估與倫理審查的基礎知識。他建議創業者與企業領導者應該了解AI的「可解釋性」(Explainability)與「可控性」(Controllability)兩大核心概念,並建立跨領域的AI治理團隊,以確保技術發展與社會價值的一致性。

「這不是科技的問題,而是我們對科技的理解不夠。」Yampolskiy說。他強調,AI的未來取決於人類如何管理與應用它,而非AI本身是否先進。

📰 本文資料來源 • Inc Magazine • AI Governance Institute • Roman Yampolskiy 專訪

「AI的風險不來自科技本身,而是我們對它的理解不夠。」——Roman Yampolskiy