根據《TABI LABO》報導,2026年3月28日於印度德里舉辦的「AI影響高峰會」,聚集全球政要與科技代表,就人工智慧倫理與數位安全議題展開深入討論。法國總統馬克龍強調,人工智慧若缺乏適當規範,將對兒童與青少年構成嚴重威脅,並提出15歲以下禁止使用社群平台的具體政策。他同時為歐盟《人工智慧法案》辯護,認為這是保護數位環境的必要措施。
馬克龍指出,近年來AI技術被濫用,導致兒童年齡的性影像大量生成,對受害者造成深遠心理創傷。根據聯合國兒童基金會(UNICEF)最新數據,僅2025年一年就有超過120萬名兒童成為AI生成性剝削的受害者。法國作為G7輪值主席國,已著手推動國內禁令,將15歲以下用戶全面排除於社群平台之外,並要求平台企業強化內容審查與安全保護。
馬克龍強調,這項規範並非限制科技創新,而是類比現實世界對兒童的保護機制,確保數位空間同樣具備法規保障。他認為,唯有建立「安全數位空間」,才能在長期推動數位競爭力與社會信任。
面對AI生成內容的風險,會議中也討論了「深偽技術」(Deepfake)的監管機制。聯合國秘書長古特雷斯強調,技術的未來不應該被少數科技巨頭所左右,而是需要國際社會共同監督。OpenAI首席執行官山姆·艾爾曼(Sam Altman)更提出設立類似國際原子能總署(IAEA)的全球AI監督機構,作為技術安全的中央管理單位。
此外,印度總理莫迪則關注技術獨佔問題,他指出若AI技術掌握在極少數企業或國家手中,將不利於全球公平與開放。他主張將核心技術開放源碼,讓更多國家與研究機構共同參與AI生態系建設,並強調透明度與資訊驗證機制的重要性,確保家庭與個人在數位環境中不會遭受濫用與詐騙。
此次高峰會的討論結果,將對全球AI治理架構產生深遠影響。從法國的數位禁令到印度的開放呼籲,顯示出科技與社會之間的張力,以及全球合作治理的迫切性。
📰 本文資料來源 • TABI LABO • 聯合國兒童基金會(UNICEF) • OpenAI官方聲明 • 法國總統府發言 • 國際原子能總署(IAEA)






編輯觀點
人工智慧技術的雙面性在此次高峰會中展露無遺。雖然科技帶來便利,但也對社會倫理與兒童權益構成挑戰。如何在創新與保護之間取得平衡,將是全球AI治理的核心課題。