根據《朝日新聞》報導,台灣「性影像處理中心」於3年前設立,近日接獲一通來自17歲女性的通報,指稱自己在社交媒體上公開的照片,遭人利用AI技術加工成性暗示影像,並透過匿名通訊軟體「Telegram」大規模散播。
根據報導,台灣與韓國在面對兒童性影像擴散事件時,已建立行政機制,可由受害者通報後,由官方機構直接向網路平台提出刪除請求。然而日本目前尚無類似公辦機制,導致當地受害者在遭遇類似事件時缺乏應對管道。
報導中提到,台灣「性影像處理中心」接獲通報後,首先指導受害者取得影像,並協助保存證據。隨後,中心向Telegram提出正式刪除請求,相關影像在24小時內被移除。根據統計,該中心的影像刪除成功率從7成提升至9成。
報導指出,日本在面對類似事件時,受害者往往只能自行聯繫平台,但因缺乏官方支持,處理過程困難重重。日本政府目前尚未建立類似台灣與韓國的應對機制,讓受害者陷入孤立無援的處境。
報導也提到,AI技術的發展讓性影像的偽造變得更容易,也讓受害者更難辨識與對抗。面對這類科技帶來的社會問題,台灣與韓國已率先建立應對機制,而日本則仍處於觀望階段。
報導最後指出,「性影像處理中心」的設立,不僅協助受害者快速取得協助,也對平台提出明確的責任與義務,有助於減少性影像的擴散。
📰 本文資料來源 • 朝日新聞・社会






編輯觀點
AI技術快速發展,性影像偽造事件頻傳,台灣與韓國已建立應對機制,日本卻仍無對應措施,值得政府與社會關注與對比。