AI兒童色情圖像氾濫 執法單位聯手大掃蕩
人工智慧(AI)技術日新月異,導致生成兒童色情圖像氾濫,引起全國執法單位重視,全力出手打擊犯罪。
根據美聯社報導,北卡羅來納州一名兒童精神科醫師去年濫用AI軟體,將臉書(Facebook)一張數十年前開學日的舊照片修圖,去除照片中女童身上衣物,觸犯聯邦法令;今年5月間,威斯康辛州一名軟體工程師透過AI圖像生成軟體Stable Diffusion製作兒童性行為照片並轉送給一名15歲少年,遭到警方逮捕。
因此全國執法單位展開大執法,積極掃蕩製作或散布AI兒童色情圖像的犯罪行為。聯邦司法部「兒童剝削與猥褻部門」(Child Exploitation and Obscenity Section)負責人葛羅奇(Steven Grocki)提出警告:「犯罪分子若以為事不關己,基本上大錯特錯,因為遲早都有人會追究你們的責任。」
根據「國家失蹤和受虐兒童中心」(National Center for Missing & Exploited Children)透露,今年以來全國有十多州通過法令要打擊數位製作或修改的兒童情色圖片。不過南加州范杜拉郡(Ventura County)地方檢察官納薩連科(Erik Nasarenko)坦承:「AI製圖技術發展比我們執法行動速度跑得更快。」
另外AI生成的兒童色情圖經常盜用被害人外貌,對被害人帶來極大的心理陰影。迪士尼頻道節目Just Roll with It女演員、17歲少女凱琳·海曼(Kaylin Hayman)坦承:「儘管我的身體沒有被侵犯,但我感覺自己一部分被奪走。」
根據史丹福網路觀測站(Stanford Internet Observatory)去年公布的報告發現,Stable Diffusion等AI技術數據庫連結兒童色情,因此部分軟體可輕易生成露骨的色情照片,所以數據庫已刪除2000多個兒童色情圖像網路連結。
同時包括Google、OpenAI以及Stability AI等多家科技業者也同意與反兒童性虐待組織Thorn合作,共同打擊兒童色情圖像的散播。
不過史丹福網路觀測站首席技術專家泰爾(David Thiel)悲觀地說:「事前沒有花時間保證產品的安全性,事後就難以亡羊補牢,正如我們現在看到的情況。」
FB留言