AI輕易「扒光」衣服… 假裸照摧毀青少年人生 僅少數州立法管制

記者顏伶如/綜合報導

人工智慧(AI)科技日新月異,可以輕易將一般日常照片改造成栩栩如生的裸照,AI生成的女性、青少年男女,甚至兒童裸照數量激增,受害者的人生受到嚴重衝擊。

華盛頓郵報報導,YouTube網紅蓋比‧貝兒(Gabi Belle)得知網路上正在流傳一張她一絲不掛站在田園裡的裸照時,整個人驚呆了,因為26歲的她不曾拍過這張照片,知道照片是假的,發簡訊請同事幫忙刪照片,卻被告知網上還有近百張假裸照,這些照片來自於專門製造人工智慧生成裸照的色情網站。

貝兒覺得很噁心,也覺得被冒犯,對於有人利用她的肖像製造假裸照感到不可思議。

報導指出,人工智慧生成的假裸照與色情影片有如雨後春筍般出現,AI工具可以透過計算與分析,輕易扒光照片裡的人物,或以天衣無縫手法,更換性愛影片主角的面容。

產業分析師吉娜維芙‧吳(Genevieve Oh,音譯)指出,發布AI生成色情圖片的十大網站裡,假裸照從2009年到2018年增加了290%。這些網站有知名人物、政治人物的假裸照,例如紐約州聯邦眾議員歐凱秀(Alexandria Ocasio-Cortez),還有普通少女的裸照,受害者肖像被不肖人士用來讓當事人難堪,或勒索當事人,甚或滿足私人幻想欲望。

賓州大學(University of Pennsylvania)數位權益倡議研究員麥杜克斯(Sophie Maddocks)表示,深偽色情影像如今大多鎖定未成年女孩。

華郵報導指出,受害者幾乎無力招架,並沒有任何聯邦法律可以用來規範深偽(deepfake)色情圖檔,目前只有少數幾州立法管制。

人工智慧生成的女性、青少年男女裸照數量激增,嚴重影響受害者的未來。(Getty Images)
人工智慧生成的女性、青少年男女裸照數量激增,不受肖像智慧財產權保護,也無聯邦法律可以規範。(路透)

法律學者說,AI自動生成影像可能不受肖像智慧財產權保護,因為影像產生來自於數百萬筆影像資料。

AI 人工智慧 華郵

推薦文章

留言