利用AI「一鍵脫衣」尚無聯邦法律規範 受害者求償無門
在美國校園中,利用女同學的照片生成色情圖像或影片早已不是新鮮事,由此產生的惡劣事件,也屢次登上新聞媒體版面。然而,這類「AI一鍵脫衣」的網站和軟件仍然大肆流行,對受害者造成的傷害也在持續擴大。
在Google搜尋引擎上,只要輸入「AI nude」、「deepnude」等關鍵詞,便可輕鬆找到免費生成色情內容的網站。 用戶只需上傳目標人物照片,就可以輕鬆「脫掉」他們身上的衣服,或生成想要的影像劇情。一位不願具名的南加高中生透露,類似的遊戲,在校園内早已是公開的秘密,「沒什麼新鮮的,只不過大部分同學都不會跟別人分享。」
這類技術統稱為深偽 (Deepfake),AI工具基於數百萬張圖像的數據庫,分析照片或影片中人體的裸體效果並進行預測,從而流暢地將目標人物的五官疊加至色情照片或影片中。在社群討論平台Reddit、Quora上,與利用深偽技術製作裸體內容的資源和技術交流群組五花八門,甚至還有專門針對亞裔女孩的製作平台推薦。
根據信息咨詢公司Sensity數據,在這些深偽技術網站中,超過90%的圖像都與色情內容有關。 這與另一家網路安全公司Deeptrace的發現不謀而合,在所有利用深偽技術製作的內容中,約有96%是露骨的色情影像。深偽技術生成的色情影片,已構成一種基於圖像的性虐待。 多項研究表明,這類影片對受害者的心理健康產生破壞性影響,包括憂鬱症、創傷後壓力症候群和自殺念頭。
但令人沮喪的是,在大部分地區,這類影片的受害者基本沒有求償辦法。美國目前尚未頒布針對此類色情內容的聯邦法律,只有極少數州通過對未經同意的色情深偽技術(nonconsensual pornographic deepfakes,簡稱NPD)或人工智能生成的色情媒體的法律限制。 加州州長紐森曾於2019年簽署兩項針對深偽技術的法案,其中的AB602法案規定,允許加州居民在自己的圖像被用於露骨色情內容時提告,受害者可「尋求禁制令並索要合理的律師費和賠償」。 但該法只提供民事訴訟的權利,並未將共享NPD內容定為犯罪。
更重要的是,由於互聯網的廣度和覆蓋範圍,這些法律在實施時異常困難。互聯網不以州為界,這些影像創作者可能不在受害對象的所在州,甚至不處於同一國家,一個地方的某些非法行為,在另一地方可能合法。而且在多數情況下,受害者甚至不知道應該告誰。
此外,法律學者警告,AI偽造的圖像,可能不受個人肖像的版權保護,因為它們取自包含數百萬張圖像的資料集。 NPD雖與法律上的非自願影像性暴力(Image-based sexual abuse)有相似之處,但NPD案件卻常處於灰色地帶,讓受害者在尋求法律援助時碰壁。例如,法律定義的影像性暴力中的身體隱私部位,須是受害者本人,但NPD中的身體,其實不是受害者本人的身體,而是數百萬圖像的集合。
除司法和執法方面的挑戰,NPD相關的立法也時常受到利益相關者阻撓。例如紐約州的一項法案,禁止在未經主體同意的情況下,創作基於深偽技術的色情作品;即使主體人物已經過世,也是如此。該法案遭到美國電影協會反對,他們擔心這樣的法律,可能會阻礙傳記片製作,這類影片常包含已故名人的「數字」複製品。
FB留言