能生成任何人裸照的性犯罪,從韓國開始泛濫
在深度偽造技術的加持下,任何人的照片都能被篡改拼接,而且看上去毫無修改痕跡。自己的臉被拿去拍裸照和小黃片這樣的遭遇,如果能在韓國出現,那么理論上在全世界范圍泛濫就是遲早的事,并且女性往往會首當其沖成為受害者。
責任編輯:李屾淼
進入“電報”(以保密性著稱的即時通信軟件)聊天房,上傳一張臉部照片,不到5秒鐘,采用了深度偽造技術(Deepfake)的機器人(bot)就能合成一張真假難辨的照片——就當前而言,深度偽造技術已經可以把不同人的聲音、面部及身體像拼圖一樣隨意拼接,制作成各種影像乃至視頻。
2024年8月,大量利用深度偽造制作色情合成物的“電報”聊天群在韓國的社交媒體上曝光,受害者遍布韓國全國,涉及明星、軍人、老師、護士、學生等不同群體,多為女性。
但這并非韓國本土首次出現深度偽造性犯罪。2019年N號房事件被曝光時,曾有媒體報道過一些“電報”聊天房正利用合成技術制作色情影像。此后深度偽造性犯罪一度淡出公眾視野,但并未真正消失。
在備受關注的“首爾大學深度偽造性犯罪”事件中,受害女性自己收集整理證據,用長達兩年五個月的時間將加害者送上法庭。然而,有關深度偽造的數碼性犯罪不僅沒有得到遏制,反而愈演愈烈。
一出民間倒逼官方的奇觀因此在社交媒體上演。從2024年8月末開始,韓國女性網友開始不斷將受害者的經歷翻譯成不同的語言,在互聯網上傳播,幾個深度偽造話題下的推文數量都超過了三萬,一些熱門推文的閱讀量已突破一千萬。
“正是由于韓國媒體的沉默,我們才不得不使用英語寫作。這么做是為了迫使他們報道而非試圖掩蓋它?!眳⑴c者之一瑪麗告訴《南方人物周刊》。
“韓國的換臉問題太嚴重了?!薄艾F在無法預測有多少女性因深度偽造技術而受害?!?月末,隨著兩位韓國女生在微博發文求助,“韓國新版N號房”等話題在中文互聯網傳播開來,并迅速占領熱搜首位。
“韓國媒體和司法系統不會做他們應該做的事情,除非他們因為沒有采取正確的行動而受到國際社會的抨擊?!币晃痪W友戲謔道。
2024年8月28日,韓國首爾,韓國女性人權振興院在數碼性犯罪受害者支援中心內設置了深度偽造犯罪受害預防和對受害者緊急援助方案的看板(圖:視覺中國)
合成一張裸照,只需三塊四毛四
“發送一張你最喜歡的女孩的照片?!睒愀叨鬟M入房間后,立即收到聊天機器人發來的信息——這是“電報”上一個利用深度偽造非法合成色情影像的房間,參與者達22萬人。
進入這些房間并不困難,只需要在社交媒體上搜索關鍵詞便能收獲一大串訪問鏈接。
樸高恩按照提示放入一張由AI制作的虛擬女性照片,5秒后,一張裸體照被合成出來。她仔細端詳照片,發現其足以以假亂真,照片一旁甚至還有按鈕調整特定部位的大小。這樣一張合成照片,制作費用僅需約650韓元(約合3.44元人民幣)。
“技術進步得如此迅速,著實讓我震驚?!弊鳛橐幻浾?,樸高恩兩年前就曾撰寫過非法數字合成物犯罪的報道。在她的印象里,過去人們還需要付費給專門的技術人員才能制作非法數字合成物,而現在
登錄后獲取更多權限
校對:趙立宇