在短視頻社交平臺的隱秘角落,一場(chǎng)基于虛擬合成技術(shù)的犯罪正悄然蔓延。記者調查發(fā)現,通過(guò)AI換臉、深度偽造等虛擬合成技術(shù),大量違背倫理道德的色情視頻被“炮制”而出。受害者面容被惡意嫁接到各類(lèi)低俗影片中,甚至滋生出黑灰產(chǎn)。
業(yè)內人士指出,這些以假亂真的換臉視頻不僅突破了法律與道德的底線(xiàn),更對個(gè)人安全和社會(huì )公序良俗構成嚴重威脅,呼吁加強治理。
女性面容被惡意嫁接
小雨是一名娛樂(lè )主播,直播內容主要是和粉絲聊天,不涉及任何擦邊內容。但不法分子卻將小雨的臉換到色情影片中傳播,讓她無(wú)端卷入不良輿論風(fēng)波。
“視頻是不能P的”“居然背著(zhù)我們偷偷拍片”……看到直播間公屏上類(lèi)似彈幕如爆炸般襲來(lái),小雨自此不敢再參加任何線(xiàn)上或線(xiàn)下社交活動(dòng)。
后來(lái),小雨在短視頻平臺又看到,有人毫不避諱地宣揚有關(guān)她的色情影片。順著(zhù)對方給的聯(lián)系方式,小雨進(jìn)入了所謂的“工程設計交流群”,發(fā)現群里全是各種各樣的網(wǎng)址和行業(yè)黑話(huà)。在這個(gè)群里,不法分子將許多女性的臉換到色情電影中非法牟利。最終,小雨報警,五名嫌疑人被抓,相關(guān)賬號和群聊也被永久封禁。
小雨的遭遇,并非個(gè)例。
記者潛入一個(gè)“可靈AI交流群”群聊,群里一位名叫“學(xué)校的你進(jìn)社會(huì )”的網(wǎng)友發(fā)布了一條擦邊視頻,聲稱(chēng)“988元包教會(huì ),流量很好”。視頻中,一位自稱(chēng)女大學(xué)生的人坐在宿舍床上,穿著(zhù)黑絲和蕾絲緊身衣做著(zhù)各種低俗動(dòng)作。這位網(wǎng)友自詡AI換臉領(lǐng)域高手,只要發(fā)給他正臉照,即可生成與照片主人公相關(guān)的擦邊視頻。
而在淘寶搜索“AI人臉替換”,也會(huì )出現不少提供AI換臉視頻制作服務(wù)的商家。消費者只需花費幾元到十幾元不等,就能定制一部換臉視頻,換臉對象可以是普通女性,也可以是女網(wǎng)紅、女明星。法律界人士指出,這些被明碼標價(jià)的照片和視頻嚴重損害了受害者的肖像權益和人格尊嚴,亟待加強清理。
背后暗藏黑色產(chǎn)業(yè)鏈
深度偽造(Deepfake),是指通過(guò)使用人工智能生成技術(shù),將個(gè)人的聲音、面部表情以及身體動(dòng)作拼接合成虛假內容。最常見(jiàn)的是AI換臉技術(shù),也包括語(yǔ)音模擬、人臉合成、視頻生成等。
2024年8月,韓國曾爆發(fā)過(guò)一起引發(fā)全球關(guān)注的深度偽造危害事件。在這起事件中,韓國網(wǎng)民在通訊軟件“電報”(Telegram)上發(fā)現大量聊天群,其中有成員創(chuàng )建和分享露骨的“深度偽造”色情圖像,涉及對象不乏未成年女孩。在付費的深度偽造電報頻道中,男性訂閱用戶(hù)甚至只要提供照片,交錢(qián)后頻道便可為其制作色情圖片。社交媒體流傳的受深度偽造影響的名單中包含百余所韓國中小學(xué)以及國際學(xué)校,受害者達到22萬(wàn)余人。
深度偽造的“作案工具”究竟來(lái)自哪里?記者采訪(fǎng)了解到,最多只需要四樣東西:AI換臉軟件、預訓練模型、被換臉的視頻、受害人照片。
首先,AI換臉必然需要受害人的照片。根據相關(guān)技術(shù)社區的分享,最初版本的深度偽造大概需要50張多角度、高清晰度的照片,才能實(shí)現較為自然的視頻合成。但經(jīng)過(guò)幾年迭代,目前只需要20張左右的照片就可以實(shí)現。
其次,制作高清流暢版AI換臉視頻需要獲取預訓練模型。預訓練模型,是AI開(kāi)發(fā)的一個(gè)基本機制。由于大部分AI模型的前置訓練任務(wù)是相同的,因此開(kāi)發(fā)者傾向將相同的部分進(jìn)行預訓練,在同類(lèi)任務(wù)中作為公用底座來(lái)使用。在A(yíng)I換臉任務(wù)中,由于難以掌握訓練方法,大部分新手訓練出的AI換臉模型,會(huì )出現貼臉不自然、嚴重掉幀等現象,這時(shí)候就需要使用預訓練模型。
按理說(shuō),作為非技術(shù)人員的普通人,應該較難獲得預訓練模型來(lái)進(jìn)行深度偽造。但事實(shí)并非如此。
打開(kāi)很多電商平臺、二手交易平臺,可以輕松找到專(zhuān)用于深度偽造的預訓練模型。這些模型一般被稱(chēng)為“AI金丹”,只需要幾元錢(qián)成本,便可輕易獲得。
受訪(fǎng)專(zhuān)家表示,從照片盜用到預訓練模型的交易,每一個(gè)環(huán)節都暴露了當前網(wǎng)絡(luò )環(huán)境的漏洞。
呼吁加強監管治理
實(shí)際上,在打擊AI換臉色情視頻的技術(shù)攻防戰中,公安機關(guān)面臨前所未有的挑戰。
太原市某分局王警官介紹,Deepfake技術(shù)的受害者群體主要是女性:發(fā)布在社交平臺上穿著(zhù)校服的女高中生照片被合成在裸體表情包上;外網(wǎng)流傳的相關(guān)群聊只需要提供照片便能實(shí)現色情圖片和視頻的自動(dòng)合成,并且這些群聊還被按照城市和學(xué)校進(jìn)行分類(lèi),目的是能在這些人的社交圈內傳播。
服務(wù)器難以追蹤、證據難以保存,是警方不得不面對的現實(shí)問(wèn)題?!跋胍獙I生成內容進(jìn)行溯源,難度不亞于大海撈針?!蓖蹙俳榻B,“犯罪嫌疑人會(huì )通過(guò)頻繁更換服務(wù)器、匿名網(wǎng)絡(luò )信息等手段隱藏蹤跡,再加上電子證據極易被加密、篡改或銷(xiāo)毀,都對警方搜集證據、研判案情造成阻礙?!?/p>
而對于受害者而言,過(guò)高的技術(shù)壁壘也使得獨立取證幾乎成為一件不可能的事?!皞鹘y辦案中‘人贓俱獲’的模式在A(yíng)I犯罪面前已經(jīng)不起作用了?!蓖蹙偬寡?。
值得注意的是,近年來(lái),通過(guò)開(kāi)展各類(lèi)專(zhuān)項行動(dòng)、加強技術(shù)研究,必要時(shí)聯(lián)合國際執法機構協(xié)同辦案,公安機關(guān)“打擊利用AI技術(shù)犯罪”的多維防線(xiàn)日益緊固。2025年1月,天津的李先生被詐騙分子偽造的企業(yè)老板視頻誘導轉賬95萬(wàn)元。專(zhuān)案組通過(guò)分析轉賬資金流向、追蹤異常IP地址,聯(lián)合網(wǎng)絡(luò )安全公司還原了犯罪團伙利用AI語(yǔ)音合成技術(shù)實(shí)施詐騙的全過(guò)程。最終警方與銀行聯(lián)動(dòng)凍結了李先生的賬戶(hù),追回了83萬(wàn)元。
業(yè)內人士指出,技術(shù)再逼真,人性的漏洞永遠是突破口。面對可疑電話(huà)時(shí)保持冷靜,收到親友緊急轉賬請求時(shí)多渠道核實(shí),警惕背后可能存在的AI語(yǔ)音合成陷阱。