近日,網紅小玉因為經營以Deepfake(深偽技術),將台灣女性公眾人物的面孔移植至色情片中的群組而遭逮捕。然而,早在這起重大案件爆發前,Deepfake在全球便已遭不肖人士用來進行金融犯罪、傳播假新聞,和破壞他國選舉。
這些年來,拜登受訪打瞌睡、川普高歌「我愛中國」、美國眾議院議長裴洛西宿醉失態的影片在網路瘋傳。但Deepfake最廣泛而猖獗的,還是色情影片。
根據研究公司Sensity AI估計,所有Deepfake影音中有90%到95%是未經同意的色情內容,其中九成的內容是女性。
就如這次的小玉事件,受害者台灣網紅奎丁、雞排妹,政治人物黃捷、高嘉瑜,甚至總統蔡英文都入列,清一色是女性。
Deepfake怎麼生成的?
這項將名人「換臉」至各式影片的技術,原先是人工智慧的一大進展。它依賴一種稱為人工神經網絡的系統,只要將數十萬張圖像,輸入人工神經網絡,就能「訓練」它們識別並重建人們的面部樣態。
Deepfake有多逼真?看看以下周子瑜被「換臉」的韓劇片段便可知,周子瑜並未出演這部片,但現在的技術已可做到各種動態、表情的全方位模擬。
並沒有接演這部韓劇的周子瑜,被網友透過Deepfake技術換成女主角,乍看之下影片流暢度與逼真度都極高。
在電影、遊戲與其他娛樂和藝術領域,Deepfake能開創新的效果,但當這項技術發展得愈來愈高明,走進現實世界後,就變了調。
根據《麻省理工學院技術評論》,從數十萬張圖才能模擬一張臉,到數萬張、數千張,甚至如今只需要「一張」,AI便能很完善地掌握一個人的五官細節與神情。
這是長期研究Deepfake的專家艾德(Henry Ajder)最擔憂的事情,「這是數位性騷擾的一種形式」他說,「很多App,只需要上傳某人一張照片、按一下按鈕就能生成色情影片,」
艾德指出,還有直接將女性日常生活照「一鍵脫衣」的App。而根據他長期追蹤流傳這些影音內容的色情群組,發現其中愈來愈多女性並非名人,而是臉書、IG上的一般女生。
這些網站、App、群組,儘管如小玉事件被揭發後遭到關閉,卻總是春風吹又生,從來無法真正消失,只有演變地更逼真的可能。
美國聯邦調查局今年3月發佈的一份報告稱,Deepfake技術在未來將會更多地用於「外國影響行動」。歐洲警察組織去年的一份報告也表示,「網路使用者可能會以合成內容,進行複雜的社會攻擊」。
美國總統拜登受訪時打瞌睡的假影片,就是透過Deepfake技術生成,曾經在網路上瘋傳。
真的無計可施嗎?
現在世界各地正如火如荼地採取行動來解決Deepfake濫用問題。美國許多州提出了立法草案,以公訴罪起訴製造虛假色情內容的個人。
歐盟今年4月提出的人工智慧法案提案中,也要求使用AI技術生成圖片與影音的人,要告知何時操作了內容,但這道法律對惡意違法的使用者自然效果有限。
在英國,有一項牽涉Deepfake的「私密形象濫用法」正在審理中。韓國,由於K-pop女歌手是Deepfake色情片的廣大受害者,也有不少立法的討論。
法律方面,管制新技術往往有限縮自由、追查不易的爭議,需要社會取得共識才能朝下一步走去。而科技圈則採對抗之姿,試圖開發出「反深偽」技術偵破假影片。
Google與Darpa正聯手資助加州大學和南加大,開發一種名為「軟生物特徵簽名」的技術,它基於個人語言和身體律動風格,可作為一種精準的數位證明,有效率達到92%。
其中一位研究人員Hao Li指出,「這是Deepfake與檢測技術之間的軍備競賽,」。
甚至,還有一家名為Deeptrace的新創公司,主打檢測技術而成立。
其實各國都知道,不管是法律或科技的反擊很快地都會過時。最佳解是讓人民內建數位隱私權、性別權力、民主與假訊息方面的意識——但這也是最困難又漫長的一條路。
(資料來源:MIT, Insidehook, Jezebel, Euobserver)
天下總主筆陳良榕專欄。半導體狂熱、科技巨頭謀略的最犀利解讀
看懂科技大勢,獨家解讀
請查看您的信箱,我們將寄送驗證信給您,確保未來信件會送到您的信箱