財經週報

小玉無所不在!公開自己臉書照片就可能被Deepfake?

網紅小玉以Deepfake將女性公眾人物「換臉」至色情影片,而遭到警方逮捕。近年來,Deepfake技術已不是新聞,金融犯罪、假新聞、民主崩潰都與它有關。專家透露,現在許多色情群組裡的苦主已不僅限名人,只要有臉書、IG,就可能成為下一個受害者?

小玉-deepfake-深偽技術-AI-人工智慧-性騷擾 圖片來源:犯罪者網紅小玉與受害者之一的高雄市議員黃捷。
    其他

近日,網紅小玉因為經營以Deepfake(深偽技術),將台灣女性公眾人物的面孔移植至色情片中的群組而遭逮捕。然而,早在這起重大案件爆發前,Deepfake在全球便已遭不肖人士用來進行金融犯罪、傳播假新聞,和破壞他國選舉。

這些年來,拜登受訪打瞌睡、川普高歌「我愛中國」、美國眾議院議長裴洛西宿醉失態的影片在網路瘋傳。但Deepfake最廣泛而猖獗的,還是色情影片。

根據研究公司Sensity AI估計,所有Deepfake影音中有90%到95%是未經同意的色情內容,其中九成的內容是女性。

就如這次的小玉事件,受害者台灣網紅奎丁、雞排妹,政治人物黃捷、高嘉瑜,甚至總統蔡英文都入列,清一色是女性。

Deepfake怎麼生成的?

這項將名人「換臉」至各式影片的技術,原先是人工智慧的一大進展。它依賴一種稱為人工神經網絡的系統,只要將數十萬張圖像,輸入人工神經網絡,就能「訓練」它們識別並重建人們的面部樣態。

Deepfake有多逼真?看看以下周子瑜被「換臉」的韓劇片段便可知,周子瑜並未出演這部片,但現在的技術已可做到各種動態、表情的全方位模擬。


並沒有接演這部韓劇的周子瑜,被網友透過Deepfake技術換成女主角,乍看之下影片流暢度與逼真度都極高。

在電影、遊戲與其他娛樂和藝術領域,Deepfake能開創新的效果,但當這項技術發展得愈來愈高明,走進現實世界後,就變了調。

廣告

根據《麻省理工學院技術評論》,從數十萬張圖才能模擬一張臉,到數萬張、數千張,甚至如今只需要「一張」,AI便能很完善地掌握一個人的五官細節與神情。

這是長期研究Deepfake的專家艾德(Henry Ajder)最擔憂的事情,「這是數位性騷擾的一種形式」他說,「很多App,只需要上傳某人一張照片、按一下按鈕就能生成色情影片,」

艾德指出,還有直接將女性日常生活照「一鍵脫衣」的App。而根據他長期追蹤流傳這些影音內容的色情群組,發現其中愈來愈多女性並非名人,而是臉書、IG上的一般女生。

這些網站、App、群組,儘管如小玉事件被揭發後遭到關閉,卻總是春風吹又生,從來無法真正消失,只有演變地更逼真的可能。

廣告

美國聯邦調查局今年3月發佈的一份報告稱,Deepfake技術在未來將會更多地用於「外國影響行動」。歐洲警察組織去年的一份報告也表示,「網路使用者可能會以合成內容,進行複雜的社會攻擊」。

美國總統拜登受訪時打瞌睡的假影片,就是透過Deepfake技術生成,曾經在網路上瘋傳。

真的無計可施嗎?

現在世界各地正如火如荼地採取行動來解決Deepfake濫用問題。美國許多州提出了立法草案,以公訴罪起訴製造虛假色情內容的個人。

歐盟今年4月提出的人工智慧法案提案中,也要求使用AI技術生成圖片與影音的人,要告知何時操作了內容,但這道法律對惡意違法的使用者自然效果有限。

在英國,有一項牽涉Deepfake的「私密形象濫用法」正在審理中。韓國,由於K-pop女歌手是Deepfake色情片的廣大受害者,也有不少立法的討論。

廣告

法律方面,管制新技術往往有限縮自由、追查不易的爭議,需要社會取得共識才能朝下一步走去。而科技圈則採對抗之姿,試圖開發出「反深偽」技術偵破假影片。

Google與Darpa正聯手資助加州大學和南加大,開發一種名為「軟生物特徵簽名」的技術,它基於個人語言和身體律動風格,可作為一種精準的數位證明,有效率達到92%。

其中一位研究人員Hao Li指出,「這是Deepfake與檢測技術之間的軍備競賽,」。

甚至,還有一家名為Deeptrace的新創公司,主打檢測技術而成立。

其實各國都知道,不管是法律或科技的反擊很快地都會過時。最佳解是讓人民內建數位隱私權、性別權力、民主與假訊息方面的意識——但這也是最困難又漫長的一條路。

(資料來源:MIT, Insidehook, Jezebel, Euobserver)

相關熱門主題
你可能有興趣
#廣編企劃|2030年臺中時空膠囊:打造環保低碳新城市!
最新訊息
【每日6元】AI x 編輯協作為你精選國際大事
App內開啟 更舒適的閱讀體驗
訂閱天下雜誌電子報

天下雜誌當期內容的精華與延伸,每周三發送最具時效性的深度內容