深度擬真形象,也就是 DeepFake,是基於「大數據」和人臉識別技術發展而來的,利用高級的數據算法和海量的人臉數據庫,可以輕鬆將自己或他人的面孔替換成現實中的明星臉,不過目前濫用現象十分嚴重,對肖像權也是極大的挑戰。

早在10月2日,日本警視廳就與千葉縣警察本部以涉嫌名譽毀損以及違反著作權的罪名拘捕 2名利用 Deepfake 進行不法盈利的嫌疑犯,這成為日本首次因使用 Deepfake 而被拘捕的案例。

而今天案件重現,據日媒報導,東京警視廳保安課宣布逮捕 3名涉嫌利用 DeepFake 換臉將自己錄製的影片轉載到自己開設的免費小猥褻廣告以此牟利的嫌犯。

據悉,來自横浜市港北區窪謙太朗嫌疑犯(23 歲)與東京都世田谷區的會社元山口岳等3人在網上蒐集那些已經公開的女明星 DeepFake 假影片,從中挑出比較有人氣的放在自己經營的免費小猥褻影片網站,收取高額廣告費用,不法牟利已經超百萬。

雖然說大數據下的人基本失去了隱私,肖像權更是難以保護,但濫用自己的私隱肯定不能被允許,保護私隱從自己做起。