2022.03.01
Deepfake 變臉技術
你聽過深偽技術(Deepfake)嗎?深偽技術從2017年開始,逐漸進入到大眾的視野中,其主要是指「以人工智慧深度學習的相關技術,合成特定的人像圖片、影像,甚至聲音」,原本該技術可用在電影的後製,但近年來,卻將常被有心人士拿來製成數位性暴力影像,導致諸多民眾、公眾人物身心受創。(圖片來源:https://www.flickr.com/photos/malique/51341865061)
公視青春發言人-人人都可變變變,只有修圖不夠看,直接換臉可以嗎
你聽過深偽技術(Deepfake)嗎?深偽技術從2017年開始,逐漸進入到大眾的視野中,其主要是指「以人工智慧深度學習的相關技術,合成特定的人像圖片、影像,甚至聲音」,原本該技術可用在電影的後製,但近年來,卻將常被有心人士拿來製成數位性暴力影像,導致諸多民眾、公眾人物身心受創。
深度偽造技術也可能被當成重傷他人的工具,美國賓州在2021年3月時,就有一位母親利用Deepfake,將女兒啦啦隊的競爭對手,偽造成全裸、吸菸喝酒的負面形象,目的就是希望對方被踢出團隊。另外Deepfake被當作政治操作、宣傳等不當用途亦是時有所聞。
成大數據科學研究所助理教授許志仲指出,現在國際間,已有越來多的機構或科技公司,正在研發偵測深偽技術的數位工具,例如該研究所,便致力於研發能進行「面部光影變化」偵測的STV應用軟體,使用者可將欲測試的影片上傳,軟體便會進行判讀,判讀會顯示0-1之間的數值,數字越接近1,代表影片偽造的機率越高。若民眾當前有查證需求,也可以使用「Deepware」免費偵測工具進行測試。
我們須理解的是,任何帶著惡意或訕笑的態度去製作、轉發這些影片,都有可能會傷害到他人,如同假新聞與不實資訊查證團隊「Cofacts 真的假的」強調的一樣,任何人都須尊重他人的肖像權與基本權利,同時在數位世界中,亦須意識到自己說出的話、轉貼分享的舉動,是需要負起責任的。身為現代社會的一份子,我們對於存疑的訊息、影像,也該小心謹慎的查證,別成為傳遞假訊息的幫兇。
延伸閱讀: