딥페이크

최근 편집: 2019년 10월 10일 (목) 19:46
낙엽1124 (토론 | 기여)님의 2019년 10월 10일 (목) 19:46 판

개요

딥페이크는 합성하려는 인물의 얼굴이 등장하는 영상을 인공지능으로 딥러닝해 대상 영상에 프레임 단위로 합성하는 기술이다.

단, 유튜브 등지에서 걸그룹 사진과 음란물 영상이 합성되는 경우가 많아지자 트위터에서 공론화가 되었다.

네덜란드 사이버 보안 연구 회사 딥트레이스가 2018년부터 2019년 9월까지 딥페이크 영상을 조사한 결과, 딥페이크 영상의 96%가 포르노로 소비되고 있으며 얼굴 도용 피해자의 25%가 한국 연예인이었다. 딥페이크 포르노 영상에 합성된 피해자의 성별은 100% 여성으로, 포르노가 아닌 딥페이크 영상에 합성된 인물의 60%가 남성인 것과 대비되었다.[1]

출처

  1. 김현유 (2019년 10월 10일). '딥페이크 포르노' 전 세계 피해자의 25%는 한국 연예인이다”. 《허프포스트》. 2019년 10월 10일에 확인함.