딥페이크

최근 편집: 2021년 1월 14일 (목) 03:32
Larodi (토론 | 기여)님의 2021년 1월 14일 (목) 03:32 판

개요

딥페이크는 합성하려는 인물의 얼굴이 등장하는 영상을 인공지능으로 딥러닝해 대상 영상에 프레임 단위로 합성하는 기술이다.

여성 대상 성범죄로 악용

딥페이크 성범죄 피해자 비율을 보여주는 연구결과. 딥페이크 포르노그래피 웹사이트 피해자의 100%가 여성이다.

유튜브 등지에서 걸그룹 사진과 음란물 영상이 합성되는 경우가 많아지자 공론화가 되었다. 네덜란드 사이버 보안 연구 회사 딥트레이스가 2018년부터 2019년 9월까지 딥페이크 영상을 조사한 결과, 딥페이크 영상의 96%가 포르노로 소비되고 있으며 얼굴 도용 피해자의 25%가 한국 연예인이었다. 딥페이크 포르노 영상에 합성된 피해자의 성별은 100% 여성으로, 포르노가 아닌 딥페이크 영상에 합성된 인물의 60%가 남성인 것과 대비되었다.[1]

그러나 20대 남성이 댓글의 대부분을 차지하는 한 기사의 댓글에서, 남성으로 추정되는 한 유저가 "방탄 딥페이스 진짜 심각하더라"라며 거짓 정보를 양산하기도 했다.

출처

  1. 김현유 (2019년 10월 10일). '딥페이크 포르노' 전 세계 피해자의 25%는 한국 연예인이다”. 《허프포스트》. 2019년 10월 10일에 확인함.