개요
딥페이크는 합성하려는 인물의 얼굴이 등장하는 영상을 인공지능으로 딥러닝해 대상 영상에 프레임 단위로 합성하는 기술이다.
여성 대상 성범죄로 악용
유튜브 등지에서 걸그룹 사진과 음란물 영상이 합성되는 경우가 많아지자 공론화가 되었다. 네덜란드 사이버 보안 연구 회사 딥트레이스가 2018년부터 2019년 9월까지 딥페이크 영상을 조사한 결과, 딥페이크 영상의 96%가 포르노로 소비되고 있으며 얼굴 도용 피해자의 25%가 한국 연예인이었다. 딥페이크 포르노 영상에 합성된 피해자의 성별은 100% 여성으로, 포르노가 아닌 딥페이크 영상에 합성된 인물의 60%가 남성인 것과 대비되었다.[1]
그러나 20대 남성이 댓글의 대부분을 차지하는 한 기사의 댓글에서, 남성으로 추정되는 한 유저가 "방탄 딥페이스 진짜 심각하더라"라며 거짓 정보를 양산하기도 했다.
출처
- ↑ 김현유 (2019년 10월 10일). “'딥페이크 포르노' 전 세계 피해자의 25%는 한국 연예인이다”. 《허프포스트》. 2019년 10월 10일에 확인함.