X
    Categories: 국제사회이슈

합성포르노 ‘딥페이크’ 영상 피해자 중 25%가 ‘한국 아이돌’ 문제 심각


AI기술의 발달로 이를 활용한 영상 편집 기술도 발전하고 있다.

ADVERTISEMENT

pixabay – 기사와 무관한 이미지

 

이는 다른 사람의 얼굴에 특정인의 얼굴을 합성하여 움직이도록 하는 ‘딥페이크’의 기술로 이어졌다.

 

하지만 이 기술을 악용해 포르노 영상에 여성 연예인 등의 얼굴을 합성하는 등의 범죄가 생겨나 사회적으로 문제가 되고 있다.

ADVERTISEMENT

 

셔터스톡 – 기사와 무관한 이미지

 

지난 7일 BBC는 네덜란드의 사이버 보안 연구 회사 ‘딥트레이스’의 연구 보고서를 보도했다.

ADVERTISEMENT

 

이에 따르면 딥페이크 기술이 활용된 영상이 올해 1만4698개로 전년대비 2배 가까이 증가했으며 이 중 96%는 포르노 영상으로 악용되었다.

 

pixabay – 기사와 무관한 이미지

 

ADVERTISEMENT

영상의 피해자의 25%는 한국 아이돌인 것으로 파악되고 있으며, 이러한 영상의 출처는 대부분 중국인 것으로 확인되었다.

 

연구 분석 책임가인 헨리 아이더는 딥페이크 기술이 개발되던 당시 정치나 사기 등의 문제로 기술이 악용될 것을 우려했으나, 오히려 포르노 영역에서 피해자를 만들어내면서 문제의 초점을 잘못 짚고있었다는 사실을 지적했다.

ADVERTISEMENT