매일신문

여성 사진 누드로…'딥페이크' 앱 한 달간 2천400만 썼다

당사자 동의, 인지 없이 만들어져…96%가 음란물

클립아트코리아
클립아트코리아

인공지능(AI)을 이용해 여성의 사진으로 가짜 누드를 만드는 딥페이크(deepfake) 애플리케이션(앱)과 웹사이트 이용자가 폭증하면서 범죄 악용 우려가 커지고 있다.

10일(현지시간) 블룸버그 통신 등 외신에 따르면 소셜네트워크 분석 기업 그래피카(GRaphika)는 지난 9월 한 달 동안 2천400만명이 딥페이크 웹사이트를 방문했다고 분석했다.

해당 서비스는 '누디파이(nudify)'라고 불리는데, 올해 초부터 사용량이 급증했다. 그래피카는 "X(옛 트위터)와 레딧 등 소셜미디어에서 옷 벗기기 앱의 광고 링크 수가 2천400% 이상 증가했다"며 "몇 년 전보다 훨씬 그럴듯한 이미지를 만들 수 있도록 인공지능 기술이 발전했기 때문"이라고 분석했다.

이런 앱들은 인공지능을 이용해 사람의 누드 이미지를 만드는데, 상당수는 여성의 이미지만 변환할 수 있는 것으로 전해졌다. 때문에, 딥페이크 앱과 웹사이트가 인기를 끌수록 범죄에 악용될 수 있다는 우려가 심화하고 있다.

대부분 당사자 동의나 인지 없이 나체 사진 같은 음란물을 만들어 이를 배포하고 있기 때문이다. 심지어 일부 광고에서는 '타인의 나체 이미지를 만들어 그 사람에게 보낼 수 있다'는 내용을 대놓고 홍보하기도 하는 것으로 알려졌다.

합성 미디어 모니터링 회사인 딥스테리스의 2019년 보고서에 따르면 온라인 딥페이크 영상의 96%는 음란물이다. 국내에서는 지난해 2월 한 20대 남성이 고등학교 후배 얼굴을 음란물에 합성해 소셜미디어에 퍼뜨리는 일이 벌어지기도 했다.

이에 다수의 IT 기업은 철저한 모니터링을 통해 유통되는 경우를 사전에 차단하겠다는 입장이다. 구글은 "성적으로 노골적인 콘텐츠는 허용하지 않고 있다"며 "문제가 된 광고들을 검토하고 있고 정책을 위반한 것들은 삭제 중"이라고 했다. 동영상 플랫폼 틱톡도 '옷 벗기'(undress)라는 키워드를 차단하고 있다고 전했다.

많이 본 뉴스

일간
주간
월간