[뉴스토마토 박창욱 기자] 딥페이크로 인해 발생한 텔레그램발 불법 디지털 성범죄 행위가 수면 위로 올라와 충격을 주고 있습니다. 국내에서는 이제 본격적으로 불거지는 모양새입니다.
딥페이크(Deepfake)란 인공지능의 한 분야인 심층 학습(Deep Learning)과 가짜(Fake)의 합성어입니다. 이 용어는 2017년 미국의 소셜네트워크 플랫폼 레딧에서 "Deepfakes"라는 아이디를 가진 회원이 유명 배우의 얼굴로 조작된 가짜 음란 동영상을 올리면서 사용되기 시작했습니다.
딥페이크와 음성 복원 기술로 구현된 그룹 '거북이'의 리더 터틀맨(고 김성훈). (사진=Mnet 공식 유튜브 캡처)
그동안은 연예인이나 정치인, 인플루언서 등이 주 타겟이 됐지만, 이제 누구나 생성형 AI와 딥페이크 기술로 사진과 영상을 생성할 수 있게 되면서 일반인 피해 사례가 커진 겁니다.
문제는 디지털 성범죄 사건 등에 딥페이크가 거론되면서 대부분 사람들이 '딥페이크는 나쁜 것'이라고 오해하게 된 겁니다. 게다가 기존에는 이러한 범죄를 가리키는 제대로 된 이름이 없었기에 '불법 합성' '합성 성범죄' 등으로 불렸지만, 이제는 딥페이크라는 단어 자체가 특정인을 대상으로 불법 합성물을 만드는 범죄를 통칭하는, 이른바 '고유명사화'됐습니다. 굳이 따지자면 딥페이크 기술은 동영상에, 생성형 AI 기술은 사진에 사용됩니다.
사실 딥페이크 기술이 처음 나왔을 때는 다방면에서 반기는 목소리가 컸습니다. 이용가치가 큰 기술이었기 때문입니다. 온라인에서 독립운동가 유관순, 윤봉길 의사가 살아 움직이는 영상을 접해보신 분들이 있을 겁니다. 딥페이크를 활용해 화제가 됐던 대표적인 영상입니다. 또 Mnet에서 방송됐던 'AI 음악 프로젝트 다시 한번'에서는 딥페이크와 음성 복원 기술 등을 활용해 사망했던 가수들의 라이브를 다시 한번 감상할 수 있었습니다. 딥페이크의 기초 기술인 이미지 패턴 매칭은 암을 진단하는 기술로 널리 쓰이고 있습니다.
딥페이크로 인해 발생한 디지털 성범죄는 반드시 막아야 합니다. 여기에는 누구도 이견이 있을 수 없을 겁니다. 다만 대중들이 '딥페이크'에 거리감을 두고 있다는 것은 문제입니다. 기술이 잘못이 없습니다. 그 기술을 잘못 사용한 사람들이 문제일 뿐입니다.
박창욱 기자 pbtkd@etomato.com