한국원자력연구원의 새로운 기준입니다.
글 정인선 대전일보 기자
“이게 진짜 맞나?”
심심할 때 SNS를 보다 보면 가끔 진짜인지 가짜인지 구별이 안 되는 게시물들이 있다. 아무리 봐도 진짜는 아닌 거 같은데, 보고 또 봐도 찝찝한 기분이 사그라지지 않는다. 최근 딥페이크 기술을 악용한 합성 콘텐츠가 많아지면서, 일상 속 소셜미디어(SNS) 동영상도 믿기 힘든 세상이 됐기 때문이다.
디지털 기술이 급격히 발전하면서 여러 이로움을 주는 것은 사실이지만, 다른 한편에선 해킹, 사이버 위협, 랜섬웨어 등 여러 위험 또한 증가시키고 있다. 지난해 세상을 떠들썩하게 한 딥페이크도 디지털 기술 발전의 어두운 단면이다.
딥페이크란 인공지능 심층 학습을 뜻하는 딥러닝(Deep Learning)과 가짜를 뜻하는 페이크(Fake)의 합성어다. 인공지능 기술을 활용해 기존 인물의 얼굴 또는 특정 부위를 합성한 영상 편집물을 지칭한다. 2017년 미국 온라인 커뮤니티 ‘레딧(Reddit)’에서 ‘Deepfakes’라는 아이디를 사용한 사람이 유명인의 얼굴을 포르노 영상에 합성한 콘텐츠를 게시하면서부터, 해당 용어가 대중에 알려지기 시작했다.
현실과 가상 경계를 허무는 딥페이크 기술은 인공지능 발전에 힘입어 나날이 진화 중이다. 보는 이들로 하여금 ‘현실’인 것처럼 오인하게 하는 탓에 가끔 참과 거짓의 분별도 어렵게 만드는 경우가 허다하다.
특히 범죄 등에 이용되는 게 가장 큰 문제다. 이미 잘 알려진 것처럼, 딥페이크의 생산자는 대부분 10대다. 정보통신기술(ICT)에 익숙한 세대다 보니, 딥페이크 성범죄에도 10대 청소년의 연루가 심각한 수준으로 치닫고 있다. 지난해 1월부터 10월까지 검거된 딥페이크 성범죄 피의자 506명 중 10대는 무려 81 %(411명)를 차지하는 것으로 나타났다. 이 가운데 10명 중 1명 이상(15.4 %)은 형사 처벌을 받지 않는 촉법소년(10세 이상 14세 미만)이었다.
딥페이크를 쓴 ‘가짜 뉴스’가 판치는 것도 걱정이다. 오죽하면 12·3 비상계엄을 보고 딥페이크로 생각했다는 후일담이 나올 정도이니, 딥페이크가 세상에 얼마나 큰 영향을 미치고 있는지 알만 하다.
디지털 기술도 중요하지만, 이 같은 추세대로라면 급격한 발전이 그리 달갑지만은 않다. 수년 전만 해도 특정 프로그램과 전문 기술이 필요했지만, 이제는 누구나 마음만 먹으면 사람의 얼굴과 음성을 변조할 수 있다. 이를 방지할 기술 개발이 절실한 이유다.
정부는 딥페이크 차단·탐지 기술 분야에 지원을 확대하는 한편, 합성물 삭제 요구권 도입 등의 법적 근거도 속속 구체화하겠단 방침을 내놨다. 민간에서도 기존 모바일 보안 앱에 눈·입 모양의 부자연스러움을 찾아내는 기술을 탑재하는 등 피해 방지에 주력하고 있다. 늦게나마 대비책이 수면 위에 드러나고 있는 것은 다행이지만, 딥페이크 기술과 이를 대응할 검증 방법이 연일 발전하면서 ‘쫓고 쫓기는’ 상황이 계속될 우려도 배제할 수 없다.
딥페이크가 기술의 어두운 단면인 것은 사실이나, 그렇다고 관련 기술을 아예 쓰지 못하게 하는 것도 적절한 대응이 될 수 없다. 하나둘 대비책을 마련하되, 기술과 윤리가 어우러진 세상이 될 수 있도록 예방 교육 등 사회 전반적인 노력도 필요해 보인다. 양날의 검 같은 기술을 어떻게 다룰지는 결국, 우리들의 몫이다.