인공지능(AI)을 기반으로 한 ‘인간 이미지’ 합성 기술 사용한 ‘딥페이크’...유명 연예인 등 대상으로 한 가짜 포르노 영상 제작 등에 사용돼 와

페이스북.(이미지=구글 이미지 검색)
페이스북.(이미지=구글 이미지 검색)

전 세계 20억명 이상의 회원수를 거느리고 있는 미국의 소셜미디어(SNS) ‘페이스북’(Facebook)이 금년도 미국 대통령선거를 앞두고 ‘가짜 뉴스’ 확산 방지 대책을 마련하고 나섰다.

페이스북의 6일 발표에 따르면 정교하게 위조된 ‘딥페이크’(deepfake) 영상에 관한 독자 기준을 설정하고 이를 제재하겠다는 방침을 정했다.

‘딥페이크’란 ‘딥러닝’(deep learning)과 ‘가짜’를 의미하는 영어 단어 ‘페이크’(fake)를 합성한 단어로, 인공지능(AI)을 기반으로 한 ‘인간 이미지’ 합성 기술을 말한다. ‘생성적 적대 신경망’(GAN)이라 불리는 ‘기계학습’(machine learning) 기술을 사용해 기존의 사진이나 영상의 원본에 겹쳐서 만들어낸다. 이같은 기술을 사용하면 ‘가짜 영상’에 등장하는 인물이 실제 말하지 않았거나 하지 않은 일들을 다른 사람들에게 사실로 받아들이게 할 수 있다. 이제까지는 주로 유명 연예인 등을 대상으로 한 가짜 포르노그래피 제작이나 정치 풍자 등에 사용돼 왔다.

페이스북 측은 지난해까지만 하더라도 이같은 ‘딥페이크’ 영상을 삭제하지 않는 방침이었지만, 올해 들어 기존의 방침을 바꾼 것이다.

한편 ‘딥페이크’ 영상과 관련해 소셜미디어 서비스를 제공하고 있는 ‘트위터’(Twitter) 역시 새로운 방침을 정할 것으로 알려졌다.

박순종 기자 francis@pennmike.com

이 기사가 마음에 드시나요? 좋은기사 원고료로 응원하세요
원고료로 응원하기
저작권자 © 펜앤드마이크 무단전재 및 재배포 금지