딥페이크(deepfake)란 딥 러닝(deep learning)과 가짜(fake)의 혼성어이다. 인공지능을 기반으로 활용한 인간 이미지 합성 기술로, 특정 인물의 얼굴이나 특정한 부위를 영화의 CG 처리처럼 합성한 영상 편집물을 총칭한다.
딥페이크는 머리 외곽선을 통째로 따서 합성하는 것이 아니라 안면 윤곽 안쪽 부분인 눈, 코, 입 부분만 피부 톤을 맞춰 바꿔치기한다는 특징을 지니고 있다.
딥페이크는 2017년, 미국 온라인 커뮤니티 레딧에서 딥페이크(Deepfakes)라는 닉네임으로 활동하던 이용자가 할리우드 배우의 얼굴과 포르노를 합성한 편집물을 올리면서 시작됐다.
온라인에 공개된 무료 소스 코드와 머신러닝 알고리즘으로 손쉽게 제작할 수 있고, 진위를 가리기 어려울 만큼 정교하므로 이를 악용하는 악성 범죄가 빈번하게 일어나고 있다.
2월 27일 방영된 ‘그것이 알고 싶다’에서는 온라인 딥페이크 사용 목적의 96%가 포르노 그라피인 것으로 확인되었다고 보도했다. 딥페이크 악성 범죄는 포르노 그라피만 있는 것이 아니다.
관련 기사: AI 기술 발전의 어두운 이면, '딥페이크'
미국 인기 TV 쇼 ‘브레이킹 배드’에서는 미국 도널드 트럼프 대통령을 교묘하게 편집해 넣은 딥페이크 영상이 논란이 된 적이 있었다. 또, 지난 2019년 미국에서 코미디언 조던 필이 제작한 영상에는 미 전 대통령 버락 오바마가 실제로 한 적 없는 연설 장면이 등장한 적도 있었다.
이처럼 딥페이크 범죄가 심각한 상황에 이르면서 소셜 미디어에서도 본격적으로 대응에 나섰다.
마이크로소프트는 지난해 9월 조작되거나 합성된 부분이 있는지 식별하는 MVA를 개발했다. MVA는 사진이나 영상을 분석한 후 조작 가능성을 신뢰도 점수를 통해 알려주는 것이다.
트위터는 올해 3월부터 합성 및 조작된 콘텐츠를 공유해 남을 속이는 행위를 금지한다는 규정을 새롭게 발표했으며, 해당 콘텐츠를 삭제하거나 ‘조작됨’이라는 표시를 콘텐츠 아래에 달기로 했다.
마지막으로 어도비는 뉴욕타임스, 트위터 등과 함께 사진이나 동영상 혹은 뉴스 같은 콘텐츠의 원저작자와 원본을 찾을 수 있는 디지털 워터마크를 도입해, 뉴스의 진위성을 판별하는 기술을 지난해 말부터 적용했다.
딥페이크의 기술이 점점 더 발전하면서 이를 악용한 범죄는 나날이 심해지고 있다. 물론 딥페이크로 독립운동가의 사진을 영상으로 전환하거나 고인이 된 가수의 얼굴과 목소리를 화면으로 구현하는 등 좋은 예들도 있다. 하지만 악용하는 범죄들의 심각성이 더욱더 심해지고 있기 때문에 이를 막을 수 있는 엄격한 규제가 필요하다.
[저작권자ⓒ CWN(CHANGE WITH NEWS). 무단전재-재배포 금지]