최근 텔레그램발 딥페이크 영상물이 학교 내 피해로 이어지며 정부의 규제와 함께 소셜미디어 차원 적극적인 대응이 필요하다는 주장이 나온다. 전문가는 ‘AI 생성물’ 표기 외에도 딥페이크 탐지 기술 개발, 이용자의 디지털 리터러시 교육, 제작‧유포자에 대한 강력한 처벌도 병행돼야 한다고 강조했다.
최근 정보통신정책연구원은 ‘딥페이크 관련 국내외 규제 현황 및 분석’ 보고서를 발표했다.
딥페이크는 인공지능 기술을 사용해 제작된 오디오 또는 시각 미디어로, 실제처럼 보이지만 실제 사람이 말하거나 행동하지 않은 조작물이다. 딥페이크 기술의 발달로 조작물의 진위 판별이 어려워졌고, 유명인과 일반인을 대상으로 한 음란물 제작 및 유포, 금융사기, 저작권침해, 정치 악용 등에 사회적 문제로 떠오르고 있다.
구글과 유튜브는 불법 딥페이크 피해를 막기 위해 자발적인 노력을 해왔다. 구글은 이용자의 신고와 자동화 시스템을 통해 불법 딥페이크를 콘텐츠를 추적 및 식별하고 있다. 이외에도 딥페이크를 탐지하는 새로운 인공지능 기반 도구를 개발하는 중이다. 유튜브는 제작자가 AI 사용 여부를 공개하도록 강력히 요구하고 있다.
유럽연합(EU)은 ‘AI’법과 ‘디지털서비스법’을 통해 딥페이크를 규제하고 있다. 지난 5월 EU 이사회는 세계 최초로 AI를 포괄적으로 규제하는 ‘AI법’을 최종 승인했다. 해당 법안은 딥페이크 정의를 명확히 하고, AI 시스템의 공급자와 사용자가 딥페이크 관련 투명성을 준수해야 한다는 내용을 골자로 한다. ‘디지털서비스법’ 역시 딥페이크를 사용한 영상을 업로드한 경우 이를 표시해야 한다고 명시하고 있다.
미국은 현재 연방 차원에서 직접 규제하는 법은 없지만, 주 정부 차원에서 규제하고 있다. 캘리포니아는 불법 딥페이크 방지 법안을 통과시킨 최초의 주 중 하나로, 2019년 선거법으로 불법 딥페이크를 사용을 규제하고 있다. 뉴욕은 지난해 형법을 개정해 당사자 동의 없는 성적 이미지를 유포하거나 게시하는 행위를 금지하고 있다.
현재 대한민국은 EU처럼 AI를 전반적으로 포괄하는 통합법이 없다. 이에 딥페이크를 악용한 범죄행위는 ‘정보통신망 이용촉진 및 정보보호 등에 관한 법률’이나 ‘형법’을 통해 처벌하고 있다. 다만 지난 2020년에는 딥페이크로 인한 피해가 증가함에 따라 ‘성폭력범죄의 처벌 등에 관한 특례법’을 개정했다. 다만 ‘개인 소장 목적’과 ‘딥페이크 음란 행위’ 자체는 처벌 대상이 아니다. 여기에 ‘반포 목적’이 없을 경우, 제3자가 제작한 음란물을 유포한 행위에 대해서도 법적 처벌 공백이 존재한다는 한계를 가진다.
전문가는 현재 국내외에 발의 및 제정된 법안들은 딥페이크 피해를 줄이기 위한 최소한의 노력일 뿐이지 근본적인 대안이 아니라고 평가했다. 해당 보고서를 작성한 노은정 정보통신정책연구원 미디어정책실 전문연구원은 “딥페이크 영상에 AI로 생성하였음을 표기하면 투명성이 강화되어 일차적으로 허위정보의 확산을 막고, 제작자와 유포자에게 해당 콘텐츠에 대한 책임을 물을 수 있다”라면서도 “딥페이크 제작‧유포자가 ‘AI 생성물’ 표기를 제거하거나 딥페이크를 활용하지 않았다고 거짓으로 고지할 가능성도 있다”고 지적했다.
이어 “‘AI 생성물’ 표기는 딥페이크 피해를 줄이기 위한 최소한의 노력일 뿐, 이것만으로 딥페이크 악용 문제를 해결할 수 없다”고 덧붙였다.
‘AI 생성물’ 표기와 함께 △제작·유포자에 대한 강력한 처벌 △기술개발 △이용자의 디지털 리터러시 교육도 함께해야 한다는 게 전문가의 제안이다. 노은정 전문연구원은 “이용자가 딥페이크 콘텐츠를 판별하는 미디어 리터러시와 딥페이크의 불법적인 사용은 범죄라는 인식 교육이 필요하다”며 “제도적으로도 불법 딥페이크 제작자와 유포자에 대한 강력한 처벌, 피해자 보호 및 보상제도가 마련돼야 한다”고 강조했다.