콘텐츠 플랫폼은 투명성 보고서를 통해 사용자의 기록, 데이터, 콘텐츠 가운데 이용자 및 정부가 허위, 불법 콘텐츠 삭제 요청한 건수를 데이터로 공개하고 있다. 지난 9월 틱톡의 2분기 투명 보고서에 따르면 지난 4월부터 6월까지 자사 커뮤니티 가이드를 위반한 1억1300만여 개 동영상을 삭제했다. 미성년자의 알코올, 담배, 마약 소비 관련 콘텐츠가 가장 많았다. 이외에도 불법 행위와 성인 나체 및 성행위, 폭력적인 콘텐츠 등이 삭제됐다. 페이스북과 인스타그램을 운영하는 메타에서도 혐오 표현 정책 위반으로 1510만 개를 적발 후 삭제했다. 트위터 또한 지난 1월 발표한 ‘19차 트위터 투명성 보고서’에서 45만 3754개의 아동 성 착취 정책 위반 계정을 영구 정지했다고 밝혔다.
유해, 불법 게시물을 선별하고 삭제하기 위해서 모더레이터는 콘텐츠를 직접 확인해야 한다. 살인, 음란물, 마약, 총기 제작 등의 게시물을 매주 수백 편 검열한다. 이용자의 안전을 지키고 있지만, 정작 모더레이터들은 보호받지 못한다. 서울에 사는 20대 여성 A씨는 지난해 6월부터 현재까지 한 기관에서 모니터링 요원으로 일하고 있다. 마약 투약 영상, 성매매 조장 글, 장기 매매 알선 글 등 온라인상에 올라오는 불법 콘텐츠를 걸러낸다. 지난달 15일 진행한 비대면 인터뷰에서 A씨는 “처음에는 괜찮을 거라 생각했는데, 매일 유해 콘텐츠를 보면서 심적으로 큰 충격을 받았다”며 “트라우마에 시달린다”고 털어놨다. 보호받을 방법이 있냐는 물음에 A씨는 “계약 당시부터 지금까지 어떤 이야기도 듣지 못했다”고 답했다.
콘텐츠 검열은 사후 대응이라는 업무 특성상, 업무 전반이 비공개 처리된다. 모더레이터에게 비밀 유지를 요구하기도 한다. 때문에 각 플랫폼의 모더레이터 고용 규모, 노동 환경 등은 베일에 싸여 있다.
모더레이터들은 대부분 단기 계약직이다. 프리랜서의 형태로 계약하여 재택근무를 기본으로 한다. 프리랜서 계약을 체결한 노동자들은 법의 사각지대에 놓여 있다. 회사의 소속 근로자와 다름없이 근무하지만, 근로기준법의 적용을 받지 못하는 경우가 많다. 때문에 사내에 심리 치료 복지가 있더라도 제공받지 못한다.
해외에서는 회사를 상대로 집단 소송을 낸 사례가 있다. BBC에 따르면 지난 2017년 6월부터 2018년 3월까지 미국 캘리포니아 멘로 파크 페이스북 본사에서 콘텐츠 모더레이터로 일했던 셀레나 스콜라는 외상 후 스트레스 장애와 같은 증상에 시달린다고 호소했다. 페이스북이 이들을 위해 적절한 정신건강 서비스를 제공하지 않았다고 주장했고, 2018년 집단 소송을 개시했다. 2020년, 페이스북은 전·현직 모더레이터 1만1000여명에게 총 5200만달러(약 634억만원)의 보상금을 지급하기로 합의했다.
지난 3월에는 틱톡의 모더레이터들이 모기업 바이트댄스에 정신 건강 문제를 이유로 소송을 개시했다. 이들은 정신적 피해 보상과 함께 직원을 위한 의료 기금 설립을 요구했다. 틱톡은 성명을 통해 “기업 내 안전팀은 다른 업체와 제휴를 맺고 틱톡 플랫폼과 커뮤니티를 보호하고 있다”며 “모더레이터들이 심리적 지지를 받을 수 있도록 다양한 복지를 지속 확장 중”이라고 언급했다.
한국 플랫폼 프리랜서 노동공제회 송명진 사무국장은 콘텐츠 모더레이터의 계약 형태와 노동 환경과 관련해 “여러 영역에서 문제에 대해 보고되고 있지만 정책이 그만큼 따라가지 못하고 있다”며 “프리랜서들이 겪는 트라우마 등 심리적인 문제에 대해 일을 할당하는 기업에서 책임을 지도록 해야 한다”고 답했다. 송 사무국장은 “플랫폼 기업 프리랜서들의 불공정 문제 신고 및 상담 지원 기구를 노동공제회 내에 마련할 계획”이라면서 “피해 당사자들이 신고해야 문제가 드러나는 경우가 많다. 신고를 단순히 하나의 소비자 불만 접수처럼 다루지 않아야 한다”고 언급했다. 이와 함께 “노동 환경 전반에 대해 협의하고 개선을 논의할 수 있는 협의 기구를 마련하는 것도 플랫폼이 해야 할 일”이라고 강조했다.
황혜영 쿠키청년기자 hyeng925@gmail.com