
생성형 인공지능(AI) 서비스 과정에서 사용자를 보호할 수 있는 가이드라인이 나왔다.
방송통신위원회는 28일 ‘생성형 인공지능 서비스 이용자 보호 가이드라인’을 발표했다. 가이드라인에는 AI 서비스 이용 과정에서 사용자의 피해를 방지하기 위해 사업자들이 참고할 수 있는 실천 방안 등이 담겼다. 다음 달 28일부터 시행될 예정인 이번 가이드라인은 4가지 기본원칙과 6가지 실행 방식을 제시했다.
기본원칙은 △인간 존엄성을 보호하는 생성형 A 서비스, △사용자에게 설명하는 생성형 A 서비스, △안전한 생성형 AI 서비스 △공정한 생성형 AI 서비스 등이다.
실행 방식에는 △이용자 인격권 보호, △결정 과정을 알리려는 노력 △다양성 존중 노력 △입력 데이터 수집·활용 과정에서의 관리 △문제 해결을 위한 책임과 참여 △건전한 유통·배포를 위한 노력 등이 포함됐다.
방통위는 이번 가이드라인을 통해 AI 서비스 이용 과정에서 발생할 수 있는 잠재적 위험을 사전에 방지하고 신뢰할 수 있는 AI 서비스 이용 환경을 마련해 이용자의 권익을 보호할 것이라고 발표했다.
가이드라인이 나온 배경은 첨단조작기술영상(딥페이크) 성범죄물 등 이용자 안전을 침해한 피해 사례가 늘었기 때문이다. 방통위는 이번 가이드라인을 위해 AI 피해 사례와 국내 외 주요 서비스별 이용자 보호 현황 등을 검토했다고 밝혔다.
이번 가이드라인에는 6가지 실행 방식에 해당하는 사례가 포함됐다. 생성형 AI가 답변한 자료의 출처를 표시하거나 유해한 응답을 유도할 때 거부한 모범 사례 등이 대표적이다.
방통위 관계자는 “아직 이용자 보호를 위한 기준을 갖추지 못한 사업체가 가이드라인을 참고할 것으로 기대된다”며 “가이드라인을 기준으로 이행 여부를 점검하거나 준수하지 않는다고 불이익을 줄 계획은 아직 없다”고 말했다.
가이드라인은 방송통신위원회 누리집(www.kcc.go.kr)을 통해 내려 받을 수 있다.