AI기본법 ‘고영향 AI’ 모호한 경계…스타트업 “규제 리스크 커졌다”

AI기본법 ‘고영향 AI’ 모호한 경계…스타트업 “규제 리스크 커졌다”

기사승인 2026-04-02 06:00:09

사진=게티이미지

정부가 발표한 인공지능(AI) 기본법의 ‘불확실성’을 둘러싼 지적이 이어지고 있다. 고영향 AI 범위부터 위법 사례까지 구체성이 부족해 스타트업에게는 또 다른 진입 장벽으로 작용할 수 있다는 우려다.

정부는 지난 1월22일부터 ‘인공지능 발전과 신뢰 기반 조성 등에 관한 기본법’(AI 기본법)을 시행했다. 해당 법안은 AI의 발전과 국민의 권익과 존엄성을 보호하는 위험관리에 초점에 맞춰 시행됐다. 정부는 AI 산업 진흥에 방점을 두고 필요‧최소 규제 원칙 아래 사업자에 대한 의무사항이나 제재를 최소화하겠다는 입장이다. 

AI 기본법은 고영향 AI를 규제 대상으로 지정했다. 고영향 AI는 사람의 생명, 신체의 안전 및 기본권에 중대한 영향을 미치거나 위험을 초래할 우려가 있는 인공지능시스템을 의미한다. 적용 범위는 △에너지 △먹는물 △의료 △원자력 △범죄수사 △채용 △대출심사 △교통 △공공서비스 △교육 등 10개 영역이다. 

국내 기업들은 AI 기본법 시행에 맞춰 빠르게 대응 중이다. SK텔레콤, KT, LG유플러스 등 이통 3사는 AI 기본법 시행에 맞춰 의무 사항을 점검하고, 전사 관리 체계를 가동하는 등 체계 개선에 나섰다. 

AI 기본법은 AI로 만든 생성물임을 알리도록 하는 의무를 부과했다. 이에 네이버와 카카오도 AI로 만든 창작물을 알리는 ‘워터마크’ 표기를 진행 중이다.

과기정통부는 “AI 생성물에 대한 워터마크 적용은 딥페이크 오용 등 기술의 부작용을 막기 위한 최소한의 안전장치이자, 이미 주요 글로벌 기업들이 도입하고 있는 세계적인 추세”라고 설명했다. 

다만 업계에서는 법의 모호성이 부담으로 작용할 수 있다는 지적이 나온다. 특히 인력과 비용 여력이 상대적으로 부족한 스타트업의 경우 부담이 더욱 크다는 분석이다.

고영향 AI로 분류될 경우 사전 고지 의무와 함께 관리 체계 구축, 안전성 확보 등의 조치를 이행해야 한다. 이 과정에서 추가 인력과 비용 리스크가 발생해 기업 규모에 따라 부담이 가중될 수밖에 없다. 

한 AI 스타트업 관계자는 “AI 활용과 관련해 타국과 비교하자면 제약이 있는 것은 사실”이라며 “미국의 경우 각 산업군에서 AI를 활용하고 있으나 한국은 보안과 규제 등으로 인해 쉽지 않은 현실”이라고 지적했다. 

또 다른 AI 관계자는 “해당 법안이 스타트업에게는 또 다른 부담으로 작용할 수 있다”라며 “법안이 좋고 나쁘고를 떠나 규제가 적용된 사례가 나오게 되면 스타트업은 그것에 맞춰 방향을 다시 설정해야 한다. 고영향 AI에 속하는지도 파악하기가 어려울 것”이라고 짚었다.

정부 역시 이러한 우려를 인식하고 있다. 기업의 혼란을 최소화하기 위해 최소 1년 이상의 계도기간을 설정하고, ‘AI 기본법 지원데스크’를 운영해 현장의 애로사항을 해소하겠다는 방침이다.

그럼에도 불구하고 위법 사례나 책임 범위 등에 대한 구체적 기준이 부족하다는 점은 여전히 과제로 남아 있다. 업계에서는 이러한 불확실성이 투자 위축으로 이어질 가능성도 제기한다 

함유근 건국대 경영대학 교수(전 한국빅데이터학회장)은 “과거 헬스케어, 위치정보 등 신사업이 등장할 때마다 관련 법안이 제정됐고 리스크로 작용돼 대기업이 선점하는 형태로 진행됐다”라며 “AI 등 신사업은 어디서 위험요소가 튀어나올지 모르기에 AI 기본법 위반 사례로 적용된다면 여론이 부정적으로 변해 발전을 저해할 수 있다”라고 말했다.

이어 “결과적으로 AI를 활용하지 못하게 되면 법의 설립 취지도 약해진다”라며 “AI 기본법도 혁신이 아닌 발전을 막는 형태로 진행되지 않도록 진흥에 초점을 맞춰야 한다”라고 덧붙였다.

정우진 기자
jwj3937@kukinews.com
정우진 기자