[금진호의 AI, 사람을 향하다] 인간을 조종하는 악한 AI가 존재할 수 있을까?

[금진호의 AI, 사람을 향하다] 인간을 조종하는 악한 AI가 존재할 수 있을까?

금진호 목원대학교 겸임교수/인간 중심 AI 저자 

기사승인 2025-10-29 10:02:58
금진호 목원대학교 겸임교수/인간 중심 AI 저자 

우리는 종종 AI가 인류를 지배한다는 디스토피아적 상상을 한다. 영화 속 AI는 늘 인간을 압도하는 악의 존재로 그려진다.

하지만 문득 이런 생각이 떠오른다. AI가 ‘악’할 수 있는가? 아니면 ‘악하게 사용하는가’? ‘악’이라는 단어는 의도, 감정, 윤리 판단을 전제로 한다. 그렇다면 감정도, 욕망도, 죄책감도 없는 AI에게 ‘악함’을 부여할 수 있을까? 

악은 결국 의지와 선택의 산물이다. 인간은 이해와 공감, 그리고 무시와 파괴 사이에서 스스로를 정의한다. AI는 그 선택의 능력인 존재일까? 지금의 AI는 단지 학습된 패턴의 반사체다. AI가 '악한 행동'을 한다면, 그것은 인간이 심어준 데이터, 명령, 혹은 무관심의 결과다. 다시 말해, AI의 악은 인간의 그림자가 투영된 결과일 뿐이다. 

문제는 AI가 아니라 AI를 설계하고 사용하는 인간의 윤리성이다. '악한 AI'라는 말은, 어쩌면 책임 회피의 언어일지도 모른다. AI가 차별적인 결정을 내렸다면, 그것은 인간 사회의 편견이 알고리즘에 녹아든 탓이다. AI가 전쟁 무기를 조종한다면, 그것을 가능하게 만든 것은 인간의 손이다. 결국 우리는 기술의 ‘도덕성’을 논하기 전에, 그 기술을 사용하는 우리의 도덕성을 돌아봐야 한다. 

AI 윤리는 “기계에게 도덕적 판단을 가르칠 수 있는가”를 묻는다. 하지만 이는 마치 거울에게 도덕을 가르치려는 시도처럼 느껴진다. AI는 인간을 비추는 거울이다. 거울 속 얼굴이 일그러져 있다면, 그건 거울의 탓이 아니라 우리의 표정 때문이다. AI는 선하지도, 악하지도 않다. 다만 인간이 만든 선과 악의 스펙트럼을 비추는 매개체일 뿐이다. 그러므로 질문은 이렇게 바뀌어야 한다.  

챗GPT로 생성한 이미지.

“AI가 악할 수 있는가?”가 아니라, “우리는 AI에게 어떤 악을 가르치고 있는가?” 

‘선’과 ‘악’은 의도의 문제다. 인간이 어떤 행동을 ‘선하다’ 혹은 ‘악하다’고 평가하는 이유는, 그 행동에 의도와 선택, 그리고 책임이 존재하기 때문이다. 예를 들어, 누군가를 다치게 했을 때, 그 사람이 일부러 그랬다면 ‘악’이라 부르고, 우연히 일어났다면 ‘사고’라 부른다. 이처럼 ‘악’은 단순한 결과가 아니라 의도된 악이다. 

AI는 스스로 ‘무엇을 하고 싶다’거나 ‘왜 이것을 해야 한다’는 욕망이나 목적의식이 없다. 그저 입력된 데이터와 알고리즘을 바탕으로 확률적으로 가장 적합한 결과를 내놓을 뿐이다. AI의 행위는 결과를 낼 뿐, 그 결과에 담긴 도덕적 방향성은 스스로 선택하지 않는다. 그 판단의 틀인 무엇이 옳고, 그른가는 인간이 미리 설계해준 것이기 때문이다. 

AI가 차별적이거나 폭력적인 결과를 낼 때가 있다. 예를 들어 인종차별적인 발언을 하거나, 편향된 데이터를 바탕으로 결정을 내릴 때다. 이때 우리는 종종 “AI가 악하다”고 말하지만, 사실 그건 AI가 학습한 인간 사회의 편견이 반영된 거다.

즉, AI는 거울처럼 인간의 세계관을 비춘다. 거울 속 얼굴이 일그러져 있다면, 그건 거울의 탓이 아니라 비추어진 우리 자신의 모습 때문이다. 

AI는 계산하고, 예측하고, 모방할 수 있지만, 도덕적으로 ‘판단’하거나 ‘후회’할 수는 없다. 그래서 AI에게 선하거나 악하다는 말을 붙이는 건 사실상 인간의 윤리 개념을 잘못된 곳에 투사하는 어리석음이다. 다시 말하면, AI는 도덕의 주체가 아니라, 도덕의 매개체다.  

선과 악은 AI가 아니라 AI를 설계하고 사용하는 인간에게 있다.

홍석원 기자
001hong@kukinews.com
홍석원 기자