“챗GPT가 당뇨라던데요”…AI로 자가진단, 괜찮을까

“챗GPT가 당뇨라던데요”…AI로 자가진단, 괜찮을까

챗GPT 전체 대화 5%는 건강상담…이용자 2억3000만명
AI 자가진단이 조기 발견으로 이어지기도
오진 가능성은 한계…“불필요한 검진‧불안증 유발 위험도”

기사승인 2026-02-24 06:05:04 업데이트 2026-02-24 09:38:17
그래픽=윤기만 디자이너

“챗GPT가 초기 당뇨라며 병원 방문을 추천했습니다. 저 당뇨인가요?”

최근 인공지능(AI) 챗봇과 상담을 통해 스스로 병명을 확정 짓고 병원을 찾는 이들이 늘고 있다. 질환 이해도를 높여 조기 발견으로 이어진다는 긍정적 측면도 있지만, 잘못된 정보가 환자의 불안을 키우고 의료진 판단에 대한 불신을 유발한다는 우려도 나온다. 

23일 오픈AI가 최근 발표한 보고서에 따르면, 챗GPT 주간활성이용자 8억명 중 2억3000만명 가량이 매주 챗GPT에 건강 관련 질문을 하고 있다. 이는 전 세계 챗GPT 대화 중 5%에 달하는 수준이다. 생성형 AI 중 하나인 챗GPT가 미국‧일본 의사면허시험과 국내 한의사 국가시험에 통과한 데다 챗GPT-4가 인간 의사보다 진단 정확도가 16% 더 높았다는 미국 스탠퍼드대학교 연구 결과가 나오면서 AI가 제공하는 의료 정보를 신뢰하는 분위기가 공고해지는 모양새다.

실제 AI의 의료적 조언을 적극 따르는 이들도 적지 않다. 직장인 최모(29)씨는 “병원 갈 시간이 마땅치 않아 가벼운 증상은 AI에게 진단 받는다”며 “AI가 진단해준 병명을 믿고, 추천하는 약을 약국에서 구매하는 편”이라고 말했다. 전모(32)씨는 “오한과 근육통이 심해 독감으로 의심했는데, AI가 단순 감기몸살이라고 해서 편의점에서 구매한 약으로 버텼다”고 전했다. 만성 위염인 이모(42)씨는 “음식점에서 메뉴 선택을 할 때 AI에게 물어본다”라며 “AI가 먹으면 안 되는 이유를 상세히 설명해줘 식단 조절에 큰 도움을 받는다”고 밝혔다. 

진료실 풍경도 변했다. 자신의 병명을 미리 단정한 채 진료실을 찾아 처방이나 치료를 요구하는 환자가 늘어나면서다. 이상열 경희대병원 내분비내과 교수는 “‘당뇨 초기 증상과 비슷하다’거나 ‘갑상선저하증이니 병원을 가야 한다’ 등 AI가 진단한 병명을 믿고 내원하는 환자가 많아지는 것을 체감한다”고 말했다. 

AI 활용에 능한 청소년도 예외는 아니다. 이연정 순천향대 서울병원 정신건강의학과 교수는 “아이들이 병원에 와 ‘AI가 우울증이니, 약물치료가 필요하다고 해서 왔다’고 하는 경우가 종종 있다”고 전했다.

AI 자가진단을 맹신한 탓에, 의료진의 정확한 진단을 의심하는 경우도 있다. 전강일 이대서울병원 감염내과 교수는 “최근엔 LLM(거대언어모델)을 통해 원하는 의학 자료를 취사선택하는 것이 가능해지면서 소위 ‘답정너(답은 정해져 있으니 너는 대답만 해)’식을 원하는 환자들도 종종 있다”고 했다. 그러면서 “AI 진단을 확진처럼 받아들인 경우 오히려 정확한 진단과 치료 과정에 대한 설명에 더 많은 시간이 필요하기도 하다”고 털어놨다.

그래픽=한지영 디자이너

AI 자가진단, 양날의 검…“질환 이해도 높이는 보조도구로 활용해야”

의사들은 AI로 자가진단하는 환자들에 대해 어떻게 생각할까. 오히려 긍정적인 측면이 크다고 입을 모았다. 건강에 대한 관심을 높여 조기진단으로 이어질 가능성이 있다는 것이다. 이상열 교수는 “환자들이 자신의 건강에 관심을 갖고 능동적으로 정보를 얻는다는 점에서 긍정적”이라며 “실제 AI가 제시한 가능성 때문에 병원에 빨리 내원해 조기에 문제를 발견한 경우도 있다”고 전했다. 전 교수도 “진료실에서 충분히 전달되지 못한 부분이 있으면, 환자가 AI로 추가 설명을 찾아보기도 해 긍정적으로 인식하고 있다”고 말했다.

다만 AI가 내린 진단을 과신해선 안 된다고 강조했다. 환자들이 자신의 증상을 단편적으로만 입력할 경우, AI가 잘못된 정보를 안내할 가능성이 높기 때문이다. 최근 영국 옥스퍼드대 연구진이 국제학술지 네이처메디신에 게재한 논문에 따르면, 주요 AI 챗봇을 이용한 건강상태 자가진단 실험을 진행한 결과, AI 챗봇이 참가자의 질환명을 정확히 식별한 비율은 34.5%에 불과했다. 참가자의 단어 선택에 따라 진단이 바뀌기도 했다.

이연정 교수는 “초등학생이 두통이 있다고 질문했는데, AI는 뇌암으로 진단내릴 가능성도 있다. 아주 희박한 연관성을 근거로 판단을 하기 때문”이라며 “AI의 잘못된 진단이 환자들의 불안을 키워 다른 정신과 증상이 발현되기도 한다”고 설명했다. 이상열 교수도 “심각한 질환을 가벼운 것으로 잘못 안내해 치료시기를 놓칠 수 있다”며 “반대로 별것 아닌 증상에 과도한 불안을 유발해 불필요한 검사를 권할 수 있다. 이 경우 의료비 지출도 커질 것”이라고 경고했다. 

의사들은 AI를 ‘보조도구’로 활용해야 한다고 조언한다. 전 교수는 “앞으로 AI와 대화를 통해 진단이 이뤄지는 경우가 많아질 것”이라면서 “AI와의 대화가 편향되지 않도록 추가 자료를 요청하고, 검증하는 방식으로 활용해야 한다”고 말했다. 이상열 교수는 “AI 자가진단은 참고 수단”이라며 “AI가 괜찮다고 답했더라도 증상이 지속되거나 악화된다면 반드시 의료기관을 방문해야 한다”고 했다.

김은빈 기자
eunbeen1123@kukinews.com
김은빈 기자