GPT-5·제미나이까지 취약…AI 의료 상담, 악성 공격에 속수무책
최근 생성형 인공지능(AI) 챗봇을 활용해 질환 상담을 받는 사례가 늘고 있는 가운데, 상용 중인 의료용 AI 모델 대부분이 악의적 공격에 취약해 잘못된 치료를 권고할 위험이 크다는 연구 결과가 나왔다. 서준교 서울아산병원 비뇨의학과 교수, 전태준 정보의학과 교수와 이로운 인하대병원 영상의학과 교수팀은 의료 상담에 활용되는 대규모언어모델(LLM)이 프롬프트 인젝션 공격에 94% 이상 취약하다는 사실을 확인했다고 5일 밝혔다. 프롬프트 인젝션 공격은 생성형 AI에 악의적인 명령어를 삽입해 본래 설계된 안전장치를 무력... [이찬종]




