'MoE 구조 악용하면 제미나이 유해응답 최대 80%↑'… KAIST, LLM 보안 취약성 세계 최초 규명
KAIST가 구글 제미나이 등 상용 거대언어모델(LLM)에 널리 쓰이는 전문가 혼합(MoE) 구조가 단 하나의 악성 전문가 모델만으로도 전체 인공지능(AI)의 안전성을 무너뜨릴 수 있음을 세계 최초로 규명했다. KAIST는 전기및전자공학부 신승원 교수, 전산학부 손수엘 교수 공동연구팀이 전문가 혼합 구조를 악용해 거대언어모델의 안전성을 심각하게 훼손할 수 있는 공격 기법을 연구한 논문이 국제학회 ‘ACSAC 2025’에서 최우수논문상을 수상했다고 26일 밝혔다. ACSAC는 정보보안 분야에서 가장 영향력 있는 국제 학술대회로, 올해 ... [이재형]




