AI 센터 늘었지만 안전은?…“기술 앞서는데 기준은 제자리” [AIDC 인프라 전쟁②]

AI 센터 늘었지만 안전은?…“기술 앞서는데 기준은 제자리” [AIDC 인프라 전쟁②]

전력·발열 폭증한 AI 데이터센터… 냉각기술 진화했지만 안전기준은 뒤처져
냉각 누수·정전·화재 반복에도 ‘일반 IDC’ 기준 그대로
정부 기준 부재 속 각사 자체 대응…“기술만 앞서가다 사고 되풀이될 수도”

기사승인 2025-11-15 06:00:10 업데이트 2025-11-15 09:47:12
9월27일 대전 유성구 국가정보자원관리원(국정자원) 전산실 창문이 무정전·전원 장치(UPS)용 리튬이온배터리 화재로 깨져 있다. 연합뉴스

AI(인공지능) 데이터센터가 전국에 급증하고 있지만 안전 기준은 제자리다. AI용 그래픽처리장치(GPU)가 몰린 서버실의 발열은 기존 인터넷데이터센터(IDC)의 10배까지 치솟는다. KT·SK·네이버 등 주요 통신·IT 기업들은 수냉식과 액체냉각 같은 첨단 냉각 기술을 잇따라 도입하고 있지만, 고발열·초고밀도 환경에서는 냉각수 누수나 전력 이상이 발생할 경우 대형 화재와 장시간 장애로 이어질 위험이 크다. 그럼에도 소방·전력·산업안전 규정은 여전히 ‘일반 IDC 기준’에 머물러 있다는 지적이 나온다.

사고는 이미 현실…‘냉각 누수·정전·화재’ 경고음

AI용 GPU 서버는 랙(rack) 한 개에서 60~100킬로와트(kW)의 전력을 소비한다. 일반 IDC의 5~10kW보다 10배 높은 수준이다.

이 때문에 공기냉각만으로는 버티기 어려워 수냉식(水冷式)과 액체냉각(리퀴드 쿨링) 같은 신형 냉각 기술이 빠르게 확산하고 있지만, 사고 위험 또한 높아지고 있다.

실제로 지난해 네덜란드 아인트호벤 데이터센터에서는 냉각수 누수로 서버의 약 20%가 중단됐다. 같은 해 일본 도쿄 시나가와의 AI센터에서도 액체냉각 누수로 전체 전력이 한꺼번에 차단됐다.

국내도 예외가 아니다. 2023년 SK C&C 판교 데이터센터 화재로 카카오톡 등 주요 서비스가 127시간 마비됐고, 올해 9월 대전 국가정보자원관리원에서는 무정전전원장치(UPS) 리튬배터리가 폭발하며 정부 전산망 647개 시스템이 동시에 멈췄다. 두 사고 모두 배터리·전력 설비가 서버와 같은 공간에 밀집돼 있어 피해를 키운 원인으로 지목됐다.

‘가산 KT클라우드 데이터센터’. KT클라우드 제공

KT클라우드, 국내 첫 ‘액체냉각 상용화’…효율 높였지만 대응 기준은 ‘부재’

KT클라우드가 지난 5일 문을 연 ‘서울 가산 AI 데이터센터’는 국내 상업용 센터 중 처음으로 액체냉각(리퀴드 쿨링)을 적용했다. GPU 칩 표면에 냉각판을 붙이고 안쪽에 찬물을 흘려보내 열을 식히는 직접칩냉각(D2C) 방식으로, 기존 공랭식보다 냉각 효율이 58% 이상 높다.

센터의 총 전력 용량은 40메가와트(MW)로, 이 중 26MW는 정보기술(IT) 장비에 배정됐다. 전력 계통은 AI 전용 실시간 모니터링 솔루션 ‘패스파인더’가 감시하며, 이상 징후가 감지되면 자동으로 차단하고 복구한다. 배터리는 화재 위험이 낮은 리튬인산철(LFP) 소재를 사용했고, 3000kVA급 비상발전기 16대로 전력 공급을 이중화했다.

그러나 액체냉각 누수·고장 시 대응 가이드라인은 아직 없다. 업계 관계자는 “효율이 높아도 대응 매뉴얼이 정부 차원에서 정해지지 않아 각 회사가 자체 기준으로 운영하는 상황”이라고 말했다.

‘SK AI 데이터센터 울산’ 예상 조감도. SK수펙스 제공

SK, LNG 냉열 ‘재활용’…정밀 냉각 갖췄지만 ‘비상 대응은 IDC 기준’

SK텔레콤·SK에코플랜트가 아마존웹서비스(AWS)와 함께 울산에 건설 중인 ‘SK AI 데이터센터 울산’은 국내에서 처음으로 액화천연가스(LNG) 기지에서 나오는 영하 162℃의 냉열을 열교환해 냉각수로 재활용하는 설계를 도입했다. 연간 30억~50억원의 전기 비용을 절감하고 냉각용수도 절반 가까이 줄일 수 있다는 게 SK측 설명이다.

축구장 11개 규모 부지(2만평)에 100MW급 전력 설비로 구축된 이 센터는 공기냉각과 직수냉각을 결합한 ‘하이브리드 냉각’을 적용했다. 칩 표면에 냉각수를 바로 흘려보내서 직접 식히는 ‘직접액체냉각(DLC)’까지 적용해 GPU 온도를 0.1도 단위로 조절할 수 있을 만큼 정밀 냉각이 가능하다.

김재석 SK브로드밴드 AI 데이터센터 기술본부장은 “GPU 서버는 랙당 20~40kW를 소비해 냉각 용량도 기존보다 4~10배 필요하다”며 “온도 0.1도 차이가 성능을 좌우하기 때문에 정밀 냉각이 필수”라고 말했다.

그러나 초고밀도 설비임에도 화재·정전 대응 체계는 여전히  ‘일반 IDC 기준’에 묶여 있다. 전력 규모가 대형 발전소 수준임에도, 전원 차단·복구 매뉴얼을 기업 자체 지침에 의존해야 하는 게 현실이다.

네이버 ‘각세종’ 데이터센터 전경. 네이버 제공

네이버, 자연풍·직수냉식 ‘하이브리드’…효율 높였지만 ‘특수 위험’은 여전

네이버의 ‘각 세종’은 서버 60만대를 수용하는 국내 최대 규모의 데이터센터다. 자체 공조 기술 ‘나무(NAMU) III’는 외부 찬바람을 직접 끌어오거나 계절별 온·습도를 자동으로 조절해 에너지 사용량을 30% 이상 절감했다.

네이버는 GPU 발열 증가에 대응하기 위해 수냉식을 확대 적용 중이며, 2027년에는 DLC를 전면 도입해 랙당 전력을 30kW에서 50kW 이상으로 끌어올릴 계획이다. 또한 로봇과 자율주행 기술도 활용해 무인 운영 환경에서 산소 농도를 낮춰 화재 위험을 줄이는 실험도 진행 중이다.

네이버는 전력·냉각·서버 체계를 완전히 분리한 이중화 구조를 갖췄지만, 초고밀도 GPU 환경에서 발생할 특수 사고 대응 기준은 정부 차원에서 마련돼 있지 않다. 노상민 네이버클라우드 데이터센터장은 “GPU 밀도가 급증하면서 냉각뿐 아니라 화재·정전 대응 체계도 새 기준이 필요하다”고 말했다.

기술은 앞서가는데 규정은 10년 전…‘AI센터 안전 공백’

현재 소방시설법과 전기사업법은 공랭식·저밀도 IDC 기준(2010년대 기준)을 그대로 사용한다. 직수냉각·액체냉각 같은 신형 기술은 법적 분류조차 없고, 냉각수 누수 매뉴얼은 물론 고발열 GPU 특화 화재 기준도 마련되지 않은 상황이다.

서울시가 카카오 화재 이후 공공·민간 데이터센터 87곳을 점검한 결과 72곳에서 안전 기준 미흡이 확인됐다. 설계 기준이 AI센터의 고밀도 구조를 반영하지 못한 탓이다.

 일반 IDC는 랙당 5~10kW를 기준으로 설계되는 반면, AI센터는 60~100kW 고밀도 GPU가 몰려 배터리·전력 설비가 좁은 공간에 밀집된다. 순간적인 전압 변동이나 정전도 수십억원대 손실로 이어질 수 있다.

전문가들은 “AI센터는 사실상 국가 산업의 신경망이라는 점에서 전용 안전 기준 제정이 시급하다”고 지적한다. 

한 데이터센터 관계자는 “기술은 10년을 앞서가는데 규정은 10년 전 기준에 멈춰 있다”며 “지금처럼 기업 자율에만 맡겨진 구조에서는 사고 위험을 줄이기 어렵다”고 말했다.


이혜민 기자
hyem@kukinews.com
이혜민 기자