팀네이버, ‘엔비디아 B200’ 4000장 기반 클러스터 구축…AI 개발 속도 12배 ↑

팀네이버, ‘엔비디아 B200’ 4000장 기반 클러스터 구축…AI 개발 속도 12배 ↑

기사승인 2026-01-08 11:03:44

경기도 성남시 네이버 본사 모습. 연합뉴스 

팀네이버가 엔비디아의 차세대 GPU ‘B200(블랙웰)’ 4000장을 기반으로 국내 최대 규모의 인공지능(AI) 컴퓨팅 클러스터 구축을 완료했다고 8일 밝혔다.

국내 최대 규모의 AI 컴퓨팅 클러스터 구축으로 팀네이버는 글로벌 수준의 컴퓨팅 파워를 확보함과 동시에 독자 파운데이션 모델 고도화, AI 기술을 서비스와 산업 전반에 적용하기 위한 핵심 기반을 마련했다고 설명했다.

이번에 구축된 ‘B200 4K 클러스터’는 냉각‧전력‧네트워크 최적화 기술이 집약됐다. 대규모 병렬 연산과 고속 통신을 전제로 설계된 이번 클러스터는 글로벌 상위 500위권 슈퍼컴퓨터들과 비교 가능한 수준의 컴퓨팅 규모를 갖춘 것으로 평가된다.

팀네이버는 B200 4K 클러스터로 AI 모델 개발 속도를 12배가량 끌어올릴 것으로 관측했다. 회사 측은 내부 시뮬레이션을 한 결과 720억개(72B) 파라미터 규모 모델 학습 시 기존 A100 기반 주력 인프라(2048장)로 약 18개월이 소요되던 학습 기간을 약 한 달 반 수준으로 단축할 수 있는 효과가 확인됐다고 설명했다. 

다만 해당 수치는 내부 시뮬레이션 결과로 실제 학습 과제와 설정에 따라 소요 기간은 달라질 수 있다.

팀네이버는 이러한 인프라를 바탕으로 현재 진행 중인 독자 파운데이션 모델 고도화에도 속도를 낼 계획이다. 텍스트를 넘어 이미지‧비디오‧음성을 동시에 처리하는 옴니(Omni) 모델 학습을 대규모로 확장해 성능을 글로벌 수준으로 끌어올리고, 서비스와 산업 현장에 단계적으로 적용한다는 구상이다.

최수연 네이버 대표는 “이번 AI 인프라 구축은 단순한 기술 투자를 넘어 국가 차원의 AI 경쟁력 기반과 AI 자립‧주권을 뒷받침하는 핵심 자산을 확보했다는데 의미가 있다”라며 “팀네이버는 빠른 학습과 반복 실험이 가능한 인프라를 바탕으로 AI 기술을 서비스와 산업 현장에 보다 유연하게 적용해 실질적인 가치를 만들어 나갈 것”이라고 말했다.

지난 2019년 팀네이버는 엔비디아의 슈퍼컴퓨팅 인프라인 ‘슈퍼팟’을 세계에서 가장 빠르게 상용화한 데 이어 초고성능 GPU 클러스터를 직접 설계‧운영하는 등 실증 경험을 축적해왔다.
정우진 기자
jwj3937@kukinews.com
정우진 기자