[더테크 이지영 기자] 팀네이버가 엔비디아 차세대 GPU ‘B200(블랙웰)’ 4,000장으로 구성된 국내 최대 규모의 AI 컴퓨팅 클러스터 구축을 완료했다. 초대형 연산 인프라를 바탕으로 독자 파운데이션 모델 고도화와 AI 기술의 산업 확산에 속도를 낸다는 전략이다.
팀네이버는 8일 엔비디아 B200 GPU 4,000장을 기반으로 한 초대형 AI 컴퓨팅 클러스터 구축을 완료했다고 밝혔다. 이번 인프라 구축으로 글로벌 수준의 컴퓨팅 파워를 확보하는 동시에, AI 모델 개발과 서비스 적용을 유연하게 확장할 수 있는 핵심 기반을 마련했다.
팀네이버는 단순한 GPU 도입을 넘어 대규모 자원을 하나로 묶어 성능을 극대화하는 클러스터링 기술에서 경쟁력을 축적해왔다. 2019년 엔비디아 슈퍼컴퓨팅 인프라 ‘슈퍼팟(SuperPod)’을 세계 최초 수준으로 상용화한 데 이어, 초고성능 GPU 클러스터를 직접 설계·운영하며 실증 경험을 쌓아왔다.
이번에 구축된 ‘B200 4K 클러스터’에는 냉각, 전력, 네트워크 전반의 최적화 기술이 집약됐다. 대규모 병렬 연산과 초고속 통신을 전제로 설계된 이 클러스터는 글로벌 Top500 상위권 슈퍼컴퓨터와 비교 가능한 컴퓨팅 규모를 갖춘 것으로 평가된다.
인프라 성능 향상은 AI 모델 개발 속도 개선으로 직결된다. 팀네이버는 내부 시뮬레이션 기준으로 720억 파라미터 규모 모델 학습 시, 기존 A100 기반 인프라에서 약 18개월이 소요되던 학습 기간이 B200 4K 클러스터에서는 약 1.5개월로 단축될 수 있다고 설명했다. 이는 학습 효율이 12배 이상 개선된 수준이다.
이에 따라 팀네이버는 대규모 실험과 반복 학습을 빠르게 수행할 수 있는 개발 환경을 확보하고, 기술 변화에 민첩하게 대응할 수 있는 AI 개발 체계를 갖추게 됐다. 대형 모델 학습의 속도와 유연성이 전반적으로 강화됐다는 평가다.
팀네이버는 이번 인프라를 기반으로 텍스트·이미지·비디오·음성을 동시에 처리하는 옴니(Omni) 파운데이션 모델 고도화에도 속도를 낼 계획이다. 고도화된 AI 모델을 다양한 서비스와 산업 현장에 단계적으로 적용한다는 구상이다.
최수연 네이버 대표는 “이번 AI 인프라 구축은 기술 투자를 넘어 국가 차원의 AI 경쟁력과 자립 기반을 뒷받침하는 핵심 자산을 확보했다는 데 의미가 있다”며 “빠른 학습과 반복 실험이 가능한 인프라를 바탕으로 AI 기술의 실질적 가치를 지속적으로 만들어 나가겠다”고 말했다.















