[더테크=조재호 기자] 인공지능(AI) 반도체 제조업체인 엔비디아가 신규 AI 칩을 선보였다.
엔비디아는 13일 생성형 AI의 토대가 되는 거대 언어 모델(LLM) 훈련을 위한 그래픽처리장치(GPU) H200을 공개했다. H200은 AI 기업이 물량 확보 전쟁을 벌이고 있는 하드웨어인 H100의 후속 모델이다.
H200은 141GB(기가바이트)의 고대역 폭메모리인 HBM3가 탑재된다. HBM은 D램을 수직으로 연결해 데이터 처리 속도를 끌어올린 고성능 메모리로 기존보다 한층 업그레이드된 텍스트 및 이미지 처리 속도를 지녔다.
엔비디아는 H200이 메타의 LLM인 라마 2(Llama 2)로 테스트한 결과로 H100보다 2배 이상의 데이터 처리 속도를 보인다고 설명했다.
아울러 H200은 기존 H100과 호환성을 유지해 H100을 운용 중인 기업이 새로운 칩을 활용하기 위해 서버 시스템이나 소프트웨어를 변경할 필요가 없다고 덧붙였다. 또한 소프트웨어 업데이트를 통해 H200의 추가적인 성능 향상을 예고했다.
H200은 Arm기반의 프로세스와 결합해 GH200으로 엔비디아의 컴퓨팅 플랫폼인 HGX 서버 구성을 진행할 수 있다. 8슬롯 HGX H200은 32PFLOPS(페타플롭스) 컴퓨팅 성능과 1.1TB(테라바이트)의 메모리 대역폭을 지원한다.
엔비디아는 H200를 2024년 2분기부터 글로벌 시스템 제조업체와 클라우드 서비스 기업에 제공할 예정이다. 올해 출시를 앞둔 AMD의 MI300X와 경쟁 구도를 형성할 것으로 보인다.