‘주간 Tech Point’는 금주의 소식을 톺아보고 정리한 뉴스 큐레이션 콘텐츠입니다. 한 주를 돌아보며 독자여러분께 한번 더 알려드리고 싶은 소식과 그 외 이슈들을 함께 모아봤습니다. [더테크=전수연 기자] 11월 3주차 ‘주간 Tech Point’는 인공지능(AI) 반도체 제조 기업 엔비디아의 새로운 그래픽처리장치(GPU) 소식부터 살펴보겠습니다. 엔비디아는 생성형 AI의 토대가 되는 초거대언어모델(LLM) 훈련을 위한 GPU ‘H200’을 13일 공개했습니다. H200은 AI 기업이 물량 확보 전쟁일 벌이고 있는 하드웨어 H100의 후속 모델입니다. H200은 141GB(기가바이트)의 고대역폭 메모리인 HBM3가 탑재됩니다. HBM은 D램을 수직으로 연결해 데이터 처리 속도를 끌어올린 고성능 메모리로 기존보다 발전된 텍스트, 이미지 처리 속도를 지녔습니다. 또 H200은 메타의 LLM인 라마 2(Llama 2)로 테스트한 결과 H100보다 2배 이상의 데이처 처리 속도를 보입니다. 특히 H100과 호환성을 유지해 H100을 운용 중인 기업은 새로운 칩을 활용하기 위해 서버 시스템이나 소프트웨어를 변경할 필요가 없다는 것도 장점입니다. (관련기사:
[더테크=조재호 기자] 인공지능(AI) 반도체 제조업체인 엔비디아가 신규 AI 칩을 선보였다. 엔비디아는 13일 생성형 AI의 토대가 되는 거대 언어 모델(LLM) 훈련을 위한 그래픽처리장치(GPU) H200을 공개했다. H200은 AI 기업이 물량 확보 전쟁을 벌이고 있는 하드웨어인 H100의 후속 모델이다. H200은 141GB(기가바이트)의 고대역 폭메모리인 HBM3가 탑재된다. HBM은 D램을 수직으로 연결해 데이터 처리 속도를 끌어올린 고성능 메모리로 기존보다 한층 업그레이드된 텍스트 및 이미지 처리 속도를 지녔다. 엔비디아는 H200이 메타의 LLM인 라마 2(Llama 2)로 테스트한 결과로 H100보다 2배 이상의 데이터 처리 속도를 보인다고 설명했다. 아울러 H200은 기존 H100과 호환성을 유지해 H100을 운용 중인 기업이 새로운 칩을 활용하기 위해 서버 시스템이나 소프트웨어를 변경할 필요가 없다고 덧붙였다. 또한 소프트웨어 업데이트를 통해 H200의 추가적인 성능 향상을 예고했다. H200은 Arm기반의 프로세스와 결합해 GH200으로 엔비디아의 컴퓨팅 플랫폼인 HGX 서버 구성을 진행할 수 있다. 8슬롯 HGX H200은 32PFLO