차세대 메모리 HBM 볼륨, 올해 60% 증가 예상

트렌드포스, 2024년에는 30% 추가성장 예측
“고속 컴퓨팅 플랫폼 구축을 위한 탁월한 솔루션”

 

[더테크=문용필 기자] 차세대 메모리 반도체로 부상하고 있는 HBM(High Bandwidth Memory) 시장이 급속한 성장세를 거듭할 것으로 예상된다. 최근 인공지능(AI)를 비롯한 각종 딥테크 기술의 고도화가 HBM에 대한 IT기업들의 수요를 증가시킬 요인으로 분석된다.

 

대만의 글로벌 시장조사업체 트렌드포스는 28일 “HBM은 고속 컴퓨터에서 메모리 전송속도 제한을 극복하기 위한 선호 솔루션으로 부상하고 있다”며 “HBM에 대한 전 세계 수요가 2023년에는 매년 거의 60% 성장해 2억9000만GB에 이르고 2024년에는 30% 추가 성장할 것으로 예측한다”고 밝혔다.

 

트렌드포스는 슈퍼컴퓨터와 8K비디오 스트리밍 등 새로운 기술의 발전으로 인해 고속 컴퓨팅에 대한 수요가 증가될 것이고 클라우드 컴퓨팅 시스템의 작업 부하를 동시에 증가시킬 것으로 예상했다.

 

여기에 AI의 고도화, 초 거대화로 인해 더 많은 정보를 처리하면서도 효율적으로 가동될 수 있는 반도체의 수요가 증가될 것으로 전망된다.

 

이와 관련, 트렌드포스는 “HBM은 DDR SDRAM에 비해 더 높은 대역폭과 더 낮은 에너지 소비로 인해 고속 컴퓨팅 플랫폼 구축을 위한 탁월한 솔루션임이 분명하다”며 “HBM3와 DDR5를 예로 들면 전자의 대역폭은 후자의 15배이며 더 많은 스택칩을 추가해 더욱 향상될 수 있다. 또한 HBM은 GDDR, SDRAM, 혹은 DDR SDRAM의 일부를 대체할 수 있어 전력소비를 보다 효과적으로 관리할 수 있다”고 설명했다.

 

트렌드포스는 “현재 (HBM) 수요 증가의 원동력은 엔비디아 AI00, H100, AMD MI300을 탑재한 AI서버와 자체 ASIC(특정 목적을 위한 비메모리 반도체)을 개발중인 구글, AWS와 같은 대형 CSP(클라우드 서비스 제공자)”라고 결론지었다.

 

이와 함께 “GPU(그래픽처리장치), FPGA(프로그래밍이 가능한 비메모리), ASIC을 탑재한 AI 서버 출하량은 2023년 120만대에 육박해 연평균 38%에 가까운 성장률을 기록할 것으로 추정된다”며 “AI 칩의 출하량도 동시에 급증해 잠재적으로 50%를 초과할 것”이라고 예상했다.

 

앞서 트렌드포스는 지난 21일 발표한 자료를 통해 “하이엔드 AI서버에 대한 의존도는 2023~2024년 HBM 수요를 견인할 뿐만 아니라 고급 패키징 용량을 30~40% 성장시킬 것으로 예상된다”고 밝히기도 했다.


관련기사

26건의 관련기사 더보기

배너