KAIST, 챗GPT GPU 대체 가능한 AI 반도체 개발

거대 언어 모델 추론 연산 효율적으로 가속화
엔디비아 GPU 대비 2.4배 가격 효율성 높아

 

[더테크=조명의 기자] 국내 연구진이 챗GPT의 거대 언어 모델 추론에 사용되는 고성능 GPU를 대체할 수 있는 인공지능(AI) 반도체를 개발했다. 

 

한국과학기술원(KAIST)은 전기및전자공학부 김주영 교수 연구팀이 챗GPT에 핵심으로 사용되는 거대 언어 모델의 추론 연산을 효율적으로 가속하는 AI 반도체를 개발했다고 4일 밝혔다.

 

챗GPT는 거대 언어 모델을 기반으로 한다. 거대 언어 모델은 기존 AI와는 달리 전례 없는 큰 규모의 AI 모델로, 이를 운영하기 위해서는 수많은 고성능 GPU가 필요해 천문학적인 컴퓨팅 비용이 든다는 문제점이 있다. 

 

연구팀이 개발한 AI 반도체 ‘LPU(Latency Processing Unit)’는 거대 언어 모델의 추론 연산을 효율적으로 가속한다. 

 

메모리 대역폭 사용을 극대화하고 추론에 필요한 모든 연산을 고속으로 수행 가능한 연산 엔진을 갖춘 AI 반도체로, 자체 네트워킹을 내장해 여러 개의 가속기로 확장이 용이하다. 

 

이 LPU 기반의 가속 어플라이언스 서버는 업계 최고의 고성능 GPU인 엔비디아 A100 기반 슈퍼컴퓨터보다 성능은 최대 50%, 가격 대비 성능은 2.4배가량 높다.

 

 

최근 급격하게 생성형 AI 서비스 수요가 증가하고 있는 데이터센터에의 고성능 GPU를 대체할 수 있을 것으로 기대된다.

 

이번 연구는 김주영 교수의 창업기업인 하이퍼엑셀에서 수행했다. 

 

연구성과는 미국시간 지난달 12일 샌프란시스코에서 진행된 ‘국제 반도체 설계 자동화 학회(이하 DAC)’에서 공학 부문 최고 발표상(Engineering Best Presentation Award)을 수상했다. 

 

김주영 교수는 “거대 언어 모델의 추론에 필요한 막대한 비용을 획기적으로 절감할 수 있는 AI 반도체 솔루션으로 세계 무대에서 인정받았다”며 “미래 거대 인공지능 연산을 위한 새로운 프로세서 LPU로 글로벌 시장을 개척하고 빅테크 기업들의 기술력보다 우위를 선점하겠다”라고 밝혔다.


관련기사

26건의 관련기사 더보기

배너