[더테크=전수연 기자] 글로벌 엔지니어링 시뮬레이션 전문기업 엔시스코리아(이하 엔시스)가 가속 컴퓨팅, 생성형 AI 기반 차세대 시뮬레이션 솔루션 개발에 나선다. 엔시스는 미국 반도체 기업 엔비디아(NVIDIA)와의 협력을 확대한다고 25일 밝혔다. 협력 확대를 통해 엔시스는 최첨단 기술을 융합해 6G 통신 기술을 고도화하고 엔비디아 그래픽처리장치(GPU)를 기반으로 엔시스 솔버를 강화한다. 엔시스의 소프트웨어에 엔비디아 AI를 통합하고 물리 기반 디지털 트윈을 개발하며 엔비디아 AI 파운드리 서비스로 개발된 맞춤형 LLM을 사용할 예정이다. 엔시스는 최근 포트폴리오 전반에 걸쳐 데이터 상호운용성을 강화하고 향상된 그래픽, 비주얼 렌더링을 제공하기 위해 오픈 USD 얼라이언스(Alliance for OpenUSD, AOUSD)에 가입했다. 이미 엔시스는 엔비디아 옴니버스 플랫폼에 기반한 엔비디아 드라이브 심에 엔시스 AV엑셀러레이트 오토노미를 연동했으며 엔시스 STK, 엔시스 LS-DYNA, 엔시스 플루언트, 엔시스 퍼시브EM 등의 추가 연동을 검토하고 있다. 이를 통해 강화된 상호운용성을 바탕으로 사용자는 광범위한 수준의 시뮬레이션 과제를 해결할 수 있다.
[더테크=전수연 기자] KAIST가 그래픽 연산 장치(이하 GPU)에서 메모리 크기의 한계로 인해 초병렬 연산의 결과로 대규모 출력 데이터가 발생할 때의 난제를 해결했다. KAIST 전산학부 김민수 교수 연구팀은 데이터 처리 기술(INFINEL)을 개발했다고 7일 밝혔다. 이 기술은 한정된 크기의 메모리를 지닌 GPU를 이용해 수십, 수백 만개 이상의 스레드들로 초병렬 연산을 하며 수 테라바이트의 큰 출력 데이터를 발생시킬 경우에도 메모리 에러를 발생시키지 않고 출력 데이터를 메인 메모리로 고속 전송, 저장할 수 있다. 이를 통해 향후 가정에서 사용되는 메모리 크기가 작은 GPU로도 생성형 AI 등 고난도 연산이 대규모 출력을 진행할 경우 빠른 수행이 가능해진다. KAIST는 최근 AI의 활용이 급속 증가하면서 지식 그래프와 같이 정점과 간선으로 이뤄진 그래프 구조의 데이터 구축, 사용이 증가하고 있는 반면 그래프 구조 데이터에 대해 난이도가 높은 초병렬 연산을 수행할 경우 그 출력 결과가 매우 크고 각 스레드의 출력 크기를 예측하기 어렵다고 분석했다. 또한 GPU는 CPU와 달리 메모리 관리 기능이 매우 제한돼 예측할 수 없는 대규모의 데이터를 유연하게 관
[더테크=전수연 기자] 삼성전자가 생성형 AI, 자율주행 등 데이터 처리에 유용한 차세대 인터페이스를 개발했다. 삼성전자는 업계 최초로 엔터프라이즈 리눅스 글로벌 기업 레드햇(Red Hat)과 CXL(Compute Express Link, 고성능 서버 시스템에서 CPU와 함께 사용되는 가속기·D램·저장장치 등을 효율적으로 활용하기 위한 차세대 인터페이스) 메모리 동작 검증에 성공했다고 27일 밝혔다. CXL은 △생성형 AI △자율주행 △인메모리 데이터베이스 플랫폼 등 처리해야 할 데이터 양이 기하급수적으로 증가하면서 주목받고 있는 기술로, 빠르고 효율적인 데이터 처리에 유용하다. 또한 CXL은 CPU, GPU 등 다양한 프로세서와 메모리를 연결하는 PCIe(Peripheral Component Interconnect Express, 기존 SATA 전송 속도의 한계를 극복한 고속 인터페이스 규격) 기반의 통합 인터페이스 표준으로 데이터 처리 지연, 속도 저하, 메모리 확장 제한 등 여러 문제를 해결할 수 있는 차세대 기술로 꼽힌다. 삼성전자는 기업용 리눅스 OS인 ‘레드햇 엔터프라이즈 리눅스(Red Hat Enterprise Linux 9.3 이하 RHEL 9
[더테크=조재호 기자] 아마존웹서비스(이하 AWS)가 AWS 리인벤트(re:Invent)에서 엔비디아와 전략적 협력을 확대한다고 1일 발표했다. 이번 협력 확대는 초기 머신러닝(ML) 선도 기업들의 오랜 파트너십을 기반으로 한다. 양사는 차세대 GPU와 CPU, AI 소프트웨어를 갖춘 엔비디아의 최신 멀티노트 시스템부터 AWS 니트로 시스템(AWS Nitro System) 고급 가상화 및 보안, 엘라스틱 패브릭 어댑터(Elastic Fabric Adapter, EFA) 상호 연결, 울트라클러스터(UltraCluster) 확장성까지, 파운데이션 모델(FM) 학습과 생성형 AI 애플리케이션 구축 기술들을 결합할 예정이다. 아담 셀립스키(Adam Selipsky) AWS CEO는 “AWS와 엔비디아는 세계 최초의 GPU 클라우드 인스턴스를 시작으로 13년 이상 협력해 왔다”며 “우리는 차세대 엔비디아 GH200과 AWS의 클라우드를 결합해 함께 혁신을 지속할 것”이라고 말했다. 이번 협력으로 AWS는 멀티노드 NV링크 기술이 적용된 GH200을 제공하는 최초의 클라우드 제공 업체가 된다. GH200은 동일한 모듈의 Arm 기반 CPU와 결합한다. GH200 NVL
[더테크=조재호 기자] 인공지능(AI) 반도체 제조업체인 엔비디아가 신규 AI 칩을 선보였다. 엔비디아는 13일 생성형 AI의 토대가 되는 거대 언어 모델(LLM) 훈련을 위한 그래픽처리장치(GPU) H200을 공개했다. H200은 AI 기업이 물량 확보 전쟁을 벌이고 있는 하드웨어인 H100의 후속 모델이다. H200은 141GB(기가바이트)의 고대역 폭메모리인 HBM3가 탑재된다. HBM은 D램을 수직으로 연결해 데이터 처리 속도를 끌어올린 고성능 메모리로 기존보다 한층 업그레이드된 텍스트 및 이미지 처리 속도를 지녔다. 엔비디아는 H200이 메타의 LLM인 라마 2(Llama 2)로 테스트한 결과로 H100보다 2배 이상의 데이터 처리 속도를 보인다고 설명했다. 아울러 H200은 기존 H100과 호환성을 유지해 H100을 운용 중인 기업이 새로운 칩을 활용하기 위해 서버 시스템이나 소프트웨어를 변경할 필요가 없다고 덧붙였다. 또한 소프트웨어 업데이트를 통해 H200의 추가적인 성능 향상을 예고했다. H200은 Arm기반의 프로세스와 결합해 GH200으로 엔비디아의 컴퓨팅 플랫폼인 HGX 서버 구성을 진행할 수 있다. 8슬롯 HGX H200은 32PFLO
[더테크=조재호 기자] 삼성전자가 ‘GDDR7(Graphics Double Data Rate) D램’을 업계 최초로 개발했다. 최근 인공지능(AI) 기술이 발전함에 따라 GPU(Graphics Processing Unit, 그래픽카드) 수요가 폭발적으로 증가한 상황에서 차세대 그래픽 카드용 메모리 시장의 유리한 고지를 선점했다고 볼 수 있다. 삼성전자는 19일 32Gbps GDDR7 D램 개발 소식을 전했다. 이번 제품은 기존 GDDR6 대비 데이터 처리 속도가 1.4배, 전력 효율이 20% 향상됐다는 설명이다. GDDR7 D램은 향후 차세대 고성능 컴퓨팅(High Performance Computing, HPC), AI, 자율주행 등 다양한 분야에서도 폭넓게 활용될 전망이다. 삼성전자는 올해 안에 주요 고객사의 차세대 시스템 검증을 진행할 예정이다. 삼성전자 관계자는 더테크에 “GDDR7 D램은 차세대 그래픽 카드용 메모리로 워크스테이션이나 PC, 게임 콘솔, 노트북에 응용될 것”이라며 “양산 시점은 고객사 검증 이후 윤곽이 드러날 것으로 보인다”고 말했다. GDDR7 D램은 ‘PAM3 신호 방식’을 적용해 데이터 입출력 핀 1개당 최대 32Gbps의 속도
[더테크=조재호 기자] 미국 반도체 기업 AMD가 새로운 AI 칩을 공개했다. 기존 시장을 장악하고 있는 엔비디아와 치열한 경쟁이 예상된다. AMD는 14일 미국 캘리포니아주 산타클라라 본사에서 진행한 AMD 데이터센터 및 AI 기술 프리미어(AMD Data Center and AI Technology Premiere) 컨퍼런스에서 ‘MI300X’라는 이름의 최첨단 AI 그래픽처리장치(GPU)를 공개했다. MI300X는 워크스테이션(Workstation, 고성능 컴퓨터 시스템)에 활용하는 칩으로 생성형 AI의 기반인 GPT나 LLaMA 같은 거대언어모델(Large Language Model, LLM)을 구성할 때 쓰인다. 워크스테이션용 GPU 시장은 엔비디아가 A100과 H100을 앞세워 시장 점유율 80% 이상을 차지한 것으로 알려졌다. 리사 수 AMD CEO는 새로운 GPU를 공개하며 “LLM의 중심에는 GPU가 있고, GPU는 생성형 AI를 가능하게 한다”며 “MI300X는 엔비디아의 H100보다 2.4배 많은 메모리와 1.6배 이상의 대역폭을 지녔다”고 말했다. AMD의 MI300X는 차세대 CDNA 3 아키텍처를 기반으로 192GB HBM3 메모리