엔비디아·AMD, 신규 AI 가속기 발표
삼성, 내년까지 HBM4 개발 완료 목표
[미디어펜=김견희 기자]SK하이닉스·삼성전자 등 고대역폭메모리(HBM) 공급사 간 경쟁이 격화하고 있다. 인공지능(AI) 칩 업계의 쌍두마차인 엔비디아와 AMD가 나란히 신제품을 발표하면서 먼저 승기를 잡은 SK하이닉스와 이를 추월하려는 삼성전자의 경쟁이 치열해질 전망이다.

   
▲ 엔비디아와 AMD가 나란히 신제품을 발표하면서 SK하이닉스와 이를 추월하려는 삼성전자의 경쟁이 치열해질 전망이다. 사진은 삼성전자 반도체 생산라인. /사진=삼성전자 제공


4일 업계에 따르면 전날 엔비디아와 AMD는 대만 타이베이에서 열린 '컴퓨텍스 2024'에서 나란히 새로운 AI 가속기 출시 계획을 발표했다.

엔비디아는 2026년 차세대 그래픽처리장치(GPU) 아키텍처인 '루빈'을 양산할 계획이라고 밝혔다. 또 2027년에는 루빈의 울트라 버전도 내놓겠다는 계획을 발표하면서 경쟁사들과 격차를 벌이는 모습을 보였다. 

GPU 아키텍처는 계산 단위와 메모리 등을 효율적으로 배치한 일종의 설계도다. 엔비디아는 루빈 GPU에 HBM4 8개, 루빈 울트라 GPU에 HBM4 12개를 탑재할 예정이다. 

HBM은 D램 여러 개를 쌓아 데이터 전송 속도를 끌어올린 제품이다. 적층 난도에 따라 1세대(HBM)·2세대(HBM2)·3세대(HBM2E)·4세대(HBM3)·5세대(HBM3E)로 나뉜다. AI 반도체는 빠른 연산을 담당하는 GPU와 대용량·초고속 데이터 저장·전송을 담당하는 HBM을 한 세트로 묶은 제품을 말한다.

엔비디아의 대항마인 AMD도 AI 가속기 시장 공략을 위해 최신형 GPU 아키텍처 '인스팅트 MI325X'를 연내 출시할 계획이라고 발표했다. 이 칩은 첨단 데이터센터부터 노트북까지 대부분의 기기에 탑재할 수 있다. MI325X에는 업계 최고 용량인 288Gb의 HBM3E가 탑재된다.

이렇듯 AI 반도체 시장이 개화하고 있는 만큼 SK하이닉스는 주도권 굳히기에 나섰다. 이 회사는 최근 열린 국제메모리워크숍(IMW 2024)에서 7세대 제품인 HBM4E를 당초 계획한 2027년보다 1년 앞당긴 2026년까지 양산하겠다는 계획을 발표했다.

삼성전자는 최근 반도체 수장을 교체하면서 주도권을 확보하겠다는 의지를 내비쳤다. 주도권 경쟁에서 힘을 발휘해야 할 시점이라고 판단한 것이다. 삼성전자는 우선 엔비디아 최종 승인을 위해 HBM3와 HBM3E 제품 전력 효율 개선에 집중할 방침이다. 또 내년까지 HBM4 개발을 마친다는 계획이다. 

현재 SK하이닉스가 엔비디아 HBM 공급을 주도하고 있지만, 앞으로 나올 차세대 제품에서는 우위가 달라질 수도 있다는 업계의 평가도 나온다. 이정배 삼성전자 메모리사업부장(사장)은 지난달 31일 열린 삼성 호암상 시상식에서 "하반기를 기대해달라"고 언급한 바 있다.

[미디어펜=김견희 기자] ▶다른기사보기