시장조사업체 트렌드포스는 1일 AI 가속기 칩 수요가 증가하고, 업체들이 자체 칩을 개발하는 추세에 따라 2024년 새로운 HBM3·HBM3e이 시장의 주류가 될 것이라 주장했다. 엔비디아의 거세진 입김을 피하기 위해 최근 업계는 자체 AI 칩 개발에 몰두하고 있다. AI 가속기 칩에 대한 수요가 진화함에 따라 HBM3 및 HBM3e의 성장이 예측된다.
엔비디아 독점 대응…CSP社 자체 AI칩 개발 활발
SK하이닉스 현존 최고 용량 24GB HBM3 하반기 공급
2025년 출시예정 HBM3e 엔비디아 GB100 탑재 전망
AI 시장이 과열되는 가운데, 고대역폭 메모리(HBM, High Bandwidth Memory)가 2024년 메모리 반도체 시장을 장악할 것으로 전망된다.
시장조사업체 트렌드포스는 1일 AI 가속기 칩 수요가 증가하고, 업체들이 자체 칩을 개발하는 추세에 따라 2024년 새로운 HBM3·HBM3e이 시장의 주류가 될 것이라 주장했다.
최근 인공지능(AI)의 빠른 처리 속도를 위해 그래픽 처리 장치(GPU)를 비롯한 TPU, FPGA 등 AI 가속기 칩 시장이 비약적으로 발전했다. 특히 엔비디아는 챗GPT의 등장을 발판 삼아 A100·A800 등과 함께 CUDA SW 플랫폼을 배포함으로써 2023년 시장 점유율을 폭발적으로 늘렸다.
엔비디아는 지난 5월에는 데이터센터용 슈퍼컴퓨터 시스템인 ‘DGX H100’을 출시하기도 했다. DGX H100은 8개의 'H100' GPU를 탑재하고 '엔비디아 NVLink'를 통해 하나로 연결한 슈퍼컴퓨팅으로, 이전보다 6배 높은 정밀도와 32FP의 AI 성능을 제공하며, 전력효율도 A100에 비해 2배 향상됐다.
점차 고성능을 지원하는 엔비디아의 GPU의 가격은 날로 뛰었다. 단위당 2만불에 달하는 비용으로 책정돼 AI 서버에 필요한 비용이 크게 증가했다. 업계 관계자는 “엔비디아는 AI 자체 서버도 직접 판매하고 싶어한다. 국내 AI 칩 개발 기술력은 아직 부족하다”며 엔비디아 AI 칩 의존도에 대한 우려를 표하기도 했다.
이에 따라 엔비디아의 거세진 입김을 피하기 위해 최근 업계는 자체 AI 칩 개발에 몰두하고 있다. 이미 애플은 2020년 자체 개발 'M1', 테슬라는 2021년 자율주행 학습용 칩 'D1'을 선보여 자사 소프트웨어의 AI 가속화에 활용했다. 인텔, IBM 등도 자체 AI 가속기를 내놓고 있다.
CSP(Cloud Service Providers)는 지속적으로 엔비디아 및 AMD의 서버 GPU를 소싱하는 동시에 자체 AI 가속기 칩을 개발하고 있다. 구글은 Google TPU(Tensor Processing Unit), 구글은 '트레이니엄(Trainium)'으로 '인퍼렌시아(Inferentia)' 칩을 구축한 바 있다.
또한 북미와 중국의 다른 CSP들도 관련 검증을 진행하고 있어 향후 AI 가속기 칩 시장의 경쟁이 급증할 것으로 예측된다.
■ HBM, 메모리반도체 시장 장악 전망
AI 가속기 칩에 대한 수요가 진화함에 따라 HBM3 및 HBM3e의 성장이 예측된다. 고성능 메모리 반도체인 HBM은 여러 개의 D램을 수직으로 연결해 기존 D램보다 데이터 처리 속도를 혁신적으로 끌어올린 제품이다.
HBM은 AI 가속기 칩이 AI 알고리즘이 빠르게 데이터에 접근하기 위해 고대역폭을 제공한다. HBM은 기존의 DDR5보다 데이터 전송 속도가 빠르고 효율적인 메모리 저장이 가능하다.
국내에는 삼성전자와 SK하이닉스가 HBM 시장의 양대 산맥을 차지하고 있다. 트렌드포스에 따르면 지난해 글로벌 HBM 시장 점유율은 SK하이닉스가 50%, 삼성전자(40%), 마이크론(10%)으로 나타났다.
SK하이닉스와 삼성전자는 엔비디아의 H100·H800 및 AMD의 MI300 시리즈 제품에 사용되는 HBM3을 우선하며, 2024년 1분기에 HBM3e를 본격 양산한다. 마이크론은 HBM3를 건너뛰고 HBM3e를 직접 개발하기로 결정했다.
HBM3e이 2025년 출시 예정인 엔비디아의 GB100에 포함될 것으로 예상됨에 따라 제조업체들은 2024년 1분기에 HBM3e 출시 및 2024년 하반기까지 대량 생산을 목표할 것으로 예측된다.
SK하이닉스는 지난 4월 D램 단품 칩 12개를 수직 적층해 기존 16GB에서 현존 최고 용량인 24GB를 구현한 HBM3 신제품을 개발한 바 있다. 관계자는 “하반기부터 시장에 신제품을 공급할 수 있을 것”이라고 전했다.
SK하이닉스의 지난 26일 실적 발표에 따르면, DDR4 등 일반 D램 가격 하락과 일반 서버 제품의 수요 감소로 적자를 기록했지만 HBM3와 DDR5은 2분기 매출은 1분기比 44% 증가한 것으로 나타났다.
삼성전자는 자사의 HBM 제품을 1세대 HBM2 '플레어볼트(Flarebolt)', 2018년 HBM2 '아쿠아볼트(Aquabolt)', 2020년 3세대 HBM2E '플래시볼트(Flashbolt)'라는 브랜드 이름으로 출시해 공급하고 있다.
업계에 따르면, 삼성전자는 이미 주요 고객사들에게 HBM2 및 HBM2E 제품을 공급했고, HBM3 16GB와 12단 24GB 제품도 샘플 출하 중으로 양산 준비를 완료한 것으로 나타났다.
AI 가속기 칩 개발 및 수요가 증가하는 가운데, 차세대 메모리 반도체 시장을 이끌 새로운 성장동력으로 HBM 시장은 2025년까지 연평균 45% 성장할 것으로 전망된다.