생성형 AI 붐이 전 세계 반도체 산업의 수요 구조를 바꿔 놓았다. 그 중심에 GPU와 AI 가속기가 있고, 그 가속기의 성능을 결정하는 가장 중요한 요소 중 하나가 HBM(High Bandwidth Memory)이다. 그리고 이 HBM 시장에서 한국의 SK하이닉스는 사실상 독주하는 위치를 차지하고 있다.
본 기사에서는 SK하이닉스가 HBM3E 시장에서 어떻게 우위를 확보했는지, 그 기술적 배경과 공급망 전략을 분석한다.
HBM이 왜 중요한가
AI 모델이 추론・학습을 수행할 때, GPU는 막대한 양의 데이터를 메모리와 주고받아야 한다. 모델 파라미터, KV 캐시, 활성화 값 등이 모두 메모리에 올라가야 하므로, 메모리 대역폭(bandwidth)이 성능의 병목이 되는 경우가 많다. HBM은 이 병목을 해소하기 위한 특수 메모리다.
HBM 구조의 핵심
- 적층
- DRAM 다이를 TSV(Through-Silicon Via)로 수직 적층
- 패키징
- 로직 칩(GPU 등)과 인터포저 위에 함께 올림
- 대역폭
- HBM3E: 스택당 1.2TB/s 이상
- 주 용도
- AI 가속기, HPC, 고성능 서버
HBM은 일반 DRAM과 달리 극히 복잡한 후공정(Back-End of Line)과 고도의 설계 기술을 요구한다. 수율 확보가 어렵고, 대량 양산이 제한되기 때문에 실질적으로 양산 가능한 기업이 매우 제한적이다.
SK하이닉스의 선제적 투자
SK하이닉스가 HBM 시장에서 앞서 나가게 된 결정적 계기는 수년 전으로 거슬러 올라간다. 삼성이 범용 DRAM과 서버용 시장에 더 큰 자원을 투입하는 동안, SK하이닉스는 상대적으로 틈새 시장으로 보이던 HBM에 집중적인 R&D와 양산 투자를 이어갔다.
특히 엔비디아와의 긴밀한 협업을 통해 HBM3, HBM3E 세대에서 다른 경쟁사보다 먼저 양산 제품을 공급할 수 있었고, 이는 AI 가속기 수요가 폭발한 2023~2024년 이후 SK하이닉스에 압도적 선점 효과를 가져왔다.
HBM3E의 기술적 특징
HBM3E는 기존 HBM3 대비 대역폭과 용량이 모두 향상된 세대다. 스택당 1.2TB/s 이상의 대역폭, 36GB 이상의 고용량 구성이 가능하며, 전력 효율 역시 개선되었다.
특히 SK하이닉스는 12단 적층(12-Hi) HBM3E를 선제적으로 상용화했다. 더 많은 다이를 같은 패키지 높이에 쌓아 올리려면 다이 자체의 박화, 본딩 정밀도, 열 관리 등 여러 기술이 맞물려야 한다.
주요 고객사와 공급 계약
HBM3E의 가장 큰 고객은 엔비디아다. H100의 후속인 H200, B100, B200 시리즈에 SK하이닉스 HBM3E가 대량으로 탑재되고 있으며, 계약은 수년 단위로 선 확보된 상태다. 이는 AI 인프라 투자가 단기 수요가 아니라 중장기 구조적 변화라는 판단에 기반한다.
또한 AMD의 MI300 시리즈, 구글 TPU, 아마존 트레이니엄 등 주요 AI 가속기들도 HBM을 핵심 부품으로 사용하고 있으며, SK하이닉스는 이들 기업에도 공급 논의를 진행하고 있는 것으로 알려져 있다.
삼성과 마이크론의 추격
삼성전자와 마이크론도 HBM3E 양산에 적극적으로 나서고 있다. 특히 삼성은 자체 메모리 사업의 주력 제품을 HBM 중심으로 재편하고 있으며, 엔비디아 납품 인증을 위한 품질 검증을 진행해 왔다.
마이크론 역시 HBM 시장에서의 지분 확대를 목표로 하고 있으나, 아직 상위 AI 가속기 주요 채택 사례는 SK하이닉스와 삼성 대비 제한적이다.
공급망과 패키징 파트너십
HBM은 메모리만으로 완결되지 않는다. 최종적으로 AI 가속기에 탑재되려면 로직 칩과의 2.5D 패키징이 필요하며, 이 공정은 TSMC의 CoWoS가 사실상 표준이다. 따라서 SK하이닉스의 HBM도 TSMC의 패키징 캐파에 영향을 받는다.
한편 SK하이닉스는 자체적으로도 어드밴스드 패키징 역량을 확대하고 있으며, TSMC 외의 파트너 다변화 시도도 진행 중이다. 이 같은 공급망 구도는 한국 반도체의 전략적 위치와도 직결되어 있는데, 관련 내용은 한국 반도체 산업의 지정학적 과제에서 자세히 다룬다.
HBM 수요 전망
HBM 수요는 AI 가속기 물량에 직결된다. 대형 클라우드 사업자(하이퍼스케일러)들이 AI 인프라 투자를 공격적으로 늘리고 있고, 온디바이스 AI로도 확장되는 흐름이 있다. 관련해 갤럭시 S26의 온디바이스 AI 확대 움직임도 메모리 대역폭 요구를 증가시키는 간접 요인이 된다.
차세대 HBM: HBM4와 이후
HBM4는 기존 세대 대비 입출력(I/O) 수가 2배로 늘고, 로직 다이(Base Die)의 역할이 더 커지는 구조로 설계되고 있다. 이는 메모리 기업과 로직・파운드리 기업 간의 협업이 HBM 설계의 핵심이 되는 구조적 변화를 의미한다.
SK하이닉스는 TSMC와의 파트너십을 통해 HBM4의 베이스 다이를 공동 개발하는 방향으로 협업 범위를 확대하고 있다. 이 전략이 성공한다면, 메모리와 로직 사이의 경계가 더 흐려지는 가운데 SK하이닉스는 메모리 제조사 이상의 포지션을 확보할 수 있다.
정리: 한 분야의 압도적 선두
SK하이닉스의 HBM 선도 지위는 집중 투자 + 핵심 고객과의 파트너십 + 실행력의 조합이 만들어 낸 결과다. DRAM 전반에서 삼성이 오랫동안 1위를 유지하는 것과 달리, HBM이라는 특정 세그먼트에서는 SK하이닉스가 명확한 선두를 차지한 구도다.
AI 시장이 조정기를 맞을지, 아니면 또 한 번의 팽창을 맞을지에 따라 HBM 수요 그림도 달라지겠지만, 현재 축적된 기술적・계약적 우위는 단기간에 쉽게 뒤집히기 어려워 보인다. 한국 반도체 산업에서 메모리 분야의 전략적 핵심 자산으로서 HBM의 위치는 당분간 확고할 것이다.