
주요동향
주요동향
고대역폭메모리(HBM), 국내 선도 기업 간 경쟁 주목 원문보기 1
- 국가 한국
- 생성기관 블로터
- 주제분류 핵심R&D분야
- 원문발표일 2023-07-12
- 등록일 2023-08-25
- 권호 245
□ 국내외 기업의 챗GPT 경쟁이 가속화되면서 이를 구현하기 위한 AI 반도체 시장 기대감도 동반 상승
ㅇ GPT 등 생성형 AI 시장의 개화로 고성능 메모리 제품에 대한 수요가 늘어나며 향후 CPU, GPU와 짝을 이루어 서버 성능을 비약적으로 끌어올릴 수 있는 HBM(High Band width Memory) 수요가 빠르게 증가 예상
- HBM은 D램을 실리콘관통전극(TSV) 기술을 적용해 집적회로(다이)를 적층시키는 방식으로 기존 D램보다 더 많은 데이터 전송 통로(I/O)를 확보해 한 번에 많은 양의 데이터 전송 가능
- 그동안 HBM은 고성능 컴퓨팅(HPC)이나 GPU 기반 딥러닝(심층학습) 기기 등에 데이터의 고속 처리를 위해 주로 도입하였으며, HBM은 세대가 바뀔 때마다 처리 속도가 향상되면서 인공지능용 그래픽처리장치에 탑재
※ SK하이닉스와 글로벌 시스템반도체 설계 회사 AMD가 협력해 만든 HBM 1세대 제품은 핀(Pin)당 1Gbps에서 2022년 출시한 4세대 HBM3에 이르러서는 6.4Gbps로 향상. 이는 초당 819GB(기가바이트)의 데이터를 처리할 수 있는 것으로 풀HD 영화 163편을 단 1초에 전송 가능
ㅇ 기존 D램 가격보다 3~5배 이상 비싸 수요가 적은 HBM의 높은 가격과 AI나 데이터센터 등에 적용되고 있고, 아직은 보조적인 수단에 머무는 HBM의 확장성을 통해 시장 증가 예상
□ AI 시대의 필수재인 ‘HBM’ 10개 중 9개는 SK하이닉스・삼성전자
ㅇ (SK하이닉스) 업계 최초로 개발(’21.10월)한 4세대 HBM 제품인 ‘HBM3’를 2022년 6월에 양산하여 엔비디아에 공급
※ 엔비디아는 GTC 2022(GPU Technology Conference, ’22.9) 기조연설에서 H100 Hopper GPU 및 DGX H100 시스템에 HBM3 채택을 공식 발표
- 또한, HBM3 보다 성능과 용량을 업그레이드한 5세대 HBM ‘HBM3E’(8Gbps 데이터 전송률)를 2024년 상반기에 양산 계획
ㅇ (삼성전자) 최고 6.4Gbps의 성능과 초저전력을 기반으로 하는 HBM3 16GB와 12단 24GB 제품 샘플을 출하하며 양산 준비(’23년)
- 올해 하반기에 시장이 요구하는 더 높은 성능과 용량의 차세대 HBM3P(PLUS) 제품 출시 예정
- HBM3에 연산기능을 통합한 HBM3-PIM을 올해 하반기 출시 예정
□ 글로벌 HBM 시장은 올해 20억 4,186만 달러에서 2028년 63억 2,150만 달러에 이르며 동 기간 25.36%의 CAGR을 기록할 것으로 예측(mordor intelligence)
ㅇ 현재 HBM 시장은 SK하이닉스-AMD가 최초로 HBM을 개발한 이후, HBM3 독점 양산 등 선두를 유지하면서, 삼성전자도 빠르게 추격
- 4세대 제품인 HBM3를 독점 양산하는 SK하이닉스가 선두를 지키며 5세대 제품개발을 추진하고 있는 가운데 삼성전자는 올 하반기 HBM3 하반기 양산 예정
- 2015년에는 삼성전자가 2세대 HBM인 HBM2 개발에 성공하면서 시장 점유율을 압도적으로 가져갔지만, 당시 SK하이닉스가 발 빠르게 3세대(HBM2E)와 4세대(HBM3) 개발에 집중하면서, 주도권을 다시 확보하는 등 양사의 경쟁 치열
ㅇ SK하이닉스, 삼성전자의 고부가 제품으로 시장점유율은 각각 50%, 40% 수준이며, 마이크론이 10% 수준으로 집계(트렌드포스)
※ 엔비디아 A100 등에 대한 ’25년 AI 시장수요는 최소 14만 5600개에서 23만 3700개로 전망(트렌드포스)