2024년은 HBM의 해?

1
믹후차단
작성: 2024.01.22 12:32
엔비디아 CEO 젠슨 황이 다시 대만을 방문, 2분기와 하반기에 H200 및 B100 양산을 확보했다는 루머

2024년은 AI가 도약하는 해 미국 4대 CSP(클라우드 서비스 제공업체)가 연구개발 규모를 확대할 예정이다.국내 금융지주사 산하 투자컨설팅 연구기관 통계에 따르면 전체 자본금은 2024년 지출은 300억~350억 달러에 이를 것으로 추산된다. 생산량 기준으로 보면, 2024년 글로벌 AI 서버 출하량은 Huida 서버 약 400,000대, AMD 서버 약 47,000대, Huawei 서버 약 3,000대 등 약 450,000대 수준으로 추산됩니다.

업계에 따르면 H200, B100 외에 휴이다의 AI 슈퍼컴퓨터 시스템인 DGX GH200, GB200도 올해 출시될 예정으로, 올해 AI 칩 출하량은 120만~150만개에 이를 것으로 추산된다.

TSMC의 Cowos 생산능력에 대한 수요, AI의 미래가 될 것으로 예상, 연평균 성장률이 수년 만에 50%를 넘었다. 또한, TSMC의 AI 관련 칩 제조 공정은 올해부터 4~5나노미터에서 3나노미터로 도약해 칩 컴퓨팅 성능을 높이고 에너지 소비를 줄여 첨단 공정의 용량 활용도를 크게 높일 예정이다.

현재는 Apple, Huida, Advanced Micro Devices, Qualcomm, MediaTek 외에도 N3E 공정을 사용할 것으로 예상되며, TSMC의 3nm Capa 가동률은 연말 이전에 80% 이상으로 오를 것으로 추정됩니다. 5nm 장비로 전환할 예정이며, 강력한 시장 수요에 대응해 3nm 생산 능력을 보유하고 있습니다.

또한, Huida 내부에서는 HBM3e 고대역폭 메모리 사양을 제공하는 최초의 GPU인 H200 시스템이 이르면 올해 2분기에 출시될 것으로 예상하고 있습니다. Quanta의 자회사인 Werder는 Huida의 장기 파트너이며 새로운 H200 제품을 판매하는 첫 번째 회사가 되었습니다. 이 밖에도 메모리 제조사인 윈본드, 이트론, 징하오케, 애플 등이 HBM 사업 기회를 서두르고 있고, 기가바이트, 콴타, 위스트론, 와이윙 등도 H200 수주에 뛰어들고 있어 모두 수혜가 예상된다.

AWS가 하반기 선보인 B100 프로젝트도 활발히 진행되고 있으며, AI 성능은 호퍼 아키텍처 'H200' GPU보다 2배 이상 향상될 예정이다. 시장에서는 Huida가 3nm 공정을 사용하여 제품 제조를 TSMC에 맡길 것으로 알려졌으며 첫 번째 GPU 배치는 4분기에 도착할 것으로 예상됩니다. 위스트론은 B100의 모듈 공급업체가 되며, 모듈 주문은 기판 주문과 수직계열화될 것으로 예상된다.

공급망 업계 관계자들은 현재 B100의 차세대 플랫폼 AI 서버 출하가 4분기까지 소폭 지연돼 H100/H200으로의 세대 교체 기간이 길어질 것으로 예상하고 있지만, 이는 주문에 영향을 미치지 않을 것으로 내다봤다. 올해 하반기에도 AI 서버 수요가 두 자릿수 증가할 것으로 예상되며, 전체 서버의 지속적인 확장을 이끄는 주요 원동력으로 남을 것으로 예상된다.
추천0
비추천0
신고신고
    Go to topAdd app