실제 엔비디아를 제외한 주요 빅테크 사이에서는 AI 칩 비용을 낮추려는 움직임이 포착되고 있다. 구글, AMD, 브로드컴 등이 내년 초 출시를 목표로 개발 중인 AI 칩에는 차세대인 HBM4(6세대)가 아닌 HBM3E 12단 메모리가 탑재될 예정인 것으로 알려졌다. 메모리 업계는 내년부터 주요 고객사들이 HBM4로 전환할 것으로 예상했지만, 높은 비용 부담 문제 등으로 HBM4 채택이 늦어진 것으로 분석된다.
엔비디아가 HBM4를 기반으로 개발 중인 차세대 AI 칩 ‘루빈’에 대한 수요 역시 당초 기대에 못 미칠 수 있다는 관측도 나온다. 실제 엔비디아는 내년도 HBM4 확보 물량과 관련해 일부 고객사와의 본계약 체결을 유보하고 있는 것으로 전해졌다.
업계에선 이런 영향에 HBM3E 8단 등 중간 제품 수요가 내년에도 이어질 수 있다는 전망이 나온다. HBM4로의 수요 전환이 지연되면 후발주자인 삼성전자는 HBM 기술 격차를 만회할 수 있는 시간적 여유를 확보하게 된다. SK하이닉스와 마이크론은 이미 엔비디아에 HBM4 샘플을 출하한 상태지만, 삼성전자는 아직 주요 제품의 퀄 테스트 단계에 머물러 있다.
https://n.news.naver.com/mnews/article/029/0002965395
답글 남기기