ai hbm 탑재량1 AI 서버 HBM 및 디램 메모리 탑재량 (ft. 디시 뿌잉님) 반도체 업황 및 산업과 관련하여 디시인사이드의 뿌잉님의 글을 검색하여 많은 도움이 되고 있습니다. 뿌잉님의 글의 내용을 읽기만 하는 것보다는 한 번 더 쓰면서 복습하고 정리해두면 도움이 많이 되어 정리해보았습니다. 뿌잉님 글 다시 쓰며 요약 (24.09.27.)마이크론이 사실상 커머디티로만 어닝 서프라이즈 낸게 의미가 큼위 표는 2023년 기준임. 2024년 기준으론 AI/HPC에 일반 디램 탑재량도 2T로 예상치 늘림. 또한 2023년 H100을 기준으로 했을 때고 H200과 블랙웰이 나오면 메모리 탑재량도 더 커질 것으로 예상됨. 즉 지금 시장에서는 HBM에만 집중하는데, AI 서버는 말 그대로 다른 메모리, 서버 RDIMM과 eSSD를 굉장히 많이 소비함. 커머디티 메모리 소비가 급증한다는 말임. .. 2024. 9. 28. 이전 1 다음