像DRAM这样长期受周期性趋势影响的存储芯片,现在正瞄准一个更稳定的市场: 人工智能(AI) ,如全球第二大存储芯片供应商SK海力士。三星电子CFO Kim Woo-hyun表示:“三星将通过引领变革和提供定制化解决方案,成长为全面的人工智能存储器供应商。”
三星电子已经成功地将其高带宽内存(HBM)设备与英伟达的 H100 GPU 等配对,用于处理生成式AI中的大量数据。像ChatGPT这样的大型语言模型(LLM)越来越需要高性能内存芯片,以使生成式AI模型能够存储过去对话的细节和用户偏好,从而生成类似人类的响应。
事实上,AI公司都在抱怨无法获得足够的存储芯片。OpenAI CEO Sam Altman最近访问了韩国,在那里会见了世界最大的存储芯片供应商SK海力士和三星的高管,其次是美国的美光公司。OpenAI的ChatGPT技术在刺激对运行AI应用程序的处理器和内存芯片的需求方面至关重要。
SK海力士的HBM优势 #
SK海力士在人工智能领域的幸运突破是在2015年推出首款HBM设备,超越三星,并在为游戏卡等高速计算应用提供GPU服务方面取得了巨大的领先优势。HBM垂直互连多个DRAM芯片,与早期的DRAM产品相比,显著提高了数据处理速度。
因此,这些存储设备被广泛用于高性能计算系统上的生成式AI设备,这并不奇怪。例如,SK海力士的HBM3芯片销售额在2023年同比增长了5倍以上。《数字时报》的一篇报道称,英伟达已经向SK海力士和美光支付了5.4亿至7.7亿美元的预付款,以确保为其GPU产品提供HBM存储芯片。
SK海力士计划在批量生产新一代HBM3E的同时,开发下一代HBM4存储芯片。据韩国媒体报道,英伟达计划将其H200和B100 GPU分别与6个和8个HBM3E模块配对。与HBM3相比,HBM3E显著提高了速度,每秒可以处理高达1.15TB的数据。
三星电子将HBM3E称为AI内存产品,并声称在该领域处于技术领先地位。虽然三星和美光都已经准备好了他们的HBM3E设备,并且正在英伟达等AI巨头的认证过程中,但SK海力士似乎比其内存竞争对手领先一步。以SK海力士目前正在开发的HBM4为例,预计将于2025年面市。
特别值得注意的是,HBM4能够直接将内存堆栈到处理器上,完全消除了中间层。目前,HBM堆栈在CPU或GPU旁边集成了8、12或16个存储设备,这些存储设备通过接口连接到这些处理器。将内存直接集成到处理器上将改变芯片的设计和制造方式。
一家AI存储公司 #
行业分析师还认为,SK海力士是以AI为中心的内存升级周期的主要受益者,因为它是一家纯粹的内存公司,与其主要竞争对手三星不同。值得注意的是,三星也在大力投资AI研发,以加强其内存产品。
AI确实需要大量内存,拥有前两大内存供应商的韩国渴望成为AI强国也就不足为奇了。就SK海力士而言,它已经证明了自己在AI服务器设计和设备上的重要性。
在美国拉斯维加斯举行的国际消费电子展(CES 2024)上,三星电子CEO在谈到内存在生成式AI中的关键作用时,誓言要在三年内将公司市值翻一番。这就是为什么它现在寻求成为一家全面的AI内存提供商,同时寻求通过高价值的HBM产品实现快速周转。