在人工智能(AI)技术飞速发展的浪潮下,高端内存芯片市场正面临前所未有的挑战。从最新行业分析报告中获悉,由于AI热潮的持续升温,高端内存芯片供应紧张问题愈发凸显,预计2024年整体内存供应将保持紧张状态。
据分析师预测,高性能内存芯片,尤其是用于训练大型语言模型(LLM)的关键部件,如OpenAI的ChatGPT所使用的那种,正面临供不应求的困境。全球两大内存芯片供应商SK Hynix和Micron均表示,他们的高带宽内存(HBM)芯片库存已售罄,甚至2025年的生产计划也已接近满额。
晨星的股权研究主管Kazunori Ito在上周的报告中指出:“我们预计整体内存供应在2024年将保持紧张状态。” 这一预测无疑给正在积极拥抱AI技术的各大科技公司和初创企业敲响了警钟。
AI芯片的需求激增是推动高端内存芯片市场增长的主要动力。这些高性能内存芯片在训练大型语言模型等复杂任务中发挥着至关重要的作用。例如,ChatGPT等先进的AI模型需要借助这些芯片来存储与用户之前的对话和偏好的详细信息,以便生成更为精准和人性化的回答。
然而,随着需求的不断增长,高端内存芯片的供应却面临着巨大的挑战。纳斯达克IR智库的主管William Bailey表示:“这些芯片的制造过程相对复杂,扩大生产规模一直是个难题。这可能导致2024年剩余时间和2025年大部分时间内的供应短缺。”
市场情报公司TrendForce在三月份发布的报告中也指出,HBM的生产周期比个人电脑和服务器常见的DDR5内存芯片长1.5到2个月。这意味着即使厂商计划扩大产能,也无法在短时间内缓解供应紧张的局面。
为了应对这一挑战,各大内存芯片制造商纷纷加大投资力度,扩大生产能力。SK Hynix计划通过在美国印第安纳州的先进封装设施以及韩国的Cheongju和Yongin的半导体集群进行投资,以提高其高端内存芯片的产能。而三星则在四月份的季度财报电话会议上表示,其2024年的HBM位供应将较去年增加三倍以上。
大型科技公司如微软、亚马逊和谷歌等也在积极投入数十亿美元来培训自己的LLM以保持竞争力。这些公司在AI基础设施方面的投资不断加大,对AI芯片的需求也持续增长。《芯片战争》一书的作者Chris Miller表示:“AI芯片的大买家,如Meta和微软,已经表示计划不断投入资源来构建AI基础设施。这意味着他们将大量购买AI芯片,包括HBM,至少到2024年。”
AI旋风认为,随着AI技术的不断发展和应用场景的不断拓展,高端内存芯片市场将继续保持高速增长态势。然而,如何在保证产品质量和性能的同时扩大生产规模、缓解供应紧张的局面,将是各大内存芯片制造商需要面对的重要挑战。同时,对于正在积极拥抱AI技术的各大科技公司和初创企业而言,如何合理规划AI基础设施的建设和运营、降低对高端内存芯片的依赖程度、提高AI应用的效率和稳定性等问题也将成为他们需要思考和解决的重要课题。