Google AI压缩技术引发市况反转? 两岸存储器业界:大缺货潮恐延续更久 智能应用 影音
231
DFORUM
Event

Google AI压缩技术引发市况反转? 两岸存储器业界:大缺货潮恐延续更久

  • 韩青秀深圳

Play Icon AI语音摘要 00:53

CFMS/MemoryS 2026登场,现场参加人数爆满,看好存储产业需求指数型成长。韩青秀摄
CFMS/MemoryS 2026登场,现场参加人数爆满,看好存储产业需求指数型成长。韩青秀摄

AI爆发,存储器市场进入「缺货、涨价、抢产能」局面。据估计,2026年服务器存储器需求将年增将超过40%,占整体存储应用比重超过50%,近日Google发表最新AI压缩技术,引发市场担忧存储器需求反转疑虑。

尽管如此,台湾、中国存储器相关业界,多认为无须担忧,群联电子CEO潘健成直言,NAND Flash大缺货将会延续更久。

大普微董事长杨亚非认为,AI推理数据呈现指数级成长,国际大厂技术创新可能带来局部缺货缓解,但降低存储器的建置成本,反而将刺激更大应用需求;阿里云的千问大模型高级产品方案架构师李彬也表示,压缩存储器可能减少消耗,但大模型上下文推理的规模,仍飞速发展,对于整体存储需求也快速成长。
 
长江存储固态硬盘(SSD)事业部负责人谭弘则表示,AI上半场主要集中于训练,如同修炼内功,通过大数据来为系统打基础;但真正让AI发挥作用关键在于推理侧,AI推理犹如招式,在多样化应用中犹如「拳、掌、腿」各种训练,将使用各种场景,让终端达到最大价值。

他认为,AI革命不仅存在于算力,大模型核心瓶颈在存储,需要更大容量、更高性能的企业级SSD来支持巨量token吞吐。

近期业界关注Google发表最新AI压缩技术「TurboQuant演算法」,宣称存储器数量只需原本6分之1, GPU系统进行推理时,可将KV Cache数据进行压缩,就能运作大型语言模型(LLM)技术,潘健成直指,外界认为「未来主机不需要用太多SSD」的观点,绝对是错误的。

假如压缩技术不存在,主机需采用大量DRAM跟SSD,不仅成本贵、产业供给数量明显不足,但未来如果主机的建置成本下降,出货台数将大幅增加。

潘健成举例,如果汽车引擎成本要100万美元,全世界路上跑的汽车也不会太多,但引擎变成2,000美元,汽车将会满路跑。因此未来主机出货台数快速增加,token也将大幅增加,这意味NAND Flash大缺货会更久。

潘健成表示,NAND Flash从1月到3月的价格几乎翻倍,近期原厂直接提出调涨50%,过了一个月后,又说下个月再涨25%,虽然各家存储器模块厂手上握有低价库存,营运获利大幅成长,一旦库存用完,进入买贵、卖贵的时候将面临更大压力。

这意味着,存储器供应链不能只靠卖价差,更需要投资技术、创造价值,2025年群联整体研发投资费用大概4.4亿美元,2026年估计7亿~8亿美元。

China Flash Market总经理邰炜表示,AI让存储及存储器进入「史诗级」超级周期,彻底改写产业结构,存储已从一个BOM表的成本,变成AI竞赛的战略资源。不过在经历2025年第4季~2026年第2季价格大幅上涨后,预计从第3季开始,NAND价格涨幅开始趋于稳定。

邰炜进一步指出,AI对存储需求将与日俱增,由于大模型进行推理时,需要把每一层、每个token的Key Value结果存起来,以避免重复计算,有效减少推理的时间。

但现在大模型正从短上下文,演变成长上下文,加上推理需求愈来愈多,KV快取的占用存储空间,也会随着token数量呈线性暴涨。

据估计,上下文从4K token涨到 128K token,token KV快取的存储空间将会直接涨32倍,如果再遇到100个连带询问的请求,KV快取的需求就会达到TB级别,因此高带宽存储器(HBM)是完全无法承载,这让KV快取的需求大规模向NVMe SSD 转移,并针对AI推理工作负载进行优化。

另一方面,近线(NL)HDD产能缺口庞大,QLC NAND的替代需求不断上升,各种因素让服务器存储需求爆发式成长,但产能却远远跟不上,因此存储短缺将成常态。

邰炜认为,虽然NAND原厂开始增加新一波资本开支及扩产,但产能扩张的周期长达18~24个月,最早也要等到2027年,才有新产能释放。

但就算是新增产能释出,依然没法完全满足市场的需求,因此存储供应短缺的问题,短期内将很难缓解。

责任编辑:何致中