XM官网首页

AI推理狂潮席卷全球 “英伟达挑战者”Cerebras来势汹汹! 估值狂飙170%至220亿美元

XM
Cerebras Systems计划进行10亿美元新融资 ,挑战英伟达AI芯片市场主导地位

人工智能芯片供应商Cerebras Systems Inc.正在商讨进行一轮大约10亿美元的新融资,以支持其与英伟达(NVDA.US)之间的长期竞争态势,并力争提升AI算力集群的性价比与能效比。这一轮融资将在投资前将Cerebras Systems的估值定在220亿美元 ,较去年9月的估值大幅扩张170% 。

Cerebras Systems正积极寻求挑战英伟达在人工智能芯片领域高达90%的市场份额。首席执行官安德鲁·费尔德曼(Andrew Feldman)表示 ,其公司算力硬件运行人工智能大模型的实际效率是英伟达系统的数倍。Cerebras Systems不仅提供实体算力集群,还向Meta Platforms Inc.、IBM以及Mistral AI等大型客户提供远程人工智能计算服务 。

Cerebras Systems的晶圆级引擎技术

Cerebras Systems采用“晶圆级引擎”(Wafer‑Scale Engine, WSE)架构,将整个AI模型放在单个超大芯片上 ,极大提升了推理性能和内存带宽,在单位推理量上实现更高的能效比 。这种技术路线与英伟达AI GPU算力体系以及谷歌TPU(AI ASIC技术路线)都截然不同,避免了GPU集群之间的数据拆分和高速通信开销这一重大瓶颈。

性能对比 Cerebras CS-3 英伟达Blackwell架构AI GPU Llama 3 70B 推理任务速度 快约21倍 - 总体成本和能耗 更低 -

Cerebras Systems的WSE基架构在性价比与能效比上显示出相较于英伟达GPU算力集群的显著优势 ,尤其在处理大型语言模型推理任务时。

AI推理市场的增长趋势

随着AI推理算力体系成为全球科技企业长期现金成本中心,客户们更愿意在云上选择更划算更具性价比的AI ASIC加速器 。谷歌最新的TPU v7 (Ironwood)展现出了惊人的代际跨越,TPU v7的BF16算力高达4614 TFLOPS ,而上一代TPU v5p仅为459 TFLOPS。

TPU代际性能对比 TPU v7 (Ironwood) TPU v5p BF16算力 4614 TFLOPS 459 TFLOPS

英伟达通过Groq拿到推理芯片思路与顶尖人才 、并通过AI21补软件与模型侧能力,属于典型的“硬件技术路线多元化 + AI应用生态端到端绑定 ”防守/反击。