注册并分享邀请链接,可获得视频播放与邀请奖励。

qinbafrank (@qinbafrank) “Cerebras最新路演纪要,官方说法作为参考。 1. OpenAI交易 / 生产验证 / 收入可见性 O” — TopicDigg

qinbafrank 的个人资料封面
qinbafrank 的头像
qinbafrank
@qinbafrank
Investor in AI、Crypto、TMT,跟踪最前沿科技趋势、野生宏观政经观察、研究全球资本流动性、周期趋势投资。记录个人学习和思考,经常出错常态掉坑爬坑。Runner🏃
加入 December 2020
1.1K 正在关注    121.5K 粉丝
Cerebras最新路演纪要,官方说法作为参考。
1. OpenAI交易 / 生产验证 / 收入可见性
OpenAI已与多家企业达成硬件合作,目前仅英伟达、Cerebras将其模型投入生产运行。我方与OpenAI签有约束力“照付不议”合同,涉及750兆瓦电力,合同总金额超200亿美元,预付款10亿美元。协议分三期执行:2026、2027、2028年各部署250兆瓦。2026年250兆瓦通过Cerebras云平台交付,租赁三年,OpenAI享有第四、五年续租权;2027-2028年,OpenAI可选择买断设备或继续通过云平台接收。此外,OpenAI拥有额外1.25吉瓦容量选择权,这是硅谷史上规模最大的交易之一。财务核算及券商模型均采用最保守假设:三期容量全部通过云平台交付,收入分摊周期最长,资本支出最高。

2. 为什么 OpenAI 需要 Cerebras / 延迟作为产品问题
OpenAI通过与Cerebras合作解决该问题,这笔交易未来几年价值超200亿美元。山姆·奥特曼总结速度价值:AI响应迅速时,用户使用频次、停留时长提升,且会将其应用于更重要场景。

3. 推理 / 智能体计算爆发
当前处于推理时代,推理是通过算力生成更优答案的技术,也是AI推理计算量庞大的核心原因,这对算力速度占优的Cerebras极为有利。全球顶尖模型,包括Gemini、Claude、OpenAI GPT、中美各类模型,均采用推理技术。单次推理仅需基础算力生成答案,而思考式推理需消耗约100倍算力,通过拆解问题、分步解决、校验整合、起草审查后输出方案,答案质量更高,但耗时与算力消耗大幅增加。从推理迈向“智能体+推理”阶段,单条查询会启动多条推理流,计算量将呈指数级增长。

4. 核心速度主张 / 跨模型广度
Cerebras打造了全球最快的推理基础设施,速度比最快GPU快约15倍,该优势并非特例,覆盖美国、中国各类模型,大模型、小模型,万亿级、十亿级参数模型全场景,全场景均实现15倍速度提升。行业已普遍认可我方为全球最快解决方案,这源于我们攻克了晶圆级处理器技术,该技术曾被认为75年无法实现。我方处理器尺寸如餐盘,传统处理器仅邮票大小,芯片面积比最大GPU大58倍,内存带宽超GPU2500倍,是高速推理的核心基础。

5. 架构 / 为何晶圆级技术对推理至关重要
推理的核心逻辑是:生成下一个词,需将所有模型权重从内存传输至计算单元,逐词顺序执行。700亿参数模型属小模型,其权重数据量约等于100部高清电影,生成每个词都需传输该规模数据。演示中1000词的回答,相当于传输10万部高清电影的数据。GPU的HBM内存至计算单元传输速度约8TB/秒,Cerebras晶圆级处理器该传输速度达21000TB/秒,比GPU快2600多倍。我方采用大芯片设计,搭载高速SRAM存储器,通过扩大芯片面积,解决了SRAM存储密度低的传统短板。

6. 扩展至大规模 / 万亿参数模型
GPU面临模型规模扩容的行业难题,结合服务OpenAI及其他客户的实践,分享超大模型承载方案:针对1.1万亿参数模型,我方软件会拆分模型,分配至不同处理器,以流水线方式运行推理,可支撑全球最大规模开源、闭源模型。我方不单独销售芯片,主打销售系统及云平台使用时长。

7. 高速运行时的成本 / 功耗与GPU对比
行业常误解GPU有统一定价,GB200 NVL72在35token/秒低速下,可输出约500万token/秒,支撑数万用户同时使用,低速运行时GPU效率极高;但在270token/秒高速下,仅能支撑1名用户,成本极高。性能对比需明确运行速度,GPU低速运行时效率占优,100-150token/秒区间后,GPU成本飙升、能效骤降,我方成本与功耗仅为GPU极小部分。若将我方性能纳入英伟达性能图表,需大幅调整横轴刻度,我方性能已超出图表范围,再多GPU也无法达到我方速度,该高速区间内我方无竞争对手。

8. 毛利率 / 定价 / 成本杠杆
我方已实现满产良率,第三代产品良率优于B200,供应链成本仍有压缩空间,定价策略可进一步优化。去年营收约5亿美元,毛利率约50%,供应链投入2.5亿美元,运营效率有待提升。供应链投入规模扩大后,成本将持续改善;定价方面,过去四个月我方已提价30%,Anthropic推出速度提升2倍的服务,收费提高6倍,而我方速度比其快15倍,定价上限仍有较大探索空间。鲍勃补充:定价与成本端均有利润率提升空间,中期潜力或超预期。

9. 2026年毛利率下滑 / 产能限制是问题所在,而非产品经济性
2026年毛利率将下滑,主因是2025年下半年AI推理需求下,自有数据中心利润率偏低,导致2025年毛利率下降4个百分点,2026年将进一步下滑。随着自有数据中心产能扩张,逐步退出租赁模式,毛利率将快速反弹,回归60%出头的长期目标。当前积压订单对应的毛利率已达该长期水平,待自有数据中心产能充足,无需租赁外部产能后,毛利率将快速提升至长期目标值。

本条由@bitget_zh赞助,「Bitget 买美股:秒级入场,丝滑交易 」
显示更多
Cerebras的IPO火爆,官方考虑大幅上调IPO定价区间。看路透社报道,Cerebras正考虑将IPO定价区间从此前的每股115至125美元上调至150至160美元,涨幅高达约28%。与此同时,公司还计划将发行股数从2800万股增至3000万股。若最终以每股160美元定价,Cerebras此次IPO募资规模将达约48亿美元。 个人看Cerwbras的核心优势在于:WSE-3推理领域已建立一定优势,tokens/second 可达GPU集群的15-20倍(低延迟场景下尤其突出)。Agentic workflow、reasoning models、长上下文推理正是其优势凸显的领域。 也拿到了大客户订单,OpenAI既是其股东也是签署了长期供货协议。而AWS已将CS-3集成到Bedrock,提供混合Trainium+ Cerebras推理方案。 相当于技术和产品已经得到了验证、商业化正在落地。 这个时机也很好,现在推理正在快速拓展、市场也希望能找到新的潜在英伟达挑战者、也会给更高的定价和预期。 个人看未来的空间看WSE-4如果能成功落地,成本/性能比将进一步拉大差距,让Cerebras从“高端替代”变成“主流基础设施”。 未来如果WSE-4成功=从“推理利基冠军”跃升为“AI基础设施第二梯队核心玩家”,市场空间进一步打开。 看到两篇关于Cerebras的推文,值得细看: @LinQingV 的这篇 @roger9949 的这篇
显示更多
0
13
57
12
转发到社区