注册并分享邀请链接,可获得视频播放与邀请奖励。

Lao Bai (@Wuhuoqiu) “昨晚Cerebras没想到开盘直接冲到380,估值快要冲1000亿。只能说现在美股AI Fomo情绪有” — TopicDigg

Lao Bai 的个人资料封面
Lao Bai 的头像
Lao Bai
@Wuhuoqiu
Advisor @ambergroup_io|ex Investment - OKX_Ventures & @ABCDELabs 买美股港股,用StableStock (返20%手续费) -
加入 February 2018
695 正在关注    74.9K 粉丝
昨晚Cerebras没想到开盘直接冲到380,估值快要冲1000亿。只能说现在美股AI Fomo情绪有点吓人,这价格真的有点下不去手 就像我上一条帖所说,短期看数据和财报,这开盘的PE已经快要200,对一家高速增长的科技型企业也已经很高了 而长线则是我说的那三条推理时代平行宇宙时间线 1. 时间线一:超大模型继续统治 利好 NVIDIA,Cerebras 只能做特定场景加速。- 380刀偏贵。 2. 时间线二:30B-70B中模型成为Agent主流执行层。 Cerebras 速度、SRAM、本地推理优势被放大,进入甜区 - 380刀是OK的,但也不能算是个便宜的Alpha。 3. 时间线三:8B-14B 端侧小模型主导 手机NPU、ASIC、GPU都能跑,Cerebras优势发挥不出来,反而尴尬 - 380刀很贵。 感觉当前市场已经开始按时间线二给它定价,Price In了不少这个乐观预期,但目前根本无法证明时间线二一定会发生,我先观望下再说
显示更多
记得Defi Summer 20年到22年这三年时间,大家经常感慨的一句话就是“币圈一天,人间一年” 因为技术迭代太快了,每天都有数不行的新东西出来,几天不看就跟不上节奏 现在这个感觉在币圈彻底消失,在AI那边出现了,每天的新东西就看不完,真的看不完 正好这几天看到圈里讨论Cerebras的帖子多了起来,昨天还看到不少路演信息,毕竟14号要挂牌交易。之前在Amber做分享的时候也单独讲过这个公司(当时用的那页PPT放在文末),所以简单说下我对Cerebras的判断 先说结论:这家公司很有意思,但核心变量不一定是他们造的芯片本身,而是未来AI的workload形态会是成什么样。 先简单说下它是干嘛的,防止有老铁还没看Cerebras 它最核心的技术,就是wafer-scale chip(晶圆级芯片),简单理解就是别人还在用“邮票大小”的芯片,它直接把整片晶圆做成一颗超大处理器,再配上超大 SRAM,把大量数据尽量留在本地高速处理,减少传统GPU最头疼的memory bottleneck。现在海力士美光涨上天就是因为HBM这东西太抢手,Cerebras是直接绕开了对HBM的依赖 很多人看到 Cerebras最牛逼的benchmark:推理速度比GPU快10-15倍,第一反应就是下一个英伟达?! 先别急。 这个benchmark最大的问题,是默认AI的核心需求永远是“更快吐token”。 如果只是人类盯着ChatGPT聊天,这故事其实没那么性感。你每秒吐 30 个 token,我已经快读不过来了。再翻10倍,边际体验提升几乎为零。 真正有意思的是 Agent。 Agent不读字,Agent消费Token。速度直接等于生产力。 一个OpenClaw/Hermes agent,如果要读网页、写计划、调 API、跑代码、报错重试、继续执行,一个任务可能要几十次 inference call。 每次 2 秒,任务就是分钟级体验。 每次 200ms,就是另一个世界。 所以 Cerebras更值得关注的地方,是 AI worker 这条线,而不是单纯的chatbot加速。 但问题来了 - 它的magic来自 wafer-scale + 超大SRAM,本地访问极快。但SRAM这东西有天然 tradeoff,速度快,容量贵,大模型塞不下就必须拆分。 而一旦拆分,chip-to-chip communication 就上来了。 LLM inference里最怕通信的恰恰是 decode 阶段。token 是一个一个往外吐的,每多一次 hop,延迟就是硬加上去,没法隐藏。 所以 Cerebras能不能成,关键根本不在“比 GPU 快几倍”,而是未来 AI 的主流计算形态到底是什么。 1. 时间线一 - 未来几年还是 前沿超大模型一统天下,动不动几千亿甚至万亿参数,所有请求都让超大模型自己处理,那 Nvidia的distributed infra 依然最舒服,Cerebras的速度优势会被通信损耗吃掉很多。 2. 时间线二 - MoE、蒸馏、量化这些技术如果继续快速进步,未来两年70B左右的模型做到今天700B模型 80%-90% 的效果,我一点都不意外。(这里要强烈感谢Deepseek一大波!) 如果世界往这个方向走,故事就变了。 大模型负责 planning / judgement / orchestration。 真正执行任务的大量 worker model 落在 30B-70B 这个区间。 这些模型足够聪明,又刚好能吃到高速本地推理带来的红利。 Agent 世界里,大部分token根本不需要最聪明的大脑。很多工作本质就是执行层体力活:浏览网页、改代码、调工具、retry、继续跑流程。 这个 topology一旦成立,Cerebras就直接进入自己的甜区 3. 时间线三 - 未来推理是端侧为主,用的都是8B,14B的这些小模型,那GPU也能跑的很好,甚至专用的ASIC芯片效率更高,这个场景下Cerebras的优势和护城河也就不高了 换句话说,超大模型云端推理或者超小模型的端侧推理这两个平行宇宙,Cerebras的优势都不够明显,只有主流推理落在32B-70B中等模型这个Size,正好“Big enough to stress GPU memory, Small enough to fit locally” 才是Cerebras最能大展身手的世界 所以我对Cerebras的判断是,300多亿的市值,短期看订单,财务报表这些数据,长期赌的则是未来Agent时代的计算范式到底落在哪个平行宇宙的时间线上
显示更多