注册并分享邀请链接,可获得视频播放与邀请奖励。

与「TPU」相关的搜索结果

TPU 贴吧
一个关键词就是一个贴吧,路径全站唯一。
创建贴吧
用户
未找到
包含 TPU 的内容
$AVGO 是AI芯片的龙头。但历史告诉你,真正暴富的人买的是龙二 $MRVL 先说一个关于半导体行业的反直觉规律: 在一个严重缺货的市场里,获利最大的往往不是龙头,而是那个追赶中的龙二。(Herman老师分析intel观点我觉得说的很好,也同样非常适用于 $MRVL) 理由很简单: 当产能严重不足,买家再也无法只依赖龙头一家供应商。他们开始把订单给原本觉得"不够好"的替代者。而这个替代者,突然发现自己的产品以前没有人要,现在成了香饽饽——价格可以谈,条款可以谈,一切都变了。晶圆缺货时,原本没有人愿意把订单给Intel的客户,开始认真研究18A了。 那么,在AI定制芯片这个正在快速缺货的赛道里,获利最大的龙二会是谁? 我的答案是 $MRVL 。 1. 先理解结构 AI芯片市场分两层: 第一层:通用GPU Nvidia统治,没有任何人能挑战。H100、B200、Blackwell——超大规模云厂商需要它们,别无选择。 这层市场已经被充分定价了。Nvidia市值5.7万亿,没有人会漏掉这个机会。 第二层:定制ASIC(专用AI加速芯片) 这是一个完全不同的故事。 每一家超大规模云厂商都在开发自己的专用芯片: Google有TPU(张量处理器),Amazon有Trainium(AI训练)和Inferentia(推理),Meta有MTIA(AI推理加速),Microsoft有Maia(Azure AI加速)。 为什么要自己开发芯片? 因为通用GPU虽然强大,但它服务所有人,没有为特定工作负载优化。自研芯片可以针对自己的模型架构和推理需求精确设计,功耗更低,成本更低,效率更高。 这是一个不可逆的趋势——超大规模云厂商越大,自研芯片的动力越强。但有一个关键问题:这些云厂商需要设计合作伙伴。芯片设计是极其复杂的工程,需要有人懂SerDes,懂先进封装,懂chiplet集成,懂供应链——不是随便一家公司能做到的。 全球有能力承接超大规模云厂商定制ASIC设计的公司,只有两家: $Broadcom,和 $Marvell。 2. AVGO vs MRVL:龙头和龙二的真实差距 先看数字: Broadcom在ASIC市场占约55-60%的份额,与Google的TPU合作锁定到2031年,客户包括Meta、OpenAI等顶级厂商。Marvell约占15%的份额,排名第二Broadcom领先是事实,毫无争议。 但有几个数字值得认真对比: AVGO MRVL 市值 $2万亿 $1,470亿 ASIC市占 55-60% 15% FY26AI营收 $200亿+ $96亿 Forward PE 31倍 36倍 Broadcom在定制ASIC市场记录了约$200亿的AI总营收,而Marvell的AI相关营收约$96亿。 从市值角度:AVGO的市值是MRVL的13.6倍,但ASIC市场份额只是MRVL的4倍,AI营收只是MRVL的2倍。这个不对称,是MRVL存在的核心机会。 3. MRVL独特的地方:两场战争同时押注 这是我认为最关键的一点,也是MRVL和所有其他AI芯片公司最本质的区别。 MRVL同时押注了两个互相独立的万亿级叙事: 叙事一:定制ASIC——去Nvidia化的最大受益者 Marvell的数据中心部门FY2026增长46%,超过$60亿,管理层指引FY2027同比再增约40%。定制芯片年化营收已达$15亿规模,两个AI加速器项目处于高产量阶段,第三个超大规模客户合作正在进行。 Nasdaq 最重要的一个进展: 2026年4月,Google被报道正在与Marvell进行深度谈判,共同开发内存处理单元和下一代TPU,这正是Google此前几乎完全交由Broadcom负责的工作。如果谈判成功,Marvell将成为AI行业最具战略意义的芯片项目之一的核心设计伙伴。 这是什么意思? Broadcom和Google的TPU合作锁定到2031年——这是Broadcom的护城河,但不是MRVL的天花板。Google开始和MRVL谈,不是要取代Broadcom,而是要建立第二供应商。这正是"缺货时代,落后者获利"的经典逻辑。 当TPU的设计需求超过了Broadcom单独能服务的上限,Google开始把部分项目分给MRVL。 这一单谈成,MRVL同时拥有Amazon和Google双超大规模客户锚定——三个超大规模客户(Amazon、Microsoft、Google)大幅降低了单一客户集中的风险,给市场提供了更清晰的多年营收增长路线图。 叙事二:光互连DSP——AI集群神经系统的命门 MRVL是目前唯一同时覆盖定制ASIC设计、1.6T光学DSP、硅光子技术(通过Celestial AI收购)和CXL交换的全栈公司——这是任何单一竞争对手都无法复制的护城河。 光互连DSP是什么? 当GPU和GPU之间需要通信,数据需要在光纤里传输。但光纤里走的是模拟光信号,计算机需要的是数字信号。DSP(数字信号处理器)就是这两个世界之间的翻译器——它把数字数据编码成光信号发出去,再把收到的光信号解码成数字数据。 MRVL的PAM4 DSP是全球800G和1.6T光模块的核心芯片之一。光互连业务的需求与AI集群的互连基础设施同步扩张——每一个上线的AI集群都需要完整的互连协议栈,不需要等待GPU的供应情况。 这是最关键的逻辑: GPU供应有时候是稀缺的,但光互连不等GPU——只要数据中心在建,只要AI集群在运行,光互连就需要。 MRVL的DSP是一个和GPU并行运行的独立需求,不是GPU需求的影子。 4. 我自己的判断:为什么MRVL的故事比AVGO更有弹性 AVGO是龙头,MRVL是追赶者。 但在这个特定的历史时刻,追赶者的弹性更大,原因有三: 原因一:基数效应 AVGO已经是$2万亿市值,要翻倍需要成为$4万亿的公司。MRVL只有$1,470亿,翻倍只需要$2,940亿——和AVGO现在市值的15%相当。同样的资金流入,对MRVL股价的推动效果是AVGO的13倍以上。 原因二:Google的变量 AVGO和Google的合作是锁定的,这是护城河,但也意味着它的上行惊喜已经被充分定价。MRVL和Google的谈判还没有正式宣布——这是一个尚未被市场定价的潜在催化剂。如果Google正式宣布,MRVL立刻拥有Amazon+Google双超大规模客户,ASIC市场份额从15%向25%+跳升的路径被打开。 原因三:两个叙事不相关 AVGO的核心护城河是ASIC和VMware软件。 MRVL的两个叙事——ASIC和光互连DSP——是完全独立的业务。 ASIC受益于去Nvidia化,光互连受益于AI集群扩张。两个独立的增长引擎,互相不依赖,互相不替代。 MRVL在多个AI基础设施顺风中同时暴露:定制芯片、光互连、数据中心网络和更广泛的超大规模资本支出周期。这种在AI主题内的多元化暴露,使它成为纯粹的GPU标的(如Nvidia)的有吸引力的补充。 5. 估值合理吗? $MRVL:Forward PE 36.4倍,市值$1,470亿。 $AVGO:Forward PE 31倍,市值$2万亿。 $MRVL的Forward PE比 $AVGO略高,但增速也更快: $MRVL FY27营收预期:约$110亿,同比增速约40% $AVGO FY27增速约25-30%。PEG(PE/增速): $MRVL:36.4 ÷ 40 = 0.91, $AVGO:31 ÷ 27 = 1.15 PEG低于1都算便宜。 用PEG来衡量,MRVL比AVGO便宜约20%。 而且MRVL有Google催化剂这个尚未被定价的变量,AVGO没有。如果Marvell股价涨到$400,需要数据中心营收FY27超过$90亿,Google ASIC合同正式宣布,自定义硅年化营收达到$30亿。在这些条件下,ASIC业务40倍Forward EV/EBITDA,光互连业务20倍EV/Sales。 我觉得2027年是很有可能达到的,这还是在理性的估值下,如果是ai融涨疯牛选择忽略估值的话,如果NVDA到360分析师预测最高,也就是8.8T, 我预测8-10T,那么AVGO会到3-4T, MRVL到500B-1T都问题不大。 6. 三个需要追踪的关键变量 变量一:Google ASIC合同的正式宣布 这是目前MRVL最大的潜在催化剂。谈判已经在进行,但没有正式宣布。每过一个季度没有宣布,市场会稍微失去耐心。但一旦宣布,估值逻辑发生质变。 变量二:1.6T DSP的市场份额 Marvell已经开始出货1.6T PAM DSP,基于5纳米工艺,并推出了下一代3纳米版本,将光模块功耗降低超过20%。 800G向1.6T的迭代是MRVL DSP业务的下一个量子跳跃。如果MRVL能在1.6T时代维持甚至提升市场份额,光互连业务的营收会非线性增长。 变量三:Celestial AI的硅光子整合 MRVL收购了Celestial AI,进入硅光子领域。这是CPO时代最关键的技术平台——把光学引擎直接集成进芯片封装。如果MRVL能在CPO时代把DSP和硅光子整合成一个完整的解决方案,它的价值会远超现在的定价。 7. 最终判断:MRVL是这轮AI牛市里最干净的不对称机会 AI芯片市场分三类公司: 第一类:Nvidia——已经被充分定价的龙头。故事最好,估值最贵,上行惊喜空间有限。 第二类:纯ASIC公司(AVGO)——护城河深厚,但增速放缓在定价中。Google TPU锁定到2031年是确定性,也是上行惊喜的天花板。 第三类:MRVL——两个叙事都在爆发,Google催化剂未定价,市值基数小。 这是不对称机会的经典形态, 下行有Amazon锚定,有光互连稳定收入,不会归零,上行有Google合同宣布+CPO爆发+ASIC市场份额提升,估值可能从$1,470亿走向$5,000亿+。 $MRVL也是我重仓持有的标的之一,短期technical角度今天收长上影线,日线级别调整要来,加仓机会在第一目标165,第二目标140。如果给机会到140补那个缺口,我仓位加满(图1)。 总结:回到那个反直觉的规律:缺货时代,落后者获利最大。 ASIC市场正在缺货——Broadcom一家根本无法满足所有超大规模客户的定制需求。光互连正在缺货——AI集群每季度都在扩张,DSP的需求只增不减。MRVL是这两个缺货赛道里,那个正在被需要的追赶者。 历史一次次证明:当产能不足、供应商只有一两家的时候,第二名是最好的弹性高的投资标的(Nvidia和Amd,TSMC和Intel。) 因为所有人都开始认真研究它了。 #MRVL# #Marvell# #AVGO# #Broadcom# #ASIC# #定制芯片# #光互连# #DSP# #Google# #Amazon# #Nvidia# #AI芯片# #半导体# #美股# #龙二补涨# #CPO# #硅光子# #AI基建# #USStocks# #AIStocks# #数据中心# #去Nvidia化#
显示更多
0
24
324
58
转发到社区
AI算力投入2026继续狂飙 中国大厂 字节跳动:约300亿(2000亿人民币)。 阿里:三年总计约530-690亿(3800-4800亿人民币)。 腾讯: 预计3000亿 人民币 国外大厂 亚马逊:2000亿(CapEx主力投AI数据中心+自定义芯片)。 谷歌:1800-1900亿(TPU+数据中心,大幅上调)。 OpenAI:1900亿左右(Azure+OpenAI/Stargate项目)。 元宇宙:1250-1450亿(自研芯片+超级集群)。 Anthropic :直接支出约190-200亿(匹配营收规模),但通过云承诺锁定巨额算力(AWS 1000亿+10年、Google Cloud 2000亿+5年),另有500亿美国自建基础设施。
显示更多
#OpenAI# 还没上市,它的算力小弟先要IPO了,这事挺有意思。🧐 之前黄仁勋讲过,未来推理需求将会增长10亿倍,而下周四5月14日,推理时代的 #AI# 芯片黑马,Cerebras ( $CBRS)要上市了,定价区间115-125美金,募资最高35亿美金,估值266亿美金。也将是 @MSX_CN 的第一期 PreIPO项目,还是十分值得期待的! 今天我们就来拆解一下这家Cerebras公司,以及估值分析情况,还有我个人的一些私人判断和意见。 要了解这个OpenAI系的推理芯片黑马,就要知晓山姆奥特曼的资本布局。 我们都知道英伟达在AI芯片领域有多牛,大模型公司烧钱,云厂商买卡,创业公司排队等GPU,最后利润大多流向卖铲子的英伟达,这是目前行业的现状。 但这种一家独大的局面,各家大模型厂商,都希望有一个嫡系方案做PlanB,比如谷歌Gemini便联合博通采用TPU方案,OpenAI也一直想扶持自己的嫡系部队。 所以在5月6日,OpenAI把英伟达、AMD、英特尔、博通、微软这些本该互相竞争的芯片公司拉到一起,搞了个MRC网络协议。表面看是技术合作,其实是OpenAI要重新分蛋糕了。 更深一层看,我认为是 #OpenAI# 想要拆开英伟达全栈垄断格局。 以前训练、推理、网络、云,全让英伟达一家包圆了。现在呢?OpenAI开始精细化运营:训练归训练,推理归推理,不同场景用不同芯片,不同环节找不同供应商。 #Cerebras# 就是在这个时候被推上了牌桌,它核心负责推理这一环。这正好与最近炒作火热的推理CPU概念,比如 #AMD,##INTC# 等,撞在了风口上。 🔥Cerebras到底牛在哪? Cerebras的核心杀手锏是WSE-3芯片,直接把整片12英寸晶圆做成一颗巨型芯片,面积46225平方毫米,相当于A4纸的三分之一。 我们数据对比看看,相较于英伟达H100: • 它面积是H100的57倍 • 核心数是52倍 • 片上内存是880倍 • 内存带宽是7000倍 这数据📊看起来蛮夸张的,但核心关键不在大,而在于快。 在推理场景,尤其是长文本输出、实时交互、代码生成、AI Agent这些需要低延迟的任务上,Cerebras的CS-3系统推理速度比英伟达DGX B200快21倍,成本和能耗降到三分之一。这个效率和功耗,采用WSE-3芯片意味着OpenAI能在单位时间服务更多客户,这就相当于白花花银子啊。 📊财务数据也很漂亮 首先从市场趋势来看,AI 产业正从训练为主转向推理为主,这是不争的事实,2025 年全球 AI 推理市场规模已达1062亿美元,预计2030年将增至 2550亿美元,而 Cerebras 的技术优势正好踩在了风口上。 另外本轮IPO估值为266亿美金,发行价为115-125美金/股,我觉得是相对便宜的,虽然比上一轮估值翻了倍,上一轮F轮估值约为120亿美金,短短两年时间,直接翻倍,但架不住漂亮的财务数据。 2025年Cerebras营收5.1亿美金,比2024年的2.9亿增长76%。更牛的是净利润8790万美金,2024年还亏4.85亿,直接扭亏为盈。 以266亿估值来算,PS为52倍。以24年上市的热门半导体连接芯片公司Astera Labs( #ALAB#)做对比,它上市首日PS高达81倍。而目前正处于火热的推理赛道炒作中,个人认为Cerebras冲击80-100倍PS绰绰有余,对应的收盘价192美金—239美金,预计有50%以上涨幅!(但也要观察当天纳斯达克指数行情来综合判断) 不能只说好的一面,目前Cerebras问题也很明显,客户集中度太高。阿联酋MBZUAI贡献62%收入,G42贡献24%,前两大客户占86%。意味着Cerebras必须听大客户的话,自主性有限。可喜的是,OpenAI的介入,未来这种收入结构会有所改善,而且OpenAI会成为最大客户。 🎯OpenAI和Cerebras的深度绑定 最新的数据,OpenAI与Cerebras签了多年的合作协议,总价值超200亿美金,Cerebras要给OpenAI提供750兆瓦算力,部署到2028年。 但这不只是采购合同这么简单。OpenAI创始人奥特曼、总裁布鲁克曼、前首席科学家伊利亚、董事会成员亚当·安戈洛,这些核心高管都个人投资了Cerebras。 OpenAI还通过贷款、认股权证等金融工具,和Cerebras建立长期利益绑定。说白了,现在的Cerebras就是OpenAI的芯片部门。 除此之外,Cerebras 3月又与 AWS 达成合作,CS-3 系统上线亚马逊云端服务,成为首个进入主流云端厂商供应链的非 GPU AI 加速器。此外,葛兰素史克、美国能源部、多个国家实验室等也都是其客户,技术实力也得到多维度的验证。 💡OpenAI的资本局 OpenAI的真实意图很清楚: • 训练继续用英伟达高端GPU • 推理引入Cerebras低延迟方案 • 部分GPU采购AMD • 网络协议开放化 • 云服务在AWS、Azure、谷歌Cloud之间多家下注 • 未来可能推自研芯片 这是算力组合拳策略,不同工作负载匹配不同系统,不再单独依赖英伟达全栈方案。 OpenAI正在从模型公司转变为算力架构公司。以前只能被动接受芯片厂商定义的技术路线,现在要主动设计符合自己需求的算力组合。 OpenAI要把芯片供应商从"平台提供者"降维为"模块供应商"。所以扶持Cerebras是其战略中最重要的一环,预期来看,Cerebras上市首日股价,爆火的概率极大! ⚡对英伟达的影响 短期看,Cerebras上市对英伟达冲击不大,就像身上长个粉刺一样无关痛痒。 英伟达目前占AI芯片市场80-90%份额,CUDA生态、GPU供应链、NVLink网络,这些护城河短期很难撼动。 但长期看,威胁是存在的。以前AI公司别无选择,只能用英伟达GPU。现在至少在推理场景,客户有了可行替代方案。这种选择权的出现,削弱了英伟达定价权。 当OpenAI可以说"推理我用Cerebras,训练我用英伟达"时,英伟达就失去了"全包"的议价能力。 AI推理市场正在快速增长。根据预测,2026-2032年全球AI推理市场复合增长率将达28.9%。推理场景更适合专用芯片。当推理市场规模超过训练市场时,英伟达在推理领域的相对弱势就会成为更大问题。 英伟达正在从"唯一供应商"变成"核心供应商之一"。这个转变不是因为英伟达变弱了,而是市场变大了,客户变强了,需求变复杂了。 🧐我的判断 Cerebras上市真正值得看的,不是又一家AI芯片公司IPO,而是OpenAI开始把推理这门生意单独拎出来定价了。 当推理市场被验证可以独立定价时,AI算力市场就真的开始分层了。训练和推理的需求差异被明确化,专用芯片在细分场景的优势被验证。 英伟达"一种芯片打天下"的叙事不再完全成立。市场会从"通用GPU垄断"走向"场景化芯片组合"。 而且不只OpenAI这么干,Anthropic也在和亚马逊、谷歌结盟。头部AI公司都在通过多元化采购降低对英伟达依赖。单一供应商的"完整解决方案"不再是最优选择。 最后值得一提的是,这次 #MSX# 第一期PreIPO项目即将上市,它就是本周四即将上市的Cerebras,拭目以待吧!🧐 DYOR🙏
显示更多
0
53
147
57
转发到社区
不知不觉,过去2周写了很多关于Google #TPU# 的文章,既有技术干货也有商业思考,整理TPU系列文章如下: 1️⃣谷歌重要产品发布介绍分别是 专用于训练的TPU 8t芯片以及Virgo 网络。 2️⃣300万片TPU背后的产业链: 3️⃣为了适应模型发展,第八代TPU设计中,谷歌的软硬件和网络解决方案: 4️⃣Anthropic 订购TPU,他和谷歌的股权投资历史 5️⃣Google TPU 8t和英伟达GB300机架级性能对比 6️⃣TPU封装 7️⃣TPU对英伟达的冲击 8️⃣TPU对谷歌财报未来贡献
显示更多
This progress allow us to rethink global compute: 🔘 We successfully trained a 12B @GoogleGemma model across four US regions using low-bandwidth networks 🔘 We showed we can mix different hardware generations, such as TPU6e and TPUv5p, without slowing down performance during training
显示更多
0
10
132
9
转发到社区
Huge improvements over Ironwood TPU’s (2-3x), can’t wait to see Gemini in action with these : )
0
24
425
14
转发到社区
TPU’s are a core part of the Google secret sauce, excited to see our 8th generation TPU see the light of day : )
0
66
1.6K
80
转发到社区
More People Watched The TPUSA Halftime Show Than Tuned In To The Oscars
0
559
6.4K
866
转发到社区
GPT 火的时候,都说它会革命掉搜索引擎即 Google,谁知道 Google 并不是百度,竟然后来居上。如何解释,有一个观点: GPT 不是打败 Google,而是帮它解除封印。Google 早就拥有全部技术,只是因为广告业务,不敢先革命搜索。 OpenAI 帮 Google 全面打破心理束缚,于是积累的技术全面启动:Gemini、AI Overviews、多模态模型、TPU v5。ChatGPT 的基础 Transformer 甚至就是谷歌发明的。 而在中国,百度可能确实要被豆包取代了,普天同庆。。。
显示更多
0
56
368
20
转发到社区