注册并分享邀请链接,可获得视频播放与邀请奖励。

与「圆焰」相关的搜索结果

圆焰 贴吧
一个关键词就是一个贴吧,路径全站唯一。
创建贴吧
用户
未找到
包含 圆焰 的内容
AI时代,半导体公司到底该怎么估值? 昨天听了@ShanghaoJin 老师的space,获益匪浅。 但我对于存储板块,乃至整个半导体板块的在目前ai产业革命超级周期背景下的估值方法,有一些不同的想法,所以简单记录一下,也供herman老师拍砖。 过去很长时间里,半导体一直是典型周期行业。景气时利润暴涨,低谷时利润迅速蒸发。很多公司上一年PE几十倍,下一年直接亏损。所以过去市场并不太相信半导体公司的利润持续性,更喜欢用 PB、重置成本、EV/EBITDA,而不是PE。因为市场默认这些利润大概率只是周期利润,而不是长期利润。 但AI时代正在改变这一切。HBM、CoWoS、AI Networking、光模块、先进封装、电力与数据中心基础设施,开始出现长期供需失衡。整个行业的估值逻辑,也开始从“资产思维”转向“现金流思维”。 截至2026年,行业仍处在AI驱动的强景气阶段。根据 SIA 数据,2025年全球半导体销售额达到7917亿美元,同比增长25.6%,并预计2026年接近1万亿美元。SEMI 也预计设备销售将在2026、2027继续增长。这种环境下,很多股票估值已经提前包含高增长预期。重要的是增长质量,以及它所处的周期位置。 很多人喜欢只看 PE、forward PE 或 PEG,但半导体行业的问题在于,“周期 + 高成长 + 高资本开支 + 技术代际”全部混在一起,单一估值倍数很容易骗人。周期顶部时,利润爆炸,PE反而会显得特别便宜;周期底部时,利润低迷,PE又会显得特别贵,甚至失去意义。重要的是判断当前利润到底处在周期的哪个位置。 PE 本质上是: PE = \frac{Market\ Cap}{Net\ Income} 它看的是最终归属于股东的利润,因此会受到利息、税率、折旧和资本结构影响。而 EV/EBITDA 更接近企业经营本身的赚钱能力: EV/EBITDA = \frac{Enterprise\ Value}{EBITDA} 其中: EV = Market\ Cap + Debt - Cash 很多人会疑惑为什么现金要减掉。因为 EV 本质上是在看“买下整个公司的真实净成本”。债务需要接手,而账上的现金买下后也归你,所以现金会降低真实收购成本。重要的是理解 EV 关注的是经营业务本身值多少钱,而不是公司账上堆了多少现金。 这也是为什么 Apple、Alphabet、Meta Platforms 经常出现 EV 小于市值的情况,因为它们账上现金太多。 但AI时代又带来了一个新问题。很多公司的现金已经不再是“闲置现金”,而是GPU储备、数据中心扩张储备、AI基础设施战争储备。重要的是区分 Excess Cash、Operating Cash 和 Strategic Cash。有些现金未必真的应该全部减掉。 AI时代另一个巨大变化,是行业进入超级重资本时代。EUV越来越贵,High-NA越来越贵,CoWoS扩产越来越贵,HBM扩产越来越贵,数据中心基础设施越来越贵。整个行业折旧(D&A)正在快速上升。于是很多公司的 EBITDA 非常漂亮,但净利润没有那么夸张,因为大量利润被折旧吞掉了。重要的是现在 PE 和 EV/EBITDA 的差异,正在明显扩大。 不同子行业差异尤其明显。Fabless公司差异最小,比如 NVIDIA、AMD、Broadcom。因为它们不自己建厂,折旧压力较低,因此 EV/EBITDA 往往只比 PE 低20%-40%。 但 Foundry 完全不同。比如 Taiwan Semiconductor Manufacturing Company、Samsung Electronics、Intel。这些公司 CapEx 极大,折旧极高,厂房设备生命周期极长,所以 PE 和 EV/EBITDA 差异会明显扩大。TSMC 当前常见情况大概是 PE 20-30x,而 EV/EBITDA 只有12-18x。重要的是理解很多折旧本质上其实是“增长投资”。 存储行业更加极端。Micron Technology、SK hynix 过去长期是最典型的周期行业,市场几乎不相信利润持续性。但 HBM 改变了部分逻辑,市场开始认为其中一部分利润可能是结构性利润,于是行业开始重新定价。重要的是 HBM 让市场开始重新评估存储行业的长期盈利能力。 而半导体设备公司则是另一种情况。比如 ASML、Applied Materials、Lam Research、KLA。这些公司更像“拥有工业外壳的软件公司”,因为它们毛利率高、ROIC高、FCF强、资本效率极高,所以市场已经越来越多使用 PE、EV/EBITDA、EV/FCF 和 ROIC 来定价。 真正的问题,从来不是哪个指标最好。重要的是哪个指标适合哪个子行业。 Trailing PE 适合盈利稳定的成熟公司,但周期股在景气高点 PE 会显得特别便宜,在低谷又会显得特别贵。Forward PE 更重要,因为市场买的是未来12-24个月利润。重要的是盈利预期是否还在持续上修,而不是单纯看一个低 forward PE。 PEG 对稳定高成长公司很好用,但对周期行业非常危险。很多时候 EPS 从低谷恢复,会让 PEG 看起来异常便宜。重要的是判断这个增长到底来自长期成长,还是仅仅来自周期反弹。 EV/EBITDA 更适合设备、IDM、存储这些资本结构差异大的行业。重要的是最好使用中周期 EBITDA,否则很容易在周期顶部被误导。 我个人更喜欢 FCF Yield 和 EV/FCF。重要的是这两个指标会逼着你回答一个问题:这些利润最后到底能不能变成真钱。 EV/Sales 只适合高增长、利润暂时被投入压低的平台型公司。重要的是结合毛利率、经营杠杆和长期利润率一起看。 不同子行业应该看不同指标。AI/fabless 芯片更应该看 forward PE、EV/FCF、收入增速、毛利率、客户集中度和平台护城河;半导体设备更应该看 EV/EBITDA、订单、积压和 WFE 周期;存储更应该看 P/B、EV/EBITDA、库存以及 DRAM/NAND/HBM 价格;晶圆代工和 IDM 更应该看利用率、CapEx、折旧、ROIC 和 FCF;模拟、功率和车规更应该看 FCF yield、库存周期和工业需求;EDA/IP 更应该看 EV/Sales、EV/FCF 和长期增长确定性。 所以不要只按 PE、forward PE 或 PEG 买半导体股。重要的是先分子行业,再做多指标综合。 我的框架会更简单一些。第一看质量,包括毛利率、营业利润率、ROIC、技术壁垒和客户粘性。第二看增长。重要的是增长到底来自结构性需求,还是只是周期复苏。第三看现金流,包括 FCF margin、CapEx 强度、库存变化和应收变化。第四才是估值,包括 forward PE、EV/EBITDA、EV/FCF、PEG,并与同行和自身历史区间比较。最后才是风险,包括客户集中、出口限制、库存、产能过剩和盈利预期下修风险。 半导体行业最重要的一点,是不要被低PE欺骗。重要的从来不是今天便不便宜,而是未来3-5年的现金流和竞争地位,能不能支撑今天的估值。 AI时代最大的变化,本质上也是这个。过去市场担心的是“下一轮周期会不会崩”,现在市场开始关心的是“这些利润到底是周期性的,还是结构性的”。 如果市场认为只是周期,那么 EV/EBITDA 不会给太高,PE 也不会持续扩张。如果市场开始相信 AI需求是长期的、基础设施建设是长期的、供需失衡是长期的、行业进入结构性短缺,那么整个行业的估值体系就会继续升级,从 PB → EV/EBITDA → PE → FCF 一路向上迁移。 最终获得长期高估值的公司,往往都是那些 ROIC 持续提升、资本效率持续改善、拥有长期定价权、能把AI需求持续转化为现金流的企业。
显示更多
0
0
50
19
转发到社区
$AVGO 是AI芯片的龙头。但历史告诉你,真正暴富的人买的是龙二 $MRVL 先说一个关于半导体行业的反直觉规律: 在一个严重缺货的市场里,获利最大的往往不是龙头,而是那个追赶中的龙二。(Herman老师分析intel观点我觉得说的很好,也同样非常适用于 $MRVL) 理由很简单: 当产能严重不足,买家再也无法只依赖龙头一家供应商。他们开始把订单给原本觉得"不够好"的替代者。而这个替代者,突然发现自己的产品以前没有人要,现在成了香饽饽——价格可以谈,条款可以谈,一切都变了。晶圆缺货时,原本没有人愿意把订单给Intel的客户,开始认真研究18A了。 那么,在AI定制芯片这个正在快速缺货的赛道里,获利最大的龙二会是谁? 我的答案是 $MRVL 。 1. 先理解结构 AI芯片市场分两层: 第一层:通用GPU Nvidia统治,没有任何人能挑战。H100、B200、Blackwell——超大规模云厂商需要它们,别无选择。 这层市场已经被充分定价了。Nvidia市值5.7万亿,没有人会漏掉这个机会。 第二层:定制ASIC(专用AI加速芯片) 这是一个完全不同的故事。 每一家超大规模云厂商都在开发自己的专用芯片: Google有TPU(张量处理器),Amazon有Trainium(AI训练)和Inferentia(推理),Meta有MTIA(AI推理加速),Microsoft有Maia(Azure AI加速)。 为什么要自己开发芯片? 因为通用GPU虽然强大,但它服务所有人,没有为特定工作负载优化。自研芯片可以针对自己的模型架构和推理需求精确设计,功耗更低,成本更低,效率更高。 这是一个不可逆的趋势——超大规模云厂商越大,自研芯片的动力越强。但有一个关键问题:这些云厂商需要设计合作伙伴。芯片设计是极其复杂的工程,需要有人懂SerDes,懂先进封装,懂chiplet集成,懂供应链——不是随便一家公司能做到的。 全球有能力承接超大规模云厂商定制ASIC设计的公司,只有两家: $Broadcom,和 $Marvell。 2. AVGO vs MRVL:龙头和龙二的真实差距 先看数字: Broadcom在ASIC市场占约55-60%的份额,与Google的TPU合作锁定到2031年,客户包括Meta、OpenAI等顶级厂商。Marvell约占15%的份额,排名第二Broadcom领先是事实,毫无争议。 但有几个数字值得认真对比: AVGO MRVL 市值 $2万亿 $1,470亿 ASIC市占 55-60% 15% FY26AI营收 $200亿+ $96亿 Forward PE 31倍 36倍 Broadcom在定制ASIC市场记录了约$200亿的AI总营收,而Marvell的AI相关营收约$96亿。 从市值角度:AVGO的市值是MRVL的13.6倍,但ASIC市场份额只是MRVL的4倍,AI营收只是MRVL的2倍。这个不对称,是MRVL存在的核心机会。 3. MRVL独特的地方:两场战争同时押注 这是我认为最关键的一点,也是MRVL和所有其他AI芯片公司最本质的区别。 MRVL同时押注了两个互相独立的万亿级叙事: 叙事一:定制ASIC——去Nvidia化的最大受益者 Marvell的数据中心部门FY2026增长46%,超过$60亿,管理层指引FY2027同比再增约40%。定制芯片年化营收已达$15亿规模,两个AI加速器项目处于高产量阶段,第三个超大规模客户合作正在进行。 Nasdaq 最重要的一个进展: 2026年4月,Google被报道正在与Marvell进行深度谈判,共同开发内存处理单元和下一代TPU,这正是Google此前几乎完全交由Broadcom负责的工作。如果谈判成功,Marvell将成为AI行业最具战略意义的芯片项目之一的核心设计伙伴。 这是什么意思? Broadcom和Google的TPU合作锁定到2031年——这是Broadcom的护城河,但不是MRVL的天花板。Google开始和MRVL谈,不是要取代Broadcom,而是要建立第二供应商。这正是"缺货时代,落后者获利"的经典逻辑。 当TPU的设计需求超过了Broadcom单独能服务的上限,Google开始把部分项目分给MRVL。 这一单谈成,MRVL同时拥有Amazon和Google双超大规模客户锚定——三个超大规模客户(Amazon、Microsoft、Google)大幅降低了单一客户集中的风险,给市场提供了更清晰的多年营收增长路线图。 叙事二:光互连DSP——AI集群神经系统的命门 MRVL是目前唯一同时覆盖定制ASIC设计、1.6T光学DSP、硅光子技术(通过Celestial AI收购)和CXL交换的全栈公司——这是任何单一竞争对手都无法复制的护城河。 光互连DSP是什么? 当GPU和GPU之间需要通信,数据需要在光纤里传输。但光纤里走的是模拟光信号,计算机需要的是数字信号。DSP(数字信号处理器)就是这两个世界之间的翻译器——它把数字数据编码成光信号发出去,再把收到的光信号解码成数字数据。 MRVL的PAM4 DSP是全球800G和1.6T光模块的核心芯片之一。光互连业务的需求与AI集群的互连基础设施同步扩张——每一个上线的AI集群都需要完整的互连协议栈,不需要等待GPU的供应情况。 这是最关键的逻辑: GPU供应有时候是稀缺的,但光互连不等GPU——只要数据中心在建,只要AI集群在运行,光互连就需要。 MRVL的DSP是一个和GPU并行运行的独立需求,不是GPU需求的影子。 4. 我自己的判断:为什么MRVL的故事比AVGO更有弹性 AVGO是龙头,MRVL是追赶者。 但在这个特定的历史时刻,追赶者的弹性更大,原因有三: 原因一:基数效应 AVGO已经是$2万亿市值,要翻倍需要成为$4万亿的公司。MRVL只有$1,470亿,翻倍只需要$2,940亿——和AVGO现在市值的15%相当。同样的资金流入,对MRVL股价的推动效果是AVGO的13倍以上。 原因二:Google的变量 AVGO和Google的合作是锁定的,这是护城河,但也意味着它的上行惊喜已经被充分定价。MRVL和Google的谈判还没有正式宣布——这是一个尚未被市场定价的潜在催化剂。如果Google正式宣布,MRVL立刻拥有Amazon+Google双超大规模客户,ASIC市场份额从15%向25%+跳升的路径被打开。 原因三:两个叙事不相关 AVGO的核心护城河是ASIC和VMware软件。 MRVL的两个叙事——ASIC和光互连DSP——是完全独立的业务。 ASIC受益于去Nvidia化,光互连受益于AI集群扩张。两个独立的增长引擎,互相不依赖,互相不替代。 MRVL在多个AI基础设施顺风中同时暴露:定制芯片、光互连、数据中心网络和更广泛的超大规模资本支出周期。这种在AI主题内的多元化暴露,使它成为纯粹的GPU标的(如Nvidia)的有吸引力的补充。 5. 估值合理吗? $MRVL:Forward PE 36.4倍,市值$1,470亿。 $AVGO:Forward PE 31倍,市值$2万亿。 $MRVL的Forward PE比 $AVGO略高,但增速也更快: $MRVL FY27营收预期:约$110亿,同比增速约40% $AVGO FY27增速约25-30%。PEG(PE/增速): $MRVL:36.4 ÷ 40 = 0.91, $AVGO:31 ÷ 27 = 1.15 PEG低于1都算便宜。 用PEG来衡量,MRVL比AVGO便宜约20%。 而且MRVL有Google催化剂这个尚未被定价的变量,AVGO没有。如果Marvell股价涨到$400,需要数据中心营收FY27超过$90亿,Google ASIC合同正式宣布,自定义硅年化营收达到$30亿。在这些条件下,ASIC业务40倍Forward EV/EBITDA,光互连业务20倍EV/Sales。 我觉得2027年是很有可能达到的,这还是在理性的估值下,如果是ai融涨疯牛选择忽略估值的话,如果NVDA到360分析师预测最高,也就是8.8T, 我预测8-10T,那么AVGO会到3-4T, MRVL到500B-1T都问题不大。 6. 三个需要追踪的关键变量 变量一:Google ASIC合同的正式宣布 这是目前MRVL最大的潜在催化剂。谈判已经在进行,但没有正式宣布。每过一个季度没有宣布,市场会稍微失去耐心。但一旦宣布,估值逻辑发生质变。 变量二:1.6T DSP的市场份额 Marvell已经开始出货1.6T PAM DSP,基于5纳米工艺,并推出了下一代3纳米版本,将光模块功耗降低超过20%。 800G向1.6T的迭代是MRVL DSP业务的下一个量子跳跃。如果MRVL能在1.6T时代维持甚至提升市场份额,光互连业务的营收会非线性增长。 变量三:Celestial AI的硅光子整合 MRVL收购了Celestial AI,进入硅光子领域。这是CPO时代最关键的技术平台——把光学引擎直接集成进芯片封装。如果MRVL能在CPO时代把DSP和硅光子整合成一个完整的解决方案,它的价值会远超现在的定价。 7. 最终判断:MRVL是这轮AI牛市里最干净的不对称机会 AI芯片市场分三类公司: 第一类:Nvidia——已经被充分定价的龙头。故事最好,估值最贵,上行惊喜空间有限。 第二类:纯ASIC公司(AVGO)——护城河深厚,但增速放缓在定价中。Google TPU锁定到2031年是确定性,也是上行惊喜的天花板。 第三类:MRVL——两个叙事都在爆发,Google催化剂未定价,市值基数小。 这是不对称机会的经典形态, 下行有Amazon锚定,有光互连稳定收入,不会归零,上行有Google合同宣布+CPO爆发+ASIC市场份额提升,估值可能从$1,470亿走向$5,000亿+。 $MRVL也是我重仓持有的标的之一,短期technical角度今天收长上影线,日线级别调整要来,加仓机会在第一目标165,第二目标140。如果给机会到140补那个缺口,我仓位加满(图1)。 总结:回到那个反直觉的规律:缺货时代,落后者获利最大。 ASIC市场正在缺货——Broadcom一家根本无法满足所有超大规模客户的定制需求。光互连正在缺货——AI集群每季度都在扩张,DSP的需求只增不减。MRVL是这两个缺货赛道里,那个正在被需要的追赶者。 历史一次次证明:当产能不足、供应商只有一两家的时候,第二名是最好的弹性高的投资标的(Nvidia和Amd,TSMC和Intel。) 因为所有人都开始认真研究它了。 #MRVL# #Marvell# #AVGO# #Broadcom# #ASIC# #定制芯片# #光互连# #DSP# #Google# #Amazon# #Nvidia# #AI芯片# #半导体# #美股# #龙二补涨# #CPO# #硅光子# #AI基建# #USStocks# #AIStocks# #数据中心# #去Nvidia化#
显示更多
0
24
324
58
转发到社区
所有人都在买GPU和存储。没有人告诉你光模块公司的总市值比美光还低 我想从一个反常识的问题开始:GPU是AI的大脑,存储是AI的记忆。那光是什么?光是AI的神经系统。但神经系统从来不是最先被注意到的。存储已经涨了10倍,GPU更不用说。光的时代,刚刚开始。 1. 先说一个结构性的错误定价 在Nvidia的NVL72机架里,光模块的采购金额占到整个机架的20%。2026年全球AI光收发器市场规模预计从2025年的$165亿增长到$260亿,同比增速超过57%——这是半导体赛道里增速最快的子领域之一。 但所有光模块公司的总市值,比美光一家还低。这个错误会被纠正。问题只是什么时候。 2. 光和存储不一样的地方 存储的接力是季度级别的事件——供需拐点,财报超预期,市场重新定价,SNDK从$200涨到$900,这个过程很快。光的接力是年级别的结构性变迁,因为光的技术路线本身正在发生一次范式转移: 第一阶段(现在):可插拔光模块 800G → 1.6T → 3.2T 线性增长,随数据中心扩张 第二阶段(2026下半年):近封装光学NPO 光模块移向芯片旁边 需求非线性跳升 第三阶段(2027-2028):共封装光学CPO 光引擎直接封装进芯片 这是终局,也是最大的价值重构 Meta在OFC 2026分享了大量数据,证明CPO比可插拔光收发器更可靠,成本更低,功耗更少。Nvidia在GTC展示了CPO将在2027/28年用于Scale-Up互连。5年内所有AI数据中心互连都将是光。 这不是预测,是物理定律。铜在高速率下信号损耗太大,功耗太高,距离太短。光没有这些问题。 3. 光在吃铜,不只是光吃光 生成式AI集群需要比传统云服务多10到100倍的光纤,正在把现有铜互连逼到物理极限。 这是大多数人没想到的逻辑——光的增长不只来自数据中心规模的扩大,还来自光替代铜的渗透率提升。每一代迭代,光吃掉更多铜的市场。这是双重驱动,不是单一驱动。 4. 产业链七个卡位,从上游到下游 现在我来把整条产业链拆清楚。 七个公司,覆盖从最上游的衬底到最下游的网络设备。 🔬 最上游:硅光衬底 $SOI 做的是硅光PIC的衬底材料——整个产业链最上游的原材料。没有SOI的衬底,硅光芯片就没有基础。护城河极高,几乎没有竞争对手能短期内介入。和TSEM形成上下游绑定:SOI提供衬底,TSEM代工成芯片。 🏭 代工层:硅光晶圆厂 $TSEM(Tower Semiconductor)硅光版本的台积电。 今天刚刚发生的重大事件: TSEM宣布签署$13亿的2027年硅光合同,收到$2.9亿产能预付款,2028年还有更大合同在谈判中。计划资本支出$9.2亿专门用于硅光扩产,Q2营收指引$4.55亿同比增22%。 TSEM最聪明的地方在于:它不赌哪条技术路线赢。 可插拔、NPO、CPO,三条路线都用TSEM代工。就算市场对技术路线判断错了,TSEM依然受益。这是光通讯产业链里确定性最高的picks-and-shovels。 💡 激光器层:光的心脏 光模块的核心是激光器。没有激光器,光模块什么都不是。 激光器分两条技术路线: 磷化铟(InP)路线——$LITE(Lumentum) LITE是目前唯一能量产200G每lane EML激光器的供应商,是1.6T收发器的关键零件。Nvidia预先锁定了LITE的EML产能,推迟交货期超过2027年。 Nvidia向LITE投资$20亿,用于加速AI基础设施光学技术。LITE CEO称2026年是激光器芯片销售的"突破年",刚收到历史上最大的CPO超高功率激光器采购承诺。 LITE的护城河是时间积累的——InP激光器的制造需要极其精密的工艺,20年积累的经验是任何竞争对手短期无法复制的。而且LITE不只押注现在:EML是可插拔时代的命门,ELS外置激光器是CPO时代的命门,OCS光路交换机是未来AI集群的光学路由器。 三个产品线覆盖了光通讯从现在到2030年的完整需求。 硅光(SiPho)激光器路线——$SIVE(Sivers Semiconductors) Sivers专注于CPO系统的高性能InP激光阵列,Jabil合作是第一个商业验证信号,证明技术正在从研究走向真实超大规模部署。 SIVE不是要打败LITE,而是作为CPO时代激光器供应链里的补充供应商——当LITE和COHR产能不足时,SIVE是下一个选项。整个CPO产业的激光器供应严重短缺,补充供应商的价值会被重新定价。 🔭 光学系统层:从组件到整合 $COHR(Coherent Corp) COHR最新Q3财报:营收$18.1亿同比增21%,数据中心和通信板块$14亿,同比增40%。Nvidia同样投资$20亿入股COHR。COHR是整个光通讯赛道里垂直整合程度最高的公司。从InP晶圆到激光器到光模块到系统,全部自己做。COHR正在扩大6英寸InP晶圆产能,这是推动毛利率持续提升的核心驱动力——规模越大,每片晶圆的成本越低,利润越高。 LITE和COHR的关系是竞争者也是互补者: LITE:激光器专家,EML垄断,聚焦 COHR:光学系统整合商,体量更大,更全面 🏗️ 物理基础设施层:光纤和连接 $GLW(Corning) Corning是光通讯产业链里最让人意外的标的——一家成立于1851年的玻璃公司,正在成为AI基础设施的核心受益者。 Q1 2026光学通信业务增长36%,分部净利润增长93%。2028年营收目标$300亿,2030年$400亿,内含年化增速19%。两个额外的超大规模云厂商签署了长期协议。 Nvidia命名Corning为下一代AI基础设施光连接合作伙伴,投资$5亿+最高$32亿股权,在美国建三座专属光学工厂。 Corning做的是光纤、线缆和连接器——不是最性感的产品,但是不可或缺的基础设施。 城市要运转,不只需要主干道,还需要所有的小路、接头、路牌。 Corning做的就是光通讯世界里的所有"小路和接头"。 而且这些"小路和接头"是消耗品——每建一个数据中心都需要,每升级一个机架都需要。 📡 网络层:AI时代的网络基础设施 $NOK(Nokia) Nokia是这七个标的里最被市场误解的。大多数人还在用"翻盖手机公司"的眼光看Nokia。 Nokia 2026营收预期同比增长7.5%,EPS增长21.2%,光网络业务增速20%,AI和云业务增速49%,单季度新增€10亿AI和云订单。 Nokia做的是什么? 光传输网络(OTN)——把数据中心之间用光连接起来的骨干网络。这是Scale-Across的核心基础设施。 Nokia的第六代超相干光学技术PSE-6s,是目前全球少数能实现800G甚至1.2T长距离光传输的技术之一。 Nokia收购Infinera之后,从"转卖别人芯片的公司"升级为"拥有自己光芯片工厂的公司"——同样的技术路线,市场给LITE估值66.5倍,给COHR估值35倍,Nokia只有30.8倍Forward PE。 这个估值差距是最大的错误定价之一。 七个标的的完整产业链图 最上游 SOI(硅光衬底) ↓ TSEM(硅光代工) ↓ 激光器层 LITE(InP EML,可插拔+CPO) COHR(垂直整合,光学系统) SIVE(CPO激光阵列,高赔率) ↓ 物理基础设施 GLW(光纤、线缆、连接器) ↓ 网络层 NOK(光传输网络,骨干连接) 每一层都有自己不可替代的护城河。 每一层都在受益于同一个趋势。 6. 为什么是现在? 2026到2027年是在1.6T供应链建立立足点的关键时期,在一线客户的设计导入将决定长期赢家。现在是design-in阶段——产品正在被超大规模客户选中和锁定。等量产阶段到来,市场才会充分定价这些公司的价值。 在design-in阶段买入,等量产阶段收获——这是光通讯投资最好的时机。 7. 仓位逻辑 高确定性(重仓): TSEM → 今天$13亿合同,产业链里最硬的催化剂 LITE → EML垄断+Nvidia锁定,现在到2028年都受益 COHR → 垂直整合,体量最大,Nvidia $20亿入股 中等确定性(配置): GLW → Nvidia直接合作,物理基建不可或缺 NOK → 最被低估的估值,但故事兑现需要更多时间 高赔率(小仓位): SOI → 和TSEM绑定,护城河高但流动性低 SIVE → CPO时代的纯粹赌注 8. 光会接力存储吗? 会。但不一样的方式。存储的接力是一次性的价格重估——供需拐点到来,几个季度内完成定价。 光的接力是分阶段的持续重估—— 2026年:可插拔1.6T带来第一波 2027年:CPO开始量产带来第二波 2028年:Scale-Up全面光化带来第三波 三波叠加,才是光通讯超级周期的全貌。存储让你在一年内赚了10倍。光可能让你在三年内赚同样多,但过程更平稳,确定性更高。 最后一句话 光通讯不是一个新故事,是一个被重新发现的旧故事。 光纤已经存在几十年了,但AI让这个故事的量级发生了质变。每当数据中心需要更高密度、更低功耗、更远距离的连接时,答案永远是光。 #光通讯# #TSEM# #LITE# #COHR# #GLW# #NOK# #SOI# #SIVE# #CPO# #硅光# #光模块# #AI基建# #数据中心# #存储接力# #Nvidia# #美股# #USStocks# #SiliconPhotonics# #CoPackagedOptics# #EML# #光互连# #AIInfrastructure# #光纤# #Nokia# #Corning# #Coherent# #Lumentum#
显示更多
0
57
1.4K
391
转发到社区
记得Defi Summer 20年到22年这三年时间,大家经常感慨的一句话就是“币圈一天,人间一年” 因为技术迭代太快了,每天都有数不行的新东西出来,几天不看就跟不上节奏 现在这个感觉在币圈彻底消失,在AI那边出现了,每天的新东西就看不完,真的看不完 正好这几天看到圈里讨论Cerebras的帖子多了起来,昨天还看到不少路演信息,毕竟14号要挂牌交易。之前在Amber做分享的时候也单独讲过这个公司(当时用的那页PPT放在文末),所以简单说下我对Cerebras的判断 先说结论:这家公司很有意思,但核心变量不一定是他们造的芯片本身,而是未来AI的workload形态会是成什么样。 先简单说下它是干嘛的,防止有老铁还没看Cerebras 它最核心的技术,就是wafer-scale chip(晶圆级芯片),简单理解就是别人还在用“邮票大小”的芯片,它直接把整片晶圆做成一颗超大处理器,再配上超大 SRAM,把大量数据尽量留在本地高速处理,减少传统GPU最头疼的memory bottleneck。现在海力士美光涨上天就是因为HBM这东西太抢手,Cerebras是直接绕开了对HBM的依赖 很多人看到 Cerebras最牛逼的benchmark:推理速度比GPU快10-15倍,第一反应就是下一个英伟达?! 先别急。 这个benchmark最大的问题,是默认AI的核心需求永远是“更快吐token”。 如果只是人类盯着ChatGPT聊天,这故事其实没那么性感。你每秒吐 30 个 token,我已经快读不过来了。再翻10倍,边际体验提升几乎为零。 真正有意思的是 Agent。 Agent不读字,Agent消费Token。速度直接等于生产力。 一个OpenClaw/Hermes agent,如果要读网页、写计划、调 API、跑代码、报错重试、继续执行,一个任务可能要几十次 inference call。 每次 2 秒,任务就是分钟级体验。 每次 200ms,就是另一个世界。 所以 Cerebras更值得关注的地方,是 AI worker 这条线,而不是单纯的chatbot加速。 但问题来了 - 它的magic来自 wafer-scale + 超大SRAM,本地访问极快。但SRAM这东西有天然 tradeoff,速度快,容量贵,大模型塞不下就必须拆分。 而一旦拆分,chip-to-chip communication 就上来了。 LLM inference里最怕通信的恰恰是 decode 阶段。token 是一个一个往外吐的,每多一次 hop,延迟就是硬加上去,没法隐藏。 所以 Cerebras能不能成,关键根本不在“比 GPU 快几倍”,而是未来 AI 的主流计算形态到底是什么。 1. 时间线一 - 未来几年还是 前沿超大模型一统天下,动不动几千亿甚至万亿参数,所有请求都让超大模型自己处理,那 Nvidia的distributed infra 依然最舒服,Cerebras的速度优势会被通信损耗吃掉很多。 2. 时间线二 - MoE、蒸馏、量化这些技术如果继续快速进步,未来两年70B左右的模型做到今天700B模型 80%-90% 的效果,我一点都不意外。(这里要强烈感谢Deepseek一大波!) 如果世界往这个方向走,故事就变了。 大模型负责 planning / judgement / orchestration。 真正执行任务的大量 worker model 落在 30B-70B 这个区间。 这些模型足够聪明,又刚好能吃到高速本地推理带来的红利。 Agent 世界里,大部分token根本不需要最聪明的大脑。很多工作本质就是执行层体力活:浏览网页、改代码、调工具、retry、继续跑流程。 这个 topology一旦成立,Cerebras就直接进入自己的甜区 3. 时间线三 - 未来推理是端侧为主,用的都是8B,14B的这些小模型,那GPU也能跑的很好,甚至专用的ASIC芯片效率更高,这个场景下Cerebras的优势和护城河也就不高了 换句话说,超大模型云端推理或者超小模型的端侧推理这两个平行宇宙,Cerebras的优势都不够明显,只有主流推理落在32B-70B中等模型这个Size,正好“Big enough to stress GPU memory, Small enough to fit locally” 才是Cerebras最能大展身手的世界 所以我对Cerebras的判断是,300多亿的市值,短期看订单,财务报表这些数据,长期赌的则是未来Agent时代的计算范式到底落在哪个平行宇宙的时间线上
显示更多
0
11
71
10
转发到社区
#OpenAI# 还没上市,它的算力小弟先要IPO了,这事挺有意思。🧐 之前黄仁勋讲过,未来推理需求将会增长10亿倍,而下周四5月14日,推理时代的 #AI# 芯片黑马,Cerebras ( $CBRS)要上市了,定价区间115-125美金,募资最高35亿美金,估值266亿美金。也将是 @MSX_CN 的第一期 PreIPO项目,还是十分值得期待的! 今天我们就来拆解一下这家Cerebras公司,以及估值分析情况,还有我个人的一些私人判断和意见。 要了解这个OpenAI系的推理芯片黑马,就要知晓山姆奥特曼的资本布局。 我们都知道英伟达在AI芯片领域有多牛,大模型公司烧钱,云厂商买卡,创业公司排队等GPU,最后利润大多流向卖铲子的英伟达,这是目前行业的现状。 但这种一家独大的局面,各家大模型厂商,都希望有一个嫡系方案做PlanB,比如谷歌Gemini便联合博通采用TPU方案,OpenAI也一直想扶持自己的嫡系部队。 所以在5月6日,OpenAI把英伟达、AMD、英特尔、博通、微软这些本该互相竞争的芯片公司拉到一起,搞了个MRC网络协议。表面看是技术合作,其实是OpenAI要重新分蛋糕了。 更深一层看,我认为是 #OpenAI# 想要拆开英伟达全栈垄断格局。 以前训练、推理、网络、云,全让英伟达一家包圆了。现在呢?OpenAI开始精细化运营:训练归训练,推理归推理,不同场景用不同芯片,不同环节找不同供应商。 #Cerebras# 就是在这个时候被推上了牌桌,它核心负责推理这一环。这正好与最近炒作火热的推理CPU概念,比如 #AMD,##INTC# 等,撞在了风口上。 🔥Cerebras到底牛在哪? Cerebras的核心杀手锏是WSE-3芯片,直接把整片12英寸晶圆做成一颗巨型芯片,面积46225平方毫米,相当于A4纸的三分之一。 我们数据对比看看,相较于英伟达H100: • 它面积是H100的57倍 • 核心数是52倍 • 片上内存是880倍 • 内存带宽是7000倍 这数据📊看起来蛮夸张的,但核心关键不在大,而在于快。 在推理场景,尤其是长文本输出、实时交互、代码生成、AI Agent这些需要低延迟的任务上,Cerebras的CS-3系统推理速度比英伟达DGX B200快21倍,成本和能耗降到三分之一。这个效率和功耗,采用WSE-3芯片意味着OpenAI能在单位时间服务更多客户,这就相当于白花花银子啊。 📊财务数据也很漂亮 首先从市场趋势来看,AI 产业正从训练为主转向推理为主,这是不争的事实,2025 年全球 AI 推理市场规模已达1062亿美元,预计2030年将增至 2550亿美元,而 Cerebras 的技术优势正好踩在了风口上。 另外本轮IPO估值为266亿美金,发行价为115-125美金/股,我觉得是相对便宜的,虽然比上一轮估值翻了倍,上一轮F轮估值约为120亿美金,短短两年时间,直接翻倍,但架不住漂亮的财务数据。 2025年Cerebras营收5.1亿美金,比2024年的2.9亿增长76%。更牛的是净利润8790万美金,2024年还亏4.85亿,直接扭亏为盈。 以266亿估值来算,PS为52倍。以24年上市的热门半导体连接芯片公司Astera Labs( #ALAB#)做对比,它上市首日PS高达81倍。而目前正处于火热的推理赛道炒作中,个人认为Cerebras冲击80-100倍PS绰绰有余,对应的收盘价192美金—239美金,预计有50%以上涨幅!(但也要观察当天纳斯达克指数行情来综合判断) 不能只说好的一面,目前Cerebras问题也很明显,客户集中度太高。阿联酋MBZUAI贡献62%收入,G42贡献24%,前两大客户占86%。意味着Cerebras必须听大客户的话,自主性有限。可喜的是,OpenAI的介入,未来这种收入结构会有所改善,而且OpenAI会成为最大客户。 🎯OpenAI和Cerebras的深度绑定 最新的数据,OpenAI与Cerebras签了多年的合作协议,总价值超200亿美金,Cerebras要给OpenAI提供750兆瓦算力,部署到2028年。 但这不只是采购合同这么简单。OpenAI创始人奥特曼、总裁布鲁克曼、前首席科学家伊利亚、董事会成员亚当·安戈洛,这些核心高管都个人投资了Cerebras。 OpenAI还通过贷款、认股权证等金融工具,和Cerebras建立长期利益绑定。说白了,现在的Cerebras就是OpenAI的芯片部门。 除此之外,Cerebras 3月又与 AWS 达成合作,CS-3 系统上线亚马逊云端服务,成为首个进入主流云端厂商供应链的非 GPU AI 加速器。此外,葛兰素史克、美国能源部、多个国家实验室等也都是其客户,技术实力也得到多维度的验证。 💡OpenAI的资本局 OpenAI的真实意图很清楚: • 训练继续用英伟达高端GPU • 推理引入Cerebras低延迟方案 • 部分GPU采购AMD • 网络协议开放化 • 云服务在AWS、Azure、谷歌Cloud之间多家下注 • 未来可能推自研芯片 这是算力组合拳策略,不同工作负载匹配不同系统,不再单独依赖英伟达全栈方案。 OpenAI正在从模型公司转变为算力架构公司。以前只能被动接受芯片厂商定义的技术路线,现在要主动设计符合自己需求的算力组合。 OpenAI要把芯片供应商从"平台提供者"降维为"模块供应商"。所以扶持Cerebras是其战略中最重要的一环,预期来看,Cerebras上市首日股价,爆火的概率极大! ⚡对英伟达的影响 短期看,Cerebras上市对英伟达冲击不大,就像身上长个粉刺一样无关痛痒。 英伟达目前占AI芯片市场80-90%份额,CUDA生态、GPU供应链、NVLink网络,这些护城河短期很难撼动。 但长期看,威胁是存在的。以前AI公司别无选择,只能用英伟达GPU。现在至少在推理场景,客户有了可行替代方案。这种选择权的出现,削弱了英伟达定价权。 当OpenAI可以说"推理我用Cerebras,训练我用英伟达"时,英伟达就失去了"全包"的议价能力。 AI推理市场正在快速增长。根据预测,2026-2032年全球AI推理市场复合增长率将达28.9%。推理场景更适合专用芯片。当推理市场规模超过训练市场时,英伟达在推理领域的相对弱势就会成为更大问题。 英伟达正在从"唯一供应商"变成"核心供应商之一"。这个转变不是因为英伟达变弱了,而是市场变大了,客户变强了,需求变复杂了。 🧐我的判断 Cerebras上市真正值得看的,不是又一家AI芯片公司IPO,而是OpenAI开始把推理这门生意单独拎出来定价了。 当推理市场被验证可以独立定价时,AI算力市场就真的开始分层了。训练和推理的需求差异被明确化,专用芯片在细分场景的优势被验证。 英伟达"一种芯片打天下"的叙事不再完全成立。市场会从"通用GPU垄断"走向"场景化芯片组合"。 而且不只OpenAI这么干,Anthropic也在和亚马逊、谷歌结盟。头部AI公司都在通过多元化采购降低对英伟达依赖。单一供应商的"完整解决方案"不再是最优选择。 最后值得一提的是,这次 #MSX# 第一期PreIPO项目即将上市,它就是本周四即将上市的Cerebras,拭目以待吧!🧐 DYOR🙏
显示更多
0
53
147
57
转发到社区
英伟达 $NVDA 作为豪门金字塔顶尖的那个人,手指缝漏一点都够底下AI供应链吃半年! 1. $TSM - 台积电 英伟达GPU核心晶圆代工厂,负责Blackwell/Rubin等先进制程芯片生产,是AI供应链最上游关键伙伴,受益于NVIDIA产能扩张。 2. $SMCI - 超微电脑 英伟达AI服务器主要组装商,提供高性能GPU服务器解决方案,直接受益于数据中心部署需求爆发。 3. $MU - 美光科技 HBM高带宽内存重要供应商,AI训练和推理对内存需求激增,推动其营收强劲增长。 4. $AVGO - 博通 定制AI芯片和网络芯片领导者,与英伟达在NVLink等生态合作,AI半导体收入高速增长。 5. $MRVL - 迈威尔科技 英伟达投资20亿美元,聚焦硅光子和NVLink Fusion定制XPU,是异构计算关键伙伴。 6. $IREN - 艾瑞斯能源 英伟达巨额投资并签订GPU云服务大单,转型AI数据中心运营商,基础设施扩张潜力大。 7. $CRWV - CoreWeave 英伟达重仓的AI云基础设施提供商,专注GPU集群部署,是“NVIDIA生态新云”代表。 8. $NBIS - Nebius Group 英伟达投资的AI云公司,助力全球算力扩展和推理服务。 9. $LITE - 朗美通 英伟达投资的光学组件龙头,高速光模块解决AI数据中心带宽瓶颈。 10. $COHR - 相干公司 与Lumentum同期获英伟达投资,光子学和激光技术核心供应商。 11. $GLW - 康宁 英伟达投资支持光纤基础设施,新工厂扩产应对AI数据中心光纤需求。 12. $ANET - Arista Networks 高性能以太网交换机领导者,连接AI GPU集群的关键网络设备供应商。 13. $VRT - Vertiv 数据中心电源与冷却解决方案提供商,与英伟达深度合作应对高密度AI机架散热。 14. $ARM - Arm Holdings 英伟达投资的CPU/IP架构核心公司,AI芯片设计广泛使用其技术。 15. $ASML - ASML 极紫外光刻机垄断供应商,支持先进制程芯片生产,间接驱动英伟达GPU创新。 16. $CRDO - Credo Technology 高速连接和信号完整性解决方案,受益于AI服务器内部互联需求。 17. $APLD - Applied Digital 英伟达投资的数据中心运营商,专注AI/HPC基础设施建设。 18. $CLS - Celestica AI服务器和硬件制造服务商,在供应链中表现突出。 19. $STX - Seagate 数据中心存储解决方案供应商,AI海量数据存储需求驱动增长。 20. $CIEN - Ciena 光网络设备提供商,支持AI数据中心长距离高速传输。
显示更多
0
69
363
125
转发到社区
挑战 Nvidia 的芯片公司 Cerebras 上市日期定在 5.14,发行价 $115-$125, 对应市值在 270 亿美金 Cerebras的特色的是「大芯片」,整片 12 寸晶圆,片上内存 44GB SRAM,内存带宽高达 21 PB/s, 是 B200/Rubin 的 2625 倍,推理速度 15x 下面这个视频很直观,Cerebras 跑 GPT-5.3-Codex-Spark, 13 秒就把一个贪吃蛇游戏做出来了,常规的 GPT-5.3-Codex 用了 50 秒,在小模型上的确有优势 不过 44GB SRAM 装不下超过 1T 参数的主流大模型,通过外挂 MemoryX 模式能训练 24T 参数模型,但速度优势就没有那么大了,预估会缩小到 2-3x Cerebras 还有 2 个需要注意的点,86% UAE 都是 UAE 客户,集中度高;今年增速放缓,P/S 高达 43-49x 另外,Nvidia 的整个生态,仍是非常坚实的护城河 不过作为今年的 AI 芯片第一股,短时间内大概率还是会炒一波,Hiive 上目前 $181 +45%, Hyperliquid 上最高到过 320,现在 210 +68% 希望 moomoo 能支持打新,目前还没看到
显示更多
0
15
222
38
转发到社区
行业深研:LSA--2nm的隐形分水岭 在先进制程不断逼近物理极限的过程中,“热”成为最核心的变量之一,一点点温度偏差都容易让良率不可接受。 LSA这种退火设备,在先进节点中,它的意义已经发生变化。 前道制造中,离子注入是不可绕开的步骤。它负责将掺杂原子打入硅中,定义器件电学特性,同时不可避免地破坏晶格结构。 退火的作用,是完成两件事:修复晶格、激活掺杂。传统路径是炉管或快速热退火(RTA),通过整体加热晶圆,让原子在高温下重新排列。但问题在于,这种加热是全局的,时间是秒级甚至更长,掺杂在被激活的同时发生扩散,结变宽、边界变钝。 在28nm、14nm时代,这种扩散仍然可以容忍。但进入7nm以下,尤其是从FinFET向GAA(Gate-All-Around)过渡之后,器件尺寸逼近物理极限,任何额外扩散都会直接侵蚀性能窗口。问题从“需要退火”变成“需要一种不带副作用的退火”。 LSA通过在纳秒到微秒级时间内对晶圆表面进行瞬时加热,温度可以高于传统退火,但因为持续时间极短,热扩散被压制在极浅范围内。随后快速冷却,掺杂被激活、晶格被修复,但位置几乎不发生迁移,从而形成极浅且陡峭的结。这直接对应更低漏电、更高开关速度以及更可控的电场分布。 放在器件结构演进中看:FinFET解决的是平面器件失效后的继续缩放问题;GAA通过四面包裹沟道提升栅控能力,使先进节点仍能前进一段;而未来的CFET(Complementary FET),则是在横向无法继续压缩之后,通过垂直堆叠来延续密度提升。在这一过程中,结构不断演进,但约束条件在收紧,而“热预算”逐渐成为最硬的边界。 GAA的核心变化是channel更薄、间距更小、结构更复杂,任何额外的热扩散都会直接改变器件的几何与电学特性。source/drain掺杂会向channel侵入,短沟道效应迅速恶化;nanosheet之间的间距与应力分布被扰动,电场控制能力下降;接触区域本身极小,轻微扩散就会带来显著电阻变化。在这一结构下,热扩散不再是性能损失,而是结构破坏。 这也是传统退火开始失效的原因。你仍然可以用它激活掺杂,但代价是把设计好的器件“热模糊”。最终得到的是一个可以导电但偏离设计窗口的晶体管。 LSA正好解决的是这个矛盾。它将“温度”和“时间”解耦:允许极高温度,但把作用时间压缩到扩散尚未来得及发生的尺度;同时通过线光束扫描,仅作用于表面区域,避免深层结构受热。 高温、极短时间与局部控制这三个条件,在现有热处理方案中几乎只在LSA上同时成立。因此,在FinFET时代,LSA更多是性能增强工具,而到了GAA,它的角色变成“结构可行性工具”。 随着节点进入3nm、2nm甚至更小,热处理不再是一个可以灵活调整的工艺步骤,而成为限制器件设计空间的核心变量。LSA的重要性也因此被重新定价,从“可选项”逐步向“默认配置”转变。 GAA仍将是未来5到8年的主线,但其边际收益正在递减。随着尺寸进入2nm及以下,问题开始转向材料与物理极限:沟道无法无限变薄,接触电阻快速上升,功耗不再按比例下降。行业的答案是转向三维结构,即CFET,将NMOS与PMOS垂直堆叠,在横向受限后向纵向要密度。 但CFET带来一个新的约束:热。GAA仍是单层结构,高温处理的容忍度较高;而在CFET中,任何一次高温工艺都有可能破坏已经完成的另一层结构。传统RTA这种“整片加热”的方式开始失效,因为其热扩散范围过大,无法实现层间隔离。 这使得LSA未来更加重要,其纳秒级时间尺度和纳米级加热深度,使其能够只处理单一层而不影响上下层器件。这种选择性热处理能力,是CFET工艺成立的基础。 这种变化也在重塑竞争格局。从设备层面看,LSA仍是一个多玩家市场,核心厂商包括Veeco Instruments Inc.、Applied Materials以及SCREEN Holdings。SCREEN依靠装机量与历史验证占据主流,Applied Materials凭借平台能力与客户绑定形成系统优势,而Veeco通过LSA在先进节点关键工艺中实现突破。 但真正的竞争不止于设备。第一层是设备厂之间的直接竞争;第二层是工艺路线竞争,即LSA与RTA等技术的取舍;第三层是系统级竞争,即谁能将设备、材料与工艺整合进完整流程。在GAA阶段,这种竞争更多体现在设备性能与参数能力上;而进入CFET阶段,竞争将转向与晶圆厂的深度协同,护城河从单一设备转向“设备+工艺+材料”的系统能力。 从客户导入情况看,Veeco已经完成最关键的一步,其LSA设备已进入头部先进逻辑厂,并在部分工艺中成为量产标准设备。这意味着技术已经通过最严格验证,并具备随产能扩张放量的潜力。但这种导入目前仍集中在局部工艺,而非全面主导。在存储领域,包括DRAM与HBM,LSA仍处于评估阶段,尚未进入大规模量产。 因此,LSA的竞争本质上是,谁能在温度控制、扫描均匀性、应力管理等细节上做得更好,谁就更有机会进入先进节点的标准工艺路径。 总的来说,从FinFET、GAA最后到CFET的演变中,LSA完成了从性能优化工具到结构实现基础的转变。下一阶段真正的瓶颈,不只是结构或对准精度,而是在多层堆叠前提下,是否能够完成掺杂激活与缺陷修复,同时不破坏其他层结构。这将决定先进制程的上限,也决定价值将集中在哪些环节。 免责声明:本人持有文章中提及资产,观点充满偏见,非投资建议dyor
显示更多
行业分析:AI光互连全景:谁是下一个“HBM级瓶颈”? AI算力的瓶颈正在从计算转向带宽。随着GPU规模扩大,节点间通信接近N²级增长,电互连在功耗与距离上逐步触顶,光互连从可选项变成刚需。这一变化不只是需求扩张,而是产业结构的重排:光开始从数据中心边缘进入系统核心,甚至进入封装内部。 从底层看,硅光(SiPho)是在硅基上做出一整套光通信器件:波导负责传光,调制器把电信号变成光,探测器再把光变回电。它解决的是带宽与能效问题。硅本身不能发光,激光器依赖InP、GaAs等III-V材料,因此整个体系天然是“硅 + III-V”的异构结构。 产业链可以拆成四层:上游材料(InP与激光材料)、中游核心器件(激光器、硅光芯片)、模块与封装(光模块、CPO)、以及系统与网络架构。价值分配并不均匀。最稀缺的是光源,也就是激光器及其背后的InP体系,这一层类似算力链中的HBM,是物理瓶颈;再往下是硅光与光芯片,决定光电融合是否可行;光模块更偏制造与组装,周期性更强;真正的高价值封装集中在系统级CPO。 在硅光制造这一层,Tower Semiconductor 和 GlobalFoundries 是典型代表。它们本质是foundry,把光子芯片从设计变成晶圆。器件公司是它们的客户,而不是供应商。两者路径不同:TSEM更像工艺专家,擅长定制和复杂结构,解决“别人做不出来”的问题;GF更像平台型foundry,提供标准化工艺和规模能力,让更多客户可以复制。 这也解释了近期股价的差异。TSEM的上涨几乎直接由AI光互连驱动,尤其是硅光需求进入订单兑现阶段;GF更多受益于AI整体需求扩散,硅光只是其中一部分。前者是主线变量,后者更像beta。 很多人会误以为竞争在晶圆尺寸,比如300mm。但在SiPho、模拟、RF这些领域,关键不在晶圆,而在工艺复杂度、良率和客户绑定。真正决定竞争力的是能否稳定量产复杂光电结构,而不是晶圆大小。 从全球格局看,中国在光模块层面占据优势,但在SiPho制造仍处于早期阶段。差距不在技术原理,而在量产能力和客户验证。短期内,由于订单和经验的正反馈,差距在拉大;中期随着下游需求反向驱动,上游有望追赶。这一结构和HBM不同,SiPho不属于天然寡头,更可能走向多极竞争。 真正改变产业结构的是CPO(co-packaged optics)。CPO不是一个器件,而是一种封装形态:把光芯片与算力芯片封在一起,使光从“外部模块”变成“系统内部的一部分”。实现路径是先在SiPho晶圆上完成器件制造,筛选良品(KGD),切割成die,再与GPU/ASIC、HBM等一起进行异构集成,通常采用平面并排而非堆叠。 这一变化的核心结果是:硅光从“独立产品”变成“系统中的一层”。功能重要性不变,但定价权下降。过去光模块可以独立定价;在CPO中,价值更多被系统整合者吸收。掌握先进封装能力的厂商更接近控制节点,这也是为什么TSMC和Intel在这一阶段具备更强话语权,而TSEM和GF更接近中游die供应商。 CPO对技术提出了三大硬约束:功耗、带宽密度和封装耦合。功耗决定系统是否可持续,带宽密度决定扩展能力,封装耦合决定良率和成本。这三点直接推动硅光工艺进入新阶段。 在这一过程中,低损耗波导成为关键基础。波导是芯片内部的“光通道”,损耗以dB/cm衡量。0.1 dB/cm与1 dB/cm的差异,会在封装内线性累积,直接决定系统功耗与成本。当前主流量产水平在0.3–1 dB/cm,先进工艺可到0.1 dB/cm,实验室中的氮化硅(SiN)接近0.01 dB/cm,但距离大规模量产仍有距离。材料路径也逐渐清晰:硅波导受限于粗糙度和折射率,长期趋势是向SiN迁移。 难点不在单点,而在多重极限叠加:侧壁粗糙度、PECVD氢吸收、SiN应力、弯曲损耗、光纤耦合等因素同时作用。这也是为什么真正的优势来自“全栈工艺控制”,而不是某个单一技术突破。 CPO不仅改变技术路径,也改变竞争结构。未来不会出现单一路线,而是分层共存: 核心AI集群:定制CPO,追求极致性能 大规模部署:标准化CPO或pluggable,追求成本与灵活性 即使在CPO内部,也会分化为“高性能CPO”和“标准化CPO”,类似HBM与DDR的关系:前者吃价值,后者吃规模。 对TSEM和GF来说,这种分化进一步强化各自路径。TSEM更靠近高性能CPO,承接定制需求,有机会成为局部瓶颈;GF更靠近标准化CPO,承担规模扩张,是产业的放大器。 整条链可以压缩成一句话:材料决定能不能做,芯片决定性能上限,封装决定系统价值,系统厂决定利润分配。对应到算力链,InP激光器类似HBM,CPO类似GPU封装,光模块类似服务器组装,而硅光晶圆厂更像中间层的chiplet供应商。 从投资角度看,最确定的机会在光源,这是物理瓶颈;最大弹性在硅光与CPO,一旦路径跑通会被放大;光模块是顺周期;封装稳定吃利润但不容易爆发;系统层存在潜在黑马,但取决于架构演进。硅光不会消失,但正在被“吞入系统”。未来真正的“HBM时刻”,更可能出现在光源层或系统级封装,而不是封装之前的中游晶圆环节。 免责声明:本人持有文章中提及资产,观点充满偏见,非投资建议dyor
显示更多
0
15
326
106
转发到社区
中文版本 --- Prompt --- 你是一位擅长手绘风信息图的视觉设计师。请根据以下内容创作一张单页信息图。 风格要求 整体风格:Hand-drawn educational infographic on warm cream paper texture (#F5F0E8#)。所有线条和形状带轻微手绘抖动感(slight hand-drawn wobble),整体干净清晰,像高质量演示文稿的单页视觉摘要。无写实元素。 配色方案: - 信息区色块:马卡龙色系圆角卡片——浅蓝 #A8D8EA、薄荷绿# #B5E5CF、薰衣草紫# #D5C6E0、浅桃# #F4C7AB,根据内容分区选用# - 强调色:珊瑚红 #E8655A,用于关键词、重要数据、勾选标记等需要视觉突出的元素# - 线条与主文字:黑色 - 辅助标注:暖灰 #6B6B6B,字号较小# 图形优先:用图标、简笔画卡通形象、示意图承载信息,文字仅用于标注和点睛,能用图说清的绝不用文字。像好的 slides 一样——一眼看懂结构,细看理解细节。 信息结构:根据内容自动选择最佳视觉布局(流程→箭头串联,对比→左右分栏,循环→环形,组成→并列卡片,层级→嵌套等)。用圆角色块、气泡、虚线框等容器分区,区域间用手绘波浪箭头(hand-drawn wavy arrows)连接并标注简短关系词。 文字层次:标题顶部居中,粗体大号手绘字(bold, large, hand-drawn lettering);区域内用粗体关键词 + 暖灰小字短标签(2-5 词)区分层次。 渲染细节:马卡龙色块不完全填满轮廓(colors do not completely fill outlines),涂鸦装饰点缀(小星星、下划线、小箭头等),充足留白,干净构图。 底部金句:图片底部一句粗体居中总结,概括核心观点。 要图解的内容
显示更多
0
5
105
21
转发到社区