注册并分享邀请链接,可获得视频播放与邀请奖励。

与「AI、模块化等趋势结合后,会产生哪些新的应用和投资机会?」相关的搜索结果

AI、模块化等趋势结合后,会产生哪些新的应用和投资机会? 贴吧
一个关键词就是一个贴吧,路径全站唯一。
创建贴吧
用户
未找到
包含 AI、模块化等趋势结合后,会产生哪些新的应用和投资机会? 的内容
🔥 DeFi 3.0 风口已至:谁将引领下一轮爆发? 🎁 参与 AMA 赢取海量 $USDT 奖励! ⏰ 时间:2025/9/4 20:00 UTC+8 🔗 链接: ✨ 主办方:@MetaEraCN@Z2H_Academy 🎙️ 特邀嘉宾:@qkinode@SCAI_Agents@Vito_168@xiaojinyu168@SherryAtBitMart@QuBitDEX@UZX_Official 📅 设置闹钟与我们一起探索: - 什么是 #DeFi# 3.0?与 1.0、2.0 阶段相比,最大的变化是什么? - DeFi 3.0 会开启哪些新赛道?老赛道(如 DEX、借贷、稳定币)是否仍将稳健发展? - 当前 DeFi 3.0 处于什么阶段?是技术与资金的积累期,还是进入新叙事爆发的前奏? - DeFi 叙事与 #RWA、##AI、模块化等趋势结合后,会产生哪些新的应用和投资机会?#
显示更多
0
8
26
13
转发到社区
最近提交ipo的ai芯片的新宠Cerebras火遍硅谷。 其芯片在小模型场景下,其推理速度最高可达 H100 的 20 倍;而超大规模模型(如 400B 参数量级),Cerebras CS-3 系统的单用户响应速度约为 B200 的 2.4 倍 那么cerebras究竟是如何做到的呢? 它是否会成为英伟达杀手呢? 我们需从算力演进的本质开始。 AI算力的演进,正在从“算力本身”转向“通信与系统结构”。在这条演进路径上,Cerebras Systems提供了一种完全不同的答案:不是优化分布式,而是尽可能消灭分布式。 一、两条路线:消灭通信 vs 优化通信 当前AI算力本质上分为两种架构哲学:一条是以NVIDIA为代表的路线: 多芯片(GPU),高速互连(NVLink / CPO),scale-out(横向扩展) 另一条是Cerebras路径:单芯片做到极限(wafer-scale) 片内网络替代跨节点通信,scale-up(纵向放大) 核心区别是:一条在解决“如何连接更多芯片”,另一条在解决“如何不需要连接”。 二、为什么这条路现在才成立 wafer-scale并不是新概念,80年代就有人尝试,90年代商业化失败。原因是: 良率无法承受 没有容错机制 软件无法支撑 行业因此形成共识:小die + 高良率 + 分布式。 Cerebras的突破在于三件事同时成立: 1)容错机制工程化 2)片上网络成熟 3)AI workload匹配(高并行,强同步,通信主导) 本质变化是:从“完美硬件”转向“可容错系统”。 三、性能对比:单点极限 vs 系统扩展 在通信层面,两条路线的优劣非常清晰: 1)片内通信 Cerebras:纯片内 → 延迟最低、能耗最低 CPO:仍有光电转换 → 单点效率:Cerebras更优 2)系统扩展 Cerebras:一旦跨芯片 → 回到通信问题 CPO:带宽可持续扩展 → 系统能力:CPO更优 3)功耗结构 Cerebras:单机功耗极高,但通信极省 GPU+CPO:单点功耗可控,系统效率更平衡 结论很明确: Cerebras赢“单机极限”, CPO赢“系统规模”。 四、适用场景:谁该用cerebras 判断标准可以简化为三个问题: 1)通信是否是瓶颈 2)任务是否可集中 3)结构是否规则 因此,高度适用于大模型训练(dense模型),超长上下文,及部分HPC(PDE、流体等) 这些任务的共性是强耦合 + 高同步 + 高带宽 部分适用于大模型推理(低并发),图计算(结构复杂时优势下降) 而不适用于CPU(通用计算),高并发推理,移动/边缘芯片,实时系统 这些系统的共性:不规则 / 高并发 / 低延迟 五、是否会变成主流 尽管Cerebras在特定场景极强,但主流不会走这条路,原因是: 1)物理约束:功耗密度;信号延迟→ 容错解决不了这些问题 2)经济性:小die良率更高;chiplet更灵活 3)产业路径:TSMC等体系优化方向是模块化,多客户复用而不是超大单体 4)需求侧变化:推理占比远高于训练,多任务、高并发成为主流 六、cerebras的意义 与其说wafer-scale尺寸是重要的趋势,不如说容错设计是会被广泛吸收的哲学 未来可能会出现chiplet级容错,封装级绕路 核心变化是单个硬件不再需要完美,系统负责兜底。 回到最初的问题:Cerebras会不会成为NVIDIA的“杀手”? 答案其实已经很清楚。 它确实在一个关键点上击中了GPU体系的软肋——通信。但行业的选择,并不是非此即彼,而是多个技术突破同时采用:更强的互连、更低的通信能耗、更高的系统级效率。 因此,更准确的判断是Cerebras不是英伟达的杀手,而是英伟达及所有芯片公司可借鉴的最佳实践。 免责声明:本人持有文中提及的标的,观点必然偏颇,非投资建议,投资风险巨大,入场需极度谨慎 (图:一个cerebas芯片)
显示更多
0
14
84
18
转发到社区
$AVGO 是AI芯片的龙头。但历史告诉你,真正暴富的人买的是龙二 $MRVL 先说一个关于半导体行业的反直觉规律: 在一个严重缺货的市场里,获利最大的往往不是龙头,而是那个追赶中的龙二。(Herman老师分析intel观点我觉得说的很好,也同样非常适用于 $MRVL) 理由很简单: 当产能严重不足,买家再也无法只依赖龙头一家供应商。他们开始把订单给原本觉得"不够好"的替代者。而这个替代者,突然发现自己的产品以前没有人要,现在成了香饽饽——价格可以谈,条款可以谈,一切都变了。晶圆缺货时,原本没有人愿意把订单给Intel的客户,开始认真研究18A了。 那么,在AI定制芯片这个正在快速缺货的赛道里,获利最大的龙二会是谁? 我的答案是 $MRVL 。 1. 先理解结构 AI芯片市场分两层: 第一层:通用GPU Nvidia统治,没有任何人能挑战。H100、B200、Blackwell——超大规模云厂商需要它们,别无选择。 这层市场已经被充分定价了。Nvidia市值5.7万亿,没有人会漏掉这个机会。 第二层:定制ASIC(专用AI加速芯片) 这是一个完全不同的故事。 每一家超大规模云厂商都在开发自己的专用芯片: Google有TPU(张量处理器),Amazon有Trainium(AI训练)和Inferentia(推理),Meta有MTIA(AI推理加速),Microsoft有Maia(Azure AI加速)。 为什么要自己开发芯片? 因为通用GPU虽然强大,但它服务所有人,没有为特定工作负载优化。自研芯片可以针对自己的模型架构和推理需求精确设计,功耗更低,成本更低,效率更高。 这是一个不可逆的趋势——超大规模云厂商越大,自研芯片的动力越强。但有一个关键问题:这些云厂商需要设计合作伙伴。芯片设计是极其复杂的工程,需要有人懂SerDes,懂先进封装,懂chiplet集成,懂供应链——不是随便一家公司能做到的。 全球有能力承接超大规模云厂商定制ASIC设计的公司,只有两家: $Broadcom,和 $Marvell。 2. AVGO vs MRVL:龙头和龙二的真实差距 先看数字: Broadcom在ASIC市场占约55-60%的份额,与Google的TPU合作锁定到2031年,客户包括Meta、OpenAI等顶级厂商。Marvell约占15%的份额,排名第二Broadcom领先是事实,毫无争议。 但有几个数字值得认真对比: AVGO MRVL 市值 $2万亿 $1,470亿 ASIC市占 55-60% 15% FY26AI营收 $200亿+ $96亿 Forward PE 31倍 36倍 Broadcom在定制ASIC市场记录了约$200亿的AI总营收,而Marvell的AI相关营收约$96亿。 从市值角度:AVGO的市值是MRVL的13.6倍,但ASIC市场份额只是MRVL的4倍,AI营收只是MRVL的2倍。这个不对称,是MRVL存在的核心机会。 3. MRVL独特的地方:两场战争同时押注 这是我认为最关键的一点,也是MRVL和所有其他AI芯片公司最本质的区别。 MRVL同时押注了两个互相独立的万亿级叙事: 叙事一:定制ASIC——去Nvidia化的最大受益者 Marvell的数据中心部门FY2026增长46%,超过$60亿,管理层指引FY2027同比再增约40%。定制芯片年化营收已达$15亿规模,两个AI加速器项目处于高产量阶段,第三个超大规模客户合作正在进行。 Nasdaq 最重要的一个进展: 2026年4月,Google被报道正在与Marvell进行深度谈判,共同开发内存处理单元和下一代TPU,这正是Google此前几乎完全交由Broadcom负责的工作。如果谈判成功,Marvell将成为AI行业最具战略意义的芯片项目之一的核心设计伙伴。 这是什么意思? Broadcom和Google的TPU合作锁定到2031年——这是Broadcom的护城河,但不是MRVL的天花板。Google开始和MRVL谈,不是要取代Broadcom,而是要建立第二供应商。这正是"缺货时代,落后者获利"的经典逻辑。 当TPU的设计需求超过了Broadcom单独能服务的上限,Google开始把部分项目分给MRVL。 这一单谈成,MRVL同时拥有Amazon和Google双超大规模客户锚定——三个超大规模客户(Amazon、Microsoft、Google)大幅降低了单一客户集中的风险,给市场提供了更清晰的多年营收增长路线图。 叙事二:光互连DSP——AI集群神经系统的命门 MRVL是目前唯一同时覆盖定制ASIC设计、1.6T光学DSP、硅光子技术(通过Celestial AI收购)和CXL交换的全栈公司——这是任何单一竞争对手都无法复制的护城河。 光互连DSP是什么? 当GPU和GPU之间需要通信,数据需要在光纤里传输。但光纤里走的是模拟光信号,计算机需要的是数字信号。DSP(数字信号处理器)就是这两个世界之间的翻译器——它把数字数据编码成光信号发出去,再把收到的光信号解码成数字数据。 MRVL的PAM4 DSP是全球800G和1.6T光模块的核心芯片之一。光互连业务的需求与AI集群的互连基础设施同步扩张——每一个上线的AI集群都需要完整的互连协议栈,不需要等待GPU的供应情况。 这是最关键的逻辑: GPU供应有时候是稀缺的,但光互连不等GPU——只要数据中心在建,只要AI集群在运行,光互连就需要。 MRVL的DSP是一个和GPU并行运行的独立需求,不是GPU需求的影子。 4. 我自己的判断:为什么MRVL的故事比AVGO更有弹性 AVGO是龙头,MRVL是追赶者。 但在这个特定的历史时刻,追赶者的弹性更大,原因有三: 原因一:基数效应 AVGO已经是$2万亿市值,要翻倍需要成为$4万亿的公司。MRVL只有$1,470亿,翻倍只需要$2,940亿——和AVGO现在市值的15%相当。同样的资金流入,对MRVL股价的推动效果是AVGO的13倍以上。 原因二:Google的变量 AVGO和Google的合作是锁定的,这是护城河,但也意味着它的上行惊喜已经被充分定价。MRVL和Google的谈判还没有正式宣布——这是一个尚未被市场定价的潜在催化剂。如果Google正式宣布,MRVL立刻拥有Amazon+Google双超大规模客户,ASIC市场份额从15%向25%+跳升的路径被打开。 原因三:两个叙事不相关 AVGO的核心护城河是ASIC和VMware软件。 MRVL的两个叙事——ASIC和光互连DSP——是完全独立的业务。 ASIC受益于去Nvidia化,光互连受益于AI集群扩张。两个独立的增长引擎,互相不依赖,互相不替代。 MRVL在多个AI基础设施顺风中同时暴露:定制芯片、光互连、数据中心网络和更广泛的超大规模资本支出周期。这种在AI主题内的多元化暴露,使它成为纯粹的GPU标的(如Nvidia)的有吸引力的补充。 5. 估值合理吗? $MRVL:Forward PE 36.4倍,市值$1,470亿。 $AVGO:Forward PE 31倍,市值$2万亿。 $MRVL的Forward PE比 $AVGO略高,但增速也更快: $MRVL FY27营收预期:约$110亿,同比增速约40% $AVGO FY27增速约25-30%。PEG(PE/增速): $MRVL:36.4 ÷ 40 = 0.91, $AVGO:31 ÷ 27 = 1.15 PEG低于1都算便宜。 用PEG来衡量,MRVL比AVGO便宜约20%。 而且MRVL有Google催化剂这个尚未被定价的变量,AVGO没有。如果Marvell股价涨到$400,需要数据中心营收FY27超过$90亿,Google ASIC合同正式宣布,自定义硅年化营收达到$30亿。在这些条件下,ASIC业务40倍Forward EV/EBITDA,光互连业务20倍EV/Sales。 我觉得2027年是很有可能达到的,这还是在理性的估值下,如果是ai融涨疯牛选择忽略估值的话,如果NVDA到360分析师预测最高,也就是8.8T, 我预测8-10T,那么AVGO会到3-4T, MRVL到500B-1T都问题不大。 6. 三个需要追踪的关键变量 变量一:Google ASIC合同的正式宣布 这是目前MRVL最大的潜在催化剂。谈判已经在进行,但没有正式宣布。每过一个季度没有宣布,市场会稍微失去耐心。但一旦宣布,估值逻辑发生质变。 变量二:1.6T DSP的市场份额 Marvell已经开始出货1.6T PAM DSP,基于5纳米工艺,并推出了下一代3纳米版本,将光模块功耗降低超过20%。 800G向1.6T的迭代是MRVL DSP业务的下一个量子跳跃。如果MRVL能在1.6T时代维持甚至提升市场份额,光互连业务的营收会非线性增长。 变量三:Celestial AI的硅光子整合 MRVL收购了Celestial AI,进入硅光子领域。这是CPO时代最关键的技术平台——把光学引擎直接集成进芯片封装。如果MRVL能在CPO时代把DSP和硅光子整合成一个完整的解决方案,它的价值会远超现在的定价。 7. 最终判断:MRVL是这轮AI牛市里最干净的不对称机会 AI芯片市场分三类公司: 第一类:Nvidia——已经被充分定价的龙头。故事最好,估值最贵,上行惊喜空间有限。 第二类:纯ASIC公司(AVGO)——护城河深厚,但增速放缓在定价中。Google TPU锁定到2031年是确定性,也是上行惊喜的天花板。 第三类:MRVL——两个叙事都在爆发,Google催化剂未定价,市值基数小。 这是不对称机会的经典形态, 下行有Amazon锚定,有光互连稳定收入,不会归零,上行有Google合同宣布+CPO爆发+ASIC市场份额提升,估值可能从$1,470亿走向$5,000亿+。 $MRVL也是我重仓持有的标的之一,短期technical角度今天收长上影线,日线级别调整要来,加仓机会在第一目标165,第二目标140。如果给机会到140补那个缺口,我仓位加满(图1)。 总结:回到那个反直觉的规律:缺货时代,落后者获利最大。 ASIC市场正在缺货——Broadcom一家根本无法满足所有超大规模客户的定制需求。光互连正在缺货——AI集群每季度都在扩张,DSP的需求只增不减。MRVL是这两个缺货赛道里,那个正在被需要的追赶者。 历史一次次证明:当产能不足、供应商只有一两家的时候,第二名是最好的弹性高的投资标的(Nvidia和Amd,TSMC和Intel。) 因为所有人都开始认真研究它了。 #MRVL# #Marvell# #AVGO# #Broadcom# #ASIC# #定制芯片# #光互连# #DSP# #Google# #Amazon# #Nvidia# #AI芯片# #半导体# #美股# #龙二补涨# #CPO# #硅光子# #AI基建# #USStocks# #AIStocks# #数据中心# #去Nvidia化#
显示更多
0
24
324
58
转发到社区
#OpenAI# 还没上市,它的算力小弟先要IPO了,这事挺有意思。🧐 之前黄仁勋讲过,未来推理需求将会增长10亿倍,而下周四5月14日,推理时代的 #AI# 芯片黑马,Cerebras ( $CBRS)要上市了,定价区间115-125美金,募资最高35亿美金,估值266亿美金。也将是 @MSX_CN 的第一期 PreIPO项目,还是十分值得期待的! 今天我们就来拆解一下这家Cerebras公司,以及估值分析情况,还有我个人的一些私人判断和意见。 要了解这个OpenAI系的推理芯片黑马,就要知晓山姆奥特曼的资本布局。 我们都知道英伟达在AI芯片领域有多牛,大模型公司烧钱,云厂商买卡,创业公司排队等GPU,最后利润大多流向卖铲子的英伟达,这是目前行业的现状。 但这种一家独大的局面,各家大模型厂商,都希望有一个嫡系方案做PlanB,比如谷歌Gemini便联合博通采用TPU方案,OpenAI也一直想扶持自己的嫡系部队。 所以在5月6日,OpenAI把英伟达、AMD、英特尔、博通、微软这些本该互相竞争的芯片公司拉到一起,搞了个MRC网络协议。表面看是技术合作,其实是OpenAI要重新分蛋糕了。 更深一层看,我认为是 #OpenAI# 想要拆开英伟达全栈垄断格局。 以前训练、推理、网络、云,全让英伟达一家包圆了。现在呢?OpenAI开始精细化运营:训练归训练,推理归推理,不同场景用不同芯片,不同环节找不同供应商。 #Cerebras# 就是在这个时候被推上了牌桌,它核心负责推理这一环。这正好与最近炒作火热的推理CPU概念,比如 #AMD,##INTC# 等,撞在了风口上。 🔥Cerebras到底牛在哪? Cerebras的核心杀手锏是WSE-3芯片,直接把整片12英寸晶圆做成一颗巨型芯片,面积46225平方毫米,相当于A4纸的三分之一。 我们数据对比看看,相较于英伟达H100: • 它面积是H100的57倍 • 核心数是52倍 • 片上内存是880倍 • 内存带宽是7000倍 这数据📊看起来蛮夸张的,但核心关键不在大,而在于快。 在推理场景,尤其是长文本输出、实时交互、代码生成、AI Agent这些需要低延迟的任务上,Cerebras的CS-3系统推理速度比英伟达DGX B200快21倍,成本和能耗降到三分之一。这个效率和功耗,采用WSE-3芯片意味着OpenAI能在单位时间服务更多客户,这就相当于白花花银子啊。 📊财务数据也很漂亮 首先从市场趋势来看,AI 产业正从训练为主转向推理为主,这是不争的事实,2025 年全球 AI 推理市场规模已达1062亿美元,预计2030年将增至 2550亿美元,而 Cerebras 的技术优势正好踩在了风口上。 另外本轮IPO估值为266亿美金,发行价为115-125美金/股,我觉得是相对便宜的,虽然比上一轮估值翻了倍,上一轮F轮估值约为120亿美金,短短两年时间,直接翻倍,但架不住漂亮的财务数据。 2025年Cerebras营收5.1亿美金,比2024年的2.9亿增长76%。更牛的是净利润8790万美金,2024年还亏4.85亿,直接扭亏为盈。 以266亿估值来算,PS为52倍。以24年上市的热门半导体连接芯片公司Astera Labs( #ALAB#)做对比,它上市首日PS高达81倍。而目前正处于火热的推理赛道炒作中,个人认为Cerebras冲击80-100倍PS绰绰有余,对应的收盘价192美金—239美金,预计有50%以上涨幅!(但也要观察当天纳斯达克指数行情来综合判断) 不能只说好的一面,目前Cerebras问题也很明显,客户集中度太高。阿联酋MBZUAI贡献62%收入,G42贡献24%,前两大客户占86%。意味着Cerebras必须听大客户的话,自主性有限。可喜的是,OpenAI的介入,未来这种收入结构会有所改善,而且OpenAI会成为最大客户。 🎯OpenAI和Cerebras的深度绑定 最新的数据,OpenAI与Cerebras签了多年的合作协议,总价值超200亿美金,Cerebras要给OpenAI提供750兆瓦算力,部署到2028年。 但这不只是采购合同这么简单。OpenAI创始人奥特曼、总裁布鲁克曼、前首席科学家伊利亚、董事会成员亚当·安戈洛,这些核心高管都个人投资了Cerebras。 OpenAI还通过贷款、认股权证等金融工具,和Cerebras建立长期利益绑定。说白了,现在的Cerebras就是OpenAI的芯片部门。 除此之外,Cerebras 3月又与 AWS 达成合作,CS-3 系统上线亚马逊云端服务,成为首个进入主流云端厂商供应链的非 GPU AI 加速器。此外,葛兰素史克、美国能源部、多个国家实验室等也都是其客户,技术实力也得到多维度的验证。 💡OpenAI的资本局 OpenAI的真实意图很清楚: • 训练继续用英伟达高端GPU • 推理引入Cerebras低延迟方案 • 部分GPU采购AMD • 网络协议开放化 • 云服务在AWS、Azure、谷歌Cloud之间多家下注 • 未来可能推自研芯片 这是算力组合拳策略,不同工作负载匹配不同系统,不再单独依赖英伟达全栈方案。 OpenAI正在从模型公司转变为算力架构公司。以前只能被动接受芯片厂商定义的技术路线,现在要主动设计符合自己需求的算力组合。 OpenAI要把芯片供应商从"平台提供者"降维为"模块供应商"。所以扶持Cerebras是其战略中最重要的一环,预期来看,Cerebras上市首日股价,爆火的概率极大! ⚡对英伟达的影响 短期看,Cerebras上市对英伟达冲击不大,就像身上长个粉刺一样无关痛痒。 英伟达目前占AI芯片市场80-90%份额,CUDA生态、GPU供应链、NVLink网络,这些护城河短期很难撼动。 但长期看,威胁是存在的。以前AI公司别无选择,只能用英伟达GPU。现在至少在推理场景,客户有了可行替代方案。这种选择权的出现,削弱了英伟达定价权。 当OpenAI可以说"推理我用Cerebras,训练我用英伟达"时,英伟达就失去了"全包"的议价能力。 AI推理市场正在快速增长。根据预测,2026-2032年全球AI推理市场复合增长率将达28.9%。推理场景更适合专用芯片。当推理市场规模超过训练市场时,英伟达在推理领域的相对弱势就会成为更大问题。 英伟达正在从"唯一供应商"变成"核心供应商之一"。这个转变不是因为英伟达变弱了,而是市场变大了,客户变强了,需求变复杂了。 🧐我的判断 Cerebras上市真正值得看的,不是又一家AI芯片公司IPO,而是OpenAI开始把推理这门生意单独拎出来定价了。 当推理市场被验证可以独立定价时,AI算力市场就真的开始分层了。训练和推理的需求差异被明确化,专用芯片在细分场景的优势被验证。 英伟达"一种芯片打天下"的叙事不再完全成立。市场会从"通用GPU垄断"走向"场景化芯片组合"。 而且不只OpenAI这么干,Anthropic也在和亚马逊、谷歌结盟。头部AI公司都在通过多元化采购降低对英伟达依赖。单一供应商的"完整解决方案"不再是最优选择。 最后值得一提的是,这次 #MSX# 第一期PreIPO项目即将上市,它就是本周四即将上市的Cerebras,拭目以待吧!🧐 DYOR🙏
显示更多
0
53
147
57
转发到社区
行业分析:AI光互连全景:谁是下一个“HBM级瓶颈”? AI算力的瓶颈正在从计算转向带宽。随着GPU规模扩大,节点间通信接近N²级增长,电互连在功耗与距离上逐步触顶,光互连从可选项变成刚需。这一变化不只是需求扩张,而是产业结构的重排:光开始从数据中心边缘进入系统核心,甚至进入封装内部。 从底层看,硅光(SiPho)是在硅基上做出一整套光通信器件:波导负责传光,调制器把电信号变成光,探测器再把光变回电。它解决的是带宽与能效问题。硅本身不能发光,激光器依赖InP、GaAs等III-V材料,因此整个体系天然是“硅 + III-V”的异构结构。 产业链可以拆成四层:上游材料(InP与激光材料)、中游核心器件(激光器、硅光芯片)、模块与封装(光模块、CPO)、以及系统与网络架构。价值分配并不均匀。最稀缺的是光源,也就是激光器及其背后的InP体系,这一层类似算力链中的HBM,是物理瓶颈;再往下是硅光与光芯片,决定光电融合是否可行;光模块更偏制造与组装,周期性更强;真正的高价值封装集中在系统级CPO。 在硅光制造这一层,Tower Semiconductor 和 GlobalFoundries 是典型代表。它们本质是foundry,把光子芯片从设计变成晶圆。器件公司是它们的客户,而不是供应商。两者路径不同:TSEM更像工艺专家,擅长定制和复杂结构,解决“别人做不出来”的问题;GF更像平台型foundry,提供标准化工艺和规模能力,让更多客户可以复制。 这也解释了近期股价的差异。TSEM的上涨几乎直接由AI光互连驱动,尤其是硅光需求进入订单兑现阶段;GF更多受益于AI整体需求扩散,硅光只是其中一部分。前者是主线变量,后者更像beta。 很多人会误以为竞争在晶圆尺寸,比如300mm。但在SiPho、模拟、RF这些领域,关键不在晶圆,而在工艺复杂度、良率和客户绑定。真正决定竞争力的是能否稳定量产复杂光电结构,而不是晶圆大小。 从全球格局看,中国在光模块层面占据优势,但在SiPho制造仍处于早期阶段。差距不在技术原理,而在量产能力和客户验证。短期内,由于订单和经验的正反馈,差距在拉大;中期随着下游需求反向驱动,上游有望追赶。这一结构和HBM不同,SiPho不属于天然寡头,更可能走向多极竞争。 真正改变产业结构的是CPO(co-packaged optics)。CPO不是一个器件,而是一种封装形态:把光芯片与算力芯片封在一起,使光从“外部模块”变成“系统内部的一部分”。实现路径是先在SiPho晶圆上完成器件制造,筛选良品(KGD),切割成die,再与GPU/ASIC、HBM等一起进行异构集成,通常采用平面并排而非堆叠。 这一变化的核心结果是:硅光从“独立产品”变成“系统中的一层”。功能重要性不变,但定价权下降。过去光模块可以独立定价;在CPO中,价值更多被系统整合者吸收。掌握先进封装能力的厂商更接近控制节点,这也是为什么TSMC和Intel在这一阶段具备更强话语权,而TSEM和GF更接近中游die供应商。 CPO对技术提出了三大硬约束:功耗、带宽密度和封装耦合。功耗决定系统是否可持续,带宽密度决定扩展能力,封装耦合决定良率和成本。这三点直接推动硅光工艺进入新阶段。 在这一过程中,低损耗波导成为关键基础。波导是芯片内部的“光通道”,损耗以dB/cm衡量。0.1 dB/cm与1 dB/cm的差异,会在封装内线性累积,直接决定系统功耗与成本。当前主流量产水平在0.3–1 dB/cm,先进工艺可到0.1 dB/cm,实验室中的氮化硅(SiN)接近0.01 dB/cm,但距离大规模量产仍有距离。材料路径也逐渐清晰:硅波导受限于粗糙度和折射率,长期趋势是向SiN迁移。 难点不在单点,而在多重极限叠加:侧壁粗糙度、PECVD氢吸收、SiN应力、弯曲损耗、光纤耦合等因素同时作用。这也是为什么真正的优势来自“全栈工艺控制”,而不是某个单一技术突破。 CPO不仅改变技术路径,也改变竞争结构。未来不会出现单一路线,而是分层共存: 核心AI集群:定制CPO,追求极致性能 大规模部署:标准化CPO或pluggable,追求成本与灵活性 即使在CPO内部,也会分化为“高性能CPO”和“标准化CPO”,类似HBM与DDR的关系:前者吃价值,后者吃规模。 对TSEM和GF来说,这种分化进一步强化各自路径。TSEM更靠近高性能CPO,承接定制需求,有机会成为局部瓶颈;GF更靠近标准化CPO,承担规模扩张,是产业的放大器。 整条链可以压缩成一句话:材料决定能不能做,芯片决定性能上限,封装决定系统价值,系统厂决定利润分配。对应到算力链,InP激光器类似HBM,CPO类似GPU封装,光模块类似服务器组装,而硅光晶圆厂更像中间层的chiplet供应商。 从投资角度看,最确定的机会在光源,这是物理瓶颈;最大弹性在硅光与CPO,一旦路径跑通会被放大;光模块是顺周期;封装稳定吃利润但不容易爆发;系统层存在潜在黑马,但取决于架构演进。硅光不会消失,但正在被“吞入系统”。未来真正的“HBM时刻”,更可能出现在光源层或系统级封装,而不是封装之前的中游晶圆环节。 免责声明:本人持有文章中提及资产,观点充满偏见,非投资建议dyor
显示更多
0
15
326
106
转发到社区
孙宇晨说短期缺芯片、长期缺能源、永远缺存储 再长期靠核能! AI 能源革命下最值得关注的10个核能股票清单 👇 1. Oklo $OKLO 小型模块化核反应堆SMR概念龙头之一,获Meta、英伟达等科技巨头支持,专注数据中心专用电源,主打下一代微型核电站 2. Cameco $CCJ 全球领先铀生产商,掌控优质铀矿资源,是核燃料上游核心标的 3. Constellation Energy $CEG 美国最大核电运营商,21座反应堆,签署微软等数据中心长期供电协议,现金流强劲 4. BWX Technologies $BWXT 服务海军及商用SMR,订单积压强劲,国防+民用双驱动 5. Vistra $VST 能源综合公司,布局核电与清洁能源,受益于电力市场价格上涨周期 6. X-Energy $XE 先进SMR开发商,主打Xe-100高温气冷堆HTGR及TRISO-X燃料,2026年成功IPO,获亚马逊等巨头支持 7. ASP Isotopes $ASPI 专注于生产HALEU高富集低浓铀和先进同位素,采用创新的激光富集技术,是目前核燃料供应链中关键的新兴公司 8. NuScale Power $SMR 美国SMR领域先行者,已获得监管进展,具备商业化落地潜力,是传统核能升级路径核心标的 9. Nano Nuclear Energy $NNE 专注便携式微型核反应堆,概念极具未来感,被市场称为核能版AI概念股 10. Centrus Energy $LEU 美国重要核燃料供应商之一,美国先进反应堆关键燃料,政策支持下国产化替代空间大 你觉得下一只10倍核能股是谁?
显示更多
0
44
314
86
转发到社区
最Pua项目给 Tabi ,有没有反对的? 出身自带光芒,23年获得币安的投资+大牛市行情。五六年的等待换来的是一个又一个新赛道,哪个赛道热追哪个、什么都没玩好,最后弄的四不像!细数下这项目具体蹭了多少热门赛道:NFT、Bsc、L1、GameFi、基础设施、Cosmos、EVM、支付、稳定币、RWA、Ai 总结 21–23:NFT 市场阶段(Treasureland → Tabi) 24:L1 公链 + Gaming/Consumer 基础设施阶段 25:Consumer Finance(TabiPay)深耕阶段 26 :Consumer AI 执行层(当前核心叙事) 详细项目进展: 20–21 早期 NFT 平台 23.5 L1 公链诞生 24.2–3 公布 Tabi Chain(Cosmos SDK + EVM 兼容模块化链) 24.4–6公布路线图:Public Sale → Captain Node Sale → Airdrop → TGE 25 Devnet v3/v4 陆续上线、Genesis Deposit、Testnet v3、TabiPay 推出 ,布局支付、稳定币、RWA 等 26 Q1 原计划 Mainnet 上线(实际执行中) 26.4–5TabiPay sunset(逐步下线),全面 pivot 到 Consumer AI 定位
显示更多
BWX Technologies 最近宣布收购 Precision Components Group,这是一次产能扩张,新增的50万平方英尺厂房和400多名熟练工人,在核能需求重新启动的周期里,是能稳定交付的制造能力的保证。 核能正在进入一个新的上行周期。AI带来的电力需求增长,叠加政策推动的小型模块化反应堆(SMR)和能源结构转型,使核能重新成为“稳定基荷电源”。 供需缺口急剧拉大。尤其是在美国,本土核工业制造能力长期萎缩,具备认证、工艺和经验的生产体系极难复制。核级设备涉及严格的认证体系和极长的验证周期,不是资本投入就能快速扩出来的产能。 这使得行业的竞争逻辑发生变化。和之前的be逻辑类似,重要的是制造和按时交付。BWXT通过这次收购,把自身从“接单能力”进一步推向“交付能力”。 如果用类半导体产业链的视角去看,核能产业链也在逐渐出现类似“ASML / KLA”的角色。真正的核心在那些具备高认证、高复杂制造能力、且产能极难复制的供应层。 BWXT本身就是这一类公司,更接近“复杂度收费者”的角色。类似的还有 Curtiss-Wright,在泵、阀门和控制系统等关键部件上形成长期绑定,一旦进入供应链,生命周期可以锁定几十年。Chart Industries 则属于跨能源体系的设备提供商,类似更广义的“卖水人”。 相比之下,像 Westinghouse Electric Company 这样的反应堆公司,更接近整机厂,承担工程和系统集成风险;NuScale Power 代表未来可能的技术方向,但商业模式和成本仍未完全验证;而 Cameco 则处在资源端,受益于需求增长但更具周期性。 类似AI产业链中GPU、HBM、电力成为瓶颈,核能体系里的瓶颈正在向制造端集中。AI的发展正在反向推动重工业复兴,形成一条清晰的传导路径:算力需求增长→电力需求上升→核能重启→制造能力成为约束。 BWXT的这一步,本质是在赌一件事:未来核能的竞争,不是需求之争,而是供给能力之争。谁能造出来,谁就拥有定价权。 免责声明:本人持有文章提及股票,观点充满偏见,非投资建议dyor
显示更多
AI芯片的scale up,底层=物理的限制是reticle: 光刻机一次只能曝光一个固定大小的区域,上限大约在800mm²左右。这决定了目前单颗芯片的尺寸的硬天花板。 行业突破这个限制的难度非常大,接近物理极限,因为光刻的面积和精度往往不能两全(镜头等设备限制),所以只能绕开它。 早期是大GPU,但这样做成本和良率都会变得很差。后来逐渐转向另外两条路径:一种是把系统做大,用一块更大的“硅底板”interposer把多个芯片拼在一起;另一种是把芯片拆小,再通过高速连接重新组合。 interposer本质上不做计算,只负责连接。GPU、HBM这些芯片放在上面,通过更细、更密、更短的连线实现高带宽数据交换。AI算力之所以能上一个台阶,很大程度上不是因为算得更快,而是数据在不同芯片之间移动得更快。 但interposer本身也会超过reticle的尺寸,这时候就需要用到stitching。做法就像拼瓷砖:一块一块曝光,然后精确对齐,拼成一个整体。难点在于精度控制,边界一旦对不齐,连线就会出问题。 这种方式只适用于对精度不那么敏感的结构。像CPU、GPU这类逻辑芯片,对时序的要求极高,任何纳米级误差都可能影响性能,所以不能用stitching。interposer因为只是布线层,没有复杂逻辑,可以容忍这种拼接带来的误差。 围绕连接这件事,行业逐渐形成了cowos和emib两种不同的实现路径。一种是做一个统一的大平台,把所有芯片放在同一块interposer上,连接集中在这层完成,带宽能力很强,但成本也高。另一种是不做大底板,只在需要高速连接的地方嵌入一小块桥接结构,按需提供带宽,结构更灵活,制造压力也更小。 在AI训练场景下,模型规模大,HBM带宽成为关键,整个平台需要维持极高的数据吞吐,这类设计更依赖大面积interposer。 但推理场景的约束不一样,更关注成本、延迟和并发,带宽需求往往集中在局部,不需要整个平台都维持极致带宽。这时候,把芯片拆成多个模块,再用局部高速连接拼起来,会更合适。 这也是EMIB这类方案更容易在推理芯片和ASIC里出现的原因。它不需要一整块大interposer,而是在关键位置提供高带宽连接,可以把计算、缓存、IO等模块分开设计,再按需组合。这样的结构更容易控制成本,也更有利于根据不同业务场景做定制化调整。对云厂自研芯片来说,这种灵活性很重要。 当然,推理并不完全不需要高带宽。在一些大模型推理场景里,HBM依然重要,对应的封装方案也会更接近训练芯片。但在更广泛的推理需求中,成本和规模才是核心约束,这使得模块化和局部互连的价值变得更高。 站在26年一季度末看未来,AI算力的扩展路径其实已经很清晰了。不是把单个芯片做得越来越大,而是把计算拆开,再用更高带宽把它们连接起来。芯片本身的尺寸被reticle锁死了,系统的规模则由连接能力决定。 免责声明:本文非投资建议dyor
显示更多
0
16
213
39
转发到社区
Restaking 生态终于迎来了两个重要里程碑:EigenLayer 上线主网,以及首批上线主网的 AVS:AltLayer、Brevis、eoracle、Lagrange、Witness Chain、Xterio。 AVS 才是 EigenLayer 协议能否真的具有实用性和安全性的最终体现。而此前的这些 Restaking 协议或者流动性再质押代币,只是这个生态的起步和吸引流动性的手段之一。此前更多是通过激励供给,让更多 ETH 进入 Restaking 生态并调动更多节点,而 AVS 才有潜力释放需求,才能为 Crypto 和去中心化网络提供更多价值。 首批上线的 AVS 分布在各个赛道,包括 Rollup 即服务、预言机、ZK 协议处理、DePIN、游戏。最值得注意的是 ZK 协处理器,这是个相对新的概念,也没有成熟的产品,而 EigenLayer 竟然在首批同时支持 Brevis 和 Lagrange。 另外,EigenLayer 的主网上线并不意味着协议已经进入了成熟期,仍有很多尚未完全清楚的模块和方案,比如未来节点的罚没(Slashing)机制,如何从经济层面确保 AVS 的安全性,甚至是代币经济学的设计,都需要等待团队后续披露。 ⚡️什么是 AVS? AVS 全称 Actively Validated Services(主动验证服务),是 EigenLayer 协议中设定的一个概念。简单来说,可以把 AVS 类比为「中间件」,也就是可以为终端产品提供服务的,比如数据和验证的能力。 ⚡️AltLayer: Rollup 即服务 AltLayer是一个 Rollups-as-a-Service 供应商,可以根据需求定制 Rollup 这些 Layer2 网络的部署。AltLayer 与 EigenLayer 合作推出了 Restaked Rollup 框架,并且提供了三个模块化的 AVS。 - VITAL (AVS for decentralized verification of rollup's state):可去中心化验证 Rollup 状态的 AVS - MACH (AVS for fast finality):快速终局性的 AVS - SQUAD (AVS for decentralized sequencing):去中心化定序器的 AVS ⚡️Brevis:ZK 协处理器 「ZK 协处理」这个概念也有一年多的时间了,简单来说,就是可以通过零知识证明技术,让以太坊的智能合约获得更多的可验证的数据,丰富应用的使用场景。 Brevis coChain 是一个 PoS 区块链,可以通过 ETH 质押来保护其安全性,依赖 EigenLayer 协议。它在设计上更像是「乐观」机制和「ZK」机制的组合。 ⚡️eoracle:模块化和可编程的预言机网络 预言机协议 eoracle 这个名字来自于 (e)thereum + oracle。他们称自己是以太坊上第一个「原生」的预言机。 预言机的需求以及商业模式相比其他几个 AVS 就明确的多,很多DeFi、RWA 都需要链外的数据,而预言机网络就是通过参与的节点来验证数据。 eoracle 明确表示会是双代币的模式,其他几个 AVS 也可能会是这种模式,也就是网络的安全性依赖 Restaked ETH 来保证,同时也会发行 AVS 的原生代币,用来激励节点。 至于原生代币的更多用途和设计,暂时没有披露,但他们认为原生代币可以促进网络的参与度(也就是激励用户?),确保公平价值分配(也就是收入按照 Token 分配?)和促进 eoracle 协议的去中心化(也就是作为权重或者治理?)。 ⚡️Lagrange:并行 ZK 协处理器 Lagrange 团队表示,他们设计的 ZK 协处理器原生支持并行化和水平扩展,能够轻松证明大规模分布式计算在链上存储或事务数据的结果,并且证明工作负载可以同时分布在成千上万的工作节点上。除此之外,和 Brevis 提供的服务有些类似。Lagrange 这个名字来源于数学家、力学家和天文学家「拉格朗日」。 ⚡️Witness Chain:DePIN 网络 Witness Chain 是一个专为去中心化物联网设备设计的网络,它包含了很多组件,比如 DCL (DePIN Coordination Layer),其实也就是提供了一些 DePIN 生态所需要的基本服务,比如链本身的安全性、节点的带宽、物理位置等。 ⚡️Xterio:专注游戏生态的 L2 Xterio 和上面这些 AVS 稍微有些不同,它其实是利用 AltLayer 的 RaaS 发行的一条基于 EigenDA 和 OP Stack 的二层区块链。Xterio Chain将专注在 AI 和 Web3 游戏相关的场景中。 阅读全文:
显示更多
0
11
183
74
转发到社区