注册并分享邀请链接,可获得视频播放与邀请奖励。

与「硅光」相关的搜索结果

硅光 贴吧
一个关键词就是一个贴吧,路径全站唯一。
创建贴吧
用户
未找到
包含 硅光 的内容
所有人都在买GPU和存储。没有人告诉你光模块公司的总市值比美光还低 我想从一个反常识的问题开始:GPU是AI的大脑,存储是AI的记忆。那光是什么?光是AI的神经系统。但神经系统从来不是最先被注意到的。存储已经涨了10倍,GPU更不用说。光的时代,刚刚开始。 1. 先说一个结构性的错误定价 在Nvidia的NVL72机架里,光模块的采购金额占到整个机架的20%。2026年全球AI光收发器市场规模预计从2025年的$165亿增长到$260亿,同比增速超过57%——这是半导体赛道里增速最快的子领域之一。 但所有光模块公司的总市值,比美光一家还低。这个错误会被纠正。问题只是什么时候。 2. 光和存储不一样的地方 存储的接力是季度级别的事件——供需拐点,财报超预期,市场重新定价,SNDK从$200涨到$900,这个过程很快。光的接力是年级别的结构性变迁,因为光的技术路线本身正在发生一次范式转移: 第一阶段(现在):可插拔光模块 800G → 1.6T → 3.2T 线性增长,随数据中心扩张 第二阶段(2026下半年):近封装光学NPO 光模块移向芯片旁边 需求非线性跳升 第三阶段(2027-2028):共封装光学CPO 光引擎直接封装进芯片 这是终局,也是最大的价值重构 Meta在OFC 2026分享了大量数据,证明CPO比可插拔光收发器更可靠,成本更低,功耗更少。Nvidia在GTC展示了CPO将在2027/28年用于Scale-Up互连。5年内所有AI数据中心互连都将是光。 这不是预测,是物理定律。铜在高速率下信号损耗太大,功耗太高,距离太短。光没有这些问题。 3. 光在吃铜,不只是光吃光 生成式AI集群需要比传统云服务多10到100倍的光纤,正在把现有铜互连逼到物理极限。 这是大多数人没想到的逻辑——光的增长不只来自数据中心规模的扩大,还来自光替代铜的渗透率提升。每一代迭代,光吃掉更多铜的市场。这是双重驱动,不是单一驱动。 4. 产业链七个卡位,从上游到下游 现在我来把整条产业链拆清楚。 七个公司,覆盖从最上游的衬底到最下游的网络设备。 🔬 最上游:硅光衬底 $SOI 做的是硅光PIC的衬底材料——整个产业链最上游的原材料。没有SOI的衬底,硅光芯片就没有基础。护城河极高,几乎没有竞争对手能短期内介入。和TSEM形成上下游绑定:SOI提供衬底,TSEM代工成芯片。 🏭 代工层:硅光晶圆厂 $TSEM(Tower Semiconductor)硅光版本的台积电。 今天刚刚发生的重大事件: TSEM宣布签署$13亿的2027年硅光合同,收到$2.9亿产能预付款,2028年还有更大合同在谈判中。计划资本支出$9.2亿专门用于硅光扩产,Q2营收指引$4.55亿同比增22%。 TSEM最聪明的地方在于:它不赌哪条技术路线赢。 可插拔、NPO、CPO,三条路线都用TSEM代工。就算市场对技术路线判断错了,TSEM依然受益。这是光通讯产业链里确定性最高的picks-and-shovels。 💡 激光器层:光的心脏 光模块的核心是激光器。没有激光器,光模块什么都不是。 激光器分两条技术路线: 磷化铟(InP)路线——$LITE(Lumentum) LITE是目前唯一能量产200G每lane EML激光器的供应商,是1.6T收发器的关键零件。Nvidia预先锁定了LITE的EML产能,推迟交货期超过2027年。 Nvidia向LITE投资$20亿,用于加速AI基础设施光学技术。LITE CEO称2026年是激光器芯片销售的"突破年",刚收到历史上最大的CPO超高功率激光器采购承诺。 LITE的护城河是时间积累的——InP激光器的制造需要极其精密的工艺,20年积累的经验是任何竞争对手短期无法复制的。而且LITE不只押注现在:EML是可插拔时代的命门,ELS外置激光器是CPO时代的命门,OCS光路交换机是未来AI集群的光学路由器。 三个产品线覆盖了光通讯从现在到2030年的完整需求。 硅光(SiPho)激光器路线——$SIVE(Sivers Semiconductors) Sivers专注于CPO系统的高性能InP激光阵列,Jabil合作是第一个商业验证信号,证明技术正在从研究走向真实超大规模部署。 SIVE不是要打败LITE,而是作为CPO时代激光器供应链里的补充供应商——当LITE和COHR产能不足时,SIVE是下一个选项。整个CPO产业的激光器供应严重短缺,补充供应商的价值会被重新定价。 🔭 光学系统层:从组件到整合 $COHR(Coherent Corp) COHR最新Q3财报:营收$18.1亿同比增21%,数据中心和通信板块$14亿,同比增40%。Nvidia同样投资$20亿入股COHR。COHR是整个光通讯赛道里垂直整合程度最高的公司。从InP晶圆到激光器到光模块到系统,全部自己做。COHR正在扩大6英寸InP晶圆产能,这是推动毛利率持续提升的核心驱动力——规模越大,每片晶圆的成本越低,利润越高。 LITE和COHR的关系是竞争者也是互补者: LITE:激光器专家,EML垄断,聚焦 COHR:光学系统整合商,体量更大,更全面 🏗️ 物理基础设施层:光纤和连接 $GLW(Corning) Corning是光通讯产业链里最让人意外的标的——一家成立于1851年的玻璃公司,正在成为AI基础设施的核心受益者。 Q1 2026光学通信业务增长36%,分部净利润增长93%。2028年营收目标$300亿,2030年$400亿,内含年化增速19%。两个额外的超大规模云厂商签署了长期协议。 Nvidia命名Corning为下一代AI基础设施光连接合作伙伴,投资$5亿+最高$32亿股权,在美国建三座专属光学工厂。 Corning做的是光纤、线缆和连接器——不是最性感的产品,但是不可或缺的基础设施。 城市要运转,不只需要主干道,还需要所有的小路、接头、路牌。 Corning做的就是光通讯世界里的所有"小路和接头"。 而且这些"小路和接头"是消耗品——每建一个数据中心都需要,每升级一个机架都需要。 📡 网络层:AI时代的网络基础设施 $NOK(Nokia) Nokia是这七个标的里最被市场误解的。大多数人还在用"翻盖手机公司"的眼光看Nokia。 Nokia 2026营收预期同比增长7.5%,EPS增长21.2%,光网络业务增速20%,AI和云业务增速49%,单季度新增€10亿AI和云订单。 Nokia做的是什么? 光传输网络(OTN)——把数据中心之间用光连接起来的骨干网络。这是Scale-Across的核心基础设施。 Nokia的第六代超相干光学技术PSE-6s,是目前全球少数能实现800G甚至1.2T长距离光传输的技术之一。 Nokia收购Infinera之后,从"转卖别人芯片的公司"升级为"拥有自己光芯片工厂的公司"——同样的技术路线,市场给LITE估值66.5倍,给COHR估值35倍,Nokia只有30.8倍Forward PE。 这个估值差距是最大的错误定价之一。 七个标的的完整产业链图 最上游 SOI(硅光衬底) ↓ TSEM(硅光代工) ↓ 激光器层 LITE(InP EML,可插拔+CPO) COHR(垂直整合,光学系统) SIVE(CPO激光阵列,高赔率) ↓ 物理基础设施 GLW(光纤、线缆、连接器) ↓ 网络层 NOK(光传输网络,骨干连接) 每一层都有自己不可替代的护城河。 每一层都在受益于同一个趋势。 6. 为什么是现在? 2026到2027年是在1.6T供应链建立立足点的关键时期,在一线客户的设计导入将决定长期赢家。现在是design-in阶段——产品正在被超大规模客户选中和锁定。等量产阶段到来,市场才会充分定价这些公司的价值。 在design-in阶段买入,等量产阶段收获——这是光通讯投资最好的时机。 7. 仓位逻辑 高确定性(重仓): TSEM → 今天$13亿合同,产业链里最硬的催化剂 LITE → EML垄断+Nvidia锁定,现在到2028年都受益 COHR → 垂直整合,体量最大,Nvidia $20亿入股 中等确定性(配置): GLW → Nvidia直接合作,物理基建不可或缺 NOK → 最被低估的估值,但故事兑现需要更多时间 高赔率(小仓位): SOI → 和TSEM绑定,护城河高但流动性低 SIVE → CPO时代的纯粹赌注 8. 光会接力存储吗? 会。但不一样的方式。存储的接力是一次性的价格重估——供需拐点到来,几个季度内完成定价。 光的接力是分阶段的持续重估—— 2026年:可插拔1.6T带来第一波 2027年:CPO开始量产带来第二波 2028年:Scale-Up全面光化带来第三波 三波叠加,才是光通讯超级周期的全貌。存储让你在一年内赚了10倍。光可能让你在三年内赚同样多,但过程更平稳,确定性更高。 最后一句话 光通讯不是一个新故事,是一个被重新发现的旧故事。 光纤已经存在几十年了,但AI让这个故事的量级发生了质变。每当数据中心需要更高密度、更低功耗、更远距离的连接时,答案永远是光。 #光通讯# #TSEM# #LITE# #COHR# #GLW# #NOK# #SOI# #SIVE# #CPO# #硅光# #光模块# #AI基建# #数据中心# #存储接力# #Nvidia# #美股# #USStocks# #SiliconPhotonics# #CoPackagedOptics# #EML# #光互连# #AIInfrastructure# #光纤# #Nokia# #Corning# #Coherent# #Lumentum#
显示更多
0
57
1.4K
391
转发到社区
黄仁勋大手笔1000亿投资AI供应链和基础设施💰 亲儿子系名单曝光: 1. 英伟达 $NVDA AI时代最大卖铲人,全球GPU霸主,几乎所有大模型、AI数据中心都离不开英伟达芯片。 2. CoreWeave $CRWV AI版云算力包租公。主营业务就是出租装满英伟达GPU的数据中心。OpenAI、微软等公司疯狂租算力。 3. 超微电脑 Super Micro Computer $SMCI AI服务器最大热门股之一。英伟达GPU再强,也需要服务器组装落地,而SMCI正是核心供应商。 4. 戴尔科技 Dell $DELL 传统PC公司,正在转型AI基础设施巨头。大量AI服务器订单正在流向戴尔。 5. 美满电子 Marvell $MRVL 主攻硅光子、数据中心互联芯片,AI数据中心越大,GPU之间通信需求越恐怖,而Marvell就是解决数据堵车的关键公司。 6. 康宁 Corning $GLW AI数据中心背后的卖水人,生产光纤、玻璃材料。 7. Lumentum $LITE AI光模块核心玩家。没有光模块,再强的GPU也跑不起来。 8. Coherent Corp $COHR 提供激光器、光通信设备等核心组件。属于AI硬件链里成长性很强的一环。 9. IREN Limited $IREN 从比特币矿企转型AI数据中心。 原本拥有大量电力资源和数据中心基础设施,现在开始全面切入AI算力。 10. Nebius Group $NBIS 核心方向是部署英伟达AI基础设施,为AI公司提供算力服务。 11. 台积电 Taiwan Semiconductor $TSM 英伟达再强,也得靠台积电代工。 12. 博通 Broadcom $AVGO AI ASIC芯片超级受益者。
显示更多
0
46
314
122
转发到社区
昨天 5 月读书会,结束后回家倒头爽睡到下午四点,才有时间总结下昨天我们聊了什么。昨天是请到了日本医药品行业的专家来给大家分享研制一款新药后者医学器械是如何进行融资,执照审批,进入医保和定价的过程。从去年开始,somehow 日本成了新药审批最快的国家(2025 年审批通过超过 36 种),厚生労働省的「先驱审批」(SAKIGAKE)策略允许一款药物在没有明显副作用的时候就投放市场,并设定一个临时临床验证期间,以证明这款药物真正有用时才授予永久资格。 当然我个人最关心的不是现在的行政流程,医疗和制药行业也 AI 的广泛影响下收到冲击,其中存在什么机会才是我们最关心的话题。 没有人没事会经常去医院看病,通常,我们发现不适再前往医院时,身体已经需要相当的医疗介入,因为身体的免疫反应滞后于病灶。我认为,在 AI 时代,会有一部分,甚至可能是一大部分医疗的需求从诊所或医院中剥离开来,无论你如何定义它,个人 AI 辅助医疗也好,家庭医疗也好,按需检测也好,它本质上是使用 AI 在帮我们每个人建立自己的外层免疫系统。 那么,对于这种产品来说,持续监测是有效免疫预测的前提,我在这个基础上寻找了很多方案,大部分非侵入式的检测提供的都是行为数据,比如睡眠,血压,体重,拟合的身体压力水平,这些数据并不能提供直观的免疫系统状态,更无法做有效预测,在侵入式和非侵入式的中间,有不少公司做微针探测细胞间隙液的指标情况,但也存在着大量误差,最接近这个概念的,应当是持续的全血检测,在产品完成度上最好的,是 siphox health 这家公司。 非常有意思的一点是,一旦你深入挖掘这些公司的本质特征,会发现此类公司通常不是医疗和药物驱动的公司,而是半导体行业公司,siphox health 的投资人是 YC,Intel ,本身的产品原理是通过硅光子谐振腔免疫检测,创始人本身也是 Silicon Photonics(硅光子)领域的专家(我猜公司的命名来源也是这个) 这是一个很有趣的发现,因为这意味着最可能建立起人体外层免疫操作系统的公司并非医疗公司,药物研发厂商或者检测机构。我自己的经验认为,对于 AI 模型来说,数据的连续采集比行业平均 baseline 更加重要,而后者,通常是大型医疗检测机构的核心数据和护城河。 当然,siphox 的方案仍然只有特别关注自身健康或者有基础疾病的人才会采用,因此,我觉得这个市场还处于非常初级的阶段,我觉得只有当低侵入式方案能找到真正有效的核心指标之后,才会有面向大众的产品出现,到时,我们会有一款 App 可以在 AI 的支持下全面的,实时的监测人体的免疫系统和健康状态,毫无疑问,这是 AI + 健康的未来。
显示更多
0
9
239
11
转发到社区
英伟达 $NVDA 作为豪门金字塔顶尖的那个人,手指缝漏一点都够底下AI供应链吃半年! 1. $TSM - 台积电 英伟达GPU核心晶圆代工厂,负责Blackwell/Rubin等先进制程芯片生产,是AI供应链最上游关键伙伴,受益于NVIDIA产能扩张。 2. $SMCI - 超微电脑 英伟达AI服务器主要组装商,提供高性能GPU服务器解决方案,直接受益于数据中心部署需求爆发。 3. $MU - 美光科技 HBM高带宽内存重要供应商,AI训练和推理对内存需求激增,推动其营收强劲增长。 4. $AVGO - 博通 定制AI芯片和网络芯片领导者,与英伟达在NVLink等生态合作,AI半导体收入高速增长。 5. $MRVL - 迈威尔科技 英伟达投资20亿美元,聚焦硅光子和NVLink Fusion定制XPU,是异构计算关键伙伴。 6. $IREN - 艾瑞斯能源 英伟达巨额投资并签订GPU云服务大单,转型AI数据中心运营商,基础设施扩张潜力大。 7. $CRWV - CoreWeave 英伟达重仓的AI云基础设施提供商,专注GPU集群部署,是“NVIDIA生态新云”代表。 8. $NBIS - Nebius Group 英伟达投资的AI云公司,助力全球算力扩展和推理服务。 9. $LITE - 朗美通 英伟达投资的光学组件龙头,高速光模块解决AI数据中心带宽瓶颈。 10. $COHR - 相干公司 与Lumentum同期获英伟达投资,光子学和激光技术核心供应商。 11. $GLW - 康宁 英伟达投资支持光纤基础设施,新工厂扩产应对AI数据中心光纤需求。 12. $ANET - Arista Networks 高性能以太网交换机领导者,连接AI GPU集群的关键网络设备供应商。 13. $VRT - Vertiv 数据中心电源与冷却解决方案提供商,与英伟达深度合作应对高密度AI机架散热。 14. $ARM - Arm Holdings 英伟达投资的CPU/IP架构核心公司,AI芯片设计广泛使用其技术。 15. $ASML - ASML 极紫外光刻机垄断供应商,支持先进制程芯片生产,间接驱动英伟达GPU创新。 16. $CRDO - Credo Technology 高速连接和信号完整性解决方案,受益于AI服务器内部互联需求。 17. $APLD - Applied Digital 英伟达投资的数据中心运营商,专注AI/HPC基础设施建设。 18. $CLS - Celestica AI服务器和硬件制造服务商,在供应链中表现突出。 19. $STX - Seagate 数据中心存储解决方案供应商,AI海量数据存储需求驱动增长。 20. $CIEN - Ciena 光网络设备提供商,支持AI数据中心长距离高速传输。
显示更多
0
69
363
125
转发到社区
行业分析:AI光互连全景:谁是下一个“HBM级瓶颈”? AI算力的瓶颈正在从计算转向带宽。随着GPU规模扩大,节点间通信接近N²级增长,电互连在功耗与距离上逐步触顶,光互连从可选项变成刚需。这一变化不只是需求扩张,而是产业结构的重排:光开始从数据中心边缘进入系统核心,甚至进入封装内部。 从底层看,硅光(SiPho)是在硅基上做出一整套光通信器件:波导负责传光,调制器把电信号变成光,探测器再把光变回电。它解决的是带宽与能效问题。硅本身不能发光,激光器依赖InP、GaAs等III-V材料,因此整个体系天然是“硅 + III-V”的异构结构。 产业链可以拆成四层:上游材料(InP与激光材料)、中游核心器件(激光器、硅光芯片)、模块与封装(光模块、CPO)、以及系统与网络架构。价值分配并不均匀。最稀缺的是光源,也就是激光器及其背后的InP体系,这一层类似算力链中的HBM,是物理瓶颈;再往下是硅光与光芯片,决定光电融合是否可行;光模块更偏制造与组装,周期性更强;真正的高价值封装集中在系统级CPO。 在硅光制造这一层,Tower Semiconductor 和 GlobalFoundries 是典型代表。它们本质是foundry,把光子芯片从设计变成晶圆。器件公司是它们的客户,而不是供应商。两者路径不同:TSEM更像工艺专家,擅长定制和复杂结构,解决“别人做不出来”的问题;GF更像平台型foundry,提供标准化工艺和规模能力,让更多客户可以复制。 这也解释了近期股价的差异。TSEM的上涨几乎直接由AI光互连驱动,尤其是硅光需求进入订单兑现阶段;GF更多受益于AI整体需求扩散,硅光只是其中一部分。前者是主线变量,后者更像beta。 很多人会误以为竞争在晶圆尺寸,比如300mm。但在SiPho、模拟、RF这些领域,关键不在晶圆,而在工艺复杂度、良率和客户绑定。真正决定竞争力的是能否稳定量产复杂光电结构,而不是晶圆大小。 从全球格局看,中国在光模块层面占据优势,但在SiPho制造仍处于早期阶段。差距不在技术原理,而在量产能力和客户验证。短期内,由于订单和经验的正反馈,差距在拉大;中期随着下游需求反向驱动,上游有望追赶。这一结构和HBM不同,SiPho不属于天然寡头,更可能走向多极竞争。 真正改变产业结构的是CPO(co-packaged optics)。CPO不是一个器件,而是一种封装形态:把光芯片与算力芯片封在一起,使光从“外部模块”变成“系统内部的一部分”。实现路径是先在SiPho晶圆上完成器件制造,筛选良品(KGD),切割成die,再与GPU/ASIC、HBM等一起进行异构集成,通常采用平面并排而非堆叠。 这一变化的核心结果是:硅光从“独立产品”变成“系统中的一层”。功能重要性不变,但定价权下降。过去光模块可以独立定价;在CPO中,价值更多被系统整合者吸收。掌握先进封装能力的厂商更接近控制节点,这也是为什么TSMC和Intel在这一阶段具备更强话语权,而TSEM和GF更接近中游die供应商。 CPO对技术提出了三大硬约束:功耗、带宽密度和封装耦合。功耗决定系统是否可持续,带宽密度决定扩展能力,封装耦合决定良率和成本。这三点直接推动硅光工艺进入新阶段。 在这一过程中,低损耗波导成为关键基础。波导是芯片内部的“光通道”,损耗以dB/cm衡量。0.1 dB/cm与1 dB/cm的差异,会在封装内线性累积,直接决定系统功耗与成本。当前主流量产水平在0.3–1 dB/cm,先进工艺可到0.1 dB/cm,实验室中的氮化硅(SiN)接近0.01 dB/cm,但距离大规模量产仍有距离。材料路径也逐渐清晰:硅波导受限于粗糙度和折射率,长期趋势是向SiN迁移。 难点不在单点,而在多重极限叠加:侧壁粗糙度、PECVD氢吸收、SiN应力、弯曲损耗、光纤耦合等因素同时作用。这也是为什么真正的优势来自“全栈工艺控制”,而不是某个单一技术突破。 CPO不仅改变技术路径,也改变竞争结构。未来不会出现单一路线,而是分层共存: 核心AI集群:定制CPO,追求极致性能 大规模部署:标准化CPO或pluggable,追求成本与灵活性 即使在CPO内部,也会分化为“高性能CPO”和“标准化CPO”,类似HBM与DDR的关系:前者吃价值,后者吃规模。 对TSEM和GF来说,这种分化进一步强化各自路径。TSEM更靠近高性能CPO,承接定制需求,有机会成为局部瓶颈;GF更靠近标准化CPO,承担规模扩张,是产业的放大器。 整条链可以压缩成一句话:材料决定能不能做,芯片决定性能上限,封装决定系统价值,系统厂决定利润分配。对应到算力链,InP激光器类似HBM,CPO类似GPU封装,光模块类似服务器组装,而硅光晶圆厂更像中间层的chiplet供应商。 从投资角度看,最确定的机会在光源,这是物理瓶颈;最大弹性在硅光与CPO,一旦路径跑通会被放大;光模块是顺周期;封装稳定吃利润但不容易爆发;系统层存在潜在黑马,但取决于架构演进。硅光不会消失,但正在被“吞入系统”。未来真正的“HBM时刻”,更可能出现在光源层或系统级封装,而不是封装之前的中游晶圆环节。 免责声明:本人持有文章中提及资产,观点充满偏见,非投资建议dyor
显示更多
0
15
326
106
转发到社区
英伟达老黄在GTC大会上都说了什么? 看了下演讲全文,感觉这次老黄不只是在卖芯片,而是在卖一个全新世界观:AI 不是工具,不是应用,而是人类下一个工业革命的能源+发动机。AI 是新时代的电力 + 发动机,Token工厂、AI代理智能体、物理AI 共同构成基础设施。梳理下要点: 1. 第一性原理:AI 的本质重新定义(别再当它是“聪明App”了) 老黄认为 1)AI 不是单一模型突破,也不是“会聊天”的玩具,而是像电力一样的核心基础设施。 2)每个公司都会用,每个国家都会建,不建就落后,就像19世纪不建电厂一样。 2)计算需求过去两年已增长“一百万倍”,且还在指数级加速。 老黄更是给了一个炸裂的前瞻指引,预计到2027年,仅英伟达这些旗舰芯片(Blackwell + Vera Rubin 系列)就能贡献至少1万亿美元营收。”(比之前市场预期的5000亿翻倍,时间拉长一年但金额更狠) 这已经不是简单的财报指引,是给全球CEO和国家元首的最后通牒:你们不投AI工厂,我们就帮别人建。 2. Token工厂:数据中心的新物种 老黄把数据中心彻底改名——不再是存数据的仓库,而是生产智能代币的工厂。CEO 现在要像管传统工厂一样管“代币产出率”和“单位代币成本”。英伟达通过全栈垂直整合,已经把单位代币成本做到全球最低。 这就是工业化拐点:AI 从实验室玩具 → 国家级重资产基础设施。 投资视角来看,这会让“AI基建”概念彻底主流化,能源、冷却、网络、光模块、液冷、变压器等全产业链都会被重估。别只盯着GPU,看“Token工厂”全链条。 3. Vera Rubin 平台:下一代AI工厂的完整蓝图 Rubin不是单颗芯片,是垂直整合的7大芯片 + 5个机架级系统 + 1个超级计算机*。 他的亮亮点在于: 1)Vera CPU(专为Agent优化)、全液冷、Groq确定性流式推理 + Dynamo解耦、吉瓦级工厂代币生成速度提升350倍。 2)大规模光电共封装(CPO)、硅光子,目标百万卡集群、低功耗低延迟。 老黄原话这么说:“Vera Rubin 不是芯片,而是一个巨型系统,从能源到端到端全优化。” 这其实在告诉对手和客户:英伟达已经把“AI发电厂”的参考设计做出来了,你们直接抄作业就行(当然得用我们的零件😎) 4. Agentic AI + OpenClaw:下一个十年的操作系统级革命 OpenClaw在这次GTC上被老黄定义为“AI时代的Linux”——开源、底层框架,让Agent自主调用工具、写代码、管理文件。 老黄宣布NewClaw企业版平台,现场“极简养虾”demo(一键让AI代理管复杂养殖流程),象征极简部署 + 自主执行。 老黄更是明确说,今天世界上每一家公司都必须制定OpenClaw策略。同时推Nemotron开放模型联盟(语言、视觉、机器人、生物、气候等全覆盖),开放生态才是王道。 这是在逼所有企业从SaaS转向AaaS(Agent as a Service),代理框架、工具链、隐私护栏相关公司会爆。开源+企业级双轮驱动,类似于当年Android的打法。 5. Physical AI + 机器人:从数字到物理的ChatGPT时刻 老黄认为物理AI迎来爆发:不再是屏幕里的智能,而是能真正作用于现实世界。他聊到Robotaxi Ready新增比亚迪、现代、吉利等,覆盖1800万辆/年 + Uber大规模部署。 现场迪士尼Olaf雪宝机器人直接登台,展示Omniverse数字孪生 + Newton物理引擎,从虚拟直接迁移到物理适应。 老黄说机器人会成为数万亿美元市场,而物理AI是下一个大爆炸的领域。当然我们自己也需要清楚,物理世界落地比数字难100倍,但一旦起飞,体量远超纯软件。关注端到端(感知-决策-执行)全链公司。 6. 更远的下一代 + 未来场景(Feynman + 太空) 1)预告Feynman架构:Rosa CPU、LP40 LPU(推理专用)、BlueField-5、CX10网络等。 2)太空数据中心:Vera Rubin Space-1轨道AI计算机,用Omniverse建“数字孪生”太空基建。 这一次老黄呼应了老马,英伟达不只是地球算力霸主,还想做太空AI基础设施。 老黄这次演讲核心就是 AI 是新时代的电力 + 发动机,Token工厂、AI代理智能体、物理AI 共同构成基础设施。英伟达提供从能源到芯片的全栈钥匙,这个市场到2027年带给英伟达至少万亿美元营收。
显示更多
0
20
293
86
转发到社区
行业深研:LSA--2nm的隐形分水岭 在先进制程不断逼近物理极限的过程中,“热”成为最核心的变量之一,一点点温度偏差都容易让良率不可接受。 LSA这种退火设备,在先进节点中,它的意义已经发生变化。 前道制造中,离子注入是不可绕开的步骤。它负责将掺杂原子打入硅中,定义器件电学特性,同时不可避免地破坏晶格结构。 退火的作用,是完成两件事:修复晶格、激活掺杂。传统路径是炉管或快速热退火(RTA),通过整体加热晶圆,让原子在高温下重新排列。但问题在于,这种加热是全局的,时间是秒级甚至更长,掺杂在被激活的同时发生扩散,结变宽、边界变钝。 在28nm、14nm时代,这种扩散仍然可以容忍。但进入7nm以下,尤其是从FinFET向GAA(Gate-All-Around)过渡之后,器件尺寸逼近物理极限,任何额外扩散都会直接侵蚀性能窗口。问题从“需要退火”变成“需要一种不带副作用的退火”。 LSA通过在纳秒到微秒级时间内对晶圆表面进行瞬时加热,温度可以高于传统退火,但因为持续时间极短,热扩散被压制在极浅范围内。随后快速冷却,掺杂被激活、晶格被修复,但位置几乎不发生迁移,从而形成极浅且陡峭的结。这直接对应更低漏电、更高开关速度以及更可控的电场分布。 放在器件结构演进中看:FinFET解决的是平面器件失效后的继续缩放问题;GAA通过四面包裹沟道提升栅控能力,使先进节点仍能前进一段;而未来的CFET(Complementary FET),则是在横向无法继续压缩之后,通过垂直堆叠来延续密度提升。在这一过程中,结构不断演进,但约束条件在收紧,而“热预算”逐渐成为最硬的边界。 GAA的核心变化是channel更薄、间距更小、结构更复杂,任何额外的热扩散都会直接改变器件的几何与电学特性。source/drain掺杂会向channel侵入,短沟道效应迅速恶化;nanosheet之间的间距与应力分布被扰动,电场控制能力下降;接触区域本身极小,轻微扩散就会带来显著电阻变化。在这一结构下,热扩散不再是性能损失,而是结构破坏。 这也是传统退火开始失效的原因。你仍然可以用它激活掺杂,但代价是把设计好的器件“热模糊”。最终得到的是一个可以导电但偏离设计窗口的晶体管。 LSA正好解决的是这个矛盾。它将“温度”和“时间”解耦:允许极高温度,但把作用时间压缩到扩散尚未来得及发生的尺度;同时通过线光束扫描,仅作用于表面区域,避免深层结构受热。 高温、极短时间与局部控制这三个条件,在现有热处理方案中几乎只在LSA上同时成立。因此,在FinFET时代,LSA更多是性能增强工具,而到了GAA,它的角色变成“结构可行性工具”。 随着节点进入3nm、2nm甚至更小,热处理不再是一个可以灵活调整的工艺步骤,而成为限制器件设计空间的核心变量。LSA的重要性也因此被重新定价,从“可选项”逐步向“默认配置”转变。 GAA仍将是未来5到8年的主线,但其边际收益正在递减。随着尺寸进入2nm及以下,问题开始转向材料与物理极限:沟道无法无限变薄,接触电阻快速上升,功耗不再按比例下降。行业的答案是转向三维结构,即CFET,将NMOS与PMOS垂直堆叠,在横向受限后向纵向要密度。 但CFET带来一个新的约束:热。GAA仍是单层结构,高温处理的容忍度较高;而在CFET中,任何一次高温工艺都有可能破坏已经完成的另一层结构。传统RTA这种“整片加热”的方式开始失效,因为其热扩散范围过大,无法实现层间隔离。 这使得LSA未来更加重要,其纳秒级时间尺度和纳米级加热深度,使其能够只处理单一层而不影响上下层器件。这种选择性热处理能力,是CFET工艺成立的基础。 这种变化也在重塑竞争格局。从设备层面看,LSA仍是一个多玩家市场,核心厂商包括Veeco Instruments Inc.、Applied Materials以及SCREEN Holdings。SCREEN依靠装机量与历史验证占据主流,Applied Materials凭借平台能力与客户绑定形成系统优势,而Veeco通过LSA在先进节点关键工艺中实现突破。 但真正的竞争不止于设备。第一层是设备厂之间的直接竞争;第二层是工艺路线竞争,即LSA与RTA等技术的取舍;第三层是系统级竞争,即谁能将设备、材料与工艺整合进完整流程。在GAA阶段,这种竞争更多体现在设备性能与参数能力上;而进入CFET阶段,竞争将转向与晶圆厂的深度协同,护城河从单一设备转向“设备+工艺+材料”的系统能力。 从客户导入情况看,Veeco已经完成最关键的一步,其LSA设备已进入头部先进逻辑厂,并在部分工艺中成为量产标准设备。这意味着技术已经通过最严格验证,并具备随产能扩张放量的潜力。但这种导入目前仍集中在局部工艺,而非全面主导。在存储领域,包括DRAM与HBM,LSA仍处于评估阶段,尚未进入大规模量产。 因此,LSA的竞争本质上是,谁能在温度控制、扫描均匀性、应力管理等细节上做得更好,谁就更有机会进入先进节点的标准工艺路径。 总的来说,从FinFET、GAA最后到CFET的演变中,LSA完成了从性能优化工具到结构实现基础的转变。下一阶段真正的瓶颈,不只是结构或对准精度,而是在多层堆叠前提下,是否能够完成掺杂激活与缺陷修复,同时不破坏其他层结构。这将决定先进制程的上限,也决定价值将集中在哪些环节。 免责声明:本人持有文章中提及资产,观点充满偏见,非投资建议dyor
显示更多
AI芯片的scale up,底层=物理的限制是reticle: 光刻机一次只能曝光一个固定大小的区域,上限大约在800mm²左右。这决定了目前单颗芯片的尺寸的硬天花板。 行业突破这个限制的难度非常大,接近物理极限,因为光刻的面积和精度往往不能两全(镜头等设备限制),所以只能绕开它。 早期是大GPU,但这样做成本和良率都会变得很差。后来逐渐转向另外两条路径:一种是把系统做大,用一块更大的“硅底板”interposer把多个芯片拼在一起;另一种是把芯片拆小,再通过高速连接重新组合。 interposer本质上不做计算,只负责连接。GPU、HBM这些芯片放在上面,通过更细、更密、更短的连线实现高带宽数据交换。AI算力之所以能上一个台阶,很大程度上不是因为算得更快,而是数据在不同芯片之间移动得更快。 但interposer本身也会超过reticle的尺寸,这时候就需要用到stitching。做法就像拼瓷砖:一块一块曝光,然后精确对齐,拼成一个整体。难点在于精度控制,边界一旦对不齐,连线就会出问题。 这种方式只适用于对精度不那么敏感的结构。像CPU、GPU这类逻辑芯片,对时序的要求极高,任何纳米级误差都可能影响性能,所以不能用stitching。interposer因为只是布线层,没有复杂逻辑,可以容忍这种拼接带来的误差。 围绕连接这件事,行业逐渐形成了cowos和emib两种不同的实现路径。一种是做一个统一的大平台,把所有芯片放在同一块interposer上,连接集中在这层完成,带宽能力很强,但成本也高。另一种是不做大底板,只在需要高速连接的地方嵌入一小块桥接结构,按需提供带宽,结构更灵活,制造压力也更小。 在AI训练场景下,模型规模大,HBM带宽成为关键,整个平台需要维持极高的数据吞吐,这类设计更依赖大面积interposer。 但推理场景的约束不一样,更关注成本、延迟和并发,带宽需求往往集中在局部,不需要整个平台都维持极致带宽。这时候,把芯片拆成多个模块,再用局部高速连接拼起来,会更合适。 这也是EMIB这类方案更容易在推理芯片和ASIC里出现的原因。它不需要一整块大interposer,而是在关键位置提供高带宽连接,可以把计算、缓存、IO等模块分开设计,再按需组合。这样的结构更容易控制成本,也更有利于根据不同业务场景做定制化调整。对云厂自研芯片来说,这种灵活性很重要。 当然,推理并不完全不需要高带宽。在一些大模型推理场景里,HBM依然重要,对应的封装方案也会更接近训练芯片。但在更广泛的推理需求中,成本和规模才是核心约束,这使得模块化和局部互连的价值变得更高。 站在26年一季度末看未来,AI算力的扩展路径其实已经很清晰了。不是把单个芯片做得越来越大,而是把计算拆开,再用更高带宽把它们连接起来。芯片本身的尺寸被reticle锁死了,系统的规模则由连接能力决定。 免责声明:本文非投资建议dyor
显示更多
0
16
213
39
转发到社区
摘自王兵先生的观点 (括号内为我加的评论),极为深刻,我没有看到世界上其他研究者有从这个角度的分析。 “半导体是最后的计算载体,由于半导体得到电子和失去电子一样容易,它们很适合用来做开关 (代表 0 和 1 ) 。而开关是计算的基础。但碳基智能和硅基智能组成开关的方式不同。碳基智能是通过生物化学反应实现计算,底层的开关机制是原子间电子轨道的变化,而这种电子轨道的变化对应了带质量的粒子的位移。而硅基智能是通过质量可以忽略的电子和光子的移动来实现计算,没有涉及到任何带大质量粒子的位移。” “由于碳基计算需要物质的移动和变化,它的计算速度和效率是相对有限的。而硅基智能由于仅仅需要电子和光子的移动,可以做到极高的计算速度和极大的存储容量”. (所以硅基智能以我们无法想象的方式,全面彻底碾压,替代碳基智能只是时间问题。让我们为这个伟大而激动的新时代的降临而欢呼雀跃吧! :)
显示更多
0
12
228
70
转发到社区
老罗来到推特,最近火爆的豆包手机应该就是之前字节收购的锤子团队所做。 罗永浩如果等到 AI 时代做手机,也许会是不一样的结局。 供应链更完备,软件可发挥之处无限大。OPENAI 都在做手机,手机还是碳基和硅基文明的核心连接点。 AI 手机可能不再需要 APP,更像一个随叫随到的 agent,个性化可协助完成一切的 AI 助手。
显示更多