注册并分享邀请链接,可获得视频播放与邀请奖励。

与「ASIC」相关的搜索结果

ASIC 贴吧
一个关键词就是一个贴吧,路径全站唯一。
创建贴吧
用户
未找到
包含 ASIC 的内容
$AVGO 是AI芯片的龙头。但历史告诉你,真正暴富的人买的是龙二 $MRVL 先说一个关于半导体行业的反直觉规律: 在一个严重缺货的市场里,获利最大的往往不是龙头,而是那个追赶中的龙二。(Herman老师分析intel观点我觉得说的很好,也同样非常适用于 $MRVL) 理由很简单: 当产能严重不足,买家再也无法只依赖龙头一家供应商。他们开始把订单给原本觉得"不够好"的替代者。而这个替代者,突然发现自己的产品以前没有人要,现在成了香饽饽——价格可以谈,条款可以谈,一切都变了。晶圆缺货时,原本没有人愿意把订单给Intel的客户,开始认真研究18A了。 那么,在AI定制芯片这个正在快速缺货的赛道里,获利最大的龙二会是谁? 我的答案是 $MRVL 。 1. 先理解结构 AI芯片市场分两层: 第一层:通用GPU Nvidia统治,没有任何人能挑战。H100、B200、Blackwell——超大规模云厂商需要它们,别无选择。 这层市场已经被充分定价了。Nvidia市值5.7万亿,没有人会漏掉这个机会。 第二层:定制ASIC(专用AI加速芯片) 这是一个完全不同的故事。 每一家超大规模云厂商都在开发自己的专用芯片: Google有TPU(张量处理器),Amazon有Trainium(AI训练)和Inferentia(推理),Meta有MTIA(AI推理加速),Microsoft有Maia(Azure AI加速)。 为什么要自己开发芯片? 因为通用GPU虽然强大,但它服务所有人,没有为特定工作负载优化。自研芯片可以针对自己的模型架构和推理需求精确设计,功耗更低,成本更低,效率更高。 这是一个不可逆的趋势——超大规模云厂商越大,自研芯片的动力越强。但有一个关键问题:这些云厂商需要设计合作伙伴。芯片设计是极其复杂的工程,需要有人懂SerDes,懂先进封装,懂chiplet集成,懂供应链——不是随便一家公司能做到的。 全球有能力承接超大规模云厂商定制ASIC设计的公司,只有两家: $Broadcom,和 $Marvell。 2. AVGO vs MRVL:龙头和龙二的真实差距 先看数字: Broadcom在ASIC市场占约55-60%的份额,与Google的TPU合作锁定到2031年,客户包括Meta、OpenAI等顶级厂商。Marvell约占15%的份额,排名第二Broadcom领先是事实,毫无争议。 但有几个数字值得认真对比: AVGO MRVL 市值 $2万亿 $1,470亿 ASIC市占 55-60% 15% FY26AI营收 $200亿+ $96亿 Forward PE 31倍 36倍 Broadcom在定制ASIC市场记录了约$200亿的AI总营收,而Marvell的AI相关营收约$96亿。 从市值角度:AVGO的市值是MRVL的13.6倍,但ASIC市场份额只是MRVL的4倍,AI营收只是MRVL的2倍。这个不对称,是MRVL存在的核心机会。 3. MRVL独特的地方:两场战争同时押注 这是我认为最关键的一点,也是MRVL和所有其他AI芯片公司最本质的区别。 MRVL同时押注了两个互相独立的万亿级叙事: 叙事一:定制ASIC——去Nvidia化的最大受益者 Marvell的数据中心部门FY2026增长46%,超过$60亿,管理层指引FY2027同比再增约40%。定制芯片年化营收已达$15亿规模,两个AI加速器项目处于高产量阶段,第三个超大规模客户合作正在进行。 Nasdaq 最重要的一个进展: 2026年4月,Google被报道正在与Marvell进行深度谈判,共同开发内存处理单元和下一代TPU,这正是Google此前几乎完全交由Broadcom负责的工作。如果谈判成功,Marvell将成为AI行业最具战略意义的芯片项目之一的核心设计伙伴。 这是什么意思? Broadcom和Google的TPU合作锁定到2031年——这是Broadcom的护城河,但不是MRVL的天花板。Google开始和MRVL谈,不是要取代Broadcom,而是要建立第二供应商。这正是"缺货时代,落后者获利"的经典逻辑。 当TPU的设计需求超过了Broadcom单独能服务的上限,Google开始把部分项目分给MRVL。 这一单谈成,MRVL同时拥有Amazon和Google双超大规模客户锚定——三个超大规模客户(Amazon、Microsoft、Google)大幅降低了单一客户集中的风险,给市场提供了更清晰的多年营收增长路线图。 叙事二:光互连DSP——AI集群神经系统的命门 MRVL是目前唯一同时覆盖定制ASIC设计、1.6T光学DSP、硅光子技术(通过Celestial AI收购)和CXL交换的全栈公司——这是任何单一竞争对手都无法复制的护城河。 光互连DSP是什么? 当GPU和GPU之间需要通信,数据需要在光纤里传输。但光纤里走的是模拟光信号,计算机需要的是数字信号。DSP(数字信号处理器)就是这两个世界之间的翻译器——它把数字数据编码成光信号发出去,再把收到的光信号解码成数字数据。 MRVL的PAM4 DSP是全球800G和1.6T光模块的核心芯片之一。光互连业务的需求与AI集群的互连基础设施同步扩张——每一个上线的AI集群都需要完整的互连协议栈,不需要等待GPU的供应情况。 这是最关键的逻辑: GPU供应有时候是稀缺的,但光互连不等GPU——只要数据中心在建,只要AI集群在运行,光互连就需要。 MRVL的DSP是一个和GPU并行运行的独立需求,不是GPU需求的影子。 4. 我自己的判断:为什么MRVL的故事比AVGO更有弹性 AVGO是龙头,MRVL是追赶者。 但在这个特定的历史时刻,追赶者的弹性更大,原因有三: 原因一:基数效应 AVGO已经是$2万亿市值,要翻倍需要成为$4万亿的公司。MRVL只有$1,470亿,翻倍只需要$2,940亿——和AVGO现在市值的15%相当。同样的资金流入,对MRVL股价的推动效果是AVGO的13倍以上。 原因二:Google的变量 AVGO和Google的合作是锁定的,这是护城河,但也意味着它的上行惊喜已经被充分定价。MRVL和Google的谈判还没有正式宣布——这是一个尚未被市场定价的潜在催化剂。如果Google正式宣布,MRVL立刻拥有Amazon+Google双超大规模客户,ASIC市场份额从15%向25%+跳升的路径被打开。 原因三:两个叙事不相关 AVGO的核心护城河是ASIC和VMware软件。 MRVL的两个叙事——ASIC和光互连DSP——是完全独立的业务。 ASIC受益于去Nvidia化,光互连受益于AI集群扩张。两个独立的增长引擎,互相不依赖,互相不替代。 MRVL在多个AI基础设施顺风中同时暴露:定制芯片、光互连、数据中心网络和更广泛的超大规模资本支出周期。这种在AI主题内的多元化暴露,使它成为纯粹的GPU标的(如Nvidia)的有吸引力的补充。 5. 估值合理吗? $MRVL:Forward PE 36.4倍,市值$1,470亿。 $AVGO:Forward PE 31倍,市值$2万亿。 $MRVL的Forward PE比 $AVGO略高,但增速也更快: $MRVL FY27营收预期:约$110亿,同比增速约40% $AVGO FY27增速约25-30%。PEG(PE/增速): $MRVL:36.4 ÷ 40 = 0.91, $AVGO:31 ÷ 27 = 1.15 PEG低于1都算便宜。 用PEG来衡量,MRVL比AVGO便宜约20%。 而且MRVL有Google催化剂这个尚未被定价的变量,AVGO没有。如果Marvell股价涨到$400,需要数据中心营收FY27超过$90亿,Google ASIC合同正式宣布,自定义硅年化营收达到$30亿。在这些条件下,ASIC业务40倍Forward EV/EBITDA,光互连业务20倍EV/Sales。 我觉得2027年是很有可能达到的,这还是在理性的估值下,如果是ai融涨疯牛选择忽略估值的话,如果NVDA到360分析师预测最高,也就是8.8T, 我预测8-10T,那么AVGO会到3-4T, MRVL到500B-1T都问题不大。 6. 三个需要追踪的关键变量 变量一:Google ASIC合同的正式宣布 这是目前MRVL最大的潜在催化剂。谈判已经在进行,但没有正式宣布。每过一个季度没有宣布,市场会稍微失去耐心。但一旦宣布,估值逻辑发生质变。 变量二:1.6T DSP的市场份额 Marvell已经开始出货1.6T PAM DSP,基于5纳米工艺,并推出了下一代3纳米版本,将光模块功耗降低超过20%。 800G向1.6T的迭代是MRVL DSP业务的下一个量子跳跃。如果MRVL能在1.6T时代维持甚至提升市场份额,光互连业务的营收会非线性增长。 变量三:Celestial AI的硅光子整合 MRVL收购了Celestial AI,进入硅光子领域。这是CPO时代最关键的技术平台——把光学引擎直接集成进芯片封装。如果MRVL能在CPO时代把DSP和硅光子整合成一个完整的解决方案,它的价值会远超现在的定价。 7. 最终判断:MRVL是这轮AI牛市里最干净的不对称机会 AI芯片市场分三类公司: 第一类:Nvidia——已经被充分定价的龙头。故事最好,估值最贵,上行惊喜空间有限。 第二类:纯ASIC公司(AVGO)——护城河深厚,但增速放缓在定价中。Google TPU锁定到2031年是确定性,也是上行惊喜的天花板。 第三类:MRVL——两个叙事都在爆发,Google催化剂未定价,市值基数小。 这是不对称机会的经典形态, 下行有Amazon锚定,有光互连稳定收入,不会归零,上行有Google合同宣布+CPO爆发+ASIC市场份额提升,估值可能从$1,470亿走向$5,000亿+。 $MRVL也是我重仓持有的标的之一,短期technical角度今天收长上影线,日线级别调整要来,加仓机会在第一目标165,第二目标140。如果给机会到140补那个缺口,我仓位加满(图1)。 总结:回到那个反直觉的规律:缺货时代,落后者获利最大。 ASIC市场正在缺货——Broadcom一家根本无法满足所有超大规模客户的定制需求。光互连正在缺货——AI集群每季度都在扩张,DSP的需求只增不减。MRVL是这两个缺货赛道里,那个正在被需要的追赶者。 历史一次次证明:当产能不足、供应商只有一两家的时候,第二名是最好的弹性高的投资标的(Nvidia和Amd,TSMC和Intel。) 因为所有人都开始认真研究它了。 #MRVL# #Marvell# #AVGO# #Broadcom# #ASIC# #定制芯片# #光互连# #DSP# #Google# #Amazon# #Nvidia# #AI芯片# #半导体# #美股# #龙二补涨# #CPO# #硅光子# #AI基建# #USStocks# #AIStocks# #数据中心# #去Nvidia化#
显示更多
0
24
324
58
转发到社区
记得Defi Summer 20年到22年这三年时间,大家经常感慨的一句话就是“币圈一天,人间一年” 因为技术迭代太快了,每天都有数不行的新东西出来,几天不看就跟不上节奏 现在这个感觉在币圈彻底消失,在AI那边出现了,每天的新东西就看不完,真的看不完 正好这几天看到圈里讨论Cerebras的帖子多了起来,昨天还看到不少路演信息,毕竟14号要挂牌交易。之前在Amber做分享的时候也单独讲过这个公司(当时用的那页PPT放在文末),所以简单说下我对Cerebras的判断 先说结论:这家公司很有意思,但核心变量不一定是他们造的芯片本身,而是未来AI的workload形态会是成什么样。 先简单说下它是干嘛的,防止有老铁还没看Cerebras 它最核心的技术,就是wafer-scale chip(晶圆级芯片),简单理解就是别人还在用“邮票大小”的芯片,它直接把整片晶圆做成一颗超大处理器,再配上超大 SRAM,把大量数据尽量留在本地高速处理,减少传统GPU最头疼的memory bottleneck。现在海力士美光涨上天就是因为HBM这东西太抢手,Cerebras是直接绕开了对HBM的依赖 很多人看到 Cerebras最牛逼的benchmark:推理速度比GPU快10-15倍,第一反应就是下一个英伟达?! 先别急。 这个benchmark最大的问题,是默认AI的核心需求永远是“更快吐token”。 如果只是人类盯着ChatGPT聊天,这故事其实没那么性感。你每秒吐 30 个 token,我已经快读不过来了。再翻10倍,边际体验提升几乎为零。 真正有意思的是 Agent。 Agent不读字,Agent消费Token。速度直接等于生产力。 一个OpenClaw/Hermes agent,如果要读网页、写计划、调 API、跑代码、报错重试、继续执行,一个任务可能要几十次 inference call。 每次 2 秒,任务就是分钟级体验。 每次 200ms,就是另一个世界。 所以 Cerebras更值得关注的地方,是 AI worker 这条线,而不是单纯的chatbot加速。 但问题来了 - 它的magic来自 wafer-scale + 超大SRAM,本地访问极快。但SRAM这东西有天然 tradeoff,速度快,容量贵,大模型塞不下就必须拆分。 而一旦拆分,chip-to-chip communication 就上来了。 LLM inference里最怕通信的恰恰是 decode 阶段。token 是一个一个往外吐的,每多一次 hop,延迟就是硬加上去,没法隐藏。 所以 Cerebras能不能成,关键根本不在“比 GPU 快几倍”,而是未来 AI 的主流计算形态到底是什么。 1. 时间线一 - 未来几年还是 前沿超大模型一统天下,动不动几千亿甚至万亿参数,所有请求都让超大模型自己处理,那 Nvidia的distributed infra 依然最舒服,Cerebras的速度优势会被通信损耗吃掉很多。 2. 时间线二 - MoE、蒸馏、量化这些技术如果继续快速进步,未来两年70B左右的模型做到今天700B模型 80%-90% 的效果,我一点都不意外。(这里要强烈感谢Deepseek一大波!) 如果世界往这个方向走,故事就变了。 大模型负责 planning / judgement / orchestration。 真正执行任务的大量 worker model 落在 30B-70B 这个区间。 这些模型足够聪明,又刚好能吃到高速本地推理带来的红利。 Agent 世界里,大部分token根本不需要最聪明的大脑。很多工作本质就是执行层体力活:浏览网页、改代码、调工具、retry、继续跑流程。 这个 topology一旦成立,Cerebras就直接进入自己的甜区 3. 时间线三 - 未来推理是端侧为主,用的都是8B,14B的这些小模型,那GPU也能跑的很好,甚至专用的ASIC芯片效率更高,这个场景下Cerebras的优势和护城河也就不高了 换句话说,超大模型云端推理或者超小模型的端侧推理这两个平行宇宙,Cerebras的优势都不够明显,只有主流推理落在32B-70B中等模型这个Size,正好“Big enough to stress GPU memory, Small enough to fit locally” 才是Cerebras最能大展身手的世界 所以我对Cerebras的判断是,300多亿的市值,短期看订单,财务报表这些数据,长期赌的则是未来Agent时代的计算范式到底落在哪个平行宇宙的时间线上
显示更多
0
11
71
10
转发到社区
黄仁勋大手笔1000亿投资AI供应链和基础设施💰 亲儿子系名单曝光: 1. 英伟达 $NVDA AI时代最大卖铲人,全球GPU霸主,几乎所有大模型、AI数据中心都离不开英伟达芯片。 2. CoreWeave $CRWV AI版云算力包租公。主营业务就是出租装满英伟达GPU的数据中心。OpenAI、微软等公司疯狂租算力。 3. 超微电脑 Super Micro Computer $SMCI AI服务器最大热门股之一。英伟达GPU再强,也需要服务器组装落地,而SMCI正是核心供应商。 4. 戴尔科技 Dell $DELL 传统PC公司,正在转型AI基础设施巨头。大量AI服务器订单正在流向戴尔。 5. 美满电子 Marvell $MRVL 主攻硅光子、数据中心互联芯片,AI数据中心越大,GPU之间通信需求越恐怖,而Marvell就是解决数据堵车的关键公司。 6. 康宁 Corning $GLW AI数据中心背后的卖水人,生产光纤、玻璃材料。 7. Lumentum $LITE AI光模块核心玩家。没有光模块,再强的GPU也跑不起来。 8. Coherent Corp $COHR 提供激光器、光通信设备等核心组件。属于AI硬件链里成长性很强的一环。 9. IREN Limited $IREN 从比特币矿企转型AI数据中心。 原本拥有大量电力资源和数据中心基础设施,现在开始全面切入AI算力。 10. Nebius Group $NBIS 核心方向是部署英伟达AI基础设施,为AI公司提供算力服务。 11. 台积电 Taiwan Semiconductor $TSM 英伟达再强,也得靠台积电代工。 12. 博通 Broadcom $AVGO AI ASIC芯片超级受益者。
显示更多
0
46
314
122
转发到社区
美股AI超级周期轮动全节奏,给兄弟们捋一遍 现在的资金已经不是在炒AI了,是在沿着产业链,一层一层往下轮。 第一波炒芯片, 第二波炒存储, 第三波炒光通信, 现在正在猛攻算力和数据中心。 下一个是谁? 给兄弟们捋一遍。 第一波主线:半导体 NVDA,英伟达,AI GPU绝对核心。 ARM,CPU架构底层。 AMD,GPU加CPU双核玩家。 AVGO,博通,AI网络加ASIC芯片。 INTC,英特尔,在追赶。 这波是AI革命的开端,资金最先涌进来。 第二波:存储芯片赛道 MU,美光,HBM核心受益。 WDC,西部数据。 STX,希捷。 SNDK,闪迪。 算力暴涨,存储需求跟着暴涨。 HBM价格涨60%,产能排到2028年。 第三波:光模块和光通信赛道 NOK,诺基亚,通信设备。 LITE,Lumentum,光通信组件。 COHR,Coherent,光电激光器。 AAOI,AOI,光模块。 GLW,康宁,光纤。 CIEN,Ciena,光网络。 MRVL,迈威尔,数据中心互联。 数据中心之间要传数据,800G、1.6T光模块需求爆发。 当下资金正在扎堆猛攻:算力和AI数据中心 IREN,AI算力。 CIFR,Cipher Mining,挖矿转AI算力。 WULF,Terawulf,能源加AI算力。 CORZ,Core Scientific,AI基础设施。 NBIS,Nebius,AI算力云。 CRWV,AI数据中心。 P,Pinterest,AI应用。 这是当下最热的方向,资金在猛攻。 接下来大概率轮动爆发的方向: 01)原材料和稀土赛道 MP,MP Materials,稀土。 USAR,USA Rare Earth,稀土。 UUUU,Energy Fuels,铀和稀土。 FCX,Freeport-McMoRan,铜矿。 AA,美国铝业。 AI数据中心是吞电怪兽,原材料和稀土是供给瓶颈。 02)网络设备赛道 ANET,Arista,数据中心交换机。 AVGO,博通。 MRVL,迈威尔。 CSCO,思科。 03)电源和电网和温控散热赛道 VRT,Vertiv,数据中心电源和冷却。 ETN,伊顿,电源管理。 GEV,GE Vernova,电力设备。 CEG,Constellation Energy,核电。 SMR,NuScale,小型核反应堆。 OKLO,Oklo,核电。 AI数据中心的电力需求暴增,核电和电网设备是长线方向。 04)太空航天赛道 ASTS,AST SpaceMobile,卫星通信。 RKLB,Rocket Lab,商业火箭。 LUNR,Intuitive Machines,月球着陆器。 PL,Planet Labs,遥感卫星。 05)国防军工和无人机赛道 KTOS,Kratos,无人机和国防。 AVAV,AeroVironment,无人机。 ONDS,Ondas,无人机系统。 LMT,洛克希德马丁,军工巨头。 06)机器人和自动驾驶赛道 TSLA,特斯拉,自动驾驶、机器人。 PATH,UiPath,RPA机器人流程自动化。 SYM,Symbotic,仓储机器人。 SERV,Serve Robotics,配送机器人。 AI超级周期,节奏很清晰。 第一波半导体,第二波存储,第三波光通信,现在资金在猛攻算力和数据中心。 接下来,原材料、电网、核电、太空、军工、机器人,一个赛道一个赛道轮过去。 轮动不是让你每个赛道都追。 轮动是让你提前蹲在下一个方向,等资金来抬。 追涨杀跌的,永远是最后接盘的那个。 提前蹲好的,才是吃肉的那个兄弟们。
显示更多
0
328
3.2K
951
转发到社区
今天 Amkor Technology 财报是一份大超预期的财报。 营收达到16.9亿美元,同比大幅增长,并明显高于市场一致预期;EPS同样大幅超出预期,背后是产能利用率从此前低位快速回升到70%区间。更关键的是,公司给出的下一季度指引继续大幅上修。 但市场却毫不给面子,盘后股价一度跌幅达8%。 到底哪里出了问题? 硬要找,只有一个:公司将全年资本开支从过去约7.5亿美元直接提高到25-30亿美元,增幅接近3倍。 这看起来像是之前市场对大科技的capex大幅增长,现金流担忧的复现。 但这个顾虑到底有没有道理? 要解答这个问题,需要先把先进封装这件事拆开来看。 本质上,封装在回答一个问题:算力如何被高效地“物理实现”。 围绕这个问题,产业链形成了清晰分工:TSMC负责前道制造,把电路刻进硅里;Amkor负责后道封装测试,把裸die变成可用芯片。从历史上看,两者几乎没有重叠。但在AI时代,封装开始直接影响带宽、功耗与系统性能,先进封装逐渐“前道化”,tsmc开始用cowos和amkr竞争,边界开始模糊,不过这种变化主要集中在最顶端的一小段。 Amkor的技术路径恰好位于另一侧。它的先进封装重心在Fan-Out体系,其中HDFO(高密度Fan-Out)是当前最关键的增长抓手,同时也在布局2.5D和3D。 CoWoS由TSMC主导,基于硅中介层(interposer),服务HBM与AI GPU的极限带宽需求;而HDFO基于RDL,不依赖interposer,结构更简单、成本更低,但互连能力有限。 两者不是竞争关系,而是分层关系:一个解决性能上限,一个解决性能与成本之间的平衡。 从技术层级看,真正的天花板在2.5D和3D封装,尤其是Hybrid Bonding这类已经接近前道工艺的技术路径。而amkr这样的OSAT所主导的,是另一层“工程化封装”:Fan-Out、Flip Chip以及部分2.5D能力。这一层的核心是规模化制造能力、良率控制和成本效率。 就Amkor的产品结构来看, 最底层是QFN、WLCSP等标准化封装,对应汽车、模拟、电源等成本敏感市场; 中间层是FCBGA、fcCSP、Fan-Out,对应数据中心CPU、推理芯片、网络交换芯片等中高性能场景; 最顶层才是CoWoS这类极限封装,但这一层并不属于Amkor的主战场,amkr吃的是前两层。 FCBGA本质是“高I/O、高功耗、高性能,但不追求极限带宽”。它广泛应用于服务器CPU、非HBM GPU、云厂自研ASIC以及交换芯片等。 绝大多数算力芯片并不需要HBM。只有像NVIDIA H100、B100这类训练级芯片,才必须依赖CoWoS+HBM来解决带宽瓶颈。 以Google为例,其芯片体系本身就是分层的:训练侧使用HBM与2.5D封装,而大量推理、视频处理、网络等ASIC,本来就采用FCBGA或Fan-Out方案。 就目前AI的发展路径来看,训练是金字塔顶端,数量有限;推理才是大头,而且是指数级扩散。 从数据中心到边缘再到终端,推理节点数量远超训练节点。在这个过程中,封装选择的核心约束从“性能上限”转向“总拥有成本”。在绝大多数场景里,“性能够用+成本可控”优于“极限性能”,这正是FCBGA与Fan-Out的优势所在。 这也是为什么HDFO已经进入商业化放量阶段,并成为Amkor当前最重要的增长抓手。 回到CapEx,我们可以看出,这是在为“推理时代的算力扩散”提前铺设产能。从亚利桑那到越南,从HDFO到高性能测试平台,本质上是在卡位产能。 业务层面的变化也在验证这一点。传统PC与消费电子仍然疲软,但数据中心与AI相关收入已经创下新高;HDFO开始进入量产周期,客户数量持续增加;同时公司开始向客户转嫁成本,封测行业长期缺乏的定价权正在边际回归。这些信号叠加在一起,说明行业不是简单复苏,而是在重构。 总结来看,先进封装不再是一条单一路径,而是“极限性能”和“规模效率”两种范式并存。前者由TSMC等厂商定义技术上限,后者由Amkor等OSAT决定产业体量。随着AI从训练走向推理,从集中走向扩散,真正决定长期价值的,往往不是最顶端那一小部分,而是承接最大规模需求的中间层。而这,正是Amkor正在用这笔30亿美元资本开支押注的位置。 免责声明:本人持有文中提及的标的,观点必然偏颇,非投资建议,股票投资风险巨大,入场需极度谨慎
显示更多
0
12
67
15
转发到社区
被低估的真相:Agentic AI 是一场以"存储"为中心的范式革命 1/ 一句话观点 Agentic AI 的核心,不是算力,是记忆。 新硬件层级正在变成: ① 记忆(HBM / DRAM / NAND) ② 并行计算(GPU / ASIC) ③ 协调者(CPU) CPU 早就不再承担主要计算逻辑。 2/ 第一性原理 人类对"智能"的终极追求只有两件事: 无限记忆 + 无限计算。 我们日常评价一个人聪不聪明,无非两点: "记性好" + "脑子转得快"。 机器智能在沿着同一条路前进。 3/ 先说市场已经讲过的故事:HBM LLM 推理的 decode 阶段是典型的 memory-bound 任务。 每生成一个 token,都要把整套 KV cache 从显存里搬一遍。 带宽不够 → 昂贵的 GPU 直接闲置。 这就是为什么 GPU 每升一代,HBM 的带宽和容量都在追着涨。 4/ 市场没怎么讲的故事:1M context 不是在 GPU 集群里组装的 我们天天说的"1M context",并不是在 AI 推理集群中拼出来的。 它的真正组装地点,是 跑 Agentic 系统的传统服务器(CPU + 大 DRAM)。 5/ 那些传统服务器在做什么? • 加载用户的长期 / 短期记忆 • 加载 agent 的系统规范(system prompt) • 加载 skill / tool / subagent 的说明 • 拼到超过 1M token 时,还要做压缩 这一整套,全部跑在 Agentic 服务器的 DRAM 里。 6/ 对比过去的互联网 / 移动互联网 过去几乎不处理用户上下文。 只有搜索 / 推荐 / 广告才会留一点用户画像, 数据量大概只有现在 Agentic 系统的 1/20,甚至 1/100。 7/ 供应链已经在反映这件事 服务器的 CPU : DRAM 配比,正从 传统的 1 core : 4 GB 升级到 1 : 16,并继续往上走。 8/ 但远不止"4 倍存储"那么简单 Agentic 状态下,单颗 CPU 能服务的用户数,只有过去的几分之一。 当整个 IT 都切到 Agentic: • CPU 数量:增长 几倍 ~ 十几倍 • DRAM 总量:增长 几十倍 ~ 上百倍 9/ 结论 Agentic AI 是一次以 "存储 + 并行计算" 为核心的范式迁移。 软件范式变了,硬件范式也跟着变。 只有真正读懂技术的人,才会理解: 这一轮存储不是周期,是范式。 10/ 时间维度 考虑到: • 人群渗透率还很低 • 单用户使用深度还很浅 未来至少 5 年,看不到这轮存储需求的周期顶部。 (拉长时间看万物皆周期,但这一轮远没到拐点) $MU $DRAM $SNDK
显示更多
0
7
198
59
转发到社区
行业分析:AI光互连全景:谁是下一个“HBM级瓶颈”? AI算力的瓶颈正在从计算转向带宽。随着GPU规模扩大,节点间通信接近N²级增长,电互连在功耗与距离上逐步触顶,光互连从可选项变成刚需。这一变化不只是需求扩张,而是产业结构的重排:光开始从数据中心边缘进入系统核心,甚至进入封装内部。 从底层看,硅光(SiPho)是在硅基上做出一整套光通信器件:波导负责传光,调制器把电信号变成光,探测器再把光变回电。它解决的是带宽与能效问题。硅本身不能发光,激光器依赖InP、GaAs等III-V材料,因此整个体系天然是“硅 + III-V”的异构结构。 产业链可以拆成四层:上游材料(InP与激光材料)、中游核心器件(激光器、硅光芯片)、模块与封装(光模块、CPO)、以及系统与网络架构。价值分配并不均匀。最稀缺的是光源,也就是激光器及其背后的InP体系,这一层类似算力链中的HBM,是物理瓶颈;再往下是硅光与光芯片,决定光电融合是否可行;光模块更偏制造与组装,周期性更强;真正的高价值封装集中在系统级CPO。 在硅光制造这一层,Tower Semiconductor 和 GlobalFoundries 是典型代表。它们本质是foundry,把光子芯片从设计变成晶圆。器件公司是它们的客户,而不是供应商。两者路径不同:TSEM更像工艺专家,擅长定制和复杂结构,解决“别人做不出来”的问题;GF更像平台型foundry,提供标准化工艺和规模能力,让更多客户可以复制。 这也解释了近期股价的差异。TSEM的上涨几乎直接由AI光互连驱动,尤其是硅光需求进入订单兑现阶段;GF更多受益于AI整体需求扩散,硅光只是其中一部分。前者是主线变量,后者更像beta。 很多人会误以为竞争在晶圆尺寸,比如300mm。但在SiPho、模拟、RF这些领域,关键不在晶圆,而在工艺复杂度、良率和客户绑定。真正决定竞争力的是能否稳定量产复杂光电结构,而不是晶圆大小。 从全球格局看,中国在光模块层面占据优势,但在SiPho制造仍处于早期阶段。差距不在技术原理,而在量产能力和客户验证。短期内,由于订单和经验的正反馈,差距在拉大;中期随着下游需求反向驱动,上游有望追赶。这一结构和HBM不同,SiPho不属于天然寡头,更可能走向多极竞争。 真正改变产业结构的是CPO(co-packaged optics)。CPO不是一个器件,而是一种封装形态:把光芯片与算力芯片封在一起,使光从“外部模块”变成“系统内部的一部分”。实现路径是先在SiPho晶圆上完成器件制造,筛选良品(KGD),切割成die,再与GPU/ASIC、HBM等一起进行异构集成,通常采用平面并排而非堆叠。 这一变化的核心结果是:硅光从“独立产品”变成“系统中的一层”。功能重要性不变,但定价权下降。过去光模块可以独立定价;在CPO中,价值更多被系统整合者吸收。掌握先进封装能力的厂商更接近控制节点,这也是为什么TSMC和Intel在这一阶段具备更强话语权,而TSEM和GF更接近中游die供应商。 CPO对技术提出了三大硬约束:功耗、带宽密度和封装耦合。功耗决定系统是否可持续,带宽密度决定扩展能力,封装耦合决定良率和成本。这三点直接推动硅光工艺进入新阶段。 在这一过程中,低损耗波导成为关键基础。波导是芯片内部的“光通道”,损耗以dB/cm衡量。0.1 dB/cm与1 dB/cm的差异,会在封装内线性累积,直接决定系统功耗与成本。当前主流量产水平在0.3–1 dB/cm,先进工艺可到0.1 dB/cm,实验室中的氮化硅(SiN)接近0.01 dB/cm,但距离大规模量产仍有距离。材料路径也逐渐清晰:硅波导受限于粗糙度和折射率,长期趋势是向SiN迁移。 难点不在单点,而在多重极限叠加:侧壁粗糙度、PECVD氢吸收、SiN应力、弯曲损耗、光纤耦合等因素同时作用。这也是为什么真正的优势来自“全栈工艺控制”,而不是某个单一技术突破。 CPO不仅改变技术路径,也改变竞争结构。未来不会出现单一路线,而是分层共存: 核心AI集群:定制CPO,追求极致性能 大规模部署:标准化CPO或pluggable,追求成本与灵活性 即使在CPO内部,也会分化为“高性能CPO”和“标准化CPO”,类似HBM与DDR的关系:前者吃价值,后者吃规模。 对TSEM和GF来说,这种分化进一步强化各自路径。TSEM更靠近高性能CPO,承接定制需求,有机会成为局部瓶颈;GF更靠近标准化CPO,承担规模扩张,是产业的放大器。 整条链可以压缩成一句话:材料决定能不能做,芯片决定性能上限,封装决定系统价值,系统厂决定利润分配。对应到算力链,InP激光器类似HBM,CPO类似GPU封装,光模块类似服务器组装,而硅光晶圆厂更像中间层的chiplet供应商。 从投资角度看,最确定的机会在光源,这是物理瓶颈;最大弹性在硅光与CPO,一旦路径跑通会被放大;光模块是顺周期;封装稳定吃利润但不容易爆发;系统层存在潜在黑马,但取决于架构演进。硅光不会消失,但正在被“吞入系统”。未来真正的“HBM时刻”,更可能出现在光源层或系统级封装,而不是封装之前的中游晶圆环节。 免责声明:本人持有文章中提及资产,观点充满偏见,非投资建议dyor
显示更多
0
15
326
106
转发到社区
AI芯片的scale up,底层=物理的限制是reticle: 光刻机一次只能曝光一个固定大小的区域,上限大约在800mm²左右。这决定了目前单颗芯片的尺寸的硬天花板。 行业突破这个限制的难度非常大,接近物理极限,因为光刻的面积和精度往往不能两全(镜头等设备限制),所以只能绕开它。 早期是大GPU,但这样做成本和良率都会变得很差。后来逐渐转向另外两条路径:一种是把系统做大,用一块更大的“硅底板”interposer把多个芯片拼在一起;另一种是把芯片拆小,再通过高速连接重新组合。 interposer本质上不做计算,只负责连接。GPU、HBM这些芯片放在上面,通过更细、更密、更短的连线实现高带宽数据交换。AI算力之所以能上一个台阶,很大程度上不是因为算得更快,而是数据在不同芯片之间移动得更快。 但interposer本身也会超过reticle的尺寸,这时候就需要用到stitching。做法就像拼瓷砖:一块一块曝光,然后精确对齐,拼成一个整体。难点在于精度控制,边界一旦对不齐,连线就会出问题。 这种方式只适用于对精度不那么敏感的结构。像CPU、GPU这类逻辑芯片,对时序的要求极高,任何纳米级误差都可能影响性能,所以不能用stitching。interposer因为只是布线层,没有复杂逻辑,可以容忍这种拼接带来的误差。 围绕连接这件事,行业逐渐形成了cowos和emib两种不同的实现路径。一种是做一个统一的大平台,把所有芯片放在同一块interposer上,连接集中在这层完成,带宽能力很强,但成本也高。另一种是不做大底板,只在需要高速连接的地方嵌入一小块桥接结构,按需提供带宽,结构更灵活,制造压力也更小。 在AI训练场景下,模型规模大,HBM带宽成为关键,整个平台需要维持极高的数据吞吐,这类设计更依赖大面积interposer。 但推理场景的约束不一样,更关注成本、延迟和并发,带宽需求往往集中在局部,不需要整个平台都维持极致带宽。这时候,把芯片拆成多个模块,再用局部高速连接拼起来,会更合适。 这也是EMIB这类方案更容易在推理芯片和ASIC里出现的原因。它不需要一整块大interposer,而是在关键位置提供高带宽连接,可以把计算、缓存、IO等模块分开设计,再按需组合。这样的结构更容易控制成本,也更有利于根据不同业务场景做定制化调整。对云厂自研芯片来说,这种灵活性很重要。 当然,推理并不完全不需要高带宽。在一些大模型推理场景里,HBM依然重要,对应的封装方案也会更接近训练芯片。但在更广泛的推理需求中,成本和规模才是核心约束,这使得模块化和局部互连的价值变得更高。 站在26年一季度末看未来,AI算力的扩展路径其实已经很清晰了。不是把单个芯片做得越来越大,而是把计算拆开,再用更高带宽把它们连接起来。芯片本身的尺寸被reticle锁死了,系统的规模则由连接能力决定。 免责声明:本文非投资建议dyor
显示更多
0
16
213
39
转发到社区
上次发Cysic还是说他们快要发币,今天坐下来再看已经到了Alpha官宣结束,Aster火箭发射的阶段了,好快😅😅 之前 $AT Rocket Launch 趟出来一个路径,虽然拖的时间周期比较长: BN Alpha - > Aster Rocket Launch - >? BN Perp ->?? 不知道这次还能不能刻舟一把,我感觉至少应该是能有个合约待遇的。 @cysic_xyz 与最近大部分tge项目相比有个自己的独特优势,那就是他们其实是个有营收,且有硬件产品的zk基建项目。 24年他们光是在提供ZK Proof这一个业务就从Aleo,Scroll等链上收获了630多万美元。后续路线图上可以看到他们还有狗狗币矿机,ZK ASIC芯片的产品线。 网上找到一张他们的DogeBox图片,用户只需要把他们的硬件加速盒子连上服务器或本地机器,即可获得算力提升,无需额外的软硬件配置。 如果项目能把后续的持续收益与币价建立起比较合理的绑定关系,那TGE时大方的空投奖励和大流通其实不是坏事。 听郡主 @0xsexybanana 说老板 @leofanxiong 是屯BTC的老OG了很有钱,希望二级表现能发发力吧😆😆
显示更多
0
36
50
1
转发到社区
⛏️ #Bitcoin# price has dropped over 20% in the past week. At a $BTC price of $54k and a power rate of $0.07/kWh, ASICs with a unit power consumption of 23 W/T or higher are operating at a loss. View more miners here:
显示更多
0
12
132
61
转发到社区