注册并分享邀请链接,可获得视频播放与邀请奖励。

与「去Nvidia化」相关的搜索结果

去Nvidia化 贴吧
一个关键词就是一个贴吧,路径全站唯一。
创建贴吧
用户
未找到
包含 去Nvidia化 的内容
$AVGO 是AI芯片的龙头。但历史告诉你,真正暴富的人买的是龙二 $MRVL 先说一个关于半导体行业的反直觉规律: 在一个严重缺货的市场里,获利最大的往往不是龙头,而是那个追赶中的龙二。(Herman老师分析intel观点我觉得说的很好,也同样非常适用于 $MRVL) 理由很简单: 当产能严重不足,买家再也无法只依赖龙头一家供应商。他们开始把订单给原本觉得"不够好"的替代者。而这个替代者,突然发现自己的产品以前没有人要,现在成了香饽饽——价格可以谈,条款可以谈,一切都变了。晶圆缺货时,原本没有人愿意把订单给Intel的客户,开始认真研究18A了。 那么,在AI定制芯片这个正在快速缺货的赛道里,获利最大的龙二会是谁? 我的答案是 $MRVL 。 1. 先理解结构 AI芯片市场分两层: 第一层:通用GPU Nvidia统治,没有任何人能挑战。H100、B200、Blackwell——超大规模云厂商需要它们,别无选择。 这层市场已经被充分定价了。Nvidia市值5.7万亿,没有人会漏掉这个机会。 第二层:定制ASIC(专用AI加速芯片) 这是一个完全不同的故事。 每一家超大规模云厂商都在开发自己的专用芯片: Google有TPU(张量处理器),Amazon有Trainium(AI训练)和Inferentia(推理),Meta有MTIA(AI推理加速),Microsoft有Maia(Azure AI加速)。 为什么要自己开发芯片? 因为通用GPU虽然强大,但它服务所有人,没有为特定工作负载优化。自研芯片可以针对自己的模型架构和推理需求精确设计,功耗更低,成本更低,效率更高。 这是一个不可逆的趋势——超大规模云厂商越大,自研芯片的动力越强。但有一个关键问题:这些云厂商需要设计合作伙伴。芯片设计是极其复杂的工程,需要有人懂SerDes,懂先进封装,懂chiplet集成,懂供应链——不是随便一家公司能做到的。 全球有能力承接超大规模云厂商定制ASIC设计的公司,只有两家: $Broadcom,和 $Marvell。 2. AVGO vs MRVL:龙头和龙二的真实差距 先看数字: Broadcom在ASIC市场占约55-60%的份额,与Google的TPU合作锁定到2031年,客户包括Meta、OpenAI等顶级厂商。Marvell约占15%的份额,排名第二Broadcom领先是事实,毫无争议。 但有几个数字值得认真对比: AVGO MRVL 市值 $2万亿 $1,470亿 ASIC市占 55-60% 15% FY26AI营收 $200亿+ $96亿 Forward PE 31倍 36倍 Broadcom在定制ASIC市场记录了约$200亿的AI总营收,而Marvell的AI相关营收约$96亿。 从市值角度:AVGO的市值是MRVL的13.6倍,但ASIC市场份额只是MRVL的4倍,AI营收只是MRVL的2倍。这个不对称,是MRVL存在的核心机会。 3. MRVL独特的地方:两场战争同时押注 这是我认为最关键的一点,也是MRVL和所有其他AI芯片公司最本质的区别。 MRVL同时押注了两个互相独立的万亿级叙事: 叙事一:定制ASIC——去Nvidia化的最大受益者 Marvell的数据中心部门FY2026增长46%,超过$60亿,管理层指引FY2027同比再增约40%。定制芯片年化营收已达$15亿规模,两个AI加速器项目处于高产量阶段,第三个超大规模客户合作正在进行。 Nasdaq 最重要的一个进展: 2026年4月,Google被报道正在与Marvell进行深度谈判,共同开发内存处理单元和下一代TPU,这正是Google此前几乎完全交由Broadcom负责的工作。如果谈判成功,Marvell将成为AI行业最具战略意义的芯片项目之一的核心设计伙伴。 这是什么意思? Broadcom和Google的TPU合作锁定到2031年——这是Broadcom的护城河,但不是MRVL的天花板。Google开始和MRVL谈,不是要取代Broadcom,而是要建立第二供应商。这正是"缺货时代,落后者获利"的经典逻辑。 当TPU的设计需求超过了Broadcom单独能服务的上限,Google开始把部分项目分给MRVL。 这一单谈成,MRVL同时拥有Amazon和Google双超大规模客户锚定——三个超大规模客户(Amazon、Microsoft、Google)大幅降低了单一客户集中的风险,给市场提供了更清晰的多年营收增长路线图。 叙事二:光互连DSP——AI集群神经系统的命门 MRVL是目前唯一同时覆盖定制ASIC设计、1.6T光学DSP、硅光子技术(通过Celestial AI收购)和CXL交换的全栈公司——这是任何单一竞争对手都无法复制的护城河。 光互连DSP是什么? 当GPU和GPU之间需要通信,数据需要在光纤里传输。但光纤里走的是模拟光信号,计算机需要的是数字信号。DSP(数字信号处理器)就是这两个世界之间的翻译器——它把数字数据编码成光信号发出去,再把收到的光信号解码成数字数据。 MRVL的PAM4 DSP是全球800G和1.6T光模块的核心芯片之一。光互连业务的需求与AI集群的互连基础设施同步扩张——每一个上线的AI集群都需要完整的互连协议栈,不需要等待GPU的供应情况。 这是最关键的逻辑: GPU供应有时候是稀缺的,但光互连不等GPU——只要数据中心在建,只要AI集群在运行,光互连就需要。 MRVL的DSP是一个和GPU并行运行的独立需求,不是GPU需求的影子。 4. 我自己的判断:为什么MRVL的故事比AVGO更有弹性 AVGO是龙头,MRVL是追赶者。 但在这个特定的历史时刻,追赶者的弹性更大,原因有三: 原因一:基数效应 AVGO已经是$2万亿市值,要翻倍需要成为$4万亿的公司。MRVL只有$1,470亿,翻倍只需要$2,940亿——和AVGO现在市值的15%相当。同样的资金流入,对MRVL股价的推动效果是AVGO的13倍以上。 原因二:Google的变量 AVGO和Google的合作是锁定的,这是护城河,但也意味着它的上行惊喜已经被充分定价。MRVL和Google的谈判还没有正式宣布——这是一个尚未被市场定价的潜在催化剂。如果Google正式宣布,MRVL立刻拥有Amazon+Google双超大规模客户,ASIC市场份额从15%向25%+跳升的路径被打开。 原因三:两个叙事不相关 AVGO的核心护城河是ASIC和VMware软件。 MRVL的两个叙事——ASIC和光互连DSP——是完全独立的业务。 ASIC受益于去Nvidia化,光互连受益于AI集群扩张。两个独立的增长引擎,互相不依赖,互相不替代。 MRVL在多个AI基础设施顺风中同时暴露:定制芯片、光互连、数据中心网络和更广泛的超大规模资本支出周期。这种在AI主题内的多元化暴露,使它成为纯粹的GPU标的(如Nvidia)的有吸引力的补充。 5. 估值合理吗? $MRVL:Forward PE 36.4倍,市值$1,470亿。 $AVGO:Forward PE 31倍,市值$2万亿。 $MRVL的Forward PE比 $AVGO略高,但增速也更快: $MRVL FY27营收预期:约$110亿,同比增速约40% $AVGO FY27增速约25-30%。PEG(PE/增速): $MRVL:36.4 ÷ 40 = 0.91, $AVGO:31 ÷ 27 = 1.15 PEG低于1都算便宜。 用PEG来衡量,MRVL比AVGO便宜约20%。 而且MRVL有Google催化剂这个尚未被定价的变量,AVGO没有。如果Marvell股价涨到$400,需要数据中心营收FY27超过$90亿,Google ASIC合同正式宣布,自定义硅年化营收达到$30亿。在这些条件下,ASIC业务40倍Forward EV/EBITDA,光互连业务20倍EV/Sales。 我觉得2027年是很有可能达到的,这还是在理性的估值下,如果是ai融涨疯牛选择忽略估值的话,如果NVDA到360分析师预测最高,也就是8.8T, 我预测8-10T,那么AVGO会到3-4T, MRVL到500B-1T都问题不大。 6. 三个需要追踪的关键变量 变量一:Google ASIC合同的正式宣布 这是目前MRVL最大的潜在催化剂。谈判已经在进行,但没有正式宣布。每过一个季度没有宣布,市场会稍微失去耐心。但一旦宣布,估值逻辑发生质变。 变量二:1.6T DSP的市场份额 Marvell已经开始出货1.6T PAM DSP,基于5纳米工艺,并推出了下一代3纳米版本,将光模块功耗降低超过20%。 800G向1.6T的迭代是MRVL DSP业务的下一个量子跳跃。如果MRVL能在1.6T时代维持甚至提升市场份额,光互连业务的营收会非线性增长。 变量三:Celestial AI的硅光子整合 MRVL收购了Celestial AI,进入硅光子领域。这是CPO时代最关键的技术平台——把光学引擎直接集成进芯片封装。如果MRVL能在CPO时代把DSP和硅光子整合成一个完整的解决方案,它的价值会远超现在的定价。 7. 最终判断:MRVL是这轮AI牛市里最干净的不对称机会 AI芯片市场分三类公司: 第一类:Nvidia——已经被充分定价的龙头。故事最好,估值最贵,上行惊喜空间有限。 第二类:纯ASIC公司(AVGO)——护城河深厚,但增速放缓在定价中。Google TPU锁定到2031年是确定性,也是上行惊喜的天花板。 第三类:MRVL——两个叙事都在爆发,Google催化剂未定价,市值基数小。 这是不对称机会的经典形态, 下行有Amazon锚定,有光互连稳定收入,不会归零,上行有Google合同宣布+CPO爆发+ASIC市场份额提升,估值可能从$1,470亿走向$5,000亿+。 $MRVL也是我重仓持有的标的之一,短期technical角度今天收长上影线,日线级别调整要来,加仓机会在第一目标165,第二目标140。如果给机会到140补那个缺口,我仓位加满(图1)。 总结:回到那个反直觉的规律:缺货时代,落后者获利最大。 ASIC市场正在缺货——Broadcom一家根本无法满足所有超大规模客户的定制需求。光互连正在缺货——AI集群每季度都在扩张,DSP的需求只增不减。MRVL是这两个缺货赛道里,那个正在被需要的追赶者。 历史一次次证明:当产能不足、供应商只有一两家的时候,第二名是最好的弹性高的投资标的(Nvidia和Amd,TSMC和Intel。) 因为所有人都开始认真研究它了。 #MRVL# #Marvell# #AVGO# #Broadcom# #ASIC# #定制芯片# #光互连# #DSP# #Google# #Amazon# #Nvidia# #AI芯片# #半导体# #美股# #龙二补涨# #CPO# #硅光子# #AI基建# #USStocks# #AIStocks# #数据中心# #去Nvidia化#
显示更多
0
24
324
58
转发到社区
AI半导体终局推演2026(I) 当新token经济学范式从GPU算力转移到HBM 本文从从GPU架构进化路线本质出发,解释这个市场长久以来担心的问题: 每个GPU的HBM内存需求为什么一定会是指数增长,为什么HBM需求指数增长不会停滞? 并推导token经济学在当前架构下第一性原理:token吞吐 = HBM size X HBM BW带宽 同时讨论了,为什么GPU的天花板被HBM的两个发展维度所决定 HBM周期性这个话题争议一直很大,乐观派认为AI带来的需求比以前要大的多,但市场主流仍然认为前几次上升周期也有需求每年20%+增长,这次又有什么不一样呢?AI不影响HBM和传统DRAM一样有commodity属性,一旦在需求顶峰扩产遇上需求下行又会重蹈覆辙。 我们可以从算力芯片架构视角,从第一性原理出发,来拆解和推演一下这个问题:为什么这次真的不一样 ------------------------------- 历史:CPU算力时代 很久以来,我们都处在CPU主导算力的时代,CPU的最高级KPI就是performance,跑的更快,所以每一代的CPU都用各种方法来提高跑分,最开始是频率上升,后来是架构演进superscaler等等 这个时候为什么DDR不需要很快的技术进步速度?比如DDR3到DDR5竟然经历了15年之久 因为这个时期的DDR的角色是纯粹的辅助,而且辅助功能极弱,以业界经验,DDR的速度即便是提高一倍,CPU的performance一般只能提高不到20%这个量级 为什么DDR带宽速度提高了用处不大?两个原因 1. CPU设计了各种架构去隐藏 DDR延迟,比如superscaler,加大发射宽度,用海量的ROB和register renaming来提高并行度隐藏延迟,一级缓存cache,二级缓存cache,削弱了DDR的带宽速度需求 2. CPU workload对DDR带宽要求并不高,大部分日常负载比如打开网页,DDR带宽是严重过剩的,甚至云端负载 也就是说,在CPU时代,DDR的带宽速度是不太有所谓的,DDR4和DDR5除了少数游戏就没啥差别,甚至JEDEC标准也进步缓慢。 另外,绝大部分app需要一直停留在DDR上的部分并不多,需要的时候从硬盘上调度到DDR即可,app的size增长没那么快,导致对DDR的容量需求也较为缓慢。 所以最近十年来,平均每台电脑上的DDR容量大概从7~8GB变成了23GB,十年只增长了3倍。 而这部分升级缓慢直接影响了营收,size容量计价是赚钱的主要方式,速度的提高只是技术升级,提高size的单价,这两个的升级需求都不大,需求主要是随着电脑/手机数量增长而增长 所以DRAM在带宽速度和容量这两个维度上,一直是都是芯片产业锦上添花性质的附属品,DDR升级带来的边际效用是很低的,跟CPU时代的最高KPI几乎没什么直接联系 -------------------------------------------- 而到了genAI 大模型为主导的新时代,计算范式转移让最高级KPI起了根本变化 GPU发展到AI推理的时代,不再像CPU那样只看跑分,最高级的KPI不再是算力TOPS/FLOPS,而是token的成本,特别是单位成本/单位电力下的overall token throuput 其次是token吞吐速度,因为在agent时代,很多任务变成了串行,token吞吐速度成了用户体验的重要瓶颈。 这也是为什么老黄发明AI工厂概念的原因:最低成本的输出最多token,同时尽量提高token吞吐速度 AI训练时代,老黄的经济学是TCO(total cost ownership),买的GPU越多,省的越多 而老黄在推理时代的token经济学是: AI推理的毛利润很可观,所以逻辑已经转换成:Nvidia GPU是这个世界上让token单价最便宜的GPU,买的GPU越多,赚的越多 最高的KPI变成了Pareto frontier曲线,在提高token 吞吐throughput和提高token速度两个维度上尽量优化 (见图一) NVIDIA 的 token factory 代际进步,其实是在把整条 Pareto frontier 往右上推,这就是是AI推理这个时代最重要的KPI ---------------------------------- 接下来是本文最重要的逻辑链,如何从token吞吐量指数型增长的本质出发,推导出天花板瓶颈在HBM size和HBM 带宽的指数型增长 单卡GPU推理单线程batch size = 1的时代,token吞吐只有一个维度,就是HBM的带宽速度,带宽速度越高,token吞吐越大 但进入NVL72的年代,推理不再是单卡GPU时代,而是72个GPU + 36个CPU整个系统级别的token工厂,把HBM带宽和算力用满,获得极致的token吞吐量 Token 吞吐throughput的增长,依赖两个东西:同时批处理的请求数 X 每个user请求的平均token速度 也就是batch size X per user token 速度 以Rubin NVL72为例,在平均token速度是100 token/s的情况下,同时批处理1920个请求,得到token吞吐量是19.2万token/s 一个Rubin NVL72大概是120KW(0.12MW)的功率,所以得到单位MW能处理1.6M token/s (见图一) 所以,我们需要想方设法提高这两个参数:批处理数量batch size和per user token的平均速度,这两者相乘就是我们的最高KPI,也就是token的吞吐量 ------- 第一个参数:batch size的增长,瓶颈在HBM size 批处理量里的每一个请求req,都会自带kv cache,这部分kv cache是需要存在HBM里的,大小大概在几个GB到数十GB不等 因为hot kv cache是随时需要高频高速读取,所以必须放在HBM里,比如一个大模型的层数是80层,那么每一个token的生成阶段,都需要读取80次HBM里的kv cache 随着批处理数量batch size的增长,会带来hot kv cache的线性增长 又因为这个批处理量的所有请求的hot kv cache,都要放在HBM上,这也就带来了HBM size必须要随着批处理量batch size线性增长 就像是机场接驳车,登机口尽量快的接旅客到飞机,HBM size小了,相当于接驳车size小了,就得多接一趟 结论是:批处理量的数量batch size,瓶颈依赖于HBM size的增长 --------- 第二个参数:每个user请求的平均token速度,瓶颈在HBM带宽 大模型decode阶段的速度,瓶颈取决于HBM的带宽速度,因为每生成一个 token,都要把激活的权重和kv cache 读很多遍 LPU的出现,在batch不那么大的情况下,把激活权重这个部分搬到了SRAM上,但是每生成一个 token仍然要从HBM读很多次KV cache。HBM带宽越高,生成每一个token的速度也就越快,基本上是线性对应的 就像是机场接驳车,登机口尽量快的接旅客到飞机,hbm本身带宽速度就像是接驳车的车门有多宽,门越宽,旅客上接驳车越快 GPU的其他配置,都是在适配batch的增长以及要让token compute的速度配平HBM的增长,甚至会用多余的算力来获得部分的带宽(比如部分带宽压缩技术) —----- 在那个接驳车的比喻例子里 接驳车的车厢大小 = HBM Size(容量): 决定了一次能装下多少名旅客(也就是能同时装下多少个请求的 KV Cache)。车厢越大,一次能拉载的旅客(Batch Size)就越多。如果车太小,想拉100个人就得分两趟,系统整体的吞吐量就上不去。 接驳车的车门宽度 = HBM Bandwidth(带宽): 决定了旅客上下车的速度。门越宽,大家呼啦啦一下全上去了(Decode/生成Token的速度极快)。如果门很窄,哪怕车厢巨大能装200人,大家也得排着队一个一个挤上去,全耗在上下车的时间里了。 旅客的吞吐量 = 接驳车车厢容量 x 接驳车旅客上车速度(车门宽度) —--------------------------- 至此,我们从逻辑上推演出了token经济学的硬件需求第一性原理: Token throughput = HBM size X HBM Bandwidth AI推理这个时代的最高KPI,实际上是高度依赖于HBM的两个维度的进步的 如果要维持token throuput每一代两倍的增长,实际上意味着,每一代的单GPU上,HBM size X HBM BW带宽之积要增长两倍! 这也是历史上第一次,HBM内存的size可以影响最高的KPI token throughput! 要验证这个理论,可以把Nvidia从A100到Rubin Ultra这几代的token 吞吐throughput,和HBM size X HBM BW 放在同一个图里比较 (见图二) 可以发现,这两个曲线的走势在对数轴上惊人的一致 HBM size x HBM带宽增长的甚至要比token吞吐量更快,毕竟HBM决定的是天花板,实际上这个天花板增长的利用率utilization是很难达到100%的,也就是说,HBM size x HBM 带宽就算增长1000倍,其他算力和架构的配合下,很难把这1000倍的天花板潜力全部榨干 这条曲线不是巧合,而是系统最优化的必然解 throughput = batch × Bandwidth,这就是token factory 经济学最绕不开的第一性原理 —-------- 软件的影响呢?软件的优化会不会降低带宽的需求?降低HBM的需求? 这跟硬件是独立两个维度的,这好像在问,如果CPU上的软件优化了之后跑的更快,是不是CPU就十年不用发展了?反正软件跑的更快了嘛 这样的话,CPU厂还能赚得到钱吗?CPU想要存活下去,只有一条路可走,在标准benchmark,不考虑软件优化,每一代CPU必须要跑分更高,不然就卖不出去 GPU也是一样,软件优化如何,和自己的token吞吐量KPI每年都要大幅进步,是两回事 只要token的需求继续增长,对token throuput的追求就绝不会停止,那么对HBM size X HBM 带宽的追求也不会停止 如果HBM size和HBM 带宽发展慢了,老黄一定会亲自到御三家逼着他们技术升级,因为这就是老黄gpu的天花板,天花板要是钉死了不进步,老黄的GPU还能卖出去吗? 当然了,Nvidia需要绞尽脑汁去从异构计算的架构角度榨取HBM天花板之外的部分,比如LPU就是一个很好的尝试,把Pareto frontier从另一个角度改善了很多 (右半边高token速度的部分) —-------------------------------------- HBM内存已然告别了那个随波逐流的旧时代,在这条由指数级需求铺就的单行道上,以一种近乎宿命的方式走到了产业史诗的主舞台中央 推理范式第一性原理演化到这一步,只要老黄还要卖GPU,HBM就必须翻倍,而且必须代代翻倍。这是supply side的内生压力,与AI需求无关,与宏观周期无关,与hyperscaler的心情也无关 剩下的问题,只有一个: 当需求被物理锁定为指数增长的时候,供给侧的三个玩家,会不会还像过去三十年那样,亲手把自己再拖回一次周期的泥潭?
显示更多
0
58
992
298
转发到社区
$TAO 真的出息了,打开行情,TAO又在独涨 看了一圈,核心催化剂还是 All-In Podcast 里 Chamath 点名 + NVIDIA CEO 当场肯定去中心化训练 。同时 Grayscale ETF 备案传闻在持续发酵,整个社区都很振奋。 SN3 Templar 的出圈效应还在持续 ,市值破 $100M+,这是 Bittensor 真正的 Singularity Moment,是从 0 到 1 的质变。 过去8年来,大家公认 Crypto 能干两件事:发行资产,交易注意力。 但现在多了第三件:组织生产力。 不是算账,不是投机,是真实的算力被去中心化地调动起来,输出了一个生产级的大模型。 Crypto 机制第一次在 AI 领域组织出了真实的生产力。 Bittensor 从“理论上可行的crypto AI”变成了一个被实践验证的“真实生产级去中心化AI基础设施”。 从资金流向来看,过去24小时,TAO 主要流向SN4、SN9、SN68、SN3、SN1、SN85。资金在不断流向真正做事、更具生产价值的子网。
显示更多
《从福布斯富豪榜看财富流动趋势》 今天关于 @cz_binance 被杀猪榜放进前20的消息又满天飞了,按之前的调性大概率等CZ睡醒又要开始辟谣,哈哈。 不想露富是华人常见心态,但从我等吃瓜群众看,作为Crypto唯一杀入前列的代表,还是乐得看到CZ给Crypto挣了脸的。 顺便分析了一下这次的富豪榜比例情况: ▶️科技(互联网 / AI / 软件 / 芯片)约35–40% 代表:Elon Musk、Jeff Bezos、Mark Zuckerberg ▶️金融与投资 约15–20% 代表:Warren Buffett、对冲基金、PE ▶️零售 / 奢侈品 / 消费 约10–15% ▶️制造 / 工业 约10% ▶️重工业、汽车、制造 能源 / 矿业 约5–8% ▶️石油、天然气 房地产 约5–7% 可以看出财富结构正在发生代际变化,世界在不知不觉间已经通过财富流向告诉大家是如何变迁的。 ~~~~~~~~~~~~~~~~~~~~~~~~~~~ 我摘出几个有意思的地方: 1、AI正在成为新的财富发动机。 榜单前列里很多财富增长都来自 AI 或 AI相关科技公司,Musk,Larry Page,老黄等人财富增长很大程度来自 AI浪潮带动的科技股上涨。例如 Alphabet 股价上涨直接推动 Page 和 Brin 财富大幅增加。 过去十年最赚钱的是移动互联网,未来十年最赚钱的可能是AI基础设施。 2、超级富豪财富增长速度极端惊人 榜单还有一个很震撼的数据: 全球亿万富豪数量已经超过 3400人,总财富达到 约20万亿美元,而且仍在持续增长。 更夸张的是: 全球最富的10个人一年财富增加接近6000亿美元。 财富向极少数人快速集中的速度进一步加快了,科幻小说里一个人掌握全球99%财富的故事好像真有可能发生? 3、财富结构正在发生代际变化 老钱逐渐被科技钱取代,比如奢侈品巨头Bernard Arnault 逐渐被科技创始人压制。现在的超级富豪基本都是科技公司创始人or控制人,平台型企业掌控者 而不是传统的:地产 石油 制造业 4、超级富豪“百亿俱乐部”正在爆炸增长 centibillionaire(千亿美元富豪)数量暴增。全球已经有 18位财富超过1000亿美元的人,这个群体的总财富接近 3.6万亿美元 这在十年前几乎是不可想象的。 很多机构都预测全球第一位 trillionaire(万亿富豪)可能在2030年前出现。 ~~~~~~~~~~~~~~~~~~~~~~~` 此外,国人比较熟悉和感兴趣的富豪情况: 1、卖水的赢了搞互联网的,首富还是“水王” 钟睒睒(农夫山泉)依然稳坐中国首富。在全球互联网寒冬和电商内卷下,水王靠着刚需和极致的现金流控制力,依然压过张一鸣和马化腾。 2、老黄代表华人之光席卷全球 随着AI浪潮,英伟达(Nvidia)CEO黄仁勋身价疯涨,目前已进入全球前10(甚至前8)。对于中文读者来说,他是全球科技圈最受瞩目的华人面孔,也是AI时代的绝对教父。 3、“出海三杰”的进击:赚全球的钱 张一鸣(TikTok)、黄峥(拼多多/Temu)、许仰天(Shein)。这三位是典型的“中国供应链+全球化运营”的赢家,反映了中国互联网出海的强大生命力。 4、房地产时代的终结,新能源/半导体的崛起 曾经榜单前列的王健林、杨惠妍等地产巨头排名大幅缩水甚至掉队。取而代之的是雷军(小米造车成功)、曾毓群(宁德时代)。 资源型财富已经被科技型财富压过去了。 ~~~~~~~~~~~~~~~~~~~~ 说回Crypto,CZ 的财富变化,本质上是整个加密市场周期的一个晴雨表。 Forbes 在计算 CZ 财富时主要参考是Binance股权估值,而非 $BNB 币价和其他链上资产。 现在已经是加密熊市, $BNB 价格从顶峰已经跌落50%,但CZ的身家反而上涨。我问了一下AI,这可能与熊市了反而头部交易所的市场份额会上升有关。 在2018熊市、2022熊市、现在这个阶段,Binance 的市场份额反而往往会上升,因为原因很简单:熊市会淘汰很多熬不下去的平台。头部交易所反而会趁机吸收流动性用户,进而提高了市场份额。 表单上其实还有其他Crypto富豪,比如 Coinbase的 @brian_armstrong (100-130亿,大约200名), @saylor 老爷子(70-100亿美元,大约300-400名区间)。 但Forbes评估时候不看链上财富,所以Crypto富豪的资产往往是被低估的。 希望未来有更多加密富豪上榜吧,给咱们行业也长长脸。 最后附上福布斯榜单原链接,感兴趣的可以自己再去挖掘一下:
显示更多
0
50
275
28
转发到社区
NVDA又又创新高了, 市值已经5.71万亿美元, 因为一条重磅消息: 美国商务部批准约10家中国公司购买NVIDIA H200芯片, 名单包括:阿里、腾讯、字节跳动、京东。 看来黄仁勋在阿拉斯加上空军一号不是白去的, 芯片出口管制真的松动了。 NVDA涨→AI叙事强化→加密AI代币有补涨预期, 中美科技缓和→风险偏好回升→ $BTC 间接受益有木有?
显示更多
记得Defi Summer 20年到22年这三年时间,大家经常感慨的一句话就是“币圈一天,人间一年” 因为技术迭代太快了,每天都有数不行的新东西出来,几天不看就跟不上节奏 现在这个感觉在币圈彻底消失,在AI那边出现了,每天的新东西就看不完,真的看不完 正好这几天看到圈里讨论Cerebras的帖子多了起来,昨天还看到不少路演信息,毕竟14号要挂牌交易。之前在Amber做分享的时候也单独讲过这个公司(当时用的那页PPT放在文末),所以简单说下我对Cerebras的判断 先说结论:这家公司很有意思,但核心变量不一定是他们造的芯片本身,而是未来AI的workload形态会是成什么样。 先简单说下它是干嘛的,防止有老铁还没看Cerebras 它最核心的技术,就是wafer-scale chip(晶圆级芯片),简单理解就是别人还在用“邮票大小”的芯片,它直接把整片晶圆做成一颗超大处理器,再配上超大 SRAM,把大量数据尽量留在本地高速处理,减少传统GPU最头疼的memory bottleneck。现在海力士美光涨上天就是因为HBM这东西太抢手,Cerebras是直接绕开了对HBM的依赖 很多人看到 Cerebras最牛逼的benchmark:推理速度比GPU快10-15倍,第一反应就是下一个英伟达?! 先别急。 这个benchmark最大的问题,是默认AI的核心需求永远是“更快吐token”。 如果只是人类盯着ChatGPT聊天,这故事其实没那么性感。你每秒吐 30 个 token,我已经快读不过来了。再翻10倍,边际体验提升几乎为零。 真正有意思的是 Agent。 Agent不读字,Agent消费Token。速度直接等于生产力。 一个OpenClaw/Hermes agent,如果要读网页、写计划、调 API、跑代码、报错重试、继续执行,一个任务可能要几十次 inference call。 每次 2 秒,任务就是分钟级体验。 每次 200ms,就是另一个世界。 所以 Cerebras更值得关注的地方,是 AI worker 这条线,而不是单纯的chatbot加速。 但问题来了 - 它的magic来自 wafer-scale + 超大SRAM,本地访问极快。但SRAM这东西有天然 tradeoff,速度快,容量贵,大模型塞不下就必须拆分。 而一旦拆分,chip-to-chip communication 就上来了。 LLM inference里最怕通信的恰恰是 decode 阶段。token 是一个一个往外吐的,每多一次 hop,延迟就是硬加上去,没法隐藏。 所以 Cerebras能不能成,关键根本不在“比 GPU 快几倍”,而是未来 AI 的主流计算形态到底是什么。 1. 时间线一 - 未来几年还是 前沿超大模型一统天下,动不动几千亿甚至万亿参数,所有请求都让超大模型自己处理,那 Nvidia的distributed infra 依然最舒服,Cerebras的速度优势会被通信损耗吃掉很多。 2. 时间线二 - MoE、蒸馏、量化这些技术如果继续快速进步,未来两年70B左右的模型做到今天700B模型 80%-90% 的效果,我一点都不意外。(这里要强烈感谢Deepseek一大波!) 如果世界往这个方向走,故事就变了。 大模型负责 planning / judgement / orchestration。 真正执行任务的大量 worker model 落在 30B-70B 这个区间。 这些模型足够聪明,又刚好能吃到高速本地推理带来的红利。 Agent 世界里,大部分token根本不需要最聪明的大脑。很多工作本质就是执行层体力活:浏览网页、改代码、调工具、retry、继续跑流程。 这个 topology一旦成立,Cerebras就直接进入自己的甜区 3. 时间线三 - 未来推理是端侧为主,用的都是8B,14B的这些小模型,那GPU也能跑的很好,甚至专用的ASIC芯片效率更高,这个场景下Cerebras的优势和护城河也就不高了 换句话说,超大模型云端推理或者超小模型的端侧推理这两个平行宇宙,Cerebras的优势都不够明显,只有主流推理落在32B-70B中等模型这个Size,正好“Big enough to stress GPU memory, Small enough to fit locally” 才是Cerebras最能大展身手的世界 所以我对Cerebras的判断是,300多亿的市值,短期看订单,财务报表这些数据,长期赌的则是未来Agent时代的计算范式到底落在哪个平行宇宙的时间线上
显示更多
0
11
71
10
转发到社区
CMC 上的数据显示,HTX 最近一周流入了近 $6 亿资金,在 CEX 中排名第一 (图 1)。 我猜测原因可能主要有俩: ◎HTX 最近这段时间哐哐上美股代币合约补齐美股这块拼图,还有也在搞热门代币交易奖励活动。这会吸引不少做交易和跟策略套利的活跃资金流入。 ◎另外就是 HTX 的理财收益率其实一直比其它几家 CEX 的略高一点,在目前币圈行情波动收缩以及链上链下理财年化都在下降的情况下,但凡有赚钱效益或理财收益高的地方都是一堆资金涌进去。许多资金就是在寻找收益更高又相对安全的去处中进入了 HTX。 例如稳定币方面,在刨除限额几百刀的阶梯年化外,HTX 上 USDT 活期有 2.5% (VIP 9%)、USDC 活期有 5%。而其它 CEX 则普遍不到 1%,HTX 这个年化对比起来就显得非常的香了。
显示更多
高控筹+有叙事=易拉盘 环境改变我们也需要调整策略去赚钱 #arb# 空投能引发市场的热情 一方面市场很多潜在利好没有释放 市场情绪高昂、期待值高、流动性也好 早期高估值项目通过发酵造热能吸引大部分流动性 从而推高市场预期以及价格的上涨 空投自然可以获得高回报收益 以前20亿估值在流动性好的时期资本的运作下能推到200亿 所以哪怕全网都在卷 中标也能获得不错的回报 而现在流动性下不行了 都去卷的项目基本上都被反撸 所以,机构投资的高估值项目熄火了!爆拉几十倍的反而是那些不被市场关注的非资本项目 所以接下来我会去参与产品不错 处于下轮叙事的风口项目 去中心化交易所、预测市场 今天推荐的就是这么一个综合性的产品 @XBITDEX XBIT是做什么的? XBIT 是一个去中心化的聚合交易预测平台,它能够在安全高效的环境中无缝交易美国股票、永续期货、MEME 代币以及更多资产,旨在增强财富 产品优势 通过智能路线实现最优定价 所有交易的滑点均极低 统一流动性,实现即时跨市场交易 直观的界面,提升用户体验 大家可以去官网体验下产品看看界面 产品设计优化做的很不错 看了下官方文档 他们有自己的积分计划 大概率会有空投 低流动性环境下都去卷高估值项目都被反撸 机会可能在这种踩中风口、重视产品、但是还没被资本入侵的项目上 大家可以通过评论区链接进去体验 撸一波空投埋伏 今天晚上有活动11点截至 官网首页点击盲盒可参与活动 🎁 每开启1个盲盒 即可获得 +1 注彩票 完成交易后,还可额外获得更多彩票: 📈 每日合约交易 ≥1000 USDC 获得 +3注 ≥10000 USDC 获得 +5注 🔮 每日预测交易 ≥500 USDC 获得 +3注 ≥3000 USDC 获得 +5注 小资金去冲一波体验下 个人感觉还不错
显示更多
@luoyonghao 赔钱,买在了最高点!我能去你直播间维权吗
好想带朋友去玩这个~