注册并分享邀请链接,可获得视频播放与邀请奖励。

与「高效能運算」相关的搜索结果

高效能運算 贴吧
一个关键词就是一个贴吧,路径全站唯一。
创建贴吧
用户
未找到
包含 高效能運算 的内容
川普访华,英伟达总裁黄仁勋半路上飞机陪同,AI半导体小跌之后继续上涨。 AI概念继续,底层光模块成为下一个百倍机会。 AI算力的「新天花板」已現-GPU再猛,也被資料傳輸徹底卡住! 從機架到資料中心,銅纜已到極限,光子學正式接管AI互聯命脈! 雷射、光收發器、DSP、矽光子、光開關、光纖…這些曾經的「冷門技術」,正在成為決定萬億AI集群性能的核心基礎設施! 📈2025光子學頂級玩家速覽(今年真實漲幅,乾貨拉滿): $AAOI +430% 超大規模AI光收發器,月產能10萬台,直連Houston&台灣供應鏈 $AEHR +418% 矽光IC燒錄驗證系統,全球大廠排隊,訂單積壓5090萬美元 $LITE +186% InP雷射全球50-60%份額,400G差分EML已量產,訂單超4億美元 $CIEN +149% AI長短距網路核心,1600ZR/ZR+光模組+6.4T光引擎震撼亮相 $GLW +137% 光纖光纜基礎設施王者,Meta簽60億大單,多芯光纖容量暴增4倍 $MTSI +114% 光模組類比晶片龍頭,800G/1.6T全面升級 $COHR +106% InP+矽光+1.6T全覆蓋,400Gbps矽光已實測 $MRVL +101% 光DSP訊號處理大腦,1.6T/6.4T矽光引擎全面鋪開 $CRDO +46% 活躍電纜+光DSP+矽光一體化,7.5億收購DustPhotonics $FN +43% 精密製造底層,泰國+美國產能支撐光模組爆發量產 $ALAB +25% Chip-to-chip光學引擎IP,直接嵌入AI互連平台 $AVGO +24% 光DSP+EML+VCSEL+400G DSP,3.2T→204.8T切換已就位 ⚡光子學不是概念,是AI算力突破的唯一答案! 錯過GPU紅利的人,這次真的要再錯過光子學萬億賽道嗎? 把這條乾貨收藏、轉發、拉進你的AI知識庫—— 真正的財富密碼,往往藏在「看不見」的底層基礎建設裡! #AI# #Photonics# #光子學# #矽光子# #AI基礎設施# #資料中心# #高效能運算# #半導體# #光模組# #AI算力#
显示更多
有人构建了一个 Gemma 4 版本,据称比 Google 的原始版本快 6 倍。这款经过优化的开源模型旨在即使在低端笔记本电脑和移动设备上也能高效运行。
显示更多
0
25
16
1
转发到社区
今天在 HN 看到一篇分享自己使用 cc 方法的文章,很有意思,在 agent 时代,对专业工程师背景的使用者可能更有帮助,因为这种思维方式主要集中在和 cc 结对编程的长会话中(目前仍然是我最喜欢的 vibe 方式)我让 cc 总结了一下,感兴趣的朋友可以看看,文章链接在总结的最末尾。 作者背景: Boris Tane,Cloudflare 工程负责人,前 Baselime(被 Cloudflare 收购)创始人,使用 Claude Code 约 9 个月。 核心方法论 "在审批书面计划之前,绝不让 Claude 写代码。" 他把工作分成三个阶段: 1. 研究阶段(Research) - 先让 Claude 深度阅读代码库,输出 - 用"deeply""in great details"等词引导 Claude 做彻底调研 - 目的:避免 Claude 写出"单独能跑但破坏现有系统"的代码 2. 计划阶段(Planning)+ 标注循环 - 让 Claude 输出 - 最有特色的环节:标注循环(Annotation Cycle)——在编辑器里直接往 里加批注(纠正假设、否决方案、补充约束),然后让 Claude 根据批注修改计划,反复 1-6 轮直到满意 - 最后拆成细粒度的 checklist 再交给 Claude 执行 3. 执行阶段(Implementation) - 标准化的执行提示词,让 Claude 逐项完成并勾选 - 执行期间反馈简短、精准 - 如果方向错了,直接 revert,不做增量修补 --- 可借鉴的思路 1. 共享可变文档——用 markdown 文件作为人机协作的"共享状态",比口头对话更持久、可追溯。这个对复杂项目特别有用,设计决策可以沉淀下来。 2. 标注循环而非对话循环——直接在文档里写批注比在聊天里来回说更高效,Claude 能看到完整上下文,不会丢失信息。 3. 严格的阶段门控——研究 → 计划 → 执行,每个阶段有明确产出物,不跳步。防止 Claude "想当然"地写代码。 4. 接口保护——明确告诉 Claude 哪些函数签名和 API 不能动,设硬约束。 5. 果断 revert——方向错了就回滚重来,不要试图在错误基础上打补丁,这比增量修复节省更多 token 和时间。 6. 单次长会话——在一个连续对话里完成研究到实现,让 Claude 积累对项目的理解,而不是每次都从零开始。 原文链接 How I Use Claude Code:
显示更多
0
24
764
155
转发到社区
在一次饭局上,美国国家工程院、美国艺术与科学院院士黄学东,推荐了一本书——《相变》。 我陆陆续续花了两周的时间看完此书(中文翻译比较差,读的慢),收获蛮大的。 在以往的组织里,我常常充当着创新者角色,在推进产品创新过程中,时常感到挫败,看完这本书,有了新的体会: 在较大组织里,创新不是依靠“天才”或“文化”,而是组织结构,就像水在32华氏度(0摄氏度)会从流动变成结冰,这不是因为分子的“性格”变了,而是因为温度这个“控制参数”改变了分子的排列方式。当团队规模超过一个临界点(通常是150人)时,员工的积极性会从“关注项目成果”转向“关注职位晋升和政治游说”。这不是因为人变坏了,而是结构决定的必然结果。 真正可持续的创新组织,领导者应该是“园丁”。他的核心任务不是去评判点子好不好,而是管理好“艺术家”(搞创新的)和“士兵”(搞生产的)之间的动态平衡,确保两者既分离又能高效沟通。管理者与其天天喊“我们要创新”,不如去算一算书中提到的“相变公式”。调大员工的股权占比、缩小管理跨度、减少行政游说的回报。
显示更多
问:上下文(Context)和上下文窗口(Context Window)什么差别? 这两个概念经常被混用,但其实指的是不同层面的东西: 上下文是指 AI Agent 在执行任务时实际拥有的所有信息,包括系统提示词、用户的对话历史、检索到的文档、工具调用的结果、记忆模块注入的内容等等。你可以把它理解为“Agent 此刻脑子里装的所有东西”。上下文是一个动态的、可以被工程化管理的概念——哪些信息该放进来、什么时候放、怎么组织,这就是现在越来越多人说的 Context Engineering。 上下文窗口则是模型层面的一个硬性限制,指的是模型单次推理能处理的最大 token 数量。比如 128K、200K、1M 这些数字,说的就是上下文窗口的大小。它本质上是一个“容器的容量”。 打个比方:上下文窗口是你厨房操作台的面积,上下文是你实际摆在台面上的食材、调料、菜谱和工具。台面就那么大(上下文窗口有上限),但你放什么上去、怎么摆放(上下文的管理)决定了你能不能高效做菜。 在 Agent 开发中,一个核心挑战就是:Agent 需要的上下文往往远超上下文窗口的容量。对话越来越长、工具调用结果越来越多、检索的文档越来越大——这些都在消耗上下文窗口的空间。所以才需要各种策略来管理:摘要压缩历史对话、选择性检索而不是全量灌入、及时清理不再需要的中间结果等等。 简单总结就是:上下文(Context)是“内容”,上下文窗口(Context Window)是“装内容的容器”。做 Agent 工程的核心功夫之一,就是在有限的“上下文窗口”里塞进最有价值的“上下文”。
显示更多
0
17
89
23
转发到社区
DeepSeek API输入缓存命中价格降至原价的1/10,立即覆盖全系列,V4-Pro额外75% off到5月5日。机制简单:重复输入直接命中缓存,推理总费用大幅压缩。开发者从此能低成本高效构建AI应用,价格战把API生态门槛拉低一档。
显示更多
机器人公司找到了一种收集训练数据的廉价方案:给印度工厂工人戴上头戴摄像头,把他们每天的操作过程全程录下来。 大语言模型可以从互联网上海量的文本中学习,机器人不行。机器人需要的是具身数据(embodied data),也就是真实世界里手怎么伸、腕怎么转、东西滑落了怎么接、布料怎么折叠、工具卡住了怎么处理。这些数据极度稀缺,因为现实世界又慢又乱又贵。 自建机器人车队来采集?买得起养不起,还危险。用远程操控让人类引导机器人动作?每分钟都在烧硬件、操作员和校准成本。所以公司们退而求其次,去找最便宜的替代方案。 工人的第一人称视频当然不等于机器人的动作数据,但它能捕捉到操作顺序、身体姿态、双手配合,以及那些让熟练工作看起来毫不费力的微调整。这些信息对训练模型仍然有价值。 换个角度看,机器人领域真正的前沿竞争,可能就是看谁能更高效地采集现实的数据。仓库、工厂、厨房、维修台,这些地方之所以重要,是因为它们是人类与物理世界反复接触的高密度场景,恰好是机器人最缺的东西。 工人的劳动被用了两次,第一次是干活本身,第二次是变成训练数据。而在具身数据的采集成本降下来之前,机器人会一直先向工人学习,然后再考虑取代他们。
显示更多
0
31
232
39
转发到社区
如你在这些年份看懂了它们,可能就看懂了一轮财富迁移:2012年比特币,你看到的不是一枚币,而是一套新的金融共识;2018年特斯拉(TSLA),你看到的不是一家车企,而是电动车、软件和能源网络的重估;2022年英伟达(NVDA),你看到的不是一只芯片股,而是AI算力时代的入口。2025年闪迪(SNDK),你看到的不是存储公司,而是AI数据爆发后,存储价值被重新定价。 2026年及未来,属于能提前理解下一轮技术瓶颈的人。时间是唯一的稀缺资源,而认知是最高效的杠杆。没时间读完每天财报?也没时间看500页的“国富论”或“漫步华尔街”?金融世界@FinWorld每日为你精选一本财经经典,用一个午餐的时间,看透资本运行的权力地图,与职场跃迁的隐秘逻辑。将财经、理财与职场领域的传世经典,浓缩为15分钟的视听盛宴。YouTube金融世界:
显示更多
RKLB的一季财报堪称优秀, 1)总营收2.00亿美元,同比+63.46%,主要受益于发射频次提升(当季完成9次Electron发射)及卫星系统业务交付加速。利润改善显著: 2)净利润-4502.20万美元,同比收窄25.73%,毛利率提升至38%(同比+5.2个百分点),反映规模效应与高毛利业务占比增加。 3)现金流与订单储备:期末积压订单达21.3亿美元(环比+15%),现金储备11.5亿美元,为Neutron火箭研发提供充足资金支持。 4)下一季度指引,营收在 2.25 亿美元至 2.4 亿美元之间。调整后 EBITDA 亏损在 2000 万美元至 2600 万美元之间。进一步收窄。 梳理下RKLB一季度业务运营亮点: 1)积压订单额达创纪录的22亿美元,环比增长20.2%。积压订单应该当季收入十倍的体量,未来两年业绩可见度很高。
 2)RKLB第一季度签署了31份新的Electron和HASTE火箭发射合同,以及5份新的Neutron专用发射合同,创下发射合同数量新纪录。2026年第一季度的发射订单量已超过2025年全年,这表明市场对该公司强大的发射能力持续强劲的需求和增长。目前,RKLB的发射计划已累计超过70个合同任务。
 3)完成了对 Mynaric AG 的收购,该公司是航空、航天和移动应用领域领先的激光光通信终端供应商,这进一步增强了 Rocket Lab 作为全球航天市场大规模卫星组件供应商的强大实力。 
4)RKLB已签署最终协议,收购航天机器人、运动控制系统和精密机械装置领域的领先企业Motiv Space Systems。此次收购将实现火箭实验室的两项战略目标:一是为先进的行星探测和国家安全任务增加经火星验证的机器人技术能力;二是填补火箭实验室垂直整合战略中的关键空白,将太阳能电池阵列驱动组件(SADA)等成本高昂且供应受限的卫星部件及其他精密机械装置纳入公司内部生产。 
5)被选中直接支持美国战争部天基拦截器(SBI)项目,该项目是特朗普总统“金顶计划”(Golden Dome for America)的关键组成部分,并与雷神公司合作开展。火箭实验室的发射和卫星能力均应用于SBI项目,这不仅展现了公司敏捷且经济高效的端到端太空能力对作战人员的价值,也使公司有机会从这项可能成为美国政府最重要的国家安全项目中获取可观的收入。 
6)推出了 Gauss,这是一款新型电动卫星推进器,专为大规模生产而设计,以满足商业和国家安全星座对可靠卫星推进的日益增长的需求。
 7)在 Neutron 项目的各个方面都取得了重要进展:包括持续的集成和首次飞行硬件的准备工作、Archimedes 发动机鉴定工作的持续进展以及第二级和可重复使用整流罩系统的推进,使中型运载火箭有望在今年晚些时候进行首次发射。 整体还是可圈可点的
显示更多
别再迷恋那些看起来很酷的 AI Agent 框架了,因为学会“拼凑角色”和“构建生产级系统”之间,隔着一道巨大的技术鸿沟。 最近看到一份关于 2026 年 AI 工程师成长路径的深度研究,它揭示了一个非常扎心的事实:很多人所谓的 Agent 开发,本质上只是在进行“框架旅游”。他们追逐每一个新出的框架(比如 CrewAI),却从未真正理解如何让 Agent 在真实流量下生存。 通过分析这份路线图,我发现未来的核心竞争力不在于掌握多少个框架,而在于两场深刻的底层变革: 首先是“结构变化”:从“角色编排”转向“Harness Engineering(套件工程)”。 很多人以为 Agent 就是给模型分配几个角色。但真正的技术差异在于 Harness 的设计。 举个例子,同样的 Claude 模型,在 Claude Code 这种高效套件下的表现与在 Smolagents 框架下的表现,得分差距竟然高达 36%。这意味着,未来的核心工作不再是写 Prompt,而是设计 Agent Loop、工具调度、以及上下文的四项基本原语:Write(通过草稿纸实现记忆)、Select(即时检索)、Compress(窗口压缩)和 Isolate(子 Agent 的上下文隔离)。 其次是“成本与可靠性的权衡”:从“单点智能”转向“工程化闭环”。 很多人只关注模型有多强,却忽略了生产环境的残酷。真正的 Agent 工程师需要解决的是:如何通过编写工具让模型精准调用?如何建立 Evals(评估体系)和 CI 回归门禁,让“性能提升”变得可衡量?虽然多 Agent 系统可能带来 15 倍的 Token 消耗,但如果它能像 Anthropic 的研究那样在任务广度上实现 90% 的性能飞跃,这种成本的投入才是具备商业逻辑的。 我的判断: 2026 年的 AI 工程师将不再是“Prompt 工程师”,而是“系统架构师”。未来的技术栈会高度收敛,重点不再是学习 LangChain 或 CrewAI 等各种变体,而是深耕 LangGraph 这种具备编排能力的运行时,以及像 Claude Agent SDK 这样的标准套件。学会如何通过工程手段(如隔离、压缩、评估)去“驯服”模型,比学习如何使用新框架重要得多。 不要只问:这个东西是不是新功能。 更应该问: 1. 这个架构是否能通过 Evals 衡量其性能的稳定性? 2. 引入多 Agent 协作后,Token 成本的增长是否能换取任务成功率的质变? 3. 我的上下文管理策略(Write/Select/Compress/Isolate)是否具备生产级的鲁棒性?
显示更多
0
12
15
4
转发到社区