注册并分享邀请链接,可获得视频播放与邀请奖励。

与「大模型」相关的搜索结果

大模型 贴吧
一个关键词就是一个贴吧,路径全站唯一。
创建贴吧
用户
未找到
包含 大模型 的内容
突然看到比亚迪海鸥入选《时代》杂志 2025 年度最佳发明,这感觉太诡异了,这车这么丑怎么可能呢?但是确实是真的,感觉蔡钰解释的是对的: 美国强悍的创新能力,几乎都集中在最远端,也是最高溢价的深科技领域。 硅谷对“普通生活问题”的兴趣并不高,更多瞄准的是自动驾驶、去火星、万亿级模型、颠覆式AI、长寿永生。这也使得今天的美国,仍然是整个地球的基础科学中心、AI模型中心和药物试验中心。 但是代价是,面向日常的产品供给体系,很弱,面向美国中产和平民的朴素而高效的日常供给,是匮乏的。这些匮乏,又被精英话语体系用宏大叙事给包裹起来,变成一种必须适应的命运。 但中国的工程化能力,能够从1到n,把AI大模型变便宜,把电动车变便宜,把智能机器人变便宜,把一切变便宜。这就导致,“普惠”这个词在中国听起来理所应当,在西方却稀罕得不行。 得到《蔡钰商业参考4》
显示更多
3.3 亿美元,这是在 Stripe 上收入最高的 AI 公司年化收入,但是你可能没有听说过 我研究了 Stripe 上收入最高的 10 家公司,希望对你有用: 1️⃣ ElevenLabs:AI 音频:做 AI 语音合成和克隆的,海外对这块儿的需求是实打实的(只有这一家之前没有听说过) 2️⃣ Midjourney:生成图的,没想到还有人用它,只不过环比跌了 -10%,他的衰落跟他本身没有关系,在于各个大模型公司的模型迭代(必死无疑的公司) 3️⃣ Runway:生成视频的,我以为没人用它了,因为都在用 seedance,但是从数据来看,年化收入高达 9000w 美元,环比增长 36% 挺恐怖的,需要研究一下 4️⃣ Bolt new:这是 AI Web 应用构建器,属于风口上的企业了,这个会越来越好的,底层使用大模型,上层提供增值服务 5️⃣ suno:AI 生成音乐,这不会没有人知道吧?太牛逼了,环比增长 34%,太牛了
显示更多
这款全新的 Nanosuper AI 电脑售价 249 美元,拥有 70 TOPS 的算力,功耗仅 25W。它具备 HX 的所有功能,甚至可以运行大模型,很快就能在现实生活中普及并供大家体验。
显示更多
卖 token 这个生意,以中国团队的内卷特质,早晚也得干成制造业。等模型的进步斜率没有那么大之后,中国团队大概率会胜出,性价比实在太高了,性能差 几十 % (落后几个月)但便宜 10-100 倍。大多数用户和场景用这些高性价比的大模型就足够了,只有少数复杂场景用顶级但巨贵的模型。
显示更多
记得Defi Summer 20年到22年这三年时间,大家经常感慨的一句话就是“币圈一天,人间一年” 因为技术迭代太快了,每天都有数不行的新东西出来,几天不看就跟不上节奏 现在这个感觉在币圈彻底消失,在AI那边出现了,每天的新东西就看不完,真的看不完 正好这几天看到圈里讨论Cerebras的帖子多了起来,昨天还看到不少路演信息,毕竟14号要挂牌交易。之前在Amber做分享的时候也单独讲过这个公司(当时用的那页PPT放在文末),所以简单说下我对Cerebras的判断 先说结论:这家公司很有意思,但核心变量不一定是他们造的芯片本身,而是未来AI的workload形态会是成什么样。 先简单说下它是干嘛的,防止有老铁还没看Cerebras 它最核心的技术,就是wafer-scale chip(晶圆级芯片),简单理解就是别人还在用“邮票大小”的芯片,它直接把整片晶圆做成一颗超大处理器,再配上超大 SRAM,把大量数据尽量留在本地高速处理,减少传统GPU最头疼的memory bottleneck。现在海力士美光涨上天就是因为HBM这东西太抢手,Cerebras是直接绕开了对HBM的依赖 很多人看到 Cerebras最牛逼的benchmark:推理速度比GPU快10-15倍,第一反应就是下一个英伟达?! 先别急。 这个benchmark最大的问题,是默认AI的核心需求永远是“更快吐token”。 如果只是人类盯着ChatGPT聊天,这故事其实没那么性感。你每秒吐 30 个 token,我已经快读不过来了。再翻10倍,边际体验提升几乎为零。 真正有意思的是 Agent。 Agent不读字,Agent消费Token。速度直接等于生产力。 一个OpenClaw/Hermes agent,如果要读网页、写计划、调 API、跑代码、报错重试、继续执行,一个任务可能要几十次 inference call。 每次 2 秒,任务就是分钟级体验。 每次 200ms,就是另一个世界。 所以 Cerebras更值得关注的地方,是 AI worker 这条线,而不是单纯的chatbot加速。 但问题来了 - 它的magic来自 wafer-scale + 超大SRAM,本地访问极快。但SRAM这东西有天然 tradeoff,速度快,容量贵,大模型塞不下就必须拆分。 而一旦拆分,chip-to-chip communication 就上来了。 LLM inference里最怕通信的恰恰是 decode 阶段。token 是一个一个往外吐的,每多一次 hop,延迟就是硬加上去,没法隐藏。 所以 Cerebras能不能成,关键根本不在“比 GPU 快几倍”,而是未来 AI 的主流计算形态到底是什么。 1. 时间线一 - 未来几年还是 前沿超大模型一统天下,动不动几千亿甚至万亿参数,所有请求都让超大模型自己处理,那 Nvidia的distributed infra 依然最舒服,Cerebras的速度优势会被通信损耗吃掉很多。 2. 时间线二 - MoE、蒸馏、量化这些技术如果继续快速进步,未来两年70B左右的模型做到今天700B模型 80%-90% 的效果,我一点都不意外。(这里要强烈感谢Deepseek一大波!) 如果世界往这个方向走,故事就变了。 大模型负责 planning / judgement / orchestration。 真正执行任务的大量 worker model 落在 30B-70B 这个区间。 这些模型足够聪明,又刚好能吃到高速本地推理带来的红利。 Agent 世界里,大部分token根本不需要最聪明的大脑。很多工作本质就是执行层体力活:浏览网页、改代码、调工具、retry、继续跑流程。 这个 topology一旦成立,Cerebras就直接进入自己的甜区 3. 时间线三 - 未来推理是端侧为主,用的都是8B,14B的这些小模型,那GPU也能跑的很好,甚至专用的ASIC芯片效率更高,这个场景下Cerebras的优势和护城河也就不高了 换句话说,超大模型云端推理或者超小模型的端侧推理这两个平行宇宙,Cerebras的优势都不够明显,只有主流推理落在32B-70B中等模型这个Size,正好“Big enough to stress GPU memory, Small enough to fit locally” 才是Cerebras最能大展身手的世界 所以我对Cerebras的判断是,300多亿的市值,短期看订单,财务报表这些数据,长期赌的则是未来Agent时代的计算范式到底落在哪个平行宇宙的时间线上
显示更多
0
11
71
10
转发到社区
大模型我觉得有三代了,第一代典型代表gpt-4o,第二代 o1/deepseek-r1,第三代 sonnet/opus 4 腾讯本来想坐上第二代的车,结果错过了第三代的车。其实国内还有一个悲催的公司,连第二代的车都没上去。
显示更多
ssd的需求强度才刚刚开始,消费端和AI端需求会同时暴增。 消费端去年到今年上半年很多消费电子把存储空间都阉割后提价了,消费者用段时间肯定会面临存储空间不够的问题,就需要额外配置ssd。 AI端的企业级ssd也一样,去年到今年各家大模型累计了海量的用户,长期数据积累肯定再推生出需求海量ssd压缩过去不常调用的老数据。 Agent还没彻底普及,因为现在普通人能接触到的agent还是比较傻瓜。一旦普及hbm和ssd的需求还要指数级爆炸,远超gpu和cpu需求,他们是无眠无休制造数据的机器。
显示更多
0
30
212
16
转发到社区
发现个量化交易神器!QuantDinger 直接把量化交易的门槛砸碎了! QuantDinger(量化丁格),你的私人 AI 量化操作系统,几天时间就在 GitHub 拿下 4.2k stars! 这不是普通的交易工具,而是个具备自我进化能力的 AI 交易员: 🤖 AI 智能分析引擎 国内外股市、期货、加密货币、外汇全支持 24 小时监控全球交易机会 实时推送到手机,不错过任何机会 📊 全自动工作流 AI 自动分析市场 → 生成策略代码 → 自动回测 根据历史收益、风险数据自动优化参数 大模型帮你调参,让策略更稳定 💻 部署超简单 Docker 一键私有化本地部署 两分钟就能跑起来 不懂代码的小白也能快速上手 🔒 完全私有 在你自己的服务器和自己的密钥上运行 数据、策略全掌控 支持实盘数据、多市场同时监控、智能风控... 搞量化交易的兄弟,这个必须试试! 项目地址放评论区了👇
显示更多
0
16
331
88
转发到社区
你场外买的 OpenAI 和 Anthropic 股份,可能要作废了。 Anthropic 和 OpenAI 两家头部 AI 大模型公司,在昨天突然更新了自己的股票转让政策,它们声明如果是通过未经官方授权的渠道,买入公司的股票,那手里的股权,可能会作废。 同时,Anthropic 公布了一份黑名单,其中包括 Forge 和 Hiive,两家股权场外平台。 Anthropic 更新后的页面称,任何没有获得董事会批准的股票出售或转让,都是无效的。它并不是有争议,也不是可以撤销,而是直接被官方判定无效。 OpenAI 当天发布的声明,也用了一样的说法,任何未经书面同意的转让都是无效的,而且这笔出售不会被 OpenAI 官方承认。 目前 Anthropic 和 OpenAI 都发布了声明,但还未出现控告场外交易平台的新增案件。
显示更多
0
80
234
22
转发到社区
吴恩达怒批“AI 导致失业论”!我在新加坡看到的真相:企业正排队花钱抢人 “AI 马上要砸掉所有人的饭碗了!”——这段时间你肯定被这种恐慌新闻刷屏了。 但就在这几天,AI 泰斗吴恩达公开发文怒批:“所谓 AI 引发大规模失业,纯粹是不负责任的恐慌故事。大家必须立刻停止这种炒作!” 为什么?听我给你讲讲宏观的谎言和我在新加坡看到的微观真相。 第一,谁在推动“AI 失业”的恐慌? 吴恩达一针见血:这是三股力量在推波助澜! 1️⃣ AI 大模型公司: 极力渲染 AI 能取代人类,是为了拉高定价锚点。既然能帮你省下 10 万美金的人工费,收你 1 万美金订阅费不就显得很划算? 2️⃣ 传统大厂: 需要“AI 提效”的借口,掩盖自己疫情期间盲目扩招后的“裁员遮羞布”,讨好华尔街。 3️⃣ 媒体: 天然偏爱恐慌。“AI 灭绝人类”永远比“AI 改变工作流程”更有流量。 历史上盲目恐惧“人口炸弹”和“脂肪”都带偏了社会决策,今天绝不能再被“AI 失业论”洗脑! 🇸🇬 第二,实地走访新加坡的真相:根本招不到人! 昨天我走访了新加坡国立大学(NUS)的计算机教授,真实情况是:懂 AI 的学生供不应求! 企业甚至愿意交几千新币的“排队费”来买一个进场抢人的名额。 这种恐怖的需求不仅来自科技巨头。昨天我还走访了一家新加坡本地的传统蛋糕店,老板都在想方设法用 AI 改造订单系统和生产排产。 全世界有无数这样急需 AI 改造的中小企业。但是,把大模型落地到业务流程里,极度缺乏一种人才—前向部署工程师(FDE)。既懂 AI 工具,又懂业务场景,缺口极大! 🚀 总结:停止无效内卷,迎接 AI 就业狂欢 (Jobapalooza) AI 带来的不是失业末日,而是一场史无前例的就业狂欢! 但我必须提醒一个巨大的培训误区: 别再花大量时间去算模型权重、学底层的神经网络原理了。除非你想去 OpenAI 盖基建,否则这些在日常工作中根本用不到! 真正的机会在于: ✅ 搞懂 AI Agent(智能体)的工作原理 ✅ 熟练使用最新的 AI 工具组合 ✅ 深入传统企业,摸透他们的工作流,用 AI 帮蛋糕店提升 30% 排产效率! 现在不是焦虑失业的时候,现在是你躬身入局,成为 AI 时代超级个体的最佳历史机遇! BTW,我们正在与 NUS 合作策划一系列从零开始的 AI agent 企业应用课程,感兴趣的朋友可以关注起来。 #AI# #吴恩达# #AI就业# #人工智能# #新加坡# #职场发展#
显示更多