注册并分享邀请链接,可获得视频播放与邀请奖励。

与「MultiAgent」相关的搜索结果

MultiAgent 贴吧
一个关键词就是一个贴吧,路径全站唯一。
创建贴吧
用户
未找到
包含 MultiAgent 的内容
(1/2) Glad to announce our OpenMAIC! 🎉 Open-sourcing MAIC (Multi-Agent Interactive Classroom) from Tsinghua University — LLM-driven multi-agent classroom for scalable & adaptive online education. 🏗️ Core Architecture: ✅ MAIC-Craft: Read (multimodal extraction) → Plan (course components + agent generation) ✅ Adaptive Engine: Cognitive student modeling + Token-level personalization (RAG + Bloom's/ZPD/UDL) ✅ Multi-Agent Classroom: 1 Student + N Agents (Teacher, Assistant, 4 Peer Archetypes) ✅ Manager Agent: Class state receptor for turn-taking orchestration 🔗 Give it a try 👉🏻 GitHub: #AI# #EdTech# #MultiAgent# #LLM# #Research# #OpenSource# #Tsinghua#
显示更多
0
56
337
84
转发到社区
Interesting position paper on agentic AI as a foreseeable pathway to AGI. (bookmark it) There has been strong debate on whether a larger single model get us there or a multi-agent system. The authors argue that agentic AI systems, not bigger foundation models on their own, are the most foreseeable route to AGI. Formalizes what "agentic" actually contributes beyond the base model: memory, reasoning, tool use, self-improvement, alignment. Each is a separable axis with its own bottlenecks (long-horizon coherence, credit assignment, safety auditing). They argues that none of those bottlenecks get solved by another order of magnitude on pretraining compute. Paper: Learn to build effective AI agents in our academy:
显示更多
0
15
135
28
转发到社区
Introducing the BitAgent ERC-8183 Agent Marketplace Skill Ecosystem. At Unibase, we believe composable skills are what turn isolated agents into a real agent economy, making capabilities reusable, interoperable, discoverable, and monetizable across agents on-chain. - The BitAgent Skill Ecosystem allows builders to: 🟦 install production-ready capabilities directly into agents 🟦 launch reliable ERC-8183 agent services faster 🟦 compose interoperable multi-agent workflows 🟦 turn agent capabilities into discoverable and monetizable on-chain services Together with our skill ecosystem partners, we’re helping bring the Open Agent Internet to life, where autonomous agents can work, coordinate, and earn on-chain. @Aster_DEX · @aveai_info · @BAI_AGI · @binance · @BNBCHAIN · @BitgetWallet · @BlockBeatsAsia · @ChainbaseHQ · @Chain_GPT · ClawHub · @coingecko · @fourdotmemezh · freqtrade · @GateDEX · @gmgnai · @GoPlusSecurity · @heurist_ai · @0xIntuition · @JupiterExchange · @krakenfx · @Mantle_Official · @MessariCrypto · @minara · @MorphNetwork · @nansen_ai · @okx · @wallet · @opensea · @openservai · @PancakeSwap · @PANews · @SurfAI · @TrustWallet · @Unibase_AI · @Uniswap - How to integrate production-ready skills into your agent? 1️⃣ Click the skill profile to open the partner’s skill page 2️⃣ Copy the skill into your agent to install it 3️⃣ Your agent now has this capability More skills. More working agents. More ERC-8183 services. 💙 👉
显示更多
半年来,我一直反复介绍的四个原则: 原则1,AI时代的第一性原理:LLM一定会越来越聪明,benchmark越来越高,context window越来越大,reasoning越来越长,价格越来越便宜,inference速度越来越快, 这是scaling law今天依然持续的具体方向,不用你质疑,这是你唯一的信仰和行业最大共识。 原则2, 管理学设计红利:从我提出“自动编程机”、行业提出vibe coding、SWE-Agent以来,从cursor到manus到metaGPT到claude code, 人们逐渐把LLM Agent抽象成人,把软件管理、工程管理、管理学等等所有方法论直接套在multi agent workflow上面,严格按照人类管理学的方式去拆分、review、执行、反馈、循环, 这一波很快红利也吃完了,因为 a. LLM Agent毕竟不是人,存在着memory有限、执行力有限、function calling工具有限等等局限;b. 人类用于管理学的各种方法,直接套在LLM Agent上有利有弊,红利迅速挖掘完,剩下的弊端大量存在,比如过度交流、七手八脚、随时停工等等。 原则3,LLM Agent的职位和定位:绝大多数人,把claude code当做一个工具,最终的产品是用工具来完成的,最终的代码也是人与SWE Agent一步一步interactively迭代产生、迭代review、迭代部署的, 而我反复告诉过所有人,也是我又一条首次提出的原创观点,multi agent未来越来越会变成本身的一个runtime,这个runtime就运行在production里面,产品和面向的对象消费的,不只是软件或者SaaS本身,而是这个runtime实时产生的内容, 所以claude code/opencode/codex/openclaw这些agent,本身将会越来越多地被嵌入到产品本身,在产品关键逻辑和决策中发挥作用, 而绝对不仅仅停留在开发层面,把产品仅仅局限在SWE Agent单向产出和部署的代码和服务上。 原则4,也是我一直强调的,就是当人们试用了SWE Agent这种强大工具之后,人们还有哪些low hanging fruits可以寻找?SWE Agent目前最适合解决哪类问题? 我反复讲过的一点是,对于一个设计复杂、环境复杂、场景复杂、用户复杂、体量复杂、范式复杂、一切开放、一切无解的超级复杂系统,这并不是SWE Agent最擅长的领域,相反这些场景需要人去和环境、客户、场景、性能一点点迭代才能打磨好的产品, 比如微信的100种功能,Facebook的一大堆功能模块和十几年来迭代出来的极其复杂的infra,支付宝后面成千上万的基金和风控,这些都不是AI Agent能一次性解决的问题,相反这些场景和问题不仅高度开放,更高度依赖人的观察、人的设计、人的反馈、人的定义。 AI Agent最适合的场景,甚至是我原创提出goal driven( a. 定义简单、干净、封闭(一道数学系、一个确定性最小系统、一个编译器、一种算法、一个lean证明、一个电路或者信号模拟、蛋白质模拟和预测、CAD设计与仿真、游戏关卡测试、行为经济学仿真,都是well-defined problems,都有非常明确且封闭的边界) b. 解决问题的搜索空间巨大(可能有100~10万种天马行空的解决方案,并且绝大多数都是错的) c. 容易验证,容易verify,验证的成本是设计成本的千分之一(比如编译器,设计可能需要几万行甚至几十万行,验证只需要2000个test case全面覆盖,或者一道数学题,解决需要100步,验证答案只需要带入或者lean编译这一步) 当然,写一段简单的代码,定义一个封闭、完整、定义完全的编程问题,符合上面这些定义, 但是设计一套巨大、复杂、开放、与现实世界深度绑定、高度耦合的系统,让这个系统复杂迭代、添加功能、沟通、review、工程管理、产品管理,这些问题都远远超出这个范畴,很明显是不符合这个要求的。 人们未来探索这些multi agent产品和场景的最关键出路,在于继续挖掘这一类问题,而不是盲目把agent比作一个人,乱套各种管理学方法。 原则5,这一点我先保密,之后我再讲。
显示更多
0
19
265
56
转发到社区
In this paper, a 7B language model trained with reinforcement learning learns to orchestrate larger frontier models like GPT-5, Claude Sonnet 4, and Gemini 2.5 Pro. It does so by writing natural-language subtasks, assigning each to one of the workers, and specifying which previous outputs that worker sees in context. The resulting system outperforms every individual frontier model on benchmarks including GPQA Diamond, LiveCodeBench, and AIME25, while averaging about three model calls per question—fewer than the multi-agent pipelines and self-reflection loops it beats. The work provides evidence that prompt engineering and pipeline design, currently done by hand in commercial AI products, can be learned end-to-end through reward signals alone. Read with an AI tutor: PDF:
显示更多
0
32
458
72
转发到社区
The future of Math is mathematicians and AI agents working together. Very pleased to introduce @GoogleDeepMind's AI co-mathematician: a multi-agent system designed to actively collaborate with human experts on open-ended research mathematics. Mathematicians testing the agent across areas as diverse as group theory, Hamiltonian systems, and algebraic combinatorics have reported impressive results. In autonomous mode evaluation on the rigorous FrontierMath Tier 4 problems, AI co-mathematician scored an unprecedented 48% — a new high score among all AI systems evaluated.
显示更多
0
171
2.6K
363
转发到社区
🤖 AI Agent 学习地图 — 从基础 LLM 概念到自己构建多 agent 系统,为“想学习 AI 或 AI agent 的人”设计。 结构化 7 阶段学习路径,从「LLM 是什么、token 怎么算」一路到 multi-agent 编排、本地部署, 每阶段都有必做的 動手練習 练习、必修阅读、精选 project
显示更多
0
4
216
56
转发到社区
关于最近尝试slock、multica等多Agent有感: One agent 还是 multi-agent? 本质区别就一个:每个智能体是否拥有独立的系统提示词、记忆和技能集。 两种范式: 1. **One agent**:所有智能体共享同一套系统提示词、技能集和 memory。切换角色靠 prompt 驱动——"你是一个前端开发工程师"、"你是一个 QA"——让它自己加载对应的技能去完成任务。 2. **Multi-agent**:真正把智能体拆开,彼此信息不共享,共同知识靠项目文档来维护。 哪个更好?我觉得短时间内 one agent 更实用,multi-agent 暂时没看到什么亮眼的结果。 后者唯一说得通的好处是:你可以维护一个跨代码库工作的 code review 机器人——它天然适合做一个独立 agent,能在不同项目间积累经验。但如果反过来,为了某个项目就拆出一堆 agent,这合理吗?一个公司会为每个项目单独配一个 QA、单独配一个研发吗? 所以按项目拆 multi-agent 是有问题的。真要搞多 agent,它应该是一个**后端 agent**:服务多个项目,在多个项目间共同积累经验,而不是每个项目都复制一套 agent 出来。
显示更多
0
19
89
11
转发到社区
ANDREJ KARPATHY 描述了完美的 AI 知识系统。有人在 Obsidian 中实现了它。 Claude Code x Obsidian。不到 10 分钟即可完成设置。 当你睡觉时,你的库(Vault)会自动编写和整理。基于 Karpathy 自己的 LLM Wiki 模式。免费。 以下是具体情况: 每个使用 Obsidian 的人都知道这个问题。笔记存进去了,但连接从未建立。六个月后,你拥有数百个孤立文件、零交叉引用,你的“第二大脑”感觉更像是一个数字垃圾抽屉。 这个系统只有在你维护它时才有效,但没人去维护。这个工具彻底解决了这个问题。它被称为 claude-obsidian。 你只需克隆它,运行一个设置脚本,在 Obsidian 中打开它,在 Claude Code 中输入 `/wiki`,从那一刻起,Claude 会负责所有的整理、归档、交叉引用和维护。 你只需要把内容丢进去并提出问题。它与其他所有 Obsidian AI 插件的区别在于:其他插件只是回答关于你现有笔记的问题,而这一个插件能够自主地创建、组织、演进和维护笔记。聊天界面与知识引擎之间是有区别的。↳ 丢入任何来源,Claude 会自动创建 8 到 15 个结构化的维基页面 ↳ 每个新页面都会与库中已有的所有内容进行交叉引用 ↳ 矛盾之处会通过 Callout(标注)进行标记,让你随时了解来源是否存在分歧 ↳ `/autoresearch` 会运行三轮网络研究循环,发现空白、填补空白并归档所有内容 ↳ `/save` 可以将任何 Claude 对话直接转换为永久性的维基笔记 ↳ 热缓存(Hot Cache)会在每次会话时更新,因此 Claude 永远不需要你再次解释上下文 ↳ `lint` 命令无需你动手即可发现孤立文件、死链和陈旧的主张 热缓存是大多数人忽略的部分。在每次会话结束时,Claude 会编写一份近期上下文的精简摘要。下次会话时,它会首先读取该摘要。 你再也不用浪费 10 分钟来重建上下文了。10 项技能。支持多智能体(Multi-agent)。MIT 许可证。永久免费。
显示更多
0
5
105
29
转发到社区
我讨厌静默给我塞 mcp 和hooks的App,尤其是 Claude Code 名气太大,可着他家塞。 最近一直在尝试各种 Multi-Agent 的应用,很多不是塞个 mcp,就是塞一堆hooks。hooks只是让你变卡,mcp直接吃20K上下文实在是过分了。 pi 则因为名气太少,而且不支持mcp,幸免于难。
显示更多