美的AIRC研究院造出了一套AI管家底座

这项研究来自美的人工智能研究中心(Midea AIRC),论文以预印本形式发布于2026年4月13日,arXiv编号为2604.11548,感兴趣的读者可通过该编号查阅完整原文。

每个人都有这样的经历:你委托一个能干的朋友帮你处理事情,结果发现,朋友的个人能力固然重要,但更关键的是他手头有没有合适的工具、有没有清晰的权限边界、有没有把之前帮你办过的事情好好记下来。一个聪明但"裸奔"的朋友,往往不如一个中等聪明但有完整工作规范、档案管理和汇报机制的职业助理来得可靠。

这正是这篇论文要说的核心道理:在AI智能体(也就是能自主完成任务的AI助手)这个领域,**包裹在模型外面的那套基础设施,才是决定系统是否好用、安全、可信的真正关键**。这套基础设施,论文称之为"harness",中文可以理解为"驾驭装置"或者"管控底座",就像骑马时套在马身上的一整套缰绳、鞍具和辔头——没有它,再好的马也可能跑偏。

美的AIRC的研究团队正是围绕这个思路,构建了一个名为SemaClaw的开源多智能体应用框架,并通过这篇论文详细阐述了他们在驾驭装置工程上的核心设计和思考。

一、从"提示词工程"到"驾驭工程":AI开发方式正在悄悄换挡

要理解为什么这篇研究值得关注,需要先说清楚AI开发正在经历的一次范式转变。

大约两三年前,大家讨论最多的是"提示词工程",也就是如何给AI写出最好的指令,让它给出更精准的回答。后来又出现了"上下文工程",关注的是如何向AI提供更丰富的背景信息,让它在更长的对话里保持一致。而现在,随着AI智能体开始真正进入日常生活——帮人管邮件、订机票、做研究、写代码——一个新的工程维度变得不可回避,那就是"驾驭工程":如何设计整套基础设施,让一个放在真实世界里独立行动的AI系统变得可控、可审计、可靠,并且能够随着使用时间积累真正有用的知识。

论文开篇提到一个具体案例:OpenClaw这个开源AI智能体系统,在2026年初发布后,短短几周内就有数十万用户将其接入消息平台、邮件、日历和文件系统,委托它执行各种有实际后果的操作。这次大规模部署迅速暴露出三个系统级的根本挑战。

第一个挑战是复杂任务的编排问题。现实中的任务往往不是"问一个问题、得到一个答案"那么简单,而是需要把大任务分解成多个子任务,这些子任务之间有前后依赖关系,执行过程中还可能遇到局部失败需要恢复。现有系统要么太僵硬,流程写死了就没法在运行时调整;要么太散漫,AI自己随意决策但你根本不知道它内部在想什么。

第二个挑战是行为安全问题。当AI开始真正执行操作——修改文件、调用外部API、运行代码——安全问题就不再是"AI会不会说出不好的话",而是"AI有没有权限做这件事,有没有经过用户明确授权"。目前很多系统把权限当成一个可选的附加层,这远远不够。

第三个挑战是长期记忆问题。一个用了几周甚至几个月的AI助手,应该记得你的偏好、过去的决策、特定领域的背景知识。但现有系统的记忆机制大多只是简单地把聊天记录存起来,没有真正把"用过的知识"沉淀成可复用的结构化内容。

美的AIRC的研究团队认为,这三个挑战不是独立的技术问题,而是共同构成了"驾驭工程"需要解决的核心课题。SemaClaw就是他们给出的系统性解答。

二、双层架构:把"发动机"和"车身"分开造

SemaClaw的整体设计采用了一个清晰的两层架构,这个设计思路用一个通俗的比喻来说,就像是把汽车的发动机和车身分开设计和制造。

底层叫做`sema-code-core`,这是可复用的智能体运行时,相当于发动机:它负责智能体的执行循环、工具调度、上下文生命周期管理,以及多租户隔离(也就是确保不同用户的数据互不干扰)。这个底层被单独开源,任何开发者都可以把它作为基础来构建自己的智能体应用,而不需要从头重复实现这些基础能力。

上层叫做`semaclaw`,这是建立在发动机之上的完整车身:频道集成(接入微信、QQ、飞书、Telegram等通讯平台)、消息路由、智能体池管理、记忆基础设施、插件生态系统,以及多智能体团队协调。

这个分层设计带来的好处是显而易见的:底层运行时和上层应用逻辑演化的节奏完全不同——新增一个通讯频道的接入不需要改动执行引擎;改进历史压缩算法也不需要改动消息路由逻辑。两层可以独立演化,互不干扰。

`sema-code-core`的内部设计遵循了"事件门面"模式,通俗地说,就是把智能体所有的生命周期变化——开始一个会话、调用一个工具、压缩历史、更新上下文、结束会话——全部包装成类型化的事件暴露出来。外部系统通过这些事件与智能体交互,而不是直接伸手进去改内部状态,这样既维护了系统边界,也让底层可以被不同上层应用复用。

值得一提的是,研究团队有意让`sema-code-core`的设计哲学与Anthropic公司的Claude Code对齐,因为后者在代码智能体领域已经积累了大量经过生产验证的工程决策,包括上下文注入方式、历史压缩、工具权限管理、会话生命周期等,沿用这些惯例而不是另起炉灶,可以让系统继承一批经过验证的工程决策,同时对熟悉这套生态的开发者更友好。

三、三层记忆:AI助手如何真正"记住"你

记忆是AI助手能否成为长期可信赖伙伴的核心。SemaClaw对记忆问题的处理方式,可以用一个档案管理员的比喻来理解:一个优秀的档案管理员,手头有三种不同性质的信息来源——当前正在处理的工作文件(可以随时翻看)、归档的历史记录(需要时去查阅)、以及他自己稳定的职业身份和工作规范(始终如一地影响他的行为方式)。

SemaClaw的三层上下文架构正好对应这三类信息。

第一层是工作记忆,也就是当前会话的上下文窗口。每一步推理产生的想法、调用工具的结果、正在进行的对话,都存在这里。这个空间是有限的,而且随着对话进行会越来越满。系统在上下文用掉75%时会自动触发"历史压缩":把之前的对话历史提炼成一段结构化摘要,保留仍然有效的约束条件、待决策事项和已完成任务的状态,丢掉那些探索性的推理过程。如果压缩失败,系统会触发截断备用方案,把历史切到50%的上限并附上说明,确保智能体至少有一个连贯的近期窗口可以继续工作,而不是直接崩溃。

压缩之后有一个容易被忽视的关键细节:会话开始时注入的规则说明、身份文档、项目背景,在压缩后的历史里已经不见了。研究团队的解决方案是,在压缩完成后,系统会自动追加一条新消息,重新把这些关键约束注入进去,确保智能体的行为边界在压缩事件的前后保持一致。

第二层是外部记忆,存放在上下文窗口之外的持久化存储,可以跨会话使用。每个智能体有两类外部记忆文件:一个是`MEMORY.md`,用于存放精心整理的持久化知识;另一个是滚动的日记文件(按日期命名),由系统自动记录,保留最近50天并按先进先出原则淘汰旧的。

当智能体需要这些记忆时,它可以通过一个叫`memory_search`的工具主动查询。查询采用三级降级策略:优先使用向量搜索加关键词搜索的混合方式;如果向量搜索不可用或质量不够好,就退到纯关键词搜索;最后一道防线是基于词符的关键词扫描。这套降级机制确保了即使在部分基础设施缺失的情况下,记忆检索也能正常工作。

混合检索的评分方式有一个值得注意的设计细节:只在向量路径出现的结果和只在关键词路径出现的结果,都给0.7的基础权重;只有在两个路径都命中的文档,才按照向量分×0.7加关键词分×0.3的公式合并。这个设计是有意的——如果关键词结果被压低到0.3,那些用不同词汇描述相同概念的跨语言查询会被系统性地压制,而这并不是期望的行为。

第三层是结构化上下文注入,也就是在会话开始时由系统主动装填的稳定信息。这里有一个重要的区分:每个智能体有一个固定的"灵魂目录",存放的是`SOUL.md`(智能体的稳定身份和行为风格);还有一个可切换的"工作区目录",存放的是当前任务的项目背景和领域知识。两者用不同的标题注入,让模型清楚地知道哪部分是"我是谁"、哪部分是"我当前在做什么"、哪部分是"我记得什么"。

工作区可以在运行时切换,而无需重启会话或清空对话历史——这意味着同一个智能体可以在保持身份和记忆连续性的前提下,在不同的项目上下文之间自由切换。

四、权限桥:让"授权"成为系统的基本语法

当AI智能体开始真正帮人做事——发邮件、改文件、调用外部接口——谁来决定它能不能做这件事,就成了一个不能回避的问题。SemaClaw给出的答案叫做PermissionBridge(权限桥),把人工授权作为运行时的一等公民原语,而不是事后附加的安全层。

权限桥支持两种交互模式。第一种是工具授权请求:当智能体要调用一个需要用户明确同意的工具时,系统暂停执行,把"这个工具叫什么、它要用什么参数做什么事"序列化成一条消息发给用户,用户可以批准、拒绝或修改;根据用户的响应,要么继续执行,要么把拒绝的结果反馈给智能体,让它继续推理。第二种是用户问询:当智能体发现自己缺少必要信息而不是缺少授权时,它可以主动发起一个问题,暂停在同一个边界等待用户回答,答案会被当作工具返回值注入到下一步推理中。

两种模式走的是同一套协调协议,差别只在于呈现给用户的内容形式。

权限分级也是权限桥的重要设计。系统内置的工具——记忆检索、工作区管理、智能体间调度等——是预先授权的,调用时不打扰用户,因为它们只在智能体自己的范围内操作,不会影响外部系统。用户安装的外部工具——MCP服务器、文件系统操作、对外的API调用——默认需要逐次获得明确授权,体现的是最小权限原则:智能体没有任何环境中的默认权力去操作外部系统,每一次这样的操作都必须经过明确的许可。

权限桥在技术上作为单例存在,同时处理多个并发的授权请求。每个挂起的请求有唯一的请求ID,用户的响应通过这个ID精准路由回到对应的等待执行上下文,多个智能体可以同时有待审批的操作,互不干扰。

会话在等待审批期间保持存活,超时机制采用"最后活跃时间"模式——用户与审批消息的任何互动都会刷新会话计时器,防止因审批延迟导致会话被误判超时而终止。

研究团队在设计哲学上明确表达了一个立场:人工监督和智能体自主并不是矛盾的。一个事后附加的权限系统会让系统设计者倾向于减少权限请求;而一个原生嵌入运行时的权限系统,有清晰的分级和非阻塞的行为,会让人工监督成为阻力最小的路径,而不是障碍。

五、四层插件:能力扩展的四把不同的钥匙

SemaClaw的能力扩展体系被设计成四个层次,每一层解决的是完全不同性质的问题,用同一套框架里的不同机制来处理。

最底层是MCP工具,扩展的是智能体能"做什么"。MCP(模型上下文协议)是Anthropic推出的一套工具集成标准,让外部工具可以以统一的接口被智能体发现和调用——读取文件系统、查询数据库、调用API、发送消息,这些都可以作为工具被注册进来。论文里特别指出一个实践中的痛点:有些工具提供商暴露的工具数量非常多(比如Playwright浏览器自动化工具一次就引入32个工具定义),这些工具定义本身会占用上下文窗口,当集成的工具提供商越来越多,上下文开销会把真正有用的任务信息挤出去。为此,一个正在形成的趋势是把多个细粒度工具包装成一个粗粒度的"技能",以单个CLI入口调用,把内部的多步工具调用封装在技能内部执行。

第二层是子智能体,扩展的是智能体能"想什么",通过把子任务委派给更擅长特定领域的专门智能体来实现。每个子智能体不只是一个子任务执行器,而是有自己的独立身份、专属系统提示和独立上下文窗口的完整智能体。编排者用自然语言描述任务,子智能体根据自己的身份和上下文来理解和执行。子智能体最重要的工程价值在于上下文隔离:子任务在子智能体自己的上下文窗口里运行,编排者只收到结果,不收到中间的推理过程,这意味着即使整体任务非常复杂,编排者的上下文也不会随着子任务的累积而膨胀,始终保持在一个高层次的视角上。

第三层是技能,扩展的是智能体有什么"知识",通过渐进式的上下文注入来实现。技能是一个自包含的能力包——提示指令、上下文文档、工具配置的组合——在需要时按需注入到智能体上下文,而不是在启动时全部加载。这套延迟加载机制有两级:在技能注册表层面,未激活的技能只暴露名称和描述,让智能体知道有这个能力但不占用上下文空间;在技能内部层面,技能可以把资产组织成命名区块,让智能体只加载与当前调用相关的那部分,而不是整个技能包。技能可以在不重启智能体的情况下即时安装、卸载和启用,系统同时提供Web界面和命令行界面两种管理方式。

第四层是钩子,扩展的是对智能体"执行本身"的控制,而不是扩展它的知识或能力。钩子是注册在运行时生命周期事件上的回调函数——任务开始、工具调用前后、权限请求、消息发送、任务完成、错误——当事件触发时,钩子可以检查事件载荷、记录日志、修改内容、阻断操作或触发外部系统的次级行动。这些都无需改变智能体本身的推理逻辑,全部在运行时层面透明地施加。

论文里有一句话值得专门摘出来:这四层不是互相替代的选项,而是互补的组合,各自对应一个不同的关切点。把它们混用——用提示词注入来实现本该用钩子处理的行为控制,或者用一个巨大的工具来处理本该用子智能体推理的事情——会让系统更难理解、测试和维护。

六、DAG团队:动态规划加确定性执行,两全其美

多智能体协调是整篇论文技术贡献中最具核心性的部分,SemaClaw在这里提出了一个被称为"DAG团队"的方法,试图同时拥有两种通常被视为互斥的能力:动态任务分解的灵活性,以及图结构执行的可观察性和失败隔离性。

在解释这个方法之前,有必要说清楚现有的多智能体编排模式各有什么局限。

第一种模式是无状态蜂群:每个智能体执行完自己的部分后,决定把控制权交给哪个智能体继续。这种模式简单直接,但没有中央协调者,一旦某个交接出问题,整个任务链就断了,而且你很难追踪到底哪个环节出了错。OpenAI的Swarm框架是这种模式的代表,它自己的官方定位也是"教学用框架,不用于生产"。

第二种模式是显式图结构:在任务执行前就把工作流定义为一张节点图,每个节点是一个计算步骤,边代表控制流。这种模式可观察性极好,失败时能精确定位,但代价是灵活性:图只能表达设计时就已经知道的任务结构,运行时发现需要额外子任务时无法动态适应。LangGraph是这种模式的典型代表。

第三种模式是编排者动态决策:由一个专门的编排者智能体在运行时实时决定接下来调用哪个智能体、传什么任务。这种模式足够灵活,但编排者的推理过程不透明,出问题时难以复现和调试,错误可能传播给所有下游智能体才被发现。

SemaClaw的DAG团队方法是一个两阶段混合:第一阶段,编排者的语言模型基于任务描述生成一个完整的任务依赖图,每个节点有负责的智能体名称、任务提示和依赖关系列表,这个图在任何工作者被调用之前就完整声明出来;第二阶段,一个确定性的调度器(DispatchBridge)接管,按照这张图机械地执行,不再涉及任何随机的语言模型决策。

这个设计的关键洞察在于:编排者的动态推理被限制在一个单一的、边界清晰的时刻,那就是声明任务图的那一步。这一步之后,所有执行都由状态确定的调度器驱动,有一个随时可以检查的已知状态。

具体的执行机制也有一些精心设计的细节。DispatchBridge每300毫秒扫描一次,检查哪些任务的所有前置依赖都已经到达终态(完成、失败或超时三种都算),并把这些任务派发给对应的工作者执行。这里有一个重要的设计选择:失败的上游任务被视为终态,而不是永久阻塞。这意味着调度器会推进整个图的执行,而不是在第一个失败处卡住,下游任务可以看到上游失败的结果并据此处理,而不是无限等待。

每个工作者在开始执行时收到的提示里,包含整体父目标、它依赖的所有前置任务的结果、以及同组其他任务的当前状态。工作者在开始执行的那一刻就有了完整的任务上下文,而不需要在执行中途再去问编排者,这也体现了上下文隔离的好处:每个工作者的执行是自包含的。

七、任务调度的四种模式:把对的工具交给对的工作

定时任务是个容易被忽视但极其实用的能力需求。你希望AI每天早上给你推送今日摘要、每周整理一次知识库、每隔一小时检查一次服务状态——这些需求的复杂程度天差地别,如果把每一个都当作完整的智能体推理任务来处理,既浪费算力又降低可靠性。

SemaClaw设计了四种执行模式来解决这个问题,核心原则是:执行模式应该与任务复杂度匹配。

纯通知模式是最简单的一种:在预设时间把一条预先写好的消息发给用户,完全不调用任何语言模型。适合固定的提醒、定期公告、不需要任何适应性的场景。消耗零算力,延迟极低。

纯脚本模式在智能体运行时之外执行一段确定性的代码,没有上下文窗口,没有语言模型调用,没有工具权限开销。适合数据采集、文件处理、API轮询等逻辑完全可以用代码指定的场景。行为完全由代码决定,没有随机变化,消耗零令牌,无论执行频率多高都不会增加成本。

纯智能体模式在预设时间触发完整的智能体执行。智能体收到一个预先写好的任务提示,基于自己的工具和记忆自主推理,产生回应或执行操作。适合需要判断、综合或适应性的任务——汇总本周活动、起草状态报告、发起一项研究——内容无法提前确定,需要完整的推理能力。

混合脚本加智能体模式先运行一段脚本产生结构化数据或预处理的上下文,再把这个结果传给智能体作为推理的输入。这种模式针对的是一个常见场景:任务中最昂贵的部分不是推理而是数据收集——拉取指标、汇总日志、查询多个API——而智能体的价值在于对这些数据的解读和综合。把确定性的部分交给脚本处理,让令牌消耗与推理工作量成正比,而不是与整体工作量成正比。

这个设计传递了一个务实的工程观念:语言模型不是每个定时任务的正确工具,把它用于不需要它的场景只会增加成本、引入不必要的延迟,并降低系统可靠性。

八、个人知识库:AI帮你做的事情,变成你永久拥有的财富

前面所有的机制都解决了AI系统"做事"的问题。但还有一个深层问题:每次做完的事情,留下了什么?

SemaClaw的三层上下文架构管理的是智能体在每一步读到什么信息,但每次任务中产生的洞见、提炼的结论、形成的理解,最终会被吸进压缩摘要,随着日志文件的滚动淘汰慢慢消失——这对于记忆检索是够用的,但对于知识沉淀是不够的。

研究团队把这个问题称为"知识沉淀"(Knowledge Sedimentation),并给出的解决方案是一套基于wiki的个人知识基础设施:一个专门用来存放"学到了什么"的知识层,以结构化的方式增长,按主题而非按时间组织,直接可以被人类读取和编辑。

存储方式的选择体现了一种强烈的设计信念:知识库就是用户本地文件系统上的一个Markdown文件目录树,没有数据库,没有私有索引,文件浏览器看到的就是全部。目录层级本身就是主题分类体系,用户可以随时重命名目录、迁移文件、重组结构,不需要系统介入,不需要重建索引,与SemaClaw一起使用还是独立使用都完全自主。

智能体通过一套精简的命令行操作与这个知识库交互:查看目录树、创建分类、保存条目、整理现有文件。有两套工作流:保存流程处理智能体自己在任务中产生的内容,它先查看目录树,判断内容适合放在哪个已有分类、需不需要新建分类、还是先放进`inbox/`等待进一步分类,然后写入带主题标签的条目;整理流程处理用户提供的文件,智能体把文件复制到合适的分类,只修改前置元数据(添加标签和来源),不改正文——用户的内容是权威的,智能体的角色是分类和标注,不是改写。

检索方面,知识库有独立的搜索接口,与第二层外部记忆的`memory_search`是分开的,这个分离是故意的:外部记忆索引的是"说过什么"(对话记录和自动日志),知识库索引的是"学到了什么"(刻意保存的独立知识条目)。前者的查询结果是一段对话片段,后者的查询结果是一个完整的、结构化的知识条目。把两者混在一起,就抹去了这个层次的价值。

这套设施还建立了一个人机双向的编辑循环。Web界面把目录树渲染成可导航的知识库,每个Markdown条目渲染成格式化的文档,用户可以直接浏览、编辑内容和元数据、重组目录结构,完全不需要通过智能体中转。任何改动对下一次智能体检索立即可见,因为文件就是语料库,没有独立的索引需要重建。智能体的工作产出变成了用户可以阅读和学习的笔记;用户的编辑和整理又成为智能体下一次检索时读到的权威内容。两者通过同一个文件系统持续互相丰富。

研究团队把这个循环命名为"vibe learning"(随兴学习),是对"vibe coding"(随兴编程)和"vibe working"(随兴工作)的延伸。随兴编程压缩了意图和代码之间的距离;随兴工作把这个模式扩展到了编程之外的所有知识工作;随兴学习则进一步确保了做事的过程留下痕迹——一个结构化的、可检索的、持续增长的记录,记录了做了什么,以及通过做事理解了什么。

九、还没解决的问题:研究团队自己提出的五个公开挑战

论文的第四节专门用来讨论研究团队目前没有解决、也不确定答案的问题,这种坦诚在学术论文中并不常见,也让这部分内容格外值得关注。

第一个公开问题是:多智能体团队中,智能体应该是有持久身份的长期角色,还是每次临时实例化的虚拟参与者?SemaClaw明确选择了持久身份模型,并且把这个选择做成了架构级的承诺——路由时用的是字符串精确匹配,不是向量查找,每个智能体必须是注册的有名字的身份。研究团队承认这带来了两个尚未解决的子问题:随时间演化的身份漂移(一个智能体的`SOUL.md`被不断修改后,它的实际行为可能与它的名字隐含的角色不再匹配),以及面对全新任务类型时名册的刚性(如果现有智能体都不适合,没有机制即时组合出一个新角色)。

第二个公开问题是:驾驭工程能在多大程度上替代模型能力?论文引用的LangChain在Terminal Bench 2.0上的实验表明,在模型不变的情况下,仅仅改进驾驭配置就把任务完成率从52.8%提升到66.5%。研究团队分析了SemaClaw自身架构中多个替代模型能力的机制——检索替代参数记忆、技能注入缩小任务范围、任务分解分散推理负载、纯脚本和纯通知模式完全绕开模型——并提出了一个工作假设:对于大多数个人生产力用例,一个构建良好驾驭层的中端模型可能与一个没有驾驭层的顶级模型达到相当的效果。他们坦率地说,这个假设还没有得到系统性的实证验证。

第三个公开问题涉及记忆的所有权和隐私。一个知道你越来越多的记忆系统,在带来便利的同时也累积了风险。SemaClaw的回应是本地部署:所有记忆文件存在用户自己控制的基础设施上。但研究团队进一步追问了一个更深层的问题:用户的记忆库里存放的是用户通过与智能体协作而产生的知识,这些知识的归属权从法律和伦理角度应该如何界定?目前没有成熟的框架回答这个问题。

第四个公开问题是关于"有状态的驾驭插件"。传统工具是无状态的——接受输入、产生输出、不改变智能体的持久架构。但知识库插件已经不是这样运行的了,它写入的内容会永久留在系统里,影响未来所有的智能体会话。这类插件需要不同的权限模型:它们修改的是驾驭层本身,而不只是一次操作的结果。SemaClaw目前还没有把这个区分做进权限架构里,研究团队认为这是随着社区插件生态壮大而必须解决的问题。

第五个公开问题最宏观:随着智能体生态成熟,社区层面会出现什么新形式?现有的技能分享平台(ClawHub)解决了能力分发的问题,但跨运营者的智能体间认证、能力发现、信任传播,以及集体知识共享的治理,这些都是现有开源基础设施还远远没有覆盖的领域。研究团队把这称为"个人AI智能体领域最具长期影响的工程问题"。

归根结底,SemaClaw想要回答的是:一个真正可以长期信赖的AI助理,需要在模型能力之外构建什么?他们的答案是一套完整的驾驭装置——两层架构分离运行时和应用逻辑,三层记忆管理知识的不同生命周期,权限桥把人工授权变成执行的基本语法,四层插件在正确的层面扩展正确的能力,DAG团队把动态规划和确定性执行结合在一起,四种调度模式把执行资源匹配到任务复杂度,知识库把每次任务的产出变成用户永久持有的知识资产。这些机制共同构成了一个把"能干的模型"变成"可靠的长期合作者"所需要的工程基础。

当然,这套系统目前仍有明确的局限——频道集成还不全面,与上游Claude Code生态系统的对齐还不完整,Wiki知识库与智能体记忆搜索的深度融合还没实现。但研究团队选择以开源的方式公开这一套框架和思考,邀请社区一起压力测试、提出替代方案、贡献实践结果,本身就是这种务实工程哲学的体现。

这项研究的意义,或许不只在于它建造了什么,更在于它给"驾驭工程"这个领域提供了一套相对系统的词汇和参照——让关于AI系统设计的讨论可以在一个共同的框架下展开,而不是各自凭经验和直觉摸索。有兴趣深入探究细节的读者,可以通过arXiv编号2604.11548查阅完整原文,或访问github.com/midea-ai/SemaClaw查看开源代码。

Q&A

Q1:SemaClaw的权限桥和普通AI工具的权限管理有什么本质区别?

A:普通AI工具的权限管理通常是配置层面的设置,或者套在单个工具外面的包装器,是"事后附加"的安全层。SemaClaw的权限桥则直接嵌入在运行时,是执行流程的原生组成部分。当智能体要调用高风险工具时,系统在工具边界处暂停,把操作细节发给用户审批,会话在等待期间保持存活,用户批准后继续执行。这意味着人工授权不是打断流程的特殊情况,而是正常执行路径的一部分。

Q2:DAG团队的多智能体编排和LangGraph的工作流图有什么差别?

A:LangGraph的工作流图在任务执行前就要完整定义好,执行时按图走,不能动态调整任务结构。DAG团队方法的差别在于第一阶段由语言模型在运行时动态生成任务依赖图,因此可以处理提前无法完整规划的任务结构;第二阶段再由确定性调度器按图执行,保留了图结构的可观察性和失败隔离性。简单说是"动态规划加上确定性执行"的两阶段组合,而不是要在两者之间选一个。

Q3:SemaClaw的个人知识库和普通的AI对话记忆有什么实质性区别?

A:普通的AI记忆机制本质上是按时间排列的对话日志,检索时返回的是过去说过的话的片段,随着时间推移旧日志会被淘汰。SemaClaw的个人知识库按主题而非时间组织,存放的是经过智能体判断后刻意保存的独立知识条目,不会随日志滚动消失,用户可以直接通过文件浏览器查看和编辑,也可以通过Web界面浏览和重组结构,智能体和用户读写同一套Markdown文件,没有任何同步层或索引重建步骤。

陕西
上一篇:{loop type="arclist" row=1 }{$vo.title}