天问AI近日推出了其强大的自主智能体系统,这是一个由大型语言模型(LLM)驱动的任务调度器,能够独立地规划、执行和适应各项任务,全程无需人工干预。
传统AI助手通常只能被动响应用户查询,而天问AI的智能体系统则实现了质的飞跃。它能够主动执行多步骤、复杂的任务,从而成为一个真正高效的生产力工具。
该系统的核心架构精妙而严谨:
- 用户请求 → LLM解析器进行意图分类
- ↓
- 任务队列处理依赖解析
- ↓
- 安全白名单进行权限检查
- ↓
- 任务执行(调用工具、Python脚本或shell命令)
- ↓
- 自反思循环
- ↓
- 输出结果摘要
关键组件解析:
LLM解析器:系统采用Qwen2.5-1.5B模型,专门用于理解自然语言请求并将其分解为一系列可执行的任务。其意图分类包括“规划”、“执行”、“搜索”、“提问”和“问候”等。
带依赖解析的任务队列:任务之间可能存在复杂的依赖关系。该队列通过拓扑排序算法来确定任务的最佳执行顺序。例如:
- 任务A:“检查磁盘空间” → 无依赖
- 任务B:“备份数据库” → 依赖任务A
- 任务C:“发送报告” → 依赖任务A和任务B
安全白名单:这是确保自主执行安全性的核心机制。白名单严格定义了:
- 允许访问的目录(仅限于项目根目录)
- 允许执行的shell命令(例如,禁用`rm -rf`或`sudo`等危险指令)
- 默认权限为只读;任何写入操作都必须获得明确授权
- 受限的网络访问(目前仅限于dev.to和huggingface.co)
自评估循环:每当一项任务执行完毕后,系统都会进入自评估阶段。它会检查:
- 任务是否成功完成?
- 输出结果是否符合预期?
- 是否需要尝试其他替代方法?
问候快捷方式:为了提高效率,针对常见的问候语(如“hi”、“hello”、“hey”、“你好”等),系统会跳过LLM解析阶段,直接进行快速响应。
自主工作流示例:
假设用户对系统说:“生成一个宣传视频并发布到Dev.to。”
- LLM解析器会将此请求分解为两个子任务:“生成视频”和“发布文章”。
- 任务队列会解析出依赖关系:视频必须先生成,才能进行发布。
- 安全白名单将发挥作用:它允许“生成视频”的任务执行,但会阻止“发布文章”的任务(因为安全策略中不允许向dev.to进行写入操作)。
- 系统会向用户报告:“我可以自主生成视频,但发布操作需要您的确认。”
这种严谨的安全设计,正是天问AI在自主操作方面赢得用户信任的关键。