News

天问AI智能体:LLM驱动任务调度,实现自主化工作流

天问AI智能体:LLM驱动任务调度,实现自主化工作流

天问AI近日推出了其强大的自主智能体系统,这是一个由大型语言模型(LLM)驱动的任务调度器,能够独立地规划、执行和适应各项任务,全程无需人工干预。

传统AI助手通常只能被动响应用户查询,而天问AI的智能体系统则实现了质的飞跃。它能够主动执行多步骤、复杂的任务,从而成为一个真正高效的生产力工具。

该系统的核心架构精妙而严谨:

  • 用户请求 → LLM解析器进行意图分类
  • 任务队列处理依赖解析
  • 安全白名单进行权限检查
  • 任务执行(调用工具、Python脚本或shell命令)
  • 自反思循环
  • 输出结果摘要

关键组件解析:

LLM解析器:系统采用Qwen2.5-1.5B模型,专门用于理解自然语言请求并将其分解为一系列可执行的任务。其意图分类包括“规划”、“执行”、“搜索”、“提问”和“问候”等。

带依赖解析的任务队列:任务之间可能存在复杂的依赖关系。该队列通过拓扑排序算法来确定任务的最佳执行顺序。例如:

  • 任务A:“检查磁盘空间” → 无依赖
  • 任务B:“备份数据库” → 依赖任务A
  • 任务C:“发送报告” → 依赖任务A和任务B

安全白名单:这是确保自主执行安全性的核心机制。白名单严格定义了:

  • 允许访问的目录(仅限于项目根目录)
  • 允许执行的shell命令(例如,禁用`rm -rf`或`sudo`等危险指令)
  • 默认权限为只读;任何写入操作都必须获得明确授权
  • 受限的网络访问(目前仅限于dev.to和huggingface.co)

自评估循环:每当一项任务执行完毕后,系统都会进入自评估阶段。它会检查:

  • 任务是否成功完成?
  • 输出结果是否符合预期?
  • 是否需要尝试其他替代方法?

问候快捷方式:为了提高效率,针对常见的问候语(如“hi”、“hello”、“hey”、“你好”等),系统会跳过LLM解析阶段,直接进行快速响应。

自主工作流示例:

假设用户对系统说:“生成一个宣传视频并发布到Dev.to。”

  • LLM解析器会将此请求分解为两个子任务:“生成视频”和“发布文章”。
  • 任务队列会解析出依赖关系:视频必须先生成,才能进行发布。
  • 安全白名单将发挥作用:它允许“生成视频”的任务执行,但会阻止“发布文章”的任务(因为安全策略中不允许向dev.to进行写入操作)。
  • 系统会向用户报告:“我可以自主生成视频,但发布操作需要您的确认。”

这种严谨的安全设计,正是天问AI在自主操作方面赢得用户信任的关键。

↗ 阅读原文