Miro 作为全球领先的 AI 创新协作平台,服务用户超9500万。其开发者体验团队面临一项重大挑战:如何高效地将软件缺陷(bug)准确路由至负责团队。低效的bug路由不仅导致不必要的上下文切换和开发者挫败感,还延长了问题解决时间,导致大量bug因错误分配和团队间反复转派而无法达到内部解决服务水平协议(SLA)。据估算,每年因此损失的累计生产力高达42年。
为解决这一问题,Miro 联合 AWS 原型设计与云工程(PACE)团队,开发了 BugManager——一个基于AI的自动化bug分流解决方案。借助 Amazon Bedrock 的强大能力,该方案显著提升了 Miro 的bug路由准确性,将团队间重复分配次数减少了六倍,并将问题解决时间缩短了五倍,实现了从数天到数小时的巨大飞跃。
在 Miro 这样拥有近百个工程团队的环境中,自动化bug分流是一项复杂的多分类问题。bug报告往往结构混乱,缺乏上下文,且包含文本、堆栈跟踪、截图乃至视频等多种数据类型。要实现高精度的分类,需要从 GitHub 拉取请求、Confluence 文档、README 文件以及已解决的历史工单等多个来源,补充相关的产品信息。
此外,Miro 的组织结构高度动态化:团队合并、新团队组建、产品职责持续演变。传统的自然语言处理(NLP)文本分类器,如微调 BERT 模型或微调大型语言模型(LLM)分类器,在这种动态环境中表现不佳。它们需要随着组织变更进行频繁的再训练,并依赖于新结构可能不存在的标注数据。Miro 曾尝试过基于微调 GPT 模型的解决方案,但其性能迅速下降,这促使 Miro 转向更强大、基于 LLM 的方法。