Anthropic旗下AI助手Claude Code的源代码于本周早些时候遭遇大规模泄露,引发了该公司紧急发出数千份版权下架请求,试图追回其被盗代码。
此次泄露使技术人员得以对这款热门聊天机器人的一些核心功能进行逆向工程分析,业界担忧这可能让Anthropic的竞争对手获得显著优势。泄露的代码还揭示了Anthropic一些即将发布或处于实验阶段的AI产品线,包括未发布的AI模型,以及一个名为“buddy”的“类电子宠物”功能。该功能将“出现在您的输入框旁边,并对您的编码行为做出反应”。
或许最令人意外的是,代码片段显示Anthropic正在积极追踪用户使用粗俗语言的频率。开发者Rahat Chowdhury发现,“Claude Code含有一个正则表达式,用于检测‘wtf’、‘ffs’、‘piece of s***’、‘f*** you’、‘this sucks’等词汇。”他补充说,“它不会改变AI行为,只是静默地将is_negative: true记录到分析数据中。”Chowdhury指出:“Anthropic正在追踪你对AI发脾气的次数。”
Claude Code的创建者Boris Cherny对此回应称:“这是我们用来判断用户体验是否良好的信号之一。”他透露,“我们将其放在一个仪表板上,并称之为‘脏话’图表。”Chowdhury还发现,Anthropic内部存在一个“完整的情绪分类系统,但仅供员工使用”。他写道:“当Anthropic员工感到沮丧时,系统会弹出一个提示,要求他们分享对话记录,基本就是问‘嘿,你看起来不高兴,想提交一份bug报告吗?’”
此次泄露不仅让我们得以一窥Anthropic如何构建其AI助手,Cherny本人也在社交媒体上积极回应,试图平息此次公司失误带来的影响。他周三发推强调:“这是人为失误。我们的部署流程包含几个手动步骤,其中一步操作不正确。我们已经做了一些改进,并正在深入研究以增加更多健全性检查。”
Cherny还坚称,解决此类事件的答案是“更多地依赖AI”,以确保此类泄露不再发生。他写道:“就像任何其他事件一样,反直觉的答案是通过寻找加快速度的方法来解决问题,而不是引入更多流程。在这种情况下,就是更多的自动化,并让Claude来检查结果。”这位开发者也澄清,此次泄露后“没有人被解雇”,称其为“一个无意的错误”。
然而,既然事实已公之于众,开发者们仍在继续深入研究这些丰富的数据。学生开发者Sigrid Jin在GitHub上重建的源代码仓库——被命名为“Claw Code”,以致敬开源AI Agent项目OpenClaw——已被大量复制(fork)。