Anthropic 近日针对其人工智能模型 Claude Code 的源代码泄漏事件采取了法律行动,正以版权侵犯为由,要求互联网平台删除上万份该代码的副本。
此次源代码的意外泄漏,使得Anthropic面临严峻挑战。尽管公司积极发出删除请求,但新的副本仍在不断涌现,使得防止代码进一步扩散变得尤为困难。
开发者社区对泄露的 Claude Code 进行了深入分析,揭示了Anthropic在AI Agent设计上的一些独特技术和“窍门”。其中包括一种被称为“做梦”(dreaming)的机制,即AI Agent会定期回顾其任务以巩固记忆,这有助于提升其长期性能和稳定性。
此外,代码中还发现了一种“隐藏身份”的卧底模式(undercover mode),以及一个名为“Buddy”的可互动电子宠物功能。这些发现为业界深入理解Anthropic的AI架构和Agent行为模式提供了宝贵视角。
值得注意的是,部分开发者尝试使用其他AI工具和编程语言对 Claude Code 进行重写。他们认为,这种“重新实现”的行为不构成直接的版权侵犯,因此其新版本代码可能不会面临与原始泄漏代码相同的下架命运。这在技术社区中引发了关于软件版权边界和AI时代代码创新的讨论。