Anthropic本周宣布,限制其最新模型Mythos的发布,理由是该模型在发现全球软件安全漏洞方面的能力过于强大。该公司表示,Mythos不会向公众开放,而是将与亚马逊网络服务(AWS)、摩根大通等运营关键在线基础设施的大型企业和组织合作共享。
据报道,OpenAI也正在考虑为其下一代网络安全工具采取类似策略。表面上看,此举旨在帮助这些大型企业领先于可能利用高级LLM渗透安全软件的恶意攻击者。
然而,这种发布策略背后可能不仅仅是网络安全考量或对模型能力的宣传。AI网络安全实验室Irregular的CEO Dan Lahav此前表示,虽然AI工具发现漏洞很重要,但任何漏洞对攻击者的具体价值取决于多种因素,包括它们如何组合使用。Lahav提出的核心问题是,AI发现的漏洞是否能以“非常有意义的方式”被利用,无论是单独使用还是作为攻击链的一部分。
Anthropic声称Mythos利用漏洞的能力远超其前代模型Opus。但Mythos是否真的是网络安全模型的终极解决方案尚不明确。AI网络安全初创公司Aisle表示,他们使用较小的开源模型就能复现Anthropic所宣称的Mythos大部分成就。Aisle团队认为,这表明网络安全领域并非依赖单一的深度学习模型,而是取决于具体任务。
考虑到Opus已被视为网络安全领域的“游戏规则改变者”,前沿实验室限制模型发布给大型组织还有另一个可能的原因:这能为获取大型企业合同创造良性循环,同时增加竞争对手通过蒸馏技术(一种利用前沿模型低成本训练新LLM的方法)复制其模型的难度。
exe.dev的软件工程师兼CEO David Crawshaw在社交媒体上指出:“这实际上是营销的掩护,顶级模型现在被企业协议所限制,不再提供给小型实验室进行蒸馏。等到你我能用上Mythos时,又会有新的企业专属顶级版本出现。这种策略有助于确保企业资金持续流入,同时将蒸馏公司降至次要地位。”
这种分析与当前AI生态系统中的趋势不谋而合:一方面是前沿实验室竞相开发最庞大、能力最强的模型;另一方面,Aisle等公司则依赖多种模型,并将开源LLM(其中许多源自中国,并常被认为通过蒸馏技术开发)视为获取经济优势的途径。