继《纽约时报》报道称美国政府正考虑加强对AI行业的监管后,谷歌、微软和xAI已与美国政府达成协议,将向其提供AI系统的早期访问权。根据《华尔街日报》消息,美国商务部下属的AI标准与创新中心(CAISI)将负责评估这些公司开发的新模型。
CAISI主任克里斯·福尔(Chris Fall)向《华尔街日报》表示:“独立、严谨的测量科学对于理解前沿AI及其国家安全影响至关重要。这些扩大的行业合作有助于我们在关键时刻,为公共利益规模化地开展工作。”据报道,协议要求谷歌、微软和xAI向CAISI提供其AI模型时,可能需要减少甚至禁用部分安全防护措施,以便该机构能深入探查其国家安全相关能力和潜在风险。
此次协议的签订,紧随美国政府考虑引入新AI监管措施的报道。据称,白宫正在考虑成立一个工作组来监督未来AI模型的开发,该委员会可能拥有在新模型公开发布前对其进行审查的权力。乍看之下,这种新方法似乎与前任政府在《AI行动计划》中概述的自由放任式监管路径有所不同,但实际上,美国政府一直以来都在寻求将AI行业纳入其管控范围。
例如,自五角大楼与Anthropic公司的争端开始,一系列事件都可追溯到前任政府签署的一项行政命令。五角大楼曾因Anthropic坚持在其技术中设置安全措施,以防止其被用于大规模监控和自主武器,而将其标记为供应链风险。同时,一项名为“阻止联邦政府中‘觉醒’AI”(Preventing Woke AI in the Federal Government)的行政命令,禁止联邦机构采购那些“操纵响应以支持诸如DEI(多元、公平与包容)等意识形态教条”的AI系统。这实际上为AI公司设定了一个意识形态测试,Anthropic公司显然未能通过。因此,不难理解为何大多数公司选择与联邦政府合作,而非独自面对这些测试。