News

美政府与Google DeepMind、微软等合作,审查AI模型确保国家安全

美政府与Google DeepMind、微软等合作,审查AI模型确保国家安全

美国政府已与领先的AI开发者Google DeepMind、微软和xAI达成协议,以促进在其先进AI模型公开发布前对其早期版本进行审查。这些评估由美国商务部下属的AI标准与创新中心(CAISI)负责,被认为是了解强大新型AI模型能力以及维护美国国家安全的决定性步骤。这些合作旨在AI发展的关键时期,帮助联邦政府扩大其在公共利益方面的工作。

CAISI主任Chris Fall强调指出:“独立、严谨的测量科学对于理解前沿AI及其国家安全影响至关重要。” CAISI的职责是促进科技行业与联邦政府之间的合作,以制定商业AI系统的标准并评估其风险。当前的协议特别针对与网络安全、生物安全和化学武器相关的国家安全风险。

这些新的合作关系建立在两年前拜登政府与OpenAI和Anthropic签订的类似协议基础之上。CAISI已经成功完成了40多次此类评估,其中包括对尚未发布的模型的评估。开发者通常会向政府提供已减少或移除安全防护措施的未发布AI模型。这种有意为之的做法使得政府能够更彻底地评估这些尖端系统与国家安全相关的能力和潜在风险。

对发布前审查的日益重视源于人们对最新、最强大AI模型(如Anthropic的Mythos)可能构成重大公共危险的担忧日益加剧。AI安全专家、政府官员和科技公司担心,这些模型广泛的能力可能使黑客以前所未有的规模利用网络安全漏洞。作为回应,Anthropic限制了Mythos的初步发布范围,仅限于少数公司,并启动了“玻璃之翼项目”(Project Glasswing),这是一项旨在确保全球最关键软件安全的行业合作努力。

与这些努力相呼应,微软最近还在英国与政府支持的AI安全研究所达成了一项类似协议,该机构同样专注于安全的AI开发。微软在一篇博客文章中阐明,虽然它会定期进行各种内部AI测试,但评估国家安全和大规模公共安全风险必然需要政府的参与和协作。

↗ 阅读原文