联邦法官阻止五角大楼将人类标记为国家安全威胁的企图。
在一项重大裁决中,旧金山的一名联邦法官阻止五角大楼和特朗普政府对 Anthropic 执行国家安全指定,Anthropic 是一家人工智能 (AI) 公司,拒绝取消其 Claude 模型的安全限制。
这一决定对人工智能技术的开发和部署具有深远的影响,我们将深入探讨这对行业及其利益相关者意味着什么。
背景:Anthropic 拒绝遵守安全限制。
Anthropic 是一家领先的人工智能公司,一直处于开发高级语言模型的前沿,包括其广受欢迎的 Claude 模型。
法院的裁决:Anthropic 和人工智能社区的胜利。
来源:Dev.to
