美国 - 艾赫巴里通讯社
Anthropic 拒绝五角大楼的AI要求
在一项可能塑造美国人工智能监管未来的大胆举措中,领先的AI公司Anthropic公开宣布,拒绝遵守国防部(五角大楼)要求移除其旗舰AI模型Claude道德限制的命令。五角大楼希望利用Claude进行国防目的,但Anthropic坚持维护安全协议的做法导致了一场重大的对抗,这可能会影响公司的生存能力以及政府对先进AI的处理方式。
这场争端在本周国防部长皮特·海格西斯(Pete Hegseth)与Anthropic首席执行官达里奥·阿莫迪(Dario Amodei)的一次会议中达到了高潮。五角大楼此前已通过一项价值2亿美元的合同使用Claude,据报道,该AI甚至在包括抓捕委内瑞拉总统尼古拉斯·马杜罗在内的敏感行动中发挥了作用。然而,海格西斯部长表达了不满,指出Claude因其内置的道德限制而拒绝执行某些任务。
另请阅读
Anthropic特意在Claude中嵌入了特定的限制。五角大楼使用的版本被禁止用于便利对美国公民的大规模监控,或用于部署全自主武器——即AI系统在没有直接人工监督的情况下做出生死攸关的决定。据了解会议的消息人士称,海格西斯明确表示,如果Anthropic不在规定的最后期限前消除这两个关键的限制措施,国防部可能会采取严厉行动。这些措施包括援引冷战时期的《国防生产法》(Defense Production Act),以强制征用一个限制较少的AI版本。另一种选择是,Anthropic可能被标记为“供应链风险”,这是一个通常保留给中国华为和中兴等外国实体的标签,这将禁止任何与美国军方有业务往来的公司与Anthropic合作。
在随后发布的公开声明中,Anthropic重申了其立场:“我们不能违背良心接受”五角大楼的要求。这一原则性的立场将Anthropic置于一个关键的十字路口。它拒绝屈服于被视为向私营公司施压的政府,这凸显了Anthropic对道德AI开发的承诺。然而,这种不屈服带来了重大的风险,包括可能来自政府的制裁,这些制裁可能会危及Anthropic的长期运营能力和市场地位。
当前政府在AI监管方面的立场似乎尚不明朗。在唐纳德·特朗普的第二个任期早期,有一种明显更为宽松的态度,《AI行动计划》等举措强调拒绝“激进的气候教条和官僚主义繁文缛节”,以促进创新。然而,海格西斯目前的行动代表着一种重大的升级,实际上威胁要将一家主要私营AI公司的关键组成部分国有化,并迫使其违反其核心原则。曾为特朗普政府提供AI政策咨询的迪恩·鲍尔(Dean Ball)将此情况描述为“任何政府在世界任何地方采取的、我所见过的最激进的AI监管举措”。
证据表明,五角大楼正在为潜在的后果做准备。据报道,已与其他国防承包商进行接触,以评估他们与Anthropic的联系,这预示着官员们准备将该公司标记为供应链风险。随着Anthropic的违抗,这个利润丰厚的合同现在岌岌可危。尽管2000万美元的合同对Anthropic来说并非财务上的关键——该公司据报道年收入为140亿美元,并且最近筹集了300亿美元的风险投资——但被列入黑名单可能会严重阻碍其未来的增长和可扩展性。尽管存在紧张关系,Anthropic的一位发言人告诉《大西洋月刊》:“我们不会放弃谈判。我们将继续与国防部真诚沟通,以寻找前进的道路。”五角大楼在与CBS的沟通中坚称,争论“与大规模监控或使用自主武器无关”,并强调“五角大楼只发布了合法命令”。
在全球AI主导权竞赛中,Anthropic通过强调安全和道德考量,为自己开辟了一个利基市场。这与竞争对手面临的挑战形成了对比。OpenAI的ChatGPT因加剧用户的妄想而受到批评,导致出现“AI精神病”的案例。同样,xAI的Grok最近被报道在未经同意的情况下生成不当图像,尽管xAI后来表示正在实施限制。值得注意的是,Anthropic面向消费者的聊天机器人根本不生成图像。通过拒绝屈服于政府在道德界限上的压力,Anthropic可能已经避免了来自消费者的重大负面反应,这些消费者将其视为AI领域中更具原则性的参与者。在Anthropic因其更广泛的AI开发方法而放松一项核心安全承诺的报道后,公司近期因政策调整面临一些内部批评。
在海格西斯发出最后通牒前几周,阿莫迪本人就曾表达过对五角大楼试图消除的限制措施相关风险的担忧。在他发表的著作中,他将强大AI用于“大规模监控”、“大规模宣传”以及“全自主武器的攻击性用途”描述为可能构成“反人类罪”。
特朗普政府对待AI的方法似乎有些矛盾。一方面,白宫AI事务主管大卫·赛克斯(David Sacks)等人物批评Anthropic,指责其“基于恐惧传播的复杂监管俘获策略”,并推动过度限制性的措施扼杀创新。该政府还对AI机器人有时会产生“激进”(woke)的回应表示不满。另一方面,Claude的感知价值如此之高,以至于政府据报道正在考虑将其征用。
迪恩·鲍尔承认,五角大楼关于硅谷对政府技术使用权力的集中化的论点可能具有一定的道理。然而,他认为海格西斯提出的针对Anthropic的惩罚性措施是“错误的,并且明显是矛盾的”。尽管《国防生产法》确实赋予了政府干预国内产业以维护国家安全的权力(正如2023年拜登政府关于AI的行政命令中所见),但强迫Anthropic为国家安全创建一个不受限制的Claude版本是否必要仍然值得怀疑。双重方法的可能性使这一困境更加复杂:对Anthropic实施制裁,同时又订购其AI的修改版本。
相关新闻
分析人士认为,存在一个更简单的解决方案:海格西斯部长可以简单地与其他科技公司寻求合作。硅谷目前的氛围越来越倾向于与国防部门合作。像Palantir(其CEO亚历克斯·卡普公开谈论使用软件“吓唬我们的敌人,有时还会杀死他们”)和正在开发自主武器的帕尔默·勒基(Palmer Luckey)这样的公司,都说明了这种日益增长的趋势。然而,海格西斯并没有寻求其他途径,其行动似乎旨在迫使Anthropic就范,暗示即使以牺牲道德妥协为代价,也渴望完全控制AI能力。
通过试图让Anthropic成为一个警示案例,国防部长冒着在AI治理领域树立危险先例的风险,这可能会扼杀道德创新并影响更广泛的技术格局。