伊赫巴里
Thursday, 05 March 2026
Breaking

OpenAI与五角大楼的协议:在中东紧张局势下Anthropic所担心的折衷方案

一场引发军事人工智能时代伦理与法律边界质疑的技术协议

OpenAI与五角大楼的协议:在中东紧张局势下Anthropic所担心的折衷方案
7DAYES
3 hours ago
6

美国 - 艾赫巴里通讯社

OpenAI与五角大楼的协议:在中东紧张局势下Anthropic所担心的折衷方案

在一项引发全球对军事应用人工智能伦理讨论的重大进展中,领先的人工智能公司OpenAI宣布与美国国防部(五角大楼)达成一项协议,允许其技术在秘密环境中应用。此项于2月28日发布的声明,紧随五角大楼公开批评OpenAI的竞争对手Anthropic之后。观察家指出,这项由OpenAI首席执行官萨姆·奥特曼(Sam Altman)形容为“绝对仓促”的协议,标志着其背离了Anthropic所倡导的严格道德原则,转而采取了一种务实且侧重法律的方针。这一策略或许能为OpenAI带来竞争优势,但却在中东日益紧张的局势下,引发了关于人工智能军备竞赛中伦理保障措施的关键问题。

OpenAI在其公开声明中,已尽力强调该协议并未赋予五角大楼对其技术绝对的自由裁量权。该公司强调了旨在防止其人工智能被用于自主武器系统和大规模国内监控的合同条款。此外,奥特曼澄清说,协议条款与Anthropic先前拒绝的条款不完全相同。尽管这可能被视为OpenAI的双重胜利——既获得了合同,又展现了负责任创新的形象——但仔细审视其法律细节,揭示了方法上的根本差异。Anthropic采取了赢得大量支持的道德立场,而OpenAI则采取了更为灵活、法律依据更强的策略,这可能更容易被政府机构接受。

OpenAI面临的主要挑战在于其执行承诺的安全措施的能力。这一点尤其重要,因为五角大楼的人工智能战略似乎正在加速,并受到近期伊朗袭击等地缘政治事件的影响。OpenAI内部许多人主张更坚定的道德立场,他们对这些保障措施的接受程度仍不确定。奥特曼的言论暗示,两家公司方法论之间的根本区别并非“界限”本身的存在,而是“方法”。他指出,Anthropic更侧重于“合同中的具体禁令”,而OpenAI则更倾向于“引用适用的法律”,这使其感到更为舒适。

OpenAI对其合作的辩护基于政府将遵守现有法律框架的假设。在其合同的一个有限摘录中,该公司引用了与自主武器和监控相关的法律和政策,范围从五角大楼20203年关于自主武器的指令,到保护公民免受大规模监控的美国宪法第四修正案。然而,乔治华盛顿大学政府采购法研究副院长杰西卡·蒂利普曼(Jessica Tillipman)等法律专家指出,该协议并未赋予OpenAI“类似Anthropic的、独立的禁止其他合法政府使用的权利”。它仅仅规定五角大楼不能利用OpenAI的技术来违反现有的法律和政策。

Anthropic获得的巨大人气支持,包括来自一些OpenAI员工的支持,源于一种根深蒂固的信念,即目前的规定不足以阻止人工智能驱动的自主武器或大规模监控能力的开发。对于那些还记得爱德华·斯诺登(Edward Snowden)揭露的、曾被内部视为合法但在漫长的法律诉讼后被裁定为非法的监控行为的人来说,政府机构不会违法的假设几乎无法提供任何安慰。在此背景下,情况似乎回到了原点:允许五角大楼将人工智能用于任何合法目的。

OpenAI认为,如果人们不信任政府遵守法律,那么对它尊重Anthropic提出的“红线”的信心也同样站不住脚。然而,这种论点并不否定设定此类限制的重要性。不完美的执行并不意味着保障措施毫无意义;合同条款仍然塑造着行为、监督和政治后果。OpenAI还提出了第二道防线:保持对其模型内置安全规则的控制,并且不向军方提供剥离了这些控制的AI版本。OpenAI员工Boaz Barak阐述了这一点,他认为“红线——禁止大规模监控,以及禁止在没有人工干预的情况下指挥武器系统——可以直接融入模型行为”。

尽管如此,该公司并未具体说明其为军方制定的安全规则将如何与普通用户适用的规则有所不同。此外,执行过程本身就存在固有的不完美性,尤其是在首次在秘密环境中部署保护措施,且预计仅在六个月内完成的情况下。这种情况引发了一个更根本的问题:科技公司是否应该承担禁止那些虽然合法但公司认为在道德上应受谴责的行为的责任?美国政府显然认为Anthropic扮演此类角色的意愿是不可接受的。国防部长皮特·海格西斯(Pete Hegseth)严厉批评了Anthropic的立场,称其为“傲慢和背叛”,并呼应了此前一项命令,即在Anthropic试图阻止其Claude模型被用于自主武器或大规模国内监控后,停止与该公司合作。海格西斯强调了“为任何合法目的,五角大楼必须拥有对Anthropic模型的完全、不受限制的访问权限”。

在无法获得OpenAI合同全部条款的情况下,很难不认为该公司正走在一条意识形态的跷跷板上。它承诺利用其影响力来做它认为正确的事情,但最终将其作为五角大楼能够利用其技术的主要后盾,依赖于现有法律。有三个关键方面值得密切关注:第一,这种立场是否足以让OpenAI最挑剔的员工满意;一些人可能认为奥特曼的辩解是在竞争激烈的AI人才市场中的“不可饶恕的妥协”。第二,海格西斯承诺对Anthropic发动的“焦土运动”,这远远超出了取消合同,将其归类为供应链风险,并可能禁止与其进行任何商业活动。这一举措面临着重大的法律辩论和Anthropic可能提起的诉讼。第三,五角大楼在中东紧张局势升级之际,如何在升级对伊朗的打击的同时,替换掉Claude——其唯一在包括委内瑞拉在内的秘密行动中积极使用的AI模型。海格西斯给予了该机构六个月的过渡期,在此期间军方将逐步引入OpenAI以及埃隆·马斯克(Elon Musk)的xAI的模型。然而,有报道称,在禁令发布后数小时,Claude就被用于对伊朗的袭击,这表明逐步淘汰的过程将远非简单。即使Anthropic和五角大楼之间长达数月的争执结束(尽管可能性不大),五角大楼的人工智能加速计划显然正在迫使公司放弃它们曾经划下的界限,而中东的新紧张局势正成为关键的试验场。

这些发展突显了在地缘政治压力驱动下,人工智能在军事行动中的加速整合,正给科技公司带来巨大的压力,迫使它们在道德原则和界限上做出妥协。随着中东冲突的升级,网络和人工智能战场正成为这些根本性辩论的新试验场。

标签: # OpenAI # Anthropic # 五角大楼 # 人工智能 # 自主武器 # 大规模监控 # AI伦理 # 国家安全 # 中东 # 法律 # 合同