美国 - 艾赫巴里通讯社
Anthropic 首席执行官在五角大楼要求无限制访问人工智能的截止日期临近之际坚守阵地
领先的人工智能研究公司 Anthropic 的首席执行官达里奥·阿莫迪正处于一个关键时刻,因为五角大楼就美国军方要求无限制访问其公司尖端人工智能系统的截止日期正在迅速临近。此举突显了军事背景下技术创新与道德考量之间日益增长的摩擦,阿莫迪明确表示,他“不能凭良心接受[五角大楼的]请求”,强调了人工智能部署的具体界限。
阿莫迪的坚定声明是在周四发表的,距离国防部长皮特·赫格塞特设定的周五下午 5:01 的截止日期不到 24 小时。赫格塞特的立场是,Anthropic 必须要么顺从这些要求,要么面临严重后果。国防部试图通过威胁将 Anthropic 标记为供应链风险(这通常是为外国对手保留的称号)或援引《国防生产法》(DPA) 来施加压力。DPA 赋予总统权力,强制公司优先或扩大国防生产。这些威胁表明,政府与私营科技部门在先进技术控制方面的僵局正在显著升级。
另请阅读
阿莫迪的核心担忧围绕着两种具体情况,他认为人工智能可能“破坏而非捍卫民主价值观”:对美国公民的大规模监控和“没有人类参与”的完全自主武器。他强调,虽然“Anthropic 理解战争部而非私营公司制定军事决策”,但他同时也指出,“有些用途也超出了当今技术能够安全可靠地做到的范围。”这一立场反映了人工智能社区内部关于开发者的道德责任以及技术部署应设置的界限的更广泛辩论。
五角大楼反过来认为,它应该能够将 Anthropic 的模型用于所有合法目的,并认为其应用不应由一家私营公司决定。这一立场主张,国家国防需求应优先于个别公司施加的限制,尤其是在被视为对国家安全至关重要的技术方面。然而,Anthropic 对道德原则的坚持提出了关于人工智能开发和部署的道德参数最终由谁来定义的重要问题。
阿莫迪强调了五角大楼威胁中固有的明显矛盾,指出:“一个称我们为安全风险;另一个称 Claude [Anthropic 的人工智能模型] 对国家安全至关重要。”这种不一致不仅凸显了所施加的压力,也含蓄地承认了 Anthropic 技术目前在军事行动中发挥的关键作用。阿莫迪补充说,虽然国防部有权选择最符合其愿景的承包商,但“鉴于 Anthropic 的技术为我们的武装部队提供了巨大的价值,我们希望他们重新考虑。”
Anthropic 目前拥有独特的地位,是唯一一家拥有适用于军事的分类就绪系统的前沿人工智能实验室。这种排他性为 Anthropic 在这些谈判中提供了相当大的筹码。然而,有报道称,如果无法与 Anthropic 达成协议,国防部正在准备让另一家著名人工智能公司 xAI 承担这一角色。这种转变可能会显著改变军事人工智能供应商的竞争格局。
阿莫迪在声明的结尾重申了 Anthropic 的服务承诺,称:“我们强烈倾向于继续为国防部和我们的作战人员服务——并落实我们要求的两项保障措施。”他表示,如果国防部选择解除与 Anthropic 的合作,“我们将努力实现向其他供应商的顺利过渡,避免对正在进行的军事规划、行动或其他关键任务造成任何干扰。”这表明了一种外交方针,公司在努力维护其原则的同时,也承认了军队的作战需求。
相关新闻
这场对抗凸显了将快速发展的人工智能技术整合到政府结构中,特别是在国家安全领域,所面临的复杂挑战。它为科技巨头如何与国防要求互动树立了先例,特别是在具有巨大变革能力的技术的道德控制方面。这些谈判的结果可能对人工智能的未来发展及其全球应用产生深远影响。