3月12日,Anthropic向华盛顿特区巡回上诉法院提交紧急中止请求,要求在司法审查期间暂停五角大楼的供应链风险认定。Anthropic在文件中主张该认定将造成"不可挽回的损害",据其估算,政府的对抗性行动可能导致公司2026年收入减少数亿甚至数十亿美元。此举距Anthropic于3月9日在加州北区联邦法院提起的主诉仅隔三天,形成双法院同步推进的诉讼格局。此前加州联邦法院已将临时限制令的听证日期从4月3日提前至3月24日。
3月10日,Microsoft向旧金山联邦法院提交法庭之友意见书,支持Anthropic申请临时限制令以暂停五角大楼的供应链风险认定。Microsoft警告称,若迫使企业立即更改现有产品和合同配置,"美军作战人员可能受到妨碍"。Microsoft发言人表示:"国防部需要可靠地获取国家最好的技术,同时每个人都希望确保AI不会被用于大规模国内监控或在没有人类控制的情况下发动战争。"此前一天Microsoft刚宣布将Claude引入Microsoft 365 Copilot平台。同日,Google宣布将向五角大楼300万军文职人员提供基于Gemini的AI代理,用于自动化会议摘要、预算编制等日常工作,初期在非机密网络运行,正就机密云部署进行谈判。Google还推出"Agent Designer"工具,允许国防部人员用自然语言构建AI代理。分析人士指出,Anthropic遭封禁正加速竞争对手填补军方AI市场空缺。
2026年3月9日,Anthropic向加州北区联邦地区法院和华盛顿特区联邦上诉法院分别提起诉讼,挑战五角大楼的供应链风险认定。48页诉状指控该认定违反第一修正案(因公司表达AI安全立场而遭报复)、超越供应链风险法律的适用范围、且构成非法报复行为。CFO Krishna Rao表示政府行动可能导致公司2026年收入减少数十亿美元。同日,来自OpenAI和Google DeepMind的数十名科学家和研究员以个人身份提交法庭之友意见书,支持Anthropic立场,称供应链风险认定可能损害美国竞争力并抑制AI安全讨论。五角大楼拒绝置评。与此同时,Anthropic表示每天有超过100万人注册Claude。
3月5日晚至6日,五角大楼正式向Anthropic送达供应链风险认定通知,使其成为美国历史上首家获此标签的本国企业——此前该标签仅用于华为等外国敌对实体。通知即时生效,要求所有国防承包商和供应商在与五角大楼相关的合同中停止使用Anthropic产品。Amodei随后发表声明称"我们不认为这一行动在法律上站得住脚,别无选择只能在法庭上挑战"。Anthropic同时指出该认定范围有限:即使对国防承包商,供应链风险标签也不能限制其在非国防合同中使用Claude或与Anthropic的商业关系。与此同时,CNN和CNBC报道指出一个显著矛盾:美军在中东对伊朗军事行动中仍在积极使用Claude,因六个月过渡期尚未结束。东北大学AI战略高级副教务长Usama Fayyad称此举开创了"坏先例"。
3月5日出现转折性进展。众议院金融服务委员会以16票对25票否决了众议员Liccardo提出的《国防生产法》修正案,该修正案旨在禁止联邦机构对拒绝放松AI安全标准的科技公司进行报复。共和党议员Davidson称"我们在AI问题上作为立法机构还什么都没弄明白",委员会主席Hill认为国防采购不可避免涉及争议用途,不等于政府在报复。然而同日,《金融时报》和彭博社报道,Anthropic CEO Amodei已与五角大楼重启对话,Amodei告诉投资者公司正在"努力降温局势",寻求"一个双方都能接受的协议"。前军方高级AI官员和学者也签署公开信,谴责五角大楼的手段并呼吁恢复谈判。
3月4日,五角大楼供应链风险标签的实际影响开始显现。CNBC报道,洛克希德·马丁等国防承包商已开始替换Claude模型,风险投资公司J2 Ventures称其投资组合中10家公司已放弃Claude并正在替换。与此同时,The Information获得Amodei发给员工的1600字内部备忘录,Amodei在其中称OpenAI围绕五角大楼协议的公开表态为"彻头彻尾的谎言",还称特朗普不满Anthropic未给予他"独裁者式的赞美"。备忘录泄露后,白宫一名官员告诉Axios,Amodei贬低政府的言论可能"毁掉"和解前景。CNN报道,多名OpenAI员工也对自家公司急签五角大楼协议表示不满,一名研究员称内部"士气触底"。
随着Anthropic准备提起法律诉讼,法律专家和现任国防官员对五角大楼的行动提出严厉质疑。Defense One援引多位专家称,供应链风险标签在法律上"可疑":依据10 USC 3252条,供应链风险必须涉及真实的技术破坏或后门风险,而Hegseth的理由与此无关;一名实际评估供应链威胁的国防官员称"没有证据表明Anthropic存在供应链风险",认定是"意识形态驱动"。法律专家还指出,若遵从五角大楼指令切断与Anthropic合作的承包商可能因此面临Anthropic的连带诉讼。与此同时,AP的分析指出此次事件也暴露了行业问题:多年来AI公司过度营销军事能力,Anthropic此刻才划定红线显得矛盾。事件持续影响业界:Claude用户激增导致宕机,部分军事和人权专家对Amodei的立场表示赞赏。
3月2-3日,事态向立法和政治层面扩展。参议员Wyden誓言动用一切手段对抗五角大楼禁令,计划寻求两党支持立法解决,称此事"错得令人震惊"。硅谷众议员Liccardo宣布将在周三众议院金融服务委员会标记DPA现代化法案时提出修正案,禁止联邦机构对拒绝移除安全限制的科技公司进行报复。数百名科技行业从业者签署公开信,要求五角大楼撤回供应链风险标签并呼吁国会介入审查。FCC主席Brendan Carr则站在政府一方,接受CNBC采访时称Anthropic"犯了错误",应"尽力纠正路线",称其被给予了许多下台阶的机会但都拒绝了。
3月1-3日,OpenAI因抢签五角大楼协议遭遇广泛批评。多名员工公开质疑,研究员McLaughlin发帖称"不值得"获近50万浏览。MIT Technology Review分析指出OpenAI合同未赋予公司独立的使用限制权。Lawfare预测Hegseth的供应链风险标签在法律上"无法成立"。Bloomberg披露Anthropic在争端期间曾参与五角大楼1亿美元自主无人机蜂群竞赛投标。Claude因用户激增出现宕机。3月3日,Altman发布内部备忘录承认协议"匆忙且草率",宣布重新谈判:新合同将加入明确禁止国内监控条款,国防情报机构(NSA等)使用需单独授权,还将覆盖商业购买数据这一灰色地带。分析人士指出改善显著但仍未涉及自主武器问题。
2026年3月1日,Anthropic的Claude在Apple美国App Store免费应用排行榜上超越ChatGPT升至第一名。据SensorTower数据,Claude在1月底尚在前100名之外,2月进入前20,2月26日周三升至第六,27日周四升至第四,3月1日周六登顶。Anthropic发言人表示本周每日注册量连续打破历史纪录,免费用户自1月以来增长超60%,付费订阅者今年翻倍。与此同时社交媒体出现大量"卸载ChatGPT"运动,Reddit上相关帖子获得3万赞,Instagram账号"quitGPT"涨粉万人。OpenAI的Brockman此前向亲特朗普超级PAC捐款2500万美元也成为部分用户转投Claude的理由之一。Amodei在2月28日接受CBS独家专访时表示仍愿与军方合作,但前提是符合公司红线,称白宫的行为是"惩罚性"和"报复性"的。
2026年3月1日,《华尔街日报》报道,美国中央司令部在2月28日对伊朗的联合军事打击中使用了Anthropic的Claude AI模型,用于情报评估、目标识别和战场场景模拟。这距离特朗普下令所有联邦机构停用Anthropic技术仅数小时。报道指出,全球多个美军司令部仍在使用Claude,因特朗普的禁令附带六个月过渡期,且军方系统中Claude已深度嵌入,替换需要数月时间。此前Claude也曾在1月逮捕委内瑞拉前总统马杜罗的行动中被使用。这一披露凸显了AI技术一旦嵌入军事系统后难以快速撤除的现实困境。
2026年2月27日深夜,Anthropic被封禁数小时后,OpenAI CEO Altman宣布已与五角大楼就机密网络部署达成协议,声称包含禁止大规模国内监控和全自主武器两条红线。Hegseth转发表示欢迎,副部长Michael称赞OpenAI是"可靠合作伙伴"。3月1日OpenAI发表博文详述协议细节,但Axios报道指出关键差异:合同未明确禁止AI辅助收集美国人公开信息(如地理位置、浏览数据),而这正是Anthropic坚持要求的核心条款。Altman承认协议"匆忙达成、观感不佳"。Techdirt指出合同引用的行政令12333号正是NSA用于规避国内监控限制的法律依据。
2026年2月27日晚间,Anthropic在官网发表声明,称尚未收到五角大楼或白宫的直接通知,对事态发展"深感悲痛"。声明指出将供应链风险标签用于美国公司属"史无前例",此前仅用于外国敌对实体,并宣布将在法庭上挑战这一定性。Anthropic援引联邦法律10 USC 3252条指出,供应链风险标签仅能限制Claude在国防部合同中的使用,不能影响承包商为其他客户使用Claude的方式,也不影响商业API、claude.ai或企业授权。声明最后强调:"国防部的任何恐吓或惩罚都不会改变我们在大规模国内监控和全自主武器问题上的立场。"
2026年2月27日下午,特朗普在Truth Social发文称Anthropic是"左翼疯子",下令所有联邦机构"立即停止"使用Anthropic技术,对已嵌入军事平台的五角大楼给予六个月过渡期。截止时间5:01 PM过后,Hegseth在X上宣布将Anthropic列为"国家安全供应链风险",禁止任何军事承包商、供应商或合作伙伴与Anthropic开展商业活动。GSA同日将Anthropic从联邦AI测试平台USAi.gov移除。特朗普还警告Anthropic在过渡期内若不配合,将动用"总统全部权力"追究民事和刑事责任。参议员Warner批评此举可能是为向特定供应商输送合同的借口,前白宫AI高级政策顾问Dean Ball称此举是123"企图谋杀一家企业"。
2026年2月26-27日,来自Google和OpenAI的超过360名员工联名签署公开信,声援Anthropic坚持AI军事使用红线的立场。信中称"五角大楼正在与Google和OpenAI谈判,试图让它们同意Anthropic所拒绝的条件",指控军方试图"用恐惧分化各家公司",呼吁两家公司领导层"放下分歧,站在一起"。同日,OpenAI CEO Sam Altman通过内部备忘录和CNBC采访表示,OpenAI也持有与Anthropic相同的红线,认为五角大楼不应威胁动用《国防生产法》。Google DeepMind首席科学家Jeff Dean则以个人身份在X上发帖反对大规模监控。两党国会议员也要求五角大楼撤回最后通牒,共和党参议员Tillis批评此事"幼稚"。
2026年2月25-26日,五角大楼向波音和洛克希德·马丁等主要国防承包商发出询问,要求评估对Claude的依赖程度,这是将Anthropic列为"供应链风险"的初步步骤。Lawfare分析指出动用《国防生产法》强制AI公司交出技术存在重大法律不确定性。2月26日,Anthropic发表声明称五角大楼隔夜发来的新合同语言"几乎没有进展",CEO Amodei在博客中指出五角大楼的威胁"本质上自相矛盾",表示"无论如何不会改变立场"。五角大楼发言人回应"不会让任何公司决定作战决定",副部长Michael指控Amodei"有上帝情结"。
2026年2月25日,Anthropic发布RSP第三版,移除了此前"在安全措施不足时暂停训练"的核心承诺。新政策改为:仅在公司认为自己显著领先竞争对手且判断灾难性风险确实存在时,才会考虑"延迟"开发。新框架以"前沿安全路线图"和"风险报告"取代硬性约束,定位为"非约束性公开目标"。Anthropic表示,若一家负责任的开发者单方面暂停而竞争对手继续推进,"可能导致世界更不安全"。独立评估机构METR的Chris Painter警告称这表明"社会尚未准备好应对AI带来的潜在灾难性风险"。
2026年2月24日,国防部长Hegseth与Anthropic CEO Dario Amodei会面,发出最后通牒:要求Anthropic在周五(2月28日)17:01前取消对军方的AI使用限制,否则将面临终止2亿美元合同、被列为"供应链风险"(通常仅用于外国敌对企业如华为),以及被动用《国防生产法》强制征用技术等后果。Anthropic坚持其两条红线不可妥协:不允许Claude用于自主武器系统和大规模国内监控。xAI的Grok已同意以"任何合法用途"标准进入机密系统。
2026年2月9日,Anthropic安全防护研究团队负责人Mrinank Sharma公开辞职,在给同事的信中称"世界正处于危险之中",表示自己"反复目睹让价值观真正主导行动是多么困难",员工"不断面临搁置最重要事物的压力"。Sharma于2023年加入公司,此前曾在牛津大学获得机器学习博士学位。他的离职被视为Anthropic内部安全理念与商业压力紧张关系的信号。
2026年1月9日,国防部长Hegseth发出备忘录,要求AI模型用于所有合法军事用途,"不受个别AI公司使用政策的约束",在180天内将所有国防部AI合同统一纳入"任何合法用途"条款。同月,美军在突袭委内瑞拉、逮捕前总统马杜罗的行动中通过Palantir平台使用了Claude。一名Anthropic员工随后向Palantir询问Claude是否被用于此次行动,Palantir上报五角大楼,Hegseth对此反应愤怒,双方矛盾由此升级。
2025年5月,Anthropic宣布无法排除其模型在生物恐怖主义方面的风险,激活ASL-3级安全防护措施,部署针对CBRN威胁的专门分类器和防御系统。同年7月,五角大楼分别与Anthropic、OpenAI、Google DeepMind和xAI签订两年期合同,每份最高2亿美元。Anthropic的Claude成为首个获准部署在军方机密网络上的商用AI模型,通过Palantir运行,合同中包含Anthropic要求的使用政策限制条款。
2023年9月,Anthropic发布业内首份"负责任扩展政策"(RSP),核心承诺为:若AI模型能力超出安全保障能力,将暂停训练和部署。政策引入"AI安全等级"(ASL)体系,推动OpenAI和Google DeepMind采纳类似框架。2024年10月发布RSP第二版,引入更灵活的风险评估框架,但保留核心暂停承诺,并任命首席科学官Jared Kaplan为负责任扩展官。