4月5-7日,《金融时报》报道英国政府正积极游说Anthropic在伦敦扩张业务。英国科学、创新与技术部已起草具体提案,包括扩建Anthropic伦敦办公室、设立4000万英镑研究实验室,以及在伦敦证券交易所进行双重股票上市。伦敦市长Sadiq Khan亲自致函Anthropic CEO Amodei,称伦敦将为先进AI提供"稳定、适度和支持创新的环境"。Amodei计划5月底访问英国,届时英国官员将正式提交扩张方案。Anthropic目前在英国已有约200名员工,并于去年聘请前首相Rishi Sunak担任高级顾问。OpenAI和Google DeepMind已在伦敦设有大型办公室,英国此次力邀Anthropic被视为AI竞争中的关键举措。分析人士认为,英国将Anthropic拒绝武器化AI的立场视为吸引其的卖点,与Anthropic在与五角大楼对峙后寻求国际多元化的需求相契合。
Reuters / U.S. News
Business Standard
4月3日,Anthropic向联邦选举委员会(FEC)提交组织声明,正式成立"AnthroPAC"——一个由员工自愿出资的政治行动委员会,根据联邦法律每人每年捐款上限为5000美元。AnthroPAC将由两党董事会监督,定位为跨党派支持AI政策领域的现任议员和新兴候选人。Axios称这是Anthropic在AI政策辩论日益升温的背景下,首次为员工提供向候选人捐款的渠道。此举被视为Anthropic在与五角大楼诉讼对峙的同时,向2026年中期选举布局影响力的举措。此前2026年2月,Anthropic已向倡导AI安全监管的"Public First Action"组织捐款2000万美元。分析人士指出,全行业AI相关中期选举支出已超过3亿美元,Anthropic通过PAC形式入场标志着公司政治参与度显著提升。
4月2日,美国司法部代表五角大楼向第九巡回上诉法院正式提交上诉通知,挑战旧金山联邦法官Rita Lin于3月26日颁发的初步禁令。Lin法官此前裁定供应链风险标签构成"第一修正案报复",禁止17个联邦机构执行相关指令。五角大楼副部长Michael称Lin法官的裁决为"耻辱",主张其将"破坏五角大楼与选定合作伙伴进行军事行动的能力"。Lin法官在原裁决中已设置一周暂缓期以便上诉。第九巡回上诉法院将审查该案,要求司法部在4月30日前提交上诉理由陈述。4月3日,联邦总务管理局(GSA)发表声明,遵从法院禁令撤回此前移除Anthropic的公告,恢复Anthropic技术至2月27日禁令前状态,继续在GSA Chat和联邦采购目录中提供Anthropic模型。Anthropic此前还在华盛顿特区联邦上诉法院提起了另一起涉及同一供应链风险认定的诉讼,两条法律战线并行推进。
3月24日,旧金山联邦法院法官Rita Lin主持临时限制令听证。听证中Lin法官对五角大楼律师多次表达质疑,称供应链风险认定"看起来像是试图摧毁Anthropic",质问"这似乎是一个相当低的门槛",并追问Anthropic是否因"在媒体上公开批评政府的合同立场"而受到惩罚。3月26日,Lin法官颁发初步禁令,裁定Anthropic"很可能在诉讼中胜诉"。裁决书写道:"因公开审视政府合同立场而惩罚Anthropic,是典型的违法第一修正案报复行为",并称"没有任何现行法规支持这一奥威尔式的观念——即一家美国公司可以因为表达与政府的分歧而被标记为潜在敌人和破坏者"。禁令覆盖17个联邦机构,禁止其执行特朗普的停用指令和五角大楼的供应链风险认定。然而五角大楼副部长Michael随即在社交媒体声称裁决包含"数十个事实错误",主张供应链风险标签依据41 USC 4713条"仍然有效",暗示五角大楼不会完全遵从法院命令,法律对峙进一步升级。
3月17-20日,3月24日听证日前双方密集交锋。约150名退休联邦和州法官(涵盖两党总统任命者)提交法庭之友意见书支持Anthropic,为听证前最大规模的司法界支持。政府首次正式回应,白宫发言人称总统"绝不允许一家激进左翼觉醒企业来指挥军队如何运作"。 3月18日,DOJ提交正式回应称供应链风险标签"合法且合理",主张拒绝合同条款是"行为而非受保护的言论",并提出战时情景论证:在美以对伊朗军事行动期间,拥有否决权的AI供应商可能"在战斗行动期间单方面改变模型行为"。次日,五角大楼副部长Michael在声明中指出Anthropic雇用大量外国公民——包括中国员工——构成安全风险,援引中国《国家情报法》论证。Anthropic同日在闭门会议中向众议院国土安全委员会做简报。 3月20日,Anthropic提交两份宣誓声明进行反驳。政策负责人Sarah Heck揭示关键矛盾:副部长Michael在3月4日——供应链风险认定正式化次日——向Amodei发邮件称双方在核心议题上"非常接近"达成一致,这与政府在法庭文件中将同一议题作为国家安全威胁证据形成鲜明反差。Heck还指出政府关于"Anthropic可能中途禁用技术"的担忧从未在此前谈判中被提出。公共部门负责人Ramasamy在技术层面反驳称,由于军方系统架构,Anthropic甚至无法看到政府用户输入的内容。3月24日听证将是行政部门能否将反间谍法规用于解决国内企业合同纠纷的首次司法检验。
3月9-16日,支持Anthropic的法庭之友意见书从多个方向涌入。起诉当天,来自OpenAI和Google DeepMind的数十名科学家和研究员以个人身份提交意见书,称供应链风险认定可能损害美国竞争力并抑制AI安全讨论。次日Microsoft提交意见书警告强制更改合同可能"妨碍美军作战人员"。同日Google宣布向五角大楼300万军文职人员提供Gemini AI代理,分析人士指出Anthropic遭封禁正加速竞争对手填补军方AI市场空缺。随后四大科技行业协会(CCIA、ITI、SIIA、TechNet)联合提交意见书,称供应链风险标签若成立,联邦采购体系将"取决于政治恩惠而非法治"。14名天主教伦理学者也以教会关于战争伦理和人类尊严的教导为依据提交意见书。
2026年3月9日,Anthropic向加州北区联邦地区法院和华盛顿特区联邦上诉法院分别提起诉讼,挑战五角大楼的供应链风险认定。48页诉状指控该认定违反第一修正案(因公司表达AI安全立场而遭报复)、超越供应链风险法律的适用范围、且构成非法报复行为。CFO Krishna Rao表示政府行动可能导致公司2026年收入减少数十亿美元。3月12日,Anthropic向DC巡回上诉法院提交紧急中止请求,形成双法院同步推进的诉讼格局。加州法院将临时限制令听证从4月3日提前至3月24日。
3月5日晚至6日,五角大楼正式向Anthropic送达供应链风险认定通知,使其成为美国历史上首家获此标签的本国企业——此前该标签仅用于华为等外国敌对实体。通知即时生效,要求所有国防承包商和供应商在与五角大楼相关的合同中停止使用Anthropic产品。Amodei随后发表声明称"我们不认为这一行动在法律上站得住脚,别无选择只能在法庭上挑战"。Anthropic同时指出该认定范围有限:即使对国防承包商,供应链风险标签也不能限制其在非国防合同中使用Claude或与Anthropic的商业关系。与此同时,CNN和CNBC报道指出一个显著矛盾:美军在中东对伊朗军事行动中仍在积极使用Claude,因六个月过渡期尚未结束。东北大学AI战略高级副教务长Usama Fayyad称此举开创了"坏先例"。
3月4-5日,封禁的实际影响开始显现,同时出现转机。洛克希德·马丁等国防承包商开始替换Claude,风投公司J2 Ventures称10家投资组合公司已放弃Claude。The Information获得Amodei发给员工的内部备忘录,其中称OpenAI围绕五角大楼协议的表态为"彻头彻尾的谎言",还称特朗普不满Anthropic未给予"独裁者式的赞美"。白宫官员随即表示Amodei的言论可能"毁掉"和解前景。CNN报道多名OpenAI员工也对自家公司急签协议表示不满。 3月5日出现转折。众议院金融服务委员会以16:25否决了Liccardo的反报复修正案。但同日,《金融时报》和彭博社报道Amodei已与五角大楼重启对话,告诉投资者正在"努力降温局势",寻求双方可接受的协议。前军方高级AI官员和学者签署公开信谴责五角大楼手段并呼吁恢复谈判。
3月2-4日,反对五角大楼行动的声音从政界和法律界同时涌现。参议员Wyden誓言"动用一切手段"对抗禁令,硅谷众议员Liccardo宣布将提出《国防生产法》修正案,禁止联邦机构对拒绝移除AI安全限制的科技公司进行报复。数百名科技从业者签署公开信要求撤回供应链风险标签。FCC主席Brendan Carr则站在政府一方,称Anthropic"犯了错误"。 与此同时,法律专家和现任国防官员对五角大楼的行动提出严厉质疑。Defense One援引专家称,依据10 USC 3252条,供应链风险必须涉及真实的技术破坏或后门风险,而Hegseth的理由与此无关。一名实际评估供应链威胁的国防官员称"没有证据表明Anthropic存在供应链风险",认定是"意识形态驱动"。AP的分析则指出,多年来AI公司过度营销军事能力,Anthropic此刻才划定红线本身也存在矛盾。
3月1-3日,OpenAI因抢签五角大楼协议遭遇广泛批评。多名员工公开质疑,研究员McLaughlin发帖称"不值得"获近50万浏览。MIT Technology Review分析指出OpenAI合同未赋予公司独立的使用限制权。Lawfare预测Hegseth的供应链风险标签在法律上"无法成立"。Bloomberg披露Anthropic在争端期间曾参与五角大楼1亿美元自主无人机蜂群竞赛投标。Claude因用户激增出现宕机。3月3日,Altman发布内部备忘录承认协议"匆忙且草率",宣布重新谈判:新合同将加入明确禁止国内监控条款,国防情报机构(NSA等)使用需单独授权,还将覆盖商业购买数据这一灰色地带。分析人士指出改善显著但仍未涉及自主武器问题。
2026年3月1日,《华尔街日报》报道,美国中央司令部在2月28日对伊朗的联合军事打击中使用了Anthropic的Claude AI模型,用于情报评估、目标识别和战场场景模拟。这距离特朗普下令所有联邦机构停用Anthropic技术仅数小时。报道指出,全球多个美军司令部仍在使用Claude,因特朗普的禁令附带六个月过渡期,且军方系统中Claude已深度嵌入,替换需要数月时间。此前Claude也曾在1月逮捕委内瑞拉前总统马杜罗的行动中被使用。这一披露凸显了AI技术一旦嵌入军事系统后难以快速撤除的现实困境。
2026年3月1日,Anthropic的Claude在Apple美国App Store免费应用排行榜上超越ChatGPT升至第一名。据SensorTower数据,Claude在1月底尚在前100名之外,2月进入前20,2月26日周三升至第六,27日周四升至第四,3月1日周六登顶。Anthropic发言人表示本周每日注册量连续打破历史纪录,免费用户自1月以来增长超60%,付费订阅者今年翻倍。与此同时社交媒体出现大量"卸载ChatGPT"运动,Reddit上相关帖子获得3万赞,Instagram账号"quitGPT"涨粉万人。OpenAI的Brockman此前向亲特朗普超级PAC捐款2500万美元也成为部分用户转投Claude的理由之一。Amodei在2月28日接受CBS独家专访时表示仍愿与军方合作,但前提是符合公司红线,称白宫的行为是"惩罚性"和"报复性"的。
2026年2月27日深夜,Anthropic被封禁数小时后,OpenAI CEO Altman宣布已与五角大楼就机密网络部署达成协议,声称包含禁止大规模国内监控和全自主武器两条红线。Hegseth转发表示欢迎,副部长Michael称赞OpenAI是"可靠合作伙伴"。3月1日OpenAI发表博文详述协议细节,但Axios报道指出关键差异:合同未明确禁止AI辅助收集美国人公开信息(如地理位置、浏览数据),而这正是Anthropic坚持要求的核心条款。Altman承认协议"匆忙达成、观感不佳"。Techdirt指出合同引用的行政令12333号正是NSA用于规避国内监控限制的法律依据。
2026年2月27日,事态在一天内急剧升级。当天上午,来自Google和OpenAI的超过360名员工联名签署公开信声援Anthropic,呼吁各公司"放下分歧,站在一起"。OpenAI CEO Altman通过备忘录和采访表示共享Anthropic的红线。两党国会议员也要求五角大楼撤回最后通牒。 下午,特朗普在Truth Social发文称Anthropic是"左翼疯子",下令所有联邦机构"立即停止"使用Anthropic技术,对五角大楼给予六个月过渡期。随后Hegseth宣布将Anthropic列为"国家安全供应链风险"——此前该标签仅用于华为等外国敌对实体——禁止所有军事承包商与Anthropic开展商业活动。GSA同日将Anthropic从联邦AI平台USAi.gov移除。 当晚,Anthropic发表声明称"深感悲痛",指出供应链风险标签用于美国公司属"史无前例",宣布将在法庭上挑战这一认定。Anthropic援引联邦法律指出,该标签仅能限制国防合同中的使用,不影响商业客户。声明强调:"国防部的任何恐吓或惩罚都不会改变我们在大规模国内监控和全自主武器问题上的立场。"
2026年2月25-26日,五角大楼向波音和洛克希德·马丁等主要国防承包商发出询问,要求评估对Claude的依赖程度,这是将Anthropic列为"供应链风险"的初步步骤。Lawfare分析指出动用《国防生产法》强制AI公司交出技术存在重大法律不确定性。2月26日,Anthropic发表声明称五角大楼隔夜发来的新合同语言"几乎没有进展",CEO Amodei在博客中指出五角大楼的威胁"本质上自相矛盾",表示"无论如何不会改变立场"。五角大楼发言人回应"不会让任何公司决定作战决定",副部长Michael指控Amodei"有上帝情结"。
2026年2月25日,Anthropic发布RSP第三版,移除了此前"在安全措施不足时暂停训练"的核心承诺。新政策改为:仅在公司认为自己显著领先竞争对手且判断灾难性风险确实存在时,才会考虑"延迟"开发。新框架以"前沿安全路线图"和"风险报告"取代硬性约束,定位为"非约束性公开目标"。Anthropic表示,若一家负责任的开发者单方面暂停而竞争对手继续推进,"可能导致世界更不安全"。独立评估机构METR的Chris Painter警告称这表明"社会尚未准备好应对AI带来的潜在灾难性风险"。
2026年2月24日,国防部长Hegseth与Anthropic CEO Dario Amodei会面,发出最后通牒:要求Anthropic在周五(2月28日)17:01前取消对军方的AI使用限制,否则将面临终止2亿美元合同、被列为"供应链风险"(通常仅用于外国敌对企业如华为),以及被动用《国防生产法》强制征用技术等后果。Anthropic坚持其两条红线不可妥协:不允许Claude用于自主武器系统和大规模国内监控。xAI的Grok已同意以"任何合法用途"标准进入机密系统。
2026年2月9日,Anthropic安全防护研究团队负责人Mrinank Sharma公开辞职,在给同事的信中称"世界正处于危险之中",表示自己"反复目睹让价值观真正主导行动是多么困难",员工"不断面临搁置最重要事物的压力"。Sharma于2023年加入公司,此前曾在牛津大学获得机器学习博士学位。他的离职被视为Anthropic内部安全理念与商业压力紧张关系的信号。
2026年1月9日,国防部长Hegseth发出备忘录,要求AI模型用于所有合法军事用途,"不受个别AI公司使用政策的约束",在180天内将所有国防部AI合同统一纳入"任何合法用途"条款。同月,美军在突袭委内瑞拉、逮捕前总统马杜罗的行动中通过Palantir平台使用了Claude。一名Anthropic员工随后向Palantir询问Claude是否被用于此次行动,Palantir上报五角大楼,Hegseth对此反应愤怒,双方矛盾由此升级。
2025年5月,Anthropic宣布无法排除其模型在生物恐怖主义方面的风险,激活ASL-3级安全防护措施,部署针对CBRN威胁的专门分类器和防御系统。同年7月,五角大楼分别与Anthropic、OpenAI、Google DeepMind和xAI签订两年期合同,每份最高2亿美元。Anthropic的Claude成为首个获准部署在军方机密网络上的商用AI模型,通过Palantir运行,合同中包含Anthropic要求的使用政策限制条款。
2023年9月,Anthropic发布业内首份"负责任扩展政策"(RSP),核心承诺为:若AI模型能力超出安全保障能力,将暂停训练和部署。政策引入"AI安全等级"(ASL)体系,推动OpenAI和Google DeepMind采纳类似框架。2024年10月发布RSP第二版,引入更灵活的风险评估框架,但保留核心暂停承诺,并任命首席科学官Jared Kaplan为负责任扩展官。