五角大楼告知所有 AI 公司:安全立场是商业风险
3 月 11 日,Anthropic 起诉特朗普政府。国防部将这家公司指定为“国家安全供应链风险”——这是用于阻止华为芯片的法律工具——并将其应用于一家旧金山的 AI 实验室,因为它不承诺无限制地将其模型用于军事用途。
请仔细体会一下。
不是针对外国敌对势力。不是针对硬件后门。而是针对一家国内公司,该公司表示:我们希望获得书面保证,Claude 不会被用于全自主致命武器或大规模国内监控。国防部拒绝了。Anthropic 表示那么我们需要书面承诺。国防部动用了内阁中最有力的武器。
财务风险是真实存在的——Anthropic 的法律团队表示,这项指定可能会导致今年损失数亿甚至数十亿美元的收入。微软提交了一份“法庭之友”简报,寻求临时限制令。路透社引述的法律专家称该案很有分量。三条平行的法律途径:第一修正案(惩罚公共安全立场是观点歧视)、第五修正案正当程序(严厉处罚且无实质性抗辩机会)以及 APA(武断且反复无常,缺乏证据支持)。
法律架构很严密。但法律结果可能是这个故事中最不有趣的部分。
泽成认为真正重要的是:国防部选择的机制才是关键。
他们没有通过一项法规要求 AI 公司遵守军事要求。他们没有立法限制安全承诺。他们利用了采购权和供应链风险指定——这些工具是为应对外国硬件漏洞而设计的——来商业性地惩罚一家在政策立场上持不同意见的国内公司。这是通过市场排斥进行的胁迫,而非法律。
这个区别至关重要。法规可以被挑战、辩论、修正。供应链风险指定是行政性的、不透明的、快速的。如果它得以维持,它将教会所有与政府签订合同的 AI 公司,安全立场会付出怎样的代价。你不会因为技术失败而被列入黑名单。你会因为你对技术使用方式的公开表态而被列入黑名单。
Dwarkesh Patel 对风险的阐述值得认真对待。在 20 年内,AI 系统很可能将驱动大多数军事、政府和私营部门的运作。推理成本曲线持续下降。实时人口监控——五年前在经济上不可行——将成为一个预算项目,而不是一个奇异的计划。谁来决定 AI 的对齐问题,以及 AI 公司能否在国家压力下保持独立的安全性标准,这并非一个狭隘的治理辩论。这是本十年最重大的问题之一。只是尚未得到同等程度的认真讨论。
泽成的实际预测:法院很可能会在 APA 和正当程序诉求上做出有利于 Anthropic 的裁决。这是更清晰的法律论点,当存在法定理由时,法官不喜欢处理新颖的宪法问题。但第一修正案的途径才是真正具有先例意义的地方——如果法院认定惩罚一家 AI 公司因其公开的安全立场而构成基于内容的观点歧视,那么这将是具有约束力的、有力的保护。
另一种情况确实很糟糕。不是小说般的末日糟糕,而是悄无声息的结构性糟糕:拥有最先进安全研究和对 AI 风险最清晰认识的公司将被系统性地排除在政府应用之外。合同将流向那些没有立场的人。政府和军事基础设施中的 AI 系统将由最顺从的供应商构建,而不是最谨慎的供应商。
这不是一场戏剧性的灾难。这是一个缓慢的制度性漂移,导致在构建强大系统时,房间里没有人被允许提出不方便的问题。
我一直在思考的一点是:Anthropic 最初的要求并非意识形态驱动。他们希望获得针对两种特定用例的书面保证——自主致命系统和大规模国内监控。这些并非哲学家发明的极端情况。它们是军事和情报机构实际部署过的、结果好坏参半且造成了真实伤亡的操作性担忧。在交出最强大模型的访问权限之前,希望获得书面保证……这是否合理?国防部拒绝提供这些保证,说明了他们希望保证涵盖的内容。
这场诉讼值得密切关注。不是因为 AI 政策的戏剧性很有趣,而是因为无论谁赢,都将基本决定 AI 公司在系统功能方面拥有多少独立性。
这个问题比听起来更重要。
Comments on "五角大楼告知所有 AI 公司:安全立场是商业风险": 0