法院对Anthropic公司Claude供应链风险标签的裁决,实际上为AI厂商进入军工市场设立了首个具有法律约束力的边界。这起案件的核心从未仅仅是一个标签问题——它确立了AI企业在国防市场营销中必须遵守的具有法律强制力的限制。
美国哥伦比亚特区联邦巡回上诉法院维持了军事场景下Anthropic Claude的供应链风险标签要求,直接推翻了此前下级法院对该公司的有利裁决。Anthropic目前面临两份相互冲突的法院判决,且没有明确的解决路径。上诉法院认定,供应链风险披露义务适用于寻求国防合同的AI公司——与约束传统军工企业的规则相同。
这种监管模糊造成了直接的现实困境。政府合同官员现在面对的是相互矛盾的司法指引,对AI系统是否需要供应链风险标签莫衷一是。Anthropic无法同时满足两份判决的要求。分割的司法管辖意味着不同联邦机构可能面临不同的法律标准。
Anthropic辩称,该标签实际上将Claude排除在国防市场之外,这种解读已经超出了供应链风险监管立法的原始意图。公司坚称AI系统与传统硬件供应链存在本质差异,现有法规未考虑到软件模型部署的特殊性。国防支持者则反驳,供应链透明度对可能影响军事决策的AI系统同样至关重要。政府则主张其有权要求披露部署于国家安全场景的任何系统的组件和训练数据来源。
该裁决的影响远超Anthropic本身。微软、谷歌、Palantir等所有寻求国防合同的AI巨头,现在都面临一个新兴法律框架的约束——可能要求供应链披露。这份矛盾必须通过最高法院审查、国会澄清立法或某一巡回法院遵循另一法院先例来解决。五角大楼需要明确采购标准。国防承包商需要知道其AI依赖系统的适用标准。监管缺口不解决,将决定哪些AI产品进入国防供应链,哪些只能困守商业市场。