【OPENAI】与国防部的分类部署协议要点

OpenAI 宣布与美国国防部就在机密环境中部署先进 AI 系统达成协议,明确三大红线(禁止大规模国内监控、禁止指挥自主武器、禁止用于高风险自动决策)并通过云端部署、公司安全栈与已审查工程师参与等多层保护措施来落实。协议补充条款进一步强调遵守美法(包括第四修正案、国家安全法和 FISA),并要求同等条款向其他 AI 实验室开放以促进合作与监督。

概览
– 时间:2026-02-28(3月2日更新补充条款)
– 对象:OpenAI 与美国国防部(Department of War)就机密环境的 AI 部署达成协议

三大红线(核心限制)
– 禁止将 OpenAI 技术用于大规模国内监控,包括通过商业获取的个人或可识别信息进行监控。
– 禁止用于直接指挥自主武器系统。
– 禁止用于高风险的自动化决策(如“社会信用”类系统)。

落实机制(多层防护)
– 部署架构:仅云端部署,运行由 OpenAI 控制的安全栈,不向政府交付“关闭护栏”的模型或在边缘设备上部署。可独立验证是否遵守红线并更新分类器。
– 合同条款:明确仅用于合法目的、遵守适用法律与 DoD 指令(如 3000.09),情报活动中处理私人信息须符合第四修正案、国家安全法、FISA 与相关执行令,禁止对美國人进行不受限的监控,且不用于国内执法(除法律允许情况)。
– 人员与监督:有经过许可的 OpenAI 工程师前置支持,安全与对齐研究人员参与审查与监督。

治理与协同
– 国防部将组建包含前沿 AI 实验室、云服务商与部门政策/业务代表的工作组,OpenAI 将参与以持续沟通新兴能力、隐私与国家安全挑战。
– OpenAI 要求政府将相同条款向所有 AI 实验室开放,旨在降低紧张并推动民主监督下的合作路径。

常见问答要点
– 为什么签约:OpenAI 认为美军需要可靠的强大模型来应对威胁,但此前尚未准备好向机密部署放宽安全措施;本次签约是在保持关键技术护栏前提下达成的。
– 与其他厂商差异:OpenAI 主张比仅靠使用政策更完善的多层技术与合同保障,并认为自家协议护栏多于此前公开的协议(如 Anthropic 所述)。

限制与合规强调
– 协议反复强调对美国宪法与现行国家安全与监控法律的遵守,并将相关限制写入合同以便明确边界。

结论
– 这是一次在法律、技术与运营层面相互结合的尝试,目的是在不放松关键安全护栏的前提下,向国防部门提供受控的机密环境AI能力,并推动跨实验室的监管与合作框架。

这是一次试图在国家安全需求与技术安全护栏之间寻找平衡的实践,但能否长期奏效仍取决于执行与外部监督。

原文链接

Leave a Comment