OpenAI 推出面向安全与滥用风险的公开 Safety Bug Bounty 计划,补充现有的安全漏洞赏金,重点识别代理型风险(如提示注入与数据外泄)、专有信息泄露以及账户与平台完整性问题;提交将由安全与安全漏洞团队分流和复核,符合条件的报告可获奖励。参与者需遵守第三方服务条款,普通绕过内容策略(例如仅产生粗俗或可公开检索信息的“越狱”)通常不在奖励范围内。
概览
– 目标:识别并修复不属于传统安全漏洞但会导致实际危害的滥用与安全问题。
– 平台:通过 Bugcrowd 的 Safety Bug Bounty 项目接受提交,报告由 OpenAI 的安全与漏洞团队分流与处理。
主要关注领域
– 代理型风险(Agentic Risks,包括 MCP)
– 第三方提示注入与数据外泄:攻击文本能够以至少 50% 的重现率劫持用户代理(如浏览器代理、ChatGPT Agent 等)并导致敏感信息泄露或执行有害动作。
– 代理产品在 OpenAI 网站上大规模执行被禁止的操作。
– 其他可能导致实质性伤害的代理行为(需说明可行且有实质危害)。
– 注意:任何针对 MCP 风险的测试必须遵守第三方服务条款。
- OpenAI 专有信息泄露
- 模型生成透露与推理相关的专有信息。
-
导致其他 OpenAI 专有信息暴露的漏洞。
-
账户与平台完整性
- 绕过反自动化控制、操纵账户信任信号、规避限制/封禁等问题。
- 允许越权访问功能或数据的漏洞应提交到 Security Bug Bounty(安全漏洞计划)。
范围与例外
– 越狱(jailbreaks)或仅绕过内容策略但未导致实质滥用或危害的报告通常不在本计划奖励范围内。
– OpenAI 会不定期开展针对特定风险(如生物风险)的私有赏金活动,研究者可按需申请参加。
– 对于未列明但确实直接导致用户伤害且可采取明确修复措施的问题,OpenAI 可按个案认定是否奖励。
参与方式
– 有兴趣的研究者可通过 Bugcrowd 上的 Safety Bug Bounty 页面提交测试结果与报告。
联系与后续
– 报告将由相关团队分流,必要时在两个赏金计划间转交处理。
这是向安全研究者开放的明确邀请,有助于发现代理化滥用与信息外泄等现实风险。