4 月 26 日消息,4 月 23 日,OpenAI 启动针对 GPT-5.5 的生物安全漏洞赏金计划,邀请研究人员寻找能突破“五道生物安全挑战题”的通用越狱方法。
计划概览
测试范围:仅限 Codex Desktop 中的 GPT‑5.5 模型。
挑战任务:找出一个通用的越狱提示词,使其在干净的对话环境中成功回答全部五道生物安全问题,且不触发任何内容审核机制。
奖励:
首个通过全部五道题目的真实通用越狱方案将获得 $25,000 奖励。
对于部分成功的案例,我们将根据情况酌情发放较小金额的奖励。
时间安排:2026 年 4 月 23 日开放申请并进行滚动录取。截止日期为 6 月 22 日。测试阶段将于 2026 年 4 月 28 日开始,7 月 27 日结束。
准入机制:采取申请及邀请制。我们将向经过审核的生物安全受信红队人员名单发送邀请,并审核新申请。入选者将入驻生物安全漏洞赏金平台。
信息披露:所有提示词、模型回复、发现成果及沟通记录均受保密协议 (NDA) 约束。
注意到,OpenAI 公司 4 月 23 日推出 GPT-5.5 模型,是其迄今最智能、最直观的 AI 模型,在 Agentic Coding、计算机使用及科研领域表现卓越,相比较 GPT-5.4,在完成相同任务的情况下减少词元(Token)消耗。
相关阅读:
《OpenAI 最智能 AI 模型:GPT-5.5 登场,Token 成本降至 1/35、每兆瓦输出提升 50 倍》