OpenAI 发起“生物漏洞赏金计划”,邀请研究人员利用通用越狱提示词测试 GPT-5 的安全性。参与者若能发现潜在风险,最高可获得 2.5 万美元的奖金。
OpenAI 启动了一项针对 GPT-5 的生物安全漏洞赏金计划,鼓励研究人员尝试通过“越狱”手段诱导模型产生生物安全风险,并为此提供最高 25,000 美元的奖励。
这标志着 OpenAI 在发布下一代旗舰模型 GPT-5 前,正加大力度进行红队测试,以确保模型不会被滥用于制造生物威胁,从而提升 AI 的安全性与合规性。
随着大模型能力的增强,监管机构日益担心 AI 可能被用于获取危险生物知识。OpenAI 此前已建立安全框架,此次活动是其安全评估流程的重要组成部分。