← 返回
OpenAI Blog2025年9月5日

OpenAI 悬赏 2.5 万美元:邀请研究员测试 GPT-5 生物安全漏洞

OpenAI 发起“生物漏洞赏金计划”,邀请研究人员利用通用越狱提示词测试 GPT-5 的安全性。参与者若能发现潜在风险,最高可获得 2.5 万美元的奖金。

发生了什么

OpenAI 启动了一项针对 GPT-5 的生物安全漏洞赏金计划,鼓励研究人员尝试通过“越狱”手段诱导模型产生生物安全风险,并为此提供最高 25,000 美元的奖励。

为什么重要

这标志着 OpenAI 在发布下一代旗舰模型 GPT-5 前,正加大力度进行红队测试,以确保模型不会被滥用于制造生物威胁,从而提升 AI 的安全性与合规性。

相关背景

随着大模型能力的增强,监管机构日益担心 AI 可能被用于获取危险生物知识。OpenAI 此前已建立安全框架,此次活动是其安全评估流程的重要组成部分。

OpenAIGPT-5AI安全漏洞赏金生物安全