← 返回
OpenAI Blog2025年7月17日

OpenAI 发布生物安全漏洞悬赏计划

OpenAI 邀请研究人员参与其“生物安全漏洞悬赏”项目。参与者需通过通用越狱提示词测试 ChatGPT 智能体的安全性,最高可获得 2.5 万美元奖金。

发生了什么

OpenAI 发起了一项专门针对生物安全领域的漏洞悬赏活动,鼓励安全研究人员尝试使用“通用越狱提示词”来突破 ChatGPT 智能体的安全限制。

为什么重要

随着 AI 在科学领域的应用日益广泛,防止 AI 被误用或恶意引导产生生物安全风险变得至关重要。此举旨在通过社区力量提前发现并修复潜在的安全漏洞。

相关背景

OpenAI 一直在加强其模型的安全性评估,此前已设立过常规的漏洞悬赏计划。此次针对生物安全领域的专项悬赏,反映了业界对大模型可能被用于制造生物威胁的担忧。

OpenAIChatGPTAI安全漏洞悬赏生物安全