OpenAI 宣布与独立专家合作评估前沿 AI 系统。通过第三方测试,旨在增强安全性、验证防护措施,并提高模型能力与风险评估的透明度。
OpenAI 正在通过引入外部独立专家的第三方测试来强化其安全生态系统,重点在于评估前沿模型的风险。
这种做法可以验证现有的安全保障措施,增加评估过程的透明度,并确保 AI 系统在发布前经过严格的风险审查。
随着 AI 模型能力的提升,安全性成为核心议题。OpenAI 此前已建立红队测试等机制,此次强调外部协作是其安全承诺的延续。