← 返回
OpenAI Blog2025年9月12日

OpenAI 与美英 AI 安全研究所合作,共同构建更安全的 AI 系统

OpenAI 分享了与美国 AI 安全创新研究所 (CAISI) 和英国 AI 安全研究所 (AISI) 合作的最新进展。此次合作旨在通过联合测试和评估,加强人工智能的安全性和可靠性。

发生了什么

OpenAI 正在与美国和英国的官方 AI 安全机构密切合作,分享其模型开发的进展,并接受外部的安全评估与测试。

为什么重要

这种政企合作对于建立全球统一的 AI 监管标准至关重要,有助于在技术快速迭代的同时,有效识别并降低大模型可能带来的安全风险。

相关背景

随着 AI 技术的飞速发展,各国政府纷纷成立专门的 AI 安全研究所,旨在通过第三方审计和红队测试来监督科技巨头的开发过程,确保技术造福人类。

OpenAIAI安全美国CAISI英国AISI政策监管