OpenAI 分享了与美国 AI 安全创新研究所 (CAISI) 和英国 AI 安全研究所 (AISI) 合作的最新进展。此次合作旨在通过联合测试和评估,加强人工智能的安全性和可靠性。
OpenAI 正在与美国和英国的官方 AI 安全机构密切合作,分享其模型开发的进展,并接受外部的安全评估与测试。
这种政企合作对于建立全球统一的 AI 监管标准至关重要,有助于在技术快速迭代的同时,有效识别并降低大模型可能带来的安全风险。
随着 AI 技术的飞速发展,各国政府纷纷成立专门的 AI 安全研究所,旨在通过第三方审计和红队测试来监督科技巨头的开发过程,确保技术造福人类。