返回首页
深度观察2025-12-28

2025 年度 AI 安全报告:大模型如何更安全?

OpenAI 安全团队发布年度报告,详细阐述了在防止 AI 幻觉、偏见以及恶意利用方面的最新研究成果和防护机制...

2025 年度 AI 安全报告:大模型如何更安全?
  ## AI 安全:发展的基石

  随着 AI 能力的指数级增长,安全问题变得前所未有的重要。OpenAI 安全系统团队(Safety Systems)近日发布了《2025 年度 AI 安全与对齐报告》。

  ### 关键发现

  1.  **幻觉率大幅降低**:通过引入"基于事实的强化学习"(RLBF),GPT-5 系列模型的幻觉率比 GPT-4 降低了 95%。
  2.  **红队测试常态化**:OpenAI 现在拥有超过 500 人的专职红队测试团队,每天对模型进行数百万次的高强度攻击测试。
  3.  **水印技术普及**:所有由 OpenAI 模型生成的图片、视频和音频,现在都强制嵌入了不可见的 C2PA 标准数字水印,方便公众识别。

  ### 我们的承诺

  OpenAI CEO Sam Altman 表示:"我们不会发布任何我们认为不安全的模型,无论它的能力有多强。安全永远是我们的第一优先级。"

本文由 CHATGPT中文网 原创/整理,转载请注明出处。