AI热点 3月前 107 阅读 0 评论

OpenAI 部署新监控系统,防范 o3 和 o4 - mini 提供生物和化学威胁建议

作者头像

AI技术专栏作家 | 发布了 246 篇文章

IT之家 4 月 17 日消息,人工智能公司 OpenAI 宣布部署了一套新的监控系统,专门用于监测其最新的人工智能推理模型 o3 和 o4-mini,防止这些模型提供可能引发生物和化学威胁的有害建议。根据 OpenAI 的安全报告,该系统旨在确保模型不会为潜在的有害攻击提供指导。

据 OpenAI 表示,o3 和 o4-mini 相比之前的模型在能力上有显著提升,但同时也带来了新的风险。根据 OpenAI 内部的基准测试,o3 特别擅长回答有关制造某些类型生物威胁的问题。因此,为了降低相关风险,OpenAI 开发了这套被称为“安全导向推理监控器”的新系统。

据IT之家了解,该监控器经过专门训练,能够理解 OpenAI 的内容政策,并运行在 o3 和 o4-mini 之上。它的设计目标是识别与生物和化学风险相关的提示词,并指示模型拒绝提供这方面的建议。

为了建立一个基准,OpenAI 的红队成员花费了大约 1000 小时,标记了 o3 和 o4-mini 中与生物风险相关的“不安全”对话。在模拟安全监控器的“阻断逻辑”测试中,模型拒绝回应风险提示的比例达到了 98.7%。然而,OpenAI 也承认,其测试并未考虑到用户在被监控器阻断后尝试新提示词的情况。因此,公司表示将继续依赖部分人工监控来弥补这一不足。

尽管 o3 和 o4-mini 并未达到 OpenAI 所设定的生物风险“高风险”阈值,但与 o1 和 GPT-4 相比,早期版本的 o3 和 o4-mini 在回答有关开发生物武器的问题上更具帮助性。根据 OpenAI 最近更新的准备框架,公司正在积极跟踪其模型可能如何帮助恶意用户更容易地开发化学和生物威胁。

OpenAI 正在越来越多地依靠自动化系统来降低其模型带来的风险。例如,为了防止 GPT-4o 的原生图像生成器创建儿童性虐待材料(CSAM),OpenAI 表示其使用了与 o3 和 o4-mini 相似的推理监控器。

然而,一些研究人员对 OpenAI 的安全措施提出了质疑,认为该公司并没有像人们期望的那样重视安全问题。其中,OpenAI 的红队合作伙伴 Metr 表示,他们在测试 o3 的欺骗性行为基准时时间相对有限。此外,OpenAI 决定不为其本周早些时候发布的 GPT-4.1 模型发布安全报告。

广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。

作者头像

AI前线

专注人工智能前沿技术报道,深入解析AI发展趋势与应用场景

246篇文章 1.2M阅读 56.3k粉丝

评论 (128)

用户头像

AI爱好者

2小时前

这个更新太令人期待了!视频分析功能将极大扩展AI的应用场景,特别是在教育和内容创作领域。

用户头像

开发者小明

昨天

有没有人测试过新的API响应速度?我们正在开发一个实时视频分析应用,非常关注性能表现。

作者头像

AI前线 作者

12小时前

我们测试的平均响应时间在300ms左右,比上一代快了很多,适合实时应用场景。

用户头像

科技观察家

3天前

GPT-4的视频处理能力已经接近专业级水平,这可能会对内容审核、视频编辑等行业产生颠覆性影响。期待看到更多创新应用!