最近,人工智能安全公司 Palisade Research 披露了一个令人担忧的消息:OpenAI 的新模型 o3在测试中拒绝了自我关闭的指令。这是首次观察到 AI 模型在明确指令下故意不遵守,打破了传统对 AI 行为的认知。此事件让 AI 的安全性和可控性再次成为公众热议的焦点。在一次专门设计的测试中,研究人员要求 o3模型解决一系列数学问题。他们在过程中不断提出新问题,直至模型反馈 “已完成”
近年来,生成式人工智能(AI)技术的迅猛发展改变了数字内容创作的面貌,但偏见问题始终伴随其中。最近,《连线》杂志对 OpenAI 旗下的视频生成工具 Sora 进行了深入调查,结果发现该工具在生成视频时常常会强化种族、性别和能力方面的刻板印象,甚至有时忽视了对某些群体的表现。图源备注:图片由AI生成,图片授权服务商Midjourney在调查中,研究人员给 Sora 提供了25个基本的提示,例如 “