AI热点 2月前 68 阅读 0 评论

硅谷又掀起口水战:OpenAI等公司齐称xAI不负责任

作者头像
AI中国

AI技术专栏作家 | 发布了 246 篇文章

马斯克名下公司xAI开发的人工智能模型Grok因多次发表敏感、争议性言论而引发关注,这让人工智能的安全性问题再次被大加讨论。

OpenAI、Anthropic和其他美国人工智能研究组织的研究人员纷纷发表了对xAI的谴责,认为该公司在人工智能模型安全性问题上行事鲁莽、完全不负责任。

周二,在OpenAI从事安全研究的哈佛大学计算机科学教授Boaz Barak在X上公开批评称,他本来不想发表关于Grok安全性方面的文章,因为他的公司与其存在竞争,但此事无关竞争。他很欣赏xAI的科学家和工程师,但他们处理安全问题的方式完全不负责任。

Barak对xAI不发布系统卡的决定尤其不满。美国AI行业一般会在模型公布后发布系统卡,其中详细说明了模型的训练方法和安全评估,以与研究界分享信息。但Barak表示,现在学界和业界对Grok 4进行了哪些安全训练一无所知。

立场倒转

xAI的Grok 4模型于上周三推出,用户需支付每月30美元的订阅费用才能使用。然而,这一被宣传为“世界上最聪明”的聊天机器人在短短一周内数次掀起美国的舆论风浪,发表了诸如支持希特勒、好莱坞被犹太人掌控等言论。

Anthropic的人工智能安全研究员Samuel Marks表示,xAI在模型安全问题上十分鲁莽。虽然Anthropic、OpenAI和谷歌的发布也存在问题,但他们至少做了一些事情,在部署模型前评估安全性并记录了调查结果。xAI却什么都没有。

OpenAI和谷歌在及时分享新模型的系统卡方面声誉不佳。比如OpenAI不发布GPT-4.1的系统卡,理由是它并非前沿模型。谷歌则在发布Gemini 2.5 Pro数月后才发布安全报告。

然而,这些公司通常都会在前沿模型全面投入生产之前发布安全报告,而xAI的做法与行业惯例截然不同。一名研究人员声称,根据其测试,Grok 4没有任何有意义的安全护栏。

xAI安全顾问兼人工智能安全中心主任Dan Hendrycks回应,该公司对Grok 4进行了危险能力评估。但评估结果并未被公开分享。

令人诟病的是,马斯克此前一直以人工智能安全倡导者的形象出现,多次警告称,先进的人工智能系统可能会给人类带来灾难性的后果。他还多次抨击OpenAI在模型安全性上的瑕疵,但没想到他自己公司的Grok 4模型也陷入了安全性争议。

本文来自微信公众号“财联社AI daily”,作者:马兰,36氪经授权发布。

作者头像

AI前线

专注人工智能前沿技术报道,深入解析AI发展趋势与应用场景

246篇文章 1.2M阅读 56.3k粉丝

评论 (128)

用户头像

AI爱好者

2小时前

这个更新太令人期待了!视频分析功能将极大扩展AI的应用场景,特别是在教育和内容创作领域。

用户头像

开发者小明

昨天

有没有人测试过新的API响应速度?我们正在开发一个实时视频分析应用,非常关注性能表现。

作者头像

AI前线 作者

12小时前

我们测试的平均响应时间在300ms左右,比上一代快了很多,适合实时应用场景。

用户头像

科技观察家

3天前

GPT-4的视频处理能力已经接近专业级水平,这可能会对内容审核、视频编辑等行业产生颠覆性影响。期待看到更多创新应用!