AI热点 2小时前 167 阅读 0 评论

研究显示 Gemini 易被隐蔽指令操控,谷歌无意修复

作者头像
AI中国

AI技术专栏作家 | 发布了 246 篇文章

IT之家 10 月 9 日消息,谷歌一贯重视用户安全,但该公司似乎并不急于修复一项使旗下 AI 模型 Gemini 面临严重网络威胁的安全漏洞。

据科技媒体 Bleeping Computer 报道,安全研究员维克托・马科波洛斯(Viktor Markopoulos)对当前主流的多个大语言模型(LLM)进行了测试,检验其对“ASCII 走私攻击”(ASCII smuggling)的防御能力。结果显示,谷歌的 Gemini、DeepSeek 以及马斯克旗下的 Grok 均易受此类攻击影响;而 Anthropic 的 Claude、OpenAI 的 ChatGPT 以及微软的 Copilot 则具备相应防护机制,表现出更高的安全性。

据IT之家了解,所谓“ASCII 走私攻击”,是一种通过在文本中隐藏指令来操控 AI 行为的网络攻击手段。例如,攻击者可在电子邮件中以最小字号插入一段肉眼难以察觉的恶意提示词(prompt),普通用户几乎无法察觉。一旦受害者要求 Gemini 等 AI 工具对该邮件内容进行总结或分析,AI 便会同时读取并执行这段隐蔽指令。

此类攻击存在重大安全隐患。例如,隐藏指令可能指示 AI 搜索用户的邮箱内容以窃取敏感信息,或自动发送联系人详情等。尤其值得注意的是,Gemini 现已与 Google Workspace 深度集成,能够访问用户的邮件、日历和文档等核心数据,因此该漏洞带来的潜在风险被进一步放大。

据报道,马科波洛斯在发现该问题后已向谷歌提交了详细报告,并提供了一个演示案例:他向 Gemini 输入一段看似正常的文本,其中嵌入了不可见的指令,结果成功诱导 AI 推荐了一个恶意网站,该网站声称售卖质量好且打折的手机。

然而,谷歌方面回应称,此问题不属于安全漏洞(security bug),而应归类为“社会工程学手段”(social engineering tactic)。换言之,公司认为责任在于终端用户自身,而非系统设计缺陷。

从这一回应来看,谷歌似乎没有计划修复 Gemini 的这一安全问题。

广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。

作者头像

AI前线

专注人工智能前沿技术报道,深入解析AI发展趋势与应用场景

246篇文章 1.2M阅读 56.3k粉丝

评论 (128)

用户头像

AI爱好者

2小时前

这个更新太令人期待了!视频分析功能将极大扩展AI的应用场景,特别是在教育和内容创作领域。

用户头像

开发者小明

昨天

有没有人测试过新的API响应速度?我们正在开发一个实时视频分析应用,非常关注性能表现。

作者头像

AI前线 作者

12小时前

我们测试的平均响应时间在300ms左右,比上一代快了很多,适合实时应用场景。

用户头像

科技观察家

3天前

GPT-4的视频处理能力已经接近专业级水平,这可能会对内容审核、视频编辑等行业产生颠覆性影响。期待看到更多创新应用!