研究发现,黑客可以轻松读取你对 ChatGPT 和其他 AI 服务说的话

以色列的一组研究人员发现,包括 ChatGPT 在内的多个 AI 聊天机器人都存在严重的隐私漏洞。虽然开发人员正在加密他们的服务,但黑客仍然可以利用旁道攻击入侵

以色列本·古里安大学研究人员最近的一项研究揭示了几个人工智能聊天机器人固有的重大隐私漏洞,引发了人们对私人对话安全性的担忧。

本·古里安大学进攻性人工智能研究实验室负责人 Yisroel Mirsky 表示,恶意行为者可以利用这些漏洞窃听通过 ChatGPT 等平台进行的聊天。

Mirsky 强调,与聊天参与者共享同一 Wi-Fi 网络或局域网 (LAN) 的个人,甚至是远程恶意行为者,都可以拦截和监控对话而不被发现。

研究报告将这些漏洞定义为“旁道攻击”,即第三方通过元数据或其他间接方式被动收集数据而不是突破安全屏障的一种方法。

与直接穿透防火墙的传统黑客攻击不同,旁道攻击利用了加密协议中的弱点。尽管 OpenAI 等人工智能开发人员在加密方面做出了努力,但 Mirsky 的团队还是发现了加密实施中的缺陷,导致消息内容容易被拦截。

虽然旁道攻击通常侵入性较小,但它们却带来了巨大的风险,研究人员能够以 55% 的准确率推断聊天提示就证明了这一点。这种易受攻击性使得敏感话题很容易被恶意行为者检测到。

尽管该研究主要审查 OpenAI 的加密实践,但它表明,除谷歌的 Gemini 之外的大多数聊天机器人都容易受到类似的攻击。

这些漏洞的核心在于聊天机器人使用“令牌”,这有利于用户和人工智能模型之间的有效沟通。尽管聊天机器人的传输通常是加密的,但令牌本身却带来了一个以前被忽视的漏洞。

访问实时令牌数据使恶意行为者能够推断对话提示,类似于通过关闭的门偷听对话。

为了证实他们的发现,Mirsky 的团队采用了第二个 AI 模型来分析通过侧信道获取的原始数据。他们的实验表明,预测对话提示的成功率很高,这凸显了漏洞的严重性。

针对这些担忧,微软向用户保证,个人信息不太可能受到影响其 Copilot AI 的漏洞而泄露。不过,该公司承诺将及时更新以解决此问题,以保护客户。

这些漏洞的影响是深远的,尤其是涉及堕胎和 LGBTQ 问题等敏感话题,隐私至关重要。利用这些漏洞可能会造成严重后果,可能会危及寻求此类主题信息的个人。

随着围绕人工智能伦理和隐私的争论愈演愈烈,这些发现强调了在人工智能驱动的交互中采取强有力的安全措施来保护用户隐私的迫切需求。

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注