ChatGPT 是由 OpenAI 开发的大型语言模型 (LLM),可用于生成文本、翻译语言、编写不同类型的创意内容以及以信息丰富的方式回答您的问题。2023 年 <> 月,OpenAI 为 ChatGPT 推出了一个插件平台,允许开发人员创建扩展 ChatGPT 功能的插件。
然而,《连线》报道称,安全研究人员警告说,ChatGPT插件会带来许多安全和隐私风险。主要风险之一是插件可用于将恶意代码注入 ChatGPT 会话。这可能允许攻击者窃取数据、安装恶意软件,甚至控制用户的计算机。
另一个风险是插件可能会在用户不知情或未经他们同意的情况下用于收集用户数据。例如,插件可用于跟踪用户的浏览活动或记录他们与 ChatGPT 的对话。
艺电的安全爱好者和红队总监Johann Rehberger是业余时间一直在探索ChatGPT插件的研究人员之一。他发现了如何利用它们来访问某人的聊天记录、获取个人信息以及在未经他们同意的情况下在某人的计算机上执行代码。
他主要专注于使用OAuth的插件,OAuth是一种Web标准,使您能够在在线帐户之间共享数据。Rehberger说,他已经私下通知了几个插件开发人员这些问题,并且还尝试过几次联系OpenAI。“ChatGPT 不能信任插件,”雷贝格说。“它从根本上不能信任从插件返回的内容,因为它可能是任何东西。
OpenAI已经采取了一些措施来减轻这些风险。例如,该公司要求所有插件在发布之前都要经过OpenAI的审查。但是,安全研究人员表示,需要做更多的工作来保护用户免受ChatGPT插件带来的风险。
以下是 ChatGPT 插件带来的一些安全和隐私风险
- 恶意代码注入:插件可用于将恶意代码注入 ChatGPT 会话,这可能允许攻击者窃取数据、安装恶意软件,甚至控制用户的计算机。
- 数据收集:插件可用于在用户不知情或未经用户同意的情况下收集用户数据。例如,插件可用于跟踪用户的浏览活动或记录他们与 ChatGPT 的对话。
- 网络钓鱼攻击:插件可用于发起网络钓鱼攻击。例如,插件可用于生成看起来像真实内容的虚假 ChatGPT 会话,这可能会诱骗用户输入他们的个人信息。
今年五月,Rehberger表示,ChatGPT用户应该提防“即时注入”,这是一种新的安全威胁,允许外部人员在未经您同意的情况下操纵您的ChatGPT查询。Rehberger 通过在 ChatGPT 查询中插入新提示来证明这一点,而他没有启动该查询。
他使用了一个总结YouTube成绩单的ChatGPT插件,并编辑了成绩单以添加提示,指示ChatGPT在最后用特定的名字来称呼自己。ChatGPT遵循提示并相应地更改了名称。虽然这些提示注入相当安全,但它们突出了该方法如何用于恶意目的。