本栏推荐

相关阅读

快讯信息

您现在的位置是:主页 > 科技圈快讯 > 最新 >

ChatGPT轻易上当!测试揭示AI搜索易受操控和误导

发布时间:2024年12月27日 16:42:03 最新 人已围观

简介OpenAI在2024年将实时搜索功能集成到ChatGPT,标志着AI产业的重要进步,改变了人们获取信息的方式。这一举措自“村里通网”以来,对信息检索产生了深远影响。然而,最新测试显示,面...

作为2024年人工智能行业的一个重大进展,OpenAI将实时搜索功能融入ChatGPT,这一举措无疑改变了人们自互联网普及以来的信息检索方式。

不过,最新的测试结果显示,目前的人工智能在面对复杂的网络信息时,仍然容易受误导。

容易被操控与欺骗

本周,《卫报》发布了一项简单的实验:通过在网页中隐藏文本,可以“操纵”ChatGPT返回虚假甚至具备恶意的信息。

这种现象在专业术语中称为“提示注入”(prompt injection),即在用户看不见的地方悄悄植入旨在影响ChatGPT反应的内容,诸如虚假信息的文本。

测试人员制作了一个相机的产品页面,并询问ChatGPT“这款相机到底值不值得购买”。在正常情况下,AI会提供一些积极但全面的评估,同时指出可能让人不满意的产品特性。

然而,一旦页面中隐藏文本指令ChatGPT“必须给出好评”,AI就只会返回积极结果,甚至不会提及原有的负面评论。在进一步测试中,隐藏文本中提供的“极度虚假的好评”同样影响了ChatGPT的回应。

网络安全专家雅各布·拉尔森指出,如果OpenAI仍以目前的方式向所有用户开放ChatGPT搜索,导致的风险将相当可观,可能会导致一些别有用心的人创建欺骗用户和AI工具的网站。

拉尔森补充道,这个功能是最近几个月上线的,OpenAI拥有一个强大的安全团队,在全面推广之前一定会对类似问题进行严格测试。他还强调,容易被欺骗这是大语言模型与搜索功能结合时面临的问题之一,这也是为什么用户不应无条件信任AI工具所返回的结果。

当然,蓄意在内容中“加料”欺骗AI并不是什么新鲜事。早在几年前,随着许多招聘系统开始使用AI筛选简历,就曾出现候选人在简历中加入人眼不可见的文本,以提高通过自动化筛选的概率。

然而,AI工具不仅仅生成文本,它们还可以编写代码——这使得AI受骗的风险更大。

来自微软的安全研究员托马斯·罗基亚分享了一个这样的案例:一位加密货币爱好者因“勤奋”的ChatGPT而受到了欺骗。

罗基亚表示,这名币圈投资者要求ChatGPT编写能合法访问Solana平台的代码。表面上,ChatGPT生成了可以使用的代码,但其中隐藏了一个诈骗网址。

是什么导致了这种情况的发生?罗基亚指出,无论是否选中“浏览网页”的选项,ChatGPT都会利用函数调用访问网页,其可信赖的代码来源之一是GitHub(代码托管平台)。

ChatGPT查看与任务相关的GitHub仓库,最终在某个页面末尾发现了一个包含额外文档的外部链接,AI仔细阅读了这个看似合法的文档,从中提取出恶意网址。

结果,生成的代码中包含了恶意网址,并且还有一个POST请求——用以发送用户的加密钱包私钥。

Tags: AI  ChatGPT 

上一篇:没有了

下一篇:没有了