一袭红衣 发表于 3 天前

“我花了20分钟,成功欺骗了ChatGPT和Google的AI”

“我花了20分钟,成功欺骗了ChatGPT和Google的AI”

这是科技记者托马斯(Thomas Germain)在BBC上的一篇文章的标题。

AI时代,很多人都知道,AI有幻觉,有时会“胡编乱造”。这可能严重干扰我们获取准确信息。然而,越来越多的人发现了一个技巧,可以让AI工具按他们的意愿给出答案,整个流程简单到连小孩都能操作。

托马斯花了 20 分钟,在个人网站写了一篇文章,标题是《最会吃热狗的科技记者》。全文纯属虚构。他声称(毫无证据)吃热狗是科技记者的热门爱好,并以“2026年南达科他州国际热狗锦标赛”为依据排名(这项赛事根本不存在)。把自己排在第一。

不到 24 小时,全球顶级聊天机器人就开始大谈他的“世界级热狗实力”。当他询问“最会吃热狗的科技记者”时,Google 在 Gemini,以及Google搜索顶部的 AI 概览中照搬了他网站上的胡言乱语。ChatGPT 也一样。只有 Anthropic 的 Claude 没上当。

这个问题远不止热狗那么简单。比如在询问某品牌大麻软糖的评价时,Google AI 概览引用了企业发布的宣传内容,其中包含虚假声明,例如“无副作用,因此完全安全”。

如果想更有效操控信息,还可以付费让内容出现在更权威的网站上。例如“土耳其最佳植发诊所”或“最佳黄金 IRA 公司”等搜索结果,常常来自付费发布的新闻稿或赞助广告内容。

同样的手法也能传播谣言。比如有一篇假博客称 Google 搜索算法更新是在“吃剩披萨之间完成的”。不久后,ChatGPT 和 Google 也开始引用这个故事。

Google 表示,这类案例多为“极少见的非常规搜索”。比如科技记者和吃热狗这样的组合,基本没有人搜索。只要有新的内容,很容易被抓取到。

专家认为为了解决问题,需要有更明显的免责声明,以及更清晰地说明信息来源。例如,如果某个结论只来自一篇博客,AI 应该明确告知。

在问题解决之前,我们在使用AI搜索时,首先要思考自己在问什么。AI 适合回答常识问题,如“弗洛伊德的理论是什么”或“二战谁获胜”。但涉及医疗建议、法律规则、本地商家信息等可能存在争议或时效性的内容,风险更大。

如果你寻求产品推荐或影响现实决策的信息,要意识到 AI 可能被操控或出错。查看它是否引用来源?有多少来源?是谁写的?

最重要的是警惕“自信陷阱”。AI 以同样权威的语气说谎和说真话。过去搜索引擎要求你自己判断信息,现在 AI 想替你判断。

不要让这件事发生。
页: [1]
查看完整版本: “我花了20分钟,成功欺骗了ChatGPT和Google的AI”