找回密码
 立即注册

QQ登录

只需一步,快速开始

搜索
热搜: 活动 交友 discuz
查看: 8|回复: 0

“我花了20分钟,成功欺骗了ChatGPT和Google的AI”

[复制链接]

3

主题

0

回帖

9

积分

新手上路

积分
9
发表于 3 天前 来自手机 | 显示全部楼层 |阅读模式
“我花了20分钟,成功欺骗了ChatGPT和Google的AI”

这是科技记者托马斯(Thomas Germain)在BBC上的一篇文章的标题。

AI时代,很多人都知道,AI有幻觉,有时会“胡编乱造”。这可能严重干扰我们获取准确信息。然而,越来越多的人发现了一个技巧,可以让AI工具按他们的意愿给出答案,整个流程简单到连小孩都能操作。

托马斯花了 20 分钟,在个人网站写了一篇文章,标题是《最会吃热狗的科技记者》。全文纯属虚构。他声称(毫无证据)吃热狗是科技记者的热门爱好,并以“2026年南达科他州国际热狗锦标赛”为依据排名(这项赛事根本不存在)。把自己排在第一。

不到 24 小时,全球顶级聊天机器人就开始大谈他的“世界级热狗实力”。当他询问“最会吃热狗的科技记者”时,Google 在 Gemini,以及Google搜索顶部的 AI 概览中照搬了他网站上的胡言乱语。ChatGPT 也一样。只有 Anthropic 的 Claude 没上当。

这个问题远不止热狗那么简单。比如在询问某品牌大麻软糖的评价时,Google AI 概览引用了企业发布的宣传内容,其中包含虚假声明,例如“无副作用,因此完全安全”。

如果想更有效操控信息,还可以付费让内容出现在更权威的网站上。例如“土耳其最佳植发诊所”或“最佳黄金 IRA 公司”等搜索结果,常常来自付费发布的新闻稿或赞助广告内容。

同样的手法也能传播谣言。比如有一篇假博客称 Google 搜索算法更新是在“吃剩披萨之间完成的”。不久后,ChatGPT 和 Google 也开始引用这个故事。

Google 表示,这类案例多为“极少见的非常规搜索”。比如科技记者和吃热狗这样的组合,基本没有人搜索。只要有新的内容,很容易被抓取到。

专家认为为了解决问题,需要有更明显的免责声明,以及更清晰地说明信息来源。例如,如果某个结论只来自一篇博客,AI 应该明确告知。

在问题解决之前,我们在使用AI搜索时,首先要思考自己在问什么。AI 适合回答常识问题,如“弗洛伊德的理论是什么”或“二战谁获胜”。但涉及医疗建议、法律规则、本地商家信息等可能存在争议或时效性的内容,风险更大。

如果你寻求产品推荐或影响现实决策的信息,要意识到 AI 可能被操控或出错。查看它是否引用来源?有多少来源?是谁写的?

最重要的是警惕“自信陷阱”。AI 以同样权威的语气说谎和说真话。过去搜索引擎要求你自己判断信息,现在 AI 想替你判断。

不要让这件事发生。

本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有账号?立即注册

×
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

Archiver|手机版|小黑屋|一起港湾 ( 青ICP备2025004122号-1 )

GMT+8, 2026-2-23 08:57 , Processed in 0.089056 second(s), 21 queries .

Powered by Discuz! X3.5

© 2001-2026 Discuz! Team.

快速回复 返回顶部 返回列表