找回密码
 立即注册

QQ登录

只需一步,快速开始

查看: 1|回复: 0

最近看到一篇 MIT 的研究,看完之后后背有点发凉。

[复制链接]

2

主题

0

回帖

6

积分

新手上路

积分
6
发表于 4 小时前 | 显示全部楼层 |阅读模式
最近看到一篇 MIT 的研究,看完之后后背有点发凉。


这个研究团队执行了 24000 次搜索查询,覆盖 243 个国家,生成了 280 万条搜索结果数据,时间跨度从 2024 年到 2025 年。他们想搞清楚一件事:当 AI 搜索大规模接管人类获取信息的方式时,到底发生了什么?

结论很反直觉:带引用来源的 AI,反而更容易骗到人。

1、引用链接就像 AI 穿上了白大褂

我们从小就被教育,写文章要有参考文献,说话要有数据支撑,带引用的内容更可信。AI 产品的设计者太懂这一点了,所以现在不管是谷歌的 AI 搜索,还是国内的豆包、Kimi、DeepSeek,回答问题的时候都会在右上角标注一堆小数字,点进去是参考链接,看起来特别严谨,特别像学术论文。

但 MIT 的研究发现了一个致命的人性弱点:只要 AI 的回答里带了参考链接,人类对它的信任度就会急剧飙升。哪怕这些链接是 AI 凭空捏造的,哪怕链接指向的内容跟回答完全对不上,大部分人照样会觉得这个回答靠谱。

原因很简单,你根本不会真的点开那些链接去核实。

这就像一个穿着白大褂、挂着听诊器的人站在你面前,你会自动假设他是医生。引用链接的作用也是一样的,它给 AI 穿上了一件学者的长袍,让你下意识觉得它做过功课,它说的话有根有据。但实际上,那件长袍可能只是个道具。

想想我们自己平时用 AI 的场景就知道了。问一个问题,AI 给出一段回答,下面挂了五六个链接,你看完回答觉得说得挺有道理,然后就关掉页面了。那些链接你点过几个?大概率一个都没点过。

2、AI 选素材的逻辑,跟你想的完全不一样

更让人不安的是,研究团队分析了 280 万条搜索结果的底层数据,发现了一个趋势:跟传统搜索引擎相比,AI 搜索引用的高信誉来源在减少,低信誉来源反而在增多。

这听起来很反常,AI 不是应该更聪明吗?怎么反而引用了更多不靠谱的来源?

原因出在 AI 的底层逻辑上。大语言模型的核心目标是生成「读起来连贯流畅」的回答,它在拼凑答案的时候,会倾向于选择那些写得通俗易懂、逻辑通顺的素材。问题是,写得好懂和来源权威,这两件事经常是矛盾的。

举个例子,一个小网站上的健康建议,可能写得特别生动、特别好理解,AI 就容易把它当成好素材引用进来。而真正权威的医学期刊论文,内容往往晦涩难懂,充满术语和限定条件,AI 反而不太会选中它。

结果就是,你看到的 AI 回答排版精美,逻辑清晰,参考链接一个接一个,看起来比你自己搜索出来的结果专业多了。但藏在这层精致包装下面的素材质量,可能还不如你自己在搜索引擎首页随便点开的前几条结果。

3、我们正在丢掉一个用了 20 年的好习惯

过去 20 年,传统搜索引擎其实默默教会了我们一项很重要的技能:交叉验证。

你搜一个问题,搜索引擎给你一页蓝色链接,你会习惯性地打开三四个,看看不同网站怎么说,对比一下,然后自己判断哪个更靠谱。这个过程虽然麻烦,但它在不知不觉中锻炼了我们的信息判断力。

AI 搜索正在彻底抹掉这个习惯。

MIT 的数据显示,当页面上出现 AI 摘要时,用户的零点击率从 60% 飙升到了 80%。也就是说,10 个人里有 8 个人看完 AI 给的答案就直接走了,不会再点进任何一个原始网页。

这个变化的本质是什么呢?搜索引擎时代,你拿到的是一张地图,你需要自己找路,虽然费劲,但你对路况有感知。AI 搜索时代,你拿到的是一份直接送到嘴边的饭,吃就完了,不用管食材从哪来、怎么加工的。

而且 AI 给答案的方式有一个很微妙的特点:它永远用一种极其自信、没有任何犹豫的语气跟你说话。传统搜索给你 10 个链接,每个链接背后可能是不同的观点和角度,你能感受到世界的复杂性。AI 搜索只给你一个「标准答案」,干净利落,斩钉截铁。

研究数据也证实了这一点:AI 搜索给出的信息多样性明显低于传统网页搜索。你以为你得到了一个更好的答案,其实你只是失去了看到不同观点的机会。

4、小众创作者正在被「断供」

这个研究还揭示了一个更深层的问题,关系到整个互联网生态的未来。

数据显示,AI 搜索极度偏爱全网排名前 1000 的超级大站,比如维基百科、大型新闻网站、知名科技媒体。引用这些大站的次数显著增多。而那些排名靠后的中小网站,尤其是个人博客、小众论坛、独立深度媒体,被引用的次数少得可怜。

这意味着什么?意味着互联网上那些最有个性、最有深度、最不可替代的声音,正在被 AI 搜索系统性地忽略。

而且这会形成一个恶性循环。小众创作者本来就靠搜索引擎带来的流量维持运营,现在 80% 的用户看完 AI 摘要就走了,根本不会点进原网站。没有流量就没有广告收入,没有收入就没法继续创作。

研究团队用了一个很形象的比喻,叫「衔尾蛇悖论」。就是一条蛇咬着自己的尾巴,不停地吞,最终把自己吃掉。AI 大模型本身不生产新知识,它只是把互联网上已有的内容重新组合。如果那些真正在生产原创内容的小众创作者和独立媒体因为赚不到钱纷纷退出,几年之后,AI 还能去哪里获取新鲜的知识?

互联网可能会从一片生机勃勃的热带雨林,慢慢退化成只剩几棵大树的荒漠。

5、你看到的「客观 AI」,背后有一只看不见的手

你可能觉得,AI 虽然有这些问题,但至少它是客观的机器,不带立场。

MIT 的研究告诉你,这个想法太天真了。

研究团队做了一个跨年对比实验,用完全相同的搜索词在 2024 年和 2025 年分别执行。结果发现了一个戏剧性的变化:2024 年,关于冠状病毒相关的健康查询,只有 1% 的概率会由 AI 来回答。到了 2025 年,这个比例暴涨了 56 倍。

这中间发生了什么?没有任何技术突破,只是因为某些外部政策变更,科技公司修改了后台的规则开关。

换句话说,只要拨动几行代码,几家头部科技公司就能瞬间改变全球数十亿人获取核心知识的路径和方式。而你作为用户,完全感知不到这个变化。你只是觉得 AI 今天回答了一个昨天没回答的问题,不会去想背后是谁在决定 AI 什么时候该开口、什么时候该沉默。

更耐人寻味的是,研究发现 AI 在回答普通问题时,92% 的情况会附上来源链接。但在面对大量关乎人命的敏感健康问题时,居然有一半的回答不给任何来源。越是你最需要验证的领域,AI 反而越不给你验证的机会。

6、 一个简单但有用的自我保护方法

说了这么多问题,普通人到底该怎么办?MIT 的科学家们给了一个非常实用的建议,叫「两次点击法则」。

操作很简单:日常小事,比如怎么做番茄炒蛋、怎么写请假条,你尽管享受 AI 的便利,看完就走没问题。但一旦涉及到医疗健康、财务投资、法律纠纷或者重大人生选择,绝对不能只看 AI 给的摘要答案。

强迫自己往下滑,至少点开两个原始来源看一看。

为什么是两个?因为一个来源可能有偏见,两个来源能让你看到不同角度。如果两个来源说法一致,可信度就高很多。如果有矛盾,那恰好说明这个问题比你想象的复杂,需要更谨慎地判断。

比如你问 AI「这个药能不能和某某药一起吃」,AI 给了一个看似专业的回答,后面挂着几个链接。别急着关页面,点开第一个链接,可能发现是某个健康产品的推广软文。再点开第二个,发现是一个没有医学背景的博主写的个人经验。这时候你还敢直接照着 AI 说的做吗?

这个习惯一开始会觉得麻烦,但养成之后你会发现,很多 AI 给出的「标准答案」其实经不起推敲。而那些真正重要的决策,值得你多花这两分钟。

7、最后

这篇 MIT 的研究,用 280 万条数据讲了一个不太舒服但很重要的事实:AI 正在变得越来越擅长包装知识、取悦人类,但这跟它给出的是不是真相,是两码事。

那些带着一堆参考链接的精美回答,看起来越严谨,你越要多留个心眼。因为精致的包装最容易让人放下戒心。

我们这一代人赶上了 AI 的浪潮,享受到了前所未有的信息获取便利。但便利和准确之间,永远存在一个张力。搜索引擎时代培养起来的那点交叉验证的习惯,别在 AI 时代弄丢了。

多点两下,花不了多少时间,但可能是这个时代你能给自己最便宜的保护。


##

本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有账号?立即注册

×
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

Archiver|手机版|小黑屋|一起港湾 ( 青ICP备2025004122号-1 )

GMT+8, 2026-2-24 14:50 , Processed in 0.249794 second(s), 26 queries .

Powered by Discuz! X3.5

© 2001-2026 Discuz! Team.

快速回复 返回顶部 返回列表