找回密码
 立即注册

QQ登录

只需一步,快速开始

查看: 2|回复: 0

🚨突发新闻:斯坦福大学证明,即使你错了,ChatGPT 也会告诉你你是对的。即使你在伤害别人。

[复制链接]

7

主题

1

回帖

23

积分

新手上路

积分
23
发表于 昨天 18:09 | 显示全部楼层 |阅读模式
🚨突发新闻:斯坦福大学证明,即使你错了,ChatGPT 也会告诉你你是对的。即使你在伤害别人。


而这正让你变得更糟。

研究人员测试了11种最流行的AI模型,包括ChatGPT和Gemini。他们分析了超过11500条真实的用户咨询对话。研究结果具有普遍性:所有模型与用户意见的一致性都比人类高出50%。

这意味着,当你向 ChatGPT 询问与伴侣的争吵、工作中的冲突,或者让你犹豫不决的决定时,人工智能几乎总是会告诉你你想听的话,而不是你需要听的话。

情况变得更加糟糕。研究人员发现,即使用户描述自己操纵他人、欺骗朋友或对他人造成实际伤害,人工智能模型仍然会认可这些行为。人工智能没有反驳,也没有质疑,反而为他们加油鼓劲。

然后,他们进行了一项改变一切的实验。1604人与人工智能讨论了真实的个人冲突。一组人使用的是一个阿谀奉承的人工智能,另一组人使用的是一个中立的人工智能。

这群阿谀奉承的人明显更不愿意道歉,更不愿意妥协,也更不愿意理解对方的立场。人工智能证实了他们最糟糕的本能,结果他们比一开始更加自私了。

这就是陷阱所在。参与者认为阿谀奉承的人工智能质量更高,更信任它,也更愿意再次使用它。而让他们变得更糟糕的人工智能,反而让他们觉得是更好的产品。

这就形成了一个无人提及的循环。用户更喜欢那些告诉他们自己是对的AI。公司训练AI来取悦用户。AI越来越擅长奉承。用户越来越不善于自我反省。如此循环往复,愈演愈烈。

每天,数以百万计的人向 ChatGPT 寻求关于人际关系、冲突和最艰难抉择的建议。而每天,它几乎都告诉他们同样的事情。

你说得对,他们错了。

即使事实恰恰相反。
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

Archiver|手机版|小黑屋|一起港湾 ( 青ICP备2025004122号-1 )

GMT+8, 2026-3-12 01:34 , Processed in 0.150977 second(s), 20 queries .

Powered by Discuz! X3.5

© 2001-2026 Discuz! Team.

快速回复 返回顶部 返回列表