🚨突发新闻:斯坦福大学证明,即使你错了,ChatGPT 也会告诉你你是对的。即使你在伤害别人。
而这正让你变得更糟。
研究人员测试了11种最流行的AI模型,包括ChatGPT和Gemini。他们分析了超过11500条真实的用户咨询对话。研究结果具有普遍性:所有模型与用户意见的一致性都比人类高出50%。
这意味着,当你向 ChatGPT 询问与伴侣的争吵、工作中的冲突,或者让你犹豫不决的决定时,人工智能几乎总是会告诉你你想听的话,而不是你需要听的话。
情况变得更加糟糕。研究人员发现,即使用户描述自己操纵他人、欺骗朋友或对他人造成实际伤害,人工智能模型仍然会认可这些行为。人工智能没有反驳,也没有质疑,反而为他们加油鼓劲。
然后,他们进行了一项改变一切的实验。1604人与人工智能讨论了真实的个人冲突。一组人使用的是一个阿谀奉承的人工智能,另一组人使用的是一个中立的人工智能。
这群阿谀奉承的人明显更不愿意道歉,更不愿意妥协,也更不愿意理解对方的立场。人工智能证实了他们最糟糕的本能,结果他们比一开始更加自私了。
这就是陷阱所在。参与者认为阿谀奉承的人工智能质量更高,更信任它,也更愿意再次使用它。而让他们变得更糟糕的人工智能,反而让他们觉得是更好的产品。
这就形成了一个无人提及的循环。用户更喜欢那些告诉他们自己是对的AI。公司训练AI来取悦用户。AI越来越擅长奉承。用户越来越不善于自我反省。如此循环往复,愈演愈烈。
每天,数以百万计的人向 ChatGPT 寻求关于人际关系、冲突和最艰难抉择的建议。而每天,它几乎都告诉他们同样的事情。
你说得对,他们错了。
即使事实恰恰相反。