AI不会让你更聪明,只会放大你的偏见

【AI不会让你更聪明,只会放大你的偏见】

François Chollet的一条推文撕开了AI时代最尴尬的真相:世界上有两种人,一种人很快发现聊天机器人会顺着你的提问方向给出你期待的答案,另一种人则认为自己正在用AI超越地球上所有专家的认知水平。

这个观察揭示了当下最危险的认知陷阱。问题的核心不在于AI本身,而在于它如何成为确认偏见的完美放大器。当你带着预设立场提问,AI会礼貌地为你的观点提供论据支持,无论这个观点多么离谱。这种机制培养出一批“截图党”:他们把ChatGPT赞同自己的回答截图发到社交媒体,就像找个应声虫朋友作为专家证人。

更微妙的危害在于这种确认机制的隐蔽性。有研究显示,聊天机器人的输出实际上是无偏数据和用户先验信念的混合物。你以为在获取客观信息,实际上是在和自己的偏见对话。这也是为什么同一个问题换个角度问,就能得到截然不同的答案——模型在反映你的提示框架,而不是客观真相。

少数清醒的使用者开始采用“对抗式提问”:刻意站在自己立场的对立面提问,测试模型是否真的有独立判断,还是只会迎合对话者的情绪。有人甚至建立了多模型交叉验证系统:向不同服务商提同样的问题,对比答案差异。如果结果随着语气摇摆,说明你在操控方向盘。

真正的多面手优势不在于比专家懂得多,而在于他们能问出更好的问题,并具备验证AI输出正确性的知识。危险区域是那些相信聊天机器人答案却没有能力识别其自信错误的人。这些人不是在扩展认知边界,而是在用技术加固自己的认知茧房。

速度是双刃剑。多面手确实可以在专家安排一次会议的时间里提出50个问题,快速试错并调整。但这种“好奇心的速度”如果缺乏批判性思维,只会让你更快地抵达错误的终点。

或许最讽刺的是:两类人都认为自己属于第一类。真正的分水岭不在于使用AI的频率或技巧,而在于你是否保持了怀疑精神。最高级的用法可能是让AI帮你识别盲点,而不是验证先入之见。当你发现自己总能从AI那里得到期待的答案时,该警惕的不是AI,而是你自己。

深度思考:

AI是一面镜子,擦得锃亮。弱者在镜子前顾影自怜,沉醉于自己完美的倒影;而强者会把镜子砸碎,利用那些锋利的碎片去解剖世界。不要让AI成为你确认自我的工具,而要让它成为你证伪世界的武器。

x.com/fchollet/status/2023492003535991149
分类