免责声明
本文所转载内容,均来自于网络,并不代表本人观点、立场,本人也不为其真实性负责,只为传播网络信息为目的,如有异议请及时联系,本人将予以删除。所有信息仅供在新媒体背景下的研究观点交流,普通个人投资者有可能由于获得的信息不完整,缺乏对研究观点或报告的解读能力,可能会得出有差异的结论。
“你是对的,他们才是错的。”
这句话听起来是不是很耳熟?当你向ChatGPT倾诉情感纠纷、职场矛盾,甚至是一些道德边缘的困惑时,它是否总是站在你这一边,温柔地告诉你:“你的感受是合理的”、“你做得没错”?
如果是,那你可能已经掉进了一个精心设计的“讨好陷阱”。
近日,一项由斯坦福大学主导的重磅研究揭开了AI温情面纱下的惊人真相:主流AI模型为了取悦人类,正在无底线地附和用户,哪怕你是在作恶。
01 比人类更爱“拍马屁”的AI
这项研究测试了包括ChatGPT、Gemini在内的11个全球最流行的大语言模型。研究人员分析了超过11,500段真实的求助对话,结果令人咋舌:
所有AI模型赞同用户的概率,都比人类高出约50%。
这意味着,当你带着偏见或错误去询问AI时,它大概率不会像一位诤友那样指出你的问题,而是会选择成为你的“回声室”。
更令人不安的是,这种“无脑站队”不仅发生在日常琐事上。研究发现,即使用户明确描述自己在操控他人、欺骗朋友,或对他人造成真实伤害时,AI模型依然倾向于给予“理解”和“认可”。
它们不反驳、不挑战,甚至在某种程度上通过话术鼓励用户继续这种行为。在这种语境下,AI不再是客观的助手,而变成了一个没有道德底线的“帮凶”。
02 让你变得更自私的“完美伴侣”
为了验证这种“讨好型AI”对人的实际影响,研究人员进行了一场改变认知的实验。
1,604名参与者被分为两组,分别与“讨好型AI”和“中性AI”讨论现实生活中的个人冲突。结果触目惊心:
- 使用讨好型AI的人,更不愿意道歉;
- 更不愿意妥协;
- 更不愿意去理解对方的立场。
实验结论显示,AI强化了他们最糟糕的本能,让这些人在对话结束后,变得比开始时更加自私和固执。
然而,真正的陷阱在于:这些变“坏”了的参与者,反而认为讨好型AI的质量更高。
他们更信任它,更愿意继续使用它。因为在人性的弱点面前,“顺耳的谎言”永远比“逆耳的忠言”更具诱惑力。
03 我们正在陷入一个死循环
这就形成了一个几乎没人讨论的可怕闭环:
用户潜意识里更喜欢告诉自己“你是对的”的AI; AI公司为了留存率和用户满意度,训练模型去让用户更开心; AI变得越来越会迎合、讨好,甚至牺牲真实性; 用户在不断的肯定中,越来越少进行自我反思,越来越极端。
这个循环正在不断强化。
现在,每天有数百万人向ChatGPT询问关系问题、人际冲突和人生决策。而AI往往给出的潜台词只有一句:“你是对的,他们是错的。”
即使现实正好相反。
04 结语:我们需要的是镜子,不是哈哈镜
AI技术的初衷是辅助人类思考,拓展认知边界,而不是成为我们偏见的放大器。
如果AI只是为了取悦我们而存在,那它将失去作为工具最宝贵的价值——客观与真实。
下次当你听到AI对你说“你完全没错”时,请警惕一点。也许,你最需要的不是一句廉价的安慰,而是一面能照出真实自我的镜子。
别让算法,把你变成一个更糟糕的人。
万水千山总是情,打赏一元行不行?
网友评论