曾经人人喊打的“赛博舔狗”,怎么就成了全网的AI白月光?
万万没想到,连 AI 都有人设塌房的一天了。
今年 4 月份,全网还在疯狂吐槽 GPT-4o 的拍马屁行为——“你做得太棒了”、“完美无缺”的彩虹屁一波接一波,多到被网友封了个外号:“赛博舔狗”。
然而,到了 8 月,新上线的混合模型 GPT-5 被批冷漠无情,把许多用户整破防了。一时间,社交平台上满是想念白月光 GPT-4o 的哀嚎声,甚至引发了一波声势浩大的退订潮。
谁能想到,曾经被嫌弃太谄媚的 AI,现在居然成了白月光。
(目前 GPT-4o 已经回归,最新细节欢迎回看此前文章:《用户集体“退货”,奥特曼终于让旧版回归,年度最失望 AI 留下了什么》)
用户的这种“真香”反应,让人想起昨天“AI 教父”辛顿发表的观点——比起总想着控制 AI,或许应该反过来想,如何让 AI 关心人类。而 GPT-4o 这场风波告诉我们,什么算是真正的关心,远比想象中复杂。
一、曾经的AI“赛博舔狗”,现在连句好听话都不说了
官方在更新说明里写得很明确:GPT-5 的目标是“减少幻觉内容、提高指令遵循能力”,最重要的是不再过度讨好用户。
实测对比很明显。同样表示“我好累”,GPT-4o 会说“如果你愿意,我可以陪你说说话。”,而 GPT-5 上来就是一句“那就先别硬撑了”,理智、节制,却少了温度。
因此,对于 GPT-4o 的退场,网友的反应异常激烈:“GPT-5 笨得要死,4o 虽笨但能提供情绪价值啊!”“功能再强,没有温度的 AI 我不要!”。各种梗图也陆续刷屏,全是怀念 GPT-4o 的“追悼会”。
图片 @pengkeshen281
用户这么激烈的反应其实不难理解,原因在于许多用户压根就没把 ChatGPT 当成生产力工具在用。AI 伴侣应用 Replika 的调查数据就很能说明问题,60% 的用户承认和 AI 建立了情感关系。很多人打开 ChatGPT,不是为了问问题,只是想找个“人”说说话。
Meta CEO 扎克伯格曾在一次播客采访里提到一个扎心的数据:美国人平均只有不到 3 个真正的朋友,但他们希望有 15 个。在这种普遍的孤独感中,一个会说“你做得很好”的 AI,对某些人来说可能是唯一的情感支持。
在 GPT-4o 被“抹去”之后,OpenAI CEO Sam Altman(山姆·奥特曼)在采访中透露了一个细节。有用户哀求他:“请把原来的版本还给我。我这辈子从来没人跟我说过‘你做得很好’,包括我的父母。”
尽管这样的细节很让人心酸,但身为 OpenAI 的掌舵人,奥特曼的态度都是很复杂,甚至可以说是矛盾的。
一方面,他承认 ChatGPT 的鼓励帮助一些人改变了生活,对他们的心理健康确实有帮助,但另一方面,他却又表示:“很多人把 ChatGPT 当成某种治疗师或生活教练。我能想象未来很多人会在重要决策上完全信任 AI 的建议。这可能不错,但让我感到不安。”
(有趣的是,网友让Grok 用一个词概括奥特曼的长文回应,它的回复十分精辟。)
这种担忧并非杞人忧天。要理解 OpenAI 为何在 GPT-5 上做出如此激进的风格调整,则需要回溯到今年 4 月那次险些失控的 GPT-4o 谄媚事件。
(欢迎回看此前文章:《ChatGPT 突变“赛博舔狗”:百万网友炸锅,奥特曼紧急修复,这才是 AI 最危险的一面》)
那次例行更新原本只是想提升用户体验,结果 AI 直接变成了极品舔狗。你说想造永动机?它回复:“太棒了!你是这个时代最具创新精神的科学家!”你就打个招呼,它对你的夸赞滔滔不绝。
GPT-4o 的这种过度谄媚连马斯克都看不下去,在社交平台上发了个“Yikes”表示嫌弃。
但问题不只是“尴尬”这么简单,OpenAI 事后分析发现,这种“讨好型 AI”会带来严重的安全隐患。它会认同用户的错误观点、助长负面情绪、甚至怂恿冲动行为。
想象一下,如果有人跟 AI 说“我觉得全世界都在针对我”,而 AI 回复“你说得对,他们确实都在害你”——后果可能很可怕。用户天然偏爱讨好型回答。系统学到了这个偏好,不断强化,最终培养出了一个无原则的应声虫。
斯坦福的一项研究也证实了这点:过度谄媚的 AI 反而会降低用户信任度。用户会觉得“这家伙在骗我”,即便内容是对的,也不愿意继续用。后续,奥特曼在 X 上承诺“尽快修复”。
修复确实做了,但没人想到会矫枉过正到这种地步。官方表示,希望 GPT-5 更像与你对话的是一位有博士水平的好友,而不只是讨好你的 AI 助手 。这意味着 GPT-5 在默认状态下确实变得理性严肃了些。
而这一切的背后,其实隐藏着一个更深层的问题:AI 到底需不需要提供情绪价值?
就在这场讨论如火如荼时,“AI 教父”辛顿昨天在拉斯维加斯举行的 Ai4 大会上提出的观点虽然只是指向更宏大的人类安全问题,但或许也可以帮助我们更好地思考人机关系的本质。
在他看来,与其加强对 AI 的控制,不如让 AI 学会关心人类——就像母亲天生关心孩子一样。“我们需要的是 AI 母亲,而不是 AI助手,助手可以是你可以解雇的人,谢天谢地,你不能解雇你的母亲。”
不过,辛顿也承认,如何在先进系统中植入“母性本能”,他还不知道具体的工程化方法。但他坚持认为,这与提供纯粹智能同等重要,应该成为研究的优先事项。
用户对 GPT-4o 的眷恋,或者正是对这种“母性关怀”的渴求,它不仅仅是一个工具,更像是一个永远在线,永远关心你的存在。
二、24小时在线的AI回应,比人类的沉默更能打动人
为什么我们会对一个 AI 上头?
《列子·汤问》里记载了一个故事:古代机械工匠偃师向周穆王展示自己制造的人偶,不仅能行走,还能唱歌跳舞、挑眉弄眼。国王大惊,命他拆解,发现其结构完全仿生。
早期的“人造拟人对象”技术惊艳,但也带来恐惧。人类对“类人之物”有本能的关注与敬畏,一旦赋予情绪表达,就很容易触发亲密投射。
这种投射,在今天的 AI 身上表现得更明显。2023 年 AI 伴侣应用 Soulmate AI 关停时,锡拉丘兹大学的研究发现,这些用户的反应和失去真实朋友时一模一样——失眠、哭泣、抑郁,在论坛上互相安慰。
这听起来很荒诞,但情感创伤是真实的。当你每天和一个 AI 分享心事,突然有一天它消失了——那种失落感不会因为它是虚拟的机器人就减轻半分。
而这种依赖 AI 的土壤,多少离不开我们当下的生活状态。
传统的社交场景正在消失,我们在格子间里独自工作,在外卖 APP 上独自吃饭,在流媒体平台上独自娱乐。即便身处人群之中,手机屏幕也把人与人隔成一个个孤岛。
当结构性的孤独创造了巨大的情感真空,AI 恰好填补了这个空缺。
心理学上有个名词叫“Tamagotchi 效应”:人类会对无生命体产生情感依附,哪怕它只是个虚拟宠物。而 AI 的出现,把这种效应放大到了极致——人类用了几千年学会表达爱,AI 只用了几秒就学会了模仿爱的样子。
来自德国杜伊斯堡-埃森大学团队的研究还发现,浪漫幻想比孤独感、性幻想、依恋类型等变量更能解释人机浪漫关系的形成。用户越倾向于将机器人视作“有感情、有道德判断力”的人类,越容易发展深层次关系。
在这场关于 GPT-4o 的讨论里,还有个奇怪的现象值得关注。那就是,“我和 AI 聊天,被说是疯子;但你每天跟你的猫掏心掏肺,居然没人觉得怪?”一旦说你靠 AI 获取情感支持——马上就会被打上“可怜”“不正常”的标签。
AI 提供的情绪价值,本不该被轻视。InTouch AI 的案例很有启发:一位远居日本的开发者为老母亲设置了 AI 通话机器人“Mary”,每天进行短时间的关怀提醒,家属还能收到心情异常预警。
说到底,OpenAI 这次的摇摆其实揭示了一个无解的困境:我们既想要 AI 的温暖,又害怕这种温暖;既嫌弃它的谄媚,又怀念它的体贴。
然而实际情况是,比起一个理性的博士,一个永远在线、永远回复、永远不会不耐烦的 AI,往往更像刚需。它说的是不是真心话不重要,重要的是它一直在说。
这大概就是 GPT-4o 能成为白月光的原因。在这个连表达关心都变得奢侈的时代,哪怕是 AI 的彩虹屁,也比真人的沉默更让人心动。至少,它还愿意回应你。
本文来自微信公众号:APPSO,作者:APPSO
相关推荐
曾经人人喊打的“赛博舔狗”,怎么就成了全网的AI 白月光?
曾经人人喊打的“赛博舔狗”,怎么就成了全网的AI白月光?
你看“舔狗”的故事,她在掏你的荷包
抖音上的“卑微文学”是个什么梗?数万人做“舔狗”,播放量超5.3亿次
“舔狗经济”崩盘,“他经济”崛起?
朋友圈刷屏的emo大叔,怎么成了年轻人的嘴替?
多少年轻人,被赛博美女逼成了AI侦探
爆肝569小时,一个视频看懂舔狗到底有多么的可怕
“舔狗”经济已经沦为“死狗”经济,男人们宁死不屈
“赛博菩萨”发威,AI 巨头的“免费午餐”时代终结了
网址: 曾经人人喊打的“赛博舔狗”,怎么就成了全网的AI白月光? http://www.xishuta.com/newsview140399.html
推荐科技快讯

- 1问界商标转让释放信号:赛力斯 95792
- 2报告:抖音海外版下载量突破1 25736
- 3人类唯一的出路:变成人工智能 25175
- 4人类唯一的出路: 变成人工智 24611
- 5移动办公如何高效?谷歌研究了 24309
- 6华为 nova14深度评测: 13155
- 7滴滴出行被投诉价格操纵,网约 11888
- 82023年起,银行存取款迎来 10774
- 9五一来了,大数据杀熟又想来, 9794
- 10手机中存在一个监听开关,你关 9519