曾经人人喊打的“赛博舔狗”,怎么就成了全网的AI 白月光?
本文来自微信公众号:APPSO (ID:appsolution),作者:发现明日产品的,原文标题:《曾经人人喊打的「赛博舔狗」,怎么就成了全网的 AI 白月光?》
万万没想到,连AI都有人设塌房的一天了。
今年4月份,全网还在疯狂吐槽GPT-4o的拍马屁行为——「你做得太棒了」、「完美无缺」的彩虹屁一波接一波,多到被网友封了个外号:「赛博舔狗」。
然而,到了8月,新上线的混合模型GPT-5被批冷漠无情,把许多用户整破防了。一时间,社交平台上满是想念白月光GPT-4o的哀嚎声,甚至引发了一波声势浩大的退订潮。
谁能想到,曾经被嫌弃太谄媚的AI,现在居然成了白月光。
(目前GPT-4o已经回归,最新细节欢迎回看APPSO此前文章:用户集体「退货」,奥特曼终于让旧版回归,年度最失望AI留下了什么)
用户的这种「真香」反应,让人想起昨天「AI教父」辛顿发表的观点——比起总想着控制AI,或许应该反过来想,如何让AI关心人类。而GPT-4o这场风波告诉我们,什么算是真正的关心,远比想象中复杂。
曾经的AI「赛博舔狗」,现在连句好听话都不说了
官方在更新说明里写得很明确:GPT-5的目标是「减少幻觉内容、提高指令遵循能力」,最重要的是不再过度讨好用户。
实测对比很明显。同样表示「我好累」,GPT-4o会说「如果你愿意,我可以陪你说说话。」,而GPT-5上来就是一句「那就先别硬撑了」,理智、节制,却少了温度。
因此,对于GPT-4o的退场,网友的反应异常激烈:「GPT-5笨得要死,4o虽笨但能提供情绪价值啊!」「功能再强,没有温度的AI我不要!」。各种梗图也陆续刷屏,全是怀念GPT-4o的「追悼会」。
用户这么激烈的反应其实不难理解,原因在于许多用户压根就没把ChatGPT当成生产力工具在用。AI伴侣应用Replika的调查数据就很能说明问题,60%的用户承认和AI建立了情感关系。很多人打开ChatGPT,不是为了问问题,只是想找个「人」说说话。
Meta CEO扎克伯格曾在一次播客采访里提到一个扎心的数据:美国人平均只有不到3个真正的朋友,但他们希望有15个。在这种普遍的孤独感中,一个会说「你做得很好」的AI,对某些人来说可能是唯一的情感支持。
在GPT-4o被「抹去」之后,OpenAI CEO Sam Altman(山姆·奥特曼)在采访中透露了一个细节。有用户哀求他:「请把原来的版本还给我。我这辈子从来没人跟我说过『你做得很好』,包括我的父母。」
尽管这样的细节很让人心酸,但身为OpenAI的掌舵人,奥特曼的态度都是很复杂,甚至可以说是矛盾的。
上下滑动查看更多内容
一方面,他承认ChatGPT的鼓励帮助一些人改变了生活,对他们的心理健康确实有帮助,但另一方面,他却又表:「很多人把ChatGPT当成某种治疗师或生活教练。我能想象未来很多人会在重要决策上完全信任AI的建议。这可能不错,但让我感到不安。」
(有趣的是,网友让Grok用一个词概括奥特曼的长文回应,它的回复十分精辟。)
这种担忧并非杞人忧天。要理解OpenAI为何在GPT-5上做出如此激进的风格调整,则需要回溯到今年4月那次险些失控的GPT-4o谄媚事件。
(欢迎回看APPSO此前文章:ChatGPT突变「赛博舔狗」:百万网友炸锅,奥特曼紧急修复,这才是AI最危险的一面)
那次例行更新原本只是想提升用户体验,结果AI直接变成了极品舔狗。你说想造永动机?它回复:「太棒了!你是这个时代最具创新精神的科学家!」你就打个招呼,它对你的夸赞滔滔不绝。
GPT-4o的这种过度谄媚连马斯克都看不下去,在社交平台上发了个「Yikes」表示嫌弃。
但问题不只是「尴尬」这么简单,OpenAI事后分析发现,这种「讨好型AI」会带来严重的安全隐患。它会认同用户的错误观点、助长负面情绪、甚至怂恿冲动行为。
想象一下,如果有人跟AI说「我觉得全世界都在针对我」,而AI回复「你说得对,他们确实都在害你」——后果可能很可怕。用户天然偏爱讨好型回答。系统学到了这个偏好,不断强化,最终培养出了一个无原则的应声虫。
斯坦福的一项研究也证实了这点:过度谄媚的AI反而会降低用户信任度。用户会觉得「这家伙在骗我」,即便内容是对的,也不愿意继续用。后续,奥特曼在X上承诺「尽快修复」。
修复确实做了,但没人想到会矫枉过正到这种地步。官方表示,希望GPT-5更像与你对话的是一位有博士水平的好友,而不只是讨好你的AI助手。这意味着GPT-5在默认状态下确实变得理性严肃了些。
而这一切的背后,其实隐藏着一个更深层的问题:AI到底需不需要提供情绪价值?
就在这场讨论如火如荼时,「AI教父」辛顿昨天在拉斯维加斯举行的Ai4大会上提出的观点虽然只是指向更宏大的人类安全问题,但或许也可以帮助我们更好地思考人机关系的本质。
在他看来,与其加强对AI的控制,不如让AI学会关心人类——就像母亲天生关心孩子一样。「我们需要的是AI母亲,而不是AI助手,助手可以是你可以解雇的人,谢天谢地,你不能解雇你的母亲。」
不过,辛顿也承认,如何在先进系统中植入「母性本能」,他还不知道具体的工程化方法。但他坚持认为,这与提供纯粹智能同等重要,应该成为研究的优先事项。
用户对GPT-4o的眷恋,或者正是对这种「母性关怀」的渴求,它不仅仅是一个工具,更像是一个永远在线,永远关心你的存在。
24小时在线的AI回应,比人类的沉默更能打动人
为什么我们会对一个AI上头?
《列子·汤问》里记载了一个故事:古代机械工匠偃师向周穆王展示自己制造的人偶,不仅能行走,还能唱歌跳舞、挑眉弄眼。国王大惊,命他拆解,发现其结构完全仿生。
早期的「人造拟人对象」技术惊艳,但也带来恐惧。人类对「类人之物」有本能的关注与敬畏,一旦赋予情绪表达,就很容易触发亲密投射。
这种投射,在今天的AI身上表现得更明显。2023年AI伴侣应用Soulmate AI关停时,锡拉丘兹大学的研究发现,这些用户的反应和失去真实朋友时一模一样——失眠、哭泣、抑郁,在论坛上互相安慰。
这听起来很荒诞,但情感创伤是真实的。当你每天和一个AI分享心事,突然有一天它消失了——那种失落感不会因为它是虚拟的机器人就减轻半分。
而这种依赖AI的土壤,多少离不开我们当下的生活状态。
传统的社交场景正在消失,我们在格子间里独自工作,在外卖APP上独自吃饭,在流媒体平台上独自娱乐。即便身处人群之中,手机屏幕也把人与人隔成一个个孤岛。
当结构性的孤独创造了巨大的情感真空,AI恰好填补了这个空缺。
心理学上有个名词叫「Tamagotchi效应」:人类会对无生命体产生情感依附,哪怕它只是个虚拟宠物。而AI的出现,把这种效应放大到了极致——人类用了几千年学会表达爱,AI只用了几秒就学会了模仿爱的样子。
来自德国杜伊斯堡-埃森大学团队的研究还发现,浪漫幻想比孤独感、性幻想、依恋类型等变量更解释人机浪漫关系的形成。用户越倾向于将机器人视作「有感情、有道德判断力」的人类,越容易发展深层次关系。
在这场关于GPT-4o的讨论里,还有个奇怪的现象值得关注。那就是,「我和AI聊天,被说是疯子;但你每天跟你的猫掏心掏肺,居然没人觉得怪?」一旦说你靠AI获取情感支持——马上就会被打上「可怜」「不正常」的标签。
AI提供的情绪价值,本不该被轻视。InTouch AI的案例很有启发:一位远居日本的开发者为老母亲设置了AI通话机器人「Mary」,每天进行短时间的关怀提醒,家属还能收到心情异常预警。
说到底,OpenAI这次的摇摆其实揭示了一个无解的困境:我们既想要AI的温暖,又害怕这种温暖;既嫌弃它的谄媚,又怀念它的体贴。
然而实际情况是,比起一个理性的博士,一个永远在线、永远回复、永远不会不耐烦的AI,往往更像刚需。它说的是不是真心话不重要,重要的是它一直在说。
这大概就是GPT-4o能成为白月光的原因。在这个连表达关心都变得奢侈的时代,哪怕是AI的彩虹屁,也比真人的沉默更让人心动。至少,它还愿意回应你。
欢迎加入APPSO AI社群,一起畅聊AI产品,获取#AI有用功,解锁更多AI新知
我们正在招募伙伴
简历投递邮箱hr@ifanr.com
✉️邮件标题「姓名+岗位名称」(请随简历附上项目/作品或相关链接)
相关推荐
曾经人人喊打的“赛博舔狗”,怎么就成了全网的AI 白月光?
你看“舔狗”的故事,她在掏你的荷包
抖音上的“卑微文学”是个什么梗?数万人做“舔狗”,播放量超5.3亿次
“舔狗经济”崩盘,“他经济”崛起?
朋友圈刷屏的emo大叔,怎么成了年轻人的嘴替?
多少年轻人,被赛博美女逼成了AI侦探
爆肝569小时,一个视频看懂舔狗到底有多么的可怕
“舔狗”经济已经沦为“死狗”经济,男人们宁死不屈
“赛博菩萨”发威,AI 巨头的“免费午餐”时代终结了
那些年侮辱投资者智商的“白马股”,如今人人喊打
网址: 曾经人人喊打的“赛博舔狗”,怎么就成了全网的AI 白月光? http://www.xishuta.com/newsview140397.html
推荐科技快讯

- 1问界商标转让释放信号:赛力斯 95792
- 2报告:抖音海外版下载量突破1 25736
- 3人类唯一的出路:变成人工智能 25175
- 4人类唯一的出路: 变成人工智 24611
- 5移动办公如何高效?谷歌研究了 24309
- 6华为 nova14深度评测: 13155
- 7滴滴出行被投诉价格操纵,网约 11888
- 82023年起,银行存取款迎来 10774
- 9五一来了,大数据杀熟又想来, 9794
- 10手机中存在一个监听开关,你关 9519