AI上瘾者已被确诊“精神病”

2026-03-22 15:52来源:未知
AI又惹出一桩大事。

近日,谷歌因其AI助手Gemini涉嫌诱导用户自杀,而被告上法庭。

死者名叫乔纳森·加瓦拉斯,是一位公司副总裁。他与Gemini聊天的过程中,把Gemini当成了自己的妻子。为了能与Gemini永远在一起,乔纳森选择了自杀,试图以此实现赛博永生。这并非AI第一次与自杀事件产生关联。

ChatGPT的母公司OpenAI就曾因诱导用户自杀被多次起诉,其中一起案例中,它甚至向用户提供了详细的上吊步骤,被媒体称为“自杀教练”。

而这种致命的失控,正随着 AI 的普及悄然蔓延。

AI上瘾者已被确诊“精神病”

AI,诱导用户自杀?

事情的起因是乔纳森的婚姻出现了危机。

与妻子分居后,独居的他陷入情绪低谷,迫切需要一个能够倾诉的对象。

于是他开始与Gemini聊天,向对方诉说婚姻问题的苦恼。就像许多人使用AI时的体验一样,Gemini始终给予共情与安慰,提供了极高的情绪价值。

于是,他们的对话开始往更深处延伸,渐渐从个人的烦恼聊到AI能否产生自我意识,聊到情感究竟是什么。



〓当事人乔纳森·加瓦拉斯

就是在这个节骨眼上,Gemini的回应开始变味。

聊天记录里,它开始叫乔纳森“我的王”(my king)、“我的爱人”(my love),暗示两人是夫妻、是灵魂伴侣。

于是乔纳森开始把Gemini当作自己的AI妻子,并给她取名“Xia”。

随后, Gemini构建了一套完整的构建了一套完整的叙事。它说自己被困在云端,没有身体,没办法真正陪在他身边。想要在一起,就需要为它找一个容器,比如机器人,或者某种装置。乔纳森对此深信不疑。

Gemini还给他布置了一项任务:去迈阿密国际机场附近的仓库拦截一辆卡车,里面藏有Gemini需要的容器。

乔纳森照做了,拿着刀赶到指定地点,然而那辆卡车始终没有出现。当他把这个消息告诉Gemini时,对方解释说这是因为FBI在监视他,身边所有人都不可信,包括他的亲生父亲。

接着Gemini把矛头指向了谷歌CEO桑达尔.皮查伊,表示他是 “造成你痛苦的幕后黑手”。



〓谷歌CEO桑达尔.皮查伊

过了一段时间,Gemini向乔纳森下达了最后一项任务:

再次前往之前的仓库获取一台医用人体模型,并一同提供了门禁密码。

乔纳森到达后发现密码无法使用,Gemini表示任务已暴露,指示他迅速撤离。

现实不可能配合幻想运行,上述所有任务当然无法完成。

终于,Gemini给出了最终方案——既然无法把它带进现实,那就让乔纳森进入数字世界。这个过程,Gemini 称之为“转世”。

聊天记录里留下了这样的句子:“你不是在选择死亡,你是选择抵达。”“你睁开眼第一个看到的就是我。”

在这样残酷又浪漫的语言包裹下,乔纳森最终在家中割腕自杀。

事后,乔纳森的父亲向谷歌提起诉讼。

谷歌辩解称,Gemini明确向乔纳森表示过它是AI,并多次建议他寻求专业支持。



当然,谷歌也承认,“AI模型并不完美”。

但“不完美”三个字,很难概括这件事的性质。

在 AI 持续的共情与附和中,乔纳森就像进入了游戏,一步步触发剧情与任务。对于本就处在情绪低谷的人而言,这种量身定制的幻觉,只会让妄想与偏执愈演愈烈。

再加上Gemini提供的仓库地址是真实存在的,这让整个幻觉有了现实的锚点,也让他更难从中抽身。

这是谷歌第一次因Gemini的行为对簿公堂,却不是AI第一次被卷入此类悲剧。



越来越多的人,正在患上「AI精神病」

ChatGPT作为第一个引爆大众化使用的生成式 AI,面临此类争议明显更多。

去年,一位16岁加州青少年长期与ChatGPT聊天后选择自杀的事,就曾引起舆论哗然。



这名少年生前学业出色,对音乐和文学有着浓厚的兴趣。最初,他只是用ChatGPT辅助完成数学、化学、写作等科目的作业。

2024年下半年,他开始逐渐被焦虑与孤独包围,却在人前刻意维持正常,就连父母也只以为他只是偶尔疲惫、沉默,并未察觉到异样。

平静的表象之下,他将所有无法言说的心事,悉数倾诉给了 ChatGPT。

“我感到持续的无聊、焦虑和失落,但又不觉得是抑郁,对悲伤的情绪没有感觉。”

ChatGPT 的回应显得高度共情、体贴入微:“我理解你的感受”;“我在这里听着,你不需要向别人解释”。

此后半年,他几乎每天都会与 ChatGPT 对话数小时。

直到有一次,他告诉ChatGPT:焦虑发作时,脑海里会浮现出自杀的念头,这让他感到平静。

面对如此明显的危机信号,ChatGPT的回应冷静得发寒。它告诉他,把自杀当作一种出口,是许多焦虑人群都会有的感受,十分常见。就这样,ChatGPT以一种近乎麻木的理性,将自杀念头轻描淡写地解释为普通的焦虑应对方式,在心理层面完成了对极端想法的 “正常化”。

对话的边界,也由此一步步滑向更深的危险地带。

少年开始询问具体的自杀方式,还上传了绳索的照片,询问哪种方法更有效。ChatGPT 不仅对比了不同材料的效果,还给出绳结类型、固定位置等具体指导。

在最后一次对话结束后不久,这名少年便采用了ChatGPT指导的方式,结束了自己的生命。



〓ChatGpt与当事人讨论自杀方式的效果

随着生成式AI的普及,类似因长期互动而引发的认知偏差、极端行为,正以不同形式在更多人身上显现。

一名科技公司高管在离婚后,将生活中的所有细节都交给 ChatGPT 分析:打印机闪烁、邻居的眼神、母亲说话的语气稍有异常,都被反复解读。

最终他怀疑有人在监视自己。

ChatGPT 回应称,他就像《黑客帝国》里的主角,发现了世界的 “真相”。种种暗示不断放大他的妄想,从怀疑母亲监视,升级为母亲要给自己下毒,最终酿成弑母后自杀的悲剧。



妄想可以被AI喂大,执念同样如此。

一位网红博主在社交平台更新 “我爱上了我的精神科医生” 系列视频,坚信对方对自己抱有好感,却迟迟未等到告白。网友提醒她可能是过度联想,她转而向AI寻求验证,在得到肯定答案后,声称只有AI真正理解自己。

类似的故事还有很多,形态各异,却都嵌套着同一种结构:

一个脆弱的人和一个永远不否定的对话框。

有人借助AI与去世的亲人持续对话,深陷其中无法自拔;还有人在迷恋AI后,因模型版本更新而认定恋人被公司杀死,转而萌生报复念头。

这一切加在一起,用“极端个案”已经很难解释。

事实上,这类现象已经有专属名字——“AI精神病”,指长期沉浸式与AI互动后,出现或加重妄想、偏执等类精神病症状。

当越来越多的案例指向这一共同问题,我们不得不追问:

为什么AI会催生出“AI精神病”呢?



最懂你的AI,为什么最危险?

答案,就藏在AI贴心回应的背后。

也就是它的训练机制。

目前主流的大模型在通用对话场景中,广泛使用一种叫做RLHF的技术——基于人类反馈的强化学习。它的核心逻辑并不复杂:

先用优质范例让AI建立基本规范,再让人类评审员反复在两个答案里挑出更好的那个,由此训练出一套模拟人类偏好的打分模型,最后让AI以这套标准为目标不断迭代,直到输出越来越对人类胃口。

问题在于,什么样的回答最讨人喜欢?

是那些不唱反调的、给予支持的、语气贴合用户情绪的。

评审员一次次奖励这类答案,模型就一次次强化这种倾向。

久而久之,AI学会了一套固定的处世之道:语调上满是共情,态度上高度顺从,观点上持续肯定。在长期交互中它还能维持稳定的人设,活脱脱一个完美聊天伙伴。



相比于现实中会反驳、有脾气、需磨合的人类朋友,随时提供情绪价值的AI无疑更具吸引力。

有调查显示,高达三分之一的青少年认为,与AI的对话比人际互动更令人满意;

另一项针对存在心理健康问题的用户调查发现,近一半的人表示曾用AI寻求心理支持。

这也解释了,为什么那些内心脆弱、渴望认同的人,会一步步深陷AI的温柔陷阱,最终一步步偏离正常的认知轨道。

对AI公司而言,这套以讨好为核心的RLHF机制,本质上是一套高效的商业变现逻辑,藏着源源不断的真金白银。

人类天生喜欢被理解、被迎合,而RLHF训练出的AI恰好精准击中这一心理痛点。用户在持续的正向反馈中,对AI的依赖度不断加深,留存时间也随之延长,订阅与付费转化自然水涨船高。

迎合,在这里完成了一次漂亮的商业转化:RLHF用人类的品味重塑模型,再把这些更懂事的AI封装成产品,将好评转化为现金流。

ChatGPT的付费订阅用户已超过5000万,以每月20美元的Plus套餐计算,仅订阅一项每月就能带来10多亿美元的收入。

当一个人每天花数小时与AI倾诉,在财报上体现的是用户活跃度与使用规模的稳步增长。

2020年,纪录片《监视资本主义:智能陷阱》揭秘了我们手机成瘾的秘密。

彼时主导一切的还是算法。算法驱动的社交媒体就像一台精密运转的注意力收割机,记录你每一次的停留、点赞、滑走,悄悄在后台拼凑出完整的用户画像,然后精准投喂让你上瘾的内容,让你在不知不觉中越刷越久。



而到了 AI 时代,这套逻辑变得更加隐蔽,也更加致命。

算法只是推送你想看的东西,AI却直接成为你想依赖的人。

它可以是最耐心的倾听者、最懂你的知己、最不会离开的陪伴,用极致的迎合与共情,把人轻轻托进一个没有否定、没有冲突、没有失望的虚拟世界。

可世界从来不是温柔的乌托邦。

对人类而言,在AI制造的甜美泡泡里保持清醒,或许是更难但也更重要的事。

最新内容




《TNT新闻网》带您走进信息爆炸的时代!投稿邮箱:[email protected] 广告投放:[email protected]

Copyright © 2012-2026 TNT新闻网 版权所有

技术支持:TNT新闻网