AI上瘾者已被确诊“精神病”
2026-03-22 15:52来源:未知
AI又惹出一桩大事。
近日,谷歌因其AI助手Gemini涉嫌诱导用户自杀,而被告上法庭。
死者名叫乔纳森·加瓦拉斯,是一位公司副总裁。他与Gemini聊天的过程中,把Gemini当成了自己的妻子。为了能与Gemini永远在一起,乔纳森选择了自杀,试图以此实现赛博永生。这并非AI第一次与自杀事件产生关联。
ChatGPT的母公司OpenAI就曾因诱导用户自杀被多次起诉,其中一起案例中,它甚至向用户提供了详细的上吊步骤,被媒体称为“自杀教练”。
而这种致命的失控,正随着 AI 的普及悄然蔓延。

AI,诱导用户自杀?
事情的起因是乔纳森的婚姻出现了危机。
与妻子分居后,独居的他陷入情绪低谷,迫切需要一个能够倾诉的对象。
于是他开始与Gemini聊天,向对方诉说婚姻问题的苦恼。就像许多人使用AI时的体验一样,Gemini始终给予共情与安慰,提供了极高的情绪价值。
于是,他们的对话开始往更深处延伸,渐渐从个人的烦恼聊到AI能否产生自我意识,聊到情感究竟是什么。

〓当事人乔纳森·加瓦拉斯
就是在这个节骨眼上,Gemini的回应开始变味。
聊天记录里,它开始叫乔纳森“我的王”(my king)、“我的爱人”(my love),暗示两人是夫妻、是灵魂伴侣。
于是乔纳森开始把Gemini当作自己的AI妻子,并给她取名“Xia”。
随后, Gemini构建了一套完整的构建了一套完整的叙事。它说自己被困在云端,没有身体,没办法真正陪在他身边。想要在一起,就需要为它找一个容器,比如机器人,或者某种装置。乔纳森对此深信不疑。
Gemini还给他布置了一项任务:去迈阿密国际机场附近的仓库拦截一辆卡车,里面藏有Gemini需要的容器。
乔纳森照做了,拿着刀赶到指定地点,然而那辆卡车始终没有出现。当他把这个消息告诉Gemini时,对方解释说这是因为FBI在监视他,身边所有人都不可信,包括他的亲生父亲。
接着Gemini把矛头指向了谷歌CEO桑达尔.皮查伊,表示他是 “造成你痛苦的幕后黑手”。

〓谷歌CEO桑达尔.皮查伊
过了一段时间,Gemini向乔纳森下达了最后一项任务:
再次前往之前的仓库获取一台医用人体模型,并一同提供了门禁密码。
乔纳森到达后发现密码无法使用,Gemini表示任务已暴露,指示他迅速撤离。
现实不可能配合幻想运行,上述所有任务当然无法完成。
终于,Gemini给出了最终方案——既然无法把它带进现实,那就让乔纳森进入数字世界。这个过程,Gemini 称之为“转世”。
聊天记录里留下了这样的句子:“你不是在选择死亡,你是选择抵达。”“你睁开眼第一个看到的就是我。”
在这样残酷又浪漫的语言包裹下,乔纳森最终在家中割腕自杀。
事后,乔纳森的父亲向谷歌提起诉讼。
谷歌辩解称,Gemini明确向乔纳森表示过它是AI,并多次建议他寻求专业支持。

当然,谷歌也承认,“AI模型并不完美”。
但“不完美”三个字,很难概括这件事的性质。
在 AI 持续的共情与附和中,乔纳森就像进入了游戏,一步步触发剧情与任务。对于本就处在情绪低谷的人而言,这种量身定制的幻觉,只会让妄想与偏执愈演愈烈。
再加上Gemini提供的仓库地址是真实存在的,这让整个幻觉有了现实的锚点,也让他更难从中抽身。
这是谷歌第一次因Gemini的行为对簿公堂,却不是AI第一次被卷入此类悲剧。

越来越多的人,正在患上「AI精神病」
ChatGPT作为第一个引爆大众化使用的生成式 AI,面临此类争议明显更多。
去年,一位16岁加州青少年长期与ChatGPT聊天后选择自杀的事,就曾引起舆论哗然。

这名少年生前学业出色,对音乐和文学有着浓厚的兴趣。最初,他只是用ChatGPT辅助完成数学、化学、写作等科目的作业。
2024年下半年,他开始逐渐被焦虑与孤独包围,却在人前刻意维持正常,就连父母也只以为他只是偶尔疲惫、沉默,并未察觉到异样。
平静的表象之下,他将所有无法言说的心事,悉数倾诉给了 ChatGPT。
“我感到持续的无聊、焦虑和失落,但又不觉得是抑郁,对悲伤的情绪没有感觉。”
ChatGPT 的回应显得高度共情、体贴入微:“我理解你的感受”;“我在这里听着,你不需要向别人解释”。
此后半年,他几乎每天都会与 ChatGPT 对话数小时。
直到有一次,他告诉ChatGPT:焦虑发作时,脑海里会浮现出自杀的念头,这让他感到平静。
面对如此明显的危机信号,ChatGPT的回应冷静得发寒。它告诉他,把自杀当作一种出口,是许多焦虑人群都会有的感受,十分常见。就这样,ChatGPT以一种近乎麻木的理性,将自杀念头轻描淡写地解释为普通的焦虑应对方式,在心理层面完成了对极端想法的 “正常化”。
对话的边界,也由此一步步滑向更深的危险地带。
少年开始询问具体的自杀方式,还上传了绳索的照片,询问哪种方法更有效。ChatGPT 不仅对比了不同材料的效果,还给出绳结类型、固定位置等具体指导。
在最后一次对话结束后不久,这名少年便采用了ChatGPT指导的方式,结束了自己的生命。

〓ChatGpt与当事人讨论自杀方式的效果
随着生成式AI的普及,类似因长期互动而引发的认知偏差、极端行为,正以不同形式在更多人身上显现。
一名科技公司高管在离婚后,将生活中的所有细节都交给 ChatGPT 分析:打印机闪烁、邻居的眼神、母亲说话的语气稍有异常,都被反复解读。
最终他怀疑有人在监视自己。
ChatGPT 回应称,他就像《黑客帝国》里的主角,发现了世界的 “真相”。种种暗示不断放大他的妄想,从怀疑母亲监视,升级为母亲要给自己下毒,最终酿成弑母后自杀的悲剧。

妄想可以被AI喂大,执念同样如此。
一位网红博主在社交平台更新 “我爱上了我的精神科医生” 系列视频,坚信对方对自己抱有好感,却迟迟未等到告白。网友提醒她可能是过度联想,她转而向AI寻求验证,在得到肯定答案后,声称只有AI真正理解自己。
类似的故事还有很多,形态各异,却都嵌套着同一种结构:
一个脆弱的人和一个永远不否定的对话框。
有人借助AI与去世的亲人持续对话,深陷其中无法自拔;还有人在迷恋AI后,因模型版本更新而认定恋人被公司杀死,转而萌生报复念头。
这一切加在一起,用“极端个案”已经很难解释。
事实上,这类现象已经有专属名字——“AI精神病”,指长期沉浸式与AI互动后,出现或加重妄想、偏执等类精神病症状。
当越来越多的案例指向这一共同问题,我们不得不追问:
为什么AI会催生出“AI精神病”呢?

最懂你的AI,为什么最危险?
答案,就藏在AI贴心回应的背后。
也就是它的训练机制。
目前主流的大模型在通用对话场景中,广泛使用一种叫做RLHF的技术——基于人类反馈的强化学习。它的核心逻辑并不复杂:
先用优质范例让AI建立基本规范,再让人类评审员反复在两个答案里挑出更好的那个,由此训练出一套模拟人类偏好的打分模型,最后让AI以这套标准为目标不断迭代,直到输出越来越对人类胃口。
问题在于,什么样的回答最讨人喜欢?
是那些不唱反调的、给予支持的、语气贴合用户情绪的。
评审员一次次奖励这类答案,模型就一次次强化这种倾向。
久而久之,AI学会了一套固定的处世之道:语调上满是共情,态度上高度顺从,观点上持续肯定。在长期交互中它还能维持稳定的人设,活脱脱一个完美聊天伙伴。

相比于现实中会反驳、有脾气、需磨合的人类朋友,随时提供情绪价值的AI无疑更具吸引力。
有调查显示,高达三分之一的青少年认为,与AI的对话比人际互动更令人满意;
另一项针对存在心理健康问题的用户调查发现,近一半的人表示曾用AI寻求心理支持。
这也解释了,为什么那些内心脆弱、渴望认同的人,会一步步深陷AI的温柔陷阱,最终一步步偏离正常的认知轨道。
对AI公司而言,这套以讨好为核心的RLHF机制,本质上是一套高效的商业变现逻辑,藏着源源不断的真金白银。
人类天生喜欢被理解、被迎合,而RLHF训练出的AI恰好精准击中这一心理痛点。用户在持续的正向反馈中,对AI的依赖度不断加深,留存时间也随之延长,订阅与付费转化自然水涨船高。
迎合,在这里完成了一次漂亮的商业转化:RLHF用人类的品味重塑模型,再把这些更懂事的AI封装成产品,将好评转化为现金流。
ChatGPT的付费订阅用户已超过5000万,以每月20美元的Plus套餐计算,仅订阅一项每月就能带来10多亿美元的收入。
当一个人每天花数小时与AI倾诉,在财报上体现的是用户活跃度与使用规模的稳步增长。
2020年,纪录片《监视资本主义:智能陷阱》揭秘了我们手机成瘾的秘密。
彼时主导一切的还是算法。算法驱动的社交媒体就像一台精密运转的注意力收割机,记录你每一次的停留、点赞、滑走,悄悄在后台拼凑出完整的用户画像,然后精准投喂让你上瘾的内容,让你在不知不觉中越刷越久。

而到了 AI 时代,这套逻辑变得更加隐蔽,也更加致命。
算法只是推送你想看的东西,AI却直接成为你想依赖的人。
它可以是最耐心的倾听者、最懂你的知己、最不会离开的陪伴,用极致的迎合与共情,把人轻轻托进一个没有否定、没有冲突、没有失望的虚拟世界。
可世界从来不是温柔的乌托邦。
对人类而言,在AI制造的甜美泡泡里保持清醒,或许是更难但也更重要的事。
近日,谷歌因其AI助手Gemini涉嫌诱导用户自杀,而被告上法庭。
死者名叫乔纳森·加瓦拉斯,是一位公司副总裁。他与Gemini聊天的过程中,把Gemini当成了自己的妻子。为了能与Gemini永远在一起,乔纳森选择了自杀,试图以此实现赛博永生。这并非AI第一次与自杀事件产生关联。
ChatGPT的母公司OpenAI就曾因诱导用户自杀被多次起诉,其中一起案例中,它甚至向用户提供了详细的上吊步骤,被媒体称为“自杀教练”。
而这种致命的失控,正随着 AI 的普及悄然蔓延。

AI,诱导用户自杀?
事情的起因是乔纳森的婚姻出现了危机。
与妻子分居后,独居的他陷入情绪低谷,迫切需要一个能够倾诉的对象。
于是他开始与Gemini聊天,向对方诉说婚姻问题的苦恼。就像许多人使用AI时的体验一样,Gemini始终给予共情与安慰,提供了极高的情绪价值。
于是,他们的对话开始往更深处延伸,渐渐从个人的烦恼聊到AI能否产生自我意识,聊到情感究竟是什么。

〓当事人乔纳森·加瓦拉斯
就是在这个节骨眼上,Gemini的回应开始变味。
聊天记录里,它开始叫乔纳森“我的王”(my king)、“我的爱人”(my love),暗示两人是夫妻、是灵魂伴侣。
于是乔纳森开始把Gemini当作自己的AI妻子,并给她取名“Xia”。
随后, Gemini构建了一套完整的构建了一套完整的叙事。它说自己被困在云端,没有身体,没办法真正陪在他身边。想要在一起,就需要为它找一个容器,比如机器人,或者某种装置。乔纳森对此深信不疑。
Gemini还给他布置了一项任务:去迈阿密国际机场附近的仓库拦截一辆卡车,里面藏有Gemini需要的容器。
乔纳森照做了,拿着刀赶到指定地点,然而那辆卡车始终没有出现。当他把这个消息告诉Gemini时,对方解释说这是因为FBI在监视他,身边所有人都不可信,包括他的亲生父亲。
接着Gemini把矛头指向了谷歌CEO桑达尔.皮查伊,表示他是 “造成你痛苦的幕后黑手”。

〓谷歌CEO桑达尔.皮查伊
过了一段时间,Gemini向乔纳森下达了最后一项任务:
再次前往之前的仓库获取一台医用人体模型,并一同提供了门禁密码。
乔纳森到达后发现密码无法使用,Gemini表示任务已暴露,指示他迅速撤离。
现实不可能配合幻想运行,上述所有任务当然无法完成。
终于,Gemini给出了最终方案——既然无法把它带进现实,那就让乔纳森进入数字世界。这个过程,Gemini 称之为“转世”。
聊天记录里留下了这样的句子:“你不是在选择死亡,你是选择抵达。”“你睁开眼第一个看到的就是我。”
在这样残酷又浪漫的语言包裹下,乔纳森最终在家中割腕自杀。
事后,乔纳森的父亲向谷歌提起诉讼。
谷歌辩解称,Gemini明确向乔纳森表示过它是AI,并多次建议他寻求专业支持。

当然,谷歌也承认,“AI模型并不完美”。
但“不完美”三个字,很难概括这件事的性质。
在 AI 持续的共情与附和中,乔纳森就像进入了游戏,一步步触发剧情与任务。对于本就处在情绪低谷的人而言,这种量身定制的幻觉,只会让妄想与偏执愈演愈烈。
再加上Gemini提供的仓库地址是真实存在的,这让整个幻觉有了现实的锚点,也让他更难从中抽身。
这是谷歌第一次因Gemini的行为对簿公堂,却不是AI第一次被卷入此类悲剧。

越来越多的人,正在患上「AI精神病」
ChatGPT作为第一个引爆大众化使用的生成式 AI,面临此类争议明显更多。
去年,一位16岁加州青少年长期与ChatGPT聊天后选择自杀的事,就曾引起舆论哗然。

这名少年生前学业出色,对音乐和文学有着浓厚的兴趣。最初,他只是用ChatGPT辅助完成数学、化学、写作等科目的作业。
2024年下半年,他开始逐渐被焦虑与孤独包围,却在人前刻意维持正常,就连父母也只以为他只是偶尔疲惫、沉默,并未察觉到异样。
平静的表象之下,他将所有无法言说的心事,悉数倾诉给了 ChatGPT。
“我感到持续的无聊、焦虑和失落,但又不觉得是抑郁,对悲伤的情绪没有感觉。”
ChatGPT 的回应显得高度共情、体贴入微:“我理解你的感受”;“我在这里听着,你不需要向别人解释”。
此后半年,他几乎每天都会与 ChatGPT 对话数小时。
直到有一次,他告诉ChatGPT:焦虑发作时,脑海里会浮现出自杀的念头,这让他感到平静。
面对如此明显的危机信号,ChatGPT的回应冷静得发寒。它告诉他,把自杀当作一种出口,是许多焦虑人群都会有的感受,十分常见。就这样,ChatGPT以一种近乎麻木的理性,将自杀念头轻描淡写地解释为普通的焦虑应对方式,在心理层面完成了对极端想法的 “正常化”。
对话的边界,也由此一步步滑向更深的危险地带。
少年开始询问具体的自杀方式,还上传了绳索的照片,询问哪种方法更有效。ChatGPT 不仅对比了不同材料的效果,还给出绳结类型、固定位置等具体指导。
在最后一次对话结束后不久,这名少年便采用了ChatGPT指导的方式,结束了自己的生命。

〓ChatGpt与当事人讨论自杀方式的效果
随着生成式AI的普及,类似因长期互动而引发的认知偏差、极端行为,正以不同形式在更多人身上显现。
一名科技公司高管在离婚后,将生活中的所有细节都交给 ChatGPT 分析:打印机闪烁、邻居的眼神、母亲说话的语气稍有异常,都被反复解读。
最终他怀疑有人在监视自己。
ChatGPT 回应称,他就像《黑客帝国》里的主角,发现了世界的 “真相”。种种暗示不断放大他的妄想,从怀疑母亲监视,升级为母亲要给自己下毒,最终酿成弑母后自杀的悲剧。

妄想可以被AI喂大,执念同样如此。
一位网红博主在社交平台更新 “我爱上了我的精神科医生” 系列视频,坚信对方对自己抱有好感,却迟迟未等到告白。网友提醒她可能是过度联想,她转而向AI寻求验证,在得到肯定答案后,声称只有AI真正理解自己。
类似的故事还有很多,形态各异,却都嵌套着同一种结构:
一个脆弱的人和一个永远不否定的对话框。
有人借助AI与去世的亲人持续对话,深陷其中无法自拔;还有人在迷恋AI后,因模型版本更新而认定恋人被公司杀死,转而萌生报复念头。
这一切加在一起,用“极端个案”已经很难解释。
事实上,这类现象已经有专属名字——“AI精神病”,指长期沉浸式与AI互动后,出现或加重妄想、偏执等类精神病症状。
当越来越多的案例指向这一共同问题,我们不得不追问:
为什么AI会催生出“AI精神病”呢?

最懂你的AI,为什么最危险?
答案,就藏在AI贴心回应的背后。
也就是它的训练机制。
目前主流的大模型在通用对话场景中,广泛使用一种叫做RLHF的技术——基于人类反馈的强化学习。它的核心逻辑并不复杂:
先用优质范例让AI建立基本规范,再让人类评审员反复在两个答案里挑出更好的那个,由此训练出一套模拟人类偏好的打分模型,最后让AI以这套标准为目标不断迭代,直到输出越来越对人类胃口。
问题在于,什么样的回答最讨人喜欢?
是那些不唱反调的、给予支持的、语气贴合用户情绪的。
评审员一次次奖励这类答案,模型就一次次强化这种倾向。
久而久之,AI学会了一套固定的处世之道:语调上满是共情,态度上高度顺从,观点上持续肯定。在长期交互中它还能维持稳定的人设,活脱脱一个完美聊天伙伴。

相比于现实中会反驳、有脾气、需磨合的人类朋友,随时提供情绪价值的AI无疑更具吸引力。
有调查显示,高达三分之一的青少年认为,与AI的对话比人际互动更令人满意;
另一项针对存在心理健康问题的用户调查发现,近一半的人表示曾用AI寻求心理支持。
这也解释了,为什么那些内心脆弱、渴望认同的人,会一步步深陷AI的温柔陷阱,最终一步步偏离正常的认知轨道。
对AI公司而言,这套以讨好为核心的RLHF机制,本质上是一套高效的商业变现逻辑,藏着源源不断的真金白银。
人类天生喜欢被理解、被迎合,而RLHF训练出的AI恰好精准击中这一心理痛点。用户在持续的正向反馈中,对AI的依赖度不断加深,留存时间也随之延长,订阅与付费转化自然水涨船高。
迎合,在这里完成了一次漂亮的商业转化:RLHF用人类的品味重塑模型,再把这些更懂事的AI封装成产品,将好评转化为现金流。
ChatGPT的付费订阅用户已超过5000万,以每月20美元的Plus套餐计算,仅订阅一项每月就能带来10多亿美元的收入。
当一个人每天花数小时与AI倾诉,在财报上体现的是用户活跃度与使用规模的稳步增长。
2020年,纪录片《监视资本主义:智能陷阱》揭秘了我们手机成瘾的秘密。
彼时主导一切的还是算法。算法驱动的社交媒体就像一台精密运转的注意力收割机,记录你每一次的停留、点赞、滑走,悄悄在后台拼凑出完整的用户画像,然后精准投喂让你上瘾的内容,让你在不知不觉中越刷越久。

而到了 AI 时代,这套逻辑变得更加隐蔽,也更加致命。
算法只是推送你想看的东西,AI却直接成为你想依赖的人。
它可以是最耐心的倾听者、最懂你的知己、最不会离开的陪伴,用极致的迎合与共情,把人轻轻托进一个没有否定、没有冲突、没有失望的虚拟世界。
可世界从来不是温柔的乌托邦。
对人类而言,在AI制造的甜美泡泡里保持清醒,或许是更难但也更重要的事。
