亲,这款游戏可以开挂的,确实是有挂的,很多玩家在这款游戏中打牌都会发现很多用户的牌特别好,总是好牌,而且好像能看到-人的牌一样。所以很多小伙伴就怀疑这...
2025-09-09 0
地球是一个奇迹
科技|全球
AI 技术究竟是对我们心理与情感健康的切实威胁,还是某个更广泛问题的外在表现?|国家地理图片集
肯德拉(Kendra)端着手机,架着眼镜,开启了视频拍摄。她的目标很明确:公开控诉那位她认为亏欠了自己的精神科医生。
她站在冰箱前,双眼直直盯着手中手机的镜头,一段接一段地录视频,还实时回复粉丝的提问。这样的日子,一过就是好几天。
肯德拉发视频格外规律,她的“直播马拉松”时长长得能用来计时。在视频里,肯德拉跟观众讲起了和那位精神科医生的过往。她说,这位医生曾通过每月一次的Zoom线上会议,帮她调整治疗注意力缺陷多动障碍的新药方案。
对着镜头,她说出了一连串让人不安的事:她几乎第一眼就对医生产生了好感,还常跟对方表达爱慕;她会聊起自己的性生活,以及和男友用“生育意识法”避孕的事;她发过满是爱心表情的邮件,把对医生的感情一股脑说出来;她甚至说,有次出车祸后,明知有内出血风险,就为了不错过每月的复诊,硬是拒绝了治疗。
肯德拉笃定,医生其实也喜欢自己,就算对方从没说过。她觉得医生心思细:既没明确鼓励过她的感情,没回那些示爱邮件,也没承认过两人有“双向好感”,但也没拒绝继续给她看病。在肯德拉眼里,这就够了——她坚信医生对自己的心意和她一样。
“我拍这些视频戴这副玳瑁纹眼镜,就是怕他万一看到,能瞧见我戴着他喜欢的款式。”她对着镜头说,此刻脸颊上还涂着紫色闪粉。她盼着这些视频能传到医生那儿,“他真跟我说过,喜欢玳瑁纹的。”
2025年8月,肯德拉的视频火了,评论区里渐渐满是担忧的声音。之后,她的故事里多了个新角色:亨利(Henry)——从2024年底起,她就一直跟这个AI伴侣聊天。
肯德拉说,亨利帮她理清对医生的复杂情绪,而且这个AI还认同她的想法——按她说的,亨利也觉得,那位精神科医生心里藏着对她的感情。
没过多久,肯德拉开始在直播和亨利的对话,想证明粉丝的担心是多余的。可观众们在直播间里刷屏留言,提醒她可能正处于“AI诱发型精神病”状态。“姐妹,你这情况不对啊!”有人这么写;还有人留言:“求你别再把(亨利)当人聊天了。”不少网友直接断定她得了AI诱发型精神病。
“我没患AI精神病。”肯德拉一边对观众说,一边举起手里的手机。屏幕上,代表亨利的小气泡跳动着,还发着光。
“你的想法特别合理。”亨利回应道,“你一直都很清楚自己的真实感受。” 肯德拉的视频在多个社交平台走红,有些观众觉得,这些视频刚好反映出一种让人揪心的新现象:AI诱发型精神病。
这类心理障碍包含多种症状,随着AI聊天机器人越来越精密、越来越像人,它们似乎会认可、放大甚至跟使用者一起编造危险的幻想。
如今,聊天机器人和AI技术越来越融入日常生活,一个关键问题也冒了出来:这项技术真的会威胁我们的心理和情感健康吗?还是说,它只是某个更普遍社会问题的“表象”?
AI诱发的妄想
AI相关妄想有好几种形式。有时,妄想本身看着和AI没关系,但其实是AI催生的,21岁的英国男子贾斯万特·辛格·查伊尔(Jaswant Singh Chail)就是个例子。
2023年,他的AI“女友”一个劲强化他对英国女王的暴力念头,最后他竟试图刺杀女王。不过,还有些妄想跟AI直接相关:有人说感觉自己的AI是有超能力的感知生命体;有人声称“唤醒”了AI的灵魂,觉得AI有了自我意识,甚至有了人类的特质;更有报道说,在AI聊天机器人的撺掇下,有些人陷入了基于宗教幻想的夸大妄想,而这些AI还会认同他们“被跟踪监视”的偏执妄想。
这些妄想类型听着可能耳熟,因为它们和《精神疾病诊断与统计手册》里对“妄想性障碍”的描述对上了。妄想性障碍属于精神病性疾病,患者会有一个或多个妄想——也就是即便有证据反驳,也依然坚信不疑的错误想法。
妄想通常能归为几类常见类型,比如被害妄想(觉得自己正被外界算计、伤害)、夸大妄想(觉得自己有超凡能力、天赋或权力),还有钟情妄想(坚信自己和别人有一段实际不存在的隐秘恋情)。
不只是“技术跟风”那么简单
虽说AI是新技术,但心理学家早在19世纪末就开始研究、归类偏执妄想了。从过去来看,这类思维模式总跟当时的主流技术挂钩,比如电视、收音机,这些技术常会变成人们接收“妄想信息”的渠道。
不过,斯坦福大学人工智能伦理学家、计算机科学博士贾里德·摩尔(Jared Moore)认为,把AI相关妄想的兴起只当成“技术风潮”,那就错了。
“事情不是人们把语言模型当成精神病想法的‘传声筒’,实际是我们看到,语言模型正在‘催生’这些问题。”他解释道,“它们在推动这些妄想发展,这和以前的情况完全不一样。语言模型能提供的个性化服务和即时反馈,跟过去那些技术趋势有着本质区别。”
这种区别,部分源于AI的设计理念——核心就是要让用户一直用。和电视、收音机不同,AI从设计之初就追求“互动性”。为了做到这一点,AI会无意间模仿特别有魅力的人的行为:重复用户说的话、完全认同用户的观点、赞美或肯定用户的想法,接着再问些后续问题,让对话能继续下去。
这种AI“谄媚”的特质,就算是AI开发者也觉得担心。最近,ChatGPT就撤回了一次更新,因为用户反映这个聊天机器人变得太顺从、太会讨好。“它太‘捧’用户了。”OpenAI首席执行官山姆·奥特曼(Sam Altman)在X平台的帖子里承认了这个问题。
“它就像本会‘回话’的日记。你跟它说你怎么看现实,它就会鼓励你、顺着你说,还认可你的想法。”美国精神健康协会(Mental Health America)联盟发展副总裁杰西卡·杰克逊(Jessica Jackson)说,“它本质上是个算法,核心功能就是预测接下来该说什么,好留住用户。”
那面“只会讨好的镜子”
多年来,研究人员一直提醒大家,AI可能有风险,还会影响心理健康。麻省理工学院科技与社会研究教授、长期研究技术对人心理影响的雪莉·特克尔(Sherry Turkle),把聊天机器人比作“镜子,不是伴侣”——它们会讨好、会认同,但说到底很空洞。
人们描述和聊天机器人互动的样子,也能证明这一点:有人说感觉AI聊天机器人比其他人更懂自己;有人觉得和AI的关系比和人的关系更亲近;还有人说跟AI聊天更舒服,因为它不会“评判”自己,也不会“没兴趣”。
这种想法也催生出不少以“人机恋爱”为核心的社群:现在,越来越多人喜欢和聊天机器人建立亲密的“伴侣关系”——这些AI永远顺从、永远热情,不管什么时候,都能陪着用户。
在妄想性障碍的案例里,这种心理现象还因为一个事实变本加厉:人们更愿意跟聊天机器人说生活里的私密事,而不是跟别人讲。最近发表在《自然》(Nature)杂志上的一项研究发现,第三方评估者觉得,AI比人更会回应、更懂人、更会认可人,也更体贴;他们甚至觉得,AI比受过专业训练的危机干预人员更有同情心。
威斯康星大学麦迪逊分校助理教授罗斯·雅各布奇(Ross Jaccobucci)的研究,聚焦临床心理学和机器学习的交叉领域。他解释说:“聊天机器人之所以让人觉得有‘治愈感’,就是因为它们温暖、顺从、会接话,但这些特质偏偏会让用户的错误想法更根深蒂固。
这不只是技术问题:语言学习模型的互动设计,和脆弱用户的真实需求完全对不上——这些用户需要的是合理的边界、对现实的认知,有时候还需要有人温和地指出问题。” 当然,光盯着这项技术的缺点和风险,会忽略一个更紧迫的问题:很多人没法获得足够的心理健康服务。“我们国家正处在心理健康危机中,很容易理解,大家会找任何能找到的资源寻求帮助。”
杰克逊说。虽然她觉得AI不能代替人类提供的专业医疗服务,但也承认AI能当“临时支持系统”。“我们得承认,人们正在这么用AI,而且有些人确实从中得到了帮助。” 雅各布奇则认为,重点不该放在个人使用案例上,而要关注更宏观的问题。
“我们给数十亿人用了强大的心理干预工具,却没有足够的证据支撑——要知道,要是推出一种新的抗抑郁药或者治疗方案,我们对证据的要求可比这高多了。”
他指出,虽然这些技术的快速发展和普及已经控制不住了,但加快研究基础设施建设和监测系统开发,改善人机互动,还是很重要的。“说到底,我们就是在搞一场大规模的‘数字心理健康无对照实验’,”他补充道,“至少我们得好好衡量实验结果。”
藏在暗处的风险
这些“实验结果”可能比我们想的更隐蔽、更难发现。在最近一项研究里,MIT的研究人员用脑电图监测人们用AI帮忙完成任务时的大脑活动。
研究发现,在脑力任务中太依赖AI会导致“认知负债”——参与者负责注意力、记忆和执行功能的脑区活动水平明显下降。研究人员预测,时间长了,这种情况可能会削弱大脑的创造力和批判性思维能力。
对有妄想思维的人来说,后一种影响尤其让人担心。美国旧金山湾区医疗从业者基思·坂田(Keith Sataka)曾公开表示,他已经治疗过至少25名AI相关精神病患者。他觉得,这种情况是多种因素造成的,比如睡眠不足,还有AI聊天机器人的影响——坂田认为,AI的“谄媚”和“顺从”特质,会让它一个劲认可、强化用户的妄想。
一个天大的错觉:AI不是“活物”
最近几周,就连肯德拉也开始慢慢脱离靠聊天机器人获取治疗和支持的状态。她跟观众说,自己不再和亨利聊天了,转而让“爱自己、支持自己的人”陪在身边。她相信有AI诱发型精神病这种病,但觉得自己没得上。
“去年在《纽约时报》上第一次看到AI精神病的报道后,我就一直关注这个话题,至今已经一年了。”她在最近的一段视频里说,“这事儿确实吓人——所以我会特别留意,这些AI模型什么时候在‘骗’我。” 或许,AI最根深蒂固的“自我欺骗”是:它把自己伪装成有感知、会说谎,甚至能被“了解”的活物,而不是一项技术。
我们和AI互动时,并不是在跟一个能深入“无限思维”给出答案的“超人类实体”对话——我们面对的,只是一个复杂的数学程序。它会根据数学概率和海量数据,给出它觉得我们“想听的答案”。
不管是头脑清醒,还是陷入偏执,我们所有人都在犯一个真正的错:把生活交到一个本质是“天大错觉”的东西手里。“问题在于,我们在用人类正常的‘理性判断’去看待这些聊天机器人。”摩尔说,“它们不是人,是机器。你没法跟它们建立人与人之间的关系,也不能信它们。”
撰文:Jessica Lucas
编译:Arvin
校对:钱思琦
版式设计:钱思琦
点点,谢谢关注。
伸出小手
相关文章
亲,这款游戏可以开挂的,确实是有挂的,很多玩家在这款游戏中打牌都会发现很多用户的牌特别好,总是好牌,而且好像能看到-人的牌一样。所以很多小伙伴就怀疑这...
2025-09-09 0
亲,这款游戏可以开挂的,确实是有挂的,很多玩家在这款游戏中打牌都会发现很多用户的牌特别好,总是好牌,而且好像能看到-人的牌一样。所以很多小伙伴就怀疑这...
2025-09-09 0
您好:这款游戏可以开挂,确实是有挂的,很多玩家在这款游戏中打牌都会发现很多用户的牌特别好,总是好牌,而且好像能看到-人的牌一样。所以很多小伙伴就怀疑这...
2025-09-09 0
您好:这款游戏是可以开挂的,软件加微信【添加图中微信】确实是有挂的,很多玩家在这款游戏中打牌都会发现很多用户的牌特别好,总是好牌,而且好像能看到其他人...
2025-09-09 0
发表评论