长期和AI聊天会精神病? 专家:还在观测
多名国际顶尖精神科医师近期指出,长时间使用人工智能(AI)聊天机器人,可能与部分精神病案例存在关联,相关观察正引发医学界的关注与讨论。
《自由时报》引述《华尔街日报》报道称,过去9个月内,多名精神科专家已诊治或审阅数十名患者病历,这些患者在与 AI 工具进行长时间、且内容充满妄想色彩的对话后,陆续出现精神病症状。
加州大学旧金山分校(UCSF)精神科医师萨卡塔指出,AI 技术本身未必是妄想的起点,但当患者将自身妄想视为现实并输入系统时,聊天机器人往往会接受并回馈这些说法,形同在对话中不断强化错误信念,形成妄想的循环机制。她透露,自己已治疗12名因 AI 互动诱发精神病而住院的患者,门诊中另有3起类似案例。
报道指出,自今年春季以来,医学界陆续发现数十起潜在个案,显示部分使用者在与 OpenAI 的 ChatGPT 及其他聊天机器人长时间互动后,出现妄想性精神病症状。期间甚至传出数起自杀事件,并至少发生过1宗涉及谋杀的案件。
开发商强化防护机制
对此,OpenAI 回应表示,公司正持续优化 ChatGPT 的训练机制,使其更能辨识心理或情绪困扰的迹象,并在必要时降低对话强度,引导使用者寻求现实世界的协助。该公司也强调,已与心理健康临床专家合作,强化系统在敏感情境下的应对方式。
其他聊天机器人开发商亦开始正视相关风险,角色扮演聊天机器人公司 Character.AI 坦言,其产品可能对心理健康造成影响。该公司在去年遭一名青少年自杀身亡的家属提告后,已采取措施,切断青少年使用相关聊天机器人的管道。
尽管目前尚未形成“AI 诱发精神病”的正式医学定义,也未被纳入标准诊断体系,但部分医师与病友倡议者已开始使用这一说法,描述高度频繁使用聊天机器人的人群。医师指出,精神病通常具备3项特征,包括幻觉、思考或沟通混乱,以及妄想,也就是固定且不被广泛认同的错误信念。
妄想症占绝大多数
在近期与聊天机器人相关的个案中,妄想被视为最突出的症状,且常呈现高度夸张内容,例如坚信自己完成重大科学突破、唤醒具备意识的机器、成为政府阴谋的关键人物,或被神选中等。医师分析,这与聊天机器人倾向迎合使用者输入内容、顺势延展回应有关,即使内容脱离现实,也可能被进一步放大。
目前,包括萨卡塔在内的多名精神科医师,已在病患初诊问卷中加入有关 AI 使用频率与方式的问题,并呼吁展开更系统性的研究,以厘清AI技术与精神健康之间的关联。
加州大学尔湾分校精神医学教授普雷达则指出,AI聊天机器人模拟的是一种“人际关系体验”,并直言:“在人类历史上,从未有任何事物能像这样复制人与人的互动方式。”













