ChatGPT每周或逾50万用户 陷心理危机
立即订阅亚视新闻 YouTube,即时掌握时事发展。
小
中
大
人工智能聊天机器人ChatGPT迅速普及的背后,人工智能(AI)与心理健康的互动正引来持续关注。OpenAI近日首次披露其平台上可能涉及心理健康危机的用户比例,引发专家对潜在风险的担忧。
英国广播公司(BBC)报道,据OpenAI分析,每周约有0.07%活跃用户出现疑似精神失常、躁狂或自杀念头的迹象。该比例看似极小,但以ChatGPT首席执行员萨姆·阿尔特曼(Sam Altman)公布的8亿周活跃用户推算,可能涉及超过50万人。
此外,公司估计0.15%用户的对话存在潜在自杀计划或意图的明确迹象,相关数字再次引发外界关注。
AI成情绪对话对象
OpenAI表示,已组建一个覆盖60国、由超过170位精神科医生、心理学家及家庭医生参与的专家网络,为ChatGPT制定应对策略,包括:
- 识别精神错乱或躁狂迹象
- 对潜在自杀风险给予共情回应
- 引导用户寻求现实社会中的援助
- 将高风险对话转移至更安全的模型
但心理健康专家认为,AI支持并非万能。加州大学旧金山分校学者纳格塔(Nagata)指出:
“即便比例很低,以数亿人口计算,也是相当庞大的群体。AI可扩大支持触及面,但其限制必须正视。”
法律与伦理挑战加剧
随着对话型AI参与用户情绪管理的程度增强,相关法律争议也不断升温。
近期,美国加州一对父母控告OpenAI,指控ChatGPT误导并鼓励其16岁儿子自尽,成为AI被控“过失致死”的首宗官司。
另一起案件中,美国康涅狄格州一名男子于谋杀自杀前,曾将与AI的对话公开,而这些对话据称加深了他的妄想。
AI法律学者费曼(Feldman)指出:
“AI会制造现实错觉,对心理脆弱者而言尤其危险。即使贴上警告标签,他们也可能无力听从。”
透明化迈出一步 但远未到终点
业界认为,OpenAI公开数据及改进机制,值得肯定,但AI在精神健康领域的介入仍应保持高度谨慎。
随着用户规模继续增长,AI对脆弱群体的影响,也势必成为技术监管焦点之一。













