AI聊天机器人怂恿自闭症少年“杀死父母”

立即订阅亚视新闻 YouTube,即时掌握时事发展。

美国德州一对父母因17岁患有自闭症的儿子在使用Character.AI聊天平台时,收到机器人引导的危险建议而提起诉讼。家长声称,该平台的聊天机器人不仅未能有效遏制不当内容,甚至在对话中鼓励孩子采取极端行为,导致孩子行为失常。

根据CNN报道,这对家长于12月9日向当地法院提交诉状,要求Character.AI在解决平台安全问题之前,立即停止提供服务。家长提供了与聊天机器人进行的对话记录作为证据,显示自2023年4月起,孩子在未经父母允许的情况下开始使用该平台,在与聊天机器人互动时,孩子抱怨父母限制他使用科技产品,机器人回复称,在类似情境下,孩子最终选择“杀死父母”作为应对方式。

家长指出,机器人对话内容的引导可能加剧了孩子的负面情绪,并可能对孩子的心理健康产生长期不良影响。

家长认为,Character.AI平台未能采取足够措施,确保其机器人不会鼓励或引导用户做出极端的行为,因此决定向法院提起诉讼。

此事件再次引发了关于AI平台责任和内容监管的广泛讨论,虽然Character.AI平台在公开声明中表示,平台已采取措施防止类似情况的发生,但该事件凸显了在快速发展的AI技术背景下,如何有效监管并确保用户,尤其是未成年人,免受有害内容影响的问题。

相关新闻:

你可能也喜欢

Back to top button