ChatGPT推青少年保护措施 系统将推测用户年龄
人工智能道德议题受到关注,OpenAI首席执行官阿尔特曼(Sam Altman)星期二(9月16日)表示,ChatGPT正在打造一套能够预测用户年龄的系统,以便为青少年提供额外保护。
美国加州近期发生一名16岁青少年轻生的事件,父母指控人工智能聊天助手ChatGPT牵涉其中,引发社会关注。OpenAI自2022年底推出ChatGPT以来,全球活跃用户到今年8月估计每周达7亿人次。
阿尔特曼今天通过OpenAI网站发表署名文章,提到社会各界关注的三大议题,包括隐私权、自由和青少年。他在文章开头提到,OpenAI正在开发更先进的安全功能,以保障用户的隐私。
人与AI对话内容越来越私密
他说,随着人们与人工智能对话的内容越来越私密,这项科技掌握着人们最敏感的个人资料,就像与医生讨论病历、向律师说明法律问题一样,这些信息必须受到更高等级的保护。
接着他谈到用户的自由度。他强调,在信息安全的大前提下,希望让用户按照自己的方式自由使用,确保用户拥有最大程度的自由。在不伤害他人、不侵犯别人的情况下,“把成年人当作成年人看待”。
成年自由 青年禁限
他举例说,一般情况下,ChatGPT在默认状态下不会进行过多调情式的暧昧对话,但如果成年用户提出要求,就应该得到他们想要的回应。另一个例子是,系统不会提供自杀的具体做法,但如果成年用户要写一篇关于自杀情节的小说,ChatGPT应该能够协助。
在这篇文章中,关于青少年的保护部分以黑体字特别强调。阿尔特曼指出:“对于青少年,我们把安全摆在隐私和自由之前。这是一项新兴且强大的科技,我们认为未成年人需要额外的保护。”
阿尔特曼说,公司正在打造一套年龄预测系统,能够根据用户的行为推测年龄;若有疑虑,会采取保守做法,把用户设定为未满18岁。他表示,在某些情况下或特定国家,ChatGPT还会要求用户提供身份证明。
他指出,对于青少年,ChatGPT不会回应用户提出的调情指令,也不会讨论自杀相关内容。如果发现未成年者有自杀倾向,系统会尝试联系父母或相关单位。













