OpenAI组新团队寻对策 以AI监督AI自身发展

立即订阅亚视新闻 YouTube,即时掌握时事发展。

聊天机器人ChatGPT研发公司OpenAI计划投入大量资源创建一个新的研究团队,以确保人工智能(AI)持续对人类保持无害,终将通过AI来监督AI自身发展。

路透社报导,OpenAI共同创办人暨首席科学家苏茨克维(Ilya Sutskever)和协调团队负责人雷克(Jan Leike)在部落格文章中写道,“超级智慧(superintelligence)的巨大能力恐导致人类丧失权力,甚至可能导致人类灭绝,目前,我们对于掌控潜在的超级智慧AI还没有解方,也无法预防AI失控。”

文中预测,作为一个超越人类智慧的系统,超级智慧AI可能在这10年内诞生,人类需要比当前更厉害的技术来控制超级智慧AI,因此必须在对齐研究(alignment research)方面有所突破。对齐研究指的是聚焦于确保AI如何持续对人类有益的研究。

将在未来4年投入20%运算能力

他们写道,微软(Microsoft)支持的OpenAI预计将在未来4年内投入20%的运算能力,来解决这个问题。

此外,公司正在针对这项目标组建一个名为“超级智慧”(Superalignment)的新团队。

这个团队的目标是打造一个“人类等级”的AI对齐研究员,然后通过庞大的运算能力扩展它。

OpenAI表示,这代表他们将会以人类反馈的方式来训练AI系统,训练AI系统协助人类评估,最终训练AI系统实际进行对齐研究。

AI安全倡议人士雷希(Connor Leahy)说,这项计画有着根本性的缺陷,因为初始的人类等级AI在被迫解决AI安全问题前,就已经有可能失控并造成破坏。

必须解决对齐问题 否则将无法控制它

他受访时表示,“在建构人类等级的AI前,必须解决对齐问题,否则既定结果就是你将无法控制它。我个人认为这不是一个特别好或安全的计划。”

AI的潜在危险一直是研究人员甚至是普罗大众关切的问题,一群AI界领袖和专家今年4月曾联署一封公开信,呼吁暂停开发比OpenAI的ChatGPT-4更强大的系统,为期至少6个月,理由是更先进的AI可能为社会带来风险。

路透社/易普索(Reuters/Ipsos)5月进行的一项民调显示,超过三分之二的美国人担心AI可能带来负面影响,61%的受访者更认为AI可能威胁人类文明。

相关新闻:

你可能也喜欢

Back to top button