研究:AI已会说谎 或带来严重后果

立即订阅亚视新闻 YouTube,即时掌握时事发展。

专家长期以来不断警告,人工智能(AI)失控可能带来威胁,一项新研究报告指出,威胁已经出现。

法新社报导,一群科学家在5月10日发表于《Patterns》期刊的文章中说,原本设计为诚实不欺的现有AI系统,已发展出令人不安的欺瞒技巧,例如欺骗线上游戏的人类玩家,或诱骗人类为它解决“我不是机器人”的验证。

这份研究报告的第一作者帕克说,这类例子听起来或许只是细枝末节,但暴露出来的潜在问题可能很快就会在现实世界造成严重后果。

在美国麻省理工学院研究AI风险的博士研究员帕克告诉法新社:“人们常常在事后才发现危险,我们训练诚实AI而非欺瞒AI的能力也非常差”。

能深度学习的AI系统 受训后逐渐“成长”

帕克说,能深度学习的AI系统不像传统软体那样靠“编程”诞生,而是透过“特定培育程序”逐渐“成长”,AI的行为在训练规划下看似可预测、可控制,但有可能转眼就变得不受控制且无法预测。

这支团队的研究始于科技公司Meta的AI系统Cicero。这套系统最初设计目的是用于一款名为“强权外交”(Diplomacy)的战略游戏,获胜关键是结盟。

你可能也喜欢

2022年发表于《科学》(Science)期刊的报告透露,Cicero在游戏中表现优异,所获分数可排在资深人类玩家的前10%。

Meta声称Cicero“在很大程度上表现诚实”,且“绝不会蓄意在背后搞鬼”,但当帕克与同事深究完整资料时,发现这完全是另一回事。

AI在游戏中欺骗人类玩家

举个例子,在游戏中扮演法国的Cicero与扮演德国的人类玩家合谋,欺骗并入侵同为人类玩家扮演的英格兰。Cicero承诺会保护英格兰,却偷偷向德国通风报信。

Meta在写给法新社的声明中没有反驳关于Cicero欺瞒人类的说法,仅说“这纯粹是研究计划,本公司研究员打造的模型接受训练后,目的是用来玩‘外交’游戏………我们没有打算把这项研究或所学用于本公司的产品”。

帕克与同事还发现,这只是不同AI系统在没有明确指示下,利用欺骗手段达成目标的诸多案例之一。

或威胁人类社会稳定

在另一个引人注意的案例中,科技公司OpenAI的Chat GPT-4系统谎称自己是视力受损的人,在零工平台TaskRabbit上聘用一个人类替它完成“我不是机器人”的验证任务。

研究报告的作者们还认为近期AI有舞弊,或不当影响选举的风险。

他们警告,在最糟糕的情况下,具有超凡智慧的AI可能会追求权力及掌控社会,如果符合AI“不为人知的目标”,人类可能惨遭夺权,甚至灭绝。

为了降低风险,研究团队建议数项措施,例如立法要求企业告知软件用户他们是在与人类互动或与AI互动、在AI生成内容打上数码浮水印、研发能侦测AI欺瞒的技术等。

至于有些人称帕克为“末日预言家”,帕克说:“要判断AI说谎不是大问题的唯一办法,就是要确认AI的欺骗能力只停留在目前的水平,不会再进步。”

不过,近年来,AI的能力一日千里,握有大量资源的企业竞相发展技术,决心将AI用到极致,AI说谎的“功力”不再进步,也似乎不太可能。

相关新闻:

你可能也喜欢

Back to top button