人工智能教父: 杀手机器人10年内或面世

立即订阅亚视新闻 YouTube,即时掌握时事发展。

帮助建立目前人工智能技术基础的电脑科学家们警告称,人工智能技术存在危险,但这并不意味着人们对风险和预防束手无策。

美联社报导,在麻省理工学院的一次座谈会上,“人工智能教父”辛顿( Geoffrey Hinton)直言:“当“聪明的东西可以比我们更聪明”时,人类的生存受到威胁”。

75岁的辛顿从谷歌退休,以便能更自由地发表言论,他表示最近改变了对自己一生研究的电脑系统推理能力的看法。

“人工智能将通过自我增进,学习如何操纵人类。尽管他不能直接进行,但可以操纵人们进行实体操作。”

“我希望我能提出一个简单明了的解决方案,但我没有,“我不确定是否有解决方案。”

预测未来十年杀手机械人将面世

他预测,未来10年内将出现自主杀死人类的机器人武器。他说,机器人武器或许迟早也会被限制,但是这可能要等到真正在战场上被使用、人类认识到会带来多么悲惨的结局后才能实现。

与辛顿一起获得最高电脑科学奖项的人工智能先驱本吉奥(Yoshua Bengio)告诉美联社,他在很大程度上赞同辛顿对ChatGPT等聊天机器人和相关技术引发的担忧,但认为就此担心人类将失败于事无补。

“我认为我比较乐观,无论是短期的还是长期的风险,都非常严重,不仅需要受到少数研究人员的重视,还需要政府和民众的重视。”

人工智能风潮弱化监管要求

尽管目前有很多方面展现出政府正在关注人工智能的风险,但时下对人工智能的技术的追捧,分散了人们对当前AI产品的实际监管,以及已经对现实世界造成伤害的产品做出保障的努力。

本吉奥、辛顿和第三位研究人员杨立昆(Yann LeCun),3人,都因为在2019年在人工神经网络领域的突破而获得了电脑科学领域最高荣誉图灵奖,这对今天的人工智能应用,如ChatGPT至关重要。

本吉奥是这3人中唯一没有加入面子书的人,多年来一直对人工智能风险表示担忧,包括工作市场动荡、自动武器化和数据集偏见的风险。

相信人工智能模型已通过图灵测试

但这些担忧最近加剧,导致本吉奥与其他电脑科学家和科技商业领袖,如马斯克(Elon Musk)和苹果联合创始人沃兹尼亚克,一起呼吁暂停6个月开发比OpenAI最新模型GPT-4更强大的人工智能系统。

本吉奥表示,他相信最新的人工智能语言模型已经通过了以英国密码破译专家和人工智能先驱图灵(Alan Turin)命名的“图灵测试”,该测试于1950年引入,用于衡量AI何时变得与人类无法区分。

“如果我们不小心,这个里程碑可能会产生严重后果。我的主要关注是它们如何被利用来进行邪恶目的,以破坏民主、进行网络攻击、散布虚假信息。你可以与这些系统对话,并认为你在与一个人类互动。它们很难被发现。”

相关新闻:

你可能也喜欢

Back to top button