专家吁降低AI“人类灭绝”风险 应与核战同级戒备

立即订阅亚视新闻 YouTube,即时掌握时事发展。

一群业界高管和专家周二(5月30日)警告,全球领导人应致力降低人工智能(AI)技术所带来的“人类灭绝”风险。

法新社报导,包括研发ChatGPT聊天机器人的公司OpenAI行政总裁阿尔特曼(Sam Altman)在内的数十位专家连署了一份简短声明。声明称,应对AI带来的人类灭绝风险,应是“与应对疫情和核战同层级的全球优先要务”。

ChatGPT可依据简短指令编写文章、诗歌和对话,因此在去年底一炮而红。这个程式的巨大成功也吸引了AI领域数十亿美元的投资,但批评者和业界人士都发出了警告。

常见的担忧包括聊天机器人可能导致假消息充斥网络、带有偏见的演算法可能产出种族主义内容,AI驱动的自动化也可能摧毁整个产业等。

公司OpenAI行政总裁阿尔特曼也参与联署,呼吁降低AI带来的风险。(图:美联社档案照)

担忧人类失去掌控权

公布在非营利组织“人工智能安全中心”(Center for AI Safety, CAIS)网页的这份最新声明并未详细说明AI可能带来的潜在生存威胁。CAIS表示,这份“言简意赅的声明”旨在开启针对AI技术风险的讨论。

声明的数名签署人,包括被称为“人工智能教父”的辛顿(Geoffrey Hinton),过去也曾提出类似警告。

他们最大的担忧是所谓“通用人工智能”(Artificial General Intelligence,AGI)的崛起,也就是具备人类认知能力的人工智能。他们害怕,人类将失去对这些超智慧机器的掌控权。

专家曾警告,这可能对物种和地球造成灾难性后果。声明的连署人也包括来自AI领先企业谷歌(Google)和微软(Microsoft)的专家。

早在2个月前,亿万富豪马斯克和其他数百名专家也曾发表一封公开信,呼吁在确定安全无虞之前,暂缓AI研发工作。然而马斯克的信引来广泛批评,有人认为,信中关于社会和文明崩溃的警告太过夸大。

相关新闻:

你可能也喜欢

Back to top button