拒监控国民与军事化 Anthropic恐失美国防部合约

立即订阅亚视新闻 YouTube,即时掌握时事发展。

美国著名人工智能公司Anthropic因在技术应用伦理上划定“红线”,明确反对将其AI模型用于大规模监控美国公民或全自动武器系统,正面临失去一份与美国国防部签订的、价值高达2亿美元(约合7.8亿令吉)合同的风险。一场关乎商业利益与原则立场的关键会议定于2月25日举行。

据法新社报道,一名美国官员星期一(2月23日)透露,Anthropic的高管团队将与五角大楼官员会面,就这份岌岌可危的合同进行最后磋商。

Anthropic是当前全球领先的AI企业之一,与开发ChatGPT的OpenAI以及拥有Gemini模型的谷歌并称行业三巨头。这三家公司连同马斯克的xAI,此前均已签约,准备为国防部的“前沿人工智能项目”提供技术支持。

问题的核心在于,随着这些AI项目逐步落地,五角大楼要求所有合作方必须将其模型开放,用于任何符合美国法律的用途。然而,秉持“安全优先”创立理念的Anthropic对此持保留态度,针对部分应用划出了明确的“红线”,其中包括大规模监控和完全自主的武器系统。

立场激怒军方高层

这一立场激怒了军方高层。担任美军首席技术官高级顾问的迈克尔在向军事媒体DefenseScoop发表的评论中直言不讳:“你不能让一家人工智能公司把技术卖给战争部(国防部),然后又禁止它做战争部该做的事。”

据Axios报道,双方的谈判已处于破裂边缘。若无法达成一致,五角大楼甚至可能全面禁止Anthropic参与未来的国防项目。

面对传闻,Anthropic在一份声明中拒绝就具体的“红线”内容置评,但强调公司“致力于利用前沿人工智能技术来支持美国国家安全”,并表示已就此与国防部进行了“富有成效的真诚对话”,以探讨如何在继续合作的同时妥善处理这些复杂问题。

这并非Anthropic与美国政府之间的首次立场摩擦。此前,政府官员曾批评该公司对人工智能持“末日论”态度,认为其无端煽动了公众对该技术的恐惧。此次合同风波,再次凸显了快速发展的人工智能技术在国家安全与商业伦理之间的尖锐矛盾。

相关新闻:

你可能也喜欢

Back to top button