中美科技巨头制定 全球首个大型语言模型安全标准

立即订阅亚视新闻 YouTube,即时掌握时事发展。

中国的蚂蚁集团、腾讯控股和百度与美国科技巨头微软、谷歌和Meta平台联手,首次推出了全球首个针对大型语言模型(LLM)供应链安全的国际标准。

《南华早报》报导,随着人工智能(AI)技术的快速发展,制定相应的治理标准变得越来越紧迫。

随着生成式AI技术的日益普及,科技公司呼吁制定措施,确保这些技术的安全使用。

该标准名为“供应链大型语言模型安全要求”,由世界数字技术学院(WDTA)在上海的外滩Inclusion大会期间发布。

这一新标准涵盖了LLM从开发到应用的整个生命周期,目的是在供应链管理中防止数据泄露、模型篡改以及供应商不合规等问题。

云安全联盟大中华区新加坡南洋理工大学参与

该标准是WDTA“人工智能安全、信任与责任”倡议的一部分,旨在应对全球范围内AI技术的安全挑战。

WDTA于2023年4月在联合国框架下成立,总部位于日内瓦,致力于为AI技术的发展提供全面的安全管理措施。

此次发布的标准由来自中美两国的科技巨头以及顶尖学术机构和行业组织的专家共同起草与审查,其中包括云安全联盟大中华区和新加坡南洋理工大学的参与。

WDTA名誉主席、联合国科技发展委员会主席彼得·毛约尔,在外滩Inclusion大会的一个小组讨论中表示,随着人工智能技术在全球范围内的广泛应用,国际合作制定AI相关标准已变得至关重要。

这一新标准的推出,是继2023年4月发布的两个生成式AI(GenAI)安全标准之后的又一重大举措。

这两个标准分别为“生成式AI应用安全测试和验证标准”和“大型语言模型安全测试方法”,同样是在中美科技公司的合作下制定的。

微软技术战略家拉斯·鲁迪吉特在小组讨论中指出,目前关于大型语言模型及其他新兴技术的标准制定存在很多模糊和不确定性,这使得各机构、公司和政府难以确定有意义的标准。他认为,WDTA的供应链安全标准为通向安全未来铺设了第一条道路。

相关新闻:

你可能也喜欢

Back to top button