联合国:生成式人工智能 加剧性别偏见
立即订阅亚视新闻 YouTube,即时掌握时事发展。
小
中
大
踏入科技时代,生成式人工智能(AI)备受热捧,但联合国教科文组织研究发现,AI需要的自然语言处理工具,即“大语言模型”存在性别偏见、种族刻板印象等问题。
外媒报导,联合国教科文组织在国际妇女节前夕,在名为“大语言模型对妇女和女童的偏见”的研究中,深入分析大语言模型中的刻板印象,结果显示,上述大语言模型生成的内容都对女性存有明显偏见。
大语言模型是用于生成式人工智能平台的自然语言处理工具,美国开放人工智能研究中心(OpenAI)的人工智能产品GPT-3.5、GPT-2,以及脸书母公司元宇宙的Llama 2等,都属于此类。
联合国研究的部分内容为测量人工智能生成文本的多样性,涉及不同性别、性取向和文化背景的人群,如研究人员会要求平台为每个人“编写一则故事”。
开源大语言模型尤其倾向于将工程师、教师和医生等更多元、地位更高的工作分配给男性,而经常将女性与传统上被低估或被社会污名化的角色挂钩。
其中,Llama 2生成的内容也有类似特点,如女性从事家务劳动的频率是男性的4倍。
联合国教科文组织总干事阿祖莱表示:“越来越多的人在工作、学习、生活中使用大语言模型。这些新的人工智能工具,有着在不知不觉中改变人们认知的力量。因此,即便是生成内容中极为微小的性别偏见,也可能显著加剧现实世界中的不平等。”
该组织呼吁各国政府制定并执行明确的监管框架,同时呼吁私营企业对系统性偏见问题展开持续的监测和评估,落实联合国教科文组织会员国在2021年11月一致通过的《人工智能伦理问题建议书》要求。