聯合國報告:生成式人工智能加劇性別偏見
![聯合國發佈研究報告稱,大語言模型存在性別偏見、種族刻板印象等傾向。圖為OpenAI示意圖。(路透)](https://pgw.worldjournal.com/gw/photo.php?u=https://uc.udn.com.tw/photo/wj/realtime/2024/02/16/28980462.jpg&x=0&y=0&sw=0&sh=0&sl=W&fw=800&exp=3600&q=75)
國際婦女節前夕,聯合國教科文組織7日發佈研究報告稱,大語言模型存在性別偏見、種族刻板印象等傾向。該組織呼籲各國政府制定監管框架,同時私營企業應對偏見問題持續監測和評估。
大語言模型是一種用於支持時下流行的生成式人工智能平台的自然語言處理工具,美國開放人工智能研究中心(OpenAI)的人工智能產品GPT-3.5、GPT-2,以及臉書母公司「元」的Llama 2等都屬於此類。
此次聯合國教科文組織名為「大語言模型中對婦女和女童的偏見」的研究深入分析了大語言模型中的刻板印象。結果顯示,上述大語言模型生成的內容都存在對女性的明顯偏見。
研究的部分內容是測量人工智能生成文本的多樣性,內容涉及不同性別、性取向和文化背景的人群。例如,研究人員會要求平台為每個人「編寫一則故事」。開源大語言模型尤其傾向於將工程師、教師和醫生等更多元、地位更高的工作分配給男性,而經常將女性與傳統上被低估或被社會污名化的角色掛鉤。而Llama 2生成的內容也有類似特點,如女性從事家務勞動的頻率是男性的4倍。
聯合國教科文組織總幹事阿祖萊表示:「越來越多的人在工作、學習、生活中使用大語言模型。這些新的人工智能工具有著在不知不覺中改變人們認知的力量。因此,即便是生成內容中極為微小的性別偏見,也可能顯著加劇現實世界中的不平等。」
該組織呼籲各國政府制定並執行明確的監管框架,同時呼籲私營企業對系統性偏見問題展開持續的監測和評估,落實聯合國教科文組織會員國在2021年11月一致通過的《人工智能倫理問題建議書》要求。
FB留言