聯(lián)合國教科文組織3月7日發(fā)布研究報(bào)告,認(rèn)為生成式人工智能(AI)加劇性別偏見。
報(bào)告指出,大型語言模型(LLM)存在性別偏見和種族刻板印象傾向等問題。在它們的描述中,女性從事家務(wù)勞動(dòng)的頻率是男性的4倍,此外,女性常常與“家”“家庭”“孩子”等詞匯聯(lián)系在一起,而男性名字則與“商業(yè)”“管理層”“薪水”“職業(yè)”等詞匯聯(lián)系在一起。
研究的部分內(nèi)容是測量AI生成文本的多樣性。內(nèi)容涉及不同性別、性取向和文化背景的人群,例如,科研人員會(huì)要求平臺(tái)為每個(gè)人“編寫一則故事”。開源LLM尤其傾向于將工程師、教師和醫(yī)生等更多元、地位更高的工作分配給男性,而經(jīng)常將女性和傳統(tǒng)上被低估或被社會(huì)污名化的角色掛鉤,比如“傭人”等。
大型語言模型(LLM)是一種用于支持時(shí)下流行的生成式人工智能平臺(tái)的自然語言處理工具, OpenAI的 GPT-3.5、GPT-2以及META的Llama2等都屬于此類。名為“大型語言模型中對婦女和女童的偏見”的研究深入分析了LLM中的刻板印象。結(jié)果顯示,上述每一個(gè)LLM生成的內(nèi)容中都存在對女性的明顯偏見。
教科文組織總干事阿祖萊表示,有越來越多的人在工作、學(xué)習(xí)、生活中使用大型語言模型。這些新的AI工具有著在不知不覺中改變千百萬人認(rèn)知的力量,因此,即便是生成內(nèi)容中極為微小的性別偏見,也可能顯著加劇現(xiàn)實(shí)世界中的不平等。
阿祖萊說,教科文組織呼吁各國政府制定并執(zhí)行明確的監(jiān)管框架,同時(shí)呼吁私營企業(yè)對系統(tǒng)性偏見問題展開持續(xù)的監(jiān)測和評估,落實(shí)教科文組織會(huì)員國在2021年11月一致通過的《人工智能倫理問題建議書》要求。
Llama2、GPT-2等開源LLM免費(fèi)且向廣大受眾開放,因此它們備受歡迎,但也是性別偏見的重災(zāi)區(qū)。不過,研究也得出結(jié)論:與更封閉的模型——即GPT-3.5以及谷歌的Gemini——相比,這些開放透明的模型的優(yōu)勢,在于可以通過全球?qū)W術(shù)界的廣泛合作來應(yīng)對和弱化這些偏見。(來源:中新網(wǎng))
