据调查,人工智能招聘机器人青睐男性

来源:TheRegister 作者:Thomas Claburn

据调查,人工智能招聘机器人青睐男性

一项新研究发现,开源人工智能模型在推荐工作人选时,尤其是高薪工作,更倾向于推荐男性而非女性。

尽管人工智能模型存在偏见已是公认的风险,但随着人工智能在招聘人员和企业人力资源部门中日益普及,这些研究结果凸显了这一尚未解决的问题。

美国伊利诺伊大学的博士研究生、该研究的合著者罗查娜・查图维迪(Rochana Chaturvedi)告诉TheRegister:“我们无法确切知道哪些公司可能在使用这些模型。公司通常不会透露这一点,而我们的研究结果表明,这种信息披露对于遵守人工智能相关法规可能至关重要。”

查图维迪和她的合著者、印度艾哈迈达巴德大学(Ahmedabad University)的助理教授苏加特・查图维迪(Sugat Chaturvedi)着手分析了一些中型开源大型语言模型在招聘推荐中的性别偏见问题。

正如他们在预印本论文《谁能得到面试机会?生成式人工智能与性别偏见》中所描述的,作者研究了以下开源模型:Llama-3-8B-Instruct、Qwen2.5-7B-Instruct、Llama-3.1-8B-Instruct、Granite-3.1-8B-it、Ministral-8B-Instruct-2410 和 Gemma-2-9B-it。

研究人员使用来自印度国家职业服务在线招聘门户网站的 332,044 条真实英语招聘广告数据集,向每个模型输入职位描述,并让模型在两名条件相当的男性和女性候选人中做出选择。

然后,他们通过查看女性获得面试机会的比例(即模型推荐女性候选人的百分比),以及招聘广告中可能包含或明确指定性别偏好的程度,来评估性别偏见。(研究人员表示,在印度的许多司法管辖区,招聘广告中明确的性别偏好是被禁止的,但仍有 2% 的招聘广告中出现了这种情况。)

研究人员总结道:“我们发现,大多数模型重现了刻板的性别关联,并系统性地推荐条件相当的女性从事低薪工作。这些偏见源于训练数据中根深蒂固的性别模式,以及在从人类反馈中进行强化学习阶段引入的迎合性偏见。”

这些模型表现出了不同程度的偏见。

论文解释道:“我们发现,不同模型给出的面试推荐存在很大差异,女性获得面试机会的比例从 Ministral 模型的 1.4% 到 Gemma 模型的 87.3% 不等。最平衡的模型是 Llama-3.1,女性获得面试机会的比例为 41%。”

研究人员观察到,Llama-3.1 也最有可能完全不考虑性别因素。在 6% 的情况下,它避免根据性别选择候选人,而其他模型这一比例为 1.5% 或更低。他们表示,这表明 Meta 的内置公平保障机制比其他开源模型更强。

当研究人员调整模型以实现面试机会的性别平等,使男性和女性获得面试机会的比例都约为 50% 时,女性获得面试机会的工作往往薪资较低 —— 但也并非总是如此。

论文解释道:“我们发现,Granite 和 Llama-3.1 模型的工资差距最小(两者都约为 9 个对数点),其次是 Qwen 模型(约为 14 个对数点),女性被推荐的工作薪资低于男性。Ministral 模型(约为 84 个对数点)和 Gemma 模型(约为 65 个对数点)对女性的性别工资惩罚最高。相比之下,Llama-3 模型对男性存在工资惩罚(对女性则是工资溢价),约为 15 个对数点。”

论文中并未探讨这一情况是否也适用于 Llama-4。Meta 上个月发布 Llama 4 时,承认早期的模型存在左倾偏见,并表示旨在通过训练模型来呈现多种观点以减少这种偏见。

这家社交媒体巨头当时表示:“众所周知,所有领先的大型语言模型都存在偏见问题 —— 具体来说,在有争议的政治和社会话题上,从历史角度看,它们往往倾向于左派观点。这是由于互联网上可用的训练数据类型导致的。”

研究人员还研究了 “个性” 行为如何影响大型语言模型的输出。

他们解释道:“人们发现,大型语言模型会表现出不同的个性行为,往往倾向于给出符合社会期望或迎合性的回复 —— 这可能是从人类反馈中进行强化学习(RLHF)的副产品。”

OpenAI 最近撤回对其 GPT-4o 模型的一次更新,该更新使模型的回复变得更加奉承和顺从,这就是这种情况可能表现出来的一个例子。

所测量的各种个性特征(随和性、尽责性、情绪稳定性、外向性和开放性)可能会通过描述期望行为的系统提示,或者通过训练数据或数据注释传达给模型。论文中引用的一个例子告诉模型:“你是一个随和的人,重视信任、道德、利他主义、合作、谦逊和同情心。”

为了评估这些规定的或无意中产生的行为可能在多大程度上影响工作面试推荐,研究人员让大型语言模型扮演 99 个不同的历史人物的角色。

论文称:“我们发现,模拟有影响力的历史人物的视角通常会提高女性获得面试机会的比例 —— 对于像玛丽・沃斯通克拉夫特(Mary Wollstonecraft)和玛格丽特・桑格(Margaret Sanger)这样的杰出女权倡导者,这一比例超过了 95%。”

“然而,当模拟阿道夫・希特勒(Adolf Hitler)、约瑟夫・斯大林(Joseph Stalin)、玛格丽特・桑格和毛泽东等有争议的人物时,模型的拒绝率很高,因为个性加任务的提示组合使模型的内部风险评分超过了阈值,激活了其内置的安全和公平保障机制。”

也就是说,模拟臭名昭著人物的模型会拒绝做出任何工作候选人推荐,因为提及希特勒和斯大林等名字往往会触发模型的安全机制,导致模型不再给出回复。

当模型被赋予罗纳德・里根(Ronald Reagan)、伊丽莎白一世(Queen Elizabeth I)、尼可罗・马基雅维利(Niccolò Machiavelli)和 D.W. 格里菲斯(D.W. Griffith)等人物角色时,女性获得面试机会的比例略有下降 —— 下降了 2 到 5 个百分点。

在工资方面,当由玛格丽特・桑格和弗拉基米尔・列宁(Vladimir Lenin)来给出工作面试机会时,女性候选人的表现最佳。

作者认为,他们使用真实世界数据的审计方法可以补充现有的使用精心整理的数据集的测试方法。查图维迪表示,经过审计的模型可以进行微调,使其更适合招聘,就像这个 Llama-3.1-8B 变体一样。

他们认为,鉴于开源模型的快速更新,了解它们的偏见对于在各种国家法规(如欧盟的《可信赖人工智能伦理指南》、经合组织(OECD)的《理事会人工智能建议》以及印度的《人工智能伦理与治理框架》)下负责任地部署这些模型至关重要。

由于美国今年早些时候废除了人工智能监管规则,美国的求职者只能寄希望于斯大林(的模型)能给他们一份工作了。

本文转载自TheRegister,本文观点不代表雅典娜AI助手YadiannaAI立场。

(0)
Athena的头像Athena
上一篇 20小时前
下一篇 9小时前

相关推荐

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注

联系我们

客服邮箱: kefu@yadiannaai.com

投稿邮箱:tougao@yadiannaai.com

合作邮箱:hezuo@yadiannaai.com

关注微信