在我从事科技工作的早期,后来,作为开发人工智能驱动的招聘软件的人,我亲身体验了人工智能和机器学习如何在招聘中产生偏见。 在几种不同的情况下,我看到人工智能在招聘中经常会放大和加剧人们通常会乐观地“解决”的相同问题。 在我们认为这有助于消除偏见或增加候选人漏斗方面的“公平性”的情况下,我们常常会惊讶地发现在实践中发生了完全相反的情况。
今天,我在 CodePath 的角色将我的 AI 和工程背景与我们致力于为来自低收入或少数族裔社区的计算机科学专业学生提供更多获得技术工作机会的承诺相结合。 当我考虑我们的非营利组织实现这一目标的方法时,我经常想知道我们的学生是否遇到了我在过去十年中亲眼目睹的与人工智能相关的招聘偏见。 虽然人工智能在有效地自动化某些任务方面具有巨大潜力,但我认为它不适用于某些具有复杂数据集和结果不明确的细微、高度主观的用例。 招聘就是这些用例之一。
依靠人工智能进行招聘可能弊大于利。
这不是设计使然。 人际关系经理通常怀着良好的意愿开始人工智能驱动的招聘流程,即希望将申请人缩减为最合格和最适合公司文化的人。 这些经理将人工智能视为一种值得信赖的客观方式,可以从大量的电子简历中筛选出最优秀、最聪明的人。
当这些经理认为人工智能经过训练可以避免人类可能表现出的相同偏见时,就会出现错误。 在许多情况下, 这不会发生 ; 在其他情况下,人工智能设计师在不知不觉中训练算法采取直接影响某些求职者的行动——例如自动拒绝女性申请人或名字与少数民族或宗教少数群体相关的人。 许多人际关系部门的领导都震惊地发现,他们的招聘计划正在采取的行动,如果由人执行,就会导致解雇。
通常,在职位上做出招聘决定的好心人会尝试修复造成偏见的编程错误。 我还没有看到有人破解那个密码。
有效的人工智能需要三件事:明确的输出和结果; 干净、清晰的数据; 和大规模数据。 当 AI 能够访问大量客观测量的数据时,它的功能很好,这在招聘中是找不到的。 关于候选人的教育背景、以前的工作经验和其他技能组合的数据通常混杂着复杂的、交叉的偏见和假设。 样本很小,数据无法衡量,结果也不清楚——这意味着人工智能很难知道什么有效,什么无效。
不幸的是,人工智能重复这些有偏见的动作越多,它学会执行它们的次数就越多。 它创建了一个记录偏见的系统,这不是大多数有远见的公司想要投射给潜在员工的形象。 这就是为什么伊利诺伊州、马里兰州和纽约市 制定法律 禁止在招聘决策中使用人工智能,以及为什么美国平等就业机会委员会正在 调查 人工智能工具在招聘中的作用。 这也是为什么沃尔玛、Meta、耐克、CVS Health 等公司在 The Data & Trust Alliance 的保护伞下, 正在 根除 他们自己的招聘算法中的偏见。
简单的解决方案是完全避免在招聘中使用人工智能。 虽然这个建议对于那些希望自动执行日常任务的时间紧迫的公司来说可能看起来很麻烦,但并非必须如此。
例如,由于 CodePath 优先考虑低收入、少数族裔学生的需求,我们不能冒险使用有偏见的 AI 系统来匹配我们项目的毕业生与**技术雇主。 因此,我们创建了自己的兼容性工具,该工具不使用 AI 或 ML,但仍可大规模使用。 它仅依赖于纯粹客观数据、简单量规或兼容性评分的自动化——所有这些都由对招聘偏见问题敏感的人监控。 我们也只自动化自我报告或严格量化的数据,从而减少偏见的可能性。
对于那些觉得不得不在招聘决策中依赖人工智能技术的公司,有一些方法可以减少潜在危害:
1. 认识到人工智能驱动的招聘工具存在偏见的风险
不要陷入人工智能将是正确的想法。 算法只有与创造(和监督)算法的人一样无偏见。 一旦数据集和算法成为值得信赖的来源,人们就不再需要对其进行监督。 挑战技术。 质疑它。 测试一下。 找出这些偏见并将其根除。
公司应考虑创建由招聘和技术专业人员组成的团队,以监控数据、根除问题并不断挑战人工智能产生的成果。 这些团队中的人可能能够发现潜在的偏见并消除它们或补偿它们。
2. 注意你的数据源——以及你的责任
如果你的 AI 被训练审查的**数据集来自历史上雇用少数女性或少数族裔的公司,当算法吐出相同的有偏见的结果时不要感到震惊。 问问自己:我对这些数据感到满意吗? 我是否与源共享相同的值? 这些问题的答案允许对数据集或启发式进行仔细评估。
了解您的公司有责任拥有公正的招聘系统也很重要。 即使多注意这些可能性也可以帮助减少潜在的伤害。
3. 使用更简单、直接的方法来确定候选人与空缺职位之间的兼容性
大多数兼容性解决方案不需要任何神奇的 AI 或复杂的启发式方法,有时回归基础实际上可以更好地工作。 抛开人工智能的概念,问问自己:我们都同意的事情是增加还是减少了这个角色的兼容性?
仅将 AI 用于招聘决策中的客观兼容性指标,例如自我报告的技能或针对角色明确需求的信息匹配。 这些提供了干净、清晰的数据集,可以准确和公平地测量。 将更复杂、模棱两可或细微差别的过滤器留给最了解求职者成功所需的知识和技能组合的实际人员。 例如,考虑使用自动化某些流程但仍允许人工监督或最终决策的软件。 仅自动化您可以公平衡量的那些功能。
鉴于人工智能驱动的招聘工具对最容易产生偏见的人的生活产生了多大影响,我们有责任让他们极其谨慎地使用这项技术。 充其量,它可能会导致公司无法承担重新填补职位的时间和费用的糟糕的招聘决定。 在最坏的情况下,它可以阻止聪明、有才华的人在高需求领域获得高薪工作,不仅限制了他们的经济流动性,也限制了他们过上幸福、成功生活的权利。
的联合创始人兼首席技术官 CodePath ,这是一家非营利组织,旨在通过改变代表性不足的少数族裔和服务不足的人群的大学计算机科学教育来创造技术多样性。 他还是 认知世界 智囊团的成员。
声明:所有白马号原创内容,未经允许禁止任何网站及个人转载、采集等一切非法引用。本站已启用原创保护,有法律保护作用,否则白马号保留一切追究的权利。发布者:白马号,转转请注明出处:https://www.bmhysw.com/article/9453.html