人工智能解决种族歧视问题

人工智能可以用来解决种族主义问题吗?

图片来源:Getty Images

在教育部门和招聘过程中使用的人工智能,引发了人们对其利大于弊的可能性的质疑。

想象一下,如果技术可以在孩子即将“开球”时提醒老师。如果一个智能系统可以提醒工作人员,前一天晚上家庭争吵、错过早餐、在学校与同学发生冲突等一系列因素,意味着这个孩子可能需要在课堂上采取不同的方法。

数据科学家Mike Bugembe说:“作为人类的美好之处在于,我们是有模式的生物。”我们的行为是有规律的。

这些帮助教师的算法目前还不存在,但他希望有一天它们会存在——有太多的数据点需要测量,从孩子24小时内的心率、血糖水平、社会经济地位,这些都可以创建一个全面的图景。

Bugembe说,这很重要,因为如果一个孩子的教育出了问题,可能会对他的一生产生影响。

与白人同龄人相比,在学校遭受不成比例痛苦的黑人儿童更有可能出现问题。这并不意味着老师是公然的种族主义者,但来自美国的研究表明,黑人孩子在幼儿园更容易被排斥,被不公平地列为麻烦制造者。根据英国种族关系研究所的一份报告,加勒比地区的黑人男孩被永久退学的可能性是其他地区的近四倍。

Bugembe说:“如果老师掌握了这些信息,他们就可以稍微区别对待孩子,防止他扔椅子,这样他就不会被开除,从而陷入恶性循环。”“当一个孩子无法返回学校时,他最终进入刑事系统的倾向就会飙升。”

这个项目还没有启动,受到保密问题的阻碍,更不用说缺乏投资了。但毫无疑问,教育存在问题。种族智库Runnymede Trust在其2020年关于英国中学种族和种族主义的报告中指出,教职员工绝大多数是白人。报告称,所有教师都需要接受培训,以提高他们的种族素养,而有可能巩固现状的课程和学校政策需要彻底改革。

基督教青年会(YMCA)的一项调查显示,教师的看法被视为英国黑人青年在教育中取得成功的最大障碍,95%的黑人青年在教育中目睹过种族主义语言,超过一半的年轻男性说他们“一直”听到这种语言。

人工智能能像Bugembe希望的那样,帮助消除教育及其他领域的偏见吗?迄今为止,人工智能一直是这篇文章的反面人物,它受到了根植于数据中的偏见的影响。在中立的外表下,它以放大歧视而臭名昭著。近现代历史上有很多这样的例子,比如美国的预测性警务被证明会导致警察把目标对准黑人社区,从而提供更多的犯罪数据,形成一个有偏见的反馈循环。面部识别技术还不能准确地识别有色人种,并将无辜的人错误地识别为罪犯。

Bugembe意识到智能技术的缺点。作为JustGiving的首席数据官,他开发了一种算法,推动了筹款活动,每年为慈善事业筹集超过2000万英镑。他发现,使用该网站的筹款人被建议加入白人男性和自行车的照片,因为这类活动通常是由人脉广泛的专业人士发起的,他们从富裕的同事那里筹集了数千英镑。

“典型的人工智能系统无法询问偏见发生的原因,除非它被设计成这样,”Avast的工作人员科学家Sadia Afroz说。“人工智能在检测种族主义方面的一个关键限制是人类的偏见,以及缺乏标准的测试基础设施来发现它。”她说,如果你用有偏见的数据进行测试,就很难发现偏见。

神经科学家拉萨娜·哈里斯博士问道,我们真的想要自动化关于孩子教育和未来的复杂决策吗?他就职于伦敦大学学院实验心理系,研究社会如何使我们产生偏见,并研究我们在社会背景下如何看待人工智能。“我们还处于早期阶段——我们还不明白如何利用人工智能解决社会问题。”

他说,计算的巨大力量可以用来揭示历史和制度偏见。“现在,这就是它的前景所在。作为识别种族主义个人的“坏苹果”方法的替代方案。系统性的种族主义很难被发现——你需要一个工具来找出这种情况发生在哪里。”他说,从理论上讲,如果黑人和少数民族学生的分数一直较低,人工智能可以有效地进行标记。“你如何处理这些信息将成为人类的问题。人工智能不能做出伦理或道德决定——人类必须做出决定。”

伦敦大学学院知识实验室(UCL Knowledge Lab)以学习者为中心的设计教授罗斯•瑞金(Rose Luckin)表示同意——在学校使用人工智能需要小心谨慎,但它可能会引起人们对歧视性决定和行为以及不知不觉的偏见的注意。她说:“我并不是在责骂老师。”“很多人都没有意识到自己有偏见,所以以一种敏感的方式指出这一点会很有帮助。”她说,技术也可以用来预测可能发生种族偏见的情况,但这可以由人类提供支持和培训。整个过程必须是透明的,人工智能必须经过精心设计和严格评估,以确保没有偏见。

她说:“如果你根据人们过去的行为来预测他们的观点可能有偏见,那么它必须在道德上进行。”“任何参与这一过程的人都需要注册。”

在短期内,人工智能在教育领域能带来的真正改变是个性化学习——定制学生学习的方式和速度——在这方面,技术已经开始减轻教师的工作量。教育技术可以了解每个学生的优点和缺点,并量身定制进步之路——只要老师在场就可以干预。瑞幸表示:“它有巨大的潜力。”“它应该能够以一种公正的方式适应——前提是它的设计正确。”

瑞幸表示,这也是一个资源问题。“老师们的时间太满了,很难去思考人工智能的问题。”由于围绕年轻人和同意的问题,这些工具最终可能会更好地用于大学和继续教育,以保持学生的参与和个性化体验。2019年,斯塔福德郡大学成为英国第一所引进人工智能聊天机器人的大学,为个别学生提供量身定制的引导和指导。

人工智能能否在教育之外有更多的领域来解决我们成人生活中的偏见,并帮助创造公平的竞争环境?随着人们对种族不平等的意识日益增强,自去年夏天以来,各公司都在努力提高员工的多样性,而许多行业都存在这方面的欠缺。

前整形外科医生亚历克斯·杨(Alex Young)博士认为,科技是这个难题的一部分。“人工智能有潜力在消除招聘过程中的种族偏见方面发挥令人难以置信的强大作用。”

他离开临床医学,开发沉浸式技术,培训员工成为更好的医生、招聘人员和同事。他的总部位于布里斯托尔的公司Virti已经将人工智能整合到一个虚拟现实培训平台中,该平台通过耳机将员工置于环境中,在那里他们可以通过经验学习。“无意识的偏见根深蒂固,”他说。“仅仅进行‘意识训练’并不足以消除它们。”

虽然他的技术最初是为医学培训而设计的,但它与负责招聘的工作人员合作得很好——招聘是一个充满偏见和公开歧视风险的领域。学员们戴上头戴式耳机——或者通过桌面或移动设备戴上手表——就会被推入一个虚拟场景,比如,他们可能要面试一个职位的潜在虚拟候选人。有趣的是,这项技术也可以用来发现性骚扰问题。

与此同时,人工智能会分析他们对不同人的反应,结合来自眼球追踪和语言分析的数据。因此,例如,如果面试官没有长时间地关注黑人或少数族裔候选人,这种情况就会出现。杨说:“在虚拟环境中,人工智能可以用来收集大量数据。“我们可以分析他们与喜欢或不喜欢的人说话时的微妙节奏,然后看看虚拟候选人的得分。”

Virti的系统提供量身定制的反馈,并在个人表现出偏见并需要更多培训时进行标记。

杨说,这种体验式训练更有效、更持久,因为它能产生情绪反应。“我们可以个性化内容,这样他们就可以从候选人的角度看到他们的行为产生的影响。”

近年来,为了消除招聘过程中的偏见,许多公司纷纷转向“盲目”招聘平台。这些方法要求求职者完成在线申请和工作练习,而雇主对他们的种族、性别或背景一无所知。

神经科学家Riham Satti说,去除这些细节很重要。眼球追踪技术显示,招聘人员通常只花几秒钟时间看应聘者的简历,他们关注的是应聘者的名字、学习地点和专业。她说:“但一个名字并不能说明一个人的情况。”在这里,偏见可能会发挥作用——部分原因是当信息过载时,我们会走心理捷径。事实上,包括经常讨论的无意识偏见在内的大约140种认知偏见,我们的大脑功能使我们几乎不可能克服它们。“这不是任何人的错,”她说。“这就是我们大脑的连接方式。”无意识偏见培训确实有助于提高人们对结构性种族主义等问题的认识,但它并不能解决问题。

萨蒂利用计算语言学与人合作开发了一款程序,可以扫描并删除求职者求职信和简历上的任何泄露信息,包括种族、性别、学校等,这样招聘人员就只会关注求职者的技能和学位内容,而不是他们的头衔和出处。这对她在英国和海外的客户产生了重大影响,在部署该技术的公司中,多样性和包容性提高了约30%。今年春天,她的公司MeVitae将推出一种算法——经过严格的无偏见数据训练——旨在帮助企业编制详细的候选名单。

从历史上看,很难确定结构性种族主义发生的地点和方式——发现它就像向从未经历过它的人解释它一样困难。但它已经存在多年了,Afroz说。“人类的决定和动机很难衡量,因为人类可能会撒谎,并由于自己不知道的内隐偏见而做出选择,而算法是真实和透明的。”

IBM和微软等公司正在大力投资消除盲点,数据科学家凯西·奥尼尔(Cathy O ' neill)在她的《数学毁灭武器》(Weapons of Math Destruction)一书中称其为“嵌入数学的观点”。

Bugembe说,我们得快点。“我最担心的是人工智能只会加速发展。”2014年,专家预测人工智能至少需要10年时间才能在中国古老的棋类游戏“围棋”中击败人类,结果花了两年时间。“它正在以指数级的速度增长,”他补充说,大流行加速了它的采用。“如果没有监管和标准,它所做的一切都是在延续对弱势群体的偏见。”改进算法比一开始就把算法做好更难。“这是一个社会问题,很难引起投资者的兴趣。我听到了很多议论。但我们还没有看到钱。”

道德

可辩解的人工智能

Caroline Chibelushi博士在KTN(与政府机构Innovate UK合作)负责加速道德人工智能的安全采用,她讨论了“可解释的人工智能”。

人工智能工具可以减少人类对数据的主观解释,因为机器学习算法学会只考虑提高预测准确性的变量(基于所使用的训练数据)。有证据表明,算法可以改善决策——与人类决策不同,人工智能做出的决策可以被公开、审查和审问。

“人工智能应该像其他机器一样被开发。拿工业烘焙机做肉馅饼为例——如果馅饼出来是平的,操作员可以停止批量生产并进行调查。面包师了解每种原料的重要性。因此,人工智能的用户应该对这些工具的工作方式、预期以及对结果提出质疑的能力有一定的了解。

“如果一种用于预测A-level成绩的人工智能工具为贫困地区的黑人儿童提供了90%的较低成绩,那么人工智能用户应该质疑结果,并理解每个特征的重要性和相关性。通过这种方式,这些工具将是透明的、可理解的和可解释的——我称之为“可解释的AI”。

支持模型输出的解释是至关重要的。它们将帮助用户理解他们在使用人工智能工具时的责任。”

报名参加E&T新闻电子邮件让像这样的精彩故事每天都发送到你的收件箱。

最近的文章

Baidu
map