面部识别人群
评论

多样性必须成为公平的人工智能发展的核心

图片来源:Piyamas Dulmunsumphun/Dreamstime

随着人工智能成为日常生活的一部分,开发人员需要确保人工智能学习的模型能够准确反映真实世界。

人们通常认为人工智能只是代码——冷冰冰、毫无生气和客观。然而,在一些重要方面,人工智能更像一个孩子。它从接触到的数据中学习,并根据开发人员制定的目标进行优化,在这个类比中,开发人员就是它的“父母”。

就像一个小孩子一样,人工智能不知道是历史或社会动态将世界塑造成现在的样子。就像孩子们有时会在不知情的情况下做出奇怪或不恰当的评论一样,人工智能也会天真地从世界中学习模式,而不理解作为其学习数据基础的更广泛的社会技术背景。

然而,与儿童不同,人工智能越来越多地被要求在高风险环境下做出决定,包括寻找犯罪嫌疑人、告知贷款决定和协助医疗诊断。对于那些想要确保他们的“孩子”不会学会反映社会偏见并以歧视的方式行事的人工智能“父母”来说,在整个发展过程中考虑多样性是很重要的。

多样性会影响AI开发生命周期的几个阶段。首先,训练和评估数据的多样性是许多任务的关键,这些任务的目标是确保人工智能在不同背景的人面前表现良好。例如,精液“性别阴影”文件[PDF]强调了与其他群体相比,面部处理技术对黑人女性的准确率可能较低。“性别阴影”和后续研究将这种偏见归因于用于开发这些技术的数据集缺乏足够的多样性和代表性。这种类型的偏见也会发生在人类身上:研究表明人类确实如此承认不同种族的人更加困难.但心理学研究也表明,如果个体有这种倾向,这种偏见就会降低成长过程中多接触不同的人

然而,仅仅把数据集的多样性作为一个目标是不够的,实现它在实践中也不是一件小事。正如我在一篇即将发表的研究论文,收集足够大的、多样化的数据集是非常具有挑战性的,特别是在以人为中心的计算机视觉等敏感环境中,现有的公共数据集往往存在多样性和隐私问题。

在索尼AI,我们有几个AI伦理计划,专门关注伦理数据收集。我们的目标是开发优化公平、隐私和透明度的最佳实践和技术。

除了AI学习和“成长”所需的数据集的多样性外,考虑开发人员“父母”的多样性也很关键。虽然人工智能产品的覆盖面越来越全球化,但开发者绝大多数都集中在少数几个国家。这是一个需要解决的重要问题,因为人工智能伦理和监管取决于各国不同的价值观和文化背景。例如,一项关于全球道德偏好的研究发现,当面临“电车问题”时,自动驾驶汽车必须决定是转向,撞死旁观者,还是不转向,撞死乘客,世界各地的人有非常不同的道德观点假设旁观者/乘客的人口统计数据.就像父母给孩子灌输他们自己的道德偏好一样,我们必须考虑如何在人工智能发展中反映特定文化的目标和价值观。

开发和部署人工智能的公司内部的多样性水平也很重要。公司文化在培养或阻碍多元化AI团队方面发挥着关键作用。通常,雇主会将多样性问题归咎于管道问题——学校里学习计算机科学或相关领域的女性或少数族裔学生人数不足。这种对人才输送渠道问题的强调没有考虑到科技行业职位中女性和少数族裔的高流失率。最近的一项研究研究了女性和少数群体离开人工智能团队的原因后发现,人员流失主要是由于有毒的工作环境、偏见的经历和缺乏成长机会。

拥有不同的人工智能“父母”是关键,因为发现人工智能发展中的潜在问题需要了解技术如何以有害的方式与社会互动。例如,在美国,执法部门使用人工智能是极具争议的,因为这个国家有偏见的执法实践的历史。在美国研究人工智能伦理的人工智能开发人员非常熟悉为美国执法部门开发人工智能的失败模式,但每个国家都有自己的社会不平等,这些不平等可能会因人工智能而加剧。应对这种危害需要对人工智能部署的环境有更好的认识和理解。

虽然这不是一个容易的挑战,但我和索尼的同事们正在接受这个挑战。这些年来,索尼一直得到认可因其长期致力于负责任的商业行为而被评为“世界上最具道德的公司”之一。鉴于公司及其业务的全球化和多元文化性质,多样性是索尼的核心价值观之一。索尼发布了人工智能道德指引[PDF]在2018年,并宣布它将审查其所有人工智能产品的伦理风险.设计伦理是我们方法的关键,包括在AI生命周期的每个阶段进行AI伦理评估,从构思和设计到开发和部署。

随着人工智能日益融入我们的日常生活,科技公司和其他开发人工智能的公司必须反思他们是如何“养育”它的:它从什么世界的代表中学习,它反映了谁的价值观。为了建设一个更加公正、公平的人工智能发展的未来,多样性必须成为人工智能解决方案的核心。

Alice Xiang是人工智能伦理的全球主管索尼集团公司和首席研究科学家索尼的人工智能

报名参加E&T新闻电子邮件每天都能收到像这样的好故事。

最近的文章

Baidu
map