E& T
评论

来自华盛顿的观点:Timnit Gebru不会很快消失

在她备受争议地离开谷歌一年后,这位计算机科学家为一家研究机构争取到了支持,该机构致力于解决人工智能领域的一些主要挑战。

前谷歌AI研究员Timnit Gebru公布了一个跨学科研究小组,旨在强调人工智能面临的一些关键数据可靠性挑战,以及如何在设计过程中处理这些挑战。

分布式人工智能研究所(DAIR)昨天(12月2日)启动,其目标是“鼓励一种从一开始就分析(人工智能研究的)最终目标和潜在风险和危害的研究过程”。

格布鲁已经成为警告数据集中存在偏见的主要声音之一,尤其是那些声称数据集太大、以至于稀释了风险的数据集。”关于随机鹦鹉的危险:语言模型会不会太大?的论文,这篇论文引发了她从谷歌离职的争议。论文提供的证据表明,事实恰恰相反——她当时的雇主对此提出了异议。

尽管如此,它的观察结果也得到了大型科技公司模型领导者的响应。值得注意的是,微软-英伟达团队在今年的威威天-图灵NLG语言模型背后承认,虽然到目前为止它已经被细化到惊人的5300亿参数,但它内部的偏差仍然是一个问题。

作为DAIR的前两个项目之一,Gebru希望促进数据表的分发,这些数据表应该提供给技术用户,记录数据集的“动机、组成、收集过程、推荐使用等”。

在最新一期的ACM通信,她和其他六名合作者直接将该提案与支持电子元件的数据表进行了比较。这确保了设备制造商在公开发布之前已经对他们的硬件进行了彻底的审查,同时也使工程师能够判断部件是否适合可能被使用的项目。

这一想法反映出人工智能内部越来越多的担忧,即在开发系统的许多元素还没有经过创造者的充分压力测试之前,系统就已经被开发出来了。与此同时,人们担心,在发展人工智能领域的竞赛中,安全问题也被忽视了。总之,这两个问题都证实了一个古老的观察结果:问题越晚出现,在设计流程中处理的问题就越难解决。

DAIR的第二个项目是建立在对“空间隔离的遗产”的现有研究的基础上。它将考虑自从南非最终放弃种族隔离以来,“白人”和“非欧洲人”社区之间强制的地理边界是如何演变的。

它解决了人工智能领域的另一组热门话题。种族、性别和多样性的公开讨论大多围绕着偏见展开,不仅是在语言模型中,在面部识别等领域也同样如此。这项工作旨在向Gebru和她的团队展示,他们正在寻求扩大议程,更密切地研究如何将人工智能和相关机器学习应用于解决这些问题。该研究所还致力于其人员配备和研究的多样性。

DAIR加入了越来越多的倡议,寻求解决环境、社会和治理原则在人工智能中应如何与可靠性和信任一起得到解决。所有这些都旨在突出最佳做法,并可能为各国政府正在起草或研究的各种国家和跨国法规提供信息。不过,鉴于Gebru在人工智能研究领域获得的广泛尊重,以及她的经历被视为凸显了人工智能在技术和一些主要参与者对待劳动力的方式方面所面临的问题,DAIR很有可能成为一个强有力的声音。

DAIR已经获得了三家美国知名基金会的资助,以及来自卡普尔中心(Kapor Center)的一份礼物。卡普尔中心是硅谷多样性研究的主要载体之一。

报名参加E&T新闻电子邮件每天都能收到像这样的好故事。

最近的文章

Baidu
map