我们应该相信机器学习吗?

我们应该相信机器学习吗?

图片来源:Dreamstime

机器学习在我们的生活中扮演着重要的角色,但正如作家布莱恩·克里斯蒂安在他的新书中所问的那样,这些算法对我们公平吗?

布莱恩•克里斯蒂安(Brian Christian)表示,无论是好是坏,将伦理和技术联系起来的问题,尤其是在机器学习领域,“不会消失。在某种程度上,我认为这是我们未来十年的决定性挑战之一。”他所说的“这”指的是他新书《对齐问题》(the Alignment Problem)的核心主题,该书解决了这样一个问题:我们如何才能确保机器学习这一增长行业“以我们预期的方式运行”。我们如何确保我们可以信任它,我们是安全和舒适的?”

这位作者说,机器学习“是人工智能中增长最快的子领域,也是当今科学中最令人兴奋的事情之一,句号”。他之前的著作包括《最人性化的人》和《算法生活》。但是,解决与授权机器执行我们决策相关的伦理和道德问题“不会很快发生,我们需要尽可能多地投入人力”。

信任和安全之所以在议程上如此突出,部分原因是“就我们与技术的关系而言,我们生活在一个变革的时代”,克里斯蒂安说。“这是由机器学习系统的兴起推动的,这些系统不是明确地编程(‘如果x那么y’),而是通过实例来教授。这里有1万张猫的照片,这里有1万张狗的照片。弄清楚如何区分它们。”他继续说,这类软件“正在稳步取代人类的判断,以及更熟悉的传统编写软件”。考虑到这样的系统开始“渗透到社会的几乎每个层面,这引发了人们的担忧,即机器是否正在学习我们认为它们正在学习的东西。他们是否以我们希望的方式将这些人类规范和概念内在化?最重要的是,他们会按照我们期望的方式行事吗?”

克里斯蒂安表示,在过去5年里,这些问题已成为人工智能研究界的主要担忧,随着第一代机器学习毕业生开始从大学毕业,他认为这一刻是“第一波最先赶到现场的人”。他承认,这些担忧并不是什么新问题(“它们只是在今天更加紧迫”),他详细阐述了伦理和计算机科学之间的关系,至少可以追溯到20世纪60年代,当时麻省理工学院(MIT)控制论学家诺伯特·韦纳(Norbert Weiner)发表了一篇关于自动化的道德和技术后果的论文,他在论文中引入了“巫师的学徒”的类比,尽管我们的初衷很好,但灾难还是随之而来。

韦纳想说的是,自动化的未来不是童话世界。这实际上是在向我们走来。”然后,克里斯蒂安完美地引用了论文中的内容:“如果我们为了达到我们的目的,使用一个机械机构,一旦我们启动它,我们就不能有效地干预它的运行,因为动作是如此迅速和不可撤销,以至于在动作完成之前我们没有数据来干预,那么我们最好非常确定,放入机器的目的是我们真正想要的目的……”克里斯蒂安说,这些话“对现在进入机器学习时代的我们来说,具有令人难以忘怀的先见之明”。如果你想总结“对齐问题”的一个核心问题,你很难做得更好。

我们为你读过

“对齐问题:人工智能如何学习人类价值观?””

布莱恩·克里斯蒂安的最新文章讨论了人工智能机器学习子领域的伦理和安全问题。《对齐问题》基于对工作在机器学习前线的100多名关键人物的采访,评估了这项技术对我们生活的社会、公民和道德方面的影响。克里斯蒂安认为,机器学习是当今科学领域“即使不是最具变革性的”发展之一。从我们消费的新闻到决定我们是否获得汽车贷款;从动态营销到我们被捕后是被保释还是被拘留,算法在后台嘎吱嘎吱地运转,决定着我们的未来。但是,克里斯蒂安在一篇关于机器学习和社会的精彩分析中问道,我们如何才能确保这些系统是公平和安全的?

克里斯蒂安说,作为普通公民,我们可能没有意识到机器学习在我们的日常生活中发挥了多大作用。但如果你曾经用智能手机拍过一张照片(全世界每年大约要拍1.5万亿张数码照片),那么你就会在后台与机器学习系统交互,它会实时识别人脸、补偿曝光、调整焦距、合成多次曝光等。克里斯蒂安承认,这似乎是无害的,“但这是一个很好的例子,说明这些系统是如何无形地插入我们和世界之间的”。

当他提请人们注意到其他机器学习的例子时,事情变得更加严重,这些例子有可能对个人的未来和安全产生重大影响。这些系统被用于贷款和抵押贷款申请以及无人驾驶汽车。但可能面临道德困境最多的领域是如何将机器学习用于风险评估,以确定你被捕后是否会被准予保释或还押候审。考虑到美国每年有1000万次逮捕(英国为67万次),很容易理解为什么在处理被拘留者时需要某种自动协助。诸如此类的统计数据解释了为什么“人工智能已经从一个假设变成了该领域的核心科学研究主题”。

在《对齐问题》(the Alignment Problem)一书中最引人入胜的一段中,克里斯蒂安仔细研究了机器学习如何用于个人的司法处理。在我们讨论种族或性别偏见的问题之前,他指出,没有区分逮捕和犯罪统计数据是一个根本性的人为错误,这意味着如果你逮捕了错误的人,这两个数字之间可能没有公众本能期望的直接相关性。他举例说明,机器学习系统的失败如何给个人带来负面后果,而依赖该技术的司法部门不太可能了解这些技术,更不可能接受过使用这些技术的培训。他表示,即便是这样,“这些系统也有‘黑箱’的名声。”换句话说,我们有输入和输出,我们可以调整参数,但“我们并不真正知道内部发生了什么”。

好消息是,“就在我们说话的时候,世界上已经有了技术上的进步。我们已经做了很多研究,研究如何构建这个系统,使其更加透明,这样我们就可以更有信心地了解这些系统的真正功能。”

“对齐问题:机器如何学习人类价值观?”布赖恩·克里斯蒂安(Brian Christian)所著,大西洋图书公司(Atlantic Books)出版,售价20英镑。

提取

定义“问题”

机器学习表面上是一个技术领域,越来越多地与人类问题发生冲突。我们人类、社会和公民的困境正变得越来越技术化。我们的技术困境正在变成人类的、社会的和公民的。我们在让这些系统做“我们想做的事情”方面的成功和失败都为我们提供了一面毫不退缩的启示镜子。

随着机器学习系统不仅越来越普及,而且越来越强大,我们会发现自己更经常处于“巫师的学徒”的位置:我们召唤出一种自主但完全服从的力量,给它一套指令,然后在意识到我们的指令不精确或不完整时,疯狂地阻止它——以免我们以某种聪明而可怕的方式得到我们想要的东西。

如何确保这些模型捕捉到我们的规范和价值观,理解我们的意思或意图,最重要的是,做我们想做的事情,已经成为计算机科学中最核心和最紧迫的科学方程之一。它有一个名字:对齐问题。

对此的反应是——前沿研究越来越接近于开发所谓的“通用”智能,而现实世界的机器学习系统正在触及生活中更充满道德问题的部分——这是一个突然的、充满活力的反应。一个跨越传统学科界限的多元化群体正在聚集起来。工业界和学术界的领袖们都在大声疾呼,发出谨慎的警告,并相应地调整他们的研究资金。第一代毕业生即将入学,他们专注于机器学习的伦理和安全。连线问题的第一批救援人员已经到达现场。

编辑节选自《对齐问题:人工智能如何学习人类价值观?》作者布赖恩·克里斯蒂安(Brian Christian),转载已获授权。

报名参加E&T新闻电子邮件让像这样的精彩故事每天都发送到你的收件箱。

最近的文章

Baidu
map