人工智能面部识别等书籍采访1708网络英雄

图书访谈:人工智能如何成为“不坏”的力量

图片来源:Aleksandr Koltyrin/Dreamstime

里德·布莱克曼(Reid Blackman)表示,人工智能的实施带来了巨大的生产力提高,但同时也存在歧视和侵犯隐私的风险。

里德·布莱克曼说:“我们现在关注的最大的技术进步之一是人工智能。人工智能及其相关机器学习(ML)的开发、采购和部署正在以“我们以前从未见过的规模和速度进行,而且在未来几年只会增加。”他继续说道,这“很棒”,并解释了人工智能如何在提高速度、生产力和盈利能力的同时,消除以前基于纸张的迭代任务的繁重工作。“但它带来了真正的道德风险,这种风险可以而且已经被意识到。”他说,当它们发生时,这就是人工智能的本质,“它们总是大规模发生。”

我们大多数人都会意识到这些风险的“三位一体”:偏见、缺乏透明度和隐私。但正如布莱克曼在《道德机器》一书中所解释的那样,它们还有更多的好处。但无论你解决哪个问题,潜在的问题本质上都是一样的,那就是人工智能系统最终会产生道德上不可接受的影响。

正如布莱克曼所说,很多公司都经历了惨痛的教训。亚马逊在两年后放弃了读简历的人工智能,因为该公司“不知道如何阻止它歧视女性”。有一家美国医疗保健公司目前正在接受调查,原因是该公司开发了一种人工智能,建议将医疗重点放在白人患者而不是其他种族的患者身上。高盛(Goldman Sachs)因其人工智能为其苹果卡设置的信用额度低于男性而受到调查。尽管这家美国金融巨头被证明没有任何不当行为,但调查之后的一轮负面媒体报道导致其声誉受损。至于Facebook和人工智能,布莱克曼说:“嗯,它们有很多。”

布莱克曼说,这里有很多需要分析的地方,尤其是广泛的附带损害。在这种情况下,那些“被人工智能变坏的道德灾难性影响所伤害”的人受到了明显的伤害。但对于那些通常是善意使用人工智能的公司来说,这也会带来声誉、监管和法律后果。布莱克曼说,这些情况尤其令人担忧的是,“正是因为人工智能大规模运作,风险的范围总是更大。”

我们为你读过

道德的机器

正如里德·布莱克曼(Reid Blackman)在《道德机器》(Ethical Machines)一书中所说,人工智能在企业中的前景是“诱人的”。它能够处理大量数据并做出闪电般的决策,这意味着只要应用得当,就能获得巨大的生产力收益。然而,将日常决策任务交给人工智能也存在风险,结果可能很严重,特别是当工作申请筛选自动化被证明是歧视性的,或者当医疗数据人工智能未能考虑到隐私问题时。Blackman说,通过在开发、采购或部署黑盒算法时考虑伦理,可以避免这些陷阱。或许与直觉相反,这不是良好行为的问题(企业对此有所准备),而是考虑后果的问题。要做到这一点,我们需要停止将道德视为一种软技能,并开始认真对待这一理念。好东西。

当人工智能在这种情况下出现问题时,负责实施人工智能的高管并不一定是没有遵守公司行为准则的要求。更有可能的情况是没有考虑到伦理问题。但你不能告诉负责人工智能实施的工程师要更有道德,因为“他们不这么看。对他们来说,道德是一个软话题。”因为没有确凿的事实和数据可以玩,你唯一能做的就是“把它擦干净,然后和垃圾一起扔进去”。

布莱克曼还是道德风险管理公司Virtue的首席执行官,他对诉讼的这种看法完全错误。他还当了20年的哲学教授,对于别人如何看待伦理,他很乐意表现出恼火的样子。他说:“人们倾向于认为这是关于好的或正确的。”“但当涉及到人工智能时,我们需要审视与之相伴的道德框架,它与其说是一种有益的力量,不如说是一种‘不坏’的力量。”换句话说,即使你觉得整个想法“软弱无力”(布莱克曼在他的书的第一行介绍了这个概念),你也必须肯定地认识到它有可能让你远离法庭。

因此,“技术人员会想知道他们能做些什么来保护他们的品牌和他们为之工作的人。但不幸的是——这不是他们的错——技术人员没有接受过伦理教育。他们不知道问题或风险是什么。更重要的是,他们不知道这些风险的来源是什么,如果你不知道,你就无法理解减轻这些风险的战略和战术。”

这就是布莱克曼写《道德机器》的原因:“这里要说的是,看,这就是人工智能和机器学习的前景。这里是所有风险的来源,这里是你可以做的事情来减轻这些风险。”为了强调这一点,布莱克曼给他的书起了一个副标题:“你对完全公正、透明和尊重的人工智能的简明指南”。

布莱克曼承认,当伦理和人工智能的概念如此接近时,像这样的书似乎对那些想用人工智能作为社会公益力量的人很有吸引力,“如果你喜欢,这是一种积极分子的心态。”但这本书不是为他们写的,而是为公司里的技术专家写的,他们的首要职责是“不伤害”(暗指希波克拉底誓言——一种已经存在了2000多年的医学道德准则)。这就是这本书的内容。不要损害你的品牌。道德准则第一条是“不伤害”,或者我更喜欢说“不伤害别人”。我很少使用人工智能伦理这个词。我更喜欢用人工智能伦理风险这个词。”

布莱克曼表示,不同的组织将有不同的道德价值观,不是每个人都能达成一致。他随后解释说,商业道德更多的是采取“合理的立场”。所以,你会遇到这样的情况,有些立场是不兼容的,但仍然在合理的范围内,而另一些立场是不兼容的,不合理的。这个想法并不是说每个组织都必须签署一套相同的价值观:相反,他们需要在人工智能领域有意识地选择能够指导人工智能设计、开发和采购的价值观。”

我们最有可能遇到的人工智能伦理领域是偏见、透明度和隐私,这些都是“道德机器”的核心。布莱克曼说:“有很多关于这些话题的头条新闻促使人们问我们将对此做些什么。这里的问题是它不是黏糊糊的。道德体系是一个复杂的体系。”

里德·布莱克曼的《道德机器》,哈佛商业评论出版社出版,售价22英镑

提取

我们需要人工智能道德准则吗?

如果你认为已经有适当的行为准则和法规来处理人工智能,这是可以理解的。企业的行为准则要求有良好的判断力、正直和高度的道德标准。有反歧视法,例如,当涉及到自动驾驶汽车时,法律禁止杀害和致残行人,即使下雨。人工智能伦理真的需要单独对待吗?事实上,确实如此。

公司的行为准则管理着人们的行为,他们可以意识到哪些行为是不允许的,哪些行为是允许的。在大多数情况下,人们知道如何不去做坏事。如果他们没有,我们可以提供培训。然而,就人工智能而言,道德风险并不是不良行为的结果。这是没有考虑后果的结果,没有监控“野外”的AI,不知道在开发或采购AI时应该注意什么。稍微换句话说,尽管人工智能的道德风险并不新颖——歧视、侵犯隐私、过失杀人等等自古以来就存在——但人工智能创造了实现这些风险的新途径。这意味着我们需要新的方法来阻止这些路径被通过。

类似的思路也适用于法律法规。既然有了违法的新方法,就需要创造新的技术来阻止善意但潜在的违法者。这说起来容易做起来难,因为一些减轻人工智能伦理风险的技术与现行法律相冲突,或者以一种在法律上没有问题但在道德上,因此在声誉上是危险的方式运行。这意味着组织可能处于一个不令人羡慕的位置,必须决定是否部署一个道德上有风险但合法合规的人工智能,一个道德上合理但非法的人工智能,或者根本不部署它。

编辑节选自里德·布莱克曼(Reid Blackman)的《道德机器》(Ethical Machines),经许可转载。

报名参加E&T新闻电子邮件让像这样的精彩故事每天都发送到你的收件箱。

最近的文章

Baidu
map