无人机袭击
评论

为什么工程师必须更积极主动地参与战争法律

图片来源:Digitalstormcinema/Dreamstime

随着自主武器在世界各地的冲突中发挥越来越大的作用,制造商不能坐视不管,根据法院的裁决调整自己的设计。

乌克兰战争已使战争罪指控以及国际刑事法院(International Criminal Court)起诉的可能性成为头条新闻。除了恐惧之外,这种前景对大多数工程师和计算机科学家来说似乎无关紧要。但事实并非如此——科技行业需要吸取教训,尤其是现在无人机正在发挥着改变战争的重要作用。

战争由国际人道主义法(IHL),也称为武装冲突法(LOAC),通过在联合国谈判的条约和国际议定书进行管理。国际人道法的前提是战争会发生,但致命行动只能由有权在法律范围内采取行动的可识别个人采取。因此,对人或财产造成伤害的责任和赔偿责任必须始终由使用具有可预测行为的武器系统的可识别的个人负责。

武装无人机是致命自主武器(LAWs)的一个例子。谁对自动武器的致命效果负有法律责任?

联合国法律专家小组表示他们受现行国际人道主义法的保护.问题是要找出做出致命决定的人。该小组的观点是“应该在武器系统的整个生命周期中考虑这一点”,明确地将责任放在供应链中的技术人员身上,而不仅仅是军事指挥官。工程师如何履行他们的职责?

国际人道法与关于自治系统的国内法之间的一个重大区别是《日内瓦公约第一附加议定书》第35条。它指出,新的“战争手段或方法”不是无限使用的,国家必须确定这些手段或方法符合国际人道法。第36条规定了测试制度。《交战规则》涵盖了作战用途,该规则是在广泛的法律、军事和技术合作工作之后制定的。当政府专家组完成其工作时,包括武装无人机在内的所有法律必须完成第36条涵盖整个生命周期的审查。

工程师能够使用系统工程方法履行其国际人道法职责,包括确定行动授权链,并确定武器使用的限制。国家法律似乎没有对产品在使用前对其行为的后果负有可识别的责任的同等总体要求,除非产品必须适合用途。

无人驾驶汽车等自动系统是工程领域的一个领域,各国法律制度已经在努力适应迅速发展的技术。新技术被引入到现有的法律框架中,然后试图赶上并确定谁对任何事故负责。例如,英格兰和苏格兰法律委员会的意见是自动驾驶汽车不符合英国现行法律

自主和机器学习的不确定性行为使得变革不可避免。用于IHL的系统工程方法包括从通用IHL原则导出每个系统的技术规范、人员责任的架构分析以及通过设计限制子系统行为。法律要求在概念和设计阶段进行更多的第36条审查,目的是让律师、工程师和计算机科学家就法律中特定新技术的应用达成一致。其结果是确定武器行为各个方面的责任,减少各方的技术、法律和财务风险。

对于任何自主系统的生产者来说,教训是系统规格应该基于对产品使用的法律限制。这些是所有设计、测试、升级和处理阶段的基础。这是可以做到的,并将责任风险降低到可管理的水平。然而,这需要律师、监管机构、营销人员、工程师和计算机科学家在整个产品生命周期中密切合作,从概念到处理。

我们是否应该坐以待毙,对我们的潜在责任什么都不做,让法院决定责任,然后回顾性地改变我们的设计和设计过程,以满足他们的裁决?不!作为专业的工程师,我们应该积极主动,根据坚实的工程原则发起变革,像其他任何风险一样,将责任转变为可管理的风险。

托尼·吉莱斯皮(Tony Gillespie)是伦敦大学学院电子与电气工程系的客座教授,也是IET一书的作者伦理自治系统系统工程“,.他是这是第一份将日内瓦公约转化为工程要求的文件还写过几篇关于人工智能、自主权和责任的论文。

报名参加E&T新闻电子邮件让像这样的精彩故事每天都发送到你的收件箱。

最近的文章

Baidu
map