近来 Amandeep Gill 的日子不是很轻松。作为联合国“常规武器公约”(CCW)致命自主武器会议的主席,他需要领导 125 个成员国讨论“杀手机器人”这一棘手的技术和伦理问题。
这个主题引起了媒体的广泛关注和来自 NGO 的压力。他必须将国家代表团——外交官、律师和军事人员——以及学者、人工智能企业家、行业协会、人道主义组织和非政府组织聚在一起,并努力就这一重大安全问题达成共识。
图丨Amandeep Gill
杀手机器人的主题是一个敏感话题。The Future of LifeInstitute 是一个致力于“缓解人类面临的生存风险问题”的非营利组织,在去年 11 月举行的 CCW 会议上,他们推出了其耸人听闻的短片“Slaughterbots”。这部电影描绘了一个由杀人无人机威胁的反乌托邦近期未来,并传遍了互联网。
曾担任印度裁军大使的 Gill 试图平息因装备武器的无人机而爆发的反对的声音。“女士们,先生们,一则新闻告诉你们,” Gill 在第一轮 CCW 会议后对记者说,“机器人并没有占领世界。世界仍在人类的掌控中。”
作为一名受过培训的工程师,Gill 在参加全面禁止核试验条约(CTBT)和印度与其合作伙伴之间的民用核协议的讨论中,历练了他的谈判能力;此外,他还是印度人工智能特别工作组的成员。他还将成为联合国新成立的数字合作高级别小组的执行董事,该小组由 Melinda Gates 和阿里巴巴集团的马云共同担任主席。
CCE 将于 8 月 27 日至 31 日举行第三次会议讨论致命自主武器,之后可能会发布报告并决定明年继续讨论的日期。
而在媒体的访问中, Gill 首先提到了致命自主武器的定义。“这完全取决于你怎么定义致命自主武器。给你一个具体的例子,美国在伊拉克战区部署的C-RAM 系统(反火箭,火炮和迫击炮系统),该系统以自主的方式响应即将到来的火力打击,但是存在一定程度的人为控制。我们会议上的讨论围绕着人为控制的意义。如果你有另一种回应制度,那么会更加符合国际人道法吗?这是未来我们需要面对的问题。”
而现在,有些政府和非政府组织希望禁止使用致命的自主武器。Gill 则认为,
“常规武器公约”提供了一系列控制自主武器的选择,要么提前禁止使用系统,要么接受它们犯错的必然性,但禁止在某些情况下使用它们,要么规定某些方式来交换信息或警告人们使用它们等等。“所以禁止它们是我们的选择之一”。
但现实还有一种情况是,有些国家非常满意将其纳入国家法规和工业标准。所以在这个时间点,对任何选择都没有达成共识。
因此,Gill 表示,作为主席,他不知道应该采取什么选择。
另外,与核武器不同,建造自主武器的工具相对容易获得。这对控制这项技术是否构成挑战?
今天的任何军事系统都使用现成的许多技术。但是,国际社会已经找到了管理这些系统,控制其扩散的方法,无论是通过技术出口管制还是通过具有更广泛适用性的条约,或其他与工业合作的方式,例如核安保领域。
因此,AI 可能与前面的例子没那么不同。可能不同的是行业变化的速度和规模。这就是我们需要进行对所有利益相关者开放的对话的原因。如果我们开始只通过一个层面来管理这些,比如说我们只关注国际条约的制定,而忽视国家层面或行业方面的问题,那么我们成功的机会就不那么大了。这是我过去几年的经历。但是,如果我们与所有行业、领域保持同步,那么我们就有可能成功地管理与 AI 相关的一些风险。
但 Gill 认为,出于恐惧来制定政策并不是一个好主意。“作为严谨的政策实践者,我们必须从技术发展和可能发生的情况来看待现状。我们正在处理事情的背景是什么?在日内瓦的讨论中,我们的背景是国际人道法,武装冲突法以及与可能部署致命自治武器系统对国际安全影响有关的其他问题。因此,我们必须牢记这一背景,并以合理,系统的方式处理它,这种方式带有 CCW 中的所有 125 个国家。我不认为害怕或瘫痪不采取行动 —— 或者对风险避而远之 —— 对我们有任何帮助。
目前,此次的会议也有初步的预期目标,其中之一是在去年的会议结果的基础上,就四个重要问题达成了一系列共识。里面特别的是,现有国际授权法继续适用于任何形式的武器系统。
这四个议程项目首先是定义问: 你如何定义致命的自主武器系统?第二,通过这种系统使用武力时,人为因素如何考虑?部署或开发此类系统时,人机互动应该是怎么样的?第三,在自主武器建造过程中,我们应对国际人道主义法和国际安全有关的问题的质疑的时候,有什么选择来为自己辩解?
第四点是关于技术审查。在这个领域,技术发展得非常迅速。所以人们希望相关政策反馈是相对稳定的。当技术发生变化时,不应该对它们进行根本性的修改。与此同时,也要确保政策实施与技术发展保持同步。
几天过后,我们或许就能看到会议结束后提出的相关报告,读到其中详细的全球共识。