百名人工智能专家上书联合国,呼吁禁止研发机器人杀手

今天,Elon Musk,Google Deepmind 的联合创始人 Mustafa Suleyman 和其他一百多名 AI 与机器人专家联名签署公开信,敦促联合国禁止将机器人用作武器 。

此次专家团联合上书主要是针对联合国官员考虑在《特定常规武器公约》中加入机器人武器。

公开信中强调:“一旦开发成功并广泛应用,将爆发比历史上任何时期规模更大、速度更快的战争,这不是人类的时间尺度所能理解的”。

公开信

这不是 Musk 第一次提请注意自主武器对人类的威胁,但是,尽管 AI 专家们表示担忧,机器人武器的开发某种程度上已经超出了联合国的监管范围。

AI 和机器人的发展速度超乎了人们的想象,与其他仍然在蹒跚前行的 AI 行业相比,自主武器系统的发展要快得多,终结者 T800 一样的机器人迟早会被研发出来。

自主或半自主能力越来越多地被用于武器,如包括雷声、达索、MiG 在内公司已经在开发或开发成功自治武器系统或前导技术。

成熟的产品有三星 SGR-A1 哨兵,BAE Systems(英国宇航系统,总部位于伦敦的跨国军火工业与航空太空设备公司)的塔拉尼斯无人机和 DARPA 的“猎鹰”潜艇。

三星 SGR-A1 机器人哨兵

来自 26 个国家的 AI 和机器人公司的代表首次在这个问题上提出了共同立场,其中包括独立研究人员霍华金,著名语言学家诺姆·乔姆斯基和苹果联合创始人史蒂夫·沃兹尼亚克。

联合国武器组织原定于 8 月 21 日召开会议,目前这次会议被推迟到11月。各国在此次专家会议上将表明对“杀人机器人武器”的观点,在迈向制定管制框架的讨论事实也即将启动。

目前美国被认为正在急速推进开发“杀人机器人”。 迄今为止,在关于“杀人机器人武器”管制问题的非正式讨论中,机器人技术发达的日美对制定条约实施管制等态度慎重,而我国则表明了支持管制的立场。