人工智能在哪些方面影响战争?

人工智能正在改变战争的方方面面

在20世纪70年代,一架美国海军飞机俯冲至丛林上空,随即向林冠下投入一束装置。一些装置是用于监听游击队脚步或卡车启动声音的传声器;另一些装置是经过精细调节的地震波探测器,用于记录地面震动。在这些装置之中,最特别的是嗅觉传感器,用于嗅探人类尿液中的氨成分。此类电子传感器数以万计,其输出的数据被无人机收集并传输至计算机。在数分钟内,军用飞机将前往算法设定的坐标方格区域进行地毯式轰炸。在1970年,白色冰屋行动代表着当时战争的发展方向。

利用人工智能技术,对地面飞机型号进行高空识别。

美国企图以此切断胡志明小道,但并达到目的;胡志明小道是指连接老挝和越南的物资供给通道。白色冰屋行动执行费用为每年十亿美元(大约相当于现在的73亿美元),摧毁一辆卡车的成本为10万美元(相当于现在的73万美元),但仍未能阻止敌军渗透。虽然如此,半自动化战争的吸引力却从未消失。利用传感器收集数据,运用处理能力不断增强的算法处理数据,依据算法运算结果,能够比敌人更快地采取反应,世界各军事强国均采取这种军事理念。现在,随着在人工智能领域取得各项新成果,此类军事理念也得到大幅发展。

二月,美国国防部在其第一份人工智能战略文件中声称:人工智能“默默地改变未来战场的特征”。2018年夏季,五角大楼成立联合人工智能中心,三月份,美国国家安全委员会首次就人工智能召开会议。在五角大楼2020财年预算中,关于人工智能的拨款金额是10亿美元,是无人设备和自动设备拨款金额的四倍多;无人设备和自动设备依赖于人工智能。

机器崛起

中国也采取促进人工智能发展的类似措施,旨在2030年取得世界人工智能领先地位(还不知道中国是以何种方式实现这一目的);而在俄罗斯,弗拉基米尔·普京曾说过一句名言:“谁在这一领域成为领导者,谁就是世界的统治者。”问题是,人工智能既能够揭开战争的迷雾,也能加重战争的迷雾,让战争以一种快速且复杂方式进行,人类通常无法理解此类战争方式。

人工智能是一个内涵广泛并且界限不清晰的术语,包括一系列技术,包括二十世纪五十年代具有开拓意义的规则遵循系统以及当前基于概率的机器学习技术(该技术能让计算机教会自己执行任务)。深度学习(一种十分流行且功能强大的机器学习方式,设计多层次人脑模拟神经网络)被证明能高效地执行多种任务,包括翻译、目标识别以及游戏(参阅图表)。宾夕法尼亚大学的迈克尔·霍罗威茨将人工智能与内燃发动机或电力相类比,与这二者一样,人工智能是一种具备广泛用途的使能技术。迈克尔将人工智能的军事用途分成三类:第一类是让机器行动,人类无需监督机器;第二类是处理并解译大量数据;第三类是为战斗指挥控制提供支持,甚至行使战斗指挥控制权限。

始于战场

自主作战机器人极具吸引力,与人类相比,机器人成本更低,更坚固并且更具有可消耗性。但能够在战场巡逻的机器人必须具备足以执行有关任务的智能,更不用说在战场浴血奋战的机器人了;一架没有智能的无人机不会在战斗中生存很久,更糟糕的情况是为一台没有智能的机器人配置机枪,这会导致战争罪行随时发生。因此,必须利用人工智能技术,为相关装备配置必备技能,既包括简单技能,例如感知和导航,也包括较高级别技能——保持队形技能,例如与其他机器人协调技能。

能相互整合作战能力的智能机器人可以完成人类士兵无法完成的任务。伦敦英王学院的肯尼斯·佩恩指出:“在模拟空战中,人工智能系统已经能胜过一名有经验的军方飞行员。”二月份,美国国防部高级研究计划局是五角大楼的创新思维机构,最近进行了一项无人机机群协调测试——在“高度威胁”环境中,甚至在无人工干预的条件下,进行六架无人机机群协同行动的测试。

虽然如此,大部分此类系统体现的智能是一种狭义且不稳定的智能——在特定环境中,能很好地执行某项任务,但在陌生环境中,很难完成任务。因此,现有自动武器通常是用于摧毁雷达的战备导弹或者是用于防护舰船和基地的高射速枪炮。这些武器有用,但不是革命性武器,都未配置最近几年取得突破性进展的机器学习功能。

人工智能——提高,提高,再提高!

认为人工智能只适用于执行战场艰苦的工作,这是一种错误理念。机器人,不论是用于杀人还是其他目的,必须依据视觉信息采取行动。对于诸多军事平台而言,例如侦查飞机和侦查卫星,其用途是将适用于转变成情报的原始数据发射回来。与之前相比,此情况变得越来越普遍,仅在2011年,即相关数据能够获取的最近年份,美国约1.1万无人机传输回32.7万小时(相当于37年)视频;

但这些视频大部分未被查看。幸运的是,人工智能在军事领域的第二项主要用途是处理数据。按照斯坦福大学人工智能发展年度索引,在2015年实验室测试中,人工智能算法在图像分类测试中胜过人类;从2015年至2018年,在对象分割这一更加艰巨的任务中,人工智能算法性能提升一倍;对象分割是指从多个目标中挑出一个图像。计算机视觉还远未完善,可采用多种方式对其进行利用,但这些方式均不能愚弄人类观察者。在一项研究中,将一副熊猫图像的像素修改0.04%,人类对这种程度的图像修改毫无感觉,却让人工智能系统将熊猫识别成长臂猿。

虽然人工智能有这些缺点,2017年2月,五角大楼却做出结论:深度学习算法能达到接近人类的水平。五角大楼设立一支被称为“专家”项目的“算法战争”团队,利用深度学习算法和其他技术确定目标和设别可疑行动;这些技术最初用于针对伊斯兰国(IS)作战视频,现在已经被用于更多领域。其目的是获取“可采取行动”的情报,通常是对目标进行轰炸或派遣特种部队进行入室打击。

一位了解“专家”项目的知情人士表示:目前,就节省时间和新见解而言,“专家”项目带给分析人士的好处微乎其微。例如,数个广角摄像头能够完整地拍摄多个城市,这些图像信息包含大量虚假信息。该知情人士表示:“这些系统本质是高度迭代的。”人工智能发展迅速,“专家”项目只是冰山一角。

肖恩·科比特是前英国皇家空军副元帅,现在为一家名为地球智能(Earth-i)的英国公司工作,声称该公司将机器学习算法应用于多个卫星,可识别数十个基地内的多种军用飞机(参阅主题图标)。肖恩说道:“随着这种聪明算法的不断发展,它将能以多种方式识别正常情况和不正常情况。”通过观察基地一段时间,该软件可以区分常规部署和非常规行动,提醒分析人员注意基地重大变化。

当然,算法的用途是多种多样的,能用于分析各类数据,不限制图像数据。在12月,英国领导人构领导人亚历克斯·杨格指出:“将大数据与现代分析法相结合,让现代世界变得透明。”2012年,从美国国家安全局泄漏出一份文件,该文件记录着一种程序(该程序被命名为“天网”,真是让人感到放心!),该程序将机器学习技术用于巴基斯坦手机数据,以找出恐怖组织的通讯人员。例如,在过去一个月里,是哪些人从拉合尔前往边境城市白沙瓦并且比平时更加频繁地关闭手机或交换手机。理查德·巴伦爵士是退役将军,在2016年之前指挥英国联合部队,他表示:“人工智能转变了原来情报工作方式,原来情报公司是指挥官提出一个问题,情报机构利用情报收集装备寻找答案,现在的情报却是云技术收集。”

确实如此,需要的相关信息不总是来自于敌军。联合人工智能中心第一个项目不是武器,也不是间谍工具,而是与特种部队合作,预测特种部队使用的黑鹰直升机何时出现发动机故障。此类算法的首个版本于4月公布。空军对指挥控制飞机和运输进行的测试表明,此类预测性维护能减少接近三分之一计划外工作,可大幅减少五角大楼在飞机维护方面的开支,五角大楼在此方面的当前支出为780亿美元。

人工智能让无人机实现机群协调作战

人工智能政变

当然,处理信息重点是按照信息采取相关行动。人工智能改变战争的第三种方式是通过渗入军方决策层面,包括基层排级部队决策至国家指挥部决策。一家公司名称为UNIQAI的人工智能技术公司研制出款名为“北箭”的工具,指挥官可以利用“北箭”处理大量各类数据,例如敌军位置、武器射程、地形和天气数据,从而规划任务;如果让士兵采用研读地图和图表的老式方式处理这些信息,需要耗费12至24小时时间;在市场上,还有不少“北箭”同类产品。输入给人工智能的数据来自于书本和使用手册,例如某型坦克在不同海拔的行驶速度,还来自于采访有经验的指挥官获取的信息。由此,人工智能算法为忙碌的决策者提供多种选择并且将相关原因一并提供。

此类“专家系统”平台,例如“北箭”和美国同类产品“军官软件”,其工作速度大幅快于人类大脑——在一次测试中,军官软件只需两分钟就能完成16名人类一小时的工作,但软件处理采用规则遵循技术,算法简单。按照历史上存在过的标准,这些软件将被视为人工智能,但大部分软件采用定值设计法,即只要输入数值相同,输出结果也相同。使用电子数字积分计算机(ENIAC)输出结果的士兵很熟悉这种情况;电子数字积分计算机是世界上第一台通用计算机,在1945年被用于计算火炮射程表。

在现实世界中,精准预测通常会受到随机性干扰,因此很多现代人工智能系统将规则遵循机制与随机性相结合,以此作为更复杂规划的基础。美国国防部高级研究计划局研制的实时敌方情报及决策软件旨在预测敌军在未来五小时内的目标、行动,甚至可以预测敌军的可能意图。该软件系统基于一套博弈论,将多个问题简化成小型博弈,减少了解决问题所需的计算能力。

在2004年至2008年进行的早期测试中,实时敌方情报及决策软件在规划准确率和速度方面大幅优于人类规划人员。在两小时模拟巴格达作战中,人类团队与实时敌方情报及决策软件或其他人类对抗,实时敌方情报及决策软件用了不到一半的时间就输出相关信息。鲍里斯·斯蒂尔曼是该软件的设计者之一,他指出:那些被挑选出来模拟伊拉克叛乱分子的退役上校们“非常害怕”这个软件,他们甚至不再交谈,用手来传递信息。实时敌方情报及决策软件正在开发军事用途。

最新深度学习系统可能是同类系统之中最神秘的。2016年3月,深度思维公司制造的深度学习算法软件阿尔法狗击败了一名世界顶级围棋选手;围棋是一种古老的中国战略游戏。在对弈过程中,阿尔法狗走了几步极具创新性的棋,连专家都无法理解。在此之后的第二月,中国军事科学院举行一场主题为该围棋比赛影响力的研讨会。中国军事创新专家埃尔莎·卡尼亚写道:“阿尔法狗在围棋对弈中获胜,对中国军事战略家们而言,得到的经验教训就是人工智能能够在类似于军事演习的游戏中创造优于人类玩家的战术和策略。”

我们玩个游戏吧?

2018年12月,深度思维公司的另一项软件“阿尔法星”(AlphaStar)在实时视频游戏“星际争霸2”击败一名世界级玩家;与围棋一人一子轮流下棋的方式不同,“星际争霸2”是实时操控游戏去,游戏玩家不了解相关信息,游戏自由度(潜在变化)更多。很多军官希望此类游戏能力可以最终转变为军史知名人物的军事才能,创造出巧妙的军事策略。五角大楼下属机构国防创新组主管迈克尔·布朗表示:人工智能让使能“战略思维”是国防创新组的工作重点;国防创新组的职责就是利用商用技术。

但是,如果人工智能算法以人类无法理解的方式超越人类的创造性,将引起法律、伦理和信任问题。战争法要求对一系列概念,例如判别(平民伤害和军事利益的比例)比例和必要性。人工智能不会说明为什么选定某个目标,可能无法遵守战争法。即便人工智能能遵守战争法,人类也不会相信其决策辅助功能,人工智能看起来就像是一台“魔力球8号"。

英国皇家空军凯斯·迪尔问道:“当人工智能被用于军事战略,计算出多种军事行动互动干涉概率,此类军事行动超出我们的考虑范围,同时人工智能据此建议我们采取一系列难以理解的行动,我们将怎么办?”迪尔举了一个例子:针对俄罗斯军队入侵摩尔多瓦的行为,人工智能可能建议资助一场在巴库举行的歌剧;这是一种超现实的策略,极易迷惑己方军队,更不用说敌军了。但人工智能采取此措施可能是基于对一系列政治事件连锁反应的理解,而军队指挥官对此还为了解。

即便如此,迪尔预计人类将在不可预测性和效率之间设定一个平衡点。“即便受限于当前技术,人工智能无法掌握现实世界战争的决策权,也能通过‘大规模准实时仿真’为决策者提供支持。”

这种说法听起来完全能让人接受。理查德·巴伦爵士指出:英国国防部已经采购一种基于云计算实景复制综合作战环境技术验证机;实景复制综合作战环境又被称为单一综合环境,其军事版本软件是大型在线视频游戏的引擎,例如《堡垒之夜》。该软件由游戏公司“Improbable”和知名飞行模拟器公司“CAE”共同制作,采用开放标准,可以采用各类数据,包括机密情报和实时天气数据。理查德爵士表示:“只要有足够数据,有数据交换网络和处理数据的云技术,现有指挥和控制方式将被彻底改变,国家安全委员会到战术指挥官都能使用单一综合指挥工具。”

无需人类的自动技术?

西方国家政府坚持人类“在环”,即让人类监督相关事宜;但很多西方国家军官也不认同这一点。迪尔指挥官说道:“人类很有可能被逐渐地‘不在环’,也不再是战术或战略决策团队的成员。”卡尼亚女士说道:“中文文献多次提到预计战斗将以超出人类认知能力的速度快速进行。”产生的结果不仅是自动武器,还包括自动战场。从战争开始,各个相互连接的人工智能系统将挑选多个目标(包括导弹发射架至航空母舰)并依据高效顺序对目标进行打击和摧毁。

至于其他后果,现在还无从得知。最近,圣扎迦利·劳伦斯在为劳伦斯·利弗莫尔国家图书馆撰写的一篇论文中写道:“准确且快速打击设想可能会增加突袭感知风险,从而破坏稳定性。”人工智还能通过识别即将发生的袭击信号,协助防御方抵御这类突袭。或者,与美国在20世纪60年代在越南丛林大量散布传感器类似,这类方案最终会因为昂贵和构思拙劣导致失败。但没有一个大国愿意冒着落后于人的风险;此外,除了技术,政治在人工智能领域也起到重要作用。

在2016年,各大型技术公司对人工智能的投入为200-300亿美元,五角大楼支付了其中部分金额。尽管不少美国公司乐意获得国防经费,亚马逊和微软就从五角大楼获得近100亿美元云计算合同,但也有公司对此前后反应不一致。2018年6月,4千名雇员抗议谷歌公司参与“战争技术”,谷歌公司随即表示参与“专家”项目并获取9百万美元合同的行为是该年度决策失误。

在中国却是另一种情况,中国公司极易受到压制,被迫为国家服务,隐私法规不被重视。6月,美国前副国防部部长罗伯特·沃克警告:“如果数据是人工智能的油料,与世界其他国家相比,中国在这方面具有结构性优势。”还不清楚民用数据是否用于军事算法,但多位军方领导人已经在思考这一问题。8月30日,联合人工智能中心主管杰克·沙纳汗公开其忧虑:“我不愿意看到我们未来的潜在敌人拥有一支完整人工智能使能的军队,而我们却没有。”