卡耐基梅隆大学教授:机器人和人类如何更好地合作?

机器人已经渗入人类生活的方方面面,从扫地机器人,到工业生产线上的组装机器人,它们给我们的生活带来了很大的便利。随着人类与机器人的合作越来越紧密,对机器人的设计的要求也达到了前所未有的高度。在2019年的#全球新兴科技峰会#上, 卡耐基梅隆大学教授 Katia Sycara从社会学的角度分享了她对未来机器人设计要求的一些看法。

她指出,未来机器人也学会遵守道德规范和社会伦理,以更好地适应人类社会。比如,机器人要尊重隐私,你在家里面工作,你不能够不敲门就进浴室、卧室;对于机器人来说,如果它在打扫卫生,它是不是也该敲敲门才能进去。再比如,机器人要懂得规则的限制,一个合格的自动驾驶机器人需要遵守交通规则,保持在限速以下行驶。

图丨Katia Sycara(图片来源:DeepTech)

但是,在一些特定的环境中,机器人还需要打破规则,灵活处理。无人驾驶在送伤员去医院的过程中,可能要超速行驶,否则伤员会有生命危险;再比如,家中起火后,机器人不能仅仅是在敲门等着你出来,相反,它应当跳过这个程序破门而入,把你救出来。

除此之外,机器人还要学会识别同一行为在不同语境下的微妙区别。比如说,我们要求机器人有任何信息要告知我们,这本身是无可厚非的,但是如果你在和你的朋友一起在吃饭,然后机器人过来告诉你说明天你要去看医生,这个时候它实际上就打破了你的隐私;而如果你正在和你的老板吃饭,然后你的机器人过来说你明天要重新去面试另一个工作,那就更糟了。

所以,机器人的决策有很大的不确定性。我们很难把这些东西都用硬件或者编程来解决,因为所有的这些都是会产生不同影响和结果的决策。在探索解决这一挑战的过程中,人类研究出了很多算法,其中包括人工智能的算法。把逻辑推理和可能性推理结合起来需要大量的计算,用传统的算法会有很大的压力。在这次大会上,Sycar教授简单介绍了一种叫作模组化规范(Modular Normative MDP) 的算法。她指出,模组化规范相比传统有两个优点:第一,保证了一定的准确性,第二,提升计算能力。

除了机器人本身的改进以外,Sycara教授在大会上还提到,对机器人的信任度是团队中人机合作的核心要求。

现在已经有很多的机器人会和人类发生互动。在一些比较轻松松散的互动中,人类的角色是监视者,控制者和维修者;而在互动非常的紧密的活动中,是人类与机器人的关系更多的是团队成员或者是同事,两者会有频繁的信息交换,甚至人类要指导机器人。

而团队协作的核心是信任。所谓信任,是一个人对另一个人的态度。当涉及到机器人时,人们更愿意使用他们信任的机器人,信任机制需要在合作的多个维度中得到满足。

在自动驾驶领域,信任机制更加重要。人类司机会通过手势来告诉对方什么时候走,谁先走。机器人也要有一套类似的交流机制,如果没有信任的道路上,车之间就会互相猜疑,在别的车停住的情况下不敢走,造成交通堵塞。

而且信任是动态的,在不同的文化背景之下信任也不尽相同,我们对于不同的文化也要进行研究。比如,很多科技带有浓重的西方的文化和价值观,却被运用在所有文化中,这中间会产生一定的不协调。

除了信任度,透明度也是人机合作中的另一个重要方面。

Sycara教授指出,在一个团队中,我们都需要在某种程度上,了解其他人的想法,以及他们的行为和方法。在人类之间,这些行为并不陌生,因为很多情况下,我们都会有一些比较类似的背景,或者比较相似的社交性,但是对于机器人而言,没有那么容易。

所谓透明性,就是在智能化应用当中,我需要了解这些智能体的目的、推理过程,我需要有能力去预测这些智能体的未来是什么样子的。虽然人工智能和深度学习已经十分强大,这些算法在透明性上做得还不够。现在的深度增强学习,可以让机器去理解不同的图像,来解释自己。

最后,她指出,机器人会在人工智能算法指导下做出一些荒谬的行为。比如,扫垃圾机器人的奖赏函数要求它收集尽可能多的垃圾箱,这个机器人就会将收集起来的垃圾箱扔得到处都是,不断进扔掉,不断地捡起来,以得到更高的分数。这就是意外的结果。在我们和机器人的互动越来越多的时候,未来使用机器人会变得越来越有挑战性。人类在设计这些系统的时候,要充分考虑到这种情况。