拟人化的机器人。
你相信么?机器人有时也会犯错误。美国密歇根大学的一项最新研究显示,当机器人犯错后,它们在多大程度上能与人类同事重新建立起信任关系,取决于机器人如何承认自身错误以及其外在形象与人类有多相似。
一般来说,信任的修复策略包括道歉、否认、解释和承诺。研究人员发现,某些应对人类同事的策略要胜于其他方法。密歇根大学信息学院的副教授Lionel Robert介绍:“机器人是一门绝对的技术,但它们与人类的互动却具有社会性……机器人在与人类合作时也会犯错,这就降低了人类对它们的信任值。因此,我们必须找到修复人类和机器人之间信任的方法,而特定的信任修复策略要比其他策略更为有效——它们的效果好坏取决于机器人看上去的人性化程度有多高。”
在第30届IEEE机器人与人类互动交流国际会议上,Robert和博士生Connor Esterwood公布了这项成果。他们研究了几种修复策略(包括一种新的“解释”策略)会如何影响构建信任感的因素:能力、诚信、仁慈。
实验招募了164名参与者在虚拟环境中与机器人一起完成工作——将箱子装载到传送带上。人类充当质检员,机器人的任务则是读取序列号并装载10个特定的箱子,其中一个机器人与人类相似度极高,另一个在外观上更为机械化。经编程的机器人会故意犯错,并发起以下信任修复声明之一:“对不起,我拿错了盒子”(道歉);“我选对了盒子,所以肯定是其他地方出了问题”(否认);“我看错了序列号”(解释);“下次我会做得更好,拿对盒子”(承诺)。
结果显示,不论机器人的外观如何,解释策略对诚信方面的影响最大。如果机器人外表更接近人类,在给出解释后,诚信因素更容易修复;而在给出道歉、否认和解释时,仁慈因素更容易恢复。与之前的研究一样,与否认策略相比,道歉策略更多地修复了信任关系的诚信方面和仁慈方面。参照诚信和仁慈的修复水平可见,承诺的作用超过了道歉和否认。
Esterwood指出:“通过实验,我们可以进一步扩展这项研究,并查验更为现实的日常生活场景。比如,一个咖啡师机器人对出错原因作出解释,并承诺在未来的工作中做得更好,是否要比一个建筑机器人所言更可信?”
科界原创
编译:朱明逸 审稿:西莫 责编:陈之涵
来源:密歇根大学
原文链接:
https://techxplore.com/news/2021-08-robots-goof.html