人工智能的成功应用需要来自人类与计算机的共同努力
多年以来,人类与人工智能的互动仅限于科幻小说和实验室里。然而随着智能系统被赋予越来越多的责任,替代了人的工作,并参与到复杂的涉及情感的决策中,找出与这些智能系统的协作之道就成为了一个亟待解决的现实问题。
如今,人们每天用到的很多产品中都装有机器学习和认知系统。然而要想将人工智能的全部潜力释放出来,人们还需要以更多的方式与这些系统进行交流。设计者的任务就是想办法构建人类与机器间的协作关系,使智能系统增强人类的创造力和能动性,而不是单纯地取而代之。
为什么信任与同理心很重要
Siri不会为你做出改变生活的重大决定,所以虽然它不清楚自己是如何得出结论也无关紧要。然而当机器采用模糊输入,执行异常繁复的任务,然后进行模糊输出来为你做出重要决定时,机器所需的就不仅是几个按钮和状态指示灯这样简单的东西了。这样的互动需要人类与科技间的相互信任与同理心。如果智能系统的目的是做出精密细致的决定,使人类无需为此费心,那么人类要是不信任它们的能力,这一切将毫无意义。这意味着打造人类与应用科技间的关系与发明更快的处理器同样重要。
假想你正坐在一辆无人驾驶车上,而这辆车突然一个急刹车,改变路线,朝另一个方向驶去,你将作何感想?或许车子只是看到了你没看到的路况,或者它发现前方有事故。但如果你对此毫不知情,也并不相信它能随机应变,无缘无故突然改变路线将令你大为不安。绝大多数时候,无人车并不会面对在道德上具有挑战性的决定,但是有时也会,例如在拥堵情况下选择哪条路避开。因此,在无人车真正普及之前,人们也许必须相信无人车能够像人类司机一样自行做出复杂的、合乎情理的决定。
人们对医疗领域的担忧或许更甚,而这也是AI正在逐步涉及的领域之一。
创建反馈机制
在我们的日常谈话中,我可能会误解你的问题,也可能我需要更多的信息。不管怎样,交流中有来有往的特质使你能很快纠正我的错误,填补我的信息空缺。类似的人机互动也会使系统得到理解问题必需的信息,即使事先不知道理解问题的必需信息都是什么。这时,许多AI系统的一项重要特长就显现出来了:它们能意识到自己的无知。
一旦系统具有了这种自我意识,一种全新的互动就成为了可能。人机界面设计中的一个难点就是明白在特定语境下何种信息才是正确的,进而才能去除或者忽略掉其它信息。如果系统自己能做出这类判断会怎样呢?
为犯错而设计
复杂系统(比如人)总会犯错误。完全避免错误是不可能的。我们的目标应当是减小错误带来的影响,并鼓励使用者原谅系统的错误,帮助系统慢慢学习成长。智能系统正变得越来越个性化和具备学习能力,使用者对它们行为的教导能力也随之显得愈发重要。
IPhone手机上的闹钟即使在静音模式下也会响,这就是个有趣的例子。iPhone的静音模式只会关掉你没有设定过的声音,但通常人们的预期更为简单直接:按下关闭键,任务就中止。这种预期上的不符导致了许多问题——例如你在电影院中切换到静音模式,但闹钟到点还是会响;或者更糟的情况是你切换了静音模式结果闹钟不响,害你错过了重要的会议。如果人机之间能够达成更好的共识,且系统对错误带来的后果更敏感,这两种问题就会得到减轻甚至避免。眼下这些错误造成的损失可能无足轻重,但将来风险会越来越大。
共创信任与协作
人类可以放心搭乘陌生人开的飞机或公车,而乘坐无人驾驶车却会引起恐慌,这是为什么呢?部分原因固然在于我们通常认为其他人类是可信赖的靠谱司机,可是机器也能做到这点。所以原因还不止于此。在直觉层面上,我们能理解其他人的言行,并认为他人的行为是可预测的。对现有的智能系统,我们可没有这份同理心。
要想治好病人,不论真人还是虚拟医生,光有智能还不够。医者还要能安抚和说服患者,激发患者对治愈的信心。同样,坐进没有方向盘的无人车也需要我们对机器抱有和对人类一样的信任,否则乘坐无人车将变成一场心惊肉跳的折磨。
目前,我们的Artefact公司正在探索全自动无人驾驶车的未来。半自动模式下,向乘客展示无人车面对其他车辆变道或行人横穿马路时的理解和应对能力将有助于建立乘客对无人车的信任。当人们看到无人车确实能够胜任,就会在行驶中越来越放手。在IBM开发的专为帮助人们解答疑难问题的Waston系统上,这种展示系统理解力的方式也同样重要。
很多人都担心AI的发展会令大多数人失业,最终摧毁经济。以上世纪之交为例,汽车的广泛应用为绝大多数人的生活带来了极大的方便,却也让所有的马匹失了业。那么,身处21世纪之初,我们是选择做科技革命的受益者,还是选择成为那些替福特汽车厂拉建材的马?
开发与人类协作的AI系统而不是简单取代人类工作的机器可以确保AI让更多的人受益。这样一来,新型智能系统将既在智能上胜过人类,又不仅仅是台供人驱使的机器。
编译:未来论坛 商白 来源:fastcodesign 作者:Patrick Mankins
文章转载请注明出处为“未来论坛”微信账号(ID:futureforum)
未来论坛官网:www.futureforum.org.cn