这绝对不是一篇科普文章,只是和你闲扯
阿尔法狗(AlphaGo)再虐李世石,3:0中盘再胜,我们已经来不及计算李世石的心理阴影面积了......
小时候经常会做些白日梦,比如长大后汽车会在天上飞不用地上跑,有很多自动化的家电,动动手指就能控制,机器人满大街都是,而且他们可以做人类所有的事。(等下,所有的吗?那要人类干什么?)那个时候「建设四个现代化」就是最高指示呀,似乎四个现代化了一切都完成了。
时光荏苒,如今的科技进步已经接近进化的节奏了,很多梦想过的、没梦想过的,都飘到面前,而机器人这一项也逼近想像的极限。
围棋被认为是世界上最复杂的棋盘游戏,也是唯一的一种人脑能战胜电脑的棋类。可是现在恐怕我们人类不太敢肯定确定以及一定地说出这句肯定句了。
2016年3月9日,谷歌公司的AlphaGo与韩国圣手李世石的围棋大赛第一战,人脑以3目之差失去与人工智能第一回合,全球哗然;3月10日,AlphaGo再次获胜。
不仅让人想起围棋大师吴清源曾用一句话来抒发心情,“200岁后我要在宇宙下棋。”围棋大师留下的一句感慨令人遐想:浩瀚宇宙中人类未来将走向何方?
我想起2015年出过一部英国神剧『真实的人类』(Humans),当时看的人目瞪口呆、胆战心惊。故事其实并不复杂,讲了在未来的某个时间,机器人的应用已经非常广泛,那是一个机器人Synth被繁忙都市人广泛使用的世界,机器人仅仅作为简单的劳动力出现,它不再是人类的「延长手臂」,它成为人类生活中的伙伴,它们可以代替人的工作,它们可以代替人的性生活,它们甚至可以成为人的伴侣,那个时代呈现出人类与机器人的界限愈发模糊,很多时间里人类本身已经分不清哪些是在和人一起、哪些是和机器一起,于是富有情感的人类开始恐慌,而缺乏情感的机器人却在寻找怎样拥有情感。那个世界充满了扣人心弦的矛盾冲突、心理冲击与道德拷问。
01 机器人真的会撒谎吗?
在本次人机世纪大战中,圣手李世石的开局抢占先机非常漂亮,而AlphaGo却显的很笨拙甚至可以说是比较低级,中段在李世石看似已经迎来最后胜利的时候,AlphaGo还下过非常低段位的棋招。于是,大家有些陷入迷思:机器人AlphaGo是故意的吗?这是一种迷惑对手的战术吗?
捎一句,『真实的人类』里的机器人已经会掩饰思想和撒谎了,虽然还只是极少数的机器人。
1950年,图灵发表了一篇划时代的论文,文中预言了创造出具有真正智能的机器的可能性。由于注意到“智能”这一概念难以确切定义,他提出了著名的图灵测试:如果一台机器能够与人类展开对话(通过电传设备)而不能被辨别出其机器身份,那么称这台机器具有智能。图灵测试是人工智能哲学方面第一个严肃的提案。
1952年,在一场BBC广播中,图灵谈到了一个新的具体想法:让计算机来冒充人。如果不足70%的人判对,也就是超过30%的裁判误以为在和自己说话的是人而非计算机,那就算作成功了。
这一幕在电影『机械姬』里被重现,而影片的最后也同样显示了人类对于机器人进化的恐惧,机械姬最后干掉了骄傲的人类。
记得图灵测试里有效的一项测试,就是不停地问对方同一个问题,比如:你是你妈生的吗?问很多很多遍,如果对方总是不缓不慢地回答你同一个答题,那么多半对面坐着的是一个机器了。
02 机器人为什么要撒谎?
机器人真的会撒谎吗?我觉得很有可能噢。
人工智能领域一直有一个很著名的机器人阿西莫夫三定律,是1942年阿西莫夫在短篇小说"Runaround"(《环舞》)中首次提出:
一 机器人不得伤害人类,或因不作为使人类受到伤害。
二 除非违背第一定律,机器人必须服从人类的命令。
三 除非违背第一及第二定律,机器人必须保护自己。
但后来,阿西莫夫加入了一条新定律:第零定律。
零 机器人不得伤害人类整体,或因不作为使人类整体受到伤害。
阿西莫夫的科幻设定里,机器人三定律是植入到近乎所有机器人软件底层里,不可修改不可忽视的规定,绝不仅仅是“建议”或者“规章”。
不过,这三条定律的缺陷、漏洞和模糊之处不可避免会导致一些奇怪的机器人行为。比方说,这三条定律连何为“人”、何为“机器人”都没有良好定义。而且,如果机器人获取的信息不完整,它们完全可以无意中打破定律。更何况,你要怎么阻止一个智力超群的机器人自己把定律改掉呢?它只需要调整“人”的定义就可以了,根本都不用改变底层规则。
你要问,那么它为什么要改呢?这个问题其实和机器人为什么要撒谎一样。
人为什么要撒谎?很简单,为了谋求利益呀,不管是物质利益,精神利益,关系利益,还是心理平衡,都是有利益目标的,否则这种让自己可能产生认知失调的事,谁愿意干啊。
机器人会有利益诉求吗?如果是超人工智能的,我觉得就有可能啊。其实,AlphaGo想要赢得棋局就是一种利益诉求,只不过它是被人类置入的。可是这么一个高智能的机器,人类舍得只置入这一个单一诉求吗?更何况AlphaGo还有自己学习和进化的能力,当它被置入越来越多的诉求,通过自我学习和进化,你能预测它会发生什么样的变化吗?恐怕这种感觉就和上帝当年看着突然直立行走的人类是一样的感觉吧。
03 人类真的会败在情绪吗?
我突然想起来近几年日本在进行一个用机器人代替情感抚慰者的研究,他们模拟出各种情感反应语句和姿态,可是最难的是如何让机器人捕捉人类的情绪,并且做出带有情绪的反应。最后他们还没弄成。
OH~我松了口气,心理咨询师看样子一时半会儿是不能被机器人代替了(我怎么这么小农思想呢你说)。
作为一种人工智能系统AlphaGo拥有两个大脑,落子选择器 (Move Picker)和棋局评估器 (Position Evaluator)。这也基于两个深度神经网络,policy network与value network。二者极大地降低了需要考虑的搜索空间的复杂度,前者降低搜索的广度,后者降低搜索的深度,很像人脑在下围棋时凭直觉快速锁定策略的思维。“集合了3000万种职业棋手的下法,数百万次深度学习与自我对战,十分接近带着直觉和第六感的人类大脑,能以57%的概率预测与其对阵人类的水平。”
据比赛分析师认为,李世石在掌握了棋局大好形势的情况下,就是情绪出现了波动,失去了进一步推进胜局的优势,并被AlphaGo逆转翻盘的。
关于人工智能,李开复有过这样的描述:
「虽然这些机器确实很“聪明”,而且又高效、勤奋、低廉,但是他们并不“人性化”,只是冷冰冰的机器和工具。比如说,AlphaGo第一场就战胜了李世石,但是它不会感觉高兴,也不会理解我们对于它的讨论。甚至,它说不上这局棋是怎么赢的。因为,它的思考虽然周密,但是它不懂“赢了有什么感受?”,也不懂“为什么围棋好玩”,更不懂“人为什么要下棋?”,甚至连“你今天怎么赢的?”都说不上。今天的机器完全无法理解人的情感、喜怒哀乐、七情六欲、信任尊重、价值观等方面 。对于人文艺术、美和爱、幽默感,机器更是丝毫不懂。」
人类有着天然强大的情绪大脑,我们会将很多的情绪体验“编译”成特定代号存储在我们的情绪大脑里,然后非常迅速地做出反应,比如恐惧、比如厌恶,这大大节省了我们大脑的处理资源。可惜遗憾的地方就是,因为迅速所以它就不能那么精确,它会是一种相对模糊的代码,所以我们瞅到井边的麻绳会迅速逃开。
在复杂运算方面,人类已经远远落在了机器后面,不过在情感连接、模糊互动、甚至潜意识的联动上,机器似乎很难进化到这个阶段。情绪之所以常常会影响到我们的能力发挥,甚至会影响到圣手李世石的发挥,很大一部分是因为我们存储的“编译”情绪的内核往往是和负性情绪相关,人类七种主要情绪“喜怒忧思悲恐惊”大部分是相对负性的,这可能源于我们进化的需要,保护自己的生存首先需要的是防守。
不过,这些负性情绪同样也是力量的来源,比如愤怒产生攻击的力量,忧伤产生思考和防御的力量,恐惧产生逃跑的力量,这些力量往往会调动人类的潜能,远远超出自我的想像,而机器的力量是特定的,可计算的,在竞争中可计算的对手常常会处于劣势,甚至被毁灭。从这个角度看,人类情绪的不可预测性,也许恰恰是进化出来的一种绝妙的竞争武器。
可以这么说,现在的人工智能似乎只有一个超强左脑,它远远没有一个变幻右脑加以辅助和调控,没有右脑的参与,即使是撒谎,那也只能算是程序BUG。
人工智能机器真正可能给人类带来的危机,不是奴役或取代人类,而是让人类丧失斗志,安于现状,或者丧失勇气,放任自流。因为机器可能无知无觉地调动了我们人类情绪大脑里不安的因素,并且发挥着情绪大脑带给我们负性意义。
那将是:人类败给了人类自己。
[ 补记 ] 昨天和几个同行朋友在网上闲聊到人工智能的发展和人类的危机,不知道为什么,我突然却有了一种乐观的欣然。人类之与机器的区别,是个体相交的基础是关系,并不是分析;个体互动的关键是情感互动,并不是话术对答。如果说有一天机器人把这些都学会了(如果真可以),那它就是一个人了,我们又何必惧怕,既然我们都是人只不过你数理化好一点罢了,Who怕Who?人搞人我们最在行了,我们人类历史上靠的是知识多少吗,是运算速度吗,如果只是靠硬件,是就没毛爷爷什么事了。
不怕不怕,告诉你吧,我们人类人工智能技术发展的目标其实是:把它丫的变成“人”,让它们和我们一样受尽人间疾苦。
真到那时,我在心理咨询室里接诊的第一个机器人来访者,可能就是因为“为什么我终于能爱人类的她了,她怎么甩了我呀?我好痛苦,肿么办?”
(文:夏滨 | 壹心理专栏作者)