基本上所有预先录制的公司语音信息以及人工智能助手都是特意选用女性声音。图:GIULIO SAGGIN: ABC NEWS
你有没有注意过似乎所有人工语音都是女声?前几天Google Assistant在开发者大会上的拟人化程度令人震惊,其中用到的是一项名为Google Duplex的技术。
当Duplex在实验的6通电话中回答时,男声和女声会保持相同的语音语调切换交替出现,但Google最终选择用了男性的声音版本。这是开创性的,因为此前自动语音的声音几乎都是用的女声,而此“传统”可以追溯至20世纪中期。
Google Assistant最具开创性的部分或许是它选用了男性音色。PIXABAY: MIMZY
女性数字助理的历史
Siri、Alexa、Cortana等,基本上都是公司预录的女性声音。这始于20世纪60年代中期由计算机科学家Joseph Weizenbaum发明的第一个语言处理程序Eliza。
Eliza最初设计的目的是为了说明人类与机器之间永远无法进行情感上的深入讨论,然而他的创作却产生了相反的效果。Weizenbaum在他的书《计算机能力与人类理性》中写道:“从判断到计算,他感到了惊恐,因为连他的秘书都开始认为这个程序具有人类的真情实感。”
Eliza最终成为了一名数字心理治疗师。她的脚本中使用了模式匹配规则,能够回答关于心理健康的简单问题,并成为了我们如今熟知的“聊天机器人”的鼻祖。从多个不同版本的聊天机器人、聊天室的出现,到如今Siri、Google Assistant驻扎在我们的手机里,尽管它们在很多方面都具备不同的特性,但却一直存在一个共性——即它们的性别表达一直是女性。
微软基于游戏Halo(光晕)设计出了它的智能虚拟助理Cortana的面部形象。图:SUPPLIED: MICROSOFT NEWS
性别化的人工智能
大量的数字助理都体现出了作为助理的理念:乐于助人、高效、顺从、女性。但若从编程的角度来看,却没有关于其性别化倾向的设定。
根据心理学家James W. Pennebaker的说法,代词的使用可以简单地表明一个人的性别和社会地位。而在这个例子中,主角是AI。他说:“女性会比男性更频繁地使用I(我)这个单词(还有I、me、my),这一占比约为12%。”他的研究结论是,代词“I”的使用暗示着说话者在社会关系上的从属地位。像Siri通常也倾向于使用这些代词,尤其是在表示歉意的时候,“I'm sorry, I don't think I understand.”。
Pennebaker表示,对于开发者来说,了解AI的人格设定是否延续此类差异特性是很重要的。在如今新型的人机关系中,这样的偏颇可能会导致性别歧视的延续。但Alexa的开发方、亚马逊则表示,他们在设计与开发的过程中优先考虑了作为助理对于所有人都重要的特质,例如谦逊、聪明,而非性别。
但在实际的使用过程中,女性的AI助理也曾受到过用户的“骚扰”。当用户的对话太露骨、或者有厌女症的嫌疑时,早期的Siri和Alexa会用诸如“如果我能脸红,我会......”或者“我很抱歉”这样的表达来回答。
在2017年,亚马逊更新了Alexa的“脱离模式”,Alexa不再回复有关性别歧视的话题。但这能否让女性人工智能对性骚扰的回应朝着正确的方向前进,仍值得商榷。
Duplex是否可能打破智能语音的性别化?
随着Duplex的退出以及它在男女两种音色之间切换表达的能力,或许接下来AI秘书全是女性声音的状况会缓慢转变。并颠覆传统的顺从化的刻板印象,并使消费者开始理解,人类与AI技术之间的互动其实与其他人类之间执行的应当是相同的社会规范。
蝌蚪五线谱编译自abc,译者 狗格格,转载须授权