在过去的几年中,来自全球的科技公司、各路资本和政府等在 AI 技术上的投入让相关领域取得了飞速发展。
当这 AI 技术在不断成熟并逐渐开始进入人们的生活中时,一些由新技术带来的安全、平等问题开始更加被人们重视。
有意思的是,在 2018 年开始,除了继续推动技术发展,各大科技公司纷纷开始对 AI 技术的应用进行不同程度的限制。
以谷歌为例,美国防部 2017 年宣布成立“Maven 计划”(Project Maven),这一计划也被视为是将 AI 技术引入战场。2018 年 4 月,在得知谷歌也参与了这一计划后,谷歌员工在内部掀起抗议浪潮,尽管谷歌一再强调公司所提供的技术"不具有攻击性",但依然有 4500 名员工提出要求退出这一项目。
(图片来源:麻省理工科技评论)
2018 年 6 月,谷歌终作出决定,承诺在完成已有合同之后,不会再续约。同时,谷歌还发布了一系列 AI 技术使用规范,包括包括不会提供用于武器和会导致人员伤亡的 AI 系统。
而除了与军方相关的项目,一些看似"人畜无害"的项目也引起了不小争议。
2018 年 5 月,谷歌 I/O 大会上,谷歌 CEO Sundar Pichai 演示了能打电话订餐厅的语音助手 Duplex,高度智能和拟真的表现让其被评价为今年 I/O 大会上最亮眼的一个新功能。
但谷歌在会后即遭到多方质疑,他们认为在未事先声明的情况下,电话的另一端与 Duplex 对话的人并不能清楚意识到自己正在与一个软件进行对话。随后谷歌宣布程序进行更新,Duplex 会在对话开始前强调自己的身份,以消除这一问题。
除此之外,算法带来的偏见和歧视问题已经由来已久,这一问题在 AI 算法上依然存在。据 2018 年 2 月 Wired 的一则报道,MIT 媒体实验室研究员 Joy Buolamwini 和在微软担任研究员的 Timnit Gebru 曾进行过一个测试,他们找来上千张来自不同地区、肤色不同的人照片让 IBM、微软的视觉识别系统进行识别,结果显示,系统在对男性面部进行识别时的准确率比女性高,同时,对肤色较浅的人的识别结果也比肤色较深的人更加准确。
随后,微软和 IBM 都表示将会对这一问题进行改进。但报道同时指出,由于这种技术已经被广泛运用,因此这一系统带来的偏见可能已经造成了广泛的影响。
在歧视问题上,社交媒体巨头 Facebook 则在公司内部成立团队并开发了一个名为 Fairness Flow 的工具,旨在帮助工程师检查其程序在面对不同的人、群体时的表现是否一致和公平。
围绕 AI 的道德问题在今年不断出现,一定程度上反映出了 AI 技术在过去一段时间里取得了飞速的发展。
目前,AI 技术已经渗透到更多的领域中,包括视觉、语音识别、自动驾驶以及机器人等领域。AI 技术的加持的确能够推动这些领域的发展和尽快实现落地应用,但是 AI 带来的安全和道德争议让开发者在引入这项技术时也变得更加谨慎。
除了上文提到的谷歌和 Facebook 的例子,12 月初微软总裁兼首席法务官 Brad Smith 呼吁各国政府规范其面部视觉技术的使用。不久之后,谷歌也表示不会向云客户提供通用的面部识别技术,这些都反应出科技公司在 AI 技术的使用上似乎比以往多了些许克制。
而除了开发者和科技公司,各地的监管机构也将可能逐渐地开始介入和制定 AI 技术的使用规范。
今年 5 月,欧洲通用数据保护条例(GDPR)正式实行,这一条例的实行有助于帮助用户更好的使用和保护自己的数据信息,极度依赖数据驱动的 AI 技术当然也会受到这一法规的影响。
但同时需要注意的是,规范的制定不意味实在限制 AI 技术的未来发展空间。相反,新技术的出现常常会倒推相关法律和规范逐渐完善,这从侧面也反应出 AI 技术正在逐步完善当中。
在 AI 技术逐渐渗入大众生活的今天,对 AI 技术的谨慎态度将有助于相关技术更安全地为我们提供服务和更多便利。