法国巴黎当地时间 4 月 15 日下午 6:30 左右,巴黎圣母院突发火灾!据悉,法国政府耗资数百万美元,正在对这座始建于十二世纪的著名建筑进行重新修缮,而火灾原因可能是由于修缮过程中操作不当所引发。目前,巴黎警方表示本次火灾并没有导致人员伤亡。
如往常的突发事件一样,YouTube 上开始陆续出现一些火灾状况的直播,然而,令人意想不到的是,在数个视频直播的下方却出现了美国“911 事件”的新闻标题,并引述了《大英百科全书》中关于该事件的描述。
将这次巴黎圣母院火灾与“911 事件”错误关联的,是 YouTube 正在大规模推行的一种算法,这种算法号称能帮用户识别并屏蔽假新闻。
(来源:YouTube)
如上图所示,下方的灰色方框内将巴黎圣母院识别为“911 事件”的相关内容,在数个视频直播中都有出现,但在随后的几分钟,这些信息被一个个移除。虽然相关内容出现时间很短,但还是阻止不了“火眼金睛”的用户们开始集体吐槽,YouTube 到底使用了什么技术能将巴黎圣母院突发大火与“911 事件”混为一谈?
图|巴黎圣母院 (来源:pixabay)
虽然目前还不清楚巴黎圣母院火灾为何触发了“911 事件”内容的相关推送,但 YouTube 的一位发言人表示,直播画面下方灰色方框中的内容来自一种算法,这种算法会对当前内容进行识别,并推荐诸如《大英百科全书》等的第三方内容链接。这位 YouTube 发言人还表示,“推荐内容拦相关内容由算法自动触发,针对巴黎圣母院火灾,目前看来是算法推荐错误。我们目前正在移除与本次火灾相关的内容推荐。”
据悉,YouTube 的这种内容推荐是一种新加入的功能,目前仅对美国本土及韩国用户可用,目的是用来推荐与用户正在观看的视频内容相关的主题,但在推荐过程中,并不会考虑到视频影像所要表达的观点或视角。
算法问题出在哪?
今年 3 月,全球社会对假信息的爆发性增长及科技巨头的不作为抗议声越来越大,迫于压力,YouTube 开始尝试一种新功能,在用户可能观看假新闻视频时及时提醒用户:“Information Panel”(信息栏)。这个功能在用户查找“易于误传”的术语或主题时,会向他们提供正确的信息。
据 YouTube 官网对信息栏的功能介绍:用户可能会在少数常受到网上错误信息影响的历史和科学主题视频页面看到来自第三方的信息,包括“大英百科全书”和“维基百科”。
信息栏可能出现在搜索结果中或视频的观看页面上,以提供主题的背景。这将包括来自独立第三方的基础、相关信息,并提供第三方合作伙伴网站的链接,以允许用户了解更多有关该主题的信息。
无论视频中表达的观点或观点如何,此信息栏都将显示在与该主题相关的视频下。
YouTube 表示,其“第三方合作伙伴”均已通过资格审查,并遵守 schema.org 的 ClaimReview 标记流程。信息栏可能给出诸如“恶作剧警报!”和“假”之类的提示,以提醒用户可能出现在搜索结果中的错误内容。
虽然 YouTube 并没提供其信息栏所使用的算法,但从 Twtiter 网友所发表的大量误标截图中,我们可以推测出,该算法是根据视频或图像之间相似之处找出关联性的 CV(计算机视觉)算法。
随着各国政府开始逐步立法打击“假新闻”,谷歌和 Facebook 等社交平台巨头只能启用人工智能算法去检测平台上海量的内容。由于 CV 算法可以有效地辨别类似图像,这些工具在打击有“儿童”元素的儿童色情内容,以及“旗帜”“暴力元素”和“标语”等极端恐怖组织相关内容方面颇有成效。
但是,图像自动检测系统很难处理没有预料的突发事件与预设检查内容之间的相似之处。比如信息栏曾把 4 月 11 日的猎鹰重型火箭发射误标为“911 事件”,大概率是因为图像中有“两个高塔”和“很多烟”。
信息爆炸时代,如何处理虚假新闻?
这次 YouTube 出现算法问题,再一次给我们敲响了警钟:在这个信息爆炸时代,科技公司,尤其是媒体和社交媒体领域的巨头,是否真的能完全依靠 AI 和算法识别虚假新闻?
(来源:pixabay)
早在 2016 年的美国大选,Facebook 上就曾涌现出大量涉及总统候选人的假新闻,从“FBI 已将希拉里定罪”,到“梵蒂冈教皇支持特朗普”,还有各种婚外情和花边新闻层出不穷。类似的事情也在 Twitter,YouTube 和谷歌上频频出现,转发和观看数少则上千次,多则数十万次。
由于这些文章极具话题性,短时间内就会吸引大量目光,导致社交平台的推荐算法对其“青睐有加”,甚至还会影响到 CNN 这样的主流媒体跟风跑偏,进一步增加曝光率。
因此,在总统大选这样关乎一国走势的重大议题上,假新闻的破坏力远远超过微信朋友圈里的“震惊体”文章。
在被媒体和舆论抨击假新闻泛滥后,科技巨头一边焦头烂额地忙着删除新闻和公关道歉,还一边主动出击,寻找扼杀虚假新闻的方式。
比如 Facebook 最初想用机器识别替代人类审核员,提高审核效率和准确率,可是效果并不理想。他们在 2015 年推出了一套系统,可以对被大量用户举报为虚假信息的链接降级。然而在之后的美国大选期间,Facebook 仍然推荐了很多假新闻。
这些新闻获得了很多的点赞,算法对此无能为力:它还不够先进,只能通过规律判断真假,却没法验证信息的真伪。
(来源:麻省理工科技评论)
时至今日,Facebook 拥有近 1.5 万人的内容审核团队,专门甄别平台上的虚假新闻和不良信息。但这一方法效率低下不说,对审核员也是一种折磨,因为他们不得不接触暴力、血腥和种族歧视等阴暗内容。久而久之,有的人还会罹患精神疾病。
做过类似努力的公司还有 YouTube 和谷歌,想要依靠算法建立一个内容检测机制。这一次引发争议的“YouTube 事实检查系统”就是最新举措,才上线一个多月。
可事实证明,系统背后的算法还是缺少对视频内容和背景的全面理解。在直播中,它或许仅凭大火和滚滚浓烟,就将视频与“911”扯上联系,错误推荐了相关信息。这不禁让人质疑其鉴别虚假新闻的能力。
虽然人工智能技术正在突飞猛进,但至少目前看来,在内容鉴别领域,自动化系统还无法达到人类的准确性,尤其是在面对突发新闻时。究其原因,还是因为 AI 系统大多依赖规律,不能主动搜集其它证据,综合多个信源判断消息是否准确。
这意味着,现阶段的虚假新闻检测,最好还是以人机结合的方式进行。比如用机器完成信息的初步筛选,减少工作负担,提高效率,而人类则负责监督机器,保证最终结果的准确率,降低漏网之鱼出现的可能性。
更重要的是,审核员可以发现算法的漏洞,帮助机器识别技术更好地发展。未来的某一天,AI 系统就可以真的独当一面了。