谷歌不仅教AI拥抱、做菜、画画,还教它们在没地图的情况下导航

谷歌不仅要教 AI 拥抱、做菜、打架、画画,现在还要教它们在没有地图的情况下导航?谷歌是要把 AI 培养成跟我们一样的小伙伴嘛......

最近,谷歌 DeepMind 开发了一种新的人工智能技术,可以通过“步行”来了解城市街道,从而让 AI 在没有地图的情况下完成导航。

DeepMind 的研究员 Piotr Mirowski,Raia Hadsell 和 Andrew Zisserman 合作进行此项研究,他们也说出了研究意图。

他们认为,AI 也该具备和人一样的导航能力。人和动物在没有地图的情况下也能找到自己想去的地方。

这一点今后的 AI 也能做到,这样的远程导航可以同时支持自我定位(我在这里)和目标定位(我要去那里)。

具体怎么操作呢?DeepMind 团队想创造一个深度强化学习模型,用符合人类直觉的空间认知方式串联所有街景画面,重塑出行导航方式。

他们想让 AI 去实地探寻学习,结合谷歌地图里真实采集的街景数据对它们进行训练,最后达到认路的目的。

研究人员通过训练神经网络来构建 AI。训练的时候是采取奖励制的,就是说如果AI能顺利规划出前往目的地的路径时,就会获得奖励,久而久之它们就长了记性。

掌握了新技能的 AI 有什么用呢?最重要的用途之一得数自动驾驶汽车领域了。

AI 可以帮助自动驾驶汽车在地图不准确或不可用的地区进行导航,这样一来,汽车就可以与其他车辆共享信息,从而变得更加智能。

不过现阶段科学家们还没有在自动驾驶汽车上实验这个 AI,相信不久的将来它们会派上用场的。

除此之外,AI 还能帮人类导航,在人们不熟悉的地方提前告知周边环境信息。或许,等这项技术真正成熟了,我们就再也不会遇到看着地图找不对目的地的尴尬情况了。

谷歌教AI拥抱、做菜和打架

谷歌去年 10 月宣布他们建了一个新的电影片段数据库,要用它来帮助 AI 理解人类在生活中的举止。

这个数据库的名字叫做 AVA,里面的视频大多三秒左右,都是人们生活中的场景,比如做饭之类的。

但是每一个片段都有一个绑定文档将机器需要学习的人物的动作标记出来,并描述出主人公的姿势,以及他们正在接触的是人还是物体。

视频中的人数超过一个时,系统会把每个人标上不同的标签,如此一来,AI算法就会发现,正常社交中两个人见面是需要握手的。

目前,谷歌用此 AI 系统来分析 Youtube 上成千上万的视频内容。AI 可以根据用户正在看什么来为你推荐相关内容。

不过谷歌的最终目标时让 AI 学会人的一些动作,AVA数据库有着 57,600 条标好标签的视频,包含了 80 种动作。

例如站立,说话,聆听和行走这样的简单动作,每一个都在数据库中有着超过一万条视频标签。未来AI通过不断的学习来掌握这些简单动作也是有可能的。

谷歌教AI画画

去年年底,谷歌研发出 AI 绘画系统 SketchRNN,这个系统不是牛在它可以画画,而是它可以用类似于人类的方式概括归纳抽象的概念!以前这是只有人类才能做到的事情。

什么是概括归纳抽象的概念?就比如说让你画一个猪和卡车的集合体,你就会想到把猪和卡车各画一部分,结合起来就是了。但是机器做起来就很难了,不过 SketchRNN 系统做到了!

当我们画的时候,我们是将丰富多彩、熙熙攘攘的世界压缩成少数的一些线条或者笔画。正是这些简单的笔画构成了 SketchRNN 底层的数据集。

借助谷歌开源的 TensorFlow 软件库,每一种绘图,如猫,瑜伽动作,雨等都能够用于训练一种特定的神经网络。

研究人员对 SketchRNN 系统应用可处理输入序列的递归神经网络。用人们画各种不同的东西时连续画下的笔画来训练该网络。

下面来看看 SketchRNN 的作品。下图这个是一个接受过消防车绘画训练的神经网络所生成的新消防车。

但是为什么图像的颜色不同呢?这是因为研究人员调整了 AI 作画时的系统温度,偏蓝色的图像是“温度”下调后的产物,偏红色的图像则是“温度”上调后的产物。

再来看看这些可爱的猫头鹰

最好的一个例子就是瑜伽动作

厉害吧,虽说有些画的也没那么像,但是人家毕竟是 AI,也就知足吧。