未来大家的生活势必会越来越智能化,无人驾驶汽车、懂你的机器人等等,都是AI带给人类的。想过吗?有一天AI 能读懂你脑子里在想的事。听起来是不是有点夸张?这种技术在未来真的有可能存在吗?
AI可以直接从人的大脑中采集图像。在机器学习以前往往被用于研究脑部扫描(MRI或磁共振成像),并可以在涉及简单的二进制图像,如黑白字母或简单的地理形状时,生成一个人所思所想的可视化图像。如今,给定某人在查看图片的fMRI扫描,算法可以从扫描中重建原始图片。虽然研究者能够根据一个人正在观察的场景来复制一个图像。这些AI创造的图像与人实际看到的并不完全一样,只是模糊地表现了人的思维。不过,AI还是能够利用脑电波来重建这些图像。尽管结果还不完美,但它们仍然是可识别的,并暗示着未来可能发生的事情。
日本先进电信研究所的沉国华和他的同事们尝试了三种类型的图像:蝙蝠、摩托雪橇和彩色玻璃等“自然”照片,正方形和加号等人造形状以及字母。形状和字母是可识别的,但自然图像的重建往往模糊且难以解析。团队一直都在研究如何透过观察人的大脑活动,来重建、重现人们所看到影像的方法,一旦得到改善,通过分析大脑信号,你就能够知道一个人在做梦或想什么。印第安纳州普渡大学的Haiguang Wen说:“这些解码方法可用于未来的人机交互。”
现在我们已经知道,人们大脑处理视觉讯息的方式,是分层次的提取不同等级的特征,或是不同复杂程度的组成部分。即使人们只是回忆起图片,深度图像重建 AI 也能够试着建构出相对应可视化图片来,但由于大脑活化不足,AI 系统在这种情况下的分析也必须花上更长一些时间。透过不断的猜测脑波数据对应的形象化,AI 从众多的数据中持续学习。严格来说,深度图像重建的 AI 并不能真正“看见”人的思想,但它确实知道当你在想什么时,脑波是什么样子的。
大多数的神经网络有两个步骤:首先,他们将大脑扫描的数据解码为算法,可以理解的几个特定特征,然后重建或识别这些特征所代表的图像。为了做到这一点,网络接受了预先组装好的一组图像的训练,有时使用超过一百万张图片。然而,图像特征并不总是直接映射到大脑活动模式,所以系统只用一步就可以完成同样的工作。它将fMRI机器测量的大脑活动直接转换成受试者正在寻找的图像重建。
该算法训练来自先前研究的样本,该研究由6000张图片和来自正在查看这些图片受试者的fMRI读数组成。一个小小的样本数据集能够产生这样的结果可以说是让人振奋的一件事。、相比之下,Google的图像识别系统在3亿张图像上进行了训练。掌握这么多的fMRI扫描将是棘手和昂贵的,但可能导致巨大的改进。
我相信在不久的将来,科学家们就能读懂我们的思想,并对这些数据加以研究,虽然这是一个既有前景又令人恐惧的命题,但这项技术在未来的挖掘价值或许会能带来惊人的成果。(科技新发现 康斯坦丁/文)