电池驱动设备有望AI化:“欺骗”芯片是关键

运用“多位一体”策略,智能手表等电池驱动的电子产品有望实现“人工智能化”。

如果智能手表等电池驱动的电子产品能够运行人工智能算法,它们将变得更加智能。然而,工程师们为移动设备打造人工智能芯片的尝试,遭遇了“内存墙”瓶颈。内存墙将数据处理和内存芯片分隔,导致它们无法协同工作,无法满足人工智能的大规模、正增长的计算需求。计算机科学家Subhasish Mitra说:“处理器和内存之间的协作可能会消耗机器学习和人工智能所需能量的95%,这严重影响了电池寿命。”

techxplore.com网站当地时间1月11日报道,美国斯坦福大学计算机科学家Mary Wooters和电气工程师H. S. Philip Wong等人设计了一种包含8块混合芯片的新型系统,每块芯片的内存存储器旁都配有自属数据处理器。新系统可以更快地运行人工智能任务,并且能耗更低。这使得电池驱动的设备有望AI化。相关研究成果刊登在《自然?电子学》杂志中。

此前,该团队曾开发了一种新的存储器技术RRAM。它可以像闪存那样,在断电条件下存储数据,但速度更快,能源效率更高。RRAM技术的出现让研究人员成功开发出独立工作的初期混合芯片:新算法让8个分离的混合芯片融合成一个节能人工智能处理“引擎”。

Mitra说:“如果能够制造出一款能同时满足数据处理和内存需求的大型传统芯片,我们当然会这么做。然而,解决人工智能问题涉及的数据量让这个想法成为天方夜谭。我们采用‘欺骗’策略,让多块独立芯片误认为它们同属一块芯片。这就是我们称其为‘错觉系统’的原因。”

错觉系统隶属于美国国防高级研究计划局资助的“电子复苏计划”(ERI)。50多年前,美国国防部高级研究计划局(DARPA)曾参与互联网的构建。现在,DARPA正大力支持研究摩尔定律的变通方案——摩尔定律认为可通过缩小晶体管,来推动电子技术的进步。然而,晶体管的小型化程度是有限的。

Wooters说:“要超越传统电子技术的极限,我们要有新的硬件技术和应用思路。”

斯坦福团队在法国研究机构CEA-Leti以及新加坡南洋理工大学的帮助下,研制并测试了错觉系统的原型。研究人员表示,八芯片系统仅仅是个开始。

在模拟测试中,研究人员发现,融合64块混合芯片的系统运行人工智能应用程序的速度是当前处理器的七倍,而能耗仅为当前处理器的七分之一。这些功能有望推动增强大脑、虚拟现实眼镜和深层神经网络学习等方面的研究。

论文第一作者、斯坦福大学研究生Robert Radway说,他们还开发了新算法对现有的人工智能程序进行重新编译,以适配新的多芯片系统。Facebook的合作者则帮助该团队完成了人工智能程序的测试任务。Wong表示,错觉系统的表现符合预期,有望在三到五年内投入市场。

科界原创

编译:德克斯特

审稿:西莫

责编:陈之涵

期刊来源:《自然?电子学》

期刊编号:2520-1131

原文链接:

https://techxplore.com/news/2021-01-team-hybrid-chips-processors-memory.html

版权声明:本文由科界平台原创编译,中文内容仅供参考,一切内容以英文原版为准。转载请注明来源科技工作者之家—科界App。