随着摩尔定律趋近极限,通过集成电路工艺微缩的方式获得算力提升越来越难;而计算与存储在不同电路单元中完成,会造成大量数据搬运功耗增加和额外延迟。如何提高算力,突破技术瓶颈?26日,记者从清华大学获悉,该校微电子所、未来芯片技术高精尖创新中心钱鹤、吴华强教授团队,与合作者共同研发出一款基于多个忆阻器阵列的存算一体系统,在处理卷积神经网络时的能效比图形处理器芯片高两个数量级,大幅提升计算设备的算力,且比传统芯片的功耗降低100倍。相关成果近日发表于《自然》杂志上。

如何用计算存储一体化突破AI算力瓶颈,是近年来国内外的科研热点。寻找合适的硬件,是提升算力的基础之一。

钱鹤、吴华强教授团队通过优化材料和器件结构,成功制备出高性能忆阻器阵列。为解决器件非理想特性造成的系统识别准确率下降问题,他们提出一种新型的混合训练算法,仅需用较少的图像样本训练神经网络,并通过微调最后一层网络的部分权重,使存算一体架构在手写数字集上的识别准确率达到96.19%,与软件的识别准确率相当。

同时,他们提出空间并行的机制,将相同卷积核编程到多组忆阻器阵列中,各组忆阻器阵列可并行处理不同的卷积输入块,提高并行度来加速卷积计算。

在此基础上,该团队搭建了全硬件构成的完整存算一体系统,在系统里集成了多个忆阻器阵列,并在该系统上高效运行了卷积神经网络算法,成功验证了图像识别功能,证明了存算一体架构全硬件实现的可行性。

“基于忆阻器的新型存算一体架构,可以打破算力瓶颈,满足人工智能等复杂任务对计算硬件的高需求。”清华大学未来芯片技术高精尖创新中心教授吴华强说。