即可将网页分享至朋友圈
近日,信息与通信工程学院周军教授团队在计算机体系结构领域顶级会议International Symposium on High-Performance Computer Architecture (HPCA) 2024上宣读了团队在类脑计算芯片方向的研究工作“STELLAR: Energy-Efficient and Low-Latency SNN Algorithm and Hardware Co-design with Spatiotemporal Computation”。HPCA是由IEEE举办的计算机体系结构领域的顶级会议,涵盖处理器架构、并行计算、存储系统等主题,也被视作计算机体系结构研究的风向标,中国大陆作为第一作者单位的论文平均每年的接受数量小于10篇。
该论文是电子科技大学首次在HPCA上发表论文,标志着电子科技大学在类脑计算芯片领域取得重要进展。今年HPCA共收到410篇投稿,最终接受75篇,录用率为18.3%。该论文的通讯作者为周军教授,第一作者为周军教授的博士生毛睿昕,共同作者包括周军教授的研究生唐林(硕),袁兴禹(硕)和刘野(博)。
人脑中有千亿个神经元,一天只需要三顿饭的能量即可完成大量视觉、听觉、触觉等感知任务,以及推理、联想、想象等高阶任务,而GPU完成这些任务则需要数千倍的能耗。大脑这样高能效的关键在于每个神经元以事件驱动的方式工作,只有在接收到上一级脉冲时才进行计算,且当计算结果超出特定门限时才向下一级产生脉冲。而传统的人工神经网络(如常见的卷积神经网络等),作为人脑的简单数学抽象,不具备事件驱动机制,需要随时随地进行计算,因而计算量大,能效低。为了解决这一问题,科学家们提出了脉冲神经网络(Spiking Neural Network, SNN)的概念,它是一种类脑计算范式,完全仿照人脑的事件驱动机制进行计算,具有高稀疏度、高能效的特点。
然而,现有的类脑计算芯片面临两个问题: 1. SNN模型为了达到高准确率,需要较长的计算时间窗口和较多的脉冲数量,导致硬件实现能效低、延迟高。2. 脉冲发放具有不规则稀疏性和时间依赖性,导致硬件数据复用率低,且难以支持并行计算。针对上述挑战,团队提出了基于模型与架构协同设计的类脑计算芯片架构STELLAR。在计算模型上,基于国际上最新发表的Nature论文,提出了一种具有极小时间窗、极少脉冲的学习机制,训练得到的SNN模型仅需要少量计算即可达到较高的准确率。在硬件架构上,提出了一种新的类脑计算架构来利用该计算模型带来的稀疏性,从而实现高并行和高能效计算;同时,在此基础上提出了基于窗的并行计算架构和基于时空编码的稀疏计算架构,进一步提升了计算并行度和能效。与现有架构相比,在达到相同准确率的前提下,大幅提升了计算能效和速度(计算能效提升了8倍,速度提升了7倍)。
周军教授团队致力于面向智能感知终端的AI算法与芯片协同设计,团队近3年来在芯片设计奥林匹克会议ISSCC连续发表4篇论文,设计并实现了面向视觉感知、声音感知、智能穿戴应用的多款超低功耗端侧AI芯片,在满足准确率、实时性需求的同时,达到了国际同类设计最低能耗,囊括了电子科技大学在AI芯片领域迄今为止的全部4篇ISSCC。同时,团队主持了国家自然科学基金NSAF联合基金重点项目、国家重点研发计划课题、国家自然科学基金面上项目等国家级项目,以及华为、商汤、华大电子等横向项目,近年来指导学生多次获得中国研究生创“芯”大赛、中国研究生电子设计竞赛、中国研究生人工智能创新大赛等重要竞赛的全国一等奖。
编辑:罗莎 / 审核:夏鋆 / 发布:李果