Advanced Materials:连接生物和人工神经网络的新型神经形态器件

尽管近年来人工智能技术取得了突飞猛进的发展,但是其应用领域仍只局限在图像识别、自动驾驶、语义分析等方面,距离通用人工智能还有很远的距离。此外,运行人工智能算法的载体——计算机硬件在功耗和速度上与人脑相比仍存在巨大的差距。类脑计算被普遍认为是一种可以超越“冯·诺伊曼”架构实现高算力、低功耗的全新计算范式,因此基于新型神经形态器件的类脑计算系统也成为人工智能技术未来发展的重要方向。近年来,忆阻器、相变存储器、突触晶体管等神经形态器件因在类脑计算领域展现了巨大的应用潜力而受到广泛关注。但同时也可以看到,目前大多数研究仍局限于对传统人工神经网络算法的加速或者模拟脉冲时间相关可塑性等表层的仿生功能,其系统的性能和复杂度相比于生物神经网络还有很大差距。因此,为了更好地模仿大脑以制造更强大的类脑计算机,人们有必要从类脑计算的角度去更深入地理解生物神经网络的结构、功能和工作机理。

清华大学微电子所吴华强教授团队与合作者近日在国际材料领域知名学术期刊Advanced Materials上在线发表长篇综述文章“Bridging Biological and Artificial Neural Networks with Emerging Neuromorphic Devices: Fundamentals, Progress, and Challenges”(DOI: 10.1002/adma.201902761),从神经科学的最新研究进展出发,结合类脑器件与仿生材料的最新技术,系统评述了生物神经网络与人工神经网络的联系与差异,详细阐述了网络中重要的基本单元和相关功能,并回顾了采用新器件来实现类脑计算方面的最新进展,在此基础上,文章最后对类脑计算与人工神经网络的研究前景、机遇与挑战进行了深入分析。

该文章从工作机理和网络结构等层面深入比较了生物神经网络与人工神经网络,详细分析了突触与神经元及其上的离子通道的结构和功能,细致探讨了突触可塑性(synaptic plasticity)、本征可塑性(intrinsic plasticity)等各类神经可塑性,深入阐述了生物神经系统里经典的学习规则和记忆理论,包括广泛应用于人工神经网络训练的赫布学习(Hebbian learning)与脉冲时间相关可塑性(spike-timing-dependent plasticity, STDP)等模型。该文章还详细评述了忆阻器、相变存储器、电化学存储器、铁电晶体管等多种常见的神经形态器件的结构与仿生功能,总结了各类器件的速度、功耗、线性度、对称性等关键性能与研究现状。

此外,基于忆阻器等新型存储器阵列的人工神经网络的硬件实现与算法也是近几年类脑计算领域的研究热点,文章详细评述了监督学习、无监督学习、强化学习、小样本学习(one-shot/few-shot learning)、储备池计算(reservoir computing)等方法以及利用新型神经形态器件来实现的优势。文章最后指出了人工神经网络在复杂度、多样性等方面与生物神经网络仍存在很大差距,分析和展望了未来类脑计算与人工神经网络的发展机遇和潜在的研究方向。

该研究由清华大学与美国麻省大学安姆斯特分校、中国科学技术大学共同完成,合作者包括类脑计算领域重量级学者美国麻省大学杨建华教授,以及神经科学领域的两位顶级专家中科大生命科学学院毕国强教授和清华大学医学院及脑与智能实验室宋森研究员。清华大学微电子所吴华强教授与美国麻省大学杨建华教授是论文的共同通讯作者,清华大学微电子所唐建石助理教授是论文的共同第一作者。吴华强教授团队致力于新型存储器与类脑计算研究,近五年围绕忆阻器性能优化、阵列集成、模型模拟、架构设计、芯片研制等方面取得了一系列创新成果,相继在《自然-通讯》(Nature Communications)、《自然-电子》(Nature Electronics)、《先进材料》(Advanced Materials)和国际电子器件会议(IEDM)、超大规模集成电路国际研讨会(VLSI)、国际固态半导体电路大会(ISSCC)等顶级期刊和国际会议上发表多篇高水平论文。相关研究得到了北京未来芯片技术高精尖创新中心、国家自然科学基金委应急项目、科技部重点研发计划、北京市科委、国家“青年千人计划”等项目的支持。