分享缩略图

分享到:
链接已复制
首页> 一带一路网> 科技创新>

中国科学家提出具有内生复杂性的类脑计算方法

2024-08-19 13:35

来源:中国网·中国发展门户网

分享到:
链接已复制
字体:

中国网/中国发展门户网讯 构建更加通用的人工智能,让模型具有更加广泛和通用的认知能力,是当前人工智能(AI)领域发展的重要目标。目前流行的大模型路径是基于Scaling Law(尺度定律)去构建更大、更深和更宽的神经网络,可称之为“基于外生复杂性”的通用智能实现方法。这一路径面临着计算资源及能源消耗难以为继、可解释性不足等问题。中国科学院自动化研究所李国齐、徐波研究团队联合清华大学、北京大学等借鉴大脑神经元复杂动力学特性,提出了“基于内生复杂性”的类脑神经元模型构建方法,改善了传统模型通过向外拓展规模带来的计算资源消耗问题,为有效利用神经科学发展人工智能提供了示例。

本研究首先展示了脉冲神经网络神经元LIF(Leaky Integrate and Fire)模型和HH(Hodgkin-Huxley)模型在动力学特性上存在等效性,进一步从理论上证明了HH神经元可以和四个具有特定连接结构的时变参数LIF神经元(tv-LIF)动力学特性等效。基于这种等效性,团队通过设计微架构提升计算单元的内生复杂性,使HH网络模型能够模拟更大规模LIF网络模型的动力学特性,在更小的网络架构上实现与之相似的计算功能。进一步,团队将由四个tv-LIF神经元构建的“HH模型”(tv-LIF2HH)简化为s-LIF2HH模型,通过仿真实验验证了这种简化模型在捕捉复杂动力学行为方面的有效性。

实验结果表明HH网络模型和s-LIF2HH网络模型在表示能力和鲁棒性上具有相似的性能,验证了内生复杂性模型在处理复杂任务时的有效性和可靠性。同时,研究发现HH网络模型在计算资源消耗上更为高效,显著减少了内存和计算时间的使用,从而提高了整体的运算效率。研究团队通过信息瓶颈理论对上述研究结果进行了解释。

本研究为将神经科学的复杂动力学特性融入人工智能提供了新的方法和理论支持,为实际应用中的AI模型优化和性能提升提供了可行的解决方案。目前,研究团队已开展对更大规模HH网络,以及具备更大内生复杂性的多分支多房室神经元的研究,有望进一步提升大模型计算效率与任务处理能力,实现在实际应用场景中的快速落地。

该工作发表在《Nature Computational Science》,共同通讯作者是中国科学院自动化所李国齐研究员、徐波研究员,北京大学田永鸿教授。共同一作是清华大学钱学森班的本科生何林轩(自动化所实习生),数理基科班本科生徐蕴辉(自动化所实习生),清华大学精仪系博士生何炜华和林逸晗。

【责任编辑:王虔】
返回顶部