4月11日,我院科研团队的论文《A Biologically Plausible Audio-Viusal Integration Model for Continual Learning》被IJCNN2021(International Joint Conference on Neural Networks)接收,该论文作者为:陈雯婕、杜凤桐、王晔、曹立宏,陈雯婕为论文通讯作者。
该论文针对神经网络中的灾难性遗忘问题,基于人脑所具备的连续学习能力,提出了一个新颖的生物可实施的类脑视听整合模型(AVIM),这个模型基于如下假设:MTL区域中的视听整合过程对于大脑中概念的形成至关重要,从而实现对不同概念的连续学习。在AVIM中,采用多房室HH神经元进行视听高级表征的整合,采用基于钙离子浓度的STC(Synaptic tagging and capture)突触可塑性调整网络的权重。此外,为了模拟人脑可能的连续学习过程,论文定义了一种新颖的连续学习/增量学习范式。在这种新颖的连续学习范式下,论文提出的AVIM在多个公开数据集上取得了和基于ANN的先进连续学习方法(例如:OWM, iCaRL和GEM)等相当甚至更好的成绩。并且,在连续学习过程中,AVIM的整合层能够形成关于概念的较为稳定的表征,说明了该方法的有效性。