2024年9月26日,我院科研团队的论文《Vector Quantization Prompting for Continual Learning》被NeurIPS-2024接收,该论文作者为:焦丽,赖秋霞,李渝,徐强,赖秋霞为论文通讯作者。
NeurIPS会议(Conference on Neural Information Processing Systems)是机器学习和计算神经科学领域中重要的学术会议之一,同时也是中国计算机学会(CCF)推荐的A类会议。NeurIPS-2024是第38届会议,于2024年12月10日至15日在加拿大温哥华Vancouver Convention Center 召开。
连续学习要求在序列任务上训练单一模型时克服灾难性遗忘问题。最近表现优异的方法是基于提示的方法,这些方法利用一组可学习的参数(即提示)来编码任务知识,并从中选择适当的提示来指导固定的预训练模型生成适合特定任务的特征。然而,现有方法依赖于预测提示所属任务来进行提示选择,而提示所属任务预测过程无法通过任务损失进行优化。这一限制导致提示选择次优,并且预训练特征对特定任务的适应不足。先前的研究尝试通过直接从输入查询生成提示而非从候选集中选择来解决这一问题。然而,这些提示是连续的,缺乏足够的抽象来表示任务知识,使得它们在连续学习中效果不佳。
为了解决这些挑战,我们提出了VQ-Prompt,这是一种基于提示的连续学习方法,将向量量化(VQ)引入到一组离散提示的端到端训练中。通过这种方式,VQ-Prompt可以利用任务损失优化提示选择过程,同时实现任务知识的有效抽象以支持连续学习。大量实验表明,在具有挑战性的类增量设置下,VQ-Prompt在各种基准测试中优于最先进的连续学习方法。