团队三篇论文被CCF A类国际学术会议NeurlPS 2024论文录用。NeurlPS, 全称Conference on Neural Information Processing Systems, 该会议是国际人工智能和机器学习领域顶级会议之一,本届会议录用率为25.8%。
- 论文介绍
论文题目:Conditional Controllable Image Fusion
作者:曹兵,徐兴歆(博士研究生),朱鹏飞,王旗龙,胡清华
论文概述:图像融合旨在整合通过各种传感器或光学设备获取的多个图像中的互补信息,以合成包含更丰富信息的新图像。现有方法通常采用针对特定场景量身定制的不同约束设计,形成固定的融合范式。然而,这种数据驱动的融合方法不适用于所有场景,尤其是在快速变化的环境中。为了解决这个问题,我们首先提出了一个条件可控融合 (CCF) 框架,无需特定训练就可以用于一般的图像融合任务。由于不同样本的动态差异,CCF可以对每个个体采用特定的融合约束。鉴于去噪扩散模型的巨大重建能力,我们将特定约束注入预训练的 DDPM 作为自适应融合条件。动态选择适当的条件以确保融合过程在反向扩散阶段仍然响应特定要求。因此,CCF 能够逐步有条件地校准融合图像。大量实验验证了我们在各种场景中融合任务的有效性,而无需额外的训练即可与现有方法相媲美。
- 论文介绍
论文题目:What Matters in Graph Class Incremental Learning? An Information Preservation Perspective
作者:李佳璐(博士研究生),王煜,朱鹏飞,林婉瑜,胡清华
论文概述:图类增量学习要求模型在记忆旧类的同时对新类的新节点进行分类。现有的方法旨在保留旧模型或图数据的有效信息以减轻遗忘,但对信息保存的重要性没有明确的理论认识。在本文中,我们根据两个设计的偏差指标评估目前的做法得出现有方法存在高语义和结构偏差的结论。我们对图类增量学习中的信息保存进行了深入的研究,发现维护图信息在理论上可以保留旧模型的信息,以校准节点语义和图结构的变化。我们将图信息在空间域分解为低频局部-全局部分和高频部分。在此基础上,我们提出了一个通用的框架——图空间信息保存(GSIP)。具体而言,对于低频信息保存,将重放节点输入到旧模型中获得的旧节点表示与新模型中该节点及其邻居的输出对齐,然后池化后全局匹配新旧输出。为了保持高频信息,鼓励新节点表示模仿旧节点表示的近邻对相似性。与之前的方法相比,GSIP在遗忘度量方面提高了10%,我们的框架还可以无缝地集成现有的重放设计。
- 论文介绍
论文题目:Persistence Homology Distillation for Semi-supervised Continual Learning
作者:范妍(博士研究生), 王煜, 朱鹏飞, 陈东月, 胡清华
论文概述:半监督持续学习(SSCL)在解决半监督数据的灾难性遗忘问题方面受到了显著关注。知识蒸馏利用数据表示和关联相似性在SSCL中显示出保留知识的显著潜力。然而,传统的蒸馏策略在处理带有不准确或噪声信息的未标记数据时常常失败,这限制了它们在持续学习过程中特征空间发生显著变化时的效率。为了解决这一问题,我们提出了持续同调蒸馏(PsHD)以在半监督持续学习中保留对噪声不敏感的内在结构信息。首先,我们通过构建视觉数据在不同尺度上的单纯形的演化来表示持续同调特征,其中多尺度特征保证了在噪声干扰下的稳定性。接下来,我们提出了一种持续同调蒸馏损失,并设计了一种高效的加速算法,以减少模型训练过程中持续同调的计算成本。此外,我们理论上证明并实验验证了PsHD相比于样本表示和关联相似性蒸馏方法的稳定性。最后,在三个广泛使用的数据库上验证了提出的PsHD在所有基线中表现最佳,提高了3.2%的性能同时减少50%的记忆缓冲区大小,表明了该方法在SSCL中对未标记数据的利用潜力。