论文题目:CKD: Contrastive Knowledge Distillation from A Sample-Wise Perspective

作者:朱文成,周鑫(硕士研究生),朱鹏飞,王煜,胡清华

论文概述:近期,团队提出了一种简单而有效的对比知识蒸馏框架,该框架在实现样本级logit对齐的同时保持了语义一致性。传统知识蒸馏方法过度依赖样本层面的特征相似性,存在过拟合风险;而对比学习方法则侧重于类间区分,却牺牲了样本内部的语义关联。我们的方法通过师生模型的样本级对比对齐来传递”暗知识”。具体而言,本方法首先通过直接最小化单个样本内师生模型的logit差异来实现样本内对齐。随后,利用样本间对比来保持跨样本的语义差异性。我们将正样本对定义为来自同一样本的师生模型对齐logit,负样本对定义为跨样本的logit组合,从而将这两个约束条件重新表述为InfoNCE损失框架。这一设计不仅将计算复杂度降低至低于样本平方量级,还消除了对温度参数和大批量大小的依赖。我们在三个基准数据集(包括CIFAR-100、ImageNet-1K和MS COCO)上进行了全面实验。实验结果表明,该方法在图像分类、目标检测和实例分割任务上均展现出显著的有效性。