1. DeFRCN: Decoupled Faster R-CNN for Few-Shot Object Detection
Motivation and Contribution
Faster-RCNN
作为少样本检测的检测器存在两个问题- 类不可知的
RPN
和 类可知的RCNN
之间的矛盾性 - 需要等变性特征的回归任务和需要不变性特征的分类任务之间的矛盾
- 类不可知的
- 因此作者提出了要减少
RPN
和RCNN
之间的耦合性,提出了一种梯度解耦层,减少RPN
在优化过程中对BackBone
的影响,通过调节RPN
和RCNN
之间的纠缠性,大大提高了少样本检测的性能。针对回归和分类任务之间的矛盾性,作者提出利用ImageNet
上预训练 的1k
分类器来校正Faster-RCNN
的分类器的结果。
方法介绍
模型的改进比较简单,就是GDL
梯度解耦层,GDL
的实现是一个channel-wise weight
,为了解耦RPN
和RCNN
之间的关联性,GDL
层在向BackBone
回传
梯度的时候缩放梯度(甚至是停止梯度回传)

PCB
是一个无参的分类校正模块。
实验结果
- 实现的细节
- 在
Base training
阶段,作者利用GDL
层截断了RPN
的回传梯度,而RCNN
的梯度则进行了一定的缩放。这说明了减少类不可知的RPN
对BackBone
即特征提取的影响是比较关键的,直觉上可能是其弱化了特征的可分类性,使RCNN
性能变差,而这对少样本检测任务是至关重要的。 - 在
Novel training
阶段,RPN
和RCNN
的梯度几乎都被截断了(GDL
的参数 $\lambda$ 被设置为0.01),这说明在Novel Fine-tune
阶段要尽可能 减少少样本数据对BackBone
的影响,直觉上这些少样本数据可能会降低在Base data
上训好的BackBone
的泛化性,而过拟合到训练当中用到的少量样本 中的任务无关特征。
- 在
-
SOTA比较和Ablation实验
- SOTA比较
RPN
和RCNN
的耦合性对结果的影响,验证了合理控制二者之间的耦合性对检测任务尤其是少样本任务的重要性
2. FSCE: Few-Shot Object Detection via Contrastive Proposal Encoding
Motivation and Contribution
Motivation
- 作者认为与
GT_Box
有着不同交并比的Proposals
有着类似于对比学习的样本增强的思想,而正负样本的对比学习有利于增强特征表示的泛化能力, 因此作者沿着对比学习的思想针对目标检测任务设计了基于Proposal
的对比学习模型FSCEFew-Shot object detection via Contrastive proposals Encoding
。 - 本文也给出了关于
FSD
任务不少的 insights-
少样本检测任务在 fine-tuning 后的 RPN 对 novel class 的分类比定位更容易出现错误,模型学习到的分类器更容易混淆 novel class
中的相似类别比如 cow 和 horse ,其实本质上应该还是由于 few-shot 导致的,因此解决分类错误问题是提升少样本检测性能的关键。
原文叙述为:
In few-shot detection, one might naturally conjecture the localization of novel objects is going to under-perform its base categories counterpart, with the concern that rare objects would be deemed as background [14, 13, 18]. However, based on our experiments with Faster R-CNN [4], the commonly adopted detector in few-shot detection, class-agonistic region proposal network (RPN) is able to make foreground proposals for novel instances, and the final box regressor can localize novel instances quite accurately.
作者用可视化验证了自己的观点
左图给出了不同类之间的余弦相似度,
base class
bus 和novel class
bird的相似度是-0.1, 但是 novel classcow
和 novel classhorse
的相似度却高达0.39,这表明novel class
的实例特征区分度较弱。这也与本文的目的提升类内特征表示的紧凑性,增加类之间的方差相呼应。-
本文还提到为了获得类之间更好的分类边界通常一个做法就是使用一个有较大边缘距离的分类器,比如使用一些loss将类之间的拉的更开,但是对于few-shot这样的
data-hunger的任务设置下,这种做法很难取得较为理想的性能[20]. 而最近兴起的contrastive learning在各项任务中都表现出了不错的知识迁移能力。而且在
对比学习中的正负样本增强和检测任务中各种proposal有着相似的功能,因此可以尝试使用对比学习提升表征的区分度和泛化能力。
原文:
Therefore in this work, we explore to extend the supervised batch contrastive approach [34] to few-shot object detection. We believe the contrastively learned object representations aware of the intra-class compactness and the inter-class difference can ease the misclassification of unseen objects as similar categories.
-
少样本检测任务在 fine-tuning 后的 RPN 对 novel class 的分类比定位更容易出现错误,模型学习到的分类器更容易混淆 novel class
中的相似类别比如 cow 和 horse ,其实本质上应该还是由于 few-shot 导致的,因此解决分类错误问题是提升少样本检测性能的关键。
contribution
首次将对比学习的思想引入了少样本检测任务当中,通过设计一个简单而高效的模型在少样本检测性能上取得了明显的提升。 To our best knowledge, we are the first to bring contrastive learning into few-shot object detection. Our simple design sets the new state-of-the-art in any shot (1, 2, 3, 5, 10, and 30), with up to +8:8% on the standard PASCAL VOC benchmark and +2:7% on the challenging COCO benchmark.
方法介绍
作者首先基于自己的观察在TFA[16]的基础上稍作修改,提出了一个更强的baseline,
作者观察到模型在fine-tuning阶段与base-training相比而言,proposals from positive anchors 只有后者的1/4,这是由于RPN在fine-tuning
对于anchor的评分较低,导致了较少的proposals可以进入RoI进行分类,为此作者double了RPN经过NMS后的proposal数目。
此外作者采样了原先设置的proposals 数目的一半送入分类器和回归器计算损失。作者称in fine-tuning stage the discarded half contains
only backgrounds (standard RoI batch size is 512, and the number of foreground proposals are far less than half of it).
这个地方不理解作者用意?
作者给出了新的baseline的结果

关于proposal的对比学习设计和其他有监督对比学习很相似:

实验结果
SOTA实验


消融实验

[16] Frustratingly simple few-shot object detection. In International Conference on Machine Learning (ICML), July 2020 [20] Cosface: Large margin cosine loss for deep face recognition. In 2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition