🦖 Adversarial Complementary Learning for WSOL CVPR-2018
🦖 动机
分类权重激活的区域往往是一些具有显著区分度的区域,而不显著区域往往被忽略,为了能够提取出尽可能多不显著的区域,作者设计一个对抗互补性学习方法。
对抗互补性学习:使用两个分支 \(A\) 和 \(B\) 预测 CAM, 使用其中一个分支的预测接过去 erasing 掉另一个分支,从而鼓励该分支能够关注更多不显著的区域,最后二者的预测结果综合起来作为最后的定位结果。

🦖 内容
模型结构如下:

🦖 DANet: Divergent Activation for Weakly Supervised Object Localization ICCV-2019
🦖 Rethinking the Route Towards Weakly Supervised Object Localization CVPR_2020
🦖 Rethinking Class Activation Mapping for Weakly Supervised Object Localization ECCV_2020
🦖 动机分析
作者 rethink 了 CAM 应用在弱监督定位中存在的几个问题:

-
不同的通道激活的区域面积有较大区别,GAP 操作容易偏向于赋予那些激活面积小的通道更大的权重,从而使得最后的激活区域只有重叠较多的那部分较小的区域。
-
区分度不高或者说不是那么显著的区域激活值往往较低,使其在最后平均后的激活结果中显得更加不突出。
-
不同的通道之间的激活区域往往会有较多重叠部分,在加权平均后的结果中,不重叠的部分会被削弱, 而重叠 部分会被凸显出来,但是其区域面积比较有限。
感觉作者所指出的这些问题都在指向 分类任务中会用得到全局平均池化层 GAP 和 CAM 生成过程中的权重系数加权这些操作。
🦖 主要工作
- 针对第一个问题:作者分析产生原因是不管每个通道激活区域大小是多少都会除以 \(H \times W\) 造成的,因此提出了新的池化方式,不再直接除以 \(H \times W\),而是除以大于某个激活阈值的区域面积,也就是文中的 Thresholded Average Pooling.
这样不管激活区域面积的通道也会被赋予较大权重。
- 针对第二个问题:
看完这篇文章对 ECCV 的文章印象更差了,不是很难的一个任务,却没有讲清楚自己的实验发现和方法,有空再好好看下作者表达的什么意思。
🦖 Strengthen Learning Tolerance for WSOL CVPR-2021
🦖 动机分析
当前的WSOL还存在两个方面的问题:
- part domination:只有 discriminative 的区域才能被激活
- 定位的鲁棒性,对于不同外观形状变化的物体的定位结果敏感。
作者设计的结构分为分类和回归两个训练阶段,提出的idea:
- 允许分类器出现一定的语义差错。
- 仿照半监督学习中强-弱增强技巧使回归器更加鲁棒。
🦖 主要工作
作者提出的这个SLT-Net 包括 localizer, regressor, and classifier, 其中localizer, regressor一起训练负责定位,classifier 负责分类,单独训练一个网络。作者这是将分类和定位拆分开了。

作者怎么增强容忍性学习呢?
- 容忍语义分类错误 Learning Tolerance to Semantic Mistake, 以缓解 part domination 问题. 作者在 localizer 中添加一个语义容忍模块,就是当只要能分类到前 \(K\) 个类就近似认为分类正确,降低损失。 作者认为这样不仅能够缓解原先那种分类任务导致只有显著区域的问题,还能够保持一定的语义区分性,避免背景区域被激活。
需要注意的是: 由于认为只要预测的前 \(K\) 个类别含有正确类别就认为分类正确了,因此在计算CAM时也应该计算这 \(K\) 个 类对应的CAM之后进行综合得出最终的定位结果。
- 定位鲁棒性 Learning Tolerance to Visual Stimulus
作者起得名字 Visual Stimulus 不太常见的词汇,其实现就是半监督学习中教师模型输入弱增强,学生模型输入强增强,以提高学生网络的鲁棒性,衡量教师和学生网络的一致性损失使用的是 MSE 损失。
🦖 Shallow Feature Matters for WSOL CVPR-2021
🦖 动机分析
-
作者认为之前的CAM-Based的WSOL方法都没有考虑到更多的低层/浅层次特征,低层次特征具有较少的语义信息but含有较多的边缘纹理等细节信息。
-
作者实验发现普通拼接或者相加操作来混合多层次特征,其实并没有明显提升,相乘反而是比较有效的。

🦖 提出方法
- 重新思考WSOL中的浅层特征
CNN的不断下采样导致最后的特征图分辨率比较低,虽然不咋影响分类性能但是比较影响定位效果,提升图片输入大小,可能会work,但是也引入了更多的计算。 但是用普通的特征混合方法并不能有效改善定位效果,如果能够提升有效的混合方法,则能够利用浅层特征来辅助最后层特征获取更好的 CAM。 因此 作者提出了 Multiplicative Feature Fusion (MFF) 把浅层次的特征融入到更深层次的特征里。
- 有效的特征融合策略 Multiplicative Feature Fusion (MFF)
结合着下图两张图可以大致了解作者设计的融合策略,MAC 模块有点像是一个通道注意力模块,筛选掉浅层特征中的背景噪声。

挺不爱看这种堆叠一堆卷积核也不好说为什么work的工作。作者的消融实验也仅限于 这个MAC模块。
在使用MFF融合训练生成CAM的网络时,作者除了用融合的特征计算分类损失外,还使用最后一层特征计算分类损失,即下面总体模型图中的 \(L_{aux}\) 和 \(L_{cls}\).
- 类不可知的语义分割
在融合浅层特征获得CAM后,作为伪标签,再使用 Gaussian prior pseudo label module 去refine生成的 CAM. 最后用来训练一个前景背景分割模型,也叫类不可知的语义分割。
注意在训练分割的时候,计算损失作者忽略了那些不太确定前景和背景的区域,避免误导网络学习。

- 整体模型的训练流程如下:

分为三步:训练特征融合网络、训练分割网络、训练一个分类器。作者在第一步训练其实已经可以完成分类,这里又搞了一个分类器,唉估计也是为了将分类和定位分开独立训练,能涨点吧。
🦖实验
主要看下消融实验


🦖 Foreground Activation Maps for WSOL ICCV-2021


🦖 Bridging the Gap between Classification and Localization for WSOD CVPR-2022
🦖 Background Activation Suppression for WSOL CVPR-2022
