目标检测的对抗攻击怎么防?中山大学HCP实验室入选ECCV 2022 Oral的最新论文教你提升模型鲁棒性!
现有的深度学习模型容易受到恶意攻击或者噪声的影响,甚至对于人眼无法察觉的对抗噪声干扰,输出完全错误的结果,这就对基于深度学习的模型在实际中应用带来了严重的安全隐患。
因此提高神经网络的对抗鲁棒性,让模型具有更强的抵御对抗噪声的能力至关重要。
但现有相关对抗攻击和防御的视觉问题研究主要集中在分类任务,而对目标检测器的对抗鲁棒性相关研究工作非常少。
最近中山大学人机物智能融合实验室科研团队在ECCV 2022上发表了一篇论文,深入地探索目标检测器的检测鲁棒性瓶颈问题,分析目标检测对抗训练中正常样本和对抗样本的冲突问题。