基于强区分性特征挖掘的无监督行人重识别

发布日期:2024年5月8日
基于强区分性特征挖掘的无监督行人重识别 基于强区分性特征挖掘的无监督行人重识别

本内容试读结束

下载后可阅读完整内容,立即下载

目前,基于深度学习的无监督行人重识别正在通过改进聚类方法来提高生成伪标签的准确性和鲁棒性。然而,行人的固有物理特征,如肢体和身体,尚未充分利用。此外,遮挡和姿势导致了在行人图像中准确匹配和识别局部区域的困难,而行人服装颜色引起的噪声干扰也对行人重识别准确性产生了重要影响。为了解决这些问题,本文提出了一种判别性特征挖掘网络(DFMN),通过引入Transformer注意力机制来突出显示行人的有效物理特征;为了深入挖掘不同样本之间的细粒度局部特征,本文采用了基于最短路径的部分对齐分割机制;同时,针对行人服装颜色引起的冗余信息,本文融合了一个alpha通道,可以有效消除噪声干扰。实验结果表明,本文所提出的方法在Market1501数据集和MSMT17数据集上的map指标上分别实现了4.0%和6.4%的提升。

大部分行人重识别模型都使用深度学习和标记数据进行训练。然而,随着实际监控需求增加和标记成本上升,无监督行人重识别成为研究的重点。这种方法通过聚类生成伪标签,不需要标记数据。

一种方法是无监督领域自适应(UDA)行人重识别[1]-[6],该方法首先在源标记数据集上训练模型,然后在目标未标记数据集上对模型进行微调。然而,UDA 方法的训练过程复杂且需要源域和目标域相似的限制, 这限制了其成为主流研究趋势。

另一种方法是纯无监督学习(USL)行人重识别[2] [7] [8] [9] [10] [11], 通常利用完全未标记的数据来生成伪标签。因此,本文侧重于进一步提高USL 的性能。

目前最先进的无监督学习(USL)方法[9] [10] [11]使用内存字典和聚类生成的伪标签来训练神经网络。

通过聚类算法:如DBSCAN [12]、K-means [13]或Infomap [14],为每个图像生成伪标签。尽管这些方法取得了良好的性能,但在获取足够具有辨识力的行人特征方面仍存在显著挑战。

本文的主要贡献如下: 1) 针对行人的固有物理特征挖掘不充分。本文通过加入Transformer 将行人的固有物理特征作为全局信息源,放大和强调其在识别过程中的重要性。

2) 针对个体的遮挡和姿势变化可能导致局部特征丢失。本文通过使用部件分割对齐机制来解决这些不稳定和频繁丢失的局部信息。

3) 针对行人服装颜色的干扰信息。因此本文加入alpha 通道来剔除颜色干扰。

2. 相关工作 目前,无监督行人重识别方法通常采用ResNet50 [9] [10] [11]作为网络的主要框架。先前的工作在某些或整个框架上取得了显著的改进。具体来说,Lin 等人[9]将每个样本视为一个簇,然后逐渐将相似的样本分组到一个簇中以生成伪标签。

MMCL [10]的预测包括相似性计算和循环一致性的质量伪标签生成。

SPCL [11]提出了一种新颖的自适应对比学习框架,逐步创建更可靠的聚类以精炼内存字典特征。然而, 它们仅获得了行人的浅层特征,因此,聚类的准确性受到影响。

首先,从整体视角分析和定义图像中的全局特征。作为常见的全局特征,行人姿势特征可以直观地



相关标签