近年来,深度学习技术的进步在合成孔径雷达(SAR)自动目标识别(ATR)技术中取得了出色的表现。然而,由于斑点噪声的干扰,SAR图像的分类任务仍然具有挑战性。为了解决这个问题,本研究提出了一种多尺度局部–全局特征融合网络(MFN),该网络集成了卷积神经网络(CNN)和Transformer网络。所提出的网络包括三个分支:CovNeXt-SimAM分支,Swin Transformer分支和多尺度特征融合分支。CovNeXt-SimAM分支在不同的尺度上提取SAR图像的局部纹理细节特征。通过将SimAM注意机制结合到CNN块中,从空间和通道注意角度增强了模型的特征提取能力。此外,Swin Transformer分支用于提取不同尺度下的SAR图像全局语义信息。最后,多尺度特征融合分支用于融合局部特征和全局语义信息。此外,为了解决由于经验确定的模型超参数问题而导致模型精度和效率较低的问题,采用贝叶斯超参数优化算法确定了最佳的模型超参数。该研究提出的模型在MSTAR数据集上,标准工作条件(SOCs)和扩展工作条件(EOCs)下,对SAR车辆目标分别取得了99.26%和94.27%的平均识别准确率。与基准模型相比,识别准确率分别提高了12.74%和25.26%。结果表明,贝叶斯-MFN降低了SAR图像之间的类间距离,导致更紧凑的分类特征和更少的斑点噪声干扰。与其他主流模型相比,贝叶斯-MFN模型展现出最佳的分类性能。
作为一种主动式微波遥感侦测平台, 合成孔径雷达(SAR)具有全天候、全天监测和一定的穿透能力的优点,因此在军事和民用领域被广泛使用[1]。与可以直接被人眼解读的光学图像不同,SAR 图像包含丰富的目标信息。然而,由于SAR 的独特成像机制,SAR 图像解读的任务变得具有挑战性[2]。此外,获取和标记SAR 图像很困难,需要大量人力和物力资源。因此,SAR 自动目标识别(SAR ATR)近年来成为研究的焦点。由于斑点噪声的存在,SAR 图像具有特定的细粒度特征,表现为大的和小的类间差异。因此,SAR 图像分类的任务仍然具有挑战性。
随着深度学习理论的发展,深度神经网络已广泛应用于各个领域[3]。在SAR ATR 领域,与基于模板匹配[4]和模型匹配[5]的方法相比,基于深度神经网络的方法具有自动特征提取的优势。其中,最具代表性的方法是基于卷积神经网络(CNN)。CNN 以层次方式收集局部特征,获得强大的图像表示,并可以充分提取SAR 图像的局部纹理细节。2022 年,Liu 等人提出了一种纯卷积神经网络,名为ConvNeXt, 它已成为最具代表性的CNN,相比传统的CNN,ConvNeXt 算法更简洁,参数更少[6]。然而,受到卷积