基于域适应的真实场景图像超分辨方法

发布日期:2023年6月29日
基于域适应的真实场景图像超分辨方法 基于域适应的真实场景图像超分辨方法

本内容试读结束

下载后可阅读完整内容,立即下载

本研究针对目前图像超分辨技术广泛应用于医疗、遥感等领域,但已有的图像超分辨方法大多采用退化假设的方式来训练模型,导致训练出的超分辨网络对真实场景下的图像的重建效果不理想这一问题,提出了一种基于域适应的真实世界图像超分辨方法。真实场景图像超分辨方法分为两阶段,第一阶段,通过设计退化网络,利用高分辨率图像经过退化网络合成低分辨率图像,并引入域适应损失来使得合成的低分辨率图像逼近真实世界低分辨图像;第二阶段利用第一阶段合成的高分辨率–低分辨率图像对以监督学习的方式训练重建网络,并通过频率分离技术,提取图像高频信息,送入判别器网络,通过频域对抗损失来促进重建网络恢复出图像中的更多细节,并减少伪影,来使得训练出的超分辨率网络对真实场景图像有着很好的泛化性。在RealSR数据集的子数据集上进行训练并进行验证测试,实验结果表明,与现有方法先比,所提出的方法在定量指标与定性效果方面都取得了最优的效果。因此,基于域适应的真实场景图像超分辨方法能够有效的缩小合成图像与真实场景图像间的域分布差异,使得超分辨网络能够适应具有多样分布的真实场景图像,大大提高了图像的重建质量。

图像超分辨目的在于将一张LR (low-resolution)图像重建到HR (high-resolution)版本,从而改善图像质量。图像超分辨作为重要的底层视觉任务,其在医疗、遥感等领域有着重要作用,因此受到越来越多的学者的广泛关注。

传统的图像超分辨方法有很多,包含基于预测的方法,基于边缘的方法,基于统计的方法以及基于稀疏表示的方法等。近些年,随着深度学习技术的快速发展,出现很多基于深度学习的图像超分辨方法, 并且这些方法在多样的基准上取得了很好的重建性能。Dong 等[1]开创性地提出了第一个基于CNN (convolutional neural network)的图像超分辨网络SRCNN。该网络仅用简易的三个卷积层将LR 图像映射到HR 图像。随后,研究学者们发现更深更复杂的网络有利于图像特征信息的提取以及重建,因此在SRCNN 的基础上,很多更深更复杂的方法[2]-[9]陆续被提出。这些方法利用密集连接残差块的不同变体作为网络的重建模块,一方面可以避免网络模型在训练过程可能出现的梯度消失问题;另一方面利用深层网络强大的特征提取传递能力,保证网络输入的图像特征信息在网络的传输过程中得以保持,从而重建出质量更高的图像。然而,需要指出的是,上述提到的方法大多基于L1 或者L2 损失去优化SR (su-per-resolution)图像与真实HR 图像之间的距离。

尽管这种方法可以在图像定量指标(如PSNR、SSIM)取得最优的结果,但重建出的图像往往过于模糊或平滑。主要原因是人类对视觉相似性的感知与这种像素级的误差的关联性不大。因此,研究者们逐渐关注于如何重建出视觉感知质量好的图像。Johnson 等[10]通



相关标签