基于深度神经网络的图像匹配特征点检测方法

发布日期:2020年3月27日
基于深度神经网络的图像匹配特征点检测方法 基于深度神经网络的图像匹配特征点检测方法

本内容试读结束

下载后可阅读完整内容,立即下载

为实现机器人识别导航中图像的准确匹配,提出一种以新型深度神经网络模型作为检测器进行匹配特征点检测的方法。根据数据集搭建深度神经网络模型实现从图像到特征点概率图的映射;将得到的特征图通过非极大抑制提取关键点的位置;最后根据检测到的关键点进行准确匹配,找到最为匹配的图像。实验表明,通过该方法检测到的关键点匹配率高,且通过匹配特征点可以实现准确的图像校正。相比传统的图像匹配方法,深度神经网络模型作为检测器优势显著。

在科技的快速发展中,愈发智能化的移动机器人为人类的生产生活带来极大便利。移动机器人由计算机控制和操作,通过多种传感器实现功能,其中图像识别和处理是机器人越来越智能化发展的必要技术。图像匹配算法作为图像处理领域的关键技术之一,在移动机器人的自主导航、图像拼接、单双目视觉等领域都得到广泛的应用。移动机器人的高性能需求对匹配算法的精度、鲁棒性、实时性等都提出了较高要求。

图像匹配是将模板图像与待匹配图像比较,通过一定的方法进行配准,从而确定待匹配图像的类别并根据匹配点得到图像的相对位移。现有的图像匹配算法主要有基于区域的方法和基于特征的方法。基于区域的方法是依靠相似度度量方法,在模板图像中通过一定步长的滑动窗口比较图像区域的相似度, 其中相似性度量包括互相关、互信息等。Barnea 等人就两个结构化数据之间的局部相似性提出序列相似性检测算法[1],可以节省多个数量级的计算时间,显著提高匹配速度,但在匹配精度上有所欠缺。Lucas和Kanade 使用空间强度梯度信息指导搜索匹配的位置,提出适用于立体视觉系统的技术[2],该算法被称为Lucas-Kanade (LK)算法,对于有噪声的图像匹配能力也比较强。而后由LK 算法扩展和优化的算法在图像匹配领域得到广泛研究。然而,基于区域的方法由于计算量大且图像受到光照或者重叠区域等影响鲁棒性差,在应用中存在一定的挑战。基于特征的方法在强度、比例等方面更加稳定,这是一种根据算子提取图像上的特征点检测关键点之间的距离的方法。

传统的特征匹配算法主要以Harris [3]、Sift [4]、Surf [5]等算子的检测算法为主。

Harries 角点检测算法用以提取像素级的角点, 对尺度变化较为敏感;Sift是目前图像匹配中最为著名的检测算法,使用局部梯度提取特征点,对各种变化都具有强鲁棒性;Surf 是更快速的改进方法,主要在速度和光照不变性上具有优势。在经典算法基础上发展了多种改进算法,如PCA-Fift [6]、SRP-Fift [7]、Harris-Sift [8]、Harris-Laplacian [9]等,改进算法的提出不断地在提高匹配精度和速度,但效果仍有提高空间。

近几年,随着深度学习的快速发展,基于深度学习的新方法以其独特的特征学习和特征提取能力在计算机视觉中表现出优于传统方法的性能。Fischer 等人将通过卷积神经网络学习的特征在分类和识别任务上的表现与标准的Sift 算法作比较[10],证明了深度学习方法的特征提取能力优异。Melekhov 等人将



相关标签