基于YOLOv5的移动机器人动态视觉SLAM算法研究

发布日期:2024年5月20日
基于YOLOv5的移动机器人动态视觉SLAM算法研究 基于YOLOv5的移动机器人动态视觉SLAM算法研究

本内容试读结束

下载后可阅读完整内容,立即下载

移动机器人在未知环境中,通过同步定位与地图构建(SLAM)技术,实现了精准的自身定位功能。目前大多数视觉SLAM系统均假设环境是静态的,但在实际应用中,由于大量动态目标的存在,严重影响机器人的定位与建图精度。为改善这一情况,本文基于ORB-SLAM3系统提出一种鲁棒的动态视觉SLAM系统,其融合YOLOv5深度学习方法,以减少动态目标的影响。并在公共TUM数据集和真实场景中测试本文算法的性能,结果表明:本文算法与ORB-SLAM3相比,具有更高的鲁棒性。

近年来,随着人工智能和机器人技术的飞速发展,移动机器人的自主导航与定位问题已成为研究热点。目前,SLAM (Simultaneous Localization and Mapping,即同时定位与地图构建)技术是移动机器人领域的核心支柱[1] [2]。

作为一种前沿的感知与导航方法, SLAM 在缺乏先验信息的复杂环境中发挥着至关重要的作用。

其中视觉SLAM 技术利用视觉传感器获取图像信息, 实现对环境的高精度感知和地图构建。

在静态环境中, 视觉SLAM 技术利用环境中的固定特征进行定位和建图, 展现出良好的稳定性和可靠性。

在现实场景中,尤其是工作环境,动态元素往往占据主导地位,它的存在使特征点匹配过程易产生错误数据关联,从而影响定位精度与地图构建效果。2023 年,Jin 等人[3]基于ORB-SLAM3 框架添加语义分割、动态特征剔除和点云稠密地图三个主要过程, 在语义分割线程采用SparseInst 分割网络实现对动态对象的检测,但该语义分割网络计算较复杂,影响系统实时性。因此,视觉SLAM 技术面临着巨大的挑战[4] [5]。针对以上问题,本文基于ORB-SLAM3 [6]系统引入YOLOv5 深度学习方法完成对动态对象的检测与剔除。该系统不仅能排除动态对象的干扰,还利用语义信息重建静态背景,从而提高建图定位精度。本文主要贡献总结如下: 1) 针对动态对象缺乏语义信息问题, 本文引入YOLOv5 目标检测算法, 实时生成场景中动态对象的基本语义信息; 2) 针对特征点剔除问题,本文设计一种特征点剔除策略,该策略不仅降低动态对象的影响,还提高定位建图精度; 3) 结合语义信息,对剔除动态点后的静态点构建稠密三维地图,并在TUM [7] (慕尼黑工业大学)的RGB-D 数据集与真实动态场景中评估本文算法。

实验结果表明:本文算法优于ORB-SLAM3 等视觉SLAM算法。

2. 算法原理 2.1. 系统概述 ORB-SLAM3 是一种先进的视觉同时定位与地图构建系统,主要由三大线程组成:跟踪线程、局部建图线程和闭环检测线程。

跟踪线程的主要任务是负责提取和匹配ORB 特征点, 通过最小化重投影误差



相关标签