基于目标识别与定位技术的机械手研究

发布日期:2023年8月7日
基于目标识别与定位技术的机械手研究 基于目标识别与定位技术的机械手研究

本内容试读结束

下载后可阅读完整内容,立即下载

针对生活场景中使用机械手进行物体抓取的操作,本文提出了基于Yolov5算法的多目标检测系统,此算法相较于低版本的Yolo算法及R-CNN算法具有计算量小、准确率高的特点。市面中多采用单目相机赋予机械手二维视觉模块,本文在单目相机的基础上,相较于双目相机在获取三维数据时成本高、受环境影响时特征点无法进行匹配易产生误差的问题,结合结构光模块,生成单目结构光系统,更好地赋予机械手获取物体的深度信息的能力,最终得到物体的世界坐标值。通过实验现象表明,获得的平均精度均值为96.5%,定位精度相较于双目系统更为精准,最终能够较好地满足机械手完成对于物体在三维空间中定位与抓取的需要。

随着社会的进步与发展,人们对于科技的要求水平逐步增高。在人们日常生活中,物品识别抓取工作已然成为了新型工业、物流分类、无人车间、快速作业等领域必不可少的重要环节[1]。

科技不成熟时, 工厂普遍使用较为落后的分拣作业方法——利用大量人工进行物品分类堆积。此方法虽然满足了就业需要,但也暴露了效率低、错误率高的弊端[2]。赋予机械手更加智能化的操作成为了当今世界国内外研究的热潮,而对物体的目标识别及定位技术更是智能化的重中之重。依赖于计算机算力的提升,深度学习已经逐步取代了传统的机器学习,识别准确率极大地提升,机器视觉也随之得到了更好地发展。

为了提高机械手对于物体的检测能力并能够准确将物体抓取到特定区域, 本文选用Yolov5 算法进行识别,使用型号为Astro Pro 的相机搭建单目结构光系统获取深度信息,实现物体的三维空间定位。工作流程为:对单目结构光相机采集到的数据集进行标注后, 搭建PyTorch 环境, 使用Yolov5 模型进行训练, 将散斑图与参考平面散斑图使用SGBM 算法进行图像匹配获取视差图,将视差图转深度图,深度图转点云图,得到物体三维坐标,最终实现抓取。

2. Yolov5 算法原理概述 当今流行的目标识别算法大多分为one-stage 与two-stage 两类, two-stage 算法代表是R-CNN [3]系列, one-stage 算法代表是Yolo [4]系列。two-stage 算法将两步分别进行,原始图像先经过候选框构成网络, 例如Faster R-CNN 中的RPN 网络[5],再对候选框的内容进行分类;one-stage 算法将两步同步进行,输入图像只经过一个网络,生成的结果中同时包含位置与分类信息。two-stage 与one-stage 相比,虽精确度提高,但运算量增大,速度慢。

Yolov5 是一种端到端的深度学习模型,可以直接从原始图像中检测和定位目标。它使用卷积神经网络(CNN)来学习图像中物体的特征,并使用多尺度预测和网格分割来检测和定位目标。Yolov5 在Yolov4 [6]的基础上进行了改进,是其工程化的版本。Yolov5 给予使用者了10 个不同版本的模型,差异点在于网络的深度和宽度,其模型各项参数如图1 所示。

我们可以将Yolov5 算法的结构划分为四个部分:输入端、骨干网络(Backbone)、颈部网络(Neck)、预测输出(Prediction)。Yolov5 算法整体结构如图2 所示。



相关标签