改进运动模板与直方图匹配的视频典型目标检测方法

发布日期:2019年1月21日
改进运动模板与直方图匹配的视频典型目标检测方法 改进运动模板与直方图匹配的视频典型目标检测方法

本内容试读结束

下载后可阅读完整内容,立即下载

针对经典运动模板法提取运动目标轮廓出现的空洞和不能提取完整轮廓的问题,以及运动速度缓慢时误检率高的问题,本文提出了一种改进的运动模板和HSV直方图匹配相融合的视频运动目标检测方法。采用三帧差分和改进的OSTU自适应阈值法获得潜在的运动目标轮廓,并根据每个像素点与目标轮廓滞留时间的时序关系构建运动历史模板,利用逐级洪水泛滥法分割目标潜在区域,并计算目标潜在区域与目标模板的Bhattacharyya距离,从而检测典型目标区域。实验结果表明,该方法有助于解决传统运动模板法提取运动目标轮廓产生的空洞和不能提取完整轮廓的问题,而且精确率比背景减除法、运动模板法明显提高。

视频目标的检测与识别是计算机视觉领域的一个重要课题[1],引起了国内外学者的广泛关注,国内外学者在视频目标检测方面取得了一定成果。

目前常用的视频目标检测方法包括基于帧差法的轮廓检测、基于直方图匹配法的运动目标检测、基于光流法的运动目标检测以及一些组合方法,这些方法虽然有很好的检测效果,但在某些方面仍存在一些缺陷。

为了更好地解决复杂场景中运动目标检测准确率低的问题, Qingyu Guo, Zheng Zhang 提出一种融合高斯混合模型和帧间差分法的视频运动目标检测方法, 该方法使用帧间差分法、高斯混合模型和K-means聚类检测视频运动目标的轮廓,利用C#和EmguCV 框架检测运动目标[2]。该方法实现简单,检测的准确率比经典的高斯混合模型和帧差法的准确率较高,但是该方法并不能检测视频中运动速度缓慢或静止的目标,而且当间隔时间设置不合理时,该方法检测的准确率较低。

为了解决动态场景中经典运动目标检测算法检测准确率低和鲁棒性差的问题,Wang Huibin、Chen Zhe、Lu Miao 等人提出一种基于运动显著概率图的运动目标检测方法。该方法在时间尺度上构建了包含运动目标信息的长短期时间序列组, 并利用TFT (Temporal Fourier Transform)方法计算运动目标的显著性值,根据显著性值得到条件运动的显著性概率图,采用全概率公式计算后验概率值,从而得到运动目标的显著性概率图,以概率图为基础,对像素的空间信息进行建模,检测运动目标。该方法能够在复杂噪声环境下准确检测运动目标区域,并且能够提高运动目标检测的鲁棒性和普适性,但是该方法并不能检测到运动目标的完整区域[3]。



相关标签