基于Alphapose骨骼点和GRU的摔倒检测技术

发布日期:2021年4月15日
基于Alphapose骨骼点和GRU的摔倒检测技术 基于Alphapose骨骼点和GRU的摔倒检测技术

本内容试读结束

下载后可阅读完整内容,立即下载

基于现有的一些人体摔倒检测模型实现复杂,适用性差等缺点,本文提出了一种新的更加简便,适用性更强的人体摔倒检测模型。该模型是一种基于GRU神经网络和人体骨骼关键点的人体摔倒检测模型。该模型中,先通过Alphapose对每一帧图像进行人体骨骼关键点识别与检测,然后将得到的骨骼关键点数据进行归一化数据处理,再分组输入到GRU神经网络中进行时序特征提取,最后将GRU模型中隐含层的输出向量输入到全连接层进行处理并得出检测结果。本文使用的是UR Fall Detection Dataset热舒夫大学摔倒数据集进行测试实验,并与多种检测模型的实验性能进行了横向对比。实验结果表明本文的模型在多场景,多视角和多种摔倒姿势等情况下较其他模型都有较高的检测精度,且实现难度较其他模型而言要低。

我国老龄化现象不断加剧,据国家统计局公布数据显示[1],2019 年末全国大陆人口140005 万人, 我国60 周岁及以上人口2538 万人,占总人口的18.1%。其中65 周岁及以上人口17604 万人,占总人口的12.6%。由于老年人身体机能下降,摔倒后容易引起严重后果,而当前对于老人的服务资源不能满足社会要求,独生子女外出工作,摔倒的老人往往错过最佳救治时间。当老年人独自在家发生摔倒时,及时的检测能尽可能保障老人的安全。

目前,人体摔倒检测主要有基于穿戴式传感器的摔倒检测和基于计算机视觉的摔倒检测。基于穿戴式传感器的摔倒检测通常将设备放在人的身体某个部位上,由外部传感设备采集数据,提取相关数据后利用机器学习模型进行分组,检测的准确性十分依赖于提取特征值的好坏,对于设备的要求较高[2] [3]。

基于计算机视觉的摔倒检测是将摄像头放置在用户日常活动范围的固定位置,对获取的图像进行处理, 通过机器学习、深度学习等方法实现对监控视频进行摔倒检测[4]。

杨碧瑶[5]使用PCANet 提取图像特征, 依次通过两个SVM 分类器来判断是否摔倒。徐世文[6]采用CenterNet 目标检测网络,利用建立的红外图像摔倒数据集进行网络的训练与测试。Wen-Nung Lie [7]采用卷积神经网络(CNN)为每个输入帧提取2D骨架,然后使用LSTM 来对摔倒进行预测。

当前两种主流的摔倒检测方法都存在一些问题。基于穿戴式传感器的摔倒检测设备成本要求高,检测精度低,用户需要随身佩戴传感器设备导致生活不便。基于计算机视觉的摔倒检测法存在场景适应性差,不同摔倒姿势误检率高等问题[8]。针对以上问题,本文提出一种基于人体骨骼关键点的摔倒检测模型。通过使用Alphapose 实现对人体骨骼关键点特征的提取,将得到关键点坐标归一化后根据时间序列



相关标签