CN115019220B - 一种基于深度学习的姿态追踪方法及系统 - Google Patents
一种基于深度学习的姿态追踪方法及系统 Download PDFInfo
- Publication number
- CN115019220B CN115019220B CN202210409103.8A CN202210409103A CN115019220B CN 115019220 B CN115019220 B CN 115019220B CN 202210409103 A CN202210409103 A CN 202210409103A CN 115019220 B CN115019220 B CN 115019220B
- Authority
- CN
- China
- Prior art keywords
- target object
- target
- posture
- current moment
- tracking
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Image Analysis (AREA)
Abstract
本申请提供的一种基于深度学习的姿态追踪方法及系统,具体应用于目标追踪领域,该方法包括通过摄像头采集目标场景的视频数据;将视频数据输入Yolo模型,检测目标对象;构建目标对象的边界框,确定当前时刻的位置信息;针对目标对象,采用目标追踪模型获取目标追踪结果;其中,深度学习算法和联合概率数据关联算法构成目标追踪模型;基于目标追踪结果,采用人体姿态估计算法获取骨骼信息;对骨骼信息进行姿态估计,获得当前时刻的姿态估计结果;判断目标对象当前时刻的位置信息与姿态估计结果是否一致;若一致,则目标对象处于正常状态;若不一致,则目标对象处于异常状态。通过该方法提高老年人姿态追踪的准确率和精确度。
Description
技术领域
本申请涉及目标追踪领域,更具体地,涉及一种基于深度学习的姿态追踪方法及系统。
背景技术
针对老年人独居的情况,除了事前的防范之外,更重要的是在老年人发生意外时,第一时间通知家属和医院,及时进行救护。
现有技术中,通常采用智能监护和报警系统,以应对老年人的突发意外,但很少涉及实时姿态追踪的研究,如何进行更准确的姿态追踪有待进一步开发与探索。
发明内容
本发明实施例的目的在于提供一种基于深度学习的姿态追踪方法及系统,引入深度学习算法和联合概率数据关联算法,并根据位置信息与姿态估计结果确定目标对象的当前状态,提高老年人姿态追踪的准确率和精确度。具体技术方案如下:
在本发明实施例的第一方面,提供一种基于深度学习的姿态追踪方法,包括:通过摄像头采集目标场景的视频数据;将所述视频数据输入Yolo模型,检测目标对象;构建所述目标对象的边界框,确定当前时刻的位置信息;针对所述目标对象,采用目标追踪模型获取目标追踪结果;其中,深度学习算法和联合概率数据关联算法构成所述目标追踪模型;基于所述目标追踪结果,采用人体姿态估计算法获取骨骼信息;对所述骨骼信息进行姿态估计,获得当前时刻的姿态估计结果;判断所述目标对象当前时刻的位置信息与姿态估计结果是否一致;若一致,则所述目标对象处于正常状态;若不一致,则所述目标对象处于异常状态。
可选地,所述Yolo模型具体是Yolov5模型。
可选地,所述位置信息包括休息区域和活动区域。
可选地,所述针对所述目标对象,采用目标追踪模型获取目标追踪结果,包括:通过卡尔曼滤波算法检测上一时刻的目标对象,获得上一时刻的目标追踪结果;通过匈牙利算法检测当前时刻的目标对象,获得当前时刻的目标追踪结果;通过联合概率数据关联算法将上一时刻和当前时刻的目标追踪结果进行关联,获得精确的目标追踪结果。
可选地,所述基于所述目标追踪结果,采用人体姿态估计算法获取骨骼信息,包括:通过卷积神经网络提取图像特征;将所述图像特征作为输入,采用 OpenPose算法识别所述目标对象的每个关键点;采用置信度图,对每个关键点构建二分图;将PAF相关值作为边权,利用匈牙利算法得到关键点联接结果;根据所述关键点联接结果,识别出所述目标对象的骨骼信息。
可选地,所述采用人体姿态估计算法获取骨骼信息之后,还包括步骤:基于所述骨骼信息,以所述目标场景为基准,确定所述目标对象的身体倾斜角度、头部位置、面部表情以及手部动作。
可选地,所述对所述骨骼信息进行姿态估计,获得当前时刻的姿态估计结果,包括:根据所述目标对象的身体倾斜角度和头部位置与所述目标场景的相对位置关系,确定当前时刻的身体姿态;联合所述身体姿态、所述面部表情以及所述手部动作,构建当前时刻的姿态估计结果。
可选地,所述姿态估计结果包括休息姿态和活动姿态。
可选地,所述判断所述目标对象当前时刻的位置信息与姿态估计结果是否一致;若一致,则所述目标对象处于正常状态;若不一致,则所述目标对象处于异常状态,具体包括:若所述目标对象处于休息区域,且处于休息姿态,则所述目标对象处于正常状态;若所述目标对象处于活动区域,且处于活动姿态,则所述目标对象处于正常状态;若所述目标对象处于活动区域,且处于休息姿态,则所述目标对象处于异常状态;若所述目标对象处于休息区域,且处于活动姿态,则所述目标对象处于异常状态。
在本发明实施例的又一方面,提供一种基于深度学习的姿态追踪系统,其特征在于,包括:数据采集模块,用于通过摄像头采集目标场景的视频数据;目标检测模块,用于将所述视频数据输入Yolo模型,检测目标对象;位置确定模块,用于构建所述目标对象的边界框,确定当前时刻的位置信息;目标追踪模块,用于针对所述目标对象,采用目标追踪模型获取目标追踪结果;其中,深度学习算法和联合概率数据关联算法构成所述目标追踪模型;骨骼信息获取模块,用于基于所述目标追踪结果,采用人体姿态估计算法获取骨骼信息;姿态估计模块,用于对所述骨骼信息进行姿态估计,获得当前时刻的姿态估计结果;状态确定模块,用于判断所述目标对象当前时刻的位置信息与姿态估计结果是否一致;若一致,则所述目标对象处于正常状态;若不一致,则所述目标对象处于异常状态。
可选地,所述Yolo模型具体是Yolov5模型。
可选地,所述位置信息包括休息区域和活动区域。
可选地,所述目标追踪模块,具体用于通过卡尔曼滤波算法检测上一时刻的目标对象,获得上一时刻的目标追踪结果;通过匈牙利算法检测当前时刻的目标对象,获得当前时刻的目标追踪结果;通过联合概率数据关联算法将上一时刻和当前时刻的目标追踪结果进行关联,获得精确的目标追踪结果。
可选地,所述骨骼信息获取模块,具体用于通过卷积神经网络提取图像特征;将所述图像特征作为输入,采用OpenPose算法识别所述目标对象的每个关键点;采用置信度图,对每个关键点构建二分图;将PAF相关值作为边权,利用匈牙利算法得到关键点联接结果;根据所述关键点联接结果,识别出所述目标对象的骨骼信息。
可选地,所述骨骼信息获取模块还包括骨骼确定子模块,用于基于所述骨骼信息,以所述目标场景为基准,确定所述目标对象的身体倾斜角度、头部位置、面部表情以及手部动作。
可选地,所述姿态估计模块,具体用于根据所述目标对象的身体倾斜角度和头部位置与所述目标场景的相对位置关系,确定当前时刻的身体姿态;联合所述身体姿态、所述面部表情以及所述手部动作,构建当前时刻的姿态估计结果。
可选地,所述姿态估计结果包括休息姿态和活动姿态。
可选地,所述状态确定模块,具体用于若所述目标对象处于休息区域,且处于休息姿态,则所述目标对象处于正常状态;若所述目标对象处于活动区域,且处于活动姿态,则所述目标对象处于正常状态;若所述目标对象处于活动区域,且处于休息姿态,则所述目标对象处于异常状态;若所述目标对象处于休息区域,且处于活动姿态,则所述目标对象处于异常状态。
有益效果:
通过摄像头采集目标场景的视频数据;将视频数据输入Yolo模型,检测目标对象;构建目标对象的边界框,确定当前时刻的位置信息;针对目标对象,采用目标追踪模型获取目标追踪结果;其中,深度学习算法和联合概率数据关联算法构成目标追踪模型;基于目标追踪结果,采用人体姿态估计算法获取骨骼信息;对骨骼信息进行姿态估计,获得当前时刻的姿态估计结果;判断目标对象当前时刻的位置信息与姿态估计结果是否一致;若一致,则目标对象处于正常状态;若不一致,则目标对象处于异常状态。通过该方法提高老年人姿态追踪的准确率和精确度。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本申请实施例提供的一种基于深度学习的姿态追踪方法的流程示意图;
图2是本申请实施例提供的目标对象姿态的关键点示意图;
图3是本申请实施例提供的一种基于深度学习的姿态追踪系统的结构示意图。
具体实施方式
为使本申请实施例的目的、技术方案和优点更加清楚,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本申请一部分实施例,而不是全部的实施例。通常在此处附图中描述和示出的本申请实施例的组件可以以各种不同的配置来布置和设计。
因此,以下对在附图中提供的本申请的实施例的详细描述并非旨在限制要求保护的本申请的范围,而是仅仅表示本申请的选定实施例。基于本申请中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
本申请实施例提供了一种基于深度学习的姿态追踪方法及系统,包括通过摄像头采集目标场景的视频数据;将视频数据输入Yolo模型,检测目标对象;构建目标对象的边界框,确定当前时刻的位置信息;针对目标对象,采用目标追踪模型获取目标追踪结果;其中,深度学习算法和联合概率数据关联算法构成目标追踪模型;基于目标追踪结果,采用人体姿态估计算法获取骨骼信息;对骨骼信息进行姿态估计,获得当前时刻的姿态估计结果;判断目标对象当前时刻的位置信息与姿态估计结果是否一致;若一致,则目标对象处于正常状态;若不一致,则目标对象处于异常状态。通过该方法提高老年人姿态追踪的准确率和精确度。
该基于深度学习的姿态追踪方法及系统,具体可以集成在电子设备中,该电子设备可以为终端、服务器等设备。其中,终端可以为光场摄像机、车载相机、手机、平板电脑、智能蓝牙设备、笔记本电脑、或者个人电脑(Personal Computer,PC)等设备;服务器可以是单一服务器,也可以是由多个服务器组成的服务器集群。
可以理解的是,本实施例的该基于深度学习的姿态追踪方法及系统可以是在终端上执行的,也可以是在服务器上执行,还可以由终端和服务器共同执行的。以上举例不应理解为对本申请的限制。
图1示出了本申请实施例提供的基于深度学习的姿态追踪方法的流程示意图,请参考图1,具体包括如下步骤:
S110、通过摄像头采集目标场景的视频数据。
其中,可以采用单目RGB摄像头采集目标对象的二维图像信息。目标场景可以是家或老年活动中心。
S120、将所述视频数据输入Yolo模型,检测目标对象。
其中,Yolo模型具体是Yolov5模型。目标对象可以是需要关注的人,如老年人、残疾人或小孩。
具体地,Yolo模型由CBM、CBL、Resunit残差网络、CSPNet网络结构、SPP 组成。其中SPP采用平均池化方式进行多尺度融合。
S130、构建所述目标对象的边界框,确定当前时刻的位置信息。
其中,位置信息可以包括休息区域和活动区域。更具体地,活动区域可以划分为书房、厨房、卫生间或客厅。
可选地,可以采用Canny算子、Laplacian算子等进行边缘检测,构建目标对象的边界框。
进一步地,基于上述方式确定的边界框,确定当前时刻目标对象相对于目标场景的位置信息。
S140、针对所述目标对象,采用目标追踪模型获取目标追踪结果。
其中,所述目标追踪模型可以由深度学习算法和联合概率数据关联算法构成,由此步骤S140可以具体包括以下步骤:
S141、通过卡尔曼滤波算法检测上一时刻的目标对象,获得上一时刻的目标追踪结果。
其中,卡尔曼滤波算法可以是无迹卡尔曼滤波算法。
S142、通过匈牙利算法检测当前时刻的目标对象,获得当前时刻的目标追踪结果。
S143、通过联合概率数据关联算法将上一时刻和当前时刻的目标追踪结果进行关联,获得精确的目标追踪结果。
其中,联合概率数据关联算法通过计算目标与量测的关联概率来更新状态,考虑了所有目标和量测对关联概率的影响,具有很好的关联效果。
具体地,使用ω代表确认函数;利用互联矩阵表示关联目标;构建量测互联向量和目标检测互联向量;进而进行互联事件概率计算。
由此,获得的目标追踪结果准确率更高。
S150、基于所述目标追踪结果,采用人体姿态估计算法获取骨骼信息。
在一种实施方式中,步骤S150可以具体包括以下步骤:
S151、通过卷积神经网络提取图像特征。
S152、将所述图像特征作为输入,采用OpenPose算法识别所述目标对象的每个关键点。
具体地,参见如图2示出的目标对象姿态的关键点示意图,从二维图像中获得25个关键点,通过与标准人体姿态对比,可以得到准确描述人体特征的关键点(1,8,9,10,11,12,13,14),利用OpenPose获得人体在图像坐标系中姿态改变特征关键点的原始数据,包括颈部位置(1),尾椎位置(8)、髋部位置(9、12)、膝盖位置(10、13)以及踝部位置(11、14)等,构建姿态改变关键点的向量。
S153、采用置信度图,对每个关键点构建二分图。
S154、将PAF相关值作为边权,利用匈牙利算法得到关键点联接结果。
S155、根据所述关键点联接结果,识别出所述目标对象的骨骼信息。
可选地,可以基于姿态改变关键点的向量,计算人体关键点的偏移程度及身形,将其作为表征人体倾斜姿态的关键偏移量,用来描述人体活动过程中人体姿态的变化;将人体关键偏移量融合为人体倾斜姿态特征向量以及人体直立姿态特征向量,并依据姿态特征,获取骨骼信息。
在又一种实施方式中,步骤S150后还包括步骤:
S151、基于所述骨骼信息,以所述目标场景为基准,确定所述目标对象的身体倾斜角度、头部位置、面部表情以及手部动作。
S160、对所述骨骼信息进行姿态估计,获得当前时刻的姿态估计结果。
在一种实施方式中,步骤S160具体包括以下步骤:
S161、根据所述目标对象的身体倾斜角度和头部位置与所述目标场景的相对位置关系,确定当前时刻的身体姿态。
其中,基于目标场景构建一个直角坐标系(x,y);若所述目标对象的身体倾斜角度平行于x轴,且头部位置位于x轴上,则目标对象当前处于平躺姿态;若所述目标对象的身体倾斜角度平行于y轴,则目标对象当前处于直立姿态。
S162、联合所述身体姿态、所述面部表情以及所述手部动作,构建当前时刻的姿态估计结果。
可选地,所述姿态估计结果可以包括休息姿态和活动姿态。
在一种实施方式中,可以通过如下公式将所述身体姿态、所述面部表情以及所述手部动作进行取值:
其中,BO代表身体姿态的值。
其中,FA代表面部表情的值。
其中,HA代表手部动作的值。
进一步地,通过如下公式计算当前时刻的姿态估计结果:
ZT=BO+αFA+βHA
其中,α和β是权重参数,其值根据目标对象的生活习惯和年龄预先设定。
进一步地,当ZT≥1时,当前时刻处于活动姿态;当ZT<1时,当前时刻处于休息姿态。
由此考虑多种因素对人体姿态变化的影响,如身体倾斜角度、头部位置、面部、手部等,并将其数值化,能够获得更精确的姿态估计结果。
S170、判断所述目标对象当前时刻的位置信息与姿态估计结果是否一致;若一致,则所述目标对象处于正常状态;若不一致,则所述目标对象处于异常状态。
其中,若所述目标对象处于休息区域,且处于休息姿态,则所述目标对象处于正常状态;若所述目标对象处于活动区域,且处于活动姿态,则所述目标对象处于正常状态;若所述目标对象处于活动区域,且处于休息姿态,则所述目标对象处于异常状态;若所述目标对象处于休息区域,且处于活动姿态,则所述目标对象处于异常状态。
该实施方式引入深度学习算法和联合概率数据关联算法,并根据位置信息与姿态估计结果确定目标对象的当前状态,能够提高老年人姿态追踪的准确率和精确度。
为实现上述方法类实施例,本实施例还提供一种基于深度学习的姿态追踪系统,如图3所示,该系统包括:
数据采集模块310,用于通过摄像头采集目标场景的视频数据。
目标检测模块320,用于将所述视频数据输入Yolo模型,检测目标对象。
位置确定模块330,用于构建所述目标对象的边界框,确定当前时刻的位置信息。
目标追踪模块340,用于针对所述目标对象,采用目标追踪模型获取目标追踪结果;其中,深度学习算法和联合概率数据关联算法构成所述目标追踪模型。
骨骼信息获取模块350,用于基于所述目标追踪结果,采用人体姿态估计算法获取骨骼信息。
姿态估计模块360,用于对所述骨骼信息进行姿态估计,获得当前时刻的姿态估计结果。
状态确定模块370,用于判断所述目标对象当前时刻的位置信息与姿态估计结果是否一致;若一致,则所述目标对象处于正常状态;若不一致,则所述目标对象处于异常状态。
可选地,所述Yolo模型具体是Yolov5模型。
可选地,所述位置信息包括休息区域和活动区域。
可选地,所述目标追踪模块340,具体用于通过卡尔曼滤波算法检测上一时刻的目标对象,获得上一时刻的目标追踪结果;通过匈牙利算法检测当前时刻的目标对象,获得当前时刻的目标追踪结果;通过联合概率数据关联算法将上一时刻和当前时刻的目标追踪结果进行关联,获得精确的目标追踪结果。
可选地,所述骨骼信息获取模块350,具体用于通过卷积神经网络提取图像特征;将所述图像特征作为输入,采用OpenPose算法识别所述目标对象的每个关键点;采用置信度图,对每个关键点构建二分图;将PAF相关值作为边权,利用匈牙利算法得到关键点联接结果;根据所述关键点联接结果,识别出所述目标对象的骨骼信息。
可选地,所述骨骼信息获取模块350还包括骨骼确定子模块351,用于基于所述骨骼信息,以所述目标场景为基准,确定所述目标对象的身体倾斜角度、头部位置、面部表情以及手部动作。
可选地,所述姿态估计模块360,具体用于根据所述目标对象的身体倾斜角度和头部位置与所述目标场景的相对位置关系,确定当前时刻的身体姿态;联合所述身体姿态、所述面部表情以及所述手部动作,构建当前时刻的姿态估计结果。
可选地,所述姿态估计结果包括休息姿态和活动姿态。
可选地,所述状态确定模块370,具体用于若所述目标对象处于休息区域,且处于休息姿态,则所述目标对象处于正常状态;若所述目标对象处于活动区域,且处于活动姿态,则所述目标对象处于正常状态;若所述目标对象处于活动区域,且处于休息姿态,则所述目标对象处于异常状态;若所述目标对象处于休息区域,且处于活动姿态,则所述目标对象处于异常状态。
由此该基于深度学习的姿态追踪系统,引入深度学习算法和联合概率数据关联算法,并根据位置信息与姿态估计结果确定目标对象的当前状态,提高老年人姿态追踪的准确率和精确度。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述装置中模块/单元/子单元/组件的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在本申请所提供的实施例中,应该理解到,所揭露装置和方法,可以通过其它的方式实现。以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,又例如,多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些通信接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请提供的实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。
所述功能如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本申请各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步定义和解释,此外,术语“第一”、“第二”、“第三”等仅用于区分描述,而不能理解为指示或暗示相对重要性。
最后应说明的是:以上所述实施例,仅为本申请的具体实施方式,用以说明本申请的技术方案,而非对其限制,本申请的保护范围并不局限于此,尽管参照前述实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,其依然可以对前述实施例所记载的技术方案进行修改或可轻易想到变化,或者对其中部分技术特征进行等同替换;而这些修改、变化或者替换,并不使相应技术方案的本质脱离本申请实施例技术方案的精神和范围。都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应以所述权利要求的保护范围为准。
Claims (8)
1.一种基于深度学习的姿态追踪方法,其特征在于,包括:
通过摄像头采集目标场景的视频数据;
将所述视频数据输入Yolo模型,检测目标对象;
构建所述目标对象的边界框,确定当前时刻的位置信息;
针对所述目标对象,采用目标追踪模型获取目标追踪结果;其中,深度学习算法和联合概率数据关联算法构成所述目标追踪模型;
基于所述目标追踪结果,采用人体姿态估计算法获取骨骼信息;
根据所述目标对象的身体倾斜角度和头部位置与所述目标场景的相对位置关系,确定当前时刻的身体姿态;
联合所述身体姿态、面部表情以及手部动作,构建当前时刻的姿态估计结果;通过如下公式计算当前时刻的姿态估计结果:
ZT=BO+αFA+βHA
其中,α和β是权重参数,BO代表身体姿态的值,FA代表面部表情的值,HA代表手部动作的值;
当ZT≥1时,所述目标对象当前时刻处于活动姿态;当ZT<1时,所述目标对象当前时刻处于休息姿态;
若所述目标对象处于休息区域,且处于休息姿态,则所述目标对象处于正常状态;
若所述目标对象处于活动区域,且处于活动姿态,则所述目标对象处于正常状态;
若所述目标对象处于活动区域,且处于休息姿态,则所述目标对象处于异常状态;
若所述目标对象处于休息区域,且处于活动姿态,则所述目标对象处于异常状态。
2.根据权利要求1所述的方法,其特征在于,所述Yolo模型具体是Yolov5模型。
3.根据权利要求1所述的方法,其特征在于,所述位置信息包括休息区域和活动区域。
4.根据权利要求1所述的方法,其特征在于,所述针对所述目标对象,采用目标追踪模型获取目标追踪结果,包括:
通过卡尔曼滤波算法检测上一时刻的目标对象,获得上一时刻的目标追踪结果;
通过匈牙利算法检测当前时刻的目标对象,获得当前时刻的目标追踪结果;
通过联合概率数据关联算法将上一时刻和当前时刻的目标追踪结果进行关联,获得精确的目标追踪结果。
5.根据权利要求1所述的方法,其特征在于,所述基于所述目标追踪结果,采用人体姿态估计算法获取骨骼信息,包括:
通过卷积神经网络提取图像特征;
将所述图像特征作为输入,采用OpenPose算法识别所述目标对象的每个关键点;
采用置信度图,对每个关键点构建二分图;
将PAF相关值作为边权,利用匈牙利算法得到关键点联接结果;
根据所述关键点联接结果,识别出所述目标对象的骨骼信息。
6.根据权利要求3所述的方法,其特征在于,所述采用人体姿态估计算法获取骨骼信息之后,还包括步骤:
基于所述骨骼信息,以所述目标场景为基准,确定所述目标对象的身体倾斜角度、头部位置、面部表情以及手部动作。
7.根据权利要求6所述的方法,其特征在于,所述姿态估计结果包括休息姿态和活动姿态。
8.一种基于深度学习的姿态追踪系统,其特征在于,包括:
数据采集模块,用于通过摄像头采集目标场景的视频数据;
目标检测模块,用于将所述视频数据输入Yolo模型,检测目标对象;
位置确定模块,用于构建所述目标对象的边界框,确定当前时刻的位置信息;
目标追踪模块,用于针对所述目标对象,采用目标追踪模型获取目标追踪结果;其中,深度学习算法和联合概率数据关联算法构成所述目标追踪模型;
骨骼信息获取模块,用于基于所述目标追踪结果,采用人体姿态估计算法获取骨骼信息;
姿态估计模块,用于对所述骨骼信息进行姿态估计,获得当前时刻的姿态估计结果;
所述姿态估计模块进一步用于:
根据所述目标对象的身体倾斜角度和头部位置与所述目标场景的相对位置关系,确定当前时刻的身体姿态;
联合所述身体姿态、面部表情以及手部动作,构建当前时刻的姿态估计结果;通过如下公式计算当前时刻的姿态估计结果:
ZT=BO+αFA+βHA
其中,α和β是权重参数,BO代表身体姿态的值,FA代表面部表情的值,HA代表手部动作的值;
当ZT≥1时,所述目标对象当前时刻处于活动姿态;当ZT<1时,所述目标对象当前时刻处于休息姿态;
状态确定模块,用于判断所述目标对象当前时刻的位置信息与姿态估计结果是否一致;若一致,则所述目标对象处于正常状态;若不一致,则所述目标对象处于异常状态;
所述状态确定模块进一步用于:若所述目标对象处于休息区域,且处于休息姿态,则所述目标对象处于正常状态;
若所述目标对象处于活动区域,且处于活动姿态,则所述目标对象处于正常状态;
若所述目标对象处于活动区域,且处于休息姿态,则所述目标对象处于异常状态;
若所述目标对象处于休息区域,且处于活动姿态,则所述目标对象处于异常状态。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210409103.8A CN115019220B (zh) | 2022-04-19 | 2022-04-19 | 一种基于深度学习的姿态追踪方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210409103.8A CN115019220B (zh) | 2022-04-19 | 2022-04-19 | 一种基于深度学习的姿态追踪方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN115019220A CN115019220A (zh) | 2022-09-06 |
CN115019220B true CN115019220B (zh) | 2023-02-03 |
Family
ID=83067268
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210409103.8A Active CN115019220B (zh) | 2022-04-19 | 2022-04-19 | 一种基于深度学习的姿态追踪方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115019220B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115240402B (zh) * | 2022-07-13 | 2023-04-07 | 北京拙河科技有限公司 | 一种观光车调度方法和系统 |
CN115969356A (zh) * | 2022-12-12 | 2023-04-18 | 北京顺源辰辰科技发展有限公司 | 一种基于智能滑轨的多模态的行为监测方法和装置 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109635851A (zh) * | 2018-11-23 | 2019-04-16 | 武汉风行在线技术有限公司 | 一种基于人脸多特征融合的智能电视用户疲劳检测系统及方法 |
CN109636831A (zh) * | 2018-12-19 | 2019-04-16 | 安徽大学 | 一种估计三维人体姿态及手部信息的方法 |
CN113688736A (zh) * | 2021-08-25 | 2021-11-23 | 燕山大学 | 一种对患者健康状况进行分析监测的方法 |
CN114220176A (zh) * | 2021-12-22 | 2022-03-22 | 南京华苏科技有限公司 | 一种基于深度学习的人体行为的识别方法 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5617166B2 (ja) * | 2009-02-09 | 2014-11-05 | 日本電気株式会社 | 回転推定装置、回転推定方法およびプログラム |
US20200064444A1 (en) * | 2015-07-17 | 2020-02-27 | Origin Wireless, Inc. | Method, apparatus, and system for human identification based on human radio biometric information |
CN107320081B (zh) * | 2017-07-03 | 2019-11-15 | 北京大学 | 对吸毒人员进行复吸监测的方法和系统 |
CN111931585A (zh) * | 2020-07-14 | 2020-11-13 | 东云睿连(武汉)计算技术有限公司 | 一种课堂专注度的检测方法及装置 |
-
2022
- 2022-04-19 CN CN202210409103.8A patent/CN115019220B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109635851A (zh) * | 2018-11-23 | 2019-04-16 | 武汉风行在线技术有限公司 | 一种基于人脸多特征融合的智能电视用户疲劳检测系统及方法 |
CN109636831A (zh) * | 2018-12-19 | 2019-04-16 | 安徽大学 | 一种估计三维人体姿态及手部信息的方法 |
CN113688736A (zh) * | 2021-08-25 | 2021-11-23 | 燕山大学 | 一种对患者健康状况进行分析监测的方法 |
CN114220176A (zh) * | 2021-12-22 | 2022-03-22 | 南京华苏科技有限公司 | 一种基于深度学习的人体行为的识别方法 |
Non-Patent Citations (2)
Title |
---|
基于全方位视觉的独居老人监护系统;马宝庆等;《计算机工程》;20130815(第08期);正文第45-48页 * |
基于凸型模板的目标行为识别算法;张瑞等;《无线电通信技术》;20170718(第04期);79-83 * |
Also Published As
Publication number | Publication date |
---|---|
CN115019220A (zh) | 2022-09-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN115019220B (zh) | 一种基于深度学习的姿态追踪方法及系统 | |
Von Marcard et al. | Sparse inertial poser: Automatic 3d human pose estimation from sparse imus | |
CN111666857B (zh) | 基于环境语义理解的人体行为识别方法、装置及存储介质 | |
CN104487915B (zh) | 维持扩增的连续性 | |
CN107219925B (zh) | 姿势检测方法、装置及服务器 | |
JP2022521844A (ja) | 深層学習ネットワークを使用してユーザ写真から体重を測定するシステム及び方法 | |
US11298050B2 (en) | Posture estimation device, behavior estimation device, storage medium storing posture estimation program, and posture estimation method | |
CN111445531B (zh) | 一种多目相机导航方法、装置、设备及存储介质 | |
US20210319585A1 (en) | Method and system for gaze estimation | |
CN112308932A (zh) | 一种注视检测方法、装置、设备及存储介质 | |
CN112163566A (zh) | 视频图像的监控方法和装置 | |
CN111582204A (zh) | 姿态检测方法、装置、计算机设备及存储介质 | |
Pinitkan et al. | Abnormal activity detection and notification platform for real-time ad hoc network | |
Liu et al. | Automatic fall risk detection based on imbalanced data | |
CN113688740B (zh) | 一种基于多传感器融合视觉的室内姿势检测方法 | |
CN113384267A (zh) | 一种跌倒实时检测方法、系统、终端设备及存储介质 | |
WO2021250808A1 (ja) | 画像処理装置、画像処理方法、及びプログラム | |
CN117392746A (zh) | 康复训练评估辅助方法、装置、计算机设备和存储介质 | |
CN112818874A (zh) | 一种图像处理方法、装置、设备及存储介质 | |
CN114202797A (zh) | 行为识别方法、装置和存储介质 | |
WO2022079794A1 (ja) | 画像選択装置、画像選択方法、及びプログラム | |
WO2022009327A1 (ja) | 画像選択装置、画像選択方法、及びプログラム | |
CN114202804A (zh) | 行为动作识别方法、装置、处理设备及存储介质 | |
JP7468642B2 (ja) | 画像処理装置、画像処理方法、及びプログラム | |
JP7435754B2 (ja) | 画像選択装置、画像選択方法、及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |