CN112801061A - 一种体态识别方法及系统 - Google Patents

一种体态识别方法及系统 Download PDF

Info

Publication number
CN112801061A
CN112801061A CN202110373740.XA CN202110373740A CN112801061A CN 112801061 A CN112801061 A CN 112801061A CN 202110373740 A CN202110373740 A CN 202110373740A CN 112801061 A CN112801061 A CN 112801061A
Authority
CN
China
Prior art keywords
network
representing
point
posture
dimensional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202110373740.XA
Other languages
English (en)
Inventor
赵敏
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing Bailence Intelligent Technology Co Ltd
Original Assignee
Nanjing Bailence Intelligent Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing Bailence Intelligent Technology Co Ltd filed Critical Nanjing Bailence Intelligent Technology Co Ltd
Priority to CN202110373740.XA priority Critical patent/CN112801061A/zh
Publication of CN112801061A publication Critical patent/CN112801061A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本发明实施例提出了一种体态识别方法及系统,所述体态识别方法包括:获取操作过程中的深度图像数据集,并进行预处理;对进行预处理后的深度图像数据集进行时序特征和空间特征的提取;根据特征融合结果,进行行为分类预测;输出预测结果;将所述预测结果与标准数据库中模板进行比对;根据比对结果生成评价报告,并输出。本发明通对深度图像的获取,以及时序特征和空间特征的融合,更好地获得识别准确率更高的判断结果。除此之外,在网络识别模型在网络训练过程中,采用了一种两阶段的识别过程,针对训练过程,通过二维人体姿态和三维骨骼点回归训练,解决了姿态多样性的问题,完善三维人体姿态识别结果。

Description

一种体态识别方法及系统
技术领域
本发明涉及一种体态识别方法及系统,特别是涉及图像数据处理技术领域。
背景技术
近年来,随着计算机技术的快速发展,智能机器设备得到了较大的提升。三维人体动作作为日常生活中的信息传达方式,其动作识别在应用方面具备可远距离采集,跟踪性能好等特点。
针对教学过程中,在对学生的规范操作进行评判时,由于评价教师和学生数量的不对等,既消耗师资力量也容易在评判的过程中出现主观影响,从而出现评估结果真实性不够可观。除此之外由于现有技术中,对人物姿态识别的采用的设备技术,由于遮挡以及识别模型的识别准确度不够高的问题,往往会出现测评结果,真实性较低的问题。
发明内容
发明目的:提出一种体态识别方法及系统,以解决现有技术存在的上述问题。
技术方案:第一方面,提出了一种体态识别方法,该方法包括:
获取操作过程中的深度图像数据集,并进行预处理;
对进行预处理后的深度图像数据集进行时序特征和空间特征的提取;
根据特征融合结果,进行行为分类预测;
输出预测结果;
将所述预测结果与标准数据库中模板进行比对;
根据比对结果生成评价报告,并输出。
在第一方面的一些可实现方式中,通过一种深度相机模型,对操作过程中的深度图像进行采集;所述深度相机模型包括红外发射器和红外摄像机;所述红外发射器中的发射红外线和接收红外线形成深度场,用于确定采集数据的深度信息。
在第一方面的一些可实现方式中,所述红外发射器用于不断地发射连续且频率固定的正弦光波。
所述红外线摄像机用于捕捉反射回的信号。
当捕捉待反射回来的正弦波之后,对两种光波的相位差进行计算,从而获得深度信息;当光速为
Figure 100002_DEST_PATH_IMAGE002
,发射与接收到的光波相位差为
Figure 100002_DEST_PATH_IMAGE004
,光波的频率为
Figure 100002_DEST_PATH_IMAGE006
时,物体的深度D的表达式为:
Figure 100002_DEST_PATH_IMAGE008
式中,D表示物体的深度;
Figure 494259DEST_PATH_IMAGE002
表示光速;
Figure 777473DEST_PATH_IMAGE004
表示发射与接收到的光波相位差;
Figure 209722DEST_PATH_IMAGE006
表示光波的频率。
在第一方面的一些可实现方式中,所述深度图像数据集中,每一个深度图中,将像素点由两个字节组成,字节其中的前三位用于表示用户的索引信息,剩余位数表示侦测对象的深度信息。
在第一方面的一些可实现方式中,所述预处理包括对遮挡部位的关节修复,通过记录手肘-手腕、手腕-手掌距离,当手腕、手掌部位被遮挡且未被追踪到时,应用前向运动学,判断手掌位置,并采用修复后的关节点进行后续追踪和信息提取。
在第一方面的一些可实现方式中,获取预处理后的深度图像数据集,将捕捉到的骨骼点坐标数据转换为矩阵后,归一化区间数值,并将其输入神经网络中进行特征提取,接着采用矩阵合并的方式将抽象的时序特征和空间特征融合,最后使用softmax函数得到分类结果,最后将处理结果输出。
在第一方面的一些可实现方式中,所述神经网络的模型为:
Figure 100002_DEST_PATH_IMAGE010
式中,
Figure 100002_DEST_PATH_IMAGE012
表示数据的输出;
Figure 100002_DEST_PATH_IMAGE014
表示数据的输入;M表示权重矩阵,I表示单位矩阵;
Figure 100002_DEST_PATH_IMAGE016
表示第k个样本邻接矩阵和关联矩阵的拉普拉斯归一化。
神经网络中在模型识别的过程中通过选取人体中心为基准,用重心点到其他各个骨骼点的连线表示各个骨骼点到人体重心的相对距离,添加注意力机制,进一步扩大类间方差。
在第一方面的一些可实现方式中,采用的神经网络在网络训练过程中,分为二维人体姿态和三维骨骼点回归训练,在二维的姿态识别过程中,图中标注的骨骼点坐标先转换为热度图形式,表达式如下:
Figure 100002_DEST_PATH_IMAGE018
式中,
Figure 100002_DEST_PATH_IMAGE020
表示骨骼点的真实标注位置;
Figure 100002_DEST_PATH_IMAGE022
表示方差;
Figure 100002_DEST_PATH_IMAGE024
表示模板中心点位置;二维姿态识别采用的总损失函数为:
Figure 100002_DEST_PATH_IMAGE026
式中,N表示一批次中用于训练的图像数目;
Figure 100002_DEST_PATH_IMAGE028
表示预测第n个骨骼点的二维位置;
Figure 100002_DEST_PATH_IMAGE030
表示二维中第n个骨骼点的真实标注位置;
Figure 100002_DEST_PATH_IMAGE032
表示转换后的热度图;
三维骨骼回归中,先对预测网络进行粗训练,然后在粗预测网络参数不变的情况下,再次训练人体骨架网络,最后,冻结粗预测网络和人体骨架网络参数,对重投影网络进行训练,该损失函数如下表达式所示:
Figure 100002_DEST_PATH_IMAGE034
式中,N表示一批次中用于训练的图像数目;
Figure 100002_DEST_PATH_IMAGE036
表示三维中第n个骨骼点的真实标注位置;
Figure 100002_DEST_PATH_IMAGE038
表示人体骨架网络预测第n个骨骼点的三维位置;
Figure 100002_DEST_PATH_IMAGE040
表示重投影网络预测第n个骨骼点的三维位置;
Figure 100002_DEST_PATH_IMAGE042
表示粗预测网络预测第n个骨骼点的三维位置。
第二方面,提出一种体态识别系统,该系统具体包括:
用于获取操作过程中的深度图像数据集,并进行预处理的第一模块;
用于进行特征提取的第二模块;
用于进行行为分类预测的第三模块;
用于输出预测结果的第四模块;
用于将所述预测结果与标准数据库中模板进行比对的第五模块;
用于根据比对结果生成评价报告,并输出的第六模块。
在第二方面的一些可实现方式中,所述第一模块包括红外发射器、红外摄像机和数据预处理模块;所述红外发射器用于不断地发射连续且频率固定的正弦光波;所述红外线摄像机用于捕捉反射回的信号;所述红外发射器中的发射红外线和接收红外线形成深度场,用于确定采集数据的深度信息;所述数据预处理模块用于对遮挡部位进行关节修复,通过记录手肘-手腕、手腕-手掌距离,当手腕、手掌部位被遮挡且未被追踪到时,应用前向运动学,判断手掌位置,并采用修复后的关节点进行后续追踪和信息提取。
所述第二模块包括用于提取特征的神经网络模型,所述神经网络模型通过选取人体中心为基准,用重心点到其他各个骨骼点的连线表示各个骨骼点到人体重心的相对距离,添加注意力机制。
采用的神经网络模型在网络训练过程中,分为二维人体姿态和三维骨骼点回归训练,所述三维骨骼点回归中,先对预测网络进行粗训练,然后在粗预测网络参数不变的情况下,再次训练人体骨架网络,最后,冻结粗预测网络和人体骨架网络参数,对重投影网络进行训练。
所述第三模块使用softmax函数得到分类结果。
有益效果:本发明提出了一种体态识别方法及系统,通对深度图像的获取,以及时序特征和空间特征的融合,更好地获得识别准确率更高的判断结果。除此之外,在网络识别模型在网络训练过程中,采用了一种两阶段的识别过程,针对训练过程,通过二维人体姿态和三维骨骼点回归训练,其中,三维骨骼点回归中,先对预测网络进行粗训练,然后在粗预测网络参数不变的情况下,再次训练人体骨架网络,最后,冻结粗预测网络和人体骨架网络参数,对重投影网络进行训练;解决了姿态多样性的问题,完善三维人体姿态识别结果。
附图说明
图1为本发明的数据处理流程图。
图2为本发明深度信息获取场景示意图。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。
在一个实施例中,我们提出了一种体态识别方法,用于在实验教学过程中,对学生进行操作规范度的评价,如图1所示,该方法具体划分为以下步骤:
步骤一、获取学生操作过程中对应的数据集;
步骤二、对数据集进行判断处理,输出处理结果;
步骤三、输出结果与标准数据库中模板进行比对;
步骤四、根据比对结果生成评价报告,并输出。
具体的,通过一种深度相机模型,对学生操作过程中的深度图像进行采集。其中,所述深度相机模型包括红外发射器和红外摄像机,红外发射器中的发射红外线和接收红外线形成深度场,用于确定采集数据的深度信息。红外发射器不断地发射连续且频率固定的正弦光波,反射回的信号由红外线摄像机的摄像头进行捕捉,当捕捉待反射回来的正弦波之后,对两种光波的相位差进行计算,从而获得深度信息。如图2场景所示,当光速为
Figure 772029DEST_PATH_IMAGE002
,发射与接收到的光波相位差为
Figure 705349DEST_PATH_IMAGE004
,光波的频率为
Figure 216971DEST_PATH_IMAGE006
时,物体的深度D的表达式为:
Figure DEST_PATH_IMAGE008A
为了确保对学生操作过程中不会出现采集到的他人动作信息,从而出现误判的情况,所以,本申请的每一个深度图中,将像素点由两个字节组成,字节其中的前三位用于表示用户的索引信息,剩余位数表示侦测对象的深度信息。
在数据进行判断处理过程中,为了克服因部分部位被遮挡,从而导致数据可信度不高的问题,根据骨骼数据进行关节修复。正常追踪过程中,通过记录手肘-手腕、手腕-手掌距离,当手腕、手掌部位被遮挡且未被追踪到时,则应用前向运动学,推测手掌位置,并采用该点进行后续追踪和信息提取等。通过对被遮挡尾部的手部位置的修复,可以确保后续处理过程中所需参数的准确性,从而保障最终评测结果的真实性和可靠性。
当捕捉到骨骼点的坐标数据矩阵后,归一化区间数值,并将其输入神经网络中进行特征提取,接着采用矩阵合并的方式将上述抽象特征融合,最后使用softmax函数得到分类结果,最后将处理结果输出,用于对比评价。
其中,神经网络的模型为:
Figure DEST_PATH_IMAGE044
式中,
Figure 85701DEST_PATH_IMAGE012
表示数据的输出;
Figure 308872DEST_PATH_IMAGE014
表示数据的输入;M表示权重矩阵,I表示单位矩阵;
Figure 780305DEST_PATH_IMAGE016
表示第k个样本邻接矩阵和关联矩阵的拉普拉斯归一化。输入特征
Figure 897165DEST_PATH_IMAGE014
具体表示为:
Figure DEST_PATH_IMAGE046
式中,X表示特征维度;Y表示帧数;Z表示单个骨骼的骨骼点个数。
神经网络中在模型识别的过程中添加注意力机制,注意力机制可以增强距离人体重心点较远以及运动幅度较大的骨骼点的表征能力,进一步增加不同人体行为的类间方差,使神经网络更容易辨别到不同人体行为。为了更好的呈现数据流之间的互补关系,将骨骼点在时间维度上的运动状态与空间特征流进行融合,从而更好地提升判断准确度。
采用的网络识别模型在网络训练过程中,分为二维人体姿态和三维骨骼点回归训练,在二维的姿态识别过程中,图中标注的骨骼点坐标先转换为热度图形式,表达式如下:
Figure DEST_PATH_IMAGE018A
式中,
Figure 700911DEST_PATH_IMAGE020
表示骨骼点的真实标注位置;
Figure 411378DEST_PATH_IMAGE022
表示方差;
Figure 30709DEST_PATH_IMAGE024
表示模板中心点位置。二维姿态识别采用的总损失函数为:
Figure DEST_PATH_IMAGE026A
式中,N表示一批次中用于训练的图像数目;
Figure 205339DEST_PATH_IMAGE028
表示预测第n个骨骼点的二维位置;
Figure 648827DEST_PATH_IMAGE030
表示二维中第n个骨骼点的真实标注位置;
Figure 846590DEST_PATH_IMAGE032
表示转换后的热度图。
三维骨骼回归中,先对预测网络进行粗训练,然后在粗预测网络参数不变的情况下,再次训练人体骨架网络,最后,冻结粗预测网络和人体骨架网络参数,对重投影网络进行训练,该损失函数如下表达式所示:
Figure DEST_PATH_IMAGE034A
式中,N表示一批次中用于训练的图像数目;
Figure 331929DEST_PATH_IMAGE036
表示三维中第n个骨骼点的真实标注位置;
Figure 298748DEST_PATH_IMAGE038
表示人体骨架网络预测第n个骨骼点的三维位置;
Figure 804816DEST_PATH_IMAGE040
表示重投影网络预测第n个骨骼点的三维位置;
Figure 348930DEST_PATH_IMAGE042
表示粗预测网络预测第n个骨骼点的三维位置。分阶段的训练的方式,实现了由粗到精的转变,加强了三维空间位置的合理判断,减少识别过程中产生的误差。
针对输出的体态结果,将其与数据库中实现存储的标准体态进行比对,并根据相似度的数值,进行评分,当相似度越高时,评分则越高。
在一个实施例中,提出一种体态识别系统,该系统具体包括:
用于获取操作过程中的深度图像数据集,并进行预处理的第一模块;
用于进行特征提取的第二模块;
用于进行行为分类预测的第三模块;
用于输出预测结果的第四模块;
用于将所述预测结果与标准数据库中模板进行比对的第五模块;
用于根据比对结果生成评价报告,并输出的第六模块。
具体的,所述第一模块包括红外发射器、红外摄像机和数据预处理模块;所述红外发射器用于不断地发射连续且频率固定的正弦光波;所述红外线摄像机用于捕捉反射回的信号;所述红外发射器中的发射红外线和接收红外线形成深度场,用于确定采集数据的深度信息;所述数据预处理模块用于对遮挡部位进行关节修复,通过记录手肘-手腕、手腕-手掌距离,当手腕、手掌部位被遮挡且未被追踪到时,应用前向运动学,判断手掌位置,并采用修复后的关节点进行后续追踪和信息提取;
所述第二模块包括用于提取特征的神经网络模型,所述神经网络模型通过选取人体中心为基准,用重心点到其他各个骨骼点的连线表示各个骨骼点到人体重心的相对距离,添加注意力机制;
采用的神经网络模型在网络训练过程中,分为二维人体姿态和三维骨骼点回归训练,所述三维骨骼点回归中,先对预测网络进行粗训练,然后在粗预测网络参数不变的情况下,再次训练人体骨架网络,最后,冻结粗预测网络和人体骨架网络参数,对重投影网络进行训练;
所述第三模块使用softmax函数得到分类结果。
如上所述,尽管参照特定的优选实施例已经表示和表述了本发明,但其不得解释为对本发明自身的限制。在不脱离所附权利要求定义的本发明的精神和范围前提下,可对其在形式上和细节上做出各种变化。

Claims (9)

1.一种体态识别方法,其特征在于,包括:
获取操作过程中的深度图像数据集,并进行预处理;
对进行预处理后的深度图像数据集进行时序特征和空间特征的提取;
根据特征融合结果,进行行为分类预测;
输出预测结果;
将所述预测结果与标准数据库中模板进行比对;
根据比对结果生成评价报告,并输出;
其中,通过一种深度相机模型,对操作过程中的深度图像进行采集;所述深度相机模型包括红外发射器和红外摄像机;所述红外发射器中的发射红外线和接收红外线形成深度场,用于确定采集数据的深度信息。
2.根据权利要求1所述的一种体态识别方法,其特征在于,
所述红外发射器用于不断地发射连续且频率固定的正弦光波;
所述红外线摄像机用于捕捉反射回的信号;
当捕捉待反射回来的正弦波之后,对两种光波的相位差进行计算,从而获得深度信息;当光速为
Figure DEST_PATH_IMAGE002
,发射与接收到的光波相位差为
Figure DEST_PATH_IMAGE004
,光波的频率为
Figure DEST_PATH_IMAGE006
时,物体的深度D的表达式为:
Figure DEST_PATH_IMAGE008
式中,D表示物体的深度;
Figure 765087DEST_PATH_IMAGE002
表示光速;
Figure 151069DEST_PATH_IMAGE004
表示发射与接收到的光波相位差;
Figure 507970DEST_PATH_IMAGE006
表示光波的频率。
3.根据权利要求1所述的一种体态识别方法,其特征在于,
所述深度图像数据集中,每一个深度图中,将像素点由两个字节组成,字节其中的前三位用于表示用户的索引信息,剩余位数表示侦测对象的深度信息。
4.根据权利要求1所述的一种体态识别方法,其特征在于,
所述预处理包括对遮挡部位的关节修复,通过记录手肘-手腕、手腕-手掌距离,当手腕、手掌部位被遮挡且未被追踪到时,应用前向运动学,判断手掌位置,并采用修复后的关节点进行后续追踪和信息提取。
5.根据权利要求1所述的一种体态识别方法,其特征在于,获取预处理后的深度图像数据集,将捕捉到的骨骼点坐标数据转换为矩阵后,归一化区间数值,并将其输入神经网络中进行特征提取,接着采用矩阵合并的方式将抽象的时序特征和空间特征融合,最后使用softmax函数得到分类结果,最后将处理结果输出。
6.根据权利要求5所述的一种体态识别方法,其特征在于,
所述神经网络的模型为:
Figure DEST_PATH_IMAGE010
式中,
Figure DEST_PATH_IMAGE012
表示数据的输出;
Figure DEST_PATH_IMAGE014
表示数据的输入;M表示权重矩阵,I表示单位矩阵;
Figure DEST_PATH_IMAGE016
表示第k个样本邻接矩阵和关联矩阵的拉普拉斯归一化;
神经网络中在模型识别的过程中通过选取人体中心为基准,用重心点到其他各个骨骼点的连线表示各个骨骼点到人体重心的相对距离,添加注意力机制,进一步扩大类间方差。
7.根据权利要求5所述的一种体态识别方法,其特征在于,
采用的神经网络在网络训练过程中,分为二维人体姿态和三维骨骼点回归训练,在二维的姿态识别过程中,图中标注的骨骼点坐标先转换为热度图形式,表达式如下:
Figure DEST_PATH_IMAGE018
式中,
Figure DEST_PATH_IMAGE020
表示骨骼点的真实标注位置;
Figure DEST_PATH_IMAGE022
表示方差;
Figure DEST_PATH_IMAGE024
表示模板中心点位置;二维姿态识别采用的总损失函数为:
Figure DEST_PATH_IMAGE026
式中,N表示一批次中用于训练的图像数目;
Figure DEST_PATH_IMAGE028
表示预测第n个骨骼点的二维位置;
Figure DEST_PATH_IMAGE030
表示二维中第n个骨骼点的真实标注位置;
Figure DEST_PATH_IMAGE032
表示转换后的热度图;
三维骨骼回归中,先对预测网络进行粗训练,然后在粗预测网络参数不变的情况下,再次训练人体骨架网络,最后,冻结粗预测网络和人体骨架网络参数,对重投影网络进行训练,该损失函数如下表达式所示:
Figure DEST_PATH_IMAGE034
式中,N表示一批次中用于训练的图像数目;
Figure DEST_PATH_IMAGE036
表示三维中第n个骨骼点的真实标注位置;
Figure DEST_PATH_IMAGE038
表示人体骨架网络预测第n个骨骼点的三维位置;
Figure DEST_PATH_IMAGE040
表示重投影网络预测第n个骨骼点的三维位置;
Figure DEST_PATH_IMAGE042
表示粗预测网络预测第n个骨骼点的三维位置。
8.一种体态识别系统,用于实现权利要求1~7任意一项方法,其特征在于,包括:
用于获取操作过程中的深度图像数据集,并进行预处理的第一模块;
用于进行特征提取的第二模块;
用于进行行为分类预测的第三模块;
用于输出预测结果的第四模块;
用于将所述预测结果与标准数据库中模板进行比对的第五模块;
用于根据比对结果生成评价报告,并输出的第六模块。
9.根据权利要求8所述的一种体态识别系统,其特征在于,
所述第一模块包括红外发射器、红外摄像机和数据预处理模块;所述红外发射器用于不断地发射连续且频率固定的正弦光波;所述红外线摄像机用于捕捉反射回的信号;所述红外发射器中的发射红外线和接收红外线形成深度场,用于确定采集数据的深度信息;所述数据预处理模块用于对遮挡部位进行关节修复,通过记录手肘-手腕、手腕-手掌距离,当手腕、手掌部位被遮挡且未被追踪到时,应用前向运动学,判断手掌位置,并采用修复后的关节点进行后续追踪和信息提取;
所述第二模块包括用于提取特征的神经网络模型,所述神经网络模型通过选取人体中心为基准,用重心点到其他各个骨骼点的连线表示各个骨骼点到人体重心的相对距离,添加注意力机制;
采用的神经网络模型在网络训练过程中,分为二维人体姿态和三维骨骼点回归训练,所述三维骨骼点回归中,先对预测网络进行粗训练,然后在粗预测网络参数不变的情况下,再次训练人体骨架网络,最后,冻结粗预测网络和人体骨架网络参数,对重投影网络进行训练;
所述第三模块使用softmax函数得到分类结果。
CN202110373740.XA 2021-04-07 2021-04-07 一种体态识别方法及系统 Pending CN112801061A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110373740.XA CN112801061A (zh) 2021-04-07 2021-04-07 一种体态识别方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110373740.XA CN112801061A (zh) 2021-04-07 2021-04-07 一种体态识别方法及系统

Publications (1)

Publication Number Publication Date
CN112801061A true CN112801061A (zh) 2021-05-14

Family

ID=75816414

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110373740.XA Pending CN112801061A (zh) 2021-04-07 2021-04-07 一种体态识别方法及系统

Country Status (1)

Country Link
CN (1) CN112801061A (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210074016A1 (en) * 2019-09-09 2021-03-11 Snap Inc. Hand pose estimation from stereo cameras
CN114170677A (zh) * 2021-11-12 2022-03-11 深圳先进技术研究院 一种检测抽烟行为的网络模型训练方法及其设备
CN114519674A (zh) * 2022-01-18 2022-05-20 贵州省质安交通工程监控检测中心有限责任公司 基于机器视觉的边坡稳定性分析系统及方法
TWI828174B (zh) * 2021-06-04 2024-01-01 虹映科技股份有限公司 動態訓練動作與靜態訓練動作的偵測方法及裝置

Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108919943A (zh) * 2018-05-22 2018-11-30 南京邮电大学 一种基于深度传感器的实时手部追踪方法
CN109117893A (zh) * 2018-08-28 2019-01-01 华中师范大学 一种基于人体姿态的动作识别方法及装置
CN109145777A (zh) * 2018-08-01 2019-01-04 北京旷视科技有限公司 车辆重识别方法、装置及系统
CN109344701A (zh) * 2018-08-23 2019-02-15 武汉嫦娥医学抗衰机器人股份有限公司 一种基于Kinect的动态手势识别方法
CN109798838A (zh) * 2018-12-19 2019-05-24 西安交通大学 一种基于激光散斑投射的ToF深度传感器及其测距方法
CN109821239A (zh) * 2019-02-20 2019-05-31 网易(杭州)网络有限公司 体感游戏的实现方法、装置、设备及存储介质
CN110633736A (zh) * 2019-08-27 2019-12-31 电子科技大学 一种基于多源异构数据融合的人体跌倒检测方法
CN110794956A (zh) * 2019-06-19 2020-02-14 南京邮电大学 一种基于Kinect的手势追踪和精准指尖定位系统
CN110991278A (zh) * 2019-11-20 2020-04-10 北京影谱科技股份有限公司 计算机视觉系统的视频中人体动作识别方法和装置
CN111598071A (zh) * 2020-05-12 2020-08-28 深圳阜时科技有限公司 图像传感装置和电子设备
CN111985579A (zh) * 2020-09-04 2020-11-24 王宗亚 基于相机协同和三维骨骼估计的双人跳水同步性分析方法
CN112149618A (zh) * 2020-10-14 2020-12-29 紫清智行科技(北京)有限公司 适用于巡检车的行人异常行为检测方法与装置
CN112149531A (zh) * 2020-09-09 2020-12-29 武汉科技大学 一种行为识别中人体骨骼数据的建模方法
CN112215107A (zh) * 2020-09-29 2021-01-12 中国农业大学 一种猪的行为识别方法及装置、电子设备和存储介质

Patent Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108919943A (zh) * 2018-05-22 2018-11-30 南京邮电大学 一种基于深度传感器的实时手部追踪方法
CN109145777A (zh) * 2018-08-01 2019-01-04 北京旷视科技有限公司 车辆重识别方法、装置及系统
CN109344701A (zh) * 2018-08-23 2019-02-15 武汉嫦娥医学抗衰机器人股份有限公司 一种基于Kinect的动态手势识别方法
CN109117893A (zh) * 2018-08-28 2019-01-01 华中师范大学 一种基于人体姿态的动作识别方法及装置
CN109798838A (zh) * 2018-12-19 2019-05-24 西安交通大学 一种基于激光散斑投射的ToF深度传感器及其测距方法
CN109821239A (zh) * 2019-02-20 2019-05-31 网易(杭州)网络有限公司 体感游戏的实现方法、装置、设备及存储介质
CN110794956A (zh) * 2019-06-19 2020-02-14 南京邮电大学 一种基于Kinect的手势追踪和精准指尖定位系统
CN110633736A (zh) * 2019-08-27 2019-12-31 电子科技大学 一种基于多源异构数据融合的人体跌倒检测方法
CN110991278A (zh) * 2019-11-20 2020-04-10 北京影谱科技股份有限公司 计算机视觉系统的视频中人体动作识别方法和装置
CN111598071A (zh) * 2020-05-12 2020-08-28 深圳阜时科技有限公司 图像传感装置和电子设备
CN111985579A (zh) * 2020-09-04 2020-11-24 王宗亚 基于相机协同和三维骨骼估计的双人跳水同步性分析方法
CN112149531A (zh) * 2020-09-09 2020-12-29 武汉科技大学 一种行为识别中人体骨骼数据的建模方法
CN112215107A (zh) * 2020-09-29 2021-01-12 中国农业大学 一种猪的行为识别方法及装置、电子设备和存储介质
CN112149618A (zh) * 2020-10-14 2020-12-29 紫清智行科技(北京)有限公司 适用于巡检车的行人异常行为检测方法与装置

Non-Patent Citations (7)

* Cited by examiner, † Cited by third party
Title
PICHAO WANG 等: "Deep Convolutional Neural Networks for Action Recognition Using Depth Map Sequences", 《ARXIV:1501.04686V1》 *
ZHENGYUAN YANG 等: "Action Recognition with Spatio-Temporal Visual Attention on Skeleton Image Sequences", 《ARXIV:1801.10304V2》 *
张国良 等著: "《移动机器人的SLAM与VSLAM方法》", 31 October 2018, 西安:西安交通大学出版社 *
李洪均 等: "基于特征融合时序分割网络的行为识别研究", 《计算机研究与发展》 *
林吉: "基于语义特征的三维人体姿态识别算法研究", 《中国优秀硕士学位论文全文数据库 信息科技辑(月刊)》 *
林强 等编著: "《行为识别与智能计算》", 30 November 2016, 西安:西安电子科技大学出版社 *
裴晓敏 等: "时空特征融合深度学习网络人体行为识别方法", 《红外与激光工程》 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210074016A1 (en) * 2019-09-09 2021-03-11 Snap Inc. Hand pose estimation from stereo cameras
US11551374B2 (en) * 2019-09-09 2023-01-10 Snap Inc. Hand pose estimation from stereo cameras
US11880509B2 (en) 2019-09-09 2024-01-23 Snap Inc. Hand pose estimation from stereo cameras
TWI828174B (zh) * 2021-06-04 2024-01-01 虹映科技股份有限公司 動態訓練動作與靜態訓練動作的偵測方法及裝置
CN114170677A (zh) * 2021-11-12 2022-03-11 深圳先进技术研究院 一种检测抽烟行为的网络模型训练方法及其设备
CN114519674A (zh) * 2022-01-18 2022-05-20 贵州省质安交通工程监控检测中心有限责任公司 基于机器视觉的边坡稳定性分析系统及方法

Similar Documents

Publication Publication Date Title
CN112801061A (zh) 一种体态识别方法及系统
CN108470332B (zh) 一种多目标跟踪方法及装置
CN102576259B (zh) 手位置检测方法
Deng et al. Amae: Adaptive motion-agnostic encoder for event-based object classification
CN109934108B (zh) 一种多目标多种类的车辆检测和测距系统及实现方法
CN110390308B (zh) 一种基于时空对抗生成网络的视频行为识别方法
US10937150B2 (en) Systems and methods of feature correspondence analysis
CN111523515A (zh) 自动驾驶车辆环境认知能力评价方法、设备及存储介质
CN111783639A (zh) 图像检测方法、装置、电子设备及可读存储介质
CN113792712A (zh) 动作识别方法、装置、设备及存储介质
Fei et al. Flow-pose Net: An effective two-stream network for fall detection
Radiuk et al. Convolutional neural network for parking slots detection
CN113792686B (zh) 基于视觉表征跨传感器不变性的车辆重识别方法
Adhikari et al. A Novel Machine Learning-Based Hand Gesture Recognition Using HCI on IoT Assisted Cloud Platform.
CN115188066A (zh) 基于协同注意力和多尺度融合的运动目标检测系统及方法
Tang et al. Using a selective ensemble support vector machine to fuse multimodal features for human action recognition
CN117423157A (zh) 一种结合迁移学习、区域入侵的矿井下异常视频动作理解方法
CN111950500A (zh) 基于改进YOLOv3-tiny的工厂环境下实时行人检测方法
CN116631577A (zh) 一种基于射频-传感器信息融合的手部康复动作评估系统
CN115767424A (zh) 一种基于rss与csi融合的视频定位方法
CN115205806A (zh) 生成目标检测模型的方法、装置和自动驾驶车辆
CN115095384A (zh) 一种智能化矿石定位及破碎控制方法与装置
CN115018910A (zh) 点云数据中目标的检测方法、装置和计算机可读存储介质
CN114663796A (zh) 一种目标人物持续跟踪方法、装置及系统
Pérez et al. Solar panels recognition based on machine learning

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20210514

RJ01 Rejection of invention patent application after publication