CN110334609B - 一种智能实时体感捕捉方法 - Google Patents

一种智能实时体感捕捉方法 Download PDF

Info

Publication number
CN110334609B
CN110334609B CN201910514251.4A CN201910514251A CN110334609B CN 110334609 B CN110334609 B CN 110334609B CN 201910514251 A CN201910514251 A CN 201910514251A CN 110334609 B CN110334609 B CN 110334609B
Authority
CN
China
Prior art keywords
character
human body
human
skeleton
nodes
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910514251.4A
Other languages
English (en)
Other versions
CN110334609A (zh
Inventor
张海波
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Stanford Qitian United Guangzhou Research Institute Co ltd
Original Assignee
Stanford Qitian United Guangzhou Research Institute Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Stanford Qitian United Guangzhou Research Institute Co ltd filed Critical Stanford Qitian United Guangzhou Research Institute Co ltd
Priority to CN201910514251.4A priority Critical patent/CN110334609B/zh
Publication of CN110334609A publication Critical patent/CN110334609A/zh
Application granted granted Critical
Publication of CN110334609B publication Critical patent/CN110334609B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning

Abstract

本发明公开了一种智能实时体感捕捉方法,包括:建立人物身体三维模型,配置骨骼结构组织;获取各种人物动作姿势深度图,组成姿势深度图集,并将人物身体三维模型映射到姿势深度图集中,实现骨骼结构组织与人物动作的全匹配;获取现实环境人物动作的深度图并识别采集人物器官结构和关节处骨骼特征点;建立空间三维坐标系,对人物各器官结构和关节处骨骼特征点进行定位坐标形成人物特征坐标集,并将人物特征坐标集中的数据作为训练数据对实现全匹配后的人物身体三维模型进行特征坐标系训练;采集被检测用户的人物图像并输入完成训练后的人物身体三维模型,通过与电子天眼实时采集的图像进行对比识别,判断识别出被检测用户,同时发出警报信号。

Description

一种智能实时体感捕捉方法
技术领域
本发明涉及图像处理与计算机视觉技术领域,尤其涉及一种智能实时体感捕捉方法。
背景技术
电子天眼系统是由公安系统布置在各地各处的摄像头组成,通过摄像头采集图像,再进行图像处理,进行人物识别等操作,可以起到防止罪案发生和获取案件证据的作用;对于一些重大嫌疑人,公安系统通过电子天眼实时采集图像,并对图像中的人物与嫌疑人对比识别,以达到查找智能嫌疑人的效果;但是,在实际操作中,由于人流较多,人物特征较复杂的情况下,现有的图像识别系统往往无法准确地对人物进行特征捕捉和识别,无法达到追寻犯罪嫌疑人的作用。因此,为了保证市民财产安全,目前亟需一种智能实时体感捕捉方法,对人物特征进行捕捉,识别嫌疑人。
发明内容
本发明提供了一种智能实时体感捕捉方法,以解决现有的人物捕捉系统无法准确地对人物进行特征捕捉和识别的技术问题,从而通过建立人物身体三维模型的对人物骨骼动作进行识别捕捉,准确地对人物进行特征捕捉和识别,进而实现结合电子天眼实时准确地追寻犯罪嫌疑人的行踪,保证市民财产安全。
为了解决上述技术问题,本发明实施例提供了一种智能实时体感捕捉方法,包括:
建立人物身体三维模型,在所述人物身体三维模型中配置骨骼结构组织;
获取各种人物动作姿势深度图,组成姿势深度图集,并将所述人物身体三维模型映射到所述姿势深度图集中,实现骨骼结构组织与人物动作的全匹配;
获取现实环境人物动作的深度图并识别采集人物器官结构和关节处骨骼特征点;
建立空间三维坐标系,对人物各器官结构和关节处骨骼特征点进行定位坐标形成人物特征坐标集,并将所述人物特征坐标集中的数据作为训练数据对实现全匹配后的所述人物身体三维模型进行特征坐标系训练;
采集被检测用户的人物图像并输入完成训练后的所述人物身体三维模型,通过与电子天眼实时采集的图像进行对比识别,判断识别出被检测用户,同时发出警报信号。
作为优选方案,所述采集被检测用户的人物图像并输入完成训练后的所述人物身体三维模型,通过与电子天眼实时采集的图像进行对比识别,包括:
通过所述被检测用户人物图像的深度数据计算所述被检测用户人物的人物特征差异值;
通过获取电子天眼实时采集的图像的深度数据计算所述实时采集图像的用户人物特征差异值;
将所述实时采集图像的用户人物特征差异值与所述被检测用户人物的人物特征差异值进行逐一对比,但识别阈值达到预设数值时,判断确定为识别出所述被检测用户。
作为优选方案,所述计算人物特征差异值的方法,包括:
基于人物图像的深度数据选取人体骨骼节点和人体轮廓节点;
确定各人体骨骼节点的空间坐标,并计算各人体骨骼节点之间的差异度;
确定各人体轮廓节点的空间坐标,并计算各人体轮廓节点之间的差异度;
将基于各人体骨骼节点和各人体轮廓节点的差异度加权求和,计算得到差异度平均数值作为所述人物图像的人物特征差异值。
作为优选方案,所述确定各人体骨骼节点的空间坐标,并计算各人体骨骼节点之间的差异度,包括:
将所述各人体骨骼节点在空间三维坐标系中标定坐标,确定其坐标值;
根据所述各人体骨骼节点的坐标值构建人体肢体向量;
计算人体肢体向量与对应的模板肢体向量之间的空间夹角;
将空间夹角加权归一,计算人体肢体向量与对应的模板肢体向量之间的空间夹角累积误差,作为基于人体骨骼节点分析的人体动作差异度。
作为优选方案,所述确定各人体轮廓节点的空间坐标,并计算各人体轮廓节点之间的差异度,包括:
将所述各人体轮廓节点在空间三维坐标系中标定坐标,确定其坐标值;
根据所述各人体轮廓节点的坐标值构建人体轮廓向量;
计算人体相邻两轮廓向量之间的空间夹角;
计算人体每一个轮廓向量空间夹角与模板所有轮廓向量空间夹角之间的差异值;
基于差异值构造能量函数,求取能量函数的最小值作为基于人体轮廓节点分析的人体动作差异度。
作为优选方案,在所述获取各种人物动作姿势深度图之后,还包括:采用稀疏估计算法,依据前一帧图像的身体部位数据对当前帧深度图运动进行预测判断,生成人物姿态预测结果,根据所述预测结果对骨骼结构组织与人物动作进行全匹配。
作为优选方案,所述生成人物姿态预测结果的步骤包括:将一个身体部位的数据在三维空间中沿X、Y、Z三个方向移动一定的数值,然后将生成的结果与输入图像做相似性的评估,确定该身体部位的位移之后,依次在三维空间中沿X、Y、Z三个方向移动相关身体部位的数据并且也做同样的评估,最终确定整个身体的姿势预测。
作为优选方案,所述获取现实环境人物动作的深度图并识别采集人物器官结构和关节处骨骼特征点,包括设定最佳识别姿势,便于捕捉区分各个骨骼点。
作为优选方案,所述最佳识别姿势为保持直立姿势,双手下垂与身体躯干保持45°夹角,双腿分开,双脚间距小于肩宽。
作为优选方案,所述人物身体三维模型采用近似几何的三维模型。
相比于现有技术,本发明实施例具有如下有益效果:
本发明通过建立人物身体三维模型的对人物骨骼动作进行识别捕捉,准确地对人物进行特征捕捉和识别,解决现有的人物捕捉系统无法准确地对人物进行特征捕捉和识别的技术问题,实现结合电子天眼实时准确地追寻犯罪嫌疑人的行踪,保证市民财产安全。
附图说明
图1:为本发明实施例中的智能实时体感捕捉方法步骤流程示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
请参照图1,本发明优选实施例提供了一种智能实时体感捕捉方法,包括:
S1,建立人物身体三维模型,在所述人物身体三维模型中配置骨骼结构组织;在本实施例中,所述人物身体三维模型采用近似几何的三维模型。
S2,获取各种人物动作姿势深度图,组成姿势深度图集,并将所述人物身体三维模型映射到所述姿势深度图集中,实现骨骼结构组织与人物动作的全匹配;
S3,获取现实环境人物动作的深度图并识别采集人物器官结构和关节处骨骼特征点;
S4,建立空间三维坐标系,对人物各器官结构和关节处骨骼特征点进行定位坐标形成人物特征坐标集,并将所述人物特征坐标集中的数据作为训练数据对实现全匹配后的所述人物身体三维模型进行特征坐标系训练;
S5,采集被检测用户的人物图像并输入完成训练后的所述人物身体三维模型,通过与电子天眼实时采集的图像进行对比识别,判断识别出被检测用户,同时发出警报信号。
在本实施例中,所述采集被检测用户的人物图像并输入完成训练后的所述人物身体三维模型,通过与电子天眼实时采集的图像进行对比识别,包括:通过所述被检测用户人物图像的深度数据计算所述被检测用户人物的人物特征差异值;通过获取电子天眼实时采集的图像的深度数据计算所述实时采集图像的用户人物特征差异值;将所述实时采集图像的用户人物特征差异值与所述被检测用户人物的人物特征差异值进行逐一对比,但识别阈值达到预设数值时,判断确定为识别出所述被检测用户。通过人物特征之间的差异值对比,可以科学地更清晰地知道被检测用户与实时采集的人物之间的相似度,通过差异值判断人物是否为嫌疑人,更为准确。
在本实施例中,所述计算人物特征差异值的方法,包括:基于人物图像的深度数据选取人体骨骼节点和人体轮廓节点;确定各人体骨骼节点的空间坐标,并计算各人体骨骼节点之间的差异度;确定各人体轮廓节点的空间坐标,并计算各人体轮廓节点之间的差异度;将基于各人体骨骼节点和各人体轮廓节点的差异度加权求和,计算得到差异度平均数值作为所述人物图像的人物特征差异值。通过分别计算人体骨骼节点和人体轮廓节点的差异值,可以令识别更准确。
在本实施例中,所述确定各人体骨骼节点的空间坐标,并计算各人体骨骼节点之间的差异度,包括:将所述各人体骨骼节点在空间三维坐标系中标定坐标,确定其坐标值;根据所述各人体骨骼节点的坐标值构建人体肢体向量;计算人体肢体向量与对应的模板肢体向量之间的空间夹角;将空间夹角加权归一,计算人体肢体向量与对应的模板肢体向量之间的空间夹角累积误差,作为基于人体骨骼节点分析的人体动作差异度。
在本实施例中,所述确定各人体轮廓节点的空间坐标,并计算各人体轮廓节点之间的差异度,包括:将所述各人体轮廓节点在空间三维坐标系中标定坐标,确定其坐标值;根据所述各人体轮廓节点的坐标值构建人体轮廓向量;计算人体相邻两轮廓向量之间的空间夹角;计算人体每一个轮廓向量空间夹角与模板所有轮廓向量空间夹角之间的差异值;基于差异值构造能量函数,求取能量函数的最小值作为基于人体轮廓节点分析的人体动作差异度。
在本实施例中,在所述获取各种人物动作姿势深度图之后,还包括:采用稀疏估计算法,依据前一帧图像的身体部位数据对当前帧深度图运动进行预测判断,生成人物姿态预测结果,根据所述预测结果对骨骼结构组织与人物动作进行全匹配。
在本实施例中,所述生成人物姿态预测结果的步骤包括:将一个身体部位的数据在三维空间中沿X、Y、Z三个方向移动一定的数值,然后将生成的结果与输入图像做相似性的评估,确定该身体部位的位移之后,依次在三维空间中沿X、Y、Z三个方向移动相关身体部位的数据并且也做同样的评估,最终确定整个身体的姿势预测。
在本实施例中,所述获取现实环境人物动作的深度图并识别采集人物器官结构和关节处骨骼特征点,包括设定最佳识别姿势,便于捕捉区分各个骨骼点。
在本实施例中,所述最佳识别姿势为保持直立姿势,双手下垂与身体躯干保持45°夹角,双腿分开,双脚间距小于肩宽。
本发明通过建立人物身体三维模型的对人物骨骼动作进行识别捕捉,准确地对人物进行特征捕捉和识别,解决现有的人物捕捉系统无法准确地对人物进行特征捕捉和识别的技术问题,实现结合电子天眼实时准确地追寻犯罪嫌疑人的行踪,保证市民财产安全。
以上所述的具体实施例,对本发明的目的、技术方案和有益效果进行了进一步的详细说明,应当理解,以上所述仅为本发明的具体实施例而已,并不用于限定本发明的保护范围。特别指出,对于本领域技术人员来说,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (9)

1.一种智能实时体感捕捉方法,其特征在于,包括:
建立人物身体三维模型,在所述人物身体三维模型中配置骨骼结构组织;
获取各种人物动作姿势深度图,组成姿势深度图集,并将所述人物身体三维模型映射到所述姿势深度图集中,实现骨骼结构组织与人物动作的全匹配;
获取现实环境人物动作的深度图并识别采集人物器官结构和关节处骨骼特征点;
建立空间三维坐标系,对人物各器官结构和关节处骨骼特征点进行定位坐标形成人物特征坐标集,并将所述人物特征坐标集中的数据作为训练数据对实现全匹配后的所述人物身体三维模型进行特征坐标系训练;
采集被检测用户的人物图像并输入完成训练后的所述人物身体三维模型,通过与电子天眼实时采集的图像进行对比识别,判断识别出被检测用户,同时发出警报信号;其中,
所述采集被检测用户的人物图像并输入完成训练后的所述人物身体三维模型,通过与电子天眼实时采集的图像进行对比识别,包括:
通过所述被检测用户人物图像的深度数据计算所述被检测用户人物的人物特征差异值;
通过获取电子天眼实时采集的图像的深度数据计算所述实时采集图像的用户人物特征差异值;
将所述实时采集图像的用户人物特征差异值与所述被检测用户人物的人物特征差异值进行逐一对比,当识别阈值达到预设数值时,判断确定为识别出所述被检测用户。
2.如权利要求1所述的智能实时体感捕捉方法,其特征在于,所述计算人物特征差异值的方法,包括:
基于人物图像的深度数据选取人体骨骼节点和人体轮廓节点;
确定各人体骨骼节点的空间坐标,并计算各人体骨骼节点之间的差异度;
确定各人体轮廓节点的空间坐标,并计算各人体轮廓节点之间的差异度;
将基于各人体骨骼节点和各人体轮廓节点的差异度加权求和,计算得到差异度平均数值作为所述人物图像的人物特征差异值。
3.如权利要求2所述的智能实时体感捕捉方法,其特征在于,所述确定各人体骨骼节点的空间坐标,并计算各人体骨骼节点之间的差异度,包括:
将所述各人体骨骼节点在空间三维坐标系中标定坐标,确定其坐标值;
根据所述各人体骨骼节点的坐标值构建人体肢体向量;
计算人体肢体向量与对应的模板肢体向量之间的空间夹角;
将空间夹角加权归一,计算人体肢体向量与对应的模板肢体向量之间的空间夹角累积误差,作为基于人体骨骼节点分析的人体动作差异度。
4.如权利要求2所述的智能实时体感捕捉方法,其特征在于,所述确定各人体轮廓节点的空间坐标,并计算各人体轮廓节点之间的差异度,包括:
将所述各人体轮廓节点在空间三维坐标系中标定坐标,确定其坐标值;
根据所述各人体轮廓节点的坐标值构建人体轮廓向量;
计算人体相邻两轮廓向量之间的空间夹角;
计算人体每一个轮廓向量空间夹角与模板所有轮廓向量空间夹角之间的差异值;
基于差异值构造能量函数,求取能量函数的最小值作为基于人体轮廓节点分析的人体动作差异度。
5.如权利要求1所述的智能实时体感捕捉方法,其特征在于,在所述获取各种人物动作姿势深度图之后,还包括:采用稀疏估计算法,依据前一帧图像的身体部位数据对当前帧深度图运动进行预测判断,生成人物姿态预测结果,根据所述预测结果对骨骼结构组织与人物动作进行全匹配。
6.如权利要求5所述的智能实时体感捕捉方法,其特征在于,所述生成人物姿态预测结果的步骤包括:将一个身体部位的数据在三维空间中沿X、Y、Z三个方向移动一定的数值,然后将生成的结果与输入图像做相似性的评估,确定该身体部位的位移之后,依次在三维空间中沿X、Y、Z三个方向移动相关身体部位的数据并且也做同样的评估,最终确定整个身体的姿势预测。
7.如权利要求1所述的智能实时体感捕捉方法,其特征在于,所述获取现实环境人物动作的深度图并识别采集人物器官结构和关节处骨骼特征点,包括设定最佳识别姿势,便于捕捉区分各个骨骼点。
8.如权利要求7所述的智能实时体感捕捉方法,其特征在于,所述最佳识别姿势为保持直立姿势,双手下垂与身体躯干保持45°夹角,双腿分开,双脚间距小于肩宽。
9.如权利要求1所述的智能实时体感捕捉方法,其特征在于,所述人物身体三维模型采用近似几何的三维模型。
CN201910514251.4A 2019-06-14 2019-06-14 一种智能实时体感捕捉方法 Active CN110334609B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910514251.4A CN110334609B (zh) 2019-06-14 2019-06-14 一种智能实时体感捕捉方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910514251.4A CN110334609B (zh) 2019-06-14 2019-06-14 一种智能实时体感捕捉方法

Publications (2)

Publication Number Publication Date
CN110334609A CN110334609A (zh) 2019-10-15
CN110334609B true CN110334609B (zh) 2023-09-26

Family

ID=68142158

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910514251.4A Active CN110334609B (zh) 2019-06-14 2019-06-14 一种智能实时体感捕捉方法

Country Status (1)

Country Link
CN (1) CN110334609B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111767866B (zh) * 2020-06-30 2024-03-08 北京爱奇艺科技有限公司 一种人体模型创建方法、装置、电子设备及存储介质
CN112233769A (zh) * 2020-10-12 2021-01-15 安徽动感智能科技有限公司 一种基于数据采集的患后康复系统
CN113749651B (zh) * 2021-10-18 2023-05-26 长春理工大学 一种基于人体姿势识别的压力评估方法及压力评估系统

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101558996A (zh) * 2009-05-15 2009-10-21 天津大学 基于人体运动结构正投影三维重建的步态识别方法
CN102196251A (zh) * 2011-05-24 2011-09-21 中国科学院深圳先进技术研究院 智慧城市智能监控方法和系统
CN103729614A (zh) * 2012-10-16 2014-04-16 上海唐里信息技术有限公司 基于视频图像的人物识别方法及人物识别装置
CN104598867A (zh) * 2013-10-30 2015-05-06 中国艺术科技研究所 一种人体动作自动评估方法及舞蹈评分系统
CN105787469A (zh) * 2016-03-25 2016-07-20 广州市浩云安防科技股份有限公司 行人监控和行为识别的方法和系统
CN106056050A (zh) * 2016-05-23 2016-10-26 武汉盈力科技有限公司 一种基于自适应三维人体运动统计模型的多视角步态识别方法
CN106981091A (zh) * 2017-04-27 2017-07-25 深圳奥比中光科技有限公司 人体三维建模数据处理方法及装置
CN107357426A (zh) * 2017-07-03 2017-11-17 南京江南博睿高新技术研究院有限公司 一种用于虚拟现实设备的体感控制方法
WO2018120964A1 (zh) * 2016-12-30 2018-07-05 山东大学 一种基于深度信息和骨骼信息的姿势矫正方法
CN108537136A (zh) * 2018-03-19 2018-09-14 复旦大学 基于姿态归一化图像生成的行人重识别方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10198694B2 (en) * 2014-01-03 2019-02-05 Tata Consultancy Services Limited Static posture based person identification

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101558996A (zh) * 2009-05-15 2009-10-21 天津大学 基于人体运动结构正投影三维重建的步态识别方法
CN102196251A (zh) * 2011-05-24 2011-09-21 中国科学院深圳先进技术研究院 智慧城市智能监控方法和系统
CN103729614A (zh) * 2012-10-16 2014-04-16 上海唐里信息技术有限公司 基于视频图像的人物识别方法及人物识别装置
CN104598867A (zh) * 2013-10-30 2015-05-06 中国艺术科技研究所 一种人体动作自动评估方法及舞蹈评分系统
CN105787469A (zh) * 2016-03-25 2016-07-20 广州市浩云安防科技股份有限公司 行人监控和行为识别的方法和系统
CN106056050A (zh) * 2016-05-23 2016-10-26 武汉盈力科技有限公司 一种基于自适应三维人体运动统计模型的多视角步态识别方法
WO2018120964A1 (zh) * 2016-12-30 2018-07-05 山东大学 一种基于深度信息和骨骼信息的姿势矫正方法
CN106981091A (zh) * 2017-04-27 2017-07-25 深圳奥比中光科技有限公司 人体三维建模数据处理方法及装置
CN107357426A (zh) * 2017-07-03 2017-11-17 南京江南博睿高新技术研究院有限公司 一种用于虚拟现实设备的体感控制方法
CN108537136A (zh) * 2018-03-19 2018-09-14 复旦大学 基于姿态归一化图像生成的行人重识别方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
skeleton-based dynamic hand gesture recognition;Quentin De Smedt等;《2016 IEEE conference on computer vision and pattern recognition workshops(CVPRW)》;全文 *
基于人体骨架的非标准深蹲姿势检测方法;喻露等;《计算机应用》(05);全文 *

Also Published As

Publication number Publication date
CN110334609A (zh) 2019-10-15

Similar Documents

Publication Publication Date Title
Chaudhry et al. Bio-inspired dynamic 3d discriminative skeletal features for human action recognition
CN106897658B (zh) 人脸活体的鉴别方法和装置
US9098740B2 (en) Apparatus, method, and medium detecting object pose
US9117138B2 (en) Method and apparatus for object positioning by using depth images
CN110334609B (zh) 一种智能实时体感捕捉方法
US20220383653A1 (en) Image processing apparatus, image processing method, and non-transitory computer readable medium storing image processing program
CN104200200B (zh) 融合深度信息和灰度信息实现步态识别的系统及方法
CN108304819B (zh) 姿态识别系统及方法、存储介质
CN111191599A (zh) 姿态识别方法、装置、设备及存储介质
CN103942577A (zh) 视频监控中基于自建立样本库及混合特征的身份识别方法
CN105426827A (zh) 活体验证方法、装置和系统
CN114067358A (zh) 一种基于关键点检测技术的人体姿态识别方法及系统
CN106599785B (zh) 人体3d特征身份信息库的建立方法及设备
Badave et al. Evaluation of person recognition accuracy based on OpenPose parameters
KR20190050551A (ko) 깊이 맵 정보 기반의 인체 행위 인지 방법 및 그 장치
CN108875500A (zh) 行人再识别方法、装置、系统及存储介质
Chua et al. Vision-based hand grasping posture recognition in drinking activity
Dileep et al. Suspicious human activity recognition using 2d pose estimation and convolutional neural network
CN107886060A (zh) 基于视频的行人自动检测与跟踪方法
Yang et al. Early childhood education by hand gesture recognition using a smartphone based robot
JP7259921B2 (ja) 情報処理装置、及び制御方法
WO2020016963A1 (ja) 情報処理装置、制御方法、及びプログラム
Mohana et al. Human action Recognition using STIP Techniques
CN113408435B (zh) 一种安全监控方法、装置、设备和存储介质
Wong et al. Enhanced classification of abnormal gait using BSN and depth

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CB02 Change of applicant information

Address after: Room 101 to 110, 201 to 210 on the second floor, 301 to 310 on the third floor, and 401 to 410 on the fourth floor (office only)

Applicant after: Guangzhou Qitian interdisciplinary laboratory Co.,Ltd.

Address before: Room 101 to 110, 201 to 210 on the second floor, 301 to 310 on the third floor, and 401 to 410 on the fourth floor (office only)

Applicant before: STANFORD QITIAN UNITED (GUANGZHOU) RESEARCH INSTITUTE Co.,Ltd.

CB02 Change of applicant information