CN109344790A - 一种基于姿态分析的人体行为分析方法及系统 - Google Patents
一种基于姿态分析的人体行为分析方法及系统 Download PDFInfo
- Publication number
- CN109344790A CN109344790A CN201811202867.XA CN201811202867A CN109344790A CN 109344790 A CN109344790 A CN 109344790A CN 201811202867 A CN201811202867 A CN 201811202867A CN 109344790 A CN109344790 A CN 109344790A
- Authority
- CN
- China
- Prior art keywords
- human body
- dimensional coordinate
- image
- analyzed
- analysis
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/103—Static body considered as a whole, e.g. static pedestrian or occupant recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2411—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Computational Biology (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于姿态分析的人体行为分析方法及系统,所述方法包括:步骤S1,自建一数据集,对数据集中各图像估计人体骨架关节点的二维坐标,利用所述二维坐标数据使用SVM分类器进行训练,生成人体姿态分类模型;步骤S2,获取一待分析图像,对该待分析图像估计得出所述待分析图像中各人员的人体骨架关节点的二维坐标,将此二维坐标作为特征数据;步骤S3,将步骤S2获得的特征数据输入训练好的人体姿态分类模型,输出人体姿态分析结果,通过本发明可提高人体行为分析的准确性。
Description
技术领域
本发明涉及行为分析技术领域,特别是涉及一种基于姿态分析的人体行为分析方法及系统。
背景技术
随着计算机视觉技术、深度学习技术发展,人体姿态估计仍然是日益活跃的计算机视觉的一个研究领域,并具有广阔的应用前景,如人机交互、智能监控、运动员辅助训练、视频编码等。近年来,在这些应用的驱动之下,行为分析已经成为计算机视觉、机器人领域、深度学习、机器学习、数据挖掘学等相关领域的研究热点。人体行为分析的目的在于描述、识别和理解人体动作、人与人之间以及人与环境之间的交互行为,其在智能视频监控、虚拟现实、机器人人机交互等方面具有广泛的应用背景,而进行人体的姿态估计则是进行行为分析的前提条件。
随着近年智能家庭监控的飞速发展,越来越多的人通过智能化的产品提高生活体验。人体行为检测是智能家庭监控的一个重要组成部分。传统的人体行为检测方法是用摄像头来获取视频流来进行分析,然而从实际使用来说,这种视频分析效果受干扰非常大,并且只能通过人体的轮廓来判断人体的姿态,准确度不高。
因此,实有必要提出一种技术手段,以解决目前人体行为检测准确度不高的问题。
发明内容
为克服上述现有技术存在的不足,本发明之目的在于提供一种基于姿态分析的人体行为分析方法及系统,以提高人体行为分析的准确性。
为达上述及其它目的,本发明提出一种基于姿态分析的人体行为分析方法,包括:
步骤S1,自建一数据集,对数据集中各图像估计人体骨架关节点的二维坐标,利用所述二维坐标数据使用SVM分类器进行训练,生成人体姿态分类模型;
步骤S2,获取一待分析图像,对该待分析图像估计得出所述待分析图像中各人员的人体骨架关节点的二维坐标,将此二维坐标作为特征数据;
步骤S3,将步骤S2获得的特征数据输入训练好的人体姿态分类模型,输出人体姿态分析结果。
优选地,于步骤S2中,对该待分析图像利用openpose预训练网络来估计所述待分析图像中各人员的人体骨架关节点的二维坐标。
优选地,步骤S1进一步包括:
步骤S100,自建一包括多个图像的数据集;
步骤S101,对各图像中的人体使用openpose预训练网络自动估计图像中各人员的人体骨架关节点的二维坐标,将此二维坐标作为特征数据;
步骤S102,将生成的二维坐标数据使用SVM分类器进行训练,生成所述人体姿态分类模型。
优选地,所述数据集包括超1万张图像,包含多种不同室内环境的场景。
优选地,所述数据集图像中的人员包括站着、躺着,蹲着三种行为的一种或多种,单张图片人员量为1人到多人。
优选地,所述特征数据由30个参数表示,包含15个关节点的二维坐标。
优选地,所述SVM分类器选取径向基函数RBF:G(x,y)=exp(-γ||x-y||2),其中x、y为训练样本或向量,||x-y||表示向量的范数,并确定好RBF核函数的自身参数γ和错误代价系数C,来构建行为分析-支持向量机(SVM)分类器。
优选地,所述人体姿态分类模型输出站着、躺着或者蹲着三种分类结果。
为达到上述目的,本发明还提供一种基于姿态分析的人体行为分析系统,包括:
人体姿态分类模型训练生成单元,用于自建一数据集,对数据集中各图像估计人体骨架关节点的二维坐标,利用所述二维坐标数据使用SVM分类器进行训练,生成人体姿态分类模型;
待分析图像特征估计单元,用于获取一待分析图像,对该待分析图像估计所述待分析图像中人员的人体骨架关节点的二维坐标,将此二维坐标作为特征数据;
人体姿态分析单元,用于将所述待分析图像特征估计单元获得的特征数据输入训练好的人体姿态分类模型,获得人体姿态分析结果。
优选地,所述人体姿态分类模型训练生成单元包括:
数据集获取单元,用于自建一包括多个图像的数据集;
特征数据获取单元,用于对数据集各图像中的人体使用openpose预训练网络自动估计人体骨架关节点的二维坐标,将此二维坐标作为特征数据;
训练单元,用于将生成的二维坐标数据使用SVM分类器进行训练,生成所述人体姿态分类模型。
与现有技术相比,本发明一种基于姿态分析的人体行为分析方法及系统通过对人体骨架关节点分析并利用SVM分类器进行训练获得人体姿态分类模型,根据人体姿态分类模型对待分析图像进行姿态分析,提高了人体行为分析的准确性,而且本发明无需对视频流进行分析,只需一张图片就可以实现人体行为分析的目的。
附图说明
图1为本发明一种基于姿态分析的人体行为分析方法的步骤流程图;
图2为本发明具体实施例中步骤S1的细部流程图;
图3为本发明具体实施例中人体骨架15个关节点的示意图;
图4为本发明一种基于姿态分析的人体行为分析系统的系统架构图;
图5为本发明具体实施例中人体姿态分类模型训练生成单元的细部结构图。
具体实施方式
以下通过特定的具体实例并结合附图说明本发明的实施方式,本领域技术人员可由本说明书所揭示的内容轻易地了解本发明的其它优点与功效。本发明亦可通过其它不同的具体实例加以施行或应用,本说明书中的各项细节亦可基于不同观点与应用,在不背离本发明的精神下进行各种修饰与变更。
图1为本发明一种基于姿态分析的人体行为分析方法的步骤流程图。如图1所示,本发明一种基于姿态分析的人体行为分析方法,包括:
步骤S1,自建一数据集,对数据集中各图像估计人体骨架关节点的二维坐标,利用所述二维坐标数据使用SVM分类器进行训练,生成人体姿态分类模型。
具体地,如图2所示,步骤S1进一步包括:
步骤S100,自建一包括多个图像的数据集,以用于训练。所述自建的数据集图像中的人员包含3种行为:站着,躺着,蹲着,单张图片人员量为1人到多人,所述数据集共超过1万张图像,包含12个不同室内环境的场景。
步骤S101,对各图像中的人体使用openpose预训练网络自动估计人体骨架关节点的二维坐标,将此二维坐标作为特征数据。在本发明具体实施例中,所述特征数据由30个参数表示,包含15个关节点的二维坐标,如图3所示,15个点为0,2,3,4,5,6,7,8,9,10,11,12,13,16,17,人体骨骼关节点共有15个,通过这些骨骼关节点的相互位置关系,可以判断人体姿态。
步骤S102,将生成的二维坐标数据使用SVM分类器进行训练,生成人体姿态分类模型。在本发明具体实施例中,所述SVM分类器选取径向基函数RBF:G(x,y)=exp(-γ||x-y||2),其中x、y为训练样本或向量,||x-y||表示向量的范数,可以理解为向量的模,并确定好RBF核函数的自身参数γ和错误代价系数C,来构建行为分析-支持向量机(SVM)分类器。
步骤S2,获取一待分析图像,对该待分析图像利用openpose预训练网络来估计所述待分析图像中人员的人体骨架关节点的二维坐标,将此二维坐标作为特征数据。同样,该特征数据由30个参数表示,包含15个关节点的二维坐标,如图3所示,该15个点为0,2,3,4,5,6,7,8,9,10,11,12,13,16,17,人体骨骼关节点共有15个。
步骤S3,将步骤S2获得的特征数据输入训练好的人体姿态分类模型,输出人体姿态分析结果,进而获得人体行为分析结果。在本发明具体实施例中,所述SVM分类器的分类结果有3种,分别代表:站着,躺着或者蹲着。
图4为本发明一种基于姿态分析的人体行为分析系统的系统架构图。如图4所示,本发明一种基于姿态分析的人体行为分析系统,包括:
人体姿态分类模型训练生成单元401,用于自建一数据集,对数据集中各图像估计人体骨架关节点的二维坐标,利用所述二维坐标数据使用SVM分类器进行训练,生成人体姿态分类模型。
具体地,如图5所示,人体姿态分类模型训练生成单元401进一步包括:
数据集获取单元4010,用于自建一包括多个图像的数据集,以用于训练。所述自建的数据集图像中的人员包含3种行为:站着,躺着,蹲着,单张图片人员量为1人到多人,所述数据集共超过1万张图像,包含12个不同室内环境的场景。
特征数据获取单元4011,用于对数据集各图像中的人体使用openpose预训练网络自动估计人体骨架关节点的二维坐标,将此二维坐标作为特征数据。在本发明具体实施例中,所述特征数据由30个参数表示,包含15个关节点的二维坐标,如图3所示,15个点为0,2,3,4,5,6,7,8,9,10,11,12,13,16,17,人体骨骼关节点共有15个,通过这些骨骼关节点的相互位置关系,可以判断人体姿态。
训练单元4012,用于将生成的二维坐标数据使用SVM分类器进行训练,生成人体姿态分类模型。在本发明具体实施例中,所述SVM分类器选取径向基函数RBF:G(x,y)=exp(-γ||x-y||2),其中x、y为训练样本或向量,||x-y||表示向量的范数,可以理解为向量的模,并确定好RBF核函数的自身参数γ和错误代价系数C,来构建行为分析-支持向量机(SVM)分类器。
待分析图像特征估计单元402,用于获取一待分析图像,对该待分析图像利用openpose预训练网络来估计所述待分析图像中人员的人体骨架关节点的二维坐标,将此二维坐标作为特征数据。同样,该特征数据由30个参数表示,包含15个关节点的二维坐标,如图2所示,该15个点为0,2,3,4,5,6,7,8,9,10,11,12,13,16,17,人体骨骼关节点共有15个。
人体姿态分析单元403,用于将待分析图像特征估计单元302获得的特征数据输入训练好的人体姿态分类模型,输出人体姿态分析结果,进而获得人体行为分析结果。在本发明具体实施例中,所述SVM分类器的分类结果有3种,分别代表:站着,躺着或者蹲着。
综上所述,本发明一种基于姿态分析的人体行为分析方法及系统通过对人体骨架关节点分析并利用SVM分类器进行训练获得人体姿态分类模型,根据人体姿态分类模型对待分析图像进行姿态分析,提高了人体行为分析的准确性,而且本发明无需对视频流进行分析,只需一张图片就可以实现人体行为分析的目的。
上述实施例仅例示性说明本发明的原理及其功效,而非用于限制本发明。任何本领域技术人员均可在不违背本发明的精神及范畴下,对上述实施例进行修饰与改变。因此,本发明的权利保护范围,应如权利要求书所列。
Claims (10)
1.一种基于姿态分析的人体行为分析方法,包括:
步骤S1,自建一数据集,对数据集中各图像估计人体骨架关节点的二维坐标,利用所述二维坐标数据使用SVM分类器进行训练,生成人体姿态分类模型;
步骤S2,获取一待分析图像,对该待分析图像估计得出所述待分析图像中各人员的人体骨架关节点的二维坐标,将此二维坐标作为特征数据;
步骤S3,将步骤S2获得的特征数据输入训练好的人体姿态分类模型,输出人体姿态分析结果。
2.如权利要求1所述的一种基于姿态分析的人体行为分析方法,其特征在于,于步骤S2中,对该待分析图像利用openpose预训练网络来估计所述待分析图像中各人员的人体骨架关节点的二维坐标。
3.如权利要求1所述的一种基于姿态分析的人体行为分析方法,其特征在于,步骤S1进一步包括:
步骤S100,自建一包括多个图像的数据集;
步骤S101,对各图像中的人体使用openpose预训练网络自动估计图像中各人员的人体骨架关节点的二维坐标,将此二维坐标作为特征数据;
步骤S102,将生成的二维坐标数据使用SVM分类器进行训练,生成所述人体姿态分类模型。
4.如权利要求3所述的一种基于姿态分析的人体行为分析方法,其特征在于:所述数据集包括超1万张图像,包含多种不同室内环境的场景。
5.如权利要求4所述的一种基于姿态分析的人体行为分析方法,其特征在于:所述数据集图像中的人员包括站着、躺着,蹲着三种行为的一种或多种,单张图片人员量为1人到多人。
6.如权利要求3所述的一种基于姿态分析的人体行为分析方法,其特征在于:所述特征数据由30个参数表示,包含15个关节点的二维坐标。
7.如权利要求3所述的一种基于姿态分析的人体行为分析方法,其特征在于,所述SVM分类器选取径向基函数RBF:G(x,y)=exp(-γ||x-y||2),其中x、y为训练样本或向量,||x-y||表示向量的范数,并确定好RBF核函数的自身参数γ和错误代价系数C,来构建行为分析-支持向量机(SVM)分类器。
8.如权利要求3所述的一种基于姿态分析的人体行为分析方法,其特征在于:所述人体姿态分类模型输出站着、躺着或者蹲着三种分类结果。
9.一种基于姿态分析的人体行为分析系统,包括:
人体姿态分类模型训练生成单元,用于自建一数据集,对数据集中各图像估计人体骨架关节点的二维坐标,利用所述二维坐标数据使用SVM分类器进行训练,生成人体姿态分类模型;
待分析图像特征估计单元,用于获取一待分析图像,对该待分析图像估计所述待分析图像中人员的人体骨架关节点的二维坐标,将此二维坐标作为特征数据;
人体姿态分析单元,用于将所述待分析图像特征估计单元获得的特征数据输入训练好的人体姿态分类模型,获得人体姿态分析结果。
10.如权利要求9所述的一种基于姿态分析的人体行为分析系统,其特征在于,所述人体姿态分类模型训练生成单元包括:
数据集获取单元,用于自建一包括多个图像的数据集;
特征数据获取单元,用于对数据集各图像中的人体使用openpose预训练网络自动估计人体骨架关节点的二维坐标,将此二维坐标作为特征数据;
训练单元,用于将生成的二维坐标数据使用SVM分类器进行训练,生成所述人体姿态分类模型。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811202867.XA CN109344790A (zh) | 2018-10-16 | 2018-10-16 | 一种基于姿态分析的人体行为分析方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811202867.XA CN109344790A (zh) | 2018-10-16 | 2018-10-16 | 一种基于姿态分析的人体行为分析方法及系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN109344790A true CN109344790A (zh) | 2019-02-15 |
Family
ID=65309520
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811202867.XA Pending CN109344790A (zh) | 2018-10-16 | 2018-10-16 | 一种基于姿态分析的人体行为分析方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109344790A (zh) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109830078A (zh) * | 2019-03-05 | 2019-05-31 | 北京智慧眼科技股份有限公司 | 适用于狭小空间的智能行为分析方法及智能行为分析设备 |
CN110457999A (zh) * | 2019-06-27 | 2019-11-15 | 广东工业大学 | 一种基于深度学习和svm的动物姿态行为估计与心情识别方法 |
CN110503077A (zh) * | 2019-08-29 | 2019-11-26 | 郑州大学 | 一种基于视觉的实时人体动作分析方法 |
CN110532966A (zh) * | 2019-08-30 | 2019-12-03 | 深兰科技(上海)有限公司 | 一种基于分类模型进行跌倒识别的方法及设备 |
CN110807391A (zh) * | 2019-10-25 | 2020-02-18 | 中国人民解放军国防科技大学 | 基于视觉的人-无人机交互用人体姿态指令识别方法 |
CN111860157A (zh) * | 2020-06-15 | 2020-10-30 | 北京体育大学 | 一种运动分析方法、装置、设备和存储介质 |
CN112131981A (zh) * | 2020-09-10 | 2020-12-25 | 山东大学 | 一种基于骨架数据行为识别的司机疲劳检测方法 |
WO2021097750A1 (zh) * | 2019-11-21 | 2021-05-27 | 深圳市欢太科技有限公司 | 人体姿态的识别方法、装置、存储介质及电子设备 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102663452A (zh) * | 2012-04-14 | 2012-09-12 | 中国人民解放军国防科学技术大学 | 基于视频分析的可疑行为检测方法 |
CN106022213A (zh) * | 2016-05-04 | 2016-10-12 | 北方工业大学 | 一种基于三维骨骼信息的人体动作识别方法 |
CN106066996A (zh) * | 2016-05-27 | 2016-11-02 | 上海理工大学 | 人体动作的局部特征表示方法及其在行为识别的应用 |
CN106980839A (zh) * | 2017-03-31 | 2017-07-25 | 宁波摩视光电科技有限公司 | 一种基于hog特征的白带中自动检测杆菌的方法 |
CN107122752A (zh) * | 2017-05-05 | 2017-09-01 | 北京工业大学 | 一种人体动作比对方法及装置 |
CN108446583A (zh) * | 2018-01-26 | 2018-08-24 | 西安电子科技大学昆山创新研究院 | 基于姿态估计的人体行为识别方法 |
-
2018
- 2018-10-16 CN CN201811202867.XA patent/CN109344790A/zh active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102663452A (zh) * | 2012-04-14 | 2012-09-12 | 中国人民解放军国防科学技术大学 | 基于视频分析的可疑行为检测方法 |
CN106022213A (zh) * | 2016-05-04 | 2016-10-12 | 北方工业大学 | 一种基于三维骨骼信息的人体动作识别方法 |
CN106066996A (zh) * | 2016-05-27 | 2016-11-02 | 上海理工大学 | 人体动作的局部特征表示方法及其在行为识别的应用 |
CN106980839A (zh) * | 2017-03-31 | 2017-07-25 | 宁波摩视光电科技有限公司 | 一种基于hog特征的白带中自动检测杆菌的方法 |
CN107122752A (zh) * | 2017-05-05 | 2017-09-01 | 北京工业大学 | 一种人体动作比对方法及装置 |
CN108446583A (zh) * | 2018-01-26 | 2018-08-24 | 西安电子科技大学昆山创新研究院 | 基于姿态估计的人体行为识别方法 |
Non-Patent Citations (4)
Title |
---|
PENGFEI SUN 等: "A Robust Static Sign Language Recognition System Based on Hand Key Points Estimation", 《INTELLIGENT SYSTEMS DESIGN AND APPLICATIONS》 * |
SUMAIRA GHAZAL 等: "Human Posture Classification Using Skeleton Information", 《2018 INTERNATIONAL CONFERENCE ON COMPUTING, MATHEMATICS AND ENGINEERING TECHNOLOGIES》 * |
ZHE CAO 等: "Realtime Multi-person 2D Pose Estimation Using Part Affinity Fields", 《2017 IEEE CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION》 * |
田国会 等: "一种基于关节点信息的人体行为识别新方法", 《机器人》 * |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109830078B (zh) * | 2019-03-05 | 2021-03-30 | 智慧眼科技股份有限公司 | 适用于狭小空间的智能行为分析方法及智能行为分析设备 |
CN109830078A (zh) * | 2019-03-05 | 2019-05-31 | 北京智慧眼科技股份有限公司 | 适用于狭小空间的智能行为分析方法及智能行为分析设备 |
CN110457999A (zh) * | 2019-06-27 | 2019-11-15 | 广东工业大学 | 一种基于深度学习和svm的动物姿态行为估计与心情识别方法 |
CN110457999B (zh) * | 2019-06-27 | 2022-11-04 | 广东工业大学 | 一种基于深度学习和svm的动物姿态行为估计与心情识别方法 |
CN110503077A (zh) * | 2019-08-29 | 2019-11-26 | 郑州大学 | 一种基于视觉的实时人体动作分析方法 |
CN110503077B (zh) * | 2019-08-29 | 2022-03-11 | 郑州大学 | 一种基于视觉的实时人体动作分析方法 |
CN110532966A (zh) * | 2019-08-30 | 2019-12-03 | 深兰科技(上海)有限公司 | 一种基于分类模型进行跌倒识别的方法及设备 |
CN110807391A (zh) * | 2019-10-25 | 2020-02-18 | 中国人民解放军国防科技大学 | 基于视觉的人-无人机交互用人体姿态指令识别方法 |
WO2021097750A1 (zh) * | 2019-11-21 | 2021-05-27 | 深圳市欢太科技有限公司 | 人体姿态的识别方法、装置、存储介质及电子设备 |
CN114402369A (zh) * | 2019-11-21 | 2022-04-26 | 深圳市欢太科技有限公司 | 人体姿态的识别方法、装置、存储介质及电子设备 |
CN111860157A (zh) * | 2020-06-15 | 2020-10-30 | 北京体育大学 | 一种运动分析方法、装置、设备和存储介质 |
CN111860157B (zh) * | 2020-06-15 | 2023-12-26 | 北京体育大学 | 一种运动分析方法、装置、设备和存储介质 |
CN112131981A (zh) * | 2020-09-10 | 2020-12-25 | 山东大学 | 一种基于骨架数据行为识别的司机疲劳检测方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109344790A (zh) | 一种基于姿态分析的人体行为分析方法及系统 | |
Marinoiu et al. | 3d human sensing, action and emotion recognition in robot assisted therapy of children with autism | |
Materzynska et al. | The jester dataset: A large-scale video dataset of human gestures | |
Oliveira et al. | Deep learning for human part discovery in images | |
EP3711024B1 (en) | Event camera-based deformable object tracking | |
CN108171133B (zh) | 一种基于特征协方差矩阵的动态手势识别方法 | |
CN107886069A (zh) | 一种多目标人体2d姿态实时检测系统及检测方法 | |
Mania et al. | A framework for self-training perceptual agents in simulated photorealistic environments | |
CN109034099A (zh) | 一种表情识别方法及装置 | |
CN105426929B (zh) | 对象形状对准装置、对象处理装置及其方法 | |
CN111028319A (zh) | 一种基于面部运动单元的三维非真实感表情生成方法 | |
CN104966052A (zh) | 基于属性特征表示的群体行为识别方法 | |
Varona et al. | Toward natural interaction through visual recognition of body gestures in real-time | |
Valenti et al. | Facial expression recognition: A fully integrated approach | |
CN111985532A (zh) | 一种场景级上下文感知的情感识别深度网络方法 | |
Loconsole et al. | Real-time emotion recognition: an improved hybrid approach for classification performance | |
Koganti et al. | Estimation of human cloth topological relationship using depth sensor for robotic clothing assistance | |
Xu et al. | Motion recognition algorithm based on deep edge-aware pyramid pooling network in human–computer interaction | |
Koganti et al. | Real-time estimation of human-cloth topological relationship using depth sensor for robotic clothing assistance | |
Liu et al. | The study on human action recognition with depth video for intelligent monitoring | |
Chen et al. | Brain–computer interface‐based target recognition system using transfer learning: a deep learning approach | |
CN112085105B (zh) | 一种基于人体形状与姿态估计的动作相似度评价方法 | |
Orlov et al. | A gaze-contingent intention decoding engine for human augmentation | |
Cheung et al. | LCrowdV: Generating labeled videos for pedestrian detectors training and crowd behavior learning | |
CN105741323A (zh) | 一种基于单目视频的人体骨架跟踪方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20190215 |
|
RJ01 | Rejection of invention patent application after publication |