CN107392131A - 一种基于人体骨骼节点距离的动作识别方法 - Google Patents

一种基于人体骨骼节点距离的动作识别方法 Download PDF

Info

Publication number
CN107392131A
CN107392131A CN201710573316.3A CN201710573316A CN107392131A CN 107392131 A CN107392131 A CN 107392131A CN 201710573316 A CN201710573316 A CN 201710573316A CN 107392131 A CN107392131 A CN 107392131A
Authority
CN
China
Prior art keywords
distance
frame
bone
sequence
skeleton
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201710573316.3A
Other languages
English (en)
Inventor
侯永宏
杨梦頔
李传坤
王利伟
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tianjin University
Original Assignee
Tianjin University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tianjin University filed Critical Tianjin University
Priority to CN201710573316.3A priority Critical patent/CN107392131A/zh
Publication of CN107392131A publication Critical patent/CN107392131A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/254Fusion techniques of classification results, e.g. of results related to same input data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames

Abstract

本发明涉及一种基于人体骨骼节点距离的动作识别方法,步骤如下:⑴将骨骼序列的每一帧在笛卡尔正交系的三个平面分别投影,生成人体骨骼分布图;⑵提取人体骨骼分布图上的骨骼关节点;⑶计算骨骼序列每一帧的骨骼关节之间的欧式距离,将所有节点的距离组合成帧距离向量;⑷将骨骼序列的所有帧距离向量按照时间顺序组成序列距离矩阵;⑸利用伪颜色编码方法对距离二维矩阵进行颜色编码,得到彩色纹理图;⑹利用深度学习方法进行图片分类,从而完成人类的动作检测识别任务。本发明基于骨骼节点距离的动作识别方法不受环境和交互动作影响,适用于复杂场景下交互式动作识别,因而具有更加广阔的应用价值。

Description

一种基于人体骨骼节点距离的动作识别方法
技术领域
本发明属于多媒体信息处理领域,涉及计算机智能、模式识别、机器学习,由其是一种基于人体骨骼节点距离的动作识别方法。
背景技术
随着计算机智能技术的不断发展,在今后的生活中,人体动作识别具有广阔的应用前景。例如:智能监控、人机交互的体感游戏、视频检索等等。所以,研究动作识别方法有着深远的研究价值。近年来,随着计算机视觉技术的日渐成熟,易使用、低成本的深度传感器,如Kinect相机,得到了广泛的使用。由于深度摄像机与传统彩色摄像机相比,具有对照明变化不敏感和能够可靠估计身体轮廓和骨架的优点,基于深度骨骼视频序列的人类动作检测识别引起了越来越多的关注。但是,目前基于骨骼的动作技术识别尚不成熟。
本申请发明人之前申请的两篇专利CN106203503A、CN106228109A是与本申请最相关的公开专利,其缺点是只能识别单个主题场景中的动作,不能满足复杂场景下交互式动作识别的需要。
发明内容
本方法利用由Kinect摄像机得到的人体骨骼序列,通过提取人体骨骼节点之间的距离信息,进行颜色编码,并使用深度学习方法对动作进行分类训练,提出了一种基于人体关节点距离的动作识别方法,满足复杂场景下交互式动作识别的需要。
实现本发明目的的技术方案为:
一种基于人体骨骼节点距离的动作识别方法,步骤如下:
⑴将骨骼序列的每一帧在笛卡尔正交系的三个平面分别投影,生成人体骨骼分布图;
⑵提取人体骨骼分布图上的骨骼关节点;
⑶计算骨骼序列每一帧的骨骼关节之间的欧式距离,将所有节点的距离组合成帧距离向量;
⑷将骨骼序列的所有帧距离向量按照时间顺序组成序列距离矩阵;
⑸利用伪颜色编码方法对距离二维矩阵进行颜色编码,得到彩色纹理图;
⑹利用深度学习方法进行图片分类,从而完成人类的动作检测识别任务。
所述的深度学习方法步骤为:⑴采用四通道对正面、侧面、顶面、三维距离的彩色纹理图分别进行卷积神经网络的参数训练;⑵调节卷积神经网络参数;⑶融合四个通道的动作识别结果,对输入的测试数据进行分类。对四个通道输出分类概率矢量v1,v2,v3,v4按照如下公式进行融合,
lable=Fin(max(v1ov2ov3ov4))
其中,o代表矢量的元素相乘,Fin()函数代表将概率值最大的动作作为动作识别的结果。
具体步骤为:
第一步,利用双线性插值法将所有动作的骨骼序列帧数固定为t;
第二步,假设从每一帧骨骼图Vxyz上提取m个人体骨骼节点,用
来表示第i帧的第j个骨骼节点的三维位置信息;整个视频序列中所有的骨骼均可以根据三维信息投影到三个笛卡尔正交系的三个正面、侧面、顶面,得到正面Sxy、侧面Syz、顶面Sxz,投影后,每一帧骨骼序列得到三张黑白的描述该动作骨骼分布的图片;
第三步,在正面Sxy、侧面Syz、顶面Sxz和骨骼图Vxyz上分别求出骨骼节点到其他m-1个骨骼节点的欧式距离
djk i=||Pj i-Pk i||2,j∈1,...,m-1;k∈j+1,...,m
第四步,每一帧总共有m(m-1)/2个骨骼节点对,故得到m(m-1)/2个距离,重新对其标号为其中,l∈1,...,m(m-1)/2,将这m(m-1)/2个骨骼节点距离组成帧距离向量Di
Di={d1 i,d2 i,...,dl i}
第五步,把每一帧的帧距离矩阵Di按照时间顺序组合起来,得到序列距离矩阵H:
H={D1,D2,...,Dt}
第六步,对序列距离矩阵进行伪颜色编码,得到正面Sxy、侧面Syz、顶面Sxz、三维距离Vxyz的彩色纹理图。
本发明的优点和有益效果:
1、本发明基于骨骼节点距离的动作识别方法不受环境和交互动作影响,适用于复杂场景下交互式动作识别,因而具有更加广阔的应用价值。
2、本发明通过记录骨骼节点之间的距离变化保存了骨骼序列中动作的时间特征。骨骼节点之间距离的不同能够对应不同的动作,使得动作特征更加明显,更加易于神经网络学习,从而提高动作识别的准确率。
3、本发明采用四个通道,利用深度学习技术对提取到的特征进行训练,最后采用融合技术,对四个通道的分类结果进行融合,实现客观准确而高效的人体动作的识别功能。
4、本发明通过在骨骼序列的每一帧上提取固定位置的关键骨骼节点,从而有效的提取空间特征,与传统手工提取动作特征相比,具有客观性,普遍适用性,减少了随机性和主观选择的干扰。使得识别结果更客观可信,应用性更强。
附图说明
图1为整个基于人体骨骼节点的动作识别框架图。
具体实施方式
下面结合附图并通过具体实施例对本发明作进一步详述,以下实施例只是描述性的,不是限定性的,不能以此限定本发明的保护范围。
一种基于人体骨骼节点距离的动作识别方法,步骤如下:
1)骨骼序列到图片的映射
假设有一系列人体动作的骨骼序列,现要对动作进行识别,通常每个动作的骨骼序列的帧数tx不确定。
第一步,利用双线性插值法将所有动作的骨骼序列帧数固定为t。
第二步,假设从每一帧骨骼图Vxyz上提取m个人体骨骼节点,用
来表示第i帧的第j个骨骼节点的三维位置信息。整个视频序列中所有的骨骼均可以根据三维信息投影到三个笛卡尔正交系的三个平面上(正面、侧面、顶面),得到正面Sxy、侧面Syz、顶面Sxz。这样的投影后,每一帧骨骼序列都能得到三张黑白的描述该动作骨骼分布的图片。具有丰富的空间信息,然而并不具备时间信息的描述。
第三步,在正面Sxy、侧面Syz、顶面Sxz和骨骼图Vxyz上分别求出骨骼节点到其他m-1个骨骼节点的欧式距离
djk i=||Pj i-Pk i||2,j∈1,...,m-1;k∈j+1,...,m
第四步,每一帧总共有m(m-1)/2个骨骼节点对,故得到m(m-1)/2个距离,重新对其标号为其中,l∈1,...,m(m-1)/2,将这m(m-1)/2个骨骼节点距离组成帧距离向量Di
Di={d1 i,d2 i,...,dl i}
第五步,把每一帧的帧距离矩阵Di按照时间顺序组合起来,得到序列距离矩阵H:
H={D1,D2,...,Dt}
第六步,对序列距离矩阵进行伪颜色编码,得到彩色纹理图。此时会得到四组彩色纹理图,即正面Sxy、侧面Syz、顶面Sxz、三维距离Vxyz的彩色纹理图。
2)利用深度学习进行图片分类,从而完成人类的动作检测识别任务。
在这里,我们采用当今公用的深度学习框架caffe,在Linux系统下,通NvidiaGTXTITANX显卡进行卷积神经网络训练的加速,采用该工具箱中AlexNet的网络结构对经过颜色编码的彩色纹理图片进行训练。
第一步,采用数据集中的训练数据集,用四个通道对正面Sxy、侧面Syz、顶面Sxz、三维距离Vxyz的彩色纹理图分别进行卷积神经网络的参数训练。
第二步,采用微调模型优化网络参数。
第三步,对四个通道输出分类概率矢量v1,v2,v3,v4按照如下公式进行融合,
lable=Fin(max(v1ov2ov3ov4))
其中,o代表矢量的元素相乘,Fin()函数代表将概率值最大的动作作为动作识别的结果。
下面为本发明在NTU RGB-D、UTD-MHAD等数据集上的实验结果说明:
在Matlab-2014b平台上进行算法的仿真实现,计算出了训练数据集以及测试数据集在正面、侧面、顶面和空间上的骨骼节点距离图,并且利用伪颜色编码转化成了彩色纹理图。我们采用当今公用的深度学习框架caffe,在Linux系统下,通过NvidiaGTXTITANX显卡进行卷积神经网络训练的加速。最后概率矢量融合部分依然在Matlab-2014b平台上完成。
本方法在国际公认的人类动作识别数据集中进行测试,在数据集NTU RGB-D中训练集以及测试集的分配方式采用cross subject和cross view分配方式。测试结果如下:在包含60类动作(其中包含11个交互动作)的NTU RGB-D数据集上,分别获得了76.2%和82.3%的识别准确率;在数据集UTD-MHAD中训练集以及测试集的分配方式采用crosssubject分配方式。测试结果为:在包含27类动作的UTD-MHAD数据集上,获得了88.10%的识别准确率。该实验结果对比与国际领先的基于骨骼序列的人类动作检测识别算法,均取得了高于其余算法的分类准确度。
以上所述的仅是本发明的优选实施方式,应当指出,对于本领域的普通技术人员来说,在不脱离发明构思的前提下,还可以做出若干变形和改进,这些都属于本发明的保护范围。

Claims (4)

1.一种基于人体骨骼节点距离的动作识别方法,步骤如下:
⑴将骨骼序列的每一帧在笛卡尔正交系的三个平面分别投影,生成人体骨骼分布图;
⑵提取人体骨骼分布图上的骨骼关节点;
其特征在于:
⑶计算骨骼序列每一帧的骨骼关节之间的欧式距离,将所有节点的距离组合成帧距离向量;
⑷将骨骼序列的所有帧距离向量按照时间顺序组成序列距离矩阵;
⑸利用伪颜色编码方法对距离二维矩阵进行颜色编码,得到彩色纹理图;
⑹利用深度学习方法进行图片分类,从而完成人类的动作检测识别任务。
2.根据权利要求1所述的基于人体骨骼节点距离的动作识别方法,其特征在于:所述的深度学习方法步骤为:⑴采用四通道对正面、侧面、顶面、三维距离的彩色纹理图分别进行卷积神经网络的参数训练;⑵调节卷积神经网络参数;⑶融合四个通道的动作识别结果,对输入的测试数据进行分类。
3.根据权利要求1所述的基于人体骨骼节点距离的动作识别方法,其特征在于:具体步骤为:
第一步,利用双线性插值法将所有动作的骨骼序列帧数固定为t;
第二步,假设从每一帧骨骼图Vxyz上提取m个人体骨骼节点,用
来表示第i帧的第j个骨骼节点的三维位置信息;整个视频序列中所有的骨骼均可以根据三维信息投影到三个笛卡尔正交系的三个正面、侧面、顶面,得到正面Sxy、侧面Syz、顶面Sxz,投影后,每一帧骨骼序列得到三张黑白的描述该动作骨骼分布的图片;
第三步,在正面Sxy、侧面Syz、顶面Sxz和骨骼图Vxyz上分别求出骨骼节点Pj i到其他m-1个骨骼节点的欧式距离djk i
djk i=||Pj i-Pk i||2,j∈1,...,m-1;k∈j+1,...,m
第四步,每一帧总共有m(m-1)/2个骨骼节点对,故得到m(m-1)/2个距离,重新对其标号为dli:其中,l∈1,...,m(m-1)/2,将这m(m-1)/2个骨骼节点距离组成帧距离向量Di
Di={d1 i,d2 i,...,dl i}
第五步,把每一帧的帧距离矩阵Di按照时间顺序组合起来,得到序列距离矩阵H:
H={D1,D2,...,Dt}
第六步,对序列距离矩阵进行伪颜色编码,得到正面Sxy、侧面Syz、顶面Sxz、三维距离Vxyz的彩色纹理图。
4.根据权利要求2所述的基于人体骨骼节点距离的动作识别方法,其特征在于:对四个通道输出分类概率矢量v1,v2,v3,v4按照如下公式进行融合,
其中,代表矢量的元素相乘,Fin()函数代表将概率值最大的动作作为动作识别的结果。
CN201710573316.3A 2017-07-14 2017-07-14 一种基于人体骨骼节点距离的动作识别方法 Pending CN107392131A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710573316.3A CN107392131A (zh) 2017-07-14 2017-07-14 一种基于人体骨骼节点距离的动作识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710573316.3A CN107392131A (zh) 2017-07-14 2017-07-14 一种基于人体骨骼节点距离的动作识别方法

Publications (1)

Publication Number Publication Date
CN107392131A true CN107392131A (zh) 2017-11-24

Family

ID=60340130

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710573316.3A Pending CN107392131A (zh) 2017-07-14 2017-07-14 一种基于人体骨骼节点距离的动作识别方法

Country Status (1)

Country Link
CN (1) CN107392131A (zh)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108257139A (zh) * 2018-02-26 2018-07-06 中国科学院大学 基于深度学习的rgb-d三维物体检测方法
CN108898064A (zh) * 2018-06-05 2018-11-27 华东师范大学 一种基于空间匹配的3d骨骼动作识别方法
CN109614899A (zh) * 2018-11-29 2019-04-12 重庆邮电大学 一种基于李群特征和卷积神经网络的人体动作识别方法
CN109670401A (zh) * 2018-11-15 2019-04-23 天津大学 一种基于骨骼运动图的动作识别方法
CN109685037A (zh) * 2019-01-08 2019-04-26 北京汉王智远科技有限公司 一种实时动作识别方法、装置及电子设备
CN110490034A (zh) * 2018-05-14 2019-11-22 欧姆龙株式会社 动作分析装置、动作分析方法、记录介质和动作分析系统
CN110717384A (zh) * 2019-08-30 2020-01-21 深圳大学 一种视频交互式行为识别方法及装置
CN111223549A (zh) * 2019-12-30 2020-06-02 华东师范大学 一种基于姿态矫正的疾病预防的移动端系统及方法
WO2020107847A1 (zh) * 2018-11-28 2020-06-04 平安科技(深圳)有限公司 基于骨骼点的跌倒检测方法及其跌倒检测装置
CN115131301A (zh) * 2022-06-15 2022-09-30 北京长木谷医疗科技有限公司 基于深度学习的智能识别骨关节炎的方法及系统
CN115457518A (zh) * 2022-08-30 2022-12-09 淮阴工学院 基于姿态感知与几何约束下的驾驶员行为识别方法及系统

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103529944A (zh) * 2013-10-17 2014-01-22 合肥金诺数码科技股份有限公司 一种基于Kinect的人体动作识别方法
CN105138995A (zh) * 2015-09-01 2015-12-09 重庆理工大学 基于骨架信息的时不变及视不变的人体行为识别方法
US20160086350A1 (en) * 2014-09-22 2016-03-24 Foundation for Research and Technology - Hellas (FORTH) (acting through its Institute of Computer Apparatuses, methods and systems for recovering a 3-dimensional skeletal model of the human body
CN105930767A (zh) * 2016-04-06 2016-09-07 南京华捷艾米软件科技有限公司 一种基于人体骨架的动作识别方法
CN106156714A (zh) * 2015-04-24 2016-11-23 北京雷动云合智能技术有限公司 基于骨骼关节特征和表面特征融合的人体行为识别方法
CN106203503A (zh) * 2016-07-08 2016-12-07 天津大学 一种基于骨骼序列的动作识别方法
CN106203363A (zh) * 2016-07-15 2016-12-07 中国科学院自动化研究所 人体骨架运动序列行为识别方法
CN106845386A (zh) * 2017-01-16 2017-06-13 中山大学 一种基于动态时间规整与多核学习的动作识别方法
US20170168586A1 (en) * 2015-12-15 2017-06-15 Purdue Research Foundation Method and System for Hand Pose Detection
CN106897670A (zh) * 2017-01-19 2017-06-27 南京邮电大学 一种基于计算机视觉的快递暴力分拣识别方法
CN106897714A (zh) * 2017-03-23 2017-06-27 北京大学深圳研究生院 一种基于卷积神经网络的视频动作检测方法
CN106909887A (zh) * 2017-01-19 2017-06-30 南京邮电大学盐城大数据研究院有限公司 一种基于cnn和svm的动作识别方法

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103529944A (zh) * 2013-10-17 2014-01-22 合肥金诺数码科技股份有限公司 一种基于Kinect的人体动作识别方法
US20160086350A1 (en) * 2014-09-22 2016-03-24 Foundation for Research and Technology - Hellas (FORTH) (acting through its Institute of Computer Apparatuses, methods and systems for recovering a 3-dimensional skeletal model of the human body
CN106156714A (zh) * 2015-04-24 2016-11-23 北京雷动云合智能技术有限公司 基于骨骼关节特征和表面特征融合的人体行为识别方法
CN105138995A (zh) * 2015-09-01 2015-12-09 重庆理工大学 基于骨架信息的时不变及视不变的人体行为识别方法
US20170168586A1 (en) * 2015-12-15 2017-06-15 Purdue Research Foundation Method and System for Hand Pose Detection
CN105930767A (zh) * 2016-04-06 2016-09-07 南京华捷艾米软件科技有限公司 一种基于人体骨架的动作识别方法
CN106203503A (zh) * 2016-07-08 2016-12-07 天津大学 一种基于骨骼序列的动作识别方法
CN106203363A (zh) * 2016-07-15 2016-12-07 中国科学院自动化研究所 人体骨架运动序列行为识别方法
CN106845386A (zh) * 2017-01-16 2017-06-13 中山大学 一种基于动态时间规整与多核学习的动作识别方法
CN106897670A (zh) * 2017-01-19 2017-06-27 南京邮电大学 一种基于计算机视觉的快递暴力分拣识别方法
CN106909887A (zh) * 2017-01-19 2017-06-30 南京邮电大学盐城大数据研究院有限公司 一种基于cnn和svm的动作识别方法
CN106897714A (zh) * 2017-03-23 2017-06-27 北京大学深圳研究生院 一种基于卷积神经网络的视频动作检测方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
CHUANKUN LI.ET: "Joint Distance Maps Based Action Recognition With Convolutional Neural Networks", 《IEEE SIGNAL PROCESSING LETTERS》 *
陈渊博: "视频序列中的人体动作识别", 《中国博士学位论文全文数据库 信息科技辑》 *

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108257139A (zh) * 2018-02-26 2018-07-06 中国科学院大学 基于深度学习的rgb-d三维物体检测方法
CN108257139B (zh) * 2018-02-26 2020-09-08 中国科学院大学 基于深度学习的rgb-d三维物体检测方法
CN110490034A (zh) * 2018-05-14 2019-11-22 欧姆龙株式会社 动作分析装置、动作分析方法、记录介质和动作分析系统
CN108898064A (zh) * 2018-06-05 2018-11-27 华东师范大学 一种基于空间匹配的3d骨骼动作识别方法
CN109670401A (zh) * 2018-11-15 2019-04-23 天津大学 一种基于骨骼运动图的动作识别方法
WO2020107847A1 (zh) * 2018-11-28 2020-06-04 平安科技(深圳)有限公司 基于骨骼点的跌倒检测方法及其跌倒检测装置
CN109614899A (zh) * 2018-11-29 2019-04-12 重庆邮电大学 一种基于李群特征和卷积神经网络的人体动作识别方法
CN109614899B (zh) * 2018-11-29 2022-07-01 重庆邮电大学 一种基于李群特征和卷积神经网络的人体动作识别方法
CN109685037A (zh) * 2019-01-08 2019-04-26 北京汉王智远科技有限公司 一种实时动作识别方法、装置及电子设备
CN109685037B (zh) * 2019-01-08 2021-03-05 北京汉王智远科技有限公司 一种实时动作识别方法、装置及电子设备
CN110717384A (zh) * 2019-08-30 2020-01-21 深圳大学 一种视频交互式行为识别方法及装置
CN111223549A (zh) * 2019-12-30 2020-06-02 华东师范大学 一种基于姿态矫正的疾病预防的移动端系统及方法
CN115131301A (zh) * 2022-06-15 2022-09-30 北京长木谷医疗科技有限公司 基于深度学习的智能识别骨关节炎的方法及系统
WO2023241032A1 (zh) * 2022-06-15 2023-12-21 北京长木谷医疗科技有限公司 基于深度学习的智能识别骨关节炎的方法及系统
CN115457518A (zh) * 2022-08-30 2022-12-09 淮阴工学院 基于姿态感知与几何约束下的驾驶员行为识别方法及系统
CN115457518B (zh) * 2022-08-30 2024-01-26 淮阴工学院 基于姿态感知与几何约束下的驾驶员行为识别方法及系统

Similar Documents

Publication Publication Date Title
CN107392131A (zh) 一种基于人体骨骼节点距离的动作识别方法
CN108932500B (zh) 一种基于深度神经网络的动态手势识别方法及系统
CN107358257B (zh) 一种大数据场景下可增量学习的图像分类训练方法
CN106778604B (zh) 基于匹配卷积神经网络的行人再识别方法
CN108830252A (zh) 一种融合全局时空特征的卷积神经网络人体动作识别方法
CN106203503B (zh) 一种基于骨骼序列的动作识别方法
CN109961006A (zh) 一种低像素多目标人脸检测和关键点定位方法以及对齐方法
CN105160310A (zh) 基于3d卷积神经网络的人体行为识别方法
CN107292813A (zh) 一种基于生成对抗网络的多姿态人脸生成方法
CN107808129A (zh) 一种基于单个卷积神经网络的面部多特征点定位方法
CN110516536A (zh) 一种基于时序类别激活图互补的弱监督视频行为检测方法
CN109543632A (zh) 一种基于浅层特征融合引导的深层网络行人检测方法
CN112800906B (zh) 一种基于改进YOLOv3的自动驾驶汽车跨域目标检测方法
CN112686928B (zh) 一种基于多源信息融合的运动目标视觉跟踪方法
Li et al. Sign language recognition based on computer vision
CN112347861A (zh) 一种基于运动特征约束的人体姿态估计方法
CN108898063A (zh) 一种基于全卷积神经网络的人体姿态识别装置及方法
CN110728183A (zh) 一种基于注意力机制的神经网络的人体动作识别方法
CN106228109A (zh) 一种基于骨骼运动轨迹的动作识别方法
CN109858407A (zh) 一种基于多种信息流特征和异步融合的视频行为识别方法
CN105069745A (zh) 基于普通图像传感器及增强现实技术的带表情变脸系统及方法
CN110163567A (zh) 基于多任务级联卷积神经网络的课堂点名系统
CN111881716A (zh) 一种基于多视角生成对抗网络的行人重识别方法
CN109670401B (zh) 一种基于骨骼运动图的动作识别方法
CN113128424A (zh) 基于注意力机制的图卷积神经网络动作识别方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20171124