CN110490143A - 一种自适应模式的动作识别方法 - Google Patents

一种自适应模式的动作识别方法 Download PDF

Info

Publication number
CN110490143A
CN110490143A CN201910775165.9A CN201910775165A CN110490143A CN 110490143 A CN110490143 A CN 110490143A CN 201910775165 A CN201910775165 A CN 201910775165A CN 110490143 A CN110490143 A CN 110490143A
Authority
CN
China
Prior art keywords
sequence
skeleton point
action
half body
whole body
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201910775165.9A
Other languages
English (en)
Inventor
谷林
王婧
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xian Polytechnic University
Original Assignee
Xian Polytechnic University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xian Polytechnic University filed Critical Xian Polytechnic University
Priority to CN201910775165.9A priority Critical patent/CN110490143A/zh
Publication of CN110490143A publication Critical patent/CN110490143A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2411Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Human Computer Interaction (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供一种自适应模式的动作识别方法,具体实施方式为:步骤1,采集人体动作视频,提取其中每一帧人体骨骼点的位置信息,组成全身骨骼点动作序列;步骤2,从全身骨骼点动作序列中读取半身骨骼点动作序列,做数据处理,获得半身动作姿态矩阵序列Sp和半身动作符合度s1;全身动作姿态矩阵序列Sh和全身动作符合度s2;步骤3,若s1不大于s2,将Sh作为输入数据;否则将Sp作为输入数据,采用SVM支持向量机对输入数据进行动作识别,得到识别结果。本发明采用不同的动作模式进行识别,选择最佳的骨骼点集合表示动作姿态特征,有效避免无关关节点对动作质量评估时的影响,提高动作识别的准确率。

Description

一种自适应模式的动作识别方法
技术领域
本发明属于动作识别技术领域,涉及一种自适应模式的动作识别方法。
背景技术
动作识别技术已广泛应用在康复训练、智能家居和体感游戏等多个方面。随着计算机视觉的高速发展,越来越多的学者致力于人体动作识别的相关研究。对于动作识别,人体动作特征的提取和表示是前提和关键,也是难点和重点。对所有动作采用单一的动作模式进行动作识别的方法,无法减少同类动作的类内可变性和不同动作间的类间相似性造成的误差,从而导致动作识别准确率较低。
发明内容
本发明的目的是提供一种自适应模式的动作识别方法,解决了现有技术中存在的作识别准确率较低的问题。
本发明所采用的技术方案是,
一种自适应模式的动作识别方法,具体包括如下步骤为:
步骤1,采集人体动作视频,提取人体动作视频中每一帧人体骨骼点的位置信息,组成全身骨骼点动作序列;
步骤2,从全身骨骼点动作序列中读取半身骨骼点动作序列,对半身骨骼点动作序列做数据处理,获得半身动作姿态矩阵序列Sp和半身动作符合度s1;对全身骨骼点动作序列做数据处理,获得全身动作姿态矩阵序列Sh和全身动作符合度s2
步骤3,若s1不大于s2,将Sh作为输入数据;否则将Sp作为输入数据,采用SVM支持向量机对输入数据进行动作识别,得到识别结果。
本发明的特点还在于,
步骤1中采用使用微软Kinect2.0红外深度传感器进行人体动作视频和骨骼点的提取。
步骤1中的骨骼点位置为{头,颈,左肩,右肩,脊柱中心,左肘,右肘,左手,右手,左膝,右膝,左脚踝,右脚踝},每个骨骼点的三维空间坐标信息的数据格式为(float x,floaty,float z)。
步骤2中全身动作姿态矩阵序列Sh和全身动作符合度s2的具体计算方式为:
步骤2.1,根据全身骨骼点动作序列中每个骨骼点的旋转量GiF,GiF代表第F帧第i个骨骼点的旋转量;
步骤2.2,根据全身骨骼点动作序列计算出全身骨骼点的人体姿态矩阵RF
步骤2.3,根据GiF和RF求出全身骨骼点动作序列中每一帧的动作姿态矩阵SF,所有帧的SF组成的集合{SF}即为全身动作姿态矩阵序列Sh
步骤2.4,根据Rh和Sh通过神经网络计算得到全身动作符合度s2
半身动作姿态矩阵序列Sp和半身动作符合度s1具体计算方式与步骤2.1~2.4相同,不同在于采用半身骨骼点动作序列进行计算,半身骨骼点动作序列为骨骼点动作序列中上半身骨骼点的序列。
半身骨骼点动作序列为{头,颈,左肩,右肩,脊柱中心,左肘,右肘,左手,右手},全身骨骼点动作序列为{头,颈,左肩,右肩,脊柱中心,左肘,右肘,左手,右手,左膝,右膝,左脚踝,右脚踝},每个骨骼点的三维空间坐标信息的数据格式为(float x,float y,floatz)。
旋转量GiF的具体计算方式为:将全身骨骼点动作序列的三维空间坐标信息转化为四元数的数据格式,四元数的数据格式为(float x,float y,float z,float w),其中w为骨骼点的欧拉角;通过w计算出各骨骼点的旋转量GiF,GiF的计算公式为:
GiF=wi+1-wi (1)
其中wi为当前骨骼点的欧拉角,wi+1为人体骨骼点拓扑结构中下一个骨骼点的欧拉角。
步骤2.3中RF表达式为:
RF=(Ri,j)M×M (2)
式中,Ri,j表示的是第i个骨骼点到第j个骨骼点的相对位置关系,可以通过计算第i个骨骼点指向第j个骨骼点的单位向量得到两骨骼点间的相对位置关系。
SF的表达式为:
SF=[RF,GiF] (3)。
步骤3按照以下方式实施:
步骤3.1,若s1不大于s2,将Sh作为输入数据;否则将Sp作为输入数据;
步骤3.2,采集大量人体动作视频,提取每个人体动作视频中每一帧人体骨骼点的位置信息,组成全身骨骼点动作序列,对所有全身骨骼点动作序列做数据处理,获得的所有动作姿态矩阵序列作为全身模式的训练集;
步骤3.3,从所有全身骨骼点动作序列中读取半身骨骼点动作序列,对所有半身骨骼点动作序列做数据处理,获得的所有的动作姿态矩阵序列作为半身模式的训练集;
步骤3.4,建立SVM支持向量机模型,若输入数据为Sp,选择半身模式的训练集对SVM支持向量机模型进行训练;若输入数据为Sh,选择半身模式的训练集对SVM支持向量机模型进行训练;
步骤3.5,对输入数据进行时间上的对齐处理;利用训练好的SVM支持向量机模型对对齐处理后的输入数据进行动作识别,输出动作名称。
本发明的有益效果是
本发明一种自适应模式的动作识别方法针对不同动作的特征,采用不同的动作模式进行识别,选择最佳的骨骼点集合表示动作姿态特征,有效避免无关关节点对动作质量评估时的影响,提高动作识别的准确率。
附图说明
图1是本发明一种自适应模式的动作识别方法的流程图;
图2是本发明一种自适应模式的动作识别方法中人体骨骼点示意图;
图3是本发明一种自适应模式的动作识别方法人体骨骼点拓扑关系图;
图4是本发明一种自适应模式的动作识别方法人体骨骼点拓扑关系图半身骨骼点动作序列的骨骼点示意图。
具体实施方式
下面结合附图和具体实施方式对本发明进行详细说明。
本发明一种自适应模式的动作识别方法,如图1所示,具体按照如下步骤实施:
步骤1,采集人体动作视频,提取人体动作视频中每一帧人体骨骼点的位置信息,组成全身骨骼点动作序列;
步骤2,从全身骨骼点动作序列中读取半身骨骼点动作序列,对半身骨骼点动作序列做数据处理,获得半身动作姿态矩阵序列Sp和半身动作符合度s1;对全身骨骼点动作序列做数据处理,获得全身动作姿态矩阵序列Sh和全身动作符合度s2
步骤3,若s1大于s2,将Sp作为输入数据;否则将Sh作为输入数据,采用SVM支持向量机对输入数据进行动作识别,得到识别结果。
步骤1中,使用微软Kinect2.0红外深度传感器进行人体动作视频和骨骼点的提取。人体骨骼点位置信息为如图2所示的25个骨骼点的三维空间的坐标,为{头,颈,左肩,右肩,脊柱中心,左肘,右肘,左手,右手,左膝,右膝,左脚踝,右脚踝},每个骨骼点的三维空间坐标信息的数据格式为(float x,float y,float z),其中float x、float y、float z分别为骨骼点的横坐标、纵坐标和竖坐标;
步骤2中,全身动作姿态矩阵序列Sh和全身动作符合度s2的具体计算方式为:
步骤2.1,计算全身骨骼点动作序列中每个骨骼点的旋转量GiF,GiF代表第F帧第i个骨骼点的旋转量,具体步骤为:
将全身骨骼点动作序列的三维空间坐标信息转化为四元数的数据格式,四元数的数据格式为(float x,float y,float z,float w),其中w为骨骼点的欧拉角;通过w计算出各骨骼点的旋转量GiF,GiF的计算公式为:
GiF=wi+1-wi (1)
其中wi为当前骨骼点的欧拉角,wi+1为人体骨骼点拓扑结构中下一个骨骼点的欧拉角,人体骨骼点拓扑结构如图3所示;
步骤2.2,计算出全身骨骼点动作序列的人体姿态矩阵RF,RF代表第F帧的人体姿态矩阵,即一个动作之间的所有骨骼点的相对位置关系组成的矩阵;RF表达式为:
RF=(Ri,j)M×M (2)
式中,Ri,j表示的是第i个骨骼点到第j个骨骼点的相对位置关系,可以通过计算第i个骨骼点指向第j个骨骼点的单位向量得到两骨骼点间的相对位置关系;
步骤2.3,求出全身骨骼点动作序列中每一帧的动作姿态矩阵SF,SF的表达式为:
SF=[RF,GiF] (3)
全身骨骼点动作序列中所有帧的动作姿态矩阵组成的集合{SF}即为全身骨动作姿态矩阵序列Sh
步骤2.4,根据Rh和Sh通过神经网络计算得到动作符合度s2
步骤2中,半身动作姿态矩阵序列Sp和半身动作符合度s1具体计算方式与步骤2.1~2.4相同,不同在于采用半身骨骼点动作序列进行计算,半身骨骼点动作序列为骨骼点动作序列中上半身骨骼点的序列,上半身骨骼点即为图4中有标号的点,为{头,颈,左肩,右肩,脊柱中心,左肘,右肘,左手,右手}。
步骤3的具体实施方式为:
步骤3.1,比较s1与s2的数值大小,若s1大于s2,选择半身动作模式,将Sp作为输入数据,否则选择全身动作模式,将Sh作为输入数据;
步骤3.2,采集大量人体动作视频,提取每个人体动作视频中每一帧人体骨骼点的位置信息,组成全身骨骼点动作序列,对所有全身骨骼点动作序列做数据处理,获得的所有动作姿态矩阵序列作为全身模式的训练集;
步骤3.3,从所有全身骨骼点动作序列中读取半身骨骼点动作序列,对所有半身骨骼点动作序列做数据处理,获得的所有的动作姿态矩阵序列作为半身模式的训练集;
步骤3.4,建立SVM支持向量机模型,若输入数据为Sp,选择半身模式的训练集对SVM支持向量机模型进行训练;若输入数据为Sh,选择半身模式的训练集对SVM支持向量机模型进行训练;
步骤3.5,对输入数据进行时间上的对齐处理;利用训练好的SVM支持向量机模型对对齐处理后的输入数据进行动作识别,输出动作名称。
实施例1
本实施例在公共UTKinect-Action数据集上进行,将UTKinect-Action数据集的结果与HO3DJ方法和CRF方法进行了对比。
UTKinect-Action数据集,包含Kinect传感器提取的10个动作的数据,每个动作由10个人完成,每个人每个动作重复两次,共有199个有效动作序列。UTKinect-Action数据集中的动作具有高聚类和视角变化的特点。
本方法与其他方法进行比较的对比结果,如表1所示。本方法高于HO3DJ方法4.89%,高于CRF方法4.09%。
表1 UTKinect-Action数据集各动作的识别准确率对比
实施例2
表2 MSR Action3D数据集各动作的动作模式和识别率
本实施在MSR Action3D数据集上进行,将MSR Action3D数据集的结果与HO3DJ、Profile HMM和Eigenjoints方法进行对比分析。
对于MSR Action3D数据集,数据集包含10个人的20个动作,每个动作重复3次,一共557个动作序列。将数据集中的20个动作分为三个子集AS1、AS2和AS3,如表2所示,每个子集有8个动作。其中AS1和AS2相似,AS3相对复杂。表3是本文提出的方法与其他方法在MSRAction3D数据集上的比较结果,通过实验结果可以看出,在MSR Action3D数据集下,实验结果表明与传统的Eigenjoints动作识别方法相比动作识别率提高了9%,与Profile HMM相比动作识别率提高了4.9%,与HO3DJ相比识别准确率提高0.5%。从而证明了本方法高于其他方法的识别率。
表3 MSR Action3D数据集识别率与其他方法的对比

Claims (9)

1.一种自适应模式的动作识别方法,其特征在于,具体包括如下步骤:
步骤1,采集人体动作视频,提取所述人体动作视频中每一帧人体骨骼点的位置信息,组成全身骨骼点动作序列;
步骤2,从所述全身骨骼点动作序列中读取半身骨骼点动作序列,对所述半身骨骼点动作序列做数据处理,获得半身动作姿态矩阵序列Sp和半身动作符合度s1;对所述全身骨骼点动作序列做数据处理,获得全身动作姿态矩阵序列Sh和全身动作符合度s2
步骤3,若s1不大于s2,将Sh作为输入数据;否则将Sp作为输入数据,采用SVM支持向量机对所述输入数据进行动作识别,得到识别结果。
2.如权利要求1所述的一种自适应模式的动作识别方法,其特征在于,所述步骤1中采用使用微软Kinect2.0红外深度传感器进行人体动作视频和骨骼点的提取。
3.如权利要求1所述的一种自适应模式的动作识别方法,其特征在于,所述步骤1中的骨骼点位置为{头,颈,左肩,右肩,脊柱中心,左肘,右肘,左手,右手,左膝,右膝,左脚踝,右脚踝},每个骨骼点的三维空间坐标信息的数据格式为(float x,float y,float z)。
4.如权利要求2所述的一种自适应模式的动作识别方法,其特征在于,所述步骤2中全身动作姿态矩阵序列Sh和全身动作符合度s2按照如下步骤具体确定:
步骤2.1,根据所述全身骨骼点动作序列中每个骨骼点的旋转量GiF,GiF代表第F帧第i个骨骼点的旋转量;
步骤2.2,根据全身骨骼点动作序列计算出全身骨骼点的人体姿态矩阵RF
步骤2.3,根据所述GiF和RF求出全身骨骼点动作序列中每一帧的动作姿态矩阵SF,所有帧的SF组成的集合{SF}即为全身动作姿态矩阵序列Sh
步骤2.4,根据Rh和Sh通过神经网络计算得到全身动作符合度s2
所述半身动作姿态矩阵序列Sp和半身动作符合度s1具体计算方式与步骤2.1~2.4相同,不同在于采用半身骨骼点动作序列进行计算,所述半身骨骼点动作序列为全身骨骼点动作序列中的上半身骨骼点的序列。
5.如权利要求4所述的一种自适应模式的动作识别方法,其特征在于,所述半身骨骼点动作序列为{头,颈,左肩,右肩,脊柱中心,左肘,右肘,左手,右手},所述全身骨骼点动作序列为{头,颈,左肩,右肩,脊柱中心,左肘,右肘,左手,右手,左膝,右膝,左脚踝,右脚踝},所述每个骨骼点的三维空间坐标信息的数据格式为(float x,float y,float z)。
6.如权利要求4所述的一种自适应模式的动作识别方法,其特征在于,所述旋转量GiF的具体计算方式为:
将全身骨骼点动作序列的三维空间坐标信息转化为四元数的数据格式,四元数的数据格式为(float x,float y,float z,float w),其中w为骨骼点的欧拉角;通过w计算出各骨骼点的旋转量GiF,GiF的计算公式为:
GiF=wi+1-wi (1)
其中wi为当前骨骼点的欧拉角,wi+1为人体骨骼点拓扑结构中下一个骨骼点的欧拉角。
7.如权利要求4所述的一种自适应模式的动作识别方法,其特征在于,所述步骤2.3中RF表达式为:
RF=(Ri,j)M×M (2)
式中,Ri,j表示的是第i个骨骼点到第j个骨骼点的相对位置关系,可以通过计算第i个骨骼点指向第j个骨骼点的单位向量得到两骨骼点间的相对位置关系。
8.如权利要求4所述的一种自适应模式的动作识别方法,其特征在于,所述SF的表达式为:
SF=[RF,GiF] (3)。
9.如权利要求1所述的一种自适应模式的动作识别方法,其特征在于,所述步骤3按照以下方式实施:
步骤3.1,若s1不大于s2,将Sh作为输入数据;否则将Sp作为输入数据,
步骤3.2,采集大量人体动作视频,提取每个人体动作视频中每一帧人体骨骼点的位置信息,组成全身骨骼点动作序列,对所有全身骨骼点动作序列做数据处理,获得的所有动作姿态矩阵序列作为全身模式的训练集;
步骤3.3,从所有全身骨骼点动作序列中读取半身骨骼点动作序列,对所有半身骨骼点动作序列做数据处理,获得的所有的动作姿态矩阵序列作为半身模式的训练集;
步骤3.4,建立SVM支持向量机模型,若输入数据为Sp,选择半身模式的训练集对所述SVM支持向量机模型进行训练;若输入数据为Sh,选择半身模式的训练集对所述SVM支持向量机模型进行训练;
步骤3.5,对输入数据进行时间上的对齐处理;利用训练好的SVM支持向量机模型对对齐处理后的输入数据进行动作识别,输出动作名称。
CN201910775165.9A 2019-08-21 2019-08-21 一种自适应模式的动作识别方法 Pending CN110490143A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910775165.9A CN110490143A (zh) 2019-08-21 2019-08-21 一种自适应模式的动作识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910775165.9A CN110490143A (zh) 2019-08-21 2019-08-21 一种自适应模式的动作识别方法

Publications (1)

Publication Number Publication Date
CN110490143A true CN110490143A (zh) 2019-11-22

Family

ID=68552609

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910775165.9A Pending CN110490143A (zh) 2019-08-21 2019-08-21 一种自适应模式的动作识别方法

Country Status (1)

Country Link
CN (1) CN110490143A (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112464847A (zh) * 2020-12-07 2021-03-09 北京邮电大学 视频中人体动作切分方法及装置
CN112800990A (zh) * 2021-02-02 2021-05-14 南威软件股份有限公司 一种实时人体动作识别和计数方法
CN113033526A (zh) * 2021-05-27 2021-06-25 北京欧应信息技术有限公司 基于计算机实现的方法、电子设备和计算机程序产品
CN113342166A (zh) * 2021-05-31 2021-09-03 西北工业大学 基于耳机的保护隐私的颈椎运动识别方法及系统

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106022213A (zh) * 2016-05-04 2016-10-12 北方工业大学 一种基于三维骨骼信息的人体动作识别方法
CN107180235A (zh) * 2017-06-01 2017-09-19 陕西科技大学 基于Kinect的人体动作识别算法
CN109101864A (zh) * 2018-04-18 2018-12-28 长春理工大学 基于关键帧和随机森林回归的人体上半身动作识别方法
CN109886150A (zh) * 2019-01-29 2019-06-14 上海佑显科技有限公司 一种基于Kinect摄像机的驾驶行为识别方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106022213A (zh) * 2016-05-04 2016-10-12 北方工业大学 一种基于三维骨骼信息的人体动作识别方法
CN107180235A (zh) * 2017-06-01 2017-09-19 陕西科技大学 基于Kinect的人体动作识别算法
CN109101864A (zh) * 2018-04-18 2018-12-28 长春理工大学 基于关键帧和随机森林回归的人体上半身动作识别方法
CN109886150A (zh) * 2019-01-29 2019-06-14 上海佑显科技有限公司 一种基于Kinect摄像机的驾驶行为识别方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
刘娇: "基于Kinect的骨骼追踪及肢体动作识别研究", 《中国优秀硕士学位论文全文数据库 信息科技辑》 *
崔议尹: "基于三维LARK特征的运动目标检测模型研究", 《中国优秀硕士学位论文全文数据库 信息科技辑》 *
裴启程: "基于Kinect的人体行为识别研究", 《中国优秀硕士学位论文全文数据库 信息科技辑》 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112464847A (zh) * 2020-12-07 2021-03-09 北京邮电大学 视频中人体动作切分方法及装置
CN112800990A (zh) * 2021-02-02 2021-05-14 南威软件股份有限公司 一种实时人体动作识别和计数方法
CN112800990B (zh) * 2021-02-02 2023-05-26 南威软件股份有限公司 一种实时人体动作识别和计数方法
CN113033526A (zh) * 2021-05-27 2021-06-25 北京欧应信息技术有限公司 基于计算机实现的方法、电子设备和计算机程序产品
CN113342166A (zh) * 2021-05-31 2021-09-03 西北工业大学 基于耳机的保护隐私的颈椎运动识别方法及系统
CN113342166B (zh) * 2021-05-31 2023-07-07 西北工业大学 基于耳机的保护隐私的颈椎运动识别方法及系统

Similar Documents

Publication Publication Date Title
CN110490143A (zh) 一种自适应模式的动作识别方法
Wan et al. Explore efficient local features from RGB-D data for one-shot learning gesture recognition
Kamal et al. Depth images-based human detection, tracking and activity recognition using spatiotemporal features and modified HMM
CN107679522B (zh) 基于多流lstm的动作识别方法
CN107292813A (zh) 一种基于生成对抗网络的多姿态人脸生成方法
CN107958218A (zh) 一种实时手势识别的方法
CN109376582A (zh) 一种基于生成对抗网络的交互式人脸卡通方法
CN102271241A (zh) 一种基于面部表情/动作识别的图像通信方法及系统
CN106778506A (zh) 一种融合深度图像和多通道特征的表情识别方法
CN105536205A (zh) 一种基于单目视频人体动作感知的上肢训练系统
CN105912999A (zh) 基于深度信息的人体行为识别方法
Mohammadzade et al. Dynamic time warping-based features with class-specific joint importance maps for action recognition using Kinect depth sensor
CN109460734A (zh) 基于层次动态深度投影差值图像表示的视频行为识别方法及系统
Han et al. Sign language recognition based on R (2+ 1) D with spatial–temporal–channel attention
US20230230305A1 (en) Online streamer avatar generation method and apparatus
CN104881852B (zh) 基于免疫克隆和模糊核聚类的图像分割方法
CN109766782A (zh) 基于svm的实时肢体动作识别方法
CN105069745A (zh) 基于普通图像传感器及增强现实技术的带表情变脸系统及方法
CN107479693A (zh) 基于rgb信息的实时手部识别方法、存储介质、电子设备
Wu et al. Adversarial UV-transformation texture estimation for 3D face aging
CN110223368A (zh) 一种基于深度学习的面部无标记运动捕捉方法
CN115830652A (zh) 一种深度掌纹识别装置及方法
CN109993135A (zh) 一种基于增强现实的手势识别方法、系统及装置
CN116469175B (zh) 一种幼儿教育可视化互动方法及系统
Xie et al. MSBA-Net: Multi-Scale Behavior Analysis Network for Random Hand Gesture Authentication

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20191122

RJ01 Rejection of invention patent application after publication