CN107392098A - 一种基于人体骨架信息的动作完成度识别方法 - Google Patents
一种基于人体骨架信息的动作完成度识别方法 Download PDFInfo
- Publication number
- CN107392098A CN107392098A CN201710454684.6A CN201710454684A CN107392098A CN 107392098 A CN107392098 A CN 107392098A CN 201710454684 A CN201710454684 A CN 201710454684A CN 107392098 A CN107392098 A CN 107392098A
- Authority
- CN
- China
- Prior art keywords
- video
- template
- action
- time window
- human skeleton
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/23—Recognition of whole body movements, e.g. for sport training
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/751—Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- General Physics & Mathematics (AREA)
- Software Systems (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Social Psychology (AREA)
- Psychiatry (AREA)
- Computational Linguistics (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Evolutionary Computation (AREA)
- Medical Informatics (AREA)
- Image Analysis (AREA)
Abstract
本发明提出的一种基于人体骨架信息的动作完成度识别方法,属于图像处理领域。本发明分别建立模板数据库和测试数据库;使用Kinect拍摄某人完成某项动作流程的完整视频并提取相应的人体骨架信息,存入模板数据库中;识别时,设置时间窗口和时间间隔,使用Kinect实时拍摄测试视频,提取每一帧图像及人体骨架信息;按照时间间隔不断移动时间窗口,直到时间窗口移动至测试视频的最后一帧为当前时间窗口的最后一帧时,计算时间窗口与模板视频所有片段匹配的相似度,模板视频相似度最高片段的动作即为动作识别结果并计算动作完成度。本发明能够实时进行比对,方便快捷,准确度高,解决了依靠人工判断动作流程进度及准确度的难题。
Description
技术领域
本发明属于图像处理技术领域,特别涉及一种基于人体骨架信息的动作完成度识别方法。
背景技术
在重工业工厂中,工人手工工作时间长、劳动工作量较大的情况较为普遍,并且工人所从事的劳动动作重复性较高。传统上,工厂一般采用便携通信设备(如耳麦、对讲机)或人工肉眼巡检的方式判断准确度和完成进度,来进行进度管理,并防止进度拖延。这两种方式有着耗费人力、操作不便、采集周期长、采集数据不准确和增加人工成本等缺点,无法对工作进度进行精确的管理。
微软公司推出的Kinect是一种体感外设摄像头系统,包括:彩色摄像头、深度(红外)摄像头、红外投影机和四元性麦克风阵列,Kinect的特点是可以感知场景深度信息变化,采集人体关节点三维数据。如今Kinect主要被用于手势识别、四肢动作、人体监测等方面。
Kinect结合其SDK(软件开发工具包Software Development Kit)可以得到25个三维人体骨架关节点的信息:当人体走进Kinect的视野范围的时候,Kinect可以找到人体的25个关节点的位置,每个位置通过(x,y,z)坐标来表示。三维坐标系中每个坐标轴x,y,z分别对应深度(红外)摄像头的空间x,y,z坐标轴。这个坐标系是右手螺旋的,Kinect深度(红外)摄像头处于坐标系的原点上,z坐标轴与Kinect深度(红外)摄像头的朝向一致。y轴正半轴向上延伸,x轴正半轴(从Kinect深度(红外)摄像头的视角来看)向左延伸。
DTW(Dynamic Time Warping,动态时间归整)算法:给定两个离散的序列,DTW能够衡量这两个序列的相似程度,或者说两个序列的距离。同时DTW能够对两个序列的延展或者压缩能够有一定的适应性。DTW可以简单且灵活地实现模板匹配,能解决很多离散时间序列匹配的问题,视频动作识别,生物信息比对等等诸多领域都有应用。DTW能够计算这两个序列的相似程度,并且给出一个能最大程度降低两个序列距离的点到点的匹配。
发明内容
本发明目的是为克服已有技术的不足之处,提出一种基于人体骨架信息的动作完成度识别方法。本发明使用Kinect体感外设摄像头系统采集到的人体骨架信息,通过DTW算法计算得出人物某项动作的进度及准确度,方便快捷,准确度高,解决了依靠人工判断动作流程进度及准确度的难题。
本发明提出的一种基于人体骨架信息的动作完成度识别方法,包括以下步骤:
(1)连接计算机与Kinect,在计算机中,分别建立模板数据库和测试数据库两个数据库;
(2)录制模板;使用Kinect拍摄某人完成某项动作流程的完整视频并提取相应的人体骨架信息,存入步骤(1)创建的模板数据库中;具体步骤如下:
(2-1)使用Kinect拍摄某人完成某项动作流程的完整模板视频;
(2-2))从步骤(2-1)拍摄的模板视频中提取每一帧图像以及相应的人体骨架信息,所述人体骨架信息为Kinect记录的每帧图像中人体25个关节点的位置坐标,并保存到模板数据库中;
(2-3)通过人工方式,以该动作流程中各个具体的动作为单位,将模板视频所拍摄的动作流程分割成n个片段,并对每个片段的起止帧进行标注,每个片段标签记为L1…Ln;将每个片段及其相应的起止帧的信息保存到模板数据库中;
(2-4)重复步骤(2-1)至(2-3),分别录制不同动作流程的完整模板视频并提取相应的人体骨架信息,保存到模板数据库中,模板数据库构建完毕;
(3)识别动作完成度;具体步骤如下:
(3-1)打开模板数据库,确定所需识别动作所对应的模板视频;
(3-2)使用Kinect实时拍摄某人进行所需识别动作的流程视频作为测试视频,从拍摄的测试视频中实时提取每一帧的图像和人体骨架信息,并保存到数据库mysql中的测试数据库中;
(3-3)设置测试视频的对比相似度的时间窗口W,单位为帧,并设置时间间隔S,单位为秒;
(3-4)设置步骤(3-2)拍摄的测试视频的初始帧数,记为F=0;
(3-5)从测试视频中读取1帧图像,F=F+1;
(3-6)提取步骤(3-5)得到的图像的人体骨架信息并保存;
(3-7)对F进行判定:若F小于W,则返回步骤(3-5)继续提取下一帧图像;否则,初始时间窗口构建完毕,进入步骤(3-8);
(3-8)使用DTW算法计算初始时间窗口与步骤(3-1)的模板视频所有片段匹配的相似度,得到模板视频中相似度最高的片段标签记为Lx1,其中x1∈[1,n],则该片段标签Lx1代表的动作为初始时间窗口的动作识别结果;
(3-9)以S为步长,以起始帧数F=0为起点,移动时间间隔S,得到新的起始帧,重复步骤(3-4)-(3-8),得到新的时间窗口以及该时间窗口的动作识别结果;
(3-10)重复步骤(3-9),不断移动时间窗口,直到时间窗口移动至步骤(3-2)拍摄的测试视频的最后一帧作为当前时间窗口的最后一帧时,记录此时匹配得到的片段标签记为Lxm,xm∈[1,n],则该片段标签Lxm所代表的动作即为识别得到的测试视频所完成的动作,计算动作的完成度,表达式如下:
C=xm/n
式中,C代表动作完成度;识别结束。
本发明的特点及有益效果在于:
本发明提出的一种基于人体骨架信息的动作完成度识别方法,本发明使用Kinect体感外设摄像头系统采集到的人体骨架信息,通过从视频中提取的人体骨架信息与已知模板匹配,进行动作识别,并得到当前动作的进度与准确度。对于工厂来说,使用摄像头采集视频并实时反馈工人工作的进度与准确度,比传统的便携通信设备或人工巡检可以节省人力、操作方便,也可以对工作进度进行精确的管理。
附图说明
图1是本发明方法的总体流程框图。
具体实施方式
本发明提出的的一种基于人体骨架信息的动作完成度识别方法,下面结合附图和具体实施例进一步详细说明如下。
本发明提出的的一种基于人体骨架信息的动作完成度识别方法,整体流程如图1所示,包括以下步骤:
(1)连接计算机与Kinect,在计算机中,创建一个数据库mysql,在数据库mysql中分别建立模板数据库和测试数据库两个子数据库;
(2)录制模板;使用Kinect拍摄某人完成某项动作流程(例如一套完整的广播体操)的完整视频并提取相应的人体骨架信息,存入步骤(1)创建的模板数据库中,具体步骤如下:
(2-1)使用Kinect拍摄某人完成某项动作流程的完整模板视频;
(2-2)从步骤(2-1)拍摄的模板视频中提取每一帧的rgb图像及相应的人体骨架信息(即Kinect记录的每帧图像中人体25个关节点的位置坐标),并保存到模板数据库中;提取的图像帧数取决于视频的长度;
(2-3)通过人工方式,以该动作流程中各个具体的动作为单位,将模板视频所拍摄动作的全部流程分割成n个片段(例如体操动作有12小节,则分为12个片段),并对每个片段的起止帧进行标注,每个片段标签记为L1…Ln;将每个片段及其相应的起止帧的信息保存到模板数据库中;
(2-4)重复步骤(2-1)至(2-3),分别录制不同动作流程的完整模板视频并提取相应的人体骨架信息,保存到模板数据库中,模板数据库构建完毕;模板数据库中的模板数量不限;
(3)识别动作完成度;具体步骤如下:
(3-1)打开模板数据库,确定所需识别动作所对应的模板视频;
(3-2)使用Kinect实时拍摄某人进行所需识别动作的流程视频作为测试视频,从拍摄的测试视频中实时提取每一帧的rgb图像和人体骨架信息,并保存到数据库mysql中的测试数据库中;
(3-3)根据经验,设置对比相似度的时间窗口W,单位为帧,并设置时间间隔S,单位为秒;
(3-4)设置步骤(3-2)拍摄的测试视频的初始帧数,记为F=0;
(3-5)从测试视频中读取1帧图像,F=F+1;
(3-6)提取步骤(3-5)得到的图像的人体骨架信息(即25个关节点的位置坐标)并保存;
(3-7)对F进行判定:若F小于W,则返回步骤(3-5)继续提取下一帧图像;否则,初始时间窗口构建完毕,进入步骤(3-8);
(3-8)使用DTW算法计算初始时间窗口与步骤(3-1)的模板视频所有片段标签匹配的相似度,得到模板视频中相似度最高的片段标签记为Lx1,其中x1∈[1,n],则该片段标签Lx1代表的动作为初始时间窗口的动作识别结果;
具体计算方法如下:
假设本次匹配完成后得到的相似度最高的片段为Lx1,则我们可以得到一个序列人体的骨架信息(每个骨架信息包含有25个坐标点),计算该序列到模板视频中每个片段序列的距离值,选择其中的最小值;假如Lx1与模板视频中中的动作3的序列距离值最小,则可以确定Lx1在模板中属于动作3。
(3-9)以S为步长,以起始帧数F=0为起点,移动时间间隔S,得到新的起始帧,重复步骤(3-4)-(3-8),得到新的时间窗口以及该时间窗口的动作识别结果;
(3-10)重复步骤(3-9),不断移动时间窗口,直到时间窗口移动至步骤(3-2)拍摄的测试视频的最后一帧作为当前时间窗口的最后一帧时,记录此时匹配得到的片段标签记为Lxm,xm∈[1,n],则该片段标签Lxm所代表的动作即为识别得到的测试视频所完成的动作,计算动作的完成度,表达式如下:
C=xm/n
式中,C代表动作完成度,识别结束。
以上动作完成度的识别过程是随着测试视频的拍摄实时进行的,当时间窗口移动至视频拍摄的最后一帧作为当前时间窗口的最后一帧时,实时动作识别结束,当前时间窗口识别得到的片段标签序号与片段标签总数的比值即为动作的完成度结果。
(3-11)根据DTW算法,每个时间窗口得到的动作识别结果与模板中对应片段中动作一致的正确率的比值,即为该测试视频中动作完成的准确度。
假设测试视频中一共得到100个时间窗口与模板视频进行了匹配,但是其中有10个时间窗口得到的匹配结果与模板视频对应位置不相符,识别结果为错误动作,比如:时间窗口L14对应模板视频上的位置是动作4,但是匹配时识别出该时间窗口做的动作属于动作6,则该时间窗口的动作识别结果属于错误动作;则整个测试视频的准确度为90%。
另外,在实际操作中,工作人员在工作中可能会因为工作准备或其它外因造成工作中断等情况。这时,如果时间窗口匹配结果显示不为模板中的任何一种活动,则认为此时间窗口的动作为无关动作,不计入总的完成度及准确度计算。
下面结合一个具体实施例对本发明进一步详细说明说明如下。该实施例以广播体操为例,该套广播操的完整流程共包含12小节,Kinect实时拍摄某人执行该套广播体操的动作,并对执行情况(包括:完成到第几节,动作完成的精确度)进行识别。
本实施例提出的的一种基于人体骨架信息的动作完成度识别方法,包括以下步骤:
(1)连接计算机与Kinect,在计算机中,创建一个数据库mysql,在数据库mysql中分别建立模板数据库和测试数据库两个子数据库;
(2)录制模板;使用Kinect拍摄某人完成一套完整的广播体操的整个过程视频并提取相应的人体骨架信息,存入步骤(1)创建的模板数据库中,具体步骤如下:
(2-1)使用Kinect拍摄某人完成一套完整的广播体操的整个过程视频作为模板视频;
(2-2)从步骤(2-1)拍摄的模板视频中提取每一帧的rgb图像及相应的人体骨架信息(即Kinect记录的每帧图像中人体25个关节点的位置坐标),并保存到模板数据库中;
(2-3)通过人工方式,以体操中的每小节为单位(本实施例的体操共12小节),将视频所拍摄动作的全部过程分割成12个片段,并对每个片段的起止帧进行标注,每个片段标签记为L1…Ln;将每个片段及其相应的起止帧的信息保存到模板数据库中。
(3)识别动作完成度;具体步骤如下
(3-1)打开模板数据库,找到该套广播体操动作对应的模板视频;
(3-2)使用Kinect实时拍摄某人执行该套广播体操动作的流程视频作为测试视频,从拍摄的测试视频中实时提取每一帧的rgb图像和人体骨架信息,并保存到数据库mysql中的测试数据库中;
(3-3)设置对比相似度的时间窗口W(时间窗口根据经验设定,本实施例设置为15帧),设置时间间隔S(时间间隔根据经验设定,本实施例设置为1秒);
(3-4)设置步骤(3-2)拍摄动作视频的初始帧数,记为F=0;
(3-5)从测试数据库中读取1帧图像,F=F+1;
(3-6)提取步骤(3-5)得到的图像的人体骨架信息(即25个关节点的位置坐标)并保存;
(3-7)对F进行判定:若F小于15帧,则返回步骤(3-5)继续提取下一帧图像;否则,初始时间窗口构建完毕,进入步骤(3-8);
(3-8)使用DTW算法计算出初始时间窗口与模板视频所有片段标签匹配的完成度,得到模板视频中相似度最高的片段标签记为Lx1,其中x1∈[1,N],则该片段标签Lx1代表的动作为初始时间窗口的动作识别结果;
(3-9)以1s为步长,从起始帧数F=0为起点,移动时间间隔1s,得到新的起始帧,重复步骤(3-4)-(3-8),得到新的时间窗口以及该时间窗口的动作识别度结果;
(3-10)重复步骤(3-9),不断移动时间窗口,直到时间窗口移动至步骤(3-2)拍摄的测试视频的最后一帧作为当前时间窗口的最后一帧时,记录此时得到的片段标签记为Lxm,xm∈[1,n],则该片段标签Lxm所代表的动作即为识别得到的测试视频所完成的动作,计算动作的完成度;表达式如下:
C=xm/n
式中,C代表动作完成度;识别结束。
本实施例中,假设如果遍历测试视频完毕后,匹配到第6小节,则该测试视频的动作完成度为50%。
(3-11)根据DTW算法,每个时间窗口得到的动作识别结果与模板中对应片段中动作一致的正确率的比值,即为该测试视频动作完成的准确度。
Claims (2)
1.一种基于人体骨架信息的动作完成度识别方法,其特征在于,包括以下步骤:
(1)连接计算机与Kinect,在计算机中,分别建立模板数据库和测试数据库两个数据库;
(2)录制模板;使用Kinect拍摄某人完成某项动作流程的完整视频并提取相应的人体骨架信息,存入步骤(1)创建的模板数据库中;具体步骤如下:
(2-1)使用Kinect拍摄某人完成某项动作流程的完整模板视频;
(2-2))从步骤(2-1)拍摄的模板视频中提取每一帧图像以及相应的人体骨架信息,所述人体骨架信息为Kinect记录的每帧图像中人体25个关节点的位置坐标,并保存到模板数据库中;
(2-3)通过人工方式,以该动作流程中各个具体的动作为单位,将模板视频所拍摄的动作流程分割成n个片段,并对每个片段的起止帧进行标注,每个片段标签记为L1…Ln;将每个片段及其相应的起止帧的信息保存到模板数据库中;
(2-4)重复步骤(2-1)至(2-3),分别录制不同动作流程的完整模板视频并提取相应的人体骨架信息,保存到模板数据库中,模板数据库构建完毕;
(3)识别动作完成度;具体步骤如下:
(3-1)打开模板数据库,确定所需识别动作所对应的模板视频;
(3-2)使用Kinect实时拍摄某人进行所需识别动作的流程视频作为测试视频,从拍摄的测试视频中实时提取每一帧的图像和人体骨架信息,并保存到数据库mysql中的测试数据库中;
(3-3)设置测试视频的对比相似度的时间窗口W,单位为帧,并设置时间间隔S,单位为秒;
(3-4)设置步骤(3-2)拍摄的测试视频的初始帧数,记为F=0;
(3-5)从测试视频中读取1帧图像,F=F+1;
(3-6)提取步骤(3-5)得到的图像的人体骨架信息并保存;
(3-7)对F进行判定:若F小于W,则返回步骤(3-5)继续提取下一帧图像;否则,初始时间窗口构建完毕,进入步骤(3-8);
(3-8)使用DTW算法计算初始时间窗口与步骤(3-1)的模板视频所有片段匹配的相似度,得到模板视频中相似度最高的片段标签记为Lx1,其中x1∈[1,n],则该片段标签Lx1代表的动作为初始时间窗口的动作识别结果;
(3-9)以S为步长,以起始帧数F=0为起点,移动时间间隔S,得到新的起始帧,重复步骤(3-4)-(3-8),得到新的时间窗口以及该时间窗口的动作识别结果;
(3-10)重复步骤(3-9),不断移动时间窗口,直到时间窗口移动至步骤(3-2)拍摄的测试视频的最后一帧作为当前时间窗口的最后一帧时,记录此时匹配得到的片段标签记为Lxm,xm∈[1,n],则该片段标签Lxm所代表的动作即为识别得到的测试视频所完成的动作,计算动作的完成度,表达式如下:
C=xm/n
式中,C代表动作完成度;识别结束。
2.如权利要求1所述的方法,其特征在于,还包括以下步骤:
(3-11)根据DTW算法,每个时间窗口得到的动作识别结果与模板中对应片段中动作一致的正确率的比值,即为该测试视频中动作完成的准确度。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710454684.6A CN107392098A (zh) | 2017-06-15 | 2017-06-15 | 一种基于人体骨架信息的动作完成度识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710454684.6A CN107392098A (zh) | 2017-06-15 | 2017-06-15 | 一种基于人体骨架信息的动作完成度识别方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN107392098A true CN107392098A (zh) | 2017-11-24 |
Family
ID=60331991
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710454684.6A Pending CN107392098A (zh) | 2017-06-15 | 2017-06-15 | 一种基于人体骨架信息的动作完成度识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107392098A (zh) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108596148A (zh) * | 2018-05-10 | 2018-09-28 | 华南理工大学 | 一种基于计算机视觉的建筑工人劳动状态分析系统及方法 |
CN109086706A (zh) * | 2018-07-24 | 2018-12-25 | 西北工业大学 | 应用于人机协作中的基于分割人体模型的动作识别方法 |
CN110020630A (zh) * | 2019-04-11 | 2019-07-16 | 成都乐动信息技术有限公司 | 评估动作完成度的方法、装置、存储介质及电子设备 |
CN110059661A (zh) * | 2019-04-26 | 2019-07-26 | 腾讯科技(深圳)有限公司 | 动作识别方法、人机交互方法、装置及存储介质 |
CN110717460A (zh) * | 2019-10-12 | 2020-01-21 | 中国矿业大学 | 一种矿井人员违规动作识别方法 |
CN110738163A (zh) * | 2019-10-12 | 2020-01-31 | 中国矿业大学 | 一种矿井人员违规动作识别系统 |
WO2020150990A1 (zh) * | 2019-01-25 | 2020-07-30 | 深圳大学 | 人体动作表征的处理方法、系统、电子装置及存储介质 |
CN111523517A (zh) * | 2020-05-26 | 2020-08-11 | 北京奇艺世纪科技有限公司 | 动作评分方法、装置、电子设备及可读存储介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20130289449A1 (en) * | 2012-04-27 | 2013-10-31 | The Curators Of The University Of Missouri | Activity analysis, fall detection and risk assessment systems and methods |
CN105534528A (zh) * | 2015-12-08 | 2016-05-04 | 杭州电子科技大学 | 一种基于体感识别的无接触体质测试系统及测试方法 |
CN105930767A (zh) * | 2016-04-06 | 2016-09-07 | 南京华捷艾米软件科技有限公司 | 一种基于人体骨架的动作识别方法 |
-
2017
- 2017-06-15 CN CN201710454684.6A patent/CN107392098A/zh active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20130289449A1 (en) * | 2012-04-27 | 2013-10-31 | The Curators Of The University Of Missouri | Activity analysis, fall detection and risk assessment systems and methods |
CN105534528A (zh) * | 2015-12-08 | 2016-05-04 | 杭州电子科技大学 | 一种基于体感识别的无接触体质测试系统及测试方法 |
CN105930767A (zh) * | 2016-04-06 | 2016-09-07 | 南京华捷艾米软件科技有限公司 | 一种基于人体骨架的动作识别方法 |
Non-Patent Citations (1)
Title |
---|
杨文璐等: "基于Kinect的下肢体康复动作评估系统", 《传感器与微系统》 * |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108596148A (zh) * | 2018-05-10 | 2018-09-28 | 华南理工大学 | 一种基于计算机视觉的建筑工人劳动状态分析系统及方法 |
CN108596148B (zh) * | 2018-05-10 | 2022-03-29 | 华南理工大学 | 一种基于计算机视觉的建筑工人劳动状态分析系统及方法 |
CN109086706A (zh) * | 2018-07-24 | 2018-12-25 | 西北工业大学 | 应用于人机协作中的基于分割人体模型的动作识别方法 |
CN109086706B (zh) * | 2018-07-24 | 2021-06-15 | 西北工业大学 | 应用于人机协作中的基于分割人体模型的动作识别方法 |
WO2020150990A1 (zh) * | 2019-01-25 | 2020-07-30 | 深圳大学 | 人体动作表征的处理方法、系统、电子装置及存储介质 |
CN110020630B (zh) * | 2019-04-11 | 2020-12-18 | 成都乐动信息技术有限公司 | 评估动作完成度的方法、装置、存储介质及电子设备 |
CN110020630A (zh) * | 2019-04-11 | 2019-07-16 | 成都乐动信息技术有限公司 | 评估动作完成度的方法、装置、存储介质及电子设备 |
CN110059661A (zh) * | 2019-04-26 | 2019-07-26 | 腾讯科技(深圳)有限公司 | 动作识别方法、人机交互方法、装置及存储介质 |
CN110059661B (zh) * | 2019-04-26 | 2022-11-22 | 腾讯科技(深圳)有限公司 | 动作识别方法、人机交互方法、装置及存储介质 |
CN110738163A (zh) * | 2019-10-12 | 2020-01-31 | 中国矿业大学 | 一种矿井人员违规动作识别系统 |
CN110717460A (zh) * | 2019-10-12 | 2020-01-21 | 中国矿业大学 | 一种矿井人员违规动作识别方法 |
CN111523517A (zh) * | 2020-05-26 | 2020-08-11 | 北京奇艺世纪科技有限公司 | 动作评分方法、装置、电子设备及可读存储介质 |
CN111523517B (zh) * | 2020-05-26 | 2023-08-04 | 北京奇艺世纪科技有限公司 | 动作评分方法、装置、电子设备及可读存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107392098A (zh) | 一种基于人体骨架信息的动作完成度识别方法 | |
Simon et al. | Hand keypoint detection in single images using multiview bootstrapping | |
CN106650687B (zh) | 一种基于深度信息和骨骼信息的姿势矫正方法 | |
WO2020155873A1 (zh) | 一种基于深度表观特征和自适应聚合网络的多人脸跟踪方法 | |
Patrona et al. | Motion analysis: Action detection, recognition and evaluation based on motion capture data | |
CN106020478B (zh) | 一种智能终端操控方法、装置和智能终端 | |
CN108564596B (zh) | 一种高尔夫挥杆视频的智能比对分析系统及方法 | |
CN104571511B (zh) | 一种3d场景中重现物体的系统和方法 | |
CN105426827A (zh) | 活体验证方法、装置和系统 | |
CN110448870B (zh) | 一种人体姿态训练方法 | |
Jalal et al. | Depth map-based human activity tracking and recognition using body joints features and self-organized map | |
CN108596148B (zh) | 一种基于计算机视觉的建筑工人劳动状态分析系统及方法 | |
CN103714322A (zh) | 一种实时手势识别方法及装置 | |
CN103455657B (zh) | 一种基于Kinect的现场作业仿真方法及其系统 | |
WO2013192253A1 (en) | Self learning face recognition using depth based tracking for database generation and update | |
CN103136986A (zh) | 手语识别方法及系统 | |
CN109407709B (zh) | 一种基于Kinect骨骼跟踪算法的会议摄像自动追踪系统 | |
CN108983979A (zh) | 一种手势跟踪识别方法、装置和智能设备 | |
CN109308437B (zh) | 动作识别纠错方法、电子设备、存储介质 | |
CN104821010A (zh) | 基于双目视觉的人手三维信息实时提取方法及系统 | |
CN106612457B (zh) | 视频序列对齐方法和系统 | |
CN109543652A (zh) | 一种智慧滑雪训练器及其训练结果显示方法、云服务器 | |
CN102567716A (zh) | 一种人脸合成系统及实现方法 | |
KR102371127B1 (ko) | 골격의 길이 정보를 이용한 제스쳐 인식 방법 및 처리 시스템 | |
US20230368401A1 (en) | Motion recognition-based interaction method and recording medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20171124 |
|
WD01 | Invention patent application deemed withdrawn after publication |