CN107832713A - 一种基于OptiTrack的人体姿态识别方法 - Google Patents
一种基于OptiTrack的人体姿态识别方法 Download PDFInfo
- Publication number
- CN107832713A CN107832713A CN201711120678.3A CN201711120678A CN107832713A CN 107832713 A CN107832713 A CN 107832713A CN 201711120678 A CN201711120678 A CN 201711120678A CN 107832713 A CN107832713 A CN 107832713A
- Authority
- CN
- China
- Prior art keywords
- mrow
- msub
- frame
- optitrack
- attitude data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/23—Recognition of whole body movements, e.g. for sport training
- G06V40/25—Recognition of walking or running movements, e.g. gait recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/213—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Human Computer Interaction (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Computation (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Multimedia (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及一种基于OptiTrack的人体姿态识别方法,包括以下步骤:采用限幅滤波算法对OptiTrack的姿态数据帧序列进行限幅滤波处理,去除数据帧噪声;采用K‑均值聚类算法提取去噪后的数据帧序列的关键语义帧;本发明采用局部线性嵌入算法提取训练样本的姿态特征,并使用降维思路将关键语义帧带入训练样本的姿态特征中,对关键语义帧的特征进行分类,从而实现姿态的分类识别解决了在大范围内对人体姿态进行识别时,摄像机难以捕捉到人体的姿态信息的难题。
Description
技术领域
本发明涉及一种基于OptiTrack的人体姿态识别方法,属于计算机的视觉和模式识别领域。
背景技术
作为一种新型的人机交互方式,人体姿态识别算法一直是国内外学者研究的热点。随着VR技术的产生与发展,基于Kinect的小范围的姿态识别已不能满足VR大范围内动作识别、人机交互的需求,亟需一种新型的人体姿态识别方法满足VR技术的要求。
OptiTrack是一款高精度、低延迟的运动捕捉系统,可以捕捉到20m×25m范围内物体的运动。相比于视频图像帧,OptiTrack产生的姿态数据帧序列具有数据维数低、表征性强等特点,非常适用于人体姿态识别。但是目前,还没有一种合适的算法配合OptiTrack进行人体姿态识别。
发明内容
本发明提供一种基于OptiTrack的人体姿态识别方法,解决了在大范围内对人体姿态进行识别时,摄像机难以捕捉到人体的姿态信息的难题。
本发明解决其技术问题所采用的技术方案是:
一种基于OptiTrack的人体姿态识别方法,包括以下步骤:
第一步:采用限幅滤波算法对OptiTrack的姿态数据帧序列进行限幅滤波处理,去除数据帧噪声;
第二步:采用K-均值聚类算法提取去噪后的数据帧序列的关键语义帧;
第三步:采用局部线性嵌入算法提取训练样本的姿态特征,并使用降维思路将关键语义帧带入训练样本的姿态特征中,对关键语义帧的特征进行分类,从而实现姿态的分类识别;
作为本发明的进一步优选,对OptiTrack的姿态数据帧序列进行限幅滤波处理,实现数据帧去噪,其具体过程包括如下:
假设[x1,x2,…,xn]为OptiTrack捕获的姿态数据帧序列,限幅滤波后的姿态数据帧为:
上式中A=α/FPS,FPS为每秒传输帧数(Frames Per Second),α为常数;
作为本发明的进一步优选,采用K-均值聚类算法提取姿态数据帧序列的关键语义帧的具体过程所述如下:
截至时间T1,[x1,x2,…,xm1]为去噪后的姿态数据帧,通过聚类个数K为2的K-均值聚类算法:
上式中x(j)已知,j=1,2表示姿态数据xi,1≤i≤m1的类别信息,上式中的μ(j)表示类均值,得出
上式中表示第j类的成员个数,表示姿态数据xi的权重。
上述公式中μ(j)即为提取出的关键语义帧;
截至时间T2,为新的一组去噪后的姿态数据帧,对重复上述过程,最终得到关键语义帧序列μ(1),μ(2),…,μ(n);
作为本发明的进一步优选,首先提取训练样本的姿态特征,已知训练样本其类别标签为首先通过权重系数构建训练样本点之间的权重矩阵:
上述式中,为局部协方差矩阵,为剩余m-1个与标签相同的样本;
根据目标函数:
由上述目标函数化解出M=(I-W)T(I-W),其中,表示矩阵W中的第i行j列元素,则投影矩阵P=[α1,α2,…,αd],其中α1,α2,…,αd是矩阵M的前d个最小的非零特征值λ1,λ2,…,λd对应的特征向量;为特征提取后训练样本对应的待分类样本,即将关键语义帧序列μ(1),μ(2),…,μ(n)带入前述得出关键语义帧的姿态特征Y=PT[μ(1),μ(2),…,μ(n)]=[y1,y2,…,yn];
作为本发明的进一步优选,对关键语义帧降维分类,其具体过程如下:已知降维过后的样本与其标签信息L,计算关键语义帧的投影Y=PT[μ(1),μ(2),…,μ(n)],利用SVM分类器对Y中列向量进行分类。
通过以上技术方案,相对于现有技术,本发明具有以下有益效果:
本发明实现了,在大范围区域内(3m×3m到25m×20m),对区域内持续运动的人体进行快速、准确的运动姿态分析识别,获得一系列人体动作姿态的标签
附图说明
下面结合附图和实施例对本发明进一步说明。
图1为本发明所公布方法的算法流程图。
图2为人体姿态图;
图3为与图2人体姿态图对应的姿态数据帧。
具体实施方式
现在结合附图对本发明作进一步详细的说明。这些附图均为简化的示意图,仅以示意方式说明本发明的基本结构,因此其仅显示与本发明有关的构成。
如图1-图3所示,本发明的目的是提供一种基于OptiTrack的人体姿态识别方法,其实现思路为:首先,利用限幅滤波算法对OptiTrack的姿态数据帧序列进行滤波,去除数据帧噪声;其次采用K-均值聚类算法提取姿态数据帧序列的关键语义帧,减少数据帧之间的冗余信息,提升算法的处理速度;同时,采用局部线性嵌入算法提取训练样本的特征,并使用同样的降维思路提取关键语义帧的特征,对关键语义帧的特征进行分类,实现姿态的分类识别;
上述思路可以总结出以下步骤:
第一步:采用限幅滤波算法对OptiTrack的姿态数据帧序列进行限幅滤波处理,去除数据帧噪声;
第二步:采用K-均值聚类算法提取去噪后的数据帧序列的关键语义帧;
第三步:采用局部线性嵌入算法提取训练样本的姿态特征,并使用降维思路将关键语义帧带入训练样本的姿态特征中,对关键语义帧的特征进行分类,从而实现姿态的分类识别;具体如下:
第一步、对OptiTrack的姿态数据帧序列进行限幅滤波处理,实现数据帧去噪;
噪声点的存在会影响姿态数据帧的精确性,进而影响最后的姿态分类结果。为了解决噪声问题,本发明采用限幅滤波的方法,处理姿态数据帧序列,去除数据噪声。
滤波算法中A=α/FPS是一个可自我调节的变量,可以根据FPS的大小自主调节A的大小,自适应的滤除姿态数据帧中的噪声点,其中α是放大倍数,把1/FPS放大,根据实际情况选取。这边的思路是在FPS值增大时,两帧序列之间的距离|xi-xi-1|变小,所以A定义成与FPS成反比,实际处理中1/FPS很小,两帧序列之间的距离远大于1/FPS,所以公式中需要把1/FPS放大α倍。
第二步、采用K-均值聚类算法提取姿态数据帧序列的关键语义帧;
对于实时的姿态识别分类算法,提取具有关键语义的数据帧是提高算法效率的有效步骤。为解决此类问题,本发明提出采用K-均值聚类的方法提取姿态数据帧序列的关键语义帧,减少数据的冗余信息。
1、基于K-均值聚类算法提取关键语义帧
截至时间T1,[x1,x2,…,xm1]为去噪后的姿态数据帧,通过K(聚类个数)为2的K-均值聚类算法:
上式中x(j),j=1,2表示姿态数据xi,1≤i≤m1的类别信息,上式中的μ(j)表示类均值:
上式中表示第j类的成员个数,表示姿态数据xi的权重。
上式中μ(j)即为提取出的关键语义帧。
2、实时姿态数据流聚类处理
在实际应用中,必须对姿态数据帧序列进行实时处理,才能及时输出当前时刻的姿态信息;本发明采取折中的方法,在减少算法计算量的同时实时输出的姿态信息。其具体算法流程如下:
假设当前待聚类姿态数据帧为
①随机选取两个聚类质心点μ(1),μ(2);
②对每一个待分类姿态数据帧,根据计算其应该属于的类别x(j),j=1,2;
③利用公式(7)重新计算两个质心点;
④重复②③直至公式(6)的目标函数收敛;
⑤计算每一类的序列顺序加权值其中表示Xt (1)中第i个数据帧;
⑥若η(1)≥η(2),则μ(1)=μ(2),否则
至此,便计算出第一帧关键语义帧μ(1),利用新的姿态数据帧序列重复上述步骤,即可计算出全部关键语义帧μ(1),μ(2),…,μ(n)。
第三步、采用局部线性嵌入算法提取训练样本特征,对关键语义帧降维分类
1、提取训练样本特征
已知训练样本其类别标签为其算法流程如下:
上述表示矩阵W中的第i行j列元素。
2、提取关键语义帧姿态特征,并对姿态特征进行分类
已知第二步提取的关键语义帧为μ(1),μ(2),…,μ(n),利用投影矩阵P提取关键语义帧的姿态特征Y=PT[μ(1),μ(2),…,μ(n)]=[y1,y2,…,yn]。把步骤B中计算出的训练样本姿态特征和其标签信息输入SVM分类器,对关键语义帧的姿态特征Y进行分类识别。本发明中,提取关键语义帧的姿态信息是实时进行,即产生一个μ(i)便做一次投影计算对应的yi,同时用SVM分类器对yi进行分类识别。
本技术领域技术人员可以理解,除非另外定义,这里使用的所有术语(包括技术术语和科学术语)具有与本申请所属领域中的普通技术人员的一般理解相同的意义。还应该理解的是,诸如通用字典中定义的那些术语应该被理解为具有与现有技术的上下文中的意义一致的意义,并且除非像这里一样定义,不会用理想化或过于正式的含义来解释。
本申请中所述的“和/或”的含义指的是各自单独存在或两者同时存在的情况均包括在内。
本申请中所述的“连接”的含义可以是部件之间的直接连接也可以是部件间通过其它部件的间接连接。
以上述依据本发明的理想实施例为启示,通过上述的说明内容,相关工作人员完全可以在不偏离本项发明技术思想的范围内,进行多样的变更以及修改。本项发明的技术性范围并不局限于说明书上的内容,必须要根据权利要求范围来确定其技术性范围。
Claims (5)
1.一种基于OptiTrack的人体姿态识别方法,其特征在于:包括以下步骤:
第一步:采用限幅滤波算法对OptiTrack的姿态数据帧序列进行限幅滤波处理,去除数据帧噪声;
第二步:采用K-均值聚类算法提取去噪后的数据帧序列的关键语义帧;
第三步:采用局部线性嵌入算法提取训练样本的姿态特征,并使用降维思路将关键语义帧带入训练样本的姿态特征中,对关键语义帧的特征进行分类,从而实现姿态的分类识别。
2.根据权利要求1所述的基于OptiTrack的人体姿态识别方法,其特征在于:对OptiTrack的姿态数据帧序列进行限幅滤波处理,实现数据帧去噪,其具体过程包括如下:
假设[x1,x2,…,xn]为OptiTrack捕获的姿态数据帧序列,限幅滤波后的姿态数据帧为:
<mrow>
<msub>
<mi>x</mi>
<mi>i</mi>
</msub>
<mo>=</mo>
<mfenced open = "{" close = "">
<mtable>
<mtr>
<mtd>
<mrow>
<msub>
<mi>x</mi>
<mrow>
<mi>i</mi>
<mo>-</mo>
<mn>1</mn>
</mrow>
</msub>
<mo>,</mo>
</mrow>
</mtd>
<mtd>
<mrow>
<mrow>
<mo>|</mo>
<mrow>
<msub>
<mi>x</mi>
<mi>i</mi>
</msub>
<mo>-</mo>
<msub>
<mi>x</mi>
<mrow>
<mi>i</mi>
<mo>-</mo>
<mn>1</mn>
</mrow>
</msub>
</mrow>
<mo>|</mo>
</mrow>
<mo>></mo>
<mi>A</mi>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<msub>
<mi>x</mi>
<mi>i</mi>
</msub>
<mo>,</mo>
</mrow>
</mtd>
<mtd>
<mrow>
<mrow>
<mo>|</mo>
<mrow>
<msub>
<mi>x</mi>
<mi>i</mi>
</msub>
<mo>-</mo>
<msub>
<mi>x</mi>
<mrow>
<mi>i</mi>
<mo>-</mo>
<mn>1</mn>
</mrow>
</msub>
</mrow>
<mo>|</mo>
</mrow>
<mo>&le;</mo>
<mi>A</mi>
</mrow>
</mtd>
</mtr>
</mtable>
</mfenced>
<mo>,</mo>
<mi>i</mi>
<mo>&GreaterEqual;</mo>
<mn>2</mn>
</mrow>
上式中A=α/FPS,FPS为每秒传输帧数,α为常数。
3.根据权利要求1所述的基于OptiTrack的人体姿态识别方法,其特征在于:采用K-均值聚类算法提取姿态数据帧序列的关键语义帧的具体过程所述如下:截至时间T1,为去噪后的姿态数据帧,通过聚类个数K为2的K-均值聚类算法:
上式中x(j)为已知,,j=1,2表示姿态数据xi,1≤i≤m1的类别信息,上式中的μ(j)表示类均值,得出
<mrow>
<msup>
<mi>&mu;</mi>
<mrow>
<mo>(</mo>
<mi>j</mi>
<mo>)</mo>
</mrow>
</msup>
<mo>=</mo>
<mfrac>
<mn>1</mn>
<msubsup>
<mi>N</mi>
<mi>i</mi>
<mrow>
<mo>(</mo>
<mi>j</mi>
<mo>)</mo>
</mrow>
</msubsup>
</mfrac>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>i</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<msub>
<mi>m</mi>
<mn>1</mn>
</msub>
</munderover>
<msubsup>
<mi>a</mi>
<mi>i</mi>
<mrow>
<mo>(</mo>
<mi>j</mi>
<mo>)</mo>
</mrow>
</msubsup>
<msub>
<mi>x</mi>
<mi>i</mi>
</msub>
</mrow>
上式中表示第j类的成员个数,表示姿态数据xi的权重。
上述公式中μ(j)即为提取出的关键语义帧;
截至时间T2,为新的一组去噪后的姿态数据帧,对X(i)={xi|xi∈x(2)}重复上述过程,最终得到关键语义帧序列μ(1),μ(2),…,μ(n)。
4.根据权利要求3所述的基于OptiTrack的人体姿态识别方法,其特征在于:首先提取训练样本的姿态特征,已知训练样本其类别标签为首先通过权重系数构建训练样本点之间的权重矩阵:
<mrow>
<msubsup>
<mi>w</mi>
<mi>j</mi>
<mi>i</mi>
</msubsup>
<mo>=</mo>
<mfrac>
<mrow>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>k</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<mrow>
<mi>m</mi>
<mo>-</mo>
<mn>1</mn>
</mrow>
</munderover>
<msup>
<mrow>
<mo>(</mo>
<msubsup>
<mi>Q</mi>
<mrow>
<mi>j</mi>
<mi>k</mi>
</mrow>
<mi>i</mi>
</msubsup>
<mo>)</mo>
</mrow>
<mrow>
<mo>-</mo>
<mn>1</mn>
</mrow>
</msup>
</mrow>
<mrow>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>p</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<mrow>
<mi>m</mi>
<mo>-</mo>
<mn>1</mn>
</mrow>
</munderover>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>q</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<mrow>
<mi>m</mi>
<mo>-</mo>
<mn>1</mn>
</mrow>
</munderover>
<msup>
<mrow>
<mo>(</mo>
<msubsup>
<mi>Q</mi>
<mrow>
<mi>p</mi>
<mi>q</mi>
</mrow>
<mi>i</mi>
</msubsup>
<mo>)</mo>
</mrow>
<mrow>
<mo>-</mo>
<mn>1</mn>
</mrow>
</msup>
</mrow>
</mfrac>
</mrow>
上述式中,为局部协方差矩阵, 为剩余m-1个与标签相同的样本
根据目标函数:
由上述目标函数化解出M=(I-W)T(I-W),其中,表示矩阵W中的第i行j列元素,则投影矩阵P=[α1,α2,…,αd],其中α1,α2,…,αd是矩阵M的前d个最小的非零特征值λ1,λ2,…,λd对应的特征向量;为特征提取后训练样本对应的待分类样本,即将关键语义帧序列μ(1),μ(2),…,μ(n)带入前述得出关键语义帧的姿态特征
Y=PT[μ(1),μ(2),…,μ(n)]=[y1,y2,…,yn]。
5.根据权利要求4所述的基于OptiTrack的人体姿态识别方法,其特征在于:对关键语义帧降维分类,其具体过程如下:已知降维过后的样本与其标签信息L,计算关键语义帧的投影Y=PT[μ(1),μ(2),…,μ(n)],利用SVM分类器对Y中列向量进行分类。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711120678.3A CN107832713B (zh) | 2017-11-13 | 2017-11-13 | 一种基于OptiTrack的人体姿态识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711120678.3A CN107832713B (zh) | 2017-11-13 | 2017-11-13 | 一种基于OptiTrack的人体姿态识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107832713A true CN107832713A (zh) | 2018-03-23 |
CN107832713B CN107832713B (zh) | 2021-11-16 |
Family
ID=61654343
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201711120678.3A Active CN107832713B (zh) | 2017-11-13 | 2017-11-13 | 一种基于OptiTrack的人体姿态识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107832713B (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109101864A (zh) * | 2018-04-18 | 2018-12-28 | 长春理工大学 | 基于关键帧和随机森林回归的人体上半身动作识别方法 |
CN109117893A (zh) * | 2018-08-28 | 2019-01-01 | 华中师范大学 | 一种基于人体姿态的动作识别方法及装置 |
CN114724247A (zh) * | 2022-04-11 | 2022-07-08 | 西安电子科技大学广州研究院 | 面向特定场景下基于语义认知的姿态估计方法及系统 |
CN114936252A (zh) * | 2022-04-24 | 2022-08-23 | 贵州财经大学 | 一种基于语义特征组的信用卡客户流失数据降维可视化分析方法 |
Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101093582A (zh) * | 2006-06-19 | 2007-12-26 | 索尼株式会社 | 动作捕捉装置和动作捕捉方法、以及动作捕捉程序 |
US20090060042A1 (en) * | 2007-08-28 | 2009-03-05 | Samsung Electronics Co., Ltd. | System and method for motion vector collection based on k-means clustering for motion compensated interpolation of digital video |
CN102682302A (zh) * | 2012-03-12 | 2012-09-19 | 浙江工业大学 | 一种基于关键帧的多特征融合的人体姿态识别方法 |
CN103065161A (zh) * | 2012-12-25 | 2013-04-24 | 西南科技大学 | 一种基于归一化r变换分层模型的人体行为识别算法 |
KR20150061488A (ko) * | 2013-11-27 | 2015-06-04 | 한국전자통신연구원 | 3차원 사용자 자세 추정 방법 및 장치 |
CN104715493A (zh) * | 2015-03-23 | 2015-06-17 | 北京工业大学 | 一种运动人体姿态估计的方法 |
EP2889805A2 (en) * | 2013-12-31 | 2015-07-01 | Konica Minolta Laboratory U.S.A., Inc. | Method and system for emotion and behavior recognition |
CN105320944A (zh) * | 2015-10-24 | 2016-02-10 | 西安电子科技大学 | 一种基于人体骨架运动信息的人体行为预测方法 |
US20160232683A1 (en) * | 2015-02-09 | 2016-08-11 | Electronics And Telecommunications Research Institute | Apparatus and method for analyzing motion |
CN106127803A (zh) * | 2016-06-17 | 2016-11-16 | 北京交通大学 | 人体运动捕捉数据行为分割方法及系统 |
CN106650562A (zh) * | 2016-06-14 | 2017-05-10 | 西安电子科技大学 | 一种基于Kinect的在线连续人体行为识别方法 |
CN107247924A (zh) * | 2017-05-19 | 2017-10-13 | 安徽信息工程学院 | 基于Kinect的动作比对系统和比对方法 |
-
2017
- 2017-11-13 CN CN201711120678.3A patent/CN107832713B/zh active Active
Patent Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101093582A (zh) * | 2006-06-19 | 2007-12-26 | 索尼株式会社 | 动作捕捉装置和动作捕捉方法、以及动作捕捉程序 |
US20090060042A1 (en) * | 2007-08-28 | 2009-03-05 | Samsung Electronics Co., Ltd. | System and method for motion vector collection based on k-means clustering for motion compensated interpolation of digital video |
CN102682302A (zh) * | 2012-03-12 | 2012-09-19 | 浙江工业大学 | 一种基于关键帧的多特征融合的人体姿态识别方法 |
CN103065161A (zh) * | 2012-12-25 | 2013-04-24 | 西南科技大学 | 一种基于归一化r变换分层模型的人体行为识别算法 |
KR20150061488A (ko) * | 2013-11-27 | 2015-06-04 | 한국전자통신연구원 | 3차원 사용자 자세 추정 방법 및 장치 |
EP2889805A2 (en) * | 2013-12-31 | 2015-07-01 | Konica Minolta Laboratory U.S.A., Inc. | Method and system for emotion and behavior recognition |
US20160232683A1 (en) * | 2015-02-09 | 2016-08-11 | Electronics And Telecommunications Research Institute | Apparatus and method for analyzing motion |
CN104715493A (zh) * | 2015-03-23 | 2015-06-17 | 北京工业大学 | 一种运动人体姿态估计的方法 |
CN105320944A (zh) * | 2015-10-24 | 2016-02-10 | 西安电子科技大学 | 一种基于人体骨架运动信息的人体行为预测方法 |
CN106650562A (zh) * | 2016-06-14 | 2017-05-10 | 西安电子科技大学 | 一种基于Kinect的在线连续人体行为识别方法 |
CN106127803A (zh) * | 2016-06-17 | 2016-11-16 | 北京交通大学 | 人体运动捕捉数据行为分割方法及系统 |
CN107247924A (zh) * | 2017-05-19 | 2017-10-13 | 安徽信息工程学院 | 基于Kinect的动作比对系统和比对方法 |
Non-Patent Citations (5)
Title |
---|
AZRA NASREEN 等: "Key Frame Extraction and Foreground Modelling Using K-Means Clustering", 《7TH INTERNATIONAL CONFERENCE ON COMPUTATIONAL INTELLIGENCE, COMMUNICATION SYSTEMS AND NETWORKS (CICSYN)》 * |
N. F. ELYA SAIDON 等: "Real-time Human Motion Analysis and Grasping Force using the OptiTrack System and Flexi-force Sensor", 《SCIENCE & TECHNOLOGY》 * |
XINYAO SUN 等: "Smart Sensor-Based Motion Detection System for Hand Movement Training in Open Surgery", 《OURNAL OF MEDICAL SYSTEMS》 * |
陈曦: "人体行为识别方法的研究", 《中国优秀硕士学位论文全文数据库信息科技辑》 * |
陈至坤 等: "在Optitrack系统下的移动机器人避障分析", 《华北理工大学学报(自然科学版)》 * |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109101864A (zh) * | 2018-04-18 | 2018-12-28 | 长春理工大学 | 基于关键帧和随机森林回归的人体上半身动作识别方法 |
CN109117893A (zh) * | 2018-08-28 | 2019-01-01 | 华中师范大学 | 一种基于人体姿态的动作识别方法及装置 |
CN114724247A (zh) * | 2022-04-11 | 2022-07-08 | 西安电子科技大学广州研究院 | 面向特定场景下基于语义认知的姿态估计方法及系统 |
CN114936252A (zh) * | 2022-04-24 | 2022-08-23 | 贵州财经大学 | 一种基于语义特征组的信用卡客户流失数据降维可视化分析方法 |
Also Published As
Publication number | Publication date |
---|---|
CN107832713B (zh) | 2021-11-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Han et al. | A survey on visual transformer | |
Sargano et al. | Human action recognition using transfer learning with deep representations | |
Zhu et al. | Large-scale isolated gesture recognition using pyramidal 3d convolutional networks | |
CN104268568B (zh) | 基于独立子空间网络的行为识别方法 | |
Hayani et al. | Arab sign language recognition with convolutional neural networks | |
CN105069434B (zh) | 一种视频中人体动作行为识别方法 | |
CN107832713A (zh) | 一种基于OptiTrack的人体姿态识别方法 | |
CN104573665B (zh) | 一种基于改进维特比算法的连续动作识别方法 | |
CN107292246A (zh) | 基于hog‑pca和迁移学习的红外人体目标识别方法 | |
Zhang et al. | Object detection with location-aware deformable convolution and backward attention filtering | |
Aghamaleki et al. | Multi-stream CNN for facial expression recognition in limited training data | |
CN102915453B (zh) | 一种实时反馈更新的车辆检测方法 | |
CN110135251B (zh) | 一种基于注意力机制和混合网络的群体图像情绪识别方法 | |
CN108154156B (zh) | 基于神经主题模型的图像集成分类方法及装置 | |
CN109558805A (zh) | 基于多层深度特征的人体行为识别方法 | |
CN106874825A (zh) | 人脸检测的训练方法、检测方法和装置 | |
Rao et al. | Neural network classifier for continuous sign language recognition with selfie video | |
CN106951819A (zh) | 基于稀疏概率分布和多阶段类别筛选的单样本人脸识别方法 | |
CN113505719A (zh) | 基于局部-整体联合知识蒸馏算法的步态识别模型压缩系统及方法 | |
Kumar et al. | Selfie continuous sign language recognition using neural network | |
CN114863572A (zh) | 一种多通道异构传感器的肌电手势识别方法 | |
Hu et al. | Action recognition using multiple pooling strategies of CNN features | |
CN116503959B (zh) | 基于不确定性感知的弱监督时序动作定位方法及系统 | |
Shanableh et al. | Video-based feature extraction techniques for isolated Arabic sign language recognition | |
Hassan et al. | Enhanced dynamic sign language recognition using slowfast networks |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |