CN113240714B - 一种基于情境感知网络的人体运动意图预测方法 - Google Patents
一种基于情境感知网络的人体运动意图预测方法 Download PDFInfo
- Publication number
- CN113240714B CN113240714B CN202110539401.4A CN202110539401A CN113240714B CN 113240714 B CN113240714 B CN 113240714B CN 202110539401 A CN202110539401 A CN 202110539401A CN 113240714 B CN113240714 B CN 113240714B
- Authority
- CN
- China
- Prior art keywords
- human
- person
- human body
- joint
- interaction
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
- G06T7/248—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于情境感知网络的人体运动意图预测方法,在神经网络的基础上考虑了情境融入,利用图神经网络和卷积Transformer网络,充分考虑了真实情境中各种因素对人体运动的影响,构建情境感知网络,有效提高了人体运动预测的准确率,具有一定的现实意义和应用价值。本发明还充分利用了视频的时序信息,增强了模型的推理能力,能够更好的对人体未来运动意图进行预测,在安防、自动驾驶等依赖人体未来运动分析的行业具有重要意义。
Description
技术领域
本发明属于人体运动预测技术领域,具体涉及一种基于情境感知网络的人体运动意图预测方法。
背景技术
人体运动意图预测旨在结合人体运动趋势以及各种对人体运动的影响因素,对人体运动意图进行有效地估计与预测。近年来,人体运动意图预测已经吸引了工业界和学术界的广泛关注,在人机协作、自动驾驶、安防等领域取得了突破性的进展。当前的人体运动意图预测技术虽然取得了不错的效果,但仍存在预测效果差、缺乏情境考虑等问题。
传统的方法对人体运动意图预测时通常只考虑人体关节间的影响,而未设想现实情境中可能存在的物体对人体运动的影响。例如当一个人散步时,他的正前方有一块石头或一棵树,如果仅根据人体自身关节间的联系来预测其未来运动的趋势是不准确的,这忽略了现实场景中各种物体对人体运动的影响;实际上,在真实情境中,人肯定会绕过障碍物,然而机器在进行预测时却很难达到同样的效果。由此可见,考虑真实情境中各种影响因素对人体运动意图的预测是至关重要的。
传统的人体运动意图预测通常采用数学建模的方法,然而由于人体运动的不确定性,数学建模的方法难以适应于大规模的人体运动数据集。近年来,随着深度学习技术的成熟,神经网络已经开始应用于人体运动意图预测任务,并取得了突破性的进展。值得指出的是,当前基于深度学习的人体运动意图预测方法并未考虑到真实情境中各种因素对人体运动的影响。
公开号为CN111079928A的中国专利提出了一种基于对抗学习的循环神经网络用于人体运动预测方法,该方法首先将人体运动库中运动数据进行预处理,然后通过GRU单元建立循环神经网络,将预处理数据输入其中,然后输入至对抗学习网络中进行训练,进而完成人体运动意图预测。公开号为CN111199216A的中国专利提出了一种面向人体骨架的运动预测方法及系统,首先构建人体多尺度图,继而通过空间多尺度图卷积提取人体运动特征,其包含多尺度人体的综合动作语义信息,然后综合运动语义信息,完成人体未来运动预测。
这些方法仅考虑人体关节间的影响,而未设想现实情境中可能存在的物体对人体运动的影响。
发明内容
鉴于上述,本发明提供了一种基于情境感知网络的人体运动意图预测方法,该方法结合真实情境中可能存在的物体对人体运动的影响,引入了情境感知网络,解决了人体运动意图预测的难点问题(如预测效果差、违背客观事实等),使人体运动意图预测模型的泛化性更高,有效地提高了预测的准确性。
一种基于情境感知网络的人体运动意图预测方法,包括如下步骤:
(1)构建用于人体运动意图预测的视频数据集;
(2)构建基于图注意力机制的情境感知网络模型,利用交互有向图表示真实情境中人与物体间的交互关系,利用加权邻接矩阵表示该交互关系的程度,并将矩阵输入至情境感知网络模型中以提取人与物体间的交互特征;
(3)构建基于卷积Transformer网络的人体运动意图预测模型,利用关节有向图来表示人体关节间的交互关系,提取人体关节特征以及图像序列特征并进行融合,进而将融合后的特征输入至人体运动意图预测模型中以提取人体关节运动序列特征;
(4)构建前馈神经网络模型,将人与物体间的交互特征以及人体关节运动序列特征共同输入至前馈神经网络模型中,从而输出人体未来运动意图的预测结果即人体运动的骨骼图。
进一步地,所述步骤(1)的具体实现方式为:以Whole-Body Human MotionDatabase数据集为基准,采集视频数据时,选定包含情境信息的视频即人与各种物体之间有交互关系的视频数据(例如打乒乓球时人与球拍以及人与球桌的交互关系)。
进一步地,所述步骤(2)的具体实现方式如下:
首先,利用人-物交互有向图来表示真实情境中人与不同物体之间的交互关系,有向图中的节点表示人和物体,边表示节点之间的关联,边的权值表示节点之间的关联程度;
然后,针对某一时刻t的视频帧,利用加权邻接矩阵At表示有向图中人与物体之间的关联程度,将加权邻接矩阵At输入至基于图注意力机制的情境感知网络中,由图注意力机制对其迭代更新;
最后,通过情境感知网络提取出人与不同物体之间的交互特征,即输出未来三帧情境中人与物体间的加权邻接矩阵,分别表示未来三帧情境中人与物体间的交互关系。
进一步地,由图注意力机制对加权邻接矩阵At迭代更新的表达式如下:
其中:i表示某一人节点,j表示某一物体节点,和/>分别为加权邻接矩阵At和At+1中的第i行第j列元素值,/>为t+1时刻情境中人与物体间的加权邻接矩阵,σ()表示Sigmoid激活函数,W表示权重参数,xi表示人节点i的全局特征向量,xi-xj表示人节点i与物体节点j间的局部特征向量,[xi;xi-xj]表示全局特征向量xi与局部特征向量xi-xj拼接后得到的向量,t为自然数。
进一步地,所述步骤(3)的具体实现方式如下:
首先,利用人体关节图来表示人体关节间的交互关系,关节图中的节点表示人体的各关键部位,边表示节点之间的关联,边的权值表示节点之间的关联程度;针对某一时刻t的视频帧,利用加权邻接矩阵Pt表示人体关节图中关键部位之间的关联程度;
然后,构建三层卷积神经网络,将加权邻接矩阵Pt输入其中以提取人体关节特征,同时处理视频图像序列间的隐式相关性,提取视频帧的图像序列特征;
最后,构建基于卷积Transformer网络的人体运动意图预测模型,将人体关节特征与图像序列特征融合后的特征矩阵Ct输入其中以提取人体关节运动序列特征。
进一步地,所述人体运动意图预测模型采用Encoder-Decoder结构,其中通过融合后得到的特征矩阵Ct输入到Encoder中得到逐帧的隐藏向量,具体表达如下:
其中:为第k个节点在特征矩阵Ct中对应的向量,/>和/>分别为第k个节点在t时刻和t+1时刻的隐藏向量,Encoder()表示编码器函数,t为自然数;
然后将Encoder输出得到的隐藏向量序列逐一输入至Decoder中,得到人体关节运动序列特征,具体表达如下:
其中:和/>别为第k个节点在t时刻和t+1时刻的查询向量即人体关节运动序列特征,k为自然数且1≤i≤N,N为人体的关键部位数量(一般为14个),Decoder()表示解码器函数。
进一步地,所述步骤(4)的具体实现方式如下:
首先,构建前馈神经网络模型用于人体运动意图预测;
然后,将t时刻人与物体间的交互特征即加权邻接矩阵At以及t时刻人体各关节的运动序列特征输入至前馈神经网络模型中得到对应的预测结果,具体表达如下:
其中:为t+1时刻第k个节点在骨骼图中的位置,/>为第k个节点在t时刻的查询向量,FFNN()为前馈神经网络模型函数;
最后,通过计算以下损失函数并依此对前馈神经网络模型参数不断进行更新,直至损失函数收敛;
其中:Loss为损失函数,为通过模型预测得到从ti时刻到tn时刻人体的各关节位置,/>为从ti时刻到tn时刻真实的人体各关节位置,ti和tn分别为任一固定长度时间段的起始时刻和终止时刻。
本发明人体运动意图预测方法充分利用了视频的时序信息,增强了模型的推理能力,有效提高了人体未来运动意图预测的准确率,能够更好的对人体未来运动意图进行预测,在安防、自动驾驶等需要依赖人体未来运动分析的行业具有重要意义,其有益技术效果主要体现在以下三个方面:
1.本发明构建的情境感知网络能够使人体运动意图预测结合现实情境中人与不同物体之间交互关系,实现较为真实的人体运动预测。
2.本发明利用卷积Transformer网络,提取人体关节图特征和图像序列特征,融合得到人体关节运动序列特征,有效地结合了图像全局特征信息和人体关节图局部特征信息,使得人体未来运动意图预测准确率得到提升。
3.本发明提出的人体运动意图预测模型能够学习人体长时间的运动趋势,有效地减少由长时间预测所导致的运动误差积累,准确有效的预测人体未来的运动趋势。
附图说明
图1为本发明人体运动意图预测方法的流程示意图。
图2为本发明基于情境感知的人体运动意图预测整体框架示意图。
图3(a)为视频数据的图像帧。
图3(b)为人体关节示意图。
图4为本发明人体运动意图预测模型原理示意图。
具体实施方式
为了更为具体地描述本发明,下面结合附图及具体实施方式对本发明的技术方案进行详细说明。
如图1和图2所示,本发明基于情境感知网络的人体运动意图预测方法包括如下步骤:
(1)构建人体运动意图预测数据集,以Whole-Body Human Motion Database数据集为基准,选定人和各种物体之间有交互关系的视频数据,视频数据包含人和不同物体的交互关系。采集视频数据时,选定包含情境信息的视频,包括人与其他物体的交互,例如打乒乓球时,人与球拍以及人与球桌的交互关系。
(2)构建情境感知网络模型,利用人-物”互有向图表示真实情境中人与不同物体间的交互关系,其中有向图的节点表示人或者物体,边表示节点间的联系,边的权值表示各节点间的关联程度;人-物交互有向图用加权邻接矩阵At表示,构建基于图注意力机制的情境感知网络模型,以加权邻接矩阵At为输入,提取人与不同物体之间的人-物交互特征。
首先,以人-物交互有向图表示真实情境中人与不同物体间的交互关系,例如以数据集中某个视频为例,视频内容为人正在路上散步,人的正前方有一个足球、桌子和梯子。针对该情境构建相应的人-物交互有向图,其中有向图的节点分别为人、足球、桌子和梯子;有向图的边分别为人与足球、桌子和梯子的关联以及足球、桌子和梯子三者的关联;边的权值大小表示为节点之间关联程度。
其次,针对某一时刻t的视频帧,用加权邻接矩阵At表示人-物交互有向图中人与物体间的关联程度,将加权邻接矩阵At输入至基于图注意力机制的情境感知网络,利用图注意力机制对加权邻接矩阵At进行迭代更新。
最后,通过情境感知网络提取人与不同物体之间的人-物交互特征,即输出未来三帧情境中物体间的加权邻接矩阵,分别表示未来三帧情境中人与物体间的交互关系。例如,在未来三帧中,人会绕过足球、桌子和梯子,未来三帧对应的加权邻接矩阵中人与足球、桌子和梯子的边权值也会相应地变小。
情境感知网络架构主要根据现实情境中的人-物间交互关系来构建,以下分别是具体的人-物间交互关系表示、建模以及模型特征提取。
首先,对人-物间交互关系的表示,定义其中N表示现实情境中的人-物(节点)数;F表示每个节点特征向量的长度;Bt表示为t时刻人或物体的3D边框;Tt表示为t时刻节点类型,以独热编码形式表示;Jt表示为t时刻人体关节点位置或者物体所在位置;如果现实情境中物体与人没有交互关系,则加权邻接矩阵中对应边的权值为零。
然后,对人-物间的交互关系的建模。在具体实践过程中,人与不同物体之间的交互关系是未知的,而且这些关系会随着时间而变化,建模的目标是让模型在无监督的情况下自主学习这些交互关系的变化。为此,本发明设计了一个迭代更新过程,在第一帧中,将A矩阵设置为一个对角矩阵,表示每个对象的初始状态只与其本身有关系,仅仅依赖对象本身,进一步使用图注意力网络来训练,如式(1)所示:
其中:W表示权重参数,σ表示Sigmoid激活函数,xi表示人节点的全局特征信息,xi-xj表示人节点与物体节点的局部特征信息。
最后,通过情境感知网络提取人与不同物体之间的“人-物”交互特征,即输出未来三帧情境中物体间的加权邻接矩阵At,分别表示未来三帧情境中人与物体间的交互关系,从而提取得到“人-物”交互特征。图注意力网络区别于图卷积网络,其注意力层能够为不同特征分配不同的注意力权重,进一步增强模型学习能力。
(3)构建人体运动意图预测模型,利用人体关节图表示人体关节间的交互关系,其中人体关节图的节点表示人体的某些关键部位,边表示关键部位间的联系,边的权值表示各部位间的关联程度,人体关节图用加权邻接矩阵Pt表示;构建3层卷积神经网络,以加权邻接矩阵Pt为输入,提取人体关节特征,同时处理视频中各视频帧图像序列间的隐式相关性,提取各视频帧的图像序列特征;构建基于卷积Transformer网络的人体运动意图预测模型,以人体关节和图像序列的融合特征为输入,提取人体关节运动序列特征。
人体运动意图预测模型用于提取人体关节运动序列特征,具体实施过程如下:
首先,根据视频序列利用加权邻接矩阵Pt表示人体关节图,以图3(a)中的人物为例,其人体关节如图3(b)所示,包含了右脚踝、右膝盖、右髋部、左髋部、左膝盖、左脚踝、右肩膀、右手肘、右手腕、左肩膀、左手肘、左手腕、胸椎、头。
然后构建三层卷积神经网络,提取人体关节图和图像序列的特征,如图4所示,B1层卷积核大小为7*7的卷积层、Relu激活层,B2层卷积核大小为5*5的卷积层、Relu激活层,B3层卷积核大小为3*3的卷积层、Relu激活层,以加权邻接矩阵Pt和图像序列输入,提取出人体关节和图像序列融合特征。
接着,将提取完成的融合特征序列Ct输入至Encoder中,Encoder由5个相同的层组成,每个层由两个子层组成,分别是Muti-Head Self-Attention Mechanism和FullyConnected-Forward Network。其中,每个子层都引入了Residual Connection和Normalization,子层的输出表示如式(2)所示:
其中,对于Multi-Head Self-Attention层,它的Attention机制如式(3)和式(4)所示:
attentionoutput=Attention(Q,K,V) (3)
Multi-Head Self-Attention通过不同的线性变换对Q,K,V进行投影,并将不同的Attention结果拼接起来。
最后,如式(5)所示,将卷积神经网络提取到的人体关节和图像序列的融合特征输入至Encoder中,得到的隐藏向量序列Ht,将其输入Decoder中,得到人体关节运动序列特征Qt,如式(6)所示。
(4)人体运动意图预测,以情境感知网络模型提取的人-物交互特征以及人体运动意图预测模型提取的人体关节运动序列特征为输入,构建前馈神经网络模型,输出人体未来运动意图的预测,即人体运动的骨骼图。
首先,以情境感知网络提取的人-物交互特征At以及人体运动意图预测模型提取到的人体关节运动序列特征Qt作为输入,构建前馈神经网络,以预测人体骨骼图,具体如式(7)所示:
然后计算损失函数,调整网络参数,训练人体运动意图预测模型,使得模型的预测运动序列与真实运动序列欧拉角之间的误差最小。具体如式(8)所示:
其中:表示从ti时刻到tn时刻真实的人体关节位置。/>表示预测得到的从ti时刻到tn时刻的人体各关节位置。
上述对实施例的描述是为便于本技术领域的普通技术人员能理解和应用本发明。熟悉本领域技术的人员显然可以容易地对上述实施例做出各种修改,并把在此说明的一般原理应用到其他实施例中而不必经过创造性的劳动。因此,本发明不限于上述实施例,本领域技术人员根据本发明的揭示,对于本发明做出的改进和修改都应该在本发明的保护范围之内。
Claims (7)
1.一种基于情境感知网络的人体运动意图预测方法,包括如下步骤:
(1)构建用于人体运动意图预测的视频数据集;
(2)构建基于图注意力机制的情境感知网络模型,利用交互有向图表示真实情境中人与物体间的交互关系,利用加权邻接矩阵表示该交互关系的程度,并将矩阵输入至情境感知网络模型中以提取人与物体间的交互特征;
(3)构建基于卷积Transformer网络的人体运动意图预测模型,利用关节有向图来表示人体关节间的交互关系,提取人体关节特征以及图像序列特征并进行融合,进而将融合后的特征输入至人体运动意图预测模型中以提取人体关节运动序列特征;
(4)构建前馈神经网络模型,将人与物体间的交互特征以及人体关节运动序列特征共同输入至前馈神经网络模型中,从而输出人体未来运动意图的预测结果即人体运动的骨骼图。
2.根据权利要求1所述的人体运动意图预测方法,其特征在于:所述步骤(1)的具体实现方式为:以Whole-Body Human Motion Database数据集为基准,采集视频数据时,选定包含情境信息的视频即人与各种物体之间有交互关系的视频数据。
3.根据权利要求1所述的人体运动意图预测方法,其特征在于:所述步骤(2)的具体实现方式如下:
首先,利用人-物交互有向图来表示真实情境中人与不同物体之间的交互关系,有向图中的节点表示人和物体,边表示节点之间的关联,边的权值表示节点之间的关联程度;
然后,针对某一时刻t的视频帧,利用加权邻接矩阵At表示有向图中人与物体之间的关联程度,将加权邻接矩阵At输入至基于图注意力机制的情境感知网络中,由图注意力机制对其迭代更新;
最后,通过情境感知网络提取出人与不同物体之间的交互特征,即输出未来三帧情境中人与物体间的加权邻接矩阵,分别表示未来三帧情境中人与物体间的交互关系。
4.根据权利要求3所述的人体运动意图预测方法,其特征在于:由图注意力机制对加权邻接矩阵At迭代更新的表达式如下:
其中:i表示某一人节点,j表示某一物体节点,和/>分别为加权邻接矩阵At和At+1中的第i行第j列元素值,/>为t+1时刻情境中人与物体间的加权邻接矩阵,σ()表示Sigmoid激活函数,W表示权重参数,xi表示人节点i的全局特征向量,xi-xj表示人节点i与物体节点j间的局部特征向量,[xi;xi-xj]表示全局特征向量xi与局部特征向量xi-xj拼接后得到的向量,t为自然数。
5.根据权利要求1所述的人体运动意图预测方法,其特征在于:所述步骤(3)的具体实现方式如下:
首先,利用人体关节图来表示人体关节间的交互关系,关节图中的节点表示人体的各关键部位,边表示节点之间的关联,边的权值表示节点之间的关联程度;针对某一时刻t的视频帧,利用加权邻接矩阵Pt表示人体关节图中关键部位之间的关联程度;
然后,构建三层卷积神经网络,将加权邻接矩阵Pt输入其中以提取人体关节特征,同时处理视频图像序列间的隐式相关性,提取视频帧的图像序列特征;
最后,构建基于卷积Transformer网络的人体运动意图预测模型,将人体关节特征与图像序列特征融合后的特征矩阵Ct输入其中以提取人体关节运动序列特征。
6.根据权利要求5所述的人体运动意图预测方法,其特征在于:所述人体运动意图预测模型采用Encoder-Decoder结构,其中通过融合后得到的特征矩阵Ct输入到Encoder中得到逐帧的隐藏向量,具体表达如下:
其中:为第k个节点在特征矩阵Ct中对应的向量,/>和/>分别为第k个节点在t时刻和t+1时刻的隐藏向量,Encoder()表示编码器函数,t为自然数;
然后将Encoder输出得到的隐藏向量序列逐一输入至Decoder中,得到人体关节运动序列特征,具体表达如下:
其中:和/>分别为第k个节点在t时刻和t+1时刻的查询向量即人体关节运动序列特征,k为自然数且1≤i≤N,N为人体的关键部位数量,Decoder()表示解码器函数。
7.根据权利要求1所述的人体运动意图预测方法,其特征在于:所述步骤(4)的具体实现方式如下:
首先,构建前馈神经网络模型用于人体运动意图预测;
然后,将t时刻人与物体间的交互特征即加权邻接矩阵At以及t时刻人体各关节的运动序列特征输入至前馈神经网络模型中得到对应的预测结果,具体表达如下:
其中:为t+1时刻第k个节点在骨骼图中的位置,/>为第k个节点在t时刻的查询向量,FFNN()为前馈神经网络模型函数;
最后,通过计算以下损失函数并依此对前馈神经网络模型参数不断进行更新,直至损失函数收敛;
其中:Loss为损失函数,为通过模型预测得到从ti时刻到tn时刻人体的各关节位置,/>为从ti时刻到tn时刻真实的人体各关节位置,ti和tn分别为任一固定长度时间段的起始时刻和终止时刻。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110539401.4A CN113240714B (zh) | 2021-05-17 | 2021-05-17 | 一种基于情境感知网络的人体运动意图预测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110539401.4A CN113240714B (zh) | 2021-05-17 | 2021-05-17 | 一种基于情境感知网络的人体运动意图预测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113240714A CN113240714A (zh) | 2021-08-10 |
CN113240714B true CN113240714B (zh) | 2023-10-17 |
Family
ID=77134930
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110539401.4A Active CN113240714B (zh) | 2021-05-17 | 2021-05-17 | 一种基于情境感知网络的人体运动意图预测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113240714B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113975775B (zh) * | 2021-10-25 | 2022-07-12 | 张衡 | 可穿戴式惯性体感乒乓运动训练系统及其工作方法 |
CN114943324B (zh) * | 2022-05-26 | 2023-10-13 | 中国科学院深圳先进技术研究院 | 神经网络训练方法、人体运动识别方法及设备、存储介质 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110188167A (zh) * | 2019-05-17 | 2019-08-30 | 北京邮电大学 | 一种融入外部知识的端到端对话方法及系统 |
CN111199216A (zh) * | 2020-01-07 | 2020-05-26 | 上海交通大学 | 面向人体骨架的运动预测方法及系统 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10496099B2 (en) * | 2017-07-18 | 2019-12-03 | Uatc, Llc | Systems and methods for speed limit context awareness |
-
2021
- 2021-05-17 CN CN202110539401.4A patent/CN113240714B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110188167A (zh) * | 2019-05-17 | 2019-08-30 | 北京邮电大学 | 一种融入外部知识的端到端对话方法及系统 |
CN111199216A (zh) * | 2020-01-07 | 2020-05-26 | 上海交通大学 | 面向人体骨架的运动预测方法及系统 |
Non-Patent Citations (1)
Title |
---|
情境感知计算在决策支持系统中的应用研究;张剑;;情报探索(第06期);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN113240714A (zh) | 2021-08-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Liu et al. | Trajectorycnn: a new spatio-temporal feature learning network for human motion prediction | |
CN106650687B (zh) | 一种基于深度信息和骨骼信息的姿势矫正方法 | |
Liu et al. | Sign language recognition with long short-term memory | |
Kale et al. | A study of vision based human motion recognition and analysis | |
CN113240714B (zh) | 一种基于情境感知网络的人体运动意图预测方法 | |
CN110851760B (zh) | 在web3D环境融入视觉问答的人机交互系统 | |
KR20220025023A (ko) | 애니메이션 처리 방법 및 장치, 컴퓨터 저장 매체 그리고 전자 디바이스 | |
CN110490035A (zh) | 人体骨架动作识别方法、系统及介质 | |
CN110135249A (zh) | 基于时间注意力机制和lstm的人体行为识别方法 | |
CN109063714A (zh) | 基于深度神经网络的帕金森病运动迟缓视频检测模型的构建方法 | |
CN106909938A (zh) | 基于深度学习网络的视角无关性行为识别方法 | |
CN111199207B (zh) | 基于深度残差神经网络的二维多人体姿态估计方法 | |
CN113642379A (zh) | 基于注意力机制融合多流图的人体姿态预测方法及系统 | |
Zhou et al. | Learning multiscale correlations for human motion prediction | |
CN115719510A (zh) | 基于多模态融合及隐式交互关系学习的群组行为识别方法 | |
CN111191630A (zh) | 适用于智能交互观演场景的演艺动作识别方法 | |
CN106548194A (zh) | 二维图像人体关节点定位模型的构建方法及定位方法 | |
CN114821804A (zh) | 基于注意力机制的图卷积神经网络的动作识别方法 | |
CN114170353B (zh) | 一种基于神经网络的多条件控制的舞蹈生成方法及系统 | |
Réby et al. | Graph transformer for physical rehabilitation evaluation | |
CN113255569B (zh) | 一种基于图空洞卷积编码器解码器的3d姿态估计方法 | |
CN112446253A (zh) | 一种骨架行为识别方法及装置 | |
Liu et al. | Key algorithm for human motion recognition in virtual reality video sequences based on hidden markov model | |
Bai et al. | Double chain networks for monocular 3D human pose estimation | |
Su | Implementation and rehabilitation application of sports medical deep learning model driven by big data |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |