CN113240714A - 一种基于情境感知网络的人体运动意图预测方法 - Google Patents

一种基于情境感知网络的人体运动意图预测方法 Download PDF

Info

Publication number
CN113240714A
CN113240714A CN202110539401.4A CN202110539401A CN113240714A CN 113240714 A CN113240714 A CN 113240714A CN 202110539401 A CN202110539401 A CN 202110539401A CN 113240714 A CN113240714 A CN 113240714A
Authority
CN
China
Prior art keywords
human
human body
motion
joint
context
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110539401.4A
Other languages
English (en)
Other versions
CN113240714B (zh
Inventor
刘振广
武思凡
钱鹏
王勋
徐小俊
刘灵凤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang Gongshang University
Original Assignee
Zhejiang Gongshang University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang Gongshang University filed Critical Zhejiang Gongshang University
Priority to CN202110539401.4A priority Critical patent/CN113240714B/zh
Publication of CN113240714A publication Critical patent/CN113240714A/zh
Application granted granted Critical
Publication of CN113240714B publication Critical patent/CN113240714B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/248Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person

Abstract

本发明公开了一种基于情境感知网络的人体运动意图预测方法,在神经网络的基础上考虑了情境融入,利用图神经网络和卷积Transformer网络,充分考虑了真实情境中各种因素对人体运动的影响,构建情境感知网络,有效提高了人体运动预测的准确率,具有一定的现实意义和应用价值。本发明还充分利用了视频的时序信息,增强了模型的推理能力,能够更好的对人体未来运动意图进行预测,在安防、自动驾驶等依赖人体未来运动分析的行业具有重要意义。

Description

一种基于情境感知网络的人体运动意图预测方法
技术领域
本发明属于人体运动预测技术领域,具体涉及一种基于情境感知网络的人体运动意图预测方法。
背景技术
人体运动意图预测旨在结合人体运动趋势以及各种对人体运动的影响因素,对人体运动意图进行有效地估计与预测。近年来,人体运动意图预测已经吸引了工业界和学术界的广泛关注,在人机协作、自动驾驶、安防等领域取得了突破性的进展。当前的人体运动意图预测技术虽然取得了不错的效果,但仍存在预测效果差、缺乏情境考虑等问题。
传统的方法对人体运动意图预测时通常只考虑人体关节间的影响,而未设想现实情境中可能存在的物体对人体运动的影响。例如当一个人散步时,他的正前方有一块石头或一棵树,如果仅根据人体自身关节间的联系来预测其未来运动的趋势是不准确的,这忽略了现实场景中各种物体对人体运动的影响;实际上,在真实情境中,人肯定会绕过障碍物,然而机器在进行预测时却很难达到同样的效果。由此可见,考虑真实情境中各种影响因素对人体运动意图的预测是至关重要的。
传统的人体运动意图预测通常采用数学建模的方法,然而由于人体运动的不确定性,数学建模的方法难以适应于大规模的人体运动数据集。近年来,随着深度学习技术的成熟,神经网络已经开始应用于人体运动意图预测任务,并取得了突破性的进展。值得指出的是,当前基于深度学习的人体运动意图预测方法并未考虑到真实情境中各种因素对人体运动的影响。
公开号为CN111079928A的中国专利提出了一种基于对抗学习的循环神经网络用于人体运动预测方法,该方法首先将人体运动库中运动数据进行预处理,然后通过GRU单元建立循环神经网络,将预处理数据输入其中,然后输入至对抗学习网络中进行训练,进而完成人体运动意图预测。公开号为CN111199216A的中国专利提出了一种面向人体骨架的运动预测方法及系统,首先构建人体多尺度图,继而通过空间多尺度图卷积提取人体运动特征,其包含多尺度人体的综合动作语义信息,然后综合运动语义信息,完成人体未来运动预测。
这些方法仅考虑人体关节间的影响,而未设想现实情境中可能存在的物体对人体运动的影响。
发明内容
鉴于上述,本发明提供了一种基于情境感知网络的人体运动意图预测方法,该方法结合真实情境中可能存在的物体对人体运动的影响,引入了情境感知网络,解决了人体运动意图预测的难点问题(如预测效果差、违背客观事实等),使人体运动意图预测模型的泛化性更高,有效地提高了预测的准确性。
一种基于情境感知网络的人体运动意图预测方法,包括如下步骤:
(1)构建用于人体运动意图预测的视频数据集;
(2)构建基于图注意力机制的情境感知网络模型,利用交互有向图表示真实情境中人与物体间的交互关系,利用加权邻接矩阵表示该交互关系的程度,并将矩阵输入至情境感知网络模型中以提取人与物体间的交互特征;
(3)构建基于卷积Transformer网络的人体运动意图预测模型,利用关节有向图来表示人体关节间的交互关系,提取人体关节特征以及图像序列特征并进行融合,进而将融合后的特征输入至人体运动意图预测模型中以提取人体关节运动序列特征;
(4)构建前馈神经网络模型,将人与物体间的交互特征以及人体关节运动序列特征共同输入至前馈神经网络模型中,从而输出人体未来运动意图的预测结果即人体运动的骨骼图。
进一步地,所述步骤(1)的具体实现方式为:以Whole-Body Human MotionDatabase数据集为基准,采集视频数据时,选定包含情境信息的视频即人与各种物体之间有交互关系的视频数据(例如打乒乓球时人与球拍以及人与球桌的交互关系)。
进一步地,所述步骤(2)的具体实现方式如下:
首先,利用人-物交互有向图来表示真实情境中人与不同物体之间的交互关系,有向图中的节点表示人和物体,边表示节点之间的关联,边的权值表示节点之间的关联程度;
然后,针对某一时刻t的视频帧,利用加权邻接矩阵At表示有向图中人与物体之间的关联程度,将加权邻接矩阵At输入至基于图注意力机制的情境感知网络中,由图注意力机制对其迭代更新;
最后,通过情境感知网络提取出人与不同物体之间的交互特征,即输出未来三帧情境中人与物体间的加权邻接矩阵,分别表示未来三帧情境中人与物体间的交互关系。
进一步地,由图注意力机制对加权邻接矩阵At迭代更新的表达式如下:
Figure BDA0003068563530000031
其中:i表示某一人节点,j表示某一物体节点,
Figure BDA0003068563530000032
Figure BDA0003068563530000033
分别为加权邻接矩阵At和At+1中的第i行第j列元素值,
Figure BDA0003068563530000034
为t+1时刻情境中人与物体间的加权邻接矩阵,σ()表示Sigmoid激活函数,W表示权重参数,xi表示人节点i的全局特征向量,xi-xj表示人节点i与物体节点j间的局部特征向量,[xi;xi-xj]表示全局特征向量xi与局部特征向量xi-xj拼接后得到的向量,t为自然数。
进一步地,所述步骤(3)的具体实现方式如下:
首先,利用人体关节图来表示人体关节间的交互关系,关节图中的节点表示人体的各关键部位,边表示节点之间的关联,边的权值表示节点之间的关联程度;针对某一时刻t的视频帧,利用加权邻接矩阵Pt表示人体关节图中关键部位之间的关联程度;
然后,构建三层卷积神经网络,将加权邻接矩阵Pt输入其中以提取人体关节特征,同时处理视频图像序列间的隐式相关性,提取视频帧的图像序列特征;
最后,构建基于卷积Transformer网络的人体运动意图预测模型,将人体关节特征与图像序列特征融合后的特征矩阵Ct输入其中以提取人体关节运动序列特征。
进一步地,所述人体运动意图预测模型采用Encoder-Decoder结构,其中通过融合后得到的特征矩阵Ct输入到Encoder中得到逐帧的隐藏向量,具体表达如下:
Figure BDA0003068563530000041
其中:
Figure BDA0003068563530000042
为第k个节点在特征矩阵Ct中对应的向量,
Figure BDA0003068563530000043
Figure BDA0003068563530000044
分别为第k个节点在t时刻和t+1时刻的隐藏向量,Encoder()表示编码器函数,t为自然数;
然后将Encoder输出得到的隐藏向量序列逐一输入至Decoder中,得到人体关节运动序列特征,具体表达如下:
Figure BDA0003068563530000045
其中:
Figure BDA0003068563530000046
Figure BDA0003068563530000047
别为第k个节点在t时刻和t+1时刻的查询向量即人体关节运动序列特征,k为自然数且1≤i≤N,N为人体的关键部位数量(一般为14个),Decoder()表示解码器函数。
进一步地,所述步骤(4)的具体实现方式如下:
首先,构建前馈神经网络模型用于人体运动意图预测;
然后,将t时刻人与物体间的交互特征即加权邻接矩阵At以及t时刻人体各关节的运动序列特征
Figure BDA0003068563530000048
输入至前馈神经网络模型中得到对应的预测结果,具体表达如下:
Figure BDA0003068563530000049
其中:
Figure BDA00030685635300000410
为t+1时刻第k个节点在骨骼图中的位置,
Figure BDA00030685635300000411
为第k个节点在t时刻的查询向量,FFNN()为前馈神经网络模型函数;
最后,通过计算以下损失函数并依此对前馈神经网络模型参数不断进行更新,直至损失函数收敛;
Figure BDA00030685635300000412
其中:Loss为损失函数,
Figure BDA00030685635300000413
为通过模型预测得到从ti时刻到tn时刻人体的各关节位置,
Figure BDA00030685635300000414
为从ti时刻到tn时刻真实的人体各关节位置,ti和tn分别为任一固定长度时间段的起始时刻和终止时刻。
本发明人体运动意图预测方法充分利用了视频的时序信息,增强了模型的推理能力,有效提高了人体未来运动意图预测的准确率,能够更好的对人体未来运动意图进行预测,在安防、自动驾驶等需要依赖人体未来运动分析的行业具有重要意义,其有益技术效果主要体现在以下三个方面:
1.本发明构建的情境感知网络能够使人体运动意图预测结合现实情境中人与不同物体之间交互关系,实现较为真实的人体运动预测。
2.本发明利用卷积Transformer网络,提取人体关节图特征和图像序列特征,融合得到人体关节运动序列特征,有效地结合了图像全局特征信息和人体关节图局部特征信息,使得人体未来运动意图预测准确率得到提升。
3.本发明提出的人体运动意图预测模型能够学习人体长时间的运动趋势,有效地减少由长时间预测所导致的运动误差积累,准确有效的预测人体未来的运动趋势。
附图说明
图1为本发明人体运动意图预测方法的流程示意图。
图2为本发明基于情境感知的人体运动意图预测整体框架示意图。
图3(a)为视频数据的图像帧。
图3(b)为人体关节示意图。
图4为本发明人体运动意图预测模型原理示意图。
具体实施方式
为了更为具体地描述本发明,下面结合附图及具体实施方式对本发明的技术方案进行详细说明。
如图1和图2所示,本发明基于情境感知网络的人体运动意图预测方法包括如下步骤:
(1)构建人体运动意图预测数据集,以Whole-Body Human Motion Database数据集为基准,选定人和各种物体之间有交互关系的视频数据,视频数据包含人和不同物体的交互关系。采集视频数据时,选定包含情境信息的视频,包括人与其他物体的交互,例如打乒乓球时,人与球拍以及人与球桌的交互关系。
(2)构建情境感知网络模型,利用人-物”互有向图表示真实情境中人与不同物体间的交互关系,其中有向图的节点表示人或者物体,边表示节点间的联系,边的权值表示各节点间的关联程度;人-物交互有向图用加权邻接矩阵At表示,构建基于图注意力机制的情境感知网络模型,以加权邻接矩阵At为输入,提取人与不同物体之间的人-物交互特征。
首先,以人-物交互有向图表示真实情境中人与不同物体间的交互关系,例如以数据集中某个视频为例,视频内容为人正在路上散步,人的正前方有一个足球、桌子和梯子。针对该情境构建相应的人-物交互有向图,其中有向图的节点分别为人、足球、桌子和梯子;有向图的边分别为人与足球、桌子和梯子的关联以及足球、桌子和梯子三者的关联;边的权值大小表示为节点之间关联程度。
其次,针对某一时刻t的视频帧,用加权邻接矩阵At表示人-物交互有向图中人与物体间的关联程度,将加权邻接矩阵At输入至基于图注意力机制的情境感知网络,利用图注意力机制对加权邻接矩阵At进行迭代更新。
最后,通过情境感知网络提取人与不同物体之间的人-物交互特征,即输出未来三帧情境中物体间的加权邻接矩阵,分别表示未来三帧情境中人与物体间的交互关系。例如,在未来三帧中,人会绕过足球、桌子和梯子,未来三帧对应的加权邻接矩阵中人与足球、桌子和梯子的边权值也会相应地变小。
情境感知网络架构主要根据现实情境中的人-物间交互关系来构建,以下分别是具体的人-物间交互关系表示、建模以及模型特征提取。
首先,对人-物间交互关系的表示,定义
Figure BDA0003068563530000061
其中N表示现实情境中的人-物(节点)数;F表示每个节点特征向量的长度;Bt表示为t时刻人或物体的3D边框;Tt表示为t时刻节点类型,以独热编码形式表示;Jt表示为t时刻人体关节点位置或者物体所在位置;如果现实情境中物体与人没有交互关系,则加权邻接矩阵中对应边的权值为零。
然后,对人-物间的交互关系的建模。在具体实践过程中,人与不同物体之间的交互关系是未知的,而且这些关系会随着时间而变化,建模的目标是让模型在无监督的情况下自主学习这些交互关系的变化。为此,本发明设计了一个迭代更新过程,在第一帧中,将A矩阵设置为一个对角矩阵,表示每个对象的初始状态只与其本身有关系,仅仅依赖对象本身,进一步使用图注意力网络来训练,如式(1)所示:
Figure BDA0003068563530000062
其中:W表示权重参数,σ表示Sigmoid激活函数,xi表示人节点的全局特征信息,xi-xj表示人节点与物体节点的局部特征信息。
最后,通过情境感知网络提取人与不同物体之间的“人-物”交互特征,即输出未来三帧情境中物体间的加权邻接矩阵At,分别表示未来三帧情境中人与物体间的交互关系,从而提取得到“人-物”交互特征。图注意力网络区别于图卷积网络,其注意力层能够为不同特征分配不同的注意力权重,进一步增强模型学习能力。
(3)构建人体运动意图预测模型,利用人体关节图表示人体关节间的交互关系,其中人体关节图的节点表示人体的某些关键部位,边表示关键部位间的联系,边的权值表示各部位间的关联程度,人体关节图用加权邻接矩阵Pt表示;构建3层卷积神经网络,以加权邻接矩阵Pt为输入,提取人体关节特征,同时处理视频中各视频帧图像序列间的隐式相关性,提取各视频帧的图像序列特征;构建基于卷积Transformer网络的人体运动意图预测模型,以人体关节和图像序列的融合特征为输入,提取人体关节运动序列特征。
人体运动意图预测模型用于提取人体关节运动序列特征,具体实施过程如下:
首先,根据视频序列利用加权邻接矩阵Pt表示人体关节图,以图3(a)中的人物为例,其人体关节如图3(b)所示,包含了右脚踝、右膝盖、右髋部、左髋部、左膝盖、左脚踝、右肩膀、右手肘、右手腕、左肩膀、左手肘、左手腕、胸椎、头。
然后构建三层卷积神经网络,提取人体关节图和图像序列的特征,如图4所示,B1层卷积核大小为7*7的卷积层、Relu激活层,B2层卷积核大小为5*5的卷积层、Relu激活层,B3层卷积核大小为3*3的卷积层、Relu激活层,以加权邻接矩阵Pt和图像序列输入,提取出人体关节和图像序列融合特征。
接着,将提取完成的融合特征序列Ct输入至Encoder中,Encoder由5个相同的层组成,每个层由两个子层组成,分别是Muti-Head Self-Attention Mechanism和FullyConnected-Forward Network。其中,每个子层都引入了Residual Connection和Normalization,子层的输出表示如式(2)所示:
Figure BDA0003068563530000071
其中,对于Multi-Head Self-Attention层,它的Attention机制如式(3)和式(4)所示:
attentionoutput=Attention(Q,K,V) (3)
Figure BDA0003068563530000081
Multi-Head Self-Attention通过不同的线性变换对Q,K,V进行投影,并将不同的Attention结果拼接起来。
Figure BDA0003068563530000082
最后,如式(5)所示,将卷积神经网络提取到的人体关节和图像序列的融合特征
Figure BDA0003068563530000083
输入至Encoder中,得到的隐藏向量序列Ht,将其输入Decoder中,得到人体关节运动序列特征Qt,如式(6)所示。
Figure BDA0003068563530000084
(4)人体运动意图预测,以情境感知网络模型提取的人-物交互特征以及人体运动意图预测模型提取的人体关节运动序列特征为输入,构建前馈神经网络模型,输出人体未来运动意图的预测,即人体运动的骨骼图。
首先,以情境感知网络提取的人-物交互特征At以及人体运动意图预测模型提取到的人体关节运动序列特征Qt作为输入,构建前馈神经网络,以预测人体骨骼图,具体如式(7)所示:
Figure BDA0003068563530000085
然后计算损失函数,调整网络参数,训练人体运动意图预测模型,使得模型的预测运动序列与真实运动序列欧拉角之间的误差最小。具体如式(8)所示:
Figure BDA0003068563530000086
其中:
Figure BDA0003068563530000087
表示从ti时刻到tn时刻真实的人体关节位置。
Figure BDA0003068563530000088
表示预测得到的从ti时刻到tn时刻的人体各关节位置。
上述对实施例的描述是为便于本技术领域的普通技术人员能理解和应用本发明。熟悉本领域技术的人员显然可以容易地对上述实施例做出各种修改,并把在此说明的一般原理应用到其他实施例中而不必经过创造性的劳动。因此,本发明不限于上述实施例,本领域技术人员根据本发明的揭示,对于本发明做出的改进和修改都应该在本发明的保护范围之内。

Claims (7)

1.一种基于情境感知网络的人体运动意图预测方法,包括如下步骤:
(1)构建用于人体运动意图预测的视频数据集;
(2)构建基于图注意力机制的情境感知网络模型,利用交互有向图表示真实情境中人与物体间的交互关系,利用加权邻接矩阵表示该交互关系的程度,并将矩阵输入至情境感知网络模型中以提取人与物体间的交互特征;
(3)构建基于卷积Transformer网络的人体运动意图预测模型,利用关节有向图来表示人体关节间的交互关系,提取人体关节特征以及图像序列特征并进行融合,进而将融合后的特征输入至人体运动意图预测模型中以提取人体关节运动序列特征;
(4)构建前馈神经网络模型,将人与物体间的交互特征以及人体关节运动序列特征共同输入至前馈神经网络模型中,从而输出人体未来运动意图的预测结果即人体运动的骨骼图。
2.根据权利要求1所述的人体运动意图预测方法,其特征在于:所述步骤(1)的具体实现方式为:以Whole-Body Human Motion Database数据集为基准,采集视频数据时,选定包含情境信息的视频即人与各种物体之间有交互关系的视频数据。
3.根据权利要求1所述的人体运动意图预测方法,其特征在于:所述步骤(2)的具体实现方式如下:
首先,利用人-物交互有向图来表示真实情境中人与不同物体之间的交互关系,有向图中的节点表示人和物体,边表示节点之间的关联,边的权值表示节点之间的关联程度;
然后,针对某一时刻t的视频帧,利用加权邻接矩阵At表示有向图中人与物体之间的关联程度,将加权邻接矩阵At输入至基于图注意力机制的情境感知网络中,由图注意力机制对其迭代更新;
最后,通过情境感知网络提取出人与不同物体之间的交互特征,即输出未来三帧情境中人与物体间的加权邻接矩阵,分别表示未来三帧情境中人与物体间的交互关系。
4.根据权利要求3所述的人体运动意图预测方法,其特征在于:由图注意力机制对加权邻接矩阵At迭代更新的表达式如下:
Figure FDA0003068563520000021
其中:i表示某一人节点,j表示某一物体节点,
Figure FDA0003068563520000022
Figure FDA0003068563520000023
分别为加权邻接矩阵At和At+1中的第i行第j列元素值,
Figure FDA0003068563520000024
为t+1时刻情境中人与物体间的加权邻接矩阵,σ()表示Sigmoid激活函数,W表示权重参数,xi表示人节点i的全局特征向量,xi-xj表示人节点i与物体节点j间的局部特征向量,[xi;xi-xj]表示全局特征向量xi与局部特征向量xi-xj拼接后得到的向量,t为自然数。
5.根据权利要求1所述的人体运动意图预测方法,其特征在于:所述步骤(3)的具体实现方式如下:
首先,利用人体关节图来表示人体关节间的交互关系,关节图中的节点表示人体的各关键部位,边表示节点之间的关联,边的权值表示节点之间的关联程度;针对某一时刻t的视频帧,利用加权邻接矩阵Pt表示人体关节图中关键部位之间的关联程度;
然后,构建三层卷积神经网络,将加权邻接矩阵Pt输入其中以提取人体关节特征,同时处理视频图像序列间的隐式相关性,提取视频帧的图像序列特征;
最后,构建基于卷积Transformer网络的人体运动意图预测模型,将人体关节特征与图像序列特征融合后的特征矩阵Ct输入其中以提取人体关节运动序列特征。
6.根据权利要求5所述的人体运动意图预测方法,其特征在于:所述人体运动意图预测模型采用Encoder-Decoder结构,其中通过融合后得到的特征矩阵Ct输入到Encoder中得到逐帧的隐藏向量,具体表达如下:
Figure FDA0003068563520000025
其中:
Figure FDA0003068563520000026
为第k个节点在特征矩阵Ct中对应的向量,
Figure FDA0003068563520000027
Figure FDA0003068563520000028
分别为第k个节点在t时刻和t+1时刻的隐藏向量,Encoder()表示编码器函数,t为自然数;
然后将Encoder输出得到的隐藏向量序列逐一输入至Decoder中,得到人体关节运动序列特征,具体表达如下:
Figure FDA0003068563520000029
其中:
Figure FDA00030685635200000210
Figure FDA00030685635200000211
分别为第k个节点在t时刻和t+1时刻的查询向量即人体关节运动序列特征,k为自然数且1≤i≤N,N为人体的关键部位数量,Decoder()表示解码器函数。
7.根据权利要求1所述的人体运动意图预测方法,其特征在于:所述步骤(4)的具体实现方式如下:
首先,构建前馈神经网络模型用于人体运动意图预测;
然后,将t时刻人与物体间的交互特征即加权邻接矩阵At以及t时刻人体各关节的运动序列特征
Figure FDA0003068563520000031
输入至前馈神经网络模型中得到对应的预测结果,具体表达如下:
Figure FDA0003068563520000032
其中:
Figure FDA0003068563520000033
为t+1时刻第k个节点在骨骼图中的位置,
Figure FDA0003068563520000034
为第k个节点在t时刻的查询向量,FFNN()为前馈神经网络模型函数;
最后,通过计算以下损失函数并依此对前馈神经网络模型参数不断进行更新,直至损失函数收敛;
Figure FDA0003068563520000035
其中:Loss为损失函数,
Figure FDA0003068563520000036
为通过模型预测得到从ti时刻到tn时刻人体的各关节位置,
Figure FDA0003068563520000037
为从ti时刻到tn时刻真实的人体各关节位置,ti和tn分别为任一固定长度时间段的起始时刻和终止时刻。
CN202110539401.4A 2021-05-17 2021-05-17 一种基于情境感知网络的人体运动意图预测方法 Active CN113240714B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110539401.4A CN113240714B (zh) 2021-05-17 2021-05-17 一种基于情境感知网络的人体运动意图预测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110539401.4A CN113240714B (zh) 2021-05-17 2021-05-17 一种基于情境感知网络的人体运动意图预测方法

Publications (2)

Publication Number Publication Date
CN113240714A true CN113240714A (zh) 2021-08-10
CN113240714B CN113240714B (zh) 2023-10-17

Family

ID=77134930

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110539401.4A Active CN113240714B (zh) 2021-05-17 2021-05-17 一种基于情境感知网络的人体运动意图预测方法

Country Status (1)

Country Link
CN (1) CN113240714B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113975775A (zh) * 2021-10-25 2022-01-28 张衡 可穿戴式惯性体感乒乓运动训练系统及其工作方法
CN114943324A (zh) * 2022-05-26 2022-08-26 中国科学院深圳先进技术研究院 神经网络训练方法、人体运动识别方法及设备、存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190025843A1 (en) * 2017-07-18 2019-01-24 Uber Technologies, Inc. Systems and Methods for Speed Limit Context Awareness
CN110188167A (zh) * 2019-05-17 2019-08-30 北京邮电大学 一种融入外部知识的端到端对话方法及系统
CN111199216A (zh) * 2020-01-07 2020-05-26 上海交通大学 面向人体骨架的运动预测方法及系统

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190025843A1 (en) * 2017-07-18 2019-01-24 Uber Technologies, Inc. Systems and Methods for Speed Limit Context Awareness
CN110188167A (zh) * 2019-05-17 2019-08-30 北京邮电大学 一种融入外部知识的端到端对话方法及系统
CN111199216A (zh) * 2020-01-07 2020-05-26 上海交通大学 面向人体骨架的运动预测方法及系统

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
张剑;: "情境感知计算在决策支持系统中的应用研究", 情报探索, no. 06 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113975775A (zh) * 2021-10-25 2022-01-28 张衡 可穿戴式惯性体感乒乓运动训练系统及其工作方法
CN113975775B (zh) * 2021-10-25 2022-07-12 张衡 可穿戴式惯性体感乒乓运动训练系统及其工作方法
CN114943324A (zh) * 2022-05-26 2022-08-26 中国科学院深圳先进技术研究院 神经网络训练方法、人体运动识别方法及设备、存储介质
CN114943324B (zh) * 2022-05-26 2023-10-13 中国科学院深圳先进技术研究院 神经网络训练方法、人体运动识别方法及设备、存储介质

Also Published As

Publication number Publication date
CN113240714B (zh) 2023-10-17

Similar Documents

Publication Publication Date Title
Liu et al. Trajectorycnn: a new spatio-temporal feature learning network for human motion prediction
Mao et al. History repeats itself: Human motion prediction via motion attention
Liu et al. Sign language recognition with long short-term memory
CN110472554A (zh) 基于姿态分割和关键点特征的乒乓球动作识别方法及系统
CN108388900A (zh) 基于多特征融合和时空注意力机制相结合的视频描述方法
CN113128424B (zh) 基于注意力机制的图卷积神经网络动作识别方法
CN109934881A (zh) 图像编码方法、动作识别的方法及计算机设备
CN113240714B (zh) 一种基于情境感知网络的人体运动意图预测方法
Cai et al. Deep historical long short-term memory network for action recognition
CN106909938A (zh) 基于深度学习网络的视角无关性行为识别方法
Xu et al. Scene image and human skeleton-based dual-stream human action recognition
CN115841697A (zh) 一种基于骨架和图像数据融合的动作识别方法
Zhou et al. Learning multiscale correlations for human motion prediction
CN111191630A (zh) 适用于智能交互观演场景的演艺动作识别方法
CN111723779B (zh) 一种基于深度学习的中文手语识别系统
CN112906520A (zh) 一种基于姿态编码的动作识别方法及装置
Cui et al. Deep learning based advanced spatio-temporal extraction model in medical sports rehabilitation for motion analysis and data processing
Bai et al. Double chain networks for monocular 3D human pose estimation
Liu et al. Key algorithm for human motion recognition in virtual reality video sequences based on hidden markov model
CN117115911A (zh) 一种基于注意力机制的超图学习动作识别系统
Su Implementation and rehabilitation application of sports medical deep learning model driven by big data
CN115294228B (zh) 基于模态引导的多图人体姿态生成方法及装置
CN115719510A (zh) 基于多模态融合及隐式交互关系学习的群组行为识别方法
Usman et al. Skeleton-based motion prediction: A survey
Xu et al. Isolated Word Sign Language Recognition Based on Improved SKResNet-TCN Network

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant