CN113536926A - 基于距离向量和多角度自适应网络的人体动作识别方法 - Google Patents
基于距离向量和多角度自适应网络的人体动作识别方法 Download PDFInfo
- Publication number
- CN113536926A CN113536926A CN202110659972.1A CN202110659972A CN113536926A CN 113536926 A CN113536926 A CN 113536926A CN 202110659972 A CN202110659972 A CN 202110659972A CN 113536926 A CN113536926 A CN 113536926A
- Authority
- CN
- China
- Prior art keywords
- skeleton
- network
- bone
- points
- point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000009471 action Effects 0.000 title claims abstract description 41
- 239000013598 vector Substances 0.000 title claims abstract description 38
- 238000000034 method Methods 0.000 title claims abstract description 25
- 210000000988 bone and bone Anatomy 0.000 claims abstract description 69
- 238000006073 displacement reaction Methods 0.000 claims abstract description 19
- 230000000007 visual effect Effects 0.000 claims abstract description 17
- 238000010586 diagram Methods 0.000 claims abstract description 14
- 230000006870 function Effects 0.000 claims description 20
- 230000000875 corresponding effect Effects 0.000 claims description 18
- 230000003044 adaptive effect Effects 0.000 claims description 12
- 238000001514 detection method Methods 0.000 claims description 11
- 230000008569 process Effects 0.000 claims description 8
- 238000005070 sampling Methods 0.000 claims description 8
- 238000005516 engineering process Methods 0.000 claims description 7
- 230000009466 transformation Effects 0.000 claims description 4
- 238000012360 testing method Methods 0.000 claims description 3
- 238000010276 construction Methods 0.000 claims description 2
- 238000013507 mapping Methods 0.000 claims description 2
- 238000010606 normalization Methods 0.000 claims description 2
- 230000002093 peripheral effect Effects 0.000 claims 1
- 230000008859 change Effects 0.000 description 3
- 238000012544 monitoring process Methods 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 238000005452 bending Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000000547 structure data Methods 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/29—Graphical models, e.g. Bayesian networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Health & Medical Sciences (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于距离向量和多角度自适应网络的人体动作识别方法。本发明步骤如下:利用Openpose工具对数据集中视频的每一帧进行人体骨骼点检测来生成带有骨骼点坐标以及骨骼点名称的视频数据集2;将视频数据集2输入到多角度自适应网络中,利用LSTM网络以及卷积网络自动学习确定转变到最佳视角所需要的旋转参数与位移;根据旋转参数与位移,将骨骼点坐标转化成最佳视角下的骨骼点坐标;计算最佳视角下骨骼点之间的距离向量,包括空间距离与方向;将最佳视角下的骨骼点坐标、动作类别名称以及骨骼点之间的距离向量输入到时空图卷积网络中;时空图卷积网络学习时间与空间的特征,对最终动作类别进行判断。本发明具有很好的鲁棒性与精确度。
Description
技术领域
本发明涉及动作识别领域,具体涉及一种基于距离向量和多角度自适应网络的人体动作识别方法,属于计算机视觉图像处理技术领域。
背景技术
随着互联网技术的飞速发展和视频监控设备的逐渐普及,视频已成为每个人日常生活的重要媒介。视频数据信息的总量呈指数增长,如何获取并且分析视频中的内容显得尤为重要。人体动作识别任务已经成为计算机视觉领域研究的焦点,在人机交互,视频监控,视频理解,虚拟现实等领域有着广泛应用。
基于骨骼点检测的人体动作识别可以很好的解决该问题。该方法首先对输入视频序列中的人进行骨骼点检测,再将预测到的骨骼点构建成为图结构,骨骼点作为图的各个顶点,骨骼点与骨骼点之间的连接作为图的边。接着利用动作识别方法对时序下的图结构特征进行学习,预测动作类别。之前大量的研究都是将固定的骨架图送入网络,这样只能捕获骨骼点之间局部物理关系,造成隐式骨骼点相关性的遗漏。另外,在不同高度和方向的视角下,相同动作的特征呈现也有很大的差异,会造成动作类别识别误差。
发明内容
本发明的目的是针对现有技术的不足,提供一种基于距离向量和多角度自适应网络的人体动作识别方法,以解决在动作识别过程中骨骼点相关性遗漏以及在不同角度下缺乏鲁棒性的问题。
一种基于距离向量和多角度自适应网络的人体动作识别方法,包括以下步骤:
步骤(1)获取动作识别数据集1,利用Openpose工具对数据集中视频的每一帧进行人体骨骼点检测来生成带有骨骼点坐标以及骨骼点名称的视频数据集2;
步骤(2)将视频数据集2输入到多角度自适应网络中,利用LSTM网络以及卷积网络自动学习确定转变到最佳视角所需要的旋转参数与位移;
步骤(3)根据旋转参数与位移,将骨骼点坐标转化成最佳视角下的骨骼点坐标;
步骤(4)计算最佳视角下骨骼点之间的距离向量,包括空间距离与方向;
步骤(5)将最佳视角下的骨骼点坐标、动作类别名称以及骨骼点之间的距离向量输入到时空图卷积网络中;
步骤(6)时空图卷积网络学习时间与空间的特征,对最终动作类别进行判断。
进一步,步骤(2)所述的多角度自适应网络构建过程如下:
多角度自适应主网络主要由两条LSTM分支网络组成。
(2-1)构建一条LSTM网络用来确定位移dk。
(2-2)构建另一条LSTM网络用来学习并确定合适的视角,即获得旋转参数αk,θ,βk,θ,γk,θ。
其中,三个参数分别表示为绕x、y、z轴旋转的角度。当获取到旋转参数和指定角度下的位移之后,将骨架坐标数据根据参数进行旋转变换,得到新的骨架坐标点集合。然后将新的骨架坐标点集合以及对应的动作标签输入到多个LSTM组成的网络,从端到端对骨架数据进行学习,将特征全连接后,最后通过SoftMax函数得到输出。
进一步,步骤(3)所述的获取最佳视角下的骨骼点坐标过程如下:
通过多角度自适应网络获取到位移dk与旋转参数Rk,θ(αk,θ,βk,θ,γk,θ)之后,根据公式(1)进行计算新的骨骼点坐标。
v'k,i,θ=[x'k,i,θ,y'k,i,θ,z'k,i,θ]T=Rk,θ(vk,i-dk) (1)
进一步,步骤(4)所述的计算骨骼点之间的距离向量过程如下:
(4-1)距离向量主要由骨骼点之间的距离和骨骼点相对方向组成,其中骨骼点之间的距离可以表示为:
其中(x,y,z)为骨骼点的坐标,如果人体骨骼点检测的输出为二维坐标,可将深度信息置为相同,实现二维坐标三维化。式(2)表示同一帧下第i个骨骼点与第j个骨骼点之间的空间距离,式(3)表示第m帧的第i个骨骼点与第n帧的第i个骨骼点之间的空间距离。
(4-2)骨骼点之间的相对位置可以表示为:
进一步,步骤(6)所述的构建时空图卷积网络过程如下:
(6-1)记一个具有N个节点和K帧的骨骼序列时空图为G=(V,E),其节点集合为V={vki|k=1,…,K,i=1,…,N}。
(6-2)根据人体结构,将每一帧的骨骼点连接起来形成空间边Es={vkivkj|(i,j)∈B},将连续两帧中的相同节点连接成边,形成时序边Et={vkiv(k+1)i}。
(6-3)将骨骼点之间的距离向量、骨骼点坐标位置、动作名称组成了新的输入特征向量Fnew(vti)。以常见的图像二维卷积操作为参考,时空图卷积操作可以写成:
式(6)表示同一帧不同骨骼点的图卷积操作,式(7)表示不同帧相同骨骼点的图卷积操作。其中,B(vmi)为骨骼点的领域约束条件,对于空间图卷积网络,B(vmi)={vmj|L(vmj,vmi)≤D},L(vmj,vmi)表示的是从vnj到vmi的最短距离。对于时间图卷积网络, K为卷积核大小,Γ控制时间域的卷积核大小,即设置最大间隔视频帧数。p为采样函数,获取以该骨骼点为中心的周围邻居骨骼点,w为权重函数,Z为归一化项。
下面对时空图卷积操作进行更为详细的描述:
在图像中,采样函数p是定义在中心位置为x的近邻像素上的。在骨骼点图中,采样函数的结果指的是一个骨骼点vmi的近邻集合B(vmi),那么采样函数可以写为:
p(vmi,vmj)=vmj (8)
对于权重函数w,将骨骼点的近邻集合根据距离划分为固定个数的8个子集,每一个子集都有一个标签,通过映射函数根据标签来获取对应的权重函数,可以用式(9)表示:
w(vmi,vmj)=w'(L(vmi,vmj)) (9)
因此图卷积操作进一步表示为:
(6-4)在测试阶段,通过输入一段视频序列,经过人体骨骼点检测技术得到每一帧视频对应的骨骼点,再经过动作识别技术便得到了一系列动作标签以及对应的得分,最高得分对应的动作标签便是最后的结果。
本发明所具有的优点如下:提出了一种基于距离向量和多视角自适应网络的动作识别方法,首先利用多视角自适应网络自动确定不同高度下的最佳观测点,生成相同动作类别下的多个骨骼点坐标组合,提高精度的同时也提高对特定场景下的鲁棒性。其次利用各个骨骼点之间的距离向量来捕捉动作的变化信息,能够学习到丰富的联动特征,在时空图网络的基础上提高了识别精度。
附图说明
图1是本发明的整体实施方案流程图;
图2是不同角度(不同高度)下的最佳视角示意图;
图3是不同角度(不同高度)下的骨架示意图;
图4是多角度自适应网络模型图;
图5是骨骼点距离向量示意图;
图6是时空图网络示意图;
具体实施方式
下面结合附图对本发明做详细描述。
实施例1
在实际场景中,人体动作会受各方面因素影响,同一个动作在不同角度下会有较大差异且骨骼点之间的关联没有被充分利用,本发明提出了一种基于距离向量和多角度自适应网络的人体动作识别方法,流程图参照图1,包括如下步骤:
步骤(1)获取动作识别数据集1,利用Openpose工具对数据集中视频的每一帧进行人体骨骼点检测来生成带有骨骼点坐标以及骨骼点名称的视频数据集2;
步骤(2)将视频数据集2输入到多角度自适应网络中,利用LSTM网络以及卷积网络自动学习确定转变到最佳视角所需要的旋转参数与位移;
多角度自适应主网络主要由两条LSTM分支网络组成。
(2-1)构建一条LSTM网络用来确定位移dk。
(2-2)构建另一条LSTM网络用来学习并确定合适的视角,即获得旋转参数αk,θ,βk,θ,γk,θ。
其中,三个参数分别表示为绕x、y、z轴旋转的角度。当获取到旋转参数和指定角度下的位移之后,将骨架坐标数据根据参数进行旋转变换,得到新的骨架坐标点集合。然后将新的骨架坐标点集合以及对应的动作标签输入到多个LSTM组成的网络,从端到端对骨架数据进行学习,将特征全连接后,最后通过SoftMax函数得到输出。
步骤(3)根据旋转参数与位移,将骨骼点坐标转化成最佳视角下的骨骼点坐标;
通过多角度自适应网络获取到位移dk与旋转参数Rk,θ(αk,θ,βk,θ,γk,θ)之后,根据公式(1)进行计算新的骨骼点坐标。
v'k,i,θ=[x'k,i,θ,y'k,i,θ,z'k,i,θ]T=Rk,θ(vk,i-dk) (1)
步骤(4)计算最佳视角下骨骼点之间的距离向量,包括空间距离与方向;
(4-1)距离向量主要由骨骼点之间的距离和骨骼点相对方向组成,其中骨骼点之间的距离可以表示为:
其中(x,y,z)为骨骼点的坐标,如果人体骨骼点检测的输出为二维坐标,可将深度信息置为相同,实现二维坐标三维化。式(2)表示同一帧下第i个骨骼点与第j个骨骼点之间的空间距离,式(3)表示第m帧的第i个骨骼点与第n帧的第i个骨骼点之间的空间距离。
(4-2)骨骼点之间的相对位置可以表示为:
步骤(5)将最佳视角下的骨骼点坐标、动作类别名称以及骨骼点之间的距离向量输入到时空图卷积网络中;
步骤(6)时空图卷积网络学习时间与空间的特征,对最终动作类别进行判断。
(6-1)记一个具有N个节点和K帧的骨骼序列时空图为G=(V,E),其节点集合为V={vki|k=1,…,K,i=1,…,N}。
(6-2)根据人体结构,将每一帧的骨骼点连接起来形成空间边Es={vkivkj|(i,j)∈B},将连续两帧中的相同节点连接成边,形成时序边Et={vkiv(k+1)i}。
(6-3)将人体骨骼点检测的输出进行三维化后,再经过上述的时空图处理之后,把该图结构数据输入到动作识别网络模型中,同时学习骨骼序列在时间和空间下的特征信息以及该特征信息对应的动作标签。
(6-4)在测试阶段,通过输入一段视频序列,经过人体骨骼点检测技术得到每一帧视频对应的骨骼点,再经过动作识别技术便得到了一系列动作标签以及对应的得分,最高得分对应的动作标签便是最后的结果。
实施例2
如附图2,为不同高度下的最佳视角,可以看出这是一个弯腰的动作序列,第1行是从原视频抽取的4帧图像,第2行是原始骨骼点以及对应的人体动作建模。第3行是在视角与水平夹角为0°下的最佳视角,可以发现经过转换的骨架信息更容易学习,但动作却没有改变。第4行与第5行分别为视角与水平夹角为θ1与θ2下的最佳视角以及对应的人体建模,θ2>θ1。可以发现,不同高度下的最佳视角也有不同,通过将骨骼点进行变换,获取不同高度视角下的骨骼点,对它们一同进行训练,达到数据增强的目的。
实施例3
如附图3,子图(a)、(b)、(c)分别为某一视频帧下不同高度下的新视角。其中(a)为自适应网络确定的最佳视角,(b)、(c)为添加角度约束条件下的最佳视角。从第1帧到第t帧,人体姿态不断发生变化,多视角自适应网络总能找到最佳视角并在此基础上提升高度来进行学习。
实施例4
如附图4,将视频某一帧的原始骨架坐标输入网络,主网络主要由两条LSTM分支网络组成。第一条LSTM网络用来确定位移dk,另一条LSTM网络用来学习并确定合适的视角,即获得旋转参数αk,θ,βk,θ,γk,θ。其中,三个参数分别表示为绕x、y、z轴旋转的角度。当获取到旋转参数和指定角度下的位移之后,将骨架坐标数据根据参数进行旋转变换,得到新的骨架坐标点集合。然后将新的骨架坐标点集合以及对应的动作标签输入到多个LSTM组成的网络,从端到端对骨架数据进行学习,将特征全连接后,最后通过SoftMax函数得到输出。
实施例5
如附图5,假设(a)为视频的第n帧图像,(b)为视频的第n+1帧图像,对于第n帧的K1骨骼点,它与其他骨骼点的距离向量由虚线箭头表示,K1到K2的虚线箭头表示不同帧相同骨骼点之间的距离向量。从图中可以看出在第n+1帧的时候骨骼点K2与骨骼点F2的距离更近了,方向也有轻微的改变。通过构建同一帧下不同骨骼点以及不同帧下相同骨骼点之间的距离向量,可以有效地捕捉动作的变化信息,并通过时空图卷积网络进行学习。
实施例6
如附图6,人体在运动的一段时间内,通过人体骨骼点检测方法识别出每一帧的骨骼点,如图6为若干帧的骨架图信息。记一个具有N个节点和K帧的骨骼序列时空图为G=(V,E),其节点集合为V=vki|k=1,…,K,i=1,…,N},图6的Bk,i即表示第k帧的第i个骨骼点。根据人体结构,将每一帧的骨骼点连接起来形成空间边Es={vkivkj|(i,j)∈B},其中B为第k帧所有骨骼点的集合,图6的虚线边即为空间边。将连续两帧中的相同节点连接成边,形成时序边Et={vkiv(k+1)i},图6的带箭头虚线边即为时序边。
Claims (5)
1.基于距离向量和多角度自适应网络的人体动作识别方法,其特征包括以下步骤:
步骤(1)获取动作识别数据集I,利用Openpose工具对数据集I中视频的每一帧进行人体骨骼点检测来生成带有骨骼点坐标以及骨骼点名称的视频数据集II;
步骤(2)将视频数据集II输入到多角度自适应网络,利用LSTM网络以及卷积网络自动学习确定转变到最佳视角所需要的旋转参数与位移;
步骤(3)根据旋转参数与位移,将骨骼点坐标转化成最佳视角下的骨骼点坐标;
步骤(4)计算最佳视角下骨骼点之间的距离向量,包括空间距离与方向;
步骤(5)将最佳视角下的骨骼点坐标、动作类别名称以及骨骼点之间的距离向量输入到时空图卷积网络中;
步骤(6)时空图卷积网络学习时间与空间的特征,对最终动作类别进行判断。
2.根据权利要求1所述的基于距离向量和多角度自适应网络的人体动作识别方法,其特征在于步骤(2)具体实现如下:
多角度自适应主网络主要由两条LSTM分支网络组成;
(2-1)构建一条LSTM分支网络用来确定位移dk;
(2-2)构建另一条LSTM分支网络用来学习并确定最佳的视角,即获得旋转参数αk,θ,βk,θ,γk,θ;
其中,αk,θ,βk,θ,γk,θ分别表示为绕x、y、z轴旋转的角度;当获取到旋转参数和指定角度下的位移之后,将骨架坐标数据根据参数进行旋转变换,得到新的骨架坐标点集合;然后将新的骨架坐标点集合以及对应的动作标签输入到多个LSTM组成的网络,从端到端对骨架数据进行学习,将特征全连接后,最后通过SoftMax函数得到输出。
3.根据权利要求2所述的基于距离向量和多角度自适应网络的人体动作识别方法,其特征在于步骤(3)所述的获取最佳视角下的骨骼点坐标过程如下:
通过多角度自适应网络获取到位移dk与旋转参数Rk,θ(αk,θ,βk,θ,γk,θ)之后,根据公式(1)计算新的骨骼点坐标;
v′k,i,θ=[x′k,i,θ,y′k,i,θ,z′k,i,θ]T=Rk,θ(vk,i-dk) (1)
x′k,i,θ,y′k,i,θ,z′k,i,θ分别表示经过x、y、z轴的旋转参数后获得的坐标;vk,i表示原骨骼点坐标。
4.根据权利要求3所述的基于距离向量和多角度自适应网络的人体动作识别方法,其特征在于步骤(4)所述的计算骨骼点之间的距离向量过程如下:
(4-1)距离向量主要由骨骼点之间的距离和骨骼点相对方向组成,其中骨骼点之间的距离表示为:
其中(x,y,z)为骨骼点的坐标,如果人体骨骼点检测的输出为二维坐标,可将深度信息置为相同,实现二维坐标三维化;式(2)表示同一帧下第i个骨骼点与第j个骨骼点之间的空间距离,式(3)表示第m帧的第i个骨骼点与第n帧的第i个骨骼点之间的空间距离;
(4-2)骨骼点之间的相对位置表示为:
5.根据权利要求4所述的基于距离向量和多角度自适应网络的人体动作识别方法,其特征在于步骤(6)所述的时空图卷积网络构建过程如下:
(6-1)记一个具有N个节点和K帧的骨骼序列时空图为G=(V,E),其节点集合为V={vki|k=1,...,K,i=1,...,N};
(6-2)根据人体结构,将每一帧的骨骼点连接起来形成空间边Es={vkivkj|(i,j)∈B},将连续两帧中的相同节点连接成边,形成时序边Et={vkiv(k+1)i};
(6-3)将骨骼点之间的距离向量、骨骼点坐标位置、动作名称组成了新的输入特征向量Fnew(vti),时空图卷积操作如下:
式(6)表示同一帧不同骨骼点的图卷积操作,式(7)表示不同帧相同骨骼点的图卷积操作;其中,B(vmi)为骨骼点的领域约束条件,对于空间图卷积网络,B(vmi)={vmj|L(vmj,vmi)≤D},L(vmj,vmi)表示的是从vmj到vmi的最短距离;对于时间图卷积网络,B(vmi)=K为卷积核大小,Γ控制时间域的卷积核大小,即设置最大间隔视频帧数;p为采样函数,获取以该骨骼点为中心的周围邻居骨骼点,w为权重函数,Z为归一化项;
下面对时空图卷积操作进行更为详细的描述:
在图像中,采样函数p是定义在中心位置为x的近邻像素上的;在骨骼点图中,采样函数的结果指的是一个骨骼点vmi的近邻集合B(vmi),那么采样函数可以写为:
p(vmi,vmj)=vmj (8)
对于权重函数w,将骨骼点的近邻集合根据距离划分为固定个数的8个子集,每一个子集都有一个标签,通过映射函数根据标签来获取对应的权重函数,可以用式(9)表示:
w(vmi,vmj)=w′(L(vmi,vmj)) (9)
因此图卷积操作进一步表示为:
(6-4)在测试阶段,通过输入一段视频序列,经过人体骨骼点检测技术得到每一帧视频对应的骨骼点,再经过动作识别技术便得到了一系列动作标签以及对应的得分,最高得分对应的动作标签便是最后的结果。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110659972.1A CN113536926A (zh) | 2021-06-15 | 2021-06-15 | 基于距离向量和多角度自适应网络的人体动作识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110659972.1A CN113536926A (zh) | 2021-06-15 | 2021-06-15 | 基于距离向量和多角度自适应网络的人体动作识别方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113536926A true CN113536926A (zh) | 2021-10-22 |
Family
ID=78124974
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110659972.1A Pending CN113536926A (zh) | 2021-06-15 | 2021-06-15 | 基于距离向量和多角度自适应网络的人体动作识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113536926A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114373225A (zh) * | 2021-12-30 | 2022-04-19 | 复旦大学 | 一种基于人体骨架的行为识别方法及系统 |
CN117854155A (zh) * | 2024-03-07 | 2024-04-09 | 华东交通大学 | 一种人体骨骼动作识别方法及系统 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109685037A (zh) * | 2019-01-08 | 2019-04-26 | 北京汉王智远科技有限公司 | 一种实时动作识别方法、装置及电子设备 |
CN111652124A (zh) * | 2020-06-02 | 2020-09-11 | 电子科技大学 | 一种基于图卷积网络的人体行为识别模型的构建方法 |
-
2021
- 2021-06-15 CN CN202110659972.1A patent/CN113536926A/zh active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109685037A (zh) * | 2019-01-08 | 2019-04-26 | 北京汉王智远科技有限公司 | 一种实时动作识别方法、装置及电子设备 |
CN111652124A (zh) * | 2020-06-02 | 2020-09-11 | 电子科技大学 | 一种基于图卷积网络的人体行为识别模型的构建方法 |
Non-Patent Citations (2)
Title |
---|
PENGFEI ZHANG 等: "View Adaptive Recurrent Neural Networks for High Performance Human Action Recognition from Skeleton Data", 2017 IEEE INTERNATIONAL CONFERENCE ON COMPUTER VISION, pages 1 - 10 * |
SIJIE YAN: "Spatial Temporal Graph Convolutional Networks for Skeleton-Based Action Recognition", ARXIV:1801.07455V2 [CS.CV] 25 JAN 2018, pages 1 - 10 * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114373225A (zh) * | 2021-12-30 | 2022-04-19 | 复旦大学 | 一种基于人体骨架的行为识别方法及系统 |
CN117854155A (zh) * | 2024-03-07 | 2024-04-09 | 华东交通大学 | 一种人体骨骼动作识别方法及系统 |
CN117854155B (zh) * | 2024-03-07 | 2024-05-14 | 华东交通大学 | 一种人体骨骼动作识别方法及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107103613B (zh) | 一种三维手势姿态估计方法 | |
CN110246181B (zh) | 基于锚点的姿态估计模型训练方法、姿态估计方法和系统 | |
CN107424161B (zh) | 一种由粗至精的室内场景图像布局估计方法 | |
CN107808129A (zh) | 一种基于单个卷积神经网络的面部多特征点定位方法 | |
CN110175534A (zh) | 基于多任务级联卷积神经网络的授课辅助系统 | |
CN112232184B (zh) | 一种基于深度学习和空间转换网络的多角度人脸识别方法 | |
Liao et al. | A deep ordinal distortion estimation approach for distortion rectification | |
CN111680550B (zh) | 情感信息识别方法、装置、存储介质及计算机设备 | |
CN112257741B (zh) | 一种基于复数神经网络的生成性对抗虚假图片的检测方法 | |
CN107808376A (zh) | 一种基于深度学习的举手检测方法 | |
CN113361542A (zh) | 一种基于深度学习的局部特征提取方法 | |
CN113536926A (zh) | 基于距离向量和多角度自适应网络的人体动作识别方法 | |
CN110135277B (zh) | 一种基于卷积神经网络的人体行为识别方法 | |
CN112017212B (zh) | 人脸关键点跟踪模型的训练、跟踪方法及系统 | |
CN115731441A (zh) | 基于数据跨模态迁移学习的目标检测和姿态估计方法 | |
CN113610046B (zh) | 一种基于深度视频联动特征的行为识别方法 | |
CN107067410A (zh) | 一种基于增广样本的流形正则化相关滤波目标跟踪方法 | |
CN113408343A (zh) | 基于双尺度时空分块互注意力的课堂动作识别方法 | |
CN111368637A (zh) | 一种基于多掩模卷积神经网络的搬运机器人识别目标方法 | |
CN115205926A (zh) | 一种基于多任务学习的轻量化鲁棒人脸对齐方法及系统 | |
CN114663880A (zh) | 基于多层级跨模态自注意力机制的三维目标检测方法 | |
CN114170686A (zh) | 一种基于人体关键点的屈肘行为检测方法 | |
CN114332927A (zh) | 课堂举手行为检测方法、系统、计算机设备和存储介质 | |
CN110598595A (zh) | 一种基于人脸关键点和姿态的多属性人脸生成算法 | |
CN114492634A (zh) | 一种细粒度装备图片分类识别方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |