CN113705480A - 基于姿态识别神经网络的姿态识别方法、设备和介质 - Google Patents

基于姿态识别神经网络的姿态识别方法、设备和介质 Download PDF

Info

Publication number
CN113705480A
CN113705480A CN202111010032.6A CN202111010032A CN113705480A CN 113705480 A CN113705480 A CN 113705480A CN 202111010032 A CN202111010032 A CN 202111010032A CN 113705480 A CN113705480 A CN 113705480A
Authority
CN
China
Prior art keywords
image
gesture recognition
neural network
network
loss
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202111010032.6A
Other languages
English (en)
Other versions
CN113705480B (zh
Inventor
陈奕名
霍卫涛
马丁
王超
阚海鹏
其他发明人请求不公开姓名
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
New Oriental Education Technology Group Co ltd
Original Assignee
New Oriental Education Technology Group Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by New Oriental Education Technology Group Co ltd filed Critical New Oriental Education Technology Group Co ltd
Priority to CN202111010032.6A priority Critical patent/CN113705480B/zh
Priority claimed from CN202111010032.6A external-priority patent/CN113705480B/zh
Publication of CN113705480A publication Critical patent/CN113705480A/zh
Application granted granted Critical
Publication of CN113705480B publication Critical patent/CN113705480B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Image Analysis (AREA)

Abstract

本公开提供了一种基于姿态识别神经网络的姿态识别方法、设备和介质。姿态识别神经网络包括编码网络和第一全连接层,编码网络包括多个第一卷积层和多个第二卷积层,该姿态识别方法包括:获取待识别图像;利用多个第一卷积层分别地对待识别图像进行处理,用于得到与多个第一卷积层分别对应的多个第一特征图;将多个第一特征图合并为中间图像,并利用多个第二卷积层依次地对中间图像进行处理,用于得到第二特征图;利用第一全连接层对第二特征图进行处理,用于得到姿态特征向量,其中,姿态特征向量的分布表征基于待识别图像得到的识别姿态。

Description

基于姿态识别神经网络的姿态识别方法、设备和介质
技术领域
本公开的实施例涉及一种基于姿态识别神经网络的姿态识别方法、设备和介质。
背景技术
利用神经网络来进行图像内容识别是随着深度学习技术的发展而新兴起来的技术,例如,将神经网络应用于人体姿态估计,以识别出图像中的人体姿态。在相关技术中,通常由人体关节点来表征人体动作特征,然后基于识别的人体关节点来判别姿态。但是,为了准确识别人体姿态,需要神经网络处理的人体关节点的数目较多,这使得网络模型复杂计算量大,并且在图像中的部分关节点存在遮挡的情况下,识别结果会产生较大误差。
发明内容
本公开提供一种基于姿态识别神经网络的姿态识别方法、设备和介质,用于基于姿态识别神经网络来快速、准确地识别人体姿态。
根据本公开的一方面,提供了一种基于姿态识别神经网络的姿态识别方法,其中,姿态识别神经网络包括编码网络和第一全连接层,编码网络包括多个第一卷积层和多个第二卷积层,该方法包括:获取待识别图像;利用多个第一卷积层分别地对待识别图像进行处理,用于得到与多个第一卷积层分别对应的多个第一特征图;将多个第一特征图合并为中间图像,并利用多个第二卷积层依次地对中间图像进行处理,用于得到第二特征图;以及利用第一全连接层对第二特征图进行处理,用于得到姿态特征向量,其中,姿态特征向量的分布表征基于待识别图像得到的识别姿态。
根据本公开的一些实施例,该方法还包括:基于姿态特征向量的矩阵特征值来确定识别姿态,其包括以下步骤:将姿态特征向量转化为二维矩阵;提取二维矩阵的多个特征值,将多个特征值作为特征值向量;基于特征值向量来确定识别姿态。
根据本公开的一些实施例,将多个第一特征图合并为中间图像包括:以增加特征图的通道数目的方式来将多个第一特征图合并为中间图像。
根据本公开的一些实施例,姿态识别神经网络的参数是按照以下方式训练得到的:利用分类层对姿态特征向量进行处理,用于得到分类向量;利用解码网络对姿态特征向量进行处理,用于得到解码输出图像,其中,解码输出图像与待识别图像的图像尺寸相同;按照第一损失函数,基于分类向量、姿态特征向量和待识别图像的真实类别参数计算得到类别损失值;按照第二损失函数,基于解码输出图像与待识别图像计算得到图像损失值;以及根据类别损失值与图像损失值来训练姿态识别神经网络的参数。
根据本公开的一些实施例,该分类层为独热编码分类层,第一损失函数包括最小均方值误差函数和类别中心损失函数,其中,
Figure BDA0003238586850000021
Figure BDA0003238586850000022
其中,L1表示所述最小均方值误差函数,其中,n表示姿态类别的数目,yi表示真实姿态类别标签,f(xi)表示由所述分类层得到的分类向量,L2表示所述类别中心损失函数,cyi表示真实类别中心,xi表示姿态特征向量,m表示训练样本数目,其中,所述真实姿态类别标签和所述真实类别中心对应于所述真实类别参数,其中,第二损失函数为图像损失函数,图像损失函数表示为如下公式:
L3=E(I1(x,y)-I2(x,y))/255
其中,L3表示图像损失函数,I1(x,y)表示待识别图像的像素值,I2(x,y)表示解码输出图像的像素值,E表示计算数学期望。
根据本公开的一些实施例,根据类别损失值与图像损失值来训练姿态识别神经网络的参数包括:基于类别损失值与图像损失值计算整体损失值;根据整体损失值按照反向传播算法来调整姿态识别神经网络和解码网络的参数。
根据本公开的一些实施例,整体损失值表示为如下公式:
L′=αL1′+βL2′+γL3′
其中,L′表示整体损失值,L1′表示按照L1计算得到的损失值,L2′表示按照L2计算得到的损失值,L3′表示按照L3计算得到的损失值,α、β、γ分别表示与损失值L1′、L2′、L3′对应的权重值,其中,权重值是基于与权重值对应的损失函数所作用的网络的参数量确定的,其中,第一损失函数所作用的网络包括姿态识别神经网络,第二损失函数所作用的网络包括姿态识别神经网络和解码网络。
根据本公开的一些实施例,多个第一卷积层包括3个第一卷积层,3个第一卷积层的卷积核尺寸分别为3×1×3、3×3×1、3×3×3,多个第二卷积层包括4个第二卷积层,4个第二卷积层的卷积核尺寸分别为9×3×3、18×3×3、36×3×3、72×3×3,并且其中,4个第二卷积层的步长被设置为等于2。
根据本公开的一些实施例,在训练姿态识别神经网络的参数的过程中包括利用解码网络对姿态特征向量进行处理,用于得到解码输出图像,解码输出图像与待识别图像的图像尺寸相同,其中,解码网络包括依次连接的第二全连接层、重构层以及多个反卷积层,其中,重构层的参数为1×16×16,多个反卷积层包括3个反卷积层,3个反卷积层中的每个反卷积层的卷积核尺寸为3×3×3,并且其中,每个反卷积层的步长被设置为等于2,第一全连接层的参数为1×128,第二全连接层的参数为1×256。
根据本公开的一些实施例,获取待识别图像包括:获取初始图像;在初始图像中识别人体轮廓,并确定人体的最大外接矩形框;以及基于最大外接矩形框在初始图像中截取图像作为待识别图像。
根据本公开的另一方面,提供了一种姿态识别设备,包括:处理器和存储器,其中,存储器中存储有计算机可读代码,该计算机可读代码当由处理器运行时,执行如上所述的基于姿态识别神经网络的姿态识别方法。
根据本公开的又一方面,提供了一种计算机可读存储介质,其上存储有指令,该指令在被处理器执行时,使得处理器执行如上所述的基于姿态识别神经网络的姿态识别方法。
在根据本公开实施例的基于姿态识别神经网络的姿态识别方法中,姿态识别神经网络的结构简单,有利于实现快速地姿态识别应用,并且由该姿态识别神经网络输出的姿态特征向量的分布能够直接地表征待识别图像的姿态,利用根据本公开实施例的姿态识别方法能够实现快速、直接地人体姿态识别。
附图说明
为了更清楚地说明本公开实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本公开的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1示出了根据本公开实施例的基于姿态识别神经网络的姿态识别方法的示意性流程图;
图2A示出了根据本公开实施例的初始图像的示意图;
图2B示出了在图2A所示的初始图像中截取待识别图像的示意图;
图3中示出了根据本公开实施例的姿态识别神经网络的结构示意图;
图4示出了根据本公开实施例的姿态特征向量的分布的示意图;
图5示出了根据本公开实施例的姿态识别神经网络的训练流程图;
图6示出了根据本公开实施例的姿态识别神经网络在训练过程中的网络结构示意图;
图7示出了根据本公开实施例的姿态识别设备的示意性框图;
图8示出了根据本公开实施例的示例性计算设备的架构的示意图;
图9示出了根据本公开实施例的计算机可读存储介质的示意图。
具体实施方式
下面将结合本公开实施例中的附图,对本公开实施例中的技术方案进行清楚、完整地描述。显然,所描述的实施例仅是本公开一部分的实施例,而不是全部的实施例。基于本公开中的实施例,本领域普通技术人员在无需创造性劳动的前提下所获得的所有其他实施例,都属于本公开保护的范围。
本公开中使用的“第一”、“第二”以及类似的词语并不表示任何顺序、数量或者重要性,而只是用来区分不同的组成部分。同样,“包括”或者“包含”等类似的词语意指出现该词前面的元件或者物件涵盖出现在该词后面列举的元件或者物件及其等同,而不排除其他元件或者物件。
应当理解的是,本公开中使用的流程图是用来说明根据本公开的实施例的方法的步骤,前面或后面的步骤不一定按照顺序来精确的进行。相反,可以按照倒序或同时处理各种步骤。此外,还可以将其他操作添加到这些过程中,或从这些过程移除某一步或数步。
人工智能(Artificial Intelligence,AI)技术是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用系统。换句话说,人工智能是计算机科学的一个综合技术,其企图了解智能的实质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器。人工智能也就是研究各种智能机器的设计原理与实现方法,使机器具有感知、推理与决策的功能。
AI技术主要涉及计算机视觉技术、语音处理技术、自然语言处理技术以及深度学习技术等方向。基于神经网络的深度学习技术在对于数据的理解、图像特征识别等方面具有非常大的潜力,例如,利用神经网络进行人体姿态识别。
在相关技术中,基于深度学习的开放姿势(OpenPose)人体姿态识别项目是基于神经网络和监督学习开发的开源库,可以实现人体动作、面部表情、手指运动等姿态估计。具体的,OpenPose可以实现多关键点实时识别,通过对待识别图像提取关键点(诸如人体关节点)来识别姿态。但是,基于OpenPose的神经网络结构非常复杂,算法复杂度高,并且需要对庞大的数据量进行处理,这将耗费计算资源和计算时间。此外,诸如OpenPose等传统姿态识别方法均是识别图像中的人体关节点来进行姿态识别,但是识别得到的人体关节点不能直接地用于确定姿态类别,还需要利用诸如分类器来针对人体关节点判别姿态。在图像中的部分关节点存在遮挡的情况下,识别结果会产生较大误差。鉴于以上缺陷,相关技术中的人体姿态识别方案很难实现实时快速的人体姿态识别,不利于应用发展。
基于此,本公开的一些实施例提供了一种基于姿态识别神经网络的姿态识别方法,其中的姿态识别神经网络结构简单,有利于实现快速地姿态识别应用,并且由该姿态识别神经网络输出的姿态特征向量的分布能够直接地表征待识别图像的姿态,而不依赖于人体关节点,利用根据本公开的一些实施例提供的姿态识别方法,能够实现快速、直接地人体姿态识别。
图1示出了根据本公开实施例的基于姿态识别神经网络的姿态识别方法的示意性流程图1000。首先,如图1所示,在步骤S1010,获取待识别图像。该待识别图像可以是其中包括人体特征的图像,利用姿态识别神经网络对该待识别图像进行处理以提取人体的姿态信息,从而识别人体姿态类别。
根据本公开的一些实施例,获取待识别图像可以包括:获取初始图像,在初始图像中识别人体轮廓,并确定人体的最大外接矩形框,以及基于最大外接矩形框在初始图像中截取图像作为该待识别图像。
示意性地,图2A示出了根据本公开实施例的初始图像的示意图,该初始图像中示意性地包括有两个人物,图2B示出了在图2A的初始图像中截取待识别图像的过程示意图。首先,对于要确定其人体姿态的人物,在初始图像中识别人体轮廓,图2B中以左侧人物为例,截取出如黑色方框所示的最大外接矩形框,然后在初始图像中截取最大外接矩形框所对应的图像部分,作为待识别图像,即,作为姿态识别神经网络的输入图像。其中,在初始图像中识别人体轮廓的步骤可以采用相关目标检测算法来实现,例如基于候选区域的卷积神经网络(Region Proposal-Convolutional Neural Network,R-CNN)、YOLO(You Only LookOnce)目标检测器等,在此不作限制。
此外,对于截取得到的对应于最大外接矩形框的图像,还可以改变其图像尺寸,其中,由图像像素数目表示图像尺寸。通常,得到的最大外接矩形框的长和宽并不相等,并且从不同初始图像中截取的外接矩形的图像尺寸也不相同,为便于姿态识别神经网络的处理,可以将截取得到的对应于最大外接矩形框的图像统一调整为相同的图像尺寸,例如128*128,将调整尺寸后的图像作为待识别图像。
根据本公开的一些实施例的姿态识别神经网络是基于自编码技术,其中包括编码网络和第一全连接层,该编码网络由多个第一卷积层和多个第二卷积层组成。
示意性地,图3中示出了根据本公开实施例的姿态识别神经网络的结构图,以下将结合图1和图3对根据本公开一些实施例的姿态识别神经网络的网络结构和参数以及基于该网络的姿态识别方法的过程进行详细描述。
如图1所示,在步骤S1020,利用多个第一卷积层分别地对待识别图像进行处理,用于得到与多个第一卷积层分别对应的多个第一特征图。作为示例,待识别图像的图像尺寸可以是128*128,首先,由姿态识别神经网络中的多个第一卷积层分别地对该待识别图像进行处理,以得到多个第一特征图。
根据本公开的一些实施例,用于分别对待识别图像进行处理的多个第一卷积层例如可以具有不同的参数,以从提取不同层级的图像特征。例如,如图3所示出的,编码网络中首先布置有3个第一卷积层,3个第一卷积层的卷积核尺寸分别为3×1×3、3×3×1、3×3×3。
在卷积层中,一个神经元只与部分相邻层的神经元连接,卷积层可以对输入的图像应用若干个卷积核,以提取多种类型的特征。每个卷积核可以提取一种类型的特征,在训练生成神经网络的过程中,卷积核通过学习达到合理的权值。对输入的图像应用卷积核之后得到的结果可以称为特征图。经过一层卷积层输出的特征图经由下一层卷积层处理后可以得到新的特征图。例如,输入的图像经过一层卷积层处理后可以得到其中一种特征,该特征经由下一层的卷积层处理后可以得到另一特征。
在经过如图3所示的3个第一卷积层分别处理之后,将得到与该3个第一卷积层分别对应的3个第一特征图。接着,如图1所示,在步骤S1030,将多个第一特征图合并为中间图像,并利用多个第二卷积层依次地对中间图像进行处理,用于得到第二特征图。
根据本公开的一些实施例,将多个第一特征图合并为中间图像包括:以增加特征图的通道数目的方式来将多个第一特征图合并为中间图像。作为示例,合并多个第一特征图的过程可以采用例如Concat函数来实现,该Concat函数用于将两个或多个数组结合起来。例如,可以将3个第一特征图分别表示为P1、P2和P3,由Concat函数来对P1-P3进行合并,并输出合并后的中间图像P4。假设,P1、P2和P3的图像特征均为M*N*T,其中,M*N表示图像尺寸,T表示图像通道数,则合并后的P4可以表示M*N*3T,即,以增加特征图的通道数目的方式来将多个第一特征图合并为中间图像。
接着,对于合并得到的中间图像P4,将经由多个第二卷积层依次地进行处理,并最终得到第二特征图。
如图3所示,根据本公开一些实施例的多个第二卷积层包括4个第二卷积层,该4个第二卷积层的卷积核尺寸分别为9×3×3、18×3×3、36×3×3、72×3×3,并且其中,4个第二卷积层的步长被设置为等于2。利用多个第二卷积层依次进行处理可以表示为如图3所示出的过程,即,依次得到特征图P5-P8,并最终得到特征图P8,该特征图P8对应于第二特征图。
在卷积层中,卷积步长也叫卷积步幅(stride),其代表滤波器每移动一次移动的步幅,S=2则表示滤波器每次移动2个位置,在卷积的过程中,通过设置大于1的步长可以用于压缩图像信息,或者使输出的图像尺寸小于输入的图像尺寸。
接着,如图1所示,在步骤S1040,利用第一全连接层对第二特征图进行处理,用于得到姿态特征向量,其中,姿态特征向量的分布表征基于待识别图像得到的识别姿态。其中,识别姿态可以表示为基于姿态识别神经网络所识别出来的姿态。根据本公开的一些实施例,第一全连接层的参数可以为1×128。在神经网络中,全连接层就是把卷积层提取的分布式特征映射到样本空间,也就是说,全连接层用于把特征图整合到一起,生成一维的特征向量,例如,在第一全连接层的参数为1×128的情况下,将得到1×128的特征向量。由第一全连接层输出的1×128特征向量表示为姿态特征向量。
在根据本公开实施例的姿态识别方法中,姿态识别网络是对待识别图像中的图像特征进行分析,其输出的姿态特征向量的分布表征基于所述待识别图像识别得到的姿态。相比于诸如Openpose的相关技术中基于人体关节点识别姿态的方案,本公开中提出的姿态识别网络并不依赖于识别人体关节点,而是直接地通过姿态特征向量的分布来表征人体姿态。
具体的,图4示出了根据本公开实施例的姿态特征向量的分布的示意图,其中示出了基于姿态识别神经网络分别得到3个姿态特征向量的情形,输出的姿态特征向量为1×128的特征向量,示意性地图4中示出了不同姿态类别的姿态特征向量的分布形式。可以理解的是,在神经网络的训练过程中,通过使得神经网络输出的姿态特征向量的不同分布形式来表示不同的姿态类别,即,通过训练使得姿态识别神经网络具有针对不同的姿态类别输出具有不同分布的特征向量以及针对相同的姿态类别输出具有相同分布的特征向量的能力,从而实现仅依据特征向量的分布就能够确定姿态类别。
可以理解的是,图3中示出的姿态识别神经网络的参数以及网络结构仅是对应于根据本公开的一种实施方式,在实际应用中可以设置不同于图3示出的网络参数,例如,可以根据计算设备的计算能力、对于姿态识别的准确性要求来设置网络参数。此外,图4中示出的姿态特征向量的分布仅对应于3种姿态类别,在实际应用中,能够识别的姿态类别并不限于此,这取决于神经网络训练过程中的训练样本以及损失函数等的设置,这将在下文的训练步骤中进行描述。
根据本公开实施例的基于姿态识别神经网络的姿态识别方法中,该姿态识别神经网络(如图3所示)的网络结构简单,数据计算量小,这有利于实现快速地姿态识别应用。并且,由该姿态识别神经网络输出的姿态特征向量的分布能够直接地表征待识别图像的姿态(如图4所示),而不依赖于人体关节点,这使得能够在人体存在部分遮挡的情况下仍能保证准确识别姿态,利用根据本公开的一些实施例提供的姿态识别方法,能够实现快速、直接地人体姿态识别。
对于识别得到的人体姿态,其中的一种应用方向是人体的动作行为估计,为了理解人的行为,人体的姿态估计是非常重要的中间层信息。人体姿态识别还可以应用于娱乐产品,例如人体交互等,其中通过三维姿态估计来构建虚拟人物,用于使用真实人体来控制虚拟人物,以实现智能交互。人体姿态识别还可以作为其他算法的辅助信息,例如用来辅助进行行人检测。此外,姿态估计还可以应用在体育动作教学、绘画辅助、游戏人物动作采集等领域,具有广阔的应用前景。根据本公开实施例的姿态识别方法能够为这些应用提供快速、准确的姿态识别结果。
在构建了神经网络的网络结构之后,例如,如图3所示的姿态识别神经网络,需要对神经网络设置初始参数值,并通过构建的训练图像数据库来完成对于神经网络的训练过程,使得其能输出预期结果,例如输出表征姿态类别的姿态特征向量。训练图像数据库包括大量的训练样本,并且训练样本还可以具有真实标签,以用于进行有监督学习的训练过程。神经网络的训练过程可以理解为不断调整神经网络的参数的过程,利用损失函数基于大量的具有真实标签的训练样本来不断优化神经网络的参数,即,使得神经网络的输出结果越来越接近真实标签。换句话说,经过训练的神经网络学习到了输出预期结果的能力。
根据本公开实施例,姿态识别神经网络的可训练的参数包括网络中各个卷积核的权重以及偏置。在神经网络中,卷积核权重和偏置可以决定生成输出结果的特征图的使能情况,例如,通过卷积核的权重和偏置可以决定从输入图像中提取的特征图中的每个元素对于生成的输出特征图的贡献大小。基于损失函数计算得到的损失值,可以按照反向传播算法来调整神经网络中的参数,调整的方向是使得网络的输出结果更接近于真实标签。
图5示出了根据本公开实施例的姿态识别神经网络的训练流程图,图6示出了根据本公开实施例的姿态识别神经网络在训练过程中的网络结构示意图。以下将结合图5和图6对根据本公开实施例的姿态识别神经网络的训练过程进行详细描述。
如图5所示,在训练过程中,在步骤S1050,利用分类层对姿态特征向量进行处理,用于得到分类向量。接着,在步骤S1060,按照第一损失函数,基于分类向量、姿态特征向量和待识别图像的真实类别参数计算得到类别损失值。
参考图6,对于由第一全连接层输出的姿态特征向量首先经过分类层的处理以得到经过分类处理的分类向量。例如,分类层起到分类器的作用,用于对姿态识别网络输出的姿态特征向量进行分类,以得到识别的类别标签,基于该输出的类别标签与真实类别标签的比较结果来计算损失值,并由此来调整网络参数,即,实现对于网络的训练。
根据本公开的一些实施例,该分类层可以实施为独热(one-hot)编码分类层。独热编码也可以称为一位有效编码,例如,用n个比特来对n个类别进行编码。举例来说,假设要识别的姿态分为4个类别(即,n=4),对应于该类别的编码状态值为1,而对应于其他类别的编码状态值为0。作为示例,假设要识别的4个姿态类别分别是平躺、站立、坐和跑步,则该分类层的独热编码输出结果可以分别对应于[1,0,0,0]、[0,1,0,0]、[0,0,1,0]、[0,0,0,1],也就是说,如果独热编码分类层输出的分类向量为[0,1,0,0],则表示经由该姿态识别网络的处理得到的识别结果是该待识别图像中的姿态为站立。通常情况下,类别的数目可以很多,即,n的数值可以根据实际需要来进行设置,在此不作限制。
根据本公开的一些实施例,第一损失函数可以包括最小均方值误差函数和类别中心损失函数。可以理解的是,在根据本公开的其他实施例中,第一损失函数可以仅包括最小均方值误差函数和类别中心损失函数中的其中一种。
最小均方值误差函数表示为以下公式(1):
Figure BDA0003238586850000101
其中,L1表示最小均方值误差函数,n表示姿态类别的数目,例如可以是如上所述的4个类别,yi表示真实姿态类别标签,也就是待识别图像的真实类别,f(xi)表示由分类层得到的分类向量。对于最小均方值误差函数,是把真实姿态类别标签与网络输出值f(xi)做差然后取平方值以得到输出结果与真实值之间的误差值。
类别中心损失函数表示为以下公式(2):
Figure BDA0003238586850000102
其中,L2表示类别中心损失函数,
Figure BDA0003238586850000103
表示真实类别中心,xi表示由姿态识别网络得到的姿态特征向量,m表示训练样本数目,其中,m对应于用于训练网络的训练样本的数目,即,在训练过程中使用的待识别图像的数目。在训练过程中,待识别图像也可以称为训练样本,其具有真实类别参数,以用于将真实类别参数与基于训练样本的输出结果进行比较。
类别中心损失函数L2用于计算输出结果与对应类别中心的距离,以达到聚类的目的,即使得属于相同类别的训练数据的输出结果靠近真实类别的中心,这有助于使得经过训练之后,针对相同姿态类别得到的姿态特征向量的分布彼此相近,而针对不同姿态类别得到的姿态特征向量的分布彼此区分明显,从而实现由姿态特征向量的分布来直接表征姿态类别,例如图4所示出的。
基于以上公式(1)和(2),能够计算得到针对姿态识别神经网络的类别损失值,根据计算得到的类别损失值能够训练该姿态识别神经网络的参数,即,按照使得类别损失值减小的方向来调整网络参数,从而使得输出结果越来越接近真实类别参数,由此提高输出结果的准确性。
接着参考图5,训练过程还可以包括步骤S1070和S1080,在步骤S1070,利用解码网络对姿态特征向量进行处理,用于得到解码输出图像,其中,解码输出图像与待识别图像的图像尺寸相同,接着,在步骤S1080,按照第二损失函数,基于解码输出图像与待识别图像计算得到图像损失值。
根据本公开实施例的姿态识别网络采用了自编码学习技术,这属于无监督学习的一种。相比较地,以上基于第一损失函数计算类别损失值的训练过程属于有监督学习,即训练的过程中需要提供真实类别参数作为训练目标。
针对姿态识别网络中的编码网络,构造有与之对应的解码网络,编码网络与解码网络两者共同组成自编码器,例如,编码网络用于对输入数据进行编码以提取特征,解码网络再对编码网络的输出结果进行解码,以恢复原始的输入数据,也就是说,自编码器的目的是从输入数据学习出一种编码表示,并且希望得到的编码表示能够尽可能的重构出原来的输入数据。
根据本公开的一些实施例,关于解码网络的具体结构可以参考图6,其包括依次连接的第二全连接层、重构层以及多个反卷积层,其中,第二全连接层的参数为1×256,重构层(reshape)的参数为1×16×16,多个反卷积层包括3个反卷积层,该3个反卷积层中的每个反卷积层的卷积核尺寸为3×3×3,并且其中,每个反卷积层的步长被设置为等于2。可以理解的是,解码网络的参数是与编码网络的参数对应设置的,以使得解码输出图像与待识别图像的图像尺寸相同。例如,在待识别图像的图像尺寸为128*128的情况下,由解码网络输出的解码输出图像的尺寸也为128*128。
根据本公开的一些实施例,第二损失函数为图像损失函数,表示为以下公式(3):
L3=E(I1(x,y)-I2(x,y))/255 (3)
其中,L3表示该图像损失函数,I1(x,y)表示待识别图像的像素值,I2(x,y)表示解码输出图像的像素值,E表示计算数学期望。图像损失函数L3用于表示输入与输出之间的差异,计算得到的L3的值越小越好,即,希望由编码网络得到的姿态特征向量能够尽可能的重构出原来的待识别图像。
根据本公开的一些实施例,可以采用以上有监督学习和无监督学习方式来共同训练姿态识别神经网络的参数,以提高姿态识别准确性,这对应于图5中的步骤S1090,根据类别损失值与图像损失值来训练姿态识别神经网络的参数。
根据本公开的一些实施例,根据类别损失值与图像损失值来训练姿态识别神经网络的参数包括:基于类别损失值与图像损失值计算整体损失值,以及根据整体损失值按照反向传播算法来调整姿态识别神经网络和解码网络的参数。
可以理解的是,在根据本公开的其他实施方式中,也可以仅基于无监督学习方式来训练姿态识别神经网络的参数,或者,进一步引入其他的训练函数来进行训练,在此不作限制。
根据本公开的一些实施例,在根据类别损失值与图像损失值两者来训练姿态识别神经网络的参数的情况下,计算整体损失值表示为如下公式(4):
L′=αL1′+βL2′+γL3′ (4)
其中,L′表示整体损失值,L1′表示按照L1计算得到的损失值,L2′表示按照L2计算得到的损失值,L3′表示按照L3计算得到的损失值,α、β、γ分别表示与损失值L1′、L2′、L3′对应的权重值。
在相关技术中,以上权重值通常设置为超参数,即设置为固定的数值,例如通过经验设置或者针对不同的权重值进行遍历验证,以确定最终的权重值。
根据本公开的一些实施例中,权重值α、β、γ是基于与该权重值分别对应的损失函数所作用的网络的参数量来确定的。其中,第一损失函数所作用的网络包括姿态识别神经网络,第二损失函数所作用的网络包括姿态识别神经网络和解码网络。
具体的,以计算由最小均方值误差函数的计算得到的损失值L1′的权重值作为示例进行说明。其中,权重值α是基于以下公式(5)计算得到的:
Figure BDA0003238586850000131
其中,Aα表示与权重值α对应的损失函数L1所作用的网络的参数量,Aβ表示与权重值β对应的损失函数L2所作用的网络的参数量,Aγ表示与权重值γ对应的损失函数L3所作用的网络的参数量。其中,由于L1所作用的网络与L2所作用的网络均对应于姿态识别网络,则Aα=Aβ
神经网络的参数量表征该网络的空间复杂度,其由两部分组成,即,总参数量(也可以称为模型体积)和各层输出的特征图,即,参数量只与卷积核的尺寸、通道数、网络层数相关,而与输入数据的大小无关。在根据本公开的实施例中,损失函数的作用域越大,即其所作用的网络的参数量越大,则其对网络参数造成的影响越大,这一点可以理解为训练数据不平衡的时候,尤其某一个标签数据过多或者过少的时候,对整体的模型训练影响较大,因此为了降低由于不同训练函数的作用域不同而产生的差异,提出针对作用域大的损失函数分配较低的权重值,反之亦然,由此可以平衡多个损失函数之间由于所作用的网络参数量不同而带来的训练影响。
关于计算网络的参数量的过程,可以采用以下参数量计算公式(6):
Figure BDA0003238586850000132
其中,A表示参数量,第一个求和表达式表示网络中所有带参数的卷积层的权重参数总量,可以理解为网络模型体积,其中,l表示网络层数,例如,图6中示出的卷积层、反卷积层等,K为卷积核的尺寸,C为通道数,第二个求和表达式表示模型在运行过程中每层所计算出的输出特征图尺寸,R2表示特征图的空间尺寸,输出特征图的空间占用表示为其空间尺寸R2与通道数C的连乘。
参考以上公式(6),可以分别计算姿态识别网络(图3)与训练过程中的整体网络(图6)的参数量,即,得到Aα、Aβ、Aγ,然后代入到公式(5)以确定损失函数的权重值。
在根据本公开的一些实施例中,基于以上计算得到的类别损失值和图像损失值来计算整体损失值,然后,根据整体损失值按照反向传播算法来调整姿态识别神经网络和解码网络的参数,即,使得整体损失值减小的方向来调整网络参数,从而使得网络的输出结果越来越接近真实类别参数,由此提高输出结果的准确性。
根据本公开的一些实施例,姿态识别网络的训练过程采用了类别中心损失函数,其用于计算输出结果与对应类别中心的距离,以达到聚类的目的,即使得属于相同类别的训练数据的输出结果靠近真实类别的中心,这有助于使得经过训练之后,针对相同姿态类别得到的姿态特征向量的分布彼此相近,而针对不同姿态类别得到的姿态特征向量的分布彼此区分明显,从而实现由姿态特征向量的分布来直接表征姿态类别,例如图4所示出的。
此外,在计算整体损失值的过程中,考虑到不同损失函数所作用的网络参数量不同,通过计算参数量来确定权重值,由此平衡多个损失函数之间由于所作用的网络参数量不同而带来的训练影响。
根据本公开的一些实施例,基于姿态识别神经网络的姿态识别方法还可以包括:基于姿态特征向量的矩阵特征值来确定识别姿态,其包括以下步骤:将姿态特征向量转化为二维矩阵;提取二维矩阵的多个特征值,将多个特征值作为特征值向量;以及基于特征值向量来确定识别姿态。
例如,在第一全连接层输出的姿态识别向量为1×128特征向量的情况下,可以首先将其转换为V1=16×8的中间矩阵,即,将一维的特征向量转换成二维的矩阵V1,为了更好的提取特征值,进一步地将中间矩阵V1转换成二维矩阵V2,例如,V2=V1×V1T,即,得到的矩阵V2为V2=16×16的方阵。接着,针对得到的二维矩阵V2计算其16个特征值,并将得到的16个特征值作为特征值向量,如果矩阵的秩小于16则补零。由此,可以将1×128的特征向量转换为1×16的特征值向量,并基于计算得到的特征值向量来确定姿态类别,例如可以在姿态神经网络的第一全连接层之后增加相应的分类器,并由该分类器来基于特征值向量判断识别姿态。由于特征值向量相比于特征向量减少了参数量,这使得可以降低分类计算量,提高计算速度。此外,在以上结合图5和图6描述的训练过程中,其中的分类层处理的对象也可以是以上经过转换的特征值向量,以提高训练过程中关于分类层的计算速度。
根据本公开的又一方面,还提供了一种姿态识别设备。图7示出了根据本公开实施例的姿态识别设备的示意性框图。
如图7所示,姿态识别设备2000可以包括处理器2010以及存储器2020。根据本公开实施例,存储器2020中存储有计算机可读代码,该计算机可读代码当由处理器2010运行时,执行以上结合图1描述的基于姿态识别网络的姿态识别方法。
处理器2010可以根据存储在存储器2020中的程序执行各种动作和处理。具体地,处理器2010可以是一种集成电路,具有信号的处理能力。上述处理器可以是通用处理器、数字信号处理器(DSP)、专用集成电路(ASIC)、现成可编程门阵列(FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。可以实现或者执行本发明实施例中公开的各种方法、步骤及逻辑框图。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等,可以是X86架构或者是ARM架构等。
存储器2020存储有计算机可执行指令代码,该指令代码在被处理器2010执行时用于实现根据本公开实施例的基于姿态识别神经网络的姿态识别方法。存储器2020可以是易失性存储器或非易失性存储器,或可包括易失性和非易失性存储器两者。非易失性存储器可以是只读存储器(ROM)、可编程只读存储器(PROM)、可擦除可编程只读存储器(EPROM)、电可擦除可编程只读存储器(EEPROM)或闪存。易失性存储器可以是随机存取存储器(RAM),其用作外部高速缓存。通过示例性但不是限制性说明,许多形式的RAM可用,例如静态随机存取存储器(SRAM)、动态随机存取存储器(DRAM)、同步动态随机存取存储器(SDRAM)、双倍数据速率同步动态随机存取存储器(DDRSDRAM)、增强型同步动态随机存取存储器(ESDRAM)、同步连接动态随机存取存储器(SLDRAM)和直接内存总线随机存取存储器(DR RAM)。应注意,本文描述的存储器旨在包括但不限于这些和任意其它适合类型的存储器。
根据本公开实施例的基于姿态识别神经网络的姿态识别方法也可以借助于图8所示的计算设备3000的示例性架构来实现。如图8所示,计算设备3000可以包括总线3010、一个或多个CPU 3020、只读存储器(ROM)3030、随机存取存储器(RAM)3040、连接到网络的通信端口3050、输入/输出组件3060、硬盘3070等。计算设备3000中的存储设备,例如ROM 3030或硬盘3070可以存储本公开实施例提供的基于姿态识别神经网络的姿态识别方法的处理和/或通信使用的各种数据或文件以及CPU所执行的程序指令。计算设备3000还可以包括用户界面3080。
当然,图8所示的架构只是示例性的,在实现不同的设备时,根据实际需要,可以省略图8示出的计算设备中的一个或多个组件,或者向其中增加所需的组件。
根据本公开的又一方面,还提供了一种非暂时性计算机可读存储介质。图9示出了根据本公开实施例的非暂时性计算机可读存储介质的示意图。
如图9所示,计算机可读存储介质4020上存储有指令,指令例如是计算机可读指令4010。当计算机可读指令4010由处理器运行时,可以执行参照以上附图描述的基于姿态识别神经网络的姿态识别方法。计算机可读存储介质包括但不限于例如易失性存储器和/或非易失性存储器。易失性存储器例如可以包括随机存取存储器(RAM)和/或高速缓冲存储器(cache)等。非易失性存储器例如可以包括只读存储器(ROM)、硬盘、闪存等。例如,计算机可读存储介质4020可以连接于诸如计算机等的计算设备,接着,在计算设备运行计算机可读存储介质4020上存储的计算机可读指令4010的情况下,可以进行如上所描述的基于姿态识别神经网络的姿态识别方法。
根据本公开的又一方面,还提供了一种计算机程序产品或计算机程序,该计算机程序产品或者计算机程序包括计算机可读指令,该计算机可读指令存储在计算机可读存储介质中。计算机设备的处理器可以从计算机可读存储介质读取该计算机可读指令,处理器执行该计算机可读指令,使得该计算机设备执行上述各个实施例中描述的基于姿态识别神经网络的姿态识别方法。
根据本公开的一些实施例的计算机程序产品或计算机程序实现为软件包的形式并应用于诸如人机交互等的应用产品中,以用于在应用过程中快速提供关于人体姿态的识别信息。
在根据本公开实施例提供的基于姿态识别神经网络的姿态识别方法、设备和介质中,其中设计的姿态识别神经网络结构简单,有利于实现快速地姿态识别应用,并且由该姿态识别神经网络输出的姿态特征向量的分布能够直接地表征待识别图像的姿态,以便能够实现快速、直接地人体姿态识别。
本领域技术人员能够理解,本公开所披露的内容可以出现多种变型和改进。例如,以上所描述的各种设备或组件可以通过硬件实现,也可以通过软件、固件、或者三者中的一些或全部的组合实现。
本领域普通技术人员可以理解上述方法中的全部或部分的步骤可通过计算机程序来指令相关硬件完成,程序可以存储于计算机可读存储介质中,如只读存储器、磁盘或光盘等。可选地,上述实施例的全部或部分步骤也可以使用一个或多个集成电路来实现。相应地,上述实施例中的各模块/单元可以采用硬件的形式实现,也可以采用软件功能模块的形式实现。本公开并不限制于任何特定形式的硬件和软件的结合。
以上是对本公开的说明,而不应被认为是对其的限制。尽管描述了本公开的若干示例性实施例,但本领域技术人员将容易地理解,在不背离本公开的新颖教学和优点的前提下可以对示例性实施例进行许多修改。因此,所有这些修改都意图包含在权利要求书所限定的本公开范围内。应当理解,上面是对本公开的说明,而不应被认为是限于所公开的特定实施例,并且对所公开的实施例以及其他实施例的修改意图包含在所附权利要求书的范围内。本公开由权利要求书及其等效物限定。

Claims (12)

1.一种基于姿态识别神经网络的姿态识别方法,其中,所述姿态识别神经网络包括编码网络和第一全连接层,所述编码网络包括多个第一卷积层和多个第二卷积层,所述方法包括:
获取待识别图像;
利用所述多个第一卷积层分别地对所述待识别图像进行处理,用于得到与所述多个第一卷积层分别对应的多个第一特征图;
将所述多个第一特征图合并为中间图像,并利用所述多个第二卷积层依次地对所述中间图像进行处理,用于得到第二特征图;以及
利用所述第一全连接层对所述第二特征图进行处理,用于得到姿态特征向量,其中,所述姿态特征向量的分布表征基于所述待识别图像得到的识别姿态。
2.根据权利要求1所述的方法,还包括:基于所述姿态特征向量的矩阵特征值来确定所述识别姿态,其包括以下步骤:
将所述姿态特征向量转化为二维矩阵;
提取所述二维矩阵的多个特征值,将所述多个特征值作为特征值向量;以及
基于所述特征值向量来确定所述识别姿态。
3.根据权利要求1所述的方法,其中,所述将所述多个第一特征图合并为中间图像包括:
以增加特征图的通道数目的方式来将所述多个第一特征图合并为所述中间图像。
4.根据权利要求1所述的方法,其中,所述姿态识别神经网络的参数是按照以下方式训练得到的:
利用分类层对所述姿态特征向量进行处理,用于得到分类向量;
按照第一损失函数,基于所述分类向量、所述姿态特征向量和所述待识别图像的真实类别参数计算得到类别损失值;
利用解码网络对所述姿态特征向量进行处理,用于得到解码输出图像,其中,所述解码输出图像与所述待识别图像的图像尺寸相同;
按照第二损失函数,基于所述解码输出图像与所述待识别图像计算得到图像损失值;以及
根据所述类别损失值与所述图像损失值来训练所述姿态识别神经网络的参数。
5.根据权利要求4所述的方法,其中,所述分类层为独热编码分类层,所述第一损失函数包括最小均方值误差函数和类别中心损失函数,其中,
Figure FDA0003238586840000021
Figure FDA0003238586840000022
其中,L1表示所述最小均方值误差函数,其中,n表示姿态类别的数目,yi表示真实姿态类别标签,f(xi)表示由所述分类层得到的分类向量,L2表示所述类别中心损失函数,
Figure FDA0003238586840000023
表示真实类别中心,xi表示所述姿态特征向量,,m表示训练样本数目,其中,所述真实姿态类别标签和所述真实类别中心对应于所述真实类别参数,
其中,所述第二损失函数为图像损失函数,所述图像损失函数表示为如下公式:
L3=E(I1(x,y)-I2(x,y))/255
其中,L3表示所述图像损失函数,I1(x,y)表示所述待识别图像的像素值,I2(x,y)表示所述解码输出图像的像素值,E表示计算数学期望。
6.根据权利要求5所述的方法,其中,所述根据所述类别损失值与所述图像损失值来训练所述姿态识别神经网络的参数包括:
基于所述类别损失值与所述图像损失值计算整体损失值;
根据所述整体损失值按照反向传播算法来调整所述姿态识别神经网络和所述解码网络的参数。
7.根据权利要求6所述的方法,其中,所述整体损失值表示为如下公式:
L′=αL1′+βL2′+γL3′
其中,L′表示所述整体损失值,L1′表示按照L1计算得到的损失值,L2′表示按照L2计算得到的损失值,L3′表示按照L3计算得到的损失值,α、β、γ分别表示与损失值L1′、L2′、L3′对应的权重值,
其中,所述权重值是基于与所述权重值对应的损失函数所作用的网络的参数量确定的,其中,所述第一损失函数所作用的网络包括所述姿态识别神经网络,所述第二损失函数所作用的网络包括所述姿态识别神经网络和所述解码网络。
8.根据权利要求1所述的方法,其中,所述多个第一卷积层包括3个第一卷积层,所述3个第一卷积层的卷积核尺寸分别为3×1×3、3×3×1、3×3×3,所述多个第二卷积层包括4个第二卷积层,所述4个第二卷积层的卷积核尺寸分别为9×3×3、18×3×3、36×3×3、72×3×3,并且其中,所述4个第二卷积层的步长被设置为等于2。
9.根据权利要求8所述的方法,其中,在训练所述姿态识别神经网络的参数的过程中包括利用解码网络对所述姿态特征向量进行处理,用于得到解码输出图像,所述解码输出图像与所述待识别图像的图像尺寸相同,其中,所述解码网络包括依次连接的第二全连接层、重构层以及多个反卷积层,
其中,所述重构层的参数为1×16×16,所述多个反卷积层包括3个反卷积层,所述3个反卷积层中的每个反卷积层的卷积核尺寸为3×3×3,并且其中,所述每个反卷积层的步长被设置为等于2,所述第一全连接层的参数为1×128,所述第二全连接层的参数为1×256。
10.根据权利要求1所述的方法,其中,所述获取待识别图像包括:
获取初始图像;
在所述初始图像中识别人体轮廓,并确定所述人体的最大外接矩形框;以及
基于所述最大外接矩形框在所述初始图像中截取图像作为所述待识别图像。
11.一种姿态识别设备,包括:
处理器;
存储器,其中,所述存储器中存储有计算机可读代码,所述计算机可读代码当由所述处理器运行时,执行如权利要求1-10中任一项所述的基于姿态识别神经网络的姿态识别方法。
12.一种计算机可读存储介质,其上存储有指令,所述指令在被处理器执行时,使得所述处理器执行如权利要求1-10中任一项所述的基于姿态识别神经网络的姿态识别方法。
CN202111010032.6A 2021-08-31 基于姿态识别神经网络的姿态识别方法、设备和介质 Active CN113705480B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111010032.6A CN113705480B (zh) 2021-08-31 基于姿态识别神经网络的姿态识别方法、设备和介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111010032.6A CN113705480B (zh) 2021-08-31 基于姿态识别神经网络的姿态识别方法、设备和介质

Publications (2)

Publication Number Publication Date
CN113705480A true CN113705480A (zh) 2021-11-26
CN113705480B CN113705480B (zh) 2024-08-02

Family

ID=

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117392761A (zh) * 2023-12-13 2024-01-12 深圳须弥云图空间科技有限公司 人体位姿识别方法、装置、电子设备及存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108491880A (zh) * 2018-03-23 2018-09-04 西安电子科技大学 基于神经网络的物体分类和位姿估计方法
CN110222668A (zh) * 2019-06-17 2019-09-10 苏州大学 基于生成对抗网络的多姿态面部表情识别方法
CN111652054A (zh) * 2020-04-21 2020-09-11 北京迈格威科技有限公司 关节点检测方法、姿态识别方法及装置
CN111753736A (zh) * 2020-06-24 2020-10-09 北京软通智慧城市科技有限公司 基于分组卷积的人体姿态识别方法、装置、设备和介质
WO2020228217A1 (zh) * 2019-05-13 2020-11-19 河北工业大学 移乘搬运护理机器人的人体姿态视觉识别方法、存储介质及电子装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108491880A (zh) * 2018-03-23 2018-09-04 西安电子科技大学 基于神经网络的物体分类和位姿估计方法
WO2020228217A1 (zh) * 2019-05-13 2020-11-19 河北工业大学 移乘搬运护理机器人的人体姿态视觉识别方法、存储介质及电子装置
CN110222668A (zh) * 2019-06-17 2019-09-10 苏州大学 基于生成对抗网络的多姿态面部表情识别方法
CN111652054A (zh) * 2020-04-21 2020-09-11 北京迈格威科技有限公司 关节点检测方法、姿态识别方法及装置
CN111753736A (zh) * 2020-06-24 2020-10-09 北京软通智慧城市科技有限公司 基于分组卷积的人体姿态识别方法、装置、设备和介质

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
吴春梅;胡军浩;尹江华;: "利用改进生成对抗网络进行人体姿态识别", 计算机工程与应用, no. 08 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117392761A (zh) * 2023-12-13 2024-01-12 深圳须弥云图空间科技有限公司 人体位姿识别方法、装置、电子设备及存储介质
CN117392761B (zh) * 2023-12-13 2024-04-16 深圳须弥云图空间科技有限公司 人体位姿识别方法、装置、电子设备及存储介质

Similar Documents

Publication Publication Date Title
Zhang et al. Unsupervised discovery of object landmarks as structural representations
CN108780519B (zh) 卷积神经网络的结构学习
CN109685819B (zh) 一种基于特征增强的三维医学图像分割方法
Ali et al. Boosted NNE collections for multicultural facial expression recognition
CN111241958A (zh) 一种基于残差-胶囊网络的视频图像鉴别方法
Dosovitskiy et al. Unsupervised feature learning by augmenting single images
US11093800B2 (en) Method and device for identifying object and computer readable storage medium
CN111160350A (zh) 人像分割方法、模型训练方法、装置、介质及电子设备
CN113780249B (zh) 表情识别模型的处理方法、装置、设备、介质和程序产品
CN113158815A (zh) 一种无监督行人重识别方法、系统及计算机可读介质
CN111768457A (zh) 图像数据压缩方法、装置、电子设备和存储介质
CN113011243A (zh) 基于胶囊网络的面部表情分析方法
CN117079098A (zh) 一种基于位置编码的空间小目标检测方法
CN114373224B (zh) 基于自监督学习的模糊3d骨架动作识别方法及装置
Piat et al. Image classification with quantum pre-training and auto-encoders
Kandeel et al. Facial expression recognition using a simplified convolutional neural network model
CN113723287B (zh) 基于双向循环神经网络的微表情识别方法、装置及介质
Zhou et al. Personalized and occupational-aware age progression by generative adversarial networks
EP3588441B1 (en) Imagification of multivariate data sequences
CN113221660B (zh) 一种基于特征融合的跨年龄人脸识别方法
Lin et al. The design of error-correcting output codes based deep forest for the micro-expression recognition
Fan et al. [Retracted] Accurate Recognition and Simulation of 3D Visual Image of Aerobics Movement
CN116311472A (zh) 基于多层次图卷积网络的微表情识别方法及装置
CN113705480B (zh) 基于姿态识别神经网络的姿态识别方法、设备和介质
CN113705480A (zh) 基于姿态识别神经网络的姿态识别方法、设备和介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant