CN110210426B - 基于注意力机制从单幅彩色图像进行手部姿态估计的方法 - Google Patents

基于注意力机制从单幅彩色图像进行手部姿态估计的方法 Download PDF

Info

Publication number
CN110210426B
CN110210426B CN201910489248.1A CN201910489248A CN110210426B CN 110210426 B CN110210426 B CN 110210426B CN 201910489248 A CN201910489248 A CN 201910489248A CN 110210426 B CN110210426 B CN 110210426B
Authority
CN
China
Prior art keywords
hand
image
attention mechanism
single color
joint
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910489248.1A
Other languages
English (en)
Other versions
CN110210426A (zh
Inventor
蒋杰
王翔汉
郭延明
高盈盈
康来
魏迎梅
雷军
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
National University of Defense Technology
Original Assignee
National University of Defense Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by National University of Defense Technology filed Critical National University of Defense Technology
Priority to CN201910489248.1A priority Critical patent/CN110210426B/zh
Publication of CN110210426A publication Critical patent/CN110210426A/zh
Application granted granted Critical
Publication of CN110210426B publication Critical patent/CN110210426B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/107Static hand or arm
    • G06V40/113Recognition of static hand signs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供一种基于注意力机制从单幅彩色图像进行手部姿态估计的方法,包括以下步骤:通过图像获取装置获取具有手部状态的单幅彩色图像,从单幅彩色图像中裁剪出手部区域图像;根据手部区域图像提取2D关节热图;级联2D关节热图和手部区域图像并且根据注意力机制得到图像获取装置坐标系下的3D手部关节点位置和图像获取装置的旋转角;根据3D手部关节点位置和旋转角进行手部状态估计。本发明将2D关节点和RGB图像的特征在通道层面中相融合。将彩色图像和2D关节点特征级联后重新规划权重,合理规划和利用各个部分特征。本发明还引入通道注意力机制提高了不同类型特征图融合的效果。通过融合通道注意力机制对手部姿态作出准确的估计。

Description

基于注意力机制从单幅彩色图像进行手部姿态估计的方法
技术领域
本发明属于一种手部姿态估计方法,具体是涉及到一种基于注意力机制从单幅彩色图像进行手部姿态估计的方法。
背景技术
手势估计在计算机科学中起着重要作用,目的是让电脑通过算法理解人类的手势。基于计算机视觉的手势估计使人们能够与机器更自然地进行通信,其优点是受环境影响较小,用户可以随时进行人机交互(Human-Computer Interaction,HCI),并且对用户约束较小,能够让计算机及时准确地了解人发出的指令,无需任何机械的辅助。手势在人机交互过程中有及时、生动、直观、灵活和形象的特点,能够无声地完成人机交互,成功打破了现实和虚拟之间的鸿沟。
随着计算机视觉的发展,手势估计不再依赖于传统的可穿戴设备,而是直接从图像进行识别。基于计算机视觉的手势估计主要基于三类:深度图像,多目视觉彩色图像和单幅彩色图像。Markus等人提出了一种完全基于卷积神经网络的先初步定位再优化的方法,能够经过多张有标签的深度图像训练后在单张深度图像上准确的定位出手部节点位置的方法HandDeep。Ayan等人提出了利用补全矩阵(Matrix Completion)的方法进行加速,能够不依赖GPU应用于大规模实时手势姿态估计。Wan等人提出了一种适用于密集像素方式,通过非参数均值平移变量来聚合局部估计,明确地强制估计的3D关节坐标与2D和3D局部估计一致。该方法提供了比先前的现有技术和各种基线更好的2D检测和3D回归之间的融合方案。Aisha等人提出一种在条件随机场(CRF)的辅助下进行的第一人称视角下和存在遮挡情况下进行手势分割的方法,该方法第一次提出了以自我为中心的视角下和有遮挡的情况下进行手的分割和检测,通过提高分割的准确度达到提高手势估计准确度的目的。但是该方法依然没有解决遮挡物体或者背景物体与手部颜色相似的问题。Seungryul Baek提出了一种利用CycleGAN的思想扩充数据集的方法,该方法通过训练数据集,能够主动生成骨骼节点数据,在CycleGAN训练之后,通过生成对抗网络还原成深度图像。在一定程度上解决了数据集中缺少部分视角的训练数据的问题,提出问题的方法较为巧妙,用了较为复杂的循环式关系,也造成了训练过程比较繁琐、网络复杂的问题。Wan等人提出了一种基于隐空间变换的深度图像与骨骼图像匹配的方法。该方法的精确度虽然一般,但是该方法能够做到在CPU上90FPS的速度。该方法将深度图像与骨骼图映射到隐空间中,将成对的深度图像和骨骼图像映射到隐空间中同一位置,通过反卷积从隐空间还原原始图像。因此,即使基于深度图像的姿态估计方法已经日趋成熟,但是深度采集设备对用户有较大的约束,对光照、抖动和距离更加敏感,并且成本更高。很多工作通过深度图像估计人的手部姿态,虽然取得了比较好的效果,但是在图像获取上不如彩色图像方便,影响了在实际方面的应用。由于缺少深度信息,利用彩色图像估计手部姿态起步较晚,尤其是利用单幅彩色图像的手部姿态估计。C.Zimmerman实现了基于深度学习的通过单幅彩色图像的三维手部姿态估计,在不依靠任何特殊设备的情况下,利用深度网络的能力,从数据中学习合理的先验,来解决模糊问题。提出了一种可行的从二维关节点导出三维关节点的网络框架。该方法包含三个深度网络:第一个网络进行手部分割以定位图像中的手,在第一个网络的输出中,第二个网络通过CPM的方法估计二维关节点热图,第三个网络实现了从二维关节点导出三维关节点的步骤。该方法提出正则坐标系,将手部姿势在正则坐标系下的位置看成在相机坐标系下的旋转,通过神经网络计算手在正则坐标系下的位置和旋转角来还原三维关节点位置。该方法作为第一个实现了用单幅彩色图片进行三维手部姿态估计。之后,Spur利用变分编码器将图像和关节信息映射到隐空间,通过最小化对应图像和关节在隐空间的距离来提高准确度。Dibra利用弱监督学习的方法实现手势估计,这种方法不直接通过3D手部姿态进行监督,而是利用GAN将估计的3D手部姿态生成深度图像,利用深度图像进行监督学习。Muller通过GAN补全被遮挡的手部区域,能够在一定程度上解决手部区域遮挡问题。基于彩色图像的手部姿态能够使使用者脱离深度设备的束缚,更自如地通过无处不在的普通摄像头进行人机交互。张等人通过多目视觉进行手部进行追踪和姿态估计,虽然实现了利用彩色图像进行手部姿态估计,但是由于多目视觉的要求,其对用户也有一定程度的约束。基于多目视觉的手势估计实现了基于彩色图像的手势估计,但是仍然面临对用户约束较大的问题。目前基于单幅彩色图像的姿态估计方法大多是在二维层面上进行的关节点检测。虽然有些人体姿态估计的方法能够回归出三维姿态,但是由于手部有比人体更加严重的自遮挡问题,并且人体是对称的,而每个手内部是不对称的,使得手部姿态估计的方法有别于人体姿态估计的方法。
发明内容
本发明的目的在于提供一种基于注意力机制从单幅彩色图像进行手部姿态估计的方法,以解决现有的手部状态估计方法中存在技术问题。
本发明的内容包括提供一种基于注意力机制从单幅彩色图像进行手部姿态估计的方法,包括以下步骤:
通过图像获取装置获取具有手部状态的单幅彩色图像,从单幅彩色图像中裁剪出手部区域图像;
根据手部区域图像提取2D关节热图;
级联2D关节热图和手部区域图像并且根据注意力机制得到图像获取装置坐标系下的3D手部关节点位置和图像获取装置的旋转角;
根据相机坐标系下的3D手部关节点位置和旋转角手部姿态估计。
优选地,从单幅彩色图像中裁剪出手部区域图像的方法为采用HandSegNet进行裁剪。
优选地,利用PoseNet从手部区域图像提取2D关节热图。
优选地,级联操作包括:
F1j=Imask*C1j
F2j=pJ*C2j
Figure BDA0002085654960000031
其中,F1j和F2j是卷积操作输出的结果,*表示C1j和C2j对图像进行的卷积操作,
Figure BDA0002085654960000032
表示对F1j和F2j进行级联操作,Imask为手部区域图像,pJ为2D关节热图,C1j和C2j为四个并行的卷积操作,j=1,2。
优选地,卷积操作均包含6个卷积层和ReLU线性激活函数。但不进行参数共享。
优选地,注意力机制包括:
将4×4×256的Fk挤压成4×4×16来计算ReLU线性函数激活的描述符Lk,其中Lk的第i个统计量的计算方法为:
Figure BDA0002085654960000033
对Lk进行激励操作,使其维度增加,其公式为:
Rk=CHe(Lk,U)=σ(g(Lk,U))=σ(U2δ(U1Lk))
得到注意力机制的输出Ok
Ok=Fk·Rk
其中,δ表示ReLU线性激活函数,
Figure BDA0002085654960000034
其中,i∈[1,256],h为全连接层U1的维数,U1、U2代表全连接层。fki为Fk的第i个通道的特征图,CHs表示挤压操作,挤压后的特征图Lk传入全连接层U1中,将其维数限制为h,通过激励操作CHe还原维度,σ为sigmoid函数。
优选地,得到图像获取装置坐标系下的3D手部关节点位置和图像获取装置的旋转角遵循:
Wcamera=O1*FC1
R=O2*FC2
优选地,根据3D手部关节点位置和旋转角预测手部状态遵循:
Wworld=WcameraR。
本发明的有益效果是:
本发明将2D关节点和RGB图像的特征在通道层面中相融合。将彩色图像和2D关节点特征级联后重新规划权重,合理规划和利用各个部分特征。本发明还引入通道注意力机制提高了不同类型特征图融合的效果。通过融合通道注意力机制对手部姿态作出准确的估计。
附图说明
附图1为本发明基于注意力机制从单幅彩色图像进行手部姿态估计的方法所需实现的目的示意图;
图2是本发明的融合通道注意力机制结构框架图;
图3是Zimmermann在ICCV会议中提出的通过手部图像进行手势估计的网络结构图;
图4是本发明基于注意力机制从单幅彩色图像进行手部估计的网络结构图;
图5是本发明优选实施例中在RHD数据集上的2D关节点定位AUC曲线图;
图6是本发明优选实施例中RHD数据集从GT关节热图和GT分割手部图像估计3D手势姿态示意图;
图7是本发明优选实施例中在STB上从GT关节点和从GT GRB图像估计3D手部姿态AUC曲线图;
图8是本发明优选实施例中RHD数据集上从GT分割和RGB图像估计3D手部姿态AUC曲线图。
具体实施方式
实施例1:
如附图1所示,本发明的任务为输入一张包含人手部的图像,通过端到端的神经网络,得到21个手部节点3D姿态从而估计手部姿态。本实施例中用J表示不同的手部关节点,手部有21个关节点,令J={1,21}。W={wJ=(x,y,z),i.e.,J∈[1,21]}表示手部关节点的3D坐标。输入的RGB图像为I∈Rw×h×3,分割好的手部图像为
Figure BDA0002085654960000041
划分好的手部图像是一个略比手部区域大而比输入图像小的包含手部的图像。R=(Rx,Ry,Rz)代表相机坐标系相对世界坐标系的旋转角。(u,v)是每个手部关节点的2D位置,我们在2D关节的上加入高斯噪声,得到含高斯噪声的热图,每个关节点对应一张热图,则有21张热图P=pJ(u,v),i.e.,J∈[1,21]。利用高斯热图能够将定位问题转化为类似分割问题,更适合神经网络完成任务。附图2展示了我们的方法的流程,整个流程分为三步,先将整幅包含手部的RGB图像(a)通过HandSegnet裁剪出手部区域图像(b),再根据手部区域图像估计关节热图(c),最后在PosePrior里利用裁剪出的手部区域图像和关节热图估计3D坐标(d)。
Zimmermann提出的方法整个任务被分为三个阶段,首先,HandSegNet从原始图像
Figure BDA0002085654960000042
中分割出包含手部区域的图像Imask。之后利用一个类似于CPM的方法PoseNet在Imask上定位2D手部关节点,得到关节点热图pJ(u,v)。最后,通过PosePrior网络估计各个关节点的3D坐标。附图3展示了Zimmermann提出的方法的网络结构,C代表六个卷积操作,F和O表示数据,FC表示全连接层,整个网络由预测相机坐标系下的手部姿态的camera-network和预测旋转角的rotation-network组成,两个网络的结构相同,只是输出的维度不同。3D坐标W被分成世界坐标系下的坐标Wworld和相机坐标系下的坐标Wcamera。相机的旋转角为R=(Rx,Ry,Rz),两种坐标系的转换:
Wworld=WcameraR。
在Zimmermann提出的方法中,RGB图像中隐含的空间信息被忽略了,这对手势估计的准确度有很大影响。RGB图像包含一些关节点热图中没有的纹理特征和隐含的空间信息。纹理特征由周围空间和像素的灰度分布表示,它具有旋转不变性和强大的抗噪声能力,能够在包含多个像素的区域中进行统计计算,而不是基于单个像素的特征。在模式匹配中,此区域特征具有更大的优势,不会由于局部偏差而不能成功匹配。另外,局部纹理信息和全局纹理信息在RGB图像中被不同程度的表达。因此,当与关节点热图共同估计3D手部姿态的时候,来自RGB图像的补充信息能够提供很强的指导作用。
参见附图4,本实施例首先融合手部区域图像和2D关节热图,以便在CFAM(融合通道注意力机制,Channel Fusion Attention Mechanism)中能充分利用RGB图像中包含的隐含空间信息。在网络的前段,有四个并行的卷积操作(Cij,i,j=1,2),这些卷积操作结构相同,都包含6个卷积层和ReLU线性激活函数。但是不进行参数共享。将手部区域图像Imask作为C1j的输入,将关节热图pJ作为C2j的输入。将数据输入进C之后,得到对应的数据F。C11的输出F11和C21的输出F21进行级联得到F1来估计相机坐标系下的3D手部关节点位置,C12的输出F12和C22的输出F22进行级联得到F2来估计相机的旋转角。该过程如下式所示:
F1j=Imask*C1j
F2j=pJ*C2j
Figure BDA0002085654960000051
Fij是卷积操作输出的结果,*表示Cij对图像进行的卷积操作.
Figure BDA0002085654960000052
表示对F1j和F2j进行级联操作。该方法最大限度地利用了Imask中隐含的空间信息和纹理信息,在3D手势估计的过程中解决了上下文不足的问题。网络获得更多的空间和上下文信息。
在全连接层处理两类特征图之前,加入注意力机制。注意力机制被广泛地应用于计算机视觉的任务中,例如图像分类、图像分割和目标检测。在多个计算机视觉的任务中,注意力机制被证明是有效的。本实施例在卷积层后加入通道注意力模块。在模型中,C输出的特征图维度是4×4×256。首先将特征图Fk输入到挤压模块。在4×4的空间维度上进行全局平均池化来描述每个通道的特征。通过将空间维度4×4收缩成Fk来计算统计量Lk,其中Lk的第i(i∈[1,256])个统计量的计算方法为:
Figure BDA0002085654960000061
这种方法能够让通道层面的特征受全局层面影响,不同的全局信息都能互相利用。之后进行激励操作,其公式为:
Rk=CHe(Lk,U)=σ(g(Lk,U))=σ(U2δ(U1Lk))。
其中δ表示ReLU激活函数,
Figure BDA0002085654960000062
为了限制模型的复杂度和提高泛化效果,我们首先将由ReLU激活函数的描述符Lk传入全连接层U1中,将其维数限制为h。然后为了还原维数,用Sigmoid激活函数激活全连接层U2。在扩展操作后,得到用于描述每个特征图Fk的权重Rk。最后,从C获得的特征图Fk通过通道层面的乘法(用·表示),Fk和Rk相乘得到通道注意力模块的输出Ok
Ok=Fk·Rk
本实施例的CFAM模块由Front-end和Middle-end构成。
通过上面的模块,网络能够对不同的特征给予相应的权重,学习使用全局信息对特征进行重新校准,能够选择性地强调有用的特征并抑制无用的特征。这是一种类似于门控制的机制,但是把门的控制改为权重控制,通过权重计算的方式对信道关系进行建模。通道注意力模块输出的特征图Ok与判断左右手的信息相连接,在两个结构相同的全连接层中逐步降维。然后将这个平行的网络流程送到最后的全连接层中,分别估计相机的坐标Wcamera和旋转角R,最后根据这两个参数计算世界坐标系下的坐标Wworld。过程如下公式所示,其中FCk代表全连接操作:
Wcamera=O1*FC1
R=O2*FC2
最后通过Wworld=WcameraR实现手部状态的估计。
实施例2:
本实施例通过实验验证CFAM,以TensorFlow为基础在1080ti上运行,并将训练的批量大小设置为8。在训练过程中,当loss值多次不变小的时候停止训练并采用Adam训练策略。本实施例将学习率设置为(1e-5,1e-6,1e-7),学习率在30000步和60000步后变化。本实施例在关节热图检测和手势估计方面进行改进和测试。在表格中,有些对wrist预测的误差为0,是因为保留了两位小数,而这些误差小于0.01,被四舍五入为0。这些误差为0是因为对wrist的预测较为准确,误差小于0.01。
本实施例基于有标签的单张RGB图像。常用的基于深度图像的手势估计数据集MSRA和NYU不适用本实施例。因此,本实施例选择了两个公开数据集:STB(Stereo handTracking Benchmar)数据集和RHD(Rendered hand dataset)数据集,每个数据集都有包含人手部的RGB图像和对应的3D笛卡尔坐标。在每个数据集中,要估计的手部关节点数为21,包括每个手指上的关节点和掌心,其中每个手指有4个关节点。每个数据集的每个样本都包含了样本中包含RGB图像、分割好的手部区域图像、相机的旋转角和每个关节点的2D、3Dground-truth笛卡尔坐标。RHD数据集是由20个不同的人做39个不同的动作的生成数据集,训练集有41258个样本,测试集有2728个样本,所有的图像大小均为320×320。STB数据集是一个在真实世界中采集的数据集,由两个摄像机从两个不同的方向进行采集,在六个不同的背景下进行采集,一共有30000张训练图片和6000张测试图像,采集到的图像大小为640×480。
本实施例将误差(Error)和AUC(area under the curve)作为实验结果的评价指标。误差的计算方法为:
EJ=|gtJ-preJ|。
其中gtJ是关节点J的ground-truth坐标值,preJ是关节点J的估计坐标,误差分为误差均值(Mean Error)和误差中值(Media Error)。AUC值的计算方法基于PCK(percentageof correct keypoints):
AUCJ=∫PCKJ
为了计算平局误差和平均AUC值,本实施例将21个关节点的结果进行平均。为了方便表示结果,用wrist表示手掌,Thumb,Index,Middle,Ring和Little表示五个手指,使用GT代表ground-truth,即数据集中的标签。
3D手势识别的准确度很大程度上取决于2D关节点定位,如果能提高关节热图估计的准确度,能够有效提高3D手势识别的准确度。本实施例通过改进CPM方法来提高定位准确度。数据集中提供了原始的RGB图像和分割好手部区域的RGB图像。在训练过程中,将原始RGB图像缩放成240×320输入HandSegNet中分割手部区域,将分割好的RGB图像缩放成256×256来定位手部关节点。由于通道注意力机制能够获得更好的特征图,本实施例在CPM方法中加入通道注意力机制以提高关节点定位的准确度。在实验结果中,我们用CPMAtt代表在CPM中加入通道注意力机制的方法。CPMAtt_gt和CPM_gt表示在分割好的手部区域图像上测试,CPMAtt和CPM表示在原始图像中进行测试。通过加入通道注意力机制,CPMAtt效果比CPM更好,甚至在HandSegNet分割的图片中,AUC值比CPM_gt更高。无论是CPMAtt_gt还是CPM_gt,效果都有提升,从下表1和表2以及附图5中可以看出AUC值提升了近9个百分点,平均误差降低了3个像素。
表1在RHD数据集上的2D关节点定位的结果均值
Figure BDA0002085654960000081
表2在RHD数据集上2D关节定位结果
Figure BDA0002085654960000082
为了更好地再之前的基础上进行3D手部姿态估计,我们提出了CFAM模块,CFAM模块中包括加入为了注意力机制和融合RGB图像和2D热图信息。为了证明构架设计的每一步都是有效的,下面采用三种不同的策略进行比较:
策略1:加入通道注意力机制;
策略2:加入RGB图像与2D关节热图相融合;
策略3:完整的CFAM模块。
表3 RHD数据集中从GT关节热图和GT分割的RGB图像估计3D手势姿态
Figure BDA0002085654960000083
表4 RHD数据集中对每个手指从GT关节热图和GT分割的RGB图像3D姿态估计
Figure BDA0002085654960000091
表3和附图6展示了在RHD数据集上的效果,表4显示了在每个手指上的误差和AUC值。注意力机制能挺高特征提取效果,因此策略1在Zimmermann提出的方法的基础上AUC值提升了1%。在策略2中,通过加入RGB图像辅助提取特征,效果有了更好的提高。CFAM(策略3)很好地联合了RGB图像和2D关节热图,在策略2的基础上将误差减小了多于1mm,在原来的基础上减小了多于4mm。策略3在策略2和策略1在Zimmermann提出的方法上都有提升,提升的主要原因都是加入了通道注意力机制,但是策略3的提升比策略1的提升幅度更大,并且是在一个更好的结果上提升的准确度,当准确度较高时提升准确度更加困难,说明CFAM中的注意力机制是有效的,其起到的作用不仅是通道注意力,还能更好地融合RGB图像和2D热图的特征,才使结果有了比较大的提升。通过不同方法的AUC曲线,策略3(CFAM)效果最好,因此接下来在CFAM的方法上进行测试。
表5 STB数据集从GT关节点估计3D手部姿态
Figure BDA0002085654960000092
表6 STB数据集从GT关节热图估计每个手指3D姿态
Figure BDA0002085654960000093
Figure BDA0002085654960000101
表5和表6展示了CFAM方法在STB数据集上的试验结果。CFAM方法使在误差和AUC上优于Zimmermann提出的方法,并且在大部分手部关节点上,CFAM方法的准确度比Zimmermann提出的方法好。
在2D关节热图和3D手部姿态估计上,结果都比原来的好。为了证明在整个流程的可行性,从单张RGB图像估计3D手部姿态。分别从用HandSegNet分割的原始手部图像和GT分割的图像上进行试验。RGB代表HandSegNet分割的图像,GT RGB代表GT上分割的图像。用Ours代表用CPMAtt定位2D关节点并用CFAM估计3D手部姿态的方法。
表7从GT RGB图像估计3D手部姿态
Figure BDA0002085654960000102
表8从GT RGB图像估计3D手部姿态平均误差
Figure BDA0002085654960000103
表9从GT RGB图像估计3D手部姿态中值误差
Figure BDA0002085654960000104
Figure BDA0002085654960000111
表10从GT RGB图像估计3D手部姿态AUC值(0-50mm)
Figure BDA0002085654960000112
本实施例训练过程中用的是GT分割的RGB图像和GT关节热图,而最终的任务是从RGB图像到3D手部姿态。由于图像定位的关节点有一定误差,从误差的关节点进行手势估计的过程中存在误差加剧的可能。如表7-表10以及附图7所示,在GT分割的图像上进行试验,从整体上来比Zimmermann提出的方法准确度更高,在各项平均值上我们的方法大多优于Zimmermann提出的方法。大部分关节点上,取得了更高的AUC值和较低的平均误差。证明了本发明方法能有效用于GT分割的图像。图7(a)为在STB上从GT关节点估计3D手部姿态AUC曲线,图7(b)为在STB上从GT GRB图像估计3D手部姿态AUC曲线。
表11在RHD数据集上从RGB图像估计手部姿态
Figure BDA0002085654960000113
表12在RHD数据集上从RGB图像估计手部姿态的平均误差
Figure BDA0002085654960000114
用HandSegNet分割的图像也会存在误差,因此在HandSegNet分割的图像上进行试验可以证明本发明方法对误差不敏感。如表11和表12以及附图8所示,在HandSegNet分割的RGB图像上,本发明方法的效果仍优于Zimmermann提出的方法,证明本发明的方法可以从包含手部的图像进行端到端的估计,而不一定需要分割好的图像。很多手部姿态估计方法基于分割好的手部图像,说明其对分割过程中的误差较为敏感,本发明的方法能够在存在分割误差的情况下较为准确的估计手部姿态,能够更好地用于追踪和未分割的手部图像。附图8(a)为在RHD数据集上从GT分割估计3D手部姿态AUC曲线(20-50mm),图8(b)为在RHD数据集上从RGB图像估计3D手部姿态AUC曲线(20-50mm)。
为了证明本发明方法的先进性,本实施例还与其他方法进行了比较,由于大部分方法都是在STB数据集上进行的,并且都是在分割好的手部图像上进行,因此,本实施例只在STB数据集的分割好的图像上进行了比较。表13显示,在所有方法中,本发明方法获得了最高的AUC值。CVPR2018 workshop的方法通过将骨骼节点还原成深度图像进行弱监督学习,能够通过弱监督学习学到部分隐含的深度信息,但是其学习到的深度信息仍然少于原RGB图像中隐含的深度信息。Zimmermann提出的方法,WACV和CVPR的方法只用到2D信息还原3D位置,遗失了部分信息。CVPR2018的方法通过GAN将被遮挡的手部区域还原出来,但是由于GAN还原的图片本身存在一定的误差,中间误差传递的过程中导致了误差的扩大化。本实施例利用了本发明提出的CFAM,兼顾了手部2D热图和RGB图像中包含的信息,得到的AUC值最优。
表13在STB数据集上比较各方法的AUC
Figure BDA0002085654960000121
上述表格中的Panteleris为其在WACV发表的论文中的方法。Spur为其在CVPR中发表的论文中提出的方法。Zimmermann均为Zimmermann在ICCV会议中发表的论文里提出的方法。Dibra为其在CVPR workshop中发表的论文提出的方法。为Mueller为其在2018年在CVPR会议中发表的论文提出的方法。
本实施例附图中RGB imgage为RGB图片,3D keypoint coordinate为3D手部关节点坐标,CNN为卷积神经网络,Cropped hand为裁剪出的手部姿态图片,2D score map为2D关节热图,threshold为阈值,pix为图片像素单位。
以上所述仅为本发明的优选实施例而已,并不用于限制本发明,对于本领域的技术人员来说,本发明可以有各种更改和变化。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (6)

1.基于注意力机制从单幅彩色图像进行手部姿态估计的方法,其特征是,包括以下步骤:
通过图像获取装置获取具有手部状态的单幅彩色图像,从所述单幅彩色图像中裁剪出手部区域图像;
根据所述手部区域图像提取2D关节热图;
级联所述2D关节热图和所述手部区域图像并且根据注意力机制得到所述图像获取装置坐标系下的3D手部关节点位置和所述图像获取装置的旋转角,所述级联操作包括:
Flj=Imask*C1j
F2j=pJ*C2j
Figure FDA0003015167410000011
其中,F1j和F2j是卷积操作输出的结果,*表示C1j和C2j对图像进行的卷积操作,
Figure FDA0003015167410000012
表示对F1j和F2j进行级联操作,Imask为所述手部区域图像,pJ为所述2D关节热图,C1j和C2j为四个并行的卷积操作,k=j=1,2;所述注意力机制包括:将4×4×256的Fk挤压成4×4×16来计算ReLU线性函数激活的描述符Lk,其中Lk的第i个统计量的计算方法为:
Figure FDA0003015167410000013
对Lk进行激励操作,使其维度增加,其公式为:
Rk=CHe(Lk,U)=σ(U2δ(U1Lk))
得到注意力机制的输出Ok
Ok=Fk·Rk
其中,δ表示ReLU线性激活函数,
Figure FDA0003015167410000014
其中,i∈[1,256],h为全连接层U1的维数,U1、U2代表全连接层;fki为Fk的第i个通道的特征图,CHs表示挤压操作,挤压后的特征图Lk传入全连接层U1中,将其维数限制为h,通过激励操作CHe还原维度,σ为sigmoid函数;
根据所述3D手部关节点位置和所述旋转角进行手部姿态估计。
2.如权利要求1所述的基于注意力机制从单幅彩色图像进行手部姿态估计的方法,其特征是,从所述单幅彩色图像中裁剪出手部区域图像的方法为采用HandSegNet进行裁剪。
3.如权利要求1所述的基于注意力机制从单幅彩色图像进行手部姿态估计的方法,其特征是,利用PoseNet从所述手部区域图像提取2D关节热图。
4.如权利要求1所述的基于注意力机制从单幅彩色图像进行手部姿态估计的方法,其特征是,所述卷积操作均包含6个卷积层和ReLU线性激活函数,但不进行参数共享。
5.如权利要求4所述的基于注意力机制从单幅彩色图像进行手部姿态估计的方法,其特征是,得到所述图像获取装置坐标系下的3D手部关节点位置和所述图像获取装置的旋转角遵循:
Wcamera=O1*FC1
R=O2*FC2
其中,FC1和FC2分别代表不同全连接层的全连接操作,R为相机的旋转角。
6.如权利要求4所述的基于注意力机制从单幅彩色图像进行手部姿态估计的方法,其特征是,根据所述3D手部关节点位置和所述旋转角预测手部状态遵循:
Wworld=WcameraR
其中,Wworld为3D坐标W在世界坐标系下的坐标,Wcamera为3D坐标W在相机坐标系下的坐标,R为相机的旋转角。
CN201910489248.1A 2019-06-05 2019-06-05 基于注意力机制从单幅彩色图像进行手部姿态估计的方法 Active CN110210426B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910489248.1A CN110210426B (zh) 2019-06-05 2019-06-05 基于注意力机制从单幅彩色图像进行手部姿态估计的方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910489248.1A CN110210426B (zh) 2019-06-05 2019-06-05 基于注意力机制从单幅彩色图像进行手部姿态估计的方法

Publications (2)

Publication Number Publication Date
CN110210426A CN110210426A (zh) 2019-09-06
CN110210426B true CN110210426B (zh) 2021-06-08

Family

ID=67791241

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910489248.1A Active CN110210426B (zh) 2019-06-05 2019-06-05 基于注意力机制从单幅彩色图像进行手部姿态估计的方法

Country Status (1)

Country Link
CN (1) CN110210426B (zh)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110826502A (zh) * 2019-11-08 2020-02-21 北京邮电大学 基于伪图像序列演化的三维姿态预测方法
US11209263B2 (en) * 2019-12-12 2021-12-28 Tencent America LLC 3D hand pose estimation based on depth-image guided adversarial network 1
CN111191627B (zh) * 2020-01-06 2022-02-11 浙江工业大学 一种多视点下提高动态手势动作识别准确率的方法
CN113706437B (zh) * 2020-05-21 2024-03-15 国网智能科技股份有限公司 一种输电线路细粒度螺栓缺陷诊断方法及系统
CN111968150B (zh) * 2020-08-19 2022-09-02 中国科学技术大学 一种基于全卷积神经网络的弱监督视频目标分割方法
CN112149645A (zh) * 2020-11-10 2020-12-29 西北工业大学 基于生成对抗学习和图神经网络的人体姿势关键点识别方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105787439A (zh) * 2016-02-04 2016-07-20 广州新节奏智能科技有限公司 一种基于卷积神经网络的深度图像人体关节定位方法
CN107066935A (zh) * 2017-01-25 2017-08-18 网易(杭州)网络有限公司 基于深度学习的手部姿态估计方法及装置
CN107609383A (zh) * 2017-10-26 2018-01-19 深圳奥比中光科技有限公司 3d人脸身份认证方法与装置
WO2018033154A1 (zh) * 2016-08-19 2018-02-22 北京市商汤科技开发有限公司 手势控制方法、装置和电子设备
CN108197580A (zh) * 2018-01-09 2018-06-22 吉林大学 一种基于3d卷积神经网络的手势识别方法
CN108537135A (zh) * 2018-03-16 2018-09-14 北京市商汤科技开发有限公司 对象识别及对象识别网络的训练方法和装置、电子设备

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6801655B2 (en) * 2001-05-10 2004-10-05 The United States Of America As Represented By The Secretary Of The Navy Spatial image processor
US9767373B2 (en) * 2014-09-05 2017-09-19 Ford Global Technologies, Llc Head-mounted display head pose and activity estimation
CN106055091B (zh) * 2016-05-16 2019-08-06 电子科技大学 一种基于深度信息和校正方式的手部姿态估计方法
CN108332775A (zh) * 2017-12-26 2018-07-27 中国人民解放军国防科技大学 提高星敏感器姿态测量精度的方法
CN109145867B (zh) * 2018-09-07 2021-08-10 北京旷视科技有限公司 人体姿态估计方法、装置、系统、电子设备、存储介质

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105787439A (zh) * 2016-02-04 2016-07-20 广州新节奏智能科技有限公司 一种基于卷积神经网络的深度图像人体关节定位方法
WO2018033154A1 (zh) * 2016-08-19 2018-02-22 北京市商汤科技开发有限公司 手势控制方法、装置和电子设备
CN107066935A (zh) * 2017-01-25 2017-08-18 网易(杭州)网络有限公司 基于深度学习的手部姿态估计方法及装置
CN107609383A (zh) * 2017-10-26 2018-01-19 深圳奥比中光科技有限公司 3d人脸身份认证方法与装置
CN108197580A (zh) * 2018-01-09 2018-06-22 吉林大学 一种基于3d卷积神经网络的手势识别方法
CN108537135A (zh) * 2018-03-16 2018-09-14 北京市商汤科技开发有限公司 对象识别及对象识别网络的训练方法和装置、电子设备

Non-Patent Citations (6)

* Cited by examiner, † Cited by third party
Title
Hand Pose Estimation with Attention-and-Sequence Network;Tianping Hu 等;《19th Pacific-Rim Conference on Multimedia》;20180922;556-566 *
Learning to Estimate 3D Hand Pose from Single RGB Images;Christian Zimmermann, Thomas Brox;《 2017 IEEE International Conference on Computer Vision (ICCV)》;20171029;4903-4911 *
SCA-CNN: Spatial and Channel-Wise Attention in Convolutional Networks for Image Captioning;Long Chen 等;《arXiv》;20161117;1-10 *
基于改进概率神经网络的手势动作识别;尚小晶 等;《吉林大学学报(信息科学版)》;20100930;第28卷(第5期);459-466 *
基于级联卷积神经网络的机器人平面抓取位姿快速检测;夏晶 等;《机器人》;20181130;第40卷(第6期);784-802 *
相似视频片段的检测与定位方法研究;郭延明 等;《计算机科学》;20141031;第41卷(第10期);53-56、71 *

Also Published As

Publication number Publication date
CN110210426A (zh) 2019-09-06

Similar Documents

Publication Publication Date Title
CN110210426B (zh) 基于注意力机制从单幅彩色图像进行手部姿态估计的方法
Adeli et al. Socially and contextually aware human motion and pose forecasting
Chen et al. Pose guided structured region ensemble network for cascaded hand pose estimation
Oberweger et al. Generalized feedback loop for joint hand-object pose estimation
Wang et al. Hmor: Hierarchical multi-person ordinal relations for monocular multi-person 3d pose estimation
CN109948475B (zh) 一种基于骨架特征和深度学习的人体动作识别方法
Zhou et al. Hbe: Hand branch ensemble network for real-time 3d hand pose estimation
CN110569817B (zh) 基于视觉实现手势识别的系统和方法
Chen et al. Learning a deep network with spherical part model for 3D hand pose estimation
CN111680550B (zh) 情感信息识别方法、装置、存储介质及计算机设备
CN111444488A (zh) 一种基于动态手势的身份认证方法
Weiyao et al. Human action recognition using multilevel depth motion maps
CN110555383A (zh) 一种基于卷积神经网络和3d估计的手势识别方法
CN113269089A (zh) 基于深度学习的实时手势识别方法及系统
Wu et al. Context-aware deep spatiotemporal network for hand pose estimation from depth images
Amrutha et al. Human Body Pose Estimation and Applications
Kourbane et al. A graph-based approach for absolute 3D hand pose estimation using a single RGB image
CN112199994B (zh) 一种实时检测rgb视频中的3d手与未知物体交互的方法和装置
CN116909393A (zh) 基于手势识别的虚拟现实输入系统
Song et al. Joints-centered spatial-temporal features fused skeleton convolution network for action recognition
CN115713808A (zh) 一种基于深度学习的手势识别系统
Tai et al. HSFE network and fusion model based dynamic hand gesture recognition
Yu et al. Multi-activity 3D human motion recognition and tracking in composite motion model with synthesized transition bridges
Hrúz et al. Hand pose estimation in the task of egocentric actions
Song et al. 3D hand pose estimation via graph-based reasoning

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant