CN109949368A - 一种基于图像检索的人体三维姿态估计方法 - Google Patents
一种基于图像检索的人体三维姿态估计方法 Download PDFInfo
- Publication number
- CN109949368A CN109949368A CN201910190964.XA CN201910190964A CN109949368A CN 109949368 A CN109949368 A CN 109949368A CN 201910190964 A CN201910190964 A CN 201910190964A CN 109949368 A CN109949368 A CN 109949368A
- Authority
- CN
- China
- Prior art keywords
- human body
- dimensional
- attitude
- image
- iamge description
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Image Analysis (AREA)
Abstract
本发明公开了一种基于图像检索的人体三维姿态估计方法。该方法包括步骤:构建并训练模型、使用训练模型估计、生成估计图像描述子、构建人体姿态字典集、查询人体姿态字典集,通过以上步骤能够对待识别图像中的人体姿态特征进行提取并生成图像描述子,然后在构建的人体姿态字典集中通过图像描述子比较进行快速查询,得到最匹配的人体三维姿态作为待检测人体二维姿态对应的人体三维状态输出。本发明方法克服了现有技术在室外和背景较为复杂的环境中难以识别人体姿态的问题,同时可以估计不同视角下图像中目标人物的人体三维姿态,具有鲁棒性强和高精度的优点。
Description
技术领域
本发明涉及计算机图像处理技术领域,尤其涉及一种基于图像检索的人体三维姿态估计方法。
背景技术
人体姿态估计是计算机视觉领域中的一个重要研究方向,在人体活动分析、动作识别、行为识别和人机交互等领域中的关键问题,也是当前的研究热点。基于视觉的人体姿态估计主要就是从图像中检测出人体各个部位或关节位置及其方向和尺度信息。人体姿态估计从输入不同主要分为基于RGB-D图和基于RGB图两种,由于深度相机在日常使用中存在诸多不便,基于单目视觉RGB图的研究具有更广泛的应用前景。但是目前基于深度学习的方法依然无法解决需要大量样本数据的问题,数据采集依然是困难之一。此外,受限于数据的采集,端对端方法在实际应用中依然受到诸多因素的限制,其中,如何在实际环境中应用便是限制因素之一。
发明内容
本发明主要解决的技术问题是提供一种基于图像检索的人体三维姿态估计方法,解决现有技术中难以具有复杂背景二维图像中提取人体二维姿态,并对应快速输出人体三维姿态的问题。
为解决上述技术问题,本发明采用的一个技术方案是提供一种基于图像检索的人体三维姿态估计方法,包括以下步骤:
构建并训练模型,构建卷积神经网络模型,将训练图像和训练标签输入到所述卷积神经网络模型并进行训练,使得所述卷积神经网络模型能够从输入的所述训练图像中提取出人体二维姿态训练数据,并且所述人体二维姿态训练数据与对应的训练标签相一致;使用训练模型估计,将待识别图像输入到经前一步骤训练完成的所述卷积神经网络模型中进行人体姿态估计,得到对应的人体二维姿态估计数据;生成估计图像描述子,将所述人体二维姿态估计数据按照图像描述子转换方法转换为对应的估计图像描述子;构建人体姿态字典集,将人体三维姿态字典数据通过多视角投影方法得到对应的人体二维姿态字典数据,再利用所述图像描述子转换方法将所述人体二维姿态字典数据转换为对应的字典图像描述子,从而构建包含所述人体三维姿态字典数据与所述字典图像描述子相映射的人体姿态字典集;查询人体姿态字典集,将所述估计图像描述子输入到所述人体姿态字典集,通过图像描述子相似比较法从中查询与所述估计图像描述子最相似的所述字典图像描述子,再将这个最相似的所述字典图像描述子对应映射的所述人体三维姿态字典数据,作为所述待识别图像中对应的人体三维姿态输出。
在本发明基于图像检索的人体三维姿态估计方法另一实施例中,所述卷积神经网络模型包括深卷积度神经网络Open pose模型,构建训练图像中人体的15个关键节点分别为头、颈、左肩、右肩、左肘、右肘、左手、右手、左胯、右胯、左膝、右膝、左脚踝、右脚踝以及盆骨,并对所述关键节点进行标注得到训练标签,所述训练图像和训练标签输入应用到所述深卷积度神经网络Open pose模型中,并对所述深卷积度神经网络Open pose模型进行训练,提取得到人体二维姿态训练数据。
在本发明基于图像检索的人体三维姿态估计方法另一实施例中,所述深卷积度神经网络Open pose模型包括由多个3×3卷积核和池化层串接而成的第一级网络,以及在所述第一级网络之后是依次串联的第二级网络至第七级网络,所述第二级网络包括两个分支,均接收来自所述第一级网络提取输出的图像特征,其中第一分支用于预测肢体部分亲和域,第二分支用于对人体关键关节位置进行初步的预测;第三级网络至第七级网络的输入包括来自所述第一级网络提取输出的图像特征,以及与前一级网络输出的高维特征的和。
在本发明基于图像检索的人体三维姿态估计方法另一实施例中,所述图像描述子转换方法包括:首先,将一个人体二维姿态图像I(ρ,θ)的根节点固定在一张空表图像的正中心,并对所述人体二维姿态图像I(ρ,θ)进行二值化,其中,I(ρ,θ)=1表示在(ρ,θ)位置有二维姿态的肢体,I(ρ,θ)=0表示在(ρ,θ)位置没有肢体存在;然后,在整幅人体二维姿态图像上,采用了角径向分割法来建立虚拟网格,整个人体二维姿态图像被划分为M×N个区域,其中M=R/ρ是沿半径方向的划分,R是图像最外围圆的半径,N=2π/θ是垂直半径的划分,N是同心圆的数量,由此图像描述子表示为每个区域内灰度值为1,即代表肢体的黑色像素的个数:
其中x=0,1,2,...,M-1,y=0,1,2,...,N-1;
最后,将所述图像描述子编码为一个M×N大小的二维直方图,使得f(x,y)构成一种二维直方图的形式。
在本发明基于图像检索的人体三维姿态估计方法另一实施例中,所述多视角投影方法包括针对每个被保留得到的人体三维姿态使用60个不同视角的虚拟相机进行投影,水平跨度为360度、俯仰角跨度为[-60,60]度,两个方向采样步长均为30度,由此对每个人体三维姿态可以得到对应的60个人体二维投影。
在本发明基于图像检索的人体三维姿态估计方法另一实施例中,所述图像描述子相似比较法包括:
其中p(xij)和q(xij)分别代表两个不同的图像描述子,xij是图像描述子二维直方图对应位置的取值,并且所述图像描述子p(xij)和q(xij)的所有位置均设置极小值ζ=0.0001。
在本发明基于图像检索的人体三维姿态估计方法另一实施例中,在构建人体姿态字典集还包括对人体三维姿态字典数据相似性比较,包括使用dis(pi,pj)来表示数据集中两个不同的人体三维姿态字典数据pi和pj之间的相似性:
其中,pi代表数据集中第i帧的人体三维姿态字典数据, 代表第k个关键节点的位置坐标,K是关键节点的个数;pj代表数据集中第j帧的人体三维姿态字典数据, 代表第f个关键节点的位置坐标,F是关键节点的个数;表示刚性的二维变换将两个人体三维姿态字典数据pi和pj的坐标系对齐,使目标姿态在垂直轴上旋转θ度,之后平移这个姿态(x0,z0),将根关节的位置平移至坐标系的原点位置。
在本发明基于图像检索的人体三维姿态估计方法另一实施例中,在查询人体姿态字典集中包括:首先,建立数据库索引,使用聚类方法对数据库特征进行粗量化,得到K个索引项,中心个数就是倒排表的大小,将所有类中心保存到一个粗糙聚类表中;然后计算残差r(y)=y-qc(y),使用所述字典图像描述子y减去之前粗糙量化的结果qc(y)得到余量r(y);将所有的r(y)分为m组,使用乘积量化的方法,每组内均进行聚类,可以得到一个m维的向量并保存在乘积量化的重心表中,分别将y在粗糙聚类表中的索引i和重心表中的索引j,将其(id,j)置于第i个倒排表Li中;其次,查询时对待查询的所述估计图像描述子x进行粗糙量化,接着计算x的余量r(x),再之后对r(x)分组,计算r(x)到之前重心的距离,计算x与q(y)的距离,得到x到y的最小近似距离。
本发明的有益效果是:本发明公开了一种基于图像检索的人体三维姿态估计方法。该方法包括步骤:构建并训练模型、使用训练模型估计、生成估计图像描述子、构建人体姿态字典集、查询人体姿态字典集,通过以上步骤能够对待识别图像中的人体姿态特征进行提取并生成图像描述子,然后在构建的人体姿态字典集中通过图像描述子比较进行快速查询,得到最匹配的人体三维姿态作为待检测人体二维姿态对应的人体三维状态输出。本发明方法克服了现有技术在室外和背景较为复杂的环境中难以识别人体姿态的问题,同时可以估计不同视角下图像中目标人物的人体三维姿态,具有鲁棒性强和高精度的优点。
附图说明
图1是根据本发明基于图像检索的人体三维姿态估计方法一实施例的流程图;
图2是根据本发明基于图像检索的人体三维姿态估计方法另一实施例中的深卷积度神经网络Open pose模型图;
图3是根据本发明基于图像检索的人体三维姿态估计方法另一实施例中的图像描述子生成示意图;
图4是根据本发明基于图像检索的人体三维姿态估计方法另一实施例中的字典集查询示意图。
具体实施方式
为了便于理解本发明,下面结合附图和具体实施例,对本发明进行更详细的说明。附图中给出了本发明的较佳的实施例。但是,本发明可以以许多不同的形式来实现,并不限于本说明书所描述的实施例。相反地,提供这些实施例的目的是使对本发明的公开内容的理解更加透彻全面。
需要说明的是,除非另有定义,本说明书所使用的所有的技术和科学术语与属于本发明的技术领域的技术人员通常理解的含义相同。在本发明的说明书中所使用的术语只是为了描述具体的实施例的目的,不是用于限制本发明。本说明书所使用的术语“和/或”包括一个或多个相关的所列项目的任意的和所有的组合。
图1显示了本发明基于图像检索的人体三维姿态估计方法一实施例的流程图。在图1中,包括步骤:
步骤S101,构建并训练模型,构建卷积神经网络模型,将训练图像和训练标签输入到所述卷积神经网络模型并进行训练,使得所述卷积神经网络模型能够从输入的所述训练图像中提取出人体二维姿态训练数据,并且所述人体二维姿态训练数据与对应的训练标签相一致;
步骤S102,使用训练模型估计,将待识别图像输入到经前一步骤训练完成的所述卷积神经网络模型中进行人体姿态估计,得到对应的人体二维姿态估计数据;
步骤S103,生成估计图像描述子,将所述人体二维姿态估计数据按照图像描述子转换方法转换为对应的估计图像描述子;
步骤S104,构建人体姿态字典集,将人体三维姿态字典数据通过多视角投影方法得到对应的人体二维姿态字典数据,再利用所述图像描述子转换方法将所述人体二维姿态字典数据转换为对应的字典图像描述子,从而构建包含所述人体三维姿态字典数据与所述字典图像描述子相映射的人体姿态字典集;
步骤S105,查询人体姿态字典集,将所述估计图像描述子输入到所述人体姿态字典集,通过图像描述子相似比较法从中查询与所述估计图像描述子最相似的所述字典图像描述子,再将这个最相似的所述字典图像描述子对应映射的所述人体三维姿态字典数据,作为所述待识别图像中对应的人体三维姿态输出。
优选的,在步骤S101中,卷积神经网络模型包括深卷积度神经网络Open pose模型,通过使用Human3.6M、CoCo、MPI I数据集中的训练集进行镜像、平移、旋转等变换形式进行构建训练图像,在该训练图像中人体的15个关键节点分别为头、颈、左肩、右肩、左肘、右肘、左手、右手、左胯、右胯、左膝、右膝、左脚踝、右脚踝以及盆骨,对这些关键节点进行标注可得到训练标签,各个关键节点在二维图像中的坐标为Ji={jx1,y1,jx2,y2,...,jx15,y15},其中x1,y1表示关键节点头的二维图像坐标,x2,y2则表示颈的二维图像坐标,以此类推直到x15,y15表示关键节点盆骨的二维图像坐标。将训练图像和训练标签输入应用到深卷积度神经网络Open pose模型中,并对深卷积度神经网络Open pose模型进行训练,可提取得到人体二维姿态训练数据。
优选的,如图2显示了该深卷积度神经网络Open pose模型的一个优选实施例,首先输入图像会送第一级网络G1进行特征的提取,该第一级网络G1包括由多个3×3卷积核和池化层串接而成,得到的输入图像的图像特征表示为F,然后将图像特征F送入到后面的第二级网络,该第二级网络包括两个分支,即第一分支G21和第二分支G22,第一分支G21用于预测肢体部分亲和域(Part Affinity Field,PAFs),共14类,第二分支G22用于对人体关键关节位置进行初步的预测,共15类,通过置信图对应15种人体关键关节点。
在第二级网络之后,是依次串联的第三级网络至第七级网络,这些网络具有和第二级网络类似结构,例如第七级网络也包括第一分支G71和第二分支G72,这些网络的输入都是原始图像的特征F和上一级网络输出的高维特征的和,并采用7×7大小的卷积核,最后一层使用1×1大小的卷积核进行降维。采用较大的卷积核具有更大的感受野,有助于网络学习到关节之间的空间关系也就是肢体的信息,同时较大的感受野可以获得更大区域中的上下文信息有助于网络学习、推断一些图像中没有的信息,在一定程度上可以解决因为图片中的遮挡导致部分肢体不可见的问题,增强了网络的推理能力。从第二级网络至第七级网络,这六个阶段中的每一个阶段都是一个相对独立的预测过程,而后一个阶段会基于上一阶段的预测结果,也就是其置信图、特征图和原始图像特征F,作为输入进行进一步的预测,这里我们采用残差学习的方法在每个阶段之间加入了一个短链接,将上一级网络的信息传递到下一级网络,通过6级网络的迭代式预测最后就可以得到精度较高的预测结果。
优选的,由图2可以看出,将对人体关键关节点的检测任务表示为预测一个关节点所在位置的置信图的过程,如图2中的第二支路G22完成,该置信图采用高斯建模,置信图中的数值表示该点属于某个关节点的概率。
关节点的置信图被表示为:
和
其中k表示图像中总共有k个目标人物,j表示关节点的种类,比如头、肩、手等,p∈R2表示所预测图像当前的位置坐标,xj,k∈R2则表示第k个目标人物第j类关节点的具体坐标位置,σ=1e+2是一个极小值用来保证训练过程的可行性。
可以表达为当前位置p距离第k个目标人物的第j类关节点位置越近,其得分就越高。
则对应多人的情况,当前位置p在第j类关节点中找到得分最大的k,即最可能所属的人。
优选的,肢体的置信图则可以描述为预测一个向量的起点与终点,对应如图2中的第一支路G21完成。对于第k个目标人物的第c类肢体(c对应肢体种类,比如上臂、大腿、躯干等)的PAFs为:
0≤v·(p-xj,k)≤lc,k;
其中xj,k表示第k个目标人物第j类关节点的位置,表示这两个关节点之间肢体部分的长度。
通过步骤S101实现对深卷积度神经网络Open pose模型的训练,通过训练可以使得该模型能够对输入的图像不仅能够去除复杂的背景干扰因素,还能够提取人体姿态信息,然后再通过训练得到对关键节点进行标注的训练标签,而提取得到人体二维姿态训练数据主要就是这些训练标签的集合。这样通过大量图片进行训练,就可以形成稳定的网络模型,从而可以实现对人体姿态的准确提取和估算。
优选的,在步骤S102中,将待识别图像,如RGB图像输入并应用到深卷积度神经网络Open pose模型中,待识别图像包括了人体的各个关键节点,对待识别图像进行预估计并得到的人体二维姿态估计数据。这里的人体二维姿态估计数据也是包括人体各关节点,主要是头、颈、左右肩、左右肘、左右手、左右胯、左右膝、左右脚踝和盆骨共15个关节的位置数据。
优选的,在步骤S103中,对于图像描述子转换方法,本发明使用一种角径向分割法来构建人体二维姿态和人体三维姿态之间的联系并生成图像描述子。
优选的,如图3所示,本发明使用图像描述子来表示一个人体二维姿态。具体而言使用一种角径向分割法来生成图像描述子,优选的,对于一个已知的人体二维姿态,首先将一个人体二维姿态的根节点(即盆骨关节点)固定在一张空表图像的正中心,这个二维姿态图像首先进行二值化,则一个人体二维姿态的图像RE1可以描述为I(ρ,θ),I(ρ,θ)=1表示在(ρ,θ)位置有二维姿态的肢体,即图像中黑色像素代表的肢体部分,I(ρ,θ)=0则表示没有肢体存在,(ρ,θ)是这些肢体上像素位置的极坐标表示。之后在整幅图片上建立虚拟网格RE2,这里采用了角径向分割法来构建虚拟网格。整个描述子图像被划分为M×N个区域,其中M=R/ρ是沿半径方向的划分,R是图像最外围圆的半径,N=2π/θ是垂直半径的划分,即同心圆的数量。图像描述子可以表示为每个区域内灰度值为1,即代表肢体的黑色像素的个数:
其中x=0,1,2,...,M-1,y=0,1,2,...,N-1,将图像描述子编码为一个M×N大小的二维直方图RE3。使得f(x,y)构成一种二维直方图的形式。这样我们就可以使用这种二维直方图形式的描述子来表示和描述其所对应的二维姿态图像。
如图3所示,本发明实施例所采用的图像描述子方法因为使用角径向分割,相比于直接将整幅图像分割为规则的小矩形块有着非常明显的优点,因为小矩形块的对称性如果仅仅统计落在矩形块中代表肢体黑色像素的个数只能知道这些像素分布在二维图像的某个区域,而这种类似扇形结构因为其长宽不对称,如果一个扇形区域内统计得到非常多的像素点表示存在某个肢体部分沿长边方向穿过了这个区域,而只有少量像素点存在的区域可能代表肢体是沿短边方向穿过了这个扇形区域,所以应用本实施例采用的划分方法可以在统计代表肢体存在的像素过程中保留部分方向信息,可以提高描述子表示二维姿态的能力。并且将根节点位置固定在图像中心之后,人体二维姿态主要集中在图像中心而图像的边界主要是四肢的末端,所以在垂直半径方向采用不均等的分割方式,在较为复杂的中心区域半径间隔较小以更精确的表达靠近中心部分肢体的分布情况,而在距离中心区域较远的地方分布的是人的四肢末端,因为表示四肢末端的像素数量较少且分布更为稀疏,所以使用较大的半径间隔也可以很好的描述这些肢体部分。整幅人体二维姿态图像的描述子就是分别统计每个区域内非0像素的个数,之后按照指定规律排列并构成一个二维直方图。使用这种针对人体二维姿态图片改进型的角径向分割方法来划分人体二维姿态图片可以更精细的描述一个人体二维姿态。
另外,在生成人体二维姿态图像的过程中由于输入图像不同的视角和距离目标人物的拍摄距离,会导致目标人物的二维姿态呈现出非常大的差异,很可能同一个人体三维姿态从不同的角度拍摄呈现的出姿势、尺度完全不同的二维投影。其中对本方法有较大影响的就是不同输入图片姿势的尺度不同,这会导致尺度较小的二维姿态会集中在图像的中心区域,而尺度较大的二维姿态则有可能会超出图像区域。显然这样的二维姿态图像生成的图像描述子是无法在标准描述子组成的字典集中查询得到理想的结果的。
优选的,为了便于后续在字典集中查询,我们需要对输入的二维姿态进行一次标准化,将其转化为与字典集中标准的人体二维姿态相仿的尺度。因为不同的视角可能导致肢体的尺度变化,比如斜向上的视角可能导致下肢较长而上肢较短。所以在处理二维姿态尺度的时候采用了按照肢体比例进行缩放的准则:首先计算各个肢体与躯干部分之间长度的比例,然后比较这个比例和字典集中60个虚拟视角肢体比例的相似性,选取最相似的一组,然后按照字典集中标准骨架的长度放大或者缩小所获得的二维姿态。
优选的,在生成输入图像中目标人物二维姿态的图像描述子时,加入了一个预处理步骤。不直接生成该姿态的二值化姿态图像,而是根据前述图2所示实施例中的15张置信图生成不同权重的肢体线段,跟据人体结构,对于置信度较低的关节点,其从父节点到子节点代表一段肢体连线赋予不同的权重,而不再使用二值化的表示方法。在置信度较高的两个关节点之间赋予更高的权重,本实施例将这个权重分为5个不同的级别,这样可以在之后计算两个图像描述子的距离的时候,可以使得置信度较低的关节对距离计算的影响较小,可以进一步提高查询精度。这样可以使得不精确的关节点,例如可能是预测错误的关节点,对查询过程的贡献较小,而较为精确的关节点对查询过程的权重较大。
步骤S104是与前三个步骤S101至S103具有相对独立性的步骤,主要是用于构建字典集。
优选的,在步骤S104中,在构建人体姿态字典集还包括对人体三维姿态字典数据相似性比较,包括使用dis(pi,pj)来表示数据集中两个不同的人体三维姿态字典数据pi和pj之间的相似性:
其中,pi代表数据集中第i帧的人体三维姿态字典数据, 代表第k个关键节点的位置坐标,K是关键节点的个数;pj代表数据集中第j帧的人体三维姿态字典数据, 代表第f个关键节点的位置坐标,F是关键节点的个数;表示刚性的二维变换将两个人体三维姿态字典数据pi和pj的坐标系对齐,使目标姿态在垂直轴上旋转θ度,之后平移这个姿态(x0,z0),将根关节的位置平移至坐标系的原点位置。我们共使用k=15个关键节点来描述一个姿态,包括前述的15个关键节点。
为了避免在衡量两个不同人体三维姿态的相似性的时候,因为两个相似姿态因为朝向不同而被判别为不相似的情况发生,这里首先使用了一个刚性的二维变换将两个人体三维姿态数据pi和pj的坐标系对齐,即首先使目标姿态在垂直轴上旋转θ度,之后平移这个姿态(x0,z0),将根关节的位置平移至坐标系的原点位置,这样就可以保证两个三维姿态的根关节固定在同一个位置并且朝向相同。然后,再计算两个不同人体三维姿态的相似性,当相似性大于所设阈值λ的时候,目标姿态将被保留,否则就在数据集中删除这个姿态。所以可以使用不同的阈值λ来调整字典集的规模,λ越大所保留的三维姿态就越少、字典集的规模越小;λ越小所保留的三维姿态就越多,字典集就越完备、细致,但是相应的字典集规模也会扩大从而影响查询检索的速度。
在删除数据集中冗余的三维姿态之后,由于我们得到了很多三维姿态数据,而同一个三维姿态在通过不同的角度观察的时候会呈现不同的二维投影。通过图像描述子建立了二维姿态与三维姿态的对应关系,所以需要将一个三维姿态通过不同角度进行投影得到不同的二维姿态投影来进行匹配,这就需要通过构建包含多视角三维姿态投影的字典集来保证本方法实施例可以估计于不同视角下拍摄图片中目标人物的人体三维姿态。对于每个被保留下来的三维姿态,使用多视角投影方法,针对每个被保留得到的三维姿态我们使用60个不同视角的虚拟相机进行投影,水平跨度为360度、俯仰角跨度为[-60,60]度,两个方向采样步长均为30度。这样每个三维姿态可以得到对应的60个二维投影。将所有通过投影得到的二维姿态图片再按照前述的方法生成图像描述子并保存下来,这些保存下来的图像描述子的集合就是后续查询匹配过程中的字典集。
值得注意的是在这一过程中因为是采集日常行为的三维姿态数据,所以其三维姿态数据的骨骼信息是不同的,不同的肢体长度导致了不同的骨骼信息,这也是不利于进行查询,为此使用CMU MoCap运动数据的表达形式,使用方向的单位向量乘以标准骨骼肢体的长度得到每个姿态所对应的标准三维骨骼信息,然后在转化为二维投影并生成描述子组成字典集以保持字典集中数据的一致性。
由此,可以构建三维姿态数据集中不同的三维姿态字典数据在不同视角和相机参数下投影得到二维姿态字典数据,将得到的二维姿态字典数据生成图像描述子并进行保存,构建人体姿态字典集。
优选的,在步骤S105中,为了使得相似的二维姿态之间的距离更小以便于下一步的查询,提高查询得到三维姿态的投影更接近于输入的二维姿态图像。我们使用一个大小为24×24的高斯核对每个代表肢体的像素进行加权,将每个像素在计算距离的时候可以将贡献分散到该像素周围的区域,即在统计像素位置生成描述子之前,对每个像素进行一次高斯加权,这样这个像素对单元格的贡献就不仅仅作用于本单元格,而是以一种高斯权重的形式分配在周围的单元格中。使得距离代表肢体的像素p(xij)∈I(ρ,θ)越近的位置,在计算两姿态距离时的权重越大。优选的,对于图像描述子相似比较法,本实施例使用K-L散度代替欧氏距离来衡量两个图像描述子之间的相似性,具体方法如下:
其中p(xij)和q(xij)分别代表两个不同的图像描述子,xij是图像描述子二维直方图对应位置的取值,并且所述图像描述子p(xij)和q(xij)的所有位置均设置极小值ζ=0.0001。这里为了使得dist可以计算,在生成图像描述子的过程中会给所有的描述子p(xij)的所有位置都加上一个极小值ζ=0.0001,用以保证分母位置不会存在0值,而导致距离dist无法计算。使用K-L散度可以在计算二维姿态相似性的时候,让更相似姿态得到距离更近,从而解决上述采用欧氏距离计算距离时存在的问题。
很显然如果使用待估计的人体二维姿态描述子直接在之前构建好的字典集中进行遍历查询的话,由于所使用的图像描述子本质上是一个高维向量,所以遍历查询的计算开销会非常大,会严重影响整个人体三维姿态估计的效率。为了提高查询速度,优选采用了基于乘积量化的查询方法。
基于乘积量化最近邻查询方法的基本思想是将原有的高维向量空间分解成多个低维向量空间的笛卡尔积,对之前分解所得到的低维向量空间做不同的量化,就可以使得每个高维向量可以使用若干低维空间的量化码组合进行表示,实现了很大程度的降维,所以乘积量化的方法其实是一种高维数据压缩表达的方法。
首先是进行聚类,其过程如下:首先随机选取k个对象作为初始化的聚类中心点;然后计算剩下的所有样本到这k个初始聚类中心的距离,将每个样本分配给距离其最近的聚类中心;重新计算k个聚类的中心点并迭代整个过程,直至判别函数收敛
其中E1表示全局误差,ci表示k个聚类族中的一个μi是其重心,而xj是其中任意一个元素。
然后进行矢量量化,将高维度的N维矢量空间RN映射到一个仅包含有限个矢量集合C(这里也可以称作码本),并且码本C是高维矢量空间RN的一个子集,可以表示为:
Q:RN→C={y1,y2,...,yM|yi∈RN}
这里Q就是映射关系,M表示码本C的尺寸,yi就是码本的内容,也可以称之为码字,N则表示RN中训练矢量的维度。并且对于x={x1,x2,...,xN}∈RN均满足映射关系Q(x|x∈RN)=yp,同时满足这里码字yp={yp1,yp2,...,ypN},d(x,yp)则表示训练矢量x与码字yp之间产生的量化失真,通常使用其平方误差来表示:
这样就在高维向量空间RN中的每一个训练矢量x,都可以在码本C中找到一个对应失真最小的码字yp。经过矢量量化器Q的量化之后可以被分割成为M个互不重叠的低维度子向量空间,所以就可以将这个高维向量空间R表示为R={R1,R2,...,RM},其中Ri={x|Q(x)=yi}就是N维矢量空间中全部映射为码字yj的训练矢量x的集合,并且满足且
而乘积量化对于一个D维的高维向量x,会将其划分成m个n维的子向量μj,1≤j≤m,之后会使用m个子量化器将这m个子向量分别进行量化,这个过程可以表示为:
其中Q是不同子空间的独特量化器,每个Q都有其对应的索引I和码本C。通过指标集的笛卡尔乘积,I=I1×I2×...×Im中的元素可以同来表示乘积量化的索引,其码本就是每个子向量空间码本的笛卡尔乘积C=C1×C2×...×Cm,对应的重心为m个量化器的重心串联而得到的向量。
对于一个由高维向量组成的庞大数据集来说,就像将数据集分为k个类别,每个数据样本都使用短向量形式表示,其维度为d,将这些短向量分为m组。将所有短向量的某一组分量作为一个新的数据集,采用上述聚类方法获得该类的类中心,所以一共需要m次聚类过程得到m个类中心,将这m个类中心作为一个集合。对这个m个类中心组成的集合做笛卡尔积,就可以得到整个数据集的类中心。因为图像描述子就是一个M×N的二维直方图,所以非常适合使用这种基于量化乘积的方式进行查询。
优选的,查询流程如图4所示,首先需要建立数据库索引,使用聚类方法对数据库特征进行粗量化,得到K个索引项,中心个数就是倒排表的大小,将所有类中心保存到一个粗糙聚类表中;然后计算残差r(y)=y-qc(y),使用所述字典图像描述子y减去之前粗糙量化的结果qc(y)得到余量r(y)。将所有的r(y)分为m组,使用乘积量化的方法,每组内均进行聚类。就可以得到一个m维的向量并保存在乘积量化的重心表中。分别将y在粗糙聚类表中的索引i和重心表中的索引j,将其(id,j)置于第i个倒排表Li中。
查询过程与按照建立索引的方法类似,对待查询的所述估计图像描述子x进行粗糙量化,接着计算x的余量r(x),再之后对r(x)分组计算r(x)到之前重心的距离,使用ADC的方法计算x与q(y)的距离,所以可以得到x到y的近似距离。堆栈中每个元素代表数据库中y与x的距离,堆栈顶的元素相距最远,如果比堆栈顶元素小则代替堆栈顶元素,直至遍历所有y,其过程可以用如下计算式表示:
r(y)=y-qc(y);
y≈qc(y)+qp(r(y));
x=qc(x)+r(x);
||x-y||=||qc(x)+r(x)-qc(y)-qp(r(y))||=||r(x)-qp(r(y))||;
通过查找就可以根据输入图片中目标人物的人体二维姿态生成的图像描述子得到其在字典集中的k个最接近的人体三维姿态对应的二维投影,从而对应得到至多k个与之对应的人体三维姿态,这些三维姿态通过之后的优化处理就可以得到最终的人体三维姿态。
由此可见,本发明公开了一种基于图像检索的人体三维姿态估计方法。该方法包括步骤:构建并训练模型、使用训练模型估计、生成估计图像描述子、构建人体姿态字典集、查询人体姿态字典集,通过以上步骤能够对待识别图像中的人体姿态特征进行提取并生成图像描述子,然后在构建的人体姿态字典集中通过图像描述子比较进行快速查询,得到最匹配的人体三维姿态作为待检测人体二维姿态对应的人体三维状态输出。本发明方法克服了现有技术在室外和背景较为复杂的环境中难以识别人体姿态的问题,同时可以估计不同视角下图像中目标人物的人体三维姿态,具有鲁棒性强和高精度的优点。
以上所述仅为本发明的实施例,并非因此限制本发明的专利范围,凡是利用本发明说明书及附图内容所作的等效结构变换,或直接或间接运用在其他相关的技术领域,均同理包括在本发明的专利保护范围内。
Claims (8)
1.一种基于图像检索的人体三维姿态估计方法,其特征在于,包括以下步骤:
构建并训练模型,构建卷积神经网络模型,将训练图像和训练标签输入到所述卷积神经网络模型并进行训练,使得所述卷积神经网络模型能够从输入的所述训练图像中提取出人体二维姿态训练数据,并且所述人体二维姿态训练数据与对应的训练标签相一致;
使用训练模型估计,将待识别图像输入到经前一步骤训练完成的所述卷积神经网络模型中进行人体姿态估计,得到对应的人体二维姿态估计数据;
生成估计图像描述子,将所述人体二维姿态估计数据通过图像描述子转换方法转换为对应的估计图像描述子;
构建人体姿态字典集,将人体三维姿态字典数据通过多视角投影方法得到对应的人体二维姿态字典数据,再利用所述图像描述子转换方法将所述人体二维姿态字典数据转换为对应的字典图像描述子,从而构建包含所述人体三维姿态字典数据与所述字典图像描述子相映射的人体姿态字典集;
查询人体姿态字典集,将所述估计图像描述子输入到所述人体姿态字典集,通过图像描述子相似比较法从中查询与所述估计图像描述子最相似的所述字典图像描述子,再将这个最相似的所述字典图像描述子对应映射的所述人体三维姿态字典数据,作为所述待识别图像中对应的人体三维姿态输出。
2.根据权利要求1所述的基于图像检索的人体三维姿态估计方法,其特征在于,所述卷积神经网络模型包括深卷积度神经网络Open pose模型,构建训练图像中人体的15个关键节点分别为头、颈、左肩、右肩、左肘、右肘、左手、右手、左胯、右胯、左膝、右膝、左脚踝、右脚踝以及盆骨,并对所述关键节点进行标注得到训练标签,所述训练图像和训练标签输入到所述深卷积度神经网络Open pose模型中,并对所述深卷积度神经网络Open pose模型进行训练,提取得到人体二维姿态训练数据。
3.根据权利要求2所述的基于图像检索的人体三维姿态估计方法,其特征在于,所述深卷积度神经网络Open pose模型包括由多个3×3卷积核和池化层串接而成的第一级网络,以及在所述第一级网络之后是依次串联的第二级网络至第七级网络,所述第二级网络包括两个分支,均接收来自所述第一级网络提取输出的图像特征,其中第一分支用于预测肢体部分亲和域,第二分支用于对人体关键关节位置进行初步的预测;第三级网络至第七级网络的输入均包括来自所述第一级网络提取输出的图像特征,以及与前一级网络输出的高维特征的和。
4.根据权利要求3所述的基于图像检索的人体三维姿态估计方法,其特征在于,所述图像描述子转换方法包括:
首先,将一个人体二维姿态图像I(ρ,θ)的根节点固定在一张空表图像的正中心,并对所述人体二维姿态图像I(ρ,θ)进行二值化,其中,I(ρ,θ)=1表示在(ρ,θ)位置有二维姿态的肢体,I(ρ,θ)=0表示在(ρ,θ)位置没有肢体存在;
然后,在整幅人体二维姿态图像上,采用了角径向分割法来建立虚拟网格,整幅人体二维姿态图像被划分为M×N个区域,其中M=R/ρ是沿半径方向的划分,R是图像最外围圆的半径,N=2π/θ是垂直半径的划分,N是同心圆的数量,由此图像描述子表示为每个区域内灰度值为1,即代表肢体的黑色像素的个数:
其中x=0,1,2,...,M-1,y=0,1,2,...,N-1;
最后,将所述图像描述子编码为一个M×N大小的二维直方图,使得f(x,y)构成一种二维直方图的形式。
5.根据权利要求4所述的基于图像检索的人体三维姿态估计方法,其特征在于,所述多视角投影方法包括针对每个被保留得到的人体三维姿态使用60个不同视角的虚拟相机进行投影,水平跨度为360度、俯仰角跨度为[-60,60]度,两个方向采样步长均为30度,由此对每个人体三维姿态可以得到对应的60个人体二维投影。
6.根据权利要求5所述的基于图像检索的人体三维姿态估计方法,其特征在于,所述图像描述子相似比较法包括:
其中p(xij)和q(xij)分别代表两个不同的图像描述子,xij是图像描述子二维直方图对应位置的取值,并且所述图像描述子p(xij)和q(xij)的所有位置均设置极小值ζ=0.0001。
7.根据权利要求6所述的基于图像检索的人体三维姿态估计方法,其特征在于,在构建人体姿态字典集还包括对人体三维姿态字典数据相似性比较,包括使用dis(pi,pj)来表示数据集中两个不同的人体三维姿态字典数据pi和pj之间的相似性:
其中,pi代表数据集中第i帧的人体三维姿态字典数据, 代表第k个关键节点的位置坐标,K是关键节点的个数;pj代表数据集中第j帧的人体三维姿态字典数据, 代表第f个关键节点的位置坐标,F是关键节点的个数;表示刚性的二维变换将两个人体三维姿态字典数据pi和pj的坐标系对齐,使目标姿态在垂直轴上旋转θ度,之后平移这个姿态(x0,z0),将根关节的位置平移至坐标系的原点位置。
8.根据权利要求7所述的基于图像检索的人体三维姿态估计方法,其特征在于,在查询人体姿态字典集中包括:
首先,建立数据库索引,使用聚类方法对数据库特征进行粗量化,得到K个索引项,中心个数就是倒排表的大小,将所有类中心保存到一个粗糙聚类表中;然后计算残差r(y)=y-qc(y),使用所述字典图像描述子y减去之前粗糙量化的结果qc(y)得到余量r(y);将所有的r(y)分为m组,使用乘积量化的方法,每组内均进行聚类,可以得到一个m维的向量并保存在乘积量化的重心表中,分别将y在粗糙聚类表中的索引i和重心表中的索引j,将其(id,j)置于第i个倒排表Li中;
其次,查询时对待查询的所述估计图像描述子x进行粗糙量化,接着计算x的余量r(x),再之后对r(x)分组,计算r(x)到之前重心的距离,计算x与q(y)的距离,得到x到y的最小近似距离。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910190964.XA CN109949368B (zh) | 2019-03-14 | 2019-03-14 | 一种基于图像检索的人体三维姿态估计方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910190964.XA CN109949368B (zh) | 2019-03-14 | 2019-03-14 | 一种基于图像检索的人体三维姿态估计方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109949368A true CN109949368A (zh) | 2019-06-28 |
CN109949368B CN109949368B (zh) | 2020-11-06 |
Family
ID=67009801
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910190964.XA Active CN109949368B (zh) | 2019-03-14 | 2019-03-14 | 一种基于图像检索的人体三维姿态估计方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109949368B (zh) |
Cited By (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110502564A (zh) * | 2019-08-28 | 2019-11-26 | 北京理工大学 | 基于姿态基的运动特征数据库生成方法、检索方法及终端 |
CN110659565A (zh) * | 2019-08-15 | 2020-01-07 | 电子科技大学 | 一种基于带孔卷积的3d多人人体姿态估计方法 |
CN110717392A (zh) * | 2019-09-05 | 2020-01-21 | 云知声智能科技股份有限公司 | 一种坐姿检测与纠正方法和装置 |
CN110826500A (zh) * | 2019-11-08 | 2020-02-21 | 福建帝视信息科技有限公司 | 基于运动链接空间的对抗性网络估计3d人体姿态的方法 |
CN110956139A (zh) * | 2019-12-02 | 2020-04-03 | 郑州大学 | 一种基于时间序列回归预测的人体运动动作分析方法 |
CN111047548A (zh) * | 2020-03-12 | 2020-04-21 | 腾讯科技(深圳)有限公司 | 姿态变换数据处理方法、装置、计算机设备和存储介质 |
CN111462238A (zh) * | 2020-04-03 | 2020-07-28 | 清华大学 | 姿态估计优化方法、装置及存储介质 |
CN111611927A (zh) * | 2020-05-21 | 2020-09-01 | 长沙明本信息科技有限公司 | 一种基于人体姿态识别煤矿工作人员不安全行为的方法 |
CN111753747A (zh) * | 2020-06-28 | 2020-10-09 | 高新兴科技集团股份有限公司 | 基于单目摄像头和三维姿态估计的剧烈运动检测方法 |
CN112233222A (zh) * | 2020-09-29 | 2021-01-15 | 深圳市易尚展示股份有限公司 | 基于神经网络关节点估计的人体参数化三维模型变形方法 |
CN112488005A (zh) * | 2020-12-04 | 2021-03-12 | 临沂市新商网络技术有限公司 | 基于人体骨骼识别和多角度转换的在岗监测方法及系统 |
CN112651490A (zh) * | 2020-12-28 | 2021-04-13 | 深圳万兴软件有限公司 | 人脸关键点检测模型的训练方法及设备、可读存储介质 |
CN112733761A (zh) * | 2021-01-15 | 2021-04-30 | 浙江工业大学 | 一种基于机器学习的人体状态匹配方法 |
CN112926475A (zh) * | 2021-03-08 | 2021-06-08 | 电子科技大学 | 一种人体三维关键点提取方法 |
CN113033520A (zh) * | 2021-05-25 | 2021-06-25 | 华中农业大学 | 一种基于深度学习的树木线虫病害木识别方法及系统 |
CN113065506A (zh) * | 2021-04-16 | 2021-07-02 | 南京大学 | 一种人体姿态识别方法及系统 |
CN113192186A (zh) * | 2021-05-19 | 2021-07-30 | 华中科技大学 | 基于单帧图像的3d人体姿态估计模型建立方法及其应用 |
CN113763572A (zh) * | 2021-09-17 | 2021-12-07 | 北京京航计算通讯研究所 | 一种基于ai智能识别的3d实体标注方法及存储介质 |
WO2021258971A1 (zh) * | 2020-06-24 | 2021-12-30 | 北京字节跳动网络技术有限公司 | 虚拟换服饰的方法和装置、设备和介质 |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2008070701A2 (en) * | 2006-12-06 | 2008-06-12 | Honda Motor Co., Ltd. | Fast human pose estimation using appearance and motion via multi-dimensional boosting regression |
CN104598890A (zh) * | 2015-01-30 | 2015-05-06 | 南京邮电大学 | 一种基于rgb-d视频的人体行为识别方法 |
CN104952105A (zh) * | 2014-03-27 | 2015-09-30 | 联想(北京)有限公司 | 一种三维人体姿态估计方法和装置 |
EP2930689A1 (en) * | 2010-04-30 | 2015-10-14 | LiberoVision AG | Method for rendering |
CN105335696A (zh) * | 2015-08-26 | 2016-02-17 | 湖南信息职业技术学院 | 一种基于3d异常步态行为检测识别的智能助老机器人及实现方法 |
CN107609535A (zh) * | 2017-09-28 | 2018-01-19 | 天津大学 | 基于共享池混合树模型的人脸检测、姿态估计和定位方法 |
CN108830150A (zh) * | 2018-05-07 | 2018-11-16 | 山东师范大学 | 一种基于三维人体姿态估计方法及装置 |
CN109003301A (zh) * | 2018-07-06 | 2018-12-14 | 东南大学 | 一种基于OpenPose和Kinect的人体姿态估计方法及康复训练系统 |
CN109087329A (zh) * | 2018-07-27 | 2018-12-25 | 中山大学 | 基于深度网络的人体三维关节点估计框架及其定位方法 |
CN109271933A (zh) * | 2018-09-17 | 2019-01-25 | 北京航空航天大学青岛研究院 | 基于视频流进行三维人体姿态估计的方法 |
CN109377557A (zh) * | 2018-11-26 | 2019-02-22 | 中山大学 | 基于单帧人脸图像的实时三维人脸重建方法 |
-
2019
- 2019-03-14 CN CN201910190964.XA patent/CN109949368B/zh active Active
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2008070701A2 (en) * | 2006-12-06 | 2008-06-12 | Honda Motor Co., Ltd. | Fast human pose estimation using appearance and motion via multi-dimensional boosting regression |
EP2930689A1 (en) * | 2010-04-30 | 2015-10-14 | LiberoVision AG | Method for rendering |
CN104952105A (zh) * | 2014-03-27 | 2015-09-30 | 联想(北京)有限公司 | 一种三维人体姿态估计方法和装置 |
CN104598890A (zh) * | 2015-01-30 | 2015-05-06 | 南京邮电大学 | 一种基于rgb-d视频的人体行为识别方法 |
CN105335696A (zh) * | 2015-08-26 | 2016-02-17 | 湖南信息职业技术学院 | 一种基于3d异常步态行为检测识别的智能助老机器人及实现方法 |
CN107609535A (zh) * | 2017-09-28 | 2018-01-19 | 天津大学 | 基于共享池混合树模型的人脸检测、姿态估计和定位方法 |
CN108830150A (zh) * | 2018-05-07 | 2018-11-16 | 山东师范大学 | 一种基于三维人体姿态估计方法及装置 |
CN109003301A (zh) * | 2018-07-06 | 2018-12-14 | 东南大学 | 一种基于OpenPose和Kinect的人体姿态估计方法及康复训练系统 |
CN109087329A (zh) * | 2018-07-27 | 2018-12-25 | 中山大学 | 基于深度网络的人体三维关节点估计框架及其定位方法 |
CN109271933A (zh) * | 2018-09-17 | 2019-01-25 | 北京航空航天大学青岛研究院 | 基于视频流进行三维人体姿态估计的方法 |
CN109377557A (zh) * | 2018-11-26 | 2019-02-22 | 中山大学 | 基于单帧人脸图像的实时三维人脸重建方法 |
Non-Patent Citations (5)
Title |
---|
ABDOLAH CHALECHALE 等: "Sketch-Based Image Matching Using Angular Partitioning", 《IEEE TRANSACTIONS ON SYSTEMS, MAN, AND CYBERNETICS - PART A: SYSTEMS AND HUMANS》 * |
CHING-HANG CHEN等: "3D Human Pose Estimation = 2D Pose Estimation + Matching", 《2017 IEEE CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION》 * |
REDA ELBASIONY等: "Deep 3D Pose Dictionary: 3D Human Pose Estimation from Single RGB Image Using Deep Convolutional Neural Network", 《ICANN 2018: ARTIFICIAL NEURAL NETWORKS AND MACHINE LEARNING》 * |
SUNGHEON PARK等: "3D Human Pose Estimation Using Convolutional Neural Networks with 2D Pose Information", 《ECCV 2016: COMPUTER VISION》 * |
浩克匠心: "【AI识人】OpenPose:实时多人2D姿态估计| 附视频测试及源码链接", 《HTTPS://ZHUANLAN.ZHIHU.COM/P/37526892》 * |
Cited By (33)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110659565B (zh) * | 2019-08-15 | 2021-12-03 | 电子科技大学 | 一种基于带孔卷积的3d多人人体姿态估计方法 |
CN110659565A (zh) * | 2019-08-15 | 2020-01-07 | 电子科技大学 | 一种基于带孔卷积的3d多人人体姿态估计方法 |
CN110502564A (zh) * | 2019-08-28 | 2019-11-26 | 北京理工大学 | 基于姿态基的运动特征数据库生成方法、检索方法及终端 |
CN110717392A (zh) * | 2019-09-05 | 2020-01-21 | 云知声智能科技股份有限公司 | 一种坐姿检测与纠正方法和装置 |
CN110717392B (zh) * | 2019-09-05 | 2022-02-18 | 云知声智能科技股份有限公司 | 一种坐姿检测与纠正方法和装置 |
CN110826500A (zh) * | 2019-11-08 | 2020-02-21 | 福建帝视信息科技有限公司 | 基于运动链接空间的对抗性网络估计3d人体姿态的方法 |
CN110826500B (zh) * | 2019-11-08 | 2023-04-14 | 福建帝视信息科技有限公司 | 基于运动链接空间的对抗性网络估计3d人体姿态的方法 |
CN110956139B (zh) * | 2019-12-02 | 2023-04-28 | 河南财政金融学院 | 一种基于时间序列回归预测的人体运动动作分析方法 |
CN110956139A (zh) * | 2019-12-02 | 2020-04-03 | 郑州大学 | 一种基于时间序列回归预测的人体运动动作分析方法 |
CN111047548B (zh) * | 2020-03-12 | 2020-07-03 | 腾讯科技(深圳)有限公司 | 姿态变换数据处理方法、装置、计算机设备和存储介质 |
CN111047548A (zh) * | 2020-03-12 | 2020-04-21 | 腾讯科技(深圳)有限公司 | 姿态变换数据处理方法、装置、计算机设备和存储介质 |
CN111462238A (zh) * | 2020-04-03 | 2020-07-28 | 清华大学 | 姿态估计优化方法、装置及存储介质 |
CN111611927A (zh) * | 2020-05-21 | 2020-09-01 | 长沙明本信息科技有限公司 | 一种基于人体姿态识别煤矿工作人员不安全行为的方法 |
WO2021258971A1 (zh) * | 2020-06-24 | 2021-12-30 | 北京字节跳动网络技术有限公司 | 虚拟换服饰的方法和装置、设备和介质 |
CN111753747A (zh) * | 2020-06-28 | 2020-10-09 | 高新兴科技集团股份有限公司 | 基于单目摄像头和三维姿态估计的剧烈运动检测方法 |
CN111753747B (zh) * | 2020-06-28 | 2023-11-24 | 高新兴科技集团股份有限公司 | 基于单目摄像头和三维姿态估计的剧烈运动检测方法 |
CN112233222A (zh) * | 2020-09-29 | 2021-01-15 | 深圳市易尚展示股份有限公司 | 基于神经网络关节点估计的人体参数化三维模型变形方法 |
CN112488005B (zh) * | 2020-12-04 | 2022-10-14 | 临沂市新商网络技术有限公司 | 基于人体骨骼识别和多角度转换的在岗监测方法及系统 |
CN112488005A (zh) * | 2020-12-04 | 2021-03-12 | 临沂市新商网络技术有限公司 | 基于人体骨骼识别和多角度转换的在岗监测方法及系统 |
CN112651490B (zh) * | 2020-12-28 | 2024-01-05 | 深圳万兴软件有限公司 | 人脸关键点检测模型的训练方法及设备、可读存储介质 |
CN112651490A (zh) * | 2020-12-28 | 2021-04-13 | 深圳万兴软件有限公司 | 人脸关键点检测模型的训练方法及设备、可读存储介质 |
CN112733761A (zh) * | 2021-01-15 | 2021-04-30 | 浙江工业大学 | 一种基于机器学习的人体状态匹配方法 |
CN112733761B (zh) * | 2021-01-15 | 2024-03-19 | 浙江工业大学 | 一种基于机器学习的人体状态匹配方法 |
CN112926475A (zh) * | 2021-03-08 | 2021-06-08 | 电子科技大学 | 一种人体三维关键点提取方法 |
CN112926475B (zh) * | 2021-03-08 | 2022-10-21 | 电子科技大学 | 一种人体三维关键点提取方法 |
CN113065506A (zh) * | 2021-04-16 | 2021-07-02 | 南京大学 | 一种人体姿态识别方法及系统 |
CN113065506B (zh) * | 2021-04-16 | 2023-12-26 | 南京大学 | 一种人体姿态识别方法及系统 |
CN113192186B (zh) * | 2021-05-19 | 2022-09-20 | 华中科技大学 | 基于单帧图像的3d人体姿态估计模型建立方法及其应用 |
CN113192186A (zh) * | 2021-05-19 | 2021-07-30 | 华中科技大学 | 基于单帧图像的3d人体姿态估计模型建立方法及其应用 |
CN113033520B (zh) * | 2021-05-25 | 2021-08-13 | 华中农业大学 | 一种基于深度学习的树木线虫病害木识别方法及系统 |
CN113033520A (zh) * | 2021-05-25 | 2021-06-25 | 华中农业大学 | 一种基于深度学习的树木线虫病害木识别方法及系统 |
CN113763572B (zh) * | 2021-09-17 | 2023-06-27 | 北京京航计算通讯研究所 | 一种基于ai智能识别的3d实体标注方法及存储介质 |
CN113763572A (zh) * | 2021-09-17 | 2021-12-07 | 北京京航计算通讯研究所 | 一种基于ai智能识别的3d实体标注方法及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN109949368B (zh) | 2020-11-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109949368A (zh) | 一种基于图像检索的人体三维姿态估计方法 | |
Yu et al. | Spatial pyramid-enhanced NetVLAD with weighted triplet loss for place recognition | |
Zhu et al. | Adaptive deep sparse semantic modeling framework for high spatial resolution image scene classification | |
CN103927511B (zh) | 基于差异特征描述的图像识别方法 | |
Yan et al. | Crowd counting via perspective-guided fractional-dilation convolution | |
CN107256262A (zh) | 一种基于物体检测的图像检索方法 | |
CN111339343A (zh) | 图像检索方法、装置、存储介质及设备 | |
CN105844635A (zh) | 一种基于结构字典的稀疏表示深度图像重建算法 | |
CN109086405A (zh) | 基于显著性和卷积神经网络的遥感图像检索方法及系统 | |
CN113408455A (zh) | 一种基于多流信息增强图卷积网络的动作识别方法、系统及存储介质 | |
CN110555408A (zh) | 一种基于自适应映射关系的单摄像头实时三维人体姿态检测方法 | |
CN109447175A (zh) | 结合深度学习与度量学习的行人再识别方法 | |
Uddin et al. | Human Activity Recognition via 3-D joint angle features and Hidden Markov models | |
CN102663087A (zh) | 基于拓扑和视觉特征的三维模型检索方法 | |
CN112256904A (zh) | 一种基于视觉描述语句的图像检索方法 | |
CN111782852B (zh) | 基于深度学习的高层次语义图像检索方法 | |
CN113743544A (zh) | 一种跨模态神经网络构建方法、行人检索方法及系统 | |
CN109670401A (zh) | 一种基于骨骼运动图的动作识别方法 | |
CN111598995A (zh) | 一种基于原型分析的自监督多目三维人体姿态估计方法 | |
CN114067128A (zh) | 一种基于语义特征的slam回环检测方法 | |
CN105447100B (zh) | 一种基于形状特征的云图检索方法 | |
Wang et al. | Malware detection algorithm based on the attention mechanism and ResNet | |
CN113032613A (zh) | 一种基于交互注意力卷积神经网络的三维模型检索方法 | |
Liu et al. | 3D action recognition using multi-temporal skeleton visualization | |
CN109857886A (zh) | 一种基于极小极大值博弈理论视图逼近的三维模型检索方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |