CN114049684A - 一种人体坐姿识别方法、装置、电子设备和存储介质 - Google Patents
一种人体坐姿识别方法、装置、电子设备和存储介质 Download PDFInfo
- Publication number
- CN114049684A CN114049684A CN202111280100.0A CN202111280100A CN114049684A CN 114049684 A CN114049684 A CN 114049684A CN 202111280100 A CN202111280100 A CN 202111280100A CN 114049684 A CN114049684 A CN 114049684A
- Authority
- CN
- China
- Prior art keywords
- human body
- human
- prediction
- local feature
- pictures
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Abstract
本公开提供了一种人体坐姿识别的方法、装置、电子设备和存储介质,涉及计算机技术领域,尤其涉及计算机视觉领域。具体实现方案为:采集图片;获取所述图片对应的多张预测图,并获取每张预测图中的至少一个人体预测框;从维度最低的所述预测图中获取每个所述人体预测框对应的人体局部特征图;生成每个所述人体局部特征图对应的人体关键点热力图和注意力权重,并根据所述人体局部特征图与对应的所述注意力权重得到对应的加权人体局部特征图;对所有的加权人体局部特征图进行识别得到所述图片的人体坐姿分类结果。
Description
技术领域
本公开涉及计算机技术领域,尤其涉及计算机视觉领域中的一种人体坐姿识别方法、装置、电子设备和存储介质。
背景技术
对于一张图片中的多人进行人体坐姿识别时,可以采用自顶向下(top-down)的方法。自顶向下主要是先通过检测模型检测出图像中的人体预测框,基于人体预测框通过人体姿态识别算法识别出图像中每个人的人体关键点,最后对单人的人体关键点进行连接,从而得到图像中每个人的人体坐姿识别结果。由此可知,自顶向下的方法至少需要两个模型:人体预测框的检测模型和人体关键点的识别模型。
发明内容
本公开提供了一种人体坐姿识别方法、装置、电子设备和存储介质。
根据本公开的一方面,提供了一种人体坐姿识别方法,包括:
采集图片;
获取所述图片对应的多张预测图,并获取每张预测图中的至少一个人体预测框;
从维度最低的所述预测图中获取每个所述人体预测框对应的人体局部特征图;
生成每个所述人体局部特征图对应的人体关键点热力图和注意力权重,并根据所述人体局部特征图与对应的所述注意力权重得到对应的加权人体局部特征图;
对所有的加权人体局部特征图进行识别得到所述图片的人体坐姿分类结果。
根据本公开的另一方面,提供了一种人体坐姿识别的装置,包括:
采集模块,用于采集图片;
第一图片处理模块,用于获取所述图片对应的多张预测图,并获取每张预测图中的至少一个人体预测框;
第二图片处理模块,用于从维度最低的所述预测图中获取每个所述人体预测框对应的人体局部特征图;
第三图片处理模块,用于生成每个所述人体局部特征图对应的人体关键点热力图和注意力权重,并根据所述人体局部特征图与对应的所述注意力权重得到对应的加权人体局部特征图;
输出模块,用于对所有的加权人体局部特征图进行识别得到所述图片的人体坐姿分类结果。
根据本公开的又一方面,提供了一种人体坐姿识别的电子设备包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行前述人体坐姿识别的方法。
根据本公开的又一方面,提供了一种存储有计算机指令的非瞬时计算机可读存储介质,其中,所述计算机指令用于使所述计算机执行前述人体坐姿识别的方法。
附图说明
附图用于更好地理解本方案,不构成对本公开的限定。其中:
图1是根据本公开一实施例的人体坐姿识别方法的示意图;
图2是根据本公开一实施例的获取预测图的流程图;
图3是根据本公开一实施例的获取人体关键点热力图和注意力权重的流程图;
图4是根据本公开一实施例的人体坐姿识别装置的示意图;
图5是根据本公开一实施例的人体坐姿识别训练方法的示意图;
图6是用来实现本公开实施例的人体坐姿识别方法的电子设备的框图。
具体实施方式
以下结合附图对本公开的示范性实施例做出说明,其中包括本公开实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本公开的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
现有技术中,先通过检测模型检测出图像中的人体预测框,基于人体预测框通过人体姿态识别算法识别出图像中每个人的人体关键点,最后对单人的人体关键点进行连接,从而得到图像中每个人的人体坐姿识别结果。现有技术在获取人体关键点后,仅通过连接人体关键点来获得人体坐姿识别结果,无法对用于坐姿识别分类的人体局部特征图进一步突出,使得现有技术中人体坐姿识别的准确率低。
在一个示例中,本公开提供了一种用于人体坐姿识别的方法,以实现对一张图片中多人人体坐姿的识别,如图1所示,该方法包括:
步骤101:采集图片;
在该示例中,通过图像采集装置采集图片,将采集的图片提供给检测框架进行人体预测框的检测。本公开对于采集的图片尺寸不做限制,但是对于输入检测框架中的图片尺寸可以进行设置,那么在采集到图片之后,将该图片转换为符合设定尺寸的图片,然后输入检测框架进行人体预测框的检测。
人体预测框是由检测框架计算输出的包含人体不同大小特征的框,根据人体预测框可以获取不同大小的、包含更多人体特征信息的人体局部特征图,对这些人体局部特征图进行的识别分类,得到人体坐姿识别的分类结果。
步骤102:获取所述图片对应的多张预测图,并获取每张预测图中的至少一个人体预测框;
通过检测框架可以检测出每个预测图中的人体预测框,每个预测图包含多个人体预测框,这多个人体预测框的尺寸可相同可不同,在进行人体预测框的检测时,不进行人体的区分,例如,当一张图片中包含A和B两个人体时,在进行人体预测框的检测时不对图片中人体A和人体B的部分进行区分,直接进行人体预测框的检测。
步骤103:从维度最低的所述预测图中获取每个所述人体预测框对应的人体局部特征图;
通过步骤102获取的多张预测图的维度数不同,由于维度最低的预测图所包含的语义信息和几何细节信息更多,因此,可从维度最低的预测图中获取每个人体预测框对应的人体局部特征图。人体局部特征图是指人体局部部位的图像,如手部图、头部图、关节图等。
步骤104:生成每个所述人体局部特征图对应的人体关键点热力图和注意力权重,并根据所述人体局部特征图与对应的所述注意力权重得到对应的加权人体局部特征图。
步骤105:对所有的加权人体局部特征图进行识别得到所述图片的人体坐姿分类结果。
在一个示例中,可将所有的加权人体局部特征图输入神经网络,经过神经网络中的卷积层进行特征提取,再通过全连接层进行特征整合和分类,最后由softmax层输出人体坐姿分类结果。softmax层输出n个0到1的实数,这n个实数分别代表输出的n种分类结果对应的概率,优选的5种分类结果为:正常坐姿、弯腰低头、歪头、肩不平、未检测到人。
采用本公开的人体坐姿识别方法,通过引入热力图注意力(heatmap attention)机制,输出人体局部特征图对应的人体关键点热力图和注意力权重,人体局部特征图与注意力权重进行加权突出人体特征,抑制背景信息,提高对人体坐姿识别的准确率。
在一个示例中,上述步骤102,获取所述图片对应的多张预测图,并获取每张预测图中的至少一个人体预测框的实现过程,如图2所示,包括:
步骤201:通过主干网络对采集的所述图片进行特征提取,得到多张网格图。
这里,主干网络为检测框架中的主干网络。在该示例中,检测框架可采用YOLOv3框架,主干网络优选为轻量级网络,例如Shufflenetv2、Mobile net等。轻量级网络是一种参数量少,计算量小,推理速度快的网络,适用于小型轻便的移动设备。原始的YOLOv3框架使用的是Darknet-53作为主干网络,Darknet-53运行过程中计算量大耗能大,因此将其替换成Shufflenetv2、Mobile net等轻量级网络,可以减少能耗,提高运行速度。
将图片输入检测框架的主干网络中,经过多次下采样处理依次得到多张网格图,这多张网格图的尺寸(即分辨率)依次缩小。该示例中,可获取最后三次下采样处理得到的三张网格图,分别是第一网格图第二网格图和第三网格图。其中,第一网格图尺寸最小,第二网格图尺寸中等,第三网格图尺寸最大。对于主干网络,下采样次数越多,网络学习深度越深,输出的网格图包含的深层特征越多,深层特征是指具有很大的感受野以及丰富的语义信息的特征,更有利于人体坐姿的识别分类。该示例中仅以三张网格图为例进行说明,本公开对于获取的网格图的数量不做限制。
在该示例中,下采样处理是通过主干网络中3×3的卷积核来实现缩小图像的目的,缩小图像的倍数由卷积核的步长(Stride)决定。例如,输入图像的尺寸大小(即分辨率)是224×224,下采样处理次数为5次,步长为2,经过一次下采样处理后,输出图像的尺寸大小为112×112;经过两次下采样处理后,输出图像的尺寸大小为56×56;经过三次下采样处理后输出图像的尺寸大小为28×28;经过四次下采样处理后输出图像的尺寸大小为14×14;经过五次下采样处理后输出图像的尺寸大小为7×7。那么,尺寸大小为56×56的图像即为第三网格图,尺寸大小为14×14的图像即为第二网格图,尺寸大小为7×7的图像即为第一网格图。
另外,在该示例中,下采样次数越多,得到网格图的尺寸越小,而分辨率的降低会导致几何细节信息丢失,不能直接用来进行坐姿识别的分类。因此,可将包含深层特征的网格图通过进一步的卷积处理和上采样处理,以得到尺寸大小合适并且包含更多深层特征的预测图。在一个示例中,主干网络还可通过1×1卷积核对图像进行升维,通过提高图像的维度弥补分辨率降低而损失的信息。图像通过1×1卷积核进行升维后输出图像的维度由该1×1卷积核的数量决定,并且可以根据实际需求对1×1卷积核的数量进行调整。
例如,输入的RGB图像尺寸为416×416,通道数为3,进行升维的1×1卷积核的数量为32个(且每个1×1卷积核的通道数均为3,每个卷积核的通道数与输入该卷积核的图像通道数保持一致),则输出图像大小为416×416×32;对图像416×416×32进行5次下采样处理,每次下采样处理后都会对图像进行升维,经过第一次下采样处理和64个1×1的卷积核升维后输出图像的大小为208×208×64,经过第二次下采样处理和128个1×1的卷积核升维后输出图像的大小为104×104×128,经过第三次下采样处理和256个1×1的卷积核升维后输出第三网格图的大小为52×52×256,经过第四次下采样处理和512个1×1的卷积核升维后输出第二网格图的大小为26×26×512,经过第五次下采样处理和1024个1×1的卷积核升维后输出的第一网格图的大小为13×13×1024。
步骤202:对所述网格图进行卷积处理和上采样处理,得到每张网格图对应的预测图。
在该示例中,卷积处理用于降维,上采样处理用于放大图像,放大图像的倍数与前述下采样处理的缩小倍数保持一致。
在该示例中,承接上述步骤201中第一网格图、第二网格图和第三网格图的例子,得到第一预测图、第二预测图和第三预测图的过程如下:
将第一网格图、第二网格图和第三网格图分别通过卷积处理进行第一次降维;
第一网格图进行一次降维后得到第一预测图;
将第一预测图通过再次卷积处理进行第二次降维,第二次降维得到的图像维度与第二网格图进行第一次降维后的图像的维度一致;
将第二次降维的图像进行第一次上采样处理进行放大图像,得到的放大图像尺寸大小与第二网格图的大小图像一致。第一预测图经过第二次降维和第一次上采样处理的得到图像与第二网格图经过第一次降维得到的图像,两张图像的尺寸和维度一致,再将两张图片进行相加(add)操作后输出第二预测图;
同样的,将第二预测图通过再次卷积处理进行第三次降维,第三次降维的图像维度与第三网格图进行第一次降维后的图像的维度大小一致;将第三次降维的图像进行第二次上采样处理进行放大图像,得到的放大图像尺寸大小与第三网格图的大小图像一致。第二预测图经过第三次降维和第二次上采样处理的得到图像与第三网格图经过第一次降维得到的图像,两张图像的尺寸和维度一致,再将两张图片进行相加操作后输出第三预测图;
例如,先将8×8×1024的第一网格图、16×16×512的第二网格图和32×32×256的第三网格图分别经过卷积处理进行第一次降维后,输出图像的大小为8×8×512、16×16×256和32×32×128。
其中,8×8×512作为第一预测图输出。
将第一预测图8×8×512进行第二次降维和第一次上采样处理后输出16×16×256,其与第二网格图第一次降维得到的16×16×256进行相加操作得到第二预测图16×16×256。
将第二预测图16×16×256进行第三次降维和第二次上采样处理后输出32×32×128,与第三网格图第一次降维得到的32×32×128进行相加操作得到第三预测图32×32×128。
其中,第三预测图的维度最低,但是通过上述的过程可以看出,第三预测图由于经过卷积处理和上采样处理,第三预测图中融合了第一预测图和第二预测图中语义层次更高的特征,因此获取的人体局部特征图包含的特征信息会更全面。
上述,第一预测图的感受野最大,可输出大尺寸人体预测框;第二预测图感受野中等,可输出中等尺寸人体预测框;第三预测图的感受野最小,可输出小尺寸人体预测框。
感受野是指卷积核输出的特征图上的像素点映射回输入图像上的区域大小。感受野越大表示该特征图能接触到的输入图像范围就越大,也意味着特征图蕴含更为全局、语义层次更高的特征,相应输出的人体预测框的尺寸也就越大;相反,感受野越小则表示该特征图上包含的特征越趋向局部和细节,输出的人体预测框的尺寸越小。
在一个示例中,上述步骤103,从维度最低的所述预测图中获取每个所述人体预测框对应的人体局部特征图的过程为:根据人体预测框的尺寸,从维度最低的预测图中裁剪(crop)出每个人体预测框对应的人体局部特征图。承接第三预测图的维度最低的例子,以第三预测图为基础是因为经过卷积处理和上采样处理的第三预测图中融合了第一预测图和第二预测图中语义层次更高的特征,以此获取的人体局部特征图包含的特征信息也更全面。
在一个示例中,由于人体预测框的尺寸大小不一,因而,人体局部特征图的尺寸也是大小不一,为了提高后续神经网络全连接层人体姿态识别准确率,需要基于相同尺寸大小的人体局部特征图进行识别,因此,在获取了每个人体预测框对应的人体局部特征图之后,将每个人体局部特征图的尺寸转换为设定尺寸。
在一个示例中,可通过神经网络的感兴趣区域对齐层(Region Of Interest-Align layer,ROI-Align layer)将所有的人体局部特征图进行对齐,并转为统一尺寸,得到对齐的人体局部特征图。
在一个示例中,步骤104,生成人体局部特征图对应的人体关键点热力图和注意力权重的过程如图3所示,包括:
步骤301:获取人体局部特征图中人体关键点的位置信息;
步骤302:根据人体关键点的位置信息,生成人体关键点热力图和注意力权重;
获取对齐的人体局部特征图中人体关键点的位置信息,利用高斯分布函数生成人体关键点热力图;同时引入热力图注意力机制,将人体关键点的位置信息输入注意力网络中,输出人体关键点热力图的注意力权重。
在一个示例中,步骤104,可将人体局部特征图与对应的注意力权重进行加权相乘后得到加权人体局部特征图。其中,热力图注意力机制的本质是利用人体关键点热力图学习注意力权重,再将注意力权重施加在对应的人体局部特征图上进行加权相乘,进而达到增强特征的目的。
为了实现上述人体坐姿识别的方法,本公开的一个实施例公开了一种人体坐姿识别的装置,如图4所示,包括:
采集模块401,用于采集图片;
第一图片处理模块402,用于获取所述图片对应的多张预测图,并获取每张预测图中的至少一个人体预测框;
第二图片处理模块403,用于从维度最低的所述预测图中获取每个所述人体预测框对应的人体局部特征图;
第三图片处理模块404,用于生成每个所述人体局部特征图对应的人体关键点热力图和注意力权重,并根据所述人体局部特征图与对应的所述注意力权重得到对应的加权人体局部特征图;
输出模块405,用于对所有的加权人体局部特征图进行识别得到所述图片的人体坐姿分类结果。
在一个示例中,所述第一图片处理模块402,用于所述获取所述图片对应的多张预测图,包括:
提取模块,通过主干网络对采集的所述图片进行特征提取,得到多张网格图;
卷积模块和上采样模块,用于对所述网格图进行卷积处理和上采样处理,得到每张网格图对应的预测图;
在一个示例中,所述主干网络为轻量级网络。
在一个示例中,所述第二图片处理模块403,用于从维度最低的所述预测图中获取每个所述人体预测框对应的人体局部特征图,包括:
裁剪模块,用于根据所述人体预测框的尺寸,从所述维度最低的所述预测图中裁剪出所述人体预测框对应的人体局部特征图。
在一个示例中,所述第二图片处理模块403,用于获取每个所述人体预测框对应的人体局部特征图之后,该方法还包括:
转换模块,用于将每个所述人体局部特征图的尺寸转换为设定尺寸。
在一个示例中,所述第三图片处理模块404,用于生成每个所述人体局部特征图对应的人体关键点热力图和注意力权重,包括:
获取模块,用于获取所述人体局部特征图中人体关键点的位置信息;
生成模块,用于根据所述人体关键点的位置信息,生成所述人体关键点热力图和所述注意力权重。
在一个示例中,所述第三图片处理模块404,用于根据所述人体局部特征图与对应的所述注意力权重得到对应的加权人体局部特图,包括:
加权模块,用于将所述人体局部特征图与对应的所述注意力权重进行加权相乘后得到所述加权人体局部特征图。
采用本公开的人体坐姿识别装置,通过引入热力图注意力机制,输出人体局部特征图对应的人体关键点热力图和注意力权重,人体局部特征图与注意力权重进行加权突出人体特征,抑制背景信息,提高对人体坐姿识别的准确率。
为了实现上述人体坐姿识别的方法,本公开的一个实施例公开了一种人体坐姿识别的训练方法,如图5所示,该方法如下:
步骤501:采集图片;
步骤502:通过检测框架获取所述图片对应的多张预测图,并预测每张预测图中的至少一个人体预测框;
步骤503:目标框(ground truth box)是在采集图片上人工标注的框,存放在标注文件中,每张采集的图片中包含至少一个目标框。输入目标框作为人体预测框的训练目标计算第一损失值,通过监督检测框架输出人体预测框的学习训练,降低第一损失值,直到第一损失值满足预设条件,那么采用此时的检测框架来进行人体预测框的检测;
步骤504:通过训练好的检测框架获取到多张预测图后,从维度最低的预测图中获取每个所述目标框对应的人体局部特征图;
步骤505:生成人体局部特征图对应的人体关键点热力图和注意力权重,并根据人体局部特征图与对应的所述注意力权重得到对应的加权人体局部特征图;
步骤506:目标关键点(ground truth keypoint)是在采集图片上人工标注的人体关键点,存放在标注文件中,每张采集的图片中包含至少一个关键点。输入目标关键点是人体关键点热力图作为训练目标计算第二损失值,通过监督人体关键点热力图的学习训练,降低第二损失值,直到第二损失值满足预设条件,那么输出此时的注意力权重,用作与人体局部特征图进行加权相乘;
步骤507:对所有的人体局部特征图进行识别得到所述图片的人体坐姿分类结果;
步骤508:人体坐姿分类目标(generate claissfy ground truth)是对采集图片进行人工标注分类的结果,存放在标注文件中,每张采集的图片中包含至少一种人体坐姿分类结果。输入人体坐姿分类目标作为人体坐姿分类结果的训练目标计算第三损失函数,通过监督人体坐姿分类的学习训练,实时更新神经网络的参数降低第三损失函数,直到第三损失值满足预设条件,那么输出此时的人体坐姿识别分类结果;
步骤509:第一损失值、第二损失值和第三损失值加权,实时更新网络梯度,降低损失值直至满足预设条件,提高人体坐姿的识别准确率。
采用上述方法训练本公开的人体坐姿识别方法,通过引入热力图注意力机制,输出人体局部特征图对应的人体关键点热力图和注意力权重,人体局部特征图与注意力权重进行加权突出人体特征,抑制背景信息,提高对人体坐姿识别的准确率。
本公开的技术方案中,所涉及的用户个人信息的获取,存储和应用等,均符合相关法律法规的规定,且不违背公序良俗。
根据本公开的实施例,本公开还提供了一种电子设备和一种可读存储介质。
在一个示例中,本公开提供一种存储有计算机指令的非瞬时计算机可读存储介质,其中所述计算机指令用于使所述计算机执行所述的人体坐姿识别方法。
在一个示例中,本公开提供了一种计算机程序产品,包括计算机程序,所述计算机程序在被处理器执行时实现所述的人体坐姿识别方法。
在一个示例中,本公开提供了一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行所述的人体坐姿识别方法。
图6示出了可以用来实施本公开的实施例的实施例电子设备300的示意性框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为实施例,并且不意在限制本文中描述的和/或者要求的本公开的实现。
如图6所示,设备600包括计算单元601,其可以根据存储在只读存储器(ROM)602中的计算机程序或者从存储单元608加载到随机访问存储器(RAM)603中的计算机程序,来执行各种适当的动作和处理。在RAM 603中,还可存储设备600操作所需的各种程序和数据。计算单元601、ROM 602以及RAM 603=3通过总线604彼此相连。输入/输出(I/O)接口605也连接至总线604。
设备600中的多个部件连接至I/O接口605,包括:输入单元606,例如键盘、鼠标等;输出单元607,例如各种类型的显示器、扬声器等;存储单元608,例如磁盘、光盘等;以及通信单元609,例如网卡、调制解调器、无线通信收发机等。通信单元609允许设备600通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据。
计算单元601可以是各种具有处理和计算能力的通用和/或专用处理组件。计算单元601的一些实施例包括但不限于中央处理单元(CPU)、图形处理单元(GPU)、各种专用的人工智能(AI)计算芯片、各种运行机器学习模型算法的计算单元、数字信号处理器(DSP)、以及任何适当的处理器、控制器、微控制器等。计算单元601执行上文所描述的各个方法和处理,例如人体坐姿识别的方法。例如,在一些实施例中,人体坐姿识别的方法可被实现为计算机软件程序,其被有形地包含于机器可读介质,例如存储单元608。在一些实施例中,计算机程序的部分或者全部可以经由ROM 602和/或通信单元609而被载入和/或安装到设备600上。当计算机程序加载到RAM 603并由计算单元601执行时,可以执行上文描述的人体坐姿识别方法的一个或多个步骤。备选地,在其他实施例中,计算单元601可以通过其他任何适当的方式(例如,借助于固件)而被配置为执行人体坐姿识别的方法。
本文中以上描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、芯片上系统的系统(SOC)、负载可编程逻辑设备(CPLD)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
用于实施本公开的方法的程序代码可以采用一个或多个编程语言的任何组合来编写。这些程序代码可以提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器或控制器,使得程序代码当由处理器或控制器执行时使流程图和/或框图中所规定的功能/操作被实施。程序代码可以完全在机器上执行、部分地在机器上执行,作为独立软件包部分地在机器上执行且部分地在远程机器上执行或完全在远程机器或服务器上执行。
在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体实施例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的实施例包括:局域网(LAN)、广域网(WAN)和互联网。
计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。服务器可以是云服务器,也可以为分布式系统的服务器,或者是结合了区块链的服务器。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本发公开中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本公开公开的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本公开保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本公开的精神和原则之内所作的修改、等同替换和改进等,均应包含在本公开保护范围之内。
Claims (11)
1.一种人体坐姿识别方法,包括:
采集图片;
获取所述图片对应的多张预测图,并获取每张预测图中的至少一个人体预测框;
从维度最低的所述预测图中获取每个所述人体预测框对应的人体局部特征图;
生成每个所述人体局部特征图对应的人体关键点热力图和注意力权重,并根据所述人体局部特征图与对应的所述注意力权重得到对应的加权人体局部特征图;
对所有的加权人体局部特征图进行识别得到所述图片的人体坐姿分类结果。
2.根据权利要求1所述的方法,其中,所述获取所述图片对应的多张预测图,包括:
通过主干网络对采集的所述图片进行特征提取,得到多张网格图;
对所述网格图进行卷积处理和上采样处理,得到每张网格图对应的预测图。
3.根据权利要求1所述的方法,其中,所述主干网络为轻量级网络。
4.根据权利要求1所述的方法,其中,所述从维度最低的所述预测图中获取每个所述人体预测框对应的人体局部特征图,包括:
根据所述人体预测框的尺寸,从所述维度最低的所述预测图中裁剪出所述人体预测框对应的人体局部特征图。
5.根据权利要求1或4所述的方法,其中,所述获取每个所述人体预测框对应的人体局部特征图之后,该方法还包括:
将每个所述人体局部特征图的尺寸转换为设定尺寸。
6.根据权利要求5所述的方法,其中,所述生成每个所述人体局部特征图对应的人体关键点热力图和注意力权重,包括:
获取所述人体局部特征图中人体关键点的位置信息;
根据所述人体关键点的位置信息,生成所述人体关键点热力图和所述注意力权重。
7.根据权利要求1所述的方法,其中,所述根据所述人体局部特征图与对应的所述注意力权重得到对应的加权人体局部特征图,包括:
将所述人体局部特征图与对应的所述注意力权重进行加权相乘后得到所述加权人体局部特征图。
8.一种人体坐姿识别的装置,包括:
采集模块,用于采集图片;
第一图片处理模块,用于获取所述图片对应的多张预测图,并获取每张预测图中的至少一个人体预测框;
第二图片处理模块,用于从维度最低的所述预测图中获取每个所述人体预测框对应的人体局部特征图;
第三图片处理模块,生成每个所述人体局部特征图对应的人体关键点热力图和注意力权重,并根据所述人体局部特征图与对应的所述注意力权重得到对应的加权人体局部特征图;
输出模块,对所有的加权人体局部特征图进行识别得到所述图片的人体坐姿分类结果。
9.一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-7中任一项所述的方法。
10.一种存储有计算机指令的非瞬时计算机可读存储介质,其中,所述计算机指令用于使所述计算机执行根据权利要求1-7中任一项所述的方法。
11.一种计算机程序产品,包括计算机程序,所述计算机程序在被处理器执行时实现根据权利要求1-7中任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111280100.0A CN114049684A (zh) | 2021-10-29 | 2021-10-29 | 一种人体坐姿识别方法、装置、电子设备和存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111280100.0A CN114049684A (zh) | 2021-10-29 | 2021-10-29 | 一种人体坐姿识别方法、装置、电子设备和存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114049684A true CN114049684A (zh) | 2022-02-15 |
Family
ID=80206575
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111280100.0A Pending CN114049684A (zh) | 2021-10-29 | 2021-10-29 | 一种人体坐姿识别方法、装置、电子设备和存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114049684A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114419738A (zh) * | 2022-03-29 | 2022-04-29 | 北京市商汤科技开发有限公司 | 一种姿态检测方法、装置、电子设备以及存储介质 |
-
2021
- 2021-10-29 CN CN202111280100.0A patent/CN114049684A/zh active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114419738A (zh) * | 2022-03-29 | 2022-04-29 | 北京市商汤科技开发有限公司 | 一种姿态检测方法、装置、电子设备以及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3940591A1 (en) | Image generating method, neural network compression method, and related apparatus and device | |
CN112598643B (zh) | 深度伪造图像检测及模型训练方法、装置、设备、介质 | |
CN113936256A (zh) | 一种图像目标检测方法、装置、设备以及存储介质 | |
CN108229418B (zh) | 人体关键点检测方法和装置、电子设备、存储介质和程序 | |
CN110443258B (zh) | 文字检测方法、装置、电子设备及存储介质 | |
CN111985374B (zh) | 人脸定位方法、装置、电子设备及存储介质 | |
CN112784778B (zh) | 生成模型并识别年龄和性别的方法、装置、设备和介质 | |
CN113239807B (zh) | 训练票据识别模型和票据识别的方法和装置 | |
CN113869449A (zh) | 一种模型训练、图像处理方法、装置、设备及存储介质 | |
CN113902010A (zh) | 分类模型的训练方法和图像分类方法、装置、设备和介质 | |
CN114120454A (zh) | 活体检测模型的训练方法、装置、电子设备及存储介质 | |
CN114049684A (zh) | 一种人体坐姿识别方法、装置、电子设备和存储介质 | |
CN110334775A (zh) | 一种基于宽度学习的无人机线路故障识别方法和装置 | |
CN113688826A (zh) | 基于特征融合的花粉图像检测方法及系统 | |
CN114724144B (zh) | 文本识别方法、模型的训练方法、装置、设备及介质 | |
CN110598702A (zh) | 一种船舰目标检测数据集的制备方法、系统、设备及介质 | |
CN112560848B (zh) | 兴趣点poi预训练模型的训练方法、装置及电子设备 | |
CN115294405A (zh) | 农作物病害分类模型的构建方法、装置、设备及介质 | |
CN114913339A (zh) | 特征图提取模型的训练方法和装置 | |
CN113989845A (zh) | 姿态分类方法和姿态分类模型的训练方法、装置 | |
CN114842238A (zh) | 一种嵌入式乳腺超声影像的识别方法 | |
CN112785501A (zh) | 文字图像的处理方法、装置、设备和存储介质 | |
CN115147902B (zh) | 人脸活体检测模型的训练方法、装置及计算机程序产品 | |
Choudhary et al. | An Optimized Sign Language Recognition Using Convolutional Neural Networks (CNNs) and Tensor-Flow | |
CN111724337B (zh) | 一种冷床冲顶识别方法、系统、电子设备及介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |