CN113095106A - 一种人体姿态估计方法、装置 - Google Patents
一种人体姿态估计方法、装置 Download PDFInfo
- Publication number
- CN113095106A CN113095106A CN201911336949.8A CN201911336949A CN113095106A CN 113095106 A CN113095106 A CN 113095106A CN 201911336949 A CN201911336949 A CN 201911336949A CN 113095106 A CN113095106 A CN 113095106A
- Authority
- CN
- China
- Prior art keywords
- human body
- image
- processed
- module
- network module
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 99
- 238000003062 neural network model Methods 0.000 claims abstract description 78
- 238000010586 diagram Methods 0.000 claims abstract description 48
- 208000037170 Delayed Emergence from Anesthesia Diseases 0.000 claims description 85
- 238000004364 calculation method Methods 0.000 claims description 49
- 230000015654 memory Effects 0.000 claims description 35
- 238000000605 extraction Methods 0.000 claims description 28
- 238000012545 processing Methods 0.000 claims description 27
- 230000006870 function Effects 0.000 claims description 22
- 238000001514 detection method Methods 0.000 claims description 17
- 238000004590 computer program Methods 0.000 claims description 16
- 238000010606 normalization Methods 0.000 claims description 10
- 238000003860 storage Methods 0.000 claims description 8
- 230000004927 fusion Effects 0.000 claims description 7
- 230000009466 transformation Effects 0.000 claims description 7
- 238000012905 input function Methods 0.000 claims description 6
- 230000001131 transforming effect Effects 0.000 claims description 5
- 230000000694 effects Effects 0.000 abstract description 15
- 230000005540 biological transmission Effects 0.000 abstract description 10
- 238000013528 artificial neural network Methods 0.000 description 84
- 230000036544 posture Effects 0.000 description 55
- 230000008569 process Effects 0.000 description 33
- 230000007246 mechanism Effects 0.000 description 14
- 239000011159 matrix material Substances 0.000 description 11
- 238000012549 training Methods 0.000 description 10
- 210000000746 body region Anatomy 0.000 description 9
- 238000004891 communication Methods 0.000 description 9
- 230000002776 aggregation Effects 0.000 description 8
- 238000004220 aggregation Methods 0.000 description 8
- 238000013461 design Methods 0.000 description 8
- 210000003414 extremity Anatomy 0.000 description 7
- 238000011176 pooling Methods 0.000 description 6
- 238000005070 sampling Methods 0.000 description 6
- 239000000284 extract Substances 0.000 description 5
- 238000005457 optimization Methods 0.000 description 5
- 230000009471 action Effects 0.000 description 4
- 210000002310 elbow joint Anatomy 0.000 description 4
- 238000011160 research Methods 0.000 description 4
- 238000004422 calculation algorithm Methods 0.000 description 3
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 238000009826 distribution Methods 0.000 description 3
- 210000000629 knee joint Anatomy 0.000 description 3
- 230000011218 segmentation Effects 0.000 description 3
- 238000012360 testing method Methods 0.000 description 3
- 238000013519 translation Methods 0.000 description 3
- 238000009825 accumulation Methods 0.000 description 2
- 238000013459 approach Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 2
- 238000012512 characterization method Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 230000004931 aggregating effect Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 210000000544 articulatio talocruralis Anatomy 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 125000004122 cyclic group Chemical group 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000010339 dilation Effects 0.000 description 1
- 238000005538 encapsulation Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 210000002683 foot Anatomy 0.000 description 1
- 210000004247 hand Anatomy 0.000 description 1
- 238000012615 high-resolution technique Methods 0.000 description 1
- 238000007654 immersion Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000003780 insertion Methods 0.000 description 1
- 230000037431 insertion Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000011897 real-time detection Methods 0.000 description 1
- 230000006798 recombination Effects 0.000 description 1
- 238000005215 recombination Methods 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 229920002803 thermoplastic polyurethane Polymers 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
- 210000003857 wrist joint Anatomy 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
Abstract
本申请公开了一种人体姿态估计方法、装置,用于改善现有技术中人体姿态估计方法效果差的技术问题。方法包括:将待处理图像输入预先训练的包含非局部网络模块和至少一级高分辨率网络模块的神经网络模型;基于非局部网络模块提取待处理图像的特征信息生成待处理图像的特征图;基于至少一级高分辨率网络模块对特征图进行计算,获得人体姿态估计结果。本申请基于非局部网络模块可以实现对人体关节点相对位置关系的更精细的描述,解决复杂场景下人体姿态估计难的问题,同时结合高分辨率网络模块保证整个模型传递过程中均保持有高分辨率的表示,进而减少图像信息在传递过程中的损失,进而从整体上提高模型预测精准性。
Description
技术领域
本申请涉及图像处理领域,尤其涉及一种人体姿态估计方法、装置。
背景技术
电子设备对人体的姿态进行准确的识别是电子设备与用户成功交互的前提。例如,对于服务型机器人来说,准确识别用户的吃饭动作是其能够执行为用户收拾餐桌这一动作的前提;又如,对于(virtual reality,VR)游戏来说,对用户动作捕捉并给出对应响应,是VR设备给用户以沉浸感的关键。而人体的动作一般由一系列的人体姿态组成,因此,准确识别人体姿态在识别人体动作方面具有重要的意义。
近年来,研究人员提出了多种人体姿态估计方法,目前主流的人体姿态估计方法主要分为自顶向下和自底向上两种主流方法。自顶向下:先检测出每个人体,然后再检测每个人体的关节点进行姿态估计;自底向上:先检测出所有的关节点,然后再判断每一个关节点属于哪一个人。但是,这两种方法都容易受到人体部位遮挡、背景混淆等因素的影响,导致姿态估计效果差。
发明内容
本申请提供一种人体姿态估计方法、装置,用于改善现有技术中人体姿态估计方法效果差的技术问题。
第一方面,本申请实施例提供一种人体姿态估计方法,包括:将待处理图像输入预先训练的神经网络模型,其中,所述待处理图像中包括人体,所述神经网络模型包括非局部网络模块和至少一级高分辨率网络模块;基于所述非局部网络模块提取所述待处理图像的特征信息,生成所述待处理图像的特征图,所述特征信息包括所述人体所在区域的每个像素与所述人体所在区域的其他像素的相关信息;基于所述至少一级高分辨率网络模块对所述特征图进行计算,获得所述待处理图像中所述人体的姿态估计结果。
本申请实施例通过在神经网络模型中插入非局部网络模块,使得神经网络模型在提取图像的特征信息时,可以基于非局部网络模块将每个人体上的像素点与该像素点所在人体范围内的其它所有像素进行关联,计算出该像素点与该像素点所在人体范围内的其它所有像素的相关信息,实现神经网络模型对人体关节点相对位置关系的更精细的描述,进而高层网络模块在对特征图进行计算预测关键点位置时,就会考虑到不同像素之间的位置相关性,可以提高人体姿态估计的精准性,解决密集人群中人体部位遮挡、背景混淆等复杂场景下人体姿态估计难的问题。另外,神经网络模型的高层网络模块使用高分辨率网络模块构建,能够保证图像在高分辨率网络模块的整个计算过程中均保持有高分辨率的表示,进而有效减少图像在模型传递过程中的信息损失,进一步提高人体姿态估计的精准性。
一种可能的实施方式中,所述神经网络模型还包括至少一个m×m卷积模块,m为奇数;所述非局部网络模块设置在所述至少一个卷积模块之后,所述至少一级高分辨率网络模块之前;在基于所述非局部网络模块提取所述待处理图像的特征信息之前,还包括:基于所述至少一个卷积模块对所述待处理图像中所述人体所在区域上的若干个m×m大小的区域进行初步特征提取,获得所述待处理图像的初始特征信息,并基于所述初始特征信息生成所述待处理图像的初始特征图;则基于所述非局部网络模块提取所述待处理图像的特征信息,包括:将所述初始特征图输入所述非局部网络模块,计算所述待处理图像中所述人体所在区域的每个像素与所述人体所在区域的其他像素的相关信息,基于所述初始特征信息以及所述相关信息生成所述待处理图像的特征图。
本实施方式中,将非局部模块设置在神经网络模型的浅层(至少一个m×m卷积模块和高分辨网络模块之间),可以获得良好的特征提取结果,实现神经网络模型对人体关节点相对位置关系的更精细的描述,可以提高人体姿态估计的精准性。
一种可能的实施方式中,所述初始特征信息可以包括像素值、颜色特征、纹理特征、形状特征或空间关系特征等中的一项或多项;所述相关信息可以包括空间关系、颜色关系、纹理关系或形状关系等中的一项或多项。
本实施方式提供了初始特征信息、相关信息多种具体实现形式,在提高方案灵活性的同事,可以进一步提高人体姿态估计的精准性。
一种可能的实施方式中,所述非局部网络模块具体可以按照如下公式计算所述待处理图像中所述人体所在区域的每个像素与所述人体所在区域的其他像素的相关信息:
zi=Wzyi+xi (2)
其中,f为配对计算函数,用于计算像素Xi和像素Xj的相关信息;yi为所述人体所在区域上像素Xj与所述人体所在区域上的所有其他像素的相关信息;g(xj)为一元输入函数,用于变换不同的像素Xj;C(x)为归一化函数,保证变换yi前后整体信息不变,x为输入的所述人体所在区域的图像;j为所述人体所在区域上的其他像素的标识;zi为non-local网络模块输出的特征图;Wz为权重值;+xi表示一个残差连接。
本实施方式给出了非局部网络模块实现相关信息计算的具体方法,保证了方案的可靠性。
一种可能的实施方式中,所述高分辨率网络模块可以包括多个交换模块,所述高分辨率网络模块中的每个交换模块包括至少两个并联连接的残差块,所述每个交换模块中第n个残差块的分辨率为c/An-1,所述第n个残差块的输出通道为C0×Bn-1,其中c等于所述非局部网络模块的分辨率大小,n为正整数,A、B为大于1的正整数,C0为所述非局部网络模块的输出通道数。
本实施方式中,高分辨网络模块包括交换模块,每个交换模块由至少两个残差块组成的并联结构,每个并联结构中至少有一个通道保持高分辨率的输出(例如和non-local网络模块输出的分辨率一致),这样可以保证图像在高分辨率网络模块的整个计算过程中均保持有高分辨率的表示,进而有效减少图像在模型传递过程中的信息损失,提高人体姿态估计的精准性。
一种可能的实施方式中,所述高分辨率网络模块还可以包括多个交换单元,所述交换单元和所述交换模块按照预定次序交替连接,所述交换单元用于对输入的特征图进行多尺度融合。
本实施方式中,使用交换单元将相邻的交换模块进行连接,通过交换单元完成重复的多尺度融合,进一步提高人体姿态估计的精准性。
一种可能的实施方式中,所述残差块可以由多个相同类型的残差单元串联而成,例如,通过4个相同类型的残差单元串联而成。
本实施方式中,给出了残差块的具体结构,保证了方案的可靠性。
一种可能的实施方式中,每级所述高分辨率网络模块可以由至少两个阶段串行连接,每个阶段可以包括至少一个所述交换模块;其中,相邻两个阶段中的前一个阶段中每个交换模块的残差块的数量不超过后一个阶段中每个交换模块的残差块的数量。
本实施方式中,每个交换模块的残差块的数量随着阶段从前到后的方向组件增加,可以实现高分辨网络模块由粗到精的网络架构,进一步提高人体姿态估计的精准性。
一种可能的实施方式中,在将待处理图像输入预先训练的神经网络模型之前,还可以检测所述待处理图像中的人体,确定出所述待处理图像中所述人体所在区域。
本实施方式中,在将待处理图像输入预先训练的神经网络模型之前先确定出待处理图像中所述人体所在区域,这样后层网络模块在提取待处理图像的特征信息时,就可以只对人体区域图像进行特征提取,可以有效减少模型的计算量,提高模型的预测效率。
第二方面,本申请实施例提供一种识别人体姿态的装置,包括:输入单元,用于将待处理图像输入预先训练的神经网络模型,其中,所述待处理图像中包括人体,所述神经网络模型包括非局部网络模块和至少一级高分辨率网络模块;提取单元,用于基于所述非局部网络模块提取所述待处理图像的特征信息,生成所述待处理图像的特征图,所述特征信息包括所述人体所在区域的每个像素与所述人体所在区域的其他像素的相关信息;计算单元,用于基于所述至少一级高分辨率网络模块对所述特征图进行计算,获得所述待处理图像中所述人体的姿态估计结果。
一种可能的实施方式中,所述神经网络模型还包括至少一个m×m卷积模块,m为奇数;所述非局部网络模块设置在所述至少一个卷积模块之后,所述至少一级高分辨率网络模块之前;所述提取单元用于:基于所述至少一个卷积模块对所述待处理图像中所述人体所在区域上的若干个m×m大小的区域进行初步特征提取,获得所述待处理图像的初始特征信息,并基于所述初始特征信息生成所述待处理图像的初始特征图;将所述初始特征图输入所述非局部网络模块,计算所述待处理图像中所述人体所在区域的每个像素与所述人体所在区域的其他像素的相关信息,基于所述初始特征信息以及所述相关信息生成所述待处理图像的特征图。
一种可能的实施方式中,所述初始特征信息包括像素值、颜色特征、纹理特征、形状特征或空间关系特征中的一项或多项;所述相关信息包括空间关系、颜色关系、纹理关系或形状关系中的一项或多项。
一种可能的实施方式中,所述提取单元用于:按照如下公式计算所述待处理图像中所述人体所在区域的每个像素与所述人体所在区域的其他像素的相关信息:
zi=Wzyi+xi (2)
其中,f为配对计算函数,用于计算像素Xi和像素Xj的相关信息;yi为所述人体所在区域上像素Xj与所述人体所在区域上的所有其他像素的相关信息;g(xj)为一元输入函数,用于变换不同的像素Xj;C(x)为归一化函数,保证变换yi前后整体信息不变,x为输入的所述人体所在区域的图像;j为所述人体所在区域上的其他像素的标识;zi为non-local网络模块输出的特征图;Wz为权重值;+xi表示一个残差连接。
一种可能的实施方式中,所述高分辨率网络模块包括多个交换模块,所述高分辨率网络模块中的每个交换模块包括至少两个并联连接的残差块,所述每个交换模块中第n个残差块的分辨率为c/An-1,所述第n个残差块的输出通道为C0×Bn-1,其中c等于所述非局部网络模块的分辨率大小,n为正整数,A、B为大于1的正整数,C0为所述非局部网络模块的输出通道数。
一种可能的实施方式中,所述高分辨率网络模块还包括多个交换单元,所述交换单元和所述交换模块按照预定次序交替连接,所述交换单元用于对输入的特征图进行多尺度融合。
一种可能的实施方式中,所述残差块由多个相同类型的残差单元串联而成。
一种可能的实施方式中,每级所述高分辨率网络模块由至少两个阶段串行连接,每个阶段包括至少一个所述交换模块;其中,相邻两个阶段中的前一个阶段中每个交换模块的残差块的数量不超过后一个阶段中每个交换模块的残差块的数量。
一种可能的实施方式中,所述装置还报考检测单元,用于所述输入单元在将待处理图像输入预先训练的神经网络模型之前,检测所述待处理图像中的人体,确定出所述待处理图像中所述人体所在区域。
第三方面,本申请实施例提供一种电子设备,包括处理器和存储器;所述存储器用于存储一个或多个计算机程序;当所述存储器存储的一个或多个计算机程序被所述处理器执行时,使得所述电子设备执行如本申请实施例第一方面或第一方面任一种可能的实施方式中所述的方法。
第四方面,本申请实施例提供一种计算机可读存储介质,所述计算机可读存储介质包括计算机程序,当计算机程序在电子设备上运行时,使得所述电子设备执行如本申请实施例第一方面或第一方面任一种可能的实施方式中所述的方法。
第五方面,本申请实施例还提供一种包含计算机程序产品,当所述计算机程序产品在终端上运行时,使得所述电子设备执行如本申请实施例第一方面或第一方面任一种可能的实施方式中所述的方法。
本申请的这些方面或其他方面在以下实施例的描述中会更加简明易懂。
附图说明
图1为本申请实施例适用的一种电子设备的结构示意图;
图2为本申请实施例提供的一种神经网络模型的结构示意图;
图3为本申请实施例提供的另一种神经网络模型的结构示意图;
图4为本申请实施例中姿态估计的关键点的示意图;
图5为non_local block的结构示意图;
图6为残差块的结构示意图;
图7为两种可能的残差单元的结构示意图;
图8为交换模块与交换单元连接方式的示意图;
图9为高分辨率网络模块的一种可能的结构示意图;
图10为本申请实施例中神经网络模型的训练过程示意图;
图11为本申请实施例中人体姿态估计的方法的流程图;
图12为高分辨率表征网络HRNet-W32的结构示意图;
图13为HRNet-W32模型与本申请神经网络模型的预测效果对比图;
图14为HRNet-W32模型与本申请神经网络模型的预测效果对比图;
图15为本申请实施例中一种人体姿态估计装置的结构示意图;
图16为本申请实施例中一种电子设备的结构示意图。
具体实施方式
人体姿态估计由于重要的应用价值和理论意义而受到越来越多的关注。单人人体姿态估计研究目前已经达到了较高的精度,提高空间比较小,现在大多数学者的研究方向聚焦于多人人体姿态估计方面。
在多人检测中,主流的人体姿态估计方法主要有以下两种:
(1)自顶向下
自顶向下方法主要包括两个步骤:第一,利用人体检测器检测到人体,并判断出人体的所在的位置,标识出每个人体的边缘。第二,在确定人体后,再独立对单人人体的关键点进行预测,最终达到姿态预测。
Papandreou等人使用了扩张卷积的ResNet,这在语义分割和计算关键点热图和偏移输出方面非常成功。与高斯热图不同的是,作者估计了一个圆盘形状的关键点遮罩和二维偏移矢量场来精确定位关键点。Xia等人提出了人体检测方法的关节部分分割和关键点检测。作者使用单独的PoseFCN和PartFCN来获得部件掩模和位置,并将它们与完全连接的CRF融合。通过消除不相关的检测,这提供了更一致的预测。Fang等人提出使用空间变压器网络(spatial transformer networks)来处理不准确的包围盒,并且使用堆叠的沙漏块。他们在他们的Mask-RCNN模型中结合了实例分割和关键点预测,另外在RoI对齐的特征图(feature maps)上附加关键点头,以便为每个关键点获得一个热掩码。Chen等人在特征金字塔网络的基础上开发了用于多尺度推理的全局网络,并利用超特征细化了预测。
目前,自顶向下的人体姿态估计方法面临着一些困难和挑战。例如,在人体部位被遮挡,背景复杂(例如人体密集)且容易混淆的情况下,姿态检测的效果往往较差。同时,对于复杂的姿态,自顶向下的方法也难以胜任。另外,当图像中的人数增多时,这种方法的时间开销也会随着人数增加呈比例增长。
(2)自底向上
自底向上的人体姿态估计算法主要包含关键点的检测和聚类两个部分,其中关键点检测和单人的关键点检测方法相近,区别在于多人的关键点检测需要将图片中所有类别的所有关键点全部检测出来,然后对这些关键点进行聚类处理,将不同人的不同关键点连接在一块,从而聚类产生不同的个体。
在相关技术中,Zhe Cao在开放式(openpose)方法中通过对人体的不同肢体结构进行建模,使用向量场来模拟不同肢体结构,解决了单纯使用中间点是否在肢干上造成的错连问题。如果只使用中间点对肢干进行建模,并且中间点都在对应的肢干上,则判断两个关键点处在该肢干的两端,这样就会出现错连情况。而向量场则不仅使用中间点来建模肢干,而且在中间的位置之外还给每个中间点加上了方向的信息,这样就能解决出现的错连问题。该方法能够针对多人做到实时检测,但在多尺度、模糊等场景下,模型性能损耗较大,易出现关键点漏检、错连等错误。
目前,自底向上的人体姿态估计方法的准确率不理想,相对于自顶向下方法准确率更差。主要是因为自底向上的人体姿态估计方法错过了放大每个人体实例细节的机会。另外,在遮挡、多尺度等复杂场景下,自底向上的人体姿态估计方法和自顶向下一样,易出现漏检、错连等情况。
通过上述描述可知,无论是自顶向下的方法还是自底向上的方法,对于遮挡、背景混淆等复杂场景下的姿态估计准确性都较差。
不仅如此,目前的预测模型基本都使用了大量的下采样和上采样,并进行了串行连接,这就造成了图像信息在模型的传递过程中有着较大的损失,这也会对模型的预测精度造成影响。
针对上述一个或多个技术问题,本申请实施例提供一种人体姿态估计方案。通过在神经网络模型的浅层位置中插入非局部(non-local)网络模块,使得神经网络模型在提取图像的特征信息时,可以基于non-local网络模块将每个人体上的像素点与该像素点所在人体范围内的其它所有像素进行关联,计算出该像素点与该像素点所在人体范围内的其它所有像素的相关信息,这样获得的特征图(feature maps)中就会包含每个人体范围内所有像素之间的相关信息(例如空间关系)。因为人体范围内像素的分布情况最终会决定人体姿态,例如手脚关节点的相对位置不同便会形成不同的人体姿态,而这种抽象的关节点相对位置关系其实就是像素之间的一种依赖关系,通过non-local网络模块,可以有效捕捉图像中像素间的依赖关系,实现神经网络模型对人体关节点相对位置关系的更精细的描述,进而高层网络模块(non-local网络模块之后的网络模块)在对特征图进行计算预测关键点位置时,就会考虑到不同像素之间的位置相关性,可以提高人体姿态估计的精准性,解决密集人群中人体部位遮挡、背景混淆等复杂场景下人体姿态估计难的问题。
另外,针对图像信息在模型传递过程中由于下采样和上采样造成信息损失进而导致模型预测精度下降的问题,本申请实施例中的神经网络模型的高层网络模块(non-local网络模块之后的网络模块)还使用高分辨率网络模块构建。示例性的,高分辨网络模块由若干交换单元和交换模块按照预定次序交替串接而成,每个交换模块由至少两个残差块组成的并联结构,每个并联结构中至少有一个通道保持高分辨率的输出(例如和non-local网络模块输出的分辨率一致),这样可以保证图像在高分辨率网络模块的整个计算过程中均保持有高分辨率的表示,进而有效减少图像在模型传递过程中的信息损失,进一步提高人体姿态估计的精准性。
为了使得本申请的实施例更容易被理解,下面,对本申请的实施例中涉及的一些描述加以说明,以便与本领域技术人员理解。
1)、注意力(attention)机制:目前,注意力机制被广泛应用于机器翻译、自然语言处理、计算机视觉领域当中。注意力是一种机制,或者方法论,并没有严格的数学定义。例如,传统的局部图像特征提取、显著性检测、滑动窗口方法等都可以看作一种注意力机制。在神经网络中,注意力模块通常是一个额外的神经网络,能够强制性地选择输入的某些部分,或者给输入的不同部分分配不同的权重。这使得网络得以选择一些关键的信息输入进行处理,从而提高了神经网络的效率。
随着注意力机制的深入研究,各式各样的attention机制被提出。其中,2017年google机器翻译团队发表的论文《Attention is all you need》,它所提出的自注意力机制(self-attention)开始成为神经网络中attention机制的研究热点,并且在多个相关任务上取得了不错的效果。
2)、非局部(non-local)网络:2017年,CMU发表在CVPR的论文《non-local NeuralNetworks》,它提出的non-local网络和自注意力机制(self-attention)具有一定的相关性,但是自注意力机制仅适用于机器翻译领域,而非局部网络更具一般性,适用于计算机视觉的图像和视频问题。在本申请实施例中,创造性地将非局部(non-local)网络引入图像处理领域,借助non-local网络的思想提高图像处理领域中对人体姿态估计的准确率。
3)高分辨率技术:是Ke Sun等人提出了一种高分辨率网络技术。本申请实施例中的高分辨网络拥有与众不同的并联结构,可以在神经网络模型的任何阶段随时保持高分辨率表征,而不只是靠从低分辨率表征里恢复高分辨率表征。
4)图像特征:图像特征主要有图像的像素值、颜色特征、纹理特征、形状特征和空间关系特征等。
图像的像素值可以是一个红绿蓝(RGB)颜色值,像素值可以是表示颜色的长整数。例如,像素值为256*Red+100*Green+76Blue,其中,Blue代表蓝色分量,Green代表绿色分量,Red代表红色分量。各个颜色分量中,数值越小,亮度越低,数值越大,亮度越高。对于灰度图像来说,像素值可以是灰度值。
颜色特征是一种全局特征,描述了图像或图像区域所对应的景物的表面性质;一般颜色特征是基于像素点的特征,此时所有属于图像或图像区域的像素都有各自的贡献。
纹理特征也是一种全局特征,它也描述了图像或图像区域所对应景物的表面性质。与颜色特征不同,纹理特征不是基于像素点的特征,它需要在包含多个像素点的区域中进行统计计算。
形状特征有两类表示方法,一类是轮廓特征,另一类是区域特征,图像的轮廓特征主要针对物体的外边界,而图像的区域特征则关系到整个形状区域。
空间关系特征,是指图像中分割出来的多个目标之间的相互的空间位置或相对方向关系,这些关系也可分为连接/邻接关系、交叠/重叠关系和包含/包容关系等。通常空间位置信息可以分为两类:相对空间位置信息和绝对空间位置信息。前一种关系强调的是目标之间的相对情况,如上下左右关系等,后一种关系强调的是目标之间的距离大小以及方位。
需要说明的,上述列举的图像特征可以作为图像中具有的特征的一些举例,图像还可以具有其他特征,如更高层级的特征:语义特征,此处不再展开。
5)另外,需要理解的是,在本申请的描述中,若干,是指两个或两个以上。“第一”、“第二”等词汇,仅用于区分描述的目的,而不能理解为指示或暗示相对重要性,也不能理解为指示或暗示顺序。
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
本申请实施例技术方案可以应用于电子设备中,比如个人计算机、计算机工作站、智能手机、平板电脑、智能摄像头、智能汽车或其他类型蜂窝电话、媒体消费设备、可穿戴设备、机顶盒、游戏机等任何计算能力的电子设备或者多个这样的设备组成的系统。
下面,对本申请实施例的硬件运行环境做简单介绍。
本申请实施例提供的人体姿态估计方法可以在服务器上被执行,也可以在云端被执行,还可以在终端(例如手机,电脑,摄像头,或者自动驾驶的车辆等)上被执行。更具体的,用于执行本申请实施例中的数据计算的,可以是传统的处理器+存储器的硬件结构,也可以是处理器+神经网络处理器+存储器的硬件结构,还可以是神经网络处理器+存储器的处理结构,本申请对此不作限定。以下以处理器+神经网络处理器+存储器的处理结构来进行举例。
如图1所示:
图1所示的一种用于神经网络计算的电子设备100为例。电子设备100包括处理器102、存储器103。其中,所述处理器102可以是多个处理器的总称,其中可以只包括传统处理器,如CPU(Central Processing Unit,中央处理器),还可以包括传统处理器和神经网络处理器(此处指可以用于神经网络运算的处理器,不限定为专用的神经网络处理器);其中常见的神经网络处理器可以包括但不限于以下几种:GPU(Graphics Processing Unit,图形处理器)、NPU(Neural-network Processing Uint,神经网络处理器)、TPU(TensorProcessing Unit,张量处理器)。
例如,该处理器102中可以包括CPU,该处理器102中可以包括CPU和GPU,或,该处理器102中可以包括CPU、GPU和NPU,或,该处理器102中可以包括CPU、GPU、NPU和TPU,也可以是CPU与GPU、NPU、TPU三者中任意一种或两种的组合;其中上面集中举例中所包括的CPU、GPU、NPU或TPU的数量可以是一个,也可以是多个,需要根据神经网络具体的应用场景对应的计算量和计算类型来决定。本申请实施例不做限定。
电子设备100可以为一个印制电路板(Printed Circuit Board,PCB),集成电路(Integrated Circuit,IC),或者一种通讯设备,例如移动电话、便携式电脑等。在一种实现方式中,处理器102、存储器103作为两个分立器件被设置于PCB板上;当处理器102是由多个处理器组成的,该多个处理器也可以分别作为独立的器件被设置的PCB板上。在另一种实现方式中,处理器102、存储器103被集成或封装于一个IC上。可以理解上述两部分可以根据需要进行集成或分立,例如当处理器102是由多个处理器组成时,可以将该多个处理器集成或封装于一个专用集成电路(Application-Specific Integrated Circuit,ASIC)上,再与存储器103一起设置于PCB板上。当处理器102是由多个处理器组成时,该多个处理器之间,以及它们与存储器103之间均可互相通信耦合,并存在高速数据传输连接,该高速数据传输连接可以通过分别通信连接处理器102中的多个处理器及存储器103的总线101来实现,总线101可以为AXI(Advanced eXtensible Interface)总线协议,或其他总线协议。
当处理器102包括CPU时,该CPU用于运行存储在存储器103中的软件程序和/或指令,以执行电子设备100的各种功能,上述CPU可以是基于X86架构、基于ARM架构和基于cortex-A架构的CPU。存储器103可以包括易失性存储器,例如随机存取存储器(RandomAccess Memory,RAM),也可以包括非易失性存储器,例如闪存(flash memory),硬盘或固态硬盘(Solid-State Drive,SSD),也可以是上述种类的存储器的组合。该存储器103用于存储相关指令及数据。当处理器102中包含用于神经网络运算的处理器时,该神经网络处理器可以是单独的硬件芯片,也可以是与处理器102集成在一个硬件芯片中的计算电路,例如IP(Intellectual Property,知识产权)核。上述的一个或多个硬件芯片可以是ASIC、可编程逻辑器件(Programmable Logic Device,PLD)或上述种类的硬件芯片的组合,其中PLD可以是现场可编程逻辑门阵列(Field Programmable Gate Array,FPGA)、通用阵列逻辑(Generic Array Logic,GAL)等。
可选的,电子设备100还包括显示设备104、输入设备105、射频电路106和通信模块107。其中,显示设备104用于输出可视的文本、图形、视频及其任意的组合,显示设备104可以是LCD(Liquid Crystal Display,液晶显示器)或LPD(Lighting Power Density,发光聚合物显示器);用户可以通过输入设备105输入命令和信息至电子设备100中,例如待识别的图像数据或声音数据(在本申请实施例中可以是待进行超分重建的图像),其中输入设备105可以是鼠标、键盘、扫描仪或摄像头等;射频电路106用于接收和发送电磁波,将电信号变换成电磁波,或是将电磁波变换成电信号,并且通过电磁波与通信网络或其他通信设备进行通信;通信模块107用于处理通信数据,例如射频电路106接收的电磁波并变换成的电信号所表示的通信数据。
在一种实施方式中,当处理器102中包括CPU时:通过总线101连接所述CPU和所述存储器103。所述CPU通过总线101从存储器103中获取用于神经网络运算的输入数据、输入参数和指令,其中输入数据包括需要计算的神经网络数据,如待识别的图像数据、声音数据;输入参数包括用于神经网络计算的参数,如离线训练好的神经网络参数;指令包括指示神经网络层的信息,所述CPU根据指令配置对应的神经网络层的计算模式,这些计算模式可以包括乘、累加、开方等运算,或者这些运算的组合。可选的,所述CPU也可以处理多种神经网络层的计算,如卷积(Convolution)层、全连接(Full Connected)层、池化(Pooling)层、归一化(Normalize)层等神经网络层。
在一种实施方式中,当所述处理器102包括传统处理器和神经网络处理器时,该神经网络处理器可以和传统处理器(如CPU)集成在一个硬件芯片中,也可以是单独的硬件芯片,电子设备100中的总线101将CPU、存储器103和神经网络处理器通信连接,形成数据通路。CPU通过总线101控制神经网络处理器启动神经网络运算;当神经网络处理器完成神经网络计算,则通过总线101通知处理器102计算结束。神经网络处理器通过总线101从存储器103中获取用于神经网络计算的输入数据、输入参数和指令,其中输入数据包括需要计算的神经网络数据,如待识别的图像数据、声音数据;输入参数包括用于神经网络计算的参数,如离线训练好的神经网络参数;指令包括指示神经网络层的信息,神经网络处理器根据指令,配置对应的神经网络层的计算模式,这些计算模式可以包括乘、累加、开方等运算,或者这些运算的组合。可选的,神经网络处理器可以处理多种神经网络层的计算,如卷积(Convolution)层、全连接(Full Connected)层、池化(Pooling)层、归一化(Normalize)层等神经网络层。
可以看出,单独利用CPU处理神经网络的运算和利用CPU加神经网络处理器进行神经网络运算,区别在于:仅有CPU进行神经网络运算时少了CPU和神经网络处理器之间的交互,即CPU不需要控制神经网络处理器开始或结束计算,因为它自己就是计算的主体;但是由于CPU和神经网络处理器在设计上的侧重不同,使得其对神经网络中必然包含的大规模并行运算的运算效率低于神经网络处理器,因此CPU加神经网络处理器的结合方式在神经网络计算中将更为常见,但是本申请实施例并不对此进行限定。
一个神经网络可以包括多种神经网络层,并且同一种神经网络层可以多次出现在一个神经网络中,例如,识别一个图像需要的神经网络层包括:卷积层、sigmoid层、池化层、sigmoid层、池化层和全连接层,上述的神经网络层包括了2层sigmoid层和2层池化层。当处理器102包括神经网络处理器时,在神经网络计算中,神经网络处理器依次对每一层神经网络层进行计算,其中,对当前神经网络层的计算结果可以作为下一层神经网络层计算的输入。在上面的例子中,卷积层的输入数据为输入参数和图像的输入数据,对卷积层进行计算后得到的计算结果被用于sigmoid层的输入数据。
接着上面的举例,当处理器102包括神经网络处理器时,在对一层神经网络进行一次完整的计算过程中,神经网络处理器先通过总线101从存储器103中读取需要处理的输入数据、输入参数和指令。由于计算不同的神经网络层需要对数据做不同模式的计算,因此读取的输入参数和指令与具体的神经网络层的种类有关。神经网络处理器根据对应的指令对输入数据和输入参数进行计算,得到的计算结果通过总线101写入存储器103,这些计算结果作为后续的神经网络层的计算所需要的数据。在下一层神经网络层的计算中,神经网络处理器再次通过总线101从存储器103中读取输入数据和输入参数,其中读取的输入数据可以包括上一层神经网络层的计算结果或者尚未经过计算的数据。
为了进一步了解神经网络处理器的运算能力,以区别于传统的处理器如CPU,下面对神经网络处理器的内部运算结构进行简单描述,常见的几种神经网络处理器中,目前应用最多的是GPU,因此以下主要以GPU举例,并将GPU与CPU进行对比以解释GPU的结构及运算特性。
GPU,又称显示核心,视觉处理器,显示芯片,使一种专门用于进行图像运算的微处理器。与CPU类似,只不过GPU是专门执行复杂的数学和几何计算而设计的。如,GPU加速计算之所以可以提供非凡的应用程序性能,是因为其将应用程序密集部分的工作负载转移到GPU,同时仍由CPU运行其余程序代码。因为CPU是专门为顺序串行处理而优化的几个核心组成,而GPU则拥有一个由数以千计的更下更高效的核心(专为同时处理多重任务而设计)组成的大规模并行计算架构。GPU中单个核心可以处理的计算复杂度远低于CPU中单个核心可以处理的计算复杂度,随着技术的发展,GPU中单个核心可以处理的计算复杂度会越来越高,但是其计算工作仍需要由CPU进行控制触发。GPU和CPU之所以大不相同,是由于其设计目标的不同,它们分别针对了两种不同的应用场景。如,CPU需要很强的通用性来处理各种不同的数据类型,同时又要逻辑判断因此会引入大量的分支跳转和中断的处理。这些都使得CPU的内部结构异常复杂。而GPU面对的则是类型高度统一的、相互无依赖的大规模数据和不需要被打断的纯净的计算环境。GPU处理的首要目标是运算以及数据吞吐量,而CPU内部晶体管的首要目的是降低处理的延时以及保持管线繁忙,这也就决定了GPU在密集型计算方面比起CPU有更优越的表现。总而言之,CPU和GPU因为最初用来处理的任务就不同,所以设计上有不小的区别。而某些任务和GPU最初用来解决的问题比较相似,所以就可以用GPU来算。
下面,详细介绍本申请实施例中神经网络模型的结构。
请参见图2,本申请实施例中的神经网络模型包括non-local网络模块和至少一级高分辨率网络模块。其中,non-local网络模块用于提取待处理图像的特征信息,生成待处理图像的特征图。其中,特征信息包括待处理图像中每个人体所在区域(或者说“人体区域图像”)上的每个像素与人体区域图像上的其他像素的相关信息。至少一级高分辨率网络模块连接在non-local网络模块之后,用于对non-local网络模块输出的特征图进行计算,获得待处理图像中每个人体的姿态估计结果。应理解,本申请实施例中的待处理图像可以包括一个或多个人体,当待处理图像中包括多个人体时,神经网络模型可同步对每个人体执行姿态识别过程。
一种可能的设计中,神经网络模型还可以包括至少一个m×m卷积模块,设置在non-local网络模块之前,用于对待处理图像进行初步的特征提取,获得待处理图像的初始特征信息,并基于这些初始特征信息生成待处理图像的初始特征图。这里的特征提取可以是对待处理图像进行全局性的特征提取,即对整张图都进行特征提取,其中每个卷积核的操作范围为m×m的像素区域,例如卷积核的大小为3×3的矩形结构,则最多计算到局部9个像素点之间的相关性。之后,non-local网络模块根据上述初始特征图计算待处理图像中每个像素与其他像素的相关信息,并基于初始特征信息、相关信息生成待处理图像的特征图。
应理解,本申请实施例中的提取的特征可以包括像素值、颜色特征、纹理特征、形状特征或空间关系特征等多种特征,这里不做具体的限制。特征数即为提取的特征的种类的数量,或者说获得的图像矩阵的通道维数,或者说获得的特征图的特征维数。
另一种可能的设计中,本申请实施例中的特征提取也可以是对待处理图像进行局部性的特征提取,如m×m卷积模块只对人体区域图像进行初步特征提取。
示例性的,可以在至少一个m×m卷积模块之前设置一个人体检测器,先通过人体检测器检测出每个人体所在的位置区域,并标识出每个人体的边缘,然后至少一个m×m卷积模块、non-local网络模块在提取待处理图像的特征信息时,就可以只对人体区域图像进行特征提取,这种方式可以减少模型的计算量,提高模型的预测效率。
下面例举一种具体的神经网络模型进行详细说明。
如图3所示,为本申请实施例中神经网络模型结构的一种具体示例,该神经网络模型包括依次串接的人体检测器、至少一个m×m卷积模块、non-local网络模块和至少一级高分辨率网络模块。该模型的计算过程包括:
1、人体检测器识别出待处理图像中的人体,并确定出各个人体的位置,然后标识出每个人体的边缘。
一种可能的设计中,人体检测器可以由YOLO(You Only Look Once)算法实现,其具体类型可以是YOLO v1、YOLO v2或YOLO v3等,这里不做具体限制。
在人体检测器确定出每个人体所在的位置区域后,神经网络模型可以同步对每个人体进行姿态估计。
2、卷积模块对每个人体区域图像进行初步的特征提取操作,并将图像的输入分辨率降低到c,获得W、高为H、特征数为C的图像矩阵(在本文中,“图像矩阵”又可称为“特征图”)。例如,宽为256、高为192(即图像的分辨率c为256×192)。
其中,m为奇数,例如为3、5或7等。应理解,这里的提取的特征可以包括像素值、颜色特征、纹理特征、形状特征或空间关系特征等多种特征,这里不做具体的限制。特征数即为提取的特征的种类的数量,或者说获得的图像矩阵的通道维数,或者说获得的特征图的特征维数。
3、non-local网络模块对图像矩阵进行进一步的特征提取操作。
在相关技术中,对于序列化数据,如语音或视频通常使用循环神经网络用来捕捉数据之间的依赖关系。而对于图片,则通常使用较大的卷积核来捕捉像素之间的关系。然而循环神经网络或者传统的卷积神经网络都只是在其时间或空间的很小的邻域内进行捕捉,却很难捕获到较远位置的数据的依赖关系。而本申请实施例,通过在神经网络模型中插入non-local网络模块,可以捕捉到较远位置的像素之间的依赖关系。
本申请实施例中的non-local网络模块的实现,可以基于Xiaolong Wang等人于2017年提出的一种新的基于局部操作的封装模块,可以解决捕获长距离依赖问题。该non-local操作模块受图像滤波领域均值滤波操作思想,泛化简单、可直接嵌入到当前网络。简单来说,non-local网络模块的操作就是在一个位置的计算响应是输入特征图中所有的特征的加权总和。non-local网络模块的优势在于对长距离依赖关系的获取与像素位置信息无关,且输入大小可变,与别的运算结合容易。
本申请实施例中的神经网络中的non-local网络模块的操作定义如公式(1)所示。
zi=Wzyi+xi (2)
其中,f(xi,xj)为配对计算函数,用于计算像素Xi和像素Xj的相关信息。其中,g为一元输入函数,目的是进行信息变换,即变换不同的像素Xj,以计算不同像素Xj与像素Xi的相关性。C为归一化函数,保证变换yi前后整体信息不变,x表示输入的人体图像;j为像素Xi所在人体范围内的其他像素的标识。zi为non-local网络模块输出的特征图;Wz为权重值,+xi表示一个残差连接。
公式(1)中,yi表示像素xi与像素xi所在人体范围内的所有其他像素之间的相关性(即像素Xi与像素xi所在人体范围内的其他所有像素的相关信息)。若是普通的卷积操作,由于卷积核的大小有限,大多为3×3的矩形结构,因此只能计算到局部9个像素点之间的相关性,而从公式(1)可以看出,本申请实施例中non-local模块则打破了这一局限性,non-local网络模块可以计算出某位置的像素点和特征图中其他较远位置处的像素点之间相关性。
示例性的,基于上述人体检测器用于识别的人体的区域,non-local网络模块可以计算每个像素点与该像素点所在人体范围内的其它所有像素点的相关性。当然,这里只是一种可能实现方式,在具体实施过程中,像素点相关性的计算范围不限于此。例如,为了进一步保证计算的可靠性,计算范围可以略大于人体范围,如除了计算人体所在位置区域的各像素点之间的相关性外,还可以计算人体所在位置区域外像素点与人体所在位置区域内像素点之间的相关性。例如,为了减少计算量以提高模型的计算速度,可以适当减少或去掉部分像素点的计算,比如人体范围内距离人体边界小于预设距离的像素点,因为这些像素点一般都不会是关节位置处的像素点,所以在保证计算准确性的同时可以不对这些像素点进行相关性的计算。
在本申请实施例中,像素和像素之间的相关性(或者说相关信息)可以包括像素和像素之间的空间关系(或者说相对空间位置信息)。示例性的,像素和像素之间的空间关系(或者说相对空间位置信息),可以用特征值P来表征,P值越大,则表征这两个像素点之间的空间关系越重要(或者说相关度越大),比如属于同一人体区域的两个像素点的P值应大于人体区域内的像素点与人体区域外的像素点的P值。又如,同于姿态估计的关键点中包含肘关节位置点和膝关位置点,不包括耳朵位置点,则肘关节位置点像素和膝关节位置点像素的P值应大于肘关节位置点像素和耳朵位置点像素的P值。又如图4所示,以人体鼻子处的像素点为例,与该点关联程度最大的像素为其他关节点处的像素,包括肘关节、膝关节、腕关节、踝关节等。
当然,像素和像素之间的相关性除了空间关系外,还可以包含其他关系,例如颜色特征、纹理特征、形状特征等,这里不做限制。
在本申请实施例中,为了将non-local操作变形成一个non-local block,以便其可以被插入到已有的结构中,定义了一个non-local block,表达式如(2)所示。其中yi的表达式如(1)所示,+xi表示的是一个残差连接(residual connection),残差连接结构使得可以在任意预训练模型中插入一个新的non-local block,而不需要改变其原有的结构。
non-local block可以使用卷积核大小为1的卷积层及一些神经网络的组件来实现。本申请实施例中采用的non-local类型可以为嵌入高斯(embedded gaussian),则公式(2)进一步可以表示为:
其中,x表示待计算的像素点,xT是由像素x所在人体范围内其他所有像素组成的矩阵。
在嵌入空间(embedding space)中,公式(1)中的函数f的表达式为:
θ(xi)=Wθxi,φ(xi)=Wφxj是embedded gaussian中的embeddings。结合softmax函数的表达式,就可以得到embedded gaussian的表达式。softmax也称作归一化指数函数,主要用于多分类。
图5为non_local block的结构示意图。如图5所示,待处理图像通过两个3×3卷积后产生大小为c(以c=256*192为例),通道数(特征数)为C(以C为64为例)的特征图,然后特征图经过non-local模块中的两个嵌入权重变量Wθ,WΦ得到两个大小为(256×192×32)的特征图,降低了通道数(从64降低到32),减少了计算量。之后对这两个输出(256×192×32)进行矩阵相乘操作,计算其相似性,得到(256×192,256×192),相乘的结果在第二个维度上进行softmax操作,得到通道数与其输入相同的矩阵(256×192,256×192),然后将(256×192,256×192)与经过g卷积(即图5中命名为g的1×1卷积)后的结果(256×192×32)相乘,并将相乘结果最后经过一个1×1卷积恢复输出通道,保证了输入输出尺度完全相同,最终输出为256×192×64,该输出从non-local网络模块输出后,进入后接的第一级高分辨率网络模块。上述过程中,non-local网络模块首先对输入图像(矩阵形式)的C个通道维(或者说特征维)进行了混合处理,即通过θ、、g三个卷积层先把图像的C个通道分别变换到C/2个不同通道,再通过矩阵重组使得图像的空间信息和通道信息进行混合融合,使得神经网络模型的后续处理不但能提取图像空间信息,也能考虑不同通道(例如RGB)中的信息相关性和依赖性。
应理解,图5所示的示例中,non-local网络模块通过串联的方式连接在两个3×3卷积层之后,第一级高分辨网络模块之前。当然在具体实施时,non-local网络模块也可以设置在其他位置,例如在两个3×3卷积层中间,例如non-local网络模块之前设置1个或3个卷积,non-local网络模块设置在1个或3个卷积之后,等等,本申请实施例对non-local网络模块的具体位置不做限制。
4、至少一级串联的高分辨率网络模块对non-local网络模块进行多分辨率聚合特征提取,获得人体的关键点信息。
具体的,每级高分辨率网络模块由若干交换单元和若干残差块按照预定次序依次连接而成。其中,每个残差块由多个相同种类的残差单元串联而成,如图6所示,以四个残差单元为例。在本申请实施例中,残差单元的可以由多类型实现,这里例举两种可能的类型:
第1种、基本块(Basic block)。如图7(A)所示,最后残差单元学习到的是残差特征。假设输入的图像为256×192×64,主路通过2个3×3卷积串联实现特征提取,旁路通过跳层实现,最后模块的输出由主路和旁路求和实现。
第2种、瓶颈块(bottleneck block)。如图7(B)所示,最后残差单元学习到的也是残差特征。假设输入的图像为256×192×256,主路先通过1个1×1卷积将输入图像的通道数降到64,再经过1个3×3卷积进行特征提取,最后再经过1个1×1卷积将通道数恢复到256,旁路通过跳层实现,最后模块的输出由主路和旁路求和实现。
在本申请实施例中,每个交换模块由至少两个残差块并联而成,每个交换模块中至少有一个(残差块的)通道保持高分辨率的输出(例如,大于non-local网络模块输出的分辨率,或者与non-local网络模块输出的分辨率一致,后文主要以与non-local网络模块输出的分辨率一致为例),这样可能保证图像在高分辨率网络模块的整个计算过程中均保持有高分辨率的表示,进而有效减少图像在模型传递过程中的信息损失,进一步提高人体姿态估计的精准性。
一种可能的设计中,每级高分辨率网络模块由至少两个阶段(stage)串行连接,每个阶段可以包括至少一个交换模块,每个交换模块由至少两个残差块并联而成,相邻两个交换模块通过一交换单元连接;其中,相邻两个阶段中的前一个阶段中每个交换模块的残差块的数量不超过后一个阶段中每个交换模块的残差块的数量,使得高分辨率网络模块呈现由粗到精的结构,兼顾计算的效率和准确性。每个交换模块中第n个残差块的分辨率为c/An-1,其中c等于非局部网络模块的分辨率大小,n为正整数,这样可使得每个交换模块中第1个残差块的分辨率为c,第n个残差块的输出通道为C0×Bn-1,A、B为大于1的正整数,C0为non-local模块的输出通道数,如图5所示例子中的64,这样可使得每个交换模块中第1个残差块的输出通道为C0。
下面例举以一个可能的阶段,叙述交换模块与交换单元的具体连接。
如图8所示,一个交换模块包含多个分辨率不同、输出通道也不同的残差块,图8中以每个交换模块包括三个残差块为例,每个交换模块中第一个残差块的分辨率为c,第二个残差块的分辨率为c/2,第三个残差块的分辨率为c/4。不同的交换模块间、不同的Stage间均是使用交换单元连接,通过交换单元完成重复的多尺度融合。
交换单元的原理如下:
设输入的s个特征图为{X1,X2,L,Xs,}经过交换单元输出的对应的s个特征图为{Y1,Y2,L,Ys}。每一个输出都是对特征图的聚合,则有:
其中,a(Xi,k)的作用是使用上采样或者下采样使得Xi从分辨率为i变为分辨率为k。下采样使用3×3卷积完成,上采样使用最近邻抽样完成,并使用1×1卷积调成输出的通道数。如果i和k相等,那么a(Xi,k)=Xi,此时函数a完成的就是一个直接连接的工作。
图9为高分辨率网络模块的一种可能的结构示意图,包括两级高分辨网络模块。
第一级高分辨率网络主要用于多分辨率信息的聚合,包含四个Stage的串行连接,其中Stage1包含1个交换模块,每个模块由1个残差块组成,输出通道数为64,分辨率为c。Stage2包含1个交换模块,每个模块由2个残差块组成,2个残差块的输出通道数分别为64、128,分辨率分别为c、1/2*c。Stage3包含4个交换模块,每个模块由3个残差块组成,3个残差块的输出通道数分别为64、128、256,分辨率分别为c、1/2*c,1/4*c。Stage4包含3个交换模块,每个模块由4个残差块组成,4个残差块的输出通道数分别为64、128、256、512,分辨率分别为c、1/2*c、1/4*c、1/8*c。Stage1、Stage2、Stage3、Stage4包含的交换单元数分别为1、1、4、3。
第一级高分辨率网络对特征图的处理过程如下:
non-local网络模块输出的图像矩阵输入第一级高分辨网络模块后,首先进入Stage1。其中,Stage1包括一个交换模块,该交换模块包含1个残差块,它对输入信息进行特征提取,输出特征图的分辨率为c,通道数为64,然后通过交换单元,将输出的特征图送入到Stage2;
Stage2的交换模块包含2个残差块,它们分别对输入的特征图进行处理,残差块1输出的特征图的分辨率为c,通道数为64,残差块2输出的特征图的分辨率为1/2*c,通道数为128,然后残差块1和残差块2输出的特征图均经过交换单元,交换单元对这2个残差块输出的特征图进行聚合,并输出特征图到Stage3。这里Stage2的交换单元得输出的特征图有3路,其中第一路的输出特征图的分辨为c,通道数为64,第二路的输出特征图的分辨率为1/2*c,通道数为128,第三路的输出特征图的分辨率为1/4*c,通道数为256。以第一路来举例说明交换单元的聚合原理,交换单元通过1×1卷积将输入的2个特征图的通道数均变成64,然后进行特征图的聚合。
Stage3中第一个交换模块的输入有3路(分别接收Stage2的交换单元的三路输出),分别经过第一个交换模块的3个残差块,第一个交换模块的输出相应也为三路,然后经过第一个交换单元,第一个交换单元对这三路输入进行聚合,输出三路到第二个交换模块。其中第二个交换模块得第一路的特征图的分辨率为c,通道数为64,第二路的特征图的分辨率为1/2*c,通道数为128,第三路的特征图的分辨率为1/4*c,通道数为256。第二、三、四个交换模块和第一个交换模块的结构类似,即:第二个交换模块的三个残差块分别对三路输入进行处理,输出也为三路,然后经过第二个交换单元,第二个交换单元对三路输入进行聚合,输出三路到第三个交换模块。第三个交换模块的第一路的特征图的分辨率为c,通道数为64,第二路的特征图的分辨率为1/2*c,通道数为128,第三路的特征图的分辨率为1/4*c,通道数为256。第三个交换模块的三个残差块分别对三路输入进行处理,输出也为三路,然后经过第三个交换单元,第三个交换单元对三路输入进行聚合,输出三路到第四个交换模块。第四个交换模块的第一路的特征图的分辨率为c,通道数为64,第二路的特征图的分辨率为1/2*c,通道数为128,第三路的特征图的分辨率为1/4*c,通道数为256。第四个交换模块的三个残差块分别对三路输入进行处理,输出也为三路,然后经过第四个交换单元,第四个交换单元对三路输入进行聚合,输出四路到Stage4的第一个交换模块。
Stage4的第一个交换模块的输入有4路,其中第一路的特征图的分辨率为c,通道数为64,第二路的特征图的分辨率为1/2*c,通道数为128,第三路的特征图的分辨率为1/4*c,通道数为256,第四路的特征图的分辨率为1/8*c,通道数为512。Stage4的第一个交换模块的四个残差块分别对四路输入进行处理,输出也为四路,然后经过第一个交换单元,第一个交换单元对四路输入进行聚合,输出四路到第二个交换模块。其中第一路的特征图的分辨率为c,通道数为64,第二路的特征图的分辨率为1/2*c,通道数为128,第三路的特征图的分辨率为1/4*c,通道数为256,第四路的特征图的分辨率为1/8*c,通道数为512。第二、三交换模块和第一个交换模块的结构类似,即:Stage4的第二个交换模块的四个残差块分别对四路输入进行处理,输出也为四路,然后经过第二个交换单元,第二个交换单元对四路输入进行聚合,输出四路到第三个交换模块。其中第一路的特征图的分辨率为c,通道数为64,第二路的特征图的分辨率为1/2*c,通道数为128,第三路的特征图的分辨率为1/4*c,通道数为256,第四路的特征图的分辨率为1/8*c,通道数为512。Stage4的第三个交换模块的四个残差块分别对四路输入进行处理,输出也为四路,然后经过第三个交换单元,第三个交换单元对四路输入进行聚合,输出两路到第二级高分辨率网络的Stage1,完成多分辨率信息的聚合。
第二级高分辨网络模块用于进一步地提升网络精度,优化模型对难检测场景的检测效果。如图2所示,第二级高分辨网络包括三个Stage,第一级高分辨率网络Stage4的最后一个交换单元与第二级高分辨网络相连,第一级高分辨网络的输出结果直接输入第二级高分辨网络模块。第二级高分辨率网络由三个阶段串行连接,它的Stage1、Stage2、Stage3的输出通道数与分辨率与第一级高分辨率网络Stage2、Stage3、Stage4的参数对应相同。
第二级高分辨率网络对特征图的处理过程如下:
Stage1的交换模块包含2个残差块,它们分别对输入的两路特征图(即第一级高分辨网络的两路输出)进行处理,残差块1输出的特征图的分辨率为c,通道数为64,残差块2输出的特征图的分辨率为1/2*c,通道数为128。然后经过交换单元,对2个残差块输出的特征图进行聚合,并输出特征图到Stage2。这里输出的特征图有3路,其中第一路的输出特征图的分辨为c,通道数为64,第二路的输出特征图的分辨率为1/2*c,通道数为128,第三路的输出特征图的分辨率为1/4*c,通道数为256。以第一路来举例说明交换单元的聚合原理,交换单元通过1×1卷积将输入的2个特征图的通道数均变成64,然后进行特征图的聚合。
Stage2中第一个交换模块的输入有3路,分别经过第一个交换模块的3个残差块,输出也为三路,然后经过第一个交换单元,第一个交换单元对三路输入进行聚合,输出三路到第二个交换模块。其中第一路的特征图的分辨率为c,通道数为64,第二路的特征图的分辨率为1/2*c,通道数为128,第三路的特征图的分辨率为1/4*c,通道数为256。第二个交换模块的三个残差块分别对三路输入进行处理,输出也为三路,然后经过第二个交换单元,第二个交换单元对三路输入进行聚合,输出三路到第三个交换模块。其中第一路的特征图的分辨率为c,通道数为64,第二路的特征图的分辨率为1/2*c,通道数为128,第三路的特征图的分辨率为1/4*c,通道数为256。第三个交换模块的三个残差块分别对三路输入进行处理,输出也为三路,然后经过第三个交换单元,第三个交换单元对三路输入进行聚合,输出三路到第四个交换模块。其中第一路的特征图的分辨率为c,通道数为64,第二路的特征图的分辨率为1/2*c,通道数为128,第三路的特征图的分辨率为1/4*c,通道数为256。第四个交换模块的三个残差块分别对三路输入进行处理,输出也为三路,然后经过第四个交换单元,第四个交换单元对三路输入进行聚合,输出四路到Stage3的第一个交换模块。其中第一路的特征图的分辨率为c,通道数为64,第二路的特征图的分辨率为1/2*c,通道数为128,第三路的特征图的分辨率为1/4*c,通道数为256,第四路的特征图的分辨率为1/8*c,通道数为512。
Stage3的第一个交换模块的四个残差块分别对四路输入进行处理,输出也为四路,然后经过第一个交换单元,第一个交换单元对四路输入进行聚合,输出四路到第二个交换模块。其中第一路的特征图的分辨率为c,通道数为64,第二路的特征图的分辨率为1/2*c,通道数为128,第三路的特征图的分辨率为1/4*c,通道数为256,第四路的特征图的分辨率为1/8*c,通道数为512。Stage3的第二个交换模块的四个残差块分别对四路输入进行处理,输出也为四路,然后经过第二个交换单元,第二个交换单元对四路输入进行聚合,输出四路到第三个交换模块。其中第一路的特征图的分辨率为c,通道数为64,第二路的特征图的分辨率为1/2*c,通道数为128,第三路的特征图的分辨率为1/4*c,通道数为256,第四路的特征图的分辨率为1/8*c,通道数为512。Stage3的第三个交换模块的四个残差块分别对四路输入进行处理,输出也为四路,然后经过第三个交换单元,第三个交换单元对四路输入进行聚合,输出一路到1x1卷积。输出的这一路特征图的分辨率为c,通道数为64。
第二级高分辨网络模块Stage3中为c的那一层后接了一个1x1卷积,用于将网络的输出通道数转换为预设数量Q,(例如17),使得第二极高分辨网络最终输出的预测热图中有Q个关键点(这些关键点具体可以是人体关节位置点),通过该Q个关键点的空间分布即可表示出人体的姿态信息,如图14(B)所示。
应理解,图9仅仅是一种可能的示意,基于同样的设计思想,神经网络模型还可以有其它形式的变化。例如,去掉第一级高分辨网络模块的Stage4,第一级高分辨网络模块只采用Stage1、Stage2、Stage3,并将Stage3阶段交换单元的输出更改为两路连接到第二级高分辨网路模块的输入。又如,直接在第一级高分辨网络模块Stage4中为c的那一层后接了一个1x1卷积,用于将网络的输出通道数转换为Q。再如,在第二级高分辨网路模块之后还串接第三高分辨网路模块,包括两个阶段,Stage1、Stage2的输出通道数与分辨率与第二级高分辨率网络Stage2、Stage3的参数对应相同,且在第三级高分辨网络模块Stage2中为c的那一层后接了一个1x1卷积,用于将网络的输出通道数转换为Q。
另外要说明的是,在本申请实施例中不同阶段中残差块包含的残差单元的结构可以相同,也可以不同,这里不做限制。示例性的,第一级高分辨网络的Stage1中的残差块包含的残差单元是使用的bottleneck block,而第一级高分辨率网络的其他3个Stage为Basic block,第二级高分辨率网络全部为Basic block。这两种残差单元的结构基本是与Resnet网络中的组件结构保持一致。Basic block相比于bottleneck block,主路多了一个3×3卷积,因而可以多学习到一些特征信息,但对于多级网络,包含过多的Basic block会导致网络的参数量过大,而bottleneck block中主路加入的2个1×1卷积可以降低模块所用的参数量。因此,这样设置是为了保证参数量与模型预测精度间的平衡。当然,在具体实施过程中,还可以根据模型的实际情况对残差单元进行调整。
下面,介绍本申请实施例中神经网络模型的训练过程。
参考图10,神经网络模型的训练过程包括:
S101、构建上述神经网络模型。
神经网络模型的具体结构及其实现方式可以参考图2至图9中所示的实施例,这里不再赘述。
S102、将训练集输入到上述神经网络模型,对神经网络模型进行训练,得到训练好的神经网络模型。
训练集包括若干训练样本图像,每个样本图像包括至少一个人体,且人体的姿态已知(即关键点信息已知)。将训练样本输入该神经网络模型后,将神经网络模型输出的预测热图(包含预测关键点信息的样本图像)和真实热图(包含真实关键点信息的样本图像)进行比对,计算预测热图和真实热图之间的损失(或者说差值或差距),根据损失不断调整神经网络模型的参数,如学习率(learning rate)值等,直至神经网络模型输出的样本的预测值和样本的真实值的损失小于预设值为止。
可选的,在将训练集输入到上述神经网络模型对神经网络模型进行训练中,除了调整上述参数外,还可以不断调整non-local网络模块插入的位置,以寻求non-local网络模块的最佳位置(实际研究发现non-local网络模块加在神经网络模型的浅层,也就是神经网络模型的前几层效果比较好),使得训练得到的神经网络模型能够对人体关节点相对位置关系有更精细的描述。
应理解,这里的计算样本预测值和真实值得损失所采用的损失函数可以不同于相关技术中的级联沙漏(Stacked Hourglass)结构,本申请实施例可以不使用中间热力图(heat map)进行监督,而是仅在第二级高分辨率网络Stage3中分辨率为256×192的残差块级联的1×1卷积后输出预测热图。最后利用均方误差(mean-square error,MSE)作为损失函数,可求得预测热图相对于真实热图的损失。
下面,介绍本申请实施例中使用神经网络模型进行人体姿态估计的方法。
参考图11,使用神经网络模型进行人体姿态估计的方法包括:
S1101、将待处理图像输入预先训练的神经网络模型,其中,待处理图像中包括人体,神经网络模型包括non-local网络模块和至少一级高分辨率网络模块。
神经网络模型的具体结构及其实现方式可以参考图2至图9中所示的实施例,这里不再赘述。
S1102、基于非局部网络模块提取待处理图像的特征信息,生成待处理图像的特征图,特征信息包括人体所在区域的每个像素与人体所在区域的其他像素的相关信息。
非局部网络模块提取所述待处理图像的特征信息,生成所述待处理图像的特征图的具体方法可以参考上述公式(1)、(2)、(3)、(4)以及图5中所示的实施例,这里不再赘述。
S1103、基于至少一级高分辨率网络模块对所述特征图进行计算,获得待处理图像中每个人体的姿态估计结果。
高分辨率网络模块对所述特征图进行计算的具体方法可以参考图7至图8所示的实施例,这里不再赘述。
本申请实施例中,通过在整个神经网络模型传递过程中保持高分辨率的表示,来减少图像信息的损失,并结合注意力机制与由粗到精的网络构建策略(多级网络级联),可以提高模型在一些困难场景下的姿态估计效果。将高分辨率网络作为骨架,可以保证图像信息尽可能少的损失,这是一个全局的优化。而加入了注意力机制,即在神经网络的浅层插入non-local网络模块,使得神经网络模型提高了发现较远位置两两像素之间关联的能力,这是一个局部的优化。对于多级网络而言,通过逐步的优化,可以使得网络提高对于较难检测的关键点的检测能力。因此本申请实施例技术方案的合理性在于高分辨率网络、注意力机制、多级网络组件对于算法来说,优化的层面不同,可以进行互补,而必要性在于复杂程度较高,想要获得较好的效果,需要对其涉及的各个环节都进行优化,每个环节对最终的效果都会产生影响。
下面通过对比其他模型来进一步说明本申请实施例的技术效果。
本申请实施例方案的测试数据集为微软通用目标图像数据集MS COCO val2017,对比模型是高分辨率表征网络HRNet-W32(模型示意图见图12)。评测标准主要有以下三个方面:MS COCO上测试准确率、处理单张图片平均用时和人体视觉效果。
本申请实施例神经网络模型和对比模型HRNet-W32准确率测试结果如下表1所示:
表1
其中,AP表示平均精度(average precision);AP50表示覆盖率为50%的平均精度;APM表示覆盖中等对象(medium object)图像的平均精度;ARL表示覆盖大型对象(largeobject)图像的平均精度。
由上表1可以看出,本申请相对于同输入大小的HRNet-W32来说,准确率上有了一定的提升,并且随着网络由单级变为多级,准确率也逐步提升。
另外在时间效率上,本方法处理一张图片平均用时3.796s。相对于现有的实时人体姿态估计方法,时间效率也有着还不错的表现。
至于人体视觉效果方面,HRNet-W32模型与我们模型的效果对比图如图13、图4所示。图13中的(A)为HRNet-W32模型输出的预测热图、图13中(B)为本申请实施例中上述神经网络模型输出的预测热图,对比图13(A)、图13(B)可以看出:本申请实施例技术方案除了识别出正常姿态外,还是识别出了有人体遮挡的姿态,如图13(B)中被黑色线条圈出的部分(靠立在从左至右第三颗树前的人体被坐着的人遮挡住了一只腿,图13(A)中该人体姿态未被识准确别出,而图13(B)中被识别出准确识别出)。图14中的(A)为HRNet-W32模型输出的预测热图、图14中的(B)为本申请实施例中上述神经网络模型输出的预测热图,对比图14(A)、图14(B)可以看出:本申请实施例技术方案除了识别出图像前景中央的两个人体(白衬衣男和西装男)的姿态外,还是识别出了背景中(白衬衣男左手肘后方,两个电线杆之间位置处)的一个人体的姿态。
需要说明的是,本申请上述实施例主要以神经网络模型用于人体姿态估计为例,在具体应用中,本技术方案还可以应用到其他需要检测关键点的图像处理领域,例如手势估计、头部姿态估计、人脸检测等领域。在具体实施时,只需要根据实际应用情况更改一些网络的参数,例如输入通道数、输入图片大小等,无需更改网络结构,便可以完成对应领域的图像处理任务。因为这些新领域和人体姿态估计任务本质上都是相通的,都是使用深度学习技术完成图像中的特征点检测,因此可以将本方法直接迁移到新领域中。
以上各个实施方式可以相互结合以实现不同的技术效果。
基于同一技术构思,本申请还提供了一种人体姿态估计装置,该装置包括执行本申请上述实施例中的人体姿态估计方法的模块/单元。这些模块/单元可以通过硬件实现,也可以通过硬件执行相应的软件实现。例如,参见图15,装置1500可以包括:
输入单元1501,用于将待处理图像输入预先训练的神经网络模型,其中,所述待处理图像中包括人体,所述神经网络模型包括非局部网络模块和至少一级高分辨率网络模块;
提取单元1502,用于基于所述非局部网络模块提取所述待处理图像的特征信息,生成所述待处理图像的特征图,所述特征信息包括所述人体所在区域的每个像素与所述人体所在区域的其他像素的相关信息;
计算单元1503,用于基于所述至少一级高分辨率网络模块对所述特征图进行计算,获得所述待处理图像中所述人体的姿态估计结果。
一种可能的实施方式中,所述神经网络模型还包括至少一个m×m卷积模块,m为奇数;所述非局部网络模块设置在所述至少一个卷积模块之后,所述至少一级高分辨率网络模块之前;
所述提取单元1502用于:基于所述至少一个卷积模块对所述待处理图像中所述人体所在区域上的若干个m×m大小的区域进行初步特征提取,获得所述待处理图像的初始特征信息,并基于所述初始特征信息生成所述待处理图像的初始特征图;将所述初始特征图输入所述非局部网络模块,计算所述待处理图像中所述人体所在区域的每个像素与所述人体所在区域的其他像素的相关信息,基于所述初始特征信息以及所述相关信息生成所述待处理图像的特征图。
一种可能的实施方式中,所述初始特征信息包括像素值、颜色特征、纹理特征、形状特征或空间关系特征中的一项或多项;
所述相关信息包括空间关系、颜色关系、纹理关系或形状关系中的一项或多项。
一种可能的实施方式中,所述提取单元1502用于:按照如下公式计算所述待处理图像中所述人体所在区域的每个像素与所述人体所在区域的其他像素的相关信息:
zi=Wzyi+xi (2)
其中,f为配对计算函数,用于计算像素Xi和像素Xj的相关信息;yi为所述人体所在区域上像素Xj与所述人体所在区域上的所有其他像素的相关信息;g(xj)为一元输入函数,用于变换不同的像素Xj;C(x)为归一化函数,保证变换yi前后整体信息不变,x为输入的所述人体所在区域的图像;j为所述人体所在区域上的其他像素的标识;
zi为non-local网络模块输出的特征图;Wz为权重值;+xi表示一个残差连接。
一种可能的实施方式中,所述高分辨率网络模块包括多个交换模块,所述高分辨率网络模块中的每个交换模块包括至少两个并联连接的残差块,所述每个交换模块中第n个残差块的分辨率为c/An-1,所述第n个残差块的输出通道为C0×Bn-1,其中c等于所述非局部网络模块的分辨率大小,n为正整数,A、B为大于1的正整数,C0为所述非局部网络模块的输出通道数。
一种可能的实施方式中,所述高分辨率网络模块还包括多个交换单元,所述交换单元和所述交换模块按照预定次序交替连接,所述交换单元用于对输入的特征图进行多尺度融合。
一种可能的实施方式中,所述残差块由多个相同类型的残差单元串联而成。
一种可能的实施方式中,每级所述高分辨率网络模块由至少两个阶段串行连接,每个阶段包括至少一个所述交换模块;
其中,相邻两个阶段中的前一个阶段中每个交换模块的残差块的数量不超过后一个阶段中每个交换模块的残差块的数量。
一种可能的实施方式中,所述装置还包括检测单元1504,用于在所述输入单元1501将待处理图像输入预先训练的神经网络模型之前,检测所述待处理图像中的人体,确定出所述待处理图像中所述人体所在区域。
基于同一技术构思,参见图16,本申请还提供了一种电子设备1600,包括处理器1601和存储器1602;所述存储器1602用于存储一个或多个计算机程序;当所述存储器1602存储的一个或多个计算机程序被所述处理器1601执行时,使得所述电子设备1600执行如本申请实施例所述的人体姿态估计方法。
基于同一技术构思,本申请实施例还提供了一种计算机可读存储介质,所述计算机可读存储介质包括计算机程序,当计算机程序在电子设备上运行时,使得所述电子设备执行如本申请实施例所述的人体姿态估计方法。
基于同一技术构思,本申请实施例还提供了一种包含计算机程序产品,当所述计算机程序产品在终端上运行时,使得所述电子设备执行如本申请实施例所述的人体姿态估计方法。
其中,本申请实施例提供的电子设备、计算机存储介质、计算机程序产品均用于执行上文所提供的对应的方法,因此,其所能达到的有益效果可参考上文所提供的对应的方法中的有益效果,此处不再赘述。
通过以上实施方式的描述,所属领域的技术人员可以了解到,为描述的方便和简洁,仅以上述各功能模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能模块完成,即将装置的内部结构划分成不同的功能模块,以完成以上描述的全部或者部分功能。
在本申请所提供的几个实施例中,应该理解到,所揭露的装置和方法,可以通过其他的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,模块或单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个装置,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其他的形式。
作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是一个物理单元或多个物理单元,即可以位于一个地方,或者也可以分布到多个不同地方。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个可读取存储介质中。基于这样的理解,本申请实施例的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该软件产品存储在一个存储介质中,包括若干指令用以使得一个设备(可以是单片机,芯片等)或处理器(processor)执行本申请各个实施例方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(read only memory,ROM)、随机存取存储器(random access memory,RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
以上内容,仅为本申请的具体实施方式,但本申请的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应以权利要求的保护范围为准。
Claims (20)
1.一种人体姿态估计方法,其特征在于,包括:
将待处理图像输入预先训练的神经网络模型,其中,所述待处理图像中包括人体,所述神经网络模型包括非局部网络模块和至少一级高分辨率网络模块;
基于所述非局部网络模块提取所述待处理图像的特征信息,生成所述待处理图像的特征图,所述特征信息包括所述人体所在区域的每个像素与所述人体所在区域的其他像素的相关信息;
基于所述至少一级高分辨率网络模块对所述特征图进行计算,获得所述待处理图像中所述人体的姿态估计结果。
2.如权利要求1所述的方法,其特征在于,所述神经网络模型还包括至少一个m×m卷积模块,m为奇数;所述非局部网络模块设置在所述至少一个卷积模块之后,所述至少一级高分辨率网络模块之前;
在基于所述非局部网络模块提取所述待处理图像的特征信息之前,还包括:
基于所述至少一个卷积模块对所述待处理图像中所述人体所在区域上的若干个m×m大小的区域进行初步特征提取,获得所述待处理图像的初始特征信息,并基于所述初始特征信息生成所述待处理图像的初始特征图;
基于所述非局部网络模块提取所述待处理图像的特征信息,包括:
将所述初始特征图输入所述非局部网络模块,计算所述待处理图像中所述人体所在区域的每个像素与所述人体所在区域的其他像素的相关信息,基于所述初始特征信息以及所述相关信息生成所述待处理图像的特征图。
3.如权利要求2所述的方法,其特征在于,所述初始特征信息包括像素值、颜色特征、纹理特征、形状特征或空间关系特征中的一项或多项;
所述相关信息包括空间关系、颜色关系、纹理关系或形状关系中的一项或多项。
4.如权利要求2所述的方法,其特征在于,所述非局部网络模块计算所述待处理图像中所述人体所在区域的每个像素与所述人体所在区域的其他像素的相关信息,具体包括:
按照如下公式计算所述待处理图像中所述人体所在区域的每个像素与所述人体所在区域的其他像素的相关信息:
zi=Wzyi+xi (2)
其中,f为配对计算函数,用于计算像素Xi和像素Xj的相关信息;yi为所述人体所在区域上像素Xj与所述人体所在区域上的所有其他像素的相关信息;g(xj)为一元输入函数,用于变换不同的像素Xj;C(x)为归一化函数,保证变换yi前后整体信息不变,x为输入的所述人体所在区域的图像;j为所述人体所在区域上的其他像素的标识;
zi为non-local网络模块输出的特征图;Wz为权重值;+xi表示一个残差连接。
5.如权利要求1-4任一项所述的方法,其特征在于,所述高分辨率网络模块包括多个交换模块,所述高分辨率网络模块中的每个交换模块包括至少两个并联连接的残差块,所述每个交换模块中第n个残差块的分辨率为c/An-1,所述第n个残差块的输出通道为C0×Bn-1,其中c等于所述非局部网络模块的分辨率大小,n为正整数,A、B为大于1的正整数,C0为所述非局部网络模块的输出通道数。
6.如权利要求5所述的方法,其特征在于,所述高分辨率网络模块还包括多个交换单元,所述交换单元和所述交换模块按照预定次序交替连接,所述交换单元用于对输入的特征图进行多尺度融合。
7.如权利要求5所述的方法,其特征在于,所述残差块由多个相同类型的残差单元串联而成。
8.如权利要求5所述的方法,其特征在于,每级所述高分辨率网络模块由至少两个阶段串行连接,每个阶段包括至少一个所述交换模块;
其中,相邻两个阶段中的前一个阶段中每个交换模块的残差块的数量不超过后一个阶段中每个交换模块的残差块的数量。
9.如权利要求1-8任一项所述的方法,其特征在于,在将待处理图像输入预先训练的神经网络模型之前,还包括:
检测所述待处理图像中的人体,确定出所述待处理图像中所述人体所在区域。
10.一种识别人体姿态的装置,其特征在于,包括:
输入单元,用于将待处理图像输入预先训练的神经网络模型,其中,所述待处理图像中包括人体,所述神经网络模型包括非局部网络模块和至少一级高分辨率网络模块;
提取单元,用于基于所述非局部网络模块提取所述待处理图像的特征信息,生成所述待处理图像的特征图,所述特征信息包括所述人体所在区域的每个像素与所述人体所在区域的其他像素的相关信息;
计算单元,用于基于所述至少一级高分辨率网络模块对所述特征图进行计算,获得所述待处理图像中所述人体的姿态估计结果。
11.如权利要求10所述的装置,其特征在于,所述神经网络模型还包括至少一个m×m卷积模块,m为奇数;所述非局部网络模块设置在所述至少一个卷积模块之后,所述至少一级高分辨率网络模块之前;
所述提取单元用于:基于所述至少一个卷积模块对所述待处理图像中所述人体所在区域上的若干个m×m大小的区域进行初步特征提取,获得所述待处理图像的初始特征信息,并基于所述初始特征信息生成所述待处理图像的初始特征图;将所述初始特征图输入所述非局部网络模块,计算所述待处理图像中所述人体所在区域的每个像素与所述人体所在区域的其他像素的相关信息,基于所述初始特征信息以及所述相关信息生成所述待处理图像的特征图。
12.如权利要求11所述的装置,其特征在于,所述初始特征信息包括像素值、颜色特征、纹理特征、形状特征或空间关系特征中的一项或多项;
所述相关信息包括空间关系、颜色关系、纹理关系或形状关系中的一项或多项。
14.如权利要求10-13任一项所述的装置,其特征在于,所述高分辨率网络模块包括多个交换模块,所述高分辨率网络模块中的每个交换模块包括至少两个并联连接的残差块,所述每个交换模块中第n个残差块的分辨率为c/An-1,所述第n个残差块的输出通道为C0×Bn-1,其中c等于所述非局部网络模块的分辨率大小,n为正整数,A、B为大于1的正整数,C0为所述非局部网络模块的输出通道数。
15.如权利要求14所述的装置,其特征在于,所述高分辨率网络模块还包括多个交换单元,所述交换单元和所述交换模块按照预定次序交替连接,所述交换单元用于对输入的特征图进行多尺度融合。
16.如权利要求14所述的装置,其特征在于,所述残差块由多个相同类型的残差单元串联而成。
17.如权利要求14所述的装置,其特征在于,每级所述高分辨率网络模块由至少两个阶段串行连接,每个阶段包括至少一个所述交换模块;
其中,相邻两个阶段中的前一个阶段中每个交换模块的残差块的数量不超过后一个阶段中每个交换模块的残差块的数量。
18.如权利要求10-17任一项所述的装置,其特征在于,所述装置还包括:
检测单元,用于在所述输入单元将待处理图像输入预先训练的神经网络模型之前,检测所述待处理图像中的人体,确定出所述待处理图像中所述人体所在区域。
19.一种电子设备,其特征在于,包括处理器和存储器;
所述存储器用于存储一个或多个计算机程序;
当所述存储器存储的一个或多个计算机程序被所述处理器执行时,使得所述电子设备执行如权利要求1至9任一项所述的方法。
20.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质包括计算机程序,当计算机程序在电子设备上运行时,使得所述电子设备执行如权利要求1至9任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911336949.8A CN113095106A (zh) | 2019-12-23 | 2019-12-23 | 一种人体姿态估计方法、装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911336949.8A CN113095106A (zh) | 2019-12-23 | 2019-12-23 | 一种人体姿态估计方法、装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113095106A true CN113095106A (zh) | 2021-07-09 |
Family
ID=76663044
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911336949.8A Pending CN113095106A (zh) | 2019-12-23 | 2019-12-23 | 一种人体姿态估计方法、装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113095106A (zh) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113469095A (zh) * | 2021-07-13 | 2021-10-01 | 浙江大华技术股份有限公司 | 一种基于步态的人物二次核验方法及装置 |
CN113674753A (zh) * | 2021-08-11 | 2021-11-19 | 河南理工大学 | 一种新的语音增强方法 |
CN114550305A (zh) * | 2022-03-04 | 2022-05-27 | 合肥工业大学 | 一种基于Transformer的人体姿态估计方法及系统 |
CN114581953A (zh) * | 2022-03-14 | 2022-06-03 | 北京科技大学 | 一种基于关节点难例挖掘的人体姿态估计方法 |
CN114842078A (zh) * | 2022-04-14 | 2022-08-02 | 中国人民解放军战略支援部队航天工程大学 | 一种基于深度学习的双通道卫星姿态估计网络 |
CN117611675A (zh) * | 2024-01-22 | 2024-02-27 | 南京信息工程大学 | 一种三维人体姿态估计方法、装置、存储介质和设备 |
CN117711028A (zh) * | 2024-02-06 | 2024-03-15 | 深圳大学 | 一种基于注意力机制模块的人体姿态估计方法及系统 |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109523470A (zh) * | 2018-11-21 | 2019-03-26 | 四川长虹电器股份有限公司 | 一种深度图像超分辨率重建方法及系统 |
CN109711329A (zh) * | 2018-12-25 | 2019-05-03 | 北京迈格威科技有限公司 | 姿态估计及网络训练方法、装置和系统及存储介质 |
US20190156210A1 (en) * | 2017-11-17 | 2019-05-23 | Facebook, Inc. | Machine-Learning Models Based on Non-local Neural Networks |
CN109815964A (zh) * | 2019-01-31 | 2019-05-28 | 北京字节跳动网络技术有限公司 | 提取图像的特征图的方法和装置 |
CN109919232A (zh) * | 2019-03-11 | 2019-06-21 | 西安电子科技大学 | 基于卷积神经网络和非局部连接网络的图像分类方法 |
CN109948425A (zh) * | 2019-01-22 | 2019-06-28 | 中国矿业大学 | 一种结构感知自注意和在线实例聚合匹配的行人搜索方法及装置 |
CN110084151A (zh) * | 2019-04-10 | 2019-08-02 | 东南大学 | 基于非局部网络深度学习的视频异常行为判别方法 |
CN110148091A (zh) * | 2019-04-10 | 2019-08-20 | 深圳市未来媒体技术研究院 | 基于非局部注意力机制的神经网络模型及图像超分辨方法 |
CN110222829A (zh) * | 2019-06-12 | 2019-09-10 | 北京字节跳动网络技术有限公司 | 基于卷积神经网络的特征提取方法、装置、设备及介质 |
CN110298413A (zh) * | 2019-07-08 | 2019-10-01 | 北京字节跳动网络技术有限公司 | 图像特征提取方法、装置、存储介质及电子设备 |
-
2019
- 2019-12-23 CN CN201911336949.8A patent/CN113095106A/zh active Pending
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190156210A1 (en) * | 2017-11-17 | 2019-05-23 | Facebook, Inc. | Machine-Learning Models Based on Non-local Neural Networks |
CN109523470A (zh) * | 2018-11-21 | 2019-03-26 | 四川长虹电器股份有限公司 | 一种深度图像超分辨率重建方法及系统 |
CN109711329A (zh) * | 2018-12-25 | 2019-05-03 | 北京迈格威科技有限公司 | 姿态估计及网络训练方法、装置和系统及存储介质 |
CN109948425A (zh) * | 2019-01-22 | 2019-06-28 | 中国矿业大学 | 一种结构感知自注意和在线实例聚合匹配的行人搜索方法及装置 |
CN109815964A (zh) * | 2019-01-31 | 2019-05-28 | 北京字节跳动网络技术有限公司 | 提取图像的特征图的方法和装置 |
CN109919232A (zh) * | 2019-03-11 | 2019-06-21 | 西安电子科技大学 | 基于卷积神经网络和非局部连接网络的图像分类方法 |
CN110084151A (zh) * | 2019-04-10 | 2019-08-02 | 东南大学 | 基于非局部网络深度学习的视频异常行为判别方法 |
CN110148091A (zh) * | 2019-04-10 | 2019-08-20 | 深圳市未来媒体技术研究院 | 基于非局部注意力机制的神经网络模型及图像超分辨方法 |
CN110222829A (zh) * | 2019-06-12 | 2019-09-10 | 北京字节跳动网络技术有限公司 | 基于卷积神经网络的特征提取方法、装置、设备及介质 |
CN110298413A (zh) * | 2019-07-08 | 2019-10-01 | 北京字节跳动网络技术有限公司 | 图像特征提取方法、装置、存储介质及电子设备 |
Non-Patent Citations (4)
Title |
---|
DAXING CHEN等: "An Attention Module for Multi-Person Pose Estimation", 2019 IEEE INTERNATIONAL CONFERENCE ON ROBOTICS AND BIOMIMETICS (ROBIO), pages 2926 - 22 * |
KE SUN等: "Deep high-resolution representation learning for human pose estimation", PROCEEDINGS OF THE 2019 IEEE/CVF CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION, pages 5686 - 5696 * |
XIAOLONG WANG等: "Non-local neural networks", PROCEEDINGS OF THE 2018 IEEE/CVF CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION, pages 7794 - 7803 * |
翟森等: "基于深度学习局部与非局部信息的单幅图像超分辨率重建", 现代计算机, no. 33, pages 2479 - 2492 * |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113469095A (zh) * | 2021-07-13 | 2021-10-01 | 浙江大华技术股份有限公司 | 一种基于步态的人物二次核验方法及装置 |
CN113674753A (zh) * | 2021-08-11 | 2021-11-19 | 河南理工大学 | 一种新的语音增强方法 |
CN114550305A (zh) * | 2022-03-04 | 2022-05-27 | 合肥工业大学 | 一种基于Transformer的人体姿态估计方法及系统 |
CN114550305B (zh) * | 2022-03-04 | 2022-10-18 | 合肥工业大学 | 一种基于Transformer的人体姿态估计方法及系统 |
CN114581953A (zh) * | 2022-03-14 | 2022-06-03 | 北京科技大学 | 一种基于关节点难例挖掘的人体姿态估计方法 |
CN114842078A (zh) * | 2022-04-14 | 2022-08-02 | 中国人民解放军战略支援部队航天工程大学 | 一种基于深度学习的双通道卫星姿态估计网络 |
CN117611675A (zh) * | 2024-01-22 | 2024-02-27 | 南京信息工程大学 | 一种三维人体姿态估计方法、装置、存储介质和设备 |
CN117611675B (zh) * | 2024-01-22 | 2024-04-16 | 南京信息工程大学 | 一种三维人体姿态估计方法、装置、存储介质和设备 |
CN117711028A (zh) * | 2024-02-06 | 2024-03-15 | 深圳大学 | 一种基于注意力机制模块的人体姿态估计方法及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113095106A (zh) | 一种人体姿态估计方法、装置 | |
CN110176027B (zh) | 视频目标跟踪方法、装置、设备及存储介质 | |
US11908244B2 (en) | Human posture detection utilizing posture reference maps | |
Gao et al. | Dynamic hand gesture recognition based on 3D hand pose estimation for human–robot interaction | |
CN106204660B (zh) | 一种基于特征匹配的地面目标跟踪装置 | |
Wang et al. | Small-object detection based on yolo and dense block via image super-resolution | |
CN110832501A (zh) | 用于姿态不变面部对准的系统和方法 | |
WO2020134818A1 (zh) | 图像处理方法及相关产品 | |
US20220262093A1 (en) | Object detection method and system, and non-transitory computer-readable medium | |
CN110598715A (zh) | 图像识别方法、装置、计算机设备及可读存储介质 | |
KR20230156056A (ko) | 포즈 추정을 위한 키포인트-기반 샘플링 | |
CN112101262B (zh) | 一种多特征融合手语识别方法及网络模型 | |
CN110968734A (zh) | 一种基于深度度量学习的行人重识别方法及装置 | |
CN109934183A (zh) | 图像处理方法及装置、检测设备及存储介质 | |
CN112036260A (zh) | 一种自然环境下多尺度子块聚合的表情识别方法及系统 | |
El‐Shafie et al. | Survey on hardware implementations of visual object trackers | |
CN114419732A (zh) | 基于注意力机制优化的HRNet人体姿态识别方法 | |
CN114998610A (zh) | 一种目标检测方法、装置、设备及存储介质 | |
CN112199994B (zh) | 一种实时检测rgb视频中的3d手与未知物体交互的方法和装置 | |
CN117036658A (zh) | 一种图像处理方法及相关设备 | |
Wu et al. | Mapping vision algorithms on simd architecture smart cameras | |
CN114511877A (zh) | 一种行为识别方法、装置、存储介质及终端 | |
CN113196279B (zh) | 一种面部属性的识别方法及电子设备 | |
CN113962846A (zh) | 图像对齐方法及装置、计算机可读存储介质及电子设备 | |
EP4176409A1 (en) | Full skeletal 3d pose recovery from monocular camera |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |