CN111626159A - 一种基于注意力残差模块和支路融合的人体关键点检测方法 - Google Patents
一种基于注意力残差模块和支路融合的人体关键点检测方法 Download PDFInfo
- Publication number
- CN111626159A CN111626159A CN202010410104.5A CN202010410104A CN111626159A CN 111626159 A CN111626159 A CN 111626159A CN 202010410104 A CN202010410104 A CN 202010410104A CN 111626159 A CN111626159 A CN 111626159A
- Authority
- CN
- China
- Prior art keywords
- branch
- convolution
- layer
- attention
- residual error
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 22
- 230000004927 fusion Effects 0.000 title claims abstract description 16
- 238000010586 diagram Methods 0.000 claims abstract description 29
- 238000012545 processing Methods 0.000 claims abstract description 14
- 238000000605 extraction Methods 0.000 claims abstract description 12
- 238000011176 pooling Methods 0.000 claims abstract description 9
- 238000005070 sampling Methods 0.000 claims abstract description 7
- 238000000034 method Methods 0.000 claims description 15
- 238000013507 mapping Methods 0.000 claims description 3
- 238000012549 training Methods 0.000 abstract description 5
- 230000000007 visual effect Effects 0.000 abstract description 3
- 238000004364 calculation method Methods 0.000 description 5
- 238000004458 analytical method Methods 0.000 description 4
- 238000004422 calculation algorithm Methods 0.000 description 4
- 238000013461 design Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000011160 research Methods 0.000 description 2
- 239000011800 void material Substances 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000010438 heat treatment Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000005192 partition Methods 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/23—Recognition of whole body movements, e.g. for sport training
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Computational Linguistics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Biophysics (AREA)
- Multimedia (AREA)
- Molecular Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Human Computer Interaction (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于注意力残差模块和支路融合的人体关键点检测方法。属于计算机视觉技术领域,包括如下步骤:用特征提取网络对输入图片进行特征处理,得到特征图;将特征图输入区域生成网络得到目标建议框;进行区域池化操作,得到感兴趣区域特征图;再将其输入卷积层中进行特征提取操作得到特征图一;利用支路一、支路二进行特征提取和融合;将两支路的结果叠加,先用反卷积进行分辨率复原再进行两倍的线性插值上采样;将关键点的位置建模为独热二进制掩码进行训练。本发明使得网络输出的信息多样性有所改善,更好地捕捉不同视野,不仅在简单场景下有效解决了检测关键点混乱的问题,其准确性和效率性得到提高,且能够良好的适应复杂场景。
Description
技术领域
本发明属于计算机视觉技术领域,具体涉及一种基于注意力残差模块和支路融合的人体关键点检测方法。
背景技术
现有技术中,对人体姿态的检测一直被国内外学者广泛关注,也是计算机视觉领域中的一项重要课题,其核心内容是通过图像处理与分析、机器学习、模式识别等技术从图片中检测出人体目标,区分人体部位,进而对人的关节点进行检测;近年来国内外的相关研究依据获取人体描述姿态的原始数据方式的不同,将检测人体姿态的研究方式分为基于穿戴式传感器和基于计算机视觉领域的方法;前者多为接触式的姿态分析系统,有较高的对人体分析能力,但是采集人体运动参数的传感器需要附置在人体或者配件上,存在穿戴不便的问题,给人带来不自然的感觉;而且其成本高、操作难、不适合远程控制,难以得到普及;目前最好的人体检测算法虽然已经得到了很好的效果,但是依然存在一些错误,这些错误会导致检测任务精确度不高;而后者以图像中的光流、人体剪影、轮廓、骨架、关节点等来表示人体姿态,不需要求解人体模型参数,简化了人体姿态的求解;深度学习算法的提出,给人体姿态的检测提供了一种新的思路,一般通过图像的全局特征进行匹配分析,可以有效的避免局部特征方法在复杂姿态和遮挡关系情况下出现的特征匹配歧义性问题,可以保证算法具有较好的鲁棒性。
发明内容
针对上述问题,本发明提供了本发明的目的在于提供一种基于注意力残差模块和支路融合的人体关键点检测方法,解决了现有技术中存在的检测效果不佳、准确性较低的问题。
本发明的技术方案是:一种基于注意力残差模块和支路融合的人体关键点检测方法,其检测方法具体包括以下步骤:
步骤(1.1),使用特征提取网络对输入图片进行特征处理,得到特征图;将特征图输入区域生成网络得到目标建议框后,结合特征图进行区域池化操作,得到感兴趣区域特征图;
步骤(1.2),将得到的感兴趣区域特征图输入卷积层中进行特征提取操作,得到的结果记为特征图一;
步骤(1.3),将特征图一分别输入至支路一、支路二中进行特征处理;
步骤(1.4),将特征图一通过支路一和支路二中处理的结果叠加,结果记为特征图二,再对特征图二反卷积后进行上采样,最后通过独热二进制掩码得到关节点信息。
进一步地,所述步骤(1.3)中支路一对特征图一进行特征处理的具体步骤如下:
(1.3.1),在支路一的输入处设计两个一样的注意力残差模块,配合数据旁路连通网路中的前后层,将两个注意力残差模块进行两两连接和像素级的叠加,使用级联方式,使得网络中每一层模块都接受来自前几层模块的特征映射;
(1.3.2),再经过卷积层降维后输入至全连接层;最后,对其进行形状重塑得到与支路一尺寸一致的卷积层。
进一步地,步骤(1.3.1)中所述注意力残差模块是由空洞卷积的残差小模块配合注意力机制组成:
其中,所述的空洞卷积的残差小模块:是由降维卷积层、空洞卷积层及升维卷积层三个卷积层组成,通过上述三个卷积层的卷积运算得到卷积权重,设卷积权重为V;
其注意力机制具体步骤:将V通过一个卷积层进行卷积运算后,再依次进行全局加权池化、点乘卷积及S型生长曲线,网络即可得到空间注意力权重;最后,空间注意力权重与V加权,以实现通道注意力的输出,得到空间注意力加权特征。
进一步地,所述步骤(1.3)中支路二对特征图一进行特征处理的操作如下:
将设置在支路二内部的三个空间卷积率不同的空洞卷积层一、空洞卷积层二及空洞卷积层三作为一个组合,通过该组合获得不同的感受野,从而获取多尺度信息。
进一步地,将两个支路的输出参数叠加得到特征图二;对特征图二使用反积卷层进行分辨率复原,再由两倍的线性插值进行上采样,生成高分辨率输出,最后将人体的关节点位置建模为独热二进制掩码,从而得到关节点信息。
本发明的有益效果是:本发明属于计算机视觉技术领域人体姿态检测方法,是自上而下的检测方法,具体涉及注意力残差模块和数据旁路进行特征融合,持久性、可用性更强,准确度更高;(1)、本发明在第一个支路处的注意力残差模块是对各个通道特征进行权重的分配,在空间和通道方面自适应地突出显示特征图的信息;同时注意力残差模块之间创建了两两的跨层连接来连通网路中前后层,使得信号可以在输入层和输出层之间高速流通,这种设计方式改善了层间的信息流,丰富了信息,为后续检测的高准确性和高效率性奠定了基础;(2)、本发明在第二个支路处采用的配合空洞卷积的全卷积网络(FullyConvolutional Networks,记为FCN)支路,使得卷积前后的每组结果能进行相互交错,相互依赖,扩大了感受野,又解决了空洞卷积局部信息丢失问题(栅格问题);能够捕获多尺度上下文信息,获得局部信息依赖。有效避免了感受野单一,获取的上下文信息不够多,“看的”不够“全”;由此导致的检测关节点混乱的问题;(3)、本发明对所述两支路进行了相加融合操作,获得更加多样化的信息,更好地捕捉每个目标区域的不同视野;通过结合这两种视野的预测结果,网络输出的信息多样性有所改善,不仅在简单场景下有效地解决了检测关节点混乱的问题,其准确性和效率性得到提高,而且能够良好的适应复杂场景。
附图说明
图1是本发明的结构示意图;
图2是本发明中注意力残差模块的结构示意图;
图3是本发明中空洞卷积存在的栅格问题示例结构示意图;
图4是本发明的人体关节点示意图。
具体实施方式
为了更清楚地说明本发明的技术方案,下面将对本发明中进行进一步地叙述;显而易见地,下面描述中的仅仅是一部分的实施例,对于本领域的普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些将本发明所述的技术方案应用于其它类似情景;为了更清楚地说明本发明的技术方案,下面结合附图对本发明的技术方案做进一步地详细说明:
一种基于注意力残差模块和支路融合的人体关键点检测方法,包括使用特征提取网络对输入图片进行特征处理,得到特征图;将特征图输入区域生成网络得到目标建议框;结合特征图进行区域池化操作,得到感兴趣区域特征图;将得到的感兴趣区域特征图输入卷积层中进行特征提取操作得到特征图一;利用全新的神经网络进行更深的特征提取和融合;将两支路的结果叠加后,先用反卷积进行分辨率复原再进行两倍的线性插值上采样;将关节点的位置建模为独热二进制掩码进行训练。
如图1所示,其检测方法具体包括以下步骤:
步骤(1.1),使用特征提取网络对输入图片进行特征处理,得到特征图;将特征图输入区域生成网络得到目标建议框后,结合特征图进行区域池化操作,得到感兴趣区域特征图;
步骤(1.2),将得到的感兴趣区域特征图输入卷积层中进行特征提取操作,得到的结果记为特征图一;
步骤(1.3),将特征图一分别输入至支路一、支路二中进行特征处理;
步骤(1.4),将特征图一通过支路一和支路二中处理的结果叠加,结果记为特征图二,再对特征图二反卷积后进行上采样,最后通过独热二进制掩码得到关节点信息。
进一步地,所述步骤(1.2)中,所述的卷积层是指三个一样的卷积层;
为了便于叙述,在此处进行卷积层相关参数的定义,记输入特征图长、宽、维度分别为W、H、C,尺寸形式记为RW×H×C;卷积核(kernel)尺寸为k,尺寸形式记为k×k;步长(stride)为s;填充(padding)为p;则经过卷积操作后的输出特征图的宽度为:
长度同理;
故此处卷积层尺寸为3×3,步长和填充都为1,则由公式得经过该卷积层后得到的特征图一和感兴趣区域特征图尺度一致,为RW×H×C。
进一步地,所述步骤(1.3)中,所述支路一对特征图一进行特征处理的具体步骤如下:
(1.3.1),在支路一的输入处设计两个一样的注意力残差模块,配合数据旁路连通网路中的前后层,将两个注意力残差模块进行两两连接和像素级的叠加,使用级联方式,使得网络中每一层模块都接受来自前几层模块的特征映射;其中:
(1)、所述的空洞卷积的残差小模块:是由降维卷积层、空洞卷积层及升维卷积层三个卷积层组成,通过上述三个卷积层的卷积运算得到卷积权重,设卷积权重为V;
(2)、其注意力机制具体步骤:将V通过一个卷积层进行卷积运算后,再依次进行全局加权池化、点乘卷积及S型生长曲线,网络即可得到空间注意力权重;最后,空间注意力权重与V加权,以实现通道注意力的输出,得到空间注意力加权特征;
具体地,1),空洞卷积的残差小模块:空洞卷积有一个空洞卷积率(DilationRate,记为d)参数可以设置,具体含义就是在卷积核中填充(d-1)个0或者是跳过像素数;因此,当设置不同的Dilation Rate时,感受野就会不一样,也即获取了多尺度信息;延续前文参数定义,则空洞卷积的卷积核大小为:
n=k+(k-1)*(d-1) (2)
因此输出特征图的宽度为:
长度同理;
空洞卷积可以任意扩大感受野,且不需要引入额外参数,但如果把分辨率增加了,算法整体计算量也会增加,故不可盲目增加;并且所述空洞卷积存在栅格问题,即会丢失信息,远距离获取的信息没有相关性(小目标比较明显);
至此,为了增加感受野的同时减少计算量,降维卷积层、空洞卷积层及升维卷积层三个卷积层参数分别设置为:输入维度为C,输出维度为C/4,k=1,s=1;输入维度为C/4,输出维度为C/4,k=3,s=1,p=2,d=2;输入维度为C,输出维度为C/4,k=1,s=1;
其中,*表示空间上下文中的按元素相乘;空间注意权重α∈RH×W由以下方式产生;首先通过卷积运算得到卷积权重W1∈RH×W×C;然后对所得特征图进行全局加权池化操作(Global Depthwise Convolution,记为GDC),设卷积中分组数量为G,输出特征图数量为N,则当满足式(5)和式(6)时,达到GDC的效果:
k=H=W (6)
即分组数量和输出特征图数量皆等于输入特征图数量,同时卷积核的尺寸与输入特征图的尺寸相同;则学习到的卷积权重为W2∈R1×1×C/r,即长度为C/r的向量,GDC给每个位置赋予了可学习的权重,同时在空间范围内对整个网路在结构上做正则化防止过拟合;再对上述输出进行点乘,卷积核的尺寸为1×1×C/r,这里的运算会将所述W2在深度方向上进行加权组合,生成W3∈R1×1×C;最后通过S型生长曲线,即得到空间注意力权重β=Sigmoid(W3V),其中W3表示卷积权重,Sigmoid表示S型生长曲线;最后,β在注意力残差模块的输入V上重新加权,以实现通道注意力的输出,得到在空间范围内,在第i,j个元素处的空间注意力加权特征:
其中,βi.j、Vi.j表示β和V在空间范围内,在第i,j个元素处的值,*表示第i,j个元素之间的逐元素相乘;
作为举例,这里可设置为W=W=14,C=512,r=4。
(1.3.2),将上述结果再经过卷积层降维后输入至全连接层;为了与支路一的最终结果进行叠加,最后,对其进行形状重塑得到与支路一尺寸一致的卷积层;具体地:
1)、将所述步骤(1.3.1)得到的特征,经过降维卷进行降维;作为举例,这里参数设置为:输入维度为C,输出维度为C/2,k=3,s=1;
2)、将1)得到的特征送入全卷积(FC),FC层有和FCN不同的属性,FCN根据局部感受野在每个像素处进行预测,并且在不同的空间位置共享参数;FC层是位置敏感的,是通过改变参数组来实现不同空间位置的预测;因此,它们具有适应不同空间位置的能力,也利用整个方案的全局信息在每个空间位置进行预测,区分并识别属于同一对象的独立关节点部分很有帮助;不仅高效,而且还允许在FC层中使用更多样本训练参数,避免过拟合等,从而提高通用性;作为具体实施方式,使用的特征图尺寸为14×14,因此FC层会产生196×1×1的向量;为了与支路二的输出进行结果加融,需要保持与支路二的尺度一致,故将得到的向量进行形状重塑,重塑后的尺度和第一支路输出的尺度一致。
进一步地,步骤(1.3)中所述特征图一通过对支路二的输入具体步骤如下:将设置在支路二内部的三个空间卷积率不同的空洞卷积层一、空洞卷积层二及空洞卷积层三作为一个组合,通过该组合获得不同的感受野,从而获取多尺度信息;具体参数计算情况如下:
记第j层的感受野大小为rfj,则计算公式为:
rfj=(n-1)*j+1 (8)
其中rf0=1;如附图3,从左到右属于top-bottom关系(从左依次卷积到右);三个卷积核均为k=3,d=2,根据公式(2)可得n为5,再根据公式(8)可得第三层(最右边)的中心像素的感受野为13;然而参与实际计算的只有75%;为防止此问题,所述设计将3个卷积层形成一个组,然后每个组使用连续增加的空洞率,其他组重复;目标是让最后的感受野全覆盖整个区域(没有任何空洞或丢失边缘);此时需要满足:
Mi=Max[Mi+1-2ri,2ri-Mi+1] (9)
其中,Max[a,b]是指求取a和b中的最大值,Mi是指在i层的最大空洞卷积率,Mi+1是指在(i+1)层的最大空洞卷积率,ri是第i层的空洞卷积率,设计的目标是让M2≤k;
假设取k的值为3,则有第二层,k=3,可以得出,如果r=[1,2,5]则由(9)得
M2=Max[M3-2r2,-M3+2r2),
r2=Max[1,-1,2]=2<3
满足条件;至此,按照以上所述,可选取r=[1,2,5]作为一组。
进一步地,将两个支路的输出参数叠加得到特征图二;对特征图二使用反积卷层进行分辨率复原,再由两倍的线性插值进行上采样,生成高分辨率输出,将人体的关节点位置建模为独热二进制掩码,从而得到关节点信息;
具体地,1),两支路相加,进一步地特征融合,通过结合这两种视野的预测结果,网络输出的信息多样性有所改善,输出掩码质量有所提升,以获得更好的关节点预测;
2),对以上1)所述的融合后的最终特征,先用反卷积进行分辨率复原为,以长、宽、维度标记的尺寸,记为W×H×K(作为举例,可取28×28×17),再由两倍的线性插值进行上采样,生成2W×2H×K(作为举例,可取56×56×17)的高分辨率输出;
3),将关节点的位置建模为独热二进制掩码,并用以上5所述的2W×2H×K的高分辨率输出,对于实例的K个关节点中的每个关节点,都做独热M×M(作为举例,可取56×56)二进制掩码,二进制掩码中只有一个像素标记为前景,训练完成,即得所求K个关节点;
另外,在训练期间,对于每个带有标注的真实关节点,将M^2的softmax输出上的交叉熵损失最小化(这有助于检测到单个点);K个关节点仍然被独立对待,对应一个关节点类型(例如有眼,左肩)。
经过上述步骤,最终可以明确标定需要检测是K(作为举例,可取17)个关节点,不仅在简单场景下有效地解决了检测关节点混乱的问题,其准确性和效率性得到提高,而且能够良好的适应复杂场景。
最后,应当理解的是,本发明中所述实施例仅用以说明本发明实施例的原则;其他的变形也可能属于本发明的范围;因此,作为示例而非限制,本发明实施例的替代配置可视为与本发明的教导一致;相应地,本发明的实施例不限于本发明明确介绍和描述的实施例。
Claims (5)
1.一种基于注意力残差模块和支路融合的人体关键点检测方法,其特征在于,其检测方法具体包括以下步骤:
步骤(1.1),使用特征提取网络对输入图片进行特征处理,得到特征图;将特征图输入区域生成网络得到目标建议框后,结合特征图进行区域池化操作,得到感兴趣区域特征图;
步骤(1.2),将得到的感兴趣区域特征图输入卷积层中进行特征提取操作,得到的结果记为特征图一;
步骤(1.3),将特征图一分别输入至支路一、支路二中进行特征处理;
步骤(1.4),将特征图一通过支路一和支路二中处理的结果叠加,结果记为特征图二,再对特征图二反卷积后进行上采样,最后通过独热二进制掩码得到关节点信息。
2.根据权利要求1所述的一种基于注意力残差模块和支路融合的人体关键点检测方法,其特征在于,步骤(1.3)中所述支路一对特征图一进行特征处理的具体步骤如下:
(1.3.1),在支路一的输入处设计两个一样的注意力残差模块,配合数据旁路连通网路中的前后层,将两个注意力残差模块进行两两连接和像素级的叠加,使用级联方式,使得网络中每一层模块都接受来自前几层模块的特征映射;
(1.3.2),经过卷积层降维后输入至全连接层;最后,对其进行形状重塑得到与支路一尺寸一致的卷积层。
3.根据权利要求2所述的一种基于注意力残差模块和支路融合的人体关键点检测方法,其特征在于,步骤(1.3.1)中所述注意力残差模块是由空洞卷积的残差小模块配合注意力机制组成:
其中,所述的空洞卷积的残差小模块:是由降维卷积层、空洞卷积层及升维卷积层三个卷积层组成,通过上述三个卷积层的卷积运算得到卷积权重,设卷积权重为V;
其注意力机制具体步骤:将V通过一个卷积层进行卷积运算后,再依次进行全局加权池化、点乘卷积及S型生长曲线,网络即可得到空间注意力权重;最后,空间注意力权重与V加权,以实现通道注意力的输出,得到空间注意力加权特征。
4.根据权利要求1所述的一种基于注意力残差模块和支路融合的人体关键点检测方法,其特征在于,所述步骤(1.3)中支路二对特征图一进行特征处理的操作如下:
将设置在支路二内部的三个空间卷积率不同的空洞卷积层一、空洞卷积层二及空洞卷积层三作为一个组合,通过该组合获得不同的感受野,从而获取多尺度信息。
5.根据权利要求1-4所述的一种基于注意力残差模块和支路融合的人体关键点检测方法,其特征在于,将两个支路的输出参数叠加得到特征图二;对特征图二使用反积卷层进行分辨率复原,再由两倍的线性插值进行上采样,生成高分辨率输出,最后将人体的关节点位置建模为独热二进制掩码,从而得到关节点信息。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010410104.5A CN111626159B (zh) | 2020-05-15 | 2020-05-15 | 一种基于注意力残差模块和支路融合的人体关键点检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010410104.5A CN111626159B (zh) | 2020-05-15 | 2020-05-15 | 一种基于注意力残差模块和支路融合的人体关键点检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111626159A true CN111626159A (zh) | 2020-09-04 |
CN111626159B CN111626159B (zh) | 2022-07-26 |
Family
ID=72271858
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010410104.5A Active CN111626159B (zh) | 2020-05-15 | 2020-05-15 | 一种基于注意力残差模块和支路融合的人体关键点检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111626159B (zh) |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112653899A (zh) * | 2020-12-18 | 2021-04-13 | 北京工业大学 | 一种基于联合注意力ResNeSt的复杂场景下网络直播视频特征提取方法 |
CN112733672A (zh) * | 2020-12-31 | 2021-04-30 | 深圳一清创新科技有限公司 | 基于单目相机的三维目标检测方法、装置和计算机设备 |
CN112784856A (zh) * | 2021-01-29 | 2021-05-11 | 长沙理工大学 | 胸部x射线图像的通道注意力特征提取方法和识别方法 |
CN113012229A (zh) * | 2021-03-26 | 2021-06-22 | 北京华捷艾米科技有限公司 | 人体关节点的定位方法及装置 |
CN113269077A (zh) * | 2021-05-19 | 2021-08-17 | 青岛科技大学 | 基于改进门控网络和残差网络的水声通信信号调制方式识别方法 |
CN114783065A (zh) * | 2022-05-12 | 2022-07-22 | 大连大学 | 基于人体姿态估计的帕金森症预警方法 |
CN115019338A (zh) * | 2022-04-27 | 2022-09-06 | 淮阴工学院 | 一种基于GAMHR-Net的多人姿态估计方法及系统 |
CN115546779A (zh) * | 2022-11-26 | 2022-12-30 | 成都运荔枝科技有限公司 | 一种物流货车车牌识别方法及设备 |
CN117877122A (zh) * | 2024-02-05 | 2024-04-12 | 北京理工大学珠海学院 | 一种基于轻量型ViT和注意力机制的红外人体姿态估计方法 |
CN117911679A (zh) * | 2024-03-15 | 2024-04-19 | 青岛国实科技集团有限公司 | 基于图像增强和微小目标识别的船体识别系统及方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110516670A (zh) * | 2019-08-26 | 2019-11-29 | 广西师范大学 | 基于场景级与区域建议自注意模块的目标检测方法 |
CN111047515A (zh) * | 2019-12-29 | 2020-04-21 | 兰州理工大学 | 一种基于注意力机制的空洞卷积神经网络图像超分辨率重建方法 |
-
2020
- 2020-05-15 CN CN202010410104.5A patent/CN111626159B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110516670A (zh) * | 2019-08-26 | 2019-11-29 | 广西师范大学 | 基于场景级与区域建议自注意模块的目标检测方法 |
CN111047515A (zh) * | 2019-12-29 | 2020-04-21 | 兰州理工大学 | 一种基于注意力机制的空洞卷积神经网络图像超分辨率重建方法 |
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112653899B (zh) * | 2020-12-18 | 2022-07-12 | 北京工业大学 | 一种基于联合注意力ResNeSt的复杂场景下网络直播视频特征提取方法 |
CN112653899A (zh) * | 2020-12-18 | 2021-04-13 | 北京工业大学 | 一种基于联合注意力ResNeSt的复杂场景下网络直播视频特征提取方法 |
CN112733672A (zh) * | 2020-12-31 | 2021-04-30 | 深圳一清创新科技有限公司 | 基于单目相机的三维目标检测方法、装置和计算机设备 |
CN112784856A (zh) * | 2021-01-29 | 2021-05-11 | 长沙理工大学 | 胸部x射线图像的通道注意力特征提取方法和识别方法 |
CN113012229A (zh) * | 2021-03-26 | 2021-06-22 | 北京华捷艾米科技有限公司 | 人体关节点的定位方法及装置 |
CN113269077B (zh) * | 2021-05-19 | 2023-04-07 | 青岛科技大学 | 基于改进门控网络和残差网络的水声通信信号调制方式识别方法 |
CN113269077A (zh) * | 2021-05-19 | 2021-08-17 | 青岛科技大学 | 基于改进门控网络和残差网络的水声通信信号调制方式识别方法 |
CN115019338A (zh) * | 2022-04-27 | 2022-09-06 | 淮阴工学院 | 一种基于GAMHR-Net的多人姿态估计方法及系统 |
CN115019338B (zh) * | 2022-04-27 | 2023-09-22 | 淮阴工学院 | 一种基于GAMHR-Net的多人姿态估计方法及系统 |
CN114783065B (zh) * | 2022-05-12 | 2024-03-29 | 大连大学 | 基于人体姿态估计的帕金森症预警方法 |
CN114783065A (zh) * | 2022-05-12 | 2022-07-22 | 大连大学 | 基于人体姿态估计的帕金森症预警方法 |
CN115546779B (zh) * | 2022-11-26 | 2023-02-07 | 成都运荔枝科技有限公司 | 一种物流货车车牌识别方法及设备 |
CN115546779A (zh) * | 2022-11-26 | 2022-12-30 | 成都运荔枝科技有限公司 | 一种物流货车车牌识别方法及设备 |
CN117877122A (zh) * | 2024-02-05 | 2024-04-12 | 北京理工大学珠海学院 | 一种基于轻量型ViT和注意力机制的红外人体姿态估计方法 |
CN117911679A (zh) * | 2024-03-15 | 2024-04-19 | 青岛国实科技集团有限公司 | 基于图像增强和微小目标识别的船体识别系统及方法 |
CN117911679B (zh) * | 2024-03-15 | 2024-05-31 | 青岛国实科技集团有限公司 | 基于图像增强和微小目标识别的船体识别系统及方法 |
Also Published As
Publication number | Publication date |
---|---|
CN111626159B (zh) | 2022-07-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111626159B (zh) | 一种基于注意力残差模块和支路融合的人体关键点检测方法 | |
CN109377530B (zh) | 一种基于深度神经网络的双目深度估计方法 | |
CN111582483B (zh) | 基于空间和通道联合注意力机制的无监督学习光流估计方法 | |
CN111819568B (zh) | 人脸旋转图像的生成方法及装置 | |
CN112507997B (zh) | 一种基于多尺度卷积和感受野特征融合的人脸超分辨系统 | |
CN112396607B (zh) | 一种可变形卷积融合增强的街景图像语义分割方法 | |
CN113160375B (zh) | 一种基于多任务学习算法的三维重建及相机位姿估计方法 | |
CN110246181B (zh) | 基于锚点的姿态估计模型训练方法、姿态估计方法和系统 | |
CN107767419A (zh) | 一种人体骨骼关键点检测方法及装置 | |
CN111145131A (zh) | 一种基于多尺度生成式对抗网络的红外和可见光图像融合方法 | |
CN113283525B (zh) | 一种基于深度学习的图像匹配方法 | |
CN107886069A (zh) | 一种多目标人体2d姿态实时检测系统及检测方法 | |
CN113344806A (zh) | 一种基于全局特征融合注意力网络的图像去雾方法与系统 | |
CN115359372A (zh) | 一种基于光流网络的无人机视频运动目标检测方法 | |
CN109993103A (zh) | 一种基于点云数据的人体行为识别方法 | |
CN113516693B (zh) | 一种快速通用的图像配准方法 | |
CN112991350A (zh) | 一种基于模态差异缩减的rgb-t图像语义分割方法 | |
CN113792641A (zh) | 一种结合多谱注意力机制的高分辨率轻量级的人体姿态估计方法 | |
CN112150521A (zh) | 一种基于PSMNet优化的图像立体匹配方法 | |
CN114663509B (zh) | 一种关键点热力图引导的自监督单目视觉里程计方法 | |
CN110381268A (zh) | 生成视频的方法,装置,存储介质及电子设备 | |
CN114049335A (zh) | 一种基于时空注意力的遥感影像变化检测方法 | |
CN113128424A (zh) | 基于注意力机制的图卷积神经网络动作识别方法 | |
CN111833400B (zh) | 一种相机位姿定位方法 | |
CN116030498A (zh) | 面向虚拟服装走秀的三维人体姿态估计方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |