CN114612716A - 一种基于自适应解码器的目标检测方法及装置 - Google Patents
一种基于自适应解码器的目标检测方法及装置 Download PDFInfo
- Publication number
- CN114612716A CN114612716A CN202210227694.7A CN202210227694A CN114612716A CN 114612716 A CN114612716 A CN 114612716A CN 202210227694 A CN202210227694 A CN 202210227694A CN 114612716 A CN114612716 A CN 114612716A
- Authority
- CN
- China
- Prior art keywords
- query
- feature
- adaptive
- self
- semantic
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 49
- 230000003044 adaptive effect Effects 0.000 title claims description 26
- 238000005070 sampling Methods 0.000 claims abstract description 43
- 238000012549 training Methods 0.000 claims abstract description 36
- 238000012360 testing method Methods 0.000 claims abstract description 7
- 239000013598 vector Substances 0.000 claims description 59
- 239000011159 matrix material Substances 0.000 claims description 46
- 238000000034 method Methods 0.000 claims description 14
- 230000000694 effects Effects 0.000 claims description 9
- 238000010586 diagram Methods 0.000 claims description 8
- 238000004590 computer program Methods 0.000 claims description 6
- 238000000605 extraction Methods 0.000 claims description 6
- 230000009466 transformation Effects 0.000 claims description 5
- 230000007246 mechanism Effects 0.000 claims description 4
- 238000005457 optimization Methods 0.000 claims description 3
- 238000012545 processing Methods 0.000 claims description 3
- 238000004422 calculation algorithm Methods 0.000 claims description 2
- 238000006073 displacement reaction Methods 0.000 claims description 2
- 230000006870 function Effects 0.000 description 8
- 238000004364 calculation method Methods 0.000 description 2
- 230000001629 suppression Effects 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000003631 expected effect Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 230000001105 regulatory effect Effects 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Image Analysis (AREA)
Abstract
一种基于自适应解码器的目标检测方法及装置,构建一个目标检测模型AdaMixer,包括网络配置阶段、训练阶段以及测试阶段,配合骨干网络得到的不同大小的特征图组合成3D特征空间,在其中进行高效的特征采样,并通过自适应地配合查询量的空间信息和位置信息完成对采样特征的增强,实现目标检测任务。本发明通过对不同图片查询量的自适应模块,有效利用查询量中的信息,避免了冗余网络结构,节省了计算量,使网络快速稳定收敛。引入了3D特征空间的采样,对位置信息和语义信息进行高效的编码,能更好地配合自适应模块,灵活、高效、快速、准确地完成目标检测任务。
Description
技术领域
本发明属于计算机软件技术领域,涉及时序动作检测技术,具体为一种基于自适应解码器的目标检测方法及装置。
背景技术
目标检测一直都是计算机视觉领域中一项基本但是困难的任务,这项任务的目标是找到图片中不同物体的位置并且对它们进行分类。截止到目前为止,目标检测主要的两种范式分成两种:
第一种范式是密集型的目标检测器,它基于滑动窗口式的思想,假设图片中的物体可能会密集且均匀地出现在图片的任何一个空间位置。在深度学习的时代,基于这种假设的目标检测器能够很好覆盖住可能是目标的物体。有很多著名的工作都是基于这种密集型的先验假设,但是他们的缺点是需要密集地生成多尺度的锚点框,来在特征图中穷举式地去产生提议区域或者直接分类并定位物体,需要消耗很多的计算资源,且易造成冗余的检测结果。
第二种范式是基于查询的目标检测器,以最近出现的DETR为主,它将目标检测的问题形式化成一个直接的集合预测问题,首先需要用基于Transformer结构的编码器和解码器来生成很多框来预测目标的位置,再基于这些预测的框和真实的框来进行二分图匹配。虽然这种范式的性能和Faster R-CNN的基线相当,但是它仍然有空间分辨率受限、小物体检测能力不足、收敛速度慢等问题。且这些基于查询的检测器都需要特征提取网络之外的额外的特征编码器,这些特征编码器所带来的计算开销巨大。也有一些工作使用了一些第一种范式中的密集型假设来解决部分这里的问题,但是同时也引入了第一种范式中的一些问题。这些基于查询的检测器暂时因各种上述提到的问题无法应用到实际应用中。
发明内容
本发明要解决的问题是:现有的很多目标检测框架需要依赖很多基于人类先验知识的手工模块,需要精细地调整参数;而且新出现的基于查询的Transformer式目标检测框架也存在空间分辨率受限、小物体检测性能不好、收敛速度慢等问题,没有完全充分利用查询的信息,目标检测效果有待改进。
本发明的技术方案为:一种基于自适应解码器的目标检测方法,构建一个目标检测模型AdaMixer,根据3D采样特征空间对图片的多尺度特征进行采样,并基于查询机制通过编码器和解码器自适应地根据查询的空间位置信息和语义内容信息进行采样点位置和特征解码的调节,再配合FFN完成对查询的增强,实现查询位置的检测,所述目标检测网络的实现包括生成3D特征阶段、网络配置阶段、训练阶段以及测试阶段:
1)生成3D特征阶段:使用骨干网络对训练样例图像进行特征提取,对于每个输入图像,基于骨干网络不同阶段输出的不同长宽、不同通道数的特征图,得到一个3D特征空间,用于在其中完成后续的采样处理;
2)网络配置阶段,基于初始查询配置和解码器,建立目标检测模型AdaMixer,包括以下配置:
2.1)初始查询配置:为输入特征图初始化编码生成N个初始查询量,查询量中包括初始语义向量q0,以及对应查询采样点的初始位置向量(x,y,z,r),(x,y,z)是采样点在3D特征空间中的坐标,r是特征图的高宽比的以2为底的对数,初始语义向量q0从标准正态分布N(0,1)中随机采样得到,初始位置向量(x,y,z,r)设置为能够覆盖整张特征图;
2.2)解码器:解码器的输入是2.1)中编码生成的查询量,输出是经过解码器优化之后的相同格式的查询量,解码器中包含以下模块,用于自适应地利用查询中语义信息和位置信息:
2.2.1)多头自注意力模块:将N个查询量输入一个多头自注意力模块,使用正弦形式的位置信息附加到语义向量上,并将交集前景比IoF作为一个偏置加入注意力的权重,经过该多头自注意力模块得到一个增强后的语义向量输出q;
2.2.2)3D采样模块:使用2.2.1)中得到的q,经过一个线性层的变换之后,利用q的语义信息得到Pin个采样点位移集合,结合查询量中对应的位置向量四元组,得到Pin个3D特征空间采样点坐标P,根据采样点坐标P先在(x,y)的特征空间中做两点插值,得到一个不考虑z轴权重的特征矩阵,然后再在z轴上做高斯权重插值,进而得到完整的采样后的特征矩阵X;
2.2.3)自适应混合模块:对特征矩阵X进行自适应地解码,分两步对采样后的特征矩阵X进行自适应混合,分别为自适应语义通道混合以及自适应空间信息混合,在自适应语义通道混合中,使用基于q的动态权重矩阵在特征通道上对特征矩阵X进行通道语义增强;在自适应空间信息混合中,使用基于q的动态权重矩阵在空间信息上对特征矩阵X进行空间信息增强;最终得到信息增强后的特征矩阵X’;
2.2.4)FFN模块:对于2.2.3)中输出的更新后的特征矩阵X’,结合其位置向量,对整体的查询中的语义向量和位置向量进行更新,即对2.2.3)得到特征矩阵X’展平,经过一组FFN,将其通道数转换到q的相同通道数,得到更新后的查询中的语义向量q′;根据更新后的语义向量q′,再经过一组FFN,得到一组更新后的查询中的位置向量(x′,y′,z′,r′);
2.3)得到最终的查询语义向量q′以及位置向量(x′,y′,z′,r′)后,将q′送入一个FFN分类网络中得到分类结果,将(x′,y′,z′,r′)翻译成包围框的坐标得到包围框的结果;
3)训练阶段:对配置的网络模型采用训练数据进行训练,使用focal loss,L1loss和GIoU loss组合作为损失函数,使用AdamW优化器,通过反向传播算法来更新网络参数,不断重复步骤1)和步骤2),直至达到迭代次数;
4)训练阶段:将待测试数据的图片特征输入到训练完成的AdaMixer模型中,根据2.3)中的方式,得到最终的目标分类结果以及目标包围框位置,验证所训练AdaMixer模型的效果,达到所需目标检测效果的AdaMixer模型作为最终所得目标检测模型,用于目标检测。
本发明还提出一种基于自适应解码器的目标检测装置,具有计算机可读存储介质,所述计算机存储介质中配置有计算机程序,所述计算机程序用于实现上述的目标检测模型AdaMixer,所述计算机程序被执行时实现上述目标跟踪方法。
本发明提出了一种新的解码方式,可以更好地利用基于查询的Transformer式目标检测框架中查询的空间位置信息和语义内容信息,所设计的解码器对查询更加具有自适应性,可以达到更好的效果,且无需特征提取网络之外的额外特征编码器,能够直接、高效、快速、准确地生成目标物体的包围框以及其类别。
本发明与现有技术相比有如下优点
本发明提出了一种简单、准确的检测器,拥有对于不同图片的不同查询量时的自适应能力。无需锚点框、密集匹配以及非极大值抑制等依赖于人类先验知识的手工模块就可以充分利用查询量中的空间信息以及语义信息,易于调试,且在训练时拥有更快的收敛速度,如图4所示。
本发明提出的解码器可以自适应地基于查询量来采样特征,以及用特征通道混合、空间信息混合来动态地解码特征。经实验后发现,特征信息以及空间信息对结果的准确率有很大的帮助,本发明的设计的检测模型有效地利用了查询量中包含语义和位置信息,有助于提升解码器对语义信息和空间信息的理解,自适应能力更强。
本发明提出了3D特征采样,可以有效地编码不同特征通道数的特征图,把有效信息更多地融合进查询量中。基于该3D特征采样策略,本发明仅利用一个骨干网络输出的不同通道特征即可获得多尺度的特征信息,并且可以适应不同物体的尺度变换,不需要任何额外的网络输出头即可有助于网络的简化以及可以消耗更少的运算资源。
本发明在目标检测任务上具有自适应性高、高效、快速、准确等特点。和现有的方法相比,本发明在主流数据集和实际的应用中都具有更好的表现。
附图说明
图1是本发明所使用的系统框架图。
图2是本发明3D特征空间的示意图。
图3是本发明的自适应特征混合模块示意图。
图4是本发明的收敛速度展示图。
图5是本发明的1x训练策略结果展示图。
图6是本发明的3x训练策略结果展示图。
图7为本发明的总体流程示意图。
具体实施方式
本发明是一种基于查询的自适应目标检测方法,构建了AdaMixer模型,结合了自适应性3D采样技术和自适应性的通道、空间混合技术,能够提升基于查询的目标检测器中解码器的性能,并通过注意力机制自适应调节特征,实现高性能、高效率的图片目标检测器。本发明方法中,AdaMixer模型的实现包括生成3D特征阶段,网络配置阶段、训练阶段以及测试阶段,如图7所示,具体说明如下。
1)生成3D特征阶段:使用输入图像基于骨干网络ResNet-50不同阶段输出的不同长宽、不同通道数的特征图,定义出一个3D的特征空间。首先使用线性层将每个特征图都转化到相同的通道数dfeat,优选dfeat=256,并且给每张特征图一个标号j。对特征图j,可以计算出它的z轴坐标为:
zj=log2(sj/sbase)
其中sj是第j张特征图的降采样条带宽度,sbase是基础的降采样条带的宽度,为图像降采样的一个预设量。本发明中,对骨干网络ResNet的第二到第五阶段(C2~C5)的特征图,经过线性变换,将特征图拉伸到相同长宽,将通道数统一为dfeat,叠放在一个三维空间中,,如图2,得到本发明的3D特征空间。
2)网络配置阶段,基于编码器和解码器,建立目标检测模型,即本发明的AdaMixer模型,如图1所示,模型包括以下配置:
2.1)初始查询生成配置:本发明首先配置编码器,为输入特征图初始化编码得到N个初始查询量,用于后续框架的学习的初始化,具体如下:
1.查询定义:
在本发明中,为了能使编码器达到预计的效果,自定义了一个包含语义信息以及位置信息的查询量,每个查询量中包含一个向量维度为dq的语义向量,以及对应查询采样点的一个位置向量(x,y,z,r),其中(x,y,z)是采样点3D特征空间中的坐标。r是特征图的高宽比的以2为底的对数。这样定义的主要原因是便于编码以及和目标的包围框转化。
查询量中的位置向量和包围框可以进行相互转化,具体的转化关系为:
xB=sbase·x,yB=sbase·y
wB=sbase·2z-r,hB=sbase·2z+r
即可以将一个位置向量(x,y,z,r)转化成一个包围框的信息(xB,yB,wB,hB),(xB,yB)对应包围框的中心点,(wB,hB)对应包围框的宽和高。sbase是基础的图像降采样条带的宽度,根据最大的特征图的缩放倍数来确定,本发明实例中sbase取4.
2.初始查询配置:
为输入特征图初始化编码生成N个初始查询量,每个查询中的语义向量q0初始化为一个dq维的张量,其中每个维度的值都是从标准正态分布N(0,1)中随机采样得到的,假设输入图像的长是H,宽是W,则每个查询采样点的位置向量初始化为一个能够转化为覆盖整张图像的包围框的四元组即为一个4维的向量。初始查询量只取决于图像的宽、高,初始查询量不来自于编码图像,但和编码图像的宽、高有关。
2.2)解码器:此阶段的输入是2.1)中生成格式的查询量,输出是经过解码器优化之后的相同格式的查询量。预先通过叠加M层来加深网络,达到较好的效果,在本发明实例中,我们取M=6,叠加6层解码器。对于输入的查询量,本发明解码器首先将其送入一个多头自注意力模块,得到一个增强后的语义查询量然后使用该q经过一个线性层的变换之后,可以得到Pin个采样点集合利用该采样点集合可以在本发明定义的3D特征空间中进行采样,把特征空间分成g组,分组后每组特征空间的通道数为dfeat/g,每组中采样Pin个点,可以得到特征矩阵每组的特征矩阵为其中C=dfeat/g,进行自适应混合,首先进行自适应语义通道混合,得到特征输出,接着进行自适应空间信息混合,得到最后利用此输出送入FFN网络,更新查询的语义向量和位置向量,得到和输入格式相同,但是经过自适应优化后的查询量q′和位置向量(x′,y’,z′,r′)。本发明解码器的具体实现如下。
1.多头自注意力模块:
对于输入的N个查询量,将其送入一个多头自注意力模块,为了在该模块中将查询量的位置信息和语义信息结合,使用正弦形式的位置信息附加到语义向量上。另外还将交集前景比IoF(Intersection over foreground)作为一个偏置加入了注意力的权重,这样可以在显式地将查询之间包含的关系考虑进来,具体形式如下:
Q=K=V=Linear(q+PosEmbedding(x,y,z,r))
其中IoF信息B中的每个元素∈=10-7,这里的exp(Bij)=1表示包围框j完全包住包围框i,exp(Bij)=∈表示包围框j和包围框i完全不相交。分别代表自注意力机制中的查询量(query)、关键字(key),值(value)。PosEmbedding()是对查询量位置四元组的一种正弦编码,可以使不同位置拥有不同的编码,输出的向量的维度是N×dq。具体如下:
2.3D采样模块:
a)3D特征空间中的自适应性采样:
使用多头自注意力模块中得到的q,经过一个线性层的变换之后,可以利用q的语义信息得到Pin个采样点集合:
结合输入中查询量对应的位置向量四元组,可以得到如下的Pin个3D特征空间采样点坐标P:
可以发现这里当{Δxi,Δyi∈[-0.5,0.5]}时,采样点是位于包围框以内的,但是本发明得到的{Δxi,Δyi}对范围不做限制,即,在有必要的时候,根据查询的内容不同,采样点可以被自适应地调整到包围框以外。
得到采样点坐标P之后,首先在(x,y)的特征空间中做双线性插值:
得到一个平面的特征矩阵,然后再在z轴上做高斯权重插值,对第j个特征图的权重是:
b)分组采样策略:
为了采样点的多样性,本发明在采样时还采取了分组采样的策略,类似多头注意力机制,将3D特征空间的dfeat分成g组,每组3D特征空间的通道数便变成dfeat/g,然后对g组中的每组采样特征矩阵其中C=dfeat/g,进行独立的3D特征空间自适应采样,最终得到的特征矩阵X的维度即变为
3.自适应混合模块:
a)自适应语义通道混合ACM:
ACM(x)=ReLU(LayerNorm(xMc))
其中,输出的是语义通道上混合后的特征输出。根据图3,这里的线性层Linearc()在不同的组之间相互独立,但是动态权重矩阵Mc在3D特征空间的不同采样点之间共享。LayerNorm()层会用于所有的输出通道上。
b)自适应空间信息混合(ACM):
ASM(x)=ReLU(LayerNorm(xTMs))
其中,输出的是空间信息上混合后的特征输出。这里的Pout是空间混合后的输出数目,可以人为调整,在本发明实例中经过测试,在Pin=32,Pout=128时可以使性能达到最佳状态。并且由于对x进行了转置操作,所以动态权重矩阵Ms是在不同的通道之间共享的。
c)整体动态混合模块:
4.FFN模块:
a)对查询量的语义向量q的更新:
b)对查询量的位置向量(x,y,z,r)的更新:
根据更新后的语义向量q′,经过一组FFN,即可得到一组更新后的查询中的位置向量(x′,y′,z′,r′)
{(Δxi,Δyi,Δzi)}=FFN(q′)
如果对特征矩阵X不分组,则自适应混合模块直接对特征矩阵X进行自适应地解码,进行3D特征空间自适应采样,得到特征矩阵X’,将特征矩阵X’展平,经过一组FFN,将其通道数转换到q的相同通道数,得到更新后的查询中的语义向量q′,并得到位置向量的更新。
3)训练阶段:
1.损失函数的定义:
本发明的损失函数主要是三个部分,focal loss,L1 bounding box loss,以及GIoU loss组成的matching loss,下面分别介绍这三种loss函数:
在本发明实例中,取Lfocal的λcls=2,pt是对于分类t的置信度分数,LL1bbox的x是,LGIoU的λgiou=2,Ac是同时包住多个参与运算的包围框的最小包围框。这三个损失函数的组合形成了本发明的损失函数L。对损失函数L的监督将被用于解码器的每个阶段。
2.训练策略:本实例使用focal loss、L1 bbox loss、GIoU loss作为损失函数,使用AdamW优化器,优化器的衰减率设置成0.0001.设置批大小BatchSize为16,即每次训练在训练集中取16个样本训练,初始学习率为2.5×10-5。总共有两种训练策略,具体如下:
a)1x训练策略:
总训练轮数设置为12轮,将训练图像的短边调整到800进行输入。这种策略对数据的标准增强操作只包括随机的水平翻转,这里为了和一些流行的检测器(比如FCOS和Cascade R-CNN)做公平对比,本发明只分配了100个可学习的目标查询,并且在第8轮和第11轮处对学习率除以10。在八块V100 GPU上训练大约需要9小时。
b)3x训练策略:
总训练轮数设置为36轮,由于一些流行的基于查询的目标检测器一般对数据都会训练更多轮次,并且会使用一些裁剪或者多尺度的数据增强。这里为了和这些检测器做公平对比,使用了和它们相同的数据增强,并且使用3倍的训练轮数进行训练。本发明在这种训练策略下将生成300个目标查询,并且在第24和33轮处对学习率除以10。在八块V100 GPU上训练大约需要29小时。
4)测试阶段
测试集输入数据的处理同训练数据,也是将输入的图像短边缩放到800,使用ResNet50网络进行特征提取,所使用的测试指标有AP,AP50,AP75,Aps,APm,APl,是一系列表示目标检测准确率的指标,AP50指在物体的真实包围框和预测的包围框的交并比IoU大于0.5时即认为预测准确时的平均准确率;AP75指在物体的真实包围框和预测的包围框的交并比IoU大于0.75时即认为预测准确时的平均准确率;AP指物体的真实包围框和预测的包围框的交并比阈值分别从0.5到0.95,每间隔0.05取一个阈值,共10个阈值下所测出的平均准确率,也是最重要的指标。Aps,APm,APl分别指当待检测目标分别为小型物体、中型物体、大型物体时的平均准确率。在COCO数据集中,使用1x的训练策略时,对比其他同样使用RestNet50做为骨干网络的目标检测框架时,可以在所有指标上获得最佳的结果,结果如图5所示;使用3x的训练策略时更是在除了APl以外的其他所有指标上都达到了当前最优的效果。当把本发明的骨干网络切换为ResNeXt-101-DCN以及Swin-S时,更是在以上所有指标上均超越了目前使用相同骨干网络的目标检测框架,该数据集的样例如图6所示。
本发明着力于一种能够基于查询量自适应的框架,无需无需锚点框、密集匹配以及非极大值抑制等模块。针对特征提取的模块,本发明使用了3D特征采样的编码形式,使得可以利用查询量的空间位置信息同时对不同分辨率的特征图进行采样。针对目前其他基于查询的目标检测框架无法充分利用查询量中信息的现状,本发明提出了自适应的语义特征混合模块以及自适应的空间信息混合模块,并且可以结合使用。针对目前网络计算量大的问题,本发明所设计的网络规模较小,仅包含一个初始查询生成的解码器和一个能够自适应查询量信息的解码器模块,在减小网络规模、计算量的同时达到了优秀的效果。AdaMixer首次将自适应混合模块应用于目标检测模块,设计了一个简单、整齐的框架,移除了手工设计的模块以及密集匹配的范式;AdaMixer提出了3D特征采样、自适应语义特征混合、自适应空间信息混合,以解决目前基于查询的框架不能充分利用查询信息的问题;AdaMixer在MSCOCO minival数据集的全部指标上,都取得了state-of-the-art的结果。
Claims (5)
1.一种基于自适应解码器的目标检测方法,其特征是构建一个目标检测模型AdaMixer,根据3D采样特征空间对图片的多尺度特征进行采样,并基于查询机制通过编码器和解码器自适应地根据查询的空间位置信息和语义内容信息进行采样点位置和特征解码的调节,再配合FFN完成对查询的增强,实现查询位置的检测,所述目标检测网络的实现包括生成3D特征阶段、网络配置阶段、训练阶段以及测试阶段:
1)生成3D特征阶段:使用骨干网络对训练样例图像进行特征提取,对于每个输入图像,基于骨干网络不同阶段输出的不同长宽、不同通道数的特征图,得到一个3D特征空间,用于在其中完成后续的采样处理;
2)网络配置阶段,基于初始查询配置和解码器,建立目标检测模型AdaMixer,包括以下配置:
2.1)初始查询配置:为输入特征图初始化编码生成N个初始查询量,查询量中包括初始语义向量q0,以及对应查询采样点的初始位置向量(x,y,z,r),(x,y,z)是采样点在3D特征空间中的坐标,r是特征图的高宽比的以2为底的对数,初始语义向量q0从标准正态分布N(0,1)中随机采样得到,初始位置向量(x,y,z,r)设置为能够覆盖整张特征图;
2.2)解码器:解码器的输入是2.1)中编码生成的查询量,输出是经过解码器优化之后的相同格式的查询量,解码器中包含以下模块,用于自适应地利用查询中语义信息和位置信息:
2.2.1)多头自注意力模块:将N个查询量输入一个多头自注意力模块,使用正弦形式的位置信息附加到语义向量上,并将交集前景比IoF作为一个偏置加入注意力的权重,经过该多头自注意力模块得到一个增强后的语义向量输出q;
2.2.2)3D采样模块:使用2.2.1)中得到的q,经过一个线性层的变换之后,利用q的语义信息得到Pin个采样点位移集合,结合查询量中对应的位置向量四元组,得到Pin个3D特征空间采样点坐标P,根据采样点坐标P先在(x,y)的特征空间中做两点插值,得到一个不考虑z轴权重的特征矩阵,然后再在z轴上做高斯权重插值,进而得到完整的采样后的特征矩阵X;
2.2.3)自适应混合模块:对特征矩阵X进行自适应地解码,分两步对采样后的特征矩阵X进行自适应混合,分别为自适应语义通道混合以及自适应空间信息混合,在自适应语义通道混合中,使用基于q的动态权重矩阵在特征通道上对特征矩阵X进行通道语义增强;在自适应空间信息混合中,使用基于q的动态权重矩阵在空间信息上对特征矩阵X进行空间信息增强;最终得到信息增强后的特征矩阵X’;
2.2.4)FFN模块:对于2.2.3)中输出的更新后的特征矩阵X’,结合其位置向量,对整体的查询中的语义向量和位置向量进行更新,即对2.2.3)得到特征矩阵X’展平,经过一组FFN,将其通道数转换到q的相同通道数,得到更新后的查询中的语义向量q′;根据更新后的语义向量q′,再经过一组FFN,得到一组更新后的查询中的位置向量(x′,y′,z′,r′);
2.3)得到最终的查询语义向量q′以及位置向量(x′,y′,z′,r′)后,将q′送入一个FFN分类网络中得到分类结果,将(x′,y′,z′,r′)翻译成包围框的坐标得到包围框的结果;
3)训练阶段:对配置的网络模型采用训练数据进行训练,使用focal loss,L1 loss和GIoU loss组合作为损失函数,使用AdamW优化器,通过反向传播算法来更新网络参数,不断重复步骤1)和步骤2),直至达到迭代次数;
4)训练阶段:将待测试数据的图片特征输入到训练完成的AdaMixer模型中,根据2.3)中的方式,得到最终的目标分类结果以及目标包围框位置,验证所训练AdaMixer模型的效果,达到所需目标检测效果的AdaMixer模型作为最终所得目标检测模型,用于目标检测。
2.根据权利要求1所述的一种基于自适应解码器的目标检测方法,其特征是步骤1)中的骨干网络为ResNet,对骨干网络ResNet的第二到第五阶段的特征图,经过线性变换,将通道数统一为dfeat,叠放在一个三维空间中,得到3D特征空间。
3.根据权利要求1所述的一种基于自适应解码器的目标检测方法,其特征是解码器首先将查询量送入一个多头自注意力模块,得到一个增强后的语义查询量将q经过一个线性层的变换之后,得到Pin个采样点集合利用采样点集合在3D特征空间中进行采样,首先把特征空间分成g组,分组后每组特征空间的通道数为dfeat/g,dfeat为特征空间的通道数,每组中采样Pin个点,得到特征矩阵每组的特征矩阵为其中C=dfeat/g,进行自适应混合,先进行自适应语义通道混合,得到语义特征增强输出接着进行自适应空间信息混合,得到空间信息增强输出最后将此输出送入FFN网络,更新查询的语义向量和位置向量,得到和输入格式相同,且经过自适应优化后的查询量q′和位置向量(x′,y’,z′,r′)。
4.根据权利要求1所述的一种基于自适应解码器的目标检测方法,其特征是将解码器多层叠加来加深网络,每层解码器都包括一个多头自注意力模块、一个3D采样模块、一个自适应混合模块和一个FFN模块。
5.一种基于自适应解码器的目标检测装置,其特征是具有计算机可读存储介质,所述计算机存储介质中配置有计算机程序,所述计算机程序用于实现权利要求1-4所述的目标检测模型AdaMixer,所述计算机程序被执行时实现权利要求1-4所述的目标跟踪方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210227694.7A CN114612716A (zh) | 2022-03-08 | 2022-03-08 | 一种基于自适应解码器的目标检测方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210227694.7A CN114612716A (zh) | 2022-03-08 | 2022-03-08 | 一种基于自适应解码器的目标检测方法及装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114612716A true CN114612716A (zh) | 2022-06-10 |
Family
ID=81860598
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210227694.7A Pending CN114612716A (zh) | 2022-03-08 | 2022-03-08 | 一种基于自适应解码器的目标检测方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114612716A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114898187A (zh) * | 2022-07-12 | 2022-08-12 | 南京后摩智能科技有限公司 | 一种用于云边端的目标检测网络构建方法及装置 |
WO2024007619A1 (zh) * | 2022-07-06 | 2024-01-11 | 京东科技信息技术有限公司 | 解码器的训练方法、目标检测方法、装置以及存储介质 |
CN117911877A (zh) * | 2024-03-20 | 2024-04-19 | 岳正检测认证技术有限公司 | 一种基于机器视觉的建筑通信光缆故障识别方法 |
-
2022
- 2022-03-08 CN CN202210227694.7A patent/CN114612716A/zh active Pending
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024007619A1 (zh) * | 2022-07-06 | 2024-01-11 | 京东科技信息技术有限公司 | 解码器的训练方法、目标检测方法、装置以及存储介质 |
CN114898187A (zh) * | 2022-07-12 | 2022-08-12 | 南京后摩智能科技有限公司 | 一种用于云边端的目标检测网络构建方法及装置 |
CN114898187B (zh) * | 2022-07-12 | 2022-10-28 | 南京后摩智能科技有限公司 | 一种用于云边端的目标检测网络构建方法及装置 |
CN117911877A (zh) * | 2024-03-20 | 2024-04-19 | 岳正检测认证技术有限公司 | 一种基于机器视觉的建筑通信光缆故障识别方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN114612716A (zh) | 一种基于自适应解码器的目标检测方法及装置 | |
CN115147598B (zh) | 目标检测分割方法、装置、智能终端及存储介质 | |
CN110689599A (zh) | 基于非局部增强的生成对抗网络的3d视觉显著性预测方法 | |
CN109670555B (zh) | 基于深度学习的实例级行人检测和行人重识别系统 | |
EP3740912A1 (en) | Data compression by local entropy encoding | |
CN105374054A (zh) | 基于空谱特性的高光谱图像压缩方法 | |
US20220277491A1 (en) | Method and device for machine learning-based image compression using global context | |
CN113066089B (zh) | 一种基于注意力引导机制的实时图像语义分割方法 | |
US20230245419A1 (en) | Saliency prediction method and system for 360-degree image | |
CN112801280A (zh) | 视觉深度自适应神经网络的一维卷积位置编码方法 | |
Huang et al. | Compressing multidimensional weather and climate data into neural networks | |
CN116612283A (zh) | 一种基于大卷积核骨干网络的图像语义分割方法 | |
CN116385928A (zh) | 基于自适应解码器的时空动作检测方法、设备及介质 | |
CN116524048A (zh) | 一种基于潜在扩散模型的自然图像压缩感知方法 | |
CN116402679A (zh) | 一种轻量级红外超分辨率自适应重建方法 | |
JP3828640B2 (ja) | 画像信号変換方法 | |
CN117237623B (zh) | 一种无人机遥感图像语义分割方法及系统 | |
CN117830900A (zh) | 一种无监督视频对象分割方法 | |
CN117456190A (zh) | 一种面向大规模复杂场景的点云语义分割方法 | |
CN117522674A (zh) | 一种联合局部和全局信息的图像重建系统及方法 | |
Shen et al. | Learned image compression with transformers | |
CN105528623B (zh) | 一种基于地物类别分类冗余字典的成像光谱图像稀疏表示方法 | |
ZiWen et al. | Multi-objective Neural Architecture Search for Efficient and Fast Semantic Segmentation on Edge | |
CN116091763A (zh) | 苹果叶部病害图像语义分割系统及分割方法、设备和介质 | |
CN115035408A (zh) | 基于迁移学习和注意力机制的无人机影像树种分类方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |