CN111523553B - 一种基于相似度矩阵的中心点网络多目标检测方法 - Google Patents

一种基于相似度矩阵的中心点网络多目标检测方法 Download PDF

Info

Publication number
CN111523553B
CN111523553B CN202010262779.XA CN202010262779A CN111523553B CN 111523553 B CN111523553 B CN 111523553B CN 202010262779 A CN202010262779 A CN 202010262779A CN 111523553 B CN111523553 B CN 111523553B
Authority
CN
China
Prior art keywords
corner
module
point
points
offset
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010262779.XA
Other languages
English (en)
Other versions
CN111523553A (zh
Inventor
章东平
朱祥祥
束元
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
China Jiliang University
Original Assignee
China Jiliang University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by China Jiliang University filed Critical China Jiliang University
Priority to CN202010262779.XA priority Critical patent/CN111523553B/zh
Publication of CN111523553A publication Critical patent/CN111523553A/zh
Application granted granted Critical
Publication of CN111523553B publication Critical patent/CN111523553B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Health & Medical Sciences (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于相似度矩阵的中心点网络多目标检测方法,采用全卷积神经网络获取目标的的角点、中心点,根据相似度矩阵得到角点间的匹配关系,最后根据匹配的角点、预测的中心点筛选预测框,最后利用非极大值抑制去除冗余的预测框,得到最终的目标框。该方法是单阶段的目标检测方法,保持了单阶段目标检测方法的检测速度。

Description

一种基于相似度矩阵的中心点网络多目标检测方法
技术领域
本发明属于深度卷积神经网络目标检测学习领域,涉及到卷积神经网络、深度学习、目标检测等技术,尤其涉及到一种基于相似度矩阵的中心点网络多目标检测方法。
背景技术
近几年来,目标检测算法取得了很大的突破。比较流行的算法可以分为两类,一类是基于感兴趣区域的R-CNN系算法(R-CNN,Fast R-CNN,Faster R-CNN等),它们是两阶段的,需要先算法产生目标候选框,也就是目标位置,然后再对候选框做分类与回归。而另一类是CornerNet,Yolo,SSD这类单阶段算法,其仅仅使用一个卷积神经网络CNN直接预测不同目标的类别与位置。第一类方法是准确度高一些,但是速度慢,但是第二类算法是速度快,但是准确性要低一些。
单阶段的算法又可分为基于锚定框的目标检测方法如Yolov3,基于关键点的目标检测方法如CornerNet,CenterNet,本专利也是一种基于关键点的目标检测方法,改进了CornerNet、CenterNet系列算法中角点的匹配问题,改进了部分网络结构,并保持了单阶段算法的速度。
发明内容
本发明克服了现有技术的不足之处,提出了一种基于相似度矩阵的中心点网络多目标检测方法,意在改进CenterNet算法中角点的匹配问题,提升目标检测的正确率,并保持该算法的速度。
中心点网络结构由图像预处理,沙漏网络、左上角点热图(heatmaps)、右下角角点热图、嵌入向量特征(Embeddings)、中心点角点热图、偏移量(offsets)提取网络等模块组成。其中图像预处理模块和沙漏网络用于提取目标的角点、中心点特征;热图模块用于输出角点或者中心点所在位置的热图,嵌入向量特征模块用于提取角点匹配的特征向量,偏移量提取网络模块用于提取热图中的角点或中心点位置相对于输入原图的偏移量。利用热图和偏移可以得到角点或者中心点的位置,利用嵌入向量模块可以得到所有角点对应的向量,利用该向量构建相似度矩阵,最后根据相似度矩阵得到角点的匹配关系,再利用中心点的位置过滤不正确的目标框,得到最终目标框。
步骤(1):所述图像预处理模块,由步幅为2、通道为128的7×7卷积模块与步幅为2、通道为256的残差模块组成。
步骤(2):所述沙漏网络模块由2分沙漏子模块串联组成。每个沙漏子模块先经过5个步长为2的3×3卷积模块降低特征图大小,这5个卷积模块的输出通道数依次为256,384,384,384,512。在通过5次上采样和跳跃连接恢复至输入特征图大小,当对特征进行上采样时应用了两个残差模块,每个跳跃连接还包含两个残差模块,沙漏模块中间有4个512通道的残差模块,整个沙漏网络的深度是104层。
步骤(3):将步骤(2)输出的特征图输入左上角点的热图模块、嵌入向量特征模块、偏移量提取网络模块,输出各类目标左上角点的热图、用于角点匹配的嵌入特征、热图中的点相对于原图的偏移量,其中热图具有C个通道,其中C是目标的总类别数,每个通道特征图的每个位置的值位于[0,1]区间,像素值表示该点为角点的置信度;偏移量的值具有2个通道,分别为角点映射回原图的x方向和y方向的偏移量的值;嵌入向量具有10个通道,将每个通道特征图相同坐标的值取出组成一个10维的向量,作为每个左上角点的特征向量。
步骤(4):将步骤(2)输出的特征图输入右下角点的热图模块、嵌入向量特征模块、偏移量提取网络模块,输出各类目标右下角点的热图、用于角点匹配的嵌入特征、热图中的点相对于原图的偏移量,所用的方法与步骤(3)相同。
步骤(5):将步骤(2)输出的特征图输入中心点的热图、偏移量提取网络,输出各类目标中心点的热图、热图中的点相对于原图的偏移量,所用的方法与步骤(3)相同。
步骤(6):基于相似度矩阵的中心点网络训练:输入训练样本图像大小为511×511,输出大小为128×128;采用标准的数据增强,包括随机水平翻转、随机缩放、随机裁剪和随机色彩抖动,也包括调整图像的亮度、饱和度和对比度;采用训练好的开源CenterNet网络模型作为预训练模型;使用Adam方法进行训练,损失函数为Loss=Lembedding+α(Lcenter+Lcornor)+β(Lcoroff+Lcenoff),α=β=0.1。其中,
①Lembedding:根据真实框的标注,输出所有目标K对应的角点位置,其对应的所有左上角点向量L={l1,l2,……lK}和右下角点向量R={r1,r2,……rK},利用li和rj来构建相似度矩阵S,其中
Figure GDA0004116303010000031
其中矩阵A为10×10的可训练矩阵,
Figure GDA0004116303010000032
τ为一个超参数,sigmod函数表达式为
Figure GDA0004116303010000033
再根据标注的框的角点对设计损失函数,对矩阵的每行设计损失
Figure GDA0004116303010000034
Figure GDA0004116303010000035
其中y只有当li和rj为同一目标的角点时为1,其他时候为0,
②Lcenter,Lcornor
Figure GDA0004116303010000036
其中,pcij代表类别C的预测的角点在位置(i,j)处的得分,得分越高就越可能是角点。ycij表示标注框角点的位置,由Gaussian公式
Figure GDA0004116303010000037
算出,σ是一个超参数,x、y代表角点坐标,N表示目标的数量。计算中心点heatmaps损失,中心点损失Lcenter与角点损失Lcornor公式相同,但此时ycij表示ground truth中心点的位置。
③Lcoroff,Lcenoff:令
Figure GDA0004116303010000038
xk表示目标k的标注框的角点的x坐标,yk表示目标k的标注框的角点的y坐标,n表示下采样倍数,[]代表实际下采样,
Figure GDA0004116303010000039
Figure GDA00041163030100000310
表示offset中的预测偏移值,SmoothL1loss的函数是:
Figure GDA00041163030100000311
Figure GDA00041163030100000312
中心点的offset损失和角点的offset损失公式相同,定义为Lcenoff
步骤(7):
①测试时,输入测试图像保持原分辨率,在heatmap层后接3*3的max pooling层进行非极大值抑制(NMS);
②取得分最高的k个左上角点、得分最高的k个右下角点与得分最高的k个中心点,将k个左上角点与k个右下角点构建大小为k*k相似度矩阵S,将Si,j>ε时的角点组成的框筛选出来,ε为一个阈值,ε可以取[0.4,0.6]区间内的值。由于S为对称矩阵,筛选时只选S的对角线及对角线以下部分,并将非同类别的角点构成的框剔除;
③确定剩下框的中心区域D,中心区域D由其左上角坐标和右下角坐标来表示D={(tlx,tly),(brx,bry)},其中(ctlx,ctly),(cbrx,cbry)为中心区域的左上角坐标和右下角坐标:
Figure GDA0004116303010000041
其中(tlx,tly),(brx,bry)分别为预测框的左上角坐标和右下角坐标,a为一个自适应值,当预测框较大(例如预测框的面积大于150个像素)时,a取一个较大的值,例如a=5,当预测框较小(例如预测框的面积小于150个像素)时,a取一个较小的值,例如a=3;
判断每个目标框的中心区域是否含有上面第②步中得分最高的k个中心点,有则保留目标框,否则删除;
④将剩下目标框进行软非极大值抑制(soft-nms)删除冗余目标框。目标框不超过100个。
所述角点热图、嵌入向量特征、偏移量提取网络模块输入为沙漏网络的输出,先用两个128通道的3×3卷积模块处理来自沙漏网络的特征,然后应用级联角点池化模块,若为预测左上角点,该模块先进行Left Pooling,并向后加上映射(shortcut),再经过一个3×3卷积-批次归一化层和Top Pooling得到该模块输出,若为右下角点,则先进行RightPooling,再进行Bottom Pooling,其他结构和预测左上角点分支相同。再将级联角点池化模块输出的特征图输入到一个3×3的卷积-批次归一化层,该层有256个通道,并向后加上映射(shotcut)和3×3卷积后,再后面经过一个具有256通道的3×3卷积模块和3个卷积-激活(ReLU)-卷积层来生成角点的热图(heatmaps)、偏移值(offsets)、嵌入向量(Embeddings)。
所述中心点热图、偏移量提取网络模块总体结构与角点热图、嵌入向量特征、偏移量提取网络模块相同,不同的是需要将级联角点池化模块替换为中心点池化模块,该模块其中一支进行Left Pooling、Right Pooling,另外一支进行Top Pooling,BottomPooling,再将2支结果像素级相加得到输出,中心池化层最后输出中心点的热图、偏移值。
所述Left Pooling、Right Pooling、Top Pooling,Bottom Pooling表示四种池化方式,其公式为
Figure GDA0004116303010000051
Figure GDA0004116303010000052
表示特征图的像素点,四种角点池化的方向分别是(0,H)->(0,0),(0,0)->(H,0),
(W,0)->(0,0),(0,0)->(W,0),H,W代表特征图的宽高。
附图说明
图1是本发明的方法流程图。
图2是图像预处理模块网络结构示意图。
图3是沙漏模块网络结构示意图。
图4a是中心点热图、嵌入向量、偏移量提取网络模块;
图4b角点热图、嵌入向量偏移量提取网络模块示意图。
图5是Top Pooling池化方式示意图。
图6a和图6b是中心区域确定方法示意图。
图7是中心区域确定方法示意图。
具体实施方式
下面结合附图对本发明作进一步说明。
本实施例中,如图1所示,一种城管垃圾图像识别及垃圾处理任务指派与检查的流程图,具体实现主要包括如下步骤:
如图1所示,中心点网络结构由图像预处理,沙漏网络、左上角点热图(heatmaps)、右下角角点热图、嵌入向量特征(Embeddings)、中心点角点热图、偏移量(offsets)提取网络等模块组成。其中图像预处理模块和沙漏网络用于提取目标的角点、中心点特征;热图模块用于输出角点或者中心点所在位置的热图,嵌入向量特征模块用于提取角点匹配的特征向量,偏移量提取网络模块用于提取热图中的角点或中心点位置相对于输入原图的偏移量。利用热图和偏移可以得到角点或者中心点的位置,利用嵌入向量模块可以得到所有角点对应的向量,利用该向量构建相似度矩阵,最后根据相似度矩阵得到角点的匹配关系,再利用中心点的位置过滤不正确的目标框,得到最终目标框。
步骤(1):如图2所示,所述图像预处理模块,由步幅为2、通道为128的7×7卷积模块与步幅为2、通道为256的残差模块组成。
步骤(2):如图3所示,所述沙漏网络模块由2分沙漏子模块串联组成。每个沙漏子模块先经过5个步长为2的3×3卷积模块降低特征图大小,这5个卷积模块的输出通道数依次为256,384,384,384,512。在通过5次上采样和跳跃连接恢复至输入特征图大小,当对特征进行上采样时应用了两个残差模块,每个跳跃连接还包含两个残差模块,沙漏模块中间有4个512通道的残差模块,整个沙漏网络的深度是104层。
步骤(3):将步骤(2)输出的特征图输入左上角点的热图模块、嵌入向量特征模块、偏移量提取网络模块,输出各类目标左上角点的热图、用于角点匹配的嵌入特征、热图中的点相对于原图的偏移量,其中热图具有C个通道,其中C是目标的总类别数,每个通道特征图的每个位置的值位于[0,1]区间,像素值表示该点为角点的置信度;偏移量的值具有2个通道,分别为角点映射回原图的x方向和y方向的偏移量的值;嵌入向量具有10个通道,将每个通道特征图相同坐标的值取出组成一个10维的向量,作为每个左上角点的特征向量。
步骤(4):将步骤(2)输出的特征图输入右下角点的热图模块、嵌入向量特征模块、偏移量提取网络模块,输出各类目标右下角点的热图、用于角点匹配的嵌入特征、热图中的点相对于原图的偏移量,所用的方法与步骤(3)相同。
步骤(5):将步骤(2)输出的特征图输入中心点的热图、偏移量提取网络,输出各类目标中心点的热图、热图中的点相对于原图的偏移量,所用的方法与步骤(3)相同。
步骤(6):基于相似度矩阵的中心点网络训练:输入训练样本图像大小为511×511,输出大小为128×128;采用标准的数据增强,包括随机水平翻转、随机缩放、随机裁剪和随机色彩抖动,也包括调整图像的亮度、饱和度和对比度;采用训练好的开源CenterNet网络模型作为预训练模型;使用Adam方法进行训练,损失函数为Loss=Lembedding+α(Lcenter+Lcornor)+β(Lcoroff+Lcenoff),α=β=0.1。其中,
④Lembedding:如图7所示,根据真实框的标注,输出所有目标K对应的角点位置,其对应的所有左上角点向量L={l1,l2,……lK}和右下角点向量R={r1,r2,……rK},利用li和rj来构建相似度矩阵S,其中
Figure GDA0004116303010000071
Figure GDA0004116303010000072
其中矩阵A为10×10的可训练矩阵,
Figure GDA0004116303010000073
τ为一个超参数,sigmod函数表达式为
Figure GDA0004116303010000074
再根据标注的框的角点对设计损失函数,对矩阵的每行设计损失
Figure GDA0004116303010000075
其中y只有当li和rj为同一目标的角点时为1,其他时候为0,
⑤Lcenter,Lcornor
Figure GDA0004116303010000076
其中,pcij代表类别C的预测的角点在位置(i,j)处的得分,得分越高就越可能是角点。ycij表示标注框角点的位置,由Gaussian公式
Figure GDA0004116303010000077
算出,σ=2/9,x、y代表角点坐标,N表示目标的数量。计算中心点heatmaps损失,中心点损失Lcenter与角点损失Lcornor公式相同,但此时ycij表示ground truth中心点的位置。
⑥Lcoroff,Lcenoff:令
Figure GDA0004116303010000078
xk表示目标k的标注框的角点的x坐标,yk表示目标k的标注框的角点的y坐标,n表示下采样倍数,[]代表实际下采样,
Figure GDA0004116303010000079
Figure GDA00041163030100000710
表示offset中的预测偏移值,SmoothL1loss的函数是:
Figure GDA00041163030100000711
Figure GDA00041163030100000712
中心点的offset损失和角点的offset损失公式相同,定义为Lcenoff
步骤(7):
①测试时,输入测试图像保持原分辨率,在heatmap层后接3*3的max pooling层进行非极大值抑制(NMS);
②取得分最高的100个左上角点、得分最高的100个右下角点与得分最高的100个中心点,将100个左上角点100个右下角点构建大小为100*100相似度矩阵S,将Si,j>ε时的角点组成的框筛选出来,ε为一个阈值,ε可以取[0.4,0.6]区间内的值,这里ε=0.5,由于S为对称矩阵,筛选时只选S的对角线及对角线以下部分,并将非同类别的角点构成的框剔除;
③确定剩下框的中心区域D,如图6a和6b所示,中心区域D由其左上角坐标和右下角坐标来表示D={(tlx,tly),(brx,bry)},其中(ctlx,ctly),(cbrx,cbry)为中心区域的左上角坐标和右下角坐标:
Figure GDA0004116303010000081
其中(tlx,tly),(brx,bry)分别为预测框的左上角坐标和右下角坐标,a为一个自适应值,当预测框较大(例如预测框的面积大于150个像素)时,a取一个较大的值,例如a=5,当预测框较小(例如预测框的面积小于150个像素)时,a取一个较小的值,例如a=3;
判断每个目标框的中心区域是否含有上面第②步中得分最高的100个中心点,有则保留目标框,否则删除;
④将剩下目标框进行软非极大值抑制(soft-nms)删除冗余目标框。目标框不超过100个。
如图4a和4b所示,所述角点热图、嵌入向量特征、偏移量提取网络模块输入为沙漏网络的输出,先用两个128通道的3×3卷积模块处理来自沙漏网络的特征,然后应用级联角点池化模块,若为预测左上角点,该模块先进行Left Pooling,并向后加上映射(shortcut),再经过一个3×3卷积-批次归一化层和Top Pooling得到该模块输出,若为右下角点,则先进行Right Pooling,再进行Bottom Pooling,其他结构和预测左上角点分支相同。再将级联角点池化模块输出的特征图输入到一个3×3的卷积-批次归一化层,该层有256个通道,并向后加上映射(shotcut)和3×3卷积后,再后面经过一个具有256通道的3×3卷积模块和3个卷积-激活(ReLU)-卷积层来生成角点的热图(heatmaps)、偏移值(offsets)、嵌入向量(Embeddings)。
如图4a和4b所示,所述中心点热图、偏移量提取网络模块总体结构与角点热图、嵌入向量特征、偏移量提取网络模块相同,不同的是需要将级联角点池化模块替换为中心点池化模块,该模块其中一支进行Left Pooling、Right Pooling,另外一支进行TopPooling,Bottom Pooling,再将2支结果像素级相加得到输出,中心池化层最后输出中心点的热图、偏移值。
所述Left Pooling、Right Pooling、Top Pooling,Bottom Pooling表示四种池化方式,Top Pooling池化方式如图5所示,其他池化方式类似但是方向不同,其公式为
Figure GDA0004116303010000091
Figure GDA0004116303010000092
表示特征图的像素点,四种角点池化的方向分别是(0,H)->(0,0),(0,0)->(H,0),(W,0)->(0,0),(0,0)->(W,0),H,W代表特征图的宽高。

Claims (3)

1.一种基于相似度矩阵的中心点网络多目标检测方法,所述中心点网络结构由图像预处理,沙漏网络、左上角点热图(heatmaps)、右下角角点热图、嵌入向量特征(Embeddings)、中心点角点热图、偏移量(offsets)提取网络组成,其中图像预处理模块和沙漏网络用于提取目标的角点、中心点特征;热图模块用于输出角点或者中心点所在位置的热图;嵌入向量特征模块用于提取角点匹配的特征向量;偏移量提取网络模块用于提取热图中的角点或中心点位置相对于输入原图的偏移量,利用热图和偏移得到角点或者中心点的位置,利用嵌入向量模块可以得到所有角点对应的向量,利用该向量构建相似度矩阵,最后根据相似度矩阵得到角点的匹配关系,再利用中心点的位置过滤不正确的目标框,得到最终目标框;其特征在于包括如下步骤:
步骤(1):所述图像预处理模块,由步幅为2、通道为128的7×7卷积模块与步幅为2、通道为256的残差模块组成;
步骤(2):所述沙漏网络模块由2个沙漏子模块串联组成,每个沙漏子模块先经过5个步长为2的3×3卷积模块降低特征图大小,这5个卷积模块的输出通道数依次为256,384,384,384,512;在通过5次上采样和跳跃连接恢复至输入特征图大小,当对特征进行上采样时应用了两个残差模块,每个跳跃连接还包含两个残差模块,沙漏模块中间有4个512通道的残差模块,整个沙漏网络的深度是104层;
步骤(3):将步骤(2)输出的特征图输入左上角点的热图模块、嵌入向量特征模块、偏移量提取网络模块,输出各类目标左上角点的热图、用于角点匹配的嵌入特征、热图中的点相对于原图的偏移量,其中热图具有C个通道,其中C是目标的总类别数,每个通道特征图的每个位置的值位于[0,1]区间,像素值表示该点为角点的置信度;偏移量的值具有2个通道,分别为角点映射回原图的x方向和y方向的偏移量的值;嵌入向量具有10个通道,将每个通道特征图相同坐标的值取出组成一个10维的向量,作为每个左上角点的特征向量;
步骤(4):将步骤(2)输出的特征图输入右下角点的热图模块、嵌入向量特征模块、偏移量提取网络模块,输出各类目标右下角点的热图、用于角点匹配的嵌入特征、热图中的点相对于原图的偏移量,所用的方法与步骤(3)相同;
步骤(5):将步骤(2)输出的特征图输入中心点的热图、偏移量提取网络,输出各类目标中心点的热图、热图中的点相对于原图的偏移量,所用的方法与步骤(3)相同;
步骤(6):基于相似度矩阵的中心点网络训练:输入训练样本图像大小为511×511,输出大小为128×128;采用标准的数据增强,包括随机水平翻转、随机缩放、随机裁剪和随机色彩抖动,也包括调整图像的亮度、饱和度和对比度;采用训练好的开源CenterNet网络模型作为预训练模型;使用Adam方法进行训练,损失函数为Loss=Lembedding+α(Lcenter+Lcornor)+β(Lcoroff+Lcenoff),α=β=0.1;其中,
①Lembedding:根据真实框的标注,输出所有目标K对应的角点位置,其对应的所有左上角点向量L={l1,l2,……lK}和右下角点向量R={r1,r2,……rK},利用li和rj来构建相似度矩阵S,其中
Figure FDA0004116303000000021
其中矩阵A为10×10的可训练矩阵,
Figure FDA0004116303000000022
τ为一个超参数,sigmod函数表达式为
Figure FDA0004116303000000023
再根据标注的框的角点对设计损失函数,对矩阵的每行设计损失
Figure FDA0004116303000000024
Figure FDA0004116303000000025
其中y只有当li和rj为同一目标的角点时为1,其他时候为0;
②Lcenter,Lcornor
Figure FDA0004116303000000026
其中,pcij代表类别C的预测的角点在位置(i,j)处的得分,得分越高就越可能是角点;ycij表示标注框角点的位置,由Gaussian公式
Figure FDA0004116303000000027
算出,σ是一个超参数,x、y代表角点坐标,N表示目标的数量;计算中心点热图损失,中心点损失Lcenter与角点损失Lcornor公式相同,但此时ycij表示ground truth中心点的位置;
③Lcoroff,Lcenoff:令
Figure FDA0004116303000000031
xk表示目标k的标注框的角点的x坐标,yk表示目标k的标注框的角点的y坐标,n表示下采样倍数,[]代表实际下采样,
Figure FDA0004116303000000032
Figure FDA0004116303000000033
表示offset中的预测偏移值,SmoothL1loss的函数是:
Figure FDA0004116303000000034
Figure FDA0004116303000000035
中心点的offset损失和角点的offset损失公式相同,定义为Lcenoff
步骤(7):
①测试时,输入测试图像保持原分辨率,在heatmap层后接3*3的max pooling层进行非极大值抑制(NMS);
②取得分最高的k个左上角点、得分最高的k个右下角点与得分最高的k个中心点,将k个左上角点与k个右下角点构建大小为k*k相似度矩阵S,将Si,j>ε时的角点组成的框筛选出来,ε为一个阈值,ε取[0.4,0.6]区间内的值;由于S为对称矩阵,筛选时只选S的对角线及对角线以下部分,并将非同类别的角点构成的框剔除;
③确定剩下框的中心区域D,中心区域D由其左上角坐标和右下角坐标来表示D={(tlx,tly),(brx,bry)},其中(ctlx,ctly),(cbrx,cbry)为中心区域的左上角坐标和右下角坐标:
Figure FDA0004116303000000036
其中(tlx,tly),(brx,bry)分别为预测框的左上角坐标和右下角坐标,a为一个自适应值,当预测框较大时,a=5,当预测框较小时,a=3;
判断每个目标框的中心区域是否含有上面第②步中得分最高的k个中心点,有则保留目标框,否则删除;
④将剩下目标框进行软非极大值抑制(soft-nms)删除冗余目标框;目标框不超过100个。
2.如权利要求1所述基于相似度矩阵的中心点网络多目标检测方法,其特征在于:所述角点热图、嵌入向量特征、偏移量提取网络模块输入为沙漏网络的输出,先用两个128通道的3×3卷积模块处理来自沙漏网络的特征,然后应用级联角点池化模块,若为预测左上角点,该模块先进行Left Pooling,并向后加上映射(shortcut),再经过一个3×3卷积-批次归一化层和Top Pooling得到该模块输出,若为右下角点,则先进行Right Pooling,再进行Bottom Pooling,其他结构和预测左上角点分支相同;再将级联角点池化模块输出的特征图输入到一个3×3的卷积-批次归一化层,该层有256个通道,并向后加上映射(shotcut)和3×3卷积后,再后面经过一个具有256通道的3×3卷积模块和3个卷积-激活(ReLU)-卷积层来生成角点的热图(heatmaps)、偏移值(offsets)、嵌入向量(Embeddings)。
3.如权利要求1所述基于相似度矩阵的中心点网络多目标检测方法,其特征在于:所述中心点热图、偏移量提取网络模块总体结构与角点热图、嵌入向量特征、偏移量提取网络模块相同,不同的是需要将级联角点池化模块替换为中心点池化模块,该模块其中一支进行Left Pooling、Right Pooling,另外一支进行Top Pooling,Bottom Pooling,再将2支结果像素级相加得到输出,中心池化层最后输出中心点的热图、偏移值;
所述Left Pooling、Right Pooling、Top Pooling,Bottom Pooling表示四种池化方式,其公式为
Figure FDA0004116303000000041
Figure FDA0004116303000000042
ti,j表示特征图的像素点,四种角点池化的方向分别是(0,H)->(0,0),(0,0)->(H,0),(W,0)->(0,0),(0,0)->(W,0),H,W代表特征图的宽高。
CN202010262779.XA 2020-04-03 2020-04-03 一种基于相似度矩阵的中心点网络多目标检测方法 Active CN111523553B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010262779.XA CN111523553B (zh) 2020-04-03 2020-04-03 一种基于相似度矩阵的中心点网络多目标检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010262779.XA CN111523553B (zh) 2020-04-03 2020-04-03 一种基于相似度矩阵的中心点网络多目标检测方法

Publications (2)

Publication Number Publication Date
CN111523553A CN111523553A (zh) 2020-08-11
CN111523553B true CN111523553B (zh) 2023-04-18

Family

ID=71911489

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010262779.XA Active CN111523553B (zh) 2020-04-03 2020-04-03 一种基于相似度矩阵的中心点网络多目标检测方法

Country Status (1)

Country Link
CN (1) CN111523553B (zh)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112071058A (zh) * 2020-08-14 2020-12-11 深延科技(北京)有限公司 基于深度学习的道路交通监控及车辆异常、违禁、火灾的检测方法及系统
CN112347864A (zh) * 2020-10-21 2021-02-09 北京市地铁运营有限公司地铁运营技术研发中心 轨道交通客流感知及诱导方法、装置、设备和系统
CN112270278A (zh) * 2020-11-02 2021-01-26 重庆邮电大学 一种基于关键点的蓝顶房检测方法
CN112381183B (zh) * 2021-01-12 2021-05-07 北京易真学思教育科技有限公司 目标检测方法、装置、电子设备及存储介质
CN113111754A (zh) * 2021-04-02 2021-07-13 中国科学院深圳先进技术研究院 一种目标检测方法、装置、终端设备和存储介质
CN113392747A (zh) * 2021-06-07 2021-09-14 北京优创新港科技股份有限公司 一种用于立体仓库的货物包装箱识别方法及系统
CN113743218B (zh) * 2021-08-03 2024-05-31 科大讯飞股份有限公司 一种车牌识别方法、车牌识别装置和计算机可读存储介质
CN113673444B (zh) * 2021-08-19 2022-03-11 清华大学 一种基于角点池化的路口多视角目标检测方法及系统
CN113822277B (zh) * 2021-11-19 2022-02-18 万商云集(成都)科技股份有限公司 基于深度学习目标检测的违规广告图片检测方法及系统
CN113850805B (zh) * 2021-11-29 2022-02-22 北京世纪好未来教育科技有限公司 多文档检测方法、装置、电子设备及存储介质
CN114463255B (zh) * 2021-12-23 2024-07-12 国网江苏省电力有限公司电力科学研究院 一种基于无锚点机制的螺丝脱落检测方法
CN114359222B (zh) * 2022-01-05 2024-07-05 多伦科技股份有限公司 一种任意多边形目标检测方法、电子设备及存储介质

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107389732A (zh) * 2017-07-14 2017-11-24 中国计量大学 一种激光扫描热成像裂纹检测方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9256224B2 (en) * 2011-07-19 2016-02-09 GE Intelligent Platforms, Inc Method of sequential kernel regression modeling for forecasting and prognostics
CN107958246A (zh) * 2018-01-17 2018-04-24 深圳市唯特视科技有限公司 一种基于新型端到端人脸超分辨率网络的图像对齐方法
CN110490256A (zh) * 2019-08-20 2019-11-22 中国计量大学 一种基于关键点热图的车辆检测方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107389732A (zh) * 2017-07-14 2017-11-24 中国计量大学 一种激光扫描热成像裂纹检测方法

Also Published As

Publication number Publication date
CN111523553A (zh) 2020-08-11

Similar Documents

Publication Publication Date Title
CN111523553B (zh) 一种基于相似度矩阵的中心点网络多目标检测方法
CN109902677B (zh) 一种基于深度学习的车辆检测方法
CN110136154B (zh) 基于全卷积网络与形态学处理的遥感图像语义分割方法
CN110335290B (zh) 基于注意力机制的孪生候选区域生成网络目标跟踪方法
EP3690714A1 (en) Method for acquiring sample images for inspecting label among auto-labeled images to be used for learning of neural network and sample image acquiring device using the same
CN113642390B (zh) 一种基于局部注意力网络的街景图像语义分割方法
CN112052886A (zh) 基于卷积神经网络的人体动作姿态智能估计方法及装置
CN113160062B (zh) 一种红外图像目标检测方法、装置、设备及存储介质
CN108647585A (zh) 一种基于多尺度循环注意力网络的交通标识符检测方法
CN110659664B (zh) 一种基于ssd的高精度识别小物体的方法
CN111191566A (zh) 基于像素分类的光学遥感图像多目标检测方法
CN111079739B (zh) 一种多尺度注意力特征检测方法
CN110175504A (zh) 一种基于多任务级联卷积网络的目标检测和对齐方法
CN116994140A (zh) 基于遥感影像的耕地提取方法、装置、设备和介质
CN113850129A (zh) 一种旋转等变的空间局部注意力遥感图像目标检测方法
CN111461213A (zh) 一种目标检测模型的训练方法、目标快速检测方法
CN111310609B (zh) 基于时序信息和局部特征相似性的视频目标检测方法
CN113971764B (zh) 一种基于改进YOLOv3的遥感图像小目标检测方法
CN116645592B (zh) 一种基于图像处理的裂缝检测方法和存储介质
CN112800955A (zh) 基于加权双向特征金字塔的遥感影像旋转目标检测方法及系统
CN111753682A (zh) 一种基于目标检测算法的吊装区域动态监控方法
CN114022408A (zh) 基于多尺度卷积神经网络的遥感图像云检测方法
CN113628297A (zh) 一种基于注意力机制和迁移学习的covid-19深度学习诊断系统
CN111723660A (zh) 一种用于长形地面目标检测网络的检测方法
CN113159215A (zh) 一种基于Faster Rcnn的小目标检测识别方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant