CN113792721B - 基于one-shot机制的仪表检测方法 - Google Patents

基于one-shot机制的仪表检测方法 Download PDF

Info

Publication number
CN113792721B
CN113792721B CN202111032665.7A CN202111032665A CN113792721B CN 113792721 B CN113792721 B CN 113792721B CN 202111032665 A CN202111032665 A CN 202111032665A CN 113792721 B CN113792721 B CN 113792721B
Authority
CN
China
Prior art keywords
instrument
image
feature
heatmap
feature map
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202111032665.7A
Other languages
English (en)
Other versions
CN113792721A (zh
Inventor
李晖晖
汪瑨昇
王昕煜
刘玉昊
郭雷
刘航
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Northwestern Polytechnical University
Original Assignee
Northwestern Polytechnical University
Filing date
Publication date
Application filed by Northwestern Polytechnical University filed Critical Northwestern Polytechnical University
Priority to CN202111032665.7A priority Critical patent/CN113792721B/zh
Publication of CN113792721A publication Critical patent/CN113792721A/zh
Application granted granted Critical
Publication of CN113792721B publication Critical patent/CN113792721B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

本发明提供了一种基于one‑shot机制的仪表检测方法。首先,利用尺寸变换和透视变换对采集的仪表图像数据集进行增强处理;然后,构建基于one‑shot机制的仪表检测网络模型,包括一个基于ResNet‑18的特征提取孪生网络模块、RPN模块、ROIAlign池化层和基于Grid Head交换特征融合网络模块;接着,利用增强后的图像数据集对网络模型进行训练,得到训练好的网络;最后,利用训练好的网络对待检测仪表图像进行处理,得到最终的检测结果。本发明具有检测任意四边形仪表表盘位置的能力,且具有较高的仪表检测精度。

Description

基于one-shot机制的仪表检测方法
技术领域
本发明属计算机视觉、目标检测技术领域,具体涉及一种基于one-shot机制的仪表检测方法。
背景技术
仪表检测定位技术,在引入深度学习之前,主要使用图像匹配的方式,利用仪表模板实现对仪表的准确定位,然而该方法严重依赖图像匹配的准确性,基于SIFT(Scale-invariant feature transform,尺度不变特征变换)等传统特征对于复杂条件下,比如光照变化、图像清晰度变化、不同厂家仪表外观变化等难以适应,导致在部分场景条件下定位失败。而使用基于HOG(Histogram of Oriented Gradient,方向梯度直方图)和SVM(Support Vector Machine,支持向量机)的检测方法,精度难以与现有卷积神经网络相匹配。因此,研究基于卷积神经网络的仪表检测定位技术具有十分重要的现实意义。
利用计算机视觉技术进行仪表检测定位的难点主要有两方面:第一,仪表检测任务往往需要准确获取仪表的表盘位置,对其矫正成矩形后方便后续读数识别等,特别是在监控设备下获取的仪表图片,往往是发生了角度的倾斜,需要进行透视变换后才能获取仪表的矩形表盘,因此,算法要具备可以预测任意四边形位置的能力,而通用目标检测技术通常仅仅需要预测目标的最小包围框,对于仪表表盘的检测定位任务而言其定位的效果难以满足后续任务的要求,无法仅仅利用仪表表盘的最小包围框位置信息进一步将仪表表盘矫正成正视角度下的仪表表盘。此外,即便使用实例分割技术,可以获取仪表表盘的位置掩码,但面临如何减少利用位置掩码进行透视变换时引入误差的问题;第二,在不同生产环境中,具有相同功能仪表的外观具有一定相似性,但是由于不同的仪表厂商,不同出厂批次或者版本型号的不同会使得仪表的外观发生一定变化,当前基于深度学习的检测算法依赖训练集的数据分布,当实际测试的仪表数据发生显著变化时,即训练集的仪表外观与测试集的仪表外观不同,会对测试的效果产生在较大的影响。
发明内容
为了克服现有技术的不足,本发明提供一种基于one-shot机制的仪表检测方法。首先,利用尺寸变换和透视变换对采集的仪表图像数据集进行增强处理;然后,构建基于one-shot机制的仪表检测网络模型,包括一个基于ResNet-18的特征提取孪生网络模块、RPN模块、ROI Align池化层和基于Grid Head交换特征融合网络模块;接着,利用增强后的图像数据集对网络模型进行训练,得到训练好的网络;最后,利用训练好的网络对待检测仪表图像进行处理,得到最终的检测结果。本发明具有检测任意四边形仪表表盘位置的能力,能够使用预测的四边形位置信息方便地将仪表转换成正视角下的矩形仪表表盘;此外,通过one-shot机制,使得检测算法可以利用模板图片的信息,能够提高当仪表外观发生变化时的仪表检测精度。
一种基于one-shot机制的仪表检测方法,其特征在于步骤如下:
步骤1:对监控设备采集到的每一幅仪表图像分别进行尺寸增强和透视变换增强处理,增强处理前后的图像共同构成仪表图像数据集;对采集到的仪表图像中包含的仪表设备的模板图像进行透视变换增强处理,得到仪表模板图像数据集;
步骤2:构建基于one-shot机制的仪表检测网络模型,包括一个基于ResNet-18的特征提取孪生网络模块、RPN模块、ROI Align池化层和基于Grid Head交换特征融合网络模块,其中,将待检测仪表图像和仪表模板图像分别输入到ResNet-18孪生网络模块,输出得到待检测仪表图像特征和仪表模板图像特征;RPN模块对待检测仪表图像特征进行初定位处理,输出得到仪表的矩形包围框坐标;ROI Align池化层根据仪表的矩形包围框坐标将对应的待检测仪表图像特征池化成同一大小,同时利用全图坐标将仪表模板图像特征也池化成相同大小;将池化后的待检测仪表图像特征和仪表模板图像特征同时输入到基于GridHead交换特征融合网络模块,输出得到待检测仪表的四边形的四个顶点位置的标记信息;
所述的基于Grid Head交换特征融合网络模块包括一个孪生网络模块、特征交互融合模块和反卷积层,孪生网络模块由8个卷积层构成,对输入的待检测图像特征Fdin和模板图像特征分别进行特征提取,提取后的特征分别记为Fd和Q,特征交互融合模块对提取的特征Fd和Q进行融合处理,具体如下:
将特征Fd和Q分别按照通道平均分成M组,与第i个Grid点对应的特征图分别记为Fdi和Qi,与源点集合Si中的第j个点对应的特征图分别记为Fdj和Qj,i=1,2,…,M,M为Grid点数,j=1,2,…,Ki,Ki为源点集合Si中包含的源点个数,所述的源点为Grid网格中与第i个Grid点距离为1的点,所有源点构成源点集合;然后,分别对特征图Fdi和Qi进行反卷积处理,得到对应的未融合的heatmap特征图,分别记为hF′和hQ′,分别将特征图Fdj和Qj通过2个卷积核为3*3的卷积层,得到对应的新的待融合特征图,分别记为Td:j→i(Fdj)和Tq:j→i(Qj),将特征图Qi经过2个卷积核为3*3的卷积层,得到待融合的模板特征,记为Tqd:i(Qi),将特征图Qj经过2个卷积核为3*3的卷积层,得到待融合的模板特征,记为Tqd:j→i(Qj),i=1,2,…,M,j=1,2,…,Ki;接着,将特征图Fdi、Qi与融合的特征图Td:j→i(Fdj)、Tq:j→i(Qj)、模板特征Tqd:i(Qi)、Tqd:j→i(Qi)分别按下式进行相加融合处理,i=1,2,…,M,得到融合后的特征图F′di、Q′i
最后,对特征图F′di、Q′i分别按照下式进行二次相加融合处理,得到二级融合特征图F″di、Q″i
其中,T′j→i(Fdj)表示特征图Fdj通过2个卷积层得到的新的二级待融合特征图,这里的卷积层结构与前面得到特征图Td:j→i(Fdj)中的卷积层结构相同;T′j→i(Q′j)表示特征图Q′j通过2个卷积层,得到的新的二级待融合特征图,这里的卷积层结构与前面得到特征图Tq:j→i(Qj)中的卷积层结构相同;T′qd:i(Qi)表示特征图Qi通过两个卷积核为3*3的卷积层处理;T′qd:j→i(Qj)表示特征图Qj通过两个卷积核为3*3的卷积层处理;i=1,2,…,M,j=1,2,…,Ki
所述的基于Grid Head交换特征融合网络模块中的反卷积层由两层反卷积层组成,将融合模块输出的特征图F″di和Q″i分别输入到反卷积层,输出得到最终的融合heatmap特征图;
步骤3:以步骤1得到的图像数据集和仪表模板图像数据集中的图像为输入,采用随机梯度下降法对步骤2构建的基于one-shot机制的仪表检测网络模型进行训练,得到训练好的网络模型;其中,网络的损失函数按下式进行计算:
Loss=Lcls+Lreg+Lseg (5)
其中,Loss表示网络的总损失,Lcls表示RPN模块分类损失,Lreg表示RPN模块位置回归损失,Lcls与Lreg与Faster RCNN中的损失一致;Lseg表示Grid Head交换特征融合网络模块中Grid heatmap交叉熵损失,按下式计算得到:
Lseg=Lseg未融合+Lseg已融合
其中,Lseg未融合表示未融合的heatmap特征图对应的交叉熵损失,Lseg已融合表示最终融合的heatmap特征图的交叉熵损失,分别按以下公式计算得到:
其中,M为Grid点数,N为heatmap特征图的像素个数,tk,l表示第l个Grid点对应的最终融合的heatmap特征图中第k个像素的值,t′k,l表示第l个Grid点对应的未融合的heatmap特征图中第k个像素的值,tk,l和t′k,l取值范围0到1,表示第l个Grid点对应的未融合的heatmap特征图所对应的标签图中第k个像素的值,取值范围0和1,像素为1是表示对应的是预测Grid点区域,像素为0时表示对应的不是预测Grid点区域;
步骤4:将待检测的仪表图像和模板仪表图像输入到步骤3训练好的网络模型,输出得到预测的heatmap特征图,按照Grid RCNN目标检测网络的方式,将生成的heatmap转换为待检测仪表的四边形顶点位置,具体如下:
其中,(Ix,Iy)表示待检测仪表在图像中的顶点位置坐标,(Px,Py)表示RPN模块生成的包围框的顶点位置坐标,(Hx,Hy)表示最终的heatmap预测点在heatmap特征图中的位置,(wp,hp)表示RPN模型生成的包围框的宽度和高度,(wo,ho)表示heatmap的宽度和高度。
进一步地,所述的透视变换增强的具体过程如下:
获取仪表图像中的仪表尺寸标签,设标注的4个顶点分别为P1、P2、P3、P4,其中,P1和P3为对角顶点,过顶点P1画水平和垂直两条直线,过顶点P3画水平和垂直两条直线,四条直线相交产生4个直角坐标系,设顶点P2所在的原点距离其最近的坐标系为A,顶点P4所在的原点距离其最近的坐标系为B,在坐标系A的的四个象限区域中随机选择一点,作为顶点P2变换后的顶点P2′,记录其位置信息,在坐标系B的四个象限区域中随机选择一点,作为顶点P4变换后的顶点P4′,记录其位置信息,分别以点P1、P2、P3、P4以及点P1、P2′、P3、P4′为变换前后的顶点,根据变换前后4个顶点的位置关系得到对应的透视变换公式,将原仪表图像按照该透视变换公式进行变换,得到2幅透视变换后的图像;按照上述过程遍历所有顶点和直角坐标系区域,对每一幅仪表图像得到16幅透视变换后图像。
本发明的有益效果是:由于仪表图像是监控设备设置有限点位采集的,导致采集的仪表图片成像角度和仪表目标大小变化较少,通过采用尺寸增强和透视变换增强处理,可以增加仪表图像集的仪表成像角度仪表目标大小的变化,使得有利于训练出泛化能力更强的网络模型;由于采用预测heatmp的方式,直接预测仪表表盘四边形顶点,可以准确预测矩形表盘在不同成像角度下的四边形表盘位置;通过在基于Grid Head交换特征融合网络模块中采用one-shot机制,充分利用仪表与仪表模板外观的相似性,进一步提升仪表表盘的检测定位精度。本发明能够有效地对仪表表盘在不同成像角度下成像以后的位置进行定位,并可以充分利用模板图片信息帮助提升仪表检测精度,有助于推动当前利用计算机视觉技术进行仪表检测的发展。
附图说明
图1是本发明的基于one-shot机制的仪表检测方法流程图;
图2是本发明中透视变换增强过程示意图;
图3是透视变换增强后的仪表图像;
图4是本发明中基于Grid Head交换特征融合网络模块示意图;
图5是本发明中四边形位置预测时9个Grid点分布示意图;
图6是采用本发明方法进行仪表图像得到检测结果图像;
图中,(a)-油液表检测结果图像;(b)-油液表模板图片;(c)-泄流表检测结果图像;(d)-泄流表模板图片。
具体实施方式
下面结合附图和实施例对本发明进一步说明,本发明包括但不仅限于下述实施例。
如图1所示,本发明提供了一种基于one-shot机制的仪表检测方法,其具体实现过程如下:
1、图像数据预处理
监控场景下的仪表数据是来源于真实的监控设备采集的,受到监控设备安装位置的影响,仪表数据成像角度较为固定,为此利用仪表在每幅图像中仅仅有一个标注信息的特点,根据仪表的标注标签信息对仪表图像进行尺寸增强和透视变换增强两种增强方式,使得采集的仪表图像数据具有不同大小和不同视角下的仪表图像。
基于标签的仪表尺寸大小增强处理的具体过程如下:
1)获取仪表尺寸标签,根据标注的4个顶点获取最小包围矩形框。
2)根据仪表矩形框计算长宽比,对长宽比在一定范围内进行随机采样,使得矩形框长宽比在一定范围内发生变化。
3)对于不同的仪表设置不同的高度范围,以免现实中不存在的超出正常范围高度的仪表目标对于检测算法训练产生不良影响。此外,高度范围可以根据标签的高度进行适当调整,避免较小的模糊图片生成过大的目标。在确定的高度范围内随机生成一个值作为变换后的高度。
4)根据随机生成的长宽比和高度,确定变换后的矩形大小。再通过图片大小随机确定矩形在图片中的位置。根据新的矩形位置,获取变换矩阵,实现标签和仪表图像的同步变换。
基于顶点位置的透视变换增强方式,利用透视变换模拟更多不同视角照片,克服监控摄像设备固定点位的成像限制。如图2所示,获取仪表图像中的仪表尺寸标签,黑实线所示为标注的四边形,过对角的两个顶点P1和P3分别画水平和垂直的直线,设顶点P2所在的原点距离其最近的坐标系为A,顶点P4所在的原点距离其最近的坐标系为B,增强的位置可能在每个坐标系的4个象限区域中随机出现。将随机采样后的P2′和P4′点,与点P1和P3组成新的标签,求取旧标签与新标签的位置对应的透视变换矩阵,依据透视变换矩阵生成新的视角下的仪表图片,则每个标签至少可以出现16种不同的视角情况,即对每一幅仪表图像得到16幅透视变换后图像。图3为采用上述方法对某幅仪表图像进行透视变换增强后的16个视角下的图像。
经过此步骤,得到了在训练阶段数据增广后的图像集合,可以覆盖真实使用条件下的不同尺寸和不同视角的仪表图像,以更好地训练仪表检测网络模型。
2、构建基于one-shot机制的仪表检测网络模型
为了完成对仪表表盘的准确定位,主干网络需要保证既能高效地完成特征提取操作,也需要保证较快的处理速度,同时考虑到仪表数据集规模较小,选择ResNet-18网络作为主干网络来完成特征提取。因此,本发明构建的基于one-shot机制的仪表检测网络模型包括一个基于ResNet-18的特征提取孪生网络模块、RPN模块、ROI Align池化层和基于GridHead交换特征融合网络模块。
ResNet-18神经网络由9个卷积层、1个池化层和4个残差结构构成,同一网络模块分别提取两个图片特征,是典型的孪生网络结构。将待检测仪表图片和仪表模板图片分别输入到ResNet-18孪生网络模块,输出得到待检测仪表图片特征和仪表模板图片特征
RPN模块包括1个3*3卷积层和2个1*1卷积层,对待检测仪表图片特征进行初定位处理,输出得到仪表的矩形包围框坐标。
ROI Align池化层利用双线性插值的方式计算非整数位置的像素点值,实现对不同大小特征图的归一化,将不同大小的输入特征图输出成同一大小的特征图。即根据仪表的矩形包围框坐标将对应的待检测仪表图片特征池化成同一大小,同时利用全图坐标将仪表模板图片特征也池化成相同大小。
将池化后的待检测仪表图片特征和仪表模板图片特征同时输入到基于Grid Head交换特征融合网络模块,输出得到待检测仪表的四边形的四个顶点位置的标记信息。本发明基于提出一种交互融合策略Grid Head模块,保持Grid R-CNN主要网络结构不变,仅在Grid Head模块中使用one-shot机制来提升目标检测精度,利用仪表数据集的特点,发挥RPN(Region Proposal Network,区域生成网络)模块和Grid Head模块各自的优势:提升检测精度提升,在数据较少的情况下,避免使用度量学习损失函数和复杂的融合策略对于网络训练产生的不良影响。
基于Grid Head交换特征融合网络模块如图4所示,包括一个孪生网络模块、特征交互融合模块和反卷积层,孪生网络模块由8个卷积层构成,对输入的待检测图片特征Fdin和模板图片特征分别进行特征提取,提取后的特征分别记为Fd和Q,特征交互融合模块对提取的特征Fd和Q进行融合处理,具体如下:
将特征Fd和Q分别按照通道平均分成M组,与第i个Grid点对应的特征图分别记为Fdi和Qi,与源点集合Si中的第j个点对应的特征图分别记为Fdj和Qj,i=1,2,…,M,M为Grid点数,j=1,2,…,Ki,Ki为源点集合Si中包含的源点个数,所述的源点为Grid网格中与第i个Grid点距离为1的点,所有源点构成源点集合;然后,分别对特征图Fdi和Qi进行反卷积处理,得到对应的未融合的heatmap特征图,分别记为hF′和hQ′,分别将特征图Fdj和Qj通过2个卷积核为3*3的卷积层,得到对应的新的待融合特征图,分别记为Td:j→i(Fdj)和Tq:j→i(Qj),将特征图Qi经过2个卷积核为3*3的卷积层,得到待融合的模板特征,记为Tqd:i(Qi),将特征图Qj经过2个卷积核为3*3的卷积层,得到待融合的模板特征,记为Tqd:j→i(Qj),i=1,2,…,M,j=1,2,…,Ki;接着,将特征图Fdi、Qi与融合的特征图Td:j→i(Fdj)、Tq:j→i(Qj)、模板特征Tqd:i(Qi)、Tqd:j→i(Qi)分别按下式进行相加融合处理,i=1,2,…,M,得到融合后的特征图F′di、Q′i
最后,对特征图F′di、Q′i分别按照下式进行二次相加融合处理,得到二级融合特征图F″di、Q″i
其中,T′j→i(F′dj)表示特征图F′dj通过2个卷积层得到的新的二级待融合特征图,这里的卷积层结构与前面得到特征图Td:j→i(Fdj)中的卷积层结构相同;T′j→i(Q′j)表示特征图Q′j通过2个卷积层,得到的新的二级待融合特征图,这里的卷积层结构与前面得到特征图Tq:j→i(Qj)中的卷积层结构相同;T′qd:i(Qi)表示特征图Qi通过两个卷积核为3*3的卷积层处理;T′qd:j→i(Qj)表示特征图Qj通过两个卷积核为3*3的卷积层处理;i=1,2,…,M,j=1,2,…,Ki
所述的基于Grid Head交换特征融合网络模块中的反卷积层由两层反卷积层组成,将融合模块输出的特征图F″di和Q″i分别输入到反卷积层,输出得到最终的融合heatmap特征图。
3、网络模型训练
以步骤1得到的图像数据集和仪表模板图像数据集中的图像为输入,采用随机梯度下降法对步骤2构建的基于one-shot机制的仪表检测网络模型进行训练,得到训练好的网络模型;其中,网络的损失函数按下式进行计算:
Loss=Lcls+Lreg+Lseg (14)
其中,Loss表示网络的总损失,Lcls表示RPN模块分类损失,Lreg表示RPN模块位置回归损失,Lcls与Lreg与Faster RCNN中的损失一致;Lseg表示Grid Head交换特征融合网络模块中Grid heatmap交叉熵损失,按下式计算得到:
Lseg=Lseg未融合+Lseg已融合 (15)
其中,Lseg未融合表示未融合的heatmap特征图对应的交叉熵损失,Lseg已融合表示最终融合的heatmap特征图的交叉熵损失,分别按以下公式计算得到:
其中,M为Grid点数,N为heatmap特征图的像素个数,tk,l表示第l个Grid点对应的最终融合的heatmap特征图中第k个像素的值,t′k,l表示第l个Grid点对应的未融合的heatmap特征图中第k个像素的值,tk,l和t′k,l取值范围0到1,表示第l个Grid点对应的未融合的heatmap特征图所对应的标签图中第k个像素的值,取值范围0和1,像素为1是表示对应的是预测Grid点区域,像素为0时表示对应的不是预测Grid点区域。
4、仪表检测
将待检测的仪表图像和模板仪表图像输入到步骤3训练好的网络模型,输出得到预测的heatmap特征图,按照Grid RCNN目标检测网络的方式,将生成的heatmap转换为待检测仪表的四边形顶点位置,当Grid点为9时Grid点与四边形顶点位置的示意图如图5所示,具体如下:
其中,(Ix,Iy)表示待检测仪表在图像中的顶点位置坐标,(Px,Py)表示RPN模块生成的包围框的顶点位置坐标,(Hx,Hy)表示最终的heatmap预测点在heatmap特征图中的位置,(wp,hp)表示RPN模型生成的包围框的宽度和高度,(wo,ho)表示heatmap的宽度和高度。
为验证本发明方法的有效性,在硬件环境为:CPU:i9-9900,内存:16G,硬盘:1T,独立显卡:NVIDIA GeForce GTX 1080ti,11G,系统环境为Ubuntu 16.0.4的条件下,采用软件python 3.6、opencv3.4、Pytorch 1.3进行仿真实验。实验采用的数据集为自建的仪表数据集,图6给出了采用本发明方法检测后得到的结果图像。可以看出,采用Gird点预测的方式,可以准确定位仪表表盘的位置,采取one-shot机制的基于Grid Head交换特征融合网络模块可以利用同类仪表之间的相似性提高仪表检测定位精度;网络模型能够在不同光照条件和不同视角下准确定位仪表表盘位置。

Claims (2)

1.一种基于one-shot机制的仪表检测方法,其特征在于步骤如下:
步骤1:对监控设备采集到的每一幅仪表图像分别进行尺寸增强和透视变换增强处理,增强处理前后的图像共同构成仪表图像数据集;对采集到的仪表图像中包含的仪表设备的模板图像进行透视变换增强处理,得到仪表模板图像数据集;
步骤2:构建基于one-shot机制的仪表检测网络模型,包括一个基于ResNet-18的特征提取孪生网络模块、RPN模块、ROIAlign池化层和基于Grid Head交换特征融合网络模块,其中,将待检测仪表图像和仪表模板图像分别输入到ResNet-18孪生网络模块,输出得到待检测仪表图像特征和仪表模板图像特征;RPN模块对待检测仪表图像特征进行初定位处理,输出得到仪表的矩形包围框坐标;ROIAlign池化层根据仪表的矩形包围框坐标将对应的待检测仪表图像特征池化成同一大小,同时利用全图坐标将仪表模板图像特征也池化成相同大小;将池化后的待检测仪表图像特征和仪表模板图像特征同时输入到基于GridHead交换特征融合网络模块,输出得到待检测仪表的四边形的四个顶点位置的标记信息;
所述的基于Grid Head交换特征融合网络模块包括一个孪生网络模块、特征交互融合模块和反卷积层,孪生网络模块由8个卷积层构成,对输入的待检测图像特征Fdin和模板图像特征分别进行特征提取,提取后的特征分别记为Fd和Q,特征交互融合模块对提取的特征Fd和Q进行融合处理,具体如下:
将特征Fd和Q分别按照通道平均分成M组,与第i个Grid点对应的特征图分别记为Fdi和Qi,与源点集合Si中的第j个点对应的特征图分别记为Fdj和Qj,i=1,2,...,M,M为Grid点数,j=1,2,...,Ki,Ki为源点集合Si中包含的源点个数,所述的源点为Grid网格中与第i个Grid点距离为1的点,所有源点构成源点集合;然后,分别对特征图Fdi和Qi进行反卷积处理,得到对应的未融合的heatmap特征图,分别记为hF′和hQ′,分别将特征图Fdj和Qj通过2个卷积核为3*3的卷积层,得到对应的新的待融合特征图,分别记为Td:j→i(Fdj)和Tq:j→i(Qj),将特征图Qi经过2个卷积核为3*3的卷积层,得到待融合的模板特征,记为Tqd:i(Qi),将特征图Qj经过2个卷积核为3*3的卷积层,得到待融合的模板特征,记为Tqd:j→i(Qj),i=1,2,...,M,j=1,2,...,Ki;接着,将特征图Fdi、Qi与融合的特征图Td:j→i(Fdj)、Tq:j→i(Qj)、模板特征Tqd:i(Qi)、Tqd:j→i(Qi)分别按下式进行相加融合处理,i=1,2,...,M,得到融合后的特征图F′di、Q′i
最后,对特征图F′di、Q′i分别按照下式讲行二次相加融合处理,得到二级融合特征图F″di、Q″i
其中,T′j→i(F′dj)表示特征图F′dj通过2个卷积层得到的新的二级待融合特征图,这里的卷积层结构与前面得到特征图Td:j→i(Fdj)中的卷积层结构相同;T′j→i(Q′j)表示特征图Q′j通过2个卷积层,得到的新的二级待融合特征图,这里的卷积层结构与前面得到特征图Tq:j→i(Qj)中的卷积层结构相同;T′qd:i(Qi)表示特征图Qi通过两个卷积核为3*3的卷积层处理;T′qd:j→i(Qj)表示特征图Qj通过两个卷积核为3*3的卷积层处理;i=1,2,...,M,j=1,2,...,Ki
所述的基于Grid Head交换特征融合网络模块中的反卷积层由两层反卷积层组成,将融合模块输出的特征图F″di和Q″i分别输入到反卷积层,输出得到最终的融合heatmap特征图;
步骤3:以步骤1得到的图像数据集和仪表模板图像数据集中的图像为输入,采用随机梯度下降法对步骤2构建的基于one-shot机制的仪表检测网络模型进行训练,得到训练好的网络模型;其中,网络的损失函数按下式进行计算:
Loss=Lcls+Lreg+Lseg (5)
其中,Loss表示网络的总损失,Lcls表示RPN模块分类损失,Lreg表示RPN模块位置回归损失,Lcls与Lreg与Faster RCNN中的损失一致;Lseg表示Grid Head交换特征融合网络模块中Grid heatmap交叉熵损失,按下式计算得到:
Lseg=Lseg末融合+Lseg已融合
其中,Lseg未融合表示未融合的heatmap特征图对应的交叉熵损失,Lseg已融合表示最终融合的heatmap特征图的交叉熵损失,分别按以下公式计算得到:
其中,M为Grid点数,N为heatmap特征图的像素个数,tk,t表示第l个Grid点对应的最终融合的heatmap特征图中第k个像素的值,t′k,l表示第l个Grid点对应的未融合的heatmap特征图中第k个像素的值,tk,l和t′k,l取值范围0到1,表示第l个Grid点对应的未融合的heatmap特征图所对应的标签图中第k个像素的值,取值范围0和1,像素为1是表示对应的是预测Grid点区域,像素为0时表示对应的不是预测Grid点区域;
步骤4:将待检测的仪表图像和模板仪表图像输入到步骤3训练好的网络模型,输出得到预测的heatmap特征图,按照GridRCNN目标检测网络的方式,将生成的heatmap转换为待检测仪表的四边形顶点位置,具体如下:
其中,(Ix,Iy)表示待检测仪表在图像中的顶点位置坐标,(Px,Py)表示RPN模块生成的包围框的顶点位置坐标,(Hx,Hy)表示最终的heatmap预测点在heatmap特征图中的位置,(wp,hp)表示RPN模型生成的包围框的宽度和高度,(wo,ho)表示heatmap的宽度和高度。
2.如权利要求1所述的一种基于one-shot机制的仪表检测方法,其特征在于:所述的透视变换增强的具体过程如下:
获取仪表图像中的仪表尺寸标签,设标注的4个顶点分别为P1、P2、P3、P4,其中,P1和P3为对角顶点,过顶点P1画水平和垂直两条直线,过顶点P3画水平和垂直两条直线,四条直线相交产生4个直角坐标系,设顶点P2所在的原点距离其最近的坐标系为A,顶点P4所在的原点距离其最近的坐标系为B,在坐标系A的的四个象限区域中随机选择一点,作为顶点P2变换后的顶点P2′,记录其位置信息,在坐标系B的四个象限区域中随机选择一点,作为顶点P4变换后的顶点P4′,记录其位置信息,分别以点P1、P2、P3、P4以及点P1、P2′、P3、P4′为变换前后的顶点,根据变换前后4个顶点的位置关系得到对应的透视变换公式,将原仪表图像按照该透视变换公式进行变换,得到2幅透视变换后的图像;按照上述过程遍历所有顶点和直角坐标系区域,对每一幅仪表图像得到16幅透视变换后图像。
CN202111032665.7A 2021-09-03 基于one-shot机制的仪表检测方法 Active CN113792721B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111032665.7A CN113792721B (zh) 2021-09-03 基于one-shot机制的仪表检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111032665.7A CN113792721B (zh) 2021-09-03 基于one-shot机制的仪表检测方法

Publications (2)

Publication Number Publication Date
CN113792721A CN113792721A (zh) 2021-12-14
CN113792721B true CN113792721B (zh) 2024-06-04

Family

ID=

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109829893A (zh) * 2019-01-03 2019-05-31 武汉精测电子集团股份有限公司 一种基于注意力机制的缺陷目标检测方法
CN111414934A (zh) * 2020-01-21 2020-07-14 国网浙江省电力有限公司湖州供电公司 一种基于Faster R-CNN和U-Net的指针式仪表读数自动识别方法
WO2020181685A1 (zh) * 2019-03-12 2020-09-17 南京邮电大学 一种基于深度学习的车载视频目标检测方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109829893A (zh) * 2019-01-03 2019-05-31 武汉精测电子集团股份有限公司 一种基于注意力机制的缺陷目标检测方法
WO2020181685A1 (zh) * 2019-03-12 2020-09-17 南京邮电大学 一种基于深度学习的车载视频目标检测方法
CN111414934A (zh) * 2020-01-21 2020-07-14 国网浙江省电力有限公司湖州供电公司 一种基于Faster R-CNN和U-Net的指针式仪表读数自动识别方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
基于CReLU和FPN改进的SSD舰船目标检测;李晖晖;周康鹏;韩太初;;仪器仪表学报;20200603(第04期);全文 *
基于卷积神经网络的SAR图像目标检测算法;杜兰;刘彬;王燕;刘宏伟;代慧;电子与信息学报;20161212;第38卷(第12期);全文 *

Similar Documents

Publication Publication Date Title
Zuo et al. A robust approach to reading recognition of pointer meters based on improved mask-RCNN
CN109978839B (zh) 晶圆低纹理缺陷的检测方法
US20130195351A1 (en) Image processor, image processing method, learning device, learning method and program
CN107085728B (zh) 利用视觉系统对图像中的探针进行有效评分的方法及系统
CN113240626A (zh) 一种基于神经网络的玻璃盖板凹凸型瑕疵检测与分类方法
Bian et al. 3D reconstruction of single rising bubble in water using digital image processing and characteristic matrix
WO2021024402A1 (ja) 寸法計測装置、寸法計測方法及び半導体製造システム
CN110260857A (zh) 视觉地图的校准方法、装置及存储介质
CA3136674C (en) Methods and systems for crack detection using a fully convolutional network
CN114241469A (zh) 一种面向电表轮换过程的信息识别方法和装置
Pritts et al. Rectification from radially-distorted scales
CN113705564B (zh) 一种指针式仪表识别读数方法
Dowson et al. Estimating the joint statistics of images using nonparametric windows with application to registration using mutual information
JP2008252856A (ja) 画像の補正方法、補正プログラムおよび画像歪み補正装置
CN113792721B (zh) 基于one-shot机制的仪表检测方法
Zarei et al. MegaStitch: Robust Large-scale image stitching
CN115719414A (zh) 基于任意四边形回归的目标检测与精确定位方法
CN113538232B (zh) 大尺寸航空航天复合材料构件全局缺陷定量识别方法
CN113792721A (zh) 基于one-shot机制的仪表检测方法
CN110751189B (zh) 一种基于感知对比度和特征选择的椭圆检测方法
Du et al. Grid-based matching for full-field large-area deformation measurement
Yang et al. A real-time marking defect inspection method for IC chips
Xue et al. Automatic inspection and reading system of pointer instrument based on computer vision
Peng et al. Simultaneous perimeter measurement for multiple planar objects
CN112907639B (zh) 一种电力设备x射线影像配准方法

Legal Events

Date Code Title Description
PB01 Publication
SE01 Entry into force of request for substantive examination
GR01 Patent grant