CN115223018A - 伪装对象协同检测方法及装置、电子设备和存储介质 - Google Patents
伪装对象协同检测方法及装置、电子设备和存储介质 Download PDFInfo
- Publication number
- CN115223018A CN115223018A CN202210643654.0A CN202210643654A CN115223018A CN 115223018 A CN115223018 A CN 115223018A CN 202210643654 A CN202210643654 A CN 202210643654A CN 115223018 A CN115223018 A CN 115223018A
- Authority
- CN
- China
- Prior art keywords
- feature
- image
- processing
- prediction
- branch
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/806—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/803—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of input or preprocessed data
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本公开涉及一种伪装对象协同检测方法及装置、电子设备和存储介质,所述方法包括:从图像组中选择出第一图像,并利用第一分支对所述第一图像执行目标预测处理,得到目标识别预测图,所述图像组中的图像包括待协同检测的伪装对象;利用第二分支对所述图像组执行特征处理,得到共性特征预测图;对目标识别预测图和所述共性特征预测图进行特征融合处理,得到双分支融合特征图;对所述双分支融合特征图进行边缘细节增强处理,得到所述图像组中各所述图像的伪装对象的定位预测图。本公开实施例可提高伪装对象的定位检测精度。
Description
技术领域
本公开涉及图像处理技术领域,尤其涉及一种伪装对象协同检测方法及装置、电子设备和存储介质。
背景技术
协同伪装物体检测(CoCOD)旨在检测和捕捉隐藏在一组图像中的同一类别的伪装物体。CoCOD可广泛应用于计算机视觉(如灾后搜救作业、探测稀有物种等)、医疗图像分析(如新冠肺炎病灶分割、肠胃息肉分割等)、农业(如蝗虫入侵预警)等各个领域。由于伪装物体的颜色、纹理与背景之间的相似性,使得伪装物体检测任务一直充满着巨大的挑战。近年来,涌现出许多COD伪装物体检测方法。然而,现有的COD伪装物体检测方法都是基于单张COD图片的检测方法,不能同时对多张包含相同类伪装物体图像进行检测且现有方法仍然不能精确分离背景与伪装目标,检测精度仍有很大的提升空间。
发明内容
本公开提出了一种伪装对象协同检测方法及装置、电子设备和存储介质,用于解决现有方法难以同时对多张包含同类伪装对象的图像进行检测且检测精度低的技术问题。
根据本公开的一方面,提供了一种伪装对象协同检测方法,其包括:
从图像组中选择出第一图像,并利用第一分支对所述第一图像执行目标预测处理,得到目标识别预测图,所述图像组中的图像包括待协同检测的伪装对象;
利用第二分支对所述图像组执行特征处理,得到共性特征预测图;
对目标识别预测图和所述共性特征预测图进行特征融合处理,得到双分支融合特征图;
对所述双分支融合特征图进行边缘细节增强处理,得到所述图像组中各所述图像的伪装对象的定位预测图。
在一些可能的实施方式中,所述从图像组中选择出第一图像,并利用第一分支对所述第一图像执行目标预测处理,得到目标识别预测图,包括:
利用第一分支中的骨干网络提取所述第一图像的第一特征;
对所述第一特征进行多维特征融合,得到第一融合特征图;
利用权重系数对所述第一融合特征图进行修正,得到修正特征;
基于所述修正特征和所述第一特征得到所述目标预测图。
在一些可能的实施方式中,所述对所述第一特征进行多维特征融合,得到第一融合特征图,包括:
利用至少两种降维方式对所述第一特征进行降维处理,并获得对应的降维特征;
融合所述降维特征,获得初步提取特征;
对所述初步提取特征分别执行最大化处理和平均化处理,并分别获得最大化特征和平均化特征;
对所述最大化特征和所述平均化特征执行通道级联,得到所述第一融合特征图;
以及/或
所述基于所述修正特征和所述第一特征得到所述目标预测图,包括:
对所述修正特征和所述第一特征执行相加处理,得到所述目标预测图。
在一些可能的实施方式中,所述利用第二分支对所述图像组执行特征处理,得到共性特征预测图,包括:
利用所述第二分支中的骨干网络提取所述图像组的第二特征;
对所述第二特征执行特征混洗,获得混洗特征图;
对所述混洗特征图执行交互融合处理,得到共性特征预测图。
在一些可能的实施方式中,所述对所述第二特征执行特征混洗,获得混洗特征图,包括:
对所述第二特征分别执行至少两个维度上的特征混洗处理,分别得到对应的混洗特征图;
对得到的混洗特征图进行级联,得到最终的所述混洗特征图;
以及/或
所述对所述混洗特征图执行交互融合处理,得到共性特征预测图,包括:
对所述混洗特征图执行采样处理,得到多尺度特征图组;
对所述多尺度特征图组进行融合处理,得到所述共性特征预测图。
在一些可能的实施方式中,所述对所述混洗特征图执行采样处理,得到多尺度特征图组,包括:
对所述混洗特征分别执行至少一种上采样处理以及至少一种下采样处理,分别得到多尺度特征;
以及/或
所述对所述多尺度特征图组进行融合处理,得到所述共性特征预测图,包括:
利用密集连接的方式连接所述多尺度特征,得到所述共性特征预测图。
在一些可能的实施方式中,所述对所述双分支融合特征图进行边缘细节增强处理,得到所述图像组中各所述图像的伪装对象的定位预测图,包括:
对所述双分支融合特征图执行细节增强处理,得到细节特征图;
对所述细节特征执行边缘特征融合处理,得到所述定位预测图。
根据本公开的第二方面,提供了一种伪装对象检测装置,其包括:
目标识别模块,用于从图像组中选择出第一图像,并利用第一分支对所述第一图像执行目标预测处理,得到目标识别预测图;所述图像组中的图像包括待协同检测的伪装对象;
共特征提取模块,用于利用第二分支对所述图像组执行特征处理,得到共性特征预测图;
双分支融合模块,用于对所述目标识别预测图和所述共性特征预测图进行特征融合处理,得到双分支融合特征图;
增强模块,用于对所述双分支融合特征图进行边缘细节增强处理,得到所述图像组中各所述图像的所述伪装对象的定位预测图。
根据本公开的第三方面,提供了一种电子设备,其包括:
处理器;
用于存储处理器可执行指令的存储器;
其中,所述处理器被配置为调用所述存储器存储的指令,以执行第一方面中任意一项所述的方法。
根据本公开的第四方面,提供了一种计算机可读存储介质,其上存储有计算机程序指令,所述计算机程序指令被处理器执行时实现第一方面中任意一项所述的方法。
在本公开实施例中,包括两个特征处理分支,其中首先从包括待协同检测的伪装对象的图像组中选择出第一图像执行第一分支的图像处理,得到的第一图像内针对伪装对象的目标识别预测图,并利用第二分支对图像组执行图像处理,得到图像组中图像内伪装对象之间的共性特征预测图;而后对目标识别预测图和共性特征提取图进行融合,得到双分支融合特征图;最后,对双分支融合特征图进行边缘细节增强处理,得到图像组内待检测协同对象的共属性目标的精准定位预测图。本公开实施例首次提出了协同伪装对象检测,同时利用单张或少量伪装对象彩色图和伪装对象彩色图组,引入多支路的特征融合方式,可同时定位检测不同背景下不同图像中的同一类伪装对象,显著提高了伪装物体的检测精度。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,而非限制本公开。
根据下面参考附图对示例性实施例的详细说明,本公开的其它特征及方面将变得清楚。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,这些附图示出了符合本公开的实施例,并与说明书一起用于说明本公开的技术方案。
图1示出根据本公开实施例的伪装对象协同检测方法的流程图;
图2示出根据本公开实施例中的伪装对象协同检测网络的结构示意图;
图3示出根据本公开实施例中的第一分支的流程图;
图4示出根据本公开实施例中获得共性特征图的方法流程图;
图5示出本公开实施例中进行边缘细节增强处理的流程图;
图6示出根据本公开实施例的网络及现有网络对伪装对象协同检测的对比示意图;
图7示出根据本公开实施例的伪装对象协同检测装置的框图;
图8示出根据本公开实施例的一种电子设备800的框图;
图9示出根据本公开实施例的另一种电子设备1900的框图。
具体实施方式
以下将参考附图详细说明本公开的各种示例性实施例、特征和方面。附图中相同的附图标记表示功能相同或相似的元件。尽管在附图中示出了实施例的各种方面,但是除非特别指出,不必按比例绘制附图。
在这里专用的词“示例性”意为“用作例子、实施例或说明性”。这里作为“示例性”所说明的任何实施例不必解释为优于或好于其它实施例。
本文中术语“和/或”,仅仅是一种描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。另外,本文中术语“至少一种”表示多种中的任意一种或多种中的至少两种的任意组合,例如,包括A、B、C中的至少一种,可以表示包括从A、B和C构成的集合中选择的任意一个或多个元素。
另外,为了更好地说明本公开,在下文的具体实施方式中给出了众多的具体细节。本领域技术人员应当理解,没有某些具体细节,本公开同样可以实施。在一些实例中,对于本领域技术人员熟知的方法、手段、元件和电路未作详细描述,以便于凸显本公开的主旨。
本公开提供的伪装对象协同检测方法的执行主体可以是图像处理装置,例如,图像处理方法可以由终端设备或服务器或其它处理设备执行,其中,终端设备可以为用户设备(User Equipment,UE)、移动设备、用户终端、终端、蜂窝电话、无绳电话、个人数字处理(Personal Digital Assistant,PDA)、手持设备、计算设备、车载设备、可穿戴设备等。在一些可能的实现方式中,该伪装对象协同检测方法可以通过处理器调用存储器中存储的计算机可读指令的方式来实现。
可以理解,本公开提及的上述各个方法实施例,在不违背原理逻辑的情况下,均可以彼此相互结合形成结合后的实施例,限于篇幅,本公开不再赘述。
图1示出根据本公开实施例的伪装对象协同检测方法的流程图,如图1所示,所述伪装对象协同检测方法包括:
S10:从图像组中选择出第一图像,并利用第一分支对所述第一图像执行目标预测处理,得到目标识别预测图,所述图像组中的图像包括待协同检测的伪装对象;
在一些可能的实施方式中,可以利用图像采集设备获得伪装物体的彩色图像,并以物种类别为依据进行分组,得到包括相同类伪装物体的彩色图像组,即可构成本公开实施例的图像组。具体来讲,本公开实施例的图像组中的各图像均包括本公开所要检测的伪装对象,该伪装对象可以是任意物种、物体或者医学检测目标,例如,可以为兔子,但不作为本公开实施例的具体限定。
本公开实施例可以采用随机采样的方式从图像组中随机抽取至少一张图像作为第一图像。或者,在图像组中包括多种场景的图像时,可以针对每种场景的图像均随机选择出一张图像并组合形成第一图像。或者,可以根据接收到的图像选择信息将图像组中的至少一张图像确定为第一图像,各图像可以对应分配有图像标识(如编号等),图像选择信息中可以包括被选择图像的标识,根据该标识可以确定被选择的图像。被选择的第一图像可以作为第一分支的单张伪装物体输入图像,通过第一分支的图像处理可以进行伪装对象的目标识别,得到第一图像中伪装对象的目标识别预测图。该目标识别预测图可以表示第一图像中伪装对象的特征。本公开实施例以从图像组中随机选择一张图像作为第一图像为例,但不作为本公开的具体限定。
S20:利用第二分支对所述图像组执行特征处理,得到共性特征预测图;
本公开实施例中,可以对利用第二分支对图像组中的各图像执行逐级特征提取,并执行特征混洗以及多尺度采样特征的融合,得到图像组中各图像的共性特征预测图;该共性特征预测图可以表示图像组中不同图像内伪装对象的共性特征。
S30:对所述目标识别预测图和所述共性特征预测图进行特征融合处理,得到双分支融合特征图;
在本公开实施例中,可以对目标识别图和共性特征预测图执行逐元素相乘,得到双分支融合特征图。
S40:对所述双分支融合特征图进行边缘细节增强处理,得到所述伪装对象的定位预测图。
在一些可能的实施方式中,边缘细节增强处理包括但不限于将双分支融合特征图执行细节增强处理,而后与图像组的多级特征进行融合,获取边缘信息,实现边缘细节增强,得到最终的图像组中各图像的伪装对象的定位预测图,定位预测图表示各图像中各像素点为待检测的伪装对象的概率,或者也可以表示各像素点是否为待检测对象。
基于上述配置,本公开实施例将第一图像以及包括第一图像的图像组组融合集成到一个统一的框架中进行精确的伪装目标检测,通过目标识别操作可以对第一图像中的伪装目标进行初步定位;通过共特征提取操作可以对图像组中一组图像所包含的公共信息进行提取,最后利用两类信息的融合以及细节增强操作有效实现目标识别预测图以及共性特征预测图的融合,提高图像中伪装目标的检测精度,并能够实现多张图像或者多张场景下的不同图像内相同类型的伪装对象的协同检测。
下面结合附图对本公开实施例进行详细说明。首先,可以获取本公开实施例的图像组,该图像组中可以包括至少一张图像,图像为包括伪装对象的彩色图像,其中获取伪装对象的彩色图像的方式可以包括以下方式中的至少一种:
A)直接利用彩色相机采集伪装对象的彩色图像;本公开实施例中,彩色相机不作为本公开的具体限定。
B)通过电子设备传送并接收伪对象的彩色图像;本公开实施例可以通过通信的方式接收其他电子设备传送的伪装对象的彩色图像,通信方式可以包括有线通信和/或无线通信,本公开不做具体限定。
C)读取数据库中存储的伪装对象的彩色图像;本公开实施例可以根据接收到的数据读取指令读取本地存储的伪装对象的彩色图像或者服务器内存储的伪装物体彩色图像,本公开对此不做具体限定。
在此需要说明的是,本公开实施例中的图像组可以是相同场景下或者不同场景下针对相同的对象的彩色图像。相关技术领域人员可以根据需求选择相应的场景领域,在此不做具体限定。
在获得伪装对象的彩色图像之后,可以对彩色图像执行伪装对象协同检测。具体的,本公开实施例可以首先从图像组中选择出第一图像,并利用第一分支对所述第一图像执行目标预测处理,得到目标识别预测图,所述图像组中的图像包括待检测的伪装对象。
其中,本公开实施例中的伪装对象协同检测模型包括两个分支,第一分支用于处理少量伪装对象彩色图像(第一图像),第二分支用于处理全部彩色图像组(图像组)。第一分支中的第一图像是从彩色图像组中以随机采样的方式选择的。在一个示例中,第一分支用于处理单张伪装对象的彩色图像,即仅选择出一张第一图像,但不作为本公开的具体限定。
具体的,本公开实施例的利用第一分支对所述第一图像执行目标预测处理,得到目标识别预测图,包括:
S101:利用第一分支中的骨干网络提取所述第一图像的第一特征;
S102:对所述第一特征进行多维特征融合,得到第一融合特征图;
S103:利用权重系数对所述第一融合特征图进行修正,得到修正特征;
S104:基于所述修正特征和所述第一特征得到所述目标预测图。
本公开实施例中的第一分支和第二分支均包括用于特征提取的骨干网络,本公开实施例的骨干网络可以利用残差网络、金字塔网络等特征提取网络实现。本公开实施例第一分支和第二分支的骨干网络可以为相同的网络结构,也可以为不同的网络结构,如第一分支的网络结构可以为残差网络,第二分支的网络结构可以为金字塔网络,在骨干网络不同时,可以提取图像的不同信息,丰富特征,有效伪装对象的定位图的准确度。本公开实施例以骨干网络均为残差网络为例进行说明,但不作为本公开的具体限定,下面通过说明各特征处理过程进行说明。
本公开实施例可以利用第一分支的骨干网络执行第一图像的特征提取,得到多尺度特征(本公开实施例的多层特征)。图2示出根据本公开实施例中的伪装对象协同检测网络的结构示意图。在一个示例中,本公开实施例中的执行特征提取的骨干网络可以包括Res2Net-50的5个卷积块,该5个卷积块依次用于提取不同尺度的特征信息。在一个示例中,输入的第一图像的尺度可以为384×384×3(不包括batch size),卷积块1处理后得到的特征图的尺度为96×96×64,卷积块2处理后的特征图尺度为96×96×256,以及卷积块3处理后的特征图尺度为48×48×512,卷积块4处理后的特征图尺度为24×24×1024,以及卷积块5处理后的特征图尺度为12×12×2048。上述为本公开的一个示例,不作为本公开的具体限定。骨干网络输出的特征图即为第一图像第一特征。
而后,可以对第一图像的第一特征进行多维特征融合,得到第一融合特征图,如图3所示,本公开实施例中第一分支的流程图可以包括:
S1021:利用至少两种降维方式对所述第一特征进行降维处理,并获得对应的降维特征;
S1022:融合所述降维特征,获得初步提取特征;
S1023:对所述初步提取特征执行至少两种统计处理,并分别获得统计特征;
S1024:对所述统计执行通道级联,得到所述第一融合特征图。
具体地,本公开实施例中第一特征的维度可以是B*C*H*W,其中B为批处理batchsize,C为通道数,H为高度,W为宽度。本公开实施例可以对该四维特征进行降维处理,变为三维特征。在一些可能的实施方式中,可以将输入维度(B,C,H,W)转换为三维变量((B,H*W,C)和(B,C,H*W)),得到两类降维特征。例如可以分别通过1*1的二维卷积处理实现两类上述两种方式的降维,将通道压缩为原来的1/8,得到对应的降维特征。在得到降维特征的情况下,对降维特征执行矩阵乘法,实现维度转变后的三维变量(降维特征)的融合,得到融合后的特征图并作为初步提取特征。
而后对初步提取特征分别执行最大化处理和平均化处理,得到最大化特征和平均化特征。其中,最大化处理旨在映射出图像中最尖锐的信息,即伪装目标所在位置,由此获得伪装对象的位置信息特征图;平均化处理旨在弥补最大化过程中容易丢失的目标边缘等细节信息,以进一步提取、细化目标信息,由此获得伪装对象的细节信息特征图。在分别得到最大化处理对应的最大化特征和平均化处理得到的平均化特征的情况下,可以利用通道级联的方式将表示伪装对象的位置信息的特征图和表示伪装对象的细节信息的特征图进行融合,得到融合后的特征信息图,即第一融合特征图。其中,通过多种降维方式和特征提取方式可以充分的提取第一图像中伪装对象的位置信息和细节特征,有利于伪装对象的定位检测。
在公开实施例中,由于伪装目标与背景极其相似、不易分辨,本公开在得到所述经过维度转换后融合的初步提取特征图后,对特征图进行最大化(torch.max),旨在映射出图像中最尖锐的信息,即伪装目标所在位置,由此获得伪装物体的位置信息特征图。考虑到最大化过程中易丢失目标边缘等细节信息,因此本公开对所述初步提取特征图执行平均化处理(torch.mean),以进一步提取、细化目标信息,由此获得细节信息特征图。为了最大程度保留所述最大化和平均化后获得的信息,本公开执行通道拼接操作(torch.cat)将所述位置信息特征图与所述细节信息特征图结合,得到第一融合特征图。
在得到第一融合特征的情况下,可以利用预设的权重系数对第一融合特征图进行修正,得到修正特征。该预设的权重系数为网络在训练过程中不断学习得到的参数,本公开实施例中最终的权重系数为0.9144,但不作为本公开的具体限定,在其他场景下或者不同的训练集或训练参数的情况下,该权重系数会随之改变。其中,通过将权重系数与第一融合特征执行乘法处理,可以得到修正特征。进一步地,基于所述修正特征和骨干网络得到的第一特征可以得到所述目标预测图。本公开实施例可以利用第一特征与修正特征的相加结果,得到目标预测图。实现第一特征和修正特征中信息的融合,提高伪装目标的识别精度。
由于伪装对象图像中的背景与前景目标纹理、色彩及其相似,为避免信息误用,本公开利用可学习参数γ(self.gamma)为第一融合特征图分配权重。具体地,可学习参数初始为0,在深度学习的过程中每经过一个batch size会更新一次参数,根据目标所在概率自主分配参数,最终习得合适的权重参数。最后,本公开利用残差连接将所述分配权重后的第一融合特征图与所述初步提取特征图执行逐元素加法操作(torch.add),得到所述第一分支的输出,即目标识别预测图。
本公开所述目标识别的计算模型可以表示为:
fout=Cat(Max(fmul),Avg(fmul))+γ*fmul
其中,fout表示目标识别预测图,Cat(·)表示通道拼接操作,Max(·)表示最大化操作,Avg(·)表示平均化操作,fmul表示第一融合特征图,γ表示可学习参数(权重系数)。上述仅为示例性说明,不作为本公开的具体限定。
本公开实施例中,第一分支的数量可以为一个,也可以为多个(如三个),其中,在配置多个第一分支时,各第一分支处理的第一图像不同,从而可以提取更为丰富的细节特征。另外,在第一分支为多个时,对应的可学习参数(权重系数)也为多个,每个第一分支对应有相应的权重系数,从而可以适应于对应的第一图像。
另外,针对第二分支,可以基于输入图像组中的全部图像得到伪装对象在不同图像中的共性特征。具体的,如图4所示为本公开实施例中获得共性特征图的方法流程图,其中所述利用第二分支对所述图像组执行特征处理,得到共性特征预测图,包括:
S201:利用所述第二分支中的骨干网络提取所述图像组的第二特征;
S202:对所述第二特征执行特征混洗,获得混洗特征图;
S203:对所述混洗特征图执行交互融合处理,得到共性特征预测图。
同样地,可以利用骨干网络对图像组中的图像进行特征提取,得到第二特征。本公开实施例可以直接利用与第一分支结构相同的骨干网络提取图像组的第二特征,可以通过骨干网络中各卷积块对图像组执行逐级特征提取,获得图像组的多级特征(第二特征)。或者在另一个实施例中,可以通过通道压缩的方式提供多尺度特征的融合,得到第二特征。
具体地,由于从骨干网络提取到的低级特征(低层卷积块输出特征)中包含较多的噪音且耗费大量的计算资源,高级特征(高层卷积块输出特征)的像素较低且包含的语义信息较多,在一个实施例中,可以基于骨干网络的高三层的输出得到第二特征。具体地,可以将高三层的输出特征进行通道压缩,而后进行通道级联,得到第二特征。例如,可以将骨干网络的第三层的输出特征一方面输入到第四层进行特征处理,另一方面进行通道压缩,可以将该特征输入到卷积核为1的基础卷积块(卷积后添加批量归一化操作、Relu激活函数操作)中,进行通道降维,例如可以将512通道降至32通道,以降低运算量、提高程序运行效率。接着依次使用两个卷积核为3的基础卷积块进行初级特征提取,得到第三层的降维特征。同理,对于骨干网络的第四层输出同样可以分别输入到第五层卷积块,以及执行通道压缩,通道压缩包括利用卷积核为1的基础卷积块进行通道降维,将1024通道降至32通道,并依次使用两个卷积核为3的基础卷积块进行初级特征提取,得到第四层降维特征;对于骨干网络的第五层输出利用卷积核为1的基础卷积块进行通道降维,将2048通道降至32通道,并依次使用两个卷积核为3的基础卷积块进行初级特征提取,得到第五层的降维特征,由此得到高三层降维后的特征图。而后可以对高三层的降维特征图进行通道级联,得到第二特征。
由于输入的图像组中背景各异,目标大小、形状、位置不同,简单依靠特征提取难以准确捕捉目标特征的全部信息,本公开通过维度混洗的方式对输入图像组图维度的混洗,旨在突出前景目标与背景之间的差异。即,在得到第二特征后,可以对第二特征进行特征混洗,获得混洗后的特征,即混洗特征图。可以第二特征分别执行至少两个维度上的特征混洗处理,分别得到对应的混洗特征图;对得到的混洗特征图进行级联,得到最终的所述混洗特征图。在一个示例中,可以分别对第二特征执行至少W维度和H维度的特征混洗。将输入的W、H维度分别划分为n组,且分组组数和拆分后维度分别作为一维度(B,C,n,H/n,W)和(B,C,H,n,W/n),由四维数据变形为五维数据;而后将五维数据使用维度级联的方式进行数据融合,得到不同背景下同一类目标的混洗后的特征图组(混洗特征图)。其中,分组组数为大于或者等于2的数值,本公开实施例中n为2,但不作为本公开的限定。
具体地,对输入的图像组分别进行H、W维度的混洗,首先利用tensor.size函数分别获取输入图像组的批量大小、通道数、图像高度和宽度,并将分组数设定为2(本公开对此不做具体限定)。在高度混洗的过程中,本公开利用tensor.view将图像的高度剪裁为原来的一半,并将四维输入变为五维数据,再利用tensor.permute将所述图像组的高度信息与宽度信息交换位置,利用tensor.reshape(-1,W)将行向量转换为列向量;同理,在宽度混洗的过程中,本公开利用tensor.view将图像的宽度剪裁为原来的一半,将四维输入变为五维数据,并利用tensor.permute将所述图像组的宽度信息与高度信息交换位置,利用tensor.reshape(H,-1)将列向量转换为行向量。维度混洗的目的是通过维度拆分、扩维的方式,提取到更多有效特征。所述维度混洗的计算模型可以表示为:
cH=torch.view(B,C,n,H/n,W).permute(0,1,3,2,4).reshape(N,C,-1,W)
cw=torch.view(B,C,H,n,W/n).permute(0,1,2,4,3).reshape(N,C,H,-1)
其中,torch.size为维度获取操作,torch.view为维度形状调整操作,n为拆分的组数,cH为高度混洗后的特征图,cW为宽度混洗后的特征图。
在得到不同维度上的混洗特征之后,对混洗特征进行级联,得到最终的混洗特征。
另外,在得到混洗特征图的情况下,还可以对所述混洗特征图执行交互融合处理,得到共性特征预测图,该过程可以包括:对所述混洗特征图执行采样处理,得到多尺度特征图组;对所述多尺度特征图组进行融合处理,得到所述共性特征预测图。
其中,特征交互过程包括对所述混洗特征图执行采样处理,得到多尺度特征图组。具体可以对所述混洗特征分别执行至少一种上采样处理以及至少一种下采样处理,分别得到采样特征,进而通过采样特征的融合得到共性特征预测图。本公开实施例的交互方式包括但不限于将特征图进行0.5倍缩小和2倍、4倍放大,分别获得0.5倍区域定位图组、2倍目标检测图组,4倍定位特征图组。
具体地,本公开实施例可以对所述混洗特征执行0.5倍下采样处理,以及2倍和4倍的上采样处理,分别得到0.5倍采样特征,2倍采样特征以及4倍采样特征。其中,首先利用平均池化操作(nn.AvgPool2d,核为3,步长为1,填充为1)将混洗特征图进行0.5倍缩小,获得0.5倍区域定位图组(0.5倍采样特征),同时利用双线性插值上采样的方法(nn.Upsample)对所述混特征图组分别进行2倍和4倍的上采样,分别获得2倍目标检测图组(2倍采样特征)和4倍定位特征图(4倍采样特征图)。
另外,所述对所述多尺度特征图组进行融合处理,得到所述共性特征预测图,包括:利用密集连接的方式连接所述多尺度特征,得到所述共性特征预测图。所述利用密集连接的方式连接所述采样特征,得到所述共性特征预测图,包括:将所述0.5倍采样特征图与2倍采样特征图进行通道拼接(torch.cat),获得第一采样融合特征;将所述2倍采样特征图与4倍采样特征图进行通道拼接,获得第二采样融合特将通道压缩为原来的1/8征;将所述第一采样融合特征与所述第二采样融合特征进行通道拼接,获得所述第二分支输出的所述共性特征预测图。其中获得第二分支输出的共性特征预测图的模型可以表示为:
clow=Avgpool1/2(x+cW)
chigh2=Upsample2(x+cW)
chigh4=Upsample4(x+cW)
其中,Avgpool1/2(·)表示缩小1/2的平均池化操作,Upsample2(·)表示放大2倍的双线性插值上采样操作,Upsample4(·)表示放大4倍的双线性插值上采样操作,clow表示0.5倍区域定位图组,chigh2表示2倍目标检测图组,chigh4表示4倍定位特征图组。
基于上述配置,可以得到第二分支输出的共性特征预测图。继而可以利用所述第一分支的目标识别预测图与所述第二分支的共性特征预测图执行边缘细节增强处理。具体地,可以对目标识别预测图和共性特征预测图进行特征融合处理,得到双分支融合特征图。在一个示例中,可以对目标识别预测图和共性特征预测图执行逐元素乘法,将目标识别预测图与共性特征预测图融合,得到双分支融合特征图。通过该过程可以使得第一分支的细节特征和第二分支的共性特征得到有效融合。
进一步地,本公开实施例可以对所述双分支融合特征图进行边缘细节增强处理,得到所述图像组中各所述图像的伪装对象的定位预测图。其中,图5为本公开实施例中进行边缘细节增强处理的流程图,所述对所述双分支融合特征图进行边缘细节增强处理,得到所述图像组中各所述图像的伪装对象的定位预测图,包括:
S401:对所述双分支融合特征图执行细节增强处理,得到细节特征图;
S402:对所述细节特征执行边缘特征融合处理,得到所述定位预测图。
在一些可能的实施方式中,可以分别对双分支融合特征执行细节增强以及边缘特征的融合处理,提高针对伪装对象的定位精度。
具体地,对所述双分支融合特征图执行细节增强处理,得到细节特征图,包括:对所述双分支融合特征执行分块处理,得到子块融合特征;获取所述子块融合特征包括伪装对象的置信度;基于置信度最高的子块融合特征确定为所述细节特征图。
在得到所述双分支融合信息后,利用维度分块操作,对所述双分支融合特征的至少一个维度进行拆分,如m等分,m为该维度上的分块数。在本公开实施例中,可以对双分支融合特征的H、W两个维度分别拆分为3等份,得到9个子块;其中,本公开实施例中针对不同维度上的分块数可以相同,也可以不同,本公开对此不做具体限定。
在得到分块后,可以分别对得到各子块融合特征执行伪装对象的识别,得到每一子块中包含伪装对象的置信度。其中,可以利用激活函数(sigmoid)识别子块中包括伪装对象的概率,将概率值确定为置信度。然后再利用取最大值操作(torch.max),将置信度最高子块筛选出来,利用该置信度最高的子块融合特征确定细节特征图。其中,置信度取值在0-1之间。
其中,可以利用置信度最高的子块融合特征图与双分支融合特征图的融合特征得到细节特征图。具体地,可以对双分支融合特征进行降维处理,得到与子块融合特征相同尺度的特征,如可以执行3*3卷积实现该降维处理。而后将降维特征与置信度最高的子块融合特征进行通道连接(torch.cat),得到连接特征。再对该连接特征执行卷积处理(如3*3卷积),将通道由32变为1,得到细节特征图。通过上述过程,可以进一步提取出伪装对象的细节特征,提高伪装对象定位精度。
本公开实施例的细节增强处理过程可通过以下公式表示:
l1,l2,...,l9=Chunk3(Chunk3(F,2),3)
lmax=arr(sigmoid(l1),sigmoid(l2),...,sigmoid(l9))
R1=Conv3(Cat(F,lmax))
其中,Chunk3(F,dim)表示将特征F在目标维度dim上按照3份等分的维度分块操作;l1,l2,...,l9表示通道分块后的子块,lmax表示包含目标置信度最高的子块,sigmoid(·)表示二分类操作,arr(·)表示取最大值操作,Cat(·)表示通道拼接操作。Conv3(·)表示卷积核为3的二维卷积操作。R1表示共属性目标精准定位预测图,F表示双分支融合特征图。
在得到细节特征图的情况下,还可以对所述细节特征执行边缘特征融合处理,得到所述定位预测图。其中,可以将细节特征图与第二分支的骨干网络的卷积块输出的多级特征进行融合,进一步融合边缘信息。其中,可以将骨干网络第四层卷积块的输出和第五层卷积块的输出进行连接,得到第一连接结果。另外,对细节特征图执行激活处理,得到第一激活特征;将第一激活特征和第一连接结果进行相乘,得到第一乘积特征;将第一乘积特征与第一连接结果相加,得到第一加和特征,对第一加和特征执行1*1的卷积操作,得到第一边缘细节融合特征。
另外,利用骨干网络第三层卷积块的输出与第五层卷积块的输出进行连接,得到第二连接结果。对第一边缘细节融合特征执行激活处理,得到第二激活特征;将第二激活特征与第二连接结果进行相乘,得到第二乘积特征;将第二乘积特征与第二连接结果相加,得到第二加和特征,最后对第二加和特征执行1*1的卷积,得到图像组中每张图像中各像素点为伪装对象的概率,并基于设置的阈值,确定定位预测图。其中,将概率为大于阈值的像素点设为1,否则为0。本公开实施例中,阈值为0.5,但不作为本公开的具体限定。其中,最终将像素点为1的像素构成的区域确定为伪装对象的位置区域。
另外,本公开实施例的伪装对象的检测过程可以通过深度学习神经网络实现,该网络结构如图2所示,在训练该网络时,可以采用多类数据集以增加网络的鲁棒性,其中,本公开实施例利用4个公开的伪装物体检测基准数据集(CAMO、CHAMELEON、COD10K、NC4K)所组成的伪装对象协同检测数据集进行网络的训练和测试。本公开所采用的损失函数表示为其中代表二值交叉熵(BCE)损失,用来计算局部(像素级别)约束。相较于标准的二值交叉熵损失,更注重较难的像素而非赋予每个像素相同的权重。本公开利用训练集对目标识别模块和共特征提取模块进行训练,计算总体损失函数L并通过梯度反向传播的迭代优化方式来对网络参数进行调整,当反向迭代次数达到预设的迭代阈值(如60)时,完成训练。另外,测试过程中使用四种评价指标全面评价网络,评价指标包括S-measure(S),平均绝对误差(MAE),最大E-measure(E-max),最大F-measure(F-max),平均E-measure(E-mean),平均F-measure(F-mean)。表1示出评价结果。
表1为本公开实施例的网络模型及现有网络的在协同伪装数据集上针对评价指标的结果对比。相对于现有方法,本公开提供的方法(ours)在各指标上都具有很好的效果。
表1本公开实施例的网络模型及现有网络的在协同伪装数据集上针对评价指标的结果对比。
另外,图6示出根据本公开实施例的网络及现有网络对伪装对象协同检测的对比示意图。其中,Image表示伪装物体彩色图像,GT为真值图,其余为网络模型,第三排为本公开实施例提出方法的网络测试结果。相比之下,本公开模型以外的其他方法给出的结果不能令人满意,与真值图存在显著差异,特别是在目标被严重遮挡、背景杂乱和目标较小等具有挑战性的情况下,本公开实施例始终能够给出最好的结果,并显著优于其他方法。
另外,本公开实施例还进行了消融实验,如表2所示为网络中骨干网络框架(B)、共性特征提取模块(CFE)、目标识别模块(TRM)以及边缘细节增强模块(DRM)的消融结果。其中,B+CFE在现有数据集和所有评价指标上均优于B,且各指标提升明显平均提升5.78%,证明CFE模块是一种有效的提高性能的模块。其中,CFE模块显著提升了Fβ值,表明预测图组更接近真值图组。CFE模块的优点在于迅速过滤不同环境中的背景噪声,并迅速标定输入图组中的共属性目标,对其所在区域进行高亮。准确定位目标所在区域。TRM模块主要用于目标的识别与判定,突出目标区域滤除噪声,从结果中可以看到B+CFE+TRM的结果均优于B+CFE,这充分证明了TRM的有效性,它能够协同滤除输入图组中的背景噪声,自适应融合同属性目标特征,进行准确的协同伪装目标检测。另外,DRM模块用于处理双分支融合后的信息,利用局部标定目标区域,全局引导精确检测的思想实现输入图注中共伪装目标的精准定位,从结果中可以看到,DRM相比于上一阶段在Eξ和Fβ上均有显著提升,各评价指标平均提升6.68%。
表2为骨干框架(B)、共特征提取模块(CFE)、目标识别模块(TRM)以及细节优化模块(DRM)的消融结果。
另外,本公开实施例在训练图2所示的网络结构时,可以根据前一次(前一epoch)得到的定位预测图的准确度确定当前次(当前epoch)训练时第一分支内的第一图像,例如可以将图像组中各图像的定位预测图的准确度从低到高排序,将满足选择条件的图像确定为下一次训练的第一图像。其中,在第一图像为一个时,将准确度最低的图像确定为第一图像,或者在第一图像为多个时,将准确度最低的预设数量个图像作为第一图像,预设数量为设定的第一图像的个数。通过该配置,可以加强网络的对样本的学习能力,提高准确度。
与现有技术相比,本公开的有益效果包括以下几方面:
1、本公开提出了一个新的研究方向,即伪装目标的协同检测,可同时定位和检测不同背景下的同一类伪装目标,解决了伪装对象检测领域中面临不同背景下同一类目标检测困难、检测精度低的问题。本公开开创了协同伪装物体检测的先河。
2、本公开可以更精确地定位和检测出隐藏在图像中的伪装物体,通过第一分支的目标识别模块对第一图像进行维度转换和综合池化进行目标定位和特征提取,可以更准确地探测伪装区域。通过共特征提取模块,可以从一组伪装图像中挖掘同一目标的特征信息,完成对一组图片的伪装物体检测。
基于上述配置,在本公开实施例中,首先包括两个特征处理分支,其中首先从包括伪装对象的图像组中选择出第一图像执行第一分支的图像处理,得到目标识别预测图,并利用第二分支对图像组执行图像处理,得到图像组中图像之间的共性特征预测图;而后对目标识别预测图和共性特征提取图进行融合,得到双分支融合特征图;最后,对双分支融合特征图进行边缘细节增强处理,得到共属性目标的精准定位预测图。本公开实施例首次提出了一个新的研究方向——协同伪装物体检测,同时利用单张伪装物体彩色图和伪装物体彩色图组,引入多支路的特征融合方式,可同时定位检测不同背景下同一类伪装物体,显著提高了伪装物体的检测精度。
本领域技术人员可以理解,在具体实施方式的上述方法中,各步骤的撰写顺序并不意味着严格的执行顺序而对实施过程构成任何限定,各步骤的具体执行顺序应当以其功能和可能的内在逻辑确定。
此外,本公开还提供了伪装对象协同检测装置、电子设备、计算机可读存储介质、程序,上述均可用来实现本公开提供的任一种伪装对象协同检测方法,相应技术方案和描述和参见方法部分的相应记载,不再赘述。
图7示出根据本公开实施例的伪装对象协同检测装置的框图,如图7所示,所述伪装对象协同检测装置包括:
目标识别模块10,用于从图像组中选择出第一图像,并利用第一分支对所述第一图像执行目标预测处理,得到目标识别预测图;
共特征提取模块20,用于利用第二分支对所述图像组执行特征处理,得到共性特征预测图;
双分支融合模块30,用于对所述目标识别预测图和所述共性特征预测图进行特征融合处理,得到双分支融合特征图;
增强模块,用于对所述双分支融合特征图进行边缘细节增强处理,得到所述伪装对象的定位预测图。
在一些实施例中,本公开实施例提供的装置具有的功能或包含的模块可以用于执行上文方法实施例描述的方法,其具体实现可以参照上文方法实施例的描述,为了简洁,这里不再赘述。
本公开实施例还提出一种计算机可读存储介质,其上存储有计算机程序指令,所述计算机程序指令被处理器执行时实现上述方法。计算机可读存储介质可以是非易失性计算机可读存储介质。
本公开实施例还提出一种电子设备,包括:处理器;用于存储处理器可执行指令的存储器;其中,所述处理器被配置为上述方法。
电子设备可以被提供为终端、服务器或其它形态的设备。
图8示出根据本公开实施例的一种电子设备800的框图。例如,电子设备800可以是移动电话,计算机,数字广播终端,消息收发设备,游戏控制台,平板设备,医疗设备,健身设备,个人数字助理等终端。
参照图8,电子设备800可以包括以下一个或多个组件:处理组件802,存储器804,电源组件806,多媒体组件808,音频组件810,输入/输出(I/O)的接口812,传感器组件814,以及通信组件816。
处理组件802通常控制电子设备800的整体操作,诸如与显示,电话呼叫,数据通信,相机操作和记录操作相关联的操作。处理组件802可以包括一个或多个处理器820来执行指令,以完成上述的方法的全部或部分步骤。此外,处理组件802可以包括一个或多个模块,便于处理组件802和其他组件之间的交互。例如,处理组件802可以包括多媒体模块,以方便多媒体组件808和处理组件802之间的交互。
存储器804被配置为存储各种类型的数据以支持在电子设备800的操作。这些数据的示例包括用于在电子设备800上操作的任何应用程序或方法的指令,联系人数据,电话簿数据,消息,图片,视频等。存储器804可以由任何类型的易失性或非易失性存储设备或者它们的组合实现,如静态随机存取存储器(SRAM),电可擦除可编程只读存储器(EEPROM),可擦除可编程只读存储器(EPROM),可编程只读存储器(PROM),只读存储器(ROM),磁存储器,快闪存储器,磁盘或光盘。
电源组件806为电子设备800的各种组件提供电力。电源组件806可以包括电源管理系统,一个或多个电源,及其他与为电子设备800生成、管理和分配电力相关联的组件。
多媒体组件808包括在所述电子设备800和用户之间的提供一个输出接口的屏幕。在一些实施例中,屏幕可以包括液晶显示器(LCD)和触摸面板(TP)。如果屏幕包括触摸面板,屏幕可以被实现为触摸屏,以接收来自用户的输入信号。触摸面板包括一个或多个触摸传感器以感测触摸、滑动和触摸面板上的手势。所述触摸传感器可以不仅感测触摸或滑动动作的边界,而且还检测与所述触摸或滑动操作相关的持续时间和压力。在一些实施例中,多媒体组件808包括一个前置摄像头和/或后置摄像头。当电子设备800处于操作模式,如拍摄模式或视频模式时,前置摄像头和/或后置摄像头可以接收外部的多媒体数据。每个前置摄像头和后置摄像头可以是一个固定的光学透镜系统或具有焦距和光学变焦能力。
音频组件810被配置为输出和/或输入音频信号。例如,音频组件810包括一个麦克风(MIC),当电子设备800处于操作模式,如呼叫模式、记录模式和语音识别模式时,麦克风被配置为接收外部音频信号。所接收的音频信号可以被进一步存储在存储器804或经由通信组件816发送。在一些实施例中,音频组件810还包括一个扬声器,用于输出音频信号。
I/O接口812为处理组件802和外围接口模块之间提供接口,上述外围接口模块可以是键盘,点击轮,按钮等。这些按钮可包括但不限于:主页按钮、音量按钮、启动按钮和锁定按钮。
传感器组件814包括一个或多个传感器,用于为电子设备800提供各个方面的状态评估。例如,传感器组件814可以检测到电子设备800的打开/关闭状态,组件的相对定位,例如所述组件为电子设备800的显示器和小键盘,传感器组件814还可以检测电子设备800或电子设备800一个组件的位置改变,用户与电子设备800接触的存在或不存在,电子设备800方位或加速/减速和电子设备800的温度变化。传感器组件814可以包括接近传感器,被配置用来在没有任何的物理接触时检测附近物体的存在。传感器组件814还可以包括光传感器,如CMOS或CCD图像传感器,用于在成像应用中使用。在一些实施例中,该传感器组件814还可以包括加速度传感器,陀螺仪传感器,磁传感器,压力传感器或温度传感器。
通信组件816被配置为便于电子设备800和其他设备之间有线或无线方式的通信。电子设备800可以接入基于通信标准的无线网络,如WiFi,2G或3G,或它们的组合。在一个示例性实施例中,通信组件816经由广播信道接收来自外部广播管理系统的广播信号或广播相关信息。在一个示例性实施例中,所述通信组件816还包括近场通信(NFC)模块,以促进短程通信。例如,在NFC模块可基于射频识别(RFID)技术,红外数据协会(IrDA)技术,超宽带(UWB)技术,蓝牙(BT)技术和其他技术来实现。
在示例性实施例中,电子设备800可以被一个或多个应用专用集成电路(ASIC)、数字信号处理器(DSP)、数字信号处理设备(DSPD)、可编程逻辑器件(PLD)、现场可编程门阵列(FPGA)、控制器、微控制器、微处理器或其他电子元件实现,用于执行上述方法。
在示例性实施例中,还提供了一种非易失性计算机可读存储介质,例如包括计算机程序指令的存储器804,上述计算机程序指令可由电子设备800的处理器820执行以完成上述方法。
图9示出根据本公开实施例的另一种电子设备1900的框图。例如,电子设备1900可以被提供为一服务器。参照图9,电子设备1900包括处理组件1922,其进一步包括一个或多个处理器,以及由存储器1932所代表的存储器资源,用于存储可由处理组件1922的执行的指令,例如应用程序。存储器1932中存储的应用程序可以包括一个或一个以上的每一个对应于一组指令的模块。此外,处理组件1922被配置为执行指令,以执行上述方法。
电子设备1900还可以包括一个电源组件1926被配置为执行电子设备1900的电源管理,一个有线或无线网络接口1950被配置为将电子设备1900连接到网络,和一个输入输出(I/O)接口1958。电子设备1900可以操作基于存储在存储器1932的操作系统,例如Windows ServerTM,Mac OS XTM,UnixTM,LinuxTM,FreeBSDTM或类似。
在示例性实施例中,还提供了一种非易失性计算机可读存储介质,例如包括计算机程序指令的存储器1932,上述计算机程序指令可由电子设备1900的处理组件1922执行以完成上述方法。
本公开可以是系统、方法和/或计算机程序产品。计算机程序产品可以包括计算机可读存储介质,其上载有用于使处理器实现本公开的各个方面的计算机可读程序指令。
计算机可读存储介质可以是可以保持和存储由指令执行设备使用的指令的有形设备。计算机可读存储介质例如可以是――但不限于――电存储设备、磁存储设备、光存储设备、电磁存储设备、半导体存储设备或者上述的任意合适的组合。计算机可读存储介质的更具体的例子(非穷举的列表)包括:便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、静态随机存取存储器(SRAM)、便携式压缩盘只读存储器(CD-ROM)、数字多功能盘(DVD)、记忆棒、软盘、机械编码设备、例如其上存储有指令的打孔卡或凹槽内凸起结构、以及上述的任意合适的组合。这里所使用的计算机可读存储介质不被解释为瞬时信号本身,诸如无线电波或者其他自由传播的电磁波、通过波导或其他传输媒介传播的电磁波(例如,通过光纤电缆的光脉冲)、或者通过电线传输的电信号。
这里所描述的计算机可读程序指令可以从计算机可读存储介质下载到各个计算/处理设备,或者通过网络、例如因特网、局域网、广域网和/或无线网下载到外部计算机或外部存储设备。网络可以包括铜传输电缆、光纤传输、无线传输、路由器、防火墙、交换机、网关计算机和/或边缘服务器。每个计算/处理设备中的网络适配卡或者网络接口从网络接收计算机可读程序指令,并转发该计算机可读程序指令,以供存储在各个计算/处理设备中的计算机可读存储介质中。
用于执行本公开操作的计算机程序指令可以是汇编指令、指令集架构(ISA)指令、机器指令、机器相关指令、微代码、固件指令、状态设置数据、或者以一种或多种编程语言的任意组合编写的源代码或目标代码,所述编程语言包括面向对象的编程语言—诸如Smalltalk、C++等,以及常规的过程式编程语言—诸如“C”语言或类似的编程语言。计算机可读程序指令可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络—包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。在一些实施例中,通过利用计算机可读程序指令的状态信息来个性化定制电子电路,例如可编程逻辑电路、现场可编程门阵列(FPGA)或可编程逻辑阵列(PLA),该电子电路可以执行计算机可读程序指令,从而实现本公开的各个方面。
这里参照根据本公开实施例的方法、装置(系统)和计算机程序产品的流程图和/或框图描述了本公开的各个方面。应当理解,流程图和/或框图的每个方框以及流程图和/或框图中各方框的组合,都可以由计算机可读程序指令实现。
这些计算机可读程序指令可以提供给通用计算机、专用计算机或其它可编程数据处理装置的处理器,从而生产出一种机器,使得这些指令在通过计算机或其它可编程数据处理装置的处理器执行时,产生了实现流程图和/或框图中的一个或多个方框中规定的功能/动作的装置。也可以把这些计算机可读程序指令存储在计算机可读存储介质中,这些指令使得计算机、可编程数据处理装置和/或其他设备以特定方式工作,从而,存储有指令的计算机可读介质则包括一个制造品,其包括实现流程图和/或框图中的一个或多个方框中规定的功能/动作的各个方面的指令。
也可以把计算机可读程序指令加载到计算机、其它可编程数据处理装置、或其它设备上,使得在计算机、其它可编程数据处理装置或其它设备上执行一系列操作步骤,以产生计算机实现的过程,从而使得在计算机、其它可编程数据处理装置、或其它设备上执行的指令实现流程图和/或框图中的一个或多个方框中规定的功能/动作。
附图中的流程图和框图显示了根据本公开的多个实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段或指令的一部分,所述模块、程序段或指令的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个连续的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或动作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
以上已经描述了本公开的各实施例,上述说明是示例性的,并非穷尽性的,并且也不限于所披露的各实施例。在不偏离所说明的各实施例的范围和精神的情况下,对于本技术领域的普通技术人员来说许多修改和变更都是显而易见的。本文中所用术语的选择,旨在最好地解释各实施例的原理、实际应用或对市场中的技术的改进,或者使本技术领域的其它普通技术人员能理解本文披露的各实施例。
Claims (10)
1.一种伪装对象协同检测方法,其特征在于,包括:
从图像组中选择出第一图像,并利用第一分支对所述第一图像执行目标预测处理,得到目标识别预测图,所述图像组中的图像包括待协同检测的伪装对象;
利用第二分支对所述图像组执行特征处理,得到共性特征预测图;
对目标识别预测图和所述共性特征预测图进行特征融合处理,得到双分支融合特征图;
对所述双分支融合特征图进行边缘细节增强处理,得到所述图像组中各所述图像的伪装对象的定位预测图。
2.根据权利要求1所述的方法,其特征在于,所述从图像组中选择出第一图像,并利用第一分支对所述第一图像执行目标预测处理,得到目标识别预测图,包括:
利用第一分支中的骨干网络提取所述第一图像的第一特征;
对所述第一特征进行多维特征融合,得到第一融合特征图;
利用权重系数对所述第一融合特征图进行修正,得到修正特征;
基于所述修正特征和所述第一特征得到所述目标预测图。
3.根据权利要求2所述的方法,其特征在于,所述对所述第一特征进行多维特征融合,得到第一融合特征图,包括:
利用至少两种降维方式对所述第一特征进行降维处理,并获得对应的降维特征;
融合所述降维特征,获得初步提取特征;
对所述初步提取特征分别执行最大化处理和平均化处理,并分别获得最大化特征和平均化特征;
对所述最大化特征和平均化特征执行通道级联,得到所述第一融合特征图;
以及/或
所述基于所述修正特征和所述第一特征得到所述目标预测图,包括:
对所述修正特征和所述第一特征执行相加处理,得到所述目标预测图。
4.根据权利要求1或2所述的方法,其特征在于,所述利用第二分支对所述图像组执行特征处理,得到共性特征预测图,包括:
利用所述第二分支中的骨干网络提取所述图像组的第二特征;
对所述第二特征执行特征混洗,获得混洗特征图;
对所述混洗特征图执行交互融合处理,得到共性特征预测图。
5.根据权利要求4所述的方法,其特征在于,所述对所述第二特征执行特征混洗,获得混洗特征图,包括:
对所述第二特征分别执行至少两个维度上的特征混洗处理,分别得到对应的混洗特征图;
对得到的混洗特征图进行级联,得到最终的所述混洗特征图;
以及/或
所述对所述混洗特征图执行交互融合处理,得到共性特征预测图,包括:
对所述混洗特征图执行采样处理,得到多尺度特征图组;
对所述多尺度特征图组进行融合处理,得到所述共性特征预测图。
6.根据权利要求5所述的方法,其特征在于,所述对所述混洗特征图执行采样处理,得到多尺度特征图组,包括:
对所述混洗特征分别执行至少一种上采样处理以及至少一种下采样处理,分别得到多尺度特征;
以及/或
所述对所述多尺度特征图组进行融合处理,得到所述共性特征预测图,包括:
利用密集连接的方式连接所述多尺度特征,得到所述共性特征预测图。
7.根据权利要求1所述的方法,其特征在于,所述对所述双分支融合特征图进行边缘细节增强处理,得到所述图像组中各所述图像的伪装对象的定位预测图,包括:
对所述双分支融合特征图执行细节增强处理,得到细节特征图;
对所述细节特征执行边缘特征融合处理,得到所述定位预测图。
8.一种伪装对象协同检测装置,其特征在于,包括:
目标识别模块,用于从图像组中选择出第一图像,并利用第一分支对所述第一图像执行目标预测处理,得到目标识别预测图;所述图像组中的图像包括待协同检测的伪装对象;
共特征提取模块,用于利用第二分支对所述图像组执行特征处理,得到共性特征预测图;
双分支融合模块,用于对所述目标识别预测图和所述共性特征预测图进行特征融合处理,得到双分支融合特征图;
增强模块,用于对所述双分支融合特征图进行边缘细节增强处理,得到所述图像组中各所述图像的所述伪装对象的定位预测图。
9.一种电子设备,其特征在于,包括:
处理器;
用于存储处理器可执行指令的存储器;
其中,所述处理器被配置为调用所述存储器存储的指令,以执行权利要求1至7中任意一项所述的方法。
10.一种计算机可读存储介质,其上存储有计算机程序指令,其特征在于,所述计算机程序指令被处理器执行时实现权利要求1至7中任意一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210643654.0A CN115223018B (zh) | 2022-06-08 | 2022-06-08 | 伪装对象协同检测方法及装置、电子设备和存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210643654.0A CN115223018B (zh) | 2022-06-08 | 2022-06-08 | 伪装对象协同检测方法及装置、电子设备和存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN115223018A true CN115223018A (zh) | 2022-10-21 |
CN115223018B CN115223018B (zh) | 2023-07-04 |
Family
ID=83608171
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210643654.0A Active CN115223018B (zh) | 2022-06-08 | 2022-06-08 | 伪装对象协同检测方法及装置、电子设备和存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115223018B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117173523A (zh) * | 2023-08-04 | 2023-12-05 | 山东大学 | 一种基于频率感知的伪装目标检测方法及系统 |
Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20160267359A1 (en) * | 2013-11-04 | 2016-09-15 | Beijing Jingdong Shangke Information Technology Co., Ltd. | Image object category recognition method and device |
WO2018107574A1 (zh) * | 2016-12-16 | 2018-06-21 | 广州中智融通金融科技有限公司 | 一种对印防伪特征的检测方法及装置 |
US20210064853A1 (en) * | 2019-08-27 | 2021-03-04 | Industry-Academic Cooperation Foundation, Yonsei University | Person re-identification apparatus and method |
WO2021071995A1 (en) * | 2019-10-07 | 2021-04-15 | Boston Polarimetrics, Inc. | Systems and methods for surface normals sensing with polarization |
CN112733744A (zh) * | 2021-01-14 | 2021-04-30 | 北京航空航天大学 | 一种基于边缘协同监督与多级约束的伪装物体检测模型 |
CN112907530A (zh) * | 2021-02-08 | 2021-06-04 | 南开大学 | 基于分组反向注意力的伪装物体检测方法及系统 |
WO2021110147A1 (zh) * | 2019-12-06 | 2021-06-10 | 阿里巴巴集团控股有限公司 | 一种图像处理,图像训练以通道混洗方法和装置 |
CN113468996A (zh) * | 2021-06-22 | 2021-10-01 | 广州大学 | 一种基于边缘细化的伪装物体检测方法 |
WO2021208667A1 (zh) * | 2020-04-17 | 2021-10-21 | 深圳市商汤科技有限公司 | 图像处理方法及装置、电子设备和存储介质 |
CN113536978A (zh) * | 2021-06-28 | 2021-10-22 | 杭州电子科技大学 | 一种基于显著性的伪装目标检测方法 |
CN114187230A (zh) * | 2021-10-25 | 2022-03-15 | 中国科学院大学 | 一种基于两级优化网络的伪装物体检测方法 |
CN114387612A (zh) * | 2021-11-24 | 2022-04-22 | 之江实验室 | 一种基于双模态特征融合网络的人体重识别方法及装置 |
-
2022
- 2022-06-08 CN CN202210643654.0A patent/CN115223018B/zh active Active
Patent Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20160267359A1 (en) * | 2013-11-04 | 2016-09-15 | Beijing Jingdong Shangke Information Technology Co., Ltd. | Image object category recognition method and device |
WO2018107574A1 (zh) * | 2016-12-16 | 2018-06-21 | 广州中智融通金融科技有限公司 | 一种对印防伪特征的检测方法及装置 |
US20210064853A1 (en) * | 2019-08-27 | 2021-03-04 | Industry-Academic Cooperation Foundation, Yonsei University | Person re-identification apparatus and method |
WO2021071995A1 (en) * | 2019-10-07 | 2021-04-15 | Boston Polarimetrics, Inc. | Systems and methods for surface normals sensing with polarization |
WO2021110147A1 (zh) * | 2019-12-06 | 2021-06-10 | 阿里巴巴集团控股有限公司 | 一种图像处理,图像训练以通道混洗方法和装置 |
WO2021208667A1 (zh) * | 2020-04-17 | 2021-10-21 | 深圳市商汤科技有限公司 | 图像处理方法及装置、电子设备和存储介质 |
CN112733744A (zh) * | 2021-01-14 | 2021-04-30 | 北京航空航天大学 | 一种基于边缘协同监督与多级约束的伪装物体检测模型 |
CN112907530A (zh) * | 2021-02-08 | 2021-06-04 | 南开大学 | 基于分组反向注意力的伪装物体检测方法及系统 |
CN113468996A (zh) * | 2021-06-22 | 2021-10-01 | 广州大学 | 一种基于边缘细化的伪装物体检测方法 |
CN113536978A (zh) * | 2021-06-28 | 2021-10-22 | 杭州电子科技大学 | 一种基于显著性的伪装目标检测方法 |
CN114187230A (zh) * | 2021-10-25 | 2022-03-15 | 中国科学院大学 | 一种基于两级优化网络的伪装物体检测方法 |
CN114387612A (zh) * | 2021-11-24 | 2022-04-22 | 之江实验室 | 一种基于双模态特征融合网络的人体重识别方法及装置 |
Non-Patent Citations (5)
Title |
---|
CHENGWEI WANG: "CAMO: A Collaborative Ranking Method for Content Based Recommendation", 《THE THIRTY-THIRD AAAI CONFERENCE ON ARTIFICIAL INTELLIGENCE (AAAI-19)》 * |
张宇佳,魏俊杰: "一种基于超光谱图像的快速反伪装识别技术", 光电技术应用, vol. 33, no. 3, pages 2 * |
毕洪波等: "多层次特征融合的视频显著目标检测系统设计", 《实验室研究与探索》, vol. 41, no. 3 * |
陈潮起;孟祥超;邵枫;符冉迪;: "一种基于多尺度低秩分解的红外与可见光图像融合方法", 光学学报, no. 11 * |
马世欣: "基于高光谱图像探测与感知的伪装效果评估方法", 《兵工学报》, vol. 40, no. 7 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117173523A (zh) * | 2023-08-04 | 2023-12-05 | 山东大学 | 一种基于频率感知的伪装目标检测方法及系统 |
CN117173523B (zh) * | 2023-08-04 | 2024-04-09 | 山东大学 | 一种基于频率感知的伪装目标检测方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN115223018B (zh) | 2023-07-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111310616B (zh) | 图像处理方法及装置、电子设备和存储介质 | |
CN110659640B (zh) | 文本序列的识别方法及装置、电子设备和存储介质 | |
TWI717865B (zh) | 影像處理方法及裝置、電子設備、電腦可讀取的記錄媒體和電腦程式產品 | |
US20210103733A1 (en) | Video processing method, apparatus, and non-transitory computer-readable storage medium | |
CN110688951B (zh) | 图像处理方法及装置、电子设备和存储介质 | |
CN110378976B (zh) | 图像处理方法及装置、电子设备和存储介质 | |
US11443438B2 (en) | Network module and distribution method and apparatus, electronic device, and storage medium | |
CN108121952B (zh) | 人脸关键点定位方法、装置、设备及存储介质 | |
CN109522910B (zh) | 关键点检测方法及装置、电子设备和存储介质 | |
CN111783756B (zh) | 文本识别方法及装置、电子设备和存储介质 | |
CN109544560B (zh) | 图像处理方法及装置、电子设备和存储介质 | |
CN109145970B (zh) | 基于图像的问答处理方法和装置、电子设备及存储介质 | |
KR20210058887A (ko) | 이미지 처리 방법 및 장치, 전자 기기 및 저장 매체 | |
WO2020082382A1 (en) | Method and system of neural network object recognition for image processing | |
CN109977860B (zh) | 图像处理方法及装置、电子设备和存储介质 | |
CN112508974B (zh) | 图像分割模型的训练方法、装置、电子设备和存储介质 | |
CN114140611A (zh) | 显著目标检测方法及装置、电子设备和存储介质 | |
CN114494442A (zh) | 图像处理方法、装置及设备 | |
CN111931781A (zh) | 图像处理方法及装置、电子设备和存储介质 | |
CN111027617A (zh) | 神经网络训练及图像识别方法、装置、设备和存储介质 | |
CN115223018B (zh) | 伪装对象协同检测方法及装置、电子设备和存储介质 | |
CN111488964B (zh) | 图像处理方法及装置、神经网络训练方法及装置 | |
CN111507131B (zh) | 活体检测方法及装置、电子设备和存储介质 | |
CN112036307A (zh) | 图像处理方法及装置、电子设备和存储介质 | |
CN111079761A (zh) | 图像处理方法、装置及计算机存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |