CN113468996B - 一种基于边缘细化的伪装物体检测方法 - Google Patents
一种基于边缘细化的伪装物体检测方法 Download PDFInfo
- Publication number
- CN113468996B CN113468996B CN202110691277.3A CN202110691277A CN113468996B CN 113468996 B CN113468996 B CN 113468996B CN 202110691277 A CN202110691277 A CN 202110691277A CN 113468996 B CN113468996 B CN 113468996B
- Authority
- CN
- China
- Prior art keywords
- camouflage
- feature
- features
- module
- object detection
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 78
- 238000012549 training Methods 0.000 claims abstract description 32
- 238000007670 refining Methods 0.000 claims abstract description 11
- 238000000034 method Methods 0.000 claims description 59
- 230000008569 process Effects 0.000 claims description 26
- 238000000605 extraction Methods 0.000 claims description 18
- 230000006870 function Effects 0.000 claims description 10
- 230000007246 mechanism Effects 0.000 claims description 9
- 230000009466 transformation Effects 0.000 claims description 9
- 238000012545 processing Methods 0.000 claims description 8
- 238000010586 diagram Methods 0.000 claims description 7
- 238000012360 testing method Methods 0.000 claims description 7
- 230000009467 reduction Effects 0.000 claims description 6
- 238000002372 labelling Methods 0.000 claims description 4
- 230000004913 activation Effects 0.000 claims description 3
- 229940060587 alpha e Drugs 0.000 claims description 3
- 230000001186 cumulative effect Effects 0.000 claims description 3
- 238000003708 edge detection Methods 0.000 claims description 3
- 238000011478 gradient descent method Methods 0.000 claims description 3
- 238000010606 normalization Methods 0.000 claims description 3
- 238000011176 pooling Methods 0.000 claims description 3
- 230000000750 progressive effect Effects 0.000 claims description 3
- 238000005070 sampling Methods 0.000 claims description 3
- 241000282414 Homo sapiens Species 0.000 description 5
- 230000000007 visual effect Effects 0.000 description 5
- 230000000694 effects Effects 0.000 description 4
- 241001465754 Metazoa Species 0.000 description 3
- 230000002776 aggregation Effects 0.000 description 3
- 238000004220 aggregation Methods 0.000 description 3
- 238000013135 deep learning Methods 0.000 description 3
- 230000007613 environmental effect Effects 0.000 description 3
- 241000282412 Homo Species 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 241000196324 Embryophyta Species 0.000 description 1
- 241000238631 Hexapoda Species 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000002238 attenuated effect Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 239000003814 drug Substances 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000002349 favourable effect Effects 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000003902 lesion Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/213—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Artificial Intelligence (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于边缘细化的伪装物体检测方法,首先,利用各类伪装物体的原始图像来构建伪装物体图像数据集,然后构建伪装物体检测网络,接着使用伪装物体图像数据集对构建的伪装物体检测网络进行迭代训练,该伪装物体检测网络将伪装物体检测任务分成两个阶段,第一阶段负责伪装物体检测,第二阶段负责细化伪装物体边缘;最后,以待预测的伪装物体原始图像作为训练完成后的伪装物体检测网络模型的输入,利用该伪装物体检测网络模型输出对应的有区分出图像背景和伪装物体的伪装图。本发明不仅能准确定位伪装物体,而且能保证伪装物体边缘的清晰,有效提高了伪装物体图像整体的检测精度。
Description
技术领域
本发明涉及伪装物体检测技术领域,特别是一种基于边缘细化的伪装物体检测方法。
背景技术
伪装是指物体根据环境的纹理,通过使自身的形态、质地和颜色等接近周围的环境来达到隐藏自己的目的。伪装物体的视觉特征与背景非常相似,它的强度或颜色接近其周围环境、纹理被破坏以与背景融合且边界模糊,这也使得伪装的物体不能被人类视觉系统充分地看见。随着人类社会的不断进步,伪装物体检测逐渐走进人们的生活中,它在保护野生动物、战场上探测敌人、医学图像分析等上都存在潜在应用。伪装物体检测就是从背景中提取目标,它能够区分前景物体和伪装物体。
近年来,基于各种视觉特征(例如,强度或颜色、纹理、梯度等)开发了各种算法,以实现在周围环境中检测伪装物体。强度或颜色特征可以检测出与环境背景纹理相似的伪装物体,但却无法检测到与环境背景颜色相似的伪装物体;而当物体的颜色与环境背景颜色相似时,纹理则被认为是区分物体与其周围环境的特征。如果物体和环境背景都包含相似的颜色和纹理,那么梯度信息则有助于从背景区域提取伪装目标。但是,所有特征,例如颜色、纹理和渐变等,都是手工制作的,可能不适用于所有类型的伪装物体。由于这种视觉特征的复杂性,这给伪装物体检测的突破带来了很大的阻碍,在这种背景下,基于深度学习的方法被提出来分析伪装物体。
在大多数情况下,人类仍然能够找到伪装对象,这是由于人类大脑中的语义信息有助于人类发现伪装对象,即使是在对象的底层特征被破坏的情况下。受人类视觉系统的启发,利用卷积神经网络从广泛的训练图像中学习得到的特征来检测伪装物体,这种学习到的深层特征与手工制作的特征相比更具普适性,整体检测的效果会更好。但是由于卷积神经网络的复杂性以及伪装物体的特殊性,现有的方法都有一定的局限性,比如现有的网络框架往往会存在边缘模糊、目标丢失等问题,这会给检测精度带来很大的影响,尤其是在医学影像中检测病变区域以及在军事领域检测敌人时发生的检测失误可能会产生不可估计的后果,因此伪装检测领域还存在巨大的进步空间。
发明内容
本发明的目的在于解决现有技术的不足,提出一种基于边缘细化的伪装物体检测方法,可以在准确定位伪装物体的情况下,保证边缘的清晰,提高整体的检测精度,提供应用于实际场景的更多可能性,给相关工作人员提供更可靠的帮助。
本发明的目的通过下述技术方案实现:
一种基于边缘细化的伪装物体检测方法,包括如下步骤:
S1、利用各类伪装物体的原始图像来构建伪装物体图像数据集;
S2、构建伪装物体检测网络;
S3、训练模型:使用伪装物体图像数据集对构建的伪装物体检测网络进行迭代训练,该伪装物体检测网络将伪装物体检测任务分成两个阶段,第一阶段负责伪装物体检测,第二阶段负责细化伪装物体边缘,训练完成后得到伪装物体检测模型;
S4、测试模型:以待预测的伪装物体原始图像作为训练完成后的伪装物体检测模型的输入,利用该伪装物体检测模型输出对应的有区分出图像背景和伪装物体的伪装图。
优选的,伪装物体检测网络包括特征提取模块、感受野模块、特征编码模块、特征解码模块以及边缘细化模块,其中,特征提取模块、感受野模块、特征编码模块、特征解码模块和边缘细化模块依次连接,感受野模块连接至边缘细化模块;
对于第一阶段:特征提取模块以原始图像作为输入,输出对应的一组特征,该组特征经感受野扩大搜索范围,再经特征编码模块和特征解码模块进行融合,特征解码模块输出初始的伪装图;
对于第二阶段:特征提取模块所获取到的特征中的较低层特征经感受野扩大搜索范围后,和初始伪装图同时作为边缘细化模块的输入,边缘细化模块输出最终的伪装图。
更进一步的,特征提取模块的处理过程如下:
对于输入图像I∈RH×W×3,利用ResNet50网络从输入图像提取出一组多尺度特征{x1,x2,x3,x4},该组多尺度特征中的低级特征保留了用于构建物体边缘的空间信息,高级特征保留了用于定位目标的语义信息;
然后,将多尺度特征按层次划分为低级特征组L:{x1,x2,x3}和高级特征组H:{x2,x3,x4},其中,x1为低级特征,x2,x3为中级特征,x4为高级特征。
更进一步的,多尺度特征{x1,x2,x3,x4}中的每层特征分别经感受野模块扩大感受野的范围,过程具体如下:
感受野模块含有多个分支,对于前4个分支,每个分支首先应用1×1卷积来减小输入特征的通道维数,第k(k∈{2,3,4})个分支再应用核大小为2k-1、膨胀率为1的卷积运算,接着再应用另一个不同应用核大小、膨胀率为2k-1的卷积运算;
将该4个分支的输出拼接在一起,然后应用1×1卷积运算来减小拼接后的特征的通道数,再将处理后的特征与原输入特征形成一个残差连接,最终得到的特征表示为:
其中,j∈{1,2,3,4},C∈{c,e},c表示伪装物体检测阶段,e表示细化伪装物体边缘阶段;FRF(·)表示扩大感受野操作;
更进一步的,特征编码模块的处理过程如下:
其中,UP(·)表示如果输入特征尺寸不一致,则进行双线性上采样操作,使尺寸为输入的最大尺寸;BConvN(·)是结合了标准的N×N卷积运算和批量归一化的顺序操作;为处理后的特征,每个特征也相应是一张特征图像;
更进一步的,特征解码模块的处理过程如下:
首先,将高层特征图上采样到与低层特征图一样的尺寸,并采用卷积操作分别对低层特征图和高层特征图进行初步变换:
其中,l∈[low,high];
然后,对变换后的高、低层特征图进行逐像素相乘操作来增强公共像素,并将增强后的特征图与变换后的低、高层特征图拼接起来:
经注意力机制操作后得到的特征表示为:
其中,Fatt(·)表示通道注意力机制操作;
最后,对两组特征经卷积操作后再拼接,使得具有区分性的特征组合到一起,再将通道降到1维输出,即得到初始的伪装图C1:
其中,T表示连续的BConv和Conv操作,采用渐进降维的方式输出伪装图C1。
更进一步的,边缘细化模块利用初始的伪装图C1来细化边缘特征,即L:{x1,x2,x3},以获得更全面的特征,过程具体如下:
然后将初始伪装图C1与增强后且同尺寸的各个边缘特征进行逐像素相乘,再经卷积操作归一化像素值,得到处理后的特征cei:
其中,i∈{1,2,3};
接着,采用拼接的方式将处理后的特征聚合起来,再对其降维以及与初始伪装图C1逐像素相加,再利用1×1卷积降维得到最终的伪装图C2:
更进一步的,在步骤S3训练模型的过程中,边缘细化模块还生成训练用的边缘图E1:
然后,采用从高到低逐级拼接的方式将特征ei进行融合,最后,利用卷积操作逐步将通道数降至1维,以获得边缘图E1:
训练模型所用的损失函数如下:
λce(P,G)=GlogP+(1-G)log(1-P) (14)
其中,Ltotal表示总体伪装损失;λce表示二进制交叉熵损失;α∈[0,1]为控制因子,用于控制两部分损失之间的权衡;
C、E分别是C2和E1上采样后获得的伪装物体映射图;GC为二元真值伪装图,GE为二元真值边缘图,采用传统的边缘检测算法来获得;
G={GC,GE},P为伪装物体检测网络预测的图,P={C,E},也就是说,当G为GC时,P对应为C,当G为GE时,P对应为E。
优选的,使用随机梯度下降法训练伪装物体检测网络。
优选的,在步骤S1中,构建伪装物体图像数据集的步骤为:
先收集各种类别伪装物体的原始图像,然后将收集的原始图像按比例随机划分为用于训练模型的训练数据集和用于检测模型的测试数据集,最后对数据集中的图像进行分类,并对每张图像标注用于包围伪装物体的包围框。
本发明相对于现有技术具有如下的优点及效果:
1、本发明设计了伪装物体检测网络,能在准确定位伪装物体的情况下,保证边缘的清晰,提高整体的检测精度,由于该网络是在大规模的伪装物体数据集上进行训练而得到,因此,不仅仅是检测伪装的动物,它在检测人类等其他的物体时也可以取得很显著的效果,具有很好的鲁棒性和通用性,因此,本发明检测方法在计算机、军事、医学、农业等多个领域都存在明显的应用价值。
2、本发明充分利用了输入图像的高低级信息,由于低级特征保留了用于构建物体边缘的空间信息,高级特征保留了用于定位目标的语义信息,因此最终获得的伪装图可以很好地区分图像中背景和伪装物体,有利于定位及区分出伪装物体。
3、本发明伪装物体检测模型可基于深度学习技术来处理特征聚合和伪装物体边缘,而基于深度学习的方法学习到的深层特征具有更好的通用性,整体检测的精度也会更佳,这点是其他方法很难做到的。
4、本发明伪装物体检测网络是端对端训练的,比起现有的双流网络模型,其运行速度更快,在实时性方面存在着优势。
附图说明
图1为本发明实施例1中的伪装物体检测网络的整体结构图。
图2为本发明实施例1中的特征解码模块的结构图。
图3为本发明实施例1中的边缘细化模块的结构图。
具体实施方式
下面结合实施例及附图对本发明作进一步详细的描述,但本发明的实施方式不限于此。
实施例1
本实施例提供了一种基于边缘细化的伪装物体检测方法,包括如下步骤:
S1、构建伪装物体图像数据集:
首先,从各个摄影学网站收集各种类别伪装物体的原始图像,伪装物体例如可以是昆虫、动植物、违禁物品等。
然后,将收集的原始图像按比例如(6:4)、(7:3)随机划分为用于训练模型的训练数据集和用于检测模型的测试数据集;
最后,对数据集中的图像进行分类,并对每张图像标注用于包围伪装物体的包围框。标注包围框有利于提高检测模型的检测能力。
S2、构建伪装物体检测网络,如图1所示,具体包括特征提取模块、感受野(Receptive Field,RF)模块、特征编码模块(Feature Encoder Module,FEM)、特征解码模块(Feature Decoder Module,FDM)以及边缘细化模块(Edge Refinement Moudel,ERM),特征提取模块、感受野模块、特征编码模块、特征解码模块和边缘细化模块依次连接,感受野模块连接至边缘细化模块。
S3、训练模型:使用伪装物体图像数据集对构建的伪装物体检测网络进行迭代训练,该伪装物体检测网络将伪装物体检测任务分成两个阶段,第一阶段负责伪装物体检测,第二阶段负责细化伪装物体边缘,训练完成后可得到伪装物体检测模型。
对于第一阶段:特征提取模块以原始图像作为输入,输出对应的一组特征,该组特征经感受野扩大搜索范围,再经特征编码模块和特征解码模块进行融合,特征解码模块输出初始的伪装图;
对于第二阶段:特征提取模块所获取到的特征中的较低层特征经感受野扩大搜索范围后,和初始伪装图同时作为边缘细化模块的输入,边缘细化模块输出最终的伪装图。
其中,(1)特征提取模块采用ResNet50网络,其处理过程如下:
ResNet50网络从输入图像I∈RH×W×3提取出一组多尺度特征{x1,x2,x3,x4},其浅层网络可提取低级特征(也可称为低层特征),该低级特征保留了用于构建物体边缘的空间信息,深层网络可提取高级特征(也可称为高层特征),该高级特征保留了用于定位目标的语义信息。
由于伪装物体自身的复杂性,直接聚集多层次的特征通常会导致细节缺失或引入模糊的特征,这两者都会导致网络无法优化。因此,为了能够充分利用低级特征中的细节信息和高级特征中的语义信息的同时,又降低多层次的特征融合造成的信息混淆,这里还将多尺度特征按层次划分为低级特征组L:{x1,x2,x3}和高级特征组H:{x2,x3,x4},从而实现分组保存相邻特征层的更多信息的同时,缩小不同层特征之间的差距,之后可再采用聚合策略来有效融合不同层特征。其中,x1为低级特征,x2,x3为中级特征,x4为高级特征。
(2)特征组{x1,x2,x3,x4}中的每层特征分别通过感受野模块来扩大感受野的范围,过程具体如下:
感受野模块含有多个分支,如图1所示,对于前4个分支,每个分支首先应用1×1卷积来减小输入特征的通道维数,第k(k∈{2,3,4})个分支再应用核大小为2k-1、膨胀率为1的卷积运算,接着再应用另一个3×3卷积运算,膨胀率为2k-1,以从多尺度特征中挖掘出全局上下文信息。
接下来,将该4个分支的输出拼接在一起,然后应用1×1卷积运算来将拼接后的特征的通道数减少到32,再将处理后的特征与原输入特征形成一个残差连接,最终得到的特征表示为:
其中,j∈{1,2,3,4},C∈{c,e},c表示伪装物体检测阶段,e表示细化伪装物体边缘阶段;FRF(·)表示扩大感受野操作。
(3)特征编码模块可有效地对上述两组多层次特征即低级特征组和高级特征组中的多尺度多层次信息分别进行整合。本实施例引入了一种轻量化的特征编码模块,利用相乘和拼接等操作来分别整合这两组多尺度多层次的特征,处理过程具体如下:
其中,UP(·)表示如果输入特征尺寸不一致,则进行双线性上采样操作,使尺寸为输入的最大尺寸;BConvN(·)是结合了标准的N×N卷积运算和批量归一化的顺序操作;为处理后的特征,每个特征也相应是一张特征图像。
(4)特征解码模块可针对两个不同层次的特征,自适应地突显目标物体本身,其模型结构可参见图2,解码的过程如下:
首先,将高层特征图上采样到与低层特征图一样的尺寸,并采用卷积操作分别对低层特征图和高层特征图进行初步变换:
其中,l∈[low,high]。
然后,对变换后的高、低层特征图进行逐像素相乘操作来增强公共像素,并将增强后的特征图与变换后的低、高层特征图拼接起来:
在整合丰富的多层特征之后,采用一个有效的轻量级的注意力机制来消除中无关特征的干扰,通过执行全局平均池化来压缩特征,再采用两个全连接层得到每个通道的权值,再对输入特征进行加权,来突显伪装目标区域,具体如下:
经注意力机制操作后得到的特征表示为:
其中,Fatt(·)表示通道注意力机制操作。
最后,对两组特征经卷积操作后再拼接,使得具有区分性的特征组合到一起,再将通道降到1维输出,即得到初始的伪装图C1:
其中,T表示连续的BConv和Conv操作,卷积核大小分别为3×3和1×1,采用渐进降维的方式输出88×88×1的伪装图C1。
(5)由于伪装物体往往存在边界模糊这一现象,因此,本实施例以此为出发点,从主干网络(即第一阶段的网络)引出边缘特征分支,边缘细化模块利用初始伪装图C1来细化低层边缘细节特征,即L:{x1,x2,x3},以获得更全面的特征,如图3所示,边缘细化模块的处理过程具体如下:
52)然后将初始伪装图C1与增强后且同尺寸的各个边缘特征进行逐像素相乘,再经卷积操作归一化像素值,得到处理后的特征cei:
其中,i∈{1,2,3}。
53)接着,采用拼接的方式将处理后的特征聚合起来,再对其降维以及与初始伪装图C1逐像素相加,达到细化边缘的目的,再利用1×1卷积降维得到最终的有区分出图像背景和伪装物体的伪装图C2:
54)同时,为了实现监督边缘分支达到优化网络架构的效果,边缘细化模块还将几个边缘分支聚合为一个边缘特征输出,并生成训练用的边缘图E1:
将处理后的特征{ce1,ce2,ce3}和增强后且同尺寸的边缘特征{rf1 e,rf2 e,rf3 e}逐像素相加,并采用卷积操作进行变换:
然后,采用从高到低逐级拼接的方式将特征ei进行融合,最后,利用卷积操作逐步将通道数降至1维,以获得边缘图E1:
基于伪装图C2和边缘图E1,即可相应地计算损失函数,进而根据损失函数来调整伪装物体检测网络。
损失函数如下:
λce(P,G)=GlogP+(1-G)log(1-P)(14)
其中,Ltotal表示总体伪装损失;λce表示二进制交叉熵损失;α∈[0,1]为控制因子,用于控制两部分损失之间的权衡;
C、E分别是C2和E1上采样后获得的伪装物体映射图;GC为二元真值伪装图,GE为二元真值边缘图,通常采用传统的边缘检测算法来获得,图像的分辨率均为:352×352;
G={GC,GE},P为伪装物体检测网络预测的图,P={C,E},也就是说,当G为GC时,P对应为C,当G为GE时,P对应为E。
在本实施例中,使用步骤S1划分好的训练数据集对步骤S2构建的伪装物体检测网络进行训练的实验细节具体如下:
1)训练时,将原始图像调整为352×352,使用随机梯度下降法(Stochasticgradient descent)以0.9的动量和0.0005的权重衰减训练网络,epoch为30,batch size为8,初始学习率为0.002,采用学习计划策略,在epoch达到20后学习率下降10%。
2)使用多尺度输入图像的大小来增加数据量,通常按照[0.75,1,1.25]的比例变换。
3)每10个epoch保存一次模型。
上述训练参数可根据实际情况设置。
S4、测试模型:使用步骤S1划分好的测试数据集对步骤S3)训练后的伪装物体检测模型进行检测,即以待预测的伪装物体原始图像作为训练完成后的伪装物体检测模型的输入,利用该伪装物体检测模型输出对应的有区分出图像背景和伪装物体的伪装图。检测人员根据该伪装图,可有效定位伪装物体及判断伪装物体类型。
可通过各种手段实施本发明描述的技术。举例来说,这些技术可实施在硬件、固件、软件或其组合中。对于硬件实施方案,处理模块可实施在一个或一个以上专用集成电路(ASIC)、数字信号处理器(DSP)、可编程逻辑装置(PLD)、现场可编辑逻辑门阵列(FPGA)、处理器、控制器、微控制器、电子装置、其他经设计以执行本发明所描述的功能的电子单元或其组合内。
对于固件和/或软件实施方案,可用执行本文描述的功能的模块(例如,过程、步骤、流程等)来实施所述技术。固件和/或软件代码可存储在存储器中并由处理器执行。存储器可实施在处理器内或处理器外部。本领域普通技术人员可以理解:实现上述方法实施例的全部或部分步骤可以通过程序指令相关的硬件来完成,前述的程序可以存储在一计算机可读取存储介质中,该程序在执行时,执行包括上述方法实施例的步骤;而前述的存储介质包括:ROM、RAM、磁碟或者光盘等各种可以存储程序代码的介质。
以上仅为本发明创造的较佳实施例而已,并不用以限制本发明创造,凡在本发明创造的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明创造的保护范围之内。
Claims (8)
1.一种基于边缘细化的伪装物体检测方法,其特征在于,包括如下步骤:
S1、利用各类伪装物体的原始图像来构建伪装物体图像数据集;
S2、构建伪装物体检测网络;
所述伪装物体检测网络包括特征提取模块、感受野模块、特征编码模块、特征解码模块以及边缘细化模块,其中,特征提取模块、感受野模块、特征编码模块、特征解码模块和边缘细化模块依次连接,感受野模块连接至边缘细化模块;
对于第一阶段:特征提取模块以原始图像作为输入,输出对应的一组特征,该组特征经感受野模块扩大搜索范围,再经特征编码模块和特征解码模块进行融合,特征解码模块输出初始的伪装图;
对于第二阶段:特征提取模块所获取到的特征中的较低层特征经感受野扩大搜索范围后,和初始伪装图同时作为边缘细化模块的输入,边缘细化模块输出最终的伪装图;
所述特征编码模块的处理过程如下:
其中,UP(·)表示如果输入特征尺寸不一致,则进行双线性上采样操作,使尺寸为输入的最大尺寸;BConvN(·)是结合了标准的N×N卷积运算和批量归一化的顺序操作;为处理后的特征,每个特征也相应是一张特征图像;
S3、训练模型:使用伪装物体图像数据集对构建的伪装物体检测网络进行迭代训练,该伪装物体检测网络将伪装物体检测任务分成两个阶段,第一阶段负责伪装物体检测,第二阶段负责细化伪装物体边缘,训练完成后得到伪装物体检测模型;
S4、测试模型:以待预测的伪装物体原始图像作为训练完成后的伪装物体检测模型的输入,利用该伪装物体检测模型输出对应的有区分出图像背景和伪装物体的伪装图。
2.根据权利要求1所述的伪装物体检测方法,其特征在于,特征提取模块的处理过程如下:
对于输入图像I∈RH×W×3,利用ResNet50网络从输入图像提取出一组多尺度特征{x1,x2,x3,x4},该组多尺度特征中的低级特征保留了用于构建物体边缘的空间信息,高级特征保留了用于定位目标的语义信息;
然后,将多尺度特征按层次划分为低级特征组L:{x1,x2,x3}和高级特征组H:{x2,x3,x4},其中,x1为低级特征,x2,x3为中级特征,x4为高级特征。
3.根据权利要求2所述的伪装物体检测方法,其特征在于,多尺度特征{x1,x2,x3,x4}中的每层特征分别经感受野模块扩大感受野的范围,过程具体如下:
感受野模块含有多个分支,对于前4个分支,每个分支首先应用1×1卷积来减小输入特征的通道维数,第k(k∈{2,3,4})个分支再应用核大小为2k-1、膨胀率为1的卷积运算,接着再应用另一个不同应用核大小、膨胀率为2k-1的卷积运算;
将该4个分支的输出拼接在一起,然后应用1×1卷积运算来减小拼接后的特征的通道数,再将处理后的特征与原输入特征形成一个残差连接,最终得到的特征表示为:
其中,j∈{1,2,3,4},C∈{c,e},c表示伪装物体检测阶段,e表示细化伪装物体边缘阶段;FRF(·)表示扩大感受野操作;
4.根据权利要求1所述的伪装物体检测方法,其特征在于,特征解码模块的处理过程如下:
首先,将高层特征图上采样到与低层特征图一样的尺寸,并采用卷积操作分别对低层特征图和高层特征图进行初步变换:
Fl fem'=BConv3(UP(Fl fem)) (5)
其中,l∈[low,high];
然后,对变换后的高、低层特征图进行逐像素相乘操作来增强公共像素,并将增强后的特征图与变换后的低、高层特征图拼接起来:
经注意力机制操作后得到的特征表示为:
其中,Fatt(·)表示通道注意力机制操作;
最后,对两组特征经卷积操作后再拼接,使得具有区分性的特征组合到一起,再将通道降到1维输出,即得到初始的伪装图C1:
其中,T表示连续的BConv和Conv操作,采用渐进降维的方式输出伪装图C1。
5.根据权利要求1所述的伪装物体检测方法,其特征在于,边缘细化模块利用初始的伪装图C1来细化边缘特征,即L:{x1,x2,x3},以获得更全面的特征,过程具体如下:
在边缘特征通过感受野模块进行增强来得到特征{rf1 e,rf2 e,rf3 e}后,将特征{rf2 e,rf3 e}上采样到与特征{rf1 e,C1}相同的尺寸;
然后将初始伪装图C1与增强后且同尺寸的各个边缘特征进行逐像素相乘,再经卷积操作归一化像素值,得到处理后的特征cei:
其中,i∈{1,2,3};
接着,采用拼接的方式将处理后的特征聚合起来,再对其降维以及与初始伪装图C1逐像素相加,再利用1×1卷积降维得到最终的伪装图C2:
6.根据权利要求1所述的伪装物体检测方法,其特征在于,在步骤S3训练模型的过程中,边缘细化模块还生成训练用的边缘图E1:
将处理后的特征{ce1,ce2,ce3}和增强后且同尺寸的边缘特征{rf1 e,rf2 e,rf3 e}逐像素相加,并采用卷积操作进行变换:
然后,采用从高到低逐级拼接的方式将特征ei进行融合,最后,利用卷积操作逐步将通道数降至1维,以获得边缘图E1:
训练模型所用的损失函数如下:
Ltotal=αlce(C,GC)+(1-α)lce(E,GE) (13)
λce(P,G)=GlogP+(1-G)log(1-P) (14)
其中,Ltotal表示总体伪装损失;λce表示二进制交叉熵损失;α∈[0,1]为控制因子,用于控制两部分损失之间的权衡;
C、E分别是C2和E1上采样后获得的伪装物体映射图;GC为二元真值伪装图,GE为二元真值边缘图,采用传统的边缘检测算法来获得;
G={GC,GE},P为伪装物体检测网络预测的图,P={C,E},也就是说,当G为GC时,P对应为C,当G为GE时,P对应为E。
7.根据权利要求1所述的伪装物体检测方法,其特征在于,使用随机梯度下降法训练伪装物体检测网络。
8.根据权利要求1所述的伪装物体检测方法,其特征在于,在步骤S1中,构建伪装物体图像数据集的步骤为:
先收集各种类别伪装物体的原始图像,然后将收集的原始图像按比例随机划分为用于训练模型的训练数据集和用于检测模型的测试数据集,最后对数据集中的图像进行分类,并对每张图像标注用于包围伪装物体的包围框。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110691277.3A CN113468996B (zh) | 2021-06-22 | 2021-06-22 | 一种基于边缘细化的伪装物体检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110691277.3A CN113468996B (zh) | 2021-06-22 | 2021-06-22 | 一种基于边缘细化的伪装物体检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113468996A CN113468996A (zh) | 2021-10-01 |
CN113468996B true CN113468996B (zh) | 2023-07-11 |
Family
ID=77869131
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110691277.3A Active CN113468996B (zh) | 2021-06-22 | 2021-06-22 | 一种基于边缘细化的伪装物体检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113468996B (zh) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114241277A (zh) * | 2021-12-22 | 2022-03-25 | 中国人民解放军国防科技大学 | 注意力引导的多特征融合伪装目标检测方法、装置、设备及介质 |
CN114842324A (zh) * | 2022-03-16 | 2022-08-02 | 南京邮电大学 | 一种基于学习神经网络的伪装目标检测方法及系统 |
CN114627299B (zh) * | 2022-04-21 | 2023-10-27 | 杭州电子科技大学 | 一种模仿人类视觉系统对伪装目标检测与分割方法 |
CN114581752B (zh) * | 2022-05-09 | 2022-07-15 | 华北理工大学 | 一种基于上下文感知和边界细化的伪装目标检测方法 |
CN115223018B (zh) * | 2022-06-08 | 2023-07-04 | 东北石油大学 | 伪装对象协同检测方法及装置、电子设备和存储介质 |
CN115631346B (zh) * | 2022-11-11 | 2023-07-18 | 南京航空航天大学 | 一种基于不确定性建模的伪装物体检测方法和系统 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101272450A (zh) * | 2008-05-13 | 2008-09-24 | 浙江大学 | Sprite编码中的全局运动估计外点去除及运动参数细化方法 |
CN101431606A (zh) * | 2008-12-01 | 2009-05-13 | 上海广电(集团)有限公司中央研究院 | 一种基于边缘检测的自适应降噪处理方法 |
CN101901477A (zh) * | 2010-07-27 | 2010-12-01 | 中国农业大学 | 植物叶片田间图像边缘提取方法及其系统 |
CN112288008A (zh) * | 2020-10-29 | 2021-01-29 | 四川九洲电器集团有限责任公司 | 一种基于深度学习的马赛克多光谱图像伪装目标检测方法 |
CN112733744A (zh) * | 2021-01-14 | 2021-04-30 | 北京航空航天大学 | 一种基于边缘协同监督与多级约束的伪装物体检测模型 |
-
2021
- 2021-06-22 CN CN202110691277.3A patent/CN113468996B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101272450A (zh) * | 2008-05-13 | 2008-09-24 | 浙江大学 | Sprite编码中的全局运动估计外点去除及运动参数细化方法 |
CN101431606A (zh) * | 2008-12-01 | 2009-05-13 | 上海广电(集团)有限公司中央研究院 | 一种基于边缘检测的自适应降噪处理方法 |
CN101901477A (zh) * | 2010-07-27 | 2010-12-01 | 中国农业大学 | 植物叶片田间图像边缘提取方法及其系统 |
CN112288008A (zh) * | 2020-10-29 | 2021-01-29 | 四川九洲电器集团有限责任公司 | 一种基于深度学习的马赛克多光谱图像伪装目标检测方法 |
CN112733744A (zh) * | 2021-01-14 | 2021-04-30 | 北京航空航天大学 | 一种基于边缘协同监督与多级约束的伪装物体检测模型 |
Non-Patent Citations (1)
Title |
---|
基于深度神经网络的伪装人脸识别;张润生;贺超;况朝青;;电子技术应用(第05期);第1-4页 * |
Also Published As
Publication number | Publication date |
---|---|
CN113468996A (zh) | 2021-10-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113468996B (zh) | 一种基于边缘细化的伪装物体检测方法 | |
Ren et al. | Deep texture-aware features for camouflaged object detection | |
CN112750140B (zh) | 基于信息挖掘的伪装目标图像分割方法 | |
CN111080628B (zh) | 图像篡改检测方法、装置、计算机设备和存储介质 | |
Tang et al. | A multi-stage framework with context information fusion structure for skin lesion segmentation | |
Kang et al. | ASF-YOLO: A novel YOLO model with attentional scale sequence fusion for cell instance segmentation | |
CN112084923B (zh) | 一种遥感图像语义分割方法、存储介质及计算设备 | |
CN115147598B (zh) | 目标检测分割方法、装置、智能终端及存储介质 | |
Wang et al. | Semantic segmentation of remote sensing ship image via a convolutional neural networks model | |
CN113066089B (zh) | 一种基于注意力引导机制的实时图像语义分割方法 | |
Zhang et al. | DPANet: dual pooling‐aggregated attention network for fish segmentation | |
Zhan et al. | FA-ResNet: Feature affine residual network for large-scale point cloud segmentation | |
CN114926734B (zh) | 基于特征聚合和注意融合的固体废弃物检测装置及方法 | |
Guo et al. | Salient object detection from low contrast images based on local contrast enhancing and non-local feature learning | |
CN117237740A (zh) | 一种基于CNN和Transformer的SAR图像分类方法 | |
CN112149526A (zh) | 一种基于长距离信息融合的车道线检测方法及系统 | |
Zhao et al. | YOLO‐Highway: An Improved Highway Center Marking Detection Model for Unmanned Aerial Vehicle Autonomous Flight | |
CN116363361A (zh) | 基于实时语义分割网络的自动驾驶方法 | |
CN116152650A (zh) | 基于CNN和Transformer双向协同指导网络的海洋生物检测方法 | |
CN116894943B (zh) | 一种双约束的伪装目标检测方法及系统 | |
CN117078942A (zh) | 上下文感知的指称图像分割方法、系统、设备及存储介质 | |
CN117173404A (zh) | 一种基于深度学习的遥感目标自动检测及隐藏方法 | |
Yang et al. | Underwater image restoration for seafloor targets with hybrid attention mechanisms and conditional generative adversarial network | |
Fan et al. | EGFNet: Efficient guided feature fusion network for skin cancer lesion segmentation | |
CN115984712A (zh) | 基于多尺度特征的遥感图像小目标检测方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |