CN114511504B - 一种视频sar动目标阴影检测方法 - Google Patents
一种视频sar动目标阴影检测方法 Download PDFInfo
- Publication number
- CN114511504B CN114511504B CN202210002282.3A CN202210002282A CN114511504B CN 114511504 B CN114511504 B CN 114511504B CN 202210002282 A CN202210002282 A CN 202210002282A CN 114511504 B CN114511504 B CN 114511504B
- Authority
- CN
- China
- Prior art keywords
- classical
- layer
- adopting
- convolution kernel
- shadow
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 75
- 238000000034 method Methods 0.000 claims abstract description 140
- 238000000605 extraction Methods 0.000 claims abstract description 77
- 230000007246 mechanism Effects 0.000 claims abstract description 32
- 230000008859 change Effects 0.000 claims abstract description 29
- 230000003044 adaptive effect Effects 0.000 claims abstract description 18
- 238000005065 mining Methods 0.000 claims abstract description 16
- 238000007781 pre-processing Methods 0.000 claims abstract description 6
- 238000013527 convolutional neural network Methods 0.000 claims description 85
- 238000012360 testing method Methods 0.000 claims description 47
- 238000012549 training Methods 0.000 claims description 42
- 230000006870 function Effects 0.000 claims description 30
- 238000011176 pooling Methods 0.000 claims description 22
- 238000012545 processing Methods 0.000 claims description 21
- 238000004513 sizing Methods 0.000 claims description 15
- 238000004364 calculation method Methods 0.000 claims description 12
- 238000004422 calculation algorithm Methods 0.000 claims description 11
- 241000321453 Paranthias colonus Species 0.000 claims description 10
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 claims description 7
- 239000011159 matrix material Substances 0.000 claims description 7
- 238000010998 test method Methods 0.000 claims description 4
- 238000005516 engineering process Methods 0.000 abstract description 5
- 230000002708 enhancing effect Effects 0.000 abstract 1
- 239000010410 layer Substances 0.000 description 113
- 230000008569 process Effects 0.000 description 6
- 230000033001 locomotion Effects 0.000 description 4
- 238000013461 design Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000005457 optimization Methods 0.000 description 3
- 238000011160 research Methods 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000018109 developmental process Effects 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 238000003909 pattern recognition Methods 0.000 description 2
- 238000001228 spectrum Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 241000212384 Bifora Species 0.000 description 1
- 235000008708 Morus alba Nutrition 0.000 description 1
- 240000000249 Morus alba Species 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 238000013145 classification model Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000008034 disappearance Effects 0.000 description 1
- 230000004438 eyesight Effects 0.000 description 1
- 238000013100 final test Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 239000011229 interlayer Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 230000016776 visual perception Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10032—Satellite or aerial image; Remote sensing
- G06T2207/10044—Radar image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Biophysics (AREA)
- Evolutionary Computation (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Software Systems (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Mathematical Physics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Quality & Reliability (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种视频SAR动目标阴影检测方法,它是通过直方图均衡阴影增强(HESE)预处理技术被用于增强阴影显著性来促进低维特征的提取;通过自注意力机制(TSAM)被用于更关注感兴趣目标区域来抑制杂波干扰;通过形状变化自适应学习(SDAL)机制利用变形卷积学习动目标阴影的形变从而克服运动速度的变化;通过语义引导锚自适应学习(SGAAL)机制通过优化锚来自适应匹配阴影的位置和形状;通过在线困难样本挖掘(OHEM)技术被用于选择典型困难负样本来提高背景识别能力。本发明克服了现有技术中不易区分与阴影相似的背景,造成虚警率高的问题以及在复杂环境中动目标阴影容易受背景干扰导致漏检等问题。
Description
技术领域
本发明属于合成孔径雷达(Synthetic Aperture Radar,SAR)图像解译技术领域,涉及一种基于ShadowDeNet的Video SAR动目标阴影检测方法。
背景技术
合成孔径雷达(SAR)是一种能够全天时、全天候工作的主动式遥感技术。与光学传感器相比,SAR可以穿透云雾,在恶劣的气象条件下也可以完成观测任务。SAR已成为当今对地观测的重要手段,在海洋勘探、林业普查、地形测绘、交通管制和自然灾害监测等国民经济得到越来越广泛的应用。详见文献“张庆君,韩晓磊,刘杰.星载合成孔径雷达遥感技术进展及发展趋势[J].航天器工程,2017,26(06):1-8.”。
视频合成孔径雷达(Video SAR)支持查看目标成像区域的连续多帧SAR图像来动态实时监测目标场景。Video SAR可以持续记录目标区域的变化,并以动画的形式来展示来自时间维度的目标信息,有利于对人眼的直观解释。Video SAR的动目标全天候、全天时的检测与跟踪能力在军事上对于战场敌情侦测占领主动权具有重大的战略意义,在军事上可以很好的提升战争中的精准打击能力和预警能力,因而具备巨大的研究价值和前景,并且在民用领域如在复杂气候交通检测以及自然灾害勘测等场景具备不可替代的监测作用。详见文献“余正顺.基于阴影的Video SAR动目标检测跟踪算法研究[D].电子科技大学,2021.”。
由于Video SAR工作频率极高,动目标的回波多普勒对目标的运动非常敏感,因此轻微的运动将导致目标在SAR图像中有较大的位置偏移和散焦。然而,上述现象不会发生在动目标的阴影上,因此阴影可以反映动目标的真实位置和运动状态信息。此外,一方面动目标阴影与其背景之间的对比度相差较大有利于动目标的检测,另一方面由于合成孔径的时间较短,动态阴影可以反映目标的瞬时位置有利于动目标的重新聚焦。因此,使用阴影来实现Video SAR动目标的检测和跟踪已成为一种新的研究途径。Video SAR中的移动目标阴影检测是非常重要且有价值的,它是动阴影检测的一个基本和重要的前提。只有在成功检测到阴影后,后续的一系列任务才能进行,如轨迹重建,数据关联,旧目标的消失与新目标的出现,速度估计等。详见文献“丁金闪.Video SAR成像与动目标阴影检测技术[J].雷达学报,2020,9(2).”。
目前许多研究已经从多角度实现了Video SAR的动目标阴影检测,并取得了不错的效果。然而由于背景存在不易区分的相似物,现有方法往往存在一定的虚警,同时在复杂环境中动目标阴影容易受背景干扰导致漏检,因此Video SAR动目标阴影检测仍然是一个挑战。
因此,为了解决现有技术虚警率高,检测精度低等问题,本发明提出了一种基于ShadowDeNet的Video SAR动目标阴影检测方法。
发明内容
本发明属于合成孔径雷达(SAR)图像解译技术领域,公开了一种基于ShadowDeNet的Video SAR动目标阴影检测方法,用来解决虚警率高,检测精度低的问题。该方法设计了一种全新的网络——ShadowDeNet,有五个核心贡献来确保ShadowDeNet的卓越性能:(1)直方图均衡阴影增强(HESE)预处理技术被用于增强阴影显著性来促进低维特征的提取;(2)自注意力机制(TSAM)被用于更关注感兴趣目标区域来抑制杂波干扰;(3)形状变化自适应学习(SDAL)机制利用变形卷积学习动目标阴影的形变从而克服运动速度的变化;(4)语义引导锚自适应学习(SGAAL)机制通过优化锚来自适应匹配阴影的位置和形状;(5)在线困难样本挖掘(OHEM)技术被用于选择典型困难负样本来提高背景识别能力。在公知的桑迪亚国家实验室数据集上的实验结果显示,与其他先进的Video SAR中动阴影检测技术相比,本发明实现了最先进的Video SAR中动目标检测精度。
为了方便描述本发明的内容,首先作以下术语定义:
定义1:经典的桑迪亚国家实验室数据集
经典桑迪亚国家实验室数据集是指Video SAR数据集,英文全称为SandiaNational Laboratory Dataset,其可以用于训练深度学习模型,用于研究人员在这个统一的数据集去评价他们算法的性能。在该数据集包含所有899帧中50个不同的移动目标,图像的大小为600×600。桑迪亚国家实验室数据集可从网站“https://www.sandia.gov/radar/pathfinder-radar-isr-and-synthetic-aperture-radar-sar-systems/video/.”中获得。
定义2:标准的直方图均衡方法
直方图均衡化就是把一个已知灰度概率密度分布的图像经过一种变换,使之演变为一幅具有均匀灰度概率密度分布的新图像。这种方法通常用来增加图像的全局对比度,尤其是当图像的有用数据的对比度相当接近的时候。通过这种方法,亮度可以更好地在直方图上分布。这样就可以用于增强局部的对比度而不影响整体的对比度,直方图均衡化通过有效地扩展常用的亮度来实现这种功能。直方图均衡是一个相当直观的技术并且是可逆操作,如果已知均衡化函数,那么就可以恢复原始的直方图,并且计算量也不大。详见“https://zh.wikipedia.org/wiki/”。
定义3:经典的卷积神经网络方法
经典的卷积神经网络指一类包含卷积计算且具有深度结构的前馈神经网络。卷积神经网络仿造生物的视知觉机制构建,可以进行监督学习和非监督学习,其隐含层内的卷积核参数共享和层间连接的稀疏性使得卷积神经网络能够以较小的计算量进行特征提取。近年来,卷积神经网络在计算机视觉、自然语言处理、语音识别等领域取得了突飞猛进的发展,其强大的特征学习能力引起了国内外专家学者广泛的关注。经典的卷积神经网络方法详见文献“张索非,冯烨,吴晓富.基于深度卷积神经网络的目标检测算法进展[J/OL].南京邮电大学学报(自然科学版),2019(05):1-9.https://doi.org/10.14132/j.cnki.1673-5439.2019.05.010.”。
定义4:经典的CNN特征提取方法
经典CNN特征提取,即通过CNN对原始输入图像进行特征提取。总而言之,原始输入图像经过不同特征的卷积操作变成了一系列的特征图。在CNN中,卷积层中卷积核在图像上不断滑动运算。同时,最大池化层负责在内积结果上取每一局部块的最大值。因此,CNN通过卷积层和最大池化层实现了图片特征提取方法。经典CNN特征提取详见网站“https://blog.csdn.net/qq_30815237/article/details/86703620”。
定义5:卷积核
卷积核就是图像处理时,给定输入图像,输入图像中一个小区域中像素加权平均后成为输出图像中的每个对应像素,其中权值由一个函数定义,这个函数称为卷积核。卷积核的作用在于特征的抽取,越是大的卷积核尺寸就意味着更大的感受野,当然随之而来的是更多的参数。早在1998年,LeCun发布的LetNet-5模型中就会出,图像空域内具有局部相关性,卷积的过程是对局部相关性的一种抽取。卷积核设置方法详见文献“Lecun Y,BottouL,Bengio Y,et al.Gradient-based learning applied to document recognition[J].Proceedings of the IEEE,1998,86(11):2278-2324.”。
定义6:经典的卷积核尺寸方法
卷积核尺寸就是指卷积核的长度,宽度,深度,记为L×W×D,其中L代表长度,W代表宽度,D代表深度。设置卷积核的尺寸就是指确定L,W,D的具体数值。一般地,在达到相同感受野的情况下,卷积核越小,所需要的参数和计算量越小。具体来说,卷积核的长度和宽度必须大于1才有提升感受野的作用,而大小为偶数的卷积核即使对称地加补零操作也不能保证输入特征谱尺寸和输出特征谱尺寸不变,一般都用3作为卷积核大小。卷积核尺寸设置方法详见文献“Lecun Y,Bottou L,Bengio Y,et al.Gradient-based learningapplied to document recognition[J].Proceedings of the IEEE,1998,86(11):2278-2324.”。
定义7:经典的卷积核步长设置方法
卷积核步长就是指每次移动卷积核的长度,记为S。设置卷积核的步长就是指确定S的具体数值。一般地,步长越大,提取特征越少;反之,提取特征越多。一般卷积层都用1作为卷积核步长,最大池化层都用2作为卷积核步长。经典的卷积核步长设置方法详见文献“Lecun Y,Bottou L,Bengio Y,et al.Gradient-based learning applied to documentrecognition[J].Proceedings of the IEEE,1998,86(11):2278-2324.”。
定义8:经典的卷积操作方法
在CNN中是利用卷积层进行特征提取的,图像的三个通道分别用不同的卷积核来进行卷积操作,卷积运算本质上就是在滤波器和输入数据的局部区域间做点积,所以可以用矩阵乘法来实现。卷积操作方法详见网站“https://blog.csdn.net/qq_40962368/article/details/82864606”。
定义9:卷积层
卷积层由若干卷积单元组成,每个卷积单元的参数都是通过反向传播算法最佳化得到的。卷积运算的目的是提取输入的不同特征,第一层卷积层可能只能提取一些低级的特征如边缘、线条和角等层级,更多层的网络能从低级特征中迭代提取更复杂的特征。卷积层详见网站“https://www.zhihu.com/question/49376084”。
定义10:最大池化层
最大池化层用于提取前一层网络区域内所有神经元的最大值,目的是为了在反向传播中,需要把梯度值传到对应最大值所在的位置。最大池化层能减小卷积层参数误差造成估计均值的偏移,更多的保留纹理信息。最大池化层详见网站“https://blog.csdn.net/weixin_43336281/article/details/102149468”。
定义11:经典的自注意力机制方法
注意力机制模仿了生物观察行为的内部过程,可以快速提取稀疏数据的重要特征,而自注意力机制是注意力机制的改进,其减少了对外部信息的依赖,更擅长捕捉数据或特征的内部相关性。自注意力通过计算图像像素之间的相似度来评估类与类之间的相似性,这种方式能有效地增加类内相似度,增加类间的差异性,原理为其中,i是所需输出位置的索引(即计算第i个位置的响应),j是将枚举所有可能位置的索引,即/>x表示输入特征映射,y表示与x具有相同输出的特征映射。函数f计算i和所有j之间的关系。函数g计算输入特征映射在第j个位置的表示,C(x)为归一化因子。函数f可以通过一个嵌入式高斯函数来实现,即/>其中θ表示xi的嵌入,φ表示xj的嵌入,e是自然常数,T表示转置。详见文献“M.C.Bishop,Pattern Recognition and MachineLearning(Information Science and Statistics).Berlin,Germany:Springer-Verlag,2006.”
定义12:经典的可变形卷积方法
可变形卷积是指卷积核在每一个元素上额外增加了一个参数方向参数,这样卷积核就能在训练过程中扩展到很大的范围。可变形卷积单元中增加的偏移量是网络结构的一部分,通过另外一个平行的标准卷积单元计算得到,进而也可以通过梯度反向传播进行端到端的学习。加上该偏移量的学习之后,可变形卷积核的大小和位置可以根据当前需要识别的图像内容进行动态调整,其直观效果就是不同位置的卷积核采样点位置会根据图像内容发生自适应的变化,从而适应不同物体的形状、大小等几何形变。经典可变形卷积方法详见网站“https://blog.csdn.net/LEEANG121/article/details/104234927.”。
定义13:锚
在采用滑动窗口进行卷积的过程中,滑动窗口的中心位置定义为锚点,通常每个滑动位置对应着3种尺度和3种长宽比,这样每个滑动位置都会有k=9个锚点,每个滑动窗口产生k个区域建议框。因此,回归层会有4k个输出(每个区域建议框的坐标包含4个参数),分类层会有2k个输出(每个区域建议框是否为目标的概率估计)。详见文献“Ren S.,He K.,Girshick R.,et al.Faster r-cnn:Towards real-time object detection with regionproposal networks[J].arXiv preprint arXiv:150601497,2015.”。
定义14:经典的在线难例挖掘方法
在线难例挖掘是一种在训练过程中对难以识别的负样本进行再训练的方法。在目标检测模型的训练过程中主要选择一些困难的负样本作为训练样本,以改进模型参数,使其收敛达到更好的效果。困难样本是指难以区分的样本,即训练损失值较大的样本。在线难例挖掘解决了正样本与负样本之间的不平衡问题。对于特征图中的特定位置,因为背景像素通常占更大的比例,生成的负样本的数量往往远多于正样本的数量。因此在大量的负样本中,需要选择更典型的困难样本放弃容易的样本,以提高背景识别能力。详见文献“Shrivastava,A.;Gupta,A.;Girshick,R.Training Region-Based Object Detectorswith Online Hard Example Mining.In Proceedings of the IEEE Conference onComputer Vision and Pattern Recognition(CVPR),2016;.”。
定义15:经典的损失函数方法
损失函数(loss function)或代价函数(cost function)是将随机事件或其有关随机变量的取值映射为非负实数以表示该随机事件的“风险”或“损失”的函数。在应用中,损失函数通常作为学习准则与优化问题相联系,即通过最小化损失函数求解和评估模型。经典的损失函数详见网站“https://baike.baidu.com/item/”。
focal loss损失函数方法是最初由何恺明提出的,最初用于图像领域解决数据不平衡造成的模型性能问题。计算公式为lossFL(pt)=-αt(1-pt)γlog(pt)其中,y表示地面真相类。pt表示0~1的预测概率,γ表示经验聚焦参数,αt表示加权因子5。详见网站“https://zhuanlan.zhihu.com/p/266023273.”。
IOU loss损失函数用于训练锚定形状预测网络,计算公式为其中其中,G表示地面真实框,P表示预测框。
定义16:经典的Adam算法
经典的Adam算法是一种可以替代经典随机梯度下降过程的一阶优化算法,它能基于训练数据迭代地更新神经网络权重。Adam算法和经典的随机梯度下降不同。随机梯度下降保持单一的学习率更新所有的权重,学习率在训练过程中并不会改变。而Adam通过计算梯度的一阶矩估计和二阶矩估计而为不同的参数设计独立的自适应性学习率。详见文献“Kingma,D.;Ba,J.Adam:A Method for Stochastic Optimization.arXiv 2014,arXiv:1412.6980.”。
定义17:经典的检测网络测试方法
经典的检测网络测试方法指在测试集上对检测模型进行最终测试,得到检测模型在测试集上的检测结果。详见文献“Ren,S.;He,K.;Girshick,R.;Sun,J.Faster R-CNN:Towards Real-Time Object Detection with Region Proposal Networks.IEEETrans.Pattern Anal.Mach.Intell.2017,39,1137–1149.”。
定义18:标准的检测精度计算方法
召回率Recall指在所有的正样本中,预测正确的数量。召回率Recall定义为其中#表示数字,TP表示真正例,FN表示假负例;
精确率Precision指在所有预测得到的正样本中,预测正确的数量。精确率Precision定义为其中#表示数字,TP表示真正例,FP表示真负例;
检测精度指标F1同时兼顾了分类模型的精确率Precision和召回率Recall。三级指标F1定义为其中Recall表示召回率,Precision表示精度;
以上参数数值的求法详见文献“李航.统计学习方法[M].北京:清华大学出版社,2012.”。
定义19:标准的检测速度计算方法
标准的检测速度指跟踪模型检测单位时间跟踪的图像数量,单位时间为1秒。每秒检测帧数(FPS)表示跟踪速度,定义为其中t表示视频跟踪总时间,N是序列中图像的数目。以上参数数值的求法详见文献“李航.统计学习方法[M].北京:清华大学出版社,2012.”。
本发明提供了一种视频SAR动目标阴影检测方法,它包括以下步骤:
步骤1、准备数据集
从经典桑迪亚国家实验室数据集中得到桑迪亚国家实验室数据集,以时间顺序按照600:299的比例将桑迪亚国家实验室数据集划分为两部分,得到训练集和测试集,其中训练集含有前600张图片,记为Train,测试集含有后299张图片,记为Test;
步骤2、直方图均衡阴影增强(HESE)预处理
采用标准的直方图均衡方法对步骤1中得到的训练集Train进行直方图均衡处理,得到网络输入训练图片600张,记为Train-HESE;
采用标准的直方图均衡方法对步骤1中得到的训练集Test进行直方图均衡处理,得到网络输入测试图片299张,记为Test-HESE;
步骤3、阴影CNN特征提取
步骤3.1:第1层CNN特征提取
采用经典的卷积神经网络方法建立阴影特征提取网络的输入层,得到由经典的卷积神经网络组成的阴影特征提取网络的第1层(输入层),记为f1,第1层由卷积层和最大池化层组成,分别记为C1,M1,其中采用经典卷积核尺寸设置方法设置C1的卷积核尺寸为3×3×8;
采用经典卷积核步长设置方法设置C1的卷积核步长为1;
采用经典卷积核步长设置方法设置M1的卷积核步长为2;
采用经典CNN特征提取方法,对步骤2中得到的训练集Train-HESE中的一幅SAR图像进行提取,得到第1层特征输出,记为I1;
步骤3.2:第2层CNN特征提取
采用经典的卷积神经网络方法建立阴影特征提取网络的中间层,得到由经典的卷积神经网络组成的阴影特征提取网络的第2层,记为f2,第2层由卷积层和最大池化层组成,分别记为C2,M2,其中采用经典卷积核尺寸设置方法设置C2的卷积核尺寸为3×3×16;
采用经典卷积核步长设置方法设置C2的卷积核步长为1;
采用经典卷积核步长设置方法设置M2的卷积核步长为2;
采用经典CNN特征提取方法,对步骤3.1中得到的第1层特征输出I1进行提取,得到第2层特征输出,记为I2;
步骤3.3:第3层CNN特征提取
采用经典的卷积神经网络方法建立阴影特征提取网络的中间层,得到由经典的卷积神经网络组成的阴影特征提取网络的第3层,记为f3,第3层由卷积层和最大池化层组成,分别记为C3,M3,其中采用卷积核尺寸设置方法设置C3的卷积核尺寸为3×3×32;
采用经典卷积核步长设置方法设置C3的卷积核步长为1;
采用经典卷积核步长设置方法设置M3的卷积核步长为2;
采用经典CNN特征提取方法,对步骤3.2中得到的第2层特征输出I2进行提取,得到第3层特征输出,记为I3;
步骤3.4:第4层CNN特征提取
采用经典的卷积神经网络方法建立阴影特征提取网络的中间层,得到由经典的卷积神经网络组成的阴影特征提取网络的第4层,记为f4,第4层由卷积层和最大池化层组成,分别记为C4,M4,其中采用经典卷积核尺寸设置方法设置C4的卷积核尺寸为3×3×64;
采用经典卷积核步长设置方法设置C4的卷积核步长为1;
采用经典卷积核步长设置方法设置M4的卷积核步长为2;
采用经典CNN特征提取方法,对步骤3.3中得到的第3层特征输出I3进行提取,得到第4层特征输出,记为I4;
步骤3.5:第5层CNN特征提取
采用经典的卷积神经网络方法建立阴影特征提取网络的中间层,得到由经典的卷积神经网络组成的阴影特征提取网络的第5层,记为f5,第5层由卷积层和最大池化层组成,分别记为C5,M5,其中采用经典卷积核尺寸设置方法设置C5的卷积核尺寸为3×3×128;
采用经典卷积核步长设置方法设置C5的卷积核步长为1;
采用经典卷积核步长设置方法设置M5的卷积核步长为2;
采用经典CNN特征提取方法,对步骤3.4中得到的第3层特征输出I4进行提取,得到第5层特征输出,记为I5;
最终,得到阴影CNN特征提取网络所有层的特征输出,记为Is,s=1,...,5;
步骤4、应用自注意力(TSAM)机制
遍历步骤3得到的特征输出Is,s=1,...,5,具体步骤是:
采用经典的自注意力机制方法对步骤3得到的特征输出Is进行自注意力机制处理,得到特征输出Is的自注意力输出,记为Os;
采用公式Is′=WOOs+Is,计算得到自注意力输出,记为Is′,其中WO为一个待学习的加权矩阵,训练时通过1×1卷积层来实现;
其中,初始计数s=1,并且每次遍历后更新计数s=s+1,直到s=5后停止遍历,由此得到遍历后的所有全局注意力输出,记为Os,s=1,...,5;
步骤5、应用形状变化自适应学习(SDAL)机制
遍历步骤4得到的特征输出Os,s=1,...,5,具体步骤是:
采用经典的可变形卷积方法对特征输出Os进行可变形卷积处理,得到特征输出Os的形状变化自适应输出,记为Os';
其中,初始计数s=1,并且每次遍历后更新计数s=s+1,直到s=5后停止遍历,由此得到遍历后的所有形状变化自适应输出,记为Os',s=1,...,5;
步骤6、应用语义引导锚自适应学习(SGAAL)机制
步骤6.1:预测锚位置
采用经典的卷积神经网络方法对步骤5中的形状变化自适应输出结果O5'进行卷积操作,得到锚位置预测结果,记为a_loc;
采用focal loss损失函数对锚位置预测结果a_loc进行处理,得到位置损失结果,记为aloc_loss;
步骤6.2:预测锚形状
采用经典的卷积操作方法对步骤5得到的形状变化自适应输出结果O5'进行卷积操作,得到锚形状预测结果,记为a_shape;
采用IOU Loss损失函数方法对锚形状预测结果a_shape进行处理,得到形状损失结果,记为ashape_loss;
步骤6.3:调整特征图
采用经典的卷积操作方法对步骤5中的形状变化自适应输出结果O5'进行卷积核大小为1的卷积操作,得到特征图调整结果,记为R1;
至此,指导锚子网络建立完毕;
步骤7、构建阴影检测分类和回归模块
步骤7.1:构建分类模块
采用经典的卷积操作方法对步骤5得到的形状变化自适应输出结果O5'进行卷积核大小为3的卷积操作,得到分类结果,记为cls;
采用的focal loss损失函数方法对分类结果cls进行处理,得到分类损失结果,记为cls_loss;
步骤7.2:构建回归模块
采用经典的卷积操作方法对步骤5得到的形状变化自适应输出结果O5'进行卷积,卷积核大小为3的操作,得到回归结果,记为reg;
采用IOU loss损失函数方法对得到的回归结果reg进行处理,得到回归损失结果,记为reg_loss;
步骤8、应用在线困难样本挖掘(OHEM)机制
采用经典的在线难例挖掘方法,对步骤7得到的分类损失结果cls_loss和回归损失结果reg_loss进行在线难例挖掘,得到新的分类损失结果和新的回归损失结果,分别记为cls_loss-final和reg_los-final;
步骤9、建立阴影检测模型
将步骤2中得到的训练集Train-HESE作为输入,采用经典的Adam算法对步骤3、4、5、6、7、8所得到的结果进行训练,训练完成后得到阴影检测模型,记为ShadowDeNet;
步骤10、测试阴影检测模型
在步骤9中得到的阴影检测模型ShadowDeNet上,采用经典的检测网络测试方法对步骤2中得到的测试集Test-HESE进行测试,得到测试集Test-HESE在阴影检测模型ShadowDeNet上的测试结果,记为Result;
步骤11、评估阴影检测模型
以步骤10中得到的阴影检测模型ShadowDeNet的测试结果Result作为输入,采用经典的检测精度计算方法,求出召回率、精确率、F1和混淆矩阵,召回率、精确率、F1分别记为Recall,Precision和F1;
以步骤10中得到的阴影检测模型ShadowDeNet的测试结果Result作为输入,采用经典的跟踪速度计算方法,求出跟踪速度,记为FPS;
至此,整个方法结束。
本发明的创新点在于公开了一种基于ShadowDeNet的Video SAR动目标阴影检测方法,用来解决虚警率高,检测精度低的问题。该方法设计了一种全新的网络——ShadowDeNet,有五个核心贡献来确保ShadowDeNet的卓越性能:(1)直方图均衡阴影增强(HESE)预处理技术被用于增强阴影显著性来促进低维特征的提取;(2)自注意力机制(TSAM)被用于更关注感兴趣目标区域来抑制杂波干扰;(3)形状变化自适应学习(SDAL)机制利用变形卷积学习动目标阴影的形变从而克服运动速度的变化;(4)语义引导锚自适应学习(SGAAL)机制通过优化锚来自适应匹配阴影的位置和形状;(5)在线困难样本挖掘(OHEM)技术被用于选择典型困难负样本来提高背景识别能力。在公知的桑迪亚国家实验室数据集上的实验结果,ShadowDeNet以66.01%的F1精度优于其他先进的Video SAR中动阴影检测方法,并且在一个可接受的范围内牺牲了轻微的检测速度。
本发明的优点在于能够高精度实现Video SAR中动目标阴影的检测,克服了现有技术不易区分与阴影相似的背景,造成虚警率高的问题以及在复杂环境中动目标阴影容易受背景干扰导致漏检等问题,且跟踪精度和跟踪速度优于现有的动目标阴影检测方法。
附图说明
图1为本发明中用于Video SAR动目标阴影检测的ShadowDeNet网络结构示意图。
图2为本发明的实现步骤流程图
图3为本发明中的基于ShadowDeNet的Video SAR动目标阴影检测的召回率,精确率,三级指标F1
具体实施方式
下面结合附图2对本发明的作进一步详细描述。
步骤1、准备数据集
从经典桑迪亚国家实验室数据集中得到桑迪亚国家实验室数据集,以时间顺序按照600:299的比例将桑迪亚国家实验室数据集划分为两部分,得到训练集和测试集,其中训练集含有前600张图片,记为Train,测试集含有后299张图片,记为Test;
步骤2、直方图均衡阴影增强(HESE)预处理
采用标准的直方图均衡方法对步骤1中得到的训练集Train进行直方图均衡处理,得到网络输入训练图片600张,记为Train-HESE;
采用标准的直方图均衡方法对步骤1中得到的训练集Test进行直方图均衡处理,得到网络输入测试图片299张,记为Test-HESE;
步骤3、阴影CNN特征提取
步骤3.1:第1层CNN特征提取
采用经典的卷积神经网络方法建立阴影特征提取网络的输入层,得到由经典的卷积神经网络组成的阴影特征提取网络的第1层(输入层),记为f1,第1层由卷积层和最大池化层组成,分别记为C1,M1,其中采用经典卷积核尺寸设置方法设置C1的卷积核尺寸为3×3×8;
采用经典卷积核步长设置方法设置C1的卷积核步长为1;
采用经典卷积核步长设置方法设置M1的卷积核步长为2;
采用经典CNN特征提取方法,对步骤2中得到的训练集Train-HESE中的一幅SAR图像进行提取,得到第1层特征输出,记为I1;
步骤3.2:第2层CNN特征提取
采用经典的卷积神经网络方法建立阴影特征提取网络的中间层,得到由经典的卷积神经网络组成的阴影特征提取网络的第2层,记为f2,第2层由卷积层和最大池化层组成,分别记为C2,M2,其中采用经典卷积核尺寸设置方法设置C2的卷积核尺寸为3×3×16;
采用经典卷积核步长设置方法设置C2的卷积核步长为1;
采用经典卷积核步长设置方法设置M2的卷积核步长为2;
采用经典CNN特征提取方法,对步骤3.1中得到的第1层特征输出I1进行提取,得到第2层特征输出,记为I2;
步骤3.3:第3层CNN特征提取
采用经典的卷积神经网络方法建立阴影特征提取网络的中间层,得到由经典的卷积神经网络组成的阴影特征提取网络的第3层,记为f3,第3层由卷积层和最大池化层组成,分别记为C3,M3,其中采用卷积核尺寸设置方法设置C3的卷积核尺寸为3×3×32;
采用经典卷积核步长设置方法设置C3的卷积核步长为1;
采用经典卷积核步长设置方法设置M3的卷积核步长为2;
采用经典CNN特征提取方法,对步骤3.2中得到的第2层特征输出I2进行提取,得到第3层特征输出,记为I3;
步骤3.4:第4层CNN特征提取
采用经典的卷积神经网络方法建立阴影特征提取网络的中间层,得到由经典的卷积神经网络组成的阴影特征提取网络的第4层,记为f4,第4层由卷积层和最大池化层组成,分别记为C4,M4,其中采用经典卷积核尺寸设置方法设置C4的卷积核尺寸为3×3×64;
采用经典卷积核步长设置方法设置C4的卷积核步长为1;
采用经典卷积核步长设置方法设置M4的卷积核步长为2;
采用经典CNN特征提取方法,对步骤3.3中得到的第3层特征输出I3进行提取,得到第4层特征输出,记为I4;
步骤3.5:第5层CNN特征提取
采用经典的卷积神经网络方法建立阴影特征提取网络的中间层,得到由经典的卷积神经网络组成的阴影特征提取网络的第5层,记为f5,第5层由卷积层和最大池化层组成,分别记为C5,M5,其中采用经典卷积核尺寸设置方法设置C5的卷积核尺寸为3×3×128;
采用经典卷积核步长设置方法设置C5的卷积核步长为1;
采用经典卷积核步长设置方法设置M5的卷积核步长为2;
采用经典CNN特征提取方法,对步骤3.4中得到的第3层特征输出I4进行提取,得到第5层特征输出,记为I5;
最终,得到阴影CNN特征提取网络所有层的特征输出,记为Is,s=1,...,5;
步骤4、应用自注意力(TSAM)机制
遍历步骤3得到的特征输出Is,s=1,...,5,具体步骤是:
采用经典的自注意力机制方法对步骤3得到的特征输出Is进行自注意力机制处理,得到特征输出Is的自注意力输出,记为Os;
采用公式Is′=WOOs+Is,计算得到自注意力输出,记为Is′,其中WO为一个待学习的加权矩阵,训练时通过1×1卷积层来实现;
其中,初始计数s=1,并且每次遍历后更新计数s=s+1,直到s=5后停止遍历,由此得到遍历后的所有全局注意力输出,记为Os,s=1,...,5;
步骤5、应用形状变化自适应学习(SDAL)机制
遍历步骤4得到的特征输出Os,s=1,...,5,具体步骤是:
采用经典的可变形卷积方法对特征输出Os进行可变形卷积处理,得到特征输出Os的形状变化自适应输出,记为Os';
其中,初始计数s=1,并且每次遍历后更新计数s=s+1,直到s=5后停止遍历,由此得到遍历后的所有形状变化自适应输出,记为Os',s=1,...,5;
步骤6、应用语义引导锚自适应学习(SGAAL)机制
步骤6.1:预测锚位置
采用经典的卷积神经网络方法对步骤5中的形状变化自适应输出结果O5'进行卷积操作,得到锚位置预测结果,记为a_loc;
采用focal loss损失函数对锚位置预测结果a_loc进行处理,得到位置损失结果,记为aloc_loss;
步骤6.2:预测锚形状
采用经典的卷积操作方法对步骤5得到的形状变化自适应输出结果O5'进行卷积操作,得到锚形状预测结果,记为a_shape;
采用IOU Loss损失函数方法对锚形状预测结果a_shape进行处理,得到形状损失结果,记为ashape_loss;
步骤6.3:调整特征图
采用经典的卷积操作方法对步骤5中的形状变化自适应输出结果O5'进行卷积核大小为1的卷积操作,得到特征图调整结果,记为R1;
至此,指导锚子网络建立完毕;
步骤7、构建阴影检测分类和回归模块
步骤7.1:构建分类模块
采用经典的卷积操作方法对步骤5得到的形状变化自适应输出结果O5'进行卷积核大小为3的卷积操作,得到分类结果,记为cls;
采用的focal loss损失函数方法对分类结果cls进行处理,得到分类损失结果,记为cls_loss;
步骤7.2:构建回归模块
采用经典的卷积操作方法对步骤5得到的形状变化自适应输出结果O5'进行卷积,卷积核大小为3的操作,得到回归结果,记为reg;
采用IOU loss损失函数方法对得到的回归结果reg进行处理,得到回归损失结果,记为reg_loss;
步骤8、应用在线困难样本挖掘(OHEM)机制
采用经典的在线难例挖掘方法,对步骤7得到的分类损失结果cls_loss和回归损失结果reg_loss进行在线难例挖掘,得到新的分类损失结果和新的回归损失结果,分别记为cls_loss-final和reg_los-final;
步骤9、建立阴影检测模型
将步骤2中得到的训练集Train-HESE作为输入,采用经典的Adam算法对步骤3、4、5、6、7、8所得到的结果进行训练,训练完成后得到阴影检测模型,记为ShadowDeNet;
步骤10、测试阴影检测模型
在步骤9中得到的阴影检测模型ShadowDeNet上,采用经典的检测网络测试方法对步骤2中得到的测试集Test-HESE进行测试,得到测试集Test-HESE在阴影检测模型ShadowDeNet上的测试结果,记为Result;
步骤11、评估阴影检测模型
以步骤10中得到的阴影检测模型ShadowDeNet的测试结果Result作为输入,采用经典的检测精度计算方法,求出召回率、精确率、F1和混淆矩阵,召回率、精确率、F1分别记为Recall,Precision和F1;
以步骤10中得到的阴影检测模型ShadowDeNet的测试结果Result作为输入,采用经典的跟踪速度计算方法,求出跟踪速度,记为FPS;
至此,整个方法结束。
如图3所示,本发明在公知的桑迪亚国家实验室数据集上达到的召回率为57.05%,精确率为78.30%,F1指标为66.01%。同时,本发明实现了现有技术中最高的动目标阴影检测精度,表明本发明能够实现高精度的Video SAR中阴影检测。
Claims (1)
1.一种视频SAR动目标阴影检测方法,其特征是它包括以下几个步骤:
步骤1、准备数据集
从经典桑迪亚国家实验室数据集中得到桑迪亚国家实验室数据集,以时间顺序按照600:299的比例将桑迪亚国家实验室数据集划分为两部分,得到训练集和测试集,其中训练集含有前600张图片,记为Train,测试集含有后299张图片,记为Test;
步骤2、直方图均衡阴影增强(HESE)预处理
采用标准的直方图均衡方法对步骤1中得到的训练集Train进行直方图均衡处理,得到网络输入训练图片600张,记为Train-HESE;
采用标准的直方图均衡方法对步骤1中得到的训练集Test进行直方图均衡处理,得到网络输入测试图片299张,记为Test-HESE;
步骤3、阴影CNN特征提取
步骤3.1:第1层CNN特征提取
采用经典的卷积神经网络方法建立阴影特征提取网络的输入层,得到由经典的卷积神经网络组成的阴影特征提取网络的第1层(输入层),记为f1,第1层由卷积层和最大池化层组成,分别记为C1,M1,其中采用经典卷积核尺寸设置方法设置C1的卷积核尺寸为3×3×8;
采用经典卷积核步长设置方法设置C1的卷积核步长为1;
采用经典卷积核步长设置方法设置M1的卷积核步长为2;
采用经典CNN特征提取方法,对步骤2中得到的训练集Train-HESE中的一幅SAR图像进行提取,得到第1层特征输出,记为I1;
步骤3.2:第2层CNN特征提取
采用经典的卷积神经网络方法建立阴影特征提取网络的中间层,得到由经典的卷积神经网络组成的阴影特征提取网络的第2层,记为f2,第2层由卷积层和最大池化层组成,分别记为C2,M2,其中采用经典卷积核尺寸设置方法设置C2的卷积核尺寸为3×3×16;
采用经典卷积核步长设置方法设置C2的卷积核步长为1;
采用经典卷积核步长设置方法设置M2的卷积核步长为2;
采用经典CNN特征提取方法,对步骤3.1中得到的第1层特征输出I1进行提取,得到第2层特征输出,记为I2;
步骤3.3:第3层CNN特征提取
采用经典的卷积神经网络方法建立阴影特征提取网络的中间层,得到由经典的卷积神经网络组成的阴影特征提取网络的第3层,记为f3,第3层由卷积层和最大池化层组成,分别记为C3,M3,其中采用卷积核尺寸设置方法设置C3的卷积核尺寸为3×3×32;
采用经典卷积核步长设置方法设置C3的卷积核步长为1;
采用经典卷积核步长设置方法设置M3的卷积核步长为2;
采用经典CNN特征提取方法,对步骤3.2中得到的第2层特征输出I2进行提取,得到第3层特征输出,记为I3;
步骤3.4:第4层CNN特征提取
采用经典的卷积神经网络方法建立阴影特征提取网络的中间层,得到由经典的卷积神经网络组成的阴影特征提取网络的第4层,记为f4,第4层由卷积层和最大池化层组成,分别记为C4,M4,其中采用经典卷积核尺寸设置方法设置C4的卷积核尺寸为3×3×64;
采用经典卷积核步长设置方法设置C4的卷积核步长为1;
采用经典卷积核步长设置方法设置M4的卷积核步长为2;
采用经典CNN特征提取方法,对步骤3.3中得到的第3层特征输出I3进行提取,得到第4层特征输出,记为I4;
步骤3.5:第5层CNN特征提取
采用经典的卷积神经网络方法建立阴影特征提取网络的中间层,得到由经典的卷积神经网络组成的阴影特征提取网络的第5层,记为f5,第5层由卷积层和最大池化层组成,分别记为C5,M5,其中采用经典卷积核尺寸设置方法设置C5的卷积核尺寸为3×3×128;
采用经典卷积核步长设置方法设置C5的卷积核步长为1;
采用经典卷积核步长设置方法设置M5的卷积核步长为2;
采用经典CNN特征提取方法,对步骤3.4中得到的第3层特征输出I4进行提取,得到第5层特征输出,记为I5;
最终,得到阴影CNN特征提取网络所有层的特征输出,记为Is,s=1,...,5;
步骤4、应用自注意力(TSAM)机制
遍历步骤3得到的特征输出Is,s=1,...,5,具体步骤是:
采用经典的自注意力机制方法对步骤3得到的特征输出Is进行自注意力机制处理,得到特征输出Is的自注意力输出,记为Os;
采用公式I′s=WOOs+Is,计算得到自注意力输出,记为I′s,其中WO为一个待学习的加权矩阵,训练时通过1×1卷积层来实现;
其中,初始计数s=1,并且每次遍历后更新计数s=s+1,直到s=5后停止遍历,由此得到遍历后的所有全局注意力输出,记为Os,s=1,...,5;
步骤5、应用形状变化自适应学习(SDAL)机制
遍历步骤4得到的特征输出Os,s=1,...,5,具体步骤是:
采用经典的可变形卷积方法对特征输出Os进行可变形卷积处理,得到特征输出Os的形状变化自适应输出,记为Os';
其中,初始计数s=1,并且每次遍历后更新计数s=s+1,直到s=5后停止遍历,由此得到遍历后的所有形状变化自适应输出,记为Os',s=1,...,5;
步骤6、应用语义引导锚自适应学习(SGAAL)机制
步骤6.1:预测锚位置
采用经典的卷积神经网络方法对步骤5中的形状变化自适应输出结果O5'进行卷积操作,得到锚位置预测结果,记为a_loc;
采用focal loss损失函数对锚位置预测结果a_loc进行处理,得到位置损失结果,记为aloc_loss;
步骤6.2:预测锚形状
采用经典的卷积操作方法对步骤5得到的形状变化自适应输出结果O5'进行卷积操作,得到锚形状预测结果,记为a_shape;
采用IOU Loss损失函数方法对锚形状预测结果a_shape进行处理,得到形状损失结果,记为ashape_loss;
步骤6.3:调整特征图
采用经典的卷积操作方法对步骤5中的形状变化自适应输出结果O5'进行卷积核大小为1的卷积操作,得到特征图调整结果,记为R1;
至此,指导锚子网络建立完毕;
步骤7、构建阴影检测分类和回归模块
步骤7.1:构建分类模块
采用经典的卷积操作方法对步骤5得到的形状变化自适应输出结果O5'进行卷积核大小为3的卷积操作,得到分类结果,记为cls;
采用的focal loss损失函数方法对分类结果cls进行处理,得到分类损失结果,记为cls_loss;
步骤7.2:构建回归模块
采用经典的卷积操作方法对步骤5得到的形状变化自适应输出结果O5'进行卷积,卷积核大小为3的操作,得到回归结果,记为reg;
采用IOU loss损失函数方法对得到的回归结果reg进行处理,得到回归损失结果,记为reg_loss;
步骤8、应用在线困难样本挖掘(OHEM)机制
采用经典的在线难例挖掘方法,对步骤7得到的分类损失结果cls_loss和回归损失结果reg_loss进行在线难例挖掘,得到新的分类损失结果和新的回归损失结果,分别记为cls_loss-final和reg_los-final;
步骤9、建立阴影检测模型
将步骤2中得到的训练集Train-HESE作为输入,采用经典的Adam算法对步骤3、4、5、6、7、8所得到的结果进行训练,训练完成后得到阴影检测模型,记为ShadowDeNet;
步骤10、测试阴影检测模型
在步骤9中得到的阴影检测模型ShadowDeNet上,采用经典的检测网络测试方法对步骤2中得到的测试集Test-HESE进行测试,得到测试集Test-HESE在阴影检测模型ShadowDeNet上的测试结果,记为Result;
步骤11、评估阴影检测模型
以步骤10中得到的阴影检测模型ShadowDeNet的测试结果Result作为输入,采用经典的检测精度计算方法,求出召回率、精确率、F1和混淆矩阵,召回率、精确率、F1分别记为Recall,Precision和F1;
以步骤10中得到的阴影检测模型ShadowDeNet的测试结果Result作为输入,采用经典的跟踪速度计算方法,求出跟踪速度,记为FPS;
至此,整个方法结束。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210002282.3A CN114511504B (zh) | 2022-01-04 | 2022-01-04 | 一种视频sar动目标阴影检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210002282.3A CN114511504B (zh) | 2022-01-04 | 2022-01-04 | 一种视频sar动目标阴影检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114511504A CN114511504A (zh) | 2022-05-17 |
CN114511504B true CN114511504B (zh) | 2023-11-10 |
Family
ID=81549251
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210002282.3A Active CN114511504B (zh) | 2022-01-04 | 2022-01-04 | 一种视频sar动目标阴影检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114511504B (zh) |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101231756A (zh) * | 2008-01-30 | 2008-07-30 | 安防科技(中国)有限公司 | 运动目标阴影检测方法及装置 |
CN103679704A (zh) * | 2013-11-22 | 2014-03-26 | 中国人民解放军第二炮兵工程大学 | 一种基于光照补偿的视频运动阴影检测方法 |
WO2014079058A1 (zh) * | 2012-11-26 | 2014-05-30 | 华为技术有限公司 | 一种视频图像处理方法及系统 |
CN110095774A (zh) * | 2019-01-28 | 2019-08-06 | 南京航空航天大学 | 一种圆迹视频sar动目标检测方法 |
CN110222661A (zh) * | 2019-06-12 | 2019-09-10 | 中国矿业大学 | 一种用于运动目标识别及跟踪的特征提取方法 |
CN111311644A (zh) * | 2020-01-15 | 2020-06-19 | 电子科技大学 | 一种基于视频sar的运动目标检测方法 |
CN111639692A (zh) * | 2020-05-25 | 2020-09-08 | 南京邮电大学 | 一种基于注意力机制的阴影检测方法 |
CN113449135A (zh) * | 2021-08-31 | 2021-09-28 | 阿里巴巴达摩院(杭州)科技有限公司 | 图像生成系统与方法 |
-
2022
- 2022-01-04 CN CN202210002282.3A patent/CN114511504B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101231756A (zh) * | 2008-01-30 | 2008-07-30 | 安防科技(中国)有限公司 | 运动目标阴影检测方法及装置 |
WO2014079058A1 (zh) * | 2012-11-26 | 2014-05-30 | 华为技术有限公司 | 一种视频图像处理方法及系统 |
CN104662560A (zh) * | 2012-11-26 | 2015-05-27 | 华为技术有限公司 | 一种视频图像处理方法及系统 |
CN103679704A (zh) * | 2013-11-22 | 2014-03-26 | 中国人民解放军第二炮兵工程大学 | 一种基于光照补偿的视频运动阴影检测方法 |
CN110095774A (zh) * | 2019-01-28 | 2019-08-06 | 南京航空航天大学 | 一种圆迹视频sar动目标检测方法 |
CN110222661A (zh) * | 2019-06-12 | 2019-09-10 | 中国矿业大学 | 一种用于运动目标识别及跟踪的特征提取方法 |
CN111311644A (zh) * | 2020-01-15 | 2020-06-19 | 电子科技大学 | 一种基于视频sar的运动目标检测方法 |
CN111639692A (zh) * | 2020-05-25 | 2020-09-08 | 南京邮电大学 | 一种基于注意力机制的阴影检测方法 |
CN113449135A (zh) * | 2021-08-31 | 2021-09-28 | 阿里巴巴达摩院(杭州)科技有限公司 | 图像生成系统与方法 |
Non-Patent Citations (4)
Title |
---|
Jinyu Bao 等.ShadowDeNet: A Moving Target Shadow Detection Network for Video SAR.Remote Sensing.2022,第14卷(第2期),1-30. * |
ZHONGKANG LIU 等.Moving Target Shadow Detection and Global Background Reconstruction for VideoSAR Based on Single-Frame Imagery.IEEE Access.2019,第7卷42418-42425. * |
孙涛 等.视频监控系统中一种运动目标的检测方法.电视技术.2012,第36卷(第07期),127-129+148. * |
郭炜炜 等.SAR图像目标识别的可解释性问题探讨.雷达学报.2020,第9卷(第03期),462-476. * |
Also Published As
Publication number | Publication date |
---|---|
CN114511504A (zh) | 2022-05-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110472627B (zh) | 一种端到端的sar图像识别方法、装置及存储介质 | |
CN112308019B (zh) | 基于网络剪枝和知识蒸馏的sar舰船目标检测方法 | |
US20230169623A1 (en) | Synthetic aperture radar (sar) image target detection method | |
CN111123257B (zh) | 基于图时空网络的雷达动目标多帧联合检测方法 | |
CN109741318B (zh) | 基于有效感受野的单阶段多尺度特定目标的实时检测方法 | |
CN111460968B (zh) | 基于视频的无人机识别与跟踪方法及装置 | |
CN109871902B (zh) | 一种基于超分辨率对抗生成级联网络的sar小样本识别方法 | |
CN109101897A (zh) | 水下机器人的目标检测方法、系统及相关设备 | |
Jiang et al. | A semisupervised Siamese network for efficient change detection in heterogeneous remote sensing images | |
Jing et al. | AENN: A generative adversarial neural network for weather radar echo extrapolation | |
CN113705331B (zh) | 一种基于四元特征金字塔网络的sar船只检测方法 | |
CN110991257B (zh) | 基于特征融合与svm的极化sar溢油检测方法 | |
CN112884742A (zh) | 一种基于多算法融合的多目标实时检测、识别及跟踪方法 | |
CN114565860A (zh) | 一种多维度增强学习合成孔径雷达图像目标检测方法 | |
CN113344045B (zh) | 一种结合hog特征提高sar船只分类精度的方法 | |
CN113128564B (zh) | 一种基于深度学习的复杂背景下典型目标检测方法及系统 | |
Chen et al. | Ship detection with optical image based on attention and loss improved YOLO | |
Yang et al. | Sar images target detection based on yolov5 | |
CN114511504B (zh) | 一种视频sar动目标阴影检测方法 | |
CN116842827A (zh) | 一种无人机飞控系统电磁性能边界模型构建方法 | |
CN113902975B (zh) | 一种用于sar舰船检测的场景感知数据增强方法 | |
CN115331162A (zh) | 一种跨尺度红外行人检测方法、系统、介质、设备及终端 | |
CN114332151B (zh) | 一种基于阴影Video-SAR中感兴趣目标跟踪方法 | |
Ding et al. | Ship detection in SAR images based on an improved detector with rotational boxes | |
Kala et al. | A new framework for object detection using fastcnn-Naïve Bayes classifier for remote sensing image extraction |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |