CN116343050A - 基于自适应权重的遥感图像噪声标注的目标检测方法 - Google Patents
基于自适应权重的遥感图像噪声标注的目标检测方法 Download PDFInfo
- Publication number
- CN116343050A CN116343050A CN202310603585.5A CN202310603585A CN116343050A CN 116343050 A CN116343050 A CN 116343050A CN 202310603585 A CN202310603585 A CN 202310603585A CN 116343050 A CN116343050 A CN 116343050A
- Authority
- CN
- China
- Prior art keywords
- target
- network
- frame
- self
- weight
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 83
- 238000000034 method Methods 0.000 claims abstract description 62
- 238000012549 training Methods 0.000 claims abstract description 50
- 238000002372 labelling Methods 0.000 claims abstract description 30
- 230000003044 adaptive effect Effects 0.000 claims abstract description 24
- 230000006870 function Effects 0.000 claims description 21
- 230000008569 process Effects 0.000 claims description 18
- 230000004913 activation Effects 0.000 claims description 12
- 101150090281 ISM1 gene Proteins 0.000 claims description 3
- 239000004973 liquid crystal related substance Substances 0.000 claims description 3
- 239000000919 ceramic Substances 0.000 claims 1
- 230000000694 effects Effects 0.000 abstract description 6
- 230000008014 freezing Effects 0.000 abstract description 3
- 238000007710 freezing Methods 0.000 abstract description 3
- 230000002411 adverse Effects 0.000 abstract description 2
- 238000010586 diagram Methods 0.000 description 7
- WDLRUFUQRNWCPK-UHFFFAOYSA-N Tetraxetan Chemical compound OC(=O)CN1CCN(CC(O)=O)CCN(CC(O)=O)CCN(CC(O)=O)CC1 WDLRUFUQRNWCPK-UHFFFAOYSA-N 0.000 description 4
- 230000009977 dual effect Effects 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 230000004807 localization Effects 0.000 description 3
- 238000012360 testing method Methods 0.000 description 3
- 238000002474 experimental method Methods 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 241000486463 Eugraphe sigma Species 0.000 description 1
- GIYXAJPCNFJEHY-UHFFFAOYSA-N N-methyl-3-phenyl-3-[4-(trifluoromethyl)phenoxy]-1-propanamine hydrochloride (1:1) Chemical compound Cl.C=1C=CC=CC=1C(CCNC)OC1=CC=C(C(F)(F)F)C=C1 GIYXAJPCNFJEHY-UHFFFAOYSA-N 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 238000013142 basic testing Methods 0.000 description 1
- 230000000052 comparative effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000005012 migration Effects 0.000 description 1
- 238000013508 migration Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000010257 thawing Methods 0.000 description 1
- 101150099309 todA gene Proteins 0.000 description 1
- 230000003313 weakening effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/30—Noise filtering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于自适应权重的遥感图像噪声标注的目标检测方法,包括:大量获取遥感图像标注数据构成数据集D,从中选取无噪声样本构成无噪声数据集D C ;冻结基础检测模型m1的权重参数,用无噪声数据集D C 结合m1,训练自适应权重网络,得到其最优权重参数θ * ;用数据集D对m1进行微调得到m2。微调中使用自适应权重网络计算预测目标框的置信度作为预测框的训练权重。本发明能有效地抑制不精确边界框标注对目标检测模型的不良影响,同时高效矫正不精确边界框标注,提高目标检测精度。
Description
技术领域
本发明涉及一种遥感图像中目标检测方法,尤其涉及一种基于自适应权重的遥感图像噪声标注的目标检测方法。
背景技术
遥感图像目标检测模型的检测精度依赖于大量精确标注的训练数据。然而由于人工标注的成本昂贵,同时数据标注对于遥感领域知识要求较高,遥感图像目标检测模型的训练数据集往往充斥着许多不精确标注数据,极大降低了遥感图像目标检测模型的检测精度。
针对目标检测模型训练不精确边界框标注数据带来的检测难题,一些计算机领域内的抗噪声学习策略与算法被提出。例如,有人提出了一个允许网络修改标注的分类与边界框交替细化的方案。有人提出的MRNet通过元学习方法动态学习分类标签和边界框标注,并在MRNet构建中利用分类信息指导边界框优化,最后通过元模型联合分类与定位信息来更新基线模型。有人使用分类loss的排序来决定预测框的可靠度,利用中心匹配机制来比较区域建议框与边界框的相似度,模型使用加权融合后的分类标签与边界框标注训练。有人提出了一种基于图像级监督的弱监督对象定位方法(WSOL),将缺失的对象定位作为潜变量进行建模,并提出了一种新的自导向优化策略来推导缺失对象定位。利用该策略的自定向定位网络(SD-LocNet)能够对初始位置偏移较大的目标实例进行定位。还有人提出一个两步的噪声标注校正方法,建立双检测头与双分类头,首先对双回归头产生的边界框进行平均融合,其次对双分类头生成的预测类别分数进行平均选择。
但这些方法大多都是在解决分类任务的噪声标签问题的同时对不精确边界框问题进行一定的探索,没有独立地探讨在目标检测任务下解决数据集中带有大量不精确边界框标注数据的解决方案。所述边界框为针对目标进行标记的目标框。
本方法关注于遥感图像目标检测领域内噪声边界框标注数据集的学习,与噪声标注数据目标检测的方法的本质不同在于:一、遥感图像在目标分布、尺度和背景等多个方面不同于通用数据集图像,噪声边界框标注对于遥感目标检测的影响更为严重。二、上述方法在针对噪声边界框标注改进中大多依赖于样本的分类信息,包括图像级标签、对象级标签,忽略了分类类信息本身存在的不可靠性。
综上,本发明注重解决由昂贵人工成本和专家知识需要带来的遥感图像目标检测领域内数据集存在大量不精确边界框标注问题。
发明内容
本发明的目的就在于提供一种解决昂贵人工成本和专家知识需要带来的遥感图像目标检测领域内数据集存在大量不精确边界框标注问题,导致检测性能下降的问题的,基于自适应权重的遥感图像噪声标注的目标检测方法。
为了实现上述目的,本发明采用的技术方案是这样的:一种基于自适应权重的遥感图像噪声标注的目标检测方法,包括以下步骤;
(1)大量获取遥感图像标注数据构成数据集D,所述遥感图像标注数据为标注了目标类别c和目标框b的遥感图像切片,每个切片仅包含一目标,对每个切片,判断其目标是否完全被目标框包含,若是,则将该切片作为无噪声样本,将所有无噪声样本构成无噪声数据集D C ;
(2)构建一Faster R-CNN网络和一自适应权重网络;
所述Faster R-CNN网络用于对切片提取图片特征,对图片特征中的目标生成区域建议框d,并根据区域建议框d内的特征r输出目标的预测类别和预测目标框;所述自适应权重网络用于输入区域建议框d内的特征r,并输出区域建议框d的置信度;
(3)训练Faster R-CNN网络得到基础检测模型m1;
将数据集D中的切片作为输入,该切片的标注为期望输出,训练Faster R-CNN网络,得到基础检测模型m1,其网络权重为ω* 1;
(4)训练自适应权重网络得到其最优权重系数θ * ;
将无噪声数据集D C 中的切片输入m1,获取m1中区域建议框d内的特征r,输入自适应权重网络中,输出d的置信度,并通过下式优化自适应权重网络,得到其最优权重参数θ * ;
式中,θ为每次训练得到的自适应权重网络的权重参数,/>是输入特征为r、权重参数为θ时自适应权重网络的输出,fit(d,b)为区域建议框d的置信度标签,L confidence 为计算和fit(d,b)间的损失函数;
(5)调整基础检测模型m1,得到目标检测模型m2;
自适应权重网络采用最优权重系数θ * ,将数据集D中切片送入基础检测模型m1,获取m1中区域建议框d内的特征r,输入自适应权重网络中得到该切片对应的置信度z,并将z作为m1中预测目标框的训练权重,训练m1,得到目标检测模型m2。
作为优选:还包括步骤(6)用m2对遥感图像切片内的目标进行识别,并输出目标的预测类别和预测目标框。
作为优选:数据集D中的切片,除无噪声样本,其余均为噪声样本,构成噪声数据集DN,DN中切片多于DC。
作为优选:步骤(3)中,所述基础检测模型m1的网络权重ω* 1通过下式获得;
其中,c * 、b * 分别为m1对x中目标输出的预测类别和预测目标框,L cls 为交叉熵损失,L reg 为smooth_L1损失,c * =0时表示对预测的背景框不进行回归,c * ∈(0,1]时表示对预测目标框进行回归,λ 1 为L obj 的超参数。
作为优选:所述自适应权重网络包括依次连接的展平层、第一全连接层、ReLU激活函数、第二全连接层、Sigmoid激活函数、第三全连接层;
区域建议框d内的特征r经展平层得到展平层的第一输出z1、z1经第一全连接层、ReLU激活函数得到第二输出z2,z2经第二全连接层、Sigmoid激活函数得到第三输出z3,z3再经第三全连接层得到区域建议框d的置信度z,其中,z1、z2、z3、z分别通过下式得到;
作为优选:步骤(4)中,区域建议框d的置信度标签fit(d,b)采用下式计算;
作为优选:步骤(5)中,将d作为m1中预测目标框的训练权重,训练m1,得到目标检测模型m2,具体为,m2的网络权重ω * 2通过下式获得;
式中,x为输入的切片,Ψ(x;θ * )是输入为x经m1得到的特征、权重参数采用θ * 时自适应权重网络的输出,ω 2为m2的网络参数,Φ(Ψ(x;θ * );ω 2)为训练得到m2过程中的输出,y为目标的标注,包含类别c和目标框b,L multi 为训练得到m2过程中的损失函数,通过下式计算:
式中,c * 、b * 分别为m1对x中目标输出的预测类别和预测目标框,c * =0时表示对预测的背景框不进行回归,c * ∈(0,1]时表示对预测目标框进行回归,λ 2 为L multi 的超参数,α为自适应权重网络输出的学习权重,x∈D C 时,α=z,否则α=1。
作为优选:所述步骤(4)中,ρ=0.1,用其控制自适应权重网络平衡。
本发明共构建两个网络,一个为Faster R-CNN网络,一个为自适应权重网络,Faster R-CNN网络用于对切片提取图片特征,对图片特征中的目标生成区域建议框d,并根据区域建议框d内的特征r输出目标的预测类别和预测目标框;自适应权重网络用于输入区域建议框d内的特征r,并输出区域建议框d的置信度。
本发明的训练整体分为三个阶段:
第一阶段,用包含噪声数据集D N 和无噪声数据集D C 的数据集D中的样本训练Faster R-CNN网络得到基础检测模型m1。
第二阶段,冻结基础检测模型m1的权重参数,用无噪声数据集D C 结合m1,训练自适应权重网络,得到其最优权重参数θ * 。
第三阶段,冻结自适应权重网络的最优权重参数θ * ,用数据集D结合自适应权重网络,去微调m1,具体是将数据集D的样本依次经m1和自适应权重网络后得到置信度d,再返回来将d作为m1中预测目标框的训练权重,训练m1对其进行微调,得到目标检测模型m2。
与现有技术相比,本发明的优点在于:本发明的训练包括三个阶段。第一阶段,使基础检测模型m1具有能对切片中目标输出预测类别和预测目标框的能力。第二阶段,使自适应权重网络(AWNet)学习区域建议框在特征图上裁剪的特征与真实目标边界之间的差异,具有对不精确边界框标注对象给予不同学习权重的能力。优点在于充分利用遥感图像标注数据中的无噪声标注数据,构建参数少、高效学习、可用的自适应权重网络。第三阶段,利用第二阶段中的自适应权重网络对噪声标注数据给予学习权重,指导模型学习,最后改进模型预测框。优点是将自适应权重网络融入检测模型,实现端到端的弱监督目标检测方法。
综上,本发明可以有效地抑制不精确边界框标注对目标检测模型的不良影响,同时高效矫正不精确边界框标注,提高目标检测精度。
附图说明
图1为本发明流程图;
图2a为无噪声样本的示意图;
图2b为和噪声样本的示意图;
图3a为本发明步骤(3)训练基础检测模型m1的架构图;
图3b为本发明步骤(4)训练自适应权重网络的架构图;
图3c为本发明步骤(5)调整m1得到目标检测模型m2的架构图;
图4为自适应权重网络的结构图;
图5为计算区域建议框d的中心度的示意图。
实施方式
下面将结合附图对本发明作进一步说明。
实施例1:参见图1到图5,一种基于自适应权重的遥感图像噪声标注的目标检测方法,包括以下步骤;
(1)大量获取遥感图像标注数据构成数据集D,所述遥感图像标注数据为标注了目标类别c和目标框b的遥感图像切片,每个切片仅包含一目标,对每个切片,判断其目标是否完全被目标框包含,若是,则将该切片作为无噪声样本,将所有无噪声样本构成无噪声数据集D C ;
(2)构建一Faster R-CNN网络和一自适应权重网络;
所述Faster R-CNN网络用于对切片提取图片特征,对图片特征中的目标生成区域建议框d,并根据区域建议框d内的特征r输出目标的预测类别和预测目标框;所述自适应权重网络用于输入区域建议框d内的特征r,并输出区域建议框d的置信度;
(3)训练Faster R-CNN网络得到基础检测模型m1;
将数据集D中的切片作为输入,该切片的标注为期望输出,训练Faster R-CNN网络,得到基础检测模型m1,其网络权重为ω* 1;
(4)训练自适应权重网络得到其最优权重系数θ * ;
将无噪声数据集D C 中的切片输入m1,获取m1中区域建议框d内的特征r,输入自适应权重网络中,输出d的置信度,并通过下式优化自适应权重网络,得到其最优权重参数θ * ;
式中,θ为每次训练得到的自适应权重网络的权重参数,/>是输入特征为r、权重参数为θ时自适应权重网络的输出,fit(d,b)为区域建议框d的置信度标签,L confidence 为计算和fit(d,b)间的损失函数;
(5)调整基础检测模型m1,得到目标检测模型m2;
自适应权重网络采用最优权重系数θ * ,将数据集D中切片送入基础检测模型m1,获取m1中区域建议框d内的特征r,输入自适应权重网络中得到该切片对应的置信度z,并将z作为m1中预测目标框的训练权重,训练m1,得到目标检测模型m2。
数据集D中的切片,除无噪声样本,其余均为噪声样本,构成噪声数据集DN,DN中切片多于DC。
步骤(3)中,所述基础检测模型m1的网络权重ω* 1通过下式获得;
其中,c * 、b * 分别为m1对x中目标输出的预测类别和预测目标框,L cls 为交叉熵损失,L reg 为smooth_L1损失,c * =0时表示对预测的背景框不进行回归,c * ∈(0,1]时表示对预测目标框进行回归,λ 1 为L obj 的超参数。
所述自适应权重网络包括依次连接的展平层、第一全连接层、ReLU激活函数、第二全连接层、Sigmoid激活函数、第三全连接层;
区域建议框d内的特征r经展平层得到展平层的第一输出z1、z1经第一全连接层、ReLU激活函数得到第二输出z2,z2经第二全连接层、Sigmoid激活函数得到第三输出z3,z3再经第三全连接层得到区域建议框d的置信度z,其中,z1、z2、z3、z分别通过下式得到;
步骤(4)中,区域建议框d的置信度标签fit(d,b)采用下式计算;
从公式中可以看出,fit(d, b)与D(d,b)和C(d,b)有关;D(d,b)为区域建议框d与目标框b间的中心距离,虽然区域建议框d相对于目标框b所在位置存在一定误差,但是其中心仍靠近目标,通过计算D(d,b),可得到d和b之间的适配程度。C(d,b)为区域建议框d的中心度,以区域建议框d的边界与目标框b的中心的归一化距离。区域建议框d越接近b中心点,其中心度越大,由此来评估区域建议框的可靠程度。ρ为fit(d,b)的超参数;/>、/> 、/>分别为区域建议框d的中心点横坐标、中心点纵坐标、宽度;/>、/> 、/>分别为目标框b的中心点横坐标、中心点纵坐标、宽度;l、p、m、q分别为区域建议框d左、右、上、下四条边到目标框b中心点的距离,min(·)、max(·)分别为计算最小值、最大值。
步骤(5)中,将d作为m1中预测目标框的训练权重,训练m1,得到目标检测模型m2,具体为,m2的网络权重ω * 2通过下式获得;
式中,x为输入的切片,Ψ(x;θ * )是输入为x经m1得到的特征、权重参数采用θ * 时自适应权重网络的输出,ω 2为m2的网络参数,Φ(Ψ(x;θ * );ω 2)为训练得到m2过程中的输出,y为目标的标注,包含类别c和目标框b,L multi 为训练得到m2过程中的损失函数,通过下式计算:
式中,c * 、b * 分别为m1对x中目标输出的预测类别和预测目标框,c * =0时表示对预测的背景框不进行回归,c * ∈(0,1]时表示对预测目标框进行回归,λ 2 为L multi 的超参数,α为自适应权重网络输出的学习权重,x∈D C 时,α=z,否则α=1。
所述步骤(4)中,ρ=0.1,用其控制自适应权重网络平衡。
实施例2:参见图1到图5,在实施例1的基础上,还包括步骤(6)用m2对遥感图像切片内的目标进行识别,并输出目标的预测类别和预测目标框。
关于无噪声样本和噪声样本,如图2a和图2b所示,展示了两张遥感图像切片,切片中的目标均为飞机,方框为目标框,其中图2a中飞机完全被目标框包含,为无噪声样本,图2b中飞机未完全被目标框包含,为噪声样本。
关于步骤(4):D(d,b)、C(d,b)的计算公式中提到了l、p、m、q。l、p、m、q分别为区域建议框d左、右、上、下四个方向到目标框b中心点的距离,标注可参见图5,结合图5,我们可以给出l、p、m、q的计算公式如下:
实施例3:参见图1到图5,为了说明本发明效果,对于数据集D的数据来源,我们选用DOTA公共数据集,该数据集是用于目标检测的公共可用航空遥感数据集。DOTA中的物体有不同的尺度、方向和形状,每个图像的分辨率范围从800×800像素到4000×4000像素,包含了15个类别数据,共188282个实例。本方法为统一图像尺寸,将DOTA数据集图像裁剪为800×800像素。最后,提取了2400张用于训练的图像和600张用于评估的图像,构成数据集D。
为了模拟真实遥感场景中的不精确边界框标注,对遥感图像数据集大部分目标框标注添加均匀噪声偏移,同时对少量目标框不添加噪声偏移,我们在训练集图像中随机抽取95%的图像对目标框标注添加均匀分布的噪声偏移,其余5%图像的目标框标注不作噪声偏移。
为了更好的添加噪声偏移,我们设置了一个偏移量σ控制生成的噪声范围,目标框的左下点坐标(x min ,y min )、右上点坐标(x max ,y max )均由σ控制偏移,以得到新的目标框坐标,左下点坐标为(x * min ,y * min )、右上点坐标为(x * min ,y * min )。为了更精确地模拟真实遥感噪声,我们设置噪声偏移γ为偏移量σ的取值范围因子,即σ在[1-γ,1+γ]中均匀选取,γ={0.5,0.7,0.9}。添加噪声偏移的公式如下:
然后,我们将添加了噪声偏移的大量数据放在一起,构成噪声数据集D N 、不添加噪声偏移的少量数据放在一起,构成无噪声数据集D C ,D N 和D C 构成数据集D。
本发明的m1是采用在ImageNet上预训练的ResNet50,作为Baseline。我们使用SGD优化器训练网络,首先m1,设置Batch_size为10,初始学习率大小为0.01,动量衰减系数和权值衰减系数分别为0.9和0.0005。其次冻结m1,利用相同实验设置在5%无噪声标注数据上训练AWNet,最后解冻基础模型,将AWNet加入基础模型以相同实验设置继续实验。
我们还通过以下几种方法对上述数据集D进行目标检测,分别得到检测结果的mAP指标,所述mAP指标为mean Average Precision,即平均精确度。本方法的实验中采取的mAP为mAP@.5。
(1)Clean方法:将不作任何噪声偏移的DOTA遥感数据集,用Baseline方法进行测试,该测试结果作为实验效果上界。
(2)Baseline方法:将经过噪声偏移得到的数据集D,用Baseline方法进行测试,该测试结果作为实验效果下界。
(3)Finetuning方法:在得到模型m1的基础上,用95%噪声标注数据对应的5%无噪声标注数据直接微调模型m1。
(4)SSD方法:采用SSD检测器对数据集D进行目标检测;
(5)Yolov3方法:采用Yolov3算法对数据集D进行目标检测;
(6)本发明方法,对数据集D进行目标检测。
对比结果如下表1
表1:不同方法得到的mAP指标对比结果
(1)本方法在当前噪声标注问题设置下优于遥感图像目标检测领域其他常用高效目标检测器和Baseline,且在该问题设置下的大多数情况明显优于Finetuning,这表明了本方法有效抑制了大量不精确边界框标注数据对遥感图像目标检测造成的性能弱化。
(2)本发明方法,在噪声偏移0.9时效果最为明显,相比Baseline超出7.7%,相比于Finetuning超出3.9%。这表明了本方法在不精确边界框标注数据更多、边界框标注精确程度更差的情况下相比于其他方法更具优势。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。
Claims (8)
1.一种基于自适应权重的遥感图像噪声标注的目标检测方法,其特征在于:包括以下步骤;
(1)大量获取遥感图像标注数据构成数据集D,所述遥感图像标注数据为标注了目标类别c和目标框b的遥感图像切片,每个切片仅包含一目标,对每个切片,判断其目标是否完全被目标框包含,若是,则将该切片作为无噪声样本,将所有无噪声样本构成无噪声数据集D C ;
(2)构建一Faster R-CNN网络和一自适应权重网络;
所述Faster R-CNN网络用于对切片提取图片特征,对图片特征中的目标生成区域建议框d,并根据区域建议框d内的特征r输出目标的预测类别和预测目标框;所述自适应权重网络用于输入区域建议框d内的特征r,并输出区域建议框d的置信度;
(3)训练Faster R-CNN网络得到基础检测模型m1;
将数据集D中的切片作为输入,该切片的标注为期望输出,训练Faster R-CNN网络,得到基础检测模型m1,其网络权重为ω* 1;
(4)训练自适应权重网络得到其最优权重系数θ * ;
将无噪声数据集D C 中的切片输入m1,获取m1中区域建议框d内的特征r,输入自适应权重网络中,输出d的置信度,并通过下式优化自适应权重网络,得到其最优权重参数θ * ;
式中,θ为每次训练得到的自适应权重网络的权重参数,/>是输入特征为r、权重参数为θ时自适应权重网络的输出,fit(d,b)为区域建议框d的置信度标签,L confidence 为计算和fit(d,b)间的损失函数;
(5)调整基础检测模型m1,得到目标检测模型m2;
自适应权重网络采用最优权重系数θ * ,将数据集D中切片送入基础检测模型m1,获取m1中区域建议框d内的特征r,输入自适应权重网络中得到该切片对应的置信度z,并将z作为m1中预测目标框的训练权重,训练m1,得到目标检测模型m2。
2.根据权利要求1所述的基于自适应权重的遥感图像噪声标注的目标检测方法,其特征在于:还包括步骤(6)用m2对遥感图像切片内的目标进行识别,并输出目标的预测类别和预测目标框。
3.根据权利要求1所述的基于自适应权重的遥感图像噪声标注的目标检测方法,其特征在于:数据集D中的切片,除无噪声样本,其余均为噪声样本,构成噪声数据集DN,DN中切片多于DC。
4.根据权利要求1所述的基于自适应权重的遥感图像噪声标注的目标检测方法,其特征在于:步骤(3)中,所述基础检测模型m1的网络权重ω* 1通过下式获得;
7.根据权利要求1所述的基于自适应权重的遥感图像噪声标注的目标检测方法,其特征在于:步骤(5)中,将d作为m1中预测目标框的训练权重,训练m1,得到目标检测模型m2,具体为,m2的网络权重ω * 2通过下式获得;
式中,x为输入的切片,Ψ(x;θ * )是输入为x经m1得到的特征、权重参数采用θ * 时自适应权重网络的输出,ω 2为m2的网络参数,Φ(Ψ(x;θ * );ω 2)为训练得到m2过程中的输出,y为目标的标注,包含类别c和目标框b,L multi 为训练得到m2过程中的损失函数,通过下式计算:
8.根据权利要求1所述的基于自适应权重的遥感图像噪声标注的目标检测方法,其特征在于:所述步骤(4)中,ρ=0.1,用其控制自适应权重网络平衡。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310603585.5A CN116343050B (zh) | 2023-05-26 | 2023-05-26 | 基于自适应权重的遥感图像噪声标注的目标检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310603585.5A CN116343050B (zh) | 2023-05-26 | 2023-05-26 | 基于自适应权重的遥感图像噪声标注的目标检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN116343050A true CN116343050A (zh) | 2023-06-27 |
CN116343050B CN116343050B (zh) | 2023-08-01 |
Family
ID=86889780
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310603585.5A Active CN116343050B (zh) | 2023-05-26 | 2023-05-26 | 基于自适应权重的遥感图像噪声标注的目标检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116343050B (zh) |
Citations (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019136946A1 (zh) * | 2018-01-15 | 2019-07-18 | 中山大学 | 基于深度学习的弱监督显著性物体检测的方法及系统 |
CN110956185A (zh) * | 2019-11-21 | 2020-04-03 | 大连理工大学人工智能大连研究院 | 一种图像显著目标的检测方法 |
CN111667424A (zh) * | 2020-05-28 | 2020-09-15 | 武汉大学 | 一种基于无监督的真实图像去噪方法 |
CN112395975A (zh) * | 2020-11-17 | 2021-02-23 | 南京泓图人工智能技术研究院有限公司 | 一种基于旋转区域生成网络的遥感图像目标检测方法 |
US20210150283A1 (en) * | 2019-11-15 | 2021-05-20 | Salesforce.Com, Inc. | Noise-Resistant Object Detection with Noisy Annotations |
CN114186615A (zh) * | 2021-11-22 | 2022-03-15 | 浙江华是科技股份有限公司 | 船舶检测半监督在线训练方法、装置及计算机存储介质 |
CN114266945A (zh) * | 2022-02-28 | 2022-04-01 | 粤港澳大湾区数字经济研究院(福田) | 一种目标检测模型的训练方法、目标检测方法及相关装置 |
CN114387484A (zh) * | 2022-01-11 | 2022-04-22 | 华南农业大学 | 一种基于yolov4改进的口罩佩戴检测方法及系统 |
CN114821299A (zh) * | 2022-03-28 | 2022-07-29 | 西北工业大学 | 一种遥感图像变化检测方法 |
WO2022185899A1 (ja) * | 2021-03-05 | 2022-09-09 | 日本電気株式会社 | 情報処理装置、情報処理方法、検知モデルの製造方法、およびプログラム |
CN115205689A (zh) * | 2022-09-14 | 2022-10-18 | 北京数慧时空信息技术有限公司 | 一种改进的无监督遥感影像异常检测方法 |
CN115331079A (zh) * | 2022-08-22 | 2022-11-11 | 西安理工大学 | 一种面向多模态遥感图像分类网络的对抗攻击方法 |
CN115659183A (zh) * | 2022-11-11 | 2023-01-31 | 歌尔股份有限公司 | 产品检测方法、装置、设备及存储介质 |
CN115713111A (zh) * | 2021-08-18 | 2023-02-24 | 富士通株式会社 | 用于训练对象检测模型的方法及对象检测方法 |
-
2023
- 2023-05-26 CN CN202310603585.5A patent/CN116343050B/zh active Active
Patent Citations (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019136946A1 (zh) * | 2018-01-15 | 2019-07-18 | 中山大学 | 基于深度学习的弱监督显著性物体检测的方法及系统 |
US20210150283A1 (en) * | 2019-11-15 | 2021-05-20 | Salesforce.Com, Inc. | Noise-Resistant Object Detection with Noisy Annotations |
CN110956185A (zh) * | 2019-11-21 | 2020-04-03 | 大连理工大学人工智能大连研究院 | 一种图像显著目标的检测方法 |
CN111667424A (zh) * | 2020-05-28 | 2020-09-15 | 武汉大学 | 一种基于无监督的真实图像去噪方法 |
CN112395975A (zh) * | 2020-11-17 | 2021-02-23 | 南京泓图人工智能技术研究院有限公司 | 一种基于旋转区域生成网络的遥感图像目标检测方法 |
WO2022185899A1 (ja) * | 2021-03-05 | 2022-09-09 | 日本電気株式会社 | 情報処理装置、情報処理方法、検知モデルの製造方法、およびプログラム |
CN115713111A (zh) * | 2021-08-18 | 2023-02-24 | 富士通株式会社 | 用于训练对象检测模型的方法及对象检测方法 |
CN114186615A (zh) * | 2021-11-22 | 2022-03-15 | 浙江华是科技股份有限公司 | 船舶检测半监督在线训练方法、装置及计算机存储介质 |
CN114387484A (zh) * | 2022-01-11 | 2022-04-22 | 华南农业大学 | 一种基于yolov4改进的口罩佩戴检测方法及系统 |
CN114266945A (zh) * | 2022-02-28 | 2022-04-01 | 粤港澳大湾区数字经济研究院(福田) | 一种目标检测模型的训练方法、目标检测方法及相关装置 |
CN114821299A (zh) * | 2022-03-28 | 2022-07-29 | 西北工业大学 | 一种遥感图像变化检测方法 |
CN115331079A (zh) * | 2022-08-22 | 2022-11-11 | 西安理工大学 | 一种面向多模态遥感图像分类网络的对抗攻击方法 |
CN115205689A (zh) * | 2022-09-14 | 2022-10-18 | 北京数慧时空信息技术有限公司 | 一种改进的无监督遥感影像异常检测方法 |
CN115659183A (zh) * | 2022-11-11 | 2023-01-31 | 歌尔股份有限公司 | 产品检测方法、装置、设备及存储介质 |
Non-Patent Citations (9)
Also Published As
Publication number | Publication date |
---|---|
CN116343050B (zh) | 2023-08-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108647583B (zh) | 一种基于多目标学习的人脸识别算法训练方法 | |
CN110135522B (zh) | 一种检测与标注遥感图像小目标一体化的智能方法 | |
CN110851645B (zh) | 一种基于深度度量学习下相似性保持的图像检索方法 | |
CN107515895A (zh) | 一种基于目标检测的视觉目标检索方法与系统 | |
WO2018227800A1 (zh) | 一种神经网络训练方法及装置 | |
CN104933428B (zh) | 一种基于张量描述的人脸识别方法及装置 | |
CN110619059B (zh) | 一种基于迁移学习的建筑物标定方法 | |
CN113642574A (zh) | 基于特征加权与网络微调的小样本目标检测方法 | |
CN112132005A (zh) | 一种基于聚类分析与模型压缩的人脸检测方法 | |
CN108133235A (zh) | 一种基于神经网络多尺度特征图的行人检测方法 | |
CN112912902A (zh) | 人工神经网络和利用表观遗传神经发生训练人工神经网络的方法 | |
CN108877947A (zh) | 基于迭代均值聚类的深度样本学习方法 | |
CN114049515A (zh) | 图像分类方法、系统、电子设备和存储介质 | |
CN114842343A (zh) | 一种基于ViT的航空图像识别方法 | |
CN115357805A (zh) | 一种基于内外部视角的群组推荐方法 | |
CN115063664A (zh) | 用于工业视觉检测的模型学习方法、训练方法及系统 | |
CN114612658A (zh) | 基于双重类别级对抗网络的图像语义分割方法 | |
CN113762049B (zh) | 内容识别方法、装置、存储介质和终端设备 | |
TW202022717A (zh) | 動態預測模型建立方法、電子裝置及使用者介面 | |
CN116343050B (zh) | 基于自适应权重的遥感图像噪声标注的目标检测方法 | |
CN106951888B (zh) | 人脸特征点的相对坐标约束方法以及定位方法 | |
CN116542912A (zh) | 一种多目标视觉跟踪的柔性体桥梁振动检测模型、应用 | |
CN113724325B (zh) | 一种基于图卷积网络的多场景单目相机位姿回归方法 | |
CN109409415A (zh) | 一种基于全局信息保持的lle算法 | |
CN115601745A (zh) | 一种面向应用端的多视图三维物体识别方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |