CN115937703A - 一种用于遥感图像目标检测的增强特征提取方法 - Google Patents
一种用于遥感图像目标检测的增强特征提取方法 Download PDFInfo
- Publication number
- CN115937703A CN115937703A CN202211523308.5A CN202211523308A CN115937703A CN 115937703 A CN115937703 A CN 115937703A CN 202211523308 A CN202211523308 A CN 202211523308A CN 115937703 A CN115937703 A CN 115937703A
- Authority
- CN
- China
- Prior art keywords
- network
- image
- module
- image block
- target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 37
- 238000000605 extraction Methods 0.000 title claims abstract description 19
- 238000000034 method Methods 0.000 claims abstract description 27
- 238000012549 training Methods 0.000 claims abstract description 21
- 230000000694 effects Effects 0.000 claims abstract description 17
- 238000002474 experimental method Methods 0.000 claims abstract description 11
- 230000006872 improvement Effects 0.000 claims abstract description 11
- 238000002679 ablation Methods 0.000 claims abstract description 8
- 230000006870 function Effects 0.000 claims description 36
- 230000007246 mechanism Effects 0.000 claims description 9
- 238000002372 labelling Methods 0.000 claims description 8
- 238000004364 calculation method Methods 0.000 claims description 6
- 238000005315 distribution function Methods 0.000 claims description 6
- 238000012545 processing Methods 0.000 claims description 6
- 230000008569 process Effects 0.000 claims description 4
- 238000012937 correction Methods 0.000 claims description 3
- 230000004927 fusion Effects 0.000 claims description 3
- 238000000638 solvent extraction Methods 0.000 claims description 3
- 238000013527 convolutional neural network Methods 0.000 claims description 2
- 238000012216 screening Methods 0.000 claims description 2
- 230000000007 visual effect Effects 0.000 description 3
- 238000010191 image analysis Methods 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 230000004913 activation Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
- 230000004304 visual acuity Effects 0.000 description 1
Images
Classifications
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Image Analysis (AREA)
Abstract
本发明公开了一种用于遥感图像目标检测的增强特征提取方法,涉及图像识别领域,包括以下步骤:S1、获取图片,标注数据,配置YOLOV4网络运行环境;S2、改进网络,添加新模型,划分识别区域,配置权重并选择合适的样本进入网络训练;S3、改进网络中特征识别部分,替换特征检测模块,引入新的注意力模块;S4、改进损失函数;S5、消融实验检验改进点,控制变量法检验改进网络的有效性。本发明通过改进识别网络和检测模块,引入新注意力模块和改进损失函数,解决了小目标检测精度低问题,提高了对遥感图像中小目标的检测效果,使得检测更加准确。
Description
技术领域
本发明涉及图像识别领域,具体为一种用于遥感图像目标检测的增强特征提取方法。
背景技术
遥感图像是指记录各地物电磁波大小的胶片或者照片,遥感图像在日常生活中越来越常见,基于深度学习的遥感图像分析已经成为当前研究的热点之一;
图像增强是改善图像视觉效果的处理,对目的图像数据进行加工,可以提高图像的可判读性;对图像进行变换,突出其具有代表性的特征的方法,叫做特征提取,现有的遥感图像分析能够有效识别物体,早期的一些工作提取特征,即Faster-RCNN、SSD和YOLOv5,取得了一定成功,但是,由于小物体本身包含的信息少,且存在明显的位置偏差,对于遥感图像来说,很难有效地检测小物体。
现本发明提供一种用于遥感图像目标检测的增强特征提取方法来有效提高小目标检测的性能。
发明内容
本发明的目的在于提供一种用于遥感图像目标检测的增强特征提取方法,以解决上述背景技术中提出的问题。
为实现上述目的,本发明提供如下技术方案:一种用于遥感图像目标检测的增强特征提取方法,该增强特征提取方法包括以下步骤:
S1、获取图片,标注数据,配置YOLOV4网络运行环境;
S2、改进网络结构,添加新模型,划分识别区域,配置权重并选择合适的样本进入网络训练;
S3、改进网络中特征识别部分,替换特征检测模块,引入新的注意力模块;
S4、改进损失函数;
S5、消融实验检验改进点,控制变量法检验改进网络的有效性。
根据上述技术方案,在步骤S1中,对采集的遥感视频进行抽帧提取,每隔n秒抽取一帧作为处理用图像,得到图像数据,并对图像进行初次筛选,将不含目标物的图像去除,取出含有较多目标物有效信息的的图像,利用标注软件对图像进行标注,每张图像生成对应的标注文件,对应每张图像,标注文件应进行同名命名处理,其中VOC标签格式保存为xml文件,yolo标签格式保存为txt文件,createML标签格式保存为json文件;生成img文件夹存放图片,生成label文件夹存放标注文件,标注文件用于存储关键信息,存储对应图像的对象类别、对象坐标、标注框位置、图像的高度和宽度,以便后期进行特征提取;配置YOLOV4网络运行环境,YOLOV4算法从数据处理、主干网络、网络训练、激活函数和损失函数进行了不同程度的优化,开发了一个高效的模型,可以用来训练一个快速且精准的目标检测器;将网络运行所需要的包导入到运行环境中,对网络进行预训练,通过一个数据集上训练好的卷积神经网络进行训练,得到一个训练权重,计算网络的mAP精度,TP表示预测与真实标注框保持一致的情况,FP表示预测与真实标注框不符合的情况,通过计算mAP精度验证环境配置是否成功,通过预训练,使得该网络可以正常的训练预测标注得到的图片。
根据上述技术方案,在步骤S2中,对YOLOV4网络结构进行改进;在YOLOV4网络的主干特征提取部分添加RFBA模块,RFB模块由多分支卷积层以及膨胀卷积层组成,不同感受野具备不同的离心率,使用膨胀卷积核,不同膨胀比例对应不同尺寸的空洞,膨胀比例越大,空洞尺寸越大,采样点离中心点越远,感受野就越大,将不同尺寸和膨胀比例的卷积层输出连接concat,达到融合不同特征,由于每层的感受野是固定的,扩大感受野会损失一些信息,失去对不同视野的分辨能力,RFBA模块通过将原始RFB模块中的膨胀卷积替换为普通卷积来实现,来保证信息尽可能不被丢失;划分不同的识别区域,将图像大小调整为原始网络输入图像大小的倍数,根据原始网络输入图像的大小,划分为若干识别区域A1,A2,A3···Ai···An;Ai标识第i个划分域,对划分区域进行标识分类,若划分过程中处于边界上的物体被划分到两个不同的识别区域Ai和Ai+1中,导致划分域中的目标物体不完整,则删除这些包含不完整目标物体的划分域,并在划分中点处添加一个新的检测域,解决了图像大小调整导致的信息丢失问题,并且该划分方法完整保留来了目标物体的信息;根据当前图像块中是否存在识别目标物和领域图像块中是否存在识别目标物来计算权重,若当前图像块不存在识别目标物且领域图像块内也不存在,则当前图像块是冗余图像块,去除冗余图像块;若当前图像块不存在目标,则根据领域内是否存在目标物为其设置权重;若当前图像块存在目标物,则该图像块是重要的识别域;权重公式为Wi=n+(nileft+niright+niup+nidown)*γ,Wi表示第i个图像块的权重,n表示当前图像块中目标物的数量,nileft、niright、niup和nidown表示当前图像块领域中的目标物的数量,γ是超参数,用于对网络调优;根据权重选择合适样本进入网络训练。
根据上述技术方案,在步骤S3中,改进网络中特征识别部分,将网络中的特征检测模块替换为RFB模块,以扩大网络的感受野,获取多尺度信息;将RFB模块中的空洞卷积替换为普通卷积,保留信息的连续性,进一步保留物体的特征,在特征融合时引入CBAM注意力模块,CBAM注意力模块混合注意力通道和空间注意力,序列化地在通道和空间两个维度上产生注意力特征图信息,特征图先进入注意力通道,基于特征图的宽和高进行开源数学运算库的运算,计算得到通道的注意力权重,然后通过Sigmoid函数获得归一化注意力权重,最后通过乘法逐通道加权到原始输入特征图上,完成通道注意力对原始特征的重新标定,两种特征图信息在之前原输入特征图上进行相乘进行自适应特征修正,产生最后的特征图,达到减少网络中的参数量使得网络更加关注目标物体的效果。
根据上述技术方案,在步骤S4中,改进损失函数,替换原有的损失函数,新的损失函数更加有效来解决位置的偏差问题;原损失函数为 其中IOU是一种测量在特定数据集中检测相应物体准确度的一个标准,wgti和hgti表示真实框的宽和高,xgti和ygti表示真实框中心点的坐标,wi和hi表示预测框的宽和高,xi和yi表示预测框中心点的坐标;代表了预测框和真实框的中心点的欧式距离;v用来度量长宽比的相似性,α表示权重函数,现替换为新损失函数GKCLOSS=KLdistance+CIOU;其中
p(x)表示预测框的高斯分布函数,q(x)表示真实框的高斯分布函数,Ep代表的数学期望。
根据上述技术方案,在步骤S5中,通过消融实验检验三个改进点:
S501:运行原YOLOV4网络,计算mAP精度;
S502:在原YOLOV4网络上改进RFB模块,替换为RFBA模块,计算mAP精度;
S503:在S502基础上,改进损失函数,替换为GCKLoss函数,计算mAP精度;
S504:在S503基础上,引入新的划分机制,计算mAP精度;
通过控制变量法,对比不同网络在数据集上的变现效果来验证网络改进的有效性,实验采用windows系统,设置迭代次数z,前m次迭代次数初始学习率设置为a,后n次迭代次数初始学习率为b,初始参数设置一致,运行SSD、yolov5、yolov7、Faster RCNN等网络并比对效果;通过在网络的不同特征层添加已改进的RFB模块,将模块中的空洞卷积替换为普通卷积,
并将最后一层改写为CBAM注意力机制,运行相同的网络结构并比对效果;
只替换原有的损失函数,运行相同的网络并对比效果;
与现有技术相比,本发明的有益效果是:
1.本发明通过改进网络结构,利用不同大小的卷积核扩展了网络的接收域,保护了信息的连续性和有效性,通过引进新的分割机制来改进数据预处理过程,解决了图像大小调整导致的信息丢失问题,最大程度保留了目标物的信息,减少了无效信息的冗余计算,并通过设置多个检测域,精准划分,选择了最合适的样本进入网络训练。
2.本发明通过改进网络中的特征识别部分,扩大了网络的感受野,进一步保留了物体的特征,引入了新的注意力机制,使得网络更加关注重点特征,突出了有效信息。
3.本发明通过改进损失函数公式,更加精准地计算了预测与实际数据的差距程度,有效缓解了小物体对位置变化敏感的问题,对小物体检测更有效。
4.本发明通过设置消融实验,检验了三个改进点的实际效果,验证了该方法的实际效果。
附图说明
附图用来提供对本发明的进一步理解,并且构成说明书的一部分,与本发明的实施例一起用于解释本发明,并不构成对本发明的限制。在附图中:
图1为本发明一种用于遥感图像目标检测的特征增强提取方法的步骤示意图;
图2为本发明一种用于遥感图像目标检测的特征增强提取方法的注意力机制图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
如图1~图2所示,本发明提供如下技术方案:一种用于遥感图像目标检测的增强特征提取方法,该增强特征提取方法包括以下步骤:
S1、获取图片,标注数据,配置YOLOV4网络运行环境;
S2、改进网络结构,添加新模型,划分识别区域配置权重并选择合适的样本进入网络训练;
S3、改进网络中特征识别部分,替换特征检测模块,引入新的注意力模块;
S4、改进损失函数;
S5、消融实验检验改进点,控制变量法检验改进网络的有效性。
对采集的遥感视频进行抽帧提取,每隔n秒抽取一帧作为处理用图像,得到图像数据,并对图像进行初次筛选,将不含目标物的图像去除,取出含有较多目标物有效信息的的图像,利用标注软件对图像进行标注,每张图像生成对应的标注文件,对应每张图像,标注文件应进行同名命名处理,其中VOC标签格式保存为xml文件,yolo标签格式保存为txt文件,createML标签格式保存为json文件;生成img文件夹存放图片,生成label文件夹存放标注文件,标注文件用于存储关键信息,存储对应图像的对象类别、对象坐标、标注框位置、图像的高度和宽度,以便后期进行特征提取;配置YOLOV4网络运行环境;将网络运行所需要的包导入到运行环境中,对网络进行预训练,通过一个数据集上训练好的卷
表示预测与真实标注框保持一致的情况,FP表示预测与真实标注框不符合的情况,通过计算mAP精度可以验证环境配置是否成功,通过预训练,使得该网络可以正常的训练预测标注得到的图片。
在步骤S2中,对YOLOV4网络结构进行改进;在YOLOV4网络的主干特征提取部分添加RFBA模块,RFB模块由多分支卷积层以及膨胀卷积层组成,不同感受野具备不同的离心率,使用膨胀卷积核,不同膨胀比例对应不同尺寸的空洞,膨胀比例越大,空洞尺寸越大,采样点离中心点越远,感受野就越大,将不同尺寸和膨胀比例的卷积层输出连接concat,达到融合不同特征,由于每层的感受野是固定的,扩大感受野会损失一些信息,失去对不同视野的分辨能力,RFBA模块通过将原始RFB模块中的膨胀卷积替换为普通卷积来实现,来保证信息不被丢失;划分不同的识别区域,将图像大小调整为原始网络输入图像大小的倍数,根据原始网络输入图像的大小,划分为若干识别区域A1,A2,A3···Ai···An;Ai标识第i个划分域,对划分区域进行标识分类,若划分过程中处于边界上的物体被划分到两个不同的识别区域Ai和Ai+1中,导致划分域中的目标物体不完整,则删除这些包含不完整目标物体的划分域,并在划分中点处添加一个新的检测域;根据当前图像块中是否存在识别目标物和领域图像块中是否存在识别目标物来计算权重,若当前图像块不存在识别目标物且领域图像块内也不存在,则当前图像块是冗余图像块,去除冗余图像块;若当前图像块不存在目标,则根据领域内是否存在目标物为其设置权重;若当前图像块存在目标物,则该图像块是重要的识别域;权重公式为Wi=n+(nileft+niright+niup+nidown)*γ,Wi表示第i个图像块的权重,n表示当前图像块中目标物的数量,nileft、niright、niup和nidown表示当前图像块领域中的目标物的数量,γ是超参数;根据权重选择合适样本进入网络训练。
在步骤S3中,改进网络中特征识别部分,将网络中的特征检测模块替换为RFB模块,以扩大网络的感受野,获取多尺度信息;将RFB模块中的空洞卷积替换为普通卷积,保留信息的连续性,进一步保留物体的特征,在特征融合时引入CBAM注意力模块,CBAM注意力模块混合注意力通道和空间注意力,序列化地在通道和空间两个维度上产生注意力特征图信息,特征图先进入注意力通道,基于特征图的宽和高进行开源数学运算库的运算,计算得到通道的注意力权重,然后通过Sigmoid函数获得归一化注意力权重,最后通过乘法逐通道加权到原始输入特征图上,完成通道注意力对原始特征的重新标定,两种特征图信息在之前原输入特征图上进行相乘进行自适应特征修正,产生最后的特征图,提取重要信息,减少网络中的参数量使得网络更加关注目标物体。
在步骤S4中,改进损失函数,替换原有的损失函数,原损失函数为其中IOU是一种测量在特定数据集中检测相应物体准确度的一个标准,wgti和hgti表示真实框的宽和高,xgti和ygti表示真实框中心点的坐标,wi和hi表示预测框的宽和高,xi和yi表示预测框中心点的坐标;代表了预测框和真实框的中心点的欧式距离;v用来度量长宽比的相似性, α表示权重函数,现替换为新损失函数GKCLOSS=KLdistance+CIOU;其中 p(x)表示预测框的高斯分布函数,q(x)表示真实框的高斯分布函数,Ep代表的数学期望。
在步骤S5中,通过消融实验检验三个改进点;
S501:运行原YOLOV4网络,计算mAP精度;
S502:在原YOLOV4网络上改进RFB模块,替换为RFBA模块,计算mAP精度;
S503:在S502基础上,改进损失函数,替换为GCKLoss函数,计算mAP精度;
S504:在S503基础上,引入新的划分机制,计算mAP精度;
通过控制变量法,对比不同网络在数据集上的变现效果来验证网络改进的有效性,实验采用windows系统,设置迭代次数z,前m次迭代次数初始学习率设置为a,后n次迭代次数初始学习率为b,初始参数设置一致,运行SSD、yolov5、yolov7、Faster RCNN等网络并比对效果;通过在网络的不同特征层添加已改进的RFB模块,将模块中的空洞卷积替换为普通卷积,
并将最后一层改写为CBAM注意力机制,运行相同的网络结构并比对效果;
只替换原有的损失函数,运行相同的网络并对比效果;
实施例一:
在数据增强部分对网络做出改进,去除网络中原有的调整图片大小的模块,改为区域划分块,将图片划分为多个检测区域,改变相应的标注框,将一张图划分为多个待训练的样本,按照权重分配公式Wi=n+(nileft+niright+niup+nidown)*γ,给样本配置权重;将1920*1080大小的图像进行裁剪,获取目标物所在区域,去除冗余区域,得到1664*832大小的图像,按照划分原则,根据权重分配公式计算每块样本的权重,选取进入网络中训练的样本。
将该图像划分为4块416*416大小的待训练样本=对应的样本内目标物数量为
计算A1样本的权重W1=1+(0+0+0+4)*0.7=3.8;
计算A2样本的权重W2=0+(1+0+0+2)*0.7=2.1;
计算A3样本的权重W3=4+(1+0+0+2)*0.7=6.1;
计算A4样本的权重W4=2+(0+0+0+4)*0.7=4.4;
A3样本权重最高,具有最大的训练价值;
实施例二:
通过对网络做出改进来提高遥感图像中小目标的检测效果,在网络的416*416、208*208、104*104、56*56的特征层中添加已经改进的RFB模块,即RFBA模块,将模块中的空洞卷积替换为普通卷积,并且将最后一层改写为CBAM注意力机制,运行现有的网络结构并对比;
经过RFBA模块,将卷积替换后,mAP从37.24%提升到37.81%;
实施例三:
采用控制变量法验证改进网络的有效性;采用Windows系统,设置迭代次数为300,前150个迭代次数初始学习值为0.0001,后150个迭代次数初始学习值为0.001,保证参数一致后,运行SSD、YOLOv5、YOLOv7、Faster RCNN等网络,mAP精度如下:
可见,改进后的网络mAP精度提升较大,检测效果更好。
Claims (6)
1.一种用于遥感图像目标检测的增强特征提取方法,其特征在于:该目标检测的增强特征提取方法包括以下步骤:
S1、获取图片,标注数据,配置YOLOV4网络运行环境;
S2、改进网络结构,添加新模型,划分识别区域,配置权重并选择合适的样本进入网络训练;
S3、改进网络中特征识别部分,替换特征检测模块,引入新的注意力模块;
S4、改进损失函数;
S5、消融实验检验改进点,控制变量法检验改进网络的有效性。
2.根据权利要求1所述的一种用于遥感图像目标检测的增强特征提取方法,其特征在于:在步骤S1中,对采集的遥感视频进行抽帧提取,每隔n秒抽取一帧作为处理用图像,得到图像数据,并对图像进行初次筛选,将不含目标物的图像去除,取出含有较多目标物有效信息的的图像,利用标注软件对图像进行标注,每张图像生成对应的标注文件,对应每张图像,标注文件应进行同名命名处理,其中VOC标签格式保存为xml文件,yolo标签格式保存为txt文件,createML标签格式保存为json文件;生成img文件夹存放图片,生成label文件夹存放标注文件,标注文件用于存储关键信息,存储对应图像的对象类别、对象坐标、标注框位置、图像的高度和宽度;配置YOLOV4网络运行环境;将网络运行所需要的包导入到运行环境中,对网络进行预训练,通过一个数据集上训练好的卷积神经网络进行训练,得到一个训练权重,计算网络的mAP精度,其中TP表示预测与真实标注框保持一致的情况,FP表示预测与真实标注框不符合的情况。
3.根据权利要求2所述的一种用于遥感图像目标检测的增强特征提取方法,其特征在于:在步骤S2中,对YOLOV4网络结构进行改进;在YOLOV4网络的主干特征提取部分添加RFBA模块,RFB模块由多分支卷积层以及膨胀卷积层组成,使用膨胀卷积核,不同膨胀比例对应不同尺寸的空洞,将不同尺寸和膨胀比例的卷积层输出连接concat,融合不同特征,现RFBA模块将原始RFB模块中的膨胀卷积替换为普通卷积;划分不同的识别区域,将图像大小调整为原始网络输入图像大小的倍数,根据原始网络输入图像的大小,划分为若干识别区域A1,A2,A3…Ai…An;Ai标识第i个划分域,对划分区域进行标识分类,若划分过程中处于边界上的物体被划分到两个不同的识别区域Ai和Ai+1中,导致划分域中的目标物体不完整,则删除这些包含不完整目标物体的划分域,并在划分中点处添加一个新的检测域;根据当前图像块中是否存在识别目标物和领域图像块中是否存在识别目标物来计算权重,若当前图像块不存在识别目标物且领域图像块内也不存在,则当前图像块是冗余图像块,去除冗余图像块;若当前图像块不存在目标,则根据领域内是否存在目标物为其设置权重;若当前图像块存在目标物,则该图像块是重要的识别域;权重公式为Wi=n+(nileft+niright+niup+nidown)*γ,Wi表示第i个图像块的权重,n表示当前图像块中目标物的数量,nileft、niright、niup和nidown表示当前图像块领域中的目标物的数量,γ是超参数;根据权重选择合适样本进入网络训练。
4.根据权利要求3所述的一种用于遥感图像目标检测的增强特征提取方法,其特征在于:在步骤S3中,改进网络中特征识别部分,将网络中的特征检测模块替换为RFB模块,扩大网络的感受野;将RFB模块中的空洞卷积替换为普通卷积,在特征融合时引入CBAM注意力模块,CBAM注意力模块混合注意力通道和空间注意力,序列化地在通道和空间两个维度上产生注意力特征图信息,特征图先进入注意力通道,基于特征图的宽和高进行开源数学运算库的运算,计算得到通道的注意力权重,然后通过Sigmoid函数获得归一化注意力权重,最后通过乘法逐通道加权到原始输入特征图上,重新标定通道对原始特征的注意力,两种特征图信息在之前原输入特征图上进行相乘进行自适应特征修正,产生最后的特征图。
6.根据权利要求5所述的一种用于遥感图像目标检测的增强特征提取方法,其特征在于:在步骤S5中,通过消融实验检验三个改进点:S501:运行原YOLOV4网络,计算mAP精度;S502:在原YOLOV4网络上改进RFB模块,替换为RFBA模块,计算mAP精度;S503:在S502基础上,改进损失函数,替换为GCKLoss函数,计算mAP精度;S504:在S503基础上,引入新的划分机制,计算mAP精度;通过控制变量法来验证网络改进的有效性,实验采用windows系统,设置迭代次数z,前m次迭代次数初始学习率设置为a,后n次迭代次数初始学习率为b,初始参数设置一致,运行SSD、yolov5、yolov7、Faster RCNN等网络并比对效果;通过在网络的不同特征层添加已改进的RFB模块,将模块中的空洞卷积替换为普通卷积,并将最后一层改写为CBAM注意力机制,运行相同的网络结构并比对效果;只替换原有的损失函数,运行相同的网络并对比效果。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211523308.5A CN115937703B (zh) | 2022-11-30 | 2022-11-30 | 一种用于遥感图像目标检测的增强特征提取方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211523308.5A CN115937703B (zh) | 2022-11-30 | 2022-11-30 | 一种用于遥感图像目标检测的增强特征提取方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN115937703A true CN115937703A (zh) | 2023-04-07 |
CN115937703B CN115937703B (zh) | 2024-05-03 |
Family
ID=86648520
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211523308.5A Active CN115937703B (zh) | 2022-11-30 | 2022-11-30 | 一种用于遥感图像目标检测的增强特征提取方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115937703B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116778227A (zh) * | 2023-05-12 | 2023-09-19 | 昆明理工大学 | 基于红外图像与可见光图像的目标检测方法、系统及设备 |
CN117197781A (zh) * | 2023-11-03 | 2023-12-08 | 之江实验室 | 一种交通标志识别的方法、装置、存储介质及电子设备 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112949633A (zh) * | 2021-03-05 | 2021-06-11 | 中国科学院光电技术研究所 | 一种基于改进YOLOv3的红外目标检测方法 |
CN114120019A (zh) * | 2021-11-08 | 2022-03-01 | 贵州大学 | 一种轻量化的目标检测方法 |
CN114187491A (zh) * | 2022-02-17 | 2022-03-15 | 中国科学院微电子研究所 | 一种遮挡物体检测方法和装置 |
US20220198181A1 (en) * | 2020-12-17 | 2022-06-23 | Wistron Corp. | Object identification device and object identification method |
CN114708566A (zh) * | 2022-04-05 | 2022-07-05 | 哈尔滨理工大学 | 一种基于改进YOLOv4的自动驾驶目标检测方法 |
CN114882368A (zh) * | 2022-06-02 | 2022-08-09 | 西安电子科技大学 | 非平衡高光谱图像分类方法 |
CN115171074A (zh) * | 2022-07-08 | 2022-10-11 | 哈尔滨理工大学 | 一种基于多尺度yolo算法的车辆目标识别方法 |
CN115205264A (zh) * | 2022-07-21 | 2022-10-18 | 南京工程学院 | 一种基于改进YOLOv4的高分辨率遥感船舶检测方法 |
-
2022
- 2022-11-30 CN CN202211523308.5A patent/CN115937703B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20220198181A1 (en) * | 2020-12-17 | 2022-06-23 | Wistron Corp. | Object identification device and object identification method |
CN112949633A (zh) * | 2021-03-05 | 2021-06-11 | 中国科学院光电技术研究所 | 一种基于改进YOLOv3的红外目标检测方法 |
CN114120019A (zh) * | 2021-11-08 | 2022-03-01 | 贵州大学 | 一种轻量化的目标检测方法 |
CN114187491A (zh) * | 2022-02-17 | 2022-03-15 | 中国科学院微电子研究所 | 一种遮挡物体检测方法和装置 |
CN114708566A (zh) * | 2022-04-05 | 2022-07-05 | 哈尔滨理工大学 | 一种基于改进YOLOv4的自动驾驶目标检测方法 |
CN114882368A (zh) * | 2022-06-02 | 2022-08-09 | 西安电子科技大学 | 非平衡高光谱图像分类方法 |
CN115171074A (zh) * | 2022-07-08 | 2022-10-11 | 哈尔滨理工大学 | 一种基于多尺度yolo算法的车辆目标识别方法 |
CN115205264A (zh) * | 2022-07-21 | 2022-10-18 | 南京工程学院 | 一种基于改进YOLOv4的高分辨率遥感船舶检测方法 |
Non-Patent Citations (2)
Title |
---|
ZHAOHUI ZHENG ET AL.: "Enhancing Geometric Factors in Model Learning and Inference for Object Detection and Instance Segmentation", 《IEEE TRANSACTIONS ON CYBERNETICS》, vol. 52, no. 8, 31 August 2022 (2022-08-31), XP011914782, DOI: 10.1109/TCYB.2021.3095305 * |
贾晓雅 等: "基于YOLO框架的无锚框SAR图像舰船目标检测", 《系统工程与电子技术》, vol. 44, no. 12, 27 February 2022 (2022-02-27) * |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116778227A (zh) * | 2023-05-12 | 2023-09-19 | 昆明理工大学 | 基于红外图像与可见光图像的目标检测方法、系统及设备 |
CN116778227B (zh) * | 2023-05-12 | 2024-05-10 | 昆明理工大学 | 基于红外图像与可见光图像的目标检测方法、系统及设备 |
CN117197781A (zh) * | 2023-11-03 | 2023-12-08 | 之江实验室 | 一种交通标志识别的方法、装置、存储介质及电子设备 |
CN117197781B (zh) * | 2023-11-03 | 2024-04-05 | 之江实验室 | 一种交通标志识别的方法、装置、存储介质及电子设备 |
Also Published As
Publication number | Publication date |
---|---|
CN115937703B (zh) | 2024-05-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112052787B (zh) | 基于人工智能的目标检测方法、装置及电子设备 | |
CN107633226B (zh) | 一种人体动作跟踪特征处理方法 | |
CN110826379B (zh) | 一种基于特征复用与YOLOv3的目标检测方法 | |
CN115937703A (zh) | 一种用于遥感图像目标检测的增强特征提取方法 | |
EP3690741B1 (en) | Method for automatically evaluating labeling reliability of training images for use in deep learning network to analyze images, and reliability-evaluating device using the same | |
EP3478728A1 (en) | Method and system for cell annotation with adaptive incremental learning | |
CN106897738A (zh) | 一种基于半监督学习的行人检测方法 | |
CN112418278A (zh) | 一种多类物体检测方法、终端设备及存储介质 | |
CN110210625A (zh) | 基于迁移学习的建模方法、装置、计算机设备和存储介质 | |
CN112365497A (zh) | 基于TridentNet和Cascade-RCNN结构的高速目标检测方法和系统 | |
CN109858547A (zh) | 一种基于bssd的目标检测方法与装置 | |
CN114781272A (zh) | 碳排放量预测方法、装置、设备及存储介质 | |
CN114821102A (zh) | 密集柑橘数量检测方法、设备、存储介质及装置 | |
CN110969200A (zh) | 基于一致性负样本的图像目标检测模型训练方法及装置 | |
CN114549913A (zh) | 一种语义分割方法、装置、计算机设备和存储介质 | |
CN113065525A (zh) | 年龄识别模型训练方法、人脸年龄识别方法及相关装置 | |
CN111582057B (zh) | 一种基于局部感受野的人脸验证方法 | |
CN117371511A (zh) | 图像分类模型的训练方法、装置、设备及存储介质 | |
CN116612272A (zh) | 一种图像处理智能数字化的检测系统及其检测方法 | |
CN116311004A (zh) | 基于稀疏光流提取的视频运动目标检测方法 | |
US20230029163A1 (en) | Wafer map analysis system using neural network and method of analyzing wafer map using the same | |
CN112699809B (zh) | 痘痘类别识别方法、装置、计算机设备及存储介质 | |
CN116030341A (zh) | 基于深度学习的植物叶片病害检测方法、计算机设备和存储介质 | |
CN115761667A (zh) | 一种基于改进fcos算法的无人车辆搭载摄像头目标检测方法 | |
CN115018884A (zh) | 基于多策略融合树的可见光红外视觉跟踪方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |