CN117523428A - 基于飞行器平台的地面目标检测方法和装置 - Google Patents
基于飞行器平台的地面目标检测方法和装置 Download PDFInfo
- Publication number
- CN117523428A CN117523428A CN202311481124.1A CN202311481124A CN117523428A CN 117523428 A CN117523428 A CN 117523428A CN 202311481124 A CN202311481124 A CN 202311481124A CN 117523428 A CN117523428 A CN 117523428A
- Authority
- CN
- China
- Prior art keywords
- module
- ground
- observation image
- ground target
- output end
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 183
- 238000012549 training Methods 0.000 claims abstract description 51
- 238000012545 processing Methods 0.000 claims abstract description 31
- 238000000034 method Methods 0.000 claims abstract description 20
- 238000007781 pre-processing Methods 0.000 claims abstract description 7
- 238000012937 correction Methods 0.000 claims description 45
- 238000012360 testing method Methods 0.000 claims description 36
- 238000011176 pooling Methods 0.000 claims description 35
- 238000005070 sampling Methods 0.000 claims description 21
- 230000006870 function Effects 0.000 claims description 14
- 239000011159 matrix material Substances 0.000 claims description 12
- 238000002372 labelling Methods 0.000 claims description 10
- 238000012795 verification Methods 0.000 claims description 8
- 238000004364 calculation method Methods 0.000 claims description 6
- 230000005856 abnormality Effects 0.000 claims description 3
- 238000009825 accumulation Methods 0.000 claims description 3
- 239000000654 additive Substances 0.000 claims description 3
- 230000000996 additive effect Effects 0.000 claims description 3
- 238000007499 fusion processing Methods 0.000 claims description 3
- 230000008901 benefit Effects 0.000 abstract description 2
- 238000005265 energy consumption Methods 0.000 abstract description 2
- 238000013527 convolutional neural network Methods 0.000 description 5
- 230000004927 fusion Effects 0.000 description 5
- 230000008569 process Effects 0.000 description 5
- 238000003062 neural network model Methods 0.000 description 4
- 238000011161 development Methods 0.000 description 3
- 238000000605 extraction Methods 0.000 description 3
- 230000002159 abnormal effect Effects 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 238000002474 experimental method Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 230000001965 increasing effect Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- AYFVYJQAPQTCCC-GBXIJSLDSA-N L-threonine Chemical compound C[C@@H](O)[C@H](N)C(O)=O AYFVYJQAPQTCCC-GBXIJSLDSA-N 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000011897 real-time detection Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
- G06V20/17—Terrestrial scenes taken from planes or by drones
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/24—Aligning, centring, orientation detection or correction of the image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20092—Interactive image processing based on input by user
- G06T2207/20104—Interactive definition of region of interest [ROI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30181—Earth observation
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Life Sciences & Earth Sciences (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Remote Sensing (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于飞行器平台的地面目标检测方法和装置,所述方法包括:获取无人机平台的地面观测图像集;所述地面观测图像集,包括若干个地面观测图像;对所述地面观测图像集进行预处理,得到第一观测图像集;利用所述第一观测图像集,对地面目标检测模型进行训练处理,得到地面目标跟踪模型;利用地面目标跟踪模型,对无人机平台获取的地面图像进行处理,得到地面目标位置信息。本发明公开方法,具有消耗资源少的优势,可在飞行器的边缘计算平台进行实现,节省了网络带宽和能源消耗。本方法能够有效检测弱小地面目标,并在视场内有其他干扰物存在时具有较好的鲁棒性。
Description
技术领域
本发明涉及目标检测和人工智能领域,具体涉及到一种基于飞行器平台的地面目标检测方法和装置。
背景技术
近年来,飞行器技术的快速发展为人们的日常生活带来了更多便利。飞行器目标具有飞行高度低、速度慢小型化等特点。基于飞行器平台的对地异常目标检测正在成为一个热点,在空对地场景中,由于飞行器的视距较远,以及不同场景、周围环境噪声、拍摄角度和复杂场景信息等干扰,传统的基于模板匹配和特征匹配的目标检测算法因存在若干问题而失效。随着大数据时代的到来和图像处理硬件的发展,数据驱动的深度卷积神经网络CNN在图像信息的特征提取方面取得了长足的进步,CNN也迅速应用于目标检测领域。为了能够满足实时检测的要求,提高目标检测的速度,SSD使用边界框回归的思想,即直接返回给定输入图像的目标默认框和经典分数。然而,这些基于回归的算法在检测小尺度目标方面表现不佳。DSSD采用RFB的思想替代了从VGG到Resnet-101的SSD参考网络,增强了特征提取能力,并通过使用反卷积层增加了大量的上下文信息,提高了小物体的检测准确率,但是检测速度下降了很多。FSSD结合特征提取层的不同特征再进行回归,提高了SSD高速下小目标的检测精度。到目前为止,目标检测主要解决的是分类和回归问题。检测领域有两种经典算法:以Faster R-CNN为代表的两阶段法和以SSD为代表的单阶段法。Faster R-CNN具有更高的准确率,而SSD在速度上更胜一筹。
目前,基于飞行器的地面目标检测面临两大挑战。首先,由于传感器成像距离远,目标在整个飞行器的观测图像中所占比例很小,没有明显的纹理和形状特征。其次,飞行器图像经常受到强烈的背景杂波和噪声的影响,例如厚厚的云层和建筑物,导致信噪比较低。上述挑战使得飞行器目标检测成为一项艰巨的任务。并且,当前迭代的边缘嵌入检测算法精度低,实时性差。目标检测应用大多分为云计算和边缘计算。云计算是一种将边缘侧收集的数据统一到中央处理器进行运算,进而进行决策的模式。现有的模型存在高延迟、网络不稳定、低带宽等问题,不适用于需要快速响应且错误成本高的飞行器检测任务。
随着以深度学习为代表的人工智能方法在图像处理领域的不断发展,大量目标检测方法都采用深度神经网络来完成任务。然而,现有的研究工作只采用了不包含其他运动目标的视频和图像数据进行测试实验,并且训练样本所覆盖的目标尺度较为固定,基本没有考虑飞行器的尺度变化问题,使得上述方法在用于实际弱小飞行器目标检测时具有较大局限性。并且,采用深度学习方法进行目标检测时,训练数据的数量与质量对提高检测模型的精度和泛化能力来说较为关键。另外,目前利用图像数据与深度信息进行目标识别时,存在信息融合不一致、特征设计不统一等问题,同时现有飞行器目标检测算法存在难以实现快速而准确的检测的问题。
发明内容
针对基于飞行器平台的地面目标检测面临的易受干扰而当前迭代的边缘嵌入检测算法精度低,实时性差的问题,本发明公开了一种基于飞行器平台的地面目标检测方法和装置。
本发明公开了一种基于飞行器平台的地面目标检测方法,包括:
获取无人机平台的地面观测图像集;所述地面观测图像集,包括若干个地面观测图像;
对所述地面观测图像集进行预处理,得到第一观测图像集;
利用所述第一观测图像集,对地面目标检测模型进行训练处理,得到地面目标跟踪模型;
利用地面目标跟踪模型,对无人机平台获取的地面图像进行处理,得到地面目标位置信息;
所述对所述地面观测图像集进行预处理,得到第一观测图像集,包括:
对所述地面观测图像集的每个地面观测图像,进行异常检测处理,得到异常判断结果;
当所述地面观测图像的异常判断结果为是时,对所述地面观测图像进行异常校正,得到校正观测图像;
利用每个校正观测图像,对所述地面观测图像集中相应的地面观测图像进行替换,得到第一观测图像集。
所述对所述地面观测图像进行异常校正,得到校正观测图像,包括:
利用第一校正模型对所述地面观测图像进行处理,得到第一图像信息;
其中,所述第一校正模型为:
式中,(a0,b0)为所述地面观测图像中的图像像素点的坐标,c0为所述地面观测图像中的坐标为(a0,b0)的图像像素点的灰度值,(a1,b1)为第一图像信息中的坐标点信息,c1第一图像信息中的灰度值信息,P0为预设的第一乘性校正矩阵,P1为预设的第一加性校正矩阵;
利用第二校正模型对所述第一图像信息进行处理,得到第二图像信息;
其中,所述第二校正模型为:
式中,(a2,b2)为所述第二图像信息中的坐标点信息,μ为预设的第一校正参数;
利用第三校正模型对所述第二图像信息和第一图像信息进行处理,得到校正观测图像信息;
其中,所述第三校正模型为:
式中,P2为预设的第二乘性校正矩阵,tr(P1)表示矩阵P1的迹,(a3,b3)为校正观测图像信息中的坐标点信息,c3为校正观测图像信息中的灰度值信息;
利用校正观测图像信息,对所述地面观测图像的位置坐标为(a3,b3)的图像像素点的灰度值更新为c3,完成对所述地面观测图像的异常校正;
将异常校正后的地面观测图像,确定为校正观测图像。
所述利用所述第一观测图像集,对地面目标检测模型进行训练处理,得到地面目标跟踪模型,包括:
对所述第一观测图像集的每个地面观测图像进行目标标注处理,得到地面目标位置标注信息;
对所述第一观测图像集和对应的地面目标位置标注信息进行融合处理,得到第二观测图像集;
将所述第二观测图像集按照预设比例进行划分,得到训练图像集、第一测试图像集和第二测试图像集;
利用所述训练图像集、第一测试图像集和第二测试图像集,对地面目标检测模型进行训练处理,得到地面目标跟踪模型。
所述地面目标检测模型,包括第一检测网络、第二检测网络和反馈模块;
所述第一检测网络,包括聚焦模块、第一池化模块、第一上采样模块、第一卷积模块、第二卷积模块、第二上采样模块、深度可分离卷积模块、第一升维卷积模块、第二升维卷积模块、第三卷积模块、第一残差注意力模块、第一跨阶段局部网络、第二池化模块、第四卷积模块、第二残差注意力模块和第一全连接模块;
所述聚焦模块用于接收所述地面观测图像;所述聚焦模块的输出端,与所述第一池化模块的输入端相连接;所述聚焦模块的输出端,与所述第一池化模块的输入端相连接;所述第一池化模块的输出端,与所述第一上采样模块的输入端相连接;所述第一上采样模块的输出端,与所述第一卷积模块的输入端相连接;所述第一卷积模块的输出端,与所述第二卷积模块的输入端相连接;所述第二卷积模块的输出端,与所述第二上采样模块的输入端相连接;所述第二上采样模块的第一输出端,与所述深度可分离卷积模块的输入端相连接;所述第二上采样模块的第二输出端,与所述第二池化模块的输入端相连接;
所述深度可分离卷积模块的输出端,与所述第一升维卷积模块的输入端相连接;所述第一升维卷积模块的输出端,与所述第二升维卷积模块的输入端相连接;所述第二升维卷积模块的输出端,与所述第三卷积模块的输入端相连接;所述第三卷积模块的输出端,与所述第一残差注意力模块的输入端相连接;所述第一残差注意力模块的输出端,与所述第一跨阶段局部模块的输入端相连接;所述第一跨阶段局部模块的输出端,与所述第一全连接模块的输入端相连接;
所述第二池化模块的输出端,与所述第四卷积模块的输入端相连接;所述第四卷积模块的输出端,与所述第一池化模块的输入端相连接;所述聚焦模块的输出端,与所述第二残差注意力模块的输入端相连接;所述第二残差注意力模块的输出端,与所述第一全连接模块的输入端相连接;
所述第一全连接模块的输出端,与所述反馈模块的第一输入端相连接;
所述第一全连接模块,用于输出所述第一检测网络的地面目标的位置预测结果信息;
所述第二检测网络,包括输入模块、第三池化模块、第三上采样模块、第五卷积模块、第六卷积模块、第二跨阶段局部网络、第三残差注意力模块、第二全连接模块;
所述第二检测网络的输入模块的输入端,与所述第一检测网络的第二卷积模块的输出端相连接;所述输入模块的输出端,与所述第三池化模块的输入端相连接;所述第三池化模块的输出端,与所述第三上采样模块的输入端相连接;所述第三上采样模块的输出端,与所述第五卷积模块的输入端相连接;所述第五卷积模块的输出端,与所述第六卷积模块的输入端相连接;所述第六卷积模块的输出端,与所述第二跨阶段局部模块的输入端相连接;所述第二跨阶段局部模块的输出端,与所述第三残差注意力模块的输入端相连接;所述第三残差注意力模块的输出端,与所述第二全连接模块的输入端相连接;所述第二全连接模块的输出端,与所述反馈模块的第二输入端相连接;
所述第二全连接模块,用于输出所述第二检测网络的地面目标的位置预测结果信息;
所述反馈模块,用于对所述地面目标的位置预测结果信息与所述地面目标位置标注信息进行距离差异计算处理,得到差异信息。
所述利用所述训练图像集、第一测试图像集和第二测试图像集,对地面目标检测模型进行训练处理,得到地面目标跟踪模型,包括:
从所述训练图像集中选取出地面观测图像;
对训练次数值进行初始化;
将所述地面观测图像输入地面目标检测模型,将所述地面目标检测模型得到的地面目标位置信息,作为训练检测结果;
利用损失函数对所述地面观测图像对应的地面目标位置标注信息和训练检测结果进行计算,得到差异值;
对所述训练次数值进行累加操作;
判断所述训练次数值是否超过训练次数阈值,得到第一判断结果;当所述第一判断结果为是时,触发执行模型校验操作;
当所述第一判断结果为否时,判断所述差异值是否满足收敛条件,得到第二判断结果;
当所述第二判断结果为是时,触发执行模型校验操作;当所述第二判断结果为否时,利用所述差异值对所述第一检测网络的权重值进行更新,并触发执行将所述训练图像集的地面观测图像输入地面目标检测模型;
利用所述第一测试图像集和第二测试图像集,对所述地面目标检测模型进行校验;将所述第一测试图像集输入地面目标检测模型,得到第一检测结果;将所述第二测试图像集输入地面目标检测模型,得到第二检测结果;统计得到所述第一检测结果的正确率,作为第一正确率X1;统计得到所述第二检测结果的正确率,作为第二正确率X2;对所述第一正确率X1和第二正确率X2进行联合判别,得到联合判别结果;当所述联合判别结果为正确率合格时,判断所述地面目标检测模型通过校验,确定所述通过校验的地面目标检测模型,为地面目标跟踪模型;若所述检测结果正确率未超过设定阈值,触发执行从所述训练图像集中选取出地面观测图像。
所述对所述第一正确率X1和第二正确率X2进行联合判别,得到联合判别结果,包括:
判别所述第一正确率X1和第二正确率X2是否满足不等式组合,所述不等式组合的表达式为:
∣X1-X10∣≤a1,
∣X2-X20∣≤a2,
∣(X1-X10)(X2-X20)∣≤a3,
其中,a1、a2和a3分别为正确率第一门限、正确率第二门限和正确率第三门限,X10为第一正确率标准值,X20为第二正确率标准值;
当所述第一正确率X1和第二正确率X2满足不等式组合时,确定联合判别结果为正确率合格;
当所述第一正确率X1和第二正确率X2不满足不等式组合时,确定联合判别结果为正确率不合格。
本发明还公开了一种基于飞行器平台的地面目标检测装置,所述装置包括:
存储有可执行程序代码的存储器;
与所述存储器耦合的处理器;
所述处理器调用所述存储器中存储的所述可执行程序代码,执行所述的基于飞行器平台的地面目标检测方法。
本发明还公开了一种计算机可存储介质,所述计算机存储介质存储有计算机指令,所述计算机指令被调用时,用于执行所述的基于飞行器平台的地面目标检测方法。
本发明还公开了一种信息数据处理终端,所述信息数据处理终端用于实现所述的基于飞行器平台的地面目标检测方法。
所述反馈模块,根据所述地面目标的位置预测结果信息与所述地面目标位置标注信息,计算得到损失函数,所述损失函数即是差异信息,
本发明的有益效果为:
本发明公开的基于飞行器平台的地面目标检测方法,具有消耗资源少的优势,可在飞行器的边缘计算平台进行实现,可以部分替代云端设备和服务器的数据处理功能。直接存储或检测目标数据的这种边缘侧数据处理方式,不仅减少了设备之间的数据传输和通信时间,而且节省了网络带宽和能源消耗。并且,该方法还使目标检测摆脱了对大型服务器和GPU设备的依赖,使用户能够灵活布置边缘计算设备以满足各种检测任务的需要。
本发明建立了由多个层组成的深度神经网络模型,通过对输入飞行器图像进行卷积、池化等操作,分析目标图像各像素间的空间关系,并有效提取目标的图像特征信息。同时,通过将较大尺寸的二维的图像信息转换为较小尺寸下的多通道特征图,用来克服目标变尺度检测问题。最后,挂载在飞行器上进行了实验验证。结果表明,本发明提出的深度神经网络模型能够有效检测弱小地面目标,并在视场内有其他干扰物存在时具有较好的鲁棒性。
附图说明
图1为本发明方法的实施流程图。
具体实施方式
为了更好的了解本发明内容,这里给出一个实施例。
图1为本发明方法的实施流程图。
针对基于飞行器平台的地面目标检测面临的易受干扰而当前迭代的边缘嵌入检测算法精度低,实时性差的问题,本发明公开了一种基于飞行器平台的地面目标检测方法。
本发明公开了一种基于飞行器平台的地面目标检测方法,包括:
获取无人机平台的地面观测图像集;所述地面观测图像集,包括若干个地面观测图像;
对所述地面观测图像集进行预处理,得到第一观测图像集;
利用所述第一观测图像集,对地面目标检测模型进行训练处理,得到地面目标跟踪模型;
利用地面目标跟踪模型,对无人机平台获取的地面图像进行处理,得到地面目标位置信息;
所述对所述地面观测图像集进行预处理,得到第一观测图像集,包括:
对所述地面观测图像集的每个地面观测图像,进行异常检测处理,得到异常判断结果;
当所述地面观测图像的异常判断结果为是时,对所述地面观测图像进行异常校正,得到校正观测图像;
利用每个校正观测图像,对所述地面观测图像集中相应的地面观测图像进行替换,得到第一观测图像集。
所述地面观测图像集,可以是由5000张飞行器图像组成的低空飞行器目标图像数据库,其中包含了不同大小、角度、颜色、纹理和背景的飞行器对地目标的观测图像。
所述对所述地面观测图像集的每个地面观测图像,进行异常检测处理,得到异常判断结果,包括:
对每个地面观测图像,计算其灰度值沿着图像的X轴和Y轴方向的导数,若所述导数超过设定阈值,判断所述异常判断结果为是;
若一个地面观测图像的所有导数值均未超过设定阈值,判断所述异常判断结果为否。
所述对所述地面观测图像进行异常校正,得到校正观测图像,包括:
利用第一校正模型对所述地面观测图像进行处理,得到第一图像信息;
其中,所述第一校正模型为:
式中,(a0,b0)为所述地面观测图像中的图像像素点的坐标,c0为所述地面观测图像中的坐标为(a0,b0)的图像像素点的灰度值,(a1,b1)为第一图像信息中的坐标点信息,c1第一图像信息中的灰度值信息,P0为预设的第一乘性校正矩阵,P1为预设的第一加性校正矩阵;
利用第二校正模型对所述第一图像信息进行处理,得到第二图像信息;
其中,所述第二校正模型为:
式中,(a2,b2)为所述第二图像信息中的坐标点信息,μ为预设的第一校正参数;
利用第三校正模型对所述第二图像信息和第一图像信息进行处理,得到校正观测图像信息;
其中,所述第三校正模型为:
式中,P2为预设的第二乘性校正矩阵,tr(P1)表示矩阵P1的迹,(a3,b3)为校正观测图像信息中的坐标点信息,c3为校正观测图像信息中的灰度值信息;
利用校正观测图像信息,对所述地面观测图像的位置坐标为(a3,b3)的图像像素点的灰度值更新为c3,完成对所述地面观测图像的异常校正;
将异常校正后的地面观测图像,确定为校正观测图像。
所述利用所述第一观测图像集,对地面目标检测模型进行训练处理,得到地面目标跟踪模型,包括:
对所述第一观测图像集的每个地面观测图像进行目标标注处理,得到地面目标位置标注信息;
对所述第一观测图像集和对应的地面目标位置标注信息进行融合处理,得到第二观测图像集;
将所述第二观测图像集按照预设比例进行划分,得到训练图像集、第一测试图像集和第二测试图像集;
利用所述训练图像集、第一测试图像集和第二测试图像集,对地面目标检测模型进行训练处理,得到地面目标跟踪模型。
所述地面目标检测模型,包括第一检测网络、第二检测网络和反馈模块;
所述第一检测网络,包括聚焦模块、第一池化模块、第一上采样模块、第一卷积模块、第二卷积模块、第二上采样模块、深度可分离卷积模块、第一升维卷积模块、第二升维卷积模块、第三卷积模块、第一残差注意力模块、第一跨阶段局部网络、第二池化模块、第四卷积模块、第二残差注意力模块和第一全连接模块;
所述聚焦模块用于接收所述地面观测图像;所述聚焦模块的输出端,与所述第一池化模块的输入端相连接;所述聚焦模块的输出端,与所述第一池化模块的输入端相连接;所述第一池化模块的输出端,与所述第一上采样模块的输入端相连接;所述第一上采样模块的输出端,与所述第一卷积模块的输入端相连接;所述第一卷积模块的输出端,与所述第二卷积模块的输入端相连接;所述第二卷积模块的输出端,与所述第二上采样模块的输入端相连接;所述第二上采样模块的第一输出端,与所述深度可分离卷积模块的输入端相连接;所述第二上采样模块的第二输出端,与所述第二池化模块的输入端相连接;
所述深度可分离卷积模块的输出端,与所述第一升维卷积模块的输入端相连接;所述第一升维卷积模块的输出端,与所述第二升维卷积模块的输入端相连接;所述第二升维卷积模块的输出端,与所述第三卷积模块的输入端相连接;所述第三卷积模块的输出端,与所述第一残差注意力模块的输入端相连接;所述第一残差注意力模块的输出端,与所述第一跨阶段局部模块的输入端相连接;所述第一跨阶段局部模块的输出端,与所述第一全连接模块的输入端相连接;
所述第二池化模块的输出端,与所述第四卷积模块的输入端相连接;所述第四卷积模块的输出端,与所述第一池化模块的输入端相连接;所述聚焦模块的输出端,与所述第二残差注意力模块的输入端相连接;所述第二残差注意力模块的输出端,与所述第一全连接模块的输入端相连接;
所述第一全连接模块的输出端,与所述反馈模块的第一输入端相连接;
所述第一全连接模块,用于输出所述第一检测网络的地面目标的位置预测结果信息;
所述第二检测网络,包括输入模块、第三池化模块、第三上采样模块、第五卷积模块、第六卷积模块、第二跨阶段局部网络、第三残差注意力模块、第二全连接模块;
所述第二检测网络的输入模块的输入端,与所述第一检测网络的第二卷积模块的输出端相连接;所述输入模块的输出端,与所述第三池化模块的输入端相连接;所述第三池化模块的输出端,与所述第三上采样模块的输入端相连接;所述第三上采样模块的输出端,与所述第五卷积模块的输入端相连接;所述第五卷积模块的输出端,与所述第六卷积模块的输入端相连接;所述第六卷积模块的输出端,与所述第二跨阶段局部模块的输入端相连接;所述第二跨阶段局部模块的输出端,与所述第三残差注意力模块的输入端相连接;所述第三残差注意力模块的输出端,与所述第二全连接模块的输入端相连接;所述第二全连接模块的输出端,与所述反馈模块的第二输入端相连接;
所述第二全连接模块,用于输出所述第二检测网络的地面目标的位置预测结果信息;
所述反馈模块,用于对所述地面目标的位置预测结果信息与所述地面目标位置标注信息进行距离差异计算处理,得到差异信息。
所述反馈模块,包括第三全连接模块和差异计算模块;所述第三全连接模块的第一输入端,作为反馈模块的第一输入端,与所述第一全连接模块的输出端相连接,所述第三全连接模块的第二输入端,作为反馈模块的第二输入端,与所述第二全连接模块的输出端相连接。所述第三全连接模块的输出端,与所述差异计算模块的输入端相连接。
所述第三全连接模块,用于对所述第一检测网络和第二检测网络的输出结果进行融合,得到所述地面目标检测模型的检测结果;所述反馈模块,用于计算差异信息。
所述聚焦模块,可采用神经网络中的Focus模块来实现;
所述第一检测网络,用于学习和适应目标特征,其权重值随地面目标特征而发生变化;所述第二检测网络,用于学习和适应基于飞行器平台的地面背景特征,其权重值在检测过程中,不发生变化。
所述地面目标检测模型,还可以采用ResNet网络或者YOLOV3网络来实现。
所述利用所述训练图像集、第一测试图像集和第二测试图像集,对地面目标检测模型进行训练处理,得到地面目标跟踪模型,包括:
从所述训练图像集中选取出地面观测图像;
对训练次数值进行初始化;
将所述地面观测图像输入地面目标检测模型,将所述地面目标检测模型得到的地面目标位置信息,作为训练检测结果;
利用损失函数对所述地面观测图像对应的地面目标位置标注信息和训练检测结果进行计算,得到差异值;
对所述训练次数值进行累加操作;
判断所述训练次数值是否超过训练次数阈值,得到第一判断结果;当所述第一判断结果为是时,触发执行模型校验操作;
当所述第一判断结果为否时,判断所述差异值是否满足收敛条件,得到第二判断结果;
当所述第二判断结果为是时,触发执行模型校验操作;当所述第二判断结果为否时,利用所述差异值对所述第一检测网络的权重值进行更新,并触发执行将所述训练图像集的地面观测图像输入地面目标检测模型;
利用所述第一测试图像集和第二测试图像集,对所述地面目标检测模型进行校验;将所述第一测试图像集输入地面目标检测模型,得到第一检测结果;将所述第二测试图像集输入地面目标检测模型,得到第二检测结果;统计得到所述第一检测结果的正确率,作为第一正确率X1;统计得到所述第二检测结果的正确率,作为第二正确率X2;对所述第一正确率X1和第二正确率X2进行联合判别,得到联合判别结果;当所述联合判别结果为正确率合格时,判断所述地面目标检测模型通过校验,确定所述通过校验的地面目标检测模型,为地面目标跟踪模型;若所述检测结果正确率未超过设定阈值,触发执行从所述训练图像集中选取出地面观测图像。
将所述第一测试图像集输入地面目标检测模型后,将得到的地面目标位置信息,作为第一检测结果;将所述第二测试图像集输入地面目标检测模型后,将得到的地面目标位置信息,作为第二检测结果。将第一检测结果与第一测试图像集的地面目标位置标注信息进行比对,统计出二者中相同的信息数目与总信息数目的比例,作为第一正确率X1。
所述对所述第一正确率X1和第二正确率X2进行联合判别,得到联合判别结果,包括:
判别所述第一正确率X1和第二正确率X2是否满足不等式组合,所述不等式组合的表达式为:
∣X1-X10∣≤a1,
∣X2-X20∣≤a2,
∣(X1-X10)(X2-X20)∣≤a3,
其中,a1、a2和a3分别为正确率第一门限、正确率第二门限和正确率第三门限,X10为第一正确率标准值,X20为第二正确率标准值;
当所述第一正确率X1和第二正确率X2满足不等式组合时,确定联合判别结果为正确率合格;
当所述第一正确率X1和第二正确率X2不满足不等式组合时,确定联合判别结果为正确率不合格。
本发明还公开了一种基于飞行器平台的地面目标检测装置,所述装置包括:
存储有可执行程序代码的存储器;
与所述存储器耦合的处理器;
所述处理器调用所述存储器中存储的所述可执行程序代码,执行所述的基于飞行器平台的地面目标检测方法。
本发明还公开了一种计算机可存储介质,所述计算机存储介质存储有计算机指令,所述计算机指令被调用时,用于执行所述的基于飞行器平台的地面目标检测方法。
本发明还公开了一种信息数据处理终端,所述信息数据处理终端用于实现所述的基于飞行器平台的地面目标检测方法。
所述反馈模块,根据所述地面目标的位置预测结果信息与所述地面目标位置标注信息,计算得到损失函数,所述损失函数即是差异信息,
所述损失函数,其表达式为:
其中,Lloc(p)表示第一检测网络的权重值为p情况下的损失函数,xij是地面目标检测模型输出的第i个目标检测框和第j个地面目标位置标注信息的目标位置范围之间的IoU,如果IoU大于预设阈值,则为1,否则为0,和m∈{α,cy,w,h},分别代表第i个目标检测框的四个位置参数和第j个地面目标位置标注信息的目标位置范围的四个参数,{α,cy,w,h}分别代表左下角点的横坐标、纵坐标、检测框或目标位置范围的长度和宽度,smoothL1()表示L1激活函数,其表达式如下:
x为smoothL1()的输入变量。
考虑到在每一个检测框中,物体的真实存在是有限的,网络生成的检测框的数量远大于真实目标。这意味着大部分边界框属于背景,使得前景和背景类别不平衡,针对这一问题,对损失函数进行了改进,其表达式为:
其中,I{y=y′t}表示地面目标检测模型输出的第t个检测框中含有真实的地面目标时的信息量值,pt表示地面目标检测模型输出的第t个检测框中含有真实的地面目标的发生概率,yt表示第t个检测框,y表示真实的地面目标,LOSS(y)表示对真实地面目标y的损失函数。I{y=y′t},当I为真时为1,否则为0。
所述第三全连接层,用于对所述第一全连接层的两个输出和第二全连接层的一个输出进行融合,得到地面目标检测模型的地面目标位置结果信息。
所述第三全连接层,利用信任度值,对每个全连接层输出的预测框进行加权融合,得到地面目标位置结果信息。信任度值更新函数的表达式为:
式中,si表示地面目标检测模型输出的第i个预测框的得分,该得分由残差注意力模块计算得到的残差值来确定,di表示地面目标检测模型输出的第i个预测框的权值,THRE表示设置的第一阈值,M表示预测框i的区域范围,b表示其他预测框的区域范围,σ为设置的置信度指标。所述融合的计算表达式为:
式中,(Xi,Yi)表示地面目标检测模型输出的第i个预测框的坐标,(X,Y)表示融合得到的地面目标位置结果信息的位置坐标
在融合计算过程中,其他框的置信度分数将根据所选框的IoU进行抑制。置信度高的框在融合公式中被赋予更高的权重,而置信度低的框对最终结果的影响会降低。
本发明针对空对地场景中目标小、密度高的特点,建立空对地数据集对网络进行训练,建立了由多个隐含层组成的深度神经网络模型,通过对输入飞行器图像进行卷积、池化等操作,分析目标图像各像素间的空间关系,并有效提取目标的图像特征信息,同时,通过将较大尺寸的二维的图像信息转换为较小尺寸下的多通道特征图,以克服目标变尺度检测问题。最后,挂载在飞行器上进行了实验验证。结果表明,本发明提出的深度神经网络模型能够有效检测弱小地面目标,并在视场内有其他干扰物存在时具有较好的鲁棒性。
实验的评价指标包括物体检测精度AP(平均精度)、mAP(平均平均精度)、IoU、检测速度FPS(每秒帧数)模型参数和模型体积大小。mAP可以综合评价模型对多类多目标任务的定位和分类效果。计算mAP需要计算识别任务中每个类的AP,然后取其平均值:
式(8)中,C表示总类数,APi表示AP第i类的值。
计算AP需要知道P(精度)和R(召回率)的值。这三个指标的公式如下:
式(9)、(10)、(11)中,TP(true positive)表示输入为正样本,预测结果也为正样本;FP是指输入是负样本,预测结果是正样本;FN表示输入是正样本,预测结果是负样本;而TN表示输入为负样本,预测结果为负样本。
IoU度量用于计算两个边界框的交集和并集的比率。本质上是将物体检测划分的精度转化为检测结果与真实值的面积比较。在不同的IoU条件下,可以计算出不同的检测精度来综合衡量模型的精度。假设两个边界框的面积分别为A和B,则loU度量的公式可以写为:
FPS指标是模型检测图片所花费的时间或一秒钟内检测到的图片数量。FPS越大,说明模型检测速度越快,可以用来衡量模型的检测速度。模型参数和模型体积大小都是模型复杂性的度量。它们都代表模型的大小,可以直接反映模型的大小。
以上所述仅为本申请的实施例而已,并不用于限制本申请。对于本领域技术人员来说,本申请可以有各种更改和变化。凡在本申请的精神和原理之内所作的任何修改、等同替换、改进等,均应包含在本申请的权利要求范围之内。
Claims (10)
1.一种基于飞行器平台的地面目标检测方法,其特征在于,包括:
获取无人机平台的地面观测图像集;所述地面观测图像集,包括若干个地面观测图像;
对所述地面观测图像集进行预处理,得到第一观测图像集;
利用所述第一观测图像集,对地面目标检测模型进行训练处理,得到地面目标跟踪模型;
利用地面目标跟踪模型,对无人机平台获取的地面图像进行处理,得到地面目标位置信息。
2.如权利要求1所述的基于飞行器平台的地面目标检测方法,其特征在于,所述对所述地面观测图像集进行预处理,得到第一观测图像集,包括:
对所述地面观测图像集的每个地面观测图像,进行异常检测处理,得到异常判断结果;
当所述地面观测图像的异常判断结果为是时,对所述地面观测图像进行异常校正,得到校正观测图像;
利用每个校正观测图像,对所述地面观测图像集中相应的地面观测图像进行替换,得到第一观测图像集。
3.如权利要求2所述的基于飞行器平台的地面目标检测方法,其特征在于,所述对所述地面观测图像进行异常校正,得到校正观测图像,包括:
利用第一校正模型对所述地面观测图像进行处理,得到第一图像信息;
其中,所述第一校正模型为:
式中,(a0,b0)为所述地面观测图像中的图像像素点的坐标,c0为所述地面观测图像中的坐标为(a0,b0)的图像像素点的灰度值,(a1,b1)为第一图像信息中的坐标点信息,c1第一图像信息中的灰度值信息,P0为预设的第一乘性校正矩阵,P1为预设的第一加性校正矩阵;
利用第二校正模型对所述第一图像信息进行处理,得到第二图像信息;
其中,所述第二校正模型为:
式中,(a2,b2)为所述第二图像信息中的坐标点信息,μ为预设的第一校正参数;
利用第三校正模型对所述第二图像信息和第一图像信息进行处理,得到校正观测图像信息;
其中,所述第三校正模型为:
式中,P2为预设的第二乘性校正矩阵,tr(P1)表示矩阵P1的迹,(a3,b3)为校正观测图像信息中的坐标点信息,c3为校正观测图像信息中的灰度值信息;
利用校正观测图像信息,对所述地面观测图像的位置坐标为(a3,b3)的图像像素点的灰度值更新为c3,完成对所述地面观测图像的异常校正;
将异常校正后的地面观测图像,确定为校正观测图像。
4.如权利要求1所述的基于飞行器平台的地面目标检测方法,其特征在于,利用所述第一观测图像集,对地面目标检测模型进行训练处理,得到地面目标跟踪模型,包括:
对所述第一观测图像集的每个地面观测图像进行目标标注处理,得到地面目标位置标注信息;
对所述第一观测图像集和对应的地面目标位置标注信息进行融合处理,得到第二观测图像集;
将所述第二观测图像集按照预设比例进行划分,得到训练图像集、第一测试图像集和第二测试图像集;
利用所述训练图像集、第一测试图像集和第二测试图像集,对地面目标检测模型进行训练处理,得到地面目标跟踪模型。
5.如权利要求4所述的基于飞行器平台的地面目标检测方法,其特征在于,所述地面目标检测模型,包括第一检测网络、第二检测网络和反馈模块;
所述第一检测网络,包括聚焦模块、第一池化模块、第一上采样模块、第一卷积模块、第二卷积模块、第二上采样模块、深度可分离卷积模块、第一升维卷积模块、第二升维卷积模块、第三卷积模块、第一残差注意力模块、第一跨阶段局部网络、第二池化模块、第四卷积模块、第二残差注意力模块和第一全连接模块;
所述聚焦模块用于接收所述地面观测图像;所述聚焦模块的输出端,与所述第一池化模块的输入端相连接;所述聚焦模块的输出端,与所述第一池化模块的输入端相连接;所述第一池化模块的输出端,与所述第一上采样模块的输入端相连接;所述第一上采样模块的输出端,与所述第一卷积模块的输入端相连接;所述第一卷积模块的输出端,与所述第二卷积模块的输入端相连接;所述第二卷积模块的输出端,与所述第二上采样模块的输入端相连接;所述第二上采样模块的第一输出端,与所述深度可分离卷积模块的输入端相连接;所述第二上采样模块的第二输出端,与所述第二池化模块的输入端相连接;
所述深度可分离卷积模块的输出端,与所述第一升维卷积模块的输入端相连接;所述第一升维卷积模块的输出端,与所述第二升维卷积模块的输入端相连接;所述第二升维卷积模块的输出端,与所述第三卷积模块的输入端相连接;所述第三卷积模块的输出端,与所述第一残差注意力模块的输入端相连接;所述第一残差注意力模块的输出端,与所述第一跨阶段局部模块的输入端相连接;所述第一跨阶段局部模块的输出端,与所述第一全连接模块的输入端相连接;
所述第二池化模块的输出端,与所述第四卷积模块的输入端相连接;所述第四卷积模块的输出端,与所述第一池化模块的输入端相连接;所述聚焦模块的输出端,与所述第二残差注意力模块的输入端相连接;所述第二残差注意力模块的输出端,与所述第一全连接模块的输入端相连接;
所述第一全连接模块的输出端,与所述反馈模块的第一输入端相连接;
所述第一全连接模块,用于输出所述第一检测网络的地面目标的位置预测结果信息;
所述第二检测网络,包括输入模块、第三池化模块、第三上采样模块、第五卷积模块、第六卷积模块、第二跨阶段局部网络、第三残差注意力模块、第二全连接模块;
所述第二检测网络的输入模块的输入端,与所述第一检测网络的第二卷积模块的输出端相连接;所述输入模块的输出端,与所述第三池化模块的输入端相连接;所述第三池化模块的输出端,与所述第三上采样模块的输入端相连接;所述第三上采样模块的输出端,与所述第五卷积模块的输入端相连接;所述第五卷积模块的输出端,与所述第六卷积模块的输入端相连接;所述第六卷积模块的输出端,与所述第二跨阶段局部模块的输入端相连接;所述第二跨阶段局部模块的输出端,与所述第三残差注意力模块的输入端相连接;所述第三残差注意力模块的输出端,与所述第二全连接模块的输入端相连接;所述第二全连接模块的输出端,与所述反馈模块的第二输入端相连接;
所述第二全连接模块,用于输出所述第二检测网络的地面目标的位置预测结果信息;
所述反馈模块,用于对所述地面目标的位置预测结果信息与所述地面目标位置标注信息进行距离差异计算处理,得到差异信息。
6.如权利要求5所述的基于飞行器平台的地面目标检测方法,其特征在于,所述利用所述训练图像集、第一测试图像集和第二测试图像集,对地面目标检测模型进行训练处理,得到地面目标跟踪模型,包括:
从所述训练图像集中选取出地面观测图像;
对训练次数值进行初始化;
将所述地面观测图像输入地面目标检测模型,将所述地面目标检测模型得到的地面目标位置信息,作为训练检测结果;
利用损失函数对所述地面观测图像对应的地面目标位置标注信息和训练检测结果进行计算,得到差异值;
对所述训练次数值进行累加操作;
判断所述训练次数值是否超过训练次数阈值,得到第一判断结果;当所述第一判断结果为是时,触发执行模型校验操作;
当所述第一判断结果为否时,判断所述差异值是否满足收敛条件,得到第二判断结果;
当所述第二判断结果为是时,触发执行模型校验操作;当所述第二判断结果为否时,利用所述差异值对所述第一检测网络的权重值进行更新,并触发执行将所述训练图像集的地面观测图像输入地面目标检测模型;
利用所述第一测试图像集和第二测试图像集,对所述地面目标检测模型进行校验;将所述第一测试图像集输入地面目标检测模型,得到第一检测结果;将所述第二测试图像集输入地面目标检测模型,得到第二检测结果;统计得到所述第一检测结果的正确率,作为第一正确率X1;统计得到所述第二检测结果的正确率,作为第二正确率X2;对所述第一正确率X1和第二正确率X2进行联合判别,得到联合判别结果;当所述联合判别结果为正确率合格时,判断所述地面目标检测模型通过校验,确定所述通过校验的地面目标检测模型,为地面目标跟踪模型;若所述检测结果正确率未超过设定阈值,触发执行从所述训练图像集中选取出地面观测图像。
7.如权利要求6所述的基于飞行器平台的地面目标检测方法,其特征在于,所述对所述第一正确率X1和第二正确率X2进行联合判别,得到联合判别结果,包括:
判别所述第一正确率X1和第二正确率X2是否满足不等式组合,所述不等式组合的表达式为:
∣X1-X10∣≤a1,
∣X2-X20∣≤a2,
∣(X1-X10)(X2-X20)∣≤a3,
其中,a1、a2和a3分别为正确率第一门限、正确率第二门限和正确率第三门限,X10为第一正确率标准值,X20为第二正确率标准值;
当所述第一正确率X1和第二正确率X2满足不等式组合时,确定联合判别结果为正确率合格;
当所述第一正确率X1和第二正确率X2不满足不等式组合时,确定联合判别结果为正确率不合格。
8.一种基于飞行器平台的地面目标检测装置,其特征在于,所述装置包括:
存储有可执行程序代码的存储器;
与所述存储器耦合的处理器;
所述处理器调用所述存储器中存储的所述可执行程序代码,执行如权利要求1-7任一项所述的基于飞行器平台的地面目标检测方法。
9.一种计算机可存储介质,其特征在于,所述计算机存储介质存储有计算机指令,所述计算机指令被调用时,用于执行如权利要求1-7任一项所述的基于飞行器平台的地面目标检测方法。
10.一种信息数据处理终端,其特征在于,所述信息数据处理终端用于实现权利要求1-7中任一项所述的基于飞行器平台的地面目标检测方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311481124.1A CN117523428B (zh) | 2023-11-08 | 2023-11-08 | 基于飞行器平台的地面目标检测方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311481124.1A CN117523428B (zh) | 2023-11-08 | 2023-11-08 | 基于飞行器平台的地面目标检测方法和装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN117523428A true CN117523428A (zh) | 2024-02-06 |
CN117523428B CN117523428B (zh) | 2024-03-29 |
Family
ID=89750676
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311481124.1A Active CN117523428B (zh) | 2023-11-08 | 2023-11-08 | 基于飞行器平台的地面目标检测方法和装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117523428B (zh) |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3171297A1 (en) * | 2015-11-18 | 2017-05-24 | CentraleSupélec | Joint boundary detection image segmentation and object recognition using deep learning |
CN109753903A (zh) * | 2019-02-27 | 2019-05-14 | 北航(四川)西部国际创新港科技有限公司 | 一种基于深度学习的无人机检测方法 |
CN110263819A (zh) * | 2019-05-28 | 2019-09-20 | 中国农业大学 | 一种用于贝类图像的目标检测方法及装置 |
WO2022147965A1 (zh) * | 2021-01-09 | 2022-07-14 | 江苏拓邮信息智能技术研究院有限公司 | 基于MixNet-YOLOv3和卷积递归神经网络CRNN的算术题批阅系统 |
CN114821246A (zh) * | 2022-06-28 | 2022-07-29 | 山东省人工智能研究院 | 基于多层次残差网络感知和注意力机制的小目标检测方法 |
CN115273154A (zh) * | 2022-09-26 | 2022-11-01 | 哈尔滨工业大学(深圳)(哈尔滨工业大学深圳科技创新研究院) | 基于边缘重构的热红外行人检测方法、系统及存储介质 |
CN115359366A (zh) * | 2022-08-19 | 2022-11-18 | 中国人民解放军军事科学院系统工程研究院 | 基于参数优化的遥感图像目标检测方法 |
CN115861799A (zh) * | 2022-11-21 | 2023-03-28 | 北京理工大学 | 基于注意力梯度的轻量化空对地目标检测方法 |
US11631238B1 (en) * | 2022-04-13 | 2023-04-18 | Iangxi Electric Power Research Institute Of State Grid | Method for recognizing distribution network equipment based on raspberry pi multi-scale feature fusion |
CN116580322A (zh) * | 2022-12-27 | 2023-08-11 | 长春理工大学 | 一种地面背景下无人机红外小目标检测方法 |
-
2023
- 2023-11-08 CN CN202311481124.1A patent/CN117523428B/zh active Active
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3171297A1 (en) * | 2015-11-18 | 2017-05-24 | CentraleSupélec | Joint boundary detection image segmentation and object recognition using deep learning |
CN109753903A (zh) * | 2019-02-27 | 2019-05-14 | 北航(四川)西部国际创新港科技有限公司 | 一种基于深度学习的无人机检测方法 |
CN110263819A (zh) * | 2019-05-28 | 2019-09-20 | 中国农业大学 | 一种用于贝类图像的目标检测方法及装置 |
WO2022147965A1 (zh) * | 2021-01-09 | 2022-07-14 | 江苏拓邮信息智能技术研究院有限公司 | 基于MixNet-YOLOv3和卷积递归神经网络CRNN的算术题批阅系统 |
US11631238B1 (en) * | 2022-04-13 | 2023-04-18 | Iangxi Electric Power Research Institute Of State Grid | Method for recognizing distribution network equipment based on raspberry pi multi-scale feature fusion |
CN114821246A (zh) * | 2022-06-28 | 2022-07-29 | 山东省人工智能研究院 | 基于多层次残差网络感知和注意力机制的小目标检测方法 |
CN115359366A (zh) * | 2022-08-19 | 2022-11-18 | 中国人民解放军军事科学院系统工程研究院 | 基于参数优化的遥感图像目标检测方法 |
CN115273154A (zh) * | 2022-09-26 | 2022-11-01 | 哈尔滨工业大学(深圳)(哈尔滨工业大学深圳科技创新研究院) | 基于边缘重构的热红外行人检测方法、系统及存储介质 |
CN115861799A (zh) * | 2022-11-21 | 2023-03-28 | 北京理工大学 | 基于注意力梯度的轻量化空对地目标检测方法 |
CN116580322A (zh) * | 2022-12-27 | 2023-08-11 | 长春理工大学 | 一种地面背景下无人机红外小目标检测方法 |
Non-Patent Citations (6)
Title |
---|
HOUZHANG FANG等: "Infrared Small UAV Target Detection Based on Depthwise Separable Residual Dense Network and Multiscale Feature Fusion", IEEE TRANSACTIONS ON INSTRUMENTATION AND MEASUREMENT, vol. 71, 11 August 2022 (2022-08-11), pages 1 - 20 * |
LEI LI等: "YOLO-A2G:An air-to-ground high-percision object detection algorithm based on YOLOv5", JOURNAL OF PHYSICS: CONFERENCE SERIES, vol. 2278, 25 February 2022 (2022-02-25), pages 1 - 8 * |
何明等: "基于多分支上下文融合的空对地目标检测算法", 现代防御技术, vol. 53, no. 3, 30 June 2023 (2023-06-30), pages 91 - 98 * |
刘星等: "尺度约束辅助的空对地目标智能检测方法", 现代防御技术, vol. 47, no. 2, 15 April 2019 (2019-04-15), pages 73 - 79 * |
周苏等: "基于深度可分离卷积的车辆目标检测网络", 机电一体化, vol. 27, no. 3, 31 December 2021 (2021-12-31), pages 3 - 12 * |
王振轩: "基于YOLO的路面破损实测图像识别研究及应用", 中国优秀硕士学位论文全文数据库 工程科技II辑, no. 6, 15 June 2023 (2023-06-15), pages 034 - 131 * |
Also Published As
Publication number | Publication date |
---|---|
CN117523428B (zh) | 2024-03-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110472627B (zh) | 一种端到端的sar图像识别方法、装置及存储介质 | |
CN113705478B (zh) | 一种基于改进YOLOv5的红树林单木目标检测方法 | |
CN111062263B (zh) | 手部姿态估计的方法、设备、计算机设备和存储介质 | |
CN115049821A (zh) | 一种基于多传感器融合的三维环境目标检测方法 | |
CN115797736B (zh) | 目标检测模型的训练和目标检测方法、装置、设备和介质 | |
CN112528974B (zh) | 测距方法、装置、电子设备及可读存储介质 | |
CN112949380B (zh) | 一种基于激光雷达点云数据的智能水下目标识别系统 | |
JP2020149641A (ja) | 物体追跡装置および物体追跡方法 | |
CN111239684A (zh) | 一种基于YoloV3深度学习的双目快速距离测量方法 | |
CN110826575A (zh) | 一种基于机器学习的水下目标识别方法 | |
CN117115784A (zh) | 目标数据融合的车辆检测方法及检测装置 | |
CN115690545B (zh) | 训练目标跟踪模型和目标跟踪的方法和装置 | |
CN114332633B (zh) | 雷达图像目标检测识别方法、设备和存储介质 | |
CN117576665B (zh) | 一种面向自动驾驶的单摄像头三维目标检测方法及系统 | |
JP2018124963A (ja) | 画像処理装置、画像認識装置、画像処理プログラム、及び画像認識プログラム | |
CN117372928A (zh) | 一种视频目标检测方法、装置及相关设备 | |
CN112529917A (zh) | 一种三维目标分割方法、装置、设备和存储介质 | |
CN116343143A (zh) | 目标检测方法、存储介质、路侧设备及自动驾驶系统 | |
CN117523428B (zh) | 基于飞行器平台的地面目标检测方法和装置 | |
CN115205806A (zh) | 生成目标检测模型的方法、装置和自动驾驶车辆 | |
WO2018143278A1 (ja) | 画像処理装置、画像認識装置、画像処理プログラム、及び画像認識プログラム | |
CN115656991A (zh) | 车辆外参标定方法、装置、设备以及存储介质 | |
CN108985216A (zh) | 一种基于多元logistic回归特征融合的行人头部检测方法 | |
CN111854651A (zh) | 基于slam的室内建筑面积实时测量方法 | |
CN111695552A (zh) | 多特征融合的水下目标建模及优化方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |