CN116363072A - 一种轻型航拍图像检测方法及系统 - Google Patents
一种轻型航拍图像检测方法及系统 Download PDFInfo
- Publication number
- CN116363072A CN116363072A CN202310200598.8A CN202310200598A CN116363072A CN 116363072 A CN116363072 A CN 116363072A CN 202310200598 A CN202310200598 A CN 202310200598A CN 116363072 A CN116363072 A CN 116363072A
- Authority
- CN
- China
- Prior art keywords
- aerial image
- image detection
- network
- detection model
- light
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 119
- 238000012549 training Methods 0.000 claims abstract description 35
- 238000000605 extraction Methods 0.000 claims abstract description 34
- 230000004927 fusion Effects 0.000 claims abstract description 30
- 238000000034 method Methods 0.000 claims abstract description 15
- 238000010276 construction Methods 0.000 claims abstract description 6
- 238000005516 engineering process Methods 0.000 claims description 8
- 238000012545 processing Methods 0.000 claims description 7
- 238000002372 labelling Methods 0.000 claims description 6
- 238000007781 pre-processing Methods 0.000 claims description 3
- 238000004891 communication Methods 0.000 claims description 2
- 238000004364 calculation method Methods 0.000 abstract description 14
- 238000004422 calculation algorithm Methods 0.000 description 24
- 230000000694 effects Effects 0.000 description 6
- 238000010586 diagram Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 238000005457 optimization Methods 0.000 description 3
- 208000037170 Delayed Emergence from Anesthesia Diseases 0.000 description 2
- 238000002474 experimental method Methods 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 230000002411 adverse Effects 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000015556 catabolic process Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000006731 degradation reaction Methods 0.000 description 1
- 238000009432 framing Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000012216 screening Methods 0.000 description 1
- 230000001629 suppression Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/806—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
- G06V20/17—Terrestrial scenes taken from planes or by drones
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Evolutionary Computation (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Remote Sensing (AREA)
- Quality & Reliability (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Image Analysis (AREA)
Abstract
本发明提出了一种轻型航拍图像检测方法及系统,该方法包括:实时获取无人机拍摄视频帧;利用训练后的航拍图像检测模型判断所述视频帧中是否存在行人或车辆目标;所述航拍图像检测模型的构建过程包括:搭建用于特征提取的骨干特征提取网络;搭建深层特征图跨路径融合网络;将搭建的骨干特征提取网络与深层特征图跨路径融合网络进行拼接并搭建检测头,得到预设的航拍图像检测模型;所述航拍图像检测模型的训练过程包括:利用训练集训练所述预设的航拍图像检测模型,得到最终收敛的航拍图像检测模型。本发明通过构建轻型航拍图像检测模型,实现了航拍图像检测中更高的检测精度和更低的计算成本,减少硬件设备的损耗,实现了轻量化的航拍图像检测。
Description
技术领域
本发明属于图像检测技术领域,尤其涉及一种轻型航拍图像检测方法及系统。
背景技术
本部分的陈述仅仅是提供了与本发明相关的背景技术信息,不必然构成在先技术。
随着无人机在现代生活中的不断应用,航拍技术在交通建设、地质勘探、生态研究、军事行动等各个领域都有着广泛的应用。地面车辆目标检测作为智慧交通系统的重要组成部分,可以为系统的外界环境感知提供基础,通过航拍技术对地面车辆目标进行定位与跟踪,能够更加清晰地传递和反映地面交通信息与交通状况,为构建成熟的智慧交通系统提供帮助。
无人机航拍图像目标往往较小且密集,现有检测算法的检测精度较低,并且检测算法的网络模型太大也会对无人机的算法部署造成不利影响,这都对无人机航拍图像目标检测任务带来了巨大考验。
发明内容
为克服上述现有技术的不足,本发明提供了一种轻型航拍图像检测方法及系统,解决现有航拍图像检测算法检测精度低、计算成本高的问题,实现了检测精度上的显著提高,以及轻量化的航拍图像目标检测。
为实现上述目的,本发明的一个或多个实施例提供了如下技术方案:
本发明第一方面提供了一种轻型航拍图像检测方法,包括:
实时获取无人机拍摄视频帧;
利用训练后的航拍图像检测模型判断所述视频帧中是否存在行人或车辆目标;
所述航拍图像检测模型的构建过程包括:
搭建用于特征提取的骨干特征提取网络;
搭建深层特征图跨路径融合网络;
将搭建的骨干特征提取网络与深层特征图跨路径融合网络进行拼接并搭建检测头,得到预设的航拍图像检测模型;
所述航拍图像检测模型的训练过程包括:
利用训练集训练所述预设的航拍图像检测模型,得到最终收敛的航拍图像检测模型。
本发明第二方面提供了一种轻型航拍图像检测系统,包括:
视频帧获取模块,被配置为:实时获取无人机拍摄视频帧;
航拍图像检测模型构建模块,被配置为:搭建用于特征提取的骨干特征提取网络;
搭建深层特征图跨路径融合网络;
将搭建的骨干特征提取网络与深层特征图跨路径融合网络进行拼接并搭建检测头,得到预设的航拍图像检测模型;
航拍图像检测模型训练模块,被配置为:利用训练集训练所述预设的航拍图像检测模型,得到最终收敛的航拍图像检测模型;
目标判断模块,被配置为:利用训练后的航拍图像检测模型判断所述视频帧中是否存在行人或车辆目标。
本发明第三方面提供了计算机可读存储介质,其上存储有程序,该程序被处理器执行时实现如本发明第一方面所述的一种轻型航拍图像检测方法中的步骤。
本发明第四方面提供了电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的程序,所述处理器执行所述程序时实现如本发明第一方面所述的一种轻型航拍图像检测方法中的步骤。
以上一个或多个技术方案存在以下有益效果:
本发明通过构建轻型航拍图像目标检测模型,即以包含VB网络和C3SFN网络的骨干特征提取网络,以DFM-CPFN(Deep Feature Map Cross Path Fusion Network)为多尺度特征融合网络,实现了航拍图像目标检测更高的检测精度和更低的计算量和参数量,解决现有航拍图像检测算法复杂、精度低、成本高的问题,实现了轻量级的高精度航拍图像检测,具有广泛的适用性。
本发明附加方面的优点将在下面的描述中部分给出,部分将从下面的描述中变得明显,或通过本发明的实践了解到。
附图说明
构成本发明的一部分的说明书附图用来提供对本发明的进一步理解,本发明的示意性实施例及其说明用于解释本发明,并不构成对本发明的不当限定。
图1为本发明实施例一中的轻型航拍图像检测方法的流程图;
图2(a)和图2(b)分别为本发明实施例一中的骨干特征提取网络的VB网络和C3SFN网络结构图;
图3为本发明实施例一中的深层特征图跨路径融合网络DFM-CPFN(Deep FeatureMap Cross Path Fusion Network)的网络结构图;
图4为本发明实施例一中航拍图像检测算法(LAI-YOLOv5s)与YOLO v5m算法、YOLOv5l算法、YOLO v3算法在mAP@0.5指标上的对比结果图;
图5为本发明实施例一中航拍图像检测算法(LAI-YOLOv5s)与YOLO v5m算法、YOLOv5l算法、YOLO v3算法在mAP@0.5:0.95指标上的对比结果图。
具体实施方式
实施例一
如图1所示,本实施例公开了一种轻型航拍图像检测方法,包括:
获取若干存在行人或车辆的无人机航拍图像,对航拍图像进行预处理;
对航拍图像中的行人或车辆等目标进行标签标注,将若干标注的图片作为训练样本集,对预设的航拍图像检测模型进行训练;
实时获取无人机拍摄视频帧,利用训练完成的航拍图像检测模型进行判断,视频帧中是否存在行人或车辆等目标。
在本实施例中,首先获取6471张存在行人或车辆的无人机航拍图像,该航拍图像均为采用JPG格式存储的彩色图像,对该彩色无人机航拍图像进行预处理,通过传统的图像处理技术和Mosaic数据增强技术提高无人机航拍图像的质量,提高图像读取速度,具体包括:
首先,采用现有的图像处理技术处理无人机航拍图像,其中,图像处理技术包括但不限于随机翻转、拼接、缩放等,用于提高数据集质量,提高模型泛化能力;其次,采用Mosaic数据增强技术处理无人机航拍图像,提高航拍图像的读取速度;最后,将无人机航拍图像尺寸归一化为同一大小,在本实施例中,将航拍图像尺寸大小归一化为640×640,便于后续的统一处理。
之后,利用labeling标注工具对预处理完成后的无人机航拍图像中的行人或车辆等目标进行标签标注,即在图像中的行人或车辆等目标左上方标注'pedestrian','people','bicycle','car','van','truck','tricycle','awning-tricycle','bus','motor'(分别对应:“行人”,“人”,“自行车”,“汽车”,“小型货车”,“卡车”,“三轮车”,“遮蓬三轮车”,“公共汽车”,“摩托车”)等标签信息,同时用方形框框出各个对应目标,针对所有的行人或车辆等目标,采用五个参数确定,分别为:类别参数、目标中心坐标参数即x,y、目标宽高参数即w,h,其中目标中心坐标和目标的宽高分别是相对于整体图片而确定的。将该无人机航拍图像数据的标签文件转为txt格式存储。将若干标注标签的无人机航拍图像作为训练样本集,以此对预设的无人机航拍图像检测模型进行训练。
作为另一种实施方式,选取80%的航拍图像构成训练集、10%的航拍图像构成验证集、10%的航拍图像构成测试集,利用labeling标注工具对训练集的无人机航拍图像中的行人或车辆等目标进行标签标注,利用该训练集对预设的无人机航拍图像检测模型进行训练。
上述预设的无人机航拍图像检测模型的构建过程具体包括:
搭建用于特征提取的骨干网络;
搭建深层特征图跨路径融合网络(DFM-CPFN)及检测头;
将搭建的骨干网络与深层特征图跨路径融合网络进行拼接,利用训练样本集训练拼接网络,得到最终收敛的网络模型。
现有的航拍图像检测算法通常采用YOLO v5网络结构,而YOLO v5网络结构包括骨干特征提取网络和多尺度特征融合网络。
其中,在YOLO v5网络结构中,骨干特征提取网络是一个庞大的网络结构。它采用结合CSP思想和残差网络思想的C3模块,并在该模块中采用了“3,6,9,3”组合的残差块堆叠方式,每个C3模块之间通过卷积核大小为3,步长为2的下采样连接,逐渐缩小图像尺寸,增大感受野。
本实施例中,对C3模块进行优化改进。首先融合VoVNet和残差结构Bottleneck,设计一个VB网络,能够使得网络更窄,特征和梯度的传递也更加有效,可以改善神经网络的退化问题以及网络加深带来的梯度消失问题;然后结合ShuffleNetV2的思想设计了一个C3SFN网络,它比原C3网络的计算成本大大减少,可以使整个网络模型更加轻量。
将标注行人或车辆目标的无人机航拍图像输入骨干特征提取网络中,在本实施例中,骨干特征提取网络采用3个VB网络和1个C3SFN网络,在这两种网络中间由一个卷积核大小为1、步长为2的CBS卷积模块将它们连接。
如图2(a)所示,VB网络由4个CBS卷积模块开始,每个卷积模块的输出都在最后一个模块之后进行拼接,并保留了Bottleneck模块作为一条单独的路径进行拼接,在所有的拼接操作完成之后,再用1个卷积模块来调整输出的通道数;
如图2(b)所示,C3SFN网络由一个SFN模块代替原C3网络中的Bottleneck模块而来,SFN模块是一个类Bottleneck模块,它有两个分支,其中一条分支包含两个卷积核大小为1的普通卷积和卷积核大小为3的深度可分离卷积,另一条分支也即输入,两条分支由一个拼接操作融合在一起,最后由一个Channel Shuffle操作来启用两个分支之间的信息通信。通过上述骨干特征提取网络,改变特征图的通道数,得到不同通道的特征图。
此外,本实施例放弃了YOLO v5网络结构原有的“3,6,9,3”的残差块堆叠方式,而是采用了“3,3,3,6”的堆叠方式;“3,3,3”对应的是三个VB模块,即将三个VB中的Bottleneck模块分别堆叠3个;“6”对应的是一个C3SFN模块,即将一个C3SFN中的SFN模块堆叠6个。通过改进的堆叠方式,在保证最终识别精度损耗很少的前提下,可以有效减少模型的计算成本。
在YOLO v5网络结构中,多尺度特征提取网络Neck借鉴了PANet的融合思想,其相比于FPN增加了一条自下而上的特征融合路径;而且,YOLO v5采用的反向优化方法(即反向传播损失函数)主要包含中心坐标预测、置信度预测和分类预测。其中,中心坐标预测采用Sigmoid函数将输出值限定到0-1之间,利于输出参数的优化,置信度预测和分类预测采用二值交叉熵进行反向传播预测。
在本实施例中,为了进一步提高特征提取的效果,减轻运算量,如图3所示,基于PANet的多尺度特征融合网络,设计了一个深层特征图跨路径融合网络DFM-CPFN(DeepFeature Map Cross Path Fusion Network)。首先,去掉中等尺寸检测头后面的路径和拼接操作,改为经两个上采样操作和两个C3模块,引出一个更大尺寸的特征图,用于检测更小的目标;其次,在两次上采样操作的后面分别增加一个同主干网络跨路径融合的拼接。可以增强深层信息和浅层信息的融合能力,丰富底层特征的语义信息,改善了检测效果。同时,为了使网络模型更加轻量化,将C3SFN网络也应用于DFM-CPFN中。
之后,本实施例所述方案仍旧采用YOLO v5的反向优化方法进行中心坐标预测、置信度预测和分类预测。
将标注后的图像输入骨干特征提取网络中,输出4张不同通道的特征图F1、F2、F3和F4,将这4张特征图分别输入到DFM-CPFN中,得到不同尺度的特征图D1、D2和D3,通过非极大值抑制(NMS)和I oU交并比筛选出最合适的预测框。DFM-CPFN是一种特征融合思想,而非一种固定模块的网络结构,四张图在本实例中的具体输入或融合方式可见附图3;
在本实施例中,特征图D1、D2和D3每个网格内含有3个预测框,每个预测框的通道数为15,第1个通道是置信度预测的结果,该结果是一个概率值,第2-5个通道是中心坐标预测的结果,输出相对于整个特征图的预测框,第6-15个通道是分类预测的结果,该预测结果也是一个概率值。
在搭建完成骨干特征提取网络和DFM-CPFN后,将搭建的骨干特征提取网络与搭建的DFM-CPFN进行拼接,即多DFM-CPFN采用骨干网络第1、2、3、4的输出特征图作为输入,该输出特征图各不相同,DFM-CPFN的卷积运算输出三张检测特征图,该特征图包括:40x40尺度(D2)的用于检测大目标的特征图,80x80(D1)尺度的用于检测中目标的特征图,160x160(D3)尺度的用于检测小目标的特征图。
基于训练样本集对上述预设的航拍图像检测模型进行训练,在保证未出现过拟合和欠拟合的前提下,充分训练航拍图像检测模型,直至损失函数不再收敛,保留最优权重文件,完成训练。
实际上,本实施例上述航拍图像检测模型包括输入层、中间层和输出层三部分,将训练样本集中的图像输入检测模型的输入层,中间层包括骨干网络和DFM-CPFN,其中,骨干网络中堆叠了VB和C3SFN网络结构,DFM-CPFN中包含由上到下和由下到上的跨路径特征融合方式,通过中间层进行特征提取,最终在输出层输出三个不同尺度的特征图,用以判断输入的训练图像是否包含行人或车辆目标的概率。
最终,实时获取无人机航拍视频帧,利用训练完成的航拍图像检测模型进行判断,视频帧中是否存在行人或车辆等目标,同时输出该目标的概率。
为了充分证明本实施例上述检测方法的有效性,本实施例在相同的实验环境下,训练YOLO v3算法和YOLO v5算法,并得到相应的mAP@0.5(IoU阈值大于0.5的值,数值越高,即阈值越大,精度越低)、mAP@0.5:0.95(不同IoU阈值,即从0.5到0.95、步长为0.05的多个阈值上的平均mAP)、计算量和参数量指标(参数量和计算量越低,运算越简单,运算成本越低),用以证明本实施例所提出改进方案的有效性。
为了证明本实施例所述航拍图像检测算法(LAI-YOLOv5s)在综合性能上的优越性,将该航拍图像检测算法与YOLOv5m、YOLOv51和YOLOv3在检测效果和计算成本上做了对比实验,本实施例航拍图像检测算法(LAI-YOLOv5s)与YOLO v5m算法、YOLO v5l算法、YOLOv3算法在mAP@0.5指标上的对比结果如图4所示,在mAP@0.5:0.95指标上的对比结果如图5所示;
本实施例所述航拍图像测算法与YOLOv5m、YOLOv51以及YOLOv3的检测效果和计算成本的比较结果如表1所示,其中,本实施例所述航拍图像检测算法的参数量和计算量仅为YOLOv5m的30.1%和60.4%,mAP@0.5指标提高4.5%,mAP@0.5:0.95指标提高2.2%;相比于YOLOv5l,本实施例所述航拍图像检测算法的参数量和计算量仅为YOLOv5l的13.6%和26.9%,mAP@0.5指标提高2.7%,mAP@0.5:0.95指标提高0.8%;相比于YOLOv3,本实施例所述航拍图像检测算法的参数量和计算量仅为YOLOv3的10.2%和18.7%,mAP@0.5指标提高1.4%,mAP@0.5:0.95指标提高0.5%。本实验证明,本实施例所提出的航拍图像检测算法具有更好的技术效果,不仅在计算成本上十分轻量,而且还有更高的检测精度。
表1
综上,本实施例提供的一种轻量级航拍图像检测方法,该航拍图像检测方法解决现有检测算法检测精度低、计算成本高的问题,实现了轻量化的高精度航拍图像检测。
实施例二
本实施例公开了一种轻型航拍图像检测系统,包括:
视频帧获取模块,被配置为:实时获取无人机拍摄视频帧;
航拍图像检测模型构建模块,被配置为:搭建用于特征提取的骨干特征提取网络;
搭建深层特征图跨路径融合网络;
将搭建的骨干特征提取网络与深层特征图跨路径融合网络进行拼接并搭建检测头,得到预设的航拍图像检测模型;
航拍图像检测模型训练模块,被配置为:利用训练集训练所述预设的航拍图像检测模型,得到最终收敛的航拍图像检测模型;
目标判断模块,被配置为:利用训练后的航拍图像检测模型判断所述视频帧中是否存在行人或车辆目标。
实施例三
本实施例的目的是提供计算机可读存储介质。
计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现如本公开实施例1所述的一种轻型航拍图像检测方法中的步骤。
实施例四
本实施例的目的是提供电子设备。
电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的程序,所述处理器执行所述程序时实现如本公开实施例1所述的一种轻型航拍图像检测方法中的步骤。
以上实施例二、三和四的装置中涉及的各步骤与方法实施例一相对应,具体实施方式可参见实施例一的相关说明部分。术语“计算机可读存储介质”应该理解为包括一个或多个指令集的单个介质或多个介质;还应当被理解为包括任何介质,所述任何介质能够存储、编码或承载用于由处理器执行的指令集并使处理器执行本发明中的任一方法。
本领域技术人员应该明白,上述本发明的各模块或各步骤可以用通用的计算机装置来实现,可选地,它们可以用计算装置可执行的程序代码来实现,从而,可以将它们存储在存储装置中由计算装置来执行,或者将它们分别制作成各个集成电路模块,或者将它们中的多个模块或步骤制作成单个集成电路模块来实现。本发明不限制于任何特定的硬件和软件的结合。
上述虽然结合附图对本发明的具体实施方式进行了描述,但并非对本发明保护范围的限制,所属领域技术人员应该明白,在本发明的技术方案的基础上,本领域技术人员不需要付出创造性劳动即可做出的各种修改或变形仍在本发明的保护范围以内。
Claims (10)
1.一种轻型航拍图像检测方法,其特征在于,包括:
实时获取无人机拍摄视频帧;
利用训练后的航拍图像检测模型判断所述视频帧中是否存在行人或车辆目标;
所述航拍图像检测模型的构建过程包括:
搭建用于特征提取的骨干特征提取网络;
搭建深层特征图跨路径融合网络;
将搭建的骨干特征提取网络与深层特征图跨路径融合网络进行拼接并搭建检测头,得到预设的航拍图像检测模型;
所述航拍图像检测模型的训练过程包括:
利用训练集训练所述预设的航拍图像检测模型,得到最终收敛的航拍图像检测模型。
2.如权利要求1所述的一种轻型航拍图像检测方法,其特征在于,所述骨干特征提取网络包括VB网络和C3SFN网络,所述VB网络为将VoVNet和残差结构Bottleneck进行融合得到的;所述C3SFN网络由一个SFN模块代替原C3网络中的Bottleneck模块得到。
3.如权利要求2所述的一种轻型航拍图像检测方法,其特征在于,所述将VoVNet和残差结构Bottleneck进行融合,包括:
将4个CBS卷积模块依次相连,每个CBS卷积模块的输出都在最后一个模块之后进行拼接,并保留了Bottleneck模块作为一条单独的路径进行拼接,在所有的拼接操作完成之后,再用1个CBS卷积模块来调整输出的通道数。
4.如权利要求2所述的一种轻型航拍图像检测方法,其特征在于,所述SFN模块是一个类Bottleneck模块,具有两个分支,其中一条分支包含两个卷积核大小为1的普通卷积和卷积核大小为3的深度可分离卷积,另一条分支也即输入,两条分支由一个拼接操作融合在一起,最后由一个Channel Shuffle操作来启用两个分支之间的信息通信。
5.如权利要求1所述的一种轻型航拍图像检测方法,其特征在于,所述深层特征图跨路径融合网络采用自上而下和自下而上的双路径特征融合方式,并在深层特征层跨路径同所述骨干特征提取网络进行融合,输出多尺度特征图。
6.如权利要求1所述的一种轻型航拍图像检测方法,其特征在于,所述训练集的构建过程包括:获取若干存在行人或车辆目标的航拍图像,对航拍图像进行预处理;
对预处理后的航拍图像中的行人和车辆进行标签标注,将部分标注后的航拍图像作为训练集。
7.如权利要求6所述的一种轻型航拍图像检测方法,其特征在于,所述对航拍图像进行预处理,包括:
首先,对航拍图像进行随机翻转、拼接和缩放处理;
其次,采用Mosaic数据增强技术处理航拍图像;
最后,将航拍图像尺寸归一化为同一大小。
8.一种轻型航拍图像检测系统,其特征在于:包括:
视频帧获取模块,被配置为:实时获取无人机拍摄视频帧;
航拍图像检测模型构建模块,被配置为:搭建用于特征提取的骨干特征提取网络;
搭建深层特征图跨路径融合网络;
将搭建的骨干特征提取网络与深层特征图跨路径融合网络进行拼接并搭建检测头,得到预设的航拍图像检测模型;
航拍图像检测模型训练模块,被配置为:利用训练集训练所述预设的航拍图像检测模型,得到最终收敛的航拍图像检测模型;
目标判断模块,被配置为:利用训练后的航拍图像检测模型判断所述视频帧中是否存在行人或车辆目标。
9.计算机可读存储介质,其上存储有程序,其特征在于,该程序被处理器执行时实现如权利要求1-7任一项所述的一种轻型航拍图像检测方法中的步骤。
10.电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的程序,其特征在于,所述处理器执行所述程序时实现如权利要求1-7任一项所述的一种轻型航拍图像检测方法中的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310200598.8A CN116363072A (zh) | 2023-02-27 | 2023-02-27 | 一种轻型航拍图像检测方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310200598.8A CN116363072A (zh) | 2023-02-27 | 2023-02-27 | 一种轻型航拍图像检测方法及系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116363072A true CN116363072A (zh) | 2023-06-30 |
Family
ID=86911543
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310200598.8A Pending CN116363072A (zh) | 2023-02-27 | 2023-02-27 | 一种轻型航拍图像检测方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116363072A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116721095A (zh) * | 2023-08-04 | 2023-09-08 | 杭州瑞琦信息技术有限公司 | 一种航拍式的道路照明故障检测方法及装置 |
-
2023
- 2023-02-27 CN CN202310200598.8A patent/CN116363072A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116721095A (zh) * | 2023-08-04 | 2023-09-08 | 杭州瑞琦信息技术有限公司 | 一种航拍式的道路照明故障检测方法及装置 |
CN116721095B (zh) * | 2023-08-04 | 2023-11-03 | 杭州瑞琦信息技术有限公司 | 一种航拍式的道路照明故障检测方法及装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2022083784A1 (zh) | 一种基于车联网的道路检测方法 | |
CN113723377B (zh) | 一种基于ld-ssd网络的交通标志检测方法 | |
CN112395951B (zh) | 一种面向复杂场景的域适应交通目标检测与识别方法 | |
CN112581409B (zh) | 一种基于端到端的多重信息蒸馏网络的图像去雾方法 | |
CN113762209A (zh) | 一种基于yolo的多尺度并行特征融合路标检测方法 | |
Yonetsu et al. | Two-stage YOLOv2 for accurate license-plate detection in complex scenes | |
CN110717493B (zh) | 一种基于深度学习的含堆叠字符的车牌识别方法 | |
CN117372829B (zh) | 海上船舶目标识别方法、装置、电子设备及可读介质 | |
CN114782949B (zh) | 一种边界引导上下文聚合的交通场景语义分割方法 | |
CN115565044A (zh) | 一种目标检测方法及系统 | |
CN118397485A (zh) | 一种轻量化无人机图像目标检测方法及系统 | |
CN116363072A (zh) | 一种轻型航拍图像检测方法及系统 | |
CN117726870A (zh) | 基于扩散模型的小样本目标检测模型增强学习方法和装置 | |
CN114187581B (zh) | 一种基于无监督学习的驾驶员分心细粒度检测方法 | |
CN116740412A (zh) | 一种基于多尺度信息融合的小目标检测方法 | |
CN114596548A (zh) | 目标检测方法、装置、计算机设备及计算机可读存储介质 | |
CN113505640A (zh) | 一种基于多尺度特征融合的小尺度行人检测方法 | |
CN117237612A (zh) | 一种基于yolox模型的复杂道路场景目标检测方法 | |
CN112785610A (zh) | 一种融合低层特征的车道线语义分割方法 | |
CN115063446B (zh) | 一种辅助驾驶系统的城市街景实例分割方法 | |
CN112733934B (zh) | 复杂环境下的多模态特征融合道路场景语义分割方法 | |
CN113989753A (zh) | 一种多目标检测处理方法及装置 | |
CN118072146B (zh) | 一种基于多层级特征融合的无人机航拍小目标检测方法 | |
CN114882449B (zh) | 一种基于Car-Det网络模型的车辆检测方法及装置 | |
CN117391177B (zh) | 一种驾驶员行为检测模型的构建方法及应用 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |