CN112699967A - 一种基于改进深度神经网络的远距离机场目标检测方法 - Google Patents
一种基于改进深度神经网络的远距离机场目标检测方法 Download PDFInfo
- Publication number
- CN112699967A CN112699967A CN202110061833.9A CN202110061833A CN112699967A CN 112699967 A CN112699967 A CN 112699967A CN 202110061833 A CN202110061833 A CN 202110061833A CN 112699967 A CN112699967 A CN 112699967A
- Authority
- CN
- China
- Prior art keywords
- airport runway
- training set
- image
- data
- airport
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 26
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 18
- 238000012549 training Methods 0.000 claims abstract description 273
- 230000006870 function Effects 0.000 claims abstract description 35
- 238000013136 deep learning model Methods 0.000 claims abstract description 34
- 238000003062 neural network model Methods 0.000 claims abstract description 20
- 238000000034 method Methods 0.000 claims abstract description 15
- 238000005457 optimization Methods 0.000 claims abstract description 4
- 238000012545 processing Methods 0.000 claims description 7
- 239000000126 substance Substances 0.000 claims description 6
- 239000004576 sand Substances 0.000 claims description 5
- 230000004913 activation Effects 0.000 claims description 3
- 238000007906 compression Methods 0.000 claims description 3
- 230000006835 compression Effects 0.000 claims description 3
- 230000002708 enhancing effect Effects 0.000 claims description 3
- 238000000605 extraction Methods 0.000 claims description 3
- 238000001914 filtration Methods 0.000 claims description 3
- 238000003707 image sharpening Methods 0.000 claims description 3
- 238000013507 mapping Methods 0.000 claims description 3
- 239000012855 volatile organic compound Substances 0.000 claims description 3
- 239000003550 marker Substances 0.000 claims description 2
- 238000002372 labelling Methods 0.000 abstract 1
- 238000011156 evaluation Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000002411 adverse Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000005764 inhibitory process Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
- G06F18/232—Non-hierarchical techniques
- G06F18/2321—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
- G06F18/23213—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4053—Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computational Linguistics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Evolutionary Biology (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Probability & Statistics with Applications (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明提出了一种基于改进深度神经网络的远距离机场目标检测方法。本发明构建机场跑道图像训练集,采用外接矩形边框标注该训练集中每幅图像的机场跑道区域,并标记其跑道状态,构建深度学习模型图像训练集;将机场跑道图像训练集中的跑道区域进行超分辨重建,得到扩充后深度学习模型图像训练集;根据darknet‑53网络构建深度神经网络模型,采用k‑means算法改进先验框,得到适合扩充后深度学习模型图像训练集的先验框,结合先验框构建深度神经网络模型的损失函数模型,将扩充后深度学习模型图像训练集作为训练集输入,通过优化训练得到优化后的深度神经网络模型。本发明能够准确实现机场目标的检测,具有较好的实时性和准确性,方便重新训练适应新的跑道场景。
Description
技术领域
本发明属于机场目标检测领域,尤其涉及一种基于改进深度神经网络的远距离机场目标检测方法。
背景技术
机场是一类重要的战略目标,它的识别检测在实际应用中具有重要的意义,在军事领域,正确检测识别出军用机场就准确袭击敌方空军,摧毁跑道,造成机场毁伤,同时,也是我方能量补给、交通中转和停靠的地方;在民用领域,机场是重要的交通枢纽,飞机已成为人们出行的交通工具,跑道的准确识别能够确保飞机的安全降落,可以在不利因素下实现自主导航,提高航空系统和人员的安全性。因此,机场目标检测在飞机自动导航和准确着陆中具有重要意义。
传统的机场目标检测方法基于跑道线出发,利用军用机场的几何结构或民用机场的跑道平行线特征、灰度特征等来检测跑道。然而这些方法具有一定的局限性,其检测基于已经存在跑道图片,其跑道区域往往占据图片中心区域,并且跑道线明确,并不适用基于远距离的机场目标检测。
基于远距离的机场目标检测技术难点在于:
远距离机场目标数据集较少,使用简单的图像处理,直线检测方法来检测机场跑道不具备代表性;
基于远距离的机场目标图片背景复杂,跑道只占用图像的5%左右,不一定能够读取到机场跑道线,采用传统的基于跑道线的检测方法无法检测到机场目标。
发明内容
为了解决现有技术存在的问题,本发明新建了机场目标数据集,提供了一种基于改进深度神经网络的远距离机场目标检测方法。
本发明解决其技术问题所采用的技术方案是:提供一种基于改进深度神经网络的远距离机场目标检测方法,该方法包括以下步骤,
步骤1:构建机场跑道图像训练集,采用机场跑道外接矩形边框标注机场跑道图像训练集中每幅机场跑道图像的机场跑道区域,标记机场跑道图像训练集中每幅机场跑道图像的跑道状态,构建深度学习模型图像训练集;
步骤2:将机场跑道图像训练集中每幅机场跑道图像的机场跑道区域通过超分辨率网络进行超分辨重建扩充深度学习模型图像训练集,得到扩充后深度学习模型图像训练集;
步骤3:结合扩充后深度学习模型图像训练集中外接矩形边框,采用k-means++算法改进外接矩形边框,得到适合扩充后深度学习模型图像训练集中每个样本对应的先验框;
步骤4:根据darknet-53网络构建深度神经网络模型,结合先验框构建深度神经网络模型的损失函数模型,将扩充后深度学习模型图像训练集作为训练集输入,通过优化训练得到优化后的深度神经网络模型。
作为优选,步骤1所述机场跑道图像训练集为:
{datak(x,y),k∈[1,K],x∈[1,X],y∈[1,Y]}
其中,,datak(x,y)表示机场跑道图像训练集中第k幅机场跑道图像的第x行第y列像素信息,K表示机场跑道图像训练集中机场跑道图像的数量,X为机场跑道图像训练集中机场跑道图像的行数,Y为机场跑道图像训练集中机场跑道图像的列数;
步骤1所述的机场跑道图像训练集中每幅机场跑道图像的机场跑道外接矩形边框为:
其中,表示机场跑道图像训练集中第k幅机场跑道图像中第n个机场跑道外接矩形边框左上角坐标,表示机场跑道图像训练集中第k幅机场跑道图像中第n个机场跑道外接矩形边框的左上角横坐标,表示机场跑道图像训练集中第k幅机场跑道图像中第n个机场跑道外接矩形边框的左上角纵坐标;表示机场跑道训练集中第k幅机场跑道图像中第n个机场跑道外接矩形边框右下角坐标,表示机场跑道图像训练集中第k幅机场跑道图像中第n个机场跑道外接矩形边框的右下角横坐标,表示机场跑道图像训练集中第k幅机场跑道图像中第n个机场跑道外接矩形边框的右下角纵坐标;Nk表示机场跑道图像训练集中第k幅机场跑道图像中机场跑道目标的数量即机场跑道外接矩形边框的数量;
步骤1所述机场跑道图像训练集中每幅机场跑道图像的跑道状态为:
{typek,n,s,k∈[1,K],n∈[1,Nk],s∈[1,2]}
其中,typek,n,1表示机场跑道图像训练集中第k幅机场跑道图像第n个机场跑道外接矩形框内存在机场跑道,typek,n,2表示机场跑道图像训练集中第k幅图像第n个机场跑道外接矩形框内不存在机场跑道。
步骤1所述深度学习模型图像训练集为:
k∈[1,K],x∈[1,X],y∈[1,Y],n∈[1,Nk],s∈[1,2]
其中,datak(x,y)表示机场跑道的图像训练集中第k幅机场跑道图像第x行第y列像素信息,表示机场跑道图像训练集中第k幅机场跑道图像中第n个机场跑道外接矩形边框的左上角横坐标,表示机场跑道图像训练集中第k幅机场跑道图像中第n个机场跑道外接矩形边框的左上角纵坐标,表示机场跑道图像训练集中第k幅机场跑道图像中第n个机场跑道外接矩形边框的右下角横坐标,表示机场跑道图像训练集中第k幅机场跑道图像中第n个机场跑道外接矩形边框的右下角纵坐标,typek,n,s表示机场跑道的图像训练集中第k幅机场跑道图像第n个机场跑道外接矩形边框中跑道的第s个状态类型;
作为优选,所述步骤2中,通过超分辨率网络进行超分辨重建扩充深度学习模型图像训练集,包括以下步骤:
步骤2.1,在机场跑道图像训练集中随机选取部分训练集构建高分辨率网络训练集;对选取的训练集中的每幅机场跑道图像的机场跑道外接矩形边框进行裁剪,获得只包含机场跑道区域的目标图像,减少背景特征;
在训练集中原图中裁剪的左上角坐标为:
右下角坐标为:
如果裁剪坐标范围超出原图边界,则取边界值,裁剪后的得到的图像大小为外接矩形框区域的2倍,保存为新的高分辨率网络训练集图像;
所述构建高分辨率网络训练集为:
{datac(x,y)=datak(x,y)+datat(x,y),k∈[1,T],t∈[1,T],T∈[1,K]}
其中,datac(x,y)为高分辨率网络训练集中第c幅机场跑道图像第x行第y列像素信息,{datak(x,y),k∈[1,T]}为机场跑道训练集中随机选取的部分数据集,datat(x,y)为对随机数据集裁剪后的训练集中第t幅机场跑道图像第x行第y列像素信息,表示该训练集中第t幅机场跑道图像中第n个机场跑道外接矩形边框的左上角横坐标,表示该训练集中第t幅机场跑道图像中第n个机场跑道外接矩形边框的左上角纵坐标,表示该训练集中第t幅机场跑道图像中第n个机场跑道外接矩形边框的右下角横坐标,表示该训练集中第t幅机场跑道图像中第n个机场跑道外接矩形边框的右下角纵坐标,typet,n,s表示该训练集中第t幅机场跑道图像第n个机场跑道外接矩形边框中跑道的第s个状态类型,T为高分辨率网络训练集中图像数量,K为机场跑道训练集中图像数量。
对高分辨率网络训练集中每幅图像进行数据增强处理得到数据增强后高分辨率网络训练集为:
{datac1(x,y)=datak1(x,y)+datat1(x,y),
k1∈[1,4T],t1∈[1,4T],T∈[1,K]}
其中,datac1(x,y)为数据增强后高分辨率网络训练集中第c1幅机场跑道图像第x行第y列像素信息,4T为数据增强后高分辨率网络训练集中的图像数量;datak1(x,y)为训练集{darak(x,y),k∈[1,T]}数据集增强后第k1幅机场跑道图像第x行第y列像素信息,和表示该训练集中第k1幅机场跑道图像中第n个机场跑道外接矩形边框的左上角横坐标和纵坐标,和表示该训练集中第k1幅机场跑道图像中第n个机场跑道外接矩形边框的右下角横坐标和纵坐标,typek1,n,s表示该训练集中第k1幅机场跑道图像第n个机场跑道外接矩形边框中跑道的第s个状态类型,datat1(x,y)为训练集datat(x,y)数据集增强后第t1幅机场跑道图像第x行第y列像素信息,和表示该训练集中第t1幅机场跑道图像中第n个机场跑道外接矩形边框的左上角横坐标和纵坐标,和表示该训练集中第t1幅机场跑道图像中第n个机场跑道外接矩形边框的右下角横坐标和纵坐标,typet1,n,s表示该训练集中第t1幅机场跑道图像第n个机场跑道外接矩形边框中跑道的第s个状态类型,所述行数据增强处理为:
图像锐化处理、图像对比度增强、图像饱和度增强、滤除噪声;
步骤2.2,采用FSRCNN网络对高分辨率数据集进行训练,该网络包括特征提取、压缩、映射、扩展、去卷积五个部分,采用PRELU作为激活函数,均方误差MSE作为损失函数得到训练后FSRCNN网络;
所述FSRCNN网络的损失函数为:
其中,C是超分辨率网络训练样本总数,data′c1为超分辨率训练网络中得到的第c1幅预测图像,datac1为超分辨率训练网络中的第c1幅真实图像。
步骤2.3,输入深度学习模型图像训练集中的其它未被随机选取用于超分辨率网络训练集的机场跑道图像,
datas=datak-datat,s∈[T,K],k∈[1,K],t∈[1,T]
datai=datak+data′s,k∈[1,K],t∈[T,K]
其中,data′s为datas经过FSRCNN网络超分辨率重建后得到的图像。2K-T为用于深度学习模型图像训练集的总图像数,datai(x,y)为总训练集第i幅机场跑道图像第x行第y列像素信息,和表示该训练集中第i幅机场跑道图像中第n个机场跑道外接矩形边框的左上角横坐标和纵坐标,和表示该训练集中第i幅机场跑道图像中第n个机场跑道外接矩形边框的右下角横坐标和纵坐标,typei,n.s表示该训练集中第i幅机场跑道图像第n个机场跑道外接矩形边框中跑道的第s个状态类型;
作为优选,所述步骤3中,采用k-means++算法改进外接矩形边框,包括以下步骤:
步骤3.1,根据训练集中外接矩形边框的左上角坐标信息和右下角坐标信息,可以得到每个外接矩形边框的宽和高,将每一张图像的一个外接矩形边框的宽高数据视为一个数据点(wi,n,hi,n),从输入的数据集合随机选择一个数据作为初始聚类中心(wc,hc);
其中,wi,n为总训练集中第i幅机场跑道图像第n个机场跑道外接矩形边框的宽,hi,n为总训练集中第i幅机场跑道图像第n个机场跑道外接矩形边框的高。
步骤3.2,对于数据集中的每一个样本点(wi,n,hi,n),计算它与初始聚类中心的距离(wc,hc),具体为:
d(box,centroid)=1-IOU(box,centroid)
IOU(box,centroid)为初始聚类中心和当前外接矩形边框的交并比,box表示随机样本点(wi,n,hi,n),centroid表示初始化的聚类中心(wc,hc);
其中,初始聚类中心和当前外接矩形边框并集的面积为:
初始聚类中心和当前外接矩形边框交集的面积为
S2=wi×hi+wc×hc-S1
所以,IOU=S1/S2
步骤3.3,选择一个新的数据点作为新的聚类中心,选择原则是,距离d(box,centroid)较大的点,被选取作为聚类中心的概率较大;
步骤3.4,重复步骤3.2和步骤3.3直至k个聚类中心被选出来,利用这k个初始的聚类中心来运行标准的k-means算法;
步骤3.5,从1开始选取k值,随着k增加到某个值时,对应此k值得平均交并比变化越来越小,在拐点附近取值作为最优聚类个数,生成适合本训练集的先验框;
作为优选,步骤4所述结合先验框构建深度神经网络模型的损失函数模型为:
改进深度神经网络模型的损失函数模型基于YOLO v3损失函数模型,由预测目标框bbox位置x,y,w,h带来的误差,目标框置信度obj误差和类别class误差三部分组成,损失函数公式如下:
其中,N×N表示将扩充后数据集datai(x,y)中的每张图片划分为N×N的网格的大小,M表示每个小网格预测的目标框个数,带′的表示预测值,不带′的表示标签即真实值,(xp,yp)表示第p个小网格标记矩形框的中心坐标,wp,xp表示第p个小网格标记矩形框的长和宽,如果该网格中不存在标记的外接矩形框,即xp,yp不满足如下条件时:
xp,yp,wp,hp为0,表示如果第p个小网格处的第q个预测的目标框存在目标,其值为1,否则为0,表示如果第p个小网格处的第q个预测的目标框不存在目标,其值为1,否则为0,Cp表示第p个小网格的存在目标的概率,pp(c)表示第p个小网格的存在目标属于机场跑道类别的概率。(x′p,y′p)表示第p个小网格预测的矩形框的中心坐标,w′p,h′p表示第p个小网格预测的矩形框的长和宽,C′p表示第p个小网格的预测当前矩形框存在目标的概率,P′p(c)表示第p个小网格的预测当前矩形框存在目标属于机场跑道类别的概率。
将扩充后的训练集datai(x,y)送入改进的神经网络中训练,根据在步骤3中得到的先验框,由损失函数知,每个小网格会预测多个目标框,目标框与先验框形状大小类似,从而得到目标框与每个先验框的交并比,最大的交并比值对应的先验框负责预测真实目标,通过损失函数不断调整网络参数直至完成训练。
结合上述的所有技术方案,本发明所具备的优点是:本发明新建了机场目标数据集,并采用超分辨率网络扩充数据集,结合深度学习方法训练适合机场区域的深度神经网络模型,解决了远距离机场跑道识别检测的问题,能够准确实现机场目标的检测,具有较好的实时性和准确性,方便重新训练适应新的跑道场景。
附图说明
下面将结合附图及实施例对本发明作进一步说明,附图中:
图1是本发明实施例基于改进深度神经网络的远距离机场目标检测方法流程图。
图2是本发明实例中提供的机场目标训练集统计结果。
图3是本发明实例中提供的机场目标训练集部分图片。
图4是本发明训练过程中损失函数的变化曲线图。
图5是本发明模型性能评价指标precision-recall曲线图。
图6是本发明实例中提供的方法检测得到的远距离机场目标图片。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,结合以下实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本发明,并不用于限定本发明。
下面结合图1至图6描述本发明的具体实施方式。
如图1所示,本发明实施例中,提供一种基于改进深度神经网络的远距离机场目标检测方法,包括以下步骤,
步骤1:构建机场跑道图像训练集,如图2所示,为构建机场跑道图像训练集的详细信息,采用机场跑道外接矩形边框标注机场跑道图像训练集中每幅机场跑道图像的机场跑道区域,标记机场跑道图像训练集中每幅机场跑道图像的跑道状态,构建深度学习模型图像训练集。
步骤1所述机场跑道图像训练集为:
{datak(x,y),k∈[1,K],x∈[1,X],y∈[1,Y]}
其中,datak(x,y)表示机场跑道图像训练集中第k幅机场跑道图像的第x行第y列像素信息,K=2344表示机场跑道图像训练集中机场跑道图像的数量,X为机场跑道图像训练集中机场跑道图像的行数,Y为机场跑道图像训练集中机场跑道图像的列数;不同的机场跑道图像X,Y不同,此训练集中X,Y值有如下几种:
X=1920,Y=1080或X=2160,Y=1440
或X=1280,Y=720或X=320,Y=240或X=352,Y=240
步骤1所述的机场跑道图像训练集中每幅机场跑道图像的机场跑道外接矩形边框为:
其中,表示机场跑道图像训练集中第k幅机场跑道图像中第n个机场跑道外接矩形边框左上角坐标,表示机场跑道图像训练集中第k幅机场跑道图像中第n个机场跑道外接矩形边框的左上角横坐标,表示机场跑道图像训练集中第k幅机场跑道图像中第n个机场跑道外接矩形边框的左上角纵坐标;表示机场跑道训练集中第k幅机场跑道图像中第n个机场跑道外接矩形边框右下角坐标,表示机场跑道图像训练集中第k幅机场跑道图像中第n个机场跑道外接矩形边框的右下角横坐标,表示机场跑道图像训练集中第k幅机场跑道图像中第n个机场跑道外接矩形边框的右下角纵坐标;Nk表示机场跑道图像训练集中第k幅机场跑道图像中机场跑道目标的数量即机场跑道外接矩形边框的数量;
步骤1所述机场跑道图像训练集中每幅机场跑道图像的跑道状态为:
{typek,n,s,k∈[1,K],n∈[1,Nk],s∈[1,2]}
其中,typek,n,1表示机场跑道图像训练集中第k幅机场跑道图像第n个机场跑道外接矩形框内存在机场跑道,typek,n,2表示机场跑道图像训练集中第k幅图像第n个机场跑道外接矩形框内不存在机场跑道。
步骤1所述深度学习模型图像训练集为:
k∈[1,K],x∈[1,X],y∈[1,Y],n∈[1,Nk],s∈[1,2]
其中,datak(x,y)表示机场跑道的图像训练集中第k幅机场跑道图像第x行第y列像素信息,表示机场跑道图像训练集中第k幅机场跑道图像中第n个机场跑道外接矩形边框的左上角横坐标,表示机场跑道图像训练集中第k幅机场跑道图像中第n个机场跑道外接矩形边框的左上角纵坐标,表示机场跑道图像训练集中第k幅机场跑道图像中第n个机场跑道外接矩形边框的右下角横坐标,表示机场跑道图像训练集中第k幅机场跑道图像中第n个机场跑道外接矩形边框的右下角纵坐标,typek,n,s表示机场跑道的图像训练集中第k幅机场跑道图像第n个机场跑道外接矩形边框中跑道的第s个状态类型;
步骤2:将机场跑道图像训练集中每幅机场跑道图像的机场跑道区域通过超分辨率网络进行超分辨重建扩充深度学习模型图像训练集,得到扩充后深度学习模型图像训练集,部分训练集图像如图3所示;
所述步骤2中,通过超分辨率网络进行超分辨重建扩充深度学习模型图像训练集,包括以下步骤:
步骤2.1,在机场跑道图像训练集中随机选取部分训练集构建高分辨率网络训练集;对选取的训练集中的每幅机场跑道图像的机场跑道外接矩形边框进行裁剪,获得只包含机场跑道区域的目标图像,减少背景特征;
在训练集中原图中裁剪的左上角坐标为:
右下角坐标为:
如果裁剪坐标范围超出原图边界,则取边界值,裁剪后的得到的图像大小为外接矩形框区域的2倍,保存为新的高分辨率网络训练集图像;
所述构建高分辨率网络训练集为:
{datac(x,y)=datak(x,y)+datat(x,y),k∈[1,T],t∈[1,T],T∈[1,K]}
其中,datac(x,y)为高分辨率网络训练集中第c幅机场跑道图像第x行第y列像素信息,{datak(x,y),k∈[1,T]}为机场跑道训练集中随机选取的部分数据集,datat(x,y)为对随机数据集裁剪后的训练集中第t幅机场跑道图像第x行第y列像素信息,表示该训练集中第t幅机场跑道图像中第n个机场跑道外接矩形边框的左上角横坐标,表示该训练集中第t幅机场跑道图像中第n个机场跑道外接矩形边框的左上角纵坐标,表示该训练集中第t幅机场跑道图像中第n个机场跑道外接矩形边框的右下角横坐标,表示该训练集中第t幅机场跑道图像中第n个机场跑道外接矩形边框的右下角纵坐标,typet,n,s表示该训练集中第t幅机场跑道图像第n个机场跑道外接矩形边框中跑道的第s个状态类型,T=400为高分辨率网络训练集中图像数量,K=2344为机场跑道训练集中图像数量。
对高分辨率网络训练集中每幅图像进行数据增强处理得到数据增强后高分辨率网络训练集为:
{datac1(x,y)=datak1(x,y)+datat1(x,y),
k1∈[1,4T],t1∈[1,4T],T∈[1,K]}
其中,datac1(x,y)为数据增强后高分辨率网络训练集中第c1幅机场跑道图像第x行第y列像素信息,4T=1600为数据增强后高分辨率网络训练集中的图像数量;datak1(x,y)为训练集{datak(x,y),k∈[1,T]}数据集增强后第k1幅机场跑道图像第x行第y列像素信息,和表示该训练集中第k1幅机场跑道图像中第n个机场跑道外接矩形边框的左上角横坐标和纵坐标,和表示该训练集中第k1幅机场跑道图像中第n个机场跑道外接矩形边框的右下角横坐标和纵坐标,typek1,n,s表示该训练集中第k1幅机场跑道图像第n个机场跑道外接矩形边框中跑道的第s个状态类型,datat1(x,y)为训练集datat(x,y)数据集增强后第t1幅机场跑道图像第x行第y列像素信息,和表示该训练集中第t1幅机场跑道图像中第n个机场跑道外接矩形边框的左上角横坐标和纵坐标,和表示该训练集中第t1幅机场跑道图像中第n个机场跑道外接矩形边框的右下角横坐标和纵坐标,typet1,n,s表示该训练集中第t1幅机场跑道图像第n个机场跑道外接矩形边框中跑道的第s个状态类型,所述行数据增强处理为:
图像锐化处理、图像对比度增强、图像饱和度增强、滤除噪声;
步骤2.2,采用FSRCNN网络对高分辨率数据集进行训练,该网络包括特征提取、压缩、映射、扩展、去卷积五个部分,采用PRELU作为激活函数,均方误差MSE作为损失函数得到训练后FSRCNN网络;
所述FSRCNN网络的损失函数为:
其中,C=1600是超分辨率网络训练样本总数,data′c1为超分辨率训练网络中得到的第c1幅预测图像,datac1为超分辨率训练网络中的第c1幅真实图像。
步骤2.3,输入深度学习模型图像训练集中的其它未被随机选取用于超分辨率网络训练集的机场跑道图像,
datas=datak-datat,s∈[T,K],k∈[1,K],t∈[1,T]
datai=datak+data′s,k∈[1,K],t∈[T,K]
其中,data′s为datas经过FSRCNN网络超分辨率重建后得到的图像。2K-T=4288为用于深度学习模型图像训练集的总图像数,datai(x,y)为总训练集第i幅机场跑道图像第x行第y列像素信息,和表示该训练集中第i幅机场跑道图像中第n个机场跑道外接矩形边框的左上角横坐标和纵坐标,和表示该训练集中第i幅机场跑道图像中第n个机场跑道外接矩形边框的右下角横坐标和纵坐标,typei,n.s表示该训练集中第i幅机场跑道图像第n个机场跑道外接矩形边框中跑道的第s个状态类型,
步骤3:结合扩充后深度学习模型图像训练集中外接矩形边框,采用k-means++算法改进外接矩形边框,得到适合扩充后深度学习模型图像训练集中每个样本对应的先验框;
按上述技术方案,所述步骤3中,采用k-means++算法改进外接矩形边框,包括以下步骤:
步骤3.1,根据训练集中外接矩形边框的左上角坐标信息和右下角坐标信息,可以得到每个外接矩形边框的宽和高,将每一张图像的一个外接矩形边框的宽高数据视为一个数据点(wi,n,hi,n),从输入的数据集合随机选择一个数据作为初始聚类中心(wc,hc);
其中,wi,n为总训练集中第i幅机场跑道图像第n个机场跑道外接矩形边框的宽,hi,n为总训练集中第i幅机场跑道图像第n个机场跑道外接矩形边框的高。
步骤3.2,对于数据集中的每一个样本点(wi,n,hi,n),计算它与初始聚类中心的距离(wc,hc),具体为:
d(box,centroid)=1-IOU(box,centroid)
IOU(box,centroid)为初始聚类中心和当前外接矩形边框的交并比,box表示随机样本点(wi,n,hi,n),centroid表示初始化的聚类中心(wc,hc);
其中,初始聚类中心和当前外接矩形边框并集的面积为:
初始聚类中心和当前外接矩形边框交集的面积为
S2=wi×hi+wc×hc-S1
所以,IOU=S1/S2
步骤3.3,选择一个新的数据点作为新的聚类中心,选择原则是,距离d(box,centroid)较大的点,被选取作为聚类中心的概率较大;
步骤3.4,重复步骤3.2和步骤3.3直至k个聚类中心被选出来,利用这k个初始的聚类中心来运行标准的k-means算法;
步骤3.5,从1开始选取k值,随着k增加到某个值时,对应此k值得平均交并比变化越来越小,在拐点附近取值作为最优聚类个数,生成适合本训练集的先验框,生成的先验框个数为9个,各个先验框的长宽分别为[20,29],[54,63],[98,101],[96,172],[191,146],[170,275],[324,233],[577,299],[657,455];
步骤4:根据darknet-53网络构建深度神经网络模型,结合先验框构建深度神经网络模型的损失函数模型,将扩充后深度学习模型图像训练集作为训练集输入,通过优化训练得到优化后的深度神经网络模型;
步骤4所述结合先验框构建深度神经网络模型的损失函数模型为:
改进深度神经网络模型的损失函数模型基于YOLO v3损失函数模型,由预测目标框bbox位置x,y,w,h带来的误差,目标框置信度obj误差和类别class误差三部分组成,损失函数公式如下:
其中,N×N表示将扩充后数据集datai(x,y)中的每张图片划分为13×13,26×26,52×52的网格的大小,M=3表示每个小网格预测的目标框个数,带′的表示预测值,不带′的表示标签即真实值,(xp,yp)表示第p个小网格标记矩形框的中心坐标,wp,hp表示第p个小网格标记矩形框的长和宽,如果该网格中不存在标记的外接矩形框,即xp,yp不满足如下条件时:
xp,yp,wp,hp为0,表示如果第p个小网格处的第q个预测的目标框存在目标,其值为1,否则为0,表示如果第p个小网格处的第q个预测的目标框不存在目标,其值为1,否则为0,Cp表示第p个小网格的存在目标的概率,pp(c)表示第p个小网格的存在目标属于机场跑道类别的概率。(x′p,y′p)表示第p个小网格预测的矩形框的中心坐标,w′p,h′p表示第p个小网格预测的矩形框的长和宽,C′p表示第p个小网格的预测当前矩形框存在目标的概率,P′p(c)表示第p个小网格的预测当前矩形框存在目标属于机场跑道类别的概率。
将扩充后的训练集datai(x,y)送入改进的神经网络中训练,根据在步骤3中得到的先验框,由损失函数知,每个小网格会预测多个目标框,目标框与先验框形状大小类似,从而得到目标框与每个先验框的交并比,最大的交并比值对应的先验框负责预测真实目标,通过损失函数不断调整网络参数直至完成训练。损失函数变换曲线图如图4所示。
步骤5:基于改进的深度神经网络对待检测机场跑道图像检测并保存。如图5所示为该改进模型性能评价指标曲线图。
基于改进深度神经网络检测待识别的远距离机场目标,用预训练后的网络模型对输入图片提取特征,送入到改进的深度神经网络模型中,模型内部会自动结合浅层和深层特征,通过多尺度检测模块进行预测,采用极大值抑制法去除冗余框,最终得到远距离机场跑道识别结果,并保存目标的坐标信息。如图6所示为检测某幅待识别机场跑道图像的结果图。
应当理解的是,对本领域普通技术人员来说,可以根据上述说明加以改进或变换,而所有这些改进和变换都应属于本发明所附权利要求的保护范围。
Claims (5)
1.一种基于改进深度神经网络的远距离机场目标检测方法,其特征在于,包括以下步骤:
步骤1:构建机场跑道图像训练集,采用机场跑道外接矩形边框标注机场跑道图像训练集中每幅机场跑道图像的机场跑道区域,标记机场跑道图像训练集中每幅机场跑道图像的跑道状态,构建深度学习模型图像训练集;
步骤2:将机场跑道图像训练集中每幅机场跑道图像的机场跑道区域通过超分辨率网络进行超分辨重建扩充深度学习模型图像训练集,得到扩充后深度学习模型图像训练集;
步骤3:结合扩充后深度学习模型图像训练集中外接矩形边框,采用k-means++算法改进外接矩形边框,得到适合扩充后深度学习模型图像训练集中每个样本对应的先验框;
步骤4:根据darknet-53网络构建深度神经网络模型,结合先验框构建深度神经网络模型的损失函数模型,将扩充后深度学习模型图像训练集作为训练集输入,通过优化训练得到优化后的深度神经网络模型。
2.根据权利要求1所述的基于改进深度神经网络的远距离机场目标检测方法,其特征在于:
步骤1所述机场跑道图像训练集为:
{datak(x,y),k∈[1,K],x∈[1,X],y∈[1,Y]}
其中,,datak(x,y)表示机场跑道图像训练集中第k幅机场跑道图像的第x行第y列像素信息,K表示机场跑道图像训练集中机场跑道图像的数量,X为机场跑道图像训练集中机场跑道图像的行数,Y为机场跑道图像训练集中机场跑道图像的列数;
步骤1所述的机场跑道图像训练集中每幅机场跑道图像的机场跑道外接矩形边框为:
其中,表示机场跑道图像训练集中第k幅机场跑道图像中第n个机场跑道外接矩形边框左上角坐标,表示机场跑道图像训练集中第k幅机场跑道图像中第n个机场跑道外接矩形边框的左上角横坐标,表示机场跑道图像训练集中第k幅机场跑道图像中第n个机场跑道外接矩形边框的左上角纵坐标;表示机场跑道训练集中第k幅机场跑道图像中第n个机场跑道外接矩形边框右下角坐标,表示机场跑道图像训练集中第k幅机场跑道图像中第n个机场跑道外接矩形边框的右下角横坐标,表示机场跑道图像训练集中第k幅机场跑道图像中第n个机场跑道外接矩形边框的右下角纵坐标;Nk表示机场跑道图像训练集中第k幅机场跑道图像中机场跑道目标的数量即机场跑道外接矩形边框的数量;
步骤1所述机场跑道图像训练集中每幅机场跑道图像的跑道状态为:
{typek,n,s,k∈[1,K],n∈[1,Nk],s∈[1,2]}
其中,typek,n,1表示机场跑道图像训练集中第k幅机场跑道图像第n个机场跑道外接矩形框内存在机场跑道,typek,n,2表示机场跑道图像训练集中第k幅图像第n个机场跑道外接矩形框内不存在机场跑道;
步骤1所述深度学习模型图像训练集为:
3.根据权利要求1所述的基于改进深度神经网络的远距离机场目标检测方法,其特征在于:
所述步骤2中,通过超分辨率网络进行超分辨重建扩充深度学习模型图像训练集,包括以下步骤:
步骤2.1,在机场跑道图像训练集中随机选取部分训练集构建高分辨率网络训练集;对选取的训练集中的每幅机场跑道图像的机场跑道外接矩形边框进行裁剪,获得只包含机场跑道区域的目标图像,减少背景特征;
在训练集中原图中裁剪的左上角坐标为:
右下角坐标为:
如果裁剪坐标范围超出原图边界,则取边界值,裁剪后的得到的图像大小为外接矩形框区域的2倍,保存为新的高分辨率网络训练集图像;
所述构建高分辨率网络训练集为:
{datac(x,y)=datak(x,y)+datat(x,y),k∈[1,T],t∈[1,T],T∈[1,K]}
其中,datac(x,y)为高分辨率网络训练集中第c幅机场跑道图像第x行第y列像素信息,{datak(x,y),k∈[1,T]}为机场跑道训练集中随机选取的部分数据集,datat(x,y)为对随机数据集裁剪后的训练集中第t幅机场跑道图像第x行第y列像素信息,表示该训练集中第t幅机场跑道图像中第n个机场跑道外接矩形边框的左上角横坐标,表示该训练集中第t幅机场跑道图像中第n个机场跑道外接矩形边框的左上角纵坐标,表示该训练集中第t幅机场跑道图像中第n个机场跑道外接矩形边框的右下角横坐标,表示该训练集中第t幅机场跑道图像中第n个机场跑道外接矩形边框的右下角纵坐标,typet,n,s表示该训练集中第t幅机场跑道图像第n个机场跑道外接矩形边框中跑道的第s个状态类型,T为高分辨率网络训练集中图像数量,K为机场跑道训练集中图像数量;
对高分辨率网络训练集中每幅图像进行数据增强处理得到数据增强后高分辨率网络训练集为:
{datac1(x,y)=datak1(x,y)+datat1(x,y),
k1∈[1,4T],t1∈[1,4T],T∈[1,K]}
其中,datac1(x,y)为数据增强后高分辨率网络训练集中第c1幅机场跑道图像第x行第y列像素信息,4T为数据增强后高分辨率网络训练集中的图像数量;datak1(x,y)为训练集{datak(x,y),k∈[1,T]}数据集增强后第k1幅机场跑道图像第x行第y列像素信息,和表示该训练集中第k1幅机场跑道图像中第n个机场跑道外接矩形边框的左上角横坐标和纵坐标,和表示该训练集中第k1幅机场跑道图像中第n个机场跑道外接矩形边框的右下角横坐标和纵坐标,typek1,n,s表示该训练集中第k1幅机场跑道图像第n个机场跑道外接矩形边框中跑道的第s个状态类型,datat1(x,y)为训练集datat(x,y)数据集增强后第t1幅机场跑道图像第x行第y列像素信息,和表示该训练集中第t1幅机场跑道图像中第n个机场跑道外接矩形边框的左上角横坐标和纵坐标,和表示该训练集中第t1幅机场跑道图像中第n个机场跑道外接矩形边框的右下角横坐标和纵坐标,typet1,n,s表示该训练集中第t1幅机场跑道图像第n个机场跑道外接矩形边框中跑道的第s个状态类型,所述行数据增强处理为:
图像锐化处理、图像对比度增强、图像饱和度增强、滤除噪声;
步骤2.2,采用FSRCNN网络对高分辨率数据集进行训练,该网络包括特征提取、压缩、映射、扩展、去卷积五个部分,采用PRELU作为激活函数,均方误差MSE作为损失函数得到训练后FSRCNN网络;
所述FSRCNN网络的损失函数为:
其中,C是超分辨率网络训练样本总数,data′c1为超分辨率训练网络中得到的第c1幅预测图像,datac1为超分辨率训练网络中的第c1幅真实图像;
步骤2.3,输入深度学习模型图像训练集中的其它未被随机选取用于超分辨率网络训练集的机场跑道图像,
datas=datak-datat,s∈[T,K],k∈[1,K],t∈[1,T]
datai=datak+data′s,k∈[1,K],t∈[T,K]
4.根据权利要求1所述的基于改进深度神经网络的远距离机场目标检测方法,其特征在于:
所述步骤3中,采用k-means++算法改进外接矩形边框,包括以下步骤:
步骤3.1,根据训练集中外接矩形边框的左上角坐标信息和右下角坐标信息,可以得到每个外接矩形边框的宽和高,将每一张图像的一个外接矩形边框的宽高数据视为一个数据点(wi,n,hi,n),从输入的数据集合随机选择一个数据作为初始聚类中心(wc,hc);
其中,wi,n为总训练集中第i幅机场跑道图像第n个机场跑道外接矩形边框的宽,hi,n为总训练集中第i幅机场跑道图像第n个机场跑道外接矩形边框的高;
步骤3.2,对于数据集中的每一个样本点(wi,n,hi,n),计算它与初始聚类中心的距离(wc,hc),具体为:
d(box,centroid)=1-IOU(box,centroid)
IOU(box,centroid)为初始聚类中心和当前外接矩形边框的交并比,box表示随机样本点(wi,n,hi,n),centroid表示初始化的聚类中心(wc,hc);
其中,初始聚类中心和当前外接矩形边框并集的面积为:
初始聚类中心和当前外接矩形边框交集的面积为
S2=wi×hi+wc×hc-S1
所以,IOU=S1/S2
步骤3.3,选择一个新的数据点作为新的聚类中心,选择原则是,距离d(box,centroid)较大的点,被选取作为聚类中心的概率较大;
步骤3.4,重复步骤3.2和步骤3.3直至k个聚类中心被选出来,利用这k个初始的聚类中心来运行标准的k-means算法;
步骤3.5,从1开始选取k值,随着k增加到某个值时,对应此k值得平均交并比变化越来越小,在拐点附近取值作为最优聚类个数,生成适合本训练集的先验框。
5.根据权利要求1所述的基于改进深度神经网络的远距离机场目标检测方法,其特征在于:
步骤4所述结合先验框构建深度神经网络模型的损失函数模型为:
改进深度神经网络模型的损失函数模型基于YOLO v3损失函数模型,由预测目标框bbox位置x,y,w,h带来的误差,目标框置信度obj误差和类别class误差三部分组成,损失函数公式如下:
其中,N×N表示将扩充后数据集datai(x,y)中的每张图片划分为N×N的网格的大小,M表示每个小网格预测的目标框个数,带′的表示预测值,不带′的表示标签即真实值,(xp,yp)表示第p个小网格标记矩形框的中心坐标,wp,hp表示第p个小网格标记矩形框的长和宽,如果该网格中不存在标记的外接矩形框,即xp,yp不满足如下条件时:
xp,yp,wp,hp为0,表示如果第p个小网格处的第q个预测的目标框存在目标,其值为1,否则为0,表示如果第p个小网格处的第q个预测的目标框不存在目标,其值为1,否则为0,Cp表示第p个小网格的存在目标的概率,pp(c)表示第p个小网格的存在目标属于机场跑道类别的概率;(x′p,y′p)表示第p个小网格预测的矩形框的中心坐标,w′p,h′p表示第p个小网格预测的矩形框的长和宽,C′p表示第p个小网格的预测当前矩形框存在目标的概率,P′p(c)表示第p个小网格的预测当前矩形框存在目标属于机场跑道类别的概率;
将扩充后的训练集datai(x,y)送入改进的神经网络中训练,根据在步骤3中得到的先验框,由损失函数知,每个小网格会预测多个目标框,目标框与先验框形状大小类似,从而得到目标框与每个先验框的交并比,最大的交并比值对应的先验框负责预测真实目标,通过损失函数不断调整网络参数直至完成训练。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110061833.9A CN112699967B (zh) | 2021-01-18 | 2021-01-18 | 一种基于改进深度神经网络的远距离机场目标检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110061833.9A CN112699967B (zh) | 2021-01-18 | 2021-01-18 | 一种基于改进深度神经网络的远距离机场目标检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112699967A true CN112699967A (zh) | 2021-04-23 |
CN112699967B CN112699967B (zh) | 2024-03-12 |
Family
ID=75515476
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110061833.9A Active CN112699967B (zh) | 2021-01-18 | 2021-01-18 | 一种基于改进深度神经网络的远距离机场目标检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112699967B (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113408361A (zh) * | 2021-05-25 | 2021-09-17 | 中国矿业大学 | 一种基于深度学习的矿用输送带大块物料检测方法及系统 |
CN114494861A (zh) * | 2022-01-10 | 2022-05-13 | 湖北工业大学 | 一种基于多参数优化yolov4网络的飞机目标检测方法 |
CN114881992A (zh) * | 2022-05-24 | 2022-08-09 | 北京安德医智科技有限公司 | 颅骨骨折的检测方法、装置及存储介质 |
CN115410099A (zh) * | 2022-07-12 | 2022-11-29 | 东莞理工学院 | 基于xml位置信息的高分辨率图像小目标训练方法及系统 |
CN117541890A (zh) * | 2023-11-08 | 2024-02-09 | 北京天易数聚科技有限公司 | 一种电网设备目标检测方法、系统、设备及介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020056791A1 (zh) * | 2018-09-21 | 2020-03-26 | 五邑大学 | 一种多尺度空洞卷积神经网络超分辨率重构方法及装置 |
CN111540006A (zh) * | 2020-04-26 | 2020-08-14 | 河南大学 | 基于深度迁移学习的植物气孔智能检测与识别方法及系统 |
CN111709310A (zh) * | 2020-05-26 | 2020-09-25 | 重庆大学 | 一种基于深度学习的手势跟踪与识别方法 |
WO2020206861A1 (zh) * | 2019-04-08 | 2020-10-15 | 江西理工大学 | 基于YOLO v3的针对交通枢纽关键物体的检测方法 |
-
2021
- 2021-01-18 CN CN202110061833.9A patent/CN112699967B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020056791A1 (zh) * | 2018-09-21 | 2020-03-26 | 五邑大学 | 一种多尺度空洞卷积神经网络超分辨率重构方法及装置 |
WO2020206861A1 (zh) * | 2019-04-08 | 2020-10-15 | 江西理工大学 | 基于YOLO v3的针对交通枢纽关键物体的检测方法 |
CN111540006A (zh) * | 2020-04-26 | 2020-08-14 | 河南大学 | 基于深度迁移学习的植物气孔智能检测与识别方法及系统 |
CN111709310A (zh) * | 2020-05-26 | 2020-09-25 | 重庆大学 | 一种基于深度学习的手势跟踪与识别方法 |
Non-Patent Citations (2)
Title |
---|
吴鹏;于秋则;闵顺新;: "一种快速鲁棒的SAR图像匹配算法", 计算机科学, no. 07, 15 July 2017 (2017-07-15) * |
施玉娟;林璐颖;杨文元: "基于拉普拉斯超分辨率印刷电路板瑕疵检测方法", 中国体视学与图像分析, vol. 25, no. 003, 31 December 2020 (2020-12-31) * |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113408361A (zh) * | 2021-05-25 | 2021-09-17 | 中国矿业大学 | 一种基于深度学习的矿用输送带大块物料检测方法及系统 |
CN113408361B (zh) * | 2021-05-25 | 2023-09-19 | 中国矿业大学 | 一种基于深度学习的矿用输送带大块物料检测方法及系统 |
CN114494861A (zh) * | 2022-01-10 | 2022-05-13 | 湖北工业大学 | 一种基于多参数优化yolov4网络的飞机目标检测方法 |
CN114494861B (zh) * | 2022-01-10 | 2024-04-26 | 湖北工业大学 | 一种基于多参数优化yolov4网络的飞机目标检测方法 |
CN114881992A (zh) * | 2022-05-24 | 2022-08-09 | 北京安德医智科技有限公司 | 颅骨骨折的检测方法、装置及存储介质 |
CN115410099A (zh) * | 2022-07-12 | 2022-11-29 | 东莞理工学院 | 基于xml位置信息的高分辨率图像小目标训练方法及系统 |
CN115410099B (zh) * | 2022-07-12 | 2023-09-05 | 东莞理工学院 | 基于xml位置信息的高分辨率图像小目标训练方法及系统 |
CN117541890A (zh) * | 2023-11-08 | 2024-02-09 | 北京天易数聚科技有限公司 | 一种电网设备目标检测方法、系统、设备及介质 |
Also Published As
Publication number | Publication date |
---|---|
CN112699967B (zh) | 2024-03-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112699967A (zh) | 一种基于改进深度神经网络的远距离机场目标检测方法 | |
CN111626217B (zh) | 一种基于二维图片和三维点云融合的目标检测和追踪方法 | |
CN108510467B (zh) | 基于深度可变形卷积神经网络的sar图像目标识别方法 | |
CN108304873B (zh) | 基于高分辨率光学卫星遥感影像的目标检测方法及其系统 | |
CN108681693B (zh) | 基于可信区域的车牌识别方法 | |
CN103049763B (zh) | 一种基于上下文约束的目标识别方法 | |
CN106909902B (zh) | 一种基于改进的层次化显著模型的遥感目标检测方法 | |
CN106650731B (zh) | 一种鲁棒的车牌、车标识别方法 | |
CN102509091B (zh) | 一种飞机尾号识别方法 | |
US8655070B1 (en) | Tree detection form aerial imagery | |
CN111753828B (zh) | 一种基于深度卷积神经网络的自然场景水平文字检测方法 | |
CN105354568A (zh) | 基于卷积神经网络的车标识别方法 | |
CN112232371B (zh) | 一种基于YOLOv3与文本识别的美式车牌识别方法 | |
JP2021530048A (ja) | 多階層化目標類別方法及び装置、交通標識検出方法及び装置、機器並びに媒体 | |
CN109886086B (zh) | 基于hog特征和线性svm级联分类器的行人检测方法 | |
CN108427919B (zh) | 一种基于形状引导显著性模型的无监督油罐目标检测方法 | |
CN109377511B (zh) | 基于样本组合和深度检测网络的运动目标跟踪方法 | |
CN111160205A (zh) | 一种交通场景嵌入式多类目标端对端统一检测方法 | |
CN110008899B (zh) | 一种可见光遥感图像候选目标提取与分类方法 | |
CN111915583A (zh) | 复杂场景中基于车载红外热像仪的车辆和行人检测方法 | |
CN112560852A (zh) | 基于YOLOv3网络具有旋转适应能力的单阶段目标检测方法 | |
CN112084890A (zh) | 基于gmm和cqfl的多尺度识别交通信号标志的方法 | |
CN113159215A (zh) | 一种基于Faster Rcnn的小目标检测识别方法 | |
CN104778699A (zh) | 一种自适应对象特征的跟踪方法 | |
CN114519819B (zh) | 一种基于全局上下文感知的遥感图像目标检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |