CN112699967A - 一种基于改进深度神经网络的远距离机场目标检测方法 - Google Patents

一种基于改进深度神经网络的远距离机场目标检测方法 Download PDF

Info

Publication number
CN112699967A
CN112699967A CN202110061833.9A CN202110061833A CN112699967A CN 112699967 A CN112699967 A CN 112699967A CN 202110061833 A CN202110061833 A CN 202110061833A CN 112699967 A CN112699967 A CN 112699967A
Authority
CN
China
Prior art keywords
airport runway
training set
image
data
airport
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110061833.9A
Other languages
English (en)
Other versions
CN112699967B (zh
Inventor
于秋则
李子玲
倪达文
颜宇轩
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Wuhan University WHU
Original Assignee
Wuhan University WHU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Wuhan University WHU filed Critical Wuhan University WHU
Priority to CN202110061833.9A priority Critical patent/CN112699967B/zh
Publication of CN112699967A publication Critical patent/CN112699967A/zh
Application granted granted Critical
Publication of CN112699967B publication Critical patent/CN112699967B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/232Non-hierarchical techniques
    • G06F18/2321Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
    • G06F18/23213Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4053Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computational Linguistics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Evolutionary Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Probability & Statistics with Applications (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明提出了一种基于改进深度神经网络的远距离机场目标检测方法。本发明构建机场跑道图像训练集,采用外接矩形边框标注该训练集中每幅图像的机场跑道区域,并标记其跑道状态,构建深度学习模型图像训练集;将机场跑道图像训练集中的跑道区域进行超分辨重建,得到扩充后深度学习模型图像训练集;根据darknet‑53网络构建深度神经网络模型,采用k‑means算法改进先验框,得到适合扩充后深度学习模型图像训练集的先验框,结合先验框构建深度神经网络模型的损失函数模型,将扩充后深度学习模型图像训练集作为训练集输入,通过优化训练得到优化后的深度神经网络模型。本发明能够准确实现机场目标的检测,具有较好的实时性和准确性,方便重新训练适应新的跑道场景。

Description

一种基于改进深度神经网络的远距离机场目标检测方法
技术领域
本发明属于机场目标检测领域,尤其涉及一种基于改进深度神经网络的远距离机场目标检测方法。
背景技术
机场是一类重要的战略目标,它的识别检测在实际应用中具有重要的意义,在军事领域,正确检测识别出军用机场就准确袭击敌方空军,摧毁跑道,造成机场毁伤,同时,也是我方能量补给、交通中转和停靠的地方;在民用领域,机场是重要的交通枢纽,飞机已成为人们出行的交通工具,跑道的准确识别能够确保飞机的安全降落,可以在不利因素下实现自主导航,提高航空系统和人员的安全性。因此,机场目标检测在飞机自动导航和准确着陆中具有重要意义。
传统的机场目标检测方法基于跑道线出发,利用军用机场的几何结构或民用机场的跑道平行线特征、灰度特征等来检测跑道。然而这些方法具有一定的局限性,其检测基于已经存在跑道图片,其跑道区域往往占据图片中心区域,并且跑道线明确,并不适用基于远距离的机场目标检测。
基于远距离的机场目标检测技术难点在于:
远距离机场目标数据集较少,使用简单的图像处理,直线检测方法来检测机场跑道不具备代表性;
基于远距离的机场目标图片背景复杂,跑道只占用图像的5%左右,不一定能够读取到机场跑道线,采用传统的基于跑道线的检测方法无法检测到机场目标。
发明内容
为了解决现有技术存在的问题,本发明新建了机场目标数据集,提供了一种基于改进深度神经网络的远距离机场目标检测方法。
本发明解决其技术问题所采用的技术方案是:提供一种基于改进深度神经网络的远距离机场目标检测方法,该方法包括以下步骤,
步骤1:构建机场跑道图像训练集,采用机场跑道外接矩形边框标注机场跑道图像训练集中每幅机场跑道图像的机场跑道区域,标记机场跑道图像训练集中每幅机场跑道图像的跑道状态,构建深度学习模型图像训练集;
步骤2:将机场跑道图像训练集中每幅机场跑道图像的机场跑道区域通过超分辨率网络进行超分辨重建扩充深度学习模型图像训练集,得到扩充后深度学习模型图像训练集;
步骤3:结合扩充后深度学习模型图像训练集中外接矩形边框,采用k-means++算法改进外接矩形边框,得到适合扩充后深度学习模型图像训练集中每个样本对应的先验框;
步骤4:根据darknet-53网络构建深度神经网络模型,结合先验框构建深度神经网络模型的损失函数模型,将扩充后深度学习模型图像训练集作为训练集输入,通过优化训练得到优化后的深度神经网络模型。
作为优选,步骤1所述机场跑道图像训练集为:
{datak(x,y),k∈[1,K],x∈[1,X],y∈[1,Y]}
其中,,datak(x,y)表示机场跑道图像训练集中第k幅机场跑道图像的第x行第y列像素信息,K表示机场跑道图像训练集中机场跑道图像的数量,X为机场跑道图像训练集中机场跑道图像的行数,Y为机场跑道图像训练集中机场跑道图像的列数;
步骤1所述的机场跑道图像训练集中每幅机场跑道图像的机场跑道外接矩形边框为:
Figure BDA0002902971500000021
Figure BDA0002902971500000022
其中,
Figure BDA0002902971500000023
表示机场跑道图像训练集中第k幅机场跑道图像中第n个机场跑道外接矩形边框左上角坐标,
Figure BDA0002902971500000024
表示机场跑道图像训练集中第k幅机场跑道图像中第n个机场跑道外接矩形边框的左上角横坐标,
Figure BDA0002902971500000025
表示机场跑道图像训练集中第k幅机场跑道图像中第n个机场跑道外接矩形边框的左上角纵坐标;
Figure BDA0002902971500000026
表示机场跑道训练集中第k幅机场跑道图像中第n个机场跑道外接矩形边框右下角坐标,
Figure BDA0002902971500000027
表示机场跑道图像训练集中第k幅机场跑道图像中第n个机场跑道外接矩形边框的右下角横坐标,
Figure BDA0002902971500000028
表示机场跑道图像训练集中第k幅机场跑道图像中第n个机场跑道外接矩形边框的右下角纵坐标;Nk表示机场跑道图像训练集中第k幅机场跑道图像中机场跑道目标的数量即机场跑道外接矩形边框的数量;
步骤1所述机场跑道图像训练集中每幅机场跑道图像的跑道状态为:
{typek,n,s,k∈[1,K],n∈[1,Nk],s∈[1,2]}
其中,typek,n,1表示机场跑道图像训练集中第k幅机场跑道图像第n个机场跑道外接矩形框内存在机场跑道,typek,n,2表示机场跑道图像训练集中第k幅图像第n个机场跑道外接矩形框内不存在机场跑道。
步骤1所述深度学习模型图像训练集为:
Figure BDA0002902971500000031
k∈[1,K],x∈[1,X],y∈[1,Y],n∈[1,Nk],s∈[1,2]
其中,datak(x,y)表示机场跑道的图像训练集中第k幅机场跑道图像第x行第y列像素信息,
Figure BDA0002902971500000032
表示机场跑道图像训练集中第k幅机场跑道图像中第n个机场跑道外接矩形边框的左上角横坐标,
Figure BDA0002902971500000033
表示机场跑道图像训练集中第k幅机场跑道图像中第n个机场跑道外接矩形边框的左上角纵坐标,
Figure BDA0002902971500000034
表示机场跑道图像训练集中第k幅机场跑道图像中第n个机场跑道外接矩形边框的右下角横坐标,
Figure BDA0002902971500000035
表示机场跑道图像训练集中第k幅机场跑道图像中第n个机场跑道外接矩形边框的右下角纵坐标,typek,n,s表示机场跑道的图像训练集中第k幅机场跑道图像第n个机场跑道外接矩形边框中跑道的第s个状态类型;
作为优选,所述步骤2中,通过超分辨率网络进行超分辨重建扩充深度学习模型图像训练集,包括以下步骤:
步骤2.1,在机场跑道图像训练集中随机选取部分训练集构建高分辨率网络训练集;对选取的训练集中的每幅机场跑道图像的机场跑道外接矩形边框进行裁剪,获得只包含机场跑道区域的目标图像,减少背景特征;
根据训练集中的矩形外接框的左上角
Figure BDA0002902971500000036
和右下角坐标
Figure BDA0002902971500000037
对训练集中的图像进行裁剪,另存为新的图像,裁剪前的图像依然保留;
在训练集中原图中裁剪的左上角坐标为:
Figure BDA0002902971500000038
右下角坐标为:
Figure BDA0002902971500000041
如果裁剪坐标范围超出原图边界,则取边界值,裁剪后的得到的图像大小为外接矩形框区域的2倍,保存为新的高分辨率网络训练集图像;
所述构建高分辨率网络训练集为:
{datac(x,y)=datak(x,y)+datat(x,y),k∈[1,T],t∈[1,T],T∈[1,K]}
Figure BDA0002902971500000042
Figure BDA0002902971500000043
Figure BDA0002902971500000044
Figure BDA0002902971500000045
Figure BDA0002902971500000046
Figure BDA0002902971500000047
其中,datac(x,y)为高分辨率网络训练集中第c幅机场跑道图像第x行第y列像素信息,{datak(x,y),k∈[1,T]}为机场跑道训练集中随机选取的部分数据集,datat(x,y)为对随机数据集裁剪后的训练集中第t幅机场跑道图像第x行第y列像素信息,
Figure BDA0002902971500000048
表示该训练集中第t幅机场跑道图像中第n个机场跑道外接矩形边框的左上角横坐标,
Figure BDA0002902971500000049
表示该训练集中第t幅机场跑道图像中第n个机场跑道外接矩形边框的左上角纵坐标,
Figure BDA00029029715000000410
表示该训练集中第t幅机场跑道图像中第n个机场跑道外接矩形边框的右下角横坐标,
Figure BDA00029029715000000411
表示该训练集中第t幅机场跑道图像中第n个机场跑道外接矩形边框的右下角纵坐标,typet,n,s表示该训练集中第t幅机场跑道图像第n个机场跑道外接矩形边框中跑道的第s个状态类型,T为高分辨率网络训练集中图像数量,K为机场跑道训练集中图像数量。
对高分辨率网络训练集中每幅图像进行数据增强处理得到数据增强后高分辨率网络训练集为:
{datac1(x,y)=datak1(x,y)+datat1(x,y),
k1∈[1,4T],t1∈[1,4T],T∈[1,K]}
Figure BDA0002902971500000051
Figure BDA0002902971500000052
其中,datac1(x,y)为数据增强后高分辨率网络训练集中第c1幅机场跑道图像第x行第y列像素信息,4T为数据增强后高分辨率网络训练集中的图像数量;datak1(x,y)为训练集{darak(x,y),k∈[1,T]}数据集增强后第k1幅机场跑道图像第x行第y列像素信息,
Figure BDA0002902971500000053
Figure BDA0002902971500000054
表示该训练集中第k1幅机场跑道图像中第n个机场跑道外接矩形边框的左上角横坐标和纵坐标,
Figure BDA0002902971500000055
Figure BDA0002902971500000056
表示该训练集中第k1幅机场跑道图像中第n个机场跑道外接矩形边框的右下角横坐标和纵坐标,typek1,n,s表示该训练集中第k1幅机场跑道图像第n个机场跑道外接矩形边框中跑道的第s个状态类型,datat1(x,y)为训练集datat(x,y)数据集增强后第t1幅机场跑道图像第x行第y列像素信息,
Figure BDA0002902971500000057
Figure BDA0002902971500000058
表示该训练集中第t1幅机场跑道图像中第n个机场跑道外接矩形边框的左上角横坐标和纵坐标,
Figure BDA0002902971500000059
Figure BDA00029029715000000510
表示该训练集中第t1幅机场跑道图像中第n个机场跑道外接矩形边框的右下角横坐标和纵坐标,typet1,n,s表示该训练集中第t1幅机场跑道图像第n个机场跑道外接矩形边框中跑道的第s个状态类型,所述行数据增强处理为:
图像锐化处理、图像对比度增强、图像饱和度增强、滤除噪声;
步骤2.2,采用FSRCNN网络对高分辨率数据集进行训练,该网络包括特征提取、压缩、映射、扩展、去卷积五个部分,采用PRELU作为激活函数,均方误差MSE作为损失函数得到训练后FSRCNN网络;
所述FSRCNN网络的损失函数为:
Figure BDA00029029715000000511
其中,C是超分辨率网络训练样本总数,data′c1为超分辨率训练网络中得到的第c1幅预测图像,datac1为超分辨率训练网络中的第c1幅真实图像。
步骤2.3,输入深度学习模型图像训练集中的其它未被随机选取用于超分辨率网络训练集的机场跑道图像,
datas=datak-datat,s∈[T,K],k∈[1,K],t∈[1,T]
基于训练后FSRCNN网络进行超分辨率重建,得到扩充的机场跑道图像训练集;
Figure BDA0002902971500000061
datai=datak+data′s,k∈[1,K],t∈[T,K]
其中,data′s为datas经过FSRCNN网络超分辨率重建后得到的图像。2K-T为用于深度学习模型图像训练集的总图像数,datai(x,y)为总训练集第i幅机场跑道图像第x行第y列像素信息,
Figure BDA0002902971500000062
Figure BDA0002902971500000063
表示该训练集中第i幅机场跑道图像中第n个机场跑道外接矩形边框的左上角横坐标和纵坐标,
Figure BDA0002902971500000064
Figure BDA0002902971500000065
表示该训练集中第i幅机场跑道图像中第n个机场跑道外接矩形边框的右下角横坐标和纵坐标,typei,n.s表示该训练集中第i幅机场跑道图像第n个机场跑道外接矩形边框中跑道的第s个状态类型;
作为优选,所述步骤3中,采用k-means++算法改进外接矩形边框,包括以下步骤:
步骤3.1,根据训练集中外接矩形边框的左上角坐标信息和右下角坐标信息,可以得到每个外接矩形边框的宽和高,将每一张图像的一个外接矩形边框的宽高数据视为一个数据点(wi,n,hi,n),从输入的数据集合随机选择一个数据作为初始聚类中心(wc,hc);
Figure BDA0002902971500000066
Figure BDA0002902971500000067
其中,wi,n为总训练集中第i幅机场跑道图像第n个机场跑道外接矩形边框的宽,hi,n为总训练集中第i幅机场跑道图像第n个机场跑道外接矩形边框的高。
步骤3.2,对于数据集中的每一个样本点(wi,n,hi,n),计算它与初始聚类中心的距离(wc,hc),具体为:
d(box,centroid)=1-IOU(box,centroid)
IOU(box,centroid)为初始聚类中心和当前外接矩形边框的交并比,box表示随机样本点(wi,n,hi,n),centroid表示初始化的聚类中心(wc,hc);
其中,初始聚类中心和当前外接矩形边框并集的面积为:
Figure BDA0002902971500000071
其中,
Figure BDA0002902971500000072
Figure BDA0002902971500000073
为初始化的聚类中心(wc,hc)对应的该外接矩形框的左上角横坐标和左上角纵坐标。
初始聚类中心和当前外接矩形边框交集的面积为
S2=wi×hi+wc×hc-S1
所以,IOU=S1/S2
步骤3.3,选择一个新的数据点作为新的聚类中心,选择原则是,距离d(box,centroid)较大的点,被选取作为聚类中心的概率较大;
步骤3.4,重复步骤3.2和步骤3.3直至k个聚类中心被选出来,利用这k个初始的聚类中心来运行标准的k-means算法;
步骤3.5,从1开始选取k值,随着k增加到某个值时,对应此k值得平均交并比变化越来越小,在拐点附近取值作为最优聚类个数,生成适合本训练集的先验框;
作为优选,步骤4所述结合先验框构建深度神经网络模型的损失函数模型为:
改进深度神经网络模型的损失函数模型基于YOLO v3损失函数模型,由预测目标框bbox位置x,y,w,h带来的误差,目标框置信度obj误差和类别class误差三部分组成,损失函数公式如下:
Figure BDA0002902971500000081
其中,N×N表示将扩充后数据集datai(x,y)中的每张图片划分为N×N的网格的大小,M表示每个小网格预测的目标框个数,带′的表示预测值,不带′的表示标签即真实值,(xp,yp)表示第p个小网格标记矩形框的中心坐标,wp,xp表示第p个小网格标记矩形框的长和宽,如果该网格中不存在标记的外接矩形框,即xp,yp不满足如下条件时:
Figure BDA0002902971500000082
Figure BDA0002902971500000083
xp,yp,wp,hp为0,
Figure BDA0002902971500000084
表示如果第p个小网格处的第q个预测的目标框存在目标,其值为1,否则为0,
Figure BDA0002902971500000085
表示如果第p个小网格处的第q个预测的目标框不存在目标,其值为1,否则为0,Cp表示第p个小网格的存在目标的概率,pp(c)表示第p个小网格的存在目标属于机场跑道类别的概率。(x′p,y′p)表示第p个小网格预测的矩形框的中心坐标,w′p,h′p表示第p个小网格预测的矩形框的长和宽,C′p表示第p个小网格的预测当前矩形框存在目标的概率,P′p(c)表示第p个小网格的预测当前矩形框存在目标属于机场跑道类别的概率。
将扩充后的训练集datai(x,y)送入改进的神经网络中训练,根据在步骤3中得到的先验框,由损失函数知,每个小网格会预测多个目标框,目标框与先验框形状大小类似,从而得到目标框与每个先验框的交并比,最大的交并比值对应的先验框负责预测真实目标,通过损失函数不断调整网络参数直至完成训练。
结合上述的所有技术方案,本发明所具备的优点是:本发明新建了机场目标数据集,并采用超分辨率网络扩充数据集,结合深度学习方法训练适合机场区域的深度神经网络模型,解决了远距离机场跑道识别检测的问题,能够准确实现机场目标的检测,具有较好的实时性和准确性,方便重新训练适应新的跑道场景。
附图说明
下面将结合附图及实施例对本发明作进一步说明,附图中:
图1是本发明实施例基于改进深度神经网络的远距离机场目标检测方法流程图。
图2是本发明实例中提供的机场目标训练集统计结果。
图3是本发明实例中提供的机场目标训练集部分图片。
图4是本发明训练过程中损失函数的变化曲线图。
图5是本发明模型性能评价指标precision-recall曲线图。
图6是本发明实例中提供的方法检测得到的远距离机场目标图片。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,结合以下实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本发明,并不用于限定本发明。
下面结合图1至图6描述本发明的具体实施方式。
如图1所示,本发明实施例中,提供一种基于改进深度神经网络的远距离机场目标检测方法,包括以下步骤,
步骤1:构建机场跑道图像训练集,如图2所示,为构建机场跑道图像训练集的详细信息,采用机场跑道外接矩形边框标注机场跑道图像训练集中每幅机场跑道图像的机场跑道区域,标记机场跑道图像训练集中每幅机场跑道图像的跑道状态,构建深度学习模型图像训练集。
步骤1所述机场跑道图像训练集为:
{datak(x,y),k∈[1,K],x∈[1,X],y∈[1,Y]}
其中,datak(x,y)表示机场跑道图像训练集中第k幅机场跑道图像的第x行第y列像素信息,K=2344表示机场跑道图像训练集中机场跑道图像的数量,X为机场跑道图像训练集中机场跑道图像的行数,Y为机场跑道图像训练集中机场跑道图像的列数;不同的机场跑道图像X,Y不同,此训练集中X,Y值有如下几种:
X=1920,Y=1080或X=2160,Y=1440
或X=1280,Y=720或X=320,Y=240或X=352,Y=240
步骤1所述的机场跑道图像训练集中每幅机场跑道图像的机场跑道外接矩形边框为:
Figure BDA0002902971500000101
Figure BDA0002902971500000102
其中,
Figure BDA0002902971500000103
表示机场跑道图像训练集中第k幅机场跑道图像中第n个机场跑道外接矩形边框左上角坐标,
Figure BDA0002902971500000104
表示机场跑道图像训练集中第k幅机场跑道图像中第n个机场跑道外接矩形边框的左上角横坐标,
Figure BDA0002902971500000105
表示机场跑道图像训练集中第k幅机场跑道图像中第n个机场跑道外接矩形边框的左上角纵坐标;
Figure BDA0002902971500000106
表示机场跑道训练集中第k幅机场跑道图像中第n个机场跑道外接矩形边框右下角坐标,
Figure BDA0002902971500000107
表示机场跑道图像训练集中第k幅机场跑道图像中第n个机场跑道外接矩形边框的右下角横坐标,
Figure BDA0002902971500000108
表示机场跑道图像训练集中第k幅机场跑道图像中第n个机场跑道外接矩形边框的右下角纵坐标;Nk表示机场跑道图像训练集中第k幅机场跑道图像中机场跑道目标的数量即机场跑道外接矩形边框的数量;
步骤1所述机场跑道图像训练集中每幅机场跑道图像的跑道状态为:
{typek,n,s,k∈[1,K],n∈[1,Nk],s∈[1,2]}
其中,typek,n,1表示机场跑道图像训练集中第k幅机场跑道图像第n个机场跑道外接矩形框内存在机场跑道,typek,n,2表示机场跑道图像训练集中第k幅图像第n个机场跑道外接矩形框内不存在机场跑道。
步骤1所述深度学习模型图像训练集为:
Figure BDA0002902971500000111
k∈[1,K],x∈[1,X],y∈[1,Y],n∈[1,Nk],s∈[1,2]
其中,datak(x,y)表示机场跑道的图像训练集中第k幅机场跑道图像第x行第y列像素信息,
Figure BDA0002902971500000112
表示机场跑道图像训练集中第k幅机场跑道图像中第n个机场跑道外接矩形边框的左上角横坐标,
Figure BDA0002902971500000113
表示机场跑道图像训练集中第k幅机场跑道图像中第n个机场跑道外接矩形边框的左上角纵坐标,
Figure BDA0002902971500000114
表示机场跑道图像训练集中第k幅机场跑道图像中第n个机场跑道外接矩形边框的右下角横坐标,
Figure BDA0002902971500000115
表示机场跑道图像训练集中第k幅机场跑道图像中第n个机场跑道外接矩形边框的右下角纵坐标,typek,n,s表示机场跑道的图像训练集中第k幅机场跑道图像第n个机场跑道外接矩形边框中跑道的第s个状态类型;
步骤2:将机场跑道图像训练集中每幅机场跑道图像的机场跑道区域通过超分辨率网络进行超分辨重建扩充深度学习模型图像训练集,得到扩充后深度学习模型图像训练集,部分训练集图像如图3所示;
所述步骤2中,通过超分辨率网络进行超分辨重建扩充深度学习模型图像训练集,包括以下步骤:
步骤2.1,在机场跑道图像训练集中随机选取部分训练集构建高分辨率网络训练集;对选取的训练集中的每幅机场跑道图像的机场跑道外接矩形边框进行裁剪,获得只包含机场跑道区域的目标图像,减少背景特征;
根据训练集中的矩形外接框的左上角
Figure BDA0002902971500000116
和右下角坐标
Figure BDA0002902971500000117
对训练集中的图像进行裁剪,另存为新的图像,裁剪前的图像依然保留;
在训练集中原图中裁剪的左上角坐标为:
Figure BDA0002902971500000118
右下角坐标为:
Figure BDA0002902971500000121
如果裁剪坐标范围超出原图边界,则取边界值,裁剪后的得到的图像大小为外接矩形框区域的2倍,保存为新的高分辨率网络训练集图像;
所述构建高分辨率网络训练集为:
{datac(x,y)=datak(x,y)+datat(x,y),k∈[1,T],t∈[1,T],T∈[1,K]}
Figure BDA0002902971500000122
Figure BDA0002902971500000123
Figure BDA0002902971500000124
Figure BDA0002902971500000125
Figure BDA0002902971500000126
Figure BDA0002902971500000127
其中,datac(x,y)为高分辨率网络训练集中第c幅机场跑道图像第x行第y列像素信息,{datak(x,y),k∈[1,T]}为机场跑道训练集中随机选取的部分数据集,datat(x,y)为对随机数据集裁剪后的训练集中第t幅机场跑道图像第x行第y列像素信息,
Figure BDA0002902971500000128
表示该训练集中第t幅机场跑道图像中第n个机场跑道外接矩形边框的左上角横坐标,
Figure BDA0002902971500000129
表示该训练集中第t幅机场跑道图像中第n个机场跑道外接矩形边框的左上角纵坐标,
Figure BDA00029029715000001210
表示该训练集中第t幅机场跑道图像中第n个机场跑道外接矩形边框的右下角横坐标,
Figure BDA00029029715000001211
表示该训练集中第t幅机场跑道图像中第n个机场跑道外接矩形边框的右下角纵坐标,typet,n,s表示该训练集中第t幅机场跑道图像第n个机场跑道外接矩形边框中跑道的第s个状态类型,T=400为高分辨率网络训练集中图像数量,K=2344为机场跑道训练集中图像数量。
对高分辨率网络训练集中每幅图像进行数据增强处理得到数据增强后高分辨率网络训练集为:
{datac1(x,y)=datak1(x,y)+datat1(x,y),
k1∈[1,4T],t1∈[1,4T],T∈[1,K]}
Figure BDA0002902971500000131
Figure BDA0002902971500000132
其中,datac1(x,y)为数据增强后高分辨率网络训练集中第c1幅机场跑道图像第x行第y列像素信息,4T=1600为数据增强后高分辨率网络训练集中的图像数量;datak1(x,y)为训练集{datak(x,y),k∈[1,T]}数据集增强后第k1幅机场跑道图像第x行第y列像素信息,
Figure BDA0002902971500000133
Figure BDA0002902971500000134
表示该训练集中第k1幅机场跑道图像中第n个机场跑道外接矩形边框的左上角横坐标和纵坐标,
Figure BDA0002902971500000135
Figure BDA0002902971500000136
表示该训练集中第k1幅机场跑道图像中第n个机场跑道外接矩形边框的右下角横坐标和纵坐标,typek1,n,s表示该训练集中第k1幅机场跑道图像第n个机场跑道外接矩形边框中跑道的第s个状态类型,datat1(x,y)为训练集datat(x,y)数据集增强后第t1幅机场跑道图像第x行第y列像素信息,
Figure BDA0002902971500000137
Figure BDA0002902971500000138
表示该训练集中第t1幅机场跑道图像中第n个机场跑道外接矩形边框的左上角横坐标和纵坐标,
Figure BDA0002902971500000139
Figure BDA00029029715000001310
表示该训练集中第t1幅机场跑道图像中第n个机场跑道外接矩形边框的右下角横坐标和纵坐标,typet1,n,s表示该训练集中第t1幅机场跑道图像第n个机场跑道外接矩形边框中跑道的第s个状态类型,所述行数据增强处理为:
图像锐化处理、图像对比度增强、图像饱和度增强、滤除噪声;
步骤2.2,采用FSRCNN网络对高分辨率数据集进行训练,该网络包括特征提取、压缩、映射、扩展、去卷积五个部分,采用PRELU作为激活函数,均方误差MSE作为损失函数得到训练后FSRCNN网络;
所述FSRCNN网络的损失函数为:
Figure BDA00029029715000001311
其中,C=1600是超分辨率网络训练样本总数,data′c1为超分辨率训练网络中得到的第c1幅预测图像,datac1为超分辨率训练网络中的第c1幅真实图像。
步骤2.3,输入深度学习模型图像训练集中的其它未被随机选取用于超分辨率网络训练集的机场跑道图像,
datas=datak-datat,s∈[T,K],k∈[1,K],t∈[1,T]
基于训练后FSRCNN网络进行超分辨率重建,得到扩充的机场跑道图像训练集;
Figure BDA0002902971500000141
datai=datak+data′s,k∈[1,K],t∈[T,K]
其中,data′s为datas经过FSRCNN网络超分辨率重建后得到的图像。2K-T=4288为用于深度学习模型图像训练集的总图像数,datai(x,y)为总训练集第i幅机场跑道图像第x行第y列像素信息,
Figure BDA0002902971500000142
Figure BDA0002902971500000143
表示该训练集中第i幅机场跑道图像中第n个机场跑道外接矩形边框的左上角横坐标和纵坐标,
Figure BDA0002902971500000144
Figure BDA0002902971500000145
表示该训练集中第i幅机场跑道图像中第n个机场跑道外接矩形边框的右下角横坐标和纵坐标,typei,n.s表示该训练集中第i幅机场跑道图像第n个机场跑道外接矩形边框中跑道的第s个状态类型,
步骤3:结合扩充后深度学习模型图像训练集中外接矩形边框,采用k-means++算法改进外接矩形边框,得到适合扩充后深度学习模型图像训练集中每个样本对应的先验框;
按上述技术方案,所述步骤3中,采用k-means++算法改进外接矩形边框,包括以下步骤:
步骤3.1,根据训练集中外接矩形边框的左上角坐标信息和右下角坐标信息,可以得到每个外接矩形边框的宽和高,将每一张图像的一个外接矩形边框的宽高数据视为一个数据点(wi,n,hi,n),从输入的数据集合随机选择一个数据作为初始聚类中心(wc,hc);
Figure BDA0002902971500000146
Figure BDA0002902971500000147
其中,wi,n为总训练集中第i幅机场跑道图像第n个机场跑道外接矩形边框的宽,hi,n为总训练集中第i幅机场跑道图像第n个机场跑道外接矩形边框的高。
步骤3.2,对于数据集中的每一个样本点(wi,n,hi,n),计算它与初始聚类中心的距离(wc,hc),具体为:
d(box,centroid)=1-IOU(box,centroid)
IOU(box,centroid)为初始聚类中心和当前外接矩形边框的交并比,box表示随机样本点(wi,n,hi,n),centroid表示初始化的聚类中心(wc,hc);
其中,初始聚类中心和当前外接矩形边框并集的面积为:
Figure BDA0002902971500000151
其中,
Figure BDA0002902971500000152
Figure BDA0002902971500000153
为初始化的聚类中心(wc,hc)对应的该外接矩形框的左上角横坐标和左上角纵坐标。
初始聚类中心和当前外接矩形边框交集的面积为
S2=wi×hi+wc×hc-S1
所以,IOU=S1/S2
步骤3.3,选择一个新的数据点作为新的聚类中心,选择原则是,距离d(box,centroid)较大的点,被选取作为聚类中心的概率较大;
步骤3.4,重复步骤3.2和步骤3.3直至k个聚类中心被选出来,利用这k个初始的聚类中心来运行标准的k-means算法;
步骤3.5,从1开始选取k值,随着k增加到某个值时,对应此k值得平均交并比变化越来越小,在拐点附近取值作为最优聚类个数,生成适合本训练集的先验框,生成的先验框个数为9个,各个先验框的长宽分别为[20,29],[54,63],[98,101],[96,172],[191,146],[170,275],[324,233],[577,299],[657,455];
步骤4:根据darknet-53网络构建深度神经网络模型,结合先验框构建深度神经网络模型的损失函数模型,将扩充后深度学习模型图像训练集作为训练集输入,通过优化训练得到优化后的深度神经网络模型;
步骤4所述结合先验框构建深度神经网络模型的损失函数模型为:
改进深度神经网络模型的损失函数模型基于YOLO v3损失函数模型,由预测目标框bbox位置x,y,w,h带来的误差,目标框置信度obj误差和类别class误差三部分组成,损失函数公式如下:
Figure BDA0002902971500000161
其中,N×N表示将扩充后数据集datai(x,y)中的每张图片划分为13×13,26×26,52×52的网格的大小,M=3表示每个小网格预测的目标框个数,带′的表示预测值,不带′的表示标签即真实值,(xp,yp)表示第p个小网格标记矩形框的中心坐标,wp,hp表示第p个小网格标记矩形框的长和宽,如果该网格中不存在标记的外接矩形框,即xp,yp不满足如下条件时:
Figure BDA0002902971500000162
Figure BDA0002902971500000163
xp,yp,wp,hp为0,
Figure BDA0002902971500000164
表示如果第p个小网格处的第q个预测的目标框存在目标,其值为1,否则为0,
Figure BDA0002902971500000165
表示如果第p个小网格处的第q个预测的目标框不存在目标,其值为1,否则为0,Cp表示第p个小网格的存在目标的概率,pp(c)表示第p个小网格的存在目标属于机场跑道类别的概率。(x′p,y′p)表示第p个小网格预测的矩形框的中心坐标,w′p,h′p表示第p个小网格预测的矩形框的长和宽,C′p表示第p个小网格的预测当前矩形框存在目标的概率,P′p(c)表示第p个小网格的预测当前矩形框存在目标属于机场跑道类别的概率。
将扩充后的训练集datai(x,y)送入改进的神经网络中训练,根据在步骤3中得到的先验框,由损失函数知,每个小网格会预测多个目标框,目标框与先验框形状大小类似,从而得到目标框与每个先验框的交并比,最大的交并比值对应的先验框负责预测真实目标,通过损失函数不断调整网络参数直至完成训练。损失函数变换曲线图如图4所示。
步骤5:基于改进的深度神经网络对待检测机场跑道图像检测并保存。如图5所示为该改进模型性能评价指标曲线图。
基于改进深度神经网络检测待识别的远距离机场目标,用预训练后的网络模型对输入图片提取特征,送入到改进的深度神经网络模型中,模型内部会自动结合浅层和深层特征,通过多尺度检测模块进行预测,采用极大值抑制法去除冗余框,最终得到远距离机场跑道识别结果,并保存目标的坐标信息。如图6所示为检测某幅待识别机场跑道图像的结果图。
应当理解的是,对本领域普通技术人员来说,可以根据上述说明加以改进或变换,而所有这些改进和变换都应属于本发明所附权利要求的保护范围。

Claims (5)

1.一种基于改进深度神经网络的远距离机场目标检测方法,其特征在于,包括以下步骤:
步骤1:构建机场跑道图像训练集,采用机场跑道外接矩形边框标注机场跑道图像训练集中每幅机场跑道图像的机场跑道区域,标记机场跑道图像训练集中每幅机场跑道图像的跑道状态,构建深度学习模型图像训练集;
步骤2:将机场跑道图像训练集中每幅机场跑道图像的机场跑道区域通过超分辨率网络进行超分辨重建扩充深度学习模型图像训练集,得到扩充后深度学习模型图像训练集;
步骤3:结合扩充后深度学习模型图像训练集中外接矩形边框,采用k-means++算法改进外接矩形边框,得到适合扩充后深度学习模型图像训练集中每个样本对应的先验框;
步骤4:根据darknet-53网络构建深度神经网络模型,结合先验框构建深度神经网络模型的损失函数模型,将扩充后深度学习模型图像训练集作为训练集输入,通过优化训练得到优化后的深度神经网络模型。
2.根据权利要求1所述的基于改进深度神经网络的远距离机场目标检测方法,其特征在于:
步骤1所述机场跑道图像训练集为:
{datak(x,y),k∈[1,K],x∈[1,X],y∈[1,Y]}
其中,,datak(x,y)表示机场跑道图像训练集中第k幅机场跑道图像的第x行第y列像素信息,K表示机场跑道图像训练集中机场跑道图像的数量,X为机场跑道图像训练集中机场跑道图像的行数,Y为机场跑道图像训练集中机场跑道图像的列数;
步骤1所述的机场跑道图像训练集中每幅机场跑道图像的机场跑道外接矩形边框为:
Figure FDA0002902971490000011
Figure FDA0002902971490000012
其中,
Figure FDA0002902971490000013
表示机场跑道图像训练集中第k幅机场跑道图像中第n个机场跑道外接矩形边框左上角坐标,
Figure FDA0002902971490000014
表示机场跑道图像训练集中第k幅机场跑道图像中第n个机场跑道外接矩形边框的左上角横坐标,
Figure FDA0002902971490000021
表示机场跑道图像训练集中第k幅机场跑道图像中第n个机场跑道外接矩形边框的左上角纵坐标;
Figure FDA0002902971490000022
表示机场跑道训练集中第k幅机场跑道图像中第n个机场跑道外接矩形边框右下角坐标,
Figure FDA0002902971490000023
表示机场跑道图像训练集中第k幅机场跑道图像中第n个机场跑道外接矩形边框的右下角横坐标,
Figure FDA0002902971490000024
表示机场跑道图像训练集中第k幅机场跑道图像中第n个机场跑道外接矩形边框的右下角纵坐标;Nk表示机场跑道图像训练集中第k幅机场跑道图像中机场跑道目标的数量即机场跑道外接矩形边框的数量;
步骤1所述机场跑道图像训练集中每幅机场跑道图像的跑道状态为:
{typek,n,s,k∈[1,K],n∈[1,Nk],s∈[1,2]}
其中,typek,n,1表示机场跑道图像训练集中第k幅机场跑道图像第n个机场跑道外接矩形框内存在机场跑道,typek,n,2表示机场跑道图像训练集中第k幅图像第n个机场跑道外接矩形框内不存在机场跑道;
步骤1所述深度学习模型图像训练集为:
Figure FDA0002902971490000025
其中,datak(x,y)表示机场跑道的图像训练集中第k幅机场跑道图像第x行第y列像素信息,
Figure FDA0002902971490000026
表示机场跑道图像训练集中第k幅机场跑道图像中第n个机场跑道外接矩形边框的左上角横坐标,
Figure FDA0002902971490000027
表示机场跑道图像训练集中第k幅机场跑道图像中第n个机场跑道外接矩形边框的左上角纵坐标,
Figure FDA0002902971490000028
表示机场跑道图像训练集中第k幅机场跑道图像中第n个机场跑道外接矩形边框的右下角横坐标,
Figure FDA0002902971490000029
表示机场跑道图像训练集中第k幅机场跑道图像中第n个机场跑道外接矩形边框的右下角纵坐标,typek,n,s表示机场跑道的图像训练集中第k幅机场跑道图像第n个机场跑道外接矩形边框中跑道的第s个状态类型。
3.根据权利要求1所述的基于改进深度神经网络的远距离机场目标检测方法,其特征在于:
所述步骤2中,通过超分辨率网络进行超分辨重建扩充深度学习模型图像训练集,包括以下步骤:
步骤2.1,在机场跑道图像训练集中随机选取部分训练集构建高分辨率网络训练集;对选取的训练集中的每幅机场跑道图像的机场跑道外接矩形边框进行裁剪,获得只包含机场跑道区域的目标图像,减少背景特征;
根据训练集中的矩形外接框的左上角
Figure FDA0002902971490000031
和右下角坐标
Figure FDA0002902971490000032
对训练集中的图像进行裁剪,另存为新的图像,裁剪前的图像依然保留;
在训练集中原图中裁剪的左上角坐标为:
Figure FDA0002902971490000033
右下角坐标为:
Figure FDA0002902971490000034
如果裁剪坐标范围超出原图边界,则取边界值,裁剪后的得到的图像大小为外接矩形框区域的2倍,保存为新的高分辨率网络训练集图像;
所述构建高分辨率网络训练集为:
{datac(x,y)=datak(x,y)+datat(x,y),k∈[1,T],t∈[1,T],T∈[1,K]}
Figure FDA0002902971490000035
Figure FDA0002902971490000036
Figure FDA0002902971490000037
Figure FDA0002902971490000038
Figure FDA0002902971490000039
Figure FDA00029029714900000310
其中,datac(x,y)为高分辨率网络训练集中第c幅机场跑道图像第x行第y列像素信息,{datak(x,y),k∈[1,T]}为机场跑道训练集中随机选取的部分数据集,datat(x,y)为对随机数据集裁剪后的训练集中第t幅机场跑道图像第x行第y列像素信息,
Figure FDA00029029714900000311
表示该训练集中第t幅机场跑道图像中第n个机场跑道外接矩形边框的左上角横坐标,
Figure FDA0002902971490000041
表示该训练集中第t幅机场跑道图像中第n个机场跑道外接矩形边框的左上角纵坐标,
Figure FDA0002902971490000042
表示该训练集中第t幅机场跑道图像中第n个机场跑道外接矩形边框的右下角横坐标,
Figure FDA0002902971490000043
表示该训练集中第t幅机场跑道图像中第n个机场跑道外接矩形边框的右下角纵坐标,typet,n,s表示该训练集中第t幅机场跑道图像第n个机场跑道外接矩形边框中跑道的第s个状态类型,T为高分辨率网络训练集中图像数量,K为机场跑道训练集中图像数量;
对高分辨率网络训练集中每幅图像进行数据增强处理得到数据增强后高分辨率网络训练集为:
{datac1(x,y)=datak1(x,y)+datat1(x,y),
k1∈[1,4T],t1∈[1,4T],T∈[1,K]}
Figure FDA0002902971490000044
Figure FDA0002902971490000045
其中,datac1(x,y)为数据增强后高分辨率网络训练集中第c1幅机场跑道图像第x行第y列像素信息,4T为数据增强后高分辨率网络训练集中的图像数量;datak1(x,y)为训练集{datak(x,y),k∈[1,T]}数据集增强后第k1幅机场跑道图像第x行第y列像素信息,
Figure FDA0002902971490000046
Figure FDA0002902971490000047
表示该训练集中第k1幅机场跑道图像中第n个机场跑道外接矩形边框的左上角横坐标和纵坐标,
Figure FDA0002902971490000048
Figure FDA0002902971490000049
表示该训练集中第k1幅机场跑道图像中第n个机场跑道外接矩形边框的右下角横坐标和纵坐标,typek1,n,s表示该训练集中第k1幅机场跑道图像第n个机场跑道外接矩形边框中跑道的第s个状态类型,datat1(x,y)为训练集datat(x,y)数据集增强后第t1幅机场跑道图像第x行第y列像素信息,
Figure FDA00029029714900000410
Figure FDA00029029714900000411
表示该训练集中第t1幅机场跑道图像中第n个机场跑道外接矩形边框的左上角横坐标和纵坐标,
Figure FDA00029029714900000412
Figure FDA00029029714900000413
表示该训练集中第t1幅机场跑道图像中第n个机场跑道外接矩形边框的右下角横坐标和纵坐标,typet1,n,s表示该训练集中第t1幅机场跑道图像第n个机场跑道外接矩形边框中跑道的第s个状态类型,所述行数据增强处理为:
图像锐化处理、图像对比度增强、图像饱和度增强、滤除噪声;
步骤2.2,采用FSRCNN网络对高分辨率数据集进行训练,该网络包括特征提取、压缩、映射、扩展、去卷积五个部分,采用PRELU作为激活函数,均方误差MSE作为损失函数得到训练后FSRCNN网络;
所述FSRCNN网络的损失函数为:
Figure FDA0002902971490000051
其中,C是超分辨率网络训练样本总数,data′c1为超分辨率训练网络中得到的第c1幅预测图像,datac1为超分辨率训练网络中的第c1幅真实图像;
步骤2.3,输入深度学习模型图像训练集中的其它未被随机选取用于超分辨率网络训练集的机场跑道图像,
datas=datak-datat,s∈[T,K],k∈[1,K],t∈[1,T]
基于训练后FSRCNN网络进行超分辨率重建,得到扩充的机场跑道图像训练集;
Figure FDA0002902971490000052
datai=datak+data′s,k∈[1,K],t∈[T,K]
其中,data′s为datas经过FSRCNN网络超分辨率重建后得到的图像;2K-T为用于深度学习模型图像训练集的总图像数,datai(x,y)为总训练集第i幅机场跑道图像第x行第y列像素信息,
Figure FDA0002902971490000053
Figure FDA0002902971490000054
表示该训练集中第i幅机场跑道图像中第n个机场跑道外接矩形边框的左上角横坐标和纵坐标,
Figure FDA0002902971490000055
Figure FDA0002902971490000056
表示该训练集中第i幅机场跑道图像中第n个机场跑道外接矩形边框的右下角横坐标和纵坐标,typei,n.s表示该训练集中第i幅机场跑道图像第n个机场跑道外接矩形边框中跑道的第s个状态类型。
4.根据权利要求1所述的基于改进深度神经网络的远距离机场目标检测方法,其特征在于:
所述步骤3中,采用k-means++算法改进外接矩形边框,包括以下步骤:
步骤3.1,根据训练集中外接矩形边框的左上角坐标信息和右下角坐标信息,可以得到每个外接矩形边框的宽和高,将每一张图像的一个外接矩形边框的宽高数据视为一个数据点(wi,n,hi,n),从输入的数据集合随机选择一个数据作为初始聚类中心(wc,hc);
Figure FDA0002902971490000061
Figure FDA0002902971490000062
其中,wi,n为总训练集中第i幅机场跑道图像第n个机场跑道外接矩形边框的宽,hi,n为总训练集中第i幅机场跑道图像第n个机场跑道外接矩形边框的高;
步骤3.2,对于数据集中的每一个样本点(wi,n,hi,n),计算它与初始聚类中心的距离(wc,hc),具体为:
d(box,centroid)=1-IOU(box,centroid)
IOU(box,centroid)为初始聚类中心和当前外接矩形边框的交并比,box表示随机样本点(wi,n,hi,n),centroid表示初始化的聚类中心(wc,hc);
其中,初始聚类中心和当前外接矩形边框并集的面积为:
Figure FDA0002902971490000063
其中,
Figure FDA0002902971490000064
Figure FDA0002902971490000065
为初始化的聚类中心(wc,hc)对应的该外接矩形框的左上角横坐标和左上角纵坐标;
初始聚类中心和当前外接矩形边框交集的面积为
S2=wi×hi+wc×hc-S1
所以,IOU=S1/S2
步骤3.3,选择一个新的数据点作为新的聚类中心,选择原则是,距离d(box,centroid)较大的点,被选取作为聚类中心的概率较大;
步骤3.4,重复步骤3.2和步骤3.3直至k个聚类中心被选出来,利用这k个初始的聚类中心来运行标准的k-means算法;
步骤3.5,从1开始选取k值,随着k增加到某个值时,对应此k值得平均交并比变化越来越小,在拐点附近取值作为最优聚类个数,生成适合本训练集的先验框。
5.根据权利要求1所述的基于改进深度神经网络的远距离机场目标检测方法,其特征在于:
步骤4所述结合先验框构建深度神经网络模型的损失函数模型为:
改进深度神经网络模型的损失函数模型基于YOLO v3损失函数模型,由预测目标框bbox位置x,y,w,h带来的误差,目标框置信度obj误差和类别class误差三部分组成,损失函数公式如下:
Figure FDA0002902971490000071
其中,N×N表示将扩充后数据集datai(x,y)中的每张图片划分为N×N的网格的大小,M表示每个小网格预测的目标框个数,带′的表示预测值,不带′的表示标签即真实值,(xp,yp)表示第p个小网格标记矩形框的中心坐标,wp,hp表示第p个小网格标记矩形框的长和宽,如果该网格中不存在标记的外接矩形框,即xp,yp不满足如下条件时:
Figure FDA0002902971490000072
Figure FDA0002902971490000081
xp,yp,wp,hp为0,
Figure FDA0002902971490000082
表示如果第p个小网格处的第q个预测的目标框存在目标,其值为1,否则为0,
Figure FDA0002902971490000083
表示如果第p个小网格处的第q个预测的目标框不存在目标,其值为1,否则为0,Cp表示第p个小网格的存在目标的概率,pp(c)表示第p个小网格的存在目标属于机场跑道类别的概率;(x′p,y′p)表示第p个小网格预测的矩形框的中心坐标,w′p,h′p表示第p个小网格预测的矩形框的长和宽,C′p表示第p个小网格的预测当前矩形框存在目标的概率,P′p(c)表示第p个小网格的预测当前矩形框存在目标属于机场跑道类别的概率;
将扩充后的训练集datai(x,y)送入改进的神经网络中训练,根据在步骤3中得到的先验框,由损失函数知,每个小网格会预测多个目标框,目标框与先验框形状大小类似,从而得到目标框与每个先验框的交并比,最大的交并比值对应的先验框负责预测真实目标,通过损失函数不断调整网络参数直至完成训练。
CN202110061833.9A 2021-01-18 2021-01-18 一种基于改进深度神经网络的远距离机场目标检测方法 Active CN112699967B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110061833.9A CN112699967B (zh) 2021-01-18 2021-01-18 一种基于改进深度神经网络的远距离机场目标检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110061833.9A CN112699967B (zh) 2021-01-18 2021-01-18 一种基于改进深度神经网络的远距离机场目标检测方法

Publications (2)

Publication Number Publication Date
CN112699967A true CN112699967A (zh) 2021-04-23
CN112699967B CN112699967B (zh) 2024-03-12

Family

ID=75515476

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110061833.9A Active CN112699967B (zh) 2021-01-18 2021-01-18 一种基于改进深度神经网络的远距离机场目标检测方法

Country Status (1)

Country Link
CN (1) CN112699967B (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113408361A (zh) * 2021-05-25 2021-09-17 中国矿业大学 一种基于深度学习的矿用输送带大块物料检测方法及系统
CN114494861A (zh) * 2022-01-10 2022-05-13 湖北工业大学 一种基于多参数优化yolov4网络的飞机目标检测方法
CN114881992A (zh) * 2022-05-24 2022-08-09 北京安德医智科技有限公司 颅骨骨折的检测方法、装置及存储介质
CN115410099A (zh) * 2022-07-12 2022-11-29 东莞理工学院 基于xml位置信息的高分辨率图像小目标训练方法及系统
CN117541890A (zh) * 2023-11-08 2024-02-09 北京天易数聚科技有限公司 一种电网设备目标检测方法、系统、设备及介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020056791A1 (zh) * 2018-09-21 2020-03-26 五邑大学 一种多尺度空洞卷积神经网络超分辨率重构方法及装置
CN111540006A (zh) * 2020-04-26 2020-08-14 河南大学 基于深度迁移学习的植物气孔智能检测与识别方法及系统
CN111709310A (zh) * 2020-05-26 2020-09-25 重庆大学 一种基于深度学习的手势跟踪与识别方法
WO2020206861A1 (zh) * 2019-04-08 2020-10-15 江西理工大学 基于YOLO v3的针对交通枢纽关键物体的检测方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020056791A1 (zh) * 2018-09-21 2020-03-26 五邑大学 一种多尺度空洞卷积神经网络超分辨率重构方法及装置
WO2020206861A1 (zh) * 2019-04-08 2020-10-15 江西理工大学 基于YOLO v3的针对交通枢纽关键物体的检测方法
CN111540006A (zh) * 2020-04-26 2020-08-14 河南大学 基于深度迁移学习的植物气孔智能检测与识别方法及系统
CN111709310A (zh) * 2020-05-26 2020-09-25 重庆大学 一种基于深度学习的手势跟踪与识别方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
吴鹏;于秋则;闵顺新;: "一种快速鲁棒的SAR图像匹配算法", 计算机科学, no. 07, 15 July 2017 (2017-07-15) *
施玉娟;林璐颖;杨文元: "基于拉普拉斯超分辨率印刷电路板瑕疵检测方法", 中国体视学与图像分析, vol. 25, no. 003, 31 December 2020 (2020-12-31) *

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113408361A (zh) * 2021-05-25 2021-09-17 中国矿业大学 一种基于深度学习的矿用输送带大块物料检测方法及系统
CN113408361B (zh) * 2021-05-25 2023-09-19 中国矿业大学 一种基于深度学习的矿用输送带大块物料检测方法及系统
CN114494861A (zh) * 2022-01-10 2022-05-13 湖北工业大学 一种基于多参数优化yolov4网络的飞机目标检测方法
CN114494861B (zh) * 2022-01-10 2024-04-26 湖北工业大学 一种基于多参数优化yolov4网络的飞机目标检测方法
CN114881992A (zh) * 2022-05-24 2022-08-09 北京安德医智科技有限公司 颅骨骨折的检测方法、装置及存储介质
CN115410099A (zh) * 2022-07-12 2022-11-29 东莞理工学院 基于xml位置信息的高分辨率图像小目标训练方法及系统
CN115410099B (zh) * 2022-07-12 2023-09-05 东莞理工学院 基于xml位置信息的高分辨率图像小目标训练方法及系统
CN117541890A (zh) * 2023-11-08 2024-02-09 北京天易数聚科技有限公司 一种电网设备目标检测方法、系统、设备及介质

Also Published As

Publication number Publication date
CN112699967B (zh) 2024-03-12

Similar Documents

Publication Publication Date Title
CN112699967A (zh) 一种基于改进深度神经网络的远距离机场目标检测方法
CN111626217B (zh) 一种基于二维图片和三维点云融合的目标检测和追踪方法
CN108510467B (zh) 基于深度可变形卷积神经网络的sar图像目标识别方法
CN108304873B (zh) 基于高分辨率光学卫星遥感影像的目标检测方法及其系统
CN108681693B (zh) 基于可信区域的车牌识别方法
CN103049763B (zh) 一种基于上下文约束的目标识别方法
CN106909902B (zh) 一种基于改进的层次化显著模型的遥感目标检测方法
CN106650731B (zh) 一种鲁棒的车牌、车标识别方法
CN102509091B (zh) 一种飞机尾号识别方法
US8655070B1 (en) Tree detection form aerial imagery
CN111753828B (zh) 一种基于深度卷积神经网络的自然场景水平文字检测方法
CN105354568A (zh) 基于卷积神经网络的车标识别方法
CN112232371B (zh) 一种基于YOLOv3与文本识别的美式车牌识别方法
JP2021530048A (ja) 多階層化目標類別方法及び装置、交通標識検出方法及び装置、機器並びに媒体
CN109886086B (zh) 基于hog特征和线性svm级联分类器的行人检测方法
CN108427919B (zh) 一种基于形状引导显著性模型的无监督油罐目标检测方法
CN109377511B (zh) 基于样本组合和深度检测网络的运动目标跟踪方法
CN111160205A (zh) 一种交通场景嵌入式多类目标端对端统一检测方法
CN110008899B (zh) 一种可见光遥感图像候选目标提取与分类方法
CN111915583A (zh) 复杂场景中基于车载红外热像仪的车辆和行人检测方法
CN112560852A (zh) 基于YOLOv3网络具有旋转适应能力的单阶段目标检测方法
CN112084890A (zh) 基于gmm和cqfl的多尺度识别交通信号标志的方法
CN113159215A (zh) 一种基于Faster Rcnn的小目标检测识别方法
CN104778699A (zh) 一种自适应对象特征的跟踪方法
CN114519819B (zh) 一种基于全局上下文感知的遥感图像目标检测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant