CN110543837B - 一种基于潜在目标点的可见光机场飞机检测方法 - Google Patents

一种基于潜在目标点的可见光机场飞机检测方法 Download PDF

Info

Publication number
CN110543837B
CN110543837B CN201910759685.0A CN201910759685A CN110543837B CN 110543837 B CN110543837 B CN 110543837B CN 201910759685 A CN201910759685 A CN 201910759685A CN 110543837 B CN110543837 B CN 110543837B
Authority
CN
China
Prior art keywords
potential target
image
classifier
target
visible light
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910759685.0A
Other languages
English (en)
Other versions
CN110543837A (zh
Inventor
晏焕钱
王越
韦星星
李波
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beihang University
Original Assignee
Beihang University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beihang University filed Critical Beihang University
Priority to CN201910759685.0A priority Critical patent/CN110543837B/zh
Publication of CN110543837A publication Critical patent/CN110543837A/zh
Application granted granted Critical
Publication of CN110543837B publication Critical patent/CN110543837B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • G06V10/267Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/50Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Abstract

本发明公开了一种新的基于潜在目标点的可见光机场飞机检测的方法,主要包括以下步骤:提出了一种多对比度图像分割的方法,通过每幅分割图像的分割区域计算出潜在目标点的位置,由于多幅分割图像易产生冗余的潜在目标点,提出了一种类似集合的数据结构来完成潜在目标点的存储;然后对飞机目标尺寸进行统计,提出了一种基于统计的自适应的方法来生成不同尺寸的检测窗口,不同尺寸的检测窗口可以极大程度的匹配飞机目标的大小;最后采用Fourier Hog特征和Adaboost组合的分类器方式训练飞机目标分类器。以潜在目标点为中心点,不同尺寸检测窗口截取当前区域,借助已经训练好的分类器完成当前区域是否包含飞机的判断,从而完成机场飞机的检测。

Description

一种基于潜在目标点的可见光机场飞机检测方法
技术领域
本发明涉及数字图像处理技术领域,特别涉及一种遥感图像中机场飞机检测方法,更具体的说是一种新的基于潜在目标点和多尺度检测窗的、高效的可见光下机场飞机目标的检测方法。
背景技术
目标检测主要是关注图像中特定的物体目标,通过检测技术获取目标的类别信息和位置信息。检测技术大致可以分为两类:基于传统的图像处理和机器学习算法的检测以及基于深度学习的目标检测。基于传统的检测方法例如滑动窗口+分类器或者目标候选框+分类器,前者存在速度慢,效率低的诟病,后者存在候选框提取不充分而且候选框不完全适配目标大小等缺陷。基于深度学习的目标检测需要大量的数据集训练和较高水平的硬件要求,往往因为实际部署硬件条件的限制,其往往不能很好地工作。
随着遥感技术的发展,遥感图像中机场飞机的检测已经成为了一个研究热点。机场飞机的检测其在军事侦察和机场监控中发挥着重要的作用。智能算法能够主动地检测并标注出视频画面中目标的类型和位置信息防止漏看目标,可以减少人力物力。虽然目标检测技术有了飞速的发展,但是对于遥感图像中的机场飞机检测依然存在一系列挑战,比如实际算法运行环境对硬件条件要求高,机场包含背景环境太复杂,遥感图像拍摄角度多变、光照不均匀等。这些实际情况的复杂性,导致目前依然缺少一种硬件条件要求低,高效的可见光下机场飞机检测算法。
因此,为了在有限的硬件资源下实现机场飞机目标的快速检测,如何通过对机场可见光图像的特点以及当前目标检测算法存在的一系列缺点的多角度分析,采用目标检测策略,提供一种硬件资源要求低、训练速度快、检测精度高的可见光下机场飞机检测方法是本领域技术人员亟待解决的技术问题。
发明内容
本发明针对上述研究现状,所解决的问题包括:
(1)提供了一种新的目标检测框架,并将其应用到可见光下机场飞机检测;
(2)针对可见光下机场图片不同区域存在光照不均匀现象,设计了一种多对比度分割方法,并通过分割结果完成了潜在目标点的提取;
(3)针对飞机目标多尺度问题,通过对训练数据的统计分析,提出了一种自适应的潜在目标窗口尺度的计算方法,可以很好地避免传统采用金字塔模型带来的冗余计算;
(4)通过将Fourier Hog特征和Adaboost的结合,实现了一种高精度的分类器。通过以上四个方面的结合,所设计的算法可以高效地完成可见光下机场飞机目标的检测。
为了实现上述的发明目的,本申请采用下述的技术方案:
本发明提供了一种基于潜在目标点的可见光机场飞机检测方法,包括如下步骤:
S1、将输入的可见光机场图片灰度化处理后,进行中值滤波并计算梯度图,采用自适应多阈值的方式生成不同对比度下掩模,通过不同的掩模指导分水岭算法完成梯度图的多次分割,得到若干分割区域;
S2对分割区域进行扫描,并计算每个区域的潜在目标中心点坐标,利用标记矩阵完成多个分割区域中潜在目标中心点的记录,并对重复的潜在目标中心点坐标进行剔除,提取最终潜在目标点的位置坐标;
S3、对训练数据集中飞机对象长宽数据(l,w)进行统计,通过基于Kmeans聚类的自适应算法完成潜在目标窗口长宽的计算
Figure BDA0002169876290000021
S4、采用FourierHog描述算子为特征提取方式,并与Adaboost算法进行结合形成分类器,并训练分类器,保存已训练好的分类器;
S5、以每一个最终潜在目标点为中心,依照步骤三中计算的每个潜在目标边界框面积
Figure BDA0002169876290000022
从小到大依次截取对应的潜在窗口,利用步骤四已经训练好的分类器判断当前潜在窗口中是否包含飞机目标,从而完成当前图片的飞机目标检测。
优选的,所述S1中,
S11、对输入的可见光机场RGB图片的灰度图像Igray进行中值滤波;
S12、对滤波后产生的图像f计算每一个像素点对应的梯度值Dij,梯度计算公式如下:
Figure BDA0002169876290000031
其中,i为对应图像f行坐标,j对应图像f列坐标;
S13、为了使目标图像的轮廓变得光滑,使目标区域相对独立,采用3*3的核区域B对梯度图像DNM进行开操作,其表达如下:
Figure BDA0002169876290000032
其中i,j,x,y均表示下坐标;梯度图像DNM经过开操作后形成FNM图像,N和M分别对应图片的长和宽;
S14、采用掩模指导分水岭算法对灰度FNM分割,掩模定义如下:
im_maski=max{FNM,THi} (3)
其中,THi表示第i个阈值,im_maski对应第i个掩模;
根据公式(4)生成THi
Figure BDA0002169876290000033
不同大小的阈值THi激活不同区域的目标,从而分割出不同的区域。
优选的,所述S2中,
S21、对每个分割区域进行扫描,记录每个分割区域的上下左右边界{Xmin,Xmax,Ymin,Ymax},其中Xmin和Ymin表示当前分割区域的左下角的点坐标,Xmax和Ymax表示当前分割区域右上角的点坐标;
则每一个分割区域潜在目标中心坐标为:
(CenterX,CenterY)=((Xmin+Xmax)/2,(Ymin+Ymax)/2) (5)
S22、利用矩阵TMatrix记录潜在目标点的响应,矩阵TMatrix是一个N*M的矩阵,其中N表示最初输入图片的长,M表示最初输入图像的宽;矩阵TMatrix对不同的条件,做出不同的响应,如公式(6)所示:
Figure BDA0002169876290000041
S23、通过矩阵TMatrix,提取最终潜在目标点Points,如公式(7)所示:
Points={where(TMatrix(i,j)==1),i=1…N,j=1…M} (7)。
优选的,所述S3中,
利用Kmeans算法对训练数据中的所有飞机目标长宽数据(l,w)进行不同K值下的聚类,其中K表示类簇个数,计算出不同K值下的类簇中心点坐标
Figure BDA0002169876290000042
如公式(8)所示;
Figure BDA0002169876290000043
其中
Figure BDA0002169876290000044
是示性函数,定义为:
Figure BDA0002169876290000045
N表示输入图像的长宽之积,CKi表示聚类产生的第i的类簇,
如果当前中心点坐标满足公式(9)所示条件,则终止K值的增长,
Figure BDA0002169876290000046
满足条件后的K值即为计算的潜在目标窗口数量,每个潜在目标窗口大小对应K个不同类簇的中心点坐标
Figure BDA0002169876290000051
优选的,所述S4具体包括:
S41、Fourier Hog特征提取步骤:
通过基函数Uj,k和相应的傅里叶空间描述符
Figure BDA0002169876290000052
的卷积得到一个分割区域的Fourier Hog特征,如公式(10)所示:
Figure BDA0002169876290000053
其中:
Figure BDA0002169876290000054
其中D表示梯度,φ(D)表示梯度方向,K表示平滑卷积核函数;当k-m=0时,此时Fourier Hog特征是旋转不变的,进行记录;当k-m≠0时,将公式(10)取共轭,将原复数与共轭复数相乘,取出两式旋转阶数相等的特征进行记录,如公式(12)所示:
Figure BDA0002169876290000055
S42、强分类器训练步骤:
S421、使用训练数据采用初始权重值训练出一个弱分类器一;
S422、根据弱分类器的学习错误率更新训练样本的权重,使得之前的弱分类器一错误分类的训练样本的权重变高;
S423、基于调整权重后的训练集训练弱分类器二,依次重复S422,S423,直到训练的弱分类器个数达到预先设定的数量;
S424、对弱分类器的结果进行整合,形成最终的强分类器,强分类器表示为公式(13):
Figure BDA0002169876290000056
其wm表示第m个分类器在所有弱分类器中所占的权重,αm对应每个决策数分类器的参数,x表示输入的参数,对应于训练中的潜在目标窗口的Fourier Hog特征。
优选的,所述S5中,利用S4中已经训练好的分类器对依据潜在目标窗口进行裁剪后产生的区域进行分类判断;如果分类器输出值大于0表示当前区域包含目标,反之,不包含目标。
本发明相较现有技术具有以下有益效果:
1.可以有效克制由于光照不均匀造成的误检和漏检;
2.极大地提升了传统滑动窗口方法的速度,改善了候选区域方法存在边界框不准确的诟病;
3.改善了目标多尺度采用图像金字塔模型带来的冗余计算和低效性;
4.针对多方向的飞机目标,具有很高的分类精度;
5.可以有效对应多种尺度飞机目标的检测。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍。显而易见地,下面描述中的附图仅仅是本发明的实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据提供的附图获得其他的附图。
图1是本发明提供的一种新的基于潜在目标点的可见光机场飞机检测方法流程示意图。
图2是本发明实施例提供的一张3米分辨率的谷歌地球机场的图片。
图3是本发明实施例提供的图2的梯度图和阈值为100的掩模图片。
图4是本发明实施例提供的图2中产生的潜在目标点。
图5是本发明实施例提供的图2中飞机图像检测结果。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本实施例结合一张3米分辨率的谷歌地球机场的遥感图像为案例如图2所示。对本发明公开的全新的可见光下机场飞机目标的检测方法具体实施步骤进行详细说明,处理流程见图1。图2中遥感图像的尺寸为1044像素×915像素。
S1:输入图像的多对比度分割。首先,为了避免噪声的影响,对于输入的图片灰度化后进行中值滤波,对滤波后的图像f计算对应的梯度图像DNM。为了使梯度图像的轮廓变得光滑,断开较细的狭颈,使目标区域相对独立干净,一个3*3或5*5的核区域B对梯度图像DNM进行开操作。梯度图像DNM经过开操作后形成FNM图像,由于原始图片不同区域存在不同对比度的现象,设计了一种自适应多掩模指导分水岭的分割算法,从而产生不同的分割结果。具体执行过程如下:
S11、对输入的灰度图片进行中值滤波,滤波器的大小为3*3的矩阵。
S12、对滤波后的图像f计算每一个像素点对应的梯度值Dij,梯度计算的数学公式(1)如下:
Figure BDA0002169876290000071
其中i对应图像f行坐标,j对应图像f列坐标。
S13、为了使目标图像的轮廓变得光滑,断开较细的狭颈,使目标区域相对独立干净,一个3*3或5*5的核区域B对梯度图像DNM进行开操作,其表达如下:
Figure BDA0002169876290000072
其中i,j,x,y均表示下坐标。梯度图像DNM经过开操作后形成FNM图像,N和M分别对应图片的长和宽。
S14、采用掩模指导分水岭算法对FNM图像进行分割。
如何定义掩模,方案设计如下:
im_maski=max{FNM,THi} (3)
其中,THi表示第i个阈值,im_maski对应第i个掩模。
如何生成THi,采用以下方案:
Figure BDA0002169876290000081
不同大小的阈值THi可以激活不同区域的目标,从而产生不同的分割结果。
S2:潜在目标点的计算。通过对分割区域进行一次扫描,记录每一个分割区域的位置信息,并计算不同分割区域的潜在目标中心点坐标。由于有多幅分割图,每幅分割图都会产生一些目标潜在点,这些潜在目标点存在大量的重复,为此我们采用了集合的思想,设计了一种数据结构用于潜在目标点的记录和提取。参见图3,为计算得到的梯度图(左)和阈值为100的掩模图(右)。具体执行过程如下:
S21、通过对分割后的每张图片进行一次扫描,记录每一个分割区域的上下左右边界{Xmin,Xmax,Ymin,Ymax},其中Xmin和Ymin表示当前区域的左下角的点坐标,Xmax和Ymax表示当前区域右上角点坐标。则每一个分割区域潜在目标中心坐标为:
(CenterX,CenterY)=((Xmin+Xmax)/2,(Ymin+Ymnax)/2) (5)
其中(CenterX,CenterY)中X和Y均对应坐标位置。
S22、由于不同的掩模指导分水岭算法会产生一些相同的分割区域,这些区域会产生很多冗余的潜在目标点。所以利用矩阵TMatrix来记录潜在目标点的响应,它是一个N*M的矩阵,其中N表示最初输入图片的长,M表示最初输入图像的宽。矩阵TMatrix对不同的条件,做出不同的响应:
Figure BDA0002169876290000082
S23、通过矩阵TMatrix,提取最终的潜在目标点Points,如公式(7)所示:
Points={where(TMatrix(i,j)==1),i=1…N,j=1…M} (7)
S3:自适应多尺度潜在目标窗口的计算。通过对数据中目标尺寸的分析,设计了一种自适应的决策算法用来计算潜在目标窗口数量和潜在目标窗口长宽大小。通过此方法可以很大程度减少后期检测的时间消耗,而且更加准确地定位了飞机目标的位置。具体执行过程如下:
S31、利用Kmeans算法对训练数据中的所有飞机目标长宽数据(l,w)进行不同K值(类簇个数)下的聚类,计算出不同K值下的类簇中心点坐标
Figure BDA0002169876290000091
如公式(8)所示。如果当前中心点坐标满足公式(9)所示条件,则终止K值的增长。
Figure BDA0002169876290000092
其中
Figure BDA0002169876290000093
是示性函数,其定义为:
Figure BDA0002169876290000094
N表示输入图像的长宽之积。CKi表示聚类产生的第i的类簇。
Figure BDA0002169876290000095
S32、根据S31的结果得到的K值即为潜在目标窗口数量,每个潜在目标窗口对应的大小即K个不同类簇的中心点坐标
Figure BDA0002169876290000096
S4:Fourier Hog特征提取。具体执行过程如下:
S41、Fourier Hog特征提取步骤:
基于极坐标形式的Fourier Hog特征描述符,其幅值部分具有旋转不变性,旋转角度的改变只影响相位部分。对于一个笛卡尔坐标x=[x,y]T∈R2,其极坐标可以表示为
Figure BDA0002169876290000097
其中P(r)是一个半径r=||X||的函数,
Figure BDA0002169876290000098
代表着角度函数。所以二维Fourier Hog基可以表示为
Figure BDA0002169876290000099
其中
Figure BDA00021698762900000910
代表着m个不同的圆形谐波,δ代表着径向基函数。通过基函数Uj,k和相应的傅里叶空间描述符
Figure BDA00021698762900000911
的卷积即可得到一个区域的HOG描述,如公式(10)所示:
Figure BDA0002169876290000101
其中:
Figure BDA0002169876290000102
其中D表示梯度,φ(D)表示梯度方向,K表示平滑卷积核函数。当k-m=0时,此时特征是旋转不变特征,当k-m≠0时,将公式(11)取共轭,将原复数与共轭复数相乘,取出两式旋转阶数相等的情况时的特征,如公式(12)所示:
Figure BDA0002169876290000103
S42、强分类器训练步骤:
Adaboost是一种迭代算法,其核心思想是针对同一个训练集训练不同的弱分类器,然后把这些弱分类器组合起来构成一个强分类器。其工作机制主要分为四步:
S421、一开始直接使用训练数据采用平均值作为初始权重值训练出一个弱分类器一。
S422、根据弱分类器的学习错误率更新训练样本的权重,使得之前的弱分类器一错误分类的训练样本的权重变高,这样可以保证这部分数据在后面的弱分类器受到重视。
S423、基于调整权重后的训练集训练弱分类器二,依次重复S422,S423,直到训练的弱分类器个数达到预先设定的数量。
S424、对弱分类器的结果进行整合,形成最终的强分类器。
在当前算法中采用决策树作为Adaboost中的弱分类器,采用gini系数作为特征选择的标准,特征划分的依据是每次所有划分点中的最优划分点,其中树的深度设置为8.弱分类器设置为150个,所以最终的强分类器可以表示为公式(13):
Figure BDA0002169876290000104
其wm表示第m个分类器在所有弱分类器中所占的权重,αm对应每个决策数分类器的参数,x表示输入的参数,对应于实验中的潜在目标窗口的Fourier Hog特征。
采用3000张含飞机的正样本,和10000张不含飞机的负样本对分类器进行训练,所有样本大小均为40*40大小。每张图片先经过FourierHog特征提取形成630维的特征向量,然后输入分类器进行目标分类。实验中FM(x)>0表示当前的图片存在飞机,否则不存在飞机。
S5、基于潜在目标点的机场飞机检测。具体执行过程如下:
首先,对输入的可见光机场图像通过S1进行多对比度分割,接着采用S2产生此图片的潜在目标点的坐标,然后以这些潜在目标点为中心点,利用S3产生的潜在目标窗口从小到大依次对图片进行潜在目标区域的裁剪,并将裁剪图片采用最近邻插值法缩放到40*40像素。最后,采用S4训练好的分类器对所裁剪区域进行分类判断,若输出结果大于0,表示存在飞机并且判断下一个潜在目标区域,反之,则不存在飞机,依次完成当前图片中飞机目标的检测。
本发明所提供的可见光下机场飞机检测方法主要为解决2~5米可见光下机场飞机检测提出的,但本方法也适用于其它分辨率下可见光遥感图像飞机目标的检测,针对可见光其它分辨率的机场,只需要重新利用少量数据训练分类器和重新自适应计算新的潜在目标窗口数量和大小即可使用。
以上对本发明所提供的一种基于潜在目标点的可见光机场飞机检测方法进行了详细介绍,本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的一般技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本发明的限制。
在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。

Claims (6)

1.一种基于潜在目标点的可见光机场飞机检测方法,其特征在于,包括如下步骤:
S1、将输入的可见光机场图片灰度化处理后,进行中值滤波并计算梯度图,采用自适应多阈值的方式生成不同对比度下掩模,通过不同的掩模指导分水岭算法完成梯度图的多次分割,得到若干分割区域;包括:
S11、对输入的可见光机场RGB图片的灰度图像Igray进行中值滤波;
S12、对滤波后产生的图像f计算每一个像素点对应的梯度值Dij
S13、为了使目标图像的轮廓变得光滑,使目标区域相对独立,采用3*3的核区域B对梯度图像DNM进行开操作,梯度图像DNM经过开操作后形成FNM图像,N和M分别对应图片的长和宽;
S14、采用掩模指导分水岭算法对FNM图像进行分割,掩模定义如下:
im_maski=max{FNM,THi}
其中,THi表示第i个阈值,im_maski对应第i个掩模;不同大小的阈值THi激活不同区域的目标,从而分割出不同的区域;
S2对分割区域进行扫描,并计算每个区域的潜在目标中心点坐标,利用标记矩阵完成多个分割区域中潜在目标中心点的记录,并对重复的潜在目标中心点坐标进行剔除,提取最终潜在目标点的位置坐标;
S3、对训练数据集中飞机对象长宽数据(l,w)进行统计,通过基于Kmeans聚类的自适应算法完成潜在目标窗口长宽的计算
Figure FDA0003394140100000011
S4、采用Fourier Hog描述算子为特征提取方式,并与Adaboost算法进行结合形成分类器,并训练分类器,保存已训练好的分类器;
S5、以每一个最终潜在目标点为中心,依照步骤三中计算的每个潜在目标边界框面积
Figure FDA0003394140100000012
从小到大依次截取对应的潜在窗口,利用步骤四已经训练好的分类器判断当前潜在窗口中是否包含飞机目标,从而完成当前图片的飞机目标检测。
2.根据权利要求1所述的一种基于潜在目标点的可见光机场飞机检测方法,其特征在于,所述S1中,
S11、对输入的可见光机场RGB图片的灰度图像Igray进行中值滤波;
S12、对滤波后产生的图像f计算每一个像素点对应的梯度值Dij,梯度计算公式如下:
Figure FDA0003394140100000021
其中,i为对应图像f行坐标,j对应图像f列坐标;
S13、为了使目标图像的轮廓变得光滑,使目标区域相对独立,采用3*3的核区域B对梯度图像DNM进行开操作,其表达如下:
Figure FDA0003394140100000022
其中i,j,x,y均表示下坐标;梯度图像DNM经过开操作后形成FNM图像,N和M分别对应图片的长和宽;
S14、采用掩模指导分水岭算法对FNM图像进行分割,掩模定义如下:
im_maski=max{FNM,THi} (3)
其中,THi表示第i个阈值,im_maski对应第i个掩模;
根据公式(4)生成THi
Figure FDA0003394140100000023
不同大小的阈值THi激活不同区域的目标,从而分割出不同的区域。
3.根据权利要求1所述的一种基于潜在目标点的可见光机场飞机检测方法,其特征在于,所述S2中,
S21、对每个分割区域进行扫描,记录每个分割区域的上下左右边界{Xmin,Xmax,Ymin,Ymax},其中Xmin和Ymin表示当前分割区域的左下角的点坐标,Xmax和Ymax表示当前分割区域右上角的点坐标;
则每一个分割区域潜在目标中心坐标为:
(CenterX,CenterY)=((Xmin+Xmax)/2,(Ymin+Ymax)/2) (5)
S22、利用矩阵TMatrix记录潜在目标点的响应,矩阵TMatrix是一个N*M的矩阵,其中N表示最初输入图片的长,M表示最初输入图像的宽;矩阵TMatrix对不同的条件,做出不同的响应,如公式6所示:
Figure FDA0003394140100000031
S23、通过矩阵TMatrix,提取最终潜在目标点Points,如公式7所示:
Points={where(TMatrix(i,j)==1),i=1…N,j=1…M} (7)。
4.根据权利要求1所述的一种基于潜在目标点的可见光机场飞机检测方法,其特征在于,所述S3中,
利用Kmeans算法对训练数据中的所有飞机目标长宽数据(l,w)进行不同K值下的聚类,其中K表示类簇个数,计算出不同K值下的类簇中心点坐标
Figure FDA0003394140100000032
如公式8所示;
Figure FDA0003394140100000033
其中
Figure FDA0003394140100000034
是示性函数,定义为:
Figure FDA0003394140100000035
N表示输入图像的长宽之积,CKi表示聚类产生的第i的类簇,
如果当前中心点坐标满足公式(9)所示条件,则终止K值的增长,
Figure FDA0003394140100000036
满足条件后的K值即为计算的潜在目标窗口数量,每个潜在目标窗口大小对应K个不同类簇的中心点坐标
Figure FDA0003394140100000046
5.根据权利要求1所述的一种基于潜在目标点的可见光机场飞机检测方法,其特征在于,所述S4具体包括:
S41、Fourier Hog特征提取步骤:
通过基函数Uj,k和相应的傅里叶空间描述符
Figure FDA0003394140100000041
的卷积得到一个分割区域的FourierHog特征,如公式(10)所示:
Figure FDA0003394140100000042
其中:
Figure FDA0003394140100000043
其中D表示梯度,φ(D)表示梯度方向,K表示平滑卷积核函数;当k-m=0时,此时Fourier Hog特征是旋转不变的,进行记录;当k-m≠0时,将公式(10)取共轭,将原复数与共轭复数相乘,取出两式旋转阶数相等的特征进行记录,如公式(12)所示:
Figure FDA0003394140100000044
S42、强分类器训练步骤:
S421、使用训练数据采用初始权重值训练出一个弱分类器一;
S422、根据弱分类器的学习错误率更新训练样本的权重,使得之前的弱分类器一错误分类的训练样本的权重变高;
S423、基于调整权重后的训练集训练弱分类器二,依次重复S422,S423,直到训练的弱分类器个数达到预先设定的数量;
S424、对弱分类器的结果进行整合,形成最终的强分类器,强分类器表示为公式(13):
Figure FDA0003394140100000045
其wm表示第m个分类器在所有弱分类器中所占的权重,αm对应每个决策数分类器的参数,x表示输入的参数,对应于训练中的潜在目标窗口的Fourier Hog特征。
6.根据权利要求1所述的一种基于潜在目标点的可见光机场飞机检测方法,其特征在于,所述S5中,利用S4中已经训练好的分类器对依据潜在目标窗口进行裁剪后产生的区域进行分类判断;如果分类器输出值大于0表示当前区域包含目标,反之,不包含目标。
CN201910759685.0A 2019-08-16 2019-08-16 一种基于潜在目标点的可见光机场飞机检测方法 Active CN110543837B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910759685.0A CN110543837B (zh) 2019-08-16 2019-08-16 一种基于潜在目标点的可见光机场飞机检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910759685.0A CN110543837B (zh) 2019-08-16 2019-08-16 一种基于潜在目标点的可见光机场飞机检测方法

Publications (2)

Publication Number Publication Date
CN110543837A CN110543837A (zh) 2019-12-06
CN110543837B true CN110543837B (zh) 2022-03-15

Family

ID=68711517

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910759685.0A Active CN110543837B (zh) 2019-08-16 2019-08-16 一种基于潜在目标点的可见光机场飞机检测方法

Country Status (1)

Country Link
CN (1) CN110543837B (zh)

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10678244B2 (en) 2017-03-23 2020-06-09 Tesla, Inc. Data synthesis for autonomous control systems
US11157441B2 (en) 2017-07-24 2021-10-26 Tesla, Inc. Computational array microprocessor system using non-consecutive data formatting
US11893393B2 (en) 2017-07-24 2024-02-06 Tesla, Inc. Computational array microprocessor system with hardware arbiter managing memory requests
US11409692B2 (en) 2017-07-24 2022-08-09 Tesla, Inc. Vector computational unit
US10671349B2 (en) 2017-07-24 2020-06-02 Tesla, Inc. Accelerated mathematical engine
US11561791B2 (en) 2018-02-01 2023-01-24 Tesla, Inc. Vector computational unit receiving data elements in parallel from a last row of a computational array
US11215999B2 (en) 2018-06-20 2022-01-04 Tesla, Inc. Data pipeline and deep learning system for autonomous driving
US11361457B2 (en) 2018-07-20 2022-06-14 Tesla, Inc. Annotation cross-labeling for autonomous control systems
US11636333B2 (en) 2018-07-26 2023-04-25 Tesla, Inc. Optimizing neural network structures for embedded systems
US11562231B2 (en) 2018-09-03 2023-01-24 Tesla, Inc. Neural networks for embedded devices
CN115512173A (zh) 2018-10-11 2022-12-23 特斯拉公司 用于使用增广数据训练机器模型的系统和方法
US11196678B2 (en) 2018-10-25 2021-12-07 Tesla, Inc. QOS manager for system on a chip communications
US11816585B2 (en) 2018-12-03 2023-11-14 Tesla, Inc. Machine learning models operating at different frequencies for autonomous vehicles
US11537811B2 (en) 2018-12-04 2022-12-27 Tesla, Inc. Enhanced object detection for autonomous vehicles based on field view
US11610117B2 (en) 2018-12-27 2023-03-21 Tesla, Inc. System and method for adapting a neural network model on a hardware platform
US10997461B2 (en) 2019-02-01 2021-05-04 Tesla, Inc. Generating ground truth for machine learning from time series elements
US11567514B2 (en) 2019-02-11 2023-01-31 Tesla, Inc. Autonomous and user controlled vehicle summon to a target
US10956755B2 (en) 2019-02-19 2021-03-23 Tesla, Inc. Estimating object properties using visual image data
CN111814662B (zh) * 2020-07-07 2022-06-24 北京航空航天大学 基于微型卷积神经网络的可见光图像飞机快速检测方法
CN111860376B (zh) * 2020-07-24 2023-10-31 北京博维航空设施管理有限公司 一种舱门的轮廓拟合方法及装置
CN113534093B (zh) * 2021-08-13 2023-06-27 北京环境特性研究所 飞机目标的螺旋桨叶片数量反演方法及目标识别方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102280030A (zh) * 2011-07-20 2011-12-14 杭州海康威视软件有限公司 夜晚车辆检测的方法及其系统
CN102834846A (zh) * 2010-04-09 2012-12-19 通用电气公司 用于分割图像中的对象的方法
CN104535979A (zh) * 2014-12-23 2015-04-22 中国科学院遥感与数字地球研究所 一种陆地云光学厚度的遥感反演方法及系统
CN105956592A (zh) * 2016-05-10 2016-09-21 西北工业大学 一种基于图像显著性与svm的飞机目标检测方法
CN108154118A (zh) * 2017-12-25 2018-06-12 北京航空航天大学 一种基于自适应组合滤波与多级检测的目标探测系统及方法
CN109409252A (zh) * 2018-10-09 2019-03-01 杭州电子科技大学 一种基于改进型ssd网络的车辆行人多目标检测方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9513162B2 (en) * 2015-03-16 2016-12-06 Raytheon Company Tunable multi-band spectro-polarimeter

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102834846A (zh) * 2010-04-09 2012-12-19 通用电气公司 用于分割图像中的对象的方法
CN102280030A (zh) * 2011-07-20 2011-12-14 杭州海康威视软件有限公司 夜晚车辆检测的方法及其系统
CN104535979A (zh) * 2014-12-23 2015-04-22 中国科学院遥感与数字地球研究所 一种陆地云光学厚度的遥感反演方法及系统
CN105956592A (zh) * 2016-05-10 2016-09-21 西北工业大学 一种基于图像显著性与svm的飞机目标检测方法
CN108154118A (zh) * 2017-12-25 2018-06-12 北京航空航天大学 一种基于自适应组合滤波与多级检测的目标探测系统及方法
CN109409252A (zh) * 2018-10-09 2019-03-01 杭州电子科技大学 一种基于改进型ssd网络的车辆行人多目标检测方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
医学X射线图像增强算法研究;刘芳;《中国优秀博硕士学位论文全文数据库(硕士) 信息科技辑》;20111015(第10期);参见正文第1-51页 *

Also Published As

Publication number Publication date
CN110543837A (zh) 2019-12-06

Similar Documents

Publication Publication Date Title
CN110543837B (zh) 一种基于潜在目标点的可见光机场飞机检测方法
CN106960195B (zh) 一种基于深度学习的人群计数方法及装置
CN108898610B (zh) 一种基于mask-RCNN的物体轮廓提取方法
CN111428748B (zh) 一种基于hog特征和svm的红外图像绝缘子识别检测方法
CN107273832B (zh) 基于积分通道特征与卷积神经网络的车牌识别方法及系统
CN107633226B (zh) 一种人体动作跟踪特征处理方法
CN110717896A (zh) 基于显著性标签信息传播模型的板带钢表面缺陷检测方法
CN104036284A (zh) 基于Adaboost算法的多尺度行人检测方法
CN107886539B (zh) 一种工业场景下高精度齿轮视觉检测方法
CN108734200B (zh) 基于bing特征的人体目标视觉检测方法和装置
CN110008900B (zh) 一种由区域到目标的可见光遥感图像候选目标提取方法
CN113592911B (zh) 表观增强深度目标跟踪方法
CN110008899B (zh) 一种可见光遥感图像候选目标提取与分类方法
Oliveira et al. Irish sign language recognition using principal component analysis and convolutional neural networks
CN109584206B (zh) 零件表面瑕疵检测中神经网络的训练样本的合成方法
CN108664970A (zh) 一种快速目标检测方法、电子设备、存储介质及系统
CN110852327A (zh) 图像处理方法、装置、电子设备及存储介质
CN106845458A (zh) 一种基于核超限学习机的快速交通标识检测方法
CN111274964B (zh) 一种基于无人机视觉显著性分析水面污染物的检测方法
WO2020119624A1 (zh) 一种基于深度学习的类别敏感型边缘检测方法
CN105956592B (zh) 一种基于图像显著性与svm的飞机目标检测方法
CN107679467B (zh) 一种基于hsv和sdalf的行人重识别算法实现方法
WO2022061922A1 (zh) 材料微结构的分析方法和装置
CN105844299B (zh) 一种基于词袋模型的图像分类方法
Rotem et al. Combining region and edge cues for image segmentation in a probabilistic gaussian mixture framework

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant