CN110009006B - 一种基于机器学习的点目标检测方法及系统 - Google Patents
一种基于机器学习的点目标检测方法及系统 Download PDFInfo
- Publication number
- CN110009006B CN110009006B CN201910198884.9A CN201910198884A CN110009006B CN 110009006 B CN110009006 B CN 110009006B CN 201910198884 A CN201910198884 A CN 201910198884A CN 110009006 B CN110009006 B CN 110009006B
- Authority
- CN
- China
- Prior art keywords
- image
- sub
- filtering
- target
- classifier
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
- G06V10/273—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion removing elements interfering with the pattern to be recognised
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
Abstract
本发明公开一种基于机器学习的点目标检测方法及系统,包括:确定待检测图像,将其划分为多个预设尺寸的子图像;采用MMF对各个子图像滤波,得到各个子图像的滤波输出,若其滤波输出小于或等于预设阈值,则判断该子图像为背景,否则将该子图像标记为候选子图像,并确定各个候选子图像的滤波分数;通过预先训练好的BP神经网络分类器得到每个候选子图像包含目标的置信度分数;将每个候选子图像的滤波分数和其包含目标的置信度分数输入预先训练好的Logistic回归分类器,结合Logistic回归分类器的输出值判定每个候选子图像是否包含目标。本发明用Logistic回归算法融合MMF算法和BP算法的结果,使分类结果更准确。
Description
技术领域
本发明涉及图像处理与模式识别领域,更具体地,涉及一种基于机器学习的点目标检测方法及系统。
背景技术
点目标检测是现代监控系统的关键技术。传统的检测方法主要是基于滤波器的,基于过滤器的算法将点目标视为高频率信号并构造特定的滤波器去消除或突出它们。然而,基于滤波器的算法的抗干扰能力差,因为噪声和背景的边缘也是高频信号,并且它们总是被误测为目标。此外,大多数基于滤波器的算法需要有关目标的先验信息,并且它们对参数敏感。
随着机器学习技术的发展,也出现了一些新的点目标检测算法。Y.Bi等(Y.Bi,X.Bai,Multiple feature analysis for infrared small target detection,IEEEGeoscience&Remote Sensing Letters 14(2017)1333-1337)提出了一种基于特征提取的目标检测方法,该方法提出了七种新的特征来区分小目标和背景,然后使用支持向量机(Support Vector Machine,SVM)进行分类。然而,在特征提取过程中使用了许多阈值,阈值的选择对最终检测结果有很大影响。
C.Wang等(C.Wang,S.Qin,Adaptive detection method of infrared smalltarget based on target-background separation via robust principal componentanalysis,Infrared Physics&Technology 69(2015)123-135)提出了一种基于鲁棒主成分分析(RPCA)的目标检测方法,将红外小目标图像视为稀疏目标和噪声矩阵破坏的低秩背景矩阵,设计了一种新的目标、背景分离模型;然而,计算过程非常复杂,并且该方法的整个过程非常耗时。
发明内容
针对现有技术的缺陷,本发明的目的在于解决现有点目标检测方法基于滤波器时抗干扰能力差,对参数敏感;使用SVM分类时检测结果受阈值影响大;将红外小目标图像视为稀疏目标和噪声矩阵破坏的低秩背景矩阵时计算过程复杂的技术问题。
为实现上述目的,一方面,本发明提供一种基于机器学习的点目标检测方法,包括以下步骤:
确定待检测图像,将其划分为多个预设尺寸的子图像;
采用最大中值滤波器MMF对各个子图像滤波,得到各个子图像的滤波输出,当子图像的滤波输出大于预设阈值时,将该子图像标记为候选子图像,并根据该子图像的滤波输出和所述预设阈值确定该子图像的滤波分数;
通过预先训练好的反向传播BP神经网络分类器确定每个候选子图像包含目标的置信度分数;
将每个候选子图像的滤波分数和其包含目标的置信度分数输入预先训练好的Logistic回归分类器,结合所述Logistic回归分类器的输出值判定每个候选子图像是否包含目标。
可选地,通过如下步骤得到所述预先训练好的Logistic回归分类器:
使用多张原始背景图像作为训练数据,对于每张原始背景图像,使用预设尺寸的滑动窗口扫描,得到子图像集合D;
对于子图像集合D中的每个子图像,通过点目标模拟技术来添加点目标,得到带有目标的子图像,将子图像集合D中的每个子图像对应的带有目标的子图像加入子图像集合D中,得到子图像集合D′;子图像集合D′中的每一个子图像都带有类别标签,所述类别标签用于指示子图像是否包括目标,对子图像集合D′中的每一个子图像,执行如下步骤:
用MMF对子图像滤波;计算每个子图像的MMF滤波输出,若滤波输出小于或等于预设阈值,则判断该子图像是背景;否则,标记该子图像为候选子图像,记录候选子图像的滤波分数;所述滤波分数为滤波输出减去预设阈值,所有候选子图像组成候选子图像集合R,候选子图像集合R中的每一个子图像都带有类别标签和其滤波分数;
将候选子图像集合R作为BP神经网络分类器的训练集,将每个候选子图像的二维像素值转换为一维向量,把转换得到的向量作为BP神经网络分类器的输入,每个候选子图像的类别标签作为BP神经网络分类器的期望输出,对BP神经网络分类器进行有监督训练,得到训练好的BP神经网络分类器;
将每个候选子图像的二维像素值转换得到的一维向量作为训练好的BP神经网络分类器的输入,输出每个候选子图像包含目标的置信度分数;
将候选子图像集合中的所有子图像的滤波分数、置信度分数和类别标签作为Logistic回归分类器的训练数据,子图像的滤波分数和置信度分数作为Logistic回归分类器的输入,子图像的类别标签作为Logistic回归分类器的期望输出,对Logistic回归分类器进行有监督训练,得到训练好的Logistic回归分类器。
可选地,通过点目标模拟技术来添加点目标,具体为:
目标亮度在区间[4*σ,8*σ]内均匀分布,其中,σ代表原始图像像素值的标准差;
目标位置在子图像的中心点处,并有随机的像素偏移(Δm,Δn),其中,Δm和Δn在区间[-0.5,0.5]内服从均匀分布。
可选地,所述对Logistic回归分类器进行有监督训练,具体包括:
构建输入向量υ=(1,Scorefilter,ScoreBP);Scorefilter表示子图像的滤波分数,ScoreBP表示置信度分数;
将目标检测视为二元分类问题,假设输出变量受逻辑分布的影响:
其中,P(u=1|υ;θ)表示输出变量为1的概率,P(u=0|υ;θ)表示输出变量为0的概率,υ是输入,u是输出,θ是输入向量的权重,输入向量的权重θ通过训练Logistic分类器获得;
判断Logistic分类器的最终输出结果P(u=1|υ;θ)是否大于0.5,如果输出值大于0.5,则判定候选子图像包含目标,否则判定候选子图像为背景。
可选地,所述子图像来自不同的原始背景图像或待检测图像,每个子图像对应的预设阈值由其划分前图像的信息确定,通过如下步骤确定子图像对应的预设阈值:
对于每张原始图像,用预设尺寸的MMF对整个图像滤波,获得滤波结果图F,计算滤波结果图F的像素平均值,记为该原始图像划分得到的子图像的预设阈值,所述原始图像为原始背景图像或待检测图像。
另一方面,本发明提供一种基于机器学习的点目标检测系统,包括:
检测目标单元,用于确定待检测图像,将其划分为多个预设尺寸的子图像;采用最大中值滤波器MMF对各个子图像滤波,得到各个子图像的滤波输出,当子图像的滤波输出大于预设阈值时,将该子图像标记为候选子图像,并根据该子图像的滤波输出和所述预设阈值确定该子图像的滤波分数;通过预先训练好的反向传播BP神经网络分类器确定每个候选子图像包含目标的置信度分数;将每个候选子图像的滤波分数和其包含目标的置信度分数输入预先训练好的Logistic回归分类器,结合所述Logistic回归分类器的输出值判定每个候选子图像是否包含目标。
可选地,该系统还包括:
训练分类器单元,使用多张原始背景图像作为训练数据,对于每张原始背景图像,使用预设尺寸的滑动窗口扫描,得到子图像集合D;对于子图像集合D中的每个子图像,通过点目标模拟技术来添加点目标,得到带有目标的子图像,将子图像集合D中的每个子图像对应的带有目标的子图像加入子图像集合D中,得到子图像集合D′;子图像集合D′中的每一个子图像都带有类别标签,所述类别标签用于指示子图像是否包括目标,对子图像集合D′中的每一个子图像,执行如下步骤:用MMF对子图像滤波;计算每个子图像的MMF滤波输出,若滤波输出小于或等于预设阈值,则判断该子图像是背景;否则,标记该子图像为候选子图像,记录候选子图像的滤波分数;所述滤波分数为滤波输出减去预设阈值,所有候选子图像组成候选子图像集合R,候选子图像集合R中的每一个子图像都带有类别标签和其滤波分数;将候选子图像集合R作为BP神经网络分类器的训练集,将每个候选子图像的二维像素值转换为一维向量,把转换得到的向量作为BP神经网络分类器的输入,每个候选子图像的类别标签作为BP神经网络分类器的期望输出,对BP神经网络分类器进行有监督训练,得到训练好的BP神经网络分类器;将每个候选子图像的二维像素值转换得到的一维向量作为训练好的BP神经网络分类器的输入,输出每个候选子图像包含目标的置信度分数;将候选子图像集合中的所有子图像的滤波分数、置信度分数和类别标签作为Logistic回归分类器的训练数据,子图像的滤波分数和置信度分数作为Logistic回归分类器的输入,子图像的类别标签作为Logistic回归分类器的期望输出,对Logistic回归分类器进行有监督训练,得到训练好的Logistic回归分类器。
可选地,所述训练分类器单元通过点目标模拟技术来添加点目标,具体为:目标亮度在区间[4*σ,8*σ]内均匀分布,其中,σ代表原始图像像素值的标准差;目标位置在子图像的中心点处,并有随机的像素偏移(Δm,Δn),其中,Δm和Δn在区间[-0.5,0.5]内服从均匀分布。
可选地,所述训练分类器单元对Logistic回归分类器进行有监督训练,具体包括:构建输入向量υ=(1,Scorefilter,ScoreBP);Scorefilter表示子图像的滤波分数,ScoreBP表示置信度分数;
将目标检测视为二元分类问题,假设输出变量受逻辑分布的影响:
其中,P(u=1|υ;θ)表示输出变量为1的概率,P(u=0|υ;θ)表示输出变量为0的概率,υ是输入,u是输出,θ是输入向量的权重,输入向量的权重θ通过训练Logistic分类器获得;判断Logistic分类器的最终输出结果P(u=1|υ;θ)是否大于0.5,如果输出值大于0.5,则判定候选子图像包含目标,否则判定候选子图像为背景。
可选地,所述子图像来自不同的原始背景图像或待检测图像,每个子图像对应的预设阈值由其划分前图像的信息确定,所述检测目标单元或训练分类器单元或通过如下步骤确定子图像对应的预设阈值:对于每张原始图像,用预设尺寸的MMF对整个图像滤波,获得滤波结果图F,计算滤波结果图F的像素平均值,记为该原始图像划分得到的子图像的预设阈值,所述原始图像为原始背景图像或待检测图像。
总体而言,通过本发明所构思的以上技术方案与现有技术相比,具有以下有益效果:
本发明提出了一种基于机器学习的点目标检测方法及系统,提供一种新颖的检测框架,其实质是将图像数据分为目标数据和非目标数据。在本发明的检测框架中,先采用最大中值滤波器(MMF)获得侯选目标,最大中值滤波器可以抑制背景杂波并突出目标;然后又采用了BP神经网络训练得到输入子图像的像素值和输出分类置信度得分的映射关系,把网络的输出作为候选子图像包含目标的置信度分数;最后用Logistic回归融合MMF算法和BP算法的结果,使分类结果更准确。本发明也避免了人工选取阈值,在没有任何先验知识情况下,提前训练了检测框架,使检测结果更加准确和稳健。
附图说明
图1是本发明提供的基于机器学习的点目标检测方法的检测部分流程图;
图2是本发明提供的基于机器学习的点目标检测方法的训练部分流程图;
图3是本发明提供的BP神经网络结构图;
图4是不同点目标检测方法与本发明采用的方法的检测结果的比较图;
图5是本发明提供的基于机器学习的点目标检测系统的结构图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。此外,下面所描述的本发明各个实施方式中所涉及到的技术特征只要彼此之间未构成冲突就可以相互组合。
本发明的目的在于提供一种鲁棒的基于机器学习的点目标检测方法,该方法充分发挥了传统滤波算法和机器学习算法各自的优势,避免了人工选取阈值,在不同云层背景下都具有良好的鲁棒性。
本发明提供的一种鲁棒的基于机器学习的点目标检测方法,此方法包括训练分类器和检测两部分。分类器训练步骤为步骤(1)—(7),训练分类器流程图如图1所示;检测步骤为步骤(8)—(10),检测流程图如图2所示。该方法的具体处理步骤包括:
(1)使用原始背景图像作为训练数据,对于每一个原始图像,使用尺寸为L*L的滑动窗口按照从左上角到右下角的顺序进行扫描,每个滑动窗在原始图像上截取的部分称为子图像,由此得到一个子图像集合D;
具体地,L取值为正奇数,根据经验可取[3,11]的奇数。
(2)对于子图像集合D中的每个子图像,通过使用点目标模拟技术来添加点目标,得到带有目标的子图像,将带有目标的子图像加入集合D中,形成集合D′;集合D′中的每一个子图像都带有表示类别的标签,标签的取值为0或1,0表示子图像中没有目标,1表示子图像中包含目标,对子图像集合D中的每一个子图像,进行(3)-(7)步骤。
添加点目标的具体参数指标为:目标亮度在区间[4*σ,8*σ]内均匀分布,其中σ代表原始图像像素值的标准差;目标位置在子图像的中心点处,并有随机的像素偏移(Δm,Δn),其中Δm和Δn在区间[-0.5,0.5]内服从均匀分布。
(3)用最大中值滤波器(Max-Median Filter,MMF)对子图像滤波,滤波模板大小为L*L;
作为非线性滤波器,最大中值滤波器(MMF)可以反映图像中某个点的像素值与其邻域内像素之间的相关性和连续性。窗口尺寸为2*N+1的最大中值滤波器的输出p(m,n)定义为:
p(m,n)=x(m,n)-z(m,n) (1)
其中:
z(m,n)=max[a1,a2,a3,a4] (2)
a1=median(x(m,n-N),x(m,n),x(m,n+N)) (3)
a2=median(x(m-N,n),x(m,n),x(m+N,n)) (4)
a3=median(x(m+N,n-N),x(m,n),x(m-N,n+N)) (5)
a4=median(x(m-N,n-N),x(m,n),x(m+N,n+N)) (6)
x(m,n)表示图像在坐标(m,n)处的像素值。
通常,最大中值滤波器可以抑制背景杂波并突出目标。因此,我们使用MMF的输出作为选择候选目标的基础。
(4)计算每个子图像的滤波结果,比较滤波结果与阈值T的大小,如果滤波结果小于等于T,则直接判断此子图像是背景;如果滤波结果大于T,则标记此子图像为候选子图像,同时记录候选子图像的滤波分数Scorefilter;所有的候选子图像组成候选子图像集合R,集合R中的每一个子图像都带有表示类别的标签和其滤波分数Scorefilter;
对于原始输入图像,用尺寸为L*L的MMF对整个图像滤波,获得滤波结果图F。计算图像F的像素平均值,记为T。该滤波(MMF)是尺寸为L*L的窗口逐个像素地在输入图像上滑动的过程,每个滑动窗在原始图像上截取的部分称为子图像。如果子图像经过MMF滤波后的输出小于等于T,则判定该子图像是背景;如果大于T,则将该子图像添加到候选子图像集R,同时,候选子图像的滤波分数定义为:
Scorefilter(m,n)=p(m,n)-T (7)
有两个最重要的指标:检测率Pd和虚警率Fa,定义如下:
其中,FN表示被模型预测为负的正样本数目,FP表示模型预测为正的负样本数目,TN表示被模型预测为负的负样本数目,TP表示模型预测为正的正样本数目。
由于MMF在我们的检测框架中的作用是选择候选子图像,因此选择T作为阈值以确保高检测率。我们的检测框架的下一步是尽可能地降低虚警率,同时保持高检测率。
(5)候选子图像集合R作为BP网络分类器的训练集,将候选子图像的像素值转换为L2*1的向量,把这个向量BP网络的输入,子图像的类别标签作为BP网络的期望输出,对BP网络进行有监督训练。
反向传播(BP)神经网络是一种单向传播的多层前向网络,通常包括输入层,隐藏层和输出层。在本文中,我们使用一个隐藏层,整个网络的结构如图3所示。
本文中BP神经网络的激活函数是Sigmoid函数:
全局误差定义如下:
其中M是训练样本,ci是理想输出,yi是实际输出。
本发明利用BP网络来学习图像像素与分类结果之间的非线性关系。将子图像的像素值作为输入特征,利用BP网络进行分类。BP网络的输出是0到1之间的连续值,可以认为输出值越接近1,输入越可能是目标,所以我们使用网络的输出作为置信标量,表示为ScoreBP。
训练网络时,把大小为L*L的子图像的像素值作为网络的输入,所以网络的输入层结点数量是L2;网络的输出层结点的数量是1,并且输出是区间[0,1]之间的标量,网络的输出反映了子图像的中心位置包含目标的可信度。
(6)将候选子图像的像素值转换为L2*1的向量,把这个向量作为训练好的BP网络的输入,BP网络的输出即为候选子图像包含目标的置信度分数ScoreBP,将此分数记录下来。
(7)候选子图像集合中的所有子图像的滤波分数Scorefilter、置信度分数ScoreBP和类别标签作为Logistic回归分类器的训练数据,子图像的滤波分数Scorefilter、置信度分数ScoreBP作为Logistic回归分类器的输入,子图像的类别标签作为Logistic回归分类器的期望输出,对Logistic回归分类器进行有监督训练。
Logistic回归算法的具体步骤如下:
(7.1)构建输入向量υ=(1,Scorefilter,ScoreBP)。
(7.2)将目标检测视为二元分类问题,可以假设输出变量受逻辑分布的影响:
其中υ是输入,u是输出,θ是输入向量的权重,向量的权重通过训练Logistic分类器获得。
(7.3)判断分类器的最终输出结果P(u=1|υ;θ)是否大于0.5,如果输出值大于0.5,则判定候选子图像包含目标,否则判定候选子图像为背景。
(8)对于待检测图像,使用尺寸为L*L的滑动窗口得到子图像,计算每个子图像的滤波结果,比较滤波结果与阈值T的大小,如果滤波结果小于等于T,则直接判断此子图像是背景;如果滤波结果大于T,则标记此子图像为候选子图像,同时记录候选子图像的滤波分数Scorefilter。
(9)将候选子图像的像素值转换为L2*1的向量,把这个向量作为训练好的BP网络的输入,BP网络的输出即为候选子图像包含目标的置信度分数ScoreBP,将此分数记录下来。
(10)滤波分数Scorefilter和置信度分数ScoreBP输入预先训练好的Logistic回归分类器,然后得到分类器的输出值,如果输出值大于0.5,则判定候选子图像包含目标,否则判定候选子图像为背景。
实例:
从30张红外云图中提取250000张大小为7*7的子图像。在原图中没有目标,所以原始子图像是负样本。对于每个子图像,通过使用点目标模拟技术来添加点目标以获得正样本。目标亮度在区间[4*σ,8*σ]内均匀分布,其中σ代表原始图像像素值的标准差。目标位置在子图像的中心点处,并有随机的像素偏移(Δm,Δn),其中Δm和Δn在区间[-0.5,0.5]内服从均匀分布。因此,数据集包含500000个样本,其中正负样本的比例为1:1。
数据集准备好之后,需要进行模型训练和测试,具体过程如下:
①从子图像集中任意选择400000样本去训练BP神经网络分类器,学习率设置为0.0001。为了确保模型的稳定性,在BP训练过程中使用k折交叉验证,其中k=10。
②利用MMF对以上训练集中提取候选子图像进行滤波并获得每个子图像的Scorefilter,然后利用训练好的BP网络计算每个候选子图像的ScoreBP。
③所有候选子图像的向量υ用于训练Logistic分类器。同样的,在训练过程中使用k折交叉验证,其中k=10。
④利用子图像集中剩下的100000个样本去测试最终的检测框架。
为了增强实验的可信度,我们按照上述过程进行了两次实验,实验结果下表所示:
Pd(训练样本集) | Fa(训练样本集) | Pd(测试样本集) | Fa(测试样本集) | |
实验1 | 0.941783 | 0.046365 | 0.938667 | 0.045498 |
实验2 | 0.931800 | 0.081942 | 0.935200 | 0.030645 |
其中,Pd为检测率,Fa为虚警率。
图4所示的是本发明中的方法与四种不同算法的检测结果的比较。从图中可以看出,基于滤波器的算法对于不同的阈值表现出不同的性能,因此它在图中显示为曲线;相反,本发明采用的方法或LS-SVM算法,对应于图中的一个点,这就意味着对于不同的背景图像,检测结果不会受到阈值的影响,检测性能比较稳定,即本发明提供的点目标检测方法充分发挥了传统滤波算法和机器学习算法各自的优势,避免了人工选取阈值,在不同云层背景下都具有良好的鲁棒性。与其他算法相比,本发明采用的算法在相同的虚警率下具有最高的检测率;在相同的检测率下具有最低的虚警率,根据上述检测结果对比可知,本发明提供的目标检测方法能尽可能地降低虚警率,同时保持高检测率。
图5是本发明提供的基于机器学习的点目标检测系统的结构图,如图5所示,该系统包括:检测目标单元和训练分类器单元。
检测目标单元用于确定待检测图像,将其划分为多个预设尺寸的子图像;采用最大中值滤波器MMF对各个子图像滤波,得到各个子图像的滤波输出,对于每个子图像,若其滤波输出小于或等于预设阈值,则判断该子图像为背景,否则将该子图像标记为候选子图像;所述候选子图像为可能包含目标的子图像,并确定各个候选子图像的滤波分数,所述滤波分数为滤波输出减去预设阈值;将每个候选子图像的二维像素值转换成对应的一维向量,将每个候选子图像对应的一维向量输入到预先训练好的反向传播BP神经网络分类器,通过预先训练好的BP神经网络分类器得到每个候选子图像包含目标的置信度分数;将每个候选子图像的滤波分数和其包含目标的置信度分数输入预先训练好的Logistic回归分类器,结合所述Logistic回归分类器的输出值判定每个候选子图像是否包含目标。
训练分类器单元用于使用多张原始背景图像作为训练数据,对于每张原始背景图像,使用尺寸为L*L的滑动窗口从左上角到右下角进行扫描,每扫描到一个位置,滑动窗在原始图像上截取的部分称为子图像,得到子图像集合D,其中,L取正奇数;对于子图像集合D中的每个子图像,通过点目标模拟技术来添加点目标,得到带有目标的子图像,将子图像集合D中的每个子图像对应的带有目标的子图像加入子图像集合D中,得到子图像集合D′;子图像集合D′中的每一个子图像都带有类别标签,所述类别标签用于指示对应的子图像是否包括目标,对子图像集合D′中的每一个子图像,执行如下步骤:用MMF对子图像滤波,滤波模板大小为L*L;计算每个子图像的MMF滤波分数,若滤波分数小于或等于预设阈值,则判断该子图像是背景;否则,标记该子图像为候选子图像,记录候选子图像的滤波分数Scorefilter;所有候选子图像组成候选子图像集合R,候选子图像集合R中的每一个子图像都带有类别标签和其滤波分数Scorefilter;将候选子图像集合R作为BP神经网络分类器的训练集,将每个候选子图像的二维像素值转换为L2*1的向量,把转换得到的向量作为BP神经网络分类器的输入,每个候选子图像的类别标签作为BP神经网络分类器的期望输出,对BP神经网络分类器进行有监督训练,得到训练好的BP神经网络分类器;将每个候选子图像的二维像素值转换得到的L2*1的向量作为训练好的BP神经网络分类器的输入,输出每个候选子图像包含目标的置信度分数ScoreBP;将候选子图像集合中的所有子图像的滤波分数Scorefilter、置信度分数ScoreBP和类别标签作为Logistic回归分类器的训练数据,子图像的滤波分数Scorefilter和置信度分数ScoreBP作为Logistic回归分类器的输入,子图像的类别标签作为Logistic回归分类器的期望输出,对Logistic回归分类器进行有监督训练,得到训练好的Logistic回归分类器。
具体各个单元的功能可参见前述方法实施例中的介绍,在此不做赘述。
本领域的技术人员容易理解,以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。
Claims (10)
1.一种基于机器学习的点目标检测方法,其特征在于,包括以下步骤:
确定待检测图像,将其划分为多个预设尺寸的子图像;
采用最大中值滤波器MMF对各个子图像滤波,得到各个子图像的滤波输出,若滤波输出小于或等于预设阈值,则判断该子图像是背景;否则,将该子图像标记为候选子图像,并根据该子图像的滤波输出和所述预设阈值确定该子图像的滤波分数;
将每个候选子图像的二维像素值转换得到的一维向量作为预先训练好的BP神经网络分类器的输入,输出每个候选子图像包含目标的置信度分数;将每个候选子图像的滤波分数和其包含目标的置信度分数输入预先训练好的Logistic回归分类器,结合所述Logistic回归分类器的输出值判定每个候选子图像是否包含目标。
2.根据权利要求1所述的基于机器学习的点目标检测方法,其特征在于,通过如下步骤得到所述预先训练好的Logistic回归分类器:
使用多张原始背景图像作为训练数据,对于每张原始背景图像,使用预设尺寸的滑动窗口扫描,得到子图像集合D;
对于子图像集合D中的每个子图像,通过点目标模拟技术来添加点目标,得到带有目标的子图像,将子图像集合D中的每个子图像对应的带有目标的子图像加入子图像集合D中,得到子图像集合D′;子图像集合D′中的每一个子图像都带有类别标签,所述类别标签用于指示子图像是否包括目标,对子图像集合D′中的每一个子图像,执行如下步骤:
用MMF对子图像滤波;计算每个子图像的MMF滤波输出,若滤波输出小于或等于预设阈值,则判断该子图像是背景;否则,标记该子图像为候选子图像,记录候选子图像的滤波分数;所述滤波分数为滤波输出减去预设阈值,所有候选子图像组成候选子图像集合R,候选子图像集合R中的每一个子图像都带有类别标签和其滤波分数;
将候选子图像集合R作为BP神经网络分类器的训练集,将每个候选子图像的二维像素值转换为一维向量,把转换得到的向量作为BP神经网络分类器的输入,每个候选子图像的类别标签作为BP神经网络分类器的期望输出,对BP神经网络分类器进行有监督训练,得到训练好的BP神经网络分类器;
将每个候选子图像的二维像素值转换得到的一维向量作为训练好的BP神经网络分类器的输入,输出每个候选子图像包含目标的置信度分数;
将候选子图像集合中的所有子图像的滤波分数、置信度分数和类别标签作为Logistic回归分类器的训练数据,子图像的滤波分数和置信度分数作为Logistic回归分类器的输入,子图像的类别标签作为Logistic回归分类器的期望输出,对Logistic回归分类器进行有监督训练,得到训练好的Logistic回归分类器。
3.根据权利要求2所述的基于机器学习的点目标检测方法,其特征在于,通过点目标模拟技术来添加点目标,具体为:
目标亮度在区间[4*σ,8*σ]内均匀分布,其中,σ代表原始图像像素值的标准差;
目标位置在子图像的中心点处,并有随机的像素偏移(Δm,Δn),其中,Δm和Δn在区间[-0.5,0.5]内服从均匀分布。
4.根据权利要求2所述的基于机器学习的点目标检测方法,其特征在于,所述对Logistic回归分类器进行有监督训练,具体包括:
构建输入向量υ=(1,Scorefilter,ScoreBP);Scorefilter表示子图像的滤波分数,ScoreBP表示置信度分数;
将目标检测视为二元分类问题,假设输出变量受逻辑分布的影响:
其中,P(u=1|υ;θ)表示输出变量为1的概率,P(u=0|υ;θ)表示输出变量为0的概率,υ是输入,u是输出,θ是输入向量的权重,输入向量的权重θ通过训练Logistic分类器获得;
判断Logistic分类器的最终输出结果P(u=1|υ;θ)是否大于0.5,如果输出值大于0.5,则判定候选子图像包含目标,否则判定候选子图像为背景。
5.根据权利要求2至4任一项所述的基于机器学习的点目标检测方法,其特征在于,所述子图像来自不同的原始背景图像或待检测图像,每个子图像对应的预设阈值由其划分前图像的信息确定,通过如下步骤确定子图像对应的预设阈值:
对于每张原始图像,用预设尺寸的MMF对整个图像滤波,获得滤波结果图F,计算滤波结果图F的像素平均值,记为该原始图像划分得到的子图像的预设阈值,所述原始图像为原始背景图像或待检测图像。
6.一种基于机器学习的点目标检测系统,其特征在于,包括:
检测目标单元,用于确定待检测图像,将其划分为多个预设尺寸的子图像;采用最大中值滤波器MMF对各个子图像滤波,得到各个子图像的滤波输出,若滤波输出小于或等于预设阈值,则判断该子图像是背景;否则,将该子图像标记为候选子图像,并根据该子图像的滤波输出和所述预设阈值确定该子图像的滤波分数;将每个候选子图像的二维像素值转换得到的一维向量作为预先训练好的BP神经网络分类器的输入,输出每个候选子图像包含目标的置信度分数;将每个候选子图像的滤波分数和其包含目标的置信度分数输入预先训练好的Logistic回归分类器,结合所述Logistic回归分类器的输出值判定每个候选子图像是否包含目标。
7.根据权利要求6所述的基于机器学习的点目标检测系统,其特征在于,还包括:
训练分类器单元,使用多张原始背景图像作为训练数据,对于每张原始背景图像,使用预设尺寸的滑动窗口扫描,得到子图像集合D;对于子图像集合D中的每个子图像,通过点目标模拟技术来添加点目标,得到带有目标的子图像,将子图像集合D中的每个子图像对应的带有目标的子图像加入子图像集合D中,得到子图像集合D′;子图像集合D′中的每一个子图像都带有类别标签,所述类别标签用于指示子图像是否包括目标,对子图像集合D′中的每一个子图像,执行如下步骤:用MMF对子图像滤波;计算每个子图像的MMF滤波输出,若滤波输出小于或等于预设阈值,则判断该子图像是背景;否则,标记该子图像为候选子图像,记录候选子图像的滤波分数;所述滤波分数为滤波输出减去预设阈值,所有候选子图像组成候选子图像集合R,候选子图像集合R中的每一个子图像都带有类别标签和其滤波分数;将候选子图像集合R作为BP神经网络分类器的训练集,将每个候选子图像的二维像素值转换为一维向量,把转换得到的向量作为BP神经网络分类器的输入,每个候选子图像的类别标签作为BP神经网络分类器的期望输出,对BP神经网络分类器进行有监督训练,得到训练好的BP神经网络分类器;将每个候选子图像的二维像素值转换得到的一维向量作为训练好的BP神经网络分类器的输入,输出每个候选子图像包含目标的置信度分数;将候选子图像集合中的所有子图像的滤波分数、置信度分数和类别标签作为Logistic回归分类器的训练数据,子图像的滤波分数和置信度分数作为Logistic回归分类器的输入,子图像的类别标签作为Logistic回归分类器的期望输出,对Logistic回归分类器进行有监督训练,得到训练好的Logistic回归分类器。
8.根据权利要求7所述的基于机器学习的点目标检测系统,其特征在于,所述训练分类器单元通过点目标模拟技术来添加点目标,具体为:目标亮度在区间[4*σ,8*σ]内均匀分布,其中,σ代表原始图像像素值的标准差;目标位置在子图像的中心点处,并有随机的像素偏移(Δm,Δn),其中,Δm和Δn在区间[-0.5,0.5]内服从均匀分布。
9.根据权利要求7所述的基于机器学习的点目标检测系统,其特征在于,所述训练分类器单元对Logistic回归分类器进行有监督训练,具体包括:构建输入向量υ=(1,Scorefilter,ScoreBP);Scorefilter表示子图像的滤波分数,ScoreBP表示置信度分数;
将目标检测视为二元分类问题,假设输出变量受逻辑分布的影响:
其中,P(u=1|υ;θ)表示输出变量为1的概率,P(u=0|υ;θ)表示输出变量为0的概率,υ是输入,u是输出,θ是输入向量的权重,输入向量的权重θ通过训练Logistic分类器获得;判断Logistic分类器的最终输出结果P(u=1|υ;θ)是否大于0.5,如果输出值大于0.5,则判定候选子图像包含目标,否则判定候选子图像为背景。
10.根据权利要求7至9任一项所述的基于机器学习的点目标检测系统,其特征在于,所述子图像来自不同的原始背景图像或待检测图像,每个子图像对应的预设阈值由其划分前图像的信息确定,所述检测目标单元或训练分类器单元或通过如下步骤确定子图像对应的预设阈值:对于每张原始图像,用预设尺寸的MMF对整个图像滤波,获得滤波结果图F,计算滤波结果图F的像素平均值,记为该原始图像划分得到的子图像的预设阈值,所述原始图像为原始背景图像或待检测图像。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910198884.9A CN110009006B (zh) | 2019-03-15 | 2019-03-15 | 一种基于机器学习的点目标检测方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910198884.9A CN110009006B (zh) | 2019-03-15 | 2019-03-15 | 一种基于机器学习的点目标检测方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110009006A CN110009006A (zh) | 2019-07-12 |
CN110009006B true CN110009006B (zh) | 2021-03-26 |
Family
ID=67167152
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910198884.9A Active CN110009006B (zh) | 2019-03-15 | 2019-03-15 | 一种基于机器学习的点目标检测方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110009006B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7004826B2 (ja) * | 2019-08-07 | 2022-01-21 | 株式会社日立ハイテク | 寸法計測装置、寸法計測方法及び半導体製造システム |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108304808A (zh) * | 2018-02-06 | 2018-07-20 | 广东顺德西安交通大学研究院 | 一种基于时空信息与深度网络的监控视频对象检测方法 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105809198B (zh) * | 2016-03-10 | 2019-01-08 | 西安电子科技大学 | 基于深度置信网络的sar图像目标识别方法 |
CN106600581B (zh) * | 2016-12-02 | 2019-09-24 | 北京航空航天大学 | 一种基于双目立体视觉的列车运行故障自动检测系统及方法 |
US10242294B2 (en) * | 2017-05-01 | 2019-03-26 | Intel Corporation | Target object classification using three-dimensional geometric filtering |
CN107463966B (zh) * | 2017-08-17 | 2019-06-18 | 电子科技大学 | 基于双深度神经网络的雷达一维距离像目标识别方法 |
CN108564010A (zh) * | 2018-03-28 | 2018-09-21 | 浙江大华技术股份有限公司 | 一种安全帽佩戴的检测方法、装置、电子设备及存储介质 |
CN109035290A (zh) * | 2018-07-16 | 2018-12-18 | 南京信息工程大学 | 一种基于高置信度更新补充学习的跟踪算法 |
CN109255336A (zh) * | 2018-09-29 | 2019-01-22 | 南京理工大学 | 基于巡检机器人的避雷器识别方法 |
-
2019
- 2019-03-15 CN CN201910198884.9A patent/CN110009006B/zh active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108304808A (zh) * | 2018-02-06 | 2018-07-20 | 广东顺德西安交通大学研究院 | 一种基于时空信息与深度网络的监控视频对象检测方法 |
Also Published As
Publication number | Publication date |
---|---|
CN110009006A (zh) | 2019-07-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9965719B2 (en) | Subcategory-aware convolutional neural networks for object detection | |
CN109684922B (zh) | 一种基于卷积神经网络的多模型对成品菜的识别方法 | |
CN109902715B (zh) | 一种基于上下文聚合网络的红外弱小目标检测方法 | |
CN107563433B (zh) | 一种基于卷积神经网络的红外小目标检测方法 | |
CN107633226B (zh) | 一种人体动作跟踪特征处理方法 | |
US8295637B2 (en) | Method of classifying red-eye objects using feature extraction and classifiers | |
CN110175649B (zh) | 一种关于重新检测的快速多尺度估计目标跟踪方法 | |
CN104537647A (zh) | 一种目标检测方法及装置 | |
CN109934216B (zh) | 图像处理的方法、装置、计算机可读存储介质 | |
CN109255386B (zh) | 基于毫米波雷达和视觉融合的道路行人快速检测方法 | |
CN110348475A (zh) | 一种基于空间变换的对抗样本增强方法和模型 | |
CN110008900B (zh) | 一种由区域到目标的可见光遥感图像候选目标提取方法 | |
CN108320306A (zh) | 融合tld和kcf的视频目标跟踪方法 | |
CN112802054A (zh) | 一种融合图像分割的混合高斯模型前景检测方法 | |
JP7392488B2 (ja) | 遺留物誤検出の認識方法、装置及び画像処理装置 | |
Zhao et al. | Research on detection method for the leakage of underwater pipeline by YOLOv3 | |
CN110163206B (zh) | 车牌识别方法、系统、存储介质和装置 | |
CN110009006B (zh) | 一种基于机器学习的点目标检测方法及系统 | |
CN111444816A (zh) | 一种基于Faster RCNN的多尺度密集行人检测方法 | |
CN111274964A (zh) | 一种基于无人机视觉显著性分析水面污染物的检测方法 | |
CN110706208A (zh) | 一种基于张量均方最小误差的红外弱小目标检测方法 | |
CN109815887B (zh) | 一种基于多智能体协作的复杂光照下人脸图像的分类方法 | |
CN116363535A (zh) | 基于卷积神经网络的无人机航拍影像中的船舶检测方法 | |
CN114943869B (zh) | 风格迁移增强的机场目标检测方法 | |
CN113963178A (zh) | 地空背景下红外弱小目标检测方法、装置、设备及介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |