CN107316030A - 无人机对地面运动车辆自动检测与分类方法 - Google Patents

无人机对地面运动车辆自动检测与分类方法 Download PDF

Info

Publication number
CN107316030A
CN107316030A CN201710535601.6A CN201710535601A CN107316030A CN 107316030 A CN107316030 A CN 107316030A CN 201710535601 A CN201710535601 A CN 201710535601A CN 107316030 A CN107316030 A CN 107316030A
Authority
CN
China
Prior art keywords
mrow
msubsup
msub
mover
msup
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201710535601.6A
Other languages
English (en)
Inventor
杨涛
解博琳
刘睿恺
李治
张艳宁
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Northwestern Polytechnical University
Shenzhen Institute of Northwestern Polytechnical University
Original Assignee
Northwestern Polytechnical University
Shenzhen Institute of Northwestern Polytechnical University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Northwestern Polytechnical University, Shenzhen Institute of Northwestern Polytechnical University filed Critical Northwestern Polytechnical University
Priority to CN201710535601.6A priority Critical patent/CN107316030A/zh
Publication of CN107316030A publication Critical patent/CN107316030A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/584Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of vehicle lights or traffic lights
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2411Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/56Extraction of image or video features relating to colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/08Detecting or categorising vehicles

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Secondary Cells (AREA)

Abstract

本发明公开了一种无人机对地面运动车辆自动检测与分类方法,用于解决现有运动目标检测方法实用性差的技术问题。技术方案是构建两个SGM模型,分别作为现用背景模型和备用背景模型。将前一帧图像中的不同块的SGM模型分配不同权重进行模型混合实现前后帧之间的运动补偿,得到当前帧的背景建模结果。选择像素方差大于阈值的均值作为前景像素,通过比较像素方差的方式进行运动区域的检测。得到背景模型后,选择像素方差大于阈值的均值的像素作为前景像素。在分类之前将大量常见的虚警和目标编为正负样本,使用HOG特征作为训练SVM分类器的算子,并建立一级或多级SVM分类器,使用多级SVM分类器级联的方法分类多种目标,实用性好。

Description

无人机对地面运动车辆自动检测与分类方法
技术领域
本发明涉及一种运动目标检测方法,特别涉及一种无人机对地面运动车辆自动检测与分类方法。
背景技术
运动目标检测是目前计算机视觉应用的热点和焦点之一,同时实时对运动目标进行视觉分析也是一项十分重要的核心问题,尤其是在移动平台下进行移动目标实时检测更具有挑战性。搭载在无人机平台上捕捉和检测获取视频序列中的运动目标并对运动目标进行分类在很多方面都有着广泛的应用。现有的运动目标自动检测方法主要有光流法、减背景法和差分法等。普通的背景减法和差分法等无法用在运动背景下的运动目标检测算法。光流法由于计算量等问题无法实现实时的运动检测。例如自由移动相机全景背景建模(N.I.Rao,H.Di,and G.Xu.Panoramic background model under free moving camera.InProceedings of the Fourth International Conference on Fuzzy Systems andKnowledge Discovery-Volume 01,FSKD'07,pages 639-643,Washington,DC,USA,2007.IEEE Computer Society.2),其使用了稀疏LK光流弥补背景的变化。然而,考虑到为了提高准确性使用多张相邻图像增加了必要的计算,减慢了整个算法。而且这些运动分割算法缺少有效的去除虚警和对目标分类的功能,在复杂的立体背景中效果不佳。
综上所述,现有的许多方法提出了运动相机下移动物体检测,但是其实用性不高。限制了这些方法实用性的最关键的原因是其需要的计算量非常大,不能实时运行。而且上述方法无法对运动目标进行视频智能分析,没有很有效的去除虚警。
发明内容
为了克服现有运动目标检测方法实用性差的不足,本发明提供一种无人机对地面运动车辆自动检测与分类方法。该方法构建两个SGM模型,分别作为现用背景模型和备用背景模型。将前一帧图像中的不同块的SGM模型分配不同权重进行模型混合实现前后帧之间的运动补偿,得到当前帧的背景建模结果。选择像素方差大于阈值的均值作为前景像素,通过比较像素方差的方式进行运动区域的检测。得到背景模型后,选择像素方差大于阈值的均值的像素作为前景像素。在分类之前将大量常见的虚警和目标编为正负样本,使用HOG特征作为训练SVM分类器的算子,并建立一级或多级SVM分类器,使用多级SVM分类器级联的方法分类多种目标,实用性好。
本发明解决其技术问题所采用的技术方案:一种无人机对地面运动车辆自动检测与分类方法,其特点是包括以下步骤:
步骤一、采用HOG特征作为分类器的特征算子。
进行HOG特征提取:
将一个分割出64*128像素的样本进行如下操作:
1)将图像灰度化。
2)采用Gamma校正法对输入图像进行颜色空间的标准化。
3)计算图像每个像素的梯度,获取轮廓信息并减弱光的变化或者目标颜色不同造成的影响。
计算图像横坐标和纵坐标方向的梯度,并根据图像横坐标和纵坐标方向的梯度计算每个像素位置的梯度方向值;图像中像素点(x,y)的梯度为:
Gx(x,y)=H(x+1,y)-H(x-1,y) (1)
Gy(x,y)=H(x,y+1)-H(x,y-1) (2)
式中,Gx(x,y),Gy(x,y),H(x,y)分别表示输入样本图像中位于点(x,y)处的水平方向梯度、垂直方向梯度和像素的值。
在像素(x,y)处的梯度值:
在像素(x,y)处的梯度方向:
4)将图像划分成8*8的小块;
5)统计每个小块的梯度直方图;
6)将四个小块组成一个16*16的大块,一个大块内所有小块的特征串联起来得到该大块的HOG特征。
7)将图像样本内的所有大块的HOG特征串联起来,得到该样本的HOG特征。
SVM分类器的训练:
SVM算法的实质是找出一个能够将样某个值最大化的超平面,这个值就是超平面离所有训练样本的最小距离。下面的公式定义了超平面的表达式:
f(x)=β0Tx (5)
β叫做权重向量,β0叫做偏置。通过任意的缩放β和β0找到最优值使平面到它附近点的距离最小。使用以下方式来表达最优超平面:
0Tx|=1 (6)
式中,x表示距离超平面最近的一些点。由于知道点x到超平面(β,β0)的距离为DSV,这些点被称为支持向量。由点到平面的距离可知支持向量到超平面的距离是
M是超平面离所有训练样本的最小距离的2倍
最后最大化M转化为在附加限制条件下最小化函数L(β)。限制条件隐含超平面将所有训练样本xi正确分类的条件。
式中,yi表示样本的类别标记。通过拉格朗日乘数法得到最优超平面的权重向量β和偏置β0,得出分类超平面。并根据需要训练一种或多种分类器。分类器方法的实现来自于opencv的函数。
步骤二、令表示在时间t时第i个方块,令表示块中像素个数,令表示在时间t时像素j的灰度值,令分别表示的SGM的均值、方差和生存期。且它们按照公式
其中,定义如下:
并且表示在t对t-1时刻的SGM模型进行补偿之后的结果。
分别表示块i的候选模型在时刻t的均值,方差和生存期,令分别表示块i的正在用的模型在时刻t的均值,方差和生存期。将两个模型按照如下规定进行更新:如果观测到的均值和模型的均值的方差小于规定阈值θs,也就是满足公式:
则按照公式(10)、公式(11)和公式(12)对正在用的模型进行更新。同样,如果以上条件不满足并且观测值与候选模型相匹配,即
则同样按照公式(10)、公式(11)和公式(12)对备用模型进行更新,如果以上都不满足,则用当前的观测值来初始化备用模型。
当采用以上步骤进行更新的时候,能够保证只有一个模型进行过更新而另一个保持不变。更新后,若两个模型满足以下条件,则进行交换:
备选模型在交换后进行初始化。最终,只有一个正在用的模型用来进行目标检测。
然后将输入图像分成X*Y大小的块,特征点是块的中心,并在每一个块上通过KLT光流算法匹配求出的特征点,使用RANSAC算法求解出符合大部分特征点匹配情况的射影变换矩阵Ht:t-1,用来表示t时所有像素投射到t-1时图像上的变换矩阵。令xj表示像素j的位置,将块的中心位置记作将位置x通过Ht:t-1变换后的位置记作fPT(x,Ht,t-1)。对于每一个块Gi的区域Xi将其进行补偿后,其位置和其临近的几个块如果发生重叠,将与其发生重叠的几个块的按照其重叠面积的大小分配相对应的权重进行混合来完成运动补偿工作。令表示与Xi发生重叠的块,令ωk表示混合的权重,然后按照以下公式进行各个分块的SGM的混合,最终达到运动补偿的目的:
在公式(19)中,有这是为了将多个高斯模型混合成为一个的时候,新的方差应该是不仅包括原有的块内像素方差,还包括这些块进行混合,各个块之间的方差。在经过运动补偿之后,如果方差的大小超过阈值θv,也就是则将对模型的生存期进行如下修改:
其中,λ是衰减系数。通过这种衰减方式避免模型中存在过大的方差,减少由于一些边缘导致的错检。
最后进行运动目标的检测。对于每个属于块i的像素j,设置阈值θd,若其灰度值满足公式:
则将其划分为前景像素。
步骤三、在进行完图像中运动目标的分割之后,采用二值形态学处理方法和SVM分类器相结合的方法。使用腐蚀算法将不满足运动目标检测要求大小的目标去除然后膨胀到合适的大小:
将双模高斯背景建模的目标检测运动分割出的目标框提取HOG特征,并对目标的特征采取多个分类器级联的方式进行分类。
本发明的有益效果是:该方法构建两个SGM模型,分别作为现用背景模型和备用背景模型。将前一帧图像中的不同块的SGM模型分配不同权重进行模型混合实现前后帧之间的运动补偿,得到当前帧的背景建模结果。选择像素方差大于阈值的均值作为前景像素,通过比较像素方差的方式进行运动区域的检测。得到背景模型后,选择像素方差大于阈值的均值的像素作为前景像素。在分类之前将大量常见的虚警和目标编为正负样本,使用HOG特征作为训练SVM分类器的算子,并建立一级或多级SVM分类器,使用多级SVM分类器级联的方法分类多种目标,实用性好。
经测试,本发明处理速度快,对于1280x720的图片序列,达到15帧/秒的处理速度,对640x480的图片序列能够达到25帧/秒的实时处理速度。对虚警处理效果很好,使用大量常见虚警进行训练,能够滤除95%的虚警。分类有效迅速,在实践中多级级联分类器的使用并不会对处理速度造成很大影响,并且在有足够有效样本的情况下具有较高的可靠性。
下面结合附图和具体实施方式对本发明作详细说明。
附图说明
图1是本发明无人机对地面运动车辆自动检测与分类方法的流程图。
图2是图1中双模单高斯背景建模的流程图。
图3是图1中运动补偿的流程图。
具体实施方式
参照图1-3。本发明无人机对地面运动车辆自动检测与分类方法具体步骤如下:
步骤一、分类前的准备工作,训练SVM分类器。
1.本方法采用HOG特征作为分类器的特征算子。
进行HOG特征提取:
将一个分割出的样本(64*128像素)进行如下操作:
1)将图像灰度化。
2)采用Gamma校正法对输入图像进行颜色空间的标准化。
3)计算图像每个像素的梯度(包括大小和方向),获取轮廓信息并减弱光的变化或者目标颜色不同造成的影响。
计算图像横坐标和纵坐标方向的梯度,并根据图像横坐标和纵坐标方向的梯度计算每个像素位置的梯度方向值;图像中像素点(x,y)的梯度为:
Gx(x,y)=H(x+1,y)-H(x-1,y) (1)
Gy(x,y)=H(x,y+1)-H(x,y-1) (2)
式中,Gx(x,y),Gy(x,y),H(x,y)分别表示输入样本图像中位于点(x,y)处的水平方向梯度、垂直方向梯度和像素的值。
在像素(x,y)处的梯度值:
在像素(x,y)处的梯度方向:
4)将图像划分成8*8的小块;
5)统计每个小块的梯度直方图(不同梯度的个数);
6)将四个小块组成一个16*16的大块,一个大块内所有小块的特征串联起来便得到该大块的HOG特征。
7)将图像样本内的所有大块的HOG特征串联起来就可以得到该样本的HOG特征了。这个就是最终的可供分类使用的特征向量了。
2.SVM分类器的训练:
SVM算法的实质是找出一个能够将样某个值最大化的超平面,这个值就是超平面离所有训练样本的最小距离。下面的公式定义了超平面的表达式:
f(x)=β0Tx (5)
β叫做权重向量,β0叫做偏置。通过任意的缩放β和β0找到最优值使平面到它附近点的距离最小。使用以下方式来表达最优超平面:
0Tx|=1 (6)
式中x表示距离超平面最近的一些点。由于知道点x到超平面(β,β0)的距离为DSV,这些点被称为支持向量。由点到平面的距离可知支持向量到超平面的距离是
M是超平面离所有训练样本的最小距离的2倍
最后最大化M转化为在附加限制条件下最小化函数L(β)。限制条件隐含超平面将所有训练样本xi正确分类的条件。
式中,yi表示样本的类别标记。可以通过拉格朗日乘数法得到最优超平面的权重向量β和偏置β0,得出分类超平面。并根据需要训练一种或多种分类器。分类器方法的实现来自于opencv的函数。
步骤二、使用双模态建模高斯背景建模。
表示在时间t时第i个方块,令表示块中像素个数,令表示在时间t时像素j的灰度值,令分别表示的SGM的均值、方差和生存期。且它们按照公式
其中,定义如下:
并且表示在t对t-1时刻的SGM模型进行补偿之后的结果。
分别表示块i的候选模型在时刻t的均值,方差和生存期,令分别表示块i的正在用的模型在时刻t的均值,方差和生存期。将两个模型按照如下规定进行更新:如果观测到的均值和模型的均值的方差小于规定阈值θs,也就是满足公式:
则按照公式(10)、公式(11)和公式(12)对正在用的模型进行更新。同样,如果以上条件不满足并且观测值与候选模型相匹配,即
则同样按照公式(10)、公式(11)和公式(12)对备用模型进行更新,如果以上都不满足,则用当前的观测值来初始化备用模型。
当采用以上步骤进行更新的时候,能够保证只有一个模型进行过更新而另一个保持不变。更新后,若两个模型满足以下条件,则进行交换:
备选模型在交换后进行初始化。最终,只有一个正在用的模型用来进行目标检测。这样就可以很好地避免背景模型受到前景像素的干扰。
然后将输入图像分成X*Y大小的块,特征点是块的中心,并在每一个块上通过KLT光流算法匹配求出的特征点,使用RANSAC算法求解出符合大部分特征点匹配情况的射影变换矩阵Ht:t-1,用来表示t时所有像素投射到t-1时图像上的变换矩阵。为了更好地解释,令xj表示像素j的位置,将块的中心位置记作将位置x通过Ht:t-1变换后的位置记作fPT(x,Ht,t-1)。对于每一个块Gi的区域Xi将其进行补偿后,其位置和其临近的几个块发生了重叠,本方法将与其发生重叠的几个块的按照其重叠面积的大小分配相对应的权重来进行混合来完成运动补偿工作。令表示与Xi发生重叠的块,令ωk表示混合的权重,然后就可以按照以下公式进行各个分块的SGM的混合,最终达到运动补偿的目的:
在公式(19)中,有这是为了将多个高斯模型混合成为一个的时候,新的方差应该是不仅包括原有的块内像素方差,还包括这些块进行混合,各个块之间的方差。在进行混合步骤时,不同块的方差可能差别比较大,但是过大的方差经常说明了这个模型并没有很好地进行背景建模,所以一个好的SGM模型不能有过大的方差。因此,在经过运动补偿之后,如果方差的大小超过阈值θv,也就是则将对模型的生存期进行如下修改:
其中,λ是衰减系数。通过这种衰减方式,可以避免模型中存在过大的方差。这显著减少了由于一些边缘导致的错检。
最后进行运动目标的检测。对于每个属于块i的像素j,设置阈值θd,若其灰度值满足公式:
则将其划分为前景像素。
步骤三、运动分割出的前景加入训练好的分类器中分类。
在进行完图像中运动目标的分割之后,由于相机运动和复杂的立体背景和水面等目标产生的误差往往会造成虚警。为了去除虚警本发明采用了腐蚀膨胀等二值形态学处理方法和SVM分类器相结合的方法。首先使用腐蚀算法将不满足运动目标检测要求大小的目标去除然后膨胀到合适的大小:
最后将双模高斯背景建模的目标检测运动分割出的目标框进提取HOG特征,并对目标的特征使用SVM进行分类。为了使分类更加准确,本方法采取了多个分类器级联的方式进行分类。这样可以大大减少误判的情况发生并加强了对虚警的判断。

Claims (1)

1.一种无人机对地面运动车辆自动检测与分类方法,其特征在于包括以下步骤:
步骤一、采用HOG特征作为分类器的特征算子;
进行HOG特征提取:
将一个分割出64*128像素的样本进行如下操作:
1)将图像灰度化;
2)采用Gamma校正法对输入图像进行颜色空间的标准化;
3)计算图像每个像素的梯度,获取轮廓信息并减弱光的变化或者目标颜色不同造成的影响;
计算图像横坐标和纵坐标方向的梯度,并根据图像横坐标和纵坐标方向的梯度计算每个像素位置的梯度方向值;图像中像素点(x,y)的梯度为:
Gx(x,y)=H(x+1,y)-H(x-1,y) (1)
Gy(x,y)=H(x,y+1)-H(x,y-1) (2)
式中,Gx(x,y),Gy(x,y),H(x,y)分别表示输入样本图像中位于点(x,y)处的水平方向梯度、垂直方向梯度和像素的值;
在像素(x,y)处的梯度值:
在像素(x,y)处的梯度方向:
4)将图像划分成8*8的小块;
5)统计每个小块的梯度直方图;
6)将四个小块组成一个16*16的大块,一个大块内所有小块的特征串联起来得到该大块的HOG特征;
7)将图像样本内的所有大块的HOG特征串联起来,得到该样本的HOG特征;
SVM分类器的训练:
SVM算法的实质是找出一个能够将样某个值最大化的超平面,这个值就是超平面离所有训练样本的最小距离;下面的公式定义了超平面的表达式:
f(x)=β0Tx (5)
β叫做权重向量,β0叫做偏置;通过任意的缩放β和β0找到最优值使平面到它附近点的距离最小;使用以下方式来表达最优超平面:
0Tx|=1 (6)
式中,x表示距离超平面最近的一些点;由于知道点x到超平面(β,β0)的距离为DSV,这些点被称为支持向量;由点到平面的距离可知支持向量到超平面的距离是
<mrow> <msub> <mi>D</mi> <mrow> <mi>S</mi> <mi>V</mi> </mrow> </msub> <mo>=</mo> <mfrac> <mrow> <mo>|</mo> <mrow> <msub> <mi>&amp;beta;</mi> <mn>0</mn> </msub> <mo>+</mo> <msup> <mi>&amp;beta;</mi> <mi>T</mi> </msup> <mi>x</mi> </mrow> <mo>|</mo> </mrow> <mrow> <mo>|</mo> <mo>|</mo> <mi>&amp;beta;</mi> <mo>|</mo> <mo>|</mo> </mrow> </mfrac> <mo>=</mo> <mfrac> <mn>1</mn> <mrow> <mo>|</mo> <mo>|</mo> <mi>&amp;beta;</mi> <mo>|</mo> <mo>|</mo> </mrow> </mfrac> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>7</mn> <mo>)</mo> </mrow> </mrow>
M是超平面离所有训练样本的最小距离的2倍
<mrow> <mi>M</mi> <mo>=</mo> <mfrac> <mn>2</mn> <mrow> <mo>|</mo> <mo>|</mo> <mi>&amp;beta;</mi> <mo>|</mo> <mo>|</mo> </mrow> </mfrac> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>8</mn> <mo>)</mo> </mrow> </mrow>
最后最大化M转化为在附加限制条件下最小化函数L(β);限制条件隐含超平面将所有训练样本xi正确分类的条件;
式中,yi表示样本的类别标记;通过拉格朗日乘数法得到最优超平面的权重向量β和偏置β0,得出分类超平面;并根据需要训练一种或多种分类器;分类器方法的实现来自于opencv的函数;
步骤二、令表示在时间t时第i个方块,令表示块中像素个数,令表示在时间t时像素j的灰度值,令分别表示的SGM的均值、方差和生存期;且它们按照公式
<mrow> <msubsup> <mi>&amp;mu;</mi> <mi>i</mi> <mrow> <mo>(</mo> <mi>t</mi> <mo>)</mo> </mrow> </msubsup> <mo>=</mo> <mfrac> <mrow> <msup> <msub> <mover> <mi>&amp;alpha;</mi> <mo>~</mo> </mover> <mi>i</mi> </msub> <mrow> <mo>(</mo> <mi>t</mi> <mo>-</mo> <mn>1</mn> <mo>)</mo> </mrow> </msup> </mrow> <mrow> <msup> <msub> <mover> <mi>&amp;alpha;</mi> <mo>~</mo> </mover> <mi>i</mi> </msub> <mrow> <mo>(</mo> <mi>t</mi> <mo>-</mo> <mn>1</mn> <mo>)</mo> </mrow> </msup> <mo>+</mo> <mn>1</mn> </mrow> </mfrac> <msubsup> <mover> <mi>&amp;mu;</mi> <mo>~</mo> </mover> <mi>i</mi> <mrow> <mo>(</mo> <mi>t</mi> <mo>-</mo> <mn>1</mn> <mo>)</mo> </mrow> </msubsup> <mo>+</mo> <mfrac> <mn>1</mn> <mrow> <msup> <msub> <mover> <mi>&amp;alpha;</mi> <mo>~</mo> </mover> <mi>i</mi> </msub> <mrow> <mo>(</mo> <mi>t</mi> <mo>-</mo> <mn>1</mn> <mo>)</mo> </mrow> </msup> <mo>+</mo> <mn>1</mn> </mrow> </mfrac> <msubsup> <mi>M</mi> <mi>i</mi> <mrow> <mo>(</mo> <mi>t</mi> <mo>)</mo> </mrow> </msubsup> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>10</mn> <mo>)</mo> </mrow> </mrow>
<mrow> <msubsup> <mi>&amp;sigma;</mi> <mi>i</mi> <mrow> <mo>(</mo> <mi>t</mi> <mo>)</mo> </mrow> </msubsup> <mo>=</mo> <mfrac> <mrow> <msup> <msub> <mover> <mi>&amp;alpha;</mi> <mo>~</mo> </mover> <mi>i</mi> </msub> <mrow> <mo>(</mo> <mi>t</mi> <mo>-</mo> <mn>1</mn> <mo>)</mo> </mrow> </msup> </mrow> <mrow> <msup> <msub> <mover> <mi>&amp;alpha;</mi> <mo>~</mo> </mover> <mi>i</mi> </msub> <mrow> <mo>(</mo> <mi>t</mi> <mo>-</mo> <mn>1</mn> <mo>)</mo> </mrow> </msup> <mo>+</mo> <mn>1</mn> </mrow> </mfrac> <msubsup> <mover> <mi>&amp;sigma;</mi> <mo>~</mo> </mover> <mi>i</mi> <mrow> <mo>(</mo> <mi>t</mi> <mo>-</mo> <mn>1</mn> <mo>)</mo> </mrow> </msubsup> <mo>+</mo> <mfrac> <mrow> <msup> <msub> <mover> <mi>&amp;alpha;</mi> <mo>~</mo> </mover> <mi>i</mi> </msub> <mrow> <mo>(</mo> <mi>t</mi> <mo>-</mo> <mn>1</mn> <mo>)</mo> </mrow> </msup> </mrow> <mrow> <msup> <msub> <mover> <mi>&amp;alpha;</mi> <mo>~</mo> </mover> <mi>i</mi> </msub> <mrow> <mo>(</mo> <mi>t</mi> <mo>-</mo> <mn>1</mn> <mo>)</mo> </mrow> </msup> <mo>+</mo> <mn>1</mn> </mrow> </mfrac> <msubsup> <mi>V</mi> <mi>i</mi> <mrow> <mo>(</mo> <mi>t</mi> <mo>)</mo> </mrow> </msubsup> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>11</mn> <mo>)</mo> </mrow> </mrow>
<mrow> <msubsup> <mi>&amp;alpha;</mi> <mi>i</mi> <mrow> <mo>(</mo> <mi>t</mi> <mo>)</mo> </mrow> </msubsup> <mo>=</mo> <msup> <msub> <mover> <mi>&amp;alpha;</mi> <mo>~</mo> </mover> <mi>i</mi> </msub> <mrow> <mo>(</mo> <mi>t</mi> <mo>-</mo> <mn>1</mn> <mo>)</mo> </mrow> </msup> <mo>+</mo> <mn>1</mn> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>12</mn> <mo>)</mo> </mrow> </mrow>
其中,和Vi (t)定义如下:
<mrow> <msubsup> <mi>M</mi> <mi>i</mi> <mrow> <mo>(</mo> <mi>t</mi> <mo>)</mo> </mrow> </msubsup> <mo>=</mo> <mfrac> <mn>1</mn> <mrow> <mo>|</mo> <msub> <mi>G</mi> <mi>i</mi> </msub> <mo>|</mo> </mrow> </mfrac> <munder> <mrow> <mo>&amp;Sigma;</mo> <msubsup> <mi>I</mi> <mi>j</mi> <mrow> <mo>(</mo> <mi>t</mi> <mo>)</mo> </mrow> </msubsup> </mrow> <mrow> <mi>j</mi> <mo>&amp;Element;</mo> <msub> <mi>G</mi> <mi>i</mi> </msub> </mrow> </munder> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>13</mn> <mo>)</mo> </mrow> </mrow>
<mrow> <msubsup> <mi>V</mi> <mi>i</mi> <mrow> <mo>(</mo> <mi>t</mi> <mo>)</mo> </mrow> </msubsup> <mo>=</mo> <munder> <mrow> <mi>m</mi> <mi>a</mi> <mi>x</mi> </mrow> <mrow> <mi>j</mi> <mo>&amp;Element;</mo> <msub> <mi>G</mi> <mi>i</mi> </msub> </mrow> </munder> <msup> <mrow> <mo>(</mo> <msubsup> <mi>&amp;mu;</mi> <mi>i</mi> <mrow> <mo>(</mo> <mi>t</mi> <mo>)</mo> </mrow> </msubsup> <mo>-</mo> <msubsup> <mi>I</mi> <mi>j</mi> <mrow> <mo>(</mo> <mi>t</mi> <mo>)</mo> </mrow> </msubsup> <mo>)</mo> </mrow> <mn>2</mn> </msup> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>14</mn> <mo>)</mo> </mrow> </mrow>
并且表示在t对t-1时刻的SGM模型进行补偿之后的结果;
分别表示块i的候选模型在时刻t的均值,方差和生存期,令分别表示块i的正在用的模型在时刻t的均值,方差和生存期;将两个模型按照如下规定进行更新:如果观测到的均值和模型的均值的方差小于规定阈值θs,也就是满足公式:
<mrow> <msup> <mrow> <mo>(</mo> <msubsup> <mi>M</mi> <mi>i</mi> <mrow> <mo>(</mo> <mi>t</mi> <mo>)</mo> </mrow> </msubsup> <mo>-</mo> <msubsup> <mi>&amp;mu;</mi> <mrow> <mi>A</mi> <mo>,</mo> <mi>i</mi> </mrow> <mrow> <mo>(</mo> <mi>t</mi> <mo>)</mo> </mrow> </msubsup> <mo>)</mo> </mrow> <mn>2</mn> </msup> <mo>&lt;</mo> <msub> <mi>&amp;theta;</mi> <mi>s</mi> </msub> <msubsup> <mi>&amp;sigma;</mi> <mrow> <mi>A</mi> <mo>,</mo> <mi>i</mi> </mrow> <mrow> <mo>(</mo> <mi>t</mi> <mo>)</mo> </mrow> </msubsup> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>15</mn> <mo>)</mo> </mrow> </mrow>
则按照公式(10)、公式(11)和公式(12)对正在用的模型进行更新;同样,如果以上条件不满足并且观测值与候选模型相匹配,即
<mrow> <msup> <mrow> <mo>(</mo> <msubsup> <mi>M</mi> <mi>i</mi> <mrow> <mo>(</mo> <mi>t</mi> <mo>)</mo> </mrow> </msubsup> <mo>-</mo> <msubsup> <mi>&amp;mu;</mi> <mrow> <mi>C</mi> <mo>,</mo> <mi>i</mi> </mrow> <mrow> <mo>(</mo> <mi>t</mi> <mo>)</mo> </mrow> </msubsup> <mo>)</mo> </mrow> <mn>2</mn> </msup> <mo>&lt;</mo> <msub> <mi>&amp;theta;</mi> <mi>s</mi> </msub> <msubsup> <mi>&amp;sigma;</mi> <mrow> <mi>C</mi> <mo>,</mo> <mi>i</mi> </mrow> <mrow> <mo>(</mo> <mi>t</mi> <mo>)</mo> </mrow> </msubsup> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>16</mn> <mo>)</mo> </mrow> </mrow>
则同样按照公式(10)、公式(11)和公式(12)对备用模型进行更新,如果以上都不满足,则用当前的观测值来初始化备用模型;
当采用以上步骤进行更新的时候,能够保证只有一个模型进行过更新而另一个保持不变;更新后,若两个模型满足以下条件,则进行交换:
<mrow> <msubsup> <mi>&amp;alpha;</mi> <mrow> <mi>C</mi> <mo>,</mo> <mi>i</mi> </mrow> <mrow> <mo>(</mo> <mi>t</mi> <mo>)</mo> </mrow> </msubsup> <mo>&gt;</mo> <msubsup> <mi>&amp;alpha;</mi> <mrow> <mi>A</mi> <mo>,</mo> <mi>i</mi> </mrow> <mrow> <mo>(</mo> <mi>t</mi> <mo>)</mo> </mrow> </msubsup> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>17</mn> <mo>)</mo> </mrow> </mrow>
备选模型在交换后进行初始化;最终,只有一个正在用的模型用来进行目标检测;
然后将输入图像分成X*Y大小的块,特征点是块的中心,并在每一个块上通过KLT光流算法匹配求出的特征点,使用RANSAC算法求解出符合大部分特征点匹配情况的射影变换矩阵Ht:t-1,用来表示t时所有像素投射到t-1时图像上的变换矩阵;令xj表示像素j的位置,将块的中心位置记作将位置x通过Ht:t-1变换后的位置记作fPT(x,Ht,t-1);对于每一个块Gi的区域Xi将其进行补偿后,其位置和其临近的几个块如果发生重叠,将与其发生重叠的几个块的按照其重叠面积的大小分配相对应的权重进行混合来完成运动补偿工作;令表示与Xi发生重叠的块,令ωk表示混合的权重,然后按照以下公式进行各个分块的SGM的混合,最终达到运动补偿的目的:
<mrow> <msubsup> <mover> <mi>&amp;mu;</mi> <mo>~</mo> </mover> <mi>i</mi> <mrow> <mo>(</mo> <mi>t</mi> <mo>-</mo> <mn>1</mn> <mo>)</mo> </mrow> </msubsup> <mo>=</mo> <munder> <mo>&amp;Sigma;</mo> <mrow> <mi>k</mi> <mo>&amp;Element;</mo> <msubsup> <mi>O</mi> <mi>i</mi> <mrow> <mo>(</mo> <mi>t</mi> <mo>)</mo> </mrow> </msubsup> </mrow> </munder> <msub> <mi>&amp;omega;</mi> <mi>k</mi> </msub> <msubsup> <mi>&amp;mu;</mi> <mi>k</mi> <mrow> <mo>(</mo> <mi>t</mi> <mo>-</mo> <mn>1</mn> <mo>)</mo> </mrow> </msubsup> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>18</mn> <mo>)</mo> </mrow> </mrow>
<mrow> <msubsup> <mover> <mi>&amp;sigma;</mi> <mo>~</mo> </mover> <mi>i</mi> <mrow> <mo>(</mo> <mi>t</mi> <mo>-</mo> <mn>1</mn> <mo>)</mo> </mrow> </msubsup> <mo>=</mo> <munder> <mo>&amp;Sigma;</mo> <mrow> <mi>k</mi> <mo>&amp;Element;</mo> <msubsup> <mi>O</mi> <mi>i</mi> <mrow> <mo>(</mo> <mi>t</mi> <mo>)</mo> </mrow> </msubsup> </mrow> </munder> <msub> <mi>&amp;omega;</mi> <mi>k</mi> </msub> <mo>{</mo> <msubsup> <mi>&amp;sigma;</mi> <mi>k</mi> <mrow> <mo>(</mo> <mi>t</mi> <mo>-</mo> <mn>1</mn> <mo>)</mo> </mrow> </msubsup> <mo>+</mo> <msup> <mrow> <mo>&amp;lsqb;</mo> <msubsup> <mi>&amp;mu;</mi> <mi>k</mi> <mrow> <mo>(</mo> <mi>t</mi> <mo>-</mo> <mn>1</mn> <mo>)</mo> </mrow> </msubsup> <mo>&amp;rsqb;</mo> </mrow> <mn>2</mn> </msup> <mo>-</mo> <msup> <mrow> <mo>&amp;lsqb;</mo> <msubsup> <mover> <mi>&amp;mu;</mi> <mo>~</mo> </mover> <mi>i</mi> <mrow> <mo>(</mo> <mi>t</mi> <mo>-</mo> <mn>1</mn> <mo>)</mo> </mrow> </msubsup> <mo>&amp;rsqb;</mo> </mrow> <mn>2</mn> </msup> <mo>}</mo> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>19</mn> <mo>)</mo> </mrow> </mrow>
<mrow> <msubsup> <mover> <mi>&amp;alpha;</mi> <mo>~</mo> </mover> <mi>i</mi> <mrow> <mo>(</mo> <mi>t</mi> <mo>-</mo> <mn>1</mn> <mo>)</mo> </mrow> </msubsup> <mo>=</mo> <munder> <mo>&amp;Sigma;</mo> <mrow> <mi>k</mi> <mo>&amp;Element;</mo> <msubsup> <mi>O</mi> <mi>i</mi> <mrow> <mo>(</mo> <mi>t</mi> <mo>)</mo> </mrow> </msubsup> </mrow> </munder> <msub> <mi>&amp;omega;</mi> <mi>k</mi> </msub> <msubsup> <mi>&amp;alpha;</mi> <mi>k</mi> <mrow> <mo>(</mo> <mi>t</mi> <mo>-</mo> <mn>1</mn> <mo>)</mo> </mrow> </msubsup> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>20</mn> <mo>)</mo> </mrow> </mrow>
<mrow> <msub> <mi>&amp;omega;</mi> <mi>k</mi> </msub> <mo>=</mo> <mfrac> <mrow> <msub> <mi>X</mi> <mi>i</mi> </msub> <mo>&amp;cap;</mo> <msubsup> <mi>G</mi> <mi>K</mi> <mrow> <mo>(</mo> <mi>t</mi> <mo>)</mo> </mrow> </msubsup> </mrow> <msubsup> <mi>G</mi> <mi>K</mi> <mrow> <mo>(</mo> <mi>t</mi> <mo>)</mo> </mrow> </msubsup> </mfrac> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>21</mn> <mo>)</mo> </mrow> </mrow>
<mrow> <munder> <mo>&amp;Sigma;</mo> <mi>k</mi> </munder> <msub> <mi>&amp;omega;</mi> <mi>k</mi> </msub> <mo>=</mo> <mn>1</mn> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>22</mn> <mo>)</mo> </mrow> </mrow>
在公式(19)中,有这是为了将多个高斯模型混合成为一个的时候,新的方差应该是不仅包括原有的块内像素方差,还包括这些块进行混合,各个块之间的方差;在经过运动补偿之后,如果方差的大小超过阈值θv,也就是则将对模型的生存期进行如下修改:
<mrow> <msubsup> <mover> <mi>&amp;alpha;</mi> <mo>~</mo> </mover> <mi>i</mi> <mrow> <mo>(</mo> <mi>t</mi> <mo>-</mo> <mn>1</mn> <mo>)</mo> </mrow> </msubsup> <mo>&amp;LeftArrow;</mo> <msubsup> <mover> <mi>&amp;alpha;</mi> <mo>~</mo> </mover> <mi>i</mi> <mrow> <mo>(</mo> <mi>t</mi> <mo>-</mo> <mn>1</mn> <mo>)</mo> </mrow> </msubsup> <mi>exp</mi> <mo>{</mo> <mo>-</mo> <mi>&amp;lambda;</mi> <mrow> <mo>(</mo> <msubsup> <mover> <mi>&amp;sigma;</mi> <mo>~</mo> </mover> <mi>i</mi> <mrow> <mo>(</mo> <mi>t</mi> <mo>-</mo> <mn>1</mn> <mo>)</mo> </mrow> </msubsup> <mo>-</mo> <msub> <mi>&amp;theta;</mi> <mi>v</mi> </msub> <mo>)</mo> </mrow> <mo>}</mo> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>23</mn> <mo>)</mo> </mrow> </mrow>
其中,λ是衰减系数;通过这种衰减方式避免模型中存在过大的方差,减少由于一些边缘导致的错检;
最后进行运动目标的检测;对于每个属于块i的像素j,设置阈值θd,若其灰度值满足公式:
<mrow> <msup> <mrow> <mo>(</mo> <msubsup> <mi>I</mi> <mi>j</mi> <mrow> <mo>(</mo> <mi>t</mi> <mo>)</mo> </mrow> </msubsup> <mo>-</mo> <msubsup> <mi>&amp;mu;</mi> <mrow> <mi>A</mi> <mo>,</mo> <mi>i</mi> </mrow> <mrow> <mo>(</mo> <mi>t</mi> <mo>)</mo> </mrow> </msubsup> <mo>)</mo> </mrow> <mn>2</mn> </msup> <mo>&gt;</mo> <msub> <mi>&amp;theta;</mi> <mi>d</mi> </msub> <msubsup> <mi>&amp;sigma;</mi> <mrow> <mi>A</mi> <mo>,</mo> <mi>i</mi> </mrow> <mrow> <mo>(</mo> <mi>t</mi> <mo>)</mo> </mrow> </msubsup> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>24</mn> <mo>)</mo> </mrow> </mrow>
则将其划分为前景像素;
步骤三、在进行完图像中运动目标的分割之后,采用二值形态学处理方法和SVM分类器相结合的方法;使用腐蚀算法将不满足运动目标检测要求大小的目标去除然后膨胀到合适的大小:
将双模高斯背景建模的目标检测运动分割出的目标框提取HOG特征,并对目标的特征采取多个分类器级联的方式进行分类。
CN201710535601.6A 2017-07-04 2017-07-04 无人机对地面运动车辆自动检测与分类方法 Pending CN107316030A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710535601.6A CN107316030A (zh) 2017-07-04 2017-07-04 无人机对地面运动车辆自动检测与分类方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710535601.6A CN107316030A (zh) 2017-07-04 2017-07-04 无人机对地面运动车辆自动检测与分类方法

Publications (1)

Publication Number Publication Date
CN107316030A true CN107316030A (zh) 2017-11-03

Family

ID=60181403

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710535601.6A Pending CN107316030A (zh) 2017-07-04 2017-07-04 无人机对地面运动车辆自动检测与分类方法

Country Status (1)

Country Link
CN (1) CN107316030A (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109445453A (zh) * 2018-09-12 2019-03-08 湖南农业大学 一种基于OpenCV的无人机实时压缩跟踪方法
CN109635649A (zh) * 2018-11-05 2019-04-16 航天时代飞鸿技术有限公司 一种无人机侦察目标的高速检测方法及系统
CN110110608A (zh) * 2019-04-12 2019-08-09 国网浙江省电力有限公司嘉兴供电公司 一种全景监控下基于视觉的叉车速度监测方法和系统
CN110348533A (zh) * 2019-07-17 2019-10-18 中国海洋大学 一种基于svm的浮游生物粒径谱检测方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080025568A1 (en) * 2006-07-20 2008-01-31 Feng Han System and method for detecting still objects in images
US20140133698A1 (en) * 2012-11-09 2014-05-15 Analog Devices Technology Object detection
CN104217442A (zh) * 2014-08-28 2014-12-17 西北工业大学 基于多模型估计的航拍视频运动目标检测方法
CN104615986A (zh) * 2015-01-30 2015-05-13 中国科学院深圳先进技术研究院 利用多检测器对场景变化的视频图像进行行人检测的方法
CN104978567A (zh) * 2015-06-11 2015-10-14 武汉大千信息技术有限公司 基于场景分类的车辆检测方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080025568A1 (en) * 2006-07-20 2008-01-31 Feng Han System and method for detecting still objects in images
US20140133698A1 (en) * 2012-11-09 2014-05-15 Analog Devices Technology Object detection
CN104217442A (zh) * 2014-08-28 2014-12-17 西北工业大学 基于多模型估计的航拍视频运动目标检测方法
CN104615986A (zh) * 2015-01-30 2015-05-13 中国科学院深圳先进技术研究院 利用多检测器对场景变化的视频图像进行行人检测的方法
CN104978567A (zh) * 2015-06-11 2015-10-14 武汉大千信息技术有限公司 基于场景分类的车辆检测方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
KWANG MOO YI ET AL.: "Detection of Moving Objects with Non-Stationary Cameras in 5.8ms: Bringing Motion Detection to your Mobile Device", 《2013 IEEE CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION WORKSHOPS》 *
许峰: "面向智能车辆的行人目标检测研究", 《中国优秀硕士学位论文全文数据库 工程科技Ⅱ辑》 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109445453A (zh) * 2018-09-12 2019-03-08 湖南农业大学 一种基于OpenCV的无人机实时压缩跟踪方法
CN109635649A (zh) * 2018-11-05 2019-04-16 航天时代飞鸿技术有限公司 一种无人机侦察目标的高速检测方法及系统
CN109635649B (zh) * 2018-11-05 2022-04-22 航天时代飞鸿技术有限公司 一种无人机侦察目标的高速检测方法及系统
CN110110608A (zh) * 2019-04-12 2019-08-09 国网浙江省电力有限公司嘉兴供电公司 一种全景监控下基于视觉的叉车速度监测方法和系统
CN110110608B (zh) * 2019-04-12 2023-02-07 国网浙江省电力有限公司嘉兴供电公司 一种全景监控下基于视觉的叉车速度监测方法和系统
CN110348533A (zh) * 2019-07-17 2019-10-18 中国海洋大学 一种基于svm的浮游生物粒径谱检测方法

Similar Documents

Publication Publication Date Title
CN109242884B (zh) 基于JCFNet网络的遥感视频目标跟踪方法
Zhou et al. Efficient road detection and tracking for unmanned aerial vehicle
Mi et al. Research on regional clustering and two-stage SVM method for container truck recognition
WO2020020472A1 (en) A computer-implemented method and system for detecting small objects on an image using convolutional neural networks
Roig et al. Conditional random fields for multi-camera object detection
CN113223059A (zh) 基于超分辨率特征增强的弱小空域目标检测方法
CN101470809B (zh) 一种基于扩展混合高斯模型的运动目标检测方法
CN107316030A (zh) 无人机对地面运动车辆自动检测与分类方法
WO2012139228A1 (en) Video-based detection of multiple object types under varying poses
Lu et al. A cnn-transformer hybrid model based on cswin transformer for uav image object detection
CN105913459B (zh) 基于高分辨率连拍图像的运动目标检测方法
CN112818905B (zh) 一种基于注意力和时空信息的有限像素车辆目标检测方法
CN111274964B (zh) 一种基于无人机视觉显著性分析水面污染物的检测方法
CN113205026A (zh) 一种基于Faster RCNN深度学习网络改进的车型识别方法
CN113763427B (zh) 一种基于从粗到精遮挡处理的多目标跟踪方法
CN111915583A (zh) 复杂场景中基于车载红外热像仪的车辆和行人检测方法
Tang et al. Multiple-kernel based vehicle tracking using 3D deformable model and camera self-calibration
CN102087790A (zh) 一种低空对地车辆检测与运动分析的方法和系统
Luo et al. Stationary vehicle detection in aerial surveillance with a UAV
CN114862764A (zh) 瑕疵检测模型训练方法、装置、设备和存储介质
CN110517285B (zh) 基于运动估计me-cnn网络的大场景极小目标跟踪
Rin et al. Front moving vehicle detection and tracking with Kalman filter
CN103927517B (zh) 一种基于人体全局特征直方图熵的动作检测方法
Saif et al. Moving object segmentation using various features from aerial images: a review
Nie et al. LFC-SSD: Multiscale aircraft detection based on local feature correlation

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20171103

WD01 Invention patent application deemed withdrawn after publication