CN105469421A - 一种基于周视系统实现地面运动目标监测的方法 - Google Patents
一种基于周视系统实现地面运动目标监测的方法 Download PDFInfo
- Publication number
- CN105469421A CN105469421A CN201410450245.4A CN201410450245A CN105469421A CN 105469421 A CN105469421 A CN 105469421A CN 201410450245 A CN201410450245 A CN 201410450245A CN 105469421 A CN105469421 A CN 105469421A
- Authority
- CN
- China
- Prior art keywords
- image
- formula
- moving object
- point
- target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Image Analysis (AREA)
Abstract
本发明提出一种基于周视系统实现地面运动目标监测的方法。首先从多视角理论出发推导出周视系统中探测器旋转时相邻图像之间的像素对应关系;其次利用相邻图像之间的像素对应关系,根据多帧目标检测的方法建立目标检测模型,区分出实际场景中的运动区域与静止区域,从而减少图像匹配误差和匹配累积误差对目标检测的影响;最终采用在极坐标系下的航迹关联实现多目标跟踪。本发明降低了计算量和检测虚警率。
Description
技术领域
本发明方法属于数字图像处理与模式识别领域,具体涉及一种基于周视系统实现地面运动目标监测的方法。
背景技术
地面运动目标监测系统已经成为智能监控与区域防御的重要组成部分。地面运动目标监测系统能够实现对可视视场内运动目标的自动捕获,进而完成对目标的跟踪与识别。在传统的地面运动目标监测系统中,大多数是采用背景更新和目标分割等处理方法将运动目标从静止的场景中提取出来,并且均可成熟的应用与实际的系统中,提高系统对静止场景内运动目标检测的概率和完整程度。但在传统的运动目标检测方法中,探测器处于静止状态工作,系统仅能对探测器可视范围的区域实现运动目标检测。因此该类系统只能用于小范围的安防监控,在监控区域方面具有一定的局限性。
目前,可以用周视系统实现全方位的监视,但利用周视系统实现地面运动目标监测主要有以下三个难点:由于探测器的运动导致在绝对坐标系中背景和运动的目标在成像平面上的投影都在运动,使得区分图像中的背景与运动目标变得尤为困难,常常会出现大量虚警;由于探测器的运动导致相机坐标系的变化,因此相邻的图像之间的像素对应关系比较难以获得;在对探测器的运动补偿中,常常出现不可避免的误差和积累误差,该类误差对系统的虚警率和探测率有严重的影响。解决这三个难点主要有以下文献中的方法:
文献一(YuanC,MedioniG,KangJ,etal.Detectingmotionregionsinthepresenceofastrongparallaxfromamovingcamerabymultiviewgeometricconstraints[J].PatternAnalysisandMachineIntelligence,IEEETransactionson,2007,29(9):1627-1641.)提出了一种利用多视角几何的理论,推导出相邻图像之间的几何约束关系,获得了相邻的图像之间的像素对应关系。但是文中提出的几何约束关系具有一定局限性,无法满足所有的应用场景。
文献二(LourakisMIA,ArgyrosAA,OrphanoudakisSC.Independent3Dmotiondetectionusingresidualparallaxnormalflowfields[C]ComputerVision,1998.SixthInternationalConferenceon.IEEE,1998:1012-1017.)提出采用光流法计算场景中背景与运动目标的运动信息,利用探测器运动约束与图像特征点运动信息实现运动目标的检测,有效的降低了因为匹配误差对系统性能的影响。但是文中采用稀疏光流作为检测样本,因此系统的检测率和探测率都难以提高。
文献三(M.Heikkila,M.Pietikainen.Atexture-basedmethodformodelingthebackgroundanddetectingmovingobjects[J],IEEETransactionsonPatternAnalysisandMachineIntelligence28(4)(2006)657–662.)提出了一种用背景建模的方法实现运动目标检测,该方法移植到转动红外探测器系统中时,通过背景模型可以有效的提高系统的对运动目标的探测率。但是由于视差的存在,其检测结果中干扰目标较多,虚警率较高。
发明内容
本发明的目的在于提出一种基于周视系统实现地面运动目标监测的方法,降低了计算量和检测虚警率。
为了解决上述技术问题,本发明提供一种基于周视系统实现地面运动目标监测的方法,首先从多视角理论出发推导出周视系统中探测器旋转时相邻图像之间的像素对应关系;其次利用相邻图像之间的像素对应关系,根据多帧目标检测的方法建立目标检测模型,区分出实际场景中的运动区域与静止区域,从而减少图像匹配误差和匹配累积误差对目标检测的影响;最终采用在极坐标系下的航迹关联实现多目标跟踪。具体包括以下步骤:
步骤一:采集周视系统中连续图像,用特征点检测的方法分别获得相邻图像中的特征点信息。
步骤二:采用特征点匹配的方法实现相邻的图像中的特征点之间的匹配,获取相邻的图像中的特征点之间的匹配关系。
步骤三:根据相邻的图像之间的对应关系公式和相邻图像中特征点之间的匹配关系,利用最小二乘算法和RANSAC算法,求解相邻图像之间的像素变换关系。
步骤四:利用运动目标检测模型和相邻图像之间的像素变换关系实现基于周视系统中运动目标的分割。
步骤五:利用相邻图像中特征点之间的匹配关系,根据探测器的旋转模型估计探测器的旋转参数,采用在极坐标系下的卡尔曼滤波器实现运动目标的航迹关联。
本发明与现有技术相比,其显著优点在于,本发明方法通过多视角理论推导出相机旋转时相邻的图像之间的像素对应关系的公式;根据相邻的图像之间的像素对应关系的公式,利用目标检测模型实现基于周视系统的运动目标的分割,其中提出的目标检测模型可以有效解决匹配误差和积累误差对目标检测的影响;提出在极坐标系下的航迹关联实现多目标跟踪,降低了计算量和检测虚警率。该系统可以广泛的应用于安防、监视等公共安全方面。
附图说明
图1是本发明基于周视系统实现地面运动目标监测方法的流程图
图2是本发明基于周视系统实现地面运动目标监测方法中探测器转动示意图。
图3是本发明基于周视系统实现地面运动目标监测方法的探测率曲线。
图4是本发明基于周视系统实现地面运动目标监测方法的准确率曲线。
图5是本发明基于周视系统实现地面运动目标监测方法的检测结果的图像序列1。
图6是本发明基于周视系统实现地面运动目标监测方法的检测结果的图像序列2。
具体实施方式
如图1所示,本发明基于周视系统实现地面运动目标监测的方法,包括以下步骤:
步骤一:采集周视系统中连续图像,用特征点检测的方法分别获得相邻图像中的特征点信息。
本发明中提到的特征点可以是Harris角点、Moravec角点和Shi-Tomasi角点等,在本实施例中采用Harris角点作为图像中的特征点,周视系统采集到的连续图像,通过特征点检测方法可以得到在时间点t时刻的图像中角点的位置其中表示第i个Harris角点在t时刻的图像中的横坐标和纵坐标的位置,x表示横坐标,y表示纵坐标,n表示特征点的个数。
步骤二:采用特征点匹配的方法实现相邻的图像中的特征点之间的匹配,获取相邻的图像中的特征点之间的匹配关系。
本发明中提到的特征点匹配的方法可以是光流法、多层光流法和KLT等,在本实施例中采用KLT特征点匹配方法作为特征点匹配的方法。利用KLT特征点匹配方法计算相邻的图像之间Harris角点对应的关系。特征点匹配关系的集合可以表示为<ct,ct+1>,其中, ct+1是在时间点t+1时刻的图像中角点的位置,表示第i个Harris角点在t+1时刻的图像中的横坐标和纵坐标的位置,x表示横坐标,y表示纵坐标,n表示特征点的个数。在对应关系的集合<ct,ct-1>中ct和ct+1中特征点一一相互匹配对应。
步骤三:根据相邻的图像之间的像素对应关系公式和相邻图像中特征点之间的匹配关系,利用最小二乘算法和RANSAC算法,求解相邻图像之间的像素变换关系。
一、相邻的图像之间的像素对应关系公式的推导过程为:
探测器的旋转的过程如图2所示,探测器的坐标系围绕着相机的光心旋转。图2中,(Xt、Yt、Zt)和(Xt+1、Yt+1、Zt+1)分别表示相机在t时刻和t+1时刻的探测器的坐标系,O表示探测器的光心,X表示探测器坐标系的横轴,Y表示探测器坐标系的纵轴,Z表示坐标系的深度轴;Pt和Pt+1分别表示三维空间中静止的点在时刻t和t+1在探测器坐标系中的坐标,It和It+1表示旋转探测器在t时刻和t+1时刻采集到的相邻的两帧图像,pt和pt+1分别表示Pt和Pt+1在图像It和It+1对应的坐标。因此,根据相机投影模型可以得到公式(1),
式(1)中,K为相机的内参,zt和zt+1分别表示Pt和Pt+1在t时刻和t+1时刻的探测器坐标系中的深度坐标。
根据刚性坐标系转换关系可以得到Pt和Pt+1之间的关系,如公式(2)所示,
Pt=Rt,t+1Pt+1+T(2)
式(2)中,Rt,t+1是3×3的旋转矩阵,T是3×1的平移矩阵。对于旋转探测器,其平移矩阵T=0,所以公式(2)可以写成如公式(3)所示,
Pt=Rt,t+1Pt+1(3)
同时,基于式(1)变换得到式(4),
将式(4)带入到式(3)可以得到式(5),
设探测器坐标系在t时刻和t+1时刻的深度轴Zt和Zt+1之间的夹角为γ,可以得到式(6),
在探测器旋转时对于图像It和It+1中所有的像素点是一个常数。则式(5)可以重写为如式(7)所示,
pt=ψt,t+1KRt,t+1K-1pt+1(7)
式(7)中,因此可以得到旋转探测器相邻图像的像素之间的对应关系公式,如式(8)所示,
pt=Ht,t+1pt+1(8)
式(8)中,Ht,t+1=ψt,t+1KRt,t+1K-1为3×3像素对应变换矩阵。
二、利用相邻图像的像素之间的对应关系公式求解相邻图像之间的像素变换关系的步骤为:
1、将特征点匹配关系集合<ct,ct-1>中的特征点的坐标变换为齐次坐标,则特征点匹配关系集合进一步表示为<c′t,c′t+1>,其中
2、将特征点匹配关系集合<c′t,c′t+1>带入式(8)中,获得公式(9),
c′t=Ht,t+1c′t+1(9)
3、采用RANSAC的方法估计式(9)中的像素对应变换矩阵Ht,t+1,即像素变换关系。
步骤四:利用运动目标检测模型和相邻图像之间的像素变换关系实现基于周视系统中运动目标的分割。
一、基于周视系统的运动目标检测模型(T-MHI)的推导:
本发明根据静止探测器下的运动目标检测模型MHI提出了一种基于周视系统的运动目标检测模型(T-MHI)。T-MHI是关于相机运动和像素运动的函数。相邻的两帧图像可以用式(10)和(11)表示:
It(x,y)=bt(x,y)+mt(x,y)+nt(x,y)(10)
It+1(x,y)=bt+1(x,y)+mt+1(x,y)+nt+1(x,y)(11)
式(10)和(11)中,bt(x,y)表示在图像坐标为(x,y)的背景灰度值,mt(x,y)表示在图像坐标为(x,y)的运动区域的灰度值;nt(x,y)表示在图像坐标为(x,y)的噪声灰度值。
考虑相邻图像之间提取运动目标的如公式(12)所示的在时刻t和t+1的相邻图像在位置(x,y)的图像残差Dt,t+1(x,y)计算方法,
Dt,t+1(x,y)=It(x,y)-Ht,t+1It+1(x,y)(12)
根据式(10)和式(11)可以得到式(13),
Dt,t+1(x,y)=Δb(x,y)+Δm(x,y)+Δn(x,y)+εt(x,y)(13)
式(13)中,Δb(x,y)表示在图像坐标为(x,y)的背景残差;Δm(x,y)表示在图像坐标为(x,y)的运动目标的残差;Δn(x,y)表示在图像坐标为(x,y)的噪声的残差;εt(x,y)表示在图像坐标为(x,y)的图像变换的残差。
根据MHI和以上的描述可以得到本发明中基于周视系统旋转相机运动目标检测模型T-MHI,如公式(14)所示,
式(14)中,Dt,t+1(x,y)=|It-Ht,t+1It+1|;MF(x,y,t)表示在图像坐标为(x,y),t时刻的前向T-MHI的值,MB(x,y,t)表示在图像坐标为(x,y),t时刻的后向T-MHI的值;d为衰减因子,取值为d∈[0,255];Th表示图像残差分割阈值。
因此最后得到的T-MHI的残差图如公式(15)所示,
M(x,y,t)=min(MF(x,y,t),MB(x,y,t))(15)
式(15)中,M(x,y,t)表示在图像坐标为(x,y)、t时刻的T-MHI的残差的值。
利用周视系统的运动目标检测模型(T-MHI)和相邻图像之间的像素变换关系实现运动目标分割的步骤为:
1、计算式(14)中Dt,t+1(x,y)的值,并且通过图像残差分割阈值Th进行分割;
2、用Ht,t+Δ表示It和It+Δ的像素对应关系,其中It和It+Δ分别表示在时间t和时间t+Δ的图像,计算Ht,t+Δ方法如公式(16)所示,
Ht,t+Δ=Ht,t+1Ht,t+2Ht,t+3…Ht,t+Δ(16)
3、迭代运算前向T-MHI的值MF(x,y,t)和后向T-MHI的值MB(x,y,t);
4、通过式(15)计算T-MHI的残差;
5、对T-MHI的残差进行阈值分割得到二值化图像,对二值化图像进行形态学形态学滤波得到地面运动目标的位置和运动目标的大小。
步骤五:利用相邻图像中特征点之间的匹配关系,根据探测器的旋转模型估计探测器的旋转参数,采用在极坐标系下的卡尔曼滤波器实现运动目标的航迹关联。
一、极坐标系下的卡尔曼滤波器的设计:
极坐标下转动角θ的卡尔曼滤波方程和预测方程如公式(17)和(18)所示,
Θ(k|k-1)=ΦΘ(k-1|k-1)(17)
Θ(k|k)=Θ(k|k-1)+K(ZΘ(k)-Θ(k|k-1))(18)
在式(17)和式(18)中, 表示角度和角速度的一步预测,其中θ(k|k-1)表示角度的一步预测,表示角速度的一步预测,类似的 和 表示角度和角速度的滤波,其中θ(k|k)和θ(k-1|k-1)表示角度的滤波,和表示角速度的滤波和; 表示转移矩阵,Tr表示时间间隔, 表示角与角速度的增益。ZΘ表示观测值。
根据增益矩阵公式和滤波方差公式的关系可以得到公式(19)
式(19)中,P(k+1|k+1)表示滤波方差矩阵、σR表示均方差,K(k+1)为滤波增益。
由于目标在θ方向上为二维模型,通过式(1,9)可以得到最优滤波增益,如式(20)所示,
式(20)中,Λ=T2σwθ/σθ,其中σθ为均方差,机动方差σwθ≈(Zθ(k)-θ(k|k-1))2。
利用相邻图像中特征点之间的匹配关系,根据探测器的旋转模型估计探测器的旋转参数,采用在极坐标系下的卡尔曼滤波器实现运动目标的航迹关联的步骤:
1、利用图像中在图像位置(x,y)的图像像素p(x,y)的移动矢量(u,v)估计探测旋转参数。
图像中在图像位置(x,y)的图像像素p(x,y)的移动矢量(u,v)与探测旋转参数的关系如公式(21)所示,
对于旋转探测器,式(21)可以重新写为如公式(22)所示,
式(22)中,探测器的位移参数是(U,V,W),其中U为横向平移参数,V为纵向平移参数,W为深度平移参数,旋转参数是(α,β,γ),其中α为横向旋转参数,β为纵向旋转参数,γ为深度旋转参数,图像中位置为(x,y)的像素点p(x,y)对应的三维空间中的静止的点为P,在连续图像中p(x,y)的移动矢量是(u,v),其中u为横向矢量,v为纵向矢量;
2、利用特征点对应关系集合<ct,ct-1>计算得到特征点的移动矢量,计算方式如公式(23)所示,
3、利用式(22)采用最小二乘法求解探测器的旋转参数;
4、对目标分割后提供的目标位置和目标大小,利用式(17)和式(18)的滤波和预测方程,采用航迹关联的算法实现运动目标在时间域上的关联。
本发明方法的效果可以通过以下实验结果进一步说明:
本发明方法通过实际周视系统上的图像序列可以说明该方法可以实现在探测器转动条件下的远距离运动目标检测,探测率高、检测位置精确。
本发明采用手动标记的方法,对任意视频中任意时刻的连续的10帧图片进行标记。其标记过程是:选取视频中的10帧图像,采用多边形手动的描绘运动目标的轮廓,该运动目标的区域用表示,实际通过算法计算得到的运动目标的区域表示为定义系统的探测率和虚警率表示为:
式(24)和式(25)中,N(Φ)表示集合Φ中像素的个数,针对这两个指标,对于不同算法检测出的不同结果,其计算数值越高表示方法的性能越好。
如图3和图4中,本发明方法、高斯背景更新法和帧差法作比较。从图3中,可以看出在同样的分割阈值的情况下,三种方法的探测率较为接近,在89%左右。但是由于高斯背景更新和帧差法在相邻帧像素对应关系和匹配误差的方面处理存在缺陷,因此从图4中可以看出本发明方法可以有效提高系统对运动目标检测的准确率(在90%左右),而其他两种方法的准确率相对就比较低(在70%以下)。
图5和图6是使用本发明方法对马路实景进行处理的四幅结果图像。实验条件是:探测器采用的是黑白CCD;图像分辨率为640×720;转动系统架设高度是30米;系统处理的帧频是50HZ。图5为选取了处理结果中的第212帧、214帧、216帧、218帧四幅结果图像;图6为选取了处理结果中的第413帧、416帧、417帧、419帧四幅处理结果图像。从图5和图6可以有效检测路面上运动目标,并且能够稳定的实现多目标跟踪。
Claims (9)
1.一种基于周视系统实现地面运动目标监测的方法,其特征在于,首先从多视角出发推导出周视系统中探测器旋转时相邻图像之间的像素对应关系;其次利用相邻图像之间的像素对应关系,根据多帧目标检测的方法建立目标检测模型,区分出实际场景中的运动区域与静止区域;最终采用在极坐标系下的航迹关联实现多目标跟踪。
2.如权利要求1所述的基于周视系统实现地面运动目标监测的方法,其特征在于,包括以下步骤:
步骤一:采集周视系统中连续图像,用特征点检测的方法分别获得相邻图像中的特征点信息;
步骤二:采用特征点匹配的方法实现相邻的图像中的特征点之间的匹配,获取相邻的图像中的特征点之间的匹配关系;
步骤三:根据相邻的图像之间的对应关系公式和相邻图像中特征点之间的匹配关系,利用最小二乘算法和RANSAC算法,求解相邻图像之间的像素变换关系;
步骤四:利用运动目标检测模型和相邻图像之间的像素变换关系实现基于周视系统中运动目标的分割;
步骤五:利用相邻图像中特征点之间的匹配关系,根据探测器的旋转模型估计探测器的旋转参数,采用在极坐标系下的卡尔曼滤波器实现运动目标的航迹关联。
3.如权利要求2所述的基于周视系统实现地面运动目标监测的方法,其特征在于,步骤一中,采用Harris角点作为图像中的特征点,检测到的在时间点t时刻的图像中角点的位置其中表示第i个Harris角点在t时刻的图像中的横坐标和纵坐标的位置,x表示横坐标,y表示纵坐标,n表示特征点的个数。
4.如权利要求2所述的基于周视系统实现地面运动目标监测的方法,其特征在于,步骤二中,使用KLT特征点匹配方法计算相邻的图像之间Harris角点对应的关系,特征点匹配关系的集合表示为〈ct,ct+1〉,其中,
ct+1是在时间点t+1时刻的图像中角点的位置,表示第i个Harris角点在t+1时刻的图像中的横坐标和纵坐标的位置,x表示横坐标,y表示纵坐标,n表示特征点的个数。
5.如权利要求2所述的基于周视系统实现地面运动目标监测的方法,其特征在于,步骤三中,相邻图像之间的像素对应关系公式如式(1)所示,
pt=Ht,t+1pt+1(1)
式(1)中,Ht,t+1=ψt,t+1KRt,t+1K-1为3×3像素对应变换矩阵;pt和pt+1分别表示Pt和Pt+1在相邻两幅图像中对应的坐标,Pt和Pt+1分别表示三维空间中静止的点在时刻t和t+1在探测器坐标系中的坐标;K为相机的内参;参数zt和zt+1分别表示Pt和Pt+1在t时刻和t+1时刻的探测器坐标系中的深度坐标;Rt,t+1是3×3的旋转矩阵。
6.如权利要求5所述的基于周视系统实现地面运动目标监测的方法,其特征在于,利用如式(1)所示的相邻图像的像素之间的对应关系公式求解相邻图像之间的像素变换关系的步骤为:
6.1将特征点匹配关系集合〈ct,ct-1〉中的特征点的坐标变换为齐次坐标,得到变换后的特征点匹配关系集合〈ct′,ct+1′〉,其中,
6.2将特征点匹配关系集合〈c′t,c′t+1〉带入式(1)中,获得公式(2),
c′t=Ht,t+1′ct+1(2)
6.3采用RANSAC的方法估计式(2)中的像素对应变换矩阵Ht,t+1。
7.如权利要求2所述的基于周视系统实现地面运动目标监测的方法,其特征在于,步骤四中,运动目标检测模型,如公式(3)所示,
式(3)中,Dt,t+1(x,y)为在时刻t和t+1的相邻图像在位置(x,y)的图像残差,且Dt,t+1(x,y)=|It-Ht,t+1It+1|;MF(x,y,t)表示在图像坐标为(x,y)、t时刻的前向运动目标检测模型的值;MB(x,y,t)表示在图像坐标为(x,y)、t时刻的后向运动目标检测模型的值;d为衰减因子,取值为d∈[0,255];Th表示图像残差分割阈值。
8.如权利要求7所述的基于周视系统实现地面运动目标监测的方法,其特征在于,使用运动目标检测模型和相邻图像之间的像素变换关系实现运动目标分割的步骤为:
8.1计算式(3)中Dt,t+1(x,y)的值,并且通过图像残差分割阈值Th进行分割;
8.2用Ht,t+△表示图像It和It+△的像素对应关系,其中It和It+△分别表示在时间t和时间t+△的图像,计算Ht,t+△方法如公式(4)所示,
Ht,t+△=Ht,t+1Ht,t+2Ht,t+3…Ht,t+△(4)
8.3迭代运算前向运动目标检测模型的值MF(x,y,t)和后向运动目标检测模型的值MB(x,y,t);
8.4如式(5)所示计算运动目标检测模型残差值M(x,y,t),
M(x,y,t)=min(MF(x,y,t),MB(x,y,t))(5)
8.5对运动目标检测模型残差值M(x,y,t)进行阈值分割得到二值化图像,对二值化图像进行形态学形态学滤波得到地面运动目标的位置和运动目标的大小。
9.如权利要求2所述的基于周视系统实现地面运动目标监测的方法,其特征在于,步骤五的过程为:
9.1利用图像中在图像位置(x,y)的图像像素p(x,y)的移动矢量(u,v)估计探测旋转参数,移动矢量(u,v)与探测旋转参数的关系如公式(6)所示,
式(6)中,探测器的位移参数是(U,V,W),其中U为横向平移参数,V为纵向平移参数,W为深度平移参数,旋转参数是(α,β,γ),其中α为横向旋转参数,β为纵向旋转参数,γ为深度旋转参数,图像中位置为(x,y)的像素点p(x,y)对应的三维空间中的静止的点为P,在连续图像中p(x,y)的移动矢量是(u,v),其中u为横向矢量,v为纵向矢量;
9.2利用特征点对应关系集合〈ct,ct-1〉计算得到特征点的移动矢量,计算方式如公式(7)所示,
9.3、利用式(6),采用最小二乘法求解探测器的旋转参数;
9.4、对目标分割后提供的目标位置和目标大小,利用式(8)和式(9)所示的极坐标下转动角θ的卡尔曼滤波方程和预测方程,采用航迹关联的算法实现运动目标在时间域上的关联,
Θ(k|k-1)=ΦΘ(k-1|k-1)(8)
Θ(k|k)=Θ(k|k-1)+K(ZΘ(k)-Θ(k|k-1))(9)
式(17)和式(18)中,表示角度和角速度的一步预测,其中θ(k|k-1)表示角度的一步预测,表示角速度的一步预测,和表示角度和角速度的滤波,其中,θ(k|k)和θ(k-1|k-1)表示角度的滤波,和表示角速度的滤波和;表示转移矩阵,Tr表示时间间隔,表示角与角速度的增益;ZΘ表示观测值。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410450245.4A CN105469421A (zh) | 2014-09-04 | 2014-09-04 | 一种基于周视系统实现地面运动目标监测的方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410450245.4A CN105469421A (zh) | 2014-09-04 | 2014-09-04 | 一种基于周视系统实现地面运动目标监测的方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN105469421A true CN105469421A (zh) | 2016-04-06 |
Family
ID=55607080
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201410450245.4A Pending CN105469421A (zh) | 2014-09-04 | 2014-09-04 | 一种基于周视系统实现地面运动目标监测的方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN105469421A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106303412A (zh) * | 2016-08-09 | 2017-01-04 | 鞍钢集团矿业有限公司 | 基于监控影像的排土场位移远程实时监测装置与方法 |
CN107341803A (zh) * | 2017-07-25 | 2017-11-10 | 电子科技大学 | 一种基于角点检测的数字图像物体微小移动监测算法 |
CN113556489A (zh) * | 2020-04-24 | 2021-10-26 | 晶相光电股份有限公司 | 影像感测系统以及缺陷感光元件侦测以及修正方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103325112A (zh) * | 2013-06-07 | 2013-09-25 | 中国民航大学 | 动态场景中运动目标快速检测方法 |
CN103729857A (zh) * | 2013-12-09 | 2014-04-16 | 南京理工大学 | 一种基于二次补偿的移动相机下运动目标检测方法 |
-
2014
- 2014-09-04 CN CN201410450245.4A patent/CN105469421A/zh active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103325112A (zh) * | 2013-06-07 | 2013-09-25 | 中国民航大学 | 动态场景中运动目标快速检测方法 |
CN103729857A (zh) * | 2013-12-09 | 2014-04-16 | 南京理工大学 | 一种基于二次补偿的移动相机下运动目标检测方法 |
Non-Patent Citations (1)
Title |
---|
马玲: "边扫描边跟踪雷达航迹跟踪算法的研究", 《中国优秀博硕士学位论文全文数据库 (硕士) 信息科技辑》 * |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106303412A (zh) * | 2016-08-09 | 2017-01-04 | 鞍钢集团矿业有限公司 | 基于监控影像的排土场位移远程实时监测装置与方法 |
CN106303412B (zh) * | 2016-08-09 | 2019-03-29 | 鞍钢集团矿业有限公司 | 基于监控影像的排土场位移远程实时监测方法 |
CN107341803A (zh) * | 2017-07-25 | 2017-11-10 | 电子科技大学 | 一种基于角点检测的数字图像物体微小移动监测算法 |
CN107341803B (zh) * | 2017-07-25 | 2020-11-10 | 电子科技大学 | 一种基于角点检测的数字图像物体微小移动监测算法 |
CN113556489A (zh) * | 2020-04-24 | 2021-10-26 | 晶相光电股份有限公司 | 影像感测系统以及缺陷感光元件侦测以及修正方法 |
CN113556489B (zh) * | 2020-04-24 | 2024-01-09 | 晶相光电股份有限公司 | 影像感测系统以及缺陷感光元件侦测以及修正方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10217229B2 (en) | Method and system for tracking moving objects based on optical flow method | |
Kopsiaftis et al. | Vehicle detection and traffic density monitoring from very high resolution satellite video data | |
Kumar et al. | Review of lane detection and tracking algorithms in advanced driver assistance system | |
CN103325112B (zh) | 动态场景中运动目标快速检测方法 | |
Taneja et al. | City-scale change detection in cadastral 3d models using images | |
Ibrahim et al. | Moving objects detection and tracking framework for UAV-based surveillance | |
US20150220789A1 (en) | Systems and methods for detecting and tracking objects in a video stream | |
CN103077539A (zh) | 一种复杂背景及遮挡条件下的运动目标跟踪方法 | |
CN104200492B (zh) | 基于轨迹约束的航拍视频目标自动检测跟踪方法 | |
WO2018006659A1 (zh) | 一种航道监控目标获取方法及装置 | |
Stolle et al. | Optical tracking of floating shipping containers in a high-velocity flow | |
Kothiya et al. | A review on real time object tracking in video sequences | |
Karpagavalli et al. | Estimating the density of the people and counting the number of people in a crowd environment for human safety | |
CN102609945A (zh) | 可见光和热红外图像序列自动配准方法 | |
CN105469421A (zh) | 一种基于周视系统实现地面运动目标监测的方法 | |
Parmehr et al. | Automatic registration of optical imagery with 3d lidar data using local combined mutual information | |
CN112598709B (zh) | 一种基于视频流的行人运动速度智能感知方法 | |
Yao et al. | 3D object-based classification for vehicle extraction from airborne LiDAR data by combining point shape information with spatial edge | |
Chen et al. | An image restoration and detection method for picking robot based on convolutional auto-encoder | |
Wei et al. | Panorama stitching, moving object detection and tracking in UAV videos | |
Zhou | EKF based object detect and tracking for UAV by using visual-attention-model | |
CN104240267A (zh) | 一种基于三维结构坐标约束的运动目标检测方法 | |
Guo et al. | Research on the detection and tracking technology of moving object in video images | |
Li et al. | A sea–sky–line detection method for long wave infrared image based on improved Swin Transformer | |
Patel et al. | Different Techniques of Object Detection and Tracking: In Video Monitoring System |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20160406 |