CN103679172B - 一种通过转动红外探测器检测地面远距离运动目标的方法 - Google Patents

一种通过转动红外探测器检测地面远距离运动目标的方法 Download PDF

Info

Publication number
CN103679172B
CN103679172B CN201310469708.7A CN201310469708A CN103679172B CN 103679172 B CN103679172 B CN 103679172B CN 201310469708 A CN201310469708 A CN 201310469708A CN 103679172 B CN103679172 B CN 103679172B
Authority
CN
China
Prior art keywords
target
formula
background
real goal
represent
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN201310469708.7A
Other languages
English (en)
Other versions
CN103679172A (zh
Inventor
顾国华
徐富元
陈海欣
刘恒建
钱惟贤
任侃
隋修宝
陈钱
路东明
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing University of Science and Technology
Original Assignee
Nanjing University of Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing University of Science and Technology filed Critical Nanjing University of Science and Technology
Priority to CN201310469708.7A priority Critical patent/CN103679172B/zh
Publication of CN103679172A publication Critical patent/CN103679172A/zh
Application granted granted Critical
Publication of CN103679172B publication Critical patent/CN103679172B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

本发明公开了一种通过转动红外探测器检测地面远距离运动目标的方法。该方法首先利用图像信息计算红外探测器的运动补偿参数并通过背景更新获取目标第一次检测结果;然后经过场景信息的提取,利用稀疏光流法根据目标第一次检测结果提取场景中目标与背景的运动信息,最终通过计算背景和目标之间的运动信息相关性实现目标最终检测。本发明通过转动红外探测器解决了因红外探测器的分辨率低带来的探测区域小的问题,并利用背景和目标之间运动信息的相关性解决了目前检测跟踪系统中目标遮挡、目标重叠和视差等问题,降低了计算量和检测虚警率。

Description

一种通过转动红外探测器检测地面远距离运动目标的方法
技术领域
本发明方法属于数字图像处理与模式识别领域,具体涉及一种通过转动红外探测器检测地面远距离运动目标的方法。
背景技术
利用红外探测器实现运动目标检测是红外成像防御与红外成像制导等方面的关键技术,红外运动目标检测可实现对视场内运动目标的自动捕获,进而完成对运动目标的跟踪与识别。现有的红外运动目标检测系统中红外探测器一般是静止的,由于红外探测器分辨率较低,导致监视视场较小。因此有些学者提出采用转动红外探测器的方法扩大检测区域,从运动图像中检测运动目标。
文献一(M.Heikkila,M.Pietikainen.A texture-based method for modelingthe background and detecting moving objects[J],IEEE Transactions on PatternAnalysis and Machine Intelligence28(4)(2006)657–662.)提出了一种用背景建模的方法实现运动目标检测,该方法移植到转动红外探测器系统中时,由于视差的存在,其检测结果中干扰目标较多,虚警率高,无法获得较好的目标检测结果。文献二(刘皓挺,杨健群,徐凤刚.基于运动与区域信息的移动机器人目标检测[J].计算机工程,2007,33(21):205-206.)披露了一种运动红外探测器检测方法,其计算方法主要采用简单的匹配和帧差法,但该方法无法获得较高的探测率,同时对于存在视差的景物仍然会出现误检测。
发明内容
本发明提出一种通过转动红外探测器检测地面远距离运动目标的方法,该方法可以获得较高的探测率,同时降低了计算量和运算时间。
为了解决上述技术问题,本发明提出一种通过转动红外探测器检测地面远距离运动目标的方法,其特征在于,包括以下步骤:
步骤一:使用转动的红外探测器连续采集两帧图像,用二维傅里叶变换计算该两帧图像的粗匹配位移;根据粗匹配位移计算该两帧图像的重合区域并采用特征点算法对重合区域进行处理,获得该两帧图像之间的单应矩阵;
步骤二:在红外探测器采集的图像中任意选取一帧图像作为参考图像,使用单应矩阵对红外探测器采集的每一帧图像进行变换获得变换后的图像;对变换后的图像进行混合高斯模型迭代,实现对运动目标的第一次检测;
步骤三:根据运动目标的第一次检测结果,采用稀疏光流法分别提取背景的运动信息和目标的运动信息,并建立背景运动信息模型和目标运动信息模型;
步骤四:计算背景运动信息模型和目标运动信息模型之间的差异度,区分真实目标与干扰目标;计算真实目标的位置关联性和运动相关性,将重叠的真实目标逐一分离。
本发明与现有技术相比,其显著优点在于,本发明方法采用运动补偿实现在转动红外探测器的条件下实现运动目标的检测,通过针对视场背景运动信息与目标运动信息的提取和建模来实现运动目标的提取和分离,降低了计算量和检测虚警率,可以广泛的应用于安防、监视等公共安全方面。
附图说明
图1是本发明方法流程图。
图2是分别使用文献一所记载的方法、文献二所记载的方法和本发明方法进行仿真实验获得的仿真实验效果比较图。
图3是使用本发明方法检测沙漠中汽车的实验图,其中图3(a)和图3(b)是使用转动的红外探测器连续采集的两帧图像,图3(c)是检测结果图像。
图4是使用本发明方法检测城市中密集人群的实验图,其中图4(a)和图4(b)是使用转动的红外探测器连续采集的两帧图像,图4(c)是检测结果图像。
具体实施方式
如图1所示,本发明通过转动红外探测器检测地面远距离运动目标的方法,包括以下步骤:
步骤一:使用转动的红外探测器连续采集两帧图像It和It+Δt,用二维傅里叶变换计算该两帧图像的粗匹配位移[Δx,Δy]T;根据粗匹配位移[Δx,Δy]T计算该两帧图像的重合区域并采用特征点算法对重合区域进行处理,获得连续两帧图像It和It+Δt之间的单应矩阵ht,t+Δt
步骤二:由于旋转的红外探测器采集的图像相比较于目前探测系统采集的图像具有背景运动和图像抖动较大等特点,本发明方法采用了一种动态的背景更新方法,首先根据探测器的运动参数对采集的图像进行变换,然后通过模型估计得到目标的第一次检测结果。
本实施例在红外探测器采集的图像中任意选取一帧图像作为参考图像Ic,使用单应矩阵ht,t+Δt对红外探测器采集的每一帧图像进行变换获得变换后的图象I’t+Δt;对变换后的图象I't+Δt进行混合高斯模型的迭代,实现对运动目标的第一次检测。
步骤三:根据运动目标的第一次检测结果,采用稀疏光流法分别提取背景的运动信息和目标的运动信息,并建立背景运动信息模型和目标运动信息模型。
根据目标的第一次检测结果提取背景与目标的运动信息,可以通过对目标与背景运动信息的分析建立背景与目标运动信息和模型,该模型可以完整的描述视场内所有的运动信息。
进一步,所述提取背景的运动信息过程可以具体为:
选取属于背景的特征点作为稀疏光流的兴趣点,计算背景稀疏光流的光流信息(ΔuB,ΔvB),然后如公式(1)所示计算背景的运动信息HB
HB={(xB,yB),(ΔuB,ΔvB),P|(xB,yB)∈ψB} (1)
式(1)中,ψB表示图像的背景,(xB,yB)表示背景特征点坐标,P表示特征点属于背景ψB的权重,P的计算方法如公式(2)所示,
P = P ( a 1 , a 2 , . . . , a N | ψ B ) = Π i = 1 N P ( a i | ψ B ) - - - ( 2 )
式(2)中,ai为背景中以特征点为中心的M×M区域内像素值,P(aiB)表示第i像素的条件概率,其中N=M×M。
进一步,由于光流信息是二维数据、两变量的概率分布函数,可采用二维的混合高斯模型平滑背景角点的光流信息,混合高斯分布可以有效地描述背景角点运动的分布情况,所述建立背景运动信息模型的方法可以具体为:
如公式(3)所示使用混合高斯概率密度函数建立背景运动信息模型P(x),
P ( x ) = Σ j = 1 L α j N j ( x ; u j , Σ j ) - - - ( 3 )
式(3)中,αj为第j个高斯分量的权重,Nj(x;ujj)表示第j个高斯分布的概率密度函数,L表示高斯分量的个数,Nj(x;ujj)的计算方式如公式(4)所示,
N j ( x ; u j , Σ j ) = 1 ( 2 π ) 2 | Σ j | exp [ - 1 2 ( x - u j ) T Σ j - 1 ( x - u j ) ] - - - ( 4 )
式(4)中,x为输入变量,uj为第j个高斯分量的均值,Σj为第j个高斯分量的协方差。
进一步,所述提取目标的运动信息过程可以具体为:
将运动目标第一次检测结果中的连通域内的目标像素点作为稀疏光流的兴趣点,计算目标稀疏光流的光流信息(ΔuF,ΔvF),然后如公式(5)所示计算目标的运动信息HF
HF={(xF,yF),(ΔuF,ΔvF),R)|(xF,yF)∈ψF} (5)
式(5)中,(xF,yF)表示目标像素点的坐标,R表示像素属于目标ψF的权重,R的计算方法如公式(6)所示,
R ( x F , y F ) = R ( b 1 , b 2 , . . . , b N | ψ F ) = Π i = 1 N R ( b i | ψ F ) - - - ( 6 )
式(6)中,b为前景像素,N=M×M,(b1,b2,…bN)为M×M领域内的像素值,R(biF)表示第i像素的条件概率。
进一步,由于目标的运动具有整体性和一致性,所述建立目标运动信息模型的方法可以具体为:
如公式(7)所示使用高斯概率密度函数建立目标运动信息模型Gk(x),
G k ( x ) = 1 ( 2 π ) 2 | Σ k | exp [ - 1 2 ( x - u k ) T Σ k - 1 ( x - u k ) ] - - - ( 7 )
式(7)中,uk为高斯函数的均值,x为输入变量, Σ k = var ( Δu F ) 0 0 var ( Δv F ) 为协方差矩阵。
步骤四:计算背景运动信息模型和目标运动信息模型之间的差异度,区分真实目标与干扰目标;计算真实目标的位置关联性和运动相关性,将重叠的真实目标逐一分离。
进一步,所述差异度计算方式可以具体位为:
如公式(8)所示采用相对熵计算背景运动信息模型和目标运动信息模型之间的差异度Dk
D k = Σ j = 1 M α j D j - - - ( 8 )
式(8)中,Dj=D(Nj(x;ujj)||Gk(x)),
进一步,所述区分真实目标与干扰目标的计算方法可以具体如公式(9)所示,
T disturb ( ( x T , y T ) , ( &Delta;u , &Delta;v ) , R , U ) D k > Th dt T true ( ( x T , y T ) , ( &Delta;u , &Delta;v ) , R , U ) D k < Th dt - - - ( 9 )
式(9)中,Tdisturb((xT,yT),(Δu,Δv),R,U)表示干扰目标信息,Ttrue((xT,yT),(Δu,Δv),R,U)表示真实目标信息,Thdt为阈值,(xT,yT)表示目标的位置,(Δu,Δv)表示目标的运动信息,U={G,r}表示所有目标的概率模型集,G是目标的运动概率模型,(xT,yT)是目标的质心,r为目标近似圆形的半径,A是目标的面积;
进一步,所述真实目标的位置关联性diskj的计算方法可以具体为:
设有两个真实目标,Ttrue,k((xk,yk),(Δuk,Δvk),Rk,Uk)表示第k个真实目标的信息,Ttrue,j((xj,yj),(Δuj,Δvj),Rj,Uj)表示第j个真实目标的信息,如公式(10)所示计算其的位置关联性diskj
dis kj = ( x k - x j ) 2 + ( y k - y j ) 2 - - - ( 10 )
若diskj<β(rk+rj),则两个真实目标在位置上有关联性,否则两个真实目标在位置上没有关联性,其中β为距离参数;
进一步,所述真实目标的运动关联性J(Gk,Gj)的计算方法可以具体位为:
如公式(11)所示采用相对熵计算真实目标的运动关联性J(Gk,Gj),
J(Gk,Gj)=D(Gk|Gj)+D(Gj|Gk) (11)
所述将重叠的真实目标逐一分离的方法如公式(12)所示,
式(12)中,TL表示最终分离的真实目标集合。
通过对目标连通区域的位置相关性和相对熵的计算可有效的解决目标遮挡和目标重叠问题。
进一步,由于存在于目标和背景之间的背景角点,在下一帧图像中该点的像素值可能会受到目标的影响,导致光流计算结果错误,从而影响对背景运动状态描述的准确性。为了进一步提高对背景运动状态描述的准确性,在步骤三选取属于背景的特征点作为稀疏光流兴趣点时,可在一个局部领域内选取背景角点作为兴趣点,选取属于背景的特征点作为稀疏光流兴趣点的方法如公式(13)所示,
HDB={(xB,yB)|(xB,yB)∈D,(xB,yB)∈ψB,P(xB,yB)>TP} (13)
式(13)中,HDB表示背景特征点的集合,D为局部领域,TP=γ×Pmax+(1-γ)×Pmin,Pmax和Pmin为局部领域D中背景特征点权重P的最大值与最小值,γ为比例因子且0<γ<1。
本发明方法的效果可以通过以下实验结果进一步说明:
如图2所示,分别使用文献一所记载的方法、文献二所记载的方法和本发明方法进行仿真实验,本发明方法系统虚警率为0.01,通过探测率曲线可知本发明方法的探测率远高于文献披露的传统方法,
如图3和图4所示,本发明方法可以实现在探测器转动条件下的远距离运动目标检测,探测率高、检测位置精确。

Claims (4)

1.一种通过转动红外探测器检测地面远距离运动目标的方法,其特征在于,包括以下步骤:
步骤一:使用转动的红外探测器连续采集两帧图像,用二维傅里叶变换计算该两帧图像的粗匹配位移;根据粗匹配位移计算该两帧图像的重合区域并采用特征点算法对重合区域进行处理,获得该两帧图像之间的单应矩阵;
步骤二:在红外探测器采集的图像中任意选取一帧图像作为参考图像,使用单应矩阵对红外探测器采集的每一帧图像进行变换获得变换后的图像;对变换后的图像进行混合高斯模型迭代,实现对运动目标的第一次检测;
步骤三:根据运动目标的第一次检测结果,采用稀疏光流法分别提取背景的运动信息和目标的运动信息,并建立背景运动信息模型和目标运动信息模型;
步骤四:计算背景运动信息模型和目标运动信息模型之间的差异度,区分真实目标与干扰目标;计算真实目标的位置关联性和运动相关性,将重叠的真实目标逐一分离。
2.如权利要求1所述的通过转动红外探测器检测地面远距离运动目标的方法,其特征在于,步骤三中,
所述提取背景的运动信息过程为:
选取属于背景的特征点作为稀疏光流的兴趣点,计算背景稀疏光流的光流信息(ΔuB,ΔvB),然后如公式(1)所示计算背景的运动信息HB
HB={(xB,yB),(ΔuB,ΔvB),P|(xB,yB)∈ψB} (1)
式(1)中,ψB表示图像的背景,(xB,yB)表示背景特征点坐标,P表示特征点属于背景ψB的权重,P的计算方法如公式(2)所示,
P = P ( a 1 , a 2 , ... , a N | &psi; B ) = &Pi; i = 1 N P ( a i | &psi; B ) - - - ( 2 )
式(2)中,ai为背景中以特征点为中心的M×M区域内像素值,P(aiB)表示第i像素的条件概率,其中N=M×M;
所述建立背景运动信息模型的方法为:
如公式(3)所示使用混合高斯概率密度函数建立背景运动信息模型P(x),
P ( x ) = &Sigma; j = 1 L &alpha; j N j ( x ; u j , &Sigma; j ) - - - ( 3 )
式(3)中,αj为第j个高斯分量的权重,Nj(x;uj,∑j)表示第j个高斯分布的概率密度函数,L表示高斯分量的个数,Nj(x;uj,∑j)的计算方式如公式(4)所示,
N j ( x ; u j , &Sigma; j ) = 1 ( 2 &pi; ) 2 | &Sigma; j | exp &lsqb; - 1 2 ( x - u j ) T &Sigma; j - 1 ( x - u j ) &rsqb; - - - ( 4 )
式(4)中,x为输入变量,uj为第j个高斯分量的均值,∑j为第j个高斯分量的协方差;
所述提取目标的运动信息过程为:
将运动目标第一次检测结果中的连通域内的目标像素点作为稀疏光流的兴趣点,计算目标稀疏光流的光流信息(ΔuF,ΔvF),然后如公式(5)所示计算目标的运动信息HF
HF={(xF,yF),(ΔuF,ΔvF),R)|(xF,yF)∈ψF} (5)
式(5)中,(xF,yF)表示目标像素点的坐标,R表示像素属于目标ψF的权重,R的计算方法如公式(6)所示,
R ( x F , y F ) = R ( b 1 , b 2 , ... , b N | &psi; F ) = &Pi; i = 1 N R ( b i | &psi; F ) - - - ( 6 )
式(6)中,b为前景像素,N=M×M,(b1,b2,…bN)为M×M领域内的像素值,R(biF)表示第i像素的条件概率;
所述建立目标运动信息模型的方法为:
如公式(7)所示使用高斯概率密度函数建立目标运动信息模型Gk(x),
G k ( x ) = 1 ( 2 &pi; ) 2 | &Sigma; k | exp &lsqb; - 1 2 ( x - u k ) T &Sigma; k - 1 ( x - u k ) &rsqb; - - - ( 7 )
式(7)中,uk为高斯函数的均值,x为输入变量,为协方差矩阵。
3.如权利要求2所述的通过转动红外探测器检测地面远距离运动目标的方法,其特征在于,所述选取属于背景的特征点作为稀疏光流兴趣点的方法如公式(13)所示,
HDB={(xB,yB)|(xB,yB)∈D,(xB,yB)∈ψB,P(xB,yB)>TP} (13)
式(13)中,HDB表示背景特征点的集合,D为局部领域,TP=γ×Pmax+(1-γ)×Pmin,Pmax和Pmin为局部领域D中背景特征点权重P的最大值与最小值,γ为比例因子且0<γ<1。
4.如权利要求1所述的通过转动红外探测器检测地面远距离运动目标的方法,其特征在于,步骤四中,
所述差异度计算方式为:
如公式(8)所示采用相对熵计算背景运动信息模型和目标运动信息模型之间的差异度Dk
D k = &Sigma; j = 1 M &alpha; j D j - - - ( 8 )
式(8)中,αj为第j个高斯分量的权重,Dj=D(Nj(x;uj,∑j)||Gk(x)),uj为第j个高斯分量的均值,∑j为第j个高斯分量的协方差,Gk(x)目标运动信息模型,R表示像素属于目标ψF的权重;
所述区分真实目标与干扰目标的计算方法如公式(9)所示,
T d i s t u r b ( ( x T , y T ) , ( &Delta; u , &Delta; v ) , R , U ) D k > Th d t T t r u e ( ( x T , y T ) , ( &Delta; u , &Delta; v ) , R , U ) D k < Th d t - - - ( 9 )
式(9)中,Tdisturb((xT,yT),(Δu,Δv),R,U)表示干扰目标信息,Ttrue((xT,yT),(Δu,Δv),R,U)表示真实目标信息,Thdt为阈值,(xT,yT)表示目标的位置,(Δu,Δv)表示目标的运动信息,U={G,r}表示所有目标的概率模型集,G是目标的运动概率模型,(xT,yT)是目标的质心,r为目标近似圆形的半径,A是目标的面积;
所述真实目标的位置关联性diskj的计算方法为:
设有两个真实目标,Ttrue,k((xk,yk),(Δuk,Δvk),Rk,Uk)表示第k个真实目标的信息,Ttrue,j((xj,yj),(Δuj,Δvj),Rj,Uj)表示第j个真实目标的信息,如公式(10)所示计算其的位置关联性diskj
dis k j = ( x k - x j ) 2 + ( y k - y j ) 2 - - - ( 10 )
若diskj<β(rk+rj),则两个真实目标在位置上有关联性,否则两个真实目标在位置上没有关联性,其中β为距离参数;
所述真实目标的运动关联性J(Gk,Gj)的计算方法为:
如公式(11)所示采用相对熵计算真实目标的运动关联性J(Gk,Gj),
J(Gk,Gj)=D(Gk|Gj)+D(Gj|Gk) (11)
所述将重叠的真实目标逐一分离的方法如公式(12)所示,
式(12)中,TL表示最终分离的真实目标集合。
CN201310469708.7A 2013-10-10 2013-10-10 一种通过转动红外探测器检测地面远距离运动目标的方法 Expired - Fee Related CN103679172B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201310469708.7A CN103679172B (zh) 2013-10-10 2013-10-10 一种通过转动红外探测器检测地面远距离运动目标的方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201310469708.7A CN103679172B (zh) 2013-10-10 2013-10-10 一种通过转动红外探测器检测地面远距离运动目标的方法

Publications (2)

Publication Number Publication Date
CN103679172A CN103679172A (zh) 2014-03-26
CN103679172B true CN103679172B (zh) 2017-02-08

Family

ID=50316661

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201310469708.7A Expired - Fee Related CN103679172B (zh) 2013-10-10 2013-10-10 一种通过转动红外探测器检测地面远距离运动目标的方法

Country Status (1)

Country Link
CN (1) CN103679172B (zh)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105631799B (zh) * 2015-12-18 2017-04-12 华中科技大学 一种动平台激光红外融合检测识别系统
CN106887010B (zh) * 2017-01-13 2019-09-24 西北工业大学深圳研究院 基于高层场景信息的地面运动目标检测方法
CN108664859A (zh) * 2017-03-31 2018-10-16 上海云从企业发展有限公司 指静脉识别方法及系统
CN108469823B (zh) * 2018-04-04 2020-03-20 浙江大学 一种基于单应性的移动机器人编队跟随方法
CN110309434B (zh) * 2018-10-10 2023-10-13 腾讯大地通途(北京)科技有限公司 一种轨迹数据处理方法、装置以及相关设备

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101246547A (zh) * 2008-03-03 2008-08-20 北京航空航天大学 一种根据场景变化特征对视频中运动物体检测的方法
US8290209B2 (en) * 2006-10-06 2012-10-16 Aisin Seiki Kabushiki Kaisha Mobile object recognizing device, mobile object recognizing method, and computer program thereof
CN102799883A (zh) * 2012-06-29 2012-11-28 广州中国科学院先进技术研究所 一种从视频图像中提取运动目标的方法及装置
CN103108108A (zh) * 2011-11-11 2013-05-15 财团法人工业技术研究院 影像稳定方法及影像稳定装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8290209B2 (en) * 2006-10-06 2012-10-16 Aisin Seiki Kabushiki Kaisha Mobile object recognizing device, mobile object recognizing method, and computer program thereof
CN101246547A (zh) * 2008-03-03 2008-08-20 北京航空航天大学 一种根据场景变化特征对视频中运动物体检测的方法
CN103108108A (zh) * 2011-11-11 2013-05-15 财团法人工业技术研究院 影像稳定方法及影像稳定装置
CN102799883A (zh) * 2012-06-29 2012-11-28 广州中国科学院先进技术研究所 一种从视频图像中提取运动目标的方法及装置

Also Published As

Publication number Publication date
CN103679172A (zh) 2014-03-26

Similar Documents

Publication Publication Date Title
CN106874894B (zh) 一种基于区域全卷积神经网络的人体目标检测方法
CN106778595B (zh) 基于高斯混合模型的人群中异常行为的检测方法
CN102831618B (zh) 基于霍夫森林的视频目标跟踪方法
CN103164706B (zh) 基于视频信号分析的对象计数方法与装置
CN103679172B (zh) 一种通过转动红外探测器检测地面远距离运动目标的方法
Huijuan et al. Fast image matching based-on improved SURF algorithm
CN103279791B (zh) 基于多特征的行人计算方法
CN105528794A (zh) 基于混合高斯模型与超像素分割的运动目标检测方法
CN103455797A (zh) 航拍视频中运动小目标的检测与跟踪方法
CN106682573B (zh) 一种单摄像头的行人跟踪方法
CN102521842B (zh) 一种实现快速移动检测的方法和装置
Xu et al. Human detection and tracking based on HOG and particle filter
CN103902989A (zh) 基于非负矩阵分解的人体动作视频识别方法
CN103426179A (zh) 一种基于均值偏移多特征融合的目标跟踪方法及装置
Zhang et al. Weakly aligned feature fusion for multimodal object detection
CN110827262B (zh) 一种基于连续有限帧红外图像的弱小目标检测方法
CN108520203A (zh) 基于融合自适应多外围框与十字池化特征的多目标特征提取方法
CN107610156A (zh) 基于引导滤波和核相关滤波的红外弱小目标跟踪方法
Park et al. Study on 3D action recognition based on deep neural network
Liu et al. Abnormal behavior recognition based on key points of human skeleton
Yang et al. A deep learning based method for typhoon recognition and typhoon center location
CN108564043B (zh) 一种基于时空分布图的人体行为识别方法
CN104268902A (zh) 面向工业现场的多目标视频跟踪方法
CN102136060A (zh) 一种群体密度检测方法
CN105118073A (zh) 基于Xtion摄像机的人体头部目标识别方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20170208

Termination date: 20191010

CF01 Termination of patent right due to non-payment of annual fee