CN101355692A - 一种实时跟踪运动目标区域的智能监控装置 - Google Patents

一种实时跟踪运动目标区域的智能监控装置 Download PDF

Info

Publication number
CN101355692A
CN101355692A CN 200810120167 CN200810120167A CN101355692A CN 101355692 A CN101355692 A CN 101355692A CN 200810120167 CN200810120167 CN 200810120167 CN 200810120167 A CN200810120167 A CN 200810120167A CN 101355692 A CN101355692 A CN 101355692A
Authority
CN
China
Prior art keywords
target area
motion target
constantly
corresponding relation
motion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN 200810120167
Other languages
English (en)
Other versions
CN101355692B (zh
Inventor
陈耀武
李志华
周凡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang University ZJU
Original Assignee
Zhejiang University ZJU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang University ZJU filed Critical Zhejiang University ZJU
Priority to CN 200810120167 priority Critical patent/CN101355692B/zh
Publication of CN101355692A publication Critical patent/CN101355692A/zh
Application granted granted Critical
Publication of CN101355692B publication Critical patent/CN101355692B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种实时跟踪运动目标区域的智能监控装置,包括一视频输入设备、一视觉分析系统和一网络输入输出设备。为了高实时高精度地进行运动目标的跟踪,该系统采用了基于模型动态切换的目标跟踪算法,通过对遮挡状态的有效判定,对未遮挡的单运动目标采用基于区域跟踪的简单快速模型,对相互遮挡的复合运动目标采用基于SIFT特征的窄基线图像匹配模型,系统结构简单、高实时高精度、可扩展性强,具有有线以太网和无线GPRS多重网络接入功能,有效的实现了运动目标区域实时跟踪功能。

Description

一种实时跟踪运动目标区域的智能监控装置
技术领域
本发明属于电子设备领域,涉及一种实时跟踪运动目标区域的智能监控装置。
背景技术
随着视频监控需求的迅速增长、监控规模的日益扩大,人工监视已远远不能满足监控要求,视频监控系统的“智能化”变得越来越迫切。
嵌入式智能网络摄像机作为智能视频监控系统的前端“眼睛”,其图像获取、分析处理和网络通讯能力对整个监控系统起着越来越重要的作用。目标跟踪广泛应用在视频监控、视频编码以及军事领域中,如何实现在实时视频序列中对感兴趣的目标进行稳定高效的跟踪,是计算机视觉中一个具有相当挑战性的课题,复杂遮挡场景下目标的稳定跟踪更是一个难点。在运动目标分割后,目标跟踪方法主要分为四个种类:基于区域的跟踪(Region-based Tracking)、基于活动轮廓的跟踪(Active-contour-basedTracking)、基于特征的跟踪(Feature-based Tracking)和基于模型的跟踪(Model-based Tracking)。基于区域的跟踪方法根据运动目标区域的属性变化(比如目标区域的位置、大小等)进行简单快速地跟踪,在很少运动目标的场景下效果很好,但当运动目标出现遮挡时较难持续的正确跟踪。基于活动轮廓的跟踪方法主要根据目标的外形轮廓进行跟踪,相对于基于区域的跟踪方法,轮廓表达有减少计算复杂度的优点,然而轮廓描述正确与否决定了跟踪的精度,而且该方法对跟踪的初始化也非常敏感,以致较难自动启动跟踪。基于特征的跟踪方法主要通过目标区域的全局特征(比如面积、周长等)或局部特征(比如点、线特征等)进行跟踪,该方法能处理部分遮挡下的跟踪问题,其难点是如何确定目标的唯一特征集,若采用特征过多,系统效率将降低,且容易产生错误。基于模型的跟踪方法利用目标模型进行匹配跟踪,能达到较稳定的跟踪效果,但该方法需要事先构造好目标模型,运动分析的精度取决于几何模型的精度,在现实生活中获得运动目标的精确几何模型是非常困难的,并且跟踪过程计算复杂、非常耗时,难以实现实时的运动目标跟踪。
David G.Lowe在文献“Distinctive image features from scale-invariantkeypoints”中提出了一种基于尺度空间的、对图像缩放、旋转甚至仿射变换保持不变性的图像局部特征描述算子——SIFT算子,传统宽基线SIFT特征匹配算法需要在各个图像分辨率、各个尺度上进行计算,以便满足尺度缩放、旋转等不变性,其时间复杂度非常高,直接用于跟踪系统中不能达到实时要求。
发明内容
本发明提供了一种实时跟踪运动目标区域的智能监控装置。
一种实时跟踪运动目标区域的智能监控装置,包括
一视频输入设备,用于获得视频数据;
一视觉分析系统,由通过DPRAM接口模块相连接的嵌入式CPU和DSP处理器组成,用于处理视频输入系统获得的视频数据;
一输入输出系统,用于将视觉分析系统处理后的视频数据输出和输入用于控制视觉分析系统的指令;
所述的视觉分析终端,包括:
嵌入式CPU,用于网络通讯;
DSP处理器,用于运动目标侦测和跟踪;
DPRAM接口模块,用于嵌入式CPU和DSP处理器进行数据和命令的交互,该DPRAM模块的两个访问口能够实现快速的异步同时访问;
视频AD转换器,设有视频输入接口,通过PPI数据总线与DSP处理器连接,用于视频模拟信号到数字信号的转换;
第一数据存储器,数据存储器1的数据总线、地址总线、控制线与DSP处理器的EBIU总线连接,用于数据的存储和算法运行时刻临时变量的存储;
程序存储器,程序存储器的数据总线、地址总线、控制线与嵌入式CPU的EBIU总线连接,用于程序代码的存储;
第二数据存储器,数据存储器2的数据总线、地址总线、控制线与嵌入式CPU的EBIU总线连接,用于数据的存储和网络交互代码运行时刻临时变量的存储;
有线以太网控制器,有线以太网控制器芯片的地址总线与嵌入式CPU的EBIU总线连接,用于有线以太网的接入控制,通过有线RJ45接口与局域网或公用网络与远端中心服务器进行网络连接;
CF卡硬件电路控制逻辑,通过EBIU总线与嵌入式CPU相连;
无线GPRS卡,无线GPRS卡与CF卡接口总线进行相连,用于通过无线GPRS网络与中心服务器进行网络连接;
所述的嵌入式CPU采用实时操作系统RTOS,所述的DSP处理器采用定时中断循环驱动模式。
所述的视频输入设备为摄像机,通过视频输入接口与视频AD转换器相连,用于视频的输入;
所述的输入输出系统包括一个远端中心服务器,用于视觉分析系统的控制。
为进行运动目标的实时跟踪检测,所述的DSP处理器执行以下步骤:
(1)DSP处理器初始化;
(2)从在监控区域获得的视频数据中检测出运动目标区域并输出运动目标区域;
(3)将所有的运动目标区域采用基于区域跟踪的模型进行跟踪检测,识别出未遮挡的单运动目标区域和相互遮挡的复合运动目标区域两种类型的运动目标区域;
对未遮挡的单运动目标区域采用基于区域跟踪的模型进行跟踪检测,对相互遮挡的复合运动目标区域采用基于SIFT特征的窄基线图像匹配模型进行跟踪检测,在跟踪检测时,动态识别运动目标区域类型的改变并检测新的运动目标区域,对类型改变后的运动目标区域采用对应的模型进行跟踪检测,对新的运动目标区域采用基于区域跟踪的模型进行跟踪检测;
(4)通过网络输入输出设备输出运动目标区域跟踪检测信息;
所述的采用基于区域跟踪的模型跟踪检测方法如下:
1)每个都用一个外接矩形表示,该矩形几何中心的二维图像坐标表示为(Xc,Yc),目标区域的大小用像素个数表示,表示为S,运动目标区域的运动速度表示为(Vx,Vy),目标区域所有像素的RGB空间颜色均值表示为(MR,MG,MB);
在t时刻检测出的单运动目标区域的集合为R,并且对每个单运动目标区域都建立了对应的跟踪标号,在t+1时刻检测出的目标区域集合W,其中t为任意一个时刻,t+1为t时刻的下一时刻;
2)用最小代价准则建立t时刻的单运动目标区域与t+1时刻的运动目标区域之间的对应关系;
定义两个运动目标区域之间的代价函数如下:
C i , j 1 = α ( X c , i + V x , i - X c , j V x , i ) 2 + ( Y c , i + V y , i - Y c , j V y , i ) 2
+ β [ | M R , i - M R , j | + | M G , i - M G , j | + | M B , i - M B , j | ] 256 - - - ( 1 )
+ γ | S i - S j S i | .
式中i表示t时刻的一个单运动目标区域(i∈R),j表示t+1时刻的一个运动目标区域(j∈W),α、β、γ分别表示区域位置、区域颜色均值以及区域大小的相对变化在代价函数计算中的权值参数,并且α+β+γ=1,这些参数可以动态配置;
对于t时刻未建立对应关系的每个单运动目标区域m,求出最小的代价函数值:
C m , n 1 = min j ∈ P C m , j 1 - - - ( 2 )
式中P表示t+1时刻未建立对应关系的运动目标区域集合,且 P ⊆ W ;
当该最小代价函数值满足下式:
C m , n 1 ≤ C T 1 - - - ( 3 )
式中CT1是预设的门限参数,则t时刻的单运动目标区域m与t+1时刻的运动目标区域n是同一个目标区域,建立对应关系,并同时更新该运动目标区域的位置(Xc,Yc)、大小S以及区域颜色均值(MR,MG,MB),运动目标区域n被标识为单运动目标区域,并线性预测出其速度(Vx,Vy),循环执行这个匹配过程,直到t时刻没有运动目标区域能与t+1时刻的运动目标区域建立对应关系为止;
3)当t时刻的所有单运动目标区域在t+1时刻的运动目标区域中都找到了对应的关系时,则t+1时刻单运动目标区域的跟踪匹配过程结束;
4)当t时刻的一些单运动目标区域,由于在t+1时刻出现了遮挡重叠、由初始遮挡状态分离成未遮挡状态或处在退出监控场景的过程中,所以在t+1时刻未找到对应的运动目标区域时,则对于t时刻未找到对应关系的每个单运动目标区域m按顺序采取下面的处理步骤:
a)通过未找到对应关系的单运动目标区域m的像素的位置判断,如果该运动区域目标m在t时刻靠近或已在监控场景边界则定义新的代价函数如(4)式:
C i , j 2 = ( X c , i + V x , i - X c , j V x , i ) 2 + ( Y c , i + V y , i - Y c , j V y , i ) 2 - - - ( 4 )
求出该运动目标区域区域与t+1时刻未建立对应关系的所有运动目标区域之间最小的代价函数值Cm,n 1,若该最小代价函数值满足:
C m , n 2 ≤ C T 2 - - - ( 5 )
式(5)中CT2是预设的门限参数,并且t+1时刻的运动目标区域n已在监控场景边界,则t时刻的运动目标m与t+1时刻的运动目标区域n是同一个运动目标区域,建立对应关系,运动目标区域n的类型仍保持为单运动目标区域类型,并同时更新该运动目标区域的位置(Xc,Yc)、大小S以及区域颜色均值(MR,MG,MB),并线性预测出其速度(Vx,Vy);
b)通过未找到对应关系的单运动目标区域m的像素的位置判断,如果该运动目标区域m在t时刻不靠近或不在监控场景边界,而在t+1时刻有未建立对应关系的运动目标区域n的外接矩形与该运动目标区域的外接矩形相互重叠:
i)若t时刻该运动目标区域m的外接矩形除了与t+1时刻运动目标区域n的外接矩形重叠之外,还与其他t+1时刻未被关联的运动目标区域存在重叠,则可以判定该运动目标区域m在t+1时刻发生分离,判定t+1时刻的这些运动目标区域为新的分离目标,并都标记为单运动目标区域类型,启动新的运动目标区域标号进行跟踪;
ii)若t+1时刻运动目标区域n的外接矩形除了与t时刻遇到弄目标区域m的外接矩形重叠之外,还与其他t时刻未被关联的运动目标区域存在重叠,则可以判定该运动目标区域m在t+1时刻发生重叠,t+1时刻的运动目标区域n标识为复合运动目标区域,t+1时刻后运动目标区域m的跟踪模型动态切换到基于SIFT特征的窄基线图像匹配模型。
采用基于SIFT特征的窄基线图像匹配模型进行跟踪检测方法如下:
由于被跟踪目标在相邻图像帧之间尺度和外形变化很小,所以只需在原图像分辨率上相近的几个尺度因子之间计算SIFT特征关键点位置,SIFT检测参数O=1(Number of Octaves),omin=0(First of Octave),S=3(Number of Scale levels),得到的尺度因子如下:
σ(o,s)=σ02o+s/S=σ02s/S
式中:σ0=1.6×21/S,o∈[omin,omin+O-1]=0,s∈[smin,smax]=[-1,S]=[-1,3],同时去除低对比度的关键点和不稳定的边缘响应点,以增强匹配稳定性、提高抗噪声能力。关于SIFT特征检测的具体细节参考David G.Lowe的文献“Distinctive image features from scale-invariant keypoints”。
对处于遮挡状态的复合运动目标区域的后续跟踪,通过如下方法确定该复合运动目标在新时刻的位置,以减少进行SIFT特征匹配的区域范围:
1)设在t时刻出现复合运动目标区域集合为K,而在t+1时刻未建立对应关系的运动目标区域集合为H;
2)建立t时刻复合运动目标区域与t+1时刻运动目标区域之间的对应关系:
定义如下代价函数:
C i , j 3 = a ( X c , i + V x , i - X c , j V x , i ) 2 + ( Y c , i + V y , i - Y c , j V y , i ) 2 (6)
+ b | S i - S j S i | .
式(6)中i表示t时刻的一个复合运动目标区域(i∈K),j表示t+1时刻的一个未被对应的运动目标区域(j∈H),a和b分别表示区域位置和区域大小的相对变化在代价函数计算中的权值参数,并且a+b=1,这些参数可以动态配置,对于t时刻未建立对应关系的每个复合运动目标区域m,利用式(7)求出最小的代价函数值:
C m , n 3 = min j ∈ P C m . j 3 - - - ( 7 )
式(7)中P表示t+1时刻未建立对应关系的运动目标区域集合, P ⊆ H ;
当该最小代价函数值满足下式(8):
C m , n 3 ≤ C T 3 - - - ( 8 )
式(8)中CT3是预设的门限参数,则t时刻的运动目标区域m与t+1时刻的运动目标区域n是同一个复合运动目标区域,建立t时刻复合运动目标区域与t+1时刻运动目标区域之间的对应关系,并同时更新该复合运动目标区域的位置(Xc,Yc)、大小S,并线性预测出其速度(Vx,Vy),循环执行这个匹配过程,直到没有复合运动目标区域能建立对应关系为止;
3)当t时刻的所有复合运动目标区域在t+1时刻的运动目标区域中都找到了对应的关系时,则t+1时刻复合运动目标区域的匹配过程结束;
4)当t时刻的一些复合运动目标区域,由于在t+1时刻增加了遮挡目标、从遮挡状态分离或处在退出监控场景的过程中,所以在t+1时刻未找到对应的运动目标区域时,则对于t时刻未找到匹配关系的每个复合运动目标区域按顺序采取下面的处理步骤:
a)通过未找到对应关系的复合运动目标区域m的像素的位置判断,如果该运动目标m在t时刻靠近或已在监控场景边界,则新代价函数定义如(9)式:
C i , j 4 = ( X c , i + V x , i - X c , j V x , i ) 2 + ( Y c , i + V y , i - Y c , j V y , i ) 2 - - - ( 9 )
求根据式(7)出该运动目标区域m与t+1时刻未建立对应关系的所有运动目标区域之间最小的代价函数值C4 m,n,若该最小代价函数值满足:
C m , n 2 ≤ C T 2 - - - ( 10 )
式(10)中CT4是预设的门限参数,并且t+1时刻的运动目标区域n已在监控区域边界,则t时刻的运动目标区域m与t+1时刻的运动目标区域n是同一个复合运动目标区域,建立对应关系,运动目标区域n的类型仍保持为复合运动目标区域类型,并同时更新该运动目标区域的位置(Xc,Yc)、大小S,并线性预测出其速度(Vx,Vy);
b)通过未找到对应关系的复合运动目标区域m的像素的位置判断,如果该运动目标区域m在t时刻不靠近或不在监控区域边界,而在t+1时刻有未建立对应关系的运动目标区域n的外接矩形与该运动目标区域的外接矩形重叠,
i)若t时刻该运动目标区域m的外接矩形除了与t+1时刻运动目标区域n的外接矩形重叠之外,还与其他t+1时刻未被关联的运动目标区域存在重叠,则可以判定该运动目标区域m在t+1时刻发生分离,判定t+1时刻的这些运动目标区域为新的分离运动目标区域,并根据SIFT匹配结果标记各个分离后的运动目标区域的类型,若为单运动目标区域类型则重新建立对应关系,切换到相应的模型进行跟踪;
ii)若t+1时刻运动目标区域n的外接矩形除了与t时刻运动目标区域m的外接矩形重叠之外,还与其他t时刻未被关联的运动目标区域存在重叠,则可以判定该运动目标区域m在t+1时刻又增加了遮挡运动目标区域,新增加的运动目标区域被整合到t+1时刻的复合运动目标区域n中进行跟踪。
本发明所述的一种实时跟踪运动目标区域的智能监控装置,采用了基于模型动态切换的目标跟踪算法,通过对遮挡状态的有效判定,对未遮挡的单运动目标采用基于区域跟踪的简单快速模型,对相互遮挡的复合运动目标采用基于SIFT特征的窄基线图像匹配模型,系统结构简单、高实时高精度、可扩展性强,具有有线以太网和无线GPRS多重网络接入功能,有效的实现了运动目标实时跟踪功能功能。
附图说明
图1为本发明的一种实时跟踪运动目标区域的智能监控装置的连接示意图,其中:1-视觉分析系统,2-视频输入设备,3-局域以太网,4-远端中心服务器,5-无线GPRS卡,6-监控人员;
图2为本发明的视觉分析系统的内部结构图。
图3是本发明的技术方案流程图;
具体实施方式
本发明提供了一种实时跟踪运动目标区域的智能监控装置。
如图1所示,一种实时跟踪运动目标区域的智能监控装置包括视觉分析系统1,视觉分析系统1外部接有摄像机2,网络输入输出设备包括局域以太网3、远端中心服务器4、无线GPRS卡5,视觉分析系统1通过接入的局域以太网3和远端中心服务器4进行通讯,并通过无线GPRS卡5与远端中心服务器4进行联系,将运动检测信息传输给远端中心服务器4,中心服务器4的显示器显示监测信息,监控人员6通过远端中心服务器4的显示器借助于局域以太网3,对视觉分析终端1进行控制(初始化、训练和检测)。
如图2所示,视觉分析系统的内部结构框图,包括:
嵌入式CPU,用于网络通讯;
DSP处理器,用于运动目标侦测跟踪;
DPRAM接口模块,用于嵌入式CPU和DSP处理器进行数据和命令的交互,该DPRAM模块的两个访问口能够实现快速的异步同时访问;
视频AD转换器,设有视频输入接口,通过PPI数据总线与DSP处理器连接,用于视频模拟信号到数字信号的转换;
第一数据存储器SDRAM,数据存储器1的数据总线、地址总线、控制线与DSP处理器的EBIU总线连接,用于数据的存储和算法运行时刻临时变量的存储;
程序存储器FLASH,程序存储器的数据总线、地址总线、控制线与嵌入式CPU Au1200的EBIU总线连接,用于程序代码的存储;
第二数据存储器SDRAM,数据存储器2的数据总线、地址总线、控制线与嵌入式CPU的EBIU总线连接,用于数据的存储和网络交互代码运行时刻临时变量的存储;
有线以太网控制器,有线以太网控制器芯片的地址总线与嵌入式CPU的EBIU总线连接,用于有线以太网的接入控制,通过有线RJ45接口与局域网或公用网络与远端中心服务器进行网络连接;
CF卡硬件电路控制逻辑,通过EBIU总线与嵌入式CPU相连;
无线GPRS卡,无线GPRS卡与CF卡接口总线进行相连,用于通过无线GPRS网络与中心服务器进行网络连接;
本发明还提供了一种实现运动目标区域实时跟踪功能的方法,如图3所示,DSP处理器执行以下步骤:
(1)DSP处理器初始化;
(2)从在监控区域获得的视频数据中检测出运动目标区域并输出运动目标区域;
(3)将所有的运动目标区域采用基于区域跟踪的模型进行跟踪检测,识别出未遮挡的单运动目标区域和相互遮挡的复合运动目标区域两种类型的运动目标区域;
对未遮挡的单运动目标区域采用基于区域跟踪的模型进行跟踪检测,对相互遮挡的复合运动目标区域采用基于SIFT特征的窄基线图像匹配模型进行跟踪检测,在跟踪检测时,动态识别运动目标区域类型的改变并检测新的运动目标区域,对类型改变后的运动目标区域采用对应的模型进行跟踪检测,对新的运动目标区域采用基于区域跟踪的模型进行跟踪检测;
(4)通过网络输入输出设备输出运动目标区域跟踪检测信息;
所述的采用基于区域跟踪的模型跟踪检测方法如下:
1)每个都用一个外接矩形表示,该矩形几何中心的二维图像坐标表示为(Xc,Yc),目标区域的大小用像素个数表示,表示为S,运动目标区域的运动速度表示为(Vx,Vy),目标区域所有像素的RGB空间颜色均值表示为(MR,MG,MB);
在t时刻检测出的单运动目标区域的集合为R,并且对每个单运动目标区域都建立了对应的跟踪标号,在t+1时刻检测出的目标区域集合W,其中t为任意一个时刻,t+1为t时刻的下一时刻;
2)用最小代价准则建立t时刻的单运动目标区域与t+1时刻的运动目标区域之间的对应关系;
定义两个运动目标区域之间的代价函数如下:
C i , j 1 = α ( X c , i + V x , i - X c , j V x , i ) 2 + ( Y c , i + V y , i - Y c , j V y , i ) 2
+ β [ | M R , i - M R , j | + | M G , i - M G , j | + | M B , i - M B , j | ] 256 - - - ( 1 )
+ γ | S i - S j S i | .
式中i表示t时刻的一个单运动目标区域(i∈R),j表示t+1时刻的一个运动目标区域(j∈W),α、β、γ分别表示区域位置、区域颜色均值以及区域大小的相对变化在代价函数计算中的权值参数,并且α+β+γ=1,这些参数可以动态配置;
对于t时刻未建立对应关系的每个单运动目标区域m,求出最小的代价函数值:
C m , n 1 = min j ∈ P C m , j 1 - - - ( 2 )
式中P表示t+1时刻未建立对应关系的运动目标区域集合,且 P ⊆ W ;
当该最小代价函数值满足下式:
C m , n 1 ≤ C T 1 - - - ( 3 )
式中CT1是预设的门限参数,则t时刻的单运动目标区域m与t+1时刻的运动目标区域n是同一个目标区域,建立对应关系,并同时更新该运动目标区域的位置(Xc,Yc)、大小S以及区域颜色均值(MR,MG,MB),运动目标区域n被标识为单运动目标区域,并线性预测出其速度(Vx,Vy),循环执行这个匹配过程,直到t时刻没有运动目标区域能与t+1时刻的运动目标区域建立对应关系为止;
3)当t时刻的所有单运动目标区域在t+1时刻的运动目标区域中都找到了对应的关系时,则t+1时刻单运动目标区域的跟踪匹配过程结束;
4)当t时刻的一些单运动目标区域,由于在t+1时刻出现了遮挡重叠、由初始遮挡状态分离成未遮挡状态或处在退出监控场景的过程中,所以在t+1时刻未找到对应的运动目标区域时,则对于t时刻未找到对应关系的每个单运动目标区域m按顺序采取下面的处理步骤:
a)通过未找到对应关系的单运动目标区域m的像素的位置判断,如果该运动区域目标m在t时刻靠近或已在监控场景边界则定义新的代价函数如(4)式:
C i , j 2 = ( X c , i + V x , i - X c , j V x , i ) 2 + ( Y c , i + V y , i - Y c , j V y , i ) 2 - - - ( 4 )
求出该区域与t+1时刻未建立对应关系的所有运动目标区域之间最小的代价函数值Cm,m 1,若该最小代价函数值满足:
C m , n 2 ≤ C T 2 - - - ( 5 )
式(5)中CT2是预设的门限参数,并且t+1时刻的运动目标区域n已在监控场景边界,则t时刻的运动目标m与t+1时刻的运动目标区域n是同一个运动目标区域,建立对应关系,运动目标区域n的类型仍保持为单运动目标区域类型,并同时更新该运动目标区域的位置(Xc,Yc)、大小S以及区域颜色均值(MR,MG,MB),并线性预测出其速度(Vx,Vy);
b)通过未找到对应关系的单运动目标区域m的像素的位置判断,如果该运动目标区域m在t时刻不靠近或不在监控场景边界,而在t+1时刻有未建立对应关系的运动目标区域n的外接矩形与该运动目标区域的外接矩形相互重叠:
i)若t时刻该运动目标区域m的外接矩形除了与t+1时刻运动目标区域n的外接矩形重叠之外,还与其他t+1时刻未被关联的运动目标区域存在重叠,则可以判定该运动目标区域m在t+1时刻发生分离,判定t+1时刻的这些运动目标区域为新的分离目标,并都标记为单运动目标区域类型,启动新的运动目标区域标号进行跟踪;
ii)若t+1时刻运动目标区域n的外接矩形除了与t时刻遇到弄目标区域m的外接矩形重叠之外,还与其他t时刻未被关联的运动目标区域存在重叠,则可以判定该运动目标区域m在t+1时刻发生重叠,t+1时刻的运动目标区域n标识为复合运动目标区域,t+1时刻后运动目标区域m的跟踪模型动态切换到基于SIFT特征的窄基线图像匹配模型。
所述的采用基于SIFT特征的窄基线图像匹配模型进行跟踪检测方法如下:
由于被跟踪目标在相邻图像帧之间尺度和外形变化很小,所以只需在原图像分辨率上相近的几个尺度因子之间计算SIFT特征关键点位置,SIFT检测参数O=1(Number of Octaves),omin=0(First of Octave),S=3(Number of Scale levels),得到的尺度因子如下:
σ(o,s)=σ02o+s/S=σ02s/S
式中:σ0=1.6×21/S,o∈[omin,omin+O-1]=0,s∈[smin,smax]=[-1,S]=[-1,3],同时去除低对比度的关键点和不稳定的边缘响应点,以增强匹配稳定性、提高抗噪声能力。关于SIFT特征检测的具体细节参考David G.Lowe的文献“Distinctive image features from scale-invariant keypoints”。
对处于遮挡状态的复合运动目标区域的后续跟踪,通过如下方法确定该复合运动目标在新时刻的位置,以减少进行SIFT特征匹配的区域范围:
1)设在t时刻出现复合运动目标区域集合为K,而在t+1时刻未建立对应关系的运动目标区域集合为H;
2)建立t时刻复合运动目标区域与t+1时刻运动目标区域之间的对应关系:
定义如下代价函数:
C i , j 3 = a ( X c , i + V x , i - X c , j V x , i ) 2 + ( Y c , i + V y , i - Y c , j V y , i ) 2 (6)
+ b | S i - S j S i | .
式(6)中i表示t时刻的一个复合运动目标区域(i∈K),j表示t+1时刻的一个未被对应的运动目标区域(j∈H),a和b分别表示区域位置和区域大小的相对变化在代价函数计算中的权值参数,并且a+b=1,这些参数可以动态配置,对于t时刻未建立对应关系的每个复合运动目标区域m,利用式(7)求出最小的代价函数值:
C m , n 3 = min j ∈ P C m . j 3 - - - ( 7 )
式(7)中P表示t+1时刻未建立对应关系的运动目标区域集合, P ⊆ H ;
当该最小代价函数值满足下式(8):
C m , n 3 ≤ C T 3 - - - ( 8 )
式(8)中CT3是预设的门限参数,则t时刻的运动目标区域m与t+1时刻的运动目标区域n是同一个复合运动目标区域,建立t时刻复合运动目标区域与t+1时刻运动目标区域之间的对应关系,并同时更新该复合运动目标区域的位置(Xc,Yc)、大小S,并线性预测出其速度(Vx,Vy),循环执行这个匹配过程,直到没有复合运动目标区域能建立对应关系为止;
3)当t时刻的所有复合运动目标区域在t+1时刻的运动目标区域中都找到了对应的关系时,则t+1时刻复合运动目标区域的匹配过程结束;
4)当t时刻的一些复合运动目标区域,由于在t+1时刻增加了遮挡目标、从遮挡状态分离或处在退出监控场景的过程中,所以在t+1时刻未找到对应的运动目标区域时,则对于t时刻未找到匹配关系的每个复合运动目标区域按顺序采取下面的处理步骤:
a)通过未找到对应关系的复合运动目标区域m的像素的位置判断,如果该运动目标m在t时刻靠近或已在监控场景边界,则新代价函数定义如(9)式:
C i , j 4 = ( X c , i + V x , i - X c , j V x , i ) 2 + ( Y c , i + V y , i - Y c , j V y , i ) 2 - - - ( 9 )
求根据式(7)出该运动目标区域m与t+1时刻未建立对应关系的所有运动目标区域之间最小的代价函数值C4 m,n,若该最小代价函数值满足:
C m , n 2 ≤ C T 2 - - - ( 10 )
式(10)中CT4是预设的门限参数,并且t+1时刻的运动目标区域n已在监控区域边界,则t时刻的运动目标区域m与t+1时刻的运动目标区域n是同一个复合运动目标区域,建立对应关系,运动目标区域n的类型仍保持为复合运动目标区域类型,并同时更新该运动目标区域的位置(Xc,Yc)、大小S,并线性预测出其速度(Vx,Vy);
b)通过未找到对应关系的复合运动目标区域m的像素的位置判断,如果该运动目标区域m在t时刻不靠近或不在监控区域边界,而在t+1时刻有未建立对应关系的运动目标区域n的外接矩形与该运动目标区域的外接矩形重叠,
i)若t时刻该运动目标区域m的外接矩形除了与t+1时刻运动目标区域n的外接矩形重叠之外,还与其他t+1时刻未被关联的运动目标区域存在重叠,则可以判定该运动目标区域m在t+1时刻发生分离,判定t+1时刻的这些运动目标区域为新的分离运动目标区域,并根据SIFT匹配结果标记各个分离后的运动目标区域的类型,若为单运动目标区域类型则重新建立对应关系,切换到相应的模型进行跟踪;
ii)若t+1时刻运动目标区域n的外接矩形除了与t时刻运动目标区域m的外接矩形重叠之外,还与其他t时刻未被关联的运动目标区域存在重叠,则可以判定该运动目标区域m在t+1时刻又增加了遮挡运动目标区域,新增加的运动目标区域被整合到t+1时刻的复合运动目标区域n中进行跟踪。

Claims (4)

1.一种实时跟踪运动目标区域的智能监控装置,包括:
一视频输入设备,用于获得视频数据;
一视觉分析系统,由通过DPRAM接口模块相连接的嵌入式CPU和DSP处理器组成,用于处理视频输入系统获得的视频数据;
一网络输入输出设备,用于将视觉分析系统处理后的视频数据输出和输入用于控制视觉分析系统的指令;
为进行运动目标区域的实时跟踪检测,所述的DSP处理器执行以下步骤:
(1)DSP处理器初始化;
(2)从在监控区域获得的视频数据中检测出运动目标区域并输出运动目标区域;
(3)将所有的运动目标区域采用基于区域跟踪的模型进行跟踪检测,识别出未遮挡的单运动目标区域和相互遮挡的复合运动目标区域两种类型的运动目标区域;
对未遮挡的单运动目标区域采用基于区域跟踪的模型进行跟踪检测,对相互遮挡的复合运动目标区域采用基于SIFT特征的窄基线图像匹配模型进行跟踪检测,在跟踪检测时,动态识别运动目标区域类型的改变并检测新的运动目标区域,对类型改变后的运动目标区域采用对应的模型进行跟踪检测,对新的运动目标区域采用基于区域跟踪的模型进行跟踪检测;
(4)通过网络输入输出设备输出运动目标区域跟踪检测信息。
2.根据权利要求1所述的网络化智能摄像机系统,其特征在于,所述的嵌入式CPU采用实时操作系统RTOS,所述的DSP处理器采用定时中断循环驱动模式。
3.根据权利要求1所述的一种实时跟踪运动目标区域的智能监控装置,其特征在于,所述的步骤(3)中的基于区域跟踪的模型跟踪检测方法如下:
1)每个都用一个外接矩形表示,该矩形几何中心的二维图像坐标表示为(Xc,Yc),目标区域的大小用像素个数表示,表示为S,运动目标区域的运动速度表示为(Vx,Vy),目标区域所有像素的RGB空间颜色均值表示为(MR,MG,MB);
在t时刻检测出的单运动目标区域的集合为R,并且对每个单运动目标区域都建立了对应的跟踪标号,在t+1时刻检测出的运动目标区域集合W,其中t为任意一个时刻,t+1为t时刻的下一时刻;
2)用最小代价准则建立t时刻的单运动目标区域与t+1时刻的运动目标区域之间的对应关系;
定义两个运动目标区域之间的代价函数如下:
C i , j 1 = α ( X c , i + V x , i - X c , j V x , i ) 2 + ( Y c , i + V y , i - Y c , j V y , i ) 2
+ β [ | M R , i - M R , j | + | M G , i - M G , j | + | M B , i - M B , j | ] 256 - - - ( 1 )
+ γ | S i - S j S i | .
式中i表示t时刻的一个单运动目标区域(i∈R),j表示t+1时刻的一个运动目标区域(j∈W),α、β、γ分别表示区域位置、区域颜色均值以及区域大小的相对变化在代价函数计算中的权值参数,并且α+β+γ=1,这些参数可以动态配置;
对于t时刻未建立对应关系的每个单运动目标区域m,求出最小的代价函数值:
C m , n 1 = min j ∈ P C m , j 1 - - - ( 2 )
式中P表示t+1时刻未建立对应关系的运动目标区域集合,且 P ⊆ W ;当该最小代价函数值满足下式:
C m , n 1 ≤ C T 1 - - - ( 3 )
式中CT1是预设的门限参数,则t时刻的单运动目标区域m与t+1时刻的运动目标区域n是同一个目标区域,建立对应关系,并同时更新该运动目标区域的位置(Xc,Yc)、大小S以及区域颜色均值(MR,MG,MB),运动目标区域n被标识为单运动目标区域,并线性预测出其速度(Vx,Vy),循环执行这个匹配过程,直到t时刻没有运动目标区域能与t+1时刻的运动目标区域建立对应关系为止;
3)当t时刻的所有单运动目标区域在t+1时刻的运动目标区域中都找到了对应的关系时,则t+1时刻单运动目标区域的跟踪匹配过程结束;
4)当t时刻的一些单运动目标区域,由于在t+1时刻出现了遮挡重叠、由初始遮挡状态分离成未遮挡状态或处在退出监控场景的过程中,所以在t+1时刻未找到对应的运动目标区域时,则对于t时刻未找到对应关系的每个单运动目标区域m按顺序采取下面的处理步骤:
a)通过未找到对应关系的单运动目标区域m的像素的位置判断,如果该运动区域目标m在t时刻靠近或已在监控场景边界则定义新的代价函数如(4)式:
C i , j 2 = ( X c , i + V x , i - X c , j V x , i ) 2 + ( Y c , i + V y , i - Y c , j V y , i ) 2 - - - ( 4 )
求出该运动目标区域与t+1时刻未建立对应关系的所有运动目标区域之间最小的代价函数值Cm,n 1,若该最小代价函数值满足:
C m , n 2 ≤ C T 2 - - - ( 5 )
式(5)中CT2是预设的门限参数,并且t+1时刻的运动目标区域n已在监控场景边界,则t时刻的运动目标m与t+1时刻的运动目标区域n是同一个运动目标区域,建立对应关系,运动目标区域n的类型仍保持为单运动目标区域类型,并同时更新该运动目标区域的位置(Xc,Yc)、大小S以及区域颜色均值(MR,MG,MB),并线性预测出其速度(Vx,Vy);
b)通过未找到对应关系的单运动目标区域m的像素的位置判断,如果该运动目标区域m在t时刻不靠近或不在监控场景边界,而在t+1时刻有未建立对应关系的运动目标区域n的外接矩形与该运动目标区域的外接矩形相互重叠:
i)若t时刻该运动目标区域m的外接矩形除了与t+1时刻运动目标区域n的外接矩形重叠之外,还与其他t+1时刻未被关联的运动目标区域存在重叠,则可以判定该运动目标区域m在t+1时刻发生分离,判定t+1时刻的这些运动目标区域为新的分离目标,并都标记为单运动目标区域类型,启动新的运动目标区域标号进行跟踪;
ii)若t+1时刻运动目标区域n的外接矩形除了与t时刻遇到弄目标区域m的外接矩形重叠之外,还与其他t时刻未被关联的运动目标区域存在重叠,则可以判定该运动目标区域m在t+1时刻发生重叠,t+1时刻的运动目标区域n标识为复合运动目标区域,t+1时刻后运动目标区域m的跟踪模型动态切换到基于SIFT特征的窄基线图像匹配模型。
4.根据权利要求1所述的一种实时跟踪运动目标区域的智能监控装置,其特征在于步骤(3)中的基于SIFT特征的窄基线图像匹配模型进行跟踪检测方法如下:
设置SIFT检测参数O=1(Number of Octaves),omin=0(First of Octave),S=3(Number of Scale levels),得到的尺度因子如下:
σ(o,s)=σ02o+s/S=σ02s/S
式中:σ0=1.6×21/S,o∈[omin,omin+O-1]=0,s∈[smin,smax]=[-1,S]=[-1,3],同时去除低对比度的关键点和不稳定的边缘响应点;
通过如下方法确定该复合运动目标区域在新时刻的位置,进行实时跟踪:
1)设在t时刻出现复合运动目标区域集合为K,而在t+1时刻未建立对应关系的运动目标区域集合为H;
2)建立t时刻复合运动目标区域与t+1时刻运动目标区域之间的对应关系:
定义如下代价函数:
C i , j 3 = a ( X c , i + V x , i - X c , j V x , i ) 2 + ( Y c , i + V y , i - Y c , j V y , i ) 2 - - - ( 6 )
+ b | S i - S j S i | .
式(6)中i表示t时刻的一个复合运动目标区域(i∈K),j表示t+1时刻的一个未被对应的运动目标区域(j∈H),a和b分别表示区域位置和区域大小的相对变化在代价函数计算中的权值参数,并且a+b=1,这些参数可以动态配置,对于t时刻未建立对应关系的每个复合运动目标区域m,利用式(7)求出最小的代价函数值:
C m , n 3 = min j ∈ P C m , j 3 - - - ( 7 )
式(7)中P表示t+1时刻未建立对应关系的运动目标区域集合, P ⊆ H ; 当该最小代价函数值满足下式(8):
C m , n 3 ≤ C T 3 - - - ( 8 )
式(8)中CT3是预设的门限参数,则t时刻的运动目标区域m与t+1时刻的运动目标区域n是同一个复合运动目标区域,建立t时刻复合运动目标区域与t+1时刻运动目标区域之间的对应关系,并同时更新该复合运动目标区域的位置(Xc,Yc)、大小S,并线性预测出其速度(Vx,Yy),循环执行这个匹配过程,直到没有复合运动目标区域能建立对应关系为止;
3)当t时刻的所有复合运动目标区域在t+1时刻的运动目标区域中都找到了对应的关系时,则t+1时刻复合运动目标区域的匹配过程结束;
4)当t时刻的一些复合运动目标区域,由于在t+1时刻增加了遮挡目标、从遮挡状态分离或处在退出监控场景的过程中,所以在t+1时刻未找到对应的运动目标区域时,则对于t时刻未找到匹配关系的每个复合运动目标区域按顺序采取下面的处理步骤:
a)通过未找到对应关系的复合运动目标区域m的像素的位置判断,如果该运动目标m在t时刻靠近或已在监控场景边界,则新代价函数定义如(9)式:
C i , j 4 = ( X c , i + V x , i - X c , j V x , i ) 2 + ( Y c , i + V y , i - Y c , j V y , i ) 2 - - - ( 9 )
求根据式(7)出该运动目标区域m与t+1时刻未建立对应关系的所有运动目标区域之间最小的代价函数值C4 m,n,若该最小代价函数值满足:
C m , n 2 ≤ C T 2 - - - ( 10 )
式(10)中CT4是预设的门限参数,并且t+1时刻的运动目标区域n已在监控区域边界,则t时刻的运动目标区域m与t+1时刻的运动目标区域n是同一个复合运动目标区域,建立对应关系,运动目标区域n的类型仍保持为复合运动目标区域类型,并同时更新该运动目标区域的位置(Xc,Yc)、大小S,并线性预测出其速度(Vx,Vy);
b)通过未找到对应关系的复合运动目标区域m的像素的位置判断,如果该运动目标区域m在t时刻不靠近或不在监控区域边界,而在t+1时刻有未建立对应关系的运动目标区域n的外接矩形与该运动目标区域的外接矩形重叠,
i)若t时刻该运动目标区域m的外接矩形除了与t+1时刻运动目标区域n的外接矩形重叠之外,还与其他t+1时刻未被关联的运动目标区域存在重叠,则可以判定该运动目标区域m在t+1时刻发生分离,判定t+1时刻的这些运动目标区域为新的分离运动目标区域,并根据SIFT匹配结果标记各个分离后的运动目标区域的类型,若为单运动目标区域类型则重新建立对应关系,切换到相应的模型进行跟踪;
ii)若t+1时刻运动目标区域n的外接矩形除了与t时刻运动目标区域m的外接矩形重叠之外,还与其他t时刻未被关联的运动目标区域存在重叠,则可以判定该运动目标区域m在t+1时刻又增加了遮挡运动目标区域,新增加的运动目标区域被整合到t+1时刻的复合运动目标区域n中进行跟踪。
CN 200810120167 2008-07-30 2008-07-30 一种实时跟踪运动目标区域的智能监控装置 Active CN101355692B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN 200810120167 CN101355692B (zh) 2008-07-30 2008-07-30 一种实时跟踪运动目标区域的智能监控装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN 200810120167 CN101355692B (zh) 2008-07-30 2008-07-30 一种实时跟踪运动目标区域的智能监控装置

Publications (2)

Publication Number Publication Date
CN101355692A true CN101355692A (zh) 2009-01-28
CN101355692B CN101355692B (zh) 2013-03-20

Family

ID=40308235

Family Applications (1)

Application Number Title Priority Date Filing Date
CN 200810120167 Active CN101355692B (zh) 2008-07-30 2008-07-30 一种实时跟踪运动目标区域的智能监控装置

Country Status (1)

Country Link
CN (1) CN101355692B (zh)

Cited By (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101820532A (zh) * 2010-03-17 2010-09-01 上海大学 一种全三维智能虚拟机房的实现方法
CN101877780A (zh) * 2009-04-28 2010-11-03 北京中星微电子有限公司 实时智能视频监控系统
CN102122359A (zh) * 2011-03-03 2011-07-13 北京航空航天大学 一种图像配准方法及装置
CN102438118A (zh) * 2011-11-30 2012-05-02 哈尔滨工业大学 一种运动目标特征高速视觉捕捉装置
CN102479386A (zh) * 2010-11-24 2012-05-30 湘潭大学 基于单目视频的人体上半身三维运动跟踪方法
CN102494675A (zh) * 2011-11-30 2012-06-13 哈尔滨工业大学 一种运动目标特征高速视觉捕捉方法
CN102521580A (zh) * 2011-12-21 2012-06-27 华平信息技术(南昌)有限公司 实时目标匹配跟踪方法及系统
CN102736079A (zh) * 2012-07-10 2012-10-17 中国船舶重工集团公司第七二四研究所 一种船舶交通导航系统对穿越桥梁状态下的船舶跟踪实现方法
CN102831617A (zh) * 2012-07-17 2012-12-19 聊城大学 一种运动目标检测与跟踪的方法和系统
CN103186903A (zh) * 2013-04-22 2013-07-03 苏州科技学院 一种基于pid的运动目标检测跟踪系统
CN103761523A (zh) * 2014-01-02 2014-04-30 北京理工大学 一种机载遥感视频特定人造区域自动识别跟踪方法
CN103903282A (zh) * 2014-04-08 2014-07-02 陕西科技大学 一种基于LabVIEW的目标跟踪方法
CN104077779A (zh) * 2014-07-04 2014-10-01 中国航天科技集团公司第五研究院第五一三研究所 高斯背景模型与均值漂移跟踪结合的运动目标统计方法
CN104253981A (zh) * 2014-09-28 2014-12-31 武汉烽火众智数字技术有限责任公司 一种用于视频侦查的运动目标按颜色排序的方法
CN104718560A (zh) * 2012-10-09 2015-06-17 Sk电信有限公司 用于估计单体的大小的图像监测装置及其方法
WO2016008180A1 (zh) * 2014-07-15 2016-01-21 苏州阔地网络科技有限公司 一种跟踪区域切换控制方法及系统
CN105303182A (zh) * 2015-07-30 2016-02-03 三峡大学 一种长时间鱼类跟踪方法
CN106296722A (zh) * 2015-05-25 2017-01-04 联想(北京)有限公司 一种信息处理方法及电子设备
CN106384359A (zh) * 2016-09-23 2017-02-08 青岛海信电器股份有限公司 运动目标跟踪方法和电视
CN106558069A (zh) * 2016-10-10 2017-04-05 广东技术师范学院 一种基于视频监控下的目标跟踪方法及系统
CN106650592A (zh) * 2016-10-05 2017-05-10 北京深鉴智能科技有限公司 目标追踪系统
CN112911151A (zh) * 2021-01-29 2021-06-04 京东数科海益信息科技有限公司 目标跟随方法、装置、设备、系统及存储介质
CN113012704A (zh) * 2014-07-28 2021-06-22 弗劳恩霍夫应用研究促进协会 用于处理音频信号的方法和装置,音频解码器和音频编码器
CN113538500A (zh) * 2021-09-10 2021-10-22 科大讯飞(苏州)科技有限公司 图像分割方法、装置、电子设备和存储介质
CN117252899A (zh) * 2023-09-26 2023-12-19 探维科技(苏州)有限公司 目标跟踪方法和装置

Cited By (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101877780A (zh) * 2009-04-28 2010-11-03 北京中星微电子有限公司 实时智能视频监控系统
CN101820532A (zh) * 2010-03-17 2010-09-01 上海大学 一种全三维智能虚拟机房的实现方法
CN102479386A (zh) * 2010-11-24 2012-05-30 湘潭大学 基于单目视频的人体上半身三维运动跟踪方法
CN102122359A (zh) * 2011-03-03 2011-07-13 北京航空航天大学 一种图像配准方法及装置
CN102122359B (zh) * 2011-03-03 2013-01-23 北京航空航天大学 一种图像配准方法及装置
CN102438118A (zh) * 2011-11-30 2012-05-02 哈尔滨工业大学 一种运动目标特征高速视觉捕捉装置
CN102494675A (zh) * 2011-11-30 2012-06-13 哈尔滨工业大学 一种运动目标特征高速视觉捕捉方法
CN102521580A (zh) * 2011-12-21 2012-06-27 华平信息技术(南昌)有限公司 实时目标匹配跟踪方法及系统
CN102736079A (zh) * 2012-07-10 2012-10-17 中国船舶重工集团公司第七二四研究所 一种船舶交通导航系统对穿越桥梁状态下的船舶跟踪实现方法
CN102831617A (zh) * 2012-07-17 2012-12-19 聊城大学 一种运动目标检测与跟踪的方法和系统
CN104718560A (zh) * 2012-10-09 2015-06-17 Sk电信有限公司 用于估计单体的大小的图像监测装置及其方法
CN104718560B (zh) * 2012-10-09 2017-05-17 Sk电信有限公司 用于估计单体的大小的图像监测装置及其方法
CN103186903A (zh) * 2013-04-22 2013-07-03 苏州科技学院 一种基于pid的运动目标检测跟踪系统
CN103761523A (zh) * 2014-01-02 2014-04-30 北京理工大学 一种机载遥感视频特定人造区域自动识别跟踪方法
CN103903282A (zh) * 2014-04-08 2014-07-02 陕西科技大学 一种基于LabVIEW的目标跟踪方法
CN104077779A (zh) * 2014-07-04 2014-10-01 中国航天科技集团公司第五研究院第五一三研究所 高斯背景模型与均值漂移跟踪结合的运动目标统计方法
CN104077779B (zh) * 2014-07-04 2017-01-25 中国航天科技集团公司第五研究院第五一三研究所 高斯背景模型与均值漂移跟踪结合的运动目标统计方法
WO2016008180A1 (zh) * 2014-07-15 2016-01-21 苏州阔地网络科技有限公司 一种跟踪区域切换控制方法及系统
CN113012704B (zh) * 2014-07-28 2024-02-09 弗劳恩霍夫应用研究促进协会 处理音频信号的方法和装置,音频解码器和音频编码器
US11869525B2 (en) 2014-07-28 2024-01-09 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E. V. Method and apparatus for processing an audio signal, audio decoder, and audio encoder to filter a discontinuity by a filter which depends on two fir filters and pitch lag
CN113012704A (zh) * 2014-07-28 2021-06-22 弗劳恩霍夫应用研究促进协会 用于处理音频信号的方法和装置,音频解码器和音频编码器
CN104253981A (zh) * 2014-09-28 2014-12-31 武汉烽火众智数字技术有限责任公司 一种用于视频侦查的运动目标按颜色排序的方法
CN104253981B (zh) * 2014-09-28 2017-11-28 武汉烽火众智数字技术有限责任公司 一种用于视频侦查的运动目标按颜色排序的方法
CN106296722A (zh) * 2015-05-25 2017-01-04 联想(北京)有限公司 一种信息处理方法及电子设备
CN106296722B (zh) * 2015-05-25 2020-06-23 联想(北京)有限公司 一种信息处理方法及电子设备
CN105303182B (zh) * 2015-07-30 2018-07-03 三峡大学 一种长时间鱼类跟踪方法
CN105303182A (zh) * 2015-07-30 2016-02-03 三峡大学 一种长时间鱼类跟踪方法
CN106384359A (zh) * 2016-09-23 2017-02-08 青岛海信电器股份有限公司 运动目标跟踪方法和电视
CN106384359B (zh) * 2016-09-23 2019-06-25 青岛海信电器股份有限公司 运动目标跟踪方法和电视
CN106650592A (zh) * 2016-10-05 2017-05-10 北京深鉴智能科技有限公司 目标追踪系统
CN106558069A (zh) * 2016-10-10 2017-04-05 广东技术师范学院 一种基于视频监控下的目标跟踪方法及系统
CN112911151A (zh) * 2021-01-29 2021-06-04 京东数科海益信息科技有限公司 目标跟随方法、装置、设备、系统及存储介质
CN112911151B (zh) * 2021-01-29 2023-04-07 京东科技信息技术有限公司 目标跟随方法、装置、设备、系统及存储介质
CN113538500A (zh) * 2021-09-10 2021-10-22 科大讯飞(苏州)科技有限公司 图像分割方法、装置、电子设备和存储介质
CN113538500B (zh) * 2021-09-10 2022-03-15 科大讯飞(苏州)科技有限公司 图像分割方法、装置、电子设备和存储介质
CN117252899A (zh) * 2023-09-26 2023-12-19 探维科技(苏州)有限公司 目标跟踪方法和装置
CN117252899B (zh) * 2023-09-26 2024-05-17 探维科技(苏州)有限公司 目标跟踪方法和装置

Also Published As

Publication number Publication date
CN101355692B (zh) 2013-03-20

Similar Documents

Publication Publication Date Title
CN101355692B (zh) 一种实时跟踪运动目标区域的智能监控装置
Wang et al. Development of UAV-based target tracking and recognition systems
Cucchiara et al. Probabilistic posture classification for human-behavior analysis
Kalsotra et al. Background subtraction for moving object detection: explorations of recent developments and challenges
CN109543641B (zh) 一种实时视频的多目标去重方法、终端设备及存储介质
CN111798487A (zh) 目标跟踪方法、装置和计算机可读存储介质
CN103440667A (zh) 一种遮挡状态下运动目标稳定追踪的自动装置
CN113723190A (zh) 一种面向同步移动目标的多目标跟踪方法
CN104217428A (zh) 一种融合特征匹配和数据关联的视频监控多目标跟踪方法
US20220262093A1 (en) Object detection method and system, and non-transitory computer-readable medium
CN111047626A (zh) 目标跟踪方法、装置、电子设备及存储介质
Mekonnen et al. Comparative evaluations of selected tracking-by-detection approaches
Yadav Vision-based detection, tracking, and classification of vehicles
Yang et al. Intelligent video analysis: A Pedestrian trajectory extraction method for the whole indoor space without blind areas
Zhang et al. New mixed adaptive detection algorithm for moving target with big data
Sledeviè et al. FPGA-based selected object tracking using LBP, HOG and motion detection
Jian et al. Vision-based parking slot detection based on end-to-end semantic segmentation training
Ma et al. A Method of Multiple Lane Detection Based on Constraints of Lane Information
Haggui et al. Centroid human tracking via oriented detection in overhead fisheye sequences
CN101330606A (zh) 一种自动侦测运动目标的嵌入式智能监视系统
Zhao et al. Robust visual tracking via CAMShift and structural local sparse appearance model
CN102789645A (zh) 一种用于周界防范的多目标快速跟踪方法
Li et al. Adaptive weighted CNN features integration for correlation filter tracking
CN102521580A (zh) 实时目标匹配跟踪方法及系统
Ju et al. Online multi-object tracking based on hierarchical association framework

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant