CN101877132B - 用于运动跟踪的交互事件处理方法和装置 - Google Patents
用于运动跟踪的交互事件处理方法和装置 Download PDFInfo
- Publication number
- CN101877132B CN101877132B CN200910241627.5A CN200910241627A CN101877132B CN 101877132 B CN101877132 B CN 101877132B CN 200910241627 A CN200910241627 A CN 200910241627A CN 101877132 B CN101877132 B CN 101877132B
- Authority
- CN
- China
- Prior art keywords
- tracking object
- tracking
- foreground area
- estimation range
- point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000033001 locomotion Effects 0.000 title claims abstract description 43
- 230000002452 interceptive effect Effects 0.000 title abstract 3
- 238000003672 processing method Methods 0.000 title abstract 2
- 238000012545 processing Methods 0.000 claims abstract description 29
- 238000000034 method Methods 0.000 claims abstract description 10
- 230000008878 coupling Effects 0.000 claims description 31
- 238000010168 coupling process Methods 0.000 claims description 31
- 238000005859 coupling reaction Methods 0.000 claims description 31
- 238000012544 monitoring process Methods 0.000 abstract description 25
- 230000008859 change Effects 0.000 abstract description 10
- 230000013011 mating Effects 0.000 description 9
- 230000003068 static effect Effects 0.000 description 7
- 230000008569 process Effects 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 4
- 238000001514 detection method Methods 0.000 description 3
- 230000002093 peripheral effect Effects 0.000 description 3
- 238000012217 deletion Methods 0.000 description 2
- 230000037430 deletion Effects 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000018109 developmental process Effects 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000000903 blocking effect Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000012467 final product Substances 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 230000001052 transient effect Effects 0.000 description 1
Images
Landscapes
- Image Analysis (AREA)
- Closed-Circuit Television Systems (AREA)
Abstract
本发明公开了一种用于运动跟踪的交互事件处理方法和装置。本发明在多个跟踪物体与一个前景区域匹配时,判断各跟踪物体与其他跟踪物体的重叠程度是否严重;对于碰撞程度严重的跟踪物体,如果其能够在预定时间内按照其平移速度再次出现则继续跟踪,否则表示该跟踪物体的运动规律发生明显变化、无法得到正确的预测区域,因而删除该跟踪物体、从而避免该跟踪物体的错误预测区域对视频监控构成干扰;对于碰撞程度不严重的跟踪物体,则表示该跟踪物体的运动规律未发生明显变化、其预测区域不会对视频监控构成较大干扰,因而从匹配的前景区域中分割出对应该跟踪物体的前景区域即可继续跟踪。
Description
技术领域
本发明涉及运动跟踪技术,特别涉及一种用于运动跟踪的交互事件处理方法和装置。
背景技术
视频监控系统的自动处理和智能化是目前监控设备发展的一个必然需求。现有的各类视频监控系统在功能和性能上的局限性,使得各类视频监控系统均或多或少的存在报警精确度差等缺陷。因此,智能的视频监控系统就成为必然需求。
智能的视频监控主要针对静止摄像头拍摄的监控视频,并分析视频中与背景有区别的跟踪物体。因而跟踪物体的检测与跟踪就是智能视频监控最基本和核心的技术,对整个系统的发展水平起着至关重要的作用。
跟踪的具体实现方式可以为:先依据跟踪物体的前景区域在两帧图像之间的位置差,预测该跟踪物体的平移速度;再依据平移速度预测跟踪物体在下一帧图像中的预测区域;最后将下一帧图像中匹配预测区域的前景区域确定为跟踪物体的前景区域,即可实现对跟踪物体的跟踪。
实际应用中,监控场景内经常会有多个跟踪物体同时出现,跟踪物体之间也就难免会发生交互。例如,两个跟踪物体迎面碰撞后分开,或者一个跟踪物体追上另一个跟踪物体碰撞后分开;再例如,一个跟踪物体追上另一个跟踪物体以至于其中一个被另一个遮挡,或两个跟踪物体反向相互交错以至于其中一个被另一个遮挡。
对于碰撞这种情况,两个跟踪物体的平移速度的大小和/或方向都会受到影响,因而会使运动预测的平移速度与实际情况发生偏离,从而使得该跟踪物体的预测区域偏离实际位置,进而导致出现大量无用的预测区域;
对于遮挡这种情况,由于被遮挡跟踪物体的大部分像素不可见,因而如果被遮挡跟踪物体平移速度的大小和/或方向在被遮挡期间发生明显变化,则会使得该跟踪物体的预测区域偏离实际位置,进而导致出现大量无用的预测区域。
而上述偏离实际位置的预测区域会对视频监控带来例如虚警等不必要的干扰。
可见,现有技术中对跟踪物体交互事件的处理,会由于运动跟踪中出现的错误预测区域而对视频监控带来干扰。
发明内容
有鉴于此,本发明提供了一种用于运动跟踪的交互事件处理方法和装置,能够减少物体跟踪时出现的错误预测区域对视频监控的干扰。
本发明提供的一种用于运动跟踪的交互事件处理方法,包括:
a1、根据当前输入图像中的前景区域,计算前一帧图像中各跟踪物体的平移速度;
a2、根据各跟踪物体的平移速度,计算各跟踪物体在当前输入图像中的预测区域;
a3、根据各跟踪物体的预测区域分别与各前景区域的重叠程度,确定每一跟踪物体所匹配的前景区域;
所述步骤a3之后,针对匹配同一前景区域的多个跟踪物体,该方法还包括:
a4、根据所述多个跟踪物体的预测区域之间的重叠部分,计算出所述多个跟踪物体的碰撞区域;
a5、对于所述多个跟踪物体中的每个跟踪物体,判断该跟踪物体预测区域位于所述碰撞区域内的部分,在该跟踪物体预测区域内所占的比例是否大于预定值,对于大于所述预定值的跟踪物体执行步骤a6,对于小于等于所述预定值的跟踪物体执行步骤a7;
a6、依据跟踪物体相对于摄像头的前后位置关系,确定匹配的前景区域为位置在前的跟踪物体在当前输入图像中对应的前景区域,同时记录位置在后的跟踪物体暂时消失,用以在预定时间内位置在后的跟踪物体依照其平移速度再次出现时继续跟踪、在预定时间内位置在后的跟踪物体未依照其平移速度再出现时予以删除;
a7、从匹配的前景区域中分割得到该跟踪物体在当前输入图像中对应的前景区域。
所述步骤a4包括:将所述多个跟踪物体的预测区域的交集,确定为所述多个跟踪物体的碰撞区域;或者,计算得到所述多个跟踪物体中每两个跟踪物体预测区域的交集,再将所计算出的各交集的合集确定为所述多个跟踪物体的碰撞区域。
所述步骤a6进一步依据摄像头的拍摄角度、以及跟踪物体的预测区域在图像中的位置,确定相对于摄像头的前后位置关系。
所述步骤a6进一步为位置在后的跟踪物体设置一计数器;
在所述步骤a6之后,每收到下一帧图像时,如果位置在后的跟踪物体未在该下一帧图像中出现则对该计数器加1,直至计数器达到预定计数值时,确定预定时间内未再出现位置在后的跟踪物体。
所述步骤a7进一步按照跟踪物体的预测区域的面积和形状,从匹配的前景区域中分割得到该跟踪物体在当前输入图像中对应的前景区域。
本发明提供的一种用于运动跟踪的交互事件处理装置,包括:
运动估算模块,用于根据当前输入图像中的前景区域,计算前一帧图像中各跟踪物体的平移速度;
预测跟踪模块,用于根据各跟踪物体的平移速度,计算各跟踪物体在当前输入图像中的预测区域;
区域匹配模块,用于根据各跟踪物体的预测区域分别与各前景区域的重叠程度,确定每一跟踪物体所匹配的前景区域;
针对匹配同一前景区域的多个跟踪物体,该装置还包括:
区域重叠模块,用于根据所述多个跟踪物体的预测区域之间的重叠部分,计算出所述多个跟踪物体的碰撞区域;
交互判别模块,用于对于所述多个跟踪物体中的每个跟踪物体,判断该跟踪物体预测区域位于所述碰撞区域内的部分,在该跟踪物体预测区域内所占的比例是否大于预定值,对于大于所述预定值的跟踪物体通知第一处理模块予以处理,对于小于等于所述预定值的跟踪物体通知第二处理模块予以处理;
第一处理模块,用于依据跟踪物体相对于摄像头的前后位置关系,确定匹配的前景区域为位置在前的跟踪物体在当前输入图像中对应的前景区域,同时记录位置在后的跟踪物体暂时消失,用以在预定时间内位置在后的跟踪物体依照其平移速度再次出现时继续跟踪、在预定时间内位置在后的跟踪物体未依照其平移速度再出现时予以删除;
第二处理模块,用于按照跟踪物体的预测区域的面积和形状,从匹配的前景区域中分割得到该跟踪物体在当前输入图像中对应的前景区域。
所述区域重叠模块将所述多个跟踪物体的预测区域的交集,确定为所述多个跟踪物体的碰撞区域,或者,计算得到所述多个跟踪物体中每两个跟踪物体预测区域的交集,再将所计算出的各交集的合集确定为所述多个跟踪物体的碰撞区域。
所述第一处理模块进一步依据摄像头的拍摄角度、以及跟踪物体的预测区域在图像中的位置,确定相对于摄像头的前后位置关系。
所述第一处理模块进一步为位置在后的跟踪物体设置一计数器,在每收到下一帧图像时,如果位置在后的跟踪物体未在该下一帧图像中出现则对该计数器加1,直至计数器达到预定计数值时,确定预定时间内未再出现位置在后的跟踪物体。
所述第二处理模块进一步按照跟踪物体的预测区域的面积和形状,从匹配的前景区域中分割得到该跟踪物体在当前输入图像中对应的前景区域。
由上述技术方案可见,本发明在多个跟踪物体与一个前景区域匹配时,首先计算出各跟踪物体之间的碰撞区域,然后依据各跟踪物体在碰撞区域内的部分所占比例,判断各跟踪物体与其他跟踪物体的重叠程度是否严重;对于碰撞程度严重的跟踪物体,如果其能够在预定时间内按照其平移速度再次出现则继续跟踪,否则表示该跟踪物体的运动规律发生明显变化、无法得到正确的预测区域,因而删除该跟踪物体、从而避免该跟踪物体的错误预测区域对视频监控构成干扰;对于碰撞程度不严重的跟踪物体,则表示该跟踪物体的运动规律未发生明显变化、其预测区域不会对视频监控构成较大干扰,因而从匹配的前景区域中分割出对应该跟踪物体的前景区域即可继续跟踪。
附图说明
图1为本发明实施例中交互事件处理方法的流程示意图;
图2为本发明实施例中交互事件处理装置的结构示意图。
具体实施方式
为使本发明的目的、技术方案及优点更加清楚明白,以下参照附图并举实施例,对本发明进一步详细说明。
本发明实施例中利用现有前景检测技术检测到当前图像中的各前景区域,若多个跟踪物体与一个前景区域匹配,则认为这些物体发生了交互。然后利用这些跟踪物体的预测区域之间的重叠程度,来决定如何对交互事件进行处理。对于各跟踪物体之间重叠程度较为轻微的情况,跟踪物体的预测区域不会对视频监控造成太大的干扰,因而可将前景区域分割、以便于可以继续对各跟踪物体的跟踪;而对于各跟踪物体之间重叠程度较为明显的情况,则认为有跟踪物体将其他跟踪物体暂时遮挡、或发生严重碰撞,如果被遮挡或严重碰撞的跟踪能够在预定时间内按照其平移速度再次出现,则表示跟踪物体的预测区域不会对视频监控造成太大的干扰,因而可继续跟踪,否则表示该跟踪物体的运动规律发生明显变化、无法得到正确的预测区域,因而删除该跟踪物体、以实现对交互事件的简化处理,从而避免该跟踪物体的错误预测区域对视频监控构成干扰。
图1为本发明实施例中交互事件处理方法的流程示意图。如图1所示,本实施例中用于运动跟踪的交互事件处理方法依次将监控视频中的每一帧图像作为当前图像,并对当前图像执行如下步骤:
步骤101,利用现有例如块匹配等运动估算技术,根据当前输入图像中的前景区域,计算前一帧图像中各跟踪物体的平移速度。
步骤102,利用现有预测跟踪方式,根据各跟踪物体的平移速度,计算各跟踪物体在当前输入图像中的预测区域。
步骤103,按照现有任一种区域匹配方式,根据各跟踪物体在当前输入图像中的预测区域与所述各前景点构成的每一前景区域的重叠程度,确定每一跟踪物体所匹配的前景区域。
步骤104,判断是否存在多个跟踪物体与同一个前景区域匹配,对于匹配同一个前景区域的多个跟踪物体执行步骤105,而对于与前景区域一一匹配的跟踪物体执行步骤109。
步骤105,根据匹配同一个前景区域的多个跟踪物体的预测区域之间的重叠部分,计算出多个跟踪物体的碰撞区域,然后执行步骤106。
步骤106,判断各跟踪物体的预测区域位于碰撞区域内的部分,在该跟踪物体预测区域内所占的比例是否大于表示重叠程度严重的预定值,如果是则执行步骤107、否则执行步骤108。
本步骤中可以将匹配同一个前景区域的多个跟踪物体预测区域的最小公共交集,确定为这多个跟踪物体的碰撞区域;或者,可以先计算这多个跟踪物体中每两个跟踪物体预测区域的交集,然后将计算得到的各交集的并集、即合集确定为这多个跟踪物体的碰撞区域。
步骤107,对于预测区域位于碰撞区域内的部分所占比例大于预定值的跟踪物体,其可能存在遮挡、被遮挡、或严重碰撞的情况,因此,依据跟踪物体相对于摄像头的前后位置关系,确定匹配的前景区域为位置在前的跟踪物体在当前输入图像中对应的前景区域,但同时,还记录位置在后的跟踪物体暂时消失,这样,如果在预定时间内,位置在后的跟踪物体依照其平移速度再次出现,则表示位置在后的跟踪物体仅仅是暂时被遮挡、且其运动规律未发生明显变化,因而可以继续跟踪;如果在预定时间内,位置在后的跟踪物体未依照其平移速度再出现,则表示该跟踪物体的运动规律可能在被遮挡时发生了明显变化,或该跟踪物体发生了严重碰撞而明显偏离其原有运动规律,因而需要将该跟踪物体、也即该跟踪物体的预测区域删除,以免对视频监控产生较大干扰。
本步骤之后即可结束本流程。
本步骤中,可以依据位置在后跟踪物体的平移速度,预测出该跟踪物体在预定时间内的运动轨迹,具体预测运动轨迹的方式可按照现有任一种方式来实现。
这样,如果预定时间内出再次现了与该跟踪物体匹配的前景区域、且该前景区域位于预测出的运动轨迹上,则表示在预定时间内位置在后的跟踪物体依照其平移速度再次出现;
否则,即便预定时间内出再次现了与该跟踪物体匹配的前景区域,但只要该前景区域不在运动轨迹上,均无法确定该前景区域就是位置在后的跟踪物体所对应的前景区域,因而表示在预定时间内位置在后的跟踪物体未依照其平移速度再出现。
例如,有两个跟踪物体分别为一前一后的两个行人,当后一个行人追上前一个行人后,则两个对应的预测区域与一个前景区域匹配,假设后一个行人减慢速度与前一个行人对话,则后一个行人有可能在预定时间内一直与前一个行人重叠,因而考虑到该后一个行人的运动规律无法预测、即判定该后一个行人消失,即便后一个行人在预定时间内加快速度远离前一个行人,但由于监控场景中还可能出现其他行人的前景区域能够与前述后一个行人匹配,因而在前述后一个行人的运动规律已变化、且不可知时,不能贸然再将任何与后一个行人匹配的前景区域确定为该行人对应的前景区域,从而避免错误的预测区域会对视频监控带来干扰。
再例如,有两个跟踪物体分别为相对行驶的两辆汽车,当两辆汽车迎面碰撞后,两个对应的预测区域与同一个前景区域匹配,虽然两辆汽车相比于摄像头存在前后位置之分,但由于两辆汽车迎面碰撞后均无法再行驶,因而位置在后的一辆在预定时间内不会再出现、且其预测区域被删除,而且依据位置在前的一辆在很长时间内未移动可判定出事故报警,从而不但避免错误的预测区域会对视频监控带来干扰,还简化了某些报警判定。
此外,在本步骤中,可进一步依据摄像头的拍摄角度、以及跟踪物体的预测区域在图像中的位置,确定相对于摄像头的前后位置关系。例如,对于静止摄像头都是自监控场景的侧上方拍摄监控视频的情况,将靠近静止摄像头的方向定为前、远离静止摄像头的方向定为后,且位于前的跟踪物体在图像中的位置会相对靠下,因此,可将预测区域在图像的位置相对靠下的跟踪物体确定为在前的跟踪物体,而将预测区域在图像中的位置相对靠上的跟踪物体确定为在后的跟踪物体。
而对于记录位置在后的跟踪物体暂时消失的方式,可以为:为位置在后的跟踪物体设定一初始值为0的计数器,在每收到下一帧图像时,如果位置在后的跟踪物体未在该下一帧图像中出现则对该计数器加1,直至计数器达到预定计数值时,确定预定时间内未再出现位置在后的跟踪物体。
步骤108,对于预测区域位于碰撞区域内的部分所占比例小于等于预定值的跟踪物体,其可能是发生汽车刮蹭、或行人轻微碰撞交错的跟踪物体,其预测区域不会对视频监控构成很大干扰,因此,从匹配的前景区域中分割得到该跟踪物体在当前输入图像中对应的前景区域,然后结束本流程。
本步骤可进一步按照跟踪物体的预测区域的面积和形状,从匹配的前景区域中分割得到该跟踪物体在当前输入图像中对应的前景区域。例如,在本发明的一个实施例中,可以根据各个跟踪物体的预测区域,搜索该预测区域内的前景点的位置,获取预测区域内前景点的外围矩形,这个外围矩形即可作为该跟踪物体当前帧的外围前景矩形、也就是同一前景区域对应该跟踪物体的分割结果。
步骤109,将与任一跟踪物体一一匹配的前景区域,确定为该跟踪物体在当前输入图像中对应的前景区域,然后结束本流程。
至此,上述流程结束。
需要说明的是,上述步骤108并不涉及交互事件,在此列举仅仅是对上述流程的扩充,实际应用中,步骤108为可选的步骤。
以上是对本实施例中用于运动跟踪的交互事件处理方法的详细说明。下面,再对本实施例中用于运动跟踪的交互事件处理装置进行说明。
图2为本发明实施例中交互事件处理装置的结构示意图。如图2所示,本实施例中用于运动跟踪的交互事件处理装置包括:
运动估算模块201,用于根据当前输入图像中的前景区域,计算前一帧图像中各跟踪物体的平移速度。
预测跟踪模块202,其与运动估算模块201相连,用于根据各跟踪物体的平移速度,计算各跟踪物体在当前输入图像中的预测区域。
区域匹配模块203,其与预测跟踪模块202相连,用于根据各跟踪物体的预测区域分别与各前景区域的重叠程度,确定每一跟踪物体所匹配的前景区域,对于匹配同一个前景区域的多个跟踪物体,通知区域重叠模块204予以处理,对于与前景区域一一匹配的跟踪物体,通知第三处理模块208予以处理。
区域重叠模块204,其与区域匹配模块203相连,用于根据所述多个跟踪物体的预测区域之间的重叠部分,计算出所述多个跟踪物体的碰撞区域。实际应用中,区域重叠模块204可以将匹配同一个前景区域的多个跟踪物体的预测区域的交集,确定为所述多个跟踪物体的碰撞区域,或者,先计算得到这多个跟踪物体中每两个跟踪物体预测区域的交集,再将所计算出的各交集的合集确定为这多个跟踪物体的碰撞区域。
交互判别模块205,其与区域重叠模块204相连,用于对于匹配同一个前景区域的多个跟踪物体中的每个跟踪物体,判断该跟踪物体预测区域位于所述碰撞区域内的部分,在该跟踪物体预测区域内所占的比例是否大于预定值,对于大于所述预定值的跟踪物体通知第一处理模块206予以处理,对于小于等于所述预定值的跟踪物体通知第二处理模块207予以处理。
第一处理模块206,其与交互判别模块205相连,用于依据跟踪物体相对于摄像头的前后位置关系,确定匹配的前景区域为位置在前的跟踪物体在当前输入图像中对应的前景区域,同时记录位置在后的跟踪物体暂时消失;这样,如果在预定时间内,位置在后的跟踪物体依照其平移速度再次出现,则表示位置在后的跟踪物体仅仅是暂时被遮挡、且其运动规律未发生明显变化,因而可以继续跟踪;如果在预定时间内,位置在后的跟踪物体未依照其平移速度再出现,则表示该跟踪物体的运动规律可能在被遮挡时发生了明显变化,或该跟踪物体发生了严重碰撞而明显偏离其原有运动规律,因而需要将该跟踪物体、也即该跟踪物体的预测区域删除,以免对视频监控产生较大干扰。
实际应用中,第一处理模块206可以依据位置在后跟踪物体的平移速度,预测出该跟踪物体在预定时间内的运动轨迹,具体预测运动轨迹的方式可按照现有任一种方式来实现。这样,如果预定时间内出再次现了与该跟踪物体匹配的前景区域、且该前景区域位于预测出的运动轨迹上,则表示在预定时间内位置在后的跟踪物体依照其平移速度再次出现;否则,即便预定时间内出再次现了与该跟踪物体匹配的前景区域,但只要该前景区域不在运动轨迹上,均无法确定该前景区域就是位置在后的跟踪物体所对应的前景区域,因而表示在预定时间内位置在后的跟踪物体未依照其平移速度再出现。
此外,第一处理模块206可进一步依据摄像头的拍摄角度、以及跟踪物体的预测区域在图像中的位置,确定相对于摄像头的前后位置关系。例如,对于静止摄像头都是自监控场景的侧上方拍摄监控视频的情况,将靠近静止摄像头的方向定为前、远离静止摄像头的方向定为后,且位于前的跟踪物体在图像中的位置会相对靠下,因此,可将预测区域在图像的位置相对靠下的跟踪物体确定为在前的跟踪物体,而将预测区域在图像中的位置相对靠上的跟踪物体确定为在后的跟踪物体。
为了记录位置在后的跟踪物体暂时消失,第一处理模块206可以进一步进一步为位置在后的跟踪物体设置一初始值为0的计数器,在每收到下一帧图像时,如果位置在后的跟踪物体未在该下一帧图像中出现则对该计数器加1,直至计数器达到预定计数值时,确定预定时间内未再出现位置在后的跟踪物体。
第二处理模块207,其与交互判别模块205相连,用于从匹配的前景区域中分割得到该跟踪物体在当前输入图像中对应的前景区域。
实际应用中,第二处理模块207可进一步依按照跟踪物体的预测区域的面积和形状,从匹配的前景区域中分割得到该跟踪物体在当前输入图像中对应的前景区域。
第三处理模块208,其与区域匹配模块203相连,用于将与任一跟踪物体一一匹配的前景区域,确定为该跟踪物体在当前输入图像中对应的前景区域。
需要说明的是,第三处理模块208执行的操作并不涉及交互事件,在此列举仅仅是对上述装置的功能扩充,实际应用中,第三处理模块208为可选的。
以上所述仅为本发明的较佳实施例而已,并非用于限定本发明的保护范围。凡在本发明的精神和原则之内,所作的任何修改、等同替换以及改进等,均应包含在本发明的保护范围之内。
Claims (8)
1.一种用于运动跟踪的交互事件处理方法,该方法包括:
a1、根据当前输入图像中的前景区域,计算前一帧图像中各跟踪物体的平移速度;
a2、根据各跟踪物体的平移速度,计算各跟踪物体在当前输入图像中的预测区域;
a3、根据各跟踪物体的预测区域分别与各前景区域的重叠程度,确定每一跟踪物体所匹配的前景区域;
其特征在于,在所述步骤a3之后,针对匹配同一前景区域的多个跟踪物体,该方法还包括:
a4、将所述多个跟踪物体的预测区域的交集,确定为所述多个跟踪物体的碰撞区域;或者,计算得到所述多个跟踪物体中每两个跟踪物体预测区域的交集,再将所计算出的各交集的合集确定为所述多个跟踪物体的碰撞区域 ;
a5、对于所述多个跟踪物体中的每个跟踪物体,判断该跟踪物体预测区域位于所述碰撞区域内的部分,在该跟踪物体预测区域内所占的比例是否大于预定值,对于大于所述预定值的跟踪物体执行步骤a6,对于小于等于所述预定值的跟踪物体执行步骤a7;
a6、依据跟踪物体相对于摄像头的前后位置关系,确定匹配的前景区域为位置在前的跟踪物体在当前输入图像中对应的前景区域,同时记录位置在后的跟踪物体暂时消失,用以在预定时间内位置在后的跟踪物体依照其平移速度再次出现时继续跟踪、在预定时间内位置在后的跟踪物体未依照其平移速度再出现时予以删除;
a7、从匹配的前景区域中分割得到该跟踪物体在当前输入图像中对应的前景区域。
2.如权利要求1所述的交互事件处理方法,其特征在于,所述步骤a6 进一步依据摄像头的拍摄角度、以及跟踪物体的预测区域在图像中的位置,确定相对于摄像头的前后位置关系。
3.如权利要求1所述的交互事件处理方法,其特征在于,所述步骤a6进一步为位置在后的跟踪物体设置一计数器;
在所述步骤a6之后,每收到下一帧图像时,如果位置在后的跟踪物体未在该下一帧图像中出现则对该计数器加1,直至计数器达到预定计数值时,确定预定时间内未再出现位置在后的跟踪物体。
4.如权利要求1所述的交互事件处理方法,其特征在于,所述步骤a7进一步按照跟踪物体的预测区域的面积和形状,从匹配的前景区域中分割得到该跟踪物体在当前输入图像中对应的前景区域。
5.一种用于运动跟踪的交互事件处理装置,该装置包括:
运动估算模块,用于根据当前输入图像中的前景区域,计算前一帧图像中各跟踪物体的平移速度;
预测跟踪模块,用于根据各跟踪物体的平移速度,计算各跟踪物体在当前输入图像中的预测区域;
区域匹配模块,用于根据各跟踪物体的预测区域分别与各前景区域的重叠程度,确定每一跟踪物体所匹配的前景区域;
其特征在于,针对匹配同一前景区域的多个跟踪物体,该装置还包括:
区域重叠模块,用于将所述多个跟踪物体的预测区域的交集,确定为所述多个跟踪物体的碰撞区域,或者,计算得到所述多个跟踪物体中每两个跟踪物体预测区域的交集,再将所计算出的各交集的合集确定为所述多个跟踪物体的碰撞区域;
交互判别模块,用于对于所述多个跟踪物体中的每个跟踪物体,判断该跟踪物体预测区域位于所述碰撞区域内的部分,在该跟踪物体预测区域内所占的比例是否大于预定值,对于大于所述预定值的跟踪物体通知第一处理模块予以处理,对于小于等于所述预定值的跟踪物体通知第二处理模块予以处理;
第一处理模块,用于依据跟踪物体相对于摄像头的前后位置关系,确定匹配的前景区域为位置在前的跟踪物体在当前输入图像中对应的前景区域,同时记录位置在后的跟踪物体暂时消失,用以在预定时间内位置在后的跟踪物体依照其平移速度再次出现时继续跟踪、在预定时间内位置在后的跟踪物体未依照其平移速度再出现时予以删除;
第二处理模块,用于从匹配的前景区域中分割得到该跟踪物体在当前输入图像中对应的前景区域。
6.如权利要求5所述的交互事件处理装置,其特征在于,所述第一处理模块进一步依据摄像头的拍摄角度、以及跟踪物体的预测区域在图像中的位置,确定相对于摄像头的前后位置关系。
7.如权利要求5所述的交互事件处理装置,其特征在于,所述第一处理模块进一步为位置在后的跟踪物体设置一计数器,在每收到下一帧图像时,如果位置在后的跟踪物体未在该下一帧图像中出现则对该计数器加1,直至计数器达到预定计数值时,确定预定时间内未再出现位置在后的跟踪物体。
8.如权利要求5所述的交互事件处理装置,其特征在于,所述第二处理模块进一步按照跟踪物体的预测区域的面积和形状,从匹配的前景区域中分割得到该跟踪物体在当前输入图像中对应的前景区域。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN200910241627.5A CN101877132B (zh) | 2009-11-27 | 2009-11-27 | 用于运动跟踪的交互事件处理方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN200910241627.5A CN101877132B (zh) | 2009-11-27 | 2009-11-27 | 用于运动跟踪的交互事件处理方法和装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN101877132A CN101877132A (zh) | 2010-11-03 |
CN101877132B true CN101877132B (zh) | 2014-03-26 |
Family
ID=43019677
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN200910241627.5A Active CN101877132B (zh) | 2009-11-27 | 2009-11-27 | 用于运动跟踪的交互事件处理方法和装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN101877132B (zh) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5905481B2 (ja) * | 2010-11-26 | 2016-04-20 | トムソン ライセンシングThomson Licensing | 判定方法及び判定装置 |
US10474921B2 (en) * | 2013-06-14 | 2019-11-12 | Qualcomm Incorporated | Tracker assisted image capture |
CN106447695A (zh) * | 2016-09-23 | 2017-02-22 | 广州视源电子科技股份有限公司 | 一种多物体追踪中判断同一物体的方法和装置 |
CN111833637A (zh) * | 2019-04-17 | 2020-10-27 | 阿里巴巴集团控股有限公司 | 车辆监控方法、装置、设备和系统 |
CN112446358A (zh) * | 2020-12-15 | 2021-03-05 | 北京京航计算通讯研究所 | 基于视频图像识别技术的目标检测方法 |
CN112507913A (zh) * | 2020-12-15 | 2021-03-16 | 北京京航计算通讯研究所 | 基于视频图像识别技术的目标检测系统 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101098461A (zh) * | 2007-07-05 | 2008-01-02 | 复旦大学 | 一种视频目标跟踪中的全遮挡处理方法 |
CN101212658A (zh) * | 2007-12-21 | 2008-07-02 | 北京中星微电子有限公司 | 一种目标跟踪方法及装置 |
CN101251927A (zh) * | 2008-04-01 | 2008-08-27 | 东南大学 | 基于视频技术的车辆检测与跟踪方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4480299B2 (ja) * | 2001-06-21 | 2010-06-16 | 富士通マイクロエレクトロニクス株式会社 | 移動体を含む画像の処理方法及び装置 |
-
2009
- 2009-11-27 CN CN200910241627.5A patent/CN101877132B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101098461A (zh) * | 2007-07-05 | 2008-01-02 | 复旦大学 | 一种视频目标跟踪中的全遮挡处理方法 |
CN101212658A (zh) * | 2007-12-21 | 2008-07-02 | 北京中星微电子有限公司 | 一种目标跟踪方法及装置 |
CN101251927A (zh) * | 2008-04-01 | 2008-08-27 | 东南大学 | 基于视频技术的车辆检测与跟踪方法 |
Non-Patent Citations (4)
Title |
---|
Alper Yilmaz et al.Object Tracking: A Survey.《ACM Computing Surveys》.2006,第38卷(第4期),全文. |
DETECTION OF MOVING OBJECTS IN IMAGE SEQUENCES USING 3D VELOCITY FILTERS;SAM SCHAULAND et al;《Int. J. Appl. Math. Comput. Sci.》;20081231;第18卷(第1期);全文 * |
Object Tracking: A Survey;Alper Yilmaz et al;《ACM Computing Surveys》;20061231;第38卷(第4期);全文 * |
SAM SCHAULAND et al.DETECTION OF MOVING OBJECTS IN IMAGE SEQUENCES USING 3D VELOCITY FILTERS.《Int. J. Appl. Math. Comput. Sci.》.2008,第18卷(第1期),全文. |
Also Published As
Publication number | Publication date |
---|---|
CN101877132A (zh) | 2010-11-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109887281B (zh) | 一种监控交通事件的方法及系统 | |
CN101877132B (zh) | 用于运动跟踪的交互事件处理方法和装置 | |
US9224049B2 (en) | Detection of static object on thoroughfare crossings | |
CN102073851B (zh) | 一种城市交通事故自动识别方法和系统 | |
CN109934075A (zh) | 异常事件检测方法、装置、系统及电子设备 | |
JP7223059B2 (ja) | 交通事象の報知方法及びその装置、電子機器並びに記憶媒体 | |
JP2016148962A (ja) | 物体検知装置 | |
WO2013053159A1 (zh) | 一种车辆跟踪的方法及装置 | |
Lee et al. | Real-time illegal parking detection in outdoor environments using 1-D transformation | |
Aung et al. | Video based lane departure warning system using hough transform | |
CN112349087B (zh) | 一种基于路口信息全息感知的可视化数据输入方法 | |
JP2010176302A (ja) | 車両検知装置、車両検知システム、車両検知装置の車両検知方法および車両検知プログラム | |
JP2008064628A (ja) | 物体検出装置および物体検出方法 | |
CN114495011A (zh) | 基于目标检测的非机动车和行人非法闯入识别方法、存储介质和计算机设备 | |
CN114648748A (zh) | 一种基于深度学习的机动车违停智能识别方法及系统 | |
CN112560546B (zh) | 抛洒行为检测方法、装置及存储介质 | |
CN102789645B (zh) | 一种用于周界防范的多目标快速跟踪方法 | |
Lim et al. | Event-driven track management method for robust multi-vehicle tracking | |
JP2013168178A (ja) | 車両検知システムおよび車両検知システムの車両検知方法 | |
CN112633228A (zh) | 停车检测方法、装置、设备及存储介质 | |
CN101600110B (zh) | 运动检测方法及装置 | |
CN116563801A (zh) | 交通事故检测方法、装置、电子设备和介质 | |
CN116311166A (zh) | 交通障碍物识别方法、装置及电子设备 | |
JP2023036054A (ja) | 目標カウント方法、装置、デバイス及び記憶媒体 | |
CN114863372A (zh) | 一种泊车管理方法、泊车管理装置和计算机可读存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
TR01 | Transfer of patent right |
Effective date of registration: 20210204 Address after: No. 602, 6th floor, shining building, 35 Xueyuan Road, Haidian District, Beijing 100083 Patentee after: BEIJING ZHONGXINGTIANSHI TECHNOLOGY Co.,Ltd. Address before: 100083, Haidian District, Xueyuan Road, Beijing No. 35, Nanjing Ning building, 15 Floor Patentee before: Vimicro Corp. |
|
TR01 | Transfer of patent right |