CN102456226B - 兴趣区域的追踪方法 - Google Patents

兴趣区域的追踪方法 Download PDF

Info

Publication number
CN102456226B
CN102456226B CN201010522324.3A CN201010522324A CN102456226B CN 102456226 B CN102456226 B CN 102456226B CN 201010522324 A CN201010522324 A CN 201010522324A CN 102456226 B CN102456226 B CN 102456226B
Authority
CN
China
Prior art keywords
region
interest
point
unique point
module
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201010522324.3A
Other languages
English (en)
Other versions
CN102456226A (zh
Inventor
黄钟贤
石明于
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Industrial Technology Research Institute ITRI
Original Assignee
Industrial Technology Research Institute ITRI
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Industrial Technology Research Institute ITRI filed Critical Industrial Technology Research Institute ITRI
Priority to CN201010522324.3A priority Critical patent/CN102456226B/zh
Publication of CN102456226A publication Critical patent/CN102456226A/zh
Application granted granted Critical
Publication of CN102456226B publication Critical patent/CN102456226B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

本发明公开了一种兴趣区域的追踪方法。该兴趣区域追踪方法通过一特征点监测与追踪模块在一初始时间时,将一图像画面的一兴趣区域先作一局部特征点的监测,然后对此监测到的至少一特征点进行追踪;一线性转换模块利用所追踪的多个对应的特征点,来求出前后两帧图像画面的兴趣区域的转换关系;一预测及更新模块在一目前时间,对此兴趣区域的移动位置作预测及修正;一粗差点去除模块通过此预测及更新模块对兴趣区域的修正结果,去除落在兴趣区域之外的至少一粗差点。通过本发明各实施例,可以得到稳定且平滑的兴趣区域的追踪,此类兴趣区域可以是移动物、背景或同时包括移动物及背景。

Description

兴趣区域的追踪方法
技术领域
本发明涉及智能监控领域,尤其涉及一种兴趣区域(Region-Of-Interest,简称ROI)的追踪方法。
背景技术
智能型监控系统逐渐崛起后,一些技术的开发是后端系统中利用图像分析技术来提取有意义的事件信息。固定式摄影机的监控范围有限并存在监视死角。当事件发生的区域广大时,固定式摄影机无法获得整体事件的监控画面。有些技术的探索是通过在高空运载工具,例如热气球、无人驾驶飞机等,架设摄影机来俯视地面摄影并分析图像监测事件,辅助地面监控系统进行大范围区域的监测,达到无死角的全面性监控。
飞行工具上利用计算机视觉对地面物体进行追踪的技术中,针对移动物体监测的技术,例如,可通过仿射模型的形变(affine warping)技术,先将一移动物体的连续的输入图像彼此对正(registration)后,计算连续两帧稳定的(stabilized)图像的正交流(normal flow),监测出移动物体。然后以四连通标记(4-connectivity connected component labeling)技术给予标记。再针对每帧图像上标记好的物体,考虑其属性,例如,质量中心位置、主轴方向、长度等属性,来计算出相邻图像上物体之间的相似度,并给予关联,进而追踪此移动物体。
移动物体追踪主要有三种策略。一为通过点光流的追踪(KLT Tracker),将相邻画面的物体关联起来。二为计算出物体的外貌或运动特征,将相邻画面的移动物,通过设定一阈值来判断相关性,或考虑画面中多数移动物体的特征来算出最佳的匹配机率。三为通过滤波器技术如粒子滤波器(particle filter)来进行移动物体的追踪。
视觉式的兴趣区域追踪有基于图像样板(image template)比对或基于特征点追踪的兴趣区域追踪法。前者的追踪技术是根据兴趣区域的图像特征,在下一帧图像内搜寻最大相似响应的区域,例如平均值移位法(meanshift scheme),为利用平均值移位法所算出的特征空间的梯度信息,快速找到追踪的目标区域。后者的追踪技术是在兴趣区域监测特征点,并通过光流法追踪前后两帧图像的特征点的对应关系,通过此关系作为追踪整个兴趣区域的依据,例如随机样本相合法(Random sample Consensus,简称RANSAC),为基于大数法则,利用随机方式选取数个特征点,来估测前、后帧图像兴趣区域的单应性转换关系(homography),并且利用重复递归的方式来找出与所有特征点最匹配的单应性转换。当正确或合适此转换的点(inlier)过少时,此RANSAC法需要重复执行多次循环,耗费大量运算资源来得到可靠的追踪结果。
视觉式的兴趣区域追踪的相关专利如美国专利号6757434的文献,其公开了一种视频图像上追踪兴趣区域的技术,可用于图像压缩编码。如图1所示,此技术针对第k-1帧图像上的兴趣区域110,先利用边界投影方式在第k帧图像上预测兴趣区域的边缘位置120,再逆向于第k-1帧图像上寻找匹配点130。另一篇美国专利公开号US2010/0045800的文献中,其技术是将兴趣区域区分为内圈及外圈,并分别计算此内外圈的色彩直方图作为特征,并将其作为追踪的依据。
图像上追踪兴趣区域的相关论文如Region-of-interest Tracking basedon Keypoint Trajectories on a Group of Pictures,International Workshop onContent-based Multimedia Indexing,2007,其公开了一种通过特征点在图像上追踪兴趣区域的技术,此技术通过M-估测器来估算前后两帧兴趣区域的仿射转换(affine transform),并通过一最佳化算法来解M-估测器的问题。此技术利用统计的意义剔除粗差点(outlier),但此最佳化过程会耗费大量的运算资源。
目前,飞行工具上物体追踪技术往往需要大量且复杂的运算资源。基本上,需要仰赖个人计算机等级以上的运算装置来达到实时运算,而飞行工具上也往往有其负载的限制,因而适合搭载较轻巧的嵌入式系统。所以,物体追踪的演算机制需要运算速度快并且有效率。
发明内容
本发明公开的实施例可提供一种兴趣区域的追踪系统、方法及计算机程序产品。
在一实施例中,所公开的是关于一种兴趣区域的追踪系统。此系统包括一特征点监测与追踪模块(feature point detecting and tracking module)、一线性转换模块(linear transformation module)、一预测及更新模块(estimationand update module)、以及一粗差点去除模块(outlier rejection module)。特征点监测与追踪模块在一初始时间时,将一图像画面的一兴趣区域先作一局部特征点的监测,然后对此监测到的至少一特征点进行追踪。线性转换模块利用所追踪的多个对应的特征点,来求出前后两帧图像画面的兴趣区域的转换关系。预测及更新模块在一目前时间,对此兴趣区域的移动位置作预测及修正。粗差点去除模块通过预测及更新模块对兴趣区域的修正结果,将落在兴趣区域之外的至少一粗差点去除。
在另一实施例中,所公开的是关于一种兴趣区域的追踪方法。此方法包括:在一初始时间时,通过一特征点监测与追踪模块将一图像画面的一兴趣区域先作一局部特征点的监测,然后对此监测到的至少一特征点进行追踪;根据所追踪的多个对应的特征点,由一线性转换模块来求出前后两帧图像画面的兴趣区域的转换关系;通过一预测及更新模块,在一目前时间对兴趣区域的移动位置作预测及修正;根据预测及更新模块对兴趣区域的修正结果,通过一粗差点去除模块将落在兴趣区域之外的至少一粗差点去除;以及设定一特征点再监测的条件,来对目前时间的兴趣区域进行特征点的再监测,以获得在一稳定度范围内的追踪结果。
在另一实施例中,所公开的是关于一种兴趣区域的追踪装置。此装置包括一存储器以及存储于此存储器的一可执行的计算机程序。此计算机程序通过一处理器来执行:在一初始时间时,通过一特征点监测与追踪模块将一图像画面的一兴趣区域先作一局部特征点的监测,然后对此监测到的至少一特征点进行追踪;根据所追踪的多个对应的特征点,由一线性转换模块来求出前后两帧图像画面的兴趣区域的转换关系;通过一预测及更新模块,在一目前时间对兴趣区域的移动位置作预测及修正;根据预测及更新模块对兴趣区域的修正结果,通过一粗差点去除模块将落在兴趣区域之外的至少一粗差点去除;以及设定一特征点再监测的条件,来对目前时间的兴趣区域进行特征点的再监测,以获得在一稳定度范围内的追踪结果。
本发明各实施例可以产生如下的有益效果:可以得到稳定且平滑的兴趣区域的追踪,此类兴趣区域可以是移动物、背景或同时包括移动物及背景。
附图说明
图1是一范例示意图,说明一种视频图像上追踪兴趣区域的技术。
图2是兴趣区域追踪技术的应用场景的一个范例示意图,与所公开的某些实施例一致。
图3是兴趣区域的追踪系统的一个范例示意图,与所公开的某些实施例一致。
图4A至图4C是范例示意图,分别说明矩形区域在图像中移动的三种情况,与所公开的某些实施例一致。
图5A是一范例示意图,说明特征点监测与追踪模块对行驶中的汽车的一兴趣区域作特征点监测,其中“+”为监测到的特征点,与所公开的某些实施例一致。
图5B是一范例示意图,说明特征点监测与追踪模块利用光流法进行特征点的追踪,其中“-”为行驶中的汽车的移动向量,与所公开的某些实施例一致。
图6A至图6C是范例示意图,说明线性转换模块求出的前后两帧图像画面的兴趣区域的转换关系,与所公开的某些实施例一致。
图7A至图7C是范例示意图,说明预测及更新模块利用卡曼滤波器,进行滤波及兴趣区域估测,与所公开的某些实施例一致。
图8是粗差点移除的一个范例示意图,与所公开的某些实施例一致。
图9是兴趣区域的追踪方法的一范例流程图,与所公开的某些实施例一致。
图10是一范例示意图,说明兴趣区域的追踪的计算机程序产品及其应用场景,与所公开的某些实施例一致。
本附图的元件符号简要说明:
110-兴趣区域;         120-兴趣区域的边缘位置;
130-匹配点;
It-t时间的串流图像;           It+n-时间t+n的图像画面;
ROIt-时间t的兴趣区域;         ROIt+n-时间t+n的兴趣区域;
300-兴趣区域的追踪系统;       310-特征点监测与追踪模块;
312-兴趣区域;                 314-特征点;
320-线性转换模块;             324-单应性转换;
330-预测及更新模块;           334-修正结果;
333-符合一特征点再监测条件?    344-符合一终止条件?
340-粗差点去除模块;           355-删除此兴趣区域;
377-重新进行特征点监测;
366-输入新图像画面并将时间t加1;
410、420、430-矩形区域;
500-行驶中的汽车;             512-兴趣区域;
a、b-不同时间的广角摄影机位置;
Pa-前帧图像画面的兴趣区域在位置a的投影;
Pb-后帧图像画面的兴趣区域在位置b的投影;
Hba-单应性转换矩阵;
710-t时间时的兴趣区域;
720-预测出的t+1时间的兴趣区域;
725-监测出的t+1时间的兴趣区域;
730-被修正后的t+1时间的兴趣区域;
801~804被去除的粗差点;
810-t时间时,图像画面上兴趣区域;
820-t+1时间时,图像画面上的兴趣区域;
910-在一初始时间时,通过一特征点监测与追踪模块来点选一图像画面的一兴趣区域,并对此兴趣区域作一局部特征点的监测,及对此监测到的至少一特征点进行追踪;
920-根据所追踪的多个对应的特征点,由一线性转换模块来求出前后两帧图像画面的兴趣区域的转换关系;
930-通过一预测及更新模块,在一目前时间对兴趣区域的移动位置作预测及修正;
940-根据预测及更新模块对兴趣区域修正的结果,通过一粗差点去除模块将落在兴趣区域之外的至少一粗差点去除;
950-设定一特征点再监测的条件,来对目前时间的兴趣区域进行特征点的再监测,以获得在一稳定度范围内的追踪结果;
1000计算机程序产品;     1010存储器;
1020计算机程序;         1030处理器。
具体实施方式
本发明公开了一种图像式的兴趣区域的追踪技术,此追踪技术结合特征点估测与追踪、单应性转换矩阵估测(homography transform estimation)、滤波器追踪(filtering for tracking)以及粗差点去除技术,来进行兴趣区域的追踪。此类兴趣区域可以是移动物体(moving object)、或是固定背景(background)、或是同时含有移动物体及背景。移动物体例如是行驶中的汽车、轮船等,固定背景例如是地貌、建筑物等。兴趣区域的边界可以是规则或不规则的形状(irregular in shape)。
通过基于特征点追踪的单应性透视投影转换,可推算出兴趣区域的移动情况。通过滤波器的预测及更新能力,可稳定且平滑地追踪兴趣区域。通过滤波器的追踪结果,来重新估测单应性转换矩阵,并去除粗差点。
图2是兴趣区域追踪技术的应用场景的一个范例示意图,与所公开的某些实施例一致。图2的范例中,假设在一空中飞行器上,架设一广角摄影机及另一回转式(Pan/Tilt)摄影机。广角摄影机能有效观看大范围场景,PT摄影机有两个角度的自由度(pan与tilt),可旋转并局部放大广角摄影机视野内的特定范围,以取得高分辨率的图像信息。此广角摄影机实时图像提取,将所取得的串流图像It回传至地表伺服端的用户,用户可通过如鼠标或触控式屏幕,在t时间点选串流图像It上的兴趣区域ROIt,再通过无线信号回传至空中飞行器端,驱动此回转式摄影机聚焦于点选的兴趣区域,来拍摄高分辨率的放大图像,提供地表用户更为精细的信息。
图2的应用场景中,由于数据传输的延迟,此时广角摄影机所取得的图像It+n将为t+n时间的图像画面,与串流图像It的取像时间已有时间差n,其中n等于图像由空中飞行器传输至地表服务器所需的时间,因此,用户所点选的兴趣区域的位置,与空中飞行器上实时取得图像上的位置必然有所差距,因此必须通过兴趣区域追踪技术,在系统暂存的历史图像中,由图像It快速追踪兴趣区域ROIt至图像It+n,才能够将回转式摄影机驱动至准确位置,所以追踪速度需越快越好,并且至少要大于取像速度,例如大于30帧/秒(frames/sec)。而此时兴趣区域追踪技术需处理至少存储由时间点t至t+n的所有图像画面的队列式图像缓冲区,并由时间t的图像开始追踪兴趣区域ROIt的位置直到时间t+n的兴趣区域ROIt+n在图像画面It+n中移动的位置。
除了图2的应用场景外,此兴趣区域追踪技术还可应用于如下的场景:农渔牧观测及资源研究、地形地貌侦照及监控、气象观测及资料收集、交通监视与管控、台风油污森林火灾的灾情调查、空中观测与摄影、核生化污染及环境监测、海难搜救、水土保持、土石流道路破坏、边境巡逻、海域渔场巡视保护、建筑物及房间内的图像分析、电力线或输油管线沿线监看、与取代高价格的卫星等。
图3是兴趣区域的追踪系统的一个范例示意图,与所公开的某些实施例一致。图3的范例中,兴趣区域的追踪系统300可包括一特征点监测与追踪模块310、一线性转换模块320、一预测及更新模块330、以及一粗差点去除模块340。
特征点监测与追踪模块310在一初始时间(t=0)时,将一图像画面It的一兴趣区域312先作一局部特征点的监测,例如利用Harris特征点监测法来进行此局部特征点的监测,然后对此图像画面It的特征点进行追踪,例如利用光流法进行特征点(feature point)的追踪。将兴趣区域312输入特征点监测与追踪模块310有多种方式,例如,可由一用户通过如鼠标或触控式屏幕点选一图像画面It的一区域后,输入此区域至特征点监测与追踪模块310。线性转换模块320利用特征点监测与追踪模块310所追踪的多个对应的特征点314,来求出前后两帧图像画面,即It与It+1,的兴趣区域的转换关系。此转换关系即所谓的单应性转换324,可推算出兴趣区域的移动情况。
再通过预测及更新模块330,例如利用卡曼滤波器,对兴趣区域的移动位置作预测及修正,而粗差点去除模块340通过预测及更新模块330对兴趣区域的修正结果334,将落在兴趣区域之外的粗差点去除。其中,如标号333所示,兴趣区域的追踪系统300可设定是否进行一特征点再监测的条件,例如当可靠的特征点数量小于一预设阀值时,如小于初始点数的某一百分比时,则如标号377所示,重新进行特征点监测,来得到稳定且可靠的兴趣区域的追踪结果。
一兴趣区域的追踪如标号344所示,也可以设定是否符合一终止条件,例如当此兴趣区域位于画面边缘时,则停止对此兴趣区域的追踪,换句话说,删除此兴趣区域,如标号355所示。否则,如标号366所示,输入新图像画面并将时间t加1,然后,特征点监测与追踪模块310再利用光流法进行新图像画面的特征点的追踪。
以下以一行驶中的汽车为例,并配合附图来说明兴趣区域的追踪系统300中各模块的运行原理和结果。
兴趣区域的选取与特征点监测的原理,举例说明如下。当用户选好一兴趣区域后,此兴趣区域假设为一W×H的矩形,W与H分别为此矩形的宽与长。首先在此矩形内取得最大响应的m个Harris特征点,此m个特征点的选取是观察一帧图像画面中局部的矩形区域,将此矩形区域在图像中以不同的方向作微小的移动,来了解矩形区域中灰度变化的强弱,矩形区域可分为三种情况:(1)在矩形区域移动的图像中,若灰度值的变化是趋于平坦,则无论此矩形区域要往哪个方向移动,此矩形区域中的灰度并不会有特别明显的变化,如图4A的矩形区域410的范例所示;(2)若矩形区域在边或是线的图像区域中移动,则当矩形区域沿着边或线的方向与边或线垂直,则灰度变化将会相当强烈,如第四B图的范例所示,矩形区域420沿着右边的方向移动,则其右边区域的灰度变化相当强烈;(3)若矩形区域在具有特征点的图像区域中移动,则无论哪一个方向的移动都会造成此矩形区域中强烈的灰度变化,如图4C的范例所示,矩形区域430无论沿着左右或上下的方向移动,都会造成矩形区域430中强烈的灰度变化。
依此,此矩形区域在各方向移动后,其变化的总和可以用公式(1)来表示:
E x , y = Σ u , v w u , v | I x + u , y + v - I u , v | - - - ( 1 )
其中wu,v表示所定义的矩形区域,若点(u,v)的位置在区域中,则wu,v的值为1,否则为0;Iu,v为图像当中,点在(u,v)坐标的灰度值;x与y则分别表示在x方向及y方向的移动量。
式(1)可以泰勒展开式展开并估算出图像I在x方向以及y方向的梯度后,公式(1)可以进一步简化为
Ex,y=Ax2+2Cxy+By2         (2)
其中, A = ( ∂ I ∂ x ) 2 w u , v , B = ( ∂ I ∂ y ) 2 w u , v , C = ( ∂ I ∂ x ) ( ∂ I ∂ y ) 2 w u , v .
为了减少图像中噪声的影响,将二元的wu,v以Gaussian函数来取代,而公式(2)以矩阵来表示如下:
Ex,y=(x,y)Z(x,y)T         (3)
其中,Z是一个2×2的灰度强度变化且对称(symmetric)的矩阵,
Z = A C C B .
令λ1,λ2为矩阵Z的特征值,经由对λ1与λ2的大小可以得知:(1)若λ1、λ2的值都很小,则表示该区域的灰度变化不明显;(2)若λ1、λ2的值为一大一小,则表示该区域有边或是线的存在;(3)若λ1、λ2的值都很大,则表示该区域无论在哪一个方向,其灰度变化都很强烈,也就是该区域中有特征点的存在。因此,可设定一灰度强度变化响应函数R(Z)来判断该点是否为特征点:
R ( Z ) = det ( Z ) - k · trace 2 ( Z ) = λ 1 λ 2 - k · ( λ 1 + λ 2 ) 2 - - - ( 4 )
其中k为一常数值,det(Z)为矩阵Z的行列式值,trace(Z)为矩阵Z的对角线的总和(sum of the main diagonal)。通过R的计算,即可挑选出兴趣区域内灰度强度变化响应最大的前m个点,作为后续追踪的依据,并加入于特征点的追踪列表中M={p1,p2,…,pm}。此特征点的追踪列表可存储于特征点监测与追踪模块310中。
图5A的范例中,特征点监测与追踪模块310在一初始时间(t=0)时,对行驶中的汽车500点选一兴趣区域512,然后对此兴趣区域512先作一局部特征点的监测,其中,十字标记“+”为监测到的特征点。图5B是特征点监测与追踪模块310利用光流法进行特征点的追踪,其中,线段标记“-”为行驶中的汽车500的移动向量(motion vector)。图5B的估测特征点在下帧图像画面上的位置,及特征点的追踪的原理,举例说明如下。
假设同一特征点pi在连续时间t与t+1,在图像画面上具有外貌的不变性,即It(x,y)=It+1(x+u,y+v),(u,v)表示该点的移动向量。可通过泰勒展开式将此式子之后项展开为
I t + 1 ( x + u , y + v ) ≈ I t + 1 ( x , y ) + ∂ I ∂ x u + ∂ I ∂ x v - - - ( 5 )
考虑该点满足外貌不变性,则式(5)可推导如下:
0 = I t + 1 ( x + u , y + v ) - I t ( x , y ) ≈ I t + 1 ( x , y ) + I x u + I y u - I t ( x , y ) ≈ ( I t + 1 ( x , y ) - I t ( x , y ) ) + I x u + I y v ≈ I t + I x u + I y u - - - ( 6 )
其中
Figure GDA0000447974930000104
Figure GDA0000447974930000105
由于式(6)有两个未知数u及v,但仅有一方程式,因此,假设该点附近的点也有相同的移动向量,考虑以该点为中心的一n×n窗,可将式(6)扩增为:
I x ( p 1 ) I y ( p 1 ) I x ( p 2 ) I y ( p 2 ) . . . . . . I x ( p n 2 ) I y ( p n 2 ) u v = - I t ( p 1 ) I t ( p 2 ) . . . I t ( p n 2 ) - - - ( 7 )
如此一来,就可通过最小平方和法解出式(7)的u及v,即该特征点的移动向量。进而推得在下帧图像画面上的位置。
图6A至图6C是范例示意图,说明线性转换模块320求出的前后两帧图像画面的兴趣区域的转换关系,与所公开的某些实施例一致。图6A至图6C的范例中,前后两帧图像画面的兴趣区域的转换关系可表示为
Pa=HbaPb        (8)
其中,假设a和b分别为不同时间的广角摄影机(例如架设在一空中飞行器上)位置,如图6A所示。而Pa是前帧图像画面的兴趣区域在广角摄影机位置a的投影,如图6A所示。Pb是后帧图像画面的兴趣区域在广角摄影机位置b的投影,如B图6B所示。Hba是Pb与Pa的单应性透视投影转换关系,为一3x3矩阵,如下所示:
H ba = h 11 h 12 h 13 h 21 h 22 h 23 h 31 h 32 h 33 - - - ( 9 )
此单应性转换Hba是对于相邻两帧图像的对应特征点,计算相同一平面在不同视角的转换关系,如图6B与图6C所示。由于通过光流法做特征点追踪,也即前后相邻两帧图像画面上的特征点关系为已知,即可将其代入式(8),通过最小平方和法,即可求得Hba,即单应性转换矩阵。
图7A至图7C是范例示意图,说明预测及更新模块330利用卡曼滤波器,进行滤波及兴趣区域估测,与所公开的某些实施例一致。其中,预测及更新模块330利用卡曼滤波器修正兴趣区域方框的四个顶点{(x1,y1),(x2,y2),(x3,y3),(x4,y4)},并假设各个顶点为一独立且等速运动模型。即设定卡曼滤波器的状态向量为
X=[x1y1Δx1Δy1x2y2Δx2Δy2…x4y4Δx4Δy4],Δx与Δy分别为其在x与y方向的移动速度。
图7B的范例中,根据t时间图7A的兴趣区域710的方框的四个顶点{(x1,y1),(x2,y2),(x3,y3),(x4,y4)}预测(predict)出t+1时间的兴趣区域720,且在t+1时间监测出兴趣区域725,来对预测出的t+1时间的兴趣区域720进行修正。被修正后的t+1时间的兴趣区域就是图7C范例中的兴趣区域730。图7A至图7C的滤波及兴趣区域估测的原理说明如下。
在贝氏理论下,对象追踪问题可被转换为一推论(Inference)问题,即在已知追踪对象状态(state)的事前机率(prior probability)下,在获得新的测量(measurement)后,求解该目标状态的事后机率(posterior probability)。假设追踪物体的状态向量为{xt}t=1,2,...,其中t为离散时间序列,对应的状态方程式为xt+1=Atxt+Vt,其中A为状态转换函数,表示该物体由时间t到时间t+1的移动模型,而V表示在移动过程中所伴随的噪声。假设该物体所观测的特征向量为{zt}t=1,2,...,则对应的测量方程式为zt=Htxt+Wt,其中H为测量转换函数,描述物体状态与测量所得的特征向量之间的转换关系,而W则为测量时所伴随的噪声。
有了状态转换及测量方程式后,对象追踪的两项工作则包括根据t时间前的测量,来预测t+1时间的状态,以及根据t+1时间的测量,来对预测的状态进行修正。前项工作为计算p(xt+1|z1:t)∝p(xt+1|xt)p(xt|z1:t),后项工作为计算p(xt+1|z1:t+1)∝p(zt+1|xt+1)p(xt+1|z1:t)。通过持续计算此两式子,来预测及修正此移动物体的状态,就可追踪此移动物体。当系统的状态转换函数A与测量转换函数H为线性关系,且状态转换噪声V与测量噪声W都满足高斯模型时,预测及更新模块330可通过如卡曼滤波器(Kalman Filter)来求解事后机率。
图8是粗差点移除的一个范例示意图,与所公开的某些实施例一致。图8的范例中,粗差点去除模块340可通过预测及更新模块330对兴趣区域的修正结果,来去除会落在该兴趣区域之外的至少一粗差点(特征点),被去除的粗差点例如是因追踪错误而产生的粗差点。图8的范例中,四个画圈处如标号801~804所示,就是被去除的粗差点。图8的去除粗差点的原则说明如下。
假设在t时间时,图像画面上兴趣区域810的四个角点为pt={p1,p2,p3,p4},而通过卡曼滤波器更新后,在t+1时间时,图像画面上的兴趣区域820的四个角点为pt+1={p1`,p2`,p3`,p4`}。将pt与pt+1视为式(8)的Pb和Pa并代入,可得出此时两兴趣区域的单应性矩阵HROI。然后检验前后(t时间及t+1时间)两帧图像画面上兴趣区域的所有特征点p,t与其对应点p,t+1,若其满足式子|p,t+1-HROI.p,t|>γ,表示该特征点的位置不是落在该兴趣区域内,将其视为粗差点并予以去除,γ是一预设的阀值(threshold)。
上述去除粗差点的策略会使得特征点的点数逐渐减少,因此,本实施例考虑追踪系统的稳定度,设定一特征点再监测的条件,来对目前时间的兴趣区域进行特征点的再监测(re-detection),例如当满足特征点数少于初始特征点数m的一预定比值时,例如少于0.2×m,则对于目前的兴趣区域进行特征点的再监测。另一方面,由于移动物体的持续移动,该兴趣区域会离开视野,因此也设定当一兴趣区域的至少一边界点离开图像画面的有效区域时,即停止追踪该兴趣区域。
承上所述,图9是兴趣区域的追踪方法的一范例流程图,与所公开的某些实施例一致。参考图9,在一初始时间时,通过一特征点监测与追踪模块来点选一图像画面的一兴趣区域,并对此兴趣区域作一局部特征点的监测,及对此监测到的至少一特征点进行追踪,如步骤910所示。根据所追踪的多个对应的特征点,由一线性转换模块来求出前后两帧图像画面的兴趣区域的转换关系,如步骤920所示。再通过一预测及更新模块,在一目前时间对兴趣区域的移动位置作预测及修正,如步骤930所示。然后,根据预测及更新模块对兴趣区域的修正结果,通过一粗差点去除模块将落在兴趣区域之外的至少一粗差点去除,如步骤940所示。设定一特征点再监测的条件,来对目前时间的兴趣区域进行特征点的再监测,以获得在一稳定度范围内的追踪结果,如步骤950所示。特征点再监测的条件以及各步骤的细节,其范例如前所载,不再重述。
本发明的实施例也可以用一计算机程序产品(computer programproduct)来实现。如图10的范例所示,计算机程序产品1000至少包括一存储器1010以及存储于此存储器的一可执行的计算机程序(executablecomputer program)1020。此计算机程序可通过一处理器1030或计算机系统来执行图9的兴趣区域的追踪方法的步骤910至步骤950。处理器1030还可包括特征点监测与追踪模块310、线性转换模块320、预测及更新模块330、以及粗差点去除模块340,通过这些模块来执行步骤910至步骤940,并且处理器1030也可设定一特征点再监测的条件,来对目前时间的兴趣区域进行特征点的再监测,以获得在一稳定度范围内的追踪结果。
图10的范例中,处理器或计算机系统1030也可结合两部摄影机如图2的应用场景,来进行数据传输与上述的兴趣区域的追踪。
本发明的实施例以兴趣区域是固定物体、或是移动物体、或是固定背景、或是同时含有移动物体及背景来执行追踪,并将追踪结果与一些追踪技术相较。当兴趣区域是固定物体时,本发明的实施例的追踪结果可稳定地锁住该兴趣区域,不会因为兴趣区域与其周围色彩分布太相似而造成追踪不稳定。当兴趣区域皆属于移动物体时,本发明的实施例不需建立背景模型,也无须计算特征点的描述子,而是通过特征点的追踪来获取整个兴趣区域的移动轨迹,其追踪结果有平滑稳定的结果。当兴趣区域较大且包括移动物体及背景时,本发明的实施例可以将背景的特征点视为粗差点而予以滤除,得到追踪稳定的结果,不会如同平均值移位法容易因为兴趣区域含有背景信息而造成误差的累积及产生漂移的现象。
在特征点追踪都失败的情况下,本发明的实施例因为利用预测及更新模块,例如利用卡曼滤波器,的预测的功能,可以比RANSAC法多追踪一些图像画面。因为本发明的实施例无需递归求解,从一实验范例的数据显示,本发明的实施例对运算所耗费的资源或成本远少于RANSAC法;而相比于平均值移位法,本发明的实施例所耗费的资源或成本相差不大,但本发明的实施例会有既稳定又显著优越的追踪结果。
综上所述,本发明的实施例可提供一种图像式的兴趣区域的追踪技术,包括兴趣区域的追踪系统与方法及计算机程序产品。其结合特征点估测与追踪、单应性转换矩阵估测、预测及更新模块(如卡曼滤波器)的追踪及粗差点去除技术,可得到稳定且平滑的兴趣区域的追踪,此类兴趣区域可以是移动物体、背景或同时包括移动物及背景。通过基于特征点追踪的单应性透视投影转换,可推算兴趣区域的移动情况。通过如卡曼滤波器的预测及更新能力,可得到稳定且平滑的兴趣区域追踪。通过如卡曼滤波器的追踪结果,可有效去除落在兴趣区域之外的粗差点。
以上所述仅为本发明的实施例,应当不能依此限定本发明实施的范围。即凡是对权利要求所作的等同变化与改进,仍然应当属于本发明专利所涵盖的保护范围。

Claims (6)

1.一种兴趣区域的追踪方法,其特征在于,运作在一追踪系统上,该方法包括:
在一初始时间时,通过一特征点监测与追踪模块将一图像画面的一兴趣区域先作局部特征点的监测,然后对该监测到的至少一特征点进行追踪,其中,在该局部特征点的监测中,该方法设定一灰度强度变化响应函数R(Z)来判断该兴趣区域中的一点是否为一特征点,Z为一灰度强度变化且对称的矩阵;
根据所追踪的至少一特征点,由一线性转换模块来求出前后两帧图像画面的兴趣区域的转换关系;
通过一预测及更新模块,在一目前时间对该兴趣区域的移动位置作预测及修正;
根据该预测及更新模块对兴趣区域修正的结果,将落在该兴趣区域之外的至少一粗差点去除;以及
设定一特征点再监测的条件,来对该目前时间的兴趣区域进行特征点的再监测,以获得在一稳定度范围内的追踪结果。
2.根据权利要求1所述的追踪方法,其特征在于,该方法还包括:当该兴趣区域的至少一边界点离开该图像画面的一有效区域时,即停止追踪该兴趣区域。
3.根据权利要求1所述的追踪方法,其特征在于,该特征点再监测的条件为当该至少一特征点的点数少于一初始特征点数的一预定比值的情形发生时。
4.根据权利要求1所述的追踪方法,其特征在于,该前后两帧图像画面的兴趣区域的转换关系是一种单应性透视投影转换关系。
5.根据权利要求1所述的追踪方法,其特征在于,通过该灰度强度变化响应函数R(Z)的计算,来挑选出该兴趣区域内灰度强度变化响应最大的前m个点,作为后续追踪的依据并加入一特征点的追踪列表中,m为大于1的整数。
6.根据权利要求1所述的追踪方法,其特征在于,该前后两帧图像画面上兴趣区域的所有特征点p,t与其对应点p,t+1,若其满足式子|P,t+1-HROI·p,t|>γ,则视对应点p,t+1为粗差点并予以去除,γ是一预设的阀值,HROI为该前后两帧图像画面的兴趣区域的转换关系,t与t+1分别代表前后两时间点。
CN201010522324.3A 2010-10-22 2010-10-22 兴趣区域的追踪方法 Active CN102456226B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201010522324.3A CN102456226B (zh) 2010-10-22 2010-10-22 兴趣区域的追踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201010522324.3A CN102456226B (zh) 2010-10-22 2010-10-22 兴趣区域的追踪方法

Publications (2)

Publication Number Publication Date
CN102456226A CN102456226A (zh) 2012-05-16
CN102456226B true CN102456226B (zh) 2014-06-04

Family

ID=46039389

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201010522324.3A Active CN102456226B (zh) 2010-10-22 2010-10-22 兴趣区域的追踪方法

Country Status (1)

Country Link
CN (1) CN102456226B (zh)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104512327B (zh) * 2013-09-27 2017-11-21 比亚迪股份有限公司 盲区车辆检测方法、系统、车辆变道预警方法及系统
US9323449B2 (en) * 2014-05-09 2016-04-26 Htc Corporation Electronic apparatus and drawing method using the same
CN106991687A (zh) * 2016-01-20 2017-07-28 深圳中兴力维技术有限公司 船舶监控方法和装置
CN106447730B (zh) * 2016-09-14 2020-02-28 深圳地平线机器人科技有限公司 参数估计方法、装置和电子设备
CN106557552B (zh) * 2016-10-27 2020-08-21 国家计算机网络与信息安全管理中心 一种网络话题热度预测方法
CN107633247A (zh) * 2017-08-16 2018-01-26 歌尔股份有限公司 图像区域的确定方法及装置
CN108304880A (zh) * 2018-02-05 2018-07-20 福建汇川物联网技术科技股份有限公司 一种基于图像标记的工地试样见证取样方法
JP6791200B2 (ja) * 2018-05-11 2020-11-25 トヨタ自動車株式会社 捜索支援システム、捜索支援装置、及び、捜索支援方法
CN113099161A (zh) * 2021-04-13 2021-07-09 北京中科深智科技有限公司 一种基于深度神经网络的会议视频重建方法和系统

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080019568A1 (en) * 2002-05-23 2008-01-24 Kabushiki Kaisha Toshiba Object tracking apparatus and method
US7801328B2 (en) * 2005-03-31 2010-09-21 Honeywell International Inc. Methods for defining, detecting, analyzing, indexing and retrieving events using video image processing
CN101556692A (zh) * 2008-04-09 2009-10-14 西安盛泽电子有限公司 基于特征点邻域伪Zernike矩的图像拼接方法
CN101526944B (zh) * 2008-12-23 2011-10-12 广州乐庚信息科技有限公司 图像检索比对方法

Also Published As

Publication number Publication date
CN102456226A (zh) 2012-05-16

Similar Documents

Publication Publication Date Title
CN102456226B (zh) 兴趣区域的追踪方法
CN110472496B (zh) 一种基于目标检测与跟踪的交通视频智能分析方法
TWI420906B (zh) 興趣區域之追蹤系統與方法及電腦程式產品
Xiao et al. Dynamic-SLAM: Semantic monocular visual localization and mapping based on deep learning in dynamic environment
CN102881024B (zh) 一种基于tld的视频目标跟踪方法
Zhang et al. Eye in the sky: Drone-based object tracking and 3d localization
EP2858008B1 (en) Target detecting method and system
US8447069B2 (en) Apparatus and method for moving object detection
US8446468B1 (en) Moving object detection using a mobile infrared camera
Bloisi et al. Argos—A video surveillance system for boat traffic monitoring in Venice
CN106683121A (zh) 一种融合检测过程的鲁棒目标追踪方法
Chen et al. Milestones in autonomous driving and intelligent vehicles—part ii: Perception and planning
CN102111530A (zh) 移动物体检测装置与方法
CN103735269A (zh) 一种基于视频多目标跟踪的高度测量方法
CN116182837A (zh) 基于视觉激光雷达惯性紧耦合的定位建图方法
CN102214301B (zh) 自适应运动相关协作多目标跟踪方法
CN116266360A (zh) 一种基于多源信息融合的车辆目标检测跟踪方法
Getahun et al. A deep learning approach for lane detection
Xiu et al. Robust self-supervised monocular visual odometry based on prediction-update pose estimation network
CN103700106A (zh) 一种基于分布式摄像机的多视角运动目标统计与定位方法
Wang et al. Edge-based monocular thermal-inertial odometry in visually degraded environments
Li et al. Multi-sensor fusion for robust localization with moving object segmentation in complex dynamic 3D scenes
Daftry et al. Robust vision-based autonomous navigation, mapping and landing for mavs at night
Ouyang et al. Semantic slam for mobile robot with human-in-the-loop
Cigla et al. Image-based visual perception and representation for collision avoidance

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant