CN102289822A - 一种多摄像机协同跟踪运动目标的方法 - Google Patents
一种多摄像机协同跟踪运动目标的方法 Download PDFInfo
- Publication number
- CN102289822A CN102289822A CN201110266616XA CN201110266616A CN102289822A CN 102289822 A CN102289822 A CN 102289822A CN 201110266616X A CN201110266616X A CN 201110266616XA CN 201110266616 A CN201110266616 A CN 201110266616A CN 102289822 A CN102289822 A CN 102289822A
- Authority
- CN
- China
- Prior art keywords
- target
- camera
- moving target
- collaborative
- algorithm
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
本发明公开了一种多摄像机协同跟踪运动目标的方法,即建立一套有效的多摄像机智能监控系统,实现对某一场景进行全景监控。包括以下步骤:步骤一,运动目标检测与分割;步骤二,对运动目标进行跟踪;步骤三,多摄像机协同最终确定运动目标运动轨迹,从而实现全景监控。本发明主要解决了单摄像机监控范围有限的问题。
Description
技术领域
本发明涉及视频监控技术领域,特别是一种多摄像机协同跟踪运动目标的方法。
背景技术
伴随着视频监控系统的普及,多摄像机智能视频监控技术得到了广泛的研究和应用,例如在银行、大型商场、机场等均需要多摄像机进行多物体跟踪、监控,而视频监控中的运动目标检测分割、运动目标跟踪和多摄像机协同技术,成为了计算机视觉领域研究的热点。但是目前大部分多摄像机监控系统仍然被当做一个简单的单摄像机的集合,并没有从中获得更多有效的信息。
发明内容
发明目的:本发明所要解决的技术问题是针对现有技术的不足,提供一种多摄像机协同跟踪运动目标的方法,建立一套有效的多摄像机智能监控系统,通过不同摄像机场景中的关联,获得物体在整个监控环境下的连续轨迹,从而实现对某一场景进行全景监控。
为了解决上述技术问题,本发明公开了一种多摄像机协同跟踪运动目标的方法,包括以下步骤:
步骤一,运动目标检测与分割:基于动态矩阵的自适应背景更新算法,对运动目标进行检测,再利用形态学处理和标记算法实现运动分割;
步骤二,运动目标跟踪:基于改进的Mean Shift(均值偏移)算法确定最佳搜索框位置,从而对运动目标进行跟踪;
步骤三,多摄像机协同最终确定运动轨迹:通过计算场边界线,在多摄像机中建立同一物体运动轨迹的关联,最终实现全景监控。
本发明中,优选地,所述步骤一包括以下步骤:
步骤(11),建立动态矩阵区分运动目标与背景;包括在动态背景更新算法之上引入动态矩阵,调整参数以降低噪声对帧差的干扰
步骤(12),利用形态学中的腐蚀、膨胀等操作对单个摄像机拍摄的图像进行处理;包括形态学图像处理中的开闭操作来去除噪点干扰
步骤(13),利用区域标记算法进行运动目标与背景的分割;包括对二值图像内n连通区域进行标记操作求得所要区域的数目,寻找运动目标
本发明中,优选地,所述步骤二包括以下步骤:
步骤(21),运用Mean Shift(均值偏移)算法计算每次目标框的重心;包括采用目标的颜色信息作为目标特征信息,利用一些常用的多变量核函数对目标模板进行搜索与跟踪
步骤(22),利用基于彩色直方图的反向投影法建立跟踪物体的颜色色相分布模型;包括将RGB模型转换到HSV模型,通过运动物体H分量的概率分布图搜索物体特征模型,再将其映射回所要观测的图像中去
步骤(23),判别目标框与颜色色相分布特征是否相似,如果符合则停止迭代计算并最终确定最佳搜索框位置;
本发明中,优选地,所述步骤三包括以下步骤:
步骤(31),确定单摄像机三维场边界线;包括定义摄像机所覆盖的四棱锥空间与地平面相交所得的平面四条边为图像中足迹的实际边界
步骤(32),检测场边界线,确定存在目标物体的摄像机集合;包括判断一台摄像机中呈现的物体是否在另一台摄像机的视野中
步骤(33),通过三维边界场对跟踪物体的约束条件,正确匹配摄像机集合中的运动目标;包括采用候选物体与场边界线的最短距离作为约束条件,来从集合中已存在的物体中寻找出正确匹配的物体
有益效果:本发明解决了单摄像机场景覆盖有限的问题,通过建立不同摄像机场景中的关联,采用多摄像机协同对运动目标进行跟踪,提供一个完整的运动信息,从而达到全景监控的效果。另外多摄像机协同监控在面对遮挡问题时较单摄像机能有更强的鲁棒性。
附图说明
下面结合附图和具体实施方式对本发明做更进一步的具体说明,本发明的上述和/或其他方面的优点将会变得更加清楚。
图1是本发明方法简化流程图。
图2是自适应背景法示意图。
图3是基于色彩直方图的均值偏移算法的流程图。
图4是摄像机视野示意图。
图5a和图5b是检测场边界线示意图。
图6是多目标检测场边界线示意图。
具体实施方式:
本发明硬件部分由多个视频拍摄装置、运算处理装置和显示装置组成,核心思路是利用视频图像的三维特征点分面,网格化各面的特征点并绘制相应纹理并判断各面间的连通性,应用纹理延伸技术面内“空洞”和面面间“缝隙”,最后完成三维图像渲染,并显示自由视角的3D目标。
如图1所示,本发明公开了一种多摄像机协同跟踪运动目标的方法,包括以下步骤:
步骤一,运动目标检测与分割:基于动态矩阵的自适应背景更新算法,对运动目标进行检测,再利用形态学处理和标记算法实现运动分割;
所述步骤一包括以下步骤:
步骤(11),建立动态矩阵区分运动目标与背景;
引入运动矩阵:
I(t)为t时刻的图像;
I(t-γ)为t-γ时刻的图像;
F(t)为I(t)与I(t-γ)的二值化后的差值图像;
D(t)为t时刻动态矩阵。
则有如下关系:
γ代表间隔时间,γ越大,越不容易产生重影。Tf是一个阈值,来判断在t时刻某点是否有运动,Tf越大,则帧差结果受噪声的干扰就越小,但可能会丢失实际运动物体信息。λ指示如果该点在一段时间内没有什么变化,则将其视为背景信息,λ越大,对物体的慢速检测越有效。
可见动态矩阵D(t)可以表示物体的短时间内物体的颜色变化,而只有在短时间内时期内没有发生很大变化的点(Di,j(t)=0的点)才会被当作背景参预更新。更新方式如下。
Bi,j(t)=α·Ii,j(t)+(1-α)·Bi,j(t-1)(2.3)
其中α代表当前帧在更新背景时所占据的权重,α越大,背景更新速度就越快。
步骤(12),利用形态学中的腐蚀、膨胀等操作对单个摄像机拍摄的图像进行处理;
A被B腐蚀的结果为所有使B被x平移后包含于A的点x的集合。
A被结构元素B的膨胀的定义为:
其中,B′是结构元素B关于原点的映射。A被B膨胀是被所有x平移后于A至少有一个非零公共元素。
使用结构元素B对A进行开操作,表示为A°B,定义为:
可见,用B对A进行开操作就是用B对A腐蚀,然后用B对结果进行膨胀。
使用结构元素B对A进行闭操作,表示为A·B,定义为:
步骤(13),利用区域标记算法进行运动目标与背景的分割。
在二值图像f中,相互联结的黑像素的集合成为一个(黑)区域。本程序通过对图像f内每个区域进行标记操作(标号),求得区域的数目。由于处理前的f是二值的,像素要么为0(黑),要么为255(白),所以处理后每个像素的值即为其所处理区域的区域标号(1,2,3,…)。连接性c(=4)或(=8)由用户决定。
步骤二,运动目标跟踪:基于改进的均值偏移算法确定最佳搜索框位置,从而对运动目标进行跟踪;
所述步骤二包括以下步骤:
步骤(21),运用Mean shift算法计算每次目标框的重心;
设是观测的目标模板区域的像素位置[10],且目标模板的中心坐标为0,定义一个核函数k(x),它的作用是给目标模板区域的像素设置不同权值,让离模板中心较近的像素点对统计的特征信息有较大影响,而较远的像素点则对统计特征值影响较小。加权后的目标模板像素在进行密度估计时提高了搜索和跟踪能力,增强了鲁棒性。
步骤(22),利用基于彩色直方图的方向投影法建立跟踪物体的颜色色相分布模型;
采集的视频信息都是采用的RGB颜色模型,但是该颜色模型对光照(亮度)影响较为敏锐,不适于利用它进行被跟踪物体的特征提取,所以我们需要把视频信息由RGB转换为HSV模型。
RGB与HSV转换公式:
V=max(R,G,B),(3.10)
if(H<0)thenH=H+360
步骤(23),判别目标框与颜色色相分布特征是否相似,如果符合则停止迭代计算并最终确定最佳搜索框位置。
具体操作如下:
①由运动物体的分割检测得到初始Mean shift搜索窗口,并计算得到窗口的中心(x′,y′)和大小(m,n)。
②计算被搜索的窗口的重心。
在二维离散的概率分布图像里,我们可以用窗口的零阶矩M00和一阶矩M01、M10间的关系得到窗口的质心,具体过程如下:
1)计算出窗口的零阶矩和一阶矩
I(x,y)表示坐标(x,y)的像素值,由于对该图像运用了反向投影方法,所以实际这里的像素质是原颜色的概率值。
2)计算出目标窗口重心
③调整窗口的中心(x′,y′)到窗口重心(xC,yC),计算出所移动的距离d:
④判断距离d是否已经小于某设定的阈值,如果成功小于设定阈值,说明窗口中心达到了汇聚效果,算法结束,已经找到最优位置,否则转第5步。
⑤判断寻找最优位置是否已经达到一定次数,如果达到,同样迭代完毕,认为找到最优位置,否则转第2步。
步骤三,多摄像机协同最终确定运动轨迹:通过计算场边界线,在多摄像机中建立同一物体运动轨迹的关联,最终实现全景监控。
本发明中,优选地,所述步骤三包括以下步骤:
步骤(31),确定单摄像机三维场边界线;
定义第i个摄像机的图像为Ci(x,y)。Ci的覆盖范围在空间上实际是一个四棱锥,它的顶点是摄像机的投影中心,在图像平面上的四条边分别为x=0,x=xmax,y=0,y=ymax。定义S是这图像平面上四条边的集合,用小写s表示这四条边的任意一条。地平面与四棱锥相交所得四条边即为图像中足迹的实际边界,称之为三维场边界线(如图4所示)。
步骤(32),检测场边界线,确定存在目标物体的摄像机集合;
如图5a所示,一个人刚刚从摄像机C2左侧进入C2范围,立即检测摄像机C1范围内是否有目标出现,如果C1范围内仅仅有一个目标,那么我们可以认为他们是同一目标,并可以在C1视野范围内确定L2,y=0上的一点。同样,根据图5b所描述的情况,同样可以再确定L2,y=0上的一点。
步骤(33),通过三维边界场对跟踪物体的约束条件,正确匹配摄像机集合中的运动目标。
依据这个约束条件,我们可以列出可能的关联物体的候选名单。在绝大数情况下,依据这个约束条件足以消除可能的误匹配并找出真正的同一物体的匹配情况。这种情况下,对于Ci中的观测就可以进行依据与Cj关联的观测进行连续跟踪标记了。实际上,我们可以运用Cj中的候选物体与场边界线最短距离作为约束条件。
其中p是Cj中物体的标记,函数D(L,O)返回物体O与直线L的距离。
如果场景存在不止一个物体时,当其中一个物体穿过场边界线,那么在另外一个摄像机范围内的所有物体都会被认为是穿过场边界线的候选目标。然而错误的匹配目标会随机的分散在场边界线的两边,而正确的关联候选目标会集中在一条直线上。因此我们可以采用Hough变换(霍夫变换)和RANSAC(随机抽样一致性)算法结合来拟合出正确的场边界线,从而正确匹配运动目标,如图6所示。
Claims (4)
1.一种多摄像机协同跟踪运动目标的方法,其特征在于包括以下步骤:
步骤一,运动目标检测与分割:基于动态矩阵的自适应背景更新算法,对运动目标进行检测,再利用形态学处理和标记算法实现运动分割;
步骤二,运动目标跟踪:基于改进的均值偏移算法确定最佳搜索框位置,从而对运动目标进行跟踪;
步骤三,多摄像机协同最终确定运动轨迹:通过计算场边界线,在多摄像机中建立同一物体运动轨迹的关联,最终实现全景监控。
2.根据权利要求1所述的一种多摄像机协同跟踪运动目标的方法,其特征在于,所述步骤一包括以下步骤:
步骤(11),建立动态矩阵区分运动目标与背景;
步骤(12),利用形态学中的腐蚀、膨胀等操作对单个摄像机拍摄的图像进行处理;
步骤(13),利用区域标记算法进行运动目标与背景的分割。
3.根据权利要求2所述的一种多摄像机协同跟踪运动目标的方法,其特征在于,所述步骤二包括以下步骤:
步骤(21),运用均值偏移算法计算每次目标框的重心;
步骤(22),利用基于彩色直方图的方向投影法建立跟踪物体的颜色色相分布模型;
步骤(23),判别目标框与颜色色相分布特征是否相似,如果符合则停止迭代计算并最终确定最佳搜索框位置。
4.根据权利要求3所述的一种多摄像机协同跟踪运动目标的方法,其特征在于,所述步骤三包括以下步骤:
步骤(31),确定单摄像机三维场边界线;
步骤(32),检测场边界线,确定存在目标物体的摄像机集合;
步骤(33),通过三维边界场对跟踪物体的约束条件,正确匹配摄像机集合中的运动目标。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201110266616XA CN102289822A (zh) | 2011-09-09 | 2011-09-09 | 一种多摄像机协同跟踪运动目标的方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201110266616XA CN102289822A (zh) | 2011-09-09 | 2011-09-09 | 一种多摄像机协同跟踪运动目标的方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN102289822A true CN102289822A (zh) | 2011-12-21 |
Family
ID=45336211
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201110266616XA Pending CN102289822A (zh) | 2011-09-09 | 2011-09-09 | 一种多摄像机协同跟踪运动目标的方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN102289822A (zh) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103077533A (zh) * | 2012-12-26 | 2013-05-01 | 中国科学技术大学 | 一种基于蛙眼视觉特性定位运动目标的方法 |
CN103136753A (zh) * | 2013-02-25 | 2013-06-05 | 哈尔滨工业大学 | 一种基于均值漂移算法和数学形态学的深度图分割方法 |
CN104008371A (zh) * | 2014-05-22 | 2014-08-27 | 南京邮电大学 | 一种基于多摄像机的区域可疑目标跟踪与识别方法 |
CN105844634A (zh) * | 2016-03-18 | 2016-08-10 | 阜阳师范学院 | 一种多运动目标视频监控系统及其追踪监测方法 |
CN106096577A (zh) * | 2016-06-24 | 2016-11-09 | 安徽工业大学 | 一种摄像头分布地图中的目标追踪系统及追踪方法 |
CN107016687A (zh) * | 2017-03-25 | 2017-08-04 | 平顶山学院 | 视频运动目标检测和跟踪的混合算法 |
CN109461175A (zh) * | 2018-10-11 | 2019-03-12 | 依睿迪亚(南京)智能科技有限公司 | 一种基于多个摄像机镜头预估沿平面行进路径和距离的方法 |
CN110276789A (zh) * | 2018-03-15 | 2019-09-24 | 杭州海康威视系统技术有限公司 | 目标跟踪方法及装置 |
CN111223131A (zh) * | 2020-01-14 | 2020-06-02 | 山东科技大学 | 一种特定目标与嫌疑目标持续移动的监控追踪方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20060028552A1 (en) * | 2004-07-28 | 2006-02-09 | Manoj Aggarwal | Method and apparatus for stereo, multi-camera tracking and RF and video track fusion |
CN101179707A (zh) * | 2007-09-21 | 2008-05-14 | 清华大学 | 无线网络视频图像多视角协作目标跟踪测量方法 |
US7421093B2 (en) * | 2000-10-03 | 2008-09-02 | Gesturetek, Inc. | Multiple camera control system |
CN101442609A (zh) * | 2008-11-07 | 2009-05-27 | 南京大学 | 一种窗口分割和重组的跟踪方法 |
CN101527044A (zh) * | 2009-03-16 | 2009-09-09 | 江苏银河电子股份有限公司 | 多视频运动目标的自动分割与跟踪方法 |
-
2011
- 2011-09-09 CN CN201110266616XA patent/CN102289822A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7421093B2 (en) * | 2000-10-03 | 2008-09-02 | Gesturetek, Inc. | Multiple camera control system |
US20060028552A1 (en) * | 2004-07-28 | 2006-02-09 | Manoj Aggarwal | Method and apparatus for stereo, multi-camera tracking and RF and video track fusion |
CN101179707A (zh) * | 2007-09-21 | 2008-05-14 | 清华大学 | 无线网络视频图像多视角协作目标跟踪测量方法 |
CN101442609A (zh) * | 2008-11-07 | 2009-05-27 | 南京大学 | 一种窗口分割和重组的跟踪方法 |
CN101527044A (zh) * | 2009-03-16 | 2009-09-09 | 江苏银河电子股份有限公司 | 多视频运动目标的自动分割与跟踪方法 |
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103077533B (zh) * | 2012-12-26 | 2016-03-02 | 中国科学技术大学 | 一种基于蛙眼视觉特性定位运动目标的方法 |
CN103077533A (zh) * | 2012-12-26 | 2013-05-01 | 中国科学技术大学 | 一种基于蛙眼视觉特性定位运动目标的方法 |
CN103136753A (zh) * | 2013-02-25 | 2013-06-05 | 哈尔滨工业大学 | 一种基于均值漂移算法和数学形态学的深度图分割方法 |
CN103136753B (zh) * | 2013-02-25 | 2016-02-17 | 哈尔滨工业大学 | 一种基于均值漂移算法和数学形态学的深度图分割方法 |
CN104008371A (zh) * | 2014-05-22 | 2014-08-27 | 南京邮电大学 | 一种基于多摄像机的区域可疑目标跟踪与识别方法 |
CN104008371B (zh) * | 2014-05-22 | 2017-02-15 | 南京邮电大学 | 一种基于多摄像机的区域可疑目标跟踪与识别方法 |
CN105844634B (zh) * | 2016-03-18 | 2019-04-05 | 阜阳师范学院 | 一种多运动目标追踪监测方法 |
CN105844634A (zh) * | 2016-03-18 | 2016-08-10 | 阜阳师范学院 | 一种多运动目标视频监控系统及其追踪监测方法 |
CN106096577A (zh) * | 2016-06-24 | 2016-11-09 | 安徽工业大学 | 一种摄像头分布地图中的目标追踪系统及追踪方法 |
CN106096577B (zh) * | 2016-06-24 | 2019-05-31 | 安徽工业大学 | 一种摄像头分布地图中的目标追踪方法 |
CN107016687A (zh) * | 2017-03-25 | 2017-08-04 | 平顶山学院 | 视频运动目标检测和跟踪的混合算法 |
CN110276789A (zh) * | 2018-03-15 | 2019-09-24 | 杭州海康威视系统技术有限公司 | 目标跟踪方法及装置 |
CN110276789B (zh) * | 2018-03-15 | 2021-10-29 | 杭州海康威视系统技术有限公司 | 目标跟踪方法及装置 |
CN109461175A (zh) * | 2018-10-11 | 2019-03-12 | 依睿迪亚(南京)智能科技有限公司 | 一种基于多个摄像机镜头预估沿平面行进路径和距离的方法 |
CN111223131A (zh) * | 2020-01-14 | 2020-06-02 | 山东科技大学 | 一种特定目标与嫌疑目标持续移动的监控追踪方法 |
CN111223131B (zh) * | 2020-01-14 | 2022-05-03 | 山东科技大学 | 一种特定目标与嫌疑目标持续移动的监控追踪方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN102289822A (zh) | 一种多摄像机协同跟踪运动目标的方法 | |
CN103268616B (zh) | 多特征多传感器的移动机器人运动人体跟踪方法 | |
CN109800689B (zh) | 一种基于时空特征融合学习的目标跟踪方法 | |
CN104115192B (zh) | 三维近距离交互的改进或与其有关的改进 | |
CN101739712B (zh) | 基于视频的3d人脸表情动画驱动方法 | |
CN104318258B (zh) | 一种基于时域模糊和卡尔曼滤波器的车道线检测方法 | |
Manduchi et al. | Obstacle detection and terrain classification for autonomous off-road navigation | |
CN101701818B (zh) | 远距离障碍的检测方法 | |
CN109102547A (zh) | 基于物体识别深度学习模型的机器人抓取位姿估计方法 | |
Zhou et al. | Self‐supervised learning to visually detect terrain surfaces for autonomous robots operating in forested terrain | |
CN103699908B (zh) | 基于联合推理的视频多目标跟踪方法 | |
CN103049751A (zh) | 一种改进的加权区域匹配高空视频行人识别方法 | |
CN104091348A (zh) | 融合显著特征和分块模板的多目标跟踪方法 | |
CN105528794A (zh) | 基于混合高斯模型与超像素分割的运动目标检测方法 | |
CN107784663A (zh) | 基于深度信息的相关滤波跟踪方法及装置 | |
CN104063711B (zh) | 一种基于K‑means方法的走廊消失点快速检测算法 | |
CN103106667A (zh) | 一种面向遮挡和场景变换的运动对象追踪方法 | |
CN103927511A (zh) | 基于差异特征描述的图像识别方法 | |
CN106127812A (zh) | 一种基于视频监控的客运站非出入口区域的客流统计方法 | |
CN104794737A (zh) | 一种深度信息辅助粒子滤波跟踪方法 | |
CN105279769A (zh) | 一种联合多特征的层次粒子滤波跟踪方法 | |
Laible et al. | Terrain classification with conditional random fields on fused 3D LIDAR and camera data | |
CN110334656A (zh) | 基于信源概率加权的多源遥感图像水体提取方法及装置 | |
CN106228570A (zh) | 一种真值数据确定方法和装置 | |
CN104700105A (zh) | 非结构化室外地形全局检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C02 | Deemed withdrawal of patent application after publication (patent law 2001) | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20111221 |