CN105931267A - 一种基于改进ViBe算法的运动物体检测跟踪方法 - Google Patents
一种基于改进ViBe算法的运动物体检测跟踪方法 Download PDFInfo
- Publication number
- CN105931267A CN105931267A CN201610239032.6A CN201610239032A CN105931267A CN 105931267 A CN105931267 A CN 105931267A CN 201610239032 A CN201610239032 A CN 201610239032A CN 105931267 A CN105931267 A CN 105931267A
- Authority
- CN
- China
- Prior art keywords
- frame
- moving object
- background model
- rectangle frame
- background
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 32
- 238000001514 detection method Methods 0.000 title abstract description 8
- 239000000284 extract Substances 0.000 claims abstract description 11
- 230000011218 segmentation Effects 0.000 claims description 23
- 230000006641 stabilisation Effects 0.000 claims description 19
- 238000011105 stabilization Methods 0.000 claims description 19
- 238000010276 construction Methods 0.000 claims description 17
- 230000008569 process Effects 0.000 claims description 8
- 230000008034 disappearance Effects 0.000 claims description 5
- 230000003068 static effect Effects 0.000 claims description 5
- 238000004458 analytical method Methods 0.000 claims description 3
- 230000008878 coupling Effects 0.000 claims description 3
- 238000010168 coupling process Methods 0.000 claims description 3
- 238000005859 coupling reaction Methods 0.000 claims description 3
- 230000006872 improvement Effects 0.000 claims description 2
- 238000004364 calculation method Methods 0.000 abstract 1
- 230000000087 stabilizing effect Effects 0.000 abstract 1
- 230000007423 decrease Effects 0.000 description 13
- 206010000234 Abortion spontaneous Diseases 0.000 description 7
- 208000015994 miscarriage Diseases 0.000 description 7
- 208000000995 spontaneous abortion Diseases 0.000 description 7
- 230000008859 change Effects 0.000 description 3
- 238000003705 background correction Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 230000008439 repair process Effects 0.000 description 2
- 239000000654 additive Substances 0.000 description 1
- 230000000996 additive effect Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000036541 health Effects 0.000 description 1
- 230000002045 lasting effect Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000002787 reinforcement Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
Landscapes
- Image Analysis (AREA)
Abstract
本发明公开了一种基于改进ViBe算法的运动物体检测跟踪方法,具体包括以下步骤:S1、在ViBe背景模型初始化前采用判断视频稳定的策略,并在视频稳定后采用多个稳定且无需连续的输入帧构建背景模型;S2、在ViBe提取到前景图像后,进行第一次背景模型修正;S3、在运动物体检测和跟踪后,进行第二次背景模型修正;S4、在运动物体定位和跟踪时,利用几何比较,对当前帧中的运动物体框集与由此前一定时间内的运动物体框集构建的运动物体动态矩形框集进行匹配。本发明具有提高了背景稳定性、减少了背景噪点和误判概率、解决了“影子”遗留问题、减少了定位与跟踪的计算复杂度等优点。
Description
技术领域
本发明涉及计算机视频图像处理领域,具体涉及一种基于改进ViBe算法的运动物体检测跟踪方法。
背景技术
运动物体的检测与跟踪是智能监控视频系统的重要环节之一,其位于整个系统的最底层,是后续各个环节如目标识别、目标分类等的基础。运动物体检测是指从视频流背景中提取出运动目标前景。运动物体跟踪是指对运动目标进行持续的跟踪,以便进行下一环节处理。
ViBe(Visual background extractor)算法由Olivier Barnich和Marc Van Droogenbroeck于2009年首次提出,是一种像素级视频背景建模或前景检测的算法。其思想是首先为每个像素点存储一个样本集,样本集中采样值即该像素点过去的像素值和其邻居点的像素值;然后将输入图像的每个新的像素值和样本集进行比较,以判断是否属于背景点。该模型主要包括三个方面:模型的工作原理;模型的初始化方法;模型的更新策略。与背景相减法、帧间差分法和光流法等其他方法相比,其效果良好,对硬件内存占用也少。
然而ViBe算法也存在一些不足:
一是,ViBe算法使用视频流的第一帧图像进行背景模型初始化,也即使用一帧图像的信息建立所有背景样本集。但若第一帧存在运动物体或其他扰动(如视频抖动、光线强烈变化等),则在进行前景检测时便会对运动物体进行误判。同时,使用单一一帧建立整个背景样本集,亦会使得模型不够丰富。
二是,ViBe算法只在前景检测后进行背景模型更新,因此视频噪点无法进入模型,丰富背景模型,使得模型针对噪点抵抗能力差。而且,对于某次误判的前景亦无法较快更新,使得此误判前景多次被误判。
三是,ViBe算法对于“影子”遗留问题无法解决。所谓“影子”遗留,就是运动物体已从视频流中消失或由静止再次变为运动,原运动区域已无运动物体,但依然被判定为前景的情况。
针对ViBe算法的以上不足及现有运动物体跟踪策略大部分复杂度较高的情况,本发明提出里一种基于改进ViBe算法的运动物体检测跟踪方法。
发明内容
本发明的目的在于针对现有技术的不足之处,提出一种基于改进ViBe算法的运动物体检测跟踪方法,该方法提高了背景的稳定性,减少了背景噪点和误判概率,解决了“影子”遗留问题、减少了定位与跟踪的计算复杂度。在背景模型初始化前提出一种判断视频稳定的策略,并在视频稳定后采用多个稳定且无需连续的输入帧构建背景模型,提高了背景稳定性;在ViBe提取到前景图像后,本发明通过第一次背景模型修正,减少了背景噪点和误判概率;在运动物体检测和跟踪后,本发明进行第二次背景模型修正,解决了“影子”遗留问题;在运动物体定位和跟踪时,利用几何比较,减少了定位与跟踪的计算复杂度。
本发明的改进原理如下:
ViBe算法利用视频流第一帧进行多维的背景模型构建,此方法若第一帧存在运动物体或其他扰动时,模型构建存在误判。因此,本发明在模型构建前对视频进行稳定性判断,只有当多帧连续帧稳定时,再进行模型构建,以消除误判;同时,在模型构建阶段采用多个稳定且无需连续的输入帧填充背景模型样本,以增加背景模型多样性。
ViBe算法仅在前景检测后进行背景模型更新,对于背景噪点和误判的运动物体无法及时更新。故而,本发明在前景图像经过形态学和连通域处理后,针对寻找出的误判前景点进行第一次背景模型修正,以减少背景噪点和误判概率。
ViBe算法由于其背景模型更新的局限,无法解决“影子”遗留问题。因此,本发明在运动物体检测和跟踪结束后,针对原有运动物体遗留的“影子”进行第二次背景模型修正,以解决拖影问题。
现有运动物体跟踪策略大部分复杂度较高,不利于监控视频流等情况下的实时处理。故而,本发明在运动物体定位和跟踪时,利用几何比较,对当前帧中的运动物体框集与由此前一定时间内的运动物体框集构建的运动物体动态矩形框集进行匹配,减少了定位与跟踪的计算复杂度。
本发明在背景模型初始化前提出一种判断视频稳定的策略,并在视频稳定后采用多个稳定且无需连续的输入帧构建背景模型,提高了背景稳定性;在ViBe提取到前景图像后,本发明通过第一次背景模型修正,减少了背景噪点和误判概率;在运动物体检测和跟踪后,本发明进行第二次背景模型修正,解决了“影子”遗留问题;在运动物体定位和跟踪时,利用几何比较,减少了定位与跟踪的计算复杂度。具体实施方式中的实例表明,使用本发明改进ViBe算法和定位跟踪方法后,提高了背景稳定性、减少了背景噪点和误判概率、解决了“影子”遗留问题、减少了定位与跟踪的计算复杂度。本发明适用于计算机视频图像处理领域,特别适用于视频图像处理领域。
本发明的目的可以通过以下技术方案实现:一种基于改进ViBe算法的运动物体检测跟踪方法,包括以下步骤:
S1、在ViBe背景模型初始化前采用一种判断视频稳定的策略,并在视频稳定后采用多个稳定且无需连续的输入帧构建背景模型,提高了背景稳定性;
S2、在ViBe提取到前景图像后,通过第一次背景模型修正,减少了背景噪点和误判概率;
S3、在运动物体检测和跟踪后,进行第二次背景模型修正,解决了“影子”遗留和拖影问题;
S4、在运动物体定位和跟踪时,利用几何比较,对当前帧中的运动物体框集与由此前一定时间内的运动物体框集构建的运动物体动态矩形框集进行匹配,减少了定位与跟踪的计算复杂度。
在步骤S1中,判定视频稳定的策略是基于当前帧I与由I前三帧通过权值分配构建的临时背景图像I'经过差分所获得的二值化图像D,其中,0表示前景点,255表示为背景点,通过对前景点数统计判断当前帧是否稳定,再通过对连续稳定帧数的统计判定视频是否稳定。
在步骤S1中,采用多个稳定且无需连续的输入帧进行背景模型构建,其中,背景模型的定义如下,设多帧背景模型B(x)为:
B(x)={B(x1),...,B(xi),...,B(xN)}={W(x1),...,W(xi),...,W(xN)},
式中,N为背景模型的帧数,i∈[1,N],B(xi)为第i帧背景样本,W(xi)为第i帧背景构建输入样本。
背景模型的构建方法是,利用权利要求2方法判断当前帧是否稳定;若帧稳定,则记为W(xi);若背景模型帧数达到N帧,则模型构建完成;若连续Wframe帧不稳定,则重新判断视频是否稳定。
在步骤S2中,第一次背景模型修正的修正点寻找策略为:对ViBe算法提取的二值化前景图像V1进行形态学和连通域处理,得到二值化图像V2;寻找被V1判定为前景点且被V2判定为背景点的点集F1,并利用点集F1进行背景模型修正。
在步骤S2中,第一次背景模型修正的修正策略为:设修正概率为γ=γ1,修正半径为l=l1,修正点集F=F1,则对于点集F内的每一个点b(r,c)都以概率γ修正背景模型B(x)的第i帧对应样本点B(xi(r,c));同时也以概率γ修正以背景模型B(x)第i帧对应样本点B(xi(r,c))为中心,以l半径的邻域样本点。
在步骤S3中,第二次背景模型修正的修正点寻找策略为:基于定位和跟踪结果寻找出需加强修正的运动物体类别,即运动物体遗留的“影子”,,如本发明实例中寻找出消失的运动物体和由静止转化为运动的运动物体,提取它们所对应的运动物体动态矩形框,将属于矩形框内的点放入点集F2。对于点集F2利用权利要求5中的修正策略以修正概率为γ=γ2,修正半径为l=l2进行背景模型修正。
在步骤S4,匹配方法是,对于由此前一定时间内的运动物体框集构建的运动物体动态矩形框集PR中的每个动态矩形框PRm,分别与当前帧运动矩形框集CR中每一个矩形框CRj进行面积重合、长宽比例等几何比较,选出与PRm最为相似的矩形框TR。若TR满足设定的相似几何阈值,则匹配成功;否则匹配失败。同时,矩形框集PR、CR中已匹配的矩形框不再与未匹配的矩形框进行二次匹配。
运动物体动态矩形框集PR的构建策略为,若集合CR中的某一运动物体框CRk与集合PR中的任一矩形框均匹配失败,则被判定为新运动物体,利用边缘放大后的CRk建立新的动态矩形框PRd;若CRk与某一动态矩形框PRe匹配成功,则利用边缘放大后的CRk根据一定权值更新矩形框PRe。
将运动物体动态矩形框集PR中的矩形框分为两类:待跟踪物体矩形框E、需跟踪物体矩形框T。具体地,待跟踪物体矩形框E是指矩形框更新次数小于三次,尚无法判断是否为误判的矩形框,此时只进行矩形框更新,不作为物体定位跟踪结果输出;需跟踪物体矩形框T是指其中矩形框更新次数大于等于三次,确定为存在运动物体的矩形框,此时既进行矩形框更新,也作为物体定位跟踪结果输出。同时,若某一动态矩形框PRk连续三帧均未匹配到运动物体框,则认为其所对应的运动物体消失或误判,将PRk从集合PR中移除。
本发明提出的具体方法如下:
判定视频稳定的策略是基于当前帧I与由I前三帧通过权值分配构建的临时背景图像I'经过差分所获得的二值化图像D(其中0表示前景点,255表示为背景点),通过对前景点数统计判断当前帧是否稳定,再通过对连续稳定帧数的统计判定视频是否稳定。附图2为视频稳定判断阶段的示意图。
在背景模型构建阶段采用多个稳定且无需连续的输入帧进行背景模型构建。其中背景模型的定义如下,设多帧背景模型B(x)为:
B(x)={B(x1),...,B(xi),...,B(xN)}={W(x1),...,W(xi),...,W(xN)},
式中,B(xi)为第i帧背景样本,W(xi)为第i帧背景构建输入样本,N为背景模型帧数。
具体地,背景模型的构建方法是,利用权利要求2方法判断当前帧是否稳定;若帧稳定,则记为W(xi);若背景模型帧数达到N帧,则模型构建完成;若连续Wframe帧不稳定,则重新判断视频是否稳定。
第一次背景模型修正,其修正点寻找策略为:对ViBe算法提取的二值化前景图像V1进行形态学和连通域处理,得到二值化图像V2;寻找被V1判定为前景点且被V2判定为背景点的点集F1,并利用点集F1进行背景模型修正。其背景模型修正的策略为:设修正概率为γ=γ1,修正半径为l=l1,修正点集F=F1,则对于点集F内的每一个点b(r,c)都以概率γ修正背景模型B(x)的第i帧对应样本点B(xi(r,c));同时也以概率γ修正以背景模型B(x)第i帧对应样本点B(xi(r,c))为中心,以l半径的邻域样本点。
第二次背景模型修正,其修正点寻找策略为:基于定位和跟踪结果寻找出需加强修正的运动物体类别(即运动物体遗留的“影子”),如本发明实例中寻找出消失的运动物体和由静止转化为运动的运动物体,提取它们所对应的运动物体动态矩形框,将属于矩形框内的点放入点集F2。对于点集F2利用权利要求5中的修正策略以修正概率为γ=γ2,修正半径为l=l2进行背景模型修正。
运动物体定位和跟踪的策略是:
(1)运动物体定位和跟踪匹配方法是,对于由此前一定时间内的运动物体框集构建的运动物体动态矩形框集PR中的每个动态矩形框PRm,分别与当前帧运动矩形框集CR中每一个矩形框CRj进行面积重合、长宽比例等几何比较,选出与PRm最为相似的矩形框TR。若TR满足设定的相似几何阈值,则匹配成功;否则匹配失败。同时,矩形框集PR、CR中已匹配的矩形框不再与未匹配的矩形框进行二次匹配。
(2)运动物体动态矩形框集PR的构建策略为,若集合CR中的某一运动物体框CRk与集合PR中的任一矩形框均匹配失败,则被判定为新运动物体,利用边缘放大后的CRk建立新的动态矩形框PRd;若CRk与某一动态矩形框PRe匹配成功,则利用边缘放大后的CRk根据一定权值更新矩形框PRe。
(3)将运动物体动态矩形框集PR中的矩形框分为两类:待跟踪物体矩形框E、需跟踪物体矩形框T。具体地,待跟踪物体矩形框E是指矩形框更新次数小于三次,尚无法判断是否为误判的矩形框,此时只进行矩形框更新,不作为物体定位跟踪结果输出;需跟踪物体矩形框T是指其中矩形框更新次数大于等于三次,确定为存在运动物体的矩形框,此时既进行矩形框更新,也作为物体定位跟踪结果输出。同时,若某一动态矩形框PRk连续三帧均未匹配到运动物体框,则认为其所对应的运动物体消失或误判,将PRk从集合PR中移除。
本发明方法可以具体包括如下步骤:
步骤S1:将输入帧与由当前帧的前三帧构建的临时背景图像比较以判断是否帧稳定及视频稳定;若视频稳定则进行步骤S2背景模型初始化,否则等待背景稳定,如图2所示;
1-1)利用当前帧I的前三帧构建临时背景图像I',即:
I'=w1I1+w2I2+w3I3,
式中,I1、I2、I3为当前帧I的前三帧,w1、w2、w3为每帧所设置的权值,且
w1+w2+w3=1。为使得I'适应背景的实时变化,设置w1>w2>w3。
1-2)将当前帧I与临时背景I'进行差分,即:
D=|I-I'|,
式中,D为差分所得图像。
1-3)将D转换为二值化图像,其中0表示前景点,255表示为背景点。计算前景点数Dcount,若Dcount小于阈值Dthres,则表示当前帧稳定。
1-4)若连续帧Dframe1都被判断为稳定,则认定视频稳定,进入步骤S2;若连续Dframe2帧都被判断为不稳定,则重新检测视频稳定。
步骤S2:采用多个稳定且无需连续的输入帧构建背景模型;
2-1)背景模型的定义为,设多帧背景模型B(x)为:
B(x)={B(x1),...,B(xi),...,B(xN)}={W(x1),...,W(xi),...,W(xN)},
式中,B(xi)为第i帧背景样本,W(xi)为第i帧背景构建输入样本,N为背景模型帧数。
2-2)背景模型的构建方法是,利用步骤S1中的方法判断当前帧是否稳定;若稳定,则记为W(xi);若连续Wframe帧均不稳定,则将B(x)中背景样本清空,返回步骤S1。若背景模型帧数达到N帧,则进入步骤S3。
步骤S3:利用背景模型和ViBe算法对输入帧提取二值化前景图像,并进行背景模型更新;
步骤S4:对所得二值化前景图像进行形态学与连通域处理;
步骤S5:根据步骤S4处理后的前景图像一次修正背景模型;
5-1)寻找被步骤S3的二值化前景图像V1判定为前景点且被步骤S4的二值化前景图像V2判定为背景点的点集F1。
5-2)利用点集F1进行背景模型修正,得到二值化前景图像V3。修正策略为:设修正概率为γ=γ1,修正半径为l=l1,修正点集F=F1,则对于点集F内的每一个点b(r,c)都以γ的概率去修正背景模型B(x)的第i帧对应样本点B(xi(r,c));同时也以概率γ去修正以背景模型B(x)第i帧对应样本点B(xi(r,c))为中心,以l半径的邻域样本点。
步骤S6:对步骤S4处理后的前景图像进行阴影去除、前景分割与运动矩形框提取;
步骤S7:将提取的运动矩形框集与已有运动物体动态矩形框集匹配,实现目标定位与跟踪;
7-1)当前帧运动矩形框集与运动物体动态矩形框集的匹配方法是,对于由此前一定时间内的运动物体框集构建的运动物体动态矩形框集PR中的每个动态矩形框PRm,分别与当前帧运动矩形框集CR中每一个矩形框CRj进行面积重合、长宽比例等几何比较,选出与PRm最为相似的矩形框TR。若TR满足设定的相似几何阈值,则匹配成功;否则匹配失败。同时,矩形框集PR、CR中已匹配的矩形框不再与未匹配的矩形框进行二次匹配。
7-2)运动物体动态矩形框集PR的构建策略为,若集合CR中的某一运动物体框CRk与集合PR中的任一矩形框均匹配失败,则被判定为新运动物体,利用边缘放大后的CRk建立新的动态矩形框PRd;若CRk与某一动态矩形框PRe匹配成功,则利用边缘放大后的CRk根据一定权值更新矩形框PRe。
7-3)将运动物体动态矩形框集PR中的矩形框分为两类:待跟踪物体矩形框E、需跟踪物体矩形框T。具体地,待跟踪物体矩形框E是指矩形框更新次数小于三次,尚无法判断是否为误判的矩形框,此时只进行矩形框更新,不作为物体定位跟踪结果输出;需跟踪物体矩形框T是指其中矩形框更新次数大于等于三次,确定为存在运动物体的矩形框,此时既进行矩形框更新,也作为物体定位跟踪结果输出。同时,若某一动态矩形框PRk连续三帧均未匹配到运动物体框,则认为其所对应的运动物体消失或误判,将PRk从集合PR中移除。
步骤S8:针对定位与跟踪的不同结果,二次修正背景模型。
8-1)基于步骤S7的匹配结果,寻找出需加强修正的运动类别(即运动物体遗留的“影子”),如本发明实例中寻找出消失的运动物体和由静止转化为运动的运动物体,提取它们所对应的运动物体动态矩形框,将属于矩形框内的点放入点集F2。
8-2)对于点集F2利用步骤5-2)中的修正策略以修正概率为γ=γ2,修正半径为l=l2进行背景修正。
相对于现有技术,本发明的具有如下的优点与有益效果:
1、本发明通过判断视频稳定情况,消除了背景建模时因扰动产生的误判。
2、本发明利用多个稳定且无需连续的视频帧建立背景模型,增强了背景模型对抗干扰的稳定性。
3、本发明通过第一次背景模型修正,减少了背景噪点和误判概率。
4、在运动物体检测和跟踪后,本发明进行了第二次背景模型的修正,有效解决了“影子”遗留问题。
5、在运动物体定位和跟踪时,利用几何比较,减少了定位与跟踪的计算复杂度。
附图说明
图1为本发明运动物体检测跟踪方法的整体流程图。
图2为本发明视频稳定判断阶段的示意图。
具体实施方式
下面结合附图及具体实施例,对本发明作进一步地详细说明。以下实施例仅用于更加清楚地说明本发明的技术方案,而不能以此来限制本发明的保护范围。
实施例
如图1所示,为本发明的一种基于改进ViBe算法的运动物体检测跟踪方法的整体流程图,包括以下步骤:
步骤S1:将输入帧与由当前帧的前三帧构建的临时背景图像比较以判断是否帧稳定及视
频稳定;若视频稳定则进行步骤S2背景模型初始化,否则等待背景稳定,如图2所示;
1-1)利用当前帧I的前三帧构建临时背景图像I',即:
I'=w1I1+w2I2+w3I3,
式中,I1、I2、I3为当前帧I的前三帧,w1、w2、w3为每帧所设置的权值,且w1+w2+w3=1。为使得I'适应背景的实时变化,设置w1>w2>w3。
1-2)将当前帧I与临时背景I'进行差分,即:
D=|I-I'|,
式中,D为差分所得图像。
1-3)将D转换为二值化图像,其中0表示前景点,255表示为背景点。计算前景点数Dcount,若Dcount小于阈值Dthres,则表示当前帧稳定。
1-4)若连续帧Dframe1都被判断为稳定,则认定视频稳定,进入步骤S2;若连续Dframe2帧都被判断为不稳定,则重新检测视频稳定。
步骤S2:采用多个稳定且无需连续的输入帧构建背景模型;
2-1)背景模型的定义为,设多帧背景模型B(x)为:
B(x)={B(x1),...,B(xi),...,B(xN)}={W(x1),...,W(xi),...,W(xN)},
式中,B(xi)为第i帧背景样本,W(xi)为第i帧背景构建输入样本,N为背景模型帧数。
2-2)背景模型的构建方法是,利用步骤S1中的方法判断当前帧是否稳定;若稳定,则记为W(xi);若连续Wframe帧均不稳定,则将B(x)中背景样本清空,返回步骤S1。若背景模型帧数达到N帧,则进入步骤S3。
步骤S3:利用背景模型和ViBe算法对输入帧提取二值化前景图像,并进行背景模型更新;
步骤S4:对所得二值化前景图像进行形态学与连通域处理;
步骤S5:根据步骤S4处理后的前景图像一次修正背景模型;
5-1)寻找被步骤S3的二值化前景图像V1判定为前景点且被步骤S4的二值化前景图像V2判定为背景点的点集F1。
5-2)利用点集F1进行背景模型修正,得到二值化前景图像V3。修正策略为:设修正概率为γ=γ1,修正半径为l=l1,修正点集F=F1,则对于点集F内的每一个点b(r,c)都以γ的概率去修正背景模型B(x)的第i帧对应样本点B(xi(r,c));同时也以概率γ去修正以背景模型B(x)第i帧对应样本点B(xi(r,c))为中心,以l半径的邻域样本点。
步骤S6:对步骤S4处理后的前景图像进行阴影去除、前景分割与运动矩形框提取;
步骤S7:将提取的运动矩形框集与已有运动物体动态矩形框集匹配,实现目标定位与跟踪;
7-1)当前帧运动矩形框集与运动物体动态矩形框集的匹配方法是,对于由此前一定时间内的运动物体框集构建的运动物体动态矩形框集PR中的每个动态矩形框PRm,分别与当前帧运动矩形框集CR中每一个矩形框CRj进行面积重合、长宽比例等几何比较,选出与PRm最为相似的矩形框TR。若TR满足设定的相似几何阈值,则匹配成功;否则匹配失败。同时,矩形框集PR、CR中已匹配的矩形框不再与未匹配的矩形框进行二次匹配。
7-2)运动物体动态矩形框集PR的构建策略为,若集合CR中的某一运动物体框CRk与集合PR中的任一矩形框均匹配失败,则被判定为新运动物体,利用边缘放大后的CRk建立新的动态矩形框PRd;若CRk与某一动态矩形框PRe匹配成功,则利用边缘放大后的CRk根据一定权值更新矩形框PRe。
7-3)将运动物体动态矩形框集PR中的矩形框分为两类:待跟踪物体矩形框E、需跟踪物体矩形框T。具体地,待跟踪物体矩形框E是指矩形框更新次数小于三次,尚无法判断是否为误判的矩形框,此时只进行矩形框更新,不作为物体定位跟踪结果输出;需跟踪物体矩形框T是指其中矩形框更新次数大于等于三次,确定为存在运动物体的矩形框,此时既进行矩形框更新,也作为物体定位跟踪结果输出。同时,若某一动态矩形框PRk连续三帧均未匹配到运动物体框,则认为其所对应的运动物体消失或误判,将PRk从集合PR中移除。
步骤S8:针对定位与跟踪的不同结果,二次修正背景模型。
8-1)基于步骤S7的匹配结果,寻找出需加强修正的运动类别(即运动物体遗留的“影子”),如本发明实例中寻找出消失的运动物体和由静止转化为运动的运动物体,提取它们所对应的运动物体动态矩形框,将属于矩形框内的点放入点集F2。
8-2)对于点集F2利用步骤5-2)中的修正策略以修正概率为γ=γ2,修正半径为l=l2进行背景修正。
上述实施例为发明较佳的实施方式,但本发明的实施方式并不受所述实施例的限制,其他的任何未背离本发明的精神实质与原理下所作的改变、修饰、替代、组合、简化,均应为等效的置换方式,都包含在本发明的保护范围之内。
Claims (9)
1.一种基于改进ViBe算法的运动物体检测跟踪方法,其特征在于,包括以下步骤:
S1、在ViBe背景模型初始化前采用判断视频稳定的策略,并在视频稳定后采用多个稳定且无需连续的输入帧构建背景模型;
S2、在ViBe提取到前景图像后,进行第一次背景模型修正;
S3、在运动物体检测和跟踪后,进行第二次背景模型修正;
S4、在运动物体定位和跟踪时,利用几何比较,对当前帧中的运动物体框集与由此前一定时间内的运动物体框集构建的运动物体动态矩形框集进行匹配。
2.根据权利要求1所述的基于改进ViBe算法的运动物体检测跟踪方法,其特征在于,在步骤S1中,判定视频稳定的策略是基于当前帧I与由I前三帧通过权值分配构建的临时背景图像I'经过差分所获得的二值化图像D,其中,0表示前景点,255表示为背景点,通过对前景点数统计判断当前帧是否稳定,再通过对连续稳定帧数的统计判定视频是否稳定。
3.根据权利要求1所述的基于改进ViBe算法的运动物体检测跟踪方法,其特征在于,在步骤S1中,采用多个稳定且无需连续的输入帧进行背景模型构建,所述背景模型的定义如下,设多帧背景模型B(x)为:
B(x)={B(x1),...,B(xi),...,B(xN)}={W(x1),...,W(xi),...,W(xN)},
式中,N为背景模型的帧数,i∈[1,N],B(xi)为第i帧背景样本,W(xi)为第i帧背景构建输入样本;
背景模型的构建方法是,利用权利要求2方法判断当前帧是否稳定;若帧稳定,则记为W(xi);若背景模型帧数达到N帧,则模型构建完成;若连续Wframe帧不稳定,则重新判断视频是否稳定。
4.根据权利要求1所述的基于改进ViBe算法的运动物体检测跟踪方法,其特征在于,在步骤S2中,第一次背景模型修正的修正点寻找策略为:对ViBe算法提取的二值化前景图像V1进行形态学和连通域处理,得到二值化图像V2;寻找被V1判定为前景点且被V2判定为背景点的点集F1,并利用点集F1进行背景模型修正。
5.根据权利要求1所述的基于改进ViBe算法的运动物体检测跟踪方法,其特征在于,在步骤S2中,第一次背景模型修正的修正策略为:设修正概率为γ=γ1,修正半径为l=l1,修正点集F=F1,则对于点集F内的每一个点b(r,c)都以概率γ修正背景模型B(x)的第i帧对应样本点B(xi(r,c));同时也以概率γ修正以背景模型B(x)第i帧对应样本点B(xi(r,c))为中心,以l半径的邻域样本点。
6.根据权利要求1所述的基于改进ViBe算法的运动物体检测跟踪方法,其特征在于,在步骤S3中,第二次背景模型修正的修正点寻找策略为:基于定位和跟踪结果寻找出需加强修正的运动物体类别,即运动物体遗留的“影子”,寻找出消失的运动物体和由静止转化为运动的运动物体,提取运动的运动物体所对应的运动物体动态矩形框,将属于矩形框内的点放入点集F2;对于点集F2利用权利要求5中的修正策略以修正概率为γ=γ2,修正半径为l=l2进行背景模型修正。
7.根据权利要求1所述的基于改进ViBe算法的运动物体检测跟踪方法,其特征在于,在步骤S4,所述匹配的匹配方法是,对于由此前一定时间内的运动物体框集构建的运动物体动态矩形框集PR中的每个动态矩形框PRm,分别与当前帧运动矩形框集CR中每一个矩形框CRj进行面积重合、长宽比例等几何比较,选出与PRm最为相似的矩形框TR;若TR满足设定的相似几何阈值,则匹配成功;否则匹配失败;同时,矩形框集PR、CR中已匹配的矩形框不再与未匹配的矩形框进行二次匹配。
8.根据权利要求7所述的基于改进ViBe算法的运动物体检测跟踪方法,其特征在于,运动物体动态矩形框集PR的构建策略为,若集合CR中的某一运动物体框CRk与集合PR中的任一矩形框均匹配失败,则被判定为新运动物体,利用边缘放大后的CRk建立新的动态矩形框PRd;若CRk与某一动态矩形框PRe匹配成功,则利用边缘放大后的CRk根据一定权值更新矩形框PRe。
9.根据权利要求7所述的基于改进ViBe算法的运动物体检测跟踪方法,其特征在于,将运动物体动态矩形框集PR中的矩形框分为两类:待跟踪物体矩形框E、需跟踪物体矩形框T;具体地,待跟踪物体矩形框E是指矩形框更新次数小于三次,尚无法判断是否为误判的矩形框,此时只进行矩形框更新,不作为物体定位跟踪结果输出;需跟踪物体矩形框T是指其中矩形框更新次数大于等于三次,确定为存在运动物体的矩形框,此时既进行矩形框更新,也作为物体定位跟踪结果输出;同时,若某一动态矩形框PRk连续三帧均未匹配到运动物体框,则认为其所对应的运动物体消失或误判,将PRk从集合PR中移除。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610239032.6A CN105931267B (zh) | 2016-04-15 | 2016-04-15 | 一种基于改进ViBe算法的运动物体检测跟踪方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610239032.6A CN105931267B (zh) | 2016-04-15 | 2016-04-15 | 一种基于改进ViBe算法的运动物体检测跟踪方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN105931267A true CN105931267A (zh) | 2016-09-07 |
CN105931267B CN105931267B (zh) | 2019-05-14 |
Family
ID=56838352
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610239032.6A Expired - Fee Related CN105931267B (zh) | 2016-04-15 | 2016-04-15 | 一种基于改进ViBe算法的运动物体检测跟踪方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN105931267B (zh) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106408577A (zh) * | 2016-09-21 | 2017-02-15 | 安徽慧视金瞳科技有限公司 | 一种用于投影交互系统的连续帧连通域并行标记方法 |
CN106548488A (zh) * | 2016-10-25 | 2017-03-29 | 电子科技大学 | 一种基于背景模型及帧间差分的前景检测方法 |
CN107798297A (zh) * | 2017-09-28 | 2018-03-13 | 成都大熊智能科技有限责任公司 | 一种基于帧间差分自动提取稳定帧的方法 |
CN109191839A (zh) * | 2018-09-13 | 2019-01-11 | 江南大学 | 基于深度学习的车辆分类与计数方法 |
CN111929653A (zh) * | 2020-07-21 | 2020-11-13 | 上海交通大学 | 一种基于无人船航海雷达的目标检测、跟踪方法及系统 |
CN113379984A (zh) * | 2020-02-25 | 2021-09-10 | 北京君正集成电路股份有限公司 | 一种电子看护围栏系统 |
CN113379985A (zh) * | 2020-02-25 | 2021-09-10 | 北京君正集成电路股份有限公司 | 一种看护电子围栏报警装置 |
CN115618051A (zh) * | 2022-12-20 | 2023-01-17 | 楠楠聚智信息科技有限责任公司 | 一种基于互联网的智慧校园监控视频存储方法 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20100208998A1 (en) * | 2007-07-08 | 2010-08-19 | Marc Van Droogenbroeck | Visual background extractor |
CN103020989A (zh) * | 2012-12-05 | 2013-04-03 | 河海大学 | 一种基于在线场景特征聚类的多视角目标跟踪方法 |
CN103971386A (zh) * | 2014-05-30 | 2014-08-06 | 南京大学 | 一种动态背景场景下的前景检测方法 |
CN104063885A (zh) * | 2014-07-23 | 2014-09-24 | 山东建筑大学 | 一种改进的运动目标检测与跟踪方法 |
CN104331905A (zh) * | 2014-10-31 | 2015-02-04 | 浙江大学 | 一种基于运动物体检测的监控视频摘要提取方法 |
CN104835179A (zh) * | 2015-03-30 | 2015-08-12 | 复旦大学 | 基于动态背景自适应的改进ViBe背景建模算法 |
-
2016
- 2016-04-15 CN CN201610239032.6A patent/CN105931267B/zh not_active Expired - Fee Related
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20100208998A1 (en) * | 2007-07-08 | 2010-08-19 | Marc Van Droogenbroeck | Visual background extractor |
CN103020989A (zh) * | 2012-12-05 | 2013-04-03 | 河海大学 | 一种基于在线场景特征聚类的多视角目标跟踪方法 |
CN103971386A (zh) * | 2014-05-30 | 2014-08-06 | 南京大学 | 一种动态背景场景下的前景检测方法 |
CN104063885A (zh) * | 2014-07-23 | 2014-09-24 | 山东建筑大学 | 一种改进的运动目标检测与跟踪方法 |
CN104331905A (zh) * | 2014-10-31 | 2015-02-04 | 浙江大学 | 一种基于运动物体检测的监控视频摘要提取方法 |
CN104835179A (zh) * | 2015-03-30 | 2015-08-12 | 复旦大学 | 基于动态背景自适应的改进ViBe背景建模算法 |
Non-Patent Citations (5)
Title |
---|
尹凯 等: "改进的ViBe运动目标检测算法", 《电子设计工程》 * |
尹彦,耿兆丰: "基于背景模型的运动目标检测与跟踪", 《微计算机信息》 * |
汪德洋: "智能视频监控关键技术研究", 《中国优秀博硕士学位论文全文数据库(硕士) 信息科技辑》 * |
牛化康 等: "一种改进的ViBe目标检测算法", 《四川大学学报(工程科学版)》 * |
胡小冉,孙涵: "一种新的基于ViBe的运动目标检测方法", 《计算机科学》 * |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106408577A (zh) * | 2016-09-21 | 2017-02-15 | 安徽慧视金瞳科技有限公司 | 一种用于投影交互系统的连续帧连通域并行标记方法 |
CN106408577B (zh) * | 2016-09-21 | 2019-12-31 | 安徽慧视金瞳科技有限公司 | 一种用于投影交互系统的连续帧连通域并行标记方法 |
CN106548488A (zh) * | 2016-10-25 | 2017-03-29 | 电子科技大学 | 一种基于背景模型及帧间差分的前景检测方法 |
CN106548488B (zh) * | 2016-10-25 | 2019-02-15 | 电子科技大学 | 一种基于背景模型及帧间差分的前景检测方法 |
CN107798297A (zh) * | 2017-09-28 | 2018-03-13 | 成都大熊智能科技有限责任公司 | 一种基于帧间差分自动提取稳定帧的方法 |
CN109191839A (zh) * | 2018-09-13 | 2019-01-11 | 江南大学 | 基于深度学习的车辆分类与计数方法 |
CN113379984B (zh) * | 2020-02-25 | 2022-09-23 | 北京君正集成电路股份有限公司 | 一种电子看护围栏系统 |
CN113379984A (zh) * | 2020-02-25 | 2021-09-10 | 北京君正集成电路股份有限公司 | 一种电子看护围栏系统 |
CN113379985A (zh) * | 2020-02-25 | 2021-09-10 | 北京君正集成电路股份有限公司 | 一种看护电子围栏报警装置 |
CN113379985B (zh) * | 2020-02-25 | 2022-09-27 | 北京君正集成电路股份有限公司 | 一种看护电子围栏报警装置 |
CN111929653A (zh) * | 2020-07-21 | 2020-11-13 | 上海交通大学 | 一种基于无人船航海雷达的目标检测、跟踪方法及系统 |
CN111929653B (zh) * | 2020-07-21 | 2024-03-26 | 上海交通大学 | 一种基于无人船航海雷达的目标检测、跟踪方法及系统 |
CN115618051A (zh) * | 2022-12-20 | 2023-01-17 | 楠楠聚智信息科技有限责任公司 | 一种基于互联网的智慧校园监控视频存储方法 |
Also Published As
Publication number | Publication date |
---|---|
CN105931267B (zh) | 2019-05-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105931267A (zh) | 一种基于改进ViBe算法的运动物体检测跟踪方法 | |
CN104601964B (zh) | 非重叠视域跨摄像机室内行人目标跟踪方法及系统 | |
CN104268583B (zh) | 基于颜色区域特征的行人重识别方法及系统 | |
CN105678338B (zh) | 基于局部特征学习的目标跟踪方法 | |
CN102663362B (zh) | 一种基于灰度特征的运动目标检测方法 | |
CN103246896B (zh) | 一种鲁棒性车辆实时检测与跟踪方法 | |
CN109753949B (zh) | 一种基于深度学习的多视窗交通标志检测方法 | |
CN105513053B (zh) | 一种用于视频分析中背景建模方法 | |
CN106296725A (zh) | 运动目标实时检测与跟踪方法及目标检测装置 | |
CN107657625A (zh) | 融合时空多特征表示的无监督视频分割方法 | |
CN102903119A (zh) | 一种目标跟踪方法和装置 | |
CN102214291A (zh) | 一种快速准确的基于视频序列的人脸检测跟踪方法 | |
CN102289948A (zh) | 高速公路场景下一种多特征融合的多车辆视频跟踪方法 | |
CN112802054B (zh) | 一种融合图像分割的混合高斯模型前景检测方法 | |
CN105469425A (zh) | 一种视频浓缩方法 | |
CN102999920A (zh) | 基于最近邻分类器和均值漂移的目标跟踪方法 | |
CN107895379A (zh) | 一种视频监控中前景提取的改进算法 | |
CN107146239A (zh) | 卫星视频运动目标检测方法及系统 | |
CN111242985B (zh) | 基于马尔科夫模型的视频多行人追踪方法 | |
CN103714181A (zh) | 一种层级化的特定人物检索方法 | |
CN101883209A (zh) | 一种背景模型与三帧差分相结合进行视频背景检测的方法 | |
CN109712171B (zh) | 一种基于相关滤波器的目标跟踪系统及目标跟踪方法 | |
CN104599291B (zh) | 基于结构相似度和显著性分析的红外运动目标检测方法 | |
CN105825233A (zh) | 一种基于在线学习随机蕨分类器的行人检测方法 | |
CN103985142A (zh) | 联合数据关联的Mean Shift多目标跟踪方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20190514 |