CN104835179B - 基于动态背景自适应的改进ViBe背景建模方法 - Google Patents

基于动态背景自适应的改进ViBe背景建模方法 Download PDF

Info

Publication number
CN104835179B
CN104835179B CN201510144616.0A CN201510144616A CN104835179B CN 104835179 B CN104835179 B CN 104835179B CN 201510144616 A CN201510144616 A CN 201510144616A CN 104835179 B CN104835179 B CN 104835179B
Authority
CN
China
Prior art keywords
background
dynamic
decision
vibe
dynamic background
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN201510144616.0A
Other languages
English (en)
Other versions
CN104835179A (zh
Inventor
安志勇
管皓
王力冠
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fudan University
Original Assignee
Fudan University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fudan University filed Critical Fudan University
Priority to CN201510144616.0A priority Critical patent/CN104835179B/zh
Publication of CN104835179A publication Critical patent/CN104835179A/zh
Application granted granted Critical
Publication of CN104835179B publication Critical patent/CN104835179B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Analysis (AREA)

Abstract

本发明涉及一种基于动态背景自适应的改进ViBe背景建模算法,该算法包括:初始化背景模型,设置初始决策阈值和更新率;提取帧差图像子块标准差作为动态背景表征;利用ViBe前景修正动态背景特征,在此基础上构造并提取时空动态背景特征(TSD特征),然后根据该特征自适应调整决策阈值和更新率;根据得到的决策阈值和更新率,利用反馈机制不断地更新决策阈值、更新率以及背景模型;最终将获取视频的前景图像进行形态学后处理。该算法相较于Vibe算法,提高了算法在动态背景下的检测性能,降低了误检率。

Description

基于动态背景自适应的改进ViBe背景建模方法
技术领域
本发明涉及背景建模领域,具体涉及一种基于动态背景自适应的改进ViBe背景建模方法。
背景技术
运动目标检测是基于视频的智能监控系统的重要环节。常用的运动目标检测方法主要有背景相减法、帧间差分法和光流法。其中背景相减法是目前最常用的运动目标检测法,其基本思想是将当前帧图像与事先存储或者实时得到的背景图像相减,若对应像素的差值大于某一阈值,则判此像素属于运动目标上的一个像素,阈值操作后得到的结果直接给出了运动目标的位置、大小、形状等信息。但是由于该方法在使用中只考虑到像素级的更新,可能会发生背景更新的“死锁”问题,出现把静止物体误判为运动目标,降低检测的准确率。
如专利CN101621615公开的一种自适应背景建模及运动目标检测方法,该算法采用背景减除法得到差图像,然后采用自适应阈值进行二值化和滤波处理,得到运动目标二值化掩模图像,采用二值化掩模图像和当前帧输入图像进行逻辑与操作检测运动目标,然而背景减除法得到的二值化图像往往存在很大噪声,针对背景的强烈扰动存在较大的误检率,影响运动目标的检测准确率。
为解决上述现有技术的问题,专利CN101635852A公开了一种基于自适应背景建模的实时运动目标检测方法,该方法主要基于差分图像提取运动目标和非运动目标,而针对非运动目标区域实时更新,从而获得自适应更新的实时背景,然后再次利用差分图像获得前景图像;然而,差分图像提取图像前景存在很大的噪声,针对动态背景下的前景检测会存在较大噪声,仍存在较高的误检率。
又如Martin Hofmann等学者提出了PBAS算法,该算法利用连续多帧图像的平均距离作为动态背景的度量,针对动态背景值高的图像像素增加阈值,降低前景的误判率,然而该算法很大程度上抑制了正常的前景点,针对动态背景视频存在较高的误检率。
ViBe是一种像素级视频背景建模或前景检测的算法,其相比于其他方法有很多的不同和优点,具体的思想是为每个像素点存储了一个样本集,样本集中采样值就是该像素点过去的像素值,然后将每一个新的像素值和样本集进行比较来判断是否属于背景点。该算法具体的参考文件可查阅文献O.Barnich and M.Van Droogenbroeck.ViBe:Auniversal background subtraction algorithm for video sequences[J].IEEETransactions on Image Processing,20(6):1709–1724,2011.专利CN103971386A公开一种动态背景场景下的前景检测方法,该发明在ViBe算法基础上采用多帧连续图像初始化背景模型,利用背景模型的最小距离集合判断背景的动态性,采用空间一致性原则与模糊理论选择更新匹配阈值,完成前景检测。然而,该发明采用的最小距离测度仅考虑了背景模型的距离特征,而没有考虑到图像的全局特性,并且当强度较大时,动态背景往往会一直存在于前景中,无法实时更新背景模型,因此存在一定的误检率。
为解决ViBe算法无法实现动态背景的自适应性、在动态背景视频中存在较大的误检率、而现有的算法在抑制动态背景的同时却抑制了正常的前景像素的技术问题,申请人提出一种新的动态背景表征方法。
发明内容
本发明针对现有技术的上述问题,提供一种基于动态背景自适应的改进ViBe背景建模方法,该方法是一种新的动态背景表征方法,准确地表征像素的动态背景性,提高前景检测到准确性,为目标分类和识别提供准确的目标信息。
为解决以上技术问题,本发明的技术方案如下:
一种基于动态背景自适应的改进ViBe背景建模方法,包括以下步骤:
(1)采用第一帧图像中的像素点x的像素值初始化背景模型,设置初始决策阈值和更新率;
(2)从第二帧开始,连续提取帧差图像中子块的标准差Dstd作为图像动态背景的表述特征;
(3)根据ViBe前景修正标准差Dstd值;
(4)连续提取M幅帧差图像子块的修正后的标准差Dstd集合表征动态背景,进一步采用该集合的均值作为该子块所有像素的时空动态背景特征,即TSD特征;
(5)根据图像像素的时空动态背景特征自适应调整决策阈值和更新率;
(6)根据步骤(5)得到的决策阈值和更新率,利用反馈机制不断地更新背景模型数据;
(7)获取视频前景目标,并将该前景目标的图像进行形态学后处理。
本发明上述背景建模方法中,步骤(1)中利用第一帧图像中的任一像素点x,采用所述像素点x的像素值初始化背景模型,其计算公式为
B(x)={B0(x0),B1(x1),…Bi(xi),…,BN(xN)} ①
式中,Bi(xi)为背景模型的样本,即将第一帧图像的像素采样N次作为背景模型,初始化背景模型的N个背景值完全一样。
具体地,所述步骤(2)中从第二帧开始连续提取帧差图像,提取公式为
D(i,j)=|It(i,j)-It-1(i,j)| ②
同时将帧差图像D分为8×8像素的子块,连续提取帧差图像子块的标准差Dstd作为图像动态背景表述特征。
所述步骤(3)根据ViBe算法提取到的前景,将前景像素点的Dstd值设为0,从而的得到修正后的Dstd,实现降低前景块的干扰,后续Dstd均为修正后的值。
所述步骤(4)连续提取M幅帧差图像子块的修正后的标准差Dstd集合表征动态背景,其计算公式为
S(i,j)={Dstd 0(i,j),Dstd 1(i,j),…,Dstd i(i,j),…Dstd M(i,j)} ③
提取上述集合的均值TSD作为背景动态性的标准函数,即为
TSD(i,j)=(Dstd 0(i,j)+Dstd 1(i,j)…,Dstd M(i,j))/M ④
式中TSD即为时空动态背景特征(Time-space Dynamic Feature,TSD特征)。
所述步骤(5)的动态背景特征的决策阈值可以设定为
T(i,j)=T0+n*TSD(i,j) ⑤
其中T0为提前预设定一个阈值,n为动态调整整数;
动态更新率可以设定为
U(i,j)=1/(U0+TSD(i,j)) ⑥
其中U0为提前预设定一个阈值。
所述步骤(6)根据步骤(5)得到的决策阈值和更新率,利用反馈机制反复不断地调整参数,同时针对当前帧检测到背景像素,利用随机算法更新背景模型的数据。
所述步骤(7)根据决策阈值提取视频前景目标,将提取到的前景图像,采用形态学进行开运算、填洞和闭运算,从而提高算法检测到准确性、降低噪声的影响。
本发明的背景建模方法克服了现有背景建模方法针对动态背景适应性较差的问题,在ViBe算法为基础上提出一种新的动态背景自适应背景建模方法,首先提取帧差图像子块的标准差作为动态背景表征,利用检测到的前景修正动态背景特征,在此基础上构造时空动态背景特征(TSD特征),然后根据该特征自适应调整决策阈值和更新率,极大提高了算法在动态背景下的检测性能,降低了误检率。该算法相比现有技术,至少包括以下优点:
1)本发明的背景建模方法有效利用了帧差动态信息,将一段时间内连续帧差图像子块的标准差作为背景动态性的表征,进一步构造并提取了时空动态背景特征(TSD特征),该特征描述了背景像素在时序和空间上的动态性,具有较好的准确性。
2)本发明利用算法检测到的前景修正动态背景特征,克服了前景针对动态背景特征的干扰,从而得到背景动态性的准确表征。
3)根据时空动态背景特征(TSD特征)自适应调整决策阈值,有效克服了全局阈值对动态背景适应性差的问题,降低了动态背景的误检率,提高前景检测的准确性。
附图说明
上述仅是本发明技术方案的概述,为了能够更清楚了解本发明的技术手段,以下结合附图与具体实施方式对本发明作进一步的详细说明。
图1为本发明实施方式的背景建模方法流程图;
图2为动态背景视频检测的性能分析图;
图3为6个视频检测的结果对比图。
具体实施方式
为使本发明实施方式的目的、技术方案和优点表达得更加清楚明白,下面结合附图及具体实施例对本发明实施方式再作进一步详细的说明。
实施例
本发明的背景建模方法利用帧差的时序和空间信息表征背景的动态性,融合背景模型检测到的前景目标图像,利用前景修正动态背景特征,在此基础上构造并提取时空动态背景特征(TSD特征),根据该特征自适应调整前景决策阈值和背景模型的更新率,从而提高算法的前景检测性能。
图1为根据本发明实施方式的背景建模方法流程示意图。如图1所示,输入视频进行算法处理,包括以下步骤:
(1)采用第一帧图像中的像素点x的像素值初始化背景模型,设置初始决策阈值和更新率;
利用第一帧图像,针对图像中任一像素点x,采用所述像素点第一帧图像的像素值初始化背景模型,其计算公式为
B(x)={B0(x0),B1(x1),…Bi(xi),…,BN(xN)} ①
式①中,Bi(xi)为背景模型的样本,即将第一帧图像的像素采样N次作为背景模型,初始化背景模型的N个背景值完全一样。本实施例中,样本个数N=30,初始化决策阈值为2,更新率为15。
(2)从第二帧开始连续提取帧差图像中的子块标准差Dstd作为背景图像的动态表述特征;
从第二帧开始连续提取帧差图像,提取公式为
D(i,j)=|It(i,j)-It-1(i,j)| ②
式②中D为帧差图像,即同时将帧差图像D分为8×8像素的子块,分别提取每个子块的标准差Dstd作为背景图像的动态表述特征;针对静态背景而言Dstd是一个非常小的值,而动态背景具有往复波动的特点,因此动态背景的Dstd值较大,可以采用Dstd表征背景的动态性。
(3)根据ViBe前景,修正标准差Dstd值;
本算法中视频场景分为静态背景、动态背景和前景,其中静态背景和动态背景的动态性可以采用Dstd表征。一般而言,前景块对应运动目标区域,因此前景的Dstd值往往比较大,而其实际的背景动态特征值往往会小于其Dstd值,同时前景块的脉冲噪声持续时间短、具有瞬态起伏特征,因此可以利用检测到的前景修正Dstd值,即前景像素点的Dstd值可设定为0,其作用是可以降低前景块的干扰,从而得到修正后的Dstd值,后续Dstd均为修正后的值。
(4)提取M幅帧差图像Dstd值的均值作为时空动态背景特征;
具体地,由于步骤(3)仅提取了子块的空间动态特征,而动态背景有时在一定阶段转换为静态背景,因此需要进一步结合时序信息表征动态背景的特征,可以连续提取M幅帧差图像的标准差Dstd值集合作为时空动态背景的表征,其计算公式为
S(i,j)={Dstd 0(i,j),Dstd 1(i,j),…,Dstd i(i,j),…Dstd M(i,j)} ③
进一步提取上述集合的均值TSD作为背景动态性的标准函数,即为
TSD(i,j)=(Dstd 0(i,j)+Dstd 1(i,j)…,Dstd M(i,j))/M ④
式中TSD为时空动态背景特征。
该特征不仅提取了背景像素的空间动态性,而且表征了一定时间范围内的动态变换,具有较强的自适应性。本实施例M设定为25,即针对高清视频而言仅考虑1秒左右范围内的背景动态变化。
(5)根据时空动态背景特征动态调整决策阈值和更新率参数;
针对动态背景应该增大决策阈值,从而在一定程度上抑制动态背景的干扰,提高检测信息的准确性,而针对静态背景而言应该减小决策阈值,从而提高前景检测的准确性。因此动态背景特征的决策阈值可以设定为
T(i,j)=T0+n*TSD(i,j) ⑤
其中T0为提前预设定一个阈值,n为动态调整整数;本实施例T0=15,n=3。针对动态背景而言,TSD特征越大,其出现错误判断的概率越大,对应的背景更新应该越少,需要减少错误判断对背景模型的影响,因此针对动态背景应该降低更新率,保证背景模型中像素更新速度降低,从而提高背景模型的准确性,动态更新率可以设定为
U(i,j)=1/(U0+TSD(i,j)) ⑥
其中U0为提前预设定一个阈值。本实施例中U0=10。.
(6)根据步骤(5)得到的决策阈值和更新率,利用反馈机制不断地更新背景模型数据;
根据步骤(5)得到的决策阈值和更新率,利用反馈机制反复不断地调整参数,针对当前帧检测到背景像素,利用随机算法更新背景模型的数据。
(7)获取视频前景目标,并将该前景目标的图像进行形态学后处理;
根据决策阈值提取视频前景目标,将提取到的前景图像,采用形态学进行开运算、填洞和闭运算,从而提高算法检测到准确性,并且降低噪声的影响。
上述算法中,首先提取帧差图像子块标准差作为动态背景表征,利用前景修正动态背景特征,根据修正后的特征自适应调整决策阈值和更新率,极大提高了算法在动态背景下的检测性能,降低了误检率。方案中具体的创新在于:构造了基于帧差图像的时空动态背景特征(TSD特征),该特征采用帧差图像子块的标准差作为背景动态性的表征,利用前景修正动态背景特征,从而克服了前景块的干扰,得到背景动态性的准确表征;此外,根据上述背景动态特征,自适应调整决策阈值和更新率,从而提高算法的前景检测性能。
为验证本发明算法相较于现有技术具有更高的准确性,针对http://www.changedetection.net提供的测试数据集进行运动目标检测,本测试在其中dynamicBackground类的6个视频上进行。采用召回率(Recall)、准确率(Precision)和错误点所占比例(the percentage of bad classifications,PBC)作为量化指标,定义如下,
其中TP为正确的前景点数目,TN为正确的背景点数目,FP为错误的前景点数,FN为错误的背景点数目。
图2所示,为上述6个检测视频在不同算法下的Recall、Precision和PBC直方图,其中Recall指标上比ViBe算法高于8个百分点,Precision指标高出将16个百分点;而PBC指标上比ViBe算法降低了0.77,因此本发明极大降低了动态背景引起的错误前景检测。综合上述3项指标,本发明在动态背景场景下相比ViBe算法具有明显优势。
图3所示为dynamicBackground类的6个视频视频检测结果图,其中图中(a)列为测试视频帧,(b)列为真值图,(c)列为ViBe算法的检测结果,(d)列为本发明算法检测结果。
由图3的检测结果可以得知,相比现有的ViBe算法,本发明在一定程度上消除了动态背景引起的错误检测,提升了算法针对前景检测到准确性。
以上所述实施例仅仅是本发明的优选实施方式进行描述,并非对本发明的范围进行限定,在不脱离本发明设计精神的前提下,本领域普通技术人员对本发明的技术方案作出的各种变形和改进,均应落入本发明的权利要求书确定的保护范围内。

Claims (8)

1.一种基于动态背景自适应的改进ViBe背景建模方法,其特征在于,包括以下步骤:
(1)采用第一帧图像中的像素点x的像素值初始化背景模型,设置初始决策阈值和更新率;
(2)从第二帧开始,连续提取帧差图像子块的标准差Dstd作为图像动态背景表述特征;
(3)根据ViBe前景修正标准差Dstd值;
(4)连续提取M幅帧差图像子块的修正后的标准差Dstd集合表征动态背景,进一步采用该集合的均值作为该子块所有像素的时空动态背景特征,即TSD特征;
(5)当图像像素的时空动态背景特征为动态背景时,增大决策阈值,降低更新率;为静态背景时,则减小决策阈值;
(6)根据步骤(5)得到的决策阈值和更新率,利用反馈机制不断地更新背景模型数据;
(7)获取视频前景目标,并将该前景目标的图像进行形态学后处理。
2.如权利要求1所述的基于动态背景自适应的改进ViBe背景建模方法,其特征在于,所述步骤(1)中利用第一帧图像中的任一像素点x,采用所述像素点x的像素值初始化背景模型,其计算公式为
B(x)={B0(x0),B1(x1),…Bi(xi),…,BN(xN)} ①
式中,Bi(xi)为背景模型的样本,即将第一帧图像的像素采样N次作为背景模型,初始化背景模型的N个背景值完全一样。
3.如权利要求1所述的基于动态背景自适应的改进ViBe背景建模方法,其特征在于,所述步骤(2)中从第二帧开始连续提取帧差图像,提取公式为
D(i,j)=|It(i,j)-It-1(i,j)| ②
同时将帧差图像D分为8×8像素的子块,连续提取帧差图像子块的标准差Dstd作为图像动态背景表述特征。
4.如权利要求1所述的基于动态背景自适应的改进ViBe背景建模方法,其特征在于,所述步骤(3)根据ViBe前景将前景像素点的Dstd值设定为0,从而得到修正后的Dstd,实现降低前景块的干扰,后续Dstd均为修正后的值。
5.如权利要求1所述的基于动态背景自适应的改进ViBe背景建模方法,其特征在于,所述步骤(4)连续提取M幅帧差图像子块的修正后的标准差Dstd集合表征动态背景,其计算公式为
S(i,j)={Dstd 0(i,j),Dstd 1(i,j),…,Dstd i(i,j),…Dstd M(i,j)} ③
提取上述集合的均值TSD作为背景动态性的标准函数,即为
TSD(i,j)=(Dstd 0(i,j)+Dstd 1(i,j)…,Dstd M(i,j))/M ④
TSD即为时空动态背景特征。
6.如权利要求1所述的基于动态背景自适应的改进ViBe背景建模方法,其特征在于,所述步骤(5)的动态背景特征的决策阈值可以设定为
T(i,j)=T0+n*TSD(i,j) ⑤
其中T0为提前预设定一个阈值,n为动态调整整数;
动态更新率可以设定为
U(i,j)=1/(U0+TSD(i,j)) ⑥
其中U0为提前预设定一个阈值。
7.如权利要求1所述的基于动态背景自适应的改进ViBe背景建模方法,其特征在于,所述步骤(6)根据步骤(5)得到的决策阈值和更新率,利用反馈机制反复不断地调整参数,同时针对当前帧检测到背景像素,利用随机算法更新背景模型的数据。
8.如权利要求1所述的基于动态背景自适应的改进ViBe背景建模方法,其特征在于,所述步骤(7)根据决策阈值提取视频前景目标,将提取到的前景图像,采用形态学进行开运算、填洞和闭运算。
CN201510144616.0A 2015-03-30 2015-03-30 基于动态背景自适应的改进ViBe背景建模方法 Expired - Fee Related CN104835179B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201510144616.0A CN104835179B (zh) 2015-03-30 2015-03-30 基于动态背景自适应的改进ViBe背景建模方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201510144616.0A CN104835179B (zh) 2015-03-30 2015-03-30 基于动态背景自适应的改进ViBe背景建模方法

Publications (2)

Publication Number Publication Date
CN104835179A CN104835179A (zh) 2015-08-12
CN104835179B true CN104835179B (zh) 2018-01-12

Family

ID=53813044

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201510144616.0A Expired - Fee Related CN104835179B (zh) 2015-03-30 2015-03-30 基于动态背景自适应的改进ViBe背景建模方法

Country Status (1)

Country Link
CN (1) CN104835179B (zh)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106469311B (zh) * 2015-08-19 2019-11-05 南京新索奇科技有限公司 目标检测方法及装置
CN105205832B (zh) * 2015-08-31 2017-08-25 清华大学深圳研究生院 一种运动目标检测的方法
CN106485713B (zh) * 2015-08-31 2020-03-27 上海悠络客电子科技有限公司 视频前景检测方法
CN105279771B (zh) * 2015-10-23 2018-04-10 中国科学院自动化研究所 一种视频中基于在线动态背景建模的运动目标检测方法
CN105279761B (zh) * 2015-11-18 2018-05-01 山东大学 一种基于样本局部密度离群点检测的背景建模方法
CN105894534B (zh) * 2016-03-25 2018-07-17 中国传媒大学 一种基于ViBe的改进运动目标检测方法
CN105931267B (zh) * 2016-04-15 2019-05-14 华南理工大学 一种基于改进ViBe算法的运动物体检测跟踪方法
CN106874864A (zh) * 2017-02-09 2017-06-20 广州中国科学院软件应用技术研究所 一种室外行人实时检测方法
CN107888924A (zh) * 2017-11-30 2018-04-06 江西洪都航空工业集团有限责任公司 一种无损视频加速分析方法
CN110264422B (zh) * 2019-06-14 2020-12-08 西安电子科技大学 基于ViBe模型消除光学闪烁像素的光学图像处理方法
CN111460949B (zh) * 2020-03-25 2023-09-29 上海电机学院 一种输电线路防外力破坏实时监测方法和系统
CN111667498B (zh) * 2020-05-14 2023-07-18 武汉大学 一种面向光学卫星视频的运动舰船目标自动检测方法
CN115618051B (zh) * 2022-12-20 2023-03-21 楠楠聚智信息科技有限责任公司 一种基于互联网的智慧校园监控视频存储方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103456028A (zh) * 2013-08-30 2013-12-18 浙江立元通信技术有限公司 一种运动目标检测方法
CN103824070A (zh) * 2014-03-24 2014-05-28 重庆邮电大学 一种基于计算机视觉的快速行人检测方法
CN103871076A (zh) * 2014-02-27 2014-06-18 西安电子科技大学 基于光流法和超像素分割的运动目标提取方法
CN104063885A (zh) * 2014-07-23 2014-09-24 山东建筑大学 一种改进的运动目标检测与跟踪方法
CN104463165A (zh) * 2014-10-24 2015-03-25 南京邮电大学 一种融合Canny算子与Vibe算法的目标检测方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE602007004841D1 (de) * 2007-07-08 2010-04-01 Univ Liege Extraktor für visuellen Hintergrund

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103456028A (zh) * 2013-08-30 2013-12-18 浙江立元通信技术有限公司 一种运动目标检测方法
CN103871076A (zh) * 2014-02-27 2014-06-18 西安电子科技大学 基于光流法和超像素分割的运动目标提取方法
CN103824070A (zh) * 2014-03-24 2014-05-28 重庆邮电大学 一种基于计算机视觉的快速行人检测方法
CN104063885A (zh) * 2014-07-23 2014-09-24 山东建筑大学 一种改进的运动目标检测与跟踪方法
CN104463165A (zh) * 2014-10-24 2015-03-25 南京邮电大学 一种融合Canny算子与Vibe算法的目标检测方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Algorithm of Moving Target Detection Based on Multiply Connected Domain Mergence;Yang Xu 等;《2014 International Conference on Audio,Language and Image Processing(ICALIP)》;20140709;第124-128页 *

Also Published As

Publication number Publication date
CN104835179A (zh) 2015-08-12

Similar Documents

Publication Publication Date Title
CN104835179B (zh) 基于动态背景自适应的改进ViBe背景建模方法
WO2021208275A1 (zh) 一种交通视频背景建模方法及系统
CN106570486B (zh) 基于特征融合和贝叶斯分类的核相关滤波目标跟踪方法
WO2021012757A1 (zh) 基于全景多路4k视频图像的实时目标检测跟踪方法
CN105513053B (zh) 一种用于视频分析中背景建模方法
CN102542289B (zh) 一种基于多高斯计数模型的人流量统计方法
CN103258332B (zh) 一种抗光照变化的运动目标的检测方法
CN102307274B (zh) 基于边缘检测和帧差法的运动检测方法
CN109446989A (zh) 人群聚集检测方法、装置及存储介质
Zhang et al. A vehicle detection algorithm based on three-frame differencing and background subtraction
CN109918971A (zh) 监控视频中人数检测方法及装置
CN104978567B (zh) 基于场景分类的车辆检测方法
CN102663362B (zh) 一种基于灰度特征的运动目标检测方法
CN109670430A (zh) 一种基于深度学习的多分类器融合的人脸活体识别方法
CN103955949B (zh) 基于Mean-shift算法的运动目标检测方法
CN110111361A (zh) 一种基于多阈值自优化背景建模的运动目标检测方法
CN103729854A (zh) 一种基于张量模型的红外弱小目标检测方法
CN103413149B (zh) 复杂背景中实现静态目标检测和识别的方法
CN111046827A (zh) 一种基于卷积神经网络的视频烟雾检测方法
Lian et al. A novel method on moving-objects detection based on background subtraction and three frames differencing
CN108399388A (zh) 一种中高密度人群数量统计方法
CN112489055A (zh) 融合亮度-时序特征的卫星视频动态车辆目标提取方法
CN112927262A (zh) 一种基于视频的相机镜头遮挡检测方法及系统
CN109035296A (zh) 一种改进的视频中运动物体检测方法
CN105809092A (zh) 人群目标检测方法及其装置

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20180112

Termination date: 20210330