CN1918604B - 对背景区域和前景区域进行建模的方法 - Google Patents

对背景区域和前景区域进行建模的方法 Download PDF

Info

Publication number
CN1918604B
CN1918604B CN2005800049036A CN200580004903A CN1918604B CN 1918604 B CN1918604 B CN 1918604B CN 2005800049036 A CN2005800049036 A CN 2005800049036A CN 200580004903 A CN200580004903 A CN 200580004903A CN 1918604 B CN1918604 B CN 1918604B
Authority
CN
China
Prior art keywords
image
intrinsic
foreground
scene
background
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN2005800049036A
Other languages
English (en)
Other versions
CN1918604A (zh
Inventor
法蒂·M.·波利克力
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Publication of CN1918604A publication Critical patent/CN1918604A/zh
Application granted granted Critical
Publication of CN1918604B publication Critical patent/CN1918604B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/215Motion-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/28Quantising the image, e.g. histogram thresholding for discrimination between background and foreground patterns

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Studio Circuits (AREA)

Abstract

由动态场景获得图像的时间序列。使用滤波器确定空间梯度。通过利用滤波器的输出的稀疏,产生本征背景图像作为中值滤波后的梯度。随后本征背景图像被分成图像的原始序列,以产生本征前景图像。可由阈值限制本征前景图像以获得检测掩蔽。

Description

对背景区域和前景区域进行建模的方法 
技术领域
本发明一般涉及图像处理,更具体地说,本发明涉及在图像序列中检测前景。 
背景技术
在例如监视、跟踪和识别应用的许多计算机视觉应用中,必要的第一步是检测场景中的前景对象。典型地,通过如图1A所示的背景相减方法100来完成这一步骤。在120中处理由场景获得的输入图像序列110,以产生背景图像130。随后在140中从图像110中减去背景图像,以产生前景图像150。 
现有技术的前景检测方法或者关于场景的组成作出严格的假设,或者不能够处理突发的照明改变,或者在计算上复杂且耗费时间。 
一般可将现有技术的前景检测方法分类为单层和多层。单层方法开发出一种基于过去观测结果的单动态模型。 
构建单层背景图像的最简单的方法是测量像素强度的均值或方差。可在每个(RGB)通道的基础上测量所述强度,以表征彩色变化。随后,可将所述强度用作阈值,以检测前景区域。然而,这样的进行平均的操作通常产生“重影”区域,所述重影区域既不是真实背景,也不是真实前景。 
一种方法用高斯函数和alpha混合来对背景像素的统计分布进行建模,参见C.R.Wren,A.Azarbayejani,T.J.Darrell和A.P.Pentland“Pfinder:Real-time tracking of the human body”,PAMI,19(7),pp.780-785,1997年7月。使用预置的混合权重α以如下的方式根据当前图像It来更新背景图像Bt: 
Bt=(1-α)Bt-1+αIt
混合权重α调整背景应该以多快的速度来与当前图像进行混合。这种进行平均的方法对混合权重的选择非常敏感。取决于α的值,会将前景图像包含在背景图像中,或者不适应照明改变。 
可选择的“投票”方法基于出现的频率来选择强度值。这种“投票”方法比进行平均的方法更具优点。它不会模糊背景并且允许突然的照明改变。投票方法的主要缺点是它在计算上的复杂性。可应用量化以减少候选值的数量和操作的数量。然而,量化降低了将前景从背景分离的能力。 
卡尔曼(Kalman)滤波器可用于背景检测,参见K.Karmann,A.Brand,“Time-varing image processing and  moving objectrecognition”.Elsevier Science Publish.,1990,C.Ridder,O.Munkelt和H.Kirchner,“Adaptive background estimation and foregrounddetection using Kalman filtering,”Proc.ICAM,1995,以及K.Toyama,J.Krumm,B.Brumitt,B.Meyers,“Wallflower:Principles andPractice of Background Maintenance,”Proc.of Int’l Conf.onComputer Vision,pp.255-261,1999.由J.Zhong和S.Sclaroff在“Segmenting foreground objects from a dynamic,texturedbackground via a robust Kalman filter,”Proc.of IEEE Int’l Conf.onComputer Vision,pp.44-50,2003中描述了直接操作于数据子空间上的卡尔曼滤波器的形式。 
一种类似的自回归模型获得动态场景的属性,参见A.Monnet,A.Mittal,N.Paragios和V.Ramesh,“Background modeling andsubtraction of dynamic scenes,”Proc.of IEEE Int’l Conf.on ComputerVision,pp.1305-1312,2003。 
所述卡尔曼滤波器为离散时间过程的状态提供最佳估计,例如背景的强度,所述离散时间过程遵守线性随机差分方程。可在每个时间步进改变卡尔曼滤波器的各种参数,诸如转移矩阵、过程噪声协方差和测量噪声协方差。通过使用更大的协方差值,背景更加快速地适应照明改变。然而,所述滤波器变得对场景中的噪声和对象更加敏感。 卡尔曼滤波器的另一缺点是它区分多峰(multimodal)分布的能力,所述多峰分布即运动的树叶或草、或者是水面上的波。卡尔曼滤波器在存在较大的非线性的情况下性能较差。 
另一种方法用高斯分布函数的混合来对图像中的背景进行建模,参见C.Stauffer和W.Grimson,“Adaptive background mixturemodels for real-time tracking,”Proco.of IEEE Int’l Conf.on ComputerVision and Pattern Recognition,1999。与明确地将所有像素的值建模为一种特定类型的分布的处理不同,由逐像素的高斯分布函数的混合来对背景进行建模以支持多峰背景。基于混合中每个高斯函数的持续性和方差来确定与背景区域对应的高斯模型。不符合背景分布的像素值被认为是前景,直到有以足够和一致的支持证据将所述像素包括在背景中的高斯模型。这一方法包括学习常数和控制应该用于背景的像素的比例的参数。高斯混合式方法是许多相关方法的基础,O.Javed,K.Shafique和M.Shah,“A hierarchical approach to robust backgroundsubtraction using color and gradient information,”MVP,pp.22-27,2002。 
所述混合式方法适用于照明改变并且不会造成重影效果。此外,所述混合式方法可处理多峰背景。然而,当场景是动态的并且表现出时间上的非静态属性时,所述方法的性能会恶化。基于混合式模型的解决方案的另一缺点是构建和更新背景模型的计算工作量。对于大量混合中的模型而言,这些方法由于变得在计算上要求过多,而无法在实践中实施。 
非参数方法使用高斯内核来对特定的像素上的密度进行建模,参见A.Elgammal,D.Harwood和L.Davis,“Non-parametric model forbackground subtraction,”Proc.of European Conf.on Computer Vision,pp.II:751767,2000。 
另一种方法在对动态特性的建模过程中结合光流,参见A.Mittal和N.Paragios,“Motion-Based background subtraction using adaptivekernel density estimation,”Proc.Int’l Conf.on Computer Vision and Pattern Recognition,2004。 
统计方法可使用彩色、全局和动态特征以增强对象检测特征,参见C.Jiang和M.O.Ward,“Shadow identification”,Proc.of IEEEInt’l Conf.on Computer Vision and Pattern Recognition,pp.606-612,1992,以及Stauder,R.Mech和J.Ostermann,“Detection of movingcast shadows for object segmentation”,IEEE Transactions onMultimedia,vol.1,no.1,pp.65-76,1999年3月。 
因此,需要改进现有技术的前景检测方法。 
本征图像 
对于场景的一种解释表明:每个图像都是场景的特性的乘积。那么,“本征(intrinsic)”图像是反映场景中的特征之一的图像的分解,H.G.Barrow和J.M.Tenenbaum,“Recovering intrinsic scenecharacteristics from images”,Computer Vision Systems,AcademicPress,pp.3-26,1978。 
将场景的输入图像It分解为反射图像R和照明图像Lt的处理可表示为乘积: 
It=R·Lt.              (1) 
反射图像R包含场景的反射值,照明图像Lt包含照明强度。因为照明图像Lt代表场景中入射光的分布,而反射图像R描述场景的表面反射属性,所以这一表示对于分析和处理输入图像中获得的场景的反射和照明属性是有用处的。 
在现有技术中,本征图像处理场景的单个图像之内的空间特性,所述特性诸如是图像纹理中可见的反射和照明,本征图像自身并不处理场景中前景对象的时间演变。 
如图1B中所示,一种分解方法在照明条件中有非常大变化的情况下,通过由固定的点获得的输入图像序列101来估计产生反射图像102和照明图像103的最大可能性,参见Y.Weiss,“Deriving intrinsicimages from image sequences”,Proc.of IEEE Int’l Conf.on ComputerVision,pp.68-75,2001年7月。应注意到,在照明图像中,从右(R) 向左(L)的照明是清晰可见的。 
该方法已扩展为从图像序列中得到变化的反射图像和相应的照明图像,参见Y.Matsushita,K.Nishino,K.Ikeuchi和S.Masao,“Illumination normalization with time-dependent intrinsic images forvideo surveillance”,Proc.of IEEE Int’l Conf.on Computer Vision andPattern Recognition,2004。Matsushita等人也描述了捕捉照明变化的照明本征空间。在该方法中,场景是静态的,唯一检测的是诸如照明条件的场景的外部因素变化。不考虑前景图像的运动。 
另一种方法从单彩色图像中恢复类似于反射图像的照明不变图像,参见G.D.Finlayson,S.D.Hordley和M.S.Drew,“RemovingShadows from Images,”Proc.of Eurepean Conf.on Computer VisionVol.4,pp.823-826,2002。Finlayson等人假设输入图像包含非阴影表面和投射在这些表面上的阴影。他们通过最小化彩色分布的熵来计算对数色度空间中用于“不变方向”的角度。 
另一种方法使用多个提示以从单个图像中恢复阴影图像和反射图像,参见M.Tappen,W.Freeman,E.Adelson,“Recovering Shadingand Reflectance from a single image”,NIPS,2002。Tappen等人使用彩色信息和被训练用于识别灰度级模式的分类器。将每个本征图像分类为是由阴影引起的,或是由表面反射中的改变引起的。应注意到,该方法也不考虑场景中前景对象的运动。 
另一种确定的方法使用灰度级,以及本地和静态特征,参见M.Kilger,“A shadow handler in a video-based real-time trafficmonitoring system”,Proc.of IEEE Workshop on Applications ofComputer Vision,pp.11-18,1992,以及D.Koller,K.Danilidis和H.Nagel,“Model-based object tracking in monocular image sequences ofroad traffic scenes”,Int’l Journal of Computer Vision,vol.10,pp.257-281,1993。 
通常,现有技术的本征图像不考虑场景中前景对象的运动。因此,需要提供反映场景自身中的运动变化的改进的本征图像。 
此外,需要使用改进的本征图像来改善前景检测。 
发明内容
替代通过背景相减的传统前景检测方式,本发明将动态场景的图像分解为时变本征背景和前景图像。这些本征图像的乘积表征所述场景。 
由场景获得图像的时间序列。使用滤波器确定空间梯度。通过利用滤波器的输出的稀疏,本征背景图像作为中值滤波后的梯度而产生。随后本征背景图像被分成图像的原始序列,以产生本征前景图像。 
本发明还提供一种以阈值限制本征前景图像的强壮方法,以获得检测掩蔽。本发明还可检测静态和运动线。 
即使在突发和严重的照明改变情况下,本发明在计算上也是有效率且有效的。 
附图说明
图1A示出检测场景中的前景的现有技术的方法; 
图1B示出现有技术的本征图像; 
图2示出根据本发明的检测场景中的前景的方法; 
图3示出图2的方法的详细步骤; 
图4示出根据本发明的在道路场景情况下的本征图像;以及 
图5示出根据本发明的在高尔夫场景情况下的本征图像。 
具体实施方式
本征背景图像 
如图2所示,本发明提供一种检测图像中的前景区域的方法200。前景区域典型地代表场景中的运动对象。在300中处理由场景获得的输入图像序列210,以产生本征背景图像230。由所述本征背景图像在240中去除每个输入图像210,以产生本征前景图像序列250。在优选实施例中,在处理序列210中的每个当前图像时,更新本征背景图像。 
本发明以前景特征和背景特征的乘积来表征场景,即 
It=B·Ft,        (2) 
其中,背景图像Bt230是相对静态的,前景图像Ft250表征场景的动态特征,例如,运动对象。应该注意的是背景图像会发生变化,但是与前景图像相比,这种变化要经过长得多的时间量程。因此,根据本发明,通过在240中由本征背景图像去除输入图像来确定本征前景图像 F t = I t B .
应注意到这种定义与现有技术形成了鲜明的对比,现有技术将背景特征和前景特征表示为加性的推断,即,It=B+Ft,并且前景图像是Ft=It-B。 
在真实世界的场景中,尽管“静态”特征的改变与动态特征相比非常慢,但是静态特征和动态特征均随时间而改变。例如,在“静态”的室外场景中,建筑物阴影的运动相对较慢,在室内场景中,当背包被放在某处而无人注意时,该背包就最终被包含在背景中。 
因此,单非时变静态图像可代表背景的想法是错误的。当非时变背景图像B(x,y)合理地描述没有运动对象的静态场景时,估计的前景图像F(x,y,t)趋向于包含相当多的纹理和阴影,特别是在全局照明变化的情况下。因此,与暗示地假设反射图像是非时变的照明图像的根据Weiss的方法不同,本发明使用时变本征图像,即,随时间而更新背景图像和前景图像两者。 
如在图3中所详细示出的,本发明由场景获得N个输入图像序列210,{It-N,...,It-1,It}。图像211是当前输入图像。获得图像的速率可取决于场景中运动对象的速度。如果将连续图像中运动对象的表面之间的重叠最小化,则对所述对象得到的统计不大可能会损害背景图像230。 
因此,图像的支持集是{It-kN,...,It-k,It},其中,k是采样周期。尽管选择较长的采样周期是合理的,但是较短的采样周期用于对象移动较快的场景。总之,采样周期k不是关键的决定。还应注意到,可以随时间,根据场景中的平均运动以变化的速度来获得图像。 
接着,在310中确定每个输入图像It210的强度值的对数(log)。由此产生了“对数”图像311-312。其中,对数图像312是针对当前输入图像211的。 
接着,将空间导数滤波器sn 320应用于对数图像it 311-312,以根据sn*it来确定强度梯度。其中,“*”代表卷积。导数滤波器可以是s0=[1-1],s1=[1-1]T。 
还可以使用形式为fline=[-1 2 -1]的线检测器(line detector)来替代使用导数滤波器。该滤波器的输出也是稀疏的。该滤波器可捕获场景中的静态和运动边缘,这对于形状析取是非常必要的。 
因为滤波器输出在空间和时间上是拉普拉斯分布并且独立的,所以滤波后的背景图像的最大似然估计 
Figure S05804903620060824D000081
是通过下式得出的中值图像330: 
b ^ tn = median t { s n * i t } . - - - ( 3 )
应该注意,中值图像330是在n个先前的对数输入图像311和当前对数输入图像312的“窗口”上进行滤波的结果。通过对每个新的输入图像进行更新,本征背景图像总是正确的。这是以下情况的直接结果:当将导数滤波器320应用于自然场景的图像时,所述滤波器的输出具有稀疏的趋势。 
随后通过使用估计的滤波后的背景图像 根据下式来确定本征前景图像ftn250: 
f ^ tn = ( s n * i t ) - b ^ tn . - - - ( 4 )
现在通过解答下面的线性方程系统来对中值图像330进行“反向”滤波: 
b ^ t = g * ( Σ n s n r * b ^ tn ) , and - - - ( 5 )
和 
f ^ t = g * ( Σ n s n r * f ^ tn ) , - - - ( 6 )
其中,sn r340是sn的反向滤波器,滤波器g 350是满足下述傅立叶方程的滤波器: 
G = ( S n · S n r ) - 1 . - - - ( 7 )
滤波器g 350独立于输入图像序列210,并且可被预先确定。 
仍旧在对数域中,随后从当前图像的对数310中减去滤波器350的输出351,所述输出为本征背景图像的对数。 
随后通过根据 B t = e b t , F t = e f t 在361-362中通过应用反对数而获得最终的本征前景图像250和本征背景图像230。 
还可使用掩蔽图像Mt。掩蔽图像Mt基于当前本征背景图像和前景图像之间的差值Dt(x,y)=Bt(x,y)-Ft(x,y)的强度统计来表示当前输入图像It中的前景像素。 
可通过高斯函数来逼近所述差值的分布。因此,分布的均值μt和方差σt 2得以确定,并且95%的百分点被指定为阈值τ=2.5σ。通过下式得出所述掩蔽图像Mt: 
M t ( x , y ) = 1 | D ( x , y ) - μ 1 | > 2.5 σ t 0 otherwise - - - ( 8 )
对于交通场景的输入图像序列401,图4根据本发明示出相应的本征背景图像402、本征前景图像403和掩蔽图像404。可清楚看出,掩蔽图像跟随运动的车辆。所述场景包含远处活动的灌木和云,以及车辆下弥漫的阴影。应注意到,前景图像403是精确的,并且不包含这些伪像。还可以看出在掩蔽图像404中消除了所述弥漫的阴影。 
图5示出高尔夫场景的输入图像501、相应的本征背景图像502、本征前景图像503和掩蔽图像504。在这一场景中,天空的颜色发生改变并且阴影更加突出。根据本发明的方法精确地将输入图像分解为背景图像和前景图像。 
本发明的效果 
本发明从由静止相机获得的输入图像序列中检测诸如运动对象的前景区域。与现有技术的加性的背景/前景方案相对比,本发明将序列分解为随时间变化的相乘的本征背景图像和本征前景图像的乘积。所提出的方法有一些优点。乘积比求和具有更高的增益,因此,本发明对突然的和严重的照明改变比较不敏感。本发明不是基于模型的,因此不需要模型拟合。本发明在计算上是高效的,并且可实现为实时系统。本发明不需要对参数精调谐。本发明还可估计场景的静态边缘图。最重要的是,相乘的背景/前景特征比现有技术中加性的方案产生更好的性能。 
尽管已通过优选实施例的示例描述了本发明,但是应该理解:在不脱离本发明的精神和范围的情况下,可进行各种其它的改变和修改。因此,所附权利要求的目的在于覆盖本发明的真正精神和范围内的所有这样的改变和修改。 

Claims (9)

1.一种用于根据场景的输入图像序列来对所述场景的背景区域和前景区域进行建模的方法,包括:
将每个输入图像转换为对数图像;
将滤波器Sn应用于每个对数图像;
从滤波后的对数图像的时间窗来确定中值图像;
先经过Sn的反向滤波器Sn r,再经过滤波器G,而对中值图像进行反向滤波,其中G=(Sn.Sn r)-1
从当前对数图像中减去反向滤波后的中值图像,以获得对数前景图像;
向对数前景图像应用反对数,以获得本征前景图像;以及
对反向滤波后的中值图像应用反对数,以获得本征背景图像。
2.如权利要求1所述的方法,还包括:
在处理每个输入图像时,更新本征背景图像。
3.如权利要求1所述的方法,其中,输入图像的采样周期随时间而变化。
4.如权利要求1所述的方法,其中,输入图像的采样周期根据场景中的运动对象而变化。
5.如权利要求1所述的方法,其中,所述滤波器Sn是空间导数滤波器。
6.如权利要求1所述的方法,其中,所述滤波器Sn是线检测器。
7.如权利要求1所述的方法,还包括:
检测本征前景图像中的运动对象;以及
产生运动对象的掩蔽图像。
8.如权利要求7所述的方法,其中,掩蔽图像是基于本征背景图像和本征前景图像之间的差值的强度统计的。
9.如权利要求1所述的方法,还包括:
使用线检测器从本征背景图像中检测线和轮廓。
CN2005800049036A 2004-12-15 2005-12-09 对背景区域和前景区域进行建模的方法 Expired - Fee Related CN1918604B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US11/012,996 US7359552B2 (en) 2004-12-15 2004-12-15 Foreground detection using intrinsic images
US11/012,996 2004-12-15
PCT/JP2005/023101 WO2006064895A1 (en) 2004-12-15 2005-12-09 Method for modeling background and foreground regions

Publications (2)

Publication Number Publication Date
CN1918604A CN1918604A (zh) 2007-02-21
CN1918604B true CN1918604B (zh) 2011-01-26

Family

ID=36021715

Family Applications (1)

Application Number Title Priority Date Filing Date
CN2005800049036A Expired - Fee Related CN1918604B (zh) 2004-12-15 2005-12-09 对背景区域和前景区域进行建模的方法

Country Status (6)

Country Link
US (1) US7359552B2 (zh)
EP (1) EP1697901B1 (zh)
JP (1) JP4708343B2 (zh)
CN (1) CN1918604B (zh)
DE (1) DE602005011097D1 (zh)
WO (1) WO2006064895A1 (zh)

Families Citing this family (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6940998B2 (en) * 2000-02-04 2005-09-06 Cernium, Inc. System for automated screening of security cameras
US7359552B2 (en) * 2004-12-15 2008-04-15 Mitsubishi Electric Research Laboratories, Inc. Foreground detection using intrinsic images
US20060210159A1 (en) * 2005-03-15 2006-09-21 Yea-Shuan Huang Foreground extraction approach by using color and local structure information
US20060221181A1 (en) * 2005-03-30 2006-10-05 Cernium, Inc. Video ghost detection by outline
US7751639B1 (en) * 2005-04-20 2010-07-06 University Of East Anglia Obtaining intrinsic images
US7822224B2 (en) 2005-06-22 2010-10-26 Cernium Corporation Terrain map summary elements
CN101426080B (zh) * 2007-10-29 2012-10-17 三星电子株式会社 监控系统中检测并抑制相机移动产生的影响的设备和方法
EP2061004A1 (en) * 2007-11-14 2009-05-20 Sony Corporation Object boundary accurate motion detection using hierarchical block splitting and motion segmentation
KR101348596B1 (ko) * 2008-01-22 2014-01-08 삼성전자주식회사 임장감 생성 장치 및 방법
US8571261B2 (en) 2009-04-22 2013-10-29 Checkvideo Llc System and method for motion detection in a surveillance video
US8194975B2 (en) * 2009-06-29 2012-06-05 Tandent Vision Science, Inc. Use of an intrinsic image in face recognition
TWI407776B (zh) * 2009-06-30 2013-09-01 Silicon Integrated Sys Corp 影像產生裝置、靜態文字偵測裝置及相關方法
US9563815B2 (en) * 2009-09-15 2017-02-07 Tandent Vision Science, Inc. Method and system for processing an image received from a remote source
TWI413024B (zh) * 2009-11-19 2013-10-21 Ind Tech Res Inst 物件偵測方法及系統
JP5036084B2 (ja) * 2010-10-14 2012-09-26 シャープ株式会社 映像処理装置、映像処理方法、及びプログラム
CN102110297B (zh) * 2011-03-02 2012-10-10 无锡慧眼电子科技有限公司 一种基于累积光流和双背景滤波的移动物体的探测方法
CN102129692A (zh) * 2011-03-31 2011-07-20 中国民用航空总局第二研究所 一种双门限场面运动目标检测方法及其系统
WO2013003026A2 (en) * 2011-06-30 2013-01-03 University Of Florida Research Foundation, Inc. Adaptive background estimation
US20130308856A1 (en) * 2012-01-12 2013-11-21 Google Inc. Background Detection As An Optimization For Gesture Recognition
US8929592B2 (en) * 2012-03-13 2015-01-06 Mitsubishi Electric Research Laboratories, Inc. Camera-based 3D climate control
JP5662962B2 (ja) * 2012-04-19 2015-02-04 富士フイルム株式会社 画像処理装置、方法及びプログラム
JP5930915B2 (ja) * 2012-08-31 2016-06-08 セコム株式会社 対象物検出装置
US9256959B1 (en) * 2013-08-29 2016-02-09 Marvell International Ltd. Systems and methods for color lens shading correction
EP3018483B1 (en) * 2014-11-07 2018-08-01 photrack AG Method and system for determining the velocity and level of a moving fluid surface
US9418426B1 (en) 2015-01-27 2016-08-16 Xerox Corporation Model-less background estimation for foreground detection in video sequences
JP6524497B2 (ja) * 2015-03-31 2019-06-05 国立大学法人東北大学 画像処理装置、画像処理方法、及び、画像処理プログラム
WO2016165064A1 (zh) * 2015-04-14 2016-10-20 中国科学院自动化研究所 基于多视角学习的鲁棒性前景检测方法
JP2017054337A (ja) * 2015-09-10 2017-03-16 ソニー株式会社 画像処理装置および方法
WO2018133101A1 (zh) * 2017-01-23 2018-07-26 富士通株式会社 图像前景检测装置及方法、电子设备
CN109151376B (zh) * 2017-06-27 2021-09-28 南京东大智能化系统有限公司 一种智能视频分析监控方法
CN107909070A (zh) * 2017-11-24 2018-04-13 天津英田视讯科技有限公司 一种道路积水检测的方法
CN113139953B (zh) * 2021-05-10 2022-11-04 宁波永新光学股份有限公司 检测识别图像中的颗粒污染物的方法及计算机可读存储介质

Family Cites Families (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4698682A (en) * 1986-03-05 1987-10-06 Rca Corporation Video apparatus and method for producing the illusion of motion from a sequence of still images
JPH0329482A (ja) * 1989-06-26 1991-02-07 Toshiba Corp 移動物体検出装置
DE69935437T2 (de) 1998-09-10 2007-11-15 Ecchandes Inc., Gamagori Visuelle vorrichtung
AU1930700A (en) * 1998-12-04 2000-06-26 Interval Research Corporation Background estimation and segmentation based on range and color
JP3736836B2 (ja) * 1999-09-30 2006-01-18 株式会社日立国際電気 物体検出方法及び物体検出装置及びプログラム
DE19958553A1 (de) * 1999-12-04 2001-06-07 Luratech Ges Fuer Luft Und Rau Verfahren zur Kompression von gescannten Farb- und/oder Graustufendokumenten
US6658136B1 (en) * 1999-12-06 2003-12-02 Microsoft Corporation System and process for locating and tracking a person or object in a scene using a series of range images
JP3480408B2 (ja) * 2000-01-26 2003-12-22 日本電気株式会社 物体抽出システムと方法並びに物体抽出用プログラムを記憶した記憶媒体
US7221794B1 (en) * 2000-12-18 2007-05-22 Sportsvision, Inc. Foreground detection
JP4106874B2 (ja) * 2001-02-05 2008-06-25 ソニー株式会社 画像処理装置および方法、並びに記録媒体
JP2002329206A (ja) * 2001-04-27 2002-11-15 Matsushita Electric Works Ltd 画像処理方法
US7336818B2 (en) * 2001-06-15 2008-02-26 Sony Corporation Image processing device and method, and image-taking device
CN1184796C (zh) * 2001-07-26 2005-01-12 佳能株式会社 图象处理方法和设备以及图象处理系统
US20050104964A1 (en) * 2001-10-22 2005-05-19 Bovyrin Alexandr V. Method and apparatus for background segmentation based on motion localization
JP2003173435A (ja) * 2001-12-06 2003-06-20 Tietech Co Ltd 移動体検出方法及び移動体検出装置
TW577227B (en) * 2002-04-23 2004-02-21 Ind Tech Res Inst Method and apparatus for removing background of visual content
US7190809B2 (en) * 2002-06-28 2007-03-13 Koninklijke Philips Electronics N.V. Enhanced background model employing object classification for improved background-foreground segmentation
US7177483B2 (en) * 2002-08-29 2007-02-13 Palo Alto Research Center Incorporated. System and method for enhancement of document images
US7359547B2 (en) * 2002-09-20 2008-04-15 Nippon Telegraph And Telephone Corporation Pseudo three dimensional image generating apparatus
DE10250781B4 (de) * 2002-10-30 2007-07-26 Orga Systems Gmbh Verfahren und Vorrichtung zur automatischen Segmentierung eines Vordergrundobjektes in einem Bild
JP3848918B2 (ja) * 2002-12-26 2006-11-22 三菱電機株式会社 移動体監視装置および移動体監視方法
US7139433B2 (en) * 2003-03-13 2006-11-21 Sharp Laboratories Of America, Inc. Compound image compression method and apparatus
US7359552B2 (en) * 2004-12-15 2008-04-15 Mitsubishi Electric Research Laboratories, Inc. Foreground detection using intrinsic images
US7574043B2 (en) * 2005-06-27 2009-08-11 Mitsubishi Electric Research Laboratories, Inc. Method for modeling cast shadows in videos
US20070076982A1 (en) * 2005-09-30 2007-04-05 Petrescu Doina I System and method for video stabilization
JP2007180808A (ja) * 2005-12-27 2007-07-12 Toshiba Corp 映像符号化装置、映像復号化装置、及び映像符号化方法

Also Published As

Publication number Publication date
EP1697901A1 (en) 2006-09-06
DE602005011097D1 (de) 2009-01-02
CN1918604A (zh) 2007-02-21
US20060126933A1 (en) 2006-06-15
JP4708343B2 (ja) 2011-06-22
WO2006064895A1 (en) 2006-06-22
EP1697901B1 (en) 2008-11-19
JP2008523454A (ja) 2008-07-03
US7359552B2 (en) 2008-04-15

Similar Documents

Publication Publication Date Title
CN1918604B (zh) 对背景区域和前景区域进行建模的方法
Haritaoglu et al. A fast background scene modeling and maintenance for outdoor surveillance
US7620266B2 (en) Robust and efficient foreground analysis for real-time video surveillance
US8159536B2 (en) Method for detecting desired objects in a highly dynamic environment by a monitoring system
Zhou et al. Real time robust human detection and tracking system
US7418134B2 (en) Method and apparatus for foreground segmentation of video sequences
Wang Real-time moving vehicle detection with cast shadow removal in video based on conditional random field
US20050286764A1 (en) Method for scene modeling and change detection
US20060262959A1 (en) Modeling low frame rate videos with bayesian estimation
JP2006216046A (ja) ビデオのフレームのシーケンスにおける背景をモデル化するコンピュータが実施する方法
EP1836683A2 (en) Method for tracking moving object in video acquired of scene with camera
CN106056078A (zh) 一种基于多特征回归式集成学习的人群密度估计方法
Kumar et al. Queue based fast background modelling and fast hysteresis thresholding for better foreground segmentation
Porikli Multiplicative background-foreground estimation under uncontrolled illumination using intrinsic images
SuganyaDevi et al. Efficient foreground extraction based on optical flow and smed for road traffic analysis
Javed et al. Combining ARF and OR-PCA for robust background subtraction of noisy videos
Gryn et al. Detecting motion patterns via direction maps with application to surveillance
Giveki et al. Atanassov's intuitionistic fuzzy histon for robust moving object detection
Pless Spatio-temporal background models for outdoor surveillance
Kim et al. A method of counting pedestrians in crowded scenes
US7415164B2 (en) Modeling scenes in videos using spectral similarity
Wu et al. Performance characterization for gaussian mixture model based motion detection algorithms
Tavakkoli et al. Automatic robust background modeling using multivariate non-parametric kernel density estimation for visual surveillance
Chiu et al. Moving/motionless foreground object detection using fast statistical background updating
Frejlichowski et al. The removal of false detections from foreground regions extracted using adaptive background modelling for a visual surveillance system

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20110126

Termination date: 20161209

CF01 Termination of patent right due to non-payment of annual fee