CN107833242A - 一种基于边缘信息和改进vibe运动目标检测方法 - Google Patents

一种基于边缘信息和改进vibe运动目标检测方法 Download PDF

Info

Publication number
CN107833242A
CN107833242A CN201711052743.3A CN201711052743A CN107833242A CN 107833242 A CN107833242 A CN 107833242A CN 201711052743 A CN201711052743 A CN 201711052743A CN 107833242 A CN107833242 A CN 107833242A
Authority
CN
China
Prior art keywords
pixel point
image
frame
pixel
point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201711052743.3A
Other languages
English (en)
Inventor
刘磊
宋佳晓
黄伟
李业飞
张壮
陈旭
赵如雪
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing University of Science and Technology
Original Assignee
Nanjing University of Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing University of Science and Technology filed Critical Nanjing University of Science and Technology
Priority to CN201711052743.3A priority Critical patent/CN107833242A/zh
Publication of CN107833242A publication Critical patent/CN107833242A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/251Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/254Analysis of motion involving subtraction of images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供了一种基于边缘信息和改进VIBE运动目标检测方法,首先对视频图像进行灰度化,对前K帧图像的每一个像素点建立初始化背景模型,同时提取图像边缘梯度信息,并利用三帧差分法获取可能的运动目标像素点,其次进行背景判断,然后根据当前像素点是否为边缘点确定是否更新背景模型,结合三帧差分法获取的目标像素点以及被连续判定为前景的次数和相似度进一步判断是否为前景,最后进行空洞填充后将运动目标进行显示。本发明能够抑制长时间静止目标会融入背景的问题。

Description

一种基于边缘信息和改进VIBE运动目标检测方法
技术领域
本发明涉及一种图像处理技术,特别是一种基于边缘信息和改进VIBE运动目标检测方法。
背景技术
智能视频监控是当前计算机视觉、图像处理方面的一个研究热点。目标检测是智能视频监控系统的关键技术,也是目标跟踪、目标分类和行为理解等更高层次处理算法的基础。因此运动目标检测算法制约着整个智能视频监控系统的稳定性、可靠性。目前,比较成熟的运动目标检测算法可以分为以下三类:光流法、帧间差分法以及背景建模法。其中,背景建模法是目前最为常用的运动检测算法。常用的背景建模算法主要有高斯混合模型、Codebook、VIBE等。混合高斯模型能自动的更新背景模型,消除了复杂背景对检测结果的影响。但其运算复杂,占用资源较多。Codebook算法采用量化的视频序列来构建背景模型,为当前图像的每一个像素建立一个码本。该算法虽然计算简便,但由于每一个像素都要建立一个码本,在处理高像素的视频时占用内存较多且对光照变化比较敏感。VIBE 算法是一种基于时空随机选择思想的背景提取算法,该算法采用邻域像素来创建背景模型,并将随机选择机制引入到背景模型的更新中,通过比对背景模型和当前像素值来进行前景检测,VIBE背景建模有思想简单、易于实现、运算效率高、样本衰减最优等优点,但算法自身也存在着局限性。主要有鬼影、静止目标、阴影前景和运动目标不完整等问题。针对VIBE算法的不足之处,2015年黄伟提出了一种基于改进视觉背景提取的运动目标检测方法,可有效去除目标检测中的鬼影问题,但是由于该算法引入了TOM机制,若运动目标从运动到静止,长时间驻留未动,则会出现该运动目标逐渐融入背景的问题。
发明内容
本发明的目的在于提供一种基于边缘信息和改进VIBE运动目标检测方法,能够抑制长时间静止目标会融入背景的问题。
实现本发明目的的技术方案为:一种基于边缘信息和改进VIBE运动目标检测方法,包括以下步骤:
步骤1,采集含有运动目标的视频图;
步骤2,并对视频图像进行灰度化处理;
步骤3,提取灰度化视频图像序列的前K帧图像中奇数帧的像素点灰度值,建立针对一帧图像里每一个像素点的初始化背景模型M(x);
步骤4,从灰度化图像的第K+1帧开始利用三帧差分法获取可能的运动目标像素点;
步骤5,从灰度化图像的第K+1帧开始进行图像的边缘信息提取,提取图像的梯度信息从而获取图像边缘点集;
步骤6,计算第K+1帧开始后的每一帧的每个像素点与背景模型的相似度,如果相似,则分类为背景,转到步骤7;否则为前景,记录判断为前景的次数 Tom(x,y),其中(x,y)代表像素点在一帧图像中的位置,然后转到步骤8;
步骤7,若该像素点为步骤4中获取的图像边缘点,则不更新背景模型M(x);否则,更新背景模型M(x),作为下帧目标检测的背景模型来使用;
步骤8,若当前像素点为步骤4中获取的运动目标像素点,则直接判定该像素点为前景;否则,根据每个像素点的前景判断次数Tom(x,y)及当前帧的像素点与当前帧之前的L帧相同位置像素点的相似度来判定该像素点是误判为前景的背景点,如果是,则根据步骤7来确定是否更新背景模型M(x);否则判定该像素点是前景点,转到步骤9;
步骤9,若步骤8的像素点为前景,则判断为运动目标,显示该运动目标,令其在显示器显示的灰度值为255;
步骤10,对步骤9中所得的目标检测结果利用形态学的方法进行空洞填充后显示。
本发明与现有技术相比,具有以下优点:(1)本发明提出的方法结合了三帧差分法和改进的VIBE算法,相比传统VIBE算法和基于改进视觉背景提取的运动目标检测方法,相对减少了计算量,且对光照变化不敏感;(2)当像素点被判定为背景需要更新其背景模型时,本发明提出的方法在背景模型更新的基础上结合了边缘梯度信息,在背景模型更新时,避开图像中具有丰富边缘的点,相比传统VIBE算法和基于改进视觉背景提取的运动目标检测方法,可以抑制运动目标长时间静止会融入背景的问题;(3)本发明提出的方法在目标检测结果显示过程中利用形态学的方法对检测结果进行处理,填补了内部空洞,相比传统VIBE算法和基于改进视觉背景提取的运动目标检测方法,检测结果更加完整。
下面结合附图对本发明作进一步详细描述。
附图说明
图1为本发明基于边缘信息和改进VIBE的运动目标检测方法的流程图。
图2(a)为帧间差分法、混合高斯模型算法、传统VIBE算法、改进的视觉背景提取方法与本文提出的基于边缘信息和改进VIBE的运动目标检测方法在夜间树林对行人的检测效果对比图:1)原始图像示意图,2)帧间差分法的检测结果示意图,3)混合高斯模型算法检测结果示意图,4)VIBE算法检测结果示意图,5)改进的视觉背景提取方法检测结果示意图,6)本发明方法检测结果示意图。
图2(b)为帧间差分法、混合高斯模型算法、传统VIBE算法与本发明提出的改进的视觉背景提取方法在夜间走廊对行人的检测效果对比图:1)原始图像示意图,2)帧间差分法的检测结果示意图,3)混合高斯模型算法检测结果示意图,4)VIBE算法检测结果示意图,5)改进的视觉背景提取方法检测结果示意图,6)本发明方法检测结果示意图。
图2(c)为帧间差分法、混合高斯模型算法、传统VIBE算法与本发明提出的改进的视觉背景提取方法在夜间室内对行人的检测效果对比图:1)原始图像示意图,2)帧间差分法的检测结果示意图,3)混合高斯模型算法检测结果示意图,4)VIBE算法检测结果示意图,5)改进的视觉背景提取方法检测结果示意图,6)本发明方法检测结果示意图。
图2(d)为帧间差分法、混合高斯模型算法、传统VIBE算法与本发明提出的改进的视觉背景提取方法在夜间公园对行人的检测效果对比图:1)原始图像示意图,2)帧间差分法的检测结果示意图,3)混合高斯模型算法检测结果示意图,4)VIBE算法检测结果示意图,5)改进的视觉背景提取方法检测结果示意图,6)本发明方法检测结果示意图。
图3(a)为改进的视觉背景提取方法与本发明方法在对室内被搬运的箱子的检测中第100帧的结果对比图。
图3(b)为改进的视觉背景提取方法与本发明方法在对双车道上的汽车的检测中第85帧的结果对比图。
具体实施方式
结合图1,一种基于边缘信息和改进VIBE运动目标检测方法,包括以下步骤:
步骤1,采集含有运动目标的视频图像。
步骤2,对步骤1中的视频图像进行灰度化。
步骤3,初始化背景模型:提取红外探测器采集的灰度化图像或步骤2得到的灰度化图像中前K帧图像奇数帧的像素点灰度值,另外建立针对一帧图像里每一个像素点的初始化背景模型M(x)。
其中提取灰度化图像中前K帧图像奇数帧的像素点,另外建立初始化背景模型M(x)步骤如下:
对于当前帧中的任一像素点,采用该像素点在视频初始时的前K帧图像奇数帧的像素点灰度值集合,来建立初始化背景模型M(x)={p1,p2,...pN}
式中,p1,p2,...pN为背景模型的样本,对应于前K帧图像奇数帧的像素点灰度值,N=K/2。其中K取40,即N=20,背景模型M(x)中共有20个样本。
步骤4,三帧差分法获取目标:从灰度化图像的第K+1帧开始利用三帧差分法获取可能的运动目标像素点。三帧差分法是在两帧差分的基础上进行改进,先选取视频图像序列中连续三帧图像并分别计算相邻两帧的差分图像,然后将差分图像通过选取适当的阈值进行二值化处理,得到二值化图像,最后在每一个像素点得到的二值图像进行逻辑与运算,获取共同部分,从而获得运动目标的轮廓信息。
其具体步骤如下:
步骤4.1,提取图像序列中连续的三帧图像,Ik(x,y),Ik+1(x,y),Ik+2(x,y);
步骤4.2,计算相邻两帧差值,
步骤4.3,对得到的差值图像通过选择合适的阈值T进行二值化,
步骤4.4,将在像素点(x,y)处得到的二值图像逻辑相与,得到中间帧,即k+1帧的二值图像,
Bk+1(x,y)为1时,则表示像素点(x,y)为前景点,即,可能的运动目标像素点。
步骤5,边缘信息提取:从灰度化图像的第K+1帧开始进行图像的边缘信息提取,提取图像的梯度信息从而获取图像边缘点集。以第k+1帧图像为例,其具体步骤如下:
步骤5.1,用中值差分法提取图像梯度,其中,I是图像像素值,(i,j)为像素坐标,dx(i,j)和dy(i,j)分别为图像在水平方向和垂直方向上的梯度;
步骤5.2,计算图像梯度的幅度,
步骤5.3,通过对图像梯度幅度值设置阈值,提取边缘点集,若图像梯度幅度Gradk+1(i,j)大于阈值,则判定像素点(i,j)为边缘点,否则,判定为非边缘点。
步骤6,背景判断:从灰度化图像的第K+1帧开始对每个像素点进行背景判断。计算第K+1帧开始后的每一帧的每个像素点与背景模型的相似度,如果相似,则分类为背景,转到步骤7;否则为前景,记录判断为前景的次数Tom(x,y),其中(x,y)代表像素点在一帧图像中的位置,然后转到步骤8。
上述从K+1帧开始,判断像素点是否为背景步骤如下:
步骤6.1,从K+1帧开始,对于当前帧的某一像素点x,其灰度值为P(x),在欧式颜色空间中定义一个以P(x)为中心,R为半径的圆SR(P(x)),R为模型匹配阈值,SR(P(x))表示所有与P(x)距离小于R的灰度值的集合,用M(x)落在圆 SR(P(x))内的样本个数#{SR(P(x))∩{P1,P2...PN}}来描述P(x)与背景模型 M(x)的相似度。其中R取20。
步骤6.2,设定最小匹配个数#min,根据下式,如果 #{SR(P(x))∩{P1,P2...PN}}<#min,则像素点x与背景模型M(x)不匹配,判断该点为前景,每当像素点x被判定为前景一次,Tom(x,y)加1;否则,判断该点为背景,Tom(x,y)置0。其中#min取4。
步骤7,若像素点x为步骤4中获取的图像边缘点,则不更新背景模型M(x);否则,更新背景模型M(x),作为下帧目标检测的背景模型来使用。
若像素点x被判定为背景,且为非边缘点,则其更新背景模型的步骤如下:
步骤7.1,记录所述像素点x判定背景过程中欧氏距离(即当前像素值与背景模型的样本灰度差值)最大的样本位置;
步骤7.2,有1/φ概率去更新当前帧像素点x自身的背景模型,即从K+1 帧开始,在更新当前帧像素点x自身的背景模型时,用当前帧像素点x的灰度值 P(x)更新步骤7.1找出的欧氏距离中最大值所对应的样本,其中φ取16。φ可以取其他值,但是本发明算法是在原有VIBE上进行改进的,VIBE取值16,该类算法改进一般都取值16,除非在φ值上有特定改进时取其他值。
步骤7.3,有1/φ的概率用当前帧像素点x的灰度值P(x)去更新它的F*F 邻域某一像素点对应背景模型的随机一个样本。其中F取3。
步骤8,前景进一步判断:若当前像素点为步骤4中获取的运动目标像素点,则直接判定该像素点为前景;否则,根据每个像素点的前景判断次数Tom(x,y)及当前帧的像素点与当前帧之前的L帧相同位置像素点的相似度来判定该像素点是误判为前景的背景点,如果是,则根据步骤7来确定是否更新背景模型M(x);否则判定该像素点是前景点,转到步骤9。
若当前像素点不是步骤4中获取的运动目标像素点,则对前景作进一步判断的步骤如下:
步骤8.1,如果步骤(4)中Tom(x,y)≥N,即至少连续N次被判定为前景,其中N取5,执行以下操作:
a)在欧式颜色空间中定义一个以P(x)为中心,Q为半径的圆SQ(P(x)),Q 为灰度匹配阈值,SQ(P(x))表示所有与P(x)距离小于Q的灰度值的集合,用前面L帧的相同位置像素点灰度值P1,P2...PL落在圆SQ(P(x))内的个数#{SQ(P(x))∩{P1,P2...PL}}来描述当前帧该像素点与前面L帧的相同位置像素点的相似度。其中L取8,Q取5。
b)设定最小基数Z,如果#{SQ(P(x))∩{P1,P2...PL}}≥Z,则认为该像素点被误判为前景,更正为背景,用当前帧像素点x的灰度值P(x)更新步骤6欧氏距离中最大值所对应的样本,同时设置该像素点在显示器显示的灰度值为0;
c)如果#{SQ(P(x))∩{P1,P2...PL}}<Z,则认为该像素点确实为前景,转到步骤9;
步骤8.2,若步骤6中Tom(x,y)<N,即连续判定为前景次数小于N,将该像素点判断为前景,转到步骤9。
步骤9,若步骤8的像素点为前景,则判断为运动目标,显示该运动目标,令其在显示器显示的灰度值为255。
步骤10,对步骤9中所得的目标检测结果利用形态学的方法进行空洞填充后显示。本发明采用形态学方法中的腐蚀与膨胀运算进行空洞填充。
其中,膨胀的具体操作步骤如下:
(1)定义结构元素B,用结构元素B扫描灰度化后的视频图像的每一个像素;
(2)用结构元素与其覆盖的二值图像做逻辑“或”操作;
(3)如果有一个元素为0,则图像的该像素置为0,否则置为255;
所述元素包括该像素点处的及结构元素值和灰度化后的视频图像的灰度值。
其中,腐蚀的具体操作步骤如下:
(1)定义结构元素B,用结构元素B扫描灰度化后的视频图像的每一个像素;
(2)用结构元素与其覆盖的二值图像做逻辑“与”操作;
(3)如果两个元素都为0,则图像的该像素置为0,否则置为255;
所述元素包括该像素点处的及结构元素值和灰度化后的视频图像的灰度值。
本发明采用先膨胀后腐蚀,即闭运算,对步骤9所得的检测结果图像进行处理,填充了图像内部空洞。
下面结合本发明的仿真实施例对本发明做进一步的说明。
为了检测本发明提出的基于边缘信息和改进VIBE的运动目标检测方法效果,现通过MATLAB R2014a构建算法仿真模型将本发明提出的算法与帧间差分法、混合高斯模型算法、传统VIBE算法处理效果、改进的视觉背景提取方法进行比较。分别选取大小为160*120,帧速率为25帧/秒的夜间树林红外视频1,大小为320*240,帧速率为25帧/秒的夜间楼道走廊红外视频2,大小为 320*240,帧速率为25帧/秒的室内行人红外视频3,大小为352*288,帧速率为25帧/秒的夜间公园红外视频4,大小为320*240,帧速率为25帧/秒的室内视频5,大小为570*340,帧速率为25帧/秒的室外双车道视频6。
如图1所示,首先对视频图像进行灰度化,针对前K帧图像的每一个像素点建立初始化背景模型,同时提取图像边缘梯度信息,并利用三帧差分法获取可能的运动目标像素点,其次进行背景判断,然后更新背景模型,进一步判断是否为前景,最后进行空洞填充后将运动目标进行显示。
图2(a)为帧间差分法、混合高斯模型算法、传统VIBE算法、改进的视觉背景提取方法与本发明提出的基于边缘信息和改进VIBE的运动目标检测方法在夜间树林对行人的检测效果对比图;图2(b)为帧间差分法、混合高斯模型算法、传统VIBE算法、改进的视觉背景提取方法与本发明提出的基于边缘信息和改进VIBE的运动目标检测方法在夜间走廊对行人的检测效果对比图;图2(c) 为帧间差分法、混合高斯模型算法、传统VIBE算法与本发明提出的改进的视觉背景提取方法在夜间室内对行人的检测效果对比图;图2(d)为帧间差分法、混合高斯模型算法、传统VIBE算法与本发明提出的改进的视觉背景提取方法在夜间公园对行人的检测效果对比图。其中1)列为原始图像;2)列为帧间差分法的检测结果;3)列为混合高斯模型算法检测结果;4)列为传统VIBE算法检测结果;5)列为改进的视觉背景提取方法检测结果;6)列为本发明提出的基于边缘信息和改进VIBE的运动目标检测方法检测结果。
由图2可以发现,相比OTSU帧差法和混合高斯模型算法,传统VIBE算法、改进的视觉背景提取算法以及本发明提出的基于边缘信息和改进VIBE的运动目标检测方法提取的运动目标要相对完整。相比传统VIBE算法,本发明可以很好地鬼影,如夜间红外视频1;相比改进的视觉背景提取算法,本发明可以在改进的视觉背景提取算法检测结果的基础上进行空洞填充,使目标更加完整。
此外,针对运动目标由运动状态转为静止状态,长时间静止会使目标逐渐融入背景的问题,本发明在改进的视觉背景提取算法的基础上结合边缘梯度信息,对上述问题进行了处理,其处理结果如图3所示。
图3(a)为改进的视觉背景提取算法与本发明提出的基于边缘信息和改进 VIBE的运动目标检测方法在第100帧的检测结果对比。其中1)列为原始图像; 2)列为改进的视觉背景提取方法检测结果;3)列为本发明提出的基于边缘信息和改进VIBE的运动目标检测方法检测结果。由于箱子长时间静止,改进的视觉背景提取算法在背景模型更新中加入了TOM机制,使得箱子融入背景,而本发明提出的基于边缘信息和改进VIBE的运动目标检测方法在背景模型更新的过程中结合了边缘梯度信息,在更新背景模型时避开了具有丰富边缘的点,使得目标不会融入背景,由于箱子只有四周边缘较为明显,所以最终只检测到一个四边形的轮廓。
图3(b)为改进的视觉背景提取算法与本发明提出的基于边缘信息和改进 VIBE的运动目标检测方法在第85帧的检测结果对比。其中1)列为原始图像; 2)列为改进的视觉背景提取方法检测结果;3)列为本发明提出的基于边缘信息和改进VIBE的运动目标检测方法检测结果。由于汽车长时间静止,改进的视觉背景提取算法检测结果中汽车融入背景,而本发明提出的基于边缘信息和改进 VIBE的运动目标检测方法仍然可检测出汽车,而没有融入背景。

Claims (8)

1.一种基于边缘信息和改进VIBE运动目标检测方法,其特征在于,包括以下步骤:
步骤1,采集含有运动目标的视频图;
步骤2,并对视频图像进行灰度化处理;
步骤3,提取灰度化视频图像序列的前K帧图像中奇数帧的像素点灰度值,建立针对一帧图像里每一个像素点的初始化背景模型M(x);
步骤4,从灰度化图像的第K+1帧开始利用三帧差分法获取可能的运动目标像素点;
步骤5,从灰度化图像的第K+1帧开始进行图像的边缘信息提取,提取图像的梯度信息从而获取图像边缘点集;
步骤6,计算第K+1帧开始后的每一帧的每个像素点与背景模型的相似度,如果相似,则分类为背景,转到步骤7;否则为前景,记录判断为前景的次数Tom(x,y),其中(x,y)代表像素点在一帧图像中的位置,然后转到步骤8;
步骤7,若该像素点为步骤5中获取的图像边缘点,则不更新背景模型M(x);否则,更新背景模型M(x),作为下帧目标检测的背景模型来使用;
步骤8,若当前像素点为步骤4中获取的运动目标像素点,则直接判定该像素点为前景;否则,根据每个像素点的前景判断次数Tom(x,y)及当前帧的像素点与当前帧之前的L帧相同位置像素点的相似度来判定该像素点是误判为前景的背景点,如果是,则根据步骤7来确定是否更新背景模型M(x);否则判定该像素点是前景点,转到步骤9;
步骤9,若步骤8的像素点为前景,则判断为运动目标,显示该运动目标,令其在显示器显示的灰度值为255;
步骤10,对步骤9中所得的目标检测结果利用形态学的方法进行空洞填充后显示。
2.根据权利要求1所述的方法,其特征在于,步骤3中建立针对一帧图像里每一个像素点的初始化背景模型M(x)={p1,p2,...pN},其中,p1,p2,...pN为该像素点在视频初始时的前K帧图像奇数帧的像素点灰度值,N=K/2。
3.根据权利要求1所述的方法,其特征在于,步骤4中利用三帧差分法获取可能的运动目标像素点的具体过程为:
步骤4.1,提取图像序列中连续的三帧图像Ik(x,y)、Ik+1(x,y)、Ik+2(x,y);,
步骤4.2,计算相邻两帧差值
步骤4.3,对得到的差值图像通过选择合适的阈值T进行二值化,
<mrow> <mfenced open = "{" close = ""> <mtable> <mtr> <mtd> <mrow> <msub> <mi>b</mi> <mrow> <mo>(</mo> <mi>k</mi> <mo>+</mo> <mn>1</mn> <mo>,</mo> <mi>k</mi> <mo>)</mo> </mrow> </msub> <mrow> <mo>(</mo> <mi>x</mi> <mo>,</mo> <mi>y</mi> <mo>)</mo> </mrow> <mo>=</mo> <mfenced open = "{" close = ""> <mtable> <mtr> <mtd> <mrow> <mn>1</mn> <mo>,</mo> </mrow> </mtd> <mtd> <mrow> <msub> <mi>d</mi> <mrow> <mo>(</mo> <mi>k</mi> <mo>+</mo> <mn>1</mn> <mo>,</mo> <mi>k</mi> <mo>)</mo> </mrow> </msub> <mrow> <mo>(</mo> <mi>x</mi> <mo>,</mo> <mi>y</mi> <mo>)</mo> </mrow> <mo>&amp;GreaterEqual;</mo> <mi>T</mi> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <mn>0</mn> <mo>,</mo> </mrow> </mtd> <mtd> <mrow> <msub> <mi>d</mi> <mrow> <mo>(</mo> <mi>k</mi> <mo>+</mo> <mn>1</mn> <mo>,</mo> <mi>k</mi> <mo>)</mo> </mrow> </msub> <mrow> <mo>(</mo> <mi>x</mi> <mo>,</mo> <mi>y</mi> <mo>)</mo> </mrow> <mo>&lt;</mo> <mi>T</mi> </mrow> </mtd> </mtr> </mtable> </mfenced> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <msub> <mi>b</mi> <mrow> <mo>(</mo> <mi>k</mi> <mo>+</mo> <mn>2</mn> <mo>,</mo> <mi>k</mi> <mo>+</mo> <mn>1</mn> <mo>)</mo> </mrow> </msub> <mrow> <mo>(</mo> <mi>x</mi> <mo>,</mo> <mi>y</mi> <mo>)</mo> </mrow> <mo>=</mo> <mfenced open = "{" close = ""> <mtable> <mtr> <mtd> <mrow> <mn>1</mn> <mo>,</mo> </mrow> </mtd> <mtd> <mrow> <msub> <mi>d</mi> <mrow> <mo>(</mo> <mi>k</mi> <mo>+</mo> <mn>2</mn> <mo>,</mo> <mi>k</mi> <mo>+</mo> <mn>1</mn> <mo>)</mo> </mrow> </msub> <mrow> <mo>(</mo> <mi>x</mi> <mo>,</mo> <mi>y</mi> <mo>)</mo> </mrow> <mo>&amp;GreaterEqual;</mo> <mi>T</mi> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <mn>0</mn> <mo>,</mo> </mrow> </mtd> <mtd> <mrow> <msub> <mi>d</mi> <mrow> <mo>(</mo> <mi>k</mi> <mo>+</mo> <mn>2</mn> <mo>,</mo> <mi>k</mi> <mo>+</mo> <mn>1</mn> <mo>)</mo> </mrow> </msub> <mrow> <mo>(</mo> <mi>x</mi> <mo>,</mo> <mi>y</mi> <mo>)</mo> </mrow> <mo>&lt;</mo> <mi>T</mi> </mrow> </mtd> </mtr> </mtable> </mfenced> </mrow> </mtd> </mtr> </mtable> </mfenced> <mo>;</mo> </mrow>
步骤4.4,将在像素点(x,y)处得到的二值图像进行逻辑相与得到k+1帧的二值图像Bk+1(x,y),
<mrow> <msub> <mi>B</mi> <mrow> <mi>k</mi> <mo>+</mo> <mn>1</mn> </mrow> </msub> <mrow> <mo>(</mo> <mi>x</mi> <mo>,</mo> <mi>y</mi> <mo>)</mo> </mrow> <mo>=</mo> <mfenced open = "{" close = ""> <mtable> <mtr> <mtd> <mrow> <mn>1</mn> <mo>,</mo> </mrow> </mtd> <mtd> <mrow> <msub> <mi>b</mi> <mrow> <mo>(</mo> <mi>k</mi> <mo>+</mo> <mn>1</mn> <mo>,</mo> <mi>k</mi> <mo>)</mo> </mrow> </msub> <mrow> <mo>(</mo> <mi>x</mi> <mo>,</mo> <mi>y</mi> <mo>)</mo> </mrow> <mo>&amp;cap;</mo> <msub> <mi>b</mi> <mrow> <mo>(</mo> <mi>k</mi> <mo>+</mo> <mn>2</mn> <mo>,</mo> <mi>k</mi> <mo>+</mo> <mn>1</mn> <mo>)</mo> </mrow> </msub> <mrow> <mo>(</mo> <mi>x</mi> <mo>,</mo> <mi>y</mi> <mo>)</mo> </mrow> <mo>=</mo> <mn>1</mn> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <mn>0</mn> <mo>,</mo> </mrow> </mtd> <mtd> <mrow> <msub> <mi>b</mi> <mrow> <mo>(</mo> <mi>k</mi> <mo>+</mo> <mn>1</mn> <mo>,</mo> <mi>k</mi> <mo>)</mo> </mrow> </msub> <mrow> <mo>(</mo> <mi>x</mi> <mo>,</mo> <mi>y</mi> <mo>)</mo> </mrow> <mo>&amp;cap;</mo> <msub> <mi>b</mi> <mrow> <mo>(</mo> <mi>k</mi> <mo>+</mo> <mn>2</mn> <mo>,</mo> <mi>k</mi> <mo>+</mo> <mn>1</mn> <mo>)</mo> </mrow> </msub> <mrow> <mo>(</mo> <mi>x</mi> <mo>,</mo> <mi>y</mi> <mo>)</mo> </mrow> <mo>&amp;NotEqual;</mo> <mn>1</mn> </mrow> </mtd> </mtr> </mtable> </mfenced> </mrow>
Bk+1(x,y)为1时,则表示像素点(x,y)为前景点,即可能的运动目标像素点。
4.根据权利要求1所述的方法,其特征在于,步骤5中提取图像的梯度信息从而获取图像边缘点集的具体过程如下:
步骤5.1,用中值差分法提取图像梯度
其中,Ik是第k帧图像的像素值,(i,j)为像素坐标,dx(i,j)和dy(i,j)分别为图像在水平方向和垂直方向上的梯度;
步骤5.2,计算图像梯度的幅度Gradk+1(i,j)
<mrow> <msub> <mi>Grad</mi> <mrow> <mi>k</mi> <mo>+</mo> <mn>1</mn> </mrow> </msub> <mrow> <mo>(</mo> <mi>i</mi> <mo>,</mo> <mi>j</mi> <mo>)</mo> </mrow> <mo>=</mo> <msup> <mrow> <mo>{</mo> <msup> <mrow> <mo>&amp;lsqb;</mo> <msub> <mi>d</mi> <mi>x</mi> </msub> <mrow> <mo>(</mo> <mi>i</mi> <mo>,</mo> <mi>j</mi> <mo>)</mo> </mrow> <mo>&amp;rsqb;</mo> </mrow> <mn>2</mn> </msup> <mo>+</mo> <msup> <mrow> <mo>&amp;lsqb;</mo> <msub> <mi>d</mi> <mi>y</mi> </msub> <mrow> <mo>(</mo> <mi>i</mi> <mo>,</mo> <mi>j</mi> <mo>)</mo> </mrow> <mo>&amp;rsqb;</mo> </mrow> <mn>2</mn> </msup> <mo>}</mo> </mrow> <mfrac> <mn>1</mn> <mn>2</mn> </mfrac> </msup> <mo>;</mo> </mrow>
步骤5.3,若图像梯度幅度Gradk+1(i,j)大于预设的阈值,则判定像素点(i,j)为边缘点,否则,判定为非边缘点。
5.根据权利要求1所述的方法,其特征在于,步骤6中判断像素点是否为背景的具体过程为:
步骤6.1,从K+1帧开始,对于当前帧的某一像素点x,在欧式颜色空间中定义一个以P(x)为中心且R为半径的圆SR(P(x)),P(x)为该像素点x的灰度值,R为模型匹配阈值,SR(P(x))表示所有与P(x)距离小于R的灰度值的集合;
步骤6.2,用M(x)落在圆SR(P(x))内的样本个数#{SR(P(x))∩{P1,P2...PN}},描述P(x)与背景模型M(x)的相似度,若#{SR(P(x))∩{P1,P2...PN}}<#min,则像素点x与背景模型M(x)不匹配,判断该点为前景,每当像素点x被判定为前景一次,Tom(x,y)加1;否则,判断该点为背景,Tom(x,y)置0;其中#min为设定最小匹配个数。
6.根据权利要求1所述的方法,其特征在于,步骤7中若若像素点x被判定为背景且为非边缘点,则其更新背景模型的具体过程如下:
步骤7.1,记录所述像素点x的判定背景过程中欧氏距离最大的样本位置,所述欧式距离为当前像素值与背景模型的样本灰度差值;
步骤7.2,从K+1帧开始,用当前帧像素点x的灰度值P(x)更新找出的欧氏距离中最大值所对应的样本,更新的概率为1/φ;
步骤7.3,用当前帧像素点x的灰度值P(x)更新它的F*F邻域内某一像素点对应背景模型的随机一个样本,更新概率为1/φ。
7.根据权利要求6所述的方法,其特征在于,步骤8中若当前像素点不是步骤4中获取的运动目标像素点,则对前景作进一步判断的具体过程如下:
步骤8.1,如果步骤4中Tom(x,y)≥N,即至少连续N次被判定为前景,执行以下操作:
步骤8.1.1,在欧式颜色空间中定义一个以P(x)为中心且Q为半径的圆SQ(P(x)),P(x)为该像素点x的灰度值,Q为灰度匹配阈值,SQ(P(x))表示所有与P(x)距离小于Q的灰度值的集合,用前面L帧的相同位置像素点灰度值P1,P2...PL落在圆SQ(P(x))内的个数#{SQ(P(x))∩{P1,P2...PL}}来描述当前帧该像素点与前面L帧的相同位置像素点的相似度;
步骤8.1.2,设定最小基数Z,如果#{SQ(P(x))∩{P1,P2...PL}}≥Z,则认为该像素点被误判为前景,更正为背景,用当前帧像素点x的灰度值P(x)更新步骤7欧氏距离中最大值所对应的样本,同时设置该像素点在显示器显示的灰度值为0;
步骤8.1.3,如果#{SQ(P(x))∩{P1,P2...PL}}<Z,则认为该像素点确实为前景,转到步骤9;
步骤8.2,若步骤6中Tom(x,y)<N,即连续判定为前景次数小于N,将该像素点判断为前景,转到步骤9。
8.根据权利要求1所述的方法,其特征在于,步骤10中采用形态学方法中的先膨胀运算后腐蚀运算进行空洞填充,其中
膨胀的具体操作步骤如下:
(1)定义结构元素B,用结构元素B扫描灰度化后的视频图像的每一个像素;
(2)用结构元素与其覆盖的二值图像做逻辑“或”操作;
(3)如果有一个元素为0,则图像的该像素置为0,否则置为255。
腐蚀的具体操作步骤如下:
(1)定义结构元素B,用结构元素B扫描灰度化后的视频图像的每一个像素;
(2)用结构元素与其覆盖的二值图像做逻辑“与”操作;
(3)如果两个元素都为0,则图像的该像素置为0,否则置为255。
CN201711052743.3A 2017-10-30 2017-10-30 一种基于边缘信息和改进vibe运动目标检测方法 Pending CN107833242A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201711052743.3A CN107833242A (zh) 2017-10-30 2017-10-30 一种基于边缘信息和改进vibe运动目标检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201711052743.3A CN107833242A (zh) 2017-10-30 2017-10-30 一种基于边缘信息和改进vibe运动目标检测方法

Publications (1)

Publication Number Publication Date
CN107833242A true CN107833242A (zh) 2018-03-23

Family

ID=61650347

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201711052743.3A Pending CN107833242A (zh) 2017-10-30 2017-10-30 一种基于边缘信息和改进vibe运动目标检测方法

Country Status (1)

Country Link
CN (1) CN107833242A (zh)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108709494A (zh) * 2018-03-26 2018-10-26 中国民航大学 一种白光干涉信号背景光强实时分离方法
CN108764325A (zh) * 2018-05-23 2018-11-06 腾讯科技(深圳)有限公司 图像识别方法、装置、计算机设备和存储介质
CN109377515A (zh) * 2018-08-03 2019-02-22 佛山市顺德区中山大学研究院 一种基于改进ViBe算法的运动目标检测方法及系统
CN109461174A (zh) * 2018-10-25 2019-03-12 北京陌上花科技有限公司 视频目标区域跟踪方法和视频平面广告植入方法及系统
CN109993778A (zh) * 2019-04-11 2019-07-09 浙江立元通信技术股份有限公司 一种确定目标位置的方法及装置
CN110580709A (zh) * 2019-07-29 2019-12-17 浙江工业大学 一种基于ViBe和三帧差分融合的目标检测方法
CN110751635A (zh) * 2019-10-12 2020-02-04 湖南师范大学 一种基于帧间差分和hsv颜色空间的口腔检测方法
CN111031265A (zh) * 2019-11-22 2020-04-17 维沃移动通信有限公司 一种fsr确定方法及电子设备
CN111060442A (zh) * 2019-04-30 2020-04-24 威海戥同测试设备有限公司 一种基于图像处理的油液颗粒检测方法
CN111145151A (zh) * 2019-12-23 2020-05-12 维沃移动通信有限公司 一种运动区域确定方法及电子设备
CN111524082A (zh) * 2020-04-26 2020-08-11 上海航天电子通讯设备研究所 目标鬼影消除方法
CN111583357A (zh) * 2020-05-20 2020-08-25 重庆工程学院 一种基于matlab系统的物体运动图像捕捉合成方法
CN114327341A (zh) * 2021-12-31 2022-04-12 江苏龙冠影视文化科技有限公司 远程交互式虚拟展示系统

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102147861A (zh) * 2011-05-17 2011-08-10 北京邮电大学 一种基于颜色-纹理双重特征向量进行贝叶斯判决的运动目标检测方法
CN102222214A (zh) * 2011-05-09 2011-10-19 苏州易斯康信息科技有限公司 快速物体识别算法
CN104392468A (zh) * 2014-11-21 2015-03-04 南京理工大学 基于改进视觉背景提取的运动目标检测方法
CN106228572A (zh) * 2016-07-18 2016-12-14 西安交通大学 一种带状态标注的长期静止物体检测与跟踪方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102222214A (zh) * 2011-05-09 2011-10-19 苏州易斯康信息科技有限公司 快速物体识别算法
CN102147861A (zh) * 2011-05-17 2011-08-10 北京邮电大学 一种基于颜色-纹理双重特征向量进行贝叶斯判决的运动目标检测方法
CN104392468A (zh) * 2014-11-21 2015-03-04 南京理工大学 基于改进视觉背景提取的运动目标检测方法
CN106228572A (zh) * 2016-07-18 2016-12-14 西安交通大学 一种带状态标注的长期静止物体检测与跟踪方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
张文,李榕,朱建武: "《基于混合高斯模型与三帧差分的目标检测算法》", 《现代电子技术》 *
胡小冉、孙涵: "《一种新的基于ViBe的运动目标检测方法》", 《计算机科学》 *

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108709494A (zh) * 2018-03-26 2018-10-26 中国民航大学 一种白光干涉信号背景光强实时分离方法
CN108764325A (zh) * 2018-05-23 2018-11-06 腾讯科技(深圳)有限公司 图像识别方法、装置、计算机设备和存储介质
CN108764325B (zh) * 2018-05-23 2022-07-08 腾讯科技(深圳)有限公司 图像识别方法、装置、计算机设备和存储介质
CN109377515A (zh) * 2018-08-03 2019-02-22 佛山市顺德区中山大学研究院 一种基于改进ViBe算法的运动目标检测方法及系统
CN109461174A (zh) * 2018-10-25 2019-03-12 北京陌上花科技有限公司 视频目标区域跟踪方法和视频平面广告植入方法及系统
CN109993778A (zh) * 2019-04-11 2019-07-09 浙江立元通信技术股份有限公司 一种确定目标位置的方法及装置
CN111060442A (zh) * 2019-04-30 2020-04-24 威海戥同测试设备有限公司 一种基于图像处理的油液颗粒检测方法
CN111060442B (zh) * 2019-04-30 2022-06-17 威海戥同测试设备有限公司 一种基于图像处理的油液颗粒检测方法
CN110580709A (zh) * 2019-07-29 2019-12-17 浙江工业大学 一种基于ViBe和三帧差分融合的目标检测方法
CN110751635A (zh) * 2019-10-12 2020-02-04 湖南师范大学 一种基于帧间差分和hsv颜色空间的口腔检测方法
CN110751635B (zh) * 2019-10-12 2024-03-19 湖南师范大学 一种基于帧间差分和hsv颜色空间的口腔检测方法
CN111031265A (zh) * 2019-11-22 2020-04-17 维沃移动通信有限公司 一种fsr确定方法及电子设备
CN111145151A (zh) * 2019-12-23 2020-05-12 维沃移动通信有限公司 一种运动区域确定方法及电子设备
CN111145151B (zh) * 2019-12-23 2023-05-26 维沃移动通信有限公司 一种运动区域确定方法及电子设备
CN111524082A (zh) * 2020-04-26 2020-08-11 上海航天电子通讯设备研究所 目标鬼影消除方法
CN111524082B (zh) * 2020-04-26 2023-04-25 上海航天电子通讯设备研究所 目标鬼影消除方法
CN111583357A (zh) * 2020-05-20 2020-08-25 重庆工程学院 一种基于matlab系统的物体运动图像捕捉合成方法
CN114327341A (zh) * 2021-12-31 2022-04-12 江苏龙冠影视文化科技有限公司 远程交互式虚拟展示系统

Similar Documents

Publication Publication Date Title
CN107833242A (zh) 一种基于边缘信息和改进vibe运动目标检测方法
CN104392468B (zh) 基于改进视觉背景提取的运动目标检测方法
CN109800628B (zh) 一种加强ssd小目标行人检测性能的网络结构及检测方法
CN107993245B (zh) 一种空天背景多目标检测和跟踪方法
CN101453575B (zh) 一种视频字幕信息提取方法
JP5747549B2 (ja) 信号機検出装置及びプログラム
CN103093198B (zh) 一种人群密度监测方法及装置
CN110874592B (zh) 一种基于总有界变分的森林火灾烟雾图像检测方法
CN104978567B (zh) 基于场景分类的车辆检测方法
CN107169985A (zh) 一种基于对称帧间差分和背景更新的运动目标检测方法
Yang et al. A vehicle license plate recognition system based on fixed color collocation
CN112489055B (zh) 融合亮度-时序特征的卫星视频动态车辆目标提取方法
AU2009295350A1 (en) Detection of vehicles in an image
CN109711256B (zh) 一种低空复杂背景无人机目标检测方法
CN102663362B (zh) 一种基于灰度特征的运动目标检测方法
CN101770583B (zh) 一种基于场景全局特征的模板匹配方法
Lian et al. A novel method on moving-objects detection based on background subtraction and three frames differencing
CN104599291B (zh) 基于结构相似度和显著性分析的红外运动目标检测方法
CN106934819A (zh) 一种提高图像中运动物体检测精度的方法
CN111524082B (zh) 目标鬼影消除方法
CN111985314B (zh) 一种基于ViBe与改进LBP的烟雾检测方法
CN114973207A (zh) 一种基于目标检测的路标识别方法
CN109978916B (zh) 基于灰度图像特征匹配的Vibe运动目标检测方法
CN107169969B (zh) 一种基于fpga的公路危岩崩塌堆积物大小测量及报警系统
CN113657264A (zh) 基于暗通道和knn算法融合的森林火灾烟雾根节点检测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20180323