CN108280842A - 一种克服光照突变的前景分割方法 - Google Patents
一种克服光照突变的前景分割方法 Download PDFInfo
- Publication number
- CN108280842A CN108280842A CN201711483680.7A CN201711483680A CN108280842A CN 108280842 A CN108280842 A CN 108280842A CN 201711483680 A CN201711483680 A CN 201711483680A CN 108280842 A CN108280842 A CN 108280842A
- Authority
- CN
- China
- Prior art keywords
- gauss
- distribution function
- pixel
- value
- model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 29
- 230000011218 segmentation Effects 0.000 title claims abstract description 22
- 238000012545 processing Methods 0.000 claims abstract description 13
- 230000003068 static effect Effects 0.000 claims abstract description 6
- 238000005315 distribution function Methods 0.000 claims description 55
- 230000033001 locomotion Effects 0.000 claims description 11
- 238000009826 distribution Methods 0.000 claims description 10
- 238000006073 displacement reaction Methods 0.000 claims description 6
- 238000010276 construction Methods 0.000 claims description 4
- 238000001914 filtration Methods 0.000 claims description 3
- 230000000750 progressive effect Effects 0.000 claims description 3
- 239000004744 fabric Substances 0.000 claims 1
- 238000011946 reduction process Methods 0.000 claims 1
- 238000005286 illumination Methods 0.000 abstract description 4
- 230000007613 environmental effect Effects 0.000 abstract description 2
- 239000000284 extract Substances 0.000 abstract 1
- 238000000605 extraction Methods 0.000 abstract 1
- 238000001514 detection method Methods 0.000 description 4
- 238000011160 research Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 3
- 239000011159 matrix material Substances 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 238000003709 image segmentation Methods 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 239000000969 carrier Substances 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000003745 diagnosis Methods 0.000 description 1
- 230000008034 disappearance Effects 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000035772 mutation Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/194—Segmentation; Edge detection involving foreground-background segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/70—Denoising; Smoothing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/215—Motion-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20024—Filtering details
- G06T2207/20032—Median filtering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20224—Image subtraction
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种克服光照突变的前景分割方法,包括有以下步骤:采用混合高斯背景建模的模型对处理后的视频帧灰度图进行初始化;结合光强突变量对视频帧进行混合高斯背景建模处理,并得到更新的背景模型;然后通过联通域标记、特征提取以及行为判断的结果提取出前景目标。本发明方法在采用传统混合高斯背景建模方法的前提下,在模型中引入光照突变量对图像进行处理,对背景模型实时更新,解决了目标分割对光照和环境突变敏感的问题,也解决了传统混合高斯模型中对长时间静止目标被更新为背景并消失的问题,进一步提高了前景分割的准确率。本发明作为一种克服光照突变的前景分割方法可广泛应用于图像处理领域。
Description
技术领域
本发明涉及图像处理领域,尤其是一种克服光照突变的前景分割方法。
背景技术
图像和视频是人们通过视觉获得信息的重要载体。特别是随着网络和通信技术技术的迅速发展和普及,我们正在进入信息时代,以图像处理为基础的视频处理,在信息获取和分析中扮演着越来越重要的角色。但是图片和视频信息又是最难捕捉、处理和显示的。为了让计算机能够像人类一样通过视觉获得复杂多变的图像信息,将人类从视觉劳动中解放出来,计算机视觉应运而生。计算机视觉就是想让计算机复现人的视觉功能,使由传感器和成像设备获得的静态图像或视频序列能够被计算机理解和解释。
在很多应用领域中,人们只对前景目标感兴趣,因此对视频帧或者图像中前景的分割就显得格外重要。前景分割这项研究,方法日新月异,目的是在不需要人为干扰的前提下,采用数字图像处理技术和计算机视觉技术,自动对场景中的行为和目标进行识别和判断,从视频序列的场景中分割出运动目标区域,有效和准确的把前景目标从图像与视频中分割出来是后续对视频进行分析、理解的基础,因此对图像分割的研究是计算机视觉研究中的重要环节,具有深远的意义。
前景分割的方法有很多种,常用的算法有:(1)、帧间差分法,将固定间隔的视频帧进行比较,适合动态变化的环境,但是由于会产生大面积的空洞,提取目标的完整性较差;(2)、背景差分法,通过当前视频帧和背景帧进行差分运算实现对运动目标检测,该方法可以较好完整的提取目标,但是缺陷在于受光照和背景的变化影响较大;(3)、光流法,计算复杂,很难满足运动检测的实时性。
目前,前景分割技术正广泛应用于视频监控、遥感技术、医学诊断和治疗、水下传感、交通监管系统等,越来越多受到其他领域的高度重视,对运动目标分割进行研究,无论在理论还是实际应用中都具有极其重要的研究意义。
发明内容
为了解决上述技术问题,本发明的目的是:提供一种克服光照突变以及传统混合高斯模型中对长时间静止目标被更新为背景并消失问题的前景分割方法。
本发明所采用的技术方案是:一种克服光照突变的前景分割方法,包括有以下步骤:
S1、将采集到的视频的视频帧转换为灰度图,再经过中值滤波对灰度图进行降噪处理;
S2、采用混合高斯背景建模的模型对处理后的视频帧进行初始化;
S3、用当前帧与前一帧图像做帧间差分处理,计算光强突变量,判断是否有光照突变现象,若有则执行步骤S4,若无则执行步骤S5;
S4、根据光强突变量对视频帧进行混合高斯背景建模处理,并得到更新的背景模型;
S5、用当前帧和背景模型进行差分运算,得到的差分图像进行联通域标记;
S6、计算每个联通域的外接矩形参数和中心坐标参数;
S7、判定连续若干帧,目标中心坐标移动的距离,若移动距离小于运动阈值则判定目标静止,并停止对该区域进行背景更新,若移动距离大于运动阈值则判定目标运动,继续对背景模型进行更新;
S8、根据背景模型提取出前景目标。
进一步,所述步骤S3具体为:
计算当前帧与前一帧图像做帧间所有对应像素点位置的灰度值差值,并计算所有像素点位置的灰度值差值的平均值作为光强突变量,判断光强突变量是否大于设定阈值,若是则有光照突变现象,执行步骤S4;若无则执行步骤S5。
进一步,所述光强突变量Aver为:
视频帧的图像表示为fk(x,y)(0≤x≤M-1,0≤y≤N-1),M为图像的宽度,N为图像的高度,fk(x,y)表示第k帧图像中像素点(x,y)的灰度值。
进一步,所述步骤S4具体包括有以下子步骤:
S401、对输入视频第一帧的每个像素点进行混合高斯建模:建立多个高斯分布函数,并初始化每个高斯分布函数中的均值、方差和权重;
S402、对于视频帧的像素点位置,根据其历史数据判断新像素点是否与背景模型匹配;
S403、当采集到新的视频时,对新的视频帧中的所有像素点与构造的混合高斯模型逐个按下式比较条件进行判断:
其中Xt为像素点的灰度值,μi,t-1为上一时刻混合高斯模型中第i个高斯分布函数的均值,Aver为光强突变量,σi,t-1为上一时刻混合高斯模型中第i个高斯分布函数的标准差,TH为噪声阈值;
若对应一个像素点有一个高斯分布函数满足所述比较条件,则该像素点与背景模型匹配,执行步骤S404对背景模型进行更新,否则执行步骤S405;
S404、更新与新的视频帧中的像素点匹配的高斯分布函数的权重,然后进行归一化处理,进而更新高斯分布函数的均值μt和方差
当|Aver|≥TH时:
μt=(1-β)μt-1+β(Xt-Aver)+Aver
当|Aver|<TH时,按下式进行更新:
μt=(1-β)μt-1+βXt
其中,β为学习因子;
S405、对于不匹配的像素点,按如下步骤更新背景参数:
若当前高斯分布函数的个数小于步骤S401建立的高斯分布函数个数时,增加一个新的高斯分布函数:均值为对应像素点的像素值,方差小于第一方差阈值,权重大于第一权重阈值;
若当前高斯分布函数的个数等于步骤S401建立的高斯分布函数个数时,用新的高斯分布函数代替优先级最小的高斯分布,以Xt作为均值,方差大于第二方差阈值,权重小于第二权重阈值;所述高斯分布函数按照优先级值为权重与方差的比值;
S406、取前B个高斯分布作为背景分布,得到背景模型,B如下式所示:
其中,阈值T表示代表背景模型的高斯分布函数的权值的和在整体中所占的最小比例,b为实现所述最小比例的高斯分布函数的数量。
进一步,所述步骤S5中对差分图像进行联通域标记的具体步骤为:
S501、逐行扫描差分图像,把每一行中连续的白色像素组成一个序列称为一个团,并记下它的起点、终点以及它所在的行号;
S502、除了第一行外的所有行里的团,如果它与前一行中的所有团都没有重合区域,则给它一个新的标号;如果它仅与上一行中一个团有重合区域,则将上一行的那个团的标号赋给它;如果它与上一行的两个以上的团有重合区域,则给当前团赋一个相连团的最小标号,并将上一行的几个有重合区域的团的标记写入等价对;
S503、将等价对转换为等价序列,从1开始给每个等价序列一个标号;
S504、遍历团的标号,根据等价序列给予团新的标号;
S505、将每个团的标号填入差分图像中。
进一步,所述步骤S6具体包括有以下子步骤:
S601、计算联通域的面积和联通域的最上、最下、最左、最右的点坐标;
S602、通过最左边坐标的横坐标确定矩形的左边线;通过最右边坐标的横坐标确定矩形的右边线;通过最上边坐标的纵坐标确定矩形的上边线;通过最下边坐标的纵坐标确定矩形的下边线;
S603、根据左边线、右边线、上边线和下边线得到联通域的外接矩形,进而计算外接矩形的中心坐标。
本发明的有益效果是:本发明方法在采用传统混合高斯背景建模方法的前提下,在模型中引入光照突变量对图像进行处理,对背景模型实时更新,解决了目标分割对光照和环境突变敏感的问题,也解决了传统混合高斯模型中对长时间静止目标被更新为背景并消失的问题,进一步提高了前景分割的准确率。
附图说明
图1为本发明方法的步骤流程图。
具体实施方式
下面结合附图对本发明的具体实施方式作进一步说明:
参照图1,一种克服光照突变的前景分割方法,包括有以下步骤:
S1、将采集到的视频的视频帧转换为灰度图,再经过中值滤波对灰度图进行降噪处理;
S2、采用混合高斯背景建模的模型对处理后的视频帧进行初始化;
S3、用当前帧与前一帧图像做帧间差分处理,计算光强突变量,判断是否有光照突变现象,若有则执行步骤S4,若无则执行步骤S5;
S4、根据光强突变量对视频帧进行混合高斯背景建模处理,并得到更新的背景模型;
S5、用当前帧和背景模型进行差分运算,得到的差分图像进行联通域标记;
S6、计算每个联通域的外接矩形参数和中心坐标参数;
S7、判定连续若干帧,目标中心坐标移动的距离,若移动距离小于运动阈值则判定目标静止,并停止对该区域进行背景更新,若移动距离大于运动阈值则判定目标运动,继续对背景模型进行更新;
S8、根据背景模型提取出前景目标。
进一步作为优选的实施方式,所述步骤S2中采用传统的混合高斯背景建模的模型:
S201、对输入视频第一帧的每个像素点建立K(3≤K≤5)个高斯分布,初始化第1个高斯分布函数的均值μ1,t为对应点的像素值,方差σ1,t赋予一个相对较大的初值,权重系数ω1,t设为1。剩下的K-1个高斯分布函数的均值μi,t、方差σi,t和权重ωi,t都初始化为0,i表示对应第i个高斯分布函数;
S202、对于某一像素点(x0,y0),它的历史记录{X1,X2,...,Xt}={I(x0,y0,i)|1≤i≤t},则当前可能观察到的像素值变化为:
其中,η(Xt,μi,t,∑i,t)为第i个高斯分布函数的概率密度,均值为μi,t,协方差矩阵为∑i,t,ωi,t为高斯分布函数对应的权重,每个高斯分布的均值为μi,t,方差为σi,t,协方差矩阵近似为I为单位矩阵;
S203、当采集到新的视频图像时,对图像中的所有像素点与对应像素点构造的高斯模型逐个按下式比较:
|Xt-μi,t-1|≤2.5σi,t-1
其中,Xt是每个像素点的灰度值,μi,t-1是t-1时刻混合高斯模型中第i个高斯分布的均值,σi,t-1为第i个高斯分布的标准差;若满足上式,则该像素点为背景像素并执行步骤S204,若不满足,则执行步骤S205;
S204、对匹配的分布进行参数更新:
ωi,t+1=(1-α)·ωi,t+α
μt=(1-β)μt-1+βXt
其中,α为学习速率,是一个0到1之间的常数,α值越大参数更新的越快。β为调整当前分布的学习因子,β=αη(Xt,μi,t,∑i,t),当前值匹配分布的程度越好,β越大,参数调整的越快,有时采用固定的值以减少计算量。
对于其他K-1个不匹配的分布,只改变权重,权重按如下规则更新:
ωi,t+1=(1-α)·ωi,t;
S205、若都不匹配,且当前分布的个数小于K时,增加一个新的高斯分布,均值为对应像素点的像素值,设置一个较小的方差和一个较大权重;若都不匹配,且当前分布的个数等于K时,用新的高斯分布代替优先级最小的高斯分布,以Xt作为均值,初始化一个较大方差和较小权重;
S206、将K个高斯分布按照优先级ρi,t=ωi,t/σ2 i,t排序,比值越大,表示具有较大权重和较小的方差,因此是排序越靠前的高斯分布,越适合描述背景;
S207、取前B个高斯分布作为背景分布,得到背景模型,B如下式所示:
其中,阈值T表示代表背景的分布的权值的和在整体中所占的最小比例,b是能达到这一比例的最佳的高斯分布函数的数量,即前b个最可能的分布,T的经验值可以取0.6。
进一步作为优选的实施方式,所述步骤S3具体为:
计算当前帧与前一帧图像做帧间所有对应像素点位置的灰度值差值,并计算所有像素点位置的灰度值差值的平均值作为光强突变量,判断光强突变量是否大于设定阈值,若是则有光照突变现象,执行步骤S4;若无则执行步骤S5。
进一步作为优选的实施方式,所述光强突变量Aver为:
视频帧的图像表示为fk(x,y)(0≤x≤M-1,0≤y≤N-1),M为图像的宽度,N为图像的高度,fk(x,y)表示第k帧图像中像素点(x,y)的灰度值。
光强未发生突变时,当fk(x,y)和fk-1(x,y)是背景像素时,因可能受到噪声的干扰,造成像素值变化,但Aver的值比较小,且由于目标区域在场景中所占的区域与整个场景相比较小;而光强发生突变时,相邻两帧对应像素的灰度值变化很大,因此可按下式判断光强是否发生突变:
其中,TH为阈值,可根据噪声实际情况通过实验数据来设置。当光强变化不大时,按照正常的背景建模和运动目标检测方法获取场景的背景和检测运动目标;当光强变化较大时,需要重新对背景模型进行初始化,对背景变化做出模型更新,提高运动目标检测的准确性。
进一步作为优选的实施方式,所述步骤S4具体包括有以下子步骤:
S401、对输入视频第一帧的每个像素点进行混合高斯建模:建立K(3≤K≤5)个高斯分布函数,并初始化每个高斯分布函数中的均值、方差和权重:初始化第1个高斯分布函数的均值μ1,t为对应点的像素值,方差σ1,t赋予一个相对较大的初值,权重系数ω1,t设为1。剩下的K-1个高斯分布函数的均值μi,t、方差σi,t和权重ωi,t都初始化为0,i表示对应第i个高斯分布函数;
S402、对于视频帧的像素点位置(x0,y0),根据其历史数据{X1,X2,...,Xt}={I(x0,y0,i)|1≤i≤t}判断新像素点是否与背景模型匹配;
S403、当采集到新的视频时,对新的视频帧中的所有像素点与构造的混合高斯模型逐个按下式比较条件进行判断:
其中Xt为像素点的灰度值,μi,t-1为上一时刻混合高斯模型中第i个高斯分布函数的均值,Aver为光强突变量,σi,t-1为上一时刻混合高斯模型中第i个高斯分布函数的标准差,TH为噪声阈值;
若对应一个像素点有一个高斯分布函数满足所述比较条件,则该像素点与背景模型匹配,执行步骤S404对背景模型进行更新,否则执行步骤S405;
S404、更新与新的视频帧中的像素点匹配的高斯分布函数的权重,更新方法如下式:
ωi,t=(1-α)ωi,t-1+α
其中,α为学习速率,是一个0到1之间的常数。然后对权重进行归一化处理:
进而更新高斯分布函数的均值μt和方差
当|Aver|≥TH时:
μt=(1-β)μt-1+β(Xt-Aver)+Aver
当|Aver|<TH时,按下式进行更新:
μt=(1-β)μt-1+βXt
其中,β为学习因子,β=αη(Xt,μi,t,∑i,t),用于调整当前的高斯分布函数的参数;β越大,参数调整得越快,有时采用固定的值以减少计算量。
S405、对于不匹配的像素点,按如下步骤更新背景参数:
若当前高斯分布函数的个数小于步骤S401建立的高斯分布函数个数时,增加一个新的高斯分布函数:其均值为对应像素点的像素值;方差小于第一方差阈值,采用一个较小的值;权重大于第一权重阈值,采用一个较大的值;
若当前高斯分布函数的个数等于步骤S401建立的高斯分布函数个数时,用新的高斯分布函数代替优先级最小的高斯分布:以Xt作为均值;方差大于第二方差阈值,采用一个较大的值;权重小于第二权重阈值采用一个较小的值;
所述高斯分布函数按照优先级值为权重与方差的比值,即将K个高斯分布按照优先级ρi,t=ωi,t/σ2 i,t排序,比值越大,表示具有较大权重和较小的方差,因此是排序越靠前的高斯分布,越适合描述背景。
S406、取前B个高斯分布作为背景分布,得到背景模型,B如下式所示:
其中,阈值T表示代表背景模型的高斯分布函数的权值的和在整体中所占的最小比例,b为实现所述最小比例的高斯分布函数的数量,T的经验值可以根据具体情况设置,通常取T=0.6。
进一步作为优选的实施方式,所述步骤S5中对差分图像进行联通域标记的具体步骤为:
S501、逐行扫描差分图像,把每一行中连续的白色像素组成一个序列称为一个团,并记下它的起点、终点以及它所在的行号;
S502、除了第一行外的所有行里的团,如果它与前一行中的所有团都没有重合区域,则给它一个新的标号;如果它仅与上一行中一个团有重合区域,则将上一行的那个团的标号赋给它;如果它与上一行的两个以上的团有重合区域,则给当前团赋一个相连团的最小标号,并将上一行的几个有重合区域的团的标记写入等价对,说明几个有重合区域的团属于一类;
S503、将等价对转换为等价序列,从1开始给每个等价序列一个标号;
S504、遍历团的标号,根据等价序列给予团新的标号;
S505、将每个团的标号填入差分图像中。
进一步作为优选的实施方式,所述步骤S6具体包括有以下子步骤:
S601、计算联通域的面积和联通域的最上、最下、最左、最右的点坐标;
S602、通过最左边坐标的横坐标确定矩形的左边线;通过最右边坐标的横坐标确定矩形的右边线;通过最上边坐标的纵坐标确定矩形的上边线;通过最下边坐标的纵坐标确定矩形的下边线;
S603、根据左边线、右边线、上边线和下边线得到联通域的外接矩形,进而计算外接矩形的中心坐标。
以上是对本发明的较佳实施进行了具体说明,但本发明创造并不限于所述实施例,熟悉本领域的技术人员在不违背本发明精神的前提下还可以作出种种的等同变换或替换,这些等同的变形或替换均包含在本申请权利要求所限定的范围内。
Claims (6)
1.一种克服光照突变的前景分割方法,其特征在于,包括有以下步骤:
S1、将采集到的视频的视频帧转换为灰度图,再经过中值滤波对灰度图进行降噪处理;
S2、采用混合高斯背景建模的模型对处理后的视频帧进行初始化;
S3、用当前帧与前一帧图像做帧间差分处理,计算光强突变量,判断是否有光照突变现象,若有则执行步骤S4,若无则执行步骤S5;
S4、根据光强突变量对视频帧进行混合高斯背景建模处理,并得到更新的背景模型;
S5、用当前帧和背景模型进行差分运算,得到的差分图像进行联通域标记;
S6、计算每个联通域的外接矩形参数和中心坐标参数;
S7、判定连续若干帧,目标中心坐标移动的距离,若移动距离小于运动阈值则判定目标静止,并停止对该区域进行背景更新,若移动距离大于运动阈值则判定目标运动,继续对背景模型进行更新;
S8、根据背景模型提取出前景目标。
2.根据权利要求1所述的一种克服光照突变的前景分割方法,其特征在于:所述步骤S3具体为:
计算当前帧与前一帧图像做帧间所有对应像素点位置的灰度值差值,并计算所有像素点位置的灰度值差值的平均值作为光强突变量,判断光强突变量是否大于设定阈值,若是则有光照突变现象,执行步骤S4;若无则执行步骤S5。
3.根据权利要求2所述的一种客服光照突变的前景分割方法,其特征在于:所述光强突变量Aver为:
视频帧的图像表示为fk(x,y)(0≤x≤M-1,0≤y≤N-1),M为图像的宽度,N为图像的高度,fk(x,y)表示第k帧图像中像素点(x,y)的灰度值。
4.根据权利要求1-3中任一权利要求所述的一种客服光照突变的前景分割方法,其特征在于:所述步骤S4具体包括有以下子步骤:
S401、对输入视频第一帧的每个像素点进行混合高斯建模:建立多个高斯分布函数,并初始化每个高斯分布函数中的均值、方差和权重;
S402、对于视频帧的像素点位置,根据其历史数据判断新像素点是否与背景模型匹配;
S403、当采集到新的视频时,对新的视频帧中的所有像素点与构造的混合高斯模型逐个按下式比较条件进行判断:
其中Xt为像素点的灰度值,μi,t-1为上一时刻混合高斯模型中第i个高斯分布函数的均值,Aver为光强突变量,σi,t-1为上一时刻混合高斯模型中第i个高斯分布函数的标准差,TH为噪声阈值;
若对应一个像素点有一个高斯分布函数满足所述比较条件,则该像素点与背景模型匹配,执行步骤S404对背景模型进行更新,否则执行步骤S405;
S404、更新与新的视频帧中的像素点匹配的高斯分布函数的权重,然后进行归一化处理,进而更新高斯分布函数的均值μt和方差当|Aver|≥TH时:
μt=(1-β)μt-1+β(Xt-Aver)+Aver
当|Aver|<TH时,按下式进行更新:
μt=(1-β)μt-1+βXt
其中,β为学习因子;
S405、对于不匹配的像素点,按如下步骤更新背景参数:
若当前高斯分布函数的个数小于步骤S401建立的高斯分布函数个数时,增加一个新的高斯分布函数:均值为对应像素点的像素值,方差小于第一方差阈值,权重大于第一权重阈值;
若当前高斯分布函数的个数等于步骤S401建立的高斯分布函数个数时,用新的高斯分布函数代替优先级最小的高斯分布,以Xt作为均值,方差大于第二方差阈值,权重小于第二权重阈值;所述高斯分布函数按照优先级值为权重与方差的比值;
S406、取前B个高斯分布作为背景分布,得到背景模型,B如下式所示:
其中,阈值T表示代表背景模型的高斯分布函数的权值的和在整体中所占的最小比例,b为实现所述最小比例的高斯分布函数的数量。
5.根据权利要求1所述的一种客服光照突变的前景分割方法,其特征在于:所述步骤S5中对差分图像进行联通域标记的具体步骤为:
S501、逐行扫描差分图像,把每一行中连续的白色像素组成一个序列称为一个团,并记下它的起点、终点以及它所在的行号;
S502、除了第一行外的所有行里的团,如果它与前一行中的所有团都没有重合区域,则给它一个新的标号;如果它仅与上一行中一个团有重合区域,则将上一行的那个团的标号赋给它;如果它与上一行的两个以上的团有重合区域,则给当前团赋一个相连团的最小标号,并将上一行的几个有重合区域的团的标记写入等价对;
S503、将等价对转换为等价序列,从1开始给每个等价序列一个标号;
S504、遍历团的标号,根据等价序列给予团新的标号;
S505、将每个团的标号填入差分图像中。
6.根据权利要求1所述的一种客服光照突变的前景分割方法,其特征在于:所述步骤S6具体包括有以下子步骤:
S601、计算联通域的面积和联通域的最上、最下、最左、最右的点坐标;
S602、通过最左边坐标的横坐标确定矩形的左边线;通过最右边坐标的横坐标确定矩形的右边线;通过最上边坐标的纵坐标确定矩形的上边线;通过最下边坐标的纵坐标确定矩形的下边线;
S603、根据左边线、右边线、上边线和下边线得到联通域的外接矩形,进而计算外接矩形的中心坐标。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711483680.7A CN108280842B (zh) | 2017-12-29 | 2017-12-29 | 一种克服光照突变的前景分割方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711483680.7A CN108280842B (zh) | 2017-12-29 | 2017-12-29 | 一种克服光照突变的前景分割方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108280842A true CN108280842A (zh) | 2018-07-13 |
CN108280842B CN108280842B (zh) | 2020-07-10 |
Family
ID=62802760
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201711483680.7A Active CN108280842B (zh) | 2017-12-29 | 2017-12-29 | 一种克服光照突变的前景分割方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108280842B (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109697725A (zh) * | 2018-12-03 | 2019-04-30 | 浙江大华技术股份有限公司 | 一种背景过滤方法、装置及计算机可读存储介质 |
CN110969642A (zh) * | 2019-12-19 | 2020-04-07 | 深圳云天励飞技术有限公司 | 视频过滤方法、装置、电子设备及存储介质 |
CN112348842A (zh) * | 2020-11-03 | 2021-02-09 | 中国航空工业集团公司北京长城航空测控技术研究所 | 一种从视频中自动快速获取场景背景的处理方法 |
US12100162B2 (en) | 2018-12-03 | 2024-09-24 | Zhejiang Dahua Technology Co., Ltd. | Method and system for obtaining and processing foreground image and background image |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101398689A (zh) * | 2008-10-30 | 2009-04-01 | 中控科技集团有限公司 | 实时颜色自动采集的机器人控制方法及机器人 |
CN105354791A (zh) * | 2015-08-21 | 2016-02-24 | 华南农业大学 | 一种改进的自适应混合高斯前景检测方法 |
CN106469311A (zh) * | 2015-08-19 | 2017-03-01 | 南京新索奇科技有限公司 | 目标检测方法及装置 |
-
2017
- 2017-12-29 CN CN201711483680.7A patent/CN108280842B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101398689A (zh) * | 2008-10-30 | 2009-04-01 | 中控科技集团有限公司 | 实时颜色自动采集的机器人控制方法及机器人 |
CN106469311A (zh) * | 2015-08-19 | 2017-03-01 | 南京新索奇科技有限公司 | 目标检测方法及装置 |
CN105354791A (zh) * | 2015-08-21 | 2016-02-24 | 华南农业大学 | 一种改进的自适应混合高斯前景检测方法 |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109697725A (zh) * | 2018-12-03 | 2019-04-30 | 浙江大华技术股份有限公司 | 一种背景过滤方法、装置及计算机可读存储介质 |
CN109697725B (zh) * | 2018-12-03 | 2020-10-02 | 浙江大华技术股份有限公司 | 一种背景过滤方法、装置及计算机可读存储介质 |
US12100162B2 (en) | 2018-12-03 | 2024-09-24 | Zhejiang Dahua Technology Co., Ltd. | Method and system for obtaining and processing foreground image and background image |
CN110969642A (zh) * | 2019-12-19 | 2020-04-07 | 深圳云天励飞技术有限公司 | 视频过滤方法、装置、电子设备及存储介质 |
CN110969642B (zh) * | 2019-12-19 | 2023-10-10 | 深圳云天励飞技术有限公司 | 视频过滤方法、装置、电子设备及存储介质 |
CN112348842A (zh) * | 2020-11-03 | 2021-02-09 | 中国航空工业集团公司北京长城航空测控技术研究所 | 一种从视频中自动快速获取场景背景的处理方法 |
Also Published As
Publication number | Publication date |
---|---|
CN108280842B (zh) | 2020-07-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109583425B (zh) | 一种基于深度学习的遥感图像船只集成识别方法 | |
CN108121991B (zh) | 一种基于边缘候选区域提取的深度学习舰船目标检测方法 | |
CN111626190A (zh) | 基于聚类分区进行刻度识别的水位监测方法 | |
CN111275696B (zh) | 一种医学图像处理的方法、图像处理的方法及装置 | |
WO2018032660A1 (zh) | 一种运动目标检测方法及系统 | |
CN111539273A (zh) | 一种交通视频背景建模方法及系统 | |
CN109934224B (zh) | 基于马尔科夫随机场和视觉对比机制的小目标检测方法 | |
CN112750106B (zh) | 一种基于非完备标记的深度学习的核染色细胞计数方法、计算机设备、存储介质 | |
CN104978567B (zh) | 基于场景分类的车辆检测方法 | |
CN112990077B (zh) | 基于联合学习与光流估计的面部动作单元识别方法及装置 | |
CN103093198B (zh) | 一种人群密度监测方法及装置 | |
CN105913456A (zh) | 基于区域分割的视频显著性检测方法 | |
CN104992223A (zh) | 基于深度学习的密集人数估计方法 | |
CN107564022A (zh) | 基于贝叶斯融合的视频显著性检测方法 | |
CN109919053A (zh) | 一种基于监控视频的深度学习车辆停车检测方法 | |
CN110032932B (zh) | 一种基于视频处理和决策树设定阈值的人体姿态识别方法 | |
CN110853064B (zh) | 一种基于最小模糊散度的图像协同分割方法 | |
CN113111878B (zh) | 一种复杂背景下的红外弱小目标检测方法 | |
CN108280842A (zh) | 一种克服光照突变的前景分割方法 | |
CN112446882A (zh) | 一种动态场景下基于深度学习的鲁棒视觉slam方法 | |
CN113822352B (zh) | 基于多特征融合的红外弱小目标检测方法 | |
CN109711389A (zh) | 一种基于Faster R-CNN和HMM的哺乳母猪姿态转换识别方法 | |
CN106991686A (zh) | 一种基于超像素光流场的水平集轮廓跟踪方法 | |
CN109215047B (zh) | 基于深海视频的运动目标检测方法和装置 | |
CN106570885A (zh) | 基于亮度和纹理融合阈值的背景建模方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |