CN102982519A - 一种视频图像的前景识别提取和拼接方法 - Google Patents

一种视频图像的前景识别提取和拼接方法 Download PDF

Info

Publication number
CN102982519A
CN102982519A CN2012104835612A CN201210483561A CN102982519A CN 102982519 A CN102982519 A CN 102982519A CN 2012104835612 A CN2012104835612 A CN 2012104835612A CN 201210483561 A CN201210483561 A CN 201210483561A CN 102982519 A CN102982519 A CN 102982519A
Authority
CN
China
Prior art keywords
gaussian distribution
value
image
pixel
gray
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN2012104835612A
Other languages
English (en)
Other versions
CN102982519B (zh
Inventor
杨庚
李百惠
徐劲松
王欣宇
斯闻豪
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing Dunhua Traffic Technology Co., Ltd.
Original Assignee
Nanjing Post and Telecommunication University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing Post and Telecommunication University filed Critical Nanjing Post and Telecommunication University
Priority to CN201210483561.2A priority Critical patent/CN102982519B/zh
Publication of CN102982519A publication Critical patent/CN102982519A/zh
Application granted granted Critical
Publication of CN102982519B publication Critical patent/CN102982519B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

本发明涉及一种视频图像的前景识别提取和拼接方法,该方法针对视频图像背景更新过程中目标与背景相互转化的动态不确定性,以及前景图像提取的准确与完整性,建立相应的模型和方法,对背景学习速率进行自适应控制,在粗提取前景图像之后,对破碎的前景进行拼接以及噪声去除,最终检测并分离出前景图像,并进行前景图像连通,构成整体前景图像,达到前景提取的正确性和有效性。属于计算机图像处理领域。

Description

一种视频图像的前景识别提取和拼接方法
技术领域
本发明涉及一种视频图像的前景识别提取和拼接方法,通过背景学习速率的自适应更新和破碎前景拼接,提高前景提取的正确性和有效性,构成视频图像的前景提取和拼接方法,属于计算机图像处理领域。
背景技术
前景提取是智能视频监控处理中信息提取的重要步骤,该步骤是后续目标识别、跟踪和行为分析完成的前提。对于固定摄像机拍摄的监控视频,通常使用背景减除法进行前景提取。但是由于视频图像背景更新过程中目标与背景相互转化的动态不确定性,影响了前景图像提取的准确性,具体体显在,一是易引入虚假目标做为前景,使前景识别不正确,影响后继的图像处理结果;二是容易造成前景提取的不完整,即本应识别为单一目标的前景被划分为多个目标。本发明提出的前景认识提取和拼接方法即用于解决以上两类问题。
发明内容
技术问题:本发明针对视频图像背景更新中目标与背景相互转化的动态不确定性,以及前景提取的不完整性,提出了一种视频图像的前景识别提取和拼接方法。
技术方案:本发明为了实现上述发明目的,采用如下技术方案:
步骤一:前景图像模型建立
设图像中的像素点(x0,y0)在t时刻的观察值Xt属于背景的概率为:
P ( X t ) = Σ i = 1 K ω i , t * η ( X t , μ i , t , Σ i , t )
其中,K为模型中的高斯分布个数;为t时刻第i个高斯分布的权值;μi,t为t时刻第i个高斯分布的均值;∑i,t为t时刻第i个高斯分布的协方差矩阵,其定义如下:
Σ i , t = σ i 2 I
Figure BDA00002454923300021
为第i个高斯分布的方差,I为i行i列的单位阵。
η为高斯分布的概率密度函数:
η ( X t , μ i , t , Σ i , t ) = 1 ( 2 π ) π 2 | Σ i , t | 1 2 * e - 1 2 ( X t - μ t , t ) T Σ - 1 ( X t - μ i , t )
本文发明取K=5。初始化时第1个高斯分布的权值设为1,均值为当前像素点的值Xt,方差设为12.5,匹配次数设为1;除第1个高斯分布之外的其他分布的权值、均值均设为0,方差设为12.5,匹配次数设为0.
步骤二:模型更新
对K个高斯分布按照优先级从高到低排列。每个新观测值Xt与K个高斯分布按下式进行匹配计算:
|Xti,t-1|<2.5σi
在匹配过程中,高斯分布的权值按下式进行更新:
ωi,t=(1-α)ωi,t-1+α(Mi,t)
α为学习速率,默认值为0.005;当新观察值与第i个高斯分布匹配时,Mi,t取值为1,若不匹配,则取0。对于匹配的高斯分布,其均值和方差按下式更新:
μi,t=(1-β)μi,t-1+βXt
&sigma; i , t 2 = ( 1 - &beta; ) &sigma; i , t - 1 2 + &beta; ( X t - &mu; i , t ) T ( X t - &mu; i , t )
β=aη(Xti,ti,t)
没有匹配的高斯分布维持不变。对于每个高斯分布设置一个计数值用来记录每帧中每个高斯分布的匹配次数,每匹配一次该计数值加1,本文将该计数值称为高斯分布匹配次数mi,t
α和β是模型更新过程中两个重要的参数。β为均值和方差的学习速率。
如果Xt与任何一个高斯分布都不匹配,则优先级最低的高斯分布将被一个新的高斯分布替换。该分布的权值设为K个高斯分布的匹配次数之和的倒数,均值设为Xt,方差设为900,匹配次数设为1.
将K个高斯分布按优先级由高到低排列,取前B个高斯分布生成背景,如下式:
X bg = &Sigma; i = 1 B &omega; i , t &mu; i , t
B = arg min b ( &Sigma; i = 1 b &omega; i > T )
其中,argmin()函数为求出满足
Figure BDA00002454923300033
的最小的b,并将b的值赋给B。T为背景选取阈值(0<T<1),其值为T=0.7。
步骤三:自适应学习速率更新
对于步骤二中取得的高斯分布匹配次数mi,t,本方法取优先级最高的高斯分布的匹配次数进行处理,称之为主匹配次数m1,t。将当前帧及其之前的每一帧更新得到的主匹配次数累加起来,得到历次m1,t的累计值summatch
同时,设定计数值nummatch记录得到summatch所需的累计次数。
主匹配次数的均值E和标准差S由下式计算:
E = sum match num match
S = ( m i , t - E ) 2
根据以下不同情况对背景学习速率α进行自适应更新:
1)当标准差S>4500时,当前帧的主匹配次数mi,t相对历史值有较大变动,此时暂不更新α的值,清空计数值nummatch和累计值summatch,将当前帧作为累计的起始帧,将均值E更改为当前帧的主分布匹配次数m1,t
2)当标准差S的取值范围为4500≥S>500,且当前主匹配次数mi,t大于均值E时,背景学习速率α更改为0.004;
3)当标准差S的取值范围为4500≥S>500,且当前主匹配次数mi,t小于等于均值E时,背景学习速率α更改为0.02.
4)当标准差S≤500时,背景学习速率α稳定在0.005;
步骤四:前景粗提取
1)将当前视频图像和构造出的背景图像化为灰度图像,计算方法为:
Gray=0.072169B+0.715160G+0.202671R
其中R、G、B分别表示每个像素红、绿、蓝值,Gray是转换后的灰度值。
2)将转化为灰度图像的当前视频图像和背景图像进行灰度平衡处理。首先统计灰度值为j对应的像素个数nj(j=0,1,2,…,255),则对应灰度值为j的直方图高为nj,记为H(j)=nj
计算直方图的面积,记为H’(x),即:
H &prime; ( x ) = &Integral; 0 x ( &zeta; ) d&zeta; , 其中x=0,1,2,……,255.
根据直方图的面积计算值,对得到的当前视频图像和背景图像的灰度图,重新计算像素值为H’(x),其中x=0,1,2,……,255。
3)将经过灰度平衡处理后的当前视频图像帧和背景图像帧中每个对应像素值相减,得到差值图像。
4)对差值图像的每个像素,统计灰度值为j对应的像素个数nj(j=0,1,2,…,255),再计算每个灰度级上的像素个数占该图像总像素个数的比例wj(j=0,1,2,…,255)。设分割阈值为ψ(ψ的取值范围为ψ=0,1,2,…,255),将灰度级j≤ψ的所有像素视为背景像素,灰度级j>ψ的所有像素视为前景像素。则背景像素个数占该图像总像素个数比例W0=w0+w1+w2+……+wψ,并计算平均灰度
U 0 = &Sigma; k = 0 &psi; k * w k W 0 .
计算前景像素个数占该图像总像素个数比例
W 1 = &Sigma; k = &psi; + 1 255 w k ,
并计算平均灰度:
U 1 = &Sigma; k = &psi; + 1 255 k * w k W 1 ,
则图像的总平均灰度为:
u=W0*U0+w1*U1
将分割阈值ψ从0到255依次遍历,求ψ值,使g取最大值:
g=W0*(U0-u)2+W1*(U1-u)2
利用上述求得的ψ进行差值图像二值化分割,将灰度级j≤ψ的所有像素视为背景像素,将像素值设置为0。而将灰度级j>ψ的所有像素视为前景像素,将像素值设置为255,从而得到粗提取的前景图像。
步骤五:前景图像列像素拼接与噪点去除
自左向右依次扫描二值化处理后的前景图像,若一列中两个前景像素点之间距离小于15像素时,将这两个像素点之间所有像素点的灰度值更改为255,即相当于对填充两个相邻像素点之间的缝隙,完成前景拼接;若一列中两个非前景像素点之间距离小于4像素时,将这个两个像素点之间的所有像素点的灰度值更改为0,即相当于去除面积较小的前景部分,完成噪点去除。
步骤六:前景图像团块检测
再次扫描二值化处理后的前景图像,将图像中每两列之间相连的团块连接起来,构成更大的团块,并计算该前景团块的面积、周长、外接矩形和外接矩形形心等相关参数,这些大的团块即构成了前景图像。
有益效果:本发明设计的一种基于混合高斯模型的前景提取和拼接方法,可有效抑制前景提取中虚假目标的产生和存留,以及拼接破碎前景,可应用于智能视频处理中的前景提取。其特点是前景提取正确率高,易于实现。
具体实施方式
步骤一:前景图像模型建立
设图像中的像素点(x0,y0)在t时刻的观察值Xt属于背景的概率为:
P ( X t ) = &Sigma; i = 1 K &omega; i , t * &eta; ( X t , &mu; i , t , &Sigma; i , t )
其中,K为模型中的高斯分布个数;
Figure BDA00002454923300052
为t时刻第i个高斯分布的权值;μi,t为t时刻第i个高斯分布的均值;∑i,t为t时刻第i个高斯分布的协方差矩阵,其定义如下:
&Sigma; i , t = &sigma; i 2 I
Figure BDA00002454923300054
为第i个高斯分布的方差,I为i行i列的单位阵。
η为高斯分布的概率密度函数:
&eta; ( X t , &mu; i , t , &Sigma; i , t ) = 1 ( 2 &pi; ) &pi; 2 | &Sigma; i , t | 1 2 * e - 1 2 ( X t - &mu; t , t ) T &Sigma; - 1 ( X t - &mu; i , t )
本文发明取K=5。初始化时第1个高斯分布的权值设为1,均值为当前像素点的值Xt,方差设为12.5,匹配次数设为1;除第1个高斯分布之外的其他分布的权值、均值均设为0,方差设为12.5,匹配次数设为0.
步骤二:模型更新
对K个高斯分布按照优先级
Figure BDA00002454923300062
从高到低排列。每个新观测值Xt与K个高斯分布按下式进行匹配计算:
|Xti,t-1|<2.5σi
在匹配过程中,高斯分布的权值按下式进行更新:
ωi,t=(1-α)ωi,t-1+α(Mi,t)
α为学习速率,默认值为0.005;当新观察值与第i个高斯分布匹配时,Mi,t取值为1,若不匹配,则取0。对于匹配的高斯分布,其均值和方差按下式更新:
μi,t=(1-β)μi,t-1+βXt
&sigma; i , t 2 = ( 1 - &beta; ) &sigma; i , t - 1 2 + &beta; ( X t - &mu; i , t ) T ( X t - &mu; i , t )
β=aη(Xti,ti,t)
没有匹配的高斯分布维持不变。对于每个高斯分布设置一个计数值用来记录每帧中每个高斯分布的匹配次数,每匹配一次该计数值加1,本文将该计数值称为高斯分布匹配次数mi,t
α和β是模型更新过程中两个重要的参数。β为均值和方差的学习速率。
如果Xt与任何一个高斯分布都不匹配,则优先级最低的高斯分布将被一个新的高斯分布替换。该分布的权值设为K个高斯分布的匹配次数之和的倒数,均值设为Xt,方差设为900,匹配次数设为1.
将K个高斯分布按优先级由高到低排列,取前B个高斯分布生成背景,如下式:
X bg = &Sigma; i = 1 B &omega; i , t &mu; i , t
B = arg min b ( &Sigma; i = 1 b &omega; i > T )
其中,argmin()函数为求出满足
Figure BDA00002454923300073
的最小的b,并将b的值赋给B。T为背景选取阈值(0<T<1),其值为T=0.7。
步骤三:自适应学习速率更新
对于步骤二中取得的高斯分布匹配次数mi,t,本方法取优先级最高的高斯分布的匹配次数进行处理,称之为主匹配次数m1,t。将当前帧及其之前的每一帧更新得到的主匹配次数累加起来,得到历次m1,t的累计值summatch
同时,设定计数值nummatch记录得到summatch所需的累计次数。
主匹配次数的均值E和标准差S由下式计算:
E = sum match num match
S = ( m i , t - E ) 2
根据以下不同情况对背景学习速率α进行自适应更新:
1)当标准差S>4500时,当前帧的主匹配次数mi,t相对历史值有较大变动,此时暂不更新α的值,清空计数值nummatch和累计值summatch,将当前帧作为累计的起始帧,将均值E更改为当前帧的主分布匹配次数m1,t
2)当标准差S的取值范围为4500≥S>500,且当前主匹配次数mi,t大于均值E时,背景学习速率α更改为0.004;
3)当标准差S的取值范围为4500≥S>500,且当前主匹配次数mi,t小于等于均值E时,背景学习速率α更改为0.02.
4)当标准差S≤500时,背景学习速率α稳定在0.005;
步骤四:前景粗提取
1)将当前视频图像和构造出的背景图像化为灰度图像,计算方法为:
Gray=0.072169B+0.715160G+0.202671R
其中R、G、B分别表示每个像素红、绿、蓝值,Gray是转换后的灰度值。
2)将转化为灰度图像的当前视频图像和背景图像进行灰度平衡处理。首先统计灰度值为j对应的像素个数nj(j=0,1,2,…,255),则对应灰度值为j的直方图高为nj,记为H(j)=nj
计算直方图的面积,记为H’(x),即:
H &prime; ( x ) = &Integral; 0 x ( &zeta; ) d&zeta; , 其中x=0,1,2,……,255.
根据直方图的面积计算值,对得到的当前视频图像和背景图像的灰度图,重新计算像素值为H’(x),其中x=0,1,2,……,255。
3)将经过灰度平衡处理后的当前视频图像帧和背景图像帧中每个对应像素值相减,得到差值图像。
4)对差值图像的每个像素,统计灰度值为j对应的像素个数nj(j=0,1,2,…,255),再计算每个灰度级上的像素个数占该图像总像素个数的比例wj(j=0,1,2,…,255)。设分割阈值为ψ(ψ的取值范围为ψ=0,1,2,…,255),将灰度级j≤ψ的所有像素视为背景像素,灰度级j>ψ的所有像素视为前景像素。则背景像素个数占该图像总像素个数比例W0=w0+w1+w2+……+wψ,并计算平均灰度
U 0 = &Sigma; k = 0 &psi; k * w k W 0 .
计算前景像素个数占该图像总像素个数比例
W 1 = &Sigma; k = &psi; + 1 255 w k ,
并计算平均灰度:
U 1 = &Sigma; k = &psi; + 1 255 k * w k W 1 ,
则图像的总平均灰度为:
u=W0*U0+W1*U1
将分割阈值ψ从0到255依次遍历,求ψ值,使g取最大值:
g=W0*(U0-u)2+W1*(U1-u)2
利用上述求得的ψ进行差值图像二值化分割,将灰度级j≤ψ的所有像素视为背景像素,将像素值设置为0。而将灰度级j>ψ的所有像素视为前景像素,将像素值设置为255,从而得到粗提取的前景图像。
步骤五:前景图像列像素拼接与噪点去除
自左向右依次扫描二值化处理后的前景图像,若一列中两个前景像素点之间距离小于15像素时,将这两个像素点之间所有像素点的灰度值更改为255,即相当于对填充两个相邻像素点之间的缝隙,完成前景拼接;若一列中两个非前景像素点之间距离小于4像素时,将这个两个像素点之间的所有像素点的灰度值更改为0,即相当于去除面积较小的前景部分,完成噪点去除。
步骤六:前景图像团块检测
再次扫描二值化处理后的前景图像,将图像中每两列之间相连的团块连接起来,构成更大的团块,并计算该前景团块的面积、周长、外接矩形和外接矩形形心等相关参数,这些大的团块即构成了前景图像。

Claims (1)

1.一种视频图像的前景识别提取和拼接方法,其特征在于该方法包括以下步骤:
步骤一:前景图像模型建立
设图像中的像素点(x0,y0)在t时刻的观察值Xt属于背景的概率为:
P ( X t ) = &Sigma; i = 1 K &omega; i , t * &eta; ( X t , &mu; i , t , &Sigma; i , t )
其中,K为模型中的高斯分布个数;
Figure FDA00002454923200012
为t时刻第i个高斯分布的权值;μi,t为t时刻第i个高斯分布的均值;∑i,t为t时刻第i个高斯分布的协方差矩阵,其定义如下:
&Sigma; i , t = &sigma; i 2 I
Figure FDA00002454923200014
为第i个高斯分布的方差,I为i行i列的单位阵;
η为高斯分布的概率密度函数:
&eta; ( X t , &mu; i , t , &Sigma; i , t ) = 1 ( 2 &pi; ) &pi; 2 | &Sigma; i , t | 1 2 * e - 1 2 ( X t - &mu; t , t ) T &Sigma; - 1 ( X t - &mu; i , t )
取K=5,初始化时第1个高斯分布的权值设为1,均值为当前像素点的值Xt,方差设为12.5,匹配次数设为1;除第1个高斯分布之外的其他分布的权值、均值均设为0,方差设为12.5,匹配次数设为0;
步骤二:模型更新
对K个高斯分布按照优先级
Figure FDA00002454923200016
从高到低排列,每个新观测值Xt与K个高斯分布按下式进行匹配计算:
|Xti,t-1|<2.5σi
在匹配过程中,高斯分布的权值按下式进行更新:
ωi,t=(1-α)ωi,t-1+α(Mi,t)
α为学习速率,默认值为0.005;当新观察值与第i个高斯分布匹配时,Mi,t取值为1,若不匹配,则取0;对于匹配的高斯分布,其均值和方差按下式更新:
μi,t=(1-β)μi,t-1+βXt
&sigma; i , t 2 = ( 1 - &beta; ) &sigma; i , t - 1 2 + &beta; ( X t - &mu; i , t ) T ( X t - &mu; i , t )
β=αη(Xti,ti,t)
没有匹配的高斯分布维持不变;对于每个高斯分布设置一个计数值用来记录每帧中每个高斯分布的匹配次数,每匹配一次该计数值加1,该计数值称为高斯分布匹配次数mi,t
α和β是模型更新过程中两个重要的参数,β为均值和方差的学习速率;
如果Xt与任何一个高斯分布都不匹配,则优先级最低的高斯分布将被一个新的高斯分布替换,该分布的权值设为K个高斯分布的匹配次数之和的倒数,均值设为Xt,方差设为900,匹配次数设为1;
将K个高斯分布按优先级由高到低排列,取前B个高斯分布生成背景,如下式:
X bg = &Sigma; i = 1 B &omega; i , t &mu; i , t
B = arg min b ( &Sigma; i = 1 b &omega; i > T )
其中,arg min()函数为求出满足
Figure FDA00002454923200024
的最小的b,并将b的值赋给B,T为背景选取阈值(0<T<1),其值为T=0.7,
步骤三:自适应学习速率更新
对于步骤二中取得的高斯分布匹配次数mi,t,取优先级最高的高斯分布的匹配次数进行处理,称之为主匹配次数m1,t,将当前帧及其之前的每一帧更新得到的主匹配次数累加起来,得到历次m1,t的累计值summatch
同时,设定计数值nummatch记录得到summatch所需的累计次数;
主匹配次数的均值E和标准差S由下式计算:
E = sum match num match
S = ( m i , t - E ) 2
根据以下不同情况对背景学习速率α进行自适应更新:
1)当标准差S>4500时,当前帧的主匹配次数mi,t相对历史值有较大变动,此时暂不更新α的值,清空计数值nummatch和累计值summatch,将当前帧作为累计的起始帧,将均值E更改为当前帧的主分布匹配次数m1,t
2)当标准差S的取值范围为4500≥S>500,且当前主匹配次数mi,t大于均值E时,背景学习速率α更改为0.004;
3)当标准差S的取值范围为4500≥S>500,且当前主匹配次数mi,t小于等于均值E时,背景学习速率α更改为0.02.
4)当标准差S≤500时,背景学习速率α稳定在0.005;
步骤四:前景粗提取
1)将当前视频图像和构造出的背景图像化为灰度图像,计算方法为:
Gray=0.072169B+0.715160G+0.202671R
其中R、G、B分别表示每个像素红、绿、蓝值,Gray是转换后的灰度值;
2)将转化为灰度图像的当前视频图像和背景图像进行灰度平衡处理,首先统计灰度值为j所对应的像素个数nj,j=0,1,2,…,255,则对应灰度值为j的直方图高为nj,记为H(j)=nj
计算直方图的面积,记为H’(x),即:
H &prime; ( x ) = &Integral; 0 x ( &zeta; ) d&zeta; ,
其中x=0,1,2,……,255.
根据直方图的面积计算值,对得到的当前视频图像和背景图像的灰度图,重新计算像素值为H’(x),x=0,1,2,……,255;
3)将经过灰度平衡处理后的当前视频图像帧和背景图像帧中每个对应像素值相减,得到差值图像;
4)对差值图像的每个像素,统计灰度值为j对应的像素个数nj,再计算每个灰度级上的像素个数占该图像总像素个数的比例wj,设分割阈值为ψ,其中ψ可取值范围为0,1,2,…,255。将灰度级j<ψ的所有像素视为背景像素,灰度级j>ψ的所有像素视为前景像素;则背景像素个数占该图像总像素个数比例W0=w0+w1+w2+……+wψ,并计算平均灰度
U 0 = &Sigma; k = 0 &psi; k * w k W 0 .
计算前景像素个数占该图像总像素个数比例
W 1 = &Sigma; k = &psi; + 1 255 w k ,
并计算平均灰度:
U 1 = &Sigma; k = &psi; + 1 255 k * w k W 1 ,
则图像的总平均灰度为:
u=W0*U0+W1*U1
将分割阈值ψ从0到255依次遍历,求ψ值,使g取最大值:
g=W0*(U0-u)2+W1*(U1-u)2
利用上述求得的ψ进行差值图像二值化分割,将灰度级j≤ψ的所有像素视为背景像素,将像素值设置为0。而将灰度级j>ψ的所有像素视为前景像素,将像素值设置为255,从而得到粗提取的前景图像;
步骤五:前景图像列像素拼接与噪点去除
自左向右依次扫描二值化处理后的前景图像,若一列中两个前景像素点之间距离小于15像素时,将这两个像素点之间所有像素点的灰度值更改为255,即相当于对填充两个相邻像素点之间的缝隙,完成前景拼接;若一列中两个非前景像素点之间距离小于4像素时,将这个两个像素点之间的所有像素点的灰度值更改为0,即相当于去除面积较小的前景部分,完成噪点去除;
步骤六:前景图像团块检测
再次扫描二值化处理后的前景图像,将图像中每两列之间相连的团块连接起来,构成更大的团块,并计算该前景团块的面积、周长、外接矩形和外接矩形形心等相关参数,这些大的团块即构成了前景图像。
CN201210483561.2A 2012-11-23 2012-11-23 一种视频图像的前景识别提取和拼接方法 Expired - Fee Related CN102982519B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201210483561.2A CN102982519B (zh) 2012-11-23 2012-11-23 一种视频图像的前景识别提取和拼接方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201210483561.2A CN102982519B (zh) 2012-11-23 2012-11-23 一种视频图像的前景识别提取和拼接方法

Publications (2)

Publication Number Publication Date
CN102982519A true CN102982519A (zh) 2013-03-20
CN102982519B CN102982519B (zh) 2015-04-01

Family

ID=47856466

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201210483561.2A Expired - Fee Related CN102982519B (zh) 2012-11-23 2012-11-23 一种视频图像的前景识别提取和拼接方法

Country Status (1)

Country Link
CN (1) CN102982519B (zh)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105354816A (zh) * 2015-09-24 2016-02-24 广州视源电子科技股份有限公司 一种电子元件定位方法及装置
CN103985114B (zh) * 2014-03-21 2016-08-24 南京大学 一种监控视频人物前景分割与分类的方法
CN106056573A (zh) * 2016-04-26 2016-10-26 武汉科技大学 一种活动轮廓模型中能量泛函的优化方法及其应用
CN106097293A (zh) * 2015-12-22 2016-11-09 中国计量学院 一种用于图像采集系统优化设计的图像可分割性评价方法
WO2017028029A1 (zh) * 2015-08-14 2017-02-23 富士通株式会社 背景模型的提取方法、装置以及图像处理设备
CN106709906A (zh) * 2016-12-08 2017-05-24 武汉大学 一种背景差分和前景探测的方法
CN106846356A (zh) * 2017-01-13 2017-06-13 广东万安科技股份有限公司 一种贝叶斯‑全概率联合估计模型的运动目标前景检测方法
CN107145861A (zh) * 2017-05-05 2017-09-08 中国科学院上海高等研究院 一种遗弃物自动检测方法
CN109509195A (zh) * 2018-12-12 2019-03-22 北京达佳互联信息技术有限公司 前景处理方法、装置、电子设备及存储介质
CN110751034A (zh) * 2019-09-16 2020-02-04 平安科技(深圳)有限公司 行人行为识别方法及终端设备
CN111275696A (zh) * 2020-02-10 2020-06-12 腾讯科技(深圳)有限公司 一种医学图像处理的方法、图像处理的方法及装置
CN112651993A (zh) * 2020-11-18 2021-04-13 合肥市卓迩无人机科技服务有限责任公司 多路4k准实时拼接视频的动目标分析识别算法
CN113009443A (zh) * 2021-02-22 2021-06-22 南京邮电大学 一种基于图连通密度的海面目标检测方法及其装置
CN115761152A (zh) * 2023-01-06 2023-03-07 深圳星坊科技有限公司 普通光源下图像处理及三维重建方法、装置和计算机设备

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080152236A1 (en) * 2006-12-22 2008-06-26 Canon Kabushiki Kaisha Image processing method and apparatus

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080152236A1 (en) * 2006-12-22 2008-06-26 Canon Kabushiki Kaisha Image processing method and apparatus

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
STAUFFER, CHRIS: "adaptive background mixture models for real-time tracking", 《COMPUTER VISION AND PATTERN RECOGNITION》 *

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103985114B (zh) * 2014-03-21 2016-08-24 南京大学 一种监控视频人物前景分割与分类的方法
WO2017028029A1 (zh) * 2015-08-14 2017-02-23 富士通株式会社 背景模型的提取方法、装置以及图像处理设备
CN105354816B (zh) * 2015-09-24 2017-12-19 广州视源电子科技股份有限公司 一种电子元件定位方法及装置
CN105354816A (zh) * 2015-09-24 2016-02-24 广州视源电子科技股份有限公司 一种电子元件定位方法及装置
CN106097293A (zh) * 2015-12-22 2016-11-09 中国计量学院 一种用于图像采集系统优化设计的图像可分割性评价方法
CN106097293B (zh) * 2015-12-22 2018-12-21 中国计量学院 一种用于图像采集系统优化设计的图像可分割性评价方法
CN106056573A (zh) * 2016-04-26 2016-10-26 武汉科技大学 一种活动轮廓模型中能量泛函的优化方法及其应用
CN106709906B (zh) * 2016-12-08 2019-07-23 武汉大学 一种背景差分和前景探测的方法
CN106709906A (zh) * 2016-12-08 2017-05-24 武汉大学 一种背景差分和前景探测的方法
CN106846356A (zh) * 2017-01-13 2017-06-13 广东万安科技股份有限公司 一种贝叶斯‑全概率联合估计模型的运动目标前景检测方法
CN107145861A (zh) * 2017-05-05 2017-09-08 中国科学院上海高等研究院 一种遗弃物自动检测方法
CN109509195A (zh) * 2018-12-12 2019-03-22 北京达佳互联信息技术有限公司 前景处理方法、装置、电子设备及存储介质
CN110751034A (zh) * 2019-09-16 2020-02-04 平安科技(深圳)有限公司 行人行为识别方法及终端设备
CN110751034B (zh) * 2019-09-16 2023-09-01 平安科技(深圳)有限公司 行人行为识别方法及终端设备
CN111275696A (zh) * 2020-02-10 2020-06-12 腾讯科技(深圳)有限公司 一种医学图像处理的方法、图像处理的方法及装置
CN111275696B (zh) * 2020-02-10 2023-09-15 腾讯医疗健康(深圳)有限公司 一种医学图像处理的方法、图像处理的方法及装置
CN112651993A (zh) * 2020-11-18 2021-04-13 合肥市卓迩无人机科技服务有限责任公司 多路4k准实时拼接视频的动目标分析识别算法
CN113009443A (zh) * 2021-02-22 2021-06-22 南京邮电大学 一种基于图连通密度的海面目标检测方法及其装置
CN113009443B (zh) * 2021-02-22 2023-09-12 南京邮电大学 一种基于图连通密度的海面目标检测方法及其装置
CN115761152A (zh) * 2023-01-06 2023-03-07 深圳星坊科技有限公司 普通光源下图像处理及三维重建方法、装置和计算机设备

Also Published As

Publication number Publication date
CN102982519B (zh) 2015-04-01

Similar Documents

Publication Publication Date Title
CN102982519B (zh) 一种视频图像的前景识别提取和拼接方法
CN108256562B (zh) 基于弱监督时空级联神经网络的显著目标检测方法及系统
CN112528878B (zh) 检测车道线的方法、装置、终端设备及可读存储介质
US11830230B2 (en) Living body detection method based on facial recognition, and electronic device and storage medium
CN109272509B (zh) 一种连续图像的目标检测方法、装置、设备及存储介质
CN108268867B (zh) 一种车牌定位方法及装置
US9292759B2 (en) Methods and systems for optimized parameter selection in automated license plate recognition
CN112257502A (zh) 一种监控视频行人识别与跟踪方法、装置及存储介质
CN101729911B (zh) 一种基于视觉感知的多视点图像颜色校正方法
CN111784747B (zh) 一种基于关键点检测和校正的车辆多目标跟踪系统及方法
CN110188829B (zh) 神经网络的训练方法、目标识别的方法及相关产品
CN102663405B (zh) 基于显著度和混合高斯模型的监控视频前景提取方法
CN110827312B (zh) 一种基于协同视觉注意力神经网络的学习方法
CN111783505A (zh) 伪造人脸的识别方法、装置和计算机可读存储介质
CN111860496A (zh) 车牌识别方法、装置、设备及计算机可读存储介质
CN109271957B (zh) 人脸性别识别方法以及装置
CN112926379A (zh) 一种构建人脸识别模型的方法及装置
CN112884147A (zh) 神经网络训练方法、图像处理方法、装置及电子设备
CN104156979A (zh) 一种基于高斯混合模型的视频中异常行为在线检测方法
CN116311214A (zh) 车牌识别方法和装置
CN114495025A (zh) 一种车辆识别方法、装置、电子设备及存储介质
CN108009480A (zh) 一种基于特征识别的图像人体行为检测方法
CN112614109A (zh) 图像质量评估方法、装置以及计算机可读存储介质
CN105335717A (zh) 基于智能移动终端视频抖动分析的人脸识别系统
CN112990225B (zh) 一种复杂环境下的图像目标识别方法及装置

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
C41 Transfer of patent application or patent right or utility model
TR01 Transfer of patent right

Effective date of registration: 20160204

Address after: 210046 Jiangsu city of Nanjing Province Economic and Technological Development Zone Xing Chi road Xingzhi Science Park building B room 0910

Patentee after: Nanjing Dunhua Traffic Technology Co., Ltd.

Address before: 210003 Nanjing City, Jiangsu Province, the new model road No. 66

Patentee before: Nanjing Post & Telecommunication Univ.

CF01 Termination of patent right due to non-payment of annual fee
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20150401

Termination date: 20201123