CN102982519A - 一种视频图像的前景识别提取和拼接方法 - Google Patents
一种视频图像的前景识别提取和拼接方法 Download PDFInfo
- Publication number
- CN102982519A CN102982519A CN2012104835612A CN201210483561A CN102982519A CN 102982519 A CN102982519 A CN 102982519A CN 2012104835612 A CN2012104835612 A CN 2012104835612A CN 201210483561 A CN201210483561 A CN 201210483561A CN 102982519 A CN102982519 A CN 102982519A
- Authority
- CN
- China
- Prior art keywords
- gaussian distribution
- value
- image
- pixel
- gray
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Abstract
本发明涉及一种视频图像的前景识别提取和拼接方法,该方法针对视频图像背景更新过程中目标与背景相互转化的动态不确定性,以及前景图像提取的准确与完整性,建立相应的模型和方法,对背景学习速率进行自适应控制,在粗提取前景图像之后,对破碎的前景进行拼接以及噪声去除,最终检测并分离出前景图像,并进行前景图像连通,构成整体前景图像,达到前景提取的正确性和有效性。属于计算机图像处理领域。
Description
技术领域
本发明涉及一种视频图像的前景识别提取和拼接方法,通过背景学习速率的自适应更新和破碎前景拼接,提高前景提取的正确性和有效性,构成视频图像的前景提取和拼接方法,属于计算机图像处理领域。
背景技术
前景提取是智能视频监控处理中信息提取的重要步骤,该步骤是后续目标识别、跟踪和行为分析完成的前提。对于固定摄像机拍摄的监控视频,通常使用背景减除法进行前景提取。但是由于视频图像背景更新过程中目标与背景相互转化的动态不确定性,影响了前景图像提取的准确性,具体体显在,一是易引入虚假目标做为前景,使前景识别不正确,影响后继的图像处理结果;二是容易造成前景提取的不完整,即本应识别为单一目标的前景被划分为多个目标。本发明提出的前景认识提取和拼接方法即用于解决以上两类问题。
发明内容
技术问题:本发明针对视频图像背景更新中目标与背景相互转化的动态不确定性,以及前景提取的不完整性,提出了一种视频图像的前景识别提取和拼接方法。
技术方案:本发明为了实现上述发明目的,采用如下技术方案:
步骤一:前景图像模型建立
设图像中的像素点(x0,y0)在t时刻的观察值Xt属于背景的概率为:
其中,K为模型中的高斯分布个数;为t时刻第i个高斯分布的权值;μi,t为t时刻第i个高斯分布的均值;∑i,t为t时刻第i个高斯分布的协方差矩阵,其定义如下:
η为高斯分布的概率密度函数:
本文发明取K=5。初始化时第1个高斯分布的权值设为1,均值为当前像素点的值Xt,方差设为12.5,匹配次数设为1;除第1个高斯分布之外的其他分布的权值、均值均设为0,方差设为12.5,匹配次数设为0.
步骤二:模型更新
对K个高斯分布按照优先级从高到低排列。每个新观测值Xt与K个高斯分布按下式进行匹配计算:
|Xt-μi,t-1|<2.5σi
在匹配过程中,高斯分布的权值按下式进行更新:
ωi,t=(1-α)ωi,t-1+α(Mi,t)
α为学习速率,默认值为0.005;当新观察值与第i个高斯分布匹配时,Mi,t取值为1,若不匹配,则取0。对于匹配的高斯分布,其均值和方差按下式更新:
μi,t=(1-β)μi,t-1+βXt
β=aη(Xt|μi,t,σi,t)
没有匹配的高斯分布维持不变。对于每个高斯分布设置一个计数值用来记录每帧中每个高斯分布的匹配次数,每匹配一次该计数值加1,本文将该计数值称为高斯分布匹配次数mi,t。
α和β是模型更新过程中两个重要的参数。β为均值和方差的学习速率。
如果Xt与任何一个高斯分布都不匹配,则优先级最低的高斯分布将被一个新的高斯分布替换。该分布的权值设为K个高斯分布的匹配次数之和的倒数,均值设为Xt,方差设为900,匹配次数设为1.
将K个高斯分布按优先级由高到低排列,取前B个高斯分布生成背景,如下式:
步骤三:自适应学习速率更新
对于步骤二中取得的高斯分布匹配次数mi,t,本方法取优先级最高的高斯分布的匹配次数进行处理,称之为主匹配次数m1,t。将当前帧及其之前的每一帧更新得到的主匹配次数累加起来,得到历次m1,t的累计值summatch。
同时,设定计数值nummatch记录得到summatch所需的累计次数。
主匹配次数的均值E和标准差S由下式计算:
根据以下不同情况对背景学习速率α进行自适应更新:
1)当标准差S>4500时,当前帧的主匹配次数mi,t相对历史值有较大变动,此时暂不更新α的值,清空计数值nummatch和累计值summatch,将当前帧作为累计的起始帧,将均值E更改为当前帧的主分布匹配次数m1,t;
2)当标准差S的取值范围为4500≥S>500,且当前主匹配次数mi,t大于均值E时,背景学习速率α更改为0.004;
3)当标准差S的取值范围为4500≥S>500,且当前主匹配次数mi,t小于等于均值E时,背景学习速率α更改为0.02.
4)当标准差S≤500时,背景学习速率α稳定在0.005;
步骤四:前景粗提取
1)将当前视频图像和构造出的背景图像化为灰度图像,计算方法为:
Gray=0.072169B+0.715160G+0.202671R
其中R、G、B分别表示每个像素红、绿、蓝值,Gray是转换后的灰度值。
2)将转化为灰度图像的当前视频图像和背景图像进行灰度平衡处理。首先统计灰度值为j对应的像素个数nj(j=0,1,2,…,255),则对应灰度值为j的直方图高为nj,记为H(j)=nj。
计算直方图的面积,记为H’(x),即:
根据直方图的面积计算值,对得到的当前视频图像和背景图像的灰度图,重新计算像素值为H’(x),其中x=0,1,2,……,255。
3)将经过灰度平衡处理后的当前视频图像帧和背景图像帧中每个对应像素值相减,得到差值图像。
4)对差值图像的每个像素,统计灰度值为j对应的像素个数nj(j=0,1,2,…,255),再计算每个灰度级上的像素个数占该图像总像素个数的比例wj(j=0,1,2,…,255)。设分割阈值为ψ(ψ的取值范围为ψ=0,1,2,…,255),将灰度级j≤ψ的所有像素视为背景像素,灰度级j>ψ的所有像素视为前景像素。则背景像素个数占该图像总像素个数比例W0=w0+w1+w2+……+wψ,并计算平均灰度
计算前景像素个数占该图像总像素个数比例
并计算平均灰度:
则图像的总平均灰度为:
u=W0*U0+w1*U1。
将分割阈值ψ从0到255依次遍历,求ψ值,使g取最大值:
g=W0*(U0-u)2+W1*(U1-u)2
利用上述求得的ψ进行差值图像二值化分割,将灰度级j≤ψ的所有像素视为背景像素,将像素值设置为0。而将灰度级j>ψ的所有像素视为前景像素,将像素值设置为255,从而得到粗提取的前景图像。
步骤五:前景图像列像素拼接与噪点去除
自左向右依次扫描二值化处理后的前景图像,若一列中两个前景像素点之间距离小于15像素时,将这两个像素点之间所有像素点的灰度值更改为255,即相当于对填充两个相邻像素点之间的缝隙,完成前景拼接;若一列中两个非前景像素点之间距离小于4像素时,将这个两个像素点之间的所有像素点的灰度值更改为0,即相当于去除面积较小的前景部分,完成噪点去除。
步骤六:前景图像团块检测
再次扫描二值化处理后的前景图像,将图像中每两列之间相连的团块连接起来,构成更大的团块,并计算该前景团块的面积、周长、外接矩形和外接矩形形心等相关参数,这些大的团块即构成了前景图像。
有益效果:本发明设计的一种基于混合高斯模型的前景提取和拼接方法,可有效抑制前景提取中虚假目标的产生和存留,以及拼接破碎前景,可应用于智能视频处理中的前景提取。其特点是前景提取正确率高,易于实现。
具体实施方式
步骤一:前景图像模型建立
设图像中的像素点(x0,y0)在t时刻的观察值Xt属于背景的概率为:
η为高斯分布的概率密度函数:
本文发明取K=5。初始化时第1个高斯分布的权值设为1,均值为当前像素点的值Xt,方差设为12.5,匹配次数设为1;除第1个高斯分布之外的其他分布的权值、均值均设为0,方差设为12.5,匹配次数设为0.
步骤二:模型更新
|Xt-μi,t-1|<2.5σi
在匹配过程中,高斯分布的权值按下式进行更新:
ωi,t=(1-α)ωi,t-1+α(Mi,t)
α为学习速率,默认值为0.005;当新观察值与第i个高斯分布匹配时,Mi,t取值为1,若不匹配,则取0。对于匹配的高斯分布,其均值和方差按下式更新:
μi,t=(1-β)μi,t-1+βXt
β=aη(Xt|μi,t,σi,t)
没有匹配的高斯分布维持不变。对于每个高斯分布设置一个计数值用来记录每帧中每个高斯分布的匹配次数,每匹配一次该计数值加1,本文将该计数值称为高斯分布匹配次数mi,t。
α和β是模型更新过程中两个重要的参数。β为均值和方差的学习速率。
如果Xt与任何一个高斯分布都不匹配,则优先级最低的高斯分布将被一个新的高斯分布替换。该分布的权值设为K个高斯分布的匹配次数之和的倒数,均值设为Xt,方差设为900,匹配次数设为1.
将K个高斯分布按优先级由高到低排列,取前B个高斯分布生成背景,如下式:
步骤三:自适应学习速率更新
对于步骤二中取得的高斯分布匹配次数mi,t,本方法取优先级最高的高斯分布的匹配次数进行处理,称之为主匹配次数m1,t。将当前帧及其之前的每一帧更新得到的主匹配次数累加起来,得到历次m1,t的累计值summatch。
同时,设定计数值nummatch记录得到summatch所需的累计次数。
主匹配次数的均值E和标准差S由下式计算:
根据以下不同情况对背景学习速率α进行自适应更新:
1)当标准差S>4500时,当前帧的主匹配次数mi,t相对历史值有较大变动,此时暂不更新α的值,清空计数值nummatch和累计值summatch,将当前帧作为累计的起始帧,将均值E更改为当前帧的主分布匹配次数m1,t;
2)当标准差S的取值范围为4500≥S>500,且当前主匹配次数mi,t大于均值E时,背景学习速率α更改为0.004;
3)当标准差S的取值范围为4500≥S>500,且当前主匹配次数mi,t小于等于均值E时,背景学习速率α更改为0.02.
4)当标准差S≤500时,背景学习速率α稳定在0.005;
步骤四:前景粗提取
1)将当前视频图像和构造出的背景图像化为灰度图像,计算方法为:
Gray=0.072169B+0.715160G+0.202671R
其中R、G、B分别表示每个像素红、绿、蓝值,Gray是转换后的灰度值。
2)将转化为灰度图像的当前视频图像和背景图像进行灰度平衡处理。首先统计灰度值为j对应的像素个数nj(j=0,1,2,…,255),则对应灰度值为j的直方图高为nj,记为H(j)=nj。
计算直方图的面积,记为H’(x),即:
根据直方图的面积计算值,对得到的当前视频图像和背景图像的灰度图,重新计算像素值为H’(x),其中x=0,1,2,……,255。
3)将经过灰度平衡处理后的当前视频图像帧和背景图像帧中每个对应像素值相减,得到差值图像。
4)对差值图像的每个像素,统计灰度值为j对应的像素个数nj(j=0,1,2,…,255),再计算每个灰度级上的像素个数占该图像总像素个数的比例wj(j=0,1,2,…,255)。设分割阈值为ψ(ψ的取值范围为ψ=0,1,2,…,255),将灰度级j≤ψ的所有像素视为背景像素,灰度级j>ψ的所有像素视为前景像素。则背景像素个数占该图像总像素个数比例W0=w0+w1+w2+……+wψ,并计算平均灰度
计算前景像素个数占该图像总像素个数比例
并计算平均灰度:
则图像的总平均灰度为:
u=W0*U0+W1*U1。
将分割阈值ψ从0到255依次遍历,求ψ值,使g取最大值:
g=W0*(U0-u)2+W1*(U1-u)2
利用上述求得的ψ进行差值图像二值化分割,将灰度级j≤ψ的所有像素视为背景像素,将像素值设置为0。而将灰度级j>ψ的所有像素视为前景像素,将像素值设置为255,从而得到粗提取的前景图像。
步骤五:前景图像列像素拼接与噪点去除
自左向右依次扫描二值化处理后的前景图像,若一列中两个前景像素点之间距离小于15像素时,将这两个像素点之间所有像素点的灰度值更改为255,即相当于对填充两个相邻像素点之间的缝隙,完成前景拼接;若一列中两个非前景像素点之间距离小于4像素时,将这个两个像素点之间的所有像素点的灰度值更改为0,即相当于去除面积较小的前景部分,完成噪点去除。
步骤六:前景图像团块检测
再次扫描二值化处理后的前景图像,将图像中每两列之间相连的团块连接起来,构成更大的团块,并计算该前景团块的面积、周长、外接矩形和外接矩形形心等相关参数,这些大的团块即构成了前景图像。
Claims (1)
1.一种视频图像的前景识别提取和拼接方法,其特征在于该方法包括以下步骤:
步骤一:前景图像模型建立
设图像中的像素点(x0,y0)在t时刻的观察值Xt属于背景的概率为:
η为高斯分布的概率密度函数:
取K=5,初始化时第1个高斯分布的权值设为1,均值为当前像素点的值Xt,方差设为12.5,匹配次数设为1;除第1个高斯分布之外的其他分布的权值、均值均设为0,方差设为12.5,匹配次数设为0;
步骤二:模型更新
|Xt-μi,t-1|<2.5σi
在匹配过程中,高斯分布的权值按下式进行更新:
ωi,t=(1-α)ωi,t-1+α(Mi,t)
α为学习速率,默认值为0.005;当新观察值与第i个高斯分布匹配时,Mi,t取值为1,若不匹配,则取0;对于匹配的高斯分布,其均值和方差按下式更新:
μi,t=(1-β)μi,t-1+βXt
β=αη(Xt|μi,t,σi,t)
没有匹配的高斯分布维持不变;对于每个高斯分布设置一个计数值用来记录每帧中每个高斯分布的匹配次数,每匹配一次该计数值加1,该计数值称为高斯分布匹配次数mi,t;
α和β是模型更新过程中两个重要的参数,β为均值和方差的学习速率;
如果Xt与任何一个高斯分布都不匹配,则优先级最低的高斯分布将被一个新的高斯分布替换,该分布的权值设为K个高斯分布的匹配次数之和的倒数,均值设为Xt,方差设为900,匹配次数设为1;
将K个高斯分布按优先级由高到低排列,取前B个高斯分布生成背景,如下式:
步骤三:自适应学习速率更新
对于步骤二中取得的高斯分布匹配次数mi,t,取优先级最高的高斯分布的匹配次数进行处理,称之为主匹配次数m1,t,将当前帧及其之前的每一帧更新得到的主匹配次数累加起来,得到历次m1,t的累计值summatch;
同时,设定计数值nummatch记录得到summatch所需的累计次数;
主匹配次数的均值E和标准差S由下式计算:
根据以下不同情况对背景学习速率α进行自适应更新:
1)当标准差S>4500时,当前帧的主匹配次数mi,t相对历史值有较大变动,此时暂不更新α的值,清空计数值nummatch和累计值summatch,将当前帧作为累计的起始帧,将均值E更改为当前帧的主分布匹配次数m1,t;
2)当标准差S的取值范围为4500≥S>500,且当前主匹配次数mi,t大于均值E时,背景学习速率α更改为0.004;
3)当标准差S的取值范围为4500≥S>500,且当前主匹配次数mi,t小于等于均值E时,背景学习速率α更改为0.02.
4)当标准差S≤500时,背景学习速率α稳定在0.005;
步骤四:前景粗提取
1)将当前视频图像和构造出的背景图像化为灰度图像,计算方法为:
Gray=0.072169B+0.715160G+0.202671R
其中R、G、B分别表示每个像素红、绿、蓝值,Gray是转换后的灰度值;
2)将转化为灰度图像的当前视频图像和背景图像进行灰度平衡处理,首先统计灰度值为j所对应的像素个数nj,j=0,1,2,…,255,则对应灰度值为j的直方图高为nj,记为H(j)=nj;
计算直方图的面积,记为H’(x),即:
其中x=0,1,2,……,255.
根据直方图的面积计算值,对得到的当前视频图像和背景图像的灰度图,重新计算像素值为H’(x),x=0,1,2,……,255;
3)将经过灰度平衡处理后的当前视频图像帧和背景图像帧中每个对应像素值相减,得到差值图像;
4)对差值图像的每个像素,统计灰度值为j对应的像素个数nj,再计算每个灰度级上的像素个数占该图像总像素个数的比例wj,设分割阈值为ψ,其中ψ可取值范围为0,1,2,…,255。将灰度级j<ψ的所有像素视为背景像素,灰度级j>ψ的所有像素视为前景像素;则背景像素个数占该图像总像素个数比例W0=w0+w1+w2+……+wψ,并计算平均灰度
计算前景像素个数占该图像总像素个数比例
并计算平均灰度:
则图像的总平均灰度为:
u=W0*U0+W1*U1
将分割阈值ψ从0到255依次遍历,求ψ值,使g取最大值:
g=W0*(U0-u)2+W1*(U1-u)2
利用上述求得的ψ进行差值图像二值化分割,将灰度级j≤ψ的所有像素视为背景像素,将像素值设置为0。而将灰度级j>ψ的所有像素视为前景像素,将像素值设置为255,从而得到粗提取的前景图像;
步骤五:前景图像列像素拼接与噪点去除
自左向右依次扫描二值化处理后的前景图像,若一列中两个前景像素点之间距离小于15像素时,将这两个像素点之间所有像素点的灰度值更改为255,即相当于对填充两个相邻像素点之间的缝隙,完成前景拼接;若一列中两个非前景像素点之间距离小于4像素时,将这个两个像素点之间的所有像素点的灰度值更改为0,即相当于去除面积较小的前景部分,完成噪点去除;
步骤六:前景图像团块检测
再次扫描二值化处理后的前景图像,将图像中每两列之间相连的团块连接起来,构成更大的团块,并计算该前景团块的面积、周长、外接矩形和外接矩形形心等相关参数,这些大的团块即构成了前景图像。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201210483561.2A CN102982519B (zh) | 2012-11-23 | 2012-11-23 | 一种视频图像的前景识别提取和拼接方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201210483561.2A CN102982519B (zh) | 2012-11-23 | 2012-11-23 | 一种视频图像的前景识别提取和拼接方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN102982519A true CN102982519A (zh) | 2013-03-20 |
CN102982519B CN102982519B (zh) | 2015-04-01 |
Family
ID=47856466
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201210483561.2A Expired - Fee Related CN102982519B (zh) | 2012-11-23 | 2012-11-23 | 一种视频图像的前景识别提取和拼接方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN102982519B (zh) |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105354816A (zh) * | 2015-09-24 | 2016-02-24 | 广州视源电子科技股份有限公司 | 一种电子元件定位方法及装置 |
CN103985114B (zh) * | 2014-03-21 | 2016-08-24 | 南京大学 | 一种监控视频人物前景分割与分类的方法 |
CN106056573A (zh) * | 2016-04-26 | 2016-10-26 | 武汉科技大学 | 一种活动轮廓模型中能量泛函的优化方法及其应用 |
CN106097293A (zh) * | 2015-12-22 | 2016-11-09 | 中国计量学院 | 一种用于图像采集系统优化设计的图像可分割性评价方法 |
WO2017028029A1 (zh) * | 2015-08-14 | 2017-02-23 | 富士通株式会社 | 背景模型的提取方法、装置以及图像处理设备 |
CN106709906A (zh) * | 2016-12-08 | 2017-05-24 | 武汉大学 | 一种背景差分和前景探测的方法 |
CN106846356A (zh) * | 2017-01-13 | 2017-06-13 | 广东万安科技股份有限公司 | 一种贝叶斯‑全概率联合估计模型的运动目标前景检测方法 |
CN107145861A (zh) * | 2017-05-05 | 2017-09-08 | 中国科学院上海高等研究院 | 一种遗弃物自动检测方法 |
CN109509195A (zh) * | 2018-12-12 | 2019-03-22 | 北京达佳互联信息技术有限公司 | 前景处理方法、装置、电子设备及存储介质 |
CN110751034A (zh) * | 2019-09-16 | 2020-02-04 | 平安科技(深圳)有限公司 | 行人行为识别方法及终端设备 |
CN111275696A (zh) * | 2020-02-10 | 2020-06-12 | 腾讯科技(深圳)有限公司 | 一种医学图像处理的方法、图像处理的方法及装置 |
CN112651993A (zh) * | 2020-11-18 | 2021-04-13 | 合肥市卓迩无人机科技服务有限责任公司 | 多路4k准实时拼接视频的动目标分析识别算法 |
CN113009443A (zh) * | 2021-02-22 | 2021-06-22 | 南京邮电大学 | 一种基于图连通密度的海面目标检测方法及其装置 |
CN115761152A (zh) * | 2023-01-06 | 2023-03-07 | 深圳星坊科技有限公司 | 普通光源下图像处理及三维重建方法、装置和计算机设备 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20080152236A1 (en) * | 2006-12-22 | 2008-06-26 | Canon Kabushiki Kaisha | Image processing method and apparatus |
-
2012
- 2012-11-23 CN CN201210483561.2A patent/CN102982519B/zh not_active Expired - Fee Related
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20080152236A1 (en) * | 2006-12-22 | 2008-06-26 | Canon Kabushiki Kaisha | Image processing method and apparatus |
Non-Patent Citations (1)
Title |
---|
STAUFFER, CHRIS: "adaptive background mixture models for real-time tracking", 《COMPUTER VISION AND PATTERN RECOGNITION》 * |
Cited By (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103985114B (zh) * | 2014-03-21 | 2016-08-24 | 南京大学 | 一种监控视频人物前景分割与分类的方法 |
WO2017028029A1 (zh) * | 2015-08-14 | 2017-02-23 | 富士通株式会社 | 背景模型的提取方法、装置以及图像处理设备 |
CN105354816B (zh) * | 2015-09-24 | 2017-12-19 | 广州视源电子科技股份有限公司 | 一种电子元件定位方法及装置 |
CN105354816A (zh) * | 2015-09-24 | 2016-02-24 | 广州视源电子科技股份有限公司 | 一种电子元件定位方法及装置 |
CN106097293A (zh) * | 2015-12-22 | 2016-11-09 | 中国计量学院 | 一种用于图像采集系统优化设计的图像可分割性评价方法 |
CN106097293B (zh) * | 2015-12-22 | 2018-12-21 | 中国计量学院 | 一种用于图像采集系统优化设计的图像可分割性评价方法 |
CN106056573A (zh) * | 2016-04-26 | 2016-10-26 | 武汉科技大学 | 一种活动轮廓模型中能量泛函的优化方法及其应用 |
CN106709906B (zh) * | 2016-12-08 | 2019-07-23 | 武汉大学 | 一种背景差分和前景探测的方法 |
CN106709906A (zh) * | 2016-12-08 | 2017-05-24 | 武汉大学 | 一种背景差分和前景探测的方法 |
CN106846356A (zh) * | 2017-01-13 | 2017-06-13 | 广东万安科技股份有限公司 | 一种贝叶斯‑全概率联合估计模型的运动目标前景检测方法 |
CN107145861A (zh) * | 2017-05-05 | 2017-09-08 | 中国科学院上海高等研究院 | 一种遗弃物自动检测方法 |
CN109509195A (zh) * | 2018-12-12 | 2019-03-22 | 北京达佳互联信息技术有限公司 | 前景处理方法、装置、电子设备及存储介质 |
CN110751034A (zh) * | 2019-09-16 | 2020-02-04 | 平安科技(深圳)有限公司 | 行人行为识别方法及终端设备 |
CN110751034B (zh) * | 2019-09-16 | 2023-09-01 | 平安科技(深圳)有限公司 | 行人行为识别方法及终端设备 |
CN111275696A (zh) * | 2020-02-10 | 2020-06-12 | 腾讯科技(深圳)有限公司 | 一种医学图像处理的方法、图像处理的方法及装置 |
CN111275696B (zh) * | 2020-02-10 | 2023-09-15 | 腾讯医疗健康(深圳)有限公司 | 一种医学图像处理的方法、图像处理的方法及装置 |
CN112651993A (zh) * | 2020-11-18 | 2021-04-13 | 合肥市卓迩无人机科技服务有限责任公司 | 多路4k准实时拼接视频的动目标分析识别算法 |
CN113009443A (zh) * | 2021-02-22 | 2021-06-22 | 南京邮电大学 | 一种基于图连通密度的海面目标检测方法及其装置 |
CN113009443B (zh) * | 2021-02-22 | 2023-09-12 | 南京邮电大学 | 一种基于图连通密度的海面目标检测方法及其装置 |
CN115761152A (zh) * | 2023-01-06 | 2023-03-07 | 深圳星坊科技有限公司 | 普通光源下图像处理及三维重建方法、装置和计算机设备 |
Also Published As
Publication number | Publication date |
---|---|
CN102982519B (zh) | 2015-04-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN102982519B (zh) | 一种视频图像的前景识别提取和拼接方法 | |
CN108256562B (zh) | 基于弱监督时空级联神经网络的显著目标检测方法及系统 | |
CN112528878B (zh) | 检测车道线的方法、装置、终端设备及可读存储介质 | |
US11830230B2 (en) | Living body detection method based on facial recognition, and electronic device and storage medium | |
CN109272509B (zh) | 一种连续图像的目标检测方法、装置、设备及存储介质 | |
CN108268867B (zh) | 一种车牌定位方法及装置 | |
US9292759B2 (en) | Methods and systems for optimized parameter selection in automated license plate recognition | |
CN112257502A (zh) | 一种监控视频行人识别与跟踪方法、装置及存储介质 | |
CN101729911B (zh) | 一种基于视觉感知的多视点图像颜色校正方法 | |
CN111784747B (zh) | 一种基于关键点检测和校正的车辆多目标跟踪系统及方法 | |
CN110188829B (zh) | 神经网络的训练方法、目标识别的方法及相关产品 | |
CN102663405B (zh) | 基于显著度和混合高斯模型的监控视频前景提取方法 | |
CN110827312B (zh) | 一种基于协同视觉注意力神经网络的学习方法 | |
CN111783505A (zh) | 伪造人脸的识别方法、装置和计算机可读存储介质 | |
CN111860496A (zh) | 车牌识别方法、装置、设备及计算机可读存储介质 | |
CN109271957B (zh) | 人脸性别识别方法以及装置 | |
CN112926379A (zh) | 一种构建人脸识别模型的方法及装置 | |
CN112884147A (zh) | 神经网络训练方法、图像处理方法、装置及电子设备 | |
CN104156979A (zh) | 一种基于高斯混合模型的视频中异常行为在线检测方法 | |
CN116311214A (zh) | 车牌识别方法和装置 | |
CN114495025A (zh) | 一种车辆识别方法、装置、电子设备及存储介质 | |
CN108009480A (zh) | 一种基于特征识别的图像人体行为检测方法 | |
CN112614109A (zh) | 图像质量评估方法、装置以及计算机可读存储介质 | |
CN105335717A (zh) | 基于智能移动终端视频抖动分析的人脸识别系统 | |
CN112990225B (zh) | 一种复杂环境下的图像目标识别方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
C41 | Transfer of patent application or patent right or utility model | ||
TR01 | Transfer of patent right |
Effective date of registration: 20160204 Address after: 210046 Jiangsu city of Nanjing Province Economic and Technological Development Zone Xing Chi road Xingzhi Science Park building B room 0910 Patentee after: Nanjing Dunhua Traffic Technology Co., Ltd. Address before: 210003 Nanjing City, Jiangsu Province, the new model road No. 66 Patentee before: Nanjing Post & Telecommunication Univ. |
|
CF01 | Termination of patent right due to non-payment of annual fee | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20150401 Termination date: 20201123 |