CN105574896B - 一种面向高分辨率视频的高效背景建模方法 - Google Patents
一种面向高分辨率视频的高效背景建模方法 Download PDFInfo
- Publication number
- CN105574896B CN105574896B CN201610072455.3A CN201610072455A CN105574896B CN 105574896 B CN105574896 B CN 105574896B CN 201610072455 A CN201610072455 A CN 201610072455A CN 105574896 B CN105574896 B CN 105574896B
- Authority
- CN
- China
- Prior art keywords
- video
- pixel
- moment
- value
- background model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/14—Picture signal circuitry for video frequency region
- H04N5/144—Movement detection
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Signal Processing (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种面向高分辨率视频的高效背景建模方法。它包括以下步骤:对视频数据进行处理,将视频转化为灰度化视频;基于灰度化视频的亮度等级建立视频中场景的背景模型。本发明能够在不增加任何软硬件计算资源的条件下,高效地实现对固定场景的高分辨率视频的背景建模,克服了传统逐个像素点建模法所导致的计算冗余和存储冗余问题,降低了建模运算量,提高了计算效率,减小了存储资源的消耗。
Description
技术领域
本发明涉及视频数据挖掘技术领域,尤其涉及一种面向高分辨率视频的高效背景建模方法。
背景技术
对具有稳定视场的视频进行背景建模旨在获得视频中场景在一段较长时间内的稳定外观描述,该技术可应用于不同领域,例如视频压缩和视频内容变化检测。背景建模的核心是对视频数据进行采样并对样本进行统计,从而获得描述背景动态规律的统计分布函数。由于所提取的统计信息是未知的,因此可归入视频数据挖掘的范畴。
目前主流的背景建模方法为逐个像素点建模法,即对视频中每个像素点均进行数据采样并根据样本数据构建该像素点处的背景模型。该建模方法的优点是对视频描述可以精确到每个像素点,但缺点是计算效率较低。对于百万或千万像素级的高分辨率视频,逐个像素点进行统计建模运算量极大,存储资源消耗大,且较难实现实时性。
视频中的背景可根据动态特性划分为两大类:静态背景和动态背景。静态背景是指视频中的背景具有时间及空间上的不变性或相对稳定性,而动态背景是指视频中的背景具有时间及空间上的随机性变化或规律性变化。在多数应用中,视频背景都被设置或选择为静态背景。研究发现,对于具有静态背景的高分辨率视频而言,视频中有大量像素点具有极其相似甚至完全相同的背景模型。因此,对这类高分辨率视频使用逐个像素点建模法必然导致严重的计算冗余和存储冗余。
发明内容
本发明的是克服目前对固定场景的高分辨率视频使用逐个像素点建模法,存在严重的计算冗余和存储冗余的技术问题,提供了一种面向高分辨率视频的高效背景建模方法,其能够在不增加任何软硬件计算资源的条件下,高效地实现对固定场景的高分辨率视频的背景建模,克服了传统逐个像素点建模法所导致的计算冗余和存储冗余问题,降低了建模运算量,提高了计算效率,减小了存储资源的消耗。
为了解决上述问题,本发明采用以下技术方案予以实现:
本发明的一种面向高分辨率视频的高效背景建模方法,包括以下步骤:
S1:对视频数据进行处理,将视频转化为灰度化视频;
S2:基于灰度化视频的亮度等级建立视频中场景的背景模型。
在本技术方案中,采用基于视频亮度等级的背景建模方法,由于视频中的亮度等级数量远小于像素点数量,因此克服了传统的逐个像素点背景建模法运算及存储消耗大、实时性不佳的问题。
在具有静态背景的高分辨率视频中,具有相似或相同背景模型的所有像素点均可用少量基于亮度等级的背景模型进行描述。换句话说,仅通过构建少量基于视频亮度等级的背景模型,即可描述此类视频中的所有像素点的动态性规律与特征。由于一个视频中的亮度等级数量远小于像素点个数且与像素点个数无关,因此基于视频亮度等级所构建的背景模型数量也远小于由逐个像素点建模法所构建的背景模型数量。例如,目前绝大多数百万甚至千万分辨率的数字相机输出的均是8位深度的数字视频,由于2的8次方为256,因此这类视频都仅有256个亮度等级。如果对上述高分辨率视频采用逐个像素点建模法,必须要构建并存储百万或千万个背景模型,而根据之前的分析这些背景模型中其实存在大量的冗余。然而,如果采用基于视频亮度等级的建模方法,对整个视频的所有像素点仅需构建并存储256个背景模型,而且理论上无冗余。
作为优选,所述步骤S1中将视频转化为灰度化视频采用以下公式:Gray=(R×30+G×59+B×11+50)/100,其中,R代表视频中红色彩色通道的像素值,G代表视频中绿色彩色通道的像素值,B代表视频中蓝色彩色通道的像素值,Gray代表进行色彩转化后像素点的灰度值,也称亮度值。
作为优选,所述步骤S2包括以下步骤:
S21:从整体视频中选取出起始时间t1到结束时间tN的一段连续时间里的视频样本;
S22:统计t1到tN时间段内在坐标位置为(i,j)的像素点上复现频率最高的亮度值,将该亮度值作为坐标位置为(i,j)的像素点在tN时刻的视频背景模型最佳估计值B(i,j)|tN;
S23:检测视频画面中坐标位置为(i,j)的像素点从tn-1时刻到tn时刻亮度值从θ1跳变为θ2的次数,θ1=I(i,j)|tn-1,θ2=I(i,j)|tn,I(i,j)|tn-1和I(i,j)|tn分别代表视频中坐标位置为(i,j)的像素点在tn-1和tn时刻的两个亮度值,统计视频画面中所有像素点在t1到tN时间段内亮度值从θ1跳变为θ2的总次数,记录在tN时刻的方阵Z(θ1,θ2)|tN中,将Z(θ1,θ2)|tN的值归一化为[0,1]之间的概率值,即得到二维概率直方图F(θ1,θ2)|tN;
S24:根据坐标位置为(i,j)的像素点在tN后的下一个连续时刻tN+1的当前亮度值,计算出坐标位置为(i,j)的像素点在tN+1时刻的视频背景模型最佳估计值B(i,j)|tN+1,计算公式如下:
B(i,j)|tN+1=B(i,j)|tN+[I(i,j)|tN+1-B(i,j)|tN]×F(θ1,θ2)|tN,取θ1=B(i,j)|tN,θ2=I(i,j)|tN+1,
其中,I(i,j)|tN+1代表坐标位置为(i,j)的像素点在tN后的下一个连续时刻tN+1的当前亮度值,B(i,j)|tN代表坐标位置为(i,j)的像素点在tN时刻的视频背景模型最佳估计值;
计算出视频画面中所有像素点在tN+1时刻的视频背景模型最佳估计值,并保存,用于更新视频画面中所有像素点在下一个时刻tN+2的视频背景模型最佳估计值;
S25:实时更新视频画面中所有像素点的视频背景模型最佳估计值,建立视频中场景的背景模型,该背景模型包括二维概率直方图F(θ1,θ2)|tN和实时更新的所有像素点的视频背景模型最佳估计值。
作为优选,所述步骤S21中视频样本的持续时间大于等于5秒。
作为优选,将坐标位置为(i,j)的像素点在tN+1时刻的当前亮度值θ2=I(i,j)|tN+1和在tN时刻的视频背景模型最佳估计值θ1=B(i,j)|tN代入二维概率直方图F(θ1,θ2)|tN,如果F(θ1,θ2)|tN≠0,则表示坐标位置为(i,j)的像素点在tN+1时刻的当前亮度值正常,如果F(θ1,θ2)|tN=0,则表示坐标位置为(i,j)的像素点在tN+1时刻的当前亮度值异常。
本发明的实质性效果是:(1)基于视频亮度等级的背景建模方法,克服了传统的逐个像素点背景建模法在处理固定场景的高分辨率视频时存在的运算资源消耗大、对视频运算器配置要求高的不足。(2)实现了一种高效率的视频背景建模方法,克服了逐个像素点背景建模法在处理高分辨率视频时存在的效率低、实时性不足的问题。(3)克服了逐个像素点背景建模法在保存高分辨率视频背景模型数据方面存在的存储资源消耗大的不足。
附图说明
图1是本发明的工作流程图;
图2是二维概率直方图F(θ1,θ2)|tN的示意图。
具体实施方式
下面通过实施例,并结合附图,对本发明的技术方案作进一步具体的说明。
实施例:本实施例的一种面向高分辨率视频的高效背景建模方法,如图1所示,包括以下步骤:
S1:对视频数据进行处理,将视频转化为灰度化视频;视频可由设为固定状态、关闭了自动对焦和自动增益功能的数字摄像机拍摄得到,数字摄像机拍摄得到的是固定场景的高分辨率视频;
S2:基于灰度化视频的亮度等级建立视频中场景的背景模型。
步骤S1中将视频转化为灰度化视频采用以下公式:Gray=(R×30+G×59+B×11+50)/100,其中,R代表视频中红色彩色通道的像素值,G代表视频中绿色彩色通道的像素值,B代表视频中蓝色彩色通道的像素值,Gray代表进行色彩转化后像素点的灰度值,也称亮度值。
步骤S2包括以下步骤:
S21:从整体视频中选取出起始时间t1到结束时间tN的一段连续时间里的视频样本,视频样本的持续时间大于等于5秒(即t1到tN之间的时间大于等于5秒);
S22:计算t1到tN时间段内视频背景模型的最佳估计值计算方法为:
其中,MODE(□)表示计算众数(出现频率最高的数值)的函数,表示统计出t1到tN时间段内在坐标位置为(i,j)的像素点上复现频率最高的那个亮度值,并将其作为t1到tN时间段内像素点(i,j)上的视频背景模型最佳估计值,B(i,j)代表视频背景模型的最佳估计值图像,其大小与视频的一帧相同;
将t1到tN时间段内像素点(i,j)上的视频背景模型最佳估计值作为像素点(i,j)在tN时刻的背景模型最佳估计值B(i,j)|tN,即
S23:计算出反应视频像素值正常波动范围的二维概率直方图F(θ1,θ2)|tN,包括以下步骤:
θ1=I(i,j)|tn-1,θ2=I(i,j)|tn;
E(θ1→θ2)=1;
H(θ1,θ2)|tn=∑E(θ1→θ2);
其中,I(i,j)|tn-1和I(i,j)|tn分别代表视频画面中坐标位置为(i,j)的像素点在tn-1和tn时刻的两个亮度值,并分别简记为θ1和θ2;E(θ1→θ2)=1表示检测到以下的事件1次:坐标位置为(i,j)的像素点亮度值从tn-1时刻的亮度等级θ1跳变为tn时刻的亮度等级θ2;∑E(θ1→θ2)是统计视频画面中所有像素点从tn-1时刻到tn时刻亮度值从θ1跳变为θ2的次数,并将检测到的亮度值从θ1跳变为θ2的次数记录在tn时刻的方阵H的对应单元H(θ1,θ2)|tn中;方阵Z(θ1,θ2)|tN表示在上述视频样本的t1到tN时间段内H(θ1,θ2)|tn值的累加,它记录了整个视频样本时间内检测到的所有像素点的亮度值从θ1跳变为θ2的总次数;最后,将Z(θ1,θ2)|tN的值归一化为[0,1]之间的概率值,即得到二维概率直方图F(θ1,θ2)|tN,F(θ1,θ2)|tN为方阵,其大小等于视频所具有的亮度等级数的平方;
如果F(θ1,θ2)|tN≠0,则视频中任意像素点上的亮度等级变化(θ1→θ2)可判定为正常像素值波动;反之,如果F(θ1,θ2)|tN=0,则视频中任意像素点上的亮度等级变化(θ1→θ2)可判定为异常像素值波动,由此,根据F(θ1,θ2)|tN即可确定出视频像素值的正常波动范围;
S24:根据坐标位置为(i,j)的像素点在tN后的下一个连续时刻tN+1的当前亮度值,计算出坐标位置为(i,j)的像素点在tN+1时刻的视频背景模型最佳估计值B(i,j)tN+1,计算公式如下:
B(i,j)|tN+1=B(i,j)|tN+[I(i,j)|tN+1-B(i,j)|tN]×F(θ1,θ2)|tN,取θ1=B(i,j)|tN,θ2=I(i,j)|tN+1,
其中,I(i,j)|tN+1代表坐标位置为(i,j)的像素点在tN后的下一个连续时刻tN+1的当前亮度值,B(i,j)|tN代表坐标位置为(i,j)的像素点在tN时刻的视频背景模型最佳估计值,F(θ1,θ2)|tN是在步骤S23中计算出的二维概率直方图,此时F(θ1,θ2)|tN被作为一个查询表使用,给定任一组θ1和θ2值,就可以查询出视频中亮度等级从θ1跳变到θ2的概率值,在上述公式中,取θ1=B(i,j)|tN,θ2=I(i,j)|tN+1;
计算出视频画面中所有像素点在tN+1时刻的视频背景模型最佳估计值,并保存,用于更新视频画面中所有像素点在下一个时刻tN+2的视频背景模型最佳估计值;
坐标位置为(i,j)的像素点在tN+2时刻的视频背景模型最佳估计值B(i,j)|tN+2=B(i,j)|tN+1+[I(i,j)|tN+2-B(i,j)|tN+1]×F(θ1,θ2)|tN,取θ1=B(i,j)|tN+1,θ2=I(i,j)|tN+2,依此类推,实时计算出当前最新的视频画面中所有像素点的视频背景模型最佳估计值,tN时刻之后的二维概率直方图都为F(θ1,θ2)|tN,在计算最新的视频背景模型最佳估计值时,始终使用F(θ1,θ2)|tN作为查询表,即计算视频背景模型最佳估计值公式中的二维概率直方图始终为F(θ1,θ2)|tN不变。
S25:实时更新视频画面中所有像素点的视频背景模型最佳估计值,建立视频中场景的背景模型,该背景模型包括二维概率直方图F(θ1,θ2)|tN和实时更新的所有像素点的视频背景模型最佳估计值。
通过本方法得到的背景模型中的二维概率直方图F(θ1,θ2)|tN大小等于视频所具有的亮度等级数的平方,背景模型中的所有像素点的视频背景模型的最佳估计值图像B(i,j)大小与视频的一帧相同,由于视频中的亮度等级数量远小于像素点数量,因此克服了传统的逐个像素点背景建模法运算及存储消耗大、实时性不佳的问题。
将坐标位置为(i,j)的像素点在tN+1时刻的当前亮度值θ2=I(i,j)|tN+1和在tN时刻的视频背景模型最佳估计值θ1=B(i,j)|tN代入二维概率直方图F(θ1,θ2)|tN,如果F(θ1,θ2)|tN≠0,则表示坐标位置为(i,j)的像素点在tN+1时刻的当前亮度值正常,如果F(θ1,θ2)|tN=0,则表示坐标位置为(i,j)的像素点在tN+1时刻的当前亮度值异常。即在tN+1时刻坐标(i,j)处像素点的亮度值的正常波动范围包含的值可由集合L表示:L(θ1)={θ2:F(θ1,θ2)|tN≠0},其中θ1=B(i,j)|tN。
二维概率直方图F(θ1,θ2)|tN如图2所示,当视频画面中某个像素点在tN+1时刻的亮度值为118,在tN时刻的视频背景模型最佳估计值为120,查询二维概率直方图F(θ1,θ2)|tN得到F(θ1,θ2)|tN=0.074,所以该像素点在tN+2时刻的亮度值正常。
在具有静态背景的高分辨率视频中,具有相似或相同背景模型的所有像素点均可用少量基于亮度等级的背景模型进行描述。换句话说,仅通过构建少量基于视频亮度等级的背景模型,即可描述此类视频中的所有像素点的动态性规律与特征。由于一个视频中的亮度等级数量远小于像素点个数且与像素点个数无关,因此基于视频亮度等级所构建的背景模型数量也远小于由逐个像素点建模法所构建的背景模型数量。例如,目前绝大多数百万甚至千万分辨率的数字相机输出的均是8位深度的数字视频,由于2的8次方为256,因此这类视频都仅有256个亮度等级。如果对上述高分辨率视频采用逐个像素点建模法,必须要构建并存储百万或千万个背景模型,而根据之前的分析这些背景模型中其实存在大量的冗余。然而,如果采用基于视频亮度等级的建模方法,对整个视频的所有像素点仅需构建并存储256个背景模型,而且理论上无冗余。
Claims (4)
1.一种面向高分辨率视频的高效背景建模方法,其特征在于,包括以下步骤:
S1:对视频数据进行处理,将视频转化为灰度化视频;
S2:基于灰度化视频的亮度等级建立视频中场景的背景模型;
所述步骤S2包括以下步骤:
S21:从整体视频中选取出起始时间t1到结束时间tN的一段连续时间里的视频样本;
S22:统计t1到tN时间段内在坐标位置为(i,j)的像素点上复现频率最高的亮度值,将该亮度值作为坐标位置为(i,j)的像素点在tN时刻的视频背景模型最佳估计值B(i,j)|tN;
S23:检测视频画面中坐标位置为(i,j)的像素点从tn-1时刻到tn时刻亮度值从θ1跳变为θ2的次数,θ1=I(i,j)|tn-1,θ2=I(i,j)|tn,I(i,j)|tn-1和I(i,j)|tn分别代表视频中坐标位置为(i,j)的像素点在tn-1和tn时刻的两个亮度值,统计视频画面中所有像素点在t1到tN时间段内亮度值从θ1跳变为θ2的总次数,记录在tN时刻的方阵Z(θ1,θ2)|tN中,将Z(θ1,θ2)|tN的值归一化为[0,1]之间的概率值,即得到二维概率直方图F(θ1,θ2)|tN;
S24:根据坐标位置为(i,j)的像素点在tN后的下一个连续时刻tN+1的当前亮度值,计算出坐标位置为(i,j)的像素点在tN+1时刻的视频背景模型最佳估计值B(i,j)|tN+1,计算公式如下:
B(i,j)|tN+1=B(i,j)|tN+[I(i,j)|tN+1-B(i,j)|tN]×F(θ1,θ2)|tN,
取θ1=B(i,j)|tN,θ2=I(i,j)|tN+1,
其中,I(i,j)|tN+1代表坐标位置为(i,j)的像素点在tN后的下一个连续时刻tN+1的当前亮度值,B(i,j)|tN代表坐标位置为(i,j)的像素点在tN时刻的视频背景模型最佳估计值,F(θ1,θ2)|tN是在步骤S23中计算出的二维概率直方图,此时F(θ1,θ2)|tN被作为一个查询表使用,给定任一组θ1和θ2值,就可以查询出视频中亮度等级从θ1跳变到θ2的概率值,在上述公式中,取θ1=B(i,j)|tN,θ2=I(i,j)|tN+1;
计算出视频画面中所有像素点在tN+1时刻的视频背景模型最佳估计值,并保存,用于更新视频画面中所有像素点在下一个时刻tN+2的视频背景模型最佳估计值;
S25:实时更新视频画面中所有像素点的视频背景模型最佳估计值,建立视频中场景的背景模型,该背景模型包括二维概率直方图F(θ1,θ2)|tN和实时更新的所有像素点的视频背景模型最佳估计值。
2.根据权利要求1所述一种面向高分辨率视频的高效背景建模方法,其特征在于:所述步骤S1中将视频转化为灰度化视频采用以下公式:Gray=(R×30+G×59+B×11+50)/100,其中,R代表视频中红色彩色通道的像素值,G代表视频中绿色彩色通道的像素值,B代表视频中蓝色彩色通道的像素值,Grav代表进行色彩转化后像素点的灰度值,也称亮度值。
3.根据权利要求1所述一种面向高分辨率视频的高效背景建模方法,其特征在于:所述步骤S21中视频样本的持续时间大于等于5秒。
4.根据权利要求1所述一种面向高分辨率视频的高效背景建模方法,其特征在于:将坐标位置为(i,j)的像素点在tN+1时刻的当前亮度值θ2=I(i,j)|tN+1和在tN时刻的视频背景模型最佳估计值θ1=B(i,j)|tN代入二维概率直方图F(θ1,θ2)|tN,如果F(θ1,θ2)|tN≠0,则表示坐标位置为(i,j)的像素点在tN+1时刻的当前亮度值正常,如果F(θ1,θ2)|tN=0,则表示坐标位置为(i,j)的像素点在tN+1时刻的当前亮度值异常。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610072455.3A CN105574896B (zh) | 2016-02-01 | 2016-02-01 | 一种面向高分辨率视频的高效背景建模方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610072455.3A CN105574896B (zh) | 2016-02-01 | 2016-02-01 | 一种面向高分辨率视频的高效背景建模方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN105574896A CN105574896A (zh) | 2016-05-11 |
CN105574896B true CN105574896B (zh) | 2018-03-27 |
Family
ID=55884983
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610072455.3A Expired - Fee Related CN105574896B (zh) | 2016-02-01 | 2016-02-01 | 一种面向高分辨率视频的高效背景建模方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN105574896B (zh) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111047654A (zh) * | 2019-12-06 | 2020-04-21 | 衢州学院 | 一种基于色彩信息的高清高速视频背景建模方法 |
CN111028245B (zh) * | 2019-12-06 | 2023-08-01 | 衢州学院 | 一种多模态复合的高清高速视频背景建模方法 |
CN111028262A (zh) * | 2019-12-06 | 2020-04-17 | 衢州学院 | 一种多通道复合的高清高速视频背景建模方法 |
CN110991361B (zh) * | 2019-12-06 | 2021-01-15 | 衢州学院 | 面向高清高速视频的多通道多模态背景建模方法 |
CN110942469B (zh) * | 2019-12-06 | 2023-05-26 | 衢州学院 | 面向高清高速视频的双通道双模态背景建模方法 |
CN111008995B (zh) * | 2019-12-06 | 2023-07-18 | 衢州学院 | 面向高清高速视频的单通道多模态背景建模方法 |
CN111583292B (zh) * | 2020-05-11 | 2023-07-07 | 浙江大学 | 一种面向双光子钙成像视频数据的自适应图像分割方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101621615A (zh) * | 2009-07-24 | 2010-01-06 | 南京邮电大学 | 一种自适应背景建模及运动目标检测方法 |
CN102129689A (zh) * | 2011-02-24 | 2011-07-20 | 南京大学 | 自动增益场景下基于相机响应函数的背景建模方法 |
CN102609689A (zh) * | 2012-02-03 | 2012-07-25 | 江苏科海智能系统有限公司 | 一种基于多帧统计的视频车道背景建模方法 |
US8670611B2 (en) * | 2011-10-24 | 2014-03-11 | International Business Machines Corporation | Background understanding in video data |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8565482B2 (en) * | 2011-02-28 | 2013-10-22 | Seiko Epson Corporation | Local difference pattern based local background modeling for object detection |
-
2016
- 2016-02-01 CN CN201610072455.3A patent/CN105574896B/zh not_active Expired - Fee Related
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101621615A (zh) * | 2009-07-24 | 2010-01-06 | 南京邮电大学 | 一种自适应背景建模及运动目标检测方法 |
CN102129689A (zh) * | 2011-02-24 | 2011-07-20 | 南京大学 | 自动增益场景下基于相机响应函数的背景建模方法 |
US8670611B2 (en) * | 2011-10-24 | 2014-03-11 | International Business Machines Corporation | Background understanding in video data |
CN102609689A (zh) * | 2012-02-03 | 2012-07-25 | 江苏科海智能系统有限公司 | 一种基于多帧统计的视频车道背景建模方法 |
Non-Patent Citations (2)
Title |
---|
基于像素的背景建模方法综述;薛茹 等;《电视技术》;20120715;第36卷(第13期);第39-41页 * |
基于块直方图分析的视频背景提取方法;彭强 等;《西南交通大学学报》;20060228;第41卷(第1期);第48-53页 * |
Also Published As
Publication number | Publication date |
---|---|
CN105574896A (zh) | 2016-05-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105574896B (zh) | 一种面向高分辨率视频的高效背景建模方法 | |
CN108234870B (zh) | 图像处理方法、装置、终端及存储介质 | |
WO2018161775A1 (zh) | 一种用于图像处理的神经网络模型的训练方法、装置和存储介质 | |
CN109919087B (zh) | 一种视频分类的方法、模型训练的方法及装置 | |
CN113763296B (zh) | 图像处理方法、设备以及介质 | |
WO2021129435A1 (zh) | 视频清晰度评估模型训练方法、视频推荐方法及相关装置 | |
WO2016127883A1 (zh) | 一种图像区域检测方法及装置 | |
US8903130B1 (en) | Virtual camera operator | |
US20190020871A1 (en) | Visual quality preserving quantization parameter prediction with deep neural network | |
CN106846336A (zh) | 提取前景图像、替换图像背景的方法及装置 | |
DE102013017122A1 (de) | Verfahren zum Herstellen automatischer Cinemagramme auf einer Bildgebungsvorrichtung | |
TW201106685A (en) | Foreground image separation method | |
GB2556761A (en) | Image contrast enhancement method | |
CN107547852A (zh) | 一种大数据存储系统 | |
CN104700405B (zh) | 一种前景检测方法和系统 | |
CN111985281A (zh) | 图像生成模型的生成方法、装置及图像生成方法、装置 | |
WO2017079679A1 (en) | Depth camera based image stabilization | |
CN114096994A (zh) | 图像对齐方法及装置、电子设备、存储介质 | |
CN107545570A (zh) | 一种半参考图的重构图像质量评价方法 | |
TW201032180A (en) | Method and device for keeping image background by multiple gauss models | |
CN112565887A (zh) | 一种视频处理方法、装置、终端及存储介质 | |
CN102333234A (zh) | 一种双目立体视频状态信息的监测方法及装置 | |
CN111768377A (zh) | 图像色彩评估方法、装置、电子设备及存储介质 | |
CN110188625A (zh) | 一种基于多特征融合的视频精细结构化方法 | |
US20170177977A1 (en) | Control of Computer Vision Pre-Processing Based on Image Matching Using Structural Similarity |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20180327 Termination date: 20210201 |
|
CF01 | Termination of patent right due to non-payment of annual fee |