CN105959707A - 基于运动感知的静态背景视频压缩算法 - Google Patents

基于运动感知的静态背景视频压缩算法 Download PDF

Info

Publication number
CN105959707A
CN105959707A CN201610145209.6A CN201610145209A CN105959707A CN 105959707 A CN105959707 A CN 105959707A CN 201610145209 A CN201610145209 A CN 201610145209A CN 105959707 A CN105959707 A CN 105959707A
Authority
CN
China
Prior art keywords
video
frame
formula
pixel
cutting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201610145209.6A
Other languages
English (en)
Inventor
邵堃
霍星
方帅
安宁
刘进军
姚小慧
乔子木
刘超
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hefei University of Technology
Original Assignee
Hefei University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hefei University of Technology filed Critical Hefei University of Technology
Priority to CN201610145209.6A priority Critical patent/CN105959707A/zh
Publication of CN105959707A publication Critical patent/CN105959707A/zh
Pending legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于运动感知的静态背景视频压缩方法,首先对视频流分别进行边缘梯度检测和显著性区域检测,得到边缘信息和显著性信息,然后进行背景建模,采用vibe算法,检测运动信息,根据运动信息,计算运动目标的当前帧与上一视频帧的裁剪线的时空差异,使得裁剪后的视频在前后帧之间保持空间与时间的连续性;根据能量图,计算边缘改变代价函数,避免边缘畸变现象,采用动态规划算法,计算得到裁剪函数;定义一个裁剪顺序的最优化函数,在水平方向和垂直方向上选择需要移除的裁剪线。本发明利用边缘检测、显著性检测、目标检测和时空相关性,将图像线裁剪方法应用到视频压缩。

Description

基于运动感知的静态背景视频压缩算法
技术领域
本发明涉及视频压缩算法领域,具体是一种基于运动感知的静态背景视频压缩算法。
背景技术
随着互联网飞速发展,多媒体数据也呈几何级数的增长,我们步入了信息化时代,人们获取的信息资源是以往任何时代所无法比拟的。这些信息资源,不单有简单的文本信息,而且包括了海量视频资料。这些视频信息与文本信息相比,更加的直观生动,既与文本信息相互补充,又是提供信息的独立载体。
视频监控系统有很多,如交通、水利、油田、银行、电信等领域的远程监控;房地产、幼儿园、建筑、厂区、库房、物流、连锁店、门店等重点区域监控。以交通视频监控为例,通过交通视频监控可进行:车牌识别,用于稽查违规车辆;车速识别,用于检测超速车辆;逆行警告,识别逆行车辆,产生报警;流量统计,统计过往的行人和车辆数量。受平安城市建设、交通信息化建设、金融监控、安全生产、智能家居等各种项目建设与发展的带动,视频监控产品需求量不断扩大。
现在随着视频监控系统的广泛应用,视频资源呈现爆炸式增长趋势,人们希望能有更高效的视频压缩技术,使得这些视频信息能够存储和传输。在压缩视频时,如果毫无区别地对视频中所有内容进行处理则是不明智的,因为人们所需要的只是视频的主体信息,如何快速地进行数据筛选,压缩感兴趣的数据,从而寻找任务相关的信息,一直是计算机视觉研究领域中的一个热点。
当前对视频的存储方法主要是基于视频编码的压缩方法,如Nishi的像素分析方法、Vetro.A的基于物体编码的方法,这些方法都是对原始比特流编码,对某些视频能够达到一定的效果,但是由于视频编码存在上限问题,在上限固定之后很难再有压缩率上的突破。还有就是通过对视频原始数据比特流的压缩来达到对整个视频进行压缩存储的目的,主要有ITU-T制定的H.26X系列和ISO制定的MPEG-X系列,这些视频压缩技术利用视频帧内与帧间冗余信息,在一定程度上减小了视频文件的大小,但是长时间不间断运行的监控系统所产生的文件数据量非常巨大,传统的压缩方法力不从心。
传统的视频压缩方法,对视频的所有内容进行同等压缩,丢失了视频的主体信息。对于视频存储,如果只存储人们感兴趣的有用信息,可以极大地减少存储时间和存储空间。本发明使用运动敏感信息作为判断视频内容的标准,对非运动区域采用内容感知信息作为判断标准提出一种基于运动感知的静态背景视频压缩方法。
发明内容
本发明的目的是提供一种基于运动感知的静态背景视频压缩算法,以解决现有技术静态背景视频压缩中主要内容丢失的问题和抖动现象,。
为了达到上述目的,本发明所采用的技术方案为:
基于运动感知的静态背景视频压缩算法,其特征在于:包括以下步骤:
(1)、选取静态背景视频,输入视频帧,导入每一个视频帧对其进行线裁剪;
(2)、对视频帧进行边缘检测处理,得到该视频帧的梯度图,计算过程如下:
视频帧记为I,对I的水平方向和垂直方向分别求其偏导,两者线性累加后得到该视频帧的梯度图,它反映了视频帧的结构化信息,如公式(1)所示:
e 1 ( I ( x , y ) ) = | ∂ ∂ x I ( x , y ) | + | ∂ ∂ y I ( x , y ) | - - - ( 1 ) ;
其中e1(I(x,y))表示的是视频帧I(x,y)得到的梯度图,(x,y)为图I中的一点,x代表点的横坐标,y为点的纵坐标;
(3)、对视频帧的显著性区域进行检测,使用全局对比度的显著性检测方法,保留视频帧的显著性目标信息,处理过程如下:
A.使用直方图统计对视频帧的颜色信息进行量化,在全色彩空间中将每个颜色通道量化为12个不同的值,考虑到视频帧中的颜色只占据整个色彩空间很小一部分,将出现频率较小的颜色丢掉以减少色彩数目;选择高频出现的颜色,并确保这些颜色覆盖95%以上的像素;
B.使用基于图的图像分割方法将视频帧分割成若干区域,为每个区域建立颜色直方图,对每个区域ri,通过测量它与视频帧其它区域的颜色对比度来计算它的显著性值,计算公式如公式(2)所示:
S ( r i ) = Σ r i ≠ r j w ( r j ) D ( r i , r j ) - - - ( 2 ) ,
公式(2)中,S(ri)是区域ri的显著值,D(ri,rj)是图像区域ri和区域rj的颜色或者视差的对比度,w(rj)为区域rj的权值,即用rj里的像素数w(rj)来强调大区域的颜色对比度,D(ri,rj)的计算公式如公式(3)所示:
D ( r i , r j ) = Σ i = 1 n 1 Σ j = 1 n 2 f ( c 1 , i ) f ( c 2 , j ) D ( c 1 , i , c 2 , j ) - - - ( 3 ) ,
公式(3)中,f(ck,i)为第i个颜色c1,i在第k个区域rk的所有nk种颜色中出现的概率,k={1,2},这里使用区域的概率密度函数中颜色出现的概率作为权值,以强调主要的颜色之间的区别,同时使用稀疏直方图以使得存储和计算过程更加高效;D(c1,i,c2,j)是第一个区域第i个灰度级和第二个区域第j个灰度级的欧氏距离。f(c2,j)是第二个区域的第i个灰度级;
C.在公式(3)中引进空间权值,将空间信息加入进来,从而增加区域的空间影响;近邻的区域增大影响,较远的区域较小影响;最终区域ri的显著性值定义如公式(4)所示:
S ( r i ) = Σ r i ≠ r j exp ( - D s ( r i , r j / σ s 2 ) ) w ( r j ) D ( r i , r j ) - - - ( 4 ) ,
公式(4)中,Ds(ri,rj)为区域ri和rj的空间距离σs控制空间权值强度;σs越大,空间权值的影响越小,导致较远区域的对比度对当前区域显著性值做出较大贡献;
D.通过基于全局对比度的显著性区域检测算法,得到了该视频帧每个像素点的显著性值,从而为每个像素分配不同能量值,计算公式如公式(5)所示:
e2(I(x,y))=S(x,y) (5);
S(x,y)为显著性值。
(4)、对视频帧进行背景建模处理,使用vibe算法进行背景建模,计算运动目标,得到该视频帧的运动信息,其步骤如下:
在vibe模型中,每一个背景点都有一个样本集,从而将新的像素点和样本集进行比较,判断它是否属于背景点;如果它属于背景点,则它的值接近于样本的采样值;记v(x)为x点处的像素值;M(x)={V1,V2,…VN}为x处的背景样本集,样本集大小为N;SR(v(x))为以x为中心,R为半径的区域,如果公式(6)的值大于一个给定的阈值#min,那么就认为x点属于背景点;公式具体表现形式如下所示:
#{SR(v(x))∩{v1,v2,…,vN}} (6);
(5)、判断裁剪线是否为背景,根据判断,分别计算裁剪函数:
A.针对静态背景的视频,如果裁剪线为背景,则它的能量值包括边缘梯度信息和显著性信息;由于裁剪线不穿过该视频帧的运动目标,移除裁剪线对视频帧的影响较小,且不会造成视频的抖动,这样就有运行速度快,计算效率高的优势,否则进行B处理;
B.裁剪线经过运动区域,则需要计算连续视频帧的裁剪线在时空上的差异比较:
连续视频帧的内容十分接近,对视频帧进行裁剪时,如果裁剪线经过运动区域,视频中的内容会产生抖动现象;考虑上一帧的裁剪线放置到当前帧上,两者附近的差异程度,可获得当前帧移除裁剪线后与上一裁剪的视频帧在时空上的差异;Nx,y表示当前帧N的像素点(x,y),Px,y表示当前帧的上一视频帧的像素点,n为上一视频帧的裁剪线个数,k代表上一视频帧的某条裁剪线;i,j是水平线Y=y与两条裁剪线的交点在垂直方向上的坐标位置,x为交点之间的像素的垂直坐标;假设i<x<j。视频帧的时空差异如公式(7)所示:
e 3 ( I ( x , y ) ) = &Sigma; k = 1 n | | &Sigma; x = i + 1 j N x , y - &Sigma; x = i j - 1 P x , y | | - - - ( 7 ) ;
(6)、采用动态规划算法,根据边缘检测、显著性区域检测以及背景建模,制定裁剪标准,在能量图中引入裁剪线差异比较,计算裁剪函数,
为了找到最优的裁剪线,采用动态规划算法,对每个可能裁剪的像素点(x,y)计算,并累计最小能量M,如公式(8)所示:
M(x,y)=e(x,y)+min(Ml,Mu,Mr) (8),
其中:
M l = M ( x - 1 , y - 1 ) M u = M ( x - 1 , y ) M r = M ( x - 1 , y + 1 ) - - - ( 9 ) ,
公式(8)、(9)中,e(x,y)为像素(x,y)的能量,Ml、Mu和Mr为动态规划中裁剪备选路径的累计能量;
裁剪函数计算过程如下步骤:
A.视频帧的物体特征包括梯度信息,显著性信息、运动信息和时空信息,它们共同组成了该像素的能量;e1(I(x,y))表示梯度信息的能量,e2(I(x,y))代表显著性信息,而通过判断像素(x,y)是否为背景,来估计运动信息,e3(I(x,y))表示时空相关性的能量,则像素(x,y)的能量e(x,y)如公式(10)所示:
e ( x , y ) = e 1 ( I ( x , y ) ) + e 2 ( I ( x , y ) ) I ( x , y ) = 0 e 1 ( I ( x , y ) ) + e 2 ( I ( x , y ) ) + e 3 ( I ( x , y ) ) o t h e r w i s e - - - ( 10 ) ,
B.在视频帧中移除裁剪线时,在以该像素点(x,y)为中心的邻域,引入了新的像素点,对视频帧原有的边缘造成破坏,从而造成边缘畸变。计算引入边缘改变的能量代价如公式(11)所示:
M l = M ( x - 1 , y - 1 ) + C l ( x , y ) M u = M ( x - 1 , y ) + C u ( x , y ) M r = M ( x - 1 , y + 1 ) + C r ( x , y ) - - - ( 11 ) ,
公式(11)中,Cl、Cu和Cr分别表示裁剪线路径是从该像素的左上方、正上方和右上方开始的,移除原有的像素点,引入新像素点,从而带来边缘改变的代价函数如公式(12)所示:
C l ( x , y ) = v l - v l n e w C u ( x , y ) = v u - v u n e w C r ( x , y ) = v r - v r n e w , - - - ( 12 ) ,
其中:
v l = 1 N &Sigma; ( i , j ) &Element; B ( x , y ) | I ( i , j ) - &mu; ( x , y ) | 2 - - - ( 13 ) ,
&mu; ( x , y ) = 1 N &Sigma; ( i , j ) &Element; B ( x , y ) I ( i , j ) - - - ( 14 ) ,
v l n e w = 1 N &Sigma; ( i , j ) &Element; B ( x , y ) | I ( i , j ) + &Delta;I a ( x , y ) - &mu; a n e w ( x , y ) | 2 - - - ( 15 ) ,
&mu; a n e w ( x , y ) = 1 N &Sigma; ( i , j ) &Element; B ( x , y ) ( I ( i , j ) + &Delta;I a ( x , y ) ) - - - ( 16 ) ,
其中,u(x,y)表示点(x,y)的视差值,B(x,y)为点(x,y)邻域,N表示取邻域平均值,N一般取值是9;Cu(x,y)和Cr(x,y)的计算方式同公式(13)-公式(16),ΔI(x,y)的计算过程如公式(17)所示:
&Delta;I l ( x , y ) = | I ( x - 1 , y + k + 1 ) - I ( x - 1 , y - 1 ) + | I ( x , y + k + 1 ) - I ( x , y ) | &Delta;I u ( x , y ) = | I ( x - 1 , y + k + 1 ) - I ( x - 1 , y ) + | I ( x , y + k + 1 ) - I ( x , y ) | &Delta;I r ( x , y ) = | I ( x - 1 , y + k + 1 ) - I ( x - 1 , y + 1 ) + | I ( x , y + k + 1 ) - I ( x , y ) | - - - ( 17 ) ,
公式(17)中,k表示邻域的半径,对于经过像素点(x,y)的垂直裁剪线路径按照上述裁剪函数不断更新,而水平裁剪线的定义同垂直裁剪线;
(7)、选择最小能量的裁剪线,通过回溯找到从像素点(x,y)到(x-1)的路径,最终将像素点进行移除,删除后如果视频帧满足指定尺寸,则对下一个视频帧进行如步骤(1)、(2)、(3)、(4)、(5)、(6)和(7)操作,否则返回到(2),更新能量图;
在压缩视频帧时,可以从裁剪水平方向和垂直方向出发,因此对于裁剪顺序,定义一个最优化公式如公式(18)所示:
m i n s x , s y , &alpha; &Sigma; i = 1 k E ( &alpha; i s i x + ( 1 - &alpha; i ) s i y ) - - - ( 18 ) ,
公式(18)中,k=r+c,r=(m-m′),c=(n-n′),αi是一个决定因子,决定移除水平还是垂直的像素点,αi∈{0,1},
在裁剪过程中,根据能量函数E,同时有水平与垂直的线供选择,那么就可以根据计算垂直裁剪线和水平裁剪线的两条线的能量代价函数,从中选取比较小的进行移除,后面的操作依次进行。
本发明的技术方案所依据的科学原理:
图像的大小为m*n,指定压缩后的图像大小为m’*n’(其中m-m’=c,n-n’=r,c>0,r>0)。通过压缩图像的行信息和列信息,最终达到压缩图像的目的。在图像水平方向上,寻找垂直裁剪线进行移除,裁剪的垂直线定义如下:
S x = { x i x } i = 1 m = { ( i , x ( i ) ) } i = 1 m s . t . &ForAll; i , | x ( i ) - x ( i - 1 ) &le; 1 | - - - ( 19 ) ,
X是一个向量,取值为[1,m],定义了映射函数为[1,…,m]->[1,…,m’]。上式表明对于每一行,垂直裁剪线只能取一个像素,而且必须是八连通路径上的一个像素,这样就保持了该裁剪线的单调性和连通性。从第一行到最后一行移除一个像素,就组成了一条垂直裁剪线,移除像素后,相应的像素向上或者向左移动,图像压缩的目的就达到了。同样的,有一个关于y的映射函数,Y是一个向量,取值为[1,n],定义了映射函数为[1,…,n]->[1,…,n’]。裁剪的水平线定义如下:
S y = { s j y } j = 1 n = { ( j , y ( j ) ) } j = 1 n s . t . &ForAll; j , | y ( j ) - y ( j - 1 ) &le; 1 | - - - ( 20 ) ,
裁剪线s路径上的每个像素如垂直裁剪线{si}的能量表示为当移除图像的一行或者一列之后,即移除裁剪线后,图像的所有其他像素都全部向左或者向上移动,从而替代这条消失的路径。由于这条裁剪线关注度不高,所以当图像的剩余部分聚合在一起时,图像内容基本不会改变。因此,可以定义一条裁剪线的代价函数为这样我们就寻找一条代价最小的裁剪线:
s * = m i n s E ( s ) = m i n &Sigma; i = 1 m e ( I ( s i ) ) - - - ( 21 ) .
本发明提供了一种基于运动感知的静态背景视频压缩算法,分别采用边缘检测算法和显著性区域检测方法计算能量图,保存视频帧主体的完整性;根据背景建模,检测运动目标,从而运用时空信息,避免视频抖动;考虑移除像素的影响,制定新的裁剪标准,计算裁剪函数,保持边缘连续。最终移除低能量的像素,使视频帧满足指定尺寸,最后在压缩的视频中依然保存着主体信息,视频帧边缘连续,且视频保持时空连续性。该算法计算简便,运行速度快。
本发明优点为:
本发明采用应用在图像上的线裁剪算法,根据视频中物体的边缘信息、显著性信息、运动特征和时空信息,对视频进行压缩。本发明兼有快速存储和保留视频主体信息且边缘连续的优点,压缩的视频没有抖动现象,保持时空连续性,且没有任何优化和复杂迭代运算,计算速度迅速,压缩效果好。
附图说明
图1为本发明算法流程图。
具体实施方式
参见图1所示,基于运动感知的静态背景视频压缩算法,包括以下步骤:
(1)、选取静态背景视频,输入视频帧,导入每一个视频帧对其进行线裁剪;
(2)、对视频帧进行边缘检测处理,得到该视频帧的梯度图,计算过程如下:
视频帧记为I,对I的水平方向和垂直方向分别求其偏导,两者线性累加后得到该视频帧的梯度图,它反映了视频帧的结构化信息,如公式(1)所示:
e 1 ( I ( x , y ) ) = | &part; &part; x I ( x , y ) | + | &part; &part; y I ( x , y ) | - - - ( 1 ) ;
其中e1(I(x,y))表示的是视频帧I(x,y)得到的梯度图,(x,y)为图I中的一点,x代表点的横坐标,y为点的纵坐标。
(3)、对视频帧的显著性区域进行检测,使用全局对比度的显著性检测方法,保留视频帧的显著性目标信息,处理过程如下:
A.使用直方图统计对视频帧的颜色信息进行量化,在全色彩空间中将每个颜色通道量化为12个不同的值,考虑到视频帧中的颜色只占据整个色彩空间很小一部分,将出现频率较小的颜色丢掉以减少色彩数目;选择高频出现的颜色,并确保这些颜色覆盖95%以上的像素;
B.使用基于图的图像分割方法将视频帧分割成若干区域,为每个区域建立颜色直方图,对每个区域ri,通过测量它与视频帧其它区域的颜色对比度来计算它的显著性值,计算公式如公式(2)所示:
S ( r i ) = &Sigma; r i &NotEqual; r j w ( r j ) D ( r i , r j ) - - - ( 2 ) ,
公式(2)中,S(ri)是区域ri的显著值,D(ri,rj)是图像区域ri和区域rj的颜色或者视差的对比度,w(rj)为区域rj的权值,即用rj里的像素数w(rj)来强调大区域的颜色对比度,D(ri,rj)的计算公式如公式(3)所示:
D ( r i , r j ) = &Sigma; i = 1 n 1 &Sigma; j = 1 n 2 f ( c 1 , i ) f ( c 2 , j ) D ( c 1 , i , c 2 , j ) - - - ( 3 ) ,
公式(3)中,f(ck,i)为第i个颜色c1,i在第k个区域rk的所有nk种颜色中出现的概率,k={1,2},这里使用区域的概率密度函数中颜色出现的概率作为权值,以强调主要的颜色之间的区别,同时使用稀疏直方图以使得存储和计算过程更加高效;
公式(3)中,D(c1,i,c2,j)是第一个区域第i个灰度级和第二个区域第j个灰度级的欧氏距离。f(c2,j)是第二个区域的第i个灰度级。
C.在公式(3)中引进空间权值,将空间信息加入进来,从而增加区域的空间影响;近邻的区域增大影响,较远的区域较小影响;最终区域ri的显著性值定义如公式(4)所示:
S ( r i ) = &Sigma; r i &NotEqual; r j exp ( - D s ( r i , r j / &sigma; s 2 ) ) w ( r j ) D ( r i , r j ) - - - ( 4 ) ,
公式(4)中,Ds(ri,rj)为区域ri和rj的空间距离,σs控制空间权值强度;σs越大,空间权值的影响越小,导致较远区域的对比度对当前区域显著性值做出较大贡献;
D.通过基于全局对比度的显著性区域检测算法,得到了该视频帧每个像素点的显著性值,从而为每个像素分配不同能量值,计算公式如公式(5)所示:
e2(I(x,y))=S(x,y) (5);
S(x,y)为显著性值。
(4)、对视频帧进行背景建模处理,使用vibe算法进行背景建模,计算运动目标,得到该视频帧的运动信息,其步骤如下:
在vibe模型中,每一个背景点都有一个样本集,从而将新的像素点和样本集进行比较,判断它是否属于背景点;如果它属于背景点,则它的值接近于样本的采样值;记v(x)为x点处的像素值;M(x)={V1,V2,…VN}为x处的背景样本集,样本集大小为N;SR(v(x))是以x为中心,R为半径的区域,如果公式(6)的值大于一个给定的阈值#min,那么就认为x点属于背景点;公式具体表现形式如下所示:
#{SR(v(x))∩{v1,v2,...,vN}} (6);
(5)、判断裁剪线是否为背景,根据判断,分别计算裁剪函数:
A.针对静态背景的视频,如果裁剪线为背景,则它的能量值包括边缘梯度信息和显著性信息;由于裁剪线不穿过该视频帧的运动目标,移除裁剪线对视频帧的影响较小,且不会造成视频的抖动,这样就有运行速度快,计算效率高的优势,否则进行B处理;
B.裁剪线经过运动区域,则需要计算连续视频帧的裁剪线在时空上的差异比较:
连续视频帧的内容十分接近,对视频帧进行裁剪时,如果裁剪线经过运动区域,视频中的内容会产生抖动现象;考虑上一帧的裁剪线放置到当前帧上,两者附近的差异程度,可获得当前帧移除裁剪线后与上一裁剪的视频帧在时空上的差异;Nx,y表示当前帧N的像素点(x,y),Px,y表示当前帧的上一视频帧的像素点,n为上一视频帧的裁剪线个数,k代表上一视频帧的某条裁剪线;i,j是水平线Y=y与两条裁剪线的交点在垂直方向上的坐标位置,x为交点之间的像素的垂直坐标;假设i<x<j。视频帧的时空差异如公式(7)所示:
e 3 ( I ( x , y ) ) = &Sigma; k = 1 n | | &Sigma; x = i + 1 j N x , y - &Sigma; x = i j - 1 P x , y | | - - - ( 7 ) ;
(6)、采用动态规划算法,根据边缘检测、显著性区域检测以及背景建模,制定裁剪标准,在能量图中引入裁剪线差异比较,计算裁剪函数,
为了找到最优的裁剪线,采用动态规划算法,对每个可能裁剪的像素点(x,y)计算,并累计最小能量M,如公式(8)所示:
M(x,y)=e(x,y)+min(Ml,Mu,Mr) (8),
其中:
M l = M ( x - 1 , y - 1 ) M u = M ( x - 1 , y ) M r = M ( x - 1 , y + 1 ) - - - ( 9 ) ,
公式(8)、(9)中,e(x,y)为像素(x,y)的能量,Ml、Mu和Mr为动态规划中裁剪备选路径的累计能量;
裁剪函数计算过程如下步骤:
A.视频帧的物体特征包括梯度信息,显著性信息、运动信息和时空信息,它们共同组成了该像素的能量;e1(I(x,y))表示梯度信息的能量,e2(I(x,y))代表显著性信息,而通过判断像素(x,y)是否为背景,来估计运动信息,e3(I(x,y))表示时空相关性的能量,则像素(x,y)的能量e(x,y)如公式(10)所示:
e ( x , y ) = e 1 ( I ( x , y ) ) + e 2 ( I ( x , y ) ) I ( x , y ) = 0 e 1 ( I ( x , y ) ) + e 2 ( I ( x , y ) ) + e 3 ( I ( x , y ) ) o t h e r w i s e - - - ( 10 ) ,
B.在视频帧中移除裁剪线时,在以该像素点(x,y)为中心的邻域,引入了新的像素点,对视频帧原有的边缘造成破坏,从而造成边缘畸变。计算引入边缘改变的能量代价如公式(11)所示:
M l = M ( x - 1 , y - 1 ) + C l ( x , y ) M u = M ( x - 1 , y ) + C u ( x , y ) M r = M ( x - 1 , y + 1 ) + C r ( x , y ) - - - ( 11 ) ,
公式(11)中,Cl、Cu和Cr分别表示裁剪线路径是从该像素的左上方、正上方和右上方开始的,移除原有的像素点,引入新像素点,从而带来边缘改变的代价函数如公式(12)所示:
C l ( x , y ) = v l - v l n e w C u ( x , y ) = v u - v u n e w C r ( x , y ) = v r - v r n e w , - - - ( 12 ) ,
其中:
v l = 1 N &Sigma; ( i , j ) &Element; B ( x , y ) | I ( i , j ) - &mu; ( x , y ) | 2 - - - ( 13 ) ,
&mu; ( x , y ) = 1 N &Sigma; ( i , j ) &Element; B ( x , y ) I ( i , j ) - - - ( 14 ) ,
v l n e w = 1 N &Sigma; ( i , j ) &Element; B ( x , y ) | I ( i , j ) + &Delta;I a ( x , y ) - &mu; a n e w ( x , y ) | 2 - - - ( 15 ) ,
&mu; a n e w ( x , y ) = 1 N &Sigma; ( i , j ) &Element; B ( x , y ) ( I ( i , j ) + &Delta;I a ( x , y ) ) - - - ( 16 ) ,
其中,u(x,y)表示点(x,y)的视差值,B(x,y)为点(x,y)邻域,N表示取邻域平均值,N一般取值是9。Cu(x,y)和Cr(x,y)的计算方式同公式(13)-公式(16),ΔI(x,y)的计算过程如公式(17)所示:
&Delta;I l ( x , y ) = | I ( x - 1 , y + k + 1 ) - I ( x - 1 , y - 1 ) + | I ( x , y + k + 1 ) - I ( x , y ) | &Delta;I u ( x , y ) = | I ( x - 1 , y + k + 1 ) - I ( x - 1 , y ) + | I ( x , y + k + 1 ) - I ( x , y ) | &Delta;I r ( x , y ) = | I ( x - 1 , y + k + 1 ) - I ( x - 1 , y + 1 ) + | I ( x , y + k + 1 ) - I ( x , y ) | - - - ( 17 ) ,
公式(17)中,k表示邻域的半径,对于经过像素点(x,y)的垂直裁剪线路径按照上述裁剪函数不断更新,而水平裁剪线的定义同垂直裁剪线;
(7)、选择最小能量的裁剪线,通过回溯找到从像素点(x,y)到(x-1)的路径,最终将像素点进行移除,删除后如果视频帧满足指定尺寸,则对下一个视频帧进行如步骤(1)、(2)、(3)、(4)、(5)、(6)和(7)操作,否则返回到(2),更新能量图;
在压缩视频帧时,可以从裁剪水平方向和垂直方向出发,因此对于裁剪顺序,定义一个最优化公式如公式(18)所示:
m i n s x , s y , &alpha; &Sigma; i = 1 k E ( &alpha; i s i x + ( 1 - &alpha; i ) s i y ) - - - ( 18 ) ,
公式(18)中,k=r+c,r=(m-m′),c=(n-n′),αi是一个决定因子,决定移除水平还是垂直的像素点,αi∈{0,1},在裁剪过程中,根据能量函数E,同时有水平与垂直的线供选择,那么就可以根据计算垂直裁剪线和水平裁剪线的两条线的能量代价函数,从中选取比较小的进行移除,后面的操作依次进行。

Claims (1)

1.基于运动感知的静态背景视频压缩算法,其特征在于:包括以下步骤:
(1)、选取静态背景视频,输入视频帧,导入每一个视频帧对其进行线裁剪;
(2)、对视频帧进行边缘检测处理,得到该视频帧的梯度图,计算过程如下:
视频帧记为I,对I的水平方向和垂直方向分别求其偏导,两者线性累加后得到该视频帧的梯度图,它反映了视频帧的结构化信息,如公式(1)所示:
e 1 ( I ( x , y ) ) = | &part; &part; x I ( x , y ) | + | &part; &part; y I ( x , y ) | - - - ( 1 ) ;
其中e1(I(x,y))表示的是视频帧I(x,y)得到的梯度图,(x,y)为图I中的一点,x代表点的横坐标,y为点的纵坐标;
(3)、对视频帧的显著性区域进行检测,使用全局对比度的显著性检测方法,保留视频帧的显著性目标信息,处理过程如下:
A.使用直方图统计对视频帧的颜色信息进行量化,在全色彩空间中将每个颜色通道量化为12个不同的值,考虑到视频帧中的颜色只占据整个色彩空间很小一部分,将出现频率较小的颜色丢掉以减少色彩数目;选择高频出现的颜色,并确保这些颜色覆盖95%以上的像素;
B.使用基于图的图像分割方法将视频帧分割成若干区域,为每个区域建立颜色直方图,对每个区域ri,通过测量它与视频帧其它区域的颜色对比度来计算它的显著性值,计算公式如公式(2)所示:
S ( r i ) = &Sigma; r i &NotEqual; r j w ( r j ) D ( r i , r j ) - - - ( 2 ) ,
公式(2)中,S(ri)是区域ri的显著值,D(ri,rj)是图像区域ri和区域rj的颜色或者视差的对比度,w(rj)为区域rj的权值,即用rj里的像素数w(rj)来强调大区域的颜色对比度,D(ri,rj)的计算公式如公式(3)所示:
D ( r i , r j ) = &Sigma; i = 1 n 1 &Sigma; j = 1 n 2 f ( c 1 , i ) f ( c 2 , j ) D ( c 1 , i , c 2 , j ) - - - ( 3 ) ,
公式(3)中,f(ck,i)为第i个颜色c1,i在第k个区域rk的所有nk种颜色中出现的概率,k={1,2},这里使用区域的概率密度函数中颜色出现的概率作为权值,以强调主要的颜色之间的区别,同时使用稀疏直方图以使得存储和计算过程更加高效;D(c1,i,c2,j)是第一个区域第i个灰度级和第二个区域第j个灰度级的欧氏距离。f(c2,j)是第二个区域的第i个灰度级;
C.在公式(3)中引进空间权值,将空间信息加入进来,从而增加区域的空间影响;近邻的区域增大影响,较远的区域较小影响;最终区域ri的显著性值定义如公式(4)所示:
S ( r i ) = &Sigma; r i &NotEqual; r j exp ( - D s ( r i , r j / &sigma; s 2 ) ) w ( r j ) D ( r i , r j ) - - - ( 4 ) ,
公式(4)中,Ds(ri,rj)为区域ri和rj的空间距离,σs控制空间权值强度;σs越大,空间权值的影响越小,导致较远区域的对比度对当前区域显著性值做出较大贡献;
D.通过基于全局对比度的显著性区域检测算法,得到了该视频帧每个像素点的显著性值,从而为每个像素分配不同能量值,计算公式如公式(5)所示:
e2(I(x,y))=S(x,y) (5);
S(x,y)为显著性值;
(4)、对视频帧进行背景建模处理,使用vibe算法进行背景建模,计算运动目标,得到该视频帧的运动信息,其步骤如下:
在vibe模型中,每一个背景点都有一个样本集,从而将新的像素点和样本集进行比较,判断它是否属于背景点;如果它属于背景点,则它的值接近于样本的采样值;记v(x)为x点处的像素值;M(x)={V1,V2,…VN}为x处的背景样本集,样本集大小为N;SR(v(x))为以x为中心,R为半径的区域,如果公式(6)的值大于一个给定的阈值#min,那么就认为x点属于背景点;公式具体表现形式如下所示:
#{SR(v(x))∩{v1,v2,...,vN}} (6);
(5)、判断裁剪线是否为背景,根据判断,分别计算裁剪函数:
A.针对静态背景的视频,如果裁剪线为背景,则它的能量值包括边缘梯度信息和显著性信息;由于裁剪线不穿过该视频帧的运动目标,移除裁剪线对视频帧的影响较小,且不会造成视频的抖动,这样就有运行速度快,计算效率高的优势,否则进行B处理;
B.裁剪线经过运动区域,则需要计算连续视频帧的裁剪线在时空上的差异比较:
连续视频帧的内容十分接近,对视频帧进行裁剪时,如果裁剪线经过运动区域,视频中的内容会产生抖动现象;考虑上一帧的裁剪线放置到当前帧上,两者附近的差异程度,可获得当前帧移除裁剪线后与上一裁剪的视频帧在时空上的差异;Nx,y表示当前帧N的像素点(x,y),Px,y表示当前帧的上一视频帧的像素点,n为上一视频帧的裁剪线个数,k代表上一视频帧的某条裁剪线;i,j是水平线Y=y与两条裁剪线的交点在垂直方向上的坐标位置,x为交点之间的像素的垂直坐标;假设i<x<j。视频帧的时空差异如公式(7)所示:
e 3 ( I ( x , y ) ) = &Sigma; k = 1 n | | &Sigma; x = i + 1 j N x , y - &Sigma; x = i j - 1 P x , y | | - - - ( 7 ) ;
(6)、采用动态规划算法,根据边缘检测、显著性区域检测以及背景建模,制定裁剪标准,在能量图中引入裁剪线差异比较,计算裁剪函数,
为了找到最优的裁剪线,采用动态规划算法,对每个可能裁剪的像素点(x,y)计算,并累计最小能量M,如公式(8)所示:
M(x,y)=e(x,y)+min(Ml,Mu,Mr) (8),
其中:
M l = M ( x - 1 , y - 1 ) M u = M ( x - 1 , y ) M r = M ( x - 1 , y + 1 ) - - - ( 9 ) ,
公式(8)、(9)中,e(x,y)为像素(x,y)的能量,Ml、Mu和Mr为动态规划中裁剪备选路径的累计能量;
裁剪函数计算过程如下步骤:
A.视频帧的物体特征包括梯度信息,显著性信息、运动信息和时空信息,它们共同组成了该像素的能量;e1(I(x,y))表示梯度信息的能量,e2(I(x,y))代表显著性信息,而通过判断像素(x,y)是否为背景,来估计运动信息,e3(I(x,y))表示时空相关性的能量,则像素(x,y)的能量e(x,y)如公式(10)所示:
e ( x , y ) = e 1 ( I ( x , y ) ) + e 2 ( I ( x , y ) ) I ( x , y ) = 0 e 1 ( I ( x , y ) ) + e 2 ( I ( x , y ) ) + e 3 ( I ( x , y ) ) o t h e r w i s e - - - ( 10 ) ,
B.在视频帧中移除裁剪线时,在以该像素点(x,y)为中心的邻域,引入了新的像素点,对视频帧原有的边缘造成破坏,从而造成边缘畸变。计算引入边缘改变的能量代价如公式(11)所示:
M l = M ( x - 1 , y - 1 ) + C l ( x , y ) M u = M ( x - 1 , y ) + C u ( x , y ) M r = M ( x - 1 , y + 1 ) + C r ( x , y ) - - - ( 11 ) ,
公式(11)中,Cl、Cu和Cr分别表示裁剪线路径是从该像素的左上方、正上方和右上方开始的,移除原有的像素点,引入新像素点,从而带来边缘改变的代价函数如公式(12)所示:
C l ( x , y ) = v l - v l n e w , C u ( x , y ) = v u - v u n e w , C r ( x , y ) = v r - v r n e w - - - ( 12 ) ,
其中:
v l = 1 N &Sigma; ( i , j ) &Element; B ( x , y ) | I ( i , j ) - &mu; ( x , y ) | 2 - - - ( 13 ) ,
&mu; ( x , y ) = 1 N &Sigma; ( i , j ) &Element; B ( x , y ) I ( i , j ) - - - ( 14 ) ,
v l n e w = 1 N &Sigma; ( i , j ) &Element; B ( x , y ) | I ( i , j ) + &Delta;I a ( x , y ) - &mu; a n e w ( x , y ) | 2 - - - ( 15 ) ,
&mu; a n e w ( x , y ) = 1 N &Sigma; ( i , j ) &Element; B ( x , y ) ( I ( i , j ) + &Delta;I a ( x , y ) ) - - - ( 16 ) ,
其中,u(x,y)表示点(x,y)的视差值,B(x,y)为点(x,y)邻域,N表示取邻域平均值,N一般取值是9;Cu(x,y)和Cr(x,y)的计算方式同公式(13)-公式(16),ΔI(x,y)的计算过程如公式(17)所示:
&Delta;I l ( x , y ) = | I ( x - 1 , y + k + 1 ) - I ( x - 1 , y - 1 ) | + | I ( x , y + k + 1 ) - I ( x , y ) | &Delta;I u ( x , y ) = | I ( x - 1 , y + k + 1 ) - I ( x - 1 , y ) | + | I ( x , y + k + 1 ) - I ( x , y ) | &Delta;I r ( x , y ) = | I ( x - 1 , y + k + 1 ) - I ( x - 1 , y + 1 ) | + | I ( x , y + k + 1 ) - I ( x , y ) | - - - ( 17 ) ,
公式(17)中,k表示邻域的半径,对于经过像素点(x,y)的垂直裁剪线路径按照上述裁剪函数不断更新,而水平裁剪线的定义同垂直裁剪线;
(7)、选择最小能量的裁剪线,通过回溯找到从像素点(x,y)到(x-1)的路径,最终将像素点进行移除,删除后如果视频帧满足指定尺寸,则对下一个视频帧进行如步骤(1)、(2)、(3)、(4)、(5)、(6)和(7)操作,否则返回到(2),更新能量图;
在压缩视频帧时,可以从裁剪水平方向和垂直方向出发,因此对于裁剪顺序,定义一个最优化公式如公式(18)所示:
m i n s x , s y , &alpha; &Sigma; i = 1 k E ( &alpha; i s i x + ( 1 - &alpha; i ) s i y ) - - - ( 18 ) ,
公式(18)中,k=r+c,r=(m-m′),c=(n-n′),αi是一个决定因子,决定移除水平还是垂直的像素点,αi∈{0,1},在裁剪过程中,根据能量函数E,同时有水平与垂直的线供选择,那么就可以根据计算垂直裁剪线和水平裁剪线的两条线的能量代价函数,从中选取比较小的进行移除,后面的操作依次进行。
CN201610145209.6A 2016-03-14 2016-03-14 基于运动感知的静态背景视频压缩算法 Pending CN105959707A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201610145209.6A CN105959707A (zh) 2016-03-14 2016-03-14 基于运动感知的静态背景视频压缩算法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610145209.6A CN105959707A (zh) 2016-03-14 2016-03-14 基于运动感知的静态背景视频压缩算法

Publications (1)

Publication Number Publication Date
CN105959707A true CN105959707A (zh) 2016-09-21

Family

ID=56917518

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610145209.6A Pending CN105959707A (zh) 2016-03-14 2016-03-14 基于运动感知的静态背景视频压缩算法

Country Status (1)

Country Link
CN (1) CN105959707A (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018223370A1 (zh) * 2017-06-09 2018-12-13 深圳大学 一种基于时空约束的视频显著性检测方法及系统
CN112291564A (zh) * 2020-11-20 2021-01-29 西安邮电大学 优化监控视频感知质量的hevc帧内码率控制方法
CN112804444A (zh) * 2020-12-30 2021-05-14 影石创新科技股份有限公司 一种视频处理方法、装置、计算设备及存储介质
CN115049968A (zh) * 2022-08-12 2022-09-13 武汉东信同邦信息技术有限公司 动态规划视频自动裁剪方法、装置、设备及存储介质

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018223370A1 (zh) * 2017-06-09 2018-12-13 深圳大学 一种基于时空约束的视频显著性检测方法及系统
CN112291564A (zh) * 2020-11-20 2021-01-29 西安邮电大学 优化监控视频感知质量的hevc帧内码率控制方法
CN112291564B (zh) * 2020-11-20 2021-09-14 西安邮电大学 优化监控视频感知质量的hevc帧内码率控制方法
CN112804444A (zh) * 2020-12-30 2021-05-14 影石创新科技股份有限公司 一种视频处理方法、装置、计算设备及存储介质
CN115049968A (zh) * 2022-08-12 2022-09-13 武汉东信同邦信息技术有限公司 动态规划视频自动裁剪方法、装置、设备及存储介质
CN115049968B (zh) * 2022-08-12 2022-11-11 武汉东信同邦信息技术有限公司 动态规划视频自动裁剪方法、装置、设备及存储介质

Similar Documents

Publication Publication Date Title
Wang et al. Robust unsupervised video anomaly detection by multipath frame prediction
CN112232349B (zh) 模型训练方法、图像分割方法及装置
CN109977812B (zh) 一种基于深度学习的车载视频目标检测方法
CN109670446B (zh) 基于线性动态系统和深度网络的异常行为检测方法
EP3291558B1 (en) Video coding and decoding methods and apparatus
CN110210475B (zh) 一种非二值化和边缘检测的车牌字符图像分割方法
CN101470809B (zh) 一种基于扩展混合高斯模型的运动目标检测方法
CN110263712B (zh) 一种基于区域候选的粗精行人检测方法
CN105959707A (zh) 基于运动感知的静态背景视频压缩算法
CN103546667A (zh) 一种面向海量广播电视监管的自动新闻拆条方法
Wang et al. Robust object detection via instance-level temporal cycle confusion
CN114170570A (zh) 一种适用于拥挤场景下的行人检测方法及系统
CN113569756A (zh) 异常行为检测与定位方法、系统、终端设备及可读存储介质
Ji et al. Tam-net: Temporal enhanced appearance-to-motion generative network for video anomaly detection
CN110503049B (zh) 基于生成对抗网络的卫星视频车辆数目估计方法
CN115527276A (zh) 基于面部光流场与纹理特性融合的深伪视频检测方法
CN108921147B (zh) 一种基于动态纹理和变换域时空特征的黑烟车识别方法
CN111540171A (zh) 疲劳驾驶预警系统、相应的预警方法及构建方法
Cheng et al. Semantic segmentation for pedestrian detection from motion in temporal domain
Leyva et al. Video anomaly detection based on wake motion descriptors and perspective grids
CN102938153A (zh) 基于约束谱聚类和马尔科夫随机场的视频图像分割方法
CN107832732A (zh) 基于三叉树遍历的车道线检测方法
CN116524432A (zh) 一种小目标检测算法在交通监控中的应用
CN114612506B (zh) 一种简易高效抗干扰的高空抛物轨迹识别与定位方法
CN116092058A (zh) 基于视线方向对比学习的驾驶员分心行为检测方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20160921