CN112752102A - 一种基于视觉显著性的视频码率分配方法 - Google Patents

一种基于视觉显著性的视频码率分配方法 Download PDF

Info

Publication number
CN112752102A
CN112752102A CN201911053402.7A CN201911053402A CN112752102A CN 112752102 A CN112752102 A CN 112752102A CN 201911053402 A CN201911053402 A CN 201911053402A CN 112752102 A CN112752102 A CN 112752102A
Authority
CN
China
Prior art keywords
code rate
saliency
significance
weight
ctu
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201911053402.7A
Other languages
English (en)
Other versions
CN112752102B (zh
Inventor
李源
贾惠柱
向国庆
古忠文
解晓东
高文
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Peking University
Original Assignee
Peking University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Peking University filed Critical Peking University
Priority to CN201911053402.7A priority Critical patent/CN112752102B/zh
Publication of CN112752102A publication Critical patent/CN112752102A/zh
Application granted granted Critical
Publication of CN112752102B publication Critical patent/CN112752102B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/146Data rate or code amount at the encoder output
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/266Channel or content management, e.g. generation and management of keys and entitlement messages in a conditional access system, merging a VOD unicast channel into a multicast channel
    • H04N21/2662Controlling the complexity of the video stream, e.g. by scaling the resolution or bitrate of the video stream based on the client capabilities

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Databases & Information Systems (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

本发明公布了一种基于视觉显著性的视频码率分配方法,建立时域相关性的视觉显著性模型;采用基于显著性的码率分配算法和基于显著性区域质量一致性的窗口权重平滑算法,得到调整后的显著性权重;再根据调整后的显著性权重指导CTU级码率分配算法,由此实现视频码率分配。本发明提供的技术方案充分考虑人眼视觉机制以及显着性区域的质量一致性,能够在视频中检测出人眼关注的区域并且加入了显著性区域的连续性,最终在码率分配上依照显著性权重分配码率使得有效地提升显著性区域质量和提升主观质量。

Description

一种基于视觉显著性的视频码率分配方法
技术领域
本发明属于图像、视频编码技术领域,涉及视频编码的码率分配技术,尤其涉及一种基于视觉显著性的视频码率分配方法。
背景技术
码率控制是视频编码中的一项关键技术,主要负责工作为在有限的带宽下,尽可能的利用带宽大小去适应压缩视频质量,在传输压缩编码视频的时候,必须要考虑两个问题,视频质量和传输带宽,如果带宽大,需要尽可能传输质量更好的视频;如果带宽低,则需要提高压缩比,减小码流。与此同时,我们希望尽可能的得到高清晰的还原图像,所以在能接受的视频质量范围内对视频尽可能的压缩来提高带宽利用率。码率控制亦可细分为码率分配和码率控制;码率分配采用分层结构的方式依照GOP级、帧级、CTU级分配,其码率控制负责控制已分配完的码率,进行视频压缩,句柄率是否符合带宽的限制。目前主流的码率分配模型中对CTU级码率分配采用平均绝对差(MAD)的方法,是依照对于CTU中的原始像素和预测像素的残差决定MAD的大小,然而这种优化方法可能忽略了人类视觉感知的一些重要特征,比如视频中的背景树木、草地,并不是人眼所关注的内容,但这些背景区域往往会使得码率分配过高,导致人眼感兴趣区域的失真增加和主观质量下降等影响。
文献[1]中记载的方法,藉由视觉显著性算法指导RDO求解帧级的拉格朗日乘子,从而控制帧级的码率分配,并在原有码率分配模型上建立显著性算法指导CTUs级目标码率分配。但是,该方法只考虑了当前帧的码率分配,并未考虑到帧间的相关性,建立在利用复杂度和显著性权重平均的码率分配算法上,并未能完全反映人眼视觉注意特征。
参考文献:
[1]L.Bai,L.Song,R.Xie,J.Xie,and M.Chen,“Saliency based rate controlscheme for high efficiency video coding,”Asia-Pacific Signal and InformationProcessing Association Annual Summit and Conference(APSIPA),Jeju,South Korea,pp.1–6,Dec.2016
[2]D.Sun,S.Roth,and M.Black,“Secrets of optical flow estimation andtheir principles,”IEEE Conference on Computer Vision and Pattern Recognition(CVPR),San Francisco,CA,USA,pp. 2432-2439,Jun.2010.
[3]L.Zhang,L.Zhang,X.Mou,and D.Zhang,“FSIM:a feature similarity indexfor image quality assessment,”IEEE Trans on Image Processing(TIP),vol.20,no.8,pp.2378-2386,Jan.2011.
[4]A.R.Robertson,“The CIE 1976color-difference formulae,”ColorRes.Appl.,vol.2,no.1, pp.7–11,Spring 1977.
[5]B.Li,H.Li,L.Li,and J.Zhang,“Rate control by R-lambda model forHEVC”.Proceedings of the 11th JCTVC Meeting[C].2012.
发明内容
为了克服上述现有技术的不足,本发明提供一种基于视觉显著性的码率分配方法,是一种反映人眼注意力特征的码率分配算法。首先提出一种改进的视觉显著性检测算法,将时域关联性引入二维视觉注意模型中。其次提出了一种基于视觉显著性的CTU级码率分配算法。同时考虑显著性区域间的质量一致性,提出了一种基于窗口的权重平滑模型,以获得更好的主观质量。本发明主要解决在码率分配有限带宽下,由于主流的码率分配模型是依照每个CTUs 的MAD大小来分配码率,并未能反映人眼视觉特征,藉由本发明的码率分配算法能够在现有的码率资源下,分配于人眼所关注的区域,进而提升其主观质量。
本发明包括的缩略语和关键术语定义如下:
SAs:Saliency Areas(显著性区域)
MAD:Mean Absolute Difference(平均绝对差)
CTU:Coding Tree Unit(编码树单元),视频的每一帧包含了多个CTU
GOP:Ground of picture(图像组)
HVS:Human Visual System(人眼视觉系统)
RDO:Rate Distortion Optimization(率失真优化)。
本发明方法针对待处理的视频,引入时域相关性的视觉显著性模型、基于显著性的码率分配算法和考虑显著性区域质量一致性的窗口权重平滑算法。视频序列输入后,通过建立视觉显著性模型提取显著性区域,利用显著性区域的权重采用质量平滑算法平滑调整后的显著性权重,最后由调整后的显著性权重指导CTU级码率分配算法。现有方法只提取色度及纹理信息,而本发明考虑了视频的特性,增加了动量特征,并使用光流算法提取得到动量特征。
本发明提供的技术方案是:
一种基于视觉显著性的视频码率分配方法,建立时域相关性的视觉显著性模型,采用基于显著性的码率分配算法和考虑显著性区域质量一致性的窗口权重平滑算法,采用调整后的显著性权重指导CTU级码率分配算法,由此进行基于视觉显著性的视频码率分配;包括如下步骤:
1)建立视觉显著性模型,包括对于静态特征和动态特征的提取模型,得到视频的视觉显著值;
HVS所关注的区域包括HVS对于静态的注意力特征和HVS的动态特征;本发明从这两种特征中提取视频中人眼所关注的区域,需要通过改进视觉显著性模型进而指导视频编码。
基于传统的视觉显著性模型是建立于图像上的特征提取,对于纹理和色度对比来提取视觉显着区域,这些特征仅限于当前帧上,但应用于视频序列中,还需要考虑到当前帧和下一帧的关系。
对于帧间特征信息,基于当前帧与下一帧的连续关系,本发明采用光流算法提取动量特征,通过公式(1)进行计算:
Sfinal=Scolor·ωcolor+Stex·ωtex+finter·g·ωinter (1)
Figure BDA0002255913110000031
其中,Sfinal为得到的显著值;finter(u,v)表示当前帧与下一帧的光流特征值((动态特征)),其中u和v表示为当前帧fcur和下一帧fnext估计的水平和垂直光流场,i和j代表像素位置,λ是调节参数,ρD和ρS表示为数据和空间的惩罚函数,相关细节可参考文献[2],Sfinal表示为最终像素显著值,Scolor和Stex为色度及纹理的显著值,相关细节可参考文献[3]-[4],ωcolor、ωtex和ωinter代表色度、纹理、帧间的权重,g为滤波转换函数。
2)采用显著性区域质量一致的窗口平滑算法,基于相邻帧之间的关联性,将步骤1)得到的当前帧的像素显著值依照CTU的尺寸大小转化为若干个CTU尺寸的显著值,再通过归一化转换为显著性权重,最后通过平滑调整后得到平滑后的显着性权重;本发明具体实施时,将得到的当前帧的像素显著值依照CTU尺寸为64×64大小的尺寸累加,形成一块64×64的CTU的像素显著值总和。
对于人眼感知来说,虽然每个CTU都需要良好的视频编码质量,考虑到HVS的主观质量,对于相邻帧之间的同一位置的CTU也应该强调质量一致性。除此之外,需要考虑相邻帧之间显著性区域SAs的CTUs编码视觉质量一致性,时域上相邻的显著性区域一般更容易引起人眼的视觉注意,因此,需要考虑到这些区域的主观质量一致性,获得更好的主观压缩性能。
为了减少这些相邻帧之间SAs的CTUs的主观质量差异,在考虑SAs连续性的基础上,本发明建立基于窗口的权重平滑模型。具体如下:
将窗口大小定义为M,对于当前帧中的CTU,其最终显著性权重受未来帧的CTUs的影响大,公式(2)分别表示每一个CTU的显著性权重以及经平滑调整后的最终显著性权重:
Figure BDA0002255913110000041
Figure BDA0002255913110000042
其中,SwCTU为每一个CTU的显著性权重,其
Figure BDA0002255913110000043
为最终每一个像素的显著值,(i,j) 为像素的坐标位置,NCTU为CTU内的像素个数总合,
Figure BDA0002255913110000044
表示为最终调整于码率分配的权重,其中k是当前帧的位置号,m是未来帧的位置号,M为平滑窗口大小,f是未来帧对当前帧相对位置的权重,表达意思为对当前帧的CTUs相隔帧距离越近则值越大,越远则越小,根据实验结果可将其f分别设置为1、0.75、0.5、0.25。
3)通过步骤2)得到的平滑后的显著性权重,采用基于显著性的码率分配算法,进行 CTU级码率分配;
利用上述的方法得到最终显著性权重(平滑后的显著性权重),可以通过平滑后的显著性权重维持SAs区域的主观质量一致性,再通过编码器中的码率分配给SAs,显著区域是人眼所关注的区域,可表示为感知敏感区域,对这区域的失真较为敏感,对SAs需分配较多码率;反之感知不敏感区域(即除显著区域之外的区域)可容许较大的失真,码率则可以分配较少;基于显著性权重的CTU级码率分配表示为公式(3):
Figure BDA0002255913110000045
其中,
Figure BDA0002255913110000046
为当前CTU的目标码率,TcurPic为当前帧分配码率,CodedPic为已编码的码率,
Figure BDA0002255913110000047
为当前帧分配的码率扣掉已编码的码率为当前帧剩余的码率表示为可应用的码率,具体可采用现有方法取得,可参考文献[5],
Figure BDA0002255913110000048
表示为平滑后的显著性权重,从上式中可得知显著权重越大则分配码率则越多。
通过上述步骤,实现基于视觉显著性的视频码率分配。
与现有技术相比,本发明的有益效果是:
本发明技术方案充分考虑了人眼视觉机制以及显着性区域的质量一致性,能够在视频中检测出人眼关注的区域并且加入了显著性区域的连续性,最终在码率分配上依照显著性权重分配码率使得有效地提升显著性区域质量和提升主观质量。
1)采用基于时域连续性的视觉显著性检测算法,考虑了当前帧的基本特征外并加入了下一帧相关性,即采用时域连续性视觉检测性方案;
2)考虑了显著性区域的质量一致性,提出了基于窗口的显著性权重平滑算法,以助于提升显著性区域主观质量的一致性。
附图说明
图1为本发明提供的基于视觉显著性的码率分配方法的流程框图。
图2是本发明实施例中的视觉显著性图。
图3是本发明实施例中当前帧与下一帧的显著示意图。
图4是本发明实施例中进行权重平滑的示意图。
具体实施方式
下面结合附图,通过实施例进一步描述本发明,但不以任何方式限制本发明的范围。
本发明提供一种基于视觉显著性的码率分配方法,建立时域相关性的视觉显著性模型,采用基于显著性的码率分配算法和考虑显著性区域质量一致性的窗口权重平滑算法,采用调整后的显著性权重指导CTU级码率分配算法,由此进行基于视觉显著性的码率分配。
本发明方法主要流程如图1所示。从图1可以看到。视频序列输入后,透过视觉显著性模型提取显著性区域即P1,在P2中引用显著性区域的权重进行质量平滑算法,最后由P3把调整后的显著性权重指导CTU级码率分配算法(每帧包含若干个CTU)。
具体实施时,对于动作场景多、色度对比较大的视频数据,采用本发明基于视觉显著性的码率分配方法进行码率分配,包括如下步骤:
1)建立视觉显著性模型
本发明可分为对静态特征提取和动态特征提取,并针对提取的特征建立视觉显著性模型, HVS所关注的区域大多数为与背景区域有着色度强烈对比的,而背景区域多半为色度对比较为单调且连续的面积,并不是人眼会特别留意的区域,此特性为HVS对于静态的注意力特征,另外,视频序列是因为人眼视觉疲乏的特性,对于高刷新率的图形,就像连续移动的物体一样,吸引人眼注意的往往是视频中动量较大的内容,对背景的注意度并没有特别留意,反之动量较大的区域较能吸引人眼注意,此特性可表示为HVS的动态特征,本发明从这两种特征中提取视频中人眼所关注的区域。为此我们需要改进视觉显著性模型进而指导视频编码。
基于传统的视觉显著性模型是建立于图像上的特征提取,对于纹理和色度对比来提取视觉显著区域,这些特征仅限于当前帧上,但应用于视频序列中,还需要考虑到当前帧和下一帧的关系,对此整体结构为图2所示。
对于帧间特征信息,基于当前帧与下一帧的连续关系,本发明采用光流算法提取动量特征,计算表示如公式(1)所示:
finter(u,v)=∑i,jD(fcur(i,j)-fnext(i+ui,j,j+vi,j))+λ[ρS(ui,j-ui+1,j)+
ρs(ui,j-ui,j+1)+ρs(vi,j-vi+1,j)+ρs(vi,j-vi,j+1)]}
Sfinal=Scolor·ωcolor+Stex·ωtex+finter·g·ωinter (1)
其中,finter表示为当前帧与下一帧的光流特征值,,其中u和v表示为当前帧fcur和下一帧 fnext估计的水平和垂直光流场,i和j代表像素位置,λ是调节参数,ρD和ρS表示为数据和空间的惩罚函数,相关细节可参考文献[2],Sfinal表示为最终像素显著值,Scolor和Stex为色度及纹理的显著值,ωcolor、ωtex和ωinter代表色度、纹理、帧间的权重,g为滤波转换函数。
2)采用显著性区域质量一致的窗口平滑算法,得到平滑后的显著性权重;
透过步骤1得到的显著性权重后,考虑了相邻帧之间的关联性,对步骤1的显著性权重,依照相邻帧的距离对显著性权重进行加权平均,最后得到的结果为平滑后的显著性权重。对于人眼感知来说,虽然每个CTU都需要良好的视频编码质量,考虑到HVS的主观质量,对于相邻帧之间的同一位置的CTU也应该强调质量一致性,例如图3(a)和图3(b)所示,在测试序列 BasketballPass的当前帧和下一帧中,分别有一些标注为SAs的CTU。可以看出,在图3(b) 中,下一帧人物持球的CTUs被标记为显著性区域,但在图3(a)中相同位置的CTUs没有被标记为SAs,为此会造成当前帧的此位置的CTU码率分配不足,使得下一帧相同位置的CTU,进行帧间参考时,当前CTU的失真会传递到下一帧,可能导致的SAs失真累加,进而使得视频序列的SAs主观质量下降。除此之外,需要考虑相邻帧之间SAs的CTUs编码视觉质量一致性,时域上相邻的显著性区域一般更容易引起人眼的视觉注意,因此,需要考虑到这些区域的主观质量一致性,获得更好的主观压缩性能。
为了减少这些相邻帧之间SAs的CTUs的主观质量差异,在考虑SAs连续性的基础上,建立了基于窗口的权重平滑模型。图4(a)中黄色的CTUs是当前帧的SAs,在接下来的两帧中保持不变。当前帧的灰色区域在当前帧中并没有被检测为SAs,但视觉显着性模型对于未来帧相同位置的CTUs检测为SAs,如上述图3中解释其现象,在图4(a)中虚线灰色区域越深表示未来帧SAs的CTUs对当前帧相同位置的CTUs帧间模式参考影响越大为图4(b)和图4(c),反之颜色越浅表示则越小,考虑了视频序列的SAs的质量一致性,需要对当前帧的SAs作权重平滑之调整。
将窗口大小定义为M,对于当前帧中的CTU,其最终显著性权重由未来帧的CTUs影响深远所示为公式(2):
Figure BDA0002255913110000071
Figure BDA0002255913110000072
其中,SwCTU为每一个CTU的显著性权重,其
Figure BDA0002255913110000073
为最终每一个像素的显著值,(i,j) 为像素的坐标位置,NCTU为CTU内的像素个数总合,
Figure BDA0002255913110000074
表示为基于窗口平滑后于码率分配的显著性权重,其中k是当前帧的位置号,m是未来帧的位置号,M为平滑窗口大小,f是未来帧对当前帧相对位置的权重,表达意思为对当前帧的CTUs相隔帧距离越近则值越大,越远则越小,根据实验结果将其f设置为1、0.75、0.5、0.25。
3)将步骤2)得到的平滑后的显著性权重进行CTU级率分配,实现基于视觉显著性的CTU 级码率分配
透过上述的方法得到最终显著性权重,以维持其SAs区域的主观质量一致性,最后透过编码器中的码率分配将其结果分配给SAs,显著区域是人眼所关注的区域可表示为感知敏感区域,对这区域的失真较为敏感,对SAs需分配较多码率,反之感知不敏感区域可容许较大的失真,码率则可以分配较少,对其表示为公式(3)
Figure BDA0002255913110000075
其中
Figure 1
为當前CTU的目标码率,TcurPic为当前帧分配码率,CodedPic为已编码的码率,∑NotCodedSwCTU为当前帧剩余的码率,
Figure BDA0002255913110000077
表示为平滑后的显著性权重,从上式中可得知显著权重越大则分配码率则越多。
需要注意的是,公布实施例的目的在于帮助进一步理解本发明,但是本领域的技术人员可以理解:在不脱离本发明及所附权利要求的精神和范围内,各种替换和修改都是可能的。因此,本发明不应局限于实施例所公开的内容,本发明要求保护的范围以权利要求书界定的范围为准。

Claims (5)

1.一种基于视觉显著性的视频码率分配方法,其特征是,建立时域相关性的视觉显著性模型;采用基于显著性的码率分配算法和基于显著性区域质量一致性的窗口权重平滑算法,得到调整后的显著性权重;再根据调整后的显著性权重指导CTU级码率分配算法,由此实现视频码率分配;包括如下步骤:
1)建立视觉显著性模型,包括:注意力静态特征提取模型和注意力动态特征提取模型,得到视频的视觉显著值;
考虑视频序列中当前帧和下一帧的关联性,从注意力静态特征和注意力动态特征中提取出视频中人眼所关注的区域;
对于帧间特征信息,采用光流算法提取动量特征,通过公式(1)进行计算:
Sfinal=Scolor·ωcolor+Stex·ωtex+finter·g·ωinter (1)
finter(u,v)=∑i,jD(fcur(i,j)-fnext(i+ui,j,j+vi,j))+λ[ρS(ui,j-ui+1,j)+ρS(ui,j-ui,j+1)+ρS(vi,j-vi+1,j)+ρS(vi,j-vi,j+1)]}
其中,Sfinal为得到的显著值;finter为当前帧与下一帧的光流特征值,其中u和v表示为当前帧fcur和下一帧fnext估计的水平和垂直光流场;i和j代表像素位置;λ是调节参数;ρD和ρS分别为数据和空间的惩罚函数;Sfinal为最终像素显著值;Scolor和Stex为色度及纹理的显著值;ωcolor、ωtex和ωinter代表色度、纹理、帧间的权重;g为滤波转换函数;
2)将步骤1)得到的当前帧的像素显著值,依照CTU的尺寸大小转化为多个CTU尺寸的显著值,再通过归一化转换为显著性权重,基于相邻帧之间的关联性,建立基于窗口的权重平滑模型,通过平滑调整得到平滑后的显著性权重;
3)根据步骤2)得到的平滑后的显著性权重,采用基于显著性的码率分配算法,进行CTU级码率分配;
将基于显著性权重的CTU级码率分配表示为公式(3):
Figure FDA0002255913100000011
其中,
Figure FDA0002255913100000012
为当前CTU的目标码率,TcurPic为当前帧分配码率,CodedPic为已编码的码率,∑NotCodedSwCTU为当前帧剩余的码率,
Figure FDA0002255913100000013
为平滑后的显著性权重;
通过上述步骤,实现基于视觉显著性的视频码率分配。
2.如权利要求1所述基于视觉显著性的视频码率分配方法,其特征是,步骤2)建立基于窗口的权重平滑模型中,公式(2)中,未来帧对当前帧相对位置的权重设置为1、0.75、0.5或0.25。
3.如权利要求1所述基于视觉显著性的视频码率分配方法,其特征是,步骤2)具体将得到的当前帧的像素显著值,依照CTU尺寸为64×64大小进行累加,形成一块64×64的CTU的像素显著值总和。
4.如权利要求1所述基于视觉显著性的视频码率分配方法,其特征是,步骤2)具体针对步骤1)得到的显著性权,依照相邻帧的距离对显著性权重进行加权平均,得到的结果为平滑后的显著性权重。
5.如权利要求4所述基于视觉显著性的视频码率分配方法,其特征是,步骤2)建立基于窗口的权重平滑模型具体为:
将窗口大小定义为M;公式(2)分别表示每一个CTU的显著性权重以及经平滑调整后的最终显著性权重:
Figure FDA0002255913100000021
Figure FDA0002255913100000022
其中,SwCTU为每一个CTU的显著性权重;
Figure FDA0002255913100000023
为最终每一个像素的显著值;(i,j)为像素的坐标位置;NCTU为CTU内的像素个数总合;
Figure FDA0002255913100000024
表示为平滑后的显著性权重,用于码率分配;k是当前帧的位置号,m是未来帧的位置号,M为平滑窗口大小,f是未来帧对当前帧相对位置的权重。
CN201911053402.7A 2019-10-31 2019-10-31 一种基于视觉显著性的视频码率分配方法 Active CN112752102B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911053402.7A CN112752102B (zh) 2019-10-31 2019-10-31 一种基于视觉显著性的视频码率分配方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911053402.7A CN112752102B (zh) 2019-10-31 2019-10-31 一种基于视觉显著性的视频码率分配方法

Publications (2)

Publication Number Publication Date
CN112752102A true CN112752102A (zh) 2021-05-04
CN112752102B CN112752102B (zh) 2022-12-30

Family

ID=75645527

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911053402.7A Active CN112752102B (zh) 2019-10-31 2019-10-31 一种基于视觉显著性的视频码率分配方法

Country Status (1)

Country Link
CN (1) CN112752102B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113542745A (zh) * 2021-05-27 2021-10-22 绍兴市北大信息技术科创中心 一种率失真编码优化方法

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010029472A1 (en) * 2008-09-11 2010-03-18 Koninklijke Philips Electronics N.V. Inserting advertisements in connection with user-created content
CN106303530A (zh) * 2016-10-20 2017-01-04 北京工业大学 一种融合视觉感知特性的码率控制方法
CN106358040A (zh) * 2016-08-30 2017-01-25 上海交通大学 一种基于显著性的码率控制比特分配方法
CN108241854A (zh) * 2018-01-02 2018-07-03 天津大学 一种基于运动和记忆信息的深度视频显著性检测方法
CN109451316A (zh) * 2018-11-21 2019-03-08 北京航空航天大学 一种基于cu显著性的qp选择算法
CN109451310A (zh) * 2018-11-21 2019-03-08 北京航空航天大学 一种基于显著性加权的率失真优化方法及装置
CN110059587A (zh) * 2019-03-29 2019-07-26 西安交通大学 基于时空注意力的人体行为识别方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010029472A1 (en) * 2008-09-11 2010-03-18 Koninklijke Philips Electronics N.V. Inserting advertisements in connection with user-created content
CN106358040A (zh) * 2016-08-30 2017-01-25 上海交通大学 一种基于显著性的码率控制比特分配方法
CN106303530A (zh) * 2016-10-20 2017-01-04 北京工业大学 一种融合视觉感知特性的码率控制方法
CN108241854A (zh) * 2018-01-02 2018-07-03 天津大学 一种基于运动和记忆信息的深度视频显著性检测方法
CN109451316A (zh) * 2018-11-21 2019-03-08 北京航空航天大学 一种基于cu显著性的qp选择算法
CN109451310A (zh) * 2018-11-21 2019-03-08 北京航空航天大学 一种基于显著性加权的率失真优化方法及装置
CN110059587A (zh) * 2019-03-29 2019-07-26 西安交通大学 基于时空注意力的人体行为识别方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
THOMAS BROX ET AL.: "Large Displacement Optical Flow: Descriptor Matching in Variational Motion Estimation", 《IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE》 *
柳林 等: "空时一致的视频显著性检测", 《微型机与应用》 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113542745A (zh) * 2021-05-27 2021-10-22 绍兴市北大信息技术科创中心 一种率失真编码优化方法

Also Published As

Publication number Publication date
CN112752102B (zh) 2022-12-30

Similar Documents

Publication Publication Date Title
US10313692B2 (en) Visual perception characteristics-combining hierarchical video coding method
JP5969389B2 (ja) オブジェクト認識ビデオ符号化ストラテジ
US8416849B2 (en) Self-adapting code rate distribution method of video image macro-block level
JP5555221B2 (ja) 着目物の適応的な色モデル・パラメータ推定に係る方法および装置
CN103002289B (zh) 面向监控应用的视频恒定质量编码装置及其编码方法
CN108063944B (zh) 一种基于视觉显著性的感知码率控制方法
EP1862017A1 (en) Apparatus and method for objective assessment of dct-coded video quality with or without an original video sequence
US20130279598A1 (en) Method and Apparatus For Video Compression of Stationary Scenes
Cedillo-Hernandez et al. A spatiotemporal saliency-modulated JND profile applied to video watermarking
CN101621683A (zh) 一种基于avs的快速立体视频编码方法
WO2020098751A1 (zh) 一种视频数据的编码处理方法和计算机存储介质
Yang et al. A no-reference optical flow-based quality evaluator for stereoscopic videos in curvelet domain
CN114900692A (zh) 视频流帧率调整方法及其装置、设备、介质、产品
KR101007381B1 (ko) 관심 영역을 고려한 영상 부호화 장치
CN112752102B (zh) 一种基于视觉显著性的视频码率分配方法
CN106664404A (zh) 视频编码中的块分割方式处理方法和相关装置
Ku et al. Bit allocation based on visual saliency in HEVC
Wang et al. Perceptual video coding based on saliency and just noticeable distortion for H. 265/HEVC
Chi et al. Region-of-interest video coding based on rate and distortion variations for H. 263+
Niu et al. A visual saliency modulated just noticeable distortion profile for image watermarking
CN114173131A (zh) 一种基于帧间相关性的视频压缩方法及系统
KR20110087859A (ko) 양자화 계수 조절 방법, 장치 및 컴퓨터 판독가능 매체
Xie et al. Just noticeable visual redundancy forecasting: a deep multimodal-driven approach
Wang et al. PVC-STIM: Perceptual video coding based on spatio-temporal influence map
Qin et al. Fast intra coding algorithm for HEVC based on decision tree

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant