CN114866773A - 消除时域抖动效应的量化参数级联方法 - Google Patents

消除时域抖动效应的量化参数级联方法 Download PDF

Info

Publication number
CN114866773A
CN114866773A CN202210497536.3A CN202210497536A CN114866773A CN 114866773 A CN114866773 A CN 114866773A CN 202210497536 A CN202210497536 A CN 202210497536A CN 114866773 A CN114866773 A CN 114866773A
Authority
CN
China
Prior art keywords
frame
determining
motion region
video
motion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202210497536.3A
Other languages
English (en)
Other versions
CN114866773B (zh
Inventor
公衍超
何书婷
杨豆豆
杨楷芳
王富平
刘颖
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xian University of Posts and Telecommunications
Original Assignee
Xian University of Posts and Telecommunications
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xian University of Posts and Telecommunications filed Critical Xian University of Posts and Telecommunications
Priority to CN202210497536.3A priority Critical patent/CN114866773B/zh
Publication of CN114866773A publication Critical patent/CN114866773A/zh
Application granted granted Critical
Publication of CN114866773B publication Critical patent/CN114866773B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/146Data rate or code amount at the encoder output
    • H04N19/147Data rate or code amount at the encoder output according to rate distortion criteria
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/186Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

一种消除时域抖动效应的量化参数级联方法,由确定帧运动区域、确定帧运动区域空域能量扩散因子、确定视频运动区域时域能量扩散因子、确定帧运动区域的基本单元、确定视频运动区域纹理复杂度、确定帧运动区域像素的平均背景亮度、确定视频运动区域运动速度、确定时域抖动效应临界感知阈值、确定视频帧的量化参数步骤组成。由于本发明采用了所述的步骤,解决了现有技术没有考虑视频中运动物体的边界变化对时域抖动效应感知影响的技术问题,解决了现有技术部适用于最新视频编码标准H.266/VVC的技术问题。本发明具有消除时域抖动效应有效、编码感知率失真性能好等优点,可用于视频编码、通信技术领域。

Description

消除时域抖动效应的量化参数级联方法
技术领域
本发明属于视频编码技术领域,具体涉及到消除时域抖动效应的量化参数级联方法。
背景技术
视频是当今信息时代最重要的信息载体之一,随着人们对于视频服务质量日益高涨的需求以及视频应用的广泛拓展,视频数据量急剧膨胀。视频编码是视频通信系统中一项非常基础且关键的技术,其目的是将数据量庞大的原始视频压缩,保证其在视频通信系统可以被有效地传输与存储,从而提供给用户更好的视频感知体验。
当前主要的视频编码标准采用基于预测变换量化的混合编码框架,其中量化模块中涉及的量化参数是影响视频编码性能的一个关键编码参数。量化参数级联即是研究给视频编码中的每个编码基本单元(时间层等)选择最优量化参数取值的一类方法。相关实验已经证实,当前视频编码标准采用的默认的量化参数级联方法容易引起较大的重建视频时域质量波动,且这一时域质量波动在低码率下极易被人眼感知,并被定义为时域抖动效应。时域抖动效应是一种典型的由视频编码操作引入的时域噪声,主观表现为视频中某些区域“清楚-模糊-清楚-模糊”的时域质量变化,会显著影响编码重建视频的感知质量。
为了提升编码重建视频的感知质量,一些有效消除时域抖动效应的量化参数级联方法被提出。但是这些方法还存在以下明显问题:这些方法都是针对早期的H.264/AVC标准提出的。针对最新视频编码标准,例如H.265/HEVC、H.266/VVC,还未有相关适合方法被提出;这些方法只考虑了视频纹理复杂度与运动速度对于时域抖动效应感知的影响,并未考虑视频中运动物体的边界变化对时域抖动效应感知的重要影响。运动物体的边界变化是视频运动信息的一个重要属性,显著影响时域抖动效应的感知。
发明内容
本发明所要解决的技术问题在于克服上述现有技术的缺点,提供一种消除时域抖动效应有效、编码感知率失真性能好的消除时域抖动效应的量化参数级联方法。
解决上述技术问题所采用的技术方案是由下述步骤组成:
(1)确定帧运动区域
用OpenCV3.1.0(https://opencv.org/releases/)版本中的createBackgroundSubtractorKNN函数确定输入视频中每一帧的运动区域。
(2)确定帧运动区域空域能量扩散因子
按式(1)确定第f帧运动区域空域能量扩散因子ξ(f):
Figure BDA0003633304580000021
其中,f表示视频帧号,f∈{1,2,...,Nv},Ie(f,j)表示第f帧中处于运动区域边界轮廓e上第j个像素的亮度值,Ir(f,j)表示第f帧处于运动区域r内部的第j个像素的亮度值,Nf,e表示第f帧的运动区域边界轮廓e包含的总像素数,Nf,r表示第f帧的运动区域r内部包含的总像素数。
(3)确定视频运动区域时域能量扩散因子
按式(2)确定视频运动区域的时域能量扩散因子ξv
Figure BDA0003633304580000022
Figure BDA0003633304580000023
其中,Nv表示视频的总帧数,且Nv-1不为0,Ie(f-1,j)表示第f-1帧中处于运动区域边界轮廓e上第j个像素的亮度值,Ir(f-1,j)表示第f-1帧中处于运动区域r内部的第j个像素的亮度值,Nf-1,e表示第f-1帧的运动区域边界轮廓e包含的总像素数且Nf-1,e不为0,Nf-1,r表示第f-1帧运动区域r内部包含的总像素数且Nf-1,r不为0。
(4)确定帧运动区域的基本单元
将视频第f帧运动区域边界最小外接矩形划分为不重叠的宽为wk高为hk的像素块,为第f帧运动区域r的基本单元,wk、hk为有限正整数,wk∈{1,2,...,wf,r},hk∈{1,2,...,hf,r},wf,r、hf,r分别表示第f帧运动区域r边界最小外接矩形的宽和高。
(5)确定视频运动区域纹理复杂度
按式(4)确定视频运动区域的纹理复杂度σv
Figure BDA0003633304580000031
其中,Nf,r,u表示第f帧运动区域r边界最小外接矩形包含的基本单元u的数目,Ir(f,g,j)表示第f帧运动区域r边界最小外接矩形中第g个基本单元第j个像素的亮度值,Nv不为0。
(6)确定帧运动区域像素的平均背景亮度
按式(5)确定第f帧运动区域r边界最小外接矩形第x列第y行像素的平均背景亮度Ir,bg(f,x,y):
Figure BDA0003633304580000032
Figure BDA0003633304580000033
其中x表示第f帧运动区域r边界最小外接矩形第x列像素,y表示第f帧运动区域r边界最小外接矩形第y行像素,x∈{1,2,...,wf,r},y∈{1,2,...,hf,r},B(m,n)表示中心位于第x列第y行位置的低通加权滤波器掩膜的系数,Ir(f,x-3+m,y-3+n)表示第f帧中运动区域r边界最小外接矩形第x-3+m列第y-3+n行像素的亮度值。
(7)确定视频运动区域运动速度
按式(7)确定视频运动区域的运动速度dv
Figure BDA0003633304580000034
其中,Ir(f,x,y)、Ir(f-1,x,y)分别表示第f帧和第f-1帧中运动区域r边界最小外接矩形第x列第y行像素的亮度值,Ir,bg(f-1,x,y)表示第f-1帧运动区域r边界最小外接矩形第x列第y行像素的平均背景亮度。
(8)确定时域抖动效应临界感知阈值
按式(8)确定时域抖动效应临界感知阈值JTPA
Figure BDA0003633304580000041
Figure BDA0003633304580000042
Figure BDA0003633304580000043
Figure BDA0003633304580000044
Figure BDA0003633304580000045
Figure BDA0003633304580000046
Figure BDA0003633304580000047
其中,QP0表示由编码者设置的时间0层的量化参数,QP0∈{1,2,...,63},K为模型参数,K取值为100,round()为四舍五入函数,γ1、γ2、γ3、γ4、γ5、γ6、γ7、γ8、λ1、λ2、λ3、λ4、λ5、λ6、λ7、λ8为模型参数,模型参数的取值范围分别为:γ1∈[-0.125,0.256],γ2=[-0.0029,0.1],γ3∈[-0.25,0.296],γ4∈[-0.01,0.132],γ5∈[-1.28,0.16],γ6∈[-0.026,0.259],γ7∈[-0.4,0.126],γ8∈[-0.01,0.239],λ1∈[-0.1,0.35],λ2=[-0.1,0.365],λ3∈[-0.2,0.4],λ4∈[-0.01,0.257],λ5∈[44.3,61.2],λ6∈[22.35,34.56],λ7∈[32.4,46.7],λ8∈[20.1,27.2]。
(9)确定视频帧的量化参数
按式(15)确定视频帧的量化参数QPt′:
Figure BDA0003633304580000051
其中QPt′表示重新设置的处于第t个时间层帧的量化参数,t∈{0,1,...,Nt-1},Nt为视频的时间层数。
在本发明的(8)确定时域抖动效应临界感知阈值步骤中,所述的γ1的最佳取值为-0.0009,γ2的最佳取值为0.0005,γ3的最佳取值为0.00018,γ4的最佳取值为-0.0001,γ5的最佳取值为-0.5133,γ6的最佳取值为0.1322,γ7的最佳取值为-0.2012,γ8的最佳取值为0.190,λ1的最佳取值为0.0250,λ2的最佳取值为-0.0219,λ3的最佳取值为-0.0022,λ4的最佳取值为0.00536,λ5的最佳取值为46.70,λ6的最佳取值为29.21,λ7的最佳取值为41.60,λ8的最佳取值为25.64。
由于本发明采用了确定帧运动区域空域能量扩散因子步骤、确定视频运动区域时域能量扩散因子步骤、确定时域抖动效应临界感知阈值步骤、确定视频帧的量化参数步骤,解决了现有技术没有考虑视频中运动物体的边界变化对时域抖动效应感知影响的技术问题。采用了确定时域抖动效应临界感知阈值步骤、确定视频帧的量化参数步骤,解决了现有技术不适用于最新视频编码标准H.266/VVC的技术问题。本发明具有消除时域抖动效应有效、编码感知率失真性能好等优点,可用于视频编码、通信技术领域。
附图说明
图1是本发明实施例1的流程图。
具体实施方式
下面结合附图和实施例对本发明进一步详细说明,但本发明不限于下面的实施例。
实施例1
本实施例的消除时域抖动效应的量化参数级联方法由下述步骤组成(参见图1):
(1)确定帧运动区域
用OpenCV3.1.0(https://opencv.org/releases/)版本中的createBackgroundSubtractorKNN函数确定输入视频中每一帧的运动区域。
(2)确定帧运动区域空域能量扩散因子
按式(1)确定第f帧运动区域空域能量扩散因子ξ(f):
Figure BDA0003633304580000061
其中,f表示视频帧号,f∈{1,2,...,Nv},Ie(f,j)表示第f帧中处于运动区域边界轮廓e上第j个像素的亮度值,Ir(f,j)表示第f帧处于运动区域r内部的第j个像素的亮度值,Nf,e表示第f帧的运动区域边界轮廓e包含的总像素数,Nf,r表示第f帧的运动区域r内部包含的总像素数。
(3)确定视频运动区域时域能量扩散因子
按式(2)确定视频运动区域的时域能量扩散因子ξv
Figure BDA0003633304580000062
Figure BDA0003633304580000063
其中,Nv表示视频的总帧数,且Nv-1不为0,Ie(f-1,j)表示第f-1帧中处于运动区域边界轮廓e上第j个像素的亮度值,Ir(f-1,j)表示第f-1帧中处于运动区域r内部的第j个像素的亮度值,Nf-1,e表示第f-1帧的运动区域边界轮廓e包含的总像素数且Nf-1,e不为0,Nf-1,r表示第f-1帧运动区域r内部包含的总像素数且Nf-1,r不为0。
(4)确定帧运动区域的基本单元
将视频第f帧运动区域边界最小外接矩形划分为不重叠的宽为wk高为hk的像素块,为第f帧运动区域r的基本单元,wk、hk为有限正整数,wk∈{1,2,...,wf,r},hk∈{1,2,...,hf,r},wf,r、hf,r分别表示第f帧运动区域r边界最小外接矩形的宽和高。
(5)确定视频运动区域纹理复杂度
按式(4)确定视频运动区域的纹理复杂度σv
Figure BDA0003633304580000071
其中,Nf,r,u表示第f帧运动区域r边界最小外接矩形包含的基本单元u的数目,Ir(f,g,j)表示第f帧运动区域r边界最小外接矩形中第g个基本单元第j个像素的亮度值,Nv不为0。
(6)确定帧运动区域像素的平均背景亮度
按式(5)确定第f帧运动区域r边界最小外接矩形第x列第y行像素的平均背景亮度Ir,bg(f,x,y):
Figure BDA0003633304580000072
Figure BDA0003633304580000073
其中x表示第f帧运动区域r边界最小外接矩形第x列像素,y表示第f帧运动区域r边界最小外接矩形第y行像素,x∈{1,2,...,wf,r},y∈{1,2,...,hf,r},B(m,n)表示中心位于第x列第y行位置的低通加权滤波器掩膜的系数,Ir(f,x-3+m,y-3+n)表示第f帧中运动区域r边界最小外接矩形第x-3+m列第y-3+n行像素的亮度值。
(7)确定视频运动区域运动速度
按式(7)确定视频运动区域的运动速度dv
Figure BDA0003633304580000074
其中,Ir(f,x,y)、Ir(f-1,x,y)分别表示第f帧和第f-1帧中运动区域r边界最小外接矩形第x列第y行像素的亮度值,Ir,bg(f-1,x,y)表示第f-1帧运动区域r边界最小外接矩形第x列第y行像素的平均背景亮度。
(8)确定时域抖动效应临界感知阈值
按式(8)确定时域抖动效应临界感知阈值JTPA
Figure BDA0003633304580000081
Figure BDA0003633304580000082
Figure BDA0003633304580000083
Figure BDA0003633304580000084
Figure BDA0003633304580000085
Figure BDA0003633304580000086
Figure BDA0003633304580000087
其中,QP0表示由编码者设置的时间0层的量化参数,QP0∈{1,2,...,63},K为模型参数,K取值为100,round()为四舍五入函数,γ1、γ2、γ3、γ4、γ5、γ6、γ7、γ8、λ1、λ2、λ3、λ4、λ5、λ6、λ7、λ8为模型参数,模型参数的取值范围分别为:γ1∈[-0.125,0.256],γ2=[-0.0029,0.1],γ3∈[-0.25,0.296],γ4∈[-0.01,0.132],γ5∈[-1.28,0.16],γ6∈[-0.026,0.259],γ7∈[-0.4,0.126],γ8∈[-0.01,0.239],λ1∈[-0.1,0.35],λ2=[-0.1,0.365],λ3∈[-0.2,0.4],λ4∈[-0.01,0.257],λ5∈[44.3,61.2],λ6∈[22.35,34.56],λ7∈[32.4,46.7],λ8∈[20.1,27.2]。
本实施例的γ1的取值为-0.0009,γ2的取值为0.0005,γ3的取值为0.00018,γ4的取值为-0.0001,γ5的取值为-0.5133,γ6的取值为0.1322,γ7的取值为-0.2012,γ8的取值为0.190,λ1的取值为0.0250,λ2的取值为-0.0219,λ3的取值为-0.0022,λ4的取值为0.00536,λ5的取值为46.70,λ6的取值为29.21,λ7的取值为41.60,λ8的取值为25.64。
(9)确定视频帧的量化参数
按式(15)确定视频帧的量化参数QPt′:
Figure BDA0003633304580000091
其中QPt′表示重新设置的处于第t个时间层帧的量化参数,t∈{0,1,...,Nt-1},Nt是视频的时间层数、为有限的正整数。
完成消除时域抖动效应的量化参数级联方法。
实施例2
本实施例的消除时域抖动效应的量化参数级联方法由下述步骤组成:
(1)-(7)步骤与实施例1相同。
(8)确定时域抖动效应临界感知阈值
按式(8)确定时域抖动效应临界感知阈值JTPA
Figure BDA0003633304580000101
Figure BDA0003633304580000102
Figure BDA0003633304580000103
Figure BDA0003633304580000104
Figure BDA0003633304580000105
Figure BDA0003633304580000106
Figure BDA0003633304580000107
其中,QP0表示由编码者设置的时间0层的量化参数,QP0∈{1,2,...,63},K为模型参数,K取值为100,round()为四舍五入函数,γ1、γ2、γ3、γ4、γ5、γ6、γ7、γ8、λ1、λ2、λ3、λ4、λ5、λ6、λ7、λ8为模型参数,模型参数的取值范围分别为:γ1∈[-0.125,0.256],γ2=[-0.0029,0.1],γ3∈[-0.25,0.296],γ4∈[-0.01,0.132],γ5∈[-1.28,0.16],γ6∈[-0.026,0.259],γ7∈[-0.4,0.126],γ8∈[-0.01,0.239],λ1∈[-0.1,0.35],λ2=[-0.1,0.365],λ3∈[-0.2,0.4],λ4∈[-0.01,0.257],λ5∈[44.3,61.2],λ6∈[22.35,34.56],λ7∈[32.4,46.7],λ8∈[20.1,27.2]。
本实施例的γ1的取值为-0.125,γ2的取值为-0.0029,γ3的取值为-0.25,γ4的取值为-0.01,γ5的取值为-1.28,γ6的取值为-0.026,γ7的取值为-0.4,γ8的取值为-0.01,λ1的取值为-0.1,λ2的取值为-0.1,λ3的取值为-0.2,λ4的取值为-0.01,λ5的取值为44.3,λ6的取值为22.35,λ7的取值为32.4,λ8的取值为20.1。
其他步骤与实施例1相同。完成消除时域抖动效应的量化参数级联方法。
实施例3
本实施例的消除时域抖动效应的量化参数级联方法由下述步骤组成:
(1)-(7)步骤与实施例1相同。
(8)确定时域抖动效应临界感知阈值
按式(8)确定时域抖动效应临界感知阈值JTPA
Figure BDA0003633304580000111
Figure BDA0003633304580000112
Figure BDA0003633304580000113
Figure BDA0003633304580000114
Figure BDA0003633304580000115
Figure BDA0003633304580000121
Figure BDA0003633304580000122
其中,QP0表示由编码者设置的时间0层的量化参数,QP0∈{1,2,...,63},K为模型参数,K取值为100,round()为四舍五入函数,γ1、γ2、γ3、γ4、γ5、γ6、γ7、γ8、λ1、λ2、λ3、λ4、λ5、λ6、λ7、λ8为模型参数,模型参数的取值范围分别为:γ1∈[-0.125,0.256],γ2=[-0.0029,0.1],γ3∈[-0.25,0.296],γ4∈[-0.01,0.132],γ5∈[-1.28,0.16],γ6∈[-0.026,0.259],γ7∈[-0.4,0.126],γ8∈[-0.01,0.239],λ1∈[-0.1,0.35],λ2=[-0.1,0.365],λ3∈[-0.2,0.4],λ4∈[-0.01,0.257],λ5∈[44.3,61.2],λ6∈[22.35,34.56],λ7∈[32.4,46.7],λ8∈[20.1,27.2]。
本实施例的γ1的取值为0.256,γ2的取值为0.1,γ3的取值为0.296,γ4的取值为0.132,γ5的取值为0.16,γ6的取值为0.259,γ7的取值为0.126,γ8的取值为0.239,λ1的取值为0.35,λ2的取值为0.365,λ3的取值为0.4,λ4的取值为0.257,λ5的取值为61.2,λ6的取值为34.56,λ7的取值为46.7,λ8的取值为27.2。
其他步骤与实施例1相同。完成消除时域抖动效应的量化参数级联方法。
为了验证本发明的有益效果,发明人采用本发明实施例1的方法对测试视频进行了仿真实验,实验如下:
选择编码标准制定组织推荐的10个视频作为测试视频,10个视频的名称分别为:BQSquare、BricksBushesStatic、CalmingWater、648ea10、ShuttleStart、videoSRC13、LampLeaves60fps、beach、yellowflower、Sparkler,将测试视频分别用H.266/VVC标准制定组织推荐的测试模型VTM中默认的量化参数级联方法(以下简称为“默认量化参数级联方法”)与本发明实施例1的方法编码。按照ITU-R BT.500-13国际标准(Methodology forthesubjective assessment of the quality of television pictures:ITU-RRecommendations BT.500-13[S].Jan:ITU-T,2012)中的要求设计视频主观评价实验,选择20名非专家的测试者参与实验。
每一个测试者观看默认量化参数级联方法与本发明实施例1方法编码重建的视频,记录其能否在视频中观看到时域抖动效应。对于所有的测试序列,测试者在默认量化参数级联方法编码重建视频中感知到时域抖动效应的人数如表1第2列所示,测试者在本发明实施例1方法编码重建视频中感知到时域抖动效应的人数如表1第3列所示。
表1 默认量化参数级联方法与本发明实施例1方法实验结果
Figure BDA0003633304580000131
由表1可见,与默认量化参数级联方法相比,本发明实施例1方法对应的重建视频感知到时域抖动效应的观测者人数显著减少,说明本发明实施例1方法可有效地消除时域抖动效应。验证了本发明实施例1方法的有益效果。

Claims (2)

1.一种消除时域抖动效应的量化参数级联方法,其特征在于由下述步骤组成:
(1)确定帧运动区域
用OpenCV3.1.0中的createBackgroundSubtractorKNN函数确定输入视频中每一帧的运动区域;
(2)确定帧运动区域空域能量扩散因子
按式(1)确定第f帧运动区域空域能量扩散因子ξ(f):
Figure FDA0003633304570000011
其中,f表示视频帧号,f∈{1,2,...,Nv},Ie(f,j)表示第f帧中处于运动区域边界轮廓e上第j个像素的亮度值,Ir(f,j)表示第f帧处于运动区域r内部的第j个像素的亮度值,Nf,e表示第f帧的运动区域边界轮廓e包含的总像素数,Nf,r表示第f帧的运动区域r内部包含的总像素数;
(3)确定视频运动区域时域能量扩散因子
按式(2)确定视频运动区域的时域能量扩散因子ξv
Figure FDA0003633304570000012
Figure FDA0003633304570000013
其中,Nv表示视频的总帧数,且Nv-1不为0,Ie(f-1,j)表示第f-1帧中处于运动区域边界轮廓e上第j个像素的亮度值,Ir(f-1,j)表示第f-1帧中处于运动区域r内部的第j个像素的亮度值,Nf-1,e表示第f-1帧的运动区域边界轮廓e包含的总像素数且Nf-1,e不为0,Nf-1,r表示第f-1帧运动区域r内部包含的总像素数且Nf-1,r不为0;
(4)确定帧运动区域的基本单元
将视频第f帧运动区域边界最小外接矩形划分为不重叠的宽为wk高为hk的像素块,为第f帧运动区域r的基本单元,wk、hk为有限正整数,wk∈{1,2,...,wf,r},hk∈{1,2,...,hf,r},wf,r、hf,r分别表示第f帧运动区域r边界最小外接矩形的宽和高;
(5)确定视频运动区域纹理复杂度
按式(4)确定视频运动区域的纹理复杂度σv
Figure FDA0003633304570000021
其中,Nf,r,u表示第f帧运动区域r边界最小外接矩形包含的基本单元u的数目,Ir(f,g,j)表示第f帧运动区域r边界最小外接矩形中第g个基本单元第j个像素的亮度值,Nv不为0;
(6)确定帧运动区域像素的平均背景亮度
按式(5)确定第f帧运动区域r边界最小外接矩形第x列第y行像素的平均背景亮度Ir,bg(f,x,y):
Figure FDA0003633304570000022
Figure FDA0003633304570000023
其中x表示第f帧运动区域r边界最小外接矩形第x列像素,y表示第f帧运动区域r边界最小外接矩形第y行像素,x∈{1,2,...,wf,r},y∈{1,2,...,hf,r},B(m,n)表示中心位于第x列第y行位置的低通加权滤波器掩膜的系数,Ir(f,x-3+m,y-3+n)表示第f帧中运动区域r边界最小外接矩形第x-3+m列第y-3+n行像素的亮度值;
(7)确定视频运动区域运动速度
按式(7)确定视频运动区域的运动速度dv
Figure FDA0003633304570000024
其中,Ir(f,x,y)、Ir(f-1,x,y)分别表示第f帧和第f-1帧中运动区域r边界最小外接矩形第x列第y行像素的亮度值,Ir,bg(f-1,x,y)表示第f-1帧运动区域r边界最小外接矩形第x列第y行像素的平均背景亮度;
(8)确定时域抖动效应临界感知阈值
按式(8)确定时域抖动效应临界感知阈值JTPA
Figure FDA0003633304570000031
Figure FDA0003633304570000032
Figure FDA0003633304570000033
Figure FDA0003633304570000034
Figure FDA0003633304570000035
Figure FDA0003633304570000036
Figure FDA0003633304570000037
其中,QP0表示由编码者设置的时间0层的量化参数,QP0∈{1,2,...,63},K为模型参数,K取值为100,round( )为四舍五入函数,γ1、γ2、γ3、γ4、γ5、γ6、γ7、γ8、λ1、λ2、λ3、λ4、λ5、λ6、λ7、λ8为模型参数,模型参数的取值范围分别为:γ1∈[-0.125,0.256],γ2=[-0.0029,0.1],γ3∈[-0.25,0.296],γ4∈[-0.01,0.132],γ5∈[-1.28,0.16],γ6∈[-0.026,0.259],γ7∈[-0.4,0.126],γ8∈[-0.01,0.239],λ1∈[-0.1,0.35],λ2=[-0.1,0.365],λ3∈[-0.2,0.4],λ4∈[-0.01,0.257],λ5∈[44.3,61.2],λ6∈[22.35,34.56],λ7∈[32.4,46.7],λ8∈[20.1,27.2];
(9)确定视频帧的量化参数
按式(15)确定视频帧的量化参数QPt′:
Figure FDA0003633304570000041
其中QPt′表示重新设置的处于第t个时间层帧的量化参数,t∈{0,1,...,Nt-1},Nt为视频的时间层数。
2.根据权利要求1所述的消除时域抖动效应的量化参数级联方法,其特征在于:在(8)确定时域抖动效应临界感知阈值步骤中,所述的γ1的取值为-0.0009,γ2的取值为0.0005,γ3的取值为0.00018,γ4的取值为-0.0001,γ5的取值为-0.5133,γ6的取值为0.1322,γ7的取值为-0.2012,γ8的取值为0.190,λ1的取值为0.0250,λ2的取值为-0.0219,λ3的取值为-0.0022,λ4的取值为0.00536,λ5的取值为46.70,λ6的取值为29.21,λ7的取值为41.60,λ8的取值为25.64。
CN202210497536.3A 2022-05-09 2022-05-09 消除时域抖动效应的量化参数级联方法 Active CN114866773B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210497536.3A CN114866773B (zh) 2022-05-09 2022-05-09 消除时域抖动效应的量化参数级联方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210497536.3A CN114866773B (zh) 2022-05-09 2022-05-09 消除时域抖动效应的量化参数级联方法

Publications (2)

Publication Number Publication Date
CN114866773A true CN114866773A (zh) 2022-08-05
CN114866773B CN114866773B (zh) 2023-02-28

Family

ID=82637863

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210497536.3A Active CN114866773B (zh) 2022-05-09 2022-05-09 消除时域抖动效应的量化参数级联方法

Country Status (1)

Country Link
CN (1) CN114866773B (zh)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110677654A (zh) * 2019-10-16 2020-01-10 西安邮电大学 高效视频编码标准低时延编码结构的量化参数级联方法
CN112218084A (zh) * 2020-10-16 2021-01-12 西安邮电大学 面向监控视频的高效视频编码标准帧级码率控制方法
CN112218078A (zh) * 2020-10-16 2021-01-12 西安邮电大学 面向监控视频的高效视频编码标准量化参数级联方法
CN112235574A (zh) * 2020-10-16 2021-01-15 陕西师范大学 面向现场勘验工具图像的高效视频编码标准量化参数级联方法
CN112291564A (zh) * 2020-11-20 2021-01-29 西安邮电大学 优化监控视频感知质量的hevc帧内码率控制方法
WO2022027881A1 (zh) * 2020-08-05 2022-02-10 电子科技大学 基于视频序列特征和QP-λ修正的时域率失真优化方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110677654A (zh) * 2019-10-16 2020-01-10 西安邮电大学 高效视频编码标准低时延编码结构的量化参数级联方法
WO2022027881A1 (zh) * 2020-08-05 2022-02-10 电子科技大学 基于视频序列特征和QP-λ修正的时域率失真优化方法
CN112218084A (zh) * 2020-10-16 2021-01-12 西安邮电大学 面向监控视频的高效视频编码标准帧级码率控制方法
CN112218078A (zh) * 2020-10-16 2021-01-12 西安邮电大学 面向监控视频的高效视频编码标准量化参数级联方法
CN112235574A (zh) * 2020-10-16 2021-01-15 陕西师范大学 面向现场勘验工具图像的高效视频编码标准量化参数级联方法
CN112291564A (zh) * 2020-11-20 2021-01-29 西安邮电大学 优化监控视频感知质量的hevc帧内码率控制方法

Also Published As

Publication number Publication date
CN114866773B (zh) 2023-02-28

Similar Documents

Publication Publication Date Title
EP3846477B1 (en) Preprocessing image data
CN107439012B (zh) 用于环内转换的方法、装置和计算机可读存储介质
CN107197260B (zh) 基于卷积神经网络的视频编码后置滤波方法
KR101739432B1 (ko) 구역 기반의 톤 매핑
Zhang et al. High dynamic range video compression exploiting luminance masking
CN108322747B (zh) 一种面向超高清视频的编码单元划分优化方法
CN104378636B (zh) 一种视频图像编码方法及装置
CN109451316B (zh) 一种基于cu显著性的qp选择算法
CN109889852B (zh) 一种基于邻近值的hevc帧内编码优化方法
CN117640942A (zh) 一种用于视频图像的编码方法和装置
CN112802137B (zh) 一种基于卷积自编码器的颜色恒常性方法
Song et al. Efficient debanding filtering for inverse tone mapped high dynamic range videos
KR102602690B1 (ko) 화질에 기반한 적응적 부호화 및 복호화를 위한 방법 및 장치
CN110677644B (zh) 一种视频编码、解码方法及视频编码帧内预测器
KR20030062383A (ko) 디지털 영상 처리 방법
CN114866773B (zh) 消除时域抖动效应的量化参数级联方法
KR102067612B1 (ko) 메트릭스, 특히 정지 또는 비디오 이미지의 메트릭스 표현의 코딩 방법
CN117152019A (zh) 一种基于双分支特征处理的低照度图像增强方法和系统
CN110493597B (zh) 一种高效感知视频编码优化方法
Zhao et al. Fast CU partition decision strategy based on human visual system perceptual quality
CN105141967A (zh) 基于恰可觉察失真模型的快速自适应环路滤波算法
Cho et al. Improvement of JPEG XL lossy image coding using region adaptive dct block partitioning structure
CN114885178A (zh) 基于双向帧预测的极低码率人脸视频混合压缩方法及系统
CN106954074B (zh) 一种视频数据处理方法和装置
CN111464805B (zh) 一种基于全景显著性的立体全景视频快速编码方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant