CN114520914A - 一种基于shvc质量可伸缩帧间视频编码方法 - Google Patents

一种基于shvc质量可伸缩帧间视频编码方法 Download PDF

Info

Publication number
CN114520914A
CN114520914A CN202210181012.3A CN202210181012A CN114520914A CN 114520914 A CN114520914 A CN 114520914A CN 202210181012 A CN202210181012 A CN 202210181012A CN 114520914 A CN114520914 A CN 114520914A
Authority
CN
China
Prior art keywords
coding unit
mode
current coding
representing
current
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202210181012.3A
Other languages
English (en)
Other versions
CN114520914B (zh
Inventor
汪大勇
宋丽娟
王倩敏
王欣
解乐乐
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangzhou Dayu Chuangfu Technology Co ltd
Original Assignee
Chongqing University of Post and Telecommunications
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chongqing University of Post and Telecommunications filed Critical Chongqing University of Post and Telecommunications
Priority to CN202210181012.3A priority Critical patent/CN114520914B/zh
Publication of CN114520914A publication Critical patent/CN114520914A/zh
Application granted granted Critical
Publication of CN114520914B publication Critical patent/CN114520914B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/146Data rate or code amount at the encoder output
    • H04N19/147Data rate or code amount at the encoder output according to rate distortion criteria
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

本发明属于SHVC视频编码领域,具体涉及一种基于SHVC质量可伸缩帧间视频编码方法,该方法包括:获取当前编码单元的深度,并获取当前编码单元的相邻编码单元和父编码单元的的模式信息;计算当前编码单元采用各个模式的概率;根据不同模式的概率确定当前编码单元的编码模式;判断当前编码单元是否提前终止划分,若提前终止划分,则得到划分结果,若不提前终止划分,则进入下一个深度进行划分的过程;本发明在当前编码模式下通过计算当前编码单元是否提前终止划分的条件来判断该单元是否终止划分,提高了划分的时间和效率。

Description

一种基于SHVC质量可伸缩帧间视频编码方法
技术领域
本发明属于SHVC视频编码领域,具体涉及一种基于SHVC质量可伸缩帧间视频编码方法。
背景技术
近年来,随着高清、超高清视频应用逐渐走进人们的视野,视频压缩技术受到巨大的挑战。此外,各式各样视频应用也随着网络和存储技术的发展不断涌现,视频应用的多样化和高清化趋势对视频压缩性能提出更高的要求,为此视频编码联合组在2013年发布了新一代视频编码标准H.265/HEVC。从根本上来说,H.265/HEVC实现了压缩效率比H.264高50%的目标,但是它的框架依旧采用混合编码框架,包括变换、量化、熵编码、帧内预测以及帧间预测等模块,只是几乎在每个模块都引入了新的编码技术。H.265利用递归式的四叉树编码方式大大增强了编码效率,同时也增加了编码复杂度,因此在解决视频清晰度和实时性的同时,不是很好的解决终端设备的多样性和异构性,因此在2014年推出SHVC可伸缩视频编码的标准。
如图1所示,SHVC是HEVC的可伸缩扩展,它主要支持时间、空间、质量等三种可伸缩性。与单一的视频编码码流不同的是,可伸缩编码码流分为基本层(BL,一个)和增强层(EL,大于等于1)。这样,便将同一视频不同的特征(比如分辨率)合并在同一比特流中,可根据网络特征随时对码流进行调整。基本层码流包含了视频通信的绝大部分信息,它必须被接收,视频通信才能正常进行。
现有的一些算法中可以在一定程度上提高编码速度,但质量可伸缩视频编码仍存在一些问题需要去解决:
(1)现在的很多研究在进行预测编码单元的模式的时候都会利用相邻的编码单元的模式进行预测,但是并没有考虑到当前编码单元模式和相邻编码单元模式的可能性程度以及层间的相关性。
(2)在进行预测深度的时候,通常使用的是自身纹理特征,或者利用相邻编码单元的深度来预测当前编码单元的深度,但是并没用考虑到当前编码单元采用某个深度的可能性概率。
发明内容
为解决以上现有技术存在的问题,本发明提出了一种基于SHVC质量可伸缩帧间视频编码方法,该方法包括:
S1:获取当前编码单元的深度,并获取当前编码单元的相邻编码单元和父编码单元的的模式信息;
S2:根据当前编码单元的相邻编码单元和父编码单元的模式信息采用贝叶斯公式计算当前编码单元采用各个模式的概率;编码单元采用的模式包括ILR模式和inter模式;
S3:根据不同模式的概率确定当前编码单元的编码模式;
S4:利用率失真值判断当前编码单元是否提前终止划分,若提前终止划分,则得到划分结果,若不提前终止划分,则进入下一个深度,并返回步骤S2;利用率失真值判断当前编码单元是否提前终止划分的过程包括:采用高斯混合模型拟合编码单元的率失真分布,计算该模型的最大期望聚类,根据最大期望聚类判断当前编码单元是否需要进一步划分。
优选的,采用贝叶斯公式计算当前编码单元采用各个模式的概率的公式为:
Figure BDA0003520892660000021
其中,fd(cd)表示当前编码单元采用cd模式的可能性,cd表示当前编码单元的模式,p((nd,nr)|cd)表示给定当前CU使用模式cd的条件概率下相邻CU使用向量(nd,nr)的概率,nd表示相邻CU使用的模式,nr表示当前CU和相邻CU的相关性程度,p(pr|cd)表示当前CU使用模式cd的条件概率下父CU使用使用pr模式的概率,pr表示父CU使用的模式,p(cd)表示当前CU使用模式cd的概率,p(nd,nr)表示相关性程度为nr并且当前编码单元的相邻CU采用nd模式的概率,p(pr)表示父CU采用模式pr的概率。
进一步的,当前CU和相邻CU以及父CU的相关性的过程包括:基本层BL中的CU和增强层EL中同等位置的CU除量化参数QP不同之外的其他参数相同,则将EL中CUs的相关性程度设置为与BL中相同位置的CUs的相关程度相同;相邻CUs在深度上的绝对差异越小,其空间相关性越强,则设nbd为BL中CU BC的相邻CUs的模式;相邻CUs在模式上的最大绝对差为4,则将预测的模式分为四类,ILR记为模式0,merge记为模式1,2Nx2N记为模式2,Nx2N或者2NxN记为模式3,其他模式记为模式4;采用关联度向量公式计算相邻CU以及父CU的相关性。
进一步的,关联度向量公式为:
nri=4-|ndi-nbdi|
其中,ndi和nbdi分别为深度级向量nd和nbd的第i个分量,nri表示第i个相邻编码单元和当前编码单元的模式关联度。
优选的,判断当前编码单元是否提前终止划分包括确定当前编码单元提前终止划分的条件,该条件包括ILR模式提前终止条件和inter模式提起终止条件;当满足提前终止条件时,则输出划分结果,若不满足条件时则继续划分。
进一步的,ILR模式提前终止条件的确定过程包括:
步骤1:获取当前编码单元中增强层和基本层的量化系数ze和zb;根据量化系数ze和zb确定系统的最小系数值k2
步骤2:根据当前编码单元中增强层的量化系数ze和最小系数值k2可得:
re≤Qesteprb/Qbstep+k2Qestep
Figure BDA0003520892660000031
其中,re为EL层DCT变化的系数,Qestep为EL层量化步长,rb表示,Qbstep表示,r表示DCT变换系数,d表示整数DCT变换矩阵在(i,μ)处的值,xμv表示残差矩阵在(μ,v)处的值;
步骤3:获取DCT整数变换矩阵A,根据DCT整数变换矩阵A得到d的最大值为1,则有:
Figure BDA0003520892660000041
步骤4:根据re和|r|的表达式得到:
Figure BDA0003520892660000042
其中,xμv e和xμv b分别是EL和BL中的残差系数,
Figure BDA0003520892660000043
为4x4残块的绝对差之和,则16x16残块的绝对差之和为:
Figure BDA0003520892660000044
步骤5:将SAD替换成RD,得到ILR模式提前终止的表达式为:
Figure BDA0003520892660000045
其中,ILRcost表示当前编码单元增强层率失真值,RDb表示当前编码单元基本层的率失真值;
步骤6:根据ILR模式提前终止的表达式判断当前编码单元是否进行ILR层间早期终止,并得到当前编码单元为ILR模式中不同模式的最佳k2
进一步的,inter模式提起终止条件的确定过程包括:
步骤1:获取当前编码单元中增强层以及相邻CU和基本层以及相邻CU的量化系数z1、z2和z3、z4;根据当前编码单元中增强层的量化系数确定inter模式下的最小系数值k3
步骤2:根据确定的最小系数值k3得到:
|r1-r2|≤Qestep|r3-r4|/Qbstep+k3Qestep
其中,r1、r2、r3、r4分别为z1、z2、z3、z4的DCT变换系数;
步骤3:根据|r|的表达式和步骤2中的表达式可得:
Figure BDA0003520892660000051
其中,xμv e和xμv b分别是EL和BL中的残差系数,
Figure BDA0003520892660000052
为4x4残块的绝对差之和,则16x16残块的绝对差之和为:
SAD1-SAD2≤Qestep(SAD3-SAD4)/Qbstep+16k3Qestep
其中,SAD1表示16x16宏块的增强层当前编码单元绝对差值之和,SAD2表示16x16宏块的增强层相邻编码单元绝对差值之和,SAD3表示16x16宏块的基本层当前编码单元绝对差值之和,SAD4表示16x16宏块的基本层相邻编码单元绝对差值之和;
步骤5:将SAD换成率失真值,得到inter模式提起终止条件表达式:
RD1-RD2≤Qestep(RD3-RD4)/Qbstep+16k3Qestep
其中,RD1表示增强层当前编码单元的率失真值,RD2表示增强层相邻编码单元的率失真值,RD3表示基本层当前编码单元的率失真值,RD4表示基本层相邻编码单元的率失真值;
步骤6:根据inter模式提前终止的表达式判断当前编码单元是否进行ILR层间早期终止,并得到当前编码单元为ILR模式中不同模式的最佳k3
2Nx2N模式,Nx2N或者2NxN模式同理,找出每个部分k3的最佳值。
优选的,判断当前编码单元是否需要进一步划分的过程包括:
步骤1:设置初始编码单元终止划分和进一步划分的率失真期望向量和协方差矩阵分别为μ1,∑1和μ2,∑2;获取当前编码单元对应的高斯混合模型;
步骤2:计算高斯混合模型的似然函数;
步骤3:对似然函数进行求导;
步骤4:在对求导后的似然函数分别对πkk,∑k求导,并对令各个求导后的函数等于0,得到μk和∑k的表达式;μk和∑k的表达式为:
Figure BDA0003520892660000061
Figure BDA0003520892660000062
Figure BDA0003520892660000063
Figure BDA0003520892660000064
其中,μk表示率失真期望向量(其中k=1表示终止划分的率失真期望向量,k=2时表示进一步划分的率失真期望向量),Nk表示第k类的样本总量(k=1表示终止划分的样本总量,k=2表示进一步划分样本的总量),γ(i,k)表示对于每个数据来说,它是由第k个部分生成的概率,∑k表示协方差矩阵(k=1表示终止划分的协方差矩阵,k=2表示进一步划分的协方差矩阵),xi表示率失真值,N表示要测试的全部编码单元的总量;
步骤5:根据μk和∑k的表达式得到
Figure BDA0003520892660000065
步骤6:根据设置的初始编码单元终止划分和进一步划分的率失真期望向量和协方差矩阵对公式μk、πk以及γ(i,k)进行迭代处理,直到该似然函数收敛为止;
步骤7:当似然函数收敛时获取当前编码单元终止划分和进一步划分的可能性;当终止划分的可能性大于设置的划分阈值时,结束整个过程,当终止划分的可能性小于设置的最小阈值时,则继续划分,直到编码单元编完为止。
进一步的,设置初始编码单元终止划分和进一步划分的率失真期望向量和协方差矩阵的公式为:
Figure BDA0003520892660000066
其中,pix(i)为第i个终止划分编码单元的像素值,m为终止划分的编码单元的个数,average为期望也就是平均值,varience为方差。
进一步的,似然函数的表达式为:
Figure BDA0003520892660000071
其中,N表示需要测试的样本总量,p(xi|π,μ,∑)表示高斯混合模型的表示形式,xi表示率失真值(终止划分的可能性或者进一步划分的率失真值),π表示可能性(终止划分的可能性或者进一步划分的可能性),μ表示率失真期望向量,∑表示协方差矩阵,N(xi1,∑1)表示终止细分或进一步细分的似然函数。
本发明的有益效果:
本发明通过将当前编码单元的相邻编码单元和父编码单元进行关联,并采贝叶斯公式计算当前编码单元采用各种模式的可能性概率,预测了当前编码单元可能采用的编码模式;在当前编码模式下通过计算当前编码单元是否提前终止划分的条件来判断该单元是否终止划分,提高了划分的时间和效率。
附图说明
图1为现有的SHVC标准编码框架;
图2为本发明的基于SHVC质量可伸缩帧间视频编码方法的流程图;
图3为本发明的增强层和基本层编码单元示意图;
图4为本发明的当前编码单元和父编码单元示意图;
图5为本发明的终止细分和进一步细分的率失真分布图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
一种基于SHVC质量可伸缩帧间视频编码方法,如图2所示,该方法包括:
S1:获取当前编码单元的深度,并获取当前编码单元的相邻编码单元和父编码单元的的模式信息;
S2:根据当前编码单元的相邻编码单元和父编码单元的模式信息采用贝叶斯公式计算当前编码单元采用各个模式的概率;编码单元采用的模式包括ILR模式和inter模式;
S3:根据不同模式的概率确定当前编码单元的编码模式;
S4:判断当前编码单元是否提前终止划分,若提前终止划分,则得到划分结果,若不提前终止划分,则进入下一个深度,并返回步骤S2。
SHVC质量可伸缩帧间编码算法研究是利用层间相关性以及空间相关性来进行预测的,其主体流程包括以下几个步骤:
步骤1:因为当前编码单元和相邻编码单元存在很强的相关性,这就使得他们的模式具有高度的相关性,并且如果当前编码单元对应的父编码单元采用一种模式,那么当前编码单元采用同一种模式的可能性很大,同时考虑到相关性程度的问题,因为虽然当前编码单元和其父编码单元以及相邻编码单元有很强的的相关性,但还是有可能不会参考这两个标准的,如果再加上相关性程度,那么对于预测模式会更加准确。
首先帧间编码分为ILR模式和inter模式,本申请中研究占据比例比较多的为ILR模式,在inter模式中包括Merge模式,2Nx2N,Nx2N,2NxN模式,利用相邻编吗单元以及父编码单元的模式根据贝叶斯公式得出当前编码单元采用以上几种模式的可能性。如图3和图4所示,增强层(EL)、基本层(BL)以及当前编码单元和其父编码单元。其中C为当前编码单元(CU),L,UL,U,UR分别为EL层相邻CU,BC为当前CU统一位置的BL层的CU,BL,BUL,BU,BUR分别为BC位置的相邻CU。U0表示当前深度的CU,U1、U2、U3表示当前深度CU的相邻CU,而U0、U1、U2、U3四个CU一起组成了当前深度的父CU(也就是上一个深度的CU)。
获取到上述所说的CU的模式信息,之后利用贝叶斯公式计算当前编码CU采取各模式的可能性。采用贝叶斯公式计算当前编码单元采用各个模式的概率的公式为:
Figure BDA0003520892660000091
其中,fd(cd)表示当前编码单元采用cd模式的可能性,cd表示当前编码单元的模式,cd可能的值为0(ILR模式),1(merge模式),2(2Nx2N模式),3(2NxN或者Nx2N模式);p((nd,nr)|cd)表示给定当前CU使用模式cd的条件概率下相邻CU使用向量(nd,nr)的概率,nd表示相邻CU使用的模式,nr表示当前CU和相邻CU的相关性程度,p(pr|cd)表示当前CU使用模式cd的条件概率下父CU使用使用pr模式的概率,pr表示父CU使用的模式,p(cd)表示当前CU使用模式cd的概率,p(nd,nr)表示相关性程度为nr并且当前编码单元的相邻CU采用nd模式的概率,p(pr)表示父CU采用模式pr的概率。
由于除QP外,BL中的CU和EL中同等位置的CU都是相同的,所以可以将EL中CUs的相关性程度设置为与BL中同处的CUs的相关程度相同。显然,相邻CUs在深度上的绝对差异越小,其空间相关性越强;反之亦然。也就是说,相邻CUs在BL深度的绝对差异与相关程度成反比。设nbd为BL中CU BC的相邻CUs的模式。由于相邻CUs在模式上的最大绝对差为4,将要预测的模式分为四类,ILR记为模式0,merge记为模式1,2Nx2N记为模式2,Nx2N或者2NxN记为模式3,其他模式记为模式4,因此关联度向量的第i(0≤i≤3)分量nri可表示如下:
nri=4-|ndi-nbdi| (2)
其中ndi和nbdi分别为深度级向量nd和nbd的第i个分量(0≤i≤3),nri表示第i个相邻编码单元和当前编码单元的模式关联度。
由于当前CU有4个相邻的CU,所以每个向量有4个分量,每个分量取5个值,分别为0、1、2、3、4。如果直接使用式(1)进行计算,过程会非常复杂。为了克服这个问题,可以使用朴素贝叶斯分类器,它可以做一个条件独立的假设。换句话说,我们假设每个CU的关联深度和程度是相互独立的。也就是说,一个向量的不同分量是独立的。根据这个独立性假设,式(1)可计算为:
Figure BDA0003520892660000101
将编码单元C、FC、L、U、UL、UR中的p(nd,nr)设置为其平均值,使得不同模式的概率分布与它们的位置无关;即不同的分量应该有相同的模式概率分布。根据上述实验条件,得到向量(nd,nr)和(nd,nr|cd)中第i(0≤i≤3)分量的模式概率分布,分别表示为p(ndi,nri)和p((ndi,nri)|cd),对CU来说,每个深度不同,所得到的模式概率也是不同的,所以将以上概率分不同深度分别列于下表中。
表1深度为0时p(ndi,nri)表示的概率分布
Figure BDA0003520892660000102
表2深度为1时p(ndi,nri)表示的概率分布
Figure BDA0003520892660000103
表3深度为2时p(ndi,nri)表示的概率分布
Figure BDA0003520892660000104
Figure BDA0003520892660000111
表4深度为3时p(ndi,nri)表示的概率分布
Figure BDA0003520892660000112
表5深度为0时p((ndi,nri)|cd)表示的概率分布
Figure BDA0003520892660000113
表6深度为1时p(pr|cd)表示的概率分布
Figure BDA0003520892660000114
Figure BDA0003520892660000121
表7深度为2时p(pr|cd)表示的概率分布
Figure BDA0003520892660000122
表8深度为3时p(pr|cd)表示的概率分布
Figure BDA0003520892660000123
在相同条件下,得到每个深度中p(cd)的概率分布如下表所示:
表9各深度为p(cd)表示的概率分布
cd 0 1 2 3 4
depth0 2.715% 52.764% 5.514% 28.283% 10.724%
depth1 0.627% 66.320% 5.029% 13.703% 14.321%
depth2 0.704% 81.697% 4.123% 6.503% 6.973%
depth3 1.295% 93.414% 2.662% 2.571% 0.059%
表10深度1,2,3为p(pr)表示的概率分布
pr 0 1 2 3 4
depth1 1.583% 59.482% 5.467% 21.156% 12.311%
depth2 0.652% 74.031% 4.668% 10.128% 10.520%
depth3 1.293% 1.293% 3.376% 4.418% 3.371%
使用模式为cd的当前CU的条件概率fd(cd)可根据公式(3)得到。由于计算可能会涉及到一些舍入误差,因此五个模式概率不一定总是等于1,各个模式的概率的公式可改写为:
Figure BDA0003520892660000131
其中,fd(0)表示当前编码单元模式为0的概率,fd(1)表示当前编码单元采用模式为1的概率,fd(2)表示当前编码单元采用模式为2的概率,fd(3)表示当前编码单元采用模式为3的概率,fd(4)表示当前编码单元采用模式为4的概率。
步骤2:结合步骤1得到当前CU采用ILR模式的可能性,因为采用ILR模式的可能性是0-100%,将这个范围分为五部分,分别是0-20%,20%-40%,40%-60%,60%-80%,80%-100%。
根据量化后的DCT系数的层间相关性,提出了层间早期终止,停止对其他模式的检查。因为在增强层(EL)和基本层(BL)相同位置的编码单元,除了QP(量化参数)不同之外,其他都是相同的,所以如果两层之间相同位置编码单元的量化系数之差很小,那么两层之间相同位置的编码单元采用相同的模式。根据以上分析得出:
ze-zb≤k2 (5)
其中ze和zb分别为增强层和基本层的量化系数,k2为实验得到的最小系数值。根据
Figure BDA0003520892660000132
其中re为EL层DCT变化的系数,Qestep为EL层量化步长,可以得出:
re≤Qesteprb/Qbstep+k2Qestep (6)
Figure BDA0003520892660000133
其中re为EL层DCT变化的系数,Qestep为EL层量化步长,rb表示,Qbstep表示,r表示DCT变换系数,d表示整数DCT变换矩阵在(i,μ)处的值,xμv表示残差矩阵在(μ,v)处的值。由式(7)可以得出下式:
Figure BDA0003520892660000141
由4x4的DCT整数变换矩阵A:
Figure BDA0003520892660000142
再根据DCT变换,可以得出d的最大值为1,得出:
Figure BDA0003520892660000143
根据(6)式和(8)式可以得到:
Figure BDA0003520892660000144
其中xμv e和xμv b分别是EL和BL中的残差系数,
Figure BDA0003520892660000145
是4x4残块的绝对差之和(SAD),那么16x16残块可以被写成下式:
Figure BDA0003520892660000146
将SAD替换成RD,得到ILR模式提前终止的公式:
Figure BDA0003520892660000147
其中,ILRcost表示当前编码单元增强层率失真值,RDb表示当前编码单元基本层的率失真值
根据上式得出是否要进行ILR层间早期终止,这里结合可能性进行,通过实验分别得出当前编码单元为ILR模式中可能性为0-20%、20%-40%、40%-60%、60%-80%、80%-100%时的最佳k2值。
步骤3:如果满足步骤2中的条件则进行层间早期终止,如果不终止,则进行检查inter模式。同理首先通过步骤1先得到得到各inter模式的可能性,然后进行Merge模式,然后进行2Nx2N模式,接着是Nx2N或者2NxN这些模式的检查,如果不是以上模式,则定义当前编码单元的模式为其他模式。
根据量化DCT系数中的空间相关性,提出空间早期终止,来停止对当前编码单元的其他模式的检查。如果一个编码单元和他相邻的编码单元在基本层中是相同的,那么在增强层中相同位置的两个模式也可能是一样的。但是基本层和增强层的QP不同,同时增强层中两个编码单元的模式并不总是相同的。如果在基本层中当前编码单元和其中的相邻编码单元这两个编码单元采用相同的模式,并且他们的量化系数大于增强层中相同位置的两个编码单元的量化系数差,说明QP对模式选择的影响可以忽略,因此增强层中的两个编码单元也该采用相同的模式,因此提出空间早期终止,如下所示:
|z1-z2|-|z3-z4|≤k3 (12)
式中z1、z2为增强层中相邻的两个编码单元的量化系数,z3、z4为基本层中相邻的两个编码单元的量化系数,k3为小的系数值,是通过实验得到的。推导式(12)为以下式子:
|z1-z2|-|z3-z4|≤k3 (13)
其中r1、r2、r3、r4分别为z1、z2、z3、z4的DCT变换系数,由式(13)推导出下式为:
|r1-r2|≤Qestep|r3-r4|/Qbstep+k3Qestep (14)
结合(8)式和(14)式推导出式子如下:
Figure BDA0003520892660000151
那么对于16x16残块的SAD为:
SAD1-SAD2≤Qestep(SAD3-SAD4)/Qbstep+16k3Qestep (15)
其中,SAD1表示16x16宏块的增强层当前编码单元绝对差值之和,SAD2表示16x16宏块的增强层相邻编码单元绝对差值之和,SAD3表示16x16宏块的基本层当前编码单元绝对差值之和,SAD4表示16x16宏块的基本层相邻编码单元绝对差值之和。
将SAD换成率失真值(RD-cost),得到下式:
RD1-RD2≤Qestep(RD3-RD4)/Qbstep+16k3Qestep (16)
其中,RD1表示增强层当前编码单元的率失真值,RD2表示增强层相邻编码单元的率失真值,RD3表示基本层当前编码单元的率失真值,RD4表示基本层相邻编码单元的率失真值。
在预测当前编码单元是否为merge模式时,首先将当前编码单元采用merge模式的可能性分为0-20%、20%-40%、40%-60%、60%-80%、80%-100%五个部分,然后根据上式求出每个部分的阈值k3的最佳值;2Nx2N模式,Nx2N或者2NxN模式同理,找出每个部分k3的最佳值。以此找到当前编码单元的最佳模式,之后进行步骤4。
步骤4:当前编码单元每次都要进行从深度0到深度3的编码,每一层都要进行大量的编码,基于此,本文提出基于率失真值的深度提前终止算法。一般来说,率失真较大的编码单元,需要进一步细分的可能性比较大;反之,率失真较小的编码单元,终止细分的可能性比较大,如图5所示:横坐标是率失真值,纵坐标为对应的概率密度值。左边的高斯分布代表终止划分的编码单元的率失真值,右边代表需要进一步划分的率失真值。因此可以利用率失真值预测当前编码单元是否需要进一步划分,较多的文献,对于终止划分和进一步划分这两种编码深度,他们的率失真值都服从高斯分布,但是期望和方差不同,因此,首先采用高斯混合模型(GMM)来拟合编码单元的率失真分布,然后采用该模型的最大期望聚类(EM)来判断当前编码单元是否需要进一步划分,具体如下:
设编码单元终止划分和进一步划分的率失真期望向量和协方差矩阵分别为μ1,∑1和μ2,∑2。对于率失真值x,其对应的高斯混合模型如下:
p(xi|π,μ,∑)=π1N(xi1,∑1)+π2N(xi2,∑2) (17)
π1和π2分别为停止细分和进一步细分的可能性,为了求出上式中的六个未知参数,使用最大期望聚类(EM)进行求解,该高斯混合模型的似然函数如下:
Figure BDA0003520892660000171
其中,N表示需要测试的样本总量,p(xi|π,μ,∑)表示高斯混合模型的表示形式,xi表示率失真值(终止划分的可能性或者进一步划分的率失真值),π表示可能性(终止划分的可能性或者进一步划分的可能性),μ表示率失真期望向量,∑表示协方差矩阵,N(xi1,∑1)表示终止细分或进一步细分的似然函数。
对似然函数进行求导得:
Figure BDA0003520892660000172
再分别对πkk,∑k求导得:
Figure BDA0003520892660000173
k=1或者2(k这里代表的是将样本分为几个类别),通过(20)可以得到:
Figure BDA0003520892660000174
其中
Figure BDA0003520892660000175
则可以得到:
Figure BDA0003520892660000176
γ(i,k)表示对于每个数据xi来说,它是由第k个部分生成的概率,其值为:
Figure BDA0003520892660000177
重复迭代(21),(22),(23),直到该似然函数的值收敛为止。
在整个迭代过程中,对初始值进行赋值如下:
对于μ1,∑1我们根据终止划分的编码单元进行求解期望和方差,根据以下公式进行求解:
Figure BDA0003520892660000181
其中pix(i)为第i个终止划分编码单元的像素值,m为终止划分的编码单元的个数,average为期望也就是平均值,varience为方差,同理也可以使用同样的方式求出μ2,∑2。为了确定当前编码单元是否终止细分,需要确定γ(0,k),是否收敛,设γ(0,k)是第i次迭代表示为γi(i,k),如果γi-1(i,k)和γi(i,k)绝对差很小,可终止迭代,选择0.01为阈值,既满足:
i-1(i,k)-γi(i,k)|≤0.01 (25)
如果满足式(25),则可以终止重复迭代。通过以上过程,得到当前CU终止划分和进一步划分的可能性。当终止划分的可能性大于0.9时,结束整个过程,当终止划分的可能性小于0.05时,表示要继续划分,进行下一个深度返回步骤1,直到编码单元编完为止。
以上所举实施例,对本发明的目的、技术方案和优点进行了进一步的详细说明,所应理解的是,以上所举实施例仅为本发明的优选实施方式而已,并不用以限制本发明,凡在本发明的精神和原则之内对本发明所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (10)

1.一种基于SHVC质量可伸缩帧间视频编码方法,其特征在于,包括:
S1:获取当前编码单元的深度,并获取当前编码单元的相邻编码单元和父编码单元的的模式信息;
S2:根据当前编码单元的相邻编码单元和父编码单元的模式信息采用贝叶斯公式计算当前编码单元采用各个模式的概率;编码单元采用的模式包括ILR模式和inter模式;
S3:根据不同模式的概率确定当前编码单元的编码模式;
S4:利用率失真值判断当前编码单元是否提前终止划分,若提前终止划分,则得到划分结果,若不提前终止划分,则进入下一个深度,并返回步骤S2;利用率失真值判断当前编码单元是否提前终止划分的过程包括:采用高斯混合模型拟合编码单元的率失真分布,计算该模型的最大期望聚类,根据最大期望聚类判断当前编码单元是否需要进一步划分。
2.根据权利要求1所述的一种基于SHVC质量可伸缩帧间视频编码方法,其特征在于,采用贝叶斯公式计算当前编码单元采用各个模式的概率的公式为:
Figure FDA0003520892650000011
其中,fd(cd)表示当前编码单元采用cd模式的可能性,cd表示当前编码单元的模式,p((nd,nr)|cd)表示给定当前CU使用模式cd的条件概率下相邻CU使用向量(nd,nr)的概率,nd表示相邻CU使用的模式,nr表示当前CU和相邻CU的相关性程度,p(pr|cd)表示当前CU使用模式cd的条件概率下父CU使用使用pr模式的概率,pr表示父CU使用的模式,p(cd)表示当前CU使用模式cd的概率,p(nd,nr)表示相关性程度为nr并且当前编码单元的相邻CU采用nd模式的概率,p(pr)表示父CU采用模式pr的概率。
3.根据权利要求2所述的一种基于SHVC质量可伸缩帧间视频编码方法,其特征在于,当前CU和相邻CU以及父CU的相关性的过程包括:基本层BL中的CU和增强层EL中同等位置的CU除量化参数QP不同之外的其他参数相同,则将EL中CUs的相关性程度设置为与BL中相同位置的CUs的相关程度相同;相邻CUs在深度上的绝对差异越小,其空间相关性越强,则设nbd为BL中CUBC的相邻CUs的模式;相邻CUs在模式上的最大绝对差为4,则将预测的模式分为四类,ILR记为模式0,merge记为模式1,2Nx2N记为模式2,Nx2N或者2NxN记为模式3,其他模式记为模式4;采用关联度向量公式计算相邻CU以及父CU的相关性。
4.根据权利要求3所述的一种基于SHVC质量可伸缩帧间视频编码方法,其特征在于,关联度向量公式为:
nri=4-|ndi-nbdi|
其中,ndi和nbdi分别为深度级向量nd和nbd的第i个分量,nri表示第i个相邻编码单元和当前编码单元的模式关联度。
5.根据权利要求1所述的一种基于SHVC质量可伸缩帧间视频编码方法,其特征在于,判断当前编码单元是否提前终止划分包括确定当前编码单元提前终止划分的条件,该条件包括ILR模式提前终止条件和inter模式提起终止条件;当满足提前终止条件时,则输出划分结果,若不满足条件时则继续划分。
6.根据权利要求5所述的一种基于SHVC质量可伸缩帧间视频编码方法,其特征在于,ILR模式提前终止条件的确定过程包括:
步骤1:获取当前编码单元中增强层和基本层的量化系数ze和zb;根据量化系数ze和zb确定系统的最小系数值k2
步骤2:根据当前编码单元中增强层的量化系数ze和最小系数值k2可得DCT变换系数以及量化步长之间关系公式如下:
re≤Qesteprb/Qbstep+k2Qestep
Figure FDA0003520892650000031
其中,re为EL层DCT变化的系数,Qestep为EL层量化步长,rb表示,Qbstep表示,r表示DCT变换系数,d表示整数DCT变换矩阵在(i,μ)处的值,xμv表示残差矩阵在(μ,v)处的值;
步骤3:获取DCT整数变换矩阵A,根据DCT整数变换矩阵A得到d的最大值为1,则有:
Figure FDA0003520892650000032
步骤4:根据re和|r|的表达式得到:
Figure FDA0003520892650000033
其中,xμv e和xμv b分别是EL和BL中的残差系数,
Figure FDA0003520892650000034
为4x4残块的绝对差之和,则16x16残块的绝对差之和为:
Figure FDA0003520892650000035
步骤5:将SAD替换成RD,得到ILR模式提前终止的表达式为:
Figure FDA0003520892650000036
其中,ILRcost表示当前编码单元增强层率失真值,RDb表示当前编码单元基本层的率失真值;
步骤6:根据ILR模式提前终止的表达式判断当前编码单元是否进行ILR层间早期终止,并得到当前编码单元为ILR模式中不同模式的最佳k2
7.根据权利要求5所述的一种基于SHVC质量可伸缩帧间视频编码方法,其特征在于,inter模式提起终止条件的确定过程包括:
步骤1:获取当前编码单元中增强层以及相邻CU和基本层以及相邻CU的量化系数z1、z2和z3、z4;根据当前编码单元中增强层的量化系数确定inter模式下的最小系数值k3
步骤2:根据确定的最小系数值k3得到:
|r1-r2|≤Qestep|r3-r4|/Qbstep+k3Qestep
其中,r1、r2、r3、r4分别为z1、z2、z3、z4的DCT变换系数;
步骤3:根据|r|的表达式和步骤2中的表达式可得:
Figure FDA0003520892650000041
其中,xμv e和xμv b分别是EL和BL中的残差系数,
Figure FDA0003520892650000042
为4x4残块的绝对差之和,则16x16残块的绝对差之和为:
SAD1-SAD2≤Qestep(SAD3-SAD4)/Qbstep+16k3Qestep
其中,SAD1表示16x16宏块的增强层当前编码单元绝对差值之和,SAD2表示16x16宏块的增强层相邻编码单元绝对差值之和,SAD3表示16x16宏块的基本层当前编码单元绝对差值之和,SAD4表示16x16宏块的基本层相邻编码单元绝对差值之和;
步骤5:将SAD换成率失真值,得到inter模式提起终止条件表达式:
RD1-RD2≤Qestep(RD3-RD4)/Qbstep+16k3Qestep
其中,RD1表示增强层当前编码单元的率失真值,RD2表示增强层相邻编码单元的率失真值,RD3表示基本层当前编码单元的率失真值,RD4表示基本层相邻编码单元的率失真值;
步骤6:根据inter模式提前终止的表达式判断当前编码单元是否进行ILR层间早期终止,并得到当前编码单元为ILR模式中不同模式的最佳k3
2Nx2N模式,Nx2N或者2NxN模式同理,找出每个部分k3的最佳值。
8.根据权利要求1所述的一种基于SHVC质量可伸缩帧间视频编码方法,其特征在于,判断当前编码单元是否需要进一步划分的过程包括:
步骤1:设置初始编码单元终止划分和进一步划分的率失真期望向量和协方差矩阵分别为μ1,∑1和μ2,∑2;获取当前编码单元对应的高斯混合模型;
步骤2:计算高斯混合模型的似然函数;
步骤3:对似然函数进行求导;
步骤4:在对求导后的似然函数分别对πkk,∑k求导,并对令各个求导后的函数等于0,得到μk和∑k的表达式;μk和∑k的表达式为:
Figure FDA0003520892650000051
Figure FDA0003520892650000052
Figure FDA0003520892650000053
Figure FDA0003520892650000054
其中,μk表示率失真期望向量(其中k=1表示终止划分的率失真期望向量,k=2时表示进一步划分的率失真期望向量),Nk表示第k类的样本总量(k=1表示终止划分的样本总量,k=2表示进一步划分样本的总量),γ(i,k)表示对于每个数据来说,它是由第k个部分生成的概率,∑k表示协方差矩阵(k=1表示终止划分的协方差矩阵,k=2表示进一步划分的协方差矩阵),xi表示率失真值,N表示要测试的全部编码单元的总量;
步骤5:根据μk和∑k的表达式得到
Figure FDA0003520892650000055
步骤6:根据设置的初始编码单元终止划分和进一步划分的率失真期望向量和协方差矩阵对公式μk、πk以及γ(i,k)进行迭代处理,直到该似然函数收敛为止;
步骤7:当似然函数收敛时获取当前编码单元终止划分和进一步划分的可能性;当终止划分的可能性大于设置的划分阈值时,结束整个过程,当终止划分的可能性小于设置的最小阈值时,则继续划分,直到编码单元编完为止。
9.根据权利要求8所述的一种基于SHVC质量可伸缩帧间视频编码方法,其特征在于,设置初始编码单元终止划分和进一步划分的率失真期望向量和协方差矩阵的公式为:
Figure FDA0003520892650000061
其中,pix(i)为第i个终止划分编码单元的像素值,m为终止划分的编码单元的个数,average为期望也就是平均值,varience为方差。
10.根据权利要求8所述的一种基于SHVC质量可伸缩帧间视频编码方法,其特征在于,似然函数的表达式为:
Figure FDA0003520892650000062
其中,N表示需要测试的样本总量,p(xi|π,μ,∑)表示高斯混合模型的表示形式,xi表示率失真值,π表示可能性,μ表示率失真期望向量,∑表示协方差矩阵,N(xi1,∑1)表示终止细分或进一步细分的似然函数。
CN202210181012.3A 2022-02-25 2022-02-25 一种基于shvc质量可伸缩帧间视频编码方法 Active CN114520914B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210181012.3A CN114520914B (zh) 2022-02-25 2022-02-25 一种基于shvc质量可伸缩帧间视频编码方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210181012.3A CN114520914B (zh) 2022-02-25 2022-02-25 一种基于shvc质量可伸缩帧间视频编码方法

Publications (2)

Publication Number Publication Date
CN114520914A true CN114520914A (zh) 2022-05-20
CN114520914B CN114520914B (zh) 2023-02-07

Family

ID=81598881

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210181012.3A Active CN114520914B (zh) 2022-02-25 2022-02-25 一种基于shvc质量可伸缩帧间视频编码方法

Country Status (1)

Country Link
CN (1) CN114520914B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116320398A (zh) * 2023-03-22 2023-06-23 重庆邮电大学 基于神经网络优化的质量shvc编码方法
CN116456088A (zh) * 2023-03-30 2023-07-18 重庆邮电大学 一种基于可能性大小的vvc帧内快速编码方法

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150189298A1 (en) * 2014-01-02 2015-07-02 Vid Scale, Inc. Methods, apparatus and systems for scalable video coding with mixed interlace and progressive content
US20150281735A1 (en) * 2014-03-28 2015-10-01 Univesity-Industry Cooperation Group of Kyung Hee University Method and apparatus for encoding of video using depth information
WO2017020021A1 (en) * 2015-07-29 2017-02-02 Vid Scale, Inc. Scalable high efficiency video coding to high efficiency video coding transcoding
CN108259898A (zh) * 2018-02-01 2018-07-06 重庆邮电大学 基于质量可伸缩视频编码qshvc的帧内快速编码方法
CN110087087A (zh) * 2019-04-09 2019-08-02 同济大学 Vvc帧间编码单元预测模式提前决策及块划分提前终止方法
US20200404296A1 (en) * 2017-03-02 2020-12-24 Interdigital Vc Holdings, Inc. Method and a device for picture encoding and decoding
CN112383776A (zh) * 2020-12-08 2021-02-19 重庆邮电大学 一种shvc视频编码模式快速选择的方法及装置
US20210344917A1 (en) * 2018-12-07 2021-11-04 Huawei Technologies Co., Ltd. Constrained Prediction Mode for Video Coding
CN113709492A (zh) * 2021-08-25 2021-11-26 重庆邮电大学 一种基于分布特征的shvc空间可伸缩视频编码方法

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150189298A1 (en) * 2014-01-02 2015-07-02 Vid Scale, Inc. Methods, apparatus and systems for scalable video coding with mixed interlace and progressive content
US20150281735A1 (en) * 2014-03-28 2015-10-01 Univesity-Industry Cooperation Group of Kyung Hee University Method and apparatus for encoding of video using depth information
WO2017020021A1 (en) * 2015-07-29 2017-02-02 Vid Scale, Inc. Scalable high efficiency video coding to high efficiency video coding transcoding
US20200404296A1 (en) * 2017-03-02 2020-12-24 Interdigital Vc Holdings, Inc. Method and a device for picture encoding and decoding
CN108259898A (zh) * 2018-02-01 2018-07-06 重庆邮电大学 基于质量可伸缩视频编码qshvc的帧内快速编码方法
US20210344917A1 (en) * 2018-12-07 2021-11-04 Huawei Technologies Co., Ltd. Constrained Prediction Mode for Video Coding
CN110087087A (zh) * 2019-04-09 2019-08-02 同济大学 Vvc帧间编码单元预测模式提前决策及块划分提前终止方法
CN112383776A (zh) * 2020-12-08 2021-02-19 重庆邮电大学 一种shvc视频编码模式快速选择的方法及装置
CN113709492A (zh) * 2021-08-25 2021-11-26 重庆邮电大学 一种基于分布特征的shvc空间可伸缩视频编码方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
DAYONG WANG,ET AL.: "Fast Depth and Inter Mode Prediction for Quality Scalable High Efficiency Video Coding", 《 IEEE TRANSACTIONS ON MULTIMEDIA ( VOLUME: 22, ISSUE: 4, APRIL 2020)》 *
DAYONG WANG,ET AL.: "Fast Inter Mode Predictions for SHVC", 《2019 IEEE INTERNATIONAL CONFERENCE ON MULTIMEDIA AND EXPO (ICME)》 *
YU LU,ET AL.: "Fast SHVC inter-coding based on Bayesian decision with coding depth estimation", 《SPRINGER LINK》 *
朱威等: "基于时空相关性的HEVC帧间模式决策快速算法", 《通信学报》 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116320398A (zh) * 2023-03-22 2023-06-23 重庆邮电大学 基于神经网络优化的质量shvc编码方法
CN116320398B (zh) * 2023-03-22 2024-04-05 重庆邮电大学 基于神经网络优化的质量shvc编码方法
CN116456088A (zh) * 2023-03-30 2023-07-18 重庆邮电大学 一种基于可能性大小的vvc帧内快速编码方法

Also Published As

Publication number Publication date
CN114520914B (zh) 2023-02-07

Similar Documents

Publication Publication Date Title
CN114520914B (zh) 一种基于shvc质量可伸缩帧间视频编码方法
Cui et al. Convolutional neural networks based intra prediction for HEVC
CN103873861B (zh) 一种用于hevc的编码模式选择方法
CN101964906B (zh) 基于纹理特性的快速帧内预测方法和装置
US20220201316A1 (en) Using Rate Distortion Cost as a Loss Function for Deep Learning
CN104243997B (zh) 一种质量可分级hevc视频编码方法
CN106131546B (zh) 一种提前确定hevc合并和跳过编码模式的方法
CN108924558B (zh) 一种基于神经网络的视频预测编码方法
CN108174204B (zh) 一种基于决策树的帧间快速模式选择方法
CN105933711B (zh) 基于分割的邻域最优概率视频隐写分析方法及系统
CN111510728B (zh) 一种基于深度特征表达与学习的hevc帧内快速编码方法
CN101977323B (zh) 基于视频时空相关性约束的分布式视频编码重构方法
CN103384325A (zh) 一种avs-m视频编码快速帧间预测模式选择方法
CN108259898B (zh) 基于质量可伸缩视频编码qshvc的帧内快速编码方法
CN116489386A (zh) 一种基于参考块的vvc帧间快速编码方法
CN108769696A (zh) 一种基于Fisher判别式的DVC-HEVC视频转码方法
WO2023024115A1 (zh) 编码方法、解码方法、编码器、解码器和解码系统
CN109688411B (zh) 一种视频编码率失真代价估计方法和装置
CN100362869C (zh) 多帧运动估计中的基于模式继承的自适应参考帧选择方法
CN110581993A (zh) 一种基于多用途编码中帧内编码的编码单元快速划分方法
WO2018023352A1 (zh) 一种基于在线学习的快速运动估计方法
CN114143536B (zh) 一种shvc空间可伸缩帧的视频编码方法
Mercat et al. Machine learning based choice of characteristics for the one-shot determination of the HEVC intra coding tree
CN110035285B (zh) 基于运动矢量敏感度的深度预测方法
Cui et al. Fast mode decision for HD scalable video coding via statistical content analysis

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right

Effective date of registration: 20240227

Address after: Room 801, 85 Kefeng Road, Huangpu District, Guangzhou City, Guangdong Province

Patentee after: Guangzhou Dayu Chuangfu Technology Co.,Ltd.

Country or region after: China

Address before: 400065 Chongwen Road, Nanshan Street, Nanan District, Chongqing

Patentee before: CHONGQING University OF POSTS AND TELECOMMUNICATIONS

Country or region before: China

TR01 Transfer of patent right