CN108712647A - 一种用于hevc的cu划分方法 - Google Patents

一种用于hevc的cu划分方法 Download PDF

Info

Publication number
CN108712647A
CN108712647A CN201810474136.4A CN201810474136A CN108712647A CN 108712647 A CN108712647 A CN 108712647A CN 201810474136 A CN201810474136 A CN 201810474136A CN 108712647 A CN108712647 A CN 108712647A
Authority
CN
China
Prior art keywords
current
depth
ctu
encoded frame
rate distortion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201810474136.4A
Other languages
English (en)
Inventor
李卓明
赵钰
肖振健
岑尧辉
陈幸
沙学军
杨林森
侯静
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Harbin Institute of Technology
Original Assignee
Harbin Institute of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Harbin Institute of Technology filed Critical Harbin Institute of Technology
Priority to CN201810474136.4A priority Critical patent/CN108712647A/zh
Publication of CN108712647A publication Critical patent/CN108712647A/zh
Pending legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/119Adaptive subdivision aspects, e.g. subdivision of a picture into rectangular or non-rectangular coding blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/146Data rate or code amount at the encoder output
    • H04N19/147Data rate or code amount at the encoder output according to rate distortion criteria
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/159Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/172Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
    • H04N19/96Tree coding, e.g. quad-tree coding

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

一种用于HEVC的CU划分方法,本发明涉及高效视频编码技术HEVC。本发明的目的是为了解决现有HEVC编码的计算复杂度高,编码速度慢的问题。过程为:1、若当前CU的深度小于深度最小值,转5;若当前CU的深度大于或等于深度最大值,结束;反之,转2;2、对当前CU进行2Nx2N、2NxN和Nx2N模式的帧间预测编码,计算率失真代价,小于阈值,结束,反之转3;3、进行2Nx2N和NxN的帧内预测编码,计算率失真代价,小于阈值,结束,反之转4;4、判断当前CU是否达到深度最大值,若是结束,反之转5;5、将当前CU继续分割为四个NxN大小相等的子CU,转1。本发明用于HEVC领域。

Description

一种用于HEVC的CU划分方法
技术领域
本发明涉及视频编码技术领域,具体涉及高效视频编码技术HEVC(H.265)。
背景技术
名词解释:
HEVC:High Efficiency Video Coding,高性能视频编码
CTU:coding tree unit,编码树单元
CU:Coding Unit,编码单元
PU:Prediction Unit,预测单元
RD:Rate Distortion,率失真
近年来,随着计算机技术和互联网的发展,数字视频在视频通信,影视娱乐,安防监控,军事勘探等领域发挥着越来越重要的作用。而图像和视频这类信息含有较大部分的冗余信息,价值密度低,直接存储会浪费巨大的存储空间,因此高效率的视频压缩技术是视频应用的前提。随着2K、4K超高清分辨率的提出,现有的H.264/AVC技术已经无法达到其相应的压缩率。
为满足海量超清视频数据的传输和存储要求,视频编码国际标准组织JCT-VC(Joint Collaborative Team on Video Coding)于2013年提出了新一代视频压缩标准HEVC(High Efficiency Video Coding)。和上一代视频压缩标准H.264/AVC对比,它能够在保证相同的视频质量的前提下,节约大概一半的码率。然而HEVC在降低码率的同时,使计算复杂度大大提高,巨大的计算了限制了该技术在实时视频传输的推广与应用。
CU的四叉树划分技术是HEVC提出的一个很重要的创新点。对于图像上纹理细节匮乏或者变化不大的区域,如果采用小尺寸CU预测,可能会携带大量冗余的编码信息,降低压缩效率,因此这些区域适合用大尺寸CU来进行预测编码。对于图像上纹理细节丰富或者变化剧烈的区域,只有小尺寸的CU才可以保证预测的准确性。CU的四叉树划分结构正是基于这两点,从而进一步提高了HEVC的压缩效率。
CTU是在编码过程中的独立编码单位,而每一个CTU可以进一步均匀划分成4个CU,一个CU又可以递归地按四叉树结构划分成4个更小的CUs,依次类推,直到CU的划分深度达到最大值3的时候,终止CU的分割。当CTU的尺寸是64x64时,根据其划分深度(0,1,2,3)的不同,CU可以分为64x64,32x32,16x16,8x8四种尺寸大小。在对某一个CTU进行预测编码时,首先需要令不同深度的CU全部遍历一遍,即对85种可能的CU划分情况下的预测残差进行量化、编码,需要计算多次率失真代价。然后再根据率失真代价得到CU的最佳划分结果。
因此,为了使该技术更好地推广到对实时性要求高的视频应用中,亟需一种低复杂度的HEVC算法,在几乎不影响比特率和视频质量的前提下,能够节约编码时间,特别是能加快效率极低的CU划分过程。
发明内容
本发明的目的是为了解决现有HEVC编码的计算复杂度高,编码速度慢的问题,而提出一种用于HEVC的CU划分方法。
一种用于HEVC的CU划分方法,具体过程为:
步骤1、当前编码帧的当前CU的大小为2Nx2N,获取当前编码帧的当前CU的深度depth_cur,并获取与当前编码帧的当前CU空域相邻上侧CU和左侧CU的深度,从而估计出当前编码帧的当前CU深度最小值depth_min和最大值depth_max;
即|depth_cur-depth_up|≤1和|depth_cur-depth_left|≤1;
若当前编码帧的当前CU的深度depth_cur小于估计出的当前编码帧的当前CU深度最小值depth_min,则执行步骤5;
若当前编码帧的当前CU的深度depth_cur大于或等于估计出的当前编码帧的当前CU深度最大值depth_max,则执行步骤6;
反之,执行步骤2;
所述CU为编码单元;N取值为2n,且为正整数;
步骤2、对当前编码帧的当前CU进行2Nx2N模式、2NxN模式和Nx2N模式的帧间预测编码,并计算相应每个模式下的率失真代价,若率失真代价小于阈值,则执行步骤6,反之执行步骤3;
步骤3、对当前编码帧的当前CU在2Nx2N和NxN模式下遍历所有预测模式的帧内预测编码,并计算相应每个模式下的率失真代价,若率失真代价小于阈值,则执行步骤6,反之执行步骤4;
步骤4、判断当前编码帧的当前CU是否达到当前编码帧的当前CU深度最大值,即depth_cur=depth_max,若是,则执行步骤6,反之执行步骤5;
步骤5、将当前编码帧的当前CU继续分割为四个NxN大小相等的子CU,继续执行步骤1;
步骤6、当前编码帧的当前CU处理结束,不再继续划分。
本发明的有益效果为:
本发明提出一种用于HEVC的CU划分方法,利用空域相邻CU的深度信息限定当前CU的深度范围,并将率失真代价作为CU划分是否提前终止的依据:如果当前CU的RD代价小于该阀值,则认为当前CU的帧内预测已经足够好,不需要再继续分割。而率失真代价的阈值则需要事先统计RD代价的概率分布。
(1)本发明利用空域相邻CU的深度信息来限定当前CU的深度范围,利用RD代价来判别是否提前结束CU的划分,无需遍历CU所有可能的四叉树结构,在几乎不影响比特率和视频质量的前提下,降低了HEVC编码的计算复杂度,提高了HEVC标准的编码速度。
(2)本发明可以同时兼容于帧内与帧间预测的CU划分过程,使加速效果更加明显。
(3)本发明可根据需要,在具体的编码质量需求和编码速度要求中权衡,得到一个较为合适的错误判决概率αT,从而实现快速CU划分。
实验时,设置量化参数QP=32,当αT=5%时,可以节约大约32.1%的编码时间,而当αT=10%时,可以节约38.3%左右的编码时间。
附图说明
图1是本发明的CU划分加速算法流程图;
图2是本发明中率失真代价阈值的计算过程流程图;
图3是本发明中实施例二的某一个具体的CTU的最优划分结构示意图;
图4是本发明中实施例二对图三中的CTU统计CU按照深度为0的情况划分结构示意图;
图5是本发明中实施例二对图三中的每个CTU统计CU按照深度为1的情况划分结构示意图;
图6是本发明中实施例二对图三中的每个CTU统计CU按照深度为2的情况划分结构示意图;
图7为本发明中实施例一中某个特定的CU上侧和左侧CU的示意图,其中L为当前CU的左侧CU,U为当前CU的上侧CU。
具体实施方式
具体实施方式一:结合图1说明本实施方式,本实施方式的一种用于HEVC的CU划分方法具体过程为:
步骤1、当前编码帧的当前CU的大小为2Nx2N,获取当前编码帧的当前CU的深度depth_cur,并获取与当前编码帧的当前CU空域(只考虑同一帧的上侧和左侧)相邻上侧CU和左侧CU的深度,从而估计出当前编码帧的当前CU深度最小值depth_min和最大值depth_max;
其中一个CU的左侧和上侧CU指的是与该CU左上角紧接着的左侧和上侧的CU(如图7所示)。
即|depth_cur-depth_up|≤1和|depth_cur-depth_left|≤1;
这个公式里是相邻上侧CU和左侧CU的深度是已知的,将两个方程组联立,可以估计出当前CU深度最小值depth_min和最大值depth_max,即估计出当前CU的深度范围;
若当前编码帧的当前CU的深度depth_cur小于估计出的当前编码帧的当前CU深度最小值depth_min,则执行步骤5;
若当前编码帧的当前CU的深度depth_cur大于或等于估计出的当前编码帧的当前CU深度最大值depth_max,则执行步骤6;
反之,执行步骤2;
所述CU为编码单元;N取值为2n,且为正整数;
步骤2、对当前编码帧的当前CU进行2Nx2N模式、2NxN模式和Nx2N模式的帧间预测编码,并计算相应每个模式下的率失真代价,若率失真代价小于阈值(该阈值的计算方法会在后续详细介绍),则执行步骤6,反之执行步骤3;
步骤3、对当前编码帧的当前CU在2Nx2N和NxN模式下遍历所有预测模式的帧内预测编码,并计算相应每个模式下的率失真代价,若率失真代价小于阈值,则执行步骤6,反之执行步骤4;
步骤4、判断当前编码帧的当前CU是否达到当前编码帧的当前CU深度最大值(步骤1得到的),即depth_cur=depth_max,若是,则执行步骤6,反之执行步骤5;
步骤5、将当前编码帧的当前CU继续分割为四个NxN大小相等的子CU,继续执行步骤1;
步骤1的2N是会变化的,就是当前CU的大小,比如说步骤5分成16X16的CU了,执行步骤1时,2N就变成16了,N就变成8了;
步骤6、当前编码帧的当前CU处理结束,不再继续划分。
具体实施方式二:本实施方式与具体实施方式一不同的是:所述步骤2和步骤3中率失真代价的具体计算公式如下:
J(s,c,QP,λm)=SSD(s,c)+λmB(s,c,QP)
其中,J为率失真代价,λm表示拉格朗日乘数,QP表示量化系数,B是编码所需的比特数,s为原始CU,c为对原始CU进行帧间预测或者帧内预测得到的重建CU,SSD(s,c)表示s和c的差值平方和;
编码所需的比特率B通过HEVC编码器对原始CUs和重建CUc的预测残差进行量化编码得到。
通过对s和c的残差进行量化编码,得到比特数为B(s,c,QP),QP的大小影响B(s,c,QP);
SSD(s,c)具体计算方式如下:
式中,i为CU像素的行索引,j为CU像素的列索引,2N为CU尺寸大小,c(i,j)为预测重建CU第i行第j列的像素值,s(i,j)为原始CU第i行第j列的像素值。
其它步骤及参数与具体实施方式一相同。
具体实施方式三:结合图2说明本实施方式,本实施方式与具体实施方式一或二不同的是:所述量化系数QP取0~51之间的一个整数(每次只取一个QP值)。
其它步骤及参数与具体实施方式一或二相同。
具体实施方式四:本实施方式与具体实施方式一至三之一不同的是:所述步骤2和步骤3中的阈值按照以下具体方法设定:
步骤a1、挑选一些视频帧作为训练帧,给出错误判决概率αT,依次统计训练帧中每一帧的每个CTU的最优分割信息(已知的),如图3所示;
所述CTU为编码树单元;
步骤a2、记录CTU中深度范围在0-2之间的CU累积的总个数,n′(total)=n(total)+21;
n′(total)为当前累积得到的CTU中深度范围在0-2之间的CU的总个数;n(total)为上一次累积得到的深度范围在0-2之间的CU的总个数;21为每个CTU可能划分的且深度范围在0-2之间的CU总数;
图4是举了一个特例,图5-7是分析,深度0时,可划分的子CU个数为1,深度1时,可划分的子CU个数为4,深度2时,可划分的子CU个数为16,因此每个CTU可划分的CU总数为21;
根据CTU的最优分割信息,依次判断当前CTU中深度范围在0-2之间的CU是否为最优分割,若不是最优分割,记录当前CU的率失真代价,并统计当前CTU中不是最优分割CU总个数m,n′(split)=n(split)+m;
n′(split)为当前累积得到的CTU中不是最优分割CU总个数;n(split)为上一次累积得到的CTU中不是最优分割CU总个数;
若是最优分割,结束;
步骤a3、判断当前CTU是否为训练帧中最后一帧的最后一个CTU,如果是,得到深度范围在0-2之间的CU的总个数n′(total)和不是最优分割CU总个数n′(split),执行步骤a4;否则,n(total)=n′(total),n(split)=n′(split),获取下一个CTU的信息,执行步骤a2;
步骤a4、计算得出训练帧中所有CU中不是最优分割的统计概率执行步骤a5;
步骤a5、对不是最优分割的编码单元(CU)的率失真(RD)代价进行升序排列,从中选出位置位于处的率失真(RD)代价作为阀值,当是非整数的情况,取相邻两个率失真(RD)代价进行平均处理作为阀值。
其它步骤及参数与具体实施方式一至三之一相同。
具体实施方式五:本实施方式与具体实施方式一至四之一不同的是:所述错误判决概率5%≤αT≤10%,αT是人为设定的。
错误判决概率是人为可调节的,可以在具体的编码质量需求和编码速度要求中权衡。当错误判决概率过小时,CU终止划分的误判率较小,编码质量高,但加速效果越不明显;而当错误判决概率过大时,尽管编码速度提升快,但编码质量下降较多。
其它步骤及参数与具体实施方式一至四之一相同。
采用以下实施例验证本发明的有益效果:
实施例一:
本实例详细介绍了本发明如何借助空域相邻CU的深度信息来估计当前CU的深度范围。
这里限定当前编码CU的深度与其左侧或者上侧CU之一的深度相差均不超过1。这是因为自然图像的信源有记忆性,其空间相邻像素块之间往往有很强的相关性。尤其对于高分辨率视频,纹理丰富或纹理平坦或变换缓慢或变化剧烈的区域,往往覆盖多个CTU。
参照下表,本实例将左侧CU和上侧CU所有的深度组合列举了出来。
表1
例如当左侧CU的深度是2,上侧CU的深度为3,当前CU的深度为0时,即可估计出当前CU的深度集合是{1,2,3},因此该CU可以直接跳过帧内和帧间预测,直接划分成四个子CU。在这种情形下,借助空域相邻CU的深度信息对CU的划分起到了加速的效果。
实施例二
本实施例对本发明中如何统计训练帧中分割更优的CU数目进行详细介绍。
首先将每一帧都划分为大小相等的CTU。然后对每一个CTU分别进行统计,这里设定CTU的大小均为64x64,假设某一个CTU的经过计算率失真代价得到的最优四叉树结构为表1。图3,图4,图5表明了统计CU时的顺序,即按照深度大小0,1,2的顺序,每个CTU一共需要统计21种CU的划分情况。
以表1为例,可以得到继续划分最优的子CU有:1,3,4,5,10,11,13,共有7个,则该CTU中n(spilt)=7,同时记录相应子CU的率失真代价。
本发明还可有其它多种实施例,在不背离本发明精神及其实质的情况下,本领域技术人员当可根据本发明作出各种相应的改变和变形,但这些相应的改变和变形都应属于本发明所附的权利要求的保护范围。

Claims (5)

1.一种用于HEVC的CU划分方法,其特征在于:具体过程为:
步骤1、当前编码帧的当前CU的大小为2Nx2N,获取当前编码帧的当前CU的深度depth_cur,并获取与当前编码帧的当前CU空域相邻上侧CU和左侧CU的深度,从而估计出当前编码帧的当前CU深度最小值depth_min和最大值depth_max;
即|depth_cur-depth_up|≤1和|depth_cur-depth_left|≤1;
若当前编码帧的当前CU的深度depth_cur小于估计出的当前编码帧的当前CU深度最小值depth_min,则执行步骤5;
若当前编码帧的当前CU的深度depth_cur大于或等于估计出的当前编码帧的当前CU深度最大值depth_max,则执行步骤6;
反之,执行步骤2;
所述CU为编码单元;N取值为2n,且为正整数;
步骤2、对当前编码帧的当前CU进行2Nx2N模式、2NxN模式和Nx2N模式的帧间预测编码,并计算相应每个模式下的率失真代价,若率失真代价小于阈值,则执行步骤6,反之执行步骤3;
步骤3、对当前编码帧的当前CU在2Nx2N和NxN模式下遍历所有预测模式的帧内预测编码,并计算相应每个模式下的率失真代价,若率失真代价小于阈值,则执行步骤6,反之执行步骤4;
步骤4、判断当前编码帧的当前CU是否达到当前编码帧的当前CU深度最大值,即depth_cur=depth_max,若是,则执行步骤6,反之执行步骤5;
步骤5、将当前编码帧的当前CU继续分割为四个NxN大小相等的子CU,继续执行步骤1;
步骤6、当前编码帧的当前CU处理结束,不再继续划分。
2.根据权利要求1所述一种用于HEVC的CU划分方法,其特征在于:所述步骤2和步骤3中率失真代价的具体计算公式如下:
J(s,c,QP,λm)=SSD(s,c)+λmB(s,c,QP)
其中,J为率失真代价,λm表示拉格朗日乘数,QP表示量化系数,B是编码所需的比特率,s为原始CU,c为对原始CU进行帧间预测或者帧内预测得到的重建CU,SSD(s,c)表示s和c的差值平方和;
SSD(s,c)具体计算方式如下:
式中,i为CU像素的行索引,j为CU像素的列索引,2N为CU尺寸大小,c(i,j)为预测重建CU第i行第j列的像素值,s(i,j)为原始CU第i行第j列的像素值。
3.根据权利要求2所述一种用于HEVC的CU划分方法,其特征在于:所述量化系数QP取0~51之间的一个整数。
4.根据权利要求3所述一种用于HEVC的CU划分方法,其特征在于:所述步骤2和步骤3中的阈值按照以下具体方法设定:
步骤a1、挑选视频帧作为训练帧,给出错误判决概率αT,依次统计训练帧中每一帧的每个CTU的最优分割信息;
所述CTU为编码树单元;
步骤a2、记录CTU中深度范围在0-2之间的CU累积的总个数,n′(total)=n(total)+21;其中,n′(total)为当前累积得到的CTU中深度范围在0-2之间的CU的总个数;n(total)为上一次累积得到的深度范围在0-2之间的CU的总个数;21为每个CTU深度范围在0-2之间的CU总数;
根据CTU的最优分割信息,依次判断当前CTU中深度范围在0-2之间的CU是否为最优分割,若不是最优分割,记录当前CU的率失真代价,并统计当前CTU中不是最优分割CU总个数m,n′(split)=n(split)+m;
其中,n′(split)为当前累积得到的CTU中不是最优分割CU总个数;n(split)为上一次累积得到的CTU中不是最优分割CU总个数;
若是最优分割,结束;
步骤a3、判断当前CTU是否为训练帧中最后一帧的最后一个CTU,如果是,得到深度范围在0-2之间的CU的总个数n′(total)和不是最优分割CU总个数n′(split),执行步骤a4;否则,n(total)=n′(total),n(split)=n′(split),获取下一个CTU的信息,执行步骤a2;
步骤a4、计算得出训练帧中所有CU中不是最优分割的统计概率执行步骤a5;
步骤a5、对不是最优分割的编码单元的率失真代价进行升序排列,从中选出位置位于处的率失真代价作为阀值,当是非整数的情况,取相邻两个率失真代价进行平均处理作为阀值。
5.根据权利要求4所述一种用于HEVC的CU划分方法,其特征在于:所述错误判决概率5%≤αT≤10%。
CN201810474136.4A 2018-05-17 2018-05-17 一种用于hevc的cu划分方法 Pending CN108712647A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810474136.4A CN108712647A (zh) 2018-05-17 2018-05-17 一种用于hevc的cu划分方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810474136.4A CN108712647A (zh) 2018-05-17 2018-05-17 一种用于hevc的cu划分方法

Publications (1)

Publication Number Publication Date
CN108712647A true CN108712647A (zh) 2018-10-26

Family

ID=63868297

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810474136.4A Pending CN108712647A (zh) 2018-05-17 2018-05-17 一种用于hevc的cu划分方法

Country Status (1)

Country Link
CN (1) CN108712647A (zh)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110087087A (zh) * 2019-04-09 2019-08-02 同济大学 Vvc帧间编码单元预测模式提前决策及块划分提前终止方法
CN111064968A (zh) * 2019-12-18 2020-04-24 南华大学 一种vvc帧间cu深度快速划分方法
CN112291562A (zh) * 2020-10-29 2021-01-29 郑州轻工业大学 针对h.266/vvc的快速cu分区和帧内模式决策方法
CN112866693A (zh) * 2021-03-25 2021-05-28 北京百度网讯科技有限公司 编码单元cu的划分方法、装置、电子设备和存储介质
CN113225556A (zh) * 2021-05-31 2021-08-06 杭州当虹科技股份有限公司 视频编码方法
CN113542753A (zh) * 2021-07-27 2021-10-22 杭州当虹科技股份有限公司 Avs3视频编码方法及编码器
CN113573067A (zh) * 2021-07-07 2021-10-29 网宿科技股份有限公司 一种视频编码的方法及装置
CN113645465A (zh) * 2021-08-06 2021-11-12 广州安思创信息技术有限公司 一种基于hevc的帧间cu深度估计方法及装置

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105491385A (zh) * 2015-12-02 2016-04-13 同济大学 一种hevc帧内编码单元划分的快速决策方法
CN105721865A (zh) * 2016-02-01 2016-06-29 同济大学 一种hevc帧间编码单元划分的快速决策算法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105491385A (zh) * 2015-12-02 2016-04-13 同济大学 一种hevc帧内编码单元划分的快速决策方法
CN105721865A (zh) * 2016-02-01 2016-06-29 同济大学 一种hevc帧间编码单元划分的快速决策算法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
肖振健: "基于HEVC的低复杂度帧内帧间压缩算法研究", 《中国优秀硕士学位论文全文数据库(电子期刊)》 *

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110087087A (zh) * 2019-04-09 2019-08-02 同济大学 Vvc帧间编码单元预测模式提前决策及块划分提前终止方法
CN110087087B (zh) * 2019-04-09 2023-05-12 同济大学 Vvc帧间编码单元预测模式提前决策及块划分提前终止方法
CN111064968A (zh) * 2019-12-18 2020-04-24 南华大学 一种vvc帧间cu深度快速划分方法
CN111064968B (zh) * 2019-12-18 2021-02-12 南华大学 一种vvc帧间cu深度快速划分方法
CN112291562B (zh) * 2020-10-29 2022-06-14 郑州轻工业大学 针对h.266/vvc的快速cu分区和帧内模式决策方法
CN112291562A (zh) * 2020-10-29 2021-01-29 郑州轻工业大学 针对h.266/vvc的快速cu分区和帧内模式决策方法
CN112866693A (zh) * 2021-03-25 2021-05-28 北京百度网讯科技有限公司 编码单元cu的划分方法、装置、电子设备和存储介质
CN112866693B (zh) * 2021-03-25 2023-03-24 北京百度网讯科技有限公司 编码单元cu的划分方法、装置、电子设备和存储介质
CN113225556A (zh) * 2021-05-31 2021-08-06 杭州当虹科技股份有限公司 视频编码方法
CN113573067A (zh) * 2021-07-07 2021-10-29 网宿科技股份有限公司 一种视频编码的方法及装置
CN113542753A (zh) * 2021-07-27 2021-10-22 杭州当虹科技股份有限公司 Avs3视频编码方法及编码器
CN113542753B (zh) * 2021-07-27 2022-07-08 杭州当虹科技股份有限公司 Avs3视频编码方法及编码器
CN113645465A (zh) * 2021-08-06 2021-11-12 广州安思创信息技术有限公司 一种基于hevc的帧间cu深度估计方法及装置
CN113645465B (zh) * 2021-08-06 2023-10-13 广州安思创信息技术有限公司 一种基于hevc的帧间cu深度估计方法及装置

Similar Documents

Publication Publication Date Title
CN108712647A (zh) 一种用于hevc的cu划分方法
CN103024383B (zh) 一种基于hevc框架的帧内无损压缩编码方法
CN104378643B (zh) 一种3d视频深度图像帧内预测模式选择方法及系统
CN100361536C (zh) 图像预测编码/解码装置和方法以及记录媒体
CN109792516A (zh) 图像和视频编解码中用于帧内色度编解码的方法及装置
CN106713935A (zh) 一种基于贝叶斯决策的hevc块划分快速方法
US20150016521A1 (en) Video encoder for images
CN106878729A (zh) 基于分区基础的自适应环路滤波方法和装置
CN103248895B (zh) 一种用于hevc帧内编码的快速模式估计方法
CN104125473B (zh) 一种3d视频深度图像帧内预测模式选择方法及系统
CN107888919A (zh) 用于导出重建图像的装置
CN106028047B (zh) 一种基于Hadamard变换的帧内预测的快速模式选择和PU划分的方法
CN110099191A (zh) 清除解块人为噪声的方法
KR20190096432A (ko) 인트라 예측 모드 기반 영상 처리 방법 및 이를 위한 장치
EP4258658A1 (en) Prediction method, encoder, decoder and storage medium
WO2020018560A1 (en) Transform variations of multiple separable transform selection
CN108605132A (zh) 选择扫描顺序的方法和装置
CN101969561A (zh) 一种帧内模式选取方法、装置及一种编码器
CN109819250A (zh) 一种多核全组合方式的变换方法和系统
CN111741297A (zh) 帧间预测方法、视频编码方法及其相关装置
CN110677644B (zh) 一种视频编码、解码方法及视频编码帧内预测器
CN110868593B (zh) 基于区域决策树的视频cu快速划分
CN110383837B (zh) 用于视频处理的方法和设备
CN105791863B (zh) 基于层的3d-hevc深度图帧内预测编码方法
CN109889838A (zh) 一种基于roi区域的hevc快速编码方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20181026