CN110446040A - 一种适用于hevc标准的帧间编码方法与系统 - Google Patents

一种适用于hevc标准的帧间编码方法与系统 Download PDF

Info

Publication number
CN110446040A
CN110446040A CN201910692795.XA CN201910692795A CN110446040A CN 110446040 A CN110446040 A CN 110446040A CN 201910692795 A CN201910692795 A CN 201910692795A CN 110446040 A CN110446040 A CN 110446040A
Authority
CN
China
Prior art keywords
ctu
depth
frame
present frame
maxdepth
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201910692795.XA
Other languages
English (en)
Inventor
易清明
王洪宇
石敏
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Jinan University
University of Jinan
Original Assignee
Jinan University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Jinan University filed Critical Jinan University
Priority to CN201910692795.XA priority Critical patent/CN110446040A/zh
Publication of CN110446040A publication Critical patent/CN110446040A/zh
Pending legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/107Selection of coding mode or of prediction mode between spatial and temporal predictive coding, e.g. picture refresh
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
    • H04N19/96Tree coding, e.g. quad-tree coding

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

本发明公开了一种适用于HEVC标准的帧间编码方法及系统,该方法包括下述步骤:确定当前帧CTU与参考帧同位CTU的位置,计算当前帧CTU与参考帧同位CTU的平均像素差值D;若平均像素差值D满足:D<T1,则通过参考帧同位CTU能分割的最大深度col_maxdepth预测当前帧CTU能遍历的最大深度cu_maxdepth,若不满足,则执行下一步骤;若D满足:T1≤D<T2,采用时空域加权预测计算当前帧CTU的加权预测值predict_depth,若不满足,则继续正常编码;根据当前帧CTU的加权预测值predict_depth预判当前帧CTU的深度范围,确定当前帧CTU能遍历的最大深度cu_maxdepth。本发明有效降低HEVC帧间编码的计算复杂度,更加充分地利用编码单元的时空域深度相关性,节省更多的编码时间,能够更好地应用到实时编解码领域中。

Description

一种适用于HEVC标准的帧间编码方法与系统
技术领域
本发明涉及视频编码技术领域,具体涉及一种适用于HEVC标准的帧间编码方法与系统。
背景技术
在现实应用中,大部分的视频基本上都是经过压缩处理后的视频,而没有经过处理的原始视频中含有大量信息,特别是高清、超高清的视频,携带的信息更加庞大,这些视频有些需要实时传输视频数据,有些则需要长时间的存储视频数据,特别是分辨率越高的视频数据需要更大的带宽和空间来传输和存储,目前的硬件设施对如此大量的视频很难进行存储和实时传输。人们开始研究如何解决超负荷数据量的传输和存储的问题,视频编码由此产生,视频编码也称为视频压缩,经过压缩的视频虽然一定程度上减少了视频的数据量,但在互联网快速发展的时代,视频分辨率及帧率在不断提高,使视频的码率急速增长。
为了提供更好的编码性能,2013年新一代的视频编码标准H.265/HEVC(HighEfficiency Video Coding)正式颁布。帧间编码过程是HEVC的核心技术之一,帧间编码过程中涉及四叉树划分结构,视频中的每一帧先被分割为若干个编码树单元(Coding TreeUint,CTU),CTU经过一次分割就得到4个编码单元(Coding Uint,CU),最大的CU为CTU(没有进行分割时),最小的CU为8×8(深度为3),编码器会逐层计算不同尺寸的率失真代价值,最小的代价值所对应的模式即为最优模式。HEVC的四叉树划分结构在提高编码效率的同时也使得HEVC编码器的计算复杂度急剧增加。目前绝大部分流量来自于移动端,移动端硬件的计算能力和性能层次不齐,如果HEVC直接应用在移动端,可能出现无法正常实时编解码和能耗高等问题,限制了HEVC在实时编解码领域的应用与推广,因此,针对帧间编码的编码单元深度范围进行优化具有极为重要的意义。
发明内容
为了克服现有技术存在的缺陷与不足,本发明提供一种适用于HEVC标准的帧间编码方法与系统,针对原始HEVC编码器所带来的巨大计算复杂度问题,可以提前预判当前帧CTU的深度范围,舍弃不必要的CU划分计算,有效降低HEVC帧间编码的计算复杂度,更加充分地利用编码单元的时空域深度相关性,节省更多的编码时间,能够更好地应用到实时编解码领域中。
为了达到上述目的,本发明采用以下技术方案:
本发明提供一种适用于HEVC标准的帧间编码方法,包括下述步骤:
S1:确定当前帧CTU与参考帧同位CTU的位置,计算当前帧CTU与参考帧同位CTU的平均像素差值D;
S2:若平均像素差值D满足:D<T1,则通过参考帧同位CTU能分割的最大深度col_maxdepth预测当前帧CTU能遍历的最大深度cu_maxdepth,若不满足,则执行下一步骤;
S3:若平均像素差值D满足:T1≤D<T2,采用时空域加权预测计算当前帧CTU的加权预测值predict_depth,若不满足,则继续正常编码;
S4:根据当前帧CTU的加权预测值predict_depth预判当前帧CTU的深度范围,确定当前帧CTU能遍历的最大深度cu_maxdepth。
作为优选的技术方案,步骤S1中所述计算当前帧CTU与参考帧同位CTU的平均像素差值D,具体计算公式为:
D=meancu-meancol
其中,meancu表示当前帧CTU平均像素值,meancol表示参考帧同位平均像素值,NCU表示当前帧CTU的尺寸,Ncol表示参考帧同位CTU的尺寸,pCU(i,j)表示当前帧CTU在(i,j)位置上的像素值,pcol(i,j)表示参考帧同位CTU在(i,j)位置上的像素值。
作为优选的技术方案,步骤S3中所述采用时空域加权预测计算当前帧CTU的加权预测值predict_depth,具体步骤为:通过参考帧同位CTU能分割的最大深度col_maxdepth、当前帧CTU的左侧CTU的最大深度left_maxdepth以及当前帧CTU的上侧CTU的最大深度above_maxdepth加权预测当前帧CTU的加权预测值predict_depth。
作为优选的技术方案,所述时空域加权预测的计算公式为:
predict_depth=ω1*col_maxdepth+ω2*left_maxdepth+ω3*above_maxdepth;
其中,ωi代表权值系数,M代表当前帧CTU的相邻CTU数目。
作为优选的技术方案,将ω1设置为0.4,将ω2设置为0.3,将ω3设置为0.3。
作为优选的技术方案,将阈值T1设置为数值5,将阈值T2设置为数值15。
作为优选的技术方案,步骤S4中所述根据当前帧CTU的加权预测值predict_depth预判当前帧CTU的深度范围,确定当前帧CTU能遍历的最大深度cu_maxdepth,具体步骤为:
当predict_depth==L0,则设置当前帧CTU能遍历的最大深度为Depthmax0
当L0<predict_depth<L1,则设置当前帧CTU能遍历的最大深度为Depthmax1
当L1=<predict_depth<L2,则设置当前帧CTU能遍历的最大深度为Depthmax2
其中,L0、L1、L2表示predict_depth满足的阈值范围,Depthmax代表当前帧CTU能遍历的最大预测深度。
作为优选的技术方案,将L0、L1、L2分别设置为0、1、2,将Depthmax0、Depthmax1、Depthmax2分别设置为0、1、2。
本发明还提供一种适用于HEVC标准的帧间编码系统,包括:平均像素差值计算模块、阈值判断模块、预测模块和时空域加权预测模块;
所述平均像素差值计算模块用于计算当前帧CTU与参考帧同位CTU的平均像素差值D;
所述阈值判断模块用于判断平均像素差值D是否满足阈值范围要求,若平均像素差值D满足:D<T1,则通过预测模块进行预测计算,若平均像素差值D满足:T1≤D<T2,则通过时空域加权预测模块进行预测计算;
所述预测模块用于通过参考帧同位CTU能分割的最大深度col_maxdepth预测当前帧CTU能遍历的最大深度cu_maxdepth;
所述时空域加权预测模块用于采用时空域加权预测计算当前帧CTU的加权预测值predict_depth,确定当前帧CTU能遍历的最大深度cu_maxdepth。
本发明与现有技术相比,具有如下优点和有益效果:
(1)本发明在编码单元划分决策上采用了将CTU划分深度时空相关性、像素相似度以及加权深度预测算法相结合的技术方案,尽最大可能准确的提前判定当前帧CTU的划分情况,舍弃不必要的CU划分计算。
(2)本发明针对编码单元深度范围进行的决策解决了HEVC原始编码器的计算复杂度较高的问题,同时保证了视频内容的质量基本不变,对于HEVC应用在实时解码领域具有重要意义。
附图说明
图1为本实施例适用于HEVC标准的帧间编码方法的流程示意图;
图2为本实施例当前帧CTU与参考帧同位CTU的位置关系示意图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
实施例
如图1所示,本实施例提供一种适用于HEVC标准的帧间编码方法,本实施例利用CTU的深度时空相关性决策当前帧CTU的深度范围,具体步骤为:
(1)如图2所示,首先确定当前帧CTU与相邻时空CTU的位置情况,其中Cu-CTU代表当前CTU,Co-CTU代表当前CTU的参考帧同位CTU,A-CTU代表当前CTU的上方CTU,L-CTU代表当前CTU的左侧CTU,AL-CTU代表当前CTU的左上方CTU,AR-CTU代表当前CTU的右上方CTU,然后对当前帧CTU与参考帧同位CTU作平均像素差值计算,其中,平均像素值的计算公式为:
其中,mean表示平均像素值,N代表CTU的尺寸,在本实施例中N取64,p(i,j)为CTU在(i,j)位置上的像素值;
在本实施例中,计算当前帧CTU与参考帧同位CTU的平均像素差值D,具体计算公式为:
D=meancu-meancol (2)
其中,meancu表示当前帧CTU平均像素值,meancol表示参考帧同位平均像素值,NCU表示当前帧CTU的尺寸,Ncol表示参考帧同位CTU的尺寸,pCU(i,j)表示当前帧CTU在(i,j)位置上的像素值,pcol(i,j)表示参考帧同位CTU在(i,j)位置上的像素值;
在本实施例中,由于时域的相关性,当前帧CTU与参考帧同位CTU的纹理复杂度较为相似,通过两者的像素相似度的比较,能够更好的判断它们的相似程度,若当前帧CTU与参考帧同位CTU的像素相似度在所设定的阈值内,那么则认为两者的纹理复杂度非常相似,可以利用参考帧同位CTU的划分深度更好的预测当前帧CTU的深度范围;
(2)若差值小于阈值T1,则利用参考帧同位CTU能分割的最大深度col_maxdepth预测当前帧CTU能遍历的最大深度cu_maxdepth,若参考帧同位CTU能分割的最大深度是0,那么当前帧CTU遍历的最大深度也为0,若参考帧同位CTU能分割的最大深度是1或2,那么当前帧CTU遍历的最大深度也为1或2;
(3)差值大于等于阈值T1,小于阈值T2,则利用参考帧同位CTU的最大深度col_maxdepth与当前帧CTU的左侧CTU的最大深度left_maxdepth以及上侧CTU的最大深度above_maxdepth加权预测当前帧CTU能遍历的最大深度cu_maxdepth,否则,正常编码;
加权预测公式为:
其中,predict_depth代表当前帧CTU的加权预测值,M代表当前帧CTU的相邻CTU数目,本实施例中M取为3,ωi代表权值系数,且需满足公式(6),λi代表时空域相邻CTU的最大深度。本实施例利用当前帧CTU的左侧CTU、上方CTU、同位CTU对当前帧CTU预测和深度裁剪,同时对时域相邻的同位CTU赋予更大的权重,这是因为对于运动的视频图像,时域上的连续性更加明显,相关性更强,所以在本实施例中对其左侧CTU、上方CTU、同位CTU赋予的权值系数分别取0.3、0.3、0.4;
在本实施例中,由于考虑到纹理图的丰富纹理性和光照等变化,即使当前帧与参考帧在某一位置上主观效果基本相同,但仍会有几个像素点的变化(这种情况大部分存在于自然视频序列),所以阈值不能取0来表示相似,该部分在大量的实验基础上选择阈值5来表示相似,所以在本实施例中阈值T1取5;
本实施例基于多次实验的测试,若当前帧CTU与参考帧同位CTU的平均像素差值在大于等于5且小于15的范围内,本实施例采用时空域加权深度预测算法继续预判CTU的深度范围,所以在本实施例中阈值T2取15;
在本实施例中,根据加权预测深度范围分类确定当前帧CTU能遍历的最大深度,如下表1所示:
表1当前帧CTU遍历最大深度对照表
即:
a.当predict_depth==L0,则定义当前帧CTU能遍历的最大深度为Depthmax0
b.当L0<predict_depth<L1,则定义当前帧CTU能遍历的最大深度为Depthmax1
c.当L1=<predict_depth<L2,则定义当前帧CTU能遍历的最大深度为Depthmax2
其中,L0、L1、L2代表predict_depth满足的阈值范围,在本实施例中的L0、L1、L2分别取0、1、2,Depthmax代表当前帧CTU能遍历的最大预测深度,本实施例中Depthmax0、Depthmax1、Depthmax2分别取0、1、2。
本实施例还提供一种适用于HEVC标准的帧间编码系统,包括:平均像素差值计算模块、阈值判断模块、预测模块和时空域加权预测模块;
在本实施例中,平均像素差值计算模块用于计算当前帧CTU与参考帧同位CTU的平均像素差值D;
在本实施例中,阈值判断模块用于判断平均像素差值D是否满足阈值范围要求,若平均像素差值D满足:D<T1,则通过预测模块进行预测计算,若平均像素差值D满足:T1≤D<T2,则通过时空域加权预测模块进行预测计算;
在本实施例中,预测模块用于通过参考帧同位CTU能分割的最大深度col_maxdepth预测当前帧CTU能遍历的最大深度cu_maxdepth;
在本实施例中,时空域加权预测模块用于采用时空域加权预测计算当前帧CTU的加权预测值predict_depth,确定当前帧CTU能遍历的最大深度cu_maxdepth。
在本实施例中,为了评估本实施例的性能,采用标准参考代码HM 16.9进行实验与验证,并将改进前后的实验结果进行对比分析,通过客观实验参数验证本实施例的有效性,测试条件及配置参数如下:
(1)硬件平台:Intel(R)-Core(TM)i5-2400CPU,主频为3.10GHz,内存为4.00GB;
(2)开发工具:Visual Studio 2012;
(3)实验配置结构:随机接入(Random Access,RA)结构;
(4)量化参数QP设置为22、27、32和37;
(5)测试序列:采用不同分辨率的标准测试序列。
实验结果采用联合比特率(BDBR)和联合峰值信噪比(BDPSNR)来比较码率节省百分比和视频编码质量,采用ΔT表示本实施例比原始模型在编码时间上的节省百分比,其公式为:
式中TProp表示本实施例的编码时间,THM表示原始模型的编码时间。
本实施例的实验结果如下表2所示,
表2实验结果
由上表可以看出,本实施例利用编码单元深度的时空相关性,对编码单元的深度范围进行决策具有较高的预判准确性。与原始HM16.9相比,本实施例在BDBR平均增加0.301%和BDPSNR平均减少0.012dB条件下,能够平均节省40%左右的编码时间。本实施例不仅大大降低了HEVC编码器的计算复杂度,同时保证了视频编码的质量,具有一定的实际意义。
上述实施例为本发明较佳的实施方式,但本发明的实施方式并不受上述实施例的限制,其他的任何未背离本发明的精神实质与原理下所作的改变、修饰、替代、组合、简化,均应为等效的置换方式,都包含在本发明的保护范围之内。

Claims (9)

1.一种适用于HEVC标准的帧间编码方法,其特征在于,包括下述步骤:
S1:确定当前帧CTU与参考帧同位CTU的位置,计算当前帧CTU与参考帧同位CTU的平均像素差值D;
S2:若平均像素差值D满足:D<T1,则通过参考帧同位CTU能分割的最大深度col_maxdepth预测当前帧CTU能遍历的最大深度cu_maxdepth,若不满足,则执行下一步骤;
S3:若平均像素差值D满足:T1≤D<T2,采用时空域加权预测计算当前帧CTU的加权预测值predict_depth,若不满足,则继续正常编码;
S4:根据当前帧CTU的加权预测值predict_depth预判当前帧CTU的深度范围,确定当前帧CTU能遍历的最大深度cu_maxdepth。
2.根据权利要求1所述的适用于HEVC标准的帧间编码方法,其特征在于,步骤S1中所述计算当前帧CTU与参考帧同位CTU的平均像素差值D,具体计算公式为:
D=meancu-meancol
其中,meancu表示当前帧CTU平均像素值,meancol表示参考帧同位平均像素值,NCU表示当前帧CTU的尺寸,Ncol表示参考帧同位CTU的尺寸,pCU(i,j)表示当前帧CTU在(i,j)位置上的像素值,pcol(i,j)表示参考帧同位CTU在(i,j)位置上的像素值。
3.根据权利要求1所述的适用于HEVC标准的帧间编码方法,其特征在于,步骤S3中所述采用时空域加权预测计算当前帧CTU的加权预测值predict_depth,具体步骤为:通过参考帧同位CTU能分割的最大深度col_maxdepth、当前帧CTU的左侧CTU的最大深度left_maxdepth以及当前帧CTU的上侧CTU的最大深度above_maxdepth加权预测当前帧CTU的加权预测值predict_depth。
4.根据权利要求3所述的适用于HEVC标准的帧间编码方法,其特征在于,所述时空域加权预测的计算公式为:
predict_depth=ω1*col_maxdepth+ω2*left_maxdepth+ω3*above_maxdepth;
其中,ωi代表权值系数,M代表当前帧CTU的相邻CTU数目。
5.根据权利要求4所述的适用于HEVC标准的帧间编码方法,其特征在于,将ω1设置为0.4,将ω2设置为0.3,将ω3设置为0.3。
6.根据权利要求1所述的适用于HEVC标准的帧间编码方法,其特征在于,将阈值T1设置为数值5,将阈值T2设置为数值15。
7.根据权利要求1所述的适用于HEVC标准的帧间编码方法,其特征在于,步骤S4中所述根据当前帧CTU的加权预测值predict_depth预判当前帧CTU的深度范围,确定当前帧CTU能遍历的最大深度cu_maxdepth,具体步骤为:
当predict_depth==L0,则设置当前帧CTU能遍历的最大深度为Depthmax0
当L0<predict_depth<L1,则设置当前帧CTU能遍历的最大深度为Depthmax1
当L1=<predict_depth<L2,则设置当前帧CTU能遍历的最大深度为Depthmax2
其中,L0、L1、L2表示predict_depth满足的阈值范围,Depthmax代表当前帧CTU能遍历的最大预测深度。
8.根据权利要求7所述的适用于HEVC标准的帧间编码方法,其特征在于,将L0、L1、L2分别设置为0、1、2,将Depthmax0、Depthmax1、Depthmax2分别设置为0、1、2。
9.一种适用于HEVC标准的帧间编码系统,其特征在于,包括:平均像素差值计算模块、阈值判断模块、预测模块和时空域加权预测模块;
所述平均像素差值计算模块用于计算当前帧CTU与参考帧同位CTU的平均像素差值D;
所述阈值判断模块用于判断平均像素差值D是否满足阈值范围要求,若平均像素差值D满足:D<T1,则通过预测模块进行预测计算,若平均像素差值D满足:T1≤D<T2,则通过时空域加权预测模块进行预测计算;
所述预测模块用于通过参考帧同位CTU能分割的最大深度col_maxdepth预测当前帧CTU能遍历的最大深度cu_maxdepth;
所述时空域加权预测模块用于采用时空域加权预测计算当前帧CTU的加权预测值predict_depth,确定当前帧CTU能遍历的最大深度cu_maxdepth。
CN201910692795.XA 2019-07-30 2019-07-30 一种适用于hevc标准的帧间编码方法与系统 Pending CN110446040A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910692795.XA CN110446040A (zh) 2019-07-30 2019-07-30 一种适用于hevc标准的帧间编码方法与系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910692795.XA CN110446040A (zh) 2019-07-30 2019-07-30 一种适用于hevc标准的帧间编码方法与系统

Publications (1)

Publication Number Publication Date
CN110446040A true CN110446040A (zh) 2019-11-12

Family

ID=68432206

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910692795.XA Pending CN110446040A (zh) 2019-07-30 2019-07-30 一种适用于hevc标准的帧间编码方法与系统

Country Status (1)

Country Link
CN (1) CN110446040A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112804528A (zh) * 2021-02-05 2021-05-14 北京字节跳动网络技术有限公司 屏幕内容处理方法、装置及设备
CN113163199A (zh) * 2021-05-10 2021-07-23 浙江裕瀚科技有限公司 一种基于h265的视频快速预测方法、快速编码方法和系统

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140044168A1 (en) * 2012-08-13 2014-02-13 Qualcomm Incorporated Device and method for scalable coding of video information
CN104113754A (zh) * 2014-07-17 2014-10-22 四川大学 基于时域相关性的高性能视频帧间编码方法及其转码器
CN104243997A (zh) * 2014-09-05 2014-12-24 南京邮电大学 一种质量可分级hevc视频编码方法
CN104853191A (zh) * 2015-05-06 2015-08-19 宁波大学 一种hevc的快速编码方法
US20150245061A1 (en) * 2012-07-02 2015-08-27 Qualcomm Incorporated Intra-coding of depth maps for 3d video coding
CN105141954A (zh) * 2015-08-19 2015-12-09 浙江工业大学 一种hevc帧间编码快速模式选择方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150245061A1 (en) * 2012-07-02 2015-08-27 Qualcomm Incorporated Intra-coding of depth maps for 3d video coding
US20140044168A1 (en) * 2012-08-13 2014-02-13 Qualcomm Incorporated Device and method for scalable coding of video information
CN104113754A (zh) * 2014-07-17 2014-10-22 四川大学 基于时域相关性的高性能视频帧间编码方法及其转码器
CN104243997A (zh) * 2014-09-05 2014-12-24 南京邮电大学 一种质量可分级hevc视频编码方法
CN104853191A (zh) * 2015-05-06 2015-08-19 宁波大学 一种hevc的快速编码方法
CN105141954A (zh) * 2015-08-19 2015-12-09 浙江工业大学 一种hevc帧间编码快速模式选择方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
LIQUAN SHEN等: ""An effective CU size decision method for HEVC encoders"", 《IEEE TRANSACTIONS ON MULTIMEDIA》 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112804528A (zh) * 2021-02-05 2021-05-14 北京字节跳动网络技术有限公司 屏幕内容处理方法、装置及设备
CN113163199A (zh) * 2021-05-10 2021-07-23 浙江裕瀚科技有限公司 一种基于h265的视频快速预测方法、快速编码方法和系统
CN113163199B (zh) * 2021-05-10 2023-06-30 浙江裕瀚科技有限公司 一种基于h265的视频快速预测方法、快速编码方法和系统

Similar Documents

Publication Publication Date Title
CN103873861B (zh) 一种用于hevc的编码模式选择方法
CN101710993B (zh) 基于块的自适应超分辨率视频处理方法及系统
CN102065298B (zh) 高性能宏块编码实现方法
CN104796694B (zh) 基于视频纹理信息的优化帧内视频编码方法
CN104539962A (zh) 一种融合视觉感知特征的可分层视频编码方法
CN106131546B (zh) 一种提前确定hevc合并和跳过编码模式的方法
CN104243997B (zh) 一种质量可分级hevc视频编码方法
CN104853191B (zh) 一种hevc的快速编码方法
CN101404766B (zh) 一种多视点视频信号的编码方法
CN103634601B (zh) 基于结构相似度的高效视频编码感知码率控制优化方法
CN108347612A (zh) 一种基于视觉注意机制的监控视频压缩与重构方法
CN109286812B (zh) 一种hevc视频质量估计方法
CN101056408B (zh) 用于确定视频编码中跳跃模式的阈值的方法和装置
CN108989802A (zh) 一种利用帧间关系的hevc视频流的质量估计方法及系统
CN107820095A (zh) 一种长期参考图像选择方法及装置
CN107277537B (zh) 一种基于时间相关性的分布式视频压缩感知采样方法
CN108769696A (zh) 一种基于Fisher判别式的DVC-HEVC视频转码方法
CN107580217A (zh) 编码方法及其装置
CN102984541B (zh) 一种基于像素域失真度估计的视频质量评价方法
CN110446040A (zh) 一种适用于hevc标准的帧间编码方法与系统
CN103634600B (zh) 一种基于ssim评价的视频编码模式选择方法、系统
CN110213584A (zh) 基于纹理复杂度的编码单元分类方法和编码单元分类设备
CN110677644B (zh) 一种视频编码、解码方法及视频编码帧内预测器
CN102158702A (zh) 自适应h.264码率控制方法
Chen et al. A fast inter coding algorithm for HEVC based on texture and motion quad-tree models

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20191112