CN109618152A - 深度划分编码方法、装置和电子设备 - Google Patents
深度划分编码方法、装置和电子设备 Download PDFInfo
- Publication number
- CN109618152A CN109618152A CN201811531351.XA CN201811531351A CN109618152A CN 109618152 A CN109618152 A CN 109618152A CN 201811531351 A CN201811531351 A CN 201811531351A CN 109618152 A CN109618152 A CN 109618152A
- Authority
- CN
- China
- Prior art keywords
- ctu
- frame
- depth
- current
- target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/119—Adaptive subdivision aspects, e.g. subdivision of a picture into rectangular or non-rectangular coding blocks
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/172—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/70—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/90—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
- H04N19/96—Tree coding, e.g. quad-tree coding
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
Abstract
本发明提供了一种深度划分编码方法、装置和电子设备,涉及视频编码技术领域;该方法包括:将待编码的当前图像帧划分为多个编码树单元CTU;根据当前图像帧的帧类型在已编码的图像帧中查找当前图像帧的对应帧;对于每个CTU,在对应帧中查找与当前CTU深度最匹配的对应CTU;根据对应CTU的深度,确定当前CTU的目标深度和目标预测模式;根据目标深度和目标预测模式对当前CTU进行编码。通过在已编码的图像帧中查找与当前图像帧的对应帧,找到当前CTU的目标深度,减小了对当前CTU的其他深度计算的时间,以降低了对图像预测编码的复杂度和编码时间,同时图像质量也能得到保障。
Description
技术领域
本发明涉及视频编码技术领域,尤其是涉及一种深度划分编码方法、装置和电子设备。
背景技术
随着视频分辨率越来越高,各种视频编码标准也变得越来越多,例如HEVC(HighEfficiency Video Coding,视频压缩标准)、AVS2(Audio Video coding Standard 2,第二代音视频的编码标准)等,而这些视频编码标准都提出了基于四叉树结构的CU(codingunit,编码单元)和PU(Forecast unit,预测单元)划分技术,很大程度上提高了编码压缩效率,同时也提高了编码复杂度,导致很多的视频编码器厂家无法在现有的硬件技术下实现上述的视频编码标准,从而影响上述视频编码标准的普及。
在现有的预测编码有两种方案,一种是按照传统的方式进行预测编码,不使用任何优化手段,虽然保证了图像质量,但是大大增加了编码复杂度和编码时间,同时这种编码方式对硬件的要求非常高。而另一种是利用快速算法进行预测编码,这种技术虽然降低了编码复杂度,但是图像质量得不到保障。
发明内容
有鉴于此,本发明的目的在于提供一种深度划分编码方法、装置和电子设备,以减小对图像预测编码的复杂度和编码时间,并保证图像质量。
第一方面,本发明实施例提供了一种深度划分编码方法,该方法包括:将待编码的当前图像帧划分为多个编码树单元CTU;根据当前图像帧的帧类型在已编码的图像帧中查找当前图像帧的对应帧;对于每个CTU,在对应帧中查找与当前CTU深度最匹配的对应CTU;根据对应CTU的深度,确定当前CTU的目标深度和目标预测模式;根据目标深度和目标预测模式对当前CTU进行编码。
结合第一方面,本发明实施例提供了第一方面的第一种可能的实施方式,其中,上述根据当前图像帧的帧类型在已编码的图像帧中查找当前图像帧的对应帧的步骤,包括:根据当前图像帧的帧类型,确定目标搜索方式;其中,目标搜索方式包括帧间搜索或帧内搜索;在已编码的图像帧中查找搜索方式与目标搜索方式相同的最近完成编码的图像帧;将查找到的图像帧确定为当前图像帧的对应帧。
结合第一方面,本发明实施例提供了第一方面的第二种可能的实施方式,其中,上述在对应帧中查找与当前CTU深度最匹配的对应CTU的步骤,包括:将当前CTU与对应帧中的各个CTU逐一进行像素值比较,得到比较结果;根据比较结果确定与当前CTU深度最匹配的对应CTU。
结合第一方面,本发明实施例提供了第一方面的第三种可能的实施方式,其中,上述根据对应CTU的深度,确定当前CTU的目标深度和目标预测模式的步骤,包括:将对应CTU的深度设定为当前CTU的初始深度;在初始深度下对当前CTU进行预测模式分析,得到初始深度下的消耗值和初始预测模式;根据消耗值和初始预测模式确定当前CTU的目标深度和目标预测模型。
结合第一方面的第三种可能的实施方式,本发明实施例提供了第一方面的第四种可能的实施方式,其中,上述根据消耗值和初始预测模式确定当前CTU的目标深度和目标预测模式的步骤,包括:根据当前CTU的各个像素值,确定消耗阈值;判断消耗值是否小于或等于消耗阈值;如果是,将初始深度和初始预测模式确定为当前CTU的目标深度和目标预测模式;如果否,遍历不同于初始深度的其他深度,通过对每个其他深度进行预测分析,确定当前CTU的目标深度和目标预测模式。
结合第一方面的第四种可能的实施方式,本发明实施例提供了第一方面的第五种可能的实施方式,其中,上述根据当前CTU的各个像素值,确定消耗阈值的步骤,包括:根据当前图像帧中的已编码CTU更新像素均值与消耗阈值之间的计算参数;根据当前CTU的各个像素值计算当前CTU的像素均值;根据当前CTU的像素均值和计算参数计算得到消耗阈值。
第二方面,本发明实施例提供了一种深度划分编码装置,该装置包括:划分模块,用于将待编码的当前图像帧划分为多个编码树单元CTU;第一查找模块,用于根据当前图像帧的帧类型在已编码的图像帧中查找当前图像帧的对应帧;第二查找模块,用于对于每个CTU,在对应帧中查找与当前CTU深度最匹配的对应CTU;确定模块,用于根据对应CTU的深度,确定当前CTU的目标深度和目标预测模式;编码模块,用于根据目标深度和目标预测模式对当前CTU进行编码。
结合第二方面,本发明实施例提供了第二方面的第一种可能的实施方式,其中,上述第一查找模块,还用于:根据当前图像帧的帧类型,确定目标搜索方式;其中,目标搜索方式包括帧间搜索或帧内搜索;在已编码的图像帧中查找搜索方式与目标搜索方式相同的最近完成编码的图像帧;将查找到的图像帧确定为当前图像帧的对应帧。
结合第二方面,本发明实施例提供了第二方面的第二种可能的实施方式,其中,上述第二查找模块,还用于:将当前CTU与对应帧中的各个CTU逐一进行像素值比较,得到比较结果;根据比较结果确定与当前CTU深度最匹配的对应CTU。
第三方面,本发明实施例提供了一种电子设备,包括存储器、处理器,存储器中存储有可在处理器上运行的计算机程序,处理器执行计算机程序时实现如第一方面所述的方法的步骤。
本发明实施例提供了一种深度划分编码方法、装置和电子设备,该方法包括:将待编码的当前图像帧划分为多个编码树单元CTU;根据当前图像帧的帧类型在已编码的图像帧中查找当前图像帧的对应帧;对于每个CTU,在对应帧中查找与当前CTU深度最匹配的对应CTU;根据对应CTU的深度,确定当前CTU的目标深度和目标预测模式;根据目标深度和目标预测模式对当前CTU进行编码。通过在已编码的图像帧中查找与当前图像帧的对应帧,找到当前CTU的目标深度,减小了对当前CTU的其他深度计算的时间,以降低了对图像预测编码的复杂度和编码时间,同时图像质量也能得到保障。
本公开的其他特征和优点将在随后的说明书中阐述,或者,部分特征和优点可以从说明书推知或毫无疑义地确定,或者通过实施本公开的上述技术即可得知。
为使本公开的上述目的、特征和优点能更明显易懂,下文特举较佳实施例,并配合所附附图,作详细说明如下。
附图说明
为了更清楚地说明本发明具体实施方式或现有技术中的技术方案,下面将对具体实施方式或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施方式,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例提供的一种深度划分编码方法的流程图;
图2为本发明实施例提供的另一种深度划分编码方法的流程图;
图3为本发明实施例提供的另一种深度划分编码方法的流程图;
图4为本发明实施例提供的另一种深度划分编码方法的流程图;
图5为现有技术中不同模式下的预测模式的示意图;
图6为本发明实施例提供的一种对应CTU和当前CTU的对应关系;
图7为本发明实施例提供的一种深度划分编码装置的结构示意图;
图8为本发明实施例提供的一种电子设备的示意图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合附图对本发明的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
随着当下视频分辨率越来越高,HEVC和AVS2编码标准的使用变得越来越多,HEVC和AVS2也越来越多。HEVC和AVS2作为新一代的编码标准,在压缩效率上比H.264提高50%以上,应用越来越广泛。但是同时,HEVC和AVS2作为新一代的编码标准,在编码复杂度上也远远超过H.264标准,这极大的限制了HEVC编码器和AVS2编码器的应用。尤其HEVC和AVS2创新的提出了基于四叉树结构的CU和PU划分技术,很大程度上提高了压缩效率,也提高了编码复杂度。导致了非常多的视频编码器厂家无法在现有的硬件技术下实现上述的视频编码标准,从而影响上述视频编码标准的普及。
目前有两种预测编码手段,一种是保持使用HEVC预测模式的原始流程,这种方式可以保证图像质量,但是编码复杂度缺大大增加和编码时间过程,同时需要的资源量也非常高。另一种使用快速算法,而目前在快速算法上涉及对CTU(Coding Tree Unit,编码树单元)的深度选择上有两个主要研究方向:首先是基于图像纹理决定当前CTU深度,但是这个角度的研究方向还是集中于帧内选择算法上,帧间的纹理信息对CTU划分深度的指导作用不大。再一个是通过编码过程中的各种参数,例如,当前深度的变换量化结果阈值或者深度的残差值等参数决定是否进行下一个深度的划分。这种技术降低了HEVC编码压缩效率,还忽略了CTU划分其实和图像纹理是有一定相关性的这个基本条件,造成了快速算法对质量的影响过大。基于此,本发明实施例提供的一种深度划分编码方法、装置和电子设备,可以减小对图像预测编码的复杂度和编码时间,并保证图像质量。
为便于对本实施例进行理解,首先对本发明实施例所公开的一种深度划分编码方法进行详细介绍。
实施例一
本发明实施例提供了一种深度划分编码方法,如图1所示,该方法包括以下步骤:
步骤S102,将待编码的当前图像帧划分为多个CTU;
上述的当前图像帧指的是当前处理的图像帧,按照不同的视频编码标准该图像帧是不同的。例如,对于HEVC或AVS2视频编码标准,该图像帧包括I帧、P帧和B帧,其中,I帧是帧内编码帧,P帧是前向预测编码帧,B帧是双向预测帧内插编码帧;将当前处理的图像帧划分为多个CTU;其中,CTU是编码一帧图像的基本单元,在HEVC标准中CTU的大小可以从8x8到64x64进行划分,即8x8、16x16、32x32和64x64。
步骤S104,根据当前图像帧的帧类型在已编码的图像帧中查找当前图像帧的对应帧;
可以理解的是,每次当前处理的图像帧的帧类型是不同的,例如,当前处理的图像帧的帧类型包括I帧、P帧和B帧,而对于I帧是一种自带全部信息的独立帧,视频序列中的第一个帧始终都是I帧,无需参考其它图像帧便可进行编码,所以如果当前处理的图像帧的帧类型为I帧时,使用的查找方式为帧内搜索方式;而如果当前处理的图像帧的帧类型为P帧时,由于P帧依赖前面的P帧或者I帧,它需要比较前面的P帧或者I帧之间的相同信息或者数据,所以如果当前处理的图像帧的帧类型为P帧时,使用的查找方式为帧间搜索方式;而有的视频序列比较简单,就没有B帧;当视频序列中存在B帧时,由于B帧为双向预测内插编码帧,如果当前处理的图像帧为B帧时,就需要参考前面的I帧或者P帧,上述使用的查找方式为帧间搜索方式。
所以根据当前处理的帧图像的帧类型不同,在已编码完成的图像帧中,查找最近完成编码的图像帧,查找到最近完成编码的图像帧称为当前处理的图像帧的对应帧。
步骤S106,对于每个CTU,在对应帧中查找与当前CTU深度最匹配的对应CTU;
可以理解的是,每个图像帧都会被均分为多个CTU,所以对应帧中也会被均分为多个CTU;需要理解的是,对于当前处理的CTU的大小与对应帧中划分的多个CTU的大小相同。对当前处理的图像帧中某一个CTU进行说明,在图像帧中其他的CTU的处理方式与当前CTU的处理方式相同,下面所述的当前CTU为当前处理的CTU。例如,如果当前CTU的大小为32x32,其当前帧被划分的CTU的大小也为32x32;如果当前CTU的大小为16x16,其对应CTU的大小也为16x16,以此类推。
常规来说,我们通常认为图像细节越多,其划分深度就越大。比如,对于一张带有手指细节的图像其细节比较多,所以其深度就越大;对于一张背景复杂度较小的图像其细节比较少,所以其深度就越小。所以需要在对应帧中查找与当前CTU深度最匹配的对应CTU,而此种方法不限,其最终目标就是在对应帧中查找与当前CTU编码图像内容最接近的对应CTU。
步骤S108,根据对应CTU的深度,确定当前CTU的目标深度和目标预测模式;
可以理解的是,在帧内模式和帧间模式中每个深度都对应多种预测模式;如图5所示,图5以其中几种预测单元作为举例说明。在同一深度下,根据不同需要,找出当前CTU的最佳预测模式也就是目标预测模式。
步骤S110,根据目标深度和目标预测模式对当前CTU进行编码。
以HEVC编码标准作为举例说明,HEVC编码算法可以划分为预测模式模块、变换量化模块、熵编码模块和滤波模块。其编码流程为:在变换量化模块中,将原始的图像帧与目标预测模式进行相减形成预测残差,得到预测残差值。在熵编码模块中,将预测残差值进行熵编码操作,产生编码后的码流,与此同时将预测残差值进行反变换和反量化,得到量化数据,并将量化数据在滤波模块中进行滤波,得到滤波数据,将滤波数据作为下一帧的参考帧进行存放。
本发明实施例中,该方法包括:将待编码的当前图像帧划分为多个编码树单元CTU;根据当前图像帧的帧类型在已编码的图像帧中查找当前图像帧的对应帧;对于每个CTU,在对应帧中查找与当前CTU深度最匹配的对应CTU;根据对应CTU的深度,确定当前CTU的目标深度和目标预测模式;根据目标深度和目标预测模式对当前CTU进行编码。通过在已编码的图像帧中查找与当前图像帧的对应帧,找到当前CTU的目标深度,减小了对当前CTU的其他深度计算的时间,以降低了对图像预测编码的复杂度和编码时间,同时图像质量也能得到保障。
实施例二
本发明实施例还提供了另一种深度划分编码方法,如图2所示,图2为步骤S104的具体说明,包括以下步骤:
步骤S202,根据当前图像帧的帧类型,确定目标搜索方式;其中,目标搜索方式包括帧间搜索或帧内搜索;
由实施例一中可知帧间模式和帧内模式,所以确定了当前图像帧的帧类型便可确定目标搜索方式。在帧间模式进行预测时,划分深度除了受到图像纹理信息影响以外,还受到图像物体是否刚性运动的影响,CTU内的图像是否是一个整块的影响,即本图像和参考图像之间的相对运动细节的影响。从这个角度来说,I帧、P帧和B帧之间的深度关联性不大,但是同种帧类型之间的深度关联性非常大。总之,CTU内深度划分(包括CU和PU)受到图像纹理信息和图像运动细节信息的双重影响,可知同种帧类型之间深度关联性比较大。
步骤S204,在已编码的图像帧中查找搜索方式与目标搜索方式相同的最近完成编码的图像帧;
步骤S206,将查找到的图像帧确定为当前图像帧的对应帧。
如图3所示,图3为步骤S106的具体说明,包括以下步骤:
步骤S302,将当前CTU与对应帧中的各个CTU逐一进行像素值比较,得到比较结果;
步骤S304,根据比较结果确定与当前CTU深度最匹配的对应CTU。
由于与当前处理的图像帧与已完成的图像帧相对比,有很多相似的地方。所以将当前CTU与对应帧中的各个CTU逐一进行像素值比较。作为举例说明,其处理方法可以是:如图6所示,右图B为当前图像帧,而左图A为对应帧,假设右图B中白色块为当前CTU,需要在左图A中找到和白色块最匹配的CTU;可以使用SAD(Sum of Absolute Difference,绝对误差和)方式进行查找,将当前CTU的像素值与对应帧中各个CTU的像素值通过SAD进行计算,找到最小SAD对应的CTU,不限于SAD也可以使用其他方式进行比较,最终目标找到与当前CTU的图像内容最接近的CTU。
如图4所示,图4为步骤S108的具体说明,包括以下步骤:
步骤S402,将对应CTU的深度设定为当前CTU的初始深度;
步骤S404,在初始深度下对当前CTU进行预测模式分析,得到初始深度下的消耗值和初始预测模式;
步骤S406,根据当前图像帧中的已编码CTU更新像素均值与消耗阈值之间的计算参数;
可以理解的是,上述计算参数是预设的一个定值。每一个已编码CTU更新像素均值是不同的,所以其计算的消耗阈值是动态的。
步骤S408,根据当前CTU的各个像素值计算当前CTU的像素均值;
将当前CTU的各个像素值累加并得到当前CTU的像素均值。
步骤S410,根据当前CTU的像素均值和计算参数计算得到消耗阈值;
步骤S412,判断消耗值是否小于或等于消耗阈值;如果是,执行步骤S414;如果否,执行步骤S416;
步骤S414,将初始深度和初始预测模式确定为当前CTU的目标深度和目标预测模式;
对当前CTU深度下的各种预测模式进行消耗值进行判断,当某个预测模式的消耗值小于或等于消耗阈值时,则可认为当前预测模式的消耗值为最小的,可认为当前深度和当前深度下的预测模式分别为当前CTU的目标深度和目标预测模式。
步骤S416,遍历不同于初始深度的其他深度,通过对每个其他深度进行预测分析,确定当前CTU的目标深度和目标预测模式。
如果对于当前深度下的所有预测模式的消耗值都大于消耗阈值,可认为当前深度不是目标深度。通过现有技术遍历不同于初始深度的其他深度,通过对每个其他深度进行预测分析,确定当前CTU的目标深度和目标预测模式。
本发明经过试验证明可行,其具体为在编码软件中运行,有70%的概率可将当前CTU的深度在对应帧的对应CTU的深度进行查找,也可以这样说,70%的概率只进行单一深度的计算,不用按照现有技术中遍历所有深度进行预测。这样大大减小了编码复杂度,同时也节省了时间和成本。
实施例三
本发明实施例还提供了一种深度划分编码装置,如图7所示,该装置包括:
划分模块70,用于将待编码的当前图像帧划分为多个编码树单元CTU;
第一查找模块71,用于根据当前图像帧的帧类型在已编码的图像帧中查找当前图像帧的对应帧;
第二查找模块72,用于对于每个CTU,在对应帧中查找与当前CTU深度最匹配的对应CTU;
确定模块73,用于根据对应CTU的深度,确定当前CTU的目标深度和目标预测模式;
编码模块74,用于根据目标深度和目标预测模式对当前CTU进行编码。
上述第一查找模块71,还用于:根据当前图像帧的帧类型,确定目标搜索方式;其中,目标搜索方式包括帧间搜索或帧内搜索;在已编码的图像帧中查找搜索方式与目标搜索方式相同的最近完成编码的图像帧;将查找到的图像帧确定为当前图像帧的对应帧。
第二查找模块72,还用于:将当前CTU与对应帧中的各个CTU逐一进行像素值比较,得到比较结果;根据比较结果确定与当前CTU深度最匹配的对应CTU。
本发明实施例中,该方法包括:将待编码的当前图像帧划分为多个编码树单元CTU;根据当前图像帧的帧类型在已编码的图像帧中查找当前图像帧的对应帧;对于每个CTU,在对应帧中查找与当前CTU深度最匹配的对应CTU;根据对应CTU的深度,确定当前CTU的目标深度和目标预测模式;根据目标深度和目标预测模式对当前CTU进行编码。通过在已编码的图像帧中查找与当前图像帧的对应帧,找到当前CTU的目标深度,减小了对当前CTU的其他深度计算的时间,以降低了对图像预测编码的复杂度和编码时间,同时图像质量也能得到保障。
本发明实施例提供的深度划分编码装置,与上述实施例提供的深度划分编码方法具有相同的技术特征,所以也能解决相同的技术问题,达到相同的技术效果。
实施例四
本发明实施例还提供了一种电子设备,如图8所示,包括存储器401、处理器400,存储器401中存储有可在处理器400上运行的计算机程序,该处理器400执行计算机程序时实现实施例一或实施例二所述的方法的步骤。
其中,存储器401可能包含高速随机存取存储器(RAM,Random Access Memory),也可能还包括非易失存储器(non-volatile memory),例如至少一个磁盘存储器。通过至少一个通信接口403(可以是有线或者无线)实现该系统网元与至少一个其他网元之间的通信连接,可以使用互联网,广域网,本地网,城域网等。
总线402可以是ISA总线、PCI总线或EISA总线等。总线可以分为地址总线、数据总线、控制总线等。为便于表示,图8中仅用一个双向箭头表示,但并不表示仅有一根总线或一种类型的总线。
其中,存储器401用于存储程序,处理器400在接收到执行指令后,执行程序,前述本发明实施例任一实施例揭示的流过程定义的装置所执行的方法可以应用于处理器400中,或者由处理器400实现。
处理器400可能是一种集成电路芯片,具有信号的处理能力。在实现过程中,上述方法的各步骤可以通过处理器400中的硬件的集成逻辑电路或者软件形式的指令完成。上述的处理器400可以是通用处理器,包括中央处理器(Central Processing Unit,简称CPU)、网络处理器(Network Processor,简称NP)等;还可以是数字信号处理器(DigitalSignal Processing,简称DSP)、专用集成电路(Application Specific IntegratedCircuit,简称ASIC)、现成可编程门阵列(Field-Programmable Gate Array,简称FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。可以实现或者执行本发明实施例中的公开的各方法、步骤及逻辑框图。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。结合本发明实施例所公开的方法的步骤可以直接体现为硬件译码处理器执行完成,或者用译码处理器中的硬件及软件模块组合执行完成。软件模块可以位于随机存储器,闪存、只读存储器,可编程只读存储器或者电可擦写可编程存储器、寄存器等本领域成熟的存储介质中。该存储介质位于存储器401,处理器400读取存储器401中的信息,结合其硬件完成上述方法的步骤。
在本发明的描述中,需要说明的是,术语“中心”、“上”、“下”、“左”、“右”、“竖直”、“水平”、“内”、“外”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明的限制。此外,术语“第一”、“第二”、“第三”仅用于描述目的,而不能理解为指示或暗示相对重要性。
本发明实施例所提供的进行深度划分编码方法、装置和电子设备的计算机程序产品,包括存储了处理器可执行的非易失的程序代码的计算机可读存储介质,所述程序代码包括的指令可用于执行前面方法实施例中所述的方法,具体实现可参见方法实施例,在此不再赘述。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的方法、装置和电子设备的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在本发明所提供的几个实施例中,应该理解到,所揭露的方法、装置和电子设备,可以通过其它的方式实现。以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,又例如,多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些通信接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。
所述功能如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个处理器可执行的非易失的计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
最后应说明的是:以上所述实施例,仅为本发明的具体实施方式,用以说明本发明的技术方案,而非对其限制,本发明的保护范围并不局限于此,尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,其依然可以对前述实施例所记载的技术方案进行修改或可轻易想到变化,或者对其中部分技术特征进行等同替换;而这些修改、变化或者替换,并不使相应技术方案的本质脱离本发明实施例技术方案的精神和范围,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以所述权利要求的保护范围为准。
Claims (10)
1.一种深度划分编码方法,其特征在于,所述方法包括:
将待编码的当前图像帧划分为多个编码树单元CTU;
根据所述当前图像帧的帧类型在已编码的图像帧中查找所述当前图像帧的对应帧;
对于每个所述CTU,在所述对应帧中查找与当前CTU深度最匹配的对应CTU;
根据所述对应CTU的深度,确定所述当前CTU的目标深度和目标预测模式;
根据所述目标深度和所述目标预测模式对所述当前CTU进行编码。
2.根据权利要求1所述的方法,其特征在于,所述根据所述当前图像帧的帧类型在已编码的图像帧中查找所述当前图像帧的对应帧的步骤,包括:
根据所述当前图像帧的帧类型,确定目标搜索方式;其中,所述目标搜索方式包括帧间搜索或帧内搜索;
在已编码的图像帧中查找搜索方式与所述目标搜索方式相同的最近完成编码的图像帧;
将查找到的图像帧确定为所述当前图像帧的对应帧。
3.根据权利要求1所述的方法,其特征在于,所述在所述对应帧中查找与当前CTU深度最匹配的对应CTU的步骤,包括:
将当前CTU与所述对应帧中的各个CTU逐一进行像素值比较,得到比较结果;
根据所述比较结果确定与所述当前CTU深度最匹配的对应CTU。
4.根据权利要求1所述的方法,其特征在于,所述根据所述对应CTU的深度,确定所述当前CTU的目标深度和目标预测模式的步骤,包括:
将所述对应CTU的深度设定为所述当前CTU的初始深度;
在所述初始深度下对所述当前CTU进行预测模式分析,得到所述初始深度下的消耗值和初始预测模式;
根据所述消耗值和所述初始预测模式确定所述当前CTU的目标深度和目标预测模型。
5.根据权利要求4所述的方法,其特征在于,所述根据所述消耗值和所述初始预测模式确定所述当前CTU的目标深度和目标预测模式的步骤,包括:
根据所述当前CTU的各个像素值,确定消耗阈值;
判断所述消耗值是否小于或等于所述消耗阈值;
如果是,将所述初始深度和所述初始预测模式确定为所述当前CTU的目标深度和目标预测模式;
如果否,遍历不同于所述初始深度的其他深度,通过对每个所述其他深度进行预测分析,确定所述当前CTU的目标深度和目标预测模式。
6.根据权利要求5所述的方法,其特征在于,所述根据所述当前CTU的各个像素值,确定消耗阈值的步骤,包括:
根据所述当前图像帧中的已编码CTU更新像素均值与消耗阈值之间的计算参数;
根据所述当前CTU的各个像素值计算所述当前CTU的像素均值;
根据所述当前CTU的像素均值和所述计算参数计算得到消耗阈值。
7.一种深度划分编码装置,其特征在于,所述装置包括:
划分模块,用于将待编码的当前图像帧划分为多个编码树单元CTU;
第一查找模块,用于根据所述当前图像帧的帧类型在已编码的图像帧中查找所述当前图像帧的对应帧;
第二查找模块,用于对于每个所述CTU,在所述对应帧中查找与当前CTU深度最匹配的对应CTU;
确定模块,用于根据所述对应CTU的深度,确定所述当前CTU的目标深度和目标预测模式;
编码模块,用于根据所述目标深度和所述目标预测模式对所述当前CTU进行编码。
8.根据权利要求7所述的装置,其特征在于,所述第一查找模块,还用于:
根据所述当前图像帧的帧类型,确定目标搜索方式;其中,所述目标搜索方式包括帧间搜索或帧内搜索;
在已编码的图像帧中查找搜索方式与所述目标搜索方式相同的最近完成编码的图像帧;
将查找到的图像帧确定为所述当前图像帧的对应帧。
9.根据权利要求7所述的装置,其特征在于,所述第二查找模块,还用于:
将当前CTU与所述对应帧中的各个CTU逐一进行像素值比较,得到比较结果;
根据所述比较结果确定与所述当前CTU深度最匹配的对应CTU。
10.一种电子设备,包括存储器、处理器,所述存储器中存储有可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现上述权利要求1至6任一项所述的方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811531351.XA CN109618152B (zh) | 2018-12-14 | 2018-12-14 | 深度划分编码方法、装置和电子设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811531351.XA CN109618152B (zh) | 2018-12-14 | 2018-12-14 | 深度划分编码方法、装置和电子设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109618152A true CN109618152A (zh) | 2019-04-12 |
CN109618152B CN109618152B (zh) | 2020-09-08 |
Family
ID=66009436
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811531351.XA Active CN109618152B (zh) | 2018-12-14 | 2018-12-14 | 深度划分编码方法、装置和电子设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109618152B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117640939A (zh) * | 2024-01-25 | 2024-03-01 | 宁波康达凯能医疗科技有限公司 | 一种用于帧间图像的运动估计搜索方式判别方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103491369A (zh) * | 2013-09-18 | 2014-01-01 | 华为技术有限公司 | 一种帧间预测编码方法和编码器 |
CN104243997A (zh) * | 2014-09-05 | 2014-12-24 | 南京邮电大学 | 一种质量可分级hevc视频编码方法 |
CN104702958A (zh) * | 2013-12-05 | 2015-06-10 | 中国科学院深圳先进技术研究院 | 一种基于空间相关性的hevc帧内编码方法及系统 |
US20180332278A1 (en) * | 2017-05-15 | 2018-11-15 | City University Of Hong Kong | Hevc with complexity control based on dynamic ctu depth range adjustment |
-
2018
- 2018-12-14 CN CN201811531351.XA patent/CN109618152B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103491369A (zh) * | 2013-09-18 | 2014-01-01 | 华为技术有限公司 | 一种帧间预测编码方法和编码器 |
CN104702958A (zh) * | 2013-12-05 | 2015-06-10 | 中国科学院深圳先进技术研究院 | 一种基于空间相关性的hevc帧内编码方法及系统 |
CN104243997A (zh) * | 2014-09-05 | 2014-12-24 | 南京邮电大学 | 一种质量可分级hevc视频编码方法 |
US20180332278A1 (en) * | 2017-05-15 | 2018-11-15 | City University Of Hong Kong | Hevc with complexity control based on dynamic ctu depth range adjustment |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117640939A (zh) * | 2024-01-25 | 2024-03-01 | 宁波康达凯能医疗科技有限公司 | 一种用于帧间图像的运动估计搜索方式判别方法 |
Also Published As
Publication number | Publication date |
---|---|
CN109618152B (zh) | 2020-09-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110087087B (zh) | Vvc帧间编码单元预测模式提前决策及块划分提前终止方法 | |
CN107347159B (zh) | 一种对视频位流进行编解码的方法、设备 | |
US11070803B2 (en) | Method and apparatus for determining coding cost of coding unit and computer-readable storage medium | |
CN108124154B (zh) | 帧间预测模式的快速选择方法、装置及电子设备 | |
JP6843239B2 (ja) | 符号化ユニットの深さ特定方法及び装置 | |
CN105359531B (zh) | 用于针对屏幕内容编码的编码器侧判定的方法和系统 | |
CN103891281B (zh) | 检测用于视频译码的相邻视频单元的可用性 | |
CN103248895B (zh) | 一种用于hevc帧内编码的快速模式估计方法 | |
CN108777789A (zh) | 导出运动信息的方法 | |
CN109889827B (zh) | 帧内预测编码方法、装置、电子设备及计算机存储介质 | |
TW202025764A (zh) | 動畫像編碼裝置和方法、動畫像解碼裝置和方法及媒體 | |
EP2772057A1 (en) | Method and device for determining parameters for encoding or decoding of an image of a video sequence | |
CN101375593A (zh) | 处理多视图视频 | |
CN109587491A (zh) | 一种帧内预测方法、装置及存储介质 | |
CN104954787B (zh) | Hevc帧间预测模式选择方法及装置 | |
CN108989799A (zh) | 一种编码单元参考帧的选择方法、装置及电子设备 | |
EP3706421A1 (en) | Method and apparatus for video encoding and decoding based on affine motion compensation | |
US20240283930A1 (en) | Systems and methods for video encoding using image segmentation | |
CN110024397A (zh) | 用于编码视频的方法和装置 | |
CN107690069B (zh) | 一种数据驱动的级联视频编码方法 | |
CN116016929A (zh) | 帧内预测编码解码方法、电子设备及计算机可读存储介质 | |
CN100385957C (zh) | 一种运动矢量预测的方法 | |
CN103491371B (zh) | 基于分层的编码方法、装置和设备 | |
CN109618152A (zh) | 深度划分编码方法、装置和电子设备 | |
CN111654696B (zh) | 一种帧内的多参考行预测方法、装置、存储介质及终端 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |