CN116668723A - 基于卷积神经网络的3d-hevc深度图帧内编码单元划分方法及装置 - Google Patents
基于卷积神经网络的3d-hevc深度图帧内编码单元划分方法及装置 Download PDFInfo
- Publication number
- CN116668723A CN116668723A CN202310550087.9A CN202310550087A CN116668723A CN 116668723 A CN116668723 A CN 116668723A CN 202310550087 A CN202310550087 A CN 202310550087A CN 116668723 A CN116668723 A CN 116668723A
- Authority
- CN
- China
- Prior art keywords
- size
- current
- coding unit
- coding
- encoding
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 82
- 238000013527 convolutional neural network Methods 0.000 title claims abstract description 36
- 230000008569 process Effects 0.000 claims abstract description 51
- 238000013139 quantization Methods 0.000 claims abstract description 36
- 238000012549 training Methods 0.000 claims description 38
- 238000005192 partition Methods 0.000 claims description 19
- 230000004913 activation Effects 0.000 claims description 15
- 238000000638 solvent extraction Methods 0.000 claims description 15
- 238000011176 pooling Methods 0.000 claims description 13
- 238000004590 computer program Methods 0.000 claims description 10
- 238000004364 calculation method Methods 0.000 claims description 9
- 238000012935 Averaging Methods 0.000 claims description 5
- 238000010276 construction Methods 0.000 claims description 3
- 230000004044 response Effects 0.000 claims description 3
- 238000004422 calculation algorithm Methods 0.000 description 10
- 238000010586 diagram Methods 0.000 description 9
- 238000012545 processing Methods 0.000 description 9
- 230000000052 comparative effect Effects 0.000 description 7
- 238000004891 communication Methods 0.000 description 6
- 230000006870 function Effects 0.000 description 6
- 238000013135 deep learning Methods 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 230000008901 benefit Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 239000000835 fiber Substances 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 241000251730 Chondrichthyes Species 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000013480 data collection Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 230000008520 organization Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/597—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T9/00—Image coding
- G06T9/002—Image coding using neural networks
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/119—Adaptive subdivision aspects, e.g. subdivision of a picture into rectangular or non-rectangular coding blocks
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/124—Quantisation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/593—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/60—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
- H04N19/61—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- General Physics & Mathematics (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
Abstract
本发明公开了一种基于卷积神经网络的3D‑HEVC深度图帧内编码单元划分方法及装置,通过构建编码单元划分预测模型并训练,采用3D‑HEVC编码器对当前待编码块进行编码,在编码过程中确定编码单元的当前尺寸和当前编码量化参数;根据编码单元的当前尺寸和/或当前编码量化参数确定在编码过程中采用速度模式或性能模式,在速度模式中,将预测值作为当前待编码块的划分结果;在性能模式中,使用3D‑HEVC编码器预测当前待编码块的划分结果;判断编码单元的当前尺寸是否大于第四尺寸,若是则调整当前待编码块的尺寸缩小一个级别,并重复以上步骤,直至得到当前待编码块的所有划分结果,本方法在保证一定编码质量的前提下,能够显著节省深度图编码所需时间。
Description
技术领域
本发明涉及视频编码领域,具体涉及一种基于卷积神经网络的3D-HEVC深度图帧内编码单元划分方法及装置。
背景技术
随着多媒体技术的日益成熟,人们对更能反映真实场景信息的3D视频需求越来越高。但与此同时,3D视频需要对多个视点进行编码,导致数据量非常大,国际视频组织为了能在保证编码质量的前提下有效压缩视频数据,提出了针对3D视频的编码标准3D-HEVC(3DHigh Efficiency Video Coding),其中加入了大量新的编码工具,能够保证在只编码3个视点的前提下,得到高质量的合成视点结果,但这些算法的加入,大大增加了编码的时间复杂度。因此如何在保证编码质量的前提下加速深度图的编码进程,是一个亟待解决的问题。
传统的快速算法受限于对特征的选取,不同特征对应视频序列中的不同特点,而人工提取某一特征会导致最终的结果具有偏向性。现有的基于深度学习的方法能显著提升视频编码领域的潜力性能,但需要依赖大量丰富的训练数据作为支撑,在纹理视频编码领域,有较多的与深度学习相结合的工作,因为纹理图可以将图片制作为序列来进行编码,得到丰富的训练数据;但在3D-HEVC中,对深度图的编码需要用到相机参数的配置文件,需要依赖官方的测试序列,相关研究较少。
发明内容
针对上述提到的技术问题。本申请的实施例的目的在于提出了一种基于卷积神经网络的3D-HEVC深度图帧内编码单元划分方法及装置,来解决以上背景技术部分提到的技术问题。
第一方面,本发明提供了一种基于卷积神经网络的3D-HEVC深度图帧内编码单元划分方法,包括以下步骤:
S1,构建基于卷积神经网络的编码单元划分预测模型并进行训练,得到经训练的编码单元划分预测模型;
S2,获取待编码深度图序列,将待编码深度图序列划分得到若干个第一尺寸下的当前待编码块,将当前待编码块输入经训练的编码单元划分预测模型,输出的预测值为在编码过程中当前待编码块中不同尺寸的编码单元是否需要向缩小一个级别的尺寸的编码单元继续划分的若干个标签值,采用3D-HEVC编码器对当前待编码块进行编码,在编码过程中确定编码单元的当前尺寸和当前编码量化参数;
S3,根据编码单元的当前尺寸和/或当前编码量化参数确定在编码过程中采用速度模式或性能模式,在速度模式中,将经训练的编码单元划分预测模型的预测值作为当前待编码块的划分结果;在性能模式中,使用3D-HEVC编码器预测当前待编码块的划分结果,当前待编码块的划分结果为当前尺寸的编码单元是否向缩小一个级别的尺寸的编码单元继续划分;
S4,判断编码单元的当前尺寸是否大于第四尺寸,若是则调整当前待编码块的尺寸缩小一个级别,并重复步骤S3-S4,否则得到当前待编码块的所有划分结果。
作为优选,不同尺寸包括第一尺寸、第二尺寸、第三尺寸和第四尺寸,第一尺寸为64×64,第二尺寸为32×32,第三尺寸为16×16,第四尺寸为8×8,并为依次缩小一个级别的尺寸,当前编码量化参数包括QP=(25,34),(30,39),(35,42),(40,45)。
作为优选,步骤S3中根据编码单元的当前尺寸和/或当前编码量化参数确定在编码过程中采用速度模式或性能模式,具体包括:
响应于确定编码单元的当前尺寸为第一尺寸或第二尺寸,或者当前编码量化参数为25或40,确定在编码过程中采用速度模式;
响应于确定编码单元的当前尺寸为第三尺寸或第四尺寸,且当前编码量化参数为30或35,确定在编码过程中采用性能模式。
作为优选,编码单元划分预测模型包括第一分支、第二分支和第三分支,分别对应第一尺寸、第二尺寸和第三尺寸的预测值,第一分支、第二分支和第三分支均包括依次连接的第一去平均层、第一池化层、第一卷积层、第一ReLU激活层、第二卷积层、第二ReLU激活层、第三卷积层、第三ReLU激活层和全连接层,第一卷积层的卷积核大小为4×4、步长为4、填充为0,第二卷积层的卷积核大小为2×2、步长为2、填充为0,第三卷积层的卷积核大小为2×2、步长为2、填充为0,第一池化层,第一级池化核大小为4×4、步长为4,第二级池化核大小为2×2、步长为2,第三级池化核大小为1×1、步长为1。
作为优选,编码单元划分预测模型的训练过程如下:
获取训练数据;
采用训练数据对编码单元划分预测模型进行训练,在训练过程中,
假设训练数据的样本总数为T个,t表示其中的单个样本,该样本的真实值为 其中y1、y2、y3分别表示编码单元划分预测模型中第一分支、第二分支和第三分支的输出,l表示每一个分支的标签值,因此i∈{1}、j∈{2-3}、k∈{6-21},则单个样本的损失Lt是对该样本中所有元素的交叉熵进行累加,计算公式如下:
其中,表示样本经过编码单元划分预测模型预测得到的三个分支的预测值,C(yt,y′t)表示真实值与预测值之间的交叉熵,所有T个样本的总损失值用L表示,计算公式如下:
作为优选,编码单元划分预测模型的输入为当前待编码块,输出为在编码过程中当前待编码块的不同尺寸的编码单元是否需要向缩小一个级别的尺寸的编码单元继续划分的若干个标签值,该标签值为flag,其表示为:
其中,i表示预测值的第1个标签值,表示第一尺寸的编码单元是否划分,j为预测值的第2至第5个标签,表示4个第二尺寸的编码单元是否划分,最后k为预测值的第6至第21个标签,表示16个第三尺寸的编码单元是否划分。
作为优选,获取训练数据,具体包括:
获取深度图序列,将深度图序列进行数据增强,数据增强包括翻转、镜像以及翻转后的镜像,得到数据增强后的深度图序列;
采用3D-HEVC编码器对数据增强后的深度图序列在全帧内的配置下进行编码,得到编码量化参数QP为(25,34),(30,39),(35,42),(40,45)下锚定的不同尺寸的编码单元的划分结果,以作为标签值,并与深度图序列划分得到第一尺寸下的若干个编码单元关联得到训练数据。
第二方面,本发明提供了一种基于卷积神经网络的3D-HEVC深度图帧内编码单元划分装置,包括:
模型构建模块,被配置为构建基于卷积神经网络的编码单元划分预测模型并进行训练,得到经训练的编码单元划分预测模型;
预测模块,被配置为获取待编码深度图序列,将待编码深度图序列划分得到若干个第一尺寸下的当前待编码块,将当前待编码块输入经训练的编码单元划分预测模型,输出的预测值为在编码过程中当前待编码块中不同尺寸的编码单元是否需要向缩小一个级别的尺寸的编码单元继续划分的若干个标签值,采用3D-HEVC编码器对当前待编码块进行编码,在编码过程中确定编码单元的当前尺寸和当前编码量化参数;
模式确定模块,被配置为根据编码单元的当前尺寸和/或当前编码量化参数确定在编码过程中采用速度模式或性能模式,在速度模式中,将经训练的编码单元划分预测模型的预测值作为当前待编码块的划分结果;在性能模式中,使用3D-HEVC编码器预测当前待编码块的划分结果,当前待编码块的划分结果为当前尺寸的编码单元是否向缩小一个级别的尺寸的编码单元继续划分;
判断模块,被配置为判断编码单元的当前尺寸是否大于第四尺寸,若是则调整当前待编码块的尺寸缩小一个级别,并重复执行模式确定模块至判断模块,否则得到当前待编码块的所有划分结果。
第三方面,本发明提供了一种电子设备,包括一个或多个处理器;存储装置,用于存储一个或多个程序,当一个或多个程序被一个或多个处理器执行,使得一个或多个处理器实现如第一方面中任一实现方式描述的方法。
第四方面,本发明提供了一种计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现如第一方面中任一实现方式描述的方法。
相比于现有技术,本发明具有以下有益效果:
(1)本发明先采用经训练的编码单元划分预测模型对待编码块预测出不同尺寸的编码单元是否需要向缩小一个级别的尺寸的编码单元继续划分的预测值,针对不同场景下编码过程中确定采用速度模式或性能模式,选择调用该预测值或者采用3D-HEVC编码器得到划分结果,分别可实现较高的编码时间节省和较低的合成视点质量损失。
(2)本发明中经训练的编码单元划分预测模型输出的标签值为1或0,对应表示当前尺寸的编码单元需要向缩小一个级别的尺寸的编码单元继续划分或者不需要向缩小一个级别的尺寸的编码单元继续划分,训练数据收集方式简单,针对当前编码单元的编码尺寸和/或编码量化参数选择划分结果采用网络预测值或是编码平台的预测结果,在保证编码质量的同时,节约大量编码时间。
(3)本发明在编码过程中采用速度模式的情况下可直接跳过平台率失真代价的计算和比较过程,在保证一定编码质量的前提下,显著节省深度图编码所需时间。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简要介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域的普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本申请的一个实施例可以应用于其中的示例性装置架构图;
图2为本申请的实施例的基于卷积神经网络的3D-HEVC深度图帧内编码单元划分方法的流程示意图;
图3为本申请的实施例的基于卷积神经网络的3D-HEVC深度图帧内编码单元划分方法的编码单元划分预测模型的网络结构示意图;
图4为本申请的实施例的基于卷积神经网络的3D-HEVC深度图帧内编码单元划分方法的逻辑框图;
图5为本申请的实施例的基于卷积神经网络的3D-HEVC深度图帧内编码单元划分方法与编码平台在序列Poznan_Street和Newspaper下的主观质量对比结果;
图6为本申请的实施例的基于卷积神经网络的3D-HEVC深度图帧内编码单元划分装置的示意图;
图7是适于用来实现本申请实施例的电子设备的计算机装置的结构示意图。
具体实施方式
为了使本发明的目的、技术方案和优点更加清楚,下面将结合附图对本发明作进一步地详细描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其它实施例,都属于本发明保护的范围。
图1示出了可以应用本申请实施例的基于卷积神经网络的3D-HEVC深度图帧内编码单元划分方法或基于卷积神经网络的3D-HEVC深度图帧内编码单元划分装置的示例性装置架构100。
如图1所示,装置架构100可以包括终端设备101、102、103,网络104和服务器105。网络104用以在终端设备101、102、103和服务器105之间提供通信链路的介质。网络104可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
用户可以使用终端设备101、102、103通过网络104与服务器105交互,以接收或发送消息等。终端设备101、102、103上可以安装有各种应用,例如数据处理类应用、文件处理类应用等。
终端设备101、102、103可以是硬件,也可以是软件。当终端设备101、102、103为硬件时,可以是各种电子设备,包括但不限于智能手机、平板电脑、膝上型便携计算机和台式计算机等等。当终端设备101、102、103为软件时,可以安装在上述所列举的电子设备中。其可以实现成多个软件或软件模块(例如用来提供分布式服务的软件或软件模块),也可以实现成单个软件或软件模块。在此不做具体限定。
服务器105可以是提供各种服务的服务器,例如对终端设备101、102、103上传的文件或数据进行处理的后台数据处理服务器。后台数据处理服务器可以对获取的文件或数据进行处理,生成处理结果。
需要说明的是,本申请实施例所提供的基于卷积神经网络的3D-HEVC深度图帧内编码单元划分方法可以由服务器105执行,也可以由终端设备101、102、103执行,相应地,基于卷积神经网络的3D-HEVC深度图帧内编码单元划分装置可以设置于服务器105中,也可以设置于终端设备101、102、103中。
应该理解,图1中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。在所处理的数据不需要从远程获取的情况下,上述装置架构可以不包括网络,而只需服务器或终端设备。
图2示出了本申请的实施例提供的一种基于卷积神经网络的3D-HEVC深度图帧内编码单元划分方法,包括以下步骤:
S1,构建基于卷积神经网络的编码单元划分预测模型并进行训练,得到经训练的编码单元划分预测模型。
在具体的实施例中,编码单元划分预测模型包括第一分支、第二分支和第三分支,分别对应第一尺寸、第二尺寸和第三尺寸的预测值,第一分支、第二分支和第三分支均包括依次连接的第一去平均层、第一池化层、第一卷积层、第一ReLU激活层、第二卷积层、第二ReLU激活层、第三卷积层、第三ReLU激活层和全连接层,第一卷积层的卷积核大小为4×4、步长为4、填充为0,第二卷积层的卷积核大小为2×2、步长为2、填充为0,第三卷积层的卷积核大小为2×2、步长为2、填充为0,第一池化层,第一级池化核大小为4×4、步长为4,第二级池化核大小为2×2、步长为2,第三级池化核大小为1×1、步长为1。
在具体的实施例中,不同尺寸包括第一尺寸、第二尺寸、第三尺寸和第四尺寸,第一尺寸为64×64,第二尺寸为32×32,第三尺寸为16×16,第四尺寸为8×8,并为依次缩小一个级别的尺寸,当前编码量化参数包括QP=(25,34),(30,39),(35,42),(40,45)。
在具体的实施例中,编码单元划分预测模型的训练过程如下:
获取训练数据;
采用训练数据对编码单元划分预测模型进行训练,在训练过程中,
假设训练数据的样本总数为T个,t表示其中的单个样本,该样本的真实值为 其中y1、y2、y3分别表示编码单元划分预测模型中第一分支、第二分支和第三分支的输出,l表示每一个分支的标签值,因此i∈{1}、j∈{2-3}、k∈{6-21},则单个样本的损失Lt是对该样本中所有元素的交叉熵进行累加,计算公式如下:
其中,表示样本经过编码单元划分预测模型预测得到的三个分支的预测值,C(yt,y′t)表示真实值与预测值之间的交叉熵,所有T个样本的总损失值用L表示,计算公式如下:
在具体的实施例中,获取训练数据,具体包括:
获取深度图序列,将深度图序列进行数据增强,数据增强包括翻转、镜像以及翻转后的镜像,得到数据增强后的深度图序列;
采用3D-HEVC编码器对数据增强后的深度图序列在全帧内的配置下进行编码,得到编码量化参数QP为(25,34),(30,39),(35,42),(40,45)下锚定的不同尺寸的编码单元的划分结果,以作为标签值,并与深度图序列划分得到第一尺寸下的若干个编码单元关联得到训练数据。
具体的,参考图3,构建基于卷积神经网络的编码单元划分预测模型。该编码单元划分预测模型共有三个分支,分别对应编码单元的尺寸为64×64,32×32和16×16的预测值,各个分支之间结构明确,目的性强,有更好的预测精度,每一个分支的结构一致,均包括依次连接的第一去平均层、第一池化层、第一卷积层、第一ReLU激活层、第二卷积层、第二ReLU激活层、第三卷积层、第三ReLU激活层和全连接层。第一去平均层、第一池化层作为预处理模块,可以以减小噪声对图像的干扰和减少网络参数。卷积模块包括第一卷积层、第一ReLU激活层、第二卷积层、第二ReLU激活层、第三卷积层、第三ReLU激活层,采用的非重叠浅层卷积,能够使感受野在尺寸和位置上都与编码单元重叠,并降低预测时的时间开销。最后全连接层将三个分支的特征归并后再重新分为三个分支的输出,可以充分利用各级学习到的特征来预测最后的结果,输出一组能完全表示编码单元划分结果的标签值。
在训练过程中,首先建立深度图的编码单元划分数据库,作为编码单元划分预测模型的训练数据。将序列Balloons、Poznan_Hall2、UndoDancer和Shark用于训练数据的制作,并对这些深度图序列进行翻转、镜像以及翻转后的镜像,将总的深度图序列数扩充为原来的4倍,能使网络的数据集更加丰富,增强网络的性能。接着利用3D-HEVC编码器对数据增强后得到的深度图序列在全帧内的配置下进行编码,得到标准平台中4组编码量化参数(QP=(25,34),(30,39),(35,42),(40,45))下锚定的编码单元的划分结果,作为标签值。将该深度图序列划分得到64×64尺寸的待编码块与其在不同尺寸的编码单元的划分结果的标签值作为训练数据,采用该训练数据对编码单元划分预测模型进行训练,得到经训练的编码单元划分预测模型,在训练过程中损失函数采用常应用在分类问题中的交叉熵损失函数。
S2,获取待编码深度图序列,将待编码深度图序列划分得到若干个第一尺寸下的当前待编码块,将当前待编码块输入经训练的编码单元划分预测模型,输出的预测值为在编码过程中当前待编码块中不同尺寸的编码单元是否需要向缩小一个级别的尺寸的编码单元继续划分的若干个标签值,采用3D-HEVC编码器对当前待编码块进行编码,在编码过程中确定编码单元的当前尺寸和当前编码量化参数。
在具体的实施例中,编码单元划分预测模型的输入为当前待编码块,输出为在编码过程中当前待编码块的不同尺寸的编码单元是否需要向缩小一个级别的尺寸的编码单元继续划分的若干个标签值,该标签纸为flag,其表示为:
其中,i表示预测值的第1个标签值,表示第一尺寸的编码单元是否划分,j为预测值的第2至第5个标签,表示4个第二尺寸的编码单元是否划分,最后k为预测值的第6至第21个标签,表示16个第三尺寸的编码单元是否划分。
具体的,由于3D-HEVC编码包含3个视点,并在合成视点时渲染为9个视点,以模拟人眼对3D物体的感知,因此需要将待编码深度图序列划分得到的各视点的当前编码块逐一输入经训练的编码单元划分预测模型并进行预测。在步骤S2中,首先需第一尺寸下的待编码块,并依次判断在第一尺寸至第三尺寸下的编码单元是否继续向缩小一个级别的尺寸划分,得到对应尺寸的编码单元的预测值,此时在所有尺寸下均进行判断,即可得到21个预测值。
S3,根据编码单元的当前尺寸和/或当前编码量化参数确定在编码过程中采用速度模式或性能模式,在速度模式中,将经训练的编码单元划分预测模型的预测值作为当前待编码块的划分结果;在性能模式中,使用3D-HEVC编码器预测当前待编码块的划分结果,当前待编码块的划分结果为当前尺寸的编码单元是否向缩小一个级别的尺寸的编码单元继续划分。
在具体的实施例中,步骤S3中根据编码单元的当前尺寸和/或当前编码量化参数确定在编码过程中采用速度模式或性能模式,具体包括:
响应于确定编码单元的当前尺寸为第一尺寸或第二尺寸,或者当前编码量化参数为25或40,确定在编码过程中采用速度模式;
响应于确定编码单元的当前尺寸为第三尺寸或第四尺寸,且当前编码量化参数为30或35,确定在编码过程中采用性能模式。
具体的,速度模式是针对直播、远程会议等对编码速度有较高要求的实时应用场景提出的模式,相比于传统算法只利用单一特征进行提前终止来说,深度学习方法可以通过学习到的高维特征,对所有编码量化参数所有尺寸的深度图都使用经训练的编码单元划分预测模型来预测其划分结果,最大程度上跳过平台中不必要的RD Cost计算,能够节省大量的时间。
而性能模式从编码量化参数与当前尺寸两个角度入手,编码量化参数是考虑到网络对于QP=25、40的深度图预测精度较准,因为编码单元分别更倾向于划分和不划分,而中间QP QP=30、35下的网络划分预测准确度较低,可以通过3D-HEVC编码器进行预测以减少损失;当前尺寸则是考虑到深度图大面积平坦的特点,大部分编码单元的尺寸最终都划分为64×64或32×32,而对合成视点质量影响很大的景深改变的编码单元,其划分深度大多为16×16或8×8,并且数量较少,对这部分编码单元通过3D-HEVC编码器进行预测,能大量减少最终的质量损失,并且由于数量较少,时间开销也不会太大。
S4,判断编码单元的当前尺寸是否大于第四尺寸,若是则调整当前待编码块的尺寸缩小一个级别,并重复步骤S3-S4,否则得到当前待编码块的所有划分结果。
具体的,判断编码单元的当前尺寸是否大于8×8,若大于8×8则将编码深度加1后重复步骤S3-S4,开始缩小一个级别的尺寸的编码单元的划分,得到当前待编码块的所有深度,即当前待编码块的所有划分结果,划分过程结束。
对比例1采用DEC-CNN(depth edge classification)算法,对比例2采用基于张量特征提取的快速算法,将本申请的实施例与对比例1和对比例2的方案在客观质量结果上进行比较,如表1所示,表中画斜杠的序列代表用于数据集的制作。但本申请的实施例在经过速度模式编码后,时间节省达到了76.28%,而质量损失仅有6.89%,都要优于对比例1的结果,充分说明了本申请的实施例的性能的优越性。由于相关深度学习工作较少,本申请的实施例还与对比例2进行对比,对比例2采用传统的快速算法,可以发现,虽然在质量损失上传统算法更胜一筹,但是本申请的实施例拥有很大的时间节省优势,并且为了满足对重建质量有着较高要求的应用场景,本申请的实施例还设计了快速算法的性能模式,从表1的性能模式中可以看到,其质量损失从速度模式的6.89%降低到2.76%,降幅达59.94%,虽然提高了一定的计算复杂度,但平均时间节省也能达到64.11%,实现了较小损失下的快速算法。需要指出的是,文献[2]的编码平台是HTM-16.2,为了与该文献数据进行严格对比,本申请的实施例将所设计算法移植到了其使用的平台,实验结果表明,该平台下性能模式以2.26%的质量损失节省了64.08%的编码时间,数据与HTM-16.0平台基本一致。为了进一步论证重建质量的可靠性,本申请的实施例还对测试序列的主观质量作了比较,参考图5,图5a和5b以及5c和5d是序列Poznan_Street以及Newspaper1两个序列的主观质量对比,可以明显看到,和原始编码平台相比,本申请的实施例在解码后的主观质量上几乎一致。
表1实施例与对比例的客观质量对比
进一步参考图6,作为对上述各图所示方法的实现,本申请提供了一种基于卷积神经网络的3D-HEVC深度图帧内编码单元划分装置的一个实施例,该装置实施例与图2所示的方法实施例相对应,该装置具体可以应用于各种电子设备中。
本申请实施例提供了一种基于卷积神经网络的3D-HEVC深度图帧内编码单元划分装置,包括:
模型构建模块1,被配置为构建基于卷积神经网络的编码单元划分预测模型并进行训练,得到经训练的编码单元划分预测模型;
预测模块2,被配置为获取待编码深度图序列,将待编码深度图序列划分得到若干个第一尺寸下的当前待编码块,将当前待编码块输入经训练的编码单元划分预测模型,输出的预测值为在编码过程中当前待编码块中不同尺寸的编码单元是否需要向缩小一个级别的尺寸的编码单元继续划分的若干个标签值,采用3D-HEVC编码器对当前待编码块进行编码,在编码过程中确定编码单元的当前尺寸和当前编码量化参数;
模式确定模块3,被配置为根据编码单元的当前尺寸和/或当前编码量化参数确定在编码过程中采用速度模式或性能模式,在速度模式中,将经训练的编码单元划分预测模型的预测值作为当前待编码块的划分结果;在性能模式中,使用3D-HEVC编码器预测当前待编码块的划分结果,当前的划分结果为当前尺寸的编码单元是否向缩小一个级别的尺寸的编码单元继续划分;
判断模块4,被配置为判断编码单元的当前尺寸是否大于第四尺寸,若是则调整当前待编码块的尺寸缩小一个级别,并重复执行模式确定模块至判断模块,否则得到当前待编码块的所有划分结果。
下面参考图7,其示出了适于用来实现本申请实施例的电子设备(例如图1所示的服务器或终端设备)的计算机装置700的结构示意图。图7示出的电子设备仅仅是一个示例,不应对本申请实施例的功能和使用范围带来任何限制。
如图7所示,计算机装置700包括中央处理单元(CPU)701和图形处理器(GPU)702,其可以根据存储在只读存储器(ROM)703中的程序或者从存储部分709加载到随机访问存储器(RAM)704中的程序而执行各种适当的动作和处理。在RAM 704中,还存储有装置700操作所需的各种程序和数据。CPU 701、GPU702、ROM 703以及RAM 704通过总线705彼此相连。输入/输出(I/O)接口706也连接至总线705。
以下部件连接至I/O接口706:包括键盘、鼠标等的输入部分707;包括诸如、液晶显示器(LCD)等以及扬声器等的输出部分708;包括硬盘等的存储部分709;以及包括诸如LAN卡、调制解调器等的网络接口卡的通信部分710。通信部分710经由诸如因特网的网络执行通信处理。驱动器711也可以根据需要连接至I/O接口706。可拆卸介质712,诸如磁盘、光盘、磁光盘、半导体存储器等等,根据需要安装在驱动器711上,以便于从其上读出的计算机程序根据需要被安装入存储部分709。
特别地,根据本公开的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信部分710从网络上被下载和安装,和/或从可拆卸介质712被安装。在该计算机程序被中央处理单元(CPU)701和图形处理器(GPU)702执行时,执行本申请的方法中限定的上述功能。
需要说明的是,本申请所述的计算机可读介质可以是计算机可读信号介质或者计算机可读介质或者是上述两者的任意组合。计算机可读介质例如可以是——但不限于——电、磁、光、电磁、红外线或半导体的装置、装置或器件,或者任意以上的组合。计算机可读介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件或者上述的任意合适的组合。在本申请中,计算机可读介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行装置、装置或者器件使用或者与其结合使用。而在本申请中,计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行装置、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:无线、电线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言或其组合来编写用于执行本申请的操作的计算机程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,也可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
附图中的流程图和框图,图示了按照本申请各种实施例的装置、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段或代码的一部分,该模块、程序段或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的装置来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本申请实施例中所涉及到的模块可以通过软件的方式实现,也可以通过硬件的方式来实现。所描述的模块也可以设置在处理器中。
作为另一方面,本申请还提供了一种计算机可读介质,该计算机可读介质可以是上述实施例中描述的电子设备中所包含的;也可以是单独存在,而未装配入该电子设备中。上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该电子设备执行时,使得该电子设备:构建基于卷积神经网络的编码单元划分预测模型并进行训练,得到经训练的编码单元划分预测模型;获取待编码深度图序列,将待编码深度图序列划分得到若干个第一尺寸下的当前待编码块,将当前待编码块输入经训练的编码单元划分预测模型,输出的预测值为在编码过程中当前待编码块中不同尺寸的编码单元是否需要向缩小一个级别的尺寸的编码单元继续划分的若干个标签值,采用3D-HEVC编码器对当前待编码块进行编码,在编码过程中确定编码单元的当前尺寸和当前编码量化参数;根据编码单元的当前尺寸和/或当前编码量化参数确定在编码过程中采用速度模式或性能模式,在速度模式中,将经训练的编码单元划分预测模型的预测值作为当前待编码块的划分结果;在性能模式中,使用3D-HEVC编码器预测当前待编码块的划分结果,当前待编码块的划分结果为当前尺寸的编码单元是否向缩小一个级别的尺寸的编码单元继续划分;判断编码单元的当前尺寸是否大于第四尺寸,若是则调整当前待编码块的尺寸缩小一个级别,并重复以上步骤,否则得到当前待编码块的所有划分结果。
以上描述仅为本申请的较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本申请中所涉及的发明范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离上述发明构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本申请中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。
Claims (10)
1.一种基于卷积神经网络的3D-HEVC深度图帧内编码单元划分方法,其特征在于,包括以下步骤:
S1,构建基于卷积神经网络的编码单元划分预测模型并进行训练,得到经训练的编码单元划分预测模型;
S2,获取待编码深度图序列,将待编码深度图序列划分得到若干个第一尺寸下的当前待编码块,将所述当前待编码块输入所述经训练的编码单元划分预测模型,输出的预测值为在编码过程中所述当前待编码块中不同尺寸的编码单元是否需要向缩小一个级别的尺寸的编码单元继续划分的若干个标签值,采用3D-HEVC编码器对所述当前待编码块进行编码,在编码过程中确定编码单元的当前尺寸和当前编码量化参数;
S3,根据所述编码单元的当前尺寸和/或当前编码量化参数确定在编码过程中采用速度模式或性能模式,在所述速度模式中,将所述经训练的编码单元划分预测模型的预测值作为所述当前待编码块的划分结果;在所述性能模式中,使用所述3D-HEVC编码器预测所述当前待编码块的划分结果,所述当前待编码块的划分结果为当前尺寸的编码单元是否向缩小一个级别的尺寸的编码单元继续划分;
S4,判断所述编码单元的当前尺寸是否大于第四尺寸,若是则调整所述当前待编码块的尺寸缩小一个级别,并重复步骤S3-S4,否则得到当前待编码块的所有划分结果。
2.根据权利要求1所述的基于卷积神经网络的3D-HEVC深度图帧内编码单元划分方法,其特征在于,所述不同尺寸包括第一尺寸、第二尺寸、第三尺寸和第四尺寸,第一尺寸为64×64,第二尺寸为32×32,第三尺寸为16×16,第四尺寸为8×8,并为依次缩小一个级别的尺寸,所述当前编码量化参数包括QP=(25,34),(30,39),(35,42),(40,45)。
3.根据权利要求2所述的基于卷积神经网络的3D-HEVC深度图帧内编码单元划分方法,其特征在于,所述步骤S3中根据所述编码单元的当前尺寸和/或当前编码量化参数确定在编码过程中采用速度模式或性能模式,具体包括:
响应于确定所述编码单元的当前尺寸为第一尺寸或第二尺寸,或者所述当前编码量化参数为25或40,确定在编码过程中采用速度模式;
响应于确定所述编码单元的当前尺寸为第三尺寸或第四尺寸,且所述当前编码量化参数为30或35,确定在编码过程中采用性能模式。
4.根据权利要求2所述的基于卷积神经网络的3D-HEVC深度图帧内编码单元划分方法,其特征在于,所述编码单元划分预测模型包括第一分支、第二分支和第三分支,分别对应第一尺寸、第二尺寸和第三尺寸的预测值,所述第一分支、第二分支和第三分支均包括依次连接的第一去平均层、第一池化层、第一卷积层、第一ReLU激活层、第二卷积层、第二ReLU激活层、第三卷积层、第三ReLU激活层和全连接层,所述第一卷积层的卷积核大小为4×4、步长为4、填充为0,所述第二卷积层的卷积核大小为2×2、步长为2、填充为0,所述第三卷积层的卷积核大小为2×2、步长为2、填充为0,所述第一池化层,第一级池化核大小为4×4、步长为4,第二级池化核大小为2×2、步长为2,第三级池化核大小为1×1、步长为1。
5.根据权利要求4所述的基于卷积神经网络的3D-HEVC深度图帧内编码单元划分方法,其特征在于,所述编码单元划分预测模型的训练过程如下:
获取训练数据;
采用所述训练数据对所述编码单元划分预测模型进行训练,在训练过程中,
假设训练数据的样本总数为T个,t表示其中的单个样本,该样本的真实值为 其中y1、y2、y3分别表示所述编码单元划分预测模型中第一分支、第二分支和第三分支的输出,l表示每一个分支的标签值,因此i∈{1}、j∈{2-3}、k∈{6-21},则单个样本的损失Lt是对该样本中所有元素的交叉熵进行累加,计算公式如下:
其中,表示样本经过所述编码单元划分预测模型预测得到的三个分支的预测值,C(yt,y′t)表示真实值与预测值之间的交叉熵,所有T个样本的总损失值用L表示,计算公式如下:
6.根据权利要求5所述的基于卷积神经网络的3D-HEVC深度图帧内编码单元划分方法,其特征在于,所述编码单元划分预测模型的输入为当前待编码块,输出为在编码过程中所述当前待编码块的不同尺寸的编码单元是否需要向缩小一个级别的尺寸的编码单元继续划分的若干个标签值,该标签值为flag,其表示为:
其中,i表示预测值的第1个标签值,表示第一尺寸的编码单元是否划分,j为预测值的第2至第5个标签,表示4个第二尺寸的编码单元是否划分,最后k为预测值的第6至第21个标签,表示16个第三尺寸的编码单元是否划分。
7.根据权利要求5所述的基于卷积神经网络的3D-HEVC深度图帧内编码单元划分方法,其特征在于,所述获取训练数据,具体包括:
获取深度图序列,将所述深度图序列进行数据增强,所述数据增强包括翻转、镜像以及翻转后的镜像,得到数据增强后的深度图序列;
采用3D-HEVC编码器对所述数据增强后的深度图序列在全帧内的配置下进行编码,得到编码量化参数QP为(25,34),(30,39),(35,42),(40,45)下锚定的不同尺寸的编码单元的划分结果,以作为标签值,并与深度图序列划分得到第一尺寸下的若干个编码单元关联得到所述训练数据。
8.一种基于卷积神经网络的3D-HEVC深度图帧内编码单元划分装置,其特征在于,包括:
模型构建模块,被配置为构建基于卷积神经网络的编码单元划分预测模型并进行训练,得到经训练的编码单元划分预测模型;
预测模块,被配置为获取待编码深度图序列,将待编码深度图序列划分得到若干个第一尺寸下的当前待编码块,将所述当前待编码块输入所述经训练的编码单元划分预测模型,输出的预测值为在编码过程中所述当前待编码块中不同尺寸的编码单元是否需要向缩小一个级别的尺寸的编码单元继续划分的若干个标签值,采用3D-HEVC编码器对所述当前待编码块进行编码,在编码过程中确定编码单元的当前尺寸和当前编码量化参数;
模式确定模块,被配置为根据所述编码单元的当前尺寸和/或当前编码量化参数确定在编码过程中采用速度模式或性能模式,在所述速度模式中,将所述经训练的编码单元划分预测模型的预测值作为所述当前待编码块的划分结果;在所述性能模式中,使用所述3D-HEVC编码器预测所述当前待编码块的划分结果,所述当前待编码块的划分结果为当前尺寸的编码单元是否向缩小一个级别的尺寸的编码单元继续划分;
判断模块,被配置为判断所述编码单元的当前尺寸是否大于第四尺寸,若是则调整所述当前待编码块的尺寸缩小一个级别,并重复执行模式确定模块至判断模块,否则得到当前待编码块的所有划分结果。
9.一种电子设备,包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-7中任一所述的方法。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现如权利要求1-7中任一所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310550087.9A CN116668723A (zh) | 2023-05-16 | 2023-05-16 | 基于卷积神经网络的3d-hevc深度图帧内编码单元划分方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310550087.9A CN116668723A (zh) | 2023-05-16 | 2023-05-16 | 基于卷积神经网络的3d-hevc深度图帧内编码单元划分方法及装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116668723A true CN116668723A (zh) | 2023-08-29 |
Family
ID=87714477
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310550087.9A Pending CN116668723A (zh) | 2023-05-16 | 2023-05-16 | 基于卷积神经网络的3d-hevc深度图帧内编码单元划分方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116668723A (zh) |
-
2023
- 2023-05-16 CN CN202310550087.9A patent/CN116668723A/zh active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2021208247A1 (zh) | 一种视频图像的拟态压缩方法、装置、存储介质及终端 | |
CN109087258B (zh) | 一种基于深度学习的图像去雨方法及装置 | |
CN110751649A (zh) | 视频质量评估方法、装置、电子设备及存储介质 | |
CN112102212B (zh) | 一种视频修复方法、装置、设备及存储介质 | |
CN111586412B (zh) | 高清视频处理方法、主设备、从设备和芯片系统 | |
CN112235569B (zh) | 基于h264压缩域的快速视频分类方法、系统及装置 | |
CN116233445B (zh) | 视频的编解码处理方法、装置、计算机设备和存储介质 | |
CN112330543A (zh) | 一种基于自监督学习的视频超分辨方法及系统 | |
CN113724136B (zh) | 一种视频修复方法、设备及介质 | |
CN111800630A (zh) | 一种视频超分辨率重建的方法、系统及电子设备 | |
CN114299088A (zh) | 图像处理方法及装置 | |
CN114679607A (zh) | 一种视频帧率控制方法、装置、电子设备及存储介质 | |
CN113225554B (zh) | 一种基于神经网络的图像编解码方法、装置、存储介质及终端 | |
CN113822803A (zh) | 图像超分处理方法、装置、设备及计算机可读存储介质 | |
CN114745551A (zh) | 处理视频帧图像的方法及电子设备 | |
CN116433491A (zh) | 一种图像处理方法、装置、设备、存储介质及产品 | |
CN116980616A (zh) | 模式判决调度方法及相关装置 | |
CN115209147B (zh) | 摄像头视频传输带宽优化方法、装置、设备及存储介质 | |
CN116206008A (zh) | 口型图像的输出方法及装置、音频驱动口型网络模型 | |
CN116668723A (zh) | 基于卷积神经网络的3d-hevc深度图帧内编码单元划分方法及装置 | |
CN116563109A (zh) | 一种针对低码率视频的时空超分辨率方法、系统及设备 | |
CN112738522A (zh) | 视频编码方法、装置 | |
CN116708793B (zh) | 视频的传输方法、装置、设备及存储介质 | |
CN116405683A (zh) | 基于3d-hevc深度图模式预测的深度图编码方法、装置及可读介质 | |
CN117237259B (zh) | 基于多模态融合的压缩视频质量增强方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |