CN116489333A - 一种面向深度图编码单元划分的边缘分类模型构建方法 - Google Patents
一种面向深度图编码单元划分的边缘分类模型构建方法 Download PDFInfo
- Publication number
- CN116489333A CN116489333A CN202310365077.8A CN202310365077A CN116489333A CN 116489333 A CN116489333 A CN 116489333A CN 202310365077 A CN202310365077 A CN 202310365077A CN 116489333 A CN116489333 A CN 116489333A
- Authority
- CN
- China
- Prior art keywords
- edge
- coding unit
- depth map
- depth
- pixels
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000013145 classification model Methods 0.000 title claims abstract description 15
- 238000010276 construction Methods 0.000 title claims abstract description 10
- 238000000034 method Methods 0.000 claims abstract description 30
- 238000012360 testing method Methods 0.000 claims abstract description 7
- 238000010187 selection method Methods 0.000 claims abstract description 4
- 238000000638 solvent extraction Methods 0.000 claims description 8
- 238000012805 post-processing Methods 0.000 claims description 6
- 238000007781 pre-processing Methods 0.000 claims description 6
- 238000003708 edge detection Methods 0.000 claims description 4
- 230000011218 segmentation Effects 0.000 claims description 4
- 230000004913 activation Effects 0.000 claims description 3
- 239000011159 matrix material Substances 0.000 claims description 3
- 238000012545 processing Methods 0.000 claims description 3
- 230000009466 transformation Effects 0.000 claims description 3
- 230000009286 beneficial effect Effects 0.000 abstract description 2
- 238000005516 engineering process Methods 0.000 description 8
- 238000011161 development Methods 0.000 description 5
- 230000018109 developmental process Effects 0.000 description 5
- 238000005192 partition Methods 0.000 description 5
- 230000008569 process Effects 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 238000012549 training Methods 0.000 description 3
- 108091026890 Coding region Proteins 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- YYJNOYZRYGDPNH-MFKUBSTISA-N fenpyroximate Chemical compound C=1C=C(C(=O)OC(C)(C)C)C=CC=1CO/N=C/C=1C(C)=NN(C)C=1OC1=CC=CC=C1 YYJNOYZRYGDPNH-MFKUBSTISA-N 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000010355 oscillation Effects 0.000 description 1
- 230000001737 promoting effect Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/161—Encoding, multiplexing or demultiplexing different image signal components
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
- H04N19/107—Selection of coding mode or of prediction mode between spatial and temporal predictive coding, e.g. picture refresh
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/136—Incoming video signal characteristics or properties
- H04N19/14—Coding unit complexity, e.g. amount of activity or edge presence estimation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/597—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Image Analysis (AREA)
Abstract
本发明提供了一种面向深度图编码单元划分的边缘分类模型构建方法,属于基于3D‑HEVC的三维视频编码技术领域。解决了3D‑HEVC中深度图帧内编码单元深度选择复杂度高的技术问题。其技术方案为:包括以下步骤:S1、分析编码单元边缘复杂度和编码单元深度之间的关系;S2、构建面向编码单元深度快速选择的深度图边缘分类DEC‑CNN模型;S3、将DEC‑CNN模型嵌入到3D‑HEVC的测试平台HTM‑16.0;S4、制定基于边缘复杂度分类的深度图帧内编码单元深度快速选择方法流程图。本发明的有益效果为:本发明不仅可用于主视点,还可用于辅助视点,在保证合成后虚拟视点质量的同时,可节省72.5%的编码时间。
Description
技术领域
本发明涉及基于3D-HEVC的三维视频编码技术领域,尤其涉及一种面向深度图编码单元划分的边缘分类模型构建方法。
背景技术
近年来,随着多媒体信息技术的蓬勃发展和视频领域的进一步拓展,视频电视也在不断更新。一方面,视频电视由标清向高清,乃至全高清电视发展,可以支持的像素个数越来越多。另一方面,视频电视由二维(Two Dimensional,2D)平面向三维(ThreeDimensional,3D)立体,乃至自由视点电视(Free Viewpoint Television,FTV)发展,可以支持的视点个数越来越多。从标清到高清、从平面到立体,视频技术历经数次革新,已阔步迈向超高清时代。伴随新一代信息通信技术的升级,独具大带宽、广连接、低时延的第五代移动通信技术无疑为视频应用搭建起“高速车道”。
面对视频技术的新发展,三维高效视频编码(Three Dimensional HighEfficiency Video Coding,3D-HEVC)标准应运而生。它的发展历程主要有两个关键时间点。第一,2012年7月,运动图片专家组(Motion Picture Expert Group,MPEG)中的部分成员和视频编码专家组(Video Coding Expert Group,VCEG)中的部分成员,合作组成三维视频联合编码组(Joint Collaborative Team on Three Dimensional Video,JCT-3V),共同开发下一代三维视频编码标准。第二,2015年2月,基于高效视频编码(High EfficiencyVideo Coding,HEVC)标准的3D-HEVC国际标准正式发布。截至目前,3D-HEVC是被广泛采用的三维视频编码标准,其采用多视点视频加深度(Multiview Video Plus Depth,MVD)格式进行编码。
深度图表示物体相距相机之间的距离,相较于具有丰富细节信息的纹理图,深度图包含的细节信息较少。针对深度图自身而言,其主要由大面积像素值相近的平滑区域以及像素值突变的边缘区域组成。深度图边缘区域的编码质量对解码后的视点合成过程具有至关重要的作用。边缘区域的编码失真会造成合成后的虚拟视点出现空洞或边界震荡等问题,进而造成虚拟视点的失真。为了保证合成后虚拟视点不出现明显失真,需要确保深度图边缘区域的编码质量。
为此,3D-HEVC在现有35种H.265/HEVC帧内预测模式的基础上,引入了更精细地深度模型模式(Depth Modeling Mode,DMM)。DMM包含楔形划分(Wedgelet Partition)DMM1和轮廓划分(Contour Partition)DMM4两类预测方式,这两种方式分别以规则和不规则的形状将当前编码区域划分为两个部分,并用分割常量(Constant Partition Value,CPV)表示划分出的两个部分。虽然深度图最新引入的DMM只有两类预测方式,但DMM划分方式和参数的确定过程极其复杂,再加上每一次编码单元划分都不可避免地需要遍历所有帧内预测模式,这无疑会给深度图的帧内预测编码带来巨大的编码复杂度。
为此,面对新形势、新挑战,针对视频新技术发展趋势下3D-HEVC在实际应用领域的关键问题,亟需提出符合视频技术发展需求的深度图帧内快速编码方法。有效利用编码单元的纹理特性来加速深度图帧内编码单元的深度选择,是促使3D-HEVC落地应用的核心问题。
发明内容
本发明的目的在于提供一种面向深度图编码单元划分的边缘分类模型构建方法,3D-HEVC中深度图帧内编码单元深度选择复杂度高的。
本发明的发明思想为:本发明提供的一种面向深度图编码单元划分的边缘分类模型构建方法,首先分析编码单元边缘复杂度和编码单元深度之间的关系,然后,构建面向编码单元深度快速选择的深度图边缘分类DEC-CNN模型,将DEC-CNN模型嵌入到3D-HEVC的测试平台HTM-16.0,最后,制定基于边缘复杂度分类的深度图帧内编码单元深度快速选择方法流程图,获得最优的编码单元划分结果。
为了实现上述发明目的,本发明采用技术方案具体为:一种面向深度图编码单元划分的边缘分类模型构建方法,包括以下步骤:
1.1、分析编码单元边缘复杂度和编码单元深度之间的关系;
1.2、构建面向编码单元深度快速选择的深度图边缘分类(DEC-CNN)模型;
1.3、将DEC-CNN模型嵌入到3D-HEVC的测试平台HTM-16.0;
1.4、制定基于边缘复杂度分类的深度图帧内编码单元深度快速选择方法流程图。
进一步地,所述步骤1.1具体包括以下步骤:
2.1、构建面向整体图像的端到端边缘检测网络模型,获取深度图对应的边缘特征图。
2.2、利用Otsu算法将边缘特征图处理为灰度值为0或255的二值化图像,其公式为其中,W0表示非边缘处的像素点数量在图像总像素点数量中占据的比例,U0表示非边缘处的像素点的平均值,W1表示边缘处的像素点数量占图像总像素点数量的比例,U1表示边缘处的像素点的平均值,U表示图像总像素点的平均值,/>表示求得的类间方差;
2.3、假设k为图像中的任意一个像素点,以像素点k对应的像素值为分界线来划分边缘像素点与非边缘像素点,依次遍历所有像素点,并求取每个像素点对应的类间方差;
2.4、将最大类间方差对应像素点的像素值作为最佳的分割阈值,记为T,若像素点的像素值大于或等于T,则该像素点属于边缘区域,反之,该像素点不属于边缘区域;
2.5、将非边缘处的像素点数量在图像总像素点数量中占据的比例记为将边缘处的像素点数量在图像总像素点数量中占据的比例记为/>若/>将当前处理的编码单元判断为复杂编码单元;反之,若/>将当前编码单元判断为简单编码单元。
进一步地,步骤1.2具体包括以下步骤:
3.1、将1个预处理模块、1个边缘分类模块以及1个后处理模块进行拼接,组合成DEC-CNN模型;
3.2、将三维视频主视点对应深度图中的编码单元作为预处理模块的输入;
3.3、将5组卷积层,2个密集连接模块,1个随机丢弃模块和1个分类模块组合成边缘分类模块;
3.4、将5组卷积层采用的激活函数设定为线性整流函数ReLU,其公式为C0(CTUn)=CTUn和Cm(CTUn)=ReLU(Wcm×Cm-1(CTUn)+Bcm),1≤m≤M,其中,Cm表示卷积层,M为卷积层的总层数,Wcm和Bcm表示第m个卷积层的权重和偏置矩阵,n表示当前处理的是第几个编码单元;
3.5、将若干个卷积层堆叠成密集连接块,其公式为xl=Hl([x0,x1,...,xl-1]),其中,l表示卷积层的总层数,[x0,x1,...,xl-1]表示合并前l层的输出特征,Hl()表示一个非线性变换,xl表示第l层的输出;
3.6、利用后处理模块的结果对边缘分类模块的结果进行校正。
进一步地,所述步骤1.4具体包括以下步骤:
4.1、读取待编码三维视频序列,并判断当前编码的视频帧是否为深度图;
4.2、对于深度图中的编码单元,利用DEC-CNN模型判断编码单元的边缘复杂度,对于非深度图中的编码单元,采用全遍历划分方式获得最佳的编码单元划分结果;
4.3、对于被判断为边缘简单的编码单元,在深度范围[0-1]之间递归地计算率失真代价,而对于被判断为边缘复杂的编码单元,在深度范围[2-3]之间递归的计算率失真代价,并基于此获得最佳的编码单元划分结果。
与现有技术相比,本发明的有益效果为:
(1)本发明通过分析编码单元的边缘复杂度与编码单元的深度之间的关系,发现编码单元的边缘复杂度与编码单元的深度之间具有密切相关性,基于此为不同边缘复杂度的编码单元设置不同的编码深度选择范围。
(2)本发明针对深度图帧内编码单元的深度具有逐级划分的分级特点,结合深度学习技术和阈值分割方法,构建出一种面向编码单元深度快速选择的边缘复杂度分类网络模型,以实现编码单元深度的直接选择。
(3)本发明在深度图帧内编码过程中,通过仅在编码单元深度范围内进行率失真代价计算,降低深度图帧内预测编码复杂度,加速深度图帧内编码过程。从本发明方法的实验结果来看,在编码复杂度方面,本发明提出方法相较于原始HTM-16.0方法平均节省了72.5%的编码时间;在率失真性能方面,本发明提出方法与原始HTM-16.0方法相比,虚拟视点的BDBR损失仅为8.7%,损失在合理的误差之内。此外,本发明方法并不会造成合成视点质量的明显下降,这表明本发明方法能在保证合成视点质量基本不变的前提下,降低3D-HEVC的编码复杂度。本发明不仅可用于主视点,还可以用于辅助视点,能在保证合成后虚拟视点质量的同时,节省更多的编码时间。
附图说明
附图用来提供对本发明的进一步理解,并且构成说明书的一部分,与本发明的实施例一起用于解释本发明,并不构成对本发明的限制。
图1为本发明提供的一种面向深度图编码单元划分的边缘分类模型构建方法的整体流程示意图。
图2为本发明中表示边缘复杂度与编码单元深度相关的示意图。
图3为本发明中面向整体图像的端到端边缘检测网络模型示意图。
图4为本发明中DEC-CNN模型架构图。
图5为本发明提供的一种面向深度图编码单元划分的边缘分类模型构建方法的具体流程图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。当然,此处所描述的具体实施例仅用以解释本发明,并不用于限定本发明。
实施例
参见图1至图5,本实施例提供其技术方案为,一种面向深度图编码单元划分的边缘分类模型构建方法,包括以下步骤:
1)构建面向整体图像的端到端边缘检测网络模型,获取深度图对应的边缘特征图;
2)利用Otsu算法将边缘特征图处理为灰度值为0或255的二值化图像,其公式为其中,W0表示非边缘处的像素点数量在图像总像素点数量中占据的比例,U0表示非边缘处的像素点的平均值,W1表示边缘处的像素点数量占图像总像素点数量的比例,U1表示边缘处的像素点的平均值,U表示图像总像素点的平均值,/>表示求得的类间方差;
3)假设k为图像中的任意一个像素点,以像素点k对应的像素值为分界线来划分边缘像素点与非边缘像素点,依次遍历所有像素点,并求取每个像素点对应的类间方差;
4)将最大类间方差对应像素点的像素值作为最佳的分割阈值,记为T,若像素点的像素值大于或等于T,则该像素点属于边缘区域,反之,该像素点不属于边缘区域;
5)将非边缘处的像素点数量在图像总像素点数量中占据的比例记为将边缘处的像素点数量在图像总像素点数量中占据的比例记为/>若/>将当前处理的编码单元判断为复杂编码单元;反之,若/>将当前编码单元判断为简单编码单元。
具体地,参照图4,的构建面向编码单元深度快速选择的深度图边缘分类(DEC-CNN)模型,包括下述步骤:
1)将1个预处理模块、1个边缘分类模块以及1个后处理模块进行拼接,组合成DEC-CNN模型;
2)将三维视频主视点对应深度图中的编码单元作为预处理模块的输入;
3)将5组卷积层,2个密集连接模块,1个随机丢弃模块和1个分类模块组合成边缘分类模块;
4)将5组卷积层采用的激活函数设定为线性整流函数ReLU,其公式为C0(CTUn)=CTUn和Cm(CTUn)=ReLU(Wcm×Cm-1(CTUn)+Bcm),1≤m≤M,其中,Cm表示卷积层,M为卷积层的总层数,Wcm和Bcm表示第m个卷积层的权重和偏置矩阵,n表示当前处理的是第几个编码单元;
5)将若干个卷积层堆叠成密集连接块,其公式为xl=Hl([x0,x1,...,xl-1]),其中,l表示卷积层的总层数,[x0,x1,...,xl-1]表示合并前l层的输出特征,Hl()表示一个非线性变换,xl表示第l层的输出;
6)利用后处理模块的结果对边缘分类模块的结果进行校正。
具体地,参照图5,本实施例提出的制定基于边缘复杂度分类的深度图帧内编码单元深度快速选择方法流程图,包括以下步骤:
1)读取待编码三维视频序列,并判断当前编码的视频帧是否为深度图;
2)对于深度图中的编码单元,利用DEC-CNN模型判断编码单元的边缘复杂度,对于非深度图中的编码单元,采用全遍历划分方式获得最佳的编码单元划分结果;
3)对于被判断为边缘简单的编码单元,在深度范围[0-1]之间递归地计算率失真代价,而对于被判断为边缘复杂的编码单元,在深度范围[2-3]之间递归的计算率失真代价,并基于此获得最佳的编码单元划分结果。
为了检验本实施例提出方法的性能,将本实施例的方法与原始的方法进行对比。实验平台采用HTM-16.0,测试序列为Balloons,Kendo,Poznan_Hall2和Poznan_Street,具体的训练环境设置如表1所示。
表1训练环境设置
在编码复杂度方面,与HTM-16.0相比,在AI配置下,本实施例提出的面向深度图编码单元划分的边缘分类模型构建方法的编码复杂度如表2所示。所有实验结果均在本实施例训练环境下得出,计算编码时间节省情况的公式为其中THTM-16.0为原始HTM-16.0方法的编码时间,Tproposed为本实施例提出方法的编码时间。
表2提出方法和HTM-16.0的对比
如表2所示,与HTM-16.0相比,本实施例方法在QP=(25,34),(30,39),(35,42),(40,45)下分别减少了70.9%、73.0%、72.5%和73.5%的编码时间,平均节省72.5%的编码时间。其中,因为Poznan_Street测试序列的前景变化缓慢、背景基本不变,所以该测试序列节省的编码时间最多。
以上所述仅为本发明的较佳实施例,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (4)
1.一种面向深度图编码单元划分的边缘分类模型构建方法,其特征在于,包括以下步骤:
S1、分析编码单元边缘复杂度和编码单元深度之间的关系;
S2、构建面向编码单元深度快速选择的深度图边缘分类DEC-CNN模型;
S3、将DEC-CNN模型嵌入到3D-HEVC的测试平台HTM-16.0;
S4、制定基于边缘复杂度分类的深度图帧内编码单元深度快速选择方法流程图。
2.根据权利要求1所述的面向深度图编码单元划分的边缘分类模型构建方法,其特征在于,所述步骤S1具体包括以下步骤:
S11、构建面向整体图像的端到端边缘检测网络模型,获取深度图对应的边缘特征图;
S12、利用Otsu算法将边缘特征图处理为灰度值为0或255的二值化图像,其公式为其中,W0表示非边缘处的像素点数量在图像总像素点数量中占据的比例,U0表示非边缘处的像素点的平均值,W1表示边缘处的像素点数量占图像总像素点数量的比例,U1表示边缘处的像素点的平均值,U表示图像总像素点的平均值,/>表示求得的类间方差;
S13、假设k为图像中的任意一个像素点,以像素点k对应的像素值为分界线来划分边缘像素点与非边缘像素点,依次遍历所有像素点,并求取每个像素点对应的类间方差;
S14、将最大类间方差对应像素点的像素值作为最佳的分割阈值,记为T,若像素点的像素值大于或等于T,则该像素点属于边缘区域,反之,该像素点不属于边缘区域;
S15、将非边缘处的像素点数量在图像总像素点数量中占据的比例记为将边缘处的像素点数量在图像总像素点数量中占据的比例记为/>若/>将当前处理的编码单元判断为复杂编码单元;反之,若/>将当前编码单元判断为简单编码单元。
3.根据权利要求1所述的面向深度图编码单元划分的边缘分类模型构建方法,其特征在于,所述步骤S2具体包括以下步骤:
S21、将1个预处理模块、1个边缘分类模块以及1个后处理模块进行拼接,组合成DEC-CNN模型;
S22、将三维视频主视点对应深度图中的编码单元作为预处理模块的输入;
S23、将5组卷积层,2个密集连接模块,1个随机丢弃模块和1个分类模块组合成边缘分类模块;
S24、将5组卷积层采用的激活函数设定为线性整流函数ReLU,其公式为C0(CTUn)=CTUn和Cm(CTUn)=ReLU(Wcm×Cm-1(CTUn)+Bcm),1≤m≤M,其中,Cm表示卷积层,M为卷积层的总层数,Wcm和Bcm表示第m个卷积层的权重和偏置矩阵,n表示当前处理的是第几个编码单元;
S25、将若干个卷积层堆叠成密集连接块,其公式为xl=Hl([x0,x1,...,xl-1]),其中,l表示卷积层的总层数,[x0,x1,...,xl-1]表示合并前l层的输出特征,Hl()表示一个非线性变换,xl表示第l层的输出;
S26、利用后处理模块的结果对边缘分类模块的结果进行校正。
4.根据权利要求1所述的面向深度图编码单元划分的边缘分类模型构建方法,其特征在于,步骤S4具体包括以下步骤:
S41、读取待编码三维视频序列,并判断当前编码的视频帧是否为深度图;
S42、对于深度图中的编码单元,利用DEC-CNN模型判断编码单元的边缘复杂度,对于非深度图中的编码单元,采用全遍历划分方式获得最佳的编码单元划分结果;
S43、对于被判断为边缘简单的编码单元,在深度范围[0-1]之间递归地计算率失真代价,而对于被判断为边缘复杂的编码单元,在深度范围[2-3]之间递归的计算率失真代价,并基于此获得最佳的编码单元划分结果。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310365077.8A CN116489333A (zh) | 2023-04-07 | 2023-04-07 | 一种面向深度图编码单元划分的边缘分类模型构建方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310365077.8A CN116489333A (zh) | 2023-04-07 | 2023-04-07 | 一种面向深度图编码单元划分的边缘分类模型构建方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116489333A true CN116489333A (zh) | 2023-07-25 |
Family
ID=87224296
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310365077.8A Pending CN116489333A (zh) | 2023-04-07 | 2023-04-07 | 一种面向深度图编码单元划分的边缘分类模型构建方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116489333A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117496499A (zh) * | 2023-12-27 | 2024-02-02 | 山东科技大学 | 3d结构光成像中虚假深度边缘的识别和补偿方法、系统 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2680224A1 (en) * | 2012-06-27 | 2014-01-01 | Vestel Elektronik Sanayi ve Ticaret A.S. | Method and device for determining a depth image |
CN107071418A (zh) * | 2017-05-05 | 2017-08-18 | 上海应用技术大学 | 一种基于决策树的hevc帧内编码单元快速划分方法 |
CN109587503A (zh) * | 2018-12-30 | 2019-04-05 | 北京工业大学 | 一种基于边缘检测的3d-hevc深度图帧内编码模式快速决策方法 |
-
2023
- 2023-04-07 CN CN202310365077.8A patent/CN116489333A/zh active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2680224A1 (en) * | 2012-06-27 | 2014-01-01 | Vestel Elektronik Sanayi ve Ticaret A.S. | Method and device for determining a depth image |
CN107071418A (zh) * | 2017-05-05 | 2017-08-18 | 上海应用技术大学 | 一种基于决策树的hevc帧内编码单元快速划分方法 |
CN109587503A (zh) * | 2018-12-30 | 2019-04-05 | 北京工业大学 | 一种基于边缘检测的3d-hevc深度图帧内编码模式快速决策方法 |
Non-Patent Citations (1)
Title |
---|
CHANG LIU等: "Fast Depth Intra Coding Based on Depth Edge Classification Network in 3D-HEVC", IEEE TRANSACTIONS ON BROADCASTING, vol. 48, pages 97 - 109 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117496499A (zh) * | 2023-12-27 | 2024-02-02 | 山东科技大学 | 3d结构光成像中虚假深度边缘的识别和补偿方法、系统 |
CN117496499B (zh) * | 2023-12-27 | 2024-03-15 | 山东科技大学 | 3d结构光成像中虚假深度边缘的识别和补偿方法、系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Hu et al. | Coarse-to-fine deep video coding with hyperprior-guided mode prediction | |
CN111432210B (zh) | 一种基于填充的点云属性压缩方法 | |
CN103765474B (zh) | 深度编码 | |
CN111355956B (zh) | 一种hevc帧内编码中基于深度学习的率失真优化快速决策系统及其方法 | |
CN109379594B (zh) | 视频编码压缩方法、装置、设备和介质 | |
CN107864380B (zh) | 基于dct的3d-hevc快速帧内预测决策方法 | |
CN110087090B (zh) | 采用混合串匹配和帧内预测的数据编码、解码方法 | |
CN103338370B (zh) | 一种多视点深度视频快速编码方法 | |
CN113068031B (zh) | 一种基于深度学习的环路滤波方法 | |
CN109327703A (zh) | 一种基于不同采样块的深度图编解码方法 | |
CN112601082B (zh) | 一种基于视频的快速动态点云编码方法及系统 | |
CN116489333A (zh) | 一种面向深度图编码单元划分的边缘分类模型构建方法 | |
CN114885172A (zh) | 一种针对h.266/vvc帧内预测编码的快速编码单元划分方法 | |
CN109151467B (zh) | 基于图像块活动性的屏幕内容编码帧间模式快速选择方法 | |
CN107682699B (zh) | 一种近无损图像压缩方法 | |
CN101557519B (zh) | 一种多视点视频编码方法 | |
CN111385585B (zh) | 一种基于机器学习的3d-hevc深度图编码单元划分方法 | |
CN117041599A (zh) | 一种基于hevc-vpcc的帧内快速编码方法及系统 | |
Shi et al. | Multi-model prediction for image set compression | |
CN110460842B (zh) | 一种集成成像快速编码方法 | |
CN109982079B (zh) | 一种结合纹理空间相关性的帧内预测模式选择方法 | |
Zhang et al. | Edge-detection based fast intra-mode selection for depth map coding in 3D-HEVC | |
CN104902256B (zh) | 一种基于运动补偿的双目立体图像编解码方法 | |
CN101272496A (zh) | 一种264视频降低分辨率转码的模式选择方法 | |
CN1568009A (zh) | 用于视频编码的运动矢量预测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |