CN106664423A - 视频编译中的深度图片编译方法和设备 - Google Patents

视频编译中的深度图片编译方法和设备 Download PDF

Info

Publication number
CN106664423A
CN106664423A CN201580035419.3A CN201580035419A CN106664423A CN 106664423 A CN106664423 A CN 106664423A CN 201580035419 A CN201580035419 A CN 201580035419A CN 106664423 A CN106664423 A CN 106664423A
Authority
CN
China
Prior art keywords
view
block
picture
depth
prediction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201580035419.3A
Other languages
English (en)
Other versions
CN106664423B (zh
Inventor
南廷学
芮世薰
徐廷东
柳先美
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
LG Electronics Inc
Original Assignee
LG Electronics Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by LG Electronics Inc filed Critical LG Electronics Inc
Publication of CN106664423A publication Critical patent/CN106664423A/zh
Application granted granted Critical
Publication of CN106664423B publication Critical patent/CN106664423B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/107Selection of coding mode or of prediction mode between spatial and temporal predictive coding, e.g. picture refresh
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/172Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/186Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

本发明涉及3D视频编译设备和方法。按照本发明的解码方法提供3D视频解码方法。一种解码方法,包括步骤∶基于参考视图和预先确定的值获得视差值;基于视差值推导深度图片中当前块的运动信息;以及基于运动信息产生当前块的预测采样,其中参考视图是参考图片列表中参考图片的视图。按照本发明,即使当基础视图不能被访问时,可以基于在解码的图片缓存器(DPB)中可用的参考视图索引推导视差矢量,并且编译效率可以提高。

Description

视频编译中的深度图片编译方法和设备
技术领域
本发明涉及与视频编译有关的技术,尤其是,涉及在视频编译中用于编译深度图片的方法和设备。
背景技术
近年来,对高分辨率和高质量视频的需求已经在各种应用领域中增加。但是,视频数据的分辨率和质量变得越高,视频数据的量变得越大。
因此,当视频数据被使用介质,诸如现有的有线或者无线宽带线路传送,或者视频数据被存储在现有的存储介质中的时候,传送成本及其存储成本增加。高效率的视频压缩技术可用于有效地传送、存储和再现高分辨率和高质量视频数据。
另一方面,借助于处理高分辨率/大容量视频能力的实现,使用3D视频的数字广播服务已经作为下一代广播服务引起注意。3D视频可以使用多视图信道提供真实感和沉浸感。
3D视频可以在各种领域中使用,诸如自由视点视频(FVV)、自由视点TV(FTV)、3DTV、监视和家庭娱乐。
与单个视图视频不同,使用多视图的3D视频具有在具有相同的图片顺序计数(POC)的视图之间高的相关性。因为以多个邻近的相机拍摄相同的场景,也就是说,多视图,除视差和微小的照度差别之外,多视图视频具有近似相同的信息,并且因此,差别视图在其间具有高的相关性。
因此,在不同的视图之间的相关性可以考虑用于编码/解码多视图视频,并且可以获得用于当前的视图的编码和/或解码需要的信息。例如,可以参考在另一个视图中的块,预测或者解码在当前的视图中要解码的块。
此外,由于深度图片和纹理图片包含有关相同的场景的信息,所以该深度图片和纹理图片互相具有高的相关性。因此,可以通过参考纹理图片预测或者解码深度图片。
发明内容
本发明提供在3维(3D)视频编译中预测当前块的方法和装置。
本发明提供执行视图间运动预测(IMVP)的方法和设备。
本发明提供在执行IMVP时设置可用的参考视图的方法和设备。
本发明提供在深度图像编译中推导当前块的视差的方法和设备。
本发明提供设置用于推导当前块的视差的参考视图索引的方法和设备。
在一个方面中,提供了一种解码3D视频的方法。该解码方法包括∶基于参考视图和预先确定的值获得视差值;基于视差值推导深度图片中当前块的运动信息;以及基于运动信息产生当前块的预测采样,其中参考视图是参考图片列表中参考图片的视图。
在另一个方面中,提供了一种解码3D视频的设备。该解码设备包括∶解码器,该解码器接收包括预测模式信息的比特流;和预测器,该预测器基于参考视图和预先确定的值获得视差值;基于视差值推导深度图片中当前块的运动信息,以及基于运动信息产生当前块的预测采样,其中参考视图是参考图片列表中参考图片的视图。
按照本发明,当前块的视差矢量可以在3D视频编译中顺利地导出。
按照本发明,即使当基础视图不能被访问时,可以基于解码的图片缓存器(DPB)中可用的参考视图索引推导视差矢量,并且编译效率可以提高。
附图说明
图1简要地图示本发明可适用于的3维(3D)视频编码和解码过程。
图2简要地图示本发明可适用于的视频编码设备的结构。
图3简要地图示本发明可适用于的视频解码设备的结构。
图4是示意地描述本发明可适用于的多视图视频编译的一个示例的图。
图5是示意地图示Wedgelet模式的图。
图6是示意地图示Contour模式的图。
图7是示意地图示SDC编译方法的图。
图8是示意地图示IVMP方法的图。
图9是示意地图示按照本发明的实施例编码3D视频的方法的流程图。
图10是示意地图示按照本发明的实施例解码3D视频的方法的流程图。
具体实施方式
本发明可以以各种形式被不同地修改,并且可以具有各种实施例,而且其特定的实施例将在附图中图示,并且详细描述。但是,这些实施例不意欲用于限制本发明。在以下的描述中使用的术语仅仅用于描述特定的实施例,但是,不意欲用于限制本发明的技术精神。单数的表示包括多数的表示,只要其被清楚地不同地阅读。诸如“包括”和“具有”的词意欲用于指示存在在以下的描述中使用的特点、数字、步骤、操作、要素、分量或者其组合,并且因此,应该理解,不排除存在或者增加一个或多个不同的特点、数字、步骤、操作、要素、分量或者其组合的可能性。
另一方面,出于对不同的特定功能解释的便利的目的,在本发明中描述的附图的单元被独立地绘制,并不意味这些单元由单独的硬件或者单独的软件实施。例如,在这些单元以外的两个或更多个单元可以被合并形成一个单元,或者一个单元可以被分解为多个单元。不脱离本发明的构思,这些单元被合并和/或分解的实施例属于本发明的范围。
在下文中将参考伴随的附图详细描述本发明的实施例。此外,相同的参考数字贯穿附图用于表示相同的单元,并且对相同单元的相同的描述将被省略。
在本说明书中,图片通常地指的是表示在特定的时间段中一个图像的单元,并且片段是在编译时构成图片的一部分的单元。一个图片可以由多个片段构成,并且根据需要,图片和片段可以混合地使用。
像素或者像元可以指的是构成一个图片(或者图像)的最小单位。此外,“采样”可以用作表示特定的像素值的术语。采样通常地可以指示像素值,可以仅表示亮度分量的像素值,并且可以仅表示色度分量的像素值。
一个单位指示图像处理的基本单位。单位可以包括特定的范围和与该范围相关的信息的至少一个。选择性地,单位可以与诸如块、范围等等的术语混合。在一般情况下,M×N块可以表示一组采样或者以M列和N行排列的变换系数。
图1简要地图示本发明可适用于的3维(3D)视频编码和解码过程。
参考图1,3D视频编码器可以编码视频图片、深度图和相机参数以输出比特流。
深度图可以相对于相应的视频图片(纹理图片)的图片,由相机和对象之间的距离信息(深度信息)构成。例如,深度图可以是通过按照位深度归一化深度信息获得的图像。在这种情况下,深度图可以由无需色差表示记录的深度信息构成。该深度图可以被称作深度图图片或者深度图片。
通常,到对象的距离和视差相互成反比。因此,指示图间相关性的视差信息可以通过使用相机参数从深度图的深度信息导出。
与典型的彩色图像,即,视频图片(纹理图片)一起包括深度图和相机参数的比特流可以经由网络或者存储介质发送给解码器。
从解码器侧,比特流可以被接收以重建视频。如果3D视频解码器被在解码器侧使用,3D视频解码器可以从比特流解码视频图片、深度图和相机参数。供多视图显示需要的视图可以基于解码的视频图片、深度图和相机参数合成。在这种情况下,如果使用的显示器是立体显示器,3D图像可以通过使用用于重建的多个视图之中的二个视图的图片来显示。
如果使用立体视频解码器,立体视频解码器可以从比特流中重建要入射到两个眼睛的二个图片。在立体显示器中,立体图像可以通过使用视图差别,或者入射到左眼的左侧图像和入射到右眼的右侧图像的视差来显示。当多视图显示器与立体视频解码器一起使用的时候,多视图可以基于重建的二个图片通过产生不同的视图来显示。
如果使用2D解码器,2D图像可以被重建以输出图像到2D显示器。如果使用2D显示器,但是,3D视频解码器或者立体视频解码器用作解码器,则重建的图像的一个可以被输出到2D显示器。
在图1的结构中,可以在解码器侧执行,或者可以在显示器侧执行视图合成。此外,解码器和显示器可以是一个设备或者可以是分离的设备。
虽然在图1中为了方便起见,描述3D视频解码器和立体视频解码器和2D视频解码器是分离的解码器,一个解码设备可以执行3D视频解码、立体视频解码和2D视频解码的全部。此外,3D视频解码设备可以执行3D视频解码,立体视频解码设备可以执行立体视频解码,并且2D视频解码设备可以执行2D视频解码。此外,多视图显示器可以输出2D视频或者可以输出立体视频。
图2简要地图示本发明可适用于的视频编码设备的结构。
参考图2,视频编码设备200包括图片分割器205、预测器210、减法器215、变换器220、量化器225、重新排序器230、熵编码器235、去量化器240、反变换器245、加法器250、滤波器255和存储器260。
图片分割器205可以将输入图像分割为至少一个处理单元块。在这种情况下,处理单元块可以是编译单元块、预测单元块,或者变换单元块。作为编译的单元块,编译单元块可以按照四树结构从最大的编译单元块分割。作为从编译单元块分割的块,该预测单元块可以是采样预测的单元块。在这种情况下,该预测单元块可以被划分为子块。该变换单元块可以是按照四树结构从编译单元块分割的,并且可以是用于按照变换系数推导的单元块,或者是用于从变换系数推导残差信号的单元块。
在下文中,该编译单元块可以被称作编译块(CB)或者编译单元(CU),该预测单元块可以被称作预测块(PB)或者预测单元(PU),并且该变换单元块可以被称作变换块(TB)或者变换单元(TU)。
该预测块或者预测单元可以指的是在图片中具有块形状的特定的范围,并且可以包括一系列的预测采样。此外,该变换块或者变换单元可以指的是在图片中具有块形状的特定的范围,并且可以包括变换系数或者一系列的残差采样。
该预测器210可以对处理目标块(在下文中,当前块)执行预测,并且可以产生包括用于当前块的预测采样的预测块。在预测器210中执行的预测单元可以是编译块,或者可以是变换块,或者可以是预测块。
该预测器210可以确定是否帧内预测适用于当前块,或者帧间预测适用于当前块。例如,该预测器210可以确定是否以CU为单位应用帧内预测或者帧间预测。
在帧内预测的情况下,预测器210可以在当前块属于的图片(在下文中,当前的图片)中,基于在当前块外边的参考采样推导出用于当前块的预测采样。在这种情况下,预测器210可以基于平均值或者当前块的邻近参考采样的内插推导出预测采样(情形(i)),或者可以基于在当前块的邻近参考采样之中作为预测采样存在于特定的(预测)方向中的参考采样推导出预测采样(情形(ii))。情形(i)可以被称作非定向的模式,并且情形(ii)可以被称作定向的模式。该预测器210可以通过使用适用于该邻近块的预测模式确定要被应用于当前块的预测模式。
在帧间预测的情况下,预测器210可以基于由运动矢量对参考图片指定的采样推导出用于当前块的预测采样。预测器210可以通过应用跳过模式、合并模式和运动矢量预测(MVP)模式中的任何一个推导出用于当前块的预测采样。在跳过模式和合并模式的情形下,预测器210可以将邻近块的运动信息作为当前块的运动信息使用。在跳过模式的情况下,与合并模式不同,在预测采样和原始采样之间的差值(残差)不被发送。在MVP模式的情况下,邻近块的运动矢量被用作运动矢量预测器,并且因此被用作当前块的运动矢量预测器以推导出当前块的运动矢量。
在帧间预测的情况下,邻近块包括存在于当前的图片中的空间邻近块和存在于参考图片中的时间邻近块。包括时间邻近块的参考图片也可以被称作并置的图片(colPic)。运动信息可以包括运动矢量和参考图片。如果时间邻近块的运动信息被在跳过模式和合并模式中使用,则在参考图片列表上的顶端图片可以被用作参考图片。
多视图可以被划分为独立视图和相关视图。在对于独立视图编译的情况下,预测器210可以不仅执行帧间预测,而且可以执行视图间预测。
该预测器210可以通过包括不同的视图的图片配置参考图片列表。对于视图间预测,预测器210可以推导出视差矢量。与在当前的视图的不同的图片中指定对应于当前块的块的运动矢量中不同,该视差矢量可以在与当前的图片相同的访问单元(AU)的另一个视图中指定对应于当前块的块。在多视图中,例如,AU可以包括视频图片和对应于相同时间实例的深度图。在此处,AU可以指的是具有相同的图片顺序计数(POC)的一组图片。POC对应于显示顺序,并且可以不同于编译顺序。
预测器210可以基于视差矢量指定在深度视图中的深度块,并且可以执行合并列表配置、视图间运动预测、残差预测、照度补偿(IC)、视图合成等等。
用于当前块的视差矢量可以通过使用相机参数从深度值导出,或者可以从当前或者不同视图中的邻近块的运动矢量或者视差矢量导出。
例如,预测器210可以将对应于参考视图的时间运动信息的视图间合并候选(IvMC),对应于视差矢量的视图间视差矢量候选(IvDC)、通过视差矢量的移位推导出的移位的IvMC、当当前块是在深度图上的块的时候,从相应的纹理图片导出的纹理合并候选(T)、通过使用来自纹理合并候选者的视差推导出的视差推导合并候选(D)、基于视图合成推导出的视图合成预测候选(VSP)等等增加给合并候选列表。
在这种情况下,被包括在要被应用于相关视图的合并候选列表中的候选的数目可以被局限于特定的值。
此外,预测器210可以通过应用视图间运动矢量预测,基于视差矢量预测当前块的运动矢量。在这种情况下,预测器210可以基于在相应的深度块中最大的深度值的转换推导出视差矢量。当通过将视差矢量增加给参考视图中当前块的采样位置指定参考视图中的参考采样的位置的时候,包括参考采样的块可以被用作参考块。预测器210可以将参考块的运动矢量作为当前块的候选运动参数或者运动矢量预测器候选使用,并且可以将视差矢量作为用于视差补偿的预测(DCP)的候选视差矢量使用。
减法器215产生残差采样,其是在原始采样和预测采样之间的差值。如果应用跳过模式,残差采样可以不必如上所述产生。
变换器220变换以变换块为单位的残差采样以产生变换系数。量化器225可以量化该变换系数以产生量化的变换系数。
重新排序器230重新排序该量化的变换系数。重新排序器230可以通过使用扫描方法以1D矢量形式重新排序具有块形状的量化的变换系数。
熵编码器235可以对量化的变换系数执行熵编码。熵编码可以包括编码方法,例如,指数Golomb、上下文自适应的可变长度编译(CAVLC)、上下文自适应的二进制算术编译(CABAC)等等。除了量化的变换系数之外,熵编码器235可以共同地或者分别地对视频重建需要的信息(例如,语法元素值等等)执行编码。熵编码的信息可以以比特流形式在网络抽象层(NAL)的单元中发送或者存储。
加法器250将残差采样和预测采样相加以重建图片。残差采样和预测采样可以以块为单位相加以产生重建块。虽然在此处所描述的是加法器250被分别地配置,但加法器250可以是预测器210的一部分。
滤波器255可以将去块滤波和/或采样自适应偏移应用于重建的图片。在重建的图片中的块边界的伪影或者在量化过程中的失真可以被通过去块滤波和/或采样自适应偏移校正。采样自适应偏移可以以采样为单位被应用,并且可以在去块滤波的过程完成之后被应用。
存储器260可以存储重建的图片或者编码/解码需要的信息。例如,存储器260可以存储在帧间预测/视图间预测中使用的(参考)图片。在这种情况下,在帧间预测/视图间预测中使用的图片可以由参考图片集或者参考图片列表指定。
虽然在此处所描述的是一个编码设备对独立视图和相关视图进行编码,但这是为了解释的方便起见。因此,单独的编码设备可以被对于每个视图配置,或者单独的内部模块(例如,用于每个视图的预测模块)可以被对于每个视图配置。
图3简要地图示本发明可适用于的视频解码设备的结构。
参考图3,视频解码设备300包括熵解码器310、重新排序器320、去量化器330、反变换器340、预测器350、加法器360、滤波器370和存储器380。
当输入包括视频信息的比特流的时候,视频解码设备300可以与视频信息通过其在视频编码设备中被处理的过程相结合来重建视频。
例如,视频解码设备300可以通过使用在视频编码设备中应用的处理单元执行视频解码。因此,视频解码的处理单元块可以是编译单元块、预测单元块,或者变换单元块。作为解码的单元块,编译单元块可以按照来自最大的编译单元块的四树结构被分割。作为从编译单元块分割的块,该预测单元块可以是采样预测的单元块。在这种情况下,该预测单元块可以被划分为子块。作为编译单元块,变换单元块可以按照四树结构被分割,并且可以是用于推导变换系数的单元块,或者用于从变换系数推导残差信号的单元块。
熵解码器310可以解析比特流以输出视频重建或者图片重建需要的信息。例如,熵解码器310可以基于编译方法,诸如指数Golomb编码、CAVLC、CABAC等等解码在比特流中的信息,并且可以输出视频重建需要的语法元素值和关于残差的变换系数的量化值。
如果多个视图被处理以再现3D视频,则比特流可以被对于每个视图输入。做为选择,关于每个视图的信息可以在比特流中被复用。在这种情况下,熵解码器310可以解复用该比特流以对于每个视图对其进行解析。
重新排序器320可以以2D块的形式重新排序量化的变换系数。重新排序器320可以与在编码设备中执行的系数扫描结合执行重新排序。
去量化器330可以基于(去)量化参数对量化的变换系数去量化以输出变换系数。在这种情况下,用于推导量化参数的信息可以从编码设备用信号通知。
反变换器340可以反变换该变换系数以推导出残差采样。
预测器350可以对当前块执行预测,并且可以产生包括用于当前块的预测采样的预测块。在预测器350中执行的预测单元可以是编译块,或者可以是变换块,或者可以是预测块。
该预测器350可以确定是否应用帧内预测或者帧间预测。在这种情况下,用于确定将在帧内预测和帧间预测之间使用哪一个的单元可以不同于用于产生预测采样的单元。此外,用于产生预测采样的单元也可以在帧间预测和帧内预测方面不同。例如,将在帧间预测和帧内预测之间应用哪一个可以以CU为单位确定。此外,例如,在帧间预测中,预测采样可以通过以PU为单位确定预测模式来产生,并且在帧内预测中,预测采样可以通过以PU为单位确定预测模式,以TU为单位来产生。
在帧内预测的情况下,预测器350可以基于在当前的图片中的邻近参考采样推导出用于当前块的预测采样。预测器350可以基于当前块的邻近参考采样,通过应用定向模式或者非定向模式推导出用于当前块的预测采样。在这种情况下,要被应用于当前块的预测模式可以通过使用邻近块的帧内预测模式确定。
在帧间预测的情况下,预测器350可以基于对参考图片指定的采样,通过在参考图片上的运动矢量推导出用于当前块的预测采样。预测器350可以通过应用跳过模式、合并模式和MVP模式中的任何一个推导出用于当前块的预测采样。
在跳过模式和合并模式的情形下,邻近块的运动信息可以用作当前块的运动信息。在这种情况下,邻近块可以包括空间邻近块和时间邻近块。
预测器350可以通过使用可用的邻近块的运动信息构成合并候选列表,并且可以将在合并候选者列表上由合并索引指示的信息作为当前块的运动矢量使用。该合并索引可以从编码设备用信号通知。该运动信息可以包括运动矢量和参考图片。当时间邻近块的运动信息被在跳过模式和合并模式中使用的时候,在参考图片列表上的最高的图片可以用作参考图片。
在跳过模式的情况下,与合并模式不同,在预测采样和原始采样之间的差值(残差)不被发送。
在MVP模式的情况下,当前块的运动矢量可以通过将邻近块的运动矢量作为运动矢量预测器使用来推导。在这种情况下,邻近块可以包括空间邻近块和时间邻近块。
在相关视图的情况下,该预测器350可以执行视图间预测。在这种情况下,该预测器350可以通过包括不同的视图的图片来配置参考图片列表。
对于视图间预测,预测器350可以推导出视差矢量。预测器350可以基于视差矢量指定在深度视图中的深度块,并且可以执行合并列表配置、视图间运动预测、残差预测、照度补偿(IC)、视图合成等等。
用于当前块的视差矢量可以通过使用相机参数从深度值导出,或者可以从当前的或者不同的视图中的邻近块的运动矢量或者视差矢量导出。相机参数可以从编码设备用信号通知。
当合并模式被应用于相关视图的当前块的时候,预测器350可以将对应于参考视图的时间运动信息的IvMC、对应于视差矢量的IvDC、通过视差矢量的移位推导出的移位的IvMC、当当前块是在深度图上的块的时候,从相应的纹理图片导出的纹理合并候选(T)、通过使用来自纹理合并候选的视差推导出的视差推导合并候选(D)、基于视图合成推导出的视图合成预测候选(VSP)等等增加给合并候选列表。
在这种情况下,被包括在要被应用于相关视图的合并候选列表中的候选者的数目可以被局限于特定的值。
此外,预测器350可以通过应用视图间运动矢量预测,基于视差矢量预测当前块的运动矢量。在这种情况下,预测器350可以将在由视差矢量指定的参考视图中的块作为参考块使用。预测器350可以将参考块的运动矢量作为候选运动参数或者当前块的运动矢量预测器候选使用,并且可以将视差矢量作为用于视差补偿的预测(DCP)的候选矢量使用。
加法器360可以将残差采样和预测采样相加以重建当前块或者当前的图片。加法器360可以以块为单位将残差采样和预测采样相加以重建当前的图片。当应用跳过模式的时候,残差不被发送,并且因此,预测采样可以是重建采样。虽然在此处所描述的是加法器360被单独地配置,但加法器360可以是预测器350的一部分。
滤波器370可以将去块滤波和/或采样自适应偏移应用于重建的图片。在这种情况下,采样自适应偏移可以以采样为单位被应用,并且可以在去块滤波之后被应用。
存储器380可以存储重建的图片和在解码时需要的信息。例如,存储器380可以存储在帧间预测/视图间预测中使用的图片。在这种情况下,在帧间预测/视图间预测中使用的图片可以由参考图片集或者参考图片列表指定。重建的图片可以用作不同的图片的参考图片。
此外,存储器380可以按照输出顺序输出重建的图片。虽然未示出,输出单元可以显示多个不同的视图以再现3D图像。
虽然在图3的示例中所描述的是独立视图和相关视图被在一个解码设备中解码,但这仅仅是为了示范性的目的,并且本发明不受限于此。例如,每个解码设备可以对于每个视图操作,并且内部模块(例如,预测模块)可以在一个解码设备中与每个视图结合来提供。
多视图视频编译可以通过使用属于与当前的图片相同的访问单元(AU)的不同的视图的解码数据,对当前的图片执行编译以提高对于当前的视图的视频编译效率。
在多视图视频解码中,视图可以被以AU为单位编译,并且图片可以被以视图为单位编译。编译被按照确定的顺序在视图之间执行。可以无需另一个视图的参考编译的视图可以被称作基础视图或者独立视图。此外,在独立视图被编译之后,可以参考独立视图或者另一个视图编译的视图可以被称作相关视图或者扩展视图。此外,如果当前的视图是相关视图,则在当前的视图的编译中作为参考使用的视图可以被称作参考视图。在此处,视图的编译包括属于该视图的纹理图片、深度图片等等的编译。
图4是示意地描述本发明可适用于的多视图视频编译的一个示例的图。
在编译多视图视频的情况下,在一个AU中视图ID相互不同并且POC彼此相同的图片被按照预先限定的视图编译顺序编译。
例如,如在图4中图示的,二个视图(视图V0和V1)被编译,并且视图编译顺序被假设为视图V0和V1的顺序。在这种情况下,作为首先在AU中编译的视图的V0可以无需参考另一个视图编译,并且V0变为基础视图或者独立视图,并且作为接下来编译的视图的V1变为相关视图。
无需参考另一个视图,基础视图被通过参考包括在基础视图中的图片编译。相关视图通过参考另一个视图编译,另一个视图已经在被紧接着基本视图编译的同时被编译。
在多视图视频编译中,属于相关视图的CU可以通过参考已经被编译的图片执行帧间预测。在这种情况下,通过参考视图ID彼此相同的图片执行预测的方法称为运动补偿的预测(MCP),并且通过参考在相同的AU中视图ID彼此不同的图片执行预测的方法称为视差补偿的预测(DCP)。
例如,参考图4,块A可以通过参考属于相同的视图V1的图片,基于运动矢量,通过执行MCP导出预测采样。块B可以通过参考在相同的AU中来自块B的不同的视图V0的图片,基于视差矢量,通过执行DCP导出预测采样。在编译多视图视频时,不同的视图的图片可以被使用,并且可以使用相同的视图的深度图片。
例如,当预测采样通过执行DCP导出的时候,视差矢量被增加给在当前块中对应于预测采样的位置(x,y)的参考视图中相应的图片的位置(x,y),以确定在参考视图中相应的图片的参考采样的位置。预测采样可以基于在参考视图中的参考采样导出。作为一个示例,该视差矢量可以仅仅具有X轴分量。在这种情况下,视差矢量可以是(disp,0),并且参考采样的位置(xr,y)可以被确定为(x+disp,y)。在此处,disp表示视差矢量的值。
同时,3D视频包括具有常规的彩色图像信息的纹理图片,和具有有关纹理图片的深度信息的深度图片。在3D视频中,在相同的POC中具有不同的视图的多个纹理图片可能存在,并且对应于多个纹理图片的深度图片可能分别地存在。此外,多个纹理图片可以从具有不同的视图的多个相机获得。
深度图片存储每个像素具有作为灰度级的距离,并且存在许多的情形,其中在相应的像素之间的微小的深度差值不是很大,并且深度图可以被表示,同时在一个块中被划分为二个类型的前景和背景。此外,深度图视频示出深度图具有在对象的边界上强的边缘的特征,并且在除该边界以外的位置上具有近似恒定值(例如,恒定值)。
深度图片可以通过与纹理图片类似的方法,通过使用帧内预测、运动补偿、视差补偿、变换等等来编码和解码。但是,由于深度图片具有像素值的变化不是很大,并且深度图片具有强的边缘的特征,所以可以使用反射深度图片特征的新的帧内预测模式。
在用于深度图片的帧内预测模式中,块(做为选择,深度块)可以表示为模型,该模型将块分割为二个非矩形区域,并且每个分割的区域可以被表示为恒定值。
如上所述,通过在深度图片中对块进行建模预测深度图片的帧内预测模式称为深度建模模式(DMM)。在DMM中,深度图片可以被基于指示如何在深度图片中分割该块的分割信息和指示每个分割填充哪个值的信息预测。
例如,DMM可以被划分为Wedgelet模式和Contour模式。
图5是示意地图示Wedgelet模式的图。
参考图5,在Wedgelet模式中,在该块(做为选择,深度块和当前块)中的二个区域可以通过直线被分割。也就是说,该块可以通过直线SE被分割为区域P1和区域P2。在分割区域的每个中,预测值可以作为一个恒定值被产生。
图6是示意地图示Contour模式的图。
参考图6,在Contour模式中,在该块(做为选择,深度块和当前块)中的二个区域可以通过预先确定的曲线形状被分割。在Contour模式中,在该块中的二个区域可能不容易地由一个几何函数表示,并且二个区域可以具有预先确定的形状。在此处,如在图5中图示的,每个区域可能不是一个块状,而是分割的形状。在Contour模式中,该区域可以基于在深度图片中在对应当前块(深度块)的纹理图片中相应的块(纹理块)被分割。在Contour模式中,在分割的区域的每个中,预测值可以作为一个恒定值产生。
在产生用于该块的预测值之后,计算表示在原始采样和预测采样之间的差值(做为选择,残差信号)的残差,并且残差信号可以类似于在相关技术中的帧内预测模式被经由变换和量化发送。
同时,分段式DC编译(SDC)方法可以被用于深度图片。在SDC中,残差信号可以通过使用分割的区域的预测值的平均值产生。在SDC中,残差数据可以无需变换和量化过程而被编译。通常,深度图片的采样(像素)值没有从最小值(例如,0)到最大值(例如,255)均匀分布,而是在特定的区域中集中地分布,并且具有该值的变化作为该块的单位不是很大的特征。深度查找表(DLT)通过考虑这样的特征产生,并且当通过使用该深度查找表,通过将深度图片的深度值转换为深度查找表的索引值而执行编译的时候,要编译的位数可以被降低。通过使用深度查找表产生的残差块可以无需变换和量化过程被熵编码。也就是说,SDC可以被认为是残差编译方法,其仅仅发送原始图片的平均亮度值和预测图片的平均亮度值之间的差值。
在下文中,将更详细地描述SDC方法。
深度图片的深度值被每个序列参数集(SPS)或者片段发送。在这种情况下,深度图片的深度值可以被基于DLT发送。在这种情况下,用于SDC的预测通过CU或者PU块的单位执行。
例如,在当前块中相对于相应的分割的区域(在DMM的情况下,二个区域,并且在平面模式的情况下,一个区域)帧内预测的深度值的平均值DCpred和原始深度值的平均值DCorg被计算,并且相应的计算的平均值被映射为在DLT中具有最小的误差的值以找到每个索引值。此外,代替对原始深度值和预测深度值之间的差值的编译,在用于映射为DLT的原始深度值的平均值DCorg的索引和用于预测深度值的平均值DCpred的索引之间的差值SDCresidual可以被编译。SDC可以通过作为CU块的单位的标记信息有选择地使用。SDC模式信息被发送给SDC被应用于的块。在SDC模式信息被发送之后,在用于原始深度值的平均值DCorg的索引和用于预测深度值的平均值DCpred的索引之间的差值SDCresidual被发送。
以下给出的等式1示出通过SDC方法产生用于当前块的差别索引值的过程。
[等式1]
SDCresidual=Value2Idx(DCorg)-Value2Idx(DCpred)
在等式1中,Value2Idx(x)表示在DLT中具有最靠近于x值输入的值的索引。
图7是示意地图示SDC编译方法的图。
参考图7,DCorg相对于要编译的原始块获得,DCpred相对于通过帧内预测产生的预测块获得,并且此后,DCorg和DCpred的每个被映射为具有最靠近DLT值的索引。在图6中,DCorg被映射为DLT索引2,并且DCpred被映射为DLT索引4。因此,在编译过程期间,2作为对应于两个DLT索引之间差值的值被编译和发送。同时,在映射DCorg和DCpred之后没有索引差值的情形可能经常发生,并且指示是否索引差值存在的标志可以首先被发送用于有效处理。在标志值是0的情形下,该情形指的是在DCorg和DCpred之间没有差别,并且解码器可以通过使用预测块的平均值DCpred产生重建的图像。在标志值是1的情形下,该情形指的是在DCorg和DCpred之间存在差别,并且在这种情况下,该索引差值被发送。由于索引差值可以作为负数和正数存在,所以该索引差值的符号和幅值中的每个可以被发送。
同时,在深度图片属于相关视图的情形下,可以使用视图间运动预测(IVMP),其基于运动信息,诸如在类似于纹理图片的参考视图的相应的块中存在的运动矢量推导出当前块的运动信息。
图8是示意地图示IVMP方法的图。
参考图8,假设在当前的图片810中的当前块820被编译(编码/解码)。在此处,当前的图片810可以是深度图片。此外,在此处,当前块820可以是预测块,并且可以是基于MCP编译的块。在应用IVMP的情形下,当前块820的运动信息可以基于在图间参考图片830中的相应的块840的运动信息而被推导出。相应的块840可以基于该视差矢量导出。
按照本发明,提供了用于有效地执行帧内预测、视差导出和用于深度图片的SDC的信令方法。
通常,用于帧内预测的预测单元PU的范围可以由编码器确定。但是,实际地预测的PU的大小可以根据变换单元TU的大小变化。也就是说,块信息和预测模式通过PU的单元发送,但是,帧内预测过程通过TU的单元执行。由于当前块的邻近块的像素被在帧内预测中编译,所以该预测被按照远离PU大小的TU大小执行。也就是说,在帧内预测过程期间,该帧内预测通过使用TU单元块的重建的邻近采样执行。这将通过使用重建的邻近像素提高压缩和编译效率。因此,在其中执行帧内预测的块的大小受限于TU大小。相反地,由于在SDC方法中没有使用变换和量化,所以不考虑TU大小,该预测可以相对于PU执行。但是,有时候,用于大于现有的最大TU大小的块的帧内预测可能在编码器中需要,并且为此,甚至相对于SDC方法被应用于的块,其可以被限制,使得PU预测被按照TU大小执行。同时,在DMM的情况下,由于该模式的特征,即使PU大小大于TU大小,该预测也不能由分割该块来执行。因此,当PU大小大于TU大小的时候,其需要被限制,使得不应用DMM。用于大于由编码器设置的TU大小的块的预测过程可以经由这样的限制被排除。
同时,如上所述,视差矢量是执行相关视图的当前的(深度)图片的当前块的IVMP所需要的。与来自邻近块(NBDV)的视差矢量或者面向深度的视差矢量导出(DoNBDV)被用于纹理视图或者纹理图片的情形不同,用于深度视图或者深度图片的视差可以从邻近解码的深度值导出,或者从预先确定的(深度)值导出。预先确定的(深度)值可以是深度值范围的中间值。此外,预先确定的值可以是“1<<(位深度-1)”。在此处,位深度可以是相对于亮度采样设置的位深度。
在IVMP中,由于运动矢量可以从参考视图的相应的块获得,当导出该视差矢量的时候,需要考虑用于获得运动矢量的参考视图。作为一个示例,该参考视图不能被固定到基础视图上,但是,可以被设置为在参考图片列表中可用的参考图片的视图。此外,用于导出视差矢量的参考视图和用于获得运动矢量的参考视图可以被设置为彼此相同。
例如,该视差矢量可以如以下给出的等式2所示导出。
[等式2]
DispVec[x][y]=(DepthToDisparityB[DefaultRefViewIdx][1<<(BitDe pth-1)],0)
这里DepthToDisparityB[j][d]表示在当前的视图和具有ViewIdx等于j的视图之间的视差矢量的水平分量,j在具有ViewIdx等于j的视图中对应于深度值d。也就是说,在此处,DefaultRefViewIdx表示用于导出视差矢量的参考视图的索引。在这种情况下,用于获得运动矢量的参考视图的参考视图顺序索引(RefViewIdx)可以与DefaultRefViewIdx相同。
同时,如上所述,按照SDC,用于当前块的差别索引值被发送,并且在这种情况下,差别索引值可以通过二个步骤发送,或者作为差值被立即发送。作为一个示例,指示是否索引差值存在的标志信息可以被首先发送,并且当标志值是1的时候,索引差值可以被发送。在这种情况下,该差值可能不具有0。因此,在这种情况下,用于索引差值的符号可以被连续地发送。作为另一个示例,无需指示是否索引差值存在的标志信息,索引差值可以被立即发送。在这种情况下,索引差值可以具有0,并且只有当该索引差值不是0时,用于索引差值的符号可以被发送。
图9是示意地图示按照本发明的实施例用于编码3D视频的方法的流程图。图9的方法可以由图2的视频编码设备执行。
参考图9,编码设备推导出视差矢量(S900)。视差矢量可以是用于深度视图的当前的图片的当前块的视差矢量。编码设备可以从邻近解码深度值推导出视差矢量,或者从如上所述的预先确定的值推导出视差矢量。预先确定的值可以是深度值范围的中间值。此外,预先确定的值可以是“1<<(位深度-1)”。在此处,位深度可以是相对于亮度采样设置的位深度。
编码设备推导出用于当前块的运动信息(S910)。编码设备可以按照在参考图片的预先确定的区域内的运动信息估算过程搜索类似于当前块的块,并且推导出用于当前块的运动信息。
该编码设备生成用于当前块的预测采样(S920)。编码设备可以基于预测采样和残差采样(信号)重建当前的图片,并且重建的图片可以作为用于编译另一图片的参考图片使用。
该编码设备可以编码用于视频解码的视频信息(S930)。编码设备可以对该视频信息进行熵编码,并且作为比特流输出熵编码的视频信息。该输出的比特流可以经由网络发送,或者存储在存储介质中。该视频信息可以包括用于重建当前块的信息(例如,预测模式信息和残差信号)。该视频信息可以包括用于重建当前块的语法元素值。
图10是示意地图示按照本发明的实施例解码3D视频的方法的流程图。图10的方法可以由图3的视频解码设备执行。
参考图10,解码设备推导出视差矢量(S700)。该解码设备可以对包括在比特流中的视频信息进行熵解码,并且基于参考视图和预先确定的值获得用于在深度视图中当前图片的当前块的视差值。
解码设备可以从邻近解码深度值推导出视差矢量,或者从如上所述的预先确定的值推导出视差矢量。预先确定的值可以是深度值范围的中间值。此外,预先确定的值可以是“1<<(位深度-1)”。在此处,位深度可以是相对于亮度采样设置的位深度。该解码设备可以基于以上给出的等式2推导出视差矢量。
参考视图可以是参考图片列表中参考图片的视图。作为一个示例,参考视图可以是参考图片列表中第一参考图片的视图。
解码设备基于视差值推导出当前块的运动信息(S1010)。解码设备可以基于IVMP方法推导当前块的运动信息。在这种情况下,当前块的运动信息可以通过使用该视差值,基于在视图间参考图片上推导出的相应的块的运动信息来推导。在此处,相应的块的运动信息可以作为当前块的运动信息使用。该运动信息包括运动矢量。在此处,属于图间参考图片的视图可以与参考视图相同。
解码设备基于该运动信息产生当前块的预测采样(S1020)。解码设备可以基于深度视图(当前的视图)中的运动信息和参考图片产生当前块的预测采样。也就是说,解码设备可以在基于有关深度视图中的参考图片的运动信息推导出的块的基础上产生预测采样。
解码设备可以从接收的比特流产生用于当前块的残差采样,并且通过基于产生的预测采样和残差采样导出重建采样来重建当前的图片。采样可以通过块或者图片的单元重建。
虽然参考其示例性实施例已经特别示出和描述了本发明,但那些本领域技术人员应理解,不脱离在所附的权利要求中限定的本发明的精神和范围,可以在其中在形式和细节方面进行各种各样的变化。该示例性实施例将被认为仅仅是叙述性的感知并且不是为了限制的目的,并且不意欲限制本发明的技术范围。因此,本发明的范围将由所附的权利要求限定。
当以上描述的实施例在本发明中被以软件实现的时候,以上描述的方案可以使用执行以上功能的模块(过程或者功能)实现。该模块可以被存储在存储器中,并且由处理器执行。存储器可以被内部地或者外部地布置到处理器,并且使用各种公知手段连接到处理器。

Claims (8)

1.一种解码3D视频的方法,所述方法包括∶
基于参考视图和预先确定的值获得视差值;
基于所述视差值推导深度图片中的当前块的运动信息;以及
基于所述运动信息产生所述当前块的预测采样,
其中所述参考视图是参考图片列表中的参考图片的视图。
2.根据权利要求1所述的方法,其中,所述参考视图是所述参考图片列表中第一参考图片的视图。
3.根据权利要求1所述的方法,其中,所述当前块的运动信息通过使用视差值基于在视图间参考图片上导出的相应的块的运动信息来推导。
4.根据权利要求3所述的方法,其中,所述参考视图与所述视图间参考图片属于的视图相同。
5.根据权利要求4所述的方法,其中,所述预测采样在基于有关当前视图中参考图片的运动信息推导的块的基础上产生。
6.根据权利要求1所述的方法,其中,所述预先确定的值是深度值范围的中间值。
7.根据权利要求1所述的方法,其中,所述预先确定的值可以是“1<<(位深度-1)”。
8.根据权利要求7所述的方法,其中,所述位深度是对亮度采样设置的位深度。
CN201580035419.3A 2014-10-08 2015-09-25 视频编译中的深度图片编译方法 Active CN106664423B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201462061150P 2014-10-08 2014-10-08
US62/061,150 2014-10-08
PCT/KR2015/010142 WO2016056782A1 (ko) 2014-10-08 2015-09-25 비디오 코딩에서 뎁스 픽처 코딩 방법 및 장치

Publications (2)

Publication Number Publication Date
CN106664423A true CN106664423A (zh) 2017-05-10
CN106664423B CN106664423B (zh) 2020-04-07

Family

ID=55653346

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201580035419.3A Active CN106664423B (zh) 2014-10-08 2015-09-25 视频编译中的深度图片编译方法

Country Status (10)

Country Link
US (1) US10659814B2 (zh)
EP (1) EP3206402A4 (zh)
JP (1) JP6545796B2 (zh)
KR (1) KR101862498B1 (zh)
CN (1) CN106664423B (zh)
AU (1) AU2015328955B2 (zh)
CA (1) CA2952793C (zh)
MX (1) MX362021B (zh)
RU (1) RU2661331C2 (zh)
WO (1) WO2016056782A1 (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110363212A (zh) * 2019-03-28 2019-10-22 西南石油大学 基于边界扫描的多wedgelet图像近似方法
CN112640469A (zh) * 2018-09-05 2021-04-09 松下电器(美国)知识产权公司 编码装置、解码装置、编码方法和解码方法
CN114363612A (zh) * 2019-03-15 2022-04-15 北京达佳互联信息技术有限公司 用于双向光流的比特宽度控制的方法和设备
CN115996290A (zh) * 2019-04-25 2023-04-21 北京达佳互联信息技术有限公司 对视频信号解码的双向光流方法、计算设备和存储介质

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109196862B (zh) * 2016-05-28 2021-01-22 联发科技股份有限公司 视频数据处理方法、装置及相应可读存储介质
CN107071478B (zh) * 2017-03-30 2019-08-20 成都图必优科技有限公司 基于双抛物线分区模板的深度图编码方法
EP3861732A4 (en) * 2018-10-01 2022-07-06 OP Solutions, LLC EXPONENTIAL PARTITIONING METHODS AND SYSTEMS

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102017627A (zh) * 2008-04-25 2011-04-13 汤姆森许可贸易公司 使用基于深度信息的视差估计的多视点视频编码
CN102340666A (zh) * 2010-07-16 2012-02-01 索尼公司 图像处理设备和图像处理方法
CN103430549A (zh) * 2011-03-18 2013-12-04 索尼公司 图像处理装置、图像处理方法和程序
CN103597837A (zh) * 2011-06-15 2014-02-19 联发科技股份有限公司 运动和视差矢量预测的方法及装置以及3d视频编码补偿
CN103916658A (zh) * 2014-04-18 2014-07-09 山东大学 采用深度传播技术的3dv系统视点间深度图生成方法

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2308241B1 (en) 2008-07-24 2017-04-12 Koninklijke Philips N.V. Versatile 3-d picture format
WO2013022281A2 (ko) * 2011-08-09 2013-02-14 삼성전자 주식회사 다시점 비디오 예측 부호화 방법 및 그 장치, 다시점 비디오 예측 복호화 방법 및 그 장치
WO2013053309A1 (en) * 2011-10-11 2013-04-18 Mediatek Inc. Method and apparatus of motion and disparity vector derivation for 3d video coding and hevc
US20130176390A1 (en) * 2012-01-06 2013-07-11 Qualcomm Incorporated Multi-hypothesis disparity vector construction in 3d video coding with depth
CN103650497B (zh) 2012-03-02 2018-01-05 太阳专利托管公司 图像编码方法、图像解码方法、图像编码装置、图像解码装置及图像编码解码装置
WO2014005280A1 (en) 2012-07-03 2014-01-09 Mediatek Singapore Pte. Ltd. Method and apparatus to improve and simplify inter-view motion vector prediction and disparity vector prediction
US9516332B2 (en) * 2012-12-21 2016-12-06 Qualcomm Incorporated Disparity vector derivation in three-dimensional video coding
US9237345B2 (en) * 2013-02-26 2016-01-12 Qualcomm Incorporated Neighbor block-based disparity vector derivation in 3D-AVC
US9596448B2 (en) 2013-03-18 2017-03-14 Qualcomm Incorporated Simplifications on disparity vector derivation and motion vector prediction in 3D video coding
US9521425B2 (en) * 2013-03-19 2016-12-13 Qualcomm Incorporated Disparity vector derivation in 3D video coding for skip and direct modes
WO2015005753A1 (ko) * 2013-07-12 2015-01-15 삼성전자 주식회사 깊이 기반 디스패리티 벡터를 이용하는 인터 레이어 비디오 복호화 방법 및 그 장치, 깊이 기반 디스패리티 벡터를 이용하는 인터 레이어 비디오 부호화 방법 및 장치
US9906768B2 (en) * 2013-07-26 2018-02-27 Qualcomm Incorporated Use of a depth condition in 3DV codec

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102017627A (zh) * 2008-04-25 2011-04-13 汤姆森许可贸易公司 使用基于深度信息的视差估计的多视点视频编码
CN102340666A (zh) * 2010-07-16 2012-02-01 索尼公司 图像处理设备和图像处理方法
CN103430549A (zh) * 2011-03-18 2013-12-04 索尼公司 图像处理装置、图像处理方法和程序
CN103597837A (zh) * 2011-06-15 2014-02-19 联发科技股份有限公司 运动和视差矢量预测的方法及装置以及3d视频编码补偿
CN103916658A (zh) * 2014-04-18 2014-07-09 山东大学 采用深度传播技术的3dv系统视点间深度图生成方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
TECH G ET AL: "3D-HEVC Draft Text 5", 《JOINT COLLABORATIVE TEAM ON 3D VIDEO CODING EXTENSIONS》 *

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112640469A (zh) * 2018-09-05 2021-04-09 松下电器(美国)知识产权公司 编码装置、解码装置、编码方法和解码方法
CN114363612A (zh) * 2019-03-15 2022-04-15 北京达佳互联信息技术有限公司 用于双向光流的比特宽度控制的方法和设备
CN114363612B (zh) * 2019-03-15 2024-05-03 北京达佳互联信息技术有限公司 用于双向光流的比特宽度控制的方法和设备
CN110363212A (zh) * 2019-03-28 2019-10-22 西南石油大学 基于边界扫描的多wedgelet图像近似方法
CN115996290A (zh) * 2019-04-25 2023-04-21 北京达佳互联信息技术有限公司 对视频信号解码的双向光流方法、计算设备和存储介质
CN117014627A (zh) * 2019-04-25 2023-11-07 北京达佳互联信息技术有限公司 对视频信号进行编码的双向光流方法、计算设备和存储介质
CN115996290B (zh) * 2019-04-25 2024-01-12 北京达佳互联信息技术有限公司 对视频信号解码的双向光流方法、计算设备和存储介质

Also Published As

Publication number Publication date
AU2015328955B2 (en) 2018-01-04
CN106664423B (zh) 2020-04-07
CA2952793C (en) 2019-03-12
KR101862498B1 (ko) 2018-06-29
JP6545796B2 (ja) 2019-07-17
JP2017525314A (ja) 2017-08-31
RU2661331C2 (ru) 2018-07-13
MX2016016990A (es) 2017-05-03
EP3206402A4 (en) 2018-03-21
KR20170002573A (ko) 2017-01-06
RU2016151372A (ru) 2018-06-28
US10659814B2 (en) 2020-05-19
MX362021B (es) 2019-01-04
AU2015328955A1 (en) 2017-01-12
WO2016056782A1 (ko) 2016-04-14
CA2952793A1 (en) 2016-04-14
RU2016151372A3 (zh) 2018-06-28
US20170150178A1 (en) 2017-05-25
EP3206402A1 (en) 2017-08-16

Similar Documents

Publication Publication Date Title
CN104704833B (zh) 多视图或3维视频译码中的高级视图间残差预测
KR102254599B1 (ko) 멀티-뷰 비디오 코딩에 있어서, 뷰 합성 예측 방법 및 이를 이용한 머지 후보 리스트 구성 방법
CN106797479B (zh) 对于并行处理的帧内块复制预测限制
CN105379282B (zh) 用于纹理译码的先进残余预测(arp)的方法和设备
CN105659605B (zh) 用于解码多视图视频的视频解码方法和装置
CN110100436A (zh) 使用导出色度模式译码视频数据
CN106664423A (zh) 视频编译中的深度图片编译方法和设备
CN105874788B (zh) 对3d视频译码中较大预测块的逐段dc译码的简化
CN104885459B (zh) 用于多层译码的多分辨率经解码图片缓冲器管理
CN104303502A (zh) 用于3d-hevc的视差向量建构方法
KR20130059423A (ko) 화상 부호화 방법 및 장치, 화상 복호 방법 및 장치, 및 그 프로그램
US20170310993A1 (en) Movement information compression method and device for 3d video coding
WO2015057037A1 (ko) 멀티-뷰 비디오를 디코딩하는 비디오 디코딩 장치 및 방법
CN106105218B (zh) 在3维视频编码中处理相机参数的方法
KR102343817B1 (ko) 멀티-뷰 비디오의 디코딩 방법 및 장치
US10397611B2 (en) Method and device for encoding/decoding 3D video
KR102025413B1 (ko) 복수의 레이어를 지원하는 영상의 부호화 및 복호화 방법 및 이를 이용하는 장치
CN115699746B (zh) 图像编码/解码方法和发送比特流的方法
WO2015141977A1 (ko) 3d 비디오 부호화/복호화 방법 및 장치

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant