CN105453561B - 三维以及多视图视频编码中导出默认视差向量的方法 - Google Patents

三维以及多视图视频编码中导出默认视差向量的方法 Download PDF

Info

Publication number
CN105453561B
CN105453561B CN201480043802.9A CN201480043802A CN105453561B CN 105453561 B CN105453561 B CN 105453561B CN 201480043802 A CN201480043802 A CN 201480043802A CN 105453561 B CN105453561 B CN 105453561B
Authority
CN
China
Prior art keywords
view
disparity vector
acquiescence
dimensional
current block
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201480043802.9A
Other languages
English (en)
Other versions
CN105453561A (zh
Inventor
林建良
张娜
陈渏纹
安基程
张毓麟
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
HFI Innovation Inc
Original Assignee
HFI Innovation Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by HFI Innovation Inc filed Critical HFI Innovation Inc
Publication of CN105453561A publication Critical patent/CN105453561A/zh
Application granted granted Critical
Publication of CN105453561B publication Critical patent/CN105453561B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/161Encoding, multiplexing or demultiplexing different image signal components
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • H04N19/52Processing of motion vectors by encoding by predictive encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/593Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals

Abstract

本发明揭露了使用统一的视差向量导出的三维或多视图视频编码或解码系统的方法及装置。当使用已导出的视差向量的三维编码工具被选择,根据本发明实施例将首先从一个或多个相邻块中获得已导出DV。如果已导出DV是可用的,使用已导出DV将已选择的三维编码工具被应用到当前块。如果已导出DV不可用,使用默认DV将已选择的三维编码工具被应用到当前块,其中,默认DV被设置为指向当前块的参考图片列表中的视图间参考图片。

Description

三维以及多视图视频编码中导出默认视差向量的方法
【相关申请的交叉引用】
本发明主张申请于2013年8月13日,序列号为61/865,346,标题为“Inter-viewReference Picture Selection and Its Exception Handler in 3D Video Coding”的美国临时专利申请,以及申请于2013年10月25日,序列号为61/895,468,标题为“Methods ofderiving the default disparity vector in multiview and 3D video coding”的美国临时专利申请的优先权。将以上美国临时专利申请以参考的方式并入本文中。
【技术领域】
本发明涉及三维视频编码。特别地,本发明涉及三维(Three-dimensional,3D)视频编码中的视差向量导出。
【背景技术】
三维电视技术是近年来的技术发展趋势,其试图给观看者带来轰动的观看体验(viewing experience)。各种技术都被开发出来以使三维观看成为可能。其中,多视图视频(multi-view video)是三维电视应用中的一个关键技术。现有的视频是二维(two-dimensional)介质,二维介质只能给观看者提供来自照相机视角的一个场景的单个视图。然而,多视图视频可以提供动态场景的任意视角,并为观看者提供真实的感觉。
通常的,多视图视频是通过同时地使用多个相机捕捉场景来创建的,其中,多个照相机都被合适地定位,以使每个照相机从一个视角捕捉场景。因此,多个相机将捕捉对应多个视图的多个视频序列。为了提供更多的视图,需要使用更多的相机来产生具有与视图相关联的大量视频序列的多视图视频。因此,多视图视频将需要大量的存储空间来存储和/或需要高的带宽来传送。因此,在本领域中,多视图视频编码技术被开发出来以减少所需要的存储空间或传送带宽。
一个直接方法可以简单地应用于现有的视频编码技术,使每个单个视图视频序列独立且忽视不同视图中的任何关联。这样的编码系统将是非常低效的。为了提高多视图视频编码效率,多视图视频编码利用视图间冗余。通过扩展现存的视频编码标准,各种3D编码工具已经被开发或正在被开发。例如,有标准开发活动来将H.264/高级视频编码(advancedvideo coding,AVC)以及高效视频编码(high efficiency video coding,HEVC)扩展到多视图视频编码(multi-view video coding,MVC)以及3D编码。已开发出来的对应新标准分别被称为3D-HEVC或3D-AVC编码。用于3D-HEVC以及3D-AVC的各种已被开发出来或正在被开发的3D编码工具综述如下。
为了共享邻近视图的先前已编码的纹理信息,一种被称为视差补偿预测(Disparity-Compensated Prediction,DCP)的技术被包括到基于HEVC的三维视频编码的测试模型(test Model for three-dimensional video coding based on HEVC,3D-HTM)中以作为动补偿预测(motion-compensated prediction,MCP)的备选编码工具。MCP是关于使用相同视图中先前已编码图片的图片间预测,而DCP是关于相同存取单元中其它视图的先前已编码图片的图片间预测。图1所示为结合MCP以及DCP的3D视频编码系统的示例。用于DCP的向量110被称为视差向量(disparity vector,DV),其模拟用于MCP的运动向量(motion vector,MV)。图1显示了与MCP相关联的三个MV120、130以及140。此外,DCP块的DV还可由视差向量预测(disparity vector predictor,DVP)候选来预测,DVP候选是由也使用视图间参考图片的相邻块或时间对应块导出。于当前3D-HTM中,当导出用于合并/跳过模式的视图间合并候选(Merge candidate)时,如果对应块的运动信息不可用或无效的,视图间合并候选由DV来替代。
视图间运动预测(Inter-view motion prediction)用于共享参考视图的先前已编码运动信息。为了导出附属视图中当前块的候选运动参数,用于当前块的DV首先被导出,且接着,通过将DV增加到当前块的位置,参考视图中已编码图片中的预测块被定位。如果预测块是使用MCP来编码,相关的运动参数可用作当前视图中当前块的候选运动参数。已导出DV还可被直接用作DCP的候选DV。
视图间残差预测(Inter-view residual prediction)是用于3D-HTM的另一编码工具。为了共享邻近视图的先前已编码的残差信息,当前预测块(即,预测单元(predictionunit,PU))的残差信号可由视图间图片中的对应块的残差信号来预测。对应块可由相应DV来定位。对应于特定照相机位置的视频图片以及深度图由视图标识符(即,V0、V1以及V2)来指示。属于相同照相机位置的所有视频图片以及深度图通过相同视图Id(即,视图标识符)被关联。视图标识符被用于在存取单元中指定编码顺序,且于易出错环境中检测丢失的视图(missing view)。存取单元包括对应于相同时刻的所有视频图片以及深度图。于存取单元中,如果存在视图Id等于0的深度图,则视图Id等于0的视频图片及相关的深度图首先被编码,接下来是视图Id等于1的视频图片以及深度图等。视图Id等于0(即,V0)的视图也被称作基础视图或独立视图。基础视图视频图片可使用现有的HEVC视频编码器不依赖于其它视图被编码。
对于当前块,运动向量预测(motion vector predictor,MVP)/视差向量预测(disparity vector predictor,DVP)可以从视图间图片的视图间块导出。在下文中,视图间图片的视图间块被简称为视图间块。已推导出的候选被称为视图间候选,其可以是视图间MVP或DVP。基于其它视图中先前已编码的运动信息来编码当前块(例如,当前PU)的运动信息的编码工具被称为视图间运动参数预测(inter-view motion parameterprediction)。此外,相邻视图的对应块被称为视图间块,且视图间块使用从当前图片中的当前块的深度信息导出的视差向量来定位。
视图合成预测(View Synthesis Prediction,VSP)是一种移除来自不同视角的视频信号中的视图间冗余的技术,于VSP中,合成信号被用作预测当前图片的参考。于3D-HEVC测试模型HTM-7.0中,存在一过程来导出视差向量预测,被称为相邻块视差向量(Neighboring Block Disparity Vector,NBDV)。接着,已导出视差向量被用于获取参考视图的深度图像中的深度块。导出虚拟深度的过程可被应用于VSP以定位已编码视图的对应深度块。已获取的深度块可具有与当前PU相同的大小,且接着将被用于对当前PU执行后向扭曲(backward warping)。此外,扭曲操作可被执行于子PU等级精度,例如2x2或4x4块。
于当前实现中,VSP仅被用于纹理分量编码。VSP预测也被增加以作为新的合并候选来显示VSP预测的使用。以这样的方式,VSP块可以是没有任何残差的跳过块(skippedblock),或具有已编码残差信息的合并块。于本申请中,为方便起见,基于VSP的合并候选的还可被称为VSP合并候选。
当图片作为B图片被编码,且当前块被表示为VSP预测时,下文的步骤被应用以确定VSP的预测方向:
-从NBDV获取已导出视差向量的视图索引(view index)refViewIdxNBDV;
-获取与具有视图索引refViewIdxNBDV的参考图片相关联的参考图片列表RefPicListNBDV(RefPicList0或RefPicList1);
-检查具有视图索引refViewIdx的视图间参考图片的可用性,视图索引refViewIdx不等于参考图片列表中除RefPicListNBDV之外的refViewIdxNBDV;
ο如果这样的不同视图间参考图片被找到,则应用双向VSP。来自视图索引refViewIdxNBDV的深度块被用作为当前块的深度信息(在纹理第一编码顺序的情况下),且两个不同视图间参考图片(来自每个参考图片列表中的一个)经由后向扭曲过程被访问,且进一步加权以获得最终后向VSP预测子;
ο否则,单向(uni-direction)VSP被应用到RefPicListNBDV以作为用于预测的参考图片列表。
当图片作为P图片被编码,且当前预测块使用VSP时,单向VSP被应用。
需要注意的是,当增加VSP合并候选时,不论视图间参考图片具有的视图索引是否等于由已导出DV指向的视图间参考图片的视图索引,VSP旗标总是被设置为真。
DV是用于视图间运动预测、视图间残差预测、DCP、VSP或任何其它需要指示视图间图片之间的对应工具的3D视频编码的关键。用于3D-HEVC的当前测试模型的DV导出如下所述。
3D-HEVC中的DV导出。目前,除了用于DCP的DV,用于其它编码工具的DV使用如下所述的NBDV方案或深度方向的相邻块视差向量(depth oriented neighboring blockdisparity vector,DoNBDV)方案来导出。
NBDV。于当前3D-HEVC中,DV可用作帧间模式(Inter mode)的DVP候选或合并/跳过模式的合并候选。已导出DV还可被用作用于视图间运动预测以及视图间残差预测的偏置向量。如图2A到图2B所示,当已导出DV被用作偏置向量时,DV是从空间及时间相邻块导出。多个空间以及时间相邻块被确定,且空间以及时间相邻块的DV可用性是根据预定顺序来检查。此用于基于相邻(空间以及时间)块的DV导出的编码工具被称为NBDV。如图2A所示,时间相邻块组首先被搜寻。时间合并候选组包括时间参考图片中当前块的中心位置(即,BCTR)以及当前块的右下角的对角线位置(即,RB)。时间搜寻顺序从RB开始到BCTR。当一个块被识别为具有DV时,检查过程将会被终止。如图2B所示,空间相邻块组包括当前块的左下角的对角线位置(即,A0)、当前块的左下方的相邻位置(即,A1)、当前块的左上角的对角线位置(即,B2)、当前块的右上角的位置对角线(即,B0),以及当前块的右上方的相邻位置(即,B1)。用于空间相邻块的搜寻顺序是(A1、B1、B0、A0、B2)。
如果DCP编码块没有于相邻块组(如图2A以及图2B所示,即,空间以及时间相邻块)中被找到,视差信息可从另一个被称为DV-MCP的编码工具获得。在此情况下,当空间相邻块是MCP编码块且其运动是由视图间运动预测来预测时,如图3所示,用于视图间运动预测的视差向量表示当前以及视图间参考图片之间的运动对应。此运动向量的类型被称为视图间预测运动向量,且块被称为DV-MCP块。图3所示为DV-MCP块的示例,其中,DV-MCP块310的运动信息是从视图间参考图片的对应块320预测。对应块320的位置是通过视差向量330来指示。用于DV-MCP块的视差向量表示当前以及视图间参考图片之间的运动对应。对应块320的运动信息322用于预测当前视图中当前块310的运动信息312,其中,当前视图为一个从属视图。
为了指示MCP块是否为DV-MCP编码块,且为了保存以及用于视图间运动参数预测的视差向量,两个变量被用于表示每个块的运动向量信息:
-dvMcpFlag,以及
-dvMcpDisparity。
当dvMcpFlag等于1时,dvMcpDisparity被设置为指示视差向量被用于视图间运动参数预测。于AMVP模式以及合并候选列表的建立过程中,如果候选是由视图间运动参数预测来产生,则候选的dvMcpFlag被设置为1,否则,其被设置为0。如果DCP编码块以及DV-MCP编码块都没有于上述的空间以及时间相邻块中被找到,则零向量可被用作默认视差向量。
DoNBDV。通过从深度图中提取更准确的视差向量来增强NBDV的方法被用于当前3D-HEVC中。来自相同存取单元的已编码深度图的深度块首先被获取且被用作当前块的虚拟深度。具体而言,细化的DV(refined DV)是由虚拟深度块的像素子集的最大值视差转换,其中,虚拟深度块是由使用NBDV导出的DV来定位。此用于DV导出的编码工具被称为DoNBDV。
于HEVC中,用于表示块的运动参数的两个不同模式被指定。于被称为自适应运动向量预测(adaptive motion vector prediction,AMVP)模式的第一模式中,运动假设的数量、参考索引、运动向量差值、以及指定已使用的运动向量预测子的指示(indication)被编码于比特流中。第二模式被称为合并模式。对于此模式,只有一个指示被编码,该指示表示用于块的一组运动参数。于当前3D-HEVC中,在收集AMVP的运动假设的过程中,如果空间相邻(spatial neighbor)块的参考图片类型与当前PU(视图间或时间)的参考图片类型相同,且空间相邻块的参考图片的图片顺序计数(picture order count,POC)等于当前PU的参考图片的POC,空间相邻块的运动信息被直接用作当前PU的运动假设。
于现有的方案中,由已导出DV指向的视图间参考图片可能不会被包括于当前PU的参考图片列表中。因此,当VSP模式可能仍然被选择(即,VSP旗标可被设置为真(true))时,然而,如果由已导出DV指向的视图间参考图片不被包括于当前PU的参考图片列表中,VSP过程不会被执行。在此情况下,如果VSP模式得到选择,VSP模式不会具有任何有效的运动信息。其结果是,编码器与解码器之间的不匹配将发生。
此外,于现有的3D-HEVC中,NBDV导出过程检查与空间以及时间相邻块相关联的DV的可用性。如果没有DV可从相邻块导出,则使用指向基础视图(视图索引等于0)的具有零值向量(zero-valued vector)的默认DV。由NBDV导出的DV可进一步由DoNBDV过程使用以导出细化的DV。根据HTM-8.0的NBDV(步骤1-2)以及DoNBDV(步骤3)的视差向量导出过程的示例如下所示。
1.DV初始设置为(0、0)。
2.NBDV导出被执行如下。
a)搜寻时间相邻块以确定是否能于这些时间相邻块中找到DV。一旦DV被找到,所找到的DV被用作NBDV过程的输出,且此过程被终止。于HTM-8.0中,两个时间相邻块被使用,包括同位图片中的同位(co-located)块以及随机访问点(Random Access Point,RAP)图片中的同位块,其中,分别与同位图片以及RAP图片的中央块相对应的两个同位块如图4A所示。
b)搜寻空间相邻块(即,如图4B所示的块A1以及块B1)以确定是否能从这些空间相邻块中找到DV。一旦DV被找到,所找到的DV被用作NBDV过程的输出,且此过程被终止。
c)搜寻空间相邻块(即,如图4B所示的块A1以及块B1)以确定是否能从这些空间相邻块中找到。本征视差向量是从空间相邻DV-MCP块获取的视差信息,其运动是从视图间参考图片的对应块来预测,其中,对应块的位置是由如图3所示的视差向量来指定的。用于DV-MCP块的视差向量表示当前以及视图间参考图片之间的运动对应。一旦本征DV被找到,所找到的DV被用作NBDV过程的输出,且此过程被终止。
d)如果仍然没有DV被找到,具有零视图索引的零向量被用作NBDV过程的默认输出。
3.如果指示NBDV是否进一步从深度图中细化的旗标(即,depth_refinement_flag)等于1,则细化的NBDV(DVref)被推导如下。
a)通过使用NBDV找到参考视图的对应深度块,
b)选择对应深度块中的代表深度值(representative depth value),以及
c)将代表深度值转换为视差向量。
于当前3D-HEVC中,根据预定义的顺序,NBDV被用于从空间或时间相邻块导出DV。当没有DV能从相邻块中导出时,使用指向基础视图(视图索引等于0)的具有零向量的默认DV。然而,这可能会导致基础视图参考图片不被包括于当前图像单元(例如,条带或最大编码单元)的参考图片列表中。于此条件下,默认DV可能会指向不存在的参考图片,且由于此无效的视图索引可能会导致编码器以及解码器之间的不匹配。
【发明内容】
本发明揭露了一种使用统一的视差向量(unified disparity vector)导出的三维或多视图视频编码或解码系统的方法及装置。当使用已导出的视差向量(disparityvector,DV)的三维编码工具被选择时,根据本发明的实施例将首先从当前块的一个或多个相邻块中获得已导出DV。如果已导出DV是可用的,则使用已导出DV将已选择的三维编码工具应用到当前块。如果已导出DV不可用,则使用默认DV将已选择的三维编码工具应用到当前块,其中,默认DV被设置为指向当前块的参考图片列表中的视图间参考图片。如果已导出DV不可用且没有视图间参考图片能于当前块的任何参考图片列表中被找到,默认DV可被设置为对应于-1的默认视图索引,其表示已选择的三维编码工具将被禁用。默认DV可被确定于每个条带等级或每个图片等级。在一些实施例中,如果第一视图中与已导出DV相关联的第一视图间参考图片位于当前块的一个参考图片列表中,则已导出DV是可用的。用于当前块的已导出DV可以从当前块的一个或多个空间相邻块、当前块的一个或多个时间相邻块、或当前块的一个或多个空间以及一个或多个时间相邻块中被导出。
本发明的一个方面解决了用于默认DV的视图索引选择的问题。默认DV的视图索引可以被设置为当前条带或图片中具有最小视图索引的视图间参考图片的视图索引。默认DV的视图索引还可被设置为当前条带或图片的任何视图间参考图片的视图索引。于又一示例中,默认DV的视图索引被设置为当前条带或图片中具有最接近的视图索引(nearest viewindex)的视图间参考图片的视图索引,其中,最接近的视图索引是基于当前条带或图片的所述参考图片列表中的视图索引差值或视图距离来测量。此外,默认DV的视图索引可被设置为具有最小量化参数(quantization parameter)的视图间参考图片的视图索引。
在另一实施例中,默认DV的视图索引被设置为根据搜寻顺序(search order)于搜寻组中首先被找到的视图间参考图片的视图索引。搜寻组包括当前块的一个或两个参考列表中的所有视图间参考图片,且搜寻顺序从零图片索引开始到最大参考图片索引。于当前块对应于B条带中的预测单元(prediction unit,PU)时,参考列表-0中的视图间参考图片于参考列表-1中的视图间参考图片之前或之后被搜寻,或视图间参考图片可以参考列表-0以及参考列表-1之间的交错顺序(interleaved order)被搜寻。
本发明的另一方面解决用于默认DV的向量值的问题。默认DV的向量值可被设置为零向量或默认向量。默认向量可被设置为从默认深度值导出的已转换视差。默认深度值可被显式地传送或隐式地确定以用于编码器以及解码器。默认深度值可以基于有效深度值的中值(middle value)、平均值、或中间值(medium value),或基于占主导地位的深度值(dominant depth value)来确定。占主导地位的深度值是基于先前重建的深度值的统计(statistic)来确定。
默认向量还可被设置为来自默认视差值的已选择视差。默认视差值可以被显式地传送或隐式地确定以用于编码器以及解码器。已选择视差可基于此组默认视差值的中值、平均值、或中间值,或基于占主导地位的视差值来确定。占主导地位的视差值是基于先前重建视差向量的统计来确定。
【附图说明】
图1所示为结合DCP作为MCP替代的三维视频编码的示例。
图2A至图2B所示为属于一组根据3D-HEVC测试模型HTM-7.0用于VSP合并候选导出的当前块的空间相邻块的示例。
图3所示为DV-MCP块的示例,其中,对应块的位置是通过视差向量来指定。
图4A至图4B所示为属于一组根据3D-HEVC测试模型HTM-8.0用于VSP合并候选导出的当前块的时间以及空间相邻块的示例。
图5所示为根据本发明实施例的使用统一的视差向量导出的三维或多视图视频编码或解码的示范性流程图。
【具体实施方式】
如以上所描述的,视差向量(disparity vector,DV)被广泛地用于三维视频编码系统的各种编码工具。然而,由已导出DV指向的视图间参考图片可能不被包含于当前块(例如,预测单元(prediction unit,PU))的参考图片列表中。如果在此情况下视图合成预测(View Synthesis Prediction,VSP)模式被选择,则VSP过程可能不会被正确地执行。此外,如果基础视图参考图片没有被包括于当前图像单元(例如,条带或最大编码单元)的参考图片列表中,对应于指向基础视图的零值向量的默认DV可能会引发问题。
因此,本发明的实施例揭露了一种视差向量导出过程,其可以导出视差向量或默认视差向量而避免出现现有方法中出现的问题。于第一实施例中,如果没有可用的DV或没有视图间参考图片的视图索引等于当前块(例如,PU)的参考图片列表的已导出DV的视图索引,则VSP旗标被设置为“假(false)”。换句话说,VSP模式被禁用于当前块。
于当前3D-HEVC中,当没有DV能根据DV导出过程(例如:相邻块视差向量(Neighboring Block Disparity Vector,NBDV))被找到,则默认视图索引被设置为零。然而,具有零视图索引的视图间参考图片可能不在参考图片列表中。因此,在此情况下,具有零视图索引的默认DV变为无效的。因此,本发明的另一组实施例修改由现有方法使用的参考视图索引以避免这个问题。于本发明的第二实施例中,默认DV的向量被设置为默认值(例如,零向量),且参考视图索引被设置为当前条带或图片的参考图片列表中的视图间参考图片的最小视图索引。于第三实施例中,默认DV的向量被设置为默认值(例如,零向量),且参考视图索引被设置为在视图距离方面最接近的一个视图间参考图片的视图索引。如果多于一个视图间参考图片具有相同的最接近的视图距离,则选择具有较小视图索引的一个视图间参考图片。于第四实施例中,默认DV的向量被设置为默认值(例如,零向量),且参考视图索引被设置为当前PU的参考图片列表中任何视图间参考图片的视图索引。因此,由从NBDV导出的DV所指向的视图间参考图片总是对应于当前图片的参考图片列表中的视图间参考图片。当没有视图间参考图片存在于当前PU的参考图片列表中,默认视图索引被设置为-1以指示已导出DV是无效的。在此情况下,当与已导出DV相关联的视图索引等于-1时,VSP模式不允许被用于当前PU。
于第五实施例中,默认DV的参考视图索引被设置为当前条带/图片的参考图片列表中视图间参考图片的最小视图索引。默认DV的向量被设置为由默认深度值(例如,有效深度值的中值或平均值,或占主导地位的深度值)转换的DV。具体地,DV是通过计算当前视图以及对应视图之间的投影向量(projection vector)来转换,对应视图是通过照相机参数的帮助,由指定给默认DV的视图索引来识别的。
于第六实施例中,默认DV的向量被设置为默认值(例如,零向量),且默认DV的参考视图索引被设置为在当前条带/图片的参考图片列表中的视图索引的差值或视图距离方面最接近的一个图间参考图片的视图索引。如果多于一个视图间参考图片具有最接近的视图距离,则选择具有较小视图索引的一个视图间参考图片。默认DV的向量被设置为由默认深度值(例如:有效深度值的中值或平均值或占主导地位的深度值)转换的DV。具体地,DV是通过计算当前视图以及对应视图之间的投影向量来转换,对应视图是通过照相机参数的帮助,由指定给默认DV的视图索引来识别的。
于第七实施例中,通过于参考图片列表0以及列表1中从具有参考索引零的参考图片搜寻到具有最大参考索引的参考图片,默认DV的视图索引被设置为第一视图间参考图片的视图索引。列表0以及列表1的搜寻顺序可对应于首先搜寻列表0中所有参考图片,然后搜寻列表1中所有参考图片。列表0以及列表1的搜寻顺序也可以是交错搜寻,即,交替地搜寻列表0以及列表1。默认DV的向量被设置为默认向量(例如:零向量)。
于第八实施例中,通过于参考图片列表0以及列表1中从具有参考索引零的参考图片搜寻到具有最大参考索引的参考图片,默认DV的视图索引被设置为第一视图间参考图片,其中,第一视图间参考图片是指最前面的视图间参考图片或最先被找到的视图间参考图片。列表0以及列表1的搜寻顺序可对应于首先搜寻列表0中所有参考图片,然后搜寻列表1中所有参考图片。默认DV的向量被设置为由默认深度值(例如:有效深度值的中值或平均值或占主导地位的深度值)转换的DV。具体地,DV是通过计算当前视图以及对应视图之间的投影向量来转换,对应视图是通过照相机参数的帮助,由指定给默认DV的视图索引来识别的。当没有视图间参考图片被包括于当前条带/图片的参考图片列表中,使用已导出DV的编码工具(例如:VSP、视图间残差预测、以及高级残差预测(advanced residual prediction,ARP))将不被允许。在此情况下,与已导出DV相关联的视图索引被设置为-1。
选择用于默认DV的有效视图索引的多个示例已经阐述如上。然而,这些示例并不意味着用于提供有效视图索引选择的的全面列表。本领域技术人员可以选择其它有效的用于默认DV的视图索引。例如,默认DV的视图索引可被设置为具有较小量化参数的视图间参考图片的视图索引。如果多于一个视图间参考图片具有相同的较小量化参数,则选择具有较小视图索引的一个。
本发明的另一方面解决句法设计的问题,以支持所需要的修改来克服现有系统的问题。因此,于第九实施例中,支持所需修改的示范性句法设计如下所示。
当没有DV是可用的时,参考视图索引(即,refViewIdx)被设置为等于0,且视差向量(即,mvDisp)被设置为等于默认值(即,(0、0))。细化的视差DV(即,mvRefinedDisp)的变量等于mvDisp。
for(Vid=0,foundFlag=0;Vid<ViewIdx&&!foundFlag;Vid++) (a)
for(X=0;X<(the current slice is a B slice?2:1)&&!foundFlag;X++)(b)
for(i=0;i<NumRefPicsLX&&!foundFlag;i++)(c)
When ViewIdx(RefPicListX[i])is equal to Vid and PicOrderCnt(RefPicListX[i])==PicOrderCnt of the current picture,refViewIdx is setequal to Vid and foundFlag is set equal to 1.(d)
于以上句法中,foundFlag为指示视图间参考图片是否于参考图片列表中被找到的旗标。句法的循环(Loop)(a)是与搜寻所有视图(即,从Vid=0到Vid=ViewIdx-1,其中,ViewIdx为视图的数量)相关联。当视图间参考图片于参考图片列表中被找到时,循环(a)被终止(由“!foundFlag”来指示)。句法的循环(b)是与参考列表相关联。对于B图片,使用两个参考列表,否则,使用一个参考列表。而且,当视图间参考图片于参考图片列表中被找到时,循环(b)被终止(由“!foundFlag”来指示)。句法的循环(c)是与搜寻对应参考列表中的所有参考图片(即,从i=0到i=NumRefPicsLX-1,其中,NumRefPicsLX为参考列表LX中参考图片的数量)相关联。当视图间参考图片于参考图片列表中被找到时,循环(c)被终止(由“!foundFlag”来指示)。于过程(d)中,检查参考列表(即,RefPicListX[i])中底层参考图片的图片顺序计数(picture order count,POC)是否等于当前图片的POC。如果是,默认DV的参考视图索引(即,refViewIdx)被设置为视图间参考图片的视图索引(即,Vid),且foundFlag被设置为1以终止此过程。
于第十实施例中,支持所需要修改的另一示范性句法设计如下所示。
当没有DV是可用的时,参考视图索引(即,refViewIdx)被设置为等于0,且视差向量(即,mvDisp)被设置为等于默认值(即,(0、0))。细化的视差DV(即,mvRefinedDisp)的变量等于mvDisp。
for(Vid=0,foundFlag=0;Vid<ViewIdx&&!foundFlag;Vid++) (a)
for(X=0;X<(the current slice is a B slice?2:1)&&!foundFlag;X++) (b)
for(i=0;i<NumRefPicsLX&&!foundFlag;i++) (c)
When ViewIdx(RefPicListX[i])is equal to Vid and PicOrderCnt(RefPicListX[i])==PicOrderCnt of the current picture,refViewIdx is setequal to Vid and foundFlag is set equal to 1. (e)
于以上句法中,循环(a)到循环(c)也被用作为先前的实施例。于过程(e)中,检查参考列表(即,RefPicListX[i])中的底层参考图片的视图索引是否等于底层视图索引。如果是,默认DV的参考视图索引(即,refViewIdx)被设置为底层视图索引(即,Vid),且foundFlag被设置为1以终止此过程。变量Vid从0开始并于每个迭代递增。根据以上句法,指定给默认DV的视图索引对应于最小的视图索引。
图5所示为根据本发明实施例的使用统一的视差向量导出的三维或多视图视频编码或解码的示范性流程图。如步骤510所示,系统接收与附属视图中当前块相关联的输入数据。输入数据可对应于未编码或已编码的纹理数据。输入数据可从存储器(例如:计算机存储器、缓冲器(RAM或DRAM)或其它媒体)中获取。视频比特流还可从处理器(例如:控制器、中央处理单元、数字信号处理器或、产生输入数据的电子电路)接收。于步骤520中,已选择的三维编码工具被选择,其中,三维编码工具使用已导出DV。于步骤530中,导出用于当前块的已导出DV。于步骤540中,检查已导出DV的可用性。如果已导出DV是可用的(即,“是”路径),于步骤550中,使用已导出DV将已选择的三维编码工具应用于当前块。如果已导出DV不可用(即,“否”路径),于步骤560中,使用默认DV将已选择的三维编码工具应用于当前块,其中,默认DV被设置为指向当前块的一个参考图片列表的第二视图间参考图片。
以上所示的流程图旨在说明统一的视差向量导出的示例。本领域技术人员可以在不脱离本发明的精神实质的情况下修改每个步骤,重新排列所述步骤,分割步骤,或合并步骤来实施本发明。
在本发明的实施例中,与附属视图中当前块相关联的输入数据被接收。输入数据可对应于未编码或已编码的纹理数据。输入数据可从存储器(例如:计算机存储器、缓冲器(RAM或DRAM)或其它媒体)中获取。视频比特流还可从处理器(例如:控制器、中央处理单元、数字信号处理器或、产生输入数据的电子电路)接收。使用已导出DV的已选择的三维编码工具被确定,其中,用于当前块的已导出DV是从当前块的一个或多个空间相邻块以及一个或多个时间相邻块中获得。如果已导出DV是可用的,使用已导出DV将已选择的三维编码工具被应用于当前块。如果已导出DV不可用,则使用默认DV将已选择的三维编码工具应用于当前块,其中,默认DV被设置为指向当前块的一个参考图片列表中的视图间参考图片。通过检查第一视图中的第一视图间参考图片是否与当前块的一个参考图片列表中的已导出DV相关联,可确定已导出DV的可用性。
以上描述可使本领域的普通技术人员如特定应用及其要求的上下文提供的来实践本发明。对本领域技术人员来说,对所描述的实施例的各种修改是显而易见的,且本文定义的一般原理可被应用于其它实施例。因此,本发明并非意在限定于以上所示及所描述的特定实施例,而是要符合与此公开揭露的原理和新颖特征相一致的最宽范围。在以上详细描述中,各种具体细节被示出以便提供本发明的彻底理解。然而,本领域技术人员应知晓本发明是可被实践的。
如上所述,本发明的实施例可以由各种硬件,软件代码,或两者的组合来实现。例如,本发明的实施例可以是被集成到视频压缩芯片电路,或被集成于视频压缩软件的程序代码以执行本文所描述的处理过程。本发明的实施例还可以是执行于数字信号处理器上的程序代码,以执行本文所描述的处理过程。本发明还可包含由计算机处理器,数字信号处理器,微处理器,或现场可编程门阵列执行的多个功能。根据本发明,通过执行定义本发明所体现的特定方法的机器可读软件代码或固件代码,这些处理器可被配置为执行特定任务。软件代码或固件代码可被开发为不同的编程语言以及不同的格式或风格。软件代码还可被编译以用于不同的目标平台。然而,根据本发明的不同的软件代码的代码格式、风格及语言,以及用于配置代码以执行任务的其他方式,均不会背离本发明的精神以及范围。
在不脱离其精神或本质特征的情况下,本发明可以其它特定形式来体现。所描述的示例在所考虑的所有的方面都只是说明性的而不是限制性的。因此,本发明的范围是由其所附的权利要求来指示的,而不是由上文的描述来指示的。在权利要求的等效范围及含义内的所有改变均包含于本发明范围之内。

Claims (22)

1.一种三维以及多视图视频编码中导出默认视差向量的方法,其特征在于,所述方法包括:
接收与附属视图中当前块相关联的输入数据;
确定已选择的三维编码工具,其中,所述三维编码工具使用已导出视差向量;
从所述当前块的一个或多个相邻块中导出用于所述当前块的所述已导出视差向量;
如果所述已导出视差向量是可用的,使用所述已导出视差向量将所述已选择的三维编码工具应用到所述当前块;以及
如果所述已导出视差向量不可用,使用默认视差向量将所述已选择的三维编码工具应用到所述当前块,其中,所述默认视差向量被设置为指向所述当前块的一个参考图片列表中的视图间参考图片。
2.如权利要求1所述的三维以及多视图视频编码中导出默认视差向量的方法,其特征在于,如果第一视图中与所述已导出视差向量相关联的第一视图间参考图片位于所述当前块的一个参考图片列表中,则所述已导出视差向量是可用的。
3.如权利要求1所述的三维以及多视图视频编码中导出默认视差向量的方法,其特征在于,所述已选择的三维编码工具对应于视图合成预测。
4.如权利要求1所述的三维以及多视图视频编码中导出默认视差向量的方法,其特征在于,所述默认视差向量的默认视图索引被设置为当前条带或图片中具有最小视图索引的一个视图间参考图片的视图索引,以及其中,所述当前条带或图片包含所述当前块。
5.如权利要求1所述的三维以及多视图视频编码中导出默认视差向量的方法,其特征在于,所述默认视差向量的默认视图索引被设置为所述当前块的一个参考图片列表中的任何视图间参考图片的视图索引。
6.如权利要求1所述的三维以及多视图视频编码中导出默认视差向量的方法,其特征在于,所述默认视差向量的默认视图索引被设置为当前条带或图片中具有最接近的视图索引的一个视图间参考图片的视图索引,其中,所述最接近的视图索引是基于所述当前条带或图片的所述参考图片列表中的视图索引差值或视图距离来测量,以及所述当前条带或图片包含所述当前块。
7.如权利要求1所述的三维以及多视图视频编码中导出默认视差向量的方法,其特征在于,如果所述已导出视差向量不可用且如果没有视图间参考图片能于所述当前块的任何参考图片列表中被找到,所述默认视差向量被设置为对应于-1的默认视图索引。
8.如权利要求1所述的三维以及多视图视频编码中导出默认视差向量的方法,其特征在于,如果所述已导出视差向量不可用且如果没有视图间参考图片能于所述当前块的任何参考图片列表中被找到,所述已选择的三维编码工具被禁用。
9.如权利要求1所述的三维以及多视图视频编码中导出默认视差向量的方法,其特征在于,所述默认视差向量的默认视图索引被设置为具有最小量化参数的一个视图间参考图片的视图索引。
10.如权利要求1所述的三维以及多视图视频编码中导出默认视差向量的方法,其特征在于,所述默认视差向量的默认视图索引被设置为根据搜寻顺序于搜寻组中首先被找到的一个视图间参考图片的视图索引,其中,所述搜寻组包括所述当前块的一个或两个参考列表中的所有视图间参考图片,以及其中,所述搜寻顺序是从零图片索引开始到最大参考图片索引。
11.如权利要求10所述的三维以及多视图视频编码中导出默认视差向量的方法,其特征在于,当所述当前块对应于B条带中的预测单元时,所述搜寻组包括所述当前块的参考列表-0以及参考列表-1中的所有视图间参考图片,以及其中,所述参考列表-0的视图间参考图片于所述参考列表-1的视图间参考图片之前或之后被搜寻,或所述视图间参考图片以所述参考列表-0以及所述参考列表-1之间的交错顺序被搜寻。
12.如权利要求1所述的三维以及多视图视频编码中导出默认视差向量的方法,其特征在于,所述默认视差向量的默认视图索引被设置为根据搜寻顺序于搜寻组中首先被找到的一个视图间参考图片的视图索引,其中,所述搜寻组包括所述当前块的一个或两个参考列表中的所有视图间参考图片,以及其中,所述搜寻顺序从零视图索引开始到当前视图索引减1。
13.如权利要求12所述的三维以及多视图视频编码中导出默认视差向量的方法,其特征在于,当所述当前块对应于B条带中的预测单元时,所述搜寻组包括所述当前块的参考列表-0以及参考列表-1中的所有视图间参考图片,以及其中,所述搜寻顺序从所述零图片索引开始到最大参考图片索引,以及其中,所述参考列表-0的视图间参考图片于所述参考列表-1的视图间参考图片之前或之后被搜寻,或所述视图间参考图片以所述参考列表-0以及所述参考列表-1之间的交错顺序被搜寻。
14.如权利要求1所述的三维以及多视图视频编码中导出默认视差向量的方法,其特征在于,所述默认视差向量的向量值被设置为零向量或默认向量。
15.如权利要求14所述的三维以及多视图视频编码中导出默认视差向量的方法,其特征在于,所述默认向量是从由默认深度值转换的已转换视差中导出。
16.如权利要求15所述的三维以及多视图视频编码中导出默认视差向量的方法,其特征在于,所述默认深度值被显式地传送或隐式地确定以用于编码器以及解码器。
17.如权利要求15所述的三维以及多视图视频编码中导出默认视差向量的方法,其特征在于,所述默认深度值基于有效深度值的中值、平均值、或中间值,或基于占主导地位的深度值来确定。
18.如权利要求17所述的三维以及多视图视频编码中导出默认视差向量的方法,其特征在于,所述占主导地位的深度值是基于先前重建的深度值的统计来确定。
19.如权利要求14所述的三维以及多视图视频编码中导出默认视差向量的方法,其特征在于,所述默认向量被设置为来自默认视差值的已选择视差。
20.如权利要求1所述的三维以及多视图视频编码中导出默认视差向量的方法,其特征在于,所述默认视差向量被确定于每个条带等级或每个图片等级。
21.如权利要求1所述的三维以及多视图视频编码中导出默认视差向量的方法,其特征在于,用于所述当前块的所述已导出视差向量是从所述当前块的一个或多个空间相邻块、所述当前块的一个或多个时间相邻块、或所述当前块的一个或多个空间以及一个或多个时间相邻块中导出。
22.一种三维以及多视图视频编码中导出默认视差向量的装置,其特征在于,所述装置包括:
接收与附属视图中当前块相关联的输入数据的电路;
确定已选择的三维编码工具的电路,其中,所述三维编码工具使用已导出视差向量;
从所述当前块的一个或多个空间相邻块以及一个或多个时间相邻块中导出用于所述当前块的所述已导出视差向量的电路;
如果所述已导出视差向量是可用的,则使用所述已导出视差向量将所述已选择的三维编码工具应用到所述当前块的电路;以及
如果所述已导出视差向量不可用,则使用默认视差向量将所述已选择的三维编码工具应用到所述当前块的电路,其中,所述默认视差向量被设置为指向所述当前块的一个参考图片列表中的视图间参考图片。
CN201480043802.9A 2013-08-13 2014-08-13 三维以及多视图视频编码中导出默认视差向量的方法 Active CN105453561B (zh)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201361865346P 2013-08-13 2013-08-13
US61/865,346 2013-08-13
US201361895468P 2013-10-25 2013-10-25
US61/895,468 2013-10-25
PCT/CN2014/084240 WO2015021914A1 (en) 2013-08-13 2014-08-13 Method of deriving default disparity vector in 3d and multiview video coding

Publications (2)

Publication Number Publication Date
CN105453561A CN105453561A (zh) 2016-03-30
CN105453561B true CN105453561B (zh) 2018-10-26

Family

ID=52468061

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201480043802.9A Active CN105453561B (zh) 2013-08-13 2014-08-13 三维以及多视图视频编码中导出默认视差向量的方法

Country Status (5)

Country Link
US (1) US10230937B2 (zh)
EP (1) EP3025498B1 (zh)
CN (1) CN105453561B (zh)
CA (1) CA2920413C (zh)
WO (1) WO2015021914A1 (zh)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014005280A1 (en) * 2012-07-03 2014-01-09 Mediatek Singapore Pte. Ltd. Method and apparatus to improve and simplify inter-view motion vector prediction and disparity vector prediction
EP3025498B1 (en) 2013-08-13 2019-01-16 HFI Innovation Inc. Method of deriving default disparity vector in 3d and multiview video coding
WO2015100710A1 (en) * 2014-01-02 2015-07-09 Mediatek Singapore Pte. Ltd. Existence of inter-view reference picture and availability of 3dvc coding tools
US10194163B2 (en) 2014-05-22 2019-01-29 Brain Corporation Apparatus and methods for real time estimation of differential motion in live video
US9713982B2 (en) * 2014-05-22 2017-07-25 Brain Corporation Apparatus and methods for robotic operation using video imagery
US9939253B2 (en) 2014-05-22 2018-04-10 Brain Corporation Apparatus and methods for distance estimation using multiple image sensors
US10032280B2 (en) 2014-09-19 2018-07-24 Brain Corporation Apparatus and methods for tracking salient features
US10587894B2 (en) * 2014-10-08 2020-03-10 Lg Electronics Inc. Method and device for encoding/decoding 3D video
US10197664B2 (en) 2015-07-20 2019-02-05 Brain Corporation Apparatus and methods for detection of objects using broadband signals
JP2022507874A (ja) * 2018-11-20 2022-01-18 インターデイジタル ヴィーシー ホールディングス インコーポレイテッド 二重木を伴う現ピクチャ参照ブロックベクトル初期化
CN113826386B (zh) 2019-05-11 2023-10-24 北京字节跳动网络技术有限公司 视频处理中编解码工具的选择性使用
JP7322277B2 (ja) 2019-07-27 2023-08-07 北京字節跳動網絡技術有限公司 参照ピクチャタイプに従ったツールの使用制限
WO2021068954A1 (en) 2019-10-12 2021-04-15 Beijing Bytedance Network Technology Co., Ltd. High level syntax for video coding tools

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101056398A (zh) * 2006-03-29 2007-10-17 清华大学 一种多视编码过程中获取视差矢量的方法及编解码方法
CN101415115A (zh) * 2007-10-15 2009-04-22 华为技术有限公司 基于运动跳跃模式的视频编解码方法及其编解码器

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6055274A (en) 1997-12-30 2000-04-25 Intel Corporation Method and apparatus for compressing multi-view video
CN101222639B (zh) 2007-01-09 2010-04-21 华为技术有限公司 多视点视频技术中的视间预测方法、编码器和解码器
KR20080066522A (ko) 2007-01-11 2008-07-16 삼성전자주식회사 다시점 영상의 부호화, 복호화 방법 및 장치
US9973739B2 (en) * 2008-10-17 2018-05-15 Nokia Technologies Oy Sharing of motion vector in 3D video coding
RU2583040C2 (ru) 2011-08-30 2016-05-10 Нокиа Текнолоджиз Ой Устройство, способ и компьютерная программа для кодирования и декодирования видеосигналов
JP2013102297A (ja) * 2011-11-07 2013-05-23 Canon Inc 画像符号化方法、画像符号化装置及びプログラム、画像復号方法、画像復号装置及びプログラム
EP3025498B1 (en) 2013-08-13 2019-01-16 HFI Innovation Inc. Method of deriving default disparity vector in 3d and multiview video coding

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101056398A (zh) * 2006-03-29 2007-10-17 清华大学 一种多视编码过程中获取视差矢量的方法及编解码方法
CN101415115A (zh) * 2007-10-15 2009-04-22 华为技术有限公司 基于运动跳跃模式的视频编解码方法及其编解码器

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
《3D-CE2.h related: Bug fix for issues caused by reference view selection》;Na Zhang ET AL;《JCT-3V MEETING》;20130802;全文 *
《3D-HEVC Draft Text 1》;Gerhard Tech;《JCT-3V MEETING》;20130802;全文 *
《3D-HEVC Test Model 1》;Gerhard Tech;《JCT-3V MEETING》;20120720;第10页2.2.1部分,第11页2.2.2部分,第13页2.2.3.1部分,第17-18页2.2.3.2部分,第21页2.2.5.2部分,以及图4 *

Also Published As

Publication number Publication date
CA2920413C (en) 2019-05-14
WO2015021914A1 (en) 2015-02-19
EP3025498A1 (en) 2016-06-01
EP3025498B1 (en) 2019-01-16
US10230937B2 (en) 2019-03-12
EP3025498A4 (en) 2017-01-04
CN105453561A (zh) 2016-03-30
CA2920413A1 (en) 2015-02-19
US20160182884A1 (en) 2016-06-23

Similar Documents

Publication Publication Date Title
CN105453561B (zh) 三维以及多视图视频编码中导出默认视差向量的方法
KR101753171B1 (ko) 3d 비디오 코딩에서의 간략화된 뷰 합성 예측 방법
CN104412597B (zh) 用于3d视频编码的统一视差矢量推导的方法及装置
EP3059970B1 (en) Method predicting view synthesis in multi-view video coding and method for constituting merge candidate list by using same
KR101706309B1 (ko) 3차원 비디오 코딩을 위한 뷰간 후보자 유도 방법 및 장치
CN104718760B (zh) 用于三维和多视图视频编码的方法和装置
KR101638752B1 (ko) 3d 비디오 코딩에서 변이 벡터 도출을 제한하는 방법
CN104429074B (zh) 3d视频编码中视差矢量导出的方法和装置
CN106105191A (zh) 用于处理多视图视频信号的方法和装置
WO2014107853A1 (en) Methods for disparity vector derivation
CN105474640B (zh) 三维视频编码的摄像机参数发信的方法和装置
US10110923B2 (en) Method of reference view selection for 3D video coding
CN104685882A (zh) 用于处理3d场景的一个或更多个视频的方法
CN104704819A (zh) 3d视频编码的视差矢量推导和视图间运动矢量预测的方法及装置
JP2016501469A (ja) 3dビデオ符号化における制約される視差ベクトル導出の方法と装置
CN104919799A (zh) 用于三维视频编解码的从深度到视差矢量转换的方法和装置
Zhang et al. Inter-view motion prediction in 3D-HEVC
CN105637871B (zh) 三维或多视图视频编码方法
CN105144714B (zh) 三维或多视图视频编码或解码的方法及装置
CN105432084B (zh) 用于三维视频编码的参考视图选择的方法
CN105247862A (zh) 三维视频编码中的视点合成预测的方法及装置
CN105812819B (zh) 执行混成多重假设移动补偿预测的方法以及装置
CN105474643A (zh) 3d视频编码中简化的视图合成预测的方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C41 Transfer of patent application or patent right or utility model
TA01 Transfer of patent application right

Effective date of registration: 20160908

Address after: Chinese Taiwan jhubei City, Hsinchu County Taiwan Yuan Street No. five 3 floor 7

Applicant after: Atlas Limited by Share Ltd

Address before: Hsinchu Science Park Road Taiwan Hsinchu city China Dusing No. 1

Applicant before: MediaTek.Inc

GR01 Patent grant
GR01 Patent grant