CN108965888A - 针对多视图视频信号生成合并候选列表的方法及解码装置 - Google Patents

针对多视图视频信号生成合并候选列表的方法及解码装置 Download PDF

Info

Publication number
CN108965888A
CN108965888A CN201810764534.XA CN201810764534A CN108965888A CN 108965888 A CN108965888 A CN 108965888A CN 201810764534 A CN201810764534 A CN 201810764534A CN 108965888 A CN108965888 A CN 108965888A
Authority
CN
China
Prior art keywords
view
block
candidate
current block
merging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201810764534.XA
Other languages
English (en)
Other versions
CN108965888B (zh
Inventor
李培根
金柱英
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KT Corp
Original Assignee
KT Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KT Corp filed Critical KT Corp
Publication of CN108965888A publication Critical patent/CN108965888A/zh
Application granted granted Critical
Publication of CN108965888B publication Critical patent/CN108965888B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/161Encoding, multiplexing or demultiplexing different image signal components
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • H04N19/139Analysis of motion vectors, e.g. their magnitude, direction, variance or reliability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0085Motion estimation from stereoscopic image signals

Abstract

针对多视图视频信号生成合并候选列表的方法及解码装置。该方法包括:针对当前视图中的当前块生成合并候选列表,其包括至少一个合并候选,合并候选包括空间相邻块和时间相邻块中的至少之一,空间相邻块包括左、上、右上、左下和左上相邻块中的至少之一,时间相邻块是位于并置图片中的与当前块相同的位置处的块;从比特流获得照明补偿标记,其指示是否对当前块执行照明补偿;基于照明补偿标记确定是否对当前块执行照明补偿;以及通过将至少一个视图间合并候选添加到合并候选列表来生成最终合并候选列表,至少一个视图间合并候选包括视图间运动候选,当照明补偿标记指示不对当前块执行照明补偿时,视图间运动候选被包括在最终合并候选列表中。

Description

针对多视图视频信号生成合并候选列表的方法及解码装置
本申请是申请日为2015年3月18日、申请号为“201580014887.2”、发明名称为“用于处理多视图视频信号的方法和装置”的发明专利申请的分案申请。
技术领域
本发明涉及用于对视频信号进行编码的方法和装置。
背景技术
近来在各种应用领域中对高分辨率、高质量视频例如高清晰度(HD)视频和超高清晰度(UHD)视频的需求已经提高。当视频数据具有更高分辨率和更高质量时,视频数据在量上大于传统视频数据。因而,如果在现有介质例如有线/无线宽带电路上传输视频数据或者在现有存储介质中存储视频数据,则传输成本和存储成本增大。为了避免高分辨率、高质量视频数据所遇到的这些问题,可以使用高效视频压缩技术。
存在各种视频压缩技术,包括:图片间预测,其中,根据当前图片之前的图片或者当前图片之后的图片来预测当前图片中包括的像素值;图片内预测,其中,使用当前图片内的像素信息来预测当前图片中包括的像素值;以及熵编码,其中,短代码被分配给较频繁的值并且长代码被分配给不太频繁的值。使用这样的视频压缩技术,可以高效地压缩视频数据并且对其进行传输或者存储。
伴随对高分辨率视频的增长的需求,对作为新的视频服务的三维(3D)视频内容的需求也增长。正在讨论用于高效地提供HD和UHD 3D视频内容的视频压缩技术。
发明内容
技术问题
本发明的目的是提供用于当对多视图视频信号进行编码/解码时使用视差向量来执行视图间预测的方法和装置。
本发明的另一目的是提供用于当对多视图视频信号进行编码/解码时使用深度块的深度数据来得出纹理块的视差向量的方法和装置。
本发明的另一目的是提供用于当对多视图视频信号进行编码/解码时根据当前块的相邻块来得出视差向量的方法和装置。
本发明的另一目的是提供用于当对多视图视频信号进行编码/解码时使用视差向量来得出视图间合并候选的方法和装置。
本发明的另一目的是提供用于当对多视图视频信号进行编码/解码时针对合并模式配置合并候选列表的方法和装置。
本发明的另一目的是提供用于当对多视图视频信号进行编码/解码时考虑照明补偿来选择性地使用视图间运动候选的方法和装置。
本发明的另一目的是提供用于当对多视图视频信号进行编码/解码时考虑照明补偿来确定在合并候选列表中布置合并候选的顺序的方法和装置。
技术方案
根据本发明的一种用于对多视图视频信号进行解码的方法和装置的特征在于:生成针对当前块的合并候选列表;基于从比特流获得的当前块的合并索引来得出当前块的运动向量;使用所得出的运动向量来获得当前块的预测值;以及通过将当前块的所获得的预测值和残差值相加来重建当前块。
根据本发明的用于对多视图视频信号进行解码的方法和装置的特征在于:合并候选列表包括至少一个合并候选,并且该至少一个合并候选包括空间相邻块、时间相邻块或者视图间运动候选(IvMC)中的至少之一。
根据本发明的用于对多视图视频信号进行解码的方法和装置的特征在于:合并索引指定用于在合并模式下对当前块进行解码的合并候选。
根据本发明的用于对多视图视频信号进行解码的方法和装置的特征在于:视图间运动候选(IvMC)具有由当前块的视差向量指定的参考块的时间运动向量,并且参考块属于当前块的参考视图。
根据本发明的用于对多视图视频信号进行解码的方法和装置的特征在于:视图间运动候选(IvMC)根据是否对当前块执行照明补偿而被限制性地包括在合并候选列表中。
根据本发明的用于对多视图视频信号进行解码的方法和装置的特征在于:如果不对当前块执行照明补偿,则视图间运动候选(IvMC)被包括在合并候选列表中,并且合并候选按照视图间运动候选(IvMC)、空间相邻块以及时间相邻块的优先级顺序被布置在合并候选列表中。
根据本发明的一种用于对多视图视频信号进行编码的方法和装置的特征在于:生成针对当前块的合并候选列表;基于当前块的合并索引来得出当前块的运动向量;使用所得出的运动向量来获得当前块的预测值;以及通过将当前块的所获得的预测值和残差值相加来重建当前块。
根据本发明的用于对多视图视频信号进行编码的方法和装置的特征在于:合并候选列表包括至少一个合并候选,并且该至少一个合并候选包括空间相邻块、时间相邻块或者视图间运动候选(IvMC)中的至少之一。
根据本发明的用于对多视图视频信号进行编码的方法和装置的特征在于:合并索引指定用于在合并模式下对当前块进行解码的合并候选。
根据本发明的用于对多视图视频信号进行编码的方法和装置的特征在于:视图间运动候选(IvMC)具有由当前块的视差向量指定的参考块的时间运动向量,并且参考块属于当前块的参考视图。
根据本发明的用于对多视图视频信号进行编码的方法和装置的特征在于:视图间运动候选(IvMC)根据是否对当前块执行照明补偿而被限制性地包括在合并候选列表中。
根据本发明的用于对多视图视频信号进行编码的方法和装置的特征在于:如果不对当前块执行照明补偿,则视图间运动候选(IvMC)被包括在合并候选列表中,并且合并候选按照视图间运动候选(IvMC)、空间相邻块以及时间相邻块的优先级顺序被布置在合并候选列表中。
根据一个实施例,一种用于针对多视图视频信号生成合并候选列表的方法包括:针对当前视图中的当前块生成第一合并候选列表,第一合并候选列表包括至少一个合并候选,至少一个合并候选包括空间相邻块和时间相邻块中的至少之一,其中,空间相邻块包括左相邻块、上相邻块、右上相邻块、左下相邻块和左上相邻块中的至少之一,并且其中,时间相邻块是位于并置图片中的与当前块相同的位置处的块;从比特流获得照明补偿标记,照明补偿标记指示是否对当前块执行照明补偿;基于照明补偿标记来确定是否对当前块执行照明补偿;以及通过将至少一个视图间合并候选添加到第一合并候选列表来生成最终合并候选列表,其中,至少一个视图间合并候选包括视图间运动候选,并且当照明补偿标记指示不对当前块执行照明补偿时,视图间运动候选被包括在最终合并候选列表中。
根据另一个实施例,一种用于对多视图视频信号进行解码的装置包括:帧间预测器,其被配置成:针对当前视图中的当前块生成第一合并候选列表,第一合并候选列表包括至少一个合并候选,至少一个合并候选包括空间相邻块和时间相邻块中的至少之一,其中,空间相邻块包括左相邻块、上相邻块、右上相邻块、左下相邻块和左上相邻块中的至少之一,并且其中,时间相邻块是位于并置图片中的与当前块相同的位置处的块;获得照明补偿标记,照明补偿标记指示是否对当前块执行照明补偿;基于照明补偿标记来确定是否对当前块执行照明补偿;以及通过将至少一个视图间合并候选添加到第一合并候选列表来生成最终合并候选列表,其中,至少一个视图间合并候选包括视图间运动候选,并且当照明补偿标记指示不对当前块执行照明补偿时,视图间运动候选被包括在最终合并候选列表中;以及重建器,其被配置成根据最终合并候选列表来重建当前块。
有益效果
根据本发明,能够使用视差向量来高效地执行视图间预测。
根据本发明,能够根据当前深度块的深度数据或相邻纹理块的视差向量来高效地得出当前块的视差向量。
根据本发明,能够高效地配置合并候选列表的合并候选。
根据本发明,能够通过考虑照明补偿来选择性地使用视图间运动候选来提高编码/解码性能。
根据本发明,能够通过对合并候选列表中包括的多个合并候选区分优先级顺序来提高编码/解码性能。
附图说明
图1是根据本发明的实施方式的视频解码器的示意性框图;
图2是示出根据本发明的实施方式的用于在合并模式下对当前块进行解码的方法的流程图;
图3示出了根据本发明的实施方式的用于通过视图间预测来得出视图间运动候选的运动向量的方法;
图4是示出根据本发明的实施方式的基于当前块的视差向量来得出视图合成预测(VSP)候选的运动向量的方法的流程图;
图5是示出根据本发明的实施方式的使用深度图像的深度数据来得出当前块的视差向量的方法的流程图;
图6示出了根据本发明的实施方式的用于当前块的空间/时间相邻块的候选;
图7是示出根据本发明的实施方式的基于照明补偿标记ic_flag来自适应地使用视图间运动候选(IvMC)的方法的流程图;以及
图8示出了根据本发明的实施方式的基于照明补偿标记ic_flag的合并候选的优先级水平。
具体实施方式
根据本发明的一种用于对多视图视频信号进行解码的方法和装置的特征在于:生成针对当前块的合并候选列表;基于从比特流获得的当前块的合并索引来得出当前块的运动向量;使用所得出的运动向量来获得当前块的预测值;以及通过将当前块的所获得的预测值和残差值相加来重建当前块。
根据本发明的用于对多视图视频信号进行解码的方法和装置的特征在于:合并候选列表包括至少一个合并候选,并且该至少一个合并候选包括空间相邻块、时间相邻块或者视图间运动候选(IvMC)中的至少之一。
根据本发明的用于对多视图视频信号进行解码的方法和装置的特征在于:合并索引指定用于在合并模式下对当前块进行解码的合并候选。
根据本发明的用于对多视图视频信号进行解码的方法和装置的特征在于:视图间运动候选(IvMC)具有由当前块的视差向量指定的参考块的时间运动向量,并且参考块属于当前块的参考视图。
根据本发明的用于对多视图视频信号进行解码的方法和装置的特征在于:视图间运动候选(IvMC)根据是否对当前块执行照明补偿而被限制性地包括在合并候选列表中。
根据本发明的用于对多视图视频信号进行解码的方法和装置的特征在于:如果不对当前块执行照明补偿,则视图间运动候选(IvMC)被包括在合并候选列表中,并且合并候选按照视图间运动候选(IvMC)、空间相邻块以及时间相邻块的优先级顺序被布置在合并候选列表中。
根据本发明的一种用于对多视图视频信号进行编码的方法和装置的特征在于:生成针对当前块的合并候选列表;基于当前块的合并索引来得出当前块的运动向量;使用所得出的运动向量来获得当前块的预测值;以及通过将当前块的所获得的预测值和残差值相加来重建当前块。
根据本发明的用于对多视图视频信号进行编码的方法和装置的特征在于:合并候选列表包括至少一个合并候选,并且该至少一个合并候选包括空间相邻块、时间相邻块或者视图间运动候选(IvMC)中的至少之一。
根据本发明的用于对多视图视频信号进行编码的方法和装置的特征在于:合并索引指定用于在合并模式下对当前块进行解码的合并候选。
根据本发明的用于对多视图视频信号进行编码的方法和装置的特征在于:视图间运动候选(IvMC)具有由当前块的视差向量指定的参考块的时间运动向量,并且参考块属于当前块的参考视图。
根据本发明的用于对多视图视频信号进行编码的方法和装置的特征在于:视图间运动候选(IvMC)根据是否对当前块执行照明补偿而被限制性地包括在合并候选列表中。
根据本发明的用于对多视图视频信号进行编码的方法和装置的特征在于:如果不对当前块执行照明补偿,则视图间运动候选(IvMC)被包括在合并候选列表中,并且合并候选按照视图间运动候选(IvMC)、空间相邻块以及时间相邻块的优先级顺序被布置在合并候选列表中。
实现本发明的方式
用于对多视图视频信号进行编码或解码的技术考虑空间冗余、时间冗余和视图间冗余。在多视图视频的情况下,在两个或更多个视点处拍摄的多视图纹理图像可以被编码以实现三维图像。当需要时,可以对与多视图纹理图像对应的深度数据进行进一步编码。不用说,可以考虑空间冗余、时间冗余或视图间冗余来对深度数据进行编码。深度数据是表示关于摄像机与相应像素之间的距离的信息。在本公开内容中,深度数据可以被灵活地解释为与深度有关的数据,例如深度值、深度信息、深度图像、深度图片、深度序列或深度比特流。另外,在本公开内容中,编解码(coding)可以涵盖编码(encoding)与解码(decoding)二者的概念,并且可以在本发明的范围和精神内被灵活地解释。
图1是根据本发明的实施方式的视频解码器的示意性框图。
参照图1,视频解码器可以包括网络抽象层(NAL)解析器100、熵解码器200、反量化器/逆转换器300、帧内预测期400、环内滤波器单元500、解码图片缓冲器单元600和帧间预测器700。
NAL解析器700可以接收包括多视图纹理数据的比特流。如果需要深度数据来对纹理数据进行编码,则可以还接收包括编码深度数据的比特流。可以在一个比特流或单独的比特流中发送输入纹理数据和输入深度数据。NAL解析器100可以基于NAL对接收的比特流进行解析以对比特流进行解码。如果接收的比特流是与多视图有关的数据(例如,三维视频),则比特流还可以包括摄像机参数。摄像机参数可以被分类成内在摄像机参数和外在摄像机参数。内在摄像机参数可以包括焦距、长宽比、主点等,而外在摄像机参数可以包括关于摄像机在全局坐标系中的位置的信息。
熵解码器200可以通过熵解码来提取量化转换系数、用于预测纹理图片的编解码信息等。
反量化器/逆转换器300可以通过将量化参数应用于量化转换系数来获得转化系数,并且通过对转换系数进行逆转换来对纹理数据或深度数据进行解码。经解码的纹理数据或深度数据可以指代由预测产生的残差数据。另外,可以考虑纹理数据的复杂度来设置深度块的量化参数。例如,如果与深度块对应的纹理块是具有高复杂度的区域,则可以设置低的量化参数,并且如果与深度块对应的纹理块是具有低复杂度的区域,则可以设置高的量化参数。可以通过等式1基于重建纹理图片中的相邻像素之间的差值来确定纹理块的复杂度。
等式1
在等式1中,E可以表示纹理数据的复杂度,C可以表示重建纹理数据,并且N可以表示要计算其复杂度的纹理数据区域中的像素的数目。参考等式1,可以使用位置(x,y)处的纹理数据与位置(x-1,y)处的纹理数据之间的差值以及位置(x,y)处的纹理数据与位置(x+1,y)处的纹理数据之间的差值来计算纹理数据的复杂度。而且,可以针对纹理图片和纹理块中的每个来计算复杂度,并且可以使用通过等式2所计算的复杂度来得出量化参数。
等式2
参照等式2,可以基于纹理图片的复杂度与纹理块的复杂度之比来确定深度块的量化参数。α和β可以为通过解码器得出的可变整数或者在解码器中确定的整数。
帧内预测器400可以使用当前纹理图片的重建纹理数据来执行图片内预测。可以以与针对纹理图片的方式相同的方式对深度图片执行图片内预测。例如,用于纹理图片的图片内预测的相同编解码信息可以用于纹理图片。用于图片内预测的编码信息可以包括关于帧内预测模式的信息和帧内预测分割信息。
环内滤波器单元500可以对每个编解码块应用环内滤波器以降低块失真。滤波器可以通过使块的边缘平滑来提高解码图片的视频质量。经滤波的纹理图片或深度图片可以被输出或存储在解码图片缓冲器单元600中以用作参考图片。同时,如果使用相同的环内滤波器对纹理数据和深度数据进行编码,则编码效率可能降低,这是因为纹理数据在特性方面与深度数据不同。因此,可以单独地针对深度数据来定义环内滤波器。作为用于高效地对深度数据进行编码的环内滤波方法,下面将描述基于区域的自适应环滤波器和三边环滤波器。
在基于区域的自适应环滤波器的情况下,可以基于深度块的变化(variance)来确定是否应用基于区域的自适应环滤波器。深度块的变化可以被定义为深度块中的最大像素值与最小像素值之间的差值。可以通过将深度块的变化与预定阈值进行比较来确定是否应用该滤波器。例如,如果深度块的变化等于或大于预定阈值,则意味着深度块的最大像素值与最小像素值之间的差较宽。因而,可以确定应用基于区域的自适应环滤波器。相反地,如果深度变化小于该阈值,则可以确定不应用基于区域的自适应环滤波器。如果根据比较结果来使用滤波器,则可以通过将预定权值应用于相邻像素值来得出经滤波的深度块的像素值。可以基于当前经滤波的像素与其相邻像素之间的位置差和/或当前经滤波的像素的值与其相邻像素的值之间的差值来确定该预定权值。相邻像素值可以为深度块中包括的除当前经滤波的像素值之外的像素值之一。
虽然本发明的三边环滤波器与基于区域的自适应环滤波器类似,但是前者与后者不同指出在于:在前者中另外地考虑了纹理数据。具体地,三边环滤波器可以提取满足以下三个条件的相邻像素的深度数据。
条件1.1p-q|≤σ1
条件2.1D(p)-D(q)|≤σ2
条件3.|V(p)-V(q)|≤σ3
对于条件1,将深度块中的当前像素p与相邻像素q之间的位置差与预定参数σ1进行比较。对于条件2,将当前像素p的深度数据与相邻像素q的深度数据之间的差值与预定参数σ2进行比较。对于条件3,将当前像素p的纹理数据与相邻像素q的纹理数据之间的差值与预定参数σ3进行比较。
可以提取满足以上三个条件的相邻像素,并且可以通过滤波将当前像素p的值设置成相邻像素的深度数据的均值或平均值。
解码图片缓冲器单元600用于存储或打开先前所编解码的纹理图片或深度图片,以用于图片间预测。可以在解码图片缓冲器单元600中使用帧号frame_num和图片的图片顺序数(POC)来存储或打开先前所编解码的纹理图片或深度图片中的每个。另外,由于存在来自先前所编解码的图片中的当前深度图片的不同视图的深度图片,所以在深度编解码期间可以使用指示这些深度图片的视图的视图标识信息将深度图片用作参考图片。解码图片缓冲器单元600可以通过自适应存储器管理控制操作方法、滑动窗口方法等来管理参考图片,以更灵活地进行图片间预测。执行该操作以将用于参考图片的存储器和用于非参考图片的存储器包含在单个存储器中并且利用小的存储容量来有效地管理存储器。在深度编解码中,深度图片可以被标记有单独的指示以与解码图片缓冲器单元中的纹理图片区分,并且在标记期间可以使用标识每个深度图片的信息。
帧间预测器700可以使用运动信息和存储在解码图片缓冲器单元600中的参考图片对当前块执行运动补偿。在本公开内容中,可以理解,运动信息在广义上包括运动向量、参考索引等。帧间预测器700可以执行时间帧间预测以执行运动补偿。时间帧间预测可以指代基于在与当前纹理块相同的视图处并且在与当前纹理块不同的时区中的参考图片以及当前纹理块的运动信息的帧间预测。在通过多个摄像机捕获的多视图视频的情况下,可以执行视图间预测以及时间帧间预测。用于视图间预测的运动信息可以包括视差向量或视图间运动向量。下面将参照图2来描述使用视差向量来执行视图间预测的方法。
图2是示出根据本发明的实施方式的用于在合并模式下对当前块进行解码的方法。
参照图2,可以生成用于当前块的合并候选列表(S200)。
本发明的合并候选列表可以包括可用于在合并模式下对当前块进行解码的至少一个合并候选。例如,当前块的空间/时间相邻块可以为合并候选。空间相邻块可以为左相邻块、上相邻块、右上相邻块、左下相邻块和左上相邻块中的至少之一。时间相邻块可以被定义为在具有与当前块不同的时间顺序的Col图片(并置图片)中的位于与当前块相同的位置处的块。
而且,基于视图间关联或纹理-深度关联的合并候选(下文中称为视图间合并候选)可以被包括在合并候选列表中。视图间合并候选可以包括纹理合并候选、视图间运动候选、视图间视差候选、视图合成预测(VSP)候选等。后面将参照图3至图6来描述用于得出每个视图间合并候选的运动向量的方法和用于配置合并候选列表中的合并候选的方法。
参照图2,可以基于合并索引merge_idx和在步骤S200中生成的合并候选列表来得出当前块的运动向量(S210)。
具体地,可以从合并候选列表中选择与当前块的合并索引对应的合并候选。合并索引是指定合并候选列表中包括的多个合并候选之一的语法,其可以从比特流中提取。也就是说,合并索引是指定用于得出当前块的运动向量的合并候选的信息。
分配给所选的合并候选的运动向量可以被设置为当前块的运动向量。
可以使用在步骤S210中得出运动向量来获得当前块的预测值(S200)。
具体地,如果当前块的参考图片和当前块属于同一视图,则可以使用运动向量对当前块执行时间帧间预测。相反地,如果当前块的参考图片与当前块属于不同视图,则可以使用运动向量对当前块执行视图间帧间预测。
可以通过指定参考图片列表中的参考图片、使用当前块的参考索引并且将指定的参考图片的视图索引与当前块的视图索引进行比较来确定当前块的参考图片与当前块是否属于同一视图。
参照图2,可以通过将在步骤220中获得的当前块的预测值和当前块的残差值相加来重建当前块(S230)。
残差值指代当前块的重建值与当前块的预测值之间的差值。可以通过对从比特流中提取的转换系数进行反量化和/或逆转换来获得残差值。
现在,将对之前已经参照图2提及的用于得出视图间合并候选的运动向量的方法和用于配置合并候选列表中的合并候选的方法进行描述。
I.用于得出视图间合并候选的运动向量的方法
1.纹理合并候选(T)
由于视频的纹理数据和深度数据描述了同一时间和同一视图的图像,因此纹理数据和深度数据是高度相关的。因而,如果使用对纹理数据进行编码/解码的相同运动向量对深度数据进行编码/解码,则可以提高视频的编码/解码性能。
具体地,如果当前块是深度块(DpethFlag=1),则可以将与深度块对应的纹理块的运动向量分配给纹理合并候选。纹理块可以被确定成与深度块相同的位置处的块。
2.视图间运动候选(IvMC)
可以通过视图间运动预测来得出视图间运动候选的运动向量,将参照图3来对此进行描述。
参照图3,可以使用视差向量对当前视图(视图0)的当前块来指定参考视图(视图1)的参考块。例如,在从与当前块的位置对应的参考视图的块位置移动视差向量的位置处的块可以被指定为参考块。如果参考块具有时间运动向量(即,如果通过时间帧间预测对参考块进行编码),参考块的时间运动向量可以被分配给视图间运动候选。
而且,可以基于子块对当前块执行视图间运动预测。在该情况下,可以将当前块分成多个子块(例如,8×8个子块),可以基于子块来获得参考块的时间运动向量并且将其分配给视图间运动候选。
同时,可以根据与当前块对应的深度图像来得出当前块的视差向量,将参照图5来对其详细描述。也可以根据与当前块空间相邻的块或者位于与当前块不同的时区中的时间相邻块来得出视差向量。将参照图6来描述用于根据当前块的空间/时间相邻块得出当前块的视差向量的方法。
3.视图间运动移位候选(IvMCShift)
可以将前述的视图间运动移位候选的视差向量移位预定值,并且可以使用移位的视差向量来指定参考视图(视图0)的参考块。具体地,可以通过在考虑当前块的宽度(nPbW)/高度(nPbH)的情况下对视图间运动移位候选(IvMC)的视差向量进行移位来得出移位的视差向量。例如,可以通过将视图间运动候选(IvMC)的视差向量移位(nPbW*2,nPbH*2)来得出移位的视差向量。
如果参考块具有时间运动向量,可以将参考块的时间运动向量分配给视图间运动移位候选。
4.视图间视差候选(IvDC)
如上所述,可以根据与当前块对应的深度图像或当前块的空间/时间相邻块来得出当前块的视差向量。可以将通过将所得出的视差向量的垂直分量(y分量)设置为0而获得的向量分配给视图间视差候选。例如,如果所得出的当前块的视差向量为(mvDisp[0],mvDisp[1]),则可以将向量(mvDisp[0],0)分配给视图间视差候选。
5.视图间视差移位候选(IvDCShift)
同样,可以根据与当前块对应的深度图或当前块的空间/时间相邻块像来得出当前块的视差向量。可以将通过将所得出的视差向量的水平分量(x分量)移位预定值而获得的向量分配给视图间视差移位候选。例如,如果视图间视差候选的运动向量为(mvDisp[0],mvDisp[1]),则可以将通过将水平分量mvDisp[0]移位4而获得的向量,即(mvDisp[0]+4,mvDisp[1])分配给视图间视差移位候选。
或者可以将通过将所得出的视差向量的水平分量(x分量)移位预定值并且将所得出的视差向量的垂直分量(y分量)设置为0而得出的向量分配给视图间视差移位候选。例如,如果视图间视差候选的运动向量为(mvDisp[0],mvDisp[1]),则可以将通过将水平分量mvDisp[0]移位4并且将垂直分量mvDisp[1]设置为0而获得的向量,即向量(mvDisp[0]+4,0)分配给视图间视差移位候选。
6.VSP候选
也可以基于前述的当前块的视差向量来得出VSP候选的运动向量,将参照图4来对此进行描述。
参照图4,可以根据当前块的深度图像或空间/时间相邻块来得出视差向量(第一视差向量)。随后将参照图5和图6来描述用于得出视差向量的方法。
可以使用在步骤S400中得出的视差向量来指定参考视图的深度块。在本文中,深度块可以被包括在参考深度图像中。参考深度图片和参考纹理图片可以属于同一接入单元,并且参考纹理图片可以与当前块的视图间参考图片对应。
可以使用在步骤S410中指定的深度块中的预定义位置处的至少一个样本来得出修改的视差向量(第二视差向量)(S420)。例如,可以使用深度块的四个角处的深度样本。可以根据四个角处的深度样本的值的最大值、四个角处的深度样本的值的平均值或者四个角处的深度样本之一来得出第二视差向量。
图5是示出根据本发明的实施方式的使用深度图片的深度数据来得出当前块的视差向量的方法的流程图。
参照图5,可以基于关于当前块的位置的信息来获得关于深度图片中的与当前块对应的深度块的位置的信息(S500)。
可以考虑深度图片和当前图片的空间分辨率来确定深度块的位置。
例如,如果已经以相同的空间分辨率对深度图片和当前图片进行编码,则深度块的位置可以被确定成与当前图片中的当前块的位置相同。同时,可以以不同空间分辨率对当前图片和深度图片进行编码。这是因为考虑到表示关于摄像机与对象之间的距离的信息的深度信息的性质,即使以降低的空间分辨率对深度信息进行编码,也不会很大地降低编解码效率。因而,如果已经以比当前图片低的空间分辨率对深度图片进行编码,则解码器可以在获得关于深度块的位置的信息之前对深度图片进行上采样。而且,如果经上采样的深度图片的长宽比不与当前图片的长宽比准确地匹配,则在获得关于在经上采样的深度图片中的当前深度块的位置的信息时可以另外地考虑偏移信息。偏移信息可以包括上偏移信息、左偏移信息、右偏移信息和下偏移信息中至少之一。上偏移信息可以指示经上采样的深度图片的上端处的至少一个像素与当前图片的上端处的至少一个像素之间的位置差。也可以以相同的方式来定义左偏移信息、右偏移信息和下偏移信息。
参照图5,可以获得与关于深度块的位置的信息对应的深度数据(S510)。
如果深度块中存在多个像素,则可以使用与深度块的角像素对应的深度数据。或者可以使用与深度块的中心像素对应的深度数据。或者可以选择性地使用与多个像素对应的多个深度数据的最大值、最小值和最频繁值之一,或者可以使用多个深度数据的平均值。
参照图5,可以使用在步骤S510中获得的深度数据来得出当前块的视差向量(S520)。
例如,可以通过等式3来得出当前块的视差向量。
等式3
DV=(a*v+f)>>n
参照等式3,v表示深度数据,a表示缩放因子,并且f表示用于得出视差向量的偏移。可以在视频参数集或片头部(slice header)中发送缩放因子a和偏移f,或者可以在解码器中预配置缩放因子a和偏移f。在本文中,n是指示比特移位值的变量,其可以根据视差向量的准确度来可变地确定。
图6示出了根据本发明的实施方式的当前块的空间/时间相邻块的候选。
参照图6(a),空间相邻块可以为当前块的左相邻块A1、上相邻块B1、左下相邻块A0、右上相邻块B0或左上相邻块B2中的至少之一。
参照图6(b),时间相邻块可以指代与当前块相同的位置处的块。具体地,时间相邻块是属于与当前块不同的时区中的图片的块。时间相邻块可以为与当前块的右下像素对应的块BR、与当前块的中心像素对应的块CT或者与当前块的左上像素对应的块TL中的至少之一。
可以根据以上空间/时间相邻块中的视差补偿预测(DCP)块得出当前块的视差向量。DCP块可以指代通过使用视差向量的视图间纹理预测而编码的块。换言之,可以使用通过视差向量指定的参考块的纹理数据对DCP块执行视图间预测。在该情况下,可以使用用于DCP块的视图间纹理预测的视差向量来预测或重建当前块的视差向量。
或者可以根据空间相邻块中的基于视差向量的运动补偿预测(DV-MCP)块来得出当前块的视差向量。DV-MCP块可以指代通过使用视差向量的视图间运动预测而编码的块。换言之,可以使用视差向量所指定的参考块的时间运动向量对DV-MCP块执行时间帧间预测。在该情况下,可以使用用于获得DC-MCP块的参考块的时间运动向量的视差向量来预测或重建当前块的视差向量。
对于当前块,可以根据其预定优先级水平来确定空间/时间相邻块是否为DCP块,并且可以根据第一个检测到的DCP块来得出当前块的视差向量。例如,可以按照空间相邻块->时间相邻块的顺序初步地对相邻块划分优先级顺序,并且可以按照A1->B1->B0->A0->B2的优先级顺序来确定空间相邻块是否为DCP块。然而,优先级顺序仅是实施方式,并且显然可以在对于本领域技术人员而明显的范围内以不同方式对相邻块划分优先级顺序。
如果空间/时间相邻块均不是DCP块,则可以另外检查空间相邻块是否是DV-DCP块。同样地,可以根据第一个检测到的DV-MCP块来得出视差向量。
II.用于配置合并候选列表的方法
可以可变地确定合并候选列表中的合并候选的最大数目MaxNumMergeCand。然而,可以限制性地在预定范围(例如,1至6)内确定合并候选的最大数目MaxNumMergeCand。可以通过基于片来自适应地控制合并候选的最大数目MaxNumMergeCand来提高编码性能。
例如,可以通过等式4来得出合并候选的最大数目MaxNumMergeCand。
MaxNumMergeCand=5–five_minus_max_num_merge_cand+NumExtraMergeCand(等式4)
在等式4中,five_minus_max_num_merge_cand是片段(slice segment)水平下的语法,其可以指示除视图间合并候选以外的合并候选的最大数目(例如,5)与除视图间合并候选的数目以外的每个片的合并候选的最大数目之间的差。可以通过等式5来得出变量NumExtraMergeCand。
NumExtraMergeCand=iv_mv_pred_flag[nuh_layer_id]∥mpi_flag[nuh_layer_id]∥ViewSynthesisPredFlag
(等式5)
在等式5中,可以基于iv_mv_pred_flag[nuh_layer_id]、mpi_flag[nuh_layer_id]或者ViewSynthesisPredFlag来得出变量NumExtraMergeCand。
在本文中,iv_mv_pred_flag是指示是否在当前视图处执行视图间运动预测的语法。例如,如果iv_mv_pred_flag=1,则执行视图间运动预测,否则,不执行视图间运动预测。相应地,如果iv_mv_pred_flag=1,则可以使用基于视图间运动预测的视图间运动候选(IvMC),并且可以将变量NumExtraMergeCand设置为1。
mpi_flag是指示是否执行运动参数继承的语法。例如,在对深度块的解码期间使用与深度块对应的纹理块的运动向量或者根据相邻视图的参考块的纹理块的运动向量的得出被称为运动参数继承。因而,如果根据mpi_flag执行运动参数继承,则可以将前述的纹理合并候选或视图间运动候选(IvMC)用作当前块的合并候选,并且可以将变量NumExtraMergeCand设置为1。
ViewSynthesisPredFlag是指示是否使用VSP候选的标记。因而,如果ViewSynthesisPredFlag被设置成1,则可以将VSP候选添加至当前块的合并候选列表,并且可以将变量NumExtraMergeCand设置成1。
可以将前述合并候选,即当前块的空间/时间相邻块和视图间合并候选包括在当前块的合并候选列表中。值得注意的是,与合并候选的最大数目MaxNumMergeCand一样多的合并候选可以包括在合并候选列表中。
出于该目的,需要定义被添加至合并候选列表的合并候选的优先级水平(或布置顺序)。
例如,可以按照视图间运动候选(IvMC)、左相邻块A1、上相邻块B1、右上相邻块B0、视图间视差候选(IvDC)、VSP候选、左下相邻块A0、左上相邻块B2、视图间运动移位候选(IvMCShift)以及视图间视差移位候选(IvDCShift)的顺序来划分合并候选的优先级顺序。
或者可以按照视图间运动候选(IvMC)、左相邻块A1、上相邻块B1、VSP候选、右上相邻块B0、视图间视差候选(IvDC)、左下相邻块A0、左上相邻块B2、视图间运动移位候选(IvMCShift)以及视图间视差移位候选(IvDCShift)的顺序来划分合并候选的优先级顺序。显然,可以在对于本领域技术人员而明显的范围内改变这些优先级水平。
图7是示出根据本发明的实施方式的用于基于照明补偿标记ic_flag来自适应地使用视图间运动候选(IvMC)的方法的流程图。
参照图7,可以从比特流获得照明补偿标记(S700)。
照明补偿标记可以指代指示是否对当前块(例如,编解码块或预测单元)执行照明补偿的信息。根据本发明,照明补偿意指针对视图间的照明差的补偿。如果视图之间存在照明差,则与视图间运动候选(IvMC)相比,使用视图间视差候选(IvDC)可以更为高效。因而,可以规定基于照明补偿标记来选择性地使用视图间运动候选(IvMC)。
参照图7,可以确定在步骤S700中获得的照明补偿标记的值是否为1(S710)。
如果照明补偿标记的值不为1(即,ic_flag=0),则可以得出视图间运动候选(IvMC)(S720)。
可以生成在步骤S720中获得的包括视图间运动候选(IvMC)的合并候选列表(S740)。也就是说,可以根据前述优先级顺序将视图间运动候选(IvMC)添加至合并候选列表。
相反地,如果照明补偿标记的值为1,则可以跳过视图间运动候选(IvMC)的得出。
在该情况下,也可以从合并候选列表中排除与视图间运动候选(IvMC)有关的视图间运动移位候选(IvMCShift)。可以根据前述优先级顺序将除视图间运动候选(IvMC)和视图间运动移位候选(IvMCShift)以外的合并候选添加至合并候选列表。例如,可以按照左相邻块A1、上相邻块B1、视图间视差候选(IvDC)、右上相邻块B0、VSP候选、左下相邻块A0、左上相邻块B2以及视图间视差移位候选(IvDCShift)的优先级顺序将合并候选的最大数目MaxNumMergeCand以内的合并候选添加至合并候选列表。
或者可以按照左相邻块A1、上相邻块B1、视图间视差候选(IvDC)、右上相邻块B0、VSP候选、视图间视差移位候选(IvDCShift)、左下相邻块A0和左上相邻块B2的优先级顺序将合并候选添加至合并候选列表。
或者可以按照左相邻块A1、上相邻块B1、右上相邻块B0、视图间视差候选(IvDC)、VSP候选、左下相邻块A0、左上相邻块B2和视图间视差移位候选(IvDCShift)的优先级顺序将合并候选添加至合并候选列表。
图8示出了根据本发明的实施方式的基于照明补偿标记ic_flag的合并候选的优先级水平。
如之前参照图7所述,当视图之间存在照明差时,与视图间运动候选(IvMC)相比,使用视图间视差候选(IvDC)可以更为高效。因而,通过改变合并候选的优先级水平使得视图间视差候选(IvDC)可以具有高于视图间运动候选(IvMC)的优先级顺序,可以提高编解码性能。而且,可以改变合并候选的优先级水平使得视图间视差移位候选(IvDCShift)可以具有高于视图间运动移位候选(IvMCShift)的优先级顺序。
参照图8,如果照明补偿标记的值为1,则可以按照视图间视差候选(IvDC)、左相邻块A1、上相邻块B1、视图间运动候选(IvMC)、右上相邻块B0、VSP候选、视图间视差移位候选(IvDCShift)、视图间运动移位候选(IvMCShift)、左下相邻块A0以及左上相邻块B2的优先级顺序将合并候选添加至合并候选列表。在图8中,当合并候选具有较低优先级值时,合并候选具有较高的优先级水平,并且当合并候选具有较高优先级值时,合并候选具有较低的优先级水平。
另一方面,如果照明补偿标记的值为0,则可以按照视图间运动候选(IvMC)、左相邻块A1、上相邻块B1、视图间视差候选(IvMC)、左相邻块A1、上相邻块B1、视图间视差候选(IvDC)、右上相邻块B0、VSP候选、视图间运动移位候选(IvMCShift)、视图间视差移位候选(IvDCShift)、左下相邻块A0以及左上相邻块B2的优先级顺序将合并候选添加至合并候选列表。
工业实用性
本发明适用于多视图视频编解码。
本发明实施例还包括:
(1)一种用于对多视图视频信号进行解码的方法,所述方法包括:
针对当前块生成合并候选列表,所述合并候选列表包括至少一个合并候选,并且所述合并候选包括空间相邻块、时间相邻块或者视图间运动候选(IvMC)中的至少之一;
基于从比特流获得的所述当前块的合并索引来得出所述当前块的运动向量,所述合并索引指定要用于在合并模式下对所述当前块进行解码的合并候选;
使用所得出的运动向量来获得所述当前块的预测值;以及
通过将所述当前块的所获得的预测值和所述当前块的残差值相加来重建所述当前块。
(2)根据(1)所述的方法,其中,所述视图间运动候选(IvMC)具有所述当前块的视差向量所指定的参考块的时间运动向量,并且所述参考块属于所述当前块的参考视图。
(3)根据(2)所述的方法,其中,所述视图间运动候选(IvMC)根据是否对所述当前块执行照明补偿而被限制性地包括在所述合并候选列表中。
(4)根据(3)所述的方法,其中,当不对所述当前块执行所述照明补偿时,所述视图间运动候选(IvMC)被包括在所述合并候选列表中,并且
其中,合并候选被按照所述视图间运动候选(IvMC)、所述空间相邻块以及所述时间相邻块的优先级顺序布置在所述合并候选列表中。
(5)一种用于对多视图视频信号进行解码的装置,所述装置包括:
帧间预测器,其用于:针对当前块生成合并候选列表;基于从比特流获得的所述当前块的合并索引来得出所述当前块的运动向量;以及使用所得出的运动向量来获得所述当前块的预测值;以及
重建器,用于通过将所述当前块的所获得的预测值和所述当前块的残差值相加来重建所述当前块,
其中,所述合并候选列表包括至少一个合并候选,所述合并候选包括空间相邻块、时间相邻块或视图间运动候选(IvMC)中的至少之一,并且所述合并索引指定要用于在合并模式下对所述当前块进行解码的合并候选。
(6)根据(5)所述的装置,其中,所述视图间运动候选(IvMC)具有所述当前块的视差向量所指定的参考块的时间运动向量,并且所述参考块属于所述当前块的参考视图。
(7)根据(6)所述的装置,其中,所述视图间运动候选(IvMC)根据是否对所述当前块执行照明补偿而被限制性地包括在所述合并候选列表中。
(8)根据(7)所述的装置,其中,当不对所述当前块执行所述照明补偿时,所述视图间运动候选(IvMC)被包括在所述合并候选列表中,并且
其中,合并候选被按照所述视图间运动候选(IvMC)、所述空间相邻块以及所述时间相邻块的优先级顺序布置在所述合并候选列表中。
(9)一种用于对多视图视频信号进行编码的方法,所述方法包括:
针对当前块生成合并候选列表,所述合并候选列表包括至少一个合并候选,并且所述合并候选包括空间相邻块、时间相邻块或者视图间运动候选(IvMC)中的至少之一;
基于所述当前块的合并索引来得出所述当前块的运动向量,所述合并索引指定要用于在合并模式下对所述当前块进行编码的合并候选;
使用所得出的运动向量来获得所述当前块的预测值;以及
通过将所述当前块的所获得的预测值和所述当前块的残差值相加来重建所述当前块。
(10)根据(9)所述的方法,其中,所述视图间运动候选(IvMC)具有所述当前块的视差向量所指定的参考块的时间运动向量,并且所述参考块属于所述当前块的参考视图。
(11)根据(10)所述的方法,其中,所述视图间运动候选(IvMC)根据是否对所述当前块执行照明补偿而被限制性地包括在所述合并候选列表中。
(12)根据(11)所述的方法,其中,当不对所述当前块执行所述照明补偿时,所述视图间运动候选(IvMC)被包括在所述合并候选列表中,并且合并候选被按照所述视图间运动候选(IvMC)、所述空间相邻块以及所述时间相邻块的优先级顺序布置在所述合并候选列表中。
(13)一种用于对多视图视频信号进行编码的装置,所述装置包括:
帧间预测器,其用于:针对当前块生成合并候选;基于所述当前块的合并索引来得出所述当前块的运动向量;以及使用所得出的运动向量来获得所述当前块的预测值;以及
重建器,用于通过将所述当前块的所获得的预测值和所述当前块的残差值相加来重建所述当前块,
其中,所述合并候选列表包括至少一个合并候选,所述合并候选包括空间相邻块、时间相邻块或视图间运动候选(IvMC)中的至少之一,并且所述合并索引指定要用于在合并模式下对所述当前块进行编码的合并候选。
(14)据(13)所述的装置,其中,所述视图间运动候选(IvMC)具有所述当前块的视差向量所指定的参考块的时间运动向量,并且所述参考块属于所述当前块的参考视图。
(15)根据(14)所述的装置,其中,所述视图间运动候选(IvMC)根据是否对所述当前块执行照明补偿而被限制性地包括在所述合并候选列表中。

Claims (12)

1.一种用于针对多视图视频信号生成合并候选列表的方法,所述方法包括:
针对当前视图中的当前块生成第一合并候选列表,所述第一合并候选列表包括至少一个合并候选,所述至少一个合并候选包括空间相邻块和时间相邻块中的至少之一,其中,所述空间相邻块包括左相邻块、上相邻块、右上相邻块、左下相邻块和左上相邻块中的至少之一,并且其中,所述时间相邻块是位于并置图片中的与所述当前块相同的位置处的块;
从比特流获得照明补偿标记,所述照明补偿标记指示是否对所述当前块执行照明补偿;
基于所述照明补偿标记来确定是否对所述当前块执行照明补偿;以及通过将至少一个视图间合并候选添加到所述第一合并候选列表来生成最终合并候选列表,
其中,所述至少一个视图间合并候选包括视图间运动候选,并且当所述照明补偿标记指示不对所述当前块执行所述照明补偿时,所述视图间运动候选被包括在所述最终合并候选列表中。
2.根据权利要求1所述的方法,其中,当所述照明补偿标记指示对所述当前块执行所述照明补偿时,所述视图间运动候选不被包括在所述最终合并候选列表中。
3.根据权利要求1所述的方法,其中,如果所述最终合并候选列表包括多个合并候选,其中所述多个合并候选包括所述视图间运动候选,则所述合并候选被按照所述视图间运动候选、所述空间相邻块以及所述时间相邻块的优先级顺序布置在所述最终合并候选列表中。
4.根据权利要求1所述的方法,其中,如果确定所述视图间运动候选要用于对所述当前块进行解码,则得出由所述当前块的视差向量指定的参考块的时间运动向量以作为所述当前块的运动向量。
5.根据权利要求4所述的方法,其中,所述参考块属于与所述当前块的当前视图不同的参考视图。
6.根据权利要求1所述的方法,其中,当所述照明补偿标记指示不对所述当前块执行所述照明补偿时,所述最终合并候选列表还包括视图间运动移位候选。
7.一种用于对多视图视频信号进行解码的装置,所述装置包括:
帧间预测器,其被配置成:
针对当前视图中的当前块生成第一合并候选列表,所述第一合并候选列表包括至少一个合并候选,所述至少一个合并候选包括空间相邻块和时间相邻块中的至少之一,其中,所述空间相邻块包括左相邻块、上相邻块、右上相邻块、左下相邻块和左上相邻块中的至少之一,并且其中,所述时间相邻块是位于并置图片中的与所述当前块相同的位置处的块;
获得照明补偿标记,所述照明补偿标记指示是否对所述当前块执行照明补偿;
基于所述照明补偿标记来确定是否对所述当前块执行照明补偿;以及
通过将至少一个视图间合并候选添加到所述第一合并候选列表来生成最终合并候选列表,其中,所述至少一个视图间合并候选包括视图间运动候选,并且当所述照明补偿标记指示不对所述当前块执行所述照明补偿时,所述视图间运动候选被包括在所述最终合并候选列表中;以及
重建器,其被配置成根据所述最终合并候选列表来重建所述当前块。
8.根据权利要求7所述的装置,其中,当所述照明补偿标记指示对所述当前块执行所述照明补偿时,所述视图间运动候选不被包括在所述最终合并候选列表中。
9.根据权利要求8所述的装置,其中,如果所述最终合并候选列表包括多个合并候选,其中所述多个合并候选包括所述视图间运动候选,则所述合并候选被按照所述视图间运动候选、所述空间相邻块以及所述时间相邻块的优先级顺序布置在所述最终合并候选列表中。
10.根据权利要求7所述的装置,其中,如果确定所述视图间运动候选要用于对所述当前块进行解码,则得出由所述当前块的视差向量指定的参考块的时间运动向量以作为所述当前块的运动向量。
11.根据权利要求10所述的装置,其中,所述参考块属于与所述当前块的当前视图不同的参考视图。
12.根据权利要求7所述的装置,其中,当所述照明补偿标记指示不对所述当前块执行所述照明补偿时,所述最终合并候选列表还包括视图间运动移位候选。
CN201810764534.XA 2014-03-19 2015-03-18 针对多视图视频信号生成合并候选列表的方法及解码装置 Active CN108965888B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
KR10-2014-0032101 2014-03-19
KR20140032101 2014-03-19
CN201580014887.2A CN106105191B (zh) 2014-03-19 2015-03-18 用于处理多视图视频信号的方法和装置

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
CN201580014887.2A Division CN106105191B (zh) 2014-03-19 2015-03-18 用于处理多视图视频信号的方法和装置

Publications (2)

Publication Number Publication Date
CN108965888A true CN108965888A (zh) 2018-12-07
CN108965888B CN108965888B (zh) 2021-05-04

Family

ID=54144943

Family Applications (5)

Application Number Title Priority Date Filing Date
CN201810764534.XA Active CN108965888B (zh) 2014-03-19 2015-03-18 针对多视图视频信号生成合并候选列表的方法及解码装置
CN201810763413.3A Active CN108632629B9 (zh) 2014-03-19 2015-03-18 针对多视图视频信号生成合并候选列表的方法及解码装置
CN201810764047.3A Active CN108683922B (zh) 2014-03-19 2015-03-18 对多视图视频信号进行解码的方法和装置
CN201810763415.2A Active CN108989815B9 (zh) 2014-03-19 2015-03-18 针对多视图视频信号生成合并候选列表的方法及解码装置
CN201580014887.2A Active CN106105191B (zh) 2014-03-19 2015-03-18 用于处理多视图视频信号的方法和装置

Family Applications After (4)

Application Number Title Priority Date Filing Date
CN201810763413.3A Active CN108632629B9 (zh) 2014-03-19 2015-03-18 针对多视图视频信号生成合并候选列表的方法及解码装置
CN201810764047.3A Active CN108683922B (zh) 2014-03-19 2015-03-18 对多视图视频信号进行解码的方法和装置
CN201810763415.2A Active CN108989815B9 (zh) 2014-03-19 2015-03-18 针对多视图视频信号生成合并候选列表的方法及解码装置
CN201580014887.2A Active CN106105191B (zh) 2014-03-19 2015-03-18 用于处理多视图视频信号的方法和装置

Country Status (4)

Country Link
US (1) US10257531B2 (zh)
KR (1) KR20150109282A (zh)
CN (5) CN108965888B (zh)
WO (1) WO2015142054A1 (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113557735A (zh) * 2019-03-11 2021-10-26 北京字节跳动网络技术有限公司 运动候选列表构造的改进

Families Citing this family (44)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170065502A (ko) * 2014-10-08 2017-06-13 엘지전자 주식회사 3d 비디오 부호화/복호화 방법 및 장치
KR20180019092A (ko) * 2015-06-16 2018-02-23 엘지전자 주식회사 영상 코딩 시스템에서 조도 보상에 기반한 블록 예측 방법 및 장치
US11509930B2 (en) 2016-07-12 2022-11-22 Electronics And Telecommunications Research Institute Image encoding/decoding method and recording medium therefor
CN113873242A (zh) * 2016-08-31 2021-12-31 株式会社Kt 用于对视频进行解码的方法和用于对视频进行编码的方法
KR102569476B1 (ko) * 2016-10-11 2023-08-24 엘지전자 주식회사 영상 코딩 시스템에서 인트라 예측에 따른 영상 디코딩 방법 및 장치
US10523934B2 (en) * 2017-05-31 2019-12-31 Mediatek Inc. Split based motion vector operation reduction
CN107396083B (zh) * 2017-07-27 2020-01-14 青岛海信电器股份有限公司 一种全息图像生成方法及装置
EP3468194A1 (en) * 2017-10-05 2019-04-10 Thomson Licensing Decoupled mode inference and prediction
EP3758374A4 (en) * 2018-02-22 2021-09-01 LG Electronics Inc. IMAGE DECODING METHOD AND DEVICE ACCORDING TO A BLOCK DIVISION STRUCTURE IN AN IMAGE ENCODING SYSTEM
CN110365987B (zh) * 2018-04-09 2022-03-25 杭州海康威视数字技术股份有限公司 一种运动矢量确定方法、装置及其设备
WO2019234598A1 (en) 2018-06-05 2019-12-12 Beijing Bytedance Network Technology Co., Ltd. Interaction between ibc and stmvp
WO2019245712A1 (en) * 2018-06-18 2019-12-26 Interdigital Vc Holdings, Inc. Illumination compensation in video coding
GB2589223B (en) 2018-06-21 2023-01-25 Beijing Bytedance Network Tech Co Ltd Component-dependent sub-block dividing
WO2019244117A1 (en) 2018-06-21 2019-12-26 Beijing Bytedance Network Technology Co., Ltd. Unified constrains for the merge affine mode and the non-merge affine mode
TWI744661B (zh) 2018-06-29 2021-11-01 大陸商北京字節跳動網絡技術有限公司 要根據模式檢查的查找表中的運動候選的數量
KR20240005239A (ko) 2018-06-29 2024-01-11 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 Lut와 amvp 사이의 상호작용
CN110662056B (zh) 2018-06-29 2022-06-07 北京字节跳动网络技术有限公司 哪个查找表需要更新或不更新
BR112020024142A2 (pt) 2018-06-29 2021-03-02 Beijing Bytedance Network Technology Co., Ltd. método para processamento de vídeo, aparelho para codificação de dados de vídeo, meio de armazenamento e meio de gravação legíveis por computador não transitório
CN114845108A (zh) 2018-06-29 2022-08-02 抖音视界(北京)有限公司 查找表的更新:fifo、约束的fifo
KR20210025537A (ko) 2018-06-29 2021-03-09 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 하나 또는 다수의 룩업 테이블들을 사용하여 이전에 코딩된 모션 정보를 순서대로 저장하고 이를 사용하여 후속 블록들을 코딩하는 개념
TWI731364B (zh) 2018-07-02 2021-06-21 大陸商北京字節跳動網絡技術有限公司 Hmvp+非相鄰運動
CN110876058B (zh) * 2018-08-30 2021-09-21 华为技术有限公司 一种历史候选列表更新方法与装置
GB2590310B (en) 2018-09-12 2023-03-22 Beijing Bytedance Network Tech Co Ltd Conditions for starting checking HMVP candidates depend on total number minus K
CN110944196B (zh) 2018-09-24 2023-05-30 北京字节跳动网络技术有限公司 简化的基于历史的运动矢量预测
CN111010571B (zh) * 2018-10-08 2023-05-16 北京字节跳动网络技术有限公司 组合仿射Merge候选的生成和使用
CN116634170A (zh) * 2018-10-10 2023-08-22 华为技术有限公司 帧间预测方法及装置
CN116939198A (zh) 2018-10-23 2023-10-24 北京字节跳动网络技术有限公司 并置的局部照明补偿和修改的帧间预测编解码
WO2020084509A1 (en) 2018-10-23 2020-04-30 Beijing Bytedance Network Technology Co., Ltd. Harmonized local illumination compensation and modified inter coding tools
CN116760998A (zh) * 2018-11-08 2023-09-15 Oppo广东移动通信有限公司 图像信号编码/解码方法及其设备
CN112970262B (zh) * 2018-11-10 2024-02-20 北京字节跳动网络技术有限公司 三角预测模式中的取整
CN113056916A (zh) * 2018-11-22 2021-06-29 北京字节跳动网络技术有限公司 基于子块的运动候选的选择和信令
CN113273189A (zh) * 2018-12-31 2021-08-17 北京字节跳动网络技术有限公司 具有MVD的Merge和AMVR之间的交互
WO2020141849A1 (ko) * 2019-01-01 2020-07-09 엘지전자 주식회사 화면간 예측을 사용하여 비디오 신호를 처리하기 위한 방법 및 장치
KR20240010576A (ko) 2019-01-10 2024-01-23 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 Lut 업데이트의 호출
WO2020143824A1 (en) 2019-01-13 2020-07-16 Beijing Bytedance Network Technology Co., Ltd. Interaction between lut and shared merge list
WO2020147747A1 (en) 2019-01-15 2020-07-23 Beijing Bytedance Network Technology Co., Ltd. Weighted prediction in video coding
WO2020147773A1 (en) 2019-01-16 2020-07-23 Beijing Bytedance Network Technology Co., Ltd. Inserting order of motion candidates in lut
CN113302919A (zh) 2019-01-17 2021-08-24 北京字节跳动网络技术有限公司 在视频处理中使用虚拟候选预测和加权预测
EP3878181A4 (en) * 2019-03-04 2022-03-09 Huawei Technologies Co., Ltd. ENCODERS, DECODERS AND RELATED METHODS USING IBC MERGE LIST
CN111698506B (zh) * 2019-03-11 2022-04-26 杭州海康威视数字技术股份有限公司 运动信息候选者列表构建方法、三角预测解码方法及装置
CN113615193A (zh) 2019-03-22 2021-11-05 北京字节跳动网络技术有限公司 Merge列表构建和其他工具之间的交互
WO2020233662A1 (en) * 2019-05-21 2020-11-26 Beijing Bytedance Network Technology Co., Ltd. Syntax signaling for optical-flow based inter coding
EP4032290A4 (en) 2019-10-18 2022-11-30 Beijing Bytedance Network Technology Co., Ltd. SYNTAX CONSTRAINTS IN REPORTING SUBPICTURE PARAMETER SETS
WO2024077611A1 (zh) * 2022-10-14 2024-04-18 Oppo广东移动通信有限公司 解码方法、编码方法、解码器以及编码器

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101884219A (zh) * 2007-10-16 2010-11-10 Lg电子株式会社 处理视频信号的方法和装置
KR20130028633A (ko) * 2011-09-09 2013-03-19 주식회사 케이티 화면 간 예측 수행시 후보 블록 결정 방법 및 이러한 방법을 사용하는 장치
WO2013069933A1 (ko) * 2011-11-07 2013-05-16 엘지전자 주식회사 영상 부호화/복호화 방법 및 그 장치
US20130136183A1 (en) * 2011-08-29 2013-05-30 Ibex Pt Holdings Co., Ltd. Apparatus for decoding motion information in merge mode
CN103621093A (zh) * 2011-06-15 2014-03-05 联发科技股份有限公司 在三维视频编码系统中的纹理图像压缩方法及装置

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007108661A1 (en) 2006-03-22 2007-09-27 Electronics And Telecommunications Research Institute Method and apparatus for encoding and decoding the compensated illumination change
CN101491099B (zh) 2006-07-11 2011-09-21 汤姆森特许公司 使用虚拟参考画面的方法及装置
KR100941608B1 (ko) * 2006-10-17 2010-02-11 경희대학교 산학협력단 다시점 영상의 부호화 및 복호화 방법과 그를 위한 장치
PL3739883T3 (pl) 2010-05-04 2023-04-11 Lg Electronics Inc. Sposób i aparat do kodowania i dekodowania sygnału wideo
KR20130050407A (ko) 2011-11-07 2013-05-16 오수미 인터 모드에서의 움직임 정보 생성 방법
EP4009640A1 (en) 2011-11-08 2022-06-08 Electronics and Telecommunications Research Institute Method and device for sharing a candidate list
US9596466B2 (en) 2011-12-23 2017-03-14 Electronics And Telecommunications Research Institute Method and apparatus for setting reference picture index of temporal merging candidate
US9615090B2 (en) * 2012-12-28 2017-04-04 Qualcomm Incorporated Parsing syntax elements in three-dimensional video coding

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101884219A (zh) * 2007-10-16 2010-11-10 Lg电子株式会社 处理视频信号的方法和装置
CN103621093A (zh) * 2011-06-15 2014-03-05 联发科技股份有限公司 在三维视频编码系统中的纹理图像压缩方法及装置
US20130136183A1 (en) * 2011-08-29 2013-05-30 Ibex Pt Holdings Co., Ltd. Apparatus for decoding motion information in merge mode
KR20130028633A (ko) * 2011-09-09 2013-03-19 주식회사 케이티 화면 간 예측 수행시 후보 블록 결정 방법 및 이러한 방법을 사용하는 장치
WO2013069933A1 (ko) * 2011-11-07 2013-05-16 엘지전자 주식회사 영상 부호화/복호화 방법 및 그 장치

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113557735A (zh) * 2019-03-11 2021-10-26 北京字节跳动网络技术有限公司 运动候选列表构造的改进

Also Published As

Publication number Publication date
CN108989815A (zh) 2018-12-11
CN108632629B (zh) 2021-05-04
CN106105191B (zh) 2018-08-10
CN106105191A (zh) 2016-11-09
CN108989815B (zh) 2021-05-04
US20170006302A1 (en) 2017-01-05
CN108632629B9 (zh) 2021-06-15
CN108632629A (zh) 2018-10-09
CN108989815B9 (zh) 2021-06-04
WO2015142054A1 (ko) 2015-09-24
KR20150109282A (ko) 2015-10-01
CN108965888B (zh) 2021-05-04
US10257531B2 (en) 2019-04-09
CN108683922A (zh) 2018-10-19
CN108683922B (zh) 2021-05-04

Similar Documents

Publication Publication Date Title
CN106105191B (zh) 用于处理多视图视频信号的方法和装置
US11323704B2 (en) Apparatus for encoding and decoding image by skip encoding and method for same
CN104185988B (zh) 用于共享候选者列表的方法和装置
CN104469362B (zh) 用于对运动矢量进行解码的方法
CN105379282B (zh) 用于纹理译码的先进残余预测(arp)的方法和设备
CN109804626A (zh) 用于对图像进行编码和解码的方法和设备以及用于存储比特流的记录介质
CN108781284A (zh) 具有仿射运动补偿的视频编解码的方法及装置
CN110024384A (zh) 基于帧间预测模式处理视频的方法和用于该方法的设备
CN109417633A (zh) 用于编码/解码视频信号的方法和装置
CN110089113A (zh) 图像编码/解码方法、设备以及用于存储比特流的记录介质
CN104704832B (zh) 用于预测运动矢量和视差矢量的图像处理方法和设备
KR20150110357A (ko) 다시점 비디오 신호 처리 방법 및 장치
CN104798375B (zh) 用于多视点视频编码或解码的方法及装置
KR20150020175A (ko) 비디오 신호 처리 방법 및 장치
CN106105199A (zh) 基于多边形单元的编/解码图像的方法及其装置
CN110366850A (zh) 基于帧内预测模式处理图像的方法和用于该方法的设备
CN106664423A (zh) 视频编译中的深度图片编译方法和设备
CN105247869B (zh) 解码多层视频的方法和设备
US10187658B2 (en) Method and device for processing multi-view video signal
CN105122808B (zh) 三维或多视图视频编码或解码的方法及装置
KR20230148506A (ko) 비디오 신호 처리 방법 및 장치

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant