CN104365102B - 处理视频信号的方法和装置 - Google Patents

处理视频信号的方法和装置 Download PDF

Info

Publication number
CN104365102B
CN104365102B CN201380030515.XA CN201380030515A CN104365102B CN 104365102 B CN104365102 B CN 104365102B CN 201380030515 A CN201380030515 A CN 201380030515A CN 104365102 B CN104365102 B CN 104365102B
Authority
CN
China
Prior art keywords
block
view
motion vector
contiguous block
compiling
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN201380030515.XA
Other languages
English (en)
Other versions
CN104365102A (zh
Inventor
成宰源
芮世薰
具文模
许镇
金兑燮
郑志旭
孙银庸
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
LG Electronics Inc
Original Assignee
LG Electronics Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by LG Electronics Inc filed Critical LG Electronics Inc
Publication of CN104365102A publication Critical patent/CN104365102A/zh
Application granted granted Critical
Publication of CN104365102B publication Critical patent/CN104365102B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • H04N19/52Processing of motion vectors by encoding by predictive encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/109Selection of coding mode or of prediction mode among a plurality of temporal predictive coding modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/119Adaptive subdivision aspects, e.g. subdivision of a picture into rectangular or non-rectangular coding blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/159Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • H04N19/463Embedding additional information in the video signal during the compression process by compressing encoding parameters before transmission
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/593Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

按照本发明的用于处理视频信号的方法包括在考虑到在当前纹理块的视图间运动矢量候选者之中的优先级的情况下,从视图间运动矢量候选者之一推导当前纹理块的视图间运动矢量,以及使用推导的视图间运动矢量执行用于当前纹理块的视图间间预测。本发明使能在各种视图间运动矢量候选者之中更加精确的视图间运动矢量预测,并且因此,减少被发送的残留数据量,从而改善编译效率。

Description

处理视频信号的方法和装置
技术领域
本发明涉及一种用于处理视频信号的方法和装置。
背景技术
压缩指的是用于经由通信线路发送数字信息,或者以适用于存储介质的形式存储数字信息的信号处理技术。压缩的对象包括音频、视频和文字信息。具体地,压缩图像的技术被称作视频压缩。多视图视频具有空间冗余、时间冗余和视图间冗余的特征。
发明内容
技术问题
本发明的一个目的是改善视频信号编译效率。
本发明基于空间/时间邻近块的视图间运动矢量和视差矢量中的至少一个来推导当前纹理块的视图间运动矢量。
本发明在考虑到包括空间/时间邻近块和视差矢量中的至少一个的候选者的优先级的情况下推导视图间运动矢量。
按照本发明的空间邻近块包括当前纹理块的左下邻近块、左邻近块、右上邻近块、上邻近块和左上邻近块中的至少一个,以及空间视图间运动矢量是通过在考虑到空间邻近块的优先级的情况下搜索用于按照视图间间预测(inter-view inter-prediction)编译的块的空间邻近块获得的。
按照本发明的时间邻近块包括并置块、邻近于并置块的邻近块和包括并置块的编译块中的至少一个,以及时间视图间运动矢量是通过在考虑到时间邻近块的优先级的情况下搜索用于按照视图间间预测编译的块的时间邻近块获得的。
本发明使用视差矢量图来获得当前图片的视差矢量,以及同时地,使用视差矢量偏移来改变在视差矢量图中存储的视差矢量。
本发明设置视图间运动矢量候选者的固定的优先级,以及按照固定的优先级从视图间运动矢量候选者推导当前纹理块的视图间运动矢量。
本发明将在空间/时间邻近块之中按照时间间预测编译的块的视图间运动矢量以及按照视图间间预测编译的块的视图间运动矢量作为候选者使用。
本发明定义多个优先级表,以及基于优先级表索引有选择地使用优先级表。
本发明基于先前编译的块的状态变量来确定当前编译的块的视图间运动矢量候选者的优先级。
本发明可以通过使用视图间运动矢量执行视图间间预测,使用在视图之间的相关性来改善视频数据预测精度。此外,精确的视图间运动矢量能够通过有选择地使用空间/时间邻近块的视图间运动矢量或者视差矢量作为视图间运动矢量推导出,以便改善视图间间预测精度,以及编译效率能够通过减小发送的残留数据量来提高。此外,甚至在空间/时间邻近块之中按照时间间预测编译的块以及按照视图间间预测编译的块的情况下,与参考视图运动矢量相对应的视图间运动矢量被用作候选者,从而预测精确的视图间运动矢量。另外,确定用于多个视图间运动矢量候选者的优先级,并且按照视图间间预测编译的块被按照该优先级顺序地搜索,从而降低推导视图间运动矢量过程的复杂度。
附图说明
图1是按照本发明适用于其的实施例的视频解码器的框图。
图2图示按照本发明适用于其的实施例的运动矢量列表发生器710的配置。
图3是图示按照本发明适用于其的实施例来确定空间运动矢量的过程的流程图。
图4图示按照本发明适用于其的实施例的示范性的空间邻近块。
图5图示按照本发明适用于其的实施例的示范性的时间邻近块。
图6图示按照本发明适用于其的实施例的当编译块用作时间邻近块时,在包含并置块的编译块中包括的块的优先级。
图7是图示按照本发明适用于其的实施例的用于使用深度数据来推导当前纹理块的视差矢量的方法的流程图。
图8是图示按照本发明适用于其的实施例的更新用于在当前图片中间预测块的视差矢量图的过程的流程图。
图9是图示按照本发明适用于其的实施例的基于预先确定的优先级从按照视图间间预测编译的邻近块推导视图间运动矢量的方法的流程图。
图10是图示按照本发明适用于其的实施例的基于预先确定的优先级从按照时间间预测编译的邻近块和按照视图间间预测编译的邻近块推导视图间运动矢量的方法的流程图。
图11是图示按照本发明适用于其的实施例的在考虑到由空间邻近块使用的视图间运动矢量的频率的情况下选择优先级表的方法的流程图。
图12是图示按照本发明适用于其的实施例的在考虑到空间邻近块的视图间运动矢量类型的情况下选择优先级表的方法的流程图。
图13是图示按照本发明适用于其的实施例的使用状态变量来确定优先级的方法的流程图
具体实施方式
为了实现本发明的目的,提供了一种用于处理视频信号的方法,包括:在考虑到视图间运动矢量候选者的优先级的情况下,从当前纹理块的视图间运动矢量候选者之一推导当前纹理块的视图间运动矢量;以及使用推导的视图间运动矢量执行用于当前纹理块的视图间间预测。
按照本发明,空间邻近块的视图间运动矢量可以具有比时间邻近块的视图间运动矢量的优先级更高的优先级,以及时间邻近块的视图间运动矢量可以具有比视差矢量的优先级更高的优先级。
按照本发明,该方法可以进一步包括:检测按照用于具有最高优先级的空间邻近块的视图间间预测编译的块;当存在按照视图间间预测编译的块时,从空间邻近块的视图间运动矢量推导当前纹理块的视图间运动矢量;以及当不存在按照视图间间预测编译的块时,检测按照用于具有下一个最高优先级的时间邻近块的视图间间预测编译的块。
按照本发明,空间邻近块可以包括当前纹理块的左下邻近块、左邻近块、右上邻近块、上邻近块和左上邻近块中的至少一个。
按照本发明,按照视图间间预测编译的块可以基于空间邻近块的优先级来被检测,其中空间邻近块具有以左下邻近块、左邻近块、右上邻近块、上邻近块和左上邻近块的递减顺序的优先级。
按照本发明,时间邻近块可以包括并置块、邻近于并置块的块以及包括并置块的编译块中的至少一个。
按照本发明,按照视图间间预测编译的块可以基于时间邻近块的优先级来被检测,其中时间邻近块具有以并置块、邻近于并置块的块以及包括并置块的编译块的递减顺序的优先级。
用于本发明的模式
压缩或者解码多视图视频信号数据的技术考虑空间冗余、时间冗余和视图间冗余。在多视图图像的情况下,在两个或更多个视点处捕获的多视图纹理图像可以被编译以便产生三维图像。此外,与多视图纹理图像相对应的深度数据可以根据需要被编译。深度数据可以在考虑到空间冗余、时间冗余或者视图间冗余的情况下被压缩。深度数据是有关在照相机和相应的像素之间距离的信息。在本说明书中,深度数据可以灵活地解释为深度相关信息,诸如深度信息、深度图像、深度图片、深度序列和深度比特流。此外,在本说明书中,编译可以包括编码和解码概念这两者,并且可以在本发明的技术精神和技术范围中灵活地解释。
图1是按照本发明适用于其的实施例的视频解码器的框图。
参考图1,视频解码器可以包括NAC分析单元100、熵解码单元200、逆量化/逆变换单元300、内预测单元(intra-prediction unit)400、环内滤波器单元500、解码的图片缓存单元600和间预测单元(inter-prediction unit)700。NAL分析单元100可以接收包括多视图纹理数据的比特流。此外,当深度数据是为纹理数据编译所需要时,NAL分析单元100可以进一步接收包括编码的深度数据的比特流。输入纹理数据和深度数据可以作为一个比特流发送,或者作为单独的比特流发送。NAL分析单元100可以在NAL基础上执行分析以便解码输入的比特流。当输入的比特流是多视图相关数据(例如,3维视频)时,输入的比特流可以进一步包括照相机参数。照相机参数可以包括本征照相机参数和非本征照相机参数,并且本征照相机参数可以包括焦距、长宽比、主点等,以及非本征照相机参数可以包括在全球坐标系统中的照相机位置信息等。
熵解码单元200可以经由熵解码来提取量化的变换系数、用于纹理图片预测的编译信息等。逆量化/逆变换单元300可以通过将量化参数适用于量化的变换系数来获得变换系数,以及通过逆变换该变换系数来解码纹理数据或者深度数据。在这里,该解码的纹理数据或者深度数据按照预测可以包括残留数据。此外,用于深度块的量化参数可以在考虑到纹理数据的复杂度的情况下被设置。例如,当与深度块相对应的纹理块具有高的复杂度时,可以设置低的量化参数,以及当该纹理块具有低的复杂度时,可以设置高的量化参数。该纹理块的复杂度可以基于在重建的纹理图片中在邻近像素之间的差分值来确定,如由公式1表示的。
[公式1]
在公式1中,E表示纹理数据的复杂度,C表示重建的纹理数据,以及N表示在将对其计算复杂度的纹理数据区中像素的数目。参考公式1,纹理数据的复杂度可以使用在对应于点(x,y)的纹理数据和对应于点(x-1,y)的纹理数据之间的差分值以及在对应于点(x,y)的纹理数据和对应于点(x+1,y)的纹理数据之间的差分值来计算。此外,可以计算纹理图片和纹理块中的每个的复杂度,以及量化参数可以使用该复杂度来推导,如由公式2表示的。
[公式2]
参考公式2,用于深度块的量化参数可以基于纹理图片的复杂度与纹理块的复杂度的比率来确定。在公式2中,α和β可以是由解码器推导出的可变整数,或者可以是在解码器中预先确定的整数。
内预测单元400可以使用在当前纹理图片中重建的纹理数据来执行内预测。可以以与用于纹理图片的方式相同的方式对于深度图片执行内预测。例如,用于纹理图片的间预测的编译信息可以同样地用于深度图片。用于间预测的编译信息可以包括内预测模式和内预测的分割信息。
环内滤波器单元500可以将环内滤波器施加于每个编译的块以便减小块失真。滤波器可以平滑块的边缘以便改善解码图片的质量。滤波的纹理图片或者深度图片可以输出或者存储在解码的图片缓存单元600中以用作参考图片。当纹理数据和深度数据被使用相同的环内滤波器来编译时,由于纹理数据和深度数据具有不同的特征,所以编译效率会劣化。因此,可以定义用于深度数据的单独的环内滤波器。将给出作为能够有效率地编译深度数据的环内滤波方法的基于区域的适应性环路滤波器和三边环路滤波器的描述。
在基于区域的适应性环路滤波器的情况下,可以基于深度块的变化来确定是否应用基于区域的适应性环路滤波器。深度块的变化可以定义为在深度块中的最大像素值和最小像素值之间的差值。可以通过将深度块的变化与预先确定的阈值比较来确定是否应用滤波器。例如,当深度块的变化大于或等于预先确定的阈值时(其指的是在深度块中的最大像素值和最小像素值之间的差值大),可以确定应用基于区域的适应性环路滤波器。相反地,当深度块的变化小于预先确定的阈值时,其可以确定没应用基于区域的适应性环路滤波器。当按照该比较结果应用基于区域的适应性环路滤波器时,滤波的深度块的像素值可以通过将预先确定的权重应用于邻近像素值来推导出。在这里,预先确定的权重可以基于在当前滤波的像素和邻近像素之间的位置差和/或在当前滤波的像素值和邻近像素值之间的差分值来确定。邻近像素值可以指的是在深度块中包括的像素值之中除当前过滤的像素值以外的像素值之一。
按照本发明的三边环路滤波器类似于基于区域的适应性环路滤波器,但是,不同于基于区域的适应性环路滤波器在于前者另外考虑纹理数据。具体地,三边环路滤波器可以提取满足以下三个条件的邻近像素的深度数据。
条件1.|p-q|≤σ1
条件2.|D(p)-D(q)|≤σ2
条件3.|V(p)-V(q)|≤σ3
条件1将在深度块中的当前像素p和邻近像素q之间的位置差与预先确定的参数σ1比较,条件2将在当前像素p的深度数据和邻近像素q的深度数据之间的差与预先确定的参数比较,以及条件3将在当前像素p的纹理数据和邻近像素q的纹理数据之间的差与预先确定的参数比较。
三边环路滤波器可以提取满足三个条件的邻近像素,以及过滤具有邻近像素的深度数据的中间值或者平均值的当前像素p。
该解码的图片缓存单元600可以存储或者开放先前编译的纹理图片或者深度图片以便执行间预测。为了在解码的图片缓存单元600中存储先前编译的纹理图片或者深度图片或者开放图片,可以使用每个图片的图片顺序计数(POC)和frame_num。此外,由于先前编译的图片包括在深度编译中与不同于当前深度图片视点的视点相对应的深度图片,可以使用用于识别深度图片视点的视点识别信息,以便将与不同视点相对应的深度图片作为参考图片使用。该解码的图片缓存单元600可以使用适应性存储器管理控制操作方法和滑动窗口方法来管理参考图片,以便更加灵活地实现间预测。这使能参考图片存储器和非参考图片存储器去合并成一个存储器以便实现小存储器的高效管理。在深度编译时,深度图片可以被标记以与在解码的图片缓存单元中的纹理图片区别,以及可以在标记过程期间使用用于识别每个深度图片的信息。
间预测单元700可以使用在解码的图片缓存单元600中存储的运动信息和参考图片来执行当前块的运动补偿。在本说明书中,从广义来说该运动信息可以包括运动矢量和参考索引信息。此外,间预测单元700可以执行用于运动补偿的时间间预测。时间间预测可以指的是使用参考图片以及当前纹理块的运动信息的间预测,其对应于与当前纹理块相同的视点,同时对应于与当前纹理块的时间段不同的时间段。在通过多个照相机捕获的多视图图像的情况下,除了时间间预测之外,可以执行视图间间预测。视图间间预测可以指的是使用参考图片的间预测,该参考图片对应于与当前纹理块的视点不同的视点和当前纹理块的运动信息。为了方便起见,用于视图间预测的运动信息被称为视图间运动矢量和视图间参考索引信息。因此,在本说明书中,运动信息可以灵活地解释为包括视图间运动矢量和视图间参考索引信息的信息。将给出用于推导当前纹理块的运动信息,具体地,在间预测单元700中的运动矢量的方法的描述。
图2图示按照本发明适用于其的实施例的运动矢量列表发生器710的配置。
运动矢量列表发生器710可以包括在解码器的间预测单元700中。运动矢量列表发生器710可以由列表初始化单元720和列表修改单元730组成。列表初始化单元720可以产生包括运动矢量候选者的运动矢量列表。在这里,运动矢量候选者可以指的是一组当前纹理块的运动矢量,或者可以用作预测的运动矢量的运动矢量。按照本发明的运动矢量候选者可以包括空间运动矢量、时间运动矢量和参考视图运动矢量中的至少一个。在运动矢量候选者中包括的空间运动矢量、时间运动矢量和参考视图运动矢量分别地通过在运动矢量列表初始化单元720中包括的空间运动矢量确定单元740、时间运动矢量确定单元750和参考视图运动矢量确定单元760来获得。空间运动矢量确定单元740可以从空间地邻近于当前纹理块的邻近块的运动矢量推导出空间运动矢量。确定空间运动矢量的方法将参考图3详细描述。时间运动矢量确定单元750可以从时间地邻近于当前纹理块的邻近块的运动矢量推导出时间运动矢量。例如,时间地相邻的邻近块可以对应于是在参考图片内的与当前纹理块相同位置中的并置块,该参考图片对应于与当前纹理块的视点相同的视点,并且位于与当前纹理块的时间段不同的时间段中。在这里,参考图片可以由包括并置块的图片的参考索引信息指定。参考视图运动矢量确定单元760可以从放置在与当前纹理块不同的视点处的相应的块的运动矢量推导出参考视图运动矢量。在这里,相应的块可以是由当前纹理块的视图间运动矢量指示的块。例如,在参考视图内的参考块可以使用当前纹理块的视图间运动矢量指定,并且指定的参考块的运动矢量可以设置为当前纹理块的参考视图运动矢量。用于确定参考视图运动矢量的视图间运动矢量可以包括在当前纹理块的运动矢量候选者中以形成运动矢量列表。在这种情况下,在考虑到是否当前纹理块的参考图片对应于与当前纹理块相同的视图或者不同的视图的情况下,视图间运动矢量可以包括在运动矢量列表中。例如,在当前纹理块的参考图片对应于与当前纹理块不同的视图时,该视图间运动矢量可以被添加到运动矢量列表。另外,在当前纹理块的参考索引信息指示用于视图间预测的参考图片时,该视图间运动矢量可以被添加到运动矢量列表。按照本发明推导视图间运动矢量的方法将参考图4至13描述。
由列表初始化单元720产生的运动矢量列表可以用作供推导当前纹理块的运动矢量的最后运动矢量列表,并且可以经由列表修改单元730修改以去除运动矢量候选者的冗余。例如,该列表修改单元730可以检查是否在由列表初始化单元720产生的运动矢量列表中的空间运动矢量是相同的。当相同的空间运动矢量存在时,该列表修改单元730可以从运动矢量列表中去除相同的空间运动矢量的一个。此外,当作为在去除在运动矢量列表中的运动矢量候选者的冗余之后在运动矢量列表中剩余的运动矢量候选者的数目小于2时,该列表修改单元730可以增加零运动矢量。相反地,当作为在去除在运动矢量候选者的冗余之后在运动矢量列表中剩余的运动矢量候选者的数目大于2时,该列表修改单元730可以从运动矢量列表中去除除了2个运动矢量候选者之外的运动矢量候选者。在这里,在运动矢量列表中剩余的2个运动矢量候选者可以是在运动矢量列表中具有较低的列表标识索引的候选者。分配给在运动矢量列表中包括的每个运动矢量候选者的列表标识索引可以指的是用于识别每个运动矢量候选者的信息。
图3图示按照本发明适用于其的实施例的确定空间运动矢量的过程。
按照本发明的空间运动矢量可以从空间地邻近于当前纹理块的邻近块的运动矢量推导出。空间地邻近于当前纹理块的邻近块可以指的是位于当前纹理块的左、顶部、左下、左上和右上的块中的一个。在确定空间运动矢量时,其可以检查是否当前纹理块和邻近块的参考图片彼此是相同的(S300)。例如,可以检查是否当前纹理块的参考索引信息对应于邻近块的参考索引信息,以便确定是否当前纹理块和邻近块的参考图片彼此是相同的。可替选地,其可以检查是否分配给当前纹理块的参考图片的图片顺序计数(POC)信息对应于分配给邻近块的参考图片的POC信息。甚至当由当前纹理图片和邻近块使用的参考图片列表彼此不同时,由于POC信息是指示图片输出序列或者时间序列的信息,并且输出序列是每个图片的唯一值,所以通过将分配给当前纹理块的参考图片的POC信息与分配给邻近块的参考图片的POC信息比较,可以检查是否当前纹理块和邻近块的参考图片是彼此相同的。检查是否参考图片是相同的过程可以在二组空间地邻近块上执行。例如,当前纹理块的左邻近块和左下邻近块可以分组为第一组,并且当前纹理块的上邻近块、左上邻近块和右上邻近块可以分组为第二组。在这种情况下,其可以检查是否当前纹理块的参考图片对应于在第一块中包括的至少一个邻近块的参考图片,并且是否当前纹理块的参考图片对应于在第二块中包括的至少一个邻近块的参考图片。当前纹理块的参考图片可以以预先确定的顺序与邻近块的参考图片相比较。例如,在第一组的情况下,当前纹理块的参考图片可以顺序地与左下邻近块的参考图片和左邻近块的参考图片相比较。在第二组的情况下,当前纹理块的参考图片可以顺序地与右上邻近块的参考图片、上邻近块的参考图片和左上邻近块的参考图片相比较。当在步骤S300中其确定当前纹理块的参考图片与邻近块的参考图片相同时,具有相同的参考图片的邻近块的运动矢量可以被添加到运动矢量列表(S310)。当其确定当前纹理块的参考图片与邻近块的参考图片不相同时,预先确定的缩放因子可以应用于邻近块的运动矢量(S320)。缩放因子可以在考虑到在包括当前纹理块的当前图片和当前纹理块的参考图片之间的时间距离的情况下被确定。例如,缩放因子可以在考虑到在分配给当前图片的POC信息和分配给当前纹理块的参考图片的POC信息之间的差分值的情况下被确定。此外,在邻近块的当前图片和参考图片之间的时间距离可以进一步考虑以确定缩放因子。例如,缩放因子可以在考虑到在分配给当前图片的POC信息和分配给邻近块的参考图片的POC信息之间的差分值的情况下被确定。该邻近块的缩放的运动矢量可以被添加到运动矢量列表(S330)。
产生运动矢量列表的方法已经参考图2和3描述。将给出在间预测单元700中从运动矢量列表推导当前纹理块的运动矢量的方法的描述。
有关当前纹理块的运动矢量识别信息可以从输入比特流中提取。运动矢量识别信息可以是指定用作当前纹理块的运动矢量或者预测的运动矢量的运动矢量候选者的信息。也就是说,与提取的运动矢量识别信息相对应的运动矢量候选者可以从运动矢量列表提取,并且设置为当前纹理块的运动矢量或者预测的运动矢量。当与运动矢量识别信息相对应的运动矢量候选者被设置为当前纹理块的预测运动矢量时,运动矢量差分值可以用于重建当前纹理块的运动矢量。在这里,运动矢量差分值可以指的是在解码的运动矢量和预测的运动矢量之间的差分矢量。因此,当前纹理块的运动矢量可以使用从运动矢量列表获得的预测的运动矢量和从比特流提取的运动矢量差分值来被解码。当前纹理块的像素值可以使用解码的运动矢量和参考图片列表来被预测。参考图片列表不仅可以包括用于时间间预测的参考图片,而且包括用于视图间间预测的参考图片。
参考图2描述的视图间运动矢量可以从空间视图间运动矢量、时间视图间运动矢量和视差矢量选择的一个来推导出。按照本发明的空间视图间运动矢量可以从在当前纹理块的空间邻近块之中的按照视图间间预测编译的邻近块的运动矢量推导出。换句话说,空间视图间运动矢量可以使用在当前纹理块的空间邻近块之中具有视图间运动矢量的邻近块推导出,将参考图4对其进行描述。本发明的时间视图间运动矢量可以从在当前纹理块的时间邻近块之中的按照视图间间预测编译的邻近块的运动矢量推导出。换句话说,时间视图间运动矢量可以使用在当前纹理块的时间邻近块之中具有视图间运动矢量的邻近块推导出。在这里,时间邻近块可以指的是在与当前纹理块相同的位置中,或者在参考图片内邻近于当前纹理块的位置的块,该参考图片具有与包括当前纹理块的当前图片相同的视图,将参考图5对其进行描述。按照本发明的视差矢量可以表示在多视图图像中的视图间视差。在多视图图像的情况下,按照照相机位置的视图间视差可以被产生,并且视差矢量可以补偿视图间视差。将参考图6描述推导视差矢量的方法。
图4图示按照本发明适用于其的实施例的示范性的空间邻近块。
参考图4(a),空间邻近块可以包括左下邻近块A0、左邻近块A1、右上邻近块B0、上邻近块B1和左上邻近块B2中的至少一个。前面提到的空间邻近块可以搜索按照视图间间预测编译的块,以及按照视图间间预测编译的邻近块的视图间运动矢量可以被设置为当前纹理块的视图间运动矢量。按照视图间间预测编译的块可以在考虑到空间邻近块的优先级的情况下被检测。假设当检测到按照视图间间预测编译的块时,空间邻近块的优先级被如表1所示设置。
[表1]
优先级 空间邻近块
0 左下邻近块
1 左邻近块
2 右上邻近块
3 上邻近块
4 左上邻近块
参考表1,较低优先级值指的是较高优先级。因此,空间邻近块可以以用于按照视图间间预测编译的块的左下邻近块、左邻近块、右上邻近块、上邻近块和左上邻近块的顺序搜索。例如,当左下邻近块是按照视图间间预测编译的块时,左下邻近块的视图间运动矢量可以被设置为当前纹理块的视图间运动矢量,并且搜索可以结束。然而,当左下邻近块没有按照视图间间预测被编译时,其可以检查是否左邻近块已经按照视图间间预测编译。可替选地,空间邻近块可以以用于按照视图间间预测编译的块的左邻近块、上邻近块、右上邻近块、左下邻近块和左上邻近块的顺序搜索。然而,空间邻近块的优先级不局限于以上描述的实施例。
将给出用于确定是否邻近块按照视图间间预测编译的方法的描述。在一个实施例中,基于是否相应的邻近块使用视图间参考图片列表,可以确定是否邻近块按照视图间间预测编译。视图间参考图片列表可以指的是由放置在与相应的邻近块的视点不同的视点处的参考图片组成的列表。可替选地,基于相应的邻近块的参考索引信息,其可以确定是否邻近块按照视图间间预测编译。例如,当相应的邻近块的参考索引信息指定位于与相应的邻近块的视点不同的视点处的参考图片时,其可以指定相应的邻近块按照视图间间预测编译。可替选地,基于是否包括相应的邻近块的图片的POC与相应的邻近块的参考图片的POC相同,其可以确定是否邻近块按照视图间间预测编译。POC是输出序列信息,并且在相同的接入单元中的图片可以具有相同的POC。因此,当二个POC相同时,这指的是包括相应的邻近块的图片和参考图片位于不同的视点处。在这种情况下,其可以指定相应的邻近块按照视图间间预测编译。
图4(b)图示空间邻近块候选者的扩展。当左邻近块A1的大小小于当前纹理块的大小时,当前纹理块可以进一步具有至少一个左邻近块。例如,按照本发明的空间邻近块可以进一步包括位于左邻近块A1和左上邻近块B4之间的左邻近块A2和A3,如图4(b)所示。以相同的方式,当上邻近块B1的大小小于当前纹理块的大小时,按照本发明的空间邻近块可以进一步包括位于上邻近块B1和左上邻近块B4之间的上邻近块B2和B3。在这种情况下,按照视图间间预测编译的块也可以在考虑到空间邻近块(例如,A0->A1->A2->A3->B0->B1->B2->B3->B4)的优先级的情况下被检测。如上所述,有可能提高当前纹理块的视图间运动矢量可以通过扩展用于推导当前纹理块的视图间运动矢量的空间邻近块候选者来获得的概率。
图5图示按照本发明适用于其的实施例的示范性的时间邻近块。
参考图5,时间邻近块可以指的是在当前纹理块的参考图片内在与当前纹理块相同的位置中的块(在下文中,称为并置块)。在这里,参考图片可以指的是在对应于不同时间的同时对应于与包括当前纹理块的当前图片相同的视图的图片。按照本发明的并置块可以经由二种方法定义,如图5所示。参考图5(a),并置块可以定义为在参考图片中包括位置C的块,其对应于当前纹理块的中心像素的位置C。参考图5(b),并置块可以定义为在参考图片中包括位置X的块,其对应于当前纹理块的左上像素的位置X。
本发明的时间邻近块不局限于并置块,并且可以指的是邻近于并置块的邻近块。如图5(a)所示,左下邻近块A0、左块A1、右上邻近块B0、上块B1和左上邻近块B2中的至少一个可以用作邻近于并置块的邻近块。此外,由于参考图片在当前图片之前已经解码,并置块的下邻近块和右邻近块也可以用作时间邻近块。例如,右下邻近块C0、下邻近块C1和右邻近块C2可以用作时间邻近块,如图5(a)所示。
此外,按照本发明的时间邻近块可以指的是包括并置块的编译块。编译块可以指的是在视频信号处理过程(例如,内/间预测、变换、量化、熵编译等)中用于处理图像的基本单位。一个编译块可以分割为多个编译块。例如,2N×2N编译块可以被分成四个N×N编译块。编译块分割可以递归地执行。当时间邻近块定义为包括并置块的编译块时,在相应的编译块中包括的按照视图间间预测编译的块的视图间运动矢量可以是当前纹理块的视图间运动矢量候选者。在这种情况下,按照视图间间预测编译的块可以在考虑到在相应的编译块中包括的块的优先级的情况下被检测,现在参考图6对其进行描述。图6图示按照本发明适用于其的实施例的当编译块用作时间邻近块时属于包括并置块的编译块的块的优先级。
参考图6(a),在编译块中包括的块的优先级可以按照光栅扫描顺序来确定。光栅扫描可以指的是从左到右的行扫描。因此,当邻近块搜索用于按照视图间间预测编译的块的光栅扫描顺序以及检测到按照视图间间预测编译的块时,相应的块的视图间运动矢量可以设置为当前纹理块的视图间运动矢量。参考图6(b),优先级可以以从在编译块中内部块到外部块的顺时针方向或者逆时针方向扫描顺序来确定。
可以在考虑到优先级的情况下对于按照视图间间预测编译的块搜索a)并置块,b)邻近于并置块的邻近块,以及c)包括并置块的编译块,其被认为是时间邻近块候选者。具体地,其确定是否具有最高优先级的时间邻近块是按照视图间间预测编译的块,并且当具有最高优先级的时间邻近块没有按照视图间间预测编译时,其确定是否具有下一个最高优先级的时间邻近块是按照视图间间预测编译的块。这个操作可以执行直到检测到按照视图间间预测编译的块。例如,时间邻近块的优先级如表2所示被假设。在表2中示出的优先级是示范性的,并且本发明不受限于此。
[表2]
优先级 时间邻近块
0 并置块
1 邻近于并置块的邻近块
2 包括并置块的编译块
参考表2,较低优先级值指的是较高优先级。因此,其可以确定是否具有最高优先级的并置块是按照视图间间预测编译的块。当具有最高优先级的并置块是按照视图间间预测编译的块时,并置块的视图间运动矢量可以被设置为当前纹理块的视图间运动矢量,并且搜索可以停止。然而,当具有最高优先级的并置块不是按照视图间间预测编译的块时,以邻近于并置块的邻近块和包括并置块的编译块的顺序来执行搜索,直到找到按照视图间间预测编译的块。
当推导出当前纹理块的视图间运动矢量时,时间邻近块可以基于时间运动标记信息来被有选择地使用。时间运动标记信息可以指的是当推导出当前图片的视图间运动矢量或者运动矢量时指定是否使用时间邻近块的信息。也就是说,当其有效率地将时间邻近块的视图间运动矢量作为当前图片的视图间运动矢量候选者使用时,编码器可以将时间运动标记信息编译为1,并且否则将时间运动标记信息编译为0,以及将时间运动标记信息发送给解码器。当按照有关当前图片的时间运动标记信息推导只有当使用时间邻近块时在当前图片中包括的每个纹理块的视图间运动矢量时,解码器可以将时间邻近块作为视图间运动矢量候选者使用。访问参考图片的编译信息可以通过使用时间运动标记信息使能有限制的使用时间邻近块来被限制,从而降低解码复杂度和查阅存储参考图片的存储器的次数。将给出获得可以用作当前纹理块的视图间运动矢量的视差矢量的方法的描述。
图7是图示按照本发明适用于其的实施例的使用深度数据推导当前纹理块的视差矢量的方法的流程图。
参考图7,与当前图片的当前纹理块相对应的深度图片中的深度块(在下文中称为当前深度块)的位置信息可以基于当前图片的当前纹理块的位置信息来获得(S700)。当前深度块的位置可以在考虑到深度图片和当前图片的空间分辨率的情况下来确定。例如,当深度图片和当前图片被以相同的空间分辨率编译时,当前深度块的位置可以确定为与当前图片的当前纹理块相同的位置。就指示在照相机和对象之间距离的深度信息的特征而言,甚至当深度信息被以减小的空间分辨率编译时,由于编译效率没有显著地劣化,所以当前图片和深度图片可以以不同的空间分辨率来编译。因此,当深度图片被以比当前图片的空间分辨率更低的空间分辨率来编译时,在获得当前深度块的位置信息之前,解码器可以上采样深度图片。此外,当上采样的深度图片的长宽比与当前图片的长宽比不一致时,在当前深度块的位置信息在上采样的深度图片内获得时,偏移信息可以被另外考虑。在这里,偏移信息可以包括上偏移信息、左偏移信息、右偏移信息和下偏移信息中的至少一个。上偏移信息可以指的是在位于上采样的深度图片的顶部处的至少一个像素和位于当前图片的顶部处的至少一个像素之间的位置差。左偏移信息、右偏移信息和下偏移信息可以以相同的方式来定义。
与当前深度块的位置信息相对应的深度数据可以被获得(S710)。在当前深度块包括多个像素时,可以使用与当前深度块的角落像素相对应的深度数据。否则,可以使用与当前深度块的中心像素相对应的深度数据。可替选地,在与多个像素相对应的多个深度数据片之中的最大值、最小值和模式的一个可以有选择地被使用,并且可以使用多个深度数据片的平均值。当前纹理块的视差矢量可以使用获得的深度数据和照相机参数推导出(S720)。现在将参考公式3和4来描述推导当前纹理块的视差矢量的详细方法。
[公式3]
在公式3中,Z表示在相应的像素和照相机之间的距离,D是通过量化Z获得的值,并且对应于本发明的深度数据,并且Znear和Zfar分别地表示用于包括深度图片的视图而定义的Z的最小值和最大值。Znear和Zfar可以经由序列参数集、片报头等从比特流提取,并且可以是在解码器中预先确定的信息。因此,当在相应的像素和照相机之间的距离被在256的级别处量化时,Z可以使用如由公式3表示的深度数据Znear和Zfar重建。随后,用于当前纹理块的视差矢量可以使用如由公式4表示的重建的Z推导出。
[公式4]
在公式4中,f表示照相机的焦距,并且B表示在照相机之间的距离。可以假设所有照相机具有相同的f和B,并且因此,f和B可以是在解码器中预先确定的信息。
当仅仅多视图图像的纹理数据被编译时,有关照相机参数的信息不能使用,并且因此,从深度数据推导视差矢量的方法不能使用。因此,当仅仅多视图图像的纹理数据被编译时,可以使用存储视差矢量的视差矢量图。视差矢量图可以是每个由水平分量和垂直分量组成的视差矢量以二维阵列存储的图。本发明的视差矢量图可以以各种的大小表示。例如,当每个图片仅仅使用一个视差矢量时,视差矢量图可以具有1×1的大小。当在图片中视差矢量使用每个4×4块时,由于视差矢量图具有该图片的1/4的宽度和高度,所以视差矢量图可以具有与图片大小的1/16相对应的大小。此外,当前纹理块的大小可以在一个图片中被适应性地确定,并且视差矢量可以存储每个相应的纹理块。
当前图片可以使用从相应于其的视差矢量图提取的视差矢量来被解码。与当前图片相对应的视差矢量图可以基于当前图片解码结果来更新。更新的视差矢量图可以用作在当前图片之后编译的图片的视差矢量图。参考图8将给出更新视差矢量图的方法的描述。
图8是图示按照本发明适用于其的实施例的更新用于在当前图片中的间预测块的视差矢量图过程的流程图。
参考图8,当前纹理块的预测模式信息可以从比特流提取(S800)。预测模式信息可以指的是指示是否当前块按照内预测或者间预测编译的信息。在当前纹理块按照提取的预测模式信息经由间预测编译时,其可以确定是否在方向L0和方向L1中的当前纹理块的预测是时间间预测或者视图间间预测(S810)。在方向L0中的预测可以指的是在一个方向中使用用于间预测的参考图片列表0的预测,以及在方向L1中的预测可以指的是使用在用于双向的间预测的参考图片列表0和1之间的参考图片列表1的预测。可以使用a)使用视图间参考图片列表的方法,b)使用参考索引信息的方法,以及c)使用包括当前纹理块的图片的POC的标识的方法,以及当前纹理块的参考图片的POC可以用作用于确定是否当前纹理块按照视图间间预测编译的方法。该方法已经参考图4描述。当在方向L0中当前纹理块的预测和在方向L1中当前纹理块的预测中的至少一个是视图间间预测时,用于视图间间预测的视图间运动矢量可以存储在视差矢量图中(S820)。当在方向L0中的预测和在方向L1中的预测这两者对应于视图间间预测时,用于视图间间预测的二个视图间运动矢量的平均值可以存储在视差矢量图中。否则,仅仅用于视图间间预测的视图间运动矢量的水平分量可以存储在视差矢量图中。另一方面,当在方向L0中的当前纹理块的预测和在方向L1中的当前纹理块的预测中的任何一个不对应于视图间间预测时,其可以检查是否当前纹理块的运动矢量是从参考视图运动矢量推导出(S830)。参考视图运动矢量可以指的是由通过当前纹理块的视图间运动矢量指定的块使用的运动矢量,如上所述。在当前纹理块的运动矢量从参考视图运动矢量推导出时,其可以基于合并模式标记信息来确定是否当前纹理块被以合并模式编译(S840)。合并模式标记信息指示是否相应的块被以合并模式编译,以及该合并模式指的是相应的块的运动矢量从空间运动矢量、时间运动矢量、参考视图运动矢量和视图间运动矢量中的一个推导出的模式,并且不包括运动矢量差分值。非合并模式指的是相应的块的运动矢量是从空间运动矢量、时间运动矢量和参考视图运动矢量中的一个推导出的模式,但是,由于推导出的运动矢量用作预测的运动矢量,所以包括用于运动矢量重建的运动矢量差分值。
当其确定当前纹理块被以合并模式编译时,与参考视图运动矢量相对应的视图间运动矢量可以存储在视差矢量图中(S850)。当其确定当前纹理块没有以合并模式编译时,当前纹理块的运动矢量差分值可以与阈值相比较(S860)。按照本发明的阈值可以被设置为预先确定的整数。例如,垂直分量的阈值可以被设置为2个像素,并且水平分量的阈值可以被设置为2个像素。当运动矢量差分值小于该阈值时,与参考视图运动矢量相对应的视图间运动矢量可以存储在视差矢量图中(S850)。然而,当运动矢量差分值大于阈值时,可以使用当前纹理块的运动矢量对视差矢量图执行运动补偿(S870)。也就是说,由当前纹理块的运动矢量指定的视差矢量可以从参考图片的视差矢量图提取,并且存储在当前图片的视差矢量图中。
在当前纹理块的运动矢量在步骤S830中不是从参考视图运动矢量推导出时,可以使用当前纹理块的运动矢量对视差矢量图执行运动补偿,以便更新当前图片的视差矢量图(S850)。
编码器可以提取在视差矢量图中存储的视差矢量之中具有最高频率的视差矢量,计算相对于视差矢量的视差矢量偏移,并且将该视差矢量偏移发送给解码器。编码器可以提取在视差矢量图中存储的视差矢量之中具有最高频率的视差矢量,并且使用从比特流获得的视差矢量偏移来改变提取的视差矢量。
可替选地,编码器可以从在视差矢量图中存储的视差矢量之中具有最高频率的视差矢量中以频率的顺序提取K个视差矢量,相对于每个提取的视差矢量计算,并且将该视差矢量偏移发送给解码器。此外,编码器可以编译指示发送给解码器的视差矢量偏移数目的偏移计数信息,并且将编译的偏移计数信息发送给解码器。因此,解码器可以从比特流提取偏移计数信息,并且按照来自比特流的偏移计数信息提取与偏移计数同样多的视差矢量偏移。此外,解码器可以按照以频率的顺序的偏移计数信息从具有最高频率的视差矢量提取与偏移计数同样多的视差矢量。然后,解码器可以将视差矢量偏移应用于提取的视差矢量以便修改该视差矢量。
可替选地,编码器可以提取在视差矢量图中存储的视差矢量之中的最大值和最小值,并且使用最大值和最小值来计算在视差矢量图中存储的视差矢量的范围。此外,编码器可以将视差矢量的范围划分为N个部分,编译对应于每个部分的视差矢量偏移,以及将该视差矢量偏移发送给解码器。此外,编码器可以解码有关部分数目的信息,并且将该信息发送给解码器。因此,解码器可以从接收的比特流提取有关部分的数目的信息,并且按照该信息提取与部分数目同样多的视差矢量偏移。然后,解码器可以相对于相应的部分将视差矢量偏移添加到属于相应部分的视差矢量,以便修改该视差矢量。
通过将视差矢量范围划分为N个部分,改变具有模式的K个视差矢量的前面提到的方法和改变视差矢量的方法可以有选择地使用。为此,可以定义指示具有模式的K个视差矢量的修改或者用于N个部分的视差矢量的修改的偏移类型信息。因此,具有模式的K个视差矢量可以被提取,并且视差矢量偏移可以按照偏移类型信息应用于K个视差矢量。否则,视差矢量范围可以被分成N个部分,并且相应的部分的视差矢量可以按照偏移类型信息使用与该部分相对应的视差矢量偏移来被修改。
当前纹理块的视图间运动矢量候选者可以包括空间视图间运动矢量、时间视图间运动矢量和视差矢量,并且当前纹理块的视图间运动矢量可以如上所述从空间视图间运动矢量、时间视图间运动矢量和视差矢量选择的一个中推导出。将给出从视图间运动矢量候选者推导当前纹理块的视图间运动矢量方法的描述。
视图间运动矢量可以在考虑到当前纹理块的视图间运动矢量候选者的优先级的情况下获得。视图间运动矢量候选者的优先级可以如表3所示设置。
[表3]
优先级 类别
0 空间视图间运动矢量
1 时间视图间运动矢量
2 视差矢量
参考表3,较低优先级值指的是较高优先级。也就是说,空间视图间运动矢量可以具有最高优先级,并且时间视图间运动矢量和视差矢量可以具有以下的优先级。将参考图9给出当视图间运动矢量候选者的优先级如表3所示设置时推导视图间运动矢量方法的描述。表3是示范性的,并且本发明不受限于此。例如,优先级可以以时间视图间运动矢量、空间视图间运动矢量和视差矢量的顺序,或者以视差矢量、空间视图间运动矢量和时间视图间运动矢量的顺序设置。可替选地,优先级可以以特定的类别设置。例如,空间视图间运动矢量和时间视图间运动矢量的优先级可以被设置,或者空间视图间运动矢量和视差矢量的优先级可以设置。
图9是图示按照本发明适用于其的实施例的基于预先确定的优先级从按照视图间间预测编译的邻近块推导视图间运动矢量的方法。
参考图9,空间邻近块可以搜索按照视图间间预测编译的块(S900)。如参考图4描述的,当空间邻近块搜索按照视图间间预测编译的块时,可以考虑空间邻近块的优先级。例如,左下邻近块、左邻近块、右上邻近块、上邻近块和左上邻近块可以顺序地搜索按照视图间间预测编译的块。此外,a)使用视图间参考图片列表的方法,b)使用参考索引信息的方法,以及c)使用包括空间邻近块的图片的POC和空间邻近块的参考图片的POC标识的方法可以用作确定是否块按照视图间间预测编译的方法。这些已经参考图4描述,并且可以同样地适用于当前实施例,并且因此,详细说明被省略。
当空间邻近块包括按照视图间间预测编译的块时,当前纹理块的视图间运动矢量可以从相应的空间邻近块的视图间运动矢量推导出(S910)。相反地,当空间邻近块不包括按照视图间间预测编译的块时,时间邻近块可以搜索按照视图间间预测编译的块(S920)。时间邻近块候选者可以包括a)并置块,b)邻近于并置块的块,以及c)包括并置块的编译块中的至少一个,并且时间邻近块可以如上所述在考虑到时间邻近块候选者的优先级的情况下搜索按照视图间间预测编译的块。
当时间邻近块包括按照视图间间预测编译的块时,当前纹理块的视图间运动矢量可以使用相应的时间邻近块的视图间间预测推导出(S930)。相反地,当时间邻近块不包括按照视图间间预测编译的块时,当前纹理块的视图间运动矢量可以使用当前纹理块的视差矢量推导出(S940)。
当空间或者时间邻近块不是按照视图间间预测编译时,也就是说,即使邻近块按照时间间预测编译,当邻近块的运动矢量从参考视图运动矢量推导出时,对应于参考视图运动矢量的视图间运动矢量可以用作当前纹理块的视图间运动矢量候选者。将给出在视图间运动矢量候选者具有如表3所示的优先级的假设之下使用按照时间间预测编译的邻近块推导视图间运动矢量方法的描述。
图10是图示按照本发明适用于其的实施例的基于预先确定的优先级从按照时间间预测编译的邻近块以及按照视图间间预测编译的邻近块推导视图间运动矢量方法的流程图。
参考图10,其可以检查是否空间邻近块按照时间间预测或者视图间间预测编译(S1000)。其可以按照空间邻近块的优先级顺序地检查是否空间邻近块按照时间间预测或者视图间间预测编译。该检查过程可以执行直到检测到按照时间或者视图间间预测编译的块。当检测到按照视图间间预测编译的空间邻近块时,当前纹理块的视图间运动矢量可以使用相应的空间邻近块的视图间运动矢量被推导出(S1010)。当检测到按照时间间预测编译的空间邻近块时,其可以检查是否已经从参考视图运动矢量推导出空间邻近块的运动矢量(S1020)。当没有从参考视图运动矢量推导出空间邻近块的运动矢量时,其可以检查是否空间邻近块具有最低优先级(S1030)。当空间邻近块不具有最低优先级时,其检查是否具有下一个优先级的空间邻近块是按照时间间预测编译的块,或者按照视图间间预测编译的块(S1000)。相反地,当相应的空间邻近块具有最低优先级时,视图间运动矢量不能从空间邻近块推导出,并且因此,执行按照优先级从时间邻近块或者视差块推导视图间运动矢量的过程。
当在步骤S1020中相应的空间邻近块的运动矢量已经从参考视图运动矢量推导出时,其可以检查是否空间邻近块已经以合并模式编译(S1040)。可以基于空间邻近块的合并模式标记信息来确定是否空间邻近块已经以合并模式编译。当在步骤S1040中空间邻近块已经以合并模式编译时,当前纹理块的视图间运动矢量可以使用与参考视图运动矢量相对应的视图间运动矢量推导出(S1050)。然而,当空间邻近块没有以合并模式编译时,空间邻近块的运动矢量差分值可以与阈值相比较(S1060)。在这里,该阈值可以被设置为预先确定的整数。例如,垂直分量的阈值可以被设置为2个像素,并且水平分量的阈值可以被设置为2个像素。当在步骤S1060中运动矢量差分值小于该阈值时,当前纹理块的视图间运动矢量可以从与空间邻近块的参考视图运动矢量相对应的视图间运动矢量推导出(S1050)。然而,当运动矢量差分值大于该阈值时,这可以指的是空间邻近块的参考视图运动矢量具有大的误差。在这种情况下,对应于参考视图运动矢量的视图间运动矢量可以被设置为无效值(S1070)。
本发明不局限于预先确定的优先级的使用,并且可以定义如表4中所示的多个优先级表,并且有选择地使用优先级表。
[表4]
优先级表索引 优先级表类型
0 空间视图间运动矢量具有最高优先级的表
1 时间视图间运动矢量具有最高优先级的表
2 视差矢量具有最高优先级的表
将给出有选择地使用多个优先级表之一的方法的描述。
在一个实施例中,编码器可以选择具有最高效率的优先级表,编译与选择的优先级表相对应的优先级表索引,并且将该优先级表索引发送给解码器。因此,解码器可以从接收的比特流提取优先级表索引,并且选择对应于该优先级表索引的优先级表。
可替选地,优先级表可以在考虑到由在当前纹理块之前编译的块使用的视图间运动矢量的情况下选择,现在将参考图11和12对其进行描述。
图11是图示按照本发明适用于其的实施例的在考虑到由空间邻近块使用的视图间运动矢量的频率的情况下选择优先级表方法的流程图。
参考图11,可以推导出空间邻近块的视图间运动矢量(S1100)。如上所述,空间邻近块的视图间运动矢量可以经由推导当前纹理块的视图间运动矢量的方法推导出。因此,空间邻近块的视图间运动矢量可以从空间视图间运动矢量、时间视图间运动矢量和视差矢量中的一个推导出。然后,空间邻近块可以按照是否空间邻近块的视图间运动矢量从空间视图间运动矢量、时间视图间运动矢量或者视差矢量推导出来被分类(S1110)。可以经由分类过程来确定在空间视图间运动矢量、时间视图间运动矢量和视差矢量之中与最高频率一起使用的矢量(S1120)。用于当前纹理块的优先级表可以按照与最高频率一起使用的矢量来被选择(S1130)。例如,当在推导空间邻近块的视图间运动矢量中空间视图间运动矢量与最高频率一起使用时,空间视图间运动矢量具有最高优先级的优先级表可以被选择用于当前纹理块。相反地,当空间视图间运动矢量没有与最高频率一起使用时,时间视图间运动矢量具有最高优先级的优先级表可以被选择用于当前纹理块。
图12是图示按照本发明适用于其的实施例的在考虑到空间邻近块的视图间运动矢量类型的情况下选择优先级表的方法的流程图。
参考图12,可以检查空间邻近块的视图间运动矢量类型(S1200)。换句话说,其可以检查是否空间邻近块的视图间运动矢量从空间视图间运动矢量、时间视图间运动矢量或者视差矢量推导出。用于空间邻近块的矢量类型索引可以基于空间邻近块的视图间运动矢量类型确定(S1210)。该矢量类型索引可以是指示是否空间邻近块的视图间运动矢量从空间视图间运动矢量、时间视图间运动矢量或者视差矢量推导出的信息。例如,当空间邻近块的视图间运动矢量是从空间视图间运动矢量推导出时,用于空间邻近块的矢量类型索引可以确定为0,当空间邻近块的视图间运动矢量是从时间视图间运动矢量推导出时,确定为1,以及当空间邻近块的视图间运动矢量是从视差矢量推导出时,确定为2。用于当前纹理块的优先级表可以基于空间邻近块的矢量类型索引确定(S1220)。例如,可以使用空间邻近块的矢量类型索引和具有与矢量类型索引相对应的优先级表索引的表。虽然为了方便起见,在表5中仅仅左块和上块被作为空间邻近块举例说明,本发明不受限于此,并且优先级表索引基于表4。
[表5]
当在空间邻近块之中的左邻近块的视图间运动矢量是从空间视图间运动矢量推导出时,用于左邻近块的矢量类型索引可以确定为0。当上邻近块的视图间运动矢量是从空间视图间运动矢量推导出时,用于上邻近块的矢量类型索引可以确定为0。参考表5,当左邻近块和上邻近块的矢量类型是0时,与当前纹理块相对应的优先级表索引被确定为0。因此,空间视图间运动矢量具有最高优先级的表可以用于当前纹理块。
当左邻近块的视图间运动矢量是从视差矢量推导出时,用于左邻近块的矢量类型索引可以确定为2。当上邻近块的视图间运动矢量从时间视图间运动矢量推导出时,用于上邻近块的矢量类型索引可以被确定为1。在这种情况下,与当前纹理块相对应的优先级表索引被确定为2。也就是说,视差矢量具有最高优先级的表可以用于当前纹理块。
当前纹理块的视图间运动矢量可以根据在S1220中确定的优先级表、在考虑到优先级的情况下被推导出(S1230)。
图13是图示按照本发明适用于其的实施例的使用状态变量确定优先级方法的流程图。
参考图13,相对于在当前纹理块之前编译的块的状态变量可以被确定(S1300)。在这里,状态变量可以指的是指示是否在当前纹理块之前编译的块的视图间运动矢量是从空间视图间运动矢量或者时间视图间运动矢量推导出的变量。例如,当块的视图间运动矢量是从空间邻近块的视图间运动矢量推导出时,在当前纹理块之前编译的块的状态变量可以被设置为0,并且当块的视图间运动矢量是从时间邻近块的视图间运动矢量推导出时,可以被设置为1。相反地,当块的视图间运动矢量是从空间邻近块的视图间运动矢量推导出时,在当前纹理块之前编译的块的状态变量可以被设置为1,以及当块的视图间运动矢量是从时间邻近块的视图间运动矢量推导出时,可以被设置为0。
当前纹理块的视图间运动矢量候选者的优先级可以基于在当前纹理块之前编译的块的确定的状态变量来被确定(S1310)。例如,当块的状态变量被设置为指示块的视图间运动矢量是从空间视图间运动矢量推导出的值时,在当前纹理块的视图间运动矢量候选者之中的空间视图间运动矢量可以给出高的优先级。相反地,当块的状态变量被设置为指示块的视图间运动矢量是从时间视图间运动矢量推导出的值时,时间视图间运动矢量可以给出高的优先级。可替选地,当多个优先级如表4所示定义时,视图间运动矢量候选者的优先级可以使用如表6所示的状态变量和具有与该状态变量相对应的优先级表索引的表确定。
[表6]
状态变量 优先级表索引 优先级表类型
0 0 空间视图间运动矢量具有最高优先级的表
1 1 时间视图间运动矢量具有最高优先级的表
参考表6,当在当前纹理块之前编译的块的状态变量是0时,换言之,当在当前纹理块之前编译的块视图间运动矢量是从空间视图间运动矢量推导出时,当前纹理块的优先级表索引可以确定为0,并且因此,空间视图间运动矢量具有最高优先级的表可以用于当前纹理块。相反地,当在当前纹理块之前编译的块的状态变量是1时,当前纹理块的优先级表索引可以确定为1,并且因此,时间视图间运动矢量具有最高优先级的表可以用于当前纹理块。
当前纹理块的视图间运动矢量可以基于确定的优先级推导出(S1320)。当前纹理块的状态变量可用于确定要编译的下一个块的优先级。因此,当前纹理块的状态变量需要基于在S1320中推导出的视图间运动矢量更新。为此,当前纹理块的视图间运动矢量类型可以与先前编译的块的视图间运动矢量类型相比较(S1330)。例如,当由于其视图间运动矢量是从空间视图间运动矢量推导出,先前编译的块的状态变量被设置为0时,并且因此,在当前纹理块的视图间运动矢量候选者之中的空间视图间运动矢量给出高的优先级,其检查是否具有最高优先级的空间邻近块具有用于当前纹理块的视图间运动矢量,并且因此,当前纹理块的视图间运动矢量可以从空间邻近块的视图间运动矢量推导出。在这种情况下,当前纹理块的视图间运动矢量类型可以被认为是与先前编译的块的视图间运动矢量类型相同。然而,当其确定空间邻近块不能使用时,其检查是否具有下一个最高优先级的候选者(例如,时间邻近块)具有用于当前纹理块的视图间运动矢量,并且当前纹理块的视图间运动矢量可以是从具有下一个最高优先级的候选者的视图间运动矢量推导出。在这种情况下,当前纹理块的视图间运动矢量类型可以被认为是不同于候选者的视图间运动矢量类型。当在S1330中其确定当前纹理块的视图间运动矢量类型不同于先前编译的块时,状态变量可以基于在S1320中推导出的当前纹理块的视图间运动矢量类型更新(S1340)。例如,尽管由于先前编译的块的视图间运动矢量是从空间视图间运动矢量推导出,先前编译的块的状态变量被设置为0,但是在当前纹理块的视图间运动矢量是从时间视图间运动矢量推导出时,状态变量可以被更新为1。在当前纹理块和先前编译的块具有相同的视图间运动矢量类型时,先前编译的块的状态变量可以被保持。
当前纹理块的视图间运动矢量可以使用具有前面提到的视图间运动矢量候选者作为输入的统计功能推导出。例如,当前纹理块的视图间运动矢量可以从视图间运动矢量候选者的中间值、模式值和平均值推导出。在这里,应用于统计功能的候选者可以包括空间视图间运动矢量、时间视图间运动矢量和视差矢量。可替选地,视图间运动矢量可以按照用于每个类别的优先级搜索,并且仅仅首次获得的视图间运动矢量可以用作统计功能的输入。此外,可以仅仅使用属于特定类别的候选者。例如,仅仅属于特定类别组合的候选者,诸如a)空间视图间运动矢量和时间视图间运动矢量,b)空间视图间运动矢量和视差矢量,以及c)时间视图间运动矢量和视差矢量可以用作统计功能的输入。
两个或更多个视图间运动矢量可以对于一个当前纹理块推导出。也就是说,当推导出当前纹理块的运动矢量时,两个或更多个视图间运动矢量可以从在视图间运动矢量候选者之中被确定,并且包括在要使用的运动矢量列表中。描述了推导多个视图间运动矢量的方法。每个类别可以获得至少一个视图间运动矢量。例如,至少一个视图间运动矢量可以从空间邻近块中获得,并且至少一个视图间运动矢量可以从时间邻近块获得。可替选地,空间邻近块可以被分成包括左下邻近块和左邻近块的第一组、以及包括右上邻近块、上邻近块和左上邻近块的第二组,并且视图间运动矢量可以每个组获得。此外,可以按照预先确定的优先级,每个组获得视图间运动矢量,并且首次获得的视图间运动矢量可以被设置为每个组的视图间运动矢量代表值。
当推导出多个视图间运动矢量时,可以存在具有相同值的视图间运动矢量。因此,当获得的视图间运动矢量被添加到当前纹理块的运动矢量列表时,可以执行去除冗余视图间运动矢量的过程。
在下文描述的实施例是本发明的元件和特点的组合。除非另作说明,元件或者特点可以选择性的考虑。每个元件或者特点可以在无需与其他元件或者特点组合的情况下实践。此外,本发明的实施例可以通过组合元件和/或特点的一部分构成。在本发明的实施例中描述的操作顺序可以重新安排。任何一个实施例的一些结构可以包括在另一个实施例中,并且可以以另一个实施例的相应的结构替换。
如上所述,本发明适用于其的解码/编码设备可以包括在多媒体广播传输/接收装置中,诸如要用于解码视频信号、数据信号等的DMB(数字多媒体广播)系统。此外,多媒体广播传输/接收装置可以包括移动通信终端。
本发明适用于其的解码/编码方法可以作为计算机可执行程序实现,并且存储在计算机可读的记录介质中,而且具有按照本发明的数据结构的多媒体数据也可以存储在计算机可读的记录介质中。计算机可读的记录介质包括存储由计算机系统可读的数据的各种存储设备。计算机可读的记录介质的示例包括ROM、RAM、CD-ROM、磁带、软盘、光数据存储设备和使用载波(例如,经由因特网传输)的介质。此外,按照该编码方法产生的比特流可以存储在计算机可读的记录介质中,或者使用有线/无线通信网络传送。
工业应用性
本发明可用于编译视频信号。

Claims (12)

1.一种用于处理视频信号的方法,包括:
基于优先级,使用当前纹理块的视图间运动矢量候选者之一推导当前纹理块的视图间运动矢量,所述优先级指示检测根据视图间预测编译的块的顺序;以及
使用推导的所述当前纹理块的视图间运动矢量来执行用于所述当前纹理块的视图间间预测,
其中,所述视图间运动矢量候选者包括空间邻近块的视图间运动矢量以及时间邻近块的视图间运动矢量,
其中,推导所述当前纹理块的视图间运动矢量包括:
检测具有最高优先级的所述时间邻近块是否是使用视图间间预测编译的;
当存在使用视图间间预测编译的所述时间邻近块时,使用所述时间邻近块的视图间运动矢量推导所述当前纹理块的视图间运动矢量;以及
当不存在使用视图间间预测编译的所述时间邻近块时,检测具有下一个最高优先级的所述空间邻近块是否是使用视图间间预测编译的。
2.根据权利要求1所述的方法,其中,所述视图间运动矢量候选者进一步包括视差矢量,以及其中所述空间邻近块的视图间运动矢量具有比所述视差矢量的优先级更高的优先级。
3.根据权利要求1所述的方法,其中,所述空间邻近块包括当前纹理块的左下邻近块、左邻近块、右上邻近块、上邻近块和左上邻近块中的至少一个。
4.根据权利要求1所述的方法,其中,所述空间邻近块包括左邻近块、上邻近块,其中,按照视图间间预测编译的所述空间邻近块使用所述空间邻近块的优先级被检测,以及
其中,检测根据用于所述空间邻近块的视图间间预测编译的块包括:
检测是否所述上邻近块是使用视图间间预测编译的;
当存在使用视图间间预测编译的所述上邻近块时,使用所述上邻近块的视图间运动矢量推到所述当前纹理块的视图间运动矢量;以及
当不存在根据视图间间预测编译的所述上邻近块时,检测所述左邻近块是使用视图间间预测编译的。
5.根据权利要求1所述的方法,其中,所述时间邻近块包括并置块、邻近于所述并置块的块和包括所述并置块的编译块中的至少一个。
6.根据权利要求5所述的方法,其中,检测的时间邻近块是所述并置块。
7.一种用于处理视频信号的装置,包括:
间预测单元(700),所述间预测单元(700)用于基于优先级,使用当前纹理块的视图间运动矢量候选者之一推导当前纹理块的视图间运动矢量,所述优先级指示检测根据视图间预测编译的块的顺序;以及用于使用所述当前纹理块的推导的视图间运动矢量执行用于当前纹理块的视图间间预测,
其中,所述视图间运动矢量候选者包括空间邻近块的视图间运动矢量和时间邻近块的视图间运动矢量,
其中,所述间预测单元(700):
检测具有最高优先级的所述时间邻近块是否是使用视图间间预测编译的;
当存在使用视图间间预测编译的所述时间邻近块时,使用所述时间邻近块的视图间运动矢量推导所述当前纹理块的视图间运动矢量;以及
当不存在使用视图间间预测编译的所述时间邻近块时,检测具有下一个最高优先级的所述空间邻近块是否是使用视图间间预测编译的。
8.根据权利要求7所述的装置,其中,所述视图间运动矢量候选者进一步包括视差矢量,以及其中,所述空间邻近块的视图间运动矢量具有比所述视差矢量的优先级更高的优先级。
9.根据权利要求7所述的装置,其中,所述空间邻近块包括当前纹理块的左下邻近块、左邻近块、右上邻近块、上邻近块和左上邻近块中的至少一个。
10.根据权利要求7所述的装置,其中所述空间邻近块包括左邻近块、上邻近块,
其中所述间预测单元(700)使用所述空间邻近块的优先级来检测按照视图间间预测编译的块,以及
其中,所述间预测单元(700)检测是否所述上邻近块是使用视图间间预测编译的;当存在使用视图间间预测编译的所述上邻近块时,使用所述上邻近块的视图间运动矢量推到所述当前纹理块的视图间运动矢量;以及当不存在根据视图间间预测编译的所述上邻近块时,检测所述左邻近块是使用视图间间预测编译的。
11.根据权利要求7所述的装置,其中,所述时间邻近块包括并置块、邻近于所述并置块的块和包括所述并置块的编译块中的至少一个。
12.根据权利要求11所述的装置,其中,检测的时间邻近块是所述并置块。
CN201380030515.XA 2012-05-10 2013-05-09 处理视频信号的方法和装置 Expired - Fee Related CN104365102B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201261645582P 2012-05-10 2012-05-10
US61/645,582 2012-05-10
PCT/KR2013/004081 WO2013169031A1 (ko) 2012-05-10 2013-05-09 비디오 신호 처리 방법 및 장치

Publications (2)

Publication Number Publication Date
CN104365102A CN104365102A (zh) 2015-02-18
CN104365102B true CN104365102B (zh) 2018-01-02

Family

ID=49550991

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201380030515.XA Expired - Fee Related CN104365102B (zh) 2012-05-10 2013-05-09 处理视频信号的方法和装置

Country Status (6)

Country Link
US (1) US10341677B2 (zh)
EP (1) EP2849441B1 (zh)
JP (2) JP6039793B2 (zh)
KR (2) KR101626759B1 (zh)
CN (1) CN104365102B (zh)
WO (1) WO2013169031A1 (zh)

Families Citing this family (41)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9525861B2 (en) 2012-03-14 2016-12-20 Qualcomm Incorporated Disparity vector prediction in video coding
US9445076B2 (en) 2012-03-14 2016-09-13 Qualcomm Incorporated Disparity vector construction method for 3D-HEVC
US9549180B2 (en) 2012-04-20 2017-01-17 Qualcomm Incorporated Disparity vector generation for inter-view prediction for video coding
US20130336405A1 (en) * 2012-06-15 2013-12-19 Qualcomm Incorporated Disparity vector selection in video coding
WO2014166109A1 (en) * 2013-04-12 2014-10-16 Mediatek Singapore Pte. Ltd. Methods for disparity vector derivation
US9288507B2 (en) * 2013-06-21 2016-03-15 Qualcomm Incorporated More accurate advanced residual prediction (ARP) for texture coding
US9716899B2 (en) 2013-06-27 2017-07-25 Qualcomm Incorporated Depth oriented inter-view motion vector prediction
WO2015006922A1 (en) * 2013-07-16 2015-01-22 Mediatek Singapore Pte. Ltd. Methods for residual prediction
KR102147356B1 (ko) * 2013-09-30 2020-08-24 삼성전자 주식회사 캐시 메모리 시스템 및 그 동작방법
WO2015062002A1 (en) * 2013-10-31 2015-05-07 Mediatek Singapore Pte. Ltd. Methods for sub-pu level prediction
CN110430433B (zh) 2014-01-03 2022-12-20 庆熙大学校产学协力团 导出子预测单元的时间点之间的运动信息的方法和装置
EP3395072A4 (en) 2015-12-22 2019-05-22 RealNetworks, Inc. SELECTION AND PREDICTION OF MOTION VECTOR IN VIDEO ENCODING SYSTEMS AND METHODS
US10880548B2 (en) * 2016-06-01 2020-12-29 Samsung Electronics Co., Ltd. Methods and apparatuses for encoding and decoding video according to coding order
JP6895247B2 (ja) * 2016-10-06 2021-06-30 日本放送協会 符号化装置、復号装置及びプログラム
CN116866552A (zh) * 2017-01-16 2023-10-10 世宗大学校产学协力团 影像信号解码/编码方法以及传送比特流的方法
TWI657431B (zh) * 2017-04-10 2019-04-21 鈺立微電子股份有限公司 動態顯示系統
US11082716B2 (en) 2017-10-10 2021-08-03 Electronics And Telecommunications Research Institute Method and device using inter prediction information
WO2019074273A1 (ko) * 2017-10-10 2019-04-18 한국전자통신연구원 인터 예측 정보를 사용하는 방법 및 장치
CN110662043B (zh) 2018-06-29 2021-12-21 北京字节跳动网络技术有限公司 一种用于处理视频数据的方法、装置和计算机可读介质
WO2020003283A1 (en) 2018-06-29 2020-01-02 Beijing Bytedance Network Technology Co., Ltd. Conditions for updating luts
BR112020024142A2 (pt) 2018-06-29 2021-03-02 Beijing Bytedance Network Technology Co., Ltd. método para processamento de vídeo, aparelho para codificação de dados de vídeo, meio de armazenamento e meio de gravação legíveis por computador não transitório
AU2019293670B2 (en) 2018-06-29 2023-06-08 Beijing Bytedance Network Technology Co., Ltd. Update of look up table: FIFO, constrained FIFO
JP7328330B2 (ja) 2018-06-29 2023-08-16 北京字節跳動網絡技術有限公司 Lutにおける動き候補のチェック順序
CN110662056B (zh) 2018-06-29 2022-06-07 北京字节跳动网络技术有限公司 哪个查找表需要更新或不更新
KR20210025537A (ko) 2018-06-29 2021-03-09 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 하나 또는 다수의 룩업 테이블들을 사용하여 이전에 코딩된 모션 정보를 순서대로 저장하고 이를 사용하여 후속 블록들을 코딩하는 개념
WO2020003270A1 (en) 2018-06-29 2020-01-02 Beijing Bytedance Network Technology Co., Ltd. Number of motion candidates in a look up table to be checked according to mode
WO2020008348A1 (en) 2018-07-02 2020-01-09 Beijing Bytedance Network Technology Co., Ltd. Order of rounding and pruning in lamvr
GB2590310B (en) 2018-09-12 2023-03-22 Beijing Bytedance Network Tech Co Ltd Conditions for starting checking HMVP candidates depend on total number minus K
WO2020084476A1 (en) 2018-10-22 2020-04-30 Beijing Bytedance Network Technology Co., Ltd. Sub-block based prediction
WO2020084475A1 (en) 2018-10-22 2020-04-30 Beijing Bytedance Network Technology Co., Ltd. Utilization of refined motion vector
WO2020098647A1 (en) 2018-11-12 2020-05-22 Beijing Bytedance Network Technology Co., Ltd. Bandwidth control methods for affine prediction
US10708626B2 (en) * 2018-11-19 2020-07-07 Google Llc Iterative IDCT with adaptive non-linear filtering
KR20210091161A (ko) 2018-11-20 2021-07-21 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 부분적 위치에 기반한 차분 계산
WO2020103870A1 (en) 2018-11-20 2020-05-28 Beijing Bytedance Network Technology Co., Ltd. Inter prediction with refinement in video processing
US20220086475A1 (en) * 2019-01-09 2022-03-17 Lg Electronics Inc. Method and device for signaling whether tmvp candidate is available
KR102648159B1 (ko) 2019-01-10 2024-03-18 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 Lut 업데이트의 호출
CN113383554B (zh) 2019-01-13 2022-12-16 北京字节跳动网络技术有限公司 LUT和共享Merge列表之间的交互
CN113330739A (zh) 2019-01-16 2021-08-31 北京字节跳动网络技术有限公司 Lut中的运动候选的插入顺序
WO2020177755A1 (en) 2019-03-06 2020-09-10 Beijing Bytedance Network Technology Co., Ltd. Usage of converted uni-prediction candidate
WO2020192611A1 (en) 2019-03-22 2020-10-01 Beijing Bytedance Network Technology Co., Ltd. Interaction between merge list construction and other tools
KR20230169434A (ko) 2019-04-02 2023-12-15 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 디코더 측 움직임 벡터 유도

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100631777B1 (ko) 2004-03-31 2006-10-12 삼성전자주식회사 다 계층의 모션 벡터를 효율적으로 압축하는 방법 및 장치
JP2005094803A (ja) * 2004-11-15 2005-04-07 Toshiba Corp 動画像符号化装置および動画像符号化方法
US8644386B2 (en) 2005-09-22 2014-02-04 Samsung Electronics Co., Ltd. Method of estimating disparity vector, and method and apparatus for encoding and decoding multi-view moving picture using the disparity vector estimation method
US7903737B2 (en) * 2005-11-30 2011-03-08 Mitsubishi Electric Research Laboratories, Inc. Method and system for randomly accessing multiview videos with known prediction dependency
KR20080008944A (ko) * 2006-07-21 2008-01-24 엘지전자 주식회사 비디오 신호 디코딩 방법 및 장치
KR20080015760A (ko) * 2006-08-16 2008-02-20 엘지전자 주식회사 비디오 신호 디코딩 방법 및 장치
KR20080047944A (ko) * 2006-11-27 2008-05-30 엘지전자 주식회사 비디오 신호 디코딩 장치 및, 비디오 신호 디코딩 방법
EP2924994B1 (en) * 2008-05-07 2016-09-21 LG Electronics, Inc. Method and apparatus for decoding video signal
KR20110071047A (ko) 2009-12-20 2011-06-28 엘지전자 주식회사 비디오 신호 디코딩 방법 및 장치
KR101752418B1 (ko) 2010-04-09 2017-06-29 엘지전자 주식회사 비디오 신호 처리 방법 및 장치
US9712819B2 (en) * 2011-10-12 2017-07-18 Lg Electronics Inc. Image encoding method and image decoding method
US20130176390A1 (en) 2012-01-06 2013-07-11 Qualcomm Incorporated Multi-hypothesis disparity vector construction in 3d video coding with depth
US20130272412A1 (en) * 2012-04-12 2013-10-17 Qualcomm Incorporated Common motion information candidate list construction process

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
KONIECZNY J ET AL.Depeth-based inter-view motion data prediction for HEVC-baed multiview video coding.《2012 PICTURE CODING SYMPOSIUM(PCS 2012):KRAKOW, POLAND, 7-9 MAY 2012;[PROCEEDINGS], IEEE, PICATAWAY, NJ, 7 MAY 2012(2012-05-07)》.2012,33-36. *
LI ZHANG ET AL.3D-CE5.h related: Disparity vector derivation for multiview video and 3DV.《100.MPEG MEETING;30-4-2012-4-5-2012;GENEVA;(MOTION PICTURE EXPERT GROUP OR ISO/IEC JTC1/SC29/WG11), no.m24937, 1 May 2012(2012-05-01), XP030053280》.2012, *

Also Published As

Publication number Publication date
WO2013169031A1 (ko) 2013-11-14
KR101626759B1 (ko) 2016-06-02
JP6039793B2 (ja) 2016-12-07
KR20150029627A (ko) 2015-03-18
CN104365102A (zh) 2015-02-18
JP6309593B2 (ja) 2018-04-11
EP2849441A1 (en) 2015-03-18
EP2849441A4 (en) 2015-11-25
US20150098509A1 (en) 2015-04-09
US10341677B2 (en) 2019-07-02
JP2015519835A (ja) 2015-07-09
JP2017022789A (ja) 2017-01-26
KR20160075753A (ko) 2016-06-29
EP2849441B1 (en) 2019-08-21

Similar Documents

Publication Publication Date Title
CN104365102B (zh) 处理视频信号的方法和装置
CN107211156B (zh) 一种译码视频数据的方法、装置及计算机可读存储媒体
CN105379282B (zh) 用于纹理译码的先进残余预测(arp)的方法和设备
CN105052146B (zh) 对3d视频译码中的视差向量导出和运动向量预测的简化
CN106851313B (zh) 对图像进行解码的方法
CN103733625B (zh) 用于对运动矢量进行解码的方法
CN110521205A (zh) 用于视频编解码的子预测单元时间运动向量预测
CN109691106A (zh) 时间运动向量预测符的偏移向量识别
CN109076236A (zh) 用于视频译码的运动矢量预测的合并候选项
CN110121884A (zh) 用于滤波的方法和装置
CN109644276A (zh) 图像编码/解码方法
CN108605136A (zh) 基于图片次序计数的运动矢量精简
CN105325001A (zh) 面向深度的视图间运动向量预测
CN106105191A (zh) 用于处理多视图视频信号的方法和装置
CN110024394A (zh) 对图像编码/解码的方法和设备及存储比特流的记录介质
CN108141604A (zh) 图像编码和解码方法和图像解码设备
CN104956678A (zh) 用于三维视频的高级合并/跳过模式及高级运动向量预测(amvp)模式
CN107277541A (zh) 编码和解码图像的方法及使用该方法的设备
CN104380744B (zh) 处理视频信号的方法和设备
CN110024402A (zh) 图像编码/解码方法和装置以及存储有比特流的记录介质
CN109495738A (zh) 一种运动信息的编解码方法和装置
CN104429078A (zh) 用于处理视频信号的方法和设备
CN106105190A (zh) 用于3d‑hevc的简化高级残余预测
CN110537370A (zh) 使用模板匹配的预测编码技术

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20180102