CN104782127A - 处理视频信号的方法和设备 - Google Patents

处理视频信号的方法和设备 Download PDF

Info

Publication number
CN104782127A
CN104782127A CN201380058243.4A CN201380058243A CN104782127A CN 104782127 A CN104782127 A CN 104782127A CN 201380058243 A CN201380058243 A CN 201380058243A CN 104782127 A CN104782127 A CN 104782127A
Authority
CN
China
Prior art keywords
unit
block
motion vector
current prediction
prediction unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201380058243.4A
Other languages
English (en)
Other versions
CN104782127B (zh
Inventor
具文模
郑志旭
芮世薰
许镇
金兑燮
成宰源
孙银庸
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
LG Electronics Inc
Original Assignee
LG Electronics Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by LG Electronics Inc filed Critical LG Electronics Inc
Publication of CN104782127A publication Critical patent/CN104782127A/zh
Application granted granted Critical
Publication of CN104782127B publication Critical patent/CN104782127B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/161Encoding, multiplexing or demultiplexing different image signal components
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/42Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
    • H04N19/43Hardware specially adapted for motion estimation or compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/42Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
    • H04N19/436Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation using parallelised computational arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • H04N19/52Processing of motion vectors by encoding by predictive encoding

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computing Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

根据本发明,使用并行处理信息获得当前编译单元的视图间运动矢量,并且使用当前编译单元的视图间运动矢量并行获得在当前编译单元中的当前预测单元的运动矢量。本发明涉及用于处理视频信号的方法和设备,其中通过比较对应于当前预测单元的参考图片的输出顺序信息和对应于相应块的参考图片的输出顺序信息获得当前预测单元的运动矢量预测值。根据本发明,经由并行处理步骤,多视点视频图像可以被迅速地恢复,并且可以使用对应于与当前预测单元不同视点的相应块的参考图片的运动信息提高运动矢量预测值的精度。

Description

处理视频信号的方法和设备
技术领域
本发明涉及用于处理视频信号的方法和设备。
背景技术
压缩指的是用于经由通信线路发送数字信息,或者以适用于存储介质的形式存储数字信息的信号处理技术。压缩对象包括音频、视频和文字信息。特别地,压缩图像的技术称作视频压缩。多视图视频具有空间冗余、时间冗余和视图间冗余的特征。
发明内容
技术问题
本发明的一个目的是改善视频信号编译效率。
技术方案
本发明可以使用在多视图视频图像中的并行处理信息获得当前编译单元的视图间运动矢量,并且使用当前编译单元的视图间运动矢量并行获得当前预测单元的运动矢量。
本发明可以通过比较对应于当前预测单元的参考图片的图片顺序计数与相应块的参考图片的图片顺序计数,获得当前预测单元的运动矢量预测值。
当对应于当前预测单元的参考图片的图片顺序计数与相应块的参考图片的图片顺序计数相同的时候,本发明可以使用对应于相应块的参考图片的运动信息,获得当前预测单元的运动矢量预测值。
当对应于当前预测单元的参考图片的图片顺序计数与相应块的参考图片的图片顺序计数不相同的时候,本发明可以使用对应于当前预测单元的参考图片的图片顺序计数、相应块的参考图片的图片顺序计数,和对应于相应块的参考图片的运动信息,获得当前预测单元的运动矢量预测值。
有益效果
本发明可以通过经由在多视图视频图像中的并行处理获得当前编译单元的视图间运动矢量和当前预测单元的运动矢量来快速地恢复视频图像。
本发明可以使用对应于与当前预测单元不同视图的相应块的参考图片的运动信息,获得正确的运动矢量预测值。
附图说明
图1是根据本发明的一个实施例深度编译适用于其的广播接收机的方框图。
图2是根据本发明一个实施例的视频解码器的方框图。
图3是图示根据本发明的一个实施例用于使用并行处理信息获得当前单元的视图间运动矢量,和获得当前预测单元的运动矢量方法的流程图。
图4图示根据本发明的一个实施例使用并行处理信息获得当前编译单元的视图间运动矢量的例子。
图5图示根据本发明的一个实施例以N×N为单位并行处理在当前编译单元中的当前预测单元的例子。
图6图示根据本发明的一个实施例以2N×N为单位并行处理在当前编译单元中的当前预测单元的例子。
图7图示根据本发明的一个实施例以N×2N为单位并行处理在当前编译单元中的当前预测单元的例子。
图8是图示根据本发明的一个实施例使用对应于当前预测单元的参考图片的图片顺序计数、相应块的参考图片的图片顺序计数,和对应于相应块的参考图片的运动矢量,用于获得当前预测单元的运动矢量预测值方法的流程图。
图9图示当相应块的参考图片的图片顺序计数与对应于当前预测单元的参考图片的图片顺序计数相同的时候,用于获得当前预测单元的运动矢量预测值的示例性方法。
图10图示当相应块的参考图片的图片顺序计数不同于对应于当前预测单元的参考图片的图片顺序计数的时候,用于获得当前预测单元的运动矢量预测值的示例性方法。
具体实施方式
本发明提供一种用于处理视频信号的方法和设备,其使用对应于当前编译单元的相邻块的视图间运动矢量,获得包括在当前并行处理单元中包括的当前编译单元的视图间运动矢量,并且使用当前编译单元的视图间运动矢量,并行获得一个或多个当前预测单元的运动矢量,其中使用并行处理信息确定当前并行处理单元的大小,并且对应于当前编译单元的相邻块被包括在邻近于当前并行处理单元的并行处理单元中,其中当前编译单元包括一个或多个当前预测单元。
邻近于当前并行处理单元的并行处理单元可以是当前并行处理单元的左下并行处理单元、左侧并行处理单元、左上并行处理单元、上并行处理单元和右上并行处理单元的至少一个。
在当前编译单元具有2N×2N大小,每个当前预测单元具有N×N的大小,并且当前预测单元被并行处理时,当前预测单元可以包括第一预测单元、第二预测单元、第三预测单元和第四预测单元,其中使用第一预测单元的左上块、上块、右上块、左侧块和左下块的运动信息获得第一预测单元的运动矢量预测值,使用第二预测单元的左上块、上块和右上块的运动信息获得第二预测单元的运动矢量预测值,使用第三预测单元的左上块、左侧块和左下块的运动信息获得第三预测单元的运动矢量预测值,以及使用第四预测单元的右上块和左下块的运动信息获得第四预测单元的运动矢量预测值。
在当前编译单元具有2N×2N大小,每个当前预测单元具有N×2N的大小,并且当前预测单元被并行处理时,当前预测单元可以包括第五预测单元和第六预测单元,其中使用第五预测单元的左上块、上块、右上块、左侧块和左下块的运动信息获得第五预测单元的运动矢量预测值,以及使用第六预测单元的左上块、上块、右上块和左下块的运动信息获得第六预测单元的运动矢量预测值。
在当前编译单元具有2N×2N大小,每个当前预测单元具有2N×N的大小,并且当前预测单元被并行处理时,当前预测单元可以包括第七预测单元和第八预测单元,其中使用第七预测单元的左上块、上块、右上块、左侧块和左下块的运动信息获得第七预测单元的运动矢量预测值,以及使用第八预测单元的左上块、右上块、左侧块和左下块的运动信息获得第八预测单元的运动矢量预测值。
根据本发明用于处理视频信号的方法可以包括:获得有关对应于当前预测单元的参考图片的图片顺序计数的信息;使用视图间运动矢量获得有关相应块的参考图片的图片顺序计数的信息;将相应块的参考图片的图片顺序计数与对应于当前预测单元的参考图片的图片顺序计数比较;以及基于比较结果获得当前预测单元的运动矢量预测值,其中对应于当前预测单元的参考图片被放置在与当前预测单元相同的视图处,并且在与当前预测单元不同的时间处,相应块被放置在与当前预测单元不同的视图处,并且在与当前预测单元相同的时间处,以及相应块的参考图片被放置在与相应块相同的视图处,并且在与相应块不同的时间处。
当相邻块是视图间预测块,并且在获得当前预测单元的运动矢量预测值的过程中相应块的参考图片的图片顺序计数与对应于当前图片单元的参考图片的图片顺序计数相同的时候,可以使用与相应块的参考图片相对应的运动矢量获得当前预测单元的运动矢量预测值。
当相邻块是视图间预测块,并且在获得的当前预测单元的运动矢量预测值的过程中相应块的参考图片的图片顺序计数不同于对应于当前图片单元的参考图片的图片顺序计数的时候,可以使用相应块的参考图片的图片顺序计数、与当前预测单元相对应的参考图片的图片顺序计数,和与相应块的参考图片相对应的运动矢量获得当前预测单元的运动矢量预测值。
当相邻块是参考视图时间中间预测块,并且在获得当前预测单元的运动矢量预测值的过程中相应块的参考图片的图片顺序计数与对应于当前图片单元的参考图片的图片顺序计数相同的时候,可以使用与相应块的参考图片相对应的运动矢量获得当前预测单元的运动矢量预测值。
用于发明的模式
用于压缩或者解码多视图视频信号数据的技术考虑空间冗余、时间冗余和视图间冗余。在多视图图像的情况下,在两个或更多个视图上获得的多视图纹理图像可以被编译以便产生三维图像。此外,对应于多视图纹理图像的深度数据可以根据需要被编译。深度数据可以考虑到空间冗余、时间冗余或者视图间冗余被压缩。深度数据是有关在相机和相应的像素之间距离的信息。在本说明书中,深度数据可以灵活地解释为深度相关的信息,诸如深度信息、深度图像、深度图片、深度序列和深度比特流。此外,在本说明书中,编译(coding)可以包括编码(encoding)和解码(decoding)概念两者,并且可以在本发明的技术精神和技术范围内灵活地解释。
图1是根据本发明适用于其的一个实施例的深度编译适用于其的广播接收机的方框图。
根据当前的实施例的广播接收机接收陆地广播信号以再现图像。广播接收机可以使用接收的深度相关信息产生三维内容。广播接收机包括调谐器100、解调器/信道解码器102、传输多路分解器104、解包器106、音频解码器108、视频解码器110、PSI/PSIP处理器114、3D呈现器116、格式器120和显示器122。
调谐器100选择在经由天线(未示出)输入的多个广播信号之中由用户调谐的信道的广播信号,并且输出选择的广播信号。解调器/信道解码器102解调来自调谐器100的广播信号,并且对解调的信号执行纠错解码以输出传输流TS。传输多路分解器104多路分解传输流,以便将传输流划分为视频PES和音频PES,并且提取PSI/PSIP信息。解包器106对视频PES和音频PES解组以恢复视频ES和音频ES。音频解码器108通过解码音频ES输出音频比特流。该音频比特流由数字-模拟转换器(未示出)转换为模拟音频信号,由放大器(未示出)放大,并且然后经由扬声器(未示出)输出。视频解码器110解码视频ES以恢复原始图像。音频解码器108和视频解码器110的解码过程可以基于由PSI/PSIP处理器114确认的分组ID(PID)执行。在解码过程期间,视频解码器110可以提取深度信息。此外,视频解码器110可以提取对产生虚拟相机视图图像说来必需的附加信息,例如,相机信息,或者用于估算由前面的对象隐藏的闭塞(occlusion)的信息(例如,几何信息,诸如对象轮廓、对象透明度信息和颜色信息),并且将附加信息提供给3D呈现器116。但是,深度信息和/或附加信息在本发明的其它的实施例中可以通过传输多路分解器104相互分离。
PSI/PSIP处理器114从传输多路分解器104接收PSI/PSIP信息,解析PSI/PSIP信息,并且在存储器(未示出)或者寄存器中存储解析的PSI/PSIP信息,以便允许基于存储的信息广播。3D呈现器116可以在虚拟相机位置使用恢复的图像、深度信息、附加信息和相机参数产生颜色信息、深度信息等等。
此外,3D呈现器116通过使用恢复的图像和关于恢复的图像的深度信息执行3D扭曲,在虚拟相机的位置产生虚拟的图像。虽然3D呈现器116在当前的实施例中被配置为与视频解码器110分离的块,这仅仅是一个示例,并且3D呈现器116可以包括在视频解码器110中。
格式器120格式化在解码过程中恢复的图像,即,由相机捕捉的真实的图像,和由3D呈现器116根据广播接收机的显示模式产生的虚拟的图像,使得3D图像经由显示器122显示。在这里,由3D呈现器116在虚拟相机处的深度信息和虚拟图像的合成,和由格式器120的图像格式化可以响应于用户命令有选择地执行。也就是说,用户可以操纵遥控器(未示出),使得组合图像不显示,并且指定图像合成时间。
如上所述,用于产生3D图像的深度信息由3D呈现器116使用。但是,该深度信息在其它的实施例中可以由视频解码器110使用。将给出视频解码器110使用深度信息的各种实施例的描述。
图2是根据本发明适用于其的一个实施例的视频解码器的方框图。
参考图2,视频解码器110可以包括熵解码单元210、反量化单元220、反变换单元230、解块滤波单元240、解码图片缓存单元250、中间预测单元260和内部预测单元270。在图2中,实线表示彩色图片数据的流动,并且虚线表示深度图片数据的流动。虽然彩色图像数据和深度图片数据在图2中分开地表示,但是彩色图像数据和深度图片数据的单独的表示可以指的是单独的比特流或者在一个比特流中单独的数据流。也就是说,彩色图像数据和深度图片数据可以作为一个比特流或者单独的比特流发送。图2仅仅示出数据流,并且不限制在一个解码器中执行的操作的操作。
首先,为了解码接收的深度比特流200,深度比特流200被按照NAL解析。在这里,关于深度的各种类型的属性信息可以包括在NAL头部区、NAL头部的扩展区、序列头部区(例如,序列参数集)、序列头部的扩展区、图片头部区(例如,图片参数集)、图片头部的扩展区、片头部区、片头部的扩展区、片数据区或者宏块区中。虽然深度编译可以使用单独的编解码器执行,但是如果实现与现有的编解码器兼容,则仅仅在深度比特流的情况下增加关于深度的属性信息可能是更加有效的。例如,用于识别深度比特流的深度识别信息可以被增加给序列头部区(例如,序列参数集),或者序列头部的扩展区。只有当输入比特流是深度编译的比特流时,根据深度识别信息可以增加关于深度序列的属性信息。
解析的深度比特流200经由熵解码单元210被熵解码,并且每个宏块的系数、运动矢量等等被提取。反量化单元220将接收的量化值乘以预先确定的常数,以便获得变换系数,并且反变换单元230逆向地变换该系数以恢复深度图片的深度信息。内部预测单元270使用当前的深度图片的恢复的深度信息执行内部预测。解块滤波单元240将解块滤波适用于每个编译的宏块以便减小块失真。解块滤波单元通过平滑块的边缘改善解码的帧的纹理。滤波过程取决于边界强度和围绕边界的图像采样斜率被选择。滤波的深度图片被输出或者存储在解码图片缓存单元250中以用作参考图片。
解码图片缓存单元250存储或者开放先前编译的深度图片用于中间预测。在这里,为了在解码图片缓存单元250中存储编译的深度图片,或者开放存储的编译的深度图片,使用每个图片的frame_num和POC(图片顺序计数)。由于先前编译的图片可以包括不同于当前深度图片的对应于视图的深度图片,所以可以使用用于识别深度图片的视图的深度视图信息以及frame_num和POC,以便在深度编译中将先前编译的图片作为参考图片使用。
此外,解码图片缓存单元250可以使用深度视图信息,以便产生用于深度图片的视图间预测的参考图片列表。例如,解码图片缓存单元250可以使用深度视图参考信息。深度视图参考信息指的是用于表示在深度图片的视图之间相关性的信息。例如,深度视图参考信息可以包括深度视图的数目、深度视图识别编号、深度视图参考图片的数目、深度视图参考图片的深度视图识别编号等等。
解码图片缓存单元250管理参考图片,以便实现更加灵活的中间预测。例如,可以使用存储管理控制操作方法和滑动窗口方法。参考图片管理将参考图片存储器和非参考图片存储器统一为一个存储器,并且管理统一的存储器,以便以小容量存储器实现有效的管理。在深度编译中,深度图片可以被分别地标记为与在解码图片缓存单元中的彩色图片区别,并且在标记过程中可以使用用于识别每个深度图片的信息。经由前面提到的过程管理的参考图片可以在中间预测单元260中用于深度编译。
参考图2,中间预测单元260可以包括运动补偿单元261、虚拟视图合成单元262和深度图片产生单元263。
运动补偿单元261使用从熵解码单元210发送的信息补偿当前块的运动。运动补偿单元261从视频信号中提取当前块的相邻块的运动矢量,并且获得当前块的运动矢量预测值。运动补偿单元261使用运动矢量预测值和从视频信号中提取的差分矢量补偿当前块的运动。运动补偿可以使用一个参考图片或者多个图片执行。在深度编译中,在当前的深度图片指的是不同视图的深度图片的时候,运动补偿可以使用有关用于存储在解码图片缓存单元250中的深度图片的视图间预测的参考图片列表的信息执行。此外,可以使用用于识别深度图片的视图的深度视图信息执行运动补偿。
虚拟视图合成单元262使用当前的彩色图像的视图的邻近视图的彩色图像合成虚拟视图的彩色图像。为了使用邻近视图的彩色图像,或者为了使用期望的特定视图的彩色图像,可以使用表示彩色图像的视图的视图识别信息。当产生虚拟视图的彩色图像的时候,可以定义表示是否产生虚拟视图的彩色图像的标记信息。当该标记信息表示产生虚拟视图的彩色图像的时候,可以使用视图识别信息产生虚拟视图的彩色图像。经由虚拟视图合成单元262获得的虚拟视图的彩色图像可以用作参考图片。在这种情况下,视图识别信息可以指配给虚拟视图的彩色图像。
在另一个实施例中,虚拟视图合成单元262可以使用与当前的深度图片的视图的邻近视图相对应的深度图片合成虚拟视图的深度图片。在这种情况下,可以使用表示深度图片的视图的深度视图识别信息。在这里,深度视图识别信息可以从相应的彩色图像的视图识别信息中推导出。例如,相应的彩色图像可以具有与当前的深度图片相同的图片输出顺序信息和相同的视图识别信息。
深度图片产生单元263可以使用深度编译信息产生当前的深度图片。在这里,深度编译信息可以包括表示在相机和对象之间距离的距离参数(例如,在相机坐标系上的z坐标值等等)、用于深度编译的宏块型信息、用于识别在深度图片中边界的信息、表示是否在RBSP中的数据包括深度编译数据的信息、表示是否数据类型是深度图片数据、彩色图像数据或者视差数据的信息等等。此外,当前的深度图片可以使用深度编译信息预测。也就是说,可以执行使用当前的深度图片的邻近深度图片的中间预测,并且可以执行使用在当前深度图片中的解码的深度信息的内部预测。
在本发明中,当适用于视频信号的时候,“单元”可以指的是块、子块、宏块、片、图片、帧、图片组、序列等等。因此,“单元”的含义将根据其应用解释。此外,当单元适用于除视频信号以外的信号的时候,单元可以解释为具有适用于信号的含义。编译单元指的是在视频信号处理过程中的基本单元。编译单元在视频处理中可以不必具有固定的大小。预测单元指的是用于预测的基本单元。预测单元可以具有方形形式(2N×2N或者N×N)的大小,或者长方形形式(2N×N或者N×2N)的大小。预测单元的大小可以与编译单元相同或者小于编译单元。编译单元可以被分割为多个预测单元。此外,当前的单元在本发明中可以定义为包括当前的编译单元和当前的预测单元。
将给出使用并行处理信息用于并行获得当前的单元的视图间运动矢量,和使用视图间运动矢量获得当前的预测单元的运动矢量方法的描述。在本发明中,并行处理可以指的是多个单元的同时编译。
图3是图示使用并行处理信息用于并行获得当前的单元的视图间运动矢量和获得当前的预测单元的运动矢量方法的流程图。
并行处理信息可以从比特流中获得(S300)。并行处理信息可以表示是否执行并行处理,并且包括有关并行处理单元大小的信息。在这里,并行处理单元可以指的是对其适用并行处理的基本单元。并行处理信息可以按照图片、帧、图片组或者序列获得。
当前的单元的视图间运动矢量可以使用并行处理信息获得(S310)。是否并行处理适用于最高的当前编译单元可以经由并行处理信息确定。在这里,最高的当前编译单元是包括当前编译单元的编译单元,并且当前编译单元可以经由最高的当前编译单元的分割获得。如果并行处理适用于最高的当前编译单元,并且并行处理单元的大小确定,则包括在最高的当前编译单元中的当前编译单元的视图间运动矢量可以使用当前编译单元的相邻块的视图间运动矢量获得。当前编译单元的相邻块被包括在邻近于当前并行处理单元的并行处理单元中,当前并行处理单元包括当前编译单元。邻近于当前并行处理单元的并行处理单元可以是当前并行处理单元的左下并行处理单元、左侧并行处理单元、左上并行处理单元、上并行处理单元和右上并行处理单元的至少一个。将参考图4详细描述获得当前编译单元的视图间运动矢量的示例。
当前编译单元可以包括当前预测单元。当前预测单元的视图间运动矢量可以使用获得的当前编译单元的视图间运动矢量获得。做为选择,当前预测单元的视图间运动矢量可以使用当前预测单元的相邻块的视图间运动矢量获得。
当前预测单元的视图间运动矢量可以使用当前编译单元的视图间运动矢量并行获得(S320)。在这里,当前预测单元的运动矢量可以使用当前预测单元的相邻块的运动信息获得。包括在当前编译单元中的当前预测单元的并行处理的示例将参考图5、6和7描述,并且使用当前编译单元的视图间运动矢量获得当前预测单元的运动矢量的示例将参考图8、9和10描述。
将给出使用并行处理信息获得当前编译单元的视图间运动矢量示例的描述。
图4图示根据本发明的一个实施例使用并行处理信息获得当前编译单元的视图间运动矢量的示例。
如在S310中描述的,当并行处理适用于其的块包括当前编译单元的时候,当前编译单元的视图间运动矢量可以使用相邻块的视图间运动矢量获得。
图4示出最高的当前编译单元具有16N×16N大小,当前编译单元具有2N×2N大小,并且并行处理块具有8N×8N大小的示例。当前编译单元的视图间运动矢量可以使用没有与当前编译单元同时处理的相邻单元的视图间运动矢量获得。例如,当前编译单元的视图间运动矢量可以使用当前编译单元的左上块400、左侧块410和左下块420的视图间运动矢量获得。做为选择,当前编译单元的视图间运动矢量可以仅仅使用当前编译单元的左侧块410的视图间运动矢量获得。在当前编译单元的相邻块是使用视图间运动矢量编译的视图间中间预测块,或者参考视图时间中间预测块的时候,当前编译单元的视图间运动矢量可以使用相邻块的视图间运动矢量获得。
虽然当前编译单元的上块430和右上块440是当前编译单元的相邻块,但是上块430和右上块440被包括在与当前编译单元同时处理的单元中。因此,上块430和右上块440没有用于获得当前编译单元的视图间运动矢量的过程。
包括在当前最高的编译单元中的所有编译单元的视图间运动矢量可以使用前面提到的方法获得。
将给出包括在当前编译单元中的当前预测单元的并行处理示例的描述。
图5图示根据本发明的一个实施例以N×N为单位并行处理包括在当前编译单元中的当前预测单元的示例。
在当前编译单元具有2N×2N大小,并且包括在当前编译单元中的当前预测单元具有N×N大小的时候,当前编译单元包括四个当前预测单元,并且四个当前预测单元的运动矢量预测值可以使用其相邻块的运动矢量同时地获得。
参考图5,当前编译单元包括第一预测单元、第二预测单元、第三预测单元和第四预测单元。每个预测单元具有其相邻块。
可以使用第一预测单元的相邻块,即,左上块500、上块501、右上块502、左侧块505和左下块510的运动矢量获得第一预测单元的运动矢量预测值。
可以使用第二预测单元的相邻块,即,左上块501、上块503和右上块504的运动矢量获得第二预测单元的运动矢量预测值。在第二预测单元的相邻块之中的左侧块506和左下块511包括在当前编译单元中,并且左侧块506和左下块511的运动矢量可以不用于并行处理。
可以使用第三预测单元的相邻块,即,左上块505、左侧块512和左下块514的运动矢量获得第三预测单元的运动矢量预测值。在第三预测单元的相邻块之中的上块506和右上块507包括在当前编译单元中,并且上块506和右上块507的运动矢量可以不用于并行处理。
可以使用第四预测单元的相邻块,即,右上块509和左下块515的运动矢量获得第四预测单元的运动矢量预测值。在第四预测单元的相邻块之中的左上块506、上块508和左侧块513包括在当前编译单元中,并且左上块506、上块508和左侧块513的运动矢量可以不用于并行处理。
图6图示根据本发明的一个实施例以N×2N为单位并行处理包括在当前编译单元中的当前预测单元的示例。
在当前编译单元具有2N×2N大小,并且包括在当前编译单元中的当前预测单元具有N×2N大小的时候,当前编译单元包括两个当前预测单元,并且两个当前预测单元的运动矢量预测值可以使用其相邻块的运动矢量同时地获得。
参考图6,当前编译单元包括第五预测单元和第六预测单元。每个预测单元具有其相邻块。
可以使用第五预测单元的相邻块,即,左上块600、上块601、右上块602、左侧块605和左下块610的运动矢量获得第五预测单元的运动矢量预测值。
可以使用第六预测单元的相邻块,即,左上块601、上块603、右上块604和左下块615的运动矢量获得第六预测单元的运动矢量预测值。在第六预测单元的相邻块之中的左侧块613包括在当前编译单元中,并且左侧块613的运动矢量可以不用于并行处理。
图7图示根据本发明的一个实施例以2N×N为单位并行处理包括在当前编译单元中的当前预测单元的示例。
在当前编译单元具有2N×2N大小,并且包括在当前编译单元中的当前预测单元具有2N×N大小的时候,当前编译单元包括两个当前预测单元,并且两个当前预测单元的运动矢量预测值可以使用其相邻块的运动矢量同时地获得。
参考图7,当前编译单元包括第七预测单元和第八预测单元。每个预测单元具有其相邻块。
可以使用第七预测单元的相邻块,即,左上块700、上块703、右上块704、左侧块705和左下块710的运动矢量获得第七预测单元的运动矢量预测值。
可以使用第八预测单元的相邻块,即,左上块705、右上块709、左侧块712和左下块714的运动矢量获得第八预测单元的运动矢量预测值。在第八预测单元的相邻块之中的上块708包括在当前编译单元中,并且上块708的运动矢量可以不用于并行处理。
将要给出用于使用在步骤S310中获得的视图间运动矢量获得当前预测单元的运动矢量方法的描述。
图8是图示根据本发明的一个实施例用于使用图片顺序计数和对应于相应块的参考图片的运动矢量获得当前预测单元的运动矢量方法的流程图。
可以获得对应于当前预测单元的参考图片的图片顺序计数信息(S800)。图片顺序计数信息可以包括有关图片顺序计数的信息。图片顺序计数(POC)指的是当视频输出的时候的图片输出顺序。在当前预测单元根据时间中间预测被编译的时候,对应于当前预测单元的参考图片可以放置在与包括当前预测单元的当前图片相同的视图处,并且在与当前图片不同的时间处。因此,在相同的视图处的图片不具有相同的图片顺序计数。包括当前预测单元的图片的图片顺序计数可以假设为POC0,并且对应于当前预测单元的参考图片的图片顺序计数可以假设为POC1。
对应于相应块的参考图片的图片顺序计数信息和对应于相应块的参考图片的运动矢量可以使用视图间运动矢量获得(S810)。当前预测单元的视图间运动矢量可以使用在步骤S310中获得的当前编译单元的视图间运动矢量获得。当前预测单元的相应块可以使用视图间运动矢量获得。相应块可以放置在与当前预测单元不同的视图处,并且在与当前预测单元相同的时间处。
可以获得相应块的参考图片的图片顺序计数信息和对应于相应块的参考图片的运动矢量。可以使用多个参考图片根据时间中间预测编译使用视图间运动矢量检测的相应块。可以假设对应于相应块的在方向L0中参考图片的图片计数顺序是POC2L0,并且对应于相应块的在方向L1中参考图片的图片计数顺序是POC2L1。此外,可以假设对应于相应块的L0方向参考图片的运动矢量是mv2L0,并且对应于相应块的L1方向参考图片的运动矢量是mv2L1。
可以通过将对应于当前预测单元的参考图片的图片顺序计数与相应块的参考图片的图片顺序计数比较获得当前预测单元的运动矢量预测值(S820)。当对应于当前预测单元的参考图片是在方向L0的时候,对应于当前预测单元的参考图片的图片顺序计数可以优先地与相应块的L0方向参考图片的图片顺序计数相比较。当对应于当前预测单元的参考图片是在方向L1的时候,对应于当前预测单元的参考图片的图片顺序计数可以优先地与相应块的L1方向参考图片的图片顺序计数相比较。当对应于当前预测单元的参考图片的图片顺序计数POC1与相应块的参考图片的图片顺序计数POC2L0和POC2L1相比较的时候,相应块的参考图片的图片计数顺序等于或者不同于对应于当前预测单元的参考图片的图片顺序计数。可以基于该比较结果,使用相应块的参考图片的运动矢量获得当前预测单元的运动矢量。当相应块的参考图片的图片顺序计数等于对应于当前预测单元的参考图片的图片顺序计数的时候,用于获得当前预测单元的运动矢量预测值的方法将参考图9描述,并且当相应块的参考图片的图片顺序计数不同于对应于当前预测单元的参考图片的图片顺序计数的时候,用于获得当前预测单元的运动矢量预测值的方法将参考图10描述。
可以使用运动矢量预测值获得当前预测单元的运动矢量(S830)。可以使用当前预测单元的相邻块的运动矢量获得运动矢量预测值。可以作为相邻块的运动矢量预测值获得相邻块的运动矢量的一个。做为选择,可以作为相邻块的运动矢量预测值获得相邻块的运动矢量的平均值。
可以使用运动矢量预测值获得当前预测单元的运动矢量。可以直接作为当前预测单元的运动矢量使用运动矢量预测值。运动矢量预测值可以被包括在当前预测单元的运动矢量列表中。可以使用在运动矢量列表中的优先级或者当前预测单元的运动矢量索引获得当前预测单元的运动矢量。
图9图示当相应块的参考图片的图片顺序计数等于对应于当前预测单元的参考图片的图片顺序计数的时候,用于获得当前预测单元的运动矢量预测值的示例性方法。
当相应块的参考图片的图片顺序计数等于对应于当前预测单元的参考图片的图片顺序计数的时候,可以作为当前预测单元的运动矢量预测值获得与相应块的参考图片相对应的运动矢量,相应块的参考图片具有与对应于当前预测单元的参考图片相同的图片顺序计数。
参考图9,当前预测单元的参考图片910被放置在与当前预测单元相同的视图处,并且在与当前预测单元不同的时间处。当前预测单元的视图间运动矢量900可以从相邻块获得。当前预测单元的视图间运动矢量900表示相应块,并且相应块的参考图片920和930被放置在与相应块相同的视图处,并且在与相应块不同的时间处。
对应于当前预测单元的参考图片910的图片顺序计数POC1,和相应块的L0方向参考图片920的图片顺序计数POC2L2作为1彼此相同。因此,当前预测单元的运动矢量预测值可以确定为对应于相应块的L0方向参考图片920的运动矢量mv2L0。
图10图示当相应块的参考图片的图片顺序计数不等于对应于当前预测单元的参考图片的图片顺序计数的时候,用于获得当前预测单元的运动矢量预测值的示例性方法。
当相应块的参考图片的图片顺序计数不等于对应于当前预测单元的参考图片的图片顺序计数的时候,当前预测单元的运动矢量预测值可以通过缩放对应于相应块的参考图片的运动矢量获得。
参考图10,当前预测单元的参考图片1010被放置在与当前预测单元相同的视图处,并且在与当前预测单元不同的时间处。当前预测单元的视图间运动矢量1000可以从相邻块获得。当前预测单元的视图间运动矢量1000表示相应块,并且相应块的参考图片1020和1030被放置在与相应块相同的视图处,并且在与相应块不同的时间处。
虽然对应于当前预测单元的参考图片1010的图片顺序计数POC1是2,但是相应块的L0方向参考图片1020的图片顺序计数POC2L0是1,并且相应块的L1方向参考图片1030的图片顺序计数POC2L1是4。由于参考图片的图片顺序计数不同,所以当前预测单元的运动矢量预测值mv1可以根据公式1通过缩放对应于相应块的参考图片的运动矢量mv2L0和mv2L1获得。
[公式1]
mv 1 = mv 2 LXs ( POC 1 - POC 0 ) ( POC 2 LX - POC 0 )
在公式1中,当相应块的参考图片的方向是L0的时候,X可以是0,并且当方向是L1的时候,X可以是1。
将给出根据获得当前预测单元的视图间运动矢量的方法获得当前预测单元的运动矢量预测值的示例性方法的描述。
用于获得当前预测单元的运动矢量预测值的方法可以取决于表示从其中获得相应块的视图间运动矢量的相邻块的中间预测类型。如在图8的步骤S810中描述的,当前预测单元的视图间运动矢量可以从根据视图间中间预测编译的相邻块,或者根据参考视图时间中间预测编译的相邻块获得。根据视图间中间预测编译的相邻块可以提供具有比根据参考视图时间中间预测编译的相邻块更高的精度的视图间运动矢量。
因此,在当前预测单元的视图间运动矢量从通过视图间中间预测编译的相邻块获得的时候,如果相应块的参考图片的图片顺序计数等于对应于当前预测单元的参考图片的图片顺序计数,则当前预测单元的运动矢量预测值可以使用如上参考图9所述的方法获得,并且如果相应块的参考图片的图片顺序计数不同于对应于当前预测单元的参考图片的图片顺序计数,则使用如上参考图10所述的方法获得。
但是,在当前预测单元的视图间运动矢量从通过参考视图时间中间预测编译的相邻块获得的时候,如果相应块的参考图片的图片顺序计数等于对应于当前预测单元的参考图片的图片顺序计数,则当前预测单元的运动矢量预测值可以使用如上参考图9所述的方法获得,并且当相应块的参考图片的图片顺序计数不同于对应于当前预测单元的参考图片的图片顺序计数的时候,可以不使用如上参考图10所述的方法。
将给出将经由参考图9和10描述的方法获得的运动矢量预测值添加给当前预测单元的运动矢量预测值列表的顺序的描述。
经由图9的方法获得的运动矢量预测值和经由图10的方法获得的运动矢量预测值可以被增加给当前预测单元的运动矢量预测值列表。当对应于当前预测单元的参考图片的图片顺序计数与相应块的参考图片的图片顺序计数相同的时候获得的运动矢量预测值,可以被增加给具有比当对应于当前预测单元的参考图片的图片顺序计数不与相应块的参考图片的图片顺序计数相同的时候获得的运动矢量预测值更高的优先级的运动矢量预测值列表。例如,在当前预测单元的运动矢量预测值经由图9的方法获得的时候,运动矢量预测值可以被增加给运动矢量预测值列表的第三位置。在当前预测单元的运动矢量预测值经由图10的方法获得的时候,运动矢量预测值可以被增加给运动矢量预测值列表的第五位置。
如上所述,本发明适用于其的解码/编码装置可以包括在多媒体广播传输/接收装置,诸如DMB(数字多媒体广播)系统中,以用于解码视频信号、数据信号等等。此外,多媒体广播传输/接收装置可以包括移动通信终端。
本发明适用于其的解码/编码方法可以作为计算机可执行程序实现,并且存储在计算机可读的记录介质中,并且具有根据本发明的数据结构的多媒体数据也可以存储在计算机可读的记录介质中。计算机可读的记录介质包括存储由计算机系统可读的数据的各种存储设备。计算机可读的记录介质的示例包括ROM、RAM、CD-ROM、磁带、软盘、光数据存储设备,和使用载波(例如,经由因特网传输)的介质。此外,根据该编码方法产生的比特流可以存储在计算机可读的记录介质中,或者使用有线/无线通信网络传送。
工业实用性
本发明可用于编译视频信号。

Claims (18)

1.一种用于处理视频信号的方法,包括:
使用与当前编译单元相对应的相邻块的视图间运动矢量,获得在当前并行处理单元中包括的所述当前编译单元的视图间运动矢量;和
使用所述当前编译单元的所述视图间运动矢量,并行获得一个或多个当前预测单元的运动矢量,
其中,使用并行处理信息确定所述当前并行处理单元的大小,并且与所述当前编译单元相对应的所述相邻块被包括在邻近于所述当前并行处理单元的并行处理单元中,
其中,所述当前编译单元包括所述一个或多个当前预测单元。
2.根据权利要求1所述的方法,其中,邻近于所述当前并行处理单元的并行处理单元是所述当前并行处理单元的左下并行处理单元、左侧并行处理单元、左上并行处理单元、上并行处理单元和右上并行处理单元中的至少一个。
3.根据权利要求1所述的方法,其中,在所述当前编译单元具有2N×2N的大小,每个当前预测单元具有N×N的大小,并且所述当前预测单元被并行处理时,所述当前预测单元包括第一预测单元、第二预测单元、第三预测单元和第四预测单元,
其中,使用所述第一预测单元的左上块、上块、右上块、左侧块和左下块的运动信息获得所述第一预测单元的运动矢量预测值,使用所述第二预测单元的左上块、上块和右上块的运动信息获得所述第二预测单元的运动矢量预测值,使用所述第三预测单元的左上块、左侧块和左下块的运动信息获得所述第三预测单元的运动矢量预测值,以及使用所述第四预测单元的右上块和左下块的运动信息获得所述第四预测单元的运动矢量预测值。
4.根据权利要求1所述的方法,其中,在所述当前编译单元具有2N×2N的大小,每个当前预测单元具有N×2N的大小,并且所述当前预测单元被并行处理时,所述当前预测单元包括第五预测单元和第六预测单元,
其中,使用所述第五预测单元的左上块、上块、右上块、左侧块和左下块的运动信息获得所述第五预测单元的运动矢量预测值,以及使用所述第六预测单元的左上块、上块、右上块和左下块的运动信息获得所述第六预测单元的运动矢量预测值。
5.根据权利要求1所述的方法,其中,在所述当前编译单元具有2N×2N的大小,每个当前预测单元具有2N×N的大小,并且所述当前预测单元被并行处理时,所述当前预测单元包括第七预测单元和第八预测单元,
其中,使用所述第七预测单元的左上块、上块、右上块、左侧块和左下块的运动信息获得所述第七预测单元的运动矢量预测值,以及使用所述第八预测单元的左上块、右上块、左侧块和左下块的运动信息获得所述第八预测单元的运动矢量预测值。
6.根据权利要求1所述的方法,其中,并行获得所述一个或多个当前预测单元的运动矢量包括:
获得有关与所述当前预测单元相对应的参考图片的图片顺序计数的信息;
使用所述视图间运动矢量获得有关相应块的参考图片的图片顺序计数的信息;
将所述相应块的参考图片的图片顺序计数和与所述当前预测单元相对应的参考图片的图片顺序计数进行比较;以及
基于比较结果获得所述当前预测单元的运动矢量预测值,
其中,与所述当前预测单元相对应的参考图片被放置在与所述当前预测单元相同的视图处,和在与所述当前预测单元不同的时间处,所述相应块被放置在与所述当前预测单元不同的视图处,并且在与所述当前预测单元相同的时间处,以及所述相应块的参考图片被放置在与所述相应块相同的视图处,并且在与所述相应块不同的时间处。
7.根据权利要求6所述的方法,其中,当所述相邻块是视图间预测块,并且在获得所述当前预测单元的所述运动矢量预测值的过程中所述相应块的参考图片的图片顺序计数和与所述当前图片单元相对应的参考图片的图片顺序计数相同的时候,使用与所述相应块的参考图片相对应的运动矢量获得所述当前预测单元的所述运动矢量预测值。
8.根据权利要求6所述的方法,其中,当所述相邻块是视图间预测块,并且在获得所述当前预测单元的所述运动矢量预测值的过程中所述相应块的参考图片的图片顺序计数不同于与所述当前图片单元相对应的参考图片的图片顺序计数的时候,使用所述相应块的参考图片的图片顺序计数、与所述当前预测单元相对应的参考图片的图片顺序计数,和与所述相应块的参考图片相对应的运动矢量获得所述当前预测单元的所述运动矢量预测值。
9.根据权利要求6所述的方法,其中,当所述相邻块是参考视图时间中间预测块,并且在获得所述当前预测单元的所述运动矢量预测值的过程中所述相应块的参考图片的图片顺序计数和与所述当前图片单元相对应的参考图片的图片顺序计数相同的时候,使用与所述相应块的参考图片相对应的运动矢量获得所述当前预测单元的所述运动矢量预测值。
10.一种视频解码器,包括:
中间预测单元,所述中间预测单元被配置为:使用与当前编译单元相对应的相邻块的视图间运动矢量获得在当前并行处理单元中包括的所述当前编译单元的视图间运动矢量,和使用所述当前编译单元的所述视图间运动矢量并行获得一个或多个当前预测单元的运动矢量,
其中,使用并行处理信息确定所述当前并行处理单元的大小,并且与所述当前编译单元相对应的所述相邻块被包括在邻近于所述当前并行处理单元的并行处理单元中,
其中,所述当前编译单元包括所述一个或多个当前预测单元。
11.根据权利要求10所述的视频解码器,其中,邻近于所述当前并行处理单元的并行处理单元是所述当前并行处理单元的左下并行处理单元、左侧并行处理单元、左上并行处理单元、上并行处理单元和右上并行处理单元中的至少一个。
12.根据权利要求10所述的视频解码器,其中,在所述当前编译单元具有2N×2N的大小,每个当前预测单元具有N×N的大小,并且所述当前预测单元被并行处理时,所述当前预测单元包括第一预测单元、第二预测单元、第三预测单元和第四预测单元,
其中,所述中间预测单元使用所述第一预测单元的左上块、上块、右上块、左侧块和左下块的运动信息获得所述第一预测单元的运动矢量预测值,使用所述第二预测单元的左上块、上块和右上块的运动信息获得所述第二预测单元的运动矢量预测值,使用所述第三预测单元的左上块、左侧块和左下块的运动信息获得所述第三预测单元的运动矢量预测值,并且使用所述第四预测单元的右上块和左下块的运动信息获得所述第四预测单元的运动矢量预测值。
13.根据权利要求10所述的视频解码器,其中,在所述当前编译单元具有2N×2N的大小,每个当前预测单元具有N×2N的大小,并且所述当前预测单元被并行处理时,所述当前预测单元包括第五预测单元和第六预测单元,
其中,所述中间预测单元使用所述第五预测单元的左上块、上块、右上块、左侧块和左下块的运动信息获得所述第五预测单元的运动矢量预测值,并且使用所述第六预测单元的左上块、上块、右上块和左下块的运动信息获得所述第六预测单元的运动矢量预测值。
14.根据权利要求10所述的视频解码器,其中,在所述当前编译单元具有2N×2N的大小,每个当前预测单元具有2N×N的大小,并且所述当前预测单元被并行处理时,所述当前预测单元包括第七预测单元和第八预测单元,
其中,所述中间预测单元使用所述第七预测单元的左上块、上块、右上块、左侧块和左下块的运动信息获得所述第七预测单元的运动矢量预测值,并且使用所述第八预测单元的左上块、右上块、左侧块和左下块的运动信息获得所述第八预测单元的运动矢量预测值。
15.根据权利要求10所述的视频解码器,其中,所述中间预测单元获得有关与所述当前预测单元相对应的参考图片的图片顺序计数的信息,使用所述视图间运动矢量获得有关相应块的参考图片的图片顺序计数的信息,将所述相应块的参考图片的图片顺序计数和与所述当前预测单元相对应的参考图片的图片顺序计数进行比较,以及基于比较结果获得所述当前预测单元的运动矢量预测值,
其中,与所述当前预测单元相对应的参考图片被放置在与所述当前预测单元相同的视图处,和在与所述当前预测单元不同的时间处,所述相应块被放置在与所述当前预测单元不同的视图处,并且在与所述当前预测单元相同的时间处,以及所述相应块的参考图片被放置在与所述相应块相同的视图处,并且在与所述相应块不同的时间处。
16.根据权利要求15所述的视频解码器,其中,当所述相邻块是视图间预测块,并且所述相应块的参考图片的图片顺序计数和与所述当前图片单元相对应的参考图片的图片顺序计数相同的时候,所述中间预测单元使用与所述相应块的参考图片相对应的运动矢量获得所述当前预测单元的所述运动矢量预测值。
17.根据权利要求15所述的视频解码器,其中,当所述相邻块是视图间预测块,并且所述相应块的参考图片的图片顺序计数不同于与所述当前图片单元相对应的参考图片的图片顺序计数的时候,所述中间预测单元使用所述相应块的参考图片的图片顺序计数、与所述当前预测单元相对应的参考图片的图片顺序计数,和与所述相应块的参考图片相对应的运动矢量,获得所述当前预测单元的所述运动矢量预测值。
18.根据权利要求15所述的视频解码器,其中,当所述相邻块是参考视图时间中间预测块,并且所述相应块的参考图片的图片顺序计数和与所述当前图片单元相对应的参考图片的图片顺序计数相同的时候,所述中间预测单元使用与所述相应块的参考图片相对应的运动矢量获得所述当前预测单元的所述运动矢量预测值。
CN201380058243.4A 2012-10-07 2013-10-04 处理视频信号的方法和设备 Active CN104782127B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201261710759P 2012-10-07 2012-10-07
US61/710,759 2012-10-07
PCT/KR2013/008864 WO2014054896A1 (ko) 2012-10-07 2013-10-04 비디오 신호 처리 방법 및 장치

Publications (2)

Publication Number Publication Date
CN104782127A true CN104782127A (zh) 2015-07-15
CN104782127B CN104782127B (zh) 2021-05-28

Family

ID=50435185

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201380058243.4A Active CN104782127B (zh) 2012-10-07 2013-10-04 处理视频信号的方法和设备

Country Status (8)

Country Link
US (1) US10171836B2 (zh)
EP (1) EP2905964B1 (zh)
JP (1) JP6594773B2 (zh)
KR (1) KR102248074B1 (zh)
CN (1) CN104782127B (zh)
CA (1) CA2887120C (zh)
ES (1) ES2775202T3 (zh)
WO (1) WO2014054896A1 (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10757437B2 (en) 2014-07-17 2020-08-25 Apple Inc. Motion estimation in block processing pipelines
US9762919B2 (en) 2014-08-28 2017-09-12 Apple Inc. Chroma cache architecture in block processing pipelines
JP6937302B2 (ja) 2015-11-23 2021-09-29 エレクトロニクス アンド テレコミュニケーションズ リサーチ インスチチュートElectronics And Telecommunications Research Institute 多視点ビデオの符号化/復号化方法
KR102601689B1 (ko) 2018-10-12 2023-11-15 삼성디스플레이 주식회사 전자 장치

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012191298A (ja) * 2011-03-09 2012-10-04 Fujitsu Ltd 動画像復号装置、動画像符号化装置、動画像復号方法、動画像符号化方法、動画像復号プログラム及び動画像符号化プログラム

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100846780B1 (ko) 2003-11-10 2008-07-16 삼성전자주식회사 움직임 벡터 추정 방법 및 장치
JP4898415B2 (ja) 2006-12-19 2012-03-14 キヤノン株式会社 動画像符号化装置及び動画像符号化方法
KR20080060188A (ko) 2006-12-26 2008-07-01 엘지전자 주식회사 비디오 신호 디코딩 방법 및 장치
WO2008108566A1 (en) 2007-03-02 2008-09-12 Lg Electronics Inc. A method and an apparatus for decoding/encoding a video signal
US20100166073A1 (en) * 2008-12-31 2010-07-01 Advanced Micro Devices, Inc. Multiple-Candidate Motion Estimation With Advanced Spatial Filtering of Differential Motion Vectors
KR20120118780A (ko) * 2011-04-19 2012-10-29 삼성전자주식회사 다시점 비디오의 움직임 벡터 부호화 방법 및 장치, 그 복호화 방법 및 장치
US9549180B2 (en) * 2012-04-20 2017-01-17 Qualcomm Incorporated Disparity vector generation for inter-view prediction for video coding

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012191298A (ja) * 2011-03-09 2012-10-04 Fujitsu Ltd 動画像復号装置、動画像符号化装置、動画像復号方法、動画像符号化方法、動画像復号プログラム及び動画像符号化プログラム

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
JAEWON SUNG: "《3D-CE5.h: Simplification of disparity vector derivation for HEVC-based 3D video coding》", 20 July 2012 *
MINHUA ZHOU: "《Parallelized merge/skip mode for HEVC》", 22 July 2011 *

Also Published As

Publication number Publication date
US10171836B2 (en) 2019-01-01
ES2775202T3 (es) 2020-07-24
KR20150090053A (ko) 2015-08-05
JP2015536109A (ja) 2015-12-17
KR102248074B1 (ko) 2021-05-04
EP2905964A4 (en) 2016-03-16
EP2905964B1 (en) 2020-01-22
WO2014054896A1 (ko) 2014-04-10
EP2905964A1 (en) 2015-08-12
JP6594773B2 (ja) 2019-10-23
US20150281734A1 (en) 2015-10-01
CA2887120C (en) 2017-08-22
CN104782127B (zh) 2021-05-28
CA2887120A1 (en) 2014-04-10

Similar Documents

Publication Publication Date Title
JP6291032B2 (ja) ビデオ信号処理方法及び装置
CN104904209A (zh) 视频信号处理方法和设备
CN104541507A (zh) 处理视频信号的方法和装置
CN104380744A (zh) 处理视频信号的方法和设备
CN104782127A (zh) 处理视频信号的方法和设备
CN105393540A (zh) 用于处理视频信号的方法和设备
RU2625526C2 (ru) Способ и устройство для обработки видеосигнала
US9955166B2 (en) Method and device for processing video signal
CN104982038B (zh) 处理视频信号的方法和设备
CN104871541A (zh) 处理视频信号的方法和设备
US9936219B2 (en) Method and apparatus for processing video signals
CN105122813B (zh) 视频信号处理方法和设备
CN105103555A (zh) 处理视频信号的方法及装置
CN105432086B (zh) 处理视频信号的方法和装置
US20160050438A1 (en) Video signal processing method and device

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
EXSB Decision made by sipo to initiate substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant