CN108156463A - 用于可分级视频编码的运动矢量预测的方法和装置 - Google Patents

用于可分级视频编码的运动矢量预测的方法和装置 Download PDF

Info

Publication number
CN108156463A
CN108156463A CN201810073911.5A CN201810073911A CN108156463A CN 108156463 A CN108156463 A CN 108156463A CN 201810073911 A CN201810073911 A CN 201810073911A CN 108156463 A CN108156463 A CN 108156463A
Authority
CN
China
Prior art keywords
image
reference picture
layer
interlayer
enhancement layer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201810073911.5A
Other languages
English (en)
Other versions
CN108156463B (zh
Inventor
修晓宇
叶琰
Y·何
贺玉文
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Vid Scale Inc
Original Assignee
Vid Scale Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Vid Scale Inc filed Critical Vid Scale Inc
Publication of CN108156463A publication Critical patent/CN108156463A/zh
Application granted granted Critical
Publication of CN108156463B publication Critical patent/CN108156463B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • H04N19/139Analysis of motion vectors, e.g. their magnitude, direction, variance or reliability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • H04N19/31Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability in the temporal domain
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • H04N19/33Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability in the spatial domain
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • H04N19/52Processing of motion vectors by encoding by predictive encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/587Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal sub-sampling or interpolation, e.g. decimation or subsequent interpolation of pictures in a video sequence
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/59Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial sub-sampling or interpolation, e.g. alteration of picture size or resolution

Abstract

层间运动映射信息可被用来使能比特流中的增强层的时间运动矢量预测(TMVP)。例如,可确定层间视频块的运动矢量(MV)和参考图像。可根据并置基础层视频块来确定参考图像。例如,参考图像可以是并置基础层视频块的参考图像的并置层间参考图像。可根据并置基础层视频块的MV来确定MV。例如,可通过确定并置基础层视频块的MV和根据基础层和增强层间的空间比率来缩放并置基础层视频块的MV,从而确定MV。可使用层间视频块的MV在增强层图像上执行TMVP。

Description

用于可分级视频编码的运动矢量预测的方法和装置
本申请为申请日为2013年8月29日、题为“用于可分级视频编码的运动矢量预测的方法和装置”的中国发明专利申请201380045712.9的分案申请。
相关申请的交叉引用
本申请要求2012年8月29日提交的美国临时专利申请No.61/694,555、2012年12月7日提交的美国临时专利申请No.61/734,650和2013年8月16日提交的美国临时专利申请No.61/866,822的权益,其内容以引用的方式结合于此。
背景技术
过去的二十年中,数字视频压缩技术有了很大发展并且被标准化,使高效的数字视频通信、分发和消费成为可能。大部分在商业上被广泛应用的标准由ISO/IEC和ITU-T开发,例如MPEC-2和H.263(MPEG-4第10部分)。由于视频压缩技术的出现和成熟,开发出了高效视频编码(HEVC)。
相比于传统的通过卫星、电缆和陆地传输通道的数字视频服务,异构网络中在客户端和网络侧可使用越来越多的视频应用,例如但不限于视频聊天、移动视频和流媒体。智能电话、平板电脑和TV主宰着客户端侧,其中视频可通过因特网、移动网络和/或这两者的结合来传输。为改善用户体验和视频服务质量,可进行可分级视频编码(SVC)。在SVC中,信号一旦在最高的分辨率下被编码,能从数据流的子集中根据应用所需并且客户端设备所支持的特定速率和分辨率被解码。国际视频标准MPEC-2视频、H.263、MPEG4可视和H.264具有支持可分级性模式的工具和/或配置文件。
发明内容
层间运动映射信息用于使能比特流中的增强层的时间运动矢量预测(TMVP)。举例来说,可基于并置基础层视频块来确定增强层视频块的参考图像。增强层视频块与比特流中的增强层相关联,而并置基础层视频块与比特流中的基础层相关联。举例来说,增强层视频块与增强层图像相关联,而并置基础层视频块与基础层图像相关联。可通过选择与增强层视频块的重叠面积最大为特征的并置基础层图像中的视频块来确定并置基础层视频块。视频块可以是在比特流的任意级别的运算单元。视频块可以是任意大小(举例来说,块大小(例如,16x16),PU,SPU等)。
可通过确定并置基础层视频块的参考图像来确定增强层视频块的参考图像。增强层视频块的参考图像可以是并置基础层视频块的参考图像的并置增强层图像。可确定并置基础层视频块的参考图像、利用并置基础层视频块的参考图像来确定层间视频块的参考图像并利用层间视频块的参考图像来确定增强层视频块的参考图像,以此来确定增强层视频块的参考图像。层间视频块可以是与增强层视频块和/或基础层视频块并置(collocate)。
可根据并置基础层视频块的运动矢量(MV)来确定增强层视频块的MV。可确定并置基础层视频块的MV并且根据基础层和增强层间的空间比率来缩放并置基础层视频块的MV以确定增强层视频块的MV,以此来确定增强层视频块的MV。
可确定并置基础层视频块的MV、根据基础层和增强层间的空间比率来缩放并置基础层视频块的MV来确定层间视频块的MV并根据层间视频块的MV来预测增强层视频块的MV,以此来确定增强层视频块的MV。例如,可基于层间视频块的MV,通过在层间视频块的MV上执行时间缩放来预测增强层视频块的MV。层间视频块可与增强层视频块和/或基础层视频块并置。
可在增强层视频块上使用层间视频块的MV和/或参考图像来执行TMVP。可根据增强层视频块的参考图像和/或MV和/或层间视频块的参考图像和/或MV来解码增强层视频块。
方法包括接收包含基础层和增强层的比特流,以及利用时间运动矢量预测(TMVP)来解码被编码的比特流中的增强层。层间参考图像可被用作用于增强层TMVP的并置参考图像。
利用TMVP来解码被编码的比特流中的增强层可包括利用TMVP来解码增强层图像。利用TMVP来解码增强层图像可包括确定层间参考图像的运动矢量(MV)域和根据层间参考图像的MV域来解码增强层图像。可根据并置基础层图像的MV域来确定层间参考图像的MV域。MV域包括层间参考图像的视频块的参考图像索引和MV。举例来说,MV域可包括层间参考图像的一个或多个视频块的一个或多个索引值(举例来说,根据它是P切片(slice)还是B切片(slice))和MV。确定层间参考图像的MV域可包括确定并置基础层图像的被压缩的MV域和根据该并置基础层图像的被压缩的MV域来确定层间参考图像的MV域。
确定层间参考图像的MV域可包括确定层间参考图像的视频块的MV和参考图像。确定层间参考图像的视频块的MV和参考图像可包括根据并置基础层视频块的参考图像来确定层间视频块的参考图像和根据并置基础层视频块的MV来确定层间视频块的MV。可通过选择与层间参考图像的重叠面积最大为特征的并置基础层图像中的视频块来确定并置基础层视频块。
确定层间视频块的参考图像可包括确定并置基础层视频块的参考图像和确定层间视频块的参考图像。层间视频块的参考图像可以是并置基础层视频块的参考图像的并置层间参考图像。确定层间视频块的MV可包括确定并置基础层视频块的MV和根据基础层和增强层间的空间比率来缩放并置基础层视频块的MV,以确定层间视频块的MV。
可根据层间视频块的MV域来确定增强层视频块的MV域。增强层视频块可与中间层视频块和/或基础层视频块并联。举例来说,可根据层间视频块的参考图像(例如,可能是并置增强层图像)来确定增强层视频块的参考图像。可根据层间视频块的MV来确定增强层视频块的MV。举例来说,可缩放(例如,时间的缩放)层间视频块的MV来确定增强层视频块的MV。可根据增强层视频块的MV域来解码增强层视频块。
方法包括接收包含基础层和增强层的比特流和层间运动映射信息,以及执行增强层的层间运动预测。可确定根据层间映射信息使能对于增强层的层间运动预测。
可在比特流的序列级用信号发出层间映射信息。举例来说,层间映射信息可以是变量(例如标志),可在比特流的序列级用信号发出该变量。可在比特流的序列级上推断出层间映射信息。可通过比特流的视频参数集(VPS)中的变量(例如标志)来用信号发出层间映射信息(例如,层间映射信息可以是比特流的VPS中的标志)。举例来说,可通过比特流的序列参数集(SPS)中的变量(标志)来用信号发出层间映射信息(例如,层间映射信息可以是比特流形式的SPS中的标志)。举例来说,可通过比特流的图像参数集(PPS)中的变量(标志)来用信号发出层间映射信息(例如,层间映射信息可以是比特流的PPS中的标志)。
附图说明
图1是示出用于SVC空间可分级编码的包含额外的层间预测的可分级结构的示例图。
图2是示出被考虑用于HEVC可分级编码的示例层间预测结构图。
图3是示出空间运动矢量(MV)预测(SMVP)的示例图。
图4是示出时间MV预测(TMVP)的示例图。
图5是示出从基础层到经上采样的基础层的预测结构复制的示例图。
图6是示出经上采样的基础层的SPU和原始基础层的SPU间的示例关系图。
图7A-图7C是示出基础层图像的切片和处理后的基础层图像的切片间的示例关系图。
图8A是示出时间短期MV间的MV预测图。
图8B是示出根据被映射的短期MV对时间短期MV的MV预测图。
图9A是示出时间长期MV间的MV预测的示例图。
图9B是示出根据被映射的长期MV对时间长期MV的MV预测的示例图。
图10A是示出根据时间长期MV对时间短期MV的MV预测的示例图。
图10B是示出根据被映射的长期MV对时间短期MV的MV预测的示例图。
图10C是示出根据时间短期MV对时间长期MV的MV预测的示例图。
图10D是示出根据被映射的短期MV对时间长期MV的MV预测的示例图。
图11A是示出禁用的根据层间MV对时间短期MV的MV预测的示例图。
图11B是示出禁用的根据时间短期MV对层间MV的MV预测的示例图。
图11C是示出禁用的根据被映射的短期MV对层间MV的MV预测的示例图。
图12A是示出禁用的根据层间MV对时间长期MV的MV预测的示例图。
图12B是示出禁用的根据时间长期MV对层间MV的MV预测的示例图。
图12C是示出禁用的根据映射的长期MV对层间MV的MV预测的示例图。
图13A是示出当Te=Tp时两个层间MV间的MV预测的示例图。
图13B是示出当Te≠Tp时两个层间MV间的禁用的MV预测的示例图。
图14A是可以实施一个或多个公开的实施方式的示例通信系统的系统图。
图14B是可以在图14A所示的通信系统中使用的示例无线发射/接收单元(WTRU)的系统图。
图14C是可以在图14A所示的通信系统中使用的示例无线电接入网和示例核心网的系统图。
图14D是可以在图14A所示的通信系统中使用的另一示例无线电接入网和另一示例核心网的系统图。
图14E是可以在图14A示出的通信系统中使用的另一示例无线电接入网和另一示例核心网的系统图。
图15是示出基于块的视频编码器的示例框图。
图16是示出基于块的视频解码器的示例框图。
图17是示出示例通信系统图。
具体实施方式
可提供比特流(例如,部分比特流)的编码和/或解码(例如,以及传输和/或接收)以在保留与部分比特流的速率紧密有关的重建质量的同时提供具有较低时间分辨率、较低空间分辨率和/或被降低的保真度的视频服务,举例来说,通过H.264的可分级性扩展。图1是示出具有额外的用于SVC空间可分级性编码的层间预测的可分级结构的示例的图。图形100可示出可提高可分级编码效率的双层的SVC层间预测机制的示例。类似的机制可被用在多层SVC编码结构上。在图形100中,基础层和增强层可表示具有不同分辨率的两个相邻空间可分级层。在一层中(例如,基础层和/或增强层),例如H.264编码器可采用运动补偿预测和/或内部预测。层间预测可使用基础层信息(例如,空间纹理,运动向量,参考图像索引值和残留信号等)来提高增强层的编码效率。当解码增强层时,SVC可不使用来自更低层(例如,当前层的依赖层)的参考图像而被完全重建。
可在可分级编码系统(例如,HEVC可分级编码扩展)中采用层间预测,举例来说,来确定多个层间的相互关系和/或提高可分级的编码效率。图2是示出被考虑用于HEVC可分级编码的示例层间预测结构的图。举例来说,图形200可示出具有额外的用于HEVC空间可分级编码的层间预测的可分级结构的示例。可由根据重建的基础层信号(例如,如果两层间的空间分辨率不同则在上采样后)的运动补偿预测、当前增强层中的时间预测和/或基础层重建信号和时间预测信号的平均值来生成增强层的预测。可执行更低层图像的完全重建。类似的实施可被用于多于两层的可分级编码系统(例如,多于两层的HEVC可分级编码系统)。
HEVC可利用先进的运动补偿预测技术来确定视频信号中内在的层间图像冗余,举例来说,通过使用来自经过编码的视频图像的像素来预测当前视频图像中的像素。将被编码的当前预测单元(PU)和其在参考图像(例如,邻近的PU)中的一个或多个匹配块间的位移可用在运动补偿预测中的运动矢量来表示。MV可包括两部分,MVx和MVy。MV想和MVy可分别表示水平方向和垂直方向的位移。可对MVx和MVy直接编码或不对它们直接编码。
先进的运动矢量预测(AMVP)可被用来根据邻近PU的一个或多个MV来预测MV。可对真实MV和MV预测值(predictor)之间的差异编码。通过对MV的差异编码(例如,仅编码),可减少用于对MV编码的比特数。可从空间和/或时间邻域中获取用于预测的MV。空间邻域可指当前的经编码的PU周围的那些空间PU。时间邻域可指邻近图像中的那些并置PU。在HEVC中,为获得准确的MV预测值,可将来自空间和/或时间邻域的预测候选值放在一起以形成候选值列表并选出最好的预测值来预测当前PU的MV。举例来说,可基于拉格朗日率失真(R-D)消耗等来选择最好的MV预测值。可将MV差异编码成比特流。
图3是示出空间MV预测(SMVP)的示例的图。图形300可示出邻近参考图像310、当前参考图像320和当前图像330的示例。在将被编码的当前图像(CurrPic)330中,散列的正方形可能是当前PU(CurrPU)332。CurrPU 332可具有位于参考图像(CurrRefPic)320中的最佳匹配块当前参考PU(CurrRefPU)322。可预测CurrPU的MV(MV2 340)。举例来说,在HEVC中,当前PU的空间邻域可以是当前PU 332的上方、左侧、左上侧、左下侧或右上侧的PU。举例来说,示出的邻近PU 334是CurrPU 332的上方的邻居。例如,邻近PU(NeighbPU)的参考图像(NeighbRefPic)310、PU 314和MV(MV1 350)是已知的,因为NeighbPU 334在CurrPU 332前被编码。
图4是示出时间MV预测(TMVP)的示例的图。图形400可包括4个图像,例如并置参考图像(ColRefPic)410、CurrRefPic 420、并置图像(ColPic)430和CurrPic 440。在将被编码的当前图像(CurrPic 440)中,散列的正方形(CurrPU 442)可能是当前PU。散列的正方形(CurrPU 442)可具有位于参考图像(CurrRefPic 420)中的最佳匹配块(CurrRefPU 422)。可预测CurrPU的MV(MV2 460)。举例来说,在HEVC中,当前PU的时间邻域可以是并置PU(ColPU)432,例如,ColPU 432是邻近图像(ColPic)430的一部分。例如,ColPU的参考图像(ColRefPic 410)、PU 412和MV(MV1 450)是已知的,因为ColPic 430在CurrPic 440前被编码。
PU间的运动是匀速的平移。两个PU间的MV与相关联的两个图像被捕获的时刻间的时间间距成比例。在预测当前PU的MV前可缩放运动矢量预测值(例如,在AMVP中)。举例来说,CurrrPic和CurrRefPic间的时间间距可被称为TB。举例来说,CurrPic和NeighbRefPic之间(例如,图3中)或者ColPic和ColRefPic(例如,图4中)的时间间距可被称为TD。给定TB和TD,MV2的(例如MV的)被缩放的预测值可等于:
可支持短期参考图像和长期参考图像。举例来说,存储在被解码的图像缓存(DPB)中的参考图像可被标记为短期参考图像或长期参考图像。例如等式(1),如果参考图像中的一者或多者是长期参考图像,可能禁用运动矢量的缩放。
本文描述了用于多层视频编码的MV预测的使用。本文描述的示例可使用HEVC标准作为基本(underlying)单层编码标准和包括两个空间层(例如,增强层和基础层)的可分级系统。本文描述的示例可适用于使用其他类型的基本单层编解码器、层数多于两层和/或支持其他类型的可分级性的其他可分级编码系统。
开始解码视频切片(例如,P切片或B切片)时,DPB中的一个或多个参考图像可被添加到用于运动补偿预测的P切片的参考图像列表(例如列表0)和/或B切片的两个参考图像列表(例如,列表0和列表1)。可分级编码系统可利用增强层的时间参考图像和/或来自基础层的处理后的参考图像(例如,如果两层的空间分辨率不同,则是经上采样的基础层图像)来进行运动补偿预测。当预测增强层中的当前图像的MV时,指向来自基础层的处理后的参考图像的层间MV可被用来预测指向增强层的时间参考图像的时间MV。时间MV也可被用来预测层间MV。因为这两种类型的MV几乎不相关,会导致用于增强层的MV预测的效率损失。单层编解码器不支持根据基础层图像间的时间MV来预测增强层图像间的时间MV,而这两者高度相关并且可被用来改善MV预测性能。
MV预测过程可以被简化和/或对于多层视频编码的压缩效率可以被提高。增强层中的MV预测可以向后兼容单层编码器的MV预测过程。例如,可能会有不需要在增强层中对块级操作做任何改动的MV预测实施,如此使得单层编码器和解码器逻辑可被重用于增强层。这可降低可分级系统的实施复杂度。增强层的MV预测可区分指向增强层中的时间参考图像的时间MV和指向来自基础层的经处理(例如,上采样)的参考图像的层间MV。这可提高编码效率。增强层中的MV预测可支持增强层图像间的时间MV和基础层图像间的时间MV之间的MV预测,这可提高编码效率。当两层间的空间分辨率不同时,可根据两层间的空间分辨率的比率来缩放基础层图像间的时间MV。
本文所述的实施与用于基础层MV的层间运动信息映射算法有关,例如,使得在AMVP的处理中被映射的基础层MV可被用来预测增强层MV(例如,图4中的TMVP模式)。块级操作可能没有变化。单层编码器和解码器可无改动地用于增强层的MV预测。本文将描述用于增强层编码和解码过程的包含块级改动的MV预测工具。
层间可包括处理后的基础层和/或经上采样的基础层。例如,可互换地使用层间、处理后的基础层和/或经上采样的基础层。可互换地使用层间参考图像、处理后的基础层参考图像和/或经上采样的基础层参考图像。可互换地使用层间视频块、处理后的基础层视频块和/或经上采样的基础层视频块。在增强层、层间和基础层间可能存在时序关系。例如,增强层的视频块和/或图像可能与层间和/或基础层的对应视频块和/或图像时间相关联。
视频块可以是在任意层和/或比特流的任意级别的运算单元。例如,视频块可能是在图像级、块级和切片级等等的运算单元。视频块可以是任意大小。例如,视频块可以指任意大小的视频块,例如4x4的视频块、8x8的视频块和16x16的视频块等等。例如,视频块可以指预测单元(PU)和最小PU(SPU)等。PU可以是用于携带与运动预测有关的信息的视频块单元,例如,包括参考图像索引和MV。一个PU可包括一个或多个最小PU(SPU)。虽然在同一个PU中的SPU指具有相同MV的同一参考图像,在一些实施中以SPU为单位存储运动信息可使运动信息获取变得容易。运动信息(例如,MV域)可被以视频块为单位存储,例如PU和SPU等。虽然此处描述的示例是以图像为参考来描述的,但也可使用视频块、PU和/或SPU和任意大小的任意运算单元(例如,图像,视频块,PU,SPU等)。
重建的基础层信号的纹理可能会被处理以用于增强层的层间预测。例如,当两层之间的空间可分级性被使能时,层间参考图像处理可包括一个或多个基础层图像的上采样。可能不能根据基础层正确地生成对于处理后的参考图像的运动有关的信息(例如,MV,参考图像列表,参考图像索引值等)。当时间MV预测值来自处理后的基础层参考图像时(例如,如图4所示),丢失的运动信息可能影响对增强层的MV的预测(例如,通过TMVP)。例如,当选出的处理后的基础层参考图像作为包括时间并置PU(ColPU)的时间邻近图像(ColPic)时,如果没有正确地生成对于处理后的基础层参考图像的的MV预测值(MV1)和参考图像(ColRefPic),则TMPV不能正常工作。为使能对于增强层MV预测的TMVP,可利用层间运动信息映射实施,例如,如此处所述。例如,可生成对于处理后的基础层参考图像的MV域(包括MV和参考图像)。
可用一个或多个变量来说明当前视频切片的参考图像,例如,参考图像列表ListX(例如,X是0或1),在ListX中的参考图像索引refIdx等。利用图4的示例,为获得并置PU(ColPU)的参考图像(ColRefPic),可生成处理后的参考图像(ColPic)中的PU(例如,每一个PU)(ColPU)的参考图像。这可被分解成生成ColPic的参考图像列表和/或对于ColPic中的ColPU(例如,每一个ColPU)的参考图像索引。给定参考图像列表,此处描述了对于处理后的基础层参考图像中的PU的参考图像索引的生成。此处描述了与处理后的基础层参考图像的参考图像列表的构成有关的实施。
因为基础层和处理后的基础层是相关的,所以可假定基础层和处理后的基础层具有相同或实质上相同的预测依赖关系。可以复制基础层图像的预测依赖关系来形成处理后的基础层图像的参考图像列表。例如,如果基础层图像BL1是具有参考图像列表ListX(例如,X是0或1)中的参考图像索引refIdx的另一个基础层图像BL2的时间参考图像,则BL1的处理后的基础层图像pBL1可被加到具有BL2的处理后的基础层图像pBL2的相同索引refIdx的相同的参考图像列表ListX(例如,X是0或1)。图5是示出基础层到上采样基础层的预测结构复制的示例的图。图形500示出了空间可分级性的示例,其中和采样基础层的运动信息(图中用虚线表示)一样,对于基础层的运动预测所采用相同的B级结构被复制(图中用实线表示)。
可根据并置基础层预测单元(PU)来确定处理后的基础层PU的参考图像。举例来说,可确定处理后的基础层PU中的并置基础层PU。可通过选择与处理后的基础层PU的重叠面积最大为特征的并置基础层图像中的PU来确定并置基础层PU,例如,如此处所述。可确定并置基础层PU的参考图像。处理后的基础层PU的参考图像可被确定为并置基础层PU的参考图像的并置处理后的基础层参考图像。处理后的基础层PU的参考图像可用于增强层的TMVP和/或用来解码增强层(例如,并置增强层PU)。
处理后的基础层PU与处理后的基础层图像相关联。处理后的基础层图像的MV域可包括处理后的基础层PU的参考图像,例如,对于增强层图像的TMVP(例如,并置增强层PU)。参考图像列表与处理后的基础层图像相关联。处理后的基础层图像的参考图像列表可包括处理后的基础层PU的参考图像中的一个或多个。处理后的基础层中的图像(例如,每一个图像)可从基础层中对应的图像中继承相同的图像顺序计数(POC)和/或短期/长期图像标记。
具有1.5倍上采样率的空间可分级性被用作示例。图6是示出经上采样的基础层的SPU和原始基础层的SPU间的示例关系的图。图形600可示出经上采样的基础层的SPU(例如,被标记为ui的块)和原始基础层的SPU(例如,被标记为bj的块)间的示例关系。例如,给定图像中的各种上采样率和坐标值,经上采样的基础层图像中的SPU可对应于来自原始基础层图像的各种数目和/或比例的SPU。例如,SPU u4可覆盖基础层中的4个SPU区域(例如,b0,b1,b2,b3)。SPU u1可覆盖两个基础层SPU(例如,b0和b1,)。SPU u0可覆盖一个基础层SPU(例如,b0)。MV域映射实施可用来估计对于处理后的基础层图像中的SPU的参考图像索引和MV,例如,利用对应的来自原始基础层图像的SPU的运动信息。
可根据并置基础层PU的MV来确定处理后的基础层PU的MV。举例来说,可确定处理后的基础层PU的并置基础层PU。可确定并置基础层PU的MV。可以缩放基础层PU的MV以确定处理后的基础层PU的MV。举例来说,可根据基础层和增强层间的空间比率来缩放基础层PU的MV以确定处理后的基础层PU的MV。处理后的基础层PU的MV可用于增强层(例如,并置增强层PU)的TMVP和/或用来解码增强层(例如,并置增强层PU)。
处理后的基础层PU与增强层图像(例如,增强层图像的PU)相关联(例如,时间相关联)。并置增强层图像的MV域以处理后的基础层PU的MV为基础,例如,对于增强层图像(例如,并置增强层PU)的TMVP。可根据处理后的基础层PU的MV来确定增强层PU(例如,并置增强层PU)的MV。例如,可利用处理后的基础层PU的MV来预测(例如,空间预测)增强层PU(例如,并置增强层PU)的MV。
可根据基础层中相应的SPU的参考图像索引值来选择处理后的基础层图像中的SPU(例如,每一个SPU)的参考图像。例如,对于处理后的基础层图像中的SPU,采用的确定参考图像索引的主要规则是其对应的来自基础层图像的SPU使用最频繁的参考图像索引。例如,假定处理后的基础层图像中的一个SPU uh对应于来自基础层的K个SPU bi(i=0,1,…,K-1),在处理后的基础层图像的参考图像列表中有M个索引值为{0,1,…,M-1}的参考图像。假定根据索引值为{r0,r1,..,rk-1}的参考图像的集合来预测基础层中对应的K个SPU,其中对于i=0,1,…,K-1,有则uh的参考图像索引值可通过等式(2)来确定:
r(uh)=rl,l=argmaxi∈{0,1,...K-1}c(ri) 等式(2)
其中C(ri),i=0,1,…,K-1是用于表示参考图像ri被使用了多少次的计数器。例如,如果基础层图像有2个标号为{0,1}的参考图像(M=2),而给定的处理后的基础层图像中的uh对应于4个(K=4)根据{0,1,1,1}(例如,{r0,r1,…,r3}等于{0,1,1,1})预测的基础层SPU,则根据等式(2),r(uh)被设置为1。选择具有到当前处理后的图像的最小POC的参考图像ri,例如,因为具有更小时间间距的两个图像有更好的相关性(例如,来打破应用等式(2)时C(ri)的约束)。
在处理后的基础层图像中的不同的SPU可对应于来自原始基础层中的各种数目和/或比例的SPU(例如,如图6所示)。可选出具有最大覆盖面积的基础层SPU的参考图像索引来确定在处理后的基础层中的对应的SPU的参考图像。对于处理后的基础层中给定的SPUuh,其参考图像索引可由等式(3)来确定:
r(uh)=rl,l=argmaxi∈{0,1,...K-1}Si 等式(3)
其中,Si是基础层中的第i个对应的SPU bi的覆盖面积。选择具有到当前处理后的图像的最小POC距离的参考图像ri,例如,当两个或更多对应的SPU的覆盖面积相同时,来打破等式(3)Si的约束。
可通过内部模式来对对应的基础层SPU bj编码。参考图像索引(例如,对应的基础层SPU bj的参考图像索引)可被设置为-1并且在应用等式(2)和/或等式(3)时被忽略。如果对应的基础层SPU bj是被内部编码的,SPU uh的参考图像索引可被设置为-1或对于TMVP被标记为无效。
对于处理后的基础层中给定的SPU uh,其对应的SPU bi的面积可能是不相同的。可利用此处所述的基于面积的实施来估计在处理后的基础层图像中的SPU(例如,每一个SPU)的MV。
为估计在处理后的基础层图像中的一个SPU uh的MV,可在基础层SPU候选者bi中选出与SPU uh的覆盖面积最大(例如,重叠面积最大)的基础层SPU b1的MV。例如,可使用等式(4):
MV'=N·MVl,l=argmaxi∈{0,1,...K-1}Si 等式(4)
其中MV’表示作为结果的SPU uh的MV,MVi表示基础层中的第i个对应的SPU bi的MV,而N是上采样因子(例如,N可以等于2或1.5),取决于两层(例如,基础层和增强层)间的空间比率(例如,空间分辨率)。例如,上采样因子(例如,N)可用于缩放由基础层的PU所确定的作为结果的MV来计算处理后的基础层图像中的PU的MV。
可用加权平均来确定处理后的基础层中的SPU的MV。例如,可使用加权平均,通过利用与基础层中的对应的SPU相关联的MV,来确定处理后的基础层中的SPU的MV。例如,使用加权平均可提高处理后的基础层的MV的准确度。对于处理后的基础层中的SPU uh,可通过确定对于一个或多个(例如,每一个)与uh重叠的基本基础层的SPU bi的加权平均来获得该SPU uh的MV。例如,其由等式(5)示出:
其中B是基础层中的参考图像索引等于r(uh)的SPU bi的子集,例如,由等式(2)和/或等式(3)来确定。
一个或多个滤波器(例如,中值滤波器,低通高斯滤波器等)可被应用在等式(5)中B所表示的MV组,例如,来获得MV’所表示的MV。可采用可靠(confidence)的均值来改进所评估的MV的准确度,如等式(6)所示:
其中参数wi是估计SPU uh时基础层SPU bi(例如,每一个基础层SPU bi)的MV的可靠的测量。不同的度量可用来获得wi的值。例如,可根据运动补偿预测期间的预测残留的量来确定wi,也可根据MVi与其邻近MV的相干程度来确定wi
可根据基础层的原始运动域来映射处理后的基础层图像的运动信息,例如,其可用来执行基础层中的时间运动补偿预测。运动域补偿算法(例如,如HEVC中所支持的)可被应用到基础层的运动域,例如,以产生基础层的被压缩的运动域。可根据基础层的被压缩的运动域来映射处理后的基础层图像中的一个或多个的运动信息。
可生成对于处理后的基础层图像的丢失的运动信息,例如,如此处所述。无需对块级操作进行额外改动,可针对增强层采用单层编解码器(例如,HEVC编解码器)所支持的TMVP。
当对应的基础层参考图像包括一个或更多切片时,可采用参考图像列表生成过程和/或MV映射过程,例如,如此处所示的。如果在基础层参考图像中存在多个切片,则切片划分可从基础层图像映射到处理后的基础层图像上。对于处理后的基础层中的切片,可执行参考图像列表生成步骤来得到合适的切片类型和/或参考图像列表。
图7A-C是示出基础层图像的切片和处理后的基础层图像的切片间的示例关系的图,例如,用于1.5倍的空间可分级性。图7A是示出基础层中的切片划分的示例的图形701。图7B是示出处理后的基础层中的被映射的切片划分的示例的图形702。图7C是示出处理后的基础层中调整后的切片划分的示例的图形703。
基础层图像可包括多个切片,例如,如图形701所示的2个切片。在处理后的基础层中映射的切片划分可穿过增强层中的相邻编码树块(CTB)的边界,例如,当基础层被上采样时(例如,如图形702所示)。这是因为基础层图像和增强层图像之间的空间比率不同。切片划分(例如,在HEVC中)可与CTB边界对齐。可调整处理后的基础层中的切片划分以使切片的边界与CTB的边界对齐,例如,如图形703所示。
增强层TMVP导出过程可能包括约束。例如,如果在对应的基础层图像中有一个切片,则处理后的基础层图像可被用作并置图像。当在对应的基础层图像中有多于一个切片时,可不对处理后的基础层参考图像执行层间运动信息映射(例如,如此处所述的参考图像列表生成和/或MV映射)。如果在对应的基础层图像中有多于一个切片时,则时间参考图像可被用作用于增强层的TMVP导出过程的并置图像。基础层图像中的切片数目可用于确定是否使用层间参考图像和/或时间参考图像作为用于增强层的TMVP的并置图像。
如果在对应的基础层图像中有一个切片和/或切片信息(例如在对应的基础层图像中的参考图像列表、切片类型等等)是完全相同的,则处理后的基础层图像可被用作并置图像。当对应的基础层图像中的两个或更多切片具有不同切片信息时,不对处理后的基础层参考图像执行层间运动信息映射(例如,如此处所述的参考图像列表生成和/或MV映射)。如果对应的基础层图像中的两个或更多切片具有不同的切片信息,则时间参考图像可被用作用于增强层的TMVP导出过程的并置图像。
运动信息映射使得各种单层MV预测技术可被用于可分级编码系统。可采用块级MV预测操作来改善增强层编码的性能。此处描述了增强层的MV预测。基本层的MV预测方法无变化。
时间MV指的是指向来自相同增强层的参考图像的MV。层间MV指的是指向另一层的MV,例如,处理后的基础层参考图像。映射的MV指的是对于处理后的基础层图像生成的MV。映射的MV可包括映射的时间MV和/或映射的层间MV。映射的时间MV指的是源于最后一个编码层的时间预测的映射的MV。映射的层间MV指的是根据最后一个编码层的层间预测而生成的MV。对于多于两层的可分级编码系统可存在映射的层间MV。时间MV和/或映射的时间MV可以是短期MV或长期MV,例如,依赖于该MV指向短期参考图像或长期参考图像。时间短期MV和映射的短期MV指的是在各自的编码层中使用短期时间参考的时间MV和映射的时间MV。时间长期MV和映射的长期MV指的是在它们各自的编码层中使用长期时间参考的时间MV和映射的时间MV。时间MV、映射的时间MV、映射的层间MV和层间MV可被看做是不同类型的MV。
增强层MV预测可包括下列的一者或多者。根据层间MV和/或映射的层间MV对时间MV的MV预测可能被使能或禁用。根据时间MV和/或映射的时间MV对层间MV的MV预测可能被使能或禁用。根据映射的时间MV对时间MV的MV预测可以被使能。根据层间MV和/或映射的层间MV对层间MV的MV预测可能被使能或禁用。对于MV预测中包含的长期MV,例如,包括时间长期MV和映射的长期MV,可采用不使用MV缩放的MV预测。
使用MV缩放的短期MV间的预测(例如,类似于单层MV预测)可被使能。图8A是示出时间短期MV间的MV预测的图。图8B是示出根据映射的短期MV对时间短期MV的MV预测的图,在图形800中,可根据时间短期MV 804来预测时间短期MV 802。在图形810中,可根据映射的短期MV 814来预测时间短期MV 812。
例如,由于很大的POC间距,可提供长期MV间的不使用MV缩放的预测。这类似于单层编码和解码的MV预测。图9A是示出时间长期MV间的MV预测的示例的图。图9B是示出根据映射的长期MV对时间长期MV的MV预测的示例的图。在图形900中,可根据时间长期MV 904来预测时间长期MV 902。在图910中,可根据映射的长期MV 914来预测时间长期MV 912。
例如,因为两个参考图像的间距很长,可提供短期MV和长期MV间不使用MV缩放的预测。这类似于单层编码和解码的MV预测。图10A是示出根据时间长期MV对时间短期MV的MV预测的示例的图。图10B是示出根据映射的长期MV对时间短期MV的MV预测的示例的图。图10C是示出根据时间短期MV对时间长期MV的MV预测的示例的图。图10D是示出根据映射的短期MV对时间长期MV的MV预测的示例的图。
图1000中,可根据时间长期MV 1004来预测时间短期MV 1002。在图1010中,可根据映射的长期MV 1014来预测时间短期MV 1012。在图1020中,可根据时间短期MV 1022来预测时间长期MV 1024。在图1030中,可根据映射的短期MV 1034来预测时间长期MV 1032。
根据层间MV和/或映射的层间MV的对时间短期MV的预测可能被禁用。根据时间短期MV和/或映射的短期MV对层间MV的预测可能被禁用。图11A是示出禁用的根据层间MV对时间短期MV的MV预测的示例的图。图11B是示出禁用的根据时间短期MV对层间MV的MV预测的示例的图。图11C是示出禁用的根据映射的短期MV对层间MV的MV预测的示例的图。
图形1100示出了禁用的根据层间MV 1104对时间短期MV 1102的MV预测的示例。例如,可能不能根据层间MV 1104来预测时间短期MV 1102。图形1110示出了禁用的根据时间短期MV 1114对层间MV 1112的预测的示例。例如,可能不能根据时间短期MV 1114来预测层间MV 1112。图1120示出了禁用的根据映射的短期MV 1124对层间MV 1122的MV预测的示例。例如,可能不能根据映射的短期MV 1124来预测层间MV 1122。
根据层间MV和/或映射的层间MV对时间长期MV的预测可能被禁用。根据时间长期MV和/或映射的长期MV对层间MV的预测可能被禁用。图12A是示出禁用的根据层间MV对时间长期MV的MV预测的示例的图。图12B是示出禁用的根据时间长期MV对层间MV的MV预测的示例的图。图12C是示出禁用的根据映射的长期MV对层间MV的MV预测的示例的图。
图形1200示出了禁用的根据层间MV 1204对时间长期MV 1202的MV预测的示例。例如,可能不能根据层间MV 1204来预测时间长期MV 1202。图形1210示出了禁用的根据时间长期MV 1214对层间MV 1212的MV预测的示例。例如,可能不能根据时间长期MV 1214来预测层间MV 1212。图形1220示出了禁用的根据映射的长期MV 1224对层间MV 1222的MV映射。例如,可能不能根据映射的长期MV 1224来预测层间MV 1222。
例如,如果两个层间MV在增强层和处理后的基础层具有相同的时间间隔,根据另一个层间MV来预测层间MV可被使能。如果两个层间MV在增强层和处理后的基础层的时间间隔不同,两个层间MV间的预测可能被禁用。这是因为由于缺乏明确的相关性使预测不能产生良好的编码性能。
图13A是示出当Te=Tp时两个层间MV间的MV预测的示例的图。图13B是示出当Te≠Tp时禁用的两个层间MV间的MV预测的示例的图。可用TMVP作为示例(例如,如图13A-B中)。在图1300中,可根据另一个层间MV(例如,MV1)1304来预测当前层间MV(例如,MV2)1302。当前图像CurrPic和其时间相邻的图像ColPic(例如,包括并置PU ColPU)间的时间间隔被表示为Te。它们各自的参考图像(例如,CurrRefPic和ColRefPic)间的时间间隔被表示为Tp。CurrPic和ColPic在增强层中,CurrRefPic和ColRefPic在处理后的基础层中。如果Te=Tp,则MV1可被用来预测MV2。
例如,因为基于POC的MV缩放可能失败,对于两个层间MV间的预测MV的MV缩放可能被禁用。在图1310中,可能不能根据另一个层间MV(例如,MV1)1314来预测当前层间MV(例如,MV2)1312,例如,因为当前图像CurrPic和其相邻的图像ColPic间的时间间隔(例如,Te)和它们各自的参考图像间的时间间隔不相等(例如,Tp)。
例如,如果层间MV和映射的层间MV具有相同的时间间隔,根据映射的层间MV对层间MV的不使用缩放的预测可被使能。如果它们的时间间隔不同,则根据映射的层间MV对层间MV的预测可能被禁用。
表格1总结了用于SVC的增强层编码的MV预测的不同条件的示例。
表格1:关于SVC的增强层MV预测的示例条件
对于不同编码层间的运动信息映射实施,层间MV的MV映射可能被禁用,例如,如此处所述。映射的层间MV对于增强层中的MV预测是不可用的。
包含层间MV的MV预测可能被禁用。对于增强层,根据其他时间MV能预测时间MV(例如,仅时间MV)。这相当于用于单层编解码器的MV预测。
设备(例如,处理器,编码器,解码器,WTRU等等)可接收比特流(例如,可分级的比特流)。例如,该比特流可包括基础层和一个或更多增强层。可利用TMVP来解码比特流中的基础层(例如,基础层视频块)和/或增强层(例如,增强层视频块)。可对比特流中的基础层和增强层执行TMVP。例如,可不做任何改动而对比特流中的基础层(例如,基础层视频块)执行TMVP,例如,参考图4的描述。可利用层间参考图像对比特流中的增强层(例如,增强层视频块)执行TMVP,例如,如此处所述。例如,层间参考图像可被用作用于增强层(例如,增强层视频块)的TMVP的并置参考图像。例如,可确定并置基础层图像的被压缩的MV域。可根据并置基础层图像的被压缩的MV域来确定层间参考图像的MV域。层间参考图像的MV域可被用来在增强层(例如,增强层视频块)上执行TMVP。例如,层间参考图像的MV域可被用来预测对于增强层视频块(例如,并且增强层视频块)的MV域。
可确定层间参考层图像的MV域。例如,可根据并置基础层图像的MV域来确定层间参考层图像的MV域。MV域可包括一个或多个MV和/或参考图像索引。例如,MV域可包括层间参考层图像中的PU(例如,对于层间参考层图像中的每一个PU)的参考图像索引和MV。可根据MV域解码增强层图像(例如,并置增强层图像)。可根据MV域在增强层图像上执行TMVP。
可提供用于层间运动预测的语法信令(例如,高级语法信令)。在序列级可能被使能或禁用层间运行信息映射和MV预测。在图像/切片级可能被使能或禁用层间运行信息映射和MV预测。例如,可根据提高编码效率和/或降低系统复杂度的考虑来做出是否使能和/或禁用某些层间运动预测的技术的决策。序列级的信令比图像/切片级的信令的开销更少,例如,因为增加的语法可以用应用到序列的图像(例如,所有图像)。图像/切片级的信令可提供更好的灵活性,例如,因为序列的图像(例如,每一个图像)可以收到它们自己的运动预测实施和/或MV预测实施。
可提供序列级信令。可在序列级用信号发送层间运动信息映射和/或MV预测。如果使用了序列级信令,则序列中的图像(例如,所有图像)可使用相同的运动信息映射和/或MV预测。例如,表格2中示出的语法将表明是否允许在序列级的层间运动信息映射和/或MV预测。表格2中的语法可被用在参数集上,举例来说,例如视频参数集(VPS)(例如,在HEVC中)、序列参数集(SPS)(例如,在H.264和HEVC中)和图像参数集(PPS)(例如,在H.264和HEVC中)等等,但不限于此。
表格2:序列级信令的增加的语法的示例
(inter_layer_mvp_present_flag)可指示在序列级或是在图像/切片级使用层间运动预测。例如,如果该标志被设为0,则该信令在图像/切片级。如果该标志被设为1,则运动映射和/或MV预测信令在序列级。层间运动映射序列使能标志(inter_layer_motion_mapping_seq_enabled_flag)可指示在序列级是否使用层间运动映射(例如,层间运动预测)。层间增加运动矢量预测序列使能标志(inter_layer_add_mvp_seq_enabled_flag)可指示在序列级是否采用块MV预测(例如,额外的块MV预测)。
可提供图像/切片级信令。可在图像/切片级用信号发送层间运动信息映射。如果使用了图像/切片级信令,则序列的图像(例如,每一个图像)可接收它自己的信令。例如,相同的序列的图像可使用不同的运动信息映射和/或MV预测(例如,基于它们接收到的信令)。例如,表格3中的语法可用在切片头来指示层间运动信息映射和/或MV预测是否被用于增强层中的当前图像/切片。
表格3:经修改的切片头语法的示例
层间运动映射切片使能标志(inter_layer_motion_mapping_slice_enabled_flag)可用来指示是否对当前切片应用层间运动映射。层间增加运动矢量预测切片使能标志(inter_layer_add_mvp_slice_enabled_flag)可用来指示是否对当前切片应用额外的块MV预测。
建议将MV预测编码用于多层视频编码系统。此处描述的层间运动信息映射算法用来生成用于处理后的基础层的与运行有关的信息,例如,使得在增强层中的TMVP过程中能利用基础层和增强层的时间MV间的相关性。因为可以不改动块级操作,单层编码器和解码器可无改动地用于增强层的MV预测。MV预测可基于可分级系统中的不同类型的MV的特性分析(例如,以提高MV预测效率为目的)。
虽然此处描述的是具有空间可分级性的两层SVC系统,但本公布可扩展到具有更多层的以及其他可分级性模式的SVC系统。
可对比特流中的增强层执行层间运动预测。可用信号发送层间运动预测,例如,如此处所述。可在比特流的序列级用信号发送层间运动预测(例如,使用inter_layer_motion_mapping_seq_enabled_flag等等)。例如,可通过在比特流中的视频参数集(VPS)、序列参数集(SPS)、图像参数集(PPS)等等中的变量用信号发送层间运动预测。
设备(例如,处理器,编码器,解码器,WTRU等)可执行此处描述的任意功能。例如,编码器可包括被配置为可接收比特流(例如,可分级比特流)的处理器。比特流可包括基础层和增强层。解码器可使用将层间参考图像作为用于增强层的TMVP的并置参考图像的时间运动矢量预测(TMVP)来解码比特流中的增强层。增强层视频块、层间视频块和/或基础层视频块可以是并置的(例如,时间上并置)。
解码器可采用TMVP来解码增强层图像。例如,解码器可根据并置基础层图像的MV域来确定层间参考图像的MV域。层间参考图像和增强层参考图像是并置的。层间参考图像的MV域可包括层间参考图像的视频块的参考图像索引和MV。解码器可根据层间参考图像的MV域来解码增强层图像。例如,解码器可根据层间参考图像的MV域来确定增强层图像的MV域并根据增强层图像的MV域来解码增强层图像。
可根据被压缩的MV域来确定层间参考图像的MV域。例如,解码器可确定并置基础层图像的被压缩的MV域和根据并置基础层图像的被压缩的MV域来确定层间参考图像的MV域。
解码器可确定层间参考图像的视频块的MV和参考图像。例如,解码器可根据并置基础层视频块的参考图像来确定层间视频块的参考图像。解码器可根据并置基础层视频块的MV来确定层间视频块的MV。解码器通过选择与层间视频块的重叠面积最大为特征的并置基础层图像中的视频块来确定并置基础层视频块。解码器可根据层间参考图像的视频块的MV和/或参考图像来确定增强层的视频块(例如,增强层图像的并置视频块)的MV和/或参考图像。
解码器可确定并置基础层视频块的参考图像,并根据并置基础层视频块的参考图像来确定层间视频块的参考图像。例如,层间视频块的参考图像可以是并置基础层视频块的参考图像的并置层间参考图像。解码器可根据层间视频块的参考图像来确定增强层图像的视频块的参考图像。例如,增强层的参考图像可以是层间视频块的参考图像的并置增强层参考图像。增强层视频块、层间视频块和/或基础层视频块可能是并置的(例如,时间上并置)。
解码器可确定层间视频块的MV。例如,解码器可确定并置基础层视频块的MV,并根据基础层和增强层间的空间比率来缩放并置基础层视频块的MV,来确定层间视频块的MV。解码器可根据层间视频块的MV来确定增强层视频块的MV。例如,解码器可利用层间视频块的MV来预测增强层视频块的MV,例如,通过时间缩放层间视频块的MV。
解码器可被配置为根据并置基础层视频块来确定增强层视频块的参考图像、根据并置基础层视频块的MV来确定增强层视频块的MV,以及/或者根据增强层视频块的参考图像和增强层视频块的MV来解码增强层视频块。例如,解码器可通过选择与增强层视频块的重叠面积最大为特征的并置基础层图像中的视频块来确定并置基础层视频块。
解码器可确定并置基础层视频块的参考图像。解码器可利用并置基础层视频块的参考图像来确定层间视频块的参考图像。解码器可确定增强层视频块的参考图像。例如,增强层视频块的参考图像可以是并置基础层视频块的参考图像和并置层间视频块的参考图像的并置增强层图像。增强层视频块、层间视频块和/或基础层视频块可以是并置的(例如,时间上并置)。
解码器可确定并置基础层视频块的MV。解码器可根据基础层和增强层之间的空间比率来缩放并置基础层视频块的MV,以确定层间视频块的MV。解码器可根据层间视频块的MV来预测增强层视频块的MV,例如,通过对层间视频块的MV的时间缩放。
解码器可包括可以接收比特流的处理器。比特流可包括基础层和增强层。比特流可包括层间运动映射信息。解码器可确定根据层间映射信息可使能对于增强层的层间运动预测。解码器可根据层间映射信息执行增强层的层间运动预测。可在比特流的序列级用信号发送层间映射信息。例如,可通过比特流中的VPS、SPS和/或PPS中的变量(例如标志)来用信号发送层间映射信息。
虽然是从解码器的视角来描述的,但此处所描述的功能(例如,此处描述的功能的逆向功能)可由其他设备来执行,如编码器等。
图14A是在其中可以实施一个或更多个实施方式的示例通信系统1400的系统图。通信系统1400可以是向多个用户提供内容,例如语音、数据、视频、消息发送、广播等的多接入系统。通信系统1400可以使多个无线用户通过系统资源共享(包括无线带宽)访问这些内容。例如,通信系统1400可以使用一种或多种信道接入方法,例如码分多址(CDMA),时分多址(TDMA),频分多址(FDMA),正交FDMA(OFDMA),单载波FMDA(SC-FDMA)等。
如图14A所示,通信系统1400可以包括无线发射/接收单元(WTRU)1402a、1402b、1402c和/或1402d(常被统称为WTRU 1402),无线电接入网(RAN)1403/1404/1405,核心网1406/1407/1407,公共交换电话网(PSTN)1408、因特网1410和其他网络1412。不过将被理解,公开的实施方式考虑到了任何数量的WTRU、基站、网络和/或网络元件。WTRU 1402a、1402b、1402c、1402d的每一个可以是配置为在无线环境中进行操作和/或通信的任何类型的设备。作为示例,可以将WTRU 1402a、1402b、1402c、1402d配置为发送和/或接收无线信号,并可以包括用户设备(UE)、基站、固定或者移动用户单元、寻呼器、蜂窝电话、个人数字助理(PDA)、智能电话、笔记本电脑、上网本、个人计算机、无线传感器、消费电子产品等等。
通信系统1400还可以包括基站1414a和基站1414b。基站1414a、1414b的每一个都可以是配置为与WTRU 1402a、1402b、1402c、1402d中的至少一个无线对接以便于接入一个或者更多个通信网络,例如核心网1406/1407、1409、因特网1410和/或网络1412的任何设备类型。作为示例,基站1414a、1414b可以是基站收发信台(BTS)、节点B)、演进的节点B(e节点B)、家庭节点B、家庭eNB、站点控制器、接入点(AP)、无线路由器等等。虽然基站1414a、1414b的每一个被描述为单独的元件,但是将被理解的是,基站1414a、1414b可以包括任何数量互连的基站和/或网络元件。
基站1414a可以是RAN 1403/1404/1405的一部分,RAN 1403/1404/1405还可以包括其他基站和/或网络元件(未显示),例如基站控制器(BSC)、无线电网络控制器(RNC)、中继节点等。可以将基站1414a和/或基站1414b配置为在特定地理区域之内发送和/或接收无线信号,该区域可以被称为小区(未显示)。小区还可以被划分为小区扇区。例如,与基站1414a关联的小区可以划分为三个扇区。因此,在一种实施方式中,基站1414a可以包括三个收发信机,即每一个用于小区的一个扇区。在另一种实施方式中,基站1414a可以使用多输入多输出(MIMO)技术,因此可以将多个收发信机用于小区的每一个扇区.
基站1414a、1414b可以通过空中接口1415/1416/1417与WTRU 1402a、1402b、1402c、1402d中的一个或者更多个通信,该空中接口1415/1416/1417可以是任何合适的无线通信链路(例如,射频(RF)、微波、红外(IR)、紫外线(UV)、可见光等)。可以使用任何合适的无线电接入技术(RAT)来建立空中接口1415/1416/1417。
更具体地,如上所述,通信系统1400可以是多接入系统,并可以使用一种或者多种信道接入方案,例如CDMA、TDMA、FDMA、OFDMA、SC-FDMA等等。例如,RAN 1403/1404/1405中的基站1414a和WTRU 1402a、1402b、1402c可以使用例如通用移动电信系统(UMTS)陆地无线电接入(UTRA)的无线电技术,其可以使用宽带CDMA(WCDMA)来建立空中接口1415/1416/1417。WCDMA可以包括例如高速分组接入(HSPA)和/或演进的HSPA(HSPA+)的通信协议。HSPA可以包括高速下行链路分组接入(HSDPA)和/或高速上行链路分组接入(HSUPA)。
在另一种实施方式中,基站1414a和WTRU 1402a、1402b、1402c可以使用例如演进的UMTS陆地无线电接入(E-UTRA)的无线电技术,其可以使用长期演进(LTE)和/或高级LTE(LTE-A)来建立空中接口1415/1416/1417。
在其他实施方式中,基站1414a和WTRU 1402a、1402b、1402c可以使用例如IEEE802.16(即,全球微波接入互操作性(WiMAX))、CDMA2000、CDMA2000 1X、CDMA2000EV-DO、暂行标准2000(IS-2000)、暂行标准95(IS-95)、暂行标准856(IS-856)、全球移动通信系统(GSM)、GSM演进的增强型数据速率(EDGE)、GSM EDGE(GERAN)等等的无线电技术。
图14A中的基站1414b可以是无线路由器、家庭节点B、家庭e节点B或者接入点,例如,并且可以使用任何适当的RAT以方便局部区域中的无线连接,例如商业场所、住宅、车辆、校园等等。在一种实施方式中,基站1414b和WTRU 1402c、1402d可以实施例如IEEE802.11的无线电技术来建立无线局域网(WLAN)。在另一种实施方式中,基站1414b和WTRU1402c、1402d可以使用例如IEEE 802.15的无线电技术来建立无线个域网(WPAN)。在另一种实施方式中,基站1414b和WTRU 1402c、1402d可以使用基于蜂窝的RAT(例如,WCDMA,CDMA2000,GSM,LTE,LTE-A等)来建立微微小区或毫微微小区。如图14A所示,基站1414b可以具有到因特网1410的直接连接。因此,基站1414b可以不需要经由核心网1406/1407/1408而接入到因特网1410。
RAN 1403/1404/1405可以与核心网1406/1407/1409通信,所述核心网1406/1407/1409可以是被配置为向WTRU 1402a、1402b、1402c、1402d中的一个或更多个提供语音、数据、应用和/或基于网际协议的语音(VoIP)服务等的任何类型的网络。例如,核心网1406/1407/1409可以提供呼叫控制、计费服务、基于移动位置的服务、预付费呼叫、因特网连接、视频分配等和/或执行高级安全功能,例如用户认证。虽然图14A中未示出,将被理解的是,RAN 1403/1404/1405和/或核心网1406/1407/1409可以与使用和RAN 1403/1404/1405相同的RAT或不同RAT的其他RAN进行直接或间接的通信。例如,除了连接到正在使用E-UTRA无线电技术的RAN 1403/1404/1405之外,核心网1406/1407/1409还可以与使用GSM无线电技术的另一个RAN(未示出)通信。
核心网1406/1407/1409还可以充当WTRU 1402a、1402b、1402c、1402d接入到PSTN1408、因特网1410和/或其他网络1412的网关。PSTN 1408可以包括提供普通老式电话服务(POTS)的电路交换电话网络。因特网1410可以包括使用公共通信协议的互联计算机网络和设备的全球系统,所述协议例如有TCP/IP网际协议组中的传输控制协议(TCP)、用户数据报协议(UDP)和网际协议(IP)。网络1412可以包括被其他服务提供商拥有和/或运营的有线或无线的通信网络。例如,网络1412可以包括连接到一个或更多个RAN的另一个核心网,该RAN可以使用和RAN 1403/1404/1405相同的RAT或不同的RAT。
通信系统1400中的WTRU 1402a、1402b、1402c、1402d的某些或全部可以包括多模式能力,即WTRU 1402a、1402b、1402c、1402d可以包括用于在不同无线链路上与不同无线网络进行通信的多个收发信机。例如,图14A中示出的WTRU 1402c可被配置为与基站1414a通信,所述基站1414a可以使用基于蜂窝的无线电技术,以及与基站1414b通信,所述基站1414b可以使用IEEE 802无线电技术。
图14B是WTRU 1402示例的系统图。如图14B所示,WTRU 1402可以包括处理器1418、收发信机1420、发射/接收元件1422、扬声器/麦克风1424、键盘1426、显示器/触摸板1428、不可移动存储器1430、可移动存储器1432、电源1434、全球定位系统(GPS)芯片组1436和其他外围设备1438。将被理解的是,WTRU 1402可以在保持与实施方式一致时,包括前述元件的任何子组合。同样,实施方式所关注的基站1414a和基站1414b和/或基站1414a和基站1414b所代表的节点,例如但不限于基站收发信台(BTS)、节点B、站点控制器、接入点(AP)、家庭节点B、演进的家庭节点B(eNodeB)、家庭演进的节点B(HeNB)、家庭演进的节点B的网关和代理节点,可包括图14B和此处所描述的部分或全部元件。
处理器1418可以是通用处理器、专用处理器、常规处理器、数字信号处理器(DSP)、多个微处理器、与DSP核相关联的一个或更多个微处理器、控制器、微控制器、专用集成电路(ASIC)、场可编程门阵列(FPGA)电路、任何其他类型的集成电路(IC)、状态机等等。处理器1418可执行信号编码、数据处理、功率控制、输入/输出处理和/或使WTRU 1402运行于无线环境中的任何其他功能。处理器1418可以耦合到收发信机1420,所述收发信机1420可耦合到发射/接收元件1422。虽然图14B描述了处理器1418和收发信机1420是单独的部件,但是将被理解的是,处理器1418和收发信机1420可以一起集成在电子封装或芯片中。
发射/接收元件1422可以被配置为通过空中接口1415/1416/1417将信号发送到基站(例如,基站1414a),或从基站(例如,基站1414a)接收信号。例如,在一种实施方式中,发射/接收元件1422可以是被配置为发送和/或接收RF信号的天线。在另一种实施方式中,发射/接收元件1422可以是被配置为发送和/或接收例如IR、UV或可见光信号的发射器/检测器。在另一种实施方式中,发射/接收元件1422可以被配置为发送和接收RF和光信号两者。应当理解,发射/接收元件1422可以被配置为发送和/或接收无线信号的任何组合。
另外,虽然发射/接收元件1422在图14B中描述为单独的元件,但是WTRU 1402可以包括任意数量的发射/接收元件1422。更具体的,WTRU 1402可以使用例如MIMO技术。因此,在一种实施方式中,WTRU 1402可以包括用于通过空中接口1415/1416/1417发送和接收无线信号的两个或更多个发射/接收元件1422(例如,多个天线)。
收发信机1420可以被配置为调制要由发射/接收元件1422发送的信号和/或解调由发射/接收元件1422接收的信号。如上文所述,WTRU 1402可以具有多模式能力。因此收发信机1420可以包括使WTRU 1402经由多个例如UTRA和IEEE 802.11的RAT通信的多个收发信机。
WTRU 1402的处理器1418可以耦合到下述设备,并且可以从下述设备中接收用户输入数据:扬声器/麦克风1424、键盘1426和/或显示器/触摸板1428(例如,液晶显示器(LCD)显示单元或有机发光二极管(OLED)显示单元)。处理器1418还可以输出用户数据到扬声器/麦克风1424、键盘1426和/或显示/触摸板1428。另外,处理器1418可以从任何类型的适当的存储器访问信息,并且可以存储数据到任何类型的适当的存储器中,例如不可移动存储器1430和/或可移动存储器1432。不可移动存储器1430可以包括随机存取存储器(RAM)、只读存储器(ROM)、硬盘或任何其他类型的存储器设备。可移动存储器1432可以包括用户标识模块(SIM)卡、记忆棒、安全数字(SD)存储卡等等。在其他实施方式中,处理器1418可以从在物理位置上没有位于WTRU 1402上,例如位于服务器或家用计算机(未示出)上的存储器访问信息,并且可以将数据存储在该存储器中。
处理器1418可以从电源1434接收电能,并且可以被配置为分配和/或控制到WTRU1402中的其他部件的电能。电源1434可以是给WTRU 1402供电的任何适当的设备。例如,电源1434可以包括一个或更多个干电池(例如,镍镉(NiCd)、镍锌(NiZn)、镍氢(NiMH)、锂离子(Li-ion)等等),太阳能电池,燃料电池等等。
处理器1418还可以耦合到GPS芯片组1436,所述GPS芯片组1436可以被配置为提供关于WTRU 1402当前位置的位置信息(例如,经度和纬度)。另外,除来自GPS芯片组1436的信息或作为其替代,WTRU 1402可以通过空中接口1415/1416/1417从基站(例如,基站1414a、1414b)接收位置信息和/或基于从两个或更多个邻近基站接收的信号的定时来确定其位置。将被理解,WTRU 1402在保持实施方式的一致性时,可以通过任何适当的位置确定方法获得位置信息。
处理器1418可以耦合到其他外围设备1438,所述外围设备1438可以包括一个或更多个提供附加特性、功能和/或有线或无线连接的软件和/或硬件模块。例如,外围设备1438可以包括加速计、电子罗盘、卫星收发信机、数字相机(用于照片或视频)、通用串行总线(USB)端口、振动设备、电视收发信机、免提耳机、蓝牙模块、调频(FM)无线电单元、数字音乐播放器、媒体播放器、视频游戏机模块、因特网浏览器等等。
图14C是根据实施方式的RAN 1403和核心网1406的结构图。如上文所述,例如RAN1403可使用UTRA无线电技术通过空中接口1415与WTRU 1402a、1402b和1402c通信。RAN1403还可以与核心网1406通信。如图14C所示,RAN 1403可以包括节点B 1440a、1440b、1440c,节点B 1440a、1440b、1440c的每一个包括一个或更多个用于通过空中接口1415与WTRU 1402a、1402b、1402c通信的收发信机。节点B 1440a、1440b、1440c的每一个可以与RAN1403内的特定小区(未显示)关联。RAN 1403还可以包括RNC 1442a、1442b。将被理解的是,RAN 1403在保持实施方式的一致性时,可以包括任意数量的节点B和RNC。
如图14C所示,节点B 1440a、1440b可以与RNC 1442a通信。此外,节点B 1440c可以与RNC 1442b通信。节点B 1440a、1440b、1440c可以通过Iub接口分别与RNC 1442a、1442b通信。RNC 1442a、1442b可以通过Iur接口相互通信。RNC 1442a、1442b的每一个可以被配置以控制其连接的各个节点B 1440a、1440b、1440c。另外,RNC 1442a、1442b的每一个可以被配置以执行或支持其他功能,例如外环功率控制、负载控制、准入控制、分组调度、切换控制、宏分集、安全功能、数据加密等等。
图14C中所示的核心网1406可以包括媒体网关(MGW)1444、移动交换中心(MSC)1446、服务GPRS支持节点(SGSN)1448、和/或网关GPRS支持节点(GGSN)1450。尽管前述元件的每一个被描述为核心网1406的部分,将被理解的是,这些元件中的任何一个可以被不是核心网运营商的实体拥有或运营。
RAN 1403中的RNC 1442a可以通过IuCS接口连接至核心网1406中的MSC 1446。MSC1446可以连接至MGW 1444。MSC 1446和MGW 1444可以向WTRU 1402a、1402b、1402c提供到例如PSTN 1408的电路交换网络的接入,以便于WTRU 1402a、1402b、1402c和传统陆地线路通信设备之间的通信。
RAN 1403中RNC 1442a还可以通过IuPS接口连接至核心网1406中的SGSN 1448。SGSN 1448可以连接至GGSN 1450。SGSN 1448和GGSN 1450可以向WTRU 1402a、1402b、1402c提供到例如因特网1410的分组交换网络的接入,以便于WTRU 1402a、1402b、1402c和IP使能设备之间的通信。
如上所述,核心网1406还可以连接至网络1412,网络1412可以包括由其他服务提供商拥有或运营的其他有线或无线网络。
图14D是根据实施方式的RAN 1404和核心网1407结构图。如上文所述,例如RAN1404可使用E-UTRA无线电技术通过空中接口1416与WTRU 1402a、1402b和1402c通信。RAN1404还可以与核心网1407通信。
RAN 1404可包括e节点B 1460a、1460b和1460c,但将被理解的是,RAN 1404可以包括任意数量的e节点B而保持与各种实施方式的一致性。e节点B 1460a、1460b和1460c的每一个可包括一个或更多个用于经由空中接口1416与WTRU 1402a、1402b、1402c通信的收发信机。在一种实施方式中,e节点B 1460a、1460b和1460c可以实施MIMO技术。因此,例如,e节点B 1460a,可以使用多个天线来向WTRU 1402a发送无线信号和/或从其接收无线信号。
e节点B 1460a、1460b和1460c的每一个可以与特定小区关联(未显示),并可以被配置为处理无线资源管理决策、切换决策、在上行链路和/或下行链路中的用户调度等等。如图14D所示,e节点B 1460a、1460b、1460c可以通过X2接口相互通信。
图14D中所示的核心网1407可以包括移动性管理实体(MME)1462、服务网关1464和/或分组数据网络(PDN)网关1466。虽然前述单元的每一个被描述为核心网1407的一部分,将被理解的是,这些单元中的任意一个可以由除了核心网运营商之外的实体拥有和/或运营。
MME 1462可以经由S1接口连接到RAN 1404中的e节点B 1460a、1460b和1460c的每一个,并可以作为控制节点。例如,MME 1462可以负责WTRU 1402a、1402b、1402c的用户认证、承载激活/去激活、在WTRU 1402a、1402b、1402c的初始附着期间选择特定服务网关等等。MME 1462还可以提供控制平面功能,用于在RAN 1404和使用例如GSM或者WCDMA的其他无线电技术的其他RAN(未显示)之间切换。
服务网关1464可以经由S1接口连接到RAN 104b中的e节点B 1460a、1460b和1460c的每一个。服务网关1464通常可以向/从WTRU 1402a、1402b、1402c路由和转发用户数据分组。服务网关1464还可以执行其他功能,例如在eNB间切换期间锚定用户平面、当下行链路数据对于WTRU 1402a、1402b、1402c可用时触发寻呼、管理和存储WTRU 1402a、1402b、1402c的上下文(context)等等。
服务网关1464还可以连接到PDN网关1466,PDN网关1466可以向WTRU 1402a、1402b、1402c提供到分组交换网络(例如因特网1410)的接入,以便于WTRU 1402a、1402b、1402c与IP使能设备之间的通信。
核心网1407可以便于与其他网络的通信。例如,核心网1406可以向WTRU 1402a、1402b、1402c提供到电路交换网络(例如PSTN 1408)的接入,以便于WTRU 1402a、1402b、1402c与传统陆地线路通信设备之间的通信。例如,核心网1407可以包括IP网关(例如IP多媒体子系统(IMS)服务器),或者与之通信,该IP网关作为核心网1407与PSTN 1408之间的接口。另外,核心网1407可以向WTRU 1402a、1402b、1402c提供到网络1412的接入,该网络1412可以包括被其他服务提供商拥有和/或运营的其他有线或无线网络。
图14E是根据实施方式的RAN 1405和核心网1409的结构图。RAN 1405可以是使用IEEE 802.16无线电技术通过空中接口1417与WTRU 1402a、1402b和1402c进行通信的接入服务网络(ASN)。如下面进一步讨论的,WTRU 1402a、1402b、1402c,RAN 1405和核心网1409的不同功能实体之间的链路可以被定义为参考点。
如图14E所示,RAN 1405可以包括基站1480a、1480b、1480c和ASN网关1482,但将被理解的是,RAN 1405可以包括任意数量的基站和ASN网关而与实施方式保持一致。基站1480a、1480b和1480c的每一个可以与RAN 1405中特定小区(未示出)关联并可以包括一个或更多个通过空中接口11417与WTRU 1402a、1402b、1402c通信的收发信机。在一个示例中,基站1480a、1480b、1480c可以实施MIMO技术。因此,例如,基站1480a可使用多个天线来向WTRU 1402a发送无线信号,或从其接收无线信号。基站1480a、1480b和1480c可以提供移动性管理功能,例如呼叫切换(handoff)触发、隧道建立、无线电资源管理,业务分类、服务质量策略执行等等。ASN网关1482可以充当业务聚集点,并且负责寻呼、缓存用户资料(profile)、路由到核心网1409等等。
WTRU 1402a、1402b、1402c和RAN 1405之间的空中接口1417可以被定义为实施IEEE 802.16规范的R1参考点。另外,WTRU 1402a、1402b和1402c的每一个可以与核心网1409建立逻辑接口(未显示)。WTRU 1402a、1402b、1402c和核心网1409之间的逻辑接口可以定义为R2参考点,其可以用于认证、授权、IP主机(host)配置管理和/或移动性管理。
基站1480a、1480b、1480c的每一个之间的通信链路可以定义为包括便于WTRU切换和基站间转移数据的协议的R8参考点。基站1480a、1480b、1480c和ASN网关1482之间的通信链路可以定义为R6参考点。R6参考点可以包括用于促进基于与WTRU 1402a、1402b、1402c的每一个关联的移动性事件的移动性管理的协议。
如图14E所示,RAN 1405可以连接至核心网1409。RAN 1405和核心网1409之间的通信链路可以定义为包括例如便于数据转移和移动性管理能力的协议的R3参考点。核心网1409可以包括移动IP本地代理(MIP-HA)1484,认证、授权、计费(AAA)服务器1486和网关1488。尽管前述的每个元件被描述为核心网1409的部分,将被理解的是,这些元件中的任意一个可以由不是核心网运营商的实体拥有或运营。
MIP-HA可以负责IP地址管理,并可以使WTRU 1402a、1402b和1402c在不同ASN和/或不同核心网之间漫游。MIP-HA1484可以向WTRU 1402a、1402b、1402c提供分组交换网络(例如因特网1410)的接入,以促进WTRU 1402a、1402b、1402c和IP使能设备之间的通信。AAA服务器1486可以负责用户认证和支持用户服务。网关1488可促进与其他网络互通。例如,网关1488可以向WTRU 1402a、1402b、1402c提供电路交换网络(例如PSTN 1408)的接入,以促进WTRU 1402a、1402b、1402c和传统陆地线路通信设备之间的通信。此外,网关1488可以向WTRU 1402a、1402b、1402c提供网络1412,其可以包括由其他服务提供商拥有或运营的其他有线或无线网络。
尽管未在图14E中显示,将被理解的是,RAN 1405可以连接至其他ASN,并且核心网1409可以连接至其他核心网。RAN 1405和其他ASN之间的通信链路可以定义为R4参考点,其可以包括协调RAN 1405和其他ASN之间的WTRU 1402a、1402b、1402c的移动性的协议。核心网1409和其他核心网之间的通信链路可以定义为R5参考,其可以包括促进本地核心网和被访问核心网之间的互通的协议。
图15是示出基于块的视频编码器(例如,混合视频编码器)的框图。可一块块地处理输入的视频信号1502。视频块单元包括16x16个像素。这样的一个块单元可以被称为宏块(MB)。在高效视频编码(HEVC)中,可使用扩展的块大小(例如,被称为“编码单元”或CU)来有效地压缩高分辨率(例如,大于以及等于1080p)的视频信号。在HEVC中,CU可高达64x64个像素。CU可被划分为预测单元(PU),对于预测单元可以采用单独预测的方法。
对输入视频块(例如,MB或CU),可执行空间预测1560和/或时间预测1562。空间预测(例如,“内部预测”)可使用相同视频图像/切片中的已被编码的相邻块中的像素来预测当前视频块。空间预测可减少视频信号中内在的空间冗余。时间预测(例如,“间预测”或“运动补偿预测”)可使用已被编码的视频图像(例如,可以被称为“参考图像”)的像素来预测当前视频块。时间预测可减少信号中内在的时间冗余。可通过一个或多个运动矢量用信号发送对于视频块的时间预测,运动矢量可用来指示参考图像中的它的预测块和当前块之间的运动的量和/或方向。如果支持多个参考图像(例如,在H.264/AVC和/或HEVC的情况下),则对于每一个视频块,将额外发送它的参考图像索引。参考图像索引可被用来识别时间预测信号来自参考图像存储器1564(例如,其可以被称为“被解码的图像缓存”或DPB)中的哪个参考图像。
在空间和/或时间预测之后,编码器中的模式决策块1580可选择预测模式。将从当前视频块1516中减去预测块。预测残留(residual)将被转换1504和/或被1506量化。量化残留系数将被逆量化1510和/或被逆转换1512来形成被重建的残留,然后将被重建的残留加回给预测块1526来形成重建的视频块。
在重建的视频块在被放入参考图像存储器1564中和/或用于对后来的视频块编码前,可在重建的视频块上应用例如但不限于解块滤波器、采样自适应偏移和/或自适应环路滤波器的闭环滤波(in-loop filtering)的闭环滤波1566。为形成输出视频比特流1520,编码模式(例如,间预测(inter prediction)模式或内部预测模式)、预测模式信息、运动信息和/或量化的残留系数将被送到熵编码单元1508进行压缩和/或打包以形成比特流。
图16是示出基于块的视频解码器的示例的图。视频比特流1602在熵解码单元1608被拆开和/或被熵解码。为形成预测块,编码模式和/或预测信息可被发送给空间预测单元1660(例如,如果是内部编码)和/或时间预测单元1662(例如,如果是间编码)。如果是间编码(inter coded),预测信息可包括预测块大小、一个或更多运动矢量(例如,其可以用于指示运动的方向和量),和/或一个或更多参考索引(例如,其可以用于指示预测信号从哪个参考图像得到)。
时间预测单元1662可应用运动补偿预测来形成时间预测块。残留转换系数可被发给逆量化单元1610和逆转换单元1612来重建残留块。在1626中将预测块和残留块相加。重建的块在被存入参考图像存储1664前,先经过闭环滤波。参考图像存储1664中的重建的视频可被用来驱动显示设备和/或被用来预测以后的视频块。
单层视频编码器可采用单个视频序列输入并生成传送给单层解码器的单个被压缩的比特流。可设计用于数字视频服务(举例来说,例如但不限于通过卫星、电缆和陆地传输通道发送TV信号)的视频编解码器。随着在异构环境中所开发的视频中心应用,可开发出作为视频标准的扩展的多层视频编码技术来使能各种应用。例如,可分级视频编码技术被设计用来处理多于一个视频层的情况,其中每一层都可被解码来重建具有特定空间分辨率、时间分辨率、保真度和/或视野(view)的视频信号。虽然参考图15和图16描述了单层编码器和解码器,此处所述的概念也利用多层编码器和解码器,例如,用于多层或可分级编码技术。图15的编码器和/或图16的解码器可执行此处所述的任意功能。例如,图15的编码器和/或图16的解码器可使用增强层PU的MV在增强层(例如增强层图像)上执行TMVP。
图17是示出通信系统的示例的图。通信系统1700可包括编码器1702、通信网络1704和解码器1706。编码器1702可通过连接1708与通信网络1704通信。连接1708可以是有线连接或无线连接。编码器1702类似于图15中的基于块的视频编码器。编码器1702可包括单层编解码器(例如,如图15所示)或多层编解码器器。
解码器1706可通过连接1710与通信网络1704通信。连接1710可以是有线连接或无线连接。解码器1706类似于图16中的基于块的视频解码器。解码器1706可包括单层编解码器(例如,如图16所示)或多层编解码器。编码器1702和/或解码器1706可被结合到多种多样的有线通信设备和/或无线发射/接收单元(WTRU)中的任意一种,例如,但不限于数字电视、无线广播系统、网络元件/终端、服务器(例如内容或网站服务器(例如,如超文本传输协议(HTTP)服务器)、个人数字助手(PDA)、笔记本电脑或台式计算机、平板电脑、数码相机、数字记录设备、视频游戏设备、视频游戏控制台、蜂窝或卫星无线电话和数字媒体播放器等等。
通信网络1704适用于通信系统。例如,通信网络1704可以是向多个无线用户提供内容(例如语音,数据,视频,消息发送,广播等)的多接入系统。通信网络1704可以使多个无线用户能够通过系统资源共享(包括无线带宽)访问这些内容。例如,通信网络1704可以使用一种或多种信道接入方法,例如码分多址(CDMA),时分多址(TDMA),频分多址(FDMA),正交FDMA(OFDMA),单载波FMDA(SC-FDMA)等。
这里描述的方法可以用计算机程序、软件或固件实现,其可包含到由计算机或处理器执行的计算机可读介质中。计算机可读介质的示例包括电子信号(通过有线或无线连接传送)和计算机可读存储介质。计算机可读存储介质的示例包括但不限于只读存储器(ROM)、随机存取存储器(RAM)、寄存器、缓冲存储器、半导体存储器设备、磁介质(例如内部硬盘和可移动磁盘)、磁光介质和光介质,例如光盘(CD)或数字多用途盘(DVD)。与软件关联的处理器用于实现射频收发信机,用于WTRU、UE、终端、基站、RNC或任何主计算机。

Claims (20)

1.一种方法,该方法包括:
接收比特流,所述比特流包括基础层和增强层;
基于并置基础层图像的参考图像列表,生产层间图像的参考图像列表;以及
通过使用所述层间图像的所述参考图像列表,经由时间运动矢量预测(TMVP)来解码增强层图像。
2.根据权利要求1所述的方法,其中所述层间图像的所述参考图像列表是通过以下而被生成的:
将所述并置基础层图像的所述参考图像列表内的所述参考图像添加至所述层间图像的所述参考图像列表。
3.根据权利要求2所述的方法,其中所述参考图像被添加至所述所述层间图像的所述参考图像列表,且具有与他们在所述并置基础层图像的所述参考图像列表内的对应参考图像相同的索引。
4.根据权利要求2所述的方法,其中所述层间图像的所述参考图像列表内的所述参考图像具有与他们在所述并置基础层图像的所述参考图像列表内的对应参考图像相同的图像顺序计数(POC)值。
5.根据权利要求1所述的方法,进一步包括将所述层间图像添加至所述增强层图像的参考图像列表,其中所述层间图像被用作并置图像以用于所述增强层图像的TMVB。
6.根据权利要求1所述的方法,其中所述层间图像包括来自并置基础层图像的纹理以及根据所述并置基础层图像的运动矢量的可缩放运动矢量。
7.根据权利要求1所述的方法,其中使用TMVP解码所述增强层图像包括:
根据所述并置基础层图像的运动矢量(MV)域来确定所述层间图像的MV域;以及
根据所述层间图像的所述MV域来解码所述增强层图像。
8.根据权利要求7所述的方法,其中根据所述层间图像的所述MV域来解码所述增强层图像包括:
根据所述层间图像的所述MV域来确定所述增强层图像的MV域,其中所述层间图像的所述MV域包括所述层间图像的视频块的MV和参考图像索引;以及
根据所述增强层图像的所述MV域来解码所述增强层图像。
9.根据权利要求7所述的方法,其中确定所述层间图像的所述MV域包括:
确定所述并置基础层图像的被压缩的MV域;以及
根据所述并置基础层图像的所述被压缩的MV域来确定所述层间图像的所述MV域。
10.一种解码器,包括:
处理器,被配置为:
接收比特流,所述比特流包括基础层和增强层;
基于并置基础层图像的参考图像列表,生产层间图像的参考图像列表;以及
通过使用所述层间图像的所述参考图像列表,经由时间运动矢量预测(TMVP)来解码增强层图像。
11.根据权利要求10所述的解码器,其中为了生成所述层间图像的所述参考图像列表,所述处理器被配置为:
将所述并置基础层图像的所述参考图像列表内的所述参考图像添加至所述层间图像的所述参考图像列表。
12.根据权利要求11所述的解码器,其中所述处理器被配置为将所述参考图像添加至所述所述层间图像的所述参考图像列表,且该参考图像具有与他们在所述并置基础层图像的所述参考图像列表内的对应参考图像相同的索引。
13.根据权利要求11所述的解码器,其中所述处理器被配置为将相同的图像顺序计数(POC)值指派给所述层间图像的所述参考图像列表内的所述参考图像,且该POC与所述参考图像在所述并置基础层图像的所述参考图像列表内的对应参考图像的POC值相同。
14.根据权利要求10所述的解码器,其中所述处理器进一步被配置为将所述层间图像添加至所述增强层图像的参考图像列表,其中所述层间图像被用作并置图像以用于所述增强层图像的TMVB。
15.根据权利要求10所述的解码器,其中所述层间图像包括来自并置基础层图像的纹理以及根据所述并置基础层图像的运动矢量的可缩放运动矢量。
16.根据权利要求10所述的解码器,其中为了使用TMVP解码所述增强层图像,所述处理器被配置为:
根据所述并置基础层图像的运动矢量(MV)域来确定所述层间图像的MV域;以及
根据所述层间图像的所述MV域来解码所述增强层图像。
17.根据权利要求16所述的解码器,其中为了根据所述层间图像的所述MV域来解码所述增强层图像,所述处理器被配置为:
根据所述层间图像的所述MV域来确定所述增强层图像的MV域,其中所述层间图像的所述MV域包括所述层间图像的视频块的MV和参考图像索引;以及
根据所述增强层图像的所述MV域来解码所述增强层图像。
18.根据权利要求16所述的解码器,其中为了确定所述层间图像的所述MV域,所述处理器被配置为:
确定所述并置基础层图像的被压缩的MV域;以及
根据所述并置基础层图像的所述被压缩的MV域来确定所述层间图像的所述MV域。
19.一种方法,包括:
经由视频解码器接收比特流,所述比特流包括基础层和增强层;
基于所述比特流内的指示,确定是使用层间参考图像还是时间增强层图像作为并置图像(ColPic)以用于增强层图像的时间运动矢量预测(TMVP);
一旦确定使用所述层间参考图像作为所述并置图像(ColPic)以用于所述增强层图像的TMVP,经由所述视频解码器将所述层间参考图像添加至所述增强层图像的参考图像列表,其中所述层间参考图像包含根据基础层图像确定的纹理、根据所述基础层图像的运动矢量确定的运动矢量、以及根据所述基础层图像的参考图像索引确定的参考图像索引;以及
通过使用所述层间参考图像作为所述并置图像(ColPic)以用于所述增强层图像的TMVP,经由所述视频解码器解码所述增强层图像。
20.一种无线发射/接收单元(WTRU),被配置为用于正交频分多址(OFDMA)系统,该WTRU包含:
处理器;
显示器;
收发信机,被配置为多将由所述WTRU发射的信号进行调制并对由所述WTRU接收的信号进行解调;以及
GPS芯片组,被配置为提供关于所述WTRU的当前位置的位置信息;
其中所述处理器被配置为:
接收包含基础层及增强层的比特流,该础层及增强层将根据不同的视频标准而被编码;
确定来自相同视频切片内的之前编码的相邻块的像素,以预测所述比特流的所述增强层的视频块;
确定来自之前编码的视频图像的像素,以预测所述比特流的所述增强层的所述视频块;以及
经由所述收发信机传送有关所确定的像素的无线信号至基站。
CN201810073911.5A 2012-08-29 2013-08-29 用于可分级视频编码的运动矢量预测的方法和装置 Active CN108156463B (zh)

Applications Claiming Priority (8)

Application Number Priority Date Filing Date Title
US201261694555P 2012-08-29 2012-08-29
US61/694,555 2012-08-29
US201261734650P 2012-12-07 2012-12-07
US61/734,650 2012-12-07
US201361866822P 2013-08-16 2013-08-16
US61/866,822 2013-08-16
CN201380045712.9A CN104604230B (zh) 2012-08-29 2013-08-29 用于可分级视频编码的运动矢量预测的方法和装置
PCT/US2013/057291 WO2014036259A1 (en) 2012-08-29 2013-08-29 Method and apparatus of motion vector prediction for scalable video coding

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
CN201380045712.9A Division CN104604230B (zh) 2012-08-29 2013-08-29 用于可分级视频编码的运动矢量预测的方法和装置

Publications (2)

Publication Number Publication Date
CN108156463A true CN108156463A (zh) 2018-06-12
CN108156463B CN108156463B (zh) 2022-07-01

Family

ID=49162260

Family Applications (3)

Application Number Title Priority Date Filing Date
CN201810073911.5A Active CN108156463B (zh) 2012-08-29 2013-08-29 用于可分级视频编码的运动矢量预测的方法和装置
CN201380045712.9A Active CN104604230B (zh) 2012-08-29 2013-08-29 用于可分级视频编码的运动矢量预测的方法和装置
CN202210670598.XA Pending CN115243046A (zh) 2012-08-29 2013-08-29 用于可分级视频编码的运动矢量预测的方法和装置

Family Applications After (2)

Application Number Title Priority Date Filing Date
CN201380045712.9A Active CN104604230B (zh) 2012-08-29 2013-08-29 用于可分级视频编码的运动矢量预测的方法和装置
CN202210670598.XA Pending CN115243046A (zh) 2012-08-29 2013-08-29 用于可分级视频编码的运动矢量预测的方法和装置

Country Status (9)

Country Link
US (3) US9900593B2 (zh)
EP (2) EP2891311A1 (zh)
JP (3) JP5961761B2 (zh)
KR (3) KR101754999B1 (zh)
CN (3) CN108156463B (zh)
AU (2) AU2013308719B2 (zh)
MX (1) MX341900B (zh)
TW (2) TWI637625B (zh)
WO (1) WO2014036259A1 (zh)

Families Citing this family (42)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014011595A1 (en) * 2012-07-09 2014-01-16 Vid Scale, Inc. Codec architecture for multiple layer video coding
CN109413424B (zh) * 2012-09-03 2022-11-15 索尼公司 图像处理设备和方法
CA2871828C (en) * 2012-09-28 2015-09-15 Sony Corporation Image processing device
US10375405B2 (en) 2012-10-05 2019-08-06 Qualcomm Incorporated Motion field upsampling for scalable coding based on high efficiency video coding
US10194146B2 (en) * 2013-03-26 2019-01-29 Qualcomm Incorporated Device and method for scalable coding of video information
KR20140121315A (ko) * 2013-04-04 2014-10-15 한국전자통신연구원 참조 픽처 리스트를 이용한 다 계층 기반의 영상 부호화/복호화 방법 및 그 장치
US11438609B2 (en) * 2013-04-08 2022-09-06 Qualcomm Incorporated Inter-layer picture signaling and related processes
EP2997732A1 (en) * 2013-05-15 2016-03-23 VID SCALE, Inc. Single loop decoding based inter layer prediction
US10609407B2 (en) * 2013-07-09 2020-03-31 Nokia Technologies Oy Method and apparatus for video coding
US9560358B2 (en) * 2013-07-22 2017-01-31 Qualcomm Incorporated Device and method for scalable coding of video information
WO2015060699A1 (ko) * 2013-10-26 2015-04-30 삼성전자 주식회사 멀티 레이어 비디오 부호화 방법 및 장치, 멀티 레이어 비디오 복호화 방법 및 장치
JP6560230B2 (ja) 2014-01-02 2019-08-14 ヴィド スケール インコーポレイテッド インターレースおよびプログレッシブ混合のコンテンツを用いるスケーラブルビデオコーディングのための方法およびシステム
WO2015139205A1 (en) * 2014-03-18 2015-09-24 Mediatek Singapore Pte. Ltd. An improved method for collocated picture in video coding
WO2015143603A1 (en) * 2014-03-24 2015-10-01 Mediatek Singapore Pte. Ltd. An improved method for temporal motion vector prediction in video coding
WO2016165069A1 (en) * 2015-04-14 2016-10-20 Mediatek Singapore Pte. Ltd. Advanced temporal motion vector prediction in video coding
KR20170059718A (ko) * 2015-11-23 2017-05-31 삼성전자주식회사 디코딩 장치 및 그 방법
CN109660800B (zh) * 2017-10-12 2021-03-12 北京金山云网络技术有限公司 运动估计方法、装置、电子设备及计算机可读存储介质
US11558633B2 (en) * 2017-11-01 2023-01-17 Vid Scale, Inc. Sub-block motion derivation and decoder-side motion vector refinement for merge mode
WO2019234607A1 (en) 2018-06-05 2019-12-12 Beijing Bytedance Network Technology Co., Ltd. Interaction between ibc and affine
WO2019234608A1 (en) 2018-06-05 2019-12-12 Beijing Bytedance Network Technology Co., Ltd. Partition tree with more than four sub-blocks
TWI739120B (zh) 2018-06-21 2021-09-11 大陸商北京字節跳動網絡技術有限公司 合併仿射模式與非合併仿射模式的統一拘束
EP3788782A1 (en) 2018-06-21 2021-03-10 Beijing Bytedance Network Technology Co. Ltd. Sub-block mv inheritance between color components
TWI818086B (zh) 2018-09-24 2023-10-11 大陸商北京字節跳動網絡技術有限公司 擴展Merge預測
CN111083484A (zh) 2018-10-22 2020-04-28 北京字节跳动网络技术有限公司 基于子块的预测
WO2020084474A1 (en) 2018-10-22 2020-04-30 Beijing Bytedance Network Technology Co., Ltd. Gradient computation in bi-directional optical flow
WO2020084556A1 (en) 2018-10-24 2020-04-30 Beijing Bytedance Network Technology Co., Ltd. Sub-block motion candidate list in video coding
CN112997480B (zh) 2018-11-10 2023-08-22 北京字节跳动网络技术有限公司 成对平均候选计算中的取整
EP3857879A4 (en) 2018-11-12 2022-03-16 Beijing Bytedance Network Technology Co., Ltd. SIMPLIFICATION OF COMBINED INTER-INTRA PREDICTION
WO2020103872A1 (en) 2018-11-20 2020-05-28 Beijing Bytedance Network Technology Co., Ltd. Prediction refinement for combined inter intra prediction mode
JP7241870B2 (ja) 2018-11-20 2023-03-17 北京字節跳動網絡技術有限公司 部分的な位置に基づく差分計算
CN113228675A (zh) 2018-12-21 2021-08-06 北京字节跳动网络技术有限公司 视频处理中的运动矢量比特深度
KR102023742B1 (ko) 2019-01-31 2019-11-04 (주)래딕스 테스트 핀 조립체
EP3915259A4 (en) 2019-03-06 2022-03-30 Beijing Bytedance Network Technology Co., Ltd. USE OF A CONVERTED UNIVERSITY PREDICTION CANDIDATE
KR20230169434A (ko) 2019-04-02 2023-12-15 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 디코더 측 움직임 벡터 유도
JP7365434B2 (ja) * 2019-06-24 2023-10-19 エルジー エレクトロニクス インコーポレイティド インター予測に基づく画像コーディング方法および装置
CN117336482A (zh) 2019-08-20 2024-01-02 北京字节跳动网络技术有限公司 变换跳过模式的信令通知
CN115443653A (zh) 2020-04-07 2022-12-06 抖音视界有限公司 高级别语法中的帧间预测的信令通知
JP2023521588A (ja) 2020-04-09 2023-05-25 北京字節跳動網絡技術有限公司 映像コーディングにおけるデブロッキング信号通知
CN115486064A (zh) 2020-04-10 2022-12-16 抖音视界有限公司 标头语法元素和自适应参数集的使用
CN115868159A (zh) 2020-04-17 2023-03-28 抖音视界有限公司 自适应参数集单元的存在
WO2021213357A1 (en) * 2020-04-20 2021-10-28 Beijing Bytedance Network Technology Co., Ltd. Adaptive color transform in video coding
CN115486081A (zh) 2020-04-26 2022-12-16 字节跳动有限公司 视频编解码语法元素的条件信令通知

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1764280A (zh) * 2004-10-21 2006-04-26 三星电子株式会社 基于多层在视频编码器中有效压缩运动矢量的方法和装置
US20060165302A1 (en) * 2005-01-21 2006-07-27 Samsung Electronics Co., Ltd. Method of multi-layer based scalable video encoding and decoding and apparatus for the same
CN101102503A (zh) * 2006-07-07 2008-01-09 华为技术有限公司 视频分层编码层间运动矢量的预测方法
US20090168880A1 (en) * 2005-02-01 2009-07-02 Byeong Moon Jeon Method and Apparatus for Scalably Encoding/Decoding Video Signal
CN101690220A (zh) * 2007-04-25 2010-03-31 Lg电子株式会社 用于解码/编码视频信号的方法和装置

Family Cites Families (52)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100621581B1 (ko) * 2004-07-15 2006-09-13 삼성전자주식회사 기초 계층을 포함하는 비트스트림을 프리디코딩,디코딩하는 방법, 및 장치
ITMI20041971A1 (it) * 2004-10-15 2005-01-15 Uni Degli Studi Brescia Metodo di codifica video scalabile
KR100679022B1 (ko) * 2004-10-18 2007-02-05 삼성전자주식회사 계층간 필터링을 이용한 비디오 코딩 및 디코딩방법과,비디오 인코더 및 디코더
US20060153295A1 (en) 2005-01-12 2006-07-13 Nokia Corporation Method and system for inter-layer prediction mode coding in scalable video coding
KR100896279B1 (ko) * 2005-04-15 2009-05-07 엘지전자 주식회사 영상 신호의 스케일러블 인코딩 및 디코딩 방법
US8619860B2 (en) 2005-05-03 2013-12-31 Qualcomm Incorporated System and method for scalable encoding and decoding of multimedia data using multiple layers
US8867618B2 (en) * 2005-07-22 2014-10-21 Thomson Licensing Method and apparatus for weighted prediction for scalable video coding
JP2009531940A (ja) * 2006-03-24 2009-09-03 韓國電子通信研究院 Fgsレイヤーの動きデータを利用してインターレイヤーリダンダンシを除去するコーディング方法及びその装置
US8396134B2 (en) * 2006-07-21 2013-03-12 Vidyo, Inc. System and method for scalable video coding using telescopic mode flags
WO2008049052A2 (en) * 2006-10-18 2008-04-24 Apple Inc. Scalable video coding with filtering of lower layers
MY149409A (en) * 2006-10-20 2013-08-30 Nokia Corp Virtual decoded reference picture marking and reference picture list
AU2007309044B2 (en) * 2006-10-23 2011-04-28 Vidyo, Inc. System and method for scalable video coding using telescopic mode flags
US8254455B2 (en) * 2007-06-30 2012-08-28 Microsoft Corporation Computing collocated macroblock information for direct mode macroblocks
US8265144B2 (en) * 2007-06-30 2012-09-11 Microsoft Corporation Innovations in video decoder implementations
WO2012122423A1 (en) * 2011-03-10 2012-09-13 Dolby Laboratories Licensing Corporation Pre-processing for bitdepth and color format scalable video coding
EP2338281A4 (en) * 2008-10-17 2012-08-15 Nokia Corp SHARING THE MOTION VECTOR IN 3D VIDEO CODING
FR2939593B1 (fr) * 2008-12-09 2010-12-31 Canon Kk Procede et dispositif de codage video
WO2010126613A2 (en) * 2009-05-01 2010-11-04 Thomson Licensing Inter-layer dependency information for 3dv
US9124898B2 (en) * 2010-07-12 2015-09-01 Mediatek Inc. Method and apparatus of temporal motion vector prediction
US8908755B2 (en) * 2010-07-16 2014-12-09 Sony Corporation Multi-parameter motion for efficient prediction in video compression
US20120075436A1 (en) * 2010-09-24 2012-03-29 Qualcomm Incorporated Coding stereo video data
TW201223249A (en) 2010-09-24 2012-06-01 Qualcomm Inc Coding stereo video data
EP2630799A4 (en) * 2010-10-20 2014-07-02 Nokia Corp METHOD AND DEVICE FOR VIDEO CODING AND DECODING
US9635382B2 (en) * 2011-01-07 2017-04-25 Texas Instruments Incorporated Method, system and computer program product for determining a motion vector
KR20220070072A (ko) * 2011-02-09 2022-05-27 엘지전자 주식회사 움직임 정보 저장 방법 및 이를 이용한 시간적 움직임 벡터 예측자 유도 방법
KR102287971B1 (ko) * 2011-02-09 2021-08-09 엘지전자 주식회사 영상 부호화 및 복호화 방법과 이를 이용한 장치
US9247266B2 (en) * 2011-04-18 2016-01-26 Texas Instruments Incorporated Temporal motion data candidate derivation in video coding
US20120287999A1 (en) * 2011-05-11 2012-11-15 Microsoft Corporation Syntax element prediction in error correction
WO2013009441A2 (en) * 2011-07-12 2013-01-17 Vidyo, Inc. Scalable video coding using multiple coding technologies
US9736489B2 (en) * 2011-09-17 2017-08-15 Qualcomm Incorporated Motion vector determination for video coding
KR20130037161A (ko) * 2011-10-05 2013-04-15 한국전자통신연구원 스케일러블 비디오 코딩을 위한 향상된 계층간 움직임 정보 예측 방법 및 그 장치
EP2781091B1 (en) * 2011-11-18 2020-04-08 GE Video Compression, LLC Multi-view coding with efficient residual handling
US9900615B2 (en) * 2011-12-28 2018-02-20 Microsoft Technology Licensing, Llc Representative motion information for temporal motion prediction in video encoding and decoding
US20130188719A1 (en) * 2012-01-20 2013-07-25 Qualcomm Incorporated Motion prediction in svc using motion vector for intra-coded block
DK2822276T3 (en) * 2012-02-29 2019-02-04 Lg Electronics Inc Method for interlayer prediction and device using it
EP2829066B1 (en) * 2012-03-22 2020-07-08 MediaTek Inc. Method and apparatus of scalable video coding
EP2842322A1 (en) * 2012-04-24 2015-03-04 Telefonaktiebolaget LM Ericsson (Publ) Encoding and deriving parameters for coded multi-layer video sequences
US20130287093A1 (en) * 2012-04-25 2013-10-31 Nokia Corporation Method and apparatus for video coding
US9253487B2 (en) * 2012-05-31 2016-02-02 Qualcomm Incorporated Reference index for enhancement layer in scalable video coding
US9762903B2 (en) * 2012-06-01 2017-09-12 Qualcomm Incorporated External pictures in video coding
US9420286B2 (en) * 2012-06-15 2016-08-16 Qualcomm Incorporated Temporal motion vector prediction in HEVC and its extensions
WO2013189257A1 (en) * 2012-06-20 2013-12-27 Mediatek Inc. Method and apparatus of bi-directional prediction for scalable video coding
US20130343459A1 (en) * 2012-06-22 2013-12-26 Nokia Corporation Method and apparatus for video coding
US20150229967A1 (en) * 2012-08-21 2015-08-13 Samsung Electronics Co., Ltd. Inter-layer video coding method and device for predictive information based on tree structure coding unit, and inter-layer video decoding method and device for predictive informationbased on tree structure coding unit
CN104756498B (zh) * 2012-09-21 2019-04-23 英特尔公司 跨层运动向量预测
US20140086328A1 (en) * 2012-09-25 2014-03-27 Qualcomm Incorporated Scalable video coding in hevc
US9124899B2 (en) * 2012-09-28 2015-09-01 Sharp Laboratories Of America, Inc. Motion derivation and coding for scaling video
US20150245063A1 (en) * 2012-10-09 2015-08-27 Nokia Technologies Oy Method and apparatus for video coding
US9473779B2 (en) * 2013-03-05 2016-10-18 Qualcomm Incorporated Parallel processing for video coding
US8958477B2 (en) * 2013-04-05 2015-02-17 Vidyo, Inc. Multiple reference layer prediction signaling techniques
US20140348222A1 (en) * 2013-05-23 2014-11-27 Mediatek Inc. Method of Sample Adaptive Offset Processing for Video Coding and Inter-Layer Scalable Coding
WO2016180486A1 (en) * 2015-05-12 2016-11-17 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Composite scalable video streaming

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1764280A (zh) * 2004-10-21 2006-04-26 三星电子株式会社 基于多层在视频编码器中有效压缩运动矢量的方法和装置
US20060165302A1 (en) * 2005-01-21 2006-07-27 Samsung Electronics Co., Ltd. Method of multi-layer based scalable video encoding and decoding and apparatus for the same
US20090168880A1 (en) * 2005-02-01 2009-07-02 Byeong Moon Jeon Method and Apparatus for Scalably Encoding/Decoding Video Signal
CN101102503A (zh) * 2006-07-07 2008-01-09 华为技术有限公司 视频分层编码层间运动矢量的预测方法
CN101690220A (zh) * 2007-04-25 2010-03-31 Lg电子株式会社 用于解码/编码视频信号的方法和装置

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
JINMI KANG等: ""A New Inter-Layer Prediction Scheme for Spatial Scalability with Different Frame Rates"", 《PROCEEDINGS OF THE 2009 ACM SYMPOSIUM ON APPLIED COMPUTING》 *
ZHONGBO SHI等: ""CGS quality scalability for HEVC"", 《2011 IEEE 13TH INTERNATIONAL WORKSHOP ON MULTIMEDIA SIGNAL PROCESSING》 *

Also Published As

Publication number Publication date
JP2016213857A (ja) 2016-12-15
AU2013308719A1 (en) 2015-04-02
JP2015529420A (ja) 2015-10-05
TWI637625B (zh) 2018-10-01
KR101955700B1 (ko) 2019-03-07
MX341900B (es) 2016-09-07
CN104604230A (zh) 2015-05-06
JP5961761B2 (ja) 2016-08-02
EP3588958A1 (en) 2020-01-01
US10939130B2 (en) 2021-03-02
TW201424390A (zh) 2014-06-16
US20140064374A1 (en) 2014-03-06
JP2018029361A (ja) 2018-02-22
KR102062506B1 (ko) 2020-01-03
JP6431966B2 (ja) 2018-11-28
US20210120257A1 (en) 2021-04-22
EP2891311A1 (en) 2015-07-08
JP6220013B2 (ja) 2017-10-25
TW201804792A (zh) 2018-02-01
CN104604230B (zh) 2018-03-02
US9900593B2 (en) 2018-02-20
US20180131952A1 (en) 2018-05-10
KR20190025758A (ko) 2019-03-11
KR20170081741A (ko) 2017-07-12
AU2016201903A1 (en) 2016-04-21
AU2016201903B2 (en) 2017-12-21
MX2015002536A (es) 2015-10-12
WO2014036259A1 (en) 2014-03-06
CN115243046A (zh) 2022-10-25
TWI646822B (zh) 2019-01-01
US11343519B2 (en) 2022-05-24
KR101754999B1 (ko) 2017-07-06
CN108156463B (zh) 2022-07-01
KR20150046228A (ko) 2015-04-29
AU2013308719B2 (en) 2015-12-24

Similar Documents

Publication Publication Date Title
CN104604230B (zh) 用于可分级视频编码的运动矢量预测的方法和装置
CN106664410B (zh) 用于基于三维色彩映射模型参数优化的系统和方法
CN104685877B (zh) 用于多层视频编码的自适应上采样
CN105122803B (zh) 针对可伸缩视频编码的增强型时间运动向量预测
CN106464921B (zh) 用于块内复制搜索增强的方法和系统
CN105900432B (zh) 用于屏幕内容编码的二维调色板编码
CN107431817B (zh) 用于调色板译码的方法及装置
CN103797792B (zh) 用于空间预测的系统和方法
CN105122805B (zh) 针对多层视频编码的层间参考图片增强的设备
KR101840915B1 (ko) 스케일러블 비디오 코딩을 위한 모션 정보 시그널링
CN107211147A (zh) 用于非4:4:4屏幕内容视频的调色板编码
CN107646195A (zh) 用于屏幕内容编码的帧内块复制模式
CN105765979B (zh) 用于可缩放视频编码的层间预测
CN106576178A (zh) 采用块向量导出的块内复制编码的方法和系统
CN107005708A (zh) 使用时间块向量预测的块内复制译码
CN107409220A (zh) 块内拷贝搜索
CN104170390B (zh) 用于视频编码参考图像列表的用信号发送和建构的方法及装置
CN108322744A (zh) 用于可缩放的高效视频编码(hevc)的参考图片集(rps)信令

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant