CN110572662A - 用于多层视频编码的组合可分级性处理 - Google Patents

用于多层视频编码的组合可分级性处理 Download PDF

Info

Publication number
CN110572662A
CN110572662A CN201910865427.0A CN201910865427A CN110572662A CN 110572662 A CN110572662 A CN 110572662A CN 201910865427 A CN201910865427 A CN 201910865427A CN 110572662 A CN110572662 A CN 110572662A
Authority
CN
China
Prior art keywords
bit depth
component
bit
layer
depth
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910865427.0A
Other languages
English (en)
Other versions
CN110572662B (zh
Inventor
叶琰
董洁
贺玉文
R·内夫
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Vid Scale Inc
Original Assignee
Vid Scale Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Vid Scale Inc filed Critical Vid Scale Inc
Priority to CN201910865427.0A priority Critical patent/CN110572662B/zh
Publication of CN110572662A publication Critical patent/CN110572662A/zh
Application granted granted Critical
Publication of CN110572662B publication Critical patent/CN110572662B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/186Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/187Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a scalable video layer
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • H04N19/34Scalability techniques involving progressive bit-plane based encoding of the enhancement layer, e.g. fine granular scalability [FGS]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • H04N19/52Processing of motion vectors by encoding by predictive encoding

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Image Processing (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Color Image Communication Systems (AREA)

Abstract

一种视频编码系统可以通过在视频信号的基础层上同时执行反向色调映射和色域转换可分级性过程来执行层间处理。然后该视频编码系统可以在处理后的基础层执行上采样。处理后的基础层可以被用来对增强层进行编码。比特深度可以被考虑用于色域转换模块。色度和/或亮度比特深度可以与色度和/或亮度的各自较大或较小比特深度值对齐。

Description

用于多层视频编码的组合可分级性处理
本申请为2014年10月07日递交的题为“用于多层视频编码的组合可分级性处理”的中国专利申请201480055145.X的分案申请。
交叉引用
本申请要求2013年10月7日提交的美国临时专利申请No.61/887,782,以及2014年9月3日提交的美国临时专利申请No.62/045,495的权益,所述申请的内容以整体引用的方式结合于此。
背景技术
随着数字显示技术的演进,显示分辨率持续提高。例如,近来体现可用的最佳商业显示分辨率的高清(HD)数字视频流即将被超高清(UHD)显示(例如4K显示,8K显示等等)所超越。
视频编码系常被用于压缩数字视频信号,例如以降低消耗的存储空间和/或降低与该类信号相关联的传输带宽消耗。业已表明,可分级视频编码(SVC)能改善在异构网络上在具有不同能力的设备上运行的视频应用的体验质量。可分级视频编码相比于非可分级视频编码技术可消耗更少的资源(例如通信网络带宽、存储等)。
已知的SVC视频编码实现(例如利用空间可分级性)已经被证明对于HD视频信号的编码是有效的,但是在处理扩展超过HD分辨率的数字视频信号(例如UHD视频信号)时存在缺陷。
发明内容
一种视频编码系统可以执行层间处理。该视频编码系统可以在视频信号的视频信号层同时执行反向(inverse)色调映射和色域转换可分级性过程。视频编码系统可以在视频信号层执行上采样。例如上采样过程可以在组合的反向色调映射和色域转换可分级性过程之后执行。此处使用的编码包括编码和/或解码。
例如,组合处理模块可以被用于在诸如基础层的较低层同时执行反向色调映射和色域转换可分级性过程。组合处理模块可以采用输入亮度组分的采样比特深度和输入色度组分的采样比特深度作为输入,并且可以基于该输入计算输出亮度组分的采样比特深度和输出色度组分的采样比特深度。组合处理模块的输出(例如,包含输出亮度组分及输出色度组分的视频)、和/或输出的指示(例如,指示所述输出亮度及色度组分的采样比特深度的一个或多个参数)、和/或所述输出的指示可以被发送到上采样处理模块用以上采样。处理后的基础层可以被用于对增强层进行编码。处理后的基础层可以被用以预测增强层。
视频编码系统可以执行从第一色彩空间到第二色彩空间的色彩转换。例如,可以取得(retrieve)针对像素的诸如色度组分和/或亮度组分的色彩组分值。色彩组分值可以用不同比特深度来表示。比特深度可以被对齐(align),并且可使用交叉色彩(cross-color)组分模型将色彩组分值从第一色彩空间转换到第二色彩空间。该对齐可以基于输入色度比特深度、输入亮度比特深度、最小输入比特深度和/或最大输入比特深度。比特深度可以与比特深度中的较大值对齐,和/或可以与比特深度中的较小值对齐。当针对所述视频信号的色度组分执行色彩映射时,该视频信号的亮度组分的比特深度可与色度组分的比特深度相对齐。当针对所述视频信号的亮度组分执行色彩映射时,该视频信号的色度组分的比特深度可与亮度组分的比特深度相对齐
附图说明
图1描述了示例多层可分级视频编码系统。
图2描述了用于立体视频编码的时间和层间预测的示例。
图3是可在视频编码中执行的示例可分级性类型的表。
图4是超高清电视(UHDTV)和高清电视(HDTV)技术规范的表。
图5描述了对超高清电视(UHDTV)和高清电视(HDTV)的色彩空间的比较。
图6是用于描述比特流层的示例的表,其可支持HD到UHD的可分级性(scalability)。
图7是用于描述比特流层的另一示例的表,其可支持HD到UHD的的可分级性。
图8是描述可被配置成执行HD到UHD的可分级性的示例两层可分级视频编码器的简化框图。
图9是描述可被配置成执行HD到UHD的可分级性的示例两层可分级视频解码器的简化框图。
图10描述了使用多个处理模块的层间处理的示例。
图11为描述了用信号表示层间过程和/或层间处理模块的选择和处理过程的示例的语法表。
图12描述了可与图11中的示例语法表一起使用的示例值的表。
图13描述了使用组合的反向色调映射和上采样处理模块的层间处理的示例。
图14描述了使用组合的反向色调映射和色域转换处理模块的层间处理的示例。
图15为描述组合的色域转换和反向色调映射处理的语法表。
图16为可与图11中的示例语法表一起使用的示例值的表。
图17A描述了可以在其中实现一个或多个所公开的实施方式的示例通信系统的系统图。
图17B描述了示例无线发射/接收单元(WTRU)的系统图,其中所述WTRU可以在如图17A所示的通信系统中使用。
图17C描述了可以在如图17A所示的通信系统中使用的示例无线电接入网络和示例核心网络的系统图。
图17D描述了可以在如图17A所示的通信系统中使用的示例无线电接入网络和示例核心网络的系统图。
图17E描述了可以在如图17A所示的通信系统中使用的示例无线电接入网络和示例核心网络的系统图。
具体实施方式
图1为描述示例的基于块的混合可分级视频编码(SVC)系统的简化框图。由层1(例如,基础层)表示的空间和/或时间信号分辨率可以通过对输入视频信号下采样来生成。在后续编码阶段,诸如Q1的量化器的设置会导致基本信息的质量等级。一个或多个后续较高层可以使用基础层重构Y1被编码和/或解码,其可表示对较高层分辨率等级的近似。上采样单元可以执行基础层重构信号到层2分辨率的上采样。下采样和/或上采样可以贯穿多个层(例如针对N层,层1,2……N)执行。下采样和/或上采样率可根据例如两层之间的可分级性的维度而不同。
在图1的示例可分级视频编码系统中,对于给定较高层n(例如2≤n≤N,N为总层数),可以通过从当前层n信号中减去经上采样的较低层信号(例如层n-1信号)来生成差分信号。该差分信号可以被编码。如果由两个层n1和n2表示的各个视频信号具有相同的空间分辨率,相应的下采样和/或上采样操作被旁路。给定层n(例如1≤n≤N)或者多个层可以在不使用来自较高层的解码信息的情况下被解码。
依赖于例如使用图1的示例SVC系统对除了基础层之外的层的残差(residual)信号(例如两个层之间的差分信号)进行编码可能引起视觉伪像(artifact)。这种视觉伪像可能归因于例如为限制残差信号的动态范围对其进行的量化和/或归一化和/或在对残差进行编码期间执行的量化。一个或多个较高层编码器可以采用运动估计和/或运动补偿预测作为各自的编码模式。残差信号中的补偿和/或运动估计可能与常规运动估计不同,并且容易产生视觉伪像。为了减少(例如最小化)视觉伪像的出现,更加复杂的残差量化可以和例如联合量化过程一起被实施,联合量化过程可包括为限制残差信号的动态范围对其进行的量化和/或规一化以及在对残差编码期间执行的量化。
可分级视频编码可以使能对部分比特流的传输和解码。这使得SVC能够在保持相对高的重构质量(例如给定的部分比特流各自的速率)的同时提供具有较低时间和/或空间分辨率或降低的保真度的视频服务。SVC可以与单环路解码一起实施,由此SVC解码器可以在被解码的层建立一个运动补偿环路,并且可以不在一个或多个其它较低层建立运动补偿循环。例如,比特流可包括两个层,包括可以为基础层的第一层(例如,层1)和可以为增强层的第二层(例如,层2)。当这种SVC解码器重构层2视频时,建立解码图像缓存和运动补偿预测可以被限制在层2。在SVC的这种实现中,来自较低层的各个参考图像可以不被完全重构,这降低了解码器处的计算复杂度和/或存储器消耗。
可以通过受约束的层间纹理预测来获得单环路解码,其中如果相应较低层的块以内模式被编码,则对于给定层中的当前块,来自较低层的空间纹理预测可被允许。当较低层块以内模式被编码时,其可以在没有运动补偿操作和/或解码图像缓存的情况下被重构。
SVC可以采用一种或多种附加层间预测技术,诸如根据一个或多个较低层的运动向量预测、残差预测、模式预测等。这可以改善增强层的速率失真率。利用单环路解码的SVC实现可在解码器处展现出降低的计算复杂度和/或降低的存储器消耗,并且归因于例如依赖块级层间预测而展现出增加的实施复杂度。为了补偿由施加单环路解码限制引发的性能损失,编码器的设计和计算复杂度可以被增加以获得期望的性能。对交错(interlaced)内容的编码可能不被SVC所支持。
多视图视频编码(MVC)可以提供视图可分级性。在视图可分级性的示例中,基础层比特流可以被解码以重构常规的两维(2D)视频,并且一个或多个附加增强层可以被解码以重构相同视频信号的其它视图表示。当这种视图被组合到一起并且由三维(3D)显示器显示时,可产生具有合适的深度感知的3D视频。
图2描述了用于使用MVC对具有左视图(例如,层1)和右视图(例如,层2)的立体视频进行编码的示例预测结构。左视图视频可以以I-B-B-P预测结构编码,右视图视频可以以P-B-B-B预测结构编码。如图2所示,在右视图中,与左视图中的第一I图像并置的第一图像被编码为P图像,在右视图中的后续图像被编码为B图像,B图像具有来自右视图中的时间参考的第一预测和来自左视图中的层间参考的第二预测。MVC可能不支持单环路解码特征。例如,如图2所示,对右视图(层2)视频进行解码可以以左视图(层1)中的全部图像可用为条件,每个层(例如,视图)具有各自的补偿循环。MVC的实施可以包括高等级语法改变,并且可不包括块级改变。这使得MVC的实施变得容易。例如,可以通过在切片(slice)和/或图像级配置参考图像来实现MVC。MVC可通过例如扩展图2中的示例来支持对多于两个视图进行编码,以执行多个视图间的层间预测。
MPEG帧兼容(MFC)视频编码可以提供对3D视频编码的可分级扩展。例如MFC可以给帧兼容基础层视频(例如被打包到同一帧中的两个视图)提供可分级扩展,并且可以提供一个或多个增强层以恢复完全分辨率视图。立体3D视频可以具有两个视图,包括左和右视图。可以通过将两个视图打包和/或复用到一个帧中以及通过压缩和传送打包后的视频来递送立体3D内容。在接收机侧,在解码之后,帧被拆包并且显示为两个视图。对视图的这种复用可以在时域或空间域中执行。当在空间域中执行时,为了保持相同的图像大小,两个视图可在空间上被下采样(例如以因子2)并且按照一种或多种布置(arrangement)来打包。例如,并排布置可以将下采样后的左视图放在图像的左半部,并且将下采样后的右视图放在图像的右半部。其它布置可以包括上和下,逐行,棋盘等。例如,用于实现帧兼容3D视频的布置可以通过一个或多个帧打包布置SEI消息来传递。这种布置可以以最小的带宽消耗增加实现了3D传递。
图3是可在视频编码中执行的示例可分级性类型的表。示例可分级性类型中的一种或多种可以被实施为层间预测处理模式。这改善了视频编码系统(例如根据高效视频编码(SHVC)的可分级扩展的视频编码系统)的压缩效率。比特深度可分级性、色域可分级性和/或亮度格式可分级性可以与基础层(BL)和增强层(EL)视频格式相关联。对于比特深度可分级性,例如,BL视频可按照8比特,而EL视频可高于8比特。对于色域可分级性,例如,BL视频可以按照BT.709色域进行色彩分级,而EL视频可以按照BT.2020色域进行色彩分级。对于亮度格式可分级性,例如,BL视频可以为YUV4:2:0格式,而EL视频可以为YUV4:2:2或YUV4:4:4格式。
图4是示例超高清电视(UHDTV)和高清电视(HDTV)技术规范表。如图4所示,相比于HDTV视频格式(例如在ITU-R BT.709中定义的),UHDTV视频格式(例如在ITU-R BT.2020中定义的)可以支持更高空间分辨率(例如4Kx2K(3840x2160)和8Kx4K(7680x4320)分辨率)、更高帧速率(例如120Hz)、更高采样比特深度(例如10比特或12比特)以及更宽色域。
图5描述了按照CIE色彩定义各个HDTV色域和UHDTV色域的比较。如所示,由UHDTV色域覆盖的色彩量比由HDTV色域覆盖的色彩量宽得多。
视频编码系统(例如根据高效视频编码(SHVC)的可分级扩展的视频编码系统)可以包括被配置成执行视频编码的一个或多个设备。被配置成执行视频编码(例如以对视频信号进行编码和/或解码)的设备可以被称作视频编码设备。这种视频编码设备可以包括具有视频能力的设备(例如电视)、数字媒体播放器、DVD播放器、Blu-rayTM播放器、网络化的媒体播放设备、台式计算机、便携式个人计算机、平板设备、移动电话、视频会议系统、基于硬件和/或软件的视频编码系统等等。这种视频编码设备可以包括无线通信网络元件,诸如无线发射/接收单元(WTRU)、基站、网关或其它网络元件。
视频编码系统可以被配置成支持UHDTV显示格式和HDTV显示格式。例如,一个或多个视频比特流可以按照例如使用两个层(具有表示由HDTV显示器使用的HDTV视频信号的基础层以及表示由UHDTV显示器使用的UHDTV视频信号的增强层)的分层的方式来编码。如图4所示,HDTV格式和UHDTV格式的技术规范之间的差别可以扩展到空间和时间分辨率差别之外,例如包括采样比特深度和色域差别。被配置成支持UHDTV的视频编码系统可以包括对空间可分级性、时间可分级性、比特深度可分级性(BDS)和色域可分级性(CGS)的支持。视频编码系统可以被配置成同时支持多种可分级性(例如空间、时间、比特深度和色域可分级性)。
视频编码系统可以被配置成使用例如包括多于两个层的可分级比特流来支持多种可分级性类型。可以配置这种视频编码,如此使得成每个增强层增强一个视频参数。例如,图6描述了可用于将HD视频信号升级到UHD视频信号的示例比特流层配置。如所示,示例比特流可具有四个层,包括基础层(层0)和三个增强层(分别为层1、层2和层3)。基础层(层0)可以包括例如1080p60 HD视频信号。在第一增强层(例如层1)中,空间分辨率可以被升级到例如4kx2k(3840x1960)。在第二增强层(例如层2),采样比特深度可以被升级,例如从8比特到10比特。在第三增强层(例如层3)中,色域可以被升级,例如从BT.709到BT.2020。应当理解的是图6中描述的比特流层的处理顺序是示例处理顺序,其它比特流层处理顺序可以被实施。所描述的示例比特流层配置不包括提高视频信号的帧速率。然而时间可分级性可以被实施,例如以在一个或多个层中将帧速率升级到例如120fps。增强层可以增强多于一个视频参数。
视频编码系统可以被配置成执行多环路解码。在多环路解码中,为了解码当前增强层,当前增强层的一个或多个依赖层(例如所有依赖层)可被完全解码。可以在一个或多个依赖层(例如依赖层中的每一者)中创建解码图像缓存(DPB)。随着层数的增加,解码复杂度(例如计算复杂度和/或存储器消耗)可能增加。用于支持期望的视频格式的层数可能根据增加的解码复杂度被限制。例如,对于HD到UHD的可分级性,具有两个层的可分级视频比特流可被实施(例如图7中描述的示例比特留层配置)。
图8是描述示例编码器(例如SHVC编码器)的简化框图。所描述的示例编码器可以被用于生成两层HD到UHD可分级比特流(例如图7中所描述的)。如图8所示,基础层(BL)视频输入830可以为HD视频信号,增强层(EL)视频输入802可以为UHD视频信号。HD视频信号830和UHD视频信号802可以依据例如以下中的一者或多者彼此对应:一个或多个下采样参数(例如空间可分级性);一个或多个色彩分级参数(例如色域可分级性)或一个或多个色调映射参数(例如比特深度可分级性)828。
BL编码器818可以包括例如高效视频编码(HEVC)视频编码器或H.264/AVC视频编码器。BL编码器818可以被配置成使用用于预测的一个或多个BL重构图像(例如在BL DPB820中存储的)来生成BL比特流832。EL编码器804可以包括例如HEVC编码器。EL编码器804可以包括一个或多个高级语法修改,例如以通过增加层间参考图像到EL DPB来支持层间预测。EL编码器804可以被配置成使用用于预测的一个或个EL重构图像(例如在EL DPB 806中存储的)来生成EL比特流808。
在层间处理(ILP)单元822处,可以使用一个或多个图像级层间处理技术(包括上采样(例如针对空间可分级性)、色域转换(例如针对色域可分级性)或者反向色调映射(例如针对比特深度可分级性)中的一种或多种)处理BL DPB 820中的一个或多个重构BL图像。一个或多个处理后的重构BL图像可以被用作针对EL编码的参考图像。可以基于从EL编码器804接收到的增强视频信息814和/或从BL编码器818接收到的基础层信息816来执行层间处理。
在826处,EL比特流808、BL比特流832和在层间处理中使用的参数(诸如ILP信息824)可以被一起复用到可分级比特流812中。例如,可分级比特流812可以包括SHVC比特流。
图9是描述对应于图8中描述的示例编码器的示例解码器(例如SHVC解码器)的简化框图。例如,所描述的示例解码器可以被用于解码两层HD到UHD比特流(例如图7中描述的)。
如图9所示,解复用模块912可以接收可分级比特流902并且可以解复用可分级比特流902以生成ILP信息914、EL比特流904和BL比特流918。可分级比特流902可包括SHVC比特流。EL比特流904可以由EL解码器906解码。例如,EL解码器906可包括HEVC视频解码器。EL解码器906可以被配置成使用用于预测的一个或多个EL重构图像(例如存储在EL DPB 908中的)来生成UHD视频信号910。BL比特流918可以由BL解码器920解码。BL解码器920可以包括例如HEVC视频解码器或H.264/AVC视频解码器。BL解码器920可以被配置成使用用于预测的一个或多个BL重构图像(例如存储在BL DPB 922中的)来生成HD视频信号924。诸如UHD视频信号910和/或HD视频信号924的重构视频信号可以用于驱动显示设备。
在ILP单元916处,可以使用一种或多种图像级层间处理技术处理BL DPB 922中的一个或多个重构BL图像。该图像级层间处理技术可包括下列的一者或多者:上采样(例如针对空间可分级性)、色域转换(例如针对色域可分级性)和反向色调映射(例如针对比特深度可分级性)。一个或多个处理后的重构BL图像可以被用作针对EL解码的参考图像。可以基于在层间处理中使用的参数(诸如ILP信息914)来执行层间处理。预测信息可以包括预测块大小、一个或多个运动向量(例如其可指示运动方向和运动量)和/或一个或多个参考索引(例如其可指示预测信号从哪个参考图图像中获得)。这可以改善EL解码效率。
视频编码系统可以执行组合层间可分级性处理。视频编码系统可以在执行层间预测时使用多个层间处理模块。一个或多个层间处理模块可以被组合。视频编码系统可以根据层间处理模块的级联配置来执行层间处理。可以用信号来发送组合层间可分级性处理和/或对应的模块参数。
示例视频编码过程包括对视频信号的基础层执行层间处理。可以使用同时执行第一和第二可分级性过程的组合处理模块来执行层间处理的第一部分。示例视频编码过程可以包括将处理后的基础层应用到视频信号的增强层。第一层间处理的第一部分可以包括反向色调映射处理和色域转换处理。可以使用上采样处理模块执行层间处理的第二部分。
视频编码系统可以被配置成通过使层间处理模块中的一者或多者按照以特定顺序执行从而以特定顺序来执行层间处理步骤。层间处理模块可负责执行特定的层间过程。一个或多个层间过程可以被组合到一个或多个对应的层间处理模块中,由此层间处理模块可以同时执行多于一个层间过程。这些模块配置可以与各自的实现复杂度、计算复杂度和/或可分级编码性能的测量相关联。层间处理模块可以负责执行多个层间过程。
视频编码系统可以被配置成根据组合可分级性执行层间处理。例如,组合可分级性可以在视频编码器的ILP单元(例如在图8中描述的ILP单元822)和/或视频解码器的ILP单元(例如在图9中描述的ILP单元916)中实现。多个处理模块可以被用于实现组合可分级性。
在用于组合可分级性处理的示例配置中,每个处理模块可被配置成执行与单个可分级性类型相关联的处理。图10描述了使用被配置成以级联方式执行视频编码的多个处理模块的示例层间视频编码过程。如所示,每个处理模块被配置成执行特定可分级性类型的处理。可以使用示例层间视频编码过程,例如以执行HD到UHD的可分级编码。处理模块可以被配置成执行多个可分级性类型的处理。
如图10所示,反向色调映射模块1020可以将8比特视频1010转换为10比特视频1030。色域转换模块1040可以将BT.709视频1030转换为BT.2020视频1050。上采样模块1060可以被用于将1920x1080空间分辨率的视频1050转换成3840x2160空间分辨率的视频1070。在组合中,这些处理模块可以实现图8和图9中描述的ILP单元的处理。应当理解的是图10中描述的处理顺序(例如处理模块的顺序)(反向色调映射,之后跟着色域转换,之后跟着上采样)是示例的处理顺序,其它处理顺序可以被实施。例如,ILP单元中处理模块的顺序可以互换。
一个或多个层间处理模块(例如每个层间处理模块)可以被配置用于每个采样(per-sample)操作。例如,反向色调映射模块1020可以被应用到视频图像中的每个采样以将8比特视频转换成10比特视频。每个采样操作可以由色域转换模块1040执行。在应用上采样模块1060之后,视频图像中采样的数目可增加(例如显著地)(例如在2倍空间速率的情况下,在上采样之后采样的数目变为四倍)。
在组合可分级性处理的示例实现中,ILP单元可以被配置使得通过上采样模块1060的处理可以在层间处理结束处执行(例如如图10所示)。
可分级视频编码系统可以使用多个层实现。对于一个或多个层(例如对于每个层),级联的层间处理流的各个过程的可用性、选择和/或应用可以不同。例如,对于一个或多个层,处理可以被限制成色域转换过程和上采样过程。例如,反向色调映射过程可以被省略。对于每个层,可以按照处理顺序用信号发送(例如根据图11中描述的采样语法表)各自的可分级性转换过程的选择和/或处理顺序(例如图10中所描述)。例如,这一信息可以被封装在层的视频参数集(VPS)和/或序列参数集(SPS)中。通过解码器的一个或多个过程的应用可以通过关于每一个单独的过程是否可用和/或是否被选择用于处理的指示被限制。这可以例如通过过程可用性和/或过程选择信息被指示。可以用信号发送(例如,在比特流中)层间处理中的过程顺序。在实施方式中,可对处理顺序进行预定义。在一实施方式中,在层间处理中的过程顺序可以在比特流中用信号发送。
可以规定对应于一个或多个可应用过程的过程索引。过程索引可以对应于一个过程或者过程的组合,并且可以指示各个过程。例如,图12描述了定义可用于图11中描述的process_index(过程索引)字段的索引的示例语法表。编码器可以发送一个或多个索引以根据例如如图10中描述的级联处理用信号发送处理模块的选择和/或顺序。所述选择可以是任意选择。解码器可以接收和解码这一信令,并且响应于所述信令,在执行层间处理(例如使用ILP单元)时按照规定的顺序应用所选择的过程。
一个或多个附加参数可以被包括在信令和/或比特流中,以规定各个模块定义。例如,用信号发送如何应用处理模块中的每一者。一个或多个附加参数可以规定分离的和/或组合的模块定义。例如,这种参数可以作为ILP信息的一部分被用信号发送。
在示例上采样过程中,信令可以定义例如由上采样模块应用的上采样滤波器的形式、形状(shape)、大小或系数。例如,所述信令可以规定可分离的(separable)2D滤波器或不可分离的2D滤波器。该信令可规定多个滤波器。例如,这种滤波器可以针对上采样亮度图像组分和/或色度图像组分被定义。滤波器可以被分开定义或者一起定义。当与反向色调映射过程组合时,所述信令可以反映各个输入和/或输出比特深度之间的差别。
在示例色域转换过程中,例如,信令可以定义下面的一者或多者:色彩转换装置(例如3D查找表(3D-LUT))、分段线性模型、交叉(cross)组分线性模型、线性增益和/或偏移模型等等。对于选中的模型,格式、大小、系数或其它定义参数中的一个或多个可以被用信号发送。当与反向色调映射过程组合时,所述信令可以反映各个输入和/或输出比特深度之间的差别。
在示例反向映射过程中,信令可以定义例如输入比特深度和/或输出比特深度。多个输入和/或输出比特深度可以被用信号发送。例如,针对亮度图像组分和针对一个或多个色度图像组分的输入和输出比特深度的各个定义可以被用信号发送。所述信令可以规定和/或定义用于反向色调映射设备的参数(诸如分段线性模型、多项式模型等等)。
图12的示例语法表提供由编码器(例如图8的可分级视频编码器)用信号发送的可用层间处理模块的调色板(palette)的示例。一个或多个过程索引值可以被用信号发送。过程索引值可以与一个或多个层间处理模块(例如针对其它模式的可分级性)对应。解码器(例如图9的可分级视频解码器)可以经由来自编码器的信令接收一个或多个过程索引,并且可以应用可对应于接收到的过程索引的一个或多个层间处理模块。
例如,空间重采样过程可以支持纵横比可分级性。对应于空间重采样过程的索引可以被添加到图12的表中。在示例中,色度重采样过程可以支持色度格式可分级性。对应于色度重采样过程的索引可以被添加到图12的表中。由图11和12中的表所定义的语法可以支持任何数目的层间处理模块。
在组合可分级性处理的示例实现中,针对多个层间处理模块的应用的顺序可以被预先确定(例如编码器和解码器之间约定并且固定的)。图11的表的信令未定义处理顺序,解码器可以将固定的顺序应用到一个或多个选择的和/或用信号通知的过程。
在组合可分级性处理的示例实现中,针对多个层间处理模块的应用的选择和/或顺序可以改变(例如随着时间)。在这种实现中,用于规定下面中的一者或多者的信令可以被传送和/或更新(例如在图像级)一个或多个可分级层:层间处理模块的选择、层间处理模块的应用的顺序和各个模块定义(例如定义模块中的每一者的参数)。可以使用例如图11和12的表中所定义的信令将层间处理从一个图像改变到下一个。例如,与色域转换模块相关联的3D-LUT的定义可以随着时间改变(例如以反映内容提供方所应用的色彩调控中的差别)。
在根据图10的组合可分级性处理的示例实现中,层间处理功能可以被分开实现并且可以被级联到一起。例如,层间处理功能可以以任意顺序级联。例如,基于实施(例如流水线和并行设计),重复访问采样值(例如每个采样值)可能引发高资源消耗(例如在存储器访问方面)。视频编码和/或处理可以使用定点操作。例如,三维查找表(3D LUT)过程可以用于色域转换。
处理模块可以被合并到单个处理模块,由此可分级处理被一次完成。在组合可分级性处理的示例实现中,图10中描述的处理模块可以被组合到单个处理模块中。在这样的所有在一个中(all-in-one)的实现中,输入中的像素被访问和处理一次(或者在执行分离的上采样的情况下两次)以生成输出中的一个或多个对应像素。
线性处理对于一些处理模块是足够的,然而对其它处理模块非线性处理可能更加有效(例如在改善EL编码性能方法)。例如,使用线性滤波器的上采样是有效的,然而对于色域转换,非线性模型(例如3D LUT)比线性模型更加有效。反向色调映射模块可以为线性或非线性的,这依赖于在生成视频内容时使用的色调映射类型。组合的非线性处理和线性处理并非无关紧要,并且组合后的模块本质上是非线性的。
一些处理模块比其它模块使用的更宽泛。例如,空间可分级性可以被用于诸如视频会议的应用,其中输入视频的采样比特深度和色域可以保持相同(例如每个采样和BT.709色域8比特)。对于限于空间可分级性的应用,层间处理可以包括上采样处理模块。在这种应用中,可保持上采样处理模块与ILP单元中的一个或多个其它处理模块分离。当可由上采样处理模块单独执行处理时,一个或多个其它处理模块(例如反向色调映射处理模块和/或色域转换处理模块)可被旁路。
层间处理单元中的一个或多个功能可以与视频编解码器的一个或多个其他部分对齐(align)。例如,根据SHVC的实现,用于1/2-和1/4-像素位置的上采样滤波器可以与用于HEVC中的运动补偿预测的对应相位处的插值滤波器保持相同。
图13描述了组合可分级性处理的示例实现。一个或多个处理模块可被组合。如所示,上采样处理模块可以与反向色调映射处理模块组合,并且色域转换处理模块可以保持分离(例如排序在组合的上采样和反向色调映射处理模块之前)。
如图13所示,色域转换模块1320可以将BT.709视频1310转换为BT.2020视频1330。组合的反向色调映射和上采样模块1340可以将8比特的空间分辨率为1920x1080的BT.2020视频1330转换为10比特的空间分辨率为3840x2160的视频1350。
一个或多个上采样滤波器可以减小滤波之后的右移位(shift)的数目。为了在SHVC的示例实现中描述,以下等式可以表示上采样(例如垂直滤波)中的步骤。
intLumaSample=(fL[yPhase,0]*tempArray[0]+
fL[yPhase,1]*tempArray[1]+
fL[yPhase,2]*tempArray[2]+
fL[yPhase,3]*tempArray[3]+
fL[yPhase,4]*tempArray[4]+
fL[yPhase,5]*tempArray[5]+
fL[yPhase,6]*tempArray[6]+
fL[yPhase,7]*tempArray[7]+(1<<11)>>(12)
滤波步骤可以取决于例如delta_bit_depth的值来减小右移位的数目,delta_bit_depth可表示BL和EL之间的采样比特深度的差异。
intLumaSample=(fL[yPhase,0]*tempArray[0]+
fL[yPhase,1]*tempArray[1]+
fL[yPhase,2]*tempArray[2]+
fL[yPhase,3]*tempArray[3]+
fL[yPhase,4]*tempArray[4]+
fL[yPhase,5]*tempArray[5]+
fL[yPhase,6]*tempArray[6]+
fL[yPhase,7]*tempArray[7]+(1<<(11–delta_bit_depth))>>(12–delta_bit_depth)在实施方式中,可以使用非线性色调映射来生成BL和EL视频内容。可以使用非线性模型(诸如多项式模型、分段线性模型等)来实现组合的上采样和反向色调映射过程。这能够提高编码效率。
视频编码设备,诸如图1中描述的视频编码系统,图8中描述的视频编码器和/或图9中描述的视频解码器,可以对视频信号进行编码。视频编码设备可以使用同时执行反向色调映射和色域转换可分级性过程的组合处理模块来在视频信号的较低层执行第一层间处理。视频编码设备可以使用上采样处理模块在视频信号层上执行第二层间处理。
图14描述了具有至少一个组合处理模块的组合可分级性处理的示例实现。如所示,反向色调映射处理模块可以与色域转换处理模块组合,并且上采样处理模块可以保持分离。组合的反向色调映射和色域转换处理可以在上采样处理之前应用。
如图14所示,组合的反向色调映射和色域转换模块1420可以将8比特BT.709视频1410转换为10比特BT.2020视频1430。视频的空间分辨率可以保持相同(诸如空间分辨率为1920x1080)。组合的反向色调映射和色域转换模块1420可以基于输入亮度组分的采样比特深度和输入色度组分的采样比特深度计算输出亮度组分的采样比特深度和输出色度组分的采样比特深度。组合的反向色调映射和色域转换模块1420基于信令(例如,视频比特流内接收的参数),可以计算和/或确定输出采样比特深度。组合的反向色调映射和色域转换模块1420可以发送结果到上采样处理模块1440。例如,输出亮度组分的采样比特深度的指示和输出色度组分的采样比特深度的指示可发送到上采样处理模块1440。组合的反向色调映射和色域转换模块1420可以发送包含所输出的(例如,转换后的)亮度组分及所输出的色度组分的视频到上采样处理模块1440。上采样处理模块1440可以接收和转换10比特空间分辨率为1920x1080的BT.2020视频1430为10比特空间分辨率为3840x2160的BT.2020视频1450。可以基于从组合的反向色调映射和色域转换模块1420接收的输出亮度组分的采样比特深度和输出色度组分的采样比特深度来执行上采样过程。
反向色调映射和色域转换使用非线性模型更有效。例如,3D LUT可以被用于色域转换。例如在图14描述的示例实现的组合的反向色调映射和色域转换模块中使用修改后的3D LUT(例如具有8比特输入和10比特输出)可以和在各个分离的处理模块中使用分离的非线性模型(例如根据图10中描述的示例实现)一样有效。
使用图13和图14中描述的组合可分级性处理的示例实现可执行测试序列。对于根据图13的示例实现,具有8比特输入和8比特输出的3D LUT技术被用在色域转换处理模块中,并且一种技术被用在组合的反向色调映射和上采样处理模块中。对于根据图14的示例实现,具有8比特输入和10比特输出的增强型3D LUT技术被用在组合的色域转换处理和反向色调映射处理模块中,并且上采样处理模块与SHVC的实现一致。
对于组合可分级性处理的两种示例实现的测试序列,使用最小二乘(LS)技术并且将BL和EL(如果分辨率不同则下采样)视频作为训练序列来估计3D LUT中的模型参数。仿真结果示出两种示例实现都增强了可分级编码效率,其中图14的示例实现略优于图13的示例实现。更高的编码效率可能归因于增强型3D LUT可以采纳反向色调映射过程的内在非线性性。例如,对用于可用在组合处理模块(例如图14中描述的示例实现的组合的反向色调映射处理和色域转换处理模块)中的增强型3D LUT的一个或多个模型参数的估计和/或训练可以基于训练内容,该训练内容可反映由组合处理模块执行的反向色调映射过程的输入比特深度和/或输出比特深度。
可以使用具有不同顺序的多项式、组分独立线性、交叉组分线性和/或分段线性来组合反向色调映射处理和色域转换处理。例如,编码器可以基于一个层的源内容和另一层的目标内容利用最小二乘训练技术推导模型参数,以达到减小的(例如最小的)匹配误差。
组合层间可分级性处理和/或对应模型参数可以被用信号发送。例如,可以在比特流中用信号发送组合可分级性处理过程,其中语法元素可以指示哪个组合可分级性处理过程(例如图13中描述的或图14中描述的)将被使用。可以在序列级用信号发送这一语法元素,例如作为VPS的一部分和/或作为SPS的一部分。可以在图像级(例如在切片分段报头中)用信号发送语法元素,作为图像参数集(PPS)的一部分或作为自适应参数集(APS)的一部分。编码器可基于例如视频输入来选择组合可分级性处理过程。编码器可以向解码器指示该组合可分级性处理过程。
在组合层间可分级性处理的示例实现中,组合可分级性处理过程可以被预定义。例如,图14中描述的组合可分级性处理过程可以被选择。编码器和解码器可以重复使用特定的组合可分级性处理过程,而无需附加信令。
可在组合层间可分级性处理中使用的色域转换技术可以包括下面的一个或多个:增益和偏移、交叉组分线性、分段线性和3D LUT。图15中描述的示例语法表描述了用信号发送组合可分级性处理过程和用于组合的色域转换处理和反向色调映射处理的参数的示例。图15中描述的示例语法可以用在根据图14中描述的示例实现的示例中。
如图15所示,输入和输出比特深度值可以被包括为色彩映射过程的参数。色彩映射过程可以使得处理以用于指示色彩映射过程的输入亮度组分的采样比特深度的参数为基础。例如输入亮度组分的采样比特深度可以按照超过8的变化(delta)被用信号发送。如图15所示,例如用于指示输入亮度组分的采样比特深度的参数可以被称作bit_depth_input_luma_minus8(比特-深度-输入-亮度-最小8)。可以使用其它参数名称。
色彩映射过程可以使得处理以用于指示色彩映射过程的输入色度组分的采样比特深度的参数为基础。例如输入色度组分的采样比特深度可以按照超过8的变化(delta)被用信号发送。例如输入色度比特深度可以按照超过输入亮度比特深度的变化(delta)被用信号发送。如图15所示,例如用于指示输入色度组分的采样比特深度的参数可以被称作bit_depth_input_chroma_delta(比特-深度-输入-色度-变化)。可以使用其它参数名称。这可通过减小将被编码的语法元素的值(例如小变化值)来降低信令消耗。可以使用其它比特深度信令技术。
色彩映射过程可以输出用于指示色彩映射过程的输出亮度组分的采样比特深度的参数。例如,输出亮度组分的采样比特深度可以按照超过8的变化(delta)被用信号发送。例如输出亮度组分的采样比特深度可以按照超过输入亮度比特深度的变化(delta)被用信号发送。如图15所示,这一输出参数可以被称作bit_depth_output_luma_delta(比特-深度-输出-亮度-变化)。可以使用其它参数名称。
色彩映射过程可以输出用于指示色彩映射过程的输出色度组分的采样比特深度的参数。例如,输出色度组分的采样比特深度可以按照超过8的变化(delta)被用信号发送。例如输出色度组分的采样比特深度可以按照超过输入色度比特深度的变化(delta)被用信号发送。如图15所示,这一输出参数可以被称作bit_depth_output_chroma_delta(比特-深度-输出-色度-变化)。可以使用其它参数名称。
语法元素CGS_method(CGS_方法)可被包括在图15的示例语法表中,以指示所使用的CGS技术。CGS_method的示例包括增益和/或偏移、交叉组分线性、分段线性、3D LUT、定制的CGS方法等等。在CGS_method被发送之后,一个或多个对应模型参数可以被用信号发送(例如根据各个CGS技术)。图15中描述的示例语法表可以包括在序列级信令中(诸如在VPS、SPS和PPS中的一者或多者中)。图15中描述的示例语法表可以包括在图像级信令中(诸如切片报头和APS中的一者或多者)。
亮度和/或色度比特深度可以从VPS或SPS中的语法元素中导出。例如在图8和图9的示例两层可分级视频编码器和解码器中,分别地,BL比特深度(例如等价于组合处理模块的输入比特深度)和EL比特深度(例如等价于组合处理模块的输出比特深度)可以例如从诸如SPS中的bit_depth_luma/chroma_minus8(bit_深度_亮度/色度_最小8)之类的语法元素中获取。色域转换参数可以在PPS中发送。参数集(例如VPS、SPS和PPS)可以被独立解析和解码。使用图15中描述的示例语法表用信号发送比特深度值可以简化对用于组合的色域转换和反向色调映射过程的参数模型的解析和解码。
图15中描述的示例信令可以作为针对第一组合层间处理模块的过程定义,例如,该第一组合层间处理模块对应于在图14中的示例实现中所描述的组合的反向色调映射处理和色域转换处理模块。第一组合层间处理模块可以以图14中描述的示例实现的形式的用在固定配置中。第一组合层间处理模块可以包括可用在级联处理配置(例如图10中所描述的)中的一个层间处理模块。第一组合层间处理模块的选择和应用可以例如使用图11和12的示例语法表被用信号发送。合适的process_index(过程_索引)可以被添加到图12的示例语法表中,以指示第一组合层间处理模块的应用。
组合层间处理模块(例如在图13的示例实现中描述的组合的反向色调映射处理和上采样处理模块)可以被定义。针对该组合层间处理模块的合适的过程定义可以被定义。例如,该过程定义可以定义用于空间可分级性上采样的上采样滤波器的形式、大小、形状或系数中的一者或多者,并且可以进一步定义一个或多个输入比特深度和/或一个或多个输出比特深度。合适的process_index可以被添加到图12的示例语法表中以指示第二组合层间处理模块的应用。第二组合层间处理模块可以是可用在级联处理配置(例如图10中描述)中的另一层间处理模块。
可以例如使用图11和12中的示例语法表中定义的信令框架来定义任意数量的组合层间处理模块和/或将其合并到图10描述的级联框架中。
图16描述了示例语法表,所述示例语法表说明了对过程索引的定义。如图所示,过程索引可对应于组合的反向色调映射和色域转换。例如,process_index=3对应于第一组合层间处理模块。如图所示,过程索引可以对应于组合的反向色调映射和上采样。例如,process_index=4可以对应于第二组合层间处理模块。
比特深度可以被考虑用于色域转换模块。色域转换过程可以将来自一个色彩空间的信号转换到另一色彩空间。交叉色彩组分关系可以被应用于色域转换功能。例如,在基于3D LUT的色域转换中,诸如在HEVC的可分级扩展的最终版本中采用的色域转换过程,3D色彩空间可以被划分成多个八分圆(octants)。在一个或多个八分圆中,交叉色彩组分线性模型可按照诸如以下方法被应用:
outputSampleX=((LutX[yIdx][uIdx][vIdx][0]*inputSampleY+LutX[yIdx][uIdx][vIdx][1]*inputSampleU+LutX[yIdx][uIdx][vIdx][2]*inputSampleV+nMappingOffset)>>nMappingShift)+LutX[yIdx][uIdx][vIdx][3] (1)
参数outputSampleX可指示在色域转换之后色彩组分X(例如X可以是Y,U或V)的输出采样值。参数LutX[yIdx][uIdx][vIdx][i]可指示针对由色域组分X的(yIdx,uIdx,vIdx)规定的八分圆的第i个LUT参数,其中0<=i<=3。参数nMappingShift和nMappingOffset可以在色域转换期间控制定点操作的精度,以及参数inputSampleY,inputSampleU和inputSampleV可以包括在色域转换之前色彩组分Y、U和V各自的输入值。
在实施方式中,亮度和色度采样各自的比特深度值可以是不同的。这些比特深度值可以例如通过图15中的bit_depth_input_luma_minus8和bit_depth_input_chroma_delta来规定。可以例如通过诸如VPS、SPS和/或PPS之类的参数集来规定比特深度值。输入亮度比特深度可以被表示为InputLumaBitDepth,输入色度比特深度可以被表示为InputChromaBitDepth。可以导出输入亮度比特深度和输入色度比特深度。例如,可以基于图15描述的信令得到输入亮度比特深度和输入色度比特深度。输入亮度比特深度和输入色度比特深度可以根据下式导出:
InputLumaBitDepth=bit_depth_input_luma_minus8+8 (1a)
InputChromaBitDepth=InputLumaBitDepth+
bit_depth_input_chroma_delta (1b)
诸如H.264/AVC和HEVC的视频标准允许亮度和色度组分各自的比特深度不同。当交叉色彩组分模型被使用时,在应用交叉色彩组分线性模型时各个色彩组分的比特被对齐(align)。例如,各个色彩组分的比特深度可以在应用等式(1)时被对齐。根据示例色域转换过程,在应用交叉色彩组分模型(诸如等式(1))之前,亮度和/或色度采样比特深度可以与亮度和/或色度各自的较大比特深度值对齐,表示为MaxBitDepth=max(InputLumaBitDepth,InputChromaBitDepth)。例如,DeltaMaxLumaBitDepth和DeltaMaxChromaBitDepth可以按下式被定义:
DeltaMaxLumaBitDepth=MaxBitDepth-InputLumaBitDepth
DeltaMaxChromaBitDepth=MaxBitDepth-InputChromaBitDepth
交叉色彩组分线性模型可以按下式被应用:
outputSampleX=((LutX[yIdx][uIdx][vIdx][0]*
(inputSampleY<<DeltaMaxLumaBitDepth)
+LutX[yIdx][uIdx][vIdx][1]*(inputSampleU<<DeltaMaxChromaBitDepth)
+LutX[yIdx][uIdx][vIdx][2]*(inputSampleV<<DeltaMaxChromaBitDepth)
+nMappingOffset)>>nMappingShift)+LutX[yIdx][uIdx][vIdx][3](2)
在色域转换过程期间,亮度和/或色度比特深度可以与亮度和/或色度的各自的较小比特深度对齐(align),表示为MinBitDepth=min(InputLumaBitDepth,InputChromaBitDepth)。例如,DeltaMinLumaBitDepth和DeltaMinChromaBitDepth可以按以下被定义:
DeltaMinLumaBitDepth=InputLumaBitDepth-MinBitDepth
DeltaMinChromaBitDepth=InputChromaBitDepth–MinBitDepth.
交叉色彩组分线性模型可以按下式被应用:
outputSampleX=((LutX[yIdx][uIdx][vIdx][0]*(inputSampleY>>DeltaMinLumaBitDepth)+LutX[yIdx][uIdx][vIdx][1]*(inputSampleU>>DeltaMinChromaBitDepth)+LutX[yIdx][uIdx][vIdx][2]*(inputSampleV>>DeltaMinChromaBitDepth)+nMappingOffset)>>nMappingShift)+LutX[yIdx][uIdx][vIdx][3] (3)
交叉色彩组分线性模型可以被应用,由此色彩映射中的一个或多个乘法操作的复杂度可以被降低。等式(3)中的第二项乘法操作的比特深度可以更小。这减小了使用例如ASIC设计的实现的复杂度。
应当理解的是,以上描述的考虑亮度和色度比特深度之间的可能差别的示例过程不限于在基于3D LUT色域转换功能中实施,以上描述的示例过程可以在使用交叉色彩组分模型的任何色域转换和/或色调映射功能中实施。
nMappingShift和/或nMappingOffset的各个值可以在色域转换期间控制定点操作的精度。例如nMappingShift和nMappingOffset的值可以按下式计算:
nMappingShift=10+InputBitDepthX-OutputBitDepthX (4)
nMappingOffset=1<<(nMappingShift-1) (5)
其中InputBitDepthX和OutputBitDepthX可分别包括色彩转换过程的色彩组分X(例如X可以是Y、U或V)的输入和输出比特深度。
可以例如使用等式(1a)和(1b)导出针对亮度和色度的InputBitDepthX的各个值。可以例如使用以下等式导出针对亮度和色度的OutputBitDepthX的各个值:
OutputLumaBitDepth=bit_depth_output_luma_minus8+8 (6)
OutputChromaBitDepth=OutputLumaBitDepth+
bit_depth_input_chroma_delta (7)
在一种实施方式中,色彩转换过程中色彩组分的输出比特深度大于或等于该色彩组分的输入比特深度。可以执行从BL中的较低质量到EL中的较高质量的色彩转换过程,由此值(InputBitDepthX–OutputBitDepthX)可以为负。随着输入和输出比特深度间的差增大,值nMappingShift可变小。这可相应地降低定点计算的精度。
当针对亮度组分的输入和输出之间的比特深度变化值(InputBitDepthY–OutputBitDepthY)不同于针对色度组分的输入和输出之间的比特深度变化值(InputBitDepthC–OutputBitDepthC)时,技术可以被用于计算针对亮度和/或色度的nMappingShift和/或nMappingOffset。例如,nMappingShift可以使用(InputBitDepthY–OutputBitDepthY)来计算,并且可以被应用到亮度和色度中的一者或两者。或者nMappingShift可以使用(InputBitDepthC–OutputBitDepthC)来计算,并且可以应用到亮度和色度中的一者或两者。在另一示例中,nMappingShift和/或nMappingOffset可以使用下式来计算:
nMappingShift=10+min(InputBitDepthY–OutputBitDepthY,
InputBitDepthC–OutputBitDepthC)(8)
nMappingOffset=1<<(nMappingShift-1) (9)
这些值可以被应用到色彩转换过程中的亮度和色度组分中的一者或两者。例如,这些值可以用于等式(2)和/或等式(3)中的nMappingShift和nMappingOffset(诸如针对{Y,U,V}中的每个色彩组分X)。
以上描述的过程可以保留较高精度量。例如,这可以使得色域转换过程具有高(例如,最大)定点精度。
可以根据无线通信系统(诸如图17A-17E中描述的示例无线通信系统100及其组件)中的视频传输来实现此处描述的视频编码技术(诸如利用组合可分级性处理)。
图17A为可以在其中实施一个或者多个所公开实施方式的示例通信系统100的图例。通信系统100可以是将诸如语音、数据、视频、消息、广播等之类的内容提供给多个无线用户的多接入系统。通信系统100可以通过系统资源(包括无线带宽)的共享使得多个无线用户能够访问这些内容。例如,通信系统100可以使用一个或多个信道接入方法,例如码分多址(CDMA)、时分多址(TDMA)、频分多址(FDMA)、正交FDMA(OFDMA)、单载波FDMA(SC-FDMA)等等。
如图17A所示,通信系统100可以包括至少一个无线发射/接收单元(WTRU)(诸如多个WTRU,例如WTRU 102a,102b,102c和102d)、无线电接入网络(RAN)104、核心网络106、公共交换电话网(PSTN)108、因特网110和其他网络112,但可以理解的是所公开的实施方式涵盖任意数量的WTRU、基站、网络和/或网络元件。WTRU 102a,102b,102c,102d中的每一个可以是被配置成在无线通信中操作和/或通信的任何类型的装置。作为示例,WTRU 102a,102b,102c,102d可以被配置成发送和/或接收无线信号,并且可以包括用户设备(UE)、移动站、固定或移动用户单元、寻呼机、蜂窝电话、个人数字助理(PDA)、智能电话、便携式计算机、上网本、个人计算机、无线传感器、消费电子产品等等。
通信系统100还可以包括基站114a和基站114b。基站114a、114b中的每一个可以是被配置成与WTRU 102a,102b,102c,102d中的至少一者无线交互,以便于接入一个或多个通信网络(例如核心网络106、因特网110和/或网络112)的任何类型的装置。例如,基站114a、114b可以是基站收发信站(BTS)、节点B、e节点B、家用节点B、家用e节点B、站点控制器、接入点(AP)、无线路由器以及类似装置。尽管基站114a、114b每个均被描述为单个元件,但是可以理解的是基站114a,114b可以包括任何数量的互联基站和/或网络元件。
基站114a可以是RAN 104的一部分,该RAN 104还可以包括诸如站点控制器(BSC)、无线电网络控制器(RNC)、中继节点之类的其他基站和/或网络元件(未示出)。基站114a和/或基站114b可以被配置成发送和/或接收特定地理区域内的无线信号,该特定地理区域可以被称作小区(未示出)。小区还可以被划分成小区扇区。例如与基站114a相关联的小区可以被划分成三个扇区。因此,在一种实施方式中,基站114a可以包括三个收发信机,即针对所述小区的每个扇区都有一个收发信机。在另一实施方式中,基站114a可以使用多输入多输出(MIMO)技术,并且由此可以使用针对小区的每个扇区的多个收发信机。
基站114a、114b可以通过空中接口116与WTRU 102a,102b,102c,102d中的一者或多者通信,该空中接口116可以是任何合适的无线通信链路(例如射频(RF)、微波、红外(IR)、紫外(UV)、可见光等)。可以使用任何合适的无线电接入技术(RAT)来建立空中接口116。
更为具体地,如前所述,通信系统100可以是多接入系统,并且可以使用一个或多个信道接入方案(诸如CDMA、TDMA、FDMA、OFDMA、SC-FDMA以及类似的方案)。例如,在RAN 104中的基站114a和WTRU 102a,102b,102c可以实施诸如通用移动电信系统(UMTS)陆地无线电接入(UTRA)之类的无线电技术,其可以使用宽带CDMA(WCDMA)来建立空中接口116。WCDMA可以包括诸如高速分组接入(HSPA)和/或演进型HSPA(HSPA+)。HSPA可以包括高速下行链路分组接入(HSDPA)和/或高速上行链路分组接入(HSUPA)。
在另一实施方式中,基站114a和WTRU 102a,102b,102c可以实施诸如演进型UMTS陆地无线电接入(E-UTRA)之类的无线电技术,其可以使用长期演进(LTE)和/或高级LTE(LTE-A)来建立空中接口116。
在其它实施方式中,基站114a和WTRU 102a,102b,102c可以实施诸如IEEE 802.16(即全球微波互联接入(WiMAX))、CDMA2000、CDMA20001x、CDMA2000 EV-DO、临时标准2000(IS-2000)、临时标准95(IS-95)、临时标准856(IS-856)、全球移动通信系统(GSM)、增强型数据速率GSM演进(EDGE)、GSM EDGE(GERAN)之类的无线电技术。
举例来讲,图17A中的基站114b可以是无线路由器、家用节点B、家用e节点B或者接入点,并且可以使用任何合适的RAT,以用于促进在诸如公司、家庭、车辆、校园之类的局部区域的无线连接。在一种实施方式中,基站114b和WTRU 102c、102d可以实施诸如IEEE802.11之类的无线电技术以建立无线局域网络(WLAN)。在另一实施方式中,基站114b和WTRU102c,102d可以实施诸如IEEE 802.15之类的无线电技术以建立无线个人局域网络(WPAN)。在又一种实施方式中,基站114b和WTRU 102c,102d可以使用基于蜂窝的RAT(例如WCDMA、CDMA2000、GSM、LTE、LTE-A等)以建立超微型(picocell)小区或毫微微小区(femtocell)。如图17A所示,基站114b可以具有至因特网110的直接连接。因此,基站114b不必经由核心网络106来接入因特网110。
RAN 104可以与核心网络106通信,该核心网络可以是被配置成将语音、数据、应用程序和/或网际协议上的语音(VoIP)服务提供到WTRU 102a、102b、102c、102d中的一者或多者的任何类型的网络。例如,核心网络106可以提供呼叫控制、账单服务、基于移动位置的服务、预付费呼叫、网际互联、视频分配等,和/或执行诸如用户验证的高级安全性功能。尽管图17A中未示出,应该理解的是RAN 104和/或核心网络106可以直接或间接地与其他RAN进行通信,这些其他RAT可以使用与RAN 104相同的RAT或者不同的RAT。例如,除了连接到可以采用E-UTRA无线电技术的RAN 104,核心网络106也可以与使用GSM无线电技术的另一RAN(未显示)通信。
核心网络106也可以用作WTRU 102a,102b,102c,102d接入PSTN 108、因特网110和/或其他网络112的网关。PSTN 108可以包括提供普通老式电话服务(POTS)的电路交换电话网络。因特网110可以包括互联计算机网络的全球系统以及使用公共通信协议的装置,所述公共通信协议例如传输控制协议(TCP)/网际协议(IP)因特网协议套件的中的TCP、用户数据报协议(UDP)和IP。网络112可以包括由其他服务提供方拥有和/或操作的无线或有线通信网络。例如,网络112可以包括连接到一个或多个RAN的另一核心网络,这些RAN可以使用与RAN 104相同的RAT或者不同的RAT。
通信系统100中的WTRU 102a、102b、102c、102d中的一些或者全部可以包括多模式能力,即WTRU 102a、102b、102c、102d可以包括用于通过多个通信链路与不同的无线网络进行通信的多个收发信机。例如,图17A中显示的WTRU 102c可以被配置成与使用基于蜂窝的无线电技术的基站114a进行通信,并且与使用IEEE 802无线电技术的基站114b进行通信。
图17B为示例WTRU 102的系统框图。如图17B所示,WTRU 102可以包括处理器118、收发信机120、发射/接收元件122、扬声器/麦克风124、键盘126、显示屏/触摸板128、不可移除存储器130、可移除存储器132、电源134、全球定位系统芯片组136和其他外围设备138。应该理解的是,在保持与实施方式一致的同时,WTRU 102可以包括上述元件的任何子集。
处理器118可以是通用目的处理器、专用目的处理器、常规处理器、数字信号处理器(DSP)、多个微处理器、与DSP核心相关联的一个或多个微处理器、控制器、微控制器、专用集成电路(ASIC)、现场可编程门阵列(FPGA)电路、其他任何类型的集成电路(IC)、状态机等。处理器118可以执行信号编码、数据处理、功率控制、输入/输出处理和/或使得WTRU 102能够操作在无线环境中的其他任何功能。处理器118可以耦合到收发信机120,该收发信机120可以耦合到发射/接收元件122。尽管图17B中将处理器118和收发信机120描述为独立的组件,应该理解的是处理器118和收发信机120可以被一起集成到电子封装或者芯片中。
发射/接收元件122可以被配置成通过空中接口116将信号发送到基站(例如基站114a),或者从基站(例如基站114a)接收信号。例如,在一种实施方式中,发射/接收元件122可以是被配置成发送和/或接收RF信号的天线。在另一实施方式中,发射/接收元件122可以是被配置成发送和/或接收例如IR、UV或者可见光信号的发射器/检测器。在又一实施方式中,发射/接收元件122可以被配置成发送和接收RF信号和光信号两者。应该理解的是发射/接收元件122可以被配置成发送和/或接收无线信号的任意组合。
此外,尽管发射/接收元件122在图17B中被描述为单个元件,但是WTRU 102可以包括任何数量的发射/接收元件122。更特别地,WTRU 102可以使用MIMO技术。因此,在一种实施方式中,WTRU 102可以包括两个或更多个发射/接收元件122(例如多个天线)以用于通过空中接口116发射和接收无线信号。
收发信机120可以被配置成对将由发射/接收元件122传送的信号进行调制,并且被配置成对由发射/接收元件122接收的信号进行解调。如以上所述,WTRU 102可以具有多模式能力。因此,收发信机120可以包括多个收发信机以用于使得WTRU 102能够经由多个RAT进行通信(诸如UTRA和IEEE 802.11)。
WTRU 102的处理器118可以被耦合到扬声器/麦克风124、键盘126和/或显示屏/触摸板128(例如,液晶显示(LCD)单元或者有机发光二极管(OLED)显示单元),并且可以从上述装置接收用户输入数据。处理器118还可以向扬声器/麦克风124、键盘126和/或显示屏/触摸板128输出数据。此外,处理器118可以访问来自任何类型的合适的存储器中的信息,以及向任何类型的合适的存储器中存储数据,所述存储器例如可以是不可移除存储器130和/或可移除存储器132。不可移除存储器130可以包括随机接入存储器(RAM)、可读存储器(ROM)、硬盘或者任何其他类型的存储器存储装置。可移除存储器132可以包括用户标识模块(SIM)卡、记忆棒、安全数字(SD)存储卡等类似装置。在其它实施方式中,处理器118可以访问来自物理上未位于WTRU 102上而位于诸如服务器或者家用计算机(未示出)上的存储器的数据,以及向上述存储器中存储数据。
处理器118可以从电源134接收功率,并且可以被配置成将功率分配给WTRU 102中的其他组件和/或对至WTRU 102中的其他组件的功率进行控制。电源134可以是任何适用于给WTRU 102供电的装置。例如,电源134可以包括一个或多个干电池(镍镉(NiCd)、镍锌(NiZn)、镍氢(NiMH)、锂离子(Li-ion)等)、太阳能电池、燃料电池等。
处理器118还可以耦合到GPS芯片组136,该GPS芯片组136可以被配置成提供关于WTRU 102的当前位置的位置信息(例如经度和纬度)。作为来自GPS芯片组136的信息的补充或者替代,WTRU 102可以通过空中接口116从基站(例如基站114a、114b)接收位置信息,和/或基于从两个或更多个相邻基站接收到的信号的定时来确定其位置。应该理解的是,在保持与实施方式一致的同时,WTRU 102可以通过任何合适的位置确定方法来获取位置信息。
处理器118还可以耦合到其他外围设备138,该外围设备138可以包括提供附加特征、功能和/或无线或有线连接的一个或多个软件和/或硬件模块。例如,外围设备138可以包括加速器、电子指南针(e-compass)、卫星收发信机、数码相机(用于照片或者视频)、通用串行总线(USB)端口、震动装置、电视收发信机、免持耳机、模块、调频(FM)无线电单元、数字音乐播放器、媒体播放器、视频游戏播放器模块、因特网浏览器等等。
图17C为包括RAN 104a和核心网络106a的通信系统100的实施方式的系统图,RAN104a和核心网络106a分别包括RAN 104和核心网络106的示例实施方式。如以上所述,RAN104(例如RAN104a)可以利用UTRA无线电技术通过空中接口116与WTRU 102a、102b、102c通信。RAN 104a还可以与核心网络106a通信。如图17C所示,RAN 104a可以包含节点B140a,140b,140c,其中节点B140a,140b,140c每个可以包含一个或多个收发信机,该收发信机通过空中接口116来与WTRU 102a、102b、102c通信。节点B140a、140b、140c中的每个可以与RAN104a范围内的特定小区(未示出)相关联。RAN 104a还可以包括RNC 142a,142b。应该理解的是RAN 104a可以包含任意数量的节点B和RNC,同时仍然与实施方式保持一致。
如图17C所示,节点B140a、140b可以与RNC 142a进行通信。此外,节点B140c可以与RNC 142b进行通信。节点B140a、140b、140c可以通过Iub接口与对应的RNC 142a、142b进行通信。RNC 142a、142b可以通过Iur接口相互进行通信。RNC 142a、142b中的每一者可以被配置成控制与其连接的对应的节点B140a、140b、140c。此外,RNC 142a、142b中的每一者可以分别被配置成实施或者支持其它功能(诸如外环功率控制、负载控制、准许控制、分组调度、切换控制、宏分集、安全性功能、数据加密等等)。
图17C中所示的核心网络106a可以包括媒体网关(MGW)144、移动交换中心(MSC)146、服务GPRS支持节点(SGSN)148,和/或网关GPRS支持节点(GGSN)150。尽管上述元素中的每个被描述为核心网络106a的一部分,但是应该理解的是这些元素中的任何一个可以被除了核心网络运营商以外的实体拥有和/或运营。
RAN 104a中的RNC 142a可以通过IuCS接口被连接至核心网络106a中的MSC 146。MSC 146可以被连接至MGW 144。MSC 146和MGW 144可以向WTRU 102a、102b、102c提供至电路交换网络(例如PSTN 108)的接入,从而便于WTRU 102a、102b、102c与传统陆线通信设备之间的通信。
RAN 104a中的RNC 142a还可以通过IuPS接口被连接至核心网络106a中的SGSN148。SGSN 148可以被连接至GGSN 150中。SGSN 148和GGSN 150可以向WTRU 102a、102b、102c提供至分组交换网络(例如因特网110)的接入,从而便于WTRU 102a、102b,102c与IP使能设备之间的通信。
如以上所述,核心网络106a还可以连接至其它网络112,其中所述其它网络112可以包含被其他服务提供商拥有和/或运营的其他有线或无线网络。
图17D为包括RAN 104b和核心网络106b的通信系统100的实施方式的系统图,RAN104b和核心网络106b分别包括RAN 104和核心网络106的示例实施方式。如上所述,RAN 104(诸如RAN 104b)可以使用E-UTRA无线电技术通过空中接口116与WTRU 102a、102b和102c进行通信。RAN104b还可以与核心网络106b进行通信。
RAN 104b可以包括e节点B170a、170b、170c、应该理解的是RAN 104b可以包含任意数量的e节点B同时仍然与实施方式保持一致。e节点B170a、170b、170c每个可以包含一个或多个收发信机,该收发信机通过空中接口116来与WTRU 102a、102b、102c通信。在一种实施方式中,e节点B170a、170b、170c可以使用MIMO技术。由此,例如e节点B170a可以使用多个天线来传送无线信号至WTRU 102a并且从WTRU 102a中接收无线信息。
e节点B170a、170b、170c中的每个可以与特定小区(未示出)相关联并且可以被配置成处理在上行链路和/或下行链路中的用户调度、无线电资源管理决策、切换决策等。如图17D中所示,e节点B170a、170b、170c可以通过X2接口彼此进行通信。
图17D中所示的核心网络106b可以包括移动性管理网关(MME)172、服务网关174和分组数据网络(PDN)网关176。尽管上述元素中的每个被描述为核心网络106b的一部分,但是应该理解的是这些元素中的任何一个可以被除了核心网络运营商以外的实体拥有和/或运营。
MME 172可以通过S1接口连接到RAN 104b中的e节点B170a,170b,170c中的每个并且可以作为控制节点。例如,MME 172可以负责认证WTRU 102a、102b、102c的用户、承载者激活/去激活、在WTRU 102a、102b、102c的初始附着期间选择特定服务网关等等。MME 172也可以为RAN 104b与使用其他无线电技术(例如GSM或WCDMA)的RAN(未示出)之间的切换提供控制平面功能。
服务网关174可以通过S1接口被连接到RAN 104b中的e节点B170a,170b,170c的每个。服务网关174通常可以路由和转发用户数据分组至WTRU 102a、102b、102c,或者路由和转发来自WTRU 102a、102b、102c的用户数据分组。服务网关174也可以执行其他功能,例如在e节点B间切换期间锚定用户平面、当下行链路数据可用于WTRU 102a、102b、102c时触发寻呼、管理和存储WTRU 102a、102b、102c的上下文等等。
服务网关174也可以被连接到PDN网关176,该网关176可以向WTRU 102a、102b、102c提供至分组交换网络(例如因特网110)的接入,从而便于WTRU 102a、102b、102c与IP使能设备之间的通信。
核心网络106b可以促进与其他网络之间的通信。例如,核心网络106b可以向WTRU102a、102b、102c提供至电路交换网络(例如PSTN 108)的接入,从而促进WTRU 102a、102b、102c与传统陆线通信设备之间的通信。例如,核心网络106b可以包括,或可以与下者通信:作为核心网络106b和PSTN 108之间接口的IP网关(例如,IP多媒体子系统(IMS)服务器)。另外,核心网络106b可以向提供WTRU 102a、102b、102c至网络112的接入,该网络112可以包含由其他服务提供商拥有和/或运营的其他有线或无线网络。
图17E为包括RAN 104c和核心网络106c的通信系统100的实施方式的系统图,RAN104c和核心网络106c分别包括RAN 104和核心网络106的示例实施方式。RAN 104(例如RAN104c)可以为使用IEEE 802.16无线电技术通过空中接口116与WTRU 102a、102b、102c进行通信的接入服务网络(ASN)。如此处所描述,WTRU 102a、102b、102c、RAN 104c和核心网络106c中的不同功能实体之间的通信链路可以被定义为参考点。
如图17E所示,RAN 104c可以包括基站180a、180b、180c和ASN网关182,应该理解的是RAN 104c可以包含任意数量的基站和ASN网关同时仍然与实施方式保持一致。基站180a、180b、180c中的每一者可分别与RAN 104c中的特定小区(未示出)相关联,并且可以分别包括一个或多个收发信机,该收发信机通过空中接口116来与WTRU 102a、102b、102c通信。在一种实施方式中,基站180a、180b、180c可以使用MIMO技术。由此,例如基站180a可以使用多个天线来传送无线信号至WTRU 102a并且从WTRU 102a中接收无线信息。基站180a、180b、180c还可以提供移动性管理功能(诸如切换触发、隧道建立、无线电资源管理、业务分类、服务质量(QoS)策略执行等等)。ASN网关182可以作为业务汇聚点且可以负责寻呼、用户配置文件的缓存以及到核心网络106c的路由,等等。
WTRU 102a、102b、102c与RAN 104c之间的空中接口116可以被定义为执行IEEE802.16规范的R1参考点。另外,WTRU 102a、102b、102c中的每个可以建立与核心网络106c的逻辑接口(未示出)。WTRU 102a、102b、102c与核心网络106c间的逻辑接口可以被定义为R2参考点,可以被用来认证、授权、IP主机配置管理和/或移动性管理。
基站180a、180b、180c中的每个之间的通信链路可以被定义为R8参考点,R8参考点包括用于促进WTRU在基站之间的数据传输和切换的协议。基站180a、180b、180c和ASN网关182之间的通信链路可以被定义为R6参考点。R6参考点可以包括用于促进基于与每个WTRU102a、102b、102c相关联的移动性事件的移动管理的协议。
例如,如图17E所示,RAN 104c可以被连接到核心网络106c。RAN 104c和核心网络106c之间的通信链路可以被定义为R3参考点,R3参考点包括用于促进数据传输和移动性管理能力的协议。核心网络106c可以包括移动IP本地代理(MIP-HA)184、认证、授权、计费(AAA)服务器186和网关188。尽管每个上述元素被描述为核心网络106c的一部分,但是应该理解的是这些元素中的任意一个可以被除了核心网络运营商以外的实体拥有和/或运营。
MIP-HA 184可以负责IP地址管理,且可以使得WTRU 102a、102b、102c在不同的ASN和/或不同的核心网络之间漫游。MIP-HA 184可以向WTRU 102a、102b、102c提供至分组交换网络(例如因特网110)的接入,从而促进WTRU 102a、102b、102c和IP使能设备之间的通信。AAA服务器186可以负责用户认证和支持用户服务。网关188可以促进与其他网络之间的交互工作。例如,网关188可以向WTRU 102a、102b、102c提供至电路交换网络(例如PSTN 108)的接入,从而促进WTRU 102a、102b、102c与传统陆线通信设备之间的通信。另外,网关188可以向WTRU 102a、102b、102c提供至网络112的接入,该网络112可以包含被其他服务提供商拥有和/或运营的其他有线或无线网络。
虽然在图17E中未示出,但应该理解的是RAN 104c可以被连接到其他ASN且核心网络106c可以被连接到其他核心网络。RAN 104c和其他ASN之间的通信链路可以被定义为R4参考点,该R4参考点可以包括用于协调RAN 104c和其他ASN之间的WTRU 102a、102b、102c的移动性的协议。核心网络106c和其他核心网络之间的通信链路可以被定义为R5参考点,该R5参考点可以包括用于促进本地核心网络和受访核心网络之间的交互工作的协议。
虽然本发明的特征和元素以特定的结合在以上进行了描述,但本领域普通技术人员可以理解的是,每个特征或元素可以单独使用,或在与任何其它特征和元素结合使用。此外,以上描述的方法可以在由计算机或处理器执行的计算机程序、软件和/或固件中实施,其中所述计算机程序、软件或/或固件被包含在由计算机或处理器执行的计算机可读存储介质中。计算机可读存储介质的实例包括但不限于电子信号(通过有线和/或无线连接而传送)和计算机可读存储介质。关于计算机可读存储介质的实例包括但不局限于只读存储器(ROM)、随机存取存储器(RAM)、寄存器、缓冲存储器、半导体存储设备、磁介质(例如内部硬盘或可移动磁盘)、磁光介质和诸如CD-ROM盘和数字多功能盘(DVD)之类的光介质。与软件有关的处理器可以被用于实施在WTRU、终端、基站、RNC或任何主计算机中使用的无线电频率收发信机。本文描述的根据一个或多个示例实施方式的特征和/或元素可以结合本文描述的根据一个或多个其它示例实施方式的特征和/或元素一起使用。

Claims (22)

1.一种对视频信号进行编码的方法,该方法包括:
接收包含基础层BL和增强层EL的所述视频信号;
从所述BL重构BL图像;
在所述BL图像的亮度组分和所述BL图像的色度组分上执行比特深度对齐,以使得所述亮度和色度组分具有相同对齐的比特深度;以及
对所述BL图像的所述比特深度对齐的亮度和色度组分,执行色彩映射。
2.根据权利要求1所述的方法,其中执行比特深度对齐进一步包括:
将所述亮度组分的第一比特深度对齐至所述色度组分的第二比特深度。
3.根据权利要求1所述的方法,其中执行比特深度对齐进一步包括:
将所述色度组分的第一比特深度对齐至所述亮度组分的第二比特深度。
4.根据权利要求1所述的方法,其中执行比特深度对齐进一步包括:
基于所述亮度组分的第一比特深度以及所述色度组分的第二比特深度,确定最大色彩组分比特深度;以及
将所述色度组分的所述第一比特深度以及所述亮度组分的所述第二比特深度对齐至所述最大色彩组分比特深度。
5.根据权利要求4所述的方法,其中所述最大色彩组分比特深度是以下两者中的较大者:所述亮度组分的所述第一比特深度以及所述色度组分的所述第二比特深度。
6.根据权利要求1所述的方法,其中执行比特深度对齐进一步包括:
基于所述亮度组分的第一比特深度以及所述色度组分的第二比特深度,确定最小色彩组分比特深度;以及
将所述色度组分的所述第一比特深度以及所述亮度组分的所述第二比特深度对齐至所述最小色彩组分比特深度。
7.根据权利要求6所述的方法,其中所述最小色彩组分比特深度是以下两者中的较小者:所述亮度组分的所述第一比特深度以及所述色度组分的所述第二比特深度。
8.根据权利要求1所述的方法,其中对所述BL图像的所述比特深度对齐的亮度和色度组分执行色彩映射包括:
将交叉色彩组分模型应用至所述对齐的亮度及色度组分,以生产层间参考图像,其中该层间参考图像用于从所述视频信号的所述EL来预测至少一个EL图像。
9.根据权利要求1所述的方法,其中执行比特深度对齐进一步包括:
基于所述亮度组分的第一比特深度以及所述色度组分的第二比特深度,确定亮度变化比特深度;以及
将所述亮度组分的亮度采样值偏移所确定的亮度变化比特深度。
10.根据权利要求1所述的方法,其中执行比特深度对齐进一步包括:
确定所述亮度组分的第一比特深度以及所述色度组分的第二比特深度之间的比特深度差异;以及
将具有较低比特深度的所述色彩组分的采样值升级到匹配具有较高比特深度的所述色彩组分的所述比特深度。
11.一种视频编码设备,该设备包括:
处理器,被配置为:
接收包含基础层BL和增强层EL的所述视频信号;
从所述BL重构BL图像;
在所述BL图像的亮度组分和所述BL图像的色度组分上执行比特深度对齐,以使得所述亮度和色度组分具有相同对齐的比特深度;以及
对所述BL图像的所述比特深度对齐的亮度和色度组分,执行色彩映射。
12.根据权利要求11所述的视频编码设备,其中所述处理器被配置为通过以下执行比特深度对齐:
将所述亮度组分的第一比特深度对齐至所述色度组分的第二比特深度。
13.根据权利要求11所述的视频编码设备,其中所述处理器被配置为通过以下执行比特深度对齐:
将所述色度组分的第一比特深度对齐至所述亮度组分的第二比特深度。
14.根据权利要求11所述的视频编码设备,其中所述处理器被配置为通过以下执行比特深度对齐:
基于所述亮度组分的第一比特深度以及所述色度组分的第二比特深度,确定最大色彩组分比特深度;以及
将所述色度组分的所述第一比特深度以及所述亮度组分的所述第二比特深度对齐至所述最大色彩组分比特深度。
15.根据权利要求14所述的视频编码设备,其中所述最大色彩组分比特深度是以下两者中的较大者:所述亮度组分的所述第一比特深度以及所述色度组分的所述第二比特深度。
16.根据权利要求11所述的视频编码设备,其中所述处理器被配置为通过以下执行比特深度对齐:
基于所述亮度组分的第一比特深度以及所述色度组分的第二比特深度,确定最小色彩组分比特深度;以及
将所述色度组分的所述第一比特深度以及所述亮度组分的所述第二比特深度对齐至所述最小色彩组分比特深度。
17.根据权利要求16所述的视频编码设备,其中所述最小色彩组分比特深度是以下两者中的较小者:所述亮度组分的所述第一比特深度以及所述色度组分的所述第二比特深度。
18.根据权利要求11所述的视频编码设备,其中所述处理器被配置为通过以下对所述BL图像的所述比特深度对齐的亮度和色度组分执行色彩映射:
将交叉色彩组分模型应用至所述对齐的亮度及色度组分,以生产层间参考图像,其中该层间参考图像用于从所述视频信号的所述EL来预测至少一个EL图像。
19.根据权利要求11所述的视频编码设备,其中所述处理器被配置为通过以下执行比特深度对齐:
基于所述亮度组分的第一比特深度以及所述色度组分的第二比特深度,确定亮度变化比特深度;以及
将所述亮度组分的亮度采样值偏移所确定的亮度变化比特深度。
20.根据权利要求11所述的视频编码设备,其中所述处理器被配置为通过以下执行比特深度对齐:
确定所述亮度组分的第一比特深度以及所述色度组分的第二比特深度之间的比特深度差异;以及
将具有较低比特深度的所述色彩组分的采样值升级到匹配具有较高比特深度的所述色彩组分的所述比特深度。
21.一种对视频信号进行编码的方法,该方法包括:
通过使用同时执行反向色调映射和色域转换可分级性过程的组合处理模块,对所述视频信号的视频信号层执行第一层间处理;以及
通过使用上采样处理模块,对所述第一层间处理的输出执行第二层间处理。
22.一种视频编码设备,该设备包括:
处理器,被配置为:
通过使用同时执行反向色调映射和色域转换可分级性过程的组合处理模块,对视频信号的视频信号层执行第一层间处理;以及
通过使用上采样处理模块,对所述第一层间处理的输出执行第二层间处理。
CN201910865427.0A 2013-10-07 2014-10-07 用于多层视频编码的组合可分级性处理 Active CN110572662B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910865427.0A CN110572662B (zh) 2013-10-07 2014-10-07 用于多层视频编码的组合可分级性处理

Applications Claiming Priority (7)

Application Number Priority Date Filing Date Title
US201361887782P 2013-10-07 2013-10-07
US61/887,782 2013-10-07
US201462045495P 2014-09-03 2014-09-03
US62/045,495 2014-09-03
CN201910865427.0A CN110572662B (zh) 2013-10-07 2014-10-07 用于多层视频编码的组合可分级性处理
PCT/US2014/059560 WO2015054307A2 (en) 2013-10-07 2014-10-07 Combined scalability processing for multi-layer video coding
CN201480055145.XA CN105874793B (zh) 2013-10-07 2014-10-07 用于多层视频编码的组合可分级性处理的方法和设备

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
CN201480055145.XA Division CN105874793B (zh) 2013-10-07 2014-10-07 用于多层视频编码的组合可分级性处理的方法和设备

Publications (2)

Publication Number Publication Date
CN110572662A true CN110572662A (zh) 2019-12-13
CN110572662B CN110572662B (zh) 2024-03-08

Family

ID=51794970

Family Applications (2)

Application Number Title Priority Date Filing Date
CN201910865427.0A Active CN110572662B (zh) 2013-10-07 2014-10-07 用于多层视频编码的组合可分级性处理
CN201480055145.XA Active CN105874793B (zh) 2013-10-07 2014-10-07 用于多层视频编码的组合可分级性处理的方法和设备

Family Applications After (1)

Application Number Title Priority Date Filing Date
CN201480055145.XA Active CN105874793B (zh) 2013-10-07 2014-10-07 用于多层视频编码的组合可分级性处理的方法和设备

Country Status (9)

Country Link
US (2) US10063886B2 (zh)
EP (2) EP3055997B1 (zh)
JP (5) JP2017501599A (zh)
KR (2) KR102127603B1 (zh)
CN (2) CN110572662B (zh)
HK (1) HK1222965A1 (zh)
RU (1) RU2658812C2 (zh)
TW (1) TWI652937B (zh)
WO (1) WO2015054307A2 (zh)

Families Citing this family (49)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017501599A (ja) * 2013-10-07 2017-01-12 ヴィド スケール インコーポレイテッド マルチレイヤビデオコーディングのコンバインドスケーラビリティ処理
US9948916B2 (en) 2013-10-14 2018-04-17 Qualcomm Incorporated Three-dimensional lookup table based color gamut scalability in multi-layer video coding
US9756337B2 (en) 2013-12-17 2017-09-05 Qualcomm Incorporated Signaling color values for 3D lookup table for color gamut scalability in multi-layer video coding
US10531105B2 (en) 2013-12-17 2020-01-07 Qualcomm Incorporated Signaling partition information for 3D lookup table for color gamut scalability in multi-layer video coding
US10368097B2 (en) * 2014-01-07 2019-07-30 Nokia Technologies Oy Apparatus, a method and a computer program product for coding and decoding chroma components of texture pictures for sample prediction of depth pictures
MX2016012130A (es) * 2014-03-19 2017-04-27 Arris Entpr Inc Codificacion escalable de secuencias de video utilizando mapeo de tonos y diferentes gamas de colores.
US10448029B2 (en) * 2014-04-17 2019-10-15 Qualcomm Incorporated Signaling bit depth values for 3D color prediction for color gamut scalability
US10469847B2 (en) * 2014-09-12 2019-11-05 Vid Scale, Inc. Inter-component de-correlation for video coding
US10135577B2 (en) * 2015-03-02 2018-11-20 Lg Electronics Inc. Scalable service in a wireless communication system
JP6565330B2 (ja) * 2015-05-26 2019-08-28 日本電気株式会社 映像処理装置、映像処理方法及び映像処理プログラム
EP3107300A1 (en) * 2015-06-15 2016-12-21 Thomson Licensing Method and device for encoding both a high-dynamic range frame and an imposed low-dynamic range frame
US10542289B2 (en) 2015-07-16 2020-01-21 Dolby Laboratories Licensing Corporation Signal reshaping and coding for HDR and wide color gamut signals
US10349067B2 (en) * 2016-02-17 2019-07-09 Qualcomm Incorporated Handling of end of bitstream NAL units in L-HEVC file format and improvements to HEVC and L-HEVC tile tracks
US10440401B2 (en) 2016-04-07 2019-10-08 Dolby Laboratories Licensing Corporation Backward-compatible HDR codecs with temporal scalability
US11102495B2 (en) * 2016-05-17 2021-08-24 Qualcomm Incorporated Methods and systems for generating and processing content color volume messages for video
GB2553556B (en) 2016-09-08 2022-06-29 V Nova Int Ltd Data processing apparatuses, methods, computer programs and computer-readable media
JP6915483B2 (ja) * 2017-09-27 2021-08-04 富士フイルムビジネスイノベーション株式会社 画像処理装置、画像処理システムおよびプログラム
US11265579B2 (en) * 2018-08-01 2022-03-01 Comcast Cable Communications, Llc Systems, methods, and apparatuses for video processing
GB2590844B (en) * 2018-08-17 2023-05-03 Beijing Bytedance Network Tech Co Ltd Simplified cross component prediction
WO2020053806A1 (en) 2018-09-12 2020-03-19 Beijing Bytedance Network Technology Co., Ltd. Size dependent down-sampling in cross component linear model
EP3861738A4 (en) 2018-11-06 2022-01-26 Beijing Bytedance Network Technology Co., Ltd. POSITION-BASED INTRA PREDICTION
CN113170122B (zh) 2018-12-01 2023-06-27 北京字节跳动网络技术有限公司 帧内预测的参数推导
AU2019391197B2 (en) 2018-12-07 2023-05-25 Beijing Bytedance Network Technology Co., Ltd. Context-based intra prediction
CN111491168A (zh) * 2019-01-29 2020-08-04 华为软件技术有限公司 视频编解码方法、解码器、编码器和相关设备
KR20210118399A (ko) 2019-02-01 2021-09-30 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 인-루프 재성형과 인터 코딩 툴들 사이의 상호작용들
WO2020156532A1 (en) * 2019-02-01 2020-08-06 Beijing Bytedance Network Technology Co., Ltd. Restrictions on in-loop reshaping
BR112021014853A2 (pt) 2019-02-22 2021-10-05 Beijing Bytedance Network Technology Co., Ltd. Método e aparelho para processar e codificar dados de vídeo, e, mídias de armazenamento e registro legíveis por computador não transitórias
AU2020226566A1 (en) 2019-02-24 2021-08-19 Beijing Bytedance Network Technology Co., Ltd. Parameter derivation for intra prediction
KR20230163584A (ko) * 2019-02-28 2023-11-30 엘지전자 주식회사 Aps 시그널링 기반 비디오 또는 영상 코딩
CN117560509A (zh) 2019-03-04 2024-02-13 北京字节跳动网络技术有限公司 视频处理中滤波信息的两级信令
CN114666597A (zh) 2019-03-11 2022-06-24 杜比实验室特许公司 帧速率可伸缩视频编码
EP3939317A1 (en) 2019-03-11 2022-01-19 Dolby Laboratories Licensing Corporation Video coding using reference picture resampling supporting region of interest
KR20230016712A (ko) * 2019-03-11 2023-02-02 엘지전자 주식회사 루마 맵핑 및 크로마 스케일링 기반 비디오 또는 영상 코딩
CN117499644A (zh) 2019-03-14 2024-02-02 北京字节跳动网络技术有限公司 环路整形信息的信令和语法
WO2020192612A1 (en) 2019-03-23 2020-10-01 Beijing Bytedance Network Technology Co., Ltd. Default in-loop reshaping parameters
CN117880494A (zh) 2019-03-24 2024-04-12 北京字节跳动网络技术有限公司 用于帧内预测的参数推导的条件
WO2020192180A1 (zh) * 2019-03-25 2020-10-01 Oppo广东移动通信有限公司 图像分量的预测方法、编码器、解码器及计算机存储介质
US20200322656A1 (en) * 2019-04-02 2020-10-08 Nbcuniversal Media, Llc Systems and methods for fast channel changing
JP2022546898A (ja) 2019-06-25 2022-11-10 エスゼット ディージェイアイ テクノロジー カンパニー リミテッド ビデオ画像処理方法、装置、および記憶媒体
JP2022543627A (ja) 2019-08-06 2022-10-13 ドルビー ラボラトリーズ ライセンシング コーポレイション 描画面サイズ拡張可能ビデオコーディング
US11272187B2 (en) 2019-08-13 2022-03-08 Tencent America LLC Method and apparatus for video coding
CN117395420A (zh) 2019-08-15 2024-01-12 字节跳动有限公司 用于调色板逸出符号的熵编解码
EP4000269A4 (en) 2019-08-15 2022-09-07 ByteDance Inc. PALLET MODE WITH DIFFERENT DIVISION STRUCTURES
US11172237B2 (en) * 2019-09-11 2021-11-09 Dolby Laboratories Licensing Corporation Inter-layer dynamic range scalability for HDR video
KR102624438B1 (ko) * 2019-09-19 2024-01-15 바이트댄스 아이엔씨 팔레트 모드에 대한 양자화 파라미터 도출
KR20220037382A (ko) 2020-09-17 2022-03-24 레몬 인크. 디코더 구성 레코드에서의 픽처 치수 표시
US20220279185A1 (en) * 2021-02-26 2022-09-01 Lemon Inc. Methods of coding images/videos with alpha channels
US20230047271A1 (en) * 2021-08-02 2023-02-16 Mediatek Singapore Pte. Ltd. Color Component Processing In Down-Sample Video Coding
KR20230105042A (ko) 2022-01-03 2023-07-11 엘지전자 주식회사 디스플레이 장치

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004064629A (ja) * 2002-07-31 2004-02-26 Canon Inc 画像処理装置およびその方法
US20050259729A1 (en) * 2004-05-21 2005-11-24 Shijun Sun Video coding with quality scalability
WO2006047448A2 (en) * 2004-10-21 2006-05-04 Sony Electonics, Inc. Supporting fidelity range extensions in advanced video codec file format
WO2008049445A1 (en) * 2006-10-25 2008-05-02 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Quality scalable coding
US20090110073A1 (en) * 2007-10-15 2009-04-30 Yu Wen Wu Enhancement layer residual prediction for bit depth scalability using hierarchical LUTs
CN101577828A (zh) * 2008-04-16 2009-11-11 英特尔公司 用于比特深度可分级的视频编解码器的色调映射
CN101589625A (zh) * 2006-10-25 2009-11-25 弗劳恩霍夫应用研究促进协会 质量可缩放编码
US20100135393A1 (en) * 2007-06-27 2010-06-03 Yong Ying Gao Method and apparatus for encoding and/or decoding video data using enhancement layer residual prediction for bit depth scalability
US20120224774A1 (en) * 2011-02-22 2012-09-06 Chong Soon Lim Image coding method, image decoding method, image coding apparatus, image decoding apparatus, and image coding and decoding apparatus

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7035460B2 (en) * 2002-05-31 2006-04-25 Eastman Kodak Company Method for constructing an extended color gamut digital image from a limited color gamut digital image
US8054885B2 (en) 2006-11-09 2011-11-08 Lg Electronics Inc. Method and apparatus for decoding/encoding a video signal
JP5295233B2 (ja) * 2007-06-29 2013-09-18 フラウンホファー・ゲゼルシャフト・ツール・フォルデルング・デル・アンゲバンテン・フォルシュング・アインゲトラーゲネル・フェライン ビデオエンコーダ、ビデオデコーダ、エンコードするための方法、デコードするための方法、コンピュータプログラム、およびスケーラブルなビットストリーム
JP5451626B2 (ja) * 2007-10-19 2014-03-26 トムソン ライセンシング 統合された空間・ビット深度スケーラビリティ
US8953673B2 (en) * 2008-02-29 2015-02-10 Microsoft Corporation Scalable video coding and decoding with sample bit depth and chroma high-pass residual layers
HUE024173T2 (en) * 2008-04-16 2016-05-30 Ge Video Compression Llc Bit depth scalability
US9538176B2 (en) * 2008-08-08 2017-01-03 Dolby Laboratories Licensing Corporation Pre-processing for bitdepth and color format scalable video coding
US9571856B2 (en) * 2008-08-25 2017-02-14 Microsoft Technology Licensing, Llc Conversion operations in scalable video encoding and decoding
BRPI1009443B1 (pt) 2009-03-13 2021-08-24 Dolby Laboratories Licensing Corporation Método de geração de parâmetros de mapeamento de tons inverso, método de compactação de dados de vídeo e método para geração de um fluxo de bits de saída a partir de um fluxo de bits de entrada
AU2011319844A1 (en) * 2010-10-27 2013-06-13 Vid Scale, Inc. Systems and methods for adaptive video coding
KR101756442B1 (ko) * 2010-11-29 2017-07-11 에스케이텔레콤 주식회사 인트라예측모드의 중복성을 최소화하기 위한 영상 부호화/복호화 방법 및 장치
UA109312C2 (uk) * 2011-03-04 2015-08-10 Імпульсно-кодова модуляція з квантуванням при кодуванні відеоінформації
US20130321675A1 (en) * 2012-05-31 2013-12-05 Apple Inc. Raw scaler with chromatic aberration correction
AU2013352851B2 (en) * 2012-11-27 2016-11-17 Lg Electronics Inc. Signal transceiving apparatus and signal transceiving method
US9800884B2 (en) * 2013-03-15 2017-10-24 Qualcomm Incorporated Device and method for scalable coding of video information
US10230950B2 (en) * 2013-05-30 2019-03-12 Intel Corporation Bit-rate control for video coding using object-of-interest data
US10075735B2 (en) * 2013-07-14 2018-09-11 Sharp Kabushiki Kaisha Video parameter set signaling
JP2017501599A (ja) * 2013-10-07 2017-01-12 ヴィド スケール インコーポレイテッド マルチレイヤビデオコーディングのコンバインドスケーラビリティ処理
MX2016012130A (es) * 2014-03-19 2017-04-27 Arris Entpr Inc Codificacion escalable de secuencias de video utilizando mapeo de tonos y diferentes gamas de colores.
US10469847B2 (en) * 2014-09-12 2019-11-05 Vid Scale, Inc. Inter-component de-correlation for video coding

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004064629A (ja) * 2002-07-31 2004-02-26 Canon Inc 画像処理装置およびその方法
US20050259729A1 (en) * 2004-05-21 2005-11-24 Shijun Sun Video coding with quality scalability
WO2006047448A2 (en) * 2004-10-21 2006-05-04 Sony Electonics, Inc. Supporting fidelity range extensions in advanced video codec file format
WO2008049445A1 (en) * 2006-10-25 2008-05-02 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Quality scalable coding
CN101589625A (zh) * 2006-10-25 2009-11-25 弗劳恩霍夫应用研究促进协会 质量可缩放编码
US20100020866A1 (en) * 2006-10-25 2010-01-28 Detlev Marpe Quality scalable coding
US20100135393A1 (en) * 2007-06-27 2010-06-03 Yong Ying Gao Method and apparatus for encoding and/or decoding video data using enhancement layer residual prediction for bit depth scalability
CN101796841A (zh) * 2007-06-27 2010-08-04 汤姆逊许可公司 用位深度可分级性的增强层残差预测对视频数据进行编码和/或解码的方法和设备
US20090110073A1 (en) * 2007-10-15 2009-04-30 Yu Wen Wu Enhancement layer residual prediction for bit depth scalability using hierarchical LUTs
CN101577828A (zh) * 2008-04-16 2009-11-11 英特尔公司 用于比特深度可分级的视频编解码器的色调映射
US20120224774A1 (en) * 2011-02-22 2012-09-06 Chong Soon Lim Image coding method, image decoding method, image coding apparatus, image decoding apparatus, and image coding and decoding apparatus

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
ELENA ALSHINA ET AL: "AhG14: On bit-depth scalability support", 《JOINT COLLABORATIVE TEAM ON VIDEO CODING (JCT-VC)》 *
ELENA ALSHINA ET AL: "AhG14: On bit-depth scalability support", 《JOINT COLLABORATIVE TEAM ON VIDEO CODING (JCT-VC)》, 25 July 2013 (2013-07-25), pages 1 - 3 *

Also Published As

Publication number Publication date
JP7012048B2 (ja) 2022-01-27
EP3055997B1 (en) 2019-12-04
US10986370B2 (en) 2021-04-20
JP2024020538A (ja) 2024-02-14
KR20190110644A (ko) 2019-09-30
KR102027027B1 (ko) 2019-09-30
WO2015054307A2 (en) 2015-04-16
HK1222965A1 (zh) 2017-07-14
CN110572662B (zh) 2024-03-08
US20150098510A1 (en) 2015-04-09
TWI652937B (zh) 2019-03-01
KR20160064204A (ko) 2016-06-07
JP2018129814A (ja) 2018-08-16
CN105874793A (zh) 2016-08-17
EP3629582A1 (en) 2020-04-01
CN105874793B (zh) 2019-10-11
WO2015054307A3 (en) 2015-08-20
KR102127603B1 (ko) 2020-06-26
JP6564086B2 (ja) 2019-08-21
EP3055997A2 (en) 2016-08-17
JP7448572B2 (ja) 2024-03-12
US20190014348A1 (en) 2019-01-10
RU2016117907A (ru) 2017-11-13
US10063886B2 (en) 2018-08-28
JP2022064913A (ja) 2022-04-26
JP2017501599A (ja) 2017-01-12
JP2020010341A (ja) 2020-01-16
RU2658812C2 (ru) 2018-06-22
TW201536032A (zh) 2015-09-16

Similar Documents

Publication Publication Date Title
US10986370B2 (en) Combined scalability processing for multi-layer video coding
US11405621B2 (en) Sampling grid information for spatial layers in multi-layer video coding
US10841615B2 (en) Systems and methods for model parameter optimization in three dimensional based color mapping
KR101786414B1 (ko) 보간을 이용하는 루마 및 크로마의 위상 정렬을 위한 컬러 색역 스케일러블 비디오 코딩 디바이스 및 방법
KR102028186B1 (ko) 색역 확장성을 위한 3d 룩업 테이블 코딩을 제공하기 위한 시스템 및 방법

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant