CN106664410B - 用于基于三维色彩映射模型参数优化的系统和方法 - Google Patents

用于基于三维色彩映射模型参数优化的系统和方法 Download PDF

Info

Publication number
CN106664410B
CN106664410B CN201580033151.XA CN201580033151A CN106664410B CN 106664410 B CN106664410 B CN 106664410B CN 201580033151 A CN201580033151 A CN 201580033151A CN 106664410 B CN106664410 B CN 106664410B
Authority
CN
China
Prior art keywords
prediction residual
residual value
significant bit
fixed
amount
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201580033151.XA
Other languages
English (en)
Other versions
CN106664410A (zh
Inventor
贺玉文
叶琰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Vid Scale Inc
Original Assignee
Vid Scale Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Vid Scale Inc filed Critical Vid Scale Inc
Priority to CN201911086942.5A priority Critical patent/CN110913217B/zh
Publication of CN106664410A publication Critical patent/CN106664410A/zh
Application granted granted Critical
Publication of CN106664410B publication Critical patent/CN106664410B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/13Adaptive entropy coding, e.g. adaptive variable length coding [AVLC] or context adaptive binary arithmetic coding [CABAC]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/146Data rate or code amount at the encoder output
    • H04N19/147Data rate or code amount at the encoder output according to rate distortion criteria
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/184Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being bits, e.g. of the compressed video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/186Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • H04N19/463Embedding additional information in the video signal during the compression process by compressing encoding parameters before transmission
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
    • H04N19/91Entropy coding, e.g. variable length coding [VLC] or arithmetic coding

Abstract

公开了用于执行自适应色彩空间转换和LUT参数的自适应熵编码的系统、方法和设备。视频比特流可以被接收且可以基于该视频比特流确定第一标志。响应于该第一标志可以将残差从第一色彩空间转换到第二色彩空间。该残差可以按两个部分被编码,该两个部分被该残差的最高有效位和最低有效位分开。该残差还可以进一步基于其绝对值被编码。

Description

用于基于三维色彩映射模型参数优化的系统和方法
相关申请的交叉引用
本申请要求2014年6月19日申请的美国临时专利申请序号No.62/014,610、2014年6月26日申请的美国临时专利申请序号No.62/017,743的优先权,其每一个申请的名称为“SYSTEMS AND METHODS FOR MODEL PARAMETER OPTIMIZATION IN THREE DIMENSIONALBASED COLOR MAPPING”,且每一个的全部内容以引用的方式结合于此。
背景技术
近些年,无线技术要求更高的数据吞吐率和更低的延迟。推动这种要求的一种常见应用是在移动设备(也称为“用户设备”或简单的“UE”)上的视频呈现(render)。载波聚合和多RAT(无线电接入技术)能力已经被引入以帮助解决这些应用和使用大数据量的其他服务要求的对更高数据率的需求。载波聚合可以允许运营商将它们数据业务量的一些卸载到辅助小区(例如,在辅助分量载波上传送)。对RAT技术例如RAT聚合的使用可以在多个RAT上例如同时允许接收和/或传输。可以一起使用的这些RAT可以包括与宽带码分多址(WCDMA)使用的长期演进(LTE),与WiFi使用的LTE等。在这样的聚合方式中,演进型节点B(eNB)和UE可以在多个并行路径上通信。
各种数字视频压缩技术已经被开发以帮助有效数字视频通信、分发以及使用。广泛部署的标准包括国际电信联盟(ITU)编码标准,例如H.261、H.263、和H.264,以及其他标准,例如MPEG-1、MPEG-2、MPEG-4部分2以及MPEG-4部分10高级视频编码(AVC)。另一视频编码标准,高效视频编码(HEVC)已经由IUT-T视频编码专家组(VCEG)和国际标准化组织/国际电工委员会(ISO/IEC)运动图像专家组(MPEG)开发。HEVC标准与可能使用H.264和MPEG-4部分10AVC相比可以实现两倍的压缩效率。因此,在带宽利用方面,HEVC需要H.264或MPEG-4部分10AVC的比特率的一半,而提供相同或相似的视频质量。
随着例如智能电话、平板电脑等的移动设备的使用增加,相应的对通过无线网络的视频内容和服务的需求增加。因此,期望移动设备在计算能力、内存、存储大小、显示分辨率、显示帧率、显示色域等方面的广泛变化能力来提供视频消费以成功满足当今的移动设备市场。同样,与这些设备通信的无线网络也被期望提供视频服务和其他带宽密集服务和应用。
发明内容
公开了在视频解码中使用的用于解码3维查找表(3-dimensional look-uptable)参数的系统、方法和设备。在一种实施方式中,通过接收增量(delta)值、预测残差值的最高有效位、以及预测残差值的最低有效位来实施在视频解码中使用的方法、系统和设备以用于解码3维查找表参数。预测残差值可以通过以下来生成:基于增量值来确定表示固定长度编码的最低有效位的量的第一值,基于所述第一值确定预测残差值的最低有效位,以及使用预测残差值的最高有效位和预测残差值的最低有效位来组合(assemble)预测残差值。预测残差值可以与Y色彩分量、U色彩分量、或V色彩分量中的一者相关联。预测残差值的符号(sign)可以被接收并用于组合预测残差值。组合预测残差值可以包括将预测残差值的最高有效位左比特移位所述第一值,将预测残差值的最低有效位加到预测残差值,和/或将预测残差值的符号应用到预测残差值。预测残差值可以与色彩分量、3维查找表参数、和3维查找表八分体(octant)中的至少一者相关联。
还公开了在视频编码中使用的用于编码3维查找表参数的系统、方法和设备。在一种实施方式中,可以通过确定预测残差值、基于预测残差值的最小有效位的量来确定增量值、以及编码该增量值来实施在视频编码中使用的方法、系统和设备以用于编码3维查找表参数。可以基于增量值编码该预测残差值的最高有效位和/或最低有效位。确定增量值可以包括确定3维查找表数据和/或基于3维查找表数据来确定增量值。确定增量值还可以包括基于第一增量值确定编码3维查找表数据所需的第一比特量,基于第二增量值来确定编码3维查找表数据所需的第二比特量,以及基于第一比特量和第二比特量来选择第一增量值和第二增量值中的一者作为所述增量值。选择第一增量值和第二增量值中的一者可以基于第一比特量是小于第二比特量还是第二比特量小于第一比特量。基于增量值确定编码3维查找表数据所需的比特量可以包括对编码用于3维查找表数据的一个八分体的模型参数所需的比特量进行求和。预测残差值的符号也可以被编码。公开的主题的这些和其他方面在下面描述。
附图说明
图1示出了用于实施公开的实施方式的示例系统;
图2示出了用于实施公开的实施方式的示例系统;
图3示出了在CIE色彩定义中比较HDTV和UHDTV的示例图;
图4A示出了示例图像;
图4B示出了另一示例图像;
图5示出了用于实施公开的实施方式的示例系统;
图6示出了根据实施方式的示例基于3D LUT的映射;
图7示出了根据实施方式的示例基于3D LUT的映射;
图8示出了根据实施方式的示例预测结构;
图9示出了根据实施方式的另一示例预测结构;
图10示出了实施公开的实施方式的示例方法;
图11A示出了可以实施公开的主题的示例通信系统的系统图;
图11B是可以在图11A示出的通信系统中使用的示例无线发射/接收单元(WTRU)的系统图;
图11C是可以在图11A示出的通信系统中使用的示例无线电接入网络和示例核心网络的系统图;
图11D是可以在图11A示出的通信系统中使用的另一示例无线电接入网络和示例核心网络的系统图;
图11E是可以在图11A示出的通信系统中使用的另一示例无线电接入网络和示例核心网络的系统图。
具体实施方式
现在将参考多个附图来描述示例性示例的详细描述。虽然该描述提供了可能实施的详细示例,但应当注意这些细节旨在仅示例性而绝不限制本申请的范围。
各种数字视频压缩技术可以被用于实现有效数字视频通信、分发和使用。可以用于实现这些有效数字视频通信、分发和使用的标准示例可以包括这些由ISO/IEC和/或ITU-T开发的,例如H.261,MPEG-1,MPEG-2,H.263,MPEG-4部分2和H.264/MPEG-4部分10AVC。HEVC是这些标准的另一示例。HEVC的版本已经被ITU-T VCEG和ISO/IEC MPEG联合进行标准化。如这里所述,HEVC标准可以实现两倍于使用H.264/AVC可以实现的压缩效率的压缩效率。
可以提供数字视频服务,通过卫星、电缆和/或陆地广播信道使用TV服务。由于移动设备商的互联网随着现在分辨率、内存、存储和计算能力的能力增长的智能电话和平板电脑的增长而变得更普遍,更大数量的视频应用(例如视频聊天、移动视频记录和共享以及视频流)可以变得更普遍且可以在异构环境(即可以包括变换能力的设备的环境)中需要视频传送。在这样情形中的设备可以称为3屏或N屏设备且在计算能力、内存/存储大小、显示分辨率、显示帧率、显示色域等方面可以具有各种类型和能力。这种设备的示例可以包括PC、智能电话、平板电脑、TV等。这样的设备可以经由因特网提供视频使用以满足用户。
可以促进视频使用的网络和传输信道可以在例如分组丢失率、可用信道带宽、突发错误率等方面具有宽变化特性。由于视频内容业务量可以通过有线网络和无线网络的结合来传送,底层(underlying)传输信道特性可能变得复杂。在这样的情形中,可缩放(scalable)视频编码技术可以提供吸引人的解决方案,其可以改善在异构网络上运行在具有不同能力的设备上的视频应用的体验质量。在一些实施方式中依据给定应用和/或给定客户端设备请求的特定速率和/或表现,可缩放视频编码可以在其最高表现(时间分辨率、空间分辨率、质量等)对信号编码一次和/或可以从一个或多个视频流的子集进行解码。可缩放视频编码与非缩放解决方案相比可以节省带宽和/或存储。国际视频标准MPEG-2视频、H.263、MPEG4视觉以及H.264的每一个可以具有支持至少一些缩放性模式的工具和/或简档(profile)。
图1是示出可以代表基于块的混合可缩放视频编码系统的示例性系统1000的框图。由层11071(例如基础层)表示的空间/时间信号分辨率可以首先通过下采样(down-sample)1031输入视频信号1081并将其提供给层1编码器1001来生成。量化器(quantizer)设定(setting)Q 1061可以被提供给编码器1001以配置编码器1001提供某质量等级的基础层信号。层11071编码的信号可以被提供给层1解码器1021,其可以生成重构的视频信号1091。层1解码器1021可以被配置有指定用于解码编码的层1信号的质量等级的量化器设定1064。
基础层重构的视频信号1091可以是一些或所有较高层分辨率等级的近似。重构的视频信号1091可以被用在后续层的编码和/或解码中,以例如更有效率地编码后续较高层。上采样(upsample)单元1043可以执行将基础层重构的信号1091上采样到层21072的分辨率并提供该上采样信号用于添加1054到由层2解码器1022解码的层21072解码的信号。层2解码器1022可以被配置有量化器设定1065,指定用于解码编码的层2信号的质量等级。使用例如信号添加1055、上采样1044以及层N解码器1023,可以在一些或所有层(例如层1,2,...N)执行类似的上采样和信号添加,以从层N编码器1003生成的层N 1073编码信号生成重构的视频信号1093。层N解码器1023可以被配置有指定用于解码层N 1073信号的质量等级的量化器设定Q 1066。注意下采样率和上采样率可以变化且可以与两个给定层之间的缩放性的尺寸有关。
在图1的系统1000中,对于任意给定较高层n(例如,层2≤n≤N),通过从当前层n信号减去上采样较低层信号(例如,层n-1信号)来生成差分(differential)信号,且可以对该差值(difference)信号进行编码。如果两个层例如n1和n2表示的视频信号具有相同的空间分辨率,则可以绕开相应的下采样和上采样操作。可以在不使用从较高层解码的任意信号的情况下对任意给定层n(例如其中1≤n≤N)或多个层进行解码。例如,层1编码器1001输出可以由层1解码器解码1011、上采样1041、并从视频信号1081中被减掉1051,该视频信号1081在该减掉之前可以被下采样1032。类似地,层2解码器1002输出可以被层2解码器解码1012,被加1052到通过上采样1041生成的该信号,被下采样1042,以及在视频信号在层N编码器1003处编码成生成的层N 1073编码信号之前在较高层N处从该视频信号中被减掉1053。注意编码器1002和1003可以分别使用量化器设定Q 1062和1063来确定用于编码信号的质量等级。这里预期的任意其他编码器和解码器也可以使用任意输入、设定或信号来确定用于编码和/或解码信号的质量等级,以及所有这样的实施方式被预期在本公开的范围内。
对所有层除了基础层,例如如图1的系统1000中所示,依据残差信号编码(例如,两个层之间的差值信号)可能由于这种残差信号的量化和标准化以限制其动态范围和可以在残差信号编码期间执行的额外量化导致的视觉伪影(visual artifact)。较高层编码器的一个或多个可以采用运动估计和/或运动补偿预测作为编码模式。残差信号中的运动估计和运动补偿可以不同于常规运动估计且可以倾向于视觉伪影。为了最小化这种视觉伪影,更复杂的残差量化以及量化和标准化残差信号之间的联合量化以限制其动态范围和在残差编码期间执行的额外量化可以被使用。
可缩放视频编码(SVC)可以被认为是ITU-T标准H.264和ISO/IEC/MPEG 4部分10A的扩展,其可以实现部分比特流的传输和解码以提供较低时间和/或空间分辨率和/或降低保真度的视频服务同时针对部分比特流的速率保持相对高重构质量。SVC的特征,称为单回路解码,可以涉及SVC解码器,其可以在被解码的层设置一个运动补偿环,且可以在一个或多个其他较低层不设置一个或多个运动补偿环。例如,如果比特流包含两个层,层1(例如基础层)和层2(例如增强层),且如果解码器被配置成重构层2视频,则可以为层2设置解码图片缓冲器和/或运动补偿预测,而对层1(例如层2所依据的基础层)则不这样。使用单回路解码,解块过滤也可以被限制到被解码的层。因此,SVC可以不需要来自较低层的参考图片被完全重构,这可以降低解码器处的计算复杂度和存储器使用。
单回路解码可以通过受约束层间结构预测来实现,其中对于给定层中的当前块,如果相应较低层块是以帧内模式编码的(其也可以称为受限帧内预测(intra-prediction)),则从该较低层的空间结构预测可以被允许。在实施方式中,这可以是由于较低层块是以帧内模式被编码,其中这样的块可以在不需要运动补偿运算和/或解码图片缓冲器的情况下被重构。
为了进一步改善增强层的率失真效率(rate-distortion efficiency),SVC可以从较低层使用另外的层间预测技术,例如运动向量预测、残差预测、运动预测等。虽然SVC的单回路解码特征可以降低解码器的计算复杂度和/或存储器使用,但是单回路解码可能因为使用块级层间预测方法而增加实施复杂度。为了补偿由于施加单回路解码约束可能导致的性能损失,可以增加编码器设计和计算复杂度,由此可以实现期望的性能等级。
HEVC的可缩放扩展可以称为SHVC。HEVC的标准缩放性可以涉及可以允许使用早期标准例如H.264/AVC或MPEG2编码基础层,而使用更近的标准例如HEVC标准编码一个或多个增强层的缩放性类型。标准缩放性可以给已使用之前标准编码的遗留(legacy)内容提供后向兼容性。标准缩放性可以使用一个或多个增强层来增强这种遗留内容的质量,该内容可以使用更多当前标准(像提供更好编码效率的HEVC)被编码。
图2示出了用于2层可缩放系统的SHVC解码器的示例框图200。SHVC可以使用高等级基于语法的可缩放编码框架,其中从基础层重构的图片可以被处理成层间参考(ILR)图片。这些ILR图片然后可以被插入到增强层解码图片缓冲器(DPB)以用于增强层图片的预测。SHVC中的该层间处理模块可以包括对空间缩放性和位深缩放性进行上采样以及对色域缩放性进行色彩映射。
如图2中所示,SHVC比特流240可以由解复用器210解复用成增强层(EL)流241和基础层(BL)流242。BL流242可以由基础层解码器231解码以生成重构的图片,其可以被提供给基础层解码图片缓冲器(BL DPB)232并可以被提供作为基础层视频输出252。BL DPB可以提供262基础层重构的图片给层间处理250,其可以处理这种基础层重构的图片以生成ILR图片,其可以被提供261给增强层解码图片缓冲器(EL DPB)222。HEVC解码器221可以解码EL流241并将其重构的图片提供给EL DPB 222,其可以使用该HEVC重构的图片和从层间处理250接收的ILR图片来生成增强层视频输出251。
在实施方式中,超高清TV(UHDTV)规范可以被用于使用高级显示技术来呈现图像和视频。与高清TV(HDTV)规范相比,UHDTV规范可以支持更大的空间分辨率、更高的帧率、更高的采样位深、和/或更宽的色域。由于UHDTV可以提供更高的保真度和更高的图片质量,用户体验得之改善。UHDTV可以支持两个空间分辨率,一个是4K(3840x2160),一个是8K(680x4320),高达120Hz的帧率,和/或10比特和12比特的两个图片采样位深。此外,UHDTV的色彩空间可以支持更大容量的视觉色彩信息的呈现。图3示出了示出在国际照明委员会(CIE)色彩定义中HDTV和UHDTV之间的比较的图300。图4示出了终端用户可以在HDTV色域与UHDTV色域之间感觉的视觉差异的示例。在图4中,使用不同色彩空间对相同内容进行色彩分级两次。图4A示出了图像410,其可以代表可以已经按HDTV进行色彩分级并在HDTV显示器上呈现/显示的图像。图4B示出了图像410,其可以代表可以已经按UHDTV进行色彩分级并在HDTV显示器上呈现/显示的图像。
SHVC可以支持HDTV到UHDTV迁移(migration)。为位深缩放性和/或色域缩放性设计的有效编码技术可以被包括在SHVC中。下表1列出了根据公开的实施方式的SHVC可以支持的不同类型的缩放性。这些缩放性类型的一个或多个也可以被之前的SVC标准所支持。
表1.SHVC缩放性类型
一种缩放性可以称为色域缩放性。色域可缩放(CGS)编码可以是多层编码,其中两个或更多个层可以具有不同色域。例如,如表1所示,在2层可缩放系统中,基础层可以是HDTV色域而增强层可以是UHDTV色域。用于CGS编码的层间处理可以使用色域转换方法以将基础层色域转换成增强层色域。色域转换(例如色彩映射)生成的层间参考图片可以用于预测具有改善精度的增强层图片。使用图4示出的图片作为示例,色域转换过程可以明显降低和/或减轻图4A和图4B中示出的图像之间可能由于不同色彩分级(grade)导致的色彩差异。通过使用色域转换方法,HDTV空间中的色彩可以被转译(translate)到UHDTV空间并可以用于预测UHDTV空间中的增强层信号。
图5示出了可以对应于SHVC解码器(例如图2的示例性SHVC解码器)的示例性SHVC编码器的框图500。增强层(EL)视频541可以被提供给EL编码器521,其在实施方式中可以是HEVC编码器或可以是其组件。基础层(BL)视频542可以被提供给BL编码器531,其在实施方式中可以是HEVC编码器或其组件。EL视频541可以经过了预处理510,以进行色彩分级、下采样、和/或位深转换的色调映射(tone map)以生成BL视频542。EL编码器521可以提供图片给EL DPB 522以及BL编码器531可以提供图片给BL DPB 532。
如图所示,示例性层间(IL)处理模块520可以执行从基础层色域到增强层色域的色域转换,从基础层空间分辨率到增强层空间分辨率的上采样,和/或从BL采样位深到EL采样位深的逆色调映射。这种处理可以使用可以分别已由EL编码器521和BL编码器531提供的增强层视频信息524和/或基础层视频信息534来执行。IL处理模块520可以在其处理中使用来自BL DPB 532的图片和/或可以提供数据、图片或其他信息给ELDPB 522以用于预测EL图片。IL处理模块520生成的色彩映射信息553可以被提供给复用器540。
复用器540可以使用EL编码器521生成的EL比特流551和BL编码器531生成的BL比特流552来生成SHVC比特流550。在实施方式中,复用器540还可以使用色彩映射信息553来生成SHVC比特流550。
可以使用各种色域转换方法,包括但不限于线性、分段线性以及多项式。在电影工业和后期制作过程中,3维查找表(3D LUT)可以用于色彩分级和/或从一个域到另一个的色域转换。基于3D LUT的色域转换过程可以在SHVC中用作如这里所述的用于CGS的层间预测方法。
SHVC色彩映射过程可以基于3D LUT。图6示出了示例的基于3D LUT映射600,其可以是从8比特BL视频到8比特EL视频的映射,具有范围(0,0,0)到(255,255,255)。使用3D色彩映射表,3D LUT 610可以首先在每个维度(中心立方体)被平均地分割成2x2x2个八分体(620)。SHVC简档(例如SHVC可缩放主要部分10简档)可以允许在三个色彩维度中最多一个分割。在一些实施方式中,亮度分量也可以被分割成最多四个部分,如630中所示。3D色彩空间可以被分割成多达8x2x2个立方形八分体。在八分体内,交叉色彩分量线性模型可以被应用以执行色彩映射。对于八分体,四个顶点(vertice)可以被传送以表述该交叉分量线性模型。可以分别针对Y’、Cb、和Cr分量传送色彩映射表。因此,针对CGS编码,最多8x2x2x4x3=384个表项可以被存储。
为了执行SHVC中的色彩映射,对于给定BL输入采样三元组(triplet)P(y,u,v),其如图示出位于图7的示例立方体700,其所属的八分体可以基于色彩分量(y,u,v)的最前的N个最高有效位(MSB)的值来确定,因为色彩维度是二元划分的。
由于亮度和色度采样在典型的YCbCr 4:2:0视频格式中不是相位对准的,因此可以使用4抽头(4-tap)或2抽头过滤器来过滤输入P(y,u,v)以对准色度和亮度采样位置。
该识别的八分体的色彩分量C(C可以是Y、U或V)的线性模型可以被表示为lutC[P0]、lutC[P4]、lutC[P6]、和lutC[P7],其可以对应于如图7所示的顶点P0、P4、P6、和P7。因此,色彩映射过程的色彩分量C的输出可以使用下面的等式(1)来计算,如图7指示,该等式有dy,du,和dv。如果在BL和EL之间有空间分辨率差异,则在色彩映射之后可以应用上采样。
C输出=lutC[P0]+dy×(lutC[P7])-lutC[P6])+du×(lutC[P4]-lutC[P0])+dv×(lutC[P6]-IutC[P4])(1)
编码器例如可以使用一个色彩空间中的BL信号和另一个色彩空间中的EL信号来估计3D LUT参数。最小平方(LS)估计方法可以用于估计最优3D LUT参数。这些模型参数可以包括3D LUT大小(例如色度分量的分区数量和亮度分量的分区数量)和/或八分体的顶点P0,P4,P6,和P7处的线性模型参数。在SHVC中,这些LUT参数可以在图片参数集(PPS)内以比特流被用信号发送,由此该解码器可以执行相同的色域转换过程。PPS可以携带相对静态且在图片之间不频繁变化的参数。可以使用图片级PPS更新,允许3D LUT参数在序列级用信号发送且在图片级被更新。为了降低3D LUT信令开销,针对例如八分体的顶点P0,P4,P6,和P7的模型参数可以从其相邻的八分体来估计。
用于用信号发送3D LUT的模型参数的比特数可以基于3D LUT的大小而发生很大变化。3D LUT越大(例如,3D LUT分区越多),其消耗的比特越多。较大3D LUT可以提供色彩空间更细的分区,例如在图6中630所表示的。较大3D LUT的使用可以降低原始EL信号与色彩映射的BL信号之间的失真和/或可以增加EL的编码效率。
智能编码器可以选择或确定3D LUT大小,考虑了3D LUT的信令开销与3D LUT的失真降低能力之间的折中。例如,速率失真优化方法可以用于选择合适的3D LUT大小。在一种实施方式中,可以考虑(例如仅考虑)相对信令开销使用预选阈值来选择3D LUT大小。在一种实施方式中,3D LUT大小可以在3D LUT的信令成本超出之前编码图片的阈值(例如3%)时减小且在其信令成本低于之前编码图片的阈值(例如0.5%)时增加。
在一种实施方式中,如这里提到的,基于速率失真成本的改进的3D LUT大小选择方法可以被使用。通过考虑可以满足最大大小约束的3D LUT大小的速率失真成本,公开的实施方式可以确定3D LUT大小(以及在实施方式中其相关联的顶点参数),其实现期望的开销与(vs.)失真降低折中。当计算3D LUT表的速率失真成本时可以考虑层级(hierarchical)B预测结构。
与八分体的P0,P4,P6,和P7相关联的模型参数可以使用来自左边的相邻八分体的顶点值来预测。对于色彩分量X,X可以是Y、U或V,可以计算两个预测变量(predictor)predXa和predXb。实际模型参数与相关联的预测变量之间的差值可以被计算并可以在比特流中用信号发送。
在一些实施方式中,第一预测变量predXa可以被计算为具有合适比特移位(bitshift)的八分体坐标。当3D LUT的输入和输出具有不同位深时可以使用合适的比特移位。例如,当BL信号是8比特且EL信号是10比特时,可以使用比特移位2。可以针对所有八分体的P0,P4,P6,和P7计算第一预测变量。更具体地,针对X是Y、U或V,预测变量predXa可以使用下面示出的等式(2)、(3)和(4)来计算。
predYa[yIdx][uIdx][vIdx][vertex]=(vertex<3)?(yIdx<<yShift):((yIdx+1)<<yShift)(2)
predUa[yIdx][uIdx][vIdx][vertex]=(vertex==0)?(uIdx<<cShift):((uIdx+1)<<cShift)(3)
predVa[yIdx][uIdx][vIdx][vertex]=(vertex<2)?(vIdx<<cShift):((vIdx+1)<<cShift)(4)
在等式(2)、(3)和(4)中,可以在Y、U和V维度中索引yIdx,uIdx和vIdx,其可以用于标识八分体,且等于0,1,2,3的顶点可以分别指示顶点P0,P4,P6和P7
第二预测变量predXb可以被计算为左边相邻八分体的模型参数与左边相邻八分体的第一预测变量predA之间的差值。更具体地,对于X是Y、U或V,第二预测变量predXb可以如下所示的示例伪码段得出。
if(yIdx>0)
predXb[yIdx][uIdx][vIdx][vertex]=Clip3(-(1<<(CMOutputBitdepthY/C-2)),(1<<(CMOutputBitdepthY/C-2)),
LutX[yIdx-1][uIdx][vIdx][vertex]-predXa[yIdx-1][uIdx][vIdx][vertex])
else
predXb[yIdx][uIdx][vIdx][vertex]=0
第一预测变量predXa和第二预测变量predXb可以用于预测当前八分体的模型参数。可以通过从当前八分体的模型参数中减去predXa和predXb来计算预测误差。预测误差可以使用cm_res_quant_bits被量化。在解码器侧,八分体的模型参数,其可以被表示为LutX[yIdx][uIdx][vIdx][vertex],X是Y、U或V,可以使用以下等式(5)来得到:
LutX[yIdx][uIdx][vIdx][vertex]=(res_x[yIdx][uIdx][vIdx][vertex]<<cm_res_quant_bits)+predXa[yIdx][uIdx][vIdx][vertex]+predXb[yIdx][uIdx][vIdx][vertex]
(5)
其中对于x由Y、U或V来替换,res_x可以是可以以比特流用信号发送的量化预测误差。
由于量化预测误差,使用模型参数预测方法,得到的模型参数LutX[yIdx][uIdx][vIdx][vertex]在最低有效位(LBS)位置的cm_res_quant_bits中可以具有零比特。这可能影响色彩映射过程的精度。如这里提出的,用于CGS编码的顶点预测方法可以允许得到的模型参数LutX[yIdx][uIdx][vIdx][vertex]的LSB位置具有非零值且因此改进色彩映射过程的精度。
在实施方式中,对于给定表大小s,可以使用如下等式(6)来计算相关联的速率失真成本(cost):
J成本(s)=D(s)+λ·bits(s) (6)
其中D(s)可以是初始EL信号与在使用具有应用的大小s的3D LUT进行的色彩映射之后的映射的BL信号之间的失真,bits(s)可以是用于编码具有大小s的3D LUT的比特数,以及λ可以是拉格朗日乘数。可以如下使用等式(7)来选择最优表大小。
sopt=arg min(J成本(s)) (7)
随着视频分辨率增加,总失真(其可以被计算为图片中所有像素的失真总和)可以更明显波动且可以压过等式(6)中第二项λ·bits(s),除非选择非常大的λ。这可能导致更频繁地选择比期望表尺寸要大的尺寸。另一种结果可以是在图片间更频繁改变所选的3DLUT尺寸,这可能导致更频繁的PPS更新。如这里所提出的,公开的基于ILR使用的加权失真计算可以被使用。
图8示出了示例层级B预测结构800,其可以用于串流和广播视频应用。从随机接入点(RAP)开始,图8中示出为图片0,可以使用例如结构800的分层B预测结构对图片进行无序编码(例如,按不同于显示顺序的顺序)。图8中显示的图片组(GOP)801和802的每一个是大小为8的GOP,每个8个图片可以被组在一起且可以不按显示顺序被编码。例如,编码顺序可以应用到GOP 801由此GOP 801可以包括图片0,1,2,3,4,5,6,7和8,之后是GOP 802,其可以包括图片9,10,11,12,13,14,15和16。在GOP 801内,图片的编码顺序可以是图片0、图片8、图片4、图片2、图片1、图片3、图片6、图片5、和图片7,而在GOP 802内图片的编码顺序可以是图片16、图片12、图片10、图片9、图片11、图片14、图片13和图片15。
图8中的箭头示出用于预测图片的时间参考图片。例如,图片0可以用于预测图片1、2、3、4、8和16,而图片4可以用于预测图片1、2、3、5、6、7和16等。参考图片与当前图片之间的时间距离可以依据当前图片位于预测层级内的哪个位置而不同。例如,对于在预测层级800底部的图片8和图片16,这些图片与它们各自的参考图片之间的时间距离可以是大的。例如,图片8的参考图片可以是图片0。对于图片1、3、5、7等的每一个,其在示例性预测层级800的顶部,这些图片的每一个与它们各自的参考图片之间的时间距离可以非常小。例如,图片3可以包括其参考图片2和4,它们是时间上邻近的图片。参考图片与可以用该参考图片预测的当前图片之间的时间距离可以影响该给定参考图片的使用。在实施方式中,参考图片离当前图片越近,该参考图片越有可能被用于预测该当前图片。如图8中所示,预测层级可以确定时间参考图片离当前图片有多远,且因此可以确定这些时间参考图片的使用。
图9示出了可以扩展到2层可缩放视频编码系统的层级B时间预测结构900。层间参考(ILR)图片可用于当前图片的预测,例如,如竖直箭头所示,将基础层912中的图片连接到增强层911中的图片。例如,基础层912中的图片2GOP 901可以通过竖直箭头连接到增强层911中的图片2GOP 901,示出基础层912中的图片2GOP 901可用于预测增强层911中的图片2GOP 901。层间参考图片和时间参考图片可用于预测当前图片。层间参考图片的使用可以直接有关于预测层级。例如,对于增强层911中的低时间级图片,其可以没有接近其的时间参考图片(例如,增强层911中的图片8,结构900的GOP 901),ILR图片的使用可以较高。针对增强层911中高时间级图片(例如可以有时间上接近的参考图片,例如增强层911中的图片3,结构900的GOP 901)ILR图片的使用可以较低。基于ILR图片使用的权重可以被确定并应用到等式(6)的失真项D(s),由此选择不同3D LUT模型参数的影响可以被更精确地估计。也就是说,等式(6)中的速率失真成本可以被修改为如等式(8)所示:
J成本(s)=w·D(s)+λ·bits(s) (8)
其中w可以是基于ILR图片使用的加权因子。在实施方式中,依据被编码的当前图片的时间级可以应用不同的权重。其中l可以是当前图片的时间级,加权因子可以被表示为w(l)。在实施方式中,w(l)可以针对整个视频序列是固定的。可替换地,自适应权重w(l)可以被保持并基于针对时间级l的图片的实际ILR图片使用而动态更新。
ILR图片使用可以依据被编码的视频内容。在实施方式中,w(l)的动态更新可以允许更好的内容自适应。图10示出了基于使用加权失真的速率失真优化选择最优尺寸的示例过程1000。在1101,对于时间级l的当前图片,可以使用等式9针对LUT尺寸si计算成本J(si):
J(si)=D(si)*w(l)+λ*r(si) (9)
其中l可以表示当前图片的时间级,加权因子可以被表示为w(l),D(si)可以是失真,λ可以是拉格朗日乘数,以及r(si)可以是用于LUT尺寸si的编码比特数。
在1102,可以确定在1101确定的成本J(si)是否小于最小成本阈值Jmin(J最小)。如果是,在1103,最小成本阈值Jmin可以被设定为在1101确定的成本J(si),且最优表尺寸sopt(s最优)可以被设定为当前表尺寸si。如果在1101确定的成本大于或等于最小成本阈值Jmin,或如果成本J(si)小于最小成本阈值Jmin而执行1103的功能后,则该方法移到1104,其中可以确定一些或所有LUT尺寸是否已经被测试。如果LUT尺寸还没有被测试,则过程1000返回到1101以执行进一步测试。
如果LUT尺寸已经被测试,在1105,可以应用色彩映射以使用最近确定或设定的3DLUT尺寸来得出ILR图片。在1106,可以使用确定的信息来编码当前图片,且在1107可以基于ILR使用来更新w(l)。
当确定最优3D LUT尺寸可以使用另外的考虑以改善性能和/或降低编码器复杂度。在一种实施方式中,ILR使用w(l)也可以针对在时间级的图片或片段类型而被追踪。例如,加权因子可以被追踪为w(l,t),其中1可以是时间级且t可以是图片/片段类型(例如,t可以是I_SLICE(I_片段)、P_SLICE(P_片段)、或B_SLICE(B_片段))。由于编码的EL图片还可以用于按编码顺序编码其他后来的EL图片,因此基于速率失真的3D LUT参数选择也可以依据在编码后来EL图片时当前图片的影响。例如,对于EL中的非参考图片,3D LUT的图片级更新可能由于非参考EL图片的质量增加(例如由于更精确的色彩映射)而不可用,可能不能利于任意其他图片。图片级3D LUT更新可能针对在高于某阈值的时间级的图片而不可用。例如,图片级3D LUT更新可能针对在两个最高时间级的图片而不可用。例如,在图9中,图片级3D LUT更新可以不被应用到任意奇数编号的图片或图片2、6、10和14。
在HEVC中,在一或每个清除(clear)随机接入(CRA)图片,可以有先是按显示顺序之后按编码顺序的图片,且其在之前的随机接入周期中的图片被丢弃的情况下可以是不可解码的。这可以例如发生在用户切换信道时。这些图片在HEVC中可以称为随机接入跳过前导(RASL)图片。在一种实施方式中,针对RASL图片,图片级3D LUT更新可以不可用。
在一种实施方式中,给定最大3D LUT尺寸,可以不考虑小于该最大尺寸的一些或所有3D LUT尺寸。例如,用于编码每个图片(例如针对在每个时间级的每个图片)的比特数和用于编码3D LUT(例如,针对小于该最大尺寸的每个3D LUT尺寸)的比特数可以被跟踪。如果给定的3D LUT尺寸被期望生成大于期望用于编码当前图片的比特数的某百分比阈值(例如25%)的信令开销,则该3D LUT尺寸可以从图10中的过程1000的速率失真决定中被排除。
再次参考图7,八分体的顶点位置可以从P0到P7被标记。相邻八分体之间可以共用一些顶点。例如,当前八分体的顶点位置P0可以与左边相邻八分体的P1在相同的位置,当前八分体的顶点位置P4与左边相邻八分体的P5可以在相同位置,等等。例如如图7中所示考虑当前八分体的顶点位置P0。使用左边相邻八分体接收的模型参数,可以得出左边相邻八分体的顶点位置P1的参数值。例如,对于色彩分量X,X是Y、U或V,下面的示例伪码段可以用于得出左边相邻八分体的P1的值。下面该段中示出的(yIdx,uIdx,vIdx)可以是要被编码的当前八分体的索引。
deltaY=octantLengthY
deltaU=0
deltaV=0
valueXP1=LutX[yIdx-1][uIdx][vIdx][0]+((((deltaY*(LutX[yIdx-1][uIdx][vIdx][3]-LutX[yIdx-1][uIdx][vIdx][2]))<<cShift2Idx)+((deltaU*(LutX[yIdx-1][uIdx][vIdx][1]-LutX[yIdx-1][uIdx][vIdx][0]))<<yShift2Idx)+((deltaV*(LutX[yIdx-1][uIdx][vIdx][2]-LutX[yIdx-1][uIdx][vIdx][1]))<<yShift2Idx)+nMappingOffset)>>nMappingShift)
该得出的值valueXP1可以用作用于当前八分体的顶点P0的预测变量。可以使用该预测变量valueXP1来计算预测误差。可以使用因子cm_res_quant_bits来量化该预测误差。在解码器处,当前八分体的P0的模型参数可以通过将valueXP1加到去量化的预测误差来计算,如下面的等式(10)所示:
LutX[yIdx][uIdx][vIdx][0]=(res[yIdx][uIdx][vIdx][vertex]<<cm_res_quant_bits)+valueXP1
(10)
虽然量化的预测误差在cm_res_quant_bits LSB位置可以具有零值,但是预测变量valueXP1可能没有零值。因此,当前八分体的顶点位置P0的得出的模型参数LutX[yIdx][uIdx][vIdx][0]可以具有改进的精度。
虽然这里提出的实施方式通过使用当前八分体的顶点P0作为示例来论述的,但可以以类似方式得出剩余顶点P4和P6的预测变量。对于顶点位置P7,外部插值而不是内部插值可以被使用,因为P7可以不是与左边相邻八分体共用的顶点。但是,外部插值可能不会产生好质量预测,因为3D LUT可以是基于内部插值(例如仅基于内部插值)来训练的。在一种实施方式中,P7的模型参数的预测可以从当前八分体的顶点P6来计算。针对UHDTV色彩空间,Y与U之间的相关性可以弱于Y与V之间的相关性。因此,在其相邻八分体(具有八分体索引(yIdx,uIdx-1,vIdx))中的P7与P6之间的亮度分量差值可以被得出。该得出过程可以如下所示在以下的示例伪码段中被执行。
如果uIdx大于0,则valueXP7可以被计算为:
valueYP7=LutY[yIdx][uIdx][vIdx][2]+(LutY[yIdx][uIdx-1][vIdx][3]-LutY[yIdx][uIdx-1][vIdx][2])
valueUP7=LutU[yIdx][uIdx][vIdx][2]
valueVP7=LutV[yIdx][uIdx][vIdx][2]。
否则,valueXP7可以被计算为:
valueYP7=LutY[yIdx][uIdx][vIdx][2]+(octantLengthY<<(CMOutputBitdepthC-CMInputBitdepthC))
valueUP7=LutU[yIdx][uIdx][vIdx][2]
valueVP7=LutV[yIdx][uIdx][vIdx][2].
在一种实施方式中,不是使用左边相邻八分体(例如具有八分体索引(yIdx-1,uIdx,vIdx)的八分体)来预测当前八分体的模型参数,而是可以使用其他相邻八分体。例如,可以使用具有八分体索引(yIdx,uIdx-1,vIdx)、(yIdx,uIdx,vIdx-1)、(yIdx-1,uIdx-1,vIdx)、(yIdx-1,uIdx,vIdx-1)、(yIdx,uIdx-1,vIdx-1)、和/或(yIdx-1,uIdx-1,vIdx-1)的八分体。也可以通过组合来自这些相邻八分体的一个或多个预测变量来计算预测变量,以进一步改进精度。
在一种实施方式中,可以如这里所述实施用于3D LUT参数的熵编码方法。预测残差值可以被表示为resCoeff。resCoeff可以通过以下方式被编码:对resCoeff的绝对值的MSB进行指数哥伦布(Exp-Golomb)编码,对resCoeff的绝对值的剩余LSB进行7比特固定长度编码,以及如果resCoeff的绝对值是非零的则给符号设定一比特标志。更具体地,下表2是可以在实施方式中使用的语法表,其之后是语义,其中res_coeff_q可以表示MSB,res_coeff_r可以表示LSB,以及res_coeff_s可以表示符号。
表2.熵编码语法表
在表2中,res_coeff_q[yIdx][uIdx][vIdx][i][c]可以指定具有索引[yIdx][uIdx][vIdx][i][c]的色彩映射系数的残差的商。当不存在时,res_coeff_q的值可以推定为等于0。
在表2中,res_coeff_r[yIdx][uIdx][vIdx][i][c]可以指定具有索引[yIdx][uIdx][vIdx][i][c]的色彩映射系数的残差的余数。当不存在时,res_coeff_q的值可以被推定为等于0。
在表2中,res_coeff_s[yIdx][uIdx][vIdx][pIdx][cIdx]可以指定具有索引[yIdx][uIdx][vIdx][i][c]的色彩映射系数的残差的符号。当不存在时,res_coeff_s的值可以被推定为等于0。
为了重构resCoeff的值,res_coeff_q、res_coeff_r、和res_coeff_s可以以被组合在一起。更具体地,下面的解码过程可以用于重构色彩分量、参数、和八分体的预测残差。
变量CMResY[yIdx][uIdx][vIdx][i]、CMResU[yIdx][uIdx][vIdx][i]、和CMResV[yIdx][uIdx][vIdx][i]可以分别使用等式11、12和13得出,如下:
CMResY[yIdx][uIdx][vIdx][i]=(1-2*res_coeff_s[yIdx][uIdx][vIdx][i][0])*((res_coeff_q[yIdx][uIdx][vIdx][i][0]<<7)+res_coeff_r[yIdx][uIdx][vIdx][i][0])
(11)
CMResU[yIdx][uIdx][vIdx][i]=(1-2*res_coeff_s[yIdx][uIdx][vIdx][i][1])*((res_coeff_q[yIdx][uIdx][vIdx][i][1]<<7)+res_coeff_r[yIdx][uIdx][vIdx][i][1])
(12)
CMResV[yIdx][uIdx][vIdx][i]=(1-2*res_coeff_s[yIdx][uIdx][vIdx][i][2])*((res_coeff_q[yIdx][uIdx][vIdx][i][2]<<7)+res_coeff_r[yIdx][uIdx][vIdx][i][2])
(13)
LSB的数量可以固定为7。可替换地,可以使用LSB的不同数量。例如,当固定值为7以将预测残差resCoeff的量(例如绝对)值分成两个部分不是所期望的时,可以使用LSB的不同数量。resCoeff的量可以具有两个部分,整数部分和小数部分,但是这两个部分的分割点可以不是固定的且可以取决于CGS系统中两个因子的一个或两个,这两个因子是当前3DLUT的cm_res_quant_bits值和可以取决于输入位深和输出位深之间的增量的nMappingShift(n映射移位)值。在实施方式中,nMappingShift可以等于10减去outputDepth(输出深度)与inputDepth(输入深度)之差。
在一种实施方式中,用于表示resCoeff的量的总比特数可以被表示为N。resCoeff量的小数部分可以被表示为(nMappingShift-cm_res_quant_bits)比特数且resCoeff量的整数部分可以被表示为剩余的(N-nMappingShift+cm_res_quant_bits)比特数。
在一种实施方式中,可以是固定长度编码的LSB的长度可以被自适应选择。(nMappingShift-cm_res_quant_bits-cm_delta_flc_bits)的值可以用于确定可以是固定长度编码的LSB的数量,其中cm_delta_flc_bits可以是相对小的整数值,例如0、1、2或3。cm_delta_flc_bits的值可以由编码器/解码器预先选择或可以是固定的。cm_delta_flc_bits的值可以由编码器自适应选择且用信号被发送作为使用下面的语法表表3和语义的3DLUT表的部分。为了确定cm_delta_flc_bits,编码器可以针对cm_delta_flc_bits的被允许值(例如0到3)计数编码一些或所有模型参数、一些或所有八分体以及一些或所有色彩分量的一些或所有resCoeff值所需的比特数。该编码器可以选择最小化编码所有resCoeff值的总成本的cm_delta_flc_bits值。这种详尽搜索的复杂度在仅计数比特数时是非常小的,且可以不执行实际编码。
表3.语法表
在一种实施方式中,cm_res_quant_bits可以指定将被加到顶点残差值res_y,res_u和res_v的最低有效位的数量。针对每个色彩分量、每个参数和每个八分体的预测残差的重构可以如这里所述被修改。可以如下面等式14、15、16和17所示,得出变量CMResY[yIdx][uIdx][vIdx][i],CMResU[yIdx][uIdx][vIdx][i]、和CMResV[yIdx][uIdx][vIdx][i]:
nFLCBits=nMappingShift-res_quant_bits-cm_delta_ffc_bits (14)
CMResY[yIdx][uIdx][vIdx][i]=(1-2*res_coeff_s[yIdx][uIdx][vIdx][i][0])*((res_coeff_q[yIdx][uIdx][vIdx][i][0]<<nFLCBits)+res_coeff_r[yIdx][uIdx][vIdx][i][0])
(15)
CMResU[yIdx][uIdx][vIdx][i]=(1-2*res_coeff_s[yIdx][uIdx][vIdx][i][1])*((res_coeff_q[yIdx][uIdx][vIdx][i][1]<<nFLCBits)+res_coeff_r[yIdx][uIdx][vIdx][i][1])
(16)
CMResV[yIdx][uIdx][vIdx][i]=(1-2*res_coeff_s[yIdx][uIdx][vIdx][i][2])*((res_coeff_q[yIdx][uIdx][vIdx][i][2]<<nFLCBits)+res_coeff_r[yIdx][uIdx][vIdx][i][2])
(17)
图11A是在其中可以实施一个或更多个实施方式的示例通信系统的图示。通信系统100可以是向多个用户提供内容,例如语音、数据、视频、消息发送、广播等的多接入系统。通信系统100可以使多个无线用户通过系统资源共享(包括无线带宽)访问这些内容。例如,通信系统100可以使用一种或多种信道接入方法,例如码分多址(CDMA),时分多址(TDMA),频分多址(FDMA),正交FDMA(OFDMA),单载波FMDA(SC-FDMA)等。
图11A是在其中可以实施一个或更多个实施方式的示例通信系统100的图示。通信系统100可以是向多个用户提供内容,例如语音、数据、视频、消息发送、广播等的多接入系统。通信系统100可以使多个无线用户通过系统资源共享(包括无线带宽)访问这些内容。例如,通信系统100可以使用一种或多种信道接入方法,例如码分多址(CDMA),时分多址(TDMA),频分多址(FDMA),正交FDMA(OFDMA),单载波FMDA(SC-FDMA)等。
如图11A所示,通信系统100可以包括无线发射/接收单元(WTRU)102a、102b、102c、和/或102d(其通常或整体上被称为WTRU 102),无线电接入网(RAN)103/104/105,核心网络106/107/109,公共交换电话网(PSTN)108、因特网110和其他网络112。不过应该理解的是,公开的实施方式考虑到了任何数量的WTRU、基站、网络和/或网络元件。WTRU 102a、102b、102c、102d的每一个可以是配置为在无线环境中进行操作和/或通信的任何类型的设备。作为示例,可以将WTRU 102a、102b、102c、102d可以被配置为传送和/或接收无线信号,并可以包括用户设备(UE)、基站、固定或者移动用户单元、寻呼器、蜂窝电话、个人数字助理(PDA)、智能电话、笔记本电脑、上网本、个人计算机、无线传感器、消费电子产品等等。
通信系统100还可以包括基站114a和基站114b。基站114a、114b的每一个都可以是配置为与WTRU 102a、102b、102c、102d中的至少一个无线对接以便于接入一个或者更多个通信网络,例如核心网络106/107/109、因特网110和/或网络112的任何设备类型。作为示例,基站114a、114b可以是基站收发信台(BTS)、节点B、e节点B、家庭节点B、家庭eNB、站点控制器、接入点(AP)、无线路由器等等。虽然基站114a、114b的每一个被描述为单独的元件,但是应该理解的是,基站114a、114b可以包括任何数量互连的基站和/或网络元件。
基站114a可以是RAN 103/104/105的一部分,RAN 103/104/105还可以包括其他基站和/或网络元件(未示出),例如基站控制器(BSC)、无线电网络控制器(RNC)、中继节点等。可以将基站114a和/或基站114b配置为在特定地理区域之内传送和/或接收无线信号,该区域可以被称为小区(未示出)。小区还可以被划分为小区扇区。例如,与基站114a关联的小区可以划分为三个扇区。因此,在一种实施方式中,基站114a可以包括三个收发信机,即每一个用于小区的一个扇区。在另一种实施方式中,基站114a可以使用多输入多输出(MIMO)技术,因此可以将多个收发信机用于小区的每一个扇区。
基站114a、114b可以通过空中接口115/116/117与WTRU 102a、102b、102c、102d中的一个或者更多个通信,该空中接口115/116/117可以是任何合适的无线通信链路(例如,射频(RF)、微波、红外(IR)、紫外线(UV)、可见光等)。可以使用任何合适的无线电接入技术(RAT)来建立空中接口115/116/117。
更具体地,如上所述,通信系统100可以是多接入系统,并可以使用一种或者多种信道接入方案,例如CDMA、TDMA、FDMA、OFDMA、SC-FDMA等等。例如,RAN 103/104/105中的基站114a和WTRU 102a、102b、102c可以使用例如通用移动电信系统(UMTS)陆地无线电接入(UTRA)的无线电技术,其可以使用宽带CDMA(WCDMA)来建立空中接口115/116/117。WCDMA可以包括例如高速分组接入(HSPA)和/或演进的HSPA(HSPA+)的通信协议。HSPA可以包括高速下行链路分组接入(HSDPA)和/或高速上行链路分组接入(HSUPA)。
在另一种实施方式中,基站114a和WTRU 102a、102b、102c可以使用例如演进的UMTS陆地无线电接入(E-UTRA)的无线电技术,其可以使用长期演进(LTE)和/或高级LTE(LTE-A)来建立空中接口115/116/117。
在其他实施方式中,基站114a和WTRU 102a、102b、102c可以使用例如IEEE802.16(即,全球微波接入互操作性(WiMAX))、CDMA2000、CDMA20001X、CDMA2000EV-DO、暂行标准2000(IS-2000)、暂行标准95(IS-95)、暂行标准856(IS-856)、全球移动通信系统(GSM)、GSM演进的增强型数据速率(EDGE)、GSM EDGE(GERAN)等等的无线电技术。
图11A中的基站114b可以是无线路由器、家庭节点B、家庭e节点B或者接入点,例如,并且可以使用任何适当的RAT以方便局部区域中的无线连接,例如商业场所、住宅、车辆、校园等等。在一种实施方式中,基站114b和WTRU 102c、102d可以实施例如IEEE 802.11的无线电技术来建立无线局域网(WLAN)。在另一种实施方式中,基站114b和WTRU 102c、102d可以使用例如IEEE 802.15的无线电技术来建立无线个域网(WPAN)。在另一种实施方式中,基站114b和WTRU 102c、102d可以使用基于蜂窝的RAT(例如,WCDMA,CDMA2000,GSM,LTE,LTE-A等)来建立微微小区或毫微微小区。如图11A所示,基站114b可以具有到因特网110的直接连接。因此,基站114b可以不需要经由核心网络106/107/109而接入到因特网110。
RAN 103/104/105可以与核心网络106/107/109通信,所述核心网络106/107/109可以是被配置为向WTRU 102a、102b、102c、102d中的一个或更多个提供语音、数据、应用和/或基于网际协议的语音(VoIP)服务等的任何类型的网络。例如,核心网络106/107/109可以提供呼叫控制、计费服务、基于移动位置的服务、预付费呼叫、因特网连接、视频分配等和/或执行高级安全功能,例如用户认证。虽然图11A中未示出,应该理解的是,RAN103/104/105和/或核心网络106/107/109可以与使用和RAN 103/104/105相同的RAT或不同RAT的其他RAN进行直接或间接的通信。例如,除了连接到正在使用E-UTRA无线电技术的RAN 103/104/105之外,核心网络106/107/109还可以与使用GSM无线电技术的另一个RAN(未示出)通信。
核心网络106/107/109还可以充当WTRU 102a、102b、102c、102d接入到PSTN 108、因特网110和/或其他网络112的网关。PSTN 108可以包括提供普通老式电话服务(POTS)的电路交换电话网络。因特网110可以包括使用公共通信协议的互联计算机网络和设备的全球系统,所述协议例如有TCP/IP网际协议组中的传输控制协议(TCP)、用户数据报协议(UDP)和网际协议(IP)。网络112可以包括被其他服务提供商拥有和/或运营的有线或无线的通信网络。例如,网络112可以包括连接到一个或更多个RAN的另一个核心网络,该RAN可以使用和RAN 103/104/105相同的RAT或不同的RAT。
通信系统100中的WTRU 102a、102b、102c、102d的某些或全部可以包括多模式能力,即WTRU 102a、102b、102c、102d可以包括用于在不同无线链路上与不同无线网络进行通信的多个收发信机。例如,图11A中示出的WTRU 102c可被配置为与基站114a通信,所述基站114a可以使用基于蜂窝的无线电技术,以及与基站114b通信,所述基站114b可以使用IEEE802无线电技术。
图11B是WTRU 102示例的系统图。如图11B所示,WTRU 102可以包括处理器118、收发信机120、发射/接收元件122、扬声器/麦克风124、键盘126、显示器/触摸板128、不可移动存储器130、可移动存储器132、电源134、全球定位系统(GPS)芯片组136和其他外围设备138。应该理解的是,WTRU 102可以在保持与实施方式一致时,包括前述元件的任何子组合。而且,实施方式考虑了基站114a和114b,和/或基站114a和114b可以表示的节点(诸如但不局限于收发信台(BTS)、节点B、站点控制器、接入点(AP)、家庭节点B、演进型家庭节点B(e节点B)、家庭演进型节点B(HeNB)、家庭演进型节点B网关和代理节点等)可以包括图11B所描绘和这里描述的一些或所有元件。
处理器118可以是通用处理器、专用处理器、常规处理器、数字信号处理器(DSP)、多个微处理器、与DSP核相关联的一个或更多个微处理器、控制器、微控制器、专用集成电路(ASIC)、场可编程门阵列(FPGA)电路、任何其他类型的集成电路(IC)、状态机等等。处理器118可执行信号编码、数据处理、功率控制、输入/输出处理,和/或使WTRU 102运行于无线环境中的任何其他功能。处理器118可以耦合到收发信机120,所述收发信机120可耦合到发射/接收元件122。虽然图11B描述了处理器118和收发信机120是单独的部件,但是应该理解的是,处理器118和收发信机120可以一起集成在电子封装或芯片中。
发射/接收元件122可以被配置为通过空中接口115/116/117将信号发送到基站(例如,基站114a),或从基站(例如,基站114a)接收信号。例如,在一种实施方式中,发射/接收元件122可以是被配置为传送和/或接收RF信号的天线。在另一种实施方式中,发射/接收元件122可以是被配置为传送和/或接收例如IR、UV或可见光信号的发射器/检测器。在另一种实施方式中,发射/接收元件122可以被配置为传送和接收RF和光信号两者。应当理解,发射/接收元件122可以被配置为传送和/或接收无线信号的任何组合。
另外,虽然发射/接收元件122在图11B中描述为单独的元件,但是WTRU 102可以包括任意数量的发射/接收元件122。更具体的,WTRU 102可以使用例如MIMO技术。因此,在一种实施方式中,WTRU 102可以包括用于通过空中接口115/116/117传送和接收无线信号的两个或更多个发射/接收元件122(例如,多个天线)。
收发信机120可以被配置为调制要由发射/接收元件122传送的信号和/或解调由发射/接收元件122接收的信号。如上面提到的,WTRU 102可以具有多模式能力。因此,收发信机120可以包括使WTRU 102经由多个例如UTRA和IEEE 802.11的RAT通信的多个收发信机。
WTRU 102的处理器118可以耦合到下述设备,并且可以从下述设备中接收用户输入数据:扬声器/麦克风124、键盘126和/或显示器/触摸板128(例如,液晶显示器(LCD)显示单元或有机发光二极管(OLED)显示单元)。处理器118还可以输出用户数据到扬声器/麦克风124、键盘126和/或显示器/触摸板128。另外,处理器118可以从任何类型的适当的存储器访问信息,并且可以存储数据到任何类型的适当的存储器中,例如不可移除存储器130和/或可移除存储器132。不可移除存储器130可以包括随机存取存储器(RAM)、只读存储器(ROM)、硬盘或任何其他类型的存储器设备。可移除存储器132可以包括用户标识模块(SIM)卡、记忆棒、安全数字(SD)存储卡等等。在其他实施方式中,处理器118可以从在物理位置上没有位于WTRU 102上,例如位于服务器或家用计算机(未示出)上的存储器访问信息,并且可以将数据存储在该存储器中。
处理器118可以从电源134接收电能,并且可以被配置为分配和/或控制到WTRU102中的其他部件的电能。电源134可以是给WTRU 102供电的任何适当的设备。例如,电源134可以包括一个或更多个干电池(例如,镍镉(NiCd)、镍锌(NiZn)、镍氢(NiMH)、锂离子(Li-ion)等等),太阳能电池,燃料电池等等。
处理器118还可以耦合到GPS芯片组136,所述GPS芯片组136可以被配置为提供关于WTRU 102当前位置的位置信息(例如,经度和纬度)。另外,除来自GPS芯片组136的信息或作为其替代,WTRU 102可以通过空中接口115/116/17从基站(例如,基站114a、114b)接收位置信息和/或基于从两个或更多个邻近基站接收的信号的定时来确定其位置。应当理解,在保持实施方式的一致性的情况下,WTRU 102可以通过任何适当的位置确定方法获得位置信息。
处理器118可以耦合到其他外围设备138,所述外围设备138可以包括一个或更多个提供附加特性、功能、和/或有线或无线连接的软件和/或硬件模块。例如,外围设备138可以包括加速计、电子罗盘、卫星收发信机、数字相机(用于照片或视频)、通用串行总线(USB)端口、振动设备、电视收发信机、免提耳机、蓝牙模块、调频(FM)无线电单元、数字音乐播放器、媒体播放器、视频游戏机模块、因特网浏览器等等。
图11C是根据实施方式的RAN 103和核心网络106的系统图。如上面提到的,RAN103可使用UTRA无线电技术通过空中接口115与WTRU 102a、102b、102c通信。RAN 103还可以与核心网络106通信。如图11C所示,RAN 103可以包括节点B 140a、140b、140c,节点B 140a、140b、140c的每一个包括一个或更多个用于通过空中接口115与WTRU 102a、102b、102c通信的收发信机。节点B 140a、140b、140c的每一个可以与RAN 103内的特定小区(未示出)关联。RAN 103还可以包括RNC 142a、142b。应当理解的是,在保持实施方式的一致性的同时,RAN103可以包括任意数量的节点B和RNC。
如图11C所示,节点B 140a、140b可以与RNC 142a通信。此外,节点B 140c可以与RNC 142b通信。节点B 140a、140b、140c可以通过Iub接口分别与RNC 142a、142b通信。RNC142a、142b可以通过Iur接口相互通信。RNC 142a、142b的每一个可以被配置以控制其连接的各个节点B 140a、140b、140c。另外,RNC 142a、142b的每一个可以被配置以执行或支持其他功能,例如外环功率控制、负载控制、准入控制、分组调度、切换控制、宏分集、安全功能、数据加密等等。
图11C中所示的核心网络106可以包括媒体网关(MGW)144、移动交换中心(MSC)146、服务GPRS支持节点(SGSN)148、和/或网关GPRS支持节点(GGSN)150。尽管前述元件的每一个被描述为核心网络106的部分,应当理解的是,这些元件中的任何一个可以被不是核心网络运营商的实体拥有或运营。
RAN 103中的RNC 142a可以通过IuCS接口连接至核心网络106中的MSC 146。MSC146可以连接至MGW 144。MSC 146和MGW 144可以向WTRU 102a、102b、102c提供到电路交换网络(例如PSTN 108)的接入,以便于WTRU 102a、102b、102c和传统陆地线路通信设备之间的通信。
RAN 103中RNC 142a还可以通过IuPS接口连接至核心网络106中的SGSN 148。SGSN148可以连接至GGSN 150。SGSN 148和GGSN 150可以向WTRU 102a、102b、102c提供到分组交换网络(例如因特网110)的接入,以便于WTRU 102a、102b、102c和IP使能设备之间的通信。
如上所述,核心网络106还可以连接至网络112,网络112可以包括由其他服务提供商拥有或运营的其他有线或无线网络。
图11D是根据实施方式的RAN 104和核心网络107的系统图示。如上面提到的,RAN104可使用E-UTRA无线电技术通过空中接口116与WTRU 102a、102b、102c通信。RAN 104还可以与核心网络107通信。
RAN 104可包括e节点B 160a、160b、160c,但可以理解的是,RAN 104可以包括任意数量的e节点B而保持与各种实施方式的一致性。eNB 160a、160b、160c的每一个可包括一个或更多个用于通过空中接口116与WTRU 102a、102b、102c通信的收发信机。在一种实施方式中,e节点B 160a、160b、160c可以使用MIMO技术。因此,e节点B 160a例如可以使用多个天线来向WTRU 102a发送无线信号和/或从其接收无线信号。
e节点B 160a、160b、160c的每一个可以与特定小区关联(未示出),并可以被配置为处理无线资源管理决策、切换决策、在上行链路和/或下行链路中的用户调度等等。如图11D所示,e节点B 160a、160b、160c可以通过X2接口相互通信。
图11D中所示的核心网络107可以包括移动性管理实体(MME)162、服务网关164、和/或分组数据网络(PDN)网关166。虽然前述单元的每一个被描述为核心网络107的一部分,应当理解的是,这些单元中的任意一个可以由除了核心网络运营商之外的实体拥有和/或运营。
MME 162可以经由S1接口连接到RAN 104中的e节点B 160a、160b、160c的每一个,并可以作为控制节点。例如,MME 162可以负责WTRU 102a、102b、102c的用户认证、承载激活/去激活、在WTRU 102a、102b、102c的初始附着期间选择特定服务网关等等。MME 162还可以提供控制平面功能,用于在RAN 104和使用例如GSM或者WCDMA的其他无线电技术的其他RAN(未示出)之间切换。
服务网关164可以经由S1接口连接到RAN 104中的e节点160a、160b、160c的每一个。服务网关164通常可以向/从WTRU 102a、102b、102c路由和转发用户数据分组。服务网关164还可以执行其他功能,例如在eNB间切换期间锚定用户平面、当下行链路数据对于WTRU102a、102b、102c可用时触发寻呼、管理和存储WTRU 102a、102b、102c的上下文(context)等等。
服务网关164还可以连接到PDN网关166,PDN网关166可以向WTRU 102a、102b、102c提供到分组交换网络(例如因特网110)的接入,以便于WTRU 102a、102b、102c与IP使能设备之间的通信。
核心网络107可以促成与其他网络的通信。例如,核心网络107可以向WTRU 102a、102b、102c提供到电路交换网络(例如PSTN 108)的接入,以便于WTRU 102a、102b、102c与传统陆地线路通信设备之间的通信。例如,核心网络107可以包括IP网关(例如IP多媒体子系统(IMS)服务器),或者与之通信,该IP网关作为核心网络107与PSTN 108之间的接口。另外,核心网络107可以向WTRU 102a、102b、102c提供到网络112的接入,该网络112可以包括被其他服务提供商拥有和/或运营的其他有线或无线网络。
图11E是根据实施方式的RAN 105和核心网络109的系统图示。RAN 105可以是使用IEEE 802.16无线电技术通过空中接口117与WTRU 102a、102b、102c进行通信的接入服务网络(ASN)。如下面进一步讨论的,WTRU 102a、102b、102c,RAN 105和核心网络109的不同功能实体之间的通信链路可以被定义为参考点。
如图11E所示,RAN 105可以包括基站180a、180b、180c和ASN网关182,但应当理解的是,RAN 105可以包括任意数量的基站和ASN网关而与实施方式保持一致。基站180a、180b、180c的每一个可以与RAN 105中特定小区(未示出)关联并可以包括一个或更多个通过空中接口117与WTRU 102a、102b、102c通信的收发信机。在一个实施方式中,基站180a、180b、180c可以使用MIMO技术。因此,基站180a例如使用多个天线来向WTRU 102a发送无线信号,或从其接收无线信号。基站180a、180b、180c可以提供移动性管理功能,例如呼叫切换(handoff)触发、隧道建立、无线电资源管理,业务分类、服务质量(QoS)策略执行等等。ASN网关182可以充当业务聚集点,并且负责寻呼、缓存用户简档、路由到核心网络109等等。
WTRU 102a、102b、102c和RAN 105之间的空中接口117可以被定义为使用IEEE802.16规范的R1参考点。另外,WTRU 102a、102b、102c的每一个可以与核心网络109建立逻辑接口(未示出)。WTRU 102a、102b、102c和核心网络109之间的逻辑接口可以定义为R2参考点,其可以用于认证、授权、IP主机(host)配置管理和/或移动性管理。
基站180a、180b、180c的每一个之间的通信链路可以定义为包括便于WTRU切换和基站间转移数据的协议的R8参考点。基站180a、180b、180c和ASN网关182之间的通信链路可以定义为R6参考点。R6参考点可以包括用于促进基于与WTRU 102a、102b、102c的每一个关联的移动性事件的移动性管理的协议。
如图11E所示,RAN 105可以连接至核心网络109。RAN 105和核心网络109之间的通信链路可以定义为包括例如便于数据转移和移动性管理能力的协议的R3参考点。核心网络109可以包括移动IP本地代理(MIP-HA)184,认证、授权、计费(AAA)服务器186、和网关188。尽管前述的每个元件被描述为核心网络109的部分,应当理解的是,这些元件中的任意一个可以由不是核心网络运营商的实体拥有或运营。
MIP-HA可以负责IP地址管理,并可以使WTRU 102a、102b、102c在不同ASN和/或不同核心网络之间漫游。MIP-HA 184可以向WTRU 102a、102b、102c提供分组交换网络(例如因特网110)的接入,以促进WTRU 102a、102b、102c和IP使能设备之间的通信。AAA服务器186可以负责用户认证和支持用户服务。网关188可促进与其他网络互通。例如,网关188可以向WTRU 102a、102b、102c提供电路交换网络(例如PSTN 108)的接入,以促进WTRU 102a、102b、102c和传统陆地线路通信设备之间的通信。此外,网关188可以向WTRU 102a、102b、102c提供网络112,其可以包括由其他服务提供商拥有或运营的其他有线或无线网络。
尽管未在图11E中示出,应当理解的是,RAN 105可以连接至其他ASN,并且核心网络109可以连接至其他核心网络。RAN 105和其他ASN之间的通信链路可以定义为R4参考点,其可以包括协调RAN 105和其他ASN之间的WTRU 102a、102b、102c的移动性的协议。核心网络109和其他核心网络之间的通信链路可以定义为R5参考点,其可以包括促进本地核心网络和被访问核心网络之间的互通的协议。
虽然上面以特定的组合描述了特征和元件,但是本领域普通技术人员可以理解,每个特征或元件可以单独的使用或与其他的特征和元件进行组合使用。此外,这里描述的方法可以用计算机程序、软件或固件实现,其可包含到由计算机或处理器执行的计算机可读介质中。计算机可读介质的示例包括电子信号(通过有线或无线连接传送)和计算机可读存储介质。计算机可读存储介质的示例包括,但不限制为,只读存储器(ROM)、随机存取存储器(RAM)、寄存器、缓冲存储器、半导体存储器设备、磁性介质(例如内部硬盘和可移动磁盘)、磁光介质和光介质(例如CD-ROM盘和数字通用盘(DVD))。与软件关联的处理器可用于实现在WTRU、UE、终端、基站、RNC或任何主计算机中使用的射频收发信机。

Claims (14)

1.一种在视频解码中使用的用于解码3维查找表参数的方法,该方法包括:
在视频解码器处接收所述3维查找表参数,该3维查找表参数包括关于与所述3维查找表的色彩映射系数相关联的预测残差值的最高有效位的指示、关于所述预测残差值的最低有效位的指示、以及指示所述预测残差值的固定长度编码的最低有效位的量的固定长度编码位量指示;
基于所述固定长度编码位量指示,确定所述固定长度编码的最低有效位的量;
基于所述固定长度编码的最低有效位的量,解码所述关于所述预测残差值的最低有效位的指示,以生成所述预测残差值的所述最低有效位;
基于所述关于所述预测残差值的最高有效位的指示以及所述固定长度编码的最低有效位的量,确定所述预测残差值的所述最高有效位;以及
基于所述预测残差值的所述最高有效位和所述预测残差值的所述最低有效位来组合与所述色彩映射系数相关联的所述预测残差值。
2.根据权利要求1所述的方法,其中被固定长度编码的所述预测残差值的所述最低有效位的所述量是变量。
3.根据权利要求1所述的方法,其中,该方法还包括:
接收所述预测残差值的符号;以及
还使用所述预测残差值的所述符号来组合所述预测残差值。
4.一种无线发射/接收单元WTRU,该WTRU包括:
存储器,用于存储程序;以及
处理器,被配置成执行存储在所述存储器上的所述程序以实施以下操作:
接收3维查找表参数,该3维查找表参数包括关于与所述3维查找表的色彩映射系数相关联的预测残差值的最高有效位的指示、关于所述预测残差值的最低有效位的指示、以及指示所述预测残差值的固定长度编码的最低有效位的量的固定长度编码位量指示;
基于所述固定长度编码位量指示,确定所述固定长度编码的最低有效位的量;
基于所述固定长度编码的最低有效位的量,解码所述关于所述预测残差值的最低有效位的指示,以生成所述预测残差值的所述最低有效位;
基于所述关于所述预测残差值的最高有效位的指示以及所述固定长度编码的最低有效位的量,确定所述预测残差值的所述最高有效位;以及
基于所述预测残差值的所述最高有效位和所述预测残差值的所述最低有效位来组合与所述色彩映射系数相关联的所述预测残差值。
5.根据权利要求4所述的WTRU,其中被固定长度编码的所述预测残差值的所述最低有效位的所述量是变量。
6.根据权利要求4所述的WTRU,其中所述处理器还被配置成执行存储在所述存储器上的所述程序以实施以下操作:
接收所述预测残差值的符号;以及
还使用所述预测残差值的所述符号来组合所述预测残差值。
7.一种在视频编码中使用的用于编码3维查找表参数的方法,该方法包括:
在视频编码器处确定与所述3维查找表的色彩映射系数相关联的预测残差值;
在所述视频编码器处基于与编码所述预测残差值相关联的成本来选择将被固定长度编码的所述预测残差值的最低有效位的量;
在所述视频编码器处对固定长度编码位量指示进行编码,该指示表示所选择的将被固定长度编码的所述预测残差值的最低有效位的量;
在所述视频编码器处基于所述预测残差值的最高有效位以及所选择的将被固定长度编码的所述预测残差值的最低有效位的量,对关于所述预测残差值的所述最高有效位的指示进行编码;以及
在所述视频编码器处基于所述预测残差值的最低有效位以及所选择的将被固定长度编码的所述预测残差值的最低有效位的量,对关于所述预测残差值的所述最低有效位的指示进行固定长度编码。
8.根据权利要求7所述的方法,其中该方法还包括:
确定3维查找表数据,且将被固定长度编码的所述预测残差值的最低有效位的所述量进一步基于该3维查找表数据而被选择。
9.根据权利要求8所述的方法,其中选择将被固定长度编码的所述预测残差值的最低有效位的所述量还包括:
基于第一固定长度编码位量,确定编码所述3维查找表数据所需的第一比特量;
基于第二固定长度编码位量,确定编码所述3维查找表数据所需的第二比特量;以及
基于所述第一比特量和所述第二比特量,选择所述第一固定长度编码位量和所述第二固定长度编码位量中的一者作为将被固定长度编码的所述预测残差值的最低有效位的所述量。
10.根据权利要求9所述的方法,其中与编码所述3维查找表数据所需的较少比特相关联的所述固定长度编码位量被选择。
11.一种无线发射/接收单元WTRU,该WTRU包括:
存储器,用于存储程序;以及
处理器,被配置成执行存储在所述存储器上的所述程序以实施以下操作:
确定与3维查找表的色彩映射系数相关联的预测残差值;
基于与编码所述预测残差值相关联的成本来选择将被固定长度编码的所述预测残差值的最低有效位的量;
对固定长度编码位量指示进行编码,该指示表示所选择的将被固定长度编码的所述预测残差值的最低有效位的量;
基于所述预测残差值的最高有效位以及所选择的将被固定长度编码的所述预测残差值的最低有效位的量,对关于所述预测残差值的所述最高有效位的指示进行编码;以及
基于所述预测残差值的最低有效位以及所选择的将被固定长度编码的所述预测残差值的最低有效位的量,对关于所述预测残差值的所述最低有效位的指示进行固定长度编码。
12.根据权利要求11所述的WTRU,其中所述处理器还被配置成执行存储在所述存储器上的所述程序以实施以下操作:
确定3维查找表数据,且将被固定长度编码的所述预测残差值的最低有效位的所述量进一步基于该3维查找表数据而被选择。
13.根据权利要求12所述的WTRU,其中所述处理器还被配置成执行存储在所述存储器上的所述程序以实施以下操作:
基于第一固定长度编码位量,确定编码所述3维查找表数据所需的第一比特量;
基于第二固定长度编码位量,确定编码所述3维查找表数据所需的第二比特量;以及
基于所述第一比特量和所述第二比特量,选择所述第一固定长度编码位量和所述第二固定长度编码位量中的一者作为将被固定长度编码的所述预测残差值的最低有效位的所述量。
14.根据权利要求11所述的WTRU,其中与编码所述3维查找表数据所需的较少比特相关联的所述固定长度编码位量被选择。
CN201580033151.XA 2014-06-19 2015-06-17 用于基于三维色彩映射模型参数优化的系统和方法 Active CN106664410B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911086942.5A CN110913217B (zh) 2014-06-19 2015-06-17 用于基于三维色彩映射模型参数优化的系统和方法

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201462014610P 2014-06-19 2014-06-19
US62/014,610 2014-06-19
US201462017743P 2014-06-26 2014-06-26
US62/017,743 2014-06-26
PCT/US2015/036311 WO2015195849A1 (en) 2014-06-19 2015-06-17 Systems and methods for model parameter optimization in three dimensional based color mapping

Related Child Applications (1)

Application Number Title Priority Date Filing Date
CN201911086942.5A Division CN110913217B (zh) 2014-06-19 2015-06-17 用于基于三维色彩映射模型参数优化的系统和方法

Publications (2)

Publication Number Publication Date
CN106664410A CN106664410A (zh) 2017-05-10
CN106664410B true CN106664410B (zh) 2019-12-03

Family

ID=53496976

Family Applications (2)

Application Number Title Priority Date Filing Date
CN201911086942.5A Active CN110913217B (zh) 2014-06-19 2015-06-17 用于基于三维色彩映射模型参数优化的系统和方法
CN201580033151.XA Active CN106664410B (zh) 2014-06-19 2015-06-17 用于基于三维色彩映射模型参数优化的系统和方法

Family Applications Before (1)

Application Number Title Priority Date Filing Date
CN201911086942.5A Active CN110913217B (zh) 2014-06-19 2015-06-17 用于基于三维色彩映射模型参数优化的系统和方法

Country Status (9)

Country Link
US (2) US10154286B2 (zh)
EP (1) EP3158742A1 (zh)
JP (2) JP6401309B2 (zh)
KR (2) KR102284995B1 (zh)
CN (2) CN110913217B (zh)
BR (1) BR112016029843A8 (zh)
RU (1) RU2017101574A (zh)
TW (1) TWI689196B (zh)
WO (1) WO2015195849A1 (zh)

Families Citing this family (39)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9530226B2 (en) * 2014-02-18 2016-12-27 Par Technology Corporation Systems and methods for optimizing N dimensional volume data for transmission
US9893831B2 (en) * 2015-07-31 2018-02-13 Hughes Network Systems, Llc Congestion control for Scrambled Coded Multiple Access (SCMA)
US10368107B2 (en) * 2016-08-15 2019-07-30 Qualcomm Incorporated Intra video coding using a decoupled tree structure
JP6769231B2 (ja) * 2016-10-17 2020-10-14 富士通株式会社 動画像符号化装置、動画像符号化方法、動画像復号装置、動画像復号方法、及び動画像符号化用コンピュータプログラムならびに動画像復号用コンピュータプログラム
US10999602B2 (en) 2016-12-23 2021-05-04 Apple Inc. Sphere projected motion estimation/compensation and mode decision
US11259046B2 (en) 2017-02-15 2022-02-22 Apple Inc. Processing of equirectangular object data to compensate for distortion by spherical projections
US10924747B2 (en) 2017-02-27 2021-02-16 Apple Inc. Video coding techniques for multi-view video
US11093752B2 (en) 2017-06-02 2021-08-17 Apple Inc. Object tracking in multi-view video
US10754242B2 (en) 2017-06-30 2020-08-25 Apple Inc. Adaptive resolution and projection format in multi-direction video
GB2574575A (en) * 2018-04-27 2019-12-18 V Nova Int Ltd Video decoder chipset
CN110662053B (zh) 2018-06-29 2022-03-25 北京字节跳动网络技术有限公司 使用查找表的视频处理方法、装置和存储介质
WO2020003280A1 (en) 2018-06-29 2020-01-02 Beijing Bytedance Network Technology Co., Ltd. Which lut to be updated or no updating
BR112020024202A2 (pt) 2018-06-29 2021-02-17 Beijing Bytedance Network Technology Co., Ltd. método de processamento de dados de vídeo, aparelho de processamento de vídeo e meios de armazenamento e gravação legíveis por computador não transitório
KR20240005240A (ko) 2018-06-29 2024-01-11 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 Lut에서의 모션 후보들의 검사 순서
WO2020003284A1 (en) 2018-06-29 2020-01-02 Beijing Bytedance Network Technology Co., Ltd. Interaction between lut and amvp
KR102660666B1 (ko) 2018-06-29 2024-04-26 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 Lut들을 업데이트하기 위한 조건들
KR20210024502A (ko) 2018-06-29 2021-03-05 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 Hmvp 후보를 병합/amvp에 추가할 때의 부분/풀 프루닝
KR20210025537A (ko) 2018-06-29 2021-03-09 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 하나 또는 다수의 룩업 테이블들을 사용하여 이전에 코딩된 모션 정보를 순서대로 저장하고 이를 사용하여 후속 블록들을 코딩하는 개념
EP4307679A2 (en) 2018-07-02 2024-01-17 Beijing Bytedance Network Technology Co., Ltd. Luts with intra prediction modes and intra mode prediction from non-adjacent blocks
TWI820211B (zh) 2018-09-12 2023-11-01 大陸商北京字節跳動網絡技術有限公司 取決於總數減去k的開始檢查hmvp候選的條件
EP3861736A4 (en) 2018-11-06 2022-03-30 Beijing Bytedance Network Technology Co., Ltd. POSITION DEPENDENT INTRAPREDICTION
WO2020108591A1 (en) 2018-12-01 2020-06-04 Beijing Bytedance Network Technology Co., Ltd. Parameter derivation for intra prediction
WO2020114445A1 (en) 2018-12-07 2020-06-11 Beijing Bytedance Network Technology Co., Ltd. Context-based intra prediction
EP3900347A2 (en) * 2018-12-21 2021-10-27 Vid Scale, Inc. Methods, architectures, apparatuses and systems directed to improved linear model estimation for template based video coding
EP3888355A4 (en) 2019-01-10 2022-03-23 Beijing Bytedance Network Technology Co., Ltd. LOOKUP TABLE UPDATE INVOCATION
CN113383554B (zh) 2019-01-13 2022-12-16 北京字节跳动网络技术有限公司 LUT和共享Merge列表之间的交互
WO2020147772A1 (en) 2019-01-16 2020-07-23 Beijing Bytedance Network Technology Co., Ltd. Motion candidates derivation
AU2020226565C1 (en) 2019-02-22 2024-01-11 Beijing Bytedance Network Technology Co., Ltd. Neighbouring sample selection for intra prediction
CN115967810A (zh) 2019-02-24 2023-04-14 抖音视界有限公司 对视频数据进行编解码的方法、设备及计算机可读介质
CN113615193A (zh) 2019-03-22 2021-11-05 北京字节跳动网络技术有限公司 Merge列表构建和其他工具之间的交互
WO2020192642A1 (en) 2019-03-24 2020-10-01 Beijing Bytedance Network Technology Co., Ltd. Conditions in parameter derivation for intra prediction
WO2020228833A1 (en) * 2019-05-16 2020-11-19 Beijing Bytedance Network Technology Co., Ltd. Adaptive resolution change in video coding
WO2020253864A1 (en) 2019-06-21 2020-12-24 Beijing Bytedance Network Technology Co., Ltd. Selective enablement of adaptive in-loop color-space transform in video coding
WO2021088951A1 (en) 2019-11-07 2021-05-14 Beijing Bytedance Network Technology Co., Ltd. Quantization properties of adaptive in-loop color-space transform for video coding
WO2021118556A1 (en) 2019-12-11 2021-06-17 Google Llc Color calibration of display modules using a reduced number of display characteristic measurements
CN115486063A (zh) * 2020-03-30 2022-12-16 字节跳动有限公司 视频编解码中的一致性窗口参数
US11726941B2 (en) 2021-08-03 2023-08-15 Vertiv It Systems, Inc. System and method for modular management gateway apparatus
WO2023014390A1 (en) * 2021-08-03 2023-02-09 Vertiv It Systems, Inc. System and method for modular management gateway apparatus
KR102617175B1 (ko) * 2022-08-04 2023-12-27 주식회사 라온텍 화면 왜곡 보정이 가능한 디스플레이 장치 및 그의 화면 왜곡 보정 방법

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103096066A (zh) * 2011-11-04 2013-05-08 吴秀美 视频数据的解码设备

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0974934B1 (en) * 1998-07-24 2010-03-03 Canon Kabushiki Kaisha Image processing apparatus and method
EP1331824A3 (en) * 2001-11-27 2005-09-14 Samsung Electronics Co., Ltd. Method and apparatus for encoding and decoding key value data of coordinate interpolator
JP2004120217A (ja) 2002-08-30 2004-04-15 Canon Inc 画像処理装置、画像処理方法、プログラムおよび記録媒体
KR100970621B1 (ko) 2003-05-26 2010-07-15 엘지전자 주식회사 영상 보정 장치
JP4067532B2 (ja) 2004-05-28 2008-03-26 シャープ株式会社 色変換装置、画像形成装置、色変換方法、コンピュータプログラム及び記録媒体
JP4479683B2 (ja) 2006-03-16 2010-06-09 セイコーエプソン株式会社 色補正回路およびそれを備えた画像表示装置
US20070223823A1 (en) * 2006-03-21 2007-09-27 Nokia Corporation Method, apparatus, system and computer program product for providing compression of image files
CN101663896A (zh) * 2007-04-23 2010-03-03 汤姆森许可贸易公司 用于对视频数据进行编码的方法和设备、用于对编码的视频数据和编码的视频信号进行解码的方法和设备
TW200845723A (en) * 2007-04-23 2008-11-16 Thomson Licensing Method and apparatus for encoding video data, method and apparatus for decoding encoded video data and encoded video signal
EP2051527A1 (en) * 2007-10-15 2009-04-22 Thomson Licensing Enhancement layer residual prediction for bit depth scalability using hierarchical LUTs
US8275208B2 (en) 2008-07-02 2012-09-25 Samsung Electronics Co., Ltd. Method and apparatus for encoding and decoding image using image separation based on bit location
KR20120114812A (ko) 2011-04-08 2012-10-17 삼성디스플레이 주식회사 액정 표시 장치, 액정 표시 장치를 위한 영상 신호 보정 장치 및 영상 신호 보정 방법
JP2013009272A (ja) * 2011-06-27 2013-01-10 Toshiba Corp 画像符号化装置、方法及びプログラム、並びに、画像復号化装置、方法及びプログラム
US9948938B2 (en) * 2011-07-21 2018-04-17 Texas Instruments Incorporated Methods and systems for chroma residual data prediction
TWI575933B (zh) * 2011-11-04 2017-03-21 杜比實驗室特許公司 階層式視覺動態範圍編碼中之層分解技術
EP2810438A1 (en) 2012-01-31 2014-12-10 VID SCALE, Inc. Reference picture set (rps) signaling for scalable high efficiency video coding (hevc)
US20160050426A1 (en) 2013-01-04 2016-02-18 Samsung Electronics Co., Ltd. Lossless-coding-mode video encoding method and device, and decoding method and device
JP6353896B2 (ja) * 2013-04-08 2018-07-04 ドルビー・インターナショナル・アーベー ルックアップ・テーブルを符号化する方法および復号する方法、並びに対応する装置
GB2516021A (en) * 2013-07-05 2015-01-14 Canon Kk Method, device, and computer program for pre-encoding and post-decoding high bit-depth content in video encoder and decoder
US9648332B2 (en) * 2013-10-28 2017-05-09 Qualcomm Incorporated Adaptive inter-color component residual prediction

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103096066A (zh) * 2011-11-04 2013-05-08 吴秀美 视频数据的解码设备

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
Bordes P et al..Color Mapping SEI message.《14.JCT-VC MEETING;25-7-2013-2-8-2013;VIENNA;(JOINT COLLABORATIVE TEAM ON VIDEO CODING OF ISO/IEC JTC1/SC29/WG11 AND ITU-T SG.16;no. JCTVC-N0180-v3》.2013, *
Lossless compression of predicted floating-point geometry;Martin Isenburg et al.;《ELSEVIER,Computer-Aided Design》;20050701;第1、4节 *
rate-distortion methods for image and video compression;Ortega A et al.;《IEEE Signal Processing Magazine 》;19981101;全文 *

Also Published As

Publication number Publication date
TW201620304A (zh) 2016-06-01
WO2015195849A1 (en) 2015-12-23
JP6694031B2 (ja) 2020-05-13
JP6401309B2 (ja) 2018-10-10
RU2017101574A3 (zh) 2018-07-19
EP3158742A1 (en) 2017-04-26
KR102284995B1 (ko) 2021-08-04
BR112016029843A8 (pt) 2021-07-06
KR20170021845A (ko) 2017-02-28
JP2019013029A (ja) 2019-01-24
US10841615B2 (en) 2020-11-17
TWI689196B (zh) 2020-03-21
JP2017527153A (ja) 2017-09-14
BR112016029843A2 (pt) 2017-08-22
CN106664410A (zh) 2017-05-10
RU2017101574A (ru) 2018-07-19
KR20180088515A (ko) 2018-08-03
CN110913217B (zh) 2022-01-25
US20150373372A1 (en) 2015-12-24
US20190052904A1 (en) 2019-02-14
KR101884408B1 (ko) 2018-08-02
US10154286B2 (en) 2018-12-11
CN110913217A (zh) 2020-03-24

Similar Documents

Publication Publication Date Title
CN106664410B (zh) 用于基于三维色彩映射模型参数优化的系统和方法
CN105556943B (zh) 提供3d查找表编码以用于色域可伸缩性的系统和方法
CN105830440B (zh) 使用插值进行亮度和色度的相位对准的色域可伸缩视频编码设备及方法
JP2023011047A (ja) ビデオコーディングにおけるクロマ信号強調のためのクロスプレーンフィルタリング
CN104429071B (zh) 用于多层视频编码的编解码器架构
CN105122805B (zh) 针对多层视频编码的层间参考图片增强的设备
KR101840915B1 (ko) 스케일러블 비디오 코딩을 위한 모션 정보 시그널링
CN107211147A (zh) 用于非4:4:4屏幕内容视频的调色板编码
CN105765979B (zh) 用于可缩放视频编码的层间预测
CN110572662A (zh) 用于多层视频编码的组合可分级性处理

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant