CN105874793B - 用于多层视频编码的组合可分级性处理的方法和设备 - Google Patents
用于多层视频编码的组合可分级性处理的方法和设备 Download PDFInfo
- Publication number
- CN105874793B CN105874793B CN201480055145.XA CN201480055145A CN105874793B CN 105874793 B CN105874793 B CN 105874793B CN 201480055145 A CN201480055145 A CN 201480055145A CN 105874793 B CN105874793 B CN 105874793B
- Authority
- CN
- China
- Prior art keywords
- depth
- lower bit
- output
- bit
- luma component
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 117
- 239000010410 layer Substances 0.000 claims abstract description 112
- 239000011229 interlayer Substances 0.000 claims abstract description 96
- 230000008569 process Effects 0.000 claims abstract description 86
- 238000006243 chemical reaction Methods 0.000 claims abstract description 69
- 238000005070 sampling Methods 0.000 claims abstract description 69
- 238000013507 mapping Methods 0.000 claims abstract description 55
- OSWPMRLSEDHDFF-UHFFFAOYSA-N methyl salicylate Chemical compound COC(=O)C1=CC=CC=C1O OSWPMRLSEDHDFF-UHFFFAOYSA-N 0.000 claims abstract description 52
- 241000023320 Luma <angiosperm> Species 0.000 claims abstract description 51
- 230000004438 eyesight Effects 0.000 claims abstract description 36
- 238000012545 processing Methods 0.000 description 101
- 238000004891 communication Methods 0.000 description 45
- 238000005516 engineering process Methods 0.000 description 30
- 230000011664 signaling Effects 0.000 description 25
- 230000009021 linear effect Effects 0.000 description 16
- 230000006870 function Effects 0.000 description 14
- 238000010586 diagram Methods 0.000 description 13
- 230000033001 locomotion Effects 0.000 description 10
- 230000001965 increasing effect Effects 0.000 description 6
- 230000005540 biological transmission Effects 0.000 description 5
- 230000001419 dependent effect Effects 0.000 description 5
- 238000013461 design Methods 0.000 description 5
- 230000001737 promoting effect Effects 0.000 description 5
- 238000013139 quantization Methods 0.000 description 5
- 238000000926 separation method Methods 0.000 description 5
- 230000000007 visual effect Effects 0.000 description 4
- 230000033228 biological regulation Effects 0.000 description 3
- 230000001413 cellular effect Effects 0.000 description 3
- 230000008859 change Effects 0.000 description 3
- 230000000149 penetrating effect Effects 0.000 description 3
- 230000002093 peripheral effect Effects 0.000 description 3
- 230000009467 reduction Effects 0.000 description 3
- 238000012549 training Methods 0.000 description 3
- 238000012952 Resampling Methods 0.000 description 2
- 238000000429 assembly Methods 0.000 description 2
- 230000000712 assembly Effects 0.000 description 2
- 238000013475 authorization Methods 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 230000005611 electricity Effects 0.000 description 2
- 230000002708 enhancing effect Effects 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 239000012530 fluid Substances 0.000 description 2
- 229910001416 lithium ion Inorganic materials 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- QELJHCBNGDEXLD-UHFFFAOYSA-N nickel zinc Chemical compound [Ni].[Zn] QELJHCBNGDEXLD-UHFFFAOYSA-N 0.000 description 2
- 238000010606 normalization Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 125000003367 polycyclic group Chemical group 0.000 description 2
- 230000002123 temporal effect Effects 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 239000013598 vector Substances 0.000 description 2
- HBBGRARXTFLTSG-UHFFFAOYSA-N Lithium ion Chemical compound [Li+] HBBGRARXTFLTSG-UHFFFAOYSA-N 0.000 description 1
- 229910005580 NiCd Inorganic materials 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 239000003795 chemical substances by application Substances 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 230000009849 deactivation Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000000151 deposition Methods 0.000 description 1
- 238000004100 electronic packaging Methods 0.000 description 1
- 239000004744 fabric Substances 0.000 description 1
- 238000013467 fragmentation Methods 0.000 description 1
- 238000006062 fragmentation reaction Methods 0.000 description 1
- 239000000446 fuel Substances 0.000 description 1
- 230000004377 improving vision Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000005055 memory storage Effects 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 239000000047 product Substances 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T1/00—General purpose image data processing
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/597—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/90—Determination of colour characteristics
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/186—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/187—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a scalable video layer
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/30—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/513—Processing of motion vectors
- H04N19/517—Processing of motion vectors by encoding
- H04N19/52—Processing of motion vectors by encoding by predictive encoding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/30—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
- H04N19/34—Scalability techniques involving progressive bit-plane based encoding of the enhancement layer, e.g. fine granular scalability [FGS]
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
- Controls And Circuits For Display Device (AREA)
- Color Image Communication Systems (AREA)
- Image Processing (AREA)
- Facsimile Image Signal Circuits (AREA)
Abstract
一种视频编码系统可以通过在视频信号的基础层上同时执行反向色调映射和色域转换可分级性过程来执行层间处理。然后该视频编码系统可以在处理后的基础层执行上采样。处理后的基础层可以被用来对增强层进行编码。比特深度可以被考虑用于色域转换模块。色度和/或亮度比特深度可以与色度和/或亮度的各自较大或较小比特深度值对齐。
Description
交叉引用
本申请要求2013年10月7日提交的美国临时专利申请No.61/887,782,以及2014年9月3日提交的美国临时专利申请No.62/045,495的权益,所述申请的内容以整体引用的方式结合于此。
背景技术
随着数字显示技术的演进,显示分辨率持续提高。例如,近来体现可用的最佳商业显示分辨率的高清(HD)数字视频流即将被超高清(UHD)显示(例如4K显示,8K显示等等)所超越。
视频编码系常被用于压缩数字视频信号,例如以降低消耗的存储空间和 /或降低与该类信号相关联的传输带宽消耗。业已表明,可分级视频编码 (SVC)能改善在异构网络上在具有不同能力的设备上运行的视频应用的体验质量。可分级视频编码相比于非可分级视频编码技术可消耗更少的资源 (例如通信网络带宽、存储等)。
已知的SVC视频编码实现(例如利用空间可分级性)已经被证明对于 HD视频信号的编码是有效的,但是在处理扩展超过HD分辨率的数字视频信号(例如UHD视频信号)时存在缺陷。
发明内容
一种视频编码系统可以执行层间处理。该视频编码系统可以在视频信号的视频信号层同时执行反向(inverse)色调映射和色域转换可分级性过程。视频编码系统可以在视频信号层执行上采样。例如上采样过程可以在组合的反向色调映射和色域转换可分级性过程之后执行。此处使用的编码包括编码和/或解码。
例如,组合处理模块可以被用于在诸如基础层的较低层同时执行反向色调映射和色域转换可分级性过程。组合处理模块可以采用输入亮度组分的采样比特深度和输入色度组分的采样比特深度作为输入,并且可以基于该输入计算输出亮度组分的采样比特深度和输出色度组分的采样比特深度。组合处理模块的输出(例如,包含输出亮度组分及输出色度组分的视频)、和/或输出的指示(例如,指示所述输出亮度及色度组分的采样比特深度的一个或多个参数)、和/或所述输出的指示可以被发送到上采样处理模块用以上采样。处理后的基础层可以被用于对增强层进行编码。处理后的基础层可以被用以预测增强层。
视频编码系统可以执行从第一色彩空间到第二色彩空间的色彩转换。例如,可以取得(retrieve)针对像素的诸如色度组分和/或亮度组分的色彩组分值。色彩组分值可以用不同比特深度来表示。比特深度可以被对齐(align),并且可使用交叉色彩(cross-color)组分模型将色彩组分值从第一色彩空间转换到第二色彩空间。该对齐可以基于输入色度比特深度、输入亮度比特深度、最小输入比特深度和/或最大输入比特深度。比特深度可以与比特深度中的较大值对齐,和/或可以与比特深度中的较小值对齐。当针对所述视频信号的色度组分执行色彩映射时,该视频信号的亮度组分的比特深度可与色度组分的比特深度相对齐。当针对所述视频信号的亮度组分执行色彩映射时,该视频信号的色度组分的比特深度可与亮度组分的比特深度相对齐。
附图说明
图1描述了示例多层可分级视频编码系统。
图2描述了用于立体视频编码的时间和层间预测的示例。
图3是可在视频编码中执行的示例可分级性类型的表。
图4是超高清电视(UHDTV)和高清电视(HDTV)技术规范的表。
图5描述了对超高清电视(UHDTV)和高清电视(HDTV)的色彩空间的比较。
图6是用于描述比特流层的示例的表,其可支持HD到UHD的可分级性。
图7是用于描述比特流层的另一示例的表,其可支持HD到UHD的的可分级性。
图8是描述可被配置成执行HD到UHD的可分级性的示例两层可分级视频编码器的简化框图。
图9是描述可被配置成执行HD到UHD的可分级性的示例两层可分级视频解码器的简化框图。
图10描述了使用多个处理模块的层间处理的示例。
图11为描述了用信号表示层间过程和/或层间处理模块的选择和处理过程的示例的语法表。
图12描述了可与图11中的示例语法表一起使用的示例值的表。
图13描述了使用组合的反向色调映射和上采样处理模块的层间处理的示例。
图14描述了使用组合的反向色调映射和色域转换处理模块的层间处理的示例。
图15为描述组合的色域转换和反向色调映射处理的语法表。
图16为可与图11中的示例语法表一起使用的示例值的表。
图17A描述了可以在其中实现一个或多个所公开的实施方式的示例通信系统的系统图。
图17B描述了示例无线发射/接收单元(WTRU)的系统图,其中所述 WTRU可以在如图17A所示的通信系统中使用。
图17C描述了可以在如图17A所示的通信系统中使用的示例无线电接入网络和示例核心网络的系统图。
图17D描述了可以在如图17A所示的通信系统中使用的示例无线电接入网络和示例核心网络的系统图。
图17E描述了可以在如图17A所示的通信系统中使用的示例无线电接入网络和示例核心网络的系统图。
具体实施方式
图1为描述示例的基于块的混合可分级视频编码(SVC)系统的简化框图。由层1(例如,基础层)表示的空间和/或时间信号分辨率可以通过对输入视频信号下采样来生成。在后续编码阶段,诸如Q1的量化器的设置会导致基本信息的质量等级。一个或多个后续较高层可以使用基础层重构Y1被编码和/或解码,其可表示对较高层分辨率等级的近似。上采样单元可以执行基础层重构信号到层2分辨率的上采样。下采样和/或上采样可以贯穿多个层(例如针对N层,层1,2……N)执行。下采样和/或上采样率可根据例如两层之间的可分级性的维度而不同。
在图1的示例可分级视频编码系统中,对于给定较高层n(例如2≤n≤ N,N为总层数),可以通过从当前层n信号中减去经上采样的较低层信号(例如层n-1信号)来生成差分信号。该差分信号可以被编码。如果由两个层n1 和n2表示的各个视频信号具有相同的空间分辨率,相应的下采样和/或上采样操作被旁路。给定层n(例如1≤n≤N)或者多个层可以在不使用来自较高层的解码信息的情况下被解码。
依赖于例如使用图1的示例SVC系统对除了基础层之外的层的残差 (residual)信号(例如两个层之间的差分信号)进行编码可能引起视觉伪像 (artifact)。这种视觉伪像可能归因于例如为限制残差信号的动态范围对其进行的量化和/或归一化和/或在对残差进行编码期间执行的量化。一个或多个较高层编码器可以采用运动估计和/或运动补偿预测作为各自的编码模式。残差信号中的补偿和/或运动估计可能与常规运动估计不同,并且容易产生视觉伪像。为了减少(例如最小化)视觉伪像的出现,更加复杂的残差量化可以和例如联合量化过程一起被实施,联合量化过程可包括为限制残差信号的动态范围对其进行的量化和/或规一化以及在对残差编码期间执行的量化。
可分级视频编码可以使能对部分比特流的传输和解码。这使得SVC能够在保持相对高的重构质量(例如给定的部分比特流各自的速率)的同时提供具有较低时间和/或空间分辨率或降低的保真度的视频服务。SVC可以与单环路解码一起实施,由此SVC解码器可以在被解码的层建立一个运动补偿环路,并且可以不在一个或多个其它较低层建立运动补偿循环。例如,比特流可包括两个层,包括可以为基础层的第一层(例如,层1)和可以为增强层的第二层(例如,层2)。当这种SVC解码器重构层2视频时,建立解码图像缓存和运动补偿预测可以被限制在层2。在SVC的这种实现中,来自较低层的各个参考图像可以不被完全重构,这降低了解码器处的计算复杂度和/或存储器消耗。
可以通过受约束的层间纹理预测来获得单环路解码,其中如果相应较低层的块以内模式被编码,则对于给定层中的当前块,来自较低层的空间纹理预测可被允许。当较低层块以内模式被编码时,其可以在没有运动补偿操作和/或解码图像缓存的情况下被重构。
SVC可以采用一种或多种附加层间预测技术,诸如根据一个或多个较低层的运动向量预测、残差预测、模式预测等。这可以改善增强层的速率失真率。利用单环路解码的SVC实现可在解码器处展现出降低的计算复杂度和/ 或降低的存储器消耗,并且归因于例如依赖块级层间预测而展现出增加的实施复杂度。为了补偿由施加单环路解码限制引发的性能损失,编码器的设计和计算复杂度可以被增加以获得期望的性能。对交错(interlaced)内容的编码可能不被SVC所支持。
多视图视频编码(MVC)可以提供视图可分级性。在视图可分级性的示例中,基础层比特流可以被解码以重构常规的两维(2D)视频,并且一个或多个附加增强层可以被解码以重构相同视频信号的其它视图表示。当这种视图被组合到一起并且由三维(3D)显示器显示时,可产生具有合适的深度感知的3D视频。
图2描述了用于使用MVC对具有左视图(例如,层1)和右视图(例如,层2)的立体视频进行编码的示例预测结构。左视图视频可以以I-B-B-P 预测结构编码,右视图视频可以以P-B-B-B预测结构编码。如图2所示,在右视图中,与左视图中的第一I图像并置的第一图像被编码为P图像,在右视图中的后续图像被编码为B图像,B图像具有来自右视图中的时间参考的第一预测和来自左视图中的层间参考的第二预测。MVC可能不支持单环路解码特征。例如,如图2所示,对右视图(层2)视频进行解码可以以左视图(层1)中的全部图像可用为条件,每个层(例如,视图)具有各自的补偿循环。MVC的实施可以包括高等级语法改变,并且可不包括块级改变。这使得MVC的实施变得容易。例如,可以通过在切片(slice)和/或图像级配置参考图像来实现MVC。MVC可通过例如扩展图2中的示例来支持对多于两个视图进行编码,以执行多个视图间的层间预测。
MPEG帧兼容(MFC)视频编码可以提供对3D视频编码的可分级扩展。例如MFC可以给帧兼容基础层视频(例如被打包到同一帧中的两个视图) 提供可分级扩展,并且可以提供一个或多个增强层以恢复完全分辨率视图。立体3D视频可以具有两个视图,包括左和右视图。可以通过将两个视图打包和/或复用到一个帧中以及通过压缩和传送打包后的视频来递送立体3D内容。在接收机侧,在解码之后,帧被拆包并且显示为两个视图。对视图的这种复用可以在时域或空间域中执行。当在空间域中执行时,为了保持相同的图像大小,两个视图可在空间上被下采样(例如以因子2)并且按照一种或多种布置(arrangement)来打包。例如,并排布置可以将下采样后的左视图放在图像的左半部,并且将下采样后的右视图放在图像的右半部。其它布置可以包括上和下,逐行,棋盘等。例如,用于实现帧兼容3D视频的布置可以通过一个或多个帧打包布置SEI消息来传递。这种布置可以以最小的带宽消耗增加实现了3D传递。
图3是可在视频编码中执行的示例可分级性类型的表。示例可分级性类型中的一种或多种可以被实施为层间预测处理模式。这改善了视频编码系统 (例如根据高效视频编码(SHVC)的可分级扩展的视频编码系统)的压缩效率。比特深度可分级性、色域可分级性和/或亮度格式可分级性可以与基础层(BL)和增强层(EL)视频格式相关联。对于比特深度可分级性,例如, BL视频可按照8比特,而EL视频可高于8比特。对于色域可分级性,例如,BL视频可以按照BT.709色域进行色彩分级,而EL视频可以按照BT.2020 色域进行色彩分级。对于亮度格式可分级性,例如,BL视频可以为YUV4:2:0 格式,而EL视频可以为YUV4:2:2或YUV4:4:4格式。
图4是示例超高清电视(UHDTV)和高清电视(HDTV)技术规范表。如图4所示,相比于HDTV视频格式(例如在ITU-R BT.709中定义的), UHDTV视频格式(例如在ITU-R BT.2020中定义的)可以支持更高空间分辨率(例如4Kx2K(3840x2160)和8Kx4K(7680x4320)分辨率)、更高帧速率(例如120Hz)、更高采样比特深度(例如10比特或12比特)以及更宽色域。
图5描述了按照CIE色彩定义各个HDTV色域和UHDTV色域的比较。如所示,由UHDTV色域覆盖的色彩量比由HDTV色域覆盖的色彩量宽得多。
视频编码系统(例如根据高效视频编码(SHVC)的可分级扩展的视频编码系统)可以包括被配置成执行视频编码的一个或多个设备。被配置成执行视频编码(例如以对视频信号进行编码和/或解码)的设备可以被称作视频编码设备。这种视频编码设备可以包括具有视频能力的设备(例如电视)、数字媒体播放器、DVD播放器、Blu-rayTM播放器、网络化的媒体播放设备、台式计算机、便携式个人计算机、平板设备、移动电话、视频会议系统、基于硬件和/或软件的视频编码系统等等。这种视频编码设备可以包括无线通信网络元件,诸如无线发射/接收单元(WTRU)、基站、网关或其它网络元件。
视频编码系统可以被配置成支持UHDTV显示格式和HDTV显示格式。例如,一个或多个视频比特流可以按照例如使用两个层(具有表示由HDTV 显示器使用的HDTV视频信号的基础层以及表示由UHDTV显示器使用的 UHDTV视频信号的增强层)的分层的方式来编码。如图4所示,HDTV格式和UHDTV格式的技术规范之间的差别可以扩展到空间和时间分辨率差别之外,例如包括采样比特深度和色域差别。被配置成支持UHDTV的视频编码系统可以包括对空间可分级性、时间可分级性、比特深度可分级性(BDS) 和色域可分级性(CGS)的支持。视频编码系统可以被配置成同时支持多种可分级性(例如空间、时间、比特深度和色域可分级性)。
视频编码系统可以被配置成使用例如包括多于两个层的可分级比特流来支持多种可分级性类型。可以配置这种视频编码,如此使得成每个增强层增强一个视频参数。例如,图6描述了可用于将HD视频信号升级到UHD 视频信号的示例比特流层配置。如所示,示例比特流可具有四个层,包括基础层(层0)和三个增强层(分别为层1、层2和层3)。基础层(层0)可以包括例如1080p60HD视频信号。在第一增强层(例如层1)中,空间分辨率可以被升级到例如4kx2k(3840x1960)。在第二增强层(例如层2),采样比特深度可以被升级,例如从8比特到10比特。在第三增强层(例如层3)中,色域可以被升级,例如从BT.709到BT.2020。应当理解的是图6 中描述的比特流层的处理顺序是示例处理顺序,其它比特流层处理顺序可以被实施。所描述的示例比特流层配置不包括提高视频信号的帧速率。然而时间可分级性可以被实施,例如以在一个或多个层中将帧速率升级到例如 120fps。增强层可以增强多于一个视频参数。
视频编码系统可以被配置成执行多环路解码。在多环路解码中,为了解码当前增强层,当前增强层的一个或多个依赖层(例如所有依赖层)可被完全解码。可以在一个或多个依赖层(例如依赖层中的每一者)中创建解码图像缓存(DPB)。随着层数的增加,解码复杂度(例如计算复杂度和/或存储器消耗)可能增加。用于支持期望的视频格式的层数可能根据增加的解码复杂度被限制。例如,对于HD到UHD的可分级性,具有两个层的可分级视频比特流可被实施(例如图7中描述的示例比特留层配置)。
图8是描述示例编码器(例如SHVC编码器)的简化框图。所描述的示例编码器可以被用于生成两层HD到UHD可分级比特流(例如图7中所描述的)。如图8所示,基础层(BL)视频输入830可以为HD视频信号,增强层(EL)视频输入802可以为UHD视频信号。HD视频信号830和UHD 视频信号802可以依据例如以下中的一者或多者彼此对应:一个或多个下采样参数(例如空间可分级性);一个或多个色彩分级参数(例如色域可分级性)或一个或多个色调映射参数(例如比特深度可分级性)828。
BL编码器818可以包括例如高效视频编码(HEVC)视频编码器或 H.264/AVC视频编码器。BL编码器818可以被配置成使用用于预测的一个或多个BL重构图像(例如在BL DPB820中存储的)来生成BL比特流832。 EL编码器804可以包括例如HEVC编码器。EL编码器804可以包括一个或多个高级语法修改,例如以通过增加层间参考图像到EL DPB来支持层间预测。EL编码器804可以被配置成使用用于预测的一个或个EL重构图像(例如在EL DPB 806中存储的)来生成EL比特流808。
在层间处理(ILP)单元822处,可以使用一个或多个图像级层间处理技术(包括上采样(例如针对空间可分级性)、色域转换(例如针对色域可分级性)或者反向色调映射(例如针对比特深度可分级性)中的一种或多种) 处理BL DPB 820中的一个或多个重构BL图像。一个或多个处理后的重构 BL图像可以被用作针对EL编码的参考图像。可以基于从EL编码器804接收到的增强视频信息814和/或从BL编码器818接收到的基础层信息816来执行层间处理。
在826处,EL比特流808、BL比特流832和在层间处理中使用的参数 (诸如ILP信息824)可以被一起复用到可分级比特流812中。例如,可分级比特流812可以包括SHVC比特流。
图9是描述对应于图8中描述的示例编码器的示例解码器(例如SHVC 解码器)的简化框图。例如,所描述的示例解码器可以被用于解码两层HD 到UHD比特流(例如图7中描述的)。
如图9所示,解复用模块912可以接收可分级比特流902并且可以解复用可分级比特流902以生成ILP信息914、EL比特流904和BL比特流918。可分级比特流902可包括SHVC比特流。EL比特流904可以由EL解码器 906解码。例如,EL解码器906可包括HEVC视频解码器。EL解码器906 可以被配置成使用用于预测的一个或多个EL重构图像(例如存储在EL DPB908中的)来生成UHD视频信号910。BL比特流918可以由BL解码器920 解码。BL解码器920可以包括例如HEVC视频解码器或H.264/AVC视频解码器。BL解码器920可以被配置成使用用于预测的一个或多个BL重构图像(例如存储在BL DPB 922中的)来生成HD视频信号924。诸如UHD视频信号910和/或HD视频信号924的重构视频信号可以用于驱动显示设备。
在ILP单元916处,可以使用一种或多种图像级层间处理技术处理BL DPB 922中的一个或多个重构BL图像。该图像级层间处理技术可包括下列的一者或多者:上采样(例如针对空间可分级性)、色域转换(例如针对色域可分级性)和反向色调映射(例如针对比特深度可分级性)。一个或多个处理后的重构BL图像可以被用作针对EL解码的参考图像。可以基于在层间处理中使用的参数(诸如ILP信息914)来执行层间处理。预测信息可以包括预测块大小、一个或多个运动向量(例如其可指示运动方向和运动量) 和/或一个或多个参考索引(例如其可指示预测信号从哪个参考图图像中获得)。这可以改善EL解码效率。
视频编码系统可以执行组合层间可分级性处理。视频编码系统可以在执行层间预测时使用多个层间处理模块。一个或多个层间处理模块可以被组合。视频编码系统可以根据层间处理模块的级联配置来执行层间处理。可以用信号来发送组合层间可分级性处理和/或对应的模块参数。
示例视频编码过程包括对视频信号的基础层执行层间处理。可以使用同时执行第一和第二可分级性过程的组合处理模块来执行层间处理的第一部分。示例视频编码过程可以包括将处理后的基础层应用到视频信号的增强层。第一层间处理的第一部分可以包括反向色调映射处理和色域转换处理。可以使用上采样处理模块执行层间处理的第二部分。
视频编码系统可以被配置成通过使层间处理模块中的一者或多者按照以特定顺序执行从而以特定顺序来执行层间处理步骤。层间处理模块可负责执行特定的层间过程。一个或多个层间过程可以被组合到一个或多个对应的层间处理模块中,由此层间处理模块可以同时执行多于一个层间过程。这些模块配置可以与各自的实现复杂度、计算复杂度和/或可分级编码性能的测量相关联。层间处理模块可以负责执行多个层间过程。
视频编码系统可以被配置成根据组合可分级性执行层间处理。例如,组合可分级性可以在视频编码器的ILP单元(例如在图8中描述的ILP单元 822)和/或视频解码器的ILP单元(例如在图9中描述的ILP单元916)中实现。多个处理模块可以被用于实现组合可分级性。
在用于组合可分级性处理的示例配置中,每个处理模块可被配置成执行与单个可分级性类型相关联的处理。图10描述了使用被配置成以级联方式执行视频编码的多个处理模块的示例层间视频编码过程。如所示,每个处理模块被配置成执行特定可分级性类型的处理。可以使用示例层间视频编码过程,例如以执行HD到UHD的可分级编码。处理模块可以被配置成执行多个可分级性类型的处理。
如图10所示,反向色调映射模块1020可以将8比特视频1010转换为 10比特视频1030。色域转换模块1040可以将BT.709视频1030转换为 BT.2020视频1050。上采样模块1060可以被用于将1920x1080空间分辨率的视频1050转换成3840x2160空间分辨率的视频1070。在组合中,这些处理模块可以实现图8和图9中描述的ILP单元的处理。应当理解的是图10 中描述的处理顺序(例如处理模块的顺序)(反向色调映射,之后跟着色域转换,之后跟着上采样)是示例的处理顺序,其它处理顺序可以被实施。例如,ILP单元中处理模块的顺序可以互换。
一个或多个层间处理模块(例如每个层间处理模块)可以被配置用于每个采样(per-sample)操作。例如,反向色调映射模块1020可以被应用到视频图像中的每个采样以将8比特视频转换成10比特视频。每个采样操作可以由色域转换模块1040执行。在应用上采样模块1060之后,视频图像中采样的数目可增加(例如显著地)(例如在2倍空间速率的情况下,在上采样之后采样的数目变为四倍)。
在组合可分级性处理的示例实现中,ILP单元可以被配置使得通过上采样模块1060的处理可以在层间处理结束处执行(例如如图10所示)。
可分级视频编码系统可以使用多个层实现。对于一个或多个层(例如对于每个层),级联的层间处理流的各个过程的可用性、选择和/或应用可以不同。例如,对于一个或多个层,处理可以被限制成色域转换过程和上采样过程。例如,反向色调映射过程可以被省略。对于每个层,可以按照处理顺序用信号发送(例如根据图11中描述的采样语法表)各自的可分级性转换过程的选择和/或处理顺序(例如图10中所描述)。例如,这一信息可以被封装在层的视频参数集(VPS)和/或序列参数集(SPS)中。通过解码器的一个或多个过程的应用可以通过关于每一个单独的过程是否可用和/或是否被选择用于处理的指示被限制。这可以例如通过过程可用性和/或过程选择信息被指示。可以用信号发送(例如,在比特流中)层间处理中的过程顺序。在实施方式中,可对处理顺序进行预定义。在一实施方式中,在层间处理中的过程顺序可以在比特流中用信号发送。
可以规定对应于一个或多个可应用过程的过程索引。过程索引可以对应于一个过程或者过程的组合,并且可以指示各个过程。例如,图12描述了定义可用于图11中描述的process_index(过程索引)字段的索引的示例语法表。编码器可以发送一个或多个索引以根据例如如图10中描述的级联处理用信号发送处理模块的选择和/或顺序。所述选择可以是任意选择。解码器可以接收和解码这一信令,并且响应于所述信令,在执行层间处理(例如使用ILP单元)时按照规定的顺序应用所选择的过程。
一个或多个附加参数可以被包括在信令和/或比特流中,以规定各个模块定义。例如,用信号发送如何应用处理模块中的每一者。一个或多个附加参数可以规定分离的和/或组合的模块定义。例如,这种参数可以作为ILP 信息的一部分被用信号发送。
在示例上采样过程中,信令可以定义例如由上采样模块应用的上采样滤波器的形式、形状(shape)、大小或系数。例如,所述信令可以规定可分离的(separable)2D滤波器或不可分离的2D滤波器。该信令可规定多个滤波器。例如,这种滤波器可以针对上采样亮度图像组分和/或色度图像组分被定义。滤波器可以被分开定义或者一起定义。当与反向色调映射过程组合时,所述信令可以反映各个输入和/或输出比特深度之间的差别。
在示例色域转换过程中,例如,信令可以定义下面的一者或多者:色彩转换装置(例如3D查找表(3D-LUT))、分段线性模型、交叉(cross)组分线性模型、线性增益和/或偏移模型等等。对于选中的模型,格式、大小、系数或其它定义参数中的一个或多个可以被用信号发送。当与反向色调映射过程组合时,所述信令可以反映各个输入和/或输出比特深度之间的差别。
在示例反向映射过程中,信令可以定义例如输入比特深度和/或输出比特深度。多个输入和/或输出比特深度可以被用信号发送。例如,针对亮度图像组分和针对一个或多个色度图像组分的输入和输出比特深度的各个定义可以被用信号发送。所述信令可以规定和/或定义用于反向色调映射设备的参数(诸如分段线性模型、多项式模型等等)。
图12的示例语法表提供由编码器(例如图8的可分级视频编码器)用信号发送的可用层间处理模块的调色板(palette)的示例。一个或多个过程索引值可以被用信号发送。过程索引值可以与一个或多个层间处理模块(例如针对其它模式的可分级性)对应。解码器(例如图9的可分级视频解码器) 可以经由来自编码器的信令接收一个或多个过程索引,并且可以应用可对应于接收到的过程索引的一个或多个层间处理模块。
例如,空间重采样过程可以支持纵横比可分级性。对应于空间重采样过程的索引可以被添加到图12的表中。在示例中,色度重采样过程可以支持色度格式可分级性。对应于色度重采样过程的索引可以被添加到图12的表中。由图11和12中的表所定义的语法可以支持任何数目的层间处理模块。
在组合可分级性处理的示例实现中,针对多个层间处理模块的应用的顺序可以被预先确定(例如编码器和解码器之间约定并且固定的)。图11的表的信令未定义处理顺序,解码器可以将固定的顺序应用到一个或多个选择的和/或用信号通知的过程。
在组合可分级性处理的示例实现中,针对多个层间处理模块的应用的选择和/或顺序可以改变(例如随着时间)。在这种实现中,用于规定下面中的一者或多者的信令可以被传送和/或更新(例如在图像级)一个或多个可分级层:层间处理模块的选择、层间处理模块的应用的顺序和各个模块定义(例如定义模块中的每一者的参数)。可以使用例如图11和12的表中所定义的信令将层间处理从一个图像改变到下一个。例如,与色域转换模块相关联的 3D-LUT的定义可以随着时间改变(例如以反映内容提供方所应用的色彩调控中的差别)。
在根据图10的组合可分级性处理的示例实现中,层间处理功能可以被分开实现并且可以被级联到一起。例如,层间处理功能可以以任意顺序级联。例如,基于实施(例如流水线和并行设计),重复访问采样值(例如每个采样值)可能引发高资源消耗(例如在存储器访问方面)。视频编码和/或处理可以使用定点操作。例如,三维查找表(3D LUT)过程可以用于色域转换。
处理模块可以被合并到单个处理模块,由此可分级处理被一次完成。在组合可分级性处理的示例实现中,图10中描述的处理模块可以被组合到单个处理模块中。在这样的所有在一个中(all-in-one)的实现中,输入中的像素被访问和处理一次(或者在执行分离的上采样的情况下两次)以生成输出中的一个或多个对应像素。
线性处理对于一些处理模块是足够的,然而对其它处理模块非线性处理可能更加有效(例如在改善EL编码性能方法)。例如,使用线性滤波器的上采样是有效的,然而对于色域转换,非线性模型(例如3D LUT)比线性模型更加有效。反向色调映射模块可以为线性或非线性的,这依赖于在生成视频内容时使用的色调映射类型。组合的非线性处理和线性处理并非无关紧要,并且组合后的模块本质上是非线性的。
一些处理模块比其它模块使用的更宽泛。例如,空间可分级性可以被用于诸如视频会议的应用,其中输入视频的采样比特深度和色域可以保持相同 (例如每个采样和BT.709色域8比特)。对于限于空间可分级性的应用,层间处理可以包括上采样处理模块。在这种应用中,可保持上采样处理模块与 ILP单元中的一个或多个其它处理模块分离。当可由上采样处理模块单独执行处理时,一个或多个其它处理模块(例如反向色调映射处理模块和/或色域转换处理模块)可被旁路。
层间处理单元中的一个或多个功能可以与视频编解码器的一个或多个其他部分对齐(align)。例如,根据SHVC的实现,用于1/2-和1/4-像素位置的上采样滤波器可以与用于HEVC中的运动补偿预测的对应相位处的插值滤波器保持相同。
图13描述了组合可分级性处理的示例实现。一个或多个处理模块可被组合。如所示,上采样处理模块可以与反向色调映射处理模块组合,并且色域转换处理模块可以保持分离(例如排序在组合的上采样和反向色调映射处理模块之前)。
如图13所示,色域转换模块1320可以将BT.709视频1310转换为 BT.2020视频1330。组合的反向色调映射和上采样模块1340可以将8比特的空间分辨率为1920x1080的BT.2020视频1330转换为10比特的空间分辨率为3840x2160的视频1350。
一个或多个上采样滤波器可以减小滤波之后的右移位(shift)的数目。为了在SHVC的示例实现中描述,以下等式可以表示上采样(例如垂直滤波) 中的步骤。
intLumaSample=(fL[yPhase,0]*tempArray[0]+
fL[yPhase,1]*tempArray[1]+
fL[yPhase,2]*tempArray[2]+
fL[yPhase,3]*tempArray[3]+
fL[yPhase,4]*tempArray[4]+
fL[yPhase,5]*tempArray[5]+
fL[yPhase,6]*tempArray[6]+
fL[yPhase,7]*tempArray[7]+(1<<11)>>(12)
滤波步骤可以取决于例如delta_bit_depth的值来减小右移位的数目, delta_bit_depth可表示BL和EL之间的采样比特深度的差异。
intLumaSample=(fL[yPhase,0]*tempArray[0]+
fL[yPhase,1]*tempArray[1]+
fL[yPhase,2]*tempArray[2]+
fL[yPhase,3]*tempArray[3]+
fL[yPhase,4]*tempArray[4]+
fL[yPhase,5]*tempArray[5]+
fL[yPhase,6]*tempArray[6]+
fL[yPhase,7]*tempArray[7]+(1<<(11–delta_bit_depth))>>(12–delta_bit_depth)
在实施方式中,可以使用非线性色调映射来生成BL和EL视频内容。可以使用非线性模型(诸如多项式模型、分段线性模型等)来实现组合的上采样和反向色调映射过程。这能够提高编码效率。
视频编码设备,诸如图1中描述的视频编码系统,图8中描述的视频编码器和/或图9中描述的视频解码器,可以对视频信号进行编码。视频编码设备可以使用同时执行反向色调映射和色域转换可分级性过程的组合处理模块来在视频信号的较低层执行第一层间处理。视频编码设备可以使用上采样处理模块在视频信号层上执行第二层间处理。
图14描述了具有至少一个组合处理模块的组合可分级性处理的示例实现。如所示,反向色调映射处理模块可以与色域转换处理模块组合,并且上采样处理模块可以保持分离。组合的反向色调映射和色域转换处理可以在上采样处理之前应用。
如图14所示,组合的反向色调映射和色域转换模块1420可以将8比特 BT.709视频1410转换为10比特BT.2020视频1430。视频的空间分辨率可以保持相同(诸如空间分辨率为1920x1080)。组合的反向色调映射和色域转换模块1420可以基于输入亮度组分的采样比特深度和输入色度组分的采样比特深度计算输出亮度组分的采样比特深度和输出色度组分的采样比特深度。组合的反向色调映射和色域转换模块1420基于信令(例如,视频比特流内接收的参数),可以计算和/或确定输出采样比特深度。组合的反向色调映射和色域转换模块1420可以发送结果到上采样处理模块1440。例如,输出亮度组分的采样比特深度的指示和输出色度组分的采样比特深度的指示可发送到上采样处理模块1440。组合的反向色调映射和色域转换模块1420 可以发送包含所输出的(例如,转换后的)亮度组分及所输出的色度组分的视频到上采样处理模块1440。上采样处理模块1440可以接收和转换10比特空间分辨率为1920x1080的BT.2020视频1430为10比特空间分辨率为 3840x2160的BT.2020视频1450。可以基于从组合的反向色调映射和色域转换模块1420接收的输出亮度组分的采样比特深度和输出色度组分的采样比特深度来执行上采样过程。
反向色调映射和色域转换使用非线性模型更有效。例如,3D LUT可以被用于色域转换。例如在图14描述的示例实现的组合的反向色调映射和色域转换模块中使用修改后的3D LUT(例如具有8比特输入和10比特输出) 可以和在各个分离的处理模块中使用分离的非线性模型(例如根据图10中描述的示例实现)一样有效。
使用图13和图14中描述的组合可分级性处理的示例实现可执行测试序列。对于根据图13的示例实现,具有8比特输入和8比特输出的3D LUT 技术被用在色域转换处理模块中,并且一种技术被用在组合的反向色调映射和上采样处理模块中。对于根据图14的示例实现,具有8比特输入和10比特输出的增强型3D LUT技术被用在组合的色域转换处理和反向色调映射处理模块中,并且上采样处理模块与SHVC的实现一致。
对于组合可分级性处理的两种示例实现的测试序列,使用最小二乘(LS) 技术并且将BL和EL(如果分辨率不同则下采样)视频作为训练序列来估计 3D LUT中的模型参数。仿真结果示出两种示例实现都增强了可分级编码效率,其中图14的示例实现略优于图13的示例实现。更高的编码效率可能归因于增强型3D LUT可以采纳反向色调映射过程的内在非线性性。例如,对用于可用在组合处理模块(例如图14中描述的示例实现的组合的反向色调映射处理和色域转换处理模块)中的增强型3D LUT的一个或多个模型参数的估计和/或训练可以基于训练内容,该训练内容可反映由组合处理模块执行的反向色调映射过程的输入比特深度和/或输出比特深度。
可以使用具有不同顺序的多项式、组分独立线性、交叉组分线性和/或分段线性来组合反向色调映射处理和色域转换处理。例如,编码器可以基于一个层的源内容和另一层的目标内容利用最小二乘训练技术推导模型参数,以达到减小的(例如最小的)匹配误差。
组合层间可分级性处理和/或对应模型参数可以被用信号发送。例如,可以在比特流中用信号发送组合可分级性处理过程,其中语法元素可以指示哪个组合可分级性处理过程(例如图13中描述的或图14中描述的)将被使用。可以在序列级用信号发送这一语法元素,例如作为VPS的一部分和/或作为SPS的一部分。可以在图像级(例如在切片分段报头中)用信号发送语法元素,作为图像参数集(PPS)的一部分或作为自适应参数集(APS)的一部分。编码器可基于例如视频输入来选择组合可分级性处理过程。编码器可以向解码器指示该组合可分级性处理过程。
在组合层间可分级性处理的示例实现中,组合可分级性处理过程可以被预定义。例如,图14中描述的组合可分级性处理过程可以被选择。编码器和解码器可以重复使用特定的组合可分级性处理过程,而无需附加信令。
可在组合层间可分级性处理中使用的色域转换技术可以包括下面的一个或多个:增益和偏移、交叉组分线性、分段线性和3D LUT。图15中描述的示例语法表描述了用信号发送组合可分级性处理过程和用于组合的色域转换处理和反向色调映射处理的参数的示例。图15中描述的示例语法可以用在根据图14中描述的示例实现的示例中。
如图15所示,输入和输出比特深度值可以被包括为色彩映射过程的参数。色彩映射过程可以使得处理以用于指示色彩映射过程的输入亮度组分的采样比特深度的参数为基础。例如输入亮度组分的采样比特深度可以按照超过8的变化(delta)被用信号发送。如图15所示,例如用于指示输入亮度组分的采样比特深度的参数可以被称作bit_depth_input_luma_minus8(比特- 深度-输入-亮度-最小8)。可以使用其它参数名称。
色彩映射过程可以使得处理以用于指示色彩映射过程的输入色度组分的采样比特深度的参数为基础。例如输入色度组分的采样比特深度可以按照超过8的变化(delta)被用信号发送。例如输入色度比特深度可以按照超过输入亮度比特深度的变化(delta)被用信号发送。如图15所示,例如用于指示输入色度组分的采样比特深度的参数可以被称作bit_depth_input_chroma_delta(比特-深度-输入-色度-变化)。可以使用其它参数名称。这可通过减小将被编码的语法元素的值(例如小变化值)来降低信令消耗。可以使用其它比特深度信令技术。
色彩映射过程可以输出用于指示色彩映射过程的输出亮度组分的采样比特深度的参数。例如,输出亮度组分的采样比特深度可以按照超过8的变化(delta)被用信号发送。例如输出亮度组分的采样比特深度可以按照超过输入亮度比特深度的变化(delta)被用信号发送。如图15所示,这一输出参数可以被称作bit_depth_output_luma_delta(比特-深度-输出-亮度-变化)。可以使用其它参数名称。
色彩映射过程可以输出用于指示色彩映射过程的输出色度组分的采样比特深度的参数。例如,输出色度组分的采样比特深度可以按照超过8的变化(delta)被用信号发送。例如输出色度组分的采样比特深度可以按照超过输入色度比特深度的变化(delta)被用信号发送。如图15所示,这一输出参数可以被称作bit_depth_output_chroma_delta(比特-深度-输出-色度-变化)。可以使用其它参数名称。
语法元素CGS_method(CGS_方法)可被包括在图15的示例语法表中,以指示所使用的CGS技术。CGS_method的示例包括增益和/或偏移、交叉组分线性、分段线性、3D LUT、定制的CGS方法等等。在CGS_method被发送之后,一个或多个对应模型参数可以被用信号发送(例如根据各个CGS 技术)。图15中描述的示例语法表可以包括在序列级信令中(诸如在VPS、 SPS和PPS中的一者或多者中)。图15中描述的示例语法表可以包括在图像级信令中(诸如切片报头和APS中的一者或多者)。
亮度和/或色度比特深度可以从VPS或SPS中的语法元素中导出。例如在图8和图9的示例两层可分级视频编码器和解码器中,分别地,BL比特深度(例如等价于组合处理模块的输入比特深度)和EL比特深度(例如等价于组合处理模块的输出比特深度)可以例如从诸如SPS中的 bit_depth_luma/chroma_minus8(bit_深度_亮度/色度_最小8)之类的语法元素中获取。色域转换参数可以在PPS中发送。参数集(例如VPS、SPS和 PPS)可以被独立解析和解码。使用图15中描述的示例语法表用信号发送比特深度值可以简化对用于组合的色域转换和反向色调映射过程的参数模型的解析和解码。
图15中描述的示例信令可以作为针对第一组合层间处理模块的过程定义,例如,该第一组合层间处理模块对应于在图14中的示例实现中所描述的组合的反向色调映射处理和色域转换处理模块。第一组合层间处理模块可以以图14中描述的示例实现的形式的用在固定配置中。第一组合层间处理模块可以包括可用在级联处理配置(例如图10中所描述的)中的一个层间处理模块。第一组合层间处理模块的选择和应用可以例如使用图11和12的示例语法表被用信号发送。合适的process_index(过程_索引)可以被添加到图12的示例语法表中,以指示第一组合层间处理模块的应用。
组合层间处理模块(例如在图13的示例实现中描述的组合的反向色调映射处理和上采样处理模块)可以被定义。针对该组合层间处理模块的合适的过程定义可以被定义。例如,该过程定义可以定义用于空间可分级性上采样的上采样滤波器的形式、大小、形状或系数中的一者或多者,并且可以进一步定义一个或多个输入比特深度和/或一个或多个输出比特深度。合适的 process_index可以被添加到图12的示例语法表中以指示第二组合层间处理模块的应用。第二组合层间处理模块可以是可用在级联处理配置(例如图10 中描述)中的另一层间处理模块。
可以例如使用图11和12中的示例语法表中定义的信令框架来定义任意数量的组合层间处理模块和/或将其合并到图10描述的级联框架中。
图16描述了示例语法表,所述示例语法表说明了对过程索引的定义。如图所示,过程索引可对应于组合的反向色调映射和色域转换。例如, process_index=3对应于第一组合层间处理模块。如图所示,过程索引可以对应于组合的反向色调映射和上采样。例如,process_index=4可以对应于第二组合层间处理模块。
比特深度可以被考虑用于色域转换模块。色域转换过程可以将来自一个色彩空间的信号转换到另一色彩空间。交叉色彩组分关系可以被应用于色域转换功能。例如,在基于3D LUT的色域转换中,诸如在HEVC的可分级扩展的最终版本中采用的色域转换过程,3D色彩空间可以被划分成多个八分圆(octants)。在一个或多个八分圆中,交叉色彩组分线性模型可按照诸如以下方法被应用:
outputSampleX=((LutX[yIdx][uIdx][vIdx][0]*inputSampleY+ LutX[yIdx][uIdx][vIdx][1]*inputSampleU+LutX[yIdx][uIdx][vIdx][2]* inputSampleV+nMappingOffset)>>nMappingShift)+ LutX[yIdx][uIdx][vIdx][3] (1)
参数outputSampleX可指示在色域转换之后色彩组分X(例如X可以是Y, U或V)的输出采样值。参数LutX[yIdx][uIdx][vIdx][i]可指示针对由色域组分X的(yIdx,uIdx,vIdx)规定的八分圆的第i个LUT参数,其中0<=i<=3。参数nMappingShift和nMappingOffset可以在色域转换期间控制定点操作的精度,以及参数inputSampleY,inputSampleU和inputSampleV可以包括在色域转换之前色彩组分Y、U和V各自的输入值。
在实施方式中,亮度和色度采样各自的比特深度值可以是不同的。这些比特深度值可以例如通过图15中的bit_depth_input_luma_minus8和 bit_depth_input_chroma_delta来规定。可以例如通过诸如VPS、SPS和/或PPS 之类的参数集来规定比特深度值。输入亮度比特深度可以被表示为 InputLumaBitDepth,输入色度比特深度可以被表示为InputChromaBitDepth。可以导出输入亮度比特深度和输入色度比特深度。例如,可以基于图15描述的信令得到输入亮度比特深度和输入色度比特深度。输入亮度比特深度和输入色度比特深度可以根据下式导出:
InputLumaBitDepth=bit_depth_input_luma_minus8+8 (1a)
InputChromaBitDepth=InputLumaBitDepth+
bit_depth_input_chroma_delta (1b)
诸如H.264/AVC和HEVC的视频标准允许亮度和色度组分各自的比特深度不同。当交叉色彩组分模型被使用时,在应用交叉色彩组分线性模型时各个色彩组分的比特被对齐(align)。例如,各个色彩组分的比特深度可以在应用等式(1)时被对齐。根据示例色域转换过程,在应用交叉色彩组分模型(诸如等式(1))之前,亮度和/或色度采样比特深度可以与亮度和/或色度各自的较大比特深度值对齐,表示为MaxBitDepth= max(InputLumaBitDepth,InputChromaBitDepth)。例如, DeltaMaxLumaBitDepth和DeltaMaxChromaBitDepth可以按下式被定义:
DeltaMaxLumaBitDepth=MaxBitDepth-InputLumaBitDepth
DeltaMaxChromaBitDepth=MaxBitDepth-InputChromaBitDepth
交叉色彩组分线性模型可以按下式被应用:
outputSampleX=((LutX[yIdx][uIdx][vIdx][0]*
(inputSampleY<<DeltaMaxLumaBitDepth)
+LutX[yIdx][uIdx][vIdx][1]*(inputSampleU<<DeltaMaxChromaBitDepth)
+LutX[yIdx][uIdx][vIdx][2]*(inputSampleV<<DeltaMaxChromaBitDepth)
+nMappingOffset)>>nMappingShift)+LutX[yIdx][uIdx][vIdx][3] (2)
在色域转换过程期间,亮度和/或色度比特深度可以与亮度和/或色度的各自的较小比特深度对齐(align),表示为MinBitDepth=min(InputLumaBitDepth,InputChromaBitDepth)。例如,DeltaMinLumaBitDepth 和DeltaMinChromaBitDepth可以按以下被定义:
DeltaMinLumaBitDepth=InputLumaBitDepth-MinBitDepth
DeltaMinChromaBitDepth=InputChromaBitDepth–MinBitDepth.
交叉色彩组分线性模型可以按下式被应用:
outputSampleX=((LutX[yIdx][uIdx][vIdx][0]*
(inputSampleY>>DeltaMinLumaBitDepth)+LutX[yIdx][uIdx][vIdx][1]*
(inputSampleU>>DeltaMinChromaBitDepth)+LutX[yIdx][uIdx][vIdx][2]*
(inputSampleV>>DeltaMinChromaBitDepth)+nMappingOffset)>>nMappingShift)+
LutX[yIdx][uIdx][vIdx][3] (3)
交叉色彩组分线性模型可以被应用,由此色彩映射中的一个或多个乘法操作的复杂度可以被降低。等式(3)中的第二项乘法操作的比特深度可以更小。这减小了使用例如ASIC设计的实现的复杂度。
应当理解的是,以上描述的考虑亮度和色度比特深度之间的可能差别的示例过程不限于在基于3D LUT色域转换功能中实施,以上描述的示例过程可以在使用交叉色彩组分模型的任何色域转换和/或色调映射功能中实施。
nMappingShift和/或nMappingOffset的各个值可以在色域转换期间控制定点操作的精度。例如nMappingShift和nMappingOffset的值可以按下式计算:
nMappingShift=10+InputBitDepthX-OutputBitDepthX (4)
nMappingOffset=1<<(nMappingShift-1) (5)
其中InputBitDepthX和OutputBitDepthX可分别包括色彩转换过程的色彩组分X(例如X可以是Y、U或V)的输入和输出比特深度。
可以例如使用等式(1a)和(1b)导出针对亮度和色度的InputBitDepthX 的各个值。可以例如使用以下等式导出针对亮度和色度的OutputBitDepthX 的各个值:
OutputLumaBitDepth=bit_depth_output_luma_minus8+8 (6)
OutputChromaBitDepth=OutputLumaBitDepth+
bit_depth_input_chroma_delta (7)
在一种实施方式中,色彩转换过程中色彩组分的输出比特深度大于或等于该色彩组分的输入比特深度。可以执行从BL中的较低质量到EL中的较高质量的色彩转换过程,由此值(InputBitDepthX–OutputBitDepthX)可以为负。随着输入和输出比特深度间的差增大,值nMappingShift可变小。这可相应地降低定点计算的精度。
当针对亮度组分的输入和输出之间的比特深度变化值(InputBitDepthY–OutputBitDepthY)不同于针对色度组分的输入和输出之间的比特深度变化值(InputBitDepthC–OutputBitDepthC)时,技术可以被用于计算针对亮度和/或色度的nMappingShift和/或nMappingOffset。例如,nMappingShift可以使用 (InputBitDepthY–OutputBitDepthY)来计算,并且可以被应用到亮度和色度中的一者或两者。或者nMappingShift可以使用(InputBitDepthC– OutputBitDepthC)来计算,并且可以应用到亮度和色度中的一者或两者。在另一示例中,nMappingShift和/或nMappingOffset可以使用下式来计算:
nMappingShift=10+min(InputBitDepthY–OutputBitDepthY,
InputBitDepthC–OutputBitDepthC) (8)
nMappingOffset=1<<(nMappingShift-1) (9)
这些值可以被应用到色彩转换过程中的亮度和色度组分中的一者或两者。例如,这些值可以用于等式(2)和/或等式(3)中的nMappingShift和 nMappingOffset(诸如针对{Y,U,V}中的每个色彩组分X)。
以上描述的过程可以保留较高精度量。例如,这可以使得色域转换过程具有高(例如,最大)定点精度。
可以根据无线通信系统(诸如图17A-17E中描述的示例无线通信系统 100及其组件)中的视频传输来实现此处描述的视频编码技术(诸如利用组合可分级性处理)。
图17A为可以在其中实施一个或者多个所公开实施方式的示例通信系统100的图例。通信系统100可以是将诸如语音、数据、视频、消息、广播等之类的内容提供给多个无线用户的多接入系统。通信系统100可以通过系统资源(包括无线带宽)的共享使得多个无线用户能够访问这些内容。例如,通信系统100可以使用一个或多个信道接入方法,例如码分多址(CDMA)、时分多址(TDMA)、频分多址(FDMA)、正交FDMA(OFDMA)、单载波 FDMA(SC-FDMA)等等。
如图17A所示,通信系统100可以包括至少一个无线发射/接收单元 (WTRU)(诸如多个WTRU,例如WTRU 102a,102b,102c和102d)、无线电接入网络(RAN)104、核心网络106、公共交换电话网(PSTN)108、因特网110和其他网络112,但可以理解的是所公开的实施方式涵盖任意数量的WTRU、基站、网络和/或网络元件。WTRU 102a,102b,102c,102d中的每一个可以是被配置成在无线通信中操作和/或通信的任何类型的装置。作为示例,WTRU 102a,102b,102c,102d可以被配置成发送和/或接收无线信号,并且可以包括用户设备(UE)、移动站、固定或移动用户单元、寻呼机、蜂窝电话、个人数字助理(PDA)、智能电话、便携式计算机、上网本、个人计算机、无线传感器、消费电子产品等等。
通信系统100还可以包括基站114a和基站114b。基站114a、114b中的每一个可以是被配置成与WTRU 102a,102b,102c,102d中的至少一者无线交互,以便于接入一个或多个通信网络(例如核心网络106、因特网110 和/或网络112)的任何类型的装置。例如,基站114a、114b可以是基站收发信站(BTS)、节点B、e节点B、家用节点B、家用e节点B、站点控制器、接入点(AP)、无线路由器以及类似装置。尽管基站114a、114b每个均被描述为单个元件,但是可以理解的是基站114a,114b可以包括任何数量的互联基站和/或网络元件。
基站114a可以是RAN 104的一部分,该RAN 104还可以包括诸如站点控制器(BSC)、无线电网络控制器(RNC)、中继节点之类的其他基站和/ 或网络元件(未示出)。基站114a和/或基站114b可以被配置成发送和/或接收特定地理区域内的无线信号,该特定地理区域可以被称作小区(未示出)。小区还可以被划分成小区扇区。例如与基站114a相关联的小区可以被划分成三个扇区。因此,在一种实施方式中,基站114a可以包括三个收发信机,即针对所述小区的每个扇区都有一个收发信机。在另一实施方式中,基站 114a可以使用多输入多输出(MIMO)技术,并且由此可以使用针对小区的每个扇区的多个收发信机。
基站114a、114b可以通过空中接口116与WTRU 102a,102b,102c,102d 中的一者或多者通信,该空中接口116可以是任何合适的无线通信链路(例如射频(RF)、微波、红外(IR)、紫外(UV)、可见光等)。可以使用任何合适的无线电接入技术(RAT)来建立空中接口116。
更为具体地,如前所述,通信系统100可以是多接入系统,并且可以使用一个或多个信道接入方案(诸如CDMA、TDMA、FDMA、OFDMA、 SC-FDMA以及类似的方案)。例如,在RAN104中的基站114a和WTRU 102a, 102b,102c可以实施诸如通用移动电信系统(UMTS)陆地无线电接入 (UTRA)之类的无线电技术,其可以使用宽带CDMA(WCDMA)来建立空中接口116。WCDMA可以包括诸如高速分组接入(HSPA)和/或演进型 HSPA(HSPA+)。HSPA可以包括高速下行链路分组接入(HSDPA)和/或高速上行链路分组接入(HSUPA)。
在另一实施方式中,基站114a和WTRU 102a,102b,102c可以实施诸如演进型UMTS陆地无线电接入(E-UTRA)之类的无线电技术,其可以使用长期演进(LTE)和/或高级LTE(LTE-A)来建立空中接口116。
在其它实施方式中,基站114a和WTRU 102a,102b,102c可以实施诸如IEEE 802.16(即全球微波互联接入(WiMAX))、CDMA2000、CDMA2000 1x、CDMA2000 EV-DO、临时标准2000(IS-2000)、临时标准95(IS-95)、临时标准856(IS-856)、全球移动通信系统(GSM)、增强型数据速率GSM 演进(EDGE)、GSM EDGE(GERAN)之类的无线电技术。
举例来讲,图17A中的基站114b可以是无线路由器、家用节点B、家用e节点B或者接入点,并且可以使用任何合适的RAT,以用于促进在诸如公司、家庭、车辆、校园之类的局部区域的无线连接。在一种实施方式中,基站114b和WTRU 102c、102d可以实施诸如IEEE802.11之类的无线电技术以建立无线局域网络(WLAN)。在另一实施方式中,基站114b和WTRU 102c,102d可以实施诸如IEEE 802.15之类的无线电技术以建立无线个人局域网络(WPAN)。在又一种实施方式中,基站114b和WTRU 102c,102d 可以使用基于蜂窝的RAT(例如WCDMA、CDMA2000、GSM、LTE、LTE-A 等)以建立超微型(picocell)小区或毫微微小区(femtocell)。如图17A所示,基站114b可以具有至因特网110的直接连接。因此,基站114b不必经由核心网络106来接入因特网110。
RAN 104可以与核心网络106通信,该核心网络可以是被配置成将语音、数据、应用程序和/或网际协议上的语音(VoIP)服务提供到WTRU 102a、 102b、102c、102d中的一者或多者的任何类型的网络。例如,核心网络106 可以提供呼叫控制、账单服务、基于移动位置的服务、预付费呼叫、网际互联、视频分配等,和/或执行诸如用户验证的高级安全性功能。尽管图17A 中未示出,应该理解的是RAN 104和/或核心网络106可以直接或间接地与其他RAN进行通信,这些其他RAT可以使用与RAN 104相同的RAT或者不同的RAT。例如,除了连接到可以采用E-UTRA无线电技术的RAN 104,核心网络106也可以与使用GSM无线电技术的另一RAN(未显示)通信。
核心网络106也可以用作WTRU 102a,102b,102c,102d接入PSTN 108、因特网110和/或其他网络112的网关。PSTN 108可以包括提供普通老式电话服务(POTS)的电路交换电话网络。因特网110可以包括互联计算机网络的全球系统以及使用公共通信协议的装置,所述公共通信协议例如传输控制协议(TCP)/网际协议(IP)因特网协议套件的中的TCP、用户数据报协议(UDP)和IP。网络112可以包括由其他服务提供方拥有和/或操作的无线或有线通信网络。例如,网络112可以包括连接到一个或多个RAN的另一核心网络,这些RAN可以使用与RAN 104相同的RAT或者不同的RAT。
通信系统100中的WTRU 102a、102b、102c、102d中的一些或者全部可以包括多模式能力,即WTRU 102a、102b、102c、102d可以包括用于通过多个通信链路与不同的无线网络进行通信的多个收发信机。例如,图17A 中显示的WTRU 102c可以被配置成与使用基于蜂窝的无线电技术的基站 114a进行通信,并且与使用IEEE 802无线电技术的基站114b进行通信。
图17B为示例WTRU 102的系统框图。如图17B所示,WTRU 102可以包括处理器118、收发信机120、发射/接收元件122、扬声器/麦克风124、键盘126、显示屏/触摸板128、不可移除存储器130、可移除存储器132、电源134、全球定位系统芯片组136和其他外围设备138。应该理解的是,在保持与实施方式一致的同时,WTRU 102可以包括上述元件的任何子集。
处理器118可以是通用目的处理器、专用目的处理器、常规处理器、数字信号处理器(DSP)、多个微处理器、与DSP核心相关联的一个或多个微处理器、控制器、微控制器、专用集成电路(ASIC)、现场可编程门阵列 (FPGA)电路、其他任何类型的集成电路(IC)、状态机等。处理器118可以执行信号编码、数据处理、功率控制、输入/输出处理和/或使得WTRU 102能够操作在无线环境中的其他任何功能。处理器118可以耦合到收发信机 120,该收发信机120可以耦合到发射/接收元件122。尽管图17B中将处理器118和收发信机120描述为独立的组件,应该理解的是处理器118和收发信机120可以被一起集成到电子封装或者芯片中。
发射/接收元件122可以被配置成通过空中接口116将信号发送到基站 (例如基站114a),或者从基站(例如基站114a)接收信号。例如,在一种实施方式中,发射/接收元件122可以是被配置成发送和/或接收RF信号的天线。在另一实施方式中,发射/接收元件122可以是被配置成发送和/或接收例如IR、UV或者可见光信号的发射器/检测器。在又一实施方式中,发射/ 接收元件122可以被配置成发送和接收RF信号和光信号两者。应该理解的是发射/接收元件122可以被配置成发送和/或接收无线信号的任意组合。
此外,尽管发射/接收元件122在图17B中被描述为单个元件,但是 WTRU 102可以包括任何数量的发射/接收元件122。更特别地,WTRU 102 可以使用MIMO技术。因此,在一种实施方式中,WTRU 102可以包括两个或更多个发射/接收元件122(例如多个天线)以用于通过空中接口116发射和接收无线信号。
收发信机120可以被配置成对将由发射/接收元件122传送的信号进行调制,并且被配置成对由发射/接收元件122接收的信号进行解调。如以上所述,WTRU 102可以具有多模式能力。因此,收发信机120可以包括多个收发信机以用于使得WTRU 102能够经由多个RAT进行通信(诸如UTRA和 IEEE 802.11)。
WTRU 102的处理器118可以被耦合到扬声器/麦克风124、键盘126和 /或显示屏/触摸板128(例如,液晶显示(LCD)单元或者有机发光二极管 (OLED)显示单元),并且可以从上述装置接收用户输入数据。处理器118 还可以向扬声器/麦克风124、键盘126和/或显示屏/触摸板128输出数据。此外,处理器118可以访问来自任何类型的合适的存储器中的信息,以及向任何类型的合适的存储器中存储数据,所述存储器例如可以是不可移除存储器130和/或可移除存储器132。不可移除存储器130可以包括随机接入存储器(RAM)、可读存储器(ROM)、硬盘或者任何其他类型的存储器存储装置。可移除存储器132可以包括用户标识模块(SIM)卡、记忆棒、安全数字(SD)存储卡等类似装置。在其它实施方式中,处理器118可以访问来自物理上未位于WTRU 102上而位于诸如服务器或者家用计算机(未示出)上的存储器的数据,以及向上述存储器中存储数据。
处理器118可以从电源134接收功率,并且可以被配置成将功率分配给 WTRU 102中的其他组件和/或对至WTRU 102中的其他组件的功率进行控制。电源134可以是任何适用于给WTRU 102供电的装置。例如,电源134 可以包括一个或多个干电池(镍镉(NiCd)、镍锌(NiZn)、镍氢(NiMH)、锂离子(Li-ion)等)、太阳能电池、燃料电池等。
处理器118还可以耦合到GPS芯片组136,该GPS芯片组136可以被配置成提供关于WTRU 102的当前位置的位置信息(例如经度和纬度)。作为来自GPS芯片组136的信息的补充或者替代,WTRU 102可以通过空中接口116从基站(例如基站114a、114b)接收位置信息,和/或基于从两个或更多个相邻基站接收到的信号的定时来确定其位置。应该理解的是,在保持与实施方式一致的同时,WTRU 102可以通过任何合适的位置确定方法来获取位置信息。
处理器118还可以耦合到其他外围设备138,该外围设备138可以包括提供附加特征、功能和/或无线或有线连接的一个或多个软件和/或硬件模块。例如,外围设备138可以包括加速器、电子指南针(e-compass)、卫星收发信机、数码相机(用于照片或者视频)、通用串行总线(USB)端口、震动装置、电视收发信机、免持耳机、模块、调频(FM)无线电单元、数字音乐播放器、媒体播放器、视频游戏播放器模块、因特网浏览器等等。
图17C为包括RAN 104a和核心网络106a的通信系统100的实施方式的系统图,RAN104a和核心网络106a分别包括RAN 104和核心网络106 的示例实施方式。如以上所述,RAN104(例如RAN104a)可以利用UTRA 无线电技术通过空中接口116与WTRU 102a、102b、102c通信。RAN 104a 还可以与核心网络106a通信。如图17C所示,RAN 104a可以包含节点B 140a,140b,140c,其中节点B 140a,140b,140c每个可以包含一个或多个收发信机,该收发信机通过空中接口116来与WTRU 102a、102b、102c通信。节点B 140a、140b、140c中的每个可以与RAN 104a范围内的特定小区(未示出) 相关联。RAN 104a还可以包括RNC 142a,142b。应该理解的是RAN 104a 可以包含任意数量的节点B和RNC,同时仍然与实施方式保持一致。
如图17C所示,节点B 140a、140b可以与RNC 142a进行通信。此外,节点B 140c可以与RNC 142b进行通信。节点B 140a、140b、140c可以通过Iub接口与对应的RNC 142a、142b进行通信。RNC 142a、142b可以通过 Iur接口相互进行通信。RNC 142a、142b中的每一者可以被配置成控制与其连接的对应的节点B 140a、140b、140c。此外,RNC 142a、142b中的每一者可以分别被配置成实施或者支持其它功能(诸如外环功率控制、负载控制、准许控制、分组调度、切换控制、宏分集、安全性功能、数据加密等等)。
图17C中所示的核心网络106a可以包括媒体网关(MGW)144、移动交换中心(MSC)146、服务GPRS支持节点(SGSN)148,和/或网关GPRS 支持节点(GGSN)150。尽管上述元素中的每个被描述为核心网络106a的一部分,但是应该理解的是这些元素中的任何一个可以被除了核心网络运营商以外的实体拥有和/或运营。
RAN 104a中的RNC 142a可以通过IuCS接口被连接至核心网络106a 中的MSC 146。MSC 146可以被连接至MGW 144。MSC 146和MGW 144 可以向WTRU 102a、102b、102c提供至电路交换网络(例如PSTN 108)的接入,从而便于WTRU 102a、102b、102c与传统陆线通信设备之间的通信。
RAN 104a中的RNC 142a还可以通过IuPS接口被连接至核心网络106a 中的SGSN148。SGSN 148可以被连接至GGSN 150中。SGSN 148和GGSN 150可以向WTRU 102a、102b、102c提供至分组交换网络(例如因特网110) 的接入,从而便于WTRU 102a、102b,102c与IP使能设备之间的通信。
如以上所述,核心网络106a还可以连接至其它网络112,其中所述其它网络112可以包含被其他服务提供商拥有和/或运营的其他有线或无线网络。
图17D为包括RAN 104b和核心网络106b的通信系统100的实施方式的系统图,RAN104b和核心网络106b分别包括RAN 104和核心网络106 的示例实施方式。如上所述,RAN104(诸如RAN 104b)可以使用E-UTRA 无线电技术通过空中接口116与WTRU 102a、102b和102c进行通信。RAN 104b还可以与核心网络106b进行通信。
RAN 104b可以包括e节点B 170a、170b、170c、应该理解的是RAN 104b 可以包含任意数量的e节点B同时仍然与实施方式保持一致。e节点B 170a、 170b、170c每个可以包含一个或多个收发信机,该收发信机通过空中接口 116来与WTRU 102a、102b、102c通信。在一种实施方式中,e节点B 170a、 170b、170c可以使用MIMO技术。由此,例如e节点B 170a可以使用多个天线来传送无线信号至WTRU 102a并且从WTRU 102a中接收无线信息。
e节点B170a、170b、170c中的每个可以与特定小区(未示出)相关联并且可以被配置成处理在上行链路和/或下行链路中的用户调度、无线电资源管理决策、切换决策等。如图17D中所示,e节点B170a、170b、170c可以通过X2接口彼此进行通信。
图17D中所示的核心网络106b可以包括移动性管理网关(MME)172、服务网关174和分组数据网络(PDN)网关176。尽管上述元素中的每个被描述为核心网络106b的一部分,但是应该理解的是这些元素中的任何一个可以被除了核心网络运营商以外的实体拥有和/或运营。
MME 172可以通过S1接口连接到RAN 104b中的e节点B 170a,170b, 170c中的每个并且可以作为控制节点。例如,MME 172可以负责认证WTRU 102a、102b、102c的用户、承载者激活/去激活、在WTRU 102a、102b、102c 的初始附着期间选择特定服务网关等等。MME 172也可以为RAN 104b与使用其他无线电技术(例如GSM或WCDMA)的RAN(未示出)之间的切换提供控制平面功能。
服务网关174可以通过S1接口被连接到RAN 104b中的e节点B 170a, 170b,170c的每个。服务网关174通常可以路由和转发用户数据分组至 WTRU 102a、102b、102c,或者路由和转发来自WTRU 102a、102b、102c 的用户数据分组。服务网关174也可以执行其他功能,例如在e节点B间切换期间锚定用户平面、当下行链路数据可用于WTRU 102a、102b、102c时触发寻呼、管理和存储WTRU 102a、102b、102c的上下文等等。
服务网关174也可以被连接到PDN网关176,该网关176可以向WTRU 102a、102b、102c提供至分组交换网络(例如因特网110)的接入,从而便于WTRU 102a、102b、102c与IP使能设备之间的通信。
核心网络106b可以促进与其他网络之间的通信。例如,核心网络106b 可以向WTRU102a、102b、102c提供至电路交换网络(例如PSTN 108)的接入,从而促进WTRU 102a、102b、102c与传统陆线通信设备之间的通信。例如,核心网络106b可以包括,或可以与下者通信:作为核心网络106b和 PSTN 108之间接口的IP网关(例如,IP多媒体子系统(IMS)服务器)。另外,核心网络106b可以向提供WTRU 102a、102b、102c至网络112的接入,该网络112可以包含由其他服务提供商拥有和/或运营的其他有线或无线网络。
图17E为包括RAN 104c和核心网络106c的通信系统100的实施方式的系统图,RAN104c和核心网络106c分别包括RAN 104和核心网络106 的示例实施方式。RAN 104(例如RAN104c)可以为使用IEEE 802.16无线电技术通过空中接口116与WTRU 102a、102b、102c进行通信的接入服务网络(ASN)。如此处所描述,WTRU 102a、102b、102c、RAN 104c和核心网络106c中的不同功能实体之间的通信链路可以被定义为参考点。
如图17E所示,RAN 104c可以包括基站180a、180b、180c和ASN网关182,应该理解的是RAN 104c可以包含任意数量的基站和ASN网关同时仍然与实施方式保持一致。基站180a、180b、180c中的每一者可分别与RAN 104c中的特定小区(未示出)相关联,并且可以分别包括一个或多个收发信机,该收发信机通过空中接口116来与WTRU 102a、102b、102c通信。在一种实施方式中,基站180a、180b、180c可以使用MIMO技术。由此,例如基站180a可以使用多个天线来传送无线信号至WTRU 102a并且从WTRU 102a中接收无线信息。基站180a、180b、180c还可以提供移动性管理功能 (诸如切换触发、隧道建立、无线电资源管理、业务分类、服务质量(QoS) 策略执行等等)。ASN网关182可以作为业务汇聚点且可以负责寻呼、用户配置文件的缓存以及到核心网络106c的路由,等等。
WTRU 102a、102b、102c与RAN 104c之间的空中接口116可以被定义为执行IEEE802.16规范的R1参考点。另外,WTRU 102a、102b、102c中的每个可以建立与核心网络106c的逻辑接口(未示出)。WTRU 102a、102b、 102c与核心网络106c间的逻辑接口可以被定义为R2参考点,可以被用来认证、授权、IP主机配置管理和/或移动性管理。
基站180a、180b、180c中的每个之间的通信链路可以被定义为R8参考点,R8参考点包括用于促进WTRU在基站之间的数据传输和切换的协议。基站180a、180b、180c和ASN网关182之间的通信链路可以被定义为R6 参考点。R6参考点可以包括用于促进基于与每个WTRU102a、102b、102c 相关联的移动性事件的移动管理的协议。
例如,如图17E所示,RAN 104c可以被连接到核心网络106c。RAN 104c 和核心网络106c之间的通信链路可以被定义为R3参考点,R3参考点包括用于促进数据传输和移动性管理能力的协议。核心网络106c可以包括移动 IP本地代理(MIP-HA)184、认证、授权、计费(AAA)服务器186和网关188。尽管每个上述元素被描述为核心网络106c的一部分,但是应该理解的是这些元素中的任意一个可以被除了核心网络运营商以外的实体拥有和/ 或运营。
MIP-HA 184可以负责IP地址管理,且可以使得WTRU 102a、102b、 102c在不同的ASN和/或不同的核心网络之间漫游。MIP-HA 184可以向 WTRU 102a、102b、102c提供至分组交换网络(例如因特网110)的接入,从而促进WTRU 102a、102b、102c和IP使能设备之间的通信。AAA服务器186可以负责用户认证和支持用户服务。网关188可以促进与其他网络之间的交互工作。例如,网关188可以向WTRU 102a、102b、102c提供至电路交换网络(例如PSTN108)的接入,从而促进WTRU 102a、102b、102c 与传统陆线通信设备之间的通信。另外,网关188可以向WTRU 102a、102b、 102c提供至网络112的接入,该网络112可以包含被其他服务提供商拥有和 /或运营的其他有线或无线网络。
虽然在图17E中未示出,但应该理解的是RAN 104c可以被连接到其他 ASN且核心网络106c可以被连接到其他核心网络。RAN 104c和其他ASN 之间的通信链路可以被定义为R4参考点,该R4参考点可以包括用于协调 RAN 104c和其他ASN之间的WTRU 102a、102b、102c的移动性的协议。核心网络106c和其他核心网络之间的通信链路可以被定义为R5参考点,该 R5参考点可以包括用于促进本地核心网络和受访核心网络之间的交互工作的协议。
虽然本发明的特征和元素以特定的结合在以上进行了描述,但本领域普通技术人员可以理解的是,每个特征或元素可以单独使用,或在与任何其它特征和元素结合使用。此外,以上描述的方法可以在由计算机或处理器执行的计算机程序、软件和/或固件中实施,其中所述计算机程序、软件或/或固件被包含在由计算机或处理器执行的计算机可读存储介质中。计算机可读存储介质的实例包括但不限于电子信号(通过有线和/或无线连接而传送)和计算机可读存储介质。关于计算机可读存储介质的实例包括但不局限于只读存储器(ROM)、随机存取存储器(RAM)、寄存器、缓冲存储器、半导体存储设备、磁介质(例如内部硬盘或可移动磁盘)、磁光介质和诸如CD-ROM 盘和数字多功能盘(DVD)之类的光介质。与软件有关的处理器可以被用于实施在WTRU、终端、基站、RNC或任何主计算机中使用的无线电频率收发信机。本文描述的根据一个或多个示例实施方式的特征和/或元素可以结合本文描述的根据一个或多个其它示例实施方式的特征和/或元素一起使用。
Claims (10)
1.一种对视频信号进行编码的方法,该方法包括:
接收包含基础层BL和增强层EL的所述视频信号;
从所述BL重构BL图像;
基于所接收的视频信号内的输入亮度组分采样比特深度指示和输入色度组分采样比特深度指示,计算输入亮度组分的采样比特深度和输入色度组分的采样比特深度;
基于所接收的视频信号内的输出亮度组分采样比特深度指示和输出色度组分采样比特深度指示,计算输出亮度组分的采样比特深度和输出色度组分的采样比特深度;
使用组合处理模块在重构的BL图像上执行第一层间处理,所述组合处理模块通过使用3D查找表LUT而同时执行反向色调映射和色域转换可分级性过程,所述色域转换可分级性过程包括将所述重构的BL图像从覆盖第一色彩量的第一色域升级到相比于所述第一色彩量覆盖更广泛色彩量的第二色域,其中所述反向色调映射和色域转换可分级性过程基于所述输入亮度组分的所述采样比特深度和所述输入色度组分的所述采样比特深度、所述输出亮度组分的所述采样比特深度和所述输出色度组分的所述采样比特深度而被执行;以及
在所述第一层间处理之后,在所述第一层间处理的输出上执行空间上采样,以生成层间参考图像。
2.根据权利要求1所述的方法,其中所述输入亮度组分及所述输入色度组分与BT.709色域相关联,而所述输出亮度组分及所述输出色度组分与BT.2020色域相关联。
3.根据权利要求1所述的方法,进一步包括基于所接收的视频信号内的输出亮度组分采样比特深度指示和输出色度组分采样比特深度指示,计算输出亮度组分的采样比特深度和输出色度组分的采样比特深度,其中所述空间上采样基于所述输出亮度组分的所述采样比特深度和所述输出色度组分的所述采样比特深度而被执行。
4.根据权利要求1所述的方法,其中所述BL具有第一空间分辨率,而所述EL具有第二空间分辨率,所述第二空间分辨率高于所述第一空间分辨率,且所述空间上采样将所述第一层间处理的所述输出升级至所述第二空间分辨率。
5.根据权利要求1所述的方法,所述方法还包括:
基于所述层间参考图像,预测所述视频信号的至少一个EL图像。
6.一种视频编码设备,包括:
处理器,被配置成:
接收包含基础层BL和增强层EL的视频信号;
从所述BL重构BL图像;
基于所接收的视频信号内的输入亮度组分采样比特深度指示和输入色度组分采样比特深度指示,计算输入亮度组分的采样比特深度和输入色度组分的采样比特深度;
基于所接收的视频信号内的输出亮度组分采样比特深度指示和输出色度组分采样比特深度指示,计算输出亮度组分的采样比特深度和输出色度组分的采样比特深度;
使用组合处理模块在重构的BL图像上执行第一层间处理,所述组合处理模块通过使用3D查找表LUT而同时执行反向色调映射和色域转换可分级性过程,所述色域转换可分级性过程包括将所述重构的BL图像从覆盖第一色彩量的第一色域升级到相比于所述第一色彩量覆盖更广泛色彩量的第二色域,其中所述反向色调映射和色域转换可分级性过程基于所述输入亮度组分的所述采样比特深度和所述输入色度组分的所述采样比特深度、所述输出亮度组分的所述采样比特深度和所述输出色度组分的所述采样比特深度而被执行;以及
在所述第一层间处理之后,在所述第一层间处理的输出上执行空间上采样,以生成层间参考图像。
7.根据权利要求6所述的视频编码设备,其中所述输入亮度组分及所述输入色度组分与BT.709色域相关联,而所述输出亮度组分及所述输出色度组分与BT.2020色域相关联。
8.根据权利要求6所述的视频编码设备,其中所述处理器进一步被配置为基于所接收的视频信号内的输出亮度组分采样比特深度指示和输出色度组分采样比特深度指示,计算输出亮度组分的采样比特深度和输出色度组分的采样比特深度,以及所述空间上采样基于所述输出亮度组分的所述采样比特深度和所述输出色度组分的所述采样比特深度而被执行。
9.根据权利要求6所述的视频编码设备,其中所述BL具有第一空间分辨率,而所述EL具有第二空间分辨率,所述第二空间分辨率高于所述第一空间分辨率,且所述处理器被配置为将所述第一层间处理的所述输出升级至所述第二空间分辨率。
10.根据权利要求6所述的视频编码设备,其中所述处理器还被配置为:
基于所述层间参考图像,预测所述视频信号的至少一个EL图像。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910865427.0A CN110572662B (zh) | 2013-10-07 | 2014-10-07 | 用于多层视频编码的组合可分级性处理 |
CN202410184144.0A CN118301359A (zh) | 2013-10-07 | 2014-10-07 | 用于多层视频编码的组合可分级性处理 |
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201361887782P | 2013-10-07 | 2013-10-07 | |
US61/887,782 | 2013-10-07 | ||
US201462045495P | 2014-09-03 | 2014-09-03 | |
US62/045,495 | 2014-09-03 | ||
PCT/US2014/059560 WO2015054307A2 (en) | 2013-10-07 | 2014-10-07 | Combined scalability processing for multi-layer video coding |
Related Child Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910865427.0A Division CN110572662B (zh) | 2013-10-07 | 2014-10-07 | 用于多层视频编码的组合可分级性处理 |
CN202410184144.0A Division CN118301359A (zh) | 2013-10-07 | 2014-10-07 | 用于多层视频编码的组合可分级性处理 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN105874793A CN105874793A (zh) | 2016-08-17 |
CN105874793B true CN105874793B (zh) | 2019-10-11 |
Family
ID=51794970
Family Applications (3)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201480055145.XA Active CN105874793B (zh) | 2013-10-07 | 2014-10-07 | 用于多层视频编码的组合可分级性处理的方法和设备 |
CN201910865427.0A Active CN110572662B (zh) | 2013-10-07 | 2014-10-07 | 用于多层视频编码的组合可分级性处理 |
CN202410184144.0A Pending CN118301359A (zh) | 2013-10-07 | 2014-10-07 | 用于多层视频编码的组合可分级性处理 |
Family Applications After (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910865427.0A Active CN110572662B (zh) | 2013-10-07 | 2014-10-07 | 用于多层视频编码的组合可分级性处理 |
CN202410184144.0A Pending CN118301359A (zh) | 2013-10-07 | 2014-10-07 | 用于多层视频编码的组合可分级性处理 |
Country Status (9)
Country | Link |
---|---|
US (2) | US10063886B2 (zh) |
EP (2) | EP3055997B1 (zh) |
JP (5) | JP2017501599A (zh) |
KR (2) | KR102027027B1 (zh) |
CN (3) | CN105874793B (zh) |
HK (1) | HK1222965A1 (zh) |
RU (1) | RU2658812C2 (zh) |
TW (1) | TWI652937B (zh) |
WO (1) | WO2015054307A2 (zh) |
Families Citing this family (52)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102027027B1 (ko) * | 2013-10-07 | 2019-09-30 | 브이아이디 스케일, 인크. | 다계층 비디오 코딩을 위해 조합된 확장성 프로세싱 |
US9948916B2 (en) | 2013-10-14 | 2018-04-17 | Qualcomm Incorporated | Three-dimensional lookup table based color gamut scalability in multi-layer video coding |
US10531105B2 (en) | 2013-12-17 | 2020-01-07 | Qualcomm Incorporated | Signaling partition information for 3D lookup table for color gamut scalability in multi-layer video coding |
US9756337B2 (en) | 2013-12-17 | 2017-09-05 | Qualcomm Incorporated | Signaling color values for 3D lookup table for color gamut scalability in multi-layer video coding |
US10368097B2 (en) * | 2014-01-07 | 2019-07-30 | Nokia Technologies Oy | Apparatus, a method and a computer program product for coding and decoding chroma components of texture pictures for sample prediction of depth pictures |
CA2943216A1 (en) | 2014-03-19 | 2015-09-24 | Arris Enterprises Llc | Scalable coding of video sequences using tone mapping and different color gamuts |
US10448029B2 (en) * | 2014-04-17 | 2019-10-15 | Qualcomm Incorporated | Signaling bit depth values for 3D color prediction for color gamut scalability |
BR112017004886A2 (pt) * | 2014-09-12 | 2017-12-05 | Vid Scale Inc | dispositivo de codificação de vídeo e método de codificação de vídeo |
US10135577B2 (en) * | 2015-03-02 | 2018-11-20 | Lg Electronics Inc. | Scalable service in a wireless communication system |
JP6565330B2 (ja) * | 2015-05-26 | 2019-08-28 | 日本電気株式会社 | 映像処理装置、映像処理方法及び映像処理プログラム |
EP3107300A1 (en) * | 2015-06-15 | 2016-12-21 | Thomson Licensing | Method and device for encoding both a high-dynamic range frame and an imposed low-dynamic range frame |
WO2017011636A1 (en) | 2015-07-16 | 2017-01-19 | Dolby Laboratories Licensing Corporation | Signal reshaping and coding for hdr and wide color gamut signals |
US10349067B2 (en) * | 2016-02-17 | 2019-07-09 | Qualcomm Incorporated | Handling of end of bitstream NAL units in L-HEVC file format and improvements to HEVC and L-HEVC tile tracks |
US10440401B2 (en) | 2016-04-07 | 2019-10-08 | Dolby Laboratories Licensing Corporation | Backward-compatible HDR codecs with temporal scalability |
US11102495B2 (en) * | 2016-05-17 | 2021-08-24 | Qualcomm Incorporated | Methods and systems for generating and processing content color volume messages for video |
GB2553556B (en) * | 2016-09-08 | 2022-06-29 | V Nova Int Ltd | Data processing apparatuses, methods, computer programs and computer-readable media |
JP6915483B2 (ja) * | 2017-09-27 | 2021-08-04 | 富士フイルムビジネスイノベーション株式会社 | 画像処理装置、画像処理システムおよびプログラム |
US11265579B2 (en) * | 2018-08-01 | 2022-03-01 | Comcast Cable Communications, Llc | Systems, methods, and apparatuses for video processing |
TWI814890B (zh) * | 2018-08-17 | 2023-09-11 | 大陸商北京字節跳動網絡技術有限公司 | 簡化的跨分量預測 |
WO2020053806A1 (en) | 2018-09-12 | 2020-03-19 | Beijing Bytedance Network Technology Co., Ltd. | Size dependent down-sampling in cross component linear model |
EP3861728A4 (en) | 2018-11-06 | 2022-04-06 | Beijing Bytedance Network Technology Co., Ltd. | COMPLEXITY REDUCTION IN A DERIVATION OF PARAMETERS FOR AN INTRA PREDICTION |
CN113170122B (zh) | 2018-12-01 | 2023-06-27 | 北京字节跳动网络技术有限公司 | 帧内预测的参数推导 |
CA3121671C (en) | 2018-12-07 | 2024-06-18 | Beijing Bytedance Network Technology Co., Ltd. | Context-based intra prediction |
CN111491168A (zh) * | 2019-01-29 | 2020-08-04 | 华为软件技术有限公司 | 视频编解码方法、解码器、编码器和相关设备 |
CN113366833A (zh) | 2019-02-01 | 2021-09-07 | 北京字节跳动网络技术有限公司 | 对环路整形的限制 |
CN113366841B (zh) | 2019-02-01 | 2024-09-20 | 北京字节跳动网络技术有限公司 | 配置用于视频编解码的依赖于亮度的色度残差缩放 |
AU2020226565C1 (en) * | 2019-02-22 | 2024-01-11 | Beijing Bytedance Network Technology Co., Ltd. | Neighbouring sample selection for intra prediction |
CA3128769C (en) | 2019-02-24 | 2023-01-24 | Beijing Bytedance Network Technology Co., Ltd. | Parameter derivation for intra prediction |
WO2020175893A1 (ko) * | 2019-02-28 | 2020-09-03 | 엘지전자 주식회사 | Aps 시그널링 기반 비디오 또는 영상 코딩 |
WO2020177702A1 (en) | 2019-03-04 | 2020-09-10 | Beijing Bytedance Network Technology Co., Ltd. | Two-level signaling of filtering information in video processing |
WO2020185879A1 (en) | 2019-03-11 | 2020-09-17 | Dolby Laboratories Licensing Corporation | Video coding using reference picture resampling supporting region of interest |
PL4064706T3 (pl) | 2019-03-11 | 2023-08-21 | Dolby Laboratories Licensing Corporation | Sygnalizowanie informacji związanej z kątem otwarcia migawki |
WO2020184928A1 (ko) * | 2019-03-11 | 2020-09-17 | 엘지전자 주식회사 | 루마 맵핑 및 크로마 스케일링 기반 비디오 또는 영상 코딩 |
CN113574889B (zh) | 2019-03-14 | 2024-01-12 | 北京字节跳动网络技术有限公司 | 环路整形信息的信令和语法 |
KR20210139272A (ko) | 2019-03-23 | 2021-11-22 | 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 | 적응적 루프 필터링 파라미터 세트들에 대한 제한들 |
CN117880494A (zh) | 2019-03-24 | 2024-04-12 | 北京字节跳动网络技术有限公司 | 用于帧内预测的参数推导的条件 |
KR20210141683A (ko) | 2019-03-25 | 2021-11-23 | 광동 오포 모바일 텔레커뮤니케이션즈 코포레이션 리미티드 | 이미지 요소의 예측 방법, 인코더, 디코더 및 컴퓨터 저장 매체 |
US20200322656A1 (en) * | 2019-04-02 | 2020-10-08 | Nbcuniversal Media, Llc | Systems and methods for fast channel changing |
CA3208670A1 (en) * | 2019-06-25 | 2020-12-30 | Guangdong Oppo Mobile Telecommunications Corp., Ltd. | Image encoding method, image decoding method, encoder, decoder and storage medium |
CN114827612B (zh) * | 2019-06-25 | 2023-04-11 | 北京大学 | 视频图像编码和解码方法、设备及介质 |
EP4011079A1 (en) | 2019-08-06 | 2022-06-15 | Dolby Laboratories Licensing Corporation | Canvas size scalable video coding |
US11272187B2 (en) * | 2019-08-13 | 2022-03-08 | Tencent America LLC | Method and apparatus for video coding |
WO2021030788A1 (en) | 2019-08-15 | 2021-02-18 | Bytedance Inc. | Entropy coding for palette escape symbol |
JP7494289B2 (ja) | 2019-08-15 | 2024-06-03 | バイトダンス インコーポレイテッド | 異なるパーティション構造をもつパレット・モード |
US11172237B2 (en) * | 2019-09-11 | 2021-11-09 | Dolby Laboratories Licensing Corporation | Inter-layer dynamic range scalability for HDR video |
CN114424545B (zh) * | 2019-09-19 | 2024-07-16 | 字节跳动有限公司 | 用于调色板模式的量化参数推导 |
US11877011B2 (en) | 2020-09-17 | 2024-01-16 | Lemon Inc. | Picture dimension indication in decoder configuration record |
US12058310B2 (en) | 2021-02-26 | 2024-08-06 | Lemon Inc. | Methods of coding images/videos with alpha channels |
US20220279185A1 (en) * | 2021-02-26 | 2022-09-01 | Lemon Inc. | Methods of coding images/videos with alpha channels |
CN115080547A (zh) | 2021-03-15 | 2022-09-20 | 伊姆西Ip控股有限责任公司 | 用于数据处理的方法、电子设备和计算机程序产品 |
US12041248B2 (en) * | 2021-08-02 | 2024-07-16 | Mediatek Singapore Pte. Ltd. | Color component processing in down-sample video coding |
KR102674361B1 (ko) | 2022-01-03 | 2024-06-13 | 엘지전자 주식회사 | 디스플레이 장치 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103283227A (zh) * | 2010-10-27 | 2013-09-04 | Vid拓展公司 | 用于自适应视频编码的系统和方法 |
Family Cites Families (28)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7035460B2 (en) * | 2002-05-31 | 2006-04-25 | Eastman Kodak Company | Method for constructing an extended color gamut digital image from a limited color gamut digital image |
JP2004064629A (ja) * | 2002-07-31 | 2004-02-26 | Canon Inc | 画像処理装置およびその方法 |
US20050259729A1 (en) * | 2004-05-21 | 2005-11-24 | Shijun Sun | Video coding with quality scalability |
AU2005299534A1 (en) * | 2004-10-21 | 2006-05-04 | Sony Electonics, Inc. | Supporting fidelity range extensions in advanced video codec file format |
WO2008049445A1 (en) * | 2006-10-25 | 2008-05-02 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Quality scalable coding |
CN101589625B (zh) * | 2006-10-25 | 2011-09-21 | 弗劳恩霍夫应用研究促进协会 | 质量可缩放编码 |
CN101888559B (zh) | 2006-11-09 | 2013-02-13 | Lg电子株式会社 | 用于解码/编码视频信号的方法及装置 |
US8737474B2 (en) * | 2007-06-27 | 2014-05-27 | Thomson Licensing | Method and apparatus for encoding and/or decoding video data using enhancement layer residual prediction for bit depth scalability |
CN102084653B (zh) * | 2007-06-29 | 2013-05-08 | 弗劳恩霍夫应用研究促进协会 | 支持像素值细化可缩放性的可缩放视频编码 |
EP2051527A1 (en) * | 2007-10-15 | 2009-04-22 | Thomson Licensing | Enhancement layer residual prediction for bit depth scalability using hierarchical LUTs |
KR20100086478A (ko) * | 2007-10-19 | 2010-07-30 | 톰슨 라이센싱 | 조합된 공간 및 비트 심도 확장성 |
US8953673B2 (en) * | 2008-02-29 | 2015-02-10 | Microsoft Corporation | Scalable video coding and decoding with sample bit depth and chroma high-pass residual layers |
US9338475B2 (en) * | 2008-04-16 | 2016-05-10 | Intel Corporation | Tone mapping for bit-depth scalable video codec |
HUE024173T2 (en) * | 2008-04-16 | 2016-05-30 | Ge Video Compression Llc | Bit depth scalability |
WO2012122423A1 (en) * | 2011-03-10 | 2012-09-13 | Dolby Laboratories Licensing Corporation | Pre-processing for bitdepth and color format scalable video coding |
US9571856B2 (en) * | 2008-08-25 | 2017-02-14 | Microsoft Technology Licensing, Llc | Conversion operations in scalable video encoding and decoding |
EP2406959B1 (en) | 2009-03-13 | 2015-01-14 | Dolby Laboratories Licensing Corporation | Layered compression of high dynamic range, visual dynamic range, and wide color gamut video |
KR101756442B1 (ko) * | 2010-11-29 | 2017-07-11 | 에스케이텔레콤 주식회사 | 인트라예측모드의 중복성을 최소화하기 위한 영상 부호화/복호화 방법 및 장치 |
CA2807545C (en) * | 2011-02-22 | 2018-04-10 | Panasonic Corporation | Image coding method, image decoding method, image coding apparatus, image decoding apparatus, and image coding and decoding apparatus |
UA109312C2 (uk) * | 2011-03-04 | 2015-08-10 | Імпульсно-кодова модуляція з квантуванням при кодуванні відеоінформації | |
US20130321675A1 (en) * | 2012-05-31 | 2013-12-05 | Apple Inc. | Raw scaler with chromatic aberration correction |
WO2014084564A1 (ko) * | 2012-11-27 | 2014-06-05 | 엘지전자 주식회사 | 신호 송수신 장치 및 신호 송수신 방법 |
US9800884B2 (en) * | 2013-03-15 | 2017-10-24 | Qualcomm Incorporated | Device and method for scalable coding of video information |
US10230950B2 (en) * | 2013-05-30 | 2019-03-12 | Intel Corporation | Bit-rate control for video coding using object-of-interest data |
US10075735B2 (en) * | 2013-07-14 | 2018-09-11 | Sharp Kabushiki Kaisha | Video parameter set signaling |
KR102027027B1 (ko) * | 2013-10-07 | 2019-09-30 | 브이아이디 스케일, 인크. | 다계층 비디오 코딩을 위해 조합된 확장성 프로세싱 |
CA2943216A1 (en) * | 2014-03-19 | 2015-09-24 | Arris Enterprises Llc | Scalable coding of video sequences using tone mapping and different color gamuts |
BR112017004886A2 (pt) * | 2014-09-12 | 2017-12-05 | Vid Scale Inc | dispositivo de codificação de vídeo e método de codificação de vídeo |
-
2014
- 2014-10-07 KR KR1020167011361A patent/KR102027027B1/ko active IP Right Grant
- 2014-10-07 CN CN201480055145.XA patent/CN105874793B/zh active Active
- 2014-10-07 EP EP14789458.8A patent/EP3055997B1/en active Active
- 2014-10-07 EP EP19208604.9A patent/EP3629582A1/en active Pending
- 2014-10-07 WO PCT/US2014/059560 patent/WO2015054307A2/en active Application Filing
- 2014-10-07 CN CN201910865427.0A patent/CN110572662B/zh active Active
- 2014-10-07 JP JP2016521268A patent/JP2017501599A/ja active Pending
- 2014-10-07 KR KR1020197027671A patent/KR102127603B1/ko active IP Right Grant
- 2014-10-07 TW TW103134905A patent/TWI652937B/zh active
- 2014-10-07 RU RU2016117907A patent/RU2658812C2/ru active
- 2014-10-07 US US14/508,865 patent/US10063886B2/en active Active
- 2014-10-07 CN CN202410184144.0A patent/CN118301359A/zh active Pending
-
2016
- 2016-09-22 HK HK16111112.2A patent/HK1222965A1/zh unknown
-
2018
- 2018-02-26 JP JP2018032293A patent/JP6564086B2/ja active Active
- 2018-07-26 US US16/045,999 patent/US10986370B2/en active Active
-
2019
- 2019-07-25 JP JP2019136698A patent/JP7012048B2/ja active Active
-
2022
- 2022-01-17 JP JP2022005155A patent/JP7448572B2/ja active Active
-
2023
- 2023-11-27 JP JP2023199799A patent/JP2024020538A/ja not_active Withdrawn
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103283227A (zh) * | 2010-10-27 | 2013-09-04 | Vid拓展公司 | 用于自适应视频编码的系统和方法 |
Non-Patent Citations (1)
Title |
---|
Color Gamut Scalable Video Coding;Louis Kerofsky,Andrew Segall,Seung-Hwan Kim;《2013 Data Compression Conference》;20130322;正文第211-220页第1-2节 * |
Also Published As
Publication number | Publication date |
---|---|
JP7448572B2 (ja) | 2024-03-12 |
CN110572662B (zh) | 2024-03-08 |
EP3055997A2 (en) | 2016-08-17 |
CN105874793A (zh) | 2016-08-17 |
US10986370B2 (en) | 2021-04-20 |
US20190014348A1 (en) | 2019-01-10 |
JP6564086B2 (ja) | 2019-08-21 |
US10063886B2 (en) | 2018-08-28 |
HK1222965A1 (zh) | 2017-07-14 |
JP2022064913A (ja) | 2022-04-26 |
JP2018129814A (ja) | 2018-08-16 |
JP2024020538A (ja) | 2024-02-14 |
TWI652937B (zh) | 2019-03-01 |
JP2020010341A (ja) | 2020-01-16 |
JP7012048B2 (ja) | 2022-01-27 |
CN118301359A (zh) | 2024-07-05 |
RU2016117907A (ru) | 2017-11-13 |
KR20190110644A (ko) | 2019-09-30 |
US20150098510A1 (en) | 2015-04-09 |
KR102127603B1 (ko) | 2020-06-26 |
EP3055997B1 (en) | 2019-12-04 |
RU2658812C2 (ru) | 2018-06-22 |
CN110572662A (zh) | 2019-12-13 |
EP3629582A1 (en) | 2020-04-01 |
WO2015054307A2 (en) | 2015-04-16 |
KR102027027B1 (ko) | 2019-09-30 |
KR20160064204A (ko) | 2016-06-07 |
WO2015054307A3 (en) | 2015-08-20 |
JP2017501599A (ja) | 2017-01-12 |
TW201536032A (zh) | 2015-09-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105874793B (zh) | 用于多层视频编码的组合可分级性处理的方法和设备 | |
CN105830440B (zh) | 使用插值进行亮度和色度的相位对准的色域可伸缩视频编码设备及方法 | |
KR102028186B1 (ko) | 색역 확장성을 위한 3d 룩업 테이블 코딩을 제공하기 위한 시스템 및 방법 | |
CN104704831B (zh) | 多层视频编码中用于空间层的采样栅格信息 | |
CN108141507A (zh) | 利用查找表进行颜色校正 | |
TW201532031A (zh) | 色空間轉換 | |
CN107534769A (zh) | 用于高动态范围视频译码的色度增强滤波 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
TR01 | Transfer of patent right | ||
TR01 | Transfer of patent right |
Effective date of registration: 20240809 Address after: Delaware, USA Patentee after: Interactive Digital VC Holdings Country or region after: U.S.A. Address before: Delaware, USA Patentee before: VID SCALE, Inc. Country or region before: U.S.A. |