CN115699738A - 用于视频编码的方法和设备 - Google Patents
用于视频编码的方法和设备 Download PDFInfo
- Publication number
- CN115699738A CN115699738A CN202180032218.3A CN202180032218A CN115699738A CN 115699738 A CN115699738 A CN 115699738A CN 202180032218 A CN202180032218 A CN 202180032218A CN 115699738 A CN115699738 A CN 115699738A
- Authority
- CN
- China
- Prior art keywords
- component
- offset
- chroma
- video
- determining
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 147
- 238000013139 quantization Methods 0.000 claims abstract description 59
- 238000012545 processing Methods 0.000 claims abstract description 52
- 238000003860 storage Methods 0.000 claims abstract description 18
- 241000023320 Luma <angiosperm> Species 0.000 claims description 40
- OSWPMRLSEDHDFF-UHFFFAOYSA-N methyl salicylate Chemical compound COC(=O)C1=CC=CC=C1O OSWPMRLSEDHDFF-UHFFFAOYSA-N 0.000 claims description 40
- 238000003708 edge detection Methods 0.000 claims description 9
- 108091026890 Coding region Proteins 0.000 claims description 8
- 230000008569 process Effects 0.000 abstract description 42
- 239000000523 sample Substances 0.000 description 45
- 230000006835 compression Effects 0.000 description 27
- 238000007906 compression Methods 0.000 description 27
- 230000015654 memory Effects 0.000 description 24
- 239000000872 buffer Substances 0.000 description 19
- 230000033001 locomotion Effects 0.000 description 16
- 238000004891 communication Methods 0.000 description 15
- 238000010586 diagram Methods 0.000 description 14
- 230000003044 adaptive effect Effects 0.000 description 11
- 230000005540 biological transmission Effects 0.000 description 10
- 230000002123 temporal effect Effects 0.000 description 10
- 238000001514 detection method Methods 0.000 description 8
- 238000013459 approach Methods 0.000 description 7
- 230000006870 function Effects 0.000 description 5
- 238000013507 mapping Methods 0.000 description 5
- 230000002093 peripheral effect Effects 0.000 description 5
- 239000013074 reference sample Substances 0.000 description 5
- 238000009877 rendering Methods 0.000 description 5
- 230000000007 visual effect Effects 0.000 description 5
- 238000009795 derivation Methods 0.000 description 4
- 230000007246 mechanism Effects 0.000 description 4
- 230000011664 signaling Effects 0.000 description 4
- 230000008901 benefit Effects 0.000 description 3
- 239000011159 matrix material Substances 0.000 description 3
- 230000006978 adaptation Effects 0.000 description 2
- 230000001413 cellular effect Effects 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000009826 distribution Methods 0.000 description 2
- 239000012634 fragment Substances 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 238000011084 recovery Methods 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 238000013403 standard screening design Methods 0.000 description 2
- 230000000153 supplemental effect Effects 0.000 description 2
- IESVDEZGAHUQJU-ZLBXKVHBSA-N 1-hexadecanoyl-2-(4Z,7Z,10Z,13Z,16Z,19Z-docosahexaenoyl)-sn-glycero-3-phosphocholine Chemical group CCCCCCCCCCCCCCCC(=O)OC[C@H](COP([O-])(=O)OCC[N+](C)(C)C)OC(=O)CC\C=C/C\C=C/C\C=C/C\C=C/C\C=C/C\C=C/CC IESVDEZGAHUQJU-ZLBXKVHBSA-N 0.000 description 1
- 108700026244 Open Reading Frames Proteins 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 230000002457 bidirectional effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000002085 persistent effect Effects 0.000 description 1
- 239000004814 polyurethane Substances 0.000 description 1
- 229920002635 polyurethane Polymers 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 238000011002 quantification Methods 0.000 description 1
- 238000010079 rubber tapping Methods 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 239000000779 smoke Substances 0.000 description 1
- 210000003813 thumb Anatomy 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/124—Quantisation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/136—Incoming video signal characteristics or properties
- H04N19/14—Coding unit complexity, e.g. amount of activity or edge presence estimation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/154—Measured or subjectively estimated visual quality after decoding, e.g. measurement of distortion
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/172—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/176—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/18—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a set of transform coefficients
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/186—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/124—Quantisation
- H04N19/126—Details of normalisation or weighting functions, e.g. normalisation matrices or variable uniform quantisers
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
Abstract
本公开内容的各方面包括用于视频编码/解码的方法、设备和非暂态计算机可读存储介质。一种设备包括处理电路系统,所述处理电路系统基于以下中之一来确定编码区域的色度分量的量化参数的偏移:(i)色度分量的像素值范围,(ii)色度分量的复杂度水平,或(iii)色度分量的噪声水平。处理电路系统基于量化参数和所确定的偏移对编码区域的变换系数执行量化处理。处理电路系统生成包括经量化的变换系数的视频比特流。
Description
通过引用并入
本申请要求于2021年10月6日提交的美国专利申请第17/495,535号,“METHOD ANDAPPARATUS FOR VIDEO CODING”的优先权的权益,该美国专利申请要求于2021年5月25日提交的美国临时申请第63/193,003号,“ADAPTIVE CHROMA QP OFFSET”的优先权的权益。在先申请的公开内容通过引用整体并入本文中。
技术领域
本公开内容描述了总体上涉及视频编码的实施方式。
背景技术
本文中提供的背景技术描述的目的在于总体上呈现本公开内容的背景。就在该背景技术部分中描述的工作的程度而言,目前署名的发明人的工作以及在提交时可能未以其他方式描述为现有技术的描述的各方面既没有明确地也没有隐含地被承认为针对本公开内容的现有技术。
可以使用带有运动补偿的图片间预测来执行视频编码和解码。未压缩的数字视频可以包括一系列图片,每个图片具有例如,1920×1080的亮度样本和相关联的色度样本的空间维度。这一系列图片可以具有例如,每秒60幅图片或60Hz的固定或可变的图片速率(非正式地也称为帧速率)。未压缩的视频具有显著的比特率要求。例如,每个样本8比特的1080p604:2:0视频(60Hz帧速率下的1920×1080亮度样本分辨率)需要接近1.5Gbit/s的带宽。一小时这样的视频需要超过600千兆字节的存储空间。
视频编码和解码的一个目的可以是通过压缩减少输入视频信号中的冗余。压缩可以有助于降低前面提到的带宽或存储空间要求,在一些情况下可以降低两个数量级或更多。可以采用无损压缩和有损压缩两者,以及其组合。无损压缩是指可以根据压缩的原始信号重构原始信号的精确副本的技术。当使用有损压缩时,重构的信号可能与原始信号不同,但是原始信号与重构的信号之间的失真足够小,以使得重构的信号能够用于预期应用。在视频的情况下,广泛地采用有损压缩。容忍的失真量取决于应用;例如,某些消费者流媒体应用的用户可能比电视分配应用的用户容忍更高的失真。可实现的压缩比可以反映出:越高的可允许/可容忍的失真可以产生越高的压缩比。
视频编码器和解码器可以利用来自包括例如,运动补偿、变换、量化和熵编码的若干大类的技术。
视频编解码器技术可以包括被称为帧内编码的技术。在帧内编码中,在不参考来自先前重构的参考图片的样本或其他数据的情况下表示样本值。在一些视频编解码器中,图片在空间上被细分为样本块。当所有的样本块都以帧内模式编码时,该图片可以是帧内图片。帧内图片及其派生(例如,独立解码器刷新图片)可以用于重置解码器状态,并且因此可以用作编码视频比特流和视频会话中的第一幅图片,或用作静止图像。可以使帧内块的样本经受变换,并且可以在熵编码之前对变换系数进行量化。帧内预测可以是使预变换域中的样本值最小化的技术。在一些情况下,变换之后的DC值越小并且AC系数越小,在给定量化步长下表示熵编码之后的块所需的比特就越少。
传统的帧内编码,例如从例如MPEG-2代编码技术中已知的帧内编码,不使用帧内预测。然而,一些较新的视频压缩技术包括根据周围样本数据和/或例如在对空间上邻近并且解码顺序在先的数据块的编码和/或解码期间获得的元数据进行尝试的技术。这样的技术在下文中称为“帧内预测”技术。注意,在至少一些情况下,帧内预测使用仅来自重构下的当前图片的参考数据,而不使用来自参考图片的参考数据。
可以存在许多不同形式的帧内预测。当在给定视频编码技术中可以使用多于一种的这样的技术时,使用的技术可以在帧内预测模式下进行编码。在某些情况下,模式可以具有子模式和/或参数,并且这些子模式和/或参数可以被单独编码或被包括在模式码字中。针对给定模式、子模式和/或参数组合使用哪个码字可以通过帧内预测影响编码效率增益,并且因此用于将码字转换成比特流的熵编码技术也可以通过帧内预测影响编码效率增益。
帧内预测的某些模式通过H.264引入、在H.265中被细化,并且在诸如联合开发模型(joint exploration model,JEM)、通用视频编码(versatile video coding,VVC)和基准集(benchmark set,BMS)的较新编码技术中被进一步细化。使用属于已可用样本的邻近样本值,可以形成预测器块。根据方向将邻近样本的样本值复制到预测器块中。可以将对使用的方向的参考编码在比特流中,或者可以自己预测对使用的方向的参考。
参照图1A,右下方描绘的是从H.265的33个可能预测器方向(对应于35个帧内模式的33个角度模式)已知的九个预测器方向的子集。箭头相交的点(101)表示正被预测的样本。箭头表示对样本进行预测的方向。例如,箭头(102)指示根据右上方的与水平线成45度角的一个或多个样本对样本(101)进行预测。类似地,箭头(103)指示根据样本(101)左下方的与水平线成22.5度角的一个或多个样本对样本(101)进行预测。
仍然参照图1A,左上方描绘的是4×4个样本的正方形块(104)(由黑体虚线指示)。正方形块(104)包括16个样本,每个样本均用“S”、其在Y维度上的位置(例如,行索引)以及其在X维度上的位置(例如,列索引)来标记。例如,样本S21是Y维度上(从顶部起)的第二样本并且是X维度上(从左侧起)的第一样本。类似地,样本S44是在Y维度和X维度两者上块(104)中的第四个样本。由于块的大小是4×4个样本,因此S44在右下方。另外示出的是遵循类似的编号方案的参考样本。参考样本用R、其相对于块(104)的Y位置(例如,行索引)和X位置(列索引)来标记。在H.264和H.265二者中,预测样本与重构下的块相邻;因此不需要使用负值。
帧内图片预测可以通过从沿着用信令通知的预测方向合适的相邻样本复制参考样本值来工作。例如,假设编码视频比特流包括信令,针对该块,该信令指示与箭头(102)一致的预测方向——即,根据与水平线成45度角的右上方的一个或多个预测样本来预测样本。在这种情况下,根据同一参考样本R05来预测样本S41、S32、S23和S14。然后,根据参考样本R08来预测样本S44。
在某些情况下,可以例如,通过插值将多个参考样本的值进行组合以便计算参考样本;尤其是当方向不能以45度均匀可分割时。
随着视频编码技术的发展,可能的方向的数量也在增加。在H.264(2003年)中,可以表示九个不同的方向。在H.265(2013年)中,增加到33个,并且JEM/VVC/BMS在公开时可以支持多至65个方向。已经进行了实验来识别最可能的方向,并且熵编码中的某些技术被用于以少量的比特表示这些可能的方向,代价是较少的可能的方向。此外,有时可以根据在相邻的已解码的块中使用的相邻方向来预测方向本身。
图1B示出了示意图(105),其描绘根据JEM的65个帧内预测方向以示出预测方向的数量随时间增加。
编码视频比特流中表示方向的帧内预测方向比特的映射可以根据不同的视频编码技术而不同;并且该映射的范围可以例如从预测方向的简单直接映射到帧内预测模式,码字,涉及最可能模式的复杂自适应方案以及类似技术。然而,在所有情况下,可能存在与某些其他方向相比统计上较不可能在视频内容中出现的某些方向。由于视频压缩的目标是减少冗余,因此在运转良好的视频编码技术中,与更可能的方向相比,那些较不可能的方向将由更大数量的比特来表示。
运动补偿可以是有损压缩技术,并且可以涉及下述技术:在该技术中,来自先前重构的图片或其部分(参考图片)的样本数据的块,在由运动矢量(下文中为MV)指示的方向上空间移位之后,被用于预测重新重构的图片或图片部分。在一些情况下,参考图片可以与当前重构下的图片相同。MV可以具有两个维度X和Y,或者具有三个维度,第三个维度是使用中的参考图片的指示(间接地,第三个维度可以是时间维度)。
在一些视频压缩技术中,可以根据其他MV预测适用于样本数据的特定区域的MV,例如根据与样本数据的与重构下的区域在空间上相邻的另一区域有关并且在解码顺序上在该MV之前的MV,来预测该MV。上述预测可以大幅减少对MV进行编码所需的数据量,从而消除冗余并且增加压缩。MV预测可以有效地工作,例如,原因是在对从摄像机得出的输入视频信号(称为自然视频)进行编码时,存在比可适用单个MV的区域更大的区域在相似方向上移动的统计上的可能性,并且因此在一些情况下可以使用从相邻区域的MV得出的相似MV来预测所述更大的区域。这使得针对给定区域得到的MV与根据周围MV预测的MV相似或相同,并且又可以在熵编码之后以与在直接对MV进行编码的情况下将使用的比特相比更少数量的比特来表示MV。在一些情况下,MV预测可以是根据原始信号(即,样本流)得出的信号(即,MV)的无损压缩的示例。在其他情况下,MV预测本身可以是有损的,例如由于在根据若干周围MV计算预测器时的舍入误差而是有损的。
在H.265/HEVC(ITU-T H.265建议书,“High Efficiency Video Coding”,2016年12月)中描述了各种MV预测机制。在H.265提供的多种MV预测机制中,本文中描述的是在下文中称为“空间合并”的技术。
参照图1C,当前块(111)可以包括能够根据已经空间移位的相同大小的先前块预测的在运动搜索过程期间由编码器得到的样本。代替直接对该MV进行编码,可以使用与用A0、A1和B0、B1、B2(分别对应112至116)表示的五个周围样本中的任一样本相关联的MV,从与一个或更多个参考图片相关联的例如从最近(在解码顺序上)的参考图片得出MV。在H.265中,MV预测可以使用来自相邻块正在使用的同一参考图片的预测器。
发明内容
本公开内容的各方面提供用于视频编码/解码的设备。一种设备包括处理电路系统,所述处理电路系统基于以下中之一来确定编码区域的色度分量的量化参数的偏移:(i)色度分量的像素值范围,(ii)色度分量的复杂度水平,或(iii)色度分量的噪声水平。处理电路系统基于量化参数和所确定的偏移对编码区域的变换系数执行量化处理。处理电路系统生成包括经量化的变换系数的视频比特流。
在实施方式中,处理电路系统生成包括量化参数的偏移的视频比特流。
在实施方式中,处理电路系统确定编码区域的亮度分量的像素值范围。处理电路系统确定亮度分量的像素值范围与色度分量的像素值范围之间的范围比。处理电路系统基于范围比与范围阈值之间的比较来确定量化参数的偏移。
在实施方式中,对于亮度分量和色度分量中的每一个,相应分量的像素值范围是相应分量的像素的最大像素值与最小像素值之间的差。
在实施方式中,处理电路系统确定编码区域的亮度分量的复杂度水平。处理电路系统确定亮度分量的复杂度水平与色度分量的复杂度水平之间的复杂度比。处理电路系统基于复杂度比与复杂度阈值之间的比较来确定量化参数的偏移。
在实施方式中,对于亮度分量和色度分量中的每一个,相应分量的复杂度水平基于以下中之一:(i)相应分量的像素的像素值的方差,(ii)相应分量的残差的绝对差之和,或(iii)相应分量的残差的绝对变换差之和。
在实施方式中,处理电路系统基于色度分量的噪声水平与噪声阈值之间的比较来确定量化参数的偏移。
在实施方式中,处理电路系统确定编码区域的亮度分量的噪声水平。处理电路系统确定亮度分量的噪声水平与色度分量的噪声水平之间的噪声比。处理电路系统基于噪声比与噪声比阈值之间的比较来确定量化参数的偏移。
在实施方式中,对于亮度分量和色度分量中的每一个,相应分量的噪声水平基于对相应分量的像素应用的边缘检测以及对边缘检测的结果应用的拉普拉斯卷积。
本公开内容的各方面提供了用于视频编码/解码的方法。该方法可以执行由用于视频编码/解码的设备执行的过程中的任一者或组合。在该方法中,基于以下中之一来确定编码区域的色度分量的量化参数的偏移:(i)色度分量的像素值范围,(ii)色度分量的复杂度水平,或(iii)色度分量的噪声水平。基于量化参数和所确定的偏移对编码区域的变换系数执行量化处理。生成包括经量化的变换系数的视频比特流。
本公开内容的各方面还提供一种存储指令的非暂态计算机可读介质,所述指令在由至少一个处理器执行时使所述至少一个处理器执行用于视频编码/解码的方法中的任一者或组合。
附图说明
根据以下详细描述和附图,所公开的主题的进一步特征、性质和各种优点将更加明显,在附图中:
图1A是帧内预测模式的示例性子集的示意性图示;
图1B是示例性帧内预测方向的图示;
图1C是一个示例中的当前块及其周围的空间合并候选的示意性图示;
图2是根据实施方式的通信系统的简化框图的示意性图示;
图3是根据实施方式的通信系统的简化框图的示意性图示;
图4是根据实施方式的解码器的简化框图的示意性图示;
图5是根据实施方式的编码器的简化框图的示意性图示;
图6示出了根据另一实施方式的编码器的框图;
图7示出了根据另一实施方式的解码器的框图;
图8示出了根据本公开内容的实施方式的示例性噪声检测过程;
图9示出了根据本公开内容的实施方式的8位编码区域的色彩分量的示例性直方图;
图10示出了根据实施方式的示例性流程图;以及
图11是根据实施方式的计算机系统的示意性图示。
具体实施方式
I.视频解码器和编码器系统
图2示出了根据本公开内容的实施方式的通信系统(200)的简化框图。通信系统(200)包括可以经由例如网络(250)彼此通信的多个终端装置。例如,通信系统(200)包括经由网络(250)互连的第一对终端装置(210)和(220)。在图2的示例中,第一对终端装置(210)和(220)执行数据的单向传输。例如,终端装置(210)可以对视频数据(例如,由终端装置(210)捕获的视频图片流)进行编码,以供经由网络(250)传输至另一终端装置(220)。编码视频数据可以以一个或更多个编码视频比特流的形式传输。终端装置(220)可以从网络(250)接收编码视频数据,对编码视频数据进行解码以恢复视频图片,并且根据所恢复的视频数据显示视频图片。单向数据传输在媒体服务应用等中可以是常见的。
在另一示例中,通信系统(200)包括执行编码视频数据的双向传输的第二对终端装置(230)和(240),该双向传输可能例如在视频会议期间发生。对于数据的双向传输,在示例中,终端装置(230)和(240)中的每个终端装置可以对视频数据(例如,由终端装置捕获的视频图片流)进行编码,以供经由网络(250)传输至终端装置(230)和(240)中的另一终端装置。终端装置(230)和(240)中的每个终端装置还可以接收由终端装置(230)和(240)中的另一终端装置传输的编码视频数据,并且可以对该编码视频数据进行解码以恢复视频图片,并且可以根据所恢复的视频数据在可访问的显示装置处显示视频图片。
在图2的示例中,终端装置(210)、(220)、(230)和(240)可以被示出为服务器、个人计算机和智能电话,但是本公开内容的原理可以不被这样限制。本公开内容的实施方式适用于膝上型计算机、平板电脑、媒体播放器和/或专用视频会议设备。网络(250)表示在终端装置(210)、(220)、(230)和(240)之间传送编码视频数据的任何数量的网络,包括例如有线(连线的)和/或无线通信网络。通信网络(250)可以在电路交换信道和/或分组交换信道中交换数据。代表性的网络包括电信网络、局域网、广域网和/或因特网。出于本讨论的目的,除非下面在本文中说明,否则网络(250)的架构和拓扑对于本公开内容的操作而言可能是无关紧要的。
作为所公开的主题的应用的示例,图3示出了视频编码器和视频解码器在流式传输环境中的放置。所公开的主题可以同样地适用于其他支持视频的应用,包括例如视频会议、数字TV、在包括CD、DVD、存储棒等的数字介质上存储压缩视频。
流式传输系统可以包括捕获子系统(313),该捕获子系统(313)可以包括创建例如未压缩的视频图片流(302)的视频源(301),例如数字摄像机。在示例中,视频图片流(302)包括由数字摄像机拍摄的样本。视频图片流(302)被描绘为粗线以强调当与编码视频数据(304)(或编码视频比特流)比较时高的数据量,该视频图片流(302)可以由耦接至视频源(301)的包括视频编码器(303)的电子装置(320)进行处理。视频编码器(303)可以包括硬件、软件或其组合,以实现或实施如下更详细地描述的所公开的主题的各方面。编码视频数据(304)(或编码视频比特流(304))被描绘为细线以强调当与视频图片流(302)比较时较低的数据量,编码视频数据(304)(或编码视频比特流(304))可以存储在流式传输服务器(305)上以供将来使用。一个或更多个流式传输客户端子系统例如图3中的客户端子系统(306)和(308)可以访问流式传输服务器(305)以检索编码视频数据(304)的副本(307)和(309)。客户端子系统(306)可以包括例如电子装置(330)中的视频解码器(310)。视频解码器(310)对传入的编码视频数据的副本(307)进行解码,并且创建可以在显示器(312)(例如,显示屏)或另一呈现装置(未描绘)上呈现的传出的视频图片流(311)。在一些流式传输系统中,可以根据某些视频编码/压缩标准对编码视频数据(304)、(307)和(309)(例如,视频比特流)进行编码。这些标准的示例包括ITU-T H.265建议书。在示例中,开发中的视频编码标准被非正式地称为通用视频编码(Versatile Video Coding,VVC)。所公开的主题可以用于VVC的背景下。
注意,电子装置(320)和(330)可以包括其他部件(未示出)。例如,电子装置(320)可以包括视频解码器(未示出),并且电子装置(330)也可以包括视频编码器(未示出)。
图4示出了根据本公开内容的实施方式的视频解码器(410)的框图。视频解码器(410)可以被包括在电子装置(430)中。电子装置(430)可以包括接收器(431)(例如,接收电路系统)。视频解码器(410)可以代替图3的示例中的视频解码器(310)使用。
接收器(431)可以接收要由视频解码器(410)解码的一个或更多个编码视频序列;在同一实施方式或另一实施方式中,一次接收一个编码视频序列,其中,每个编码视频序列的解码独立于其他编码视频序列。可以从信道(401)接收编码视频序列,该信道(401)可以是到存储编码视频数据的存储装置的硬件/软件链路。接收器(431)可以接收编码视频数据以及其他数据,例如编码音频数据和/或辅助数据流,它们可以被转发至其各自的使用实体(未描绘)。接收器(431)可以将编码视频序列与其他数据分开。为了防止网络抖动,可以将缓冲存储器(415)耦接在接收器(431)与熵解码器/解析器(420)(此后称为“解析器(420)”)之间。在某些应用中,缓冲存储器(415)是视频解码器(410)的一部分。在其他应用中,缓冲存储器(415)可以在视频解码器(410)外部(未描绘)。在又一些其他应用中,在视频解码器(410)外部可以存在缓冲存储器(未描绘)以例如防止网络抖动,并且另外在视频解码器(410)内部可以存在另一缓冲存储器(415)以例如处理播出时序。当接收器(431)从具有足够带宽和可控性的存储/转发装置或从等时同步网络接收数据时,可能不需要缓冲存储器(415),或者缓冲存储器(415)可以是小的。为了在诸如因特网的尽力型(best effort)分组网络上使用,可能需要缓冲存储器(415),该缓冲存储器(415)可以是相对大的并且可以有利地具有自适应大小,并且可以至少部分地在视频解码器(410)外部的操作系统或类似元件(未描绘)中实现。
视频解码器(410)可以包括解析器(420)以根据编码视频序列重构符号(421)。这些符号的类别包括:用于管理视频解码器(410)的操作的信息,以及可能地包括用于控制呈现装置诸如呈现装置(412)(例如,显示屏)的信息,该呈现装置(412)不是电子装置(430)的组成部分而是可以耦接至电子装置(430),如图4中所示。呈现装置的控制信息可以呈补充增强信息(Supplemental Enhancement Information,SEI消息)或视频可用性信息(VideoUsability Information,VUI)参数集片段(未描绘)的形式。解析器(420)可以对接收到的编码视频序列进行解析/熵解码。编码视频序列的编码可以符合视频编码技术或标准,并且可以遵循各种原理,包括可变长度编码、霍夫曼编码、具有或不具有上下文敏感性的算术编码等。解析器(420)可以基于与组相对应的至少一个参数,从编码视频序列中提取针对视频解码器中的像素子组中的至少一个子组的子组参数集。子组可以包括:图片组(Group ofPictures,GOP)、图片、图块、切片、宏块、编码单元(Coding Unit,CU)、块、变换单元(Transform Unit,TU)、预测单元(Prediction Unit,PU)等。解析器(420)还可以从编码视频序列中提取诸如变换系数、量化器参数值、MV等的信息。
解析器(420)可以对从缓冲存储器(415)接收的视频序列执行熵解码/解析操作,以创建符号(421)。
符号(421)的重构可以根据编码视频图片或其部分的类型(例如:帧间图片和帧内图片、帧间块和帧内块)以及其他因素而涉及多个不同的单元。涉及哪些单元以及涉及方式可以通过由解析器(420)从编码视频序列解析的子组控制信息控制。为了清楚起见,未描绘解析器(420)与下面的多个单元之间的这样的子组控制信息流。
除已经提到的功能块以外,视频解码器(410)可以在概念上被细分为如下所述的多个功能单元。在商业约束下操作的实际实现中,这些单元中的许多单元彼此紧密交互并且可以至少部分地彼此集成。然而,出于描述所公开的主题的目的,在概念上细分为下面的功能单元是适当的。
第一单元是缩放器/逆变换单元(451)。缩放器/逆变换单元(451)从解析器(420)接收经量化的变换系数以及控制信息(包括要使用哪种变换、块大小、量化因子、量化缩放矩阵等)作为(一个或多个)符号(421)。缩放器/逆变换单元(451)可以输出包括样本值的块,所述块可以被输入到聚合器(455)中。
在一些情况下,缩放器/逆变换(451)的输出样本可以属于帧内编码块;即:不使用来自先前重构的图片的预测性信息但可以使用来自当前图片的先前重构部分的预测性信息的块。这样的预测性信息可以由帧内图片预测单元(452)提供。在一些情况下,帧内图片预测单元(452)使用从当前图片缓冲器(458)获取的周围已重构信息生成大小和形状与重构中的块相同的块。例如,当前图片缓冲器(458)缓冲部分重构的当前图片和/或完全重构的当前图片。在一些情况下,聚合器(455)基于每个样本将帧内预测单元(452)已经生成的预测信息添加至如由缩放器/逆变换单元(451)提供的输出样本信息。
在其他情况下,缩放器/逆变换单元(451)的输出样本可以属于帧间编码并且可能经运动补偿的块。在这样的情况下,运动补偿预测单元(453)可以访问参考图片存储器(457)以获取用于预测的样本。在根据属于块的符号(421)对所获取的样本进行运动补偿之后,这些样本可以由聚合器(455)添加至缩放器/逆变换单元(451)的输出(在这种情况下被称作残差样本或残差信号),从而生成输出样本信息。可以通过MV来控制运动补偿预测单元(453)从其获取预测样本的参考图片存储器(457)内的地址,所述MV可以以符号(421)的形式被运动补偿预测单元(453)获得,所述符号(421)可以具有例如X分量、Y分量和参考图片分量。运动补偿还可以包括当使用子样本精确MV时对从参考图片存储器(457)中获取的样本值的插值、MV预测机制等。
聚合器(455)的输出样本可以在环路滤波器单元(456)中经受各种环路滤波技术。视频压缩技术可以包括环路内滤波器技术,所述环路内滤波器技术受控于编码视频序列(也被称为编码视频比特流)中包括的参数,所述参数可以作为来自解析器(420)的符号(421)被环路滤波器单元(456)获得,但是环路内滤波器技术也可以对在对编码图片或编码视频序列的(按解码顺序的)先前部分进行解码期间获得的元信息进行响应,以及对先前重构并且经环路滤波的样本值进行响应。
环路滤波器单元(456)的输出可以是样本流,该样本流可以被输出至呈现装置(412)以及被存储在参考图片存储器(457)中以供在将来的帧间图片预测中使用。
一旦被完全重构,某些编码图片就可以被用作参考图片以供在将来预测中使用。例如,一旦与当前图片对应的编码图片被完全重构,并且该编码图片(通过例如解析器(420))被识别为参考图片,则当前图片缓冲器(458)可以变为参考图片存储器(457)的一部分,并且可以在开始重构随后的编码图片之前重新分配新的当前图片缓冲器。
视频解码器(410)可以根据诸如ITU-T H.265建议书的标准中的预定的视频压缩技术执行解码操作。在编码视频序列遵循视频压缩技术或标准的语法以及视频压缩技术或标准中记录的配置文件两者的意义上,编码视频序列可以符合由所使用的视频压缩技术或标准指定的语法。具体地,配置文件可以从视频压缩技术或标准中可用的所有工具中选择某些工具作为仅在该配置文件下可供使用的工具。对于合规性,还需要编码视频序列的复杂度处于由视频压缩技术或标准的级别限定的界限内。在一些情况下,级别限制最大图片大小、最大帧速率、最大重构样本率(以例如每秒百万样本为单位进行测量)、最大参考图片大小等。在一些情况下,由级别设置的限制可以通过假想参考解码器(HypotheticalReference Decoder,HRD)规范以及在编码视频序列中用信令通知的HRD缓冲器管理的元数据来进一步限定。
在实施方式中,接收器(431)可以连同编码视频一起接收附加(冗余)数据。附加数据可以被包括为(一个或多个)编码视频序列的一部分。附加数据可以由视频解码器(410)使用以对数据进行适当解码以及/或者更准确地重构原始视频数据。附加数据可以呈例如时间、空间或信噪比(signal noise ratio,SNR)增强层、冗余切片、冗余图片、前向纠错码等形式。
图5示出了根据本公开内容的实施方式的视频编码器(503)的框图。视频编码器(503)被包括在电子装置(520)中。电子装置(520)包括传输器(540)(例如,传输电路系统)。视频编码器(503)可以代替图3的示例中的视频编码器(303)使用。
视频编码器(503)可以从视频源(501)(并非图5的示例中的电子装置(520)的一部分)接收视频样本,视频源(501)可以捕获要由视频编码器(503)进行编码的(一个或多个)视频图像。在另一示例中,视频源(501)是电子装置(520)的一部分。
视频源(501)可以提供要由视频编码器(503)进行编码的呈数字视频样本流形式的源视频序列,该数字视频样本流可以具有任何合适的比特深度(例如:8比特、10比特、12比特……)、任何色彩空间(例如,BT.601Y CrCB、RGB……)和任何合适的采样结构(例如YCrCb 4:2:0、Y CrCb4:4:4)。在媒体服务系统中,视频源(501)可以是存储先前准备的视频的存储装置。在视频会议系统中,视频源(501)可以是捕获本地图像信息作为视频序列的摄像装置。视频数据可以被提供为当按顺序观看时被赋予运动的多个单独的图片。图片本身可以被组织为空间像素阵列,其中,取决于所用的采样结构、色彩空间等,每个像素可以包括一个或更多个样本。本领域技术人员可以容易理解像素与样本之间的关系。以下描述集中于样本。
根据实施方式,视频编码器(503)可以实时地或者在应用所需的任何其他时间约束下将源视频序列的图片编码并压缩成编码视频序列(543)。施行适当的编码速度是控制器(550)的一个功能。在一些实施方式中,控制器(550)控制如下所述的其他功能单元并且在功能上耦接至所述其他功能单元。为简洁起见未描绘耦接。由控制器(550)设置的参数可以包括速率控制相关参数(图片跳过、量化器、率失真优化技术的λ值……)、图片大小、图片组(GOP)布局、最大MV允许参考区域等。控制器(550)可以被配置成具有其他合适的功能,这些功能属于针对特定系统设计优化的视频编码器(503)。
在一些实施方式中,视频编码器(503)被配置成在编码环路中进行操作。作为极度简化的描述,在示例中,编码环路可以包括源编码器(530)(例如,负责基于要编码的输入图片和(一个或多个)参考图片创建符号,例如符号流)和嵌入在视频编码器(503)中的(本地)解码器(533)。解码器(533)以与(远程)解码器创建样本数据的方式类似的方式重构符号以创建样本数据(因为在所公开的主题中所考虑的视频压缩技术中,符号与编码视频比特流之间的任何压缩是无损的)。重构的样本流(样本数据)被输入到参考图片存储器(534)。由于符号流的解码产生与解码器位置(本地或远程)无关的比特精确结果,因此参考图片存储器(534)中的内容在本地编码器与远程编码器之间也是比特精确的。换句话说,编码器的预测部分将与解码器在解码期间使用预测时所“看到”的样本值完全相同的样本值“视为”参考图片样本。参考图片同步性的这种基本原理(以及在例如由于信道误差而无法维持同步性的情况下产生的偏移)也用于一些相关技术。
“本地”解码器(533)的操作可以与“远程”解码器例如已经在上面结合图4详细描述的视频解码器(410)的操作相同。然而,另外简要地参照图4,由于符号可用并且由熵编码器(545)将符号编码成编码视频序列以及由解析器(420)对符号进行解码可以是无损的,因此可以不在本地解码器(533)中完全实现视频解码器(410)的包括缓冲存储器(415)和解析器(420)的熵解码部分。
此时可以观察到,除了存在于解码器中的解析/熵解码之外的任何解码器技术也必然需要以基本上相同的功能形式存在于对应的编码器中。为此,所公开的主题集中于解码器操作。可以简化编码器技术的描述,因为编码器技术与全面地描述的解码器技术相反。仅在某些方面,在下文需要并提供更详细的描述。
在一些示例中,在操作期间,源编码器(530)可以执行运动补偿预测编码,所述运动补偿预测编码参考来自视频序列的被指定为“参考图片”的一个或更多个先前编码图片来对输入图片进行预测性编码。以此方式,编码引擎(532)对输入图片的像素块与可以被选作该输入图片的(一个或多个)预测参考的(一个或多个)参考图片的像素块之间的差异进行编码。
本地视频解码器(533)可以基于由源编码器(530)创建的符号,对可以被指定为参考图片的图片的编码视频数据进行解码。编码引擎(532)的操作可以有利地为有损处理。当编码视频数据可以在视频解码器(图5中未示出)处被解码时,重构的视频序列通常可以是源视频序列的带有一些误差的副本。本地视频解码器(533)复制可以由视频解码器对参考图片执行的解码处理,并且可以使重构的参考图片存储在参考图片缓存(534)中。以此方式,视频编码器(503)可以在本地存储重构的参考图片的副本,所述副本与将由远端视频解码器获得的重构参考图片具有共同内容(不存在传输误差)。
预测器(535)可以针对编码引擎(532)执行预测搜索。也就是说,对于要被编码的新图片,预测器(535)可以在参考图片存储器(534)中搜索可以用作针对新图片的合适预测参考的样本数据(作为候选参考像素块)或特定元数据,例如参考图片MV、块形状等。预测器(535)可以在逐样本块-像素块的基础上操作,以找到合适的预测参考。在一些情况下,如由通过预测器(535)获得的搜索结果所确定的,输入图片可以具有从参考图片存储器(534)中存储的多个参考图片取得的预测参考。
控制器(550)可以管理源编码器(530)的编码操作,包括例如设置用于对视频数据进行编码的参数和子组参数。
所有以上提及的功能单元的输出可以在熵编码器(545)中经受熵编码。熵编码器(545)通过根据诸如霍夫曼编码、可变长度编码、算术编码等的技术对由各种功能单元生成的符号进行无损压缩来将这些符号转换为编码视频序列。
传输器(540)可以缓冲由熵编码器(545)创建的(一个或多个)编码视频序列,从而为经由通信信道(560)进行传输做准备,该通信信道(560)可以是到存储编码视频数据的存储装置的硬件/软件链路。传输器(540)可以将来自视频编码器(503)的编码视频数据与要传输的其他数据合并,所述其他数据例如是编码音频数据和/或辅助数据流(未示出来源)。
控制器(550)可以管理视频编码器(503)的操作。在编码期间,控制器(550)可以向每个编码图片分配某一编码图片类型,这可能影响可以应用于相应的图片的编码技术。例如,通常可以向图片分配以下图片类型之一:
帧内图片(I图片),其可以是可以在不将序列中的任何其他图片用作预测源的情况下进行编码和解码的图片。一些视频编解码器容许不同类型的帧内图片,包括例如独立解码器刷新(Independent Decoder Refresh,“IDR”)图片。本领域技术人员了解I图片的那些变型及其相应的应用和特征。
预测性图片(P图片),其可以是可以使用利用至多一个MV和参考索引来预测每个块的样本值的帧间预测或帧内预测进行编码和解码的图片。
双向预测性图片(B图片),其可以是可以使用利用至多两个MV和参考索引来预测每个块的样本值的帧间预测或帧内预测进行编码和解码的图片。类似地,多个预测性图片可以使用多于两个参考图片和相关联元数据以用于单个块的重构。
源图片通常可以在空间上细分成多个样本块(例如,分别为4×4、8×8、4×8或16×16样本的块),并且逐块地被编码。可以参考其他(编码的)块对这些块进行预测性编码,所述其他块是通过应用于块的相应图片的编码分配而确定的。例如,可以对I图片的块进行非预测性编码,或者可以参考同一图片的编码块对I图片的块进行预测性编码(空间预测或帧内预测)。可以参考一个先前编码的参考图片经由空间预测或经由时间预测对P图片的像素块进行预测性编码。可以参考一个或两个先前编码的参考图片经由空间预测或经由时间预测对B图片的块进行预测性编码。
视频编码器(503)可以根据诸如ITU-T H.265建议书的预定的视频编码技术或标准执行编码操作。在其操作中,视频编码器(503)可以执行各种压缩操作,包括利用输入视频序列中的时间和空间冗余的预测性编码操作。因此,编码视频数据可以符合由所使用的视频编码技术或标准指定的语法。
在实施方式中,传输器(540)可以连同编码视频一起传输附加数据。源编码器(530)可以包括这样的数据作为编码视频序列的一部分。附加数据可以包括时间/空间/SNR增强层、其他形式的冗余数据例如冗余图片和切片、SEI消息、VUI参数集片段等。
视频可以按时间序列被捕获为多个源图片(视频图片)。帧内图片预测(通常被简化为帧内预测)利用给定图片中的空间相关性,而帧间图片预测利用图片之间的(时间或其他)相关性。在示例中,正在被编码/解码的特定图片(其被称为当前图片)被分割成块。在当前图片中的块类似于视频中先前编码且又被缓冲的参考图片中的参考块的情况下,可以通过被称作MV的矢量对当前图片中的块进行编码。MV指向参考图片中的参考块,并且在使用多个参考图片的情况下,MV可以具有标识参考图片的第三维度。
在一些实施方式中,可以将双向预测技术用于帧间图片预测。根据双向预测技术,使用两个参考图片,例如按解码次序均在视频中的当前图片之前(但按显示次序可能分别在过去和将来)的第一参考图片和第二参考图片。可以通过指向第一参考图片中的第一参考块的第一MV和指向第二参考图片中的第二参考块的第二MV对当前图片中的块进行编码。可以通过第一参考块和第二参考块的组合来预测所述块。
此外,可以在帧间图片预测中使用合并模式技术以提高编码效率。
根据本公开内容的一些实施方式,以块为单位执行诸如帧间图片预测和帧内图片预测的预测。例如,根据HEVC标准,将视频图片序列中的图片分割成编码树单元(codingtree unit,CTU)以便压缩,图片中的CTU具有相同大小,例如64×64像素、32×32像素或16×16像素。一般来说,CTU包括三个编码树块(coding tree block,CTB),即一个亮度CTB和两个色度CTB。每个CTU可以被递归地以四叉树分成一个或多个编码单元(coding unit,CU)。例如,可以将64×64像素的CTU分成一个64×64像素的CU,或4个32×32像素的CU,或16个16×16像素的CU。在示例中,对每个CU进行分析以确定针对该CU的预测类型,例如帧间预测类型或帧内预测类型。取决于时间和/或空间可预测性,将CU分成一个或更多个预测单元(prediction unit,PU)。通常,每个PU包括亮度预测块(prediction block,PB)和两个色度PB。在实施方式中,以预测块为单位来执行编解码(编码/解码)中的预测操作。使用亮度预测块作为预测块的示例,预测块包括诸如8×8像素、16×16像素、8×16像素、16×8像素等的像素的值(例如,亮度值)的矩阵。
图6示出了根据本公开内容的另一实施方式的视频编码器(603)的图。视频编码器(603)被配置成接收视频图片序列中的当前视频图片内的样本值的处理块(例如,预测块),并且将处理块编码到作为编码视频序列的一部分的编码图片中。在示例中,视频编码器(603)代替图3的示例中的视频编码器(303)使用。
在HEVC示例中,视频编码器(603)接收处理块例如8×8样本的预测块等的样本值的矩阵。视频编码器(603)使用例如率失真优化来确定是使用帧内模式、帧间模式还是双向预测模式对处理块进行最佳编码。在将以帧内模式对处理块进行编码的情况下,视频编码器(603)可以使用帧内预测技术将处理块编码到编码图片中;而在将以帧间模式或双向预测模式对处理块进行编码的情况下,视频编码器(603)可以分别使用帧间预测或双向预测技术将处理块编码到编码图片中。在某些视频编码技术中,合并模式可以是帧间图片预测子模式,其中,在不借助于一个或更多个MV预测器外部的编码MV分量的情况下从所述预测器得出MV。在某些其他视频编码技术中,可以存在适用于对象块的MV分量。在示例中,视频编码器(603)包括其他部件,例如,确定处理块的模式的模式决策模块(未示出)。
在图6的示例中,视频编码器(603)包括如图6所示的耦接在一起的帧间编码器(630)、帧内编码器(622)、残差计算器(623)、开关(626)、残差编码器(624)、总体控制器(621)以及熵编码器(625)。
帧间编码器(630)被配置成接收当前块(例如,处理块)的样本,将所述块与参考图片中的一个或更多个参考块(例如,先前图片和随后图片中的块)进行比较,生成帧间预测信息(例如,根据帧间编码技术的冗余信息、MV、合并模式信息的描述),以及使用任何合适的技术基于帧间预测信息计算帧间预测结果(例如,预测块)。在一些示例中,参考图片是基于编码视频信息被解码的解码参考图片。
帧内编码器(622)被配置成:接收当前块(例如,处理块)的样本;在一些情况下将该块与同一图片中已经编码的块进行比较;在变换之后生成量化系数;以及在一些情况下还生成帧内预测信息(例如,根据一个或更多个帧内编码技术生成帧内预测方向信息)。在示例中,帧内编码器(622)还基于帧内预测信息和同一图片中的参考块计算帧内预测结果(例如,预测块)。
总体控制器(621)被配置成确定总体控制数据并且基于总体控制数据来控制视频编码器(603)的其他部件。在示例中,总体控制器(621)确定块的模式,并且基于该模式将控制信号提供至开关(626)。例如,当所述模式是帧内模式时,总体控制器(621)控制开关(626)以选择帧内模式结果以供残差计算器(623)使用,并且控制熵编码器(625)以选择帧内预测信息并且将所述帧内预测信息包括在比特流中;以及当所述模式是帧间模式时,总体控制器(621)控制开关(626)以选择帧间预测结果以供残差计算器(623)使用,并且控制熵编码器(625)以选择帧间预测信息并且将所述帧间预测信息包括在比特流中。
残差计算器(623)被配置成计算所接收的块与选自帧内编码器(622)或帧间编码器(630)的预测结果之间的差(残差数据)。残差编码器(624)被配置成基于残差数据进行操作,以对残差数据进行编码来生成变换系数。在示例中,残差编码器(624)被配置成将残差数据从空间域转换到频域,并且生成变换系数。然后,变换系数经受量化处理以获得量化的变换系数。在各种实施方式中,视频编码器(603)还包括残差解码器(628)。残差解码器(628)被配置成执行逆变换,并且生成解码残差数据。解码残差数据可以由帧内编码器(622)和帧间编码器(630)适当地使用。例如,帧间编码器(630)可以基于解码残差数据和帧间预测信息来生成解码块,以及帧内编码器(622)可以基于解码残差数据和帧内预测信息来生成解码块。在一些示例中,适当处理解码块以生成解码图片,并且这些解码图片可以缓冲在存储器电路(未示出)中并且用作参考图片。
熵编码器(625)被配置成对比特流进行格式化以包括编码块。熵编码器(625)被配置成包括根据合适的标准例如HEVC的各种信息。在示例中,熵编码器(625)被配置成在比特流中包括总体控制数据、选择的预测信息(例如,帧内预测信息或帧间预测信息)、残差信息和其他合适的信息。注意,根据所公开的主题,当在帧间模式或双向预测模式的合并子模式下对块进行编码时,不存在残差信息。
图7示出了根据本公开内容的另一实施方式的视频解码器(710)的图。视频解码器(710)被配置成接收作为编码视频序列的一部分的编码图片,并且对编码图片进行解码以生成重构的图片。在示例中,视频解码器(710)代替图3示例中的视频解码器(310)使用。
在图7的示例中,视频解码器(710)包括如图7所示的耦接在一起的熵解码器(771)、帧间解码器(780)、残差解码器(773)、重构模块(774)以及帧内解码器(772)。
熵解码器(771)可以被配置成根据编码图片来重构某些符号,这些符号表示构成编码图片的语法元素。这样的符号可以包括例如对块进行编码的模式(例如,帧内模式、帧间模式、双向预测模式、后两者的合并子模式或另一子模式)、可以标识分别供帧内解码器(772)或帧间解码器(780)使用以进行预测的某些样本或元数据的预测信息(例如,帧内预测信息或帧间预测信息)、例如量化的变换系数的形式的残差信息等。在示例中,当预测模式是帧间模式或双向预测模式时,将帧间预测信息提供给帧间解码器(780);以及当预测类型是帧内预测类型时,将帧内预测信息提供给帧内解码器(772)。残差信息可以经受逆量化并且被提供给残差解码器(773)。
帧间解码器(780)被配置成接收帧间预测信息,并且基于帧间预测信息生成帧间预测结果。
帧内解码器(772)被配置成接收帧内预测信息,并且基于帧内预测信息生成预测结果。
残差解码器(773)被配置成执行逆量化以提取去量化的变换系数,并且处理所述去量化的变换系数,以将残差从频域转换到空间域。残差解码器(773)还可能需要某些控制信息(以包括量化器参数(Quantizer Parameter,QP)),并且所述信息可以由熵解码器(771)提供(未描绘出数据路径,因为这可能仅是少量控制信息)。
重构模块(774)被配置成在空间域中将由残差解码器(773)输出的残差与预测结果(根据情况由帧间预测模块或帧内预测模块输出)进行组合以形成重构的块,所述重构的块可以是重构的图片的一部分,所述重构的图片又可以是重构的视频的一部分。注意,可以执行其他合适的操作例如去块操作等来改善视觉质量。
注意,可以使用任何合适的技术来实现视频编码器(303)、(503)和(603)以及视频解码器(310)、(410)和(710)。在实施方式中,可以使用一个或更多个集成电路来实现视频编码器(303)、(503)和(603)以及视频解码器(310)、(410)和(710)。在另一实施方式中,可以使用执行软件指令的一个或更多个处理器来实现视频编码器(303)、(503)和(603)以及视频解码器(310)、(410)和(710)。
II.VVC中的量化
在诸如VVC的一些相关示例中,最大量化参数(QP)值可以从51扩展到63,并且初始QP的信令可以相应地改变。当对切片slice_qp_delta的量化参数偏移的非零值进行编码时,可以在切片段层处修改切片SliceQpY的亮度量化参数的初始值。具体地,语法元素init_qp_minus26的值可以被修改为在(-26+QpBdOffsetY)至+37的范围内,其中QpBdOffsetY表示亮度量化参数偏移。当变换块的大小不是4的幂时,可以与对QP或QPlevelScale表的修改一起而不是通过乘以181/256(或181/128)来处理变换系数,以便通过变换过程补偿隐式缩放。对于变换跳过块,最小允许的QP可以被定义为4,因为当QP等于4时,量化步长变为1。
在诸如HEVC或H.264的一些相关示例中,使用固定查找表来将亮度量化参数QPY转换为色度量化参数QPC。在VVC中,使用更灵活的亮度到色度QP映射。代替具有固定表,可以使用灵活的分段线性模型在序列参数集(SPS)中用信令通知亮度到色度QP映射关系。灵活的分段线性模型的约束是每一段的斜率不能为负(即,当亮度QP增加时,色度QP必须保持平坦或增加,但不能减小)。分段线性模型可以由以下定义:(1)模型中段的数目;以及(2)每一段的输入(亮度)和输出(色度)增量QP。分段线性模型的输入范围为[-QpBdOffsetY,63],分段线性模型的输出范围为[-QpBdOffsetC,63],其中QpBdOffsetC表示色度量化参数偏移。可以针对Cb、Cr和联合Cb/Cr编码单独用信令通知QP映射关系,或者针对所有三种类型的残差编码联合用信令通知QP映射关系。
与HEVC中相同,在VVC中允许CU级QP自适应。可以分别用信令通知亮度分量和色度分量的增量QP值。对于色度分量,可以例如以与HEVC中类似的方式在图片参数集(PPS)中以偏移列表的形式来用信令通知允许的色度QP偏移值。可以分别针对Cb、Cr和联合Cb/Cr残差编码来定义偏移列表。对于Cb、Cr和联合Cb/Cr偏移列表中的每一个,可以允许多达6个偏移值。在CU级处,可以用信令通知索引以指示偏移列表中的偏移值中的哪一个用来调整CU的色度QP。CU色度QP偏移信令也可以与虚拟管道解码单元(VPDU)CU QP增量可用性一致。对于大小大于64×64的CU,无论CU是否具有非零编码块标志(CBF),色度QP偏移都可以用第一变换单元发送。
在一些相关示例中,可以在切片报头中用信令通知色度QP偏移,如表1中所示。
表1
在表1中,语法元素pps_slice_chroma_qp_offsets_present_flag等于1指定语法元素sh_cb_qp_offset和sh_cr_qp_offset存在于相关联的切片报头中。语法元素pps_slice_chroma_qp_offsets_present_flag等于0指定语法元素sh_cb_qp_offset和sh_cr_qp_offset不存在于相关联的片段报头中。当不存在时,语法元素pps_slice_chroma_qp_offsets_present_flag的值被推断为等于0。
语法元素sh_cb_qp_offset指定在确定量化参数Qp′Cb的值时要添加到语法元素pps_cb_qp_offset的值的差。例如,语法元素sh_cb_qp_offset的值应在-12至+12且包括-12和+12的范围内。当语法元素sh_cb_qp_offset不存在时,它被推断为等于0。pps_cb_qp_offset+sh_cb_qp_offset的值应在-12至+12且包括-12和+12的范围内。
语法元素sh_cr_qp_offset指定在确定量化参数Qp′Cr的值时要添加到语法元素pps_cr_qp_offset的值的差。例如,语法元素sh_cr_qp_offset的值应在-12至+12且包括-12和+12的范围内。当语法元素sh_cr_qp_offset不存在时,它被推断为等于0。pps_cr_qp_offset+sh_cr_qp_offset的值应在-12至+12且包括-12和+12的范围内。
语法元素sh_joint_cbcr_qp_offset指定在确定量化参数Qp′CbCr的值时要添加到语法元素pps_joint_cbcr_qp_offset_value的值的差。例如,语法元素sh_joint_cbcr_qp_offset的值应在-12至+12且包括-12和+12的范围内。当语法元素sh_joint_cbcr_qp_offset不存在时,它被推断为等于0。pps_joint_cbcr_qp_offset_value+sh_joint_cbcr_qp_offset的值应在-12至+12且包括-12和+12的范围内。
III.噪声检测
图8示出了根据本公开内容的实施方式的示例性噪声检测过程。示例性噪声检测过程可以用于一个或更多个级别,诸如图片级别、切片级别、图块级别、块级别等。
在实施方式中,在编码区域(例如,图片、切片或块)上使用示例性噪声检测过程,其中每个像素表示为I(x,y),其中(x,y)表示相应像素的坐标。可以在边缘检测中使用Sobel操作,以从噪声检测中排除边缘。Sobel操作的输出可以在等式(1)中描述:
可以使用G的阈值Gth确定边缘图。在拉普拉斯运算的噪声检测中仅能使用G<Gth的像素。图片的噪声水平计算可以在等式(2)中描述:
在等式(2)中,W和H分别是编码区域的宽度和高度,N是拉普拉斯算子,其在等式(3)中描述:
IV.自适应色度QP偏移
在一些情况下,亮度分量和色度分量的编码效率(和/或速率节省)没有很好地平衡,这可能导致视频编码和/或解码效率低下。
本公开内容包括自适应调整编码器和/或解码器中的色度QP偏移的方法。自适应调整可以基于源视频信号或先前编码的信息,以便提供不同色彩分量诸如Y、U和V之间的编码效率(和/或速率节省)的更好平衡。
在不同的实施方式中,可以单独或联合地得出色度QP偏移值。在一个实施方式中,可以针对每个色度分量(Cb、Cr或联合Cb/Cr)单独得出色度QP偏移值。在一个实施方式中,可以针对Cb分量和Cr分量二者联合地得出色度QP偏移值。
注意,当在以下描述中使用色度时,它可以指色度Cb、色度Cr或联合色度Cb/Cr。
根据本公开内容的方面,可以使用像素值范围来确定色度QP偏移。对于要编码的包括多个像素的编码区域(例如,编码块、切片、图块、图片等),编码区域的色彩分量(例如,亮度或色度)的像素值范围可以被限定为色彩分量的像素的最小像素值与色彩分量的像素的最大像素值之间的范围(或差)。例如,对于8位编码区域,像素值范围可以等于256(例如,所有像素值在0至255当中)或小于256(例如,没有像素为0值且所有像素值在1至255当中)。
在一个实施方式中,在编码区域的亮度分量的像素范围与编码区域的色度分量的像素范围之间得出范围比。可以将范围比与一个或更多个范围阈值进行比较,以确定色度QP偏移。在示例中,在比较中使用一个范围阈值。当范围比大于范围阈值时,色度QP偏移被设置为dQP1。否则,色度QP偏移被设置为dQP2。在另一示例中,在比较中使用多个范围阈值。当范围比在第一范围阈值与第二范围阈值之间时,色度QP偏移被设置为dQP1。当范围比在第二范围阈值与第三范围阈值之间时,色度QP偏移被设置为dQP2。应注意,可以在其他实施方式中使用多于两个偏移(例如,dQP3、dQP4等)和/或多于三个阈值。
在一些实施方式中,可以基于色彩分量的直方图得出色彩分量的像素值范围。图9示出了根据本公开内容的实施方式的8位编码区域的色彩分量的示例性直方图。直方图示出了色彩分量的像素的分布。直方图的X轴表示8位编码区域中像素的可用像素值(从0至255)。直方图的Y轴表示每个像素值的像素数目。直方图中的非零仓对应于至少一个像素落入其中的像素值间隔。直方图范围可以得出为直方图中具有非零仓的最大像素值与具有非零仓的最小像素值之间的范围(或差)。在图9的示例中,直方图范围为Pmax-Pmin。
在一个实施方式中,可以使用基于直方图的方法来得出自适应色度QP偏移。在基于直方图的方法中,可以首先生成亮度、色度Cb和/或色度Cr分量的直方图。亮度直方图和色度直方图的特性(例如,直方图范围)之间的关系可以用来得出色度QP偏移。直方图的具有非零仓的像素值的范围可以用于色度QP偏移推导。例如,可以根据亮度直方图范围与相应色度分量的直方图范围的比来得出每个色度分量的色度QP偏移。该比值可以被称为直方图范围比。
在一个示例中,可以单独针对色度Cb和Cr得出直方图范围比,如下:
Range_ratio_Luma_Cb=hist_range_luma/hist_range_Cb (等式4)
Range_ratio_Luma_Cr=hist_range_luma/hist_range_Cr (等式5)
在上面的等式中,hist_range_luma表示亮度分量的直方图范围,hist_range_Cb表示色度Cb分量的直方图范围,以及hist_range_Cr表示色度Cr分量的直方图范围。每个分量的直方图范围可以得出为相应分量的直方图中具有非零仓的最大像素值与具有非零仓的最小像素值之间的差。
在另一示例中,可以针对Cb和Cr分量联合地得出直方图范围比,如下:
hist_range_chroma_joint=(hist_range_Cb*w1+hist_range_Cr*w2)/(w1+w2) (等式6)
Range_ratio_Luma_Chroma_joint=hist_range_luma/hist_range_chroma_joint (等式7)
在等式(6)中,w1和w2是加权因子。
在一些实施方式中,一个或更多个阈值可以用于色度QP偏移推导。
在一个实施方式中,一个阈值可以用于色度QP偏移推导。当例如从等式(4)、(5)或(6)中之一得出的直方图范围比大于阈值时,对应色度分量的色度QP偏移可以被设置为dQP1。当直方图范围比不大于阈值时,对应色度分量的色度QP偏移可以被设置为dQP2。在一个示例中,dQP1可以等于-1并且dQP2可以等于0。在另一示例中,dQP1可以等于0并且dQP2可以等于1。在其他示例中,dQP1和dQP2可以是在-12至+12且包括-12和+12的范围内的不同值。
在一个实施方式中,多个阈值可以用于色度QP偏移推导。例如,当直方图范围比诸如从等式(4)、(5)或(6)中之一得出的比值在第一阈值与第二阈值之间时,对应色度分量的色度QP偏移可以被设置为dQP1。当直方图范围比在第二阈值与第三阈值之间时,对应色度分量的色度QP偏移可以被设置为dQP2。应注意,可以在其他实施方式中使用多于两个偏移(例如,dQP3、dQP4等)和/或多于三个阈值。
根据本公开内容的方面,可以使用基于复杂度的方法来得出自适应色度QP偏移。在基于复杂度的方法中,可以首先得出亮度、色度Cb和/或色度Cr分量的复杂度水平。在一个示例中,可以使用色彩分量(例如,亮度或色度分量)的像素的方差作为色彩分量的复杂度水平。在另一示例中,可以使用帧内预测和/或帧间预测中的色彩分量的残差的绝对差之和(sum of absolute differences,SAD)作为色彩分量的复杂度水平。在另一示例中,可以使用帧内预测和/或帧间预测中的色彩分量的残差的绝对变换差之和(SATD)作为色彩分量的复杂度水平。
在一些实施方式中,亮度的复杂度水平与色度分量的复杂度水平之间的复杂度比可以用来得出色度分量的色度QP偏移。
在一个实施方式中,当复杂度比大于阈值时,色度QP偏移可以被设置为dQP1。否则,色度QP偏移可以被设置为dQP2。
在一个实施方式中,可以将多个阈值与复杂度比进行比较,以得出色度分量的色度QP偏移。例如,当复杂度比在第一阈值与第二阈值之间时,色度QP偏移可以被设置为dQP1。当复杂度比在第二阈值与第三阈值之间时,色度QP偏移可以被设置为dQP2。应注意,可以在其他实施方式中使用多于两个偏移(例如,dQP3、dQP4等)和/或多于三个阈值。
根据本公开内容的方面,可以使用基于噪声信息的方法来得出自适应色度QP偏移。在基于噪声信息的方法中,可以首先得出亮度、色度Cb和/或色度Cr分量的噪声水平。在一个示例中,图8中所示的噪声检测过程可以用来得出色彩分量的噪声水平。在另一示例中,其他噪声算法可以用来得出色彩分量的噪声水平。
在一个实施方式中,当例如由等式(2)计算的色度分量的噪声水平大于阈值时,色度分量的色度QP偏移可以被设置为dQP1。否则,色度QP偏移可以被设置为dQP2。
在一个实施方式中,亮度分量的噪声水平与色度分量的噪声水平之间的噪声比可以用来确定色度分量的色度QP偏移。在示例中,当噪声比大于阈值时,色度分量的色度QP偏移可以被设置为dQP1。否则,色度QP偏移可以被设置为dQP2。在另一示例中,可以将多个阈值与噪声比进行比较以得出色度分量的色度QP偏移。例如,当噪声比在第一阈值与第二阈值之间时,色度QP偏移可以被设置为dQP1。当噪声比在第二阈值与第三阈值之间时,色度QP偏移可以被设置为dQP2。应注意,可以在其他实施方式中使用多于两个偏移(例如,dQP3、dQP4等)和/或多于三个阈值。
根据本公开内容的方面,得出的色度QP偏移可以在编码视频比特流中编码,并传输到解码器。例如,可以在SPS级别、PPS级别、图片级别、切片级别、图块级别、块级别等处用信令通知得出的色度QP偏移。
根据本公开内容的方面,编码器可以使用上面的方法(例如,基于直方图的方法、基于复杂度的方法和基于噪声信息的方法)中之一来得出色度QP偏移。编码器可以用信令通知得出的色度QP偏移。在这种情况下,解码器可以使用得出的色度QP偏移来执行解码,而不管用来确定色度QP偏移的方法如何。可替选地,编码器可以用信令通知指示用来得出色度QP偏移的方法的语法元素,使得解码器可以基于用信令通知的方法得出色度QP偏移。例如,编码器可以将语法元素sps_chroma_QP_offset_noise_enabled设置为“真”并将语法元素传输到解码器。解码器可以使用基于噪声信息的方法来得出色度QP偏移。在基于噪声信息的方法中,可以基于重构的编码区域诸如参考图片或先前重构的编码块得出亮度和色度分量的噪声水平。
根据本公开内容的方面,编码器可以比较上面的方法(例如,基于直方图的方法、基于复杂度的方法和基于噪声信息的方法)中的至少两者。在比较之后,编码器可以确定方法中之一来得出色度QP偏移。例如,编码器可以得出上面的每个方法的相应的色度QP偏移候选,并且选择一个候选作为色度分量的色度QP偏移。例如,与其他候选相比,所选择的候选可以提供不同色彩分量之间的编码效率(和/或速率节省)的更好平衡。编码器可以用信令通知得出的色度QP偏移。可替选地,编码器可以用信令通知语法元素,该语法元素指示所确定的用来得出色度QP偏移的方法或上面的方法中的至少两者,使得解码器可以基于用信令通知的方法得出色度QP偏移。
根据本公开内容的方面,解码器可以接收色度QP偏移或指示得出色度QP偏移的方法(例如,基于直方图的方法、基于复杂度的方法和基于噪声信息的方法中之一)的语法元素。
根据本公开内容的方面,解码器可以在不用信令通知的情况下得出色度QP偏移。例如,解码器可以比较上面的方法(例如,基于直方图的方法、基于复杂度的方法和基于噪声信息的方法)中的至少两者。在比较之后,编码器可以确定方法中之一来得出色度QP偏移。例如,解码器可以得出上面的每个方法的相应的色度QP偏移候选,并且选择一个候选作为色度分量的色度QP偏移。上面的方法中的至少两者可以是预先确定的或用信令通知的。
根据本公开内容的方面,解码器可以基于重构的信号(例如,重构的图片、重构的切片或重构的块)得出当前编码区域的色度QP偏移。在实施方式中,重构的信号可以来自参考图片。
V.流程图
图10示出了概述根据本公开内容的实施方式的示例性处理(1000)的流程图。在各种实施方式中,处理(1000)由处理电路系统执行,处理电路系统包括例如终端装置(210)、(220)、(230)和(240)中的处理电路系统、执行视频编码器(303)的功能的处理电路系统、执行视频解码器(310)的功能的处理电路系统、执行视频编码器(503)的功能的处理电路系统等。在一些实施方式中,处理(1000)以软件指令实现,因此当处理电路系统执行软件指令时,处理电路系统执行处理(1000)。
处理(1000)通常可以在步骤(S1010)处开始,其中,处理(1000)基于以下中之一来确定编码区域的色度分量的量化参数的偏移:(i)色度分量的像素值范围,(ii)色度分量的复杂度水平,或(iii)色度分量的噪声水平。然后,处理(1000)进行至步骤(S1020)。
在步骤(S1020)处,处理(1000)基于量化参数和所确定的偏移对编码区域的变换系数执行量化处理。然后,处理(1000)进行至步骤(S1030)。
在步骤(S1030)处,处理(1000)生成包括经量化的变换系数的视频比特流。
然后,处理(1000)结束。
在实施方式中,处理(1000)生成包括量化参数的偏移的视频比特流。
在实施方式中,处理(1000)确定编码区域的亮度分量的像素值范围。处理(1000)确定亮度分量的像素值范围与色度分量的像素值范围之间的范围比。处理(1000)基于范围比与范围阈值之间的比较来确定量化参数的偏移。
在实施方式中,对于亮度分量和色度分量中的每一个,相应分量的像素值范围是相应分量的像素的最大像素值与最小像素值之间的差。
在实施方式中,处理(1000)确定编码区域的亮度分量的复杂度水平。处理(1000)确定亮度分量的复杂度水平与色度分量的复杂度水平之间的复杂度比。处理(1000)基于复杂度比与复杂度阈值之间的比较来确定量化参数的偏移。
在实施方式中,对于亮度分量和色度分量中的每一个,相应分量的复杂度水平基于以下中之一:(i)相应分量的像素的像素值的方差,(ii)相应分量的残差的绝对差之和,或(iii)相应分量的残差的绝对变换差之和。
在实施方式中,处理(1000)基于色度分量的噪声水平与噪声阈值之间的比较来确定量化参数的偏移。
在实施方式中,处理(1000)确定编码区域的亮度分量的噪声水平。处理(1000)确定亮度分量的噪声水平与色度分量的噪声水平之间的噪声比。处理(1000)基于噪声比与噪声比阈值之间的比较来确定量化参数的偏移。
在实施方式中,对于亮度分量和色度分量中的每一个,相应分量的噪声水平基于对相应分量的像素应用的边缘检测以及对边缘检测的结果应用的拉普拉斯卷积。
VI.计算机系统
上述技术可以实现为使用计算机可读指令的计算机软件,并且物理存储在一个或更多个计算机可读介质中。例如,图11示出了适于实现所公开主题的某些实施方式的计算机系统(1100)。
可以使用任何合适的机器代码或计算机语言对计算机软件进行编码,所述机器代码或计算机语言可以经受汇编、编译、链接等机制以创建包括指令的代码,所述指令可以由一个或更多个计算机中央处理单元(central processing unit,CPU)、图形处理单元(Graphics Processing Unit,GPU)等直接执行或者通过解译、微代码执行等执行。
指令可以在各种类型的计算机或其部件(包括例如个人计算机、平板计算机、服务器、智能电话、游戏装置、物联网装置等)上执行。
图11中示出的用于计算机系统(1100)的部件本质上是示例性的,并且不旨在对实现本公开内容的实施方式的计算机软件的使用范围或功能提出任何限制。部件的配置也不应当被解释为具有与计算机系统(1100)的示例性实施方式中示出的部件中的任何一个部件或部件的组合有关的任何依赖性或要求。
计算机系统(1100)可以包括某些人机接口输入装置。这样的人机接口输入装置可以对由一个或更多个人类用户通过例如触觉输入(例如:击键、滑动、数据手套移动)、音频输入(例如:语音、拍打)、视觉输入(例如:姿势)、嗅觉输入(未描绘)实现的输入作出响应。人机接口装置还可以用于捕获不一定与人的有意输入直接有关的某些介质,例如,音频(例如:语音、音乐、环境声音)、图像(例如:扫描图像、从静态图像摄像装置获得的摄影图像)、视频(例如二维视频、包括立体视频的三维视频)。
输入人机接口装置可以包括以下中的一个或更多个(仅描绘每个中的一个):键盘(1101)、鼠标(1102)、轨迹板(1103)、触摸屏(1110)、数据手套(未示出)、操纵杆(1105)、麦克风(1106)、扫描仪(1107)和摄像机(1108)。
计算机系统(1100)还可以包括某些人机接口输出装置。这样的人机接口输出装置可以通过例如触觉输出、声音、光和气味/味道来刺激一个或更多个人类用户的感官。这样的人机接口输出装置可以包括:触觉输出装置(例如,通过触摸屏(1110)、数据手套(未示出)或操纵杆(1105)进行的触觉反馈,但是也可以存在不用作输入装置的触觉反馈装置);音频输出装置(例如:扬声器(1109)、头戴式耳机(未描绘));视觉输出装置(例如,屏幕(1110),包括CRT屏幕、LCD屏幕、等离子屏幕、OLED屏幕,每个均具有或不具有触摸屏输入能力,每个均具有或不具有触觉反馈能力——其中的一些可能能够通过诸如立体图像输出的方式输出二维视觉输出或多于三维输出;虚拟现实眼镜(未描绘);全息显示器和烟罐(未描绘));以及打印机(未描绘)。这些视觉输出装置(诸如屏幕(1110))可以通过图形适配器(1150)连接至系统总线(1148)。
计算机系统(1100)还可以包括人类可访问的存储装置及其相关联的介质,例如包括具有CD/DVD等介质(1121)的CD/DVD ROM/RW(1120)的光学介质、拇指驱动器(1122)、可移除硬盘驱动器或固态驱动器(1123)、诸如磁带和软盘的传统磁介质(未描绘)、基于专用ROM/ASIC/PLD的装置诸如安全软件狗(未描绘)等。
本领域技术人员还应当理解,结合当前公开的主题使用的术语“计算机可读介质”不包含传输介质、载波或其他瞬时信号。
计算机系统(1100)还可以包括到一个或更多个通信网络(1155)的网络接口(1154)。一个或更多个通信网络(1155)可以例如是无线的、有线的、光学的。一个或更多个通信网络(1155)还可以是局域网、广域网、城域网、车辆和工业网络、实时网络、延迟容忍的网络等。一个或更多个通信网络(1155)的示例包括局域网诸如以太网、无线LAN,包括GSM、3G、4G、5G、LTE等的蜂窝网络,包括有线电视、卫星电视和地面广播电视的电视有线或无线广域数字网络,包括CANBus的车辆和工业网络等。某些网络通常需要附接至某些通用数据端口或外围总线(1149)(例如,计算机系统(1100)的USB端口)的外部网络接口适配器;其他网络通常通过附接至如下所述的系统总线集成到计算机系统(1100)的核心中(例如,通过以太网接口集成到PC计算机系统,或通过蜂窝网络接口集成到智能电话计算机系统)。计算机系统(1100)可以通过使用这些网络中的任何网络与其他实体进行通信。这样的通信可以是单向仅接收的(例如,广播电视)、单向仅发送的(例如,到某些CANbus装置的CANbus)、或双向的,例如到使用局域或广域数字网络的其他计算机系统。可以在如上所述的这些网络和网络接口中的每个网络和网络接口上使用特定的协议和协议栈。
以上提及的人机接口装置、人类可访问存储装置和网络接口可以附接至计算机系统(1100)的核(1140)。
核(1140)可以包括一个或更多个中央处理单元(CPU)(1141)、图形处理单元(GPU)(1142)、现场可编程门区域(Field Programmable Gate Area,FPGA)(1143)形式的专用可编程处理单元、用于某些任务的硬件加速器(1144)、图形适配器(1150)等。这些装置以及只读存储器(Read-only memory,ROM)(1145)、随机存取存储器(1146)、内部大容量存储装置(1147)例如内部非用户可访问的硬盘驱动器、SSD等可以通过系统总线(1148)连接。在一些计算机系统中,可以以一个或更多个物理插头的形式访问系统总线(1148),以通过另外的CPU、GPU等实现扩展。外围装置可以直接地或通过外围总线(1149)附接至核的系统总线(1148)。在示例中,屏幕(1110)可以连接至图形适配器(1150)。外围总线的架构包括PCI、USB等。
CPU(1141)、GPU(1142)、FPGA(1143)和加速器(1144)可以执行某些指令,这些指令可以组合构成以上提及的计算机代码。该计算机代码可以被存储在ROM(1145)或RAM(1146)中。过渡数据也可以被存储在RAM(1146)中,而永久数据可以被存储在例如内部大容量存储装置(1147)中。可以通过使用缓存存储器来实现对存储装置中的任何存储装置的快速存储和检索,该缓存存储器可以与一个或更多个CPU(1141)、GPU(1142)、大容量存储装置(1147)、ROM(1145)、RAM(1146)等紧密关联。
计算机可读介质上可以具有用于执行各种计算机实现的操作的计算机代码。介质和计算机代码可以是出于本公开内容的目的而专门设计和构造的介质和计算机代码,或者介质和计算机代码可以具有计算机软件领域的技术人员公知且可用的类型。
作为示例而非限制,具有架构的计算机系统(1100)特别是核(1140)可以提供作为处理器(包括CPU、GPU、FPGA、加速器等)执行体现在一个或更多个有形计算机可读介质中的软件的结果而提供的功能。这样的计算机可读介质可以是与如以上所介绍的用户可访问的大容量存储装置相关联的介质,以及具有非暂态性质的核(1140)的某些存储装置,例如核内部的大容量存储装置(1147)或ROM(1145)。可以将实现本公开内容的各种实施方式的软件存储在这样的装置中并且由核(1140)执行。根据特定需求,计算机可读介质可以包括一个或更多个存储器装置或芯片。软件可以使核(1140)——特别是其中的处理器(包括CPU、GPU、FPGA等)——执行本文中描述的特定处理或特定处理的特定部分,包括限定存储在RAM(1146)中的数据结构以及根据由软件限定的处理修改这样的数据结构。另外地或作为替选,计算机系统可以由于硬连线或以其他方式体现在电路中(例如:加速器(1144))的逻辑而提供功能,该逻辑可以代替软件而操作或与软件一起操作以执行本文中描述的特定处理或特定处理的特定部分。在适当的情况下,提及软件可以包含逻辑,并且反之提及逻辑也可以包含软件。在适当的情况下,提及计算机可读介质可以包含存储用于执行的软件的电路(例如,集成电路(integrated circuit,IC))、实施用于执行的逻辑的电路或上述两者。本公开内容包括硬件与软件的任何合适的组合。
虽然本公开内容已经描述了若干示例性实施方式,但是存在落入本公开内容的范围内的变更、置换和各种替代等同物。因此将认识到,虽然本文中没有明确示出或描述,但是本领域技术人员能够设想实施本公开内容的原理并且因此在其精神和范围内的许多系统和方法。
附录A:首字母缩写词
ALF:自适应环路滤波器
AMVP:高级运动矢量预测
APS:自适应参数集
ASIC:专用集成电路
ATMVP:替选/高级时间运动矢量预测
AV1:AOMedia视频1
AV2:AOMedia视频2
BMS:基准集
BV:块矢量
CANBus:控制器局域网总线
CB:编码块
CC-ALF:交叉分量自适应环路滤波器
CD:致密盘
CDEF:约束定向增强过滤器
CPR:当前图片参考
CPU:中央处理单元
CRT:阴极射线管
CTB:编码树块
CTU:编码树单元
CU:编码单元
DPB:解码器图片缓冲器
DPCM:差分脉冲编码调制
DPS:解码参数集
DVD:数字视频光盘
FPGA:现场可编程门区
JCCR:联合CbCr残差编码
JVET:联合视频探索组
GOP:图片组
GPU:图形处理单元
GSM:全球移动通信系统
HDR:高动态范围
HEVC:高效视频编码
HRD:假设参考解码器
IBC:帧内块复制
IC:集成电路
ISP:帧内子划分
JEM:联合探索模型
LAN:局域网
LCD:液晶显示器
LR:环路恢复滤波器
LRU:环路恢复单元
LTE:长期演变
MPM:最可能模式
MV:运动矢量
OLED:有机发光二极管
PBs:预测块
PCI:外围组件互连
PDPC:位置相关预测组合
PLD:可编程逻辑器件
PPS:图片参数集
PU:预测单元
RAM:随机存取存储器
ROM:只读存储器
SAO:样本自适应偏移
SCC:屏幕内容编码
SDR:标准动态范围
SEI:补充增强信息
SNR:信噪比
SPS:序列参数集
SSD:固态驱动器
TU:变换单元
USB:通用串行总线
VPS:视频参数集
VUI:视频可用性信息
VVC:多功能视频编码
WAIP:广角帧内预测。
Claims (20)
1.一种用于在编码器处进行视频编码的方法,所述方法包括:
基于以下中之一来确定针对编码区域的色度分量的量化参数的偏移:(i)所述色度分量的像素值范围,(ii)所述色度分量的复杂度水平,或(iii)所述色度分量的噪声水平;
基于所述量化参数和所确定的偏移对所述编码区域的变换系数执行量化处理;以及
生成包括经量化的变换系数的视频比特流。
2.根据权利要求1所述的方法,其中,所述生成包括:
生成包括所述量化参数的偏移的所述视频比特流。
3.根据权利要求1所述的方法,其中,所述确定包括:
确定所述编码区域的亮度分量的像素值范围;
确定所述亮度分量的像素值范围与所述色度分量的像素值范围之间的范围比;以及
基于所述范围比与范围阈值之间的比较来确定所述量化参数的偏移。
4.根据权利要求3所述的方法,其中,对于所述亮度分量和所述色度分量中的每一个,相应分量的所述像素值范围是所述相应分量的像素的最大像素值与最小像素值之间的差。
5.根据权利要求1所述的方法,其中,所述确定包括:
确定所述编码区域的亮度分量的复杂度水平;
确定所述亮度分量的复杂度水平与所述色度分量的复杂度水平之间的复杂度比;以及
基于所述复杂度比与复杂度阈值之间的比较来确定所述量化参数的偏移。
6.根据权利要求5所述的方法,其中,对于所述亮度分量和所述色度分量中的每一个,所述相应分量的复杂度水平基于以下中之一:(i)所述相应分量的像素的像素值的方差,(ii)所述相应分量的残差的绝对差之和,或(iii)所述相应分量的残差的绝对变换差之和。
7.根据权利要求1所述的方法,其中,所述确定包括:
基于所述色度分量的噪声水平与噪声阈值之间的比较来确定所述量化参数的偏移。
8.根据权利要求1所述的方法,其中,所述确定包括:
确定所述编码区域的亮度分量的噪声水平;
确定所述亮度分量的噪声水平与所述色度分量的噪声水平之间的噪声比;以及
基于所述噪声比与噪声比阈值之间的比较来确定所述量化参数的偏移。
9.根据权利要求8所述的方法,其中,对于所述亮度分量和所述色度分量中的每一个,所述相应分量的噪声水平基于对所述相应分量的像素应用的边缘检测以及对所述边缘检测的结果应用的拉普拉斯卷积。
10.一种设备,包括:
处理电路系统,所述处理电路系统被配置成:
基于以下中之一来确定针对编码区域的色度分量的量化参数的偏移:(i)所述色度分量的像素值范围,(ii)所述色度分量的复杂度水平,或(iii)所述色度分量的噪声水平;
基于所述量化参数和所确定的偏移对所述编码区域的变换系数执行量化处理;以及
生成包括经量化的变换系数的视频比特流。
11.根据权利要求10所述的设备,其中,所述处理电路系统还被配置成:
生成包括所述量化参数的偏移的所述视频比特流。
12.根据权利要求10所述的设备,其中,所述处理电路系统还被配置成:
确定所述编码区域的亮度分量的像素值范围;
确定所述亮度分量的像素值范围与所述色度分量的像素值范围之间的范围比;以及
基于所述范围比与范围阈值之间的比较来确定所述量化参数的偏移。
13.根据权利要求12所述的设备,其中,对于所述亮度分量和所述色度分量中的每一个,相应分量的所述像素值范围是所述相应分量的像素的最大像素值与最小像素值之间的差。
14.根据权利要求10所述的设备,其中,所述处理电路系统还被配置成:
确定所述编码区域的亮度分量的复杂度水平;
确定所述亮度分量的复杂度水平与所述色度分量的复杂度水平之间的复杂度比;以及
基于所述复杂度比与复杂度阈值之间的比较来确定所述量化参数的偏移。
15.根据权利要求14所述的设备,其中,对于所述亮度分量和所述色度分量中的每一个,所述相应分量的复杂度水平基于以下中之一:(i)所述相应分量的像素的像素值的方差,(ii)所述相应分量的残差的绝对差之和,或(iii)所述相应分量的残差的绝对变换差之和。
16.根据权利要求10所述的设备,其中,所述处理电路系统还被配置成:
基于所述色度分量的噪声水平与噪声阈值之间的比较来确定所述量化参数的偏移。
17.根据权利要求10所述的设备,其中,所述处理电路系统还被配置成:
确定所述编码区域的亮度分量的噪声水平;
确定所述亮度分量的噪声水平与所述色度分量的噪声水平之间的噪声比;以及
基于所述噪声比与噪声比阈值之间的比较来确定所述量化参数的偏移。
18.根据权利要求17所述的设备,其中,对于所述亮度分量和所述色度分量中的每一个,所述相应分量的噪声水平基于对所述相应分量的像素应用的边缘检测以及对所述边缘检测的结果应用的拉普拉斯卷积。
19.一种存储指令的非暂态计算机可读存储介质,所述指令在由至少一个处理器执行时使所述至少一个处理器执行:
基于以下中之一来确定针对编码区域的色度分量的量化参数的偏移:(i)所述色度分量的像素值范围,(ii)所述色度分量的复杂度水平,或(iii)所述色度分量的噪声水平;
基于所述量化参数和所确定的偏移对所述编码区域的变换系数执行量化处理;以及
生成包括经量化的变换系数的视频比特流。
20.根据权利要求19所述的非暂态计算机可读存储介质,其中,所存储的指令使所述至少一个处理器执行:
生成包括所述量化参数的偏移的所述视频比特流。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US202163193003P | 2021-05-25 | 2021-05-25 | |
US63/193,003 | 2021-05-25 | ||
US17/495,535 US11652996B2 (en) | 2021-05-25 | 2021-10-06 | Method and apparatus for video coding |
US17/495,535 | 2021-10-06 | ||
PCT/US2021/054220 WO2022250723A1 (en) | 2021-05-25 | 2021-10-08 | Method and apparatus for video coding |
Publications (2)
Publication Number | Publication Date |
---|---|
CN115699738A true CN115699738A (zh) | 2023-02-03 |
CN115699738B CN115699738B (zh) | 2024-08-20 |
Family
ID=84194501
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202180032218.3A Active CN115699738B (zh) | 2021-05-25 | 2021-10-08 | 视频编解码方法设备、装置以及计算机可读存储介质 |
Country Status (6)
Country | Link |
---|---|
US (1) | US11652996B2 (zh) |
EP (1) | EP4133721A4 (zh) |
JP (1) | JP7514325B2 (zh) |
KR (1) | KR20230010739A (zh) |
CN (1) | CN115699738B (zh) |
WO (1) | WO2022250723A1 (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB2627820A (en) * | 2023-03-03 | 2024-09-04 | Sony Group Corp | Data encoding and decoding |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20090257496A1 (en) * | 2008-04-15 | 2009-10-15 | Sony Corporation | Estimation of b frame average rate quantization parameter (qp) in a group of pictures (gop) |
US20130077676A1 (en) * | 2010-06-11 | 2013-03-28 | Kazushi Sato | Image processing device and method |
US20150071344A1 (en) * | 2013-09-09 | 2015-03-12 | Apple Inc. | Chroma quantization in video coding |
US20180020215A1 (en) * | 2016-07-14 | 2018-01-18 | Arris Enterprises Llc | Region specific encoding and sao-sensitive-slice-width-adaptation for improved-quality hevc encoding |
US20190289291A1 (en) * | 2012-07-02 | 2019-09-19 | Microsoft Technology Licensing, Llc | Use of chroma quantization parameter offsets in deblocking |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20030112863A1 (en) * | 2001-07-12 | 2003-06-19 | Demos Gary A. | Method and system for improving compressed image chroma information |
US7511769B2 (en) | 2005-04-19 | 2009-03-31 | Texas Instruments Incorporated | Interframe noise reduction for video |
JP5502336B2 (ja) | 2009-02-06 | 2014-05-28 | パナソニック株式会社 | 映像信号符号化装置及び、映像信号符号化方法 |
US9451258B2 (en) * | 2012-04-03 | 2016-09-20 | Qualcomm Incorporated | Chroma slice-level QP offset and deblocking |
US9414054B2 (en) | 2012-07-02 | 2016-08-09 | Microsoft Technology Licensing, Llc | Control and use of chroma quantization parameter values |
JP6094688B2 (ja) | 2013-12-27 | 2017-03-15 | ソニー株式会社 | 画像処理装置及び画像処理方法 |
US11019339B2 (en) * | 2017-07-12 | 2021-05-25 | Futurewei Technologies, Inc. | Fractional quantization parameter offset in video compression |
JP7121584B2 (ja) | 2018-08-10 | 2022-08-18 | キヤノン株式会社 | 画像符号化装置及びその制御方法及びプログラム |
US10923084B2 (en) | 2019-03-29 | 2021-02-16 | Intel Corporation | Method and system of de-interlacing for image processing |
US20210058620A1 (en) * | 2019-08-23 | 2021-02-25 | Qualcomm Incorporated | Chroma quantization parameter (qp) derivation for video coding |
WO2021055138A1 (en) * | 2019-09-20 | 2021-03-25 | Alibaba Group Holding Limited | Quantization parameter signaling in video processing |
US11558616B2 (en) * | 2020-03-05 | 2023-01-17 | Qualcomm Incorporated | Methods for quantization parameter control for video coding with joined pixel/transform based quantization |
-
2021
- 2021-10-06 US US17/495,535 patent/US11652996B2/en active Active
- 2021-10-08 JP JP2022568636A patent/JP7514325B2/ja active Active
- 2021-10-08 KR KR1020227044030A patent/KR20230010739A/ko unknown
- 2021-10-08 WO PCT/US2021/054220 patent/WO2022250723A1/en active Application Filing
- 2021-10-08 EP EP21939596.9A patent/EP4133721A4/en active Pending
- 2021-10-08 CN CN202180032218.3A patent/CN115699738B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20090257496A1 (en) * | 2008-04-15 | 2009-10-15 | Sony Corporation | Estimation of b frame average rate quantization parameter (qp) in a group of pictures (gop) |
US20130077676A1 (en) * | 2010-06-11 | 2013-03-28 | Kazushi Sato | Image processing device and method |
US20190289291A1 (en) * | 2012-07-02 | 2019-09-19 | Microsoft Technology Licensing, Llc | Use of chroma quantization parameter offsets in deblocking |
US20150071344A1 (en) * | 2013-09-09 | 2015-03-12 | Apple Inc. | Chroma quantization in video coding |
US20180020215A1 (en) * | 2016-07-14 | 2018-01-18 | Arris Enterprises Llc | Region specific encoding and sao-sensitive-slice-width-adaptation for improved-quality hevc encoding |
Also Published As
Publication number | Publication date |
---|---|
US11652996B2 (en) | 2023-05-16 |
EP4133721A1 (en) | 2023-02-15 |
US20220385905A1 (en) | 2022-12-01 |
JP2023531866A (ja) | 2023-07-26 |
KR20230010739A (ko) | 2023-01-19 |
JP7514325B2 (ja) | 2024-07-10 |
CN115699738B (zh) | 2024-08-20 |
EP4133721A4 (en) | 2023-11-22 |
WO2022250723A1 (en) | 2022-12-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113615185A (zh) | 用于视频编码的方法和装置 | |
CN113259661A (zh) | 视频解码的方法和装置 | |
CN113301333A (zh) | 视频解码的方法和装置 | |
CN114600453A (zh) | 视频编解码的方法和装置 | |
JP2024137976A (ja) | ビデオコーディングのための方法および装置 | |
US20230008488A1 (en) | Entropy coding for intra prediction modes | |
JP2024111184A (ja) | イントラモードコーディングのための改良 | |
CN116076074A (zh) | 用于视频编码中的时域滤波的方法和设备 | |
CN115462069A (zh) | 面向机器的视频译码的方法和设备 | |
CN115136600A (zh) | 用于视频编解码的方法和装置 | |
CN115336268A (zh) | 用于视频编解码的方法和装置 | |
US20230283796A1 (en) | Determining applicability of intra block copy in semi-decoupled partitioning | |
CN115699738B (zh) | 视频编解码方法设备、装置以及计算机可读存储介质 | |
CN114666602A (zh) | 视频解码方法、装置及介质 | |
JP2024513006A (ja) | デコーダが実行するビデオ処理の方法、ビデオ復号化のための装置、及びコンピュータプログラム、並びにエンコーダが実行するビデオ処理の方法 | |
JP2023553996A (ja) | 成分間変換係数レベル復元におけるオフセットの導出 | |
KR20230135670A (ko) | 조인트 모션 벡터 차이 코딩 | |
CN115486072A (zh) | 用于视频译码的方法和设备 | |
JP7571290B2 (ja) | コーディングされたビデオストリームの現在のブロックに対してイントラ予測を実行するための方法、装置、およびコンピュータプログラム | |
US11323732B2 (en) | Method and apparatus for video coding | |
US20230209063A1 (en) | Sign prediction | |
CN115004696A (zh) | 用于视频编码的方法和装置 | |
JP2024539783A (ja) | 動きベクトル差のジョイントコーディング | |
JP2024539780A (ja) | 動きベクトル差分コーディングのための改善されたコンテキスト導出 | |
KR20240000570A (ko) | 인트라 양예측 및 다중 참조 라인 선택을 위한 조화로운 설계 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
REG | Reference to a national code |
Ref country code: HK Ref legal event code: DE Ref document number: 40081149 Country of ref document: HK |
|
GR01 | Patent grant | ||
GR01 | Patent grant |