CN112956199B - 帧内预测的简化参数推导 - Google Patents
帧内预测的简化参数推导 Download PDFInfo
- Publication number
- CN112956199B CN112956199B CN201980072613.7A CN201980072613A CN112956199B CN 112956199 B CN112956199 B CN 112956199B CN 201980072613 A CN201980072613 A CN 201980072613A CN 112956199 B CN112956199 B CN 112956199B
- Authority
- CN
- China
- Prior art keywords
- samples
- chroma
- block
- cclm
- sample
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000009795 derivation Methods 0.000 title description 19
- 238000000034 method Methods 0.000 claims abstract description 657
- 230000007704 transition Effects 0.000 claims abstract description 69
- 238000006243 chemical reaction Methods 0.000 claims description 66
- 238000004590 computer program Methods 0.000 claims description 34
- 230000015654 memory Effects 0.000 claims description 20
- 238000003672 processing method Methods 0.000 claims 1
- 238000012545 processing Methods 0.000 abstract description 105
- 239000000523 sample Substances 0.000 description 397
- 241000023320 Luma <angiosperm> Species 0.000 description 170
- OSWPMRLSEDHDFF-UHFFFAOYSA-N methyl salicylate Chemical compound COC(=O)C1=CC=CC=C1O OSWPMRLSEDHDFF-UHFFFAOYSA-N 0.000 description 170
- 238000005516 engineering process Methods 0.000 description 33
- 230000008569 process Effects 0.000 description 32
- 101150067055 minC gene Proteins 0.000 description 26
- 238000005070 sampling Methods 0.000 description 26
- 230000006870 function Effects 0.000 description 24
- 238000001914 filtration Methods 0.000 description 18
- 229910052739 hydrogen Inorganic materials 0.000 description 16
- 230000001419 dependent effect Effects 0.000 description 15
- 238000005286 illumination Methods 0.000 description 12
- 229910052717 sulfur Inorganic materials 0.000 description 12
- 238000003491 array Methods 0.000 description 11
- 229910052760 oxygen Inorganic materials 0.000 description 9
- 101150076173 cntL gene Proteins 0.000 description 7
- 230000006835 compression Effects 0.000 description 6
- 238000007906 compression Methods 0.000 description 6
- 239000013256 coordination polymer Substances 0.000 description 5
- 229910052698 phosphorus Inorganic materials 0.000 description 5
- 238000013459 approach Methods 0.000 description 4
- 230000008859 change Effects 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 238000012986 modification Methods 0.000 description 4
- 230000004048 modification Effects 0.000 description 4
- 229910052757 nitrogen Inorganic materials 0.000 description 4
- 238000012935 Averaging Methods 0.000 description 3
- 238000004891 communication Methods 0.000 description 3
- 239000013074 reference sample Substances 0.000 description 3
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 2
- 238000004422 calculation algorithm Methods 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 238000013515 script Methods 0.000 description 2
- 238000010187 selection method Methods 0.000 description 2
- 238000000926 separation method Methods 0.000 description 2
- 230000011664 signaling Effects 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 101100149023 Bacillus subtilis (strain 168) secA gene Proteins 0.000 description 1
- 241000947853 Vibrionales Species 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 238000007792 addition Methods 0.000 description 1
- 229910052799 carbon Inorganic materials 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 230000006837 decompression Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 239000000758 substrate Substances 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/30—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
- H04N19/105—Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
- H04N19/11—Selection of coding mode or of prediction mode among a plurality of spatial predictive coding modes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/132—Sampling, masking or truncation of coding units, e.g. adaptive resampling, frame skipping, frame interpolation or high-frequency transform coefficient masking
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/146—Data rate or code amount at the encoder output
- H04N19/149—Data rate or code amount at the encoder output by estimating the code amount by means of a model, e.g. mathematical model or statistical model
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/156—Availability of hardware or computational resources, e.g. encoding based on power-saving criteria
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/157—Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/157—Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
- H04N19/159—Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/176—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/184—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being bits, e.g. of the compressed video stream
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/186—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/189—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/42—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/46—Embedding additional information in the video signal during the compression process
- H04N19/463—Embedding additional information in the video signal during the compression process by compressing encoding parameters before transmission
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/593—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/70—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Mathematical Optimization (AREA)
- Physics & Mathematics (AREA)
- Algebra (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Analysis (AREA)
- Pure & Applied Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computing Systems (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
- Compression, Expansion, Code Conversion, And Decoders (AREA)
- Color Television Systems (AREA)
Abstract
提供视频处理的方法。该方法包含:对于作为色度块的视频的当前视频块与视频的编解码表示之间的转换,确定当前视频块中位置(x,y)处的色度样点的最终预测P(x,y)作为多个跨分量线性模型(MCCLM)的预测结果的组合,其中MCCLM基于色度样点的位置(x,y)选择;以及基于最终预测进行转换。
Description
相关申请的交叉引用
根据适用的专利法和/或巴黎公约的规定,本申请及时要求于2018年11月6日提交的国际专利申请No.PCT/CN2018/114158,于2018年12月1日提交的国际专利申请No.PCT/CN2018/118799,于2018年12月7日提交的国际专利申请No.PCT/CN2018/119709,于2018年12月29日提交的国际专利申请No.PCT/CN2018/125412,于2019年1月1日提交的国际申请No.PCT/CN2019/070002,于2019年2月22日提交的国际专利申请No.PCT/CN2019/075874,于2019年2月24日提交的国际专利申请No.PCT/CN2019/075993,于2019年2月26日提交的国际专利申请No.PCT/CN2019/076195,于2019年3月24日提交的国际专利申请No.PCT/CN2019/079396,于2019年3月25日提交的国际专利申请No.PCT/CN2019/079431,以及于2019年3月26日提交的国际专利申请No.PCT/CN2019/079769的优先权和利益。出于全部目的,根据美国法律,上述申请的全部公开内容作为本申请公开内容的一部分通过引用并入。
技术领域
本专利文档涉及视频处理技术、装置和系统。
背景技术
尽管视频压缩有所进步,数字视频在互联网和其他数字通信网络上仍占最大的带宽使用量。随着能够接收和显示视频的连接用户设备的数量增加,预计数字视频使用所需的带宽将继续增长。
发明内容
本公开描述了装置、系统和方法,其涉及数字视频处理,以及例如视频编解码中的跨分量线性模型(cross-component linear model,CCLM)预测模式的简化线性模型推导。所描述的方法可以应用于现有视频编解码标准(例如,高效视频编解码(HEVC))和未来视频编解码标准(例如,多功能视频编解码(VVC)),或编解码器。
在一个代表性方面中,本公开技术可以用于提供视频处理的方法。该方法包括,为视频的作为色度块的当前视频块与视频的编解码表示之间的转换,基于来自一组相邻色度样点的两个色度样点,确定跨分量线性模型的参数,其中,两个色度样点是基于位置规则从所述组中选择的;以及,根据所述确定进行转换。
在一个代表性方面中,本公开技术可以用于提供视频处理的方法。该方法包括:为视频的作为色度块的当前视频块与视频的编解码表示之间的转换,以基于色度样点的位置所选择的色度样点为基础,确定跨分量线性模型的参数,其中所选择的色度样点选自一组相邻色度样点,并基于所述确定进行转换。
在另一个代表性方面中,本公开技术可以用于提供视频处理的方法。该方法包括:对于当前视频块,确定用于推导线性模型的参数的值的集合的一组相邻色度样点,其中当前视频块的宽度和高度分别为W和H,并且其中,该组相邻色度样点包括位于超出2×W上邻近色度样点或2×H左邻近色度样的至少一个样点;以及,基于线性模型,在当前视频块和视频的包括当前视频块的编解码表示之间进行转换。
在另一个代表性方面中,本公开技术可以用于提供视频处理的方法。该方法包括:为视频的作为色度块的当前视频块与视频的编解码表示之间的转换,确定多个参数集合,其中每个参数集合定义跨分量线性模型(CCLM)并被从对应的色度样点位置处的对应组的色度样点推导;基于多个参数集合,确定最终CCLM的参数;以及基于最终CCLM进行转换。
在另一个代表性方面中,本公开技术可以用于提供视频处理的方法。该方法包括:为视频的当前视频块和视频的编解码表示之间的转换,基于选自当前视频块的相邻亮度和色度样点的N组色度和亮度样点中的色度和亮度样点的最大值和最小值来确定跨分量线性模型(CCLM)的参数;以及使用CCLM进行转换。
在另一个代表性方面中,本公开技术可以用于提供视频处理的方法。该方法包括:为视频的作为色度块的当前视频块和视频的编解码表示之间的转换,确定由两个色度样点和相应的两个亮度样点完全可确定的跨分量线性模型的参数;以及基于所述确定进行转换。
在另一个代表性方面中,本公开技术可以用于提供视频处理的方法。该方法包括:为视频的作为色度块的当前视频块和视频的编解码表示之间的转换,使用参数表确定跨分量线性模型的参数,该参数表的条目根据两个色度样点值和两个亮度样点值来取回;以及基于所述确定进行转换。
在另一个代表性方面中,本公开技术可以用于提供视频处理的方法。该方法包括:为视频的作为色度块的当前视频块和视频的编解码表示之间的转换,确定当前视频块中的位置(x,y)处的色度样点的最终预测P(x,y)作为多个跨分量线性模型(MCCLM)的预测结果的组合,其中基于色度样点的位置(x,y)选择MCCLM;以及基于最终预测进行转换。
在另一个代表性方面中,本公开技术可以用于提供视频处理的方法。该方法包括:为视频的作为色度块的当前视频块和视频的编解码表示之间的转换,执行关于是否将第一跨分量线性模型(CCLM)用于预测当前视频块的样点的第一确定和/或是否将第二跨分量线性模型(CCLM)用于预测当前视频块的样点的第二确定,第一跨分量线性模型仅使用左邻近样点,第二跨分量线性模型(CCLM)仅使用上邻近样点;基于第一确定和/或第二确定进行转换。
在另一个代表性方面中,本公开技术可以用于提供视频处理的方法。该方法包括:为在视频的当前视频块和视频的编解码表示之间的转换,确定用于在当前视频块的编解码表示中使用算术编解码来对标志进行编解码的上下文,其中,上下文是基于是否使用跨分量线性模型(CCLM)预测模式对当前视频块的左上邻近块进行编解码;以及基于所述确定进行转换。
在另一个代表性方面中,本公开技术可以用于提供视频处理的方法。该方法包括:为视频的当前视频块和视频的编解码表示之间的转换,基于当前视频块的一个或多个相邻块的编解码模式,确定用于直接帧内预测模式(DM模式)和线性帧内预测模式(LM)的一个或多个指示的编解码顺序);以及基于所述确定进行转换。
在另一个代表性方面中,本公开技术可以用于提供视频处理的方法。该方法包括:为视频的当前视频块和视频的编解码表示之间的转换,基于当前视频块的细化的色度和亮度样点,确定用于线性模型预测或跨色彩分量预测的参数;以及基于所述确定进行转换。
在另一个代表性方面中,本公开技术可以用于提供视频处理的方法。该方法包括,为视频的作为色度块的当前视频块和视频的编解码表示之间的转换,基于通过选择基于最大或最小相邻样点的位置的相邻样点的线性模型预测或跨色彩分量预测的参数;以及基于所述确定进行转换。
在另一个代表性方面中,本公开技术可以用于提供视频处理的方法。该方法包括:为视频的当前视频块和视频的编解码表示之间的转换,基于主色彩分量和从色彩分量,确定用于线性模型预测或跨色彩分量预测的参数,主色彩分量被选择为亮度色彩分量和色度色彩分量之一,并且从色彩分量被选择为亮度色彩分量和色度色彩分量中的另一个;以及基于所述确定进行转换。
在另一个代表性方面中,本公开技术可以用于提供视频处理的方法。该方法包括:对当前视频块的相邻块的色度和亮度样点执行向下采样;以及为视频的作为色度块的当前视频块和视频的编解码表示之间的转换,基于从向下采样获得的向下采样的色度和亮度样点,确定跨分量线性模型(CCLM)的参数;以及基于所述确定进行转换。
在另一个代表性方面中,本公开技术可以用于提供视频处理的方法。该方法包括:为视频的作为色度块的当前视频块和视频的编解码表示之间的转换,基于来自一组相邻色度样点的两个或更多个色度样点,确定跨分量线性模型(CCLM)的参数,其中基于当前视频块的编解码模式选择两个或更多个色度样点;以及基于所述确定进行转换。
在另一个代表性方面中,本公开技术可以用于提供视频处理的方法。该方法包括:为视频的作为色度块的当前视频块和视频的编解码表示之间的转换,基于色度样点确定跨分量线性模型(CCLM)的参数,所述色度样点基于W个可用的上方邻近样点选择,W是整数;以及基于所述确定进行转换。
在另一个代表性方面中,本公开技术可以用于提供视频处理的方法。该方法包括:为视频的作为色度块的当前视频块和视频的编解码表示之间的转换,基于色度样点确定跨分量线性模型(CCLM)的参数,所述色度样点基于当前视频块的H个可用的左侧邻样点选择;以及基于所述确定进行转换。
在另一个代表性方面中,本公开技术可以用于提供视频处理的方法。该方法包括:为视频的作为色度块的当前视频块与视频的编解码表示之间的转换,基于两个或四个色度样点和/或对应的亮度样点,确定跨分量线性模型(CCLM)的参数;以及基于所述确定进行转换。
在另一个代表性方面中,本公开技术可以用于提供视频处理的方法。该方法包括:为视频的作为色度块的当前视频块与视频的编解码表示之间的转换,基于位置规则,选择用于推导跨分量线性模型(CCLM)的参数的色度样点;以及基于所述确定进行转换,其中,所述位置规则指定选择位于当前视频块的上方行和/或左侧列内的色度样点。
在另一个代表性方面中,本公开技术可以用于提供视频处理的方法。该方法包括:为视频的作为色度块的当前视频块和该视频的编解码表示之间的转换,确定向下采样的亮度样点的位置,其中向下采样的亮度样点被用于基于色度样点和向下采样的亮度样点确定跨分量线性模型(CCLM)的参数,其中向下采样的亮度样点位于与用于推导CCLM的参数的色度样点的位置对应的位置;以及基于所述确定进行转换。
在另一个代表性方面中,本公开技术可以用于提供视频处理的方法。该方法包括:为视频的作为色度块的当前视频块和视频的编解码表示之间的转换,确定一种方法,该方法使用色度样点和亮度样点,基于与当前视频块相关联的编解码条件,推导跨分量线性模型(CCLM)的参数;以及基于所述确定进行转换。
在另一个代表性方面中,本公开技术可以用于提供视频处理的方法。该方法包括:为视频的作为色度块的当前视频块和该视频的编解码表示之间的转换,基于当前视频块的左邻近块和上邻近块的可用性,确定是否推导用于推导跨分量线性模型(CCLM)的参数的亮度分量和色度分量的最大值和/或最小值;以及基于所述确定进行转换。
在另一个代表性方面中,本公开技术可以用于提供视频处理的方法。该方法包括:为视频的当前视频块和视频的编解码表示之间的转换,基于当前视频块的所选相邻样点和参考块的对应相邻样点,确定使用线性模型的编解码工具的参数;以及基于所述确定进行转换。
在另一个代表性方面中,本公开技术可以用于提供视频处理的方法。该方法包括:为视频的当前视频块和视频的编解码表示之间进行转换,基于当前视频块的N个相邻样点和参考块的N个对应的相邻样点,确定局部照明补偿(LIC)工具的参数,其中基于N个相邻样点的位置选择当前视频块的N个相邻样点;以及基于所述确定进行转换,其中所述LIC工具在转换期间使用当前视频块中照明变化的线性模型。
在另一个代表性方面中,本公开技术可以用于提供视频处理的方法。该方法包括:为视频的作为色度块的当前视频块和视频的编解码表示之间的转换,基于色度样点和对应的亮度样确定跨分量线性模型(CCLM)的参数;以及基于所述确定进行转换,其中通过填充操作获得一些色度样点,并将所述色度样点和对应的亮度样点分组为两个阵列G0和G1,每个阵列包括两个色度样点和对应的亮度样点。
在又一个代表性方面中,上述方法实现为处理器可执行代码的形式并存储在计算机可读程序介质中。
在又一个代表性方面中,公开了配置为或可操作为执行上述方法的装置。该装置可以包括被编程为实现该方法的处理器。
在又一个代表性方面中,视频解码器设备可以实现如本文所述的方法。
附图、说明书和权利要求中更详细描述了本公开技术的以上和其他方面和特征。
附图说明
图1示出了用于推导线性模型的权重的样点的位置的示例,该线性模型用于跨分量预测。
图2示出了将相邻样点分类为两组的示例。
图3A示出了色度样点及其对应的亮度样点的示例。
图3B示出了联合探索模型(JEM)中的跨分量线性模型(CCLM)的向下滤波的示例。
图4A和图4B分别示出了用于基于线性模型的预测的仅上邻近和仅左邻近样点的示例。
图5示出了作为对应的色度样点的函数的最大和最小亮度值之间的直线的示例。
图6示出了当前色度块及其相邻样点的示例。
图7示出了由仅使用左邻近样点(LM-L)的线性模型和仅使用上邻近样点(LM-A)的线性模型预测的色度块的不同部分的示例。
图8示出了左上邻近块的示例。
图9示出了要用于推导线性模型的样点的示例。
图10示出了相对于当前块的左和左下列以及上和右上行的示例。
图11示出了当前块及其参考样点的示例。
图12示出了当左和上邻近参考样点可用时两个邻近样点的示例。
图13示出了当仅上邻近参考样点可用时两个邻近样点的示例。
图14示出了当仅左邻近参考样点可用时两个邻近样点的示例。
图15示出了当左和上邻近参考样点可用时四个邻近样点的示例。
图16示出了LM推导中使用的查找表的示例。
图17示出了具有64个条目的LM参数推导过程的示例。
图18示出了基于本公开技术的一些实现方式的视频处理的示例方法的流程图。
图19A和19B示出基于所公开技术的一些实施方案的视频处理的示例方法的流程图。
图20A和20B示出基于所公开技术的一些实施方案的视频处理的另一示例方法的流程图。
图21示出了基于本公开技术的一些实现方式的视频处理的另一示例方法的流程图。
图22示出了基于本公开技术的一些实现方式的视频处理的示例方法的流程图。
图23A和23B示出了基于本公开技术的一些实现方式的视频处理的示例方法的流程图。
图24A-24E示出了基于本公开技术的一些实现方式的视频处理的示例方法的流程图。
图25A和25B示出了基于本公开技术的一些实现方式的视频处理的示例方法的流程图。
图26A和26B示出了基于本公开技术的一些实现方式的视频处理的示例方法的流程图。
图27A和27B示出了基于本公开技术的一些实现方式的视频处理的示例方法的流程图。
图28A-28C示出了基于本公开技术的一些实现方式的视频处理的示例方法的流程图。
图29A-29C示出了基于本公开技术的一些实现方式的视频处理的示例方法的流程图。
图30A和30B是用于实现本文档中描述的视觉媒体解码或视觉媒体编码技术的硬件平台的示例的框图。
图31A和31B显示了具有四个条目的LM参数推导过程的示例。图31A示出了上方和左侧的邻近样点均可用的示例,图31B给出了仅上邻近样点可用且右上邻近样点不可用的示例。
图32显示了用于推导LIC参数的相邻样点的示例。
具体实施方式
由于对更高分辨率视频的需求的增加,在现代技术中普遍存在视频编解码方法和技术。视频编解码器通常包括压缩或解压缩数字视频的电子电路或软件,并且不断改进以提供更高的编解码效率。视频编解码器将未压缩视频转换为压缩格式,反之亦然。视频质量、用于表示视频的数据量(由比特率确定)、编码和解码算法的复杂度、对数据丢失和错误的敏感性、编辑的简易性、随机访问和端到端时延(延迟)之间存在复杂的关系。压缩格式通常符合标准视频压缩规范,例如,高效视频编解码(HEVC)标准(也称为H.265或MPEG-H第2部分)、要完成的通用视频编解码标准、或其他当前和/或未来的视频编解码标准。
所公开的技术的实施例可以应用于现有视频编解码标准(例如,HEVC、H.265)和未来标准以改进压缩性能。在本文档中使用章节标题以提高描述的可读性,并且不以任何方式将讨论或实施例(和/或实现)限制于仅相应的部分。
1跨分量预测的实施例
跨分量预测是一种色度到亮度(chroma-to-luma)预测方案,其具有复杂度和压缩效率改善之间的良好平衡的权衡。
1.1跨分量线性模型(CCLM)的示例
在一些实施例中,为了减少跨分量冗余,在JEM中使用CCLM预测模式(也称为LM),对于该模式,通过使用以下线性模型基于相同CU的重建亮度样点来预测色度样点:
predC(i,j)=α·recL′(i,j)+β (1)
这里,predC(i,j)表示CU中预测的色度样点,recL′(i,j)表示相同CU对颜色格式4:2:0或4:2:2的向下采样的重建亮度样点,而recL′(i,j)表示相同CU对颜色格式4:4:4的重建亮度样点。通过将当前块周围的相邻重建亮度和色度样点之间的回归误差最小化来得出CCLM参数α和β,如下所示:
以及
这里,L(n)表示向下采样的(对于颜色格式4:2:0或4:2:2)或原始(对于颜色格式4:4:4)上和左邻近重建亮度样点,C(n)表示上和左邻近重建色度样点,并且N的值等于当前色度编解码块的宽度和高度的最小值的二倍。
在一些实施例中,对于正方形的编解码块,直接应用上述两个公式。对于非正方形编解码块,首先对较长边界的相邻样点进行子采样,以具有与较短边界相同数量的样点。图1示出了左和上重建样点和CCLM模式中涉及的当前块的样点的位置。
在一些实施例中,这个回归误差最小化计算作为解码过程的一部分执行,而不仅仅是编码器搜索操作,因此不使用语法来传达α和β值。
在一些实施例中,CCLM预测模式还包括两个色度分量之间的预测,例如,从Cb(蓝差异)分量预测Cr(红差异)分量。CCLM Cb到Cr的预测在残差域中应用,而不是使用重建的样点信号。这通过将加权的重建Cb残差添加到原始Cr帧内预测上以形成最终Cr预测来实现的:
这里,resiCb′(i,j)表示位置(i,j)处的重建Cb残差样点。
在一些实施例中,可以以与CCLM亮度到色度预测中相似的方式推导缩放因子α。仅有的差异是相对于误差函数中的默认α值增加了回归成本,使得推导的缩放因子偏向-0.5的默认值,如下:
这里,Cb(n)表示相邻的重建Cb样点,Cr(n)表示相邻的重建Cr样点,并且λ等于∑(Cb(n)·Cb(n))>>9。
在一些实施例中,CCLM亮度到色度预测模式被添加作为一种附加色度帧内预测模式。在编码器侧,为选择色度帧内预测模式增加了针对色度分量的另一RD成本检查。当将除CCLM亮度到色度预测模式之外的帧内预测模式用于CU的色度分量时,CCLM Cb到Cr预测将被用于Cr分量预测。
1.2 Examples of多模型CCLM
在JEM中,存在两个CCLM模式:单模型CCLM模式和多模型CCLM模式(MMLM)。如名称所表示的,单模型CCLM模式采用一个线性模型以从整个CU的亮度样点预测色度样点,而在MMLM中,可以存在两个模型。
在MMLM中,当前块的相邻亮度样点和相邻色度样点被分类为两组,每个组被用作训练集,以推导线性模型(即,对特定的组推导特定的α和β)。此外,对当前亮度块的样点也基于对相邻亮度样点进行分类的相同的规则进行分类。
图2示出了将相邻样点分类为两组的示例。Threshold被计算作为相邻重建亮度样点的平均值。具有Rec′L[x,y]<=Threshold的相邻样点被分类为组1;而具有Rec′L[x,y]>Threshold的相邻样点被分类为组2。
1.3 CCLM中的向下采样滤波器的示例
在一些实施例中,为进行跨分量预测,对于4:2:0色度格式,其中4个亮度样点对应于1个色度样点,重建亮度块需要被向下采样,以匹配色度信令的尺寸。CCLM模式中使用的默认向下采样滤波器如下:
这里,向下采样对相对于亮度样点的位置的色度样点的位置假设如图3A中所示的“类型0”相位关系,例如,水平并置采样和垂直间插(interstitial)采样。
公式(6)中限定的示例性6抽头(6-tap)向下采样滤波器被用作单模型CCLM模式和多模型CCLM模式两者的默认滤波器。
在一些实施例中,对于MMLM模式,编码器可以选择性地选择四种附加亮度向下采样滤波器之一以应用于CU中的预测,并且发送滤波器索引,以指示使用这些滤波器中的哪个。MMLM模式的四个可选择亮度向下采样滤波器,如图3B中所示,如下:
Rec'L[x,y]=(RecL[2x,2y]+RecL[2x+1,2y]+1)>>1 (8)
Rec'L[x,y]=(RecL[2x+1,2y]+RecL[2x+1,2y+1]+1)>>1 (9)
Rec'L[x,y]=(RecL[2x,2y+1]+RecL[2x+1,2y+1]+1)>>1 (10)
Rec'L[x,y]=(RecL[2x,2y]+RecL[2x,2y+1]+RecL[2x+1,2y]+RecL[2x+1,2y+1]+2)>>2 (11)
1.4多方向LM(MDLM)
该现有实现方式提出了多方向LM(MDLM)。在MDLM中,提出了两种附加CCLM模式:LM-A,其中线性模型参数仅基于上邻近(或上方相邻)样点推导,如图4A中所示;LM-L,其中线性模型参数仅基于左邻近样点推导,如图4B中所示。
1.5跨分量线性模型简化
该现有实现方式提出用直线等式替换线性模型参数α和β的LMS算法,所谓的两点法。这2个点(亮度和色度的对)(A,B)是相邻亮度样点的集合内的最小值和最大值,如图5中所示。
本文中,线性模型参数α和β根据以下等式获得:
且β=yA-αxA。
在一些实施例中,避免了推导α所需的除法运算,并由以下的乘法和移位来代替:
a=0;
iShift=16;
int shift=(uiInternalBitDepth>8)?uiInternalBitDepth-9:0;
int add=shift?1<<(shift-1):0;
int diff=(MaxLuma-MinLuma+add)>>shift;
if(diff>0)
{
int div=((MaxChroma-MinChroma)*g_aiLMDivTableLow[diff-1]+32768)>>16;
a=(((MaxChroma-MinChroma)*g_aiLMDivTableHigh[diff-1]+div+add)>>shift);
}
b=MinLuma[1]-((a*MinLuma[0])>>iShift);
本文中,S设定为等于iShift,α设定为等于a,且β设定为等于b。此外,g_aiLMDivTableLow和g_aiLMDivTableHigh是各自具有512个条目的两个表,其中每个条目储存16比特(16-bit)整数。
为推导色度预测符,对于当前VTM实现方式,乘法被替换为如下的整数运算:
predC(i,j)=(α·rec′L (i,j))>>S+β
该实现方式也比当前VTM实现方式更简单,因为移位S总是具有相同的值。
1.6 VVC中的CCLM的示例
如JEM中的CCLM在VTM-2.0中被采用,但JEM中的MM-CCLM在VTM-2.0中不被采用。MDLM和简化CCLM已经被采用到VTM-3.0中。
1.7 JEM中的局部照明补偿的示例
局部照明补偿(LIC)是基于照明变化的线性模型,使用缩放因子a和偏移b,并且对于每个帧间模式编解码的编解码单元(CU)被适应性地启用或禁用。
当LIC应用于CU时,采用最小均方差法,通过使用当前CU的相邻样点及其对应的参考样点来推导参数a和b。更具体地,如图32所示,使用了CU的子采样(2:1子采样)的相邻样点和参考图片中的对应的像素(由当前CU或子CU的运动信息标识)。IC参数被推导并分别应用于每个预测方向。
当CU以2Nx2N merge模式编解码时,以与merge模式中的运动信息复制相似的方式从相邻块复制LIC标志;否则,对CU信令通知LIC标志,以指示是否应用LIC。
当针对一图片启用LIC时,需要附加的CU级RD校验,以确定LIC是否应用于CU。当对CU启用LIC时,对于整数像素运动搜索和分数像素运动搜索分别使用绝对差分的均值去除和(mean-removed sum of absolute diffefference,MR-SAD)和绝对Hadamard变换差分的均值去除和(mean-removed sum of absolute Hadamard-transformed difference,MR-SATD),而不使用SAD和SATD。
为了降低编码复杂度,在JEM中应用了以下编码方案:在当前图片与其参考图片之间没有明显的照明变化时,对整个图片禁用LIC。为了识别这种情况,在编码器处计算当前图片和当前图片的每个参考图片的直方图。如果当前图片和当前图片的每个参考图片之间的直方图差异小于给定阈值,则对当前图片禁用LIC;否则,将为当前图片启用LIC。
2现有实现方式中的缺陷的示例
当前实现方式引入两点法,以替换JEM中的LM模式的LMS方法。尽管新方法减少了CCLM中的加法和乘法的数目,但引入了以下问题:
1)引入了比较,以找到最小和最大亮度值,其对于单指令、多数据(SIMD)软件设计不友好。
2)引入了具有总共1024个条目的两个查找表,每个条目储存16比特数,具有2KROM存储器要求,这在硬件设计中是不希望的。
3视频编解码中的跨分量预测的示例性方法
本公开技术的实施例克服了现有实现方式的缺点,从而提供具有更高编解码效率和更低计算复杂度的视频编解码。在以下针对各种实现方式而描述的示例中阐明了基于本公开技术的用于跨分量预测的简化线性模型推导,可以增强现有和未来的视频编解码标准。下面提供的本公开技术的示例解释了一般概念,其不应被解释为限制性的。在一个示例中,除非明确地指出不能组合,否则这些示例中描述的各种特征可以被组合。
在以下示例和方法中,术语“LM方法”包括但不限于JEM或VTM中的LM模式,JEM中的MMLM模式,仅使用左邻近样点推导线性模型的左LM模式,仅使用上邻近样点推导线性模型的上方LM模式,或者使用亮度重建样点来推导色度预测块的其他种类的方法。所有不是LM-L也不是LM-A的LM模式都称为普通LM模式。
在以下示例和方法中,Shift(x,s)被定义为Shift(x,s)=(x+off)>>s,并且SignShift(x,s)被定义为
本文中,off是诸如0或2s-1的整数。
当前色度块的高度和宽度分别表示为H和W。
图6示出了当前色度块的相邻样点的示例。将当前色度块的左上样点的坐标表示为(x,y),则相邻色度样点(如图6中所示)表示为:
A:左侧的顶部样点:[x-1,y],
B:左侧的中间的上方样点:[x-1,y+H/2-1],
C:左侧的中间的下方样点:[x-1,y+H/2],
D:左侧的底部样点:[x-1,y+H-1],
E:左侧的延长底部的顶部样点:[x-1,y+H],
F:左侧的延长底部的中间的上方样点:[x-1,y+H+H/2-1],
G:左侧的延长底部的中间的下方样点:[x-1,y+H+H/2],
I:左侧的延长底部的底部样点:[x-1,y+H+H-1],
J:上方的左侧样点:[x,y-1],
K:上方的中间的左侧样点:[x+W/2-1,y-1],
L:上方的中间的右侧样点:[x+W/2,y-1],
M:上方的右侧样点:[x+W-1,y-1],
N:上方的延长上方的左侧样点:[x+W,y-1],
O:上方的延长上方的中间的左侧样点:[x+W+W/2-1,y-1],
P:上方的延长上方的中间的右侧样点:[x+W+W/2,y-1],以及
Q:上方的延长上方的右侧样点:[x+W+W-1,y-1]。
示例1.从两个或更多个特定位置处的色度样点推导LM方法中的参数α和β。
a)推导也取决于所选的色度样点的对应的向下采样的亮度样点。可替代地,推导也取决于所选的色度样点的对应的亮度样点,诸如当为4:4:4颜色格式时。
b)例如,从2S(例如,S=2或3)位置处的色度样点推导CCLM中的参数α和β,诸如:
i.位置{A,D,J,M};
ii.位置{A,B,C,D,J,K,L,M};
iii.位置{A,I,J,Q};
iv.位置{A,B,D,I,J,K,M,Q};
v.位置{A,B,D,F,J,K,M,O};
vi.位置{A,B,F,I,J,K,O,Q};
vii.位置{A,C,E,I,J,L,N,Q};
viii.位置{A,C,G,I,J,L,P,Q};
ix.位置{A,C,E,G,J,L,N,P};
x.位置{A,B,C,D};
xi.位置{A,B,D,I};
xii.位置{A,B,D,F};
xiii.位置{A,C,E,I};
xiv.位置{A,C,G,I};
xv.位置{A,C,E,G};
xvi.位置{J,K,L,M};
xvii.位置{J,K,M,Q};
xviii.位置{J,K,M,O};
xix.位置{J,K,O,Q};
xx.位置{J,L,N,Q};
xxi.位置{J,L,P,Q};
xxii.位置{J,L,N,P};
xxiii.位置{A,B,C,E,E,F,G,I};
xxiv.位置{J,K,L,M,N,O,P,Q};
c)从以下位置处的色度样点推导CCLM中的参数α和β,如:
i.{A,B,C,D,E,F,G,I}与{J,K,L,M,N,O,P,Q}之间的任意组合,诸如
(a)位置A和J;
(b)位置B和K;
(c)位置C和L;
(d)位置D和M;
(e)位置E和N;
(f)位置F和O;
(g)位置G和P;
(h)位置I和Q;
ii.取自{A,B,C,D,E,F,G,}的任意两个不同位置(a)位置A和B;
(b)位置A和C;
(c)位置A和D;
(d)位置A和E;
(e)位置A和F;
(f)位置A和G;
(g)位置A和I;
(h)位置D和B;
(i)位置D和C;
(j)位置E和B;
(k)位置E和C;
(l)位置I和B;
(m)位置I和C;
(n)位置I和D;
(o)位置I和E;
(p)位置I和F;
(q)位置I和G;
iii.取自{J,K,L,M,N,O,P,Q}的任意两个不同位置
(a)位置J和K;
(b)位置J和L;
(c)位置J和M;
(d)位置J和N;
(e)位置J和O;
(f)位置J和P;
(g)位置J和Q;
(h)位置M和K;
(i)位置M和L;
(j)位置N和K;
(k)位置N和L;
(l)位置Q和K;
(m)位置Q和L;
(n)位置Q和M;
(o)位置Q和N;
(p)位置Q和O;
(q)位置Q和P;
(r)位置Q和Q;
iv.在一个示例中,如果两个所选的位置具有相同的亮度值,则更多的位置可以被进一步检查。
d)例如,不是全部可用色度样点都被搜索以找到最大和最小亮度值来用两点法推导CCLM中的参数α和β。
i.出自K个色度样点(及其对应的向下采样的亮度样点)的一个色度样点被包含在搜索集合中。K可以是2、4、6或8。
(a)例如,如果Rec[x,y]是上邻近样点,则只有在x%K==0的情况下,其才被包括在搜索集合中。如果Rec[x,y]是左邻近样点,则只有在y%K==0的情况下,其才被包括在搜索集合中。
ii.仅在特定位置(诸如1.a.i~1.a.xxiv中所定义)处的色度样点被包括在搜索集合中。
e)对于模式LM-L,全部所选的样点必须是左邻近样点。
f)对于模式LM-A,全部所选的样点必须是上邻近样点。
g)所选的位置可以固定,或者它们可以是适应性的。
i.在一个示例中,选择哪些位置可以取决于当前色度块的宽度和高度;
ii.在一个示例中,选择哪些位置可以被从编码器信令通知到解码器,诸如在VPS/SPS/PPS/条带标头(slice header)/片组头(tile group header)/片/CTU/CU/PU。
h)所选择的色度样点用于以等式(2)和等式(3)中所示的最小均方差法推导参数α和β。在等式(2)和等式(3),N被设定为所选择的样点的数目。
i)一对所选择的色度样点用于以两点法推导参数α和β。
j)在一个示例中,如何选择样点可以取决于相邻块的可用性。
i.例如,如果左邻近块和上邻近块都是可用的,则选择位置A、D、J和M;如果仅左邻近块是可用的,则选择位置A和D;并且如果仅上邻近块是可用的,则选择位置J和M。
示例2.CCLM模式中的参数集可以首先被推导,然后被组合以形成用于编解码一个块的最终线性模型参数。假设α1和β1由特定位置处的用组1表示的一组色度样点推导,α2和β2由特定位置处的用组2表示的一组色度样点推导,…,αN和βN由特定位置处的用组N表示的一组色度样点推导,则最终α和β可以由(α1,β1),…(αN,βN)推导。
a)在一个示例中,α被计算为α1,…αN的平均值,且β被计算为β1,…βN的平均值。
i.在一个示例中,α=SignShift(α1+α2,1),β=SignShift(β1+β2,1)。
ii.在一个示例中,α=Shift(α1+α2,1),β=Shift(β1+β2,1)。
iii.如果(α1,β1)和(α2,β2)具有不同精度,例如,为从其对应的向下采样的亮度样点LR得到色度预测CP,其计算为
使用(α1,β1),CP=SignShift(α1×LR+β1,Sh1),但
使用(α2,β2),CP=SignShift(α2×LR+β2,Sh2),Sh1不等于Sh2,则参数需要在组合之前被移位。假设Sh1>Sh2,则在组合之前,参数应移位为:
(a)α1=SignShift(α1,Sh1-Sh2),β1=SignShift(β1,Sh1-Sh2)。则最终精度为(α2,β2)。
(b)α1=Shift(α1,Sh1-Sh2),β1=Shift(β1,Sh1-Sh2)。则最终精度为(α2,β2)。
(c)α2=α2<<(Sh1-Sh2),β2=β2<<(Sh1-Sh2)。则最终精度为(α1,β1)。
b)组1和组2中的位置的一些示例:
i.组1:位置A和D,组2:位置J和M。
ii.组1:位置A和I,组2:位置J和Q。
iii.组1:位置A和D,组2:位置E和I,其中存在两组用于模式LM-L。
iv.组1:位置J和M,组2:位置N和Q,其中存在两组用于模式LM-A。
v.组1:位置A和B,组2:位置C和D,其中存在两组用于模式LM-L。
vi.组1:位置J和K,组2:位置L和M,其中存在两组用于模式LM-A。
示例3.假设两个色度样点值被表示为C0和C1,及其对应的亮度样点值被表示为L0和L1(L0<L1)是输入。两点法可以利用输入推导α和β如下
且β=C0-αL0。
亮度样点和色度样点的比特深度表示为BL和BC。该实现方式的一个或多个简化包括:
a)如果L1等于L0,则α被输出为0。可替代地,当L1等于L0,使用某种帧内预测模式(例如,DM模式,DC或平面模式)而非使用CCLM模式来推导预测块。
b)除法运算被没有查找表的其他运算替换。log2运算可以通过检查最高有效位的位置实现。
i.α=Shift(C1-C0,Floor(log2(L1-L0))或
α=SignShift(C1-C0,Floor(log2(L1-L0))
ii.α=Shift(C1-C0,Ceiling(log2(L1-L0))或
α=SignShift(C1-C0,Ceiling(log2(L1-L0))
iii.可以基于L1-L0的值选择示例i或示例ii。
(a)例如,如果L1-L0<T,则使用示例i,否则使用示例ii。例如,T可以为(Floor(log2(L1-L0))+Ceiling(log2(L1-L0)))/2
(b)例如,如果则使用示例i,否则使用示例ii。
(c)例如,如果则使用示例i,否则使用示例ii。
c)用表示为M[k]的一个查找表替换除法运算。
i.表示为V的查找表的尺寸小于2P,其中P是整数,诸如5、6或7。
ii.查找表的每个条目储存F比特(F-bit)整数,例如,F=8或16。
(a)在一个示例中,M[k-Z]=((1<<S)+Off)/k,其中S是定义精度的整数,例如,S=F。Off是偏移,例如,Off=(k+Z)>>1。Z定义表的起始值,例如,Z=1,或Z=8,或Z=32。有效关键字(valid key)k要求表必须满足k>=Z。
iii.k=Shift(L1-L0,W)被用作查询查找表的关键字。
(a)在一个示例中,W取决于BL,V和Z。
(b)在一个示例中,W还取决于L1-L0的值。
iv.如果k不是查询查找表的有效关键字(k-Z<0或k-Z>=V),则α被输出为0。
v.例如,
α=Shift((C1-C0)×M[k-Z],D),或
α=SignShift((C1-C0)×M[k-Z],D)
vi.为从其对应的(例如,对4:2:0向下采样)亮度样点LR得到色度预测CP,其被计算为
CP=SignShift(α×LR+β,Sh),或
CP=Shift(α×LR+β,Sh)
vii.Sh可以为固定数,或可以取决于用于计算α和β的C0、C1、L0、L1的值。
(d)Sh可以取决于BL、BC、V、S和D。
(e)D可以取决于Sh。
viii.用V表示的查找表的尺寸等于2P,其中P是整数,诸如5、6、7或8。替代地,V设定为2P-M(例如,M等于0)。
ix.假设α=P/Q(例如,Q=L1-L0,P=C1-C0,或它们被以其他方式推导),则用查找表计算α为α=Shift(P×M[k-Z],D)或α=SignShift(P×M[k-Z],D),其中k是查询查找表中的条目的键(索引)。
(a)在一个示例中,由Q用函数k=f(Q)推导k。
(b)在一个示例中,由Q和P用函数k=f(Q,P)推导k。
(c)在一个示例中,k在特定范围[kMin,kMax]内有效。例如,kMin=Z且kMax=V+Z。
(d)在一个示例中,k=Shift(Q,W),
a.W可以取决于BL、V和Z。
b.W可以取决于Q的值。
c.在一个示例中,当k计算为Shift(Q,W)时,
则α被用查找表计算为
α=(Shift(P×M[k-Z],D))<<W或
α=(SignShift(P×M[k-Z],D))<<W
(e)在一个示例中,用Q的不同值以不同方式推导k。
a)例如,当Q<=kMax时k=Q,并且当Q>kMax时k=Shift(Q,W)。例如,W选择为使Shift(Q,W)不大于kMax的最小正整数。
b)例如,k=Min(kMax,Q)。
c)例如,k=Max(kMin,Min(kMax,Q))。
(f)在一个示例中,当Q<0时,-Q用于在计算中替换Q。然后输出-α。
(g)在一个示例中,当Q等于0时,则α设定为默认值,诸如0或1。
(h)在一个示例中,当Q等于2EE>=0,则α=Shift(P,E)或α=SignShift(P,E)。
d)推导LM参数的全部运算必须在K比特内,K可以为8、10、12、16、24或32。
i.如果中间变量可能超出由约束比特表示的范围,其应当被修剪或右移,以在约束比特内。
示例4.一个单个色度块可以使用多个线性模型,并且多个线性模型的选择取决于色度样点在色度块内的位置。
a)在一个示例中,LM-L和LM-A模式可以在单个色度块中组合。
b)在一个示例中,由LM-L模式预测一些样点,并且由LM-A模式预测其他样点。
i.图7示出了示例。假设左上样点在位置(0,0)处。位置(x,y)处的样点(x>y(或x>=y))由LM-A预测,并且其他样点由LM-L预测。
c)假设位置(x,y)处的样点的使用LM-L和LM-A的预测分别表示为P1(x,y)和P2(x,y),则最终预测P(x,y)计算为P1(x,y)和P2(x,y)的加权和。
i.P(x,y)=w1*P1(x,y)+w2*P2(x,y)
(d)w1+w2=1。
ii.P(x,y)=(w1*P1(x,y)+w2*P2(x,y)+Offset)>>shift,其中shift可以为0或1<<(shift-1),并且shift是整数,诸如1,2,3…。
(a)w1+w2=1<<shift。
iii.P(x,y)=(w1*P1(x,y)+((1<<shift)-w1)*P2(x,y)+Offset)>>shift,其中shift可以为0或1<<(shift-1),并且shift是整数,诸如1,2,3…。
iv.w1和w2可以取决于位置(x,y)
(e)例如,如果x<y,则w1>w2(例如,w1=3,w2=1),
(f)例如,如果x>y,则w1<w2(例如,w1=1,w2=3),
(g)例如,如果x==y,则w1=w2(例如,w1=2,w2=2),
(h)例如,当x<y时,如果y-x增大,则w1-w2增大,
(i)例如,当x>y时,如果x-y增大,则w2-w1增大。
示例5.提出将相邻样点(包括色度样点及其对应的亮度样点,其可以向下采样)分割为N组。第k组(k=0,1,…,N-1)的最大亮度值和最小亮度值表示为MaxLk和MinLk,及其对应的色度值分别表示为MaxCk和MinCk。
a.在一个示例中,MaxL计算为MaxL=f1(MaxLS0,MaxLS1,…,MaxLSm);MaxC计算为MaxC=f2(MaxCS0,MaxCS1,…MaxCSm);MinL计算为MinL=f3(MinLS0,MinLS1,…MinLSm)。MinC计算为MinC=f3(MinCS0,MinCS1,…,MinCSm)。f1,f2,f3和f4为函数。两点法以输入推导α和β如下
β=MinC-αMinL
i.在一个示例中,f1,f2,f3,f4全部表示平均函数。
ii.S0,S1,…Sm为所选择的组的索引,其用于计算α和β。
(1)例如,使用全部组,例如,S0=0,S1=1,…Sm=N-1。
(2)例如,使用两组,例如,m=1,S0=0,S1=N-1。
(3)例如,不使用全部组,例如,m<N-1,S0=0,S1=2,S3=4,…。
b.在一个示例中,位于上方行的样点(或向下采样的样点)可以分类为一组,并且位于块的左列的样点(或向下采样的样点)可以分类为另一组。
c.在一个示例中,样点(或向下采样的样点)基于它们的位置或坐标被分类,例如,样点可以分类为两组。
i.例如,样点可以分类为两组。
(1)对于具有位于上方行的坐标(x,y)的样点,如果x%P=Q,其被分类为组S0,其中P和Q为整数,例如,P=2,Q=1,P=2,Q=0或P=4,Q=0;否则,其被分类为组S1。
(2)对于具有位于左列的坐标(x,y)的样点,如果y%P=Q,其被分类为组S0,其中P和Q为整数,例如,P=2,Q=1,P=2,Q=0或P=4,Q=0;否则,其被分类为组S1。
(3)仅在一组(诸如S0)中的样点,用于找到MaxC和MaxL。例如,MaxL=MaxLS0和MaxC=MaxCS0。
d.在一个示例中,相邻样点(或向下采样的样点)的仅部分用于分割为N组。
e.组的数目(例如,N)和/或所选择的组索引和/或函数(f1/f2/f3/f4)可以预定或在SPS/VPS/PPS/图片头/条带标头/片组头/LCU/LCU/CU中被信令通知。
f.在一个示例中,如何为每组选择样点可以取决于相邻块的可用性。
i.例如,MaxL0/MaxC0和MinL0/MinC0从位置A和D找到;MaxL1/MaxC1和MinL1/MinC1从位置J和M找到,当左邻近块和上邻近块两者都可用时,则MaxL=(MaxL0+MaxL1)/2,MaxC=(MaxC0+MaxC1)/2,MinL=(MinL0+MinL1)/2,MinC=(MinC0+MinC1)/2。
ii.例如,当仅左邻近块可用时,MaxL/MaxC和MinL/MinC直接从位置A和D找到。
(1)替代地,如果上邻近块不可用,则α和β设定为等于一些默认值。例如,α=0且β=1<<(bitDepth-1),其中bitDepth是色度样点的比特深度。
iii.例如,当仅上邻近块可用时,MaxL/MaxC and MinL/MinC直接从位置J和M找到。
(1)替代地,如果左邻近块不可用,则α和β设定为等于一些默认值。例如,α=0且β=1<<(bitDepth -1),其中bitDepth是色度样点的比特深度。
g.在一个示例中,如何对每组选择样点可以取决于块的宽度和高度。
h.在一个示例中,如何对每组选择样点可以取决于样点的值。
i.在一个示例中,具有最大亮度值和最小亮度值的两个样点被挑出为在第一组中。并且全部其他样点在第二组中。
示例6.提出是否和如何应用LM-L和LM-A模式可以取决于当前块的宽度(W)和高度(H)。
(a)例如,如果W>K×H,则LM-L无法被应用。例如,K=2。
(b)例如,如果H>K×W,则LM-A无法被应用。例如,K=2。
(c)如果LM-L和LM-A之一无法被应用,指示是否使用LM-L或LM-A的标志不应被信令通知。
示例7.标志被信令通知,以指示是否应用CCLM模式。对标志进行编解码的算术编解码中使用的上下文可以取决于图8中所示的左上邻近块是否应用CCLM模式。
(a)在一个示例中,如果左上邻近块应用CCLM模式,则使用第一上下文;并且,如果左上邻近块不应用CCLM模式,则使用第二上下文。
(b)在一个示例中,如果左上邻近块不可用,则其被视为不应用CCLM模式。
(c)在一个示例中,如果左上邻近块不可用,则其被视为应用CCLM模式。
(d)在一个示例中,如果左上邻近块不是帧内编解码的,则其被视为不应用CCLM模式。
(e)在一个示例中,如果左上邻近块不是帧内编解码的,则其被视为应用CCLM模式。
示例8.DM和LM模式的指示或码字可以以与序列到序列/图片到图片/片到片/块到块不同的顺序编解码。
(a)LM和DM的指示的编解码顺序(例如,首先编解码是否是LM模式,如果不是,则编解码是否是DM模式;或首先编解码是否是DM模式,如果不是,则编解码是否是LM模式)可以取决于一个或多个相邻块的模式信息。
(b)在一个示例中,在当前块的左上块可用且用LM模式编解码时,则首先编解码LM模式的指示。
(c)替代地,在当前块的左上块可用且用DM模式编解码时,则首先编解码DM模式的指示。
(d)替代地,在当前块的左上块可用且用非LM(例如,DM模式或除LM之外的其他帧内预测模式)编解码时,则首先编解码DM模式的指示。
(e)在一个示例中,顺序的指示可以在SPS/VPS/PPS/图片头/条带标头/片组头/LCU/LCU/CU中被信令通知。
示例9.在以上示例中,样点(或向下采样的样点)可以位于2×W上邻近样点或2×H左邻近样点之外,如图6中所示。
(a)在LM模式或LM-L模式情况下,其可以使用相邻样点RecC[x-1,y+d],其中d在[T,S]的范围内。T可以小于0,并且S可以大于2H-1。例如,T=-4且S=3H。在另一示例中,T=0,S=max(2H,W+H)。在又一示例中,T=0且S=4H。
(b)在LM模式或LM-A模式情况下,其可以使用相邻样点RecC[x+d,y],其中d在[T,S]的范围内。T可以小于0,并且S可以大于2W-1。例如,T=-4且S=3W。在另一示例中,T=0,S=max(2W,W+H)。在又一示例中,T=0且S=4W。
示例10.在一个示例中,色度相邻样点及其对应的亮度样点(可以被向下采样)在如示例1-7中所公开推导线性模型参数α和β之前被向下采样。假设当前色度块的宽度和高度是W和H。
(a)在一个示例中,是否和如何进行向下采样可以取决于W和H。
(b)在一个示例中,用于推导参数的当前块的左邻近样点的数目,以及用于推导参数的当前块的上邻近样点的数目在向下采样过程之后应该是相同。
(c)在一个示例中,如果W等于H,则色度相邻样点及其对应的亮度样点(可以被向下采样)不被向下采样。
(d)在一个示例中,如果W<H,则当前块的左侧的色度相邻样点及其对应的亮度样点(可以被向下采样)被向下采样。
(i)在一个示例中,每个H/W色度样点中的一个色度样点被挑出,以用于推导α和β。将其他色度样点丢弃。例如,假设R[0,0]表示当前块的左上样点,则R[-1,K*H/W],K从0到W-1,被挑出用于推导α和β。
(e)在一个示例中,如果W>H,则当前块上方的色度相邻样点及其对应的亮度样点(可以被向下采样)被向下采样。
(ii)在一个示例中,每个W/H色度样点中的一个色度样点被挑出用于推导α和β。其他色度样点被丢弃。例如,假设R[0,0]表示当前块的左上样点,则R[K*W/H,-1],K从0到H-1,被挑出用于推导α和β。
(ii)图9示出了当图6中的位置D和位置M用于推导α和β时要挑出的样点的示例,以及当W>H时进行的向下采样。
示例11.相邻向下采样的/原始地重建的样点和/或向下采样的/原始地重建的样点在被用于线性模型预测过程或跨色彩分量预测过程之前可以被进一步细化。
(a)“要细化”可以指滤波处理。
(b)“要细化”可以指任意非线性处理
(c)提出若干相邻样点(包括色度样点及其对应的亮度样点,其可以被向下采样)被挑出以计算C1,C0,L1和L0,以便推导α和β,诸如α=(C1-C0)/(L1-L0)且β=C0-αL0。
(d)在一个示例中,表示为Lx1,Lx2,…,LxS的S个相邻亮度样点(可以被向下采样),以及表示为Cx1,Cx2,…CxS的对应的色度样点用于推导C0和L0,并且表示为Ly1,Ly2,…,LyT的T个相邻亮度样点(可以被向下采样),及其表示为Cy1,Cy2,…CyT的对应的色度样点用于推导C1和L1,如下:
(i)C0=f0(Cx1,Cx2,…CxS),L0=f1(Lx1,Lx2,…LxS),C1=f2(Cy1,Cy2,…CyT),L1=f4(Ly1,Ly2,…LyT)。f0,f1,f2和f3为任意函数。
(ii)在一个示例中,f0相同于f1。
(iii)在一个示例中,f2相同于f3。
(iv)在一个示例中,f0 f1 f2 f3是相同的。
1.例如,它们全部是平均函数。
(v)在一个示例中,S等于T。
1.在一个示例中,集合{x1,x2,…xS}相同于集合{y1,y2,…,yT}。
(vi)在一个示例中,Lx1,Lx2,…,LxS被选择为一组亮度样点的最小S个亮度样点。
1.例如,亮度样点的组包括VTM-3.0中用于推导CCLM线性参数的全部相邻样点。
2.例如,亮度样点的组包括VTM-3.0中用于推导CCLM线性参数的部分相邻样点。
a.例如,亮度样点的组包括四个样点,如图2-5中所示。
(vii)在一个示例中,Ly1,Ly2,…,LyS被选择为一组亮度样点的最大S个亮度样点。
1.例如,亮度样点的组包括VTM-3.0中用于推导CCLM线性参数的全部相邻样点。
2.例如,亮度样点的组包括VTM-3.0中用于推导CCLM线性参数的部分相邻样点。
a.例如,亮度样点的组包括四个样点,如图2-5中所示。
示例12.提出基于最大相邻或向下采样的相邻样点在相邻或向下采样的相邻样点的给定集合中选择其他相邻或向下采样的相邻样点。
(a)在一个示例中,指代最大相邻或向下采样的相邻样点位于位置(x0,y0)。则区域(x0-d1,y0),(x0,y0-d2),(x0+d3,y0),(x0,y0+d4)中的样点可以用于选择其他样点。整数{d1,d2,d3,d4}可以取决于位置(x0,y0)。例如,如果(x0,y0)在当前块左侧,则d1=d3=1且d2=d4=0。如果(x0,y0)在当前块上方,则d1=d3=0且d2=d4=1。
(b)在一个示例中,指代最小相邻或向下采样的相邻样点位于位置(x1,y1)。则区域(x1-d1,y1),(x1,y1-d2),(x1+d3,y1),(x1,y1+d4)中的样点可以用于选择其他样点。整数{d1,d2,d3,d4}可以取决于位置(x1,y1)。例如,如果(x1,y1)在当前块左侧,则d1=d3=1且d2=d4=0。如果(x1,y1)在当前块上方,则d1=d3=0且d2=d4=1。
(c)在一个示例中,上方样点表示一个色彩分量(例如,亮度色彩分量)的样点。CCLM/跨色彩分量过程中使用的样点可以由第二色彩分量的对应的坐标推导。
(d)相似方式可以用于推导最小样点。
示例13.在以上示例中,亮度和色度可以切换。替代地,亮度色彩分量可以由主色彩分量(例如,G)替换,并且色度色彩分量可以由从色彩分量(例如,B或R)替换。
示例14.色度样点(和/或对应的亮度样点)的位置的选择可以取决于编解码的模式信息。
(a)替代地,另外,其可以取决于相邻样点的可用性,诸如左列或上方行或右上行或左下列是否可用。图10绘示了相对于块的左列/上方行/右上行/左下列的概念。
(b)替代地,另外,其可以取决于位于某位置的样点的可用性,诸如第1右上样点和/或第1左下样点是否可用。
(c)替代地,另外,其可以取决于块维度。
(i)替代地,另外,其可以取决于当前色度(和/或亮度)块的宽度和高度之间的比例。
(ii)替代地,另外,其可以取决于宽度和/或高度是否等于K(例如,K=2)。
(d)在一个示例中,在当前模式是普通LM模式时,以下方式可以应用于选择色度样点(和/或向下采样的或非向下采样的亮度样点):
(i)如果左列和上方行两者都可用,则左列的两个样点和上方行中的两个可以被选择。它们可以位于(假设当前块的左上坐标是(x,y)):
1.(x-1,y),(x,y-1),(x-1,y+H-1)和(x+W-1,y-1)
2.(x-1,y),(x,y-1),(x-1,y+H-H/W-1)和(x+W-1,y-1)。例如,当H大于W时。
3.(x-1,y),(x,y-1),(x-1,y+H-1)和(x+W-W/H-1,y-1)。例如,当H小于W时。
4.(x-1,y),(x,y-1),(x-1,y+H-max(1,H/W))和(x+W-max(1,W/H),y-1)。
(ii)如果仅上方行可用,则仅从上方行选择样点。
1.例如,可以选择上方行的四个样点。
2.例如,可以选择两个样点。
3.如何选择样点可以取决于宽度/高度。例如,当W>2时选择四个样点,并且当W=2时选择两个样点。
4.所选择的样点可以位于(假设当前块的左上坐标是(x,y)):
a.(x,y-1),(x+W/4,y-1),(x+2*W/4,y-1),(x+3*W/4,y-1)
b.(x,y-1),(x+W/4,y-1),(x+3*W/4,y-1),(x+W-1,y-1)
c.(x,y-1),(x+(2W)/4,y-1),(x+2*(2W)/4,y-1),(x+3*(2W)/4,y-1)。
例如,当右上行可用时,或当第1右上样点可用时。
d.(x,y-1),(x+(2W)/4,y-1),(x+3*(2W)/4,y-1),(x+(2W)-1,y-1)。
例如,当右上行可用时,或当第1右上样点可用时。
(iii)如果仅左列可用,则仅从左列选择样点。
1.例如,可以选择左列的四个样点;
2.例如,可以选择左列的两个样点;
3.如何选择样点可以取决于宽度/高度。例如,当H>2时选择四个样点,并且当H=2时选择两个样点。
4.所选择的样点可以位于:
a.(x-1,y),(x-1,y+H/4),(x-1,y+2*H/4),(x-1,y+3*H/4)
b.(x-1,y),(x-1,y+2*H/4),(x-1,y+3*H/4),(x-1,y+H-1)
c.(x-1,y),(x-1,y+(2H)/4),(x-1,y+2*(2H)/4),(x-1,y+3*(2H)/4)。
例如,当左下列可用时,或当第1左下样点可用时。
d.(x-1,y),(x-1,y+2*(2H)/4),(x-1,y+3*(2H)/4),(x-1,y+(2H)-1)。
例如,当左下列可用时,或当第1左下样点可用时。
(iv)对于以上示例,可以选择四个样点中的仅两个。
(e)在一个示例中,在当前模式是LM-A模式时,其可以根据示例11(d)(ii)选择样点。
(f)在一个示例中,在当前模式是LM-L模式时,其可以根据示例11(d)(iii)选择样点。
(g)亮度选择的样点(例如,根据所选择的色度位置)可以分组为2组,一组具有全部所选择的样点的最大值和最小值,另一组具有全部其余样点。
(i)2组的两个最大值被平均为2点方法中的最大值;2组的两个最小值被平均为2点方法中的最小值,以推导LM参数。
(ii)当仅存在4个选择的样点时,两个较大样点值被平均,两个较小样点值被平均,并且平均的值被用作对2点方法的输入,以推导LM参数。
示例15.在以上示例中,亮度和色度可以切换。替代地,亮度色彩分量可以由主色彩分量(例如,G)替换,并且色度色彩分量可以由从色彩分量(例如,B或R)替换。
示例16.提出基于第一位置偏移值(表示为F)和步长值(表示为S)选择上邻近色度样点(和/或它们的对应的亮度样点,其可以被向下采样)。假设要使用的可用上邻近样点的宽度为W。
a)在一个示例中,W可以设定为当前块的宽度。
b)在一个示例中,W可以设定为(L*当前块的宽度)其中L是整数值。
c)在一个示例中,当上方和左侧块两者都可用时,W可以设定为当前块的宽度。
i.替代地,当左侧块不可用时,W可以设定为(L*当前块的宽度)其中L是整数值。
ii.在一个示例中,L可以取决于右上块的可用性。替代地,L可以取决于一个左上样点的可用性。
d)在一个示例中,W可以取决于编解码的模式。
i.在一个示例中,如果当前块以LM模式被编解码,则W可以设定为当前块的宽度;
ii.如果当前块以LM-A模式被编解码,则W可以设定为(L*当前块的宽度),其中L是整数值。
(a)L可以取决于右上块的可用性。替代地,L可以取决于一个左上样点的可用性。
e)假设当前块的左上坐标是(x0,y0),则选择位置(x0+F+K×S,y0-1)处的上邻近样点,K=0,1,2,…kMax。
f)在一个示例中,F=W/P。P是整数。
i.例如,P=2i,其中i是整数,诸如1或2。
ii.替代地,F=W/P+offset。
g)在一个示例中,S=W/Q。Q是整数。
i.例如,Q=2j,其中j是整数,诸如1或2。
h)在一个示例中,F=S/R。R是整数。
i.例如,R=2m,其中m是整数,诸如1或2。
i)在一个示例中,S=F/Z。Z是整数。
i.例如,Z=2n,其中n是整数,诸如1或2。
j)kMax和/或F和/或S和/或offset可以取决于当前块的预测模式(诸如LM,LM-A或LM-L);
k)kMax和/或F和/或S和/或offset可以取决于当前块的宽度和/或高度。
l)kMax和/或F和/或S和/或offset可以取决于相邻样点的可用性。
m)kMax和/或F和/或S和/或offset可以取决于W。
n)例如,kMax=1,F=W/4,S=W/2,offset=0。替代地,另外,如果当前块是LM编解码的,左邻近样点和上邻近样点两者都可用,且W>=4,则进行设定。
o)例如,kMax=3,F=W/8,S=W/4,offset=0。替代地,另外,如果当前块是LM编解码的,仅上邻近样点可用,且W>=4,则进行设定。
p)例如,kMax=3,F=W/8,S=W/4,offset=0。替代地,另外,如果当前块是LM-A编解码的,且W>=4,则进行设定。
q)例如,kMax=1,F=0,S=1,offset=0。替代地,另外,如果W等于2,则进行。
示例17.提出基于第一位置偏移值(表示为F)和步长值(表示为S)选择左邻近色度样点(和/或它们的对应的亮度样点,其可以被向下采样)。假设要使用的可用左邻近样点的高度为H。
a)在一个示例中,H可以设定为当前块的高度。
b)在一个示例中,H可以设定为(L*当前块的高度),其中L是整数值。
c)在一个示例中,当上方和左侧块两者都可用时,H可以设定为当前块的高度。
i.替代地,当上方块不可用时,H可以设定为(L*当前块的高度)其中L是整数值。
ii.在一个示例中,L可以取决于左下块的可用性。替代地,L可以取决于一个左下样点的可用性。
iii.替代地,如果所要求的右上邻近块可用,则H可以设定为(当前块的高度+当前块的宽度)。
(a)在一个示例中,当左邻近样点不可用时,相同的H上邻近样点被挑选用于LM-A模式和LM模式。
d)在一个示例中,H可以取决于编解码的模式。
i.在一个示例中,如果当前块以LM模式被编解码,则H可以设定为当前块的高度;
ii.如果当前块以LM-L模式被编解码,则W可以设定为(L*当前块的高度),其中L是整数值。
(a)L可以取决于左下块的可用性。替代地,L可以取决于一个左上样点的可用性。
(b)替代地,如果所要求的左下邻近块可用,则W可以设定为(当前块的高度+当前块的宽度)。
(c)在一个示例中,当上邻近样点不可用时,相同的W左邻近样点被挑选用于LM-L模式和LM模式。
e)假设当前块的左上坐标是(x0,y0),则选择位置(x0-1,y0+F+K×S)处的左邻近样点,K=0,1,2,…kMax。
f)在一个示例中,F=H/P。P是整数。
i.例如,P=2i,其中i是整数,诸如1或2。
ii.替代地,F=H/P+offset。
g)在一个示例中,S=H/Q。Q是整数。
i.例如,Q=2j,其中j是整数,诸如1或2。
h)在一个示例中,F=S/R。R是整数。
i.例如,R=2m,其中m是整数,诸如1或2。
i)在一个示例中,S=F/Z。Z是整数。
i.例如,Z=2n,其中n是整数,诸如1或2。
j)kMax和/或F和/或S和/或offset可以取决于当前块的预测模式(诸如LM,LM-A或LM-L);
k)kMax和/或F和/或S和/或offset可以取决于当前块的宽度和/或高度。
l)kMax和/或F和/或S和/或offset可以取决于H。
m)kMax和/或F和/或S和/或offset可以取决于相邻样点的可用性。
n)例如,kMax=1,F=H/4,S=H/2,offset=0。替代地,另外,如果当前块是LM编解码的,左和上邻近样点两者都可用,且H>=4,则进行设定。
o)例如,kMax=3,F=H/8,S=H/4,offset=0。替代地,另外,如果当前块是LM编解码的,仅上邻近样点可用,且H>=4,则进行设定。
p)例如,kMax=3,F=H/8,S=H/4,offset=0。替代地,另外,如果当前块是LM-L编解码的,且H>=4,则进行设定。
q)例如,如果H等于2,则kMax=1,F=0,S=1,offset=0。
示例18.提出选择两个或四个相邻色度样点(和/或它们的对应的亮度样点,其可以被向下采样)以推导线性模型参数。
a)在一个示例中,maxY/maxC和minY/minC由两个或四个相邻色度样点(和/或它们的对应的亮度样点,其可以被向下采样)被推导,并且然后被用于以2点方案推导线性模型参数。
b)在一个示例中,如果存在两个相邻色度样点(和/或它们的对应的亮度样点,其可以被向下采样)被选择以推导maxY/maxC和minY/minC,则minY设定为较小亮度样点值,并且minC是其对应的色度样点值;maxY设定为较大亮度样点值,并且maxC是其对应的色度样点值。
c)在一个示例中,如果存在四个相邻色度样点(和/或它们的对应的亮度样点,其可以被向下采样)被选择以推导maxY/maxC和minY/minC,则亮度样点及其对应的色度样点被分割为两个阵列G0和G1,其各自含有两个亮度样点及其对应的亮度样点。
i.假设四个亮度样点及其对应的色度样点表示为S0,S1,S2,S3,则它们可以以任意顺序被分割为两组。例如:
(a)G0={S0,S1},G1={S2,S3};
(b)G0={S1,S0},G1={S3,S2};
(c)G0={S0,S2},G1={S1,S3};
(d)G0={S2,S0},G1={S3,S1};
(e)G0={S1,S2},G1={S0,S3};
(f)G0={S2,S1},G1={S3,S0};
(g)G0={S0,S3},G1={S1,S2};
(h)G0={S3,S0},G1={S2,S1};
(i)G0={S1,S3},G1={S0,S2};
(j)G0={S3,S1},G1={S2,S0};
(k)G0={S3,S2},G1={S0,S1};
(l)G0={S2,S3},G1={S1,S0};
(m)G0和G1可以互换。
ii.在一个示例中,G0[0]和G0[1]的亮度样点值被比较,如果G0[0]的亮度样点值大于G0[1]的亮度样点值,则G0[0]的亮度样点及其对应的色度样点与G0[1]的亮度样点及其对应的色度样点互换。
(a)替代地,如果G0[0]的亮度样点值大于或等于G0[1]的亮度样点值,则G0[0]的亮度样点及其对应的色度样点与G0[1]的亮度样点及其对应的色度样点互换。
(b)替代地,如果G0[0]的亮度样点值小于G0[1]的亮度样点值,则G0[0]的亮度样点及其对应的色度样点与G0[1]的亮度样点及其对应的色度样点互换。
(c)替代地,如果G0[0]的亮度样点值小于或等于G0[1]的亮度样点值,则G0[0]的亮度样点及其对应的色度样点与G0[1]的亮度样点及其对应的色度样点互换。
iii.在一个示例中,G1[0]和G1[1]的亮度样点值被比较,如果G1[0]的亮度样点值大于G1[1]的亮度样点值,则G1[0]的亮度样点及其对应的色度样点与G1[1]的亮度样点及其对应的色度样点互换。
(a)替代地,如果G1[0]的亮度样点值大于或等于G1[1]的亮度样点值,则G1[0]的亮度样点及其对应的色度样点与G1[1]的亮度样点及其对应的色度样点互换。
(b)替代地,如果G1[0]的亮度样点值小于G1[1]的亮度样点值,则G1[0]的亮度样点及其对应的色度样点与G1[1]的亮度样点及其对应的色度样点互换。
(c)替代地,如果G1[0]的亮度样点值小于或等于G1[1]的亮度样点值,则G1[0]的亮度样点及其对应的色度样点与G1[1]的亮度样点及其对应的色度样点互换。
iv.在一个示例中,G0[0]和G1[1]的亮度样点值被比较,如果G0[0]的亮度样点值大于(或小于,或不大于,或不小于)G1[1]的亮度样点值,则将G0和G1互换。
(a)在一个示例中,G0[0]和G1[0]的亮度样点值被比较,如果G0[0]的亮度样点值大于(或小于,或不大于,或不小于)G1[0]的亮度样点值,则将G0和G1互换。
(b)在一个示例中,G0[1]和G1[0]的亮度样点值被比较,如果G0[1]的亮度样点值大于(或小于,或不大于,或不小于)G1[0]的亮度样点值,则将G0和G1互换。
(c)在一个示例中,G0[1]和G1[1]的亮度样点值被比较,如果G0[1]的亮度样点值大于(或小于,或不大于,或不小于)G1[1]的亮度样点值,则将G0和G1互换。
v.在一个示例中,G0[0]和G1[1]的亮度样点值被比较,如果G0[0]的亮度样点值大于(或小于,或不大于,或不小于)G1[1]的亮度样点值,则将G0[0]和G1[1]互换。
(a)在一个示例中,G0[0]和G1[0]的亮度样点值被比较,如果G0[0]的亮度样点值大于(或小于,或不大于,或不小于)G1[0]的亮度样点值,则将G0[0]和G1[0]互换。
(b)在一个示例中,G0[1]和G1[0]的亮度样点值被比较,如果G0[1]的亮度样点值大于(或小于,或不大于,或不小于)G1[0]的亮度样点值,则将G0[1]和G1[0]互换。
(c)在一个示例中,G0[1]和G1[1]的亮度样点值被比较,如果G0[1]的亮度样点值大于(或小于,或不大于,或不小于)G1[1]的亮度样点值,则将G0[1]和G1[1]互换。
vi.在一个示例中,maxY计算为G0[0]和G0[1]的亮度样点值的平均,maxC计算为G0[0]和G0[1]的色度样点值的平均。
(a)替代地,maxY计算为G1[0]和G1[1]的亮度样点值的平均,maxC计算为G1[0]和G1[1]的色度样点值的平均。
vii.在一个示例中,minY计算为G0[0]和G0[1]的亮度样点值的平均,minC计算为G0[0]和G0[1]的色度样点值的平均。
替代地,minY计算为G1[0]和G1[1]的亮度样点值的平均,minC计算为G1[0]和G1[1]的色度样点值的平均。
d)在一个示例中,如果仅存在两个可用的相邻色度样点(和/或它们的对应的亮度样点,其可以被向下采样),它们可以首先被填充为四个色度样点(和/或它们的对应的亮度样点),则四个色度样点(和/或它们的对应的亮度样点)用于推导CCLM参数。
i.在一个示例中,两个填充色度样点(和/或它们的对应的亮度样点)被从两个可用相邻色度样点(和/或它们的对应的亮度样点,其可以被向下采样)复制。
示例19.在全部以上示例中,所选择的色度样点应位于上方行内(即,具有W个样点),如图10中所示,和/或左列(即,具有H个样点)内,其中W和H为当前块的宽度和高度。
a)替代地,在当前块用普通LM模式编解码时,可以应用以上限制。
b)替代地,所选择的色度样点应位于上方行内(即,具有W个样点),以及右上行内,具有H个样点。
i.替代地,另外,在当前块用LM-A模式编解码时,可以应用以上限制。
ii.替代地,另外,在当前块用LM-A模式或普通LM模式且上方行可用但左列不可用时,可以应用以上限制。
c)替代地,所选择的色度样点应位于左列内(即,具有H个样点),以及左下列内,具有W个样点。
i.替代地,另外,在当前块用LM-L模式编解码时,可以应用以上限制。
ii.替代地,另外,在当前块用LM-L模式或普通LM模式编解码,且上方行不可用但左列可用时,可以应用以上限制。
示例20
在一个示例中,仅在推导CCLM参数需要的对应的色度样点的位置处的相邻亮度样点需要被向下采样。
示例21
如何进行本文档中公开的方法可以取决于颜色格式(诸如4:2:0或4:4:4)。
a)替代地,如何进行本文档中公开的方法可以取决于比特深度(诸如8比特或10比特)。
b)替代地,如何进行本文档中公开的方法可以取决于色彩表示方法(诸如RGB或YCbCr)。
c)替代地,如何进行本文档中公开的方法可以取决于色彩表示方法(诸如RGB或YCbCr)。
d)替代地,如何进行本文档中公开的方法可以取决于色度向下采样位置。
示例22
是否推导用于推导CCLM参数的亮度和色度分量的最大值/最小值可以取决于左和上邻域的可用性。例如,如果左和上邻近块两者都不可用,则可以不推导用于推导CCLM参数的亮度和色度分量的最大值/最小值。
a)是否推导用于推导CCLM参数的亮度和色度分量的最大值/最小值可以取决于可用相邻样点的数目。例如,如果numSampL==0且numSampT==0,则可以不推导用于推导CCLM参数的亮度和色度分量的最大值/最小值。在另一示例中,如果numSampL+numSampT==0,则可以不推导用于推导CCLM参数的亮度和色度分量的最大值/最小值。在两个示例中,numSampL和numSampT是来自左和上邻近块的可用相邻样点的数目。
b)是否推导用于推导CCLM参数的亮度和色度分量的最大值/最小值可以取决于挑选的用于推导参数的样点的数目。例如,如果cntL==0且cntT==0,则可以不推导用于推导CCLM参数的亮度和色度分量的最大值/最小值。在另一示例中,如果cntL+cntT==0,则可以不推导用于推导CCLM参数的亮度和色度分量的最大值/最小值。在两个示例中,cntL和cntT是挑选的来自左和上邻近块的样点的数目。
示例23
在一个示例中,提出的推导用于CCLM中的参数的方法可以用于推导用于LIC或依赖于线性模型的其他编解码工具中的参数。
a)以上公开的示例可以应用于LIC,诸如通过由“当前块的相邻样点”替换“色度相邻样点”,并且由“参考块的相邻样点”替换“对应的亮度样点”。
b)在一个示例中,用于LIC参数推导的样点可以排除上方行和/或左列中的样点某些位置。
i.在一个示例中,用于LIC参数推导的样点可以排除上方行中的第一个。
(a)假设左上样点的坐标是(x0,y0),提出对使用LIC参数排除(x0,y0-1)。
ii.在一个示例中,用于LIC参数推导的样点可以排除左列中的第一个。
(b)假设左上样点的坐标是(x0,y0),提出对于使用LIC参数排除(x0-1,y0)。
iii.是否应用以上方法和/或如何定义某些位置可以取决于左列/上方行的可用性。
iv.是否应用以上方法和/或如何定义某些位置可以取决于块维度。
c)在一个示例中,当前块的N个相邻样点(其可以被向下采样)和参考块的N个对应的相邻样点(其可以相应地被向下采样)可以用于推导用于LIC的参数。
i.例如,N为4。
ii.在一个示例中,N个相邻样点可以定义为来自上方行的N/2个样点;以及来自左列的N/2个样点。
(a)替代地,N个相邻样点可以定义为来自上方行或左列的N个样点。
iii.在另一示例中,N等于min(L,T),其中T是当前块的可用相邻样点(其可以被向下采样)的总数。
(a)在一个示例中,L设定为4
iv.在一个示例中,N个样点的坐标的选择可以遵循在CCLM中选择N个样点的规则。
v.在一个示例中,N个样点的坐标的选择可以遵循在LM-A中选择N个样点的规则。
vi.在一个示例中,N个样点的坐标的选择可以遵循在LM-L中选择N个样点的规则。
vii.在一个示例中,如何选择N个样点可以取决于上方行/左列的可用性。
d)在一个示例中,用于推导用于LIC中的参数的当前块的N个相邻样点(其可以被向下采样)和参考块的N个对应的相邻样点(其可以相应地被向下采样)可以基于样点位置挑选。
i.挑选方法可以取决于当前块的宽度和高度。
ii.挑选方法可以取决于相邻块的可用性。
iii.例如,如果上邻近样点和左邻近样点两者都可用,则可以从左邻近样点挑选K1个相邻样点,并且从上邻近样点挑选K2个相邻样点。例如,K1=K2=2。
iv.例如,如果仅左邻近样点可用,则可以从左邻近样点挑选K1个相邻样点。例如,K1=4。
v.例如,如果上邻近样点可用,则可以从上邻近样点挑选K2个相邻样点。例如,K2=4。
vi.例如,可以用第一位置偏移值(表示为F)和步长值(表示为S)挑选上方样点,步长值可以取决于当前块的维度和相邻块的可用性。
(a)例如,示例13中所公开的方法可以应用于推导F和S。
vii.例如,可以用第一位置偏移值(表示为F)和步长值(表示为S)挑选左侧样点,步长值可以取决于当前块的维度和相邻块的可用性。
(a)例如,示例14中所公开的方法可以应用于推导F和S。
e)在一个示例中,在当前块是仿射编解码的时,提出的推导用于CCLM中的参数的方法还可以用于推导用于LIC中的参数。
f)以上方法可以用于推导用于依赖于线性模型的其他编解码工具中的参数。
在另一示例中,提出了跨分量预测模式,其中根据预测模型以对应的重建的亮度样点预测色度样点,如等式12中所示。在等式12中,PredC(x,y)指代色度的预测样点。α和β是两个模型参数。Rec’L(x,y)是向下采样的亮度样点。
PredC(x,y)=α×Rec′L(x,y)+β, (12)
为图11中的块A的亮度向下采样的过程引入六抽头滤波,如等式13所示。
Rec′L(x,y)=(2×RecL(2x,2y)+2×RecL(2x,2y+1)+ReeL(2x-1,2y)+RecL(2x+1,2y)+ReeL(2x-1,2y+1)+RecL(2x+1,2y+1)+4)>>3. (13)
以上图11中阴影的周围亮度参考样点被以3抽头滤波向下采样,如等式14中所示。左周围亮度参考样点被根据等式15向下采样。如果左侧或上方样点不可用,则将使用等式16和等式17中定义的2抽头滤波。
Rec′L(x,y)=(2×RecL(2x,2y)+RecL(2x-1,2y)+RecL(2x+1,2y))>>2 (14)
Rec′L(x,y)=(2×RecL(2x,2y)+RecL(2x,2y+1)+RecL(2x,2y-1))>>2 (15)
Rec′L(x,y)=(3×RecL(2x,2y)+RecL(2x+1,2y)+2)>>2 (16)
Rec′L(x,y)=(3×RecL(2x,2y)+RecL(2x,2y+1)+2)>>2 (17)
特别地,周围亮度参考样点被向下采样为与色度参考样点相等尺寸。尺寸用宽度和高度表示。为推导α和β,仅涉及两个或四个相邻样点。应用查找表,以避免推导α和β时的除法运算。推导方法在以下说明。
3.1具有多至两个样点的示例性方法
(1)如等式18所示计算宽度和高度的比例r。
(2)如果上方和左侧块都可用,则选择位于第一上方行的posA和第一左侧行的posL的两个样点。为了简化描述,宽度假设为较长边。posA和posL的推导在等式19中示出(位置索引开始于0)。图12示出了不同宽度和高度比例的一些示例(分别为1、2、4和8)。所选择的样点被加阴影。
posA=width-r
posL=height (19)
(3)如果上方块可用而左侧块不可用,则上方行的第一和posA点被选择,如图13中所示。
(4)如果左侧块可用而上方块不可用,则左侧行的第一和posL点被选择,如图14中所示。
(5)根据所选择的样点辉度(luminance)和彩度(chrominance)值推导色度预测模型。
(6)如果左侧和上方块都不可用,则使用默认预测模型,α等于0,β等于1<<(BitDepth-1),其中BitDepth表示色度样点的比特深度。
3.2具有多至四个样点的示例性方法
(1)如等式18计算宽度和高度的比例r。
(2)如果上方和左侧块都可用,则选择位于第一上方行的第一和posA、第一左侧行的第一和posL的四个样点。posA和posL的推导在等式19中说明。图15示出了不同宽度和高度比例的一些示例(分别为1、2、4和8)。所选择的样点被加阴影。
(3)如果上方块可用而左侧块不可用,则选择上方行的第一和posA点,如图13中所示。
(4)如果左侧块可用而上方块不可用,则选择左侧行的第一和posL点,如图14中所示。
(5)如果左侧和上方块都不可用,则使用默认预测模型,α等于0,β等于1<<(BitDepth-1),其中BitDepth表示色度样点的比特深度。
3.3在LM推导中使用查找表的示例性方法
图16示出了具有128、64和32个条目的查找表的示例,并且每个条目由16比特表示。2点LM推导过程被简化为如表1和图17中所示,具有64个条目。应注意,第一条目可以不储存在表中。
还应注意,尽管示例性表中的每个条目被设计为具有16比特,但其可以容易地转换为具有更少比特的数(诸如8比特或12比特)。例如,具有8比特的条目的表可以实现为:
g_aiLMDivTableHighSimp_64_8[i]=(g_aiLMDivTableHighSimp_64[i]+128)>>8。
例如,具有12比特的条目的表可以实现为:
g_aiLMDivTableHighSimp_64_12[i]=(g_aiLMDivTableHighSimp_64[i]+8)>>4。
表1:简化的LM推导过程
应注意,maxLuma和minLuma可以指示所选择的位置的最大和最小亮度样点值。替代地,它们可以指示所选择的位置的最大和最小亮度样点值的函数,诸如平均。当仅存在4个所选择的位置时,它们还可以指示两个较大的亮度值的平均和两个较小的亮度值的平均。还注意到,在图17中,maxChroma和minChroma表示对应于maxLuma和minLuma的色度值。
3.3具有多至四个样点的方法#4
假设当前色度块的块宽度和高度分别是W和H。并且当前色度块的左上坐标是[0,0]。
如果上方块和左侧块都可用,并且当前模式是普通LM模式(排除LM-A和LM-L),则选择位于上方行的2个色度样点,以及位于左列的2个色度样点。
两个上方样点的坐标为[floor(W/4),-1]和[floor(3*W/4),-1]。
两个左侧样点的坐标是[-1,floor(H/4)]和[-1,floor(3*H/4)]。
所选择的样点在图31A中绘示为红色。
随后,4个样点被根据亮度样点强度排序并分类为2组。两个较大的样点和两个较小的样点分别被平均。用2个平均的点推导跨分量预测模型。替代地,四个样点的最大值和最小值被用于推导LM参数。
如果上方块可用而左侧块不可用,则当W>2时选择来自上方块的四个色度样点,并且当W=2时选择2个色度样点。
四个所选择的上方样点的坐标为[W/8,-1],[W/8+W/4,-1],[W/8+2*W/4,-1],和[W/8+3*W/4,-1]。
所选择的样点在图31B中绘示为红色。
如果左侧块可用而上方块不可用,则当H>2时选择来自左侧块的四个色度样点,并且当H=2时选择2个色度样点。
四个所选择的左侧样点的坐标为[-1,H/8],[-1,H/8+H/4],[-1,H/8+2*H/4,-1],和[-1,H/8+3*H/4]。
如果左侧块和上方块都不可用,则使用默认预测。α等于0,β等于1<<(BitDepth-1),其中BitDepth表示色度样点的比特深度。
如果当前模式是LM-A模式,则当W’>2时选择来自上方块的四个色度样点,并且当W’=2时选择2个色度样点。W’是上邻近样点的可用数目,其可以为2*W。
四个所选择的上方样点的坐标为[W’/8,-1],[W’/8+W’/4,-1],[W’/8+2*W’/4,-1],和[W’/8+3*W’/4,-1]。
如果当前模式是LM-L模式,则当H’>2时选择来自左侧块的四个色度样点,并且当H’=2时选择2个色度样点。H’是左邻近样点的可用数目,其可以为2*H。
四个所选择的左侧样点的坐标为[-1,H’/8],[-1,H’/8+H’/4],[-1,H’/8+2*H’/4,-1],和[-1,H’/8+3*H’/4]。
3.5修改使用CCLM预测的当前VVC标准的示例性实施例。
8.3.4.2.8 INTRA_LT_CCLM,INTRA_L_CCLM和INTRA_T_CCLM帧内预测模式的规范
本章节中使用与VVC标准的当前草案中的等式编号相对应的等式编号描述等式。
输入到此过程中的是:
-帧内预测模式predModeIntra,
-相对于当前图片的左上样点的当前变换块的左上样点的样点位置(xTbC,yTbC),
-变量nTbW,指定变换块宽度,
-变量nTbH,指定变换块高度,
-色度相邻样点p[x][y],x=-1,y=0..2*nTbH-1且x=0..2*nTbW-1,y=-1。
此过程的输出是所预测的样点predSamples[x][y],x=0…nTbW-1,y=0…nTbH-1。
当前亮度位置(xTbY,yTbY)推导如下:
(xTbY,yTbY)=(xTbC<<1,yTbC<<1) (8-155)
变量availL,availT和availTL推导如下:
…
-如果predModeIntra等于INTRA_LT_CCLM,则应用以下:
numSampT=availT?nTbW:0 (8-156)
numSampL=availL?nTbH:0 (8-157)
-否则,应用以下:
numSampT
=(availT&&predModeIntra==INTRA_T_CCLM)?(nTbW+numTopRight):0(8-158)
numSampL
=(availL&&predModeIntra==INTRA_L_CCLM)?(nTbH+numLeftBelow):0(8-159)
变量bCTUboundary推导如下:
bCTUboundary=(yTbC&(1<<(CtbLog2SizeY-1)-1)==0)?TRUE:FALSE。(8-160)
预测样点predSamples[x][y],x=0...nTbW-1,y=0...nTbH-1,推导如下:
-如果numSampL和numSampT都等于0,则应用以下:
predSamples[x][y]=1<<(BitDepthC-1) (8-161)
-否则,应用以下顺序的步骤:
1.…[对当前规范没有改变]
2.…
3.…
4.…
5.…
6.……[对当前规范没有改变]
7.变量minY,maxY,minC和maxC推导如下:
-变量minY设定为等于1<<(BitDepthY)+1,并且变量maxY设定为等于-1。
-如果availL等于TRUE且predModeIntra等于INTRA_LT_CCLM,则变量aboveIs4设定为等于0;否则,其设定为等于1。
-如果availT等于TRUE且predModeIntra等于INTRA_LT_CCLM,变量LeftIs4设定为等于0;否则,其设定为等于1。
-变量阵列startPos[]和pickStep[]推导如下:
-startPos[0]=actualTopTemplateSampNum>>(2+aboveIs4);
-pickStep[0]=std::max(1,actualTopTemplateSampNum>>(1+aboveIs4));
-startPos[1]=actualLeftTemplateSampNum>>(2+leftIs4);
-pickStep[1]=std::max(1,actualLeftTemplateSampNum>>(1+leftIs4));
-变量cnt设定为等于0。
-如果predModeIntra等于INTRA_LT_CCLM,则变量nSX设定为等于nTbW,nSY设定为等于nTbH;否则,nSX设定为等于numSampLT,并且nSY设定为等于numSampL。
-如果availT等于TRUE且predModeIntra不等于INTRA_L_CCLM,
则变量selectLumaPix,selectChromaPix推导如下:
-在startPos[0]+cnt*pickStep[0]<nSX且cnt<4时,应用以下:
-selectLumaPix[cnt]=pTopDsY[startPos[0]+cnt*pickStep[0]];
-selectChromaPix[cnt]=p[startPos[0]+cnt*pickStep[0]][-1];
-cnt++;
-如果availL等于TRUE且predModeIntra不等于INTRA_T_CCLM,
变量selectLumaPix,selectChromaPix推导如下:
-在startPos[1]+cnt*pickStep[1]<nSY且cnt<4时,应用以下:
-selectLumaPix[cnt]=pLeftDsY[startPos[1]+cnt*pickStep[1]];
-selectChromaPix[cnt]=p[-1][startPos[1]+cnt*pickStep[1]];
-cnt++;
-如果cnt等于2,则应用以下:
-如果selectLumaPix[0]>selectLumaPix[1],则minY设定为等于selectLumaPix[1],minC设定为等于selectChromaPix[1],maxY设定为等于selectLumaPix[0],并且maxC设定为等于selectChromaPix[0];否则,maxY设定为等于selectLumaPix[1],maxC设定为等于selectChromaPix[1],minY设定为等于selectLumaPix[0],并且minC设定为等于selectChromaPix[0]
-否则,如果cnt等于4,则应用以下:
-变量阵列minGrpIdx和maxGrpIdx初始化为:
-minGrpIdx[0]=0,minGrpIdx[1]=1,maxGrpIdx[0]=2,maxGrpIdx[1]=3;
-应用以下
-如果selectLumaPix[minGrpIdx[0]]>selectLumaPix[minGrpIdx[1]],则互换minGrpIdx[0]和minGrpIdx[1];
-如果selectLumaPix[maxGrpIdx[0]]>selectLumaPix[maxGrpIdx[1]],则互换maxGrpIdx[0]和maxGrpIdx[1];
-如果selectLumaPix[minGrpIdx[0]]>selectLumaPix[maxGrpIdx[1]],则互换minGrpIdx和maxGrpIdx;
-如果selectLumaPix[minGrpIdx[1]]>selectLumaPix[maxGrpIdx[0]],则互换minGrpIdx[1]和maxGrpIdx[0];
-maxY,maxC,minY和minC推导如下:
-maxY=(selectLumaPix[maxGrpIdx[0]]+selectLumaPix[maxGrpIdx[1]]+1)>>1;
-maxC=(selectChromaPix[maxGrpIdx[0]]+selectChromaPix[maxGrpIdx[1]]+1)>>1;
-maxY=(selectLumaPix[minGrpIdx[0]]+selectLumaPix[minGrpIdx[1]]+1)>>1;
-maxC=(selectChromaPix[minGrpIdx[0]]+selectChromaPix[minGrpIdx[1]]+1)>>1;
-
8.变量a,b和k推导如下:
[改变结束]
3.6提出的CCLM预测上的另一示例性工作草案
在此章节中,描述了示出可以对VVC标准的当前工作草案进行修改的另一示例性实施例。此处的等式编解码是指VVC标准中对应的等式编号。
INTRA_LT_CCLM,INTRA_L_CCLM和INTRA_T_CCLM帧内预测模式的规范。
[添加到当前VVC工作草案如下]
上和右的可用相邻色度样点的数目numTopSamp和左和左下的可用相邻色度样点的数目nLeftSamp推导如下:
-如果predModeIntra等于INTRA_LT_CCLM,则应用以下:
numSampT=availT?nTbW:0 (8-157)
numSampL=availL?nTbH:0 (8-158)
-否则,应用以下:
numSampT=(availT&&predModeIntra==INTRA_T_CCLM)?(nTbW+Min(numTopRight,nTbH)):0 (8-159)
numSampL=(availL&&predModeIntra==INTRA_L_CCLM)?(nTbH+Min(numLeftBelow,nTbW)):0 (8-160)
变量bCTUboundary推导如下:
bCTUboundary=(yTbC&(1<<(CtbLog2SizeY-1)-1)==0)?TRUE:FALSE。(8-161)
变量cntN和阵列pickPosN[],N被L和T替换,推导如下:
-变量numIs4N设定为等于((availN&&predModeIntra==INTRA_LT_CCLM)?0:1)。
-变量startPosN设定为等于numSampN>>(2+numIs4N)。
-变量pickStepN设定为等于Max(1,numSampN>>(1+numIs4N))。
-如果availN等于TRUE且predModeIntra等于INTRA_LT_CCLM或INTRA_N_CCLM,则cntN设定为等于(1+numIs4N)<<1,并且pickPosN[pos]设定为等于(startPosN+pos*pickStepN),pos=0…(cntN-1)。
-否则,cntN设定为等于0。
预测样点predSamples[x][y],x=0...nTbW-1,y=0...nTbH-1推导如下:
-如果numSampL和numSampT都等于0,则应用以下:
predSamples[x][y]=1<<(BitDepthC-1) (8-162)
-否则,应用以下顺序的步骤:
1.并置亮度样点pY[x][y],x=0...nTbW*2-1,y=0...nTbH*2-1,设定为等于位置(xTbY+x,yTbY+y)处在去方块滤波过程之前的重建的亮度样点。
2.相邻亮度样点pY[x][y]推导如下:
-当numSampL大于0时,左邻近亮度样点pY[x][y],x=-1…-3,y=0...2*numSampL-1,被设定为等于在位置(xTbY+x,yTbY+y)处在去方块滤波过程之前的重建的亮度样点。
-当numSampT大于0时,上邻近亮度样点pY[x][y],x=0…2*numSampT-1,y=-1,-2,被设定为等于在位置(xTbY+x,yTbY+y)处去方块滤波过程之前的重建的亮度样点。
-当availTL等于TRUE时,左邻近上亮度样点pY[x][y],x=-1,y=-1,-2,被设定为等于在位置(xTbY+x,yTbY+y)处去方块滤波过程之前的重建的亮度样点。
3.向下采样的并置亮度样点pDsY[x][y],其中
x=0...nTbW-1,y=0...nTbH-1,推导如下:
-如果sps_cclm_colocated_chroma_flag等于1,则应用以下:
-pDsY[x][y],x=1..nTbW-1,y=1..nTbH-1,推导如下:
pDsY[x][y]=(pY[2*x][2*y-1]+pY[2*x-1][2*y]+4*pY[2*x][2*y]+pY[2*x+1][2*y]+pY[2*x][2*y+1]+4)>>3 (8-163)
-如果availL等于TRUE,则pDsY[0][y],y=1...nTbH-1,推导如下:
pDsY[0][y]=(pY[0][2*y-1]+pY[-1][2*y]+4*pY[0][2*y]+pY[1][2*y]+pY[0][2*y+1]+4)>>3 (8-164)
-否则,pDsY[0][y],y=1…nTbH-1,推导如下:
pDsY[0][y]=(pY[0][2*y-1]+2*pY[0][2*y]+pY[0][2*y+1]+2)>>2(8-165)
-如果availT等于TRUE,pDsY[x][0],x=1...nTbW-1,推导如下:
pDsY[x][0]=(pY[2*x][-1]+pY[2*x-1][0]+4*pY[2*x][0]+pY[2*x+1][0]+pY[2*x][1]+4)>>3 (8-166)
-否则,pDsY[x][0],x=1...nTbW-1,推导如下:
pDsY[x][0]=pY[2*x-1][0]+2*pY[2*x][0]+pY[2*x+1][0]+2)>>2 (8-167)
-如果availL等于TRUE且availT等于TRUE,则pDsY[0][0]推导如下:
-否则如果availL等于TRUE且availT等于FALSE,则pDsY[0][0]推导如下:
pDsY[0][0]=pY[-1][0]+2*pY[0][0]+pY[1][0]+2)>>2 (8-169)
-否则如果availL等于FALSE且availT等于TRUE,则pDsY[0][0]推导如下:
pDsY[0][0]=pY[0][-1]+2*pY[0][0]+pY[0][1]+2)>>2 (8-170)
-否则(availL等于FALSE且availT等于FALSE),则pDsY[0][0]推导如下:
pDsY[0][0]=pY[0][0] (8-171)
-否则,应用以下:
-pDsY[x][y],x=1..nTbW-1,y=0..nTbH-1,推导如下:
pDsY[x][y]=(pY[2*x-1][2*y]+pY[2*x-1][2*y+1]+2*pY[2*x][2*y]+2*pY[2*x][2*y+1]+pY[2*x+1][2*y]+
pY[2*x+1][2*y+1]+4)>>3 (8-172)
-如果availL等于TRUE,则pDsY[0][y],y=0..nTbH-1,推导如下:
-否则,pDsY[0][y],y=0…nTbH-1,推导如下:
pDsY[0][y]=(pY[0][2*y]+pY[0][2*y+1]+1)>>1 (8-174)
4.当numSampL大于0时,所选择的左邻近色度样点pSelC[idx]设定为等于p[-1][pickPosL[idx]],idx=0…(cntL-1),并且所选择的向下采样的左邻近亮度样点pSelDsY[idx],idx=0...(cntL-1)推导如下:
-变量y设定为等于pickPosL[idx]。
-如果sps_cclm_colocated_chroma_flag等于1,则应用以下:
-如果y>0||availTL==TRUE,则
pSelDsY[idx]=(pY[-2][2*y-1]+pY[-3][2*y]+4*pY[-2][2*y]+pY[-1][2*y]+pY[-2][2*y+1]+4)>>3 (8-175)
-否则,
pSelDsY[idx]=(pY[-3][0]+2*pY[-2][0]+pY[-1][0]+2)>>2 (8-177)
-否则,应用以下:
pSelDsY[idx]=(pY[-1][2*y]+pY[-1][2*y+1]+2*pY[-2][2*y]+2*pY[-2][2*y+1]+pY[-3][2*y]+pY[-3][2*y+1]+4)>>3
(8-178)
5.当numSampT大于0时,所选择的上邻近色度样点pSelC[idx]设定为等于p[pickPosT[idx]][-1],idx=0…(cntT-1),并且向下采样的上邻近亮度样点pSelDsY[idx],idx=cntL…(cntL+cntT-1)指定如下:
-变量x设定为等于pickPosT[idx-cntL]。
-如果sps_cclm_colocated_chroma_flag等于1,则应用以下:
-如果x>0:
-如果bCTUboundary等于FALSE,则应用以下:pSelDsY[idx]=(pY[2*x][-3]+pY[2*x-1][-2]+4*pY[2*x][-2]+pY[2*x+1][-2]+pY[2*x][-1]+4)>>3 (8-179)
-否则(bCTUboundary等于TRUE),则应用以下:
-否则:
-如果availTL等于TRUE且bCTUboundary等于FALSE,则应用以下:
pSelDsY[idx]=(pY[0][-3]+pY[-1][-2]+4*pY[0][-2]+pY[1][-2]+pY[0][-1]+4)>>3 (8-181)
-否则如果availTL等于TRUE且bCTUboundary等于TRUE,则应用以下:
pSelDsY[idx]=(pY[-1][-1]+2*pY[0][-1]+pY[1][-1]+2)>>2 (8-182)
-否则如果availTL等于FALSE且bCTUboundary等于FALSE,则应用以下:
pSelDsY[idx]=pY[0][-3]+2*pY[0][-2]+pY[0][-1]+2)>>2 (8-183)
-否则(availTL等于FALSE且bCTUboundary等于TRUE),则应用以下:
pSelDsY[idx]=pY[0][-1] (8-184)
-否则,应用以下:
-如果x>0:
-如果bCTUboundary等于FALSE,则应用以下:
pSelDsY[idx]=(pY[2*x-1][-2]+pY[2*x-1][-1]+2*pY[2*x][-2]+2*pY[2*x][-1]+pY[2*x+1][-2]+pY[2*x+1][-1]+4)>>3
(8-185)
-否则(bCTUboundary等于TRUE),则应用以下:
-否则:
-如果availTL等于TRUE且bCTUboundary等于FALSE,则应用以下:
-否则如果availTL等于TRUE且bCTUboundary等于TRUE,则应用以下:
pSelDsY[idx]=(pY[-1][-1]+2*pY[0][-1]+pY[1][-1]+2)>>2 (8-188)
-否则如果availTL等于FALSE且bCTUboundary等于FALSE,则应用以下:
pSelDsY[idx]=(pY[0][-2]+pY[0][-1]+1)>>1
(8-189)
-否则(availTL等于FALSE且bCTUboundary等于TRUE),则应用以下:
pSelDsY[idx]=pY[0][-1] (8-190)
6.变量s minY,maxY,minC和maxC推导如下:
-
-当cntT+cntL等于2时,设定pSelC[idx+2]=pSelC[idx]和pSelDsY[idx+2]=pSelDsY[idx],idx=0和1。
-阵列minGrpIdx[]和maxGrpIdx[]设定为:minGrpIdx[0]=0,minGrpIdx[1]=1,maxGrpIdx[0]=2,maxGrpIdx[1]=3。
-如果pSelDsY[minGrpIdx[0]]>pSelDsY[minGrpIdx[1]],则Swap(minGrpIdx[0],minGrpIdx[1])。
-如果pSelDsY[maxGrpIdx[0]]>pSelDsY[maxGrpIdx[1]],则Swap(maxGrpIdx[0],maxGrpIdx[1])。
-如果pSelDsY[minGrpIdx[0]]>pSelDsY[maxGrpIdx[1]],则Swap(minGrpIdx,maxGrpIdx)。
-如果pSelDsY[minGrpIdx[1]]>pSelDsY[maxGrpIdx[0]],则Swap(minGrpIdx[1],maxGrpIdx[0])。
-maxY=(pSelDsY[maxGrpIdx[0]]+pSelDsY[maxGrpIdx[1]]+1)>>1。
-maxC=(pSelC[maxGrpIdx[0]]+pSelC[maxGrpIdx[1]]+1)>>1。
-minY=(pSelDsY[minGrpIdx[0]]+pSelDsY[minGrpIdx[1]]+1)>>1。
-minC=(pSelC[minGrpIdx[0]]+pSelC[minGrpIdx[1]]+1)>>1。
7.变量a,b和k推导如下:
-如果numSampL等于0,并且numSampT等于0,则应用以下:
k=0 (8-208)
a=0 (8-209)
b=1<<(BitDepthC-1) (8-210)
-否则,应用以下:
diff=maxY-minY (8-211)
-如果diff不等于0,则应用以下:
diffC=maxC-minC (8-212)
x=Floor(Log2(diff)) (8-213)
normDiff=((diff<<4)>>x)&15 (8-214)
x+=(normDiff!=0)?1:0 (8-215)
y=Floor(Log2(Abs(diffC)))+1 (8-216)
a=(diffC*(divSigTable[normDiff]|8)+2y-1)>>y (8-217)
k=((3+x-y)<1)?1:3+x-y (8-218)
a=((3+x-y)<1)?Sign(a)*15:a (8-219)
b=minC-((a*minY)>>k) (8-220)
其中divSigTable[]指定如下:
divSigTable[]={0,7,6,5,5,4,4,3,3,2,2,1,1,1,1,0} (8-221)
-否则(diff等于0),则应用以下:
k=0 (8-222)
a=0 (8-223)
b=minC (8-224)
8.预测样点predSamples[x][y],x=0..nTbW-1,y=0..nTbH-1推导如下:
predSamples[x][y]=Clip1C(((pDsY[x][y]*a)>>k)+b)
(8-225)
[实施例示例结束]
3.7提出的CCLM预测上的另一示例性工作草案
在此章节中,描述了示出可以对VVC标准的当前工作草案进行修改的另一示例性实施例。此处的等式编解码是指VVC标准中对应的等式编号。
INTRA_LT_CCLM,INTRA_L_CCLM和INTRA_T_CCLM帧内预测模式的规范
…
可用的上邻近和右上邻近色度样点的数目numTopSamp和可用的左邻近和左下邻近色度样点的数目nLeftSamp推导如下:
-如果predModeIntra等于INTRA_LT_CCLM,则应用以下:
numSampT=availT?nTbW:0 (8-157)
numSampL=availL?nTbH:0 (8-158)
-否则,应用以下:
numSampT=(availT&&predModeIntra==INTRA_T_CCLM)?(nTbW+Min(numTopRight,nTbH)):0 (8-159)
numSampL=(availL&&predModeIntra==INTRA_L_CCLM)?(nTbH+Min(numLeftBelow,nTbW)):0 (8-160)
变量bCTUboundary,推导如下:
bCTUboundary=(yTbC&(1<<(CtbLog2SizeY-1)-1)==0)?TRUE:FALSE。(8-161)
变量cntN和阵列pickPosN[],N被L和T替换,推导如下:
-变量numIs4N设定为等于((availN&&predModeIntra==INTRA_LT_CCLM)?0:1)。
-变量startPosN设定为等于numSampN>>(2+numIs4N)。
-变量pickStepN设定为等于Max(1,numSampN>>(1+numIs4N))。
-如果availN等于TRUE且predModeIntra等于INTRA_LT_CCLM或INTRA_N_CCLM,则cntN设定为等于Min(numSampN,(1+numIs4N)<<1),并且pickPosN[pos]设定为等于(startPosN+pos*pickStepN),pos=0…(cntN-1)。
-否则,cntN设定为等于0。
预测样点predSamples[x][y],x=0…nTbW-1,y=0...nTbH-1,推导如下:
-如果numSampL和numSampT都等于0,则应用以下:
predSamples[x][y]=1<<(BitDepthC-1) (8-162)
-否则,应用以下顺序的步骤:
1.并置亮度样点pY[x][y],x=0...nTbW*2-1,y=0...nTbH*2-1,设定为等于在位置(xTbY+x,yTbY+y)处去方块滤波过程之前的重建的亮度样点。
2.相邻亮度样点pY[x][y]推导如下:
-当numSampL大于0时,左邻近亮度样点pY[x][y],x=-1…-3,y=0…2*numSampL-1,被设定为等于在位置(xTbY+x,yTbY+y)处去方块滤波过程之前的重建的亮度样点。
-当numSampT大于0时,上邻近亮度样点pY[x][y],x=0…2*numSampT-1,y=-1,-2,被设定为等于在位置(xTbY+x,yTbY+y)处去方块滤波过程之前的重建的亮度样点。
-当availTL等于TRUE时,左上邻近亮度样点pY[x][y],x=-1,y=-1,-2,被设定为等于在位置(xTbY+x,yTbY+y)处去方块滤波过程之前的重建的亮度样点。
3.向下采样的并置亮度样点pDsY[x][y],x=0...nTbW-1,y=0...nTbH-1,推导如下:
-如果sps_cclm_colocated_chroma_flag等于1,则应用以下:
-pDsY[x][y],x=1..nTbW-1,y=1..nTbH-1,推导如下:
pDsY[x][y]=(pY[2*x][2*y-1]+pY[2*x-1][2*y]+4*pY[2*x][2*y]+pY[2*x+1][2*y]+pY[2*x][2*y+1]+4)>>3 (8-163)
-如果availL等于TRUE,则pDsY[0][y],y=1..nTbH-1,推导如下:
pDsY[0][y]=(pY[0][2*y-1]+pY[-1][2*y]+4*pY[0][2*y]+pY[1][2*y]+pY[0][2*y+1]+4)>>3 (8-164)
-否则,pDsY[0][y],y=1…nTbH-1,推导如下:
pDsY[0][y]=(pY[0][2*y-1]+2*pY[0][2*y]+pY[0][2*y+1]+2)>>2 (8-165)
-如果availT等于TRUE,则pDsY[x][0],x=1...nTbW-1,推导如下:
pDsY[x][0]=(pY[2*x][-1]+pY[2*x-1][0]+4*pY[2*x][0]+pY[2*x+1][0]+pY[2*x][1]+4)>>3 (8-166)
-否则,pDsY[x][0],x=1…nTbW-1,推导如下:
pDsY[x][0]=(pY[2*x-1][0]+2*pY[2*x][0]+pY[2*x+1][0]+2)>>2 (8-167)
-如果availL等于TRUE且availT等于TRUE,pDsY[0][0]推导如下:
pDsY[0][0]=(pY[0][-1]+pY[-1][0]+4*pY[0][0]+pY[1][0]+pY[0][1]+4)>>3(8-168)
-否则如果availL等于TRUE且availT等于FALSE,则pDsY[0][0]推导如下:
pDsY[0][0]=(pY[-1][0]+2*pY[0][0]+pY[1][0]+2)>>2 (8-169)
-否则如果availL等于FALSE且availT等于TRUE,则pDsY[0][0]推导如下:
pDsY[0][0]=(pY[0][-1]+2*pY[0][0]+pY[0][1]+2)>>2 (8-170)
-否则(availL等于FALSE且availT等于FALSE),则pDsY[0][0]推导如下:
pDsY[0][0]=pY[0][0] (8-171)
-否则,应用以下:
-pDsY[x][y],x=1..nTbW-1,y=0...nTbH-1,推导如下:
pDsY[x][y]=(pY[2*x-1][2*y]+pY[2*x-1][2*y+1]+2*pY[2*x][2*y]+2*pY[2*x][2*y+1]+ (8-172)
pY[2*x+1][2*y]+pY[2*x+1][2*y+1]+4)>>3
-如果availL等于TRUE,则pDsY[0][y],y=0...nTbH-1,推导如下:
-否则,pDsY[0][y],y=0..nTbH-1,推导如下:
pDsY[0][y]=(pY[0][2*y]+pY[0][2*y+1]+1)>>1
(8-174)
4.当numSampL大于0时,所选择的左邻近色度样点pSelC[idx]设定为等于p[-1][pickPosL[idx]],idx=0...(cntL-1),并且所选择的向下采样的左邻近亮度样点pSelDsY[idx],idx=0…(cntL-1)推导如下:
-变量y设定为等于pickPosL[idx]。
-如果sps_cclm_colocated_chroma_flag等于1,则应用以下:
-如果y>0||availTL==TRUE,
pSelDsY[idx]=(pY[-2][2*y-1]+pY[-3][2*y]+4*pY[-2][2*y]+pY[-1][2*y]+pY[-2][2*y+1]+4)>>3 (8-175)
-否则,
pSelDsY[idx]=(pY[-3][0]+2*pY[-2][0]+pY[-1][0]+2)>>2 (8-177)
-否则,应用以下:
pSelDsY[idx]=(pY[-1][2*y]+pY[-1][2*y+1]+2*pY[-2][2*y]+2*pY[-2][2*y+1]+pY[-3][2*y]+pY[-3][2*y+1]+4)>>3
(8-178)
5.当numSampT大于0时,所选择的上邻近色度样点pSelC[idx]设定为等于p[pickPosT[idx]][-1],idx=0…(cntT-1),并且向下采样的上邻近亮度样点pSelDsY[idx],idx=cntL...(cntL+cntT-1),指定如下:
-变量x设定为等于pickPosT[idx-cntL]。
-如果sps_cclm_colocated_chroma_flag等于1,则应用以下:
-如果x>0:
-如果bCTUboundary等于FALSE,则应用以下:
pSelDsY[idx]=(pY[2*x][-3]+pY[2*x-1][-2]+4*pY[2*x][-2]+pY[2*x+1][-2]+pY[2*x][-1]+4)>>3
(8-179)
-否则(bCTUboundary等于TRUE),则应用以下:
-否则:
-如果availTL等于TRUE且bCTUboundary等于FALSE,则应用以下:
pSelDsY[idx]=(pY[0][-3]+pY[-1][-2]+4*pY[0][-2]+pY[1][-2]+pY[0][-1]+4)>>3 (8-181)
-否则如果availTL等于TRUE且bCTUboundary等于TRUE,则应用以下:
pSelDsY[idx]=(pY[-1][-1]+2*pY[0][-1]+pY[1][-1]+2)>>2 (8-182)
-否则如果availTL等于FALSE且bCTUboundary等于FALSE,则应用以下:
pSelDsY[idx]=(pY[0][-3]+2*pY[0][-2]+pY[0][-1]+2)>>2 (8-183)
-否则(availTL等于FALSE且bCTUboundary等于TRUE),则应用以下:
pSelDsY[idx]=pY[0][-1] (8-184)
-否则,应用以下:
-如果x>0:
-如果bCTUboundary等于FALSE,则应用以下:
pSelDsY[idx]=(pY[2*x-1][-2]+pY[2*x-1][-1]+2*pY[2*x][-2]+2*pY[2*x][-1]+pY[2*x+1][-2]+pY[2*x+1][-1]+4)>>3
(8-185)
-否则(bCTUboundary等于TRUE),则应用以下:
-否则:
-如果availTL等于TRUE且bCTUboundary等于FALSE,则应用以下:
-否则如果availTL等于TRUE且bCTUboundary等于TRUE,则应用以下:
pSelDsY[idx]=(pY[-1][-1]+2*pY[0][-1]+pY[1][-1]+2)>>2 (8-188)
-否则如果availTL等于FALSE且bCTUboundary等于FALSE,则应用以下:
pSelDsY[idx]=(pY[0][-2]+pY[0][-1]+1)>>1
(8-189)
-否则(availTL等于FALSE且bCTUboundary等于TRUE),则应用以下:
pSelDsY[idx]=pY[0][-1] (8-190)
6.当cntT+cntL不等于0时,变量s minY,maxY,minC和maxC推导如下:
-
-当cntT+cntL等于2,设定pSelComp[3]等于pSelComp[0],pSelComp[2]等于pSelComp[1],pSelComp[0]等于pSelComp[1],并且pSelComp[1]等于pSelComp[3],Comp被DsY和C替换。
-阵列minGrpIdx[]和maxGrpIdx[]设定为:minGrpIdx[0]=0,minGrpIdx[1]=1,maxGrpIdx[0]=2,maxGrpIdx[1]=3。
-如果pSelDsY[minGrpIdx[0]]>pSelDsY[minGrpIdx[1]],则Swap(minGrpIdx[0],minGrpIdx[1])。
-如果pSelDsY[maxGrpIdx[0]]>pSelDsY[maxGrpIdx[1]],则Swap(maxGrpIdx[0],maxGrpIdx[1])。
-如果pSelDsY[minGrpIdx[0]]>pSelDsY[maxGrpIdx[1]],则Swap(minGrpIdx,maxGrpIdx)。
-如果pSelDsY[minGrpIdx[1]]>pSelDsY[maxGrpIdx[0]],则Swap(minGrpIdx[1],maxGrpIdx[0])。
-maxY=(pSelDsY[maxGrpIdx[0]]+pSelDsY[maxGrpIdx[1]]+1)>>1。
-maxC=(pSelC[maxGrpIdx[0]]+pSelC[maxGrpIdx[1]]+1)>>1。
-minY=(pSelDsY[minGrpIdx[0]]+pSelDsY[minGrpIdx[1]]+1)>>1。
-minC=(pSelC[minGrpIdx[0]]+pSelC[minGrpIdx[1]]+1)>>1。
7.变量a,b和k推导如下:
-如果numSampL等于0,并且numSampT等于0,则应用以下:
k=0 (8-208)
a=0 (8-209)
b=1<<(BitDepthC-1) (8-210)
-否则,应用以下:
diff=maxY-minY (8-211)
-如果diff不等于0,则应用以下:
diffC=maxC-minC (8-212)
x=Floor(Log2(diff)) (8-213)
normDiff=((diff<<4)>>x)&15 (8-214)
x+=(normDiff!=0)?1:0 (8-215)
y=Floor(Log2(Abs(diffC)))+1 (8-216)
a=(diffC*(divSigTable[normDiff]|8)+2y-1)>>y (8-217)
k=((3+x-y)<1)?1:3+x-y (8-218)
a=((3+x-y)<1)?Sign(a)*15:a (8-219)
b=minC-((a*minY)>>k) (8-220)
其中divSigTable[]指定如下:
divSigTable[]={0,7,6,5,5,4,4,3,3,2,2,1,1,1,1,0} (8-221)
-否则(diff等于0),则应用以下:
k=0 (8-222)
a=0 (8-223)
b=minC (8-224)
8.预测样点predSamples[x][y],x=0..nTbW-1,y=0..nTbH-1,推导如下:
predSamples[x][y]=Clip1C(((pDsY[x][y]*a)>>k)+b)
(8-225)
3.8提出的CCLM预测上的替代工作草案
在此章节中,描述了可以对VVC标准的当前工作草案进行的另一修改的替代示例性实施例。此处的等式编号是指VVC标准中对应的等式编号。
INTRA_LT_CCLM,INTRA_L_CCLM和INTRA_T_CCLM帧内预测模式的规范。
…
可用的上邻近和右上邻近色度样点的数目numTopSamp和可用的左邻近和左下邻近色度样点的数目nLeftSamp推导如下:
-如果predModeIntra等于INTRA_LT_CCLM,则应用以下:
numSampT=availT?nTbW:0 (8-157)
numSampL=availL?nTbH:0 (8-158)
-否则,应用以下:
numSampT=(availT&&predModeIntra==INTRA_T_CCLM)?(nTbW+Min(numTopRight,nTbH)):0 (8-159)
numSampL=(availL&&predModeIntra==INTRA_L_CCLM)?(nTbH+Min(numLeftBelow,nTbW)):0 (8-160)
变量bCTUboundary,推导如下:
bCTUboundary=(yTbC&(1<<(CtbLog2SizeY-1)-1)==0)?TRUE:FALSE。(8-161)
变量cntN和阵列pickPosN[],N被L和T替换,推导如下:
-变量numIs4N设定为等于((availT&&availL&&predModeIntra==INTRA_LT_CCLM)?0:1)。
-变量startPosN设定为等于numSampN>>(2+numIs4N)。
-变量pickStepN设定为等于Max(1,numSampN>>(1+numIs4N))。
-如果availN等于TRUE且predModeIntra等于INTRA_LT_CCLM或INTRA_N_CCLM,则cntN设定为等于Min(numSampN,(1+numIs4N)<<1),并且pickPosN[pos]设定为等于(startPosN+pos*pickStepN),pos=0...(cntN-1)。
-否则,cntN设定为等于0。
预测样点predSamples[x][y],x=0…nTbW-1,y=0…nTbH-1,推导如下:
-如果numSampL和numSampT都等于0,则应用以下:
predSamples[x][y]=1<<(BitDepthC-1) (8-162)
-否则,应用以下顺序的步骤:
1.并置亮度样点pY[x][y],x=0...nTbW*2-1,y=0...nTbH*2-1,设定为等于位置(xTbY+x,yTbY+y)处在去方块滤波过程之前的重建的亮度样点。
2.相邻亮度样点pY[x][y]推导如下:
-当numSampL大于0时,左邻近亮度样点pY[x][y],x=-1...-3,y=0...2*numSampL-1,被设定为等于位置(xTbY+x,yTbY+y)处在去方块滤波过程之前的重建的亮度样点。
-当numSampT大于0时,上邻近亮度样点pY[x][y],x=0...2*numSampT-1,y=-1,-2,被设定为等于位置(xTbY+x,yTbY+y)处在去方块滤波过程之前的重建的亮度样点。
-当availTL等于TRUE时,左上邻近亮度样点pY[x][y],x=-1,y=-1,-2,被设定为等于位置(xTbY+x,yTbY+y)处在去方块滤波过程之前的重建的亮度样点。
3.向下采样的并置亮度样点pDsY[x][y],x=0..nTbW-1,y=0..nTbH-1,推导如下:
-如果sps_cclm_colocated_chroma_flag等于1,则应用以下:
-pDsY[x][y],x=1...nTbW-1,y=1…nTbH-1,推导如下:
pDsY[x][y]=(pY[2*x][2*y-1]+pY[2*x-1][2*y]+4*pY[2*x][2*y]+pY[2*x+1][2*y]+pY[2*x][2*y+1]+4)>>3
(8-163)
-如果availL等于TRUE,则pDsY[0][y],y=1…nTbH-1,推导如下:
pDsY[0][y]=(pY[0][2*y-1]+pY[-1][2*y]+4*pY[0][2*y]+pY[1][2*y]+pY[0][2*y+1]+4)>>3 (8-164)
-否则,pDsY[0][y],y=1...nTbH-1,推导如下:
pDsY[0][y]=(pY[0][2*y-1]+2*pY[0][2*y]+pY[0][2*y+1]+2)>>2 (8-165)
-如果availT等于TRUE,则pDsY[x][0],x=1...nTbW-1,推导如下:
pDsY[x][0]=(pY[2*x][-1]+pY[2*x-1][0]+4*pY[2*x][0]+pY[2*x+1][0]+pY[2*x][1]+4)>>3 (8-166)
-否则,pDsY[x][0],x=1…nTbW-1,推导如下:
pDsY[x][0]=(pY[2*x-1][0]+2*pY[2*x][0]+pY[2*x+1][0]+2)>>2 (8-167)
-如果availL等于TRUE且availT等于TRUE,则pDsY[0][0]推导如下:
-否则如果availL等于TRUE且availT等于FALSE,则pDsY[0][0]推导如下:
pDsY[0][0]=(pY[-1][0]+2*pY[0][0]+pY[1][0]+2)>>2 (8-169)
-否则如果availL等于FALSE且availT等于TRUE,则pDsY[0][0]推导如下:
pDsY[0][0]=(pY[0][-1]+2*pY[0][0]+pY[0][1]+2)>>2 (8-170)
-否则(availL等于FALSE且availT等于FALSE),pDsY[0][0]推导如下:
pDsY[0][0]=pY[0][0] (8-171)
-否则,应用以下:
-pDsY[x][y],x=1...nTbW-1,y=0…nTbH-1,推导如下:
pDsY[x][y]=(pY[2*x-1][2*y]+pY[2*x-1][2*y+1]+2*pY[2*x][2*y]+2*pY[2*x][2*y+1]+pY[2*x+1][2*y]+pY[2*x+1][2*y+1]+4)>>3
(8-172)
-如果availL等于TRUE,pDsY[0][y],y=0...nTbH-1,推导如下:
-否则,pDsY[0][y],y=0…nTbH-1,推导如下:
pDsY[0][y]=(pY[0][2*y]+pY[0][2*y+1]+1)>>1
(8-174)
4.当numSampL大于0时,所选择的左邻近色度样点pSelC[idx]设定为等于p[-1][pickPosL[idx]],idx=0...(cntL-1),并且所选择的向下采样的左邻近亮度样点pSelDsY[idx],idx=0…(cntL-1)推导如下:
-变量y设定为等于pickPosL[idx]。
-如果sps_cclm_colocated_chroma_flag等于1,则应用以下:
-如果y>0||availTL==TRUE,
pSelDsY[idx]=(pY[-2][2*y-1]+pY[-3][2*y]+4*pY[-2][2*y]+pY[-1][2*y]+pY[-2][2*y+1]+4)>>3 (8-175)
-否则,
pSelDsY[idx]=(pY[-3][0]+2*pY[-2][0]+pY[-1][0]+2)>>2
(8-177)
-否则,应用以下:
pSelDsY[idx]=(pY[-1][2*y]+pY[-1][2*y+1]+2*pY[-2][2*y]+2*pY[-2][2*y+1]+pY[-3][2*y]+pY[-3][2*y+1]+4)>>3
(8-178)
5.当numSampT大于0时,所选择的上邻近色度样点pSelC[idx]设定为等于p[pickPosT[idx-cntL]][-1],idx=cntL...(cntL+cntT-1),并且向下采样的上邻近亮度样点pSelDsY[idx],idx=cntL...(cntL+cntT-1),指定如下:
-变量x设定为等于pickPosT[idx-cntL]。
-如果sps_cclm_colocated_chroma_flag等于1,则应用以下:
-如果x>0:
-如果bCTUboundary等于FALSE,则应用以下:
pSelDsY[idx]=(pY[2*x][-3]+pY[2*x-1][-2]+4*pY[2*x][-2]+pY[2*x+1][-2]+pY[2*x][-1]+4)>>3
(8-179)
-否则(bCTUboundary等于TRUE),则应用以下:
-否则:
-如果availTL等于TRUE且bCTUboundary等于FALSE,则应用以下:
pSelDsY[idx]=(pY[0][-3]+pY[-1][-2]+4*pY[0][-2]+pY[1][-2]+pY[0][-1]+4)>>3 (8-181)
-否则如果availTL等于TRUE且bCTUboundary等于TRUE,则应用以下:
pSelDsY[idx]=(pY[-1][-1]+2*pY[0][-1]+pY[1][-1]+2)>>2 (8-182)
-否则如果availTL等于FALSE且bCTUboundary等于FALSE,则应用以下:
pSelDsY[idx]=(pY[0][-3]+2*pY[0][-2]+pY[0][-1]+2)>>2 (8-183)
-否则(availTL等于FALSE且bCTUboundary等于TRUE),则应用以下:
pSelDsY[idx]=pY[0][-1] (8-184)
-否则,应用以下:
-如果x>0:
-如果bCTUboundary等于FALSE,则应用以下:
pSelDsY[idx]=(pY[2*x-1][-2]+pY[2*x-1][-1]+2*pY[2*x][-2]+2*pY[2*x][-1]+pY[2*x+1][-2]+pY[2*x+1][-1]+4)>>3 (8-185)
-否则(bCTUboundary等于TRUE),则应用以下:
-否则:
-如果availTL等于TRUE且bCTUboundary等于FALSE,则应用以下:
-否则如果availTL等于TRUE且bCTUboundary等于TRUE,则应用以下:
pSelDsY[idx]=(pY[-1][-1]+2*pY[0][-1]+pY[1][-1]+2)>>2 (8-188)
-否则如果availTL等于FALSE且bCTUboundary等于FALSE,则应用以下:
pSelDsY[idx]=(pY[0][-2]+pY[0][-1]+1)>>1
(8-189)
-否则(availTL等于FALSE且bCTUboundary等于TRUE),则应用以下:
pSelDsY[idx]=pY[0][-1] (8-190)
6.当cntT+cntL不等于0时,变量minY,maxY,minC和maxC推导如下:
-
-当cntT+cntL等于2时,设定pSelComp[3]等于pSelComp[0],pSelComp[2]等于pSelComp[1],pSelComp[0]等于pSelComp[1],并且pSelComp[1]等于pSelComp[3],Comp被DsY和C替换。
-阵列minGrpIdx[]和maxGrpIdx[]设定为:minGrpIdx[0]=0,minGrpIdx[1]=2,maxGrpIdx[0]=1,maxGrpIdx[1]=3。
-如果pSelDsY[minGrpIdx[0]]>pSelDsY[minGrpIdx[1]],则Swap(minGrpIdx[0],minGrpIdx[1])。
-如果pSelDsY[maxGrpIdx[0]]>pSelDsY[maxGrpIdx[1]],则Swap(maxGrpIdx[0],maxGrpIdx[1])。
-如果pSelDsY[minGrpIdx[0]]>pSelDsY[maxGrpIdx[1]],则Swap(minGrpIdx,maxGrpIdx)。
-如果pSelDsY[minGrpIdx[1]]>pSelDsY[maxGrpIdx[0]],则Swap(minGrpIdx[1],maxGrpIdx[0])。
-maxY=(pSelDsY[maxGrpIdx[0]]+pSelDsY[maxGrpIdx[1]]+1)>>1。
-maxC=(pSelC[maxGrpIdx[0]]+pSelC[maxGrpIdx[1]]+1)>>1。
-minY=(pSelDsY[minGrpIdx[0]]+pSelDsY[minGrpIdx[1]]+1)>>1。
-minC=(pSelC[minGrpIdx[0]]+pSelC[minGrpIdx[1]]+1)>>1。
7.变量a,b和k推导如下:
-如果numSampL等于0,并且numSampT等于0,则应用以下:
k=0 (8-208)
a=0 (8-209)
b=1<<(BitDepthC-1) (8-210)
-否则,应用以下:
diff=maxY-minY (8-211)
-如果diff不等于0,则应用以下:
diffC=maxC-minC (8-212)
x=Floor(Log2(diff)) (8-213)
normDiff=((diff<<4)>>x)&15 (8-214)
x+=(normDiff!=0)?1:0 (8-215)
y=Floor(Log2(Abs(diffC)))+1 (8-216)
a=(diffC*(divSigTable[normDiff]|8)+2y-1)>>y (8-217)
k=((3+x-y)<1)?1:3+x-y (8-218)
a=((3+x-y)<1)?Sign(a)*15:a (8-219)
b=minC-((a*minY)>>k) (8-220)
其中divSigTable[]指定如下:
divSigTable[]={0,7,6,5,5,4,4,3,3,2,2,1,1,1,1,0} (8-221)
-否则(diff等于0),则应用以下:
k=0 (8-222)
a=0 (8-223)
b=minC (8-224)
8.预测样点predSamples[x][y],x=0…nTbW-1,y=0...nTbH-1推导如下:
predSamples[x][y]=Clip1C(((pDsY[x][y]*a)>>k)+b) (8-225)
以上描述的示例可以整合中以下描述的方法(例如,方法1800,1900和2000)的上下文中,其可以在视频编码器和/或解码器实现。
图18示出了视频处理的示例性方法的流程图。方法1800包括,在步骤1802,为视频的作为色度块的当前视频块和视频的编解码表示之间的转换,基于来自一组相邻色度样点的两个色度样点,确定跨分量线性模型的参数,其中基于位置规则从该组中选择两个色度样点。方法1800还包括,在步骤1804,基于所述确定来进行转换。
图19A示出了用于视频处理的示例性方法的流程图。方法1900包括,在步骤1902,为视频的作为色度块的当前视频块和视频的编解码表示之间的转换,基于色度样点确定跨分量线性模型的参数,该色度样点是基于色度样点位置选择的,其中选择的色度样点选自一组相邻的色度样点。方法1900还包括,在步骤1904,基于所述确定来进行转换。
图19B示出了视频处理的示例性方法的流程图。方法1910包括,在步骤1912,对于当前视频块,确定用于推导线性模型的参数的值的集合的一组相邻色度样点,其中当前视频块的宽度和高度分别为W和H,并且其中该组相邻色度样点包括位于超出相邻色度样点上方2×W或左邻近色度样点2×H之外的至少一个样点。方法1910还包括,在步骤1914,基于线性模型,在当前视频块和包括当前视频块的视频的编解码表示之间进行转换。
图20A示出了视频处理的示例性方法的流程图。方法2000包括,在步骤2002处,为视频的作为色度块的当前视频块与视频的编解码表示之间的转换,确定多个参数集合,其中每个参数集合定义跨分量线性模型(CCLM),并且是被从对应的色度样点位置处的对应组的色度样点推导。方法2000还包括,在步骤2004,基于多个参数集合,确定最终CCLM的参数。方法2000还包括,在步骤2006,基于最终CCLM进行转换。
图20B示出了视频处理的示例性方法的流程图。方法2010包括,在步骤2012处,为视频的当前视频块和视频的编解码表示之间的转换,基于N组的色度和色度样点中的色度和亮度样点的最大值和最小值,确定跨分量线性模型(CCLM)的参数,所述色度和亮度样点选自当前视频块的相邻亮度和色度样点。方法2010还包括,在步骤2014处,使用CCLM进行转换。
图21示出了视频处理的示例性方法的流程图。方法2100包括,在步骤2102中,为视频的作为色度块的当前视频块和视频的编解码表示之间的转换,确定由两个色度样点和对应的两个亮度样点完全可确定的跨分量线性模型的参数。方法2100还包括,在步骤2104处,基于所述确定来进行转换。
图22示出了视频处理的示例性方法的流程图。方法2200包括,在步骤2202,为视频的作为色度块的当前视频块和视频的编解码表示之间的转换,使用参数表来确定跨分量线性模型的参数,参数表的条目根据两个色度样点值和两个亮度样点值被取回。方法220还包括,在步骤2204,基于所述确定来进行转换。
图23A示出了视频处理的示例性方法的流程图。方法2310包括,在步骤2312,为视频的作为色度块的当前视频块和视频的编解码表示之间的转换,确定当前视频块中的位置(x,y)处的色度样点的最终预测P(x,y)作为多个跨分量线性模型(MCCLM)的预测结果的组合,其中MCCLM基于色度样点的位置(x,y)选择。方法2310还包括,在步骤2314,基于最终预测来进行转换。
图23B示出了视频处理的示例性方法的流程图。方法2320包括,在步骤2322,为视频的作为色度块的当前视频块和视频的编解码表示之间的转换,执行关于是否将第一跨分量线性模型(CCLM)用于预测当前视频块的样点的第一确定和/或是否将第二跨分量线性模型(CCLM)用于预测当前视频块的样点的第二确定,第一跨分量线性模型仅使用左邻近样点,第二跨分量线性模型仅使用上邻近样点。方法2320还包括,在步骤2324,基于第一确定和/或第二确定进行转换。
图24A示出了视频处理的示例性方法的流程图。方法2410包括,在步骤2412,为视频的当前视频块和视频的编解码表示之间的转换,确定用于在当前视频的编解码表示中使用算术编解码来对标志进行编解码的上下文。其中上下文基于是否使用跨分量线性模型(CCLM)预测模式编解码当前视频块的左上邻近块。方法2410包括,在步骤2414,基于所述确定进行转换。
图24B示出了视频处理的示例性方法的流程图。方法2420包括,在步骤2422,为视频的当前视频块和视频的编解码表示之间的转换,基于当前视频块的一个或多个相邻块的编解码模式,确定直接帧内预测模式(DM模式)和线性帧内预测模式(LM模式)的一个或多个指示的编解码顺序。方法2420包括,在步骤2424,基于所述确定来进行转换。
图24C示出了视频处理的示例性方法的流程图。方法2430包括,在步骤2432,为视频的当前视频块和视频的编解码表示之间的转换,基于当前视频块的细化的色度和亮度样点,确定线性模型预测或跨色分量预测的参数。方法2430包括,在步骤2434,基于所述确定来进行转换。
图24D示出了视频处理的示例性方法的流程图。方法2440包括,在步骤2442,为视频的作为色度块的当前视频块与视频的编码表示之间的转换,基于选择的相邻样点来确定线性模型预测或跨色分量预测的参数,其中,所述选择的相邻样点是基于最大或最小相邻样点的位置选择的。方法2440还包括,在步骤2444处,基于所述确定来进行转换。
图24E示出了视频处理的示例性方法的流程图。方法2450包括,在步骤2452,为视频的当前视频块和视频的编解码表示之间的转换,基于主色彩分量和从色彩分量,确定线性模型预测或跨色彩分量预测的参数,主色彩分量被选择为亮度色彩分量和色度色彩分量之一,从色彩分量被选择为亮度色彩分量和色度色彩分量中的另一个。方法2450还包括,在步骤2454,基于所述确定来进行转换。
图25A示出了视频处理的示例性方法的流程图。方法2510包括,在步骤2512,对当前视频块的相邻块的色度和亮度样点进行向下采样。方法2510还包括,在步骤2514中,为视频的作为色度块的当前视频块与视频的编解码表示之间的转换,基于向下采样获得的向下采样的色度和亮度样点,确定跨分量线性模型(CCLM)的参数。方法2510还包括,在步骤2516,基于所述确定来进行转换。
图25B示出了视频处理的示例性方法的流程图。方法2520包括,在步骤2522处,为视频的作为色度块的当前视频块与视频的编解码表示之间的转换,基于来自一组相邻色度样点的两个或更多个色度样点,确定跨分量线性模型(CCLM)的参数,其中基于当前视频块的编解码模式选择两个或更多个色度样点。方法2520还包括,在步骤2524处基于所述确定来进行转换。
图26A示出了视频处理的示例性方法的流程图。方法2610包括,在步骤2612中,为视频的作为色度块的当前视频块和视频的编解码表示之间的转换,基于色度样点,确定跨分量线性模型(CCLM)的参数,所述色度样点基于W个可用上邻近样点来选择,其中W是整数。方法2610还包括,在步骤2614,基于所述确定来进行转换。
图26B示出了视频处理的示例性方法的流程图。方法2620包括,在步骤2622,为视频的作为色度块的当前视频块和视频的编解码表示之间的转换,基于色度样点,确定跨分量线性模型(CCLM)的参数,所述色度样点基于当前视频块的H个可用的左邻近样点来选择。方法2620还包括,在步骤2622,基于所述确定来进行转换。
图27A示出了视频处理的示例性方法的流程图。方法2710包括,在步骤2712中,为视频的作为色度块的当前视频块与视频的编解码表示之间的转换,基于两个或四个色度样点和/或对应的亮度样点,确定跨分量线性模型(CCLM)的参数。方法2710还包括,在步骤2714,基于所述确定来进行转换。
图27B示出了视频处理的示例性方法的流程图。方法2720包括,在步骤2722,为视频的作为色度块的当前视频块与视频的编解码表示之间的转换,基于位置规则选择色度样点,所述色度样点用于推导跨分量线性模型(CCLM)的参数。方法2720还包括,在步骤2724,基于所述确定来进行转换。在该示例中,位置规则指定选择位于当前视频块的上方行和/或左侧列内的色度样点。
图28A示出了视频处理的示例性方法的流程图。方法2810包括,在步骤2812,为视频的作为色度块的当前视频块和视频的编解码表示之间的转换,确定亮度样点被向下采样的位置,其中使用向下采样的亮度样点基于色度样点和向下采样的亮度样点来确定跨分量线性模型(CCLM)的参数,其中向下采样的亮度样点位于与用于推导CCLM的参数的色度样点的位置相对应的位置。方法2810还包括,在步骤2814,基于所述确定来进行转换。
图28B示出了视频处理的示例性方法的流程图。方法2820包括,在步骤2822,为视频的作为色度块的当前视频块和视频的编解码表示之间的转换,确定一种使用色度样点和亮度样点基于与当前视频块相关联的编解码条件来推导跨分量线性模型(CCLM)的参数的方法。方法2820还包括,在步骤2824,基于所述确定来进行转换。
图28C示出了视频处理的示例性方法的流程图。方法2830包括,在步骤2832,为视频的作为色度块的当前视频块和视频的编解码表示之间的转换,基于当前视频块的左邻近块和上邻近块的可用性,确定是否推导亮度分量和色度分量的最大值和/或最小值,所述亮度分量和色度分量用于推导跨分量线性模型(CCLM)的参数。方法2830还包括,在步骤2834,基于所述确定来进行转换。
图29A示出了视频处理的示例性方法的流程图。方法2910包括,在步骤2912,对线性视频的当前视频块和视频的编解码表示之间的转换,基于当前视频块的所选相邻样点和参考块的对应的相邻样点,确定使用线性模型的编解码工具的参数。方法2910还包括,在步骤2914,基于所述确定来进行转换。
图29B示出了视频处理的示例性方法的流程图。方法2920包括,在步骤2922,为视频的当前视频块和视频的编解码表示之间的转换,基于当前视频块的N个相邻样点和参考块的N个对应的相邻样点,确定局部照明补偿(LIC)工具的参数,其中基于N个相邻样点的位置选择当前视频块的N个相邻样点。方法2920还包括,在步骤2924,基于所述确定来进行转换。LIC工具在转换期间使用当前视频块中的照明变化的线性模型。
图29C示出了视频处理的示例性方法的流程图。方法2930包括,在步骤2932,为视频的作为色度块的当前视频块和视频的编解码表示之间的转换,基于色度样点和对应的亮度样点,确定跨分量线性模型(CCLM)的参数。方法2930还包括,在步骤2934,基于所述确定来进行转换。在该示例中,通过填充操作获得一些色度样点,并将色度样点和对应的亮度样点分组为两个阵列G0和G1,每个阵列包括两个色度样点和对应的亮度样点。
4本公开技术的示例性实现方式
图30A是视频处理设备3000的框图。设备3000可以用于实现本文所描述的方法中的一个或多个。设备3000可以实现为智能电话、平板电脑、计算机、物联网(IoT)接收器等等。设备3000可以包括一个或多个处理器3002、一个或多个存储器3004和视频处理硬件3006。(一个或多个)处理器3002可以配置为实现本文档中描述的一个或多个方法(包括但不限于图18至29C所示的方法)。(一个或多个)存储器3004可以用于储存用于实现本文中所描述的方法和技术的数据和代码。视频处理硬件3006可以用于在硬件电路中实现本文档中描述的一些技术。
图30B是可以实现公开的技术的视频处理系统的框图的另一示例。图30B是示出可以实现本文中公开的技术的示例性视频处理系统3100的框图。各种实现方式可以包括系统3100的组件中的一些或全部。系统3100可以包括输入3102,以接收视频内容。视频内容可以以原始或未压缩格式(例如,8或10比特多分量像素值)接收,也可以以压缩的或编码的格式接收。输入3102可以表示网络接口、外围总线接口或储存接口。网络接口的示例包括诸如以太网、无源光学网络(PON)等的有线接口和诸如Wi-Fi或蜂窝接口的无线接口。
系统3100可以包括可以实现本文档中描述的各种编解码或编码方法的编解码组件3104。编解码组件3104可以将视频的平均比特率从输入3102减少到编解码组件3104的输出,以产生视频的编解码表示。因此,编解码技术有时称为视频压缩或视频转码技术。如组件3106所表示的,编解码组件3104的输出可以被存储或经由所连接的通信来传输。在输入3102处接收的视频的存储的或传输的比特流表示(或编解码表示)可以被组件3108用于生成像素值或可显示视频,该像素值或可显示视频被发送到显示接口3110。从比特流表示生成用户可观看视频的过程有时称为视频解压缩。此外,尽管某些视频处理操作被称为“编码”操作或工具,但是应当理解,编码工具或编码操作在编码器处使用,并且逆向操作编码结果的对应的解码工具或解码操作将由解码器执行。
外围总线接口或显示接口的示例可以包括通用串行总线(USB)或高清多媒体接口(HDMI)或Displayport等。存储接口的示例包括SATA(串行高级技术附件)、PCI、IDE接口等等。本文档中描述的技术可以实现在各种电子装置中,诸如移动电话、膝上型计算机、智能电话或能够执行数字数据处理和/或视频显示的其他设备。
在一些实施例中,视频编解码方法可以使用在关于图30A或30B所描述的硬件平台上实现的装置来实现。
可以使用以下基于条款的格式描述优选地整合在一些实施例内的各种技术。
第一套条款描述本公开技术的在之前章节中列举的某些特征和方面,包括例如示例1.a-d和j。
1.一种视频处理的方法,包括:
为视频的作为色度块的当前视频块与所述视频的编解码表示之间的转换,基于来自相邻色度样点的组的两个色度样点,确定跨分量线性模型的参数,其中基于位置规则从所述组选择所述两个色度样点;以及
基于所述确定进行所述转换。
2.如条款1所述的方法,其中所述参数的值是基于所述两个色度样点的亮度样点确定的。
3.如条款2所述的方法,其中所述亮度样点被向下采样,以用于推导所述跨分量线性模型的参数。
4.如条款1所述的方法,其中所述参数的值是基于在2S位置处的色度样点确定的,S为整数。
5.如条款1所述的方法,其中所述色度块的左上样点是(x,y),其中所述色度块的宽度和高度分别是W和H,并且其中所述相邻色度样点的组包括:
样点A,具有坐标(x-1,y),
样点B,具有坐标(x-1,y+H/2-1),
样点C,具有坐标(x-1,y+H/2),
样点D,具有坐标(x-1,y+H-1),
样点E,具有坐标(x-1,y+H),
样点F,具有坐标(x-1,y+H+H/2-1),
样点G,具有坐标(x-1,y+H+H/2),
样点I,具有坐标(x-1,y+H+H-1),
样点J,具有坐标(x,y-1),
样点K,具有坐标(x+W/2-1,y-1),
样点L,具有坐标(x+W/2,y-1),
样点M,具有坐标(x+W-1,y-1),
样点N,具有坐标(x+W,y-1),
样点O,具有坐标(x+W+W/2-1,y-1),
样点P,具有坐标(x+W+W/2,y-1),以及
样点Q,具有坐标(x+W+W-1,y-1)。
6.如条款5所述的方法,其中所述位置规则指定所述两个色度样点选自样点A、D、J和M。
7.如条款5所述的方法,其中所述位置规则指定所述两个色度样点选自样点A、B、C、D、J、K、L和M。
8.如条款5所述的方法,其中所述位置规则指定所述两个色度样点选自样点A、I、J和Q。
9.如条款5所述的方法,其中所述位置规则指定所述两个色度样点选自样点A、B、D、I、J、K、M和Q。
10.如条款5所述的方法,其中所述位置规则指定所述两个色度样点选自样点A、B、D、F、J、K、M和O。
11.如条款5所述的方法,其中所述位置规则指定所述两个色度样点选自A、C、G、I、J、L、P和Q。
12.如条款5所述的方法,其中所述位置规则指定所述两个色度样点选自样点A、C、E、G、J、L、N和P。
13.如条款5所述的方法,其中所述位置规则指定所述两个色度样点选自样点J、K、L和M。
14.如条款5所述的方法,其中所述位置规则指定所述两个色度样点选自样点J、L、N和Q。
15.如条款5所述的方法,其中所述位置规则指定所述两个色度样点选自样点J、K、L、M、N、O、P和Q。
16.如条款5所述的方法,其中所述位置规则指定所述两个色度样点选自样点A、B、C、D、E、F、G和I。
17.如条款5所述的方法,其中所述位置规则指定所述两个色度样点选自样点J、K、L、M、N、O、P和Q。
18.如条款5所述的方法,其中所述位置规则指定所述两个色度样点之一选自样点A、B、C、D、E、F、G和I,并且所述两个色度样点中的其他色度样点选自样点J、K、L、M、N、O、P和Q。
19.如条款5-18中任一项所述的方法,其中所述两个色度样点具有相同对应的亮度值,所述方法还包括检查附加的色度样点。
20.如条款1所述的方法,其中搜索所述相邻色度样点的组中的色度样点,以找到具有最大和最小对应亮度值的两个色度样点,从而确定所述参数的值的第一集合。
21.如条款1所述的方法,其中只有在x%K=0的情况下,具有坐标(x,y)的上邻近样点才在所述组中,K为2、4、6或8,并且%为模算符。
22.如条款1所述的方法,其中只有在y%K=0的情况下,具有坐标(x,y)的左邻近样点才在所述组中,K为2、4、6或8,并且%为模算符。
23.如条款1所述的方法,其中基于相邻块的可用性选择所述两个色度样点。
24.如条款1-23中任一项所述的方法,其中进行所述转换包括从所述当前块生成所述编解码表示。
25.如条款1-23中任一项所述的方法,其中进行所述转换包括从所述编解码表示生成所述当前块。
26.一种视频系统中的设备,包括处理器和其上具有指令的非瞬态存储器,其中由所述处理器执行所述指令时,使所述处理器实现条款1至25中一项或多项所述的方法。
27.一种计算机程序产品,储存在非瞬态计算机可读介质上,所述计算机程序产品包括用于执行条款1至25中一项或多项所述的方法的程序代码。
第二套条款描述本公开技术的在之前章节中列举的某些特征和方面,包括例如示例1.e-i和示例9。
1.一种视频处理的方法,包括:
为视频的作为色度块的当前视频块与所述视频的编解码表示之间的转换,根据基于所述色度样点的位置选择的色度样点,确定跨分量线性模型的参数,其中所选择的色度样点选自相邻色度样点的组;以及
基于所述确定进行所述转换。
2.如条款1所述的方法,其中至少一个相邻色度样点不属于所选择的色度样点。
3.如条款1所述的方法,其中在所述当前视频块的预测模式是仅使用左邻近样点的第一线性模式的情况下,全部所选择的色度相邻样点在所述当前块的左侧。
4.如条款1所述的方法,其中在所述当前视频块的预测模式是仅使用上邻近样点的第二线性模式的情况下,全部所选择的色度相邻样点在所述当前块的上方。
5.如条款1-4中任一项所述的方法,其中基于所述色度块的宽度或高度选择所述色度样点的位置。
6.如条款1所述的方法,其中所述色度样点的位置对应于视频参数集(VPS)、序列参数集(SPS)、图片参数集(PPS)、条带标头、片组头、片、编解码单元(CU)、编解码树单元(CTU)或预测单元(PU)中的信令通知。
7.如条款1所述的方法,其中确定所述参数还基于最小均方差法。
8.如条款1所述的方法,其中所述确定所述参数还基于二点法。
9.一种视频处理的方法,包括:
对于当前视频块,确定用于推导线性模型的参数的值的集合的一组相邻色度样点,其中所述当前视频块的宽度和高度分别为W和H,并且其中所述相邻色度样点的组包括位于超出2×W上邻近色度样点或2×H左邻近色度样点的至少一个样点;以及
基于所述线性模型,进行所述当前视频块与所述视频的包括所述当前视频块的编解码表示之间的转换。
10.如条款8所述的方法,其中所述当前视频块是使用线性帧内预测模式编解码的,其中所述当前视频块的左上样点是(x,y),其中所述至少一个样点是(x-1,y+d),其中d是范围[T,S]内的整数,并且其中T和S是整数。
11.如条款9所述的方法,其中T<0且S>(2×H-1)。
12.如条款9所述的方法,其中T=-4且S=max(2×W,W+H)。
13.如条款9所述的方法,其中T=0且S=max(2×W,W+H)。
14.如条款9所述的方法,其中T=0且S=4×H。
15.如条款8所述的方法,其中所述当前视频块是使用线性帧内预测模式编解码的,其中所述当前视频块的左上样点是(x,y),其中所述至少一个样点是(x+d,y-1),其中d是范围[T,S]内的整数,并且其中T和S是整数。
16.如条款15所述的方法,其中T<0且S>(2×W-1)。
17.如条款15所述的方法,其中T=-4且S=3×W。
18.如条款15所述的方法,其中T=0且S=max(2×W,W+H)。
19.如条款15所述的方法,其中T=0且S=4×W。
20.如条款1-19中任一项所述的方法,其中进行所述转换包括从所述当前块生成所述编解码表示。
21.如条款1-19中任一项所述的方法,其中进行所述转换包括从所述编解码表示生成所述当前块。
22.视频系统中的设备,包括处理器和其上具有指令的非瞬态存储器,其中由所述处理器执行所述指令时,使所述处理器实现条款1至21中任一项所述的方法。
23.计算机程序产品,储存在非瞬态计算机可读介质上,所述计算机程序产品包括用于执行条款1至21中任一项所述的方法的程序代码。
第三套条款描述本公开技术的在之前章节中列举的某些特征和方面,包括例如示例2和示例5。
1.一种视频处理的方法,包括:
为视频的作为色度块的当前视频块与所述视频的编解码表示之间的转换,确定多个参数集合,其中每个参数集合定义跨分量线性模型(CCLM),并且每个参数集合是从对应色度样点位置处的对应组的色度样点推导的;
基于所述多个参数集合,确定最终CCLM的参数;以及
基于所述最终CCLM,进行所述转换。
2.如条款1所述的方法,其中所述最终CCLM的参数被确定为所述多个参数集合中的相应参数的平均。
3.如条款1所述的方法,其中所述多个参数集合包括第一集合(α1,β1)和第二集合(α2,β2),并且基于参数α1、β1、α2、β2计算色度预测。
4.如条款1所述的方法,其中所述多个参数集合移位并组合,以形成所述最终CCLM。
5.如条款1所述的方法,其中所述多个参数集合包括从第一组色度样点推导的第一集合(α1,β1)和从第二组色度样点推导的第二集合(α2,β2),所述第一组和所述第二组对应于彼此不同的色度样点位置。
6.如条款5所述的方法,其中所述色度块的左上样点是(x,y),并且所述色度块的宽度和高度分别是W和H,并且其中该组色度样点包括以下中的至少一者:
样点A,具有坐标(x-1,y),
样点B,具有坐标(x-1,y+H/2-1),
样点C,具有坐标(x-1,y+H/2),
样点D,具有坐标(x-1,y+H-1),
样点E,具有坐标(x-1,y+H),
样点F,具有坐标(x-1,y+H+H/2-1),
样点G,具有坐标(x-1,y+H+H/2),
样点I,具有坐标(x-1,y+H+H-1),
样点J,具有坐标(x,y-1),
样点K,具有坐标(x+W/2-1,y-1),
样点L,具有坐标(x+W/2,y-1),
样点M,具有坐标(x+W-1,y-1),
样点N,具有坐标(x+W,y-1),
样点O,具有坐标(x+W+W/2-1,y-1),
样点P,具有坐标(x+W+W/2,y-1),或
样点Q,具有坐标(x+W+W-1,y-1)。
7.如条款6所述方法,其中所述第一组包括样点A和D,并且所述第二组包括样点J和M或样点E和I。
8.如条款6所述方法,其中所述第一组包括样点A和I,并且所述第二组包括样点J和Q。
9.如条款6所述方法,其中所述第一组包括样点A和B,并且所述第二组包括样点C和D。
10.如条款6所述方法,其中所述第一组包括J和M,并且所述第二组包括N和Q。
11.如条款6所述方法,其中所述第一组包括J和K,并且所述第二组包括L和M。
12.一种视频处理的方法,包括:
为视频的当前视频块与所述视频的编解码表示之间的转换,基于选自所述当前视频块的相邻亮度和色度样点的N组色度和亮度样点的色度和亮度样点的最大值和最小值,确定跨分量线性模型(CCLM)的参数;以及
使用所述CCLM进行所述转换。
13.如条款12所述的方法,其中所述N组色度和亮度样点包括S0,S1,…,Sm,并且其中1≤m≤N-1,其中m和N是非负整数,其中最大亮度值计算为maxL=f1(maxLS0,maxLS1,…,maxLSm),其中f1是第一函数且maxLSi是所述多个组中的组Si的最大亮度值,其中最大色度值计算为maxC=f2(maxCS0,maxCS1,…,maxCSm),其中f2是第二函数且maxCSi是所述组Si的对应于maxLSi的色度值,其中最小亮度值计算为minL=f3(minLS0,minLS1,…,minLSm),其中f3是第三函数且minLSi是所述组Si的最小亮度值,其中最小色度值计算为minC=f4(minCS0,minCS1,…,minCSm),其中f4是第四函数且minCSi是所述组Si的对应于minLSi的色度值,并且其中所述线性模型的参数包括α和β,计算如下
α=(maxC-minC)/(maxL-minL)且β=minC-α×minL。
14.如条款13所述的方法,其中f1,f2,f3和f4是平均函数。
15.如条款13或14所述的方法,其中m=N-1。
16.如条款13或14所述的方法,其中m=1,并且其中S1=SN-1。
17.如条款13或14所述的方法,其中m=0。
18.如条款13或14所述的方法,其中S0包括来自所述当前视频块的上方行的样点,并且其中S1包括来自所述当前视频块的左侧行的样点。
19.如条款13或14所述的方法,其中来自所述当前视频块的上方行的样点具有坐标(x,y),其中S0包括所述样点中的第一部分,其中所述第一部分的每个样点满足x%P=Q,其中S1包括所述样点中的第二部分,其中所述第二部分的每个样点满足x%P≠Q,并且其中%是取模运算符,并且P和Q是非负整数。
20.如条款13或14所述的方法,其中来自所述当前视频块的左侧行的样点具有坐标(x,y),其中S0包括所述样点中的第一部分,其中所述第一部分的每个样点满足y%P=Q,其中S1包括所述样点中的第二部分,其中所述第二部分的每个样点满足y%P≠Q,并且其中%是取模运算符,并且P和Q是非负整数。
21.如条款19或20所述的方法,其中i)P=2且Q=1,或ii)P=2且Q=0,或iii)P=4且Q=0。
22.如条款12至14中任一项所述的方法,其中所述色度和亮度样点仅包括所述相邻块的色度和亮度样点的一部分。
23.如条款13至22中任一项所述的方法,其中N是预定的。
24.如条款13至23中任一项所述的方法,其中N是在序列参数集(SPS)、视频参数集(VPS)、图片参数集(PPS)、图片报头、条带报头、片组报头,一个或多个最大编解码单元或一个或多个编解码单元中被信令通知。
25.如条款12所述的方法,其中基于所述当前视频块的相邻块的可用性选择每组的所述色度和亮度样点。
26.如条款12所述的方法,其中基于所述当前视频块的宽度和高度选择每组的所述色度和亮度样点。
27.如条款12所述的方法,其中基于所述色度和亮度样点的值选择每组的所述色度和亮度样点。
28.如条款1-27中任一项所述的方法,其中进行所述转换包括从所述当前块生成所述编解码表示。
29.如条款1-27中任一项所述的方法,其中进行所述转换包括从所述编解码表示生成所述当前块。
30.一种视频系统中的设备,包括处理器和其上具有指令的非瞬态存储器,其中由所述处理器执行所述指令时,使所述处理器实现条款1至29中一项或多项所述的方法。
31.一种计算机程序产品,储存在非瞬态计算机可读介质上,所述计算机程序产品包括用于执行条款1至29中一项或多项所述的方法的程序代码。
第四套条款描述本公开技术的在之前章节中列举的某些特征和方面,包括例如示例3.a-b和示例3.d。
1.一种视频处理的方法,包括:
为视频的作为色度块的当前视频块与所述视频的编解码表示之间的转换,确定跨分量线性模型的参数,所述参数由两个色度样点和对应的两个亮度样点可完全确定;以及
基于所述确定进行所述转换。
2.如条款1所述的方法,其中所述两个色度样点表示为C0和C1,所述对应的亮度样点表示为L0和L1,所述跨分量线性模型的参数表示为α和β,并且α和β由以下等式定义:α=(C1-C0)/(L1-L0)且β=C0-α×L0。
3.如条款2所述的方法,其中如果L1等于L0,则β=C0。
4.如条款2所述的方法,其中如果L1等于L0,则使用除所述跨分量线性模型模式之外的其他帧内预测模式。
5.如条款2所述的方法,其中通过将除法运算排除来确定α。
6.如条款2所述的方法,其中使用不用查找表的运算来确定α,所述运算将除法运算排除。
7.如条款2所述的方法,其中所述跨分量线性模型的参数具有基于(L1-L0)的值确定的值。
8.如条款2所述的方法,其中α=Shift(C1-C0,Floor(log2(L1-L0))),其中Shift(x,s)=(x+off)>>s,并且off是整数,其中Floor(x)是输出x的整数部分的地板函数。
9.如条款2所述的方法,其中α=Shift(C1-C0,Ceiling(log2(L1-L0))),其中Shift(x,s)=(x+off)>>s,并且off是整数,其中Ceiling(x)是输出大于或等于x的最小整数的天花板函数。
10.如条款8或9所述的方法,其中通过检查x的最高有效位的位置进行获取log2(x)的值的运算。
11.如条款1所述的方法,其中在K比特内进行确定所述参数,K是8、10、12、16、24或32。
12.如条款11所述的方法,其中中间变量被修剪或右移位到在所述K比特内。
13.如条款1-12中任一项所述的方法,其中进行所述转换包括从所述当前块生成所述编解码表示。
14.如条款1-12中任一项所述的方法,其中进行所述转换包括从所述编解码表示生成所述当前块。
15.视频系统中的设备,包括处理器和其上具有指令的非瞬态存储器,其中由所述处理器执行所述指令时,使所述处理器实现条款1至14中一项或多项所述的方法。
16.计算机程序产品,储存在非瞬态计算机可读介质上,所述计算机程序产品包括用于执行条款1至14中一项或多项所述的方法的程序代码。
第五套条款描述本公开技术的在之前章节中列举的某些特征和方面,包括例如示例3.c。
1.一种视频处理的方法,包括:
为视频的作为色度块的当前视频块与所述视频的编解码表示之间的转换,使用参数表确定跨分量线性模型的参数,参数表的条目根据两个色度样点值和两个亮度样点值取回;以及
基于所述确定进行所述转换。
2.如条款1所述的方法,其中所述参数表具有尺寸V,V小于2P,P为整数。
3.如条款1所述的方法,其中所述参数表具有条目,每个条目储存F比特整数,并且F为8或16。
4.如条款1所述的方法,其中所述参数表M[k]满足M[k-Z]=((1<<S)+Off)/k,S是定义精度的整数,Off指示偏移,Z是所述参数表的第一值。
5.如条款1所述的方法,其中所述两个色度样点表示为C0和C1,所述亮度样点表示为L0和L1,所述跨分量线性模型的参数表示为α和β,并且α和β由以下等式定义:α=(C1-C0)/(L1-L0)且β=C0-α×L0。
6.如条款5所述的方法,其中k=Shift(L1-L0,W),并且k用于查询所述参数表中的条目,并且其中Shift(x,s)=(x+off)>>s,off是整数,并且W是所述当前视频块的宽度。
7.如条款6所述方法,其中当k-Z<0或k-Z≥V时α是零,V指示所述参数表的尺寸,并且Z指示所述参数表的第一值。
8.如条款5所述的方法,其中α=Shift((C1-C0)×M[k-Z],D)或α=SignShift((C1-C0)×M[k-Z],D),并且其中如果x≥0,则Shift(x,s)=(x+off)>>s且SignShift(x,s)=(x+off)>>s,或如果x<0,则-(-x+off)>>s,off是整数,并且k指示查询所述参数表中的条目的索引。
9.如条款8所述的方法,其中基于(L1-L0)的值且不基于(C1-C0)的值推导k。
10.如条款8所述的方法,其中基于(L1-L0)和(C1-C0)的值推导k。
11.如条款6所述的方法,其中k在kMin与kMax之间的范围内是有效的。
12.如条款8所述的方法,其中k=Shift(L1-L0,W),并且k是查询所述参数表中的条目的索引,并且其中Shift(x,s)=(x+off)>>s,off是整数,并且W是所述当前视频块的宽度。
13.如条款8所述的方法,其中k在kMin与kMax之间的范围内是有效的,并且如果(L1-L0)≤kMax,则k=L1-L0,如果(L1-L0)>kMax,则k=Shift(L1-L0,W)。
14.如条款8所述的方法,其中k在kMin与kMax之间的范围内是有效的,并且k=Min(kMax,L1-L0)或k=Max(kMin,Min(kMax,L1-L0))。
15.如条款5所述的方法,其中(L1-L0)<0,并且进行所述确定以推导‘-α’而非α的值。
16.如条款5所述的方法,其中(L1-L0)=0,并且α设定为0或1的默认值。
17.如条款5所述的方法,其中(L1-L0)=2E,E≥0,α=Shift((C1-C0),E)或Signshift((C1-C0),E),并且其中如果x≥0,则Shift(x,s)=(x+off)>>s且SignShift(x,s)=(x+off)>>s,或如果x<0,则-(-x+off)>>s。
18.如条款1-17中任一项所述的方法,其中进行所述转换包括从所述当前块生成所述编解码表示。
19.如条款1-17中任一项所述的方法,其中进行所述转换包括从所述编解码表示生成所述当前块。
20.一种视频系统中的设备,包括处理器和其上具有指令的非瞬态存储器,其中由所述处理器执行所述指令时,使所述处理器实现条款1至19中一项或多项所述的方法。
21.一种计算机程序产品,储存在非瞬态计算机可读介质上,所述计算机程序产品包括用于执行条款1至19中一项或多项所述的方法的程序代码。
第六套条款描述本公开技术的在之前章节中列举的某些特征和方面,包括例如示例4和示例6。
1.一种视频处理的方法,包括:
为视频的作为色度块的当前视频块与所述视频的编解码表示之间的转换,确定所述当前视频块中的位置(x,y)处的色度样点的最终预测P(x,y)作为多个跨分量线性模型(MCCLM)的预测结果的组合,其中基于所述色度样点的位置(x,y)选择所述多个跨分量线性模型;以及
基于所述最终预测进行所述转换。
2.如权利要求1所述的方法,其中所述多个跨分量线性模型包括第一线性模型和第二线性模型,第一线性模型的参数仅从左邻近样点推导,并且第二线性模型的参数仅从上邻近样点推导。
3.如权利要求1所述的方法,其中仅基于左邻近样点预测所述色度样点中的一些,并且仅基于上邻近样点预测所述色度样点中的一些。
4.如权利要求且2或3所述的方法,其中所述色度样点的最终预测P(x,y)是基于通过所述第一线性模型得到的预测P1(x,y)和通过所述第二线性模型得到的预测P2(x,y)的加权平均。
5.如权利要求4所述的方法,其中P(x,y)=w1×P1(x,y)+w2×P2(x,y),其中w1和w2是由w1+w2=1约束的权重。
6.如权利要求4所述的方法,其中P(x,y)=(w1*P1(x,y)+w2*P2(x,y)+Offset)>>shift,其中offset是包括0或1<<(shift-1)的整数,shift是整数,并且w1和w2是由w1+w2=1<<shift约束的权重。
7.如权利要求4所述的方法,其中P(x,y)=(w1*P1(x,y)+((1<<shift)-w1)*P2(x,y)+Offset)>>shift,其中offset是包括0或1<<(shift-1)的整数,shift是整数,并且w1和w2是权重。
8.如权利要求5-7中任一项所述的方法,其中w1和w2的值取决于所述位置(x,y)。
9.如权利要求5-7中任一项所述的方法,其中如果x>y,则w1<w2,其中如果x<y,则w1>w2,并且其中如果x=y,则w1=w2。
10.如权利要求5-7中任一项所述的方法,其中,对于x<y的情况,如果(y-x)的值增大则(w1-w2)的值增大。
11.如权利要求5-7中任一项所述的方法,其中,对于x>y的情况,如果(x-y)的值增大则(w2-w1)的值增大。
12.一种视频处理的方法,包括:
为视频的作为色度块的当前视频块与所述视频的编解码表示之间的转换,进行与仅使用左邻近样点的第一跨分量线性模型(CCLM)是否被用于预测所述当前视频块的样点有关的第一确定,和/或与仅使用上邻近样点的第二跨分量线性模型(CCLM)是否被用于预测所述当前视频块的样点有关的第二确定;以及
基于所述第一确定和/或所述第二确定进行所述转换。
13.如权利要求12所述的方法,其中对满足W>K×H的情况不应用所述第一CCLM,K是非负整数。
14.如权利要求12所述的方法,其中对满足H>K×W的情况不应用所述第二CCLM,K是非负整数。
15.如权利要求12所述的方法,其中对于不应用所述第一CCLM和所述第二CCLM之一的情况不在信令中通知指示应用所述第一CCLM或所述第二CCLM的标志。
16.如权利要求1-15所述的方法,其中进行所述转换包括从所述当前块生成所述编解码表示。
17.如权利要求1-15所述的方法,其中进行所述转换包括从所述编解码表示生成所述当前块。
18.一种视频系统中的设备,包括处理器和其上具有指令的非瞬态存储器,其中由所述处理器执行所述指令时,使所述处理器实现权利要求1至17中一项或多项所述的方法。
19.一种计算机程序产品,储存在非瞬态计算机可读介质上,所述计算机程序产品包括用于执行权利要求1至17中一项或多项所述的方法的程序代码。
第七套条款描述本公开技术的在之前章节中列举的某些特征和方面,包括例如示例7、8、11-13。
1.一种视频处理的方法,包括:为视频的当前视频块与所述视频的编解码表示之间的转换,确定用于在所述当前视频块的编解码表示中使用算术编解码来对标志进行编解码的上下文,其中所述上下文基于所述当前视频块的左上邻近块是否使用跨分量线性模型(CCLM)预测模式编解码;以及基于所述确定进行所述转换。
2.如条款1所述的方法,其中所述上下文包括所述左上邻近块的第一上下文使用所述CCLM预测模式,并且如果所述左上邻近块不使用所述CCLM预测模式则包括与所述第一上下文不同的第二上下文。
3.如条款1所述的方法,其中所述左上邻近块不可用,并且其中所述CCLM预测模式被视为启用。
4.如条款1所述的方法,其中所述左上邻近块不可用,并且其中所述CCLM预测模式被视为禁用。
5.如条款1所述的方法,其中所述左上邻近块是帧内编解码的,并且其中所述CCLM预测模式被视为启用。
6.如条款1所述的方法,其中所述左上邻近块是帧内编解码的,并且其中所述CCLM预测模式被视为禁用。
7.一种视频处理的方法,包括:为视频的当前视频块与所述视频的编解码表示之间的转换,基于所述当前视频块的一个或多个相邻块编解码模式,确定直接帧内预测模式(DM模式)和线性帧内预测模式(LM模式)的一个或多个指示的编解码顺序;以及基于所述确定进行所述转换。
8.如条款7所述的方法,其中所述一个或多个相邻块中的左上邻近块被用所述LM模式编解码,并且其中所述LM模式的指示被首先编解码。
9.如条款7所述的方法,其中所述一个或多个相邻块中的左上邻近块被用所述DM模式编解码,并且其中所述DM模式的指示被首先编解码。
10.如条款7所述的方法,其中所述一个或多个相邻块中的左上邻近块被用与所述LM模式不同的编解码模式编解码,并且其中所述DM模式的指示被首先编解码。
11.如条款7至10中任一项所述的方法,其中所述一个或多个指示被在序列参数集(SPS)、视频参数集(VPS)、图片参数集(PPS)、图片头、条带标头、片组头、一个或多个最大编解码单元或一个或多个编解码单元中信令通知。
12.一种视频处理的方法,包括:为视频的当前视频块与所述视频的编解码表示之间的转换,基于所述当前视频块的细化色度和亮度样点,确定线性模型预测或跨色彩分量预测的参数;以及基于所述确定进行所述转换。
13.如条款12所述的方法,其中所述色度和亮度样点被向下采样。
14.如条款12所述的方法,其中所述细化过程包括滤波过程或非线性过程。
15.如条款12所述的方法,其中所述线性模型预测的参数是α和β,其中α=(C1-C0)/(L1-L0)且β=C0-αL0,其中C0和C1被从色度样点推导,并且其中L0和L1被从亮度样点推导。
16.如条款15所述的方法,其中所述亮度样点在被用于推导L0和L1之前可以被向下采样。
17.如条款15所述的方法,其中C0和L0基于S个色度和亮度样点,分别表示为{Cx1,Cx2,…,CxS}和{Lx1,Lx2,…,LxS},其中C1和L1基于T个色度和亮度样点,分别表示为{Cy1,Cy2,…,CyT}和{Ly1,Ly2,…,LyT},其中{Cx1,Cx2,…,CxS}对应于{Lx1,Lx2,…,LxS},其中{Cy1,Cy2,…,CyT}对应于{Ly1,Ly2,…,LyT},其中C0=f0(Cx1,Cx2,…,CxS),L0=f1(Lx1,Lx2,…,LxS),C1=f2(Cy1,Cy2,…,CyT)和L1=f1(Ly1,Ly2,…,LyT),并且其中f0,f1,f2和f3是函数。
18.如条款17所述的方法,其中f0和f1是第一函数。
19.如条款17所述的方法,其中f2和f3是第二函数。
20.如条款18所述的方法,其中f0,f1,f2和f3是第三函数。
21.如条款20所述的方法,其中所述第三函数是平均函数。
22.如条款17所述的方法,其中S=T。
23.如条款17所述的方法,其中{Lx1,Lx2,…,LxS}是一组亮度样点的最小样点。
24.如条款17所述的方法,其中{Ly1,Ly2,…,LyT}是一组亮度样点的最大样点。
25.如条款23或24所述的方法,其中所述组的亮度样点包括在VTM-3.0中用于推导所述线性模型预测的参数的全部相邻样点。
26.如条款23或24所述的方法,其中所述组的亮度样点包括在VTM-3.0中用于推导所述线性模型预测的参数的相邻样点的子集,并且其中所述子集与全部所述相邻样点不同。
27.一种视频处理的方法,包括:为视频的作为色度块的当前视频块与所述视频的编解码表示之间的转换,基于选择的相邻样点来确定线性模型预测或跨色分量预测的参数,其中,所述选择的相邻样点是基于最大或最小相邻样点的位置选择的;以及基于所述确定进行所述转换。
28.如条款27所述的方法,其中所述最大相邻样点位于位置(x0,y0)处,在区域(x0-d1,y0),(x0,y0-d2),(x0+d3,y0),(x0,y0+d4)中的样点被用于选择所述相邻样点,并且其中{d1,d2,d3,d4}取决于所述位置(x0,y0)。
29.如条款27所述的方法,其中所述最小相邻样点位于位置(x1,y1)处,在区域(x1-d1,y1),(x1,y1-d2),(x1+d3,y1),(x1,y1+d4)中的样点被用于选择所述相邻样点,并且其中{d1,d2,d3,d4}取决于所述位置(x1,y1)。
30.如条款27-29中任一项所述的方法,其中所述相邻样点表示色彩分量。
31.一种视频处理的方法,包括:为视频的当前视频块与所述视频的编解码表示之间的转换,基于主色彩分量和从色彩分量,确定线性模型预测或跨色彩分量预测的参数,所述主色彩分量选择为亮度色彩分量和色度色彩分量之一,并且所述从色彩分量选择为所述亮度色彩分量和所述色度色彩分量中的另一者;以及基于所述确定进行所述转换。
32.如条款1-31中任一项所述的方法,其中进行所述转换包括从所述当前块生成所述编解码表示。
33.如条款1-31中任一项所述的方法,其中进行所述转换包括从所述编解码表示生成所述当前块。
34.一种视频系统中的设备,包括处理器和其上具有指令的非瞬态存储器,其中所述指令由所述处理器执行时,使所述处理器实现条款1至33中任一项所述的方法。
35.一种计算机程序产品,储存在非瞬态计算机可读介质上,所述计算机程序产品包括用于执行条款1至33中任一项所述的方法的程序代码。
第八套条款描述本公开技术的在之前章节中列举的某些特征和方面,包括例如示例10和14。
1.一种视频处理的方法,包括:对所述当前视频块的相邻块的色度和亮度样点进行向下采样;为视频的作为色度块的当前视频块与所述视频的编解码表示之间的转换,基于从所述向下采样获得的所述向下采样的色度和亮度样点确定跨分量线性模型(CCLM)的参数;以及基于所述确定进行所述转换。
2.如条款1所述的方法,其中所述当前视频块具有高度(H)和宽度(W),并且所述向下采样基于所述高度或所述宽度。
3.如条款1所述的方法,其中在推导所述CCLM的包括α和β的参数之前获得所述向下采样的色度和亮度样点,并且其中α和β由以下等式定义:α=(C1-C0)/(L1-L0)且β=C0-α×L0。
4.如条款1所述的方法,其中用于推导CCLM的参数的左邻近样点的数目与用于推导CCLM的参数的上邻近样点的数目相同。
5.如条款2所述的方法,其中W<H或W>H。
6.如条款2所述的方法,其中是否向下采样所述左邻近块或上邻近块的色度和亮度样点取决于W和H的相对大小。
7.如条款6所述的方法,其中在H>W的情况下,对所述左邻近块的色度和亮度样点进行所述向下采样。
8.如条款6所述的方法,其中在W>H的情况下,对所述上邻近块的色度和亮度样点进行所述向下采样。
9.如条款7所述的方法,其中所述当前视频块的左上样点是R[0,0],其中所述向下采样的色度样点包括样点R[-1,K×H/W],并且其中K是范围在从0至W-1的非负整数。
10.如条款8所述的方法,其中所述当前视频块的左上样点是R[0,0],其中所述向下采样的色度样点包括样点R[K×H/W,-1],并且其中K是范围在从0至H-1的非负整数。
11.一种视频处理的方法,包括:为视频的作为色度块的当前视频块与所述视频的编解码表示之间的转换,基于来自一组相邻色度样点的两个或更多个色度样点,确定跨分量线性模型(CCLM)的参数,其中所述两个或更多个色度样点被基于所述当前视频块的编解码模式选择;以及基于所述确定进行所述转换。
12.如条款11所述的方法,其中与所述两个或更多个色度样点相对应的两个或更多个亮度样点被用于推导所述跨分量线性模型的参数。
13.如条款12所述的方法,其中对所述两个或更多个亮度样点向下采样,以推导所述跨分量线性模型的参数。
14.如条款11所述的方法,其中所述两个或更多个色度样点是基于相邻样点的可用性选择的。
15.如条款11所述的方法,其中所述两个或更多个色度样点选自相对于所述当前视频块的左侧列、上方行、右上行或左下列中的一个或多个。
16.如条款11所述的方法,其中所述两个或更多个色度样点是基于所述当前视频块的高度与所述当前视频块的宽度的比例选择的。
17.如条款11所述的方法,其中所述两个或更多个色度样点是基于所述当前视频块的宽度或高度是否等于K而选择的,K是整数。
18.如条款17所述的方法,其中K=2。
19.如条款11所述的方法,其中所述当前视频块的编解码模式是第一线性模式,其与仅使用左邻近样点的第二线性模式和仅使用上邻近样点的第三线性模式不同,其中所述当前视频块的左上样点的坐标是(x,y),并且其中所述当前视频块的宽度和高度分别是W和H。
20.如条款19所述的方法,其中所述两个或更多个色度样点包括具有坐标(x-1,y),(x,y-1),(x-1,y+H-1)和(x+W-1,y-1)的样点。
21.如条款19所述的方法,其中所述两个或更多个色度样点包括具有坐标(x-1,y),(x,y-1),(x-1,y+H-H/W-1)和(x+W-1,y-1)的样点,并且其中H>W。
22.如条款19所述的方法,其中所述两个或更多个色度样点包括具有坐标(x-1,y),(x,y-1),(x-1,y+H-1)和(x+W-W/H-1,y-1)的样点,并且其中H<W。
23.如条款19所述的方法,其中所述两个或更多个色度样点包括具有坐标(x-1,y),(x,y-1),(x-1,y+H-max(1,H/W))和(x+W-max(1,W/H),y-1)的样点。
24.如条款19所述的方法,其中所述两个或更多个色度样点包括具有坐标(x,y-1),(x+W/4,y-1),(x+2*W/4,y-1)和(x+3*W/4,y-1)的样点。
25.如条款19所述的方法,其中所述两个或更多个色度样点包括具有坐标(x,y-1),(x+W/4,y-1),(x+3*W/4,y-1)和(x+W-1,y-1)的样点。
26.如条款19所述的方法,其中所述两个或更多个色度样点包括具有坐标(x,y-1),(x+(2W)/4,y-1),(x+2*(2W)/4,y-1)和(x+3*(2W)/4,y-1)的样点。
27.如条款19所述的方法,其中所述两个或更多个色度样点包括具有坐标(x,y-1),(x+(2W)/4,y-1),(x+3*(2W)/4,y-1)和(x+(2W)-1,y-1)的样点。
28.如条款19所述的方法,其中所述两个或更多个色度样点包括具有坐标(x-1,y),(x-1,y+H/4),(x-1,y+2*H/4)和(x-1,y+3*H/4)的样点。
29.如条款19所述的方法,其中所述两个或更多个色度样点包括具有坐标(x-1,y),(x-1,y+2*H/4),(x-1,y+3*H/4)和(x-1,y+H-1)的样点。
30.如条款19所述的方法,其中所述两个或更多个色度样点包括具有坐标(x-1,y),(x-1,y+(2H)/4),(x-1,y+2*(2H)/4)和(x-1,y+3*(2H)/4)的样点。
31.如条款19所述的方法,其中所述两个或更多个色度样点包括具有坐标(x-1,y),(x-1,y+2*(2H)/4),(x-1,y+3*(2H)/4)和(x-1,y+(2H)-1)的样点。
32.如条款20至31中任一项所述的方法,其中选择恰两个样点以确定所述CCLM的参数。
33.如条款1-32中任一项所述的方法,其中进行所述转换包括从所述当前块生成所述编解码表示。
34.如条款1-32中任一项所述的方法,其中进行所述转换包括从所述编解码表示生成所述当前块。
35.一种视频系统中的设备,包括处理器和其上具有指令的非瞬态存储器,其中由所述处理器执行所述指令时,使所述处理器实现条款1至34中任一项所述的方法。
36.一种计算机程序产品,储存在非瞬态计算机可读介质上,所述计算机程序产品包括用于执行条款1至34中任一项所述的方法的程序代码。
第九套条款描述本公开技术的在之前章节中列举的某些特征和方面,包括例如示例16和17。
1.一种视频处理的方法,包括:为视频的作为色度块的当前视频块与所述视频的编解码表示之间的转换,基于色度样点确定跨分量线性模型(CCLM)的参数,所述色度样点被基于W个可用上邻近样点选择,W是整数;以及基于所述确定进行所述转换。
2.如条款1所述的方法,其中W被设定为i)所述当前视频块的宽度,ii)L乘以所述当前视频块的宽度,L是整数,iii)所述当前视频块的高度与所述当前视频块的宽度之和,或iv)所述当前视频块的宽度与可用右上邻近样点的数目之和。
3.如条款1所述的方法,其中W取决于所述当前视频块的上邻近块或左邻近块中的至少一个的可用性。
4.如条款1所述的方法,其中W取决于所述当前视频块的编解码模式。
5.如条款2所述的方法,其中L具有取决于右上块或位于与所述当前视频块的左上邻近样点的可用性的值。
6.如条款1所述的方法,其中基于取决于W的第一位置偏移值(F)和步长值(S)选择所述色度样点。
7.如条款6所述的方法,其中左上样点具有坐标(x0,y0),并且所选择的色度样点具有坐标(x0+F+K×S,y0-1),K是0与kMax之间的整数。
8.如条款6所述的方法,其中F=W/P或F=W/P+offset,P是整数。
9.如条款8所述的方法,其中F=W>>(2+numIs4T),其中在存在在上邻近行内选择的四个相邻样点的情况下,numIs4T等于1,并且否则numIs4T等于0。
10.如条款6所述的方法,其中S=W/Q,Q是整数。
11.如条款6所述的方法,其中S不小于1。
12.如条款10或11所述的方法,其中S=Max(1,W>>(1+numIs4T)),其中在存在在上邻近内选择的四个相邻样点的情况下,numIs4T等于1,并且否则numIs4T等于0。
13.如条款9或12所述的方法,其中在上邻近样点可用、左邻近样点可用的情况下,numIs4T等于1,并且所述当前视频块被用普通CCLM编解码,普通CCLM与仅使用左邻近样点的第一CCLM且与仅使用上邻近样点的第二CCLM不同。
14.如条款6所述的方法,其中F=S/R,R是整数。
15.如条款6所述的方法,其中S=F/Z,Z是整数。
16.如条款7-15中任一项所述的方法,其中Kmax,F,S,或offset中的至少一个取决于所述当前视频块的预测模式,所述当前视频块的预测模式是以下之一:仅使用左邻近样点的第一CCLM,仅使用上邻近样点的第二CCLM,使用左邻近和上邻近样点两者的第三CCLM,或与所述第一CCLM、所述第二CCLM和所述第三CCLM不同的其他模式。
17.如条款7-15中任一项所述的方法,其中Kmax,F,S或offset中的至少一个取决于所述当前视频块的宽度和/或高度。
18.如条款7-15中任一项所述的方法,其中Kmax,F,S或offset中的至少一个取决于相邻样点的可用性。
19.如条款7-15中任一项所述的方法,其中Kmax,F,S或offset中的至少一个取决于W。
20.一种视频处理的方法,包括:为视频的作为色度块的当前视频块与所述视频的编解码表示之间的转换,基于色度样点确定跨分量线性模型(CCLM)的参数,所述色度样点被基于所述当前视频块的H个可用左邻近样点选择;以及基于所述确定进行所述转换。
21.如条款20所述的方法,其中H被设定为以下之一:i)所述当前视频块的高度,ii)L乘以所述当前视频块的高度,L是整数,iii)所述当前视频块的高度与所述当前视频块的宽度之和,或iv)所述当前视频块的高度与可用左下邻近样点的数目之和。
22.如条款20所述的方法,其中H取决于所述当前视频块的上邻近块或左邻近块中的至少一个的可用性。
23.如条款20所述的方法,其中H取决于所述当前视频块的编解码模式。
24.如条款21所述的方法,其中L具有取决于左下块或位于所述当前视频块的左下的相邻样点的可用性的值。
25.如条款20所述的方法,其中所述色度样点被基于取决于H的第一位置偏移值(F)和步长值(S)选择。
26.如条款25所述的方法,其中左上样点具有坐标(x0,y0),并且所选择的色度样点具有坐标(x0-1,y0+F+K×S),K是0与kMax之间的整数。
27.如条款25所述的方法,其中F=H/P或F=H/P+offset,P是整数。
28.如条款27所述的方法,其中F=H>>(2+numIs4L),其中在存在在所述左邻近列内选择的四个相邻样点的情况下,numIs4L等于1;否则其等于0。
29.如条款25所述的方法,其中S=H/Q,Q是整数。
30.如条款25所述的方法,其中S不小于1。
31.如条款29或30所述的方法,其中S=Max(1,H>>(1+numIs4L)),其中在存在在左邻近列内选择的四个相邻样点的情况下,numIs4L等于1,并且否则numIs4L等于0。
32.如条款28或31所述的方法,其中在上邻近样点可用、左邻近样点可用的情况下,numIs4L等于1,并且所述当前视频块被用普通CCLM编解码,普通CCLM与仅使用左邻近样点的第一CCLM和仅使用上邻近样点的第二CCLM不同。
33.如条款25所述的方法,其中F=S/R,R是整数。
34.如条款25所述的方法,其中S=F/Z,Z是整数。
35.如条款26-34中任一项所述的方法,其中Kmax,F,S或offset中的至少一个取决于所述当前视频块的预测模式,所述当前视频块的预测模式是以下之一:仅使用左邻近样点的第一CCLM,仅使用上邻近样点的第二CCLM、使用左邻近和上邻近样点两者的第三CCLM,或与所述第一CCLM、所述第二CCLM和所述第三CCLM不同的其他模式。
36.如条款26-34中任一项所述的方法,其中Kmax,F,S或offset中的至少一个取决于所述当前视频块的宽度和/或高度。
37.如条款26-34中任一项所述的方法,其中Kmax,F,S或offset中的至少一个取决于H。
38.如条款26-34中任一项所述的方法,其中Kmax,F,S或offset中的至少一个取决于相邻样点的可用性。
39.如条款20所述的方法,其中在右上所述当前视频块的相邻块可用的情况下,H被设定为所述当前视频块的高度与所述当前视频块的宽度之和。
40.如条款20所述的方法,其中在左邻近样点不可用的情况下,所选择的色度样点具有所述高度H,无论所述当前视频块是否具有仅使用上邻近样点的第一CCLM。
41.如条款1所述的方法,其中在左下所述当前视频块的相邻块可用的情况下,W被设定为所述当前视频块的高度和所述当前视频块的宽度之和。
42.如条款1所述的方法,其中在上邻近样点不可用的情况下,所选择的色度样点具有数目W,无论所述当前视频块是否具有仅使用左邻近样点的第一CCLM。
43.如条款1-42中任一项所述的方法,其中进行所述转换包括从所述当前块生成所述编解码表示。
44.如条款1-42中任一项所述的方法,其中进行所述转换包括从所述编解码表示生成所述当前块。
45.一种视频系统中的设备,包括处理器和其上具有指令的非瞬态存储器,其中由所述处理器执行所述指令时,使所述处理器实现条款1至44中任一项所述的方法。
46.一种计算机程序产品,储存在非瞬态计算机可读介质上,所述计算机程序产品包括用于执行如条款1至44中任一项的所述方法的程序代码。
第十套条款描述本公开技术的在之前章节中列举的某些特征和方面,包括例如示例18和19。
1.一种视频处理的方法,包括:为视频的作为色度块的当前视频块与所述视频的编解码表示之间的转换,基于两个或四个色度样点和/或对应的亮度样点,确定跨分量线性模型(CCLM)的参数;以及基于所述确定进行所述转换。
2.如条款1所述的方法,其中所述对应的亮度样点通过向下采样获得。
3.如条款1所述的方法,其中所述CCLM的参数包括maxY/maxC和minY/minC。
4.如条款3所述的方法,其中选择所述两个色度样点,以推导maxY/maxC和minY/minC,并且其中minY被设定为较小的亮度样点值,minC是其对应的色度样点值,maxY被设定为较大亮度样点值,并且maxC是其对应的色度样点值。
5.如条款3所述的方法,其中选择所述四个色度样点,以推导maxY/maxC和minY/minC,并且其中所述四个色度样点和所述对应的亮度样点被划分为两个阵列G0和G1,每个阵列包括两个色度样点和它们对应的亮度样点。
6.如条款5所述的方法,其中所述两个阵列G0和G1包括以下集合之一:
i)G0={S0,S1},G1={S2,S3},
ii)G0={S1,S0},G1={S3,S2},
iii)G0={S0,S2},G1={S1,S3},
iv)G0={S2,S0},G1={S3,S1},
v)G0={S1,S2},G1={S0,S3},
vi)G0={S2,S1},G1={S3,S0},
vii)G0={S0,S3},G1={S1,S2},
viii)G0={S3,S0},G1={S2,S1},
ix)G0={S1,S3},G1={S0,S2},
x)G0={S3,S1},G1={S2,S0},
xi)G0={S3,S2},G1={S0,S1},或
xii)G0={S2,S3},G1={S1,S0},并且
其中S0,S1,S2,S3分别包括所述四个色度样点,并且还分别包括对应的亮度样点。
7.如条款6所述的方法,其中一经比较G0[0]和G0[1]的两个亮度样点值,G0[0]的色度样点和其对应的亮度样点被与G0[1]的色度样点和其对应的亮度样点互换。
8.如条款7所述的方法,其中在G0[0]的亮度样点值大于G0[1]的亮度样点值的情况下,G0[0]的所述色度样点及其对应的亮度样点被与G0[1]的所述色度样点及其对应的亮度样点互换。
9.如条款6所述的方法,其中一经比较G1[0]和G1[1]的两个亮度样点值,G1[0]的色度样点及其对应的亮度样点被与G1[1]的色度样点及其对应的亮度样点互换。
10.如条款9所述的方法,其中在G1[0]的亮度样点值大于G1[1]的亮度样点值的情况下,所述G1[0]的色度样点及其对应的亮度样点被与G1[1]的色度样点及其对应的亮度样点互换。
11.如条款6所述的方法,其中一经比较G0[0]和G1[1]的两个亮度样点值,G0[0]或G0[1]的色度样点及其对应的亮度样点被与G1[0]或G1[1]的色度样点及其对应的亮度样点互换。
12.如条款11所述的方法,其中在G0[0]的亮度样点值大于G1[1]的亮度样点值的情况下,G0[0]的所述色度样点及其对应的亮度样点或G0[1]被与G1[0]或G1[1]的色度样点及其对应的亮度样点互换。
13.如条款6所述的方法,其中一经比较G0[1]和G1[0]的两个亮度样点值,G0[1]的色度样点及其对应的亮度样点被与G1[0]的色度样点及其对应的亮度样点互换。
14.如条款13所述的方法,其中在G0[1]的亮度样点值大于G1[0]的亮度样点值的情况下,所述G0[1]的色度样点及其对应的亮度样点被与G1[0]的色度样点及其对应的亮度样点互换。
15.如条款6所述的方法,其中一经比较G0[0],G0[1],G1[0],和G1[1]的两个亮度样点值,按顺序进行以下互换操作:i)G0[0]的色度样点及其对应的亮度样点与G0[1]的色度样点及其对应的亮度样点的互换操作,ii)G1[0]的色度样点及其对应的亮度样点与G1[1]的色度样点及其对应的亮度样点的互换操作,iii)G0[0]或G0[1]的色度样点及其对应的亮度样点与G1[0]或G1[1]的色度样点及其对应的亮度样点的互换操作,以及iv)G0[1]的色度样点及其对应的亮度样点与G1[0]色度样点及其对应的亮度样点的互换操作。
16.如条款6所述的方法,其中maxY计算为G0[0]和G0[1]的亮度样点值的平均或G1[0]和G1[1]的亮度样点值的平均,并且maxC计算为G0[0]和G0[1]的色度样点值的平均或G1[0]和G1[1]的色度样点值的平均。
17.如条款6所述的方法,其中minY计算为G0[0]和G0[1]的亮度样点值的平均或G1[0]和G1[1]的亮度样点值的平均,并且minC计算为G0[0]和G0[1]的色度样点值的平均或G1[0]和G1[1]的色度样点值的平均。
18.如条款16或17所述的方法,其中所述maxY和maxC的计算或所述minY和minC的计算被在一经比较G0[0],G0[1],G1[0]和G1[1]的两个亮度样点值进行的互换操作中任一者之后进行,其中所述互换操作包括:i)G1[0]的色度样点及其对应的亮度样点与G1[1]的色度样点及其对应的亮度样点的互换操作,ii)G0[0]或G0[1]的色度样点及其对应的亮度样点与G1[0]或G1[1]的色度样点及其对应的亮度样点的互换操作,以及iii)G0[1]的色度样点及其对应的亮度样点与G1[0]色度样点及其对应的亮度样点的互换操作。
19.如条款1所述的方法,其中在仅存在两个可用色度样点的情况下,对所述两个可用色度样点进行填充以提供所述四个色度样点。
20.如条款19所述的方法,其中所述四个色度样点包括所述两个可用色度样点和从所述两个可用色度样点复制的两个填充色度样点。
21.如条款6所述的方法,其中S0,S1,S2,S3是色度样点,并且以给定顺序在所述当前视频块的上方行和/或左侧列内选择对应的亮度样点。
22.一种视频处理的方法,包括:为视频的作为色度块的当前视频块与所述视频的编解码表示之间的转换,基于位置规则选择色度样点,所述色度样点用于推导跨分量线性模型(CCLM)的参数;以及基于所述确定进行所述转换,其中所述位置规则指定选择位于所述当前视频块的上方行和/或左侧列内的所述色度样点。
23.如条款22所述的方法,其中所述上方行和所述左侧列分别具有W个样点和H个样点,W和H分别是所述当前视频块的宽度和高度。
24.如条款22所述的方法,其中所述位置规则应用于用普通CCLM模式编解码的所述当前视频块,所述普通CCLM与仅使用上邻近样点推导所述CCLM的第一CCLM模式不同并与仅使用左邻近样点推导所述CCLM的第二CCLM模式不同。
25.如条款22所述的方法,其中所述位置规则指定选择位于所述当前视频块的上方行和右上行内的所述色度样点,并且其中所述上方行和所述右上行分别具有W个样点和H个样点,W和H分别是所述当前视频块的宽度和高度。
26.如条款25所述的方法,其中仅选择在所述上方行和所述右上行内的可用样点。
27.如条款25所述的方法,其中所述位置规则应用于用仅使用上邻近样点推导所述CCLM的第一CCLM模式编解码的所述当前视频块。
28.如条款25所述的方法,其中所述位置规则应用于所述上方行可用而所述左侧列不可用并且所述当前视频块被用普通CCLM模式编解码的情况,所述普通CCLM模式与仅使用上邻近样点推导所述CCLM的第一CCLM模式不同,并且与仅使用左邻近样点推导所述CCLM的第二CCLM模式不同。
29.如条款23-28中任一项所述的方法,其中基于规则设定numSampT,所述规则指定,在上邻近样点可用的情况下,numSampT被设定为等于nTbW,并且在所述上邻近样点不可用的情况下,numSampT被设定为等于0,并且其中numSampT表示上邻近行内用于推导所述跨分量线性模型的参数的色度样点的数目,并且nTbW表示所述当前视频块的宽度。
30.如条款29所述的方法,其中所述规则应用于被用普通CCLM模式编解码的所述当前视频块,所述普通CCLM模式与仅使用上邻近样点推导所述CCLM的第一CCLM模式不同,并且与仅使用左邻近样点推导所述CCLM的第二CCLM模式不同。
31.如条款23-28中任一项所述的方法,其中基于规则设定numSampT,所述规则指定在上邻近样点可用且所述当前视频块被用仅使用上邻近样点推导所述CCLM的第一CCLM模式编解码的情况下,numSampT被设定为等于nTbW+Min(numTopRight,nTbH),并且否则所述numSampT被设定为等于0,并且其中numSampT表示上邻近行内用于推导所述跨分量线性模型的参数的色度样点的数目,nTbW和nTbH分别表示所述当前块的宽度和高度,并且numTopRight表示可用右上邻近样点的数目。
32.如条款31所述的方法,其中所述规则应用于不是使用普通CCLM模式编解码的所述当前视频块,所述普通CCLM模式与仅使用上邻近样点推导所述CCLM的第一CCLM模式不同,并且与仅使用左邻近样点推导所述CCLM的第二CCLM模式不同。
33.如条款22所述的方法,其中所述位置规则指定选择位于所述当前视频块的左侧列和左下列内的所述色度样点,并且其中所述左侧列和所述左下列分别具有H个样点和W个样点,W和H分别是所述当前视频块的宽度和高度。
34.如条款33所述的方法,其中仅选择所述左侧列和所述左下列内的可用样点。
35.如条款33所述的方法,其中所述位置规则应用于用仅使用左邻近样点推导所述CCLM的第二CCLM模式编解码的所述当前视频块。
36.如条款33所述的方法,其中所述位置规则应用于所述上方行不可用而所述左侧列可用并且所述当前视频块被用普通CCLM模式编解码的情况,所述普通CCLM模式与仅使用上邻近样点推导所述CCLM的第一CCLM模式不同,并且与仅使用左邻近样点推导所述CCLM的第二CCLM模式不同。
37.如条款33-36中任一项所述的方法,其中基于规则设定numSampL,所述规则指定在左邻近样点可用的情况下,numSampL被设定为等于nTbH,并且否则numSampL被设定为等于0,并且其中numSampL表示左邻近列内用于推导所述跨分量线性模型的参数的色度样点的数目,并且nTbH表示所述当前视频块的高度。
38.如条款37所述的方法,其中所述规则应用于用普通CCLM模式编解码的所述当前视频块,所述普通CCLM与仅使用上邻近样点推导所述CCLM的第一CCLM模式不同,并且与仅使用左邻近样点推导所述CCLM的第二CCLM模式不同。
39.如条款33-36中任一项所述的方法,其中基于规则设定numSampL,所述规则指定左邻近样点可用并且所述当前视频块被用仅使用左邻近样点推导所述CCLM的第二CCLM模式编解码的情况下,numSampL被设定为等于nTbH+Min(numLeftBelow,nTbW),并且否则numSampL被设定为等于0,并且其中numSampL表示左邻近列内用于推导所述跨分量线性模型的参数的色度样点的数目,nTbW和nTbH分别表示所述当前块的宽度和高度,并且numLeftBelow表示可用左下邻近样点的数目。
40.如条款39所述的方法,其中所述规则应用于不是用普通CCLM模式编解码的所述当前视频块,所述普通CCLM与仅使用上邻近样点推导所述CCLM的第一CCLM模式不同,并且与仅使用左邻近样点推导所述CCLM的第二CCLM模式不同。
41.如条款22-40中任一项所述的方法,其中对应于所选择的色度样点的亮度样点被用于推导所述跨分量线性模型的参数。
42.如条款41所述的方法,其中通过向下采样推导所述亮度样点。
43.如条款1-42中任一项所述的方法,其中进行所述转换包括从所述当前块生成所述编解码表示。
44.如条款1-42中任一项所述的方法,其中进行所述转换包括从所述编解码表示生成所述当前块。
45.一种视频系统中的设备,包括处理器和其上具有指令的非瞬态存储器,其中由所述处理器执行所述指令时,使所述处理器实现条款1至44中任一项所述的方法。
46.一种计算机程序产品,储存在非瞬态计算机可读介质上,所述计算机程序产品包括用于执行条款1至44中任一项所述的方法的程序代码。
第十一套条款描述本公开技术的在之前章节中列举的某些特征和方面,包括例如示例20、21和22。
1.一种视频处理的方法,包括:为视频的作为色度块的当前视频块与所述视频的编解码表示之间的转换,确定亮度样点被向下采样的位置,其中所述向下采样的亮度样点被用于基于色度样点和向下采样的亮度样点确定跨分量线性模型(CCLM)的参数,其中所述向下采样的亮度样点在与被用于推导所述CCLM的参数的所述色度样点的位置相对应的位置处;以及基于所述确定进行所述转换。
2.如条款1所述的方法,其中亮度样点在所述当前视频块之外的位置不被向下采样,并且不被用于确定所述CCLM的参数。
3.一种视频处理的方法,包括:为视频的作为色度块的当前视频块与所述视频的编解码表示之间的转换,确定使用色度样点和亮度样点,基于与所述当前视频块相关联的编解码条件,推导跨分量线性模型(CCLM)的参数的方法;以及基于所述确定进行所述转换。
4.如条款3所述的方法,其中所述编解码条件对应于所述当前视频块的颜色格式。
5.如条款4所述的方法,其中所述颜色格式是4:2:0或4:4:4。
6.如条款3所述的方法,其中编解码条件对应于所述当前视频块的色彩表示方法。
7.如条款6所述的方法,其中所述色彩表示方法是RGB或YCbCr。
8.如条款3所述的方法,其中所述色度样点被向下采样,并且所述确定取决于向下采样的色度样点的位置。
9.如条款3所述的方法,其中所述推导参数的方法包括基于所述色度样点和所述亮度样点确定所述CCLM的参数,所述色度样点和所述亮度样点基于位置规则选自一组相邻色度样点。
10.如条款3所述的方法,其中所述推导参数的方法包括基于所述色度样点和所述亮度样点的最大值和最小值确定所述CCLM的参数。
11.如条款3所述的方法,其中所述推导参数的方法包括确定所述CCLM的参数,所述CCLM的参数由两个色度样点和对应的两个亮度样点完全可确定。
12.如条款3所述的方法,其中所述推导参数的方法包括使用参数表确定所述CCLM的参数,所述参数表的条目根据两个色度样点值和两个亮度样点值被取回。
13.一种视频处理的方法,包括:为视频的作为色度块的当前视频块与所述视频的编解码表示之间的转换,基于左邻近块和所述当前视频块的上邻近块的可用性,确定是否推导被用于推导跨分量线性模型(CCLM)的参数的亮度分量和色度分量的最大值和/或最小值;以及基于所述确定进行所述转换。
14.如条款13所述的方法,其中在所述左邻近块和所述上邻近块不可用的情况下,不推导所述最大值和/或所述最小值。
15.如条款13所述的方法,其中所述确定基于所述当前视频块的可用相邻样点的数目而确定,并且其中所述可用相邻样点被用于推导所述跨分量线性模型的参数。
16.如条款15所述的方法,其中在numSampL==0且numSampT==0的情况下,不推导所述最大值和/或所述最小值,所述numSampL和所述numSampT分别指示来自所述左邻近块的数目和来自所述上邻近块的可用相邻样点的数目,并且其中来自所述左邻近块的所述可用相邻样点和来自所述上邻近块的所述可用相邻样点被用于推导所述跨分量线性模型的参数。
17.如条款15所述的方法,其中在numSampL+numSampT==0的情况下,不推导所述最大值和/或所述最小值,所述numSampL和所述numSampT分别指示来自所述左邻近块的可用相邻样点的数目和来自所述上邻近块的可用相邻样点的数目,并且其中来自所述左邻近块的所述可用相邻样点和来自所述上邻近块的所述可用相邻样点被用于推导所述跨分量线性模型的参数。
18.如条款1-17中任一项所述的方法,其中进行所述转换包括从所述当前块生成所述编解码表示。
19.如条款1-17中任一项所述的方法,其中进行所述转换包括从所述编解码表示生成所述当前块。
20.一种视频系统中的设备,包括处理器和其上具有指令的非瞬态存储器,其中由所述处理器执行所述指令时,使所述处理器实现条款1至19中任一项所述的方法。
21.一种计算机程序产品,储存在非瞬态计算机可读介质上,所述计算机程序产品包括用于执行条款1至19中任一项所述的方法的程序代码。
第十二套条款描述本公开技术的在之前章节中列举的某些特征和方面,包括例如示例23。
1.一种视频处理的方法,包括:为视频的当前视频块与所述视频的编解码表示之间的转换,基于所述当前视频块的所选择的相邻样点和参考块的对应的相邻样点,确定使用线性模型编解码工具的参数;以及基于所述确定进行所述转换。
2.如条款1所述的方法,其中所述编解码工具是局部照明补偿(LIC)工具,其包括使用在所述转换期间所述当前视频块中的照明改变的线性模型。
3.如条款2所述的方法,其中基于位置规则选择所述当前视频块的相邻样点和所述参考块的相邻样点。
4.如条款2所述的方法,其中基于所述当前视频块的相邻样点和所述参考块的相邻样点的最大值和最小值选择所述编解码工具的参数。
5.如条款2所述的方法,其中使用参数表确定所述编解码工具的参数,所述参数表的条目根据所述当前视频块的两个相邻样点和所述参考块的两个相邻样点被取回。
6.如条款2所述的方法,其中所述当前视频块的相邻样点和所述参考块的相邻样点被向下采样,以推导所述编解码工具的参数。
7.如条款2所述的方法,其中用于推导所述LIC工具的参数的所述相邻样点排除在所述当前视频块的上方行和/或左侧列中的某些位置处的样点。
8.如条款2所述的方法,其中所述当前视频块的左上样点具有坐标(x0,y0),具有坐标(x0,y0-1)的样点不被用于推导所述LIC工具的参数。
9.如条款2所述的方法,其中所述当前视频块的左上样点具有坐标(x0,y0),具有坐标(x0-1,y0)的样点不被用于推导所述LIC工具的参数。
10.如条款7所述的方法,其中所述某些位置取决于所述上方行和/或所述左侧列的可用性。
11.如条款7所述的方法,其中所述某些位置取决于所述当前视频块的块维度。
12.如条款1所述的方法,其中所述确定取决于所述上方行和/或所述左侧列的可用性。
13.如条款2所述的方法,其中所述当前视频块的N个相邻样点和所述参考块的N个相邻样点被用于推导所述LIC工具的参数。
14.如条款13所述的方法,其中N为4。
15.如条款13所述的方法,其中所述当前视频块的N个相邻样点包括来自所述当前视频块的上方行的N/2个样点和来自所述当前视频块的左侧列的N/2个样点。
16.如条款13所述的方法,其中N等于min(L,T),T是所述当前视频块的可用相邻样点的总数,并且L是整数。
17.如条款13所述的方法,其中基于可应用于选择推导所述CCLM的参数的样点的相同的规则选择所述N个相邻样点。
18.如条款13所述的方法,其中基于可应用于选择推导仅使用上邻近样点的所述CCLM的第一模式的参数的样点的相同的规则选择所述N个相邻样点。
19.如条款13所述的方法,其中基于可应用于选择推导仅使用左邻近样点的所述CCLM的第二模式的参数的样点的相同的规则选择所述N个相邻样点。
20.如条款13所述的方法,其中基于所述当前视频块的上方行或左侧列的可用性选择所述当前视频块的N个相邻样点。
21.一种视频处理的方法,包括:为视频的当前视频块与所述视频的编解码表示之间的转换,基于所述当前视频块的N个相邻样点和参考块的N个对应的相邻样点确定局部照明补偿(LIC)工具的参数,其中基于所述N个相邻样点的位置选择所述当前视频块的N个相邻样点;以及基于所述确定进行所述转换,其中所述LIC工具在所述转换期间使用所述当前视频块中的照明改变的线性模型。
22.如条款21所述的方法,其中基于所述当前视频块的宽度和高度选择所述当前视频块的N个相邻样点。
23.如条款21所述的方法,其中基于所述当前视频块的相邻块的可用性选择所述当前视频块的N个相邻样点。
24.如条款21所述的方法,其中用第一位置偏移值(F)和步长值(S)选择所述当前视频块的N个相邻样点,所述第一位置偏移值(F)和步长值(S)取决于所述当前视频块的维度和相邻块的可用性。
25.如条款中任一项所述的方法1-24,其中所述当前视频块是仿射编解码的。
26.一种视频处理的方法,包括:为视频的作为色度块的当前视频块与所述视频的编解码表示之间的转换,基于色度样点和对应的亮度样点,确定跨分量线性模型(CCLM)的参数;以及基于所述确定进行所述转换,其中所述色度样点中的一些通过填充操作获得,并且所述色度样点和所述对应的亮度样点被分组为两个阵列G0和G1,每个阵列包括两个色度样点和对应的亮度样点。
27.如条款26所述的方法,其中在cntT和cntL之和等于2的情况下,按顺序进行以下操作:i)pSelComp[3]设定为等于pSelComp[0],ii)pSelComp[2]设定为等于pSelComp[1],iii)pSelComp[0]设定为等于pSelComp[1],以及iv)pSelComp[1]设定为等于pSelComp[3],其中cntT和cntL分别指示选自上邻近块和左邻近块的样点的数目,并且其中pSelComp[0]至pSelComp[3]指示所选择的对应的样点的色彩分量的像素值。
28.如条款26所述的方法,其中确定所述参数包括初始化G0[0],G0[1],G1[0]和G1[1]的值。
29.如条款28所述的方法,其中G0[0]=0,G0[1]=2,G1[0]=1,并且G1[1]=3。
30.如条款28所述的方法,其中确定所述参数还包括,在初始化所述值之后,一经比较G0[0]和G0[1]的两个亮度样点值,将G0[0]的色度样点及其对应的亮度样点与G0[1]的色度样点及其对应的亮度样点互换。
31.如条款30所述的方法,其中在G0[0]的亮度样点值大于G0[1]的亮度样点值的情况下,将G0[0]的色度样点及其对应的亮度样点与G0[1]的所述色度样点及其对应的亮度样点互换。
32.如条款28所述的方法,其中确定所述参数还包括,在初始化所述值之后,一经比较G1[0]和G1[1]的两个亮度样点值,将G1[0]的色度样点及其对应的亮度样点与G1[1]的色度样点及其对应的亮度样点互换。
33.如条款32所述的方法,其中在G1[0]的亮度样点值大于G1[1]的亮度样点值的情况下,将G1[0]的色度样点及其对应的亮度样点与G1[1]的色度样点及其对应的亮度样点互换。
34.如条款28所述的方法,其中确定所述参数还包括,在初始化所述值之后,一经比较G0[0]和G1[1]的两个亮度样点值,将G0[0]或G0[1]的色度样点及其对应的亮度样点与G1[0]或G1[1]的色度样点及其对应的亮度样点互换。
35.如条款34所述的方法,其中在G0[0]的亮度样点值大于G1[1]的亮度样点值的情况下,将G0[0]或G0[1]的色度样点及其对应的亮度样点与G1[0]或G1[1]的色度样点及其对应的亮度样点互换。
36.如条款28所述的方法,其中确定所述参数还包括,在初始化所述值之后,一经比较G0[1]和G1[0]的两个亮度样点值,将G0[1]的色度样点及其对应的亮度样点与G1[0]色度样点及其对应的亮度样点互换。
37.如条款36所述的方法,其中在G0[1]的亮度样点值大于G1[0]的亮度样点值的情况下,将G0[1]的色度样点及其对应的亮度样点与G1[0]的色度样点及其对应的亮度样点互换。
38.如条款28所述的方法,其中确定所述参数还包括,在初始化所述值之后,一经比较G0[0],G0[1],G1[0]和G1[1]的两个亮度样点值,按顺序进行以下互换操作:i)G0[0]的色度样点及其对应的亮度样点与G0[1]的色度样点及其对应的亮度样点的互换操作,ii)G1[0]的色度样点及其对应的亮度样点与G1[1]的色度样点及其对应的亮度样点的互换操作,iii)G0[0]或G0[1]的色度样点及其对应的亮度样点与G1[0]或G1[1]的色度样点及其对应的亮度样点互换操作,以及iv)G0[1]的色度样点及其对应的亮度样点与G1[0]色度样点及其对应的亮度样点的互换操作。
39.如条款1-38中任一项所述的方法,其中进行所述转换包括从所述当前块生成所述编解码表示。
40.如条款1-38中任一项所述的方法,其中进行所述转换包括从所述编解码表示生成所述当前块。
41.一种视频系统中的设备,包括处理器和其上具有指令的非瞬态存储器,其中由所述处理器执行所述指令时,使所述处理器实现条款1至40中任一项所述的方法。
42.一种计算机程序产品,储存在非瞬态计算机可读介质上,所述计算机程序产品包括用于执行条款1至40中任一项所述的方法的程序代码。
根据前述内容,将理解的是,出于说明的目的已经在本文中描述了本公开技术的特定实施例,但是可以进行各种修改而不背离本发明的范围。因此,除了所附权利要求外,当前公开的技术不受限制。
本专利文档中描述的主题和功能操作的实现方式可以实现为各种系统、数字电子电路或计算机软件、固件或硬件,包括在本说明书中公开的结构及其等同结构,或实现为其中一种或多种的组合。本说明书中描述的主题的实现方式可以实现为一个或多个计算机程序产品,即,编码在有形和非瞬态计算机可读介质上的计算机程序指令的一个或多个模块,以由数据处理设备执行或控制数据处理设备的操作。计算机可读介质可以是机器可读存储设备、机器可读存储基板、存储器装置、实现机器可读传播信号的物质组成,或它们中的一个或多个的组合。术语“数据处理单元”或“数据处理设备”涵盖用于处理数据的所有设备、装置和机器,包括例如可编程处理器、计算机或多个处理器或计算机。除了硬件之外,设备还可以包含为所讨论的计算机程序创建执行环境的代码,例如,构成处理器固件、协议堆栈、数据库管理系统、操作系统或它们中的一项或多项的组合的代码。
计算机程序(也称为程序、软件、软件应用程序、脚本或代码)可以以任何形式的编程语言(包括编译或解释语言)编写,并且可以以任何形式进行部署,包括独立程序或适合在计算环境中使用的模块、组件、子例程或其他单元。计算机程序不一定与文件系统中的文件相对应。程序可以存储在保存其他程序或数据的文件的一部分中(例如,存储在标记语言文档中的一个或多个脚本),存储在专用于所讨论程序的单个文件中或多个协调文件(例如,存储一个或多个模块、子程序或部分代码的文件)。可以部署计算机程序,以在一台计算机或位于一个位置上或分布在多个位置上并通过通信网络互连的多台计算机上执行。
本说明书中描述的过程和逻辑流程可以由一个或多个可编程处理器来执行,以执行一个或多个计算机程序,从而通过对输入数据进行操作并生成输出来执行功能。处理和逻辑流程也可以由专用逻辑电路执行,并且也可以实现为专用逻辑电路,例如FPGA(现场可编程门阵列)或ASIC(应用专用集成电路)。
例如,适合于执行计算机程序的处理器包括通用和专用微处理器,以及任何种类的数字计算机的任何一个或多个处理器。通常,处理器将从只读存储器或随机存取存储器或两者接收指令和数据。计算机的基本元件是用于执行指令的处理器和用于存储指令和数据的一个或多个存储器装置。通常,计算机还将包括或可操作地耦合到一个或多个用于存储数据的大容量存储设备,例如,磁盘、磁光盘或光盘,以从中接收数据,或将数据传输到一个或多个大容量存储设备,或两者。但是,计算机不必具有这样的装置。适用于存储计算机程序指令和数据的计算机可读介质包括所有形式的非易失性存储器、介质和存储器装置,包括例如半导体存储设备,例如,EPROM、EEPROM和闪存设备。处理器和存储器可以由专用逻辑电路补充或并入专用逻辑电路中。
旨在将说明书与附图一起仅视为示例性的,其中示例性是指作为示例。如本文所用,“或”的使用旨在包括“和/或”,除非上下文另外明确指出。
尽管本专利文档包含许多细节,但是这些细节不应解释为对任何发明或可要求保护的范围的限制,而应解释为对特定发明的特定实施例可能特定的特征的描述。在单独的实施例的上下文中在本专利文档中描述的某些特征也可以在单个实施例中组合实现。相反,在单个实施例的上下文中描述的各种特征也可以分别在多个实施例中或以任何合适的子组合来实现。此外,尽管以上可以将特征描述为以某些组合起作用并且甚至最初如此要求保护,但是在某些情况下,可以从组合中剔除所要求保护的组合中的一个或多个特征,并且所要求保护的组合可以涉及子组合或子组合的变体。
类似地,虽然在附图中以特定顺序描绘了操作,但是这不应理解为要求以所示的特定顺序或以连续的顺序执行这样的操作,或者执行所有示出的操作以实现期望的效果。此外,在该专利文档中描述的实施例中的各种系统组件的分离不应被理解为在所有实施例中都需要这种分离。
仅描述了一些实施方式和示例,并且可以基于本专利文档中描述和示出的内容进行其他实施方式、增强和变化。
Claims (18)
1. 一种视频处理方法,包括:
对于视频的作为色度块的当前视频块与所述视频的编解码表示之间的转换,确定所述当前视频块中的位置(x,y)处的色度样点的最终预测P(x,y)作为多个跨分量线性模型(MCCLM)的预测结果的组合,其中,基于所述色度样点的位置(x,y)选择所述多个跨分量线性模型,所述色度样点的最终预测P(x,y)是基于通过所述多个跨分量线性模型得到的多个预测结果的加权平均,所述多个预测结果分别对应的权重的值取决于所述色度样点的位置(x,y);以及
基于所述最终预测进行所述转换,
其中,所述多个跨分量线性模型包括第一线性模型和第二线性模型,第一线性模型的参数仅从左邻近样点推导,并且第二线性模型的参数仅从上邻近样点推导。
2.如权利要求1所述的方法,其中仅基于左邻近样点预测所述色度样点中的一些,并且仅基于上邻近样点预测所述色度样点中的一些。
3.如权利要求1或2所述的方法,其中所述色度样点的最终预测P(x,y)是基于通过所述第一线性模型得到的预测P1(x,y)和通过所述第二线性模型得到的预测P2(x,y)的加权平均。
4. 如权利要求3所述的方法,其中P(x,y)= w1×P1(x,y)+ w2×P2 (x,y),其中w1和w2是由w1+w2=1约束的权重。
5. 如权利要求3所述的方法,其中P(x,y)=(w1*P1(x,y)+ w2*P2(x,y)+Offset)>>shift,其中Offset是包含0或1<<(shift-1)的整数,shift是整数,并且w1和w2是由w1+w2=1<<shift约束的权重。
6. 如权利要求3所述的方法,其中P(x,y)=(w1*P1(x,y)+((1<<shift)-w1)* P2(x,y)+Offset)>>shift,其中Offset是包含0或1<<(shift-1)的整数,shift是整数,并且w1和w2是权重。
7.如权利要求4所述的方法,其中w1和w2的值取决于所述位置(x,y)。
8. 如权利要求4所述的方法,其中如果x > y,则w1 < w2,其中如果x < y,则w1 > w2,并且其中如果x = y,则w1 = w2。
9.如权利要求4所述的方法,其中,对于x<y的情况,如果(y-x)的值增大则(w1-w2)的值增大。
10.如权利要求4所述的方法,其中,对于x>y的情况,如果(x-y)的值增大则(w2-w1)的值增大。
11.如权利要求1所述的方法,其中,
对于所述视频的作为所述色度块的所述当前视频块与所述视频的所述编解码表示之间的转换,执行与仅使用左邻近样点的第一交叉分量线性模型(CCLM)是否被用于预测所述当前视频块的样点有关的第一确定,和/或与仅使用上邻近样点的第二交叉分量线性模型(CCLM)是否被用于预测所述当前视频块的样点有关的第二确定。
12.如权利要求11所述的方法,其中对满足W > K × H的情况不应用所述第一CCLM,K是非负整数,所述当前视频块的高度为H,所述当前视频块的宽度为W。
13.如权利要求11所述的方法,其中对满足H> K × W的情况不应用所述第二CCLM,K是非负整数,所述当前视频块的高度为H,所述当前视频块的宽度为W。
14.如权利要求11所述的方法,其中对于不应用所述第一CCLM和所述第二CCLM之一的情况,不在信令中通知指示应用所述第一CCLM或所述第二CCLM的标志。
15.如权利要求1-2、4-14中任一项所述的方法,其中进行所述转换包括从所述当前块生成所述编解码表示。
16.如权利要求1-2、4-14中任一项所述的方法,其中进行所述转换包括从所述编解码表示生成所述当前块。
17.一种视频系统中的设备,包括处理器和其上具有指令的非瞬态存储器,其中由所述处理器执行所述指令时,使所述处理器实现权利要求1至16中任一项所述的方法。
18.一种计算机存储介质,其上储存有计算机程序,当所述计算机程序被处理器执行时,使所述处理器实现根据权利要求1至16中任一项所述的方法。
Applications Claiming Priority (23)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN2018114158 | 2018-11-06 | ||
CNPCT/CN2018/114158 | 2018-11-06 | ||
CNPCT/CN2018/118799 | 2018-12-01 | ||
CN2018118799 | 2018-12-01 | ||
CN2018119709 | 2018-12-07 | ||
CNPCT/CN2018/119709 | 2018-12-07 | ||
CNPCT/CN2018/125412 | 2018-12-29 | ||
CN2018125412 | 2018-12-29 | ||
CN2019070002 | 2019-01-01 | ||
CNPCT/CN2019/070002 | 2019-01-01 | ||
CNPCT/CN2019/075874 | 2019-02-22 | ||
CN2019075874 | 2019-02-22 | ||
CN2019075993 | 2019-02-24 | ||
CNPCT/CN2019/075993 | 2019-02-24 | ||
CNPCT/CN2019/076195 | 2019-02-26 | ||
CN2019076195 | 2019-02-26 | ||
CNPCT/CN2019/079396 | 2019-03-24 | ||
CN2019079396 | 2019-03-24 | ||
CN2019079431 | 2019-03-25 | ||
CNPCT/CN2019/079431 | 2019-03-25 | ||
CNPCT/CN2019/079769 | 2019-03-26 | ||
CN2019079769 | 2019-03-26 | ||
PCT/CN2019/116015 WO2020094061A1 (en) | 2018-11-06 | 2019-11-06 | Multi-models for intra prediction |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112956199A CN112956199A (zh) | 2021-06-11 |
CN112956199B true CN112956199B (zh) | 2023-07-28 |
Family
ID=70610795
Family Applications (7)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201980072548.8A Active CN112997491B (zh) | 2018-11-06 | 2019-11-06 | 基于位置的帧内预测 |
CN201980072613.7A Active CN112956199B (zh) | 2018-11-06 | 2019-11-06 | 帧内预测的简化参数推导 |
CN201980072729.0A Active CN112997484B (zh) | 2018-11-06 | 2019-11-06 | 基于多参数的帧内预测 |
CN201980072730.3A Active CN113039791B (zh) | 2018-11-06 | 2019-11-06 | 帧内预测的参数推导中的复杂度降低 |
CN201980072731.8A Active CN112997492B (zh) | 2018-11-06 | 2019-11-06 | 帧内预测的简化参数推导 |
CN201980072612.2A Active CN112997488B (zh) | 2018-11-06 | 2019-11-06 | 依赖于位置的帧内预测 |
CN202311722882.8A Pending CN117640955A (zh) | 2018-11-06 | 2019-11-06 | 帧内预测的简化参数推导 |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201980072548.8A Active CN112997491B (zh) | 2018-11-06 | 2019-11-06 | 基于位置的帧内预测 |
Family Applications After (5)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201980072729.0A Active CN112997484B (zh) | 2018-11-06 | 2019-11-06 | 基于多参数的帧内预测 |
CN201980072730.3A Active CN113039791B (zh) | 2018-11-06 | 2019-11-06 | 帧内预测的参数推导中的复杂度降低 |
CN201980072731.8A Active CN112997492B (zh) | 2018-11-06 | 2019-11-06 | 帧内预测的简化参数推导 |
CN201980072612.2A Active CN112997488B (zh) | 2018-11-06 | 2019-11-06 | 依赖于位置的帧内预测 |
CN202311722882.8A Pending CN117640955A (zh) | 2018-11-06 | 2019-11-06 | 帧内预测的简化参数推导 |
Country Status (6)
Country | Link |
---|---|
US (9) | US10999581B2 (zh) |
EP (4) | EP3861736A4 (zh) |
JP (8) | JP2022506283A (zh) |
KR (4) | KR20210089131A (zh) |
CN (7) | CN112997491B (zh) |
WO (6) | WO2020094057A1 (zh) |
Families Citing this family (36)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110719479B (zh) | 2018-07-15 | 2023-01-10 | 北京字节跳动网络技术有限公司 | 跨分量编码信息导出 |
PT3815377T (pt) * | 2018-07-16 | 2023-03-30 | Huawei Tech Co Ltd | Codificador de vídeo, decodificador de vídeo e métodos de codificação e decodificação correspondentes |
CN116347109A (zh) | 2018-08-17 | 2023-06-27 | 北京字节跳动网络技术有限公司 | 一种处理视频数据的方法和装置 |
TWI824006B (zh) * | 2018-09-12 | 2023-12-01 | 大陸商北京字節跳動網絡技術有限公司 | 交叉分量線性建模中的下採樣 |
WO2020094057A1 (en) | 2018-11-06 | 2020-05-14 | Beijing Bytedance Network Technology Co., Ltd. | Position based intra prediction |
US11197005B2 (en) * | 2018-11-08 | 2021-12-07 | Qualcomm Incorporated | Cross-component prediction for video coding |
BR122021014717B1 (pt) * | 2018-11-23 | 2022-12-06 | Lg Electronics Inc | Método de decodificação de vídeo realizado por um aparelho de decodificação, método de codificação de vídeo realizado por um aparelho de codificação e mídia de armazenamento legível por computador não transitória |
CN113170122B (zh) | 2018-12-01 | 2023-06-27 | 北京字节跳动网络技术有限公司 | 帧内预测的参数推导 |
BR112021010428A2 (pt) | 2018-12-07 | 2021-08-24 | Beijing Bytedance Network Technology Co., Ltd. | Método para processamento de vídeo, aparelho em um sistema de vídeo, e, produto de programa de computador |
KR20210113188A (ko) * | 2018-12-21 | 2021-09-15 | 브이아이디 스케일, 인크. | 템플릿 기반 비디오 코딩을 위한 개선된 선형 모델 추정에 관한 방법들, 아키텍처들, 장치들 및 시스템들 |
WO2020125794A1 (en) | 2018-12-22 | 2020-06-25 | Beijing Bytedance Network Technology Co., Ltd. | Two step cross-component prediction mode |
BR112021012708A2 (pt) | 2018-12-31 | 2021-09-14 | Huawei Technologies Co., Ltd. | Método e aparelho de modelagem linear de componente cruzado para predição intra |
CN116614633A (zh) | 2019-01-02 | 2023-08-18 | Oppo广东移动通信有限公司 | 解码预测方法、装置及计算机存储介质 |
WO2020169101A1 (en) | 2019-02-22 | 2020-08-27 | Beijing Bytedance Network Technology Co., Ltd. | Neighbouring sample selection for intra prediction |
CN113491121B (zh) | 2019-02-24 | 2022-12-06 | 北京字节跳动网络技术有限公司 | 对视频数据进行编解码的方法、设备及计算机可读介质 |
EP3935847A4 (en) * | 2019-03-04 | 2022-12-07 | Alibaba Group Holding Limited | METHOD AND SYSTEM FOR PROCESSING VIDEO CONTENT |
WO2020182091A1 (en) | 2019-03-08 | 2020-09-17 | Beijing Bytedance Network Technology Co., Ltd. | Reshaping model in video processing |
CN117880494A (zh) | 2019-03-24 | 2024-04-12 | 北京字节跳动网络技术有限公司 | 用于帧内预测的参数推导的条件 |
AU2020260285B2 (en) | 2019-04-18 | 2023-06-01 | Beijing Bytedance Network Technology Co., Ltd. | Restriction on applicability of cross component mode |
BR112021019675A2 (pt) | 2019-04-23 | 2021-12-07 | Beijing Bytedance Network Tech Co Ltd | Método para processamento de mídia visual, aparelho codificador de vídeo, aparelho decodificador de vídeo, e, mídia legível por computador |
CN117221558A (zh) | 2019-05-08 | 2023-12-12 | 北京字节跳动网络技术有限公司 | 跨分量编解码的适用性条件 |
KR20220024006A (ko) | 2019-06-22 | 2022-03-03 | 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 | 크로마 잔차 스케일링을 위한 신택스 요소 |
JP7460748B2 (ja) | 2019-07-07 | 2024-04-02 | 北京字節跳動網絡技術有限公司 | クロマ残差スケーリングのシグナリング |
CN114208196B (zh) | 2019-08-10 | 2023-11-14 | 北京字节跳动网络技术有限公司 | 帧间编解码模式的位置限制 |
CN117596400A (zh) | 2019-09-20 | 2024-02-23 | 北京字节跳动网络技术有限公司 | 编解码块的缩放过程 |
CN114503577B (zh) | 2019-10-02 | 2024-07-05 | 北京字节跳动网络技术有限公司 | 视频比特流中子图片信令通知的语法 |
EP4032290A4 (en) | 2019-10-18 | 2022-11-30 | Beijing Bytedance Network Technology Co., Ltd. | SYNTAX CONSTRAINTS IN REPORTING SUBPICTURE PARAMETER SETS |
EP4042684A4 (en) | 2019-10-29 | 2022-11-30 | Beijing Bytedance Network Technology Co., Ltd. | SIGNALING AN ADAPTIVE CROSS-COMPONENT LOOP FILTER |
JP7393550B2 (ja) | 2019-12-11 | 2023-12-06 | 北京字節跳動網絡技術有限公司 | クロス成分適応ループフィルタリングのためのサンプルパディング |
WO2021136508A1 (en) | 2019-12-31 | 2021-07-08 | Beijing Bytedance Network Technology Co., Ltd. | Inter-prediction with multiple-parameter model |
CN116325728A (zh) | 2020-06-30 | 2023-06-23 | 抖音视界有限公司 | 自适应环路滤波的边界位置 |
US11683474B2 (en) | 2021-01-25 | 2023-06-20 | Lemon Inc. | Methods and apparatuses for cross-component prediction |
US11647198B2 (en) * | 2021-01-25 | 2023-05-09 | Lemon Inc. | Methods and apparatuses for cross-component prediction |
WO2023138628A1 (en) * | 2022-01-21 | 2023-07-27 | Mediatek Inc. | Method and apparatus of cross-component linear model prediction in video coding system |
WO2024114701A1 (en) * | 2022-11-30 | 2024-06-06 | Douyin Vision Co., Ltd. | Method, apparatus, and medium for video processing |
WO2024169947A1 (en) * | 2023-02-16 | 2024-08-22 | Douyin Vision Co., Ltd. | Method, apparatus, and medium for video processing |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2014010943A1 (ko) * | 2012-07-10 | 2014-01-16 | 한국전자통신연구원 | 영상 부호화/복호화 방법 및 장치 |
CN106464887A (zh) * | 2014-03-06 | 2017-02-22 | 三星电子株式会社 | 图像解码方法及其装置以及图像编码方法及其装置 |
Family Cites Families (130)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101138392B1 (ko) | 2004-12-30 | 2012-04-26 | 삼성전자주식회사 | 색차 성분의 상관관계를 이용한 컬러 영상의 부호화,복호화 방법 및 그 장치 |
BRPI0715507A2 (pt) | 2006-08-02 | 2013-06-18 | Thomson Licensinc S A | mÉtodos e aparelhos para particionamento geomÉtrico adaptativo para decodificaÇço de vÍdeo |
US20080089411A1 (en) | 2006-10-16 | 2008-04-17 | Nokia Corporation | Multiple-hypothesis cross-layer prediction |
JP2010135864A (ja) * | 2007-03-29 | 2010-06-17 | Toshiba Corp | 画像符号化方法及び装置並びに画像復号化方法及び装置 |
CN101877785A (zh) * | 2009-04-29 | 2010-11-03 | 祝志怡 | 一种基于混合预测的视频编码方法 |
CN103141103B (zh) | 2010-04-09 | 2016-02-03 | Lg电子株式会社 | 处理视频数据的方法和装置 |
US9288500B2 (en) * | 2011-05-12 | 2016-03-15 | Texas Instruments Incorporated | Luma-based chroma intra-prediction for video coding |
JP2013034162A (ja) | 2011-06-03 | 2013-02-14 | Sony Corp | 画像処理装置及び画像処理方法 |
JP2013034163A (ja) * | 2011-06-03 | 2013-02-14 | Sony Corp | 画像処理装置及び画像処理方法 |
US9654785B2 (en) | 2011-06-09 | 2017-05-16 | Qualcomm Incorporated | Enhanced intra-prediction mode signaling for video coding using neighboring mode |
US9693070B2 (en) | 2011-06-24 | 2017-06-27 | Texas Instruments Incorporated | Luma-based chroma intra-prediction for video coding |
US8780981B2 (en) * | 2011-06-27 | 2014-07-15 | Panasonic Intellectual Property Corporation Of America | Image coding method, image decoding method, image coding apparatus, image decoding apparatus, and image coding-decoding apparatus |
AU2012276410A1 (en) * | 2011-06-28 | 2014-02-06 | Samsung Electronics Co., Ltd. | Prediction method and apparatus for chroma component of image using luma component of image |
KR102007047B1 (ko) | 2011-06-30 | 2019-08-02 | 선 페이턴트 트러스트 | 화상 복호 방법, 화상 부호화 방법, 화상 복호 장치, 화상 부호화 장치 및 화상 부호화 복호 장치 |
KR101588144B1 (ko) * | 2011-07-12 | 2016-01-22 | 인텔 코포레이션 | 루마 기반 크로마 인트라 예측 |
GB2495942B (en) * | 2011-10-25 | 2014-09-03 | Canon Kk | Method and apparatus for processing components of an image |
CN103096055B (zh) * | 2011-11-04 | 2016-03-30 | 华为技术有限公司 | 一种图像信号帧内预测及解码的方法和装置 |
US9344722B2 (en) | 2011-11-18 | 2016-05-17 | Futurewei Technologies, Inc. | Scanning of prediction residuals in high efficiency video coding |
WO2013102293A1 (en) * | 2012-01-04 | 2013-07-11 | Mediatek Singapore Pte. Ltd. | Improvements of luma-based chroma intra prediction |
US9438904B2 (en) * | 2012-01-19 | 2016-09-06 | Futurewei Technologies, Inc. | Reduced look-up table for LM mode calculation |
US9307237B2 (en) * | 2012-01-19 | 2016-04-05 | Futurewei Technologies, Inc. | Reference pixel reduction for intra LM prediction |
WO2013112739A1 (en) | 2012-01-24 | 2013-08-01 | Futurewei Technologies, Inc. | Simplification of lm mode |
US9438905B2 (en) * | 2012-04-12 | 2016-09-06 | Futurewei Technologies, Inc. | LM mode with uniform bit-width multipliers |
WO2013155662A1 (en) | 2012-04-16 | 2013-10-24 | Mediatek Singapore Pte. Ltd. | Methods and apparatuses of simplification for intra chroma lm mode |
CN104471940B (zh) | 2012-04-16 | 2017-12-15 | 联发科技(新加坡)私人有限公司 | 色度帧内预测方法及装置 |
CN103379321B (zh) * | 2012-04-16 | 2017-02-01 | 华为技术有限公司 | 视频图像分量的预测方法和装置 |
GB2501535A (en) | 2012-04-26 | 2013-10-30 | Sony Corp | Chrominance Processing in High Efficiency Video Codecs |
CN103916673B (zh) * | 2013-01-06 | 2017-12-22 | 华为技术有限公司 | 基于双向预测的编码方法、解码方法和装置 |
WO2014154094A1 (en) | 2013-03-26 | 2014-10-02 | Mediatek Inc. | Method of cross color intra prediction |
US10003815B2 (en) | 2013-06-03 | 2018-06-19 | Qualcomm Incorporated | Hypothetical reference decoder model and conformance for cross-layer random access skipped pictures |
TWI652937B (zh) | 2013-10-07 | 2019-03-01 | Vid衡器股份有限公司 | 多層視訊編碼組合可調能力處理方法 |
CN103856782B (zh) | 2014-03-18 | 2017-01-11 | 天津大学 | 基于多视点视频整帧丢失的自适应错误掩盖方法 |
WO2015195849A1 (en) * | 2014-06-19 | 2015-12-23 | Vid Scale, Inc. | Systems and methods for model parameter optimization in three dimensional based color mapping |
US10200700B2 (en) | 2014-06-20 | 2019-02-05 | Qualcomm Incorporated | Cross-component prediction in video coding |
US10057578B2 (en) * | 2014-10-07 | 2018-08-21 | Qualcomm Incorporated | QP derivation and offset for adaptive color transform in video coding |
US9838662B2 (en) * | 2014-10-10 | 2017-12-05 | Qualcomm Incorporated | Harmonization of cross-component prediction and adaptive color transform in video coding |
KR20200051831A (ko) * | 2014-10-28 | 2020-05-13 | 미디어텍 싱가폴 피티이. 엘티디. | 비디오 코딩을 위한 가이드된 크로스-컴포넌트 예측 방법 |
MX2017005892A (es) * | 2014-11-05 | 2017-06-27 | Samsung Electronics Co Ltd | Aparato y metodo de codificacion de prediccion por muestra. |
SG10201900004UA (en) * | 2014-12-19 | 2019-02-27 | Hfi Innovation Inc | Methods of palette based prediction for non-444 color format in video and image coding |
CA2972332C (en) | 2014-12-31 | 2019-09-17 | Nokia Technologies Oy | Inter-layer prediction for scalable video coding and decoding |
WO2016115343A2 (en) * | 2015-01-14 | 2016-07-21 | Vid Scale, Inc. | Palette coding for non-4:4:4 screen content video |
WO2016115708A1 (en) | 2015-01-22 | 2016-07-28 | Mediatek Singapore Pte. Ltd. | Methods for chroma component coding with separate intra prediction mode |
WO2016115981A1 (en) * | 2015-01-22 | 2016-07-28 | Mediatek Singapore Pte. Ltd. | Method of video coding for chroma components |
US9998742B2 (en) * | 2015-01-27 | 2018-06-12 | Qualcomm Incorporated | Adaptive cross component residual prediction |
US10455249B2 (en) * | 2015-03-20 | 2019-10-22 | Qualcomm Incorporated | Downsampling process for linear model prediction mode |
WO2016167538A1 (ko) | 2015-04-12 | 2016-10-20 | 엘지전자(주) | 비디오 신호의 인코딩, 디코딩 방법 및 그 장치 |
US10602188B2 (en) * | 2015-06-10 | 2020-03-24 | Samsung Electronics Co., Ltd. | Method and apparatus for encoding or decoding image using syntax signaling for adaptive weight prediction |
US10148977B2 (en) | 2015-06-16 | 2018-12-04 | Futurewei Technologies, Inc. | Advanced coding techniques for high efficiency video coding (HEVC) screen content coding (SCC) extensions |
US20180139469A1 (en) | 2015-06-19 | 2018-05-17 | Nokia Technologies Oy | An Apparatus, A Method and A Computer Program for Video Coding and Decoding |
WO2017007989A1 (en) | 2015-07-08 | 2017-01-12 | Vid Scale, Inc. | Enhanced chroma coding using cross plane filtering |
US20170016972A1 (en) | 2015-07-13 | 2017-01-19 | Siemens Medical Solutions Usa, Inc. | Fast Prospective Motion Correction For MR Imaging |
KR102267922B1 (ko) | 2015-09-23 | 2021-06-22 | 노키아 테크놀로지스 오와이 | 360도 파노라마 비디오를 코딩하는 방법, 장치 및 컴퓨터 프로그램 제품 |
US10045023B2 (en) | 2015-10-09 | 2018-08-07 | Telefonaktiebolaget Lm Ericsson (Publ) | Cross component prediction in video coding |
US20170150156A1 (en) | 2015-11-25 | 2017-05-25 | Qualcomm Incorporated | Illumination compensation with non-square predictive blocks in video coding |
WO2017139937A1 (en) | 2016-02-18 | 2017-08-24 | Mediatek Singapore Pte. Ltd. | Advanced linear model prediction for chroma coding |
FI20165256L (fi) | 2016-03-24 | 2017-09-25 | Nokia Technologies Oy | Laitteisto, menetelmä ja tietokoneohjelma videokoodaukseen ja -dekoodaukseen |
WO2017201141A1 (en) | 2016-05-17 | 2017-11-23 | Arris Enterprises Llc | Template matching for jvet intra prediction |
JP7199221B2 (ja) | 2016-05-20 | 2023-01-05 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ | 符号化装置、復号装置、符号化方法及び復号方法 |
EP3466071A4 (en) * | 2016-05-24 | 2019-04-24 | Sharp Kabushiki Kaisha | INTRA PREDICTION CODING SYSTEMS AND METHODS |
US10567808B2 (en) | 2016-05-25 | 2020-02-18 | Arris Enterprises Llc | Binary ternary quad tree partitioning for JVET |
CA3025340A1 (en) | 2016-05-25 | 2017-11-30 | Arris Enterprises Llc | General block partitioning method |
CA3025488A1 (en) | 2016-05-25 | 2017-11-30 | Arris Enterprises Llc | Weighted angular prediction for intra coding |
CA3025477C (en) | 2016-05-25 | 2023-10-03 | Arris Enterprises Llc | Jvet coding block structure with asymmetrical partitioning |
WO2017205703A1 (en) | 2016-05-25 | 2017-11-30 | Arris Enterprises Llc | Improved weighted angular prediction coding for intra coding |
CN114866774A (zh) | 2016-05-27 | 2022-08-05 | 松下电器(美国)知识产权公司 | 编码装置及解码装置 |
US10484712B2 (en) * | 2016-06-08 | 2019-11-19 | Qualcomm Incorporated | Implicit coding of reference line index used in intra prediction |
FI20165547A (fi) | 2016-06-30 | 2017-12-31 | Nokia Technologies Oy | Laitteisto, menetelmä ja tietokoneohjelma videokoodausta ja videokoodauksen purkua varten |
CN109479133B (zh) | 2016-07-22 | 2021-07-16 | 夏普株式会社 | 使用自适应分量缩放对视频数据进行编码的系统和方法 |
WO2018021374A1 (ja) | 2016-07-29 | 2018-02-01 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ | 符号化装置、復号装置、符号化方法及び復号方法 |
US11095922B2 (en) | 2016-08-02 | 2021-08-17 | Qualcomm Incorporated | Geometry transformation-based adaptive loop filtering |
WO2018030294A1 (ja) | 2016-08-10 | 2018-02-15 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ | 符号化装置、復号装置、符号化方法及び復号方法 |
CN109479134A (zh) | 2016-08-10 | 2019-03-15 | 松下电器(美国)知识产权公司 | 编码装置、解码装置、编码方法及解码方法 |
WO2018030293A1 (ja) | 2016-08-10 | 2018-02-15 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ | 符号化装置、復号装置、符号化方法及び復号方法 |
US10326986B2 (en) * | 2016-08-15 | 2019-06-18 | Qualcomm Incorporated | Intra video coding using a decoupled tree structure |
US10368107B2 (en) * | 2016-08-15 | 2019-07-30 | Qualcomm Incorporated | Intra video coding using a decoupled tree structure |
US10390015B2 (en) * | 2016-08-26 | 2019-08-20 | Qualcomm Incorporated | Unification of parameters derivation procedures for local illumination compensation and cross-component linear model prediction |
US10419757B2 (en) * | 2016-08-31 | 2019-09-17 | Qualcomm Incorporated | Cross-component filter |
US10652575B2 (en) * | 2016-09-15 | 2020-05-12 | Qualcomm Incorporated | Linear model chroma intra prediction for video coding |
JP2018056685A (ja) * | 2016-09-27 | 2018-04-05 | 株式会社ドワンゴ | 画像符号化装置、画像符号化方法、及び画像符号化プログラム、並びに、画像復号装置、画像復号方法、及び画像復号プログラム |
US10382781B2 (en) | 2016-09-28 | 2019-08-13 | Qualcomm Incorporated | Interpolation filters for intra prediction in video coding |
GB2555788A (en) | 2016-11-08 | 2018-05-16 | Nokia Technologies Oy | An apparatus, a method and a computer program for video coding and decoding |
JPWO2018092870A1 (ja) | 2016-11-21 | 2019-10-17 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America | 画像符号化装置、画像復号装置、画像符号化方法及び画像復号方法 |
WO2018097115A1 (ja) * | 2016-11-22 | 2018-05-31 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ | 符号化装置、復号装置、符号化方法及び復号方法 |
US10477240B2 (en) | 2016-12-19 | 2019-11-12 | Qualcomm Incorporated | Linear model prediction mode with sample accessing for video coding |
US10674165B2 (en) | 2016-12-21 | 2020-06-02 | Arris Enterprises Llc | Constrained position dependent intra prediction combination (PDPC) |
WO2018116925A1 (ja) * | 2016-12-21 | 2018-06-28 | シャープ株式会社 | イントラ予測画像生成装置、画像復号装置、および画像符号化装置 |
JP2020031252A (ja) | 2016-12-22 | 2020-02-27 | シャープ株式会社 | 画像復号装置及び画像符号化装置 |
WO2018125944A1 (en) | 2016-12-28 | 2018-07-05 | Arris Enterprises Llc | Improved video bitstream coding |
CA3048426C (en) | 2016-12-28 | 2024-01-02 | Arris Enterprises Llc | Adaptive unequal weight planar prediction |
US20180199062A1 (en) | 2017-01-11 | 2018-07-12 | Qualcomm Incorporated | Intra prediction techniques for video coding |
US11025903B2 (en) * | 2017-01-13 | 2021-06-01 | Qualcomm Incorporated | Coding video data using derived chroma mode |
US10694181B2 (en) | 2017-01-27 | 2020-06-23 | Qualcomm Incorporated | Bilateral filters in video coding with reduced complexity |
WO2018174457A1 (ko) | 2017-03-22 | 2018-09-27 | 엘지전자(주) | 영상 처리 방법 및 이를 위한 장치 |
CN116684601A (zh) | 2017-03-31 | 2023-09-01 | 松下电器(美国)知识产权公司 | 图像编码装置、图像解码装置及存储介质 |
US10542264B2 (en) | 2017-04-04 | 2020-01-21 | Arris Enterprises Llc | Memory reduction implementation for weighted angular prediction |
CN114430486A (zh) | 2017-04-28 | 2022-05-03 | 夏普株式会社 | 图像解码装置以及图像编码装置 |
US10602180B2 (en) | 2017-06-13 | 2020-03-24 | Qualcomm Incorporated | Motion vector prediction |
US11190762B2 (en) | 2017-06-21 | 2021-11-30 | Lg Electronics, Inc. | Intra-prediction mode-based image processing method and apparatus therefor |
WO2018236031A1 (ko) | 2017-06-21 | 2018-12-27 | 엘지전자(주) | 인트라 예측 모드 기반 영상 처리 방법 및 이를 위한 장치 |
WO2019004283A1 (ja) | 2017-06-28 | 2019-01-03 | シャープ株式会社 | 動画像符号化装置及び動画像復号装置 |
CN110301134B (zh) | 2017-06-29 | 2024-02-06 | 杜比实验室特许公司 | 整合的图像整形和视频编码 |
WO2019006363A1 (en) | 2017-06-30 | 2019-01-03 | Vid Scale, Inc. | LOCAL LIGHTING COMPENSATION USING GENERALIZED BI-PREDICTION |
CN116781893A (zh) | 2017-07-05 | 2023-09-19 | 艾锐势有限责任公司 | 对视频编码、解码的方法和计算机可读存储器或存储装置 |
CN109274969B (zh) | 2017-07-17 | 2020-12-22 | 华为技术有限公司 | 色度预测的方法和设备 |
EP3643065A1 (en) | 2017-07-24 | 2020-04-29 | ARRIS Enterprises LLC | Intra mode jvet coding |
CA3070444A1 (en) | 2017-07-24 | 2019-01-31 | Arris Enterprises Llc | Intra mode jvet coding |
JP6994868B2 (ja) | 2017-08-09 | 2022-01-14 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ | 符号化装置、復号装置、符号化方法、および復号方法 |
US10701402B2 (en) | 2017-10-02 | 2020-06-30 | Arris Enterprises Llc | System and method for reducing blocking artifacts and providing improved coding efficiency |
MX2020003722A (es) | 2017-10-09 | 2020-09-18 | Arris Entpr Llc | Predicción de peso en planos desiguales adaptativa. |
GB2567249A (en) | 2017-10-09 | 2019-04-10 | Canon Kk | New sample sets and new down-sampling schemes for linear component sample prediction |
US10965941B2 (en) | 2017-10-09 | 2021-03-30 | Qualcomm Incorporated | Position-dependent prediction combinations in video coding |
DE112018005899T5 (de) | 2017-12-18 | 2020-08-13 | Arris Enterprises Llc | System und Verfahren zum Konstruieren einer Ebene für planare Prädiktion |
GB2571313B (en) * | 2018-02-23 | 2022-09-21 | Canon Kk | New sample sets and new down-sampling schemes for linear component sample prediction |
US20190313108A1 (en) | 2018-04-05 | 2019-10-10 | Qualcomm Incorporated | Non-square blocks in video coding |
US10609402B2 (en) | 2018-05-02 | 2020-03-31 | Tencent America LLC | Method and apparatus for prediction and transform for small blocks |
US20190342546A1 (en) | 2018-05-03 | 2019-11-07 | FG Innovation Company Limited | Device and method for coding video data based on different reference sets in linear model prediction |
CN114885173A (zh) * | 2018-06-29 | 2022-08-09 | 抖音视界(北京)有限公司 | Lut中的运动候选的检查顺序 |
CN116708837A (zh) | 2018-07-02 | 2023-09-05 | Lg电子株式会社 | 编解码设备和数据发送设备 |
PT3815377T (pt) | 2018-07-16 | 2023-03-30 | Huawei Tech Co Ltd | Codificador de vídeo, decodificador de vídeo e métodos de codificação e decodificação correspondentes |
CN109005408B (zh) | 2018-08-01 | 2020-05-29 | 北京奇艺世纪科技有限公司 | 一种帧内预测方法、装置及电子设备 |
KR102608366B1 (ko) | 2018-10-05 | 2023-11-29 | 후아웨이 테크놀러지 컴퍼니 리미티드 | 인트라 예측 방법 및 디바이스 |
WO2020094057A1 (en) | 2018-11-06 | 2020-05-14 | Beijing Bytedance Network Technology Co., Ltd. | Position based intra prediction |
US11197005B2 (en) | 2018-11-08 | 2021-12-07 | Qualcomm Incorporated | Cross-component prediction for video coding |
US11178396B2 (en) | 2018-11-14 | 2021-11-16 | Tencent America LLC | Constrained intra prediction and unified most probable mode list generation |
CN113170122B (zh) | 2018-12-01 | 2023-06-27 | 北京字节跳动网络技术有限公司 | 帧内预测的参数推导 |
BR112021010428A2 (pt) | 2018-12-07 | 2021-08-24 | Beijing Bytedance Network Technology Co., Ltd. | Método para processamento de vídeo, aparelho em um sistema de vídeo, e, produto de programa de computador |
US11095921B2 (en) | 2018-12-18 | 2021-08-17 | Tencent America LLC | Method and apparatus for video encoding or decoding |
CN111699694B (zh) | 2019-01-15 | 2022-07-08 | Lg电子株式会社 | 使用变换跳过标志的图像编码方法和装置 |
WO2020169101A1 (en) | 2019-02-22 | 2020-08-27 | Beijing Bytedance Network Technology Co., Ltd. | Neighbouring sample selection for intra prediction |
CN113491121B (zh) | 2019-02-24 | 2022-12-06 | 北京字节跳动网络技术有限公司 | 对视频数据进行编解码的方法、设备及计算机可读介质 |
-
2019
- 2019-11-06 WO PCT/CN2019/115985 patent/WO2020094057A1/en unknown
- 2019-11-06 EP EP19881776.9A patent/EP3861736A4/en active Pending
- 2019-11-06 WO PCT/CN2019/115992 patent/WO2020094058A1/en unknown
- 2019-11-06 CN CN201980072548.8A patent/CN112997491B/zh active Active
- 2019-11-06 CN CN201980072613.7A patent/CN112956199B/zh active Active
- 2019-11-06 WO PCT/CN2019/116015 patent/WO2020094061A1/en active Application Filing
- 2019-11-06 JP JP2021523511A patent/JP2022506283A/ja active Pending
- 2019-11-06 KR KR1020217008481A patent/KR20210089131A/ko not_active Application Discontinuation
- 2019-11-06 JP JP2021523502A patent/JP2022506277A/ja active Pending
- 2019-11-06 CN CN201980072729.0A patent/CN112997484B/zh active Active
- 2019-11-06 KR KR1020217008482A patent/KR102653562B1/ko active IP Right Grant
- 2019-11-06 CN CN201980072730.3A patent/CN113039791B/zh active Active
- 2019-11-06 CN CN201980072731.8A patent/CN112997492B/zh active Active
- 2019-11-06 WO PCT/CN2019/115999 patent/WO2020094059A1/en unknown
- 2019-11-06 KR KR1020217008485A patent/KR20210087928A/ko active Search and Examination
- 2019-11-06 JP JP2021523513A patent/JP7212157B2/ja active Active
- 2019-11-06 CN CN201980072612.2A patent/CN112997488B/zh active Active
- 2019-11-06 WO PCT/CN2019/116028 patent/WO2020094067A1/en unknown
- 2019-11-06 KR KR1020217008483A patent/KR20210089133A/ko unknown
- 2019-11-06 JP JP2021523516A patent/JP7422757B2/ja active Active
- 2019-11-06 CN CN202311722882.8A patent/CN117640955A/zh active Pending
- 2019-11-06 WO PCT/CN2019/116027 patent/WO2020094066A1/en active Application Filing
- 2019-11-06 EP EP19883299.0A patent/EP3861739A4/en active Pending
- 2019-11-06 EP EP19881016.0A patent/EP3861738A4/en active Pending
- 2019-11-06 EP EP19881464.2A patent/EP3861728A4/en active Pending
-
2020
- 2020-04-16 US US16/850,509 patent/US10999581B2/en active Active
- 2020-07-28 US US16/940,877 patent/US10979717B2/en active Active
- 2020-07-28 US US16/940,826 patent/US11019344B2/en active Active
- 2020-08-07 US US16/987,844 patent/US11025915B2/en active Active
-
2021
- 2021-03-15 US US17/201,711 patent/US11438598B2/en active Active
- 2021-05-03 US US17/246,794 patent/US11930185B2/en active Active
- 2021-05-03 US US17/246,821 patent/US20210258572A1/en not_active Abandoned
-
2023
- 2023-01-12 JP JP2023002914A patent/JP2023033408A/ja active Pending
- 2023-04-13 JP JP2023065495A patent/JP2023083394A/ja active Pending
- 2023-05-01 US US18/310,344 patent/US20230269379A1/en active Pending
- 2023-06-30 US US18/345,608 patent/US20230345009A1/en active Granted
- 2023-10-19 JP JP2023179944A patent/JP2023184579A/ja active Pending
- 2023-10-20 JP JP2023181439A patent/JP2023184580A/ja active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2014010943A1 (ko) * | 2012-07-10 | 2014-01-16 | 한국전자통신연구원 | 영상 부호화/복호화 방법 및 장치 |
CN106464887A (zh) * | 2014-03-06 | 2017-02-22 | 三星电子株式会社 | 图像解码方法及其装置以及图像编码方法及其装置 |
Also Published As
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112956199B (zh) | 帧内预测的简化参数推导 | |
CN113170168B (zh) | 基于上下文的帧内预测 | |
CN113170122B (zh) | 帧内预测的参数推导 | |
CN113439437B (zh) | 用于帧内预测的邻近样点选择 | |
CN113491121B (zh) | 对视频数据进行编解码的方法、设备及计算机可读介质 | |
CN113767631B (zh) | 用于帧内预测的参数推导中的条件 | |
CN113632474B (zh) | 用于帧间预测的参数推导 | |
RU2806083C2 (ru) | Контекстно-ориентированное внутреннее предсказание |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |