KR20210154806A - 코딩 된 비디오의 양자화된 잔차 차동 펄스 코드 변조 표현 - Google Patents
코딩 된 비디오의 양자화된 잔차 차동 펄스 코드 변조 표현 Download PDFInfo
- Publication number
- KR20210154806A KR20210154806A KR1020217032760A KR20217032760A KR20210154806A KR 20210154806 A KR20210154806 A KR 20210154806A KR 1020217032760 A KR1020217032760 A KR 1020217032760A KR 20217032760 A KR20217032760 A KR 20217032760A KR 20210154806 A KR20210154806 A KR 20210154806A
- Authority
- KR
- South Korea
- Prior art keywords
- video block
- way
- current video
- block
- mode
- Prior art date
Links
- 238000000034 method Methods 0.000 claims abstract description 409
- 239000013598 vector Substances 0.000 claims description 106
- 241000023320 Luma <angiosperm> Species 0.000 claims description 48
- OSWPMRLSEDHDFF-UHFFFAOYSA-N methyl salicylate Chemical compound COC(=O)C1=CC=CC=C1O OSWPMRLSEDHDFF-UHFFFAOYSA-N 0.000 claims description 48
- 238000012545 processing Methods 0.000 claims description 44
- 238000013507 mapping Methods 0.000 claims description 41
- 238000013139 quantization Methods 0.000 claims description 34
- 239000011159 matrix material Substances 0.000 claims description 30
- 230000004044 response Effects 0.000 claims description 16
- 230000009977 dual effect Effects 0.000 claims description 14
- 238000003672 processing method Methods 0.000 claims description 7
- 238000006243 chemical reaction Methods 0.000 claims description 6
- 230000001131 transforming effect Effects 0.000 claims description 2
- 208000037170 Delayed Emergence from Anesthesia Diseases 0.000 description 18
- 230000008569 process Effects 0.000 description 15
- 230000009466 transformation Effects 0.000 description 15
- 238000009795 derivation Methods 0.000 description 14
- 230000011664 signaling Effects 0.000 description 12
- 238000010586 diagram Methods 0.000 description 10
- 238000004590 computer program Methods 0.000 description 9
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 7
- 230000006835 compression Effects 0.000 description 7
- 238000007906 compression Methods 0.000 description 7
- 238000005516 engineering process Methods 0.000 description 7
- 230000015654 memory Effects 0.000 description 6
- 238000005192 partition Methods 0.000 description 6
- 238000004364 calculation method Methods 0.000 description 4
- 238000004891 communication Methods 0.000 description 4
- 238000012935 Averaging Methods 0.000 description 3
- 230000008901 benefit Effects 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000000926 separation method Methods 0.000 description 3
- 238000012360 testing method Methods 0.000 description 3
- 241000209094 Oryza Species 0.000 description 2
- 235000007164 Oryza sativa Nutrition 0.000 description 2
- 230000000903 blocking effect Effects 0.000 description 2
- 230000006837 decompression Effects 0.000 description 2
- 238000006073 displacement reaction Methods 0.000 description 2
- 230000007774 longterm Effects 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 235000009566 rice Nutrition 0.000 description 2
- 238000013515 script Methods 0.000 description 2
- GPAAEXYTRXIWHR-UHFFFAOYSA-N (1-methylpiperidin-1-ium-1-yl)methanesulfonate Chemical compound [O-]S(=O)(=O)C[N+]1(C)CCCCC1 GPAAEXYTRXIWHR-UHFFFAOYSA-N 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000009849 deactivation Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000008029 eradication Effects 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000007274 generation of a signal involved in cell-cell signaling Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000003780 insertion Methods 0.000 description 1
- 230000037431 insertion Effects 0.000 description 1
- 238000010992 reflux Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000000758 substrate Substances 0.000 description 1
- 230000008685 targeting Effects 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/132—Sampling, masking or truncation of coding units, e.g. adaptive resampling, frame skipping, frame interpolation or high-frequency transform coefficient masking
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/593—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
- H04N19/105—Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
- H04N19/11—Selection of coding mode or of prediction mode among a plurality of spatial predictive coding modes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/124—Quantisation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/129—Scanning of coding units, e.g. zig-zag scan of transform coefficients or flexible macroblock ordering [FMO]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/157—Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
- H04N19/159—Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/176—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/182—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a pixel
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/186—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/70—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/59—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial sub-sampling or interpolation, e.g. alteration of picture size or resolution
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
- Compression, Expansion, Code Conversion, And Decoders (AREA)
Abstract
비디오 코딩 및 디코딩 방법에 대해 설명한다. 예시적인 방법은 적용성 규칙에 기초하여, 차동 코딩 모드가 비디오의 상기 크로마 비디오 블록과 상기 크로마 비디오 블록의 비트스트림 표현 사이의 변환에 적용 가능하다고 결정하는 단계, 및 결정하는 단계에 기초하여, 차동 코딩 모드를 사용하여 상기 크로마 비디오 블록과 상기 크로마 비디오 블록의 비트스트림 표현 사이의 변환을 수행하는 단계를 포함하고, 여기서, 크로마 비디오 블록은 크로마 비디오 블록의 상기 인트라 예측의 양자화된 잔차와 차동 코딩 모드에서 양자화된 잔차의 예측 사이의 차이를 사용하여 비트스트림 표현으로 표현되고, 상기 인트라 예측은 제1 방향으로 수행되고 양자화된 잔차의 예측은 제2 방향으로 수행되고, 차이는 차동 펄스 코딩 변조(DPCM) 표현을 사용하여 표현된다.
Description
이 특허 문서는 비디오 코딩 기술, 장치 및 시스템과 관련이 있다.
파리협약에 따른 해당 특허법 및/또는 규칙에 따라, 이 출원은 2019년 4월 24일에 출원된 국제 특허 출원 번호 PCT/CN2019/084008의 우선권 및 혜택을 적시에 청구하기 위해 이루어진다. 법에 따라 모든 목적을 위해, 상기 출원의 전체 공개는 이 출원의 공개의 일환으로 참조에 의해 통합된다.
비디오 압축의 발전에도 불구하고 디지털 비디오는 여전히 인터넷 및 기타 디지털 통신 네트워크에서 최대 대역너비 사용을 차지한다. 비디오를 수신하고 표시할 수 있는 연결된 사용자 장치의 수가 증가함에 따라 디지털 비디오 사용에 대한 대역너비 수요가 계속 증가할 것으로 예상된다.
본 문서는 비디오 또는 이미지의 디코딩 또는 인코딩 중에 보조 변환(secondary transform)이 사용되는 다양한 구현예 및 기술을 기술한다.
비디오 처리의 첫 번째 예제 방법은, 적용성 규칙(applicability rule)에 기초하여, 차동 코딩 모드(differential coding mode)가 비디오의 크로마 비디오 블록(chroma video block)과 크로마 비디오 블록의 비트스트림 표현(bitstream representation) 사이의 변환(conversion)에 적용 가능하다고 결정하는 단계, 및 결정하는 단계에 기초하여, 차동 코딩 모드를 사용하여 크로마 비디오 블록과 크로마 비디오 블록의 비트스트림 표현 사이의 변환을 수행하는 단계를 포함하고, 여기서, 차동 코딩 모드에서, 크로마 비디오 블록은 크로마 비디오 블록의 인트라 예측(intra prediction)의 양자화된 잔차(quantized residual)와 양자화된 잔차의 예측 사이의 차이(difference)를 사용하여 비트스트림 표현에 표현되고, 인트라 예측이 제1 방향으로 수행되고 양자화된 잔차의 예측이 제2 방향으로 수행되고, 및 차동 코딩 모드에서, 양자화된 잔차와 양자화된 잔차의 예측 사이의 차이는 차동 펄스 코딩 변조(differential pulse coding modulation)(DPCM) 표현을 사용하여 표현된다.
비디오 처리의 두 번째 예제 방법은, 차동 코딩 모드 및 공존 규칙(coexistence rule)에 기초한 인트라 예측 모드를 사용하여 비디오의 현재 비디오 블록과 현재 비디오 블록의 비트스트림 표현 사이의 변환을 수행하는 단계를 포함하고, 인트라 예측 모드에서, 현재 비디오 블록의 인트라 예측의 양자화된 잔차(quantized residual)는 현재 비디오 블록에 대한 샘플의 예측에 기초하고, 차동 코딩 모드에서, 현재 비디오 블록은 양자화된 잔차와 양자화된 잔차의 예측 사이의 차이를 사용하여 비트스트림 표현에서 표현되고, 및 양자화된 잔차와 양자화된 잔차의 예측 사이의 차이는 차동 펄스 코딩 변조(DPCM) 표현을 사용하여 표현된다.
비디오 처리의 세 번째 예제 방법은, 현재 비디오 블록이 현재 비디오 블록의 인트라 예측의 양자화된 잔차와 양자화된 잔차의 예측 사이의 차이를 사용하여 비트스트림 표현으로 표현되는 차동 코딩 모드를 사용하여 비디오의 현재 비디오 블록과 현재 비디오 블록의 비트스트림 표현 사이의 변환을 수행하는 단계를 포함하고, 양자화된 잔차의 예측 방향은 비트스트림 표현에서 유추할 수 있다.
비디오 처리의 네 번째 예제 방법은, 차동 코딩 모드가 비디오의 현재 비디오 블록과 현재 비디오 블록의 비트스트림 표현 사이의 변환에 적용 가능하다고 결정하는 단계, 및 결정하는 단계에 기초하여, 구현 규칙(implementation rule)에 따라 차동 코딩 모드를 사용하여 현재 비디오 블록과 현재 비디오 블록의 비트스트림 표현 사이의 변환을 수행하는 단계를 포함하고, 차동 코딩 모드에서, 현재 비디오 블록은 현재 비디오 블록의 인트라 예측의 양자화된 잔차와 양자화된 잔차의 예측 사이의 차이를 사용하여 비트스트림 표현에서 표현되고, 및 차동 코딩 모드에서, 양자화된 잔차와 양자화된 잔차의 예측 사이의 차이는 차동 펄스 코딩 변조(DPCM) 표현을 사용하여 표현된다.
비디오 처리의 다섯 번째 예제 방법은, 적용성 규칙에 따라 차동 코딩 모드가 비디오의 현재 비디오 블록과 현재 비디오 블록의 비트스트림 표현 사이의 변환에 적용 가능하다고 결정하는 단계 - 현재 비디오 블록이 컬러 컴포넌트와 연관되고, 및 적용성 규칙은 차동 코딩 모드가 비디오의 다른 비디오 블록에 적용되는지 여부에 따라 현재 비디오 블록에 대해 차동 코딩 모드를 활성화 또는 비활성화하는지 여부를 지정함 -, 및 결정하는 단계에 기초하여, 현재 비디오 블록과 차동 코딩 모드를 사용하여 현재 비디오 블록의 비트스트림 표현 사이의 변환을 수행하는 단계 - 차동 코딩 모드에서, 현재 비디오 블록은 현재 비디오 블록의 양자화된 잔차와 양자화된 잔차의 인트라 예측 사이의 차이를 사용하여 비트스트림 표현에서 표현되고, 및 차동 코딩 모드에서, 양자화된 잔차와 양자화된 잔차의 예측 사이의 차이는 차동 펄스 코딩 변조(DPCM) 표현을 사용하여 표현됨 - 를 포함한다.
하나의 예에서, 비디오 처리 방법이 개시된다. 이 방법은 차동 코딩 모드를 사용하고 및 공존 규칙에 따라 인트라 예측 모드를 선택적으로 사용하여 현재 비디오 블록과 현재 비디오 블록의 비트스트림 표현 사이의 변환을 수행하는 단계를 포함하고; 인트라 예측 모드는 현재 비디오 블록의 샘플에 대한 예측을 생성하는데 사용되고; 및 차동 코딩 모드는 차동 펄스 코딩 변조 표현을 사용하여 픽셀의 예측에서 양자화된 잔차 블록을 표현하는데 사용된다.
또 다른 예에서, 비디오 처리의 또 다른 방법이 개시된다. 이 방법은 현재 비디오 블록의 픽셀 예측에서 양자화된 잔차 블록이 차동 펄스 코딩 변조 표현을 사용하여 표현되는 차동 코딩 모드를 사용하여 현재 비디오 블록과 현재 비디오 블록의 비트스트림 표현 사이의 변환을 수행하는 단계를 포함하고; 여기서 예측의 제1 방향 또는 차동 코딩 모드의 예측의 제2 방향은 비트스트림 표현에서 유추할 수 있다.
또 다른 예에서는 비디오 처리의 또 다른 방법이 개시된다. 이 방법은, 적용성 규칙에 기초하여, 현재 비디오 블록과 현재 비디오 블록의 비트스트림 표현 사이의 변환에 차동 코딩 모드가 적용 가능하다고 결정하는 단계; 및 차동 코딩 모드를 사용하여 현재 비디오 블록과 비트스트림 표현 사이의 변환을 수행하는 단계를 포함하고, 여기서, 차동 코딩 모드에서, 현재 비디오 블록의 픽셀의 인트라 예측에서 양자화된 잔차 블록은 수평 또는 수직 방향과 상이한 잔차 예측 방향으로 수행되는 차동 펄스 코딩 변조 표현을 사용하여 표현된다.
또 다른 예에서는 비디오 처리의 또 다른 방법이 개시된다. 이 방법은 차동 코딩 모드가 현재 비디오 블록과 현재 비디오 블록의 비트스트림 표현 사이의 변환에 적용가능하다고 결정하는 단계; 및 차동 코딩 모드의 구현 규칙을 사용하여 현재 비디오 블록과 비트스트림 표현 사이의 변환을 수행하는 단계를 포함하고; 여기서, 차동 코딩 모드에서, 현재 비디오 블록의 픽셀의 인트라 예측에서 양자화된 잔차 블록은 수평 또는 수직 방향과 상이한 잔차 예측 방향으로 수행되는 차동 펄스 코딩 변조 표현을 사용하여 표현된다.
또 다른 예에서, 비디오 처리 장치가 개시된다. 장치는 개시된 방법을 수행하기 위해 구성된 프로세서를 포함한다.
또 다른 예에서는 컴퓨터 판독 가능 매체(computer readable medium)가 개시된다. 매체에는 위에서 기술한 방법의 프로세서 구현을 위한 코드가 저장되어 있다.
이들 및 기타 측면은 본 문서에 기술되어 있다.
도 1은 인트라 블록 복사의 예이다.
도 2는 팔레트 모드에서 코딩 된 블록의 예를 나타낸다.
도 3은 팔레트 항목에 신호를 표시하기 위해 팔레트 예측변수를 예로 들 수 있다.
도 4는 수평 및 수직 횡단 스캔의 예를 나타낸다.
도 5는 팔레트 인덱스 코딩의 예를 나타낸다.
도 6은 아핀 선형 가중 인트라 예측(ALWIP) 공정의 예 과정을 나타낸다.
도 7은 아핀 선형 가중 인트라 예측(ALWIP) 공정의 예 과정을 나타낸다.
도 8은 아핀 선형 가중 인트라 예측(ALWIP) 공정의 예 과정을 나타낸다.
도 9는 아핀 선형 가중 인트라 예측(ALWIP) 공정의 예 과정을 나타낸다.
도 10은 본 문서에 기재된 기술을 구현하기 위한 예제 하드웨어 플랫폼의 블록 다이어그램이다.
도 11은 비디오 처리의 예방법에 대한 순서도이다.
도 12는 4개의 병합 후보의 예를 나타낸다.
도 13은 비디오 코딩에 사용되는 병합 후보의 예제 쌍을 보여 주어 있다.
도 14는 본 원에 개시된 다양한 기술이 구현될 수 있는 예시 비디오 처리 시스템을 보여주는 블록 다이어그램이다.
도 15는 이러한 공개의 기술을 활용할 수 있는 예제 비디오 코딩 시스템을 예시하는 블록 다이어그램이다.
도 16은 비디오 인코더의 예를 보여주는 블록 다이어그램이다.
도 17은 비디오 디코더의 예를 보여주는 블록 다이어그램이다.
도 18 내지 22는 비디오 처리를 위한 예를 들어 5가지 예제 순서도를 나타낸다.
도 2는 팔레트 모드에서 코딩 된 블록의 예를 나타낸다.
도 3은 팔레트 항목에 신호를 표시하기 위해 팔레트 예측변수를 예로 들 수 있다.
도 4는 수평 및 수직 횡단 스캔의 예를 나타낸다.
도 5는 팔레트 인덱스 코딩의 예를 나타낸다.
도 6은 아핀 선형 가중 인트라 예측(ALWIP) 공정의 예 과정을 나타낸다.
도 7은 아핀 선형 가중 인트라 예측(ALWIP) 공정의 예 과정을 나타낸다.
도 8은 아핀 선형 가중 인트라 예측(ALWIP) 공정의 예 과정을 나타낸다.
도 9는 아핀 선형 가중 인트라 예측(ALWIP) 공정의 예 과정을 나타낸다.
도 10은 본 문서에 기재된 기술을 구현하기 위한 예제 하드웨어 플랫폼의 블록 다이어그램이다.
도 11은 비디오 처리의 예방법에 대한 순서도이다.
도 12는 4개의 병합 후보의 예를 나타낸다.
도 13은 비디오 코딩에 사용되는 병합 후보의 예제 쌍을 보여 주어 있다.
도 14는 본 원에 개시된 다양한 기술이 구현될 수 있는 예시 비디오 처리 시스템을 보여주는 블록 다이어그램이다.
도 15는 이러한 공개의 기술을 활용할 수 있는 예제 비디오 코딩 시스템을 예시하는 블록 다이어그램이다.
도 16은 비디오 인코더의 예를 보여주는 블록 다이어그램이다.
도 17은 비디오 디코더의 예를 보여주는 블록 다이어그램이다.
도 18 내지 22는 비디오 처리를 위한 예를 들어 5가지 예제 순서도를 나타낸다.
섹션 제목은 이해의 용이성을 돕고 섹션에 공개 된 실시예를 해당 섹션으로 제한하지 않도록 본 문서에서 사용된다. 또한, 특정 실시예는 다목적 비디오 코딩 또는 기타 특정 비디오 코덱에 대한 참조로 기술되지만, 개시된 기술은 다른 비디오 코딩 기술에도 적용가능 하다. 또한, 일부 실시예는 비디오 코딩 단계를 자세히 기술하는 반면, 디코더에 의해 코딩을 취소하는 대응하는 단계가 구현될 것으로 이해된다. 또한 비디오 처리라는 용어에는 비디오 코딩 또는 압축, 비디오 디코딩 또는 압축 해제(decompression) 및 비디오 트랜스코딩을 포함하며, 비디오 픽셀은 하나의 압축된 형식에서 다른 압축된 형식으로 또는 다른 압축된 비트 레이트로 표현된다.
1. 요약
이 특허 문서는 비디오 코딩 기술과 관련이 있다. 구체적으로는 비디오 코딩에서 DPCM 코딩과 관련이 있다. HEVC와 같은 기존 비디오 코딩 표준 또는 최종 확정될 표준(다목적 비디오 코딩)에 적용될 수 있다. 향후 비디오 코딩 표준 또는 비디오 코덱에도 적용될 수 있다.
2. 초기 토론
비디오 코딩 표준은 주로 잘 알려진 ITU-T 및 ISO/IEC 표준의 개발을 통해 진화해 왔다. ITU-T는 H.261및 H.263을 제작했으며, ISO/IEC는 MPEG-1 및 MPEG-4 비주얼을 제작했으며, 두 조직은 H.262/MPEG-2 비디오 및 H.264/MPEG-4 고급 비디오 코딩(AVC) 및 H.265/HEVC 기준을 공동으로 제작했다. H.262 이후, 비디오 코딩 표준은 시간 예측과 변환 코딩이 사용되는 하이브리드 비디오 코딩 구조에 기초한다. HEVC를 넘어 미래의 비디오 코딩 기술을 연구하기 위해 JVET(공동 비디오 연구 팀)는 2015년에 VCEG와 MPEG가 공동으로 설립했다. 그 이후로, JVET에 의해 채택된 많은 새로운 방법을 채택하고 공동 연구 모델(JEM) [3,4]라는 참조 소프트웨어에 넣었다. 2018년 4월, VCEG(Q6/16)와 ISO/IEC JTC1 SC29/WG11(MPEG) 사이의 공동 비디오 전문가 팀이 HEVC에 비해 50% 비트레이트 감소로 VVC 표준 타겟팅을 위해 만들어졌다.
VVC 초안의 최신 버전, 즉 다목적 비디오 코딩(초안 4)은 다음에서 찾을 수 있다:
phenix.it-sudparis.eu/jvet/doc_end_user/current_document.php?id=5755
VTM이라는 이름의 VVC의 최신 참조 소프트웨어는 다음에서 찾을 수 있다:
vcgit.hhi.fraunhofer.de/jvet/VVCSoftware_VTM/tags/VTM-4.0
2.1 인트라 블록 복사(Intra block copy)
인트라 블록 복사(intra block copy)(IBC), 일명 현재 픽처 참조는 HEVC 화면 콘텐츠 코딩 확장(HEVC-SCC) [1] 및 현재 VVC 테스트 모델(VTM-4.0)에 채택되었다. IBC는 프레임 간 코딩에서 프레임 내 코딩에 이르기까지 모션 보정 개념을 확장한다. 도 1에서 기술한 바와 같이, 현재 블록은 IBC가 적용될 때 동일한 픽처의 레퍼런스 블록에 의해 예측된다. 레퍼런스 블록의 샘플은 현재 블록이 코딩 되거나 디코딩 되기 전에 이미 재구성되었어야 한다. IBC는 대부분의 카메라 캡처 시퀀스에 대해 그다지 효율적이지는 않지만 화면 콘텐츠에 대한 상당한 코딩 이득을 보여줍니다. 그 이유는 화면 콘텐츠 픽처에 아이콘과 텍스트 문자와 같은 반복 패턴이 많기 때문이다. IBC는 이러한 반복 패턴 사이의 중복성을 효과적으로 제거할 수 있다. HEVC-SCC에서는 현재 픽처를 레퍼런스 픽처로 선택하면 인터 코딩 된 코딩 유닛 (CU)가 IBC를 적용할 수 있다. MV의 이름은 이 경우 BV(블록 벡터)로 이름이 바뀌고 BV는 항상 정수 픽셀 정밀도를 가지고 있다. 주요 프로필 HEVC와 호환되려면 현재 픽처는 DPB(디코딩 된 픽처 버퍼)에서 "장기" 레퍼런스 픽처로 표시된다. 마찬가지로 여러 보기/3D 비디오 코딩 표준에서 인터 뷰 레퍼런스 픽처(inter-view reference picture)도 "장기" 레퍼런스 픽처로 표시되어 있음을 주목해야 한다.
레퍼런스 블록을 찾기 위해 BV에 이어 레퍼런스 블록을 복사하여 예측을 생성할 수 있다. 원래 신호에서 레퍼런스 픽셀을 빼면 잔차를 얻을 수 있다. 그런 다음 변환 및 양자화는 다른 코딩 모드에서와 같이 적용될 수 있다.
도 1은 인트라 블록 복사의 예이다.
그러나, 레퍼런스 블록이 픽처 의 외부에 있거나 현재 블록과 겹치거나 재구성된 영역 외부 또는 일부 제약(constrain)에 의해 제한된 유효한 영역의 외부가 정의되지 않는다. 기본적으로 이러한 문제를 처리하는 두 가지 해결책이 있다. 하나는 이러한 상황을 허용하지 않는 것이다( 예를 들어, 비트스트림 적합성). 다른 하나는 정의되지 않은 픽셀 값에 패딩(padding)을 적용하는 것이다. 다음 서브 세션은 솔루션을 자세히 기술한다.
2.2 HEVC 화면 콘텐츠 코딩 확장에서 IBC
HEVC의 화면 콘텐츠 코딩 확장에서 블록이 현재 픽처를 참조로 사용하는 경우, 다음 사양 텍스트에 표시된 대로 전체 레퍼런스 블록이 사용 가능한 재구성 영역 내에 있음을 보장해야 한다.
변수 offsetX 및 offsetY는 다음과 같이 유도된다:offsetX = (ChromaArrayType = 0) ? 0 : ( mvCLX[ 0 ] & 0x7 ? 2 : 0 )
(0-1)offsetY = ( ChromaArrayType = = 0 ) ? 0 : ( mvCLX[ 1 ] & 0x7 ? 2 : 0 )
(0-2)
레퍼런스 픽처가 현재 픽처일 때, 루마 모션 벡터 mvLX는 다음 제약 조건을 준수해야:
(xCurr, yCurr)은 (xCb, yCb)와 동일하게 설정되고 및 이웃 루마 위치 (xNbY, yNbY)은 (xPb + (mvLX [ 0 ] >> 2) - offsetX와 동일하게 설정되고, yPb + (mvLX [ 1 ] >> 2) - 오프셋)은 입력으로, 6.4.1절에 명시된 대로 z-스캔 순서 블록 가용성에 대한 유도 프로세스가 호출될 때, 출력은 참(TRUE)이어야 한다.
(xCurr, yCurr)은 (xCb, yCb)와 동일하게 설정되고 및 이웃 루마 위치 (xNbY, yNbY)은 ( xPb + (mvLX[ 0 ] >> 2) + nPbW - 1 + offsetX와 동일하게 설정되고, yPb + (mvLX [ 1 ] >> 2) - 오프셋)은 입력으로, 6.4.1절에 명시된 대로 z-스캔 순서 블록 가용성에 대한 유도 프로세스가 호출될 때, 출력은 참(TRUE)이어야 한다.
다음 조건 중 하나 또는 둘 다 참이어야 한다:
(mvLX[ 0] >> 2)의 값 + nPbW + xB1 + offsetX은 0 보다 적거나 동일하다.
(mvLX[ 1] >> 2)의 값 + nPbH + yB1 + offsetY는 0 보다 적거나 동일하다.
다음 조건은 참이어야 한다:
(xPb + (mvLX + 0 ] >> 2 ) + nPbSw - 1 + offsetX) / CtbSizeY - xCurr / CtbSizeY < =
yCurr / CtbSizeY - (yPb + (mvLX ] 1 ] >> 2 ) + nPbSh - 1 + offsetY ) / CtbSizeY
(8-108)
따라서, 레퍼런스 블록이 현재 블록과 겹치거나 레퍼런스 블록이 픽처의 외부인 경우에는 발생하지 않는다. 레퍼런스 또는 예측 블록을 패드 할 필요가 없다.
2.3 VVC 테스트 모델의 IBC
현재 VVC 테스트 모델, 즉 VTM-4.0 설계에서 전체 레퍼런스 블록은 현재 코딩 트리 유닛(CTU)와 함께 있어야 하며 현재 블록과 겹치지 않는다. 따라서 레퍼런스 또는 예측 블록을 패드(pad) 할 필요가 없다. IBC 플래그는 현재 CU의 예측 모드로 코딩 된다. 따라서 각 CU에 대해 MODE_INTRA, MODE_INTER 및 MODE_IBC 세 가지 예측 모드가 있다.
2.3.1 IBC 병합 모드
IBC 병합 모드에서IBC 병합후보목록에서항목을 가리키는 인덱스가 비트스트림에서 파싱된다. IBC 병합 목록의 구성은 다음 단계 순서에 따라 요약할 수 있다:
1단계: 공간 후보의 유도
2단계: HMVP 후보 삽입
3단계: 쌍 별 평균 후보 삽입
공간 병합 후보의 유도에서, 최대 4 개의 병합 후보가 도 12에 묘사된 위치에 있는 후보 중 선택된다. 유도 순서는 A1, B1, B0, A0 및 B2이다. 위치 B2는 위치 A1, B1, B0, A0의, PU가 제공되지 않거나(예를 들어, 다른 슬라이스 또는 타일에 속하기 때문에) 또는 IBC 모드로 코딩 되지 않은 경우에만 고려된다. A1 위치에서 후보 추가 후, 나머지 후보의 삽입은 중복 검사(redundancy check)의 대상이 되어 동일한 작업 정보를 가진 후보는 목록에서 제외되어 코딩 효율이 향상된다. 계산 복잡성을 줄이기 위해 언급된 중복 검사에서 가능한 모든 후보 쌍을 고려하는 것은 아니다. 대신 도 13에서 화살표와 연결된 쌍만 고려되고 중복 검사에 사용되는 해당 후보가 동일한 모션 정보가 없는 경우에만 후보가 목록에 추가된다.
공간 후보를 삽입한 후, IBC 병합 목록 크기가 최대 IBC 병합 목록 크기보다 여전히 작으면, HMVP 테이블에서 IBC 후보가 삽입될 수 있다. HMVP 후보를 삽입할 때 중복 검사가 수행된다.
마지막으로 쌍 별 평균 후보는 IBC 병합 목록에 삽입된다.
병합 후보에 의해 식별된 레퍼런스 블록이 픽처 의 외부이거나 현재 블록과 겹치거나, 재구성된 영역의 외부 또는 일부 제약(constrain)에 의해 제한된 유효한 영역의 외부인 경우 유효하지 않은 병합 후보(invalid merge candidate)라고 불린다.
유효하지 않은 병합 후보가 IBC 병합 목록에 삽입될 수 있다.
2.3.2 IBC AMVP 모드
IBC AMVP 모드에서는 AMVP 인덱스 포인트가 비트스트림에서 IBC AMVP 목록의 항목을 가리킨다. IBC AMVP 목록의 구성은 다음 단계 순서에 따라 요약할 수 있다:
- 1단계: 공간 후보의 유도
사용 가능한 후보가 발견될 때까지 A0, A1을 검사한다.
사용 가능한 후보가 발견될 때까지 B0,, B1,, B2를 검사한다.
- 2단계: HMVP 후보 삽입
- 3단계: 제로 후보(zero candidate) 삽입
공간 후보를 삽입한 후, IBC AMVP 목록 크기가 최대 IBC AMVP 목록 크기보다 여전히 작으면, HMVP 테이블의 IBC 후보가 삽입될 수 있다.
마지막으로, 제로 후보가 IBC AMVP 목록에 삽입된다.
2.4 팔레트 모드
팔레트 모드(palette mode)의 기본 아이디어는 CU의 샘플이 작은 대표 컬러 값 세트로 표현된다는 것이다. 이 세트를 팔레트라고 한다. 또한 이스케이프 심볼(escape symbol)에 이어 (가능한 양자화된) 컴포너트 값을 시그널링 하여 팔레트 외부에 있는 샘플을 나타낼 수도 있다. 이것은 도 2에 기술되어 있다.
HEVC 화면 콘텐츠 코딩 확장의 2.5 팔레트 모드(HEVC-SCC)
HEVC-SCC의 팔레트 모드에서는 팔레트 및 인덱스 맵을 코딩 하는 예측 방법을 사용한다.
2.5.1 팔레트 항목의 코딩
팔레트 항목의 코딩을 위해, 팔레트 예측변수가 유지된다. 팔레트의 최대 크기와 팔레트 예측변수는 SPS에서 시그널링 된다. HEVC-SCC에서, palette_predictor_initializer_present_flag는 PPS에 도입된다. 이 플래그가 1이면, 팔레트 예측 변수를 초기화하기 위한 항목이 비트스트림에서 시그널링 된다. 팔레트 예측 변수는 각 CTU 행, 각 슬라이스 및 각 타일의 시작 부분에 초기화된다. palette_predictor_initializer_present_flag 값에 따라, 팔레트 예측기는 0으로 재설정되거나 PPS에서 시그널링 된 팔레트 예측기 초기화 항목을 사용하여 초기화된다. HEVC-SCC에서, 크기 0의 팔레트 예측기 초기화가 활성화되어 PPS 레벨에서 팔레트 예측변수 초기화를 명시적으로 비활성화할 수 있다.
팔레트 예측변수의 각 항목에 대해 재사용 플래그(reuse flag)가 시그널링 하여 현재 팔레트의 일부인지 여부를 나타낸다. 이는 도 3에 기술되어 있다. 재사용 플래그는 0의 실행 길이 코딩을 사용하여 전송된다. 그 후, 새로운 팔레트 항목의 수는 순서 0의 인덱스 Golomb 코드를 사용하여 시그널링 된다. 마지막으로 새 팔레트 항목에 대한 구성 요소 값이 시그널링 된다.
2.5.2 팔레트 인덱스 코딩
팔레트 인덱스는 도 4에 표시된 대로 수평 및 수직 횡단 스캔을 사용하여 코딩 된다. 스캔 순서는 palette_transpose_flag 사용하여 비트스트림에 명시적으로 시그널링 된다. 서브 섹션의 나머지 부분에 대해 스캔이 수평이라고 가정한다.
팔레트 인덱스는 ' INDEX'와 'COPY_ABOVE'이라는 두 가지 주요 팔레트 샘플 모드를 사용하여 코딩 된다.. 앞서 기술한 바와 같이 이스케이프 기호는 'INDEX' 모드로 시그널링 되고 최대 팔레트 크기와 동일한 인덱스를 할당한다. 모드는 위쪽 행을 제외하고 플래그를 사용하여 시그널링 되거나 이전 모드가 'COPY_ABOVE'였을 때 시그널링 된다. 'COPY_ABOVE' 모드에서, 위의 행에 있는 샘플의 팔레트 인덱스가 복사된다. 'INDEX' 모드에서, 팔레트 인덱스가 명시적으로 시그널링 된다. 'INDEX' 및 'COPY_ABOVE' 모드에 대해, 동일한 모드를 사용하여 코딩 된 후속 샘플의 수를 지정하는 실행 값이 시그널링 된다. 이스케이프 기호가 'INDEX' 또는 'COPY_ABOVE' 모드에서 실행의 일부인 경우, 이스케이프 구성 요소 값은 각 이스케이프 기호에 대해 시그널링 된다. 팔레트 인덱스의 코딩은 도 5에 기술되어 있다.
이 신택스 순서는 다음과 같이 수행된다. 첫째, CU의 인덱스 값 수가 시그널링 된다. 이어서 잘린 이진 코딩을 사용하여 전체 CU에 대한 실제 인덱스 값의 시그널링이 뒤따릅니다. 인덱스 값과 인덱스 값 모두 바이패스 모드로 코딩 된다. 이렇게 하면 인덱스 관련 바이패스 저장소가 함께 그룹화된다. 그런 다음 팔레트 샘플 모드(필요한 경우)와 실행이 인터리브 방식으로 시그널링 된다. 마지막으로 전체 CU의 이스케이프 샘플에 해당하는 구성 요소 이스케이프 값은 함께 그룹화되고 바이패스 모드에서 코딩 된다.
추가 신택스 요소인 last_run_type_flag 인덱스 값을 시그널링 한 후 시그널링 된다. 이 신택스 요소는 인덱스 수와 함께 블록의 마지막 실행에 해당하는 실행 값을 시그널링 할 필요가 없다.
HEVC-SCC에서는 팔레트 모드가 4:2:2, 4:2:0 및 흑백 크로마 형식에도 사용할 수 있다. 팔레트 항목 및 팔레트 인덱스의 시그널링은 모든 크로마 형식에 대해 거의 동일하다. 흑백이 아닌 형식의 경우 각 팔레트 항목은 3개의 구성 요소로 구성된다. 흑백 형식의 경우 각 팔레트 항목은 단일 구성 요소로 구성된다. 서브 샘플링 된 크로마 방향의 경우 크로마 샘플은 2로 나눌 수 있는 루마 샘플 인덱스와 관련이 있다. CU에 대한 팔레트 인덱스를 재구성한 후 샘플에 연관된 단일 구성 요소만 있는 경우 팔레트 항목의 첫 번째 구성 요소만 사용된다. 시그널링의 유일한 차이점은 이스케이프 구성 요소 값이다. 각 이스케이프 샘플에 대해 시그널링 된 이스케이프 구성 요소 값의 수는 해당 샘플과 관련된 구성 요소 수에 따라 다를 수 있다.
2.6 변환 스킵 모드에서 코딩 하는 계수
JVET-M0464 및 JVET-N0280에서는 변제 코딩을 변환 스킵 레벨의 통계 및 신호 특성에 적응하기 위해 변환 스킵(TS) 모드에서 코딩 하는 계수에 대해 몇 가지 수정이 제안된다.
제안된 수정 사항은 다음과 같이 나열된다.
마지막 중요한 검색 위치 없음: 잔차 신호는 TS에 대해 수행된 변환에 의한 예측 후 공간 잔차를 반영하고 에너지 압축이 수행되지 않기 때문에, 변환 블록의 오른쪽 하단 모서리에서 후행 0 또는 중요하지 않은 레벨에 대한 더 높은 확률은 더 이상 제공되지 않는다. 따라서, 마지막 중요한 스캐닝 위치 신호는 이 경우에 생략된다. 대신 처리할 첫 번째 서브 블록은 변환 블록 내에서 가장 아래쪽 오른쪽 서브 블록이다.
서브블록 CBF: 마지막 중요 스캐닝 위치 시그널링의 부재는 TS에 대한 coded_sub_block_flag가 있는 서브블록 CBF 시그널링이 다음과 같이 수정될 것을 요구된다:
- 양자화로 인해, 앞서 언급한 무의미한 순서는 여전히 변환 블록 내부에서 로컬로 발생할 수 있다. 따라서, 앞서 기술한 바와 같이 마지막 중요 스캐닝 위치가 제거되고 모든 서브 블록에 대해 coded_sub_block_flag가 코딩 된다.
- DC 주파수 위치(왼쪽 상단 서브 블록)를 덮는 서브 블록에 대한 coded_sub_block_flag 특별한 경우를 제시한다. VVC 드래프트 3에서, 이 서브 블록에 대한 coded_sub_block_flag 신호가 없으며 항상 1과 같도록 유추된다. 마지막 중요한 스캐닝 위치가 다른 서브 블록에 있는 경우, DC 서브 블록 외부에 하나 이상의 중요한 레벨이 있음을 의미한다. 따라서, DC 서브 블록에는 이 서브 블록에 대한 coded_sub_block_flag 1과 같지만 0/중요하지 않은 레벨만 포함될 수 있다. TS에 마지막 스캐닝 위치 정보가 없으면 각 서브 블록에 대한 coded_sub_block_flag가 시그널링 된다. 여기에는 다른 모든 coded_sub_block_flag 신택스 요소가 이미 0과 같을 때를 제외하고 DC 서브 블록에 대한 coded_sub_block_flag가 포함된다. 이 경우, DC coded_sub_block_flag가 1(inferSbCbf=1)과 같도록 유추된다. 이 DC 서브 블록에 하나 이상의 중요한 레벨이 있어야 하기 때문에, (0,0)에서의 첫 번째 위치에 대한 sig_coeff_flag 신택스 요소는 시그널링 되지 않고 1과 같도록 유도된다(inferSbDcSigCoeffFlag = 1).
- coded_sub_block_flag 대한 컨텍스트 모델링이 변경된다. 컨텍스트 모델 인덱스는 왼쪽에 있는 coded_sub_block_flag와 현재 서브블록 위에 있는 coded_sub_block_flag의 합과 둘 다의 논리적 분리로 계산된다.
sig_coeff_flag 컨텍스트 모델링: sig_coeff_flag 컨텍스트 모델링의 로컬 템플릿은 현재 스캐닝 위치의 왼쪽 이웃(NB0)과 위 이웃(NB1)만 포함하도록 수정된다. 컨텍스트 모델 오프셋은 Sig_coeff_flag 중요한 이웃 위치의 수 [NB0]+ sig_coeff_flag[NB1]이다. 따라서, 현재 변환 블록 내에서 대각선 d에 따라 다른 컨텍스트 세트의 선택이 제거된다. 이렇게 하면 세 가지 컨텍스트 모델과 sig_coeff_flag 플래그를 코딩 하기 위한 단일 컨텍스트 모델이 생성된다.
abs_level_gt1_flag 및 par_level_flag 컨텍스트 모델링: 단일 컨텍스트 모델은 abs_level_gt1_flag par_level_flag 위해 사용된다.
코딩 abs_remainder: 변환 스킵 잔차 절대 레벨(transform skip residual absolute level)의 경험적 분포는 일반적으로 여전히 라플라시안 또는 기하학적 분포에 적합하지만 계수 절대 레벨을 변환하는 것보다 더 큰 비정상성이 존재한다. 특히, 연속 실현의 윈도우 내의 차이는 잔차 절대 레벨에 대해 더 높다. 이는 abs_remainder 구문 이진화 및 컨텍스트 모델링의 다음 수정 사항에 동기를 부여한다:
- 이진화에서 더 높은 컷오프 값, 즉 sig_coeff_flag를 사용한 코딩에서의 전환점을 사용하여, abs_level_gt1_flag, par_level_flag 및 abs_level_gt3_flag를 abs_remainder에 대한 라이스 코드(Rice code), 및 각 빈 위치에 대한 전용 컨텍스트 모델은 더 높은 압축 효율성을 제공한다. 컷오프를 늘리면, 예를 들어, abs_level_gt5_flag, abs_level_gt7_flag 도입하면, 컷오프에 도달할 때 까지 계속된다. 컷오프 자체는 5(numGtFlags=5)로 고정된다.
- 라이스 파라미터 유도를 위한 템플릿은 변형되며, 즉, 왼쪽에 있는 이웃과 현재 스캐닝 위치 위에 있는 이웃만이 sig_coeff_flag 컨텍스트 모델링을 위한 로컬 템플릿과 유사한 것으로 간주된다.
coeff_sign_flag 컨텍스트 모델링: 징후 의 순서 내부의 역류와 예측 잔차가 종종 편향되어 있기 때문에 글로벌 경험적 분포가 거의 균일하게 분포되는 경우에도 컨텍스트 모델을 사용하여 표지판을 코딩 할 수 있다. 단일 전용 컨텍스트 모델은 기호 코딩에 사용되며 sig_coeff_flag 다음에 부호는 모든 컨텍스트 코딩된 빈을 함께 유지하기 위해 파싱 된다.
2.7 양자화된 잔차 블록 차동 펄스 코드 변조 (QR-BDPCM)
JVET-M0413에서, 양자화된 잔차 블록 차동 펄스 코드 변조(QR-BDPCM)가 화면 내용을 효율적으로 코딩 하도록 제안된다.
QR-BDPCM에 사용되는 예측 방향은 수직 및 수평 예측 모드일 수 있다. 인트라 예측은 인트라 예측과 유사한 예측 방향(수평 또는 수직 예측)에서 샘플 복사하여 전체 블록에서 수행된다. 잔차는 양자화되고 양자화된 잔차와 예측변수(수평 또는 수직) 양자화 값 사이의 델타가 코딩 된다. 다음으로 기술할 수 있다: 크기가 M(행) Х N(cols)의 블록의 경우, 위 또는 왼쪽 블록 경계 샘플에서 필터링되지 않은 샘플을 사용하여 인트라 예측을 수평으로(예측 블록의 왼쪽 이웃 픽셀 값을 라인 단위로 복사) 또는 수직(상단 이웃 라인을 예측 블록의 각 라인에 복사) 수행 후, 0≤i≤M-1, 0≤j≤N-1인 ri,j을 예측 잔차로 한다. 0≤i≤M-1, 0≤j≤N-1인 Q(ri,j)이 잔차 ri,j의 양자화된 버전을 나타내고, 여기서 잔차는 원래 블록과 예측된 블록 값 사이의 차이이다. 그런 다음, 블록 DPCM이 양자화된 잔차 샘플에 적용되고, 그 결과 요소가 있는 수정된 MХN 배열 가 된다. 수직 BDPCM이 시그널링 되면:
수평 예측의 경우, 유사한 규칙이 적용되고, 잔차 양자화된 샘플은 다음에 의해 획득된다
디코더 측에서, 위의 계산이 0≤i≤M-1, 0≤j≤N-1의 Q(ri,j)를 생성하도록 반전된다. 수직 예측 사례의 경우,
수평의 경우,
역양자화된 잔차는 Q-1(Q(ri,j))는 재구성된 샘플 값을 생성하기 위해 인트라 블록 예측 값에 추가된다.
이 계획의 주요 이점은 계수가 파싱 되거나 파싱 후 수행될 수 있으므로 계수 파싱 중에 역 DPCM을 즉석에서 수행할 수 있다는 것이다.
QR-BDPCM의 초안 텍스트 변경 사항은 다음과 같이 표시된다.
7.3.6.5
코딩 유닛 신택스
1과 동일한 bdpcm_flag [x0] [y0]은 bdpcm_dir_flag가 위치 (x0, y0)에서 루마 코딩 블록을 포함하는 코딩 유닛에 존재한다는 것을 지정한다.
0과 동일한 bdpcm_dir_flag [x0] [y0]은 bdpcm 블록에서 사용될 예측 방향이 수평임을 지정하고, 그렇지 않으면 수직임을 지정한다.
2.8 행렬 기반 인트라 예측(MIP)
행렬 기반 인트라 예측은 가중 행렬을 사용하여 인트라 예측 신호를 유도하는 아핀 선형 가중 인트라 예측(ALWIP)이라고도 한다.
2.8.1 방법에 대한 기술
너비 W 및 높이 H의 직사각형 블록의 샘플을 예측하기 위해, 아핀 선형 가중 인트라 예측(affine linear weighted intra prediction)(ALWIP)은 블록 왼쪽에 있는 H개의 재구성된 이웃 경계 샘플의 한 라인과 블록 위의 W개의 재구성된 이웃 경계 샘플의 한 라인을 입력으로 취한다. 재구성된 샘플을 사용할 수 없는 경우 종래의 인트라 예측에서 수행되는 대로 생성된다.
예측 신호의 생성은 다음 세 단계에 기초한다:
1. 경계 샘플 중에서 W = H = 4의 경우 4개의 샘플을 평균화하여 나머지 모든 경우 8개의 샘플을 추출한다.
2. 오프셋의 추가가 뒤따르는 행렬 벡터 곱셈은 평균 샘플을 입력으로 사용하여 수행된다. 결과는 원래 블록의 서브샘플링된 샘플 세트에 대한 감소된 예측 신호이다.
3. 나머지 위치의 예측 신호는 각 방향의 단일 단계 선형 보간인 선형 보간법에 의해 서브 샘플링 된 세트의 예측 신호에서 생성된다.
예측 신호를 생성하는데 필요한 행렬 및 오프셋 벡터는 행렬의 세 세트 S0, S1, S2에서 가져온다. 이 세트 S0는 i ∈ {0,?? . 17}인 의 18개의 행렬, 각각은 16개의 행과 4개의 열고, 각각이 크기 16인 i ∈ {0,?? . 17}인 의 18개의 오프셋 백터로 구성된다. 해당 세트의 행렬 및 오프셋 벡터는 크기가 4 Х 4인 블록에 사용된다. 이 세트 S1은 i ∈ {0,?? . 9}인 의 10개의 행렬, 각각은 16개의 행과 8개의 열고, 각각이 크기 16인 i ∈ {0,?? . 9}인 의 10개의 오프셋 백터로 구성된다. 해당 세트의 행렬 및 오프셋 벡터는 크기가 4 Х 8, 8 Х 4 및 8 Х 8인 블록에 사용된다. 마직막으로, 세트 S2는 i ∈ {0,?? . 5}인 의 6개의 행렬, 각각은 64개의 행과 8개의 열고, 각각이 크기 64인 i ∈ {0,?? .5}인 의 6개의 오프셋 백터로 구성된다. 해당 세트의 행렬 및 오프셋 벡터 또는 이러한 행렬 및 오프셋 벡터의 일부는 다른 모든 블록 형태에 사용된다.
행렬 벡터 곱의 계산에 필요한 곱셈의 총 수는 항상 4WH보다 작거나 같다. 즉, ALWIP 모드에는 샘플당 최소 4개의 곱셈이 필요하다.
2.8.2 경계의 평균화
첫 번째 단계에서, 력 경계 bdrytop 및 bdryleft는 더 작은 경계 bdryred top 및 bdryred left로 축소된다. 여기서, bdryred top 및 bdryred left은 모두 4 Х 4-block의 경우 2개의 샘플로 구성되며, 그 외의 경우 모두 4개의 샘플로 구성된다.
4 Х 4 블록의 경우 0≤i <2에 대해 다음을 정의한다
및 bdryred left도 비슷하게 정의한다.
그렇지 않으면, 블록 너비 W가 W = 42 ^ k로 주어지면 0≤i <4에 대해 다음과 같이 정의된다
및 bdryred left도 비슷하게 정의한다.
두 개의 감소된 경계 bdryred top 및 bdryred left는 형태 4x4 블록의 경우 크기가 4이고 다른 모든 형태의 블록의 경우 크기가 8인 감소된 경계 벡터 bdryred에 연결된다. 모드가 ALWIP 모드를 참조하는 경우, 이 연결은 다음과 같이 정의된다:
마지막으로, 서브 샘플링 된 예측 신호의 보간을 위해 큰 블록에서 평균 경계의 두 번째 버전이 필요하다. 즉 min(W, H)> 8이고 W≥H이면, W = 8 * 2l이라고 쓰고, 0≤i <8인 경우, 다음을 정의한다
min(W, H)> 8이고 H> W이면, bdryred left는 유사하게 정의된다.
2.8.3 행렬 벡터 곱셈에 의한 감소된 예측 신호생성
감소된 입력 벡터 bdryred 중 하나는 감소된 예측 신호 predred를 생성한다. 후자의 신호는 폭 Wred 및 높이 Hred의 다운 샘플링 된 블록에 대한 신호이다. 여기서 Wred 및 Hred는 다음과 같이 정의된다:
감소된 예측 신호 predred는 행렬 벡터 곱을 계산하고 오프셋을 추가하여 계산된다:
predred = A · bdryred + b
여기서, A는 Wred ·Hred 행과 W = H = 4인 경우 4개의 열, 다른 모든 경우에는 8개의 열을 갖는 행렬이다. b는 크기 Wred ·Hred 벡터이다.
행렬 A와 벡터 b는 다음과 같이 세트 S0, S1, S2 중 하나에서 가져온다. 하나는 인덱스 idx = idx(W, H)를 다음과 같이 정의한다:
또한, m은 다음과 같이 넣는다:
그런 다음, idx≤1 또는 idx = 2이고 min(W, H)> 4이면, A = Aidx m 및 b = bidx m 이다. idx = 2이고 min(W, H) = 4인 경우, 하나는 A를 Aidx m의 모든 행을 생략함으로써 발생하는, W = 4인 경우, 다운 샘플링 된 블록의 홀수 x 좌표에 대응하거나, H = 4인 경우 다운 샘플링 된 블록의 홀수 y 좌표에 대응하는, 행렬이라 한다.
마지막으로, 감소된 예측 신호는 다음과 같은 경우에 전치로 대체된다:
W = H = 4 및 모드≥18
max(W, H) = 8 및 모드≥10
max(W, H)> 8 및 모드≥6
predred의 계산에 필요한 곱셈의 수는 W = H = 4인 경우 4이고, 이 경우 A는 4개의 열과 16개의 행을 갖기 때문이다. 다른 모든 경우, A는 WredHred 행이 있으며 이러한 경우 8·Wred · H_red ≤ 4·W·H 곱셈이 필요하다는 것을 즉시 확인하고, 즉 이러한 경우에도predred를 계산하려면 샘플 당 최대 4개의 곱셈이 필요하다.
2.8.4 전체 ALWIP 프로세스 도식
평균화, 행렬 벡터 곱셈 및 선형 보간의 전체 프로세스가 도 6, 도 7, 도 8 및 도 9의 상이한 형태에 대해 도시된다. 나머지 형태는 묘사된 사례 중 하나로 처리된다.
1. 4x4 블록이 주어지면, ALWIP은 경계의 각 축을 따라 두 개의 평균을 취한다. 결과로 생성된 4개의 입력 샘플은 행렬 벡터 곱셈에 들어간다. 행렬은 집합 S0에서 가져온다. 오프셋을 추가하면 16개의 최종 예측 샘플이 생성된다. 예측 신호를 생성하기 위해 선형 보간이 필요하지 않다. 따라서 샘플당 총 (416) / (44) = 4개의 곱셈이 수행된다.
도 6은 4Х4 블록에 대한 ALWIP의 예이다.
2. 8x8 블록이 주어지면, ALWIP는 경계의 각 축을 따라 4개의 평균을 취한다. 결과로 생성된 8개의 입력 샘플은 행렬 벡터 곱셈에 들어간다. 행렬은 집합 S1에서 가져온다. 이것은 예측 블록의 홀수 위치에서 16개의 샘플을 생성한다. 따라서 샘플당 총 (816) / (88) = 2개의 곱셈이 수행된다. 오프셋을 추가한 후 이러한 샘플은 축소된 상단 경계를 사용하여 수직으로 보간된다. 수평 보간은 원래의 왼쪽 경계를 사용하여 따른다.
도 7은 8x8 블록에 대한 ALWIP의 픽처이다.
3. 8x4 블록이 주어지면, ALWIP는 경계의 수평 축을 따라 4개의 평균을 취하고 왼쪽 경계에서 4개의 원래 경계 값을 취한다. 결과로 생성된 8개의 입력 샘플은 행렬 벡터 곱셈에 들어간다. 행렬은 집합 S1에서 가져온다. 이것은 예측 블록의 수평 홀수 및 각 수직 위치에 대해 16개의 샘플을 생성한다. 따라서 샘플당 총 (816) / (84) = 4개의 곱셈이 수행된다. 오프셋을 추가한 후 이 샘플은 원래 왼쪽 경계를 사용하여 수평으로 보간된다.
도 8x4 블록에 대한 ALWIP의 도식이다
전치된 케이스는 그에 따라 처리된다.
4. 16x16 블록이 주어지면, ALWIP은 경계의 각 축을 따라 4개의 평균을 취한다. 결과로 생성된 8개의 입력 샘플은 행렬 벡터 곱셈에 들어간다. 행렬은 집합 S2에서 가져온다. 이것은 예측 블록의 홀수 위치에서 64개의 샘플을 생성한다. 따라서 샘플당 총 (864) / (1616) = 2개의 곱셈이 수행된다. 오프셋을 추가한 후 이 샘플은 상단 경계의 평균 8개를 사용하여 수직으로 보간된다. 수평 보간은 원래의 왼쪽 경계를 사용하여 따른다.
도 9는 16x16 블록에 대한 ALWIP의 픽처이다
더 큰 형태의 경우 절차는 본질적으로 동일하며 샘플당 곱셈 수가 4개 미만인지 확인하기 쉽다. W> 8인 W Х 8 블록의 경우 샘플이 홀수 수평 및 각 수직 위치에 제공되므로 수평 보간만 필요하다. 이 경우, (864) / (W8) = 샘플당 64/W 곱셈을 수행하여 축소 예측을 계산한다. 마지막으로 W> 8인 W Х 4 블록의 경우, Ak를 다운 샘플링 된 블록의 수평 축을 따라 홀수 항목에 해당하는 모든 행을 생략하여 발생하는 행렬이라고 한다. 따라서 출력 크기는 32이고 다시 수평 보간만 수행된다. 축소 예측의 계산을 위해 샘플당 (832) / (W4) = 64W 곱셈이 수행된다. W = 16의 경우 추가 곱셈이 필요하지 않은 반면 W> 16의 경우 선형 보간을 위해 샘플당 2개 미만의 곱셈이 필요하다. 따라서 곱셈의 총 수는 4개 이하이다.
전치된 케이스는 그에 따라 처리된다.
2.8.5 단일 스텝 선형 보간
max(W, H) ≥8인 W x H 블록의 경우, 예측 신호는 선형 보간에 의해 Wred x Hred의 감소된 예측 신호 predred에서 발생한다. 블록 형태에 따라 선형 보간은 수직, 수평 또는 양방향으로 수행된다. 선형 보간이 양방향으로 적용되는 경우, W <H이면, 먼저 수평 방향으로 적용되고, 그렇지 않으면 먼저 수직 방향으로 적용된다.
일반성을 잃지 않고 max(W, H) ≥8 및 W≥H인 W Х H 블록을 고려한다. 그러면, 다음과 같이 1차원 선형 보간이 수행된다. 일반성을 잃지 않고 수직 방향의 선형 보간을 기술하는 것으로 충분하다. 먼저, 감소된 예측 신호는 경계 신호에 의해 상단으로 확장된다. 수직 업샘플링 계수 Uver = H / Hred를 정의하고 Uver = 2uver > 1을 기록한다. 그런 다음, 확장 축소 예측 신호를 다음과 같이 정의한다:
그런 다음, 확장된 감소된 예측 신호에서 수직선형 보간 예측 신호가 다음과 같이 생성된다.
비트 시프트 전용 선형 보간 알고리즘은 곱셈이 필요하지 않다.
2.8.6 제안된 인트라 예측 모드의 신호화
인트라 모드의 각 코딩 유닛(CU)에 대해, ALWIP 모드가 대응하는 예측 유닛(PU)에 적용될 것인지 여부를 나타내는 플래그는 비트스트림에서 전송된다. ALWIP 모드가 적용되는 경우, ALWIP 모드의 인덱스 predmode는 3 MPMS를 갖는 MPM-list를 사용하여 시그널링 된다.
여기서, MPM의 유도는 위와 왼쪽 PU의 인트라 모드를 사용하여 다음과 같이 수행된다. 각각의 기존 인트라 예측 모드 predmodeAngular 인 ALWIP 모드에 할당하는 3개의 고정된 테이블 idx ∈ {0,1,2}인 map_angular_to_alwipidx, idx ∈ {0,1,2}가 있다.
PredmodeALWIP = map_angular_to_alwipidx [predmodeAngular].
idx(PU) = idx(W, H) ∈ {0,1,2}
이는 위의 섹션 1.3에서와 같이 ALWIP 매개변수를 세 세트 중 어느 것에서 선택해야 하는지 나타낸다.
위의 예측 유닛을 사용할 수 있는 경우, 현재 PU와 동일한 CTU에 속하고 인트라 모드에 있고, idx(PU) = idx(PUabove)이고 ALWIP가 ALWIP 모드 predmodeALWIP above 를 갖는 PUabove 에 적용되는 경우, 다음을 넣는다.
위의 PU를 사용할 수 있는 경우, 현재 PU와 동일한 CTU에 속하며 인트라 모드에 있고, 기존의 인트라 예측 모드 predmodeALWIP above가 위의 PU에 적용되는 경우, 다음을 넣는다.
다른 모든 경우에, 다음을 넣는다.
마지막으로, 세 개의 고정 기본 목록, idx∈ {0,1,2} 인 listidx 가 제공되고, 각각에는 세 가지 ALWIP 모드가 포함되어 있다. 기본 listidx(pu)와 modeALWIP above 및 modeALWIP left 중에서, 기본값으로 -1을 대체하고 반복을 제거하여 3개의 별개의 MPM을 구성한다.
2.8.7 기존 루마 및 크로마 인트라-예측 모드에 대한 적응된 MPM 목록 유도
제안된 ALWIP-모드는 다음과 같이 기존의 인트라-예측 모드의 MPM 기반 코딩과 조화를 이룬다. 기존의 인트라-예측 모드에 대한 루마 및 크로마 MPM-목록 유도 프로세스는 idx∈{0,1,2} 인 map_alwip_to_angularidx 고정 테이블을 사용하여, 주어진 PU에 ALWIP 모드 predmodeALWIP를 기존의 인트라-예측 모드 predmodeAngular=map_alwip_to_angularidx(PU)[predmodeALWIP에 매핑 한다.
인접 루마 블록은 ALWIP 모드 predmodeALWIP를 사용할 때마다 발생하고, 이 블록은 기존의 인트라-예측 모드 predmodeAngular를 사용하는 것처럼 처리된다. 크로마 MPM 리스트 유도의 경우, 현재 루마 블록이 LWIP 모드를 사용할 때마다 동일한 매핑이 ALWIP 모드를 기존의 인트라 예측 모드로 변환하는데 사용된다.
2.9 크로마 인트라 모드 코딩
크로마 인트라 모드 코딩의 경우, 크로마 인트라 모드 코딩에 대해 총 8개의 인트라 모드가 허용된다. 이러한 모드에는 5개의 기존 인트라 모드와 3개의 크로스 구성 요소 선형 모델 모드가 포함된다. 크로마 DM 모드는 해당 루마 인트라 예측 모드를 사용한다. I 슬라이스에서 루마 및 크로마 컴포넌트에 대한 별도의 블록 분할 구조가 활성화되어 있기 때문에, 하나의 크로마 블록은여러 루마 블록에 대응할 수 있다. 따라서, 크로마 DM 모드의 경우, 현재 크로마 블록의 중심 위치를 커버하는 해당 루마 블록의 인트라 예측 모드가 직접 상속된다.
3.
개시된 실시예에 의해 해결된 기술적 문제의 예
QR-BDPCM은 화면 콘텐츠 코딩에서 코딩 이점을 얻을 수 있지만 여전히 몇 가지 단점이 있을 수 있다.
1. QR-BDPCM 모드의 예측은 수평 및 수직 인트라 예측으로만 제한되며, 이는 QR-BDPCM 모드에서 예측 효율성을 제한할 수 있다.
2. 인트라 예측 모드는 QR-BDPCM 모드의 속도 비용을 증가시킬 수 있는 QR-BDPCM 코딩된 블록에 대해 시그널링 된다.
3. 신호 메시지를 QR-BDPCM 모드의 예측 모드로 매핑할 때 이웃 정보는 고려되지 않는다.
4. QR-BDPCM은 복소 잔차 블록에 대한 코딩 성능을 포함할 수 있는 수평 DPCM 및 수직 DPCM만 지원하여 잔차를 나타낸다.
5. QR-BDPCM의 잔차 범위는 다른 비 QR-BDPCM 모드의 최대 범위를 초과할 수 있다.
6. QR-BDPCM은 블록 형태를 고려하지 않는다.
7. 루마 블록이 QR-BDPCM으로 코딩 될 때 크로마를 처리하는 방법은 알려져 있지 않다.
4. 실시예 및 기술
아래 항목 목록은 일반적인 개념을 기술하는 예로 간주해야 한다. 이러한 기술적 특징은 좁은 방식으로 해석되어서는 안 된다. 또한 이러한 기술적 기능은 어떤 방식으로든 결합될 수 있다.
1.
QR-BDPCM 코딩 블록내의 샘플 예측은 행렬 기반 인트라 예측(MIP) 방법에 의해 생성될 수 있다.
a.
하나의 예에서, 한 블록에 대해 QR-BDPCM과 MIP가 모두 활성화된 경우 MIP에서 허용된 모드 중 일부만 지원되는 것으로 제한된다.
i.
하나의 예에서, 허용된 모드의 일부에는 수평 및/또는 수직 일반 인트라 모드로 매핑될 수 있는 행렬 기반 인트라 예측 방법과 관련된 모드가 포함될 수 있다.
ii.
하나의 예에서, 허용된 모드의 일부에는 수평 및/또는 수직 일반 인트라 모드로 매핑될 수 있는 행렬 기반 인트라 예측 방법과 관련된 모드만 포함될 수 있다.
b.
하나의 예에서, QR-BDPCM과 MIP가 모두 한 블록에 대해 활성화되면 MIP의 허용된 모든 모드가 지원된다.
2.
QR-BDPCM 코딩 블록의 샘플 예측은 수직/수평 인트라 예측 이외의 인트라 예측 모드에 의해 생성될 수 있다.
a.
하나의 예에서, QR-BDPCM 코딩 된 블록의 샘플은 인트라 예측 모드 K에의해 예측될 수 있다
i.
하나의 예에서, K는 PLANAR 모드일 수 있다.
ii.
하나의 예에서, K는 DC 모드일 수 있다.
iii.
하나의 예에서, K는 가로 모드일 수 있다.
iv.
하나의 예에서, K는 세로 모드일 수 있다.
v.
하나의 예에서, K는 가장 가능성이 높은 모드 목록에서 하나의 후보일 수 있다.
vi.
하나의 예에서, K는 비트스트림에서 시그널링 될 수 있다.
b.
QR-BDPCM에 대한 허용된 인트라 예측 모드는 다음에 기초할 수 있다
i.
SPS/VPS/PPS/픽처 헤더/슬라이스 헤더/타일 그룹 헤더/LCU 행/LCU LCU 행/LCU 로/그룹에 시그널링 된 메시지
ii.
현재 블록 및/또는 이웃 블록의 블록 차원
iii.
현재 블록 및/또는 이웃 블록의 블록 형태
iv.
현재 블록의 이웃 블록의 예측 모드(인트라/인터)
v.
현재 블록의 이웃 블록의 인트라 예측 모드
vi.
현재 블록의 이웃 블록의 QR-BDPCM 모드 표시
vii.
현재 블록 및/또는 해당 블록의 현재 양자화 파라미터
viii.
컬러 포멧의 표시(예를 들어, 4:2:0, 4:4:4)
ix.
별도의/이중 코딩 트리 구조
x.
슬라이스/타일 그룹 유형 및/또는 픽처 유형
3.
QR-BDPCM 코딩 블록내의 샘플 예측은 인접하지 않은 샘플에 의해 생성될 수 있다.
a.
하나의 예에서, IBC 병합 모드의 경우 QR-BDPCM도 활성화될 수 있다.
b.
하나의 예에서, IBC AMVP 모드의 경우 QR-BDPCM도 활성화될 수 있다.
c.
IBC 및 QR-BDPCM에 사용되는 블록 벡터는 신호 또는 유도 또는 미리 정의될 수 있다.
i.
하나의 예에서, IBC 모드는 모션 벡터(블록 벡터) 및/또는 병합 인덱스로 표시될 수 있다.
ii.
하나의 예에서, IBC 모드는 기본 모션 벡터로 표시될 수 있다.
1.
하나의 예에서, 기본 모션 벡터는 (-w,0)일 수 있으며, 여기서 w는 양의 정수다.
2.
하나의 예에서, 기본 모션 벡터는 (0, -h) h가 양의 정수다.
3.
하나의 예에서, 기본 모션 벡터는 (-w, -h)일 수 있으며, 여기서 w 및 h는 2개의 양의 정수이다.
iii.
하나의 예에서, IBC 및 QP-BPDCM 코딩 된 블록에 사용되는 모션 벡터의 표시는 다음에 기초하여 할 수 있다:
1.
SPS/VPS/PPS/픽처 헤더/슬라이스 헤더/타일 그룹 헤더/LCU 행/LCU LCU 행/LCU 로/그룹에 시그널링 된 메시지
2.
현재 블록 및/또는 이웃 블록의 블록 차원
3.
현재 블록 및/또는 이웃 블록의 블록 형태
4.
현재 블록의 이웃 블록의 예측 모드(인트라/인터)
5.
현재 블록의 이웃 블록의 모션 벡터
6.
현재 블록의 이웃 블록의 QR-BDPCM 모드 표시
7.
현재 블록 및/또는 해당 블록의 현재 양자화 파라미터
8.
컬러 포멧의 표시(예를 들어, 4:2:0, 4:4:4)
9.
별도의/이중 코딩 트리 구조
10.
슬라이스/타일 그룹 유형 및/또는 픽처 유형
d.
하나의 예에서, QR-BDPCM 모드의 샘플 예측은 인터 예측 툴(예를 들어, 아핀 모드, 병합 모드 및 인터 모드)에 의해 생성될 수 있다.
4.
QR-BDPCM내양자화된 잔차 예측 방향의 표시는 즉석에서 유도될 수 있다.
a.
하나의 예에서, QR-BDPCM내양자화된 잔차 예측 방향의 표시는 현재 인트라 예측 모드의 표시에 기초하여 유추될 수 있다
i.
하나의 예에서, QR-BDPCM내양자화된 잔차 예측의 방향은 인트라 예측 모드가 수직일 때 수직으로 유추될 수 있다.
ii.
하나의 예에서, QR-BDPCM에서 양자화된 잔차 예측의 방향은 인트라 예측 모드가 수평일 때 수평으로 유추될 수 있다.
iii.
하나의 예에서, QR-BDPCM내양자화된 잔차 예측의 방향은 인트라 예측 모드가 수평일 때 수직으로 유추될 수 있다.
iv.
하나의 예에서, QR-BDPCM내양자화된 잔차 예측의 방향은 인트라 예측 모드가 수직일 때 수평으로 유추될 수 있다.
b.
하나의 예에서, QR-BDPCM내양자화된 잔차 예측 방향의 표시는 다음에 기초할 수 있다
i.
SPS/VPS/PPS/픽처 헤더/슬라이스 헤더/타일 그룹 헤더/LCU 행/LCU LCU 행/LCU 로/그룹에 시그널링 된 메시지
ii.
현재 블록 및/또는 이웃 블록의 블록 차원
iii.
현재 블록 및/또는 이웃 블록의 블록 형태
iv.
현재 블록 및/또는 이웃 블록의 가장 가능성 있는 모드
v.
현재 블록의 이웃 블록의 예측 모드(인트라/인터)
vi.
현재 블록의 이웃 블록의 인트라 예측 모드
vii.
현재 블록의 이웃 블록의 모션 벡터
viii.
현재 블록의 이웃 블록의 QR-BDPCM 모드 표시
ix.
현재 블록 및/또는 해당 블록의 현재 양자화 파라미터
x.
컬러 포멧의 표시(예를 들어, 4:2:0, 4:4:4)
xi.
별도의/이중 코딩 트리 구조
xii.
현재 블록에 적용된 변환 유형
xiii.
슬라이스/타일 그룹 유형 및/또는 픽처 유형
5.
QR-BDPCM의 시그널링 된 인덱스에서 QR-BDPCM 모드의 인트라 예측 모드로 매핑하는 것은 다음에 기초할 수 있다
a.
SPS/VPS/PPS/픽처 헤더/슬라이스 헤더/타일 그룹 헤더/LCU 행/LCU LCU 행/LCU 로/그룹에 시그널링 된 메시지
b.
현재 블록 및/또는 이웃 블록의 블록 차원
c.
현재 블록 및/또는 이웃 블록의 블록 형태
d.
현재 블록 및/또는 이웃 블록의 가장 가능성 있는 모드
e.
현재 블록의 이웃 블록의 예측 모드(인트라/인터)
f.
현재 블록의 이웃 블록의 인트라 예측 모드
g.
현재 블록의 이웃 블록의 모션 벡터
h.
현재 블록의 이웃 블록의 QR-BDPCM 모드 표시
i.
현재 블록 및/또는 해당 블록의 현재 양자화 파라미터
j.
컬러 포멧의 표시(예를 들어, 4:2:0, 4:4:4)
k.
별도의/이중 코딩 트리 구조
l.
현재 블록에 적용된 변환 유형
m.
슬라이스/타일 그룹 유형 및/또는 픽처 유형
6.
QR-BDPCM에서, 수평 및 수직 방향을 따라 양자화된 잔차가 예측된다. 수직 및 수평 방향 이외의 방향을 따라 양자화된 잔차를 예측하는 것이 제안된다. Q(ri,j)가 잔여 예측 과정 후에 양자화된 잔차로 표시되는 양자화된 잔차 로 표시된다고 가정한다.
a.
하나의 예에서, 45도 QR-BDPCM이 지원될 수 있다.
i.
하나의 예에서, DPCM은 45도 방향을 따라 수행될 수 있으며, 여기서 Q(r(i-1),(j-1))이 사용 가능한 경우 는 Q (ri,j) - Q (r(i-1),(j-1))에 의해 유도될 수 있다.
b.
하나의 예에서, 135도 QR-BDPCM이 지원될 수 있다.
i.
하나의 예에서, DPCM은 135도 방향을 따라 수행될 수 있으며, 여기서, Q(r(i-1),(j+1))이 사용 가능한 경우 는 Q (ri,j) - Q (r(i-1),(j+1))에 의해 유도될 수 있다.
c.
하나의 예에서, QR-BDPCM에서 모든 방향이 지원될 수 있다.
1.
하나의 예에서, m 및/또는 n은 비트스트림에서 시그널링 될 수 있다.
2.
하나의 예에서, m 및/또는 n은 정수일 수 있으며
3.
SPS/VPS/PPS/픽처 헤더/슬라이스 헤더/타일 그룹 헤더/LCU 행/LCU LCU 행/LCU 로/그룹에 시그널링 된 메시지
4.
i 및/또는 j
5.
현재 블록 및/또는 이웃 블록의 블록 차원
6.
현재 블록 및/또는 이웃 블록의 블록 형태
7.
현재 블록 및/또는 이웃 블록의 가장 가능성 있는 모드
8.
현재 블록의 이웃 블록의 예측 모드(인트라/인터)
9.
현재 블록의 이웃 블록의 인트라 예측 모드
10.
현재 블록의 이웃 블록의 모션 벡터
11.
현재 블록의 이웃 블록의 QR-BDPCM 모드 표시
12.
현재 블록 및/또는 해당 블록의 현재 양자화 파라미터
13.
컬러 포멧의 표시(예를 들어, 4:2:0, 4:4:4)
14.
별도의/이중 코딩 트리 구조
7.
QR-BDPCM은 크로마 블록(예를 들어, Cb/Cr 또는 B/R 컬러 컴포넌트)에 적용될 수 있다.
a.
하나의 예에서, 루마 및 크로마 QR-BDPCM 코딩 블록에 대한 허용된 인트라 예측 방향은 예를 들어 수평 및 수직만 동일 할 수 있다.
b.
하나의 예에서, 루마 및 크로마 QR-BDPCM 코딩 블록에 대한 허용된 예측 방법은 예를 들어, IBC/Inter/수평 및 수직 인트라 예측 모드와 동일할 수 있다.
c.
하나의 예에서, 루마 및 크로마 QR-BDPCM 코딩 블록에 대한 허용된 잔차 예측 방향은 동일할 수 있다.
d.
하나의 예에서, 크로마 QR-BDPCM에 대한 잔차 예측 방향은 해당 루마 블록에 대한 잔차 예측 방향에서 유도될 수 있다.
i.
하나의 예에서, 대응하는 루마 블록은 병치된 루마 블록일 수 있다.
ii.
하나의 예에서, 상응하는 루마 블록은 크로마 블록의 왼쪽 위 모서리의 병치된 샘플을 포함하는 루마 블록일 수 있다.
iii.
하나의 예에서, 대응하는 루마 블록은 크로마 블록의 중심 샘플의 병치된 샘플을 포함하는 루마 블록일 수 있다.
e.
하나의 예에서, CCLM 및 QR-BDPCM은 동일한 크로마 블록에 적용할 수 없다.
i.
또는, CCLM은 QR-BDPCM 코딩 된 블록에도 적용될 수 있다.
f.
하나의 예에서, 조인트 크로마 잔차 코딩(예를 들어, 조인트 CB 및 cr 코딩) 방법 및 QR-BDPCM은 동일한 크로마 블록에 적용될 수 없다.
8.
QR-BDPCM에서 재구성된 양자화된 잔차는 특정 범위 내로 제한될 수 있다.
b.
하나의 예에서, 모든 양자화된 잔차(예를 들어, 식 2-7-3 및 2-7-4에서 Q(ri,j))가 특정 범위 내에 있을 수 있다는 제약조건이 추가될 수 있다.
c.
하나의 예에서, 클리핑 작업은 양자화된 잔차 차이(예를 들어, 식 2-7-1 및 2-7-2에서 )에 적용될 수 있으므로 재구성된 양자화된 잔차는 특정 범위 내에 있을 수 있다.
d.
하나의 예에서, 클리핑 작업은 재구성된 양자화된 잔차 차이(예를 들어, 식 2-7-3 및 2-7-4에서 Q(ri,j))에 적용될 수 있으므로 재구성된 양자화된 잔차가 특정 범위 내에 있을 수 있다.
e.
하나의 예에서, 클리핑 작업은 (x < min? min 로 정의될 수 있다: (x > max? max: x))
f.
하나의 예에서, 클리핑 작업은 (x <= min? min:(x >= max? max: x)로 정의될 수 있다.
g.
하나의 예에서, 클리핑 작업은 (x < min? min: (x >= max? max: x)로 정의될 수 있다.
h.
하나의 예에서, 클리핑 작업은 (x <= min? min:(x > max? max: x)로 정의될 수 있다.
i.
하나의 예에서, min 및/또는 max는 음수 또는 양수일 수 있다
j.
하나의 예에서, min 는 -32768로 설정되고 최대 값은 32767로 설정된다.
i.
또는, min 및/또는 max 는 QR-BDPCM으로 코딩 되지 않은 블록에 대한 역 양자화 범위에 따라 달라질 수 있다.
ii.
또는 min 및/또는 max 는 입력 샘플/재구성 된 샘플의 비트 깊이에 따라 달라질 수 있다.
iii.
또는 min 및/또는 max 는 무손실 코딩이 사용되는지 여부에 의존할 수 있다.
1.
하나의 예에서, min 및/또는 max는 transquant_bypass_enabled_flag 에 의존할 수 있다.
2.
하나의 예에서, min 및/또는 max는 cu_transquant_bypass_flag 에 의존할 수 있다.
k.
하나의 예에서, min 및/또는 max는 다음에 기초할 수 있다
i.
SPS/VPS/PPS/픽처 헤더/슬라이스 헤더/타일 그룹 헤더/LCU 행/LCU LCU 행/LCU 로/그룹에 시그널링 된 메시지
ii.
현재 블록 및/또는 이웃 블록의 블록 차원
iii.
현재 블록 및/또는 이웃 블록의 블록 형태
iv.
현재 블록 및/또는 이웃 블록의 가장 가능성 있는 모드
v.
현재 블록의 이웃 블록의 예측 모드(인트라/인터)
vi.
현재 블록의 이웃 블록의 인트라 예측 모드
vii.
현재 블록의 이웃 블록의 모션 벡터
viii.
현재 블록의 이웃 블록의 QR-BDPCM 모드 표시
ix.
현재 블록 및/또는 해당 블록의 현재 양자화 파라미터
x.
컬러 포멧의 표시(예를 들어, 4:2:0, 4:4:4)
xi.
별도의/이중 코딩 트리 구조
xii.
현재 블록에 적용된 변환 유형
9.
QR-DPCM은 마지막 행/열에서 블록의 첫 번째 행/열에 적용될 수 있다.
a.
하나의 예에서, 잔차 예측 방향이 수평인 경우,(i+1) 번째 열의 잔차를 사용하여 i 번째 열의 잔차를 예측할 수 있다.
b.
하나의 예에서, 잔차 예측 방향이 수직인 경우(i+1) 번째 행의 잔차를 사용하여 i 번째 행의 잔차를 예측할 수 있다.
10.
QR-DPCM은 블록의 서브 세트에 적용될 수 있다.
a.
하나의 예에서, 잔차 예측 방향이 수평인 경우 QR-DPCM은 잔차의 왼쪽 대부분 k 열에는 적용되지 않는다.
b.
하나의 예에서, 잔차 예측 방향이 수직인 경우 QR-DPCM은 대부분의 k 열잔차에 적용되지 않는다.
c.
하나의 예에서, 잔차 예측 방향이 수평인 경우 QR-DPCM은 잔차의 대부분의 k 열에 적용되지 않는다.
d.
하나의 예에서, 잔차 예측 방향이 수직인 경우 QR-DPCM은 대부분의 k 열 의 잔차 행 하단에는 적용되지 않는다.
e.
상술한 k의 값은 미리 정의된 값일 수 있고, 다음에 기초한다.
i.
SPS/VPS/PPS/픽처 헤더/슬라이스 헤더/타일 그룹 헤더/LCU 행/LCU LCU 행/LCU 로/그룹에 시그널링 된 메시지
ii.
현재 블록 및/또는 이웃 블록의 블록 차원
iii.
현재 블록 및/또는 이웃 블록의 블록 형태
iv.
현재 블록 및/또는 이웃 블록의 가장 가능성 있는 모드
v.
현재 블록의 이웃 블록의 예측 모드(인트라/인터)
vi.
현재 블록의인트라 예측 모드
vii.
현재 블록의 이웃 블록의 인트라 예측 모드
viii.
현재 블록의 이웃 블록의 모션 벡터
ix.
현재 블록의 이웃 블록의 QR-BDPCM 모드 표시
x.
현재 블록 및/또는 해당 블록의 현재 양자화 파라미터
xi.
컬러 포멧의 표시(예를 들어, 4:2:0, 4:4:4)
xii.
별도의/이중 코딩 트리 구조
xiii.
현재 블록에 적용된 변환 유형
xiv.
슬라이스/타일 그룹 유형 및/또는 픽처 유형
11.
QR-DPCM은 블록에 대한 세그먼트별로 세그먼트를 적용할 수 있다.
a.
하나의 예에서, 잔차 예측 방향이 수직 및 N=nK인 경우, 잔차 예측은 다음과 같이 수행될 수 있다
b.
하나의 예에서, 잔차 예측 방향이 수평 및 M=mK인 경우, 잔차 예측은 다음과 같이 수행될 수 있다
12.
하나의 컬러 컴포넌트에 대한 QR-DPCM 활성화/비활성화는 다른 컬러 컴포넌트와 연관된 것에서 유도될 수 있다.
a.
하나의 예에서, 크로마 블록의 경우, QR-DPCM을 활성화할지 여부는 병치된 루마 블록 내에서 하나 또는 여러 대표 블록과 연관된 QR-DPCM의 사용에 의존할 수 있다.
i.
하나의 예에서, 대표적인 블록은 DM 유도에 사용되는 것과 동일한 방식으로 정의될 수 있다.
ii.
하나의 예에서, 병치된 루마 블록 내의 대표 블록이 QR-DPCM 코딩 되고, 현재 크로마 블록이 DM 모드로 코딩 되는 경우, QR-DPCM도 현재 크로마 블록에 대해 활성화될 수 있다.
b.
대안적으로, QR-DPCM의 사용 의 표시는 크로마 컴포넌트에 대해 시그널링 될 수 있다.
i.
하나의 예에서, 하나의 플래그는 두 크로마 컴포넌트에 대한 사용을 나타내기 위해 시그널링 될 수 있다.
ii.
또는 두 개의 플래그가 각각 두 개의 크로마 컴포넌트에 대한 사용을 나타내도록 시그널링 될 수 있다.
iii.
하나의 예에서, 크로마 블록이 (CCLM과 같은) 특정 모드로 코딩될 때, QR-DPCM의 사용 표시의 시그널링은 스킵 된다.
13.
위의 방법은 DPCM/QR-DPCM의 다른 변형에도 적용될 수 있다.
5. 참조
ITU-T 및 ISO/IEC, "고효율 비디오 코딩", Rec. ITU-T H.265 | ISO/IEC 23008-2 (02/2018).
B. 브라더스, J. 첸, S. 리우, 다용도 비디오 코딩 (Drfat 4), JVET-M1001, 2019년 1월.
도 10은 비디오 처리 장치(video processing apparatus)(1000)의 블록 다이어그램이다. 장치(1000)는 본원에 기재된 하나 이상의 방법을 구현하는데 사용될 수 있다. 장치(1000)는 스마트폰, 태블릿, 컴퓨터, 사물인터넷(IoT) 수신기 등에서 구현될 수 있다. 장치(1000)는 하나 이상의 프로세서(processor)(1002), 하나 이상의 메모리(memories)(1004) 및 비디오 처리 하드웨어(video processing hardware)(1006)를 포함할 수 있다. 프로세서(들)(1002)는 본 문서에 기재된 하나 이상의 방법을 구현하도록 구성될 수 있다. 메모리(1004)는 본 원에 기재된 방법 및 기술을 구현하는데 사용되는 데이터 및 코드를 저장하는데 사용될 수 있다. 비디오 처리 하드웨어(1006)는 하드웨어 회로에서 본 문서에 기재된 일부 기술을 구현하는데 사용될 수 있다.
도 11은 비디오 처리의 예제 방법(1100)에 대한 순서도이다. 방법(1100)은 차동 코딩 모드를 사용하고 및 공존 규칙에 따라 인트라 예측 모드를 선택적으로 사용하여 현재 비디오 블록과 현재 비디오 블록의 비트스트림 표현 사이의 변환을 수행하는 단계(1102)를 포함한다. 인트라 예측 모드는 현재 비디오 블록의 샘플에 대한 예측을 생성하는데 사용된다. 차동 코딩 모드는 차동 펄스 코딩 변조 표현을 사용하여 픽셀의 예측에서 양자화된 잔차 블록을 표현하는데 사용된다.
도 14는 본 명세서에 개시된 다양한 기술이 구현될 수 있는 예시 비디오 처리 시스템(1400)을 보여주는 블록 다이어그램이다. 다양한 구현에는 시스템(1400)의 구성 요소의 일부 또는 전부가 포함될 수 있다. 시스템(1400)은 비디오 콘텐츠를 수신하기 위한 입력(input)(1402)을 포함할 수 있다. 비디오 콘텐츠는 원시 또는 압축되지 않은 형식으로 수신될 수 있다(예를 들어, 8 또는 10비트 다중 구성 요소 픽셀 값) 또는 압축 또는 인코딩 된 형식으로 수행될 수 있다. 입력(1402)은 네트워크 인터페이스, 주변 버스 인터페이스 또는 스토리지 인터페이스를 나타낼 수 있다. 네트워크 인터페이스의 예로는 이더넷, 패시브 광 네트워크(PON) 등과 같은 유선 인터페이스및 Wi-Fi 또는 셀룰러 인터페이스와 같은 무선 인터페이스가 있다.
시스템(1400)은 본 문서에 기재된 다양한 코딩 또는 인코딩 방법을 구현할 수 있는 코딩 컴포넌트(coding component)(1404)을 포함할 수 있다. 코딩 컴포넌트(1404)은 입력(1402)에서 코딩 컴포넌트(1404)의 출력으로 비디오의 평균 비트레이를 감소시킬 수 있으며, 비디오의 코딩 된 표현을 생성할 수 있다. 따라서 코딩 기법을 비디오 압축 또는 비디오 트랜스코딩 기술(transcoding technique)이라고도 한다. 코딩 컴포넌트(1404)의 출력은 컴포넌트(component)(1406)로 표현되는 바와 같이 연결된 통신을 통해 저장되거나 전송될 수 있다. 입력(1402)에서 수신된 비디오의 저장 또는 통신 비트스트림(또는 코딩 된) 표현은 디스플레이 인터페이스(1410)로 전송되는 픽셀 값 또는 디스플레이 가능한 비디오를 생성하기 위해 컴포넌트(1408)에 의해 사용될 수 있다. 비트스트림 표현에서 사용자가 볼 수 있는 비디오를 생성하는 프로세스를 비디오 압축 해제라고도 한다. 또한, 특정 비디오 처리 작업을 "코딩" 작업 또는 툴로 지칭하지만, 코딩 툴 또는 작업이 인코더에서 사용되고 코딩 결과를 되돌리는 해당 디코딩 툴 또는 작업이 디코더에 의해 수행된다는 점을 이해할 것이다.
주변 버스 인터페이스 또는 디스플레이 인터페이스의 예로는 범용 직렬 버스(USB) 또는 고화질 멀티미디어 인터페이스(HDMI) 또는 디스플레이포트(Displayport) 등이 포함될 수 있다. 스토리지 인터페이스의 예로는 SATA(직렬 첨단 기술 첨부 파일), PCI, IDE 인터페이스 등이 있다. 본 문서에 기재된 기술은 휴대전화, 노트북, 스마트폰 또는 디지털 데이터 처리 및/또는 비디오 디스플레이를 수행할 수 있는 기타 장치와 같은 다양한 전자 기기에 구현될 수 있다.
개시된 기술의 일부 실시예에는 비디오 처리 툴 또는 모드를 가능하게 하기 위한 판정 또는 결정을 내리는 것이 포함된다. 예를 들어 비디오 처리 툴 또는 모드를 사용하도록 설정하면 인코더가 비디오 블록 처리에서 툴 또는 모드를 사용하거나 구현하지만 툴 또는 모드의 사용에 따라 결과 비트스트림을 반드시 수정할 필요는 없다. 즉, 비디오 블록에서 비디오의 비트스트림 표현으로 변환하면 판정(decision) 또는 결정(determination)에 따라 활성화될 때 비디오 처리 툴 또는 모드를 사용한다. 또 다른 예에서 비디오 처리 툴 또는 모드를 사용하도록 설정하면 디코더는 비디오 처리 툴 또는 모드에 따라 비트스트림이 수정되었다는 사실을 알고 비트스트림을 처리한다. 즉, 비디오의 비트스트림 표현에서 비디오 블록으로의 변환은 판정 또는 결정에 따라 활성화된 비디오 처리 툴 또는 모드를 사용하여 수행된다.
개시된 기술의 일부 실시예에는 비디오 처리 툴 또는 모드를 비활성화하는 판정 또는 결정을 내리는 것이 포함된다. 하나의 예에서, 비디오 처리 도구 또는 모드가 비활성화되면 인코더는 비디오 블록을 비디오의 비트스트림 표현으로 변환하는 데 툴 또는 모드를 사용하지 않는다. 또 다른 예에서 비디오 처리 툴 또는 모드를 사용하지 않도록 설정하면 디코더는 판정 또는 결정에 따라 비활성화된 비디오 처리 툴 또는 모드를 사용하여 비트스트림이 수정되지 않았다는 사실을 알고 비트스트림을 처리한다.
도 15는 이러한 개시의 기술을 활용할 수 있는 예로 영상 코딩 시스템(video coding system)(100)을 예시하는 블록 다이어그램이다. 도 15에 도시된 바와 같이, 비디오 코딩 시스템(100)은 소스 장치(source device)(110)와 목적 장치(destination device)(120)를 포함할 수 있다. 소스 장치(110)는 인코딩 된 비디오 데이터를 생성하여 비디오 인코딩 유닛이라고 할 수 있다. 목적 장치(120)는 비디오 디코딩 유닛이라고 도용될 수 있는 소스 장치(110)에 의해 생성된 인코딩 된 비디오 데이터를 디코딩할 수 있다. 소스 장치(110)에는 비디오 소스(video source)(112), 비디오 인코더(video encoder)(114) 및 입력/출력(I/O) 인터페이스(input/output (I/O) interface)(116)가 포함될 수 있다.
비디오 소스(112)에는 비디오 캡처 장치, 비디오 콘텐츠 공급자에서 비디오 데이터를 수신하는 인터페이스, 비디오 데이터를 생성하기 위한 컴퓨터 그래픽 시스템 또는 이러한 소스의 조합을 포함할 수 있다. 비디오 데이터는 하나 이상의 픽처를 포함할 수 있다. 비디오 인코더(114)는 비디오 소스(112)의 비디오 데이터를 인코딩 하여 비트스트림을 생성한다. 비트스트림에는 비디오 데이터의 코딩 된 표현을 형성하는 비트 시퀀스가 포함될 수 있다. 비트스트림에는 코딩 된 픽처 및 관련 데이터가 포함될 수 있다. 코딩 된 픽처는 픽처의 코딩 된 표현이다. 관련 데이터에는 시퀀스 파라미터 세트, 픽처 파라미터 세트 및 기타 신택스 구조가 포함될 수 있다. I/O 인터페이스(116)에는 변조기/복조기(modulator/demodulator)(모뎀) 및/또는 송신기를 포함할 수 있다. 인코딩 된 비디오 데이터는 네트워크(network)(130a)를 통해 I/O 인터페이스(116)를 통해 목적 장치(120)로 직접 전송될 수 있다. 인코딩 된 비디오 데이터는 목적 장치(120)에 의한 액세스를 위해 저장 매체/서버(storage medium/server)(130b)에 저장될 수도 있다.
목적 장치(120)에는 I/O 인터페이스(126), 비디오 디코더(124) 및 디스플레이 장치(122)가 포함될 수 있다.
I/O 인터페이스(126)에는 수신기 및/또는 모뎀이 포함될 수 있다. I/O 인터페이스(126)는 소스 장치(110) 또는 저장 매체/서버(130b)에서 인코딩 된 비디오 데이터를 수집할 수 있다. 비디오 디코더(124)는 인코딩 된 비디오 데이터를 디코딩할 수 있다. 디스플레이 장치(122)는 디코딩 된 비디오 데이터를 사용자에게 표시할 수 있다. 디스플레이 장치(122)는 목적 장치(120)와 통합될 수 있거나, 외부 디스플레이 장치와 인터페이스 하도록 구성된 목적 장치(120)에 외부일 수 있다.
비디오 인코더(114) 및 비디오 디코더(124)는 고효율 비디오 코딩(HEVC) 표준, 다목적 비디오 코딩(VVM) 표준 및 기타 현재 및/또는 추가 표준과 같은 비디오 압축 표준에 따라 작동할 수 있다.
도 16은 도 15에 도시된 시스템(100)에서 비디오 인코더(114)일 수 있는 비디오 인코더(200)의 예를 보여주는 블록 다이어그램이다.
비디오 인코더(200)는 본 공개의 기술 중 어느 또는 전부를 수행하도록 구성될 수 있다. 도 16의 예에서, 비디오 인코더(200)는 복수의 기능성 성분을 포함한다. 본 개시에 기재된 기술은 비디오 인코더(200)의 다양한 구성 요소들 사이에서 공유될 수 있다. 일부 예에서, 프로세서는 본 공개에 기재된 임의 또는 전부를 수행하기 위해 구성될 수 있다.
비디오 인코더(200)의 기능적 컴포넌트는 파티션 유닛(partition unit)(201), 모드 선택 유닛(mode select unit)(203), 모션 추정 유닛(motion estimation unit)(204), 모션 보상 유닛(motion compensation unit)(205) 및 인트라 예측 유닛(intra prediction unit)(206)을 포함할 수 있는 예측 유닛(predication unit)(202), 잔차 발생 유닛(residual generation unit)(207), 변환 유닛(transform unit)(208), 양자화 유닛(quantization unit)(209), 역 양자화 유닛(inverse quantization unit)(210), 역 변환 유닛(inverse transform unit)(211), 재구성 유닛(reconstruction unit)(212), 버퍼(buffer)(213) 및 엔트로피 인코딩 유닛(entropy encoding unit)(214)을 포함할 수 있다.
다른 예에서, 비디오 인코더(200)에는 더 많거나, 적거나, 다른 기능성 구성 요소가 포함될 수 있다. 예를 들어, 예측 유닛(202)은 인트라 블록 복사(intra block copy)(IBC) 유닛을 포함할 수 있다. IBC 유닛은 적어도 하나의 레퍼런스 픽처가 현재 비디오 블록이 위치한 픽처인 IBC 모드에서 예측을 수행할 수 있다.
또한, 모션 추정 유닛(204) 및 모션 보상 유닛(205)와 같은 일부 컴포넌트는 고도로 통합될 수 있지만, 기술의 목적을 위해 별도로 도 16의 예에서 표현된다.
파티션 유닛(201)은 픽처를 하나 이상의 비디오 블록으로 분할할 수 있다. 비디오 인코더(200) 및 비디오 디코더(300)는 다양한 비디오 블록 크기를 지원할 수 있다.
모드 선택 유닛(203)은 오류 결과에 기초하여 코딩 모드, 인트라 또는 인터, 예를 들어, 잔차 생성 유닛(207)에 결과 인트라 또는 인터코딩 블록을 제공하여 잔차 블록 데이터를 생성하고 재구성 유닛(212)을 레퍼런스 픽처로 사용하기 위해 인코딩 된 블록을 재구성할 수 있다. 일부 예에서, 모드 선택 유닛(203)은 예측이 인터 예측 신호 및 인트라 예측 신호에 기초하는 인트라 및 인터 예측(Intra and Inter Predication)(CIIP) 모드의 조합을 선택할 수 있다. 모드 선택 유닛(203)은 중간 전제시 블록에 대한 모션 벡터(예를 들어, 서브 픽셀 또는 정수 픽셀 정밀도)에 대한 해상도를 선택할 수도 있다.
현재 비디오 블록에서 인터 예측을 수행하기 위해 모션 추정 유닛(204)은 버퍼(213)에서 현재 비디오 블록에 하나 이상의 레퍼런스 프레임을 비교하여 현재 비디오 블록에 대한 모션 정보를 생성할 수 있다. 모션 보정 유닛(205)은 현재 비디오 블록과 관련된 픽처 이외의 버퍼(213)에서의 모션 정보 및 디코딩 된 픽처 샘플에 기초하여 현재 비디오 블록에 대한 예측 비디오 블록을 결정할 수 있다.
모션 추정 유닛(204) 및 모션 보정 유닛(205)은 예를 들어 현재 비디오 블록이 I 슬라이스, P 슬라이스 또는 B 슬라이스에 있는지 여부에 따라 현재 비디오 블록에 대해 서로 상이한 작업을 수행할 수 있다.
일부 예에서, 모션 추정 유닛(204)은 현재 비디오 블록에 대한 단방향 예측을 수행할 수 있으며, 모션 추정 유닛(204)은 현재 비디오 블록에 대한 레퍼런스 비디오 블록에 대한 목록 0 또는 목록 1의 레퍼런스 픽처를 검색할 수 있다. 그런 다음 모션 추정 유닛(204)은 현재 비디오 블록과 레퍼런스 비디오 블록 사이의 공간 변위를 나타내는 레퍼런스 비디오 블록 및 모션 벡터를 포함하는 목록 0 또는 목록 1에서 레퍼런스 픽처를 나타내는 레퍼런스 인덱스를 생성할 수 있다. 모션 추정 유닛(204)은 레퍼런스 인덱스, 예측 방향 표시기 및 모션 벡터를 현재 비디오 블록의 모션 정보로 출력할 수 있다. 모션 보정 유닛(205)은 현재 비디오 블록의 작업 정보로 표시된 레퍼런스 비디오 블록에 기초하여 현재 블록의 예측 된 비디오 블록을 생성할 수 있다.
다른 예에서, 모션 추정 유닛(204)은 현재 비디오 블록에 대한 양방향 예측을 수행할 수 있고, 모션 추정 유닛(204)은 현재 비디오 블록에 대한 레퍼런스 비디오 블록에 대한 목록 0에서 레퍼런스 픽처를 검색할 수 있고, 또한 현재 비디오 블록에 대한 다른 레퍼런스 비디오 블록에 대한 목록 1에서 레퍼런스 픽처를 검색할 수 있다. 그런 다음 모션 추정 유닛(204)은 레퍼런스 비디오 블록과 현재 비디오 블록 사이의 공간적 변위를 나타내는 모션 벡터 및 레퍼런스 비디오 블록을 포함하는 목록 0 및 목록 1의 레퍼런스 픽처를 나타내는 레퍼런스 인덱스를 생성할 수도 있다. 모션 추정 유닛(204)은 현재 비디오 블록의 모션 정보로서 현재 비디오 블록의 레퍼런스 인덱스 및 모션 벡터를 출력할 수 있다. 모션 보정 유닛(205)은 현재 비디오 블록의 작업 정보로 표시된 레퍼런스 비디오 블록에 기초하여 현재 비디오 블록의 예측 비디오 블록을 생성할 수 있다.
일부 예에서 모션 추정 유닛(204)은 디코더의 디코딩 처리를 위한 전체 모션 정보 세트를 출력할 수 있다.
일부 예에서 모션 추정 유닛(204)은 현재 비디오에 대한 전체 모션 정보 세트를 출력하지 못할 수 있다. 오히려, 모션 추정 유닛(204)은 다른 비디오 블록의 작업 정보를 참조하여 현재 비디오 블록의 모션 정보를 시그널링 할 수 있다. 예를 들어, 모션 추정 유닛(204)은 현재 비디오 블록의 모션 정보가 이웃 비디오 블록의 작업 정보와 충분히 유사하다고 결정할 수 있다.
하나의 예에서, 모션 추정 유닛(204)은 현재 비디오 블록과 연관된 신택스 구조에서 현재 비디오 블록이 다른 비디오 블록과 동일한 모션 정보를 가지고 있음을 비디오 디코더(300)에 표시하는 값을 표시할 수 있다.
또 다른 예에서, 모션 추정 유닛(204)은 현재 비디오 블록, 다른 비디오 블록 및 모션 벡터 차이(MVD)와 연관된 신택스 구조에서 식별할 수 있다. 모션 벡터 차이는 현재 비디오 블록의 모션 벡터와 표시된 비디오 블록의 모션 벡터 사이의 차이를 나타낸다. 비디오 디코더(300)는 현재 비디오 블록의 모션 벡터를 결정하기 위해 표시된 비디오 블록 및 모션 벡터 차이의 모션 벡터를 사용할 수 있다.
위에서 기술한 바와 같이, 비디오 인코더(200)는 모션 벡터를 예측적으로 시그널링 할 수 있다. 비디오 인코더(200)에 의해 구현될 수 있는 예측 신호 기술의 두 가지 예로는 고급 모션 벡터 박멸(AMVP) 및 병합 모드 시그널링을 포함한다.
인트라 예측 유닛(206)은 현재 비디오 블록에 대한 인트라 예측을 수행할 수 있다. 인트라 예측 유닛(206)가 현재 비디오 블록에 대한 인트라 예측을 수행하는 경우, 인트라 예측 유닛(206)은 동일한 픽처에서 다른 비디오 블록의 디코딩 된 샘플에 기초하여 현재 비디오 블록에 대한 예측 데이터를 생성할 수 있다. 현재 비디오 블록에 대한 예측 데이터는 예측된 비디오 블록 및 다양한 신택스 요소를 포함할 수 있다.
잔차 발생 유닛(207)은 현재 비디오 블록에서 예측된 비디오 블록의 예측 비디오 블록을 빼서(예를 들어, 마이너스 기호로 표시) 현재 비디오 블록에 대한 잔차 데이터를 생성할 수 있다. 현재 비디오 블록의 잔차 데이터는 현재 비디오 블록에서 샘플의 상이한 샘플 구성 요소에 해당하는 잔차 비디오 블록을 포함할 수 있다.
다른 예에서, 현재 비디오 블록에 대한 현재 비디오 블록에 대한 잔차 데이터가 없을 수 있으며, 예를 들어 스킵 모드에서, 잔차 생성 유닛(207)은 빼기 작업을 수행하지 않을 수 있다.
변환 처리 유닛(208)은 현재 비디오 블록과 연관된 잔차 비디오 블록에 하나 이상의 변환을 적용하여 현재 비디오 블록에 대해 하나 이상의 변환 계수 비디오 블록을 생성할 수 있다.
변환 처리 유닛(208)은 현재 비디오 블록과 관련된 변환 계수 비디오 블록을 생성한 후, 양자화 유닛(209)은 현재 비디오 블록과 연관된 하나 이상의 양자화 파라미터(QP) 값에 기초하여 현재 비디오 블록과 연관된 변환 계수 비디오 블록을 양자화 할 수 있다.
역 양자화 유닛(210)와 역 변환 유닛(211)은 변환 계수 비디오 블록(transform coefficient video block)에서 잔차 비디오 블록을 재구성하기 위해 역양자화 및 역변환을 각각 변환 계수 비디오 블록에 적용할 수 있다. 재구성 유닛 (212)은, 버퍼(213)에 저장하기 위해 현재 블록과 연관된 재구성된 비디오 블록을 생성하기 위하여 예측 유닛 (202) 에 의해 생성된 하나 이상의 예측된 비디오 블록들에서의 대응하는 샘플에 재구성된 잔차 비디오 블록을 추가할 수도 있다.
재구성 유닛(212)이 비디오 블록을 재구성한 후, 루프 필터링 작업이 비디오 블록에서 비디오 차단 아티팩트를 줄일 수 있다.
엔트로피 인코딩 유닛(214)은 비디오 인코더(200)의 다른 기능적 구성 요소에서 데이터를 수신할 수 있다. 엔트로피 인코딩 유닛(214)이 데이터를 수신하는 경우, 엔트로피 인코딩 유닛(214)은 엔트로피 인코딩 된 데이터를 생성하고 엔트로피 인코딩 된 데이터를 포함하는 비트스트림을 출력하기 위해 하나 이상의 엔트로피 인코딩 작업을 수행할 수 있다.
도 17은 도 15에 도시된 시스템(100)에서 비디오 디코더(114)일 수 있는 비디오 디코더(300)의 예를 보여주는 블록 다이어그램이다.
비디오 디코더(300)는 본 공개의 기술 중 어느 또는 전부를 수행하도록 구성될 수 있다. 도 17의 예에서, 비디오 디코더(300)는 복수의 기능성 성분을 포함한다. 본 개시에 기재된 기술은 비디오 디코더(300)의 다양한 구성 요소들 사이에서 공유될 수 있다. 일부 예에서, 프로세서는 본 공개에 기재된 임의 또는 전부를 수행하기 위해 구성될 수 있다.
도 17의 예에서, 비디오 디코더(300)는 엔트로피 디코딩 유닛(entropy decoding unit)(301), 모션 보정 유닛(motion compensation unit)(302), 인트라 예측 유닛(intra prediction unit)(303), 역 양자화 유닛(inverse quantization unit)(304), 역 변환 유닛(inverse transformation unit)(305) 및 재구성 유닛(reconstruction unit)(306) 및 버퍼(307)를 포함한다. 비디오 디코더(300)는, 일부 예에서, 비디오 인코더(200)에 대하여 기술된 인코딩 패스에 일반적으로 상호적인 디코딩 패스를 수행할 수 있다(도 16).
엔트로피 디코딩 유닛(301)은 인코딩 된 비트스트림을 검색할 수 있다. 인코딩 된 비트스트림은 엔트로피 코딩 된 비디오 데이터(예를 들어, 비디오 데이터의 인코딩 된 블록)를 포함할 수 있다. 엔트로피 디코딩 유닛(301)은 엔트로피 코딩 된 비디오 데이터를 디코딩할 수 있고, 엔트로피 디코딩 된 비디오 데이터에서 모션 보정 유닛(302)은 모션 벡터, 모션 벡터 정밀도, 레퍼런스 픽처 목록 인덱스 및 기타 모션 정보를 포함하는 모션 정보를 결정할 수 있다. 모션 보상 유닛(302)은 예를 들어 AMVP 및 병합 모드를 수행하여 이러한 정보를 결정할 수 있다.
모션 보상 유닛(302)은 모션 보상된 블록을 생성할 수도 있고, 가능하게는 보간 필터에 기초하여 보간을 수행할 수도 있다. 서브 픽셀 정밀도와 함께 사용되는 보간 필터에 대한 식별자가 신택스 요소에 포함될 수 있다.
모션 보상 유닛(302)은 레퍼런스 블록의 서브 정수 픽셀들에 대한 보간된 값들을 계산하기 위해 비디오 블록의 인코딩 동안 비디오 인코더(20)에 의해 사용되는 보간 필터들을 사용할 수도 있다. 모션 보상 유닛(302)은 수신된 신택스 정보에 따라 비디오 인코더(200)에 의해 사용되는 보간 필터를 결정할 수도 있고 예측 블록들을 생성하기 위해 보간 필터들을 사용할 수도 있다.
모션 보정 유닛(302)은 인코딩 된 비디오 시퀀스의 프레임 및/또는 슬라이스를 인코딩 하는데 사용되는 블록의 크기를 결정하기 위하여 신택스 정보, 인코딩 된 비디오 시퀀스의 픽처의 각 매크로블록이 어떻게 분할되는지, 각 파티션이 인코딩 되는 방식을 나타내는 모드, 각 인터 인코딩 된 블록(inter-encoded block)에 대해 하나 이상의 레퍼런스 프레임(및 레퍼런스 프레임 목록)을 기술하는 파티션 정보, 및 인코딩 된 비디오 시퀀스를 디코딩 하기 위한 기타 정보의 일부를 사용할 수 있다.
인트라 예측 유닛(303)은 공간적으로 이웃 블록들에서 예측 블록을 형성하기 위해 예를 들어 비트스트림에서 수신된 인트라 예측 모드들을 사용할 수도 있다. 역 양자화 유닛(303)은 비트스트림에 제공된 및 엔트로피 디코딩 유닛(301)에 의해 디코딩 된 양자화된 비디오 블록 계수를 역 양자화, 즉 비 양자화, 한다. 역 변환 유닛(303)은 역 변환을 적용한다.
재구성 유닛(306)은 디코딩된 블록들을 형성하기 위해 모션 보상 유닛(202) 또는 인트라 예측 유닛(303)에 의해 생성된 대응하는 예측 블록들과 잔차 블록들을 합산할 수도 있다. 원하는 경우, 차단 해제 필터를 적용하여 차단 아티팩트를 제거하기 위해 디코딩 된 블록을 필터링할 수도 있다. 디코딩 된 비디오 블록은 버퍼 307에 저장되며, 후속 모션 보정/인트라 타락에 대한 레퍼런스 블록을 제공하고 디스플레이 장치에서 프레젠테이션을 위해 디코딩 된 비디오를 생성한다.
일부 실시예에서, ALWIP 모드 또는 MIP 모드에서, 현재 비디오 블록에 대한 예측 블록은 행 및 컬럼 현명한 평균에 의해 결정되고, 행렬 곱셈이 그 다음에, 예측 블록을 결정하기 위한 보간이 뒤따른다.
도 18은 비디오 처리의 예제 방법(1800)에 대한 순서도이다. 방법(1800)은, 적용성 규칙에 기초하여, 차동 코딩 모드가 비디오의 크로마 비디오 블록과 크로마 비디오 블록의 비트스트림 표현 사이의 변환에 적용 가능하다고 결정하는 단계(1802)를 포함한다. 작업(1804)은, 결정하는 단계에 기초하여, 차동 코딩 모드를 사용하여 크로마 비디오 블록과 크로마 비디오 블록의 비트스트림 표현 사이의 변환을 수행하는 단계를 포함하고, 차동 코딩 모드에서, 크로마 비디오 블록은 크로마 비디오 블록의 인트라 예측의 양자화된 잔차와 양자화된 잔차의 예측 사이의 차이를 사용하여 비트스트림 표현에 표현되고, 인트라 예측이 제1 방향으로 수행되고 양자화된 잔차의 예측이 제2 방향으로 수행되고, 및 차동 코딩 모드에서, 양자화된 잔차와 양자화된 잔차의 예측 사이의 차이는 차동 펄스 코딩 변조(DPCM) 표현을 사용하여 표현된다.
방법(1800)에 대한 일부 실시예에서, 제1 방향 또는 제2 방향은 수직 방향 및 수평 방향에서 결정된다. 방법(1800)에 대한 일부 실시예에서, 인트라 예측은 크로마 비디오 블록에 대응하는 루마 비디오 블록에 대해 수행되는 인트라 예측에 사용되는 것과 동일한 제1 방향으로 수행된다. 방법(1800)에 대한 일부 실시예에서, 루마 비디오 블록에 대해 허용된 인트라 예측 모드는 루마 비디오 블록에 대응하는 크로마 비디오 블록에 대해 인트라 예측을 수행하는데 사용되는 것과 동일하다. 방법(1800)에 대한 일부 실시예에서, 크로마 비디오 블록의 양자화된 잔차를 허용한 제2 방향은 크로마 비디오 블록에 대응하는 루마 비디오 블록의 다른 양자화된 잔차에 사용되는 것과 동일하다. 방법(1800)에 대한 일부 실시예에서, 양자화된 잔차의 예측에 사용되는 제2 방향은 크로마 비디오 블록에 대응하는 루마 비디오 블록에 대해 추가 양자화된 잔차가 예측되는 제2 방향에 기초한다. 방법(1800)에 대한 일부 실시예에서, 루마 비디오 블록은 크로마 비디오 블록과 함께 병치된 된다. 방법(1800)에 대한 일부 실시예에서, 루마 비디오 블록은 크로마 비디오 블록의 왼쪽 상단 모서리에 위치한 제2 샘플로 병치되는 제1 샘플을 포함한다. 방법(1800)에 대한 일부 실시예에서, 루마 비디오 블록은 크로마 비디오 블록의 중심에 위치한 제2 샘플과 함께 병치되는 제1 샘플을 포함한다.
방법(1800)에 대한 일부 실시예에서, 적용성 규칙은 크로마 비디오 블록이 크로스 컴포넌트 선형 모델(CCLM) 코딩 모드로 코딩 될 때 크로마 비디오 블록에 차동 코딩 모드가 적용되지 않는다고 지정한다. 방법(1800)에 대한 일부 실시예에서, 적용성 규칙은 크로마 비디오 블록이 크로스 컴포넌트 선형 모델(CCLM) 코딩 모드로 코딩 될 때 크로마 비디오 블록에 차동 코딩 모드가 적용되도록 지정한다. 방법(1800)에 대한 일부 실시예에서, 적용성 규칙은 크로마 비디오 블록이 조인트 크로마 잔차 코딩 기술(joint chroma residual coding technique)로 코딩 될 때 차동 코딩 모드가 크로마 비디오 블록에 적용되지 않는다고 지정한다. 방법(1800)에 대한 일부 실시예에서, 크로마 비디오 블록은 파란색 컴포넌트 또는 빨간색 컴포넌트와 연관된다.
도 19는 비디오 처리의 예제 방법(1900)에 대한 순서도이다. 방법(1900)은, 차동 코딩 모드 및 공존 규칙에 기초한 인트라 예측 모드를 사용하여 비디오의 현재 비디오 블록과 현재 비디오 블록의 비트스트림 표현 사이의 변환을 수행하는 단계(1902)를 포함하고, 인트라 예측 모드에서, 현재 비디오 블록의 인트라 예측의 양자화된 잔차는 현재 비디오 블록에 대한 샘플의 예측에 기초하고, 차동 코딩 모드에서, 현재 비디오 블록은 양자화된 잔차와 양자화된 잔차의 예측 사이의 차이를 사용하여 비트스트림 표현에서 표현되고, 및 양자화된 잔차와 양자화된 잔차의 예측 사이의 차이는 차동 펄스 코딩 변조(DPCM) 표현을 사용하여 표현된다.
방법(1900)에 대한 일부 실시예에서, 인트라 예측 모드는 현재 비디오 블록에 대한 샘플의 예측이, 비디오의 이전에 코딩 된 샘플에 대해, 경계 다운 샘플링 작업, 후속하는 행렬 벡터 곱셈 작업, 및 선택적으로 후속하는 업 샘플링 작업을 수행하여 결정되는 행렬 기반 인트라 예측 모드(matrix based intra prediction mode)(MIP)이다. 방법(1900)에 대한 일부 실시예에서, 공존 규칙은 MIP 모드를 MIP 모드에 대한 복수의 허용된 모드 중 일부로 제한한다. 방법(1900)에 대한 일부 실시예에서, 복수의 허용된 모드 중 일부는 수평 인트라 모드 및/또는 수직 인트라 모드를 포함한다. 방법(1900)에 대한 일부 실시예에서, 복수의 허용된 모드 중 일부는 수평 인트라 모드 및/또는 수직 인트라 모드만을 포함한다. 방법(1900)에 대한 일부 실시예에서, 공존 규칙은 MIP 모드가 MIP 모드에 대한 모든 허용된 모드를 지원한다는 것을 표시한다. 방법(1900)에 대한 일부 실시예에서, 인트라 예측 모드에서, 현재 비디오 블록에 대한 샘플의 예측은 수평이 아닌 방향 또는 수직이 아닌 방향을 따라 예측을 수행하여 결정된다. 방법(1900)에 대한 일부 실시예에서, 인트라 예측 모드는 평면 또는 DC 예측 모드이다. 방법(1900)에 대한 일부 실시예에서, 인트라 예측 모드는 수직 예측 모드 또는 수평 예측 모드이다. 방법(1900)에 대한 일부 실시예에서, 인트라 예측 모드는 가장 가능성 있는 모드(MPM) 목록에서 선택된다. 방법(1900)에 대한 일부 실시예에서, 인트라 예측 모드는 비트스트림 표현의 필드에 의해 식별된다. 방법(1900)에 대한 일부 실시예에서, 인트라 예측 모드는 복수의 허용된 인트라 예측 모드에서 선택된다.
방법(1900)에 대한 일부 실시예에서, 복수의 허용된 인트라 예측 모드는: 시퀀스 파라미터 세트(SPS), 비디오 파라미터 세트(VPS), 픽처 파라미터 세트(PPS), 픽처 헤더, 슬라이스 헤더, 타일 그룹 헤더, 최대 코딩 유닛(LCU) 행, 또는 LCU의 그룹으로 시그널링 되는 메시지에 표시된다. 방법(1900)에 대한 일부 실시예에서, 복수의 허용된 인트라 예측 모드는 현재 비디오 블록 또는 현재 비디오 블록의 이웃 비디오 블록 중 하나의 블록 차원에 기초한다. 방법(1900)에 대한 일부 실시예에서, 복수의 허용된 인트라 예측 모드는 현재 비디오 블록 또는 현재 비디오 블록의 이웃 비디오 블록 중 하나의 형태에 기초한다. 방법(1900)에 대한 일부 실시예에서, 복수의 허용된 인트라 예측 모드는 현재 비디오 블록의 이웃 비디오 블록의 인트라 예측 모드에 기초한다. 방법(1900)에 대한 일부 실시예에서, 복수의 허용된 인트라 예측 모드는 현재 비디오 블록의 이웃 비디오 블록의 인터 예측 모드에 기초한다. 방법(1900)에 대한 일부 실시예에서, 복수의 허용된 인트라 예측 모드는 현재 비디오 블록의 이웃 비디오 블록이 차동 코딩 모드를 사용하여 코딩 되는지 여부의 표시에 기초한다. 방법(1900)에 대한 일부 실시예에서, 복수의 허용된 인트라 예측 모드는 현재 비디오 블록 또는 현재 비디오 블록의 이웃 비디오 블록에 대해 사용되는 양자화 파라미터의 값에 기초한다. 방법(1900)에 대한 일부 실시예에서, 복수의 허용된 인트라 예측 모드는 현재 비디오 블록을 코딩 하는데 사용되는 컬러 포멧에 기초한다. 방법(1900)에 대한 일부 실시예에서, 복수의 허용된 인트라 예측 모드는 현재 비디오 블록을 코딩 하는데 별도의 또는 이중 코딩 트리 구조가 사용되는지 여부에 기초한다. 방법(1900)에 대한 일부 실시예에서, 복수의 허용된 인트라 예측 모드는 현재 비디오 블록과 연관된 슬라이스 또는 타일 그룹 유형 또는 픽처 유형에 기초한다.
방법(1900)에 대한 일부 실시예에서, 인트라 예측 모드에서, 현재 비디오 블록에 대한 샘플의 예측은 현재 비디오 블록의 이웃 비디오 블록의 인접하지 않은 샘플에서 결정된다. 방법(1900)에 대한 일부 실시예에서, 인트라 예측 모드는 인트라 블록 복사 병합 모드를 포함하고, 여기서 공존 규칙은 IBC 병합 모드에 대한 차동 코딩 모드가 활성화되어 있음을 표시한다. 방법(1900)에 대한 일부 실시예에서, 인트라 예측 모드는 인트라 블록 복사 고급 모션 벡터 예측 모드를 포함하며, 여기서 공존 규칙은 차동 코딩 모드가 인트라 블록 복사 고급 모션 벡터 예측 모드에 대해 활성화되어 있음을 표시한다. 방법(1900)에 대한 일부 실시예에서, 인트라 예측 모드는 인트라 블록 복사 모드를 포함하고, 및 인트라 블록 복사 모드 및 차동 코딩 모드에서 사용되는 모션 벡터는 비트스트림 표현의 필드로 표시되거나 유도되거나 미리 정의된다.
방법(1900)에 대한 일부 실시예에서, 인트라 블록 복사 모드는 모션 벡터 및/또는 병합 인덱스로 표시된다. 방법(1900)에 대한 일부 실시예에서, 인트라 블록 복사 모드는 기본 모션 벡터(default motion vector)로 표시된다. 방법(1900)에 대한 일부 실시예에서, 기본 모션 벡터는(-w, 0), w는 양의 정수다. 방법(1900)에 대한 일부 실시예에서, 기본 모션 벡터는 (0, -h), h는 양의 정수다. 방법(1900)에 대한 일부 실시예에서, 기본 모션 벡터는 (-w, -h), w와 h는 두 개의 양의 정수다. 방법(1900)에 대한 일부 실시예에서, 모션 벡터를 표시하는 필드는 다음의 시그널링 된 메시지에 포함된다: 시퀀스 파라미터 세트(SPS), 비디오 파라미터 세트(VPS), 픽처 파라미터 세트(PPS), 픽처 헤더, 슬라이스 헤더, 타일 그룹 헤더, 최대 코딩 유닛(LCU) 행, 또는 LCU의 그룹. 방법(1900)에 대한 일부 실시예에서, 필드에 표시된 모션 벡터는 현재 비디오 블록 또는 현재 비디오 블록의 이웃 비디오 블록 중 하나의 블록 차원에 기초한다. 방법(1900)에 대한 일부 실시예에서, 필드에 표시된 모션 벡터는 현재 비디오 블록 또는 현재 비디오 블록의 이웃 비디오 블록의 형태에 기초한다. 방법(1900)에 대한 일부 실시예에서, 필드에 표시된 모션 벡터는 현재 비디오 블록의 이웃 비디오 블록의 인터 예측 모드 또는 인트라 예측 모드에 기초한다. 방법(1900)에 대한 일부 실시예에서, 필드에 표시된 모션 벡터는 현재 비디오 블록의 이웃 비디오 블록의 모션 벡터에 기초한다. 방법(1900)에 대한 일부 실시예에서, 필드에 표시된 모션 벡터는 현재 비디오 블록의 이웃 비디오 블록이 차동 코딩 모드를 사용하여 코딩 되는지 여부의 표시에 기초한다.
방법(1900)에 대한 일부 실시예에서, 필드에 표시된 모션 벡터는 현재 비디오 블록 또는 현재 비디오 블록의 이웃 비디오 블록의 양자화 파라미터의 값에 기초한다. 방법(1900)에 대한 일부 실시예에서, 필드에 표시된 모션 벡터는 현재 비디오 블록을 코딩 하는데 사용되는 컬러 포멧에 기초한다. 방법(1900)에 대한 일부 실시예에서, 필드에 표시된 모션 벡터는 현재 비디오 블록을 코딩 하는데 별도의 또는 이중 코딩 트리 구조가 사용되는지 여부에 기초한다. 방법(1900)에 대한 일부 실시예에서, 필드에 표시된 모션 벡터는 현재 비디오 블록과 연관된 슬라이스 또는 타일 그룹 유형 또는 픽처 유형에 기초한다. 방법(1900)에 대한 일부 실시예에서, 인트라 예측 모드에서, 현재 비디오 블록에 대한 샘플의 예측은 인터 예측 툴을 사용하여 현재 비디오 블록의 이웃 비디오 블록의 인접하지 않은 샘플에서 결정된다.
방법(1900)에 대한 일부 실시예에서, 공존 규칙은 차동 코딩 모드와 연관된 시그널링 된 인덱스에서 인트라 예측 모드로 매핑을 지정한다. 방법(1900)에 대한 일부 실시예에서, 매핑은 다음의 시그널링 된 메시지에 표시된다: 시퀀스 파라미터 세트(SPS), 비디오 파라미터 세트(VPS), 픽처 파라미터 세트(PPS), 픽처 헤더, 슬라이스 헤더, 타일 그룹 헤더, 최대 코딩 유닛(LCU) 행, 또는 LCU의 그룹. 방법(1900)에 대한 일부 실시예에서, 매핑은 현재 비디오 블록 또는 현재 비디오 블록의 이웃 비디오 블록 중 하나의 블록 차원에 기초한다. 방법(1900)에 대한 일부 실시예에서, 매핑은 현재 비디오 블록 또는 현재 비디오 블록의 이웃 비디오 블록의 형태에 기초한다. 방법(1900)에 대한 일부 실시예에서, 매핑은 현재 비디오 블록 또는 현재 비디오 블록의 이웃 비디오 블록의 가장 가능성 있는 모드(Most Probable Mode)(MPM)에 기초한다. 방법(1900)에 대한 일부 실시예에서, 매핑은 현재 비디오 블록의 이웃 비디오 블록의 인터 예측 모드 또는 인트라 예측 모드에 기초한다. 방법(1900)에 대한 일부 실시예에서, 매핑은 현재 비디오 블록의 이웃 비디오 블록의 모션 벡터에 기초한다. 방법(1900)에 대한 일부 실시예에서, 매핑은 현재 비디오 블록의 이웃 비디오 블록이 차동 코딩 모드를 사용하여 코딩 되는지 여부의 표시에 기초한다. 방법(1900)에 대한 일부 실시예에서, 매핑은 현재 비디오 블록의 양자화 파라미터 또는 현재 비디오 블록의 이웃 비디오 블록의 값에 기초한다. 방법(1900)에 대한 일부 실시예에서, 매핑은 현재 비디오 블록을 코딩 하는데 사용되는 컬러 포멧에 기초한다. 방법(1900)에 대한 일부 실시예에서, 매핑은 현재 비디오 블록을 코딩 하는데 별도의 또는 이중 코딩 트리 구조가 사용되는지 여부에 기초한다. 방법(1900)에 대한 일부 실시예에서, 매핑은 현재 비디오 블록에 적용된 변환 유형에 기초한다. 방법(1900)에 대한 일부 실시예에서, 매핑은 현재 비디오 블록과 연관된 슬라이스 또는 타일 그룹 유형 또는 픽처 유형에 기초한다.
방법(1900)에 대한 일부 실시예에서, 양자화된 잔차의 예측은 수평 방향 또는 수직 방향과 상이한 잔차 예측 방향으로 수행된다. 방법(1900)에 대한 일부 실시예에서, 잔차 예측 방향은 45도 방향이다. 방법(1900)에 대한 일부 실시예에서, Q(ri,j)는 양자화된 잔차를 표시하고, 여기서 는 잔차 양자화된 샘플을 표시하고, 여기서 는 사용 가능한 Q(r(i-1),(j-1))에 응답하여 Q(ri,j)-Q(r(i-1),(j-1))에 의해 유도될 수 있다. 방법(1900)에 대한 일부 실시예에서, 잔차 예측 방향은 135도 방향이다. 방법(1900)에 대한 일부 실시예에서, Q(ri,j)는 양자화된 잔차를 표시하고, 여기서 는 잔차 양자화된 샘플을 표시하고, 여기서 는 사용 가능한 Q(r(i-1),(j+1))에 응답하여 Q(ri,j)-Q(r(i-1),(j+1))에 의해 유도될 수 있다.
방법(1900)에 대한 일부 실시예에서, 양자화된 잔차의 예측은 제1 값 및 제2 값에 기초하여 잔차 예측 방향으로 수행된다. 방법(1900)에 대한 일부 실시예에서, Q(ri,j)는 양자화된 잔차를 표시하고, 여기서 는 잔차 양자화된 샘플을 표시하고, 여기서 는 사용 가능한 Q(r(i-m),(j-n))에 응답하여 Q(ri,j)-Q(r(i-m),(j-n))에 의해 유도될 수 있고, 여기서 m은 제1값이고 n은 제2값이고, 여기서 i는 현재 비디오 블록의 복수의 행을 따른 제1 위치를 나타내는 제3 값이고, 여기서 j는 현재 비디오 블록의 복수의 열에 따른 제2 위치를 나타내는 제4 값이다. 방법(1900)에 대한 일부 실시예에서, m 및 n은 비트스트림 표현에서 시그널링 된다. 방법(1900)에 대한 일부 실시예에서, m 및 n은 정수이다.
방법(1900)에 대한 일부 실시예에서, m 및 n은 다음에 포함된 메시지에 표시된다: 시퀀스 파라미터 세트(SPS), 비디오 파라미터 세트(VPS), 픽처 파라미터 세트(PPS), 픽처 헤더, 슬라이스 헤더, 타일 그룹 헤더, 최대 코딩 유닛(LCU) 행, 또는 LCU의 그룹(LCU) 행 또는 LCU의 그룹. 방법(1900)에 대한 일부 실시예에서, m은 i에 대한 제3 값에 기초하고 n은 j에 대한 제4 값에 기초한다. 방법(1900)에 대한 일부 실시예에서, m에 대한 제1 값 및 n에 대한 제2 값은 현재 비디오 블록 또는 현재 비디오 블록의 이웃 비디오 블록 중 하나의 블록 차원에 기초한다. 방법(1900)에 대한 일부 실시예에서, m에 대한 제1 값과 n에 대한 제2 값은 현재 비디오 블록 또는 현재 비디오 블록의 이웃 비디오 블록의 형태에 기초한다. 방법(1900)에 대한 일부 실시예에서, m에 대한 제1 값 및 n에 대한 제2 값은 현재 비디오 블록 또는 현재 비디오 블록의 이웃 비디오 블록의 가장 가능성 있는 모드(MPM)에 기초한다. 방법(1900)에 대한 일부 실시예에서, m에 대한 제1 값 및 n에 대한 제2 값은 현재 비디오 블록의 이웃 비디오 블록의 인터 예측 모드 또는 인트라 예측 모드에 기초한다. 방법(1900)에 대한 일부 실시예에서, m에 대한 제1 값 및 n에 대한 제2 값은 현재 비디오 블록의 이웃 비디오 블록의 모션 벡터에 기초한다. 방법(1900)에 대한 일부 실시예에서, m에 대한 제1 값 및 n에 대한 제2 값은 현재 비디오 블록의 이웃 비디오 블록이 차동 코딩 모드를 사용하여 코딩 되는지 여부의 표시에 기초한다. 방법(1900)에 대한 일부 실시예에서 m에 대한 제1 값 및 n에 대한 제2 값은 현재 비디오 블록의 양자화 파라미터 또는 현재 비디오 블록의 이웃 비디오 블록의 값에 기초한다. 방법(1900)에 대한 일부 실시예에서, m에 대한 제1 값 및 n에 대한 제2 값은 현재 비디오 블록을 코딩 하는데 사용되는 컬러 포멧에 기초한다. 방법(1900)에 대한 일부 실시예에서, m에 대한 제1 값 및 n에 대한 제2 값은 현재 비디오 블록을 코딩 하는데 별도의 또는 이중 코딩 트리 구조가 사용되는지 여부에 기초한다. 방법(1900)에 대한 일부 실시예에서, m에 대한 제1 값 및 n에 대한 제2 값은 현재 비디오 블록과 연관된 슬라이스 또는 타일 그룹 유형 또는 픽처 유형에 기초한다.
도 20은 비디오 처리의 예제 방법(2000)에 대한 순서도이다. 방법(2000)은 현재 비디오 블록이 현재 비디오 블록의 인트라 예측의 양자화된 잔차와 양자화된 잔차의 예측 사이의 차이를 사용하여 비트스트림 표현으로 표현되는 차동 코딩 모드를 사용하여 비디오의 현재 비디오 블록과 현재 비디오 블록의 비트스트림 표현 사이의 변환을 수행하는 단계(2002)를 포함하고, 양자화된 잔차의 예측 방향은 비트스트림 표현으로 유추할 수 있다.
방법(2000)에 대한 일부 실시예에서, 양자화된 잔차의 예측 방향은 인트라 예측에 사용되는 인트라 예측 모드에서 암시적으로 유추할 수 있다. 방법(2000)에 대한 일부 실시예에서, 양자화된 잔차의 예측 방향은 인트라 예측 모드에 사용되는 방향과 동일한 방향으로 유추할 수 있다. 방법(2000)에 대한 일부 실시예에서, 방향은 수직 또는 수평이다. 방법(2000)에 대한 일부 실시예에서, 양자화된 잔차의 예측 방향은 인트라 예측 모드에 사용되는 제2 방향과 상이한 제1 방향인 것으로 유추할 수 있다. 방법(2000)에 대한 일부 실시예에서, 제1 방향은 수직이고 제2 방향은 수평이다. 방법(2000)에 대한 일부 실시예에서, 제1 방향은 수평이고 두 번째 방향은 수직이다.
방법(2000)에 대한 일부 실시예에서, 양자화된 잔차의 예측 방향은 다음에서 시그널링 된 메시지에 기초하여 유추할 수 있다: 시퀀스 파라미터 세트(SPS), 비디오 파라미터 세트(VPS), 픽처 파라미터 세트(PPS), 픽처 헤더, 슬라이스 헤더, 타일 그룹 헤더, 최대 코딩 유닛(LCU) 행, 또는 LCU의 그룹. 방법(2000)에 대한 일부 실시예에서, 양자화된 잔차의 예측 방향은 현재 비디오 블록 또는 현재 비디오 블록의 이웃 비디오 블록 중 하나의 블록 차원에 기초하여 유추할 수 있다. 방법(2000)에 대한 일부 실시예에서, 양자화된 잔차의 예측 방향은 현재 비디오 블록 또는 현재 비디오 블록의 이웃 비디오 블록의 형태에 기초하여 유추할 수 있다. 방법(2000)에 대한 일부 실시예에서, 양자화된 잔차의 예측 방향은 현재 비디오 블록 또는 현재 비디오 블록의 이웃 비디오 블록의 가장 가능성 있는 모드(MPM)에 기초하여 유추할 수 있다. 방법(2000)에 대한 일부 실시예에서, 양자화된 잔차의 예측 방향은 현재 비디오 블록의 이웃 비디오 블록의 인터 예측 모드 또는 인트라 예측 모드에 기초하여 유추할 수 있다. 방법(2000)에 대한 일부 실시예에서, 양자화된 잔차의 예측 방향은 현재 비디오 블록의 이웃 비디오 블록의 모션 벡터에 기초하여 유추할 수 있다. 방법(2000)에 대한 일부 실시예에서, 양자화된 잔차의 예측 방향은 현재 비디오 블록의 이웃 비디오 블록이 차동 코딩 모드를 사용하여 코딩 되는지 여부의 표시에 기초하여 유추할 수 있다. 방법(2000)에 대한 일부 실시예에서, 양자화된 잔차의 예측 방향은 현재 비디오 블록 또는 현재 비디오 블록의 이웃 비디오 블록의 양자화 파라미터의 값에 기초하여 유추할 수 있다. 방법(2000)에 대한 일부 실시예에서, 양자화된 잔차의 예측 방향은 현재 비디오 블록을 코딩 하는데 사용되는 컬러 포멧에 기초하여 유추할 수 있다. 방법(2000)에 대한 일부 실시예에서, 양자화된 잔차의 예측 방향은 현재 비디오 블록을 코딩 하는데 별도의 또는 이중 코딩 트리 구조가 사용되는지 여부에 기초하여 유추할 수 있다. 방법(2000)에 대한 일부 실시예에서, 양자화된 잔차의 예측 방향은 현재 비디오 블록에 적용된 변환 유형에 기초하여 유추할 수 있다. 방법(2000)에 대한 일부 실시예에서, 양자화된 잔차의 예측 방향은 현재 비디오 블록과 연관된 슬라이스 또는 타일 그룹 유형 또는 픽처 유형에 기초하여 유추할 수 있다.
도 21은 비디오 처리의 예방법(2100)에 대한 순서도이다. 방법(2100)은 차동 코딩 모드가 비디오의 현재 비디오 블록과 현재 비디오 블록의 비트스트림 표현 사이의 변환에 적용 가능하다고 결정하는 단계(2102), 및 결정하는 단계에 기초하여, 구현 규칙(implementation rule)에 따라 차동 코딩 모드를 사용하여 현재 비디오 블록과 현재 비디오 블록의 비트스트림 표현 사이의 변환을 수행하는 단계(2104)를 포함하고, 차동 코딩 모드에서, 현재 비디오 블록은 현재 비디오 블록의 양자화된 잔차와 양자화된 잔차의 인트라 예측 사이의 차이를 사용하여 비트스트림 표현에서 표현되고, 및 차동 코딩 모드에서, 양자화된 잔차와 양자화된 잔차의 예측 사이의 차이는 차동 펄스 코딩 변조(DPCM) 표현을 사용하여 표현된다.
방법(2100)에 대한 일부 실시예에서, 구현 규칙은 양자화된 잔차의 값이 값 범위 내에서 제한되도록 지정한다. 방법(2100)에 대한 일부 실시예에서, 구현 규칙은 양자화된 잔차와 양자화된 잔차의 예측 사이의 차이의 값이 값 범위 내에서 제한되도록 지정한다. 방법(2100)에 대한 일부 실시예에서, 구현 규칙은 양자화된 잔차와 양자화된 잔차의 예측 사이의 차이에 클리핑 작업이 적용되도록 지정하고, 및 클리핑 작업은 양자화된 잔차와 양자화된 잔차의 예측 사이의 차이를 값 범위 내에서 제한한다. 방법(2100)에 대한 일부 실시예에서, 구현 규칙은 클리핑 작업이 양자화된 잔차에 적용되도록 지정하고, 클리핑 작업은 값 범위 내에서 양자화된 잔차의 값을 제한한다.
방법(2100)에 대한 일부 실시예에서, 양자화된 잔차와 양자화된 잔차의 예측 사이의 차이는 다음 식 중 하나에 따라 정의된다:
여기서, 는 양자화된 잔차와 양자화된 잔차의 예측 사이의 차이를 나타내고, Q(ri,j)는 양자화된 잔차의 값을 기술하고, 여기서 M과 N은 각각 현재 비디오 블록의 행과 열을 기술하고, 여기서 i 및 j는 각각 현재 비디오 블록의 행 및 열을 따른 위치를 나타낸다.
방법(2100)에 대한 일부 실시예에서, 양자화된 잔차는 다음 식 중 하나에 따라 정의된다:
여기서 및 는 양자화된 잔차와 양자화된 잔차의 예측 사이의 차이를 기술하고, Q(ri,j)는 양자화된 잔차를 기술하고, 여기서 M 및 N은 각각 현재 비디오 블록의 행 및 열을 기술하고, i 및 j는 각각 현재 비디오 블록의 행 및 열을 따른 위치를 기술한다.
방법(2100)에 대한 일부 실시예에서, 값으로부터의 각 값은 다음 클리핑 규칙에 따라 클리핑 작업에 의해 제한된다: 값은 최소 값보다 작은 값에 대한 응답으로 최소 값이고, 값은 최대 값보다 큰 값에 대한 응답으로 최대 값이다. 방법(2100)에 대한 일부 실시예에서, 값으로부터의 각 값은 다음 클리핑 규칙에 따라 클리핑 작업에 의해 제한된다: 값은 최소 값보다 작거나 같은 값에 대한 응답으로 최소 값이고, 값은 최대 값보다 크거나 같은 값에 대한 응답으로 최대 값이다. 방법(2100)에 대한 일부 실시예에서, 값으로부터의 각 값은 다음 클리핑 규칙에 따라 클리핑 작업에 의해 제한된다: 값은 최소 값보다 작은 값에 대한 응답으로 최소 값이고, 값은 최대 값보다 크거나 같은 값에 대한 응답으로 최대 값이다. 방법(2100)에 대한 일부 실시예에서, 값으로부터의 각 값은 다음 클리핑 규칙에 따라 클리핑 작업에 의해 제한된다: 값은 최소 값보다 작거나 같은 값에 대한 응답으로 최소 값이고, 값은 최대 값보다 큰 값에 대한 응답으로 최대 값이다.
방법(2100)에 대한 일부 실시예에서, 최소 값 및/또는 최대 값은 양수 값 또는 음수 값이다. 방법(2100)에 대한 일부 실시예에서, 최소 값은 -32768이고 최대 값은 32767이다. 방법(2100)에 대한 일부 실시예에서, 최소 값 및/또는 최대 값은 차동 코딩 모드로 코딩 되지 않은 비디오 블록에 대한 역 양자화와 관련된 다른 값의 범위에 기초한다. 방법(2100)에 대한 일부 실시예에서, 최소 값 및/또는 최대 값은 양자화된 잔차 블록 또는 재구성된 양자화된 잔차 블록의 재구성된 샘플의 입력 샘플의 비트 깊이에 기초한다. 방법(2100)에 대한 일부 실시예에서, 최소 값 및/또는 최대 값은 현재 비디오 블록이 무손실 코딩 기술로 인코딩 되거나 디코딩 되는지 여부에 기초한다. 방법(2100)에 대한 일부 실시예에서, 최소 값 및/또는 최대 값은 트랜스퀀트 바이패스 플래그(transquant bypass flag)가 활성화되어 있는지 여부의 표시에 기초하고, 여기서 무손실 코딩 기술(lossless coding technique)이 사용되는지 여부는 트랜스퀀트 바이패스 플래그에 의해 표시된다. 방법(2100)에 대한 일부 실시예에서, 최소 값 및/또는 최대 값은 코딩 유닛(CU) 트랜스퀀트 바이패스 플래그가 활성화되어 있는지 여부의 표시에 기초하고, 여기서 무손실 코딩 기술이 CU 레벨에서 사용되는지 여부는 CU 전량적 바이패스 플래그에 의해 표시된다. 방법(2100)에 대한 일부 실시예에서, 최소 값 및/또는 최대 값은 다음에서 시그널링 된 메시지에 기초한다: 시퀀스 파라미터 세트(SPS), 비디오 파라미터 세트(VPS), 픽처 파라미터 세트(PPS), 픽처 헤더, 슬라이스 헤더, 타일 그룹 헤더, 최대 코딩 유닛(LCU) 행, 또는 LCU의 그룹.
방법(2100)에 대한 일부 실시예에서, 최소 값 및/또는 최대 값은 현재 비디오 블록 또는 현재 비디오 블록의 이웃 비디오 블록중 하나의 블록 차원에 기초한다. 방법(2100)에 대한 일부 실시예에서, 최소 값 및/또는 최대 값은 현재 비디오 블록 또는 현재 비디오 블록의 이웃 비디오 블록의 형태에 기초한다. 방법(2100)에 대한 일부 실시예에서, 최소 값 및/또는 최대 값은 현재 비디오 블록또는 현재 비디오 블록의 이웃 비디오 블록의 가장 가능성 있는 모드(MPM)에 기초한다. 방법(2100)에 대한 일부 실시예에서, 최소 값 및/또는 최대 값은 현재 비디오 블록의 이웃 비디오 블록의 인터 예측 모드 또는 인트라 예측 모드에 기초한다. 방법(2100)에 대한 일부 실시예에서, 최소 값 및/또는 최대 값은 현재 비디오 블록의 이웃 비디오 블록의 모션 벡터에 기초한다. 방법(2100)에 대한 일부 실시예에서, 최소 값 및/또는 최대 값은 현재 비디오 블록의 이웃 비디오 블록이 차동 코딩 모드를 사용하여 코딩 되는지 여부의 표시에 기초한다. 방법(2100)에 대한 일부 실시예에서, 최소 값 및/또는 최대 값은 현재 비디오 블록의 양자화 파라미터 또는 현재 비디오 블록의 이웃 비디오 블록의 값에 기초한다. 방법(2100)에 대한 일부 실시예에서, 최소 값 및/또는 최대 값은 현재 비디오 블록을 코딩 하는데 사용되는 컬러 포멧에 기초한다. 방법(2100)에 대한 일부 실시예에서, 최소 값 및/또는 최대 값은 현재 비디오 블록을 코딩 하는데 별도의 또는 이중 코딩 트리 구조가 사용되는지 여부에 기초한다.
방법(2100)에 대한 일부 실시예에서, 최소 값 및/또는 최대 값은 현재 비디오 블록에 적용된 변환 유형에 기초한다. 방법(2100)에 대한 일부 실시예에서, 최소 값 및/또는 최대 값은 슬라이스 또는 타일 그룹 유형 또는 현재 비디오 블록과 연관된 픽처 유형에 기초한다. 방법(2100)에 대한 일부 실시예에서, 구현 규칙은 현재 비디오 블록의 마지막 행 또는 마지막 열에서 현재 비디오 블록의 첫 번째 행 또는 첫 번째 열로 의 방향으로 수행되는 양자화된 잔차의 예측이 현재 비디오 블록의 첫 번째 행 또는 첫 번째 열로 수행하도록 지정한다. 방법(2100)에 대한 일부 실시예에서, 수평방향에 대한 응답으로, 현재 비디오 블록의 i 번째 열에서 양자화된 잔차의 값의 예측은 현재 비디오 블록의 (i+1) 번째 열에서 양자화된 잔차의 값이다. 방법(2100)에 대한 일부 실시예에서, 수직방향에 대한 응답으로, 현재 비디오 블록의 i 번째 행에서 양자화된 잔차의 값의 예측은 현재 비디오 블록의 (i+1) 번째 행에서 양자화된 잔차의 값이다.
방법(2100)에 대한 일부 실시예에서, 구현 규칙은 차동 코딩 모드가 현재 비디오 블록의 서브 세트 또는 일부에 적용되도록 지정한다. 방법(2100)에 대한 일부 실시예에서, 구현 규칙은 양자화된 잔차의 예측이 수평 방향으로 수행될 때 현재 비디오 블록의 좌측 k 컬럼에 차동 코딩 모드가 적용되지 않는다고 지정한다. 방법(2100)에 대한 일부 실시예에서, 구현 규칙은 양자화된 잔차의 예측이 수직 방향으로 수행될 때 현재 비디오 블록의 최상단 k 행에 차동 코딩 모드가 적용되지 않는다고 지정한다. 방법(2100)에 대한 일부 실시예에서, 구현 규칙은 양자화된 잔차의 예측이 수평 방향으로 수행될 때 현재 비디오 블록의 오른쪽 k 컬럼에 차동 코딩 모드가 적용되지 않는다고 지정한다. 방법(2100)에 대한 일부 실시예에서, 구현 규칙은 양자화된 잔차의 예측이 수직 방향으로 수행될 때 현재 비디오 블록의 최하단 k 행에 차동 코딩 모드가 적용되지 않는다고 지정한다. 방법(2100)에 대한 일부 실시예에서, k에 대한 값이 미리 정의된다.
방법(2100)에 대한 일부 실시예에서, k값은 다음에서 시그널링 되는 메시지에 표시된다: 시퀀스 파라미터 세트(SPS), 비디오 파라미터 세트(VPS), 픽처 파라미터 세트(PPS), 픽처 헤더, 슬라이스 헤더, 타일 그룹 헤더, 최대 코딩 유닛(LCU) 행, 또는 LCU의 그룹(LCU) 행 또는 LCU의 그룹. 방법(2100)에 대한 일부 실시예에서, k값은 현재 비디오 블록 또는 현재 비디오 블록의 이웃 비디오 블록 중 하나의 블록 차원에 기초한다. 방법(2100)에 대한 일부 실시예에서, k값은 현재 비디오 블록 또는 현재 비디오 블록의 이웃 비디오 블록의 형태에 기초한다. 방법(2100)에 대한 일부 실시예에서, k값은 현재 비디오 블록또는 현재 비디오 블록의 이웃 비디오 블록의 가장 가능성 있는 모드(MPM)에 기초한다. 방법(2100)에 대한 일부 실시예에서, k값은 현재 비디오 블록의 이웃 비디오 블록의 인터 예측 모드 또는 인트라 예측 모드에 기초한다. 방법(2100)에 대한 일부 실시예에서, k값은 현재 비디오 블록의 인트라 예측 모드에 기초한다. 방법(2100)에 대한 일부 실시예에서, k값은 현재 비디오 블록의 이웃 비디오 블록의 모션 벡터에 기초한다. 방법(2100)에 대한 일부 실시예에서, k값은 현재 비디오 블록의 이웃 비디오 블록이 차동 코딩 모드를 사용하여 코딩 되는지 여부의 표시에 기초한다.
방법(2100)에 대한 일부 실시예에서, k값은 현재 비디오 블록 또는 현재 비디오 블록의 이웃 비디오 블록의 양자화 파라미터값에 기초한다. 방법(2100)에 대한 일부 실시예에서, k값은 현재 비디오 블록을 코딩 하는데 사용되는 컬러 포멧에 기초한다. 방법(2100)에 대한 일부 실시예에서, k값은 현재 비디오 블록을 코딩 하는데 별도의 또는 이중 코딩 트리 구조가 사용되는지 여부에 기초한다. 방법(2100)에 대한 일부 실시예에서, k값은 현재 비디오 블록에 적용된 변환 유형에 기초한다. 방법(2100)에 대한 일부 실시예에서, k값은 현재 비디오 블록과 연관된 슬라이스 또는 타일 그룹 유형 또는 픽처 유형에 기초한다.
방법(2100)에 대한 일부 실시예에서, 구현 규칙은 현재 비디오 블록에 기초하여 세그먼트별로 차동 코딩 모드가 적용되도록 지정한다. 방법(2100)에 대한 일부 실시예에서, 구현 규칙은 양자화된 잔차의 예측이 수직 방향으로 수행될 때 및 N=nK인 경우 다음 식에 따라 잔차 양자화된 샘플이 결정된다는 것을 지정한다:
여기서 는 양자화된 잔차와 양자화된 잔차의 예측 사이의 차이를 기술하고, 여기서 Q(ri,j)는 양자화된 잔차를 기술하고, 여기서 M과 N은 각각 현재 비디오 블록의 행과 열을 기술하고, i와 j는 각각 현재 비디오 블록의 행과 열을 따라 위치를 기술하고, 여기서 n과 K는 정수이다.
방법(2100)에 대한 일부 실시예에서, 구현 규칙은 양자화된 잔차의 예측이 수평 방향으로 수행될 때 및 M=mK인 경우 잔차 양자화 된 샘플은 다음 식에 따라 결정된다는 것을 지정한다:
여기서 는 잔차 양자화된 샘플을 기술하고, 여기서 Q(ri,j)는 양자화된 잔차를 기술하고, 여기서 M과 N은 각각 현재 비디오 블록의 행과 열을 기술하고, i와 j는 각각 현재 비디오 블록의 행과 열을 따라 위치를 기술하고, 여기서 n과 K는 정수이다.
도 22는 비디오 처리의 예제 방법(2200)에 대한 순서도이다. 방법(2200)은, 적용성 규칙에 따라 차동 코딩 모드가 비디오의 현재 비디오 블록과 현재 비디오 블록의 비트스트림 표현 사이의 변환에 적용 가능하다고 결정하는 단계(2202)를 포함하고, 현재 비디오 블록이 컬러 컴포넌트와 연관되고, 및 적용성 규칙은 차동 코딩 모드가 비디오의 다른 비디오 블록에 적용되는지 여부에 기초하여 현재 비디오 블록에 대해 차동 코딩 모드를 활성화 또는 비활성화하는지 여부를 지정한다. 방법(2200)은 또한 결정하는 단계에 기초하여, 현재 비디오 블록과 차동 코딩 모드를 사용하여 현재 비디오 블록의 비트스트림 표현 사이의 변환을 수행하는 단계(2204)를 포함하고, 차동 코딩 모드에서, 현재 비디오 블록은 현재 비디오 블록의 양자화된 잔차와 양자화된 잔차의 인트라 예측 사이의 차이를 사용하여 비트스트림 표현에서 표현되고, 및 차동 코딩 모드에서, 양자화된 잔차와 양자화된 잔차의 예측 사이의 차이는 차동 펄스 코딩 변조(DPCM) 표현을 사용하여 표현된다.
방법(2200)에 대한 일부 실시예에서, 현재 비디오 블록은 크로마 비디오 블록이고, 적용성 규칙은 크로마 비디오 블록에 대해 차동 코딩 모드가 활성화되는지 여부는 차동 코딩 모드가 하나 이상의 대표 루마 비디오 블록에 적용되는지 여부에 기초하는 것으로 지정하고, 및 하나 이상의 대표 루마 비디오 블록이 크로마 비디오 블록과 함께 병치된다. 방법(2200)에 대한 일부 실시예에서, 하나 이상의 대표 루마 비디오 블록은 크로마 비디오 블록에 대한 인트라 예측을 위한 유도 모드를 유도하는데 사용되는 것과 동일한 방식으로 정의된다. 방법(2200)에 대한 일부 실시예에서, 현재 비디오 블록은 크로마 비디오 블록이고, 적용성 규칙은 차동 코딩 모드는 유도 모드가 크로마 비디오 블록의 인트라 예측에 사용되는 경우 크로마 비디오 블록에 대해 활성화되고 차동 코딩 모드는 하나 이상의 대표 루마 블록에 대해 활성화되는 것을 지정하고, 하나 이상의 대표 루마 비디오 블록은 크로마 비디오 블록과 함께 병치된다. 방법(2200)에 대한 일부 실시예에서, 적용성 규칙은 현재 비디오 블록에 대해 차동 코딩 모드가 활성화되거나 비활성화되는지 여부를 비트스트림 표현에 포함된 하나 이상의 신택스 요소에 표시한다고 지정한다.
방법(2200)에 대한 일부 실시예에서, 단일 신택스 요소는 두 개의 컬러 컴포넌트에 대해 차동 코딩 모드가 활성화되거나 비활성화되는지 여부를 나타내고, 두 개의 컬러 컴포넌트는 현재 비디오 블록과 연관된 컬러 컴포넌트를 포함한다. 방법(2200)에 대한 일부 실시예에서, 두 개의 신택스 요소는 각각 두 개의 컬러 컴포넌트에 대해 차동 코딩 모드가 활성화되거나 비활성화되는지 여부를 표시하고, 두 개의 컬러 컴포넌트는 현재 비디오 블록과 연관된 컬러 컴포넌트를 포함한다. 방법(2200)에 대한 일부 실시예에서, 적용성 규칙은 비트스트림 표현이 현재 비디오 블록의 인트라 예측에 사용되는 특정 모드일 때 현재 비디오 블록에 대해 차동 코딩 모드가 활성화되거나 비활성화되는지 여부를 나타내는 신택스 요소를 제외한다고 지정한다. 방법(2200)에 대한 일부 실시예에서, 특정 모드는 크로스 컴포넌트 선형 모델(CCLM)을 포함한다.
예제의 다음 목록은 추가 실시예에 대한 기술이다.
1. 비디오 처리 방법에 있어서, 차동 코딩 모드를 사용하고 및 공존 규칙에 따라 인트라 예측 모드를 선택적으로 사용하여 현재 비디오 블록과 현재 비디오 블록의 비트스트림 표현 사이의 변환을 수행하는 단계를 포함하고; 인트라 예측 모드는 현재 비디오 블록의 샘플에 대한 예측을 생성하는데 사용되고; 및 차동 코딩 모드는 차동 펄스 코딩 변조 표현을 사용하여 픽셀의 예측에서 양자화된 잔차 블록을 표현하는데 사용된다.
2. 예 1의 방법에 있어서, 인트라 예측 모드는 행렬 기반 인트라 예측 모드(MIP)이고, 공존 규칙은 MIP를 MIP의 허용된 모드 중 일부로 제한한다.
3.
예 2의 방법에 있어서, 허용된 모드의 일부는 수평 또는 수직 일반 인트라 모드를 포함한다.
예 1 내지 3의 추가 실시예는 항목 1, 섹션 4에 기술된다. 예를 들어, 차동 코딩 모드는 QR-BDPCM 코딩 모드의 현재 버전을 나타낼 수 있다.
4.
예 1의 방법에 있어서, 인트라 예측 모드는 수평이 아닌 또는 수직이 아닌 방향을 따른 예측을 포함한다.
5.
예 1 또는 4의 방법에 있어서, 여기서 인트라 예측 모드는 평면 또는 DC 예측 모드이다.
6. 예 1 또는 4의 방법에 있어서, 여기서 인트라 예측 모드는 수직 또는 수평 예측 모드이다.
7.
예 1 또는 4의 방법에 있어서, 여기서 인트라 예측 모드는 비트스트림 표현의 필드에 의해 식별된다.
8.
예 1 또는 4의 방법에 있어서, 인트라 예측 모드는 현재 비디오 블록 또는 이웃 블록의 블록 차원에 의존한다.
9.
예 1 또는 4의 방법에 있어서, 인트라 예측 모드는 현재 블록 또는 이웃 블록의 형태에 의존한다.
10. 예 1 또는 4의 방법에 있어서, 인트라 예측 모드는 현재 비디오 블록 또는 이웃 비디오 블록이 인터 예측 또는 인트라 예측을 사용하여 코딩 되는지 여부에 의존한다.
11. 예 1 또는 4의 방법에 있어서, 인트라 예측 모드는 이웃 비디오 블록이 차동 코딩 모드를 사용하여 코딩 되는지 여부에 의존한다.
12. 예 1 또는 4의 방법에 있어서, 인트라 예측 모드는 현재 비디오 블록 또는 이웃 비디오 블록에 사용되는 양자화 파라미터의 값에 의존한다.
13. 예 1 또는 4의 방법에 있어서, 여기서 인트라 예측 모드는 현재 비디오 블록을 코딩 하는데 사용되는 컬러 포멧에 의존한다.
14. 예 1 또는 4의 방법에 있어서, 인트라 예측 모드는 현재 비디오 블록을 코딩 하는데 별도의 또는 이중 코딩 트리 구조가 사용되는지 여부에 의존한다.
예 4 내지 14의 추가 실시예는 섹션 4 의 항목 2에 제공된다.
15.
예 1의 방법에 있어서, 현재 비디오 블록의 샘플에 대한 생성 예측은 이웃 비디오 영역의 인접하지 않은 샘플에서 수행된다.
16.
예 1의 방법에 있어서, 인트라 예측 모드는 인트라 블록 복사 병합 모드를 포함한다.
17.
예 1의 방법에 있어서, 인트라 예측 모드는 인트라 블록 복사 고급 모션 벡터 예측 모드를 포함한다.
18.
예 15 내지 17의 방법에 있어서, 여기서 인트라 예측 모드는 블록 벡터 또는 병합 인덱스로 표시된다.
예 15 내지 18의 추가 실시예는 섹션 4의 항목 3에 제공된다.
19.
예 1의 방법에 있어서, 공존 규칙은 비트스트림 표현의 필드에 기초하여 차동 코딩 모드에서 시그널링 된 인덱스에서 인트라 예측 모드로 매핑을 지정한다.
20.
예 1의 방법에 있어서, 공생 규칙은 현재 비디오 블록 또는 이웃 블록의 차원에 기초하여 차동 코딩 모드에서 시그널링 된 인덱스에서 인트라 예측 모드로 매핑을 지정한다.
21.
예 1의 방법에 있어서, 공존 규칙은 현재 비디오 블록 또는 이웃 블록의 형태에 기초하여 차동 코딩 모드에서 시그널링 된 인덱스에서 인트라 예측 모드로 매핑을 지정한다.
22.
예 1의 방법에 있어서, 공존 규칙은 현재 비디오 블록 또는 이웃 블록의 예측 모드에 기초하여 차동 코딩 모드에서 시그널링 된 인덱스에서 인트라 예측 모드로 매핑을 지정한다.
23.
예 1의 방법에 있어서, 공존 규칙은 현재 비디오 블록 또는 이웃 블록의 가장 가능성 있는 모드에 기초하여 차동 코딩 모드에서 시그널링 된 인덱스에서 인트라 예측 모드로 매핑을 지정한다.
24. 예 1의 방법에 있어서, 공존 규칙은 현재 비디오 블록 또는 이웃 블록의 모션 벡터에 기초하는 차동 코딩 모드에서 시그널링 된 인덱스에서 인트라 예측 모드로 매핑을 지정한다.
25. 예 1의 방법에 있어서, 공존 규칙은 차동 코딩 모드에서 시그널링 된 인덱스에서 차동 코딩 모드를 사용하여 이웃 블록이 코딩 되는지 여부에 따라 인트라 예측 모드로 매핑을 지정한다.
26. 예 1의 방법에 있어서, 공존 규칙은 현재 비디오 블록 또는 이웃 블록에 의해 사용되는 양자화 파라미터에 기초하여 차동 코딩 모드에서 시그널링 된 인덱스에서 인트라 예측 모드로 매핑을 지정한다.
27. 예 1의 방법에 있어서, 공존 규칙은 현재 비디오 블록의 컬러 포멧에 기초하여 차동 코딩 모드에서 시그널링 된 인덱스에서 인트라 예측 모드로 매핑을 지정한다.
28. 예 1의 방법에 있어서, 공존 규칙은 현재 비디오 블록에 의해 별도의 또는 이중 코딩 트리가 사용되는지 여부에 따라 차동 코딩 모드에서 시그널링 된 인덱스에서 인트라 예측 모드로 매핑을 지정한다.
29. 예 1의 방법에 있어서, 공존 규칙은 현재 비디오 블록에 적용된 변환에 기초하여 차동 코딩 모드에서 시그널링 된 인덱스에서 인트라 예측 모드로 매핑을 지정한다.
30. 예 1의 방법에 있어서, 공존 규칙은 분할형 또는 타일 그룹 유형 또는 현재 비디오 블록의 픽처 유형에 기초하여 차동 코딩 모드에서 시그널링 된 인덱스에서 인트라 예측 모드로 매핑을 지정한다.
예 19 내지 30의 추가 실시예는 섹션 4의 항목 2에서 제공된다.
31.
비디오 처리 방법에 있어서, 현재 비디오 블록의 픽셀 예측에서 양자화된 잔차 블록이 차동 펄스 코딩 변조 표현을 사용하여 표현되는 차동 코딩 모드를 사용하여 현재 비디오 블록과 현재 비디오 블록의 비트스트림 표현 사이의 변환을 수행하는 단계를 포함하고; 여기서 예측의 제1 방향 또는 차동 코딩 모드의 예측의 제2 방향은 비트스트림 표현에서 유추할 수 있다.
32. 예 31의 방법에 있어서, 픽셀 예측의 제1 방향은 예측에 사용되는 인트라 예측 모드에서 암시적으로 유추할 수 있다.
33.
예 32의 방법에 있어서, 차동 코딩 모드의 제2 방향은 예측의 제1 방향과 동일한 방향으로 유추할 수 있다.
34.
예 31의 방법에 있어서, 제2 방향은 예측에 사용되는 인트라 예측 모드에서 유추할 수 있다.
35.
예 31의 방법에 있어서, 제2 방향은 현재 비디오 블록 또는 이웃 블록의 차원 또는 현재 비디오 블록 또는 이웃 블록의 형태에서 유추할 수 있다.
36.
예 31의 방법에 있어서, 제2 방향은 이웃 블록의 모션 벡터에서 유추할 수 있다.
37. 예 31의 방법에 있어서, 제2 방향은 현재 비디오 블록 또는 이웃 블록의 가장 가능성 있는 모드에서 유추할 수 있다.
38. 예 31의 방법에 있어서, 제2 방향은 이웃 블록의 예측 모드에서 유추할 수 있다.
39. 예 31의 방법에 있어서, 제2 방향은 이웃 블록의 인트라 예측 모드에서 유추할 수 있다.
40. 예 31의 방법에 있어서, 제2 방향은 이웃 블록이 차동 코딩 모드를 사용하는지 여부에서 유추할 수 있다.
예 31 내지 40의 추가 실시예는 섹션 4의 항목 4에 제공된다.
41.
비디오 처리 방법에 있어서, 적용성 규칙에 기초하여, 현재 비디오 블록과 현재 비디오 블록의 비트스트림 표현 사이의 변환에 차동 코딩 모드가 적용 가능하다고 결정하는 단계; 및 차동 코딩 모드를 사용하여 현재 비디오 블록과 비트스트림 표현 사이의 변환을 수행하는 단계를 포함하고, 여기서, 차동 코딩 모드에서, 현재 비디오 블록의 픽셀의 인트라 예측에서 양자화된 잔차 블록은 수평 또는 수직 방향과 상이한 잔차 예측 방향으로 수행되는 차동 펄스 코딩 변조 표현을 사용하여 표현된다.
42.
예 41의 방법에 있어서, 잔차 예측 방향은 45도 방향이다.
43.
예 41의 방법에 있어서, 잔차 예측 방향은 135도 방향이다.
44.
예 41의 방법에 있어서, 잔차 예측 방향은 비트스트림 표현의 필드 또는 현재 비디오 블록 또는 이웃 블록의 차원 또는 현재 비디오 블록 또는 이웃 블록의 형태와 관련된다.
예 41 내지 44의 추가 실시예는 섹션 4의 항목 6에서 제공된다.
45.
예 41의 방법에 있어서, 적용성 규칙은 크로마 블록인 현재 비디오 블록으로 인한 차동 코딩 모드를 사용하도록 지정한다.
46.
예 45의 방법에 있어서, 적용성 규칙은 현재 비디오 블록에 대한 잔차 예측 방향이 현재 비디오 블록에 대응하는 루마 블록과 동일한 방향임을 추가로 지정한다.
47.
예 41의 방법에 있어서, 적용성 규칙은 크로스 컴포넌트 선형 모델(CCLM) 코딩 모드를 사용하지 않는 현재 비디오 블록으로 인한 차동 코딩을 사용하도록 지정한다.
예 45 내지 47번의 추가 실시예는 섹션 4의 항목 7에 제공된다.
48.
예 41의 방법에 있어서, 적용성 규칙은 다른 컬러 컴포넌트에 대한 차동 코딩 모드의 적용가능성에서 한 컬러 컴포넌트에 대한 차동 코딩 모드의 적용가능성을 유도하도록 지정한다.
예 48의 추가 실시예는 섹션 4의 항목 12에서 제공된다.
49.
비디오 처리 방법에 있어서, 차동 코딩 모드가 현재 비디오 블록과 현재 비디오 블록의 비트스트림 표현 사이의 변환에 적용가능하다고 결정하는 단계; 및 차동 코딩 모드의 구현 규칙을 사용하여 현재 비디오 블록과 비트스트림 표현 사이의 변환을 수행하는 단계를 포함하고; 여기서, 차동 코딩 모드에서, 현재 비디오 블록의 픽셀의 인트라 예측에서 양자화된 잔차 블록은 수평 또는 수직 방향과 상이한 잔차 예측 방향으로 수행되는 차동 펄스 코딩 변조 표현을 사용하여 표현된다.
50.
예 49의 방법에 있어서, 구현 규칙은 양자화된 잔차 블록의 값을 제한하도록 지정한다.
51.
예 49의 방법에 있어서, 구현 규칙은 양자화된 잔차 블록을 얻기 위해 클리핑을 사용하도록 지정한다.
예 49 내지 51의 추가 실시예는 섹션 4의 항목 8에서 제공된다.
52.
예 49에 있어서, 구현 규칙은 현재 비디오 블록의 마지막 행에서 현재 비디오 블록의 첫 번째 행까지 예측을 수행하도록 지정한다.
53.
예 49의 방법에 있어서, 구현 규칙은 현재 비디오 블록의 마지막 열에서 현재 비디오 블록의 첫 번째 열까지 예측을 수행하도록 지정한다.
실시예 52~53의 추가 실시예는 섹션 4의 항목 9에 제공된다.
54.
예 49의 방법에 있어서, 구현 규칙은 현재 비디오 블록의 서브 세트에만 차동 코딩 모드를 적용하도록 지정한다.
55.
예 54의 방법에 있어서, 서브 세트는 k 개의 왼쪽 잔차 열을 제외하고, 여기서 k는 블록의 픽셀 너비보다 작은 정수이다.
56.
예 54의 방법에 있어서, 서브세트는 k 개의 상단 잔차 행을 제외하고, 여기서 k는 블록의 픽셀 높이보다 작은 정수이다.
예 54 내지 56의 추가 실시예는 섹션 4의 항목 10에서 제공된다.
57.
예 49의 방법에 있어서, 구현 규칙은 세그먼트별로 세그먼트에 차동 코딩 모드를 변환에 적용하도록 지정한다.
예제 57의 추가 실시예는 섹션 4의 항목 11에서 제공된다.
58.
예 1 내지 예 57 중 하나 이상을 구현하도록 구성된 프로세서를 포함하는 비디오 처리 장치.
59. 코드가 저장된 컴퓨터 판독 가능 매체에 있어서, 프로세서에 의해 실행될 때, 코드는 프로세서로 하여금 예 1 내지 예 57 중 어느 하나 이상에서 인용된 방법을 구현하게 한다.
본 문서의 예제 목록에서, 변환이라는 용어는 현재 비디오 블록에 대한 비트스트림 표현의 생성 또는 비트스트림 표현에서 현재 비디오 블록을 생성하는 것을 지칭할 수 있다. 비트스트림 표현은 연속적인 비트 그룹을 나타낼 필요가 없으며 헤더 필드 또는 코딩 된 픽셀 값 정보를 나타내는 코드워드에 포함된 비트로 나눌 수 있다.
위의 예에서, 적용성 규칙은 미리 정의되고 인코더 및 디코더에게 알려질 수 있다.
본 문서에 개시된 기술은 인트라 코딩에서 차동 코딩 모드의 사용에 관한 고려 사항의 다양한 구현 규칙의 사용을 포함하는 기법을 사용하여 압축 효율을 개선하기 위해 비디오 인코더 또는 디코더에서 구현될 수도 있다는 것을 이해할 것이다.
본 문서에 기재된 개시 및 기타 솔루션, 예, 실시예, 모듈 및 기능적 연산은 디지털 전자 회로, 또는 컴퓨터 소프트웨어, 펌웨어 또는 하드웨어에서 구현될 수 있으며, 여기에는 이 문서 및 그 구조적 등가물 또는 그 중 하나 이상의 조합으로 구현될 수 있다. 개시된 실시예 및 다른 실시예는 하나 이상의 컴퓨터 프로그램 제품, 즉, 데이터 처리 장치에 의해 실행되거나 데이터 처리 장치의 동작을 제어하기 위해 컴퓨터 판독 가능 매체 상에 인코딩된 컴퓨터 프로그램 명령의 하나 이상의 모듈로서 구현될 수 있다. 컴퓨터 판독 가능 매체는 기계가 읽을 수 있는 저장 장치, 기계가 읽을 수 있는 스토리지 기판, 메모리 장치, 기계가 읽을 수 있는 전파 신호에 영향을 미치는 물질의 조성 또는 하나 이상의 조합일 수 있다. 용어 "데이터 처리 장치"는 예를 들어 프로그래밍 가능한 프로세서, 컴퓨터 또는 다중 프로세서 또는 컴퓨터를 포함하여 데이터를 처리하기 위한 모든 장치, 장치 및 컴퓨터를 포함한다. 이 장치에는 해당 컴퓨터 프로그램에 대한 실행 환경을 만드는 코드(예를 들어, 프로세서 펌웨어, 프로토콜 스택, 데이터베이스 관리 시스템, 운영 체제 또는 하나 이상의 조합)가 포함될 수 있다. 전파된 신호는 인위적으로 생성된 신호, 예를 들어, 기계에서 생성된 전기, 광학 또는 전자기 신호이고, 이는 적합한 수신기 장치로 전송하기 위한 정보를 인코딩 하는데 생성된다.
컴퓨터 프로그램(프로그램, 소프트웨어, 소프트웨어 응용 프로그램, 스크립트 또는 코드라고도 함)은 컴파일된 언어를 비롯한 모든 형태의 프로그래밍 언어로 작성할 수 있으며 독립 실행형 프로그램또는 컴퓨팅 환경에서 사용하기에 적합한 모듈, 구성 요소, 서브루틴 또는 기타 단위로 모든 형태로 배포할 수 있다. 컴퓨터 프로그램이 파일 시스템의 파일에 반드시 해당되는 것은 아니다. 프로그램은 다른 프로그램 이나 데이터(예를 들어, 마크업 언어 문서에 저장된 하나 이상의 스크립트), 해당 프로그램에 전념하는 단일 파일 또는 여러 조정된 파일(예를 들어, 하나 이상의 모듈, 서브 프로그램 또는 코드 일부를 저장하는 파일)에 저장할 수 있다. 컴퓨터 프로그램은 한 컴퓨터 또는 한 사이트에 위치하거나 여러 사이트에 분산되고 통신 네트워크에 의해 상호 연결된 여러 컴퓨터에서 실행하도록 배포할 수 있다.
이 문서에 기술된 프로세스 및 논리 흐름은 입력 데이터에 대해 작동하고 출력을 생성함으로써 기능을 수행하기 위해 하나 이상의 컴퓨터 프로그램을 실행하는 하나 이상의 프로그래머블 프로세서에 의해 수행될 수 있다. 프로세스 및 로직 흐름도 수행될 수 있으며, 장치는 특수 목적 논리 회로, 예를 들어 FPGA(필드 프로그래밍 가능한 게이트 어레이) 또는 ASIC(응용 프로그램 별 집적 회로)로 구현될 수 있다.
컴퓨터 프로그램의 실행에 적합한 프로세서에는 예를 들어 일반 및 특수 목적 마이크로프로세서와 모든 종류의 디지털 컴퓨터의 하나 이상의 프로세서가 포함된다. 일반적으로 프로세서는 읽기 전용 메모리 또는 랜덤 액세스 메모리 또는 둘 다에서 지침과 데이터를 수신한다. 컴퓨터의 필수 요소는 명령을 수행하기 위한 프로세서와 명령 및 데이터를 저장하기 위한 하나 이상의 메모리 장치이다. 일반적으로, 컴퓨터는 또한 데이터를 저장하기 위한 하나 이상의 대용량 저장 장치, 예를 들어 자기, 광자기 디스크 또는 광 디스크에서 데이터를 수신하거나 이들로 데이터를 전송하거나 둘 모두를 포함하거나 작동 가능하게 연결된다. 그러나 컴퓨터에 이러한 장치가 필요하지 않는다. 컴퓨터 프로그램 명령 및 데이터를 저장하기에 적합한 컴퓨터 판독 가능 매체는 모든 형태의 비휘발성 메모리, 매체 및 메모리 장치를 포함하고, 예를 들어 반도체 메모리 장치, 예를 들어 EPROM, EEPROM 및 플래시 메모리 장치를 포함하고; 자기 디스크, 예를 들어 내부 하드 디스크 또는 이동식 디스크; 자기 광 디스크; 및 CD ROM 및 DVD-ROM 디스크를 포함한다. 프로세서와 메모리는 특수 목적 논리 회로에 의해 보충되거나 통합될 수 있다.
이 특허 문서에는 많은 세부 사항이 포함되어 있지만, 이는 청구 대상 또는 청구될 수 있는 항목의 범위에 대한 제한으로 해석되어서는 안 되며 오히려 특정 기술의 특정 실시예에 특정할 수 있는 기능에 대한 기술로 해석되어서는 안 된다. 이 특허 문서에 기재된 특정 특징은 별도의 실시예의 맥락에서 또한 단일 실시예에서 조합하여 구현될 수 있다. 반대로, 단일 실시예의 문맥상에 기재되는 다양한 특징은 또한 다중 실시예에서 개별적으로 또는 임의의 적합한 서브 조합에서 구현될 수 있다. 또한, 특징은 특정 조합으로 작용하는 것으로 위에서 기술될 수 있고 초기에 그렇게 주장될 수 있지만, 청구된 조합의 하나 이상의 특징은 일부 경우에 조합에서 제거될 수 있으며 청구된 조합은 하위 조합 또는 하위 조합의 변형에 관한 것일 수 있다.
마찬가지로, 작업은 특정 순서로 도면에 묘사되는 동안, 이러한 작업이 표시된 특정 순서 또는 순차순서로 수행되거나, 모든 일러스트레이션 작업을 수행하여 바람직한 결과를 달성하도록 요구하는 것으로 이해되어서는 안 된다. 또한, 본 특허 문서에 기재된 실시예에서 다양한 시스템 성분의 분리는 모든 실시예에서 이러한 분리를 요구하는 것으로 이해되어서는 안 된다.
몇 가지 구현 및 예제만 기술되며 이 특허 문서에 기술되고 기술된 내용에 따라 다른 구현, 개선 및 변형을 만들 수 있다.
Claims (110)
- 비디오 처리 방법에 있어서,
적용성 규칙에 기초하여, 차동 코딩 모드가 비디오의 크로마 비디오 블록과 상기 크로마 비디오 블록의 비트스트림 표현 사이의 변환에 적용 가능하다고 결정하는 단계, 및
상기 결정하는 단계에 기초하여, 상기 차동 코딩 모드를 사용하여 상기 크로마 비디오 블록과 상기 크로마 비디오 블록의 상기 비트스트림 표현 사이의 상기 변환을 수행하는 단계를 포함하고,
상기 차동 코딩 모드에서, 상기 크로마 비디오 블록은 상기 크로마 비디오 블록의 인트라 예측의 양자화된 잔차와 상기 양자화된 잔차의 예측 사이의 차이를 사용하여 상기 비트스트림 표현에 표현되고,
상기 인트라 예측이 제1 방향으로 수행되고 상기 양자화된 잔차의 예측이 제2 방향으로 수행되고, 및
상기 차동 코딩 모드에서, 상기 양자화된 잔차와 상기 양자화된 잔차의 예측 사이의 차이는 차동 펄스 코딩 변조(DPCM) 표현을 사용하여 표현되는
방법.
- 제1항에 있어서,
상기 제1 방향 또는 상기 제2 방향은 수직 방향 및 수평 방향에서 결정되는
방법.
- 제1항에 있어서,
상기 인트라 예측은 상기 크로마 비디오 블록에 대응하는 루마 비디오 블록에 대해 수행되는 상기 인트라 예측에 사용되는 것과 동일한 상기 제1 방향으로 수행되는
방법.
- 제1항에 있어서,
루마 비디오 블록에 대해 허용된 인트라 예측 모드는 상기 루마 비디오 블록에 대응하는 상기 크로마 비디오 블록에 대해 상기 인트라 예측을 수행하는 데 사용되는 것과 동일한
방법.
- 제1항에 있어서,
상기 크로마 비디오 블록의 상기 양자화된 잔차에 대해 허용되는 상기 제2 방향은 상기 크로마 비디오 블록에 대응하는 루마 비디오 블록의 다른 양자화된 잔차에 대해 사용되는 방향과 동일한
방법.
- 제1항에 있어서,
상기 양자화된 잔차의 예측에 사용되는 상기 제2 방향은 상기 크로마 비디오 블록에 대응하는 루마 비디오 블록에 대해 추가 양자화된 잔차가 예측되는 상기 제2 방향에 기초하는
방법.
- 제6항에 있어서,
상기 루마 비디오 블록은 상기 크로마 비디오 블록과 함께 병치되는
방법.
- 제6항에 있어서,
상기 루마 비디오 블록은 상기 크로마 비디오 블록의 좌측 상단 모서리에 위치한 제2 샘플과 함께 배치된 제1 샘플을 포함하는
방법.
- 제6항에 있어서,
상기 루마 비디오 블록은 상기 크로마 비디오 블록의 중앙에 위치한 제2 샘플과 함께 병치된 제1 샘플을 포함하는
방법.
- 제1항에 있어서,
상기 적용성 규칙은 상기 크로마 비디오 블록이 크로스 컴포넌트 선형 모델(CCLM) 코딩 모드로 코딩 될 때 상기 차동 코딩 모드가 상기 크로마 비디오 블록에 적용되지 않는다고 지정하는
방법.
- 제1항에 있어서,
상기 적용성 규칙은 상기 크로마 비디오 블록이 크로스 컴포넌트 선형 모델(CCLM) 코딩 모드로 코딩 될 때 상기 크로마 비디오 블록에 상기 차동 코딩 모드가 적용되도록 지정하는
방법.
- 제1항에 있어서,
상기 적용성 규칙은 상기 크로마 비디오 블록이 조인트 크로마 잔차 코딩 기술로 코딩 될 때 상기 차동 코딩 모드가 상기 크로마 비디오 블록에 적용되지 않는다고 지정하는
방법.
- 제1항 내지 제12항 중 어느 한 항에 있어서,
상기 크로마 비디오 블록은 파란색 컴포넌트 또는 빨간색 컴포넌트와 연관되는
방법.
- 제13항에 있어서,
차동 코딩 모드 및 공존 규칙에 기초한 인트라 예측 모드를 사용하여 비디오의 현재 비디오 블록과 상기 현재 비디오 블록의 비트스트림 표현 사이의 변환을 수행하는 단계를 포함하고,
상기 인트라 예측 모드에서, 상기 현재 비디오 블록의 인트라 예측의 양자화된 잔차는 상기 현재 비디오 블록에 대한 샘플의 예측에 기초하고,
상기 차동 코딩 모드에서, 상기 현재 비디오 블록은 상기 양자화된 잔차와 상기 양자화된 잔차의 예측 사이의 차이를 사용하여 상기 비트스트림 표현에서 표현되고, 및
상기 양자화된 잔차와 상기 양자화된 잔차의 예측 사이의 차이는 차동 펄스 코딩 변조(DPCM) 표현을 사용하여 표현되는
방법.
- 제14항에 있어서,
상기 인트라 예측 모드는 상기 현재 비디오 블록에 대한 상기 샘플의 예측이, 상기 비디오의 이전에 코딩 된 샘플에 대해, 경계 다운 샘플링 작업, 후속하는 행렬 벡터 곱셈 작업, 및 선택적으로 후속하는 업 샘플링 작업을 수행하여 결정되는 행렬 기반 인트라 예측 모드(MIP) 인
방법.
- 제15항에 있어서,
상기 공존 규칙은 상기 MIP 모드를 상기 MIP 모드에 대해 복수의 허용된 모드 중 일부로 제한하는
방법.
- 제16항에 있어서,
상기 복수의 허용된 모드 중 일부는 수평 인트라 모드 및/또는 수직 인트라 모드를 포함하는
방법.
- 제16항에 있어서,
상기 복수의 허용된 모드 중 일부는 수평 인트라 모드 및/또는 수직 인트라 모드만을 포함하는
방법.
- 제15항에 있어서,
상기 공존 규칙은 상기 MIP 모드가 상기 MIP 모드에 대해 허용된 모든 모드를 지원한다는 것을 표시하는
방법.
- 제14항에 있어서,
상기 인트라 예측 모드에서, 상기 현재 비디오 블록에 대한 샘플의 예측은 수평이 아닌 방향 또는 수직이 아닌 방향을 따라 예측을 수행하여 결정되는
방법.
- 제20항에 있어서,
상기 인트라 예측 모드는 평면 또는 DC 예측 모드인
방법.
- 제20항에 있어서,
상기 인트라 예측 모드는 수직 예측 모드 또는 수평 예측 모드인
방법.
- 제20항에 있어서,
상기 인트라 예측 모드는 가장 가능성 있는 모드(MPM) 목록에서 선택되는
방법.
- 제20항에 있어서,
상기 인트라 예측 모드는 상기 비트스트림 표현의 필드에 의해 식별되는
방법.
- 제20항에 있어서,
상기 인트라 예측 모드는 복수의 허용된 인트라 예측 모드에서 선택되는
방법.
- 제25항에 있어서,
상기 복수의 허용된 인트라 예측 모드는: 시퀀스 파라미터 세트(SPS), 비디오 파라미터 세트(VPS), 픽처 파라미터 세트(PPS), 픽처 헤더, 슬라이스 헤더, 타일 그룹 헤더, 최대 코딩 유닛(LCU) 행, 또는 LcU의 그룹에서 시그널링 된 메시지에 표시되는
방법.
- 제25항에 있어서,
상기 복수의 허용된 인트라 예측 모드는 상기 현재 비디오 블록 또는 상기 현재 비디오 블록의 이웃 비디오 블록 중 하나의 블록 차원에 기초하는
방법.
- 제25항에 있어서,
상기 복수의 허용된 인트라 예측 모드는 상기 현재 비디오 블록 또는 상기 현재 비디오 블록의 이웃 비디오 블록 중 하나의 형태에 기초하는
방법.
- 제25항에 있어서,
상기 복수의 허용된 인트라 예측 모드는 상기 현재 비디오 블록의 이웃 비디오 블록의 인트라 예측 모드에 기초하는
방법.
- 제25항에 있어서,
상기 복수의 허용된 인트라 예측 모드는 상기 현재 비디오 블록의 이웃 비디오 블록의 인터 예측 모드에 기초하는
방법.
- 제25항에 있어서,
상기 복수의 허용된 인트라 예측 모드는 상기 현재 비디오 블록의 이웃 비디오 블록이 상기 차동 코딩 모드를 사용하여 코딩 되는지 여부의 표시에 기초하는
방법.
- 제25항에 있어서,
상기 복수의 허용된 인트라 예측 모드는 상기 현재 비디오 블록 또는 상기 현재 비디오 블록의 이웃 비디오 블록에 대해 사용되는 양자화 파라미터의 값에 기초하는
방법.
- 제25항에 있어서,
상기 복수의 허용된 인트라 예측 모드는 상기 현재 비디오 블록을 코딩 하는데 사용되는 컬러 포멧에 기초하는
방법.
- 제25항에 있어서,
상기 복수의 허용된 인트라 예측 모드는 상기 현재 비디오 블록을 코딩 하는데 별도의 또는 이중 코딩 트리 구조가 사용되는지 여부에 기초하는
방법.
- 제25항에 있어서,
상기 복수의 허용된 인트라 예측 모드는 상기 현재 비디오 블록과 연관된 슬라이스 또는 타일 그룹 유형 또는 픽처 유형에 기초하는
방법.
- 제14항에 있어서,
상기 인트라 예측 모드에서, 상기 현재 비디오 블록에 대한 샘플의 예측은 상기 현재 비디오 블록의 이웃 비디오 블록의 인접하지 않은 샘플에서 결정되는
방법.
- 제36항에 있어서,
상기 인트라 예측 모드는 인트라 블록 복사 병합 모드를 포함하고, 상기 공존 규칙은 IBC 병합 모드에 대해 상기 차동 코딩 모드가 활성화되어 있음을 표시하는
방법.
- 제36항에 있어서,
상기 인트라 예측 모드는 인트라 블록 복사 고급 모션 벡터 예측 모드를 포함하고, 상기 공존 규칙은 상기 차동 코딩 모드가 상기 인트라 블록 복사 고급 모션 벡터 예측 모드에 대해 활성화되어 있음을 표시하는
방법.
- 제36항에 있어서,
상기 인트라 예측 모드는 인트라 블록 복사 모드로 구성되고,
상기 인트라 블록 복사 모드 및 상기 차동 코딩 모드에 사용되는 모션 벡터는 상기 비트스트림 표현의 필드로 표시되거나, 유도되거나, 미리 정의되는
방법.
- 제39항에 있어서,
상기 인트라 블록 복사 모드는 상기 모션 벡터 및/또는 병합 인덱스로 표시되는
방법.
- 제39항에 있어서,
상기 인트라 블록 복사 모드는 기본 모션 벡터로 표시되는
방법.
- 제41항에 있어서,
상기 기본 모션 벡터는 (-w, 0)이고, w는 양의 정수인
방법.
- 제41항에 있어서,
상기 기본 모션 벡터는 (0, -h)이고, h는 양의 정수인
방법.
- 제41항에 있어서,
상기 기본 모션 벡터는 (-w, -h)이고, w 및 h는 두 개의 양의 정수인
방법.
- 제39항에 있어서,
상기 모션 벡터를 표시하는 상기 필드는: 시퀀스 파라미터 세트(SPS), 비디오 파라미터 세트(VPS), 픽처 파라미터 세트(PPS), 픽처 헤더, 슬라이스 헤더, 타일 그룹 헤더, 최대 코딩 유닛(LCU) 행, 또는 LcU의 그룹에서 시그널링 된 메시지에 포함되는
방법.
- 제39항에 있어서,
상기 필드에 표시된 상기 모션 벡터는 상기 현재 비디오 블록 또는 상기 현재 비디오 블록의 이웃 비디오 블록 중 하나의 블록 차원에 기초하는
방법.
- 제39항에 있어서,
상기 필드에 표시된 상기 모션 벡터는 상기 현재 비디오 블록 또는 상기 현재 비디오 블록의 이웃 비디오 블록의 형태에 기초하는
방법.
- 제39항에 있어서,
상기 필드에 표시된 상기 모션 벡터는 상기 현재 비디오 블록의 이웃 비디오 블록의 인터 예측 모드 또는 인트라 예측 모드에 기초하는
방법.
- 제39항에 있어서,
상기 필드에 표시된 상기 모션 벡터는 상기 현재 비디오 블록의 이웃 비디오 블록의 모션 벡터에 기초하는
방법.
- 제39항에 있어서,
상기 필드에 표시된 상기 모션 벡터는 상기 현재 비디오 블록의 이웃 비디오 블록이 상기 차동 코딩 모드를 사용하여 코딩 되는지 여부의 표시에 기초하는
방법.
- 제39항에 있어서,
상기 필드에 표시된 상기 모션 벡터는 상기 현재 비디오 블록 또는 상기 현재 비디오 블록의 이웃 비디오 블록의 양자화 파라미터의 값에 기초하는
방법.
- 제39항에 있어서,
상기 필드에 표시된 상기 모션 벡터는 상기 현재 비디오 블록을 코딩 하는데 사용되는 컬러 포멧에 기초하는
방법.
- 제39항에 있어서,
상기 필드에 표시된 상기 모션 벡터는 상기 현재 비디오 블록의 코딩 하는데 별도의 또는 이중 코딩 트리 구조가 사용되는지 여부에 기초하는
방법.
- 제39항에 있어서,
상기 필드에 표시된 상기 모션 벡터는 상기 현재 비디오 블록과 연관된 슬라이스 또는 타일 그룹 유형 또는 픽처 유형에 기초하는
방법.
- 제36항에 있어서,
상기 인트라 예측 모드에서, 상기 현재 비디오 블록에 대한 샘플의 예측은 인터 예측 툴을 사용하여 상기 현재 비디오 블록의 이웃 비디오 블록의 인접하지 않은 샘플에서 결정되는
방법.
- 제14항에 있어서,
상기 공존 규칙은 상기 차동 코딩 모드와 연관된 시그널링 된 인덱스에서 상기 인트라 예측 모드로 매핑을 지정하는
방법.
- 제56항에 있어서,
상기 매핑은: 시퀀스 파라미터 세트(SPS), 비디오 파라미터 세트(VPS), 픽처 파라미터 세트(PPS), 픽처 헤더, 슬라이스 헤더, 타일 그룹 헤더, 최대 코딩 유닛(LCU) 행, 또는 LcU의 그룹에서 시그널링 된 메시지에 표시되는
방법.
- 제56항에 있어서,
상기 매핑은 상기 현재 비디오 블록 또는 상기 현재 비디오 블록의 이웃 비디오 블록 중 하나의 블록 차원에 기초하는
방법.
- 제56항에 있어서,
상기 매핑은 상기 현재 비디오 블록 또는 상기 현재 비디오 블록의 이웃 비디오 블록 중 어느 하나의 형태에 기초하는
방법.
- 제56항에 있어서,
상기 매핑은 상기 현재 비디오 블록 또는 상기 현재 비디오 블록의 이웃 비디오 블록의 가장 가능성 있는 모드(MPM)에 기초하는
방법.
- 제56항에 있어서,
상기 매핑은 상기 현재 비디오 블록의 이웃 비디오 블록의 인터 예측 모드 또는 인트라 예측 모드에 기초하는
방법.
- 제56항에 있어서,
상기 매핑은 상기 현재 비디오 블록의 이웃 비디오 블록의 모션 벡터에 기초하는
방법.
- 제56항에 있어서,
상기 매핑은 상기 현재 비디오 블록의 이웃 비디오 블록이 상기 차동 코딩 모드를 사용하여 코딩 되는지 여부의 표시에 기초하는
방법.
- 제56항에 있어서,
상기 매핑은 상기 현재 비디오 블록의 양자화 파라미터 또는 상기 현재 비디오 블록의 이웃 비디오 블록의 값에 기초하는
방법.
- 제56항에 있어서,
상기 매핑은 상기 현재 비디오 블록을 코딩 하는데 사용되는 컬러 포멧에 기초하는
방법.
- 제56항에 있어서,
상기 매핑은 상기 현재 비디오 블록을 코딩 하는데 별도의 또는 이중 코딩 트리 구조가 사용되는지 여부에 기초하는
방법.
- 제56항에 있어서,
상기 매핑은 상기 현재 비디오 블록에 적용된 변환 유형에 기초하는
방법.
- 제56항에 있어서,
상기 매핑은 상기 현재 비디오 블록과 연관된 슬라이스 또는 타일 그룹 유형 또는 픽처 유형에 기초하는
방법.
- 제14항에 있어서,
상기 양자화된 잔차의 예측은 수평 방향 또는 수직 방향과 상이한 잔차 예측 방향으로 수행되는
방법.
- 제69항에 있어서,
상기 잔차 예측 방향은 45도 방향인
방법.
- 제69항에 있어서,
상기 잔차 예측 방향은 45도 방향인
방법.
- 제14항에 있어서,
상기 양자화된 잔차의 예측은 제1 값 및 제2 값에 기초하는 잔차 예측 방향으로 수행되는
방법.
- 제75항에 있어서,
m 및 n은 상기 비트스트림 표현에서 시그널링 되는
방법.
- 제75항에 있어서,
m 및 n은 정수인
방법.
- 제75항에 있어서,
m 및 n은: 시퀀스 파라미터 세트(SPS), 비디오 파라미터 세트(VPS), 픽처 파라미터 세트(PPS), 픽처 헤더, 슬라이스 헤더, 타일 그룹 헤더, 최대 코딩 유닛(LCU) 행, 또는 LcU의 그룹에 포함된 메시지에 표시되는
방법.
- 제75항에 있어서,
m은 i에 대한 상기 제3 값에 기초하고 n은 j에 대한 상기 제4 값에 기초하는
방법.
- 제75항에 있어서,
m에 대한 상기 제1 값 및 n에 대한 상기 제2 값은 상기 현재 비디오 블록 또는 상기 현재 비디오 블록의 이웃 비디오 블록 중 하나의 블록 차원에 기초하는
방법.
- 제75항에 있어서,
m에 대한 상기 제1 값과 n에 대한 상기 제2 값은 상기 현재 비디오 블록 또는 상기 현재 비디오 블록의 이웃 비디오 블록의 형태에 기초하는
방법.
- 제75항에 있어서,
m에 대한 상기 제1 값 및 n에 대한 상기 제2 값은 상기 현재 비디오 블록 또는 상기 현재 비디오 블록의 이웃 비디오 블록의 가장 가능성 있는 모드(MPM)에 기초하는
방법.
- 제75항에 있어서,
m에 대한 상기 제1 값 및 n에 대한 상기 제2 값은 상기 현재 비디오 블록의 이웃 비디오 블록의 인터 예측 모드 또는 인트라 예측 모드에 기초하는
방법.
- 제75항에 있어서,
m에 대한 상기 제1 값 및 n에 대한 상기 제2 값은 상기 현재 비디오 블록의 이웃 비디오 블록의 모션 벡터에 기초하는
방법.
- 제75항에 있어서,
m에 대한 상기 제1 값 및 n에 대한 상기 제2 값은 상기 현재 비디오 블록의 이웃 비디오 블록이 상기 차동 코딩 모드를 사용하여 코딩 되는지 여부의 표시에 기초하는
방법.
- 제75항에 있어서,
m에 대한 상기 제1 값 및 n에 대한 상기 제2 값은 상기 현재 비디오 블록의 양자화 파라미터 또는 상기 현재 비디오 블록의 이웃 비디오 블록의 값에 기초하는
방법.
- 제75항에 있어서,
m에 대한 상기 제1 값 및 n에 대한 상기 제2 값은 상기 현재 비디오 블록을 코딩 하는데 사용되는 컬러 포멧에 기초하는
방법.
- 제75항에 있어서,
m에 대한 상기 제1 값 및 n에 대한 상기 제2 값은 상기 현재 비디오 블록을 코딩 하는데 별도의 또는 이중 코딩 트리 구조가 사용되는지 여부에 기초하는
방법.
- 제75항에 있어서,
m에 대한 상기 제1 값 및 n에 대한 상기 제2 값은 상기 현재 비디오 블록과 연관된 슬라이스 또는 타일 그룹 유형 또는 픽처 유형에 기초하는
방법.
- 비디오 처리 방법에 있어서,
현재 비디오 블록이 상기 현재 비디오 블록의 인트라 예측의 양자화된 잔차와 상기 양자화된 잔차의 예측 사이의 차이를 사용하여 비트스트림 표현으로 표현되는 차동 코딩 모드를 사용하여 비디오의 상기 현재 비디오 블록과 상기 현재 비디오 블록의 상기 비트스트림 표현 사이의 변환을 수행하는 단계를 포함하고,
상기 양자화된 잔차의 예측 방향은 상기 비트스트림 표현에서 유추할 수 있는
방법.
- 제90항에 있어서,
상기 양자화된 잔차의 예측 방향은 상기 인트라 예측에 사용되는 상기 인트라 예측 모드에서 암시적으로 유추할 수 있는
방법.
- 제91항에 있어서,
상기 양자화된 잔차의 예측 방향은 상기 인트라 예측 모드에 사용되는 방향과 동일한 방향으로 유추할 수 있는
방법.
- 제92항에 있어서,
상기 방향은 수직 또는 수평인
방법.
- 제91항에 있어서,
상기 양자화된 잔차의 예측 방향은 상기 인트라 예측 모드에 사용되는 제2 방향과 상이한 제1 방향인 것으로 유추할 수 있는
방법.
- 제94항에 있어서,
상기 제1 방향은 수직이고 상기 제2 방향은 수평인
방법.
- 제94항에 있어서,
상기 제1 방향은 수평이고 상기 제2 방향은 수직인
방법.
- 제90항에 있어서,
상기 양자화된 잔차의 예측 방향은: 시퀀스 파라미터 세트(SPS), 비디오 파라미터 세트(VPS), 픽처 파라미터 세트(PPS), 픽처 헤더, 슬라이스 헤더, 타일 그룹 헤더, 최대 코딩 유닛(LCU) 행, 또는 LCU의 그룹에서 시그널링 된 메시지에 기초하여 유추할 수 있는
방법.
- 제90항에 있어서,
상기 양자화된 잔차의 예측 방향은 상기 현재 비디오 블록 또는 상기 현재 비디오 블록의 이웃 비디오 블록 중 하나의 블록 차원에 기초하여 유추할 수 있는
방법.
- 제90항에 있어서,
상기 양자화된 잔차의 예측 방향은 상기 현재 비디오 블록 또는 상기 현재 비디오 블록의 이웃 비디오 블록의 형태에 기초하여 유추할 수 있는
방법.
- 제90항에 있어서,
상기 양자화된 잔차의 예측 방향은 상기 현재 비디오 블록 또는 상기 현재 비디오 블록의 이웃 비디오 블록의 가장 가능성 있는 모드(MPM)에 기초하여 유추할 수 있는
방법.
- 제90항에 있어서,
상기 양자화된 잔차의 예측 방향은 상기 현재 비디오 블록의 이웃 비디오 블록의 인터 예측 모드 또는 인트라 예측 모드에 기초하여 유추할 수 있는
방법.
- 제90항에 있어서,
상기 양자화된 잔차의 예측 방향은 상기 현재 비디오 블록의 이웃 비디오 블록의 모션 벡터에 기초하여 유추할 수 있는
방법.
- 제90항에 있어서,
상기 양자화된 잔차의 예측 방향은 상기 현재 비디오 블록의 이웃 비디오 블록이 상기 차동 코딩 모드를 사용하여 코딩 되는지 여부의 표시에 기초하여 유추할 수 있는
방법.
- 제90항에 있어서,
상기 양자화된 잔차의 예측 방향은 상기 현재 비디오 블록 또는 상기 현재 비디오 블록의 이웃 비디오 블록의 양자화 파라미터의 값에 기초하여 유추할 수 있는
방법.
- 제90항에 있어서,
상기 양자화된 잔차의 예측 방향은 상기 현재 비디오 블록을 코딩 하는데 사용되는 컬러 포멧에 기초하여 유추할 수 있는
방법.
- 제90항에 있어서,
상기 양자화된 잔차의 예측 방향은 상기 현재 비디오 블록을 코딩 하는데 별도의 또는 이중 코딩 트리 구조가 사용되는지 여부에 기초하여 유추할 수 있는
방법.
- 제90항에 있어서,
상기 양자화된 잔차의 예측 방향은 상기 현재 비디오 블록에 적용된 변환 유형에 기초하여 유추할 수 있는
방법.
- 제90항에 있어서,
상기 양자화된 잔차의 예측 방향은 상기 현재 비디오 블록과 연관된 슬라이스 또는 타일 그룹 유형 또는 픽처 유형에 기초하여 유추할 수 있는
방법.
- 제1항 내지 제108항 중 어느 하나 이상을 구현하도록 구성된 프로세서를 포함하는 비디오 처리 장치.
- 프로세서에 의해 실행될 때, 상기 프로세서로 하여금 제1항 내지 제108항 중 어느 한 항에 기재된 방법을 구현하게 하는 코드가 저장된 비일시적 컴퓨터 판독 가능 매체.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN2019084008 | 2019-04-24 | ||
CNPCT/CN2019/084008 | 2019-04-24 | ||
PCT/US2020/029598 WO2020219733A1 (en) | 2019-04-24 | 2020-04-23 | Quantized residual differential pulse code modulation representation of coded video |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20210154806A true KR20210154806A (ko) | 2021-12-21 |
KR102696039B1 KR102696039B1 (ko) | 2024-08-19 |
Family
ID=72940605
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020217032760A KR102696039B1 (ko) | 2019-04-24 | 2020-04-23 | 코딩 된 비디오의 양자화된 잔차 차동 펄스 코드 변조 표현 |
KR1020217032761A KR102630415B1 (ko) | 2019-04-24 | 2020-04-23 | 코딩 된 비디오의 양자화된 잔차 차동 펄스 코드 변조 표현의 제약 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020217032761A KR102630415B1 (ko) | 2019-04-24 | 2020-04-23 | 코딩 된 비디오의 양자화된 잔차 차동 펄스 코드 변조 표현의 제약 |
Country Status (11)
Country | Link |
---|---|
US (3) | US11438597B2 (ko) |
EP (2) | EP3942811A4 (ko) |
JP (3) | JP7311626B2 (ko) |
KR (2) | KR102696039B1 (ko) |
CN (3) | CN117255200A (ko) |
AU (1) | AU2020262284B2 (ko) |
CA (1) | CA3137163C (ko) |
MX (1) | MX2021012675A (ko) |
SG (1) | SG11202111530YA (ko) |
WO (2) | WO2020219733A1 (ko) |
ZA (1) | ZA202107948B (ko) |
Families Citing this family (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020180102A1 (ko) * | 2019-03-04 | 2020-09-10 | 엘지전자 주식회사 | 영상 코딩 시스템에서 컨텍스트 코딩된 사인 플래그를 사용하는 영상 디코딩 방법 및 그 장치 |
EP3942811A4 (en) | 2019-04-24 | 2022-06-15 | ByteDance Inc. | CONSTRAINTS ON THE REPRESENTATION OF A DIFFERENTIAL MODULATION BY CODED PULSES OF QUANTIFIED RESIDUE FOR A CODED VIDEO |
CN117857783A (zh) | 2019-05-01 | 2024-04-09 | 字节跳动有限公司 | 使用量化残差差分脉冲码调制编解码的帧内编解码视频 |
EP3949387A4 (en) | 2019-05-02 | 2022-05-18 | ByteDance Inc. | SIGNALING IN A TRANSFORM JUMP MODE |
CN117615130A (zh) | 2019-05-02 | 2024-02-27 | 字节跳动有限公司 | 基于编解码树结构类型的编解码模式 |
CN114175660A (zh) * | 2019-05-22 | 2022-03-11 | Lg电子株式会社 | 使用bdpcm的图像解码方法及其装置 |
CN117241014A (zh) * | 2019-06-05 | 2023-12-15 | 华为技术有限公司 | Mpm列表构建方法、色度块的帧内预测模式获取方法及装置 |
FR3098073B1 (fr) | 2019-06-25 | 2021-09-24 | Fond B Com | Procédé de codage et de décodage d’une image d’une séquence vidéo et dispositif associé |
CN117241033A (zh) | 2019-08-06 | 2023-12-15 | 北京字节跳动网络技术有限公司 | 使用屏幕内容编码工具进行视频编码和解码 |
CN114342400B (zh) * | 2019-09-02 | 2024-06-28 | 北京字节跳动网络技术有限公司 | 基于色彩格式的编解码模式确定 |
JP7332795B2 (ja) | 2019-09-21 | 2023-08-23 | 北京字節跳動網絡技術有限公司 | クロマ・イントラモードのベースとなるサイズ制約 |
JP7536484B2 (ja) * | 2020-03-18 | 2024-08-20 | キヤノン株式会社 | 画像符号化装置、画像符号化方法及びプログラム、画像復号装置、画像復号方法及びプログラム |
WO2023198075A1 (en) * | 2022-04-13 | 2023-10-19 | Beijing Bytedance Network Technology Co., Ltd. | Method, apparatus, and medium for video processing |
WO2023239347A1 (en) * | 2022-06-06 | 2023-12-14 | Google Llc | Enhanced multi-stage intra prediction |
WO2023237119A1 (en) * | 2022-06-10 | 2023-12-14 | Beijing Bytedance Network Technology Co., Ltd. | Method, apparatus, and medium for video processing |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20160100175A1 (en) * | 2014-10-06 | 2016-04-07 | Canon Kabushiki Kaisha | Residual colour transform signalled at sequence level for specific coding modes |
Family Cites Families (98)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11275592A (ja) * | 1998-01-22 | 1999-10-08 | Victor Co Of Japan Ltd | 動画像符号列変換装置及びその方法 |
KR100813963B1 (ko) | 2005-09-16 | 2008-03-14 | 세종대학교산학협력단 | 동영상의 무손실 부호화, 복호화 방법 및 장치 |
US8208545B2 (en) * | 2006-06-01 | 2012-06-26 | Electronics And Telecommunications Research Institute | Method and apparatus for video coding on pixel-wise prediction |
TW201028018A (en) | 2009-01-07 | 2010-07-16 | Ind Tech Res Inst | Encoder, decoder, encoding method and decoding method |
KR101379185B1 (ko) * | 2009-04-14 | 2014-03-31 | 에스케이 텔레콤주식회사 | 예측 모드 선택 방법 및 장치와 그를 이용한 영상 부호화/복호화 방법 및 장치 |
KR101483750B1 (ko) | 2009-07-24 | 2015-01-19 | 삼성전자주식회사 | 영상의 부호화 방법 및 장치, 영상 복호화 방법 및 장치 |
KR20110015356A (ko) | 2009-08-07 | 2011-02-15 | 한국전자통신연구원 | 차분 신호의 특성에 기반한 적응적인 변환 부호화/양자화 영역을 이용한 동영상 부호화/복호화 장치 및 그 방법 |
JP2011041037A (ja) | 2009-08-12 | 2011-02-24 | Sony Corp | 画像処理装置および方法 |
UA109312C2 (uk) * | 2011-03-04 | 2015-08-10 | Імпульсно-кодова модуляція з квантуванням при кодуванні відеоінформації | |
US8995523B2 (en) | 2011-06-03 | 2015-03-31 | Qualcomm Incorporated | Memory efficient context modeling |
US9253508B2 (en) * | 2011-11-04 | 2016-02-02 | Futurewei Technologies, Inc. | Differential pulse code modulation intra prediction for high efficiency video coding |
KR20130049523A (ko) | 2011-11-04 | 2013-05-14 | 오수미 | 인트라 예측 블록 생성 장치 |
US10390046B2 (en) | 2011-11-07 | 2019-08-20 | Qualcomm Incorporated | Coding significant coefficient information in transform skip mode |
KR101830352B1 (ko) | 2011-11-09 | 2018-02-21 | 에스케이 텔레콤주식회사 | 스킵모드를 이용한 동영상 부호화 및 복호화 방법 및 장치 |
US9621894B2 (en) | 2012-01-13 | 2017-04-11 | Qualcomm Incorporated | Determining contexts for coding transform coefficient data in video coding |
US9332259B2 (en) | 2012-01-18 | 2016-05-03 | Qualcomm Incorporated | Indication of use of wavefront parallel processing in video coding |
US9838684B2 (en) | 2012-04-11 | 2017-12-05 | Qualcomm Incorporated | Wavefront parallel processing for video coding |
US9621921B2 (en) | 2012-04-16 | 2017-04-11 | Qualcomm Incorporated | Coefficient groups and coefficient coding for coefficient scans |
CN104380734B (zh) | 2012-06-07 | 2017-09-15 | 寰发股份有限公司 | 编码以及解码视频数据的方法和装置 |
US9426466B2 (en) | 2012-06-22 | 2016-08-23 | Qualcomm Incorporated | Transform skip mode |
EP2869557B1 (en) | 2012-06-29 | 2023-08-09 | Electronics And Telecommunications Research Institute | Method and device for encoding/decoding images |
US9549182B2 (en) | 2012-07-11 | 2017-01-17 | Qualcomm Incorporated | Repositioning of prediction residual blocks in video coding |
US9264713B2 (en) | 2012-07-11 | 2016-02-16 | Qualcomm Incorporated | Rotation of prediction residual blocks in video coding with transform skipping |
US9407915B2 (en) | 2012-10-08 | 2016-08-02 | Google Inc. | Lossless video coding with sub-frame level optimal quantization values |
US20140286413A1 (en) * | 2013-03-25 | 2014-09-25 | Qualcomm Incorporated | Disabling sign data hiding in video coding |
CN113259683B (zh) | 2013-04-08 | 2024-08-23 | Ge视频压缩有限责任公司 | 分量间预测 |
US9667990B2 (en) | 2013-05-31 | 2017-05-30 | Qualcomm Incorporated | Parallel derived disparity vector for 3D video coding with neighbor-based disparity vector derivation |
US11323747B2 (en) * | 2013-06-05 | 2022-05-03 | Qualcomm Incorporated | Residual differential pulse code modulation (DPCM) extensions and harmonization with transform skip, rotation, and scans |
US9558567B2 (en) | 2013-07-12 | 2017-01-31 | Qualcomm Incorporated | Palette prediction in palette-based video coding |
US9648335B2 (en) | 2013-07-12 | 2017-05-09 | Qualcomm Incorporated | Bitstream restrictions on picture partitions across layers |
US11470339B2 (en) * | 2013-08-27 | 2022-10-11 | Qualcomm Incorporated | Residual prediction for intra block copying |
WO2015057438A1 (en) | 2013-10-14 | 2015-04-23 | Mediatek Singapore Pte. Ltd. | Method of residue differential pulse-code modulation for hevc range extension |
KR20150055858A (ko) | 2013-11-14 | 2015-05-22 | 삼성전자주식회사 | 차분 레지듀얼 신호를 이용한 비디오의 부호화 방법 및 장치, 그 복호화 방법 및 장치 |
GB201321851D0 (en) | 2013-12-10 | 2014-01-22 | Canon Kk | Run length parameters coding for palette mode |
TWI536811B (zh) * | 2013-12-27 | 2016-06-01 | 財團法人工業技術研究院 | 影像處理方法與系統、解碼方法、編碼器與解碼器 |
US20150189321A1 (en) | 2014-01-02 | 2015-07-02 | Mediatek Inc. | Method of Binarization and Context Adaptive Binary Arithmetic Coding of Depth Coding Syntax |
US9860540B2 (en) | 2014-01-03 | 2018-01-02 | Qualcomm Incorporated | Inference of nooutputofpriorpicsflag in video coding |
CN106105227B (zh) | 2014-03-16 | 2019-12-24 | Vid拓展公司 | 用于无损视频译码的信令的方法和设备 |
US9877035B2 (en) * | 2014-03-17 | 2018-01-23 | Qualcomm Incorporated | Quantization processes for residue differential pulse code modulation |
KR102298599B1 (ko) | 2014-04-29 | 2021-09-03 | 마이크로소프트 테크놀로지 라이센싱, 엘엘씨 | 샘플 적응 오프셋 필터링에 대한 인코더측 결정 |
EP3917146A1 (en) | 2014-09-30 | 2021-12-01 | Microsoft Technology Licensing, LLC | Rules for intra-picture prediction modes when wavefront parallel processing is enabled |
US9918105B2 (en) * | 2014-10-07 | 2018-03-13 | Qualcomm Incorporated | Intra BC and inter unification |
WO2016074147A1 (en) | 2014-11-11 | 2016-05-19 | Mediatek Singapore Pte. Ltd. | Separated coding tree for luma and chroma |
EP3032830A1 (en) * | 2014-12-08 | 2016-06-15 | Thomson Licensing | Differential coding of intra modes |
US10321140B2 (en) | 2015-01-22 | 2019-06-11 | Mediatek Singapore Pte. Ltd. | Method of video coding for chroma components |
US10924743B2 (en) | 2015-02-06 | 2021-02-16 | Microsoft Technology Licensing, Llc | Skipping evaluation stages during media encoding |
US10057574B2 (en) | 2015-02-11 | 2018-08-21 | Qualcomm Incorporated | Coding tree unit (CTU) level adaptive loop filter (ALF) |
US10659783B2 (en) | 2015-06-09 | 2020-05-19 | Microsoft Technology Licensing, Llc | Robust encoding/decoding of escape-coded pixels in palette mode |
WO2017041271A1 (en) | 2015-09-10 | 2017-03-16 | Mediatek Singapore Pte. Ltd. | Efficient context modeling for coding a block of data |
WO2017045101A1 (en) | 2015-09-14 | 2017-03-23 | Mediatek Singapore Pte. Ltd. | Advanced deblocking filter in video coding |
CN112565792B (zh) | 2015-10-19 | 2023-07-11 | 寰发股份有限公司 | 管理已解码图像缓存器的方法及装置 |
US10972731B2 (en) | 2015-11-10 | 2021-04-06 | Interdigital Madison Patent Holdings, Sas | Systems and methods for coding in super-block based video coding framework |
US10440399B2 (en) | 2015-11-13 | 2019-10-08 | Qualcomm Incorporated | Coding sign information of video data |
WO2017088093A1 (en) | 2015-11-23 | 2017-06-01 | Mediatek Singapore Pte. Ltd. | On the smallest allowed block size in video coding |
WO2017139937A1 (en) | 2016-02-18 | 2017-08-24 | Mediatek Singapore Pte. Ltd. | Advanced linear model prediction for chroma coding |
US11223852B2 (en) | 2016-03-21 | 2022-01-11 | Qualcomm Incorporated | Coding video data using a two-level multi-type-tree framework |
EP3446480A1 (en) * | 2016-04-22 | 2019-02-27 | VID SCALE, Inc. | Prediction systems and methods for video coding based on filtering nearest neighboring pixels |
EP3453173B1 (en) | 2016-05-05 | 2021-08-25 | InterDigital Madison Patent Holdings, SAS | Control-point based intra direction representation for intra coding |
WO2017194312A2 (en) * | 2016-05-13 | 2017-11-16 | Thomson Licensing | Method and apparatus for video coding with adaptive clipping |
RU2710667C1 (ru) | 2016-05-28 | 2019-12-30 | МедиаТек Инк. | Способ и устройство привязки к текущему изображению для кодирования видео |
CN116708777A (zh) | 2016-07-18 | 2023-09-05 | 韩国电子通信研究院 | 图像编码/解码方法和装置以及存储比特流的记录介质 |
US10390015B2 (en) | 2016-08-26 | 2019-08-20 | Qualcomm Incorporated | Unification of parameters derivation procedures for local illumination compensation and cross-component linear model prediction |
JP2018056685A (ja) * | 2016-09-27 | 2018-04-05 | 株式会社ドワンゴ | 画像符号化装置、画像符号化方法、及び画像符号化プログラム、並びに、画像復号装置、画像復号方法、及び画像復号プログラム |
CN109792516B (zh) * | 2016-10-04 | 2021-05-25 | 联发科技股份有限公司 | 图像和视频编解码中用于帧内色度编解码的方法及装置 |
US11025903B2 (en) * | 2017-01-13 | 2021-06-01 | Qualcomm Incorporated | Coding video data using derived chroma mode |
US10194147B2 (en) | 2017-01-19 | 2019-01-29 | Google Llc | DC coefficient sign coding scheme |
PL3477949T3 (pl) | 2017-02-06 | 2024-02-19 | Huawei Technologies Co., Ltd. | Sposób i urządzenie do dekodowania obrazu z zastosowaniem informacji o podziale jednostki drzewa kodowania |
US10779007B2 (en) | 2017-03-23 | 2020-09-15 | Mediatek Inc. | Transform coding of video data |
EP4415366A2 (en) | 2017-08-03 | 2024-08-14 | Sharp Kabushiki Kaisha | Systems and methods for partitioning video blocks in an inter prediction slice of video data |
WO2019029951A1 (en) | 2017-08-08 | 2019-02-14 | Thomson Licensing | METHOD AND APPARATUS FOR VIDEO ENCODING AND DECODING |
WO2019234669A1 (en) | 2018-06-07 | 2019-12-12 | Beijing Bytedance Network Technology Co., Ltd. | Signaled mv precision |
WO2019244117A1 (en) | 2018-06-21 | 2019-12-26 | Beijing Bytedance Network Technology Co., Ltd. | Unified constrains for the merge affine mode and the non-merge affine mode |
CN110636299B (zh) | 2018-06-21 | 2022-06-14 | 北京字节跳动网络技术有限公司 | 用于处理视频数据的方法、装置及计算机可读记录介质 |
US11973944B2 (en) | 2018-06-27 | 2024-04-30 | Electronics And Telecommunications Research Institute | Image encoding/decoding method and device, and recording medium in which bitstream is stored for block division at picture boundary |
CN115134599A (zh) | 2018-06-29 | 2022-09-30 | 抖音视界有限公司 | 更新查找表(lut)的条件 |
WO2020003261A1 (en) | 2018-06-29 | 2020-01-02 | Beijing Bytedance Network Technology Co., Ltd. | Selection from multiple luts |
JP7181395B2 (ja) | 2018-07-02 | 2022-11-30 | 北京字節跳動網絡技術有限公司 | イントラ予測モードを有するルックアップテーブルおよび非隣接ブロックからのイントラモード予測 |
CN113316931B (zh) | 2018-11-22 | 2024-04-12 | 北京字节跳动网络技术有限公司 | 视频处理中的脉冲编解码调制技术 |
JP2021513755A (ja) * | 2019-01-15 | 2021-05-27 | エルジー エレクトロニクス インコーポレイティド | 変換スキップフラグを利用した映像コーディング方法及び装置 |
US11012701B2 (en) * | 2019-02-22 | 2021-05-18 | Tencent America LLC | Residual coding for transform skip mode and block differential pulse-code modulation |
WO2020172668A1 (en) * | 2019-02-24 | 2020-08-27 | Tencent America LLC | Improved residual coding for transform skip mode and block differential pulse-code modulation |
US11825120B2 (en) | 2019-02-28 | 2023-11-21 | Qualcomm Incorporated | Subblock coding by generalized intra prediction in video coding |
WO2020175938A1 (ko) | 2019-02-28 | 2020-09-03 | 주식회사 엑스리스 | 영상 신호 부호화/복호화 방법 및 이를 위한 장치 |
WO2020180102A1 (ko) | 2019-03-04 | 2020-09-10 | 엘지전자 주식회사 | 영상 코딩 시스템에서 컨텍스트 코딩된 사인 플래그를 사용하는 영상 디코딩 방법 및 그 장치 |
US11202100B2 (en) | 2019-03-11 | 2021-12-14 | Qualcomm Incorporated | Coefficient coding for transform skip mode |
US11128876B2 (en) | 2019-03-12 | 2021-09-21 | Qualcomm Incorporated | Joint coefficient coding of transform skip and BDPCM mode for 4:4:4 color formats |
US11070812B2 (en) | 2019-03-12 | 2021-07-20 | Qualcomm Incorporated | Coefficient domain block differential pulse-code modulation in video coding |
US11451826B2 (en) | 2019-04-15 | 2022-09-20 | Tencent America LLC | Lossless coding mode and switchable residual coding |
WO2020213931A1 (ko) * | 2019-04-16 | 2020-10-22 | 엘지전자 주식회사 | 레지듀얼 계수의 차분 부호화를 이용한 영상 부호화/복호화 방법, 장치 및 비트스트림을 전송하는 방법 |
WO2020214980A1 (en) | 2019-04-19 | 2020-10-22 | Bytedance Inc. | Context coding for transform skip mode |
KR20210145123A (ko) | 2019-04-23 | 2021-12-01 | 주식회사 윌러스표준기술연구소 | 다중 변환 커널을 사용하는 비디오 신호 처리 방법 및 장치 |
CN113728640B (zh) | 2019-04-23 | 2024-08-02 | 北京字节跳动网络技术有限公司 | 帧内预测和残差编解码 |
EP3942811A4 (en) | 2019-04-24 | 2022-06-15 | ByteDance Inc. | CONSTRAINTS ON THE REPRESENTATION OF A DIFFERENTIAL MODULATION BY CODED PULSES OF QUANTIFIED RESIDUE FOR A CODED VIDEO |
US11190758B2 (en) | 2019-04-25 | 2021-11-30 | Qualcomm Incorporated | Block-based quantized residual domain pulse code modulation assignment for intra prediction mode derivation |
US11368721B2 (en) | 2019-04-30 | 2022-06-21 | Tencent America LLC | Method and apparatus for interaction between intra prediction mode and block differential pulse-code modulation mode |
CN117857783A (zh) | 2019-05-01 | 2024-04-09 | 字节跳动有限公司 | 使用量化残差差分脉冲码调制编解码的帧内编解码视频 |
EP3949387A4 (en) | 2019-05-02 | 2022-05-18 | ByteDance Inc. | SIGNALING IN A TRANSFORM JUMP MODE |
CN117615130A (zh) | 2019-05-02 | 2024-02-27 | 字节跳动有限公司 | 基于编解码树结构类型的编解码模式 |
-
2020
- 2020-04-23 EP EP20794622.9A patent/EP3942811A4/en active Pending
- 2020-04-23 MX MX2021012675A patent/MX2021012675A/es unknown
- 2020-04-23 AU AU2020262284A patent/AU2020262284B2/en active Active
- 2020-04-23 JP JP2021563150A patent/JP7311626B2/ja active Active
- 2020-04-23 WO PCT/US2020/029598 patent/WO2020219733A1/en unknown
- 2020-04-23 WO PCT/US2020/029603 patent/WO2020219737A1/en unknown
- 2020-04-23 CN CN202311463066.XA patent/CN117255200A/zh active Pending
- 2020-04-23 SG SG11202111530YA patent/SG11202111530YA/en unknown
- 2020-04-23 EP EP20794015.6A patent/EP3942820A4/en active Pending
- 2020-04-23 KR KR1020217032760A patent/KR102696039B1/ko active IP Right Grant
- 2020-04-23 CN CN202080030903.8A patent/CN113728642B/zh active Active
- 2020-04-23 JP JP2021562399A patent/JP7414843B2/ja active Active
- 2020-04-23 CN CN202080031685.XA patent/CN113906753B/zh active Active
- 2020-04-23 KR KR1020217032761A patent/KR102630415B1/ko active IP Right Grant
- 2020-04-23 CA CA3137163A patent/CA3137163C/en active Active
-
2021
- 2021-08-25 US US17/411,296 patent/US11438597B2/en active Active
- 2021-08-25 US US17/411,333 patent/US11431984B2/en active Active
- 2021-10-18 ZA ZA2021/07948A patent/ZA202107948B/en unknown
-
2022
- 2022-08-04 US US17/881,197 patent/US11985323B2/en active Active
-
2023
- 2023-12-07 JP JP2023206900A patent/JP2024026312A/ja active Pending
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20160100175A1 (en) * | 2014-10-06 | 2016-04-07 | Canon Kabushiki Kaisha | Residual colour transform signalled at sequence level for specific coding modes |
Non-Patent Citations (2)
Title |
---|
Kang (Qualcomm) J et al: "Explicit signaling for intra RDPCM", JCTVC-O0178, 2013.10.24. * |
Tan Y H et al: "Non-RCE3: Unified lossless residual coding", JCTVC-O0087, 2013.10.25. * |
Also Published As
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102696039B1 (ko) | 코딩 된 비디오의 양자화된 잔차 차동 펄스 코드 변조 표현 | |
KR102707777B1 (ko) | 양자화된 잔차 차동 펄스 코드 변조 코딩을 사용하는 인트라 코딩된 비디오 | |
JP2023120212A (ja) | 変換スキップモードにおける信号通知 | |
US11870996B2 (en) | Transform bypass coded residual blocks in digital video | |
RU2807214C2 (ru) | Ограничение представления дифференциальной импульсно-кодовой модуляции квантового остатка кодированного видео |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
A302 | Request for accelerated examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |