KR20210069715A - 비디오 인코딩 및 디코딩의 아핀 모드 시그널링 - Google Patents

비디오 인코딩 및 디코딩의 아핀 모드 시그널링 Download PDF

Info

Publication number
KR20210069715A
KR20210069715A KR1020217014053A KR20217014053A KR20210069715A KR 20210069715 A KR20210069715 A KR 20210069715A KR 1020217014053 A KR1020217014053 A KR 1020217014053A KR 20217014053 A KR20217014053 A KR 20217014053A KR 20210069715 A KR20210069715 A KR 20210069715A
Authority
KR
South Korea
Prior art keywords
cabac
mode
video data
affine
context
Prior art date
Application number
KR1020217014053A
Other languages
English (en)
Inventor
프랑크 갈핀
르안넥 파브리스 르
필립 보르드
Original Assignee
인터디지털 브이씨 홀딩스 인코포레이티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 인터디지털 브이씨 홀딩스 인코포레이티드 filed Critical 인터디지털 브이씨 홀딩스 인코포레이티드
Publication of KR20210069715A publication Critical patent/KR20210069715A/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/13Adaptive entropy coding, e.g. adaptive variable length coding [AVLC] or context adaptive binary arithmetic coding [CABAC]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/159Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/172Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • H04N19/463Embedding additional information in the video signal during the compression process by compressing encoding parameters before transmission
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
    • H04N19/91Entropy coding, e.g. variable length coding [VLC] or arithmetic coding

Abstract

일반적으로, 픽쳐 부분을 인코딩 또는 디코딩하는 것은, 아핀 모드의 사용을 나타내는 제1 플래그와 관련되는 제1 CABAC 확률 모델 및 아핀 모드 또는 아핀 모드와는 상이한 제2 모드 중 어느 하나의 사용을 나타내는 제2 플래그와 관련되는 제2 CABAC 확률 모델을 수반할 수 있는데, 여기서 제1 및 제2 CABAC 확률 모델은 상이하고 독립적으로 결정된다.

Description

비디오 인코딩 및 디코딩의 아핀 모드 시그널링
본 개시는 비디오 인코딩 및 디코딩을 수반한다.
높은 압축 효율성을 달성하기 위해, HEVC(High Efficiency Video Coding; 고효율 비디오 코딩) 표준에 의해 정의되는 것과 같은 이미지 및 비디오 코딩 스킴은 비디오 콘텐츠에서 공간 및 시간 중복성(redundancy)을 활용하기 위해 예측 및 변환 코딩을 일반적으로 활용한다. 일반적으로, 인트라 또는 인터 프레임 상관을 활용하기 위해 인트라 또는 인터 예측이 사용되며, 그 다음, 종종 예측 에러 또는 예측 잔차(prediction residual)로서 표시되는 원래의 블록과 예측된 블록 사이의 차이가 변환되고, 양자화되고, 그리고 엔트로피 코딩된다. 비디오를 재구성하기 위해, 압축된 데이터는 예측, 변환, 양자화, 및 엔트로피 코딩에 대응하는 역 프로세스에 의해 디코딩된다. 비디오 압축 기술에 대한 최근의 추가적인 사항은, 다양한 버전의 참조 소프트웨어(reference software) 및/또는 공동 비디오 탐구 팀(Joint Video Exploration Team; JVET)에 의해 개발되고 있는 공동 탐구 모델(Joint Exploration Model; JEM)의 문서를 포함한다. JEM과 같은 노력의 목적은 HEVC와 같은 현존하는 표준에 대한 추가적인 향상을 행하는 것이다.
일반적으로, 실시형태의 적어도 하나의 예는, 아핀 모드(affine mode)의 사용을 나타내는 제1 플래그와 관련되는 제1 CABAC 컨텍스트를 결정하는 것; 아핀 모드 또는 아핀 모드와는 상이한 제2 모드 중 어느 하나의 사용을 나타내는 제2 플래그와 관련되는 제2 CABAC 컨텍스트를 결정하는 것; 제1 CABAC 컨텍스트는 제1 CABAC 확률 모델에 대응함; 및 제2 CABAC 컨텍스트는 제1 CABAC 확률 모델과는 상이한 제2 CABAC 확률 모델에 대응함; 아핀 모드 동안 제1 CABAC 컨텍스트 및 제1 CABAC 확률 모델에 기초하여 그리고 제2 모드 동안 제2 CABAC 컨텍스트 및 제2 CABAC 확률 모델에 기초하여 비디오 데이터를 인코딩하는 것을 포함하는 비디오 데이터를 인코딩하기 위한 방법을 수반한다.
일반적으로, 실시형태의 적어도 하나의 예는, 아핀 모드의 사용을 나타내는 제1 플래그와 관련되는 제1 CABAC 컨텍스트를 결정하는 것; 아핀 모드 또는 아핀 모드와는 상이한 제2 모드 중 어느 하나의 사용을 나타내는 제2 플래그와 관련되는 제2 CABAC 컨텍스트를 결정하는 것; 제1 CABAC 컨텍스트는 제1 CABAC 확률 모델에 대응함; 및 제2 CABAC 컨텍스트는 제1 CABAC 확률 모델과는 상이한 제2 CABAC 확률 모델에 대응함; 아핀 모드 동안 인코딩되는 비디오 데이터를 디코딩하기 위해 제1 CABAC 컨텍스트 및 제1 CABAC 확률 모델에 기초하여 그리고 제2 모드 동안 인코딩되는 비디오 데이터를 디코딩하기 위해 제2 CABAC 컨텍스트 및 제2 CABAC 확률 모델에 기초하여 비디오 데이터를 디코딩하는 것을 포함하는 비디오 데이터를 디코딩하기 위한 방법을 수반한다.
일반적으로, 실시형태의 적어도 하나의 예는 적어도 하나 이상의 프로세서를 포함하는 비디오 데이터를 인코딩하기 위한 장치를 수반하는데, 여기서 하나 이상의 프로세서는: 아핀 모드의 사용을 나타내는 제1 플래그와 관련되는 제1 CABAC 컨텍스트를 결정하도록; 아핀 모드 또는 아핀 모드와는 상이한 제2 모드 중 어느 하나의 사용을 나타내는 제2 플래그와 관련되는 제2 CABAC 컨텍스트를 결정하도록; 제1 CABAC 컨텍스트는 제1 CABAC 확률 모델에 대응함; 및 제2 CABAC 컨텍스트는 제1 CABAC 확률 모델과는 상이한 제2 CABAC 확률 모델에 대응함; 아핀 모드 동안 제1 CABAC 컨텍스트 및 제1 CABAC 확률 모델에 기초하여 그리고 제2 모드 동안 제2 CABAC 컨텍스트 및 제2 CABAC 확률 모델에 기초하여 비디오 데이터를 인코딩하도록 구성된다.
일반적으로, 실시형태의 적어도 하나의 예는 하나 이상의 프로세서를 포함하는 비디오 데이터를 디코딩하기 위한 장치를 수반하는데, 여기서 하나 이상의 프로세서는: 아핀 모드의 사용을 나타내는 제1 플래그와 관련되는 제1 CABAC 컨텍스트를 결정하도록; 아핀 모드 또는 아핀 모드와는 상이한 제2 모드 중 어느 하나의 사용을 나타내는 제2 플래그와 관련되는 제2 CABAC 컨텍스트를 결정하도록; 제1 CABAC 컨텍스트는 제1 CABAC 확률 모델에 대응함; 및 제2 CABAC 컨텍스트는 제1 CABAC 확률 모델과는 상이한 제2 CABAC 확률 모델에 대응함; 아핀 모드 동안 인코딩되는 비디오 데이터를 디코딩하기 위해 제1 CABAC 컨텍스트 및 제1 CABAC 확률 모델에 기초하여 그리고 제2 모드 동안 인코딩되는 비디오 데이터를 디코딩하기 위해 제2 CABAC 컨텍스트 및 제2 CABAC 확률 모델에 기초하여 비디오 데이터를 디코딩하도록 구성된다.
일반적으로, 실시형태의 적어도 하나의 예는, 텔레비전, 셋탑 박스, 셀폰, 태블릿, 또는 설명되는 실시형태 중 임의의 것을 수행하는 및/또는 결과적으로 나타나는 이미지를 (예를 들면, 모니터, 스크린, 또는 다른 타입의 디스플레이를 사용하여) 디스플레이하는 및/또는 인코딩된 이미지를 포함하는 신호를 수신하도록 (예를 들면, 튜너를 사용하여) 채널을 튜닝하는 및/또는 인코딩된 이미지를 포함하는 신호를 (예를 들면, 안테나를 사용하여) 무선으로(over the air) 수신하는, 그리고 설명되는 실시형태 중 임의의 것을 수행하는 다른 전자 디바이스와 같은, 그러나 이들로 제한되지는 않는 디바이스를 수반한다.
일반적으로, 실시형태의 적어도 하나의 예는 인코딩된 비디오 데이터를 포함하도록 포맷되는 비트스트림을 수반하는데, 여기서 인코딩된 비디오 데이터는 본원에서 설명되는 적어도 하나의 방법에 의해 인코딩된다.
일반적으로, 실시형태의 적어도 하나의 예는 본원과 함께 설명되는 방법 또는 장치에 따라 비디오 데이터를 인코딩 또는 디코딩하기 위한 명령어들이 저장된 컴퓨터 판독 가능 저장 매체를 제공한다.
일반적으로, 실시형태의 적어도 하나의 예는 본원과 함께 설명되는 방법 또는 장치에 따라 생성되는 비트스트림이 저장된 컴퓨터 판독 가능 저장 매체를 제공한다.
일반적으로, 실시형태의 다양한 예는 본원과 함께 설명되는 방법 또는 장치에 따라 생성되는 비트스트림을 송신 또는 수신하기 위한 방법 및/또는 장치를 제공한다.
상기의 내용은 본 개시의 몇몇 양태의 기본적인 이해를 제공하기 위해 요지의 단순화된 개요를 제시한다. 이 개요는 요지의 광범위한 개관이 아니다. 그것은 실시형태의 핵심적인/중요한 엘리먼트를 식별하도록 또는 요지의 범위를 기술하도록 의도되지는 않는다. 그것의 유일한 목적은 하기에서 제공되는 더 상세한 설명에 대한 서론으로서 요지의 몇몇 개념을 단순화된 형태로 제시하는 것이다.
본 개시는 첨부의 도면과 연계한 하기의 상세한 설명의 고려에 의해 더 잘 이해될 수도 있는데, 첨부의 도면에서:
도 1은 HEVC에서와 같이 코딩 트리 단위(Coding Tree Unit; CTU)를 수반하는 비디오 인코딩 및 디코딩을 위한 비디오 정보의 구획화를 예시한다;
도 2는 CTU 및 코딩 단위(Coding Unit; CU)를 수반하는 비디오 인코딩 및 디코딩을 위한 비디오 정보의 구획화를 예시한다;
도 3은 아핀 모션 모델의 양태를 예시한다;
도 4는 아핀 모션 모델을 수반하는 실시형태를 예시한다;
도 5는 아핀 인터 모드(Affine Inter mode)와 관련되는 제어 포인트 모션 벡터 예측(control point motion vector prediction; CPMVP)을 예시한다;
도 6은 아핀 병합 모드(Affine Merge mode)와 관련되는 후보 위치를 예시한다;
도 7은 아핀 병합 모드 동안 제어 포인트 모션 벡터(CPMV)를 결정함에 있어서 수반되는 모션 벡터를 예시한다;
도 8은 아핀 플래그와 관련되는 CABAC 컨텍스트와 같은 플래그와 관련되는 컨텍스트를 결정하기 위한 실시형태의 예를 예시한다;
도 9는 CABAC 확률 모델과 같은 인코딩 및/또는 디코딩을 위한 확률 모델을 결정하는 예를 예시한다;
도 10은 CABAC 확률 모델과 같은 인코딩 및/또는 디코딩을 위한 확률 모델을 결정하는 다른 예를 예시한다;
도 11 내지 도 13은 아핀 플래그와 관련되는 CABAC 컨텍스트와 같은 플래그와 관련되는 컨텍스트를 결정하기 위한 실시형태의 다양한 예를 예시한다;
도 14는 본원에서 설명되는 실시형태의 예 중 하나 이상에 따른 비디오 데이터를 인코딩하기에 적절한 인코더의 실시형태의 예를 예시한다;
도 15는 본원에서 설명되는 실시형태의 예 중 하나 이상에 따른 비디오 데이터를 디코딩하기에 적절한 디코더의 실시형태의 예를 예시한다; 그리고
도 16은 본원에서 설명되는 실시형태의 예 중 하나 이상에 따른 비디오 데이터를 인코딩 및/또는 디코딩하기에 적절한 시스템의 실시형태의 예를 예시한다.
도면은 다양한 양태, 실시형태 및 피쳐(feature)의 예를 예시하는 목적을 위한 것이며 반드시 유일하게 가능한 구성은 아니다는 것이 이해되어야 한다. 다양한 도면에 걸쳐, 유사한 참조 지정자(designator)는 동일한 또는 유사한 피쳐를 가리킨다.
높은 압축 효율성을 달성하기 위해, 이미지 및 비디오 코딩 스킴은, 비디오 콘텐츠에서의 공간적 및 시간적 중복성을 활용하기 위해, 모션 벡터 예측을 비롯한 예측 및 변환을 일반적으로 활용한다. 일반적으로, 인트라 또는 인터 프레임 상관을 활용하기 위해 인트라 또는 인터 예측이 사용되며, 그 다음, 종종 예측 에러 또는 예측 잔차로서 표시되는 원래의 이미지와 예측된 이미지 사이의 차이가 변환되고, 양자화되고, 그리고 엔트로피 코딩된다. 비디오를 재구성하기 위해, 압축된 데이터는 엔트로피 코딩, 양자화, 변환, 및 예측에 대응하는 역 프로세스에 의해 디코딩된다. 엔트로피 코딩/디코딩은 컨텍스트 적응 이진 산술 코딩(context-adaptive binary arithmetic coding; CABAC)을 통상적으로 수반한다.
고압축 기술에 대한 최근의 추가 사항은 아핀 모델링을 기초하여 모션 모델을 사용하는 것을 포함한다. 비디오 픽쳐의 인코딩 및 디코딩을 위한 모션 보상을 위해 아핀 모델링이 사용된다. 일반적으로 아핀 모델링은, 예를 들면, 회전 및 닮음 변환(줌)을 시뮬레이팅하기 위해 픽쳐의 전체 블록에 대한 모션 필드를 유도하는 것을 허용하는, 예를 들면, 픽쳐의 블록의 각각의 코너에서의 모션을 나타내는 두 개의 제어 포인트 모션 벡터(CPMV)와 같은 적어도 두 개의 파라미터를 사용하는 모델이다.
여기에서 설명되는 일반적인 양태는 비디오 압축의 분야 내에 있다. 이들 양태는 현존하는 비디오 압축 시스템과 비교하여 압축 효율성을 향상시키는 것을 목표로 한다.
HEVC 비디오 압축 표준(H.265/HEVC 고효율 비디오 코딩, ITU의 ITU-T H.265 원격 통신 표준화 섹터, "Series H: Audiovisual and Multimedia Systems, Infrastructure of audiovisual services - Coding of moving video, High efficiency video coding")에서, 비디오의 연속적인 픽쳐 사이에서 존재하는 중복성을 활용하기 위해 모션 보상된 시간 예측이 활용된다.
그렇게 하기 위해, 모션 벡터는 현재 도입되는 각각의 예측 단위(prediction unit; PU)에 관련된다. 각각의 CTU(코딩 트리 단위)는 압축된 도메인에서 코딩 트리에 의해 표현된다. 이것은 CTU의 쿼드 트리 분할인데, 여기서 각각의 리프(leaf)는 코딩 단위(CU)로 칭해진다(도 1 참조).
그 다음, 각각의 CU는 몇몇 인트라 또는 인터 예측 파라미터(예측 정보)를 제공한다. 그렇게 하기 위해, 그것은 공간적으로 하나 이상의 예측 단위(PU)로 분할되는데, 각각의 PU는 몇몇 예측 정보를 할당받는다. 인트라 또는 인터 코딩 모드는 CU 레벨 상에서 할당된다(도 2 참조).
HEVC에서 각각의 PU에는 정확하게 하나의 모션 벡터가 할당된다. 이 모션 벡터는 고려된 PU의 모션 보상된 시간 예측을 위해 사용된다. 따라서, HEVC에서, 예측 블록과 그것의 참조 블록을 링크하는 모션 모델은 단순히 변환을 수반한다.
JVET(공동 비디오 탐구 팀) 그룹에 의해 개발되는 공동 탐구 모델(JEM) 및 이후 VTM(Versatile Video Coding(VVC) Test Model; 다기능 비디오 코딩(VVC) 테스트 모델)에서, 시간 예측을 향상시키기 위해 어떤 더 풍부한 모션 모델이 지원된다. 그렇게 하기 위해, PU는 하위 PU로 공간적으로 분할될 수 있고 각각의 하위 PU에 전용 모션 벡터를 할당하기 위해 더 풍부한 모델이 사용될 수 있다.
CU는 PU 또는 TU로 더 이상 분할되지 않으며, 몇몇 모션 데이터는 각각의 CU에 직접적으로 할당된다. 이 새로운 코덱 설계에서, CU는 하위 CU로 분할될 수 있고 각각의 하위 CU에 대해 모션 벡터가 계산될 수 있다.
JEM에서 소개되는 새로운 모션 모델 중 하나는 아핀 모델인데, 이것은 기본적으로 CU에서 모션 벡터를 표현하기 위해 아핀 모델을 사용하는 것을 수반한다.
사용되는 모션 모델은 도 3에 의해 예시된다. 아핀 모션 필드는 고려된 블록 내부의 각각의 위치 (x, y)에 대한 다음의 모션 벡터 성분 값을 수반한다:
Figure pct00001
좌표 (v0x, v0y) 및 (v1x, v1y)는 아핀 모션 필드를 생성하기 위해 사용되는 소위 제어 포인트 모션 벡터이다. 포인트 (v0x, v0y)은 모션 벡터 좌측 상단 코너 제어 포인트이고 (v1x, v1y)는 모션 벡터 우측 상단 코너 제어 포인트이다.
실제로, 복잡도를 합리적으로 유지하기 위해, 도 4 상에서 예시되는 바와 같이, 고려되는 CU의 각각의 4×4 서브블록(서브 CU)에 대해 모션 벡터가 계산된다. 아핀 모션 벡터는 각각의 서브블록의 중심의 위치에서, 제어 포인트 모션 벡터로부터 계산된다. 획득된 MV는 1/16 픽셀 정확도로 표현된다.
결과적으로, 아핀 모드에서의 코딩 단위의 시간적 코딩은 자기 자신의 모션 벡터를 사용하여 각각의 서브블록을 모션 보상 예측하는 것을 포함한다.
세 개의 제어 포인트를 갖는 모델도 또한 가능하다는 것을 유의한다.
아핀 모션 보상은 VTM에서 두 가지 방식으로 사용될 수 있다: 아핀 인터(Affine Inter; AF_INTER), 아핀 병합 및 아핀 템플릿(Affine Template). 그들은 다음에서 소개된다.
- 아핀 인터(AF_INTER):
8×8보다 더 큰 사이즈를 갖는 AMVP 모드에서의 CU는 아핀 인터 모드에서 예측될 수 있다. 이것은 비트스트림에서 플래그를 통해 시그널링된다. 그 인터 CU에 대한 아핀 모션 필드의 생성은, 모션 벡터 차이 및 제어 포인트 모션 벡터 예측(CPMVP)의 추가를 통해 디코더에 의해 획득되는 제어 포인트 모션 벡터(CPMV)를 결정하는 것을 포함한다. CPMVP는, 도 5에서 예시되는 바와 같이, 목록 (A, B, C) 및 (D, E)로부터 각각 취해지는 모션 벡터 후보의 쌍이다.
최대 6 개의 CPMVP가 획득될 수도 있다(
Figure pct00002
의 경우의 3 곱하기
Figure pct00003
의 경우의 2).
제1 CPMVP는, 높이(H) 및 폭(W)의 블록에 대해, 수학식 2를 사용하여 유효성에 대해 체크된다:
Figure pct00004
그 다음, 유효한 CPMVP는 (위치(F 또는 G)로부터 취해지는) 제3 모션 벡터(
Figure pct00005
)의 값에 따라 정렬된다. 가장 가까운
Figure pct00006
Figure pct00007
와 동일한 위치에서의 4×4 서브블록에 대해 아핀 모션 모델에 의해 주어지는 벡터까지이고, 더 나은 것은 CPMVP이다.
높이(H) 및 폭(W)의 블록의 경우, 각각의 CPMVP의 비용은 수학식 3을 사용하여 계산된다. 다음의 수학식에서, X 및 Y는 각각 모션 벡터의 수평 및 수직 성분이다.
Figure pct00008
- 아핀 병합:
아핀 병합 모드에서, CU 레벨 플래그는, 병합 CU가 아핀 모션 보상을 활용하는지를 나타낸다. 만약 그렇다면, 그러면 아핀 모드에서 코딩된 제1 이용 가능한 이웃하는 CU는 도 6의 후보 위치의 순서가 지정된 세트(A, B, C, D, E) 중에서 선택된다.
일단 아핀 모드에서 제1 이웃하는 CU가 획득되면, 그러면 이웃하는 CU의 좌측 상단, 우측 상단 및 좌측 하단 코너로부터의 3 개의 모션 벡터(
Figure pct00009
,
Figure pct00010
, 및
Figure pct00011
)가 검색된다(도 7 참조). 이들 세 개의 벡터에 기초하여, 현재의 CU의 좌측 상단 및 우측 상단 코너의 두 개의 CPMV는 다음과 같이 유도된다:
Figure pct00012
현재의 CU의 제어 포인트 모션 벡터(
Figure pct00013
Figure pct00014
)가 획득되면, 현재의 CU 내부의 모션 필드는, 수학식 1의 모델을 통해, 4×4 하위 CU 기반으로 계산된다.
최대 7 개의 후보 중에서 최상의 후보를 선택하고 비트스트림에서 최상의 후보의 인덱스를 코딩하면서, 아핀 병합 모드에 대해 더 많은 후보가 추가될 수 있다.
다른 타입의 후보는 시간적 아핀(temporal affine)으로 칭해진다. TMVP(Temporal Motion Vector Predictor; 시간적 모션 벡터 예측자) 후보와 유사하게, 아핀 CU는 참조 이미지에서 검색되어 후보 목록에 추가된다.
프로세스는 추가될 "가상" 아핀 후보를 생성할 수 있다. 그러한 프로세스는, 현재의 CU 주변에서 이용 가능한 아핀 CU가 없을 때 아핀 후보를 생성하는 데 유용할 수도 있다. 그렇게 하기 위해, 코너에서 개개의 서브블록의 모션을 취하고 "아핀" 모델을 생성하는 것에 의해 아핀 모델이 생성된다.
후보 목록 생성 동안, 복잡성 이유에 대해 고려할 두 가지 제약이 있다:
- 잠재적 후보의 총 수: 총 계산 필요성을 증가시킴
- 최종 목록 사이즈: 각각의 연속적인 후보에 대해 필요한 비교의 횟수를 증가시키는 것에 의해 디코더에서 지연을 증가시킴
일반적으로, 적어도 하나의 실시형태는 모션 보상을 위한 아핀 플래그 코딩을 사용하는 비디오 코딩을 수반한다. 아핀 플래그는 VVC와 같은 비디오 코딩 시스템의 맥락에서 공지되어 있다. 아핀 플래그는, 코딩 단위(CU) 레벨에서, 현재의 CU의 시간적 예측을 위한 아핀 모션 보상의 사용 여부를 시그널링한다. 다음의 설명에서, 코딩 단위는 코딩 단위, CU 또는 블록으로 칭해진다.
인터 모드에서, 아핀 플래그는 상기에서 설명되는 바와 같이 블록을 예측하기 위한 아핀 모션 필드의 사용을 시그널링한다. 아핀 모션 모델은, 상기에서 설명되는 바와 같이, 통상적으로, 네 개 또는 여섯 개의 파라미터를 사용하고 있다. 이 모드는 mvd(motion vector difference with motion predictor; 모션 예측자와의 모션 벡터 차이)가 코딩되는 AMVP 및 병합(mvd가 제로로 추론됨) 둘 모두에서 사용된다. 일반적으로, 본원에서 설명되는 실시형태의 적어도 하나의 예는, 병합 모드와 함께 mvd가 시그널링될 수 있는 mmvd(merge motion vector difference(병합 모션 벡터 차이), UMVE로 또한 공지되어 있음), 또는 모션 예측자가 디코더 측에서 개선되는 DMVR(decoder side motion refinement; 디코더 측 모션 개선)과 같은 다른 모드에도 또한 적용될 수 있다. 일반적으로, 적어도 하나의 실시형태는 아핀 플래그의 코딩을 향상시키기 위해 제공된다.
아핀 플래그는 현재 CABAC 컨텍스트를 사용하여 시그널링된다. CABAC을 사용하여 인코딩하기 위해, 이진화 프로세스를 통해 비 이진(non-binary) 신택스 엘리먼트 값이, 빈 스트링(bin string)으로 칭해지는 이진 시퀀스로 매핑된다. 빈에 대해, 컨텍스트 모델이 선택된다. "컨텍스트 모델"은 하나 이상의 빈에 대한 확률 모델이며 최근 코딩된 심볼의 통계치에 따른 이용 가능한 모델의 선택으로부터 선택된다. 각각의 빈의 컨텍스트 모델은 컨텍스트 모델 인덱스("컨텍스트 인덱스"로서 또한 사용됨)에 의해 식별되며, 상이한 컨텍스트 인덱스는 상이한 컨텍스트 모델에 대응한다. 컨텍스트 모델은 각각의 빈이 '1' 또는 '0'일 확률을 저장하며, 적응형일(adaptive) 수 있거나 또는 정적일 수 있다. 정적 모델은 빈 '0'과 '1'에 대해 동일한 확률을 가지고 코딩 엔진을 트리거한다. 적응형 코딩 엔진에서, 컨텍스트 모델은 빈의 실제 코딩된 값에 기초하여 업데이트된다. 적응형 모델 및 정적 모델에 대응하는 동작 모드는, 각각, 정규 모드와 바이패스 모드로 칭해진다. 컨텍스트에 기초하여, 이진 산술 코딩 엔진은 대응하는 확률 모델에 따라 빈을 인코딩하거나 또는 디코딩한다.
상기에서 언급되는 바와 같이, 아핀 플래그는, 현재, 이웃하는 블록과 관련되는 아핀 플래그(들)의 값의 함수인 CABAC 컨텍스트를 사용하여 시그널링된다. AMVP 및 병합 둘 모두의 아핀에 대한 아핀 플래그 컨텍스트 유도의 예를 도시하는 한 예가 도 8에서 예시된다. 도 8에서, x, y 및 사이즈 폭, 높이에 위치되는 현재의 CU의 경우, 아핀 컨텍스트(Ctx)가, 예를 들면, 3010에서 0으로 초기화된다. 3020에서, 좌측의 이웃하는 CU가 아핀에 대해 체크된다. 좌측의 이웃하는 CU가 아핀이다는 것을 3020이 결정하면, 그러면, Ctx는 3030에서 증분된다. 좌측의 이웃하는 CU가 아핀이 아니다는 것을 3020이 결정하면, 그러면, 3040에서 위쪽의 이웃하는 CU가 아핀에 대해 체크된다. 위쪽의 이웃하는 CU가 아핀이다는 것을 3040에서의 체크가 결정하면, 그러면, Ctx는 3050에서 증분되고, 후속하여, 설명된 동작에 의해 획득되는 Ctx 값을 가지고 3060에서 종료된다. 위쪽의 이웃하는 CU가 아핀이 아니다는 것을 3040에서의 체크가 결정하면, 그러면 3040에 후속하여, 획득되는 Ctx 값을 가지고 3060에서 종료된다. 도 8에서 예시되는 예시적인 실시형태에 의해 유도되는 아핀 플래그 컨텍스트는 세 개의 상이한 값을 가질 수도 있다: Ctx = 0(좌측 이웃도 위쪽 이웃도 아핀이 아님), 또는 Ctx = 1(좌측 이웃 또는 위쪽 이웃 중 단지 1 개만이 아핀임), 또는 Ctx = 2(좌측 및 위쪽 이웃 둘 모두가 아핀임).
동일한 CABAC 컨텍스트는 AMVP 및 병합 모드 둘 모두에 의해 공유된다. 결과적으로, 동일한 CABAC 빈 또는 확률 모델이 모드 둘 모두에 대해 나타내어지거나 또는 선택된다. 따라서, 코딩 또는 디코딩은 모드 둘 모두에 대해 동일한 모델을 사용한다. 한 가지 문제는, VVC와 같은 시스템이, 이웃하는 CU의 아핀 플래그 값을 사용하지 않고 구성되는 다른 아핀 후보(가상 또는 구성된 후보로 칭해짐)를 또한 지원한다는 것이다. 이들 다른 아핀 후보는 개개의 모션 벡터의 아핀 모션 모델을 사용한다. 병합을 위해 아핀 플래그를 코딩하기 위해 하나의 단일의 컨텍스트를 사용하면, AMVP 및 다른 아핀 후보의 모드는 아핀 플래그의 다양한 통계적 거동을 포착하는 데 비효율적으로 된다.
일반적으로, 본원에서 설명되는 적어도 하나의 실시형태는, 이들 두 가지 모드에서 아핀 플래그를 독립적으로 코딩하는 것에 의해, 두 가지 인터 예측 모드, 예를 들면, AMVP와 병합 사이의 아핀 모드 사용의 상이한 통계적 발생을 고려한다. 한 예가 도 9에서 예시된다. 도 9에서, 910에서 현재의 CU에 대해 아핀 컨텍스트(Ctx)가 결정되거나 또는 획득된다. Ctx의 이 결정은 도 8에서 도시되는 것과 같은 실시형태의 예에 따라 발생할 수도 있다. 910에서의 Ctx의 결정에 뒤이어, 예를 들면, Ctx 값과 CABAC 빈 또는 모델 사이의 관련성 또는 대응 관계의 테이블 또는 목록 또는 특정한 공식 또는 관계에 기초하여, 920에서, 제1 인터 예측 모드, 예를 들면, 아핀 모드에 대한 CABAC 빈 또는 확률 모델이 결정되거나 또는 획득된다. 예를 들면, Ctx 값과 CABAC 빈 또는 모델 사이의 관련성 또는 대응 관계의 테이블 또는 목록 또는 특정한 공식 또는 관계에 기초하여, 930에서, 제2 인터 예측 모드, 예를 들면, 병합 모드에 대한 CABAC 빈 또는 확률 모델이 결정되거나 또는 획득된다. 따라서, CABAC 빈 또는 모델은 각각의 모드에 대해 독립적으로, 즉, 920에서 하나의 모드에 대해 그리고 930에서 다른 모드에 대해, 결정된다.
도 9의 예에서, 아핀 플래그에 대한 CABAC 컨텍스트의 총 수는 두 배로 된다, 즉, 제1 및 제2 인터 예측 모드(A 및 B)의 각각에 대해 3 개이다. 즉, 도 9에서와 같은 아핀 플래그 컨텍스트를 결정하기 위한 실시형태의 예는 세 개 대신 여섯 개의 컨텍스트를 사용할 수 있다. 상이하게 말하면, CABAC 컨텍스트 값은 두 가지 인터 예측 모드의 각각에 대해 동일한 방식으로 유도될 수 있지만, 그러나 CABAC 컨텍스트와 관련되는 확률 모델은 독립적으로 결정될 수 있고 아핀 플래그를 수반하는 두 개의 상이한 인터 예측 모드, 예를 들면, AMVP 및 병합의 각각에 대해 상이할 수 있다.
아핀 플래그를 독립적으로 코딩하는 한 예가 두 가지 인터 예측 모드, 즉 아핀 및 병합을 수반하는 다음의 코드에 의해 예시된다. 다음의 예는 각각의 모드 플래그: AffineFlag 및 SubblockMergeFlag에 의해 표시되는 두 가지 모드 아핀 및 병합의 각각과 관련되는 CABAC 컨텍스트를 결정하는 것을 예시한다. 상기에서 설명되는 바와 같이, CABAC 컨텍스트의 유도는, 예를 들면, 도 8의 것과 같은 예시적인 실시형태에 기초하여, 동일할 수 있다.
Figure pct00015
다른 예가 도 10에서 도시된다. 도 10에서, 1011 및 1012는 각각의 제1 및 제2 플래그, 예를 들면, 아핀 플래그 및 서브블록 병합 플래그와 관련되는 제1 및 제2 CABAC 컨텍스트를 결정한다. 아핀 플래그는 사용되고 있는 아핀 모드를 나타낸다. 서브블록 병합 플래그는, 아핀 모드 또는 사용되고 있는 아핀 모드와는 상이한 제2 모드 중 어느 하나를 나타낸다. 컨텍스트는 사용되는 모드와 관련된다. 예를 들면, 제2 모드는 SbTMVP와 같은 병합 모드일 수 있다. 제1 및 제2 컨텍스트와 관련되는 제1 및 제2 CABAC 확률 모델, 및, 따라서 모드는 1013 및 1014에서 독립적으로 결정된다.
컨텍스트의 모델링을 향상시키기 위한 실시형태의 다른 예는 적어도 다음의 것을 포함한다. 하나의 예는 공간적 아핀 이웃에 기초하여 CABAC 컨텍스트 모델링을 완전히 제거하는 것을 포함한다. 이 경우, 단지 하나의 컨텍스트만이 사용된다. 다른 예는, 공간적 이웃의 이용 가능한지의 여부만을 사용하여 모델링의 복잡도를 감소시키는 것을 포함한다. 이 예의 경우, 두 가지 컨텍스트가 가능하다: 아핀 이웃은 이용 가능하지 않거나(컨텍스트 0), 또는 적어도 하나가 이용 가능하다(컨텍스트 1). 이용 가능한 두 가지 컨텍스트의 예는 도 11에서 예시된다. 도 11에서, 아핀 컨텍스트(Ctx)는, 1111에서, 초기화되는데, 예를 들면, 0과 동일하게 설정된다. 1112에서, 좌측의 이웃하는 CU 또는 위쪽의 이웃하는 CU가 아핀이면, 그러면, Ctx는 1113에서 증분되고, 후속하여, 1114에서 종료되는데, 여기서 Ctx 값, 예를 들면, 1113으로부터의 1이 반환된다. 어느 것도 아핀이 아니면, 그러면, 1112에 후속하여, 1114에서 종료되는데, 여기서, 반환되는 Ctx 값은 0 또는 1이다.
일반적으로, 적어도 하나의 실시형태는, 가상의 아핀 후보를 고려하는 아핀에 대한 컨텍스트 모델링의 예를 예시하는 도 12에서 도시되는 바와 같이, 컨텍스트 모델링의 양태로서 가상의 아핀 후보를 구성할 가능성을 포함할 수 있다. 도 12의 1211에서, 컨텍스트(Ctx)는 초기화되는데, 예를 들면, 0과 동일하게 설정된다. 가상의 아핀 후보는, 아핀 모드에서가 아니라 인터 모드에서 코딩되는 이웃하는 CU로부터 구성될 수 있다. 1212에서, 이웃하는 CU는 그들이 인터 코딩되어 있는지를 결정하기 위해 체크된다. 만약 그렇지 않은 경우, 1212에 후속하여, 초기화된 값, 예를 들면, 0인 Ctx의 값을 가지고, 1216에서 종료된다. 이웃하는 CU가 인터 코딩되어 있다는 것을 1212에서의 체크가 결정하면, 그러면, 1212 다음에,1213이 후속되는데, 여기서 Ctx는 증분된다(초기 값 + 1). 1213에 뒤이어, 이웃하는 CU가 아핀인지를 결정하기 위한 체크가 1214에서 발생한다. 만약 그렇다면, Ctx는 1215에서 증분되고((초기 값 + 1) + 1), 후속하여, 1216에서 종료되는데, 여기서 Ctx 값이 반환되고, 그렇지 않으면, 1214에서의 체크 다음에 1216에서 종료된다. 도 12에서의 배열의 결과를 요약하면, 컨텍스트는 다음과 같을 것이다:
○ 어떠한 인터 이웃(inter neighbor)도 이용 가능하지 않은 경우 0
○ 인터 이웃이 이용 가능하지만 그러나 어떠한 아핀 이웃도 이용 가능하지 않은 경우 1
○ 아핀 이웃이 이용 가능한 경우 2
변형에서, 적어도 하나의 실시형태는, 도 13의 예에 의해 예시되는 바와 같이, 참조 픽쳐가 가상의 시간적 후보의 생성을 허용하기 때문에, 인터 픽쳐인 참조 픽쳐의 존재가 고려될 수 있는 것을 수반한다. 즉, 도 13은 가상 시간적 아핀 후보를 고려하는 아핀에 대한 컨텍스트 모델링의 한 예를 예시한다. 가상의 시간적 후보는 인터 모드에서 코딩되는 시간적으로 동일 위치에 위치된(temporal collocated) CU로부터 구성될 수 있다. 도 13의 이 예는, 도 12에서의 1212를 도 13에서의 1312로 수정하는 것에 의해 도 12에서의 컨텍스트 모델링의 상기 설명된 예시적인 실시형태를 수정하는 것을 수반하는데, 여기서:
○ 인터 이웃이 이용 가능하거나 또는 인터 참조 픽쳐가 참조 픽쳐 인덱스 0과 함께 이용 가능하다.
도 13의 실시형태의 다른 피쳐는 상기에서 설명되는 도 12의 유사한 피쳐에 대응하며 도 13과 관련하여 다시 설명되지 않을 것이다.
본 문서는 실시형태, 피쳐, 모델, 접근법, 등등의 다양한 예를 설명한다. 많은 그러한 예가 구체적으로 설명되며, 적어도 개개의 특성을 나타내기 위해, 제한적인 것으로 보일 수도 있는 방식으로 종종 설명된다. 그러나, 이것은 설명에서의 명확화의 목적을 위한 것이며, 애플리케이션 또는 범위를 제한하지는 않는다. 실제로, 본원에서 설명되는 실시형태, 피쳐, 등등의 다양한 예는, 실시형태의 추가적인 예를 제공하기 위해, 다양한 방식으로 결합될 수 있고 상호 교환될 수 있다.
본 개시에 따른 실시형태의 예는 다음의 것을 포함하지만, 그러나 이들로 제한되지는 않는다.
일반적으로, 실시형태의 적어도 하나의 예는: 아핀 모드의 사용을 나타내는 제1 플래그와 관련되는 제1 CABAC 컨텍스트를 결정하는 것; 아핀 모드 또는 아핀 모드와는 상이한 제2 모드 중 어느 하나의 사용을 나타내는 제2 플래그와 관련되는 제2 CABAC 컨텍스트를 결정하는 것; 제1 CABAC 컨텍스트는 제1 CABAC 확률 모델에 대응함; 및 제2 CABAC 컨텍스트는 제1 CABAC 확률 모델과는 상이한 제2 CABAC 확률 모델에 대응함; 아핀 모드 동안 제1 CABAC 컨텍스트 및 제1 CABAC 확률 모델에 기초하여 그리고 제2 모드 동안 제2 CABAC 컨텍스트 및 제2 CABAC 확률 모델에 기초하여 비디오 데이터를 인코딩하는 것을 포함하는 비디오 데이터를 인코딩하기 위한 방법을 수반할 수 있다.
일반적으로, 실시형태의 적어도 하나의 예는 하나 이상의 프로세서를 포함하는 비디오 데이터를 인코딩하기 위한 장치를 수반할 수 있는데, 여기서 하나 이상의 프로세서는: 아핀 모드의 사용을 나타내는 제1 플래그와 관련되는 제1 CABAC 컨텍스트를 결정하도록; 아핀 모드 또는 아핀 모드와는 상이한 제2 모드 중 어느 하나의 사용을 나타내는 제2 플래그와 관련되는 제2 CABAC 컨텍스트를 결정하도록; 제1 CABAC 컨텍스트는 제1 CABAC 확률 모델에 대응함; 및 제2 CABAC 컨텍스트는 제1 CABAC 확률 모델과는 상이한 제2 CABAC 확률 모델에 대응함; 아핀 모드 동안 제1 CABAC 컨텍스트 및 제1 CABAC 확률 모델에 기초하여 그리고 제2 모드 동안 제2 CABAC 컨텍스트 및 제2 CABAC 확률 모델에 기초하여 비디오 데이터를 인코딩하도록 구성된다.
일반적으로, 실시형태의 적어도 하나의 예는: 아핀 모드의 사용을 나타내는 제1 플래그와 관련되는 제1 CABAC 컨텍스트를 결정하는 것; 아핀 모드 또는 아핀 모드와는 상이한 제2 모드 중 어느 하나의 사용을 나타내는 제2 플래그와 관련되는 제2 CABAC 컨텍스트를 결정하는 것; 제1 CABAC 컨텍스트는 제1 CABAC 확률 모델에 대응함; 및 제2 CABAC 컨텍스트는 제1 CABAC 확률 모델과는 상이한 제2 CABAC 확률 모델에 대응함; 제1 CABAC 컨텍스트 및 제1 CABAC 확률 모델에 기초하여 아핀 모드 동안 인코딩되는 비디오 데이터를 디코딩하고, 제2 CABAC 컨텍스트 및 제2 CABAC 확률 모델에 기초하여 제2 모드 동안 인코딩되는 비디오 데이터를 디코딩하는 것을 포함하는 비디오 데이터를 디코딩하기 위한 방법을 수반할 수 있다.
일반적으로, 실시형태의 적어도 하나의 예는 하나 이상의 프로세서를 포함하는 비디오 데이터를 디코딩하기 위한 장치를 수반할 수 있는데, 여기서 하나 이상의 프로세서는: 아핀 모드의 사용을 나타내는 제1 플래그와 관련되는 제1 CABAC 컨텍스트를 결정하도록; 아핀 모드 또는 아핀 모드와는 상이한 제2 모드 중 어느 하나의 사용을 나타내는 제2 플래그와 관련되는 제2 CABAC 컨텍스트를 결정하도록; 제1 CABAC 컨텍스트는 제1 CABAC 확률 모델에 대응함; 및 제2 CABAC 컨텍스트는 제1 CABAC 확률 모델과는 상이한 제2 CABAC 확률 모델에 대응함; 제1 CABAC 컨텍스트 및 제1 CABAC 확률 모델에 기초하여 아핀 모드 동안 인코딩되는 비디오 데이터를 디코딩하고, 제2 CABAC 컨텍스트 및 제2 CABAC 확률 모델에 기초하여 제2 모드 동안 인코딩되는 비디오 데이터를 디코딩하도록 구성된다.
일반적으로, 실시형태의 적어도 하나의 예는: 아핀 모드의 사용을 나타내는 제1 플래그와 관련되는 제1 CABAC 컨텍스트를 결정하는 것; 아핀 모드 또는 아핀 모드와는 상이한 제2 모드 중 어느 하나의 사용을 나타내는 제2 플래그와 관련되는 제2 CABAC 컨텍스트를 결정하는 것; 및 비디오 데이터를 인코딩하여 인코딩된 비디오 데이터를 생성하는 것 - 아핀 모드에 기초하여 생성되는 비디오 데이터는 제1 CABAC 컨텍스트와 관련되는 제1 CABAC 확률 모델에 기초하여 인코딩되고, 제2 모드에 기초하여 생성되는 비디오 데이터는 제2 CABAC 컨텍스트와 관련되며 제1 CABAC 확률 모델과는 상이한 제2 CABAC 확률 모델에 기초하여 인코딩됨 - 을 포함하는 비디오 데이터를 인코딩하기 위한 방법을 수반할 수 있다.
일반적으로, 실시형태의 적어도 하나의 예는 하나 이상의 프로세서를 포함하는 비디오 데이터를 인코딩하기 위한 장치를 수반할 수 있는데, 여기서 하나 이상의 프로세서는: 아핀 모드의 사용을 나타내는 제1 플래그와 관련되는 제1 CABAC 컨텍스트를 결정하도록; 아핀 모드 또는 아핀 모드와는 상이한 제2 모드 중 어느 하나의 사용을 나타내는 제2 플래그와 관련되는 제2 CABAC 컨텍스트를 결정하도록; 그리고 비디오 데이터를 인코딩하여 인코딩된 비디오 데이터를 생성하도록 - 아핀 모드에 기초하여 생성되는 비디오 데이터는 제1 CABAC 컨텍스트와 관련되는 제1 CABAC 확률 모델에 기초하여 인코딩되고, 제2 모드에 기초하여 생성되는 비디오 데이터는 제2 CABAC 컨텍스트와 관련되며 제1 CABAC 확률 모델과는 상이한 제2 CABAC 확률 모델에 기초하여 인코딩됨 - 구성된다.
일반적으로, 실시형태의 적어도 하나의 예는: 아핀 모드의 사용을 나타내는 제1 플래그와 관련되는 제1 CABAC 컨텍스트를 결정하는 것; 아핀 모드 또는 아핀 모드와는 상이한 제2 모드 중 어느 하나의 사용을 나타내는 제2 플래그와 관련되는 제2 CABAC 컨텍스트를 결정하는 것; 및 비디오 데이터를 디코딩하여 디코딩된 비디오 데이터를 생성하는 것 - 아핀 모드에 기초하여 인코딩되는 비디오 데이터는 제1 CABAC 컨텍스트와 관련되는 제1 CABAC 확률 모델에 기초하여 디코딩되고, 제2 모드에 기초하여 인코딩되는 비디오 데이터는 제2 CABAC 컨텍스트와 관련되며 제1 CABAC 확률 모델과는 상이한 제2 CABAC 확률 모델에 기초하여 디코딩됨 - 을 포함하는 비디오 데이터를 디코딩하기 위한 방법을 수반할 수 있다.
일반적으로, 실시형태의 적어도 하나의 예는 하나 이상의 프로세서를 포함하는 비디오 데이터를 디코딩하기 위한 장치를 수반할 수 있는데, 여기서 하나 이상의 프로세서는: 아핀 모드의 사용을 나타내는 제1 플래그와 관련되는 제1 CABAC 컨텍스트를 결정하도록; 아핀 모드 또는 아핀 모드와는 상이한 제2 모드 중 어느 하나의 사용을 나타내는 제2 플래그와 관련되는 제2 CABAC 컨텍스트를 결정하도록; 그리고 비디오 데이터를 디코딩하여 디코딩된 비디오 데이터를 생성하도록 - 아핀 모드에 기초하여 인코딩되는 비디오 데이터는 제1 CABAC 컨텍스트와 관련되는 제1 CABAC 확률 모델에 기초하여 디코딩되고, 제2 모드에 기초하여 인코딩되는 비디오 데이터는 제2 CABAC 컨텍스트와 관련되며 제1 CABAC 확률 모델과는 상이한 제2 CABAC 확률 모델에 기초하여 디코딩됨 - 구성된다.
일반적으로, 실시형태의 적어도 하나의 예는: 아핀 모드의 사용을 나타내는 제1 플래그와 관련되는 제1 CABAC 컨텍스트를 결정하는 것; 아핀 모드 또는 아핀 모드와는 상이한 제2 모드 중 어느 하나의 사용을 나타내는 제2 플래그와 관련되는 제2 CABAC 컨텍스트를 결정하는 것 - 제2 CABAC 컨텍스트를 결정하는 것은 제1 CABAC 컨텍스트를 결정하는 것과는 독립적으로 발생함 - ; 및 제1 및 제2 플래그 및 제1 및 제2 CABAC 컨텍스트에, 각각, 기초하여 제1 및 제2 모드 동안 비디오 데이터를 인코딩하여 인코딩된 비디오 데이터를 생성하는 것을 포함하는 비디오 데이터를 인코딩하기 위한 방법을 수반할 수 있다.
일반적으로, 실시형태의 적어도 하나의 예는 하나 이상의 프로세서를 포함하는 비디오 데이터를 인코딩하기 위한 장치를 수반할 수 있는데, 여기서 하나 이상의 프로세서는: 아핀 모드의 사용을 나타내는 제1 플래그와 관련되는 제1 CABAC 컨텍스트를 결정하도록; 아핀 모드 또는 아핀 모드와는 상이한 제2 모드 중 어느 하나의 사용을 나타내는 제2 플래그와 관련되는 제2 CABAC 컨텍스트를 결정하도록 - 제2 CABAC 컨텍스트를 결정하는 것은 제1 CABAC 컨텍스트를 결정하는 것과는 독립적으로 발생함 - ; 그리고 제1 및 제2 플래그 및 제1 및 제2 CABAC 컨텍스트에, 각각, 기초하여 제1 및 제2 모드 동안 비디오 데이터를 인코딩하여 인코딩된 비디오 데이터를 생성하도록 구성된다.
일반적으로, 실시형태의 적어도 하나의 예는: 아핀 모드의 사용을 나타내는 제1 플래그와 관련되는 제1 CABAC 컨텍스트를 결정하는 것; 아핀 모드 또는 아핀 모드와는 상이한 제2 모드 중 어느 하나의 사용을 나타내는 제2 플래그와 관련되는 제2 CABAC 컨텍스트를 결정하는 것 - 제2 CABAC 컨텍스트를 결정하는 것은 제1 CABAC 컨텍스트를 결정하는 것과는 독립적으로 발생함 - ; 및 제1 및 제2 CABAC 컨텍스트에, 각각, 기초하여 제1 및 제2 모드 동안 인코딩되는 비디오 데이터를 디코딩하여 디코딩된 비디오 데이터를 생성하는 것을 포함하는 비디오 데이터를 디코딩하기 위한 방법을 수반할 수 있다.
일반적으로, 실시형태의 적어도 하나의 예는 하나 이상의 프로세서를 포함하는 비디오 데이터를 디코딩하기 위한 장치를 수반할 수 있는데, 여기서 하나 이상의 프로세서는: 아핀 모드의 사용을 나타내는 제1 플래그와 관련되는 제1 CABAC 컨텍스트를 결정하도록; 아핀 모드 또는 아핀 모드와는 상이한 제2 모드 중 어느 하나의 사용을 나타내는 제2 플래그와 관련되는 제2 CABAC 컨텍스트를 결정하도록 - 제2 CABAC 컨텍스트를 결정하는 것은 제1 CABAC 컨텍스트를 결정하는 것과는 독립적으로 발생함 - ; 그리고 제1 및 제2 CABAC 컨텍스트에, 각각, 기초하여 제1 및 제2 모드 동안 인코딩되는 비디오 데이터를 디코딩하여 디코딩된 비디오 데이터를 생성하도록 구성된다.
일반적으로, 실시형태의 적어도 하나의 예는: 아핀 모드 또는 아핀 모드와는 상이한 제2 모드를 포함하는 모드의 사용을 나타내는 서브블록 병합 모드 플래그와 관련되는 CABAC 컨텍스트를 결정하는 것; CABAC 컨텍스트는 아핀 모드 동안 제1 CABAC 확률 모델에 그리고 제2 모드 동안 제1 CABAC 확률 모델과는 상이한 제2 CABAC 확률 모델에 대응함; CABAC 컨텍스트, 모드 및 모드에 대응하는 CABAC 확률 모델에 기초하여 비디오 데이터를 인코딩하는 것을 포함하는 비디오 데이터를 인코딩하기 위한 방법을 수반할 수 있다.
일반적으로, 실시형태의 적어도 하나의 예는 하나 이상의 프로세서를 포함하는 비디오 데이터를 인코딩하기 위한 장치를 수반할 수 있는데, 여기서 하나 이상의 프로세서는: 아핀 모드 또는 아핀 모드와는 상이한 제2 모드를 포함하는 모드의 사용을 나타내는 서브블록 병합 모드 플래그와 관련되는 CABAC 컨텍스트를 결정하도록; CABAC 컨텍스트는 아핀 모드 동안 제1 CABAC 확률 모델에 그리고 제2 모드 동안 제1 CABAC 확률 모델과는 상이한 제2 CABAC 확률 모델에 대응함; CABAC 컨텍스트, 모드 및 모드에 대응하는 CABAC 확률 모델에 기초하여 비디오 데이터를 인코딩하도록 구성된다.
일반적으로, 실시형태의 적어도 하나의 예는: 아핀 모드 또는 아핀 모드와는 상이한 제2 모드를 포함하는 모드의 사용을 나타내는 서브블록 병합 모드 플래그와 관련되는 CABAC 컨텍스트를 결정하는 것; CABAC 컨텍스트는 아핀 모드 동안 제1 CABAC 확률 모델에 그리고 제2 모드 동안 제1 CABAC 확률 모델과는 상이한 제2 CABAC 확률 모델에 대응함; 아핀 모드에 기초하여 인코딩되는 비디오 데이터를 제1 CABAC 확률 모델에 기초하여 디코딩하고 제2 모드에 기초하여 인코딩되는 비디오 데이터를 제2 CABAC 컨텍스트에 기초하여 디코딩하는 것을 포함하는 비디오 데이터를 디코딩하기 위한 방법을 수반할 수 있다.
일반적으로, 실시형태의 적어도 하나의 예는 하나 이상의 프로세서를 포함하는 비디오 데이터를 디코딩하기 위한 장치를 수반할 수 있는데, 여기서 하나 이상의 프로세서는: 아핀 모드 또는 아핀 모드와는 상이한 제2 모드를 포함하는 모드의 사용을 나타내는 서브블록 병합 모드 플래그와 관련되는 CABAC 컨텍스트를 결정하도록; CABAC 컨텍스트는 아핀 모드 동안 제1 CABAC 확률 모델에 그리고 제2 모드 동안 제1 CABAC 확률 모델과는 상이한 제2 CABAC 확률 모델에 대응함; 아핀 모드에 기초하여 인코딩되는 비디오 데이터를 제1 CABAC 확률 모델에 기초하여 디코딩하고 제2 모드에 기초하여 인코딩되는 비디오 데이터를 제2 CABAC 컨텍스트에 기초하여 디코딩하도록 구성된다.
일반적으로, 실시형태의 적어도 하나의 예는 본원에서 설명되는 임의의 실시형태에 따른 방법 또는 장치를 수반할 수 있는데, 여기서 아핀 모드는 AMVP 모드를 포함하고, 제2 모드는 병합 모드를 포함한다.
일반적으로, 실시형태의 적어도 하나의 예는 본원에서 설명되는 임의의 실시형태에 따른 방법 또는 장치를 수반할 수 있는데, 여기서 아핀 모드는 AMVP 모드를 포함하고 제2 모드는 병합, SbTMVP, mmvd, 또는 DMVR 중 하나를 포함한다.
일반적으로, 실시형태의 적어도 하나의 예는 본원에서 설명되는 임의의 실시형태에 따른 방법 또는 장치를 수반할 수 있는데, 여기서 제1 또는 제2 CABAC 컨텍스트와 같은 CABAC 컨텍스트를 결정하는 것은 공간적 아핀 이웃을 고려하지 않는다.
일반적으로, 실시형태의 적어도 하나의 예는 본원에서 설명되는 임의의 실시형태에 따른 방법 또는 장치를 수반할 수 있는데, 여기서 제1 또는 제2 CABAC 컨텍스트와 같은 CABAC 컨텍스트는 단지 하나의 컨텍스트를 갖는다.
일반적으로, 실시형태의 적어도 하나의 예는 본원에서 설명되는 임의의 실시형태에 따른 방법 또는 장치를 수반할 수 있는데, 여기서 제1 또는 제2 CABAC 컨텍스트와 같은 CABAC 컨텍스트를 결정하는 것은 공간적 이웃이 이용 가능한지의 여부에 기초한다.
일반적으로, 실시형태의 적어도 하나의 예는 본원에서 설명되는 임의의 실시형태에 따른 방법 또는 장치를 수반할 수 있으며, 제1 또는 제2 CABAC 컨텍스트와 같은 CABAC 컨텍스트를 결정할 때 고려될 가상의 아핀 후보를 구성하는 것을 포함할 수 있다.
일반적으로, 실시형태의 적어도 하나의 예는 가상의 아핀 후보를 수반하는 본원에서 설명되는 임의의 실시형태에 따른 방법 또는 장치를 수반할 수 있는데, 여기서 가상의 아핀 후보를 구성하는 것은 아핀 모드에서가 아니라 인터 모드에서 코딩되는 이웃 CU에 기초한다.
일반적으로, 실시형태의 적어도 하나의 예는 인터 모드에서 코딩되는 이웃 CU에 기초하여 가상의 아핀 후보를 구성하는 것을 수반하는 본원에서 설명되는 임의의 실시형태에 따른 방법 또는 장치를 수반할 수 있는데, 여기서 CABAC 컨텍스트는 다음의 것 중 하나를 포함할 것이다: 어떠한 인터 이웃도 이용 가능하지 않은 경우 0; 인터 이웃이 이용 가능하지만 그러나 어떠한 아핀 이웃도 이용 가능하지 않은 경우 1; 아핀 이웃이 이용 가능한 경우 2.
일반적으로, 실시형태의 적어도 하나의 예는 본원에서 설명되는 임의의 실시형태에 따른 방법 또는 장치를 수반할 수 있으며, 가상의 시간적 후보의 생성을 가능하게 하기 위한 인터 픽쳐인 참조 픽쳐의 존재를 고려하는 것을 더 포함할 수 있다.
일반적으로, 실시형태의 적어도 하나의 예는 가상의 시간적 후보를 구성하는 것을 수반하는 본원에서 설명되는 임의의 실시형태에 따른 방법 또는 장치를 수반할 수 있는데, 여기서 가상의 시간적 후보는 인터 모드에서 코딩되는 시간적으로 동일 위치에 위치된 CU에 기초하여 구성될 수 있다.
일반적으로, 실시형태의 적어도 하나의 예는 인터 모드에서 코딩되는 동일 위치에 위치된 CU에 기초하여 가상의 시간적 후보를 구성하는 것을 수반하는 본원에서 설명되는 임의의 실시형태에 따른 방법 또는 장치를 수반할 수 있는데, 여기서 컨텍스트를 결정하는 것은 다음의 것을 포함한다: 인터 이웃이 이용 가능한 것 또는 인터 참조 픽쳐가 참조 픽쳐 인덱스 0과 함께 이용 가능한 것.
일반적으로, 실시형태의 적어도 하나의 예는, 하나 이상의 프로세서에 의해 실행될 때, 본원에서 설명되는 임의의 실시형태에 따른 방법을 수행하기 위한 컴퓨팅 명령어들을 포함하는 컴퓨터 프로그램 제품을 수반할 수 있다.
일반적으로, 실시형태의 적어도 하나의 예는, 명령어들을 실행하는 컴퓨터로 하여금 본원에서 설명되는 임의의 실시형태에 따른 방법을 수행하게 하기 위한 실행 가능한 프로그램 명령어들을 저장하는 비일시적 컴퓨터 판독 가능 매체를 수반할 수 있다.
일반적으로, 실시형태의 적어도 하나의 예는 인코딩된 비디오 데이터를 포함하도록 포맷되는 비트스트림을 수반할 수 있는데, 여기서 인코딩된 비디오 데이터는 다음의 것을 포함한다: 본원에서 설명되는 임의의 방법에 따라 CABAC 컨텍스트를 획득하는 것과 관련되는 표시자; 및 CABAC 컨텍스트에 기초하여 인코딩되는 픽쳐 데이터.
일반적으로, 실시형태의 적어도 하나의 예는 다음의 것을 포함하는 디바이스를 수반할 수 있다: 본원에서 설명되는 임의의 실시형태에 따른 장치; 및 (i) 신호 - 신호는 비디오 데이터를 나타내는 데이터를 포함함 - 를 수신하도록 구성되는 안테나, (ii) 수신된 신호를, 비디오 데이터를 나타내는 데이터를 포함하는 주파수의 대역으로 제한하도록 구성되는 대역 제한기, 및 (iii) 비디오 데이터로부터 이미지를 디스플레이하도록 구성되는 디스플레이 중 적어도 하나.
일반적으로, 실시형태의 적어도 하나의 예는 하나 이상의 프로세서를 포함하는 비디오 데이터를 인코딩하기 위한 장치를 수반할 수 있는데, 여기서 하나 이상의 프로세서는: 제1 인터 예측 모드 동안 아핀 모션 모델의 사용을 나타내는 플래그와 관련되는 제1 CABAC 컨텍스트를 결정하도록; 제1 인터 예측 모드와는 상이한 제2 인터 예측 모드 동안 아핀 모션 모델의 사용을 나타내는 플래그와 관련되며 제1 CABAC 컨텍스트와는 상이한 제2 CABAC 컨텍스트를 결정하도록; 그리고 비디오 데이터를 인코딩하여 인코딩된 비디오 데이터를 생성하도록 - 제1 인터 예측 모드 동안 아핀 모션 모델에 기초하여 생성되는 비디오 데이터는 제1 CABAC 컨텍스트와 관련되는 제1 CABAC 확률 모델에 기초하여 인코딩되고, 제2 인터 예측 모드 동안 아핀 모션 모델에 기초하여 생성되는 비디오 데이터는 제2 CABAC 컨텍스트와 관련되는 제2 CABAC 확률 모델에 기초하여 인코딩됨 - 구성된다.
일반적으로, 실시형태의 적어도 하나의 다른 예는: 제1 인터 예측 모드 동안 아핀 모션 모델의 사용을 나타내는 플래그와 관련되는 제1 CABAC 컨텍스트를 결정하는 것; 제1 인터 예측 모드와는 상이한 제2 인터 예측 모드 동안 아핀 모션 모델의 사용을 나타내는 플래그와 관련되며 제1 CABAC 컨텍스트와는 상이한 제2 CABAC 컨텍스트를 결정하는 것; 및 비디오 데이터를 인코딩하여 인코딩된 비디오 데이터를 생성하는 것 - 제1 인터 예측 모드 동안 아핀 모션 모델에 기초하여 생성되는 비디오 데이터는 제1 CABAC 컨텍스트와 관련되는 제1 CABAC 확률 모델에 기초하여 인코딩되고, 제2 인터 예측 모드 동안 아핀 모션 모델에 기초하여 생성되는 비디오 데이터는 제2 CABAC 컨텍스트와 관련되는 제2 CABAC 확률 모델에 기초하여 인코딩됨 - 을 포함하는 비디오 데이터를 인코딩하기 위한 방법을 수반할 수 있다.
일반적으로, 실시형태의 적어도 하나의 다른 예는 하나 이상의 프로세서를 포함하는 비디오 데이터를 디코딩하기 위한 장치를 수반할 수 있는데, 여기서 하나 이상의 프로세서는: 제1 인터 예측 모드 동안 아핀 모션 모델의 사용을 나타내는 플래그와 관련되는 제1 CABAC 컨텍스트를 결정하도록; 제1 인터 예측 모드와는 상이한 제2 인터 예측 모드 동안 아핀 모션 모델의 사용을 나타내는 플래그와 관련되며 제1 CABAC 컨텍스트와는 상이한 제2 CABAC 컨텍스트를 결정하도록; 그리고 비디오 데이터를 디코딩하여 디코딩된 비디오 데이터를 생성하도록 - 제1 인터 예측 모드 동안 아핀 모션 모델에 기초하여 생성되는 비디오 데이터는 제1 CABAC 컨텍스트와 관련되는 제1 CABAC 확률 모델에 기초하여 디코딩되고, 제2 인터 예측 모드 동안 아핀 모션 모델에 기초하여 생성되는 비디오 데이터는 제2 CABAC 컨텍스트와 관련되는 제2 CABAC 확률 모델에 기초하여 디코딩됨 - 구성된다.
일반적으로, 실시형태의 적어도 하나의 다른 예는: 제1 인터 예측 모드 동안 아핀 모션 모델의 사용을 나타내는 플래그와 관련되는 제1 CABAC 컨텍스트를 결정하는 것; 제1 인터 예측 모드와는 상이한 제2 인터 예측 모드 동안 아핀 모션 모델의 사용을 나타내는 플래그와 관련되며 제1 CABAC 컨텍스트와는 상이한 제2 CABAC 컨텍스트를 결정하는 것; 및 비디오 데이터를 디코딩하여 디코딩된 비디오 데이터를 생성하는 것 - 제1 인터 예측 모드 동안 아핀 모션 모델에 기초하여 생성되는 비디오 데이터는 제1 CABAC 컨텍스트와 관련되는 제1 CABAC 확률 모델에 기초하여 디코딩되고, 제2 인터 예측 모드 동안 아핀 모션 모델에 기초하여 생성되는 비디오 데이터는 제2 CABAC 컨텍스트와 관련되는 제2 CABAC 확률 모델에 기초하여 디코딩됨 - 을 포함하는 비디오 데이터를 디코딩하기 위한 방법을 수반할 수 있다.
일반적으로, 실시형태의 적어도 하나의 다른 예는 하나 이상의 프로세서를 포함하는 비디오 데이터를 인코딩하기 위한 장치를 수반할 수 있는데, 여기서 하나 이상의 프로세서는: 제1 인터 예측 모드 동안 아핀 모션 보상 플래그와 관련되는 제1 CABAC 컨텍스트를 결정하도록; 제1 인터 예측 모드와는 상이한 제2 인터 예측 모드 동안 아핀 모션 보상 플래그와 관련되는 제2 CABAC 컨텍스트를 결정하도록 - 제2 CABAC 컨텍스트를 결정하는 것은 제1 CABAC 컨텍스트를 결정하는 것과는 독립적으로 발생함 - ; 그리고 아핀 모션 보상 플래그 및 제1 및 제2 CABAC 컨텍스트에, 각각, 기초하여 제1 및 제2 인터 예측 모드 동안 비디오 데이터를 인코딩하여 인코딩된 비디오 데이터를 생성하도록 구성된다.
일반적으로, 실시형태의 적어도 하나의 다른 예는: 제1 인터 예측 모드 동안 아핀 모션 보상 플래그와 관련되는 제1 CABAC 컨텍스트를 결정하는 것; 제1 인터 예측 모드와는 상이한 제2 인터 예측 모드 동안 아핀 모션 보상 플래그와 관련되는 제2 CABAC 컨텍스트를 결정하는 것 - 제2 CABAC 컨텍스트를 결정하는 것은 제1 CABAC 컨텍스트를 결정하는 것과는 독립적으로 발생함 - ; 및 아핀 모션 보상 플래그 및 제1 및 제2 CABAC 컨텍스트에, 각각, 기초하여 제1 및 제2 인터 예측 모드 동안 비디오 데이터를 인코딩하여 인코딩된 비디오 데이터를 생성하는 것을 포함하는 비디오 데이터를 인코딩하기 위한 방법을 수반할 수 있다.
일반적으로, 실시형태의 적어도 하나의 다른 예는 하나 이상의 프로세서를 포함하는 비디오 데이터를 디코딩하기 위한 장치를 수반할 수 있는데, 여기서 하나 이상의 프로세서는: 제1 인터 예측 모드 동안 아핀 모션 보상 플래그와 관련되는 제1 CABAC 컨텍스트를 결정하도록; 제1 인터 예측 모드와는 상이한 제2 인터 예측 모드 동안 아핀 모션 보상 플래그와 관련되는 제2 CABAC 컨텍스트를 결정하도록 - 제2 CABAC 컨텍스트를 결정하는 것은 제1 CABAC 컨텍스트를 결정하는 것과는 독립적으로 발생함 - ; 그리고 아핀 모션 보상 플래그 및 제1 및 제2 CABAC 컨텍스트에, 각각, 기초하여 제1 및 제2 인터 예측 모드 동안 비디오 데이터를 디코딩하여 디코딩된 비디오 데이터를 생성하도록 구성된다.
일반적으로, 실시형태의 적어도 하나의 다른 예는: 제1 인터 예측 모드 동안 아핀 모션 보상 플래그와 관련되는 제1 CABAC 컨텍스트를 결정하는 것; 제1 인터 예측 모드와는 상이한 제2 인터 예측 모드 동안 아핀 모션 보상 플래그와 관련되는 제2 CABAC 컨텍스트를 결정하는 것 - 제2 CABAC 컨텍스트를 결정하는 것은 제1 CABAC 컨텍스트를 결정하는 것과는 독립적으로 발생함 - ; 및 아핀 모션 보상 플래그 및 제1 및 제2 CABAC 컨텍스트에, 각각, 기초하여 제1 및 제2 인터 예측 모드 동안 비디오 데이터를 디코딩하여 디코딩된 비디오 데이터를 생성하는 것을 포함하는 비디오 데이터를 디코딩하기 위한 방법을 수반할 수 있다.
일반적으로, 실시형태의 적어도 하나의 다른 예는 하나 이상의 프로세서를 포함하는 비디오 데이터를 인코딩하기 위한 장치를 수반할 수 있는데, 여기서 하나 이상의 프로세서는: 인터 예측 모드를 결정하도록; 인터 예측 모드가 제1 모드인 것에 기초하여 아핀 모션 보상 플래그와 관련되는 제1 CABAC 컨텍스트를 획득하도록; 인터 예측 모드가 제1 모드와는 상이한 제2 모드인 것에 기초하여 아핀 모션 보상 플래그와 관련되는 제2 CABAC 컨텍스트를 획득하도록 - 제2 CABAC 컨텍스트를 획득하는 것은 제1 CABAC 컨텍스트를 획득하는 것과는 독립적으로 발생함 - ; 그리고 아핀 모션 보상 플래그 및 제1 및 제2 CABAC 컨텍스트에, 각각, 기초하여 제1 및 제2 모드 동안 비디오 데이터를 인코딩하여 인코딩된 비디오 데이터를 생성하도록 구성된다.
일반적으로, 실시형태의 적어도 하나의 다른 예는: 인터 예측 모드를 결정하는 것; 인터 예측 모드가 제1 모드인 것에 기초하여 아핀 모션 보상 플래그와 관련되는 제1 CABAC 컨텍스트를 획득하는 것; 인터 예측 모드가 제1 모드와는 상이한 제2 모드인 것에 기초하여 아핀 모션 보상 플래그와 관련되는 제2 CABAC 컨텍스트를 획득하는 것 - 제2 CABAC 컨텍스트를 획득하는 것은 제1 CABAC 컨텍스트를 획득하는 것과는 독립적으로 발생함 - ; 및 아핀 모션 보상 플래그 및 제1 및 제2 CABAC 컨텍스트에, 각각, 기초하여 제1 및 제2 모드 동안 비디오 데이터를 인코딩하여 인코딩된 비디오 데이터를 생성하는 것을 포함하는 비디오 데이터를 인코딩하기 위한 방법을 수반할 수 있다.
일반적으로, 실시형태의 적어도 하나의 다른 예는 하나 이상의 프로세서를 포함하는 비디오 데이터를 디코딩하기 위한 장치를 수반할 수 있는데, 여기서 하나 이상의 프로세서는: 인터 예측 모드를 결정하도록; 인터 예측 모드가 제1 모드인 것에 기초하여 아핀 모션 보상 플래그와 관련되는 제1 CABAC 컨텍스트를 획득하도록; 인터 예측 모드가 제1 모드와는 상이한 제2 모드인 것에 기초하여 아핀 모션 보상 플래그와 관련되는 제2 CABAC 컨텍스트를 획득하도록 - 제2 CABAC 컨텍스트를 획득하는 것은 제1 CABAC 컨텍스트를 획득하는 것과는 독립적으로 발생함 - ; 그리고 아핀 모션 보상 플래그 및 제1 및 제2 CABAC 컨텍스트에, 각각, 기초하여 제1 및 제2 모드 동안 비디오 데이터를 디코딩하여 디코딩된 비디오 데이터를 생성하도록 구성된다.
일반적으로, 실시형태의 적어도 하나의 다른 예는: 인터 예측 모드를 결정하는 것; 인터 예측 모드가 제1 모드인 것에 기초하여 아핀 모션 보상 플래그와 관련되는 제1 CABAC 컨텍스트를 획득하는 것; 인터 예측 모드가 제1 모드와는 상이한 제2 모드인 것에 기초하여 아핀 모션 보상 플래그와 관련되는 제2 CABAC 컨텍스트를 획득하는 것 - 제2 CABAC 컨텍스트를 획득하는 것은 제1 CABAC 컨텍스트를 획득하는 것과는 독립적으로 발생함 - ; 및 아핀 모션 보상 플래그 및 제1 및 제2 CABAC 컨텍스트에, 각각, 기초하여 제1 및 제2 모드 동안 비디오 데이터를 디코딩하여 디코딩된 비디오 데이터를 생성하는 것을 포함하는 비디오 데이터를 디코딩하기 위한 방법을 수반할 수 있다.
일반적으로, 실시형태의 적어도 하나의 다른 예는 하나 이상의 프로세서를 포함하는 비디오 데이터를 인코딩하기 위한 장치를 수반할 수 있는데, 여기서 하나 이상의 프로세서는: 인터 예측 모드 동안 아핀 모션 모델의 사용을 나타내는 플래그와 관련되는 CABAC 컨텍스트를 결정하도록; CABAC 컨텍스트는 제1 모드인 인터 예측 모드에 대한 제1 CABAC 확률 모델에 대응함; 및 CABAC 컨텍스트는 제1 모드와는 상이한 제2 모드인 인터 예측 모드에 대한 제1 CABAC 확률 모델과는 상이한 제2 CABAC 확률 모델에 대응함; 플래그, CABAC 컨텍스트, 인터 예측 모드 및 인터 예측 모드에 대응하는 제1 및 제2 CABAC 확률 모델 중 하나에 기초하여 비디오 데이터를 인코딩하도록 구성된다.
일반적으로, 실시형태의 적어도 하나의 다른 예는: 인터 예측 모드 동안 아핀 모션 모델의 사용을 나타내는 플래그와 관련되는 CABAC 컨텍스트를 결정하는 것; CABAC 컨텍스트는 제1 모드인 인터 예측 모드에 대한 제1 CABAC 확률 모델에 대응함; 및 CABAC 컨텍스트는 제1 모드와는 상이한 제2 모드인 인터 예측 모드에 대한 제1 CABAC 확률 모델과는 상이한 제2 CABAC 확률 모델에 대응함; 플래그, CABAC 컨텍스트, 인터 예측 모드 및 인터 예측 모드에 대응하는 제1 및 제2 CABAC 확률 모델 중 하나에 기초하여 비디오 데이터를 인코딩하는 것을 포함하는 비디오 데이터를 인코딩하기 위한 방법을 수반할 수 있다.
일반적으로, 실시형태의 적어도 하나의 다른 예는 하나 이상의 프로세서를 포함하는 비디오 데이터를 디코딩하기 위한 장치를 수반할 수 있는데, 여기서 하나 이상의 프로세서는: 인터 예측 모드 동안 아핀 모션 모델의 사용을 나타내는 플래그와 관련되는 CABAC 컨텍스트를 결정하도록; CABAC 컨텍스트는 제1 모드인 인터 예측 모드에 대한 제1 CABAC 확률 모델에 대응함; 및 CABAC 컨텍스트는 제1 모드와는 상이한 제2 모드인 인터 예측 모드에 대한 제1 CABAC 확률 모델과는 상이한 제2 CABAC 확률 모델에 대응함; 플래그, CABAC 컨텍스트, 인터 예측 모드 및 인터 예측 모드에 대응하는 제1 및 제2 CABAC 확률 모델 중 하나에 기초하여 비디오 데이터를 디코딩하도록 구성된다.
일반적으로, 실시형태의 적어도 하나의 다른 예는: 인터 예측 모드 동안 아핀 모션 모델의 사용을 나타내는 플래그와 관련되는 CABAC 컨텍스트를 결정하는 것; CABAC 컨텍스트는 제1 모드인 인터 예측 모드에 대한 제1 CABAC 확률 모델에 대응함; 및 CABAC 컨텍스트는 제1 모드와는 상이한 제2 모드인 인터 예측 모드에 대한 제1 CABAC 확률 모델과는 상이한 제2 CABAC 확률 모델에 대응함; 플래그, CABAC 컨텍스트, 인터 예측 모드 및 인터 예측 모드에 대응하는 제1 및 제2 CABAC 확률 모델 중 하나에 기초하여 비디오 데이터를 디코딩하는 것을 포함하는 비디오 데이터를 디코딩하기 위한 방법을 수반할 수 있다.
일반적으로, 실시형태의 적어도 하나의 다른 예는 하나 이상의 프로세서를 포함하는 비디오 데이터를 인코딩하기 위한 장치를 수반할 수 있는데, 여기서 하나 이상의 프로세서는: 아핀 모션 모델의 사용을 나타내는 플래그를 획득하도록; 플래그와 관련되는 CABAC 컨텍스트를 결정하도록 - CABAC 컨텍스트는 플래그와 관련되는 유일한 CABAC 컨텍스트이고 현재 코딩 단위의 공간적 아핀 이웃에 기초한 CABAC 컨텍스트 모델링 없이 결정됨 - ; 그리고 아핀 플래그 및 CABAC 컨텍스트에 기초하여 비디오 데이터를 인코딩하여 인코딩된 비디오 데이터를 생성하도록 구성된다.
일반적으로, 실시형태의 적어도 하나의 다른 예는: 아핀 모션 모델의 사용을 나타내는 플래그를 획득하는 것; 플래그와 관련되는 CABAC 컨텍스트를 결정하는 것 - CABAC 컨텍스트는 플래그와 관련되는 유일한 CABAC 컨텍스트이고 현재 코딩 단위의 공간적 아핀 이웃에 기초한 CABAC 컨텍스트 모델링 없이 결정됨 - ; 및 아핀 플래그 및 CABAC 컨텍스트에 기초하여 비디오 데이터를 인코딩하여 인코딩된 비디오 데이터를 생성하는 것을 포함하는 비디오 데이터를 인코딩하기 위한 방법을 수반할 수 있다.
일반적으로, 실시형태의 적어도 하나의 다른 예는 하나 이상의 프로세서를 포함하는 비디오 데이터를 디코딩하기 위한 장치를 수반할 수 있는데, 여기서 하나 이상의 프로세서는: 아핀 모션 모델의 사용을 나타내는 플래그를 획득하도록; 플래그와 관련되는 CABAC 컨텍스트를 결정하도록 - CABAC 컨텍스트는 플래그와 관련되는 유일한 CABAC 컨텍스트이고 현재 코딩 단위의 공간적 아핀 이웃에 기초한 CABAC 컨텍스트 모델링 없이 결정됨 - ; 그리고 아핀 플래그 및 CABAC 컨텍스트에 기초하여 비디오 데이터를 디코딩하여 디코딩된 비디오 데이터를 생성하도록 구성된다.
일반적으로, 실시형태의 적어도 하나의 다른 예는: 아핀 모션 모델의 사용을 나타내는 플래그를 획득하는 것; 플래그와 관련되는 CABAC 컨텍스트를 결정하는 것 - CABAC 컨텍스트는 플래그와 관련되는 유일한 CABAC 컨텍스트이고 현재 코딩 단위의 공간적 아핀 이웃에 기초한 CABAC 컨텍스트 모델링 없이 결정됨 - ; 및 아핀 플래그 및 CABAC 컨텍스트에 기초하여 비디오 데이터를 디코딩하여 디코딩된 비디오 데이터를 생성하는 것을 포함하는 비디오 데이터를 디코딩하기 위한 방법을 수반할 수 있다.
일반적으로, 실시형태의 적어도 하나의 다른 예는 하나 이상의 프로세서를 포함하는 비디오 데이터를 인코딩하기 위한 장치를 수반할 수 있는데, 여기서 하나 이상의 프로세서는: 현재 코딩 단위의 아핀 공간적 이웃의 이용 가능성에만 기초하여 인터 예측 모드 동안 아핀 모션 모델의 사용을 나타내는 플래그와 관련되는 CABAC 컨텍스트 - CABAC 컨텍스트는, 어떠한 공간적 아핀 이웃도 이용 가능하지 않다는 것을 나타내는 이용 가능성에 대응하는 제1 컨텍스트, 또는 적어도 하나의 공간적 아핀 이웃이 이용 가능하다는 것을 나타내는 이용 가능성에 대응하는 제2 컨텍스트 중 하나임 - 를 결정하도록; CABAC 컨텍스트에 기초하여 CABAC 확률 모델을 획득하도록; 그리고 플래그, CABAC 컨텍스트, 및 CABAC 컨텍스트에 대응하는 CABAC 확률 모델에 기초하여 비디오 데이터를 인코딩하도록 구성된다.
일반적으로, 실시형태의 적어도 하나의 다른 예는: 현재 코딩 단위의 아핀 공간적 이웃의 이용 가능성에만 기초하여 인터 예측 모드 동안 아핀 모션 모델의 사용을 나타내는 플래그와 관련되는 CABAC 컨텍스트 - CABAC 컨텍스트는, 어떠한 공간적 아핀 이웃도 이용 가능하지 않다는 것을 나타내는 이용 가능성에 대응하는 제1 컨텍스트, 또는 적어도 하나의 공간적 아핀 이웃이 이용 가능하다는 것을 나타내는 이용 가능성에 대응하는 제2 컨텍스트 중 하나임 - 를 결정하는 것; CABAC 컨텍스트에 기초하여 CABAC 확률 모델을 획득하는 것; 및 플래그, CABAC 컨텍스트, 및 CABAC 컨텍스트에 대응하는 CABAC 확률 모델에 기초하여 비디오 데이터를 인코딩하는 것을 포함하는 비디오 데이터를 인코딩하기 위한 방법을 수반할 수 있다.
일반적으로, 실시형태의 적어도 하나의 다른 예는 하나 이상의 프로세서를 포함하는 비디오 데이터를 디코딩하기 위한 장치를 수반할 수 있는데, 여기서 하나 이상의 프로세서는: 현재 코딩 단위의 아핀 공간적 이웃의 이용 가능성에만 기초하여 인터 예측 모드 동안 아핀 모션 모델의 사용을 나타내는 플래그와 관련되는 CABAC 컨텍스트 - CABAC 컨텍스트는, 어떠한 공간적 아핀 이웃도 이용 가능하지 않다는 것을 나타내는 이용 가능성에 대응하는 제1 컨텍스트, 또는 적어도 하나의 공간적 아핀 이웃이 이용 가능하다는 것을 나타내는 이용 가능성에 대응하는 제2 컨텍스트 중 하나임 - 를 결정하도록; CABAC 컨텍스트에 기초하여 CABAC 확률 모델을 획득하도록; 그리고 플래그, CABAC 컨텍스트, 및 CABAC 컨텍스트에 대응하는 CABAC 확률 모델에 기초하여 비디오 데이터를 디코딩하도록 구성된다.
일반적으로, 실시형태의 적어도 하나의 다른 예는: 현재 코딩 단위의 아핀 공간적 이웃의 이용 가능성에만 기초하여 인터 예측 모드 동안 아핀 모션 모델의 사용을 나타내는 플래그와 관련되는 CABAC 컨텍스트 - CABAC 컨텍스트는, 어떠한 공간적 아핀 이웃도 이용 가능하지 않다는 것을 나타내는 이용 가능성에 대응하는 제1 컨텍스트, 또는 적어도 하나의 공간적 아핀 이웃이 이용 가능하다는 것을 나타내는 이용 가능성에 대응하는 제2 컨텍스트 중 하나임 - 를 결정하는 것; CABAC 컨텍스트에 기초하여 CABAC 확률 모델을 획득하는 것; 및 플래그, CABAC 컨텍스트, 및 CABAC 컨텍스트에 대응하는 CABAC 확률 모델에 기초하여 비디오 데이터를 디코딩하는 것을 포함하는 비디오 데이터를 디코딩하기 위한 방법을 수반할 수 있다.
본 문서에서 설명되고 고려되는 실시형태의 다양한 예는 많은 상이한 형태로 구현될 수 있다. 도 14, 도 15, 및 도 16은 하기에서 설명되는 바와 같은 실시형태의 몇몇 예를 제공하지만, 그러나 다른 실시형태가 고려되고 도 14, 도 15, 및 도 16의 논의는 구현의 폭을 제한하지는 않는다. 양태 중 적어도 하나는 일반적으로 비디오 인코딩 및 디코딩에 관한 것이고, 적어도 하나의 다른 양태는, 일반적으로, 생성되는 또는 인코딩되는 비트스트림을 송신하는 것에 관한 것이다. 이들 및 다른 실시형태, 피쳐, 양태, 등등은, 방법, 장치, 설명되는 방법 중 임의의 것에 따라 비디오 데이터를 인코딩 또는 디코딩하기 위한 명령어들이 저장된 컴퓨터 판독 가능 저장 매체, 및/또는 설명되는 방법 중 임의의 것에 따라 생성되는 비트스트림을 저장한 컴퓨터 판독 가능 저장 매체로서 구현될 수 있다.
본 출원에서, 용어 "재구성되는" 및 "디코딩되는"은 상호 교환 가능하게 사용될 수도 있으며, 용어 "픽셀" 및 "샘플"은 상호 교환 가능하게 사용될 수도 있으며, 용어 "이미지", "픽쳐" 및 "프레임"은 상호 교환 가능하게 사용될 수도 있다. 반드시 그런 것은 아니지만 그러나 일반적으로, 용어 "재구성되는"은 인코더 측에서 사용되고, 한편, "디코딩되는"은 디코더 측에서 사용된다.
다양한 방법이 본원에서 설명되며, 방법의 각각은 설명된 방법을 달성하기 위한 하나 이상의 단계 또는 액션을 포함한다. 방법의 적절한 동작을 위해 단계 또는 액션의 특정한 순서가 필요로 되지 않는 한, 특정한 단계 및/또는 액션의 순서 및/또는 사용은 수정될 수도 있거나 또는 결합될 수도 있다.
본 문서에서 설명되는 다양한 방법 및 다른 양태는 모듈, 예를 들면, 도 14 및 도 15에서 도시되는 바와 같이, 비디오 인코더(100) 및 디코더(200)의 각각의 엔트로피 코딩, 및/또는 디코딩 모듈(145 및 230)을 수정하기 위해 사용될 수 있다. 또한, 본 양태는 VVC 또는 HEVC로 제한되지는 않으며, 예를 들면, 이미 존재하든 또는 미래에 개발되든 간에, 다른 표준 및 권장 사항, 및 임의의 그러한 표준 및 권장 사항(VVC 및 HEVC를 포함함)의 확장에 적용될 수 있다. 달리 나타내어지지 않는 한, 또는 기술적으로 배제되지 않는 한, 본 문서에서 설명되는 양태는 개별적으로 또는 조합하여 사용될 수 있다.
본 문서에서는 다양한 수치적 값, 예를 들면, {{1,0}, {3,1}, {1,1}}이 사용된다. 특정한 값은 예시적인 목적을 위한 것이며 설명되는 양태는 이들 특정한 값으로 제한되지는 않는다.
도 13은 인코더(100)의 한 예를 예시한다. 이 인코더(100)의 변형이 고려되지만, 그러나 인코더(100)는 명확화의 목적을 위해 모든 예상되는 변형을 설명하지 않으면서 하기에서 설명된다.
인코딩되기 이전에, 비디오 시퀀스는 사전 인코딩 프로세싱(pre-encoding processing; 101), 예를 들면, 입력 컬러 픽쳐에 컬러 변환을 적용하는 것(예를 들면, RGB 4:4:4로부터 YCbCr 4:2:0으로의 변환), 또는 (예를 들면, 컬러 성분 중 하나의 히스토그램 이퀄라이제이션을 사용하여) 압축에 더욱 탄력적인 신호 분포를 획득하기 위해 입력 픽쳐 성분의 재매핑을 수행하는 것을 거칠 수도 있다. 메타데이터가 사전 프로세싱과 관련될 수 있으며, 비트스트림에 첨부될 수 있다.
인코더(100)에서, 픽쳐는 하기에서 설명되는 바와 같이 인코더 엘리먼트에 의해 인코딩된다. 인코딩될 픽쳐는, 예를 들면, CU의 단위로 구획화되어(102) 프로세싱된다. 각각의 단위는, 예를 들면, 인트라 또는 인터 모드 중 어느 하나를 사용하여 인코딩된다. 단위가 인트라 모드에서 인코딩되는 경우, 그것은 인트라 예측(160)을 수행한다. 인터 모드에서, 모션 추정(175) 및 보상(170)이 수행된다. 인코더는, 단위를 인코딩하기 위해 인트라 모드 또는 인터 모드 중 어떤 것을 사용할지를 결정하고(105), 예를 들면, 예측 모드 플래그에 의해 인트라/인터 결정을 나타낸다. 예측 잔차는, 예를 들면, 원래의 이미지 블록으로부터 예측 블록을 감산하는(110) 것에 의해 계산된다.
그 다음, 예측 잔차는 변환되고(125) 양자화된다(130). 양자화된 변환 계수뿐만 아니라, 모션 벡터 및 다른 신택스 엘리먼트는 엔트로피 코딩되어(145) 비트스트림을 출력한다. 인코더는 변환을 스킵할 수 있고 변환되지 않은 잔차 신호에 양자화를 직접적으로 적용할 수 있다. 인코더는 변환 및 양자화 둘 모두를 바이패스할 수 있다, 즉, 변환 또는 양자화 프로세스의 적용 없이 잔차가 직접적으로 코딩된다.
인코더는 추가적인 예측을 위한 참조(reference)를 제공하기 위해 인코딩된 블록을 디코딩한다. 양자화된 변환 계수는 예측 잔차를 디코딩하기 위해 역양자화되고(140) 역변환된다(150). 디코딩된 예측 잔차 및 예측된 블록을 결합(155)하면, 이미지 블록이 재구성된다. 예를 들면, 디블록화/SAO(Sample Adaptive Offset; 샘플 적응 오프셋) 필터링을 수행하여 인코딩 아티팩트(artifact)를 감소시키기 위해, 루프 내 필터(in-loop filter; 165)가 재구성된 픽쳐에 적용된다. 필터링된 이미지는 참조 픽쳐 버퍼(180)에 저장된다.
도 15는 비디오 디코더(200)의 한 실시형태의 블록도를 예시한다. 디코더(200)에서, 비트스트림은 하기에서 설명되는 바와 같이 디코더 엘리먼트에 의해 디코딩된다. 비디오 디코더(200)는 일반적으로 도 14와 관련하여 설명되는 바와 같이 인코딩 패스(encoding pass)에 역순인 디코딩 패스(decoding pass)를 수행한다. 인코더(100)는 또한 일반적으로 비디오 데이터의 인코딩의 일부로서 비디오 디코딩을 수행한다.
디코더의 입력은, 비디오 인코더(100)에 의해 생성될 수 있는 비디오 비트스트림을 포함한다. 비트스트림은 변환 계수, 모션 벡터, 및 다른 코딩된 정보를 획득하기 위해 먼저 엔트로피 디코딩된다(230). 픽쳐 파티션 정보는 픽쳐가 구획화되는 방법을 나타낸다. 따라서, 디코더는 디코딩된 픽쳐 구획화 정보에 따라 픽쳐를 분할할 수도 있다(235). 변환 계수는 예측 잔차를 디코딩하기 위해 역양자화되고(240) 역변환된다(250). 디코딩된 예측 잔차 및 예측된 블록을 결합하면(255), 이미지 블록이 재구성된다. 예측된 블록은 인트라 예측(260) 또는 모션 보상 예측(즉, 인터 예측)(275)으로부터 획득될 수 있다(270). 재구성된 이미지에 루프 내 필터(265)가 적용된다. 필터링된 이미지는 참조 픽쳐 버퍼(280)에 저장된다.
디코딩된 픽쳐는 또한 사후 디코딩 프로세싱(post-decoding processing; 285), 예를 들면, 역 컬러 변환(예를 들면, YCbCr 4:2:0으로부터 RGB 4:4:4로의 변환), 또는 사전 인코딩 프로세싱(101)에서 수행되는 재매핑의 역을 수행하는 역 재매핑을 더 거칠 수 있다. 사후 디코딩 프로세싱은 사전 인코딩 프로세싱에서 유도되며 비트스트림에서 시그널링되는 메타데이터를 사용할 수 있다.
도 16은 다양한 양태 및 실시형태가 구현되는 시스템의 한 예의 블록도를 예시한다. 시스템(1000)은 하기에서 설명되는 다양한 컴포넌트를 포함하는 디바이스로서 구체화될 수 있으며 본 출원에서 설명되는 양태 중 하나 이상을 수행하도록 구성된다. 그러한 디바이스의 예는, 퍼스널 컴퓨터, 랩탑 컴퓨터, 스마트폰, 태블릿 컴퓨터, 디지털 멀티미디어 셋탑 박스, 디지털 텔레비전 수신기, 개인용 비디오 레코딩 시스템, 연결된 가전 제품(home appliances) 및 서버와 같은 다양한 전자 디바이스를 포함하지만, 그러나 이들로 제한되지는 않는다. 시스템(1000)의 엘리먼트는, 단독으로 또는 조합하여, 단일의 집적 회로, 다수의 IC, 및/또는 별개의 컴포넌트에서 구체화될 수 있다. 예를 들면, 적어도 하나의 실시형태에서, 시스템(1000)의 프로세싱 및 인코더/디코더 엘리먼트는 다수의 IC 및/또는 별개의 컴포넌트에 걸쳐 분산된다. 다양한 실시형태에서, 시스템(1000)은, 예를 들면, 통신 버스를 통해 또는 전용 입력 및/또는 출력 포트를 통해, 다른 유사한 시스템에, 또는 다른 전자 디바이스에 통신 가능하게 커플링된다. 다양한 실시형태에서, 시스템(1000)은 본 문서에서 설명되는 양태 중 하나 이상을 구현하도록 구성된다.
시스템(1000)은, 예를 들면, 본 출원에서 설명되는 다양한 양태를 구현하기 위해 내부에 로딩되는 명령어들을 실행하도록 구성되는 적어도 하나의 프로세서(1010)를 포함한다. 프로세서(1010)는 임베딩된 메모리, 입력 출력 인터페이스, 및 기술 분야에서 공지되어 있는 바와 같은 다양한 다른 회로를 포함할 수 있다. 시스템(1000)은 적어도 하나의 메모리(1020)(예를 들면, 휘발성 메모리 디바이스 및/또는 불휘발성 메모리 디바이스)를 포함한다. 시스템(1000)은, EEPROM, ROM, PROM, RAM, DRAM, SRAM, 플래시, 자기 디스크 드라이브, 및/또는 광학 디스크 드라이브를 포함하는, 그러나 이들로 제한되지는 않는 불휘발성 메모리 및/또는 휘발성 메모리를 포함할 수 있는 스토리지 디바이스(1040)를 포함한다. 스토리지 디바이스(1040)는, 비제한적인 예로서, 내부 스토리지 디바이스, 부착된 스토리지 디바이스, 및/또는 네트워크 액세스 가능 스토리지 디바이스를 포함할 수 있다.
시스템(1000)은, 예를 들면, 인코딩된 비디오 또는 디코딩된 비디오를 제공하기 위해 데이터를 프로세싱하도록 구성되는 인코더/디코더 모듈(1030)을 포함하고, 인코더/디코더 모듈(1030)은 그 자신의 프로세서 및 메모리를 포함할 수 있다. 인코더/디코더 모듈(1030)은 인코딩 및/또는 디코딩 기능을 수행하기 위해 디바이스에 포함될 수 있는 모듈(들)을 나타낸다. 공지되어 있는 바와 같이, 디바이스는 인코딩 및 디코딩 모듈 중 하나 또는 둘 모두를 포함할 수 있다. 추가적으로, 인코더/디코더 모듈(1030)은 시스템(1000)의 별개의 엘리먼트로서 구현될 수 있거나, 또는 기술 분야의 숙련된 자에게 공지되어 있는 바와 같이 하드웨어 및 소프트웨어의 조합으로서 프로세서(1010) 내에 통합될 수 있다.
본 출원에서 설명되는 다양한 양태를 수행하기 위해 프로세서(1010) 또는 인코더/디코더(1030) 상으로 로딩될 프로그램 코드는 스토리지 디바이스(1040)에 저장될 수 있고, 후속하여, 프로세서(1010)에 의한 실행을 위해 메모리(1020) 상으로 로딩될 수도 있다. 다양한 실시형태에 따르면, 프로세서(1010), 메모리(1020), 스토리지 디바이스(1040), 및 인코더/디코더 모듈(1030) 중 하나 이상은 본 문서에서 설명되는 프로세스의 수행 동안 다양한 아이템 중 하나 이상을 저장할 수 있다. 그러한 저장된 아이템은, 입력 비디오, 디코딩된 비디오 또는 디코딩된 비디오의 일부, 비트스트림, 매트릭스, 변수, 및 수학식, 공식, 연산, 및 연산 로직의 프로세싱으로부터의 중간 또는 최종 결과를 포함할 수 있지만, 그러나 이들로 제한되지는 않는다.
여러 실시형태에서, 프로세서(1010) 및/또는 인코더/디코더 모듈(1030) 내부의 메모리는 명령어들을 저장하기 위해 그리고 인코딩 또는 디코딩 동안 필요로 되는 프로세싱에 대한 작업 메모리를 제공하기 위해 사용된다. 그러나, 다른 실시형태에서, 프로세싱 디바이스(예를 들면, 프로세싱 디바이스는 프로세서(1010) 또는 인코더/디코더 모듈(1030) 중 어느 하나일 수 있음) 외부의 메모리가 이들 기능 중 하나 이상을 위해 사용된다. 외부 메모리는 메모리(1020) 및/또는 스토리지 디바이스(1040), 예를 들면, 동적 휘발성 메모리 및/또는 불휘발성 플래시 메모리일 수 있다. 몇몇 실시형태에서, 외부 불휘발성 플래시 메모리는 텔레비전의 오퍼레이팅 시스템을 저장하기 위해 사용된다. 적어도 하나의 실시형태에서, RAM과 같은 고속 외부 동적 휘발성 메모리는, MPEG-2, HEVC, 또는 VVC(다기능 비디오 코딩)와 같은, 비디오 코딩 및 디코딩 동작을 위한 작업 메모리로서 사용된다.
시스템(1000)의 엘리먼트에 대한 입력은 블록(1130)에서 나타내어지는 바와 같이 다양한 입력 디바이스를 통해 제공될 수 있다. 그러한 입력 디바이스는, (i) 예를 들면, 브로드캐스터(broadcaster)에 의해 무선을 통해 송신되는 RF 신호를 수신하는 RF 부분, (ii) 컴포지트(Composite) 입력 단자, (iii) USB 입력 단자, 및/또는 (iv) HDMI 입력 단자를 포함하지만, 그러나 이들로 제한되지는 않는다.
다양한 실시형태에서, 블록(1130)의 입력 디바이스는 기술 분야에서 공지되어 있는 바와 같이 관련되는 각각의 입력 프로세싱 엘리먼트를 갖는다. 예를 들면, RF 부분은, (i) 소망되는 주파수를 선택하는 것(신호를 선택하는 것, 또는 신호를 주파수의 한 대역으로 대역 제한하는 것으로 또한 지칭됨), (ii) 선택된 신호를 하향 변환하는 것, (iii) 소정의 실시형태에서 채널로서 지칭될 수 있는 (예를 들면) 신호 주파수 대역을 선택하기 위해 주파수의 더 좁은 대역으로 다시 대역 제한하는 것, (iv) 하향 변환되고 대역 제한된 신호를 복조하는 것, (v) 에러 정정을 수행하는 것, 및 (vi) 데이터 패킷의 소망되는 스트림을 선택하기 위해 역다중화(demultiplexing)하는 것에 필요한 엘리먼트와 관련될 수 있다. 다양한 실시형태의 RF 부분은 이들 기능을 수행하기 위한 하나 이상의 엘리먼트, 예를 들면, 주파수 선택기, 신호 선택기, 대역 제한기, 채널 선택기, 필터, 다운컨버터, 복조기, 에러 정정기, 및 역다중화기(demultiplexer)를 포함한다. RF 부분은, 예를 들면, 수신된 신호를 더 낮은 주파수(예를 들면, 중간 주파수 또는 베이스밴드 근처의 주파수)로 또는 베이스밴드로 하향 변환하는 것을 비롯하여, 이들 기능 중 다양한 것을 수행하는 튜너를 포함할 수 있다. 하나의 셋탑 박스 실시형태에서, RF 부분 및 그것의 관련된 입력 프로세싱 엘리먼트는 유선(예를 들면, 케이블) 매체를 통해 송신되는 RF 신호를 수신하고, 소망되는 주파수 대역으로 다시 필터링하는 것, 하향 변환하는 것, 및 필터링하는 것에 의해 주파수 선택을 수행한다. 다양한 실시형태는 상기에서 설명된(그리고 다른) 엘리먼트의 순서를 재배열하고, 이들 엘리먼트 중 일부를 제거하고, 및/또는 유사한 또는 상이한 기능을 수행하는 다른 엘리먼트를 추가한다. 엘리먼트를 추가하는 것은, 현존하는 엘리먼트 사이에 엘리먼트를 삽입하는 것, 예를 들면, 증폭기 및 아날로그 대 디지털 변환기를 삽입하는 것을 포함할 수 있다. 다양한 실시형태에서, RF 부분은 안테나를 포함한다.
추가적으로, USB 및/또는 HDMI 단자는 시스템(1000)을 USB 및/또는 HDMI 연결을 통해 다른 전자 디바이스에 연결하기 위한 각각의 인터페이스 프로세서를 포함할 수 있다. 입력 프로세싱의 다양한 양태, 예를 들면, 리드-솔로몬 에러 정정(Reed-Solomon error correction)은, 예를 들면, 필요에 따라 프로세서(1010) 내에서 또는 별개의 입력 프로세싱 IC 내에서 구현될 수 있다는 것이 이해되어야 한다. 유사하게, USB 또는 HDMI 인터페이스 프로세싱의 양태는 필요에 따라 프로세서(1010) 내에서 또는 별개의 인터페이스 IC 내에서 구현될 수 있다. 복조, 에러 정정, 및 역다중화 스트림은, 출력 디바이스 상에서의 표시를 위해 필요에 따라 데이터스트림을 프로세싱하기 위해, 예를 들면, 프로세서(1010) 및 메모리 및 저장 엘리먼트와 조합하여 동작하는 인코더/디코더(1030)를 비롯한 다양한 프로세싱 엘리먼트에 제공된다.
시스템(1000)의 다양한 엘리먼트는 통합된 하우징 내에서 제공될 수 있다. 통합된 하우징 내에서, 다양한 엘리먼트는, 적절한 연결 배치(1140), 예를 들면, I2C 버스, 배선, 및 인쇄 회로 기판을 비롯한, 기술 분야에서 공지되어 있는 바와 같은 내부 버스를 사용하여, 그들 사이에서 인터커넥트될 수 있고 데이터를 송신할 수 있다.
시스템(1000)은, 통신 채널(1060)을 통해 다른 디바이스와의 통신을 가능하게 하는 통신 인터페이스(1050)를 포함한다. 통신 인터페이스(1050)는, 통신 채널(1060)을 통해 데이터를 송신 및 수신하도록 구성되는 트랜스시버를 포함할 수 있지만, 그러나 이들로 제한되지는 않는다. 통신 인터페이스(1050)는, 모뎀 또는 네트워크 카드를 포함할 수 있지만, 그러나 이들로 제한되지는 않으며, 통신 채널(1060)은, 예를 들면, 유선 및/또는 무선 매체 내에서 구현될 수 있다.
데이터는, 다양한 실시형태에서, IEEE 802.11과 같은 무선 네트워크를 사용하여 시스템(1000)으로 스트리밍된다. 이들 실시형태의 무선 신호는, 예를 들면, Wi-Fi 통신을 위해 적응되는 통신 채널(1060) 및 통신 인터페이스(1050)를 통해 수신된다. 이들 실시형태의 통신 채널(1060)은, 스트리밍 애플리케이션 및 다른 오버 더 톱(over-the-top) 통신을 허용하기 위한 인터넷을 포함하는 외부 네트워크에 대한 액세스를 제공하는 액세스 포인트 또는 라우터에 통상적으로 연결된다. 다른 실시형태는 입력 블록(1130)의 HDMI 연결을 통해 데이터를 전달하는 셋탑 박스를 사용하여 스트리밍된 데이터를 시스템(1000)으로 제공한다. 여전히 다른 실시형태는 입력 블록(1130)의 RF 연결을 사용하여 스트리밍된 데이터를 시스템(1000)으로 제공한다.
시스템(1000)은, 디스플레이(1100), 스피커(1110), 및 다른 주변장치 디바이스(1120)를 비롯한 다양한 출력 디바이스에 출력 신호를 제공할 수 있다. 다른 주변장치 디바이스(1120)는, 실시형태의 다양한 예에서, 독립형 DVR, 디스크 플레이어, 스테레오 시스템, 조명 시스템, 및 시스템(1000)의 출력에 기초한 기능을 제공하는 다른 디바이스 중 하나 이상을 포함한다. 다양한 실시형태에서, 제어 신호는, AV.Link, CEC, 또는 유저 개입의 유무에 무관하게 디바이스 대 디바이스 제어를 가능하게 하는 다른 통신 프로토콜과 같은 시그널링을 사용하여 시스템(1000)과 디스플레이(1100), 스피커(1110), 또는 다른 주변장치 디바이스(1120) 사이에서 전달된다. 출력 디바이스는 각각의 인터페이스(1070, 1080, 및 1090)를 통한 전용 연결을 통해 시스템(1000)에 통신 가능하게 커플링될 수 있다. 대안적으로, 출력 디바이스는 통신 인터페이스(1050)를 통해 통신 채널(1060)을 사용하여 시스템(1000)에 연결될 수 있다. 디스플레이(1100) 및 스피커(1110)는, 전자 디바이스, 예를 들면, 텔레비전 내의 시스템(1000)의 다른 컴포넌트와 함께 단일의 유닛에서 통합될 수 있다. 다양한 실시형태에서, 디스플레이 인터페이스(1070)는 디스플레이 드라이버, 예를 들면, 타이밍 컨트롤러(timing controller; T Con) 칩을 포함한다.
예를 들면, 입력(1130)의 RF 부분이 별개의 셋탑 박스의 일부인 경우, 디스플레이(1100) 및 스피커(1110)는 대안적으로 다른 컴포넌트 중 하나 이상으로부터 분리될 수 있다. 디스플레이(1100) 및 스피커(1110)가 외부 컴포넌트인 다양한 실시형태에서, 출력 신호는, 예를 들면, HDMI 포트, USB 포트, 또는 COMP 출력을 포함하는 전용 출력 연결을 통해 제공될 수 있다.
실시형태는 프로세서(1010)에 의해 구현되는 컴퓨터 소프트웨어에 의해 또는 하드웨어에 의해, 또는 하드웨어 및 소프트웨어의 조합에 의해 실행될 수 있다. 비제한적인 예로서, 실시형태는 하나 이상의 집적 회로에 의해 구현될 수 있다. 메모리(1020)는 기술 환경에 적절한 임의의 타입을 가질 수 있으며, 비제한적인 예로서, 광학 메모리 디바이스, 자기 메모리 디바이스, 반도체 기반의 메모리 디바이스, 고정식 메모리, 및 착탈식(removable) 메모리와 같은 임의의 적절한 데이터 스토리지 기술을 사용하여 구현될 수 있다. 프로세서(1010)는 기술 환경에 적절한 임의의 타입을 가질 수 있으며, 비제한적인 예로서, 마이크로프로세서, 범용 컴퓨터, 특수 목적 컴퓨터, 및 멀티 코어 아키텍쳐에 기초한 프로세서 중 하나 이상을 포괄할 수 있다.
다양한 구현예는 디코딩을 수반한다. "디코딩"은, 본 출원에서 사용될 때", 예를 들면, 디스플레이에 적절한 최종 출력을 생성하기 위해 수신된 인코딩된 시퀀스에 대해 수행되는 프로세스의 모두 또는 일부를 포괄할 수 있다. 다양한 실시형태에서, 그러한 프로세스는 디코더에 의해 통상적으로 수행되는 프로세스 중 하나 이상, 예를 들면, 엔트로피 디코딩, 역양자화, 역변환, 및 차분 디코딩(differential decoding)을 포함한다. 다양한 실시형태에서, 그러한 프로세스는 또한, 또는 대안적으로, 본 출원에서 설명되는 다양한 구현예의 디코더에 의해 수행되는 프로세스, 예를 들면, 다양한 인트라 예측 참조 어레이에 대해 사용될 가중치의 인덱스를 추출하는 것을 포함한다.
추가적인 예로서, 하나의 실시형태에서, "디코딩"은 엔트로피 디코딩만을 지칭하고, 다른 실시형태에서, "디코딩"은 차분 디코딩만을 지칭하고, 다른 실시형태에서, "디코딩"은 엔트로피 디코딩 및 차분 디코딩의 조합을 지칭한다. 어구 "디코딩 프로세스"가 동작의 서브세트를 구체적으로 지칭하도록 의도되는지 또는 더 넓은 디코딩 프로세스를 일반적으로 지칭하도록 의도되는지의 여부는 특정한 설명의 맥락에 기초하여 명확할 것이며 기술 분야의 숙련된 자에 의해 잘 이해될 것으로 믿어진다.
다양한 구현예는 인코딩을 수반한다. "디코딩"에 대한 상기의 논의와 유사한 방식으로, 본 출원에서 사용되는 바와 같은 "인코딩"은, 예를 들면, 인코딩된 비트스트림을 생성하기 위해 입력 비디오 시퀀스에 대해 수행되는 프로세스의 모두 또는 일부를 포괄할 수 있다. 다양한 실시형태에서, 그러한 프로세스는 인코더에 의해 통상적으로 수행되는 프로세스, 예를 들면, 구획화, 차분 인코딩, 변환, 양자화, 및 엔트로피 인코딩 중 하나 이상을 포함한다. 다양한 실시형태에서, 그러한 프로세스는 또한, 또는 대안적으로, 본 출원에서 설명되는 다양한 구현예의 인코더에 의해 수행되는 프로세스, 예를 들면, 인트라 예측 참조 어레이의 가중치화(weighting)를 포함한다.
또 다른 예로서, 하나의 실시형태에서, "인코딩"은 엔트로피 인코딩만을 지칭하고, 다른 실시형태에서, "인코딩"은 차분 인코딩만을 지칭하고, 다른 실시형태에서, "인코딩"은 차분 인코딩 및 엔트로피 인코딩의 조합을 지칭한다. 어구 "인코딩 프로세스"가 동작의 서브세트를 구체적으로 지칭하도록 의도되는지 또는 더 넓은 인코딩 프로세스를 일반적으로 지칭하도록 의도되는지의 여부는 특정한 설명의 맥락에 기초하여 명확할 것이며 기술 분야의 숙련된 자에 의해 잘 이해될 것으로 믿어진다.
본원에서 사용되는 바와 같은 신택스 엘리먼트는 설명적인 용어(descriptive term)이다는 것을 유의한다. 그러한 만큼, 그들은 다른 신택스 엘리먼트 이름의 사용을 배제하지는 않는다.
도면이 흐름도로서 제시될 때, 그것은 대응하는 장치의 블록 다이어그램을 또한 제공한다는 것이 이해되어야 한다. 유사하게, 도면이 블록도로서 제시될 때, 그것은 대응하는 방법/프로세스의 흐름도를 또한 제공한다는 것이 이해되어야 한다.
다양한 실시형태는 레이트 왜곡 계산 또는 레이트 왜곡 최적화를 참조한다. 인코딩 프로세스 동안, 종종 계산 복잡도의 제약이 주어지면, 레이트와 왜곡 사이의 균형 또는 절충이 일반적으로 고려된다. 레이트 왜곡 최적화는 일반적으로, 레이트와 왜곡의 가중된 합인 레이트 왜곡 함수를 최소화하는 것으로서 공식화된다. 레이트 왜곡 최적화 문제를 해결하기 위한 상이한 접근법이 존재한다. 예를 들면, 접근법은, 코딩 및 디코딩 이후의 재구성된 신호의 그들의 코딩 비용 및 관련된 왜곡의 완전한 평가와 함께, 모든 고려된 모드 또는 코딩 파라미터 값을 비롯한, 모든 인코딩 옵션의 광범위한 테스트에 기초할 수도 있다. 특히, 재구성된 신호가 아니라, 예측 또는 예측 잔차 신호에 기초한 근사 왜곡의 계산과 함께, 인코딩 복잡도를 저감하기 위해, 더 빠른 접근법이 또한 사용될 수도 있다. 예컨대 가능한 인코딩 옵션 중 일부에 대해서만 근사된 왜곡을, 그리고 다른 인코딩 옵션에 대해서는 완전한 왜곡을 사용하는 것에 의해, 이들 두 가지 접근법의 혼합이 또한 사용될 수 있다. 다른 접근법은 가능한 인코딩 옵션의 서브세트만을 평가한다. 더 일반적으로, 많은 접근법은 최적화를 수행하기 위해 다양한 기술 중 임의의 것을 활용하지만, 그러나 최적화가 반드시 코딩 비용 및 관련된 왜곡 둘 모두의 완전한 평가는 아니다.
본원에서 설명되는 구현예 및 양태는, 예를 들면, 방법 또는 프로세스, 장치, 소프트웨어 프로그램, 데이터 스트림, 또는 신호에서 구현될 수 있다. 단일의 형태의 구현예의 맥락에서만 논의되더라도(예를 들면, 방법으로서만 논의되더라도), 논의되는 피쳐의 구현은 다른 형태(예를 들면, 장치 또는 프로그램)로 또한 구현될 수 있다. 장치는, 예를 들면, 적절한 하드웨어, 소프트웨어, 및 펌웨어에서 구현될 수 있다. 방법은, 예를 들면, 컴퓨터, 마이크로프로세서, 집적 회로, 또는 프로그래밍 가능한 로직 디바이스를 비롯한, 일반적으로 프로세싱 디바이스를 지칭하는, 예를 들면, 프로세서에서 구현될 수 있다. 프로세서는, 예를 들면, 컴퓨터, 셀 폰, 휴대용/개인 휴대형 정보 단말(personal digital assistant; "PDA") 및 엔드 유저 사이의 정보의 통신을 용이하게 하는 다른 디바이스와 같은 통신 디바이스를 또한 포함한다.
"하나의 실시형태" 또는 "한 실시형태" 또는 "하나의 구현예" 또는 "한 구현예"에 대한 언급뿐만 아니라, 이들의 다른 변형어는, 실시형태와 관련하여 설명되는 특정한 피쳐, 구조체, 특성, 및 등등이 적어도 하나의 실시형태에 포함된다는 것을 의미한다. 따라서, 어구 "하나의 실시형태에서" 또는 "한 실시형태에서" 또는 "하나의 구현예에서" 또는 "한 구현에서", 게다가 임의의 다른 변형어의 출현은, 본 문서 전반에 걸친 다양한 위치에서 나타나는 것이 반드시 모두 동일한 실시형태를 지칭하는 것은 아니다.
추가적으로, 본 문서는 다양한 단편의 정보를 "결정"하는 것을 언급할 수도 있다. 정보를 결정하는 것은, 예를 들면, 정보를 추정하는 것, 정보를 계산하는 것, 정보를 예측하는 것, 또는 메모리로부터 정보를 검색하는 것 중 하나 이상을 포함할 수 있다.
게다가, 본 문서는 다양한 단편의 정보에 "액세스" 하는 것을 언급할 수도 있다. 정보에 액세스하는 것은, 예를 들면, 정보를 수신하는 것, (예를 들면, 메모리로부터) 정보를 검색하는 것, 정보를 저장하는 것, 정보를 이동하는 것, 정보를 복사하는 것, 정보를 계산하는 것, 정보를 결정하는 것, 정보를 예측하는 것, 또는 정보를 추정하는 것 중 하나 이상을 포함할 수 있다.
추가적으로, 본 문서는 다양한 단편의 정보를 "수신"하는 것을 언급할 수도 있다. 수신하는 것은, "액세스하는 것"에서와 마찬가지로, 광범위한 용어가 되도록 의도된다. 정보를 수신하는 것은, 예를 들면, 정보에 액세스하는 것, 또는 (예를 들면, 메모리로부터) 정보를 검색하는 것 중 하나 이상을 포함할 수 있다. 게다가, "수신하는 것"은, 통상적으로, 예를 들면, 정보를 저장하는 것, 정보를 프로세싱하는 것, 정보를 송신하는 것, 정보를 이동하는 것, 정보를 복사하는 것, 정보를 삭제하는 것, 정보를 계산하는 것, 정보를 결정하는 것, 정보를 예측하는 것, 또는 정보를 추정하는 것과 같은 동작 동안, 하나의 방식으로 또는 다른 방식으로, 수반된다.
예를 들면, "A/B", "A 및/또는 B" 및 "A 및 B 중 적어도 하나"의 경우에서의, 다음의 것 "/", "및/또는", 및 "~중 적어도 하나" 중 임의의 것의 사용은, 첫 번째로 나열된 옵션 (A)만의 선택, 또는 두 번째로 나열된 옵션 (B)만의 선택, 또는 옵션 (A 및 B) 둘 모두의 선택을 포괄하도록 의도된다는 것이 인식되어야 한다. 또 다른 예로서, "A, B 및/또는 C" 및 "A, B, 및 C 중 적어도 하나"의 경우에, 그러한 표현법은 첫 번째로 나열된 옵션(A)만의 선택, 또는 두 번째로 나열된 옵션(B)만의 선택, 또는 세 번째로 나열된 옵션(C)만의 선택, 또는 첫 번째 및 두 번째로 나열된 옵션(A 및 B)만의 선택, 또는 첫 번째 및 세 번째로 나열된 옵션(A 및 C)만의 선택, 또는 두 번째 및 세 번째로 나열된 옵션(B 및 C)만의 선택, 또는 세 개 모두의 옵션(A 및 B 및 C)의 선택을 포괄하도록 의도된다. 이것은 나열되는 많은 아이템에 대해, 본 기술 및 관련된 기술 분야의 통상의 지식을 가진 자에게 명백한 바와 같이, 확장될 수도 있다.
또한, 본원에서 사용될 때, 단어 "신호"는, 다른 것들 중에서도, 대응하는 디코더에 대한 무언가를 나타내는 것을 가리킨다. 예를 들면, 소정의 실시형태에서, 인코더는 인트라 예측 참조 어레이에 대해 사용될 복수의 가중치 중 특정한 가중치를 시그널링한다. 이러한 방식으로, 한 실시형태에서, 동일한 파라미터가 인코더 측과 디코더 측 둘 모두에서 사용된다. 따라서, 예를 들면, 인코더는, 디코더가 동일한 특정한 파라미터를 사용할 수 있도록, 특정한 파라미터를 디코더로 송신할 수 있다(명시적 시그널링). 반대로, 디코더가 이미 특정한 파라미터 뿐만 아니라 다른 것을 가지고 있다면, 그러면, 디코더가 특정한 파라미터를 알고 선택하는 것을 간단히 허용하기 위해, 송신 없이 시그널링이 사용될 수 있다(암시적 시그널링). 임의의 실제 기능의 송신을 방지하는 것에 의해, 다양한 실시형태에서 비트 절약이 실현된다. 시그널링은 다양한 방식으로 달성될 수 있다는 것이 인식되어야 한다. 예를 들면, 하나 이상의 신택스 엘리먼트, 플래그, 및 등등은 다양한 실시형태에서 대응하는 디코더로 정보를 시그널링하기 위해 사용된다. 전술한 내용이 단어 "신호"의 동사 형태에 관련되지만, 단어 "신호"는 본원에서 명사로서 또한 사용될 수 있다.
기술 분야의 숙련된 자에게 명백할 바와 같이, 구현예는, 예를 들면, 저장 또는 송신될 수 있는 정보를 전달하도록 포맷되는 다양한 신호를 생성할 수 있다. 정보는, 예를 들면, 방법을 수행하기 위한 명령어들, 또는 설명된 구현예 중 하나에 의해 생성되는 데이터를 포함할 수 있다. 예를 들면, 신호는 설명된 실시형태의 비트스트림을 전달하도록 포맷될 수 있다. 그러한 신호는, 예를 들면, 전자기파(예를 들면, 스펙트럼의 무선 주파수 부분을 사용함)로서 또는 베이스밴드 신호로서 포맷될 수 있다. 포맷팅은, 예를 들면, 데이터 스트림을 인코딩하는 것 및 인코딩된 데이터 스트림을 갖는 캐리어를 변조하는 것을 포함할 수 있다. 신호가 반송하는 정보는, 예를 들면, 아날로그 또는 디지털 정보일 수 있다. 신호는, 공지되어 있는 바와 같이, 여러 가지 상이한 유선 또는 무선 링크를 통해 송신될 수 있다. 신호는 프로세서 판독 가능 매체 상에 저장될 수 있다.
실시형태는 여러 가지 상이한 청구항 카테고리 및 타입에 걸쳐, 다음의 피쳐 또는 엔티티 중 하나 이상을, 단독으로 또는 조합하여, 포함할 수도 있다:
Figure pct00016
AMVP와 병합 사이의 아핀 모드 사용의 상이한 통계적 발생을 고려하기 위한 아핀 모드의 인코딩 및 디코딩.
Figure pct00017
AMVP 및 병합 모드에서 아핀 플래그를 독립적으로 코딩하는 것에 의한 AMVP와 병합 사이의 아핀 모드 사용의 상이한 통계적 발생을 고려하기 위한 아핀 모드의 인코딩 및 디코딩.
Figure pct00018
AMVP 및 병합 모드에서 아핀 플래그를 독립적으로 코딩하는 것에 의한 AMVP와 병합 사이의 아핀 모드 사용의 상이한 통계적 발생을 고려하기 위한 아핀 모드의 인코딩 및 디코딩, 여기서 아핀 플래그에 대한 CABAC 컨텍스트의 총 수는 두 배가 됨.
Figure pct00019
AMVP 및 병합 모드에서 아핀 플래그를 독립적으로 코딩하는 것에 의한 AMVP와 병합 사이의 아핀 모드 사용의 상이한 통계적 발생을 고려하기 위한 아핀 모드의 인코딩 및 디코딩, 여기서 아핀 플래그에 대한 CABAC 컨텍스트의 총 수는 두 배가 되고, 실제 아핀 플래그 컨텍스트 모델링은 세 개 대신 여섯 개의 컨텍스트를 사용함.
Figure pct00020
공간적 아핀 이웃에 기초하여 CABAC 컨텍스트 모델링을 제거함.
Figure pct00021
단지 하나의 컨텍스트만을 사용하여 공간적 아핀 이웃에 기초하여 CABAC 컨텍스트 모델링을 제거함.
Figure pct00022
공간적 이웃이 이용 가능한지의 여부만을 사용하여 또는 사용하지 않고 컨텍스트를 모델링함.
Figure pct00023
공간적 이웃이 이용 가능한지의 여부만을 사용하여 또는 사용하지 않고 컨텍스트를 모델링함, 여기서 두 가지 컨텍스트가 가능함: 아핀 이웃이 이용 가능하지 않음(컨텍스트 0), 또는 적어도 하나가 이용 가능함(컨텍스트 1).
Figure pct00024
인터 모드에서는 코딩되지만 그러나 아핀 모드에서는 코딩되지 않는 이웃 CU로부터 생성되는 컨텍스트 모델링에서 고려될 가상의 아핀 후보를 구성함.
Figure pct00025
인터 모드에서는 코딩되지만 그러나 아핀 모드에서는 코딩되지 않는 이웃 CU로부터 생성되는 컨텍스트 모델링에서 고려될 가상의 아핀 후보를 구성함, 그러면, 컨텍스트는 다음의 것일 것임:
○ 어떠한 인터 이웃도 이용 가능하지 않은 경우 0
○ 인터 이웃이 이용 가능하지만 그러나 어떠한 아핀 이웃도 이용 가능하지 않은 경우 1
○ 아핀 이웃이 이용 가능한 경우 2
Figure pct00026
가상의 시간적 후보의 생성을 가능하게 하기 위한 인터 픽쳐인 참조 픽쳐의 존재를 고려함.
Figure pct00027
가상의 시간적 후보의 생성을 가능하게 하기 위한 인터 픽쳐인 참조 픽쳐의 존재를 고려함, 여기서 가상의 시간적 후보는 인터 모드에서 코딩되는 시간적으로 동일 위치에 위치된 CU로부터 구성될 수 있음.
Figure pct00028
가상의 시간적 후보의 생성을 가능하게 하기 위한 인터 픽쳐인 참조 픽쳐의 존재를 고려함, 여기서 가상의 시간적 후보는 인터 모드에서 코딩되는 시간적으로 동일 위치에 위치된 CU로부터 구성될 수 있고, 컨텍스트 모델링은 다음의 것을 포함함:
○ 인터 이웃이 이용 가능하거나 또는 인터 참조 픽쳐가 참조 픽쳐 인덱스 0과 함께 이용 가능하다.
Figure pct00029
설명된 신택스 엘리먼트, 또는 그 변형 중 하나 이상을 포함하는 비트스트림 또는 신호.
Figure pct00030
디코더가 인코더에 의해 사용되는 방식에 대응하는 방식으로 아핀 모드 프로세싱을 제공하는 것을 가능하게 하는 시그널링 신택스 엘리먼트에서 삽입함.
Figure pct00031
이들 신택스 엘리먼트에 기초하여, 디코더에서 적용할 아핀 모드 프로세싱을 선택함.
Figure pct00032
설명된 신택스 엘리먼트, 또는 그 변형 중 하나 이상을 포함하는 비트스트림 또는 신호를 생성함 및/또는 송신함 및/또는 수신함 및/또는 디코딩함.
Figure pct00033
설명되는 실시형태 중 임의의 것을 수행하는 TV, 셋탑 박스, 셀폰, 태블릿, 또는 다른 전자 디바이스.
Figure pct00034
설명되는 실시형태 중 임의의 것을 수행하는, 그리고 (예를 들면, 모니터, 스크린, 또는 다른 타입의 디스플레이를 사용하여) 결과 이미지를 디스플레이하는 TV, 셋탑 박스, 셀폰, 태블릿, 또는 다른 전자 디바이스.
Figure pct00035
인코딩된 이미지를 포함하는 신호를 수신하도록 (예를 들면, 튜너를 사용하여) 채널을 튜닝하는, 그리고 설명되는 실시형태 중 임의의 것을 수행하는 TV, 셋탑 박스, 셀폰, 태블릿 또는 다른 전자 디바이스.
Figure pct00036
인코딩된 이미지를 포함하는 신호를 (예를 들면, 안테나를 사용하여) 무선으로 수신하고, 설명되는 실시형태 중 임의의 것을 수행하는 TV, 셋탑 박스, 셀폰, 태블릿, 또는 다른 전자 디바이스.
Figure pct00037
컴퓨터에 의해 실행될 때 설명되는 실시형태 중 임의의 것을 구현하는 프로그램 코드를 저장하는 컴퓨터 프로그램 제품.
Figure pct00038
명령어들을 실행하는 컴퓨터로 하여금 설명되는 실시형태 중 임의의 것을 구현하게 하는 실행 가능한 프로그램 명령어들을 포함하는 비일시적 컴퓨터 판독 가능 매체.
다양한 다른 일반화된 실시형태뿐만 아니라, 특정화된 실시형태도 본 개시 전반에 걸쳐 또한 지원되고 고려된다.

Claims (35)

  1. 비디오 데이터를 인코딩하기 위한 방법에 있어서,
    아핀(affine) 모드의 사용을 나타내는 제1 플래그와 관련되는 제1 CABAC 컨텍스트를 결정하는 단계;
    상기 아핀 모드 또는 상기 아핀 모드와는 상이한 제2 모드 중 어느 하나의 사용을 나타내는 제2 플래그와 관련되는 제2 CABAC 컨텍스트를 결정하는 단계;
    - 상기 제1 CABAC 컨텍스트는 제1 CABAC 확률 모델에 대응함; 및
    - 상기 제2 CABAC 컨텍스트는 상기 제1 CABAC 확률 모델과는 상이한 제2 CABAC 확률 모델에 대응함;
    상기 아핀 모드 동안 상기 제1 CABAC 컨텍스트 및 상기 제1 CABAC 확률 모델에 기초하여 그리고 상기 제2 모드 동안 상기 제2 CABAC 컨텍스트 및 상기 제2 CABAC 확률 모델에 기초하여 상기 비디오 데이터를 인코딩하는 단계를 포함하는, 비디오 데이터를 인코딩하기 위한 방법.
  2. 비디오 데이터를 인코딩하기 위한 장치에 있어서,
    하나 이상의 프로세서를 포함하되, 상기 하나 이상의 프로세서는:
    아핀 모드의 사용을 나타내는 제1 플래그와 관련되는 제1 CABAC 컨텍스트를 결정하도록;
    상기 아핀 모드 또는 상기 아핀 모드와는 상이한 제2 모드 중 어느 하나의 사용을 나타내는 제2 플래그와 관련되는 제2 CABAC 컨텍스트를 결정하도록;
    - 상기 제1 CABAC 컨텍스트는 제1 CABAC 확률 모델에 대응함; 및
    - 상기 제2 CABAC 컨텍스트는 상기 제1 CABAC 확률 모델과는 상이한 제2 CABAC 확률 모델에 대응함;
    상기 아핀 모드 동안 상기 제1 CABAC 컨텍스트 및 상기 제1 CABAC 확률 모델에 기초하여 그리고 상기 제2 모드 동안 상기 제2 CABAC 컨텍스트 및 상기 제2 CABAC 확률 모델에 기초하여 상기 비디오 데이터를 인코딩하도록 구성되는 것인, 비디오 데이터를 인코딩하기 위한 장치.
  3. 비디오 데이터를 디코딩하기 위한 방법에 있어서,
    아핀 모드의 사용을 나타내는 제1 플래그와 관련되는 제1 CABAC 컨텍스트를 결정하는 단계;
    상기 아핀 모드 또는 상기 아핀 모드와는 상이한 제2 모드 중 어느 하나의 사용을 나타내는 제2 플래그와 관련되는 제2 CABAC 컨텍스트를 결정하는 단계;
    - 상기 제1 CABAC 컨텍스트는 제1 CABAC 확률 모델에 대응함; 및
    - 상기 제2 CABAC 컨텍스트는 상기 제1 CABAC 확률 모델과는 상이한 제2 CABAC 확률 모델에 대응함;
    상기 제1 CABAC 컨텍스트 및 상기 제1 CABAC 확률 모델에 기초하여 상기 아핀 모드 동안 인코딩되는 비디오 데이터를 디코딩하고, 상기 제2 CABAC 컨텍스트 및 상기 제2 CABAC 확률 모델에 기초하여 상기 제2 모드 동안 인코딩되는 비디오 데이터를 디코딩하는 단계를 포함하는, 비디오 데이터를 디코딩하기 위한 방법.
  4. 비디오 데이터를 디코딩하기 위한 장치에 있어서,
    하나 이상의 프로세서를 포함하되, 상기 하나 이상의 프로세서는:
    아핀 모드의 사용을 나타내는 제1 플래그와 관련되는 제1 CABAC 컨텍스트를 결정하도록;
    상기 아핀 모드 또는 상기 아핀 모드와는 상이한 제2 모드 중 어느 하나의 사용을 나타내는 제2 플래그와 관련되는 제2 CABAC 컨텍스트를 결정하도록;
    - 상기 제1 CABAC 컨텍스트는 제1 CABAC 확률 모델에 대응함; 및
    - 상기 제2 CABAC 컨텍스트는 상기 제1 CABAC 확률 모델과는 상이한 제2 CABAC 확률 모델에 대응함;
    상기 제1 CABAC 컨텍스트 및 상기 제1 CABAC 확률 모델에 기초하여 상기 아핀 모드 동안 인코딩되는 비디오 데이터를 디코딩하고, 상기 제2 CABAC 컨텍스트 및 상기 제2 CABAC 확률 모델에 기초하여 상기 제2 모드 동안 인코딩되는 비디오 데이터를 디코딩하도록 구성되는 것인, 비디오 데이터를 디코딩하기 위한 장치.
  5. 비디오 데이터를 인코딩하기 위한 방법에 있어서,
    아핀 모드의 사용을 나타내는 제1 플래그와 관련되는 제1 CABAC 컨텍스트를 결정하는 단계;
    상기 아핀 모드 또는 상기 아핀 모드와는 상이한 제2 모드 중 어느 하나의 사용을 나타내는 제2 플래그와 관련되는 제2 CABAC 컨텍스트를 결정하는 단계; 및
    상기 비디오 데이터를 인코딩하여 인코딩된 비디오 데이터를 생성하는 단계 - 상기 아핀 모드에 기초하여 생성되는 상기 비디오 데이터는 상기 제1 CABAC 컨텍스트와 관련되는 상기 제1 CABAC 확률 모델에 기초하여 인코딩되고, 상기 제2 모드에 기초하여 생성되는 상기 비디오 데이터는 상기 제2 CABAC 컨텍스트와 관련되며 상기 제1 CABAC 확률 모델과는 상이한 제2 CABAC 확률 모델에 기초하여 인코딩됨 - 를 포함하는, 비디오 데이터를 인코딩하기 위한 방법.
  6. 비디오 데이터를 인코딩하기 위한 장치에 있어서,
    하나 이상의 프로세서를 포함하되, 상기 하나 이상의 프로세서는:
    아핀 모드의 사용을 나타내는 제1 플래그와 관련되는 제1 CABAC 컨텍스트를 결정하도록;
    상기 아핀 모드 또는 상기 아핀 모드와는 상이한 제2 모드 중 어느 하나의 사용을 나타내는 제2 플래그와 관련되는 제2 CABAC 컨텍스트를 결정하도록; 그리고
    상기 비디오 데이터를 인코딩하여 인코딩된 비디오 데이터를 생성하도록 - 상기 아핀 모드에 기초하여 생성되는 상기 비디오 데이터는 상기 제1 CABAC 컨텍스트와 관련되는 상기 제1 CABAC 확률 모델에 기초하여 인코딩되고, 상기 제2 모드에 기초하여 생성되는 상기 비디오 데이터는 상기 제2 CABAC 컨텍스트와 관련되며 상기 제1 CABAC 확률 모델과는 상이한 제2 CABAC 확률 모델에 기초하여 인코딩됨 - 구성되는 것인, 비디오 데이터를 인코딩하기 위한 장치.
  7. 비디오 데이터를 디코딩하기 위한 방법에 있어서,
    아핀 모드의 사용을 나타내는 제1 플래그와 관련되는 제1 CABAC 컨텍스트를 결정하는 단계;
    상기 아핀 모드 또는 상기 아핀 모드와는 상이한 제2 모드 중 어느 하나의 사용을 나타내는 제2 플래그와 관련되는 제2 CABAC 컨텍스트를 결정하는 단계; 및
    상기 비디오 데이터를 디코딩하여 디코딩된 비디오 데이터를 생성하는 단계 - 상기 아핀 모드에 기초하여 인코딩되는 상기 비디오 데이터는 상기 제1 CABAC 컨텍스트와 관련되는 제1 CABAC 확률 모델에 기초하여 디코딩되고, 상기 제2 모드에 기초하여 인코딩되는 상기 비디오 데이터는 상기 제2 CABAC 컨텍스트와 관련되며 상기 제1 CABAC 확률 모델과는 상이한 제2 CABAC 확률 모델에 기초하여 디코딩됨 - 를 포함하는, 비디오 데이터를 디코딩하기 위한 방법.
  8. 비디오 데이터를 디코딩하기 위한 장치에 있어서,
    하나 이상의 프로세서를 포함하되, 상기 하나 이상의 프로세서는:
    아핀 모드의 사용을 나타내는 제1 플래그와 관련되는 제1 CABAC 컨텍스트를 결정하도록;
    상기 아핀 모드 또는 상기 아핀 모드와는 상이한 제2 모드 중 어느 하나의 사용을 나타내는 제2 플래그와 관련되는 제2 CABAC 컨텍스트를 결정하도록; 그리고
    상기 비디오 데이터를 디코딩하여 디코딩된 비디오 데이터를 생성하도록 - 상기 아핀 모드에 기초하여 인코딩되는 상기 비디오 데이터는 상기 제1 CABAC 컨텍스트와 관련되는 제1 CABAC 확률 모델에 기초하여 디코딩되고, 상기 제2 모드에 기초하여 인코딩되는 상기 비디오 데이터는 상기 제2 CABAC 컨텍스트와 관련되며 상기 제1 CABAC 확률 모델과는 상이한 제2 CABAC 확률 모델에 기초하여 디코딩됨 - 구성되는 것인, 비디오 데이터를 디코딩하기 위한 장치.
  9. 비디오 데이터를 인코딩하기 위한 방법에 있어서,
    아핀 모드의 사용을 나타내는 제1 플래그와 관련되는 제1 CABAC 컨텍스트를 결정하는 단계;
    상기 아핀 모드 또는 상기 아핀 모드와는 상이한 제2 모드 중 어느 하나의 사용을 나타내는 제2 플래그와 관련되는 제2 CABAC 컨텍스트를 결정하는 단계 - 상기 제2 CABAC 컨텍스트를 결정하는 단계는 상기 제1 CABAC 컨텍스트를 결정하는 단계와는 독립적으로 발생함 - ; 및
    상기 제1 및 제2 플래그 및 상기 제1 및 제2 CABAC 컨텍스트에, 각각, 기초하여 상기 제1 및 제2 모드 동안 상기 비디오 데이터를 인코딩하여 인코딩된 비디오 데이터를 생성하는 단계를 포함하는, 비디오 데이터를 인코딩하기 위한 방법.
  10. 비디오 데이터를 인코딩하기 위한 장치에 있어서,
    하나 이상의 프로세서를 포함하되, 상기 하나 이상의 프로세서는:
    아핀 모드의 사용을 나타내는 제1 플래그와 관련되는 제1 CABAC 컨텍스트를 결정하도록;
    상기 아핀 모드 또는 상기 아핀 모드와는 상이한 제2 모드 중 어느 하나의 사용을 나타내는 제2 플래그와 관련되는 제2 CABAC 컨텍스트를 결정하도록 - 상기 제2 CABAC 컨텍스트를 결정하는 것은 상기 제1 CABAC 컨텍스트를 결정하는 것과는 독립적으로 발생함 - ; 그리고
    상기 제1 및 제2 플래그 및 상기 제1 및 제2 CABAC 컨텍스트에, 각각, 기초하여 상기 제1 및 제2 모드 동안 상기 비디오 데이터를 인코딩하여 인코딩된 비디오 데이터를 생성하도록 구성되는 것인, 비디오 데이터를 인코딩하기 위한 장치.
  11. 비디오 데이터를 디코딩하기 위한 방법에 있어서,
    아핀 모드의 사용을 나타내는 제1 플래그와 관련되는 제1 CABAC 컨텍스트를 결정하는 단계;
    상기 아핀 모드 또는 상기 아핀 모드와는 상이한 제2 모드 중 어느 하나의 사용을 나타내는 제2 플래그와 관련되는 제2 CABAC 컨텍스트를 결정하는 단계 - 상기 제2 CABAC 컨텍스트를 결정하는 단계는 상기 제1 CABAC 컨텍스트를 결정하는 단계와는 독립적으로 발생함 - ; 및
    상기 제1 및 제2 CABAC 컨텍스트에, 각각, 기초하여 상기 제1 및 제2 모드 동안 인코딩되는 비디오 데이터를 디코딩하여 디코딩된 비디오 데이터를 생성하는 단계를 포함하는, 비디오 데이터를 디코딩하기 위한 방법.
  12. 비디오 데이터를 디코딩하기 위한 장치에 있어서,
    하나 이상의 프로세서를 포함하되, 상기 하나 이상의 프로세서는:
    아핀 모드의 사용을 나타내는 제1 플래그와 관련되는 제1 CABAC 컨텍스트를 결정하도록;
    상기 아핀 모드 또는 상기 아핀 모드와는 상이한 제2 모드 중 어느 하나의 사용을 나타내는 제2 플래그와 관련되는 제2 CABAC 컨텍스트를 결정하도록 - 상기 제2 CABAC 컨텍스트를 결정하는 것은 상기 제1 CABAC 컨텍스트를 결정하는 것과는 독립적으로 발생함 - ; 그리고
    상기 제1 및 제2 CABAC 컨텍스트에, 각각, 기초하여 상기 제1 및 제2 모드 동안 인코딩되는 비디오 데이터를 디코딩하여 디코딩된 비디오 데이터를 생성하도록 구성되는 것인, 비디오 데이터를 디코딩하기 위한 장치.
  13. 비디오 데이터를 인코딩하기 위한 방법에 있어서,
    아핀 모드 또는 상기 아핀 모드와는 상이한 제2 모드를 포함하는 모드의 사용을 나타내는 서브블록 병합 모드 플래그와 관련되는 CABAC 컨텍스트를 결정하는 단계; 상기 CABAC 컨텍스트는 상기 아핀 모드 동안 제1 CABAC 확률 모델에 그리고 상기 제2 모드 동안 상기 제1 CABAC 확률 모델과는 상이한 제2 CABAC 확률 모델에 대응함;
    상기 CABAC 컨텍스트, 상기 모드 및 상기 모드에 대응하는 상기 CABAC 확률 모델에 기초하여 상기 비디오 데이터를 인코딩하는 단계를 포함하는, 비디오 데이터를 인코딩하기 위한 방법.
  14. 비디오 데이터를 인코딩하기 위한 장치에 있어서,
    하나 이상의 프로세서를 포함하되, 상기 하나 이상의 프로세서는:
    상기 아핀 모드 또는 상기 아핀 모드와는 상이한 제2 모드를 포함하는 모드의 사용을 나타내는 서브블록 병합 모드 플래그와 관련되는 CABAC 컨텍스트를 결정하도록; 상기 CABAC 컨텍스트는 상기 아핀 모드 동안 제1 CABAC 확률 모델에 그리고 상기 제2 모드 동안 상기 제1 CABAC 확률 모델과는 상이한 제2 CABAC 확률 모델에 대응함;
    상기 CABAC 컨텍스트, 상기 모드 및 상기 모드에 대응하는 상기 CABAC 확률 모델에 기초하여 상기 비디오 데이터를 인코딩하도록 구성되는 것인, 비디오 데이터를 인코딩하기 위한 장치.
  15. 비디오 데이터를 디코딩하기 위한 방법에 있어서,
    상기 아핀 모드 또는 상기 아핀 모드와는 상이한 제2 모드를 포함하는 모드의 사용을 나타내는 서브블록 병합 모드 플래그와 관련되는 CABAC 컨텍스트를 결정하는 단계; 상기 CABAC 컨텍스트는 상기 아핀 모드 동안 제1 CABAC 확률 모델에 그리고 상기 제2 모드 동안 상기 제1 CABAC 확률 모델과는 상이한 제2 CABAC 확률 모델에 대응함;
    상기 아핀 모드에 기초하여 인코딩되는 비디오 데이터를 상기 제1 CABAC 확률 모델에 기초하여 디코딩하고 상기 제2 모드에 기초하여 인코딩되는 비디오 데이터를 상기 제2 CABAC 컨텍스트에 기초하여 디코딩하는 단계를 포함하는, 비디오 데이터를 디코딩하기 위한 방법.
  16. 비디오 데이터를 디코딩하기 위한 장치에 있어서,
    하나 이상의 프로세서를 포함하되, 상기 하나 이상의 프로세서는:
    상기 아핀 모드 또는 상기 아핀 모드와는 상이한 제2 모드를 포함하는 모드의 사용을 나타내는 서브블록 병합 모드 플래그와 관련되는 CABAC 컨텍스트를 결정하도록; 상기 CABAC 컨텍스트는 상기 아핀 모드 동안 제1 CABAC 확률 모델에 그리고 상기 제2 모드 동안 상기 제1 CABAC 확률 모델과는 상이한 제2 CABAC 확률 모델에 대응함;
    상기 아핀 모드에 기초하여 인코딩되는 비디오 데이터를 상기 제1 CABAC 확률 모델에 기초하여 디코딩하고 상기 제2 모드에 기초하여 인코딩되는 비디오 데이터를 상기 제2 CABAC 컨텍스트에 기초하여 디코딩하도록 구성되는 것인, 비디오 데이터를 디코딩하기 위한 장치.
  17. 제1항 내지 제16항 중 어느 한 항의 방법 또는 장치에 있어서,
    상기 아핀 모드는 AMVP 모드를 포함하고, 상기 제2 모드는 병합 모드를 포함하는 것인, 방법 또는 장치.
  18. 제1항 내지 제16항 중 어느 한 항의 방법 또는 장치에 있어서,
    상기 아핀 모드는 AMVP 모드를 포함하고 상기 제2 모드는 병합, SbTMVP, mmvd, 또는 DMVR 중 하나를 포함하는 것인, 방법 또는 장치.
  19. 제1항 내지 제12항, 제17항 및 제18항 중 어느 한 항의 방법 또는 장치에 있어서,
    상기 제1 또는 제2 CABAC 컨텍스트를 결정하는 것은 공간적 아핀 이웃을 고려하지 않는 것인, 방법 또는 장치.
  20. 제13항 내지 제18항 중 어느 한 항의 방법 또는 장치에 있어서,
    상기 CABAC 컨텍스트를 결정하는 것은 공간적 아핀 이웃을 고려하지 않는 것인, 방법 또는 장치.
  21. 제19항의 방법 또는 장치에 있어서,
    상기 제1 또는 제2 CABAC 컨텍스트는 단지 하나의 컨텍스트만을 구비하는 것인, 방법 또는 장치.
  22. 제20항의 방법 또는 장치에 있어서,
    상기 CABAC 컨텍스트는 단지 하나의 컨텍스트만을 구비하는 것인, 방법 또는 장치.
  23. 제1항 내지 제12항, 제17항, 제18항 중 어느 한 항의 방법 또는 장치에 있어서,
    상기 제1 또는 제2 CABAC 컨텍스트를 결정하는 것은 공간적 이웃이 이용 가능한지의 여부에만 기초하는 것인, 방법 또는 장치.
  24. 제13항 내지 제18항 중 어느 한 항의 방법 또는 장치에 있어서,
    상기 CABAC 컨텍스트를 결정하는 것은 공간적 이웃이 이용 가능한지의 여부에만 기초하는 것인, 방법 또는 장치.
  25. 제1항 내지 제12항, 제17항, 제18항 중 어느 한 항의 방법 또는 장치에 있어서,
    상기 제1 또는 제2 CABAC 컨텍스트를 결정할 때 고려될 가상의 아핀 후보를 구성하는 것을 더 포함하는, 방법 또는 장치.
  26. 제13항 내지 제18항 중 어느 한 항의 방법 또는 장치에 있어서,
    상기 CABAC 컨텍스트를 결정할 때 고려될 가상의 아핀 후보를 구성하는 것을 더 포함하는, 방법 또는 장치.
  27. 제25항 또는 제26항의 방법 또는 장치에 있어서,
    상기 가상의 아핀 후보를 구성하는 것은 아핀 모드에서가 아니라 인터 모드에서 코딩되는 이웃 CU에 기초하는 것인, 방법 또는 장치.
  28. 제27항의 방법 또는 장치에 있어서,
    상기 CABAC 컨텍스트는:
    - 어떠한 인터 이웃도 이용 가능하지 않은 경우 0;
    - 인터 이웃은 이용 가능하지만 어떠한 아핀 이웃도 이용 가능하지 않은 경우 1;
    - 아핀 이웃이 이용 가능한 경우 2
    중 하나를 포함할 것인, 방법 또는 장치.
  29. 제1항 내지 제18항 중 어느 한 항의 방법 또는 장치에 있어서,
    가상의 시간적 후보의 생성을 가능하게 하기 위한 인터 픽쳐인 참조 픽쳐의 존재를 고려하는 것을 더 포함하는, 방법 또는 장치.
  30. 제29항의 방법 또는 장치에 있어서,
    상기 가상의 시간적 후보는 인터 모드에서 코딩되는 시간적으로 동일 위치에 위치된(temporal collocated) CU로부터 구성될 수 있는 것인, 방법 또는 장치.
  31. 제30항의 방법 또는 장치에 있어서,
    상기 컨텍스트를 결정하는 것은: 인터 이웃이 이용 가능한 것 또는 인터 참조 픽쳐가 참조 픽쳐 인덱스 0과 함께 이용 가능한 것을 포함하는 것인, 방법 또는 장치.
  32. 하나 이상의 프로세서에 의해 실행될 때 제1항 내지 제31항 중 어느 한 항의 상기 방법을 수행하기 위한 컴퓨팅 명령어들을 포함하는 컴퓨터 프로그램 제품.
  33. 명령어들을 실행하는 컴퓨터로 하여금 제1항 내지 제31항 중 어느 한 항에 따른 방법을 수행하게 하기 위한 실행 가능한 프로그램 명령어들을 저장하는 비일시적 컴퓨터 판독 가능 매체.
  34. 인코딩된 비디오 데이터를 포함하도록 포맷되는 비트스트림에 있어서,
    인코딩된 비디오 데이터는:
    제1항 내지 제31항 중 어느 한 항의 상기 방법에 따라 CABAC 컨텍스트를 획득하는 것과 관련되는 표시자; 및
    상기 CABAC 컨텍스트에 기초하여 인코딩되는 픽쳐 데이터를 포함하는 것인, 인코딩된 비디오 데이터를 포함하도록 포맷되는 비트스트림.
  35. 디바이스에 있어서,
    제1항 내지 제31항 중 어느 한 항에 따른 장치; 및
    (i) 신호 - 상기 신호는 상기 비디오 데이터를 나타내는 데이터를 포함함 - 를 수신하도록 구성되는 안테나, (ii) 상기 수신된 신호를, 상기 비디오 데이터를 나타내는 상기 데이터를 포함하는 주파수의 대역으로 제한하도록 구성되는 대역 제한기, 및 (iii) 상기 비디오 데이터로부터 이미지를 디스플레이하도록 구성되는 디스플레이 중 적어도 하나를 포함하는, 디바이스.
KR1020217014053A 2018-10-10 2019-10-09 비디오 인코딩 및 디코딩의 아핀 모드 시그널링 KR20210069715A (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP18306339.5 2018-10-10
EP18306339 2018-10-10
PCT/US2019/055468 WO2020077003A1 (en) 2018-10-10 2019-10-09 Affine mode signaling in video encoding and decoding

Publications (1)

Publication Number Publication Date
KR20210069715A true KR20210069715A (ko) 2021-06-11

Family

ID=67436865

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020217014053A KR20210069715A (ko) 2018-10-10 2019-10-09 비디오 인코딩 및 디코딩의 아핀 모드 시그널링

Country Status (8)

Country Link
US (1) US20210392329A1 (ko)
EP (1) EP3864850A1 (ko)
JP (1) JP2022504753A (ko)
KR (1) KR20210069715A (ko)
CN (1) CN113170210A (ko)
CA (1) CA3115689A1 (ko)
SG (1) SG11202103601RA (ko)
WO (1) WO2020077003A1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024054029A1 (ko) * 2022-09-06 2024-03-14 주식회사 케이티 영상 부호화/복호화 방법 및 비트스트림을 저장하는 기록 매체

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7319365B2 (ja) * 2018-11-22 2023-08-01 北京字節跳動網絡技術有限公司 サブブロックに基づくインター予測のための調整方法
TW202046730A (zh) * 2019-04-24 2020-12-16 美商松下電器(美國)知識產權公司 編碼裝置、解碼裝置、編碼方法、及解碼方法
KR20220027173A (ko) * 2019-06-25 2022-03-07 인터디지털 브이씨 홀딩스 프랑스 에스에이에스 비디오 인코딩 및 디코딩에서의 모션 벡터 예측
JP7481430B2 (ja) 2019-08-13 2024-05-10 北京字節跳動網絡技術有限公司 サブブロックに基づくインター予測における動き精度

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107181948B (zh) * 2011-06-30 2020-03-13 太阳专利托管公司 图像编码方法、图像编码装置及图像编码解码装置
US9462275B2 (en) * 2012-01-30 2016-10-04 Qualcomm Incorporated Residual quad tree (RQT) coding for video coding
CN108965871B (zh) * 2015-09-29 2023-11-10 华为技术有限公司 图像预测的方法及装置
WO2017087751A1 (en) * 2015-11-20 2017-05-26 Mediatek Inc. Method and apparatus for global motion compensation in video coding system
WO2017118409A1 (en) * 2016-01-07 2017-07-13 Mediatek Inc. Method and apparatus for affine merge mode prediction for video coding system
WO2017147765A1 (en) * 2016-03-01 2017-09-08 Mediatek Inc. Methods for affine motion compensation
US10560712B2 (en) * 2016-05-16 2020-02-11 Qualcomm Incorporated Affine motion prediction for video coding
US10812791B2 (en) * 2016-09-16 2020-10-20 Qualcomm Incorporated Offset vector identification of temporal motion vector predictor
US10462462B2 (en) * 2016-09-29 2019-10-29 Qualcomm Incorporated Motion vector difference coding technique for video coding
US20190335170A1 (en) * 2017-01-03 2019-10-31 Lg Electronics Inc. Method and apparatus for processing video signal by means of affine prediction
WO2018174618A1 (ko) * 2017-03-22 2018-09-27 한국전자통신연구원 참조 블록을 사용하는 예측 방법 및 장치
US10602180B2 (en) * 2017-06-13 2020-03-24 Qualcomm Incorporated Motion vector prediction
US10856003B2 (en) * 2017-10-03 2020-12-01 Qualcomm Incorporated Coding affine prediction motion information for video coding
US11877001B2 (en) * 2017-10-10 2024-01-16 Qualcomm Incorporated Affine prediction in video coding
KR20200005480A (ko) * 2018-07-06 2020-01-15 한국전자통신연구원 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 기록 매체
CN112040247B (zh) * 2018-09-10 2021-09-21 华为技术有限公司 视频解码方法、视频解码器以及计算机可读存储介质
WO2020056798A1 (zh) * 2018-09-21 2020-03-26 华为技术有限公司 一种视频编解码的方法与装置
GB2579763B (en) * 2018-09-21 2021-06-09 Canon Kk Video coding and decoding

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024054029A1 (ko) * 2022-09-06 2024-03-14 주식회사 케이티 영상 부호화/복호화 방법 및 비트스트림을 저장하는 기록 매체

Also Published As

Publication number Publication date
SG11202103601RA (en) 2021-05-28
EP3864850A1 (en) 2021-08-18
US20210392329A1 (en) 2021-12-16
JP2022504753A (ja) 2022-01-13
CN113170210A (zh) 2021-07-23
WO2020077003A1 (en) 2020-04-16
CA3115689A1 (en) 2020-04-16

Similar Documents

Publication Publication Date Title
KR20210069715A (ko) 비디오 인코딩 및 디코딩의 아핀 모드 시그널링
KR20210134034A (ko) 서브블록 기반 로컬 조명 보상을 이용한 비디오 인코딩 및 디코딩 방법 및 장치
CN113228676A (zh) 在合并列表中运动矢量预测量候选排序
KR20210062055A (ko) 양방향 예측을 사용하는 비디오 인코딩 및 디코딩을 위한 방법 및 장치
EP3706421A1 (en) Method and apparatus for video encoding and decoding based on affine motion compensation
US20230007239A1 (en) Virtual temporal affine candidates
US11750836B2 (en) Virtual temporal affine candidates
US11973969B2 (en) Method and apparatus for video encoding and decoding using list of predictor candidates
US11375202B2 (en) Translational and affine candidates in a unified list
US20230023837A1 (en) Subblock merge candidates in triangle merge mode
EP4320862A1 (en) Geometric partitions with switchable interpolation filter
CN114930831A (zh) 空间预测因子扫描顺序
KR20220027173A (ko) 비디오 인코딩 및 디코딩에서의 모션 벡터 예측
WO2020112451A1 (en) Combining affine candidates
US20220264147A1 (en) Hmvc for affine and sbtmvp motion vector prediction modes
EP3606075A1 (en) Virtual temporal affine motion vector candidates
WO2024078896A1 (en) Template type selection for video coding and decoding
WO2022101018A1 (en) A method and an apparatus for encoding or decoding a video
KR20220052991A (ko) 스위칭가능한 보간 필터들
KR20240056576A (ko) 템플릿 매칭에 기초한 비디오 인코딩 및 디코딩을 위한 크로마 예측