KR102639864B1 - 진보된 산술 코더 - Google Patents

진보된 산술 코더 Download PDF

Info

Publication number
KR102639864B1
KR102639864B1 KR1020177034288A KR20177034288A KR102639864B1 KR 102639864 B1 KR102639864 B1 KR 102639864B1 KR 1020177034288 A KR1020177034288 A KR 1020177034288A KR 20177034288 A KR20177034288 A KR 20177034288A KR 102639864 B1 KR102639864 B1 KR 102639864B1
Authority
KR
South Korea
Prior art keywords
context
value
video data
entropy coding
video
Prior art date
Application number
KR1020177034288A
Other languages
English (en)
Other versions
KR20180013928A (ko
Inventor
리 장
지안레 천
신 자오
샹 리
홍빈 리우
잉 천
마르타 카르체비츠
Original Assignee
퀄컴 인코포레이티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 퀄컴 인코포레이티드 filed Critical 퀄컴 인코포레이티드
Publication of KR20180013928A publication Critical patent/KR20180013928A/ko
Application granted granted Critical
Publication of KR102639864B1 publication Critical patent/KR102639864B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/13Adaptive entropy coding, e.g. adaptive variable length coding [AVLC] or context adaptive binary arithmetic coding [CABAC]
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03MCODING; DECODING; CODE CONVERSION IN GENERAL
    • H03M7/00Conversion of a code where information is represented by a given sequence or number of digits to a code where the same, similar or subset of information is represented by a different sequence or number of digits
    • H03M7/30Compression; Expansion; Suppression of unnecessary data, e.g. redundancy reduction
    • H03M7/40Conversion to or from variable length codes, e.g. Shannon-Fano code, Huffman code, Morse code
    • H03M7/4006Conversion to or from arithmetic code
    • H03M7/4012Binary arithmetic codes
    • H03M7/4018Context adapative binary arithmetic codes [CABAC]
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03MCODING; DECODING; CODE CONVERSION IN GENERAL
    • H03M7/00Conversion of a code where information is represented by a given sequence or number of digits to a code where the same, similar or subset of information is represented by a different sequence or number of digits
    • H03M7/30Compression; Expansion; Suppression of unnecessary data, e.g. redundancy reduction
    • H03M7/60General implementation details not specific to a particular type of compression
    • H03M7/6011Encoder aspects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • H04N19/126Details of normalisation or weighting functions, e.g. normalisation matrices or variable uniform quantisers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • H04N19/139Analysis of motion vectors, e.g. their magnitude, direction, variance or reliability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/146Data rate or code amount at the encoder output
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/159Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/174Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a slice, e.g. a line of blocks or a group of blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/184Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being bits, e.g. of the compressed video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/42Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
    • H04N19/91Entropy coding, e.g. variable length coding [VLC] or arithmetic coding

Abstract

비디오 데이터를 엔트로피 코딩하는 일 예시적인 방법은, 비디오 데이터의 슬라이스에서 신택스 엘리먼트에 대한 값을 엔트로피 코딩하기 위해 컨텍스트-적응 엔트로피 코딩 프로세스에서 사용되는 복수의 컨텍스트들 중의 컨텍스트에 대해 사전-정의된 초기화 값을 획득하는 단계로서, 사전-정의된 초기화 값은 N-비트 정밀도로 저장되는, 상기 사전-정의된 초기화 값을 획득하는 단계; 룩-업 테이블을 이용하여 그리고 사전-정의된 초기화 값에 기초하여, 비디오 데이터의 슬라이스에 대한 컨텍스트의 초기 확률 상태를 결정하는 단계로서, 컨텍스트에 대한 가능한 확률 상태들의 수는 2 의 N 승보다 더 큰, 상기 초기 확률 상태를 결정하는 단계; 및, 컨텍스트의 초기 확률 상태에 기초하여, 신택스 엘리먼트에 대한 값의 빈을 엔트로피 코딩하는 단계를 포함한다.

Description

진보된 산술 코더{ADVANCED ARITHMETIC CODER}
본 출원은 2015년 5월 29일에 출원된 미국 가출원 번호 제 62/168,503호의 이익을 주장하며, 이의 전체 내용이 참조에 의해 본원에 통합된다.
기술 분야
본 개시물은 비디오 코딩에 관한 것으로, 좀더 자세하게는, 비디오 데이터의 2진 산술 코딩을 위한 기법들에 관한 것이다.
디지털 비디오 능력들은 디지털 텔레비전들, 디지털 직접 브로드캐스트 시스템들, 무선 브로드캐스트 시스템들, 개인 휴대정보 단말기들 (PDAs), 랩탑 또는 데스크탑 컴퓨터들, 디지털 카메라들, 디지털 리코딩 디바이스들, 디지털 미디어 플레이어들, 비디오 게이밍 디바이스들, 비디오 게임 콘솔들, 셀룰러 또는 위성 무선 전화기들, 원격 화상회의 디바이스들 등을 포함한, 광범위한 디바이스들에 포함될 수 있다. 디지털 비디오 디바이스들은 디지털 비디오 정보를 좀더 효율적으로 송수신하고 저장하기 위해, MPEG-2, MPEG-4, ITU-T H.263, ITU-T H.264/MPEG-4, 파트 10, AVC (Advanced Video Coding) 에 의해 정의된 표준들, HEVC (High Efficiency Video Coding) 표준, 및 이런 표준들의 확장판들에 설명된 것들과 같은 비디오 압축 기법들을 구현한다.
비디오 압축 기법들은 비디오 시퀀스들에 고유한 리던던시를 감소시키거나 또는 제거하기 위해 공간 예측 및/또는 시간 예측을 포함한다. 블록-기반의 비디오 코딩에 있어, 비디오 프레임 또는 슬라이스는 블록들로 파티셔닝될 수도 있다. 각각의 블록은 더 파티셔닝될 수도 있다. 인트라-코딩된 (I) 프레임 또는 슬라이스에서의 블록들은 동일한 프레임 또는 슬라이스에서 이웃하는 블록들에서의 참조 샘플들에 대한 공간 예측을 이용하여 인코딩된다. 인터-코딩된 (P 또는 B) 프레임 또는 슬라이스에서의 블록들은 동일한 프레임 또는 슬라이스에서 이웃하는 블록들에서의 참조 샘플들에 대한 공간 예측, 또는 다른 참조 프레임들에서의 참조 샘플들에 대한 시간 예측을 이용할 수도 있다. 공간 또는 시간 예측은 코딩될 블록에 대한 예측 블록을 초래한다. 잔차 데이터는 코딩될 원래 블록과 예측 블록 사이의 픽셀 차이들을 나타낸다.
인터-코딩된 블록은 예측 블록을 형성하는 참조 샘플들의 블록을 가리키는 모션 벡터, 및 코딩된 블록과 예측 블록 사이의 차이를 나타내는 잔차 데이터에 따라서 인코딩된다. 인트라-코딩된 블록은 인트라-코딩 모드 및 잔차 데이터에 따라서 인코딩된다. 추가적인 압축을 위해, 잔차 데이터는 픽셀 도메인으로부터 변환 도메인으로 변환되어, 잔차 변환 계수들을 초래할 수도 있으며, 이 잔차 변환 계수는 그후 양자화될 수도 있다. 처음에 2차원 어레이로 배열된, 양자화된 변환 계수들은 엔트로피 코딩을 위한 변환 계수들의 1차원 벡터를 발생하기 위해 특정의 순서로 스캐닝될 수도 있다.
다양한 엔트로피 코딩 프로세스들이 잔차 변환 계수들, 모션 벡터 정보, 신택스 엘리먼트들, 및 다른 연관된 정보를 코딩하는데 이용될 수도 있다. 다양한 엔트로피 코딩 및 다른 데이터 압축 프로세스들의 예들은 컨텍스트-적응 가변 길이 코딩 (CAVLC), 컨텍스트-적응 2진 산술 코딩 (CABAC), 확률 간격 파티셔닝 엔트로피 코딩 (PIPE), Golomb 코딩, Golomb-rice 코딩, 및 지수 Golomb 코딩을 포함한다.
일반적으로, 본 개시물은 비디오 코딩을 수행하는 기법들을 기술한다. 보다 구체적으로, 본 개시물은 상이한 윈도우 사이즈들로 CABAC 를 수행하기 위한 예시적인 기법들을 기술한다.
하나의 예에서, 비디오 데이터의 엔트로피 코딩을 위한 방법은, 비디오 데이터의 슬라이스에서 신택스 엘리먼트에 대한 값을 엔트로피 코딩하기 위해 컨텍스트-적응 코딩 프로세스에서 사용되는 복수의 컨텍스트들 중 일 컨텍스트에 대해 사전-정의된 초기화 값을 획득하는 단계로서, 사전-정의된 초기화 값은 N-비트 정밀도로 저장되는, 상기 사전-정의된 초기화 값을 획득하는 단계; 사전-정의된 초기화 값에 기초하여, 비디오 데이터의 슬라이스에 대한 컨텍스트의 초기 확률 상태를 결정하는 단계로서, 컨텍스트에 대한 가능한 확률 상태들의 수는 2 의 N 승보다 더 큰, 상기 초기 확률 상태를 결정하는 단계; 및, 컨텍스트의 초기 확률 상태에 기초하여, 신택스 엘리먼트에 대한 값의 빈을 엔트로피 코딩하는 단계를 포함한다. 이 예에서, 이 방법은 또한, 코딩된 빈에 기초하여 컨텍스트의 확률 상태를 업데이트하는 단계 및 컨텍스트의 업데이트된 확률 상태에 기초하여 동일한 컨텍스트를 갖는 다음 빈을 엔트로피 코딩하는 단계를 포함한다.
다른 예에서, 비디오 데이터의 엔트로피 코딩을 위한 장치는, 비디오 데이터의 슬라이스에서 신택스 엘리먼트에 대한 값을 엔트로피 코딩하기 위해 컨텍스트-적응 엔트로피 코딩 프로세스에서 사용되는 복수의 컨텍스트들을 저장하도록 구성된 메모리; 및 하나 이상의 프로세서들을 포함한다. 이 예에서, 하나 이상의 프로세서들은, 복수의 컨텍스트들 중 일 컨텍스트에 대해 사전-정의된 초기화 값을 획득하고, 여기서, 사전-정의된 초기화 값은 N-비트 정밀도로 저장되며; 사전-정의된 초기화 값에 기초하여, 비디오 데이터의 슬라이스에 대한 컨텍스트의 초기 확률 상태를 결정하고, 여기서, 컨텍스트에 대한 가능한 확률 상태들의 수는 2 의 N 승보다 더 크며; 그리고, 컨텍스트의 초기 확률 상태에 기초하여, 신택스 엘리먼트에 대한 값의 빈을 엔트로피 코딩하도록 구성된다. 이 예에서, 하나 이상의 프로세서들은 또한, 코딩된 빈에 기초하여 컨텍스트의 확률 상태를 업데이트하고, 컨텍스트의 업데이트된 확률 상태에 기초하여 동일한 컨텍스트를 갖는 다음 빈을 엔트로피 코딩하도록 구성된다.
또 다른 예에서, 비디오 데이터의 엔트로피 코딩을 위한 장치는, 비디오 데이터의 슬라이스에서 신택스 엘리먼트에 대한 값을 엔트로피 코딩하기 위해 컨텍스트-적응 엔트로피 코딩 프로세스에서 사용되는 복수의 컨텍스트들 중 일 컨텍스트에 대해 사전-정의된 초기화 값을 획득하는 수단으로서, 사전-정의된 초기화 값은 N-비트 정밀도로 저장되는, 상기 사전-정의된 초기화 값을 획득하는 수단; 사전-정의된 초기화 값에 기초하여, 비디오 데이터의 슬라이스에 대한 컨텍스트의 초기 확률 상태를 결정하는 수단으로서, 컨텍스트에 대한 가능한 확률 상태들의 수는 2 의 N 승보다 더 큰, 상기 초기 확률 상태를 결정하는 수단; 및, 컨텍스트의 초기 확률 상태에 기초하여, 신택스 엘리먼트에 대한 값의 빈을 엔트로피 코딩하는 수단을 포함한다. 이 예에서, 장치는 또한, 코딩된 빈에 기초하여 컨텍스트의 확률 상태를 업데이트하는 수단 및 컨텍스트의 업데이트된 확률 상태에 기초하여 동일한 컨텍스트를 갖는 다음 빈을 엔트로피 코딩하는 수단을 포함한다.
또 다른 예에서, 컴퓨터 판독가능 저장 매체는, 실행될 때 비디오 코딩 디바이스의 하나 이상의 프로세서들로 하여금, 비디오 데이터의 슬라이스에서 신택스 엘리먼트에 대한 값을 엔트로피 코딩하기 위해 컨텍스트-적응 엔트로피 코딩 프로세스에서 사용되는 복수의 컨텍스트들 중 일 컨텍스트에 대해 사전-정의된 초기화 값을 획득하게 하고, 여기서, 사전-정의된 초기화 값은 N-비트 정밀도로 저장되며; 사전-정의된 초기화 값에 기초하여, 비디오 데이터의 슬라이스에 대한 컨텍스트의 초기 확률 상태를 결정하게 하고, 여기서, 컨텍스트에 대한 가능한 확률 상태들의 수는 2 의 N 승보다 더 크고; 그리고, 컨텍스트의 초기 확률 상태에 기초하여, 신택스 엘리먼트에 대한 값의 빈을 엔트로피 코딩하게 하는 명령들을 저장한다. 이 예에서, 컴퓨터 판독가능 저장 매체는 또한, 하나 이상의 프로세서들로 하여금 코딩된 빈에 기초하여 컨텍스트의 확률 상태를 업데이트하게 하고 컨텍스트의 업데이트된 확률 상태에 기초하여 동일한 컨텍스트를 갖는 다음 빈을 엔트로피 코딩하게 하는 명령들을 저장한다.
또 다른 예에서, 컴퓨터 판독가능 저장 매체는, 비디오 디코딩 디바이스에 의해 프로세싱될 때 그 비디오 디코딩 디바이스의 하나 이상의 프로세서들로 하여금, 비디오 데이터의 슬라이스에서 신택스 엘리먼트에 대한 값을 엔트로피 코딩하기 위해 컨텍스트-적응 엔트로피 코딩 프로세스에서 사용되는 복수의 컨텍스트들 중 일 컨텍스트에 대해 사전-정의된 초기화 값을 획득하게 하고, 여기서, 사전-정의된 초기화 값은 N-비트 정밀도로 저장되며; 사전-정의된 초기화 값에 기초하여, 비디오 데이터의 슬라이스에 대한 컨텍스트의 초기 확률 상태를 결정하게 하고, 여기서, 컨텍스트에 대한 가능한 확률 상태들의 수는 2 의 N 승보다 더 크고; 그리고, 컨텍스트의 초기 확률 상태에 기초하여, 신택스 엘리먼트에 대한 값의 빈을 엔트로피 코딩하게 하는 인코딩된 비디오 데이터를 저장한다. 이 예에서, 컴퓨터 판독가능 저장 매체는 또한, 하나 이상의 프로세서들로 하여금 코딩된 빈에 기초하여 컨텍스트의 확률 상태를 업데이트하게 하고 컨텍스트의 업데이트된 확률 상태에 기초하여 동일한 컨텍스트를 갖는 다음 빈을 엔트로피 코딩하게 하는 명령들을 저장한다.
본 개시물의 하나 이상의 양태들의 세부 사항들이 첨부 도면들 및 아래의 상세한 설명에서 개시된다. 본 개시물에서 설명된 기법들의 다른 특징들, 목적들, 및 이점들은 상세한 설명 및 도면들로부터, 그리고 청구항들로부터 명백히 알 수 있을 것이다.
도 1 은 예시적인 비디오 인코딩 및 디코딩 시스템을 예시하는 블록도이다.
도 2a 및 도 2b 는 2진 산술 코딩에서의 범위 업데이트 프로세스를 예시하는 개념도들이다.
도 3 은 2진 산술 코딩에서의 출력 프로세스를 예시하는 개념도이다.
도 4 는 예시적인 비디오 인코더를 예시하는 블록도이다.
도 5 는 비디오 인코더에서의 컨텍스트 적응 2진 산술 코더를 예시하는 블록도이다.
도 6 은 예시적인 비디오 디코더를 예시하는 블록도이다.
도 7 은 비디오 디코더에서의 컨텍스트 적응 2진 산술 코더를 예시하는 블록도이다.
도 8 은 정규 코딩 모드를 이용한 주어진 빈 값에 대한 2진 산술 인코딩 프로세스를 예시한다.
도 9 는 잔차 쿼드트리에 기초한 예시적인 변환 방식을 예시하는 개념도이다.
도 10 은 계수 그룹들에 기초한 예시적인 계수 스캔을 예시하는 개념도이다.
도 11 은 본 개시물의 하나 이상의 기법들에 따른, 상이한 윈도우 사이즈들로 컨텍스트-기반의 엔트로피 인코딩을 수행하는 예시적인 프로세스를 예시하는 플로우차트이다.
도 12 는 본 개시물의 하나 이상의 기법들에 따른, 상이한 윈도우 사이즈들로 컨텍스트-기반의 엔트로피 디코딩을 수행하는 예시적인 프로세스를 예시하는 플로우차트이다.
본 개시물의 기법들은 일반적으로 블록-기반 하이브리드 비디오 코딩에서의 엔트로피 코딩 모듈에 관련된다. 이들 기법들은 HEVC (High Efficiency Video Coding) 와 같은 임의의 기존 비디오 코덱들에 적용될 수도 있거나, 또는 이들 기법들은 임의의 미래의 비디오 코딩 표준들 또는 다른 독점 또는 비-독점 코딩 기법들에서 효율적인 코딩 툴일 수도 있다. 예 및 설명의 목적들을 위해, 본 개시물의 기법들은 일반적으로 HEVC (또는, ITU-T H.265) 및/또는 ITU-T H.264 에 대해 설명된다.
도 1 은 가변 윈도우 사이즈들로 CABAC 설계에 따라서 데이터를 코딩하는 기법들을 이용할 수도 있는 예시적인 비디오 인코딩 및 디코딩 시스템 (10) 을 예시하는 블록도이다. 도 1 에 나타낸 바와 같이, 시스템 (10) 은 목적지 디바이스 (14) 에 의해 추후에 디코딩되는 인코딩된 비디오 데이터를 제공하는 소스 디바이스 (12) 를 포함한다. 특히, 소스 디바이스 (12) 는 비디오 데이터를 목적지 디바이스 (14) 에 컴퓨터-판독가능 매체 (16) 를 통해서 제공한다. 소스 디바이스 (12) 및 목적지 디바이스 (14) 는 데스크탑 컴퓨터들, 노트북 (즉, 랩탑) 컴퓨터들, 태블릿 컴퓨터들, 셋-탑 박스들, 소위 "스마트" 폰들과 같은 전화기 핸드셋들, 소위 "스마트" 패드들, 텔레비전들, 카메라들, 디스플레이 디바이스들, 디지털 미디어 플레이어들, 비디오 게이밍 콘솔들, 비디오 스트리밍 디바이스 등을 포함한, 광범위한 디바이스들 중 임의의 디바이스를 포함할 수도 있다. 일부의 경우, 소스 디바이스 (12) 및 목적지 디바이스 (14) 는 무선 통신용으로 탑재될 수도 있다.
목적지 디바이스 (14) 는 디코딩되는 인코딩된 비디오 데이터를 컴퓨터-판독가능 매체 (16) 를 통해서 수신할 수도 있다. 컴퓨터-판독가능 매체 (16) 는 인코딩된 비디오 데이터를 소스 디바이스 (12) 로부터 목적지 디바이스 (14) 로 이동시킬 수 있는 임의 종류의 매체 또는 디바이스를 포함할 수도 있다. 일 예에서, 컴퓨터-판독가능 매체 (16) 는 소스 디바이스 (12) 로 하여금 인코딩된 비디오 데이터를 직접 목적지 디바이스 (14) 로 실시간으로 송신할 수 있게 하는 통신 매체를 포함할 수도 있다. 인코딩된 비디오 데이터는 무선 통신 프로토콜과 같은 통신 표준에 따라서 변조되어 목적지 디바이스 (14) 로 송신될 수도 있다. 통신 매체는 무선 주파수 (RF) 스펙트럼 또는 하나 이상의 물리적인 송신 라인들과 같은, 임의의 무선 또는 유선 통신 매체를 포함할 수도 있다. 통신 매체는 근거리 네트워크, 광역 네트워크, 또는 글로벌 네트워크, 예컨대 인터넷과 같은 패킷-기반 네트워크의 일부를 형성할 수도 있다. 통신 매체는 라우터들, 스위치들, 기지국들, 또는 소스 디바이스 (12) 로부터 목적지 디바이스 (14) 로 통신을 용이하게 하는데 유용할 수도 있는 임의의 다른 장비를 포함할 수도 있다.
일부 예들에서, 인코딩된 데이터는 출력 인터페이스 (22) 로부터 저장 디바이스로 출력될 수도 있다. 이와 유사하게, 인코딩된 데이터는 입력 인터페이스에 의해 저장 디바이스로부터 액세스될 수도 있다. 저장 디바이스는 하드 드라이브, 블루-레이 디스크들, DVD들, CD-ROM들, 플래시 메모리, 휘발성 또는 비-휘발성 메모리, 또는 인코딩된 비디오 데이터를 저장하기 위한 임의의 다른 적합한 디지털 저장 매체들과 같은 다양한 분산된 또는 로컬 액세스되는 데이터 저장 매체들 중 임의의 데이터 저장 매체를 포함할 수도 있다. 추가적인 예에서, 저장 디바이스는 소스 디바이스 (12) 에 의해 발생된 인코딩된 비디오를 저장할 수도 있는 파일 서버 또는 또 다른 중간 저장 디바이스에 대응할 수도 있다. 목적지 디바이스 (14) 는 저장된 비디오 데이터에 저장 디바이스로부터의 스트리밍 또는 다운로드를 통해서 액세스할 수도 있다. 파일 서버는 인코딩된 비디오 데이터를 저장하고 그 인코딩된 비디오 데이터를 목적지 디바이스 (14) 로 송신하는 것이 가능한 임의 종류의 서버일 수도 있다. 예시적인 파일 서버들은 웹 서버 (예컨대, 웹사이트용), FTP 서버, NAS (network attached storage) 디바이스들, 또는 로컬 디스크 드라이브를 포함한다. 목적지 디바이스 (14) 는 인터넷 접속을 포함한, 임의의 표준 데이터 접속을 통해서, 인코딩된 비디오 데이터에 액세스할 수도 있다. 이것은 파일 서버 상에 저장되는 인코딩된 비디오 데이터에 액세스하는데 적합한, 무선 채널 (예컨대, Wi-Fi 접속), 유선 접속 (예컨대, DSL, 케이블 모뎀 등), 또는 양쪽의 조합을 포함할 수도 있다. 저장 디바이스로부터의 인코딩된 비디오 데이터의 송신은 스트리밍 송신, 다운로드 송신, 또는 이들의 조합일 수도 있다.
본 개시물의 기법들은 무선 애플리케이션들 또는 환경들에 반드시 한정되지는 않는다. 이 기법들은 오버-디-에어 텔레비전 브로드캐스트들, 케이블 텔레비전 송신들, 위성 텔레비전 송신들, 인터넷 스트리밍 비디오 송신들, 예컨대 HTTP 를 통한 동적 적응 스트리밍 (DASH), 데이터 저장 매체 상에 인코딩된 디지털 비디오, 데이터 저장 매체 상에 저장된 디지털 비디오의 디코딩, 또는 다른 애플리케이션들과 같은, 다양한 멀티미디어 애플리케이션들 중 임의의 애플리케이션의 지원 하에 비디오 코딩에 적용될 수도 있다. 일부 예들에서, 시스템 (10) 은 비디오 스트리밍, 비디오 플레이백, 비디오 브로드캐스팅, 및/또는 비디오 전화 통신과 같은, 지원 애플리케이션들로의 단방향 또는 양방향 비디오 송신을 지원하도록 구성될 수도 있다.
도 1 의 예에서, 소스 디바이스 (12) 는 비디오 소스 (18), 비디오 인코더 (20), 및 출력 인터페이스 (22) 를 포함한다. 목적지 디바이스 (14) 는 입력 인터페이스 (28), 비디오 디코더 (30), 및 디스플레이 디바이스 (31) 를 포함한다. 본 개시물에 따르면, 소스 디바이스 (12) 의 비디오 인코더 (20) 는 향상된 CABAC 설계에 따라서 데이터를 코딩하는 기법들을 적용하도록 구성될 수도 있다. 다른 예들에서, 소스 디바이스 및 목적지 디바이스는 다른 컴포넌트들 또는 배열들을 포함할 수도 있다. 예를 들어, 소스 디바이스 (12) 는 비디오 데이터를 외부 카메라와 같은 외부 비디오 소스 (18) 로부터 수신할 수도 있다. 이와 유사하게, 목적지 디바이스 (14) 는 통합된 디스플레이 디바이스를 포함하는 대신, 외부 디스플레이 디바이스와 인터페이스할 수도 있다.
도 1 의 예시된 시스템 (10) 은 단지 일 예이다. 향상된 CABAC 설계에 따라서 데이터를 코딩하는 기법들은 임의의 디지털 비디오 인코딩 및/또는 디코딩 디바이스에 의해 수행될 수도 있다. 일반적으로 본 개시물의 기법들은 비디오 인코딩 디바이스에 의해 수행되지만, 그 기법들은 또한 "코덱" 으로서 일반적으로 지칭되는, 비디오 인코더/디코더에 의해 수행될 수도 있다. 더욱이, 본 개시물의 기법들은 또한 비디오 프리프로세서에 의해 수행될 수도 있다. 소스 디바이스 (12) 및 목적지 디바이스 (14) 는 단지 코딩 디바이스들의 예들이며, 여기서, 소스 디바이스 (12) 는 목적지 디바이스 (14) 로의 송신을 위해 코딩된 비디오 데이터를 발생한다. 일부 예들에서, 디바이스들 (12, 14) 은 디바이스들 (12, 14) 의 각각이 비디오 인코딩 및 디코딩 컴포넌트들을 포함하도록, 실질적으로 대칭적 방식으로 동작할 수도 있다. 그러므로, 시스템 (10) 은 예컨대, 비디오 스트리밍, 비디오 플레이백, 비디오 브로드캐스팅, 또는 비디오 전화 통신을 위해, 비디오 디바이스들 (12, 14) 사이에 단방향 또는 양방향 비디오 송신을 지원할 수도 있다.
소스 디바이스 (12) 의 비디오 소스 (18) 는 비디오 카메라와 같은 비디오 캡쳐 디바이스, 이전에 캡쳐된 비디오를 포함하는 비디오 아카이브, 및/또는 비디오 콘텐츠 제공자로부터 비디오를 수신하는 비디오 공급 인터페이스를 포함할 수도 있다. 추가 대안적인 예로서, 비디오 소스 (18) 는 컴퓨터 그래픽스-기반의 데이터를 소스 비디오, 또는 라이브 비디오, 아카이브된 비디오, 및 컴퓨터 발생된 비디오의 조합으로서 발생할 수도 있다. 어떤 경우, 비디오 소스 (18) 가 비디오 카메라이면, 소스 디바이스 (12) 및 목적지 디바이스 (14) 는 소위 카메라 폰들 또는 비디오 폰들을 형성할 수도 있다. 그러나, 위에서 언급한 바와 같이, 본 개시물에서 설명하는 기법들은 비디오 코딩에 일반적으로 적용가능할 수도 있으며, 무선 및/또는 유선 애플리케이션들에 적용될 수도 있다. 각 경우, 캡쳐되거나, 사전-캡쳐되거나, 또는 컴퓨터-발생된 비디오는 비디오 인코더 (20) 에 의해 인코딩될 수도 있다. 인코딩된 비디오 정보는 그후 출력 인터페이스 (22) 에 의해 컴퓨터-판독가능 매체 (16) 상으로 출력될 수도 있다.
컴퓨터-판독가능 매체 (16) 는 무선 브로드캐스트 또는 유선 네트워크 송신과 같은 일시성 매체, 또는 하드 디스크, 플래시 드라이브, 컴팩트 디스크, 디지털 비디오 디스크, 블루-레이 디스크, 또는 다른 컴퓨터-판독가능 매체들과 같은 저장 매체들 (즉, 비일시성 저장 매체들) 을 포함할 수도 있다. 일부 예들에서, 네트워크 서버 (미도시) 는 인코딩된 비디오 데이터를 소스 디바이스 (12) 로부터 수신하고 그 인코딩된 비디오 데이터를 목적지 디바이스 (14) 로, 예컨대, 네트워크 송신을 통해서 제공할 수도 있다. 이와 유사하게, 디스크 스탬핑 설비와 같은 매체 생산 설비의 컴퓨팅 디바이스는 인코딩된 비디오 데이터를 소스 디바이스 (12) 로부터 수신하고 그 인코딩된 비디오 데이터를 포함하는 디스크를 제조할 수도 있다. 비디오 디코딩 디바이스에 의해 프로세싱될 때, 디스크 상의 인코딩된 비디오 데이터는 상기 비디오 디코딩 디바이스로 하여금, 본원에서 개시되는 다양한 예들에 따라 비디오 데이터를 디코딩하게 할 수도 있다. 따라서, 컴퓨터-판독가능 매체 (16) 는 여러 예들에서, 여러 형태들의 하나 이상의 컴퓨터-판독가능 매체들을 포함하는 것으로 이해될 수도 있다.
목적지 디바이스 (14) 의 입력 인터페이스 (28) 는 컴퓨터-판독가능 매체 (16) 로부터 정보를 수신한다. 컴퓨터-판독가능 매체 (16) 의 정보는 블록들 및 다른 코딩된 유닛들, 예컨대, GOP들의 특성들 및/또는 프로세싱을 기술하는 신택스 엘리먼트들을 포함하는, 비디오 인코더 (20) 에 의해 정의되고 또한 비디오 디코더 (30) 에 의해 사용되는, 신택스 정보를 포함할 수도 있다. 디스플레이 디바이스 (31) 는 그 디코딩된 비디오 데이터를 사용자에게 디스플레이하며, 음극선관 (CRT), 액정 디스플레이 (LCD), 플라즈마 디스플레이, 유기 발광 다이오드 (OLED) 디스플레이, 또는 또 다른 유형의 디스플레이 디바이스와 같은 다양한 디스플레이 디바이스들 중 임의의 디바이스를 포함할 수도 있다.
비디오 인코더 (20) 및 비디오 디코더 (30) 는 ITU-T H.265 로서 또한 지칭되는, HEVC (High Efficiency Video Coding) 표준과 같은 비디오 코딩 표준에 따라서 동작할 수도 있다. 대안적으로, 비디오 인코더 (20) 및 비디오 디코더 (30) 는 MPEG 4, 파트 10, AVC (Advanced Video Coding) 로서 대안적으로 지칭되는 ITU-T H.264 표준, 또는 이런 표준들의 확장판들과 같은 다른 사유 (proprietary) 또는 산업 표준들에 따라서 동작할 수도 있다. 그러나, 본 개시물의 기법들은 임의의 특정의 코딩 표준에 한정되지 않는다. 비디오 코딩 표준들의 다른 예들은 MPEG-2 및 ITU-T H.263 를 포함한다. 도 1 에 나타내지는 않지만, 일부 양태들에서, 비디오 인코더 (20) 및 비디오 디코더 (30) 는 오디오 인코더 및 디코더와 각각 통합될 수도 있으며, 오디오 및 비디오 양쪽의 인코딩을 공통 데이터 스트림 또는 별개의 데이터 스트림들로 처리하기에 적합한 MUX-DEMUX 유닛들, 또는 다른 하드웨어 및 소프트웨어를 포함할 수도 있다. 적용가능한 경우, MUX-DEMUX 유닛들은 ITU H.223 멀티플렉서 프로토콜, 또는 다른 프로토콜들, 예컨대, 사용자 데이터그램 프로토콜 (UDP) 을 따를 수도 있다.
비디오 인코더 (20) 및 비디오 디코더 (30) 각각은 하나 이상의 마이크로프로세서들, 디지털 신호 프로세서들 (DSPs), 주문형 집적회로들 (ASICs), 필드 프로그래밍가능 게이트 어레이들 (FPGAs), 이산 로직, 소프트웨어, 하드웨어, 펌웨어 또는 임의의 이들의 조합들과 같은, 다양한 적합한 인코더 회로 중 임의의 회로로 구현될 수도 있다. 이 기법들이 소프트웨어로 부분적으로 구현되는 경우, 디바이스는 본 개시물의 기법들을 수행하기 위해 소프트웨어용 명령들을 적합한 비일시성 컴퓨터-판독가능 매체에 저장하고, 그 명령들을 하드웨어에서 하나 이상의 프로세서들을 이용하여 실행할 수도 있다. 비디오 인코더 (20) 및 비디오 디코더 (30) 각각은 하나 이상의 인코더들 또는 디코더들에 포함될 수도 있으며, 이들 중 어느 쪽이든 개별 디바이스에서 결합된 인코더/디코더 (CODEC) 의 일부분으로서 통합될 수도 있다.
일반적으로, HEVC 에 따라서, 비디오 프레임 또는 화상이 루마 샘플 및 크로마 샘플들 양쪽을 포함하는 트리블록들 또는 최대 코딩 유닛들 (LCU) 의 시퀀스로 분할될 수도 있다. 비트스트림 내 신택스 데이터는 LCU 에 대한 사이즈를 정의할 수도 있으며, 이 최대 코딩 유닛은 픽셀들의 개수의 관점에서 최대 코딩 유닛이다. 슬라이스는 코딩 순서에서 다수의 연속되는 트리블록들을 포함한다. 비디오 프레임 또는 픽처는 하나 이상의 슬라이스들로 파티셔닝될 수도 있다. 각각의 트리블록은 쿼드트리에 따라 코딩 유닛들 (CUs) 로 분할될 수도 있다. 일반적으로, 쿼드트리 데이터 구조는 CU 당 하나의 노드를 포함하며, 루트 노드는 트리블록에 대응한다. CU 가 4개의 서브-CU들로 분할되면, CU 에 대응하는 노드는 4개의 리프 노드들을 포함하며, 그 리프 노드 각각은 서브-CU들 중 하나에 대응한다.
쿼드트리 데이터 구조의 각각의 노드는 대응하는 CU 에 대한 신택스 데이터를 제공할 수도 있다. 예를 들어, 쿼드트리에서의 노드는 그 노드에 대응하는 CU 가 서브-CU들로 분할되는지의 여부를 나타내는 분할 플래그를 포함할 수도 있다. CU 에 대한 신택스 엘리먼트들은 회귀적으로 정의될 수도 있으며, CU 가 서브-CU들로 분할되는지의 여부에 의존할 수도 있다. CU 가 추가로 분할되지 않으면, 리프-CU 로서 지칭된다. 본 개시물에서, 리프-CU 의 4개의 서브-CU들은 또한 원래 리프-CU 의 명시적인 분할이 없더라도 리프-CU들로 지칭될 것이다. 예를 들어, 16x16 사이즈에서의 CU 가 추가로 분할되지 않으면, 4개의 8x8 서브-CU들이 또한 16x16 CU 가 전혀 분할되지 않았더라도, 리프-CU들로서 지칭될 것이다.
CU 는 CU 가 사이즈 구별을 갖지 않는다는 점을 제외하고는, H.264 표준의 매크로블록과 유사한 목적을 갖는다. 예를 들어, 트리블록은 4개의 자식 노드들 (또한, 서브-CU들로서 지칭됨) 로 분할될 수도 있으며, 각각의 자식 노드는 결국 부모 노드일 수도 있으며 또 다른 4개의 자식 노드들로 분할될 수도 있다. 쿼드트리의 리프 노드로서 지칭되는, 최종, 미분할된 자식 노드는 리프-CU 로서 또한 지칭되는, 코딩 노드를 포함한다. 코딩된 비트스트림과 연관되는 신택스 데이터는 최대 CU 심도로서 지칭되는, 트리블록이 분할될 수도 있는 최대 횟수를 정의할 수도 있으며, 또한 코딩 노드들의 최소 사이즈를 정의할 수도 있다. 따라서, 비트스트림은 또한 최소 코딩 유닛 (SCU) 을 정의할 수도 있다. 본 개시물은 HEVC 의 상황에서는, CU, 예측 유닛 (PU), 또는 변환 유닛 (TU), 또는 다른 표준들의 상황에서는, 유사한 데이터 구조들 (예컨대, H.264/AVC 에서의 매크로블록들 및 그의 서브-블록들) 중 임의의 것을 지칭하기 위해 용어 "블록" 을 사용한다.
CU 는 코딩 노드, 및 이 코딩 노드와 연관되는 변환 유닛들 (TUs) 및 예측 유닛들 (PUs) 을 포함한다. CU 의 사이즈는 코딩 노드의 사이즈에 대응하며 형상은 일반적으로 정사각형이다. CU 의 사이즈는 8x8 픽셀들로부터 최대 사이즈, 예컨대, 64x64 픽셀들 이상을 갖는 트리블록의 사이즈까지 이를 수도 있다. 각각의 CU 는 하나 이상의 PU들 및 하나 이상의 TU들을 포함할 수도 있다. CU 와 연관되는 신택스 데이터는 예를 들어, 하나 이상의 PU들로의 CU 의 파티셔닝을 기술할 수도 있다. 파티셔닝 모드들은 CU 가 스킵되는지 또는 직접 모드 인코딩될지, 인트라-예측 모드 인코딩될지, 또는 인터-예측 모드 인코딩될지 여부의 사이에서 상이할 수도 있다. PU들은 형상이 비-정사각형으로 파티셔닝될 수도 있다. CU 와 연관되는 신택스 데이터는 또한 예를 들어, 쿼드트리에 따른 하나 이상의 TU들로의 CU 의 파티셔닝을 기술할 수도 있다. TU 는 형상이 정사각형 또는 비-정사각형 (예컨대, 직사각형) 일 수 있다.
HEVC 표준은 TU들에 따라서 변환들을 허용하며, 이 TU들은 상이한 CU들에 대해 상이할 수도 있다. TU들은 일반적으로 파티셔닝된 LCU 에 대해 정의된 주어진 CU 내 PU들의 사이즈에 기초하여 사이징되지만, 이것이 항상 그런 것은 아니다. TU들은 일반적으로 PU들과 동일한 사이즈이거나 또는 그보다 작다. 일부 예들에서, CU 에 대응하는 잔차 샘플들은 "잔차 쿼드 트리" (RQT) 로서 알려진 쿼드트리 구조를 이용하여 더 작은 유닛들로 세분될 수도 있다. RQT 의 리프 노드들은 변환 유닛들 (TUs) 로서 지칭될 수도 있다. TU들과 연관되는 픽셀 차이 값들은 변환 계수들을 발생하기 위해 변환될 수도 있으며, 그 변환 계수들은 양자화될 수도 있다.
리프-CU 는 하나 이상의 예측 유닛들 (PUs) 을 포함할 수도 있다. 일반적으로, PU 는 대응하는 CU 의 모두 또는 부분에 대응하는 공간 영역을 나타내며, PU 에 대한 참조 샘플을 취출 및/또는 발생시키기 위한 데이터를 포함할 수도 있다. 더욱이, PU 는 예측에 관련된 데이터를 포함한다. 예를 들어, PU 가 인트라-모드 인코딩될 때, PU 에 대한 데이터는 잔차 쿼드트리 (RQT) 에 포함될 수도 있으며, PU 에 대응하는 TU 에 대한 인트라-예측 모드를 기술하는 데이터를 포함할 수도 있다. RQT 는 변환 트리로서 또한 지칭될 수도 있다. 일부 예들에서, 인트라-예측 모드는 RQT 대신, 리프-CU 신택스로 시그널링될 수도 있다. 다른 예로서, PU 가 인터-모드 인코딩될 때, PU 는 PU 에 대한 하나 이상의 모션 벡터들과 같은, 모션 정보를 정의하는 데이터를 포함할 수도 있다. PU 에 대한 모션 벡터를 정의하는 데이터는 예를 들어, 모션 벡터의 수평 성분, 모션 벡터의 수직 성분, 모션 벡터에 대한 분해능 (예컨대, 1/4 픽셀 정밀도 또는 1/8 픽셀 정밀도), 모션 벡터가 가리키는 참조 픽처, 및/또는 모션 벡터에 대한 참조 픽처 리스트 (예컨대, List 0, List 1, 또는 List C) 를 기술할 수도 있다.
하나 이상의 PU들을 갖는 리프-CU 는 또한 하나 이상의 변환 유닛들 (TUs) 을 포함할 수도 있다. 변환 유닛들은 위에서 설명한 바와 같이, RQT (또한, TU 쿼드트리 구조로서 지칭됨) 를 이용하여 규정될 수도 있다. 예를 들어, 분할 플래그는 리프-CU 가 4개의 변환 유닛들로 분할되는지 여부를 나타낼 수도 있다. 그 후, 각각의 변환 유닛은 추가적인 서브-TU들로 추가로 분할될 수도 있다. TU 가 추가로 분할되지 않을 때, 리프-CU 로서 지칭될 수도 있다. 일반적으로, 인트라 코딩에 있어, 리프-CU 에 속하는 모든 리프-TU들은 동일한 인트라 예측 모드를 공유한다. 즉, 동일한 인트라-예측 모드가 일반적으로 리프-CU 의 모든 TU들에 대해 예측된 값들을 계산하기 위해 적용된다. 인트라 코딩에 있어, 비디오 인코더는 각각의 리프-TU 에 대한 잔차 값을 인트라 예측 모드를 이용하여, TU 에 대응하는 CU 의 부분과 원래 블록 사이의 차이로서 계산할 수도 있다. TU 는 PU 의 사이즈로 반드시 제한되지는 않는다. 따라서, TU들은 PU 보다 더 크거나 또는 더 작을 수도 있다. 인트라 코딩에 있어, PU 는 동일한 CU 에 대한 대응하는 리프-TU 와 병치될 수도 있다. 일부 예들에서, 리프-TU 의 최대 사이즈는 대응하는 리프-CU 의 사이즈에 대응할 수도 있다.
더욱이, 리프-CU들의 TU들은 또한 잔차 쿼드트리들 (RQTs) 로서 지칭되는, 개별 쿼드트리 데이터 구조들과 연관될 수도 있다. 즉, 리프-CU 는 리프-CU 가 어떻게 TU들로 파티셔닝되는 지를 나타내는 쿼드트리를 포함할 수도 있다. TU 쿼드트리의 루트 노드는 일반적으로 리프-CU 에 대응하는 반면, CU 쿼드트리의 루트 노드는 일반적으로 트리블록 (또는, LCU) 에 대응한다. 분할되지 않은 RQT 의 TU들은 리프-TU들로서 지칭된다. 일반적으로, 본 개시물은 달리 언급하지 않는 한, 리프-CU 및 리프-TU 를 지칭하기 위해, 각각 용어들 CU 및 TU 를 사용한다.
비디오 시퀀스는 일반적으로 비디오 프레임들 또는 픽처들의 시리즈를 포함한다. 픽처들의 그룹 (GOP) 은 일반적으로 비디오 픽처들의 하나 이상의 시리즈를 포함한다. GOP 는 GOP 의 헤더에, 픽처들의 하나 이상의 헤더에, 또는 다른 곳에, GOP 에 포함된 다수의 픽처들을 기술하는 신택스 데이터를 포함할 수도 있다. 픽처의 각각의 슬라이스는 개별 슬라이스에 대한 인코딩 모드를 기술하는 슬라이스 신택스 데이터를 포함할 수도 있다. 비디오 인코더 (20) 는 일반적으로 비디오 데이터를 인코딩하기 위해 개개의 비디오 슬라이스들 내 비디오 블록들에 대해 동작한다. 비디오 블록은 CU 내 코딩 노드에 대응할 수도 있다. 비디오 블록들은 고정 또는 가변 사이즈들을 가질 수도 있으며, 규정된 코딩 표준에 따라서 사이즈가 상이할 수도 있다.
일 예로서, 다양한 사이즈들의 PU들에 대해 예측이 수행될 수도 있다. 특정의 CU 의 사이즈가 2Nx2N 이라고 가정하면, 인트라-예측이 2Nx2N 또는 NxN 의 PU 사이즈들에 대해 수행될 수도 있으며, 인터-예측이 2Nx2N, 2NxN, Nx2N, 또는 NxN 의 대칭적 PU 사이즈들에 대해 수행될 수도 있다. 인터-예측을 위한 비대칭적인 파티셔닝이 또한 2NxnU, 2NxnD, nLx2N, 및 nRx2N 의 PU 사이즈들에 대해 수행될 수도 있다. 비대칭적인 파티셔닝에서, CU 의 하나의 방향은 파티셔닝되지 않지만, 다른 방향은 25% 및 75% 로 파티셔닝된다. 25% 파티션에 대응하는 CU 의 부분은 "상부 (Up)", "하부 (Down)", "좌측 (Left)", 또는 "우측 (Right)" 의 표시가 뒤따르는 "n" 으로 표시된다. 따라서, 예를 들어, "2NxnU" 는 상부에서 2Nx0.5N PU 로 그리고 하부에서 2Nx1.5N PU 로 수평으로 파티셔닝된 2Nx2N CU 를 지칭한다.
본 개시물에서, "NxN" 및 "N 곱하기 N" 은 수직 및 수평 치수들의 관점에서 비디오 블록의 픽셀 치수들, 예컨대, 16x16 픽셀들 또는 16 곱하기 16 픽셀들을 지칭하기 위해 상호교환가능하게 사용될 수도 있다. 일반적으로, 16x16 블록은 수직 방향으로 16개의 픽셀들 (y = 16) 및 수평 방향으로 16개의 픽셀들 (x = 16) 을 가질 것이다. 이와 유사하게, NxN 블록은 일반적으로 수직 방향으로 N 개의 픽셀들 및 수평 방향으로 N 개의 픽셀들을 가지며, 여기서 N 은 음이 아닌 정수 값을 나타낸다. 블록에서 픽셀들은 로우들 및 칼럼들로 배열될 수도 있다. 더욱이, 블록들은 수직 방향에서와 같이 수평 방향에서 동일한 픽셀들의 개수를 반드시 가질 필요는 없다. 예를 들어, 블록들은 NxM 픽셀들을 포함할 수도 있으며, 여기서 M 은 반드시 N 과 같을 필요는 없다.
CU 의 PU들을 이용한 인트라-예측 또는 인터-예측 코딩 이후, 비디오 인코더 (20) 는 CU 의 TU들에 대한 잔차 데이터를 계산할 수도 있다. PU들은 공간 도메인 (또한, 픽셀 도메인으로 지칭됨) 에서 예측 픽셀 데이터를 발생하는 방법 또는 모드를 기술하는 신택스 데이터를 포함할 수도 있으며, TU들은 예를 들어, 이산 코사인 변환 (DCT), 정수 변환, 웨이블릿 변환, 또는 개념적으로 유사한 변환과 같은 변환의 잔차 비디오 데이터에의 적용 이후 변환 도메인에서의 계수들을 포함할 수도 있다. 잔차 데이터는 미인코딩된 픽처의 픽셀들과 PU들에 대응하는 예측 값들 사이의 픽셀 차이들에 대응할 수도 있다. 비디오 인코더 (20) 는 CU 에 대한 잔차 데이터를 나타내는 양자화된 변환 계수들을 포함하도록 TU들을 형성할 수도 있다. 즉, 비디오 인코더 (20) 는 잔차 데이터를 (잔차 블록의 형태로) 계산하고, 잔차 블록을 변환하여 변환 계수들의 블록을 발생시키고, 그후 변환 계수들을 양자화하여 양자화된 변환 계수들을 형성할 수도 있다. 비디오 인코더 (20) 는 양자화된 변환 계수들 뿐만 아니라, 다른 신택스 정보 (예컨대, TU 에 대한 분할 정보) 를 포함하는 TU 를 형성할 수도 있다.
위에서 언급한 바와 같이, 변환 계수들을 생성하는 임의의 변환들 이후, 비디오 인코더 (20) 는 변환 계수들의 양자화를 수행할 수도 있다. 양자화는 일반적으로 계수들을 나타내는데 사용되는 데이터의 양을 가능한 한 감축하기 위해 변환 계수들이 양자화되는 프로세스를 지칭하며, 추가적인 압축을 제공한다. 양자화 프로세스는 그 계수들의 일부 또는 모두와 연관되는 비트 심도를 감소시킬 수도 있다. 예를 들어, n-비트 값은 양자화 동안 m-비트 값까지 절사될 수도 있으며, 여기서, n 은 m 보다 더 크다.
양자화 이후, 비디오 인코더는 변환 계수들을 스캐닝하여, 양자화된 변환 계수들을 포함하는 2차원 매트릭스로부터 1차원 벡터를 발생할 수도 있다. 스캐닝은 어레이의 앞부분에 더 높은 에너지 (따라서, 더 낮은 주파수) 계수들을 배치하고, 그리고 어레이의 뒷부분에 더 낮은 에너지 (따라서, 더 높은 주파수) 계수들을 배치하도록 설계될 수도 있다. 일부 예들에서, 비디오 인코더 (20) 는 엔트로피 인코딩될 수 있는 직렬화된 벡터를 발생하기 위해, 미리 정의된 스캔 순서를 이용하여, 양자화된 변환 계수들을 스캐닝할 수도 있다. 다른 예들에서, 비디오 인코더 (20) 는 적응적 스캐닝을 수행할 수도 있다. 양자화된 변환 계수들을 스캐닝하여 1차원 벡터를 형성한 후, 비디오 인코더 (20) 는 HEVC 에서 사용된 바와 같이, 1차원 벡터를 예컨대, 본 개시물에서 설명되는 컨텍스트 적응 2진 산술 코딩 (CABAC) 설계에 따라서 엔트로피 인코딩할 수도 있다. 비디오 인코더 (20) 는 또한 비디오 데이터를 디코딩할 때에 비디오 디코더 (30) 에 의해 사용하기 위한 인코딩된 비디오 데이터와 연관되는 신택스 엘리먼트들을 엔트로피 인코딩할 수도 있다.
일반적으로, 비디오 디코더 (30) 는 인코딩된 데이터를 디코딩하기 위해, 비디오 인코더 (20) 에 의해 수행되는 프로세스와 실질적으로 유사하지만 상반되는 프로세스를 수행한다. 예를 들어, 비디오 디코더 (30) 는 수신된 TU 의 계수들을 역양자화하고 역변환하여 잔차 블록을 복원한다. 비디오 디코더 (30) 는 시그널링된 예측 모드 (인트라- 또는 인터-예측) 를 이용하여 예측된 블록을 형성한다. 그후, 비디오 디코더 (30) 는 예측된 블록과 잔차 블록을 (픽셀 단위로) 결합하여 원래 블록을 복원한다. 블록 경계들을 따라서 시각적 아티팩트들을 감소시키기 위해 디블록킹 프로세스를 수행하는 것과 같은, 추가적인 프로세싱이 수행될 수도 있다. 더욱이, 비디오 디코더 (30) 는 신택스 엘리먼트들을 CABAC 를 이용하여 비디오 인코더 (20) 의 CABAC 인코딩 프로세스와 실질적으로 유사하지만 상반되는 방법으로 디코딩할 수도 있다.
본 개시물은 일반적으로 어떤 정보를 비디오 디코더 (30) 와 같은 또 다른 디바이스로 "시그널링하는" 비디오 인코더 (20) 를 참조할 수도 있다. 그러나, 비디오 인코더 (20) 는 어떤 신택스 엘리먼트들을 비디오 데이터의 여러 인코딩된 부분들과 연관시킴으로써 정보를 시그널링할 수도 있는 것으로 이해되어야 한다. 즉, 비디오 인코더 (20) 는 어떤 신택스 엘리먼트들을 비디오 데이터의 여러 인코딩된 부분들의 헤더들에 저장하여 데이터를 "시그널링할" 수도 있다. 일부의 경우, 이런 신택스 엘리먼트들은 비디오 디코더 (30) 에 의해 수신되어 디코딩되기 전에 인코딩되어 저장될 수도 있다 (예컨대, 저장 디바이스 (32) 에 저장될 수도 있다). 따라서, 용어 "시그널링" 은 일반적으로 압축된 비디오 데이터를 디코딩하기 위한 신택스 또는 다른 데이터의 통신을 지칭할 수도 있으며, 이런 통신이 인코딩 시에 신택스 엘리먼트들을 매체에 저장할 때에 일어날지도 모르는 것과 같이, 실시간으로 또는 거의-실시간으로 일어나든 또는 어떤 기간에 걸쳐서 일어나든, 이 신택스 엘리먼트들은 그후 이 매체에 저장되어진 후 임의의 시간에 디코딩 디바이스에 의해 취출될 수도 있다.
다음 섹션은 BAC 및 CABAC 기법들을 좀더 자세하게 설명할 것이다. BAC 는, 일반적으로, 회귀적인 간격-세부분할 프로시저이다. BAC 는 H.264/AVC 및 H.265/HEVC 비디오 코딩 표준들에서 CABAC 프로세스로 빈들을 인코딩하는데 이용된다. BAC 코더의 출력은 최종 코딩된 확률 간격 내에서 확률에 대한 값 또는 포인터를 나타내는 2진 스트림이다. 확률 간격은 범위 및 하단 값으로 규정된다. 범위는 확률 간격의 확장판이다. 로우는 코딩 간격의 하한이다.
비디오 코딩에의 산술 코딩의 적용은 2003년 7월, IEEE Trans. Circuits and Systems for Video Technology, 볼륨 13, 번호 7, D. Marpe, H. Schwarz, 및 T. Wiegand "Context-Based Adaptive Binary Arithmetic Coding in the H.264/AVC Video Compression Standard" 에 설명되어 있다. CABAC 는 3개의 주요 기능들, 즉, 2진화, 컨텍스트 모델링, 및 산술 코딩을 수반한다. 2진화는 신택스 엘리먼트들을 2진 심볼들 (또는, "빈들") 에 맵핑하는 기능을 지칭한다. 2진 심볼들은 또한 "빈 스트링들" 로서 지칭될 수도 있다. 컨텍스트 모델링은 다양한 빈들의 확률을 추정하는 기능을 지칭한다. 산술 코딩은 추정된 확률에 기초하여, 빈들을 비트들로 압축하는 후속 기능을 지칭한다. 다양한 디바이스들 및/또는 그의 모듈들, 예컨대, 2진 산술 코더가 산술 코딩의 기능을 수행할 수도 있다.
1진법 (U), 트렁케이트된 1진법 (TU), k차 Exp-Golomb (EGk), 및 고정된 길이 (FL) 를 포함한, 여러 상이한 2진화 프로세스들이 HEVC 에서 사용된다. 다양한 2진화 프로세스들의 세부 사항들이 2012년 12월, IEEE Transactions on Circuits and Systems for Video Technology (TCSVT), 볼륨 22, 번호 12, 페이지 1778-1791, V. Sze 및 M. Budagavi, "High throughput CABAC entropy coding in HEVC" 에 설명되어 있다.
CABAC 에서의 각각의 컨텍스트 (즉, 확률 모델) 는 상태로 표현된다. 각각의 상태 (σ) 는 내재적으로 특정의 심볼 (예컨대, 빈) 이 최소 가능성있는 심볼 (LPS) 일 확률 (p σ ) 을 나타낸다. 심볼은 LPS 또는 최대 가능성있는 심볼 (MPS) 일 수 있다. 심볼들은 2진이며, 이에 따라서 MPS 및 LPS 는 0 또는 1 일 수 있다. 확률이 대응하는 컨텍스트에 대해 추정되어, 산술 코더를 이용하여 심볼을 엔트로피 코딩하기 위해 (내재적으로) 사용된다.
BAC 의 프로세스는 코딩할 컨텍스트 및 코딩중인 빈의 값에 의존하여 그의 내부 값들 '범위' 및 ' 로우' 를 변경하는 상태 머신에 의해 처리된다. 컨텍스트 (즉, 그의 확률) 의 상태에 의존하여, 범위는 rangeMPS σ (stateσ 에서의 최대 가능성있는 심볼의 범위) 및 rangeLPS σ (stateσ 에서의 최소 가능성있는 심볼의 범위) 로 분할된다. 이론상으로는, 확률 stateσrangeLPS σ 값은 다음 곱셈에 의해 유도된다:
rangeLPS σ = 범위 × p σ ,
여기서, p σ 는 LPS 를 선택할 확률이다. 물론, MPS 의 확률은 1-p σ 이다. 동등하게, rangeMPS σ 범위 마이너스 rangeLPS σ 와 동일하다. BAC 는 코딩할 컨텍스트 빈의 상태, 현재의 범위, 및 (즉, LPS 또는 MPS 와 동일한 빈인) 코딩중인 빈의 값에 의존하여 범위를 반복적으로 업데이트한다.
도 2a 및 도 2b 는 빈 n 에서의 이 프로세스의 예들을 나타낸다. 도 2a 의 예 (100) 에서, 빈 n 에서 빈 2 에서의 범위는 주어진 어떤 컨텍스트 상태 (σ) 가 주어지면 LPS (p σ ) 의 확률로 주어진 RangeMPS 및 RangeLPS 를 포함한다. 예 (100) 은 빈 n 의 값이 MPS 와 동일할 때 빈 n+1 에서의 범위의 업데이트를 나타낸다. 이 예에서, 로우는 동일하게 유지하지만, 빈 n+1 에서의 범위의 값은 빈 n 에서 RangeMPS 의 값까지 감소된다. 도 2b 의 예 (102) 는 빈 n 의 값이 MPS 와 동일하지 않을 때 (즉, LPS 와 동일할 때) 빈 n+1 에서의 범위의 업데이트를 나타낸다. 이 예에서, 로우는 빈 n 에서 RangeLPS 의 하부 범위 값으로 이동된다. 게다가, 빈 n+1 에서의 범위의 값은 빈 n 에서 RangeLPS 의 값까지 감소된다.
HEVC 에서, 범위는 9 비트들로, 그리고 로우는 10 비트들로 표현된다. 범위 및 로우 값들을 충분한 정밀도에서 유지하는 재정규화 프로세스가 있다. 범위가 256 미만일 때는 언제나 재정규화가 일어난다. 따라서, 재정규화 이후 범위는 256 과 항상 동일하거나 또는 그보다 더 크다. 범위 및 로우의 값들에 의존하여, BAC 는 비트스트림으로, '0' 또는 '1' 을 출력하거나, 또는 미래의 출력들용으로 유지하기 위해 (BO: bits-outstanding 로 불리는) 내부 변수를 업데이트한다. 도 3 은 범위에 따른 BAC 출력의 예들을 나타낸다. 예를 들어, '1' 은 범위 및 로우가 어떤 임계치 (예컨대, 512) 보다 높을 때 비트스트림으로 출력된다. '0' 은 범위 및 로우가 어떤 임계치 (예컨대, 512) 보다 낮을 때 비트스트림으로 출력된다. 범위 및 로우가 어떤 임계치들 사이일 때 어떤것도 비트스트림으로 출력되지 않는다. 대신, BO 값이 증분되며 다음 빈이 인코딩된다.
HEVC 의 CABAC 컨텍스트 모델에서는, 128 개의 상태들이 존재한다. 0 내지 63 일 수 있는 64 개의 가능한 LPS 확률들 (상태 σ 로 표시됨) 이 존재한다. 각각의 MPS 는 제로 또는 1 일 수 있다. 이와 같이, 128 개의 상태들은 64 개의 상태 확률들 곱하기 MPS 에 대한 2 개의 가능한 값들 (0 또는 1) 이다. 따라서, 확률 모델들은 7-비트 엔트리들로서 저장될 수도 있다. 각각의 7-비트 엔트리에서, 6 비트들이 확률 상태를 나타내는데 할당될 수도 있으며, 1 비트가 적용가능한 컨텍스트 메모리에서 최대 가능성있는 심볼 (MPS) 에 대해 할당될 수도 있다.
LPS 범위들 (rangeLPS σ ) 을 유도하는 계산을 감소시키기 위해, 모든 경우들에 대한 결과들이 사전-계산되어 HEVC 에서의 룩업 테이블에 근사치로서 저장된다. 따라서, LPS 범위가 간단한 테이블 룩업을 이용함으로써 어떤 곱셈없이 획득될 수 있다. 곱셈을 피하는 것이, 이 동작이 다수의 하드웨어 아키텍쳐들에서 상당한 레이턴시를 초래할 수도 있기 때문에, 일부 디바이스들 또는 애플리케이션들에 있어 중요할 수 있다.
4-칼럼 사전-계산된 LPS 범위 테이블이 곱셈 대신 사용될 수도 있다. 범위는 4개의 세그먼트들로 분할된다. 세그먼트 인덱스는 질문 (범위>>6)&3 에 의해 유도될 수 있다. 실제로, 세그먼트 인덱스는 실제 범위로부터 비트들을 시프트하거나 또는 제거함으로써 유도된다. 다음 테이블 1 은 가능한 범위들 및 그들의 대응하는 인덱스들을 나타낸다.
테이블 1-범위 인덱스
LPS 범위 테이블은 따라서 64 개의 엔트리들 (각각의 확률 상태에 대해 하나씩) 곱하기 4 (각각의 범위 인덱스에 대해 하나씩) 를 갖는다. 각각의 엔트리는 범위 LPS, 즉, 범위에 LPS 확률을 곱한 값이다. 이 테이블의 부분의 일 예가 다음 테이블 2 에 도시된다. 테이블 2 는 확률 상태들 9-12 를 나타낸다. HEVC 에 대한 하나의 제안에서, 확률 상태들은 0-63 의 범위일 수도 있다
테이블 2 - RangeLPS
각각의 세그먼트 (즉, 범위 값) 에서, 각각의 확률 상태 σ 의 LPS 범위가 사전-정의된다. 다시 말해서, 확률 stateσ 의 LPS 범위가 4개의 값들 (즉, 각각의 범위 인덱스에 대해 하나의 값) 로 양자화된다. 주어진 지점에서 사용되는 특정의 LPS 범위는 그 범위가 속한 세그먼트에 의존한다. 테이블에서 사용된 가능한 LPS 범위들의 개수는 테이블 칼럼들의 개수 (즉, 가능한 LPS 범위 값들의 개수) 와 LPS 범위 정밀도 사이의 상충관계이다. 일반적으로 말하면, 더 많은 칼럼들은 LPS 범위 값들의 더 작은 양자화 에러들을 초래할 뿐만 아니라, 테이블을 저장하는데 더 많은 메모리에 대한 요구를 증가시킨다. 더 적은 칼럼들은 양자화 에러들을 증가시킬 뿐만 아니라, 테이블을 저장하는데 요구되는 메모리를 감소시킨다.
위에서 설명한 바와 같이, 각각의 LPS 확률 상태는 대응하는 확률을 갖는다. HEVC 에서, 64 개의 대표 확률 값들
Figure 112017118049612-pct00003
이 회귀적 수식인 아래 수식 (1) 에 따라서 LPS (최소 가능성있는 심볼) 에 대해 유도된다.
모든 σ = 1, …, 63 그리고
Figure 112017118049612-pct00004
에 대해,
Figure 112017118049612-pct00005
(1)
상기 예에서, 선택된 스케일링 인자
Figure 112017118049612-pct00006
및 확률들의 세트의 카디널리티 (cardinality) N = 64 양자는 확률 표현의 정확도와 빠른 적응에 대한 요망 사이의 좋은 절충안을 나타낸다. 일부 예들에서, 1 에 가까운 α 의 값이 더 높은 정확도를 가진 느린 적응 ("정상-상태 거동") 을 초래할 수도 있지만, α 의 값들이 감소하는 비-고정된 경우에 대해서는 감소된 정확도를 대가로 더 빠른 적응이 달성될 있다. 스케일링 인자 α 는 현재의 업데이트에 상당한 영향을 미치는 다수의 이전에 인코딩된 빈들을 표시하는 윈도우 사이즈에 대응할 수도 있다. MPS (최대 가능성있는 심볼) 의 확률은 1 마이너스 LPS (최소 가능성있는 심볼) 의 확률과 동일하다. 다시 말해서, MPS 의 확률은 공식 (1 - LPS) 로 나타낼 수 있으며, 여기서, 'LPS' 는 LPS 의 확률을 나타낸다. 따라서, HEVC 에서의 CABAC 에 의해 표현될 수 있는 확률 범위는 [0.01875, 0.98125 (=1-0.01875)] 이다.
CABAC 는 신택스 엘리먼트에 대한 값의 비트들 (또는, "빈들") 을 코딩하는데 사용되는 컨텍스트의 확률 상태들이 신호 통계치들 (즉, 예컨대, 신택스 엘리먼트에 대한, 이전에 코딩된 빈들의 값들) 을 따르도록 하기 위해 업데이트되기 때문에, 적응적이다. 업데이트 프로세스는 다음과 같다. 주어진 확률 상태에 대해, 업데이트는 상태 인덱스 및 LPS 또는 MPS 로서 식별되는 인코딩된 심볼의 값에 의존한다. 업데이팅 프로세스의 결과로서, 잠재적으로 수정된 LPS 확률 추정, 그리고, 필요한 경우, 수정된 MPS 값을 포함하는, 새로운 확률 상태가 유도된다.
각각의 빈의 코딩 이후에 컨텍스트 스위칭이 일어날 수도 있다. MPS 와 동일한 빈 값의 경우에, 주어진 상태 인덱스가 간단히 1 만큼 증분된다. 이것은 MPS 가 상태 인덱스 62 에서 발생하는 경우를 제외한 모든 상태들에 대한 것이며, 여기서, LPS 확률은 이미 그 최소치에 있다 (또는, 동등하게, 최대 MPS 확률에 도달된다). 이 경우, 상태 인덱스는 LPS 가 보여질 때까지 고정되어 유지되거나, 또는 최종 빈 값이 인코딩된다 (최종 빈 값의 특수한 경우에 대해 특수한 마지막 상태가 사용된다). LPS 가 발생할 때, 상태 인덱스는 아래 수식에서 나타낸 바와 같이, 어떤 양 만큼 상태 인덱스를 감분시킴으로써 변경된다. 이 규칙은 다음 예외와 함께, LPS 의 각각의 발생에 일반적으로 적용된다. LPS 가 같은 정도의 가능성 있는 (equi-probable) 경우에 대응하는, 인덱스 σ=0 을 갖는 상태에서 인코딩되었다고 가정하면, 상태 인덱스는 고정된 채로 유지되지만, MPS 값은 LPS 와 MPS 의 값이 상호교환되도록 토글될 것이다. 모든 다른 경우들에서, 어떤 심볼이 인코딩되더라도, MPS 값은 변경되지 않을 것이다. 일반적으로, 비디오 코더는 주어진 LPS 확률
Figure 112017118049612-pct00007
와 그의 업데이트된 대응물
Figure 112017118049612-pct00008
사이의 관계를 나타내는, 아래 수식 (2) 에 따라서, 새로운 확률 상태를 유도할 수도 있다.
(2)
복잡성을 감소시키기 위해, 비디오 코더는 모든 전이 규칙들이 다수의 엔트리들을 각각 가지는 많아 봐야 2개의 테이블들에 의해 실현될 수 있도록 CABAC 를 구현할 수도 있다. 일 예로서, 모든 전이 규칙들은 7-비트 무부호 정수 값들의 128 개의 엔트리들을 각각 가지는 많아 봐야 2개의 테이블들 (예컨대, 아래, 테이블들 3 및 4) 에 의해 실현될 수도 있다. 다른 예로서, 모든 전이 규칙들은 6-비트 무부호 정수 값들의 63 개의 엔트리들을 각각 가지는 많아 봐야 2개의 테이블들 (예컨대, HEVC 의 테이블 9-41) 에 의해 실현될 수도 있다. 상태 인덱스 i 가 주어지면, 업데이트 이후, 비디오 코더는 MPS 값들이 코딩될 때 새로운 상태 인덱스 TransIdxMPS[ i ], 또는 LPS 값들이 코딩될 때 TransIdxLPS[i] 로서 정의할 수도 있다.
테이블 3
Figure 112017118049612-pct00010
테이블 4
Figure 112017118049612-pct00011
일부 예들에서, 비디오 코더는 LPS 가 관찰된 경우에, 주어진 상태 인덱스 σ 에 대해, 새로운 업데이트된 상태 인덱스 TransIdxLPS [σ] 를 결정하는, 단일 테이블 TransIdxLPS 로 상태 전이들을 결정할 수도 있다. MPS-기반 (driven) 전이들이 1 의 고정된 값 만큼의 상태 인덱스의 간단한 (포화된) 증분에 의해 획득되어, 업데이트된 상태 인덱스 min(σ+1, 62) 가 초래될 수 있다.
위에서 설명한 바와 같이, 컨텍스트 모델링은 더 높은 코딩 효율을 달성하는데 있어 기여 인자인 정확한 확률 추정을 제공한다. 따라서, 컨텍스트 모델링은 적응적 프로세스이다. 상이한 컨텍스트들이 상이한 빈들에 대해 사용될 수 있으며, 컨텍스트들의 확률은 이전에-코딩된 빈들의 값들에 기초하여 업데이트될 수도 있다. 유사한 분포들을 갖는 빈들은 종종 동일한 컨텍스트를 공유한다. 각각의 빈에 대한 컨텍스트는 신택스 엘리먼트의 유형, 신택스 엘리먼트 (binIdx) 에서의 빈 위치, 루마/크로마 정보, 이웃하는 정보, 등에 기초하여 선택될 수 있다.
주어진 슬라이스를 코딩하기 전에, 확률 모델들은 하나 이상의 사전-정의된 값들에 기초하여 초기화된다. 예를 들어, qp 로 표시되는 입력 양자화 파라미터 및 initVal 로 표시되는 사전-정의된 값이 주어지면, (상태 및 MPS 로 표시된) 확률 모델의 7-비트 엔트리가 아래 수식들 (3) 에 따라서 유도될 수 있다.
(3)
유도된 상태 인덱스는 MPS 정보를 내재적으로 포함한다. 좀더 구체적으로, 상태 인덱스가 짝수 값일 때, MPS 값은 0 과 동일하다. 반대로, 상태 인덱스가 홀수 값일 때, MPS 값은 1 과 동일하다. "initVal" 의 값은 8-비트 정밀도로 [0, 255] 의 범위이다. 사전-정의된 값 "initVal" 은 슬라이스-의존적이다. 다시 말해서, 확률 모델들에 대한 컨텍스트 초기화 파라미터들의 3개의 세트들이, I, P, 및 B 슬라이스들에서 각각 한세트씩 사용된다. 이러한 방법으로, CABAC 를 수행하도록 구성된 비디오 인코딩 디바이스는 상이한 코딩 시나리오들 및/또는 상이한 유형들의 비디오 콘텐츠에 대한 더 나은 적합 (fit) 이 달성될 수 있도록, 3개의 초기화 테이블들 사이에 이들 슬라이스 유형들을 선택할 수 있다.
HEVC 에 따르면, 하나의 P (또는, B) 슬라이스를 B (또는, P) 슬라이스들로 초기화시키기 위해 다른 툴이 적용될 수 있다. 반대로, 하나의 B 슬라이스를 P 슬라이스들로 초기화시키기 위해 그 툴이 적용될 수 있다. 관련된 신택스 엘리먼트들이 아래 (HEVC 의 섹션 7.3.6.1 에 대응하는) 테이블 5 에 설명되며, 관련된 의미들 및 디코딩 프로세스가 아래에 테이블 5 이후에 설명된다.
테이블 5
Figure 112017118049612-pct00014
Figure 112017118049612-pct00015
테이블 5 의 신택스 엘리먼트들에 대한 의미들은 다음과 같이 정의될 수도 있다:
1 과 동일한 cabac_init_present_flag 는 cabac_init_flag 가 PPS 를 참조하는 슬라이스 헤더들에 존재한다는 것을 규정한다. 0 과 동일한 cabac_init_present_flag 는 cabac_init_flag 가 PPS 를 참조하는 슬라이스 헤더들에 존재하지 않는다는 것을 규정한다.
cabac_init_flag 는 아래에서 설명되는 디코딩 프로세스에서 정의된 바와 같이, 컨텍스트 변수들에 대해 초기화 프로세스에서 사용되는 초기화 테이블을 결정하는 방법을 규정한다. cabac_init_flag 가 존재하지 않을 때, 그것은 0 과 동일한 것으로 추론된다.
디스크립터들:
ae(v): 컨텍스트-적응 산술적 엔트로피-코딩된 신택스 엘리먼트.
b(8): 임의의 패턴의 비트 스트링 (8 비트들) 을 가지는 바이트.
f(n): 좌측 비트 우선으로 (좌측으로부터 우측으로) 기록된 n 비트들을 이용한 고정-패턴 비트 스트링.
se(v): 좌측 비트 우선으로 부호 정수 0차 Exp-Golomb-코딩된 신택스 엘리먼트.
u(n): n 비트들을 이용한 무부호 정수. n 이 신택스 테이블에서 "v" 일 때, 비트수는 다른 신택스 엘리먼트들의 값에 의존하는 방법으로 변한다.
ue(v): 좌측 비트 우선으로 무부호 정수 0 차 Exp-Golomb-코딩된 신택스 엘리먼트.
HEVC 의 테이블 9-4 는 3개의 초기화 유형들의 각각에 대해 초기화가 요구되는 컨텍스트 인덱스 (ctxIdx) 를 제공한다. 테이블 9-4 는 초기화에 요구되는 initValue 의 값들을 포함하는 테이블 번호 (ctxTable) 를 더 포함한다. P 및 B 슬라이스 유형들에 대해, initType 의 유도는 cabac_init_flag 신택스 엘리먼트의 값에 의존한다. 비디오 코더는 다음 의사 코드에 의해 설명되는 동작들을 이용함으로써 변수 initType 을 유도할 수도 있다:
Figure 112017118049612-pct00016
새로운 산술 코더는 ITU-T SG 16 WP 3 및 ISO/IEC JTC 1/SC 29/WG 11 의 JCT-VC, 6차 회의: 2011년 7월 14-22일, 이탈리아, 토리노, 문헌: JCTVC-F254, Alshin 등, "Multi-parameter probability up-date for CABAC" (이하 "JCTVC- F254") 및 ITU-T SG 16 WP 3 및 ISO/IEC JTC 1/SC 29/WG 11 의 JCT-VC, 7차 회의: 2011년 11월 21-30일, 스위스, 제네바, 문헌: JCTVC-G764, Alshin 등, "CE1 (subset B): Multi-parameter probability up-date for CABAC" (이하 "JCTVC- G764") 에 설명되어 있다. JCTVC-F254 및 JCTV-G764 에서는, 모든 확률은 1 로부터 32767 까지의 정수로서 표현되었다. 따라서 모든 계산들이 16 비트들 정밀도로 수행된다. 룩업 테이블들 (예컨대, 위에서 설명된 바와 같은 TransIdxMPS 및 TransIdxLPS) 및 AVC CABAC 에서 이용되는 확률에 대한 지수함수 메시 대신, JCTVC-F254 및 JCTV-G764 에서 제안된 코더는 확률 업데이트를 위해 곱셈 없는 공식에 의한 명시적인 계산 및 균일한 메시를 이용한다.
확률 pi 가 (예컨대, 아래 수식 (4) 로 나타낸 바와 같이) 0 로부터 2k (여기서, 예를 들어, k 는 15 와 동일함) 까지의 정수 Pi 인 확률 인덱스로 표현된다고 가정한다.
Figure 112017118049612-pct00017
(4)
(예컨대, 아래 수식 (5) 에 의해 나타낸 바와 같이) 현대의 산술 코덱들에서의 확률 업데이트를 위해 가장 빈번하게 사용되는 다음 수식을 따른다.
Figure 112017118049612-pct00018
(5)
수식 (5) 에서, y 는 현재의 심볼이 최대 가능성있는 심볼 (MPS) 과 매칭하면 "제로" 와 동일하며, 그렇지 않으면, y 는 "1" 과 동일하다. 이 공식 (즉, 수식 (5)) 은 최소 가능성있는 심볼 (LPS) 의 확률에 대한 추정 값을 제공한다. 상기 설명과 유사하게, 파라미터 α 는 현재의 업데이트에 상당한 영향을 미치는 다수의 이전에 인코딩된 빈들을 표시하는 윈도우 사이즈에 대응할 수도 있다.
윈도우 사이즈 (W) 가 2 의 거듭제곱이라고 (W=1/2M, M 은 양의 정수임) 가정하고 그리고 수식 (4) 에서의 Pi 를 입력 pold 로서 주어지면, 업데이트된 확률 인덱스는 아래에서 수식 (6) 에서 나타낸 것으로 다시 쓰여질 수 있다.
Figure 112017118049612-pct00019
(6)
JCTVC-F254 및 JCTV-G764 에 의해 제안된 하나의-확률 업데이트 모델에서, M 은 모든 컨텍스트들에 대해 고정되며 오직 하나의 레지스터가 업데이트된 확률들을 기록하기 위해 사용된다. 일 예에서, M 은 6 과 동일하게 설정된다. 즉, 윈도우 사이즈는 64 와 동일하다. 확률 업데이트 프로세스는 아래 수식 (7) 로 표현될 수 있다.
Figure 112017118049612-pct00020
(7)
JCTVC-F254 및 JCTV-G764 에 의해 제안된 기법의 메인 아이디어는 상이한 윈도우 사이즈들에 의한 (오직 하나 대신) 여러 확률 추정들을 이용하고 그들을 다음 빈 확률 예측을 위한 가중 평균으로서 결합하는 것이다. 아래 수식들 (8) 및 (9) 는 JCTVC-F254 및 JCTV-G764 에 의해 제안된 기법의 일 예를 예시한다. 각각의 확률들 pi 에 대한 수식 (8) 에서의 계산들은 독립적이다.
Figure 112017118049612-pct00021
(8)
Figure 112017118049612-pct00022
(9)
각각의 확률들 pi 에 대한 수식 (8) 에서의 계산들은 독립적이다.
JCTVC-F254 및 JCTV-G764 에 의해 제안된 방법에서, 확률 추정을 위한 선형 조합은 수식들 (10) 및 (11) 에 나타낸 바와 같이 W0=16 및 W1=256 (Wi =1/αi) 에 대응하는 2개의 피가수들로 이루어진다. 수식들 (10) 및 (11) 에서, 최종 코딩 빈이 "1" 이면 Y = 215 이고, 최종 코딩 빈이 "0" 이면 Y=0 이며, ">>M" 은 M 비트들에 대한 우측 산술 시프트이다.
Figure 112017118049612-pct00023
(10)
Figure 112017118049612-pct00024
(11)
Figure 112017118049612-pct00025
(12)
짧은 전이 기간에 대해, 단지 빠른 업데이팅 속도에 의한 단거리 예측 (즉, 더 작은 윈도우 사이즈) 이 바람직하다. 그러나, 최적 값 근처에서의 안정화 이후, 2개의-확률 업데이트 모델이 대부분의 컨텍스트들에 대해 더 정확하다. JCTVC-F254 및 JCTV-G764 는 최종 초기화 이후 업데이트들의 카운터를 도입할 것을 제안한다. 매 업데이트 이후 카운터는 1 만큼 증가된다. 카운터가 일부 임계치를 초과할 때까지, 단지 수식 (10) 로 정의된 바와 같은 짧은 "윈도우 사이즈" 모델만이 사용될 것이다. 카운터가 임계치에 도달할 때, 우리는 상기 수식 (12) 에 의해 정의된 바와 같이 더 정확한 2개의-확률 업데이트 모델로 스위칭해야 한다. JCTVC-F254 및 JCTV-G764 에 의해 제안된 범위 계산 프로세스가 512x64 룩업 테이블로 수행된다.
JCTVC-F254 및 JCTV-G764 에 의해 제안된 방법에 따르면, 상이한 컨텍스트 초기화 방법이 적용된다. 구체적으로 설명하면, (asCtxInit[ 0 ] 및 asCtxInit[ 1 ] 로 각각 표시된) 2개의-파라미터들이 수식들 (13) 에 나타낸 바와 같이 각각의 컨텍스트에 대해 사전-정의되고 초기 확률 상태 iPo 가 도출된다.
Figure 112017118049612-pct00026
(13)
하나의-확률 업데이트 모델에 대해, 컨텍스트는 15-비트 정밀도로 iP0 로 표현된다. 2개의-확률들 업데이트 모델에 대해, 다른 변수 iP1 이 iP0 과 동일하게 먼저 설명되며, 얼마나 많은 빈들이 코딩되었는지의 카운터가 더 요구된다. JCTVC-F254 및 JCTV-G764 에 의해 제안된 방법에서는, asCtxInit[ 0 ] 및 asCtxInit[ 1 ] 양자가 16-비트로 저장된다.
그러나, 일부 예들에서, 위에서 설명한 기법들 (즉, HEVC 의 CABAC 기법들 및 JCTVC-F254 및 JCTV-G764 에 의해 제안된 수정안) 은 코딩 효율을 감소시키거나 및/또는 코더 시스템 리소스들을 준최적으로 이용할 수도 있는 하나 이상의 문제들을 가질 수도 있다.
일 예로서, (예컨대, HEVC 또는 H.264/AVC 에서 사용된 바와 같은) 위에서 설명한 룩업 테이블 기반의 산술 코더 기법에서, 확률 업데이트는 고정된 윈도우 사이즈을 가진 고정된 테이블들 (즉, TransIdxLPS 및 TransIdxMPS) 에 기초한다. 이 고정된 윈도우 사이즈의 사용은 업데이팅 속도가 고정되도록 초래한다. 그러나, 신택스 엘리먼트들이 발생하고 코딩될 필요가 있는 빈도들은 주어진 CTU 또는 슬라이스에 대해 상당히 상이할 수도 있다. 주어진 CTU 또는 슬라이스에 대해 상이한 빈도들에서 발생하는 신택스 엘리먼트들과 결합된 고정된 업데이팅 속도의 제한은 덜 빈번하게 발생하는 신택스 엘리먼트들이 준최적일 추정된 확률들을 초래할 수도 있다. 예를 들어, 하나의 CU 에 대해, inter_pred_idc 의 최대 2 개의 값들이 시그널링될 수도 있지만, 하나의 CU 내 변환 계수들은 여러 번 코딩될 수도 있다. 이 경우, 이들 신택스 엘리먼트들에 대해 동일한 업데이팅 속도를 이용할 때, 1 과 동일한 inter_pred_idc 의 추정된 확률은, 변환 계수들의 확률이 상대적으로 최적이 될 수도 있지만, 하나의 전체 슬라이스를 코딩한 후 여전히 준최적일 수도 있다.
다른 예로서, (예컨대, JCTVC-F254 및 JCTV-G764 에 의해 제안된 바와 같은) 카운터 기법에 기초한 위에서 설명한 산술 코더에서, 확률 업데이팅 속도는 고정되지만, 높은 정밀도 (예컨대, 가능한 확률 인덱스는 [1, 215 -1] 일 수도 있음) 는 덜 빈번하게 선택된 신택스 엘리먼트들에 대해서는, 낮은 효율을 초래하며, 이는 바람직하지 않을 수도 있다.
다른 예로서, 카운터 기법에 기초한 산술 코더의 2개의-확률들 업데이트 모델 컴포넌트에서, 2개의 상태 파라미터들 (확률 인덱스들) 이 저장되고 업데이트되어야 하며, 이는 CABAC 프로세스의 처리량을 바람직하지 않게 제한할 수도 있다.
또한, 다른 예로서, 이미지/비디오 코딩 시스템들에서, 수백의 컨텍스트들이 사용될 수도 있다. JCTVC-F254 및 JCTV-G764 에 의해 제안된 기법에서, 컨텍스트 당 32 비트들이 요구되지만 HEVC 에서의 산술 코더에 대해서는 단지 8 비트들로도 충분하다. 따라서, JCTVC-F254 및 JCTV-G764 에 의해 제안된 기법에서 컨텍스트 초기화를 위한 사전-정의된 값들의 스토리지가 300% 만큼 증가되며, 이는 스토리지의 관점에서 하드웨어 구현에 바람직하지 않을 수도 있다.
이 개시물의 하나 이상의 기법들에 따르면, 비디오 코더 (예컨대, 비디오 인코더 (20) 및/또는 비디오 디코더 (30)) 는, 제 1 비트 정밀도로 저장된 사전-정의된 초기화 값으로부터 결정된 초기 확률 상태로부터, 제 2 의, 더 큰 비트 정밀도를 갖는 초기 확률 상태로 변환하기 위해 룩-업 테이블을 사용할 수도 있다. 실례로, 양자 모두 16-비트 정밀도로 저장된 2 개의 사전-정의된 초기화 값들 (예컨대, JCTVC-F254 및 JCTV-G764 에서 기술된 바와 같은 asCtxInit[ 0 ] 및 asCtxInit[ 1 ]) 에 기초하여 컨텍스트에 대한 초기 확률 상태를 결정하는 것에 반해, 비디오 코더는 8-비트 정밀도로 저장된 단일의 사전-정의된 초기화 값 (예컨대, HEVC 에서 사용된 바와 같은 initVal) 에 기초하여 컨텍스트에 대한 중간의 초기 확률 상태를 결정하고, 그 중간의 초기 확률 상태를 15-비트 정밀도를 갖는 초기 확률 상태 (예컨대, JCTVC-F254 및 JCTV-G764 에서 기술된 바와 같은 iP0 또는 iP1) 에 대해 맵핑하기 위해 룩-업 테이블을 사용할 수도 있다. 일부 예들에서, 룩-업 테이블은 컨텍스트에 대한 가능한 초기 확률 상태들의 수보다 더 적은 엔트리들을 포함할 수도 있다. 실례로, 룩-업 테이블은 128 개의 엔트리들을 포함할 수도 있고, 여기서, 32767 개의 가능한 초기 확률 상태들이 존재한다. 이러한 식으로, 비디오 코더는 (HEVC 에 비해) 사전-정의된 초기화 값들에 대한 저장 요건들을 증가시키는 일 없이, (HEVC 에 비해) 비교적 큰 수의 확률 상태들을 갖는 컨텍스트를 초기화할 수도 있다.
본 개시물에서 설명하는 기법들은 예를 들어, 비디오 인코더, 비디오 디코더, 또는 결합된 비디오 인코더-디코더 (코덱) 내에서 수행될 수도 있다. 특히, 이러한 기법들은 비디오 인코더의 엔트로피 인코딩 유닛 및/또는 비디오 디코더의 엔트로피 디코딩 유닛에서 수행될 수도 있다. 이 기법들은 예를 들어, HEVC 표준의 양태들에 따른 비디오 코딩과 같은, 비디오 코딩을 지원하도록 구성될 수도 있는 CABAC 프로세스 내에서, 수행될 수도 있다. 엔트로피 인코딩 및 디코딩 유닛들은 예컨대, 잔차 비디오 데이터와 연관된 양자화된 변환 계수들, 모션 벡터 정보, 신택스 엘리먼트들, 및 비디오 인코딩 및/또는 비디오 디코딩 프로세스에서 유용할 수도 있는 다른 유형들의 정보와 같은, 다양한 비디오 데이터 중 임의의 것을 인코딩하거나 또는 디코딩하기 위해, 코딩 프로세스들을 반대로 또는 역으로 적용할 수도 있다.
도 4 는 본 개시물에서 설명되는 바와 같이 BAC 코딩을 위한 기법들을 이용하도록 구성될 수도 있는 비디오 인코더 (20) 의 일 예를 예시하는 블록도이다. 비디오 인코더 (20) 는 예시의 목적을 위해, HEVC 코딩의 상황에서, 그러나, 다른 코딩 표준들 또는 방법들에 대한 본 개시물의 한정 없이, 설명될 것이다. 더욱이, 비디오 인코더 (20) 는 HEVC 의 범위 확장판들에 따라서 기법들을 구현하도록 구성될 수도 있다.
비디오 인코더 (20) 는 비디오 슬라이스들 내 비디오 블록들의 인트라-코딩 및 인터-코딩을 수행할 수도 있다. 인트라 코딩은 주어진 비디오 픽처 내 비디오에서 공간 리던던시를 감소시키거나 제거하기 위해 공간 예측에 의존한다. 인터-코딩은 인접한 비디오 시퀀스의 픽처들 내 비디오에서의 시간 리던던시를 감소시키거나 또는 또는 다른 뷰들에서의 비디오에 의한 리던던시를 감소시키거나 또는 제거하기 위해 시간 예측 또는 인터-뷰 예측에 의존한다.
도 4 의 예에서, 비디오 인코더 (20) 는 비디오 데이터 메모리 (40), 예측 프로세싱 유닛 (42), 참조 픽처 메모리 (64), 합산기 (50), 변환 프로세싱 유닛 (52), 양자화 프로세싱 유닛 (54), 및 엔트로피 인코딩 유닛 (56) 을 포함한다. 예측 프로세싱 유닛 (42) 은, 결과적으로, 모션 추정 유닛 (44), 모션 보상 유닛 (46), 및 인트라-예측 프로세싱 유닛 (48) 을 포함한다. 비디오 블록 복원을 위해, 비디오 인코더 (20) 는 또한 역양자화 프로세싱 유닛 (58), 역변환 프로세싱 유닛 (60), 및 합산기 (62) 를 포함한다. 디블록킹 필터 (도 4 에 미도시) 가 또한 블록 경계들을 필터링하여 복원된 비디오로부터 블록킹 현상 아티팩트들을 제거하기 위해 포함될 수도 있다. 원할 경우, 디블록킹 필터는 일반적으로 합산기 (62) 의 출력을 필터링할 것이다. 추가적인 루프 필터들 (인 루프 또는 사후 루프) 이 또한 디블록킹 필터에 추가하여 사용될 수도 있다.
비디오 데이터 메모리 (40) 는 비디오 인코더 (20) 의 컴포넌트들에 의해 인코딩될 비디오 데이터를 저장할 수도 있다. 비디오 데이터 메모리 (40) 에 저장된 비디오 데이터는 예를 들어, 비디오 소스 (18) 로부터 획득될 수도 있다. 참조 픽처 메모리 (64) 는 비디오 데이터를 비디오 인코더 (20) 에 의해 (예컨대, 인트라- 또는 인터-예측 코딩 모드들로서 또한 지칭되는, 인트라- 또는 인터-코딩 모드들에서) 인코딩할 때에 사용을 위한 참조 비디오 데이터를 저장하는 디코딩된 픽처 버퍼 (DPB) 의 일 예이다. 비디오 데이터 메모리 (40) 및 참조 픽처 메모리 (64) 는 동기 DRAM (SDRAM) 을 포함한 동적 랜덤 액세스 메모리 (DRAM), 자기저항 RAM (MRAM), 저항 RAM (RRAM), 또는 다른 유형들의 메모리 디바이스들과 같은, 다양한 메모리 디바이스들 중 임의의 메모리 디바이스에 의해 형성될 수도 있다. 비디오 데이터 메모리 (40) 및 참조 픽처 메모리 (64) 는 동일한 메모리 디바이스 또는 별개의 메모리 디바이스들에 의해 제공될 수도 있다. 여러 예들에서, 비디오 데이터 메모리 (40) 는 비디오 인코더 (20) 의 다른 컴포넌트들과의 온칩, 또는 그들 컴포넌트들에 대한 오프-칩일 수도 있다.
인코딩 프로세스 동안, 비디오 인코더 (20) 는 코딩되는 비디오 픽처 또는 슬라이스를 수신한다. 픽처 또는 슬라이스는 다수의 비디오 블록들로 분할될 수도 있다. 모션 추정 유닛 (44) 및 모션 보상 유닛 (46) 은 시간 압축을 제공하거나 또는 인터-뷰 압축을 제공하기 위해 하나 이상의 참조 픽처들에서의 하나 이상의 블록들에 대해, 수신된 비디오 블록의 인터-예측 코딩을 수행한다. 인트라-예측 유닛 (48) 은 대안적으로, 공간 압축을 제공하기 위해, 코딩되는 블록과 동일한 픽처 또는 슬라이스에서의 하나 이상의 이웃하는 블록들에 대한 수신된 비디오 블록의 인트라-예측 코딩을 수행할 수도 있다. 비디오 인코더 (20) 는 (예컨대, 비디오 데이터의 각각의 블록에 대해 적합한 코딩 모드를 선택하기 위해) 다수의 코딩 패스들 (passes) 을 수행할 수도 있다.
더욱이, 파티션 유닛 (미도시) 은 이전 코딩 패스들에서의 이전 파티셔닝 방식들의 평가에 기초하여, 비디오 데이터의 블록들을 서브-블록들로 파티셔닝할 수도 있다. 예를 들어, 파티션 유닛은 레이트-왜곡 분석 (예컨대, 레이트-왜곡 최적화) 에 기초하여, 처음에 픽처 또는 슬라이스를 LCU들로 파티셔닝하고, LCU들의 각각을 서브-CU들로 파티셔닝할 수도 있다. 예측 프로세싱 유닛 (42) 은 서브-CU들로의 LCU 의 파티셔닝을 나타내는 쿼드트리 데이터 구조를 추가로 발생할 수도 있다. 쿼드트리의 리프-노드 CU들은 하나 이상의 PU들 및 하나 이상의 TU들을 포함할 수도 있다.
예측 프로세싱 유닛 (42) 은 에러 결과들에 기초하여 코딩 모드들, 즉 인트라 또는 인터 중 하나를 선택할 수도 있으며, 최종 인트라- 또는 인터-코딩된 블록을 합산기 (50) 에 제공하여 잔차 블록 데이터를 발생하고, 그리고 합산기 (62) 에 제공하여 참조 픽처로서 사용을 위해 그 인코딩된 블록을 복원한다. 예측 프로세싱 유닛 (42) 은 또한 모션 벡터들, 인트라-모드 표시자들, 파티션 정보, 및 다른 이러한 신택스 정보와 같은, 신택스 엘리먼트들을 엔트로피 인코딩 유닛 (56) 에 제공한다.
모션 추정 유닛 (44) 및 모션 보상 유닛 (46) 은 고도로 통합될 수도 있지만, 개념적인 목적들을 위해 별개로 예시된다. 모션 추정 유닛 (44) 에 의해 수행되는 모션 추정은 모션 벡터들을 발생하는 프로세스이며, 이 프로세스는 비디오 블록들에 대한 모션을 추정한다. 모션 벡터는, 예를 들어, 현재의 픽처 (또는, 다른 코딩된 유닛) 내 코딩중인 현재의 블록에 대한 참조 픽처 (또는, 다른 코딩된 유닛) 내 예측 블록에 상대적인, 현재의 비디오 픽처 내 비디오 블록의 PU 의 변위를 나타낼 수도 있다. 예측 블록은 픽셀 차이의 관점에서 코딩될 블록에 가깝게 매칭하는 것으로 발견되는 블록이며, SAD (sum of absolute difference), SSD (sum of square difference), 또는 다른 차이 메트릭들에 의해 결정될 수도 있다. 일부 예들에서, 비디오 인코더 (20) 는 참조 픽처 메모리 (64) 에 저장된 참조 픽처들의 서브-정수 픽셀 위치들에 대한 값들을 계산할 수도 있다. 예를 들어, 비디오 인코더 (20) 는 참조 픽처의 1/4 픽셀 위치들, 1/8 픽셀 위치들, 또는 다른 분수 픽셀 위치들의 값들을 내삽할 수도 있다. 따라서, 모션 추정 유닛 (44) 은 풀 픽셀 위치들 및 분수 픽셀 위치들에 대해, 모션 탐색을 수행하고, 분수 픽셀 정밀도를 가진 모션 벡터를 출력할 수도 있다.
모션 추정 유닛 (44) 은 PU 의 위치를 참조 픽처의 예측 블록의 위치와 비교함으로써 인터-코딩된 슬라이스에서의 비디오 블록의 PU 에 대한 모션 벡터를 계산한다. 참조 픽처는 하나 이상의 참조 픽처 메모리 (64) 에 저장된 참조 픽처들을 식별하는 하나 이상의 참조 픽처 리스트들 (RPLs) 로부터 선택될 수도 있다. 모션 추정 유닛 (44) 은 그 계산된 모션 벡터를 엔트로피 인코딩 유닛 (56) 및 모션 보상 유닛 (46) 으로 전송한다. 일부 예들에서, 모션 추정 유닛 (44) 은 선택된 참조 픽처의 표시를 엔트로피 인코딩 유닛 (56) 으로 전송할 수도 있다.
모션 보상 유닛 (46) 에 의해 수행되는 모션 보상은 모션 추정 유닛 (44) 에 의해 결정된 모션 벡터에 기초하여 예측 블록을 페치하거나 또는 발생하는 것을 수반할 수도 있다. 또, 모션 추정 유닛 (44) 및 모션 보상 유닛 (46) 은 일부 예들에서, 기능적으로 통합될 수도 있다. 현재의 블록의 PU 에 대한 모션 벡터를 수신하자 마자, 모션 보상 유닛 (46) 은 모션 벡터가 참조 픽처 리스트들 (RPLs) 중 하나에서 가리키는 예측 블록을 로케이트할 수도 있다. 합산기 (50) 는 이하에서 설명하는 바와 같이, 코딩중인 현재의 블록의 픽셀 값들로부터 예측 블록의 픽셀 값들을 감산하여 픽셀 차이 값들을 형성함으로써, 잔차 비디오 블록을 형성한다. 일반적으로, 모션 추정 유닛 (44) 은 루마 성분들에 대해 모션 추정을 수행하고, 모션 보상 유닛 (46) 은 크로마 성분들 및 루마 성분들 양쪽에 대해 루마 성분들에 기초하여 계산된 모션 벡터들을 이용한다. 예측 프로세싱 유닛 (42) 은 또한 비디오 슬라이스의 비디오 블록들을 디코딩할 때에 비디오 디코더 (30) 에 의한 사용을 위해 비디오 블록들 및 비디오 슬라이스와 연관되는 신택스 엘리먼트들을 발생할 수도 있다.
인트라-예측 유닛 (48) 은 위에서 설명한 바와 같이, 모션 추정 유닛 (44) 및 모션 보상 유닛 (46) 에 의해 수행되는 인터-예측에 대한 대안으로서, 현재의 블록을 인트라-예측할 수도 있다. 특히, 인트라-예측 유닛 (48) 은 현재의 블록을 인코딩하는데 사용할 인트라-예측 모드를 결정할 수도 있다. 일부 예들에서, 인트라-예측 유닛 (48) 은 예컨대, 별개의 인코딩 과정들 동안 여러 인트라-예측 모드들을 이용하여 블록들을 인코딩할 수도 있으며, 인트라-예측 유닛 (48) 은 복수의 인트라-예측 모드들 중에서 사용할 적합한 인트라-예측 모드를 선택할 수도 있다.
예를 들어, 인트라-예측 유닛 (48) 은 여러 테스트된 인트라-예측 모드들에 대한 레이트-왜곡 분석을 이용하여 레이트-왜곡 값들을 계산하고, 그 테스트된 모드들 중에서 최상의 레이트-왜곡 특성들을 갖는 인트라-예측 모드를 선택할 수도 있다. 레이트-왜곡 분석은 일반적으로 인코딩된 블록과 그 인코딩된 블록을 발생하기 위해 인코딩되었던 원래의 미인코딩된 블록 사이의 왜곡의 양 (또는, 에러) 뿐만 아니라, 그 인코딩된 블록을 발생하는데 사용된 비트레이트 (즉, 비트들의 수) 를 결정한다. 인트라-예측 유닛 (48) 은 여러 인코딩된 블록들에 대한 왜곡들 및 레이트들로부터 비율들 (ratios) 을 계산하여, 어느 인트라-예측 모드가 그 블록에 대해 최상의 레이트-왜곡 값을 나타내는 지를 결정할 수도 있다. 일부 예들에서, 복수의 인트라-예측 모드들의 각각은 대응하는 모드 인덱스를 가질 수도 있으며, 이는 인트라-예측 유닛 (48) 에 의해 (즉, 비디오 디코더로) 시그널링될 수도 있다.
비디오 인코더 (20) 는 코딩중인 원래 비디오 블록으로부터, 예측 프로세싱 유닛 (42) 으로부터의 예측 데이터를 감산함으로써 잔차 비디오 블록을 형성한다. 합산기 (50) 는 이 감산 연산을 수행하는 컴포넌트 또는 컴포넌트들을 나타낸다.
변환 프로세싱 유닛 (52) 은 이산 코사인 변환 (DCT) 또는 개념적으로 유사한 변환과 같은 변환을 잔차 블록에 적용하여, 잔차 변환 계수 값들을 포함하는 비디오 블록을 생성한다. 변환 프로세싱 유닛 (52) 은 DCT 와 개념적으로 유사한 다른 변환들을 수행할 수도 있다. 웨이블릿 변환들, 정수 변환들, 서브밴드 변환들 또는 다른 유형들의 변환들이 또한 이용될 수 있다. 어쨌든, 변환 프로세싱 유닛 (52) 은 그 변환을 잔차 블록에 적용하여, 잔차 변환 계수들의 블록을 생성한다. 변환은 잔차 정보를 픽셀 값 도메인으로부터 주파수 도메인과 같은 변환 도메인으로 변환할 수도 있다.
변환 프로세싱 유닛 (52) 은 최종 변환 계수들을 양자화 프로세싱 유닛 (54) 로 전송할 수도 있다. 양자화 프로세싱 유닛 (54) 은 비트 레이트를 추가로 감소시키기 위해 변환 계수들을 양자화한다. 양자화 프로세스는 그 계수들의 일부 또는 모두와 연관되는 비트 심도를 감소시킬 수도 있다. 양자화의 정도는 양자화 파라미터를 조정함으로써 변경될 수도 있다. 일부 예들에서, 양자화 프로세싱 유닛 (54) 은 그후 양자화된 변환 계수들을 포함하는 매트릭스의 스캐닝을 수행할 수도 있다. 대안적으로, 엔트로피 인코딩 유닛 (56) 이 그 스캐닝을 수행할 수도 있다.
일단 변환 계수들이 1차원 어레이로 스캐닝되면, 엔트로피 인코딩 유닛 (56) 은 컨텍스트-적응 가변 길이 코딩 (CAVLC), 컨텍스트-적응 2진 산술 코딩 (CABAC), 확률 간격 파티셔닝 엔트로피 코딩 (PIPE), Golomb 코딩, Golomb-rice 코딩, 지수 Golomb 코딩, 신택스-기반 컨텍스트-적응 2진 산술 코딩 (SBAC), 또는 다른 엔트로피 코딩 방법론과 같은, 엔트로피 코딩을 계수들에 적용할 수도 있다. 다양한 상이한 엔트로피 코딩 프로세스들을 참조하지만, 본 개시물의 예들에 따른, 엔트로피 인코딩 유닛 (56) 은 위에서 설명한 바와 같이 BAC 코딩을 수행하도록 구성될 수도 있다.
CAVLC 를 수행하기 위해, 엔트로피 인코딩 유닛 (56) 은 송신될 심볼에 대해 가변 길이 코드를 선택할 수도 있다. VLC 에서의 코드워드들은 상대적으로 더 짧은 코드들이 더 가능성 있는 심볼들에 대응하지만, 더 긴 코드들이 덜 가능성 있는 심볼들에 대응하도록, 구성될 수도 있다. 이와 같이, VLC 의 사용은 예를 들어, 송신될 각각의 심볼에 대해 동일-길이 코드워드들을 사용하는 것을 넘어서 비트 절감을 달성할 수도 있다.
CABAC 를 수행하기 위해, 엔트로피 인코딩 유닛 (56) 은 어떤 컨텍스트에 적용할 컨텍스트를 선택하여, 송신되는 심볼들을 인코딩할 수도 있다. 컨텍스트는 예를 들어, 이웃하는 값들이 비-제로인지 여부에 관련될 수도 있다. 엔트로피 인코딩 유닛 (56) 은 또한 그 선택된 변환을 나타내는 신호와 같은 신택스 엘리먼트들을 엔트로피 인코딩할 수도 있다. 엔트로피 인코딩 유닛 (56) 에 의한 엔트로피 코딩 이후, 최종 인코딩된 비디오는 비디오 디코더 (30) 와 같은 또 다른 디바이스로 송신되거나, 또는 추후 송신 또는 취출을 위해 아카이브될 수도 있다.
본 개시물의 하나 이상의 기법들에 따르면, 엔트로피 인코딩 유닛 (56) 은 비디오 데이터를 디코딩할 때에, 비디오 디코더 (30) 와 같은 비디오 디코더에 의한 사용을 위해 데이터 (예컨대, 1차원 2진 벡터로서 표현되는 신택스 엘리먼트 값들) 를 엔트로피 인코딩할 때에 상이한 윈도우 사이즈들을 선택할 수도 있다. 엔트로피 인코딩 유닛 (56) 의 일 예의 추가적인 세부 사항들이 도 5 를 참조하여 아래에서 설명된다.
역양자화 프로세싱 유닛 (58) 및 역변환 프로세싱 유닛 (60) 은 역양자화 및 역변환을 각각 적용하여, 예컨대, 참조 블록으로서의 추후 사용을 위해, 픽셀 도메인에서 잔차 블록을 복원한다.
모션 보상 유닛 (46) 은 또한 하나 이상의 내삽 필터들을 그 참조 블록에 적용하여, 모션 추정에 사용하기 위한 서브-정수 픽셀 값들을 계산할 수도 있다. 합산기 (62) 는 복원된 잔차 블록을 모션 보상 유닛 (46) 에 의해 발생되는 모션 보상된 예측 블록에 가산하여, 참조 픽처 메모리 (64) 에의 저장을 위한 복원된 비디오 블록을 생성한다. 복원된 비디오 블록은 후속 비디오 픽처에서 블록을 인터-코딩하기 위해 모션 추정 유닛 (44) 및 모션 보상 유닛 (46) 에 의해 참조 블록으로서 사용될 수도 있다. 현재의 픽처가 현재의 픽처를 예측하는데 참조 픽처로서 사용되는 예와 같은, 일부 예들에서, 모션 보상 유닛 (46) 및/또는 합산기 (62) 는 현재의 픽처를 코딩하는 동안 참조 픽처 메모리 (64) 에 의해 규칙적인 간격들로 저장된 현재의 픽처의 버전을 업데이트할 수도 있다. 일 예로서, 모션 보상 유닛 (46) 및/또는 합산기 (62) 는 현재의 픽처의 각각의 블록을 코딩한 후 참조 픽처 메모리 (64) 에 의해 저장된 현재의 픽처의 버전을 업데이트할 수도 있다. 예를 들어, 현재의 블록의 샘플들이 참조 픽처 메모리 (64) 에 초기화된 값들로서 저장되는 경우, 모션 보상 유닛 (46) 및/또는 합산기 (62) 는 참조 픽처 메모리 (64) 에 의해 저장된 현재의 픽처의 버전의 샘플들을 현재의 블록에 대한 복원된 샘플들로 업데이트할 수도 있다.
필터링 유닛 (미도시) 은 다양한 필터링 프로세스들을 수행할 수도 있다. 예를 들어, 필터링 유닛은 디블록킹을 수행할 수도 있다. 즉, 필터링 유닛은 복원된 비디오의 슬라이스 또는 프레임을 형성하는 복수의 복원된 비디오 블록들을 수신하고 필터 블록 경계들을 필터링하여, 슬라이스 또는 프레임으로부터 블록킹 현상 아티팩트들을 제거할 수도 있다. 일 예에서, 필터링 유닛은 비디오 블록의 소위 "경계 강도" 를 평가한다. 비디오 블록의 경계 강도에 기초하여, 비디오 블록의 에지 픽셀들은, 하나의 비디오 블록으로부터 전이가 뷰어가 인식하기가 더 어렵게 되도록, 인접한 비디오 블록의 에지 픽셀들에 대해 필터링될 수도 있다.
일부 예들에서, 모션 보상 유닛 (46) 및/또는 합산기 (62) 는 그 필터링이 샘플들에 대한 필터링 (예컨대, 디블록킹 및/또는 SAO) 을 수행하기 전에 참조 픽처 메모리 (64) 에 의해 저장된 현재의 픽처의 버전을 업데이트할 수도 있다. 예를 들어, 필터링 유닛은 필터링을 적용하기 전에 전체 픽처가 코딩될 때까지 대기할 수도 있다. 이러한 방법으로, 모션 추정 유닛 (44) 은 필터링을 적용하기 전에 현재의 픽처를 참조로서 사용할 수도 있다. 일부 예들에서, 필터링 유닛은 참조 픽처 메모리 (64) 에 의해 저장된 현재의 픽처의 버전이 업데이트됨에 따라 필터링을 수행할 수도 있다. 예를 들어, 필터링 유닛은 각각의 블록이 업데이트됨에 따라 필터링을 적용할 수도 있다. 이러한 방법으로, 모션 추정 유닛 (44) 은 필터링을 적용한 후 현재의 픽처를 참조로서 이용할 수도 있다.
본 기법들의 다수의 상이한 양태들 및 예들이 본 개시물에서 설명되지만, 본 기법들의 다양한 양태들 및 예들은 서로 함께 또는 별개로 수행될 수도 있다. 다시 말해서, 본 기법들은 위에서 설명된 다양한 양태들 및 예들에 엄격히 한정되어서는 안되며, 조합하여 사용되거나 또는 함께 및/또는 별개로 수행될 수도 있다. 게다가, 어떤 기법들이 (인트라 예측 유닛 (48), 모션 보상 유닛 (46), 또는 엔트로피 인코딩 유닛 (56) 과 같은) 비디오 인코더 (20) 의 어떤 유닛들에 귀속될 수도 있지만, 또한 비디오 인코더 (20) 의 하나 이상의 다른 유닛들이 이러한 기법들을 실행하는 것을 담당할 수도 있는 것으로 이해되어야 한다.
도 5 는 본 개시물의 기법들에 따른, CABAC 를 수행하도록 구성될 수도 있는 예시적인 엔트로피 인코딩 유닛 (56) 의 블록도이다. 신택스 엘리먼트 (118) 가 엔트로피 인코딩 유닛 (56) 으로 입력된다. 신택스 엘리먼트가 이미 2진-값 신택스 엘리먼트 (예컨대, 오직 0 및 1 의 값만을 가지는 플래그 또는 다른 신택스 엘리먼트) 이면, 2진화의 단계는 스킵될 수도 있다. 신택스 엘리먼트가 비-2진 값 신택스 엘리먼트 (예컨대, 1 또는 0 이외의 값들을 가질 수도 있는 신택스 엘리먼트) 이면, 비-2진 값 신택스 엘리먼트는 2진화기 (120) 에 의해 2진화된다. 2진화기 (120) 는 2진 결정들의 시퀀스로의 비-2진 값 신택스 엘리먼트의 맵핑을 수행한다. 이들 2진 결정들은 종종 "빈들" 로 불린다. 예를 들어, 변환 계수 레벨들에 대해, 레벨의 값은 연속적인 빈들로 분할될 수도 있으며, 각각의 빈은 계수 레벨의 절대값이 어떤 값보다 큰지 여부를 표시한다. 예를 들어, 빈 0 (종종, 유의도 플래그라 함) 은 변환 계수의 절대값 레벨이 0 보다 큰지 아닌지를 표시한다. 빈 1 은 변환 계수의 절대값 레벨이 1 보다 큰지 아닌지, 및 기타등등을 표시한다. 고유한 맵핑이 각각의 비-2진 값 신택스 엘리먼트에 대해 전개될 수도 있다.
2진화기 (120) 에 의해 발생되는 각각의 빈이 엔트로피 인코딩 유닛 (56) 의 2진 산술 코딩 측으로 공급된다. 즉, 비-2진 값 신택스 엘리먼트들의 미리 결정된 세트에 대해, 각각의 빈 유형 (예컨대, 빈 0) 이 다음 빈 유형 (예컨대, 빈 1) 이전에 코딩된다. 코딩은 정규 모드 또는 바이패스 모드에서 수행될 수도 있다. 바이패스 모드에서, 바이패스 코딩 엔진 (126) 은 산술 코딩을 고정 확률 모델을 이용하여, 예를 들어, Golomb-Rice 또는 지수 Golomb 코딩을 이용하여 수행한다. 바이패스 모드는 더 예측가능한 신택스 엘리먼트들에 대해 일반적으로 사용된다.
정규 모드에서의 코딩은 CABAC 를 수행하는 것을 포함한다. 정규 모드 CABAC 는 빈 값들을 코딩하기 위한 것이며, 여기서 빈의 값의 확률은 이전에 코딩된 빈들의 값들이 주어지면 예측가능하다. 빈이 LPS 일 확률은 컨텍스트 모델러 (122) 에 의해 결정된다. 컨텍스트 모델러 (122) 는 빈 값 및 컨텍스트에 대해 확률 상태 (예컨대, LPS 의 값 및 LPS 가 일어날 확률을 포함한, 확률 상태 σ) 를 출력한다. 컨텍스트는 빈들의 시리즈에 대한 초기 컨텍스트일 수도 있거나, 또는 이전에 코딩된 빈들의 코딩된 값들에 기초하여 결정될 수도 있다. 위에서 설명한 바와 같이, 컨텍스트 모델러 (122) 는 수신된 빈이 MPS 또는 LPS 이었는지 여부에 기초하여 상태를 업데이트할 수도 있다. 컨텍스트 및 확률 상태 σ 가 컨텍스트 모델러 (122) 에 의해 결정된 후, 정규 코딩 엔진 (124) 은 빈 값에 대해 BAC 를 수행한다.
본 개시물의 하나 이상의 기법들에 따르면, 2진 산술 코딩 프로세스에서 확률 상태를 업데이트하는데 사용되는 변수 (예컨대, 윈도우 사이즈, 스케일링 인자 (α), 및 확률 업데이팅 속도 중 하나 이상) 의 동일한 값을 이용하는 것과는 대조적으로, 엔트로피 인코딩 유닛 (56) 은 상이한 컨텍스트들 및/또는 상이한 신택스 엘리먼트들에 대해 변수의 상이한 값들을 이용할 수도 있다. 예를 들어, 컨텍스트 모델러 (122) 는 복수의 컨텍스트들의 컨텍스트에 대해, 2진 산술 코딩 프로세스에서 확률 상태를 업데이트하는데 사용되는 변수의 값을 결정하고, 그 결정된 값에 기초하여 확률 상태를 업데이트할 수도 있다. 윈도우 사이즈는 업데이트된 확률 상태에 영향을 미치는 이전에 코딩된 빈들의 수를 나타낼 수도 있다.
일부 예들에서, 다음 확률 상태를 결정하기 위해 컨텍스트 모델러 (122) 에 의해 사용되는 윈도우 사이즈는 컨텍스트에 의존하게 될 수도 있다. 예를 들어, 컨텍스트 모델러 (122) 는 상이한 컨텍스트들에 대해 상이한 윈도우 사이즈들을 이용할 수도 있다. 일 예로서, 컨텍스트 모델러 (122) 는 복수의 컨텍스트들의 제 1 컨텍스트에 대해 제 1 윈도우 사이즈를 결정하고, 제 1 윈도우 사이즈와는 상이한 복수의 컨텍스트들의 제 2 컨텍스트에 대해 제 2 윈도우 사이즈를 결정할 수도 있다.
일부 예들에서, 상기 컨텍스트-모델 의존적인 업데이팅 방법을 JCTVC-F254 및 JCTV-G764 에서와 같은, 카운터-기반의 산술 코더들에 통합할 때, 윈도우 사이즈의 값은 컨텍스트에 의존할 수도 있다. 게다가, 각각의 컨텍스트는 수식 (4) 로부터의 확률 Pi 에 추가하여, 윈도우 사이즈와 추가로 연관될 수도 있다.
일부 예들에서, 컨텍스트 모델러 (122) 는 2M 과 동일할 수도 있는 윈도우 사이즈들 W 를 이용할 수도 있으며, 여기서 M 은 양의 정수일 수도 있다. 따라서, 각각의 컨텍스트는 다른 컨텍스트들과는 상이할 수도 있는 그 자신의 M 값을 가질 수도 있지만, 일부 컨텍스트들은 동일한 M 값을 가질 수도 있다.
일부 예들에서, 컨텍스트 모델러 (122) 는 윈도우 사이즈들의 사전-정의된 세트로부터 윈도우들 사이즈들을 결정할 수도 있다. 일부 예시적인 미리 정의된 윈도우 사이즈들은 16, 32, 64, 및 128 이지만, 다른 윈도우 사이즈들도 고려된다. 예를 들어, 가능한 M 값들의 세트는 사전-정의될 수도 있으며, 예컨대, M 은 4 내지 7 을 포함한 범위일 수 있다. 일부 예들에서, 컨텍스트 모델러 (122) 는 가능한 윈도우 사이즈들의 세트의 표시 (예컨대, 가능한 M 값들의 세트의 표시) 가 슬라이스 헤더 또는 픽처 파라미터 세트, 활성 파라미터 세트, 시퀀스 파라미터 세트, 또는 비디오 파라미터 세트를 포함한 파라미터 세트로 시그널링될 수 있게 할 수도 있다.
일부 예들에서, 각각의 컨텍스트와 연관된 윈도우 사이즈들 (예컨대, M 의 값들) 은 사전-정의될 수도 있다. 일부 예들에서, 윈도우 사이즈들은 슬라이스 유형들 및/또는 (예컨대, HEVC 에서 temporalId 로서 지칭되는) 시간 식별자들에 추가로 의존할 수도 있다. 일부 예들에서, 윈도우 사이즈들은 픽처 유형들 (또는, NAL 유닛 유형들), 예컨대, 픽처가 무작위 액세스 픽처인지 여부에 추가로 의존할 수도 있다.
일부 예들에서, 컨텍스트 모델러 (122) 는 각각의 컨텍스트와 연관된 윈도우 사이즈들 (예컨대, M 의 값들) 이 비트스트림으로, 예컨대, 슬라이스 헤더/픽처 파라미터 세트/활성 파라미터 세트/시퀀스 파라미터 세트로 시그널링될 수 있게 할 수도 있다. 예를 들어, 각각의 컨텍스트에 대한 디폴트 윈도우 사이즈는 먼저 사전-정의될 수도 있다. 각각의 개별 컨텍스트에 대해, 컨텍스트 모델러 (122) 는 디폴트 윈도우 사이즈가 개별 컨텍스트에 대해 사용되는지 여부를 표시하는 개별 신택스 엘리먼트 (예컨대, 플래그) 를 인코딩할 수도 있다. 디폴트 윈도우 사이즈가 개별 컨텍스트에 대해 사용되지 않으면, 컨텍스트 모델러 (122) 는 디폴트 윈도우 사이즈에 기초하여 실제 사용되는 윈도우 사이즈를 달리 인코딩할 수도 있다. 일부 예들에서, 컨텍스트 모델러 (122) 는 모든 컨텍스트들의 (즉, 디폴트 윈도우 사이즈가 사용되는지 여부를 나타내는) 신택스 엘리먼트들을 함께 편성하고, 런-길이 코딩을 이용하여 이들 신택스 엘리먼트들을 코딩할 수도 있다. 일부 예들에서, 컨텍스트 모델러 (122) 는 실제로 사용되는 윈도우 사이즈와 디폴트 윈도우 사이즈 사이의 차이를 코딩할 때 맵핑 테이블을 이용할 수도 있다. 예를 들어, 디폴트 M 값이 6 과 동일한 경우, 가능한 M 값들은 4, 5, 6, 및 7 이다. 맵핑 테이블은 다음과 같이 정의될 수도 있다:
일부 예들에서, 컨텍스트 모델러 (122) 는 각각의 컨텍스트에 대해 실제 윈도우 사이즈와 디폴트 윈도우 사이즈 사이의 차이를 직접 코딩할 수도 있다. 예를 들어, 디폴트 M 값이 4 인 경우, 컨텍스트 모델러 (122) 는 각각의 컨텍스트에 대해 M-4 를 코딩할 수도 있다.
일부 예들에서, 컨텍스트 모델러 (122) 는 현재의 슬라이스에서의 컨텍스트들에 대한 모든 윈도우 사이즈들이 이전에 코딩된 슬라이스에서의 대응하는 컨텍스트들에 대한 윈도우 사이즈들을 상속하는지 (즉, 동일하게 설정되는지) 여부를 표시하는 제 1 신택스 엘리먼트를 코딩할 수도 있다. 일 예에서, "이전에 디코딩된 슬라이스" 는 현재의 슬라이스와, 동일한 슬라이스 유형, 또는 동일한 슬라이스 유형 및 양자화 파라미터 양쪽, 또는 동일한 슬라이스 유형 및 시간 계층 양쪽, 및/또는 동일한 초기화된 양자화 파라미터들을 가지는 이전에 코딩된 슬라이스들로서 정의될 수도 있다. 일부 예들에서, 이전 슬라이스는 DPB 에 존재하는 픽처에 속하도록 요구될 수도 있으며, 특히, HEVC 기반의 플랫폼에서와 같이, 현재의 픽처에 대해 참조 픽처로서 사용될 수도 있으며, 이전 슬라이스는 참조 픽처 세트 (RPS) 에서의 픽처, 또는 심지어 RPS 의 다음 서브세트들 중 하나 중 하나에서의 픽처에 속하도록 요구될 수도 있다: RefPicSetStCurrBefore, RefPicSetStCurrAfter, 및 RefPicSetLtCurr.
일부 예들에서, 컨텍스트 모델러 (122) 는 (예컨대, 현재의 슬라이스에서의) 복수의 컨텍스트들에 대해 디폴트 윈도우 사이즈가 사용되는지 여부를 표시하는 제 1 신택스 엘리먼트를 코딩할 수도 있다. 디폴트 윈도우 사이즈가 복수의 컨텍스트들에 대해 사용되지 않는 경우, 컨텍스트 모델러 (122) 는 컨텍스트에 대한 윈도우 사이즈를 표시하는 제 2 신택스 엘리먼트를 코딩할 수도 있다. 예를 들어, 컨텍스트 모델러 (122) 는 컨텍스트에 대한 윈도우 사이즈와 디폴트 윈도우 사이즈 사이의 차이를 표시하는 제 2 신택스 엘리먼트를 코딩할 수도 있다.
다른 예에서, 컨텍스트 모델러 (122) 는 예컨대, 이전 슬라이스들 또는 픽처들로부터의 코딩된 정보에 기초하여 윈도우 사이즈들을 유도할 수도 있다.
일부 예들에서, 산술 코더들에서 다음 확률 상태 또는 확률 업데이트 속도를 결정하는데 사용되는 '윈도우 사이즈' 는 예컨대, 컨텍스트가 상이한 신택스 엘리먼트들 사이에 공유되는 경우와 같이, 신택스 엘리먼트 특정적일 수도 있다. 예를 들어, 컨텍스트를 이용하여 신택스 엘리먼트의 빈을 인코딩할 때, 컨텍스트 모델러 (122) 는 신택스 엘리먼트에 기초하여 컨텍스트에 대한 윈도우 사이즈를 결정할 수도 있다. 일 예로서, inter_pred_idc 신택스 엘리먼트의 빈들을 코딩할 때 컨텍스트의 상태를 업데이트하기 위해 사용되는 윈도우 사이즈는 16 (예컨대, M=4) 일 수도 있고, coeff_abs_level_greater1_flags 신택스 엘리먼트의 빈들을 코딩할 때 컨텍스트의 상태를 업데이트하기 위해 사용되는 윈도우 사이즈는 128 (예컨대, M=7) 일 수도 있다.
본 개시물의 하나 이상의 기법들에 따르면, 컨텍스트 모델러 (122) 는 비디오 데이터를 디코딩할 때 비디오 디코더 (30) 에 의한 사용을 위해 데이터 (예컨대, 1차원 벡터를 나타내는 신택스 엘리먼트들 및/또는 다른 신택스 엘리먼트들) 를 엔트로피 인코딩할 때 상이한 윈도우 사이즈들을 적응적으로 결정할 수도 있다. 예를 들어, 각각의 컨텍스트에 대해, 컨텍스트 모델러 (122) 는 기록된 빈 스트링을 상이한 윈도우 사이즈들로 코딩하는 비트들을 계산하고 최소 비트를 갖는 것을 선택할 수도 있다. 윈도우 사이즈들이 윈도우 사이즈들의 사전-정의된 세트로부터 선택되는 경우, 컨텍스트 모델러 (122) 는 윈도우 사이즈들의 사전-정의된 세트의 개별 윈도우 사이즈들에 대해, 컨텍스트로 빈 스트링을 인코딩하는데 사용되는 비트들의 개별 양들을 결정하고, 가장 작은 양의 비트들에 대응하는 윈도우 사이즈들의 사전-정의된 세트 중 윈도우 사이즈를 컨텍스트에 대한 윈도우 사이즈로서 선택할 수도 있다.
일부 예들에서, 상기 기법(들) 은 특정의 컨텍스트들에 적용가능할 수도 있다. 즉, 컨텍스트들의 서브세트는 디폴트 윈도우 사이즈들이 아닌 업데이트된 '윈도우 사이즈들' 을 이용할 수도 있다. 일부 예들에서, 상기 기법(들) 은 특정의 슬라이스 유형들에 적용가능할 수도 있다.
상기 논의된 바와 같이, 컨텍스트 모델러 (122) 는 컨텍스트들의 확률 상태를 주기적으로 초기화할 수도 있다. 실례로, 컨텍스트 모델러 (122) 는 비디오 데이터의 각 슬라이스의 시작부에서 컨텍스트들의 확률 상태를 초기화할 수도 있다. 컨텍스트 모델러 (122) 는 후속 확률 상태들이 도출될 수도 있는 초기 확률 상태를 결정함으로써 컨텍스트의 확률 상태를 초기화할 수도 있다. HEVC 초기화 프로세스 (즉, HEVC 의 9.3.2.2 에서 기술된 바와 같이) 에서, 컨텍스트 모델러 (122) 는 (예컨대, HEVC 의 9-31 을 통한 테이블들 9-5 을 이용하여) 신택스 엘리먼트가 인코딩되게 되는 빈에 기초하여 사전-정의된 초기화 값 (예컨대, initValue) 을 획득할 수도 있다. 사전-정의된 초기화 값들은 비디오 인코더 (20) 에 의해 저장될 수도 있다. HEVC 에서, 사전-정의된 초기화 값들은 8-비트 정밀도로 각각 저장된다.
컨텍스트 모델러 (122) 는 획득된 사전-정의된 초기화 값에 기초하여 초기 확률 상태를 결정할 수도 있다. 실례로, 컨텍스트 모델러 (122) 는 그 다음에, 획득된 사전-정의된 초기화 값에 기초하여 슬로프 (slope) 값 및 오프셋 (offset) 값을 결정할 수도 있다. 일부 예들에서, 컨텍스트 모델러 (122) 는 상기 식들 (3) 또는 HEVC 의 식들 (9-4) 에 따라 슬로프 값 및 오프셋 값을 결정할 수도 있다.
컨텍스트 모델러 (122) 는 중간 (intermediate) 값을 결정하기 위해 결정된 슬로프 값 및 오프셋 값을 사용할 수도 있다. 일부 예들에서, 컨텍스트 모델러 (122) 는, initState 가 중간 값인 상기 식들 (3) 에 따라 중간 값을 결정할 수도 있고, 또는 preCtxState 가 중간 값인 HEVC 의 식들 (9-6) 에 따라 중간 값을 결정할 수도 있다.
컨텍스트 모델러 (122) 는 중간 값에 기초하여 초기 확률 상태를 결정할 수도 있다. 실례로, 컨텍스트 모델러 (122) 는, 상태 인덱스가 초기 확률 상태인 상기 식 (3), 또는 pStateIdx 가 초기 확률 상태인 HEVC 의 식들 (9-6) 에 따라서 중간 값에 기초하여 초기 확률 상태를 결정할 수도 있다.
HEVC 는 128 개의 컨텍스트 상태들을 지원하고, 이 128 개의 컨텍스트 상태들의 각각은 MPS 의 값 및 확률 상태의 값에 의해 완전하게 정의될 수도 있다. MPS 의 값은 1-비트 값으로서 저장될 수도 있고, 확률 상태는 컨텍스트의 현재 상태를 정의하기 위해 총 8 비트들에 대해 7-비트 값으로서 저장될 수도 있다. 이와 같이, 8-비트 사전-정의된 초기화 값들을 이용하는 것은 컨텍스트 모델러 (122) 로 하여금 128 개의 가능한 상태들 중 임의의 것으로 초기화하는 것을 가능하게 하기 위해 충분한 정보를 제공한다.
상기 논의된 바와 같이, JCTVC-F254 및 JCTV-G764 에 의해 제안된 방법은 차분 초기화 기법을 이용한다. 구체적으로, JCTVC-F254 및 JCTV-G764 에 의해 제안된 방법에서, (asCtxInit[ 0 ] 및 asCtxInit[ 1 ] 에 의해 각각 표시된) 2-파라미터들이 각 컨텍스트에 대해 사전-정의되고, 초기 확률 상태 iP0 가 식들 (13) 에서 상기 나타낸 바와 같이 도출된다. JCTVC-F254 및 JCTV-G764 에 의해 제안된 방법에서, 컨텍스트들은 32767 개의 가능한 상태들을 가질 수도 있다. 이와 같이, JCTVC-F254 및 JCTV-G764 는, 사전-정의된 초기화 값들 (즉, asCtxInit[ 0 ] 및 asCtxInit[ 1 ]) 의 양자가 16-비트 정밀도로 저장되어 32767 개의 가능한 상태들 중 임의의 것으로의 초기화를 가능하게 하는 것을 제안하였다. 이와 같이, JCTVC-F254 및 JCTV-G764 에 의해 제안되는 방법은 사전-정의된 초기화 값을 저장하기 위해 필요한 메모리의 양을 300% 증가시키는 결과를 초래하고, 이는 하드웨어 구현에 바람직하지 않을 수도 있다.
본 개시의 하나 이상의 기법들에 따라서, 컨텍스트 모델러 (122) 는 2 의 N 승보다 더 큰 가능한 확률 상태들의 수를 갖는 컨텍스트를 초기화하기 위해 N-비트 정밀도로 저장된 사전-정의된 초기화 값을 이용할 수도 있다. 실례로, 컨텍스트 모델러 (122) 는 사전-정의된 초기화 값에 기초하여 중간 값을 결정하고, 그 중간 값을 컨텍스트에 대한 초기 확률 상태로 변환하기 위해 룩-업 테이블을 사용할 수도 있다. 일부 예들에서, 룩-업 테이블에 포함된 엔트리들의 수는 2 의 N 승과 동일할 수도 있다. 이러한 예들에서, 컨텍스트 모델러 (122) 는 컨텍스트의 가능한 확률 상태들의 서브-세트로 초기화하는 것만이 가능할 수도 있다. 하지만, 사전-정의된 초기화 값들의 저장 요건들을 감소시킴으로써 획득되는 혜택들은 가능한 확률 상태들의 완전 범위로 초기화하기 위한 무능력으로부터 이어지는 임의의 정확도 감소보다 더 클 수도 있다.
하나의 예시적인 예로서, qp 에 의해 표시된 입력 양자화 파라미터 및 initVal 에 의해 표시된 사전-정의된 값이 주어지면, 컨텍스트 모델러 (122) 는 다음과 같이 (상태 인덱스에 의해 표시된) 확률 모델의 15-비트 엔트리를 도출할 수도 있다:
qp = Clip3(0, 51, qp);
slope = ( initVal >>4)*5 - 45;
offset = ((initVal &15)<<3)-16;
initState= min( max( 1, ( ( ( slope * qp ) >> 4 ) + offset ) ), 126 );
상태 인덱스 = m_MappedProb[initState];
여기서, m_MappedProb[128] =
{
614, 647, 681, 718, 756, 797, 839, 884, 932, 982, 1034, 1089, 1148, 1209, 1274, 1342, 1414, 1490, 1569, 1653, 1742, 1835, 1933, 2037, 2146, 2261, 2382, 2509, 2643, 2785, 2934, 3091, 3256, 3430, 3614, 3807, 4011, 4225, 4452, 4690, 4941, 5205, 5483, 5777, 6086, 6412, 6755, 7116, 7497, 7898, 8320, 8766, 9235, 9729, 10249, 10798, 11375, 11984, 12625, 13300, 14012, 14762, 15551, 16384, 16384, 17216, 18005, 18755, 19467, 20142, 20783, 21392, 21969, 22518, 23038, 23532, 24001, 24447, 24869, 25270, 25651, 26012, 26355, 26681, 26990, 27284, 27562, 27826, 28077, 28315, 28542, 28756, 28960, 29153, 29337, 29511, 29676, 29833, 29982, 30124, 30258, 30385, 30506, 30621, 30730, 30834, 30932, 31025, 31114, 31198, 31277, 31353, 31425, 31493, 31558, 31619, 31678, 31733, 31785, 31835, 31883, 31928, 31970, 32011, 32049, 32086, 32120, 32153,
};
다른 예에서, 컨텍스트 모델러 (122) 의 비트 정밀도가 K 와 동일한 경우에, 상기 테이블의 엔트리, 즉, m_MappedProb[128] 는 m_MappedProb[ i ] = Ceil( 2K * prob[ i ] ) 로서 정의될 수도 있다. 또 다른 예에서, m_MappedProb[ i ] = Ceil ( 2K * prob[ i ] + 0.5) 이다. 이 예에서, 함수 Ceil (x) 는 x 이상인 최소 정수를 표시하고, i 는 확률 인덱스, 즉, HEVC 에서 사용되는 initState 를 나타낸다. 어레이 prob[128] 은 HEVC 에서 사용된 심볼 '1' 의 128 개의 가능한 확률들을 나타낸다.
Prob[128] = {
0.018750, 0.019753, 0.020810, 0.021923, 0.023096, 0.024332, 0.025633, 0.027005, 0.028450, 0.029972, 0.031575, 0.033264, 0.035044, 0.036919, 0.038894, 0.040975, 0.043167, 0.045476, 0.047909, 0.050473, 0.053173, 0.056018, 0.059014, 0.062172, 0.065498, 0.069002, 0.072694, 0.076583, 0.080680, 0.084996, 0.089543, 0.094334, 0.099381, 0.104698, 0.110299, 0.116200, 0.122417, 0.128966, 0.135866, 0.143134, 0.150792, 0.158859, 0.167358, 0.176312, 0.185744, 0.195682, 0.206151, 0.217180, 0.228799, 0.241039, 0.253935, 0.267520, 0.281833, 0.296911, 0.312795, 0.329530, 0.347159, 0.365732, 0.385299, 0.405912, 0.427629, 0.450507, 0.474609, 0.500000, 0.500000, 0.525391, 0.549493, 0.572371, 0.594088, 0.614701, 0.634268, 0.652841, 0.670470, 0.687205, 0.703089, 0.718167, 0.732480, 0.746065, 0.758961, 0.771201, 0.782820, 0.793849, 0.804318, 0.814256, 0.823688, 0.832642, 0.841141, 0.849208, 0.856866, 0.864134, 0.871034, 0.877583, 0.883800, 0.889701, 0.895302, 0.900619, 0.905666, 0.910457, 0.915004, 0.919320, 0.923417, 0.927306, 0.930998, 0.934502, 0.937828, 0.940986, 0.943982, 0.946827, 0.949527, 0.952091, 0.954524, 0.956833, 0.959025, 0.961106, 0.963081, 0.964956, 0.966736, 0.968425, 0.970028, 0.971550, 0.972995, 0.974367, 0.975668, 0.976904, 0.978077, 0.979190, 0.980247, 0.981250
}
도 4 로 돌아가서, 일부의 경우, 엔트로피 인코딩 유닛 (56) 또는 비디오 인코더 (20) 의 또 다른 유닛이 엔트로피 코딩에 더해서, 다른 코딩 기능들을 수행하도록 구성될 수도 있다. 예를 들어, 엔트로피 인코딩 유닛 (56) 은 CU들 및 PU들에 대한 코딩된 블록 패턴 (CBP) 값들을 결정하도록 구성될 수도 있다. 또한, 일부의 경우, 엔트로피 인코딩 유닛 (56) 은 계수들의 런 길이 코딩 (run length coding) 을 수행할 수도 있다. 게다가, 엔트로피 인코딩 유닛 (56), 또는 다른 프로세싱 유닛들은, 또한 양자화 매트릭스의 값들과 같은, 다른 데이터를 코딩할 수도 있다.
위에서 설명한 바와 같이, 역양자화 유닛 (58) 및 역변환 프로세싱 유닛 (60) 은 역양자화 및 역변환을 각각 적용하여, 예컨대, 참조 블록으로서의 추후 사용을 위해, 픽셀 도메인에서 잔차 블록을 복원한다. 모션 보상 유닛 (46) 은 잔차 블록을 참조 프레임 메모리 (64) 의 프레임들 중 하나의 예측 블록에 가산함으로써 참조 블록을 계산할 수도 있다. 모션 보상 유닛 (46) 은 또한 하나 이상의 내삽 필터들을 그 복원된 잔차 블록에 적용하여, 모션 추정에 사용하기 위한 서브-정수 픽셀 값들을 계산할 수도 있다. 합산기 (62) 는 복원된 잔차 블록을 모션 보상 유닛 (46) 에 의해 발생되는 모션 보상된 예측 블록에 가산하여, 참조 프레임 메모리 (64) 에의 저장을 위한 복원된 비디오 블록을 발생한다. 복원된 비디오 블록은 후속 비디오 프레임에서 블록을 인터-코딩하기 위해 모션 추정 유닛 (44) 및 모션 보상 유닛 (46) 에 의해 참조 블록으로서 사용될 수도 있다.
도 6 은 본 개시물에서 설명된 기법들을 구현할 수도 있는 비디오 디코더 (30) 의 일 예를 예시하는 블록도이다. 또한, 비디오 디코더 (30) 가 예시의 목적을 위해, HEVC 코딩의 상황에서, 그러나, 다른 코딩 표준들에 대한 본 개시물의 한정 없이, 설명될 것이다. 더욱이, 비디오 디코더 (30) 는 범위 확장판들에 따라서 기법들을 구현하도록 구성될 수도 있다.
도 6 의 예에서, 비디오 디코더 (30) 는 비디오 데이터 메모리 (69), 엔트로피 디코딩 유닛 (70), 예측 프로세싱 유닛 (71), 역양자화 프로세싱 유닛 (76), 역변환 프로세싱 유닛 (78), 합산기 (80), 및 참조 픽처 메모리 (82) 를 포함할 수도 있다. 예측 프로세싱 유닛 (71) 은 모션 보상 유닛 (72) 및 인트라 예측 유닛 (74) 을 포함한다. 비디오 디코더 (30) 는 일부 예들에서, 도 4 로부터의 비디오 인코더 (20) 에 대해 설명된 인코딩 과정과는 일반적으로 반대인 디코딩 과정을 수행할 수도 있다.
비디오 데이터 메모리 (69) 는 비디오 디코더 (30) 의 컴포넌트들에 의해 디코딩될, 인코딩된 비디오 비트스트림과 같은, 비디오 데이터를 저장할 수도 있다. 비디오 데이터 메모리 (69) 에 저장된 비디오 데이터는 예를 들어, 저장 디바이스 (34) 로부터, 카메라와 같은 로컬 비디오 소스로부터, 비디오 데이터의 유선 또는 무선 네트워크 통신을 통해서, 또는 물리적인 데이터 저장 매체들에 액세스함으로써 획득될 수도 있다. 비디오 데이터 메모리 (69) 는 인코딩된 비디오 비트스트림으로부터 인코딩된 비디오 데이터를 저장하는 코딩된 픽처 버퍼 (CPB) 를 형성할 수도 있다.
참조 픽처 메모리 (82) 는 비디오 데이터를 비디오 디코더 (30) 에 의해 (예컨대, 인트라-코딩 모드 또는 인터-코딩 모드에서) 디코딩할 때 사용을 위해 참조 비디오 데이터를 저장하는 디코딩된 픽처 버퍼 (DPB) 의 일 예이다. 비디오 데이터 메모리 (69) 및 참조 픽처 메모리 (82) 는 동기 DRAM (SDRAM) 을 포함한 동적 랜덤 액세스 메모리 (DRAM), 자기저항 RAM (MRAM), 저항 RAM (RRAM), 또는 다른 유형들의 메모리 디바이스들과 같은, 다양한 메모리 디바이스들 중 임의의 메모리 디바이스에 의해 형성될 수도 있다. 비디오 데이터 메모리 (69) 및 참조 픽처 메모리 (82) 는 동일한 메모리 디바이스 또는 별개의 메모리 디바이스들에 의해 제공될 수도 있다. 여러 예들에서, 비디오 데이터 메모리 (69) 는 비디오 디코더 (30) 의 다른 컴포넌트들과의 온칩, 또는 그들 컴포넌트들에 대한 오프-칩일 수도 있다.
디코딩 프로세스 동안, 비디오 디코더 (30) 는 인코딩된 비디오 슬라이스의 비디오 블록들 및 연관되는 신택스 엘리먼트들을 나타내는 인코딩된 비디오 비트스트림을 비디오 인코더 (20) 로부터 수신한다. 비디오 디코더 (30) 의 엔트로피 디코딩 유닛 (70) 은 그 비트스트림을 엔트로피 디코딩하여, 양자화된 계수들, 모션 벡터들 또는 인트라-예측 모드 표시자들, 및 다른 신택스 엘리먼트들을 발생한다. 일부 예들에서, 엔트로피 디코딩 유닛 (70) 은 인코더에 의해 사용되는 프로세스에 일반적으로 반대인 프로세스를 적용할 수도 있다. 엔트로피 디코딩 유닛 (70) 은 인코딩된 비트스트림에 대해 엔트로피 디코딩 프로세스를 수행하여, 변환 계수들의 1차원 어레이를 취출한다. 사용되는 엔트로피 디코딩 프로세스는 비디오 인코더 (20) 에 의해 사용되는 엔트로피 코딩 (예컨대, CABAC, CAVLC, PIPE, 또는 위에서 설명된 다른 프로세스들) 에 의존한다. 본 개시물에서 설명하는 기법들에 따르면, 엔트로피 디코딩 유닛 (70) 은 본 개시물에서 설명되는 바와 같이, 예컨대, CABAC 프로세스 내에서 BAC 프로세스를 적용할 수도 있다. 인코더에 의해 사용되는 엔트로피 코딩 프로세스에서의 윈도우 사이즈는 인코딩된 비트스트림으로 시그널링될 수도 있거나 또는 미리 결정된 프로세스일 수도 있다.
엔트로피 디코딩 유닛 (70) 은 모션 벡터들, 및 다른 신택스 엘리먼트들을 모션 보상 유닛 (72) 으로 포워딩한다. 비디오 디코더 (30) 는 신택스 엘리먼트들을 비디오 슬라이스 레벨 및/또는 비디오 블록 레벨에서 수신할 수도 있다.
도 7 은 본 개시물의 기법들에 따른, CABAC 를 수행하도록 구성될 수도 있는 예시적인 엔트로피 디코딩 유닛 (70) 의 블록도이다. 도 7 의 엔트로피 디코딩 유닛 (70) 은 도 5 에 설명된 엔트로피 인코딩 유닛 (56) 의 방법과는 역으로 CABAC 를 수행한다. 비트스트림 (218) 으로부터의 코딩된 비트들이 엔트로피 디코딩 유닛 (70) 에 입력된다. 코딩된 비트들이, 이들이 바이패스 모드 또는 정규 모드를 이용하여 엔트로피 코딩되었는지 여부에 기초하여 컨텍스트 모델러 (220) 또는 바이패스 코딩 엔진 (222) 에 공급된다. 코딩된 비트들이 바이패스 모드에서 코딩되었으면, 바이패스 디코딩 엔진은 예를 들어, Golomb-Rice 또는 지수 Golomb 디코딩을 이용하여, 2진-값 신택스 엘리먼트들 또는 비-2진 신택스 엘리먼트들의 빈들을 취출할 것이다.
코딩된 비트들이 정규 모드에서 코딩되었으면, 컨텍스트 모델러 (220) 는 코딩된 비트들에 대한 확률 모델을 결정할 수도 있으며, 정규 디코딩 엔진 (224) 은 코딩된 비트들을 디코딩하여 비-2진 값 신택스 엘리먼트들 (또는, 2진-값이면 신택스 엘리먼트들 자신) 의 빈들을 발생시킬 수도 있다. 컨텍스트 및 확률 상태 σ 가 컨텍스트 모델러 (220) 에 의해 결정된 후, 정규 디코딩 엔진 (224) 은 빈 값에 대해 BAC 를 수행한다.
본 개시물의 하나 이상의 기법들에 따르면, 2진 산술 코딩 프로세스에서 확률 상태를 업데이트하는데 사용되는 변수 (예컨대, 윈도우 사이즈, 스케일링 인자 (α), 및 확률 업데이팅 속도 중 하나 이상) 의 동일한 값을 이용하는 것과는 대조적으로, 엔트로피 인코딩 유닛 (56) 은 상이한 컨텍스트들 및/또는 상이한 신택스 엘리먼트들에 대해 변수의 상이한 값들을 이용할 수도 있다. 예를 들어, 컨텍스트 모델러 (220) 는 복수의 컨텍스트들 중 컨텍스트에 대해, 2진 산술 코딩 프로세스에서 확률 상태를 업데이트하는데 사용되는 변수의 값을 결정하고, 결정된 값에 기초하여 확률 상태를 업데이트할 수도 있다.
일부 예들에서, 다음 확률 상태를 결정하기 위해 컨텍스트 모델러 (220) 에 의해 사용되는 윈도우 사이즈는 컨텍스트에 의존하게 될 수도 있다. 예를 들어, 컨텍스트 모델러 (220) 는 상이한 컨텍스트들에 대해 상이한 윈도우 사이즈들을 이용할 수도 있다. 일 예로서, 컨텍스트 모델러 (220) 는 복수의 컨텍스트들의 제 1 컨텍스트에 대해 제 1 윈도우 사이즈를 결정하고, 제 1 윈도우 사이즈와는 상이한 복수의 컨텍스트들의 제 2 컨텍스트에 대해 제 2 윈도우 사이즈를 결정할 수도 있다.
일부 예들에서, 상기 컨텍스트-모델 의존적인 업데이팅 방법을 JCTVC-F254 및 JCTV-G764 에서와 같은 카운터-기반의 산술 코더들에 통합할 때, 윈도우 사이즈의 값은 컨텍스트에 의존적일 수도 있다. 게다가, 각각의 컨텍스트는 수식 (4) 로부터의 확률 Pi 에 더해서, 윈도우 사이즈와 추가로 연관될 수도 있다.
일부 예들에서, 컨텍스트 모델러 (220) 는 2M 과 동일할 수도 있는 윈도우 사이즈들 W 를 이용할 수도 있으며, 여기서 M 은 양의 정수일 수도 있다. 따라서, 각각의 컨텍스트는 다른 컨텍스트들과는 상이할 수도 있는 그 자신의 M 값을 가질 수도 있지만, 일부 컨텍스트들은 동일한 M 값을 가질 수도 있다.
일부 예들에서, 컨텍스트 모델러 (220) 는 윈도우 사이즈들의 사전-정의된 세트로부터 윈도우들 사이즈들을 결정할 수도 있다. 예를 들어, 가능한 M 값들의 세트는 사전-정의될 수도 있으며, 예컨대, M 은 4 내지 7 을 포함하는 범위일 수 있다. 일부 예들에서, 엔트로피 디코딩 유닛 (70) 은 슬라이스 헤더 또는 픽처 파라미터 세트, 활성 파라미터 세트, 시퀀스 파라미터 세트, 또는 비디오 파라미터 세트를 포함한 파라미터 세트로부터, 가능한 윈도우 사이즈들의 세트의 표시 (예컨대, 가능한 M 값들의 세트의 표시) 를 디코딩할 수도 있다.
일부 예들에서, 각각의 컨텍스트와 연관된 윈도우 사이즈들 (예컨대, M 의 값들) 은 사전-정의될 수도 있다. 일부 예들에서, 윈도우 사이즈들은 슬라이스 유형들 및/또는 (예컨대, HEVC 에서 temporalId 로서 지칭되는) 시간 식별자들에 추가로 의존할 수도 있다. 일부 예들에서, 윈도우 사이즈들은 픽처 유형들 (또는, NAL 유닛 유형들), 예컨대, 픽처가 무작위 액세스 픽처인지 여부에 추가로 의존할 수도 있다.
일부 예들에서, 엔트로피 디코딩 유닛 (70) 은 슬라이스 헤더/픽처 파라미터 세트/활성 파라미터 세트/시퀀스 파라미터 세트에서와 같이, 비트스트림으로부터 각각의 컨텍스트와 연관된 윈도우 사이즈들 (예컨대, M 의 값들) 을 디코딩할 수도 있다. 예를 들어, 각각의 컨텍스트에 대한 디폴트 윈도우 사이즈는 먼저 사전-정의될 수도 있다. 각각의 개별 컨텍스트에 대해, 엔트로피 디코딩 유닛 (70) 은 디폴트 윈도우 사이즈가 개별 컨텍스트에 대해 사용되는지 여부를 표시하는 개별 신택스 엘리먼트 (예컨대, 플래그) 를 디코딩할 수도 있다. 디폴트 윈도우 사이즈가 개별 컨텍스트에 대해 사용되지 않으면, 엔트로피 디코딩 유닛 (70) 은 디폴트 윈도우 사이즈에 기초하여 실제 사용되는 윈도우 사이즈를 달리 디코딩할 수도 있다. 일부 예들에서, 모든 컨텍스트들의 (즉, 디폴트 윈도우 사이즈가 사용되는지 여부를 나타내는) 신택스 엘리먼트들은 함께 편성될 수도 있으며, 엔트로피 디코딩 유닛 (70) 은 런-길이 코딩을 이용하여 이들 신택스 엘리먼트들을 디코딩할 수도 있다. 일부 예들에서, 컨텍스트 모델러 (220) 는 실제로 사용되는 윈도우 사이즈와 디폴트 윈도우 사이즈 사이의 차이를 코딩할 때 맵핑 테이블을 이용할 수도 있다. 예를 들어, 디폴트 M 값이 6 과 동일할 경우, 가능한 M 값들은 4, 5, 6, 및 7 이다. 맵핑 테이블은 다음과 같이 정의될 수도 있다:
일부 예들에서, 엔트로피 디코딩 유닛 (70) 은 각각의 컨텍스트에 대해 실제 윈도우 사이즈와 디폴트 윈도우 사이즈 사이의 차이를 직접 디코딩할 수도 있다. 예를 들어, 디폴트 M 값이 4 인 경우, 엔트로피 디코딩 유닛 (70) 은 각각의 컨텍스트에 대해 M-4 의 값을 디코딩할 수도 있다.
일부 예들에서, 엔트로피 디코딩 유닛 (70) 은 현재의 슬라이스에서의 컨텍스트들에 대한 모든 윈도우 사이즈들이 이전에 코딩된 슬라이스에서의 대응하는 컨텍스트들에 대한 윈도우 사이즈들을 상속하는지 (즉, 동일하게 설정되는지) 여부를 표시하는 제 1 신택스 엘리먼트를 디코딩할 수도 있다. 일 예에서, "이전에 디코딩된 슬라이스" 는 현재의 슬라이스와, 동일한 슬라이스 유형, 또는 동일한 슬라이스 유형 및 양자화 파라미터 양쪽, 또는 동일한 슬라이스 유형 및 시간 계층 양쪽, 및/또는 동일한 초기화된 양자화 파라미터들을 가지는 이전에 코딩된 슬라이스들로서 정의될 수도 있다. 일부 예들에서, 이전 슬라이스는 DPB 에 존재하는 픽처에 속하도록 요구될 수도 있으며, 특히, HEVC 기반의 플랫폼에서와 같이, 현재의 픽처에 대해 참조 픽처로서 사용될 수도 있으며, 이전 슬라이스는 참조 픽처 세트 (RPS) 에서의 픽처, 또는 심지어 RPS 의 다음 서브세트들 중 하나 중 하나에서의 픽처에 속하도록 요구될 수도 있다: RefPicSetStCurrBefore, RefPicSetStCurrAfter, 및 RefPicSetLtCurr.
일부 예들에서, 엔트로피 디코딩 유닛 (70) 은 (예컨대, 현재의 슬라이스에서의) 복수의 컨텍스트들에 대해 디폴트 윈도우 사이즈가 사용되는지 여부를 표시하는 제 1 신택스 엘리먼트를 디코딩할 수도 있다. 디폴트 윈도우 사이즈가 복수의 컨텍스트들에 대해 사용되지 않는 경우, 엔트로피 디코딩 유닛 (70) 은 컨텍스트에 대한 윈도우 사이즈를 표시하는 제 2 신택스 엘리먼트를 디코딩할 수도 있다. 예를 들어, 엔트로피 디코딩 유닛 (70) 은 컨텍스트에 대한 윈도우 사이즈와 디폴트 윈도우 사이즈 사이의 차이를 표시하는 제 2 신택스 엘리먼트를 디코딩할 수도 있다.
다른 예에서, 엔트로피 디코딩 유닛 (70) 은 예컨대, 이전 슬라이스들 또는 픽처들로부터의 코딩된 정보에 기초하여, 윈도우 사이즈들을 유도할 수도 있다.
일부 예들에서, 산술 코더들에서 다음 확률 상태 또는 확률 업데이트 속도를 결정하는데 사용되는 '윈도우 사이즈' 는 신택스 엘리먼트 특정적일 수도 있다. 예를 들어, 컨텍스트를 이용하여 신택스 엘리먼트의 빈을 인코딩할 때, 컨텍스트 모델러 (220) 는 유형 신택스 엘리먼트에 기초하여 컨텍스트에 대한 윈도우 사이즈를 결정할 수도 있다. 일 예로서, inter_pred_idc 신택스 엘리먼트의 빈들을 코딩할 때 컨텍스트를 업데이트하기 위해 사용되는 윈도우 사이즈는 16 (예컨대, M=4) 일 수도 있고, coeff_abs_level_greater1_flags 신택스 엘리먼트의 빈들을 코딩할 때 컨텍스트를 업데이트하기 위해 사용되는 윈도우 사이즈는 128 (예컨대, M=7) 일 수도 있다.
일부 예들에서, 상기 기법(들) 은 특정의 컨텍스트들에 적용가능할 수도 있다. 즉, 컨텍스트들의 서브세트는 디폴트 윈도우 사이즈가 아닌, 업데이트된 '윈도우 사이즈들' 을 이용할 수도 있다. 일부 예들에서, 상기 기법(들) 은 특정의 슬라이스 유형들에 적용가능할 수도 있다.
빈들이 정규 디코딩 엔진 (224) 에 의해 디코딩된 후, 역 2진화기 (230) 는 역방향 맵핑을 수행하여, 빈들을 비-2진 값 신택스 엘리먼트들의 값들로 되변환할 수도 있다.
도 6 을 참조하면, 일부 예들에서, 엔트로피 디코딩 유닛 (70) (또는, 역양자화 유닛 (76)) 은 비디오 인코더 (20) 의 엔트로피 인코딩 유닛 (56) (또는, 양자화 유닛 (54)) 에 의해 사용되는 스캐닝 모드를 미러링하는 스캐닝을 이용하여 수신된 값들을 스캐닝할 수도 있다. 계수들의 스캐닝이 역양자화 유닛 (76) 에서 수행될 수도 있지만, 스캐닝은 예시의 목적을 위해 엔트로피 디코딩 유닛 (70) 에 의해 수행되는 것으로 설명될 것이다. 게다가, 예시의 용이를 위해 별개의 기능적 유닛들로서 나타내지만, 엔트로피 디코딩 유닛 (70), 역양자화 유닛 (76), 및 비디오 디코더 (30) 의 다른 유닛들의 구조 및 기능은 서로 고도로 통합될 수도 있다.
역양자화 모듈 (76) 은 비트스트림으로 제공되어 엔트로피 디코딩 유닛 (70) 에 의해 디코딩되는 양자화된 변환 계수들을 역양자화한다, 즉 양자화 해제한다. 역양자화 프로세스는 종래의 프로세스, 예컨대, HEVC 의 일부 예들과 유사하거나 또는 H.264 디코딩 표준에 의해 정의된, 프로세스를 포함할 수도 있다. 역양자화 프로세스는 양자화의 정도를 결정하기 위해, 그리고, 이와 유사하게, 적용되어야 하는 역양자화의 정도를 결정하기 위해, CU 에 대한, 비디오 인코더 (20) 에 의해 계산된 양자화 파라미터 QP 의 사용을 포함할 수도 있다. 역양자화 유닛 (76) 은 계수들이 1차원 어레이로부터 2차원 어레이로 변환되기 전후에 변환 계수들을 역양자화할 수도 있다.
역변환 프로세싱 유닛 (78) 은 역양자화된 변환 계수들에 역변환을 적용한다. 일부 예들에서, 역변환 프로세싱 유닛 (78) 은 비디오 인코더 (20) 로부터의 시그널링에 기초하여, 또는 블록 사이즈, 코딩 모드 등과 같은 하나 이상의 코딩 특성들로부터 변환을 추론함으로써, 역변환을 결정할 수도 있다. 일부 예들에서, 역변환 프로세싱 유닛 (78) 은 현재의 블록을 포함하는 LCU 에 대한 쿼드트리의 루트 노드에서의 시그널링된 변환에 기초하여 현재의 블록에 적용할 변환을 결정할 수도 있다. 대안적으로, 변환은 LCU 쿼드트리에서 리프-노드 CU 에 대한 TU 쿼드트리의 루트에서 시그널링될 수도 있다. 일부 예들에서, 역변환 프로세싱 유닛 (78) 은 캐스케이드된 역변환을 적용할 수도 있으며, 여기서, 역변환 프로세싱 유닛 (78) 은 디코딩되는 현재의 블록의 변환 계수들에 2 이상의 역변환들을 적용한다.
게다가, 역변환 프로세싱 유닛은 역변환을 적용하여 본 개시물의 위에서 설명한 기법들에 따라서 변환 유닛 파티션을 발생시킬 수도 있다.
인트라-예측 프로세싱 유닛 (74) 은 현재의 프레임의 이전에 디코딩된 블록들로부터, 시그널링된 인트라-예측 모드 및 데이터에 기초하여, 현재의 프레임의 현재의 블록에 대한 예측 데이터를 발생할 수도 있다. 취출된 모션 예측 방향, 참조 프레임 인덱스, 및 계산된 현재의 모션 벡터 (예컨대, 병합 모드에 따라 이웃하는 블록으로부터 복사된 모션 벡터) 에 기초하여, 모션 보상 유닛은 현재의 부분에 대한 모션 보상되는 블록을 발생한다. 이들 모션 보상된 블록들은 본질적으로 잔차 데이터를 발생하는데 사용되는 예측 블록을 재생성한다.
모션 보상 유닛 (72) 은 어쩌면, 내삽 필터들에 기초하여 내삽을 수행함으로써 모션 보상되는 블록들을 발생할 수도 있다. 서브-픽셀 정밀도를 갖는 모션 추정에 이용되는 내삽 필터들에 대한 식별자들이 신택스 엘리먼트들에 포함될 수도 있다. 모션 보상 유닛 (72) 은 비디오 블록의 인코딩 동안 비디오 인코더 (20) 에 의해 사용되는 것과 같은 내삽 필터들을 이용하여, 참조 블록의 서브-정수 픽셀들에 대한 내삽된 값들을 계산할 수도 있다. 모션 보상 유닛 (72) 은 수신된 신택스 정보에 따라서 비디오 인코더 (20) 에 의해 사용되는 내삽 필터들을 결정하고 그 내삽 필터들을 이용하여 예측 블록들을 발생할 수도 있다.
게다가, HEVC 예에서, 모션 보상 유닛 (72) 및 인트라-예측 프로세싱 유닛 (74) 은 (예컨대, 쿼드트리에 의해 제공되는) 신택스 정보의 일부를 이용하여, 인코딩된 비디오 시퀀스의 프레임(들) 을 인코딩하는데 사용되는 LCU들의 사이즈들을 결정할 수도 있다. 모션 보상 유닛 (72) 및 인트라-예측 프로세싱 유닛 (74) 은 또한 신택스 정보를 이용하여, 인코딩된 비디오 시퀀스의 프레임의 각각의 CU 가 어떻게 분할되는지 (그리고, 유사하게, 서브-CU들이 어떻게 분할되는지) 를 기술하는 분할 정보를 결정할 수도 있다. 신택스 정보는 또한 인코딩된 비디오 시퀀스를 디코딩하기 위해, 어떻게 각각의 분할이 인코딩되는지를 나타내는 모드들 (예컨대, 인트라- 또는 인터-예측, 그리고 인트라-예측에 있어, 인트라-예측 인코딩 모드), 각각의 인터-인코딩된 PU 에 대한 하나 이상의 참조 프레임들 (및/또는 참조 프레임들에 대한 식별자들을 포함하는 참조 리스트들), 및 다른 정보를 포함할 수도 있다.
합산기 (80) 는 잔차 블록들을 모션 보상 유닛 (72) 또는 인트라-예측 프로세싱 유닛 (74) 에 의해 발생된 대응하는 예측 블록들과 결합하여, 디코딩된 블록들을 형성한다. 원할 경우, 블록킹 현상 아티팩트들 (blockiness artifacts) 을 제거하기 위해 디블록킹 필터가 또한 그 디코딩된 블록들을 필터링하는데 적용될 수도 있다. 디코딩된 비디오 블록들은 그후 참조 픽처 메모리 (82) 에 저장될 수도 있으며, 그 참조 프레임 버퍼는 후속 모션 보상을 위해 참조 블록들을 제공하며, 또한 (도 1 의 디스플레이 디바이스 (31) 와 같은) 디스플레이 디바이스 상에의 제시를 위해 디코딩된 비디오를 발생한다.
도 8 은 정규 코딩 모드를 이용한 주어진 빈 값 binVal 에 대한 2진 산술 인코딩 프로세스를 예시한다. 산술 인코딩 엔진의 내부 상태는 대개 2개의 양들: 현재의 간격 범위 R 및 현재의 코드 간격의 베이스 (하단 종점) L 을 특징으로 한다. 그러나, CABAC 엔진에서 (정규 및 바이패스 모드 양쪽에서) 이들 레지스터들을 저장하는데 요구되는 정밀도가 9 및 10 비트들까지 각각 감소될 수 있다는 점에 유의한다. 확률 상태 인덱스 δ 를 가지는 컨텍스트에서 관찰된 주어진 2진 값 binVal 및 MPS (δ%2) 의 값의 인코딩이 다음과 같이 4개의 기본적인 단계들의 시퀀스로 수행된다.
제 1 및 주요 단계에서, 현재의 간격은 주어진 확률 추정들에 따라서 세부 분할된다. 이 간격 재분할 프로세스는 도 8 에서의 흐름도의 최상부 박스에 나타낸 바와 같이 3개의 기본적인 동작들을 수반한다. 첫째, 현재의 간격 범위 R 은 4개의 셀들로의 전체 범위 28 ≤ R ≤ 29 의 등분할을 이용하여 양자화된 값 Q(R) 에 의해 근사화된다. 그러나, 대응하는 대표 양자화된 범위 값들 Q0, Q1, Q2, 및 Q3 를 CABAC 엔진에서 명시적으로 이용하는 대신, 시프트 및 비트-마스킹 동작의 조합에 의해, 즉, 하기 수식 (14) 에 따라서, 효율적으로 계산될 수 있는 그 양자화기 인덱스 ρ 에 의해서만 해결된다.
Figure 112017118049612-pct00029
(14)
그 후, 이 인덱스 ρ 및 확률 상태 인덱스 δ 는 도 8 에 나타낸 바와 같이, (근사) LPS 관련된 부분 구간 범위 RLPS 를 결정하기 위해, 2-D 테이블 TabRangeLPS 에서 엔트리들로서 사용된다. 여기서, 테이블 TabRangeLPS 는 8-비트 정밀도로 0 ≤ (δ >>1) ≤ 63 및 0 ≤ ρ ≤ 3 에 있어서
Figure 112017118049612-pct00030
에 대한 모든 64×4 사전-계산된 결과 값들을 포함한다.
MPS 에 대해 이중 부분 구간 범위가 주어지면, 주어진 빈 값 binVal 에 대응하는 부분 구간이 인코딩 프로세스의 제 2 단계에서 선택된다. binVal 이 MPS 값과 동일하면, L 이 변경되지 않도록 하부 부분 구간이 선택되며 (도 8 에서의 분기의 우측 경로); 그렇지 않으면, RLPS 와 동일한 범위를 가지는 상부 부분 구간이 선택된다 (도 8 에서의 좌측 분기). 정규 산술 인코딩 프로세스의 제 3 단계에서, 확률 상태들의 업데이트가 위에서 설명한 바와 같이 (예컨대, 수식 (2) 를 이용하여) 수행되며 (도 8 에서의 그레이 음영처리된 박스들), 마지막으로, 제 4 단계는 Marpe 에 의해 설명된 바와 같이 레지스터들 L 및 R 의 재정규화로 이루어진다 (도 8 에서의 "RenormE" 박스).
2-D 테이블 TabRangeLPS 는 다음과 같이 정의될 수도 있다:
TabRangeLPS[64][4] =
{
{ 128, 176, 208, 240},
{ 128, 167, 197, 227},
{ 128, 158, 187, 216},
{ 123, 150, 178, 205},
{ 116, 142, 169, 195},
{ 111, 135, 160, 185},
{ 105, 128, 152, 175},
{ 100, 122, 144, 166},
{ 95, 116, 137, 158},
{ 90, 110, 130, 150},
{ 85, 104, 123, 142},
{ 81, 99, 117, 135},
{ 77, 94, 111, 128},
{ 73, 89, 105, 122},
{ 69, 85, 100, 116},
{ 66, 80, 95, 110},
{ 62, 76, 90, 104},
{ 59, 72, 86, 99},
{ 56, 69, 81, 94},
{ 53, 65, 77, 89},
{ 51, 62, 73, 85},
{ 48, 59, 69, 80},
{ 46, 56, 66, 76},
{ 43, 53, 63, 72},
{ 41, 50, 59, 69},
{ 39, 48, 56, 65},
{ 37, 45, 54, 62},
{ 35, 43, 51, 59},
{ 33, 41, 48, 56},
{ 32, 39, 46, 53},
{ 30, 37, 43, 50},
{ 29, 35, 41, 48},
{ 27, 33, 39, 45},
{ 26, 31, 37, 43},
{ 24, 30, 35, 41},
{ 23, 28, 33, 39},
{ 22, 27, 32, 37},
{ 21, 26, 30, 35},
{ 20, 24, 29, 33},
{ 19, 23, 27, 31},
{ 18, 22, 26, 30},
{ 17, 21, 25, 28},
{ 16, 20, 23, 27},
{ 15, 19, 22, 25},
{ 14, 18, 21, 24},
{ 14, 17, 20, 23},
{ 13, 16, 19, 22},
{ 12, 15, 18, 21},
{ 12, 14, 17, 20},
{ 11, 14, 16, 19},
{ 11, 13, 15, 18},
{ 10, 12, 15, 17},
{ 10, 12, 14, 16},
{ 9, 11, 13, 15},
{ 9, 11, 12, 14},
{ 8, 10, 12, 14},
{ 8, 9, 11, 13},
{ 7, 9, 11, 12},
{ 7, 9, 10, 12},
{ 7, 8, 10, 11},
{ 6, 8, 9, 11},
{ 6, 7, 9, 10},
{ 6, 7, 8, 9},
{ 2, 2, 2, 2}
};
예시적인 CABAC 디코딩 프로세스는 HEVC 표준의 섹션 9.3.4.3.2.2 에서 발견될 수도 있다.
도 9 는 잔차 쿼드트리에 기초한 변환 방식을 예시하는 개념도이다. 잔차 블록들의 다양한 특성들을 적응시키기 위해, 잔차 쿼드트리 (RQT) 를 이용한 변환 코딩 구조가 HEVC 에서 적용되며, 이는 http://www.hhi.fraunhofer.de/departments/video-coding-analytics/research-groups/image-video-coding/hevc-high-efficiency-video-coding/transform-coding-using-the-residual-quadtree-rqt.html 에 간략히 기술되어 있다.
각각의 픽처는 코딩 트리 유닛들 (CTU) 로 분할되며, 이는 특정의 타일 또는 슬라이스에 대해 래스터 스캔 순서로 코딩된다. CTU 는 정사각형 블록이며 쿼드트리, 즉, 코딩 트리의 루트를 나타낸다. CTU 사이즈는 8×8 내지 64×64 루마 샘플들의 범위일 수도 있지만, 일반적으로 64×64 가 사용된다. 각각의 CTU 는 코딩 유닛들 (CUs) 로 불리는 더 작은 정사각형 블록들로 추가로 분할될 수 있다. CTU 가 CU들로 회귀적으로 분할된 후, 각각의 CU 는 PU들 및 TU들로 추가로 분할된다. TU들로의 CU 의 파티셔닝은 쿼드트리 접근법에 기초하여 회귀적으로 실행되며, 따라서 각각의 CU 의 잔차 신호가 트리 구조 즉, 잔차 쿼드트리 (RQT) 에 의해 코딩된다. RQT 는 TU 사이즈들을 4×4 루마 샘플로부터 32×32 루마 샘플까지 허용한다. 도 9 는 CU 가 문자들 a 내지 j 로 라벨링된 10 개의 TU들, 및 대응하는 블록 파티셔닝을 포함하는 예를 나타낸다. RQT 의 각각의 노드는 실제로 변환 유닛 (TU) 이다. 개개의 TU들은 도면에 알파벳 순서로서 예시된 심도-우선 트리 횡단 순서로 프로세싱되며, 이는 심도-우선 횡단에 의한 회귀 Z-스캔을 따른다. 쿼드트리 접근법은 잔차 신호의 가변 공간-주파수 특성들에의 변환의 적응을 가능하게 한다. 일반적으로, 더 큰 공간 지원을 가지는 더 큰 변환 블록 사이즈들은 더 나은 주파수 분해능을 제공한다. 그러나, 더 작은 공간 지원을 가지는 더 작은 변환 블록 사이즈들은 더 나은 공간 분해능을 제공한다. 2개의, 공간 분해능과 주파수 분해능들 사이의 상충관계는, 예를 들어, 레이트-왜곡 최적화 기법에 기초하여 인코더 모드 결정에 의해 선택된다. 레이트-왜곡 최적화 기법은 각각의 코딩 모드 (예컨대, 특정의 RQT 분할 구조) 에 대해 코딩 비트들과 복원 왜곡의 가중 총합, 즉, 레이트-왜곡 비용을 계산하고, 최소 레이트-왜곡 비용을 가진 코딩 모드를 최상의 모드로서 선택한다.
3개의 파라미터들, 즉 트리의 최대 심도, 최소 허용 변환 사이즈 및 최대 허용 변환 사이즈가 RQT 에서 정의된다. HEVC 의 일부 예들에서, 최소 및 최대 변환 사이즈들은 이전 패러그라프에서 언급된 지원되는 블록 변환들에 대응하는, 4×4 샘플 내지 32×32 샘플의 범위 내에서 변할 수 있다. RQT 의 최대 허용 심도는 TU들의 개수를 제한한다. 제로와 동일한 최대 심도는 각각 포함된 TU 가 최대 허용 변환 사이즈, 예컨대, 32x32 에 도달하면 CTU 가 더 이상 분할될 수 없다는 것을 의미한다.
모든 이들 파라미터들은 RQT 구조와 상호작용하며 영향을 미친다. 루트 CTU 사이즈가 64×64 이고, 최대 심도가 제로와 동일하고 최대 변환 사이즈가 32×32 와 동일한 경우를 고려하자. 이 경우, CTU 는, 그렇지 않으면 허용되지 않는 64×64 TU 를 초래할 것이기 때문에, 적어도 한번 파티셔닝되어야 한다. RQT 파라미터들, 즉 최대 RQT 심도, 최소 및 최대 변환 사이즈가, 시퀀스 파라미터 세트 레벨에서 비트스트림으로 송신된다. RQT 심도에 관하여, 상이한 값들이 인트라 및 인터 코딩된 CU들에 대해 규정되고 시그널링될 수 있다.
쿼드트리 변환이 양쪽의 인트라 및 인터 잔차 블록들 양자에 대해 적용된다. 일반적으로, 동일한 사이즈의 현재의 잔차 쿼드트리 파티션의 DCT-II 변환이 잔차 블록에 대해 적용된다. 그러나, 현재의 잔차 쿼드트리 블록이 4x4 이고 인트라 예측에 의해 발생되면, 상기 4x4 DST-VII 변환이 적용된다.
HEVC 에서, 더 큰 사이즈 변환들, 예컨대, 64x64 변환들은, 상대적으로 더 작은 분해능 비디오들을 고려할 때 그들의 제한된 이점 및 상대적으로 높은 복잡성으로 인해 주로 채택되지 않는다.
도 10 은 계수 그룹들에 기초한 예시적인 계수 스캔을 예시하는 개념도이다. TU 사이즈에 관계없이, 변환 유닛의 잔차는 TU 의 4x4 블록의 계수들을 각각 포함하는 비-중첩된 계수 그룹들 (CG) 로 코딩된다. 예를 들어, 32x32 TU 는 총 64 개의 CG들을 가지며, 16x16 TU 는 총 16 개의 CG들을 갖는다. TU 내부의 CG들은 어떤 사전-정의된 스캔 순서에 따라서 코딩될 수도 있다. 각각의 CG 를 코딩할 때, 현재의 CG 내부의 계수들은 4x4 블록에 대해 어떤 사전-정의된 스캔 순서에 따라서 스캐닝되고 코딩된다. 도 10 은 4 개의 CG들을 포함하는 8x8 TU 에 대한 계수 스캔을 예시한다.
신택스 엘리먼트 테이블은 다음과 같이 정의된다:
7.3.8.11 잔차 코딩 신택스
Figure 112017118049612-pct00032
Figure 112017118049612-pct00033
각각의 칼라 성분에 대해, 현재의 TU 가 적어도 하나의 비-제로 계수를 가지는지 여부를 표시하기 위해 하나의 플래그가 먼저 시그널링될 수도 있다. 적어도 하나의 비-제로 계수가 존재하면, TU 에서 계수 스캔 순서에서 최종 유의 계수의 위치가 변환 유닛의 좌상부 모서리에 대한 좌표로 명시적으로 코딩된다. 좌표의 수직 또는 수평 성분은 그의 접두부 및 접미부로 표현되며, 여기서, 접두부는 트렁케이트된 Rice (TR) 로 2진화되며 접미부는 고정된 길이로 2진화된다.
의미들:
last_sig_coeff_x_prefix 는 변환 블록 내 스캐닝 순서에서 최종 유의 계수의 칼럼 위치의 접두부를 규정한다. last_sig_coeff_x_prefix 의 값은 0 내지 ( log2TrafoSize << 1 ) - 1 을 포함한, 범위 이내여야 한다.
last_sig_coeff_y_prefix 는 변환 블록 내 스캐닝 순서에서 최종 유의 계수의 로우 위치의 접두부를 규정한다. last_sig_coeff_y_prefix 의 값은 0 내지 ( log2TrafoSize << 1 ) - 1 을 포함한, 범위 이내여야 한다.
last_sig_coeff_x_suffix 는 변환 블록 내 스캐닝 순서에서 최종 유의 계수의 칼럼 위치의 접미부를 규정한다. last_sig_coeff_x_suffix 의 값들은 0 내지 ( 1 << ( ( last_sig_coeff_x_prefix >> 1 ) - 1 ) ) - 1 을 포함한 범위이어야 한다.
변환 블록 LastSignificantCoeffX 내에서 스캐닝 순서에서 최종 유의 계수의 칼럼 위치는 다음과 같이 유도된다:
- last_sig_coeff_x_suffix 가 존재하지 않으면, 다음이 적용된다:
LastSignificantCoeffX = last_sig_coeff_x_prefix
- 그렇지 않으면 (last_sig_coeff_x_suffix 가 존재하면), 다음이 적용된다:
LastSignificantCoeffX = ( 1 << ( (last_sig_coeff_x_prefix >> 1 ) - 1 ) ) * ( 2 + (last_sig_coeff_x_prefix & 1 ) ) + last_sig_coeff_x_suffix
last_sig_coeff_y_suffix 는 변환 블록 내 스캐닝 순서에서 최종 유의 계수의 로우 위치의 접미부를 규정한다. last_sig_coeff_y_suffix 의 값들은 0 내지 ( 1 << ( ( last_sig_coeff_y_prefix >> 1 ) - 1 ) ) - 1 을 포함한 범위이어야 한다.
변환 블록 LastSignificantCoeffY 내에서 스캐닝 순서에서 최종 유의 계수의 로우 위치는 다음과 같이 유도된다:
- last_sig_coeff_y_suffix 가 존재하지 않으면, 다음이 적용된다:
LastSignificantCoeffY = last_sig_coeff_y_prefix
- 그렇지 않으면 (last_sig_coeff_y_suffix 가 존재하면), 다음이 적용된다:
LastSignificantCoeffY = ( 1 << ( ( last_sig_coeff_y_prefix >> 1 ) - 1 ) ) * ( 2 + ( last_sig_coeff_y_prefix & 1 ) ) + last_sig_coeff_y_suffix
scanIdx 가 2 와 동일할 때, 좌표들은 다음과 같이 교환된다:
(LastSignificantCoeffX, LastSignificantCoeffY)=Swap( LastSignificantCoeffX, LastSignificantCoeffY )
CG들의 이러한 코딩된 위치 그리고 또한 계수 스캐닝 순서에 따라, 하나의 플래그가 비-제로 계수들을 포함하는지 여부를 표시하는 (스캐닝 순서에서) 최종 CG 를 제외한 CG들에 대해 추가로 시그널링된다.
CG 플래그의 컨텍스트 모델링. 하나의 CG 가 비-제로 계수들, 즉, CG 플래그 (HEVC 사양에서의 coded_sub_block_flag) 를 가지는지 여부를 코딩할 때, 이웃하는 CG들의 정보가 컨텍스트를 구축하는데 이용된다. 더 구체적으로는, CG 플래그를 코딩하기 위한 컨텍스트 선택은 다음과 같이 정의된다:
(우측 CG 가 이용가능하다 && 우측 CG 의 플래그가 1 과 동일하다) || (하부 CG 가 이용가능하다 && 하부 CG 의 플래그가 1 과 동일하다)
여기서, 우측 및 하부 CG 는 현재의 CG 에 인접한 2개의 이웃하는 CG들이다. 예를 들어, 도 10 에서, 좌상부 4x4 블록을 코딩할 때, 우측 CG 는 우상부 4x4 블록으로서 정의되며, 하부 CG 는 좌하부 4x4 블록으로서 정의된다.
크로마 및 루마가 컨텍스트들의 상이한 세트들을 이용하지만 동일한 규칙으로 그들 중 하나를 선택한다는 점에 유의한다.
컨텍스트 인덱스 증가분의 유도의 세부 사항들은 HEVC 의 9.3.4.2.4 에서 발견될 수 있다.
하나의 CG 내 변환 계수 코딩. 비-제로 계수들을 포함할 수도 있는 CG들에 대해, 유의한 플래그들 (significant_flag), (coeff_abs_level_greater1_flag, coeff_abs_level_greater2_flag 및 coeff_abs_level_remaining 를 포함한) 계수들의 절대값들 및 부호 정보 (coeff_sign_flag) 가 사전-정의된 4x4 계수 스캔 순서에 따라서 각각의 계수에 대해 추가로 코딩될 수도 있다. 변환 계수 레벨들의 코딩은 다수의 스캔 패스들로 분리된다.
1) 제 1 빈 코딩의 제 1 패스. 이 패스에서, 하나의 CG 내 각각의 위치에서 변환 계수들의 모든 제 1 빈들 (또는, 빈 인덱스 0, bin0) 은 특정의 변환 계수가 0 과 동일하다는 것이 유도될 수 있다는 것을 제외하고는 코딩된다.
변수 sigCtx 는 현재의 TU 의 좌상부 위치에 대한 현재의 로케이션, 칼라 성분 인덱스 cIdx, 변환 블록 사이즈, 및 신택스 엘리먼트 coded_sub_block_flag 의 이전에 디코딩된 빈들에 의존한다. 상이한 규칙들이 TU 사이즈에 의존하여 적용된다. 컨텍스트 인덱스 증가분의 선택의 예시적인 세부 사항들은 HEVC 의 9.3.4.2.5 에서 정의된다.
2) 제 2 빈 코딩의 제 2 패스. coeff_abs_level_greater1_flags 의 코딩이 이 패스에서 적용된다. 컨텍스트 모델링은 현재의 서브-블록 내, 칼라 성분 인덱스, 현재의 서브-블록 스캔 인덱스, 및 현재의 계수 스캔 인덱스에 의존한다. 컨텍스트 인덱스 증가분의 선택의 예시적인 세부 사항들은 HEVC 의 9.3.4.2.6 에서 정의된다.
3) 제 3 빈 코딩의 제 3 패스. coeff_abs_level_greater2_flags 의 코딩이 이 패스에서 적용된다. 컨텍스트 모델링은 coeff_abs_level_greater1_flags 에 의해 사용되는 것과 유사하다. 컨텍스트 인덱스 증가분의 선택의 예시적인 세부 사항들은 HEVC 의 9.3.4.2.7 에서 정의된다.
처리량을 향상시키기 위해, 제 2 패스 및 제 3 패스가 CG 에서의 모든 계수들을 프로세싱하지 않을 수도 있다는 점에 유의한다. CG 에서 처음 8개의 coeff_abs_level_greater1_flags 는 정규 모드에서 코딩된다. 그후, 값들이 바이패스 모드에서 제 5 패스에서 신택스 coeff_abs_level_remaining 에 의해 코딩되도록 남겨진다. 이와 유사하게, 1 보다 큰 크기를 가지는 CG 에서 제 1 계수에 대한 coeff_abs_level_greater2_flags 만이 코딩된다. CG 의 1 보다 더 큰 크기를 가지는 계수들의 나머지는 coeff_abs_level_remaining 을 이용하여 값을 코딩한다. 이 방법은 계수 레벨들에 대한 정규 빈들의 개수를 CG 당 최대 9개: coeff_abs_level_greater1_flags 에 대해 8 개 그리고 1 coeff_abs_level_greater2_flags 에 대해 1 개로 제한한다.
4) 부호 정보의 제 4 패스. HEVC 의 일부 예들에서, 각각의 비제로 계수의 부호가 제 4 스캔 패스에서 바이패스 모드에서 코딩된다. 각각의 CG 에 대해, 그리고 기준에 의존하여, (역방향 스캔 순서에서) 최종 비제로 계수의 인코딩 부호는 부호 데이터 은닉 (SDH) 을 이용할 때 간단히 생략된다. 대신, 부호 값은 미리 정의된 합의: 짝수는 "+" 에 대응하고 홀수는 "-" 에 대응한다를 이용하여 CG 의 레벨들의 총합의 패리티에 내장된다. SDH 를 이용하는 기준은 CG 의 제 1 비제로 계수와 최종 비제로 계수 사이의 스캔 순서에서의 거리이다. 이 거리가 4 보다 크거나 또는 동일하면, SDH 가 사용된다. 이 4 의 값은 HEVC 테스트 시퀀스들 상에서 가장 큰 이득을 제공하기 때문에 선택되었다.
5) 나머지 빈들의 최종 패스. 나머지 빈들은 추가적인 스캔 패스에서 코딩된다. 계수의 baseLevel 을 다음과 같이 정의하자:
baseLevel = significant_flag + coeff_abs_level_greater1_flag+ coeff_abs_level_greater2_flag
여기서, 플래그는 0 또는 1 의 값을 가지며 존재하지 않을 경우 0 으로 추론된다. 그 후, 계수의 절대값은 간단히 다음과 같다:
absCoeffLevel = baseLevel + coeff_abs_level_remaining.
Rice 파라미터는 각각의 CG 의 초기에 0 으로 설정되며 다음과 같이 파라미터의 이전 값 및 현재의 절대 레벨에 의존하여 조건부로 업데이트된다:
absCoeffLevel > 3 × 2m 이면, m= min(4,m + 1).
신택스 엘리먼트 coeff_abs_level_remaining 는 바이패스 모드에서 코딩될 수도 있다. 게다가, HEVC 의 일부 예들은 작은 값들에 대해 Golomb-Rice 코드들을 채용하고 더 큰 값들에 대해서는 Exp-Golomb 코드로 스위칭된다. 코드들 사이의 전이 지점은 일반적으로 1진 코드 길이가 4 와 동일할 때이다. 파라미터 업데이트 프로세스는 큰 값들이 분포에서 관찰될 때 2진화를 계수 통계치들에 적응시키는 것을 가능하게 한다.
inter_pred_idc 의 컨텍스트 모델링. inter_pred_idc 는 list0, list1, 또는 양방향-예측이 현재의 예측 유닛에 사용되는지 여부를 규정한다. 신택스 엘리먼트는 최대 2개의 빈들을 가지며, 이 양자는 CABAC 컨텍스트 코딩된다. 2진화된 빈 스트링은 다음과 같이 정의된다:
여기서, nPbW 및 nPbH 는 현재의 루마 예측 블록 폭 및 높이를 각각 나타낸다.
각각의 인터-코딩된 슬라이스, 예컨대, P 슬라이스 또는 B 슬라이스에 대해, 컨텍스트 선택은 다음 규칙에 기초한다:
- ( nPbW + nPbH ) 가 12 와 동일하지 않으면, 제 1 빈이 4개의 컨텍스트들 을 이용하여 코딩되며 제 2 빈이 하나의 컨텍스트로 코딩된다. 제 1 빈 의 컨텍스트 선택은 현재의 CU 심도에 따른다. HEVC 에서, CU 심도는 0 내지 3 을 포함한 범위이다.
도 11 은 본 개시물의 하나 이상의 기법들에 따른, 상이한 윈도우 사이즈들로 컨텍스트-기반의 엔트로피 인코딩을 수행하는 예시적인 프로세스를 예시하는 플로우차트이다. 도 11 의 기법들은 도 1 및 도 4 에 예시된 비디오 인코더 (20) 와 같은 비디오 인코더에 의해 수행될 수도 있다. 예시의 목적을 위해, 도 11 의 기법들은 도 1 및 도 4 의 비디오 인코더 (20) 의 상황 내에서 설명되지만, 비디오 인코더 (20) 의 구성들과는 상이한 구성들을 갖는 비디오 인코더들은 도 11 의 기법들을 수행할 수도 있다.
비디오 인코더 (20) 는 컨텍스트-기반 엔트로피 코딩 (예컨대, CABAC) 을 이용하여 인코딩될 빈 스트링 (예컨대, 1차원 2진 벡터) 을 획득할 수도 있다 (1102). 예를 들어, 비디오 인코더 (20) 의 엔트로피 인코딩 유닛 (56) 은 비디오 인코더 (20) 의 예측 프로세싱 유닛 (42) 으로부터 수신된 신택스 엘리먼트를 2진화함으로써 빈 스트링을 획득할 수도 있다.
본 개시의 하나 이상의 기법들에 따라서, 비디오 인코더 (20) 는 복수의 컨텍스트들의 컨텍스트에 대해 사전-정의된 초기화 값들을 획득할 수도 있다 (1104). 실례로, 비디오 인코더 (20) 의 엔트로피 인코딩 유닛 (56) 은 N-비트 정밀도를 갖는 스토리지로부터 사전-정의된 초기화 값을 획득할 수도 있다.
비디오 인코더 (20) 는, 사전-정의된 초기화 값에 기초하여, 비디오 데이터의 슬라이스에 대한 컨텍스트의 초기 확률 상태를 결정할 수도 있다 (1106). 일부 예들에서, 비디오 인코더 (20) 는 초기 확률 상태를 결정하기 위해 룩-업 테이블을 사용할 수도 있다. 실례로, 엔트로피 인코딩 유닛 (56) 은, 사전-정의된 초기화 값에 기초하여, 슬로프 값 및 오프셋 값을 결정할 수도 있다. 엔트로피 인코딩 유닛 (56) 은 그 슬로프 값, 오프셋 값, 및 비디오 데이터의 슬라이스의 양자화 파라미터에 기초하여 중간 값을 결정할 수도 있다. 엔트로피 인코딩 유닛 (56) 은, 룩-업 테이블을 이용하여, 중간 값을 초기 확률 상태에 대해 맵핑할 수도 있다. 일부 예들에서, 컨텍스트에 대한 가능한 확률 상태들의 수는 2 의 N 승보다 더 크다 (즉 2N 보다 더 크다).
비디오 인코더 (20) 는, 비디오 비트스트림에서 그리고 컨텍스트의 초기 확률 상태에 기초하여, 빈 스트링의 빈을 인코딩할 수도 있다 (1108). 실례로, 엔트로피 인코딩 유닛 (56) 은 컨텍스트의 최종 코딩된 확률 간격 내 확률에 대한 값 또는 포인터를 나타내는 2진 스트림을 출력할 수도 있다.
도 12 는 본 개시물의 하나 이상의 기법들에 따른, 상이한 윈도우 사이즈들로 컨텍스트-기반의 엔트로피 디코딩을 수행하는 예시적인 프로세스를 예시하는 플로우차트이다. 도 12 의 기법들은 도 1 및 도 6 에 예시된 비디오 디코더 (30) 와 같은, 비디오 디코더에 의해 수행될 수도 있다. 예시의 목적을 위해, 도 12 의 기법들은 도 1 및 도 6 의 비디오 디코더 (30) 의 상황 내에서 설명되지만, 비디오 디코더 (30) 의 구성들과는 상이한 구성들을 가지는 비디오 디코더들은 도 12 의 기법들을 수행할 수도 있다.
비디오 디코더 (30) 는 비디오 비트스트림으로부터, 컨텍스트-기반 엔트로피 코딩을 이용하여 디코딩될 빈 스트링 (예컨대, 1차원 2진 벡터) 을 획득할 수도 있다 (1202). 예를 들어, 비디오 디코더 (30) 의 엔트로피 디코딩 유닛 (70) 은 비디오 데이터 메모리 (69) 로부터, 빈 스트링을 획득할 수도 있다. 일부 예들에서, 빈 스트링은 컨텍스트의 마지막 코딩된 확률 간격 내에서의 확률에 대한 포인터 또는 값을 나타낼 수도 있다. 일부 예들에서, 컨텍스트-기반 엔트로피 코딩은 컨텍스트-적응 2진 산술 코딩 (CABAC) 을 포함할 수도 있다.
본 개시물의 하나 이상의 기법들에 따르면, 비디오 디코더 (30) 는 복수의 컨텍스트들의 컨텍스트에 대해 사전-정의된 초기화 값들을 획득할 수도 있다 (1204). 실례로, 비디오 디코더 (30) 의 엔트로피 디코딩 유닛 (70) 은 N-비트 정밀도를 갖는 스토리지로부터 사전-정의된 초기화 값을 획득할 수도 있다.
비디오 디코더 (30) 는, 사전-정의된 초기화 값에 기초하여, 비디오 데이터의 슬라이스에 대한 컨텍스트의 초기 확률 상태를 결정할 수도 있다 (1206). 일부 예들에서, 비디오 디코더 (30) 는 초기 확률 상태를 결정하기 위해 룩-업 테이블을 사용할 수도 있다. 실례로, 엔트로피 디코딩 유닛 (70) 은, 사전-정의된 초기화 값에 기초하여, 슬로프 값 및 오프셋 값을 결정할 수도 있다. 엔트로피 디코딩 유닛 (70) 은 그 슬로프 값, 오프셋 값, 및 비디오 데이터의 슬라이스의 양자화 파라미터에 기초하여 중간 값을 결정할 수도 있다. 엔트로피 디코딩 유닛 (70) 은, 룩-업 테이블을 이용하여, 중간 값을 초기 확률 상태에 대해 맵핑할 수도 있다. 일부 예들에서, 컨텍스트에 대한 가능한 확률 상태들의 수는 2 의 N 승보다 더 크다 (즉 2N 보다 더 크다).
비디오 디코더 (30) 는, 컨텍스트의 초기 확률 상태에 기초하여, 빈 스트링의 빈을 디코딩할 수도 있다 (1208). 비디오 디코더 (30) 는, 디코딩된 빈 및 컨텍스트의 초기 확률 상태에 기초하여, 컨텍스트의 업데이트된 확률 상태를 결정할 수도 있다. 비디오 디코더 (30) 는, 컨텍스트의 업데이트된 확률 상태에 기초하여, 또 다른 빈을 디코딩할 수도 있다 (1206).
다음의 번호매겨진 예들은 본 개시의 하나 이상의 양태들을 예시할 수도 있다:
예 1. 비디오 데이터를 엔트로피 코딩하는 방법으로서, 이 방법은, 비디오 데이터의 슬라이스에서 신택스 엘리먼트에 대한 값을 엔트로피 코딩하기 위해 컨텍스트-적응 엔트로피 코딩 프로세스에서 사용되는 복수의 컨텍스트들 중의 컨텍스트에 대해 사전-정의된 초기화 값을 획득하는 단계로서, 사전-정의된 초기화 값은 N-비트 정밀도로 저장되는, 상기 사전-정의된 초기화 값을 획득하는 단계; 사전-정의된 초기화 값에 기초하여, 비디오 데이터의 슬라이스에 대한 컨텍스트의 초기 확률 상태를 결정하는 단계로서, 컨텍스트에 대한 가능한 확률 상태들의 수는 2 의 N 승보다 더 큰, 상기 초기 확률 상태를 결정하는 단계; 및 컨텍스트의 초기 확률 상태에 기초하여, 신택스 엘리먼트에 대한 값의 빈을 엔트로피 코딩하는 단계를 포함한다.
예 2. 예 1 의 방법이, 사전-정의된 초기화 값에 기초하여, 슬로프 값 및 오프셋 값을 결정하는 단계를 더 포함하고, 여기서, 초기 확률 상태를 결정하는 단계는, 슬로프 값, 오프셋 값, 및 비디오 데이터의 슬라이스의 양자화 파라미터에 기초하여 중간 값을 결정하는 단계; 및, 룩-업 테이블을 이용하여, 중간 값을 초기 확률 상태에 대해 맵핑하는 단계를 포함한다.
예 3. 예 2 의 방법에 있어서, 룩-업 테이블은 2 의 N 승 이하인 엔트리들의 수를 포함한다.
예 4. 예 3 의 방법에 있어서, 엔트리들의 수는 중간 값의 가능한 값들의 수와 동일하다.
예 5. 예들 1-4 의 임의의 조합의 방법에 있어서, 컨텍스트의 초기 확률 상태를 결정하는 단계는, 룩-업 테이블을 이용하여 컨텍스트의 초기 확률 상태를 결정하는 단계를 포함하고, 룩-업 테이블에서의 값들은 다음의 식에 따라서 결정된다:
MappedProb[i]=Ceil(2^M*prob[i]+offset), 여기서, MappedProb[i] 는 룩-업 테이블에서의 i 번째 값이고, prob[i] 는 하나의 심볼의 가능한 확률들의 세트를 나타내는 테이블에서의 i 번째 값을 나타내며, 2 의 M 승은 컨텍스트에 대한 가능한 확률 상태들의 수를 나타내고, Ceil(x) 는 x 이상인 최소 정수를 표시하는 함수이다.
예 6. 예들 1-5 의 임의의 조합의 방법에 있어서, prob[i] 는 1 심볼의 i 번째 가능한 확률을 나타낸다.
예 7. 예들 1-6 의 임의의 조합의 방법에 있어서, 컨텍스트에 대한 가능한 확률 상태들의 수는 2 의 N 승 이상이다.
예 8. 예들 1-6 의 임의의 조합의 방법에 있어서, N 은 8 이고, 컨텍스트에 대한 가능한 확률 상태들의 수는 2 의 15 승이다.
예 9. 예들 1-8 의 임의의 조합의 방법에 있어서, 오프셋은 0.5 또는 0 과 동일하다.
예 10. 예들 1-9 의 임의의 조합의 방법은, 사전-정의된 초기화 값에 기초하여, 슬로프 값 및 오프셋 값을 결정하는 단계를 더 포함하고, 초기 확률 상태를 결정하는 단계는, 슬로프 값, 오프셋 값, 및 비디오 데이터의 슬라이스의 양자화 파라미터에 기초하여 중간 값을 결정하는 단계; 및 중간 값들과 초기 확률 상태들 사이의 맵핑 함수를 이용하여, 중간 값에 기초하여 초기 확률 상태를 결정하는 단계를 포함한다.
예 11. 예들 1-10 의 임의의 조합의 방법에 있어서, 엔트로피 코딩하는 단계는 빈을 엔트로피 인코딩하는 단계를 포함한다.
예 12. 예들 1-10 의 임의의 조합의 방법에 있어서, 엔트로피 코딩하는 단계는 빈을 엔트로피 디코딩하는 단계를 포함한다.
예 13. 예들 1-12 의 임의의 조합의 방법에 있어서, 컨텍스트-적응 엔트로피 코딩 프로세스는 컨텍스트-적응 2진 산술 코딩 (CABAC) 프로세스, 또는 컨텍스트-적응 가변 길이 코딩 (CAVLC) 프로세스를 포함한다.
예 14. 비디오 데이터의 엔트로피 코딩을 위한 장치로서, 상기 장치는, 신택스 엘리먼트에 대한 값을 엔트로피 코딩하기 위해 컨텍스트-적응 엔트로피 코딩 프로세스에서 사용되는 복수의 컨텍스트들을 저장하도록 구성된 메모리; 및 예들 1-13 의 임의의 조합의 방법을 수행하도록 구성된 하나 이상의 프로세서들을 포함한다.
예 15. 예 14 의 장치에 있어서, 상기 장치는 집적 회로; 마이크로프로세서; 또는 무선 통신 디바이스 중 적어도 하나를 포함한다.
예 16. 예들 14-15 의 임의의 조합의 장치는, 디코딩된 비디오 데이터를 디스플레이하도록 구성된 디스플레이를 더 포함한다.
예 17. 예들 14-16 의 임의의 조합의 장치는, 비디오 데이터를 캡쳐하도록 구성된 카메라를 더 포함한다.
예 18. 비디오 데이터의 엔트로피 코딩을 위한 장치로서, 상기 장치는, 예들 1-13 의 임의의 조합의 방법을 수행하는 수단을 포함한다.
예 19. 명령들을 저장하는 컴퓨터-판독가능 저장 매체로서, 상기 명령들은 실행될 때, 비디오 코딩 디바이스의 하나 이상의 프로세서들로 하여금, 예들 1-13 의 임의의 조합의 방법을 수행하게 한다.
하나 이상의 예들에서, 설명된 기능들은 하드웨어, 소프트웨어, 펌웨어, 또는 이들의 임의의 조합으로 구현될 수도 있다. 소프트웨어로 구현되는 경우, 그 기능들은 하나 이상의 명령들 또는 코드로서, 컴퓨터-판독가능 매체 상에 저장되거나 또는 컴퓨터-판독가능 매체를 통해서 송신될 수도 있으며, 하드웨어-기반의 프로세싱 유닛에 의해 실행될 수도 있다. 컴퓨터-판독가능 매체는 데이터 저장 매체들과 같은 유형의 매체에 대응하는 컴퓨터-판독가능 저장 매체들, 또는 예를 들어, 통신 프로토콜에 따라서 한 장소로부터 다른 장소로의 컴퓨터 프로그램의 전송을 용이하게 하는 임의의 매체를 포함하는 통신 매체들을 포함할 수도 있다. 이런 방법으로, 컴퓨터-판독가능 매체들은 일반적으로 (1) 비일시성 유형의 컴퓨터-판독가능 저장 매체, 또는 (2) 신호 또는 캐리어 파와 같은 통신 매체에 대응할 수도 있다. 데이터 저장 매체는 본 개시물에서 설명하는 기법들의 구현을 위한 명령들, 코드 및/또는 데이터 구조들을 취출하기 위해 하나 이상의 컴퓨터들 또는 하나 이상의 프로세서들에 의해 액세스될 수 있는 임의의 가용 매체들일 수도 있다. 컴퓨터 프로그램 제품은 컴퓨터-판독가능 매체를 포함할 수도 있다.
일 예로서, 이에 한정하지 않고, 이런 컴퓨터-판독가능 저장 매체는 RAM, ROM, EEPROM, CD-ROM 또는 다른 광디스크 스토리지, 자기디스크 스토리지, 또는 다른 자기 저장 디바이스들, 플래시 메모리, 또는 원하는 프로그램 코드를 명령들 또는 데이터 구조들의 형태로 저장하는데 사용될 수 있고 컴퓨터에 의해 액세스될 수 있는 임의의 다른 매체를 포함할 수 있다. 또한, 임의의 접속이 컴퓨터-판독가능 매체로 적절히 지칭된다. 예를 들어, 동축 케이블, 광섬유 케이블, 연선, 디지털 가입자 회선 (DSL), 또는 무선 기술들, 예컨대 적외선, 라디오, 및 마이크로파를 이용하여 명령들이 웹사이트, 서버, 또는 다른 원격 소스로부터 송신되는 경우, 동축 케이블, 광섬유 케이블, 연선, DSL, 또는 무선 기술들 예컨대 적외선, 라디오, 및 마이크로파가 그 매체의 정의에 포함된다. 그러나, 컴퓨터-판독가능 저장 매체 및 데이터 저장 매체는 접속부들, 반송파들, 신호들, 또는 다른 일시성 매체를 포함하지 않고, 그 대신, 비-일시성 유형의 저장 매체로 송신되는 것으로 해석되어야 한다. 디스크 (disk) 및 디스크 (disc) 는, 본원에서 사용할 때, 컴팩트 디스크 (CD), 레이저 디스크, 광 디스크, 디지털 다기능 디스크 (DVD), 플로피 디스크 및 블루-레이 디스크를 포함하며, 디스크들 (disks) 은 데이터를 자기적으로 보통 재생하지만, 디스크들 (discs) 은 레이저로 데이터를 광학적으로 재생한다. 앞에서 언급한 것들의 결합들이 또한 컴퓨터-판독가능 매체들의 범위 내에 포함되어야 한다.
명령들은 하나 이상의 디지털 신호 프로세서들 (DSPs), 범용 마이크로프로세서들, 주문형 집적회로들 (ASICs), 필드 프로그래밍가능 로직 어레이들 (FPGA들), 또는 다른 등가의 집적 또는 이산 로직 회로와 같은, 하나 이상의 프로세서들에 의해 실행될 수도 있다. 따라서, 용어 "프로세서" 는, 본원에서 사용될 때 전술한 구조 중 임의의 구조 또는 본원에서 설명하는 기법들의 구현에 적합한 임의의 다른 구조를 지칭할 수도 있다. 게다가, 일부 양태들에서, 본원에서 설명하는 기능은 전용 하드웨어 및/또는 인코딩 및 디코딩을 위해 구성되는 소프트웨어 모듈들 내에 제공되거나, 또는 결합된 코덱에 포함될 수도 있다. 또한, 이 기법들은 하나 이상의 회로들 또는 로직 엘리먼트들로 전적으로 구현될 수 있다.
본 개시물의 기법들은 무선 핸드셋, 집적 회로 (IC) 또는 IC들의 세트 (예컨대, 칩 세트) 를 포함한, 매우 다양한 디바이스들 또는 장치들로 구현될 수도 있다. 개시한 기법들을 수행하도록 구성되는 디바이스들의 기능적 양태들을 강조하기 위해서 여러 컴포넌트들, 모듈들, 또는 유닛들이 본 개시물에서 설명되지만, 상이한 하드웨어 유닛들에 의한 실현을 반드시 필요로 하지는 않는다. 대신, 위에서 설명한 바와 같이, 여러 유닛들이 코덱 하드웨어 유닛에 결합되거나 또는 적합한 소프트웨어 및/또는 펌웨어와 함께, 위에서 설명한 바와 같은 하나 이상의 프로세서들을 포함한, 상호작용하는 하드웨어 유닛들의 컬렉션으로 제공될 수도 있다.
여러 예들이 설명되었다. 이들 및 다른 예들은 다음 청구항들의 범위 이내이다.

Claims (32)

  1. 비디오 데이터를 엔트로피 코딩하는 방법으로서,
    상기 비디오 데이터의 슬라이스에서 신택스 엘리먼트에 대한 값을 엔트로피 코딩하기 위해 컨텍스트-적응 엔트로피 코딩 프로세스에서 사용되는 복수의 컨텍스트들 중의 컨텍스트에 대해 사전-정의된 초기화 값을 획득하는 단계로서, 상기 사전-정의된 초기화 값은 N-비트 정밀도로 저장되는, 상기 사전-정의된 초기화 값을 획득하는 단계;
    상기 사전-정의된 초기화 값에 기초하여 그리고 룩-업 테이블을 이용하여, 상기 비디오 데이터의 상기 슬라이스에 대한 상기 컨텍스트의 초기 확률 상태를 결정하는 단계로서, 상기 컨텍스트에 대한 가능한 확률 상태들의 수는 2 의 N 승보다 더 크고, 상기 룩-업 테이블에서의 i 번째 값은:
    2 를 상기 컨텍스트에 대한 가능한 확률 상태들의 수로 제곱승한 것과, 하나의 심볼의 가능한 확률들의 세트를 나타내는 테이블에서의 i 번째 값의 곱; 및
    오프셋 값
    의 합을 나타내는 정수인, 상기 초기 확률 상태를 결정하는 단계; 및
    상기 컨텍스트의 상기 초기 확률 상태에 기초하여, 상기 신택스 엘리먼트에 대한 상기 값의 빈을 엔트로피 코딩하는 단계를 포함하는, 비디오 데이터를 엔트로피 코딩하는 방법.
  2. 제 1 항에 있어서,
    상기 오프셋 값은 제 1 오프셋 값이고,
    상기 방법은,
    상기 사전-정의된 초기화 값에 기초하여, 슬로프 값 및 제 2 오프셋 값을 결정하는 단계를 더 포함하고,
    상기 초기 확률 상태를 결정하는 단계는,
    상기 슬로프 값, 상기 제 2 오프셋 값, 및 상기 비디오 데이터의 상기 슬라이스의 양자화 파라미터에 기초하여 중간 값을 결정하는 단계; 및
    상기 룩-업 테이블을 이용하여, 상기 중간 값을 상기 초기 확률 상태에 대해 맵핑하는 단계를 포함하는, 비디오 데이터를 엔트로피 코딩하는 방법.
  3. 제 2 항에 있어서,
    상기 룩-업 테이블은 2 의 N 승 이하인 엔트리들의 수를 포함하는, 비디오 데이터를 엔트로피 코딩하는 방법.
  4. 제 3 항에 있어서,
    상기 엔트리들의 수는 상기 중간 값의 가능한 값들의 수와 동일한, 비디오 데이터를 엔트로피 코딩하는 방법.
  5. 제 1 항에 있어서,
    상기 룩-업 테이블에서의 값들은 식:

    에 따라서 정의되고, 여기서, MappedProb[i] 는 상기 룩-업 테이블에서의 i 번째 값이고, prob[i] 는 하나의 심볼의 가능한 확률들의 세트를 나타내는 상기 테이블에서의 i 번째 값을 나타내며, 2 의 M 승은 상기 컨텍스트에 대한 가능한 확률 상태들의 수를 나타내고, 은 상기 오프셋 값이며, Ceil(x) 는 x 이상인 최소 정수를 표시하는 함수인, 비디오 데이터를 엔트로피 코딩하는 방법.
  6. 제 5 항에 있어서,
    prob[i] 는 1 심볼의 i 번째 가능한 확률을 나타내는, 비디오 데이터를 엔트로피 코딩하는 방법.
  7. 제 5 항에 있어서,
    상기 컨텍스트에 대한 상기 가능한 확률 상태들의 수는 2 의 N 승 이상인, 비디오 데이터를 엔트로피 코딩하는 방법.
  8. 제 5 항에 있어서,
    N 은 8 이고, 상기 컨텍스트에 대한 상기 가능한 확률 상태들의 수는 2 의 15 승인, 비디오 데이터를 엔트로피 코딩하는 방법.
  9. 제 1 항에 있어서,
    상기 오프셋 값은 0.5 또는 0 과 동일한, 비디오 데이터를 엔트로피 코딩하는 방법.
  10. 삭제
  11. 제 1 항에 있어서,
    상기 엔트로피 코딩하는 단계는 상기 빈을 엔트로피 인코딩하는 단계를 포함하는, 비디오 데이터를 엔트로피 코딩하는 방법.
  12. 제 1 항에 있어서,
    상기 엔트로피 코딩하는 단계는 상기 빈을 엔트로피 디코딩하는 단계를 포함하는, 비디오 데이터를 엔트로피 코딩하는 방법.
  13. 제 1 항에 있어서,
    상기 컨텍스트-적응 엔트로피 코딩 프로세스는 컨텍스트-적응 2진 산술 코딩 (CABAC) 프로세스, 또는 컨텍스트-적응 가변 길이 코딩 (CAVLC) 프로세스를 포함하는, 비디오 데이터를 엔트로피 코딩하는 방법.
  14. 비디오 데이터의 엔트로피 코딩을 위한 장치로서,
    상기 장치는,
    상기 비디오 데이터의 슬라이스에서 신택스 엘리먼트에 대한 값을 엔트로피 코딩하기 위해 컨텍스트-적응 엔트로피 코딩 프로세스에서 사용되는 복수의 컨텍스트들을 저장하도록 구성된 메모리; 및
    하나 이상의 프로세서들을 포함하고,
    상기 하나 이상의 프로세서들은,
    상기 복수의 컨텍스트들 중의 컨텍스트에 대해 사전-정의된 초기화 값을 획득하는 것으로서, 상기 사전-정의된 초기화 값은 N-비트 정밀도로 저장되는, 상기 사전-정의된 초기화 값을 획득하는 것을 행하고;
    상기 사전-정의된 초기화 값에 기초하여 그리고 룩-업 테이블을 이용하여, 상기 비디오 데이터의 상기 슬라이스에 대한 상기 컨텍스트의 초기 확률 상태를 결정하는 것으로서, 상기 컨텍스트에 대한 가능한 확률 상태들의 수는 2 의 N 승보다 더 크고, 상기 룩-업 테이블에서의 i 번째 값은:
    2 를 상기 컨텍스트에 대한 가능한 확률 상태들의 수로 제곱승한 것과, 하나의 심볼의 가능한 확률들의 세트를 나타내는 테이블에서의 i 번째 값의 곱; 및
    오프셋 값
    의 합을 나타내는 정수인, 상기 초기 확률 상태를 결정하는 것을 행하며; 그리고
    상기 컨텍스트의 상기 초기 확률 상태에 기초하여, 상기 신택스 엘리먼트에 대한 상기 값의 빈을 엔트로피 코딩하도록 구성되는, 비디오 데이터의 엔트로피 코딩을 위한 장치.
  15. 제 14 항에 있어서,
    상기 오프셋 값은 제 1 오프셋 값이고,
    상기 하나 이상의 프로세서들은, 상기 사전-정의된 초기화 값에 기초하여, 슬로프 값 및 제 2 오프셋 값을 결정하도록 더 구성되고,
    상기 초기 확률 상태를 결정하기 위해, 상기 하나 이상의 프로세서들은,
    상기 슬로프 값, 상기 제 2 오프셋 값, 및 상기 비디오 데이터의 상기 슬라이스의 양자화 파라미터에 기초하여 중간 값을 결정하고; 그리고
    상기 룩-업 테이블을 이용하여, 상기 중간 값을 상기 초기 확률 상태에 대해 맵핑하도록 구성되는, 비디오 데이터의 엔트로피 코딩을 위한 장치.
  16. 제 15 항에 있어서,
    상기 룩-업 테이블은 2 의 N 승 이하인 엔트리들의 수를 포함하는, 비디오 데이터의 엔트로피 코딩을 위한 장치.
  17. 제 16 항에 있어서,
    상기 엔트리들의 수는 상기 중간 값의 가능한 값들의 수와 동일한, 비디오 데이터의 엔트로피 코딩을 위한 장치.
  18. 제 14 항에 있어서,
    상기 룩-업 테이블에서의 값들은 식:

    에 따라서 정의되고, 여기서, MappedProb[i] 는 상기 룩-업 테이블에서의 i 번째 값이고, prob[i] 는 하나의 심볼의 가능한 확률들의 세트를 나타내는 상기 테이블에서의 i 번째 값을 나타내며, 2 의 M 승은 상기 컨텍스트에 대한 가능한 확률 상태들의 수를 나타내고, 은 상기 오프셋 값이며, Ceil(x) 는 x 이상인 최소 정수를 표시하는 함수인, 비디오 데이터의 엔트로피 코딩을 위한 장치.
  19. 제 18 항에 있어서,
    prob[i] 는 1 심볼의 i 번째 가능한 확률을 나타내는, 비디오 데이터의 엔트로피 코딩을 위한 장치.
  20. 제 18 항에 있어서,
    상기 컨텍스트에 대한 상기 가능한 확률 상태들의 수는 2 의 N 승 이상인, 비디오 데이터의 엔트로피 코딩을 위한 장치.
  21. 제 18 항에 있어서,
    N 은 8 이고, 상기 컨텍스트에 대한 상기 가능한 확률 상태들의 수는 2 의 15 승인, 비디오 데이터의 엔트로피 코딩을 위한 장치.
  22. 제 14 항에 있어서,
    상기 오프셋 값은 0.5 또는 0 과 동일한, 비디오 데이터의 엔트로피 코딩을 위한 장치.
  23. 삭제
  24. 제 14 항에 있어서,
    엔트로피 코딩하기 위해, 상기 하나 이상의 프로세서들은, 상기 빈을 엔트로피 인코딩하도록 구성되는, 비디오 데이터의 엔트로피 코딩을 위한 장치.
  25. 제 14 항에 있어서,
    엔트로피 코딩하기 위해, 상기 하나 이상의 프로세서들은, 상기 빈을 엔트로피 디코딩하도록 구성되는, 비디오 데이터의 엔트로피 코딩을 위한 장치.
  26. 제 14 항에 있어서,
    상기 컨텍스트-적응 엔트로피 코딩 프로세스는 컨텍스트-적응 2진 산술 코딩 (CABAC) 프로세스, 또는 컨텍스트-적응 가변 길이 코딩 (CAVLC) 프로세스를 포함하는, 비디오 데이터의 엔트로피 코딩을 위한 장치.
  27. 제 14 항에 있어서,
    상기 장치는,
    집적 회로;
    마이크로프로세서; 또는
    무선 통신 디바이스
    중 적어도 하나를 포함하는, 비디오 데이터의 엔트로피 코딩을 위한 장치.
  28. 제 27 항에 있어서,
    디코딩된 비디오 데이터를 디스플레이하도록 구성된 디스플레이를 더 포함하는, 비디오 데이터의 엔트로피 코딩을 위한 장치.
  29. 제 27 항에 있어서,
    상기 비디오 데이터를 캡쳐하도록 구성된 카메라를 더 포함하는, 비디오 데이터의 엔트로피 코딩을 위한 장치.
  30. 비디오 데이터의 엔트로피 코딩을 위한 장치로서,
    상기 비디오 데이터의 슬라이스에서 신택스 엘리먼트에 대한 값을 엔트로피 코딩하기 위해 컨텍스트-적응 엔트로피 코딩 프로세스에서 사용되는 복수의 컨텍스트들 중의 컨텍스트에 대해 사전-정의된 초기화 값을 획득하는 수단으로서, 상기 사전-정의된 초기화 값은 N-비트 정밀도로 저장되는, 상기 사전-정의된 초기화 값을 획득하는 수단;
    상기 사전-정의된 초기화 값에 기초하여 그리고 룩-업 테이블을 이용하여, 상기 비디오 데이터의 상기 슬라이스에 대한 상기 컨텍스트의 초기 확률 상태를 결정하는 수단으로서, 상기 컨텍스트에 대한 가능한 확률 상태들의 수는 2 의 N 승보다 더 크고, 상기 룩-업 테이블에서의 i 번째 값은:
    2 를 상기 컨텍스트에 대한 가능한 확률 상태들의 수로 제곱승한 것과, 하나의 심볼의 가능한 확률들의 세트를 나타내는 테이블에서의 i 번째 값의 곱; 및
    오프셋 값
    의 합을 나타내는 정수인, 상기 초기 확률 상태를 결정하는 수단; 및
    상기 컨텍스트의 상기 초기 확률 상태에 기초하여, 상기 신택스 엘리먼트에 대한 상기 값의 빈을 엔트로피 코딩하는 수단을 포함하는, 비디오 데이터의 엔트로피 코딩을 위한 장치.
  31. 명령들을 저장한 컴퓨터 판독가능 저장 매체로서,
    상기 명령들은, 실행될 때, 비디오 데이터의 엔트로피 코딩을 위한 비디오 코딩 디바이스의 하나 이상의 프로세서들로 하여금,
    상기 비디오 데이터의 슬라이스에서 신택스 엘리먼트에 대한 값을 엔트로피 코딩하기 위해 컨텍스트-적응 2진 산술 코딩 (CABAC) 프로세스에서 사용되는 복수의 컨텍스트들 중의 컨텍스트에 대해 사전-정의된 초기화 값을 획득하는 것으로서, 상기 사전-정의된 초기화 값은 N-비트 정밀도로 저장되는, 상기 사전-정의된 초기화 값을 획득하는 것을 행하게 하고;
    상기 사전-정의된 초기화 값에 기초하여 그리고 룩-업 테이블을 이용하여, 상기 비디오 데이터의 상기 슬라이스에 대한 상기 컨텍스트의 초기 확률 상태를 결정하는 것으로서, 상기 컨텍스트에 대한 가능한 확률 상태들의 수는 2 의 N 승보다 더 크고, 상기 룩-업 테이블에서의 i 번째 값은:
    2 를 상기 컨텍스트에 대한 가능한 확률 상태들의 수로 제곱승한 것과, 하나의 심볼의 가능한 확률들의 세트를 나타내는 테이블에서의 i 번째 값의 곱; 및
    오프셋 값
    의 합을 나타내는 정수인, 상기 초기 확률 상태를 결정하는 것을 행하게 하며; 그리고
    상기 컨텍스트의 상기 초기 확률 상태에 기초하여, 상기 신택스 엘리먼트에 대한 상기 값의 빈을 엔트로피 코딩하게 하는, 컴퓨터 판독가능 저장 매체.
  32. 제 1 항에 있어서,
    상기 룩-업 테이블은,
    m_MappedProb[128] =
    {
    614, 647, 681, 718, 756, 797, 839, 884, 932, 982, 1034, 1089, 1148, 1209, 1274, 1342, 1414, 1490, 1569, 1653, 1742, 1835, 1933, 2037, 2146, 2261, 2382, 2509, 2643, 2785, 2934, 3091, 3256, 3430, 3614, 3807, 4011, 4225, 4452, 4690, 4941, 5205, 5483, 5777, 6086, 6412, 6755, 7116, 7497, 7898, 8320, 8766, 9235, 9729, 10249, 10798, 11375, 11984, 12625, 13300, 14012, 14762, 15551, 16384, 16384, 17216, 18005, 18755, 19467, 20142, 20783, 21392, 21969, 22518, 23038, 23532, 24001, 24447, 24869, 25270, 25651, 26012, 26355, 26681, 26990, 27284, 27562, 27826, 28077, 28315, 28542, 28756, 28960, 29153, 29337, 29511, 29676, 29833, 29982, 30124, 30258, 30385, 30506, 30621, 30730, 30834, 30932, 31025, 31114, 31198, 31277, 31353, 31425, 31493, 31558, 31619, 31678, 31733, 31785, 31835, 31883, 31928, 31970, 32011, 32049, 32086, 32120, 32153,
    }
    를 포함하는, 비디오 데이터를 엔트로피 코딩하는 방법.
KR1020177034288A 2015-05-29 2016-05-27 진보된 산술 코더 KR102639864B1 (ko)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201562168503P 2015-05-29 2015-05-29
US62/168,503 2015-05-29
US15/166,068 2016-05-26
US15/166,068 US10368072B2 (en) 2015-05-29 2016-05-26 Advanced arithmetic coder
PCT/US2016/034695 WO2016196307A1 (en) 2015-05-29 2016-05-27 Advanced arithmetic coder

Publications (2)

Publication Number Publication Date
KR20180013928A KR20180013928A (ko) 2018-02-07
KR102639864B1 true KR102639864B1 (ko) 2024-02-22

Family

ID=57399365

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020177034287A KR20180013927A (ko) 2015-05-29 2016-05-27 진보된 산술 코더
KR1020177034288A KR102639864B1 (ko) 2015-05-29 2016-05-27 진보된 산술 코더

Family Applications Before (1)

Application Number Title Priority Date Filing Date
KR1020177034287A KR20180013927A (ko) 2015-05-29 2016-05-27 진보된 산술 코더

Country Status (9)

Country Link
US (2) US10368072B2 (ko)
EP (2) EP3304910A1 (ko)
JP (2) JP6728240B2 (ko)
KR (2) KR20180013927A (ko)
CN (2) CN107667533B (ko)
AU (2) AU2016270634B2 (ko)
BR (2) BR112017025605A2 (ko)
TW (2) TW201705760A (ko)
WO (2) WO2016196287A1 (ko)

Families Citing this family (67)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
PL2768145T3 (pl) 2011-01-14 2016-07-29 Ge Video Compression Llc Schemat kodowania i dekodowania entropijnego
FR2982447A1 (fr) 2011-11-07 2013-05-10 France Telecom Procede de codage et decodage d'images, dispositif de codage et decodage et programmes d'ordinateur correspondants
FR2982446A1 (fr) * 2011-11-07 2013-05-10 France Telecom Procede de codage et decodage d'images, dispositif de codage et decodage et programmes d'ordinateur correspondants
US10368072B2 (en) 2015-05-29 2019-07-30 Qualcomm Incorporated Advanced arithmetic coder
KR102469145B1 (ko) * 2015-10-13 2022-11-21 삼성전자주식회사 영상을 부호화 또는 복호화하는 방법 및 장치
EP3264763A1 (en) * 2016-06-29 2018-01-03 Thomson Licensing Method and apparatus for improved significance flag coding using simple local predictor
US10757412B2 (en) 2017-01-03 2020-08-25 Avago Technologies International Sales Pte. Limited Architecture flexible binary arithmetic coding system
US11265561B2 (en) * 2017-01-06 2022-03-01 Mediatek Inc. Method and apparatus for range derivation in context adaptive binary arithmetic coding
US10554988B2 (en) * 2017-03-22 2020-02-04 Qualcomm Incorporated Binary arithmetic coding with parameterized probability estimation finite state machines
CN110915213B (zh) * 2017-07-14 2021-11-02 联发科技股份有限公司 编解码符号的熵编解码的方法与装置
WO2019069902A1 (ja) * 2017-10-06 2019-04-11 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 符号化装置、復号装置、符号化方法および復号方法
US10791341B2 (en) 2017-10-10 2020-09-29 Qualcomm Incorporated Binary arithmetic coding with progressive modification of adaptation parameters
WO2019140083A1 (en) * 2018-01-12 2019-07-18 Futurewei Technologies, Inc. Adaptive multi-hypothesis context-adaptive binary arithmetic coding (mcabac)
JP7401309B2 (ja) 2018-01-30 2023-12-19 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 符号化装置、復号装置、符号化方法及び復号方法
US11003811B2 (en) 2018-02-09 2021-05-11 International Business Machines Corporation Generating samples of outcomes from a quantum simulator
KR20240005114A (ko) * 2018-03-29 2024-01-11 프라운호퍼-게젤샤프트 추르 푀르데룽 데어 안제반텐 포르슝 에 파우 비디오 디코더, 비디오 인코더, 비디오 컨텐츠를 디코딩하기 위한 방법, 비디오 컨텐츠를 인코딩하기 위한 방법, 컴퓨터 프로그램 및 비디오 비트스트림
WO2019191886A1 (zh) * 2018-04-02 2019-10-10 北京大学 上下文的概率更新方法与装置
CN108683921B (zh) * 2018-06-07 2020-04-07 四川大学 一种基于零量化dct系数组的视频可逆信息隐藏方法
CN110620932B (zh) 2018-06-19 2022-11-08 北京字节跳动网络技术有限公司 依赖模式的运动矢量差精度集
JP7313385B2 (ja) * 2018-06-21 2023-07-24 テレフオンアクチーボラゲット エルエム エリクソン(パブル) ビデオコーディングにおけるサブタイルを含むタイルパーティション
TWI728390B (zh) 2018-06-29 2021-05-21 大陸商北京字節跳動網絡技術有限公司 查找表尺寸
TWI723444B (zh) 2018-06-29 2021-04-01 大陸商北京字節跳動網絡技術有限公司 使用一個或多個查找表來按順序存儲先前編碼的運動信息並使用它們來編碼後面的塊的概念
BR112020024162A2 (pt) 2018-06-29 2021-03-02 Beijing Bytedance Network Technology Co., Ltd. método de processamento de vídeo e aparelho para processar dados de vídeo, meios de armazenamento e de gravação legíveis por computador não transitórios, método para armazenar uma representação de fluxo de bits de um vídeo
KR20240005240A (ko) 2018-06-29 2024-01-11 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 Lut에서의 모션 후보들의 검사 순서
TWI731360B (zh) 2018-06-29 2021-06-21 大陸商北京字節跳動網絡技術有限公司 查找表的使用條件
EP3794825A1 (en) 2018-06-29 2021-03-24 Beijing Bytedance Network Technology Co. Ltd. Update of look up table: fifo, constrained fifo
CA3101730A1 (en) 2018-06-29 2020-01-02 Beijing Bytedance Network Technology Co., Ltd. Partial/full pruning when adding a hmvp candidate to merge/amvp
WO2020008352A1 (en) 2018-07-02 2020-01-09 Beijing Bytedance Network Technology Co., Ltd. Update of look-up tables
AU2018217336A1 (en) * 2018-08-17 2020-03-05 Canon Kabushiki Kaisha Method, apparatus and system for encoding and decoding a transformed block of video samples
AU2018217333A1 (en) * 2018-08-17 2020-03-05 Canon Kabushiki Kaisha Method, apparatus and system for encoding and decoding a transformed block of video samples
TW202025760A (zh) 2018-09-12 2020-07-01 大陸商北京字節跳動網絡技術有限公司 要檢查多少個hmvp候選
CN110933420B (zh) 2018-09-19 2023-09-01 北京字节跳动网络技术有限公司 仿射模式中自适应运动矢量分辨率的快速算法
US10951898B2 (en) 2018-10-11 2021-03-16 Lg Electronics Inc. Image decoding method and device using residual information in image coding system
CN114390282B (zh) * 2018-11-12 2023-09-08 Lg电子株式会社 图像解码方法、图像编码方法和数据发送方法
CN111385570B (zh) * 2018-12-28 2021-11-02 杭州海康威视数字技术股份有限公司 编码方法、解码方法及装置
KR20240010576A (ko) 2019-01-10 2024-01-23 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 Lut 업데이트의 호출
CN113383554B (zh) 2019-01-13 2022-12-16 北京字节跳动网络技术有限公司 LUT和共享Merge列表之间的交互
WO2020147773A1 (en) 2019-01-16 2020-07-23 Beijing Bytedance Network Technology Co., Ltd. Inserting order of motion candidates in lut
EP3895429A4 (en) * 2019-01-31 2022-08-10 Beijing Bytedance Network Technology Co., Ltd. CONTEXT FOR CODE AN ADAPTIVE MOTION VECTOR RESOLUTION IN AFFINE MODE
WO2020164633A1 (en) 2019-02-15 2020-08-20 Beijing Bytedance Network Technology Co., Ltd. Transform parameter derivation based on block partition
US11178399B2 (en) * 2019-03-12 2021-11-16 Qualcomm Incorporated Probability initialization for video coding
KR102223790B1 (ko) 2019-03-15 2021-03-05 삼성전자주식회사 비디오 복호화 방법 및 장치, 비디오 부호화 방법 및 장치
CN113615193A (zh) 2019-03-22 2021-11-05 北京字节跳动网络技术有限公司 Merge列表构建和其他工具之间的交互
CA3134410A1 (en) * 2019-03-23 2020-10-01 Huawei Technologies Co., Ltd. An encoder, a decoder and corresponding methods for intra prediction
US11218735B2 (en) 2019-04-02 2022-01-04 Qualcomm Incorporated Context derivation for last position coding for video coding
CN113853785B (zh) 2019-05-14 2024-04-16 北京字节跳动网络技术有限公司 用于残差编解码的上下文建模
US11405617B1 (en) * 2019-05-21 2022-08-02 Xilinx, Inc. Method and system to enhance compression efficiency in encoded video by using dual pass entropy coding
CN112073729B (zh) * 2019-06-11 2024-04-05 北京三星通信技术研究有限公司 模型更新方法、装置、电子设备及计算机可读存储介质
JP7453337B2 (ja) * 2019-08-31 2024-03-19 エルジー エレクトロニクス インコーポレイティド レジデュアルコーディングに対する画像デコード方法及びその装置
WO2021047540A1 (en) 2019-09-09 2021-03-18 Beijing Bytedance Network Technology Co., Ltd. Coefficient scaling for high precision image and video coding
CN114731392A (zh) 2019-09-21 2022-07-08 北京字节跳动网络技术有限公司 用于图像和视频编解码的高精度变换和量化
US11356851B2 (en) 2019-12-03 2022-06-07 Harris Global Communications, Inc. Communications system having multiple carriers with selectively transmitted real information and fake information and associated methods
MX2022010116A (es) * 2020-02-24 2022-09-05 Bytedance Inc Interaccion entre subimagen y se?alizacion de fila de mosaico.
JP2023515884A (ja) 2020-03-03 2023-04-14 バイトダンス インコーポレイテッド ビデオ・コーディングにおける低周波ノン・セパラブル変換シグナリング
US11516514B2 (en) * 2020-03-27 2022-11-29 Tencent America LLC High level control for deblocking operations
CN115462085A (zh) 2020-04-05 2022-12-09 字节跳动有限公司 视频编解码中滤波的高级控制
JP2023548393A (ja) * 2020-11-05 2023-11-16 エルジー エレクトロニクス インコーポレイティド ポイントクラウドデータ送信装置、ポイントクラウドデータ送信方法、ポイントクラウドデータ受信装置及びポイントクラウドデータ受信方法
US11375242B1 (en) * 2021-01-27 2022-06-28 Qualcomm Incorporated Compression of bitstream indexes for parallel entropy coding
CN113489979A (zh) * 2021-05-28 2021-10-08 杭州博雅鸿图视频技术有限公司 熵编码方法、装置、电子设备及存储介质
US20220394284A1 (en) * 2021-06-07 2022-12-08 Sony Interactive Entertainment Inc. Multi-threaded cabac decoding
WO2023129680A1 (en) * 2021-12-29 2023-07-06 Beijing Dajia Internet Information Technology Co., Ltd. Methods and devices on probability calculation for context-based adaptive binary arithmetic coding
US20230254511A1 (en) * 2022-02-04 2023-08-10 Tencent America LLC Block-level window size update for arithmetic coding
US20230254489A1 (en) * 2022-02-07 2023-08-10 Tencent America LLC Adaptive context-based adaptive binary arithmetic coding (cabac) initial state selection from coded pictures
WO2023168257A2 (en) * 2022-03-01 2023-09-07 Innopeak Technology, Inc. State transition of dependent quantization for aom enhanced compression model
US20230336728A1 (en) * 2022-04-18 2023-10-19 Tencent America LLC CABAC Inherited Context Initialization
CN115334313A (zh) * 2022-06-22 2022-11-11 百果园技术(新加坡)有限公司 一种视频解码方法、装置、设备及存储介质
CN116567097B (zh) * 2023-07-04 2023-09-01 广东慧航天唯科技有限公司 基于数据监控的废机油调度数据安全管理系统

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3842803B2 (ja) 2002-04-26 2006-11-08 株式会社エヌ・ティ・ティ・ドコモ 信号符号化方法、信号復号方法、信号符号化装置、信号復号装置、信号符号化プログラム、及び信号復号プログラム
JP3491001B1 (ja) * 2002-04-26 2004-01-26 株式会社エヌ・ティ・ティ・ドコモ 信号符号化方法、信号復号方法、信号符号化装置、信号復号装置、信号符号化プログラム、及び、信号復号プログラム
US8107535B2 (en) * 2003-06-10 2012-01-31 Rensselaer Polytechnic Institute (Rpi) Method and apparatus for scalable motion vector coding
US8094720B2 (en) * 2003-08-25 2012-01-10 Agency For Science Technology And Research Mode decision for inter prediction in video coding
US7379608B2 (en) * 2003-12-04 2008-05-27 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung, E.V. Arithmetic coding for transforming video and picture data units
US7599435B2 (en) 2004-01-30 2009-10-06 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Video frame encoding and decoding
US20070025441A1 (en) 2005-07-28 2007-02-01 Nokia Corporation Method, module, device and system for rate control provision for video encoders capable of variable bit rate encoding
KR101148614B1 (ko) * 2007-09-06 2012-05-25 닛본 덴끼 가부시끼가이샤 영상 부호화 장치 및 영상 부호화 방법
EP2164176A1 (en) * 2008-09-12 2010-03-17 Thomson Licensing Method for lossless compressing prefix-suffix-codes, method for decompressing a bit sequence representing integers or symbols encoded in compressed prefix-suffix-codes and storage medium or signal carrying compressed prefix-suffix-codes
WO2012031628A1 (en) * 2010-09-09 2012-03-15 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Entropy encoding and decoding scheme
US8344917B2 (en) * 2010-09-30 2013-01-01 Sharp Laboratories Of America, Inc. Methods and systems for context initialization in video coding and decoding
WO2012134246A2 (ko) * 2011-04-01 2012-10-04 엘지전자 주식회사 엔트로피 디코딩 방법 및 이를 이용하는 디코딩 장치
TWI487295B (zh) * 2011-05-17 2015-06-01 Univ Nat Cheng Kung 高產出平行化avc/h.264前後文適應性二位元算數解碼器之方法
US10123053B2 (en) * 2011-05-23 2018-11-06 Texas Instruments Incorporated Acceleration of bypass binary symbol processing in video coding
JP2014523186A (ja) * 2011-06-28 2014-09-08 サムスン エレクトロニクス カンパニー リミテッド エントロピー符号化/復号化方法及びその装置
CN106899847B (zh) 2011-10-17 2019-12-27 株式会社东芝 电子装置和解码方法
US9871537B2 (en) * 2011-10-27 2018-01-16 Qualcomm Incorporated Mapping states in binary arithmetic coder for video coding
US9484952B2 (en) * 2011-11-03 2016-11-01 Qualcomm Incorporated Context state and probability initialization for context adaptive entropy coding
US9538172B2 (en) * 2012-04-11 2017-01-03 Qualcomm Incorporated Grouping bypass coded syntax elements in video coding
US9948934B2 (en) 2014-07-02 2018-04-17 Apple Inc. Estimating rate costs in video encoding operations using entropy encoding statistics
WO2016072744A1 (ko) * 2014-11-04 2016-05-12 삼성전자 주식회사 이진 산술 부호화/복호화를 위한 확률 갱신 방법 및 이를 이용한 엔트로피 부호화/복호화 장치
US10368072B2 (en) 2015-05-29 2019-07-30 Qualcomm Incorporated Advanced arithmetic coder

Also Published As

Publication number Publication date
US20160353108A1 (en) 2016-12-01
EP3304910A1 (en) 2018-04-11
AU2016270616A1 (en) 2017-11-09
CN107667530A (zh) 2018-02-06
JP2018521555A (ja) 2018-08-02
KR20180013928A (ko) 2018-02-07
KR20180013927A (ko) 2018-02-07
US20160353110A1 (en) 2016-12-01
CN107667530B (zh) 2020-02-21
TW201705760A (zh) 2017-02-01
AU2016270616B2 (en) 2020-06-25
CN107667533A (zh) 2018-02-06
TW201701664A (zh) 2017-01-01
JP6779918B2 (ja) 2020-11-04
US10148961B2 (en) 2018-12-04
JP6728240B2 (ja) 2020-07-22
AU2016270634A1 (en) 2017-11-09
WO2016196307A1 (en) 2016-12-08
EP3304909A1 (en) 2018-04-11
US10368072B2 (en) 2019-07-30
JP2018521556A (ja) 2018-08-02
AU2016270634B2 (en) 2020-03-12
EP3304909B1 (en) 2020-03-04
WO2016196287A1 (en) 2016-12-08
BR112017025612A2 (pt) 2018-08-07
CN107667533B (zh) 2020-06-05
BR112017025605A2 (pt) 2018-08-07

Similar Documents

Publication Publication Date Title
KR102639864B1 (ko) 진보된 산술 코더
KR102600724B1 (ko) 개량된 컨텍스트-적응 2 진 산술 코딩 (cabac) 설계를 이용한 데이터의 코딩
KR20210134337A (ko) 변환 스킵 모드를 위한 계수 코딩
KR20210096114A (ko) 임계치 및 라이스 파라미터를 이용한 계수 디코딩을 위한 정규 코딩된 빈 감축
KR20210107018A (ko) 계수 레벨들을 위한 이스케이프 코딩

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant