KR20220097913A - 변환 및 계수 시그널링에 대한 방법 및 장치 - Google Patents

변환 및 계수 시그널링에 대한 방법 및 장치 Download PDF

Info

Publication number
KR20220097913A
KR20220097913A KR1020227017329A KR20227017329A KR20220097913A KR 20220097913 A KR20220097913 A KR 20220097913A KR 1020227017329 A KR1020227017329 A KR 1020227017329A KR 20227017329 A KR20227017329 A KR 20227017329A KR 20220097913 A KR20220097913 A KR 20220097913A
Authority
KR
South Korea
Prior art keywords
transform
block
zero
video
mts
Prior art date
Application number
KR1020227017329A
Other languages
English (en)
Other versions
KR102638578B1 (ko
Inventor
시아오유 시우
쭝-추안 마
이-웬 첸
시앙린 왕
홍-젱 주
빙 유
Original Assignee
베이징 다지아 인터넷 인포메이션 테크놀로지 컴퍼니 리미티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 베이징 다지아 인터넷 인포메이션 테크놀로지 컴퍼니 리미티드 filed Critical 베이징 다지아 인터넷 인포메이션 테크놀로지 컴퍼니 리미티드
Priority to KR1020247004677A priority Critical patent/KR20240024338A/ko
Priority to KR1020247004676A priority patent/KR20240024337A/ko
Publication of KR20220097913A publication Critical patent/KR20220097913A/ko
Application granted granted Critical
Publication of KR102638578B1 publication Critical patent/KR102638578B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/625Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding using discrete cosine transform [DCT]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/12Selection from among a plurality of transforms or standards, e.g. selection between discrete cosine transform [DCT] and sub-band transform or selection between H.263 and H.264
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/129Scanning of coding units, e.g. zig-zag scan of transform coefficients or flexible macroblock ordering [FMO]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/14Coding unit complexity, e.g. amount of activity or edge presence estimation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/18Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a set of transform coefficients
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/186Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards

Abstract

전자 장치는 비디오 데이터를 디코딩하는 방법을 수행한다. 상기 방법은 변환 블록을 인코딩하는 비트스트림을 수신하는 단계, 상기 변환 블록은 비-제로 영역 및 제로 아웃 영역을 포함하며; 제로 아웃 영역 내에 비-제로 계수가 있는지를 체크하는 단계; 변환 블록의 제로 아웃 영역 내에 비-제로 계수가 없다는 결정에 따라: 스캔 방향을 따라 변환 블록의 마지막 비-제로 계수의 스캔 순서 인덱스를 결정하는 단계; 마지막 비-제로 계수의 스캔 순서 인덱스가 미리정의된 임계값보다 크다는 결정에 따라: 다중 변환 선택(MTS) 인덱스에 대한 값을 비트스트림으로부터 수신하는 단계; 및 MTS 인덱스의 값에 기초하여 수평 및 수직 방향 모두에서 변환 블록의 계수들을 변환시키도록 각각의 변환을 적용하는 단계를 포함한다.

Description

변환 및 계수 시그널링에 대한 방법 및 장치
관련 출원들
본 출원은 2019년 11월 21일에 출원된 "METHODS AND APPARATUS ON TRANSFORM AND COEFFICIENT SIGNALING"이라는 명칭의 미국 가특허출원(제62/938,890호) 및 은 2020년 1월 10일에 출원된 "METHODS AND APPARATUS ON TRANSFORM AND COEFFICIENT SIGNALING"라는 명칭의 미국 가특허출원(제62/959,325호)에 대한 우선권을 주장하며, 이들 2개의 미국 출원들은 참조로서 본 명세서에 포함된다.
본 출원은 일반적으로 비디오 데이터 코딩 및 압축에 관한 것으로, 보다 상세하게는 다목적 비디오 코딩(Versatile Video Coding: VVC) 표준에서 변환 및 계수 코딩 방법의 기존의 설계를 개선 및 단순화하기 위한 방법 및 장치에 관한 발명이다.
디지털 비디오는 디지털 텔레비전, 랩톱 또는 데스크탑 컴퓨터, 태블릿 컴퓨터, 디지털 카메라, 디지털 레코딩 디바이스, 디지털 미디어 플레이어, 비디오 게임 콘솔, 스마트폰, 비디오 화상회의 디바이스, 비디오 스트리밍 디바이스 등의 다양한 전자 디바이스들에 의해서 지원된다. 전자 디바이스는 MPEG-4, ITU-T H.263, ITU-T H.264/MPEG-4, Part 10, 진보된 비디오 코딩(AVC), 고효율 비디오 코딩(HEVC), 및 다목적 비디오 코딩(VVC) 표준에 정의된 비디오 압축/압축 해제 표준을 구현하여 디지털 비디오 데이터를 전송, 수신, 인코딩, 디코딩 및/또는 저장한다. 비디오 압축은 일반적으로 비디오 데이터에 고유한 중복성을 줄이거나 제거하기 위해 공간적(인트라 프레임) 예측 및/또는 시간적(인터 프레임) 예측을 수행하는 것을 포함한다. 블록 기반 비디오 코딩의 경우, 비디오 프레임은 하나 이상의 슬라이스로 분할되고, 각 슬라이스는 코딩 트리 단위(CTU)라고도 하는 다중 비디오 블록들을 갖는다. 각 CTU는 하나의 코딩 단위(CU)를 포함하거나 또는 미리 정의된 최소 CU 사이즈에 도달할 때까지 더 작은 CU들로 재귀적으로 분할될 수 있다. 각각의 CU(리프(leaf) CU라고도 함)는 하나 이상의 변환 유닛들(TU)을 포함하며, 각각의 CU는 또한 하나 이상의 예측 유닛(PU)을 포함한다. 각각의 CU는 인트라, 인터 또는 IBC 모드 중 하나로 코딩될 수 있다. 비디오 프레임의 인트라 코딩된(I) 슬라이스의 비디오 블록들은, 동일한 비디오 프레임 내의 이웃 블록들의 참조 샘플들에 대한 공간적 예측을 사용하여 인코딩된다. 비디오 프레임의 인터 코딩된(P 또는 B) 슬라이스의 비디오 블록들은, 동일한 비디오 프레임 내의 이웃 블록들의 참조 샘플들에 대한 공간적 예측을 사용하거나 또는 다른 앞선 및/또는 미래 참조 비디오 프레임들의 참조 샘플들에 대한 시간적 에측을 사용한다.
이전에 인코딩된 참조 블록(예를 들어, 이웃 블록)에 기초한 공간적 또는 시간적 예측은 코딩될 현재 비디오 블록에 대한 예측 블록을 초래한다. 참조 블록을 찾는 프로세스는, 블록 매칭 알고리즘에 의해 수행될 수 있다. 코딩될 현재 블록과 예측 블록 사이의 픽셀 차이들을 나타내는 잔차(residual) 데이터는 잔차 블록 또는 예측 에러로 지칭된다. 인터-코딩된 블록은 예측 블록을 형성하는 참조 프레임의 참조 블록 및 잔차 블록을 가리키는 모션 벡터에 따라 인코딩된다. 모션 벡터를 결정하는 프로세스는 일반적으로 모션 추정이라 지칭된다. 인트라 코딩된 블록은 인트라 예측 모드 및 잔차 블록에 따라 인코딩된다. 추가 압축을 위해, 잔차 블록은 픽셀 도메인에서 변환 도메인, 예를 들어 주파수 도메인으로 변환되어, 잔차 변환 계수(residual transform coefficients)를 생성하며, 이는 다음에 양자화될 수 있다. 처음에 2차원 어레이로 구성된 양자화된 변환 계수는 변환 계수의 1차원 벡터를 생성하기 위해 스캔될 수 있고, 그 다음 훨씬 더 많은 압축을 달성하기 위해 비디오 비트스트림으로 엔트로피 인코딩될 수 있다.
다음으로, 인코딩된 비디오 비트 스트림은 디지털 비디오 기능을 구비한 다른 전자 디바이스에 의해 액세스되는 컴퓨터 판독가능한 저장 매체(예를 들면, 플래시 메모리)에 저장되거나 또는 유선 또는 무선으로 전자 디바이스로 직접 전송된다. 그 다음, 전자 디바이스는, 예를 들어, 비트스트림으로부터 신택스 요소들을 획득하기 위해 인코딩된 비디오 비트스트림을 파싱하고 그리고 비트스트림으로부터 획득된 신택스 요소에 적어도 부분적으로 기초하여 인코딩된 비디오로부터 그것의 원래 포맷으로 디지털 비디오 데이터를 재구성함으로써(위에서 설명된 비디오 압축의 반대 프로세스인) 비디오 압축해제를 수행하고 그리고 재구성된 디지털 비디오 데이터를 전자 디바이스의 디스플레이 상에 렌더링한다.
디지털 비디오 품질이 4K x 2K로 또는 심지어 8K x 4K로 고화질이 되어감에 따라, 인코딩/디코딩될 비디오 데이터의 양이 기하급수적으로 증가한다. 디코딩된 비디오 데이터의 이미지 품질을 유지하면서, 비디오 데이터를 보다 효율적으로 인코딩/디코딩할 수 있는 방법의 관점에서 이것은 끊임없는 도전이다.
본 출원은 비디오 데이터의 인코딩 및 디코딩에 관련된 구현예들을 서술하며, 보다 구체적으로는 변환 및 계수 코딩 방법의 기존 설계를 개선하고 단순화하는 방법 및 장치에 관한 구현예들을 설명한다.
본 출원의 제 1 양상에 따르면, 비디오 데이터를 디코딩하는 방법이 제공되며, 상기 방법은, 변환 블록을 인코딩하는 비트스트림을 수신하는 단계, 상기 변환 블록은 비-제로 영역 및 제로 아웃 영역을 포함하며; 제로 아웃 영역 내에 비-제로 계수가 있는지를 체크하는 단계; 변환 블록의 제로 아웃 영역 내에 비-제로 계수가 없다는 결정에 따라: 스캔 방향을 따라 변환 블록의 마지막 비-제로 계수의 스캔 순서 인덱스를 결정하는 단계; 마지막 비-제로 계수의 스캔 순서 인덱스가 미리정의된 임계값보다 크다는 결정에 따라: 다중 변환 선택(MTS) 인덱스에 대한 값을 비트스트림으로부터 수신하는 단계; 및 MTS 인덱스의 값에 기초하여 수평 및 수직 방향 모두에서 변환 블록의 계수들을 변환시키도록 각각의 변환을 적용하는 단계를 포함한다.
본 출원의 제 2 양상에 따르면, 전자 장치는 하나 이상의 프로세싱 유닛들, 메모리, 및 메모리에 저장된 복수의 프로그램들을 포함한다. 상기 프로그램들은 하나 이상의 프로세싱 유닛들에 의해 실행될 때 전자 장치로 하여금 전술한 비디오 데이터 디코딩 방법을 수행하게 한다.
본 출원의 제 3 양상에 따르면, 하나 이상의 프로세싱 유닛들을 갖는 전자 장치에 의해 실행되기 위한 복수의 프로그램들을 저장하는 비일시적 컴퓨터 판독가능 저장 매체가 제공된다. 상기 프로그램들은 하나 이상의 프로세싱 유닛들에 의해 실행될 때 전자 장치로 하여금 전술한 비디오 데이터 디코딩 방법을 수행하게 한다.
구현예들의 추가적인 이해를 제공하도록 포함되고 본 명세서에 통합되어 명세서의 일부를 구성하는 첨부된 도면들은, 전술한 구현예들을 예시하고 상세한 설명과 함께 본 발명의 기본 원리를 설명하는 역할을한다. 도면들에서 동일한 참조 번호는 대응하는 부분을 나타낸다.
도 1은 본 개시의 일부 구현들에 따른 예시적인 비디오 인코딩 및 디코딩 시스템을 예시하는 블록도이다.
도 2는 본 개시의 일부 구현들에 따른 예시적인 비디오 인코더를 예시하는 블록도이다.
도 3은 본 개시의 일부 구현들에 따른 예시적인 비디오 디코더를 예시하는 블록도이다.
도 4a 내지 도 4e는 본 개시의 일부 구현들에 따라 프레임이 상이한 크기들 및 형상들의 다수의 비디오 블록들로 어떻게 재귀적으로 분할되는지를 예시하는 블록도들이다.
도 5는 본 개시의 일부 구현들에 따라 인터 및 인트라 코딩된 블록들의 잔차들을 변환하기 위한 다중 변환 선택(MTS) 방식의 일례를 예시한 테이블이다.
도 6은 본 개시의 일부 구현들에 따라 비-제로 변환 계수들을 갖는 예시적인 변환 블록을 도시한 블록도이다.
도7은 본 개시의 일부 구현들에 따라 다중 변환 선택(MTS) 방식을 이용하여 코딩 블록 잔차에 대한 기술들을 비디오 디코더가 구현하는 예시적인 프로세스의 흐름도이다.
도 8은 본 개시의 일부 구현들에 따른 콘텍스트 적응형 이진 산술 코딩(CABAC) 엔진을 예시하는 블록도이다.
그 일례들이 첨부 도면들에 예시된 특정 구현예들이 상세하게 설명될 것이다. 다음의 상세한 설명에서, 본 명세서에 제시된 본 발명의 주제를 이해하는 것을 돕기 위해 다수의 비제한적인 특정 세부사항들 개시된다. 하지만, 청구항들의 범위를 벗어나지 않고 다양한 대안예들이 사용될 수 있으며 본 발명의 주제는 이러한 특정 세부사항 없이 실시될 수 있다는 것이 당업자에게 명백할 것이다. 예를 들어, 본 명세서에 제시된 주제는 디지털 비디오 기능을 가진 많은 유형의 전자 디바이스에서 구현될 수 있다는 것이 당업자에게 자명할 것이다.
도 1은 본 개시의 일부 구현들에 따라 비디오 블록들을 병렬로 인코딩 및 디코딩하기 위한 예시적인 시스템(10)을 예시하는 블록도이다. 도 1에 도시된 바와 같이, 시스템(10)은 목적지 디바이스(14)에 의해 나중에 디코딩될 비디오 데이터를 생성 및 인코딩하는 소스 디바이스(12)를 포함한다. 소스 디바이스(12) 및 목적지 디바이스(14)는 데스크탑 또는 랩탑 컴퓨터, 태블릿 컴퓨터, 스마트 폰, 셋톱 박스, 디지털 텔레비전, 카메라, 디스플레이 디바이스, 디지털 미디어 플레이어, 비디오 게임 콘솔, 비디오 스트리밍 디바이스 등을 포함하는 다양한 전자 디바이스 중 임의의 것을 포함할 수 있다. 일부 구현들에서, 소스 디바이스(12) 및 목적지 디바이스(14)는 무선 통신 능력들을 갖추고 있다.
일부 구현들에서, 목적지 디바이스(14)는 디코딩될 인코딩된 비디오 데이터를 링크(16)를 통해 수신할 수 있다. 링크(16)는 소스 디바이스(12)로부터 목적지 디바이스(14)로 인코딩된 비디오 데이터를 이동시킬 수 있는 임의의 유형의 통신 매체 또는 디바이스를 포함할 수 있다. 예를 들어, 링크(16)는 인코딩된 비디오 데이터를 소스 디바이스(12)가 실시간으로 목적지 디바이스(14)로 직접 전송할 수 있게 하는 통신 매체를 포함할 수 있다. 인코딩된 비디오 데이터는 무선 통신 프로토콜과 같은 통신 표준에 따라 변조되어 목적지 디바이스(14)로 전송될 수 있다. 통신 매체는 무선 주파수(RF) 스펙트럼 또는 또는 하나 이상의 물리적 전송 라인들과 같은 임의의 무선 또는 유선 통신 매체를 포함할 수 있다. 통신 매체는 근거리 통신망, 광역 네트워크 또는 인터넷과 같은 글로벌 네트워크와 같은 패킷 기반 네트워크의 일부를 형성할 수 있다. 통신 매체는 라우터, 스위치, 기지국, 또는 소스 디바이스(12)에서 목적지 디바이스(14)로의 통신을 용이하게 하는데 유용한 임의의 다른 장비를 포함할 수 있다.
일부 다른 구현에서, 인코딩된 비디오 데이터는 출력 인터페이스(22)로부터 저장 디바이스(32)로 전송될 수 있다. 이어서, 저장 디바이스(32)의 인코딩된 비디오 데이터는 입력 인터페이스(28)를 통해 목적지 디바이스(14)에 의해 액세스될 수 있다. 저장 디바이스(32)는 하드 드라이브, 블루레이 디스크, DVD, CD-ROM, 플래시 메모리, 휘발성 또는 비휘발성 메모리 또는 인코딩된 비디오 데이터를 저장하기 위한 기타 적절한 디지털 저장 매체와 같은 임의의 다양한 분산 또는 로컬 액세스되는 데이터 저장 매체를 포함할 수 있다. 추가 예에서, 저장 디바이스(32)는 소스 디바이스(12)에 의해 생성된 인코딩된 비디오 데이터를 보유할 수 있는 파일 서버 또는 다른 중간 저장 디바이스에 대응할 수 있다. 목적지 디바이스(14)는 스트리밍 또는 다운로드를 통해 저장 디바이스(32)로부터 저장된 비디오 데이터에 액세스할 수 있다. 파일 서버는 인코딩된 비디오 데이터를 저장하고 인코딩된 비디오 데이터를 목적지 디바이스(14)로 전송할 수 있는 임의의 유형의 컴퓨터일 수 있다. 예시적인 파일 서버는 웹 서버(예를 들어, 웹사이트용), FTP 서버, 네트워크 부착 저장소(Network Attached Storage: NAS) 디바이스, 또는 로컬 디스크 드라이브를 포함한다. 목적지 디바이스(14)는 무선 채널(예를 들어, Wi-Fi 연결), 유선 연결(예를 들어, DSL, 케이블 모뎀 등), 또는 파일 서버에 저장된 인코딩된 비디오 데이터에 액세스하는데 적합한 이들 양자의 조합을 포함하는 임의의 표준 데이터 연결을 통해 인코딩된 비디오 데이터에 액세스할 수 있다. 저장 디바이스(32)로부터의 인코딩된 비디오 데이터의 전송은 스트리밍 전송, 다운로드 전송, 또는 이 둘의 조합일 수 있다.
도 1에 도시된 바와 같이, 소스 디바이스(12)는 비디오 소스(18), 비디오 인코더(20) 및 출력 인터페이스(22)를 포함한다. 비디오 소스(18)는 예를 들어, 비디오 카메라와 같은 비디오 캡처 디바이스, 이전에 캡처된 비디오를 포함하는 비디오 아카이브, 비디오 콘텐츠 제공자로부터 비디오를 수신하기 위한 비디오 피드 인터페이스, 및/또는 소스 비디오로서 컴퓨터 그래픽 데이터를 생성하기 위한 컴퓨터 그래픽 시스템, 또는 이러한 소스들의 조합과 같은 소스를 포함할 수 있다. 일례로, 비디오 소스(18)가 보안 감시 시스템의 비디오 카메라인 경우, 소스 디바이스(12) 및 목적지 디바이스(14)는 카메라 폰들 또는 비디오 폰들을 형성할 수 있다. 그러나, 본 출원에서 설명된 구현은 일반적으로 비디오 코딩에 적용될 수 있고, 무선 및/또는 유선 어플리케이션에 적용될 수 있다.
캡쳐된, 사전 캡쳐된, 또는 컴퓨터-생성된 비디오는 비디오 인코더(20)에 의해 인코딩 될 수 있다. 인코딩된 비디오 데이터는 소스 디바이스(12)의 출력 인터페이스(22)를 통해 목적지 디바이스(14)로 직접 전송될 수 있다. 또한, 인코딩된 비디오 데이터는(또는 대안적으로) 디코딩 및/또는 재생을 위해 목적지 디바이스(14) 또는 다른 디바이스에 의한 추후 액세스를 위해 저장 디바이스(32)에 저장될 수 있다. 출력 인터페이스(22)는 모뎀 및/또는 송신기를 더 포함할 수 있다.
목적지 디바이스(14)는 입력 인터페이스(28), 비디오 디코더(30), 및 디스플레이 디바이스(34)를 포함한다. 입력 인터페이스(34)는 수신기 및/또는 모뎀을 포함할 수 있고 그리고 인코딩된 비디오 데이터를 링크(16)를 통해 수신할 수 있다. 링크(16)를 통해 통신된 또는 저장 디바이스(32)에 제공된 인코딩된 비디오 데이터는, 비디오 데이터를 디코딩할 때 비디오 디코더(30)에 의해 사용하기 위해 비디오 인코더(20)에 의해 생성된 다양한 신택스(syntax) 요소들을 포함할 수 있다. 이러한 신택스 요소는 통신 매체를 통해 전송되거나, 저장 매체에 저장되거나, 또는 파일 서버에 저장된 인코딩된 비디오 데이터 내에 포함될 수 있다.
일부 구현예에서, 목적지 디바이스(14)는 디스플레이 디바이스(34)를 포함할 수 있으며, 디스플레이 디바이스(34)는 통합된 디스플레이 디바이스일 수 있거나 목적지 디바이스(14)와 통신하도록 구성된 외부 디스플레이 디바이스일 수 있다. 디스플레이 디바이스(34)는 디코딩된 비디오 데이터를 사용자에게 디스플레이하며 그리고 액정 디스플레이(LCD), 플라즈마 디스플레이, 유기 발광 다이오드(OLED) 디스플레이 또는 다른 유형의 디스플레이 디바이스와 같은 다양한 임의의 디스플레이 디바이스를 포함할 수 있다.
비디오 인코더(20) 및 비디오 디코더(30)는 독점권, VVC, HEVC, MPEG-4, Part-10, 진보된 비디오 코딩(AVC)과 같은 산업 표준 또는 이러한 표준의 확장에 따라 동작할 수 있다. 다음이 이해되어야 하는바, 본 발명은 특정 비디오 코딩/디코딩 표준으로 한정되지 않으며, 다른 비디오 코딩/디코딩 표준에 적용될 수 있다. 소스 디바이스(12)의 비디오 인코더(20)는 이들 현재 또는 미래의 표준들 중 임의의 것에 따라 비디오 데이터를 인코딩하도록 구성될 수 있다는 것이 일반적으로 고려된다. 유사하게, 목적지 디바이스(14)의 비디오 디코더(30)는 이들 현재 또는 미래의 표준들 중 임의의 것에 따라 비디오 데이터를 디코딩하도록 구성될 수 있다는 것이 또한 일반적으로 고려된다.
비디오 인코더(20) 및 비디오 디코더(30) 각각은 하나 이상의 마이크로프로세서, 디지털 신호 프로세서(DSP), 주문형 집적 회로(ASIC), 필드 프로그래머블 게이트 어레이(FPGA), 개별 로직, 소프트웨어, 하드웨어, 펌웨어 또는 이들의 조합과 같은 다양한 임의의 적절한 인코더 회로로 구현될 수 있다. 소프트웨어로 부분적으로 구현되는 경우, 전자 디바이스는 소프트웨어를 위한 명령들을 적절한 비일시적 컴퓨터 판독가능 매체에 저장하고 그리고 본 명세서에 개시된 비디오 코딩/디코딩 동작을 수행하도록 하나 이상의 프로세서를 사용하여 하드웨어에서 명령들을 실행할 수 있다. 각각의 비디오 인코더(20) 및 비디오 디코더(30)는 하나 이상의 인코더 또는 디코더에 포함될 수도 있고, 이들은 각 디바이스 내의 결합된 인코더/디코더(CODEC)의 일부로서 통합될 수 있다.
도 2는 본 출원에서 설명된 일부 구현들에 따른 예시적인 비디오 인코더(20)를 예시하는 블록도이다. 비디오 인코더(20)는 비디오 프레임 내의 비디오 블록의 인트라 및 인터 예측 코딩을 수행할 수 있다. 인트라 예측 코딩은 주어진 비디오 프레임 또는 픽처 내에서 비디오 데이터의 공간적 중복성을 감소 또는 제거하기 위한 공간적 예측에 의존한다. 인터 예측 코딩은 비디오 시퀀스의 인접한 비디오 프레임들 또는 픽처들 내에서 비디오 데이터의 시간적 중복성을 감소 또는 제거하기 위해 시간적 예측에 의존한다.
도 2에 도시된 바와 같이, 비디오 인코더(20)는 비디오 데이터 메모리(40), 예측 프로세싱 유닛(41), 디코딩된 픽처 버퍼(DPB)(64), 합산기(50), 변환 프로세싱 유닛(52), 양자화 유닛(54), 및 엔트로피 인코딩 유닛(56)을 포함한다. 예측 프로세싱 유닛(41)은 모션 추정 유닛(42), 모션 보상 유닛(44), 파티션 유닛(45), 인트라 예측 프로세싱 유닛(46), 및 인트라 블록 복사(BC) 유닛(48)을 더 포함한다. 일부 구현들에서, 비디오 인코더(20)는 또한 비디오 블록 재구성을 위한 역양자화 유닛(58), 역변환 프로세싱 유닛(60), 및 합산기(62)를 포함한다. 재구성된 비디오로부터 블록성 아티팩트를 제거하기 위해 블록 경계들을 필터링하기 위한 디블록킹 필터(미도시)가 합산기(62)와 DPB(64) 사이에 위치할 수 있다. 인 루프 필터(미도시)는 또한 합산기(62)의 출력을 필터링하기 위해 디블로킹 필터에 추가하여 사용될 수 있다. 비디오 인코더(20)는 고정형 또는 프로그램 가능한 하드웨어 유닛의 형태를 취할 수 있거나 또는 하나 이상의 예시된 고정형 또는 프로그래밍 가능한 하드웨어 유닛들 사이에서 분리될 수 있다
비디오 데이터 메모리(40)는 비디오 인코더(20)의 컴포넌트들에 의해 인코딩될 비디오 데이터를 저장할 수 있다. 비디오 데이터 메모리(40)의 비디오 데이터는 예를 들어, 비디오 소스(18)로부터 획득될 수 있다. DPB(64)는 비디오 인코더(20)에 의해 비디오 데이터를 인코딩하는데(예를 들어, 인트라 또는 인터 예측 코딩 모드에서) 사용하기 위한 참조 비디오 데이터를 저장하는 버퍼이다. 비디오 데이터 메모리(40) 및 DPB(64)는 다양한 메모리 디바이스들 중 임의의 것에 의해 형성될 수 있다. 다양한 일례들에서, 비디오 데이터 메모리(40)는 비디오 인코더(20)의 다른 컴포넌트들과 함께 온-칩일 수도 있고, 또는 그러한 컴포넌트들에 대해 오프-칩일 수도 있다.
도 2에 도시된 바와 같이, 비디오 데이터를 수신한 후, 예측 프로세싱 유닛(41) 내의 파티션 유닛(45)은 비디오 데이터를 비디오 블록들로 분할한다. 이러한 분할은 또한 비디오 데이터와 연관된 쿼드-트리 구조와 같은 미리정의된 분할 구조에 따라 비디오 프레임을 슬라이스, 타일, 또는 다른 더 큰 코딩 유닛(CU)으로 분할하는 것을 포함할 수 있다. 비디오 프레임은 다수의 비디오 블록들(또는 타일이라 지칭되는 비디오 블록들의 세트들)로 분할될 수 있다. 예측 처리 유닛(41)은 복수의 가능한 예측 코딩 모드 중 하나를 선택할 수 있는바, 예를 들어, 에러 결과(예를 들어, 코딩 레이트 및 왜곡 레벨)에 기초하여 현재 비디오 블록에 대한 복수의 인트라 예측 코딩 모드들 중 하나 또는 복수의 인터 예측 코딩 모드들 중 하나를 선택할 수 있다. 예측 프로세싱 유닛(41)은 결과적인 인트라 또는 인터 예측 코딩된 블록을 합산기(50)에 제공하여 잔차 블록을 생성하고, 합산기(62)에 제공하여 이후에 참조 프레임의 일부로서 사용하기 위해 인코딩된 블록을 재구성할 수 있다. 예측 프로세싱 유닛(41)은 또한 모션 벡터, 인트라 모드 표시자, 파티션 정보, 및 기타 이러한 신택스 정보와 같은 신택스 요소를 엔트로피 인코딩 유닛(56)에 제공한다.
현재 비디오 블록에 대한 적절한 인트라 예측 코딩 모드를 선택하기 위하여, 예측 프로세싱 유닛(41) 내의 인트라 예측 프로세싱 유닛(46)은 코딩될 현재 프레임과 동일한 프레임 내의 하나 이상의 인접 블록들에 대해 현재 비디오 블록의 인트라 예측 코딩을 수행하여, 공간적 예측을 제공할 수 있다. 예측 프로세싱 유닛(41) 내의 모션 추정 유닛(42) 및 모션 보상 유닛(44)은 하나 이상의 참조 프레임들의 하나 이상의 예측 블록들에 대해 현재 비디오 블록의 인터 예측 코딩을 수행하여 시간적 예측을 제공할 수 있다. 비디오 인코더(20)는, 예를 들어, 비디오 데이터의 각각의 블록에 대한 적절한 코딩 모드를 선택하기 위해 다수의 코딩 패스들을 수행할 수도 있다.
일부 구현들에서, 모션 추정 유닛(42) 은 모션 벡터를 생성함으로써 현재 비디오 프레임에 대한 인터 예측 모드를 결정하는데, 이것은 비디오 프레임들의 시퀀스 내의 미리결정된 패턴에 따른, 참조 비디오 프레임 내의 예측 블록에 대한 현재 비디오 프레임 내의 비디오 블록의 예측 유닛(PU)의 변위(displacement)를 나타낸다. 모션 추정 유닛(42)에 의해 수행되는 모션 추정은 비디오 블록들에 대한 모션을 추정하는 모션 벡터를 생성하는 프로세스이다. 모션 벡터는 예를 들어, 현재 프레임(또는 다른 코딩된 유닛) 내의 코딩중인 현재 블록에 대한 참조 프레임(또는 다른 코딩된 유닛) 내의 예측 블록에 대한 현재 비디오 프레임 또는 픽처 내의 비디오 블록의 PU의 변위를 나타낼 수 있다. 기결정된 패턴은 시퀀스의 비디오 프레임들을 P 프레임 또는 B 프레임으로 지정할 수 있다. 인트라 BC 유닛(48)은 인터 예측을 위한 모션 추정 유닛(42)에 의한 모션 벡터들의 결정과 유사한 방식으로, 인트라 BC 코딩을 위한 벡터들(예를 들어, 블록 벡터들)을 결정할 수 있거나, 또는 블록 벡터를 결정하기 위해 모션 추정 유닛(42)을 이용할 수 있다.
예측 블록은 픽셀 차이값의 관점에서 코딩될 비디오 블록의 PU에 근접하게 매칭되는 것으로 고려되는 참조 프레임의 블록이며, 이것은 절대 차이값의 합산(sum of absolute difference: SAD), 제곱 차이값의 합산(sum of square difference: SSD), 또는 다른 차이값 메트릭에 의해 결정될 수 있다. 일부 구현들에서, 비디오 인코더(20)는 DPB(64)에 저장된 참조 프레임들의 정수 이하(sub-integer) 픽셀 위치들에 대한 값들을 계산할 수 있다. 예를 들어, 비디오 인코더(20)는 참조 프레임의 1/4 픽셀 위치들, 1/8 픽셀 위치들, 또는 다른 분수 픽셀 위치들의 값들을 보간할 수 있다. 따라서, 모션 추정 유닛(42)은 전체 픽셀 위치들 및 분수 픽셀 위치들에 대한 모션 검색을 수행하고 그리고 분수 픽셀 정밀도를 갖는 모션 벡터를 출력할 수도 있다.
모션 추정 유닛(42)은, 그 각각이 DPB(64)에 저장된 하나 이상의 참조 프레임을 식별하는 제 1 참조 프레임 리스트(리스트 0) 또는 제 2 참조 프레임 리스트(리스트 1)로부터 선택된 참조 프레임의 예측 블록의 위치를 PU의 위치와 비교함으로써, 인터 예측 코딩된 프레임의 비디오 블록의 PU에 대한 모션 벡터를 계산한다. 모션 추정 유닛(42)은 계산된 모션 벡터를 모션 보상 유닛(44)으로 전송한 다음 엔트로피 인코딩 유닛(56)으로 전송한다.
모션 보상 유닛(44)에 의해 수행되는 모션 보상은, 모션 추정 유닛(42)에 의해 결정된 모션 벡터에 기초하여 예측 블록을 페치하거나 생성하는 것을 수반할 수 있다. 현재 비디오 블록의 PU에 대한 모션 벡터를 수신하면, 모션 보상 유닛(44)은 참조 프레임 리스트들 중 하나에서 모션 벡터가 가리키는 예측 블록을 찾아내고, DPB(64)로부터 예측 블록을 검색하고, 그리고 예측 블록을 합산기(50)로 전달한다. 합산기(50)는, 코딩중인 현재 비디오 블록의 픽셀 값들로부터 모션 보상 유닛(44)에 의해 제공되는 예측 블록의 픽셀 값들을 감산함으로써 픽셀 차이 값들의 잔차 비디오 블록을 형성한다. 잔차 비디오 블록을 형성하는 픽셀 차이 값들은 루마 또는 크로마 차이 성분 또는 둘 다를 포함할 수 있다. 모션 보상 유닛(44) 은 또한 비디오 프레임의 비디오 블록들을 디코딩할 때 비디오 디코더(30)에 의해 사용되기 위해 비디오 프레임의 비디오 블록들과 연관된 신택스 요소들을 생성할 수 있다. 신택스 요소는 예를 들어, 예측 블록을 식별하는 데 사용되는 모션 벡터를 정의하는 신택스 요소, 예측 모드를 나타내는 임의의 플래그, 또는 여기에 설명된 임의의 다른 신택스 정보를 포함할 수 있다. 모션 추정 유닛(42) 및 모션 보상 유닛(44)은 고도로 통합될 수 있지만 개념적 목적을 위해 별도로 예시된다는 점에 유의해야 한다.
일부 구현들에서, 인트라 BC 유닛(48)은 모션 추정 유닛(42) 및 모션 보상 유닛(44)과 관련하여 위에서 설명된 것과 유사한 방식으로 벡터들을 생성하고 예측 블록들을 페치할 수 있지만, 예측 블록들은 코딩 중인 현재 블록과 동일한 프레임에 있으며 그리고 벡터들은 모션 벡터와 대조적으로 블록 벡터로 지칭된다. 특히, 인트라 BC 유닛(48)은 현재 블록을 인코딩하기 위해 사용할 인트라 예측 모드를 결정할 수 있다. 일부 예들에서, 인트라 BC 유닛(48)은 예를 들어, 별도의 인코딩 패스들 동안 다양한 인트라 예측 모드를 사용하여 현재 블록을 인코딩할 수 있으며, 그리고 레이트-왜곡 분석을 통해 그들의 성능을 테스트할 수 있다. 다음으로, 인트라 BC 유닛(48)은 테스트된 다양한 인트라 예측 모드들 중에서, 그에 따라 인트라 모드 표시자를 사용 및 생성하기 위한 적절한 인트라 예측 모드를 선택할 수 있다. 예를 들어, 인트라 BC 유닛(48)은 테스트된 다양한 인트라 예측 모드들에 대한 레이트-왜곡 분석을 사용하여 레이트-왜곡 값들을 계산할 수 있고, 그리고 테스트된 모드들 중에서 가장 좋은 레이트-왜곡 특성을 갖는 인트라 예측 모드를 사용하기에 적절한 인트라 예측 모드로 선택할 수 있다. 레이트-왜곡 분석은 일반적으로 인코딩된 블록과 상기 인코딩된 블록을 생성하기 위해 인코딩되었던 원래의, 인코딩되지 않은 블록 사이의 왜곡(또는 에러)의 분량을 결정할 뿐만 아니라, 인코딩된 블록을 생성하는데 이용되는 비트레이트(즉, 비트들의 개수)를 결정한다. 인트라 BC 유닛(48)은 어떤 인트라 예측 모드가 블록에 대한 최상의 레이트-왜곡 값을 나타내는지를 결정하기 위하여 다양한 인코딩된 블록들에 대한 왜곡들 및 레이트들로부터 비율을 계산할 수 있다.
다른 예에서, 인트라 BC 유닛(48)은 본 명세서에 개시된 구현예에 따른 인트라 BC 예측을 위한 이러한 기능들을 수행하기 위하여 모션 추정 유닛(42) 및 모션 보상 유닛(44)를 전체적으로 또는 부분적으로 사용할 수 있다. 어느 경우이든, 인트라 블록 복사의 경우, 예측 블록은 픽셀 차이값의 관점에서 코딩될 블록에 근접하게 매칭되는 것으로 고려되는 블록이며, 이것은 절대 차이값의 합산(SAD), 제곱 차이값의 합산(SSD), 또는 다른 차이값 메트릭에 의해 결정될 수 있으며 그리고 예측 블록의 식별은 정수-이하 픽셀 위치들에 대한 값들의 계산을 포함할 수 있다.
예측 블록이 인트라 예측에 따라 동일한 프레임으로부터 왔는지 혹은 인터 예측에 따라 다른 프레임으로부터 왔던간에, 비디오 인코더(20)는 코딩중인 현재 비디오 블록의 픽셀 값들로부터 예측 블록의 픽셀 값을 감산하여 픽셀 차이 값들을 형성함으로써 잔차 비디오 블록을 형성할 수 있다. 잔차 비디오 블록을 형성하는 픽셀 차이 값들은 루마 및 크로마 성분 차이들을 모두 포함할 수 있다.
인트라 예측 프로세싱 유닛(46)은 위에서 설명된 바와 같이, 모션 추정 유닛(42) 및 모션 보상 유닛(44)에 의해 수행된 인터 예측, 또는 인트라 BC 유닛(48)에 의해 수행된 인트라 블록 복사 예측에 대한 대안으로서, 현재 비디오 블록을 인트라 예측할 수도 있다. 특히, 인트라 예측 프로세싱 유닛(46)은 현재 블록을 인코딩하는데 사용할 인트라 예측 모드를 결정할 수도 있다. 그렇게 하기 위해, 인트라 예측 프로세싱 유닛(46)은 예를 들어, 별도의 인코딩 패스들 동안, 다양한 인트라 예측 모드들을 사용하여 현재 블록을 인코딩할 수도 있고, 인트라 예측 프로세싱 유닛(46)(또는 일부 예들에서 모드 선택 유닛) 은 테스트된 인트라 예측 모드들 중에서 사용할 적절한 인트라 예측 모드를 선택할 수도 있다.
예측 프로세싱 유닛(41)이 인터 예측 또는 인트라 예측을 통해 현재 비디오 블록에 대한 예측 블록을 결정한 이후, 합산기(50)는 현재 비디오 블록으로부터 예측 블록을 감산함으로써 잔차 비디오 블록을 형성한다. 잔차 블록의 잔차 비디오 데이터는 하나 이상의 변환 유닛들(TUs)에 포함될 수 있으며, 변환 프로세싱 유닛(52)에 제공된다. 변환 프로세싱 유닛(52)은 이산 코사인 변환(DCT) 또는 개념적으로 유사한 변환과 같은 변환을 사용하여, 잔차 비디오 데이터를 잔차 변환 계수로 변환한다.
변환 프로세싱 유닛(52)은 도출된 변환 계수를 양자화 유닛(54)으로 전송할 수 있다. 양자화 유닛(54)은 비트 레이트를 추가로 감소시키기 위해 변환 계수를 양자화할 수 있다. 양자화 프로세스는 또한 일부 또는 모든 계수들과 관련된 비트 깊이를 감소시킬 수 있다. 양자화의 정도는 양자화 파라미터를 조정함으로써 수정될 수 있다. 일부 예들에서, 이후 양자화 유닛(54)은 양자화된 변환 계수들을 포함하는 매트릭스에 대한 스캔을 수행할 수 있다. 대안적으로, 엔트로피 인코딩 유닛(56)이 스캔을 수행할 수도 있다.
양자화 이후에, 엔트로피 인코딩 유닛(56)은 양자화된 변환 계수들을 비디오 비트스트림으로 엔트로피 인코딩할 수 있는바, 예를 들어, 컨텍스트 적응형 가변 길이 코딩(context adaptive variable length coding: CAVLC), 콘텍스트 적응형 이진 산술 코딩(context adaptive binary arithmetic coding: CABAC), 신택스-기반의 콘텍스트 적응형 이진 산술 코딩(syntax-based context-adaptive binary arithmetic coding: SBAC), 확률 간격 분할 엔트로피(probability interval partitioning entropy: PIPE) 코딩 또는 다른 엔트로피 인코딩 방법 또는 기술을 이용하여 엔트로피 인코딩할 수 있다. 다음으로, 인코딩된 비트스트림은 비디오 디코더(30)로 전송되거나, 비디오 디코더(30)로의 후속 전송 또는 비디오 디코더(30)에 의한 검색을 위해 저장 디바이스(32)에 보관될 수 있다. 또한, 엔트로피 인코딩 유닛(56)은 코딩 중인 현재 비디오 프레임에 대한 모션 벡터들 및 다른 신택스 요소들을 엔트로피 인코딩할 수 있다.
역양자화 유닛(58) 및 역변환 유닛(60)은 역양자화 및 역변환을 각각 적용하여, 다른 비디오 블록들의 예측을 위한 참조 블록을 생성하기 위해 픽셀 도메인에서 잔차 비디오 블록을 재구성한다. 전술한 바와 같이, 모션 보상 유닛(44) 은 DPB(64)에 저장된 프레임들의 하나 이상의 참조 블록들로부터 모션 보상된 예측 블록을 생성할 수 있다. 또한, 모션 보상 유닛(44)은 하나 이상의 보간 필터들을 예측 블록에 적용하여, 모션 추정에서 사용될 정수-이하(sub-integer) 픽셀 값들을 계산할 수 있다.
합산기(62)는 모션 보상 유닛(44)에 의해 생성된 모션 보상된 예측 블록과 재구성된 잔차 블록을 합산하여, DPB(64)에 저장되는 참조 블록을 생성할 수 있다. 이후, 참조 블록은 후속 비디오 프레임의 다른 비디오 블록을 인터 예측하기 위하여, 인트라 BC 유닛(48), 모션 추정 유닛(42) 및 모션 보상 유닛(44)에 의해서 참조 블록으로서 이용될 수 있다.
도 3은 본 출원의 일부 구현들에 따른 예시적인 비디오 디코더(30)를 예시하는 블록도이다. 비디오 디코더(30)는 비디오 데이터 메모리(79), 엔트로피 디코딩 유닛(80), 예측 프로세싱 유닛(81), 역양자화 유닛(86), 역변환 프로세싱 유닛(88), 합산기(90), 및 DPB(92)를 포함한다. 예측 프로세싱 유닛(81)은 또한, 모션 보상 유닛(82), 인트라 예측 프로세싱 유닛(84), 및 인트라 BC 유닛(85)을 더 포함한다. 비디오 디코더(30)는 도 2와 관련하여 비디오 인코더(20)에 대해 위에서 설명된 인코딩 프로세스와 일반적으로 상반되는 디코딩 프로세스를 수행할 수 있다. 예를 들어, 모션 보상 유닛(82)은 엔트로피 디코딩 유닛(80)으로부터 수신된 모션 벡터들에 기초하여 예측 데이터를 생성할 수도 있는 반면에, 인트라 예측 유닛(84)은 엔트로피 디코딩 유닛(80)으로부터 수신된 인트라-예측 모드 표시자들에 기초하여 예측 데이터를 생성할 수 있다.
일부 일례에서, 비디오 디코더(30)의 유닛은 본 출원의 구현예들을 수행하는 역할을 할 수도 있다. 또한, 일부 일례들에서, 본 출원의 구현예들은 비디오 디코더(30)의 하나 이상의 유닛들 사이에서 분할될 수도 있다. 예를 들어, 인트라 BC 유닛(85)은 단독으로, 또는 모션 보상 유닛(82), 인트라 예측 프로세싱 유닛(84), 및 엔트로피 디코딩 유닛(80)과 같은 비디오 디코더(30)의 다른 유닛들과 조합되어 본 출원의 구현예들을 수행할 수도 있다. 일부 예들에서, 비디오 디코더(30)는 인트라 BC 유닛(85)을 포함하지 않을 수도 있으며, 인트라 BC 유닛(85)의 기능은 모션 보상 유닛(82)과 같은 예측 프로세싱 유닛(81)의 다른 컴포넌트들에 의해 수행될 수도 있다.
비디오 데이터 메모리(79)는 비디오 디코더(30)의 다른 컴포넌트들에 의해 디코딩될, 인코딩된 비디오 비트스트림과 같은 비디오 데이터를 저장할 수 있다. 비디오 데이터 메모리(79)에 저장된 비디오 데이터는 예를 들어, 비디오 데이터의 유선 또는 무선 네트워크 통신을 통해 저장 디바이스(32)로부터, 카메라와 같은 로컬 비디오 소스로부터 획득될 수 있으며, 또는 물리적 데이터 저장 매체(예: 플래시 드라이브 또는 하드 디스크)에 액세스함에 의해서 획득될 수 있다. 비디오 데이터 메모리(79)는 인코딩된 비디오 비트스트림으로부터 인코딩된 비디오 데이터를 저장하는 코딩된 픽처 버퍼(CPB)를 포함할 수 있다. 비디오 디코더(30)의 디코딩된 픽처 버퍼(DPB)(92)는 (예를 들어, 인트라 또는 인터 예측 코딩 모드에서) 비디오 디코더(30)에 의해 비디오 데이터를 디코딩하는데 사용하기 위한 참조 비디오 데이터를 저장한다. 비디오 데이터 메모리(79) 및 DPB(92)는 동기식 DRAM(SDRAM), 자기-저항 RAM(MRAM), 저항성 RAM(RRAM)을 포함하는 DRAM 또는 기타 유형의 메모리 디바이스를 포함하는 임의의 다양한 메모리 디바이스들에 의해 형성될 수 있다. 예시를 위해, 비디오 데이터 메모리(79) 및 DPB(92)는 도 3에서 비디오 디코더(30)의 2개의 개별 구성요소로서 도시된다. 하지만, 비디오 데이터 메모리(79)와 DPB(92)가 동일한 메모리 디바이스 또는 별도의 메모리 디바이스에 의해 제공될 수 있다는 것은 당업자에게 명백할 것이다. 일부 예들에서, 비디오 데이터 메모리(79)는 비디오 디코더(30)의 다른 컴포넌트들과 함께 온-칩일 수도 있고, 또는 그러한 컴포넌트들에 대해 오프-칩일 수도 있다.
디코딩 프로세스 동안, 비디오 디코더(30)는 인코딩된 비디오 프레임의 비디오 블록들 및 연관된 신택스 요소들을 나타내는 인코딩된 비디오 비트스트림을 수신한다. 비디오 디코더(30)는 비디오 프레임 레벨 및/또는 비디오 블록 레벨에서 신택스 요소들을 수신할 수도 있다. 비디오 디코더(30)의 엔트로피 디코딩 유닛(80)은 비트스트림을 엔트로피 디코딩하여, 양자화된 계수, 모션 벡터 또는 인트라 예측 모드 표시자, 및 다른 신택스 요소를 생성한다. 다음으로, 엔트로피 디코딩 유닛(80)은 모션 벡터들 및 다른 신택스 요소들을 예측 프로세싱 유닛(81)에 전달한다.
비디오 프레임이 인트라 예측 코딩된(I) 프레임으로서 코딩되는 경우 또는 다른 유형들의 프레임들의 인트라 코딩된 예측 블록들인 경우, 예측 프로세싱 유닛(81)의 인트라 예측 프로세싱 유닛(84)은 현재 프레임의 이전에 디코딩된 블록들로부터 시그널링된 인트라 예측 모드 및 참조 데이터에 기초하여, 현재 비디오 프레임의 비디오 블록에 대한 예측 데이터를 생성할 수 있다.
비디오 프레임이 인터-예측 코딩된(즉, B 또는 P) 프레임으로서 코딩되는 경우, 예측 프로세싱 유닛(81)의 모션 보상 유닛(82)은 엔트로피 디코딩 유닛(80)으로부터 수신된 모션 벡터들 및 다른 신택스 요소들에 기초하여, 현재 비디오 프레임의 비디오 블록에 대한 하나 이상의 예측 블록들을 생성할 수 있다. 예측 블록들 각각은 참조 프레임 리스트들 중 하나에 있는 참조 프레임으로부터 생성될 수 있다. 비디오 디코더(30)는 DPB(92)에 저장된 참조 프레임들에 기초하여 디폴트 구성 기술들을 사용하여 참조 프레임 리스트들, 리스트 0 및 리스트 1을 구성할 수도 있다.
일부 일례에서, 비디오 블록이 본 명세서에 서술된 인트라 BC 모드에 따라 코딩되는 경우, 예측 프로세싱 유닛(81)의 인트라 BC 유닛(85)은 엔트로피 디코딩 유닛(80)으로부터 수신된 블록 벡터들 및 다른 신택스 요소들에 기초하여 현재 비디오 블록에 대한 예측 블록들을 생성한다. 예측 블록들은 비디오 인코더(20)에 의해 정의된 현재 비디오 블록과 동일한 픽처의 재구성된 영역 내에 있을 수도 있다.
모션 보상 유닛(82) 및/또는 인트라 BC 유닛(85)은 모션 벡터들 및 다른 신택스 요소들을 파싱함으로써 현재 비디오 프레임의 비디오 블록에 대한 예측 정보를 결정하고, 그리고 상기 예측 정보를 사용하여, 디코딩되는 현재 비디오 블록에 대한 예측 블록들을 생성한다. 예를 들어, 모션 보상 유닛(82)은 수신된 신택스 요소들 중 일부를 이용하여, 비디오 프레임의 비디오 블록들을 코딩하는데 사용되는 예측 모드(예를 들어, 인트라 또는 인터 예측), 인터 예측 프레임 유형(예를 들어, B 또는 P), 프레임에 대한 하나 이상의 참조 프레임 리스트에 대한 구성 정보, 프레임의 각각의 인터 예측 인코딩된 비디오 블록에 대한 모션 벡터, 프레임의 각각의 인터 예측 코딩된 비디오 블록에 대한 인터 예측 상태, 및 현재 비디오 프레임의 비디오 블록들을 디코딩하기 위한 기타 다른 정보를 결정한다.
이와 유사하게, 인트라 BC 유닛(85)은 수신된 신택스 요소들, 예를 들어, 플래그의 일부를 이용하여, 현재의 비디오 블록이 인트라 BC 모드를 사용하여 예측되었다는 것, 프레임의 비디오 블록들의 구성 정보가 재구성된 영역에 있으며 DPB(92)에 저장되어야 한다는 것, 프레임의 각각의 인트라 BC 예측된 비디오 블록에 대한 블록 벡터, 프레임의 각각의 인트라 BC 예측된 비디오 블록에 대한 인트라 BC 예측 상태 및 현재 비디오 프레임의 비디오 블록을 디코딩하기 위한 기타 정보를 결정할 수 있다.
또한, 모션 보상 유닛(82)은 참조 블록들의 정수-이하 픽셀들에 대한 보간된 값들을 계산하도록, 비디오 블록의 인코딩 동안 비디오 인코더(20)에 의해 이용되는 것과 같은 보간 필터를 이용하여 보간을 수행할 수 있다. 이 경우, 모션 보상 유닛(82)은 수신된 신택스 요소들로부터 비디오 인코더(20)에 의해 사용되는 보간 필터들을 결정할 수도 있고 그리고 예측 블록들을 생성하기 위해 보간 필터들을 사용할 수 있다.
역양자화 유닛(86)은 양자화의 정도를 결정하기 위해 비디오 프레임 내의 각 비디오 블록에 대해 비디오 인코더(20)에 의해 계산된 동일한 양자화 파라미터를 이용하여, 비트스트림에 제공되고 엔트로피 디코딩 유닛(80)에 의해 엔트로피 디코딩된 양자화된 변환 계수들을 역양자화한다. 역 변환 프로세싱 유닛(88 은 픽셀 도메인에서 잔차 블록들을 재구성하기 위하여, 역 변환, 예를 들어, 역 DCT, 역 정수 변환(inverse integer transform), 또는 개념적으로 유사한 역 변환 프로세스를 변환 계수들에 적용한다.
모션 보상 유닛(82) 또는 인트라 BC 유닛(85)이 벡터 및 다른 신택스 요소에 기초하여 현재 비디오 블록에 대한 예측 블록을 생성한 이후, 합산기(90)는 역변환 프로세싱 유닛(88)으로부터의 잔차 블록과 모션 보상 유닛(82) 및 인트라 BC 유닛(85)에 의해 생성된 대응하는 예측 블록을 합산함으로써 현재 비디오 블록에 대한 디코딩된 비디오 블록을 재구성한다. 디코딩된 비디오 블록을 추가로 프로세싱하기 위해 합산기(90)와 DPB(92) 사이에 인-루프 필터(미도시)가 위치될 수 있다. 다음으로, 주어진 프레임의 디코딩된 비디오 블록들은 DPB(92)에 저장되고, DPB(92)는 다음 비디오 블록의 후속 모션 보상에 사용되는 참조 프레임을 저장한다. DPB(92), 또는 DPB(92)와는 별도의 메모리 디바이스는 또한 도 1의 디스플레이 디바이스(34)와 같은 디스플레이 디바이스 상의 추후 프리젠테이션을 위해 디코딩된 비디오를 저장할 수 있다.
전형적인 비디오 코딩 프로세스에서, 비디오 시퀀스는 통상적으로 프레임들 또는 픽처들의 순서화된 세트를 포함한다. 각 프레임은 SL, SCb 및 SCr로 표시된 3개의 샘플 어레이를 포함할 수 있다. SL은 루마 샘플들의 2차원 어레이이다. SCb는 Cb 크로마 샘플들의 2차원 어레이이다. SCr은 Cr 크로마 샘플들의 2차원 어레이이다. 다른 경우에, 프레임이 단색일 수 있으므로, 루마 샘플들의 2차원 어레이 하나만을 포함한다.
도 4a에 도시된 바와 같이, 비디오 인코더(20)(또는 보다 구체적으로 파티션 유닛(45))는 먼저 프레임을 코딩 트리 유닛들(CTU)의 세트로 분할(또는 파티셔닝 이라 함)함으로써 프레임의 인코딩된 표현을 생성한다. 비디오 프레임은 왼쪽에서 오른쪽으로, 위에서 아래로 래스터 스캔 순서로 연속적으로 정렬된 정수 CTU를 포함할 수 있다. 각 CTU는 가장 큰 논리 코딩 단위이고, CTU의 너비와 높이는 시퀀스 파라미터 세트에서 비디오 인코더(20)에 의해 시그널링되어, 비디오 시퀀스의 모든 CTU들이 128×128, 64×64, 32×32, 16×16 중 하나인 동일한 크기를 갖는다. 그러나 본 출원이 반드시 특정한 크기로 제한되는 것은 아니라는 점에 유의해야 한다. 도 4b에 도시된 바와 같이, 각각의 CTU는 루마 샘플들의 하나의 코딩 트리 블록(CTB), 크로마 샘플들의 2개의 대응하는 코딩 트리 블록, 및 코딩 트리 블록의 샘플을 코딩하는데 사용되는 신택스 요소를 포함한다. 신택스 요소는 코딩된 픽셀 블록의 유닛들의 상이한 유형들의 속성들 및 인터 또는 인트라 예측, 인트라 예측 모드, 모션 벡터 및 기타 파라미터를 포함하여 비디오 시퀀스가 비디오 디코더(30)에서 재구성될 수 있는 방법을 설명한다. 단색(monochrome) 픽처들 또는 3개의 개별 컬러 평면을 갖는 픽처들에서, CTU는 코딩 트리 블록의 샘플들을 코딩하는데 사용되는 단일 코딩 트리 블록 및 신택스 요소를 포함할 수 있다. 코딩 트리 블록은 샘플들의 NxN 블록일 수 있다.
더 나은 성능을 달성하기 위해, 비디오 인코더(20)는 CTU의 코딩 트리 블록들에 대해 이진 트리 분할(binary-tree partitioning), 3진 트리 분할(ternary-tree partitioning), 쿼드(quad) 트리 분할 또는 이들의 조합과 같은 트리 분할을 재귀적으로 수행하고 그리고 CTU를 더 작은 코딩 유닛(CU)으로 분할할 수 있다. 도 4c에서, 64x64 CTU(400)는 먼저 각각 32x32의 블록 크기를 갖는 4개의 더 작은 CU로 분할된다. 4개의 더 작은 CU들 중 CU(410)와 CU(420)는 각각 16x16의 블록 크기를 갖는 4개의 CU로 분할된다. 2개의 16x16 CU(430 및 440)는 각각 8x8 블록 크기의 4개의 CU로 분할된다. 도 4d는 도 4c에 도시된 바와 같은 CTU(400)의 파티션 프로세스의 최종 결과를 예시하는 쿼드-트리 데이터 구조를 도시하며, 쿼드 트리의 각 리프(leaf) 노드는 32x32에서 8x8 범위의 각각의 크기를 갖는 하나의 CU에 대응한다. 도 4b에 도시된 CTU와 같이, 각각의 CU는 루마 샘플의 코딩 블록(CB) 및 동일한 크기의 프레임의 크로마 샘플의 2개의 대응하는 코딩 블록들, 및 코딩 블록의 샘플을 코딩하는데 사용되는 신택스 요소를 포함할 수 있다. 단색 픽처 또는 3개의 개별 컬러 평면을 갖는 픽처에서, CU는 코딩 블록의 샘플을 코딩하는 데 사용되는 단일 코딩 블록 및 신택스 구조를 포함할 수 있다. 다음을 유의해야 하는바, 도 4c 및 4d에 도시된 쿼드 트리 분할은 단지 예시를 위한 것이며, 하나의 CTU는 쿼드/삼진/이진 트리 파티션을 기반으로 하는 다양한 로컬 특성에 적응하기 위해 CU들로 분할될 수 있다. 다중 유형 트리 구조에서, 하나의 CTU는 쿼드 트리 구조로 분할되고, 각각의 쿼드 트리 리프 CU는 이진 및 삼진 트리 구조로 더 분할될 수 있다. 도 4e에 도시된 바와 같이, 5개의 분할 유형들 즉, 4 분할(quaternary partitioning), 수평 2진 분할(horizontal binary partitioning), 수직 2진 분할, 수평 3진 분할(horizontal ternary partitioning) 및 수직 3진 분할이 존재한다.
일부 구현에서, 비디오 인코더(20)는 CU의 코딩 블록을 하나 이상의 MxN 예측 블록들(PB)로 더 분할할 수 있다. 예측 블록은 동일한 예측(인터 또는 인트라)이 적용되는 샘플들의 직사각형(정사각형 또는 비정사각형) 블록이다. CU의 예측 유닛(PU)은 루마 샘플들의 예측 블록, 크로마 샘플들의 2개의 대응하는 예측 블록, 및 예측 블록을 예측하는데 사용되는 신택스 요소를 포함할 수 있다. 단색 픽처 또는 3개의 개별 컬러 평면을 갖는 픽처에서, PU는 단일 예측 블록 및 예측 블록을 예측하기 위해 사용되는 신택스 구조를 포함할 수 있다. 비디오 인코더(20)는 CU의 각각의 PU의 예측 루마, Cb, 및 Cr 루마 블록들, Cb, 및 Cr 예측 블록들을 생성할 수 있다.
비디오 인코더(20)는 PU에 대한 예측 블록들을 생성하기 위해 인트라 예측 또는 인터 예측을 사용할 수 있다. 비디오 인코더(20)가 PU의 예측 블록들을 생성하기 위해 인트라 예측을 사용하는 경우, 비디오 인코더(20)는 PU와 연관된 프레임의 디코딩된 샘플들에 기초하여 PU의 예측 블록들을 생성할 수 있다. 비디오 인코더(20)가 PU의 예측 블록들을 생성하기 위해 인터 예측을 사용하는 경우, 비디오 인코더(20)는 PU와 연관된 프레임 이외의 하나 이상의 프레임들의 디코딩된 샘플들에 기초하여 PU의 예측 블록들을 생성할 수 있다.
비디오 인코더(20)가 CU의 하나 이상의 PU들에 대한 예측 루마, Cb, 및 Cr 블록들을 생성한 후에, 비디오 인코더(20)는 CU의 루마 잔차 블록의 각각의 샘플이 CU의 예측 루마 블록들 중 하나의 루마 샘플과 CU의 오리지널 루마 코딩 블록의 대응하는 샘플 간의 차이를 나타내도록, CU의 오리지널 루마 코딩 블록으로부터 CU의 예측 루마 블록들을 감산함으로써 CU에 대한 루마 잔차 블록을 생성할 수 있다. 유사하게, 비디오 인코더(20)는 CU의 Cb 잔차 블록의 각각의 샘플이 CU의 예측 Cb 블록들 중 하나의 Cb 샘플과 CU의 오리지널 Cb 코딩 블록의 대응 샘플 간의 차이를 나타내도록 그리고 CU의 Cr 잔차 블록의 각각의 샘플이 CU의 예측 Cr 블록들 중 하나의 Cr 샘플과 CU의 오리지널 Cr 코딩 블록의 대응 샘플 간의 차이를 나타내도록, CU에 대한 Cb 잔차 블록 및 Cr 잔차 블록을 각각 생성할 수 있다.
또한, 도 4c에 도시된 바와 같이, 비디오 인코더(20)는 CU의 루마, Cb, 및 Cr 잔차 블록을 하나 이상의 루마, Cb, 및 Cr 변환 블록으로 분해하기 위하여 쿼드-트리 분할을 사용할 수 있다. 변환 블록은 동일한 변환이 적용되는 샘플들의 직사각형(정사각형 또는 비정사각형) 블록이다. CU의 변환 유닛(TU)은 루마 샘플들의 변환 블록, 크로마 샘플들의 2개의 대응하는 변환 블록들, 및 변환 블록 샘플들을 변환하는데 사용되는 신택스 요소를 포함할 수 있다. 따라서, CU의 각각의 TU는 루마 변환 블록, Cb 변환 블록, 및 Cr 변환 블록과 연관될 수 있다. 일부 예들에서, TU와 연관된 루마 변환 블록은 CU의 루마 잔차 블록의 서브-블록일 수 있다. Cb 변환 블록은 CU의 Cb 잔차 블록의 서브블록일 수 있다. Cr 변환 블록은 CU의 Cr 잔차 블록의 서브 블록일 수 있다. 단색 픽처 또는 3개의 개별 컬러 평면을 갖는 픽처에서, TU는 단일 변환 블록 및 변환 블록의 샘플들을 변환하는데 사용되는 신택스 구조를 포함할 수 있다.
비디오 인코더(20)는 TU의 루마 변환 블록 하나 이상의 변환들을 적용하여 TU에 대한 루마 계수 블록(luma coefficient block)을 생성할 수 있다. 계수 블록은 변환 계수들의 2차원 어레이일 수 있다. 변환 계수는 스칼라 양일 수 있다. 비디오 인코더(20)는 TU에 대한 Cb 계수 블록을 생성하기 위해 TU의 Cb 변환 블록에 하나 이상의 변환들을 적용할 수 있다. 비디오 인코더(20)는 TU에 대한 Cr 계수 블록을 생성하기 위해 TU의 Cr 변환 블록에 하나 이상의 변환들을 적용할 수 있다.
계수 블록(예를 들어, 루마 계수 블록, Cb 계수 블록 또는 Cr 계수 블록)을 생성한 후, 비디오 인코더(20)는 계수 블록을 양자화할 수 있다. 일반적으로 양자화는 변환 계수를 나타내는데 사용되는 데이터의 양을 가능한 감소시켜 추가 압축을 제공하기 위해 변환 계수들이 양자화되는 프로세스를 지칭한다. 비디오 인코더(20)가 계수 블록을 양자화한 후, 비디오 인코더(20)는 양자화된 변환 계수들을 나타내는 신택스 요소들을 엔트로피 인코딩할 수 있다. 예를 들어, 비디오 인코더(20)는 양자화된 변환 계수들을 나타내는 신택스 요소들에 대해 컨텍스트 적응형 이진 산술 코딩(CABAC)을 수행할 수 있다. 마지막으로, 비디오 인코더(20)는 코딩된 프레임 및 관련 데이터에 대한 표현을 형성하는 비트들의 시퀀스를 포함하는 비트스트림을 출력할 수도 있고, 이는 저장 디바이스(32)에 저장되거나 또는 목적지 디바이스(14)로 전송될 수 있다.
비디오 인코더(20)에 의해 생성된 비트스트림을 수신한 후, 비디오 디코더(30)는 비트스트림을 파싱하여 비트스트림으로부터 신택스 요소들을 획득할 수 있다. 비디오 디코더(30)는 비트스트림으로부터 획득된 신택스 요소들에 적어도 부분적으로 기초하여 비디오 데이터의 프레임들을 재구성할 수 있다. 비디오 데이터를 재구성하는 프로세스는 일반적으로 비디오 인코더(20)에 의해 수행되는 인코딩 프로세스와 상호적이다. 예를 들어, 비디오 디코더(30)는 현재 CU의 TU 들과 연관된 계수 블록들에 대해 역 변환을 수행하여 현재 CU의 TU 들과 연관된 잔차 블록들을 재구성할 수 있다. 비디오 디코더(30)는 또한 현재 CU의 PU에 대한 예측 블록들의 샘플들을 현재 CU의 TU의 변환 블록들의 대응하는 샘플들에 추가함으로써 현재 CU의 코딩 블록을 재구성할 수 있다. 프레임의 각 CU에 대한 코딩 블록들을 재구성한 이후에, 비디오 디코더(30)는 프레임을 재구성할 수 있다.
전술한 바와 같이, 비디오 코딩은 주로 2개의 모드들 즉, 인트라-프레임 예측(또는 인트라 예측) 및 인터-프레임 예측(또는 인터 예측)을 이용하여 비디오 압축을 달성한다. 팔레트 기반 코딩(palette-based coding)은 많은 비디오 코딩 표준에서 채택한 또 다른 코딩 방식이다. 스크린-생성 콘텐츠 코딩에 특히 적합할 수 있는 팔레트 기반 코딩에서, 비디오 코더(예를 들어, 비디오 인코더 20 또는 비디오 디코더 30)는 주어진 블록의 비디오 데이터를 나타내는 컬러들의 팔레트 테이블을 형성한다. 팔레트 테이블은 주어진 블록에서 가장 지배적인(예를 들어, 자주 사용되는) 픽셀 값들을 포함한다. 주어진 블록의 비디오 데이터에서 자주 표현되지 않는 픽셀 값들은 팔레트 테이블에 포함되지 않거나 또는 이스케이프 컬러(escape colors)로서 팔레트 테이블에 포함된다.
팔레트 테이블의 각 엔트리는 팔레트 테이블에 있는 대응 픽셀 값에 대한 인덱스를 포함한다. 블록의 샘플들에 대한 팔레트 인덱스는 팔레트 테이블로부터의 어떤 엔트리가 어떤 샘플을 예측하거나 재구성하는데 사용될 것인지를 나타내기 위해 코딩될 수 있다. 이러한 팔레트 모드는 픽처, 슬라이스, 타일 또는 비디오 블록들의 기타 다른 그룹핑의 제 1 블록에 대한 팔레트 예측기(palette predictor)를 생성하는 프로세스로 시작한다. 아래에서 설명되는 바와 같이, 후속 비디오 블록들에 대한 팔레트 예측기는 이전에 사용된 팔레트 예측기를 업데이트함으로써 생성되는 것이 일반적이다. 설명을 위해, 팔레트 예측기가 픽처 레벨에서 정의된다고 가정한다. 다시 말해서, 픽처는 다수의 코딩 블록들을 포함할 수 있고, 각각의 코딩 블록은 자신의 팔레트 테이블을 갖지만, 전체 픽처에 대해서는 하나의 팔레트 예측기가 있다.
비디오 비트스트림에서 팔레트 엔트리를 시그널링하는데 필요한 비트들을 줄이기 위해, 비디오 디코더는 비디오 블록을 재구성하기 위해 사용되는 팔레트 테이블에서 새로운 팔레트 엔트리들을 결정하기 위해 팔레트 예측기를 활용할 수도 있다. 예를 들어, 팔레트 예측기는 이전에 사용된 팔레트 테이블로부터의 팔레트 엔트리를 포함할 수 있거나 또는 심지어 가장 최근에 사용된 팔레트 테이블의 모든 엔트리를 포함함으로써 가장 최근에 사용된 팔레트 테이블로 초기화될 수 있다. 일부 구현에서, 팔레트 예측기는 가장 최근에 사용된 팔레트 테이블로부터의 모든 엔트리들 보다 적은 수의 엔트리를 포함할 수 있고, 그리고 이전에 사용된 다른 팔레트 테이블들로부터의 일부 엔트리들을 통합할 수 있다. 팔레트 예측기는 상이한 블록들을 코딩하는데 사용되는 팔레트 테이블들과 동일한 크기를 가질 수 있으며 또는 상이한 블록들을 코딩하는데 사용되는 팔레트 테이블들보다 크거나 작을 수 있다. 일례에서, 팔레트 예측기는 64개의 팔레트 엔트리들을 포함하는 선입선출(first-in-first-out: FIFO) 테이블로 구현된다.
팔레트 예측기로부터 비디오 데이터의 블록을 위한 팔레트 테이블을 생성하기 위해, 비디오 디코더는 팔레트 예측기의 각각의 엔트리에 대한 1 비트 플래그를, 인코딩된 비디오 비트스트림으로부터 수신할 수 있다. 1 비트 플래그는 팔레트 예측기의 연관된 엔트리가 팔레트 테이블에 포함됨을 나타내는 제 1 값(예를 들어, 이진 1) 또는 팔레트 예측기의 연관된 엔트리가 팔레트 테이블에 포함되지 않음을 나타내는 제 2 값(예를 들어, 이진 0)을 가질 수 있다. 팔레트 예측기의 크기가 비디오 데이터 블록에 대해 사용되는 팔레트 테이블보다 큰 경우, 비디오 디코더는 팔레트 테이블에 대한 최대 크기에 도달하면, 플래그를 수신하는 것을 중지할 수 있다.
일부 구현에서, 팔레트 테이블의 일부 엔트리는 팔레트 예측기를 사용하여 결정되는 대신에, 인코딩된 비디오 비트스트림에서 직접 시그널링될 수 있다. 이러한 엔트리에 대해, 비디오 디코더는 인코딩된 비디오 비트스트림으로부터, 루마에 대한 픽셀 값들 및 엔트리와 연관된 2개의 크로마 성분들을 나타내는 3개의 개별 m-비트 값을 수신할 수도 있으며, 여기서 m은 비디오 데이터의 비트 깊이를 나타낸다. 팔레트 엔트리들을 직접 시그널링하는데 필요한 여러 m비트 값들과 비교하면, 팔레트 예측기로부터 도출된 이들 팔레트 엔트리들은 오직 1 비트 플래그만을 필요로 한다. 따라서, 팔레트 예측기를 사용하여 일부 또는 모든 팔레트 엔트리들을 시그널링하는 것은 새로운 팔레트 테이블의 엔트리를 시그널링하는데 필요한 비트 수를 상당히 감소시킬 수 있고, 이에 의해 팔레트 모드 코딩의 전체 코딩 효율을 향상시킬 수 있다.
많은 경우에, 하나의 블록에 대한 팔레트 예측기는, 하나 이상의 이전에 코딩된 블록들을 코딩하는데 사용되는 팔레트 테이블에 기초하여 결정된다. 하지만, 픽처, 슬라이스 또는 타일에서 제 1 코딩 트리 유닛을 코딩하는 경우, 이전에 코딩된 블록의 팔레트 테이블은 이용되지 못할 수도 있다. 따라서, 이전에 사용된 팔레트 테이블의 엔트리를 사용하여 팔레트 예측기가 생성될 수 없다. 그러한 경우에, 팔레트 예측기 이니셜라이저(palette predictor initializers)의 시퀀스가 시퀀스 파라미터 세트(SPS) 및/또는 픽처 파라미터 세트(PPS)에서 시그널링될 수 있으며, 이는 이전에 사용된 팔레트 테이블을 사용할 수 없을 때 팔레트 예측기를 생성하는데 사용되는 값들이다. SPS는 일반적으로 각 슬라이스 세그먼트 헤더에서 발견되는 신택스 요소에 의해 참조되는 PPS에서 발견되는 신택스 요소의 콘텐츠에 의해 결정되는 바와 같이 코딩된 비디오 시퀀스(CVS)라고 하는 일련의 연속적인 코딩된 비디오 픽처들에 적용되는 신택스 요소들의 신택스 구조를 지칭한다. PPS는 일반적으로 각 슬라이스 세그먼트 헤더에서 발견되는 신택스 요소에 의해 결정되는 바와 같이 CVS 내의 하나 이상의 개별 픽처들에 적용되는 신택스 요소들의 신택스 구조를 지칭한다. 따라서, SPS는 일반적으로 PPS보다 높은 레벨의 신택스 구조로 간주되며, 이는 SPS에 포함된 신택스 요소들이 PPS에 포함된 신택스 요소에 비하여 일반적으로 덜 자주 변경되고 비디오 데이터의 더 많은 부분에 적용됨을 의미한다.
도 5는 본 개시의 일부 구현들에 따른 인터 및 인트라 코딩된 블록들의 잔차들을 변환하기 위한 예시적인 다중 변환 선택(MTS) 방식을 예시하는 테이블(500)이다. 예를 들어, 인코딩 동안, 비디오 인코더(20)는 도 5의 변환 프로세싱 유닛(52)으로 MTS를 수행한다. 디코딩 동안, 비디오 디코더(30)는 도 3의 역변환 프로세싱 유닛(88)으로 대응하는 역변환 방법을 이용하여 역변환을 수행한다.
현재 VVC 사양은 인터 및 인트라 코딩된 블록들 모두에서 잔차들을 변환하기 위해 MTS 방식을 채용한다. MTS가 사용되는 경우, 인코딩 동안, 비디오 인코더는 많은 변환 방법들 중 하나를 선택하여 코딩된 블록의 잔차들에 적용한다. 예를 들어, 비디오 인코더는 DCT2 변환(예를 들어, MTS는 디스에이블됨), DCT8 변환, 또는 DST7 변환을 코딩된 블록의 잔차에 적용할 수 있다. 신택스 요소들의 그룹(예를 들어, MTS_CU_flag, MTS_Hor_flag, MTS_Ver_flag)(플래그라 지칭되기도 함)은 코딩된 블록에 사용되는 특정 변환 방법을 시그널링하는데 사용된다.
일부 실시예에서, 2개의 신택스 요소들은 인트라 및 인터 모드들에 대해 MTS를 개별적으로 인에이블하기 위해 시퀀스 레벨에서 지정된다(예를 들어, 시퀀스 파라미터 세트(SPS)에 포함됨). MTS가 시퀀스 레벨에서 인에이블되는 경우, 다른 CU-레벨 신택스 요소(예를 들어, 테이블 500의 MTS_CU_flag)는 MTS가 특정 CU에 적용되는지 여부를 나타내기 위해 추가로 시그널링된다.
일부 실시예에서, MTS는 다음을 포함하는 코딩 블록의 특성과 관련된 복수의 기준들이 충족되는 경우에만 사용된다: 1) 코딩 블록의 폭과 높이 둘다는 기정의된 값(예컨대, 32) 이하이다; 2) 코딩 블록은 루마 코딩 블록이다(예를 들어, 루마 잔차 코딩에서만 MTS가 사용되기 때문에 루마 CBF flag == 1); 3) 마지막 비-제로(non-zero) 계수의 수평 및 수직 좌표들 모두는 기정의된 값(예컨대, 16) 보다 작다(예를 들어, 마지막 비-제로 계수는 변환 블록의 기정의된 왼쪽 상단 영역으로 제한됨). 전술한 기준 중 하나라도 충족되지 않으면, 비디오 인코더는 MTS를 적용하지 않고 DCT2 변환과 같은 디폴트 변환 방법을 적용하여 블록 잔차들을 변환하고 그리고 대응하는 신택스 요소는 디폴트 변환이 사용됨을 나타내도록 설정된다(예를 들어, MTS_CU_flag == 0 이고 MTS_Hor_flag 및 MTS_Ver_flag는 시그널링 되지 않음).
테이블 500은 MTS에서 사용되는 신택스 요소 값들 및 해당 변환 방법을 예시한다. 블록 잔차를 변환하기 위해 DCT2 변환이 사용되는 경우, MTS_CU_flag 는 0으로 설정되고 MTS_Hor_flag 및 MTS_Ver_flag 는 시그널링되지 않는다. MTS_CU_flag 가 1로 설정되면(예를 들어, DCT8 및/또는 DST7이 사용되고 있음을 나타냄), 2개의 다른 신택스 요소들(예를 들어, MTS_Hor_flag, MTS_Ver_flag )가 추가로 시그널링되어, 수평 및 수직 방향에 대한 변환 유형을 각각 나타낸다. MTS_Hor_flag == 1 또는 MTS_Ver_flag == 1 인 경우, 각각의 수평 또는 수직 성분은 DST7 방법을 사용하여 변환된다. MTS_Hor_flag == 0 또는 MTS_Ver_flag == 0 인 경우, 각각의 수평 또는 수직 성분은 DCT8 방법을 사용하여 변환된다.
일부 실시예에서, 모든 MTS 변환 계수들은 6 비트 정밀도로 인코딩되며, 이는 DCT2 코어 변환과 동일하다. HEVC에서 사용되는 모든 변환 사이즈들을 VVC가 지원한다는 점을 감안할 때, HEVC에서 사용되는 모든 변환 코어들은 4-포인트, 8-포인트, 16-포인트 및 32-포인트 DCT2 변환 및 4-포인트 DST7 변환을 포함하여 VVC에서와 동일하게 유지된다. 한편, 64-포인트 DCT2, 4-포인트 DCT8, 8-포인트, 16-포인트, 32-포인트 DST7 및 DCT8을 포함한 다른 변환 코어들은 VVC 변환 설계에서 추가로 지원된다.
또한, 대형 DST7 또는 DCT8 변환의 계산 복잡도를 줄이기 위해, 저주파 영역의 외부(예컨대, 변환 블록의 왼쪽 상단 16x16 영역)에 위치한 변환 계수들(예컨대, 고주파수 변환 계수들)은 DST7 및 DCT8 변환 블록에 대해 0 으로(예컨대, 제로-출력 연산) 설정된다(블록의 너비 또는 높이가 32일 때).
일부 실시예에서, 변환 블록의 변환 계수들은 비중첩(non-overlapped) 계수 그룹(CGs)을 사용하여 코딩된다. CG 크기는 변환 블록의 크기에 따라 결정된다. 변환 블록 내의 CG 및 각각의 CG 내의 변환 계수는 미리정의된 하나의 스캔 순서(예를 들어, 대각 스캔 순서)에 기초하여 코딩된다.
도 6은 본 개시물의 일부 구현들에 따른 비-제로(non-zero) 변환 계수들을 갖는 예시적인 변환 블록(600)을 예시하는 블록도이다. 변환 블록(600)은 변환 블록(600)의 상단 좌측 메쉬 부분에 대응하는 제 1 영역(602) 및 변환 블록(600)의 점선 부분으로 표현되는 제 2 영역(604)을 포함한다. 제 1 영역(602)은 미리 정의된 크기(예를 들어, 변환 블록(600)의 좌측 상단 16x16 영역)를 가지며 그리고 하나 이상의 비-제로(non-zero) 변환 계수들(예를 들어, 제 1, 제 2 및 제 3 비-제로 계수들 606, 608, 610)를 포함한다. 제 2 영역(604)은 하나 이상의 비-제로 변환 계수들을 포함하거나 포함하지 않을 수 있는 제 1 영역(602) 외부의 영역이다.
도 5에 설명된 바와 같이, 비디오 인코더/디코더는 인트라 및 인터 모드(예를 들어, DCT8 또는 DST7 변환) 모두에서 잔차들(예를 들어, 루마 잔차들)을 변환하기 위해 MTS를 사용할 수 있다. 추가적으로, 비디오 인코더/디코더는 다음 기준이 충족될 때만 MTS를 사용한다: (1) 코딩 블록의 폭 및 높이 모두가 미리 정의된 값(예를 들어, 32)보다 작거나 같다; (2) 코딩 블록은 루마 코딩 블록(예를 들어, MTS가 루마 잔차 코딩에만 적용되기 때문에 루마 CBF flag == 1)이다; 및 (3) 마지막 비-제로 계수(예를 들어, 제 3 비-제로 계수(610))의 수평 및 수직 좌표들 둘다가 제 1 영역(602) 내에서 미리 정의된 값(예를 들어, 16)보다 작다.
일부 실시예에서, 위에 나열된 3개의 기준이 충족될 때, 변환 블록의 미리 정의된 상단 좌측 영역(예를 들어, 제 1 영역 602)에 오직 하나의 비-제로 변환 계수가 있는 경우에도 MTS가 인에이블될 수 있다. 다른 실시예에서, MTS 코딩 이득은 DCT2 변환보다 더 나은 에너지 압축을 유도하는 하나의 비-DCT2 변환의 적절한 선택으로부터 나오기 때문에, MTS 툴은 변환 블록에 충분한 개수의 비-제로 변환 계수가 있는 경우에만 효과적이다. 이 경우, MTS 신택스 요소를 시그널링하기 위해 추가적인 기준이 사용된다.
일부 실시예에서, 추가적인 기준은 변환 블록에 적어도 최소 개수의 비-제로 변환 계수가 있다는 점을 포함한다(예를 들어, 위의 3개의 기준이 충족될 때 그리고 전체 변환 블록에 적어도 최소 개수의 비-제로 변환 계수가 있는 경우에만 MTS_CU_flag 가 시그널링된다). 디코딩 동안, 비-제로 변환 계수의 개수가 미리 정의된 임계값을 초과할 때만, 비디오 디코더는 MTS 신택스 요소(예를 들어, MTS_CU_flag)를 수신하고 파싱한다. 비-제로 변환 계수의 최소 개수가 존재하지 않으면, 비디오 디코더는 MTS_CU_flag 를 0으로 설정하고 그리고 변환 블록에 역 DCT2 변환을 적용한다. 예를 들어, 변환 블록(600)에서, MTS를 인에이블하기 위한 비-제로 변환 계수의 최소 개수가 2개라고 가정하면, 3개의 비-제로 계수가 존재하기 때문에 변환 블록(600)에 대해 MTS가 인에이블될 수 있다.
일부 실시예에서, MTS 신택스 요소는 변환 블록의 마지막 비-제로 변환 계수의 스캔 순서 인덱스에 기초하여 조건부로 시그널링된다. 예를 들어, 도 6에서, 마지막 비-제로 변환 계수(제 3 비-제로 계수 610)의 스캔 순서 인덱스는 N이다. 결과적으로, 비디오 인코더 또는 디코더는 변환 블록의 비-제로 계수의 개수가 미리정의된 임계값을 초과하는지를 결정하기 위해 모든 비-제로 변환 계수를 카운트할 필요는 없다(이는 루마 잔차를 파싱할 때 무시할 수 없는 계산 복잡성 증가를 유발할 수 있음). 구체적으로, 마지막 비-제로 계수의 스캔 순서 인덱스(즉, N)가 미리 정의된 임계값(예를 들어, 3)을 초과하는 경우에만 MTS가 변환 블록을 위해 사용된다. 마지막 비-제로 변환 계수의 스캔 순서 인덱스가 미리 정의된 임계값보다 큰 경우, 사용된 특정 변환을 나타내기 위해 MTS_CU_flag 가 시그널링 된다(예를 들어, 도 5의 테이블 500에 따라). 반면에, 마지막 비-제로 변환 계수의 인덱스 위치가 미리 정의된 임계값보다 크지 않은 경우, MTS_CU_flag 는 시그널링 되지 않고 0으로 추정된다(예를 들어, DCT2가 사용됨). 이러한 접근 방식을 사용하면, MTS 구문 요소를 파싱하기 전에, 변환 블록당 한 번만 체크가 수행된다. 아래의 테이블 1은 이러한 방법이 조건부 MTS 시그널링에 적용될 때 코딩 유닛 및 변환 유닛에 사용되는 신택스 테이블을 예시하며, 관련 변경 사항들에는 밑줄이 그어진다. 테이블 1에서, 부울 변수 MtsLastSigCoeffPosMetThresholdFlag MTS_CU_flag가 이용되어, 마지막 비-제로 계수의 인덱스 위치가 미리 정의된 임계값보다 큰지를 나타내며 따라서 주어진 변환 블록에 대해 MTS_CU_flag가 시그널링될 수 있다.
coding_unit( x0, y0, cbWidth, cbHeight, cqtDepth, treeType, modeType ) { Descriptor
......
if( sps_act_enabled_flag && CuPredMode[ chType ][ x0 ][ y0 ] != MODE_INTRA &&
treeType = = SINGLE_TREE )
cu_act_enabled_flag ae(v)
LfnstDcOnly = 1
LfnstZeroOutSigCoeffFlag = 1
MtsLastSigCoeffPosMetThresholdFlag = 0
MtsZeroOutSigCoeffFlag = 1
transform_tree( x0, y0, cbWidth, cbHeight, treeType, chType )
......
if( treeType != DUAL_TREE_CHROMA && lfnst_idx = = 0 &&
transform_skip_flag[ x0 ][ y0 ][ 0 ] = = 0 && Max( cbWidth, cbHeight ) <= 32 &&
IntraSubPartitionsSplit[ x0 ][ y0 ] = = ISP_NO_SPLIT && cu_sbt_flag = = 0 &&
MtsZeroOutSigCoeffFlag = = 1 &&
MtsLastSigCoeffPosMetThresholdFlag == 1 && tu_cbf_luma[ x0 ][ y0 ] ) {
if( ( ( CuPredMode[ chType ][ x0 ][ y0 ] = = MODE_INTER &&
sps_explicit_mts_inter_enabled_flag ) | |
( CuPredMode[ chType ][ x0 ][ y0 ] = = MODE_INTRA &&
sps_explicit_mts_intra_enabled_flag ) ) )
mts_idx ae(v)
}
}
......
residual_coding( x0, y0, log2TbWidth, log2TbHeight, cIdx ) {
......
if( lastSubBlock = = 0 && log2TbWidth >= 2 && log2TbHeight >= 2 &&
!transform_skip_flag[ x0 ][ y0 ][ cIdx ] && lastScanPos > 0 )
LfnstDcOnly = 0
if( ( lastSubBlock > 0 && log2TbWidth >= 2 && log2TbHeight >= 2 ) | |
( lastScanPos > 7 && ( log2TbWidth = = 2 | | log2TbWidth = = 3 ) &&
log2TbWidth = = log2TbHeight ) )
LfnstZeroOutSigCoeffFlag = 0
if( lastSubBlock > 0 || lastScanPos > T pos )
MtsLastSigCoeffPosMetThresholdFlag = 1
if( ( LastSignificantCoeffX > 15 | | LastSignificantCoeffY > 15 ) && cIdx = = 0 )
MtsZeroOutSigCoeffFlag = 0
......
}
테이블 1: MTS 시그널링을 위한 코딩 유닛 및 변환 유닛의 수정된 신택스 테이블
도 5와 관련된 설명에서 언급한 바와 같이, MTS 하에서, 변환 블록에서 미리 정의된 좌측 상단 영역(예를 들어, 좌측 상단 16x16 영역, 비-제로 영역으로도 알려짐) 외부의 변환 계수들(예를 들어, 고주파수 변환 계수들)은, 변환 블록의 너비 또는 높이가 미리 정의된 값(예: 16)보다 큰 경우, 0이 되도록 강제된다(예컨대, 이 영역은 제로-아웃 영역으로도 알려져 있음). 예를 들어, 도 6에서, 제 2 영역(604)은 제로-아웃 영역일 수 있고, 제 1 영역(602)은 비-제로 영역일 수 있다. 마지막 비-제로 계수(예를 들어, 세 번째 비-제로 계수610)의 수평 및 수직 좌표들 모두가 미리 정의된 값(예를 들어, 16)보다 작은 경우에만 MTS_CU_flag 가 시그널링되며, 이는 마지막이 비-제로 계수가 비-제로 영역 내에 있음을 나타낸다. 하지만, 변환 계수가 대각선 스캔 순서에 기초하여 스캔된다는 사실 때문에, 이러한 MTS 시그널링 조건은 모든 비-제로 변환 계수들이 미리 정의된 왼쪽 상단 영역 내에 항상 위치한다는 것을 보장할 수 없다(예를 들어, 비록 도 6에 도시되어 있지는 않지만, 마지막 비-제로 계수 이전의 하나 이상의 비-제로 계수들이 제 2 영역(604)에 존재할 수 있다). 따라서, 모든 비-제로 계수들이 비-제로 영역(예: 제 1 영역 602) 내에 있는지를 보장하기 위하여 추가적인 검사가 필요하다.
일부 실시예에서, 추가적인 검사의 일례는 비트스트림 적합성 제약(bitstream conformance constraint)을 포함하며, 따라서 MTS 제로 아웃 영역(예컨대, 제 2 영역 604) 내부에 임의의 비-제로 계수가 있는 경우, MTS 인덱스, 즉 mts_idx의 값은 0이 되어야 한다(즉, DCT2가 기본적으로 사용됨).
일부 실시예에서, 좌측 상단 영역 외부에 위치된 비-제로 계수가 있는지 여부(예를 들어, min(TUWidth, 16) x min(TUHeight, 16))에 따라 MTS 인덱스가 시그널링된다. 만일, 그렇다면, MTS 인덱스는 시그널링되지 되지 않고 항상 0으로 추정된다. 그렇지 않으면, MTS 인덱스가 비트스트림으로 시그널링되어 어떤 변환이 사용되는지 나타낸다.
각각의 스캔 위치를 체크하는 대신에, 코딩 그룹(Coding Group: CG) 레벨에서 CBF를 체크함으로써 제로 아웃 영역에 비-제로 계수가 있는지 여부가 결정될 수 있다. 구체적으로, 제로 아웃 영역 내에 위치한 현재 TB의 임의의 CG가 1과 동일한 CBF 값을 갖는 경우(즉, CG 내에 비-제로 계수가 있는 경우), MTS 인덱스의 시그널링이 생략된다. 아래의 테이블 2는 위에서 언급한 MTS 시그널링 제약이 적용될 때 변환 유닛의 수정된 신택스 테이블을 예시하며(현재 VVC 표준과 비교하여), 여기서 제안된 제약된 MTS 시그널링과 관련된 변경 사항은 밑줄이 그어져 있다.
residual_coding( x0, y0, log2TbWidth, log2TbHeight, cIdx ) { Descriptor
......
if( lastSubBlock = = 0 && log2TbWidth >= 2 && log2TbHeight >= 2 &&
!transform_skip_flag[ x0 ][ y0 ][ cIdx ] && lastScanPos > 0 )
LfnstDcOnly = 0
if( ( lastSubBlock > 0 && log2TbWidth >= 2 && log2TbHeight >= 2 ) | |
( lastScanPos > 7 && ( log2TbWidth = = 2 | | log2TbWidth = = 3 ) &&
log2TbWidth = = log2TbHeight ) )
LfnstZeroOutSigCoeffFlag = 0
QState = 0
for( i = lastSubBlock; i >= 0; i-- ) {
startQStateSb = QState
xS = DiagScanOrder[ log2TbWidth - log2SbW ][ log2TbHeight - log2SbH ]
[ i ][ 0 ]
yS = DiagScanOrder[ log2TbWidth - log2SbW ][ log2TbHeight - log2SbH ]
[ i ][ 1 ]
inferSbDcSigCoeffFlag = 0
if( i < lastSubBlock && i > 0 ) {
coded_sub_block_flag[ xS ][ yS ] ae(v)
inferSbDcSigCoeffFlag = 1
}
if( ( xS > 3 || yS > 3 ) && coded_sub_block_flag[xS][yS] ) {
MtsZeroOutSigCoeffFlag = 0
}
firstSigScanPosSb = numSbCoeff
lastSigScanPosSb = -1
firstPosMode0 = ( i = = lastSubBlock ? lastScanPos : numSbCoeff - 1 )
firstPosMode1 = firstPosMode0
for( n = firstPosMode0; n >= 0 && remBinsPass1 >= 4; n--) {
xC = ( xS << log2SbW ) + DiagScanOrder[ log2SbW ][ log2SbH ][ n ][ 0 ]
yC = ( yS << log2SbH ) + DiagScanOrder[ log2SbW ][ log2SbH ][ n ][ 1 ]
if( coded_sub_block_flag[ xS ][ yS ] && ( n > 0 | | !inferSbDcSigCoeffFlag ) &&
( xC != LastSignificantCoeffX | | yC != Last SignificantCoeffY ) ) {
sig_coeff_flag[ xC ][ yC ] ae(v)
remBinsPass1--
if( sig_coeff_flag[ xC ][ yC ] )
inferSbDcSigCoeffFlag = 0
}
if( sig_coeff_flag[ xC ][ yC ] ) {
abs_level_gtx_flag[ n ][ 0 ] ae(v)
remBinsPass1--
if( abs_level_gtx_flag[ n ][ 0 ] ) {
par_level_flag[ n ] ae(v)
remBinsPass1--
abs_level_gtx_flag[ n ][ 1 ] ae(v)
remBinsPass1--
}
if( lastSigScanPosSb = = -1 )
lastSigScanPosSb = n
firstSigScanPosSb = n
}
AbsLevelPass1[ xC ][ yC ] = sig_coeff_flag[ xC ][ yC ] + par_level_flag[ n ] +
abs_level_gtx_flag[ n ][ 0 ] + 2 * abs_level_gtx_flag[ n ][ 1 ]
if( pic_dep_quant_enabled_flag )
QState = QStateTransTable[ QState ][ AbsLevelPass1[ xC ][ yC ] & 1 ]
firstPosMode1 = n - 1
}
......
}
}
테이블 2: MTS 시그널링을 위한 제안된 변환 유닛 신택스 테이블
일부 실시예에서, 변환 스킵 모드는 각 컴포넌트에 대해 하나씩 비트스트림에서 3개의 변환 스킵 플래그들을 시그널링함으로써 루마 및 크로마 컴포넌트에 독립적으로 적용될 수 있다. 그러나 현재 설계에서는, 현재 TU의 크로마 잔차들이 JCCR 모드로 코딩되는 경우, 크로마 컴포넌트에 변환 스킵 모드를 적용하는 것이 금지된다. 크로마 잔차들을 재구성할 때 변환 스킵 및 JCCR이 서로 다른 스테이지들에서 적용되기 때문에, 2개의 코딩 툴들이 동시에 인에이블될 수 있다. 따라서, 본 개시의 다른 실시예에서, 하나의 TU의 크로마 잔차들이 JCCR 모드로 코딩될 때, 크로마 변환 스킵 모드를 인에이블하는 것이 제안된다.
도 7은 본 개시물의 일부 구현들에 따른 다중 변환 선택(MTS) 방식을 사용하여 블록 잔차들을 코딩하는 기법들을 비디오 코더가 구현하는 예시적인 프로세스(700)를 예시하는 흐름도이다. 설명의 편의를 위해, 프로세스(700)는 비디오 디코더, 예를 들어, 도 3의 비디오 디코더(30)에 의해 수행되는 것으로 설명된다. 프로세스(700) 동안, MTS의 시그널링은 마지막 비-제로 계수의 위치 및 변환 블록의 상이한 영역들에서 비-제로 계수들의 존재에 대해 조건화된다.
제 1 단계로서, 비디오 디코더(30)는 변환 블록을 인코딩하는 비트스트림을 수신하고, 여기서 변환 블록은 비-제로 영역(예를 들어, 상단 좌측 16 x 16 영역) 및 제로-아웃 영역(예를 들어, 상단 좌측 16 x 16 영역 외부의 영역)을 포함한다(710).
다음으로, 비디오 디코더(30)는 제로 아웃 영역(720) 내에 비-제로 계수가 존재하는지 여부를 체크한다(720).
변환 블록의 제로-아웃 영역 내에 비-제로 계수가 없다는 결정에 따라(730), 비디오 디코더(30)는 스캐닝 방향(예를 들어, 대각선 스캐닝 방향)을 따라 변환 블록의 마지막 비-제로 계수의 스캔 순서 인덱스를 결정한다(740). 예를 들어, 도 6에서, 변환 블록의 마지막 비-제로 계수(3번째 비-제로 계수 610)는 3 이라는 스캔 순서 인덱스를 갖는다.
마지막 비-제로 계수의 스캔 순서 인덱스가 미리 정의된 임계값(예를 들어, 부울 변수 MtsLastSigCoeffPosMetThresholdFlag == 1) 보다 크다는 결정에 따라(750), 비디오 디코더(30)는 비트스트림으로부터, 다중 변환 선택(MTS) 인덱스에 대한 값을 수신한다(760). 예를 들어, 도 6의 변환 블록(600)에 대해, 미리 정의된 임계값이 2인 경우, 마지막 비-제로 계수인 3이 미리 정의된 임계값 2보다 크기 때문에, 비디오 디코더(30)는 MTS 인덱스에 대한 값을 수신할 것이다.
마지막으로, 비디오 디코더(30)는 MTS 인덱스의 값에 기초하여, 수평 및 수직 방향 모두에서 변환 블록의 변환 계수에 각각의 변환을 적용한다(770). 예를 들어, 도 5 및 관련 설명에서, MTS_CU_flag 가 0의 값을 갖는 경우, 비디오 디코더는 변환 블록에 역 DCT2 변환을 적용한다. MTS_CU_flag 가 1의 값을 갖는 경우, 비디오 디코더는 추가적인 신택스 요소(예를 들어, MTS_Hor_flag 또는 MTS_Ver_flag)를 더 수신하고 역 DST7 또는 DCT8을 변환 블록에 선택적으로 적용한다.
일부 실시예에서, 마지막 비-제로 계수의 스캔 순서 인덱스가 미리 정의된 임계값보다 크지 않다는 결정에 따라, 비디오 디코더(30)는 디폴트 변환을 변환 블록에 적용한다(예를 들어, DCT-2).
일부 실시예에서, 비디오 디코더(30)는 MTS 인덱스의 값에 기초하여 변환 블록에 각각의 변환들을 적용하는바: MTS 인덱스가 제 1 값(예를 들어, 1)을 갖는다는 결정에 따라, 비트스트림으로부터, MTS 수평 플래그에 대한 값(예를 들어, MTS_Hor_flag) 및 MTS 수직 플래그에 대한 값(예를 들어, MTS_Ver_flag)을 수신하고, MTS 수평 플래그에 대한 값에 기초하여 수평 방향에서 변환 블록의 계수에 수평 변환을 적용하고(예컨대, MTS_Hor_flag == 0이면 DST-7 및 MTS_Hor_flag == 1이면 경우 DCT- 8); MTS 수직 플래그에 대한 값에 기초하여 수직 방향으로 수평 변환 후 변환 블록의 계수에 수직 변환을 적용하고(예를 들어, MTS_Ver_flag == 0이면 DST-7 및 MTS_Ver_flag == 1 이면 DCT-8); 그리고 MTS 인덱스가 제 2 값(예를 들어, 0)을 갖는다는 결정에 따라, 수평 및 수직 방향 모두에서 디폴트 변환(예를 들어, DCT-2)을 사용하여 변환 블록을 변환한다.
일부 실시예에서, 비디오 디코더(30)는 제로-아웃 영역 내의 루마 계수 그룹의 코딩된 블록 플래그(CBF)를 검사하고 그리고 제로-아웃 영역 내의 모든 루마 계수 그룹의 CBF가 0인 경우에만 제로 아웃 영역 내에 비-제로 계수가 없다고 결정함으로써, 제로-아웃 영역 내에 임의의 비-제로 계수가 존재하는지 여부를 검사한다. 예를 들어, 제로 아웃 영역 내의 하나의 루마 계수 그룹의 CBF가 1이면, 제로 아웃 영역 내에 적어도 하나의 0이 아닌 계수가 있으며 그리고 MTS 인덱스가 시그널링되지 않는다.
일부 실시예에서, 비디오 디코더(30)는 마지막 비-제로 계수의 수평 좌표 및 수직 좌표를 검사하고 그리고 마지막 비-제로 계수의 수평 좌표 또는 수직 좌표가 제로 아웃 영역 내에 있는 경우 적어도 하나의 비-제로 계수가 제로-아웃 영역 내에 있다고 결정함으로써, 제로-아웃 영역 내에 임의의 비-제로 계수가 존재하는지 여부를 검사한다. 예를 들어, 마지막 비-제로 계수의 수평 좌표 또는 수직 좌표가 제로-아웃 영역 내에 있는 경우, 제로-아웃 영역 내에 적어도 하나의 비-제로 계수가 존재한다.
일부 실시예에서, 변환 블록의 크로마 잔차는 크로마 잔차의 조인트 코딩(JCCR: joint coding of chroma residuals) 모드로 코딩되고 그리고 크로마 변환 스킵 모드가 변환 블록에 대해 인에이블된다.
일부 실시예에서, 비-제로 영역은 변환 블록의 왼쪽 상단 16x16 영역이다.
일부 실시예에서, 스캔 순서는 대각선 스캔 순서이다.
위에서 설명한 것처럼, MTS를 사용하는 동기는 DCT/DST 변환에서 다른 코어 변환을 사용하여 잔차 샘플들의 더 나은 에너지 압축을 달성하는 것이다. 서로 다른 예측 모드들로부터의 잔차들은 서로 다른 특성을 나타낼 수 있다. 일부 실시예에서, 모든 예측 모드들에 대해 MTS를 사용하는 것이 유리하지 않을 수 있다. 예를 들어, 일반적으로 공간 도메인 및 인터 예측 샘플들 보다 시간 도메인의 샘플들 사이에 더 많은 상관 관계가 있으므로, 종종 인트라 예측 샘플보다 더 나은 예측 효율을 갖는다. 즉, 인터 예측 블록들에 대한 잔차들의 크기는 종종 인트라 예측 블록들의 그것보다 작은 경우가 많다. 이 경우, MTS 모드는 인터 코딩 블록에 대해 비활성화될 수 있다. 특히, 현재 코딩 블록이 인트라 코딩된 경우, 신택스 mts_idx 가 파싱되어, 비-DCT2 변환이 현재 코딩 블록에 적용되는지 아닌지를 결정한다. 그렇지 않고, 현재 코딩 블록이 인터 코딩된 경우, 신택스 mts_idx 는 파싱되지 않고 항상 0으로 추정되는바 즉, DCT2 변환만이 적용될 수 있다. 제안된 방법에 해당하는 신택스 테이블은 다음과 같이 특정된다.
coding_unit( x0, y0, cbWidth, cbHeight, cqtDepth, treeType, modeType ) { Descriptor
......
if( treeType != DUAL_TREE_CHROMA && lfnst_idx = = 0
&&
transform_skip_flag[ x0 ][ y0 ][ 0 ] = = 0 && Max( cbWidth, cbHeight ) <= 32 &&
IntraSubPartitionsSplit[ x0 ][ y0 ] = = ISP_NO_SPLIT && cu_sbt_flag = = 0 &&
MtsZeroOutSigCoeffFlag = = 1 && tu_cbf_luma[ x0 ][ y0 ] ) {
if( CuPredMode[ chType ][ x0 ][ y0 ] = = MODE_INTRA &&
sps_explicit_mts_enabled_flag )
mts_idx ae(v)
}
......
}
테이블 3: MTS 시그널링을 위한 추가적인 제안된 변환 유닛 신택스 테이블
도 8은 본 개시내용의 일부 구현들에 따른 예시적인 콘텍스트 적응형 이진 산술 코딩(CABAC) 엔진을 예시하는 블록도이다. 컨텍스트 적응형 이진 산술 코딩(CABAC)은 많은 비디오 코딩 표준들, 예를 들어, H.264/MPEG-4 AVC, 고효율 비디오 코딩(HEVC) 및 VVC에서 사용되는 엔트로피 코딩의 한 형태이다. CABAC는 산술 코딩을 기반으로 하며 비디오 코딩 표준의 요구 사항에 맞게 몇 가지 혁신과 변경 사항을 적용했다. 예를 들어, CABAC는 이진 심볼들을 코딩하며, 이는 복잡성을 낮게 유지하고 임의의 심볼의 더 자주 사용되는 비트들에 대한 확률 모델링을 허용한다. 확률 모델은 로컬 컨텍스트에 기초하여 적응적으로 선택되므로 코딩 모드는 일반적으로 로컬에서 서로 잘 상관되기 때문에 확률을 더 잘 모델링할 수 있다. 마지막으로, CABAC는 양자화된 확률 범위들 및 확률 상태들의 사용에 의해 곱셈-없는 범위 분할(multiplication-free range division)을 사용한다.
CABAC는 상이한 컨텍스트들에 대한 다중 확률 모드들을 갖는다. 이것은, 먼저 모든 비 이진 심볼들을 이진으로 변환한다. 그런 다음, 각각의 빈(bin)(또는 비트라고 함)에 대해, 코더는 어떤 확률 모델을 사용할지를 선택하고, 주변의 요소들로부터의 정보를 사용하여 확률 추정치를 최적화한다. 마지막으로, 데이터를 압축하기 위해 최종적으로 산술 코딩이 적용된다.
컨텍스트 모델링은 코딩 심볼의 조건부 확률의 추정치를 제공한다. 적절한 컨텍스트 모델을 활용하여, 인코딩할 현재 심볼의 이웃에서 이미 코딩된 심볼에 따라 서로 다른 확률 모델들 사이에서 스위칭함으로써 주어진 인터-심볼 리던던시가 활용될 수 있다. 데이터 심볼 코딩은 다음의 스테이지들을 포함한다.
이진화(Binarization): CABAC는 이진 산술 코딩을 사용하며 이는 오직 이진 결정(1 또는 0)만이 인코딩됨을 의미한다. 이진 값이 아닌 심볼(예컨대, 변환 계수 또는 모션 벡터)은 "이진화(binarized)"되거나 산술 코딩 전에 이진 코드로 변환된다. 이러한 프로세스는 데이터 심볼을 가변 길이 코드로 변환하는 프로세스와 유사하지만 이진 코드는 전송 전에 추가로 인코딩된다(산술 코더에 의해). 이진화된 심볼의 각각의 빈(또는 "비트")에 대해 스테이지들이 반복된다.
컨텍스트 모델 선택: "컨텍스트 모델"은 이진화된 심볼의 하나 이상의 빈(bin)에 대한 확률 모델이다. 이 모델은 최근에 코딩된 데이터 심볼들의 통계에 따라 이용가능한 모델들의 선택으로부터 선택될 수 있다. 컨텍스트 모델은 각 빈이 "1" 또는 "0"일 확률을 저장한다.
산술 인코딩: 산술 코더는 선택된 확률 모델에 따라 각 빈을 인코딩한다. 각각의 빈에는 단지 2개의 서브-범위들("0" 및 "1"에 해당)만이 있다는 점에 유의해야 한다.
확률 업데이트: 선택된 컨텍스트 모델은 실제 코딩된 값에 기초하여 업데이트된다(예를 들어, 빈 값이 "1"인 경우, "1"의 빈도(frequency) 카운트가 증가됨).
각각의 비-이진 신택스 요소 값을 일련의 빈(bin)으로 분해함으로써, CABAC에서 각 빈 값의 추가 프로세싱은 관련된 코딩 모드 결정에 따라 달라지며, 이는 일반(regular) 또는 바이패스 모드로서 선택될 수 있다. 후자는 빈에 대해 선택되며, 이것은 균일하게 분포된 것으로 가정되고 결과적으로 전체 일반 이진 산술 인코딩(및 디코딩) 프로세스는 단순히 바이패스된다. 일반 코딩 모드에서, 각 빈 값은 일반 이진 산술 코딩 엔진을 사용하여 인코딩되며, 여기서 관련 확률 모델은 신택스 요소 유형 및 신택스 요소의 이진화된 표현에서 빈 위치 또는 빈 인덱스(binIdx)를 기반으로 고정 선택에 의해 결정되거나, 또는 관련된 부가 정보(예: 공간적 이웃들, 컴포넌트, CU/PU/TU의 깊이 또는 크기, 또는 TU 내의 위치)에 따라 2개 이상의 확률 모델들 중에서 적응적으로 선택된다. 확률 모델에 대한 선택은 컨텍스트 모델링이라 지칭된다. 중요한 설계 결정으로서, 후자의 경우는 일반적으로 가장 자주 관찰되는 빈들에게만 적용되는 반면에, 일반적으로 덜 자주 관찰되는 다른 빈들은 일반적으로 0차 확률 모델인 조인트를 사용하여 프로세싱된다. 이러한 방식으로 CABAC는 서브-심볼 레벨에서 선택적 적응형 확률 모델링을 인에이블하며, 따라서 전체 모델링 또는 학습 비용을 크게 감소시키면서 인터-심볼 리던던시를 활용하기 위한 효율적인 도구를 제공한다. 고정형 및 적응형 사례들 모두에 대해, 원칙적으로는, 하나의 확률 모델로부터 다른 확률 모델로의 스위치는 임의의 2개의 연속적인 정규 코딩된 빈들 사이에서 발생할 수 있다. 일반적으로, CABAC에서 컨텍스트 모델의 설계는, 불필요한 모델링 비용 부담을 회피하고 통계적 종속성을 크게 활용하는 상충되는 목표들 사이에서 양호한 절충안을 찾기 위한 목표를 반영한다.
CABAC에서 확률 모델의 파라미터들은 적응적이며, 이는 빈들의 소스의 통계적 변동들에 대한 모델 확률들의 적응이 역방향 적응 및 동기화된 방식으로 인코더 및 디코더에서 빈 단위(bin-by-bin)로 수행됨을 의미한다. 이러한 프로세스는 확률 추정이라 지칭된다. 이를 위해, CABAC의 각 확률 모델은 인터벌 [0:01875;0:98125]의 범위의 관련된 모델 확률 값들 p를 갖는 126개의 다른 상태들 중 하나를 취할 수 있다. 각각의 확률 모델의 2개의 파라미터들은 컨텍스트 메모리에 7-비트 엔트리들로 저장된다: 최소 확률 심볼(LPS: Least Probable Symbol)의 모델 확률 pLPS를 나타내는 63개의 확률 상태들 각각에 대한 6 비트 및 최대 확률 심볼(MPS: Most Probable Symbol)의 값인 nMPS에 대한 1비트.
하나 이상의 일례들에서, 설명된 기능들은 하드웨어, 소프트웨어, 펌웨어, 또는 이들의 임의의 조합으로 구현될 수 있다. 소프트웨어로 구현되는 경우, 상기 기능들은 하나 이상의 명령 또는 코드로서 컴퓨터 판독가능 매체에 저장되거나 전송될 수 있으며 하드웨어 기반 프로세싱 유닛에 의해 실행될 수 있다. 컴퓨터 판독가능 매체는 데이터 저장 매체와 같은 유형의 매체에 해당하는 컴퓨터 판독가능 저장 매체 또는 예를 들어, 통신 프로토콜에 따라 컴퓨터 프로그램을 한 장소에서 다른 장소로 전송하는 것을 용이하게하는 임의의 매체를 포함하는 통신 매체를 포함할 수 있다. 이러한 방식으로, 컴퓨터 판독 가능 매체는 일반적으로 (1) 비일시적인 컴퓨터 판독가능 저장 매체 또는 (2) 신호 또는 반송파와 같은 통신 매체에 해당할 수 있다. 데이터 저장 매체는 본 출원에서 설명된 실시예들의 구현을 위한 명령어, 코드 및/또는 데이터 구조를 검색하기 위해 하나 이상의 컴퓨터 또는 하나 이상의 프로세서에 의해 액세스될 수 있는 임의의 이용가능한 매체일 수 있다. 컴퓨터 프로그램 제품은 컴퓨터 판독가능 매체를 포함할 수 있다.
본 명세서에서 구현예들의 설명에 사용된 용어들은 특정 구현예를 설명하기 위한 목적으로만 사용되며 청구 범위를 제한하고자 의도된 것이 아니다. 구현예들의 설명 및 첨부된 청구범위에서 사용된 바와 같이, 단수 형태들 "a", "an" 및 "the"는 문맥이 명백하게 달리 나타내지 않는 한 복수 형태도 포함하도록 의도된다. 또한, 본 명세서에서 사용된 용어 "및/또는"은 열거된 관련 항목들 중 하나 이상의 모든 가능한 조합들을 지칭 및 포괄하는 것으로 이해될 것이다. 본 명세서에서 사용되는 용어 "포함하다" 및/또는 "포함하는"은 언급된 특징들, 요소들 및/또는 구성요소들의 존재를 명시하지만, 하나 이상의 다른 특징들, 요소들, 구성요소들 및/또는 이들의 그룹들의 존재 또는 추가를 배제하지 않는다는 것을 이해할 것이다.
다음을 또한 유의해야 하는바, 본 명세서에서 제 1, 제 2, 기타 등등의 용어가 다양한 요소들을 설명하는데 사용될 수 있지만, 이러한 요소들은 상기 용어들에 의해 한정되어서는 안된다. 이러한 용어는 한 요소를 다른 요소와 구별하는데만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제 1 전극은 제 2 전극으로 명명될 수 있고, 유사하게 제 2 전극도 제 1 전극으로 명명될 수 있다. 제 1 전극과 제 2 전극은 모두 전극이지만 동일한 전극은 아니다.
본 출원의 설명은 예시 및 설명의 목적으로 제시되었으며, 개시된 형태만으로 본 발명을 완전하게 하거나 제한하도록 의도되지 않는다. 많은 수정예들, 변형예들 및 대안적인 구현예들이 전술한 설명 및 관련 도면에 제공된 교시의 이점을 갖는 당업자에게 명백할 것이다. 실시예들은 본 발명의 원리들, 실제 적용을 가장 잘 설명하고, 당업자가 다양한 구현예들을 위해 본 발명을 이해할 수 있게하고 그리고 고려되는 특정 용도에 적합한 다양한 수정들과 함께 본 발명의 기본 원리들 및 다양한 구현예들을 가장 잘 활용할 수 있도록 선택 및 설명되었다. 따라서, 청구항들의 범위는 개시된 구현예들의 특정 일례에 제한되지 않으며, 수정들 및 다른 구현예들이 첨부된 청구항의 범위 내에 포함되도록 의도된다는 것을 이해해야 한다.

Claims (12)

  1. 비디오 데이터를 디코딩하는 방법으로서,
    변환 블록을 인코딩하는 비트스트림을 수신하는 단계, 상기 변환 블록은 비-제로 영역 및 제로 아웃 영역을 포함하며;
    제로 아웃 영역 내에 비-제로 계수가 있는지를 체크하는 단계;
    변환 블록의 제로 아웃 영역 내에 비-제로 계수가 없다는 결정에 따라:
    스캔 방향을 따라 변환 블록의 마지막 비-제로 계수의 스캔 순서 인덱스를 결정하는 단계;
    마지막 비-제로 계수의 스캔 순서 인덱스가 미리정의된 임계값보다 크다는 결정에 따라:
    다중 변환 선택(MTS) 인덱스에 대한 값을 비트스트림으로부터 수신하는 단계; 및
    MTS 인덱스의 값에 기초하여 수평 및 수직 방향 모두에서 변환 블록의 계수들을 변환시키도록 각각의 변환을 적용하는 단계
    를 포함하는 것을 특징으로 하는 비디오 데이터를 디코딩하는 방법.
  2. 제1항에 있어서,
    변환 블록의 제로 아웃 영역 내에 비-제로 계수가 있다는 결정에 따라:
    수평 및 수직 방향 모두에서 변환 블록의 계수들을 변환하기 위해 미리 정의된 디폴트 변환을 적용하는 단계를 더 포함하는 것을 특징으로 하는 비디오 데이터를 디코딩하는 방법.
  3. 제1항에 있어서,
    마지막 비-제로 계수의 스캔 순서 인덱스가 미리 정의된 임계값보다 크지 않다는 결정에 따라:
    수평 및 수직 방향 모두에서 변환 블록의 계수들을 변환하기 위해 미리 정의된 디폴트 변환을 적용하는 단계를 더 포함하는 것을 특징으로 하는 비디오 데이터를 디코딩하는 방법.
  4. 제1항에 있어서,
    MTS 인덱스의 값에 기초하여 수평 및 수직 방향 모두에서 변환 블록의 계수들을 변환시키도록 각각의 변환을 적용하는 단계는,
    MTS 인덱스가 제 1 값을 갖는다는 결정에 따라:
    MTS 수평 플래그에 대한 값 및 MTS 수직 플래그에 대한 값을 비트스트림으로부터 수신하는 단계;
    MTS 수평 플래그에 대한 값에 기초하여 수평 방향으로 변환 블록의 계수들에 수평 변환을 적용하는 단계; 그리고
    MTS 수직 플래그에 대한 값에 기초하여 수직 방향으로 수평 변환 후에 변환 블록의 계수들에 수직 변환을 적용하는 단계; 및
    MTS 인덱스가 상기 제 1 값과는 다른 제 2 값을 갖는다는 결정에 따라:
    수평 및 수직 방향 모두에서 미리 정의된 디폴트 변환을 사용하여 변환 블록의 계수들을 변환하는 단계를 포함하는 것을 특징으로 하는 비디오 데이터를 디코딩하는 방법.
  5. 제2항, 제3항 및 제4항 중 어느 한 항에 있어서,
    상기 미리 정의된 디폴트 변환은 DCT-2 변환이고, 상기 수평 변환 및 수직 변환은 DST-7 변환 또는 DCT-8 변환인 것을 특징으로 하는 비디오 데이터를 디코딩하는 방법.
  6. 제1항에 있어서,
    상기 제로 아웃 영역 내에 비-제로 계수가 있는지를 체크하는 단계는,
    제로 아웃 영역 내의 루마 계수 그룹들의 코딩된 블록 플래그들(CBFs: coded block flags)을 체크하는 단계; 및
    제로 아웃 영역 내의 모든 루마 계수 그룹들의 CBFs가 0인 경우에만 제로 아웃 영역 내에 비-제로 계수가 없다고 결정하는 단계를 더 포함하는 것을 특징으로 하는 비디오 데이터를 디코딩하는 방법.
  7. 제1항에 있어서,
    상기 제로 아웃 영역 내에 비-제로 계수가 있는지를 체크하는 단계는,
    마지막 비-제로 계수의 수평 좌표 및 수직 좌표를 체크하는 단계; 및
    마지막 비-제로 계수의 수평 좌표 또는 수직 좌표 중 어느 하나가 제로-아웃 영역 내에 있을 때 제로-아웃 영역 내에 적어도 하나의 비-제로 계수가 있다고 결정하는 단계를 더 포함하는 것을 특징으로 하는 비디오 데이터를 디코딩하는 방법.
  8. 제1항에 있어서,
    상기 변환 블록의 크로마 잔차들은 크로마 잔차들의 조인트 코딩(JCCR) 모드로 코딩되고, 상기 변환 블록에 대해 크로마 변환 스킵 모드가 인에이블되는 것을 특징으로 하는 비디오 데이터를 디코딩하는 방법.
  9. 제1항에 있어서,
    상기 비-제로 영역은 변환 블록의 좌상단 16 x 16 영역인 것을 특징으로 하는 비디오 데이터를 디코딩하는 방법.
  10. 제1항에 있어서,
    상기 스캔 순서는 대각선 스캔 순서인 것을 특징으로 하는 비디오 데이터를 디코딩하는 방법.
  11. 전자 장치로서,
    하나 이상의 프로세싱 유닛들;
    상기 하나 이상의 프로세싱 유닛들에 연결된 메모리; 및
    상기 하나 이상의 프로세싱 유닛들에 의해 실행될 때 상기 전자 장치로 하여금 제1항 내지 제10항 중 어느 한 항의 방법을 수행하게 하는 상기 메모리에 저장된 복수의 프로그램들
    을 포함하는 전자 장치.
  12. 하나 이상의 프로세싱 유닛들을 갖는 전자 장치에 의해 실행되는 복수의 프로그램들을 저장하는 비일시적 컴퓨터 판독가능 저장 매체로서, 상기 복수의 프로그램들은, 상기 하나 이상의 프로세싱 유닛들에 의해 실행될 때, 상기 전자 장치로 하여금 제1항 내지 제10항 중 어느 한 항의 방법을 수행하게 하는 것을 특징으로 하는 비일시적 컴퓨터 판독가능 저장 매체.
KR1020227017329A 2019-11-21 2020-11-23 변환 및 계수 시그널링에 대한 방법 및 장치 KR102638578B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020247004677A KR20240024338A (ko) 2019-11-21 2020-11-23 변환 및 계수 시그널링에 대한 방법 및 장치
KR1020247004676A KR20240024337A (ko) 2019-11-21 2020-11-23 변환 및 계수 시그널링에 대한 방법 및 장치

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201962938890P 2019-11-21 2019-11-21
US62/938,890 2019-11-21
US202062959325P 2020-01-10 2020-01-10
US62/959,325 2020-01-10
PCT/US2020/061843 WO2021102424A1 (en) 2019-11-21 2020-11-23 Methods and apparatus on transform and coefficient signaling

Related Child Applications (2)

Application Number Title Priority Date Filing Date
KR1020247004677A Division KR20240024338A (ko) 2019-11-21 2020-11-23 변환 및 계수 시그널링에 대한 방법 및 장치
KR1020247004676A Division KR20240024337A (ko) 2019-11-21 2020-11-23 변환 및 계수 시그널링에 대한 방법 및 장치

Publications (2)

Publication Number Publication Date
KR20220097913A true KR20220097913A (ko) 2022-07-08
KR102638578B1 KR102638578B1 (ko) 2024-02-20

Family

ID=75980942

Family Applications (3)

Application Number Title Priority Date Filing Date
KR1020247004677A KR20240024338A (ko) 2019-11-21 2020-11-23 변환 및 계수 시그널링에 대한 방법 및 장치
KR1020227017329A KR102638578B1 (ko) 2019-11-21 2020-11-23 변환 및 계수 시그널링에 대한 방법 및 장치
KR1020247004676A KR20240024337A (ko) 2019-11-21 2020-11-23 변환 및 계수 시그널링에 대한 방법 및 장치

Family Applications Before (1)

Application Number Title Priority Date Filing Date
KR1020247004677A KR20240024338A (ko) 2019-11-21 2020-11-23 변환 및 계수 시그널링에 대한 방법 및 장치

Family Applications After (1)

Application Number Title Priority Date Filing Date
KR1020247004676A KR20240024337A (ko) 2019-11-21 2020-11-23 변환 및 계수 시그널링에 대한 방법 및 장치

Country Status (7)

Country Link
US (1) US20220286708A1 (ko)
EP (1) EP4062645A4 (ko)
JP (3) JP7319468B2 (ko)
KR (3) KR20240024338A (ko)
CN (2) CN116016915B (ko)
MX (1) MX2022006209A (ko)
WO (1) WO2021102424A1 (ko)

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9154801B2 (en) * 2010-09-30 2015-10-06 Texas Instruments Incorporated Method and apparatus for diagonal scan and simplified coding of transform coefficients
US20130016789A1 (en) * 2011-07-15 2013-01-17 General Instrument Corporation Context modeling techniques for transform coefficient level coding
EP2946553B1 (en) * 2013-01-16 2019-01-02 BlackBerry Limited Transform coefficient coding for context-adaptive binary entropy coding of video
US9215464B2 (en) * 2013-09-19 2015-12-15 Blackberry Limited Coding position data for the last non-zero transform coefficient in a coefficient group
US9432696B2 (en) * 2014-03-17 2016-08-30 Qualcomm Incorporated Systems and methods for low complexity forward transforms using zeroed-out coefficients
CN107211146A (zh) * 2014-11-21 2017-09-26 Vid拓展公司 一维变换模式和系数扫描顺序
US10631013B2 (en) * 2015-06-11 2020-04-21 Lg Electronics Inc. Method for re-positioning significant coefficient in image encoding/decoding process and device therefor
EP3334158A4 (en) * 2015-08-07 2019-03-20 LG Electronics Inc. METHOD AND DEVICE FOR INTERPRETING IN A VIDEO CODING SYSTEM
WO2018044087A1 (ko) * 2016-08-31 2018-03-08 주식회사 케이티 비디오 신호 처리 방법 및 장치
BR112019013831A2 (pt) * 2017-01-03 2020-01-28 Lg Electronics Inc método de processamento de imagem e aparelho para tal finalidade
US10244261B2 (en) * 2017-01-26 2019-03-26 Google Llc Transform coefficient coding using level maps
US10750181B2 (en) * 2017-05-11 2020-08-18 Mediatek Inc. Method and apparatus of adaptive multiple transforms for video coding
WO2018212430A1 (ko) * 2017-05-15 2018-11-22 엘지전자 주식회사 영상 코딩 시스템에서 주파수 도메인 필터링 방법 및 그 장치
US11589066B2 (en) * 2017-07-04 2023-02-21 Samsung Electronics Co., Ltd. Video decoding method and apparatus using multi-core transform, and video encoding method and apparatus using multi-core transform
JP7446988B2 (ja) * 2017-08-04 2024-03-11 エルジー エレクトロニクス インコーポレイティド ビデオ圧縮のための変換を構成する方法および装置
WO2019152131A1 (en) * 2018-01-30 2019-08-08 Interdigital Vc Holdings, Inc. Methods and devices for picture encoding and decoding using multiple transforms
US10491914B2 (en) * 2018-03-29 2019-11-26 Tencent America LLC Transform information prediction
EP3777165A1 (en) 2018-03-29 2021-02-17 FRAUNHOFER-GESELLSCHAFT zur Förderung der angewandten Forschung e.V. Determination of set of candidate transforms for video encoding
CN115604470A (zh) * 2018-04-01 2023-01-13 Lg电子株式会社(Kr) 视频编解码方法、计算机可读存储介质及发送方法
WO2019203569A1 (ko) * 2018-04-17 2019-10-24 엘지전자 주식회사 전처리/후처리 행렬에 기초하는 근사 변환을 이용하여 비디오 신호를 처리하는 방법 및 장치
WO2019235797A1 (ko) * 2018-06-03 2019-12-12 엘지전자 주식회사 축소된 변환을 이용하여 비디오 신호를 처리하는 방법 및 장치
JP2021166320A (ja) * 2018-07-06 2021-10-14 ソニーグループ株式会社 画像処理装置および方法
CN117097895A (zh) * 2018-09-23 2023-11-21 Lg 电子株式会社 编码/解码视频信号的方法及其装置
US11290731B2 (en) * 2019-05-22 2022-03-29 Tencent America LLC Method and apparatus for video coding
CN114223198A (zh) * 2019-07-05 2022-03-22 Lg 电子株式会社 编译色度量化参数数据的图像解码方法及其设备

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
B. Bross et al, Versatile Video Coding (Draft 8), JVET of ITU-T and ISO/IEC, JVET-Q2001 (2020.03.12.)* *
J. Chen, Algorithm description for Versatile Video Coding and Test Model 8 (VTM 8), JVET-Q2002 (2020.03.24.)* *
M. Koo et al, CE6-related: 32 point MTS based on skipping high frequency coefficients, JVET-M0297 (2019.01.14.) *

Also Published As

Publication number Publication date
WO2021102424A1 (en) 2021-05-27
KR102638578B1 (ko) 2024-02-20
CN116016915A (zh) 2023-04-25
EP4062645A1 (en) 2022-09-28
JP2023139135A (ja) 2023-10-03
CN116016915B (zh) 2024-04-23
JP7319468B2 (ja) 2023-08-01
JP2023129533A (ja) 2023-09-14
KR20240024338A (ko) 2024-02-23
CN115004704A (zh) 2022-09-02
JP2022552580A (ja) 2022-12-16
US20220286708A1 (en) 2022-09-08
MX2022006209A (es) 2022-06-22
EP4062645A4 (en) 2023-08-16
KR20240024337A (ko) 2024-02-23

Similar Documents

Publication Publication Date Title
CN114731445A (zh) 残差和系数编解码的方法和装置
KR102488435B1 (ko) 잔차 및 계수를 코딩하는 방법 및 장치
CN114930833A (zh) 使用调色板模式的视频编解码的方法和装置
US20220286673A1 (en) Deblocking filtering for video coding
CN115802061B (zh) 对视频数据进行编码的方法、电子装置和存储介质
CN115136603A (zh) 用于视频编解码的无损编解码模式
KR102638578B1 (ko) 변환 및 계수 시그널링에 대한 방법 및 장치
CN114556932B (zh) 用于视频编解码的无损编解码模式
JP7349028B2 (ja) パレットモードを使用するビデオ符号化の方法及び装置
WO2021207035A1 (en) Methods and apparatus on transform and coefficient signaling
WO2021055970A1 (en) Methods and apparatus of video coding using palette mode
WO2021138432A1 (en) Methods and apparatus of video coding using palette mode
WO2021087323A1 (en) Methods and apparatus of residual and coefficients coding

Legal Events

Date Code Title Description
A201 Request for examination
AMND Amendment
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant