KR20210122800A - 인트라 서브 파티션 코딩 모드 도구로부터 서브 파티션의 크기를 제한하는 인코더, 디코더 및 대응하는 방법 - Google Patents

인트라 서브 파티션 코딩 모드 도구로부터 서브 파티션의 크기를 제한하는 인코더, 디코더 및 대응하는 방법 Download PDF

Info

Publication number
KR20210122800A
KR20210122800A KR1020217025915A KR20217025915A KR20210122800A KR 20210122800 A KR20210122800 A KR 20210122800A KR 1020217025915 A KR1020217025915 A KR 1020217025915A KR 20217025915 A KR20217025915 A KR 20217025915A KR 20210122800 A KR20210122800 A KR 20210122800A
Authority
KR
South Korea
Prior art keywords
sub
partitions
block
partitioning
partition
Prior art date
Application number
KR1020217025915A
Other languages
English (en)
Inventor
비아오 왕
세미 에센리크
어낸드 메헤르 코트라
한 가오
지안리 첸
Original Assignee
후아웨이 테크놀러지 컴퍼니 리미티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 후아웨이 테크놀러지 컴퍼니 리미티드 filed Critical 후아웨이 테크놀러지 컴퍼니 리미티드
Publication of KR20210122800A publication Critical patent/KR20210122800A/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • H04N19/52Processing of motion vectors by encoding by predictive encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/119Adaptive subdivision aspects, e.g. subdivision of a picture into rectangular or non-rectangular coding blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/107Selection of coding mode or of prediction mode between spatial and temporal predictive coding, e.g. picture refresh
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/132Sampling, masking or truncation of coding units, e.g. adaptive resampling, frame skipping, frame interpolation or high-frequency transform coefficient masking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/14Coding unit complexity, e.g. amount of activity or edge presence estimation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/159Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/593Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques

Abstract

본 개시내용은 디코딩 디바이스 또는 인코딩 디바이스에 의해 구현되는 비디오 코딩의 방법을 제공하며, 여기서 현재 블록은 인트라 서브 파티션 코딩 모드에서 코딩되고 파티셔닝 규칙 및 현재 블록의 크기에 기초하여 파티셔닝 방향을 따라 다수의 서브 파티션으로 파티셔닝된다.

Description

인트라 서브 파티션 코딩 모드 도구로부터 서브 파티션의 크기를 제한하는 인코더, 디코더 및 대응하는 방법
관련 출원에 대한 상호 참조
본 출원은 2019년 2월 15일자로 미국 특허상표청에 출원된 미국 가출원 62,806,505의 우선권을 주장하며, 가출원 개시 내용은 그 전체가 본 명세서에 참조로 포함된다.
기술 분야
본 출원의 실시예는 일반적으로 픽처 처리 분야에 관한 것이다.
비디오 코딩(비디오 인코딩 및 디코딩)은, 예를 들어, 방송 디지털 TV, 인터넷 및 이동 네트워크를 통한 비디오 전송, 비디오 채팅, 비디오 회의와 같은 실시간 대화 애플리케이션, DVD 및 블루레이(Blu-ray), 비디오 콘텐츠 수집 및 편집 시스템 및 보안 애플리케이션의 캠코더와 같은 광범위한 디지털 비디오 애플리케이션에서 사용된다.
비교적 짧기도 한 비디오를 묘사하는데 필요한 비디오 데이터의 양은 상당할 수 있으며, 이것은 데이터가 스트리밍되거나 또는 그와 달리 대역폭 용량이 제한된 통신 네트워크를 통해 통신될 때 어려움을 초래할 수 있다. 따라서, 비디오 데이터는 일반적으로 현대 통신 네트워크를 통해 통신되기 전에 압축된다. 메모리 자원이 제한될 수 있기 때문에 비디오가 저장 디바이스에 저장될 때 비디오의 크기가 또한 문제가 될 수 있다. 비디오 압축 디바이스는 전송 또는 저장 전에 종종 소스에서 소프트웨어 및/또는 하드웨어를 사용하여 비디오 데이터를 코딩하여, 디지털 비디오 이미지를 표현하는데 필요한 데이터의 양을 줄인다. 그런 다음 압축된 데이터가 목적지에서 비디오 데이터를 디코딩하는 비디오 압축 해제 디바이스에 의해 수신된다. 네트워크 자원이 제한되어 있고 더 높은 비디오 품질의 요구가 계속 증가함에 따라, 픽처 품질을 거의 또는 전혀 희생하지 않고 압축 비율을 개선하는 개선된 압축 및 압축 해제 기술이 바람직하다.
본 출원의 실시예는 독립항에 따른 인코딩 및 디코딩을 위한 장치 및 방법을 제공한다.
전술한 목적 및 다른 목적은 독립항의 주제에 의해 달성된다. 추가의 구현 형태는 종속항, 상세한 설명 및 도면으로부터 명백해진다.
본 개시내용의 제 1 실시예는 디코딩 디바이스 또는 인코딩 디바이스에 의해 구현되는 비디오 코딩의 방법으로, 여기서 방법은 현재 블록의 블록 크기 정보를 획득하는 단계와, 블록 크기 정보에 기초하여, 현재 블록이, 서브 파티션 각각의 너비가 4 이상인 경우 별도로 인트라 예측을 위해 사용되거나 또는 서브 파티션 중 적어도 2개를 결합하여 적어도 2개의 서브 파티션의 결합된 너비가 4 이상인 경우 협력적으로 (인트라 예측을 위해) 사용되는 다수의 서브 파티션으로 파티셔닝되는 파티셔닝 방향 및 서브 파티션의 수를 결정하는 단계와, 현재 블록의 서브 파티션을 코딩하는 단계 - 코딩은 디코딩 또는 인코딩을 포함함 - 를 포함한다.
다시 말해서, 서브 파티션이 인트라 예측을 위해 별도로 사용될 때, 각각의 서브 파티션은 수평 방향으로 4 샘플 이상일 수 있다. 한편, 적어도 2개의 서브 파티션이 인트라 예측을 위해 협력적으로, 즉, 함께 사용될 때, 적어도 2개의 서브 파티션의 결합된 너비는 4 샘플 이상일 수 있다.
현재 블록은 인트라 서브 파티션(intra sub-partition)(ISP) 코딩 모드에 의해 코딩될 수 있다. ISP 모드는 루마 인트라 예측된 블록을 블록 크기에 따라 수직 또는 수평으로 여러 서브 파티션으로 나누는 코딩 도구이다.
방법은 서브 파티션의 수 및 파티셔닝 방향에 따라 현재 블록을 다수의 서브 파티션으로 파티셔닝하는 단계를 더 포함할 수 있다. 특히, 서브 파티션의 수는 2개 또는 4개일 수 있으며, 방향은 수직 방향 또는 수평 방향일 수 있다.
블록 크기 정보에 기초하여 서브 파티션의 수를 결정하는 것은 다음의 표에 따라 수행될 수 있다:
Figure pct00001
파티셔닝 방향은 수평 또는 수직일 수 있다. 각각의 서브 파티션은 적어도 16개의 샘플을 포함할 수 있다. 개별 서브 파티션이 16개 미만의 샘플을 포함하고 있으면, 적어도 2개의 개별 서브 파티션이 인트라 예측을 위해 결합되어, 결합된 서브 파티션이 적어도 16개 샘플을 포함하도록 할 수 있다는 것에 유의해야 한다.
파티셔닝 방향을 결정하는 것은 다음의 파티셔닝 방향 테이블을 참조하여 수행될 수 있다.
Figure pct00002
다시 말해서, 블록 크기 정보에 기초하여 파티셔닝 방향 및 서브 파티션의 수를 결정하는 것은 파티셔닝 방향, 서브 파티션 및 블록 크기가 다음의 파티셔닝 방향 테이블에 도시된 관계를 만족하도록 수행될 수 있다.
Figure pct00003
파티셔닝 방향 테이블은 다음을 더 포함할 수 있다:
Figure pct00004
서브 파티션은 인트라 예측 블록일 수 있다.
코딩이 인코딩일 때, 파티셔닝 방향은 현재 블록의 코딩된 데이터를 포함하는 비트스트림으로 코딩될 수 있다. 코딩이 디코딩일 때, 파티셔닝 방향은 현재 블록의 코딩된 데이터 및 파티셔닝 방향에 관한 정보를 포함하는 비트스트림으로부터 파싱될 수 있다.
제 1 실시예의 양태에 따르면, 제 1 실시예에 따른 방법 중 임의의 방법을 수행하기 위한 처리 회로를 포함하는 인코더가 제공된다.
제 1 실시예의 추가 양태에 따르면, 제 1 실시예에 따른 방법 중 임의의 방법을 수행하기 위한 처리 회로를 포함하는 디코더가 제공된다.
제 1 실시예의 추가 양태에 따르면, 프로그램이 컴퓨터에 의해 실행될 때, 컴퓨터로 하여금 제 1 실시예에 따른 방법 중 임의의 방법을 수행하게 하는 명령어를 포함하는 컴퓨터 프로그램 제품이 제공된다.
제 1 실시예의 추가 양태에 따르면, 하나 이상의 프로세서와, 하나 이상의 프로세서에 연결되고 하나 이상의 프로세서에 의한 실행을 위한 명령어를 저장하는 비일시적 컴퓨터 판독 가능 저장 매체를 포함하는 디코더 또는 인코더가 제공되며, 여기서 명령어는 하나 이상의 프로세서에 의해 실행될 때, 디코더 또는 인코더를 각자 제 1 실시예에 따른 방법 중 임의의 방법을 수행하도록 구성한다.
제 1 실시예의 추가 양태에 따르면, 인코더가 제공되고, 인코더는, 현재 블록의 블록 크기 정보를 획득하도록 구성된 크기 결정 모듈과, 블록 크기 정보에 기초하여, 현재 블록이, 서브 파티션 각각의 너비가 4 이상인 경우 별도로 또는 서브 파티션 중 적어도 2개를 결합하여 적어도 2개의 서브 파티션의 결합된 너비가 4 이상인 경우 협력적으로 인트라 예측을 위해 사용되는 다수의 서브 파티션으로 파티셔닝되는 파티셔닝 방향 및 서브 파티션의 수를 결정하도록 구성된 서브 파티션 결정 모듈과, 현재 블록의 서브 파티션을 인코딩하도록 구성된 코딩 모듈을 포함한다.
각각의 서브 파티션은 적어도 16개의 샘플을 포함할 수 있다.
서브 파티션 결정 모듈(1120)은 다음의 파티셔닝 방향 테이블을 참조하여 파티셔닝 방향을 결정하도록 구성될 수 있다:
Figure pct00005
다시 말해서, 서브 파티션 결정 모듈(1120)은 블록 크기 정보에 기초하여 파티셔닝 방향 및 서브 파티션의 수를 결정하여 파티셔닝 방향, 서브 파티션 및 블록 크기가 다음의 파티셔닝 방향 테이블에 도시된 관계를 만족하도록 구성될 수 있다.
Figure pct00006
파티셔닝 방향 테이블은 다음을 더 포함할 수 있다:
Figure pct00007
코딩 모듈(1130)은 또한 파티셔닝 방향에 관한 정보를, 코딩된 데이터를 포함하는 비트스트림으로 인코딩하도록 구성될 수 있다.
제 1 실시예의 추가 양태에 따르면, 디코더가 제공되고, 디코더는 현재 블록의 블록 크기 정보를 획득하도록 구성된 크기 결정 모듈과, 블록 크기 정보에 기초하여, 현재 블록이, 서브 파티션 각각의 너비가 4 이상인 경우 별도로 또는 서브 파티션 중 적어도 2개를 결합하여 적어도 2개의 서브 파티션의 결합된 너비가 4 이상인 경우 협력적으로 인트라 예측을 위해 사용되는 다수의 서브 파티션으로 파티셔닝되는 파티셔닝 방향 및 서브 파티션의 수를 결정하도록 구성된 서브 파티션 결정 모듈과, 현재 블록의 서브 파티션을 디코딩하도록 구성된 코딩 모듈을 포함한다.
각각의 서브 파티션은 적어도 16개의 샘플을 포함할 수 있다.
서브 파티션 결정 모듈(1120)은 다음의 파티셔닝 방향 테이블을 참조하여 파티셔닝 방향을 결정하도록 구성될 수 있다:
Figure pct00008
다시 말해서, 서브 파티션 결정 모듈(1120)은 블록 크기 정보에 기초하여 파티셔닝 방향 및 서브 파티션의 수를 결정하여 파티셔닝 방향, 서브 파티션 및 블록 크기가 다음의 파티셔닝 방향 테이블에 도시된 관계를 만족하도록 구성될 수 있다.
Figure pct00009
파티셔닝 방향 테이블은 다음을 더 포함할 수 있다:
Figure pct00010
코딩 모듈(1130)은 또한 파티셔닝 방향에 관한 정보를, 코딩된 데이터를 포함하는 비트스트림으로부터 파싱하도록 구성될 수 있다.
본 개시내용의 제 2 실시예는 디코딩 디바이스 또는 인코딩 디바이스에 의해 구현되는 비디오 코딩의 방법으로, 여기서 방법은 현재 블록의 블록 크기 정보를 획득하는 단계와, 파티셔닝 규칙 및 블록 크기 정보에 기초하여 서브 파티션의 수 및 적어도 하나의 파티셔닝 방향을 결정하는 단계와, 서브 파티션의 수 및 적어도 하나의 파티셔닝 방향에 따라 현재 블록을 코딩하는 단계 - 코딩은 디코딩 또는 인코딩을 포함함 - 를 포함한다.
서브 파티션의 수는 현재 블록을 파티셔닝한 후의 블록의 수와 동일할 수 있다. 코딩은 특히 현재 블록을 파티셔닝하는 것을 포함할 수 있다.
현재 블록은 인트라 서브 파티션(intra sub-partition)(ISP) 코딩 모드에 의해 코딩될 수 있다. 방법은 서브 파티션의 수 및 적어도 하나의 파티셔닝 방향에 따라 현재 블록을 서브 파티션으로 파티셔닝하는 단계를 더 포함할 수 있다.
파티셔닝 규칙은 다음의 표에 따라 파티셔닝하는 것을 포함할 수 있다.
Figure pct00011
여기서 파티셔닝 규칙은 1xN(N≥16) 또는 2xM(M≥8) 크기의 서브 파티션을 초래하는 파티셔닝을 비활성화한다.
1xN(N≥16) 또는 2xM(M≥8) 크기의 서브 파티션을 초래하는 파티셔닝을 비활성화하면 메모리 대역폭의 사용이 개선되도록 메모리 버스트 크기를 고려할 수 있다. 그 결과, 파티셔닝 규칙은 보다 하드웨어 친화적인 서브 파티션으로 이어진다. 또한, 파티셔닝은 잔차 계수 코딩에 더 잘 적합할 수 있다.
파티셔닝 규칙은 또한 Nx1(N≥16) 또는 Mx2(M≥8) 크기의 서브 파티션을 초래하는 파티셔닝을 비활성화한다. 이러한 파티셔닝은 잔차 계수 코딩에 더 잘 적합할 수 있다.
적어도 하나의 파티셔닝 방향은 수평 또는 수직일 수 있다. 대안적으로, 파티셔닝 규칙은 수평 + 수직 파티셔닝 방향으로 파티셔닝하는 것을 포함할 수 있다. 수평 + 수직 파티셔닝 방향으로의 파티셔닝은 배타적으로 8x8 샘플의 블록 크기에 적용될 수 있다.
각각의 서브 파티션은 적어도 16개의 샘플을 포함할 수 있다.
제 2 실시예의 제 1 양태에 따르면, 파티셔닝 규칙은 다음의 테이블에 따라 파티셔닝하는 것을 포함할 수 있다:
Figure pct00012
제 2 실시예의 제 2 양태에 따르면, 파티셔닝 규칙은 다음의 테이블에 따라 파티셔닝하는 것을 포함할 수 있다:
Figure pct00013
제 2 실시예의 제 3 양태에 따르면, 파티셔닝 규칙은 다음의 테이블에 따라 파티셔닝하는 것을 포함할 수 있다:
Figure pct00014
제 2 실시예의 제 4 양태에 따르면, 파티셔닝 규칙은 다음의 테이블에 따라 파티셔닝하는 것을 포함할 수 있다:
Figure pct00015
제 2 실시예의 추가 양태에 따르면, 제 2 실시예의 방법 중 임의의 방법을 수행하기 위한 처리 회로를 포함하는 인코더가 제공된다.
제 2 실시예의 추가 양태에 따르면, 제 2 실시예의 방법 중 임의의 방법을 수행하기 위한 처리 회로를 포함하는 디코더가 제공된다.
또한, 프로그램이 컴퓨터에 의해 실행될 때, 컴퓨터로 하여금 제 2 실시예의 방법 중 임의의 방법을 수행하게 하는 명령어를 포함하는 컴퓨터 프로그램 제품이 제공된다.
제 2 실시예의 추가 양태에 따르면, 하나 이상의 프로세서와, 하나 이상의 프로세서에 연결되고 하나 이상의 프로세서에 의한 실행을 위한 명령어를 저장하는 비일시적 컴퓨터 판독 가능 저장 매체를 포함하는 디코더 또는 인코더가 제공되며, 여기서 명령어는 하나 이상의 프로세서에 의해 실행될 때, 디코더 또는 인코더를 각자 제 2 실시예의 방법 중 임의의 방법을 수행하도록 구성한다.
또한, 파티셔닝 유닛을 포함하는 인코더가 제공되고, 파티셔닝 유닛은 현재 블록의 블록 크기 정보를 획득하고, 파티셔닝 규칙 및 블록 크기 정보에 기초하여, 서브 파티션의 수 및 적어도 하나의 파티셔닝 방향을 결정하고, 서브 파티션의 수 및 적어도 하나의 파티셔닝 방향에 따라 현재 블록을 인코딩하도록 구성된다.
본 개시내용의 제 3 실시예는 디코딩 디바이스 또는 인코딩 디바이스에 의해 구현되는 비디오 코딩의 방법으로, 여기서 방법은 현재 블록(예를 들어, 인트라 서브 파티션 코딩 모드가 적용된 현재 블록)의 블록 크기 정보를 획득하는 단계와, 본 규칙 및 블록 크기에 기초하여, 서브 파티션의 수(예를 들어, 서브 파티션의 수는 블록을 파티셔닝한 후의 서브 블록의 수와 동일함) 및 파티션 방향을 결정하는 단계와, 서브 파티션의 수 및 파티션 방향에 따라 현재 블록을 디코딩 또는 코딩(예를 들어, 파티셔닝)하는 단계를 포함한다.
본 규칙은 다음의 표에 따라 도시될 수 있다:
Figure pct00016
대안적으로, 현재 규칙은 다음의 표에 따라 도시될 수 있다.
Figure pct00017
대안적으로, 현재 규칙은 다음의 표에 따라 도시될 수 있다.
Figure pct00018
대안적으로, 현재 규칙은 다음의 표에 따라 도시될 수 있다.
Figure pct00019
제 3 실시예의 추가 양태에 따르면, 제 3 실시예의 방법 중 임의의 방법을 수행하기 위한 처리 회로를 포함하는 인코더가 제공된다.
제 3 실시예의 추가 양태에 따르면, 제 3 실시예의 방법 중 임의의 방법을 수행하기 위한 처리 회로를 포함하는 디코더가 제공된다.
제 3 실시예의 추가 양태에 따르면, 제 3 실시예의 방법 중 임의의 방법을 수행하기 위한 프로그램 코드를 포함하는 컴퓨터 프로그램 제품이 제공된다.
또한, 디코더 또는 인코더가 제공되며, 디코더 또는 인코더는 하나 이상의 프로세서와, 프로세서에 연결되고 프로세서에 의해 실행하기 위한 프로그래밍을 저장하는 비일시적 컴퓨터 판독 가능 저장 매체 - 프로그래밍은 프로세서에 의해 실행될 때 제 3 실시예의 방법 중 임의의 하나를 수행하도록 디코더를 구성함 - 를 포함한다.
본 개시내용의 제 4 실시예는 메모리에 저장되거나 또는 전송 매체를 통해 전송되는 데이터로서, 여기서 데이터는 위에서 설명한 코딩 방법 또는 인코더 중 어느 것을 사용하여 생성된다.
하나 이상의 실시예의 세부 사항은 첨부 도면 및 이하의 설명에서 제시된다. 다른 양태, 목적 및 장점은 상세한 설명, 도면 및 청구 범위로부터 명백해질 것이다.
다음에는 첨부 그림 및 도면을 참조하여 본 개시내용의 실시예가 보다 상세하게 설명된다.
도 1a는 본 개시내용의 실시예를 구현하도록 구성된 비디오 코딩 시스템의 예를 도시하는 블록도이다.
도 1b는 본 개시내용의 실시예를 구현하도록 구성된 비디오 코딩 시스템의 다른 예를 도시하는 블록도이다.
도 2는 본 개시내용의 실시예를 구현하도록 구성된 비디오 인코더의 예를 도시하는 블록도이다.
도 3은 본 개시내용의 실시예를 구현하도록 구성된 비디오 디코더의 예를 도시하는 블록도이다.
도 4는 인코딩 장치 또는 디코딩 장치의 예를 도시하는 블록도이다.
도 5는 인코딩 장치 또는 디코딩 장치의 다른 예를 도시하는 블록도이다.
도 6은 인트라 서브 파티션 코딩을 위해 4x8 및 8x4 블록을 파티셔닝하기 위한 예를 도시한다.
도 7은 인트라 서브 파티션 코딩을 위해 4x8, 8x4 및 4x4 블록을 제외한 모든 블록을 파티셔닝하기 위한 예를 도시한다.
도 8은 4x16 크기의 인트라 블록을 1x16 샘플의 서브 파티션 크기로 파티셔닝하기 위한 예를 도시한다.
도 9는 1x16 샘플의 서브 파티션 크기에 대한 낮은 데이터 페치 효율성의 문제를 보여준다.
도 10은 본 개시내용의 실시예에 따른 결합된 수평 + 수직 파티셔닝 방식을 도시한다.
도 11은 본 개시내용의 실시예에 따른 비디오 코딩의 방법의 흐름도를 도시한다.
도 12는 본 개시내용의 실시예에 따른 인코딩 장치 또는 디코딩 장치의 예를 예시하는 블록도를 도시한다.
다음에서 달리 명백하게 명시되지 않는 한 동일한 참조 부호는 동일한 또는 적어도 기능상 동등한 특징을 나타낸다.
다음의 설명에서, 본 개시내용의 일부를 형성하고, 본 개시내용의 실시예의 특정 양태 또는 본 개시내용의 실시예가 사용될 수 있는 특정 양태를 예시로서 도시하는 첨부 도면이 참조된다. 본 개시내용의 실시예는 다른 양태에서 사용될 수 있고 도면에 도시되지 않은 구조적 또는 논리적 변경을 포함할 수 있다고 생각된다. 그러므로, 다음의 상세한 설명은 제한적인 의미로 받아들여 져서는 안되며, 본 개시내용의 범위는 첨부된 청구 범위에 의해 정의된다.
예를 들어, 설명된 방법과 관련된 개시 내용은 방법을 수행하도록 구성된 대응하는 디바이스 또는 시스템에 대해서도 마찬가지이며 그 반대의 경우도 마찬가지라고 생각된다. 예를 들어, 하나 또는 복수의 특정 방법 단계가 설명된다면, 대응하는 디바이스는 설명된 하나 또는 복수의 방법 단계를 수행하는 하나 또는 복수의 유닛, 예를 들어 기능 유닛(예를 들어, 하나 또는 복수의 방법 단계를 수행하는 하나의 유닛 또는 복수의 단계 중 하나 이상을 각각 수행하는 복수의 유닛)이 도면에서 명백하게 설명 또는 예시되지 않더라도, 그러한 하나 이상의 유닛을 포함할 수 있다. 한편, 예를 들어, 특정 장치가 하나 또는 복수의 유닛, 예를 들어, 기능 유닛에 기초하여 설명된다면, 대응하는 방법은 하나 또는 복수의 유닛의 기능성을 수행하는 하나의 단계(예를 들어, 하나 또는 복수의 유닛의 기능성을 수행하는 하나의 단계, 또는 복수의 유닛 중 하나 이상의 기능성을 각각 수행하는 복수의 단계)가 도면에서 명백하게 설명 또는 예시되지 않더라도, 그러한 하나 또는 복수의 단계를 포함할 수 있다. 또한, 본 명세서에서 설명되는 다양한 예시적인 실시예 및/또는 양태의 특징은 달리 구체적으로 언급하지 않는 한, 서로 결합될 수 있다고 생각된다.
비디오 코딩은 전형적으로 비디오 또는 비디오 시퀀스를 형성하는 픽처의 시퀀스를 처리하는 것을 말한다. 비디오 코딩 분야에서 "픽처"라는 용어 대신, "프레임" 또는 "이미지"라는 용어가 동의어로 사용될 수 있다. 비디오 코딩(또는 일반적으로 코딩)은 두 부분: 비디오 인코딩 및 비디오 디코딩을 포함한다. 비디오 인코딩은 소스 측에서 수행되며, 전형적으로 (보다 효율적인 저장 및/또는 전송을 위해) 비디오 픽처를 나타내는 데 사용되는 데이터의 양을 줄이기 위해 원본 비디오 픽처를 (예를 들어, 압축에 의해) 처리하는 것을 포함한다. 비디오 디코딩은 목적지 측에서 수행되고 전형적으로 인코더와 비교되는 비디오 픽처를 복원하기 위한 역처리를 포함한다. 비디오 픽처(또는 일반적으로 픽처)의 "코딩"을 언급하는 실시예는 비디오 픽처 또는 각각의 비디오 시퀀스의 "인코딩" 또는 "디코딩"에 관련한 것으로 이해되어야 한다. 인코딩 부분과 디코딩 부분의 조합은 코덱(CODEC)(Coding and Decoding)이라고도 한다.
무손실 비디오 코딩의 경우, 원본 비디오 픽처가 복원될 수 있다, 즉, (저장 또는 전송 동안 전송 손실 또는 다른 데이터 손실이 발생하지 않는다고 가정하면) 복원된 비디오 픽처는 원본 비디오 픽처와 동일한 품질을 갖는다. 손실 비디오 코딩의 경우, 비디오 픽처를 나타내는 데이터의 양을 줄이기 위해, 예를 들어, 양자화에 의한 추가 압축이 수행되는데, 비디오 픽처는 디코더에서 완전히 복원될 수 없다, 즉, 복원된 비디오 픽처의 품질은 원본 비디오 픽처의 품질과 비교하여 더 낮거나 더 나쁘다.
여러 비디오 코딩 표준은 "손실 하이브리드 비디오 코덱"의 그룹에 속한다(즉, 샘플 도메인에서의 공간 및 시간 예측과 변환 도메인에서의 양자화를 적용하기 위한 2D 변환 코딩을 결합한다). 비디오 시퀀스의 각 픽처는 전형적으로 비중첩 블록의 세트로 파티셔닝되고, 코딩은 전형적으로 블록 레벨에서 수행된다. 다시 말해서, 모든 인코더에서, 비디오는 전형적으로 블록(비디오 블록) 레벨에서, 예를 들어, 공간(인트라 픽처) 예측 및/또는 시간(인터 픽처) 예측을 사용하여 예측 블록을 생성하고, 예측 블록을 현재 블록(현재 처리된/처리될 블록)으로부터 감산하여 잔차 블록을 획득하고, 잔차 블록을 변환하고 잔차 블록을 변환 도메인에서 양자화하여 전송될 데이터의 양을 감소(압축)함으로써, 처리, 즉, 인코딩된다. 또한, 인코더는 디코더 처리 루프를 복제하여, 둘 모두 후속 블록을 처리, 즉, 코딩하기 위한 동일한 예측(예를 들어, 인트라 및 인터 예측) 및/또는 복원을 생성할 것이다.
비디오 코딩 시스템(10)의 다음의 실시예에서, 비디오 인코더(20) 및 비디오 디코더(30)는 도 1 내지 도 3에 기초하여 설명된다.
도 1a는 예시적인 코딩 시스템(10), 예를 들어, 본 출원의 기술을 이용할 수 있는 비디오 코딩 시스템(10)(또는 줄여서 코딩 시스템(10))을 예시하는 개략적인 블록도이다. 비디오 코딩 시스템(10)의 비디오 인코더(20)(또는 줄여서 인코더(20)) 및 비디오 디코더(30)(또는 줄여서 디코더(30))는 본 출원에서 설명된 다양한 예에 따른 기술을 수행하도록 구성될 수 있는 디바이스의 예를 나타낸다.
도 1a에 도시된 바와 같이, 코딩 시스템(10)은 인코딩된 픽처 데이터(21)를, 예를 들어 인코딩된 픽처 데이터(13)를 디코딩하기 위한 목적지 디바이스(14)에 제공하도록 구성된 소스 디바이스(12)를 포함한다.
소스 디바이스(12)는 인코더(20)를 포함하고, 부가적으로, 즉, 선택적으로, 픽처 소스(16), 전처리기(또는 전처리 유닛)(18), 예를 들어, 픽처 전처리기(18) 및 통신 인터페이스 또는 통신 유닛(22)을 포함할 수 있다.
픽처 소스(16)는 임의의 종류의 픽처 캡처 디바이스, 예를 들어 실세계 픽처를 캡처하기 위한 카메라 및/또는 임의의 종류의 픽처 생성 디바이스, 예를 들어, 컴퓨터 애니메이션 픽처를 생성하기 위한 컴퓨터 그래픽 프로세서, 또는 실세계 픽처, 컴퓨터 생성 픽처(예를 들어, 스크린 콘텐츠, 가상 현실(virtual reality(VR) 픽처) 및/또는 이들의 임의의 조합(예를 들어, 증강 현실(argumented reality)(AR) 픽처)를 획득 및/또는 제공하기 위한 임의의 종류의 다른 디바이스를 포함하거나 또는 그러한 디바이스일 수 있다. 픽처 소스는 전술한 픽처 중 임의의 픽처를 저장하는 임의의 종류의 메모리 또는 저장소일 수 있다.
전처리기(18) 및 전처리 유닛(18)에 의해 수행되는 처리와는 달리, 픽처 또는 픽처 데이터(17)는 또한 원시 픽처 또는 원시 픽처 데이터(17)로 지칭될 수 있다.
전처리기(18)는 (원시) 픽처 데이터(17)를 수신하고 픽처 데이터(17)에 대해 전처리를 수행하여 전처리된 픽처(19) 또는 전처리된 픽처 데이터(19)를 획득하도록 구성될 수 있다. 전처리기(18)에 의해 수행되는 전처리는, 예를 들어, 트리밍, 컬러 포맷 변환(예를 들어, RGB에서 YCbCr로), 컬러 보정, 또는 노이즈 제거를 포함할 수 있다. 전처리 유닛(18)은 선택적인 컴포넌트일 수 있다고 생각될 수 있다.
비디오 인코더(20)는 전처리된 픽처 데이터(19)를 수신하고 인코딩된 픽처 데이터(21)를 제공하도록 구성될 수 있다(더 자세한 사항은 예를 들어, 도 2에 기초하여 아래에서 설명될 것이다).
소스 디바이스(12)의 통신 인터페이스(22)는 인코딩된 픽처 데이터(21)를 수신하고 픽처 데이터(21)(또는 이것의 임의의 추가 처리된 버전)를 통신 채널(13)을 통해 저장 또는 직접적인 복원을 위한 다른 디바이스, 예를 들어 목적지 디바이스(14) 또는 임의의 다른 디바이스로 전송하도록 구성될 수 있다.
목적지 디바이스(14)는 디코더(30)(예를 들어, 비디오 디코더(30))를 포함하고, 부가적으로, 즉, 선택적으로, 통신 인터페이스 또는 통신 유닛(28), 전처리기(32)(또는 전처리 유닛(32)) 및 디스플레이 디바이스(34)를 포함할 수 있다.
목적지 디바이스(14)의 통신 인터페이스(28)는, 예를 들어 직접 소스 디바이스(12)로부터 또는 임의의 다른 소스, 예를 들면, 인코딩된 픽처 데이터 저장 디바이스와 같은 저장 디바이스로부터, 인코딩된 픽처 데이터(21)(또는 이것의 임의의 추가 처리된 버전)를 수신하고, 인코딩된 픽처 데이터(21)를 디코더(30)에 제공하도록 구성될 수 있다.
통신 인터페이스(22) 및 통신 인터페이스(28)는 소스 디바이스(12)와 목적지 디바이스(14) 사이의 직접 통신 링크, 예를 들어 직접 유선 또는 무선 연결을 통해 인코딩된 픽처 데이터(21) 또는 인코딩된 데이터(13)를 송신 또는 수신하도록 구성될 수 있거나, 또는 임의의 종류의 네트워크, 예를 들어 유선 또는 무선 네트워크 또는 이들의 조합, 또는 임의의 종류의 사설 및 공용 네트워크, 또는 임의의 종류의 이들의 조합을 통해 인코딩된 픽처 데이터(21) 또는 인코딩된 데이터(13)를 송신 또는 수신하도록 구성될 수 있다.
통신 인터페이스(22)는 인코딩된 픽처 데이터(21)를 적절한 포맷, 예를 들어 패킷으로 패키징하고/하거나, 통신 링크 또는 통신 네트워크를 통해 전송하기 위한 임의의 종류의 전송 인코딩 또는 처리를 사용하여 인코딩된 픽처 데이터를 처리하도록 구성될 수 있다.
통신 인터페이스(22)의 상대방을 형성하는 통신 인터페이스(28)는 전송된 데이터를 수신하고, 임의의 종류의 대응하는 전신 디코딩 또는 처리 및/또는 디패키징을 사용하여 전송 데이터를 처리하여 인코딩된 픽처 데이터(21)를 획득하도록 구성될 수 있다.
통신 인터페이스(22) 및 통신 인터페이스(28) 둘 모두는 소스 디바이스(12)로부터 목적지 디바이스(14)까지를 가리키는 도 1a의 통신 채널(13)에 대한 화살표로 표시된 바와 같이 단방향 통신 인터페이스로서, 또는 양방향 통신 인터페이스로서 구성될 수 있고, 예를 들어, 연결을 설정하고, 통신 링크 및/또는 인코딩된 픽처 데이터 전송과 같은 데이터 전송과 관련된 임의의 다른 정보를 확인 응답하고 교환하기 위해 메시지를 송신하고 수신하도록 구성될 수 있다.
디코더(30)는 인코딩된 픽처 데이터(21)를 수신하고 디코딩된 픽처 데이터(31) 또는 디코딩된 픽처(31)를 제공하도록 구성될 수 있다(더 자세한 사항은 예를 들어, 도 3 또는 도 5에 기초하여 아래에서 설명될 것이다). 목적지 디바이스(14)의 후처리기(32)는 디코딩된 픽처 데이터(31)(또한 복원된 픽처 데이터라고도 함), 예를 들어 디코딩된 픽처(31)를 후처리하여 후처리된 픽처(33)와 같은 후처리된 픽처 데이터(33)를 획득하도록 구성될 수 있다. 후처리 유닛(32)에 의해 수행되는 후처리는 컬러 포맷 변환(예를 들어, YCbCr에서 RGB로), 컬러 보정, 트리밍 또는 재샘플링 또는 예를 들어, 디스플레이 디바이스(34)에 의해 디스플레이를 위한 예를 들면, 디코딩된 픽처 데이터(31)를 준비하기 위한 임의의 다른 처리 중 임의의 하나 이상을 포함할 수 있다.
목적지 디바이스(14)의 디스플레이 디바이스(34)는 픽처를, 예를 들어, 사용자 또는 뷰어에게 디스플레이하기 위한 후처리된 픽처 데이터(33)를 수신하도록 구성될 수 있다. 디스플레이 디바이스(34)는 통합된 또는 외부 디스플레이 또는 모니터와 같이 복원된 픽처를 나타내기 위한 임의의 종류의 디스플레이이거나 이를 포함할 수 있다. 디스플레이는 액정 디스플레이(liquid crystal display)(LCD), 유기 발광 다이오드(organic light emitting diode)(OLED) 디스플레이, 플라즈마 디스플레이, 프로젝터, 마이크로 LED 디스플레이, 액정 온 실리콘(liquid crystal on silicon)(LCoS), 디지털 조명 프로세서(digital light processor)(DLO) 또는 임의의 종류의 다른 디스플레이일 수 있다.
도 1a가 소스 디바이스(12) 및 목적지 디바이스(14)를 별개의 디바이스로서 도시하고 있지만, 디바이스의 실시예는 또한 두 디바이스 모두 또는 두 기능성 모두, 즉, 소스 디바이스(12) 또는 대응하는 기능성 및 목적지 디바이스(14) 또는 대응하는 기능성을 포함할 수 있다. 이러한 실시예에서, 소스 디바이스(12) 또는 대응하는 기능성 및 목적지 디바이스(14) 또는 대응하는 기능성은 동일한 하드웨어 및/또는 소프트웨어를 사용하여 또는 별도의 하드웨어 및/또는 소프트웨어 또는 이들의 임의의 조합에 의해 구현될 수 있다.
설명에 기초하여 관련 기술분야에서 통상의 기술자에게 명백한 바와 같이, 도 1a에 도시된 바와 같은 소스 디바이스(12) 및/또는 목적지 디바이스(14) 내의 상이한 유닛 또는 기능성의 존재 및 기능성의 (정확한) 분할은 실제 디바이스 및 애플리케이션에 따라 달라질 수 있다.
인코더(20)(예를 들어, 비디오 인코더(20)) 또는 디코더(30)(예를 들어, 비디오 디코더(30)) 또는 둘 다인 인코더(20) 및 디코더(30)는 하나 이상의 마이크로프로세서, 디지털 신호 프로세서(digital signal processor)(DSP), 주문형 집적 회로(application-specific integrated circuit)(ASIC), 필드 프로그램 가능 게이트 어레이(field-programmable gate array)(FPGA), 이산 로직, 하드웨어, 비디오 코딩 전용 또는 이들의 임의의 조합과 같이, 도 1b에 도시된 바와 같은 처리 회로를 통해 구현될 수 있다. 인코더(20)는 도 2의 인코더(20)와 관련하여 논의된 바와 같은 다양한 모듈 및/또는 본 명세서에 설명된 임의의 다른 인코더 시스템 또는 서브 시스템을 구체화하는 처리 회로(46)를 통해 구현될 수 있다. 디코더(30)는 도 3의 디코더(30)와 관련하여 논의된 바와 같은 다양한 모듈 및/또는 본 명세서에 설명된 임의의 다른 디코더 시스템 또는 서브 시스템을 구체화하는 처리 회로(46)를 통해 구현될 수 있다. 처리 회로는 나중에 논의되는 바와 같은 다양한 동작을 수행하도록 구성될 수 있다. 도 5에 도시된 바와 같이, 기술이 부분적으로 소프트웨어로 구현되면, 디바이스는 소프트웨어에 대한 명령어를 적합한 비일시적 컴퓨터 판독 가능 저장 매체에 저장할 수 있고, 명령어를 하나 이상의 프로세서를 사용하여 하드웨어에서 실행하여 본 개시내용의 기술을 수행할 수 있다. 비디오 인코더(20) 및 비디오 디코더(30)는 예를 들어, 도 1b에 도시된 바와 같이 단일 디바이스에서 결합된 인코더/디코더(CODEC)의 일부로서 통합될 수 있다.
도 1b에 도시된 비디오 코딩 시스템(40)은 비디오 인코더(20) 및 비디오 디코더(30) 둘 모두를 구현하는 처리 회로를 포함한다. 또한, 실세계 픽처를 캡처하기 위한 카메라와 같은 하나 이상의 이미징 디바이스(41), 안테나(42), 하나 이상의 메모리 저장소(44), 하나 이상의 프로세서(43) 및/또는 위에서 설명된 디스플레이 디바이스(34)와 같은 디스플레이 디바이스(45)는 비디오 코딩 시스템(40)의 일부로서 제공될 수 있다.
소스 디바이스(12) 및 목적지 디바이스(14)는 임의의 종류의 핸드헬드 또는 고정식 디바이스, 예를 들어 노트북 또는 랩톱 컴퓨터, 이동 폰, 스마트 폰, 태블릿 또는 태블릿 컴퓨터, 카메라, 데스크톱 컴퓨터, 셋톱 박스, 텔레비전, 디스플레이 디바이스, 디지털 미디어 플레이어, 비디오 게임 콘솔, (콘텐츠 서비스 서버 또는 콘텐츠 전달 서버와 같은) 비디오 스트리밍 디바이스, 방송 수신기 디바이스, 방송 전송 디바이스 등을 비롯한 넓은 범위의 디바이스 중 임의의 디바이스를 포함할 수 있고 운영 체제를 전혀 사용하지 않거나 임의의 종류의 운영 체제를 사용할 수 있다. 일부 경우에, 소스 디바이스(12) 및 목적지 디바이스(14)는 무선 통신을 위한 장비를 구비할 수 있다. 따라서, 소스 디바이스(12) 및 목적지 디바이스(14)는 무선 통신 디바이스일 수 있다.
일부 경우에, 도 1a에 예시된 비디오 코딩 시스템(10)은 단지 예일 뿐이고, 본 출원의 기술은 인코딩 및 디코딩 디바이스 사이의 임의의 데이터 통신을 반드시 포함하지는 않는 비디오 코딩 시스템(예를 들어, 비디오 인코딩 또는 비디오 디코딩)에 적용될 수 있다. 다른 예에서, 데이터는 로컬 메모리로부터 검색되거나, 네트워크를 통해 스트리밍된다. 비디오 인코딩 디바이스는 데이터를 인코딩하여 메모리에 저장할 수 있고/있거나, 비디오 디코딩 디바이스는 메모리로부터 데이터를 검색하여 디코딩할 수 있다. 일부 예에서, 인코딩 및 디코딩은 서로 통신하지 않고, 단순히 데이터를 메모리로 인코딩하고/하거나 메모리로부터 데이터를 검색 및 디코딩하는 디바이스에 의해 수행된다.
설명의 편의를 위해, 본 개시내용의 실시예는 예를 들어, ITU-T 비디오 코딩 전문가 그룹(Video Coding Experts Group)(VCEG) 및 ISO/IEC 움직임 픽처 전문가 그룹(Motion Picture Experts Group)(MPEG)의 비디오 코딩 공동 협업 팀(Joint Collaboration Team on Video Coding)(JCT-VC)에 의해 개발된 차세대 비디오 코딩 표준인 고효율 비디오 코딩(High-Efficiency Video Coding)(HVEC) 또는 다용도 비디오 코딩(Versatile Video coding)(VVC)을 참조하여 설명된다. 관련 기술분야에서 통상의 기술자는 본 개시내용의 실시예가 HEVC 또는 VVC로 제한되지 않는다는 것을 이해할 것이다.
인코더 및 인코딩 방법
도 2는 본 출원의 기술을 구현하도록 구성된 예시적인 비디오 인코더(20)의 개략적인 블록도를 도시한다. 도 2의 예에서, 비디오 인코더(20)는 입력(201)(또는 입력 인터페이스(201)), 잔차 계산 유닛(204), 변환 처리 유닛(206), 양자화 유닛(208), 역양자화 유닛(210) 및 역변환 처리 유닛(212), 복원 유닛(214), 루프 필터 유닛(220), 디코딩된 픽처 버퍼(decoded picture buffer)(DPB)(230), 모드 선택 유닛(260), 엔트로피 인코딩 유닛(272) 및 출력(272)(또는 출력 인터페이스(272))을 포함한다. 모드 선택 유닛(260)은 인터 예측 유닛(244), 인트라 예측 유닛(254) 및 파티셔닝 유닛(262)을 포함할 수 있다. 인터 예측 유닛(244)은 움직임 추정 유닛 및 움직임 보상 유닛(도시되지 않음)을 포함할 수 있다. 도 2에 도시된 바와 같은 비디오 인코더(20)는 또한 하이브리드 비디오 코덱에 따라 하이브리드 비디오 인코더 또는 비디오 인코더로도 지칭될 수 있다.
예를 들어, 잔차 계산 유닛(204), 변환 처리 유닛(206), 양자화 유닛(208) 및 모드 선택 유닛(260)은 인코더(20)의 순방향 신호 경로를 형성한다고 언급될 수 있고, 반면에 역양자화 유닛(210), 역변환 처리 유닛(212), 복원 유닛(214), 루프 필터(220), 디코딩된 픽처 버퍼(DPB)(230), 인터 예측 유닛(244) 및 인트라 예측 유닛(254)은 비디오 인코더(20)의 역방향 신호 경로를 형성한다고 언급될 수 있으며, 여기서 비디오 인코더(20)의 역방향 신호 경로는 디코더의 신호 경로에 대응한다(도 3의 디코더(30) 참조). 역양자화 유닛(210), 역변환 처리 유닛(212), 복원 유닛(214), 루프 필터(220), 디코딩된 픽처 버퍼(DPB)(230), 인터 예측 유닛(244) 및 인트라 예측 유닛(254)은 또한 비디오 인코더(20)의 "내장 디코더"를 형성한다고 말한다.
픽처 및 픽처 파티셔닝(픽처 및 블록)
인코더(20)는, 예를 들어, 입력(201)을 통해, 픽처(17) (또는 픽처 데이터(17)), 예를 들어, 비디오 또는 비디오 시퀀스를 형성하는 픽처 시퀀스의 픽처를 수신하도록 구성될 수 있다. 수신된 픽처 또는 픽처 데이터는 또한 전처리된 픽처(19)(또는 전처리된 픽처 데이터(19))일 수 있다. 간단하게 하기 위해, 다음의 설명은 픽처(17)를 참조한다. 픽처(17)는 또한 현재 픽처 또는 (특히, 비디오 코딩에서 현재 픽처를 다른 픽처, 예를 들어, 동일한 비디오 시퀀스의, 즉, 마찬가지로 현재 픽처를 포함하는 비디오 시퀀스의 이전에 인코딩된 및/또는 디코딩된 픽처와 구별하기 위해) 코딩될 픽처로 지칭될 수 있다.
(디지털) 픽처는 강도 값을 갖는 샘플의 2차원 어레이 또는 매트릭스로 간주되거나 간주될 수 있다. 어레이의 샘플은 픽셀(픽처 요소의 축약형) 또는 펠(pel)이라고도 한다. 어레이 또는 픽처의 수평 및 수직 방향(또는 축)에 있는 샘플의 수는 픽처의 크기 및/또는 해상도를 정의한다. 컬러의 표현을 위해, 전형적으로 3개의 컬러 컴포넌트가 사용된다, 즉, 픽처는 3개의 샘플 어레이로서 나타내거나 이를 포함할 수 있다. RBG 포맷 또는 컬러 공간에서, 픽처는 대응하는 적색, 녹색 및 청색 샘플 어레이를 포함한다. 그러나, 비디오 코딩에서 각 픽셀은 전형적으로 Y로 표시된 루미넌스 컴포넌트(때로는 L이 대신 사용됨)와 Cb 및 Cr로 표시된 2개의 크로미넌스 컴포넌트를 포함하는 루미넌스 및 크로미넌스 포맷 또는 컬러 공간, 예를 들어, YCbCr로 표현된다. 루미넌스(또는 줄여서 루마) 컴포넌트(Y)는 명도 또는 (예를 들어, 그레이 스케일 픽처에서와 같은) 그레이 레벨 강도를 나타내는 반면, 2개의 크로미넌스(또는 줄여서 크로마) 컴포넌트(Cb 및 Cr)는 색도(chromaticity) 또는 컬러 정보 컴포넌트를 나타낸다. 따라서, YCbCr 포맷의 픽처는 루미넌스 샘플 값(Y)의 루미넌스 샘플 어레이와, 크로미넌스 값(Cb 및 Cr)의 2개의 크로미넌스 샘플 어레이를 포함한다. RGB 포맷의 픽처는 YCbCr 포맷으로 또는 그 반대로 전환 또는 변환될 수 있다. 이 프로세스는 컬러 변환 또는 전환이라고도 한다. 픽처가 모노크롬이면, 픽처는 루미넌스 샘플 어레이만 포함할 수 있다. 따라서, 픽처는 예를 들어, 모노크롬 포맷의 루마 샘플의 어레이 또는 4:2:0, 4:2:2 및 4:4:4 컬러 포맷의 루마 샘플의 어레이와 2개의 대응하는 크로마 샘플의 어레이일 수 있다.
비디오 인코더(20)의 실시예는 픽처(17)를 복수의 (전형적으로 중첩하지 않는) 픽처 블록(203)으로 파티셔닝하도록 구성된 픽처 파티셔닝 유닛(도 2에 도시되지 않음)을 포함할 수 있다. 이러한 블록은 루트 블록, 매크로 블록(H.264/AVC) 또는 코딩 트리 블록(coding tree block)(CTB) 또는 코딩 트리 유닛(coding tree unit)(CTU)(H.265/HEVC 및 VVC에 따름)으로도 지칭될 수 있다. 픽처 파티셔닝 유닛은 비디오 시퀀스의 모든 픽처에 대해 동일한 블록 크기 및 블록 크기를 정의하는 대응하는 그리드를 사용하거나, 픽처 또는 픽처의 서브세트 또는 그룹 사이에서 블록 크기를 변경하고, 각 픽처를 대응하는 블록으로 파티셔닝하도록 구성될 수 있다.
추가 실시예에서, 비디오 인코더는 픽처(17)의 블록(203)을, 예를 들어, 픽처(17)를 형성하는 하나, 여러 또는 모든 블록을 직접 수신하도록 구성될 수 있다. 픽처 블록(203)은 또한 현재 픽처 블록 또는 코딩될 픽처 블록으로 지칭될 수도 있다.
픽처(17)와 마찬가지로, 픽처 블록(203)은 픽처(17)보다 작은 치수를 갖기는 하지만, 강도 값(샘플 값)을 갖는 샘플의 2차원 어레이 또는 매트릭스이거나 또는 샘플의 2차원 어레이 또는 매트릭스로 간주될 수 있다. 다시 말해서, 블록(203)은, 예를 들어, 하나의 샘플 어레이(예를 들어, 모노크롬 픽처(17)의 경우 루마 어레이 또는 컬러 픽처의 경우 루마 또는 크로마 어레이) 또는 3개의 샘플 어레이(예를 들어, 컬러 픽처(17)의 경우 하나의 루마와 2개의 크로마 어레이) 또는 적용되는 컬러 포맷에 따라 임의의 다른 수 및/또는 종류의 어레이를 포함할 수 있다. 블록(203)의 수평 및 수직 방향(또는 축)에 있는 샘플의 수는 블록(203)의 크기를 정의한다. 따라서, 블록은 예를 들어, 샘플의 M×N(M 열 x N 행) 어레이, 또는 변환 계수의 M×N 어레이를 포함할 수 있다.
도 2에 도시된 바와 같은 비디오 인코더(20)의 실시예는 픽처(17)를 블록 단위로 인코딩하도록 구성될 수 있는데, 예를 들어, 인코딩 및 예측은 블록(203)당 수행된다.
도 2에 도시된 바와 같은 비디오 인코더(20)의 실시예는 또한 슬라이스(비디오 슬라이스라고도 함)를 사용하여 픽처를 파티셔닝 및/또는 인코딩하도록 구성될 수 있으며, 여기서 픽처는 (전형적으로 중첩하지 않는) 하나 이상의 슬라이스로 파티셔닝되거나 하나 이상의 슬라이스를 이용하여 인코딩될 수 있으며, 각각의 슬라이스는 하나 이상의 블록(예를 들어, CTU)을 포함할 수 있다.
도 2에 도시된 바와 같은 비디오 인코더(20)의 실시예는 또한 타일 그룹(비디오 타일 그룹이라고도 함) 및/또는 타일(비디오 타일이라고도 함)을 사용하여 픽처를 파티셔닝 및/또는 인코딩하도록 구성될 수 있으며, 여기서 픽처는 (전형적으로 중첩하지 않는) 하나 이상의 타일 그룹으로 파티셔닝되거나 하나 이상의 타일 그룹을 이용하여 인코딩될 수 있고, 각각의 타일 그룹은 하나 이상의 블록(예를 들어, CTU) 또는 하나 이상의 타일을 포함할 수 있고, 여기서 각각의 타일은 직사각형 모양일 수 있으며 하나 이상의 블록(예를 들어, CTU), 예를 들어 완전한 또는 분수 블록을 포함할 수 있다.
잔차 계산(Residual Calculation)
잔차 계산 유닛(204)은 픽처 블록(203) 및 예측 블록(265)에 기초하여, 예를 들어, 샘플 별로(픽셀 별로) 픽처 블록(203)의 샘플 값으로부터 예측 블록(265)의 샘플 값을 감산하여 샘플 도메인에서 잔차 블록(205)을 획득함으로써, 잔차 블록(205)을 계산하도록 구성될 수 있다(예측 블록(265)에 관한 추가 세부 사항은 나중에 제공된다).
변환(Transform)
변환 처리 유닛(206)은 이산 코사인 변환(discrete cosine transform)(DCT) 또는 이산 사인 변환(discrete sine transform)(DST)과 같은 변환을 잔차 블록(205)의 샘플 값에 적용하여, 변환 도메인에서 변환 계수(207)를 획득하도록 구성될 수 있다. 변환 계수(207)는 또한 변환 잔차 계수로도 지칭되며 변환 도메인에서 잔차 블록(205)을 나타낼 수 있다.
변환 처리 유닛(206)은 H.265/ HEVC 에 대해 명시된 변환과 같은, DCT/DST의 정수 근사(integer approximation)를 적용하도록 구성될 수 있다. 직교 DCT 변환과 비교하여, 이러한 정수 근사는 전형적으로 특정 팩터에 의해 스케일링된다. 정변환 및 역변환에 의해 처리되는 잔차 블록의 표준을 보존하기 위해, 추가 스케일링 팩터가 변환 프로세스의 일부로서 적용된다. 스케일링 팩터는 전형적으로 시프트 연산을 위한 2의 거듭 제곱인 스케일링 팩터, 변환 계수의 비트 심도, 정확도와 구현 비용 사이의 트레이드오프 등과 같은 특정 제약 조건에 기초하여 선택된다. 특정 스케일링 팩터는, 예를 들어, 역변환 처리 유닛(212)에 의한 역변환 (및 예를 들어, 비디오 디코더(30)에서 역변환 처리 유닛(212)에 의한 대응하는 역변환)에 대해 명시되며, 이에 따라, 예를 들어, 인코더(20)에서 변환 처리 유닛(206)에 의한 정변환에 대한 대응하는 스케일링 팩터가 명시될 수 있다.
비디오 인코더(20)의 실시예(각기 변환 처리 유닛(206))는, 예를 들어, 직접 또는 엔트로피 인코딩 유닛(270)을 통해 인코딩되거나 압축된 변환 파라미터, 예를 들어, 변환 또는 변환들의 유형을 출력하여, 예를 들어, 비디오 디코더 (30)가 디코딩을 위해 변환 파라미터를 수신하고 사용할 수 있도록 구성될 수 있다.
양자화(Quantization)
양자화 유닛(208)은, 예를 들어, 스칼라 양자화 또는 벡터 양자화를 적용함으로써, 변환 계수(207)를 양자화하여 양자화된 계수(209)를 획득하도록 구성될 수 있다. 양자화된 계수(209)는 또한 양자화된 변환 계수(209) 또는 양자화된 잔차 계수(209)로도 지칭될 수 있다.
양자화 프로세스는 변환 계수(207)의 일부 또는 전부와 연관된 비트 심도를 줄일 수 있다. 예를 들어, n 비트 변환 계수는 양자화 동안 m 비트 변환 계수로 내림 반올림될 수 있으며, 여기서 n은 m보다 크다. 양자화의 정도는 양자화 파라미터(quantization parameter)(QP)를 조정함으로써 수정될 수 있다. 예를 들어, 스칼라 양자화의 경우, 더 미세하거나 더 거친 양자화를 달성하기 위해 상이한 스케일링이 적용될 수 있다. 더 작은 양자화 스텝 크기는 더 미세한 양자화에 대응하는 반면, 더 큰 양자화 스텝 크기는 더 거친 양자화에 대응한다. 적용 가능한 양자화 스텝 크기는 양자화 파라미터(QP)에 의해 표시될 수 있다. 양자화 파라미터는, 예를 들어, 적용 가능한 양자화 스텝 크기의 미리 정의된 세트의 인덱스일 수 있다. 예를 들어, 작은 양자화 파라미터는 미세한 양자화(작은 양자화 스텝 크기)에 대응할 수 있고, 큰 양자화 파라미터는 거친 양자화(큰 양자화 스텝 크기)에 대응할 수 있거나 또는 그 반대의 경우도 가능할 수 있다. 양자화는 양자화 스텝 크기에 의한 나눗셈을 포함할 수 있으며, 예를 들어, 역양자화 유닛(210)에 의한 대응하는 및/또는 반대의 역양자화는 양자화 스텝 크기에 의한 곱셈을 포함할 수 있다. 일부 표준, 예를 들면, HEVC에 따른 실시예는 양자화 파라미터를 사용하여 양자화 스텝 크기를 결정하도록 구성될 수 있다. 일반적으로, 양자화 스텝 크기는 양자화 파라미터에 기초하여 나눗셈을 포함하는 방정식의 고정 소수점 근사를 사용하여 계산될 수 있다. 양자화 스텝 크기 및 양자화 파라미터에 대한 방정식의 고정 소수점 근사에 사용되는 스케일링 때문에 수정될 수 있는 잔차 블록의 표준을 복구하기 위해 양자화 및 역양자화에 추가 스케일링 팩터가 도입될 수 있다. 하나의 예시적인 구현에서, 역변환 및 역양자화의 스케일링은 결합될 수 있다. 대안적으로, 맞춤형 양자화 테이블이 사용되어 인코더로부터 디코더로, 예를 들어, 비트스트림에서 시그널링될 수 있다. 양자화는 손실이 있는 연산으로, 손실은 양자화 스텝 크기가 증가함에 따라 증가한다.
비디오 인코더(20)의 실시예(각기 양자화 유닛(208))는, 예를 들어, 직접 또는 엔트로피 인코딩 유닛(270)을 통해 인코딩된 양자화 파라미터(quantization parameter)(QP)를 출력하여, 예를 들어, 비디오 디코더 (30)가 디코딩을 위한 양자화 파라미터를 수신하고 적용할 수 있도록 구성될 수 있다.
역양자화(Inverse Quantization)
역양자화 유닛(210)은, 예를 들어, 양자화 유닛(208)과 동일한 양자화 스텝 크기에 기초하여 또는 이를 사용하여, 양자화 유닛(208)에 의해 적용된 양자화 방식의 역 방식을 적용함으로써, 양자화된 계수에 대해 양자화 유닛(208)의 역양자화를 적용하여 양자화 해제된(dequantized) 계수(211)를 획득하도록 구성된다. 양자화 해제된 계수(211)는 또한 양자화 해제된 잔차 계수(211)로도 지칭될 수 있으며 - 양자화에 의한 손실로 인한 변환 계수와 전형적으로 동일하지는 않지만 - 변환 계수(207)에 대응할 수 있다.
역변환(Inverse Transform)
역변환 처리 유닛(212)은 변환 처리 유닛(206)에 의해 적용된 변환의 역변환, 예를 들어, 역이산 코사인 변환(DCT) 또는 역이산 사인 변환(DST) 또는 다른 역변환을 적용하여, 샘플 도메인에서 복원된 잔차 블록(213)(또는 대응하는 양자화 해제된 계수(213))을 획득하도록 구성된다. 복원된 잔차 블록(213)은 또한 변환 블록(213)으로도 지칭될 수 있다.
복원(Reconstruction)
복원 유닛(214)(예를 들어, 가산기 또는 합산기(214))은, 예를 들어, 복원된 잔차 블록(213)의 샘플 값과 예측 블록(265)의 샘플 값을 - 샘플별로 - 더함으로써, 변환 블록(213)(즉, 복원된 잔차 블록(213))을 예측 블록(265)에 더하여 샘플 도메인에서 복원된 블록(215)을 획득하도록 구성된다.
필터링(Filtering)
루프 필터 유닛(220)(또는 줄여서 "루프 필터"(220))은 복원된 블록(215)을 필터링하여 필터링된 블록(221)을 획득하거나, 또는 일반적으로, 복원된 샘플을 필터링하여 필터링된 샘플을 획득하도록 구성된다. 루프 필터 유닛은 픽셀 전환을 매끄럽게 하거나, 그렇지 않으면 비디오 품질을 개선하도록 구성될 수 있다. 루프 필터 유닛(220)은 디블로킹 필터(de-blocking filter), 적응적 샘플 오프셋(sample-adaptive offset)(SAO) 필터 또는 하나 이상의 다른 필터, 이를테면, 양방향 필터(bilateral filter), 적응적 루프 필터(adaptive loop filter)(ALF), 선명화(sharpening) 또는 평활화(smoothing) 필터 또는 협업 필터(collaborative filter), 또는 이들의 임의의 조합과 같은 하나 이상의 루프 필터를 포함할 수 있다. 루프 필터 유닛(220)이 도 2에서 인-루프 필터(in-loop filter)로서 도시되지만, 다른 구성에서, 루프 필터 유닛(220)은 포스트 루프 필터(post loop filter)로서 구현될 수 있다. 필터링된 블록(221)은 또한 필터링된 복원된 블록(221)으로도 지칭될 수 있다.
비디오 인코더(20)의 실시예(각기 루프 필터 유닛(220))는, 예를 들어, 직접 또는 엔트로피 인코딩 유닛(270)을 통해 인코딩된 루프 필터 파라미터(이를테면, 적응적 샘플 오프셋 정보)를 출력하여, 예를 들어, 디코더(30)가 디코딩에 필요한 동일한 루프 필터 파라미터 또는 각자의 루프 필터를 수신하여 적용할 수 있도록 할 수 있다.
디코딩된 픽처 버퍼(Decoded Picture Buffer)
디코딩된 픽처 버퍼(DPB)(230)는 비디오 인코더(20)에 의해 비디오 데이터를 인코딩하기 위한 참조 픽처 또는 일반적으로는 참조 픽처 데이터를 저장하는 메모리일 수 있다. DPB(230)는 동기식 동적 랜덤 액세스 메모리(synchronous dynamic random access memory)(SDRAM), 자기 저항성 RAM(magnetoresistive RAM)(MRAM), 저항성 RAM(resistive RAM)(RRAM) 또는 다른 유형의 메모리 디바이스를 비롯한 동적 랜덤 액세스 메모리(DRAM)와 같은 다양한 메모리 디바이스 중 임의의 것에 의해 형성될 수 있다. 디코딩된 픽처 버퍼(DPB)(230)는 하나 이상의 필터링된 블록(221)을 저장하도록 구성될 수 있다. 디코딩된 픽처 버퍼(230)는 또한 동일한 현재 픽처의 또는 상이한 픽처의, 예를 들어, 이전에 복원된 픽처의 다른 이전에 필터링된 블록, 예를 들어, 이전에 복원되고 필터링된 블록(221)을 저장하도록 구성될 수 있고, 완전 이전에 복원된, 즉, 디코딩된 픽처(및 대응하는 참조 블록 및 샘플) 및/또는 부분적으로 복원된 현재 픽처(및 대응하는 참조 블록 및 샘플)를, 예를 들어, 인터 예측을 위해 제공할 수 있다. 디코딩된 픽처 버퍼(DPB)(230)는 또한 하나 이상의 필터링되지 않은 복원된 블록(215), 또는, 예를 들어, 복원된 블록(215)이 루프 필터 유닛(220)에 의해 필터링되지 않으면, 일반적으로는 필터링되지 않은 복원된 샘플, 또는 임의의 다른 추가 처리된 버전의 복원된 블록 또는 샘플을 저장하도록 구성될 수 있다.
모드 선택(Mode Selection)(파티셔닝 및 예측(Partitioning & Prediction))
모드 선택 유닛(260)은 파티셔닝 유닛(262), 인터 예측 유닛(244) 및 인트라 예측 유닛(254)을 포함하고, 원본 블록(203)(현재 픽처(17)의 현재 블록(203))과 같은 원본 픽처 데이터 및 동일한 (현재) 픽처의 및/또는 예를 들어 디코딩된 픽처 버퍼(230) 또는 다른 버퍼(예를 들어, 라인 버퍼, 도시되지 않음)로부터 하나 또는 복수의 이전에 디코딩된 픽처로부터의 필터링된 및/또는 필터링되지 않은 복원된 샘플 또는 블록과 같은 복원된 픽처 데이터를 수신하거나 획득하도록 구성된다. 복원된 픽처 데이터는 예측, 예를 들어 인터 예측 또는 인트라 예측을 위한 참조 픽처 데이터로서 사용되어, 예측 블록(265) 또는 예측기(265)를 획득한다.
모드 선택 유닛(260)은 현재 블록 예측 모드(파티셔닝을 포함하지 않음) 및 예측 모드(예를 들어, 인트라 또는 인터 예측 모드)에 대한 파티셔닝을 결정 또는 선택하고, 잔차 블록(205)의 계산 및 복원된 블록(215)의 복원을 위해 사용되는 대응하는 예측 블록(265)을 생성하도록 구성될 수 있다.
모드 선택 유닛(260)의 실시예는 최상의 매칭을 제공하거나 또는 다른 말로 하면 최소 잔차(최소 잔차는 전송 또는 저장을 위한 더 나은 압축을 의미함) 또는 최소 시그널링 오버 헤드(최소 시그널링 오버 헤드는 전송 또는 저장을 위한 더 나은 압축을 의미함)를 제공하는 또는 둘 모두를 고려하거나 균형을 유지하는, (예를 들어, 모드 선택 유닛(260)에 의해 지원되거나 모드 선택 유닛에 이용 가능한 모드 중에서) 파티셔닝 및 예측 모드를 선택하도록 구성될 수 있다. 모드 선택 유닛(260)은 레이트 왜곡 최적화(rate distortion optimization)(RDO)에 기초하여 파티셔닝 및 예측 모드를 결정하도록, 즉, 최소 레이트 왜곡 최적화를 제공하는 예측 모드를 선택하도록 구성될 수 있다. 이러한 맥락에서 "최상", "최소", "최적" 등과 같은 용어는 반드시 전체적인 "최상", "최소", "최적" 등을 말하는 것이 아니고, 임계 값을 초과하거나 그 아래로 떨어지는 값과 같은 종단 또는 선택 기준 또는 잠재적으로 "차선 선택"에 이르지만 복잡성과 처리 시간을 줄이는 다른 제약 조건의 이행을 말할 수도 있다.
다시 말해서, 파티셔닝 유닛(262)은, 예를 들어, 쿼드 트리 파티셔닝(quad-tree-partitioning)(QT), 바이너리 파티셔닝(binary-tree-partitioning)(BT) 또는 트리플 트리 파티셔닝(triple-tree-partitioning)(TT) 또는 이들의 임의의 조합을 반복적으로 사용함으로써, 블록(203)을 (되풀이 하자면 블록을 형성하는) 더 작은 블록 파티션 또는 서브블록으로 파티셔닝하고, 블록 파티션 또는 서브블록 각각에 대해 예측을 수행하도록 구성될 수 있고, 여기서 모드 선택은 파티셔닝된 블록(203)의 트리 구조의 선택을 포함하며 예측 모드는 블록 파티션 또는 서브블록의 각각에 적용된다.
다음에는 예시적인 비디오 인코더(20)에 의해 수행되는 (예를 들어, 파티셔닝 유닛(262)에 의한) 파티셔닝 및 (인터 예측 유닛(254) 및 인트라 예측 유닛(254)에 의한) 예측 처리가 보다 상세히 설명될 것이다.
파티셔닝(Partitioning)
파티셔닝 유닛(262)은 현재 블록(203)을 더 작은 파티션, 예를 들어, 정사각형 또는 직사각형 크기의 더 작은 블록으로 파티셔닝(또는 분할)할 수 있다. 이러한 더 작은 블록(서브 블록이라고도 함)은 또한 심지어 더 작은 파티션으로 파티셔닝될 수 있다. 이것은 또한 트리 파티셔닝(tree-partitioning) 또는 계층적 트리 파티셔닝이라고도 하고, 여기서 루트 블록은 재귀적으로 파티셔닝될 수 있다, 예를 들면, 다음 하위의 트리 레벨의 두 개 이상의 블록으로, 예를 들어 트리 레벨 1(계층구조 레벨 1, 깊이 1)의 노드로 파티셔닝될 수 있고, 여기서 이러한 블록은 다음 하위 레벨, 예를 들어 트리 레벨 2(계층구조 레벨 2)의 두 개 이상의 블록으로 다시 파티셔닝되는 등등으로, 예를 들어 종단 기준이 충족되기 때문에, 파티셔닝이 종결될 때까지, 예를 들면 최대 트리 깊이 또는 최소 블록 크기에 도달할 때까지 되풀이하여 파티셔닝될 수 있다. 더 이상 파티셔닝되지 않는 블록은 트리의 리프 블록 또는 리프 노드라고도 한다. 2개의 파티션으로 파티셔닝하는 것을 이용하는 트리는 바이너리 트리(binary-tree)(BT)라고 하고, 3개의 파티션으로 파티셔닝하는 것을 이용하는 트리는 터너리 트리(ternary-tree)(TT)라고 하며, 4개의 파티션으로 파티셔닝하는 것을 이용하는 트리는 쿼드 트리(quad-tree)(QT)라고 한다.
앞서 언급한 바와 같이, 본 명세서에서 사용되는 바와 같은 "블록"이라는 용어는 픽처의 일부, 특히 정사각형 또는 직사각형 부분일 수 있다. 예를 들어, HEVC 및 VVC를 참조하면, 블록은 코딩 트리 유닛(coding tree unit)(CTU), 코딩 유닛(coding unit)(CU), 예측 유닛(prediction unit)(PU) 또는 변환 유닛(transform unit)(TU) 및/또는 대응하는 블록, 예를 들어 코딩 트리 블록(coding tree block)(CTB), 코딩 블록(coding block)(CB), 변환 블록transform block)(TB) 또는 예측 블록(prediction block)(PB)이거나 이에 대응할 수 있다.
예를 들어, 코딩 트리 유닛(CTU)은 3개의 샘플 어레이를 갖는 픽처의 루마 샘플의 CTB 및 2개의 대응하는 크로마 샘플의 CTB, 또는 모노크롬 픽처 또는 샘플을 코딩하는 데 사용되는 3개의 개별 컬러 평면 및 신택스 구조를 사용하여 코딩된 픽처의 샘플의 CTB이거나 이를 포함할 수 있다. 대응적으로, 코딩 트리 블록(CTB)은 N의 일부 값에 대한 샘플의 NxN 블록일 수 있으므로 컴포넌트를 CTB로 나누는 것이 파티셔닝이다. 코딩 유닛(CU)은 3개의 샘플 어레이를 갖는 픽처의 루마 샘플의 코딩 블록 및 2개의 대응하는 크로마 샘플의 코딩 블록, 또는 모노크롬 픽처 또는 샘플을 코딩하는 데 사용되는 3개의 개별 컬러 평면 및 신택스 구조를 사용하여 코딩된 픽처의 샘플의 코딩 블록이거나 이를 포함할 수 있다. 대응적으로, 코딩 블록(CB)은 M 및 N의 일부 값에 대한 샘플의 M×N 블록일 수 있으므로 CTB를 코딩 블록으로 나누는 것이 파티셔닝이다.
일부 실시예에서, 예를 들어, HEVC에 따르면, 코딩 트리 유닛(CTU)은 코딩 트리로서 표시되는 쿼드 트리 구조를 사용함으로써 CU로 분할될 수 있다. 인터 픽처(시간적) 또는 인트라 픽처(공간적) 예측을 사용하여 픽처 영역을 코딩할지의 여부는 CU 레벨에서 결정된다. 각각의 CU는 PU 분할 유형에 따라 한 개, 두 개 또는 네 개의 PU로 더 분할될 수 있다. 하나의 PU 내에서, 동일한 예측 프로세스가 적용되고 관련 정보가 PU 단위로 디코더로 전송된다. PU 분할 유형에 기초하여 예측 프로세스를 적용함으로써 잔차 블록을 획득한 후에, CU는 CU에 대한 코딩 트리와 유사한 다른 쿼드 트리 구조에 따라 변환 유닛(TU)으로 파티셔닝될 수 있다.
실시예에서, 예를 들어, 다용도 비디오 코딩(VVC)라고 하는 현재 개발 중인 최신 비디오 코딩 표준에 따르면, 결합된 쿼드 트리 및 이진 트리(QTBT) 파티셔닝은 예를 들어 코딩 블록을 파티셔닝하는 데 사용된다. QTBT 블록 구조에서, CU는 정사각형 또는 직사각형 모양을 가질 수 있다. 예를 들어, 코딩 트리 유닛(CTU)은 먼저 쿼드트리 구조로 파티셔닝된다. 쿼드 트리 리프 노드는 바이너리 트리 또는 터너리(또는 트리플) 트리 구조로 더 파티셔닝된다. 바이너리 트리 리프 노드는 코딩 유닛(CU)이라고 부르며, 그 파티션은 임의의 추가 파티셔닝 없이 예측 및 변환 처리에 사용된다. 이것은 CU, PU 및 TU가 QTBT 코딩 블록 구조에서 동일한 블록 크기를 갖는다는 것을 의미한다. 동시에, 다수의 파티션, 예를 들어 트리플 트리 파티션이 QTBT 블록 구조와 함께 사용될 수 있다.
일 예에서, 비디오 인코더(20)의 모드 선택 유닛(260)은 본 명세서에서 설명되는 파티셔닝 기술의 임의의 조합을 수행하도록 구성될 수 있다.
위에서 설명한 바와 같이, 비디오 인코더(20)는 (예를 들어, 미리 결정된) 예측 모드의 세트로부터 최상 또는 최적 예측 모드를 결정 또는 선택하도록 구성된다. 예측 모드의 세트는 인트라 예측 모드 및/또는 인터 예측 모드를 포함할 수 있다.
인트라 예측(Intra-Prediction)
인트라 예측 모드의 세트는 HEVC 에서 정의된 바와 같이, DC (또는 평균) 모드 및 평면 모드와 같은 비방향성 모드 또는 방향성 모드와 같은 35개의 상이한 인트라 예측 모드를 포함할 수 있거나, 또는 VVV에 대해 정의된 바와 같이, DC (또는 평균) 모드 및 평면 모드와 같은 비방향 모드 또는 방향성 모드와 같은 67개의 상이한 인트라 예측 모드를 포함할 수 있다.
인트라 예측 유닛(254)은 동일한 현재 픽처의 이웃 블록의 복원된 샘플을 사용하여 인트라 예측 모드 세트로부터의 인트라 예측 모드에 따라 (인트라) 예측 블록(265)을 생성하도록 구성된다.
인트라 예측 유닛(254)(또는 일반적으로 모드 선택 유닛(260))은 또한 인트라 예측 파라미터(또는 일반적으로 블록에 대해 선택된 인트라 예측 모드를 나타내는 정보)를 인코딩된 픽처 데이터(21)에 포함시키기 위한 신택스 요소(266)의 형태로 엔트로피 인코딩 유닛(270)에 출력하여, 예를 들어, 비디오 디코더(30)가 디코딩을 위한 예측 파라미터를 수신하여 사용할 수 있도록 구성될 수 있다.
인터 예측(Inter-Prediction)
인터 예측 모드의 (또는 가능한) 세트는, 예를 들어, 전체 참조 픽처 또는 참조 픽처의 일부만이, 예를 들면, 현재 블록의 영역 주변의 탐색 윈도우 영역만이 가장 잘 매칭되는 참조 블록을 탐색하는데 사용되든 사용되지 않든, 및/또는 예를 들어, 절반(half)/반(semi) 픽셀 및/또는 1/4 픽셀 보간과 같은 픽셀 보간이 적용되든 적용되지 않든, 이용 가능한 참조 픽처(즉, 예를 들어, DBP(230)에 저장된 이전의 적어도 부분적으로 디코딩된 픽처) 및 다른 인터 예측 파라미터에 따라 달라진다.
위의 예측 모드 외에, 스킵 모드 및/또는 직접 모드가 적용될 수 있다.
인터 예측 유닛(244)은 움직임 추정(motion estimation)(ME) 유닛 및 움직임 보상(motion compensation)(MC) 유닛(둘 모두 도 2에 도시되지 않음)을 포함할 수 있다. 움직임 추정 유닛은 움직임 추정을 위해, 픽처 블록(203)(현재 픽처(17)의 현재 픽처 블록(203)) 및 디코딩된 픽처(231) 또는 하나 또는 복수의 이전에 디코딩된 픽처(231)의 복원된 블록과 같은 적어도 하나 또는 복수의 이전에 복원된 블록을 수신하거나 획득하도록 구성될 수 있다. 예로서, 비디오 시퀀스는 현재 픽처 및 이전에 디코딩된 픽처(231)를 포함할 수 있거나, 또는 다른 말로 하면, 현재 픽처 및 이전에 디코딩된 픽처(231)는 비디오 시퀀스를 형성하는 픽처의 시퀀스의 일부이거나 이를 형성할 수 있다.
인코더(20)는 복수의 이전에 디코딩된 픽처의 동일한 또는 상이한 픽처의 복수의 참조 블록으로부터 참조 블록을 선택하고 참조 픽처(또는 참조 픽처 인덱스) 및/또는 참조 블록의 위치(x, y 좌표)와 인터 예측 파라미터로서 움직임 추정 유닛에 대한 현재 블록의 위치 사이의 오프셋(공간 오프셋)을 제공하도록 구성될 수 있다. 이러한 오프셋은 또한 움직임 벡터(motion vector)(MV)라고도 부른다.
움직임 보상 유닛은 인터 예측 파라미터를 획득, 예를 들어 수신하고 인터 예측 파라미터에 기초하여 또는 이를 사용하여 인터 예측을 수행하여 (인터) 예측 블록(265)을 획득하도록 구성될 수 있다. 움직임 보상 유닛에 의해 수행되는 움직임 보상은 움직임 추정에 의해 결정된 움직임/블록 벡터에 기초하여 예측 블록을 페치하는 것 또는 생성하는 것, 가능하게는 서브 픽셀 정밀도로 보간을 수행하는 것을 포함할 수 있다. 보간 필터링은 알려진 픽셀 샘플로부터 추가 픽셀 샘플을 생성할 수 있고, 이에 따라 잠재적으로 픽처 블록을 코딩하는 데 사용될 수 있는 후보 예측 블록의 수를 증가시킬 수 있다. 현재 픽처 블록의 PU에 대한 움직임 벡터를 수신하면, 움직임 보상 유닛은 참조 픽처 리스트 중의 리스트에서 움직임 벡터가 가리키는 예측 블록을 찾을 수 있다.
움직임 보상 유닛은 또한 비디오 슬라이스의 픽처 블록을 디코딩할 때 비디오 디코더(30)에 의해 사용하기 위한 블록 및 비디오 슬라이스와 연관된 신택스 요소를 생성할 수 있다. 슬라이스 및 각자의 신택스 요소 외에 또는 그에 대한 대안으로서, 타일 그룹 및/또는 타일 및 각자의 신택스 요소가 생성 또는 사용될 수 있다.
엔트로피 코딩(Entropy Coding)
엔트로피 인코딩 유닛(270)은 엔트로피 인코딩 알고리즘 또는 방식(예를 들어, 가변 길이 코딩(variable length coding)(VLC) 방식, 컨텍스트 적응 VLC 방식(context adaptive VLC scheme)(CAVLC), 산술 코딩 방식, 이진화, 컨텍스트 적응 이진 산술 코딩(context adaptive binary arithmetic coding)(CABAC), 신택스 기반 컨텍스트 적응 이진 산술 코딩(syntax-based context-adaptive binary arithmetic coding)(SBAC), 확률 간격 파티셔닝 엔트로피(probability interval partitioning entropy)(PIPE) 코딩 또는 다른 엔트로피 인코딩 방법론 또는 기술)을 양자화된 계수(209), 인터 예측 파라미터, 인트라 예측 파라미터, 루프 필터 파라미터 및/또는 다른 신택스 요소에 적용하거나 또는 바이패스하여(전혀 압축하지 않아), 출력(272)을 통해 출력될 수 있는 인코딩된 픽처 데이터(21)를, 예를 들어, 인코딩된 비트스트림(21)의 형태로 획득하여, 예를 들어, 비디오 디코더(30)가 디코딩을 위한 파라미터를 수신하여 사용할 수 있도록 구성된다. 인코딩된 비트스트림(21)은 비디오 디코더(30)에 전송되거나, 비디오 디코더(30)에 의한 향후 전송 또는 검색을 위해 저장될 수 있다.
비디오 스트림을 인코딩하기 위해 비디오 인코더(20)의 다른 구조적인 변형이 사용될 수 있다. 예를 들어, 비변환 기반 인코더(non-transform based encoder)(20)가 특정 블록 또는 프레임에 대해 변환 처리 유닛(206) 없이 잔차 신호를 직접 양자화할 수 있다. 다른 구현에서, 인코더(20)는 단일 유닛으로 결합된 양자화 유닛(208) 및 역양자화 유닛(210)을 가질 수 있다.
디코더 및 디코딩 방법(Decoder and Decoding Method)
도 3은 본 출원의 기술을 구현하도록 구성된 비디오 디코더(30)의 예를 도시한다. 비디오 디코더(30)는, 예를 들어, 인코더(20)에 의해 인코딩되는 인코딩된 픽처 데이터(21)(예를 들어, 인코딩된 비트스트림(21))를 수신하여, 디코딩된 픽처(331)를 획득하도록 구성된다. 인코딩된 픽처 데이터 또는 비트스트림은 인코딩된 픽처 데이터, 예를 들어 인코딩된 비디오 슬라이스(및/또는 타일 그룹 또는 타일)의 픽처 블록을 나타내는 데이터 및 연관된 신택스 요소를 디코딩하기 위한 정보를 포함한다.
도 3의 예에서, 디코더(30)는 엔트로피 디코딩 유닛(304), 역양자화 유닛(310), 역변환 처리 유닛(312), 복원 유닛(314)(예를 들어, 합산기(314)), 루프 필터(320), 디코딩된 픽처 버퍼(DBP)(330), 모드 적용 유닛(360), 인터 예측 유닛(344) 및 인트라 예측 유닛(354)을 포함한다. 인터 예측 유닛(344)은 움직임 보상 유닛이거나 이를 포함할 수 있다. 비디오 디코더(30)는, 일부 예에서, 도 2의 비디오 인코더(20)와 관련하여 설명된 인코딩 패스에 일반적으로 상반적인 디코딩 패스를 수행한다.
인코더(20)와 관련하여 설명된 바와 같이, 역양자화 유닛(210), 역변환 처리 유닛(212), 복원 유닛(214), 루프 필터(220), 디코딩된 픽처 버퍼(DPB)(230), 인터 예측 유닛(244) 및 인트라 예측 유닛(254)은 또한 비디오 인코더(20)의 "내장 디코더"를 형성한다고 말한다. 따라서, 역양자화 유닛(310)은 기능면에서 역양자화 유닛(210)과 동일할 수 있고, 역변환 처리 유닛(312)은 기능면에서 역변환 처리 유닛(212)과 동일할 수 있고, 복원 유닛(314)은 기능면에서 복원 유닛(214)과 동일할 수 있고, 루프 필터(320)는 기능면에서 루프 필터(220)와 동일할 수 있으며, 디코딩된 픽처 버퍼(330)는 기능면에서 디코딩된 픽처 버퍼(230)와 동일할 수 있다. 그러므로 비디오(20) 인코더의 각각의 유닛 및 기능에 대해 제공된 설명은 비디오 디코더(30)의 각각의 유닛 및 기능에 대응적으로 적용된다.
엔트로피 디코딩(Entropy Decoding)
엔트로피 디코딩 유닛(304)은 비트스트림(21)(또는 일반적으로 인코딩된 픽처 데이터(21))을 파싱하고, 인코딩된 픽처 데이터(21)에 대해 엔트로피 디코딩을 수행하여, 예를 들어, 양자화된 계수(309) 및/또는 디코딩된 코딩 파라미터(366), 이를테면 인터 예측 파라미터(예를 들어, 참조 픽처 인덱스 및 움직임 벡터), 인트라 예측 파라미터(예를 들어, 인트라 예측 모드 또는 인덱스), 변환 파라미터, 양자화 파라미터, 루프 필터 파라미터, 및/또는 다른 신택스 요소 중 임의의 또는 전부를 획득하도록 구성된다. 엔트로피 디코딩 유닛(304)은 인코더 (20)의 엔트로피 인코딩 유닛(270)과 관련하여 설명된 바와 같은 인코딩 방식에 대응하는 디코딩 알고리즘 또는 방식을 적용하도록 구성될 수 있다. 엔트로피 디코딩 유닛(304)은 또한 인터 예측 파라미터, 인트라 예측 파라미터 및/또는 다른 신택스 요소를 모드 적용 유닛(360)에 제공하고 다른 파라미터를 디코더(30)의 다른 유닛에 제공하도록 구성될 수 있다. 비디오 디코더(30)는 신택스 요소를 비디오 슬라이스 레벨 및/또는 비디오 블록 레벨에서 수신할 수 있다. 슬라이스 및 각자의 신택스 요소 외에 또는 그에 대한 대안으로서, 타일 그룹 및/또는 타일 및 각자의 신택스 요소가 수신되고/되거나 사용될 수 있다.
역양자화(Inverse Quantization)
역양자화 유닛(310)은 (예를 들어, 엔트로피 디코딩 유닛(304)에 의해, 예를 들어, 파싱 및/또는 디코딩함으로써) 인코딩된 픽처 데이터(21)로부터 양자화 파라미터(QP)(또는 일반적으로 역양자화에 관련된 정보) 및 양자화된 계수를 수신하고, 양자화 파라미터에 기초하여, 디코딩된 양자화된 계수(309)에 역양자화를 적용하여 변환 계수(311)라고도 지칭될 수 있는 양자화 해제된 계수(311)를 획득하도록 구성될 수 있다. 역양자화 프로세스는 비디오 슬라이스 내 각각의 비디오 블록(또는 타일 또는 타일 그룹)에 대해 비디오 인코더(20)에 의해 결정된 양자화 파라미터를 사용하여, 양자화의 정도 및 마찬가지로 적용되어야 하는 역양자화의 정도를 결정하는 것을 포함할 수 있다.
역변환(Inverse Transform)
역변환 처리 유닛(312)은 변환 계수(311)라고도 하는 양자화 해제된 계수(311)를 수신하고, 양자화 해제된 계수(311)에 변환을 적용하여 샘플 도메인에서 복원된 잔차 블록(313)을 획득하도록 구성될 수 있다. 복원된 잔차 블록(213)은 또한 변환 블록(213)으로도 지칭될 수 있다. 변환은 역변환, 예를 들어, 역 DCT, 역 DST, 역정수 변환, 또는 개념적으로 유사한 역변환 프로세스일 수 있다. 역변환 처리 유닛(312)은 또한 (예를 들어, 엔트로피 디코딩 유닛(304)에 의해, 예를 들어, 파싱 및/또는 디코딩함으로써) 인코딩된 픽처 데이터(21)로부터 변환 파라미터 또는 대응하는 정보를 수신하여 역양자화된 계수(311)에 적용될 변환을 결정하도록 구성될 수 있다.
복원(Reconstruction)
복원 유닛(314)(예를 들어, 가산기 또는 합산기(314))은, 예를 들어, 복원된 잔차 블록의 샘플 값과 예측 블록(265)의 샘플 값을 더함으로써, 복원된 잔차 블록(313)을 예측 블록(365)에 더하여 샘플 도메인에서 복원된 블록(315)을 획득하도록 구성될 수 있다.
필터링(Filtering)
(코딩 루프에서 또는 코딩 루프 이후의) 루프 필터 유닛(320)은 복원된 블록(315)을 필터링하여 필터링된 블록(321)을 획득하도록, 예를 들어, 픽셀 전환을 매끄럽게 하거나 또는 그렇지 않으면 비디오 품질을 개선하도록 구성된다. 루프 필터 유닛(320)은 디블로킹 필터, 적응적 샘플 오프셋(SAO) 필터 또는 하나 이상의 다른 필터, 예를 들어 양방향 필터, 적응적 루프 필터(ALF), 선명화, 평활화 필터 또는 협업 필터, 또는 이들의 임의의 조합과 같은 하나 이상의 루프 필터를 포함할 수 있다. 루프 필터 유닛(320)이 도 3에서 인-루프 필터(in-loop filter)로서 도시되지만, 다른 구성에서, 루프 필터 유닛(320)은 포스트 루프 필터(post loop filter)로서 구현될 수 있다.
디코딩된 픽처 버퍼(Decoded Picture Buffer)
그 다음에 픽처의 디코딩된 비디오 블록(321)은 디코딩된 픽처(331)를 다른 픽처에 대한 후속 움직임 보상을 위한 및/또는 출력 또는 각기 디스플레이를 위한 참조 픽처로서 저장하는 디코딩된 픽처 버퍼(330)에 저장된다.
디코더(30)는 디코딩된 픽처(311)를 사용자에게 제시하거나 보여주기 위해 예를 들어 출력(312)을 통해 출력하도록 구성된다.
예측(Prediction)
인터 예측 유닛(344)은 인터 예측 유닛(244)(특히, 움직임 보상 유닛)과 동일할 수 있고, 인트라 예측 유닛(354)은 기능 면에서 인트라 예측 유닛(254)과 동일할 수 있고, (예를 들어, 엔트로피 디코딩 유닛(304)에 의해, 예를 들어, 파싱 및/또는 디코딩함으로써) 인코딩된 픽처 데이터(21)로부터 수신된 파티셔닝 및/또는 예측 파라미터 또는 각자의 정보에 기초하여 분할 또는 파티셔닝 결정 및 예측을 수행한다. 모드 적용 유닛(360)은 (필터링되거나 필터링되지 않은) 복원된 픽처, 블록 또는 각자의 샘플에 기초하여 블록 당 예측(인트라 또는 인터 예측)을 수행하여 예측 블록(365)을 획득하도록 구성될 수 있다.
비디오 슬라이스 또는 픽처가 인트라 코딩된 (I) 슬라이스로서 코딩될 때, 모드 적용 유닛(360)의 인트라 예측 유닛(354)은 현재 픽처의 이전에 디코딩된 블록으로부터 시그널링된 인트라 예측 모드 및 데이터에 기초하여 현재 비디오 슬라이스의 픽처 블록에 대한 예측 블록(365)을 생성하도록 구성된다. 비디오 슬라이스 또는 픽처가 인터 코딩된 (즉, B 또는 P) 슬라이스로서 코딩될 때, 모드 적용 유닛(360)의 인터 예측 유닛(344)(예를 들어, 움직임 보상 유닛)은 엔트로피 디코딩 유닛(304)으로부터 수신된 움직임 벡터 및 다른 신택스 요소에 기초하여 현재 비디오 슬라이스의 비디오 블록에 대한 예측 블록(365)을 생성하도록 구성된다. 인터 예측을 위해, 예측 블록은 참조 픽처 리스트 중의 리스트 내의 참조 픽처 중의 참조 픽처로부터 생성될 수 있다. 비디오 디코더(30)는 DPB(330)에 저장된 참조 픽처에 기초하여 디폴트 구성 기술을 사용하여, 참조 프레임 리스트, List 0 및 List 1을 구성할 수 있다. 슬라이스(예를 들어, 비디오 슬라이스) 외에 또는 대안적으로 타일 그룹(예를 들어, 비디오 타일 그룹) 및/또는 타일(예를 들어, 비디오 타일)을 사용하는 실시예에 대해 또는 실시예에 의해 동일한 또는 유사한 접근 방식이 적용될 수 있다, 예를 들어 비디오는 I, P 또는 B 타일 그룹 및/또는 타일을 사용하여 코딩될 수 있다.
모드 적용 유닛(360)은 움직임 벡터 또는 관련 정보 및 다른 신택스 요소를 파싱함으로써 현재 비디오 슬라이스의 비디오/픽처 블록에 대한 예측 정보를 결정하고, 예측 정보를 사용하여 디코딩되는 현재 비디오 블록에 대한 예측 블록을 생성하도록 구성된다. 예를 들어, 모드 적용 유닛(360)은 수신된 신택스 요소의 일부를 사용하여 비디오 슬라이스의 비디오 블록을 코딩하는 데 사용된 예측 모드(예를 들어, 인트라 또는 인터 예측), 인터 예측 슬라이스 타입(예를 들어, B 슬라이스, P 슬라이스 또는 GPB 슬라이스), 슬라이스에 대한 참조 픽처 리스트 중 하나 이상에 대한 구성 정보, 슬라이스의 각각의 인터 코딩된 비디오 블록에 대한 움직임 벡터, 슬라이스의 각각의 인터 코딩된 비디오 블록에 대한 인터 예측 상태, 및 현재 비디오 슬라이스의 비디오 블록을 디코딩할 다른 정보를 결정한다. 슬라이스(예를 들어, 비디오 슬라이스) 외에 또는 대안적으로 타일 그룹(예를 들어, 비디오 타일 그룹) 및/또는 타일(예를 들어, 비디오 타일)을 사용하는 실시예에 대해 또는 실시예에 의해 동일한 또는 유사한 접근 방식이 적용될 수 있다, 예를 들어 비디오는 I, P 또는 B 타일 그룹 및/또는 타일을 사용하여 코딩될 수 있다.
도 3에 도시된 바와 같은 비디오 디코더(30)의 실시예는 슬라이스(비디오 슬라이스라고도 함)를 사용하여 픽처를 파티셔닝 및/또는 디코딩하도록 구성될 수 있고, 여기서 픽처는 (전형적으로 중첩하지 않는) 하나 이상의 슬라이스로 파티셔닝되거나 하나 이상의 슬라이스를 사용하여 디코딩될 수 있으며, 각각의 슬라이스는 하나 이상의 블록(예를 들어, CTU)을 포함할 수 있다.
도 3에 도시된 바와 같은 비디오 디코더(30)의 실시예는 타일 그룹(비디오 타일 그룹이라고도 함) 및/또는 타일(비디오 타일이라고도 함)을 사용하여 픽처를 파티셔닝 및/또는 디코딩하도록 구성될 수 있고, 여기서 픽처는 (전형적으로 중첩하지 않는) 하나 이상의 타일 그룹으로 파티셔닝되거나 하나 이상의 타일 그룹을 사용하여 인코딩될 수 있고, 각각의 타일 그룹은 하나 이상의 블록(예를 들어, CTU) 또는 하나 이상의 타일을 포함할 수 있고, 여기서 각각의 타일은 직사각형 모양일 수 있으며 하나 이상의 블록(예를 들어, CTU), 예를 들어 완전한 또는 분수 블록을 포함할 수 있다.
인코딩된 픽처 데이터(21)를 디코딩하기 위해 비디오 디코더(30)의 다른 변형이 사용될 수 있다. 예를 들어, 디코더(30)는 루프 필터 유닛(320) 없이 출력 비디오 스트림을 생성할 수 있다. 예를 들어, 비변환 기반 디코더(30)는 특정 블록 또는 프레임에 대해 역변환 처리 유닛(312) 없이 잔차 신호를 직접 역양자화할 수 있다. 다른 구현에서, 비디오 디코더(30)는 단일 유닛으로 결합된 역양자화 유닛(310) 및 역변환 처리 유닛(312)을 가질 수 있다.
인코더(20) 및 디코더(30)에서, 현재 단계의 처리 결과가 추가로 처리되고 나서 다음 단계로 출력될 수 있다는 것을 이해해야 한다. 예를 들어, 보간 필터링, 움직임 벡터 도출 또는 루프 필터링 후에, 보간 필터링, 움직임 벡터 도출 또는 루프 필터링의 처리 결과에 대해 클립(Clip) 또는 시프트(shift)와 같은 추가 연산이 수행될 수 있다.
(이것으로 제한되는 것은 아니지만 아핀 모드의 제어 포인트 움직임 벡터, 아핀, 평면, ATMVP 모드의 서브블록 움직임 벡터, 시간적 움직임 벡터 등을 비롯한) 현재 블록의 도출된 움직임 벡터에 추가 연산이 적용될 수 있다는 것을 유의해야 한다. 예를 들어, 움직임 벡터의 값은 이것을 나타내는 비트 수에 따라 미리 정의된 범위로 제한된다. 움직임 벡터를 나타내는 비트 수가 bitDepth이면, 범위는 -2^(bitDepth-1) ~ 2^(bitDepth-1)-1이며, 여기서 "^"는 거듭제곱을 의미한다. 예를 들어, bitDepth가 16으로 설정되면, 범위는 -32768 ~ 32767이고; bitDepth가 18로 설정되면, 범위는 -131072 ~ 131071이다. 예를 들어, 도출된 움직임 벡터의 값(예를 들어, 하나의 8x8 블록 내 4개의 4x4 서브블록의 MV)은 4개의 4x4 서브블록 MV의 정수 부분 간의 최대 차이가 N 픽셀 미만, 이를테면 1픽셀 미만이 되도록 제한된다. 다음의 설명은 bitDepth에 따라 움직임 벡터를 제한하기 위한 2개의 방법을 제공한다.
방법 1: 다음과 같은 연산에 의해 오버플로우 MSB(최상위 비트(most significant bit))를 제거한다:
Figure pct00020
Figure pct00021
Figure pct00022
Figure pct00023
여기서 mvx는 이미지 블록 또는 서브 블록의 움직임 벡터의 수평 컴포넌트이고, mvy는 이미지 블록 또는 서브 블록의 움직임 벡터의 수직 컴포넌트이며, ux 및 uy는 각자의 중간 값을 표시한다.
예를 들어, mvx의 값이 -32769 이면, 수학식 (1) 및 수학식 (2)를 적용한 후에, 결과 값은 32767이 된다. 컴퓨터 시스템에서, 십진수는 2의 보수로서 저장된다. -32769의 2의 보수는 1,0111,1111,1111,1111(17비트)이다. 그러면 MSB가 폐기되므로, 결과적인 2의 보수는 0111,1111,1111,1111(십진수는 32767)이 되며, 이것은 수학식 (1)과 수학식 (2)를 적용한 결과와 같다.
Figure pct00024
Figure pct00025
Figure pct00026
Figure pct00027
움직임 벡터 예측기(motion vector predictor)(mvp)와 움직임 벡터 차이(motion vector difference)(mvd)를 합하는 동안 수학식 (5) 내지 수학식 (8)에 도시된 바와 같은 연산이 적용될 수 있다.
방법 2: 값을 클리핑함으로써 오버플로 MSB를 제거한다:
Figure pct00028
Figure pct00029
여기서 vx는 이미지 블록 또는 서브 블록의 움직임 벡터의 수평 컴포넌트이고, vy는 이미지 블록 또는 서브 블록의 움직임 벡터의 수직 컴포넌트이고, x, y 및 z는 각자 MV 클리핑 프로세스의 3개의 입력 값에 대응하며, 함수 Clip3의 정의는 다음과 같다:
Figure pct00030
도 4는 본 개시내용의 실시예에 따른 비디오 코딩 디바이스의 개략도이다. 비디오 코딩 디바이스(400)는 아래에서 설명되는 바와 같이 개시된 실시예를 구현하기에 적합하다. 실시예에서, 비디오 코딩 디바이스(400)는 도 1a의 비디오 디코더(30)와 같은 디코더 또는 도 1a의 비디오 인코더(20)와 같은 인코더일 수 있다.
비디오 코딩 디바이스(400)는 데이터를 수신하기 위한 입구 포트(410)(또는 입력 포트(410)) 및 하나 이상 수신기 유닛(Rx)(420); 데이터를 처리하기 위한 프로세서, 로직 유닛 또는 중앙 처리 유닛(central processing unit)(CPU)(430); 데이터를 송신하기 위한 하나 이상의 송신기 유닛(Tx)(440) 및 출구 포트(450)(또는 출력 포트); 및 데이터를 저장하기 위한 메모리(460)를 포함한다. 비디오 코딩 디바이스(400)는 또한 광학 또는 전기 신호의 진입 또는 진출을 위한 입구 포트(410), 수신기 유닛(420), 송신기 유닛(440) 및 출구 포트(450)에 연결된 광전(optical-to-electrical) 컴포넌트 및 전광(electrical-to-optical)(EO) 컴포넌트를 포함할 수 있다.
프로세서(430)는 하드웨어 및 소프트웨어에 의해 구현될 수 있다. 프로세서(430)는 하나 이상의 CPU 칩, (예를 들어, 멀티-코어 프로세서로서) 코어, FPGA, ASIC 및 DSP로서 구현될 수 있다. 프로세서(430)는 입구 포트(410), 수신기 유닛(420), 송신기 유닛(440), 출구 포트(450) 및 메모리(460)와 통신할 수 있다. 프로세서(430)는 코딩 모듈(470)을 포함할 수 있다. 코딩 모듈(470)은 위와 아래에서 설명되는 개시된 실시예를 구현한다. 예를 들어, 코딩 모듈(470)은 다양한 코딩 동작을 구현하거나, 처리하거나, 준비하거나 또는 제공할 수 있다. 그러므로 코딩 모듈(470)이 포함되면 비디오 코딩 디바이스(400)의 기능성에 실질적인 개선을 제공하고 비디오 코딩 디바이스(400)의 상이한 상태로의 변환에 영향을 미친다. 대안적으로, 코딩 모듈(470)은 메모리(460)에 저장되어 프로세서(430)에 의해 실행되는 명령어로서 구현될 수 있다.
메모리(460)는 하나 이상의 디스크, 테이프 드라이브 또는 솔리드-스테이트 드라이브를 포함할 수 있고, 오버-플로우 데이터 저장 디바이스로서 사용되어 프로그램이 실행을 위해 선택될 때 그러한 프로그램을 저장하고, 프로그램 실행 동안 판독되는 명령어 및 데이터를 저장할 수 있다. 메모리(460)는 예를 들어, 휘발성 및 비휘발성일 수 있고 판독 전용 메모리(read-only memory)(ROM), 랜덤 액세스 메모리(random-access memory)(RAM), 터너리 콘텐츠 어드레스 가능 메모리(ternary content-addressable memory)(TCAM) 및 정적 랜덤 액세스 메모리(static random-access memory)(SRAM)일 수 있다.
도 5는 예시적인 실시예에 따른 도 1a의 소스 디바이스(12) 및 목적지 디바이스(14) 중 어느 하나 또는 둘 모두로서 사용될 수 있는 장치(500)의 간략화된 블록도이다.
장치(500)의 프로세서(502)는 중앙 처리 유닛일 수 있다. 대안적으로, 프로세서(502)는 현재 존재하지 않거나 나중에 개발될 정보를 조작하거나 처리할 수 있는 임의의 다른 유형의 디바이스 또는 다수의 디바이스일 수 있다. 개시된 구현예는 도시된 바와 같이 단일 프로세서, 예를 들면, 프로세서(502)로 실시될 수 있기는 하지만, 속도 및 효율면에서 장점은 하나를 초과하는 프로세서를 사용하여 달성될 수 있다.
장치(500)의 메모리(504)는 구현에서 판독 전용 메모리(ROM) 디바이스 또는 랜덤 액세스 메모리(RAM) 디바이스일 수 있다. 임의의 다른 적합한 유형의 저장 디바이스가 메모리(504)로서 사용될 수 있다. 메모리(504)는 버스(512)를 사용하여 프로세서(502)에 의해 액세스되는 코드 및 데이터(506)를 포함할 수 있다. 메모리(504)는 운영 체제(508) 및 애플리케이션 프로그램(510)을 더 포함할 수 있고, 애플리케이션 프로그램(510)은 프로세서(502)가 본 명세서에서 설명된 방법을 수행하도록 하는 적어도 하나의 프로그램을 포함한다. 예를 들어, 애플리케이션 프로그램(510)은 애플리케이션 1 내지 N을 포함할 수 있고, 애플리케이션 1 내지 N은 본 명세서에서 설명되는 방법을 수행하는 비디오 코딩 애플리케이션을 더 포함할 수 있다.
장치(500)는 또한 디스플레이(518)와 같은 하나 이상의 출력 디바이스를 포함할수 있다. 일 예에서, 디스플레이(518)는 터치 입력을 감지하도록 동작 가능한 터치 감응 요소와 디스플레이를 결합한 터치 감응 디스플레이일 수 있다. 디스플레이(518)는 버스(512)를 통해 프로세서(502)에 연결될 수 있다.
본 명세서에서 단일 버스로서 도시되지만, 장치(500)의 버스(512)는 다수의 버스로 구성될 수 있다. 또한, 보조 저장소(도시되지 않음)는 장치(500)의 다른 컴포넌트에 직접 연결될 수 있거나 또는 네트워크를 통해 액세스될 수 있고 메모리 카드와 같은 단일의 통합 유닛 또는 다수의 메모리 카드와 같은 다수의 유닛을 포함할 수 있다. 따라서 장치(500)는 다양한 구성으로 구현될 수 있다.
인트라 서브 파티션 코딩 모드(Intra Sub-partition Coding Mode)
인트라 서브 파티션(intra sub-partition)(ISP) 코딩 모드는 VTM4.0(JVET-M0102)에서 새로 채택된 도구이다. 이것은, 표 1에 도시된 바와 같이, 루마 인트라 예측된 블록을 블록 크기 치수에 따라 수직 또는 수평으로 2개 또는 4개의 서브 파티션으로 나눈다. 도 6 및 도 7은 2개의 가능성의 예를 도시한다. 모든 서브 파티션은 적어도 16개의 샘플을 갖는 조건을 충족한다.
Figure pct00031
도 6은 인트라 서브 파티션 코딩을 위해 4x8 및 8x4 블록을 파티셔닝하기 위한 예를 도시한다. 원본 블록은 수평 또는 수직 파티셔닝에 의해 2개의 서브 파티션으로 파티셔닝된다. 도 7은 인트라 서브 파티션 코딩을 위해 4x8, 8x4 및 4x4 블록을 제외한 모든 블록을 파티셔닝하기 위한 예를 도시한다. 원본 블록은 수평 또는 수직 파티셔닝에 의해 4개의 서브 파티션으로 파티셔닝된다.이러한 각각의 서브 파티션에 대해, 인코더에 의해 전송된 계수를 엔트로피 디코딩한 다음 이것을 역양자화 및 역변환함으로써 잔차 신호가 생성된다. 그런 다음, 서브 파티션이 인트라 예측되고 최종적으로 예측 신호에 잔차 신호를 더함으로써 대응하는 복원 샘플이 획득된다. 그러므로 각 서브 파티션의 복원된 값은 프로세스가 반복될 다음 서브 파티션의 예측을 생성하는 데 이용할 수 있다. 모든 서브 파티션은 동일한 인트라 모드를 공유한다.
ISP를 나누는 것(division of ISP)은 하드웨어에 구현하기 어렵거나 다른 코딩 기술에 적응해야 하는 서브 파티션 크기를 초래할 수 있다.
예를 들어, 루마 인트라 블록이 4x16이고 수직 분할에 의해 나누어질 때, 도 8에 도시된 바와 같이 4개의 서브 파티션 크기는 1x16이 된다. 예시적인 샘플은 도면에서 채워진 원으로서 도시된다. 이러한 서브 파티션은 하드웨어 구현에 우호적이지 않다.
하드웨어에서, 데이터는 일반적으로 메모리에 행 별로 저장된다. 데이터가 페치될 때, 메모리는 행에 있는 데이터가 얼마나 효과적으로 사용되는지에 관계없이, 한 행의 모든 데이터를 반환한다. 행에서 반환되는 데이터의 크기는 때때로 메모리 버스트 크기(memory burst size)라고도 하며, 보통 2의 거듭제곱(예를 들어, 8, 16 등)인 수이다. 샘플이 8개 샘플의 메모리 버스트 크기로 페치된다고 가정하면, 1x16의 블록 크기는 16번의 메모리 페치를 필요로 하지만, 도 9에 도시된 바와 같이, 각각의 페치에서는 8개 중 1개 샘플만 유효하게 사용된다. 도면은 사용되는 샘플을 채워진 원으로 도시하고 사용되지 않는 샘플은 빈 원으로 도시한다. 결과적으로, 크기가 1x16인 블록은 이용 가능한 메모리 대역폭의 1/8(즉, 12.5 %)만 유효하게 사용할 것이다. 메모리 버스트 크기가 더 클 때(예를 들어, N > 8), 유효하게 사용된 메모리 대역폭 대 이용 가능한 메모리 대역폭의 비율은 훨씬 더 낮을 것이다.
16x1 또는 8x2와 같은 다른 작은 블록의 경우, 메모리 액세스가 현명하고, 샘플이 연속적으로 행에 저장되기 때문에 효율적이기는 하지만, 다른 코딩 방식에는 적응이 필요할 수 있다. 이러한 적응의 한 예는 잔차 계수 코딩이다. 잔차 계수 코딩에서, coded_sub_block_flag 라는 신택스가 4x4 서브 블록 레벨의 세분성(granularity)에서 시그널링된다. ISP 나누기(ISP division)라는 새로운 도입에 따라, 신택스 coded_sub_block_flag의 시그널링이 표 2에 도시된 바와 같이 서브 블록을 지원하는데 사용된다. 이러한 적응은 달성된 코딩 이득이 작다면, 하드웨어에 알맞지 않을 수 있다.
Figure pct00032
본 발명은 위에서 설명한 하드웨어 및 코딩 문제를 극복하기 위한 방법 및 장치를 제공한다.특히, 파티셔닝될 현재 블록의 크기에 기초하여 서브 파티션의 수 및 파티셔닝 방향 또는 방향들을 결정하는 데 사용되는 파티셔닝 규칙이 제공된다. 블록 크기는 블록 크기 정보의 형태로 파티셔닝 유닛에 의해 수신될 수 있다.
본 개시내용의 양태에 따르면, 각각의 파티셔닝 규칙은 1xN(N≥16) 또는 2xM(M≥8) 크기의 서브 파티션을 초래하는 파티셔닝을 비활성화한다. 이러한 규칙은 메모리 대역폭의 더 나은 사용을 제공할 수 있다.
파티셔닝 규칙은 또한 Nx1(N≥16) 또는 Mx2(M≥8) 크기의 서브 파티션을 초래하는 파티셔닝을 비활성화한다. 이러한 규칙은 신택스 시그널링의 측면에서 개선을 제공할 수 있다.
전적으로 수평 및 전적으로 수직 파티셔닝 이외에, 본 개시내용에 따른 파티셔닝 규칙은 또한 결합된 수평 + 수직 파티셔닝 방식을 제공한다.
본 개시내용에 따른 모든 파티셔닝 규칙에서, 각각의 서브 파티션은 적어도 16개의 샘플을 포함한다.
실시예 1:
이러한 실시예에 따르면, ISP 모드가 활성화될 때, 1xN(N≥16) 또는 2xM(M≥8) 크기의 서브 파티션을 초래하는 파티셔닝은 비활성화된다. 한편, ISP로서, 각각의 서브 파티션은 적어도 16개의 샘플을 포함한다. 새로운 파티셔닝 규칙은 표 3에 제시된다.
Figure pct00033
일 예에서, 서브 파티션은 예측 블록 또는 변환 블록일 수 있다.
일 예에서, 디코딩 측에서, 서브 파티션이 예측 블록일 때, ISP가 활성화된 코딩 블록에 대한 파티셔닝 규칙은 다음과 같이 적용될 수 있다:
intra_subpartitions_split_flag[ x0 ][ y0 ]은 인트라 서브 파티션 분할 유형이 수평인지 수직인지를 명시한다. intra_subpartitions_split_flag[ x0 ][ y0 ]이 없을 때는 다음과 같이 추론된다:
- cbHeight가 MaxTbSizeY보다 크면, intra_subpartitions_split_flag[ x0 ][ y0 ]는 0과 같다고 추론된다.
- 그렇지 않으면(cbWidth가 MaxTbSizeY보다 크면), intra_subpartitions_split_flag[ x0 ][ y0 ]은 1과 같다고 추론된다.
IntraSubPartitionsSplitType라는 변수는 표 13에서 예시된 바와 같이 현재 루마 코딩 블록에 사용되는 분할의 유형을 명시한다. IntraSubPartitionsSplitType은 다음과 같이 도출된다:
- intra_subpartitions_mode_flag[ x0 ][ y0 ]가 0과 같으면, IntraSubPartitionsSplitType은 0과 같게 설정된다.
- 그렇지 않으면, IntraSubPartitionsSplitType은 1 + intra_subpartitions_split_flag[ x0 ][ y0 ]과 같게 설정된다.
Figure pct00034
변수(NumIntraSubPartitions)는 인트라 루마 코딩 블록이 나누어지는, 아래에서 서브 블록이라 부르는, 변환 블록 서브 파티션의 수를 명시한다. NumIntraSubPartitions은 다음과 같이 도출된다:- IntraSubPartitionsSplitType가 ISP_NO_SPLIT과 같으면, NumIntraSubPartitions은 1과 같게 설정된다.
- 그렇지 않고 다음의 조건 중 하나가 참이면, NumIntraSubPartitions는 2로 설정된다:
- cbWidth는 4이고 cbHeight는 8이다,
- cbWidth는 8이고 cbHeight는 4이다.
- 그렇지 않으면, NumIntraSubPartitions가 4로 설정된다.
다시 말해서, ISP가 활성화될 때, 비트스트림으로부터 intra_subpartitions_split_flag 플래그가 도출된다. 이것은 인트라 서브 파티션 분할 유형이 수평 또는 수직인지를 명시한다. intra_subpartitions_split_flag의 값이 0이면, 이것은 분할 방향이 수평이라는 것을 나타내고, 그렇지 않으면, 분할 방향이 수직이라는 것을 나타낸다.
또한, 다수의 서브 블록(예측 블록이 아닐 수 있음; 혼동을 피하기 위해 여기서 서브 블록이라는 용어는 서브 블록을 이 예에서 예측 블록인 서브 파티션과 구별하는 데 사용됨)이 결정된다. 코딩 블록 크기가8 x 4 또는4 x 8일 때, 2개의 서브 블록만 허용된다. 그렇지 않으면, 4개의 서브 블록이 허용된다.
파티셔닝 규칙은 인트라 예측을 수행할 때 적용될 수 있으며, 그 전에 서브 파티션의 너비가 4개의 루마 샘플이상인지를 확인하기 위해, 다음과 같은 전처리가 수행될 수 있다.
- 변수(nW, nH, nPbW, pbFactor, xPartInc 및yPartInc)가 다음과 같이 도출된다:
nW = IntraSubPartitionsSplitType = = ISP_VER_SPLIT ? nTbW / NumIntraSubPartitions : nTbW
nH = IntraSubPartitionsSplitType = = ISP_HOR_SPLIT ? nTbH / NumIntraSubPartitions : nTbH
xPartInc = ISP_VER_SPLIT ? 1 : 0
yPartInc = ISP_HOR_SPLIT ? 1 : 0
nPbW = Max( 4 , nW )
pbFactor = nPbW / nW
- i = 0..NumIntraSubPartitions - 1인 경우, 다음과 같이 적용된다:
1. 변수(xPartIdx, yPartIdx 및xPartPbIdx)는 다음과 같이 도출된다:
xPartIdx = i * xPartInc
yPartIdx = i * yPartInc
xPartPbIdx = xPartIdx % pbFactor
2. controlPara가1이 아니고 xPartPbIdx가0일 때, 문서 JVET-P2001-vE(초안 7)의 8.4.5.2. 절에 명시된 바와 같은 인트라 샘플 예측 프로세스는 ( xTb0 + nW * xPartIdx, yTb0 + nH * yPartIdx )와 같게 설정된 위치( xTbCmp, yTbCmp ), 인트라 예측 모드 predModeIntra, nPbW 및 nH와 같게 설정된 변환 블록 너비 nTbW 및 높이 nTbH, nTbW 및 nTbH와 같게 설정된 코딩 블록 너비 nCbW 및 높이 nCbH 및 변수 cIdx를 입력으로 하여 실시되며, 출력은 (nPbW)x(nH) 어레이 predSamples 이다.
nTbW 및 nThH는 현재 코딩 블록의 너비 및 높이를 나타낸다. 분할 방향(IntraSubPartitionsSplitType)이 수직(ISP_VER_SPLIT) 또는 수평(ISP_HOR_SPLIT)과 같을 때, 원래 너비 또는 높이를 서브 블록의 수(NumIntraSubPartitions)로 나눔으로써 새로운 너비(nW) 또는 높이(nH)가 도출된다.
또한, 수평(즉, xPartInc) 및 수직 방향(즉, yPartInc)의 증분 변수는 ISP 파티션 방향에 기초하여 도출된다. 그 후, 값이 4 이상이 되도록 보장되는 너비 제한 변수(nPbW)가 도출된다. 마지막으로, 예측 블록 인자 값이 도출된다. 새로운 너비(nW)가 4 이상일 때, 변수(pbFactor)는 1이 된다. 그렇지 않으면, 이것은 서브 블록의 너비가 2와 같을 때 2와 같을 수 있으며, 이것은 서브 블록의 너비가 1과 같을 때 4와 같을 수 있다.
디코더는 또한 디코더가 인트라 예측을 수행할 수 있는 서브블록을 결정한다. 이것은 현재 코딩 블록의 서브 블록을 반복하고 그 예측 블록의 왼쪽 상단 좌표(xTb0 + nW * xPartIdx, yTb0 + nH * yPartIdx)를 인트라 예측 프로세스에 대한 입력으로서 도출한다. 그러나 예측 서브 파티션의 너비는 변수(xPartPbIdx)에 의해 제한된다. xPartPbIdx가 0과 같을 때만, 인트라 예측 프로세스가 호출되기 때문이다. 예를 들어, 분할 방향이 수직인 크기가 8x8인 코딩 블록을 고려하면 다음과 같은 것이 적용될 수 있다:
nW = 2
nH = 8
xPartInc = 1
xPartInc = 0
nPbW = 4
pbFactor = 2
즉, 디코더가 0번째 서브 블록과 2번째 서브 블록으로 반복할 때만 인트라 예측 프로세스가 호출될 수 있는 데, 왜냐하면 그때까지 xPartIdx%2는 0과 같기 때문이다. 인트라 예측 프로세스가 호출될 때, 너비 파라미터(nPbW)는 4와 같다.
nW = 1일 때 유사한 예가 공식화될 수 있다.
이러한 방식으로, 예측 서브 파티션의 너비는 적어도 4 루마 샘플이 되도록 보장되며, 이것은 코딩 블록의 이전에 디코딩된1xN/2xN 서브 파티션의 복원된 값에 대한1xN/2xN 서브 파티션 예측의 의존성이 허용되지 않는다라는 제한 사항으로 인해 초래되는 단점을 완벽하게 경감할 수 있다. 한편, 하드웨어의 대역폭은 전체 코딩 성능을 개선하기 위해 전부 사용될 수 있다.
실시예 2:
이러한 실시예에 따르면, ISP 모드가 활성화될 때, 1xN(N>=16) 또는 2xM(M>=8) 또는 Nx1 (N>=16) or Mx2 (M>=8) 크기의 서브 파티션을 초래하는 파티셔닝은 비활성화된다. 한편, ISP로서, 각각의 서브 파티션은 적어도 16개의 샘플을 포함한다. 새로운 파티셔닝 규칙은 표 4에 제시된다:
Figure pct00035
실시예 3:
이러한 실시예에 따르면, ISP 모드가 활성화될 때, 1xN(N>=16) 또는 2xM(M>=8) 또는 Nx1(N>=16) 또는 Mx2(M>=8) 크기의 서브 파티션을 초래하는 파티셔닝은 비활성화된다. 한편, ISP로서, 각각의 서브 파티션은 적어도 16개의 샘플을 포함한다. 또한, 도 10에 도시된 바와 같이, 수평 + 수직 파티셔닝을 사용하는 제 3 파티셔닝 방식이 허용된다. 도면은 본 실시예에 따른 결합된 수평 + 수직 파티셔닝 방식을 도시한다. 서브 파티션에 대한 처리 순서는 도면에 있는 번호로 표시된다. 새로운 파티셔닝 규칙은 표 5에 제시된다:
Figure pct00036
실시예 4:이러한 실시예에 따르면, ISP 모드가 활성화될 때, 1xN(N>=16) 또는 2xM(M>=8) 또는 Nx1(N>=16) 또는 Mx2(M>=8) 크기의 서브 파티션을 초래하는 파티셔닝은 비활성화된다. 한편, ISP로서, 각각의 서브 파티션은 적어도 16개의 샘플을 포함한다. 또한, 8x8 블록에 대해서만 수평 + 수직 파티셔닝을 사용하는 제 3 파티셔닝 방식이 허용된다. 결합된 수평 + 수직 파티셔닝은 도 10에 도시된다. 새로운 파티셔닝 규칙은 표 6에 제시된다:
Figure pct00037
새로운 파티셔닝 규칙은 이용 가능한 메모리 대역폭뿐만 아니라 신택스 시그널링의 사용을 개선할 수 있다.
도 11은 본 개시내용의 실시예에 따른 비디오 코딩의 방법의 흐름도이다. 단계(1010)에서, 현재 블록의 블록 크기 정보가 획득된다. 단계(1020)에서, 블록 크기 정보에 기초하여, 현재 블록이, 서브 파티션 각각의 너비가 4 이상인 경우 별도로 또는 서브 파티션 중 적어도 2개를 결합하여 적어도 2개의 서브 파티션의 결합된 너비가 4 이상인 경우 협력적으로 인트라 예측을 위해 사용되는 다수의 서브 파티션으로 파티셔닝되는 파티셔닝 방향 및 서브 파티션의 수가 결정된다. 마지막으로 단계(1030)에서, 현재 블록의 서브 파티션이 코딩되며, 여기서 코딩은 디코딩 또는 인코딩을 포함한다.
디코딩 프로세스를 예로 들면, 일반적인 신호 복원 프로세스는 다음과 같은 방법으로 구현될 수 있다. 각각의 서브 파티션에 대해, 예측 신호에 잔차 신호를 더함으로써 복원 샘플이 획득된다. 여기서, 잔차 신호는 엔트로피 디코딩, 역양자화, 역변환과 같은 프로세스에 의해 생성된다. 그러므로 각 서브 파티션의 복원된 샘플 값은 다음 서브 파티션의 예측을 생성하는 데 이용할 수 있고, 각각의 서브 파티션은 반복적으로 처리된다. 또한, 처리될 제 1 서브 파티션은 CU의 왼쪽 상단 샘플을 포함하고 다음으로 계속해서 아래쪽(수평 분할) 또는 오른쪽(수직 분할)으로 이어지는 서브 파티션이다. 결과적으로, 서브 파티션 예측 신호를 생성하는 데 사용되는 참조 샘플은 라인의 왼쪽 및 위쪽에만 위치한다. 모든 서브 파티션은 동일한 인트라 모드를 공유하며, ISP 모드에서는 모든 67개의 인트라 모드가 허용된다. 대응하는 너비 및 높이가 적어도 4개 샘플 길이이면 위치 종속 인트라 예측 조합(position dependent intra prediction combination)(PDPC)이 또한 적용된다. 또한, 인트라 보간 필터 선택의 조건은 더 이상 존재하지 않으며, ISP 모드에서 분수 위치 보간에는 항상 큐빅(Cubic)(DCT-IF) 필터가 적용된다.
도 12는 본 개시내용의 실시예에 따른 인코딩 장치 또는 디코딩 장치의 예를 예시하는 블록도를 도시한다. 인코딩 또는 디코딩 장치는 현재 블록의 블록 크기 정보를 획득하도록 구성된 크기 결정 모듈(1110)과, 블록 크기 정보에 기초하여, 현재 블록이, 서브 파티션 각각의 너비가 4 이상인 경우 별도로 또는 서브 파티션 중 적어도 2개를 결합하여 적어도 2개의 서브 파티션의 결합된 너비가 4 이상인 경우 협력적으로 인트라 예측을 위해 사용되는 다수의 서브 파티션으로 파티셔닝되는 파티셔닝 방향 및 서브 파티션의 수를 결정하도록 구성된 서브 파티션 결정 모듈(1120)과, 현재 블록의 서브 파티션을 인코딩하도록 구성된 코딩 모듈(1130)을 포함한다.
크기 결정 모듈(1110), 서브 파티션 결정 모듈(1120) 및 코딩 모듈(1130)은 하드웨어, 소프트웨어, 펌웨어 또는 이들의 임의의 조합으로 구현될 수 있다. 소프트웨어로 구현되면, 기능은 컴퓨터 판독 가능 매체에 저장되거나 또는 하나 이상의 명령어 또는 코드로서 통신 매체를 통해 전송되고 하드웨어 기반 처리 유닛에 의해 실행될 수 있다. 명령어는 하나 이상의 디지털 신호 프로세서(DSP), 범용 마이크로프로세서, 주문형 집적 회로(ASIC), 필드 프로그램 가능 로직 어레이(FPGA) 또는 다른 동등한 집적 또는 이산 로직 회로와 같은 하나 이상의 프로세서에 의해 실행될 수 있다. 따라서, 본 명세서에서 사용된 바와 같은 "프로세서"라는 용어는 전술한 구조 또는 본 명세서에 설명된 기술의 구현에 적합한 임의의 다른 구조 중 어느 것을 지칭할 수 있다. 또한, 일부 양태에서, 본 명세서에 설명된 기능성은 인코딩 및 디코딩을 위해 구성된 전용 하드웨어 및/또는 소프트웨어 모듈 내에서 제공될 수 있거나, 또는 결합된 코덱에서 통합될 수 있다. 또한, 기술은 하나 이상의 회로 또는 로직 요소에서 전부 구현될 수 있다.
수학 연산자(Mathematical Operator)
본 출원에서 사용되는 수학 연산자는 C 프로그래밍 언어에서 사용되는 것과 유사하다. 그러나, 정수 나눗셈과 산술 시프트 연산의 결과는 보다 정확하게 정의되며, 거듭제곱, 실수값 나눗셈과 같은 추가 연산이 정의된다. 번호 매기기 및 셈 규칙은 일반적으로 0부터 시작한다, 즉, "제 1"은 0번째와 동등하고, "제 2"는 1번째와 동등하다.
산술 연산자(Arithmetic operator)
다음의 산술 연산자는 다음과 같이 정의된다:
Figure pct00038
논리적 연산자(Logical operator)다음의 논리 연산자는 다음과 같이 정의된다:
x && y x 및 y의 부울 논리(Boolean logical) "and"
x | | y x 및 y의 부울 논리 "or"
! 부울 논리 "not"
x ? y : z x가 참(TRUE)이거나 0이 아니면, y의 값으로 평가하고; 그렇지 않으면 z의 값으로 평가한다.
관계 연산자(Relational operator)
다음의 관계 연산자는 다음과 같이 정의된다:
> 보다 큼
>= 크거나 같음
< 보다 작음
<= 이하
= = 같음
!= 같지 않음
관계 연산자가 값 "na"(해당 사항 없음)가 할당된 신택스 요소 또는 변수에 적용될 때, 값 "na"는 신택스 요소 또는 변수에 대한 고유한 값으로 취급된다. 값 "na"는 임의의 다른 값과 같지 않은 것으로 간주된다.
비트 연산자(Bit-wise operator)
다음의 비트 연산자는 다음과 같이 정의된다:
& 비트별 "and". 정수 인수에 대해 연산할 때, 정수 값의 2의 보수 표현에 대해 연산한다. 다른 인수보다 적은 수의 비트를 포함하는 이진 인수에 대해 연산할 때, 0과 같은 상위 비트를 추가함으로써 더 짧은 인수가 확장된다.
| 비트별 "or". 정수 인수에 대해 연산할 때, 정수 값의 2의 보수 표현에 대해 연산한다. 다른 인수보다 적은 수의 비트가 포함된 이진 인수에 대해 연산할 때, 0과 같은 상위 비트를 추가함으로써 더 짧은 인수가 확장된다.
^ 비트별 "exclusive or". 정수 인수에 대해 연산할 때, 정수 값의 2의 보수 표현에 대해 연산한다. 다른 인수보다 적은 수의 비트를 포함하는 이진 인수에 대해 연산할 때, 0과 같은 상위 비트를 추가함으로써 더 짧은 인수가 확장된다.
x >> y x의 2의 보수 정수 표현을 y 이진수만큼 산술 오른쪽 시프트. 이러한 함수는 y의 음이 아닌 정수 값에 대해서만 정의된다. 오른쪽 시프트의 결과로서 최상위 비트(most significant bit)(MSB)로 시프트된 비트는 시프트 연산 이전의 x의 MSB와 동일한 값을 갖는다.
x << y x의 2의 보수 정수 표현을 y 이진수만큼 산술 왼쪽 시프트. 이러한 함수는 y의 음이 아닌 정수 값에 대해서만 정의된다. 왼쪽 시프트의 결과로서 최하위 비트(least significant bit)(LSB)로 시프트된 비트는 0과 동일한 값을 갖는다.
할당 연산자(Assignment operator)
다음의 산술 연산자는 다음과 같이 정의된다:
= 할당 연산자
+ + 증분, 즉, x + +는 x = x + 1과 동등하다; 어레이 인덱스에서 사용될 때, 증분 연산 이전의 변수 값으로 평가된다.
- - 감분, 즉, x - -는 x = x - 1과 동일하다; 어레이 인덱스에서 사용될 때 감분 연산 이전의 변수 값으로 평가된다.
+= 명시된 양만큼 증분, 즉, x += 3은 x = x + 3과 동등하고 x += (-3)은 x = x + (-3)과 동등하다.
-= 명시된 양만큼 감분, 즉, x -= 3은 x = x - 3과 동등하고 x -= (-3)은 x = x - (-3)와 동등하다.
범위 표기법(Range notation)
다음의 표기법은 값의 범위를 명시하는 데 사용된다.
x = y..z x x는 y부터 시작하여 z를 포함하여 z까지의 정수 값을 취하고, x, y 및 z는 정수이며, z는 y보다 크다.
수학 함수(Mathematical function)
다음의 수학 함수가 정의된다:
Figure pct00039
Asin( x ) -1.0 내지 1.0 (모두 포함하여) 범위에 있는 인수(x)에 대해 연산하는 삼각 역사인 함수(trigonometric inverse sine)로, 출력 값은 라디안 단위의 -π÷2 ~ π÷2 (모두 포함) 범위에 있다.
Atan( x ) 인수(x)에 대해 연산하는 삼각 역탄젠트 함수로, 출력 값은 라디안 단위로 -π÷2 내지 π÷2 (모두 포함) 범위에 있다.
Figure pct00040
Ceil( x ) x 이상의 가장 작은 정수.
Figure pct00041
Figure pct00042
Figure pct00043
Cos( x ) 라디안 단위의 인수(x)에 대해 연산하는 삼각 코사인 함수.
Floor( x ) x 이상의 가장 큰 정수.
Figure pct00044
Ln( x ) x의 자연 로그(natural logarithm)(베이스-e 로그(base-e logarithm), 여기서 e는 자연 로그 베이스 상수 2.718 281 828...)이다.
Log2( x ) x의 베이스-2 로그.
Log10( x ) x의 베이스-10 로그.
Figure pct00045
Figure pct00046
Figure pct00047
Figure pct00048
Sin( x ) 라디안 단위의 인수(x)에 대해 연산하는 삼각 사인 함수.
Figure pct00049
Tac( x ) 라디안 단위의 인수(x)에 대해 연산하는 삼각 탄젠트 함수
연산 우선 순위(Order of operation precedence)
수학식에서 우선 순위가 괄호를 사용하여 명백히 표시되지 않을 때, 다음의 규칙이 적용된다:
- 더 높은 우선 순위의 연산은 더 낮은 우선 순위의 임의의 연산보다 먼저 평가된다.
- 동일한 우선 순위의 연산은 왼쪽에서부터 오른쪽으로 순차적으로 평가된다.
아래의 표는 가장 높은 것에서부터 가장 낮은 것까지 연산의 우선 순위를 명시한다; 표에서 더 높은 위치는 더 높은 우선 순위를 표시한다.
C 프로그래밍 언어에서도 사용되는 그러한 연산자의 경우, 본 명세서에서 사용되는 우선 순위는 C 프로그래밍 언어에서 사용되는 것과 동일하다.
[표]
Figure pct00050
논리 연산의 텍스트 설명(text description of logical operation)
텍스트에서, 수학적으로 다음의 형태로 설명되는 바와 같은 논리 연산의 설명:
if( condition 0 )
statement 0
else if( condition 1 )
statement 1
...
else /* 나머지 조건에 대한 정보 주석 */
statement n
이것은 다음과 같은 방식으로 설명될 수 있다:
다음과 같이 … / … 다음이 적용된다(…as follows / ... the following applies):
- 조건 0이면, 스테이트먼트0 (If condition 0, statement 0)
- 그렇지 않고, 조건 1이면, 스테이트먼트1(Otherwise, if condition 1, statement 1)
- ...
- 그렇지 않으면(나머지 조건에 대한 정보 주석), 스테이트먼트n(Otherwise (informative remark on remaining condition), statement n)
텍스트에서 각각의 "If ... Otherwise, if ... Otherwise, ..." 스테이트먼트는 "... as follows" 또는 "... the following applies"가 나오고 바로 뒤이어 "If ... "가 나온다. "If ... Otherwise, if ... Otherwise, ..."의 마지막 조건은 항상 "Otherwise, ..."일 수 있다. 끼워 넣은 "If ... Otherwise, if ... Otherwise, ..." 스테이트먼트는 "... as follows" 또는 "... the following applies"를 끝에 오는 "Otherwise, ..."와 매칭시킴으로써 식별될 수 있다.
텍스트에서, 수학적으로 다음의 형태로 설명되는 바와 같은 논리 연산의 설명:
if( condition 0a && condition 0b )
statement 0
else if( condition 1a | | condition 1b )
statement 1
...
else
statement n
이것은 다음과 같은 방식으로 설명될 수 있다:
다음과 같이 … / … 다음이 적용된다
- 다음의 모든 조건이 참이면, 스테이트먼트0 (If all of the following conditions are true, statement 0):
- 조건0a (condition 0a)
- 조건0b (condition 0b)
- 그렇지 않고, 다음의 조건 중 하나 이상이 참이면, 스테이트먼트1 (Otherwise, if one or more of the following conditions are true, statement 1):
- 조건1a (condition 1a)
- 조건1b (condition 1b)
- ...
- 그렇지 않으면, 스테이트먼트n (Otherwise, statement n)
텍스트에서, 수학적으로 다음의 형태로 설명되는 바와 같은 논리 연산의 설명:
if( condition 0 )
statement 0
if( condition 1 )
statement 1
이것은 다음과 같은 방식으로 설명될 수 있다:
조건0일 때, 스테이트먼트0 (When condition 0, statement 0)
조건1일 때, 스테이트먼트1 (When condition 1, statement 1)
본 개시내용의 실시예가 주로 비디오 코딩에 기초하여 설명되었지만, 코딩 시스템(10), 인코더(20) 및 디코더(30)(및 이에 상응하는 시스템(10))의 실시예 및 본 명세서에서 설명된 다른 실시예는 또한 여전히 픽처 처리 또는 코딩, 즉, 비디오 코딩에서와 같이 임의의 선행 또는 연속 픽처와 독립적인 개별 픽처의 처리 또는 코딩을 위해 구성될 수 있다는 것을 유의해야 한다. 일반적으로 픽처 처리 코딩이 단일 픽처(17)로 제한되는 경우에 인터 예측 유닛((244)(인코더) 및 (344)(디코더))만 이용 가능할 수 없을 수 있다. 비디오 인코더(20) 및 비디오 디코더(30)의 모든 다른 기능성(또한 도구 또는 기술이라고도 함), 예를 들어 잔차 계산(204/304), 변환(206), 양자화(208), 역양자화(210/310), (역)변환(212/312), 파티셔닝(262), 인트라 예측(254/354), 및/또는 루프 필터링(220, 320), 및 엔트로피 코딩(270) 및 엔트로피 디코딩(304)은 정지 픽처 처리에 대해 동일하게 사용될 수 있다.
예를 들어 인코더(20) 및 디코더(30)의 실시예, 및 예를 들어 인코더(20) 및 디코더(30)를 참조하여 본 명세서에서 설명된 기능은 하드웨어, 소프트웨어, 펌웨어, 또는 이들의 임의의 조합으로 구현될 수 있다. 소프트웨어로 구현되면, 기능은 컴퓨터 판독 가능 매체에 저장되거나 또는 하나 이상의 명령어 또는 코드로서 통신 매체를 통해 전송되고 하드웨어 기반 처리 유닛에 의해 실행될 수 있다. 컴퓨터 판독 가능 매체는 데이터 저장 매체와 같은 유형 매체에 대응하는 컴퓨터 판독 가능 저장 매체, 또는 예를 들어, 통신 프로토콜에 따라 한 장소에서 다른 장소로 컴퓨터 프로그램의 이전을 용이하게 하는 임의의 매체를 포함하는 통신 매체를 포함할 수 있다. 이러한 방식으로, 컴퓨터 판독 가능 매체는 일반적으로 (1) 비일시적인 유형의 컴퓨터 판독 가능 저장 매체 또는 (2) 신호 또는 반송파와 같은 통신 매체에 대응할 수 있다. 데이터 저장 매체는 본 개시내용에서 설명된 기술의 구현을 위한 명령어, 코드 및/또는 데이터 구조를 검색하기 위해 하나 이상의 컴퓨터 또는 하나 이상의 프로세서에 의해 액세스될 수 있는 임의의 이용 가능한 매체일 수 있다. 컴퓨터 프로그램 제품은 컴퓨터 판독 가능 매체를 포함할 수 있다.
예로서, 제한 없이, 이러한 컴퓨터 판독 가능 저장 매체는 RAM, ROM, EEPROM, CD-ROM 또는 다른 광학 디스크 저장소, 자기 디스크 저장소 또는 다른 자기 저장 디바이스, 플래시 메모리, 또는 원하는 프로그램 코드를 명령어 또는 데이터 구조의 형태로 저장하는데 사용될 수 있고 컴퓨터에 의해 액세스될 수 있는 임의의 다른 매체를 포함할 수 있다. 또한, 임의의 연결은 적절히 컴퓨터 판독 가능 매체라고 칭한다. 예를 들어, 명령어가 동축 케이블, 광섬유 케이블, 트위스트 페어, 디지털 가입자 회선(digital subscriber line)(DSL) 또는 적외선, 라디오 및 마이크로웨이브와 같은 무선 기술을 사용하여 웹 사이트, 서버 또는 다른 원격 소스로부터 전송된다면, 동축 케이블, 광섬유 케이블, 트위스트 페어, DSL 또는 적외선, 라디오 및 마이크로웨이브와 같은 무선 기술은 매체의 정의에 포함된다. 컴퓨터 판독 가능 저장 매체 및 데이터 저장 매체는 연결, 반송파, 신호 또는 다른 일시적 매체를 포함하지 않는 대신, 비일시적인 유형의 저장 매체에 관련된다는 것을 이해해야 한다. 본 명세서에서 사용되는 바와 같은 디스크(disk) 및 디스크(disc)는 콤팩트 디스크(compact disc)(CD), 레이저 디스크, 광학 디스크, 디지털 다기능 디스크(digital versatile disc)(DVD), 플로피 디스크 및 블루 레이(Blu-ray) 디스크를 포함하고, 여기서 디스크(disk)는 보통 데이터를 자기적으로 재생하는 반면에, 디스크(disc)는 데이터를 레이저를 사용하여 광학적으로 재생한다. 위의 것의 조합은 또한 컴퓨터 판독 가능 매체의 범위에 포함되어야 한다.
명령어는 하나 이상의 디지털 신호 프로세서(DSP), 범용 마이크로프로세서, 주문형 집적 회로(ASIC), 필드 프로그램 가능 로직 어레이(FPGA) 또는 다른 동등한 집적 또는 이산 로직 회로와 같은 하나 이상의 프로세서에 의해 실행될 수 있다. 따라서, "프로세서"라는 용어는 전술한 구조 또는 본 명세서에 설명된 기술의 구현에 적합한 임의의 다른 구조 중 어느 것을 지칭할 수 있다. 또한, 일부 양태에서, 본 명세서에 설명된 기능성은 인코딩 및 디코딩을 위해 구성된 전용 하드웨어 및/또는 소프트웨어 모듈 내에 제공될 수 있거나, 또는 결합된 코덱에 통합될 수 있다. 또한, 기술은 하나 이상의 회로 또는 로직 요소에서 전부 구현될 수 있다.
본 개시내용은 기술은 무선 핸드셋, 집적 회로(integrated circuit)(IC), 또는 IC 세트(예를 들어, 칩 세트)를 비롯한 다양한 디바이스 또는 장치에서 구현될 수 있다. 다양한 컴포넌트, 모듈 또는 유닛이 개시된 기술을 수행하도록 구성된 디바이스의 기능적 양태를 강조하기 위해 본 개시내용에서 설명되지만, 반드시 상이한 하드웨어 유닛에 의한 실현을 필요로 하지는 않는다. 오히려, 위에서 설명한 바와 같이, 다양한 유닛이 코덱 하드웨어 유닛으로 결합되거나 또는 적합한 소프트웨어 및/또는 펌웨어와 함께, 위에서 설명된 바와 같은 하나 이상의 프로세서를 포함하는 상호작용 하드웨어 유닛의 집합에 의해 제공될 수 있다.

Claims (27)

  1. 디코딩 디바이스 또는 인코딩 디바이스에 의해 구현되는 비디오 코딩의 방법으로서,
    현재 블록의 블록 크기 정보를 획득하는 단계와,
    상기 블록 크기 정보에 기초하여, 상기 현재 블록이, 서브 파티션 각각의 너비가 4 이상인 경우 별도로 또는 상기 서브 파티션 중 적어도 2개를 결합하여 상기 적어도 2개의 서브 파티션의 결합된 너비가 4 이상인 경우 협력적으로 인트라 예측을 위해 사용되는 다수의 서브 파티션으로 파티셔닝되는 파티셔닝 방향 및 서브 파티션의 수를 결정하는 단계(1020)와,
    상기 현재 블록의 서브 파티션을 코딩하는 단계(1030)를 포함하는
    비디오 코딩의 방법.
  2. 제 1 항에 있어서,
    상기 현재 블록은 인트라 서브 파티션(intra sub-partition)(ISP) 코딩 모드에 의해 코딩되는
    비디오 코딩의 방법.
  3. 제 1 항 또는 제 2 항에 있어서,
    상기 현재 블록을 상기 서브 파티션의 수 및 상기 파티셔닝 방향에 따라 상기 다수의 서브 파티션으로 파티셔닝하는 단계를 더 포함하는
    비디오 코딩의 방법.
  4. 제 1 항 내지 제 3 항 중 어느 한 항에 있어서,
    상기 블록 크기 정보에 기초하여, 서브 파티션의 수를 결정하는 것은 다음의 표에 따라 수행되는,
    Figure pct00051

    비디오 코딩의 방법.
  5. 제 1 항 내지 제 4 항 중 어느 한 항에 있어서,
    상기 파티셔닝 방향은 수평 또는 수직인
    비디오 코딩의 방법.
  6. 제 1 항 내지 제 5 항 중 어느 한 항에 있어서,
    각각의 서브 파티션은 적어도 16개의 샘플을 포함하는
    비디오 코딩의 방법.
  7. 제 1 항 내지 제 6 항 중 어느 한 항에 있어서,
    상기 파티셔닝 방향을 결정하는 것은 다음의 파티셔닝 방향 테이블을 참조하여 수행되는
    Figure pct00052

    비디오 코딩의 방법.
  8. 제 1 항 내지 제 7 항 중 어느 한 항에 있어서,
    상기 블록 크기 정보에 기초하여 파티셔닝 방향 및 서브 파티션의 수를 결정하는 것은 상기 파티셔닝 방향, 상기 서브 파티션 및 상기 블록 크기가 다음의 파티셔닝 방향 테이블에 도시된 관계를 만족하도록 수행되는
    Figure pct00053

    비디오 코딩의 방법.
  9. 제 1 항 내지 제 8 항 중 어느 한 항에 있어서,
    코딩이 인코딩일 때, 상기 파티셔닝 방향은 상기 현재 블록의 코딩된 데이터를 포함하는 비트스트림으로 코딩되고, 상기 코딩이 디코딩일 때, 상기 파티셔닝 방향은 상기 현재 블록의 코딩된 데이터 및 상기 파티셔닝 방향에 관한 정보를 포함하는 비트스트림으로부터 파싱되는
    비디오 코딩의 방법.
  10. 제 7 항 내지 제 9 항 중 어느 한 항에 있어서,
    상기 파티셔닝 방향 테이블은 다음을 더 포함하는
    Figure pct00054

    비디오 코딩의 방법.
  11. 제 1 항 내지 제 10 항 중 어느 한 항에 있어서,
    상기 서브 파티션은 인트라 예측 블록인
    비디오 코딩의 방법.
  12. 제 1 항 내지 제 11 항 중 어느 한 항에 따른 상기 방법을 수행하기 위한 처리 회로를 포함하는
    인코더(20).
  13. 제 1 항 내지 제 11 항 중 어느 한 항에 따른 상기 방법을 수행하기 위한 처리 회로를 포함하는
    디코더(30).
  14. 프로그램이 컴퓨터에 의해 실행될 때, 상기 컴퓨터로 하여금 제 1 항 내지 제 11 항 중 어느 한 항에 따른 상기 방법을 수행하게 하는 명령어를 포함하는
    컴퓨터 프로그램 제품.
  15. 디코더(30) 또는 인코더(20)로서,
    하나 이상의 프로세서와,
    상기 하나 이상의 프로세서에 연결되고 상기 하나 이상의 프로세서에 의한 실행을 위한 명령어를 저장하는 비일시적 컴퓨터 판독 가능 저장 매체 - 상기 명령어는 상기 하나 이상의 프로세서에 의해 실행될 때, 상기 디코더 또는 상기 인코더를 각자 제 1 항 내지 제 11 항 중 어느 한 항에 따른 상기 방법을 수행하도록 구성함 - 를 포함하는
    디코더 또는 인코더.
  16. 인코더(20)로서,
    현재 블록의 블록 크기 정보를 획득하도록 구성된 크기 결정 모듈(1110);
    상기 블록 크기 정보에 기초하여, 상기 현재 블록이, 서브 파티션 각각의 너비가 4 이상인 경우 별도로 또는 상기 서브 파티션 중 적어도 2개를 결합하여 상기 적어도 2개의 서브 파티션의 결합된 너비가 4 이상인 경우 협력적으로 인트라 예측을 위해 사용되는 다수의 서브 파티션으로 파티셔닝되는 파티셔닝 방향 및 서브 파티션의 수를 결정하도록 구성된 서브 파티션 결정 모듈(1120)과,
    상기 현재 블록의 서브 파티션을 인코딩하도록 구성된 코딩 모듈(1130)을 포함하는
    인코더.
  17. 제 16 항에 있어서,
    각각의 서브 파티션은 적어도 16개의 샘플을 포함하는
    인코더.
  18. 제 16 항 또는 제 17 항에 있어서,
    상기 서브 파티션 결정 모듈(1120)은 다음의 파티셔닝 방향 테이블을 참조하여 상기 파티셔닝 방향을 결정하도록 구성되는
    Figure pct00055

    인코더.
  19. 제 16 항 내지 제 18 항 중 어느 한 항에 있어서,
    상기 서브 파티션 결정 모듈(1120)은 상기 블록 크기 정보에 기초하여 상기 파티셔닝 방향 및 상기 서브 파티션의 수를 결정하여 상기 파티셔닝 방향, 상기 서브 파티션 및 상기 블록 크기가 다음의 파티셔닝 방향 테이블에 도시된 관계를 만족하도록 구성되는
    Figure pct00056

    인코더.
  20. 제 18 항 또는 제 19 항에 있어서,
    상기 파티셔닝 방향 테이블은 다음을 더 포함하는
    Figure pct00057

    인코더(20).
  21. 제 16 항 내지 제 20 항 중 어느 한 항에 있어서,
    상기 코딩 모듈(1130)은 또한 상기 파티셔닝 방향에 관한 정보를, 코딩된 데이터를 포함하는 비트스트림으로 인코딩하도록 구성되는
    인코더.
  22. 디코더(30)로서,
    현재 블록의 블록 크기 정보를 획득하도록 구성된 크기 결정 모듈(1110);
    상기 블록 크기 정보에 기초하여, 상기 현재 블록이, 서브 파티션 각각의 너비가 4 이상인 경우 별도로 또는 상기 서브 파티션 중 적어도 2개를 결합하여 상기 적어도 2개의 서브 파티션의 결합된 너비가 4 이상인 경우 협력적으로 인트라 예측을 위해 사용되는 다수의 서브 파티션으로 파티셔닝되는 파티셔닝 방향 및 서브 파티션의 수를 결정하도록 구성된 서브 파티션 결정 모듈(1120)과,
    상기 현재 블록의 서브 파티션을 디코딩하도록 구성된 코딩 모듈(1130)을 포함하는
    디코더.
  23. 제 22 항에 있어서,
    각각의 서브 파티션은 적어도 16개의 샘플을 포함하는
    디코더.
  24. 제 22 항 또는 제 23 항에 있어서,
    상기 서브 파티션 결정 모듈(1120)은 다음의 파티셔닝 방향 테이블을 참조하여 상기 파티셔닝 방향을 결정하도록 구성되는
    Figure pct00058

    디코더.
  25. 제 22 항 내지 제 24 항 중 어느 한 항에 있어서,
    상기 서브 파티션 결정 모듈(1120)은 상기 블록 크기 정보에 기초하여 상기 파티셔닝 방향 및 상기 서브 파티션의 수를 결정하여 상기 파티셔닝 방향, 상기 서브 파티션 및 상기 블록 크기가 다음의 파티셔닝 방향 테이블에 도시된 관계를 만족시키도록 구성되는
    Figure pct00059

    디코더.
  26. 제 24 항 또는 제 25 항에 있어서,
    상기 파티셔닝 방향 테이블은,
    Figure pct00060

    디코더.
  27. 제 22 항 내지 제 26 항 중 어느 한 항에 있어서,
    상기 코딩 모듈(1130)은 또한 상기 파티셔닝 방향에 관한 정보를, 코딩된 데이터를 포함하는 비트스트림으로 파싱하도록 구성되는
    디코더.
KR1020217025915A 2019-02-15 2020-02-14 인트라 서브 파티션 코딩 모드 도구로부터 서브 파티션의 크기를 제한하는 인코더, 디코더 및 대응하는 방법 KR20210122800A (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201962806505P 2019-02-15 2019-02-15
US62/806,505 2019-02-15
PCT/CN2020/075323 WO2020164604A1 (en) 2019-02-15 2020-02-14 An encoder, a decoder and corresponding methods restricting size of sub-partitions from intra sub-partition coding mode tool

Publications (1)

Publication Number Publication Date
KR20210122800A true KR20210122800A (ko) 2021-10-12

Family

ID=72043969

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020217025915A KR20210122800A (ko) 2019-02-15 2020-02-14 인트라 서브 파티션 코딩 모드 도구로부터 서브 파티션의 크기를 제한하는 인코더, 디코더 및 대응하는 방법

Country Status (5)

Country Link
US (1) US20210377532A1 (ko)
EP (1) EP3900333A4 (ko)
KR (1) KR20210122800A (ko)
CN (3) CN116260979A (ko)
WO (1) WO2020164604A1 (ko)

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101411315B1 (ko) * 2007-01-22 2014-06-26 삼성전자주식회사 인트라/인터 예측 방법 및 장치
KR101698499B1 (ko) * 2009-10-01 2017-01-23 에스케이텔레콤 주식회사 분할 레이어를 이용한 영상 부호화/복호화 방법 및 장치
CN104126303B (zh) * 2011-11-29 2018-03-06 华为技术有限公司 用于高效率视频译码的统一分割结构和信令方法
KR20170023000A (ko) * 2014-06-20 2017-03-02 삼성전자주식회사 인터 레이어 비디오 부복호화를 위한 깊이 영상의 예측 모드 전송 방법 및 장치
KR20170026334A (ko) * 2014-07-06 2017-03-08 엘지전자 주식회사 비디오 신호의 처리 방법 및 이를 위한 장치
CN115002455A (zh) * 2015-06-05 2022-09-02 杜比实验室特许公司 图像编码和解码方法和图像解码设备
KR20170058838A (ko) * 2015-11-19 2017-05-29 한국전자통신연구원 화면간 예측 향상을 위한 부호화/복호화 방법 및 장치
WO2018143496A1 (ko) * 2017-02-03 2018-08-09 엘지전자(주) 예측 모드를 유도하여 비디오 신호를 인코딩, 디코딩하는 방법 및 장치
KR102062894B1 (ko) * 2018-05-04 2020-01-07 한국과학기술원 비디오 복호화에서의 분할 블록 복호화 방법 및 이를 구현하는 기록매체
US11595663B2 (en) * 2019-02-01 2023-02-28 Qualcomm Incorporated Secondary transform designs for partitioned transform units in video coding

Also Published As

Publication number Publication date
WO2020164604A1 (en) 2020-08-20
CN113330741B (zh) 2022-12-30
CN113330741A (zh) 2021-08-31
CN116260979A (zh) 2023-06-13
EP3900333A4 (en) 2022-05-25
EP3900333A1 (en) 2021-10-27
CN116170604A (zh) 2023-05-26
US20210377532A1 (en) 2021-12-02

Similar Documents

Publication Publication Date Title
AU2020246735B2 (en) An encoder, a decoder and corresponding methods for intra prediction
WO2020211765A1 (en) An encoder, a decoder and corresponding methods harmonzting matrix-based intra prediction and secoundary transform core selection
CA3114341C (en) An encoder, a decoder and corresponding methods using compact mv storage
AU2020318106B2 (en) An encoder, a decoder and corresponding methods related to intra prediction mode
JP2023153802A (ja) イントラ・サブパーティション・コーディング・ツールによって引き起こされるサブパーティション境界のためのデブロッキングフィルタ
CN113660489B (zh) 用于帧内子划分的解码方法、装置、解码器和存储介质
AU2020206492B2 (en) Encoder, decoder, non-transitionary computer-readable medium and method of video coding a block of a picture
KR20230128587A (ko) 서브블록 병합 후보를 위한 개별적인 병합 목록 및 비디오 코딩을 위한 인트라-인터 기술 조화
KR102626200B1 (ko) Cbf 플래그들의 효율적인 시그널링의 방법
WO2021037053A1 (en) An encoder, a decoder and corresponding methods of cabac coding for the indices of geometric partition flag
CN112740703B (zh) 编码器、解码器和用于变换处理的对应方法
KR20220065880A (ko) 아핀 모션 보상에서 dct 기반 보간 필터 및 향상된 쌍선형 보간 필터의 사용
KR20210145824A (ko) 제산 없는 인트라 예측을 위한 방법 및 장치
CN113330741B (zh) 从帧内子划分译码模式工具限制子分区的尺寸的编码器、解码器、及对应方法
KR102636330B1 (ko) 크로마 양자화 제어의 인코더, 디코더 및 대응하는 방법들
WO2020182195A1 (en) An encoder, a decoder and corresponding methods using intra mode coding for intra prediction
KR20210129180A (ko) 평면 모드를 위한 인트라 예측에 대한 복잡도 감소의 인코더, 디코더 및 대응하는 방법

Legal Events

Date Code Title Description
A201 Request for examination