KR20210132009A - 유연한 크기의 화상 파티션에 대한 복잡도가 처리된 인코더 및 디코더, 인코딩 방법 및 디코딩 방법 - Google Patents

유연한 크기의 화상 파티션에 대한 복잡도가 처리된 인코더 및 디코더, 인코딩 방법 및 디코딩 방법 Download PDF

Info

Publication number
KR20210132009A
KR20210132009A KR1020217023916A KR20217023916A KR20210132009A KR 20210132009 A KR20210132009 A KR 20210132009A KR 1020217023916 A KR1020217023916 A KR 1020217023916A KR 20217023916 A KR20217023916 A KR 20217023916A KR 20210132009 A KR20210132009 A KR 20210132009A
Authority
KR
South Korea
Prior art keywords
picture
coding tree
pictures
data
unit
Prior art date
Application number
KR1020217023916A
Other languages
English (en)
Inventor
로베르트 스쿠핀
야고 산체스 데 라 푸엔테
코르넬리우스 헤르게
토마스 쉬를
카르스텐 쉬링
토마스 비간트
Original Assignee
프라운호퍼 게젤샤프트 쭈르 푀르데룽 데어 안겐반텐 포르슝 에. 베.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 프라운호퍼 게젤샤프트 쭈르 푀르데룽 데어 안겐반텐 포르슝 에. 베. filed Critical 프라운호퍼 게젤샤프트 쭈르 푀르데룽 데어 안겐반텐 포르슝 에. 베.
Publication of KR20210132009A publication Critical patent/KR20210132009A/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/119Adaptive subdivision aspects, e.g. subdivision of a picture into rectangular or non-rectangular coding blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/156Availability of hardware or computational resources, e.g. encoding based on power-saving criteria
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/172Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/42Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
    • H04N19/436Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation using parallelised computational arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • H04N19/52Processing of motion vectors by encoding by predictive encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
    • H04N19/96Tree coding, e.g. quad-tree coding

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computing Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

실시예에 따른 비디오 인코더(101)가 제공된다. 비디오 인코더(101)는 인코딩된 비디오 신호를 생성하여 비디오의 복수의 화상을 인코딩하도록 구성되고, 상기 복수의 화상 각각은 원본 화상 데이터를 포함한다. 비디오 인코더(101)는 인코딩된 화상 데이터를 포함하는 인코딩된 비디오 신호를 생성하도록 구성된 데이터 인코더(110)를 포함하고, 상기 데이터 인코더는 비디오의 복수의 화상을 인코딩된 화상 데이터로 인코딩하도록 구성된다. 더욱이, 비디오 인코더(101)는 복수의 화상 각각의 인코딩된 화상 데이터를 출력하도록 구성된 출력 인터페이스(120)를 포함한다. 또한, 실시예에 따른 비디오 디코더, 시스템, 인코딩 및 디코딩 방법, 컴퓨터 프로그램 및 인코딩된 비디오 신호가 제공된다.

Description

유연한 크기의 화상 파티션에 대한 복잡도가 처리된 인코더 및 디코더, 인코딩 방법 및 디코딩 방법
본 발명은 비디오 인코딩 및 비디오 디코딩에 관한 것으로, 특히, 유연한 크기의 화상 데이터에 대한 복잡도가 처리된 인코더 및 디코더, 인코딩 방법 및 디코딩 방법에 관한 것이다.
H.265/0HEVC(HEVC = 고효율 비디오 코딩)는 인코더 및/또는 디코더에서 병렬 처리를 높이거나 심지어 활성화하기 위한 툴을 이미 제공하는 비디오 코덱이다. 예를 들어, HEVC는 서로 독립적으로 인코딩된 타일 배열로 화상의 세분화를 지원한다. HEVC가 지원하는 또 다른 개념은, 연속적인 CTU 라인 (CTU = 코딩 트리 유닛)의 처리에서 일부 최소 CTU 오프셋이 준수되는 경우, 화상의 CTU 행 또는 CTU 라인이 왼쪽에서 오른쪽으로, 예를 들어, 줄무늬로 병렬 처리된 것에 따라, WPP와 관한 것이다. 그러나 비디오 인코더 및/또는 비디오 디코더의 병렬 처리 기능을 훨씬 더 효율적으로 지원하는 비디오 코덱을 준비하는 것이 바람직하다.
이하, 최신 기술에 따른 VCL 분할에 대한 소개가 설명된다(VCL = 비디오 코딩 계층).
일반적으로 비디오 코딩에서, 화상 샘플의 코딩 프로세스에는 더 작은 파티션이 필요하며, 여기서 샘플은 예측 또는 변환 코딩과 같은 공동 처리를 위해 일부 직사각형 영역으로 나뉜다. 따라서, 화상은 비디오 시퀀스의 인코딩 동안 일정한 특정 크기의 블록으로 분할된다. H.264/AVC에서는 매크로블록이라고 하는 16x16 샘플의 고정 크기 블록이 사용된다(AVC = 고급 비디오 코딩).
최신 HEVC 표준([1] 참조)에는, 최대 64 x 64 샘플 크기의 코딩된 트리 유닛(CTB; Coded Tree Blocks) 또는 코딩 트리 유닛(CTU; Coding Tree Units)이 있다. HEVC에 대한 추가 설명에서는, 이러한 종류의 블록에 대해 보다 일반적인 용어 CTU가 사용된다.
CTU는 왼쪽 상단 CTU부터 시작하여, 래스터 스캔 순서로 처리되어, 화상의 CTU를 라인 유닛로 오른쪽 하단 CTU까지 처리한다.
코딩된 CTU 데이터는 슬라이스라는 일종의 컨테이너로 구성된다. 원래, 이전 비디오 코딩 표준에서, 슬라이스는 화상의 하나 이상의 연속적인 CTU를 포함하는 세그먼트를 의미한다. 슬라이스는 코딩된 데이터의 세분화에 사용된다. 다른 관점에서 보면, 전체 화상은 하나의 큰 세그먼트로 정의될 수도 있으므로, 역사적으로 슬라이스라는 용어가 여전히 적용된다. 코딩된 화상 샘플 외에, 슬라이스는 소위 슬라이스 헤더에 배치되는 슬라이스 자체의 코딩 프로세스와 관련된 추가 정보도 포함한다.
최신 기술에 따르면, VCL(비디오 코딩 계층)은 또한 단편화 및 공간 분할을 위한 기술을 포함한다. 이러한 분할은 예를 들어, 다양한 이유로 비디오 코딩에 적용될 수 있으며, 그 중에 병렬 처리 로드 밸런싱, 네트워크 전송에서 CTU 크기 일치, 오류 완화 등이 있다.
본 발명의 목적은 비디오 인코딩 및 비디오 디코딩을 위한 개선된 개념을 제공하는 것이다.
본 발명의 목적은 독립항의 주제에 의해 해결된다.
바람직한 실시예는 종속항에 제공된다.
다음에서, 본 발명의 실시예가 도면을 참조하여 상세히 설명되며, 여기서:
도 1은 일 실시예에 따른 비디오 인코더를 도시한다.
도 2는 일 실시예에 따른 비디오 디코더를 도시한다.
도 3은 일 실시예에 따른 시스템을 도시한다.
도 4는 타일 경계를 생성하는 부분 CTU를 변위하여 영향을 받은 CTU를 도시한다.
도 5는 부분 CTU로부터의 화상 보상 당 루마 샘플을 도시한다.
도 6은 CTU 그리드 정렬 불일치를 도시한다.
도 7은 그리드 불일치의 영향을 받는 CTU의 비율을 도시한다.
도 8은 타일 경계의 두 세트를 도시한다.
도 9는 현재 화상의 부분 CTU 이후 참조 화상의 대응하는 CTU 행을 도시한다.
도 10은 비디오 인코더를 도시한다.
도 11은 비디오 디코더를 도시한다.
도 12는 한편으로는 복원된 신호, 즉 복원된 화상과, 다른 한편으로는 데이터 스트림에서 시그널링된 예측 잔차 신호와 예측 신호의 조합 사이의 관계를 도시한다.
도 13은 래스터 스캔 순서로 슬라이스를 갖는 화상 세분화를 예시한다.
도 14는 타일에 의한 화상 분할 예시한다.
도면에 대한 다음 설명은 본 발명의 실시 예가 구축되어 있는 코딩 프레임워크에 대한 예를 형성하기 위해서, 비디오의 화상을 코딩하기 위한 블록 기반 예측 코덱의 인코더 및 디코더에 대한 설명으로 시작한다. 이전의 인코더 및 디코더는 도 10 내지 12과 관련하여 설명된다. 이하, 본 출원의 개념의 실시 예에 대한 설명은 이러한 개념이 각각 도 10 및 도 11의 인코더 및 디코더에 어떻게 구축될 수 있는지에 대한 설명과 함께 제공되지만, 도 1 내지 도 3과 관련하여 설명된 실시예 및 이하는 도 10 및 도 11의 인코더 및 디코더의 기초가 되는 코딩 프레임워크에 따라 동작하지 않는 인코더 및 디코더를 형성하는 데에 또한 사용될 수 있다.
도 10은 예시적으로 변환 기반 잔차 코딩을 사용하여 화상(12)를 데이터 스트림(14)으로 예측 코딩하기 위한 비디오 인코더, 장치를 도시한다. 장치 또는 인코더는 참조 부호 10을 사용하여 표시된다. 도 11은 대응하는 비디오 디코더(20), 즉 변환 기반 잔차 디코딩을 사용하여 데이터 스트림(14)으로부터 화상(12')를 예측적으로 디코딩하도록 구성된 장치(20)를 도시하며, 여기서 어포스트로피는 디코더(20)에 의해 복원된 화상(12')가 예측 잔차 신호의 양자화에 의해 도입된 코딩 손실의 관점에서 장치(10)에 의해 원래 인코딩된 화상(12)로부터 벗어나는 것을 나타내기 위해 사용되었다. 도 10 및 도 11은 변환 기반 예측 잔차 코딩을 예시적으로 사용하지만, 본 출원의 실시 예는 이러한 종류의 예측 잔차 코딩으로 제한되지 않는다. 이것은 이하에서 설명되는 바와 같이, 도 10 및 도 11와 관련하여 설명된 다른 세부 사항에 대해서도 마찬가지이다.
인코더(10)는 예측 잔차 신호를 공간-스펙트럼 변환에 적용하고, 이렇게 획득된 예측 잔차 신호를 데이터 스트림(14)으로 인코딩하도록 구성된다. 마찬가지로, 디코더(20)는 데이터 스트림(14)으로부터의 예측 잔차 신호를 디코딩하고 이렇게 획득된 예측 잔차 신호에 스펙트럼-공간 변환을 적용하도록 구성된다.
내부적으로, 인코더(10)는 원본 신호, 즉 화상(12)로부터의 예측 신호(26)의 편차를 측정하기 위해 예측 잔차(24)를 생성하는 예측 잔차 신호 생성기(22)를 포함할 수 있다. 예를 들어, 예측 잔차 신호 생성기(22)는 원본 신호, 즉 화상(12)에서 예측 신호를 감산하는 감산기일 수 있다. 그 다음, 인코더(10)는 또한 인코더(10)에 의해 포함된 양자화기(32)에 의해 양자화되는 스펙트럼 영역 예측 잔차 신호(24')를 획득하기 위해 예측 잔차 신호(24)를 공간-스펙트럼 변환에 적용하는 변환기(28)를 더 포함한다. 이렇게 양자화된 예측 잔차 신호(24")는 비트스트림(14)으로 코딩된다. 이를 위해, 인코더(10)는 데이터 스트림(14)으로 변환 및 양자화된 바와 같이 예측 잔차 신호를 엔트로피 코딩하는 엔트로피 코더(34)를 선택적으로 포함할 수 있다. 예측 신호(26)는 데이터 스트림(14)으로 인코딩되고 이로부터 디코딩 가능한 예측 잔차 신호(24")에 기초하여 인코더(10)의 예측 스테이지(36)에 의해 생성된다. 이를 위해, 예측 스테이지(36)는 도 10에 도시된 바와 같이, 양자화 손실을 제외하고 신호(24')에 대응하는 스펙트럼 영역 예측 잔차 신호(24"')를 얻기 위해 예측 잔차 신호(24")를 역 양자화하는 역 양자화기(38)와, 양자화 손실을 제외하고 원본 예측 잔차 신호(24)에 대응하는 예측 잔차 신호(24"")를 얻기 위해 후자의 예측 잔차 신호(24"')를 역변환, 즉 스펙트럼-공간 변환에 적용하는 역 변환기(40)를 포함하고 있다. 예측 스테이지(36)의 결합기(42)는 예를 들어 예측 신호(26) 및 예측 잔차 신호(24"")를 더하는 것으로 재결합하여, 복원 신호(46), 즉 원본 신호(12)의 복원 신호을 획득한다. 복원 신호(46)는 신호(12')에 대응할 수 있다. 예측 스테이지(36)의 예측 모듈(44)은 예를 들어 공간 예측, 즉 인트라 예측 및/또는 시간 예측, 즉 인터 예측을 사용하여 신호(46)에 기초하여 예측 신호(26)를 생성한다.
마찬가지로, 도 11에서 나타낸 바와 같이, 디코더(20)는 예측 스테이지(36)에 대응하고 대응하도록 상호 연결되는 구성 요소로 구성될 수 있다. 특히, 디코더(20)의 엔트로피 디코더(50)는 데이터 스트림으로부터 양자화된 스펙트럼-영역 예측 잔차 신호(24")를 엔트로피 디코딩할 수 있으며, 이에 따라 예측 스테이지(36)의 모듈에 대해 전술한 방식으로 상호 연결되고 협력하는 역 양자화기(52), 역 변환기(54), 결합기(56) 및 예측 모듈(58)은 예측 잔차 신호(24")에 기초하여 복원 신호를 복구하므로, 도 11에 도시된 바와 같이, 결합기(56)의 출력은 복원 신호, 즉 화상(12')가 결과된다.
위에서 구체적으로 설명하지 않았지만, 인코더(10)가 예를 들어, 일부 속도 및 왜곡 관련 기준, 즉 코딩 비용을 최적화하는 방식으로와 같이, 일부 최적화 방식에 따라, 예를 들어 예측 모드, 모션 매개변수 등을 포함하는 일부 코딩 매개변수를 설정할 수 있다는 것은 명백하다. 예를 들어, 인코더(10) 및 디코더(20) 및 대응하는 모듈(44, 58)은 각각 인트라 코딩 모드 및 인터 코딩 모드와 같은 상이한 예측 모드를 지원할 수 있다. 인코더와 디코더가 이들 예측 모드 유형 사이에서 전환하는 입도(granularity)는 각각 화상(12 및 12')를 코딩 세그먼트 또는 코딩 블록으로 세분화하는 것에 대응할 수 있다. 예를 들어, 이러한 코딩 세그먼트의 유닛로, 화상은 인트라 코딩되는 블록과 인터 코딩되는 블록으로 세분화될 수 있다. 인트라 코딩된 블록은 아래에 더 자세히 설명된 것처럼 각 블록의 공간적이며, 이미 코딩/디코딩된 이웃 블록을 기반으로 예측된다. 몇개의 인트라 코딩 모드가 존재할 수 있으며 각각의 방향성 인트라 코딩 모드에 특정한 특정 방향을 따라 이웃 블록의 샘플 값을 각각의 인트라 코딩된 세그먼트로 외삽하여 각 세그먼트가 채워지는 것에 따라 방향성 또는 각도 인트라 코딩 모드를 포함하여 각 인트라 코딩된 세그먼트에 대해 선택될 수 있다. 인트라 코딩 모드는 각 인트라 코딩된 블록에 대한 예측이 각 인트라 코딩된 세그먼트 내의 모든 샘플에 DC 값을 할당하는 것에 따른 DC 코딩 모드, 및/또는 인접한 샘플을 기반으로 2 차원 선형 함수에 의해 정의된 평면의 기울기 및 오프셋을 구동하여 각각의 블록의 예측이 각각의 인트라 코딩된 블록의 샘플 위치에 대해 2 차원 선형 함수에 의해 설명된 샘플 값의 공간 분포인 것으로 추정되거나 결정되는 것에 따른 평면 인트라 코딩 모드와 같은, 하나 이상의 추가 모드를 포함할 수 있다. 이에 비해 인터 코딩된 블록은 예를 들어 시간적으로 예측될 수 있다. 인터-코딩된 블록의 경우, 움직임 벡터는 데이터 스트림 내에서 시그널링될 수 있으며, 이 움직임 벡터는 화상(12)가 속한 비디오의 이전 코딩된 화상의 일부의 공간 변위를 나타내며, 여기서 각각의 인터-코딩된 블록에 대한 예측 신호를 얻기 위해 이전에 코딩된/디코딩된 화상이 샘플링된다. 이는 양자화된 스펙트럼 영역 예측 잔차 신호(24")를 나타내는 엔트로피 코딩된 변환 계수 레벨과 같은 데이터 스트림(14)에 포함된 잔차 신호 코딩에 추가하여, 데이터 스트림(14)은 코딩 모드를 다양한 블록에 할당하기 위한 코딩 모드 매개변수, 인터 코딩된 세그먼트에 대한 모션 매개변수와 같은 일부 블록에 대한 예측 매개 변수, 및 화상(12 및 12')의 각각 세그먼트로의 세분화를 제어하고 시그널링하는 매개 변수와 같은 선택적 추가 매개 변수로 인코딩될 수 있다. 디코더(20)는 이들 매개변수를 사용하여 인코더가 했던 것과 동일한 방식으로 화상을 세분화하고, 세그먼트에 동일한 예측 모드를 할당하고, 동일한 예측을 수행하여 동일한 예측 신호를 생성한다.
도 12은 한편의 복원 신호, 즉 복원 화상(12')과 다른 한편에서는 데이터 스트림(14)에서 시그널링된 예측 잔차 신호(24"")와 예측 신호(26)의 조합 간의 관계를 나타낸다. 위에서 이미 언급했듯이, 조합은 더하기일 수 있다. 예측 신호(26)는 빗금으로 예시적으로 표시되는 인트라 코딩된 블록 및 빗금 표시되지 않은 것으로 예시적으로 표시되는 인터 코딩된 블록으로 화상 영역을 세분화한 것으로 도 12에 도시되어 있다. 세분화는 화상 영역의 정사각형 블록 또는 비 정사각형 블록의 행과 열로의 정규 세분화, 또는 쿼드트리 세분화 등과 같이 화상(12)을 트리 루트 블럭으로부터 다양한 크기의 복수의 리프 블록으로의 다중트리 세분화 등의, 세분화가 가능하고, 여기서 이들의 혼합은 화상 영역이 먼저 트리루트 블록의 행과 열로 세분화된 다음에 반복적인 다중 트리 세분화에 따라 하나 이상의 리프 블록으로 추가로 세분화되는, 도 12에서 도시되어 있다.
다시, 데이터 스트림(14)은 각각의 인트라 코딩된 블록(80)에 여러 지원되는 인트라 코딩 모드 중 하나를 할당하는, 인트라 코딩된 블록(80)에 대해 코딩되는 인트라 코딩 모드를 가질 수 있다. 인터 코딩된 블록(82)에 대해, 데이터 스트림(14)은 그 안에 코딩된 하나 이상의 모션 매개변수를 가질 수 있다. 일반적으로 말하면, 인터 코딩된 블록(82)은 시간적으로 코딩되는 것으로 제한되지 않는다. 대안적으로, 인터 코딩된 블록(82)은 화상(12)가 속한 비디오의 사전에 코딩된 화상, 또는 인코더 및 디코더가 각각 스케일러블 인코더 및 디코더인 경우 다른 뷰 또는 계층적으로 하위 계층의 화상과 같은, 현재 화상(12) 자체를 넘어 이전에 코딩된 부분으로부터 예측된 임의의 블록일 수 있다.
도 12의 예측 잔차 신호(24"")는 또한 화상 영역이 블록(84)으로 세분화된 것으로 도시된다. 이들 블록은 코딩 블록(80 및 82)과 구별하기 위해서 변환 블록이라고 불릴 수 있다. 실제로, 도 12에서 인코더(10) 및 디코더(20)는 화상(12) 및 화상(12')을 각각 블록으로 두 개의 다른 세분화를 사용하며, 즉 하나는 각각 코딩 블록(80 및 82)으로 세분화하고, 다른 것은 변환 블록(84)으로 세분화한다. 두 세분화는 동일할 수 있는데, 즉 각 코딩 블록(80 및 82)은 동시에 변환 블록(84)을 형성하지만, 도 12는 예를 들어, 변환 블록(84)으로의 세분화가 코딩 블록(80/82)으로의 세분화의 확장을 형성하여 두 블록(80 및 82) 사이의 임의의 경계가 두 블록(84) 사이의 경계와 중첩하거나, 또는 대안적으로 말해서 각 블록(80, 82)은 변환 블록(84) 중 하나와 일치하거나 또는 변환 블록(84)의 클러스터와 일치하는 경우를 도시한다. 그러나, 변환 블록(84)이 대안적으로 블록(80, 82) 사이의 블록 경계와 교차할 수 있도록 세분화가 서로 독립적으로 결정되거나 선택될 수도 있다. 변환 블록(84)으로의 세분화에 관한 한, 블록(80, 82)으로의 세분화와 관련하여 유사한 것이 사실이다. 즉, 블록(84)은 화상 영역을 블럭들로 (열과 행으로 배열되든지 되지 않든지) 정규적 세분화한 결과이며, 화상 영역의 반복적 다중 트리 세분화의 결과이며, 또는 이들의 조합 또는 임의의 다른 종류의 블록일 수 있다. 간단히 블록(80, 82 및 84)은 2차원적, 직사각형 또는 그 외 어느 모양으로나 제한되지 않는다는 점에 유의해야 한다.
도 12는 예측 신호(26) 및 예측 잔차 신호(24"")의 조합이 직접적으로 복원 신호(12')가 결과됨을 더욱 도시한다. 그러나, 하나 이상의 예측 신호(26)는 대안적인 실시 예에 따르면 예측 잔차 신호(24"")와 결합되어 화상(12')가 결과될 수 있음에 유의해야 한다.
도 12에서, 변환 블럭(84)은 다음과 같은 의미를 가져야 한다. 변환기(28) 및 역 변환기(54)는 이들 변환 블럭(84)의 유닛로 이들의 변환을 수행한다. 예를 들어, 많은 코덱은 모든 변환 블록(84)에 대해 일종의 DST 또는 DCT를 사용한다. 일부 코덱은 변환 블럭(84)의 일부에 대해, 예측 잔차 신호가 공간 영역에서 직접 코딩되도록 변환을 스킵하는 것을 허용한다. 그러나, 아래에서 설명되는 실시 예들에 따르면, 인코더(10) 및 디코더(20)는 이들이 여러 변환을 지원하는 방식으로 구성된다. 예를 들어, 인코더(10) 및 디코더(20)에 의해 지원되는 변환은 다음을 포함할 수 있다:
o DCT-II (또는 DCT-III), 여기서 DCT는 이산 코사인 변환을 나타낸다.
o DST-IV, 여기서 DST는 이산 사인 변환을 나타낸다.
o DCT-IV
o DST-VII
o ID 변환(IT)
당연히, 변환기(28)는 이러한 변환의 모든 순방향 변환 버전을 지원하지만, 디코더(20) 또는 역 변환기(54)는 대응하는 역방향 또는 역 버전을 지원한다.
o 역 DCT-II(or 역 DCT-III)
o 역 DST-IV
o 역 DCT-IV
o 역 DST-VII
o ID 변환(IT)
후속 설명은 인코더(10) 및 디코더(20)에 의해 지원될 수 있는 변환에 대한 더 많은 세부 사항을 제공한다. 어떠한 경우에도, 지원되는 변환 세트는 하나의 스펙트럼-공간 또는 공간-스펙트럼 변환과 같은 변환만을 포함할 수 있다는 점에 유의해야 한다.
위에서 이미 설명했듯이, 도 10 내지 도 12는 본 출원에 따른 인코더 및 디코더에 대한 구체적인 예를 형성하기 위해서 이하 더 설명하는 본 발명의 개념이 구현될 수 있는 예로서 제시되었다. 지금까지 도 10 및 도 11의 인코더 및 디코더는 각각 아래에서 설명되는 인코더 및 디코더의 가능한 구현을 나타낸다. 그러나, 도 10 및 도 11은 예시일 뿐이다. 그러나, 본 출원의 실시예들에 따른 인코더는 아래에 더 상세히 설명된 개념을 사용하여 화상(12)의 블록 기반 인코딩을 수행할 수 있으며, 예를 들어 이것은 비디오 인코더가 아니라 정지 화상 인코더라는 점에서, 이것은 인터 예측을 지원하지 않는다는 점에서, 또는 블록(80)으로의 세분화가 도 12에 예시된 것과 다른 방식으로 수행된다는 점에서, 도 10의 인코더와 다르다. 마찬가지로, 본 출원의 실시예에 따른 디코더는 아래에 추가로 개괄된 코딩 개념을 사용하여 화상(12')을 데이터 스트림(14)으로부터 블록 기반 디코딩하는 것을 수행할 수 있지만, 예를 들어 비디오 디코더가 없다는 점에서 도 11의 디코더(20)와 다를 수 있으며, 예측을 지원하지 않는다는 점에서 또는 도 12와 관련하여 설명된 것과 다른 방식으로 화상(12')을 블록으로 세분한다는 점에서, 및/또는 예를 들어, 공간 도메인이 아닌, 변환 도메인에서 예측 잔차를 데이터 스트림(14)으로부터 유도하지 않는다는 점에서, 정지 화상 디코더와 다르다.
슬라이스를 사용한 화상 분할을 이하 간략하게 설명한다.
H.263 표준을 시작으로, 특정 스캔 순서에서 연적인속 블록을 나타내는 데이터 시퀀스는 슬라이스라고 하는 그룹으로 구성될 수 있다. 일반적으로, 예를 들어 예측 및 엔트로피 코딩 측면에서, 화상의 상이한 슬라이스의 CTU 간의 종속성은 금지되므로, 화상 내의 개별 슬라이스는 독립적으로 복원될 수 있다.
도 13은 래스터 스캔 순서로 슬라이스를 갖는 화상 세분화를 도시한다. 슬라이스의 크기는 도 13에 도시된 바와 같이 코딩 트리 유닛(CTU)의 수와 슬라이스에 속하는 각 코딩된 CTU의 크기에 의해 결정된다. 도 13은 50개의 CTU, 예를 들어 CTU(221), CTU(224) 및 CTU(251)을 포함한다.
이하 도 14를 참조하여 타일을 갖는 화상 분할에 대해 간략히 설명한다. 도 14는 50개의 CTU, 예를 들어 CTU(223), CTU(227) 및 CTU(241)을 포함한다.
타일은 HEVC에 도입된 개념이지만 개념은 플렉서블 매크로블럭 오더링(FMO)이 H.264/AVC에 추가된 것과 매우 유사하다. 타일의 개념은 화상을 여러 직사각형 영역으로 나누는 것을 허용한다.
따라서 타일은 원본 화상을 도 14와 같이 지정된 높이와 폭으로 지정된 수의 행과 열로 나누어 생긴 결과이다. 그 결과, HEVC 비트스트림 내의 타일은 일반 그리드를 형성하는 공통 경계를 가져야 한다.
이하에서, 실시예에 따른 일반 비디오 인코더가 도 1에 설명되고, 실시예에 따른 일반 비디오 디코더가 도 2에 설명되며, 실시예에 따른 일반 시스템이 도 3에 설명되어 있다.
도 1은 실시예에 따른 일반 비디오 인코더(101)를 도시한다.
비디오 인코더(101)는 인코딩된 비디오 신호를 생성함으로써 비디오의 복수의 화상을 인코딩하도록 구성되며, 복수의 화상 각각은 원본 화상 데이터를 포함한다.
비디오 인코더(101)는 인코딩된 화상 데이터를 포함하는 인코딩된 비디오 신호를 생성하도록 구성된 데이터 인코더(110)를 포함하고, 여기에서 데이터 인코더는 비디오의 복수의 화상을 인코딩된 화상 데이터로 인코딩하도록 구성된다.
더욱이, 비디오 인코더(101)는 복수의 화상들 각각의 인코딩된 화상 데이터를 출력하도록 구성된 출력 인터페이스(120)를 포함한다.
도 2는 실시예에 따른 일반 비디오 디코더(151)를 도시한다.
비디오 디코더(151)는 비디오의 복수의 화상을 복원하기 위해 인코딩된 화상 데이터를 포함하는 인코딩된 비디오 신호를 디코딩하도록 구성된다.
비디오 디코더(151)는 인코딩된 비디오 신호를 수신하도록 구성된 입력 인터페이스(160)를 포함한다.
더욱이, 비디오 디코더는 인코딩된 화상 데이터를 디코딩함으로써 비디오의 복수의 화상을 복원하도록 구성된 데이터 디코더(170)를 포함한다.
도 3은 실시예에 따른 일반 시스템을 도시한다.
시스템은 도 1의 비디오 인코더(101) 및 도 2의 비디오 디코더(151)를 포함한다.
비디오 인코더(101)는 인코딩된 비디오 신호를 생성하도록 구성된다. 비디오 디코더(151)는 인코딩된 비디오 신호를 디코딩하여 비디오의 화상을 복원하도록 구성된다.
본 발명의 제1 측면은 청구항 1 내지 5, 청구항 45 내지 49 및 청구항 89 내지 93에 청구된다.
본 발명의 제2 측면은 청구항 6 내지 13, 청구항 50 내지 57 및 청구항 94 내지 98에서 청구된다.
본 발명의 제3 측면은 청구항 14 내지 18, 청구항 58 내지 62 및 청구항 99 내지 103에서 청구된다.
본 발명의 제4 측면은 청구항 19 내지 22, 청구항 63 내지 66 및 청구항 104 내지 108에서 청구된다.
본 발명의 제5 측면은 청구항 24 내지 27, 청구항 68 내지 71 및 청구항 109 내지 113에서 청구된다.
본 발명의 제6 측면은 청구항 28 내지 32, 청구항 72 내지 76 및 청구항 114 내지 118에 청구된다.
본 발명의 제7 측면은 청구항 33 및 34, 청구항 77 및 78 및 청구항 119 내지 123에서 청구된다.
본 발명의 제8 측면은 청구항 35 내지 38, 청구항 79 내지 82 및 청구항 124 내지 128에서 청구된다.
본 발명의 제9 측면은 청구항 40 내지 44, 청구항 84 내지 88 및 청구항 129 내지 133에서 청구된다.
청구항 23, 39, 67 및 83은 예를 들어, 본 발명의 다른 측면에 사용될 수 있는 특정 예를 청구한다.
이하에서, 실시예에 따른 유연한 크기의 화상 파티션에 대한 복잡도 처리의 세부사항이 설명된다.
타일은 화상에 대한 세분화 메커니즘으로 HEVC에서 지정된다. 타일은 화상 매개변수 세트(PPS)에서 정의되며, 여기에서 이들의 크기가 주어진다. 현재 정의된 타일은 CTU의 배수인 크기를 가지며(일반적으로 64개 샘플), 화상의 마지막 타일, 즉 오른쪽 또는 아래쪽 경계의 타일만이 오른쪽 및 아래쪽 화상 경계에서의 CTU가 64 보다 작도록 허용된다.
그러나, 이러한 제한은 다음과 같은 몇 가지 사용 사례를 방지한다:
MCTS 비트스트림 병합: 원본 화상 경계가 병합된 비트스트림의 화상 경계가 아닐 수 있기 때문에, 단일 비트스트림 내에서 함께 병합될 비트스트림은 CTU에 대해 선택한 크기의 배수여야 한다.
적절한 로드 밸런싱: 이 때 타일은 미리 정의된 크기(CTU 크기)의 배수일 필요가 없는 콘텐츠에 맞게 조정된다.
또한, JVET에서 개발한 현재 비디오 코딩 사양 - 다용도 비디오 코딩 - 은 더 큰 CTU 값(최대 128)을 허용하며, 이는 CTU의 배수가 아닌 타일을 허용하는 것을 훨씬 더욱 중요하게 한다. 원하는 기능이 필요한지 여부에 따라 부분 CTU를 정의하는 것은 가능하지만 이러한 경우 코딩 효율성에 영향을 미친다. 그럼에도 불구하고, 타일이 결정된 크기의 완전한 수의 CTU를 포함하지 않고 타일의 하단 경계에 있는 가장 우측 CTU 및 CTU가 더 작아지도록 하는 것이 바람직하다.
그러나 이러한 기능이 허용되면, 다양한 측면이 디코딩 프로세스에 영향을 미친다.
이하에서, 부분 화면 내 CTU의 복잡성을 제어하는 방법에 대해 설명한다.
특히, 본 발명의 제1 측면이 이하 상세히 설명된다:
현재 모든 CTU가 동일한 크기이므로 프로세서는 미리 정의된 크기의 구조를 디코딩하도록 최적화되어 있다. 가변 크기를 허용하면 디코더의 복잡성이 증가할 수 있다. 특히 CTU의 수가 화상 마다 바뀔 수 있기 때문이다.
본 발명의 제 1 측면은, 이러한 가변 크기 CTU가 각 타일 내에서 허용되는 경우, 가변 크기 CTU의 수를 화상 마다 일정하게 유지하는 제약 조건이 충족되야 한다.
제 1 측면에서, 제약 조건이 항상 적용된다.
도 4는 타일 경계를 생성하는 부분 CTU를 변위함으로써 영향을 받는 CTU를 도시한다.
타일 크기가 미리 정의된 CTU 크기의 배수가 아니어서, 미리 정의된 CTU 크기보다 작은 가변 크기 CTU가 도입되는 경우, 도 4에 도시된 바와 같이 각각의 화상에서 동일한 수의 가변 크기 CTU를 갖는 것이 비트스트림 적합성의 요구사항이 된다.
또한, 이 속성은 num_partial_ctus_constant_flag를 나타내는 매개변수 세트의 플래그를 사용하여 디코더에 시그널링될 수 있다.
이제 본 발명의 제 2 측면이 상세히 설명된다:
제 2 측면은 복잡성의 영향에서 타일 경계를 생성하는 부분 CTU와 일반 타일 경계를 구별한다. 디코더가 시간 유닛당 디코딩된 최대 픽셀 수에 대한 레벨 제한을 확인할 때, 부분 CTU에 대한 복잡도 요소를 추가한다. 예를 들어, 부분 CTU는 실제 크기의 1.5배로 계산되거나 타일 경계에 의해 가변 크기 CTU가 되기 위해 크기가 제한되지 않는 것처럼 미리 결정된 CTU 크기의 픽셀 수로 계산될 수 있다. 이는 부분 CTU의 존재에 의해 화상 크기 제한이 영향을 받을 수 있음을 의미한다. 예를 들어, 모든 CTU가 동일한 크기인 경우 디코더에 대한 화상 제한은 초당 50프레임에서 4096x2160이 될 수 있지만, 5x4 타일이 정의된 경우 오른쪽 및 아래쪽 경계에 있는 부분 CTU, 즉 20개의 부분 CTU가 있는 경우, 동일한 프레임 속도에서 제한은 4056x2128이 될 수 있다.
도 5는 부분 CTU로부터의 화상 보상 당 루마 샘플을 예시한다. 특히, 복잡도가 조정된 화상 영역은 도 5에 예시되어 있다.
또한, 가변 크기 CTU의 크기에 대한 하한은, 임의의 방향으로 1개 샘플과 미리 정의된 CTU 크기 사이의 크기를 갖는 임의의 작은 가변 CTU를 허용하는 것과는 대조적으로, 참조 화상의 움직임 벡터 또는 변위 정보가 예를 들어 16x16 샘플 입도로, 코딩 프로세스에서 저장되는 입도를 고려하여 부과된다. 가변 크기 CTU는 예를 들어, 움직임 벡터 스토리지 입도로 표시되거나 유도되는 미리 결정된 최소 CTU 크기보다 작아서는 안 되므로, 두 개의 CTU가 동일한 움직임 벡터 저장 장치의 범위 내에 있지 않도록 한다.
본 발명의 제 3 측면을 이제 상세히 설명한다:
또 다른 독립적인 제3 측면에서, 부분 CTU의 존재는 타일의 복잡성 시그널링에 대해 고려된다. 예를 들어, HEVC는 타일을 포함하는 공간 세그먼트의 복잡성을 설명하는 VUI의 매개변수 min_spatial_segmentation_idc를 포함한다. 현재 타일에 적용될 때, 이것은 "(4*PicSizeInSamplesY)/(min_spatial_segmentation_idc+4) 루마 샘플 이상으로 구성된 CVS(코딩된 비디오 시퀀스)에 타일이 없음"을 의미한다. 또한, 본 발명의 일부로서, 최대 타일 크기 및/또는 디폴트 CTU 크기와 부분 CTU의 크기 사이의 관계에 따라 타일에 대한 복잡성 시그널링이 주어진 수 보다 많은 부분 CTU를 포함하지 않도록 제한한다. 대안적으로, 화상에서 허용되는 부분 CTU의 상대적인 양을 나타내는 추가 파라미터가 VUI에서 시그널링된다.
이하에서, CTU 경계가 화상 마다 변경될 수 있는 실시예가 설명된다.
특히, 본 발명의 제 4 측면은 이제 상세히 설명된다:
타일의 오른쪽/하단 경계가 사전 정의된 CTU 크기보다 작은 입도로 끝나고 다음 타일이 사전 정의된 크기의 CTU로 시작하는 경우, 타일 설정이 화상 마다 변경되면, 화상에 걸친 CTU 정렬은 달성되지 않을 것이며, 이는 시간적 움직임 벡터 예측을 사용하는 것과 같은 일부 예측 코딩에 해로울 수 있다. 메모리 관리가 더 어려울 수 있으므로, 화상 마다 CTU 경계 오정렬을 생성하는 유연성을 제한하는 것이 바람직할 것이다.
제 4 측면은 부분 CTU를 생성하는 타일 경계가 동일한 비디오 시퀀스 내의 상이한 화상에서 동일한 분할 비율로 부분 CTU를 생성하는, 특정 위치로만 이동될 수 있게 제한하는 것이다. 이를 통해 도 6과 같이 초기 마지막 CTU 위치 및 수정된 마지막 CTU 위치로부터의 범위로 커버되지 않는 영역에 CTU가 정렬되게 한다.
도 6은 CTU 그리드 정렬 불일치를 예시한다.
이하, 본 발명의 제 5 측면을 자세히 설명한다.
제 5 측면에서, 블록의 비율에 대한 제한이 적용되며, 도 7과 같이 부분 타일 경계의 변경으로 화상 간에 그리드 불일치가 발생할 수 있다. 이 제약 조건은 주어진 프로파일/레벨에 대한 기본 방식으로 정의되거나 비트스트림의 구문 요소, 예를 들어, num_misaligned_ctus_per_picture로 표시될 수 있다. 도 7은 그리드 불일치에 영향을 받는 CTU의 비율을 보여준다.
대안적으로, 부분(경계) CTU의 수가 일정하고 동일한 비율로 유지되는, 본 명세서에 설명된 제약 조건은 간단한 제약 표시, 예를 들어, misalignment_constant_flag로 구현될 수 있으며, 이 때 타일 경계의 표시는 유연하게 유지되지만 제약 조건을 충족해야 하거나 덜 유연한 방식으로 달성될 수 있다.
본 발명의 제 6 측면은 이하 상세히 설명된다:
제 6 측면에서는, CTU 오정렬이 완전히 방지된다: 두 세트의 타일 경계가 정의된다. 타일 경계의 제 1 세트는 기존 타일 경계에 해당한다:
* 엔트로피 코딩 리셋
* 인트라 예측 제약
* 스캔 순서 변경
또한, 제 1 세트의 타일을 사용하면 오른쪽 및 아래쪽 타일 경계에 부분 CTU를 만들 수 있다.
타일 경계의 제 2 세트는 오른쪽 및/또는 하단 타일 경계, 즉 상기 타일 경계의 왼쪽 및/또는 위쪽에 부분 CTU를 단지 생성할 뿐으로 엔트로피 코딩 재설정, 인트라 예측 또는 스캔 순서의 변경을 의미하지 않는다. 따라서 화상 내 부분 CTU의 위치는 정적으로 유지(되도록 제한)될 수 있는 반면 실제 타일 구성은 시간이 지남에 따라 변경될 수 있다.
도 8은 타일 경계의 두 세트를 예시한다. CVS 내에서 위치를 변경하는 타일 경계는 새로운 부분 타일을 생성할 수 없다. 도 8은 제1 세트의 타일 경계가 시점 T-1에서 시점 T로 위치를 변경하는 상이한 시점의 두 화상에 기초하여 본 발명을 예시하고, 스캔 순서, 엔트로피 코딩 및 인트라 예측에 대한 변경이 발생하더라도, 제 2 세트의 새로운 타일 경계는 시점 T-1과 유사한 시점 T에서 부분 CTU의 위치를 유지하기 위해 도입된다.
본 발명의 제 7 측면이 이하 상세히 설명된다:
다른 독립적인 실시예에서, 이 문제는 부분 CTU가 라인 버퍼 요건에 따라 도입하는 복잡성 영향을 줄이기 위해 다루어진다.
도 9는 현재 화상의 부분 CTU 이후 참조 화상의 대응하는 CTU 행을 도시한다.
하나의 화상에 있는 부분 CTU의 수평 행은 도 9에 도시된 바와 같이 부분 CTU의 행이 없는 참조 화상에 대한 CTU 그리드 오정렬을 유발할 수 있으며, 여기서 단일 행(현재 CTU 행)은 ATMVP와 같은 툴에 대한 두 CTU 행의 CU(코딩 유닛)에 액세스한다 (대체 시간 움직임 벡터 예측). 병치된 CTU 행은 종종 하드웨어 구현에서 비용 집약적인 고속 메모리(라인 버퍼라고 함)에 캐시되므로, 이 캐시에 여러 CTU 행을 보유하는 것은 바람직하지 않다. 따라서 타일 경계를 생성하는 부분 CTU가 있는 경우 화면 전체에 걸쳐 CTU 행 정렬을 유지하기 위해서, 또 다른 제약 조건은 그 위에 부분적 CTU를 생성하는 수평 타일 경계가 코딩된 비디오 시퀀스 동안 변경될 수 없으므로 정적이라는 것이다.
이하에서, 실시 예에 따라 병치된 CTU로부터의 예측자 유도가 설명된다.
특히, 본 발명의 여덟 번째 측면이 이하 상세히 설명된다:
시간적 움직임 벡터 예측(TMVP) 및 ATMVP 유도는 즉, 화상에 대해 일정한 CTU 그리드를 사용하여, 현재 사전 정의된 CTU 크기에 따라 달라진다.
TMVP의 경우:
yCb >> CtbLog2SizeY가 yColBr >> CtbLog2SizeY와 같으면, yColBr은 pic_height_in_luma_samples보다 작고 xColBr은 pic_width_in_luma_samples보다 작다 (즉, 참조 화상의 우측 하단 CB가 동일한 CTU 행에 있는 경우, 라인 버퍼 메모리에 캐시될 수 있음).
그런 다음 오른쪽 하단에 병치된 예측자가 사용된다. 그렇지 않으면 (참조 화상의 오른쪽 하단 CB는 동일한 CTU 행에 있지 않으므로, 라인 버퍼에 있지 않은 경우), 중앙에 병치된 예측자가 사용된다.
ATMVP의 경우:
ColPic 내부에 배치된 서브블록의 위치(xColSb, yColSb )는 다음과 같이 유도된다.
xColSb = Clip3(xCtb,
Min(CurPicWidthInSamplesY - 1, xCtb + (1<< CtbLog2SizeY) + 3),
xSb + (tempMv[0] >> 4))
yColSb = Clip3(yCtb,
Min(CurPicHeightInSamplesY - 1, yCtb + (1 << CtbLog2SizeY) - 1),
ySb + (tempMv[1] >> 4))
즉, 배치된 하위 블록의 좌표는 동일한 CTU 행 내부에 있도록 각 차원에서 잘린다. 이 라인 버퍼 고려 사항은 딱 들어맞는다.
TMVP와 ATMVP는 코딩된 화상(들)의 모든 샘플을 병치된 블록 및 하위 블록의 유도를 위해 코딩된 블록으로 나누는 미리 정의된 CTU CtbLog2SizeY의 크기를 사용한다.
부분 CTU를 생성할 수 있는 타일 경계를 사용하면, CTU 그리드가 일정하지 않으며 화상마다 다를 수 있고 도 9에 예시된 바와 같이 다양한 수의 CTU 행 사이에 겹침을 생성할 수 있다. 본 발명의 이 부분에서, 현재 화상의 CTU 그리드는 버퍼 관리 및 예측자 액세스를 구성하기 위해 참조 프레임에 부과된다. 즉, (화상 전체에 걸쳐 일정한 최대 CTU 크기와 반대로) 사용(병치)된 참조 화상에서 참조 영역을 선택하기 위해 현재 로컬 부분 CTU 차원 또는 크기가 적용된다.
TMVP의 경우, 본 발명의 일 실시예는 다음과 같다:
yTileStart 및 xTileStart는 현재 코딩 블록을 호스팅하는 주어진 타일의 왼쪽 상단 샘플 위치에 해당하고 yCbInTile 및 xCbInTile은 타일 시작 및 병치된 블록에 상대적인 현재 코딩 블록의 샘플 위치에 해당한다.
(차이점은 굵게 강조 표시됨):
yCbInTile = yCb-yTileStart
yColBrInTile = yColBr-yTileStart
및 CtbLog2HeightY(y)은 각각의 CTU 행의 높이를 기술함.
yCbInTile >> CtbLog2HeightY(yCbInTile)yColBrInTile >> CtbLog2HeightY(yCbInTile과 동일하고, yColBr은 pic_height_in_luma_samples보다 작고, xColBr은 pic_width_in_luma_samples보다 작으면,
오른쪽 하단에 병치된 예측자가 사용된다. 그렇지 않으면 중앙에 병치된 예측자가 사용된다.
ATMVP의 경우, 조정된 클리핑 동작 형태의 실시예는 다음과 같다:
ColPic 내부에 병치된 서브블록의 위치( xColSb, yColSb )는 다음과 같이 유도된다.
xColSb = Clip3( xCtb,
Min(CurPicWidthInSamplesY - 1, xCtb + (1 << CtbLog2WidthY(xCtb)) + 3),
xSb + (tempMv[0] >> 4))
yColSb = Clip3( yCtb,
Min(CurPicHeightInSamplesY - 1, yCtb + (1<< CtbLog2HeightY(yCtb)) - 1 ),
ySb + (tempMv[1] >> 4))
이하에서, 서브 화상 유닛 코딩 툴 제한 지시가 설명된다.
특히, 본 발명의 제 9 측면이 이하 상세히 설명된다:
이전의 비디오 코딩 표준에서, 서브 화상(예: 슬라이스 또는 타일) 유닛 코딩 제한은 다음과 같이 구분된다.
I_SLICE - 인트라 코딩, 일반적으로 랜덤 액세스 포인트는 다른 화상에 대한 참조를 사용하지 않는다.
P_SLICE - 예측 코딩. 움직임 보상 예측을 위해 하나의 참조 화상 목록에서 하나의 화상을 사용함.
B_SLICE - 두 개의 참조 화상 목록을 사용한 양방향 예측 코딩. 두 목록의 화상에서 움직임 보상 예측의 결합을 가능하게 함.
이 맥락에서 슬라이스 또는 타일이라는 용어는 상호 교환 가능하며, 즉, 비트스트림 내 연속적인 CTU의 그룹은 단일 코딩된 화상에 속하고 공동으로 엔트로피 코딩된다.
이 구별은 두 가지를 허용한다, 즉:
- 슬라이스 또는 타일 헤더 파싱으로부터 각각의 서브 화상의 파싱 및 디코딩 프로세스의 제어, 및
- B_SLICES와 같은 계산적으로 복잡한 유형의 이용을 금지하는 등에 의한 유형에 기반한 프로파일링.
유형의 표시는 각 유형과 관련된 제약 조건의 백으로 해석될 수도 있는데, 예를 들어 I_SLICE 유형은 가장 제한된 유형이며, P_SLICE 유형은 하나의 참조 화상을 사용하여 인터 예측을 포함하도록 제약 조건을 완화하며, B_SLICE 유형은 프리젠테이션 순서와 다른 화상의 비트스트림 순서를 허용함으로써 시간적으로 선행 및 후속하는 화상 모두로부터의 참조를 더욱 포함하도록 제약 조건을 완화한다.
다음과 같은 문제가 발생한다:
- I_SLICE 유형은 현재 코딩된 화상을 참조로 사용하는 "움직임" 보상 또는 번역 보상 블록 기반 예측과 같은 P_SLICE 유형인, "현재 화상 참조"를 포함할 수도 있다.
- P_SLICE는 더 이상 자주 사용되지 않으며 대부분 응용 프로그램에서 B_SLICE로 대체된다.
- 인터 예측은 두 개의 참조 프레임 사용을 넘어 발전했다.
위에서 언급한 현재 화상 참조는 전형적인 인트라 예측과 비교하여 디코딩 프로세스에 추가적인 복잡성을 부과한다. 전형적으로, 인트라 예측은, 보간을 통해, 예측된 블럭의 샘플 값을 생성하기 위해서, 현재 예측된 블록에 매우 근접한 현재 화상 내의 샘플 값, 예를 들어, 바로 인접하는 샘플, 또는 소위 다중 참조 라인 예측시, 바로 인접하는 샘플의 적은 수(예를 들어, 3)의 라인에 의존한다. 반면에 현재 화상 참조는 참조 블록의 샘플 값이 현재 블록 위치에 복사되는 비디오 시퀀스의 프레임 간 인터 예측에만 이전에 사용된 메커니즘에 의존하며, 여기서 예측자를 생성하기 위해 액세스되는 샘플의 양은 일반 인트라 예측보다 훨씬 높다. 첫째, 예측 변수 샘플은 비교되는 훨씬 적은 수의 액세스된 샘플에서 파생되는 것이 아니라, 적절한 움직임 벡터 또는 변위 정보를 유도하기 위한 인코더 측에서의 검색은 훨씬 더 크다. 더욱이, 참조 화상은 현재 화상의 더 큰 영역, 즉 참조용으로 복원된 영역의 가용성을 반영하기 위해 현재 화상의 디코딩 프로세스를 따라 업데이트되어야 한다.
본 발명의 일 실시예에서, 상기 유형 구별을 사용하는 대신에, 실제 부과된 툴 제약 조건이 (타일) 헤더에서 시그널링된다.
1) 현재 화상 이외의 참조 화상을 사용할 수 있는지 여부를 나타내는 플래그가 사용되어야 한다(인트라/인터 전환)
2) 플래그는 현재 화상 참조(현재 코딩된 화상을 사용한 인터 예측)의 사용을 나타내는 데 사용되어야 한다. 이는 인트라/인터 선택에 따라 시그널링될 수 있다.
3) 예측 과정에서 사용되는 참조 화상 목록의 수를 나타내기 위해 신택스 요소가 시그널링된다. 현재 화상 참조만 사용하는 경우, 이 신택스 요소는 1로 유추될 수 있다. 다른 경우에, 1의 값은 이전에 P_SLICE 유형이었던 것을 참조하는 반면, 2의 값은 이전 B_SLICE 유형을 나타낸다. 예를 들어 다중 가설 예측을 나타내기 위해 추가 값이 사용될 수 있다
예제 구문은 다음과 같을 수 있다:
tile_header( ) { Descriptor
[...]
current_picture_only_reference_flag u(1)
current_picture_inter_reference_flag u(1)
num_ref_pic_lists_active ue(v)
[...]
1과 동일한 current_picture_only_reference_flag는 현재 화상만을 참조로 사용하는 것이 허용됨을 나타낸다. 이것은 통상적인 I_SLICE 유형과 유사하다.
1과 동일한 current_picture_inter_reference_flag는 현재 화상이 인터 예측("현재 화상 참조" 또는 "인트라 블록 복사" 툴)에 이용 가능함을 나타낸다.
num_ref_pic_lists_active는 활성 참조 화상 목록의 개수를 나타낸다. current_picture_only_reference_flag가 1이고, current_picture_inter_reference_flag는 0과 같고, num_ref_pic_lists_active는 0으로 활성화되어야 한다(비트스트림에서 생략될 수 있음). current_picture_only_reference_flag가 0이면, 1인 num_ref_pic_lists_active는 P_SLICE와 유사한 타일 유형을 나타내고, 2인 num_ref_pic_lists_active는 B_SLICE와 유사한 타일 유형을 나타내고, 2보다 큰 num_ref_pic_lists_active는 예를 들어 다중 가설 인터 예측을 위해, 더 많은 참조 화상 목록의 사용을 나타내는 데 사용될 수 있다.
일부 측면들이 장치의 맥락에서 설명되었지만, 이러한 측면들은 또한 대응하는 방법의 설명을 나타내며, 여기서 블록 또는 장치는 방법 단계 또는 방법 단계의 특징에 대응한다. 유사하게, 방법 단계의 맥락에서 설명된 측면은 또한 대응하는 장치의 대응하는 블록 또는 항목 또는 특징의 설명을 나타낸다. 방법 단계들 중 일부 또는 전부는 예를 들어 마이크로 프로세서, 프로그램 가능한 컴퓨터 또는 전자 회로와 같은 하드웨어 장치에 의해(또는 사용하여) 실행될 수 있다. 일부 실시 예에서, 하나 이상의 가장 중요한 방법 단계가 그러한 장치에 의해 실행될 수 있다.
특정 구현 요구 사항에 따라, 본 발명의 실시 예는 하드웨어 또는 소프트웨어로, 또는 적어도 부분적으로 하드웨어로, 또는 적어도 부분적으로 소프트웨어로 구현될 수 있다. 구현은 각각의 방법이 수행되도록 프로그램 가능한 컴퓨터 시스템과 협력하는 (또는 협력할 수 있는) 전자적으로 판독 가능한 제어 신호가 저장되어 있는, 플로피 디스크, DVD, Blu-Ray, CD, ROM, PROM, EPROM, EEPROM 또는 FLASH 메모리와 같은 디지털 저장 매체를 사용하여 수행할 수 있다. 따라서, 디지털 저장 매체는 컴퓨터 판독 가능할 수 있다.
본 발명에 따른 일부 실시예는 전자적으로 판독 가능한 제어 신호를 갖는 데이터 캐리어를 포함하며, 이는 본 명세서에서 설명된 방법 중 하나가 수행되는 것과 같이, 프로그래밍 가능한 컴퓨터 시스템과 협력할 수 있다.
일반적으로, 본 발명의 실시 예는 프로그램 코드를 갖는 컴퓨터 프로그램 제품으로 구현될 수 있으며, 이 프로그램 코드는 컴퓨터 프로그램 제품이 컴퓨터에서 실행될 때 방법 중 하나를 수행하기 위해 작동한다. 프로그램 코드는 예를 들어 기계 판독 가능 캐리어에 저장될 수 있다.
다른 실시 예는 기계 판독 가능 캐리어에 저장된 본 명세서에 설명된 방법 중 하나를 수행하기 위한 컴퓨터 프로그램을 포함한다.
즉, 본 발명의 방법의 실시 예는 컴퓨터 프로그램은 컴퓨터에서 실행될 때,본 명세서에 설명된 방법 중 하나를 수행하기 위한 프로그램 코드를 갖는 컴퓨터 프로그램이다.
따라서 본 발명의 방법의 추가 실시 예는 데이터 캐리어(또는 디지털 저장 매체, 또는 컴퓨터 판독 가능 매체)에 기록되며, 컴퓨터 프로그램은 본 명세서에 설명된 방법 중 하나를 수행하기 위한 것이다. 데이터 매체, 디지털 저장 매체 또는 기록 매체는 일반적으로 유형적 및/또는 비 과도적이다.
따라서 본 발명의 방법의 추가 실시 예는 본 명세서에 설명된 방법 중 하나를 수행하기위한 컴퓨터 프로그램을 나타내는 데이터 스트림 또는 신호 시퀀스이다. 데이터 스트림 또는 신호 시퀀스는 예를 들어 데이터 통신 연결을 통해, 예를 들어 인터넷을 통해 전송되도록 구성될 수 있다.
추가 실시 예는 본 명세서에서 설명된 방법 중 하나를 수행하도록 구성되거나 적응된 처리 수단, 예를 들어 컴퓨터, 또는 프로그래밍 가능한 논리 장치를 포함한다.
추가 실시 예는 본 명세서에서 설명된 방법 중 하나를 수행하기 위한 컴퓨터 프로그램이 설치된 컴퓨터를 포함한다.
본 발명에 따른 추가 실시 예는 본 명세서에 설명된 방법 중 하나를 수행하기 위한 컴퓨터 프로그램을 수신기로 전송 (예를 들어, 전자적으로 또는 광학적으로)하도록 구성된 장치 또는 시스템을 포함한다. 수신기는 예를 들어 컴퓨터, 모바일 장치, 메모리 장치 등일 수 있다. 장치 또는 시스템은 예를 들어 컴퓨터 프로그램을 수신기로 전송하기 위한 파일 서버를 포함할 수 있다.
일부 실시 예에서, 프로그래밍 가능 논리 장치 (예를 들어, 필드 프로그래밍 가능 게이트 어레이)는 본 명세서에서 설명된 방법의 기능의 일부 또는 전부를 수행하는 데 사용될 수 있다. 일부 실시 예에서, 필드 프로그래밍 가능 게이트 어레이는 본 명세서에서 설명된 방법 중 하나를 수행하기 위해 마이크로 프로세서와 협력할 수 있다. 일반적으로, 방법은 바람직하게는 임의의 하드웨어 장치에 의해 수행된다.
본 명세서에 설명된 장치는 하드웨어 장치를 사용하거나, 컴퓨터를 사용하거나, 하드웨어 장치와 컴퓨터의 조합을 사용하여 구현될 수 있다.
본 명세서에 설명된 방법은 하드웨어 장치를 사용하거나, 컴퓨터를 사용하거나, 하드웨어 장치와 컴퓨터의 조합을 사용하여 수행될 수 있다.
전술한 실시 예는 본 발명의 원리에 대한 예시일 뿐이다. 본 명세서에 기술된 배열 및 세부 사항의 정정 및 변경은 당업자에게 명백할 것임이 이해된다. 따라서, 본 명세서의 실시 예의 설명 및 설명에 의해 제시된 특정 세부 사항이 아니라 임박한 특허 청구 범위에 의해서만 제한하고자 한다.
참조
[1] ISO/IEC, ITU-T. 고효율 비디오 코딩. ITU-T 권장 사항 H.265|ISO/IEC 23008 10(HEVC), 2013년 1판; 2014년 2판.

Claims (133)

  1. 인코딩된 비디오 신호를 생성하여 비디오의 복수의 화상을 인코딩하는 비디오 인코더(101)에 있어서, 상기 복수의 화상 각각은 원본 화상 데이터를 포함하고, 상기 비디오 인코더(101)는:
    인코딩된 화상 데이터를 포함하는 상기 인코딩된 비디오 신호를 생성하도록 구성된 데이터 인코더(110) - 상기 데이터 인코더는 상기 비디오의 상기 복수의 화상을 상기 인코딩된 화상 데이터로 인코딩하도록 구성됨 - ; 및
    상기 복수의 화상 각각의 상기 인코딩된 화상 데이터를 출력하도록 구성된 출력 인터페이스(120)
    를 포함하고,
    상기 복수의 화상의 각 화상에 대해, 상기 데이터 인코더(110)는 상기 화상을 상기 화상의 복수의 코딩 트리 유닛을 포함하는 복수의 타일로 분할하도록 구성되고, 상기 복수의 코딩 트리 유닛의 각 코딩 트리 유닛은 상기 화상의 복수의 샘플을 포함하고,
    상기 복수의 화상의 각 화상에 대해, 상기 화상의 상기 복수의 코딩 트리 유닛의 각 코딩 트리 유닛은 부분 유닛 또는 전체 유닛이고, 상기 코딩 트리 유닛의 샘플 수가 미리 정의된 샘플 수보다 작은 경우 상기 코딩 트리 유닛은 상기 부분 유닛이고, 상기 코딩 트리 유닛의 샘플 수가 상기 미리 정의된 샘플 수보다 작지 않은 경우 상기 코딩 트리 유닛은 전체 유닛이고,
    상기 데이터 인코더(110)는 상기 복수의 화상의 각 화상이 상기 화상의 상기 복수의 코딩 트리 유닛 중에서 동일한 제1 개수의 부분 유닛을 포함하도록 상기 복수의 화상 각각을 분할하도록 구성되고,
    상기 복수의 화상의 각 화상에 대해, 상기 데이터 인코더(110)는 상기 화상의 상기 복수의 타일 각각의 상기 원본 화상 데이터를 상기 화상의 상기 복수의 타일 중 임의의 다른 타일의 상기 원본 화상 데이터와 독립적으로 인코딩하도록 구성되는, 비디오 인코더(101).
  2. 제 1 항에 있어서, 상기 데이터 인코더(110)는 상기 복수의 화상의 각 화상의 상기 복수의 타일의 각 타일이 상기 타일의 상기 복수의 코딩 트리 유닛 중에서 동일한 제2 개수의 부분 유닛을 포함하도록 상기 복수의 화상의 각 화상을 복수의 타일로 분할하도록 구성되는, 비디오 인코더(101).
  3. 제 2 항에 있어서,
    상기 데이터 인코더(110)는 적어도 2개의 프로세서를 포함하고,
    상기 데이터 인코더(110)는 상기 적어도 2개의 프로세서 중 제 1 프로세서에 의해 상기 복수의 화상 중 하나의 상기 복수의 타일 중 제 1 타일의 상기 원본 화상 데이터를 인코딩하도록 구성되고,
    상기 데이터 인코더(110)는 상기 적어도 2개의 프로세서 중 제 2 프로세서에 의해 상기 복수의 화상 중 하나의 상기 복수의 타일 중 제 2 타일의 상기 원본 화상 데이터를 인코딩하도록 구성되고,
    상기 제 1 프로세서 및 상기 제 2 프로세서는 상기 제 1 프로세서가 상기 제 2 타일의 상기 원본 화상 데이터를 인코딩하는 상기 제 2 프로세서와 병렬로 상기 제 1 타일의 상기 원본 화상 데이터를 인코딩하도록 배열되는, 비디오 인코더(101).
  4. 제 1 항 내지 제 3 항 중 어느 한 항에 있어서, 상기 데이터 인코더(120)는 상기 인코딩된 비디오 신호가 상기 복수의 화상의 각 화상이 상기 화상의 상기 복수의 코딩 트리 유닛 중 동일한 제1 개수의 부분 유닛을 포함하는 것을 나타내는 플래그를 더 포함하도록 상기 인코딩된 비디오 신호를 생성하도록 구성되는, 비디오 인코더(101).
  5. 제 1 항 내지 제 4 항 중 어느 한 항에 있어서, 상기 복수의 화상 중 각각의 화상에 대해, 상기 데이터 인코더(110)는 상기 복수의 코딩 트리 유닛의 각 코딩 트리 유닛이 사전 정의된 샘플 수와 동일하거나 상기 사전 정의된 샘플 수보다 적은 상기 화상의 상기 샘플의 수를 포함하도록 상기 화상을 복수의 코딩 트리 유닛로 분할하도록 구성되는, 비디오 인코더(101).
  6. 인코딩된 비디오 신호를 생성하여 비디오의 복수의 화상을 인코딩하는 비디오 인코더(101)에 있어서, 상기 복수의 화상 각각은 원본 화상 데이터를 포함하고, 상기 비디오 인코더(101)는:
    인코딩된 화상 데이터를 포함하는 상기 인코딩된 비디오 신호를 생성하도록 구성된 데이터 인코더(110) - 상기 데이터 인코더는 상기 비디오의 상기 복수의 화상을 상기 인코딩된 화상 데이터로 인코딩하도록 구성됨 - ; 및
    상기 복수의 화상 각각의 상기 인코딩된 화상 데이터를 출력하도록 구성된 출력 인터페이스(120)
    를 포함하고,
    상기 복수의 화상의 각 화상에 대해, 상기 화상의 분할은 제 1 방식으로 상기 화상이 상기 화상의 복수의 코딩 트리 유닛을 포함하는 복수의 타일로 분할되는 방식을 정의하고, 상기 복수의 코딩 트리 유닛의 각 코딩 트리 유닛은 상기 화상의 복수의 샘플을 포함하고,
    상기 복수의 화상의 각 화상에 대해, 상기 데이터 인코더(110)는 상기 화상의 상기 복수의 타일 각각의 상기 복수의 코딩 트리 유닛 각각의 샘플의 수에 따라 복잡도 값을 결정하도록 구성되고,
    상기 복잡도 값이 복잡도 임계값보다 큰 경우, 상기 데이터 인코더(110)는 상기 화상의 상기 분할을 적응하도록 구성되고 상기 화상이 분할되는 방법을 다른 제2 방식으로 정의하도록 구성되며,
    상기 복수의 화상의 각 화상에 대해, 상기 데이터 인코더(110)는 상기 화상의 상기 분할에 따라, 상기 화상의 상기 복수의 타일 중 임의의 다른 타일의 상기 원본 화상 데이터와 독립적으로 상기 화상의 상기 복수의 타일 각각의 상기 원본 화상 데이터를 인코딩하도록 구성되는, 비디오 인코더(101).
  7. 제 6 항에 있어서, 상기 복수의 화상의 각 화상에 대해, 상기 데이터 인코더(110)는 상기 화상의 상기 복수의 타일 각각의 상기 복수의 코딩 트리 유닛의 각 코딩 트리 유닛에 대한 CTU 종속 값을 결정함으로써, 상기 복잡도 값을 결정하도록 구성되고, 상기 코딩 트리 유닛의 상기 CTU 종속 값은 상기 코딩 트리 유닛이 부분 유닛인지 또는 상기 코딩 트리 유닛이 전체 유닛인지 여부에 따라 달라지며,
    상기 코딩 트리 유닛의 샘플 수가 미리 정의된 샘플 수보다 작은 경우, 상기 코딩 트리 유닛은 부분 유닛이고,
    상기 코딩 트리 유닛의 샘플 수가 상기 미리 정의된 샘플 수보다 작지 않은 경우, 상기 코딩 트리 유닛은 전체 유닛인, 비디오 인코더(101).
  8. 제 7 항에 있어서, 미리 정의된 최소 크기는, 부분 유닛인 상기 복수의 화상 각각의 상기 복수의 코딩 트리 유닛 각각이 상기 화상의 상기 복수의 샘플의 상기미리 정의된 최소 크기를 적어도 포함하도록 존재하는, 비디오 인코더(101).
  9. 제 8 항에 있어서, 상기 부분 유닛인 상기 복수의 화상 각각의 상기 복수의 코딩 트리 유닛 각각은 최소 수평 샘플 길이 및 최소 수직 샘플 길이를 가지며, 상기 최소 수평 샘플 길이의 샘플의 수는 상기 최소 수직 샘플 길이의 샘플의 수와 동일한, 비디오 인코더(101).
  10. 제 7 항 내지 제 9 항 중 어느 한 항에 있어서, 상기 복수의 화상의 각 화상에 대해, 상기 데이터 인코더(110)는 상기 화상의 상기 복수의 타일의 상기 복수의 코딩 트리 유닛의 상기 CTU 종속 값을 추가함으로써 상기 복잡도 값을 결정하도록 구성되는, 비디오 인코더(101).
  11. 제 10 항에 있어서, 상기 복수의 화상의 각각의 화상에 대해, 상기 데이터 인코더(110)는 상기 화상의 상기 복수의 타일 각각의 상기 복수의 코딩 트리 유닛의 각 코딩 트리 유닛에 대한 상기 CTU 종속 값을 결정하도록 구성되므로,
    상기 코딩 트리 유닛이 전체 유닛인 경우, 상기 CTU 종속 값이 상기 코딩 트리 유닛의 샘플의 수에 따라 달라지고,
    상기 코딩 트리 유닛이 부분 유닛인 경우, 상기 CTU 종속 값이 상기 코딩 트리 유닛의 샘플 수에 따라 달라지고 복잡도 인자에 따라 더욱 달라지는, 비디오 인코더(101).
  12. 제 11 항에 있어서, 상기 복수의 화상의 각 화상에 대해, 상기 데이터 인코더(110)는 상기 화상의 상기 복수의 타일 각각의 상기 복수의 코딩 트리 유닛의 각 코딩 트리 유닛에 대한 상기 CTU 종속 값을 결정하도록 구성되므로,
    상기 코딩 트리 유닛이 전체 유닛인 경우, 상기 CTU 종속 값은 코딩 트리 유닛의 샘플 수이고,
    상기 코딩 트리 유닛이 부분 유닛인 경우, 상기 CTU 종속 값은 상기 복잡도 계수와 상기 코딩 트리 유닛의 샘플의 수의 곱이고, 상기 복잡도 계수는 0과 다른 스칼라 값인, 비디오 인코더(101).
  13. 제 10 항에 있어서, 상기 복수의 화상의 각각의 화상에 대해, 상기 데이터 인코더(110)는 상기 화상의 상기 복수의 타일 각각의 상기 복수의 코딩 트리 유닛의 각 코딩 트리 유닛에 대한 상기 CTU 종속 값을 결정하도록 구성되므로,
    상기 코딩 트리 유닛이 전체 유닛인 경우, 상기 CTU 종속 값은 상기 코딩 트리 유닛의 샘플 수에 따라 달라지고,
    상기 코딩 트리 유닛이 부분 유닛인 경우, 상기 CTU 종속 값은 전체 유닛인 상기 복수의 코딩 트리 유닛 중 다른 것의 상기 CUT 종속 값과 동일한, 비디오 인코더(101).
  14. 인코딩된 비디오 신호를 생성하여 비디오의 복수의 화상을 인코딩하는 비디오 인코더(101)에 있어서, 상기 복수의 화상 각각은 원본 화상 데이터를 포함하고, 상기 비디오 인코더(101)는:
    인코딩된 화상 데이터를 포함하는 상기 인코딩된 비디오 신호를 생성하도록 구성된 데이터 인코더(110) - 상기 데이터 인코더는 상기 비디오의 상기 복수의 화상을 상기 인코딩된 화상 데이터로 인코딩하도록 구성됨 - ; 및
    상기 복수의 화상 각각의 상기 인코딩된 화상 데이터를 출력하도록 구성된 출력 인터페이스(120)
    를 포함하고,
    상기 복수의 화상의 각 화상에 대해, 상기 화상은 상기 화상의 복수의 코딩 트리 유닛을 포함하는 복수의 타일로 분할되고, 상기 복수의 코딩 트리 유닛의 각 코딩 트리 유닛은 상기 화상의 복수의 샘플을 포함하고,
    상기 복수의 화상의 각 화상에 대해, 상기 화상의 상기 복수의 타일 각각의 상기 복수의 코딩 트리 유닛의 각 코딩 트리 유닛은 부분 유닛 또는 전체 유닛이고, 상기 코딩 트리 유닛의 샘플 수가 미리 정의된 샘플 수보다 작은 경우 상기 코딩 트리 유닛은 상기 부분 유닛이고, 상기 코딩 트리 유닛의 샘플 수가 상기 미리 정의된 샘플 수보다 작지 않은 경우 상기 코딩 트리 유닛은 전체 유닛이고,
    상기 복수의 화상의 각 화상에 대해, 상기 데이터 인코더(110)는 상기 화상의 상기 복수의 타일 중 임의의 다른 타일의 상기 원본 화상 데이터와 독립적으로 상기 화상의 상기 복수의 타일 각각의 상기 원본 화상 데이터를 인코딩하도록 구성되고,
    상기 데이터 인코더(110)는 상기 인코딩된 비디오 신호가 상기 복수의 화상 중 하나의 화상의 상기 복수의 타일 중 하나의 타일의 상기 복수의 코딩 트리 유닛 중 부분 유닛인 상기 코딩 트리 유닛의 수에 대한 정보를 제공하는 표시 데이터를 더 포함하도록 상기 인코딩된 비디오 신호를 생성하도록 구성되는, 비디오 인코더(101).
  15. 제 14 항에 있어서, 상기 표시 데이터는 상기 타일의 상기 복수의 코딩 트리 유닛 중 상기 부분 유닛인 상기 코딩 트리 유닛의 최대 개수를 나타내는, 비디오 인코더(101).
  16. 제 13 항에 있어서, 상기 타일의 상기 복수의 코딩 트리 유닛 중 상기 부분 유닛인 상기 코딩 트리 유닛의 최대 개수는 최대 타일 크기에 의존하는, 비디오 인코더(101).
  17. 제 15 항 또는 제 16 항에 있어서, 상기 타일의 상기 복수의 코딩 트리 유닛 중 상기 부분 유닛인 상기 코딩 트리 유닛의 최대 개수는 전체 유닛인 상기 복수의 코딩 트리 유닛 중 하나의 제 1 개수의 샘플에 의존하고, - 상기 제 1 개수는 상기 미리 정의된 샘플 개수임 - 부분 유닛인 상기 복수의 코딩 트리 유닛 중 다른 하나의 제 2 개수의 샘플에 더욱 의존하는, 비디오 인코더(101).
  18. 제 14 항 내지 제 17 항 중 어느 한 항에 있어서, 상기 표시 데이터는 상기 타일의 상기 복수의 코딩 트리 유닛 중 상기 부분 유닛인 상기 코딩 트리 유닛의 상대적인 양을 나타내는, 비디오 인코더(101).
  19. 인코딩된 비디오 신호를 생성하여 비디오의 복수의 화상을 인코딩하는 비디오 인코더(101)에 있어서, 상기 복수의 화상 각각은 원본 화상 데이터를 포함하고, 상기 비디오 인코더(101)는:
    인코딩된 화상 데이터를 포함하는 상기 인코딩된 비디오 신호를 생성하도록 구성된 데이터 인코더(110) - 상기 데이터 인코더는 상기 비디오의 상기 복수의 화상을 상기 인코딩된 화상 데이터로 인코딩하도록 구성됨 - ; 및
    상기 복수의 화상 각각의 상기 인코딩된 화상 데이터를 출력하도록 구성된 출력 인터페이스(120)
    를 포함하고,
    상기 복수의 화상의 각 화상에 대해, 상기 데이터 인코더(110)는 상기 화상을 상기 화상의 복수의 코딩 트리 유닛을 포함하는 복수의 타일로 분할하도록 구성되고, 상기 복수의 코딩 트리 유닛의 각 코딩 트리 유닛은 상기 화상의 복수의 샘플을 포함하고, 상기 화상의 상기 복수의 타일 각각의 상기 복수의 코딩 트리 유닛의 각 코딩 트리 유닛에 대해, 상기 코딩 트리 유닛은 부분 유닛 또는 전체 유닛이고, 상기 코딩 트리 유닛의 샘플 수가 미리 정의된 샘플 수보다 작은 경우 상기 코딩 트리 유닛은 상기 부분 유닛이고, 상기 코딩 트리 유닛의 샘플 수가 상기 미리 정의된 샘플 수보다 작지 않은 경우 상기 코딩 트리 유닛은 전체 유닛이고,
    상기 복수의 화상 중 적어도 2개의 화상에 대해, 상기 데이터 인코더(110)는 상기 적어도 2개의 화상이 동일한 부분 대 전체 유닛 비율을 갖도록 상기 화상을 분할하도록 구성되고, 상기 부분 유닛 대 전체 유닛 비율은 상기 복수의 화상 중 하나에 대해, 전체 유닛인 상기 화상의 상기 코딩 트리 유닛의 수에 대한 부분 유닛인 상기 화상의 상기 코딩 트리 유닛의 수의 비율을 정의하고,
    상기 복수의 화상의 각 화상에 대해, 상기 데이터 인코더(110)는 상기 화상의 상기 복수의 타일 중 임의의 다른 타일의 상기 원본 화상 데이터와 독립적으로 상기 화상의 상기 복수의 타일 각각의 상기 원본 화상 데이터를 인코딩하도록 구성되는, 비디오 인코더(101).
  20. 제 19 항에 있어서, 상기 복수의 화상 각각에 대해, 상기 데이터 인코더(110)는 상기 복수의 화상 각각이 임계값보다 작은 상기 부분 대 전체 유닛 비율을 갖도록 상기 화상을 분할하도록 구성되는, 비디오 인코더(101).
  21. 제 19 항 또는 제 20 항에 있어서, 상기 임계 값은 1인, 비디오 인코더(101).
  22. 제 19 항 내지 제 21 항 중 어느 한 항에 있어서, 상기 복수의 화상 각각에 대해, 상기 데이터 인코더(110)는 상기 복수의 화상이 상기 동일한 부분 대 전체 유닛 비율을 갖도록 상기 화상을 분할하도록 구성되는, 비디오 인코더(101).
  23. 제 1 항 내지 제 5 항 중 어느 한 항 또는 제 7 항 내지 제 22 항 중 어느 한 항에 있어서, 상기 복수의 화상의 각 화상의 상기 복수의 타일 각각의 타일에 대해, 부분 유닛인 상기 타일의 코딩 트리 유닛은 상기 타일의 하단 경계 또는 오른쪽 경계에만 나타나는, 비디오 인코더(101).
  24. 인코딩된 비디오 신호를 생성하여 비디오의 복수의 화상을 인코딩하는 비디오 인코더(101)에 있어서, 상기 복수의 화상 각각은 원본 화상 데이터를 포함하고, 상기 비디오 인코더(101)는:
    인코딩된 화상 데이터를 포함하는 상기 인코딩된 비디오 신호를 생성하도록 구성된 데이터 인코더(110) - 상기 데이터 인코더는 상기 비디오의 상기 복수의 화상을 상기 인코딩된 화상 데이터로 인코딩하도록 구성됨 - ; 및
    상기 복수의 화상 각각의 상기 인코딩된 화상 데이터를 출력하도록 구성된 출력 인터페이스(120)
    를 포함하고,
    상기 복수의 화상의 각 화상에 대해, 상기 데이터 인코더(110)는 상기 화상을 상기 화상의 복수의 코딩 트리 유닛을 포함하는 복수의 타일로 분할하도록 구성되고, 상기 복수의 코딩 트리 유닛의 각 코딩 트리 유닛은 상기 화상의 복수의 샘플을 포함하고, 상기 화상 내에 위치를 갖고,
    상기 복수의 화상은 현재 화상과 참조 화상을 포함하고,
    상기 현재 화상의 상기 코딩 트리 유닛의 각 코딩 트리 유닛에 대해, 상기 참조 화상의 상기 복수의 코딩 트리 유닛 중 다른 코딩 트리 유닛이 존재하는 경우, 상기 코딩 트리 유닛은 바르게 정렬되고, 상기 참조 화상 내의 상기 다른 코딩 트리 유닛의 위치가 현재 화상 내의 상기 코딩 트리 유닛의 위치와 동일하고,
    상기 현재 화상의 상기 코딩 트리 유닛의 각 코딩 트리 유닛에 대해, 상기 참조 화상의 상기 복수의 코딩 트리 유닛 중 다른 코딩 트리 유닛이 존재하지 않는 경우, 상기 코딩 트리 유닛이 오정렬되고, 상기 참조 화상 내의 위치는 상기 현재 화상 내의 상기 코딩 트리 유닛의 위치와 동일하고,
    상기 데이터 인코더(110)는 오정렬된 상기 현재 화상의 상기 코딩 트리 유닛과 바르게 정렬된 현재 화상의 코딩 트리 유닛 간의 비율이 임계값보다 크지 않도록 상기 현재 화상을 상기 복수의 타일로 분할하도록 구성되고,
    상기 복수의 화상의 각 화상에 대해, 상기 데이터 인코더(110)는 상기 화상의 상기 복수의 타일 각각의 상기 원본 화상 데이터를 상기 화상의 상기 복수의 타일 중 임의의 다른 타일의 상기 원본 화상 데이터와 독립적으로 인코딩하도록 구성되는, 비디오 인코더(101).
  25. 제 24 항에 있어서, 상기 화상의 상기 복수의 타일 각각의 상기 복수의 코딩 트리 유닛의 각각의 코딩 트리 유닛에 대해, 상기 코딩 트리 유닛은 부분 유닛 또는 전체 유닛이고, 상기 코딩 트리 유닛의 샘플의 수가 미리 정의된 샘플 수보다 작은 경우, 상기 코딩 트리 유닛은 상기 부분 유닛이고, 상기 코딩 트리 유닛의 샘플 수가 상기 미리 정의된 샘플 수보다 작지 않은 경우, 상기 코딩 트리 유닛은 상기 전체 유닛이고,
    상기 복수의 코딩 트리 유닛 중 두 개 이상은 상기 전체 유닛이고 상기 복수의 코딩 트리 유닛 중 적어도 하나는 상기 부분 유닛인, 비디오 인코더(101).
  26. 제 24 항 또는 제 25 항에 있어서, 상기 데이터 인코더(110)는 상기 임계 값을 포함하는 비트스트림을 수신하도록 구성되는, 비디오 인코더(101).
  27. 제 24 항 내지 제 26 항 중 어느 한 항에 있어서, 상기 임계 값은 1 보다 작은, 비디오 인코더(101).
  28. 인코딩된 비디오 신호를 생성하여 비디오의 복수의 화상을 인코딩하는 비디오 인코더(101)에 있어서, 상기 복수의 화상 각각은 원본 화상 데이터를 포함하고, 상기 비디오 인코더(101)는:
    인코딩된 화상 데이터를 포함하는 상기 인코딩된 비디오 신호를 생성하도록 구성된 데이터 인코더(110) - 상기 데이터 인코더는 상기 비디오의 상기 복수의 화상을 상기 인코딩된 화상 데이터로 인코딩하도록 구성됨 - ; 및
    상기 복수의 화상 각각의 상기 인코딩된 화상 데이터를 출력하도록 구성된 출력 인터페이스(120)
    를 포함하고,
    상기 복수의 화상의 각 화상에 대해, 상기 데이터 인코더(110)는 복수의 타일의 각 타일에 대해 복수의 타일 경계를 정의하여 상기 화상을 상기 화상의 복수의 코딩 트리 유닛을 포함하는 상기 복수의 타일로 분할하도록 구성되고, 상기 복수의 화상의 각 화상의 상기 복수의 코딩 트리 유닛의 각 코딩 트리 유닛은 상기 화상의 복수의 샘플을 포함하고,
    상기 복수의 화상의 각 화상에 대해, 상기 데이터 인코더(110)는 상기 화상의 상기 복수의 타일 중 각 타일의 상기 복수의 타일 경계에 따라, 상기 타일의 상기 원본 화상 데이터를 상기 화상의 상기 복수의 타일 중 임의의 다른 타일의 상기 원본 화상 데이터와 독립적으로 인코딩하도록 구성되고,
    상기 복수의 화상 각각의 상기 복수의 타일 각각의 상기 복수의 타일 경계의 각 타일 경계는 제 1 세트의 타일 경계에 할당되거나 제 2 세트의 타일 경계에 할당되고,
    상기 데이터 인코더(110)는, 상기 타일 경계가 상기 제 1 세트의 타일 경계에 할당된 경우, 상기 원본 화상 데이터를 인코딩할 때, 상기 복수의 화상 중 하나의 화상의 상기 복수의 타일 중 제1 타일의 상기 복수의 타일 경계 중 제1 타일 경계에서 인코딩 스캔 순서를 변경하도록 구성되고,
    상기 데이터 인코더(110)는, 상기 타일 경계가 상기 제 2 세트의 타일 경계에 할당된 경우, 상기 원본 화상 데이터를 인코딩할 때, 상기 복수의 화상 중 하나의 화상의 상기 복수의 타일 중 제2 타일의 상기 복수의 타일 경계의 제2 타일 경계에서 상기 인코딩 스캔 순서를 변경하지 않도록 구성되는, 비디오 인코더(101).
  29. 제 28 항에 있어서,
    상기 데이터 인코더(110)는 상기 타일 경계가 상기 제 1 세트의 타일 경계에 할당된 경우, 상기 원본 화상 데이터를 인코딩할 때, 상기 복수의 화상 중 하나의 화상의 상기 복수의 타일 중 제3 타일의 상기 복수의 타일 경계 중 제3 타일 경계에서 인트라 예측 제약 조건을 적용하도록 구성되고,
    상기 데이터 인코더(110)는 상기 타일 경계가 상기 제 2 세트의 타일 경계에 할당된 경우, 상기 원본 화상 데이터를 인코딩할 때, 상기 복수의 화상 중 하나의 화상의 상기 복수의 타일 중 제4 타일의 상기 복수의 타일 경계의 제4 타일 경계에서 상기 인트라 예측 제약 조건을 적용하지 않도록 구성되는, 비디오 인코더(101).
  30. 제 29 항에 있어서,
    상기 데이터 인코더(110)는 상기 타일 경계가 상기 제 1 세트의 타일 경계에 할당되면, 상기 원본 화상 데이터를 인코딩할 때, 상기 복수의 화상 중 하나의 화상의 상기 복수의 타일 중 제5 타일의 상기 복수의 타일 경계 중 제5 타일 경계에서 엔트로피 코딩 재설정을 수행하도록 구성되고,
    상기 데이터 인코더(110)는 상기 타일 경계가 상기 제 2 세트의 타일 경계에 할당된 경우, 상기 원본 화상 데이터를 인코딩할 때, 상기 복수의 화상 중 하나의 화상의 상기 복수의 타일 중 제6 타일의 상기 복수의 타일 경계 중 제6 타일 경계에서 상기 엔트로피 코딩 재설정을 수행하지 않도록 구성되는, 비디오 인코더(101).
  31. 제 28 항 내지 제 30 항 중 어느 한 항에 있어서,
    상기 복수의 화상의 각 화상의 상기 복수의 코딩 트리 유닛의 각각의 코딩 트리 유닛은 상기 화상 내의 위치를 갖고,
    상기 복수의 화상은 현재 화상 및 참조 화상을 포함하고,
    상기 현재 화상의 상기 코딩 트리 유닛의 각 코딩 트리 유닛에 대해, 상기 참조 화상의 상기 복수의 코딩 트리 유닛 중 다른 코딩 트리 유닛이 존재하는 경우, 상기 코딩 트리 유닛이 바르게 정렬되고, 상기 참조 화상 내의 상기 다른 코딩 트리 유닛의 위치가 상기 현재 화상 내의 상기 코딩 트리 유닛의 위치와 동일하고,
    상기 현재 화상의 상기 코딩 트리 유닛의 각각의 코딩 트리 유닛에 대해, 상기 참조 화상의 상기 복수의 코딩 트리 유닛 중 다른 코딩 트리 유닛이 존재하지 않는 경우, 상기 코딩 트리 유닛이 오정렬되고, 상기 참조 화상 내의 위치는 상기 현재 화상 내의 상기 코딩 트리 유닛의 위치와 동일하고,
    상기 데이터 인코더(110)는 상기 현재 화상의 상기 코딩 트리 유닛의 절반 이상이 바르게 정렬되고 상기 현재 화상의 상기 코딩 트리 유닛의 절반 미만이 오정렬되도록 상기 현재 화상을 상기 복수의 타일로 분할하도록 구성되는, 비디오 인코더(101).
  32. 제 31 항에 있어서,
    상기 하나 이상의 후속 화상의 각 화상에 대해, 상기 데이터 인코더(110)는 상기 화상의 상기 모든 코딩 트리 유닛이 바르게 정렬되고, 상기 화상의 상기 코딩 트리 유닛 중 어느 것도 오정렬되지 않도록 상기 화상을 상기 복수의 타일로 분할하도록 구성되는, 비디오 인코더(101).
  33. 인코딩된 비디오 신호를 생성하여 비디오의 복수의 화상을 인코딩하는 비디오 인코더(101)에 있어서, 상기 복수의 화상 각각은 원본 화상 데이터를 포함하고, 상기 비디오 인코더(101)는:
    인코딩된 화상 데이터를 포함하는 상기 인코딩된 비디오 신호를 생성하도록 구성된 데이터 인코더(110) - 상기 데이터 인코더는 상기 비디오의 상기 복수의 화상을 상기 인코딩된 화상 데이터로 인코딩하도록 구성됨 - ; 및
    상기 복수의 화상 각각의 상기 인코딩된 화상 데이터를 출력하도록 구성된 출력 인터페이스(120)
    를 포함하고,
    상기 복수의 화상의 각 화상에 대해, 상기 데이터 인코더(110)는 상기 화상을 상기 화상의 복수의 코딩 트리 유닛을 포함하는 복수의 타일로 분할하도록 구성되고, 상기 복수의 코딩 트리 유닛의 각 코딩 트리 유닛은 상기 화상의 복수의 샘플을 포함하고, 상기 화상 내에 위치를 갖고,
    상기 복수의 화상은 현재 화상과 참조 화상을 포함하고,
    상기 현재 화상의 상기 코딩 트리 유닛의 각 코딩 트리 유닛에 대해, 상기 참조 화상의 상기 복수의 코딩 트리 유닛 중 다른 코딩 트리 유닛이 존재하는 경우, 상기 코딩 트리 유닛은 바르게 정렬되고, 상기 참조 화상 내의 상기 다른 코딩 트리 유닛의 위치가 현재 화상 내의 상기 코딩 트리 유닛의 위치와 동일하고,
    상기 현재 화상의 상기 코딩 트리 유닛의 각 코딩 트리 유닛에 대해, 상기 참조 화상의 상기 복수의 코딩 트리 유닛 중 다른 코딩 트리 유닛이 존재하지 않는 경우, 상기 코딩 트리 유닛은 오정렬되고, 상기 참조 화상 내의 위치는 상기 현재 화상 내의 상기 코딩 트리 유닛의 위치와 동일하고,
    상기 현재 화상의 상기 복수의 코딩 트리 유닛은 상기 현재 화상의 상기 복수의 코딩 트리 유닛이 상기 현재 화상의 코딩 트리 유닛의 하나 이상의 행을 형성하도록 상기 현재 화상 내에 배열되고,
    상기 데이터 인코더(110)는 상기 현재 화상의 상기 하나 이상의 행 중에서 상기 행의 임의의 코딩 트리 유닛이 오정렬되는 어떤 행도 존재하고 있지 않도록 상기 현재 화상을 분할하도록 구성되고 ,
    상기 데이터 인코더(110)는 상기 현재 화상의 상기 복수의 타일 각각의 상기 원본 화상 데이터를 상기 현재 화상의 상기 복수의 타일 중 임의의 다른 타일의 상기 원본 화상 데이터와 독립적으로 인코딩하도록 구성되는, 비디오 인코더(101).
  34. 제 33 항에 있어서, 상기 데이터 인코더(110)는 상기 인코딩된 비디오 신호가 상기 화상의 상기 하나 이상의 행 중에서 상기 행의 임의의 코딩 트리 유닛이 오정렬되는 어떤 행도 존재하지 않는다는 표시를 포함하도록 상기 인코딩된 비디오 신호를 생성하도록 구성되는, 비디오 인코더(101).
  35. 인코딩된 비디오 신호를 생성하여 비디오의 복수의 화상을 인코딩하는 비디오 인코더(101)에 있어서, 상기 복수의 화상 각각은 원본 화상 데이터를 포함하고, 상기 비디오 인코더(101)는:
    인코딩된 화상 데이터를 포함하는 상기 인코딩된 비디오 신호를 생성하도록 구성된 데이터 인코더(110) - 상기 데이터 인코더는 상기 비디오의 상기 복수의 화상을 상기 인코딩된 화상 데이터로 인코딩하도록 구성됨 - ; 및
    상기 복수의 화상 각각의 상기 인코딩된 화상 데이터를 출력하도록 구성된 출력 인터페이스(120)
    를 포함하고,
    상기 복수의 화상의 각 화상에 대해, 상기 데이터 인코더(110)는 상기 화상을 상기 화상의 복수의 코딩 트리 유닛을 포함하는 복수의 타일로 분할하도록 구성되고, 상기 복수의 코딩 트리 유닛의 각 코딩 트리 유닛은 상기 화상의 복수의 샘플을 포함하고 상기 화상 내에 위치를 갖고,
    상기 복수의 화상은 현재 화상과 참조 화상을 포함하고, 상기 참조 화상은 상기 현재 화상에 시간상 앞서고,
    상기 데이터 인코더(110)는 상기 참조 화상의 움직임 벡터에 따라 및 상기 현재 화상이 분할되는 방법에 따라 상기 현재 화상의 움직임 벡터를 결정하도록 구성되고,
    상기 데이터 인코더(110)는 상기 현재 화상의 상기 움직임 벡터에 따라, 상기 화상의 상기 복수의 타일 중 임의의 다른 타일의 상기 원본 화상 데이터와 독립적으로 상기 현재 화상의 상기 복수의 타일 각각의 상기 원본 화상 데이터를 인코딩하도록 구성되는, 비디오 인코더(101).
  36. 제 35 항에 있어서, 상기 데이터 인코더(110)는 상기 현재 화상의 상기 움직임 벡터의 위치와 상기 현재 화상이 분할되는 방법에 따라, 상기 참조 화상 내의 제1 위치에서 제1 움직임 벡터 예측자 또는 상기 참조 화상 내의 제2 위치에서 제2 움직임 벡터 예측자를 선택함으로써 상기 현재 화상의 상기 움직임 벡터를 결정하도록 구성되는, 비디오 인코더(101).
  37. 제 36 항에 있어서,
    상기 현재 화상의 상기 코딩 트리 유닛의 각 코딩 트리 유닛에 대해, 상기 참조 화상의 상기 복수의 코딩 트리 유닛 중 다른 코딩 트리 유닛이 존재하지 않는 경우, 상기 현재 화상 내의 상기 코딩 트리 유닛의 위치와 동일한 상기 참조 화상 내의 위치를 갖는 상기 코딩 트리 유닛은 오정렬되고,
    상기 현재 화상의 상기 복수의 코딩 트리 유닛 중 적어도 2개의 코딩 트리 유닛은 오정렬되는, 비디오 인코더(101).
  38. 제 35 항에 있어서,
    상기 데이터 인코더(110)는,
    상기 현재 화상이 분할되는 방법에 따라 상기 참조 화상의 관련 블록의 위치를 결정하고,
    상기 현재 블록의 상기 움직임 벡터의 위치에 따라 상기 참조 화상의 움직임 벡터 예측자의 위치를 결정하고,
    상기 현재 화상이 분할되는 방법에 따라 상기 참조 화상의 상기 움직임 벡터 예측자의 위치를 적응시키도록 상기 참조 화상의 상기 움직임 벡터 예측자의 위치에 클리핑 연산을 적용하여,
    상기 현재 화상의 움직임 벡터를 결정하도록 구성되는, 비디오 인코더(101).
  39. 제 24 항 내지 제 38 항 중 어느 한 항에 있어서,
    상기 복수의 화상의 각 화상에 대해, 상기 화상의 상기 복수의 코딩 트리 유닛의 각 코딩 트리 유닛은 부분 유닛 또는 전체 유닛이고, 상기 코딩 트리 유닛의 샘플 수가 미리 정의된 샘플 수보다 작은 경우 상기 코딩 트리 유닛은 상기 부분 유닛이고, 상기 코딩 트리 유닛의 샘플 수가 상기 미리 정의된 샘플 수보다 작지 않은 경우 상기 코딩 트리 유닛은 전체 유닛이고,
    상기 복수의 화상의 각 화상의 상기 복수의 타일의 각각의 타일에 대해, 부분 유닛인 상기 타일의 코딩 트리 유닛은 상기 타일의 하단 경계 또는 오른쪽 경계에만 나타나는, 비디오 인코더(101).
  40. 인코딩된 비디오 신호를 생성하여 비디오의 복수의 화상을 인코딩하는 비디오 인코더(101)에 있어서, 상기 복수의 화상 각각은 원본 화상 데이터를 포함하고, 상기 비디오 인코더(101)는:
    인코딩된 화상 데이터를 포함하는 상기 인코딩된 비디오 신호를 생성하도록 구성된 데이터 인코더(110) - 상기 데이터 인코더는 상기 비디오의 상기 복수의 화상을 상기 인코딩된 화상 데이터로 인코딩하도록 구성됨 - ; 및
    상기 복수의 화상 각각의 상기 인코딩된 화상 데이터를 출력하도록 구성된 출력 인터페이스(120)
    를 포함하고,
    상기 복수의 화상의 각 화상에 대해, 상기 데이터 인코더(110)는 상기 화상을 상기 화상의 복수의 코딩 트리 유닛을 포함하는 복수의 타일로 분할하도록 구성되고, 상기 복수의 코딩 트리 유닛의 각 코딩 트리 유닛은 상기 화상의 복수의 샘플을 포함하고,
    상기 복수의 화상의 각각의 화상에 대해, 상기 데이터 인코더(110)는 상기 화상의 상기 복수의 타일 각각의 원본 화상 데이터를 인코딩하도록 구성되고,
    상기 데이터 인코더(110)는 상기 인코딩된 비디오 신호가 상기 복수의 화상의 현재 화상에 대해 상기 현재 화상과 상이한 상기 복수의 화상의 참조 화상이 상기 현재 화상을 인코딩하는 데 사용되었는지 여부를 나타내는 제1 플래그를 더 포함하도록 상기 인코딩된 비디오 신호를 생성하도록 구성되는, 비디오 인코더(101).
  41. 제 40 항에 있어서, 상기 데이터 인코더(110)는 상기 인코딩된 비디오 신호가 상기 현재 화상 참조가 사용되는지 여부를 나타내는 제2 플래그를 더 포함하도록 상기 인코딩된 비디오 신호를 생성하도록 구성되고, 상기 현재 화상 참조를 사용하는 단계는 상기 복수의 화상 중 하나의 화상의 참조 블록을 상기 참조 블록과 상이한, 상기 화상의 현재 블록에 복사하는 단계를 포함하는, 비디오 인코더(101).
  42. 제 40 항 또는 제 41 항에 있어서, 상기 데이터 인코더(110)는 상기 인코딩된 비디오 신호가 예측에 사용되는 참조 화상 목록의 수를 표시하는 신택스 요소를 더 포함하도록 상기 인코딩된 비디오 신호를 생성하도록 구성되는, 비디오 인코더(101).
  43. 제 42 항에 있어서, 상기 데이터 인코더(110)는 예측에 사용되는 상기 참조 화상 목록의 수를 나타내는 상기 신택스 요소를 상이한 값이 아닌, 값 0 또는 값 1 또는 값 2로, 설정하도록 구성되는, 비디오 인코더(101).
  44. 제 42 항에 있어서, 상기 데이터 인코더(110)는 예측에 사용되는 상기 참조 화상 목록의 수를 나타내는 상기 신택스 요소를 값 0 또는 값 1 또는 값 2 또는 2보다 큰 정수 값으로 설정하도록 구성되는, 비디오 인코더(101).
  45. 비디오의 복수의 화상을 복원하기 위해 인코딩된 화상 데이터를 포함하는 인코딩된 비디오 신호를 디코딩하기 위한 비디오 디코더(151)에 있어서, 상기 비디오 디코더(151)는:
    상기 인코딩된 비디오 신호를 수신하도록 구성된 입력 인터페이스(160), 및
    상기 인코딩된 화상 데이터를 디코딩하여 상기 비디오의 상기 복수의 화상을 복원하도록 구성된 데이터 디코더(170)
    를 포함하고,
    상기 복수의 화상의 각 화상에 대해, 상기 화상은 상기 화상의 복수의 코딩 트리 유닛을 포함하는 복수의 타일로 분할되고, 상기 복수의 코딩 트리 유닛의 각 코딩 트리 유닛은 상기 화상의 복수의 샘플을 포함하고,
    상기 복수의 화상의 각 화상에 대해, 상기 화상의 상기 복수의 코딩 트리 유닛의 각 코딩 트리 유닛은 부분 유닛 또는 전체 유닛이고, 상기 코딩 트리 유닛의 샘플 수가 미리 정의된 샘플 수보다 작은 경우 상기 코딩 트리 유닛은 상기 부분 유닛이고, 상기 코딩 트리 유닛의 샘플 수가 상기 미리 정의된 샘플 수보다 작지 않은 경우 상기 코딩 트리 유닛은 전체 유닛이고,
    상기 복수의 화상 각각은 상기 화상의 상기 복수의 코딩 트리 유닛 중에서 동일한 제1 개수의 부분 유닛을 포함하도록 분할되고,
    상기 복수의 화상의 각 화상에 대해, 상기 데이터 디코더(170)는 상기 화상의 상기 복수의 타일 각각의 상기 인코딩된 화상 데이터를 상기 화상의 상기 복수의 타일 중 임의의 다른 타일의 상기 인코딩된 화상 데이터와 독립적으로 디코딩하도록 구성되는, 비디오 디코더(151).
  46. 제 45 항에 있어서, 상기 복수의 화상의 각 화상은, 상기 상기 복수의 화상의 각 화상의 상기 복수의 타일의 각 타일이 상기 타일의 상기 복수의 코딩 트리 유닛 중에서 동일한 제2 개수의 부분 유닛을 포함하도록 상기 복수의 타일로 분할되는, 비디오 디코더(151).
  47. 제 46 항에 있어서,
    상기 데이터 디코더(170)는 적어도 2개의 프로세서를 포함하고,
    상기 데이터 디코더(170)는 상기 적어도 2개의 프로세서 중 제 1 프로세서에 의해 상기 복수의 화상 중 하나의 상기 복수의 타일 중 제 1 타일의 상기 인코딩된 화상 데이터를 디코딩하도록 구성되고,
    상기 데이터 디코더(170)는 상기 적어도 2개의 프로세서 중 제 2 프로세서에 의해 상기 복수의 화상 중 하나의 상기 복수의 타일 중 제 2 타일의 상기 인코딩 화상 데이터를 디코딩하도록 구성되고,
    상기 제 1 프로세서 및 상기 제 2 프로세서는 상기 제 1 프로세서가 상기 제 2 타일의 상기 인코딩된 화상 데이터를 디코딩하는 상기 제 2 프로세서와 병렬로 상기 제 1 타일의 상기 인코딩된 화상 데이터를 디코딩하도록 배열되는, 비디오 디코더(151).
  48. 제 45 항 내지 제 47 항 중 어느 한 항에 있어서, 상기 인코딩된 비디오 신호는 상기 복수의 화상의 각 화상이 상기 화상의 상기 복수의 코딩 트리 유닛 중에서 동일한 제1 개수의 부분 유닛을 포함하는 것을 나타내는 플래그를 더 포함하고,
    상기 복수의 화상의 각 화상에 대해, 상기 데이터 디코더(170)는 상기 플래그에 따라 상기 화상의 상기 복수의 타일 각각의 상기 인코딩된 화상 데이터를 상기 화상의 상기 복수의 타일 중 임의의 다른 타일의 상기 인코딩된 화상 데이터와 독립적으로 디코딩하도록 구성되는, 비디오 디코더(151).
  49. 제 45 항 내지 제 48 항 중 어느 한 항에 있어서, 상기 복수의 화상 중 각각의 화상에 대해, 상기 화상은 상기 복수의 코딩 트리 유닛의 각 코딩 트리 유닛이 사전 정의된 샘플 수와 동일하거나 상기 사전 정의된 샘플 수보다 적은 상기 화상의 상기 샘플의 수를 포함하도록 복수의 코딩 트리 유닛로 분할되는, 비디오 디코더(151).
  50. 비디오의 복수의 화상을 복원하기 위해 인코딩된 화상 데이터를 포함하는 인코딩된 비디오 신호를 디코딩하기 위한 비디오 디코더(151)에 있어서, 상기 비디오 디코더(151)는:
    상기 인코딩된 비디오 신호를 수신하도록 구성된 입력 인터페이스(160), 및
    상기 인코딩된 화상 데이터를 디코딩하여 상기 비디오의 상기 복수의 화상을 복원하도록 구성된 데이터 디코더(170)
    를 포함하고,
    상기 복수의 화상의 각 화상에 대해, 상기 화상은 상기 화상의 복수의 코딩 트리 유닛을 포함하는 복수의 타일로 분할되고, 상기 복수의 코딩 트리 유닛의 각 코딩 트리 유닛은 상기 화상의 복수의 샘플을 포함하고,
    상기 복수의 화상의 각 화상에 대해, 상기 데이터 디코더(110)는 상기 화상의 상기 복수의 타일 각각의 상기 복수의 코딩 트리 유닛 각각의 샘플의 수에 따라 복잡도 값을 결정하도록 구성되고,
    상기 복수의 화상의 각 화상에 대해, 상기 데이터 디코더(170)는 상기 복잡도 값에 따라 상기 화상의 상기 복수의 타일 각각의 상기 인코딩된 화상 데이터를 상기 화상의 상기 복수의 타일 중 임의의 다른 타일의 상기 인코딩된 화상 데이터와 독립적으로 디코딩하도록 구성되어, 상기 복수의 화상 각각의 상기 복수의 코딩 트리 유닛의 원본 화상 데이터를 획득하는, 비디오 디코더(151).
  51. 제 50 항에 있어서, 상기 복수의 화상의 각 화상에 대해, 상기 데이터 디코더(170)는 상기 화상의 상기 복수의 타일 각각의 상기 복수의 코딩 트리 유닛의 각 코딩 트리 유닛에 대한 CTU 종속 값을 결정함으로써, 상기 복잡도 값을 결정하도록 구성되고, 상기 코딩 트리 유닛의 상기 CTU 종속 값은 상기 코딩 트리 유닛이 부분 유닛인지 또는 상기 코딩 트리 유닛이 전체 유닛인지 여부에 따라 달라지며,
    상기 코딩 트리 유닛의 샘플 수가 미리 정의된 샘플 수보다 작은 경우, 상기 코딩 트리 유닛은 부분 유닛이고,
    상기 코딩 트리 유닛의 샘플 수가 상기 미리 정의된 샘플 수보다 작지 않은 경우, 상기 코딩 트리 유닛은 전체 유닛인, 비디오 디코더(151).
  52. 제 51 항에 있어서, 미리 정의된 최소 크기는, 부분 유닛인 상기 복수의 화상 각각의 상기 복수의 코딩 트리 유닛 각각이 상기 화상의 상기 복수의 샘플의 상기미리 정의된 최소 크기를 적어도 포함하도록 존재하는, 비디오 디코더(151).
  53. 제 52 항에 있어서, 상기 부분 유닛인 상기 복수의 화상 각각의 상기 복수의 코딩 트리 유닛 각각은 최소 수평 샘플 길이 및 최소 수직 샘플 길이를 가지며, 상기 최소 수평 샘플 길이의 샘플의 수는 상기 최소 수직 샘플 길이의 샘플의 수와 동일한, 비디오 디코더(151).
  54. 제 51 항 내지 제 53 항 중 어느 한 항에 있어서, 상기 복수의 화상의 각 화상에 대해, 상기 데이터 디코더(170)는 상기 화상의 상기 복수의 타일의 상기 복수의 코딩 트리 유닛의 상기 CTU 종속 값을 추가함으로써 상기 복잡도 값을 결정하도록 구성되는, 비디오 디코더(151).
  55. 제 54 항에 있어서, 상기 복수의 화상의 각각의 화상에 대해, 상기 데이터 디코더(170)는 상기 화상의 상기 복수의 타일 각각의 상기 복수의 코딩 트리 유닛의 각 코딩 트리 유닛에 대한 상기 CTU 종속 값을 결정하도록 구성되므로,
    상기 코딩 트리 유닛이 전체 유닛인 경우, 상기 CTU 종속 값이 상기 코딩 트리 유닛의 샘플의 수에 따라 달라지고,
    상기 코딩 트리 유닛이 부분 유닛인 경우, 상기 CTU 종속 값이 상기 코딩 트리 유닛의 샘플 수에 따라 달라지고 복잡도 인자에 따라 더욱 달라지는, 비디오 디코더(151).
  56. 제 55 항에 있어서, 상기 복수의 화상의 각 화상에 대해, 상기 데이터 디코더(170)는 상기 화상의 상기 복수의 타일 각각의 상기 복수의 코딩 트리 유닛의 각 코딩 트리 유닛에 대한 상기 CTU 종속 값을 결정하도록 구성되므로,
    상기 코딩 트리 유닛이 전체 유닛인 경우, 상기 CTU 종속 값은 코딩 트리 유닛의 샘플 수이고,
    상기 코딩 트리 유닛이 부분 유닛인 경우, 상기 CTU 종속 값은 상기 복잡도 계수와 상기 코딩 트리 유닛의 샘플의 수의 곱이고, 상기 복잡도 계수는 0과 다른 스칼라 값인, 비디오 디코더(151).
  57. 제 51 항에 있어서, 상기 복수의 화상의 각각의 화상에 대해, 상기 데이터 디코더(170)는 상기 화상의 상기 복수의 타일 각각의 상기 복수의 코딩 트리 유닛의 각 코딩 트리 유닛에 대한 상기 CTU 종속 값을 결정하도록 구성되므로,
    상기 코딩 트리 유닛이 전체 유닛인 경우, 상기 코딩 트리 유닛의 상기 CTU 종속 값은 상기 코딩 트리 유닛의 샘플 수에 따라 달라지고,
    상기 코딩 트리 유닛이 부분 유닛인 경우, 상기 코딩 트리 유닛의 상기 CTU 종속 값은 전체 유닛인 상기 복수의 코딩 트리 유닛 중 다른 것의 상기 CUT 종속 값과 동일한, 비디오 디코더(151).
  58. 비디오의 복수의 화상을 복원하기 위해 인코딩된 화상 데이터를 포함하는 인코딩된 비디오 신호를 디코딩하기 위한 비디오 디코더(151)에 있어서, 상기 비디오 디코더(151)는:
    상기 인코딩된 비디오 신호를 수신하도록 구성된 입력 인터페이스(160), 및
    상기 인코딩된 화상 데이터를 디코딩하여 상기 비디오의 상기 복수의 화상을 복원하도록 구성된 데이터 디코더(170)
    를 포함하고,
    상기 복수의 화상의 각 화상에 대해, 상기 화상은 상기 화상의 복수의 코딩 트리 유닛을 포함하는 복수의 타일로 분할되고, 상기 복수의 코딩 트리 유닛의 각 코딩 트리 유닛은 상기 화상의 복수의 샘플을 포함하고,
    상기 복수의 화상의 각 화상에 대해, 상기 화상의 상기 복수의 타일 각각의 상기 복수의 코딩 트리 유닛의 각 코딩 트리 유닛은 부분 유닛 또는 전체 유닛이고, 상기 코딩 트리 유닛의 샘플 수가 미리 정의된 샘플 수보다 작은 경우 상기 코딩 트리 유닛은 상기 부분 유닛이고, 상기 코딩 트리 유닛의 샘플 수가 상기 미리 정의된 샘플 수보다 작지 않은 경우 상기 코딩 트리 유닛은 전체 유닛이고,
    상기 인코딩된 비디오 신호는 상기 복수의 화상 중 하나의 화상의 상기 복수의 타일 중 하나의 타일의 상기 복수의 코딩 트리 유닛 중 부분 유닛인 상기 코딩 트리 유닛의 수에 대한 정보를 제공하는 표시 데이터를 더 포함하고,
    상기 복수의 화상의 각 화상에 대해, 상기 데이터 디코더(170)는 상기 표시 데이터에 따라서 상기 화상의 상기 복수의 타일 각각의 상기 인코딩된 화상 데이터를 상기 화상의 상기 복수의 타일 중 임의의 다른 타일의 상기 인코딩된 화상 데이터와 독립적으로 디코딩하도록 구성되어, 상기 복수의 화상 각각의 상기 복수의 코딩 트리 유닛의 원본 화상 데이터를 획득하는, 비디오 디코더(151).
  59. 제 58 항에 있어서, 상기 표시 데이터는 상기 타일의 상기 복수의 코딩 트리 유닛 중 상기 부분 유닛인 상기 코딩 트리 유닛의 최대 개수를 나타내는, 비디오 디코더(151).
  60. 제 59 항에 있어서, 상기 타일의 상기 복수의 코딩 트리 유닛 중 상기 부분 유닛인 상기 코딩 트리 유닛의 최대 개수는 최대 타일 크기에 의존하는, 비디오 디코더(151).
  61. 제 59 항 또는 제 60 항에 있어서, 상기 타일의 상기 복수의 코딩 트리 유닛 중 상기 부분 유닛인 상기 코딩 트리 유닛의 최대 개수는 전체 유닛인 상기 복수의 코딩 트리 유닛 중 하나의 제 1 개수의 샘플에 의존하고, - 상기 제 1 개수는 상기 미리 정의된 샘플 개수임 - 부분 유닛인 상기 복수의 코딩 트리 유닛 중 다른 하나의 제 2 개수의 샘플에 더욱 의존하는, 비디오 디코더(151).
  62. 제 58 항 내지 제 61 항 중 어느 한 항에 있어서, 상기 표시 데이터는 상기 타일의 상기 복수의 코딩 트리 유닛 중 상기 부분 유닛인 상기 코딩 트리 유닛의 상대적인 양을 나타내는, 비디오 디코더(151).
  63. 비디오의 복수의 화상을 복원하기 위해 인코딩된 화상 데이터를 포함하는 인코딩된 비디오 신호를 디코딩하기 위한 비디오 디코더(151)에 있어서, 상기 비디오 디코더(151)는:
    상기 인코딩된 비디오 신호를 수신하도록 구성된 입력 인터페이스(160), 및
    상기 인코딩된 화상 데이터를 디코딩하여 상기 비디오의 상기 복수의 화상을 복원하도록 구성된 데이터 디코더(170)
    를 포함하고,
    상기 복수의 화상의 각 화상에 대해, 상기 화상은 상기 화상의 복수의 코딩 트리 유닛을 포함하는 복수의 타일로 분할되고, 상기 복수의 코딩 트리 유닛의 각 코딩 트리 유닛은 상기 화상의 복수의 샘플을 포함하고, 상기 화상의 상기 복수의 타일 각각의 상기 복수의 코딩 트리 유닛의 각 코딩 트리 유닛에 대해, 상기 코딩 트리 유닛은 부분 유닛 또는 전체 유닛이고, 상기 코딩 트리 유닛의 샘플 수가 미리 정의된 샘플 수보다 작은 경우 상기 코딩 트리 유닛은 상기 부분 유닛이고, 상기 코딩 트리 유닛의 샘플 수가 상기 미리 정의된 샘플 수보다 작지 않은 경우 상기 코딩 트리 유닛은 전체 유닛이고,
    상기 복수의 화상 중 적어도 2개의 화상에 대해, 상기 화상은 상기 적어도 2개의 화상이 동일한 부분 대 전체 유닛 비율을 갖도록 분할되고, 상기 부분 유닛 대 전체 유닛 비율은 상기 복수의 화상 중 하나의 하나에 대해, 부분 유닛인 상기 화상의 상기 코딩 트리 유닛의 수 대 전체 유닛인 상기 화상의 상기 코딩 트리 유닛의 수의 비율을 정의하고,
    상기 복수의 화상의 각 화상에 대해, 상기 데이터 디코더(170)는 상기 화상의 상기 복수의 타일 각각의 상기 인코딩된 화상 데이터를 상기 화상의 상기 복수의 타일 중 임의의 다른 타일의 상기 인코딩된 화상 데이터와 독립적으로 디코딩하도록 구성되어, 상기 복수의 화상 각각의 상기 복수의 코딩 트리 유닛의 원본 화상 데이터를 획득하는, 비디오 디코더(151).
  64. 제 63 항에 있어서, 상기 복수의 화상 각각에 대해, 상기 화상은 상기 복수의 화상 각각이 임계값보다 작은 상기 부분 대 전체 유닛 비율을 갖도록 분할되는, 비디오 디코더(151).
  65. 제 64 항에 있어서, 상기 임계 값은 1인, 비디오 디코더(151).
  66. 제 63 항 내지 제 65 항 중 어느 한 항에 있어서, 상기 복수의 화상 각각에 대해, 상기 화상은 상기 복수의 화상이 상기 동일한 부분 대 전체 유닛 비율을 갖도록 분할되는, 비디오 디코더(151).
  67. 제 45 항 내지 제 49 항 중 어느 한 항 또는 제 51 항 내지 제 66 항 중 어느 한 항에 있어서, 상기 복수의 화상의 각 화상의 상기 복수의 타일 각각의 타일에 대해, 부분 유닛인 상기 타일의 코딩 트리 유닛은 상기 타일의 하단 경계 또는 오른쪽 경계에만 나타나는, 비디오 디코더(151).
  68. 비디오의 복수의 화상을 복원하기 위해 인코딩된 화상 데이터를 포함하는 인코딩된 비디오 신호를 디코딩하기 위한 비디오 디코더(151)에 있어서, 상기 비디오 디코더(151)는:
    상기 인코딩된 비디오 신호를 수신하도록 구성된 입력 인터페이스(160), 및
    상기 인코딩된 화상 데이터를 디코딩하여 상기 비디오의 상기 복수의 화상을 복원하도록 구성된 데이터 디코더(170)
    를 포함하고,
    상기 복수의 화상의 각 화상에 대해, 상기 화상은 상기 화상의 복수의 코딩 트리 유닛을 포함하는 복수의 타일로 분할되고, 상기 복수의 코딩 트리 유닛의 각 코딩 트리 유닛은 상기 화상의 복수의 샘플을 포함하고, 상기 화상 내에 위치를 갖고,
    상기 복수의 화상은 현재 화상과 참조 화상을 포함하고,
    상기 현재 화상의 상기 코딩 트리 유닛의 각 코딩 트리 유닛에 대해, 상기 참조 화상의 상기 복수의 코딩 트리 유닛 중 다른 코딩 트리 유닛이 존재하는 경우, 상기 코딩 트리 유닛은 바르게 정렬되고, 상기 참조 화상 내의 상기 다른 코딩 트리 유닛의 위치가 현재 화상 내의 상기 코딩 트리 유닛의 위치와 동일하고,
    상기 현재 화상의 상기 코딩 트리 유닛의 각 코딩 트리 유닛에 대해, 상기 참조 화상의 상기 복수의 코딩 트리 유닛 중 다른 코딩 트리 유닛이 존재하지 않는 경우, 상기 코딩 트리 유닛이 오정렬되고, 상기 참조 화상 내의 위치는 상기 현재 화상 내의 상기 코딩 트리 유닛의 위치와 동일하고,
    상기 현재 화상은 오정렬된 상기 현재 화상의 상기 코딩 트리 유닛과 바르게 정렬된 현재 화상의 코딩 트리 유닛 간의 비율이 임계값보다 크지 않도록 상기 복수의 타일로 분할되고,
    상기 복수의 화상의 각 화상에 대해, 상기 데이터 디코더(170)는 상기 화상의 상기 복수의 타일 각각의 상기 인코딩된 화상 데이터를 상기 화상의 상기 복수의 타일 중 임의의 다른 타일의 상기 인코딩된 화상 데이터와 독립적으로 디코딩하도록 구성되어, 상기 복수의 화상 각각의 상기 복수의 코딩 트리 유닛의 원본 화상 데이터를 획득하는, 비디오 디코더(151).
  69. 제 68 항에 있어서, 상기 화상의 상기 복수의 타일 각각의 상기 복수의 코딩 트리 유닛의 각각의 코딩 트리 유닛에 대해, 상기 코딩 트리 유닛은 부분 유닛 또는 전체 유닛이고, 상기 코딩 트리 유닛의 샘플의 수가 미리 정의된 샘플 수보다 작은 경우, 상기 코딩 트리 유닛은 상기 부분 유닛이고, 상기 코딩 트리 유닛의 샘플 수가 상기 미리 정의된 샘플 수보다 작지 않은 경우, 상기 코딩 트리 유닛은 상기 전체 유닛이고,
    상기 복수의 코딩 트리 유닛 중 두 개 이상은 상기 전체 유닛이고 상기 복수의 코딩 트리 유닛 중 적어도 하나는 상기 부분 유닛인, 비디오 디코더(151).
  70. 제 68 항 또는 제 69 항에 있어서, 상기 데이터 디코더(170)는 상기 임계 값을 포함하는 비트스트림을 수신하도록 구성되는, 비디오 디코더(151).
  71. 제 68 항 내지 제 70 항 중 어느 한 항에 있어서, 상기 임계 값은 1 보다 작은, 비디오 디코더(151).
  72. 비디오의 복수의 화상을 복원하기 위해 인코딩된 화상 데이터를 포함하는 인코딩된 비디오 신호를 디코딩하기 위한 비디오 디코더(151)에 있어서, 상기 비디오 디코더(151)는:
    상기 인코딩된 비디오 신호를 수신하도록 구성된 입력 인터페이스(160), 및
    상기 인코딩된 화상 데이터를 디코딩하여 상기 비디오의 상기 복수의 화상을 복원하도록 구성된 데이터 디코더(170)
    를 포함하고,
    상기 복수의 화상의 각 화상에 대해, 상기 화상은 복수의 타일의 각 타일에 대해 복수의 타일 경계를 정의하여 상기 화상의 복수의 코딩 트리 유닛을 포함하는 상기 복수의 타일로 분할되고, 상기 복수의 화상의 각 화상의 상기 복수의 코딩 트리 유닛의 각 코딩 트리 유닛은 상기 화상의 복수의 샘플을 포함하고,
    상기 복수의 화상의 각 화상에 대해, 상기 데이터 디코더(170)는 상기 화상의 상기 복수의 타일 중 각 타일의 상기 복수의 타일 경계에 따라, 상기 타일의 상기 인코딩된 화상 데이터를 상기 화상의 상기 복수의 타일 중 임의의 다른 타일의 상기 인코딩된 화상 데이터와 독립적으로 디코딩하도록 구성되어 상기 복수의 화상 각각의 상기 복수의 코딩 트리 유닛의 원본 화상 데이터를 획득하고,
    상기 복수의 화상 각각의 상기 복수의 타일 각각의 상기 복수의 타일 경계의 각 타일 경계는 제 1 세트의 타일 경계에 할당되거나 제 2 세트의 타일 경계에 할당되고,
    상기 데이터 디코더(170)는, 상기 타일 경계가 상기 제 1 세트의 타일 경계에 할당된 경우, 상기 인코딩된 화상 데이터를 디코딩할 때, 상기 복수의 화상 중 하나의 화상의 상기 복수의 타일 중 제1 타일의 상기 복수의 타일 경계 중 제1 타일 경계에서 디코딩 스캔 순서를 변경하도록 구성되고,
    상기 데이터 디코더(170)는, 상기 타일 경계가 상기 제 2 세트의 타일 경계에 할당된 경우, 상기 인코딩된 화상 데이터를 디코딩할 때, 상기 복수의 화상 중 하나의 화상의 상기 복수의 타일 중 제2 타일의 상기 복수의 타일 경계의 제2 타일 경계에서 상기 디코딩 스캔 순서를 변경하지 않도록 구성되는, 비디오 디코더(151).
  73. 제 72 항에 있어서,
    상기 데이터 디코더(170)는 상기 타일 경계가 상기 제 1 세트의 타일 경계에 할당된 경우, 상기 인코딩된 화상 데이터를 디코딩할 때, 상기 복수의 화상 중 하나의 화상의 상기 복수의 타일 중 제3 타일의 상기 복수의 타일 경계 중 제3 타일 경계에서 인트라 예측 제약 조건을 적용하도록 구성되고,
    상기 데이터 디코더(170)는 상기 타일 경계가 상기 제 2 세트의 타일 경계에 할당된 경우, 상기 인코딩된 화상 데이터를 디코딩할 때, 상기 복수의 화상 중 하나의 화상의 상기 복수의 타일 중 제4 타일의 상기 복수의 타일 경계의 제4 타일 경계에서 상기 인트라 예측 제약 조건을 적용하지 않도록 구성되는, 비디오 디코더(151).
  74. 제 73 항에 있어서,
    상기 데이터 디코더(170)는 상기 타일 경계가 상기 제 1 세트의 타일 경계에 할당되면, 상기 인코딩된 화상 데이터를 디코딩할 때, 상기 복수의 화상 중 하나의 화상의 상기 복수의 타일 중 제 5 타일의 상기 복수의 타일 경계 중 제 5 타일 경계에서 엔트로피 코딩 재설정을 수행하도록 구성되고,
    상기 데이터 디코더(170)는 상기 타일 경계가 상기 제 2 세트의 타일 경계에 할당된 경우, 상기 인코딩된 화상 데이터를 디코딩할 때, 상기 복수의 화상 중 하나의 화상의 상기 복수의 타일 중 제 6 타일의 상기 복수의 타일 경계 중 제 6 타일 경계에서 상기 엔트로피 코딩 재설정을 수행하지 않도록 구성되는, 비디오 디코더(151).
  75. 제 72 항 내지 제 74 항 중 어느 한 항에 있어서,
    상기 복수의 화상의 각 화상의 상기 복수의 코딩 트리 유닛의 각각의 코딩 트리 유닛은 상기 화상 내의 위치를 갖고,
    상기 복수의 화상은 현재 화상 및 참조 화상을 포함하고,
    상기 현재 화상의 상기 코딩 트리 유닛의 각 코딩 트리 유닛에 대해, 상기 참조 화상의 상기 복수의 코딩 트리 유닛 중 다른 코딩 트리 유닛이 존재하는 경우, 상기 코딩 트리 유닛이 바르게 정렬되고, 상기 참조 화상 내의 상기 다른 코딩 트리 유닛의 위치가 상기 현재 화상 내의 상기 코딩 트리 유닛의 위치와 동일하고,
    상기 현재 화상의 상기 코딩 트리 유닛의 각각의 코딩 트리 유닛에 대해, 상기 참조 화상의 상기 복수의 코딩 트리 유닛 중 다른 코딩 트리 유닛이 존재하지 않는 경우, 상기 코딩 트리 유닛이 오정렬되고, 상기 참조 화상 내의 위치는 상기 현재 화상 내의 상기 코딩 트리 유닛의 위치와 동일하고,
    상기 현재 화상은 상기 현재 화상의 상기 코딩 트리 유닛의 절반 이상이 바르게 정렬되고 상기 현재 화상의 상기 코딩 트리 유닛의 절반 미만이 오정렬되도록 상기 복수의 타일로 분할되는, 비디오 디코더(151).
  76. 제 75 항에 있어서,
    상기 하나 이상의 후속 화상의 각 화상에 대해, 상기 화상은 상기 화상의 상기 모든 코딩 트리 유닛이 바르게 정렬되고, 상기 화상의 상기 코딩 트리 유닛 중 어느 것도 오정렬되지 않도록 상기 복수의 타일로 분할되는, 비디오 디코더(151).
  77. 비디오의 복수의 화상을 복원하기 위해 인코딩된 화상 데이터를 포함하는 인코딩된 비디오 신호를 디코딩하기 위한 비디오 디코더(151)에 있어서, 상기 비디오 디코더(151)는:
    상기 인코딩된 비디오 신호를 수신하도록 구성된 입력 인터페이스(160), 및
    상기 인코딩된 화상 데이터를 디코딩하여 상기 비디오의 상기 복수의 화상을 복원하도록 구성된 데이터 디코더(170)
    를 포함하고,
    상기 복수의 화상의 각 화상에 대해, 상기 화상은 상기 화상의 복수의 코딩 트리 유닛을 포함하는 복수의 타일로 분할되고, 상기 복수의 코딩 트리 유닛의 각 코딩 트리 유닛은 상기 화상의 복수의 샘플을 포함하고, 상기 화상 내에 위치를 갖고,
    상기 복수의 화상은 현재 화상과 참조 화상을 포함하고,
    상기 현재 화상의 상기 코딩 트리 유닛의 각 코딩 트리 유닛에 대해, 상기 참조 화상의 상기 복수의 코딩 트리 유닛 중 다른 코딩 트리 유닛이 존재하는 경우, 상기 코딩 트리 유닛은 바르게 정렬되고, 상기 참조 화상 내의 상기 다른 코딩 트리 유닛의 위치가 현재 화상 내의 상기 코딩 트리 유닛의 위치와 동일하고,
    상기 현재 화상의 상기 코딩 트리 유닛의 각 코딩 트리 유닛에 대해, 상기 참조 화상의 상기 복수의 코딩 트리 유닛 중 다른 코딩 트리 유닛이 존재하지 않는 경우, 상기 코딩 트리 유닛이 오정렬되고, 상기 참조 화상 내의 위치는 상기 현재 화상 내의 상기 코딩 트리 유닛의 위치와 동일하고,
    상기 현재 화상의 상기 복수의 코딩 트리 유닛은 상기 현재 화상의 상기 복수의 코딩 트리 유닛이 상기 현재 화상의 코딩 트리 유닛의 하나 이상의 행을 형성하도록 상기 현재 화상 내에 배열되고,
    상기 현재 화상은 상기 현재 화상의 상기 하나 이상의 행 중에서 상기 행의 임의의 코딩 트리 유닛이 오정렬되는 어떤 행도 존재하고 있지 않도록 분할되고 ,
    상기 데이터 디코더(170)는 상기 현재 화상의 상기 복수의 타일 각각의 상기 인코딩된 화상 데이터를 상기 현재 화상의 상기 복수의 타일 중 임의의 다른 타일의 상기 인코딩된 화상 데이터와 독립적으로 인코딩하도록 구성되어 상기 복수의 화상 각각의 상기 복수의 코딩 트리 유닛의 원본 화상 데이터를 획득하는, 비디오 디코더(151).
  78. 제 77 항에 있어서, 상기 데이터 디코더(170)는 상기 인코딩된 비디오 신호가 상기 화상의 상기 하나 이상의 행 중에서 상기 행의 임의의 코딩 트리 유닛이 오정렬되는 어떤 행도 존재하지 않는다는 표시를 포함하는 상기 인코딩된 비디오 신호를 수신하도록 구성되고 ,
    상기 데이터 디코더(170)는 상기 표시에 따라 상기 현재 화상의 상기 복수의 타일 각각의 상기 인코딩된 화상 데이터를 상기 현재 화상의 복수의 타일 중 임의의 다른 타일의 상기 인코딩된 화상 데이터와 독립적으로 디코딩하도록 구성되어, 상기 현재 화상의 상기 복수의 코딩 트리 유닛의 원본 화상 데이터를 획득하는, 비디오 디코더(151).
  79. 비디오의 복수의 화상을 복원하기 위해 인코딩된 화상 데이터를 포함하는 인코딩된 비디오 신호를 디코딩하기 위한 비디오 디코더(151)에 있어서, 상기 비디오 디코더(151)는:
    상기 인코딩된 비디오 신호를 수신하도록 구성된 입력 인터페이스(160), 및
    상기 인코딩된 화상 데이터를 디코딩하여 상기 비디오의 상기 복수의 화상을 복원하도록 구성된 데이터 디코더(170)
    를 포함하고,
    상기 복수의 화상의 각 화상에 대해, 상기 화상은 상기 화상의 복수의 코딩 트리 유닛을 포함하는 복수의 타일로 분할되고, 상기 복수의 코딩 트리 유닛의 각 코딩 트리 유닛은 상기 화상의 복수의 샘플을 포함하고 상기 화상 내에 위치를 갖고,
    상기 복수의 화상은 현재 화상과 참조 화상을 포함하고, 상기 참조 화상은 상기 현재 화상에 시간상 선행하고,
    상기 데이터 디코더(170)는 상기 참조 화상의 움직임 벡터에 따라 및 상기 현재 화상이 상기 현재 화상의 상기 복수의 타일로 분할되는 방법에 따라 상기 현재 화상의 움직임 벡터를 결정하도록 구성되고,
    상기 복수의 화상의 각 화상에 대해, 상기 데이터 디코더(170)는 상기 현재 화상의 상기 움직임 벡터에 따라, 상기 현재 화상의 상기 복수의 타일 각각의 상기 인코딩된 화상 데이터를 상기 화상의 상기 복수의 타일 중 임의의 다른 타일의 상기 인코딩된 화상 데이터와 독립적으로 인코딩하도록 구성되어, 상기 복수의 화상 각각의 상기 복수의 코딩 트리 유닛의 원본 화상 데이터를 획득하는, 비디오 디코더(151).
  80. 제 79 항에 있어서, 상기 데이터 디코더(170)는 상기 현재 화상의 상기 움직임 벡터의 위치와 상기 현재 화상이 분할되는 방법에 따라, 상기 참조 화상 내의 제1 위치에서 제1 움직임 벡터 예측자 또는 상기 참조 화상 내의 제2 위치에서 제2 움직임 벡터 예측자를 선택함으로써 상기 현재 화상의 상기 움직임 벡터를 결정하도록 구성되는, 비디오 디코더(151).
  81. 제 80 항에 있어서,
    상기 현재 화상의 상기 코딩 트리 유닛의 각 코딩 트리 유닛에 대해, 상기 참조 화상의 상기 복수의 코딩 트리 유닛 중 다른 코딩 트리 유닛이 존재하지 않는 경우, 상기 코딩 트리 유닛은 오정렬되고, 상기 참조 화상 내의 위치는 상기 현재 화상 내의 상기 코딩 트리 유닛의 위치와 동일하고,
    상기 현재 화상의 상기 복수의 코딩 트리 유닛 중 적어도 2개의 코딩 트리 유닛은 오정렬되는, 비디오 디코더(151).
  82. 제 79 항에 있어서,
    상기 데이터 디코더(170)는,
    상기 현재 화상이 분할되는 방법에 따라 상기 참조 화상의 관련 블록의 위치를 결정하고,
    상기 현재 블록의 상기 움직임 벡터의 위치에 따라 상기 참조 화상의 움직임 벡터 예측자의 위치를 결정하고,
    상기 현재 화상이 분할되는 방법에 따라 상기 참조 화상의 상기 움직임 벡터 예측자의 위치를 적응시키도록 상기 참조 화상의 상기 움직임 벡터 예측자의 위치에 클리핑 연산을 적용하여,
    상기 현재 화상의 움직임 벡터를 결정하도록 구성되는, 비디오 디코더(151).
  83. 제 68 항 내지 제 82 항 중 어느 한 항에 있어서,
    상기 복수의 화상의 각 화상에 대해, 상기 화상의 상기 복수의 코딩 트리 유닛의 각 코딩 트리 유닛은 부분 유닛 또는 전체 유닛이고, 상기 코딩 트리 유닛의 샘플 수가 미리 정의된 샘플 수보다 작은 경우 상기 코딩 트리 유닛은 상기 부분 유닛이고, 상기 코딩 트리 유닛의 샘플 수가 상기 미리 정의된 샘플 수보다 작지 않은 경우 상기 코딩 트리 유닛은 전체 유닛이고,
    상기 복수의 화상의 각 화상의 상기 복수의 타일의 각각의 타일에 대해, 부분 유닛인 상기 타일의 코딩 트리 유닛은 상기 타일의 하단 경계 또는 오른쪽 경계에만 나타나는, 비디오 디코더(151).
  84. 비디오의 복수의 화상을 복원하기 위해 인코딩된 화상 데이터를 포함하는 인코딩된 비디오 신호를 디코딩하기 위한 비디오 디코더(151)에 있어서, 상기 비디오 디코더(151)는:
    상기 인코딩된 비디오 신호를 수신하도록 구성된 입력 인터페이스(160), 및
    상기 인코딩된 화상 데이터를 디코딩하여 상기 비디오의 상기 복수의 화상을 복원하도록 구성된 데이터 디코더(170)
    를 포함하고,
    상기 복수의 화상의 각 화상에 대해, 상기 화상은 상기 화상의 복수의 코딩 트리 유닛을 포함하는 복수의 타일로 분할되고, 상기 복수의 코딩 트리 유닛의 각 코딩 트리 유닛은 상기 화상의 복수의 샘플을 포함하고,
    상기 인코딩된 비디오 신호는 상기 복수의 화상의 현재 화상에 대해 상기 현재 화상과 상이한 상기 복수의 화상의 참조 화상이 상기 현재 화상을 인코딩하는 데 사용되었는지 여부를 나타내는 제 1 플래그를 더 포함하고,
    상기 복수의 화상의 하나의 화상에 대해, 상기 데이터 디코더(170)는 상기 제1 플래그에 따라 상기 화상의 상기 복수의 타일 각각의 상기 인코딩된 화상 데이터를 디코딩하도록 구성되어 상기 복수의 화상 각각의 상기 복수의 코딩 트리 유닛의 원본 화상 데이터를 획득하는, 비디오 디코더(151).
  85. 제 84 항에 있어서, 상기 인코딩된 비디오 신호는 상기 현재 화상 참조가 사용되는지 여부를 나타내는 제 2 플래그를 더 포함하고, 상기 현재 화상 참조를 사용하는 단계는 상기 복수의 화상 중 하나의 화상의 참조 블록을 상기 참조 블록과 상이한, 상기 화상의 현재 블록에 복사하는 단계를 포함하고,
    상기 데이터 디코더(170)는 상기 제2 플래그에 따라 상기 화상의 상기 복수의 타일 각각의 상기 인코딩된 화상 데이터를 디코딩하도록 구성되는, 비디오 디코더(151).
  86. 제 85 항 또는 제 85 항에 있어서, 상기 인코딩된 비디오 신호는 예측에 사용되는 참조 화상 목록의 수를 표시하는 신택스 요소를 더 포함하고,
    상기 데이터 디코더(170)는 상기 신택스 요소에 따라 상기 화상의 복수의 타일들의 각각의 인코딩된 화상 데이터를 디코딩하도록 구성되는, 비디오 디코더(151).
  87. 제 86 항에 있어서, 예측에 사용되는 상기 참조 화상 목록의 수를 나타내는 상기 신택스 요소는 상이한 값이 아닌, 값 0 또는 값 1 또는 값 2로 설정되는, 비디오 디코더(151).
  88. 제 86 항에 있어서, 예측에 사용되는 상기 참조 화상 목록의 수를 나타내는 상기 신택스 요소는 값 0 또는 값 1 또는 값 2 또는 2보다 큰 정수 값으로 설정되는, 비디오 디코더(151).
  89. 인코딩된 비디오 신호를 생성하여 비디오의 복수의 화상을 인코딩하는 방법에 있어서, 상기 복수의 화상 각각은 원본 화상 데이터를 포함하고, 상기 방법은:
    인코딩된 화상 데이터를 포함하는 상기 인코딩된 비디오 신호를 생성하는 단계 - 상기 데이터 인코더는 상기 비디오의 상기 복수의 화상을 상기 인코딩된 화상 데이터로 인코딩하도록 구성됨 - ; 및
    상기 복수의 화상 각각의 상기 인코딩된 화상 데이터를 출력하는 단계
    를 포함하고,
    상기 방법은:
    상기 복수의 화상의 각각의 화상에 대해, 상기 화상을 상기 화상의 복수의 코딩 트리 유닛을 포함하는 복수의 타일로 분할하는 단계 - 상기 복수의 코딩 트리 유닛의 각각의 코딩 트리 유닛은 상기 화상의 복수의 샘플을 포함함 -
    를 더 포함하고,
    상기 복수의 화상의 각각의 화상에 대해, 상기 화상의 상기 복수의 코딩 트리 유닛의 각 코딩 트리 유닛은 부분 유닛 또는 전체 유닛이고, 상기 코딩 트리 유닛은 상기 코딩 트리 유닛의 샘플 수가 미리 정의된 샘플 수보다 작은 경우 부분 유닛이고, 상기 코딩 트리 유닛은 상기 코딩 트리 유닛의 샘플 수가 상기 미리 정의된 샘플 수보다 작지 않은 경우 전체 유닛이고,
    상기 복수의 화상 각각을 분할하는 단계는, 상기 복수의 화상의 각각의 화상이 상기 화상의 상기 복수의 코딩 트리 유닛 중에서 동일한 제1 개수의 부분 유닛을 포함하도록 수행되고,
    상기 복수의 화상의 각 화상에 대해, 상기 화상의 상기 복수의 타일 각각의 상기 원본 화상 데이터를 인코딩하는 단계는 상기 화상의 상기 복수의 타일 중 임의의 다른 타일의 상기 원본 화상 데이터와 독립적으로 수행되는, 방법.
  90. 비디오의 복수의 화상을 복원하기 위해 인코딩된 화상 데이터를 포함하는 인코딩된 비디오 신호를 디코딩하는 방법에 있어서, 상기 방법은:
    상기 인코딩된 비디오 신호를 수신하는 단계; 및
    상기 인코딩된 화상 데이터를 디코딩하여 상기 비디오의 상기 복수의 화상을 복원하는 단계
    를 포함하고,
    상기 복수의 화상의 각 화상에 대해, 상기 화상은 상기 화상의 복수의 코딩 트리 유닛을 포함하는 복수의 타일로 분할되고, 상기 복수의 코딩 트리 유닛의 각각의 코딩 트리 유닛은 상기 화상의 복수의 샘플을 포함하고,
    상기 복수의 화상의 각각의 화상에 대해, 상기 화상의 상기 복수의 코딩 트리 유닛의 각 코딩 트리 유닛은 부분 유닛 또는 전체 유닛이고, 상기 코딩 트리 유닛은 상기 코딩 트리 유닛의 샘플 수가 미리 정의된 샘플 수보다 작은 경우 부분 유닛이고, 상기 코딩 트리 유닛은 상기 코딩 트리 유닛의 샘플 수가 상기 미리 정의된 샘플 수보다 작지 않은 경우 전체 유닛이고,
    상기 복수의 화상 각각은 상기 복수의 화상의 각각의 화상이 상기 화상의 상기 복수의 코딩 트리 유닛 중에서 동일한 제1 개수의 부분 유닛을 포함하도록 분할되고,
    상기 복수의 화상의 각 화상에 대해, 상기 화상의 상기 복수의 타일 각각의 상기 인코딩된 화상 데이터를 디코딩하는 단계는 상기 화상의 상기 복수의 타일 중 임의의 다른 타일의 상기 인코딩된 화상 데이터와 독립적으로 수행되는, 방법.
  91. 제 89 항 또는 제 90 항의 방법을 컴퓨터 또는 신호 프로세서에서 실행될 때 구현하기 위한 컴퓨터 프로그램.
  92. 화상을 인코딩하는 인코딩된 비디오 신호에 있어서, 상기 인코딩된 비디오 신호는 상기 화상을 인코딩하는 인코딩된 화상 데이터를 포함하고,
    상기 복수의 화상의 각 화상에 대해, 상기 화상은 상기 화상의 복수의 코딩 트리 유닛을 포함하는 복수의 타일로 분할되고, 상기 복수의 코딩 트리 유닛의 각각의 코딩 트리 유닛은 상기 화상의 복수의 샘플을 포함하고,
    상기 복수의 화상의 각각의 화상에 대해, 상기 화상의 상기 복수의 코딩 트리 유닛의 각 코딩 트리 유닛은 부분 유닛 또는 전체 유닛이고, 상기 코딩 트리 유닛은 상기 코딩 트리 유닛의 샘플 수가 미리 정의된 샘플 수보다 작은 경우 부분 유닛이고, 상기 코딩 트리 유닛은 상기 코딩 트리 유닛의 샘플 수가 상기 미리 정의된 샘플 수보다 작지 않은 경우 전체 유닛이고,
    상기 복수의 화상 각각을 분할하는 단계는 상기 복수의 화상의 각각의 화상이 상기 화상의 복수의 코딩 트리 유닛 중에서 동일한 제 1 개수의 부분 유닛을 포함하도록 실행되고,
    상기 복수의 화상의 각 화상에 대해, 상기 화상의 상기 복수의 타일 각각의 상기 원본 화상 데이터는 상기 인코딩된 비디오 신호 내에서 상기 화상의 상기 복수의 타일 중 임의의 다른 타일의 상기 원본 화상 데이터와 독립적으로 인코딩되는, 인코딩된 비디오 신호.
  93. 시스템에 있어서,
    제 1 항 내지 제 5 항 중 한 항에 따른 상기 비디오 인코더(101), 및
    제 45 항 내지 제 49 항 중 한 항에 따른 상기 비디오 디코더(151)
    를 포함하고,
    상기 비디오 인코더(101)는 상기 인코딩된 비디오 신호를 생성하도록 구성되고,
    상기 비디오 디코더(151)는 상기 인코딩된 비디오 신호를 디코딩하여 상기 비디오의 상기 화상을 복원하도록 구성되는, 시스템.
  94. 인코딩된 비디오 신호를 생성하여 비디오의 복수의 화상을 인코딩하는 방법에 있어서, 상기 복수의 화상 각각은 원본 화상 데이터를 포함하고, 상기 방법은:
    인코딩된 화상 데이터를 포함하는 상기 인코딩된 비디오 신호를 생성하는 단계 - 상기 데이터 인코더는 상기 비디오의 상기 복수의 화상을 상기 인코딩된 화상 데이터로 인코딩하도록 구성됨 - ; 및
    상기 복수의 화상 각각의 상기 인코딩된 화상 데이터를 출력하는 단계
    를 포함하고,
    상기 복수의 화상의 각각의 화상에 대해, 상기 화상의 분할은 제 1 방식으로 상기 화상이 상기 화상의 복수의 코딩 트리 유닛을 포함하는 복수의 타일로 분할되는 방법을 정의하고, 상기 복수의 코딩 트리 유닛의 각각의 코딩 트리 유닛은 상기 화상의 복수의 샘플을 포함하고,
    상기 방법은:
    상기 복수의 화상의 각 화상에 대해, 상기 화상의 상기 복수의 타일 각각의 상기 복수의 코딩 트리 유닛 각각의 샘플의 수에 따라 복잡도 값을 결정하는 단계,
    상기 복잡도 값이 복잡도 임계값보다 큰 경우, 상기 화상의 분할을 상기 화상이 분할되는 방법을 다른 제 2 방식으로 정의하도록 조정하는 단계, 및
    상기 복수의 화상의 각 화상에 대해, 상기 화상의 분할에 따라, 상기 화상의 상기 복수의 타일 각각의 상기 원본 화상 데이터를 상기 화상의 상기 복수의 타일 중 임의의 다른 타일의 상기 원본 화상 데이터와 독립적으로 인코딩하는 단계
    를 포함하는, 방법.
  95. 비디오의 복수의 화상을 복원하기 위해 인코딩된 화상 데이터를 포함하는 인코딩된 비디오 신호를 디코딩하는 방법에 있어서, 상기 방법은:
    상기 인코딩된 비디오 신호를 수신하는 단계; 및
    상기 인코딩된 화상 데이터를 디코딩하여 상기 비디오의 상기 복수의 화상을 복원하는 단계
    를 포함하고,
    상기 복수의 화상의 각 화상에 대해, 상기 화상은 상기 화상의 복수의 코딩 트리 유닛을 포함하는 복수의 타일로 분할되고, 상기 복수의 코딩 트리 유닛의 각각의 코딩 트리 유닛은 상기 화상의 복수의 샘플을 포함하고,
    상기 방법은:
    상기 복수의 화상의 각 화상에 대해, 상기 화상의 상기 복수의 타일 각각의 상기 복수의 코딩 트리 유닛 각각의 샘플의 수에 따라 복잡도 값을 결정하는 단계, 및
    상기 복수의 화상의 각 화상에 대해, 상기 복잡도 값에 따라 상기 화상의 복수의 타일 각각의 상기 인코딩된 화상 데이터를 상기 화상의 상기 복수의 타일의 임의의 다른 타일의 상기 인코딩된 화상 데이터와 독립적으로 디코딩하여 상기 복수의 화상 각각의 상기 복수의 코딩 트리 유닛의 원본 화상 데이터를 획득하는 단계
    를 더 포함하는, 방법.
  96. 제 94 항 또는 제 95 항의 방법을 컴퓨터 또는 신호 프로세서에서 실행될 때 구현하기 위한 컴퓨터 프로그램.
  97. 화상을 인코딩하는 인코딩된 비디오 신호에 있어서, 상기 인코딩된 비디오 신호는 상기 화상을 인코딩하는 인코딩된 화상 데이터를 포함하고,
    상기 복수의 화상의 각 화상에 대해, 상기 화상은 상기 화상의 복수의 코딩 트리 유닛을 포함하는 복수의 타일로 분할되고, 상기 복수의 코딩 트리 유닛의 각각의 코딩 트리 유닛은 상기 화상의 복수의 샘플을 포함하고,
    상기 화상의 분할은 복잡도 값이 복잡도 임계값보다 큰지 여부에 따라 달라지고, 상기 복잡도 값은 상기 화상의 상기 복수의 타일 각각의 상기 복수의 코딩 트리 유닛 각각의 샘플의 수에 의존하고,
    상기 복수의 화상의 각 화상에 대해, 상기 화상의 상기 복수의 타일 각각의 원본 화상 데이터는 상기 인코딩된 비디오 신호 내에서 상기 화상의 상기 복수의 타일 중 임의의 다른 타일의 상기 원본 화상 데이터와 독립적으로 수행되는, 인코딩된 비디오 신호.
  98. 시스템에 있어서,
    제 6 항 내지 제 13 항 중 한 항에 따른 상기 비디오 인코더(101), 및
    제 50 항 내지 제 57 항 중 한 항에 따른 상기 비디오 디코더(151)
    를 포함하고,
    상기 비디오 인코더(101)는 상기 인코딩된 비디오 신호를 생성하도록 구성되고,
    상기 비디오 디코더(151)는 상기 인코딩된 비디오 신호를 디코딩하여 상기 비디오의 상기 화상을 복원하도록 구성되는, 시스템.
  99. 인코딩된 비디오 신호를 생성하여 비디오의 복수의 화상을 인코딩하는 방법에 있어서, 상기 복수의 화상 각각은 원본 화상 데이터를 포함하고, 상기 방법은:
    인코딩된 화상 데이터를 포함하는 상기 인코딩된 비디오 신호를 생성하는 단계 - 상기 데이터 인코더는 상기 비디오의 상기 복수의 화상을 상기 인코딩된 화상 데이터로 인코딩하도록 구성됨 - ; 및
    상기 복수의 화상 각각의 상기 인코딩된 화상 데이터를 출력하는 단계
    를 포함하고,
    상기 복수의 화상의 각각의 화상에 대해, 상기 화상은 상기 화상의 복수의 코딩 트리 유닛을 포함하는 복수의 타일로 분할되고, 상기 복수의 코딩 트리 유닛의 각각의 코딩 트리 유닛은 상기 화상의 복수의 샘플을 포함하고,
    상기 복수의 화상의 각각의 화상에 대해, 상기 화상의 상기 복수의 타일 각각의 상기 복수의 코딩 트리 유닛의 각 코딩 트리 유닛은 부분 유닛 또는 전체 유닛이고, 상기 코딩 트리 유닛은 상기 코딩 트리 유닛의 샘플 수가 미리 정의된 샘플 수보다 작은 경우 부분 유닛이고, 상기 코딩 트리 유닛은 상기 코딩 트리 유닛의 샘플 수가 상기 미리 정의된 샘플 수보다 작지 않은 경우 전체 유닛이고,
    상기 방법은:
    상기 복수의 화상의 각 화상에 대해, 상기 화상의 상기 복수의 타일 각각의 상기 원본 화상 데이터를 상기 화상의 상기 복수의 타일 중 임의의 다른 타일의 상기 원본 화상 데이터와 독립적으로 인코딩하는 단계
    를 더 포함하고,
    상기 인코딩된 비디오 신호를 생성하는 단계는 상기 인코딩된 비디오 신호가 상기 복수의 화상의 하나의 화상의 상기 복수의 타일 중 하나의 타일의 상기 복수의 코딩 트리 유닛 중 부분 유닛인 상기 코딩 트리 유닛의 수에 대한 정보를 제공하는 표시 데이터를 더 포함하는 방법.
  100. 비디오의 복수의 화상을 복원하기 위해 인코딩된 화상 데이터를 포함하는 인코딩된 비디오 신호를 디코딩하는 방법에 있어서, 상기 방법은:
    상기 인코딩된 비디오 신호를 수신하는 단계; 및
    상기 인코딩된 화상 데이터를 디코딩하여 상기 비디오의 상기 복수의 화상을 복원하는 단계
    를 포함하고,
    상기 복수의 화상의 각 화상에 대해, 상기 화상은 상기 화상의 복수의 코딩 트리 유닛을 포함하는 복수의 타일로 분할되고, 상기 복수의 코딩 트리 유닛의 각각의 코딩 트리 유닛은 상기 화상의 복수의 샘플을 포함하고,
    상기 복수의 화상의 각각의 화상에 대해, 상기 화상의 상기 복수의 타일 각각의 상기 복수의 코딩 트리 유닛의 각 코딩 트리 유닛은 부분 유닛 또는 전체 유닛이고, 상기 코딩 트리 유닛은 상기 코딩 트리 유닛의 샘플 수가 미리 정의된 샘플 수보다 작은 경우 부분 유닛이고, 상기 코딩 트리 유닛은 상기 코딩 트리 유닛의 샘플 수가 상기 미리 정의된 샘플 수보다 작지 않은 경우 전체 유닛이고,
    상기 인코딩된 비디오 신호는 상기 복수의 화상 중 하나의 화상의 상기 복수의 타일 중 하나의 타일의 상기 복수의 코딩 트리 유닛 중 일부 유닛인 상기 코딩 트리 유닛의 수에 대한 정보를 제공하는 표시 데이터를 더 포함하고,
    상기 방법은:
    상기 복수의 화상의 각 화상에 대해, 상기 표시 데이터에 따라 상기 화상의 상기 복수의 타일 각각의 상기 인코딩된 화상 데이터를 상기 화상의 상기 복수의 타일 중 임의의 다른 타일의 상기 인코딩된 화상 데이터와 독립적으로 디코딩하여 상기 복수의 화상 각각의 상기 복수의 코딩 트리 유닛의 원본 화상 데이터를 획득하는 단계
    를 더 포함하는, 방법.
  101. 제 99 항 또는 제 100 항의 방법을 컴퓨터 또는 신호 프로세서에서 실행될 때 구현하기 위한 컴퓨터 프로그램.
  102. 화상을 인코딩하는 인코딩된 비디오 신호에 있어서, 상기 인코딩된 비디오 신호는 상기 화상을 인코딩하는 인코딩된 화상 데이터를 포함하고,
    상기 복수의 화상의 각 화상에 대해, 상기 화상은 상기 화상의 복수의 코딩 트리 유닛을 포함하는 복수의 타일로 분할되고, 상기 복수의 코딩 트리 유닛의 각각의 코딩 트리 유닛은 상기 화상의 복수의 샘플을 포함하고,
    상기 복수의 화상의 각각의 화상에 대해, 상기 화상의 상기 복수의 타일 각각의 상기 복수의 코딩 트리 유닛의 각 코딩 트리 유닛은 부분 유닛 또는 전체 유닛이고, 상기 코딩 트리 유닛은 상기 코딩 트리 유닛의 샘플 수가 미리 정의된 샘플 수보다 작은 경우 부분 유닛이고, 상기 코딩 트리 유닛은 상기 코딩 트리 유닛의 샘플 수가 상기 미리 정의된 샘플 수보다 작지 않은 경우 전체 유닛이고,
    상기 복수의 화상의 각 화상에 대해, 상기 화상의 상기 복수의 타일 각각의 상기 원본 화상 데이터는 상기 인코딩된 비디오 신호 내에서 상기 화상의 상기 복수의 타일 중 임의의 다른 타일의 상기 원본 화상 데이터와 독립적으로 인코딩되고,
    상기 인코딩된 비디오 신호는 상기 복수의 화상의 하나의 화상의 상기 복수의 타일 중 하나의 타일의 상기 복수의 코딩 트리 유닛 중 일부 유닛인 상기 코딩 트리 유닛의 수에 대한 정보를 제공하는 표시 데이터를 더 포함하는, 인코딩된 비디오 신호.
  103. 시스템에 있어서,
    제 14 항 내지 제 18 항 중 한 항에 따른 상기 비디오 인코더(101), 및
    제 58 항 내지 제 62 항 중 한 항에 따른 상기 비디오 디코더(151)
    를 포함하고,
    상기 비디오 인코더(101)는 상기 인코딩된 비디오 신호를 생성하도록 구성되고,
    상기 비디오 디코더(151)는 상기 인코딩된 비디오 신호를 디코딩하여 상기 비디오의 상기 화상을 복원하도록 구성되는, 시스템.
  104. 인코딩된 비디오 신호를 생성하여 비디오의 복수의 화상을 인코딩하는 방법에 있어서, 상기 복수의 화상 각각은 원본 화상 데이터를 포함하고, 상기 방법은:
    인코딩된 화상 데이터를 포함하는 상기 인코딩된 비디오 신호를 생성하는 단계 - 상기 데이터 인코더는 상기 비디오의 상기 복수의 화상을 상기 인코딩된 화상 데이터로 인코딩하도록 구성됨 - ; 및
    상기 복수의 화상 각각의 상기 인코딩된 화상 데이터를 출력하는 단계
    를 포함하고,
    상기 방법은:
    상기 복수의 화상의 각각의 화상에 대해, 상기 화상을 상기 화상의 복수의 코딩 트리 유닛을 포함하는 복수의 타일로 분할하는 단계 - 상기 복수의 코딩 트리 유닛의 각각의 코딩 트리 유닛은 상기 화상의 복수의 샘플을 포함하고, 상기 화상의 상기 복수의 타일 각각의 상기 복수의 코딩 트리 유닛의 각 코딩 트리 유닛에 대해, 상기 코딩 트리 유닛은 부분 유닛 또는 전체 유닛이고, 상기 코딩 트리 유닛은 상기 코딩 트리 유닛의 샘플 수가 미리 정의된 샘플 수보다 작은 경우 부분 유닛이고, 상기 코딩 트리 유닛은 상기 코딩 트리 유닛의 샘플 수가 상기 미리 정의된 샘플 수보다 작지 않은 경우 전체 유닛임 - ;
    상기 복수의 화상의 적어도 두 개의 화상에 대해, 상기 화상을 상기 적어도 두 개의 화상이 동일한 부분 대 전체 유닛 비율을 가지도록 분할하는 단계 - 상기 부분 대 전체 유닛 비율은 상기 복수의 화상의 하나의 화상에 대해, 부분 유닛인 상기 화상의 상기 코딩 트리 유닛의 수 대 전체 유닛인 상기 화상의 상기 코딩 트리 유닛의 수의 비율을 정의함 - ; 및
    상기 복수의 화상의 각 화상에 대해, 상기 화상의 상기 복수의 타일 각각의 상기 원본 화상 데이터를 상기 화상의 상기 복수의 타일 중 임의의 다른 타일의 상기 원본 화상 데이터와 독립적으로 인코딩하는 단계
    를 더 포함하는, 방법.
  105. 비디오의 복수의 화상을 복원하기 위해 인코딩된 화상 데이터를 포함하는 인코딩된 비디오 신호를 디코딩하는 방법에 있어서, 상기 방법은:
    상기 인코딩된 비디오 신호를 수신하는 단계; 및
    상기 인코딩된 화상 데이터를 디코딩하여 상기 비디오의 상기 복수의 화상을 복원하는 단계
    를 포함하고,
    상기 복수의 화상의 각 화상에 대해, 상기 화상은 상기 화상의 복수의 코딩 트리 유닛을 포함하는 복수의 타일로 분할되고, 상기 복수의 코딩 트리 유닛의 각각의 코딩 트리 유닛은 상기 화상의 복수의 샘플을 포함하고, 상기 화상의 상기 복수의 타일 각각의 상기 복수의 코딩 트리 유닛의 각 코딩 트리 유닛에 대해, 상기 코딩 트리 유닛은 부분 유닛 또는 전체 유닛이고, 상기 코딩 트리 유닛은 상기 코딩 트리 유닛의 샘플 수가 미리 정의된 샘플 수보다 작은 경우 부분 유닛이고, 상기 코딩 트리 유닛은 상기 코딩 트리 유닛의 샘플 수가 상기 미리 정의된 샘플 수보다 작지 않은 경우 전체 유닛이고,
    상기 복수의 화상 중 적어도 2개의 화상에 대해, 상기 화상은 상기 적어도 2개의 화상이 동일한 부분 대 전체 유닛 비율을 갖도록 분할되고, 상기 부분 대 전체 유닛 비율은 상기 복수의 화상의 하나의 화상에 대해, 부분 유닛인 상기 화상의 상기 코딩 트리 유닛의 수 대 전체 유닛인 상기 화상의 상기 코딩 트리 유닛의 수의 비율을 정의하고,
    상기 복수의 화상의 각 화상에 대해, 상기 화상의 상기 복수의 타일 각각의 상기 인코딩된 화상 데이터를 디코딩하는 단계는 상기 화상의 상기 복수의 타일 중 임의의 다른 타일의 상기 인코딩된 화상 데이터와 독립적으로 수행되어 상기 복수의 화상 각각의 상기 복수의 코딩 트리 유닛의 원본 화상 데이터를 획득하는, 방법.
  106. 제 104 항 또는 제 105 항의 방법을 컴퓨터 또는 신호 프로세서에서 실행될 때 구현하기 위한 컴퓨터 프로그램.
  107. 화상을 인코딩하는 인코딩된 비디오 신호에 있어서, 상기 인코딩된 비디오 신호는 상기 화상을 인코딩하는 인코딩된 화상 데이터를 포함하고,
    상기 복수의 화상의 각 화상에 대해, 상기 화상은 상기 화상의 복수의 코딩 트리 유닛을 포함하는 복수의 타일로 분할되고, 상기 복수의 코딩 트리 유닛의 각각의 코딩 트리 유닛은 상기 화상의 복수의 샘플을 포함하고, 상기 화상의 상기 복수의 타일 각각의 상기 복수의 코딩 트리 유닛의 각 코딩 트리 유닛에 대해, 상기 코딩 트리 유닛은 부분 유닛 또는 전체 유닛이고, 상기 코딩 트리 유닛은 상기 코딩 트리 유닛의 샘플 수가 미리 정의된 샘플 수보다 작은 경우 부분 유닛이고, 상기 코딩 트리 유닛은 상기 코딩 트리 유닛의 샘플 수가 상기 미리 정의된 샘플 수보다 작지 않은 경우 전체 유닛이고,
    상기 복수의 화상 중 적어도 2개의 화상에 대해, 상기 화상은 상기 적어도 2개의 화상이 동일한 부분 대 전체 유닛 비율을 갖도록 분할되고, 상기 부분 대 전체 유닛 비율은 상기 복수의 화상의 하나의 화상에 대해 부분 유닛인 상기 화상의 상기 코딩 트리 유닛의 수 대 전체 유닛인 상기 화상의 상기 코딩 트리 유닛의 수의 비율을 정의하고,
    상기 복수의 화상의 각 화상에 대해, 상기 화상의 상기 복수의 타일 각각의 상기 원본 화상 데이터는 상기 인코딩된 비디오 신호 내에서 상기 화상의 상기 복수의 타일 중 임의의 다른 타일의 상기 원본 화상 데이터와 독립적으로 인코딩되는, 인코딩된 비디오 신호.
  108. 시스템에 있어서,
    제 19 항 내지 제 22 항 중 한 항에 따른 상기 비디오 인코더(101), 및
    제 63 항 내지 제 66 항 중 한 항에 따른 상기 비디오 디코더(151)
    를 포함하고,
    상기 비디오 인코더(101)는 상기 인코딩된 비디오 신호를 생성하도록 구성되고,
    상기 비디오 디코더(151)는 상기 인코딩된 비디오 신호를 디코딩하여 상기 비디오의 상기 화상을 복원하도록 구성되는, 시스템.
  109. 인코딩된 비디오 신호를 생성하여 비디오의 복수의 화상을 인코딩하는 방법에 있어서, 상기 복수의 화상 각각은 원본 화상 데이터를 포함하고, 상기 방법은:
    인코딩된 화상 데이터를 포함하는 상기 인코딩된 비디오 신호를 생성하는 단계 - 상기 데이터 인코더는 상기 비디오의 상기 복수의 화상을 상기 인코딩된 화상 데이터로 인코딩하도록 구성됨 - ; 및
    상기 복수의 화상 각각의 상기 인코딩된 화상 데이터를 출력하는 단계
    를 포함하고,
    상기 방법은:
    상기 복수의 화상의 각각의 화상에 대해, 상기 화상을 상기 화상의 복수의 코딩 트리 유닛을 포함하는 복수의 타일로 분할하는 단계 - 상기 복수의 코딩 트리 유닛의 각각의 코딩 트리 유닛은 상기 화상의 복수의 샘플을 포함함 -
    를 더 포함하고,
    상기 복수의 화상은 현재 화상 및 참조 화상을 포함하고,
    상기 현재 화상의 상기 코딩 트리 유닛의 각 코딩 트리 유닛에 대해, 상기 참조 화상의 상기 복수의 코딩 트리 유닛 중 다른 코딩 트리 유닛이 존재하는 경우, 상기 코딩 트리 유닛은 바르게 정렬되고, 상기 참조 화상 내의 상기 다른 코딩 트리 유닛의 위치가 현재 화상 내의 상기 코딩 트리 유닛의 위치와 동일하고,
    상기 현재 화상의 상기 코딩 트리 유닛의 각 코딩 트리 유닛에 대해, 상기 참조 화상의 상기 복수의 코딩 트리 유닛 중 다른 코딩 트리 유닛이 존재하지 않는 경우, 상기 코딩 트리 유닛은 오정렬되고, 상기 참조 화상 내의 위치는 상기 현재 화상 내의 상기 코딩 트리 유닛의 위치와 동일하고,
    상기 현재 화상을 복수의 타일로 분할하는 단계는 오정렬된 상기 현재 화상의 상기 코딩 트리 유닛과 바르게 정렬된 상기 현재 화상의 상기 코딩 트리 유닛 간의 비율이 임계값보다 크지 않도록 수행되고,
    상기 복수의 화상의 각 화상에 대해서, 상기 화상의 상기 복수의 타일 각각의 상기 원본 화상 데이터는 상기 화상의 상기 복수의 타일 중 임의의 다른 타일의 상기 원본 화상 데이터와 독립적으로 인코딩되는, 방법.
  110. 비디오의 복수의 화상을 복원하기 위해 인코딩된 화상 데이터를 포함하는 인코딩된 비디오 신호를 디코딩하는 방법에 있어서, 상기 방법은:
    상기 인코딩된 비디오 신호를 수신하는 단계; 및
    상기 인코딩된 화상 데이터를 디코딩하여 상기 비디오의 상기 복수의 화상을 복원하는 단계
    를 포함하고,
    상기 복수의 화상의 각 화상에 대해, 상기 화상은 상기 화상의 복수의 코딩 트리 유닛을 포함하는 복수의 타일로 분할되고, 상기 복수의 코딩 트리 유닛의 각각의 코딩 트리 유닛은 상기 화상의 복수의 샘플을 포함하고, 상기 화상 내의 위치를 갖고,
    상기 복수의 화상은 현재 화상 및 참조 화상을 포함하고,
    상기 현재 화상의 상기 코딩 트리 유닛의 각 코딩 트리 유닛에 대해, 상기 참조 화상의 상기 복수의 코딩 트리 유닛 중 다른 코딩 트리 유닛이 존재하는 경우, 상기 코딩 트리 유닛은 바르게 정렬되고, 상기 참조 화상 내의 상기 다른 코딩 트리 유닛의 위치가 현재 화상 내의 상기 코딩 트리 유닛의 위치와 동일하고,
    상기 현재 화상의 상기 코딩 트리 유닛의 각 코딩 트리 유닛에 대해, 상기 참조 화상의 상기 복수의 코딩 트리 유닛 중 다른 코딩 트리 유닛이 존재하지 않는 경우, 상기 코딩 트리 유닛은 오정렬되고, 상기 참조 화상 내의 위치는 상기 현재 화상 내의 상기 코딩 트리 유닛의 위치와 동일하고,
    상기 현재 화상은 오정렬된 상기 현재 화상의 상기 코딩 트리 유닛과 바르게 정렬된 상기 현재 화상의 상기 코딩 트리 유닛 간의 비율이 임계값보다 크지 않도록 상기 복수의 타일로 분할되고,
    상기 복수의 화상의 각 화상에 대해, 상기 화상의 상기 복수의 타일 각각의 상기 인코딩된 화상 데이터는 상기 화상의 상기 복수의 타일 중 임의의 다른 타일의 상기 인코딩된 화상 데이터와 독립적으로 디코딩되어 상기 복수의 화상 각각의 상기 복수의 코딩 트리 유닛의 원본 화상 데이터를 획득하는, 방법.
  111. 제 109 항 또는 제 110 항의 방법을 컴퓨터 또는 신호 프로세서에서 실행될 때 구현하기 위한 컴퓨터 프로그램.
  112. 화상을 인코딩하는 인코딩된 비디오 신호에 있어서, 상기 인코딩된 비디오 신호는 상기 화상을 인코딩하는 인코딩된 화상 데이터를 포함하고,
    상기 복수의 화상의 각 화상에 대해, 상기 화상은 상기 화상의 복수의 코딩 트리 유닛을 포함하는 복수의 타일로 분할되고, 상기 복수의 코딩 트리 유닛의 각각의 코딩 트리 유닛은 상기 화상의 복수의 샘플을 포함하고, 상기 화상 내 위치를 갖고,
    상기 복수의 화상은 현재 화상 및 참조 화상을 포함하고,
    상기 현재 화상의 상기 코딩 트리 유닛의 각 코딩 트리 유닛에 대해, 상기 참조 화상의 상기 복수의 코딩 트리 유닛 중 다른 코딩 트리 유닛이 존재하는 경우, 상기 코딩 트리 유닛은 바르게 정렬되고, 상기 참조 화상 내의 상기 다른 코딩 트리 유닛의 위치가 현재 화상 내의 상기 코딩 트리 유닛의 위치와 동일하고,
    상기 현재 화상의 상기 코딩 트리 유닛의 각 코딩 트리 유닛에 대해, 상기 참조 화상의 상기 복수의 코딩 트리 유닛 중 다른 코딩 트리 유닛이 존재하지 않는 경우, 상기 코딩 트리 유닛은 오정렬되고, 상기 참조 화상 내의 위치는 상기 현재 화상 내의 상기 코딩 트리 유닛의 위치와 동일하고,
    상기 현재 화상의 상기 복수의 타일로의 분할은 오정렬된 상기 현재 화상의 상기 코딩 트리 유닛과 바르게 정렬된 상기 현재 화상의 상기 코딩 트리 유닛 간의 비율이 임계값보다 크지 않도록 실행되고,
    상기 복수의 화상의 각 화상에 대해, 상기 화상의 상기 복수의 타일 각각의 상기 원본 화상 데이터는 상기 인코딩된 비디오 신호 내에서 상기 화상의 상기 복수의 타일 중 임의의 다른 타일의 상기 원본 화상 데이터와 독립적으로 인코딩되는, 방법.
  113. 시스템에 있어서,
    제 24 항 내지 제 27 항 중 한 항에 따른 상기 비디오 인코더(101), 및
    제 68 항 내지 제 71 항 중 한 항에 따른 상기 비디오 디코더(151)
    를 포함하고,
    상기 비디오 인코더(101)는 상기 인코딩된 비디오 신호를 생성하도록 구성되고,
    상기 비디오 디코더(151)는 상기 인코딩된 비디오 신호를 디코딩하여 상기 비디오의 상기 화상을 복원하도록 구성되는, 시스템.
  114. 인코딩된 비디오 신호를 생성하여 비디오의 복수의 화상을 인코딩하는 방법에 있어서, 상기 복수의 화상 각각은 원본 화상 데이터를 포함하고, 상기 방법은:
    인코딩된 화상 데이터를 포함하는 상기 인코딩된 비디오 신호를 생성하는 단계 - 상기 데이터 인코더는 상기 비디오의 상기 복수의 화상을 상기 인코딩된 화상 데이터로 인코딩하도록 구성됨 - ; 및
    상기 복수의 화상 각각의 상기 인코딩된 화상 데이터를 출력하는 단계
    를 포함하고,
    상기 방법은:
    상기 복수의 화상의 각각의 화상에 대해, 복수의 타일의 각 타일의 복수의 타일 경계를 정의하여 상기 화상을 상기 화상의 복수의 코딩 트리 유닛을 포함하는 상기 복수의 타일로 분할하는 단계 - 상기 복수의 화상의 각 화상의 상기 복수의 코딩 트리 유닛의 각각의 코딩 트리 유닛은 상기 화상의 복수의 샘플을 포함함 - ; 및
    상기 복수의 화상의 각 화상에 대해, 상기 화상의 상기 복수의 타일 중 각 타일의 상기 복수의 타일 경계에 따라, 상기 타일의 상기 원본 화상 데이터를 상기 화상의 상기 복수의 타일 중 임의의 다른 타일의 상기 원본 화상 데이터와 독립적으로 인코딩하는 단계
    를 포함하고,
    상기 복수의 화상 각각의 상기 복수의 타일 각각의 상기 복수의 타일 경계의 각 타일 경계는 제 1 세트의 타일 경계에 할당되거나 제 2 세트의 타일 경계에 할당되고,
    상기 원본 화상 데이터를 인코딩하는 단계는, 상기 타일 경계가 상기 제 1 세트의 타일 경계에 할당된 경우, 상기 원본 화상 데이터를 인코딩할 때, 상기 복수의 화상 중 하나의 화상의 상기 복수의 타일 중 제1 타일의 상기 복수의 타일 경계 중 제1 타일 경계에서 인코딩 스캔 순서를 변경하는 단계를 포함하고,
    상기 원본 화상 데이터를 인코딩하는 단계는, 상기 타일 경계가 상기 제 2 세트의 타일 경계에 할당된 경우, 상기 원본 화상 데이터를 인코딩할 때, 상기 복수의 화상 중 하나의 화상의 상기 복수의 타일 중 제2 타일의 상기 복수의 타일 경계의 제2 타일 경계에서 상기 인코딩 스캔 순서를 변경하지 않는 단계를 포함하는, 방법.
  115. 비디오의 복수의 화상을 복원하기 위해 인코딩된 화상 데이터를 포함하는 인코딩된 비디오 신호를 디코딩하는 방법에 있어서, 상기 방법은:
    상기 인코딩된 비디오 신호를 수신하는 단계; 및
    상기 인코딩된 화상 데이터를 디코딩하여 상기 비디오의 상기 복수의 화상을 복원하는 단계
    를 포함하고,
    상기 복수의 화상의 각 화상에 대해, 상기 화상은 복수의 타일의 각 타일의 복수의 타일 경계를 정의하여 상기 화상의 복수의 코딩 트리 유닛을 포함하는 상기 복수의 타일로 분할되고, 상기 복수의 화상의 각 화상의 상기 복수의 코딩 트리 유닛의 각각의 코딩 트리 유닛은 상기 화상의 복수의 샘플을 포함하고,
    상기 방법은:
    상기 복수의 화상의 각 화상에 대해, 상기 화상의 상기 복수의 타일 중 각 타일의 상기 복수의 타일 경계에 따라, 상기 타일의 상기 인코딩된 화상 데이터를 상기 화상의 상기 복수의 타일 중 임의의 다른 타일의 상기 인코딩된 화상 데이터와 독립적으로 디코딩하여 상기 복수의 화상 각각의 상기 복수의 코딩 트리 유닛의 원본 화상 데이터를 획득하는 단계
    를 더 포함하고,
    상기 복수의 화상 각각의 상기 복수의 타일 각각의 상기 복수의 타일 경계의 각 타일 경계는 제 1 세트의 타일 경계에 할당되거나 제 2 세트의 타일 경계에 할당되고,
    상기 인코딩된 화상 데이터를 디코딩하는 단계는, 상기 타일 경계가 상기 제 1 세트의 타일 경계에 할당된 경우, 상기 인코딩된 화상 데이터를 디코딩할 때, 상기 복수의 화상 중 하나의 화상의 상기 복수의 타일 중 제1 타일의 상기 복수의 타일 경계 중 제1 타일 경계에서 디코딩 스캔 순서를 변경하는 단계를 포함하고,
    상기 인코딩된 데이터를 디코딩하는 단계는, 상기 타일 경계가 상기 제 2 세트의 타일 경계에 할당된 경우, 상기 인코딩된 화상 데이터를 디코딩할 때, 상기 복수의 화상 중 하나의 화상의 상기 복수의 타일 중 제 2 타일의 상기 복수의 타일 경계의 제 2 타일 경계에서 상기 디코딩 스캔 순서를 변경하지 않는 단계를 포함하는, 방법.
  116. 제 114 항 또는 제 115 항의 방법을 컴퓨터 또는 신호 프로세서에서 실행될 때 구현하기 위한 컴퓨터 프로그램.
  117. 화상을 인코딩하는 인코딩된 비디오 신호에 있어서, 상기 인코딩된 비디오 신호는 상기 화상을 인코딩하는 인코딩된 화상 데이터를 포함하고,
    상기 복수의 화상의 각 화상에 대해, 상기 화상은 복수의 타일의 각 타일에 대해 복수의 타일 경계를 정의하여 상기 화상의 복수의 코딩 트리 유닛을 포함하는 상기 복수의 타일로 분할되고, 상기 복수의 코딩 트리 유닛의 각각의 코딩 트리 유닛은 상기 화상의 복수의 샘플을 포함하고,
    상기 복수의 화상의 각 화상에 대해, 상기 화상의 상기 복수의 타일 중 각 타일의 상기 원본 화상 데이터는 상기 타일의 복수의 타일 경계에 따라, 상기 화상의 상기 복수의 타일 중 임의의 다른 타일의 상기 원본 화상 데이터와 독립적으로 상기 인코딩된 비디오 신호 내에서 인코딩되고,
    상기 복수의 화상 각각의 상기 복수의 타일 각각의 상기 복수의 타일 경계의 각 타일 경계는 타일 경계의 제1 세트에 할당되거나 타일 경계의 제2 세트에 할당되고,
    상기 원본 화상 데이터는, 상기 타일 경계가 상기 제 1 세트의 타일 경계에 할당된 경우 상기 원본 화상 데이터가 인코딩될 때, 인코딩 스캔 순서의 변경이 상기 복수의 화상 중 하나의 화상의 상기 복수의 타일 중 제 1 타일의 상기 복수의 타일 경계의 제 1 타일 경계에서 수행된 것에 따라 인코딩되고,
    상기 원본 화상 데이터는, 상기 타일 경계가 상기 제 2 세트의 타일 경계에 할당된 경우 원본 화상 데이터가 인코딩될 때, 상기 인코딩 스캔 순서의 변경이 상기 복수의 화상 중 하나의 화상의 상기 복수의 타일 중 제 2 타일의 상기 복수의 타일 경계 중 제 2 타일 경계에서 수행되지 않은 것에 따라 인코딩되는, 인코딩된 비디오 신호.
  118. 시스템에 있어서,
    제 28 항 내지 제 32 항 중 한 항에 따른 상기 비디오 인코더(101), 및
    제 72 항 내지 제 76 항 중 한 항에 따른 상기 비디오 디코더(151)
    를 포함하고,
    상기 비디오 인코더(101)는 상기 인코딩된 비디오 신호를 생성하도록 구성되고,
    상기 비디오 디코더(151)는 상기 인코딩된 비디오 신호를 디코딩하여 상기 비디오의 상기 화상을 복원하도록 구성되는, 시스템.
  119. 인코딩된 비디오 신호를 생성하여 비디오의 복수의 화상을 인코딩하는 방법에 있어서, 상기 복수의 화상 각각은 원본 화상 데이터를 포함하고, 상기 방법은:
    인코딩된 화상 데이터를 포함하는 상기 인코딩된 비디오 신호를 생성하는 단계 - 상기 데이터 인코더는 상기 비디오의 상기 복수의 화상을 상기 인코딩된 화상 데이터로 인코딩하도록 구성됨 - ; 및
    상기 복수의 화상 각각의 상기 인코딩된 화상 데이터를 출력하는 단계
    를 포함하고,
    상기 방법은:
    상기 복수의 화상의 각각의 화상에 대해, 상기 화상을 상기 화상의 복수의 코딩 트리 유닛을 포함하는 복수의 타일로 분할하는 단계 - 상기 복수의 코딩 트리 유닛의 각각의 코딩 트리 유닛은 상기 화상의 복수의 샘플을 포함하고 상기 화상 내 위치를 가짐 -
    를 더 포함하고,
    상기 복수의 화상은 현재 화상 및 참조 화상을 포함하고,
    상기 현재 화상의 상기 코딩 트리 유닛의 각 코딩 트리 유닛에 대해, 상기 참조 화상의 상기 복수의 코딩 트리 유닛 중 다른 코딩 트리 유닛이 존재하는 경우, 상기 코딩 트리 유닛은 바르게 정렬되고, 상기 참조 화상 내의 상기 다른 코딩 트리 유닛의 위치가 현재 화상 내의 상기 코딩 트리 유닛의 위치와 동일하고,
    상기 현재 화상의 상기 코딩 트리 유닛의 각 코딩 트리 유닛에 대해, 상기 참조 화상의 상기 복수의 코딩 트리 유닛 중 다른 코딩 트리 유닛이 존재하지 않는 경우, 상기 코딩 트리 유닛은 오정렬되고, 상기 참조 화상 내의 위치는 상기 현재 화상 내의 상기 코딩 트리 유닛의 위치와 동일하고,
    상기 현재 화상의 상기 복수의 코딩 트리 유닛은 상기 현재 화상의 상기 복수의 코딩 트리 유닛이 상기 현재 화상의 코딩 트리 유닛의 하나 이상의 행을 형성하도록 상기 현재 화상 내에 배열되고,
    상기 현재 화상의 분할은 상기 화상의 하나 이상의 행 중에서 상기 행의 임의의 코딩 트리 유닛이 오정렬되는 행이 존재하고 있지 않도록 실행되고,
    상기 현재 화상의 상기 복수의 타일 각각의 상기 원본 화상 데이터를 인코딩하는 단계는 상기 현재 화상의 임의의 다른 타일의 상기 원본 화상 데이터와 독립적으로 실행되는, 방법.
  120. 비디오의 복수의 화상을 복원하기 위해 인코딩된 화상 데이터를 포함하는 인코딩된 비디오 신호를 디코딩하는 방법에 있어서, 상기 방법은:
    상기 인코딩된 비디오 신호를 수신하는 단계; 및
    상기 인코딩된 화상 데이터를 디코딩하여 상기 비디오의 상기 복수의 화상을 복원하는 단계
    를 포함하고,
    상기 복수의 화상의 각 화상에 대해, 상기 화상은 상기 화상의 복수의 코딩 트리 유닛을 포함하는 복수의 타일로 분할되고, 상기 복수의 코딩 트리 유닛의 각각의 코딩 트리 유닛은 상기 화상의 복수의 샘플을 포함하고, 상기 화상 내의 위치를 갖고,
    상기 복수의 화상은 현재 화상 및 참조 화상을 포함하고,
    상기 현재 화상의 상기 코딩 트리 유닛의 각 코딩 트리 유닛에 대해, 상기 참조 화상의 상기 복수의 코딩 트리 유닛 중 다른 코딩 트리 유닛이 존재하는 경우, 상기 코딩 트리 유닛은 바르게 정렬되고, 상기 참조 화상 내의 상기 다른 코딩 트리 유닛의 위치가 현재 화상 내의 상기 코딩 트리 유닛의 위치와 동일하고,
    상기 현재 화상의 상기 코딩 트리 유닛의 각 코딩 트리 유닛에 대해, 상기 참조 화상의 상기 복수의 코딩 트리 유닛 중 다른 코딩 트리 유닛이 존재하지 않는 경우, 상기 코딩 트리 유닛은 오정렬되고, 상기 참조 화상 내의 위치는 상기 현재 화상 내의 상기 코딩 트리 유닛의 위치와 동일하고,
    상기 현재 화상의 상기 복수의 코딩 트리 유닛은 상기 현재 화상의 상기 복수의 코딩 트리 유닛이 상기 현재 화상의 코딩 트리 유닛의 하나 이상의 행을 형성하도록 상기 현재 화상 내에 배열되고,
    상기 데이터 인코더(110)는 상기 현재 화상의 상기 하나 이상의 행 중에서 상기 행의 임의의 코딩 트리 유닛이 오정렬되는 행이 존재하고 있지 않도록 상기 현재 화상을 분할하도록 구성되고,
    상기 데이터 인코더(110)는 상기 현재 화상의 상기 복수의 타일 각각의 상기 원본 화상 데이터를 상기 현재 화상의 상기 복수의 타일의 임의의 다른 타일의 상기 원본 화상 데이터와 독립적으로 인코딩하도록 구성되고,
    상기 현재 화상은 상기 현재 화상의 하나 이상의 행 중에서 상기 행의 임의의 코딩 트리 유닛이 오정렬된 행이 존재하고 있지 않도록 분할되고,
    상기 현재 화상의 상기 복수의 타일 각각의 상기 인코딩된 화상 데이터를 디코딩하는 단계는 상기 현재 화상의 상기 복수의 타일의 임의의 다른 타일의 상기 인코딩된 화상 데이터와 독립적으로 실행되어 상기 현재 화상의 원본 화상 데이터를 획득하는, 방법.
  121. 제 119 항 또는 제 120 항의 방법을 컴퓨터 또는 신호 프로세서에서 실행될 때 구현하기 위한 컴퓨터 프로그램.
  122. 화상을 인코딩하는 인코딩된 비디오 신호에 있어서, 상기 인코딩된 비디오 신호는 상기 화상을 인코딩하는 인코딩된 화상 데이터를 포함하고,
    상기 복수의 화상의 각 화상에 대해, 상기 화상은 상기 화상의 복수의 코딩 트리 유닛을 포함하는 복수의 타일로 분할되고, 상기 복수의 코딩 트리 유닛의 각각의 코딩 트리 유닛은 상기 화상의 복수의 샘플을 포함하고, 상기 화상 내 위치를 갖고,
    상기 복수의 화상은 현재 화상 및 참조 화상을 포함하고,
    상기 현재 화상의 상기 코딩 트리 유닛의 각 코딩 트리 유닛에 대해, 상기 참조 화상의 상기 복수의 코딩 트리 유닛 중 다른 코딩 트리 유닛이 존재하는 경우, 상기 코딩 트리 유닛은 바르게 정렬되고, 상기 참조 화상 내의 상기 다른 코딩 트리 유닛의 위치가 현재 화상 내의 상기 코딩 트리 유닛의 위치와 동일하고,
    상기 현재 화상의 상기 코딩 트리 유닛의 각 코딩 트리 유닛에 대해, 상기 참조 화상의 상기 복수의 코딩 트리 유닛 중 다른 코딩 트리 유닛이 존재하지 않는 경우, 상기 코딩 트리 유닛은 오정렬되고, 상기 참조 화상 내의 위치는 상기 현재 화상 내의 상기 코딩 트리 유닛의 위치와 동일하고,
    상기 현재 화상의 복수의 코딩 트리 유닛은 상기 현재 화상의 복수의 코딩 트리 유닛이 상기 현재 화상의 코딩 트리 유닛의 하나 이상의 행을 형성하도록 상기 현재 화상 내에 배열되고,
    상기 데이터 인코더(110)는 상기 현재 화상의 하나 이상의 행 중에서 상기 행의 임의의 코딩 트리 유닛이 오정렬된 행이 존재하고 있지 않도록 상기 현재 화상을 분할하도록 구성되고,
    상기 데이터 인코더(110)는 상기 현재 화상의 상기 복수의 타일 각각의 상기 원본 화상 데이터를 상기 현재 화상의 복수의 타일 중 임의의 다른 타일의 상기 원본 화상 데이터와 독립적으로 인코딩하도록 구성되고,
    상기 현재 화상은 상기 현재 화상의 상기 하나 이상의 행 중에서 상기 행의 임의의 코딩 트리 유닛이 오정렬된 행이 존재하고 있지 않도록 분할되고,
    상기 복수의 화상의 각 화상에 대해, 상기 화상의 상기 복수의 타일 각각의 상기 원본 화상 데이터는 상기 인코딩된 비디오 신호 내에서 상기 화상의 상기 복수의 타일 중 임의의 다른 타일의 상기 원본 화상 데이터와 독립적으로 인코딩되는, 방법.
  123. 시스템에 있어서,
    제 33 항 또는 제 34 항에 따른 상기 비디오 인코더(101), 및
    제 77 항 또는 제 78 항에 따른 상기 비디오 디코더(151)
    를 포함하고,
    상기 비디오 인코더(101)는 상기 인코딩된 비디오 신호를 생성하도록 구성되고,
    상기 비디오 디코더(151)는 상기 인코딩된 비디오 신호를 디코딩하여 상기 비디오의 상기 화상을 복원하도록 구성되는, 시스템.
  124. 인코딩된 비디오 신호를 생성하여 비디오의 복수의 화상을 인코딩하는 방법에 있어서, 상기 복수의 화상 각각은 원본 화상 데이터를 포함하고, 상기 방법은:
    인코딩된 화상 데이터를 포함하는 상기 인코딩된 비디오 신호를 생성하는 단계 - 상기 데이터 인코더는 상기 비디오의 상기 복수의 화상을 상기 인코딩된 화상 데이터로 인코딩하도록 구성됨 - ; 및
    상기 복수의 화상 각각의 상기 인코딩된 화상 데이터를 출력하는 단계
    를 포함하고,
    상기 방법은:
    상기 복수의 화상의 각각의 화상에 대해, 상기 화상을 상기 화상의 복수의 코딩 트리 유닛을 포함하는 복수의 타일로 분할하는 단계 - 상기 복수의 코딩 트리 유닛의 각 코딩 트리 유닛은 상기 화상의 복수의 샘플을 포함하고 상기 화상 내의 위치를 가지고, 상기 복수의 화상은 현재 화상 및 참조 화상을 포함하고, 상기 참조 화상은 상기 현재 화상에 시간적으로 선행함 - ;
    상기 참조 화상의 움직임 벡터 및 상기 현재 화상이 상기 현재 화상의 상기 복수의 타일로 분할되는 방법에 따라 상기 현재 화상의 움직임 벡터를 결정하는 단계; 및
    상기 현재 화상의 상기 움직임 벡터에 따라, 상기 현재 화상의 상기 복수의 타일 각각의 상기 원본 화상 데이터를 상기 화상의 상기 복수의 타일 중 임의의 다른 타일의 상기 원본 화상 데이터와 독립적으로 인코딩하는 단계
    를 더 포함하는, 방법.
  125. 비디오의 복수의 화상을 복원하기 위해 인코딩된 화상 데이터를 포함하는 인코딩된 비디오 신호를 디코딩하는 방법에 있어서, 상기 방법은:
    상기 인코딩된 비디오 신호를 수신하는 단계; 및
    상기 인코딩된 화상 데이터를 디코딩하여 상기 비디오의 상기 복수의 화상을 복원하는 단계
    를 포함하고,
    상기 복수의 화상의 각 화상에 대해, 상기 화상은 상기 화상의 복수의 코딩 트리 유닛을 포함하는 상기 복수의 타일로 분할되고, 상기 복수의 코딩 트리 유닛의 각각의 코딩 트리 유닛은 상기 화상의 복수의 샘플을 포함하고 상기 화상 내의위치를 가지고,
    상기 복수의 화상은 현재 화상 및 참조 화상을 포함하고, 상기 참조 화상은 상기 현재 화상을 시간적으로 선행하고,
    상기 방법은:
    상기 참조 화상의 움직임 벡터 및 상기 현재 화상이 상기 현재 화상의 상기 복수의 타일로 분할되는 방법에 따라 상기 현재 화상의 움직임 벡터를 결정하는 단계; 및
    상기 현재 화상의 상기 움직임 벡터에 따라, 상기 화상의 상기 복수의 타일 각각의 상기 인코딩된 화상 데이터를 상기 화상의 상기 복수의 타일 중 임의의 다른 타일의 상기 인코딩된 화상 데이터와 독립적으로 디코딩하여 상기 복수의 화상 각각의 상기 복수의 코딩 트리 유닛의 원본 화상 데이터를 획득하는 단계
    를 더 포함하는, 방법.
  126. 제 124 항 또는 제 125 항의 방법을 컴퓨터 또는 신호 프로세서에서 실행될 때 구현하기 위한 컴퓨터 프로그램.
  127. 화상을 인코딩하는 인코딩된 비디오 신호에 있어서, 상기 인코딩된 비디오 신호는 상기 화상을 인코딩하는 인코딩된 화상 데이터를 포함하고,
    상기 복수의 화상의 각 화상에 대해, 상기 화상은 상기 화상의 복수의 코딩 트리 유닛을 포함하는 상기 복수의 타일로 분할되고, 상기 복수의 코딩 트리 유닛의 각각의 코딩 트리 유닛은 상기 화상의 복수의 샘플을 포함하고 상기 화상 내 위치를 가지고, 상기 복수의 화상은 현재 화상 및 참조 화상을 포함하고, 상기 참조 화상은 상기 현재 화상을 시간적으로 선행하고,
    상기 현재 화상의 움직임 벡터는 상기 참조 화상의 움직임 벡터에 따라 달라지고 상기 현재 화상이 상기 현재 화상의 상기 복수의 타일로 분할되는 방법에 따라 달라지고,
    상기 현재 화상의 상기 복수의 타일 각각의 상기 원본 화상 데이터는 상기 현재 화상의 상기 움직임 벡터에 따라 상기 인코딩된 비디오 신호 내에서 인코딩되고, 상기 화상의 상기 복수의 타일 중 임의의 다른 타일의 상기 원본 화상 데이터와 독립적으로 인코딩되는, 인코딩된 비디오 신호.
  128. 시스템에 있어서,
    제 35 항 내지 제 38 항 중 한 항에 따른 상기 비디오 인코더(101), 및
    제 79 항 내지 제 82 항 중 한 항에 따른 상기 비디오 디코더(151)
    를 포함하고,
    상기 비디오 인코더(101)는 상기 인코딩된 비디오 신호를 생성하도록 구성되고,
    상기 비디오 디코더(151)는 상기 인코딩된 비디오 신호를 디코딩하여 상기 비디오의 상기 화상을 복원하도록 구성되는, 시스템.
  129. 인코딩된 비디오 신호를 생성하여 비디오의 복수의 화상을 인코딩하는 방법에 있어서, 상기 복수의 화상 각각은 원본 화상 데이터를 포함하고, 상기 방법은:
    인코딩된 화상 데이터를 포함하는 상기 인코딩된 비디오 신호를 생성하는 단계 - 상기 데이터 인코더는 상기 비디오의 상기 복수의 화상을 상기 인코딩된 화상 데이터로 인코딩하도록 구성됨 - ; 및
    상기 복수의 화상 각각의 상기 인코딩된 화상 데이터를 출력하는 단계
    를 포함하고,
    상기 방법은:
    상기 복수의 화상의 각각의 화상에 대해, 상기 화상을 상기 화상의 복수의 코딩 트리 유닛을 포함하는 복수의 타일로 분할하는 단계 - 상기 복수의 코딩 트리 유닛의 각각의 코딩 트리 유닛은 상기 화상의 복수의 샘플을 포함함 - ;
    상기 복수의 화상의 각 화상에 대해, 상기 화상의 상기 복수의 타일 각각의 상기 원본 화상 데이터를 인코딩하는 단계;를 더 포함하며,
    상기 인코딩된 비디오 신호를 생성하는 단계는 상기 인코딩된 비디오 신호가 상기 복수의 화상의 현재 화상에 대해, 상기 현재 화상과 상이한 상기 복수의 화상의 참조 화상이 상기 현재 화상을 인코딩하는데 사용되었는지를 나타내는 제 1 플래그를 더 포함하도록 수행되는, 방법.
  130. 비디오의 복수의 화상을 복원하기 위해 인코딩된 화상 데이터를 포함하는 인코딩된 비디오 신호를 디코딩하는 방법에 있어서, 상기 방법은:
    상기 인코딩된 비디오 신호를 수신하는 단계; 및
    상기 인코딩된 화상 데이터를 디코딩하여 상기 비디오의 상기 복수의 화상을 복원하는 단계
    를 포함하고,
    상기 복수의 화상의 각 화상에 대해, 상기 화상은 상기 화상의 복수의 코딩 트리 유닛을 포함하는 복수의 타일로 분할되고, 상기 복수의 코딩 트리 유닛의 각 코딩 트리 유닛은 상기 화상의 복수의 샘플을 포함하고,
    상기 인코딩된 비디오 신호는 상기 복수의 화상의 현재 화상에 대해 상기 현재 화상과 상이한 상기 복수의 화상의 참조 화상이 상기 현재 화상을 인코딩하는 데 사용되었는지 여부를 나타내는 제1 플래그를 더 포함하고,
    상기 복수의 화상의 하나의 화상에 대해, 상기 화상의 상기 복수의 타일 각각의 상기 인코딩된 화상 데이터의 디코딩이 상기 제1 플래그에 따라 수행되어 상기 복수의 화상 각각의 상기 복수의 코딩 트리 유닛의 원본 화상 데이터를 획득하는, 방법.
  131. 제 129 항 또는 제 130 항의 방법을 컴퓨터 또는 신호 프로세서에서 실행될 때 구현하기 위한 컴퓨터 프로그램.
  132. 화상을 인코딩하는 인코딩된 비디오 신호에 있어서, 상기 인코딩된 비디오 신호는 상기 화상을 인코딩하는 인코딩된 화상 데이터를 포함하고,
    상기 복수의 화상의 각 화상에 대해, 상기 화상은 상기 화상의 복수의 코딩 트리 유닛을 포함하는 복수의 타일로 분할되고, 상기 복수의 코딩 트리 유닛의 각각의 코딩 트리 유닛은 상기 화상의 복수의 샘플을 포함하고,
    상기 복수의 화상의 각 화상에 대해, 상기 화상의 상기 복수의 타일 각각의 상기 원본 화상 데이터는 상기 인코딩된 비디오 신호 내에서 인코딩되고,
    상기 인코딩된 비디오 신호는 상기 복수의 화상 중 현재 화상에 대해, 상기현재 화상과 상이한 상기 복수의 화상 중 참조 화상이 상기 현재 화상을 인코딩하는데 사용되었는지 여부를 나타내는 제 1 플래그를 더 포함하는, 인코딩된 비디오 신호.
  133. 시스템에 있어서,
    제 40 항 내지 제 44 항 중 한 항에 따른 상기 비디오 인코더(101), 및
    제 84 항 내지 제 88 항 중 한 항에 따른 상기 비디오 디코더(151)
    를 포함하고,
    상기 비디오 인코더(101)는 상기 인코딩된 비디오 신호를 생성하도록 구성되고,
    상기 비디오 디코더(151)는 상기 인코딩된 비디오 신호를 디코딩하여 상기 비디오의 상기 화상을 복원하도록 구성되는, 시스템.


KR1020217023916A 2018-12-28 2020-02-11 유연한 크기의 화상 파티션에 대한 복잡도가 처리된 인코더 및 디코더, 인코딩 방법 및 디코딩 방법 KR20210132009A (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
EP18248303 2018-12-28
PCT/EP2020/053483 WO2020136285A2 (en) 2018-12-28 2020-02-11 Encoder and decoder, encoding method and decoding method with complexity handling for flexibly sized picture partitions

Publications (1)

Publication Number Publication Date
KR20210132009A true KR20210132009A (ko) 2021-11-03

Family

ID=65011846

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020217023916A KR20210132009A (ko) 2018-12-28 2020-02-11 유연한 크기의 화상 파티션에 대한 복잡도가 처리된 인코더 및 디코더, 인코딩 방법 및 디코딩 방법

Country Status (8)

Country Link
US (2) US11758132B2 (ko)
EP (1) EP3903486A2 (ko)
JP (2) JP7320064B2 (ko)
KR (1) KR20210132009A (ko)
CN (1) CN113366838A (ko)
BR (1) BR112021012853A2 (ko)
MX (1) MX2021007765A (ko)
WO (1) WO2020136285A2 (ko)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022050599A1 (ko) * 2020-09-07 2022-03-10 삼성전자 주식회사 카메라의 신호 라인을 감소시킨 전자 장치
EP4254949A1 (en) * 2022-03-31 2023-10-04 Beijing Xiaomi Mobile Software Co., Ltd. Encoding/decoding video picture partitionned in ctu grids
EP4254950A1 (en) * 2022-03-31 2023-10-04 Beijing Xiaomi Mobile Software Co., Ltd. Encoding/decoding video picture partitionned in ctu grids

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013057782A1 (ja) 2011-10-17 2013-04-25 株式会社東芝 符号化方法及び復号方法
ES2571863T3 (es) 2012-01-17 2016-05-27 ERICSSON TELEFON AB L M (publ) Gestión de listas de imágenes de referencia
WO2014163452A1 (ko) * 2013-04-05 2014-10-09 삼성전자 주식회사 멀티 레이어 비디오의 복호화 방법 및 장치, 멀티 레이어 비디오의 부호화 방법 및 장치
US10313682B2 (en) * 2013-08-26 2019-06-04 Qualcomm Incorporated Determining regions when performing intra block copying
AU2013228045A1 (en) * 2013-09-13 2015-04-02 Canon Kabushiki Kaisha Method, apparatus and system for encoding and decoding video data
US9554141B2 (en) * 2013-11-18 2017-01-24 Arris Enterprises, Inc. Intra block copy for intra slices in high efficiency video coding (HEVC)
US10432928B2 (en) * 2014-03-21 2019-10-01 Qualcomm Incorporated Using a current picture as a reference for video coding
JP2016001859A (ja) * 2014-06-12 2016-01-07 キヤノン株式会社 画像符号化装置、画像符号化方法及びプログラム、画像復号装置、画像復号方法及びプログラム
GB2532420A (en) * 2014-11-18 2016-05-25 Sony Corp Data encoding and decoding
CN107683605B (zh) 2015-06-24 2021-12-03 索尼公司 编码装置、解码装置和传输控制方法
CN109691100B (zh) * 2016-09-16 2021-08-13 索尼公司 图像处理设备和图像处理方法
WO2019004283A1 (ja) * 2017-06-28 2019-01-03 シャープ株式会社 動画像符号化装置及び動画像復号装置
US11087500B2 (en) * 2018-03-15 2021-08-10 University-Industry Cooperation Group Of Kyung Hee University Image encoding/decoding method and apparatus
US10638145B2 (en) * 2018-06-19 2020-04-28 Novatek Microelectronics Corp. Video encoding apparatus and operating method thereof
US10798376B2 (en) * 2018-07-17 2020-10-06 Tencent America LLC Method and apparatus for video coding
CN113170099B (zh) * 2018-11-29 2024-03-29 北京字节跳动网络技术有限公司 块内拷贝模式和帧间预测工具之间的交互

Also Published As

Publication number Publication date
US20210006783A1 (en) 2021-01-07
BR112021012853A2 (pt) 2021-09-21
US11758132B2 (en) 2023-09-12
CN113366838A (zh) 2021-09-07
EP3903486A2 (en) 2021-11-03
JP2023139166A (ja) 2023-10-03
WO2020136285A8 (en) 2020-08-27
US20230370596A1 (en) 2023-11-16
JP7320064B2 (ja) 2023-08-02
MX2021007765A (es) 2022-12-15
JP2022518674A (ja) 2022-03-16
WO2020136285A3 (en) 2020-10-01
WO2020136285A2 (en) 2020-07-02

Similar Documents

Publication Publication Date Title
JP7055833B2 (ja) 並列処理のためのイントラブロックコピー予測制限
US11218694B2 (en) Adaptive multiple transform coding
US10848788B2 (en) Multi-type-tree framework for video coding
US11470330B2 (en) Intra prediction in video coding
JP6783799B2 (ja) ビデオデータの特定のピクチャ内のインターコーディングのための探索範囲決定
KR102369117B1 (ko) 비대칭 구획을 갖는 인트라 블록 카피 예측 및 인코더측 검색 패턴, 검색 범위 및 구획화 접근법
KR102283407B1 (ko) 중첩 구역 내에서의 재구성된 샘플 값의 블록 벡터 예측 및 추정에서의 혁신
EP3202150B1 (en) Rules for intra-picture prediction modes when wavefront parallel processing is enabled
KR102257269B1 (ko) 비디오 및 이미지 코딩 및 디코딩을 위한 인트라 블록 카피 예측 모드의 피쳐
KR20220113400A (ko) 비디오 데이터 스트림, 비디오 인코더, hrd 타이밍 픽스를 위한 장치 및 방법, 확장가능하고 병합가능한 비트스트림들을 위한 추가 기능들
KR20180063094A (ko) 인트라 블록 카피 병합 모드 및 이용가능하지 않는 ibc 참조 영역의 패딩
KR20160135226A (ko) 비디오 코딩에서 인트라 블록 카피를 위한 검색 영역 결정
JP2017517185A (ja) マルチレイヤコーディングにおける適合ウィンドウ情報
US20230370596A1 (en) Encoder and decoder, encoding method and decoding method with complexity handling for flexibly sized picture partitions
US20230345022A1 (en) Video Encoder, Video Decoder, Methods for Encoding and Decoding and Video Data Stream for Realizing Advanced Video Coding Concepts
KR102210946B1 (ko) 스크린 컨텐츠의 딕셔너리 인코딩 및 디코딩
KR101822725B1 (ko) Hls-전용 스케일러블 비디오 코딩을 위한 층 간 참조 화상 생성
JP2022538707A (ja) ビデオサンプルのブロックを符号化及び復号するための方法、装置、及びシステム
TWI789632B (zh) 用於參考圖像重新取樣擴展之編碼器與解碼器、編碼方法及解碼方法
US20240146906A1 (en) On temporal motion vector prediction
JP6793778B2 (ja) 波面並列処理が可能にされた場合のピクチャ内予測モードに関する規則
WO2023133245A1 (en) Boundary based asymmetric reference line offsets