KR101811968B1 - 비디오 코딩을 위한 교차 계층 병렬 프로세싱 및 오프셋 지연 파라미터들 - Google Patents

비디오 코딩을 위한 교차 계층 병렬 프로세싱 및 오프셋 지연 파라미터들 Download PDF

Info

Publication number
KR101811968B1
KR101811968B1 KR1020167003713A KR20167003713A KR101811968B1 KR 101811968 B1 KR101811968 B1 KR 101811968B1 KR 1020167003713 A KR1020167003713 A KR 1020167003713A KR 20167003713 A KR20167003713 A KR 20167003713A KR 101811968 B1 KR101811968 B1 KR 101811968B1
Authority
KR
South Korea
Prior art keywords
layer
video
picture
syntax element
offset
Prior art date
Application number
KR1020167003713A
Other languages
English (en)
Other versions
KR20160032179A (ko
Inventor
크리쉬나칸트 라파카
예-쿠이 왕
아다르쉬 크리쉬난 라마수브라모니안
Original Assignee
퀄컴 인코포레이티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 퀄컴 인코포레이티드 filed Critical 퀄컴 인코포레이티드
Publication of KR20160032179A publication Critical patent/KR20160032179A/ko
Application granted granted Critical
Publication of KR101811968B1 publication Critical patent/KR101811968B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/187Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a scalable video layer
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • H04N19/33Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability in the spatial domain
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/42Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
    • H04N19/436Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation using parallelised computational arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/573Motion compensation with multiple frame prediction using two or more reference frames in a given prediction direction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/167Position within a video image, e.g. region of interest [ROI]

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computing Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

일 예에 있어서, 비디오 데이터를 코딩하는 방법은 멀티-계층 비트스트림의 임의의 계층들이 계층간 예측 제한을 갖는지 여부를 나타내는 데이터 또는 타일 경계들이 멀티-계층 비트스트림의 계층들 중 적어도 2개의 계층들 사이에서 정렬되는지 여부를 나타내는 데이터 중 적어도 하나의 데이터를 포함하여 멀티-계층 비트스트림의 비디오 파라미터 세트 (VPS) 의 데이터를 코딩하는 단계, 및 VPS 의 데이터에 따라 멀티-계층 비트스트림을 코딩하는 단계를 포함한다.

Description

비디오 코딩을 위한 교차 계층 병렬 프로세싱 및 오프셋 지연 파라미터들 {CROSS-LAYER PARALLEL PROCESSING AND OFFSET DELAY PARAMETERS FOR VIDEO CODING}
본 출원은 2013년 7월 15일자로 출원된 미국 가출원 제61/846,570호의 이익을 주장하고, 이 가출원의 전체 내용들은 본 명세서에 참조로 통합된다.
본 개시는 비디오 코딩에 관한 것이다.
디지털 비디오 능력들은 디지털 텔레비전들, 디지털 직접 브로드캐스트 시스템들, 무선 브로드캐스트 시스템들, 개인용 디지털 보조기들 (PDA들), 랩탑 또는 데스크탑 컴퓨터들, 태블릿 컴퓨터들, e-북 리더들, 디지털 카메라들, 디지털 레코딩 디바이스들, 디지털 미디어 플레이어들, 비디오 게이밍 디바이스들, 비디오 게임 콘솔들, 셀룰러 또는 위성 무선 전화기들, 소위 "스마트 폰들", 비디오 텔레컨퍼런싱 디바이스들, 비디오 스트리밍 디바이스들 등을 포함한, 광범위한 디바이스들에 통합될 수 있다. 디지털 비디오 디바이스들은 MPEG-2, MPEG-4, ITU-T H.263, ITU-T H.264/MPEG-4, 파트 10, 어드밴스드 비디오 코딩 (AVC) 에 의해 정의된 표준들, 현재 개발 중인 고효율 비디오 코딩 (HEVC) 표준, 및 그러한 표준들의 확장들에서 설명된 기술들과 같은 비디오 코딩 기술들을 구현한다. 비디오 디바이스들은 그러한 비디오 코딩 기술들을 구현함으로써 디지털 비디오 정보를 더 효율적으로 송신, 수신, 인코딩, 디코딩, 및/또는 저장할 수도 있다.
비디오 코딩 기술들은 비디오 시퀀스들에 내재한 리던던시를 감소 또는 제거하기 위해 공간 (인트라-픽처) 예측 및/또는 시간 (인터-픽처) 예측을 포함한다. 블록 기반 비디오 코딩에 대해, 비디오 슬라이스 (예를 들어, 비디오 프레임 또는 비디오 프레임의 부분) 는 비디오 블록들로 파티셔닝될 수도 있으며, 이 비디오 블록들은 또한 트리블록들, 코딩 유닛들 (CU들) 및/또는 코딩 노드들로서 지칭될 수도 있다. 픽처의 인트라-코딩된 (I) 슬라이스에서의 비디오 블록들은 동일 픽처의 이웃 블록들에서의 레퍼런스 샘플들에 대한 공간 예측을 이용하여 인코딩된다. 픽처의 인터-코딩된 (P 또는 B) 슬라이스에서의 비디오 블록들은 동일 픽처의 이웃 블록들에서의 레퍼런스 샘플들에 대한 공간 예측, 또는 다른 레퍼런스 픽처들에서의 레퍼런스 샘플들에 대한 시간 예측을 이용할 수도 있다. 픽처들은 프레임들로서 지칭될 수도 있으며, 레퍼런스 픽처들은 레퍼런스 프레임들로서 지칭될 수도 있다.
공간 또는 시간 예측은 코딩될 블록에 대한 예측 블록을 발생시킨다. 잔차 데이터는 코딩될 오리지널 블록과 예측 블록 간의 픽셀 차이들을 나타낸다. 인터-코딩된 블록은 예측 블록을 형성하는 레퍼런스 샘플들의 블록을 포인팅하는 모션 벡터, 및 코딩된 블록과 예측 블록 간의 차이를 나타내는 잔차 데이터에 따라 인코딩된다. 인트라-코딩된 블록은 인트라-코딩 모드 및 잔차 데이터에 따라 인코딩된다. 추가적인 압축을 위해, 잔차 데이터는 픽셀 도메인으로부터 변환 도메인으로 변환되어, 잔차 변환 계수들을 발생시킬 수도 있으며, 그 후, 이 잔차 변환 계수들은 양자화될 수도 있다. 2차원 어레이로 초기에 배열되는 양자화된 변환 계수들은 변환 계수들의 1차원 벡터를 생성하기 위해 스캐닝될 수도 있으며, 엔트로피 코딩이 훨씬 더 많은 압축을 달성하도록 적용될 수도 있다.
일반적으로, 본 개시는 비디오 코딩의 병렬 프로세싱을 위한 기술들을 설명한다. 예를 들어, 본 개시는 고효율 비디오 코딩 (HEVC) 표준의 멀티-계층 확장들을 포함한 멀티-계층 비디오 코딩 프로세스들에서 병렬 프로세싱을 위한 기술들을 설명한다. 본 개시의 기술들은 또한, 멀티뷰 HEVC (MV-HEVC) 와 같이 다른 멀티-계층 비디오 코딩 표준들 및 그러한 표준들의 확장들에 적용될 수도 있다. 일부 예들에 있어서, 그 기술들은, 비디오 파라미터 세트 (VPS) 에서의 오프셋 지연 정보와 같이, 다중의 계층들을 병렬로 프로세싱하기 위한 정보를 시그널링하는 것을 포함한다. 그 기술들은 또한, 타일 정렬 정보와 같이, 다중의 계층들을 병렬로 프로세싱하기 위한 정보를 시그널링하는 것을 포함할 수도 있다. 양태들은 또한, 멀티-계층 비디오 코딩에서 병치된 블록의 위치를 결정하기 위한 기술들에 관련될 수도 있다.
일 예에 있어서, 비디오 데이터를 디코딩하는 방법은 멀티-계층 비트스트림의 비디오 파라미터 세트 (VPS) 로부터, 멀티-계층 비트스트림의 임의의 계층들이 계층간 예측 제한을 갖는지 여부를 나타내는 데이터 또는 타일 경계들이 멀티-계층 비트스트림의 계층들 중 적어도 2개의 계층들 사이에서 정렬되는지 여부를 나타내는 데이터 중 적어도 하나의 데이터를 디코딩하는 단계, 및 VPS 로부터 디코딩된 데이터에 따라 멀티-계층 비트스트림을 디코딩하는 단계를 포함한다.
다른 예에 있어서, 비디오 데이터를 인코딩하는 방법은 멀티-계층 비트스트림의 비디오 파라미터 세트 (VPS) 에서, 멀티-계층 비트스트림의 임의의 계층들이 계층간 예측 제한을 갖는지 여부를 나타내는 데이터 또는 타일 경계들이 멀티-계층 비트스트림의 계층들 중 적어도 2개의 계층들 사이에서 정렬되는지 여부를 나타내는 데이터 중 적어도 하나의 데이터를 인코딩하는 단계, 및 VPS 에서 인코딩된 데이터에 따라 멀티-계층 비트스트림을 인코딩하는 단계를 포함한다.
다른 예에 있어서, 비디오 코딩을 수행하는 장치는 비디오 데이터를 저장하는 메모리, 및 멀티-계층 비트스트림의 임의의 계층들이 계층간 예측 제한을 갖는지 여부를 나타내는 데이터 또는 타일 경계들이 멀티-계층 비트스트림의 계층들 중 적어도 2개의 계층들 사이에서 정렬되는지 여부를 나타내는 데이터 중 적어도 하나의 데이터를 코딩하는 것을 포함하여 멀티-계층 비트스트림의 비디오 파라미터 세트 (VPS) 의 데이터를 코딩하고, 그리고 VPS 의 데이터에 따라 멀티-계층 비트스트림을 코딩하도록 구성된 비디오 코더를 포함한다.
다른 예에 있어서, 비디오 코딩을 수행하는 장치는 멀티-계층 비트스트림의 임의의 계층들이 계층간 예측 제한을 갖는지 여부를 나타내는 데이터 또는 타일 경계들이 멀티-계층 비트스트림의 계층들 중 적어도 2개의 계층들 사이에서 정렬되는지 여부를 나타내는 데이터 중 적어도 하나의 데이터를 포함하여 멀티-계층 비트스트림의 비디오 파라미터 세트 (VPS) 의 데이터를 코딩하는 수단, 및 VPS 의 데이터에 따라 멀티-계층 비트스트림을 코딩하는 수단을 포함한다.
다른 예에 있어서, 비-일시적인 컴퓨터 판독가능 매체는 명령들을 저장하고, 그 명령들은, 실행될 경우, 비디오 코더로 하여금 멀티-계층 비트스트림의 임의의 계층들이 계층간 예측 제한을 갖는지 여부를 나타내는 데이터 또는 타일 경계들이 멀티-계층 비트스트림의 계층들 중 적어도 2개의 계층들 사이에서 정렬되는지 여부를 나타내는 데이터 중 적어도 하나의 데이터를 코딩하는 것을 포함하여 멀티-계층 비트스트림의 비디오 파라미터 세트 (VPS) 의 데이터를 코딩하게 하고, 그리고 VPS 의 데이터에 따라 멀티-계층 비트스트림을 코딩하게 한다.
다른 예에 있어서, 비디오 데이터를 디코딩하는 방법은 하나 이상의 스케일링된 오프셋 값들에 기초하여 비디오 데이터의 레퍼런스 픽처와 연관된 레퍼런스 샘플의 위치를 결정하는 단계로서, 레퍼런스 픽처는 멀티-계층 비트스트림의 제 1 계층에 포함되고 하나 이상의 스케일링된 오프셋 값들은 제 1 계층과 상이한 제 2 계층 간의 스케일에서의 차이를 나타내는, 상기 레퍼런스 샘플의 위치를 결정하는 단계, 레퍼런스 샘플의 위치에 기초하여 제 1 계층에서의 비디오 데이터의 병치된 레퍼런스 블록의 위치를 결정하는 단계, 및 병치된 레퍼런스 블록에 대한 제 2 계층에서의 비디오 데이터의 현재 블록을 디코딩하는 단계를 포함한다.
다른 예에 있어서, 비디오 데이터를 인코딩하는 방법은 하나 이상의 스케일링된 오프셋 값들에 기초하여 비디오 데이터의 레퍼런스 픽처와 연관된 레퍼런스 샘플의 위치를 결정하는 단계로서, 레퍼런스 픽처는 멀티-계층 비트스트림의 제 1 계층에 포함되고 하나 이상의 스케일링된 오프셋 값들은 제 1 계층과 상이한 제 2 계층 간의 스케일에서의 차이를 나타내는, 상기 레퍼런스 샘플의 위치를 결정하는 단계, 레퍼런스 샘플의 위치에 기초하여 제 1 계층에서의 비디오 데이터의 병치된 레퍼런스 블록의 위치를 결정하는 단계, 및 병치된 레퍼런스 블록에 대한 제 2 계층에서의 비디오 데이터의 현재 블록을 인코딩하는 단계를 포함한다.
다른 예에 있어서, 비디오 코딩을 수행하는 장치는 비디오 데이터를 저장하는 메모리, 및 하나 이상의 스케일링된 오프셋 값들에 기초하여 비디오 데이터의 레퍼런스 픽처와 연관된 레퍼런스 샘플의 위치를 결정하는 것으로서, 레퍼런스 픽처는 멀티-계층 비트스트림의 제 1 계층에 포함되고 하나 이상의 스케일링된 오프셋 값들은 제 1 계층과 상이한 제 2 계층 간의 스케일에서의 차이를 나타내는, 상기 레퍼런스 샘플의 위치를 결정하고, 레퍼런스 샘플의 위치에 기초하여 제 1 계층에서의 비디오 데이터의 병치된 레퍼런스 블록의 위치를 결정하고, 그리고 병치된 레퍼런스 블록에 대한 제 2 계층에서의 비디오 데이터의 현재 블록을 코딩하도록 구성된 비디오 코더를 포함한다.
다른 예에 있어서, 비디오 코딩을 수행하는 장치는 하나 이상의 스케일링된 오프셋 값들에 기초하여 비디오 데이터의 레퍼런스 픽처와 연관된 레퍼런스 샘플의 위치를 결정하는 수단으로서, 레퍼런스 픽처는 멀티-계층 비트스트림의 제 1 계층에 포함되고 하나 이상의 스케일링된 오프셋 값들은 제 1 계층과 상이한 제 2 계층 간의 스케일에서의 차이를 나타내는, 상기 레퍼런스 샘플의 위치를 결정하는 수단, 레퍼런스 샘플의 위치에 기초하여 제 1 계층에서의 비디오 데이터의 병치된 레퍼런스 블록의 위치를 결정하는 수단, 및 병치된 레퍼런스 블록에 대한 제 2 계층에서의 비디오 데이터의 현재 블록을 코딩하는 수단을 포함한다.
다른 예에 있어서, 비-일시적인 컴퓨터 판독가능 매체는 명령들을 저장하고, 그 명령들은, 실행될 경우, 비디오 코더로 하여금 하나 이상의 스케일링된 오프셋 값들에 기초하여 비디오 데이터의 레퍼런스 픽처와 연관된 레퍼런스 샘플의 위치를 결정하게 하는 것으로서, 레퍼런스 픽처는 멀티-계층 비트스트림의 제 1 계층에 포함되고 하나 이상의 스케일링된 오프셋 값들은 제 1 계층과 상이한 제 2 계층 간의 스케일에서의 차이를 나타내는, 상기 레퍼런스 샘플의 위치를 결정하게 하고, 레퍼런스 샘플의 위치에 기초하여 제 1 계층에서의 비디오 데이터의 병치된 레퍼런스 블록의 위치를 결정하게 하고, 그리고 병치된 레퍼런스 블록에 대한 제 2 계층에서의 비디오 데이터의 현재 블록을 코딩하게 한다.
본 개시의 하나 이상의 예들의 상세들은 첨부 도면들 및 하기의 설명에 기재된다. 본 개시의 다른 특징들, 목적들, 및 이점들은 그 설명 및 도면들로부터, 그리고 청구항들로부터 명백할 것이다.
도 1 은 비디오 데이터를 병렬로 프로세싱하기 위한 기술들을 활용할 수도 있는 예시적인 비디오 인코딩 및 디코딩 시스템을 도시한 블록 다이어그램이다.
도 2 는 비디오 데이터를 병렬로 프로세싱하기 위한 기술들을 구현할 수도 있는 비디오 인코더의 일 예를 도시한 블록 다이어그램이다.
도 3 은 비디오 데이터를 병렬로 프로세싱하기 위한 기술들을 구현할 수도 있는 비디오 디코더의 일 예를 도시한 블록 다이어그램이다.
도 4 는 스케일러블 비디오 코딩 (SVC) 을 위한 다양한 스케일러블 차원들을 도시한 개념 다이어그램이다.
도 5 는 SVC 코딩 구조의 일 예를 도시한 개념 다이어그램이다.
도 6 은 예시적인 액세스 유닛들 (AU들) 을 도시한 개념 다이어그램이다.
도 7 은 고효율 비디오 코딩 (HEVC) 표준에 따른 예시적인 타일들을 도시한 개념 다이어그램이다.
도 8 은 파면 병렬 프로세싱 (WPP) 을 위한 파면들을 도시한 개념 다이어그램이다.
도 9 는 병치된 레퍼런스 계층 영역들을 갖지 않는 인핸스먼트 계층 영역들을 도시한 개념 다이어그램이다.
도 10 은 병치된 레퍼런스 계층 영역들을 갖지 않는 인핸스먼트 계층 영역들을 도시한 다른 개념 다이어그램이다.
도 11a 및 도 11b 는 멀티-계층 비디오 코딩에서 오프셋 지연 정보를 결정하기 위한 예시적인 프로세스를 도시한 플로우 다이어그램들이다.
도 12 는 멀티-계층 비디오 코딩에서 비디오 데이터의 병치된 블록을 결정하기 위한 예시적인 프로세스를 도시한 플로우 다이어그램이다.
도 13 은 멀티-계층 비디오 코딩에서 타일 정렬 정보를 결정하기 위한 예시적인 프로세스를 도시한 플로우 다이어그램이다.
본 개시의 양태들은 비디오 코딩에 있어서 교차 계층 병렬 프로세싱 및 오프셋 지연 파라미터들과 연관된 다양한 기술들과 관련될 수도 있다. 일부 경우들에 있어서, 그 기술들은 HEVC 에 대한 멀티뷰 비디오 코딩 확장 (MV-HEVC) 또는 HEVC 에 대한 스케일러블 비디오 코딩 (SVC) 확장 (SHVC) 과 같이 고효율 비디오 코딩 (HEVC) 표준에 대한 멀티-계층 확장들로 수행될 수도 있다. 그 기술들은 또한, HEVC 에 대한 다른 확장들, 다른 스케일러블 코딩 표준들, 다른 멀티뷰 코딩 표준들 (심도 컴포넌트가 있거나 또는 없음) 및/또는 다른 멀티-계층 비디오 코덱들로 사용될 수도 있다. 본 개시의 기술들은 임의의 특정 비디오 코딩 표준에 한정되지 않음이 이해되어야 한다. 부가적으로, 본 개시의 기술들 중 임의의 기술은 독립적으로 또는 조합하여 적용될 수도 있음이 이해되어야 한다.
하기에서 더 상세히 설명되는 바와 같이, 본 개시의 양태들은 교차 계층 병렬 프로세싱 오프셋 지연 파라미터들의 시그널링과 관련된 개선들을 포함할 수도 있다. "오프셋 지연" 은 일반적으로, 다중의 계층들을 병렬로 프로세싱 (예를 들어, 인코딩 또는 디코딩) 하는 것과 연관된 지연을 지칭할 수도 있다. 예를 들어, 비디오 디코더는 멀티-계층 비트스트림의 1 초과의 계층을 병렬로 디코딩할 수도 있다 (즉, 비디오 디코더는 멀티-계층 비트스트림의 다중의 계층들을 동시에 또는 동기식으로 디코딩할 수도 있음). 하지만, 계층간 예측 기술들을 사용하여 현재 계층을 디코딩할 경우, 비디오 디코더는, 현재 계층과는 상이한 레퍼런스 계층의 레퍼런스 데이터에 액세스할 수도 있다. 레퍼런스 데이터는, 현재 계층을 디코딩하기 위한 계층간 레퍼런스로서 사용되기 위하여 이용가능해야 (예를 들어, 디코딩되어야) 한다. 이에 따라, 일반적으로, 비디오 디코더는, 레퍼런스 계층들의 하나 이상을 참조하는 계층을 디코딩하기 전에 멀티-계층 디코딩 방식으로 모든 레퍼런스 계층들의 디코딩을 완결한다.
일부 경우들에 있어서, 병렬화는 오프셋 지연 정보로서 지칭된 정보를 구현함으로써 증가될 수도 있다. 즉, 전체 레퍼런스 계층이 완결될 (예를 들어, 디코딩될) 것을 대기하는 것보다, 비디오 디코더는 레퍼런스 계층의 적어도 일부가 디코딩될 때까지 현재 계층의 디코딩의 개시를 지연시킬 수도 있다. 오프셋 지연은 일반적으로, 비디오 디코더가 현재 계층을 디코딩하기 시작하기 전에 디코딩되어야 하는 레퍼런스 계층의 최소량을 나타낼 수도 있다. 오프셋 지연을 구현하는 것은, 계층간 레퍼런스 데이터가 레퍼런스로서 사용되도록 이용가능하면서 레퍼런스 계층 및 현재 계층의 적어도 일부가 병렬로 디코딩되는 것을 여전히 허용함을 보장하는 것을 도울 수도 있다. 예를 들어, 병렬 디코더는, 명시된 레퍼런스 계층 오프셋 지연이 달성되자 마자 인핸스먼트 계층을 디코딩하기 시작할 수도 있다. 상기 예가 비디오 디코딩 (병렬 디코더에 의해 수행됨) 에 대하여 설명되지만, 유사한 기술들이 병렬 인코딩 동안 비디오 인코더에 의해 적용될 수도 있음이 이해되어야 한다.
일반적인 의미로, 텍스처 뷰 컴포넌트들, 심도 뷰 컴포넌트들, 및 다양한 시간, 공간, 및 품질 계층들은 본 개시에 대하여 어느정도 상호대체가능한 것으로서 간주될 수도 있다. 예를 들어, 일부 경우들에 있어서, 비디오 코더는, 코딩되는 멀티-계층 비트스트림이 텍스처 뷰 컴포넌트들, 심도 뷰 컴포넌트들, 또는 스케일러블 비디오 코딩과 통상적으로 연관된 스케일러블 컴포넌트들 (예를 들어, 시간, 공간 및/또는 품질 계층들) 을 포함하는지 여부와 무관하게, 유사하거나 동일한 계층간 비디오 코딩 기술들을 수행할 수도 있다. 이에 따라, 본 개시의 기술들은 일반적인 의미로 "계층들" 에 적용가능한 것으로 간주될 수도 있으며, 여기서, 계층들은 텍스처 뷰 컴포넌트들, 심도 뷰 컴포넌트들, 시간 스케일러블 계층들, 공간 스케일러블 계층들, 또는 품질 스케일러블 계층들 중 임의의 것일 수도 있다. 즉, 본 명세서에서 설명된 기술들은, 용어가 상기에서 기술될 때, 일반적인 "계층들" 에 넓게 적용가능함이 이해되어야 한다.
오프셋 지연 시그널링을 위한 일 방식이 Skupin 등의 문헌 "Inter-Layer Delay Indication in VUI", JCTVC-M0463, 인천, 대한민국, 2013년 4월 18-26일 (이하, JCTVC-M0463) 에서 제안되었다. 그 방식은, 각각의 계층에 대한 최소 요구 디코딩 지연을 전달하는 시퀀스 파라미터 세트 (SPS) 비디오 유용성 정보 (VUI) 에서의 오프셋 지연 신택스 엘리먼트들을 시그널링함으로써 계층들에 걸쳐 병렬로 디코딩하는 것을 돕도록 설계되었다. 이 방식 하에서, 특정 계층의 디코딩은, 오프셋 지연에 의해 명시된 레퍼런스 계층에서의 영역이 디코딩되자 마자 시작할 수 있다.
하지만, JCTVC-M0463 에 개시된 방식은 몇몇 단점들을 가질 수도 있다. 예를 들어, SPS 는 (예를 들어, nuh_layer_id 신택스 엘리먼트에 의해 표시되는 바와 같은) 상이한 식별 값들을 갖는 다중의 계층들과 연관될 수도 있다. (JCTVC-M0463 에서 도입된) 신택스 엘리먼트 num_ilp_restricted_ref_layers 의 제안된 시맨틱스는, SPS 를 참조하는 각각의 계층에 대해 NumDirectRefLayers 파라미터와 동일하도록 신택스 엘리먼트의 값을 제한한다 (여기서, NumDirectRefLayers 파라미터는 특정한 직접 레퍼런스 계층을 나타냄). 직접 레퍼런스 계층은 예측의 목적들로 다른 계층에 의해 직접 참조된다. 예를 들어, 계층 B 를 레퍼런스로서 사용하는 현재 계층 A 가 주어지면, 레퍼런스 계층 B 는 직접 레퍼런스 계층으로서 지칭될 수도 있다. 계층 C 를 레퍼런스로서 사용하는 계층 A 가 주어지고 C 는 계층 B 를 참조할 경우, 계층 B 는 간접 레퍼런스 계층으로서 지칭될 수도 있다.
어떠한 경우라도, NumDirectRefLayers 파라미터의 상이한 값들을 갖는 (소정의 SPS 를 참조하는) 계층들 (즉, 신택스 엘리먼트 num_ilp_restricted_ref_layers 의 개별 값들이 서로 상이한 계층들) 에 대해 또는 약간 상이한 오프셋 값들을 가질 수도 있는 계층들에 대해, 신택스 엘리먼트 num_ilp_restricted_ref_layers 의 제안된 신택스 구조는 이들 계층들 사이에서 SPS 내 정보의 공유를 심각하게 제한한다. 즉, NumDirectRefLayers 파라미터의 별개의 값을 소유하거나 또는 소정의 SPS 를 참조하는 다른 계층들에 대해 약간 상이한 오프셋 값을 가질 수도 있는 각각의 그러한 계층에 대해, 별도의 SPS 가 시그널링될 필요가 있을 수도 있다. 따라서, SPS 에서의 오프셋 지연 정보의 시그널링은 이상적이지 않을 수도 있다.
부가적으로, SPS 에서 비디오 파라미터 세트 (VPS) 의 파싱 의존성을 회피하기 위해, (계층간 예측 제한을 갖는 특정 레퍼런스 계층을 표시하는) num_ilp_restricted_ref_layers 는, num_ilp_restricted_ref_layers 의 값이 NumDirectRefLayers[ nuh_layer_id ] 와 동일해야 하는 제약으로 SPS 에 시그널링되며, 여기서, nuh_layer_id 는 SPS 를 참조하는 임의의 픽처의 nuh_layer_id 이다. 즉, 다수의 레퍼런스 계층들은, 상이한 계층들이 그렇지 않으면 오프셋 지연에 영향을 줄 수도 있는 상이한 특성들을 가짐에도 불구하고, SPS 에 포함된 동일한 오프셋 지연 정보를 공유하도록 강제될 수도 있다.
본 개시의 양태들에 따르면, 오프셋 지연 정보는, 1 초과의 계층에 의해 참조될 수도 있는 비디오 파라미터 세트 (VPS) 에 포함될 수도 있다. VPS 는, 서브 계층들 간의 의존성들을 포함하여 코딩된 비디오 시퀀스의 전체 특성들을 기술하는 데이터를 포함할 수도 있다. VPS 의 하나의 목적은 시스템 계층에서의 시그널링의 관점에서 특정 표준의 호환가능 확장성을 가능케 하는 것일 수도 있다. VPS 는 통상적으로, 디코딩될 비트스트림에 대한 멀티-계층 비트스트림에 포함되어야 한다.
VPS 에 오프셋 지연 정보를 포함시킴으로써, 오프셋 지연 정보는 각각의 레퍼런스 계층에 대해 별도로 명시될 수도 있다. 그러한 시그널링은, 상이한 특성들을 갖는 레퍼런스 계층들이 동일한 오프셋 지연 정보를 공유하도록 강제되지 않기 때문에 효율을 증가시킬 수도 있다. 부가적으로, VPS 에 오프셋 지연 정보를 포함시킴으로써, 신택스 엘리먼트 num_ilp_restricted_ref_layers 의 값이 (하기에서 더 상세히 설명되는 바와 같이) 디코딩 동안 추론될 수도 있다 (즉, 명시적인 시그널링없이 디코더에 의해 결정됨). 이에 따라, 제한을 갖는 레퍼런스 계층들의 수 (예를 들어, 상기 언급된 num_ilp_restricted_ref_layers 신택스 엘리먼트) 의 시그널링이 회피될 수도 있다.
본 개시의 기술들은 또한, 확장된 공간 스케일러빌리티(scalability) 멀티-계층 비디오 코딩을 사용할 경우에 비디오 데이터의 병치된 블록의 위치를 결정하는 것, 및 병치된 블록과 연관된 오프셋 지연을 결정하는 것에 적용가능할 수도 있다. 하기에서 더 상세히 설명되는 바와 같이, 비디오 비트스트림은, 결과적인 서브스트림이 타깃 디코더에 의해 디코딩가능한 다른 유효한 비트스트림을 형성하는 방식으로 스트림의 부분들이 제거될 수 있을 때 "스케일러블"한 것으로서 지칭될 수도 있다. 공간 스케일러빌리티에 관하여, 비트스트림의 서브세트들은 상이한 픽처 사이즈 (공간 분해능) 를 갖는 소스 콘텐츠를 나타낸다. 각각의 공간 계층에 있어서, 비디오 코더는 단일 계층 코딩에 대해서와 동일한 방식으로 모션 보상형 예측 및 인트라-예측을 구현할 수도 있다. 하지만, 상이한 공간 분해능들을 동시송출하는 것과 비교하여 코딩 효율을 개선하기 위하여, 비디오 코더는 계층간 예측 메커니즘들을 통합할 수도 있다. 공간 스케일러블 비디오 코딩의 가장 유연한 타입은 연속적인 계층들 간의 양자 관계 (예를 들어, 2:1 의 분해능 비) 를 엄격히 고수하지 않으며, 확장된 공간 스케일러빌리티 (ESS) 로서 지칭될 수도 있다. SVC 에 관한 특정 상세들은, H.264/AVC 의 SVC 확장 및 HEVC 의 SVC 확장 양자에 대하여, 도 4 내지 도 9 를 참조하여 하기에서 설명된다.
확장된 공간 스케일러빌리티는, 일부 경우들에 있어서, 오프셋 지연을 결정할 경우에 난제들을 제시할 수도 있다. 예를 들어, 비디오 코더가 확장된 공간 스케일러빌리티를 사용할 경우, 현재 디코딩되고 있는 계층의 공간 세그먼트 A (예를 들어, 슬라이스, 타일, 코딩 트리 유닛 (CTU) 또는 CTU 로우(row)) 는 병치된 공간 세그먼트 B 가 레퍼런스 계층에 존재하게 (예를 들어, 레퍼런스로서의 사용을 위해 이용가능하게) 하지 않을 수도 있다. 오프셋 지연이 병치된 공간 세그먼트에 기초하여 결정될 수도 있기 때문에, 병치된 공간 세그먼트들이 존재하지 않는 그 공간 세그먼트들에 대한 오프셋 지연을 도출하는 방법은 명확하지 않다.
본 개시의 기술들은 비디오 데이터의 병치된 블록 (예를 들어, CTU) 의 위치를 결정하도록 구현될 수도 있다. 예를 들어, 본 개시의 양태들은 하나 이상의 스케일링된 오프셋 값들에 기초하여 비디오 데이터의 레퍼런스 픽처와 연관된 레퍼런스 샘플의 위치를 결정하는 것을 포함한다. 스케일링된 오프셋 값들은 베이스 계층과 스케일링된 인핸스먼트 계층 간의 스케일에서의 차이 (예를 들어, 스케일링으로 인한 위치에서의 차이) 를 나타낼 수도 있다. 레퍼런스 샘플의 위치를 결정한 이후, 비디오 코더 (예를 들어, 비디오 인코더 또는 비디오 디코더) 는 레퍼런스 샘플의 위치에 기초하여 병치된 레퍼런스 블록 (예를 들어, 병치된 CTU) 의 위치를 결정할 수도 있다.
일 예로서, 베이스 계층은 업스케일링된 인핸스먼트 계층 (예를 들어, 베이스 계층보다 상대적으로 더 높은 공간 분해능을 갖는 계층) 에 대한 레퍼런스로서 사용될 수도 있다. 인핸스먼트 계층 픽처들과 베이스 계층 픽처들 간의 사이즈에서의 차이들 때문에, 인핸스먼트 계층 픽처에서 현재 코딩되고 있는 블록은, 베이스 계층 레퍼런스 픽처의 경계 외부에 있는 병치된 레퍼런스 블록에 매핑할 수도 있다. 그러한 병치된 블록은 인핸스먼트 계층 픽처에 의한 레퍼런스용으로 이용가능하지 않다. 일부 예들에 있어서, 본 개시의 양태들에 따르면, 베이스 계층에서의 병치된 레퍼런스 블록의 위치를 결정하기 전, 비디오 코더는 레퍼런스 샘플의 위치를 베이스 계층에서의 레퍼런스 픽처 (즉, 베이스 계층 레퍼런스 픽처) 의 경계 내에 위치되도록 조정할 수도 있다.
따라서, 본 개시의 양태들에 따르면, 레퍼런스 계층에서의 병치된 블록 (예를 들어, 병치된 CTU) 이, 현재 코딩되고 있는 계층에서의 특정 블록을 위해 존재하지 않을 경우, 병치된 블록의 어드레스는 대응하는 레퍼런스 계층 경계 내에 있도록 조정될 수도 있어서, 조정된 어드레스가 레퍼런스 계층에 존재한 블록에 대응하게 한다. 그 후, 현재 계층에서의 CTU 에 대한 상기 설명된 오프셋 지연들과 같은 계층간 예측 제약들이 레퍼런스로서 경계 CTU 로 적용된다.
본 개시의 양태들은 또한, 계층들 간 타일들의 정렬을 나타내기 위한 기술들을 포함할 수도 있다. 예를 들어, 타일은 픽처의 파티션을 포함할 수도 있고 병렬 코딩을 위해 사용될 수도 있다. HEVC 표준에서 설명된 바와 같이, 타일은 픽처에서의 특정 타일 컬럼 및 특정 타일 로우 내에서 코딩 트리 블록들 (CTB들, 하기에서 설명됨) 의 직사각형 영역으로서 정의될 수도 있다. 타일 컬럼은, 픽처의 높이와 동일한 높이 및 픽처 파라미터 세트 (PPS) 에서의 신택스 엘리먼트들에 의해 명시된 폭을 갖는 CTB들의 직사각형 영역으로서 정의될 수도 있다. 부가적으로, 타일 로우는, PPS 픽처 파라미터 세트에서의 신택스 엘리먼트들에 의해 명시된 높이 및 픽처의 폭과 동일한 폭을 갖는 CTB들의 직사각형 영역으로서 정의될 수도 있다. 타일 경계들은, 슬라이스 경계들과 유사하게, 파싱 및 예측 의존성들을 차단하여, 타일이 독립적으로 프로세싱될 수 있지만, 인-루프 (in-loop) 필터들 (디-블록킹 및 샘플 적응 오프셋 (SAO)) 은 여전히 타일 경계들을 크로싱할 수도 있다 (즉, 다중의 타일들에 적용함). 타일 기반 구조를 구현하는 것은, 슬라이스들의 사용과 비교하여 CTU들의 변경된 디코딩 순서를 허용함으로써, 병렬 프로세싱을 가능케 하고 코딩 효율을 개선시킬 수도 있다.
타일들의 수 및 타일들의 경계들의 위치는 전체 시퀀스에 대해 정의되거나 또는 픽처에 따라 변경될 수도 있다. 타일 경계들이 (계층간 예측에 영향을 줄 수도 있는) 계층들 사이에서 정렬되는지 여부를 나타내기 위한 일 방식이 Suhring 등의 문헌 "Tile Boundary Alignment and Inter-Layer Prediction Constraints for SHVC and MV-HEVC", JCTVC-M0464, 인천, 대한민국, 2013년 4월 18-26일 (이하, JCTVC-M0464) 에서 제안되었다. 그 방식은, 타일 경계들이 각각의 계층에 대한 VUI 에서 (예를 들어, tile_boundaries_aligned_flag 신택스 엘리먼트와) 정렬되는지 여부의 표시를 시그널링하는 것을 포함하였다. 하지만, 타일 경계들이 VUI 에서의 계층들에 대해 정렬되는지 여부를 시그널링하는 것은, 타일 경계 정렬이 계층 특정이 아니기 때문에 비효율적일 수도 있다. 이에 따라, VUI 에서 그러한 정보를 시그널링하는 것은 불필요한 복잡도를 부가할 수도 있다.
본 개시의 양태들에 따르면, 타일 경계들이 정렬되는지 여부의 표시가 VPS 에서 제공될 수도 있다. 예를 들어, 타일들이 멀티-계층 비트스트림의 계층들 사이에서 정렬되는지 여부를 나타내는 하나 이상의 신택스 엘리먼트들이 VPS 에 포함될 수도 있다. 이러한 방식으로, VPS 에서 시그널링되는 것과 같은 타일 경계 정렬형 정보는 멀티-계층 비트스트림의 계층들에 대한 교차 계층 범위를 갖는다.
도 1 은 비디오 데이터를 병렬로 프로세싱하기 위한 기술들을 활용할 수도 있는 예시적인 비디오 인코딩 및 디코딩 시스템 (10) 을 도시한 블록 다이어그램이다. 도 1 에 도시된 바와 같이, 시스템 (10) 은, 목적지 디바이스 (14) 에 의해 더 나중 시간에 디코딩될 인코딩된 비디오 데이터를 제공하는 소스 디바이스 (12) 를 포함한다. 특히, 소스 디바이스 (12) 는 비디오 데이터를, 컴퓨터 판독가능 매체 (16) 를 통해 목적지 디바이스 (14) 에 제공한다. 소스 디바이스 (12) 및 목적지 디바이스 (14) 는 데스크탑 컴퓨터들, 노트북 (즉, 랩탑) 컴퓨터들, 태블릿 컴퓨터들, 셋탑 박스들, 소위 "스마트" 폰들과 같은 전화기 핸드셋들, 소위 "스마트" 패드들, 텔레비전들, 카메라들, 디스플레이 디바이스들, 디지털 미디어 플레이어들, 비디오 게이밍 콘솔들, 비디오 스트리밍 디바이스 등을 포함한 광범위한 디바이스들 중 임의의 디바이스를 포함할 수도 있다. 일부 경우들에 있어서, 소스 디바이스 (12) 및 목적지 디바이스 (14) 는 무선 통신을 위해 장비될 수도 있다.
목적지 디바이스 (14) 는 디코딩될 인코딩된 비디오 데이터를 컴퓨터 판독가능 매체 (16) 를 통해 수신할 수도 있다. 컴퓨터 판독가능 매체 (16) 는 인코딩된 비디오 데이터를 소스 디바이스 (12) 로부터 목적지 디바이스 (14) 로 이동 가능한 임의의 타입의 매체 또는 디바이스를 포함할 수도 있다. 일 예에 있어서, 컴퓨터 판독가능 매체 (16) 는, 소스 디바이스 (12) 로 하여금 인코딩된 비디오 데이터를 직접 목적지 디바이스 (14) 로 실시간으로 송신할 수 있게 하는 통신 매체를 포함할 수도 있다. 인코딩된 비디오 데이터는 무선 통신 프로토콜과 같은 통신 표준에 따라 변조되고, 목적지 디바이스 (14) 로 송신될 수도 있다. 통신 매체는 무선 주파수 (RF) 스펙트럼 또는 하나 이상의 물리적인 송신 라인들과 같은 임의의 무선 또는 유선 통신 매체를 포함할 수도 있다. 통신 매체는 로컬 영역 네트워크, 광역 네트워크, 또는 인터넷과 같은 글로벌 네트워크와 같은 패킷 기반 네트워크의 부분을 형성할 수도 있다. 통신 매체는 라우터들, 스위치들, 기지국들, 또는 소스 디바이스 (12) 로부터 목적지 디바이스 (14) 로의 통신을 용이하게 하는데 유용할 수도 있는 임의의 다른 장비를 포함할 수도 있다.
일부 예들에 있어서, 인코딩된 데이터는 출력 인터페이스 (22) 로부터 저장 디바이스로 출력될 수도 있다. 유사하게, 인코딩된 데이터는 입력 인터페이스에 의해 저장 디바이스로부터 액세스될 수도 있다. 저장 디바이스는 하드 드라이브, 블루-레이 디스크들, DVD들, CD-ROM들, 플래시 메모리, 휘발성 또는 비휘발성 메모리, 또는 인코딩된 비디오 데이터를 저장하기 위한 임의의 다른 적합한 디지털 저장 매체들과 같은 다양한 분산된 또는 국부적으로 액세스된 데이터 저장 매체들 중 임의의 데이터 저장 매체를 포함할 수도 있다. 추가의 예에 있어서, 저장 디바이스는, 소스 디바이스 (12) 에 의해 생성된 인코딩된 비디오를 저장할 수도 있는 파일 서버 또는 다른 중간 저장 디바이스에 대응할 수도 있다. 목적지 디바이스 (14) 는 저장 디바이스로부터의 저장된 비디오 데이터에 스트리밍 또는 다운로드를 통해 액세스할 수도 있다. 파일 서버는, 인코딩된 비디오 데이터를 저장하고 그리고 그 인코딩된 비디오 데이터를 목적지 디바이스 (14) 로 송신하는 것이 가능한 임의의 타입의 서버일 수도 있다. 예시적인 파일 서버들은 웹 서버 (예를 들어, 웹 사이트용), FTP 서버, 네트워크 접속형 저장 (NAS) 디바이스들, 또는 로컬 디스크 드라이브를 포함한다. 목적지 디바이스 (14) 는 인코딩된 비디오 데이터에, 인터넷 커넥션을 포함한 임의의 표준 데이터 커넥션을 통해 액세스할 수도 있다. 이는 파일 서버 상에 저장되는 인코딩된 비디오 데이터에 액세스하기에 적합한 무선 채널 (예를 들어, Wi-Fi 커넥션), 유선 커넥션 (예를 들어, DSL, 케이블 모뎀 등), 또는 이들 양자의 조합을 포함할 수도 있다. 인코딩된 비디오 데이터의 저장 디바이스로부터의 송신은 스트리밍 송신, 다운로드 송신, 또는 이들의 조합일 수도 있다.
본 개시의 기술들은 무선 어플리케이션들 또는 설정들로 반드시 한정되는 것은 아니다. 그 기술들은, 공중 경유 (over-the-air) 텔레비전 브로드캐스트들, 케이블 텔레비전 송신들, 위성 텔레비전 송신들, HTTP 상으로의 동적 적응 스트리밍 (DASH) 과 같은 인터넷 스트리밍 비디오 송신들, 데이터 저장 매체 상으로 인코딩된 디지털 비디오, 데이터 저장 매체 상으로 저장된 디지털 비디오의 디코딩, 또는 다른 어플리케이션들과 같은 다양한 멀티미디어 어플리케이션들 중 임의의 멀티미디어 어플리케이션의 지원으로 비디오 코딩에 적용될 수도 있다. 일부 예들에 있어서, 시스템 (10) 은 비디오 스트리밍, 비디오 플레이백, 비디오 브로드캐스팅, 및/또는 비디오 전화와 같은 어플리케이션들을 지원하기 위해 일방향 또는 양방향 비디오 송신을 지원하도록 구성될 수도 있다.
도 1 의 예에 있어서, 소스 디바이스 (12) 는 비디오 소스 (18), 비디오 인코더 (20), 및 출력 인터페이스 (22) 를 포함한다. 목적지 디바이스 (14) 는 입력 인터페이스 (28), 비디오 디코더 (30), 및 디스플레이 디바이스 (32) 를 포함한다. 본 개시에 따르면, 소스 디바이스 (12) 의 비디오 인코더 (20) 는 비디오 데이터를 병렬로 프로세싱하기 위한 기술들을 적용하도록 구성될 수도 있다. 다른 예들에 있어서, 소스 디바이스 및 목적지 디바이스는 다른 컴포넌트들 또는 배열들을 포함할 수도 있다. 예를 들어, 소스 디바이스 (12) 는 외부 카메라와 같은 외부 비디오 소스 (18) 로부터 비디오 데이터를 수신할 수도 있다. 유사하게, 목적지 디바이스 (14) 는 통합된 디스플레이 디바이스를 포함하는 것보다 외부 디스플레이 디바이스와 인터페이싱할 수도 있다.
도 1 의 도시된 시스템 (10) 은 단지 일 예일 뿐이다. 비디오 데이터를 병렬로 프로세싱하기 위한 기술들은 임의의 디지털 비디오 인코딩 및/또는 디코딩 디바이스에 의해 수행될 수도 있다. 비록 일반적으로 본 개시의 기술들이 비디오 인코딩 디바이스에 의해 수행되지만, 그 기술들은 또한, 통상적으로 "CODEC" 로서 지칭되는 비디오 인코더/디코더에 의해 수행될 수도 있다. 더욱이, 본 개시의 기술들은 또한 비디오 프리프로세서에 의해 수행될 수도 있다. 소스 디바이스 (12) 및 목적지 디바이스 (14) 는, 단지, 소스 디바이스 (12) 가 목적지 디바이스 (14) 로의 송신을 위한 코딩된 비디오 데이터를 생성하는 그러한 코딩 디바이스들의 예들일 뿐이다. 일부 예들에 있어서, 디바이스들 (12, 14) 은, 디바이스들 (12, 14) 각각이 비디오 인코딩 및 디코딩 컴포넌트들을 포함하도록 실질적으로 대칭적인 방식으로 동작할 수도 있다. 따라서, 시스템 (10) 은 예를 들어, 비디오 스트리밍, 비디오 플레이백, 비디오 브로드캐스팅, 또는 비디오 전화를 위해, 비디오 디바이스들 (12, 14) 간의 일방향 또는 양방향 비디오 송신을 지원할 수도 있다.
소스 디바이스 (12) 의 비디오 소스 (18) 는 비디오 카메라와 같은 비디오 캡처 디바이스, 이전에 캡처된 비디오를 포함하는 비디오 아카이브, 및/또는 비디오 콘텐츠 제공자로부터 비디오를 수신하기 위한 비디오 피드 인터페이스를 포함할 수도 있다. 추가적인 대안으로서, 비디오 소스 (18) 는 컴퓨터 그래픽 기반 데이터를 소스 비디오로서, 또는 라이브 비디오, 아카이브된 비디오, 및 컴퓨터 생성 비디오의 조합으로서 생성할 수도 있다. 일부 경우들에 있어서, 비디오 소스 (18) 가 비디오 카메라이면, 소스 디바이스 (12) 및 목적지 디바이스 (14) 는 소위 카메라 폰들 또는 비디오 폰들을 형성할 수도 있다. 하지만, 상기 언급된 바와 같이, 본 개시에서 설명된 기술들은 일반적으로 비디오 코딩에 적용가능할 수도 있으며, 무선 및/또는 유선 어플리케이션들에 적용될 수도 있다. 각각의 경우에 있어서, 캡쳐되거나 사전-캡쳐되거나 또는 컴퓨터 생성된 비디오는 비디오 인코더 (20) 에 의해 인코딩될 수도 있다. 그 후, 인코딩된 비디오 정보는 출력 인터페이스 (22) 에 의해 컴퓨터 판독가능 매체 (16) 상으로 출력될 수도 있다.
컴퓨터 판독가능 매체 (16) 는 무선 브로드캐스트 또는 유선 네트워크 송신과 같은 일시적인 매체들, 또는 하드 디스크, 플래시 드라이브, 컴팩트 디스크, 디지털 비디오 디스크, 블루-레이 디스크, 또는 다른 컴퓨터 판독가능 매체들과 같은 저장 매체들 (즉, 비-일시적인 저장 매체들) 을 포함할 수도 있다. 일부 예들에 있어서, 네트워크 서버 (도시 안됨) 는 인코딩된 비디오 데이터를 소스 디바이스 (12) 로부터 수신하고, 인코딩된 비디오 데이터를, 예를 들어, 네트워크 송신을 통해 목적지 디바이스 (14) 에 제공할 수도 있다. 유사하게, 디스크 스탬핑 설비와 같은 매체 생성 설비의 컴퓨팅 디바이스는 인코딩된 비디오 데이터를 소스 디바이스 (12) 로부터 수신하고, 인코딩된 비디오 데이터를 포함하는 디스크를 생성할 수도 있다. 따라서, 컴퓨터 판독가능 매체 (16) 는, 다양한 예들에 있어서, 다양한 형태들의 하나 이상의 컴퓨터 판독가능 매체들을 포함하도록 이해될 수도 있다.
목적지 디바이스 (14) 의 입력 인터페이스 (28) 는 컴퓨터 판독가능 매체 (16) 로부터 정보를 수신한다. 컴퓨터 판독가능 매체 (16) 의 정보는 비디오 인코더 (20) 에 의해 정의되고 또한 비디오 디코더 (30) 에 의해 이용되는 신택스 정보를 포함할 수도 있으며, 이 신택스 정보는 블록들 및 다른 코딩된 유닛들, 예를 들어, GOP들의 특성 및/또는 프로세싱을 기술하는 신택스 엘리먼트들을 포함한다. 디스플레이 디바이스 (32) 는 디코딩된 비디오 데이터를 사용자에게 디스플레이하며, 음극선관 (CRT), 액정 디스플레이 (LCD), 플라즈마 디스플레이, 유기 발광 다이오드 (OLED) 디스플레이, 또는 다른 타입의 디스플레이 디바이스와 같은 다양한 디스플레이 디바이스들 중 임의의 디바이스를 포함할 수도 있다.
비디오 인코더 (20) 및 비디오 디코더 (30) 각각은 하나 이상의 마이크로프로세서들, 디지털 신호 프로세서들 (DSP들), 주문형 집적회로들 (ASIC들), 필드 프로그래밍가능 게이트 어레이들 (FPGA들), 이산 로직, 소프트웨어, 하드웨어, 펌웨어 또는 이들의 임의의 조합들과 같은 다양한 적합한 인코더 회로 중 임의의 회로로서 구현될 수도 있다. 기술들이 부분적으로 소프트웨어로 구현될 경우, 디바이스는 적합한 비-일시적인 컴퓨터 판독가능 매체에 소프트웨어에 대한 명령들을 저장하고, 본 개시의 기술들을 수행하기 위해 하나 이상의 프로세서들을 사용하는 하드웨어로 명령들을 실행할 수도 있다. 비디오 인코더 (20) 및 비디오 디코더 (30) 각각은 하나 이상의 인코더들 또는 디코더들에 포함될 수도 있으며, 이들 중 어느 하나는 개별 디바이스에 있어서 결합된 인코더/디코더 (CODEC) 의 부분으로서 통합될 수도 있다. 비디오 인코더 (20) 및/또는 비디오 디코더 (30) 를 포함하는 디바이스는 집적 회로, 마이크로 프로세서, 및/또는 셀룰러 전화기와 같은 무선 통신 디바이스를 포함할 수도 있다.
본 개시는 일반적으로 특정 정보를, 비디오 디코더 (30) 와 같은 다른 디바이스로 "시그널링"하는 비디오 인코더 (20) 를 언급할 수도 있다. 하지만, 비디오 인코더 (20) 는, 특정 신택스 엘리먼트들을 비디오 데이터의 다양한 인코딩된 부분들과 연관시킴으로써 정보를 시그널링할 수도 있음이 이해되어야 한다. 즉, 비디오 인코더 (20) 는, 특정 신택스 엘리먼트들을 비디오 데이터의 다양한 인코딩된 부분들의 헤더들에 저장함으로써 데이터를 "시그널링"할 수도 있다. 일부 경우들에 있어서, 그러한 신택스 엘리먼트들은, 비디오 디코더 (30) 에 의해 수신 및 디코딩되기 전에 인코딩 및 저장될 수도 있다. 따라서, 용어 "시그널링" 은 일반적으로, 신택스 엘리먼트들을 인코딩 시 매체에 저장할 경우 (그 후, 이 매체에 저장된 이후 임의의 시간에서 디코딩 디바이스에 의해 취출될 수도 있음) 에 발생할 수도 있는 것과 같이 그러한 통신이 실시간으로 또는 준 실시간으로 또는 시간 기간에 걸쳐 발생하든지 아니든지, 압축된 비디오 데이터를 디코딩하기 위한 신택스 또는 다른 데이터의 통신을 지칭할 수도 있다.
일부 예들에 있어서, 비디오 인코더 (20) 및 비디오 디코더 (30) 는, 그 스케일러블 비디오 코딩 (SVC) 확장, 멀티뷰 비디오 코딩 (MVC) 확장, 및 MVC 기반 3차원 비디오 (3DV) 확장을 포함하여 ISO/IEC MPEG-4 비주얼 및 ITU-T H.264 (ISO/IEC MPEG-4 AVC 로서도 또한 공지됨) 와 같은 비디오 압축 표준에 따라 동작한다. SVC 및 MVC 의 조인트 드래프트는 "Advanced video coding for generic audiovisual services", ITU-T 권고안 H.264, 2010년 3월호에 기술된다.
부가적으로, 고효율 비디오 코딩 (HEVC) 표준이, ITU-T 비디오 코딩 전문가 그룹 (VCEG) 및 ISO/IEC 모션 픽처 전문가 그룹 (MPEG) 의 JCT-VC (Joint Collaboration Team on Video Coding) 에 의해 개발되었다. 간략화를 위해 HEVC WD10 으로서 본 명세서에서 지칭되는 최근의 HEVC 텍스트 사양 드래프트는 http://phenix.int-evry.fr/jct/doc_end_user/documents/13_Incheon/wg11/JCTVC-M0432-v3.zip 로부터 입수가능하다. MV-HEVC 로서 지칭되는 HEVC 에 대한 멀티뷰 확장은 JCT-3V 에 의해 개발되고 있다. 이하 MV-HEVC WD 4 의 최근의 워킹 드래프트 (WD) 는 http://phenix.int-evry.fr/jct2/doc_end_user/documents/4_Incheon/wg11/JCT3V-D1004-v2.zip 로부터 입수가능하다. 한편, HEVC 에 기반한 더 진보한 3D 비디오 코딩 (3D-HEVC) 및 스케일러블 비디오 코딩을 위한 2개의 표준 트랙들이 또한 개발 중이다. 3D-HEVC 의 최근의 테스트 모델 설명은 http://phenix.it-sudparis.eu/jct2/doc_end_user/documents/3_Geneva/wg11/JCT3V-D1005-v2.zip 로부터 입수가능하다. SHVC 의 최근의 테스트 모델 설명은 http://phenix.int-evry.fr/jct/doc_end_user/documents/12_Geneva/wg11/JCTVC-M1007-v3.zip 로부터 입수가능하다.
HEVC 및 다른 비디오 코딩 표준들에 있어서, 비디오 시퀀스는 통상적으로 픽처들의 시리즈를 포함한다. 픽처들은 또한 "프레임들" 로서 지칭될 수도 있다. 픽처는 SL, SCb, 및 SCr 로 표기되는 3개의 샘플 어레이들을 포함할 수도 있다. SL 은 루마 샘플들의 2차원 어레이 (즉, 블록) 이다. SCb 는 Cb 크로미넌스 샘플들의 2차원 어레이이다. SCr 는 Cr 크로미넌스 샘플들의 2차원 어레이이다. 크로미넌스 샘플들은 또한, 본 명세서에서 "크로마" 샘플들로서 지칭될 수도 있다. 다른 경우들에 있어서, 픽처는 단색일 수도 있으며 오직 루마 샘플들의 어레이만을 포함할 수도 있다.
비디오 인코더 (20) 는, 별도의 루마 및 크로마 컴포넌트 코딩 트리 블록들 (CTB들) 을 가질 수도 있는 코딩 트리 유닛들 (CTU들) 의 세트를 생성할 수도 있다. 예를 들어, CTU들 각각은 루마 샘플들의 CTB, 크로마 샘플들의 2개의 대응하는 CTB들, 및 CTB들의 샘플들을 코딩하는데 사용된 신택스 구조들을 포함할 수도 있다. 단색 픽처 또는 3개의 별도의 컬러 평면들을 갖는 픽처에 있어서, CTU 는 단일의 CTB, 및 그 CTB 의 샘플들을 코딩하는데 사용된 신택스 구조들을 포함할 수도 있다. CTB 는 샘플들의 NxN 블록일 수도 있다. CTU 는 또한 "트리 블록" 또는 "최대 코딩 유닛" (LCU) 로서 지칭될 수도 있다. HEVC 의 CTU들은 H.264/AVC 와 같은 다른 비디오 코딩 표준들의 매크로블록들과 대체로 유사할 수도 있다. 하지만, CTU 는 반드시 특정 사이즈로 한정되지는 않으며, 하나 이상의 코딩 유닛들 (CU들) 을 포함할 수도 있다. 슬라이스는 래스터 스캔에 있어서 연속적으로 순서화된 정수 개수의 CTU들을 포함할 수도 있다.
본 개시는 용어 "비디오 유닛" 또는 "비디오 블록" 을 사용하여, 샘플들의 하나 이상의 블록들 및 샘플들의 하나 이상의 블록들의 샘플들을 코딩하는데 사용된 신택스 구조들을 지칭할 수도 있다. 비디오 유닛들의 예시적인 타입들은 CTU들, CTB들, CU들, PU들, 변환 유닛들 (TU들), 매크로블록들, 매크로블록 파티션들, 및 픽처의 다른 유사한 파티션들을 포함할 수도 있다.
코딩된 CTU 를 생성하기 위해, 비디오 인코더 (20) 는 CTU 의 CTB들에 대해 쿼드 트리 파티셔닝을 재귀적으로 수행하여, CTB들을 코딩 블록들, 따라서, 명칭 "코딩 트리 유닛들" 로 분할할 수도 있다. 코딩 블록은 샘플들의 NxN 블록이다. CU 는 루마 샘플 어레이, Cb 샘플 어레이, 및 Cr 샘플 어레이를 갖는 픽처의 루마 샘플들의 코딩 블록, 및 크로마 샘플들의 2개의 대응하는 코딩 블록들, 그리고 그 코딩 블록들의 샘플들을 코딩하는데 사용된 신택스 구조들을 포함할 수도 있다. 단색 픽처 또는 3개의 별도의 컬러 평면들을 갖는 픽처에 있어서, CU 는 단일의 코딩 블록, 및 그 코딩 블록의 샘플들을 코딩하는데 사용된 신택스 구조들을 포함할 수도 있다.
비디오 인코더 (20) 는 CU 의 코딩 블록을 하나 이상의 예측 블록들로 파티셔닝할 수도 있다. 예측 블록은, 동일한 예측이 적용되는 샘플들의 직사각형 (즉, 정사각형 또는 비-정사각형) 블록일 수도 있다. CU 의 예측 유닛 (PU) 은 루마 샘플들의 예측 블록, 픽처의 크로마 샘플들의 2개의 대응하는 예측 블록들, 및 예측 블록 샘플들을 예측하는데 사용된 신택스 구조들을 포함할 수도 있다. 단색 픽처 또는 3개의 별도의 컬러 평면들을 갖는 픽처에 있어서, PU 는 단일의 예측 블록, 및 그 예측 블록 샘플들을 예측하는데 사용된 신택스 구조들을 포함할 수도 있다. 비디오 인코더 (20) 는 CU 의 각각의 PU 의 루마, Cb 및 Cr 예측 블록들에 대한 예측 루마, Cb, 및 Cr 블록들을 생성할 수도 있다.
비디오 인코더 (20) 는 인트라 예측 또는 인터 예측을 이용하여 PU 에 대한 예측 블록들을 생성할 수도 있다. 비디오 인코더 (20) 가 인트라 예측을 이용하여 PU 의 예측 블록들을 생성하면, 비디오 인코더 (20) 는 PU 와 연관된 픽처의 디코딩된 샘플들에 기초하여 PU 의 예측 블록들을 생성할 수도 있다.
비디오 인코더 (20) 가 인터 예측을 이용하여 PU 의 예측 블록들을 생성하면, 비디오 인코더 (20) 는 PU 와 연관된 픽처 이외의 하나 이상의 픽처들의 디코딩된 샘플들에 기초하여 PU 의 예측 블록들을 생성할 수도 있다. 인터 예측은 단방향 인터 예측 (즉, 단방향 예측) 또는 양방향 인터 예측 (즉, 양방향 예측) 일 수도 있다. 단방향 예측 또는 양방향 예측을 수행하기 위해, 비디오 인코더 (20) 는 현재 슬라이스에 대한 제 1 레퍼런스 픽처 리스트 (RefPicList0) 및 제 2 레퍼런스 픽처 리스트 (RefPicList1) 를 생성할 수도 있다. 레퍼런스 픽처 리스트들 각각은 하나 이상의 레퍼런스 픽처들을 포함할 수도 있다. 단방향 예측을 이용할 경우, 비디오 인코더 (20) 는 RefPicList0 및 RefPicList1 중 어느 하나 또는 그 양자에서 레퍼런스 픽처들을 탐색하여 레퍼런스 픽처 내의 레퍼런스 위치를 결정할 수도 있다. 더욱이, 단방향 예측을 이용할 경우, 비디오 인코더 (20) 는, 레퍼런스 위치에 대응하는 샘플들에 적어도 부분적으로 기초하여, PU 에 대한 예측 샘플 블록들을 생성할 수도 있다. 더욱이, 단방향 예측을 이용할 경우, 비디오 인코더 (20) 는, PU 의 예측 블록과 레퍼런스 위치 간의 공간 변위를 표시하는 단일 모션 벡터를 생성할 수도 있다. PU 의 예측 블록과 레퍼런스 위치 간의 공간 변위를 표시하기 위해, 모션 벡터는 PU 의 예측 블록과 레퍼런스 위치 간의 수평 변위를 명시하는 수평 컴포넌트를 포함할 수도 있고, PU 의 예측 블록과 레퍼런스 위치 간의 수직 변위를 명시하는 수직 컴포넌트를 포함할 수도 있다.
양방향 예측을 이용하여 PU 를 인코딩할 경우, 비디오 인코더 (20) 는 RefPicList0 에 있어서의 레퍼런스 픽처에서의 제 1 레퍼런스 위치 및 RefPicList1 에 있어서의 레퍼런스 픽처에서의 제 2 레퍼런스 위치를 결정할 수도 있다. 그 후, 비디오 인코더 (20) 는, 제 1 및 제 2 레퍼런스 위치들에 대응하는 샘플들에 적어도 부분적으로 기초하여, PU 에 대한 예측 블록들을 생성할 수도 있다. 더욱이, 양방향 예측을 이용하여 PU 를 인코딩할 경우, 비디오 인코더 (20) 는 PU 의 샘플 블록과 제 1 레퍼런스 위치 간의 공간 변위를 표시하는 제 1 모션, 및 PU 의 예측 블록과 제 2 레퍼런스 위치 간의 공간 변위를 표시하는 제 2 모션을 생성할 수도 있다.
비디오 인코더 (20) 가 CU 의 하나 이상의 PU들에 대한 예측 루마, Cb, 및 Cr 블록들을 생성한 후, 비디오 인코더 (20) 는 CU 의 루마 잔차 블록을 생성할 수도 있다. CU 의 루마 잔차 블록에서의 각각의 샘플은 CU 의 예측 루마 블록들 중 하나에서의 루마 샘플과 CU 의 오리지널 루마 코딩 블록에서의 대응하는 샘플 간의 차이를 나타낸다. 부가적으로, 비디오 인코더 (20) 는 CU 에 대한 Cb 잔차 블록을 생성할 수도 있다. CU 의 Cb 잔차 블록에서의 각각의 샘플은 CU 의 예측 Cb 블록들 중 하나에서의 Cb 샘플과 CU 의 오리지널 Cb 코딩 블록에서의 대응하는 샘플 간의 차이를 나타낼 수도 있다. 비디오 인코더 (20) 는 또한, CU 에 대한 Cr 잔차 블록을 생성할 수도 있다. CU 의 Cr 잔차 블록에서의 각각의 샘플은 CU 의 예측 Cr 블록들 중 하나에서의 Cr 샘플과 CU 의 오리지널 Cr 코딩 블록에서의 대응하는 샘플 간의 차이를 나타낼 수도 있다.
더욱이, 비디오 인코더 (20) 는 쿼드 트리 파티셔닝을 이용하여, CU 의 루마, Cb, 및 Cr 잔차 블록들을 하나 이상의 루마, Cb, 및 Cr 변환 블록들로 분해할 수도 있다. 변환 블록은, 동일한 변환이 적용되는 샘플들의 직사각형 블록일 수도 있다. CU 의 변환 유닛 (TU) 은 루마 샘플들의 변환 블록, 크로마 샘플들의 2개의 대응하는 변환 블록들, 및 변환 블록 샘플들을 변환하는데 사용된 신택스 구조들을 포함할 수도 있다. 단색 픽처 또는 3개의 별도의 컬러 평면들을 갖는 픽처에 있어서, TU 는 단일의 변환 블록, 및 그 변환 블록 샘플들을 변환하는데 사용된 신택스 구조들을 포함할 수도 있다. 따라서, CU 의 각각의 TU 는 루마 변환 블록, Cb 변환 블록, 및 Cr 변환 블록과 연관될 수도 있다. TU 와 연관된 루마 변환 블록은 CU 의 루마 잔차 블록의 서브-블록일 수도 있다. Cb 변환 블록은 CU 의 Cb 잔차 블록의 서브-블록일 수도 있다. Cr 변환 블록은 CU 의 Cr 잔차 블록의 서브-블록일 수도 있다.
비디오 인코더 (20) 는 TU 의 루마 변환 블록에 하나 이상의 변환들을 적용하여 TU 에 대한 루마 계수 블록을 생성할 수도 있다. 계수 블록은 변환 계수들의 2차원 어레이일 수도 있다. 변환 계수는 스칼라량일 수도 있다. 비디오 인코더 (20) 는 TU 의 Cb 변환 블록에 하나 이상의 변환들을 적용하여 TU 에 대한 Cb 계수 블록을 생성할 수도 있다. 비디오 인코더 (20) 는 TU 의 Cr 변환 블록에 하나 이상의 변환들을 적용하여 TU 에 대한 Cr 계수 블록을 생성할 수도 있다.
계수 블록 (예를 들어, 루마 계수 블록, Cb 계수 블록 또는 Cr 계수 블록) 을 생성한 후, 비디오 인코더 (20) 는 계수 블록을 양자화할 수도 있다. 양자화는 일반적으로, 변환 계수들이 그 변환 계수들을 나타내는데 사용되는 데이터의 양을 가능하게는 감소시키도록 양자화되어 추가 압축을 제공하는 프로세스를 지칭한다. 더욱이, 비디오 인코더 (20) 는 픽처의 CU들의 TU들의 변환 블록들을 복원하기 위하여 변환 계수들을 역양자화하고 변환 계수들에 역변환을 적용할 수도 있다. 비디오 인코더 (20) 는 CU 의 TU들의 복원된 변환 블록들 및 CU 의 PU들의 예측 블록들을 이용하여 CU 의 코딩 블록들을 복원할 수도 있다. 픽처의 각각의 CU 의 코딩 블록들을 복원함으로써, 비디오 인코더 (20) 는 픽처를 복원할 수도 있다. 비디오 인코더 (20) 는 복원된 픽처들을 디코딩된 픽처 버퍼 (DPB) 에 저장할 수도 있다. 비디오 인코더 (20) 는 인터 예측 및 인트라 예측을 위해 DPB 내의 복원된 픽처들을 이용할 수도 있다.
비디오 인코더 (20) 가 계수 블록을 양자화한 후, 비디오 인코더 (20) 는 양자화된 변환 계수들을 나타내는 신택스 엘리먼트들을 엔트로피 인코딩할 수도 있다. 예를 들어, 비디오 인코더 (20) 는 양자화된 변환 계수들을 나타내는 신택스 엘리먼트들에 대해 컨텍스트-적응 바이너리 산술 코딩 (CABAC) 을 수행할 수도 있다. 비디오 인코더 (20) 는 엔트로피 인코딩된 신택스 엘리먼트를 비트스트림으로 출력할 수도 있다.
비디오 인코더 (20) 는 코딩된 픽처들 및 관련 데이터의 표현을 형성하는 비트들의 시퀀스를 포함하는 비트스트림을 출력할 수도 있다. 비트스트림은 네트워크 추상화 계층 (NAL) 유닛들의 시퀀스를 포함할 수도 있다. NAL 유닛들 각각은 NAL 유닛 헤더를 포함하고 원시 바이트 시퀀스 페이로드 (RBSP) 를 캡슐화한다. NAL 유닛 헤더는, NAL 유닛 타입 코드를 나타내는 신택스 엘리먼트를 포함할 수도 있다. NAL 유닛의 NAL 유닛 헤더에 의해 명시된 NAL 유닛 타입 코드는 NAL 유닛의 타입을 나타낸다. RBSP 는, NAL 유닛 내에서 캡슐화되는 정수 개수의 바이트들을 포함하는 신택스 구조일 수도 있다. 일부 경우들에 있어서, RBSP 는 제로 비트들을 포함한다.
상이한 타입들의 NAL 유닛들은 상이한 타입들의 RBSP들을 캡슐화할 수도 있다. 예를 들어, NAL 유닛의 제 1 타입은 픽처 파라미터 세트 (PPS) 에 대한 RBSP 를 캡슐화할 수도 있고, NAL 유닛의 제 2 타입은 코딩된 슬라이스에 대한 RBSP 를 캡슐화할 수도 있으며, NAL 유닛의 제 3 타입은 보충 인핸스먼트 정보 (SEI) 에 대한 RBSP 를 캡슐화할 수도 있는 등등이다. PPS 는, 제로 이상의 전체 코딩된 픽처들에 적용하는 신택스 엘리먼트들을 포함할 수도 있는 신택스 구조이다. (파라미터 세트들 및 SEI 메시지들에 대한 RBSP들과 대조적으로) 비디오 코딩 데이터에 대한 RBSP들을 캡슐화하는 NAL 유닛들은 비디오 코딩 계층 (VCL) NAL 유닛들로서 지칭될 수도 있다. 코딩된 슬라이스를 캡슐화한 NAL 유닛은 코딩된 슬라이스 NAL 유닛으로서 본 명세서에서 지칭될 수도 있다. 코딩된 슬라이스에 대한 RBSP 는 슬라이스 헤더 및 슬라이스 데이터를 포함할 수도 있다.
MV-HEVC, 3D-HEVC 및 SHVC 에 있어서, 비디오 인코더 (20) 는, 네트워크 추상화 계층 (NAL) 유닛들의 시리즈를 포함하는 비트스트림을 생성할 수도 있다. 비트스트림의 상이한 NAL 유닛들은 비트스트림의 상이한 계층들과 연관될 수도 있다. 계층은, 동일한 계층 식별자를 갖는 비디오 코딩 계층 (VCL) NAL 유닛들 및 관련 비-VCL NAL 유닛들의 세트로서 정의될 수도 있다. 계층은 멀티뷰 비디오 코딩에 있어서의 뷰와 등가물일 수도 있다. 멀티뷰 비디오 코딩에 있어서, 계층은 상이한 시간 인스턴스들을 갖는 동일한 계층의 모든 뷰 컴포넌트들을 포함할 수 있다. 각각의 뷰 컴포넌트는 특정 시간 인스턴스에서의 특정 뷰에 속하는 비디오 장면의 코딩된 픽처일 수도 있다.
비디오 디코더 (30) 는 비트스트림을 수신할 수도 있다. 부가적으로, 비디오 디코더 (30) 는 비트스트림을 파싱하여, 비트스트림으로부터 신택스 엘리먼트들을 디코딩할 수도 있다. 비디오 디코더 (30) 는 비트스트림으로부터 디코딩된 신택스 엘리먼트들에 적어도 부분적으로 기초하여 비디오 데이터의 픽처들을 복원할 수도 있다. 비디오 데이터를 복원하기 위한 프로세스는 일반적으로, 비디오 인코더 (20) 에 의해 수행된 프로세스에 역일 수도 있다. 예를 들어, 비디오 디코더 (30) 는 PU들의 모션 벡터들을 이용하여 현재 CU 의 PU들에 대한 예측 블록들을 결정할 수도 있다. 비디오 디코더 (30) 는 PU들의 모션 벡터 또는 모션 벡터들을 이용하여 PU들에 대한 예측 블록들을 생성할 수도 있다.
부가적으로, 비디오 디코더 (30) 는 현재 CU 의 TU들과 연관된 계수 블록들을 역양자화할 수도 있다. 비디오 디코더 (30) 는 계수 블록들에 대해 역변환들을 수행하여 현재 CU 의 TU들과 연관된 변환 블록들을 복원할 수도 있다. 비디오 디코더 (30) 는 현재 CU 의 PU들에 대한 예측 샘플 블록들의 샘플들을, 현재 CU 의 TU들의 변환 블록들의 대응하는 샘플들에 부가함으로써, 현재 CU 의 코딩 블록들을 복원할 수도 있다. 픽처의 각각의 CU 에 대한 코딩 블록들을 복원함으로써, 비디오 디코더 (30) 는 픽처를 복원할 수도 있다. 비디오 디코더 (30) 는 다른 픽처들을 디코딩함에 있어서 출력을 위해 및/또는 사용을 위해 디코딩된 픽처들을 디코딩된 픽처 버퍼에 저장할 수도 있다.
3D 비디오 코딩에 있어서, 계층은 특정 뷰의 모든 코딩된 심도 픽처들 또는 특정 뷰의 코딩된 텍스처 픽처들 중 어느 하나를 포함할 수도 있다. 유사하게, 스케일러블 비디오 코딩의 컨텍스트에 있어서, 계층은 통상적으로, 다른 계층들에서의 코딩된 픽처들과는 상이한 비디오 특성들을 갖는 코딩된 픽처들에 대응한다. 그러한 비디오 특성들은 통상적으로, 공간 분해능 및 품질 레벨 (신호대 노이즈 비) 을 포함한다. HEVC 및 그 확장들에 있어서, 시간 스케일러빌리티는, 특정 시간 레벨을 갖는 픽처들의 그룹을 서브-계층으로서 정의함으로써 일 계층 내에서 달성될 수도 있다.
비트스트림의 각각의 개별 계층에 대해, 하위 계층에서의 데이터는 임의의 상위 계층에서의 데이터를 참조하지 않고도 디코딩될 수도 있다. 스케일러블 비디오 코딩에 있어서, 예를 들어, 베이스 계층에서의 데이터는 인핸스먼트 계층에서의 데이터를 참조하지 않고도 디코딩될 수도 있다. NAL 유닛들을 오직 단일 계층의 데이터만을 캡슐화한다. 따라서, 비트스트림의 최고 나머지 계층의 데이터를 캡슐화하는 NAL 유닛들은 비트스트림의 나머지 계층들에서의 데이터의 디코딩가능성에 영향을 주지 않고도 비트스트림으로부터 제거될 수도 있다. 멀티뷰 코딩 및 3D-HEVC 에 있어서, 상위 계층들은 부가적인 뷰 컴포넌트들을 포함할 수도 있다. SHVC 에 있어서, 상위 계층들은 신호대 노이즈 비 (SNR) 인핸스먼트 데이터, 공간 인핸스먼트 데이터, 및/또는 시간 인핸스먼트 데이터를 포함할 수도 있다. MV-HEVC, 3D-HEVC 및 SHVC 에 있어서, 비디오 디코더가 어떠한 다른 계층의 데이터를 참조하지 않고도 뷰에서의 픽처들을 디코딩할 수 있다면, 그 뷰는 "베이스 계층" 으로서 지칭될 수도 있다. 베이스 계층은 HEVC 베이스 사양에 부합할 수도 있다.
비디오 인코더 (20) 및/또는 비디오 디코더 (30) 는 본 개시의 기술들의 임의의 조합을 구현하도록 구성될 수도 있다. 예를 들어, 상기에서 언급된 바와 같이, 본 개시의 양태들은 교차 계층 병렬 프로세싱 오프셋 지연 파라미터들의 시그널링과 관련된 개선들을 포함한다. "오프셋 지연" 은 일반적으로, 다중의 계층들을 병렬로 디코딩하는 것과 연관된 지연을 지칭할 수도 있다. 예를 들어, 전체 레퍼런스 계층이 디코딩될 것을 대기하는 것보다, 비디오 디코더 (30) 는 레퍼런스 계층의 적어도 일부가 디코딩될 때까지 현재 계층의 디코딩을 지연시킬 수도 있다. 오프셋 지연은 일반적으로, 비디오 디코더가 현재 계층을 디코딩하기 시작하기 전에 디코딩되는 레퍼런스 계층의 최소량을 나타낼 수도 있다.
본 개시의 양태들에 따르면, 오프셋 지연을 나타내는 데이터는 VPS 에 포함될 수도 있다. 예를 들어, 비디오 인코더 (20) 는 VPS 에서의 오프셋 지연 정보를 나타내는 데이터 (예를 들어, 하나 이상의 신택스 엘리먼트들) 를 인코딩할 수도 있다. 유사하게, 비디오 디코더 (30) 는, 인코딩된 비트스트림으로부터, 오프셋 지연 정보를 나타내는 데이터를 디코딩할 수도 있다. 오프셋 지연 정보는 1 초과의 계층에 의해 참조될 수도 있다. 예를 들어, 본 개시의 양태들에 따르면, 비디오 인코더 (20) 및/또는 비디오 디코더 (30) 는 하기의 표 1 에 따라 오프셋 지연 정보를 시그널링/디코딩할 수도 있다:
Figure 112016014266819-pct00001
상기 표 1 에 있어서, 0 과 동일한 신택스 엘리먼트 ilp_restricted_ref_layers_flag 는, 계층간 예측에 대한 제한이 없음이 VPS 를 참조하는 임의의 계층의 직접 레퍼런스 계층들의 임의의 계층들에 대해 시그널링됨을 나타낸다. 하지만, 1 과 동일한 신택스 엘리먼트 ilp_restricted_ref_layers_flag 는, 계층간 예측에 대한 제한들이 VPS 를 참조하는 하나 이상의 계층들의 직접 레퍼런스 계층들의 임의의 계층들에 대해 적용될 수도 있음을 명시한다.
다른 예에 있어서, 상기 표 1 에 있어서, 0 과 동일한 신택스 엘리먼트 ilp_restricted_ref_layers_flag 는, 계층간 예측에 대한 제한들이 적용될 수도 있거나 적용되지 않을 수도 있음을 나타낼 수도 있다. 하지만, 이 예에 있어서, 1 과 동일한 신택스 엘리먼트 ilp_restricted_ref_layers_flag 는, 계층간 예측에 대한 제한들이 VPS 를 참조하는 임의의 계층의 직접 레퍼런스 계층들의 임의의 계층들에 대해 시그널링됨을 나타낼 수도 있다.
부가적으로, 신택스 엘리먼트들 min_spatial_segment_offset_plus1, ctu_based_offset_enabled_flag, 및 min_horizontal_ctu_offset_plus1 은 JCTVC-M0463 에서 설명된 것들과 유사할 수도 있지만, SPS 로부터 VPS 로 이동될 수도 있다. 예를 들어, min_spatial_segment_offset_plus1[ i ][ j ] 는, j번째 직접 레퍼런스 계층의 각각의 픽처에 있어서, 상기 명시된 바와 같은 min_horizontal_ctu_offset_plus1[ i ][ j ] 와 함께 또는 홀로, 계층 인덱스 i 를 갖고 VPS 를 참조하는 픽처의 디코딩을 위한 계층간 예측에 사용되지 않는 공간 영역을 나타낼 수도 있다. min_spatial_segment_offset_plus1[ i ][ j ] 의 값은 0 내지 refPicWidthInCtbsY[ j ] * refPicHeightInCtbsY[ j ] 까지의 범위에 있을 것이다. 존재하지 않을 경우, min_spatial_segment_offset_plus1[ i ][ j ] 의 값은 0 과 동일한 것으로 추론될 수도 있다. 일부 예들에 있어서, 최소 공간 세그먼트는 CTU, 슬라이스, 또는 타일과 같이 비디오 데이터의 다양한 유닛들과 연관될 수도 있다.
부가적으로, 1 과 동일한 신택스 엘리먼트 ctu_based_offset_enabled_flag[ i ][ j ] 는, CTU들의 유닛들에서, j번째 직접 레퍼런스 계층의 각각의 픽처에 있어서, 계층 인덱스 i 를 갖고 VPS 를 참조하는 픽처의 디코딩을 위한 계층간 예측에 사용되지 않는 공간 영역이 min_spatial_segment_offset_plus1[ i ][ j ] 및 min_horizontal_ctu_offset_plus1[ i ][ j ] 에 의해 함께 표시됨을 명시한다. 하지만, 0 과 동일한 신택스 엘리먼트 ctu_based_offset_enabled_flag[ i ][ j ] 는, 슬라이스 세그먼트들, 타일들, 또는 CTU 로우들의 유닛들에서, j번째 직접 레퍼런스 계층의 각각의 픽처에 있어서, SPS 를 참조하는 픽처의 디코딩을 위한 계층간 예측에 사용되지 않는 공간 영역이 오직 min_spatial_segment_offset_plus1[ i ][ j ] 에 의해서만 표시됨을 명시한다. 존재하지 않을 경우, ctu_based_offset_enabled_flag[ i ][ j ] 의 값은 0 과 동일한 것으로 추론된다.
부가적으로, 신택스 엘리먼트 min_horizontal_ctu_offset_plus1[ i ][ j ] 는, 신택스 엘리먼트 ctu_based_offset_enabled_flag[ i ][ j ] 가 1 과 동일할 경우, j번째 직접 레퍼런스 계층의 각각의 픽처에 있어서, 상기 명시된 바와 같은 min_spatial_segment_offset_plus1[ i ][ j ] 와 함께, 계층 인덱스 i 를 갖고 VPS 를 참조하는 픽처의 디코딩을 위한 계층간 예측에 사용되지 않는 공간 영역을 나타낸다. min_horizontal_ctu_offset_plus1[ i ][ j ] 의 값은 0 내지 refPicWidthInCtbsY[ j ] 까지의 범위에 있을 것이다.
이에 따라, 상기 예에 있어서, 비디오 인코더 (20) 및/또는 비디오 디코더 (30) 는, 멀티-계층 비트스트림의 임의의 계층들이 계층간 예측 제한을 갖는지 여부를 나타내는 데이터를 코딩할 수도 있고, 그 데이터는 VPS 에 포함될 수도 있다. 예를 들어, 비디오 인코더 (20) 는 ilp_restricted_ref_layers_flag 신택스 엘리먼트를 인코딩하여, 현재 인코딩되고 있는 계층에 대한 적어도 하나의 레퍼런스 계층이 관련 오프셋 지연을 가짐을 나타낼 수도 있다. 유사하게, 비디오 디코더 (30) 는, VPS 로부터, ilp_restricted_ref_layers_flag 신택스 엘리먼트를 디코딩할 수도 있다. 이 예에 있어서, 비디오 디코더 (30) 는, 현재 코딩되고 있는 계층에 대한 적어도 하나의 레퍼런스 계층들이 관련 오프셋 지연을 갖는지 여부를 결정할 수도 있다. 그러한 지연이 표시되면, 비디오 디코더 (30) 는, 오프셋 지연 정보와 일치하는 데이터의 양이 하나 이상의 레퍼런스 계층들로부터 디코딩될 때까지 현재 계층을 디코딩하는 것을 대기할 수도 있다.
다른 예에 있어서, 비디오 인코더 (20) 및/또는 비디오 디코더 (30) 는 보충 인핸스먼트 정보 (SEI) 메시지에서의 오프셋 지연 파라미터들을 나타내는 데이터 (예를 들어, 하나 이상의 신택스 엘리먼트들) 를 코딩할 수도 있다. 예를 들어, 본 개시의 양태들에 따르면, 비디오 인코더 (20) 및/또는 비디오 디코더 (30) 는 하기의 표 2 에 따라 오프셋 지연 정보를 시그널링/디코딩할 수도 있다:
Figure 112016014266819-pct00002
표 2 의 예에 있어서, 신택스 엘리먼트 lp_sei_active_vps_id 는 계층들에 관한 정보를 코딩된 비디오 시퀀스 (CVS) 에 포함하는 활성 VPS 를 식별한다. 신택스 엘리먼트 lp_sei_active_vps_id 의 값은 SEI 메시지를 포함하는 액세스 유닛의 VCL NAL 유닛들에 대한 활성 VPS 의 신택스 엘리먼트 vps_video_parameter_set_id 의 값과 동일할 것이다. 신택스 엘리먼트들 ilp_restricted_ref_layers_flag, min_spatial_segment_offset_plus1, ctu_based_offset_enabled_flag, min_horizontal_ctu_offset_plus1 의 시맨틱스는 표 1 을 참조하여 상기 설명된 것들과 동일할 수도 있다. 또다른 예에 있어서, 신택스 엘리먼트 lp_sei_active_vps_id 의 시그널링은 생략될 수도 있다.
상기 언급된 바와 같이, 본 개시의 기술들은 또한 확장된 공간 스케일러빌리티와 관련되며, 예를 들어, 확장된 공간 스케일러빌리티를 사용할 경우 병치된 CTU 의 위치 및 관련 오프셋 지연을 결정하는 것과 관련된다. 표 1 및 표 2 에 관하여 상기 언급된 바와 같이, 신택스 엘리먼트들 min_spatial_segment_offset_plus1 및 min_horizontal_ctu_offset_plus1 은 공간 세그먼트들의 관점에서 대응하는 레퍼런스 계층에 관하여 코딩 의존성들에 의해 도입된 현재 계층의 디코딩 지연을 나타낼 수도 있다. 특정 CTU 오프셋 지연의 표시를 수신한 후, 비디오 디코더 (30) 는 오프셋 지연을 구현하기 위해 병치된 CTU 를 로케이팅할 수도 있다. 즉, 비디오 디코더 (30) 는 어느 CTU들이 현재 코딩되고 있는 계층에서의 계층간 예측을 위해 이용가능한지를 결정하고, 그 CTU들을 레퍼런스 계층에서의 병치된 CTU 에 매핑할 수도 있다.
본 개시의 양태들에 따르면, 비디오 인코더 (20) 및/또는 비디오 디코더 (30) 는 병치된 샘플 (예를 들어, 병치된 레퍼런스 샘플) 및 병치된 CTU 를 도출할 수도 있다. 병치된 CTU 의 위치는 병치된 샘플에 기초할 수도 있다.
예시의 목적들로의 예에 있어서, 제 1 계층 (예를 들어, 인핸스먼트 계층) 에서 현재 코딩되고 있는 샘플이 제 2 의 상이한 계층 (예를 들어, 베이스 계층) 에서 레퍼런스 샘플에 대해 코딩된다고 가정한다. 비디오 인코더 (20) 및/또는 비디오 디코더 (30) 는 베이스 계층과 연관된 스케일링된 오프셋들에 기초하여 베이스 계층에서 레퍼런스 샘플을 로케이팅할 수도 있다. 스케일링된 오프셋들은 베이스 계층과 인핸스먼트 계층 간의 공간 차이에 기초하여 정의될 수도 있다. 본 개시의 양태들에 따르면, 비디오 인코더 (20) 및/또는 비디오 디코더 (30) 는 병치된 레퍼런스 샘플에 기초하여 베이스 계층에서 병치된 CTU 를 로케이팅할 수도 있다. 예를 들어, 비디오 인코더 (20) 및/또는 비디오 디코더 (30) 는 다음의 식들에 기초하여 병치된 CTU 를 로케이팅할 수도 있다:
Figure 112016014266819-pct00003
여기서, xColCtb 는 CTU 의 x 컴포넌트 (예를 들어, CTU 의 루마 CTB 또는 크로마 CTB들 중 하나) 를 나타내고, xRef 는 병치된 샘플의 x 좌표를 나타내고, yColCtb 는 병치된 CTU 의 y 컴포넌트를 나타내고, yRef 는 병치된 샘플의 y 좌표를 나타내고, colCtbAddr[ i ] 는 병치된 CTU 의 어드레스를 나타낸다. 부가적으로, 변수들 refCtbLog2SizeY[ i ][ j ], refPicWidthInCtbsY[ i ][ j ], 및 refPicHeightInCtbsY[ i ][ j ] 는 i번째 계층의 j번째 직접 레퍼런스 계층의 각각 CtbLog2SizeY, PicWidthInCtbsY, 및 PicHeightInCtbsY 와 동일하게 설정될 수도 있다.
부가적으로, 본 개시의 양태들에 따르면, 병치된 CTU 가 현재 계층에서의 특정 CTU 에 대한 레퍼런스 계층의 경계 내에 존재하지 않을 경우, 비디오 인코더 (20) 및/또는 비디오 디코더 (30) 는 CTU 어드레스의 값들을 대응하는 레퍼런스 계층 경계로 조정할 수도 있어서, 조정된 어드레스가 레퍼런스 계층에 존재하는 CTU 에 대응하게 한다. 병치된 CTU 가 레퍼런스 픽처 내에 있으면, 어떠한 조정도 필요하지 않을 수도 있다.
비디오 인코더 (20) 및/또는 비디오 디코더 (30) 는 샘플들 xRef 및 yRef (예를 들어, 병치된 샘플의 x 좌표 및 y 좌표) 의 위치를, 하기 식들에 기초하여 병치된 CTU 의 어드레스를 도출하기 전에 대응하는 레퍼런스 계층 경계로 클리핑함으로써 위치를 조정할 수도 있다:
Figure 112016014266819-pct00004
여기서, xRef[ i ] 는 병치된 샘플의 x 좌표를 나타내고, yRef[ i ] 는 병치된 샘플의 y 좌표를 나타내고, leftStart 는 현재 계층 (예를 들어, 인핸스먼트 계층) 에 대한 레퍼런스 계층 (예를 들어, 베이스 계층) 의 좌측 에지를 나타내고, rightEnd 는 현재 계층에 대한 레퍼런스 계층의 우측 에지를 나타내고, topStart 는 현재 계층에 대한 레퍼런스 계층의 상부 에지를 나타내고, bottomEnd 는 현재 계층에 대한 레퍼런스 계층의 저부 에지를 나타낸다. 함수 Clip3(x, y, z) 는 z < x 이면 x 를 출력하고, z > y 이면 y 를 출력하고, 그 이외에는 z 를 출력할 수도 있다.
상기 식들은 병치된 샘플들의 값들을 레퍼런스 계층 내에 위치되도록 제한한다. 예를 들어, 레퍼런스 샘플의 수평 위치가 좌측 레퍼런스 픽처 경계의 좌측에 위치될 경우, 비디오 코더는 수평 위치를 좌측 레퍼런스 픽처 경계의 위치로 대체할 수도 있다. 유사하게, 레퍼런스 샘플의 수평 위치가 우측 레퍼런스 픽처 경계의 우측에 위치될 경우, 비디오 코더는 수평 위치를 우측 레퍼런스 픽처 경계의 위치로 대체할 수도 있다. 레퍼런스 샘플의 수직 위치가 상부 레퍼런스 픽처 경계 위에 위치될 경우, 비디오 코더는 수직 위치를 상부 레퍼런스 픽처 경계의 위치로 대체할 수도 있다. 레퍼런스 샘플의 수직 위치가 저부 레퍼런스 픽처 경계 아래에 위치될 경우, 비디오 코더는 수직 위치를 저부 레퍼런스 픽처 경계의 위치로 대체할 수도 있다. 그 후, 비디오 인코더 (20) 및/또는 비디오 디코더 (30) 는 레퍼런스로서의 결정된 경계 CTU 로 현재 계층에서의 CTU 에 대한 계층간 예측 제약들 (예를 들어, 오프셋 지연들) 을 적용할 수도 있다.
이러한 방식으로, 비디오 인코더 (20) 및/또는 비디오 디코더 (30) 는 레퍼런스 계층 경계 내에 존재하는 병치된 CTU 의 위치를 결정하고 계층간 예측 제한 (예를 들어, 오프셋 지연) 을 적당하게 적용할 수도 있다.
본 개시의 또다른 기술들은, CTU 오프셋들이 인에이블됨 (예를 들어, 표 1 및 표 2 에서 상기 언급된 ctu_based_offset_enabled_flag 신택스 엘리먼트) 을 시그널링함에 있어서의 개선들과 관련된다. 예를 들어, ctu_based_offset_enabled_flag 신택스 엘리먼트는, 시그널링되는 오프셋 지연이 CTU들의 유닛들에 있음을 명시하는데 사용될 수도 있다. 즉, ctu_based_offset_enabled_flag 신택스 엘리먼트의 값이 1 과 동일할 경우, CTU들의 유닛들에서, i번째 직접 레퍼런스 계층의 각각의 픽처에 있어서, SPS 를 참조하는 픽처의 디코딩을 위한 계층간 예측에 사용되지 않는 공간 영역은 신택스 엘리먼트 min_spatial_segment_offset_plus1[ i ] 및 신택스 엘리먼트 min_horizontal_ctu_offset_plus1[ i ] 에 의해 함께 표시된다.
JCTVC-M0463 에서 설명된 바와 같은 HEVC 확장들에 대한 ctu_based_offset_enabled_flag 시그널링을 위한 현재 설계는 특정 단점들을 가질 수도 있다. 예를 들어, 일 계층에 대한 CTU 기반 오프셋 지연을 시그널링하는 것 및 다른 계층에 대한 슬라이스 기반, 타일 기반 또는 CTU 로우 기반 오프셋 지연 (예를 들어, 비 CTU 기반 오프셋 지연) 을 시그널링하는 것은 상대적으로 복잡할 수도 있다. 예를 들어, 대부분의 경우, 오프셋 지연을 나타내는데 사용된 공간 세그먼트들은 모든 계층들에 대해 동일하여, 별도의 시그널링을 불필요하게 복잡하게 할 수도 있다. 이러한 의미에서, 모든 계층들 및 그 직접 레퍼런스 계층들에 적용가능한 글로벌 플래그로서 ctu_based_offset_enabled_flag 신택스 엘리먼트를 갖는 것이 바람직할 수도 있다.
부가적으로, min_horizontal_ctu_offset_plus1 신택스 엘리먼트는, 현재 계층 또는 현재 계층의 직접 레퍼런스 계층 (현재 계층이 직접적으로 참조하는 레퍼런스 계층) 중 어느 하나에서 1 초과의 타일이 존재할 경우에 유용하지 않을 수도 있다. 예를 들어, 타일들이 정렬되지 않을 경우, min_horizontal_ctu_offset_plus1 신택스 엘리먼트의 값은 상이한 타일에 속하는 공간 세그먼트를 포인팅할 수도 있다. 이것은 잠재적으로, 코딩 동안 상이한 타일의 데이터를 참조할 필요성을 도입할 수 있으며, 이는 병렬 코딩의 목적으로 용인되지 않을 수도 있다.
본 개시의 양태들에 따르면, 비디오 인코더 (20) 및/또는 비디오 디코더 (30) 는 하기의 표 3 에 나타낸 VPS 를 구현할 수도 있다 (여기서, 텍스트 [removed: ...] 는 JCTVC-M0463 으로부터의 삭제를 나타냄):
Figure 112016014266819-pct00005
표 3 의 예에 있어서, 1 과 동일한 신택스 엘리먼트 ctu_based_offset_enabled_flag 는, CTU들의 유닛들에서, 모든 직접 레퍼런스 계층 픽처들 [JCTVC-M0463 으로부터 제거됨: i번째 직접 레퍼런스 계층의 각각의 픽처에 있어서] 에 대해, [JCTVC-M0463 으로부터 제거됨: SPS] VPS 를 참조하는 픽처의 디코딩을 위한 계층간 예측에 사용되지 않는 공간 영역이 신택스 엘리먼트 min_spatial_segment_offset_plus1[ i ] 및 신택스 엘리먼트 min_horizontal_ctu_offset_plus1[ i ] 에 의해 함께 표시됨을 명시한다. 0 과 동일한 신택스 엘리먼트 ctu_based_offset_enabled_flag 는, 슬라이스 세그먼트들, 타일들, 또는 CTU 로우들의 유닛들에서, [JCTVC-M0463 으로부터 제거됨: i번째 직접 레퍼런스 계층의 각각의 픽처에 있어서] 모든 직접 레퍼런스 계층 픽처들에 대해, VPS 를 참조하는 픽처의 디코딩을 위한 계층간 예측에 사용되지 않는 공간 영역이 오직 min_spatial_segment_offset_plus1[ i ] 에 의해서만 표시됨을 명시한다. 존재하지 않을 경우, ctu_based_offset_enabled_flag[ i ] 의 값은 0 과 동일한 것으로 추론된다. 본 개시의 양태들에 따르면, 신택스 엘리먼트 tiles_enabled_flag 가 모든 계층의 활성 PPS 에 대해 1 과 동일할 경우, 신택스 엘리먼트 ctu_based_offset_enabled_flag 가 0 과 동일할 것이라는 것은 비트스트림 부합의 요건일 수도 있다.
다른 예에 있어서, 비디오 인코더 (20) 및/또는 비디오 디코더 (30) 는 하기의 표 4 에 나타낸 VPS 를 구현할 수도 있다 (여기서, 텍스트 [removed: ...] 는 JCTVC-M0463 으로부터의 삭제를 나타냄):
Figure 112016014266819-pct00006
표 4 의 예에 있어서, 1 과 동일한 신택스 엘리먼트 ctu_based_offset_enabled_flag[ i ] 는, CTU들의 유닛들에서, 모든 직접 레퍼런스 계층 픽처들 [JCTVC-M0463 으로부터 제거됨: i번째 직접 레퍼런스 계층의 각각의 픽처에 있어서] 에 대해, VPS [JCTVC-M0463 으로부터 제거됨: SPS] 를 참조하는 계층 인덱스 i 를 갖는 픽처의 디코딩을 위한 계층간 예측에 사용되지 않는 공간 영역이 신택스 엘리먼트 min_spatial_segment_offset_plus1[ i ] 및 신택스 엘리먼트 min_horizontal_ctu_offset_plus1[ i ] 에 의해 함께 표시됨을 명시한다. 0 과 동일한 신택스 엘리먼트 ctu_based_offset_enabled_flag[ i ] 는, 슬라이스 세그먼트들, 타일들, 또는 CTU 로우들의 유닛들에서, 모든 직접 레퍼런스 계층 픽처들 [JCTVC-M0463 으로부터 제거됨: i번째 직접 레퍼런스 계층의 각각의 픽처에 있어서] 에 대해, VPS 를 참조하는 계층 인덱스 i 를 갖는 픽처의 디코딩을 위한 계층간 예측에 사용되지 않는 공간 영역이 오직 min_spatial_segment_offset_plus1[ i ] 에 의해서만 표시됨을 명시한다. 존재하지 않을 경우, 신택스 엘리먼트 ctu_based_offset_enabled_flag[ i ] 의 값은 0 과 동일한 것으로 추론된다. 본 개시의 양태들에 따르면, 신택스 엘리먼트 tiles_enabled_flag 가 모든 계층의 활성 PPS 에 대해 1 과 동일할 경우, 신택스 엘리먼트 ctu_based_offset_enabled_flag 가 0 과 동일할 것이라는 것은 비트스트림 부합의 요건일 수도 있다. 상기 신택스 엘리먼트들은 SPS, PPS, 슬라이스 헤더, 또는 그 확장들에서 시그널링될 수도 있다. 상기 신택스는 또한, SEI 메시지로서 또는 VUI 메시지로서 시그널링될 수도 있다.
본 개시의 또다른 기술들은, 계층들 간 타일들의 정렬을 나타내는 것과 관련된다. 예를 들어, 상기 언급된 바와 같이, 타일은 픽처의 파티션을 포함할 수도 있고 병렬 코딩을 위해 사용될 수도 있다. 타일 경계들은, 슬라이스 경계들과 유사하게, 파싱 및 예측 의존성들을 차단하여, 타일이 독립적으로 프로세싱될 수 있지만, 인-루프 (in-loop) 필터들 (디-블록킹 및 샘플 적응 오프셋 (SAO)) 은 여전히 타일 경계들을 크로싱할 수도 있다. 타일 기반 구조를 구현하는 것은, 슬라이스들의 사용과 비교하여 CTU들의 변경된 디코딩 순서를 허용함으로써, 병렬 프로세싱을 가능케 하고 코딩 효율을 개선시킬 수도 있다.
예를 들어, 일반화의 손실없이, 4개의 타일들이 레퍼런스 및 인핸스먼트 계층들을 위해 사용된다고 가정한다. 이 경우, 비디오 인코더 (20) 및/또는 비디오 디코더 (30) 는 4개의 프로세서 코어들로 코딩을 수행할 수도 있으며, 그 각각은 타일들의 개별 타일에 전용된다. 계층들 간의 타일들의 정렬은 타일들이 프로세싱되는 방식과 관련될 수도 있다. 예를 들어, 4개 타일들이 병렬로 프로세싱될 수도 있음을 보장하기 위하여, 비디오 인코더 (20) 및/또는 비디오 디코더 (30) 는 특정 제한들을 부과할 수도 있다. 예를 들어, 계층간 필터링의 업샘플링은 레퍼런스 계층에서의 타일 경계들을 크로싱하도록 허용되지 않을 수도 있다. 인핸스먼트 타일에 대해, 레퍼런스 계층의 병치된 샘플들은, 레퍼런스 계층 샘플들이 이러한 인핸스먼트 타일에 정렬되지 않는 타일들에 속하면 (즉, 그 타일들 내에 포함되면) 이용불가능으로서 간주된다.
본 개시의 양태들에 따르면, 타일 경계들이 정렬되는지 여부의 표시가 VPS 에서 제공될 수도 있다. 예를 들어, 비디오 인코더 (20) 는, 멀티-계층 비트스트림의 계층들이 정렬되도록 제약되는지 여부를 나타내는 VPS 에서의 하나 이상의 신택스 엘리먼트들을 인코딩할 수도 있다 (그리고 비디오 디코더 (30) 는 그 하나 이상의 신택스 엘리먼트들을 파싱 및 디코딩할 수도 있음). VPS 에서 시그널링되는 것과 같은 타일 경계 정렬형 정보는 비트스트림의 모든 계층들에 적용하는 교차 계층 범위를 가질 수도 있다.
일 예에 있어서, 비디오 인코더 (20) 및/또는 비디오 디코더 (30) 는 하기의 표 5 에 나타낸 VPS 를 구현할 수도 있다:
Figure 112016014266819-pct00007
표 5 의 예에 있어서, 1 과 동일한 신택스 엘리먼트 tile_boundaries_aligned_flag 는, 액세스 유닛에서의 일 픽처의 임의의 2개의 샘플들이 일 타일에 속할 경우에 동일한 액세스 유닛에서의 다른 픽처에서의 병치된 샘플들 (혹시 존재한다면) 은 일 타일에 속하고 그리고 액세스 유닛에서의 일 픽처의 임의의 2개의 샘플들이 상이한 타일들에 속할 경우에 동일한 액세스 유닛에서의 다른 픽처에서의 병치된 샘플들은 상이한 타일들에 속할 것임을 나타낸다. 0 과 동일한 신택스 엘리먼트 tile_boundaries_aligned_flag 는 그러한 제한이 적용될 수도 있거나 적용되지 않을 수도 있음을 나타낸다. 예를 들어, 0 과 동일한 신택스 엘리먼트 tile_boundaries_aligned_flag 는, 타일들이 정렬될 수도 있지만 정렬되도록 엄격히 제약되지는 않음을 나타낼 수도 있다.
이에 따라, 그 기술들은 비디오 디코더 (30) 로 하여금, 현재 디코딩되고 있는 계층에 대해, 현재 계층의 타일 경계들이 VPS 를 디코딩함으로써 현재 계층의 임의의 레퍼런스 계층과 정렬되는지 여부를 결정하게 할 수도 있다. 예를 들어, 비디오 디코더 (30) 는 각각의 직접 레퍼런스 계층 (예를 들어, 직접 의존성 플래그에 의해 표시됨) 이 현재 계층의 타일들과 정렬되는 경계들을 갖는지 여부를 결정할 수도 있다.
도 2 는 비디오 데이터를 병렬로 프로세싱하기 위한 기술들을 구현할 수도 있는 비디오 인코더 (20) 의 일 예를 도시한 블록 다이어그램이다. 비디오 인코더 (20) 는 비디오 슬라이스들 내에서 비디오 블록들의 인트라-코딩 및 인터-코딩을 수행할 수도 있다. 인트라-코딩은 소정의 비디오 프레임 또는 픽처 내 비디오에 있어서 공간 리던던시를 감소 또는 제거하기 위해 공간 예측에 의존한다. 인터-코딩은 비디오 시퀀스의 인접한 프레임들 또는 픽처들 내 비디오에 있어서 시간 리던던시를 감소 또는 제거하기 위해 시간 예측에 의존한다. 인트라-모드 (I 모드) 는 수개의 공간 기반 코딩 모드들 중 임의의 모드를 지칭할 수도 있다. 단방향 예측 (P 모드) 또는 양방향 예측 (B 모드) 과 같은 인터-모드들은 수개의 시간 기반 코딩 모드들 중 임의의 모드를 지칭할 수도 있다.
상기 언급된 바와 같이, 비디오 인코더 (20) 는 멀티뷰 및/또는 스케일러블 비디오 코딩을 수행하도록 적응될 수도 있다. 예를 들어, 비디오 인코더 (20) 는, SHVC, MV-HEVC, 또는 3D-HEVC 와 같은 하나 이상의 비디오 코딩 표준 확장들에 부합하는 비트스트림을 인코딩하도록 구성될 수도 있다. 하지만, 특정 코딩 표준들이 참조되지만, 그 기술들은 임의의 하나의 코딩 표준에 특정되지 않고 장래의 및/또는 아직 개발되지 않은 표준들로 구현될 수도 있음이 이해되어야 한다.
도 2 에 도시된 바와 같이, 비디오 인코더 (20) 는 인코딩될 비디오 프레임 내의 현재 비디오 블록을 수신한다. 도 2 의 예에 있어서, 비디오 인코더 (20) 는 비디오 데이터 메모리 (38), 모드 선택 유닛 (40), 레퍼런스 픽처 메모리 (64), 합산기 (50), 변환 프로세싱 유닛 (52), 양자화 유닛 (54), 및 엔트로피 인코딩 유닛 (56) 을 포함한다. 모드 선택 유닛 (40) 은 차례로, 모션 보상 유닛 (44), 모션 추정 유닛 (42), 인트라-예측 유닛 (46), 및 파티션 유닛 (48) 을 포함한다. 비디오 블록 복원을 위해, 비디오 인코더 (20) 는 또한 역양자화 유닛 (58), 역변환 유닛 (60), 및 합산기 (62) 를 포함한다. 디블로킹 (deblocking) 필터 (도 2 에 도시 안됨) 가 또한, 블록 경계들을 필터링하여 복원된 비디오로부터 블록키니스 아티팩트들을 제거하기 위해 포함될 수도 있다. 요구된다면, 디블로킹 필터는 통상적으로 합산기 (62) 의 출력을 필터링할 것이다. 부가적인 필터 (인-루프 (in loop) 또는 포스트 루프) 가 또한 디블로킹 필터에 부가하여 이용될 수도 있다. 그러한 필터들은 간략화를 위해 도시되지 않지만, 요구된다면, (인-루프 필터로서) 합산기 (50) 의 출력을 필터링할 수도 있다.
비디오 데이터 메모리 (38) 은, 비디오 인코더 (20) 의 컴포넌트들에 의해 인코딩될 비디오 데이터를 저장할 수도 있다. 비디오 데이터 메모리 (38) 에 저장된 비디오 데이터는, 예를 들어, 비디오 소스 (18) 로부터 획득될 수도 있다. 레퍼런스 픽처 메모리 (64) 는, 예를 들어, 인트라 또는 인터 코딩 모드들에서 비디오 인코더 (20) 에 의해 비디오 데이터를 인코딩함에 있어서 사용하기 위한 레퍼런스 비디오 데이터를 저장하는 디코딩된 픽처 버퍼로서 지칭될 수도 있다. 비디오 데이터 메모리 (38) 및 레퍼런스 픽처 메모리 (64) 는 동기식 DRAM (SDRAM) 을 포함한 동적 랜덤 액세스 메모리 (DRAM), 자기저항성 RAM (MRAM), 저항성 RAM (RRAM), 또는 다른 타입들의 메모리 디바이스들과 같은 다양한 메모리 디바이스들 중 임의의 메모리 디바이스에 의해 형성될 수도 있다. 비디오 데이터 메모리 (38) 및 레퍼런스 픽처 메모리 (64) 는 동일한 메모리 디바이스 또는 별도의 메모리 디바이스들에 의해 제공될 수도 있다. 다양한 예들에 있어서, 비디오 데이터 메모리 (38) 는 비디오 인코더 (20) 의 다른 컴포넌트들과 온-칩형이거나 그 컴포넌트들에 대하여 오프-칩형일 수도 있다.
인코딩 프로세스 동안, 비디오 인코더 (22) 는 코딩될 비디오 프레임 또는 슬라이스를 수신한다. 그 프레임 또는 슬라이스는 다중의 비디오 블록들로 분할될 수도 있다. 모션 추정 유닛 (42) 및 모션 보상 유닛 (44) 은 시간 예측을 제공하기 위해 하나 이상의 레퍼런스 프레임들에 있어서의 하나 이상의 블록들에 대해 수신된 비디오 블록의 인터-예측 코딩을 수행한다. 대안적으로, 인트라-예측 유닛 (46) 은 공간 예측을 제공하기 위해 코딩될 블록과 동일한 프레임 또는 슬라이스에 있어서의 하나 이상의 이웃한 블록들에 대해 수신된 비디오 블록의 인트라-예측 코딩을 수행할 수도 있다. 비디오 인코더 (20) 는, 예를 들어, 비디오 데이터의 각각의 블록에 대한 적당한 코딩 모드를 선택하기 위해 다중의 코딩 패스들을 수행할 수도 있다.
더욱이, 파티션 유닛 (48) 은 이전 코딩 패스들에 있어서의 이전 파티셔닝 방식들의 평가에 기초하여 비디오 데이터의 블록들을 서브-블록들로 파티셔닝할 수도 있다. 예를 들어, 파티션 유닛 (48) 은, 레이트-왜곡 분석 (예를 들어, 레이트-왜곡 최적화) 에 기초하여, 처음에 프레임 또는 슬라이스를 LCU들로 파티셔닝하고, LCU들 각각을 서브-CU들로 파티셔닝할 수도 있다. 모드 선택 유닛 (40) 은 추가로, LCU 의 서브-CU들로의 파티셔닝을 표시하는 쿼드트리 데이터 구조를 생성할 수도 있다. 쿼드트리의 리프 노드 CU들은 하나 이상의 PU들 및 하나 이상의 TU들을 포함할 수도 있다.
모드 선택 유닛 (40) 은, 예를 들어, 에러 결과들에 기초하여 코딩 모드들 중 하나, 즉, 인트라 모드 또는 인터 모드를 선택할 수도 있고, 결과적인 인트라- 또는 인터-코딩된 블록을 합산기 (50) 에 제공하여 잔차 블록 데이터를 생성하고, 합산기 (62) 에 제공하여 레퍼런스 프레임으로서의 사용을 위한 인코딩된 블록을 복원한다. 모드 선택 유닛 (40) 은 또한, 모션 벡터들, 인트라 모드 표시자들, 파티션 정보, 및 다른 그러한 신택스 정보와 같은 신택스 엘리먼트들을 엔트로피 인코딩 유닛 (56) 에 제공한다.
모션 추정 유닛 (42) 및 모션 보상 유닛 (44) 은 고도로 통합될 수도 있지만, 개념적인 목적을 위해 별도로 도시된다. 모션 추정 유닛 (42) 에 의해 수행된 모션 추정은, 비디오 블록들에 대한 모션을 추정하는 모션 벡터들을 생성하는 프로세스이다. 모션 벡터는, 예를 들어, 현재 프레임 (또는 다른 코딩된 유닛) 내에서 코딩되는 현재 블록에 대한 레퍼런스 프레임 (또는 다른 코딩된 유닛) 내 예측 블록에 대한 현재 비디오 프레임 또는 픽처 내 비디오 블록의 PU 의 변위를 표시할 수도 있다. 예측 블록은 픽셀 차이의 관점에서 코딩될 블록과 밀접하게 매칭되도록 발견되는 블록이며, 이 픽셀 차이는 절대 차이의 합 (SAD), 제곱 차이의 합 (SSD), 또는 다른 상이한 메트릭들에 의해 결정될 수도 있다. 일부 예들에 있어서, 비디오 인코더 (20) 는 레퍼런스 픽처 메모리 (64) 에 저장된 레퍼런스 픽처들의 서브-정수 픽셀 포지션들에 대한 값들을 계산할 수도 있다. 예를 들어, 비디오 인코더 (20) 는 레퍼런스 픽처의 1/4 픽셀 포지션들, 1/8 픽셀 포지션들, 또는 다른 분수 픽셀 포지션들의 값들을 보간할 수도 있다. 따라서, 모션 추정 유닛 (42) 은 풀 픽셀 포지션들 및 분수 픽셀 포지션들에 대한 모션 탐색을 수행하고, 분수 픽셀 정밀도로 모션 벡터를 출력할 수도 있다.
모션 추정 유닛 (42) 은 인터-코딩된 슬라이스에 있어서의 비디오 블록의 PU 에 대한 모션 벡터를, 그 PU 의 포지션을 레퍼런스 픽처의 예측 블록의 포지션과 비교함으로써 계산한다. 레퍼런스 픽처는 제 1 레퍼런스 픽처 리스트 (리스트 0) 또는 제 2 레퍼런스 픽처 리스트 (리스트 1) 로부터 선택될 수도 있으며, 이 리스트들 각각은 레퍼런스 픽처 메모리 (64) 에 저장된 하나 이상의 레퍼런스 픽처들을 식별한다. 모션 추정 유닛 (42) 은 계산된 모션 벡터를 엔트로피 인코딩 유닛 (56) 및 모션 보상 유닛 (44) 으로 전송한다.
모션 보상 유닛 (44) 에 의해 수행된 모션 보상은 모션 추정 유닛 (42) 에 의해 결정된 모션 벡터에 기초하여 예측 블록을 페치 또는 생성하는 것을 수반할 수도 있다. 다시, 모션 추정 유닛 (42) 및 모션 보상 유닛 (44) 은 일부 예들에 있어서 기능적으로 통합될 수도 있다. 현재 비디오 블록의 PU 에 대한 모션 벡터를 수신할 시, 모션 보상 유닛 (44) 은, 모션 벡터가 레퍼런스 픽처 리스트들 중 하나에 포인팅하는 예측 블록을 로케이팅할 수도 있다. 합산기 (50) 는, 하기에서 논의되는 바와 같이, 코딩되는 현재 비디오 블록의 픽셀 값들로부터 예측 블록의 픽셀 값들을 감산하여 픽셀 차이 값들을 형성함으로써 잔차 비디오 블록을 형성한다. 일반적으로, 모션 추정 유닛 (42) 은 루마 컴포넌트들에 대한 모션 추정을 수행하고, 모션 보상 유닛 (44) 은 크로마 컴포넌트들 및 루마 컴포넌트들 양자에 대한 루마 컴포넌트들에 기초하여 계산된 모션 벡터들을 이용한다. 모드 선택 유닛 (40) 은 또한, 비디오 슬라이스의 비디오 블록들을 디코딩함에 있어서 비디오 디코더 (30) 에 의한 사용을 위해 비디오 블록들 및 비디오 슬라이스와 연관된 신택스 엘리먼트들을 생성할 수도 있다.
인트라-예측 유닛 (46) 은 현재 블록을, 상기 설명된 바와 같은 모션 추정 유닛 (42) 및 모션 보상 유닛 (44) 에 의해 수행된 인터-예측에 대한 대안으로서 인트라-예측할 수도 있다. 특히, 인트라-예측 유닛 (46) 은 현재 블록을 인코딩하는데 이용하기 위한 인트라-예측 모드를 결정할 수도 있다. 일부 예들에 있어서, 인트라-예측 유닛 (46) 은 예를 들어 별도의 인코딩 패스들 동안에 다양한 인트라-예측 모드들을 이용하여 현재 블록을 인코딩할 수도 있으며, 인트라-예측 유닛 (46) (또는 일부 예들에서는 모드 선택 유닛 (40)) 은 테스팅된 모드들로부터의 이용을 위해 적당한 인트라-예측 모드를 선택할 수도 있다.
예를 들어, 인트라-예측 유닛 (46) 은 다양한 테스팅된 인트라-예측 모드들에 대한 레이트-왜곡 분석을 이용하여 레이트-왜곡 값들을 계산하고, 테스팅된 모드들 중 최상의 레이트-왜곡 특성들을 갖는 인트라-예측 모드를 선택할 수도 있다. 레이트-왜곡 분석은 일반적으로, 인코딩된 블록과 그 인코딩된 블록을 생성하도록 인코딩되었던 오리지널의 인코딩되지 않은 블록 간의 왜곡 (또는 에러) 의 양뿐 아니라 인코딩된 블록을 생성하는데 사용된 비트 레이트 (즉, 비트들의 수) 를 결정한다. 인트라-예측 유닛 (46) 은 다양한 인코딩된 블록들에 대한 왜곡들 및 레이트들로부터의 비율들을 계산하여, 어느 인트라-예측 모드가 그 블록에 대한 최상의 레이트-왜곡 값을 나타내는지를 결정할 수도 있다.
블록에 대한 인트라-예측 모드를 선택한 이후, 인트라-예측 유닛 (46) 은 블록에 대한 선택된 인트라-예측 모드를 표시하는 정보를 엔트로피 인코딩 유닛 (56) 에 제공할 수도 있다. 엔트로피 인코딩 유닛 (56) 은 선택된 인트라-예측 모드를 표시한 정보를 인코딩할 수도 있다. 비디오 인코더 (20) 는 송신된 비트스트림에, 복수의 인트라-예측 모드 인덱스 테이블들 및 복수의 수정된 인트라-예측 모드 인덱스 테이블들 (코드워드 매핑 테이블들로서도 또한 지칭됨) 을 포함할 수도 있는 구성 데이터, 다양한 블록들에 대한 인코딩 컨텍스트들의 정의들, 및 컨텍스트들 각각에 대한 사용을 위한 가장 가능성있는 인트라-예측 모드, 인트라-예측 모드 인덱스 테이블, 및 수정된 인트라-예측 모드 인덱스 테이블의 표시들을 포함할 수도 있다.
비디오 인코더 (20) 는 모드 선택 유닛 (40) 으로부터의 예측 데이터를, 코딩되는 오리지널 비디오 블록으로부터 감산함으로써 잔차 비디오 블록을 형성한다. 합산기 (50) 는 이러한 감산 연산을 수행하는 컴포넌트 또는 컴포넌트들을 나타낸다. 변환 프로세싱 유닛 (52) 은 이산 코사인 변환 (DCT) 또는 개념적으로 유사한 변환과 같은 변환을 잔차 블록에 적용하여, 잔차 변환 계수 값들을 포함하는 비디오 블록을 생성한다. 변환 프로세싱 유닛 (52) 은, DCT 와 개념적으로 유사한 다른 변환들을 수행할 수도 있다. 웨이블릿 변환들, 정수 변환들, 서브-대역 변환들, 또는 다른 타입들의 변환들이 또한 이용될 수 있다. 어떠한 경우라도, 변환 프로세싱 유닛 (52) 은 변환을 잔차 블록에 적용하여, 잔차 변환 계수들의 블록을 생성한다. 그 변환은 잔차 정보를 픽셀 값 도메인으로부터 주파수 도메인과 같은 변환 도메인으로 컨버팅할 수도 있다. 변환 프로세싱 유닛 (52) 은 결과적인 변환 계수들을 양자화 유닛 (54) 으로 전송할 수도 있다. 양자화 유닛 (54) 은 비트 레이트를 추가로 감소시키기 위해 변환 계수들을 양자화한다. 양자화 프로세스는 그 계수들의 일부 또는 그 모두와 연관되는 비트 심도를 감소시킬 수도 있다. 양자화의 정도는 양자화 파라미터를 조정함으로써 수정될 수도 있다. 그 후, 일부 예들에 있어서, 양자화 유닛 (54) 은, 양자화된 변환 계수들을 포함하는 매트릭스의 스캔을 수행할 수도 있다. 대안적으로, 엔트로피 인코딩 유닛 (56) 은 스캔을 수행할 수도 있다.
양자화 이후, 엔트로피 인코딩 유닛 (56) 은 양자화된 변환 계수들을 엔트로피 코딩한다. 예를 들어, 엔트로피 인코딩 유닛 (56) 은 컨텍스트 적응 가변 길이 코딩 (CAVLC), 컨텍스트 적응 바이너리 산술 코딩 (CABAC), 신택스 기반 컨텍스트 적응 바이너리 산술 코딩 (SBAC), 확률 간격 파티셔닝 엔트로피 (PIPE) 코딩, 또는 다른 엔트로피 코딩 기술을 수행할 수도 있다. 컨텍스트 기반 엔트로피 코딩의 경우, 컨텍스트는 이웃한 블록들에 기초할 수도 있다. 엔트로피 인코딩 유닛 (56) 에 의한 엔트로피 코딩 이후, 인코딩된 비트스트림은 다른 디바이스 (예를 들어, 비디오 디코더 (30)) 로 송신되거나 또는 더 나중의 송신 또는 취출을 위해 아카이브될 수도 있다.
역양자화 유닛 (58) 및 역변환 유닛 (60) 은, 예를 들어, 레퍼런스 블록으로서의 더 나중 사용을 위해 픽셀 도메인에서 잔차 블록을 복원하도록, 각각, 역양자화 및 역변환을 적용한다. 모션 보상 유닛 (44) 은 레퍼런스 픽처 메모리 (64) 의 프레임들 중 하나의 예측 블록에 잔차 블록을 부가함으로써 레퍼런스 블록을 계산할 수도 있다. 모션 보상 유닛 (44) 은 또한, 하나 이상의 보간 필터들을 복원된 잔차 블록에 적용하여, 모션 추정에서 사용하기 위한 서브-정수 픽셀 값들을 계산할 수도 있다. 합산기 (62) 는 복원된 잔차 블록을, 모션 보상 유닛 (44) 에 의해 생성된 모션 보상된 예측 블록에 부가하여, 레퍼런스 픽처 메모리 (64) 로의 저장을 위한 복원된 비디오 블록을 생성한다. 복원된 비디오 블록은, 후속 비디오 프레임에서의 블록을 인터-코딩하기 위해 레퍼런스 블록으로서 모션 추정 유닛 (42) 및 모션 보상 유닛 (44) 에 의해 사용될 수도 있다.
비디오 인코더 (20) 는, 홀로 또는 임의의 조합으로, 본 개시의 기술들 중 임의의 기술을 수행하도록 구성될 수도 있는 비디오 인코더의 예를 나타낸다. 예를 들어, 비디오 인코더 (20) 는, VPS 에서, 멀티-계층 비트스트림의 임의의 계층들이 계층간 예측 제한을 갖는지 여부를 나타내는 데이터 및 타일 경계들이 멀티-계층 비트스트림의 계층들 중 적어도 2개의 계층들 사이에서 정렬되는지 여부를 나타내는 데이터 중 적어도 하나의 데이터를 포함하는 멀티-계층 비트스트림을 인코딩하고, 그리고 VPS 의 데이터에 따라 멀티-계층 비트스트림을 인코딩하도록 구성될 수도 있다. 부가적으로 또는 대안적으로, 비디오 인코더 (20) 는 하나 이상의 스케일링된 오프셋 값들에 기초하여 비디오 데이터의 레퍼런스 픽처와 연관된 레퍼런스 샘플의 위치를 결정할 수도 있고, 여기서, 레퍼런스 픽처는 멀티-계층 비트스트림의 제 1 계층에 포함되고 하나 이상의 스케일링된 오프셋 값들은 제 1 계층과 제 2 의 상이한 계층 간의 스케일에서의 차이를 나타낸다. 비디오 인코더 (20) 는 또한 레퍼런스 샘플의 위치에 기초하여 제 1 계층에서의 비디오 데이터의 병치된 레퍼런스 블록의 위치를 결정하고, 병치된 레퍼런스 블록에 대한 제 2 계층에서의 비디오 데이터의 현재 블록을 인코딩할 수도 있다.
도 3 는 비디오 데이터를 병렬로 프로세싱하기 위한 기술들을 구현할 수도 있는 비디오 디코더 (30) 의 일 예를 도시한 블록 다이어그램이다. 상기 언급된 바와 같이, 비디오 디코더 (30) 는 멀티뷰 및/또는 스케일러블 비디오 코딩을 수행하도록 적응될 수도 있다. 예를 들어, 비디오 디코더 (30) 는, SHVC, MV-HEVC, 또는 3D-HEVC 와 같은 하나 이상의 비디오 코딩 표준 확장들에 부합하는 비트스트림을 디코딩하도록 구성될 수도 있다. 하지만, 특정 코딩 표준들이 참조되지만, 그 기술들은 임의의 하나의 코딩 표준에 특정되지 않고 장래의 및/또는 아직 개발되지 않은 표준들로 구현될 수도 있음이 이해되어야 한다.
도 3 의 예에 있어서, 비디오 디코더 (30) 는 비디오 데이터 메모리 (68), 엔트로피 디코딩 유닛 (70), 모션 보상 유닛 (72), 인트라 예측 유닛 (74), 역양자화 유닛 (76), 역변환 유닛 (78), 레퍼런스 픽처 메모리 (82) 및 합산기 (80) 를 포함한다. 일부 예들에 있어서, 비디오 디코더 (30) 는 비디오 인코더 (20) (도 2) 에 대하여 설명된 인코딩 패스에 일반적으로 역인 디코딩 패스를 수행할 수도 있다. 모션 보상 유닛 (72) 은 엔트로피 디코딩 유닛 (70) 으로부터 수신된 모션 벡터들에 기초하여 예측 데이터를 생성할 수도 있지만, 인트라-예측 유닛 (74) 은 엔트로피 디코딩 유닛 (70) 으로부터 수신된 인트라-예측 모드 표시자들에 기초하여 예측 데이터를 생성할 수도 있다.
비디오 데이터 메모리 (68) 는, 비디오 디코더 (30) 의 컴포넌트들에 의해 디코딩될 인코딩된 비디오 비트스트림과 같은 비디오 데이터를 저장할 수도 있다. 비디오 데이터 메모리 (68) 에 저장된 비디오 데이터는, 예를 들어, 컴퓨터 판독가능 매체 (16) 로부터, 예컨대, 카메라와 같은 로컬 비디오 소스로부터, 비디오 데이터의 유선 또는 무선 네트워크 통신을 통해, 또는 물리적 데이터 저장 매체들에 액세스함으로써 획득될 수도 있다. 비디오 데이터 메모리 (68) 은, 인코딩된 비디오 비트스트림으로부터 인코딩된 비디오 데이터를 저장하는 코딩된 픽처 버퍼 (CPB) 를 형성할 수도 있다. 레퍼런스 픽처 메모리 (82) 는, 예를 들어, 인트라 또는 인터 코딩 모드들에서 비디오 디코더 (30) 에 의해 비디오 데이터를 디코딩함에 있어서 사용하기 위한 레퍼런스 비디오 데이터를 저장하는 디코딩된 픽처 버퍼로서 지칭될 수도 있다. 비디오 데이터 메모리 (68) 및 레퍼런스 픽처 메모리 (82) 는 동기식 DRAM (SDRAM) 을 포함한 동적 랜덤 액세스 메모리 (DRAM), 자기저항성 RAM (MRAM), 저항성 RAM (RRAM), 또는 다른 타입들의 메모리 디바이스들과 같은 다양한 메모리 디바이스들 중 임의의 메모리 디바이스에 의해 형성될 수도 있다. 비디오 데이터 메모리 (68) 및 레퍼런스 픽처 메모리 (82) 는 동일한 메모리 디바이스 또는 별도의 메모리 디바이스들에 의해 제공될 수도 있다. 다양한 예들에 있어서, 비디오 데이터 메모리 (68) 는 비디오 디코더 (30) 의 다른 컴포넌트들과 온-칩형이거나 그 컴포넌트들에 대하여 오프-칩형일 수도 있다.
디코딩 프로세스 동안, 비디오 디코더 (30) 는, 인코딩된 비디오 슬라이스의 비디오 블록들 및 관련 신택스 엘리먼트들을 나타내는 인코딩된 비디오 비트스트림을 비디오 인코더 (20) 로부터 수신한다. 비디오 디코더 (30) 의 엔트로피 디코딩 유닛 (70) 은 비트스트림을 엔트로피 디코딩하여, 양자화된 계수들, 모션 벡터들 또는 인트라-예측 모드 표시자들, 및 다른 신택스 엘리먼트들을 생성한다. 엔트로피 디코딩 유닛 (70) 은 모션 벡터들 및 다른 신택스 엘리먼트들을 모션 보상 유닛 (72) 으로 포워딩한다. 비디오 디코더 (30) 는 신택스 엘리먼트들을 비디오 슬라이스 레벨 및/또는 비디오 블록 레벨로 수신할 수도 있다.
비디오 슬라이스가 인트라-코딩된 (I) 슬라이스로서 코딩된 경우, 인트라 예측 유닛 (74) 은 현재 프레임 또는 픽처의 이전에 디코딩된 블록들로부터의 데이터 및 시그널링된 인트라 예측 모드에 기초하여 현재 비디오 슬라이스의 비디오 블록에 대한 예측 데이터를 생성할 수도 있다. 비디오 프레임이 인터-코딩된 (즉, B, P 또는 GPB) 슬라이스로서 코딩된 경우, 모션 보상 유닛 (72) 은 엔트로피 디코딩 유닛 (70) 으로부터 수신된 모션 벡터들 및 다른 신택스 엘리먼트들에 기초하여 현재 비디오 슬라이스의 비디오 블록에 대한 예측 블록들을 생성한다. 예측 블록들은 레퍼런스 픽처 리스트들 중 하나 내에서의 레퍼런스 픽처들 중 하나로부터 생성될 수도 있다. 비디오 디코더 (30) 는 레퍼런스 픽처 메모리 (82) 에 저장된 레퍼런스 픽처들에 기초한 디폴트 구성 기술들을 이용하여 레퍼런스 프레임 리스트들, 즉, 리스트 0 및 리스트 1 을 구성할 수도 있다. 모션 보상 유닛 (72) 은 모션 벡터들 및 다른 신택스 엘리먼트들을 파싱함으로써 현재 비디오 슬라이스의 비디오 블록에 대한 예측 정보를 결정하고, 그 예측 정보를 사용하여, 디코딩되는 현재 비디오 블록에 대한 예측 블록들을 생성한다. 예를 들어, 모션 보상 유닛 (72) 은 수신된 신택스 엘리먼트들 중 일부를 사용하여, 비디오 슬라이스의 비디오 블록들을 코딩하는데 사용되는 예측 모드 (예를 들어, 인트라-예측 또는 인터-예측), 인터-예측 슬라이스 타입 (예를 들어, B 슬라이스, P 슬라이스, 또는 GPB 슬라이스), 슬라이스에 대한 레퍼런스 픽처 리스트들 중 하나 이상에 대한 구성 정보, 슬라이스의 각각의 인터-인코딩된 비디오 블록에 대한 모션 벡터들, 슬라이스의 각각의 인터-코딩된 비디오 블록에 대한 인터-예측 상태, 및 현재 비디오 슬라이스에 있어서의 비디오 블록들을 디코딩하기 위한 다른 정보를 결정한다.
모션 보상 유닛 (72) 은 또한, 보간 필터들에 기초하여 보간을 수행할 수도 있다. 모션 보상 유닛 (72) 은 비디오 블록들의 인코딩 동안 비디오 인코더 (20) 에 의해 사용된 바와 같은 보간 필터들을 이용하여, 레퍼런스 블록들의 서브-정수 픽셀들에 대한 보간된 값들을 계산할 수도 있다. 이 경우, 모션 보상 유닛 (72) 은 수신된 신택스 엘리먼트들로부터 비디오 인코더 (20) 에 의해 사용된 보간 필터들을 결정하고, 보간 필터들을 이용하여 예측 블록들을 생성할 수도 있다.
역양자화 유닛 (76) 은 비트스트림에서 제공되고 엔트로피 디코딩 유닛 (70) 에 의해 디코딩되는 양자화된 변환 계수들을 역양자화, 즉, 양자화해제한다. 역양자화 프로세스는 비디오 슬라이스에 있어서의 각각의 비디오 블록에 대해 비디오 디코더 (30) 에 의해 계산된 양자화 파라미터 (QPY) 의 이용을 포함하여, 적용되어야 하는 양자화의 정도 및 유사하게 역양자화의 정도를 결정할 수도 있다.
역변환 유닛 (78) 은 픽셀 도메인에서 잔차 블록들을 생성시키기 위해, 역변환, 예를 들어, 역 DCT, 정수 역변환, 또는 개념적으로 유사한 역변환 프로세스를 변환 계수들에 적용한다.
모션 보상 유닛 (72) 이 모션 벡터들 및 다른 신택스 엘리먼트들에 기초하여 현재 비디오 블록에 대한 예측 블록을 생성한 이후, 비디오 디코더 (30) 는 역변환 유닛 (78) 으로부터의 잔차 블록들을 모션 보상 유닛 (72) 에 의해 생성된 대응하는 예측 블록들과 합산함으로써 디코딩된 비디오 블록을 형성한다. 합산기 (80) 는 이러한 합산 연산을 수행하는 컴포넌트 또는 컴포넌트들을 나타낸다. 요구된다면, 디블로킹 필터가 또한, 블록키니스 아티팩트들을 제거하기 위해, 디코딩된 블록들을 필터링하는데 적용될 수도 있다. (코딩 루프에 있어서 또는 코딩 루프 이후에) 다른 루프 필터들이 또한 픽셀 천이들을 평활하게 하거나 그렇지 않으면 비디오 품질을 개선하기 위해 이용될 수도 있다. 그 후, 소정의 프레임 또는 픽처에 있어서의 디코딩된 비디오 블록들이 레퍼런스 픽처 메모리 (82) 에 저장되고, 이 레퍼런스 픽처 메모리는 후속적인 모션 보상을 위해 사용되는 레퍼런스 픽처들을 저장한다. 레퍼런스 픽처 메모리 (82) 는 또한, 도 1 의 디스플레이 디바이스 (32) 와 같은 디스플레이 디바이스 상으로의 더 나중의 프리젠테이션을 위해 디코딩된 비디오를 저장한다.
비디오 디코더 (30) 는, 홀로 또는 임의의 조합으로, 본 개시의 기술들 중 임의의 기술 또는 그 모든 기술들을 수행하도록 구성될 수도 있다. 예를 들어, 비디오 디코더 (30) 는 멀티-계층 비트스트림의 비디오 파라미터 세트 (VPS) 로부터, 멀티-계층 비트스트림의 임의의 계층들이 계층간 예측 제한을 갖는지 여부를 나타내는 데이터 및 타일 경계들이 멀티-계층 비트스트림의 계층들 중 적어도 2개의 계층들 사이에서 정렬되는지 여부를 나타내는 데이터 중 적어도 하나의 데이터를 디코딩하고, VPS 로부터 획득된 데이터에 따라 멀티-계층 비트스트림을 디코딩하도록 구성될 수도 있다. 부가적으로 또는 대안적으로, 비디오 디코더 (30) 는 하나 이상의 스케일링된 오프셋 값들에 기초하여 비디오 데이터의 레퍼런스 픽처와 연관된 레퍼런스 샘플의 위치를 결정할 수도 있고, 여기서, 레퍼런스 픽처는 멀티-계층 비트스트림의 제 1 계층에 포함되고 하나 이상의 스케일링된 오프셋 값들은 제 1 계층과 제 2 의 상이한 계층 간의 스케일에서의 차이를 나타낸다. 비디오 디코더 (30) 는 또한 레퍼런스 샘플의 위치에 기초하여 제 1 계층에서의 비디오 데이터의 병치된 레퍼런스 블록의 위치를 결정하고, 병치된 레퍼런스 블록에 대한 제 2 계층에서의 비디오 데이터의 현재 블록을 디코딩할 수도 있다.
도 4 는 스케일러블 비디오 코딩 (SVC) 을 위한 다양한 스케일러블 차원들을 도시한 개념 다이어그램이다. 도 4 는 SVC 의 스케일러빌리티 구조의 일 예를 도시한다. 특히, 상이한 차원들에서의 스케일러빌리티들의 예가 도 4 에 도시된다. 이 예에 있어서, 스케일러빌리티들은 3차원에서 인에이블된다. 시간 차원에 있어서, 7.5 Hz, 15 Hz 또는 30 Hz 를 갖는 프레임 레이트들이 시간 스케일러빌리티 (T) 에 의해 지원될 수 있다. 공간 스케일러빌리티 (S) 가 지원될 경우, QCIF, CIF 및 4CIF 와 같은 상이한 분해능들이 인에이블될 수도 있다. 각각의 특정 공간 분해능 및 프레임 레이트에 대해, 신호 대 노이즈 비 (SNR) (Q) 계층들이 픽처 품질을 개선하기 위해 부가될 수 있다.
일단 비디오 콘텐츠가 그러한 스케일러블 방식으로 인코딩되었으면, 추출기 툴은 어플리케이션 요건들에 따라 실제 전달된 콘텐츠를 적응하는데 이용될 수도 있으며, 이 어플리케이션 요건들은, 예를 들어, 클라이언트들 또는 송신 채널에 의존할 수도 있다. 도 4 에 도시된 예에 있어서, 각각의 입방 체적, 즉, 입방체는 동일한 프레임 레이트 (시간 레벨), 공간 분해능, 및 SNR 계층들을 갖는 픽처들을 포함한다. 더 우수한 표현은 임의의 차원에서 그 입방체들 (픽처들) 을 부가함으로써 달성될 수 있다. 결합된 스케일러빌리티는, 인에이블된 2개의, 3개의 또는 훨씬 더 많은 스케일러빌리티들이 존재할 경우에 지원될 수도 있다.
SVC 사양에 따르면, 최저 공간 및 품질 계층을 갖는 픽처들은 H.264/AVC 와 호환가능하고, 최저 시간 레벨은, 더 높은 시간 레벨들에서의 픽처들로 인핸스(enhance)될 수 있는 시간 베이스 계층을 형성한다. H.264/AVC 호환가능 계층에 부가하여, 수개의 공간 및/또는 SNR 인핸스먼트 계층들이 공간 및/또는 품질 스케일러빌리티들을 제공하기 위해 부가될 수 있다. SNR 스케일러빌리티는 또한 품질 스케일러빌리티로서 지칭된다. 각각의 공간 또는 SNR 인핸스먼트 계층 자체는, H.264/AVC 호환가능 계층과 동일한 시간 스케일러빌리티 구조로 시간적으로 스케일가능할 수도 있다. 하나의 공간 또는 SNR 인핸스먼트 계층에 대해, 의존하는 하위 계층은 또한, 그 특정 공간 또는 SNR 인핸스먼트 계층의 베이스 계층으로서 지칭된다.
도 5 는 SVC 코딩 구조의 일 예를 도시한 개념 다이어그램이다. 이 예에 있어서, 최저 공간 및 품질 계층을 갖는 픽처들 (QCIF 분해능을 갖는 계층 0 및 계층 1 에서의 픽처들) 은 H.264/AVC 와 호환가능하다. 그들 중에서, 최저 시간 레벨의 그 픽처들은, 도 5 의 계층 0 에 도시된 바와 같이 시간 베이스 계층을 형성한다. 이 시간 베이스 계층 (계층 0) 은 상위 시간 레벨들 (계층 1) 의 픽처들로 인핸스될 수 있다. H.264/AVC 호환가능 계층에 부가하여, 수개의 공간 및/또는 SNR 인핸스먼트 계층들이 공간 및/또는 품질 스케일러빌리티들을 제공하기 위해 부가될 수 있다. 예를 들어, 인핸스먼트 계층은 계층 2 와 동일한 분해능을 갖는 CIF 표현일 수 있다. 이 예에 있어서, 계층 3 은 SNR 인핸스먼트 계층이다. 이 예에 도시된 바와 같이, 각각의 공간 또는 SNR 인핸스먼트 계층 자체는, H.264/AVC 호환가능 계층과 동일한 시간 스케일러빌리티 구조로 시간적으로 스케일가능할 수도 있다. 또한, 인핸스먼트 계층은 공간 분해능 및 프레임 레이트 양자를 인핸스할 수 있다. 예를 들어, 계층 4 는 4CIF 인핸스먼트 계층을 제공하고, 이는 프레임 레이트를 15 Hz 로부터 30 Hz 까지 추가로 증가시킨다.
도 6 은 예시적인 액세스 유닛들 (AU들) 을 도시한 개념 다이어그램이다. 각각의 AU 는, 네트워크 추상화 계층 (NAL) 유닛들 내에서 캡슐화된 하나 이상의 슬라이스들을 포함한다. 계층 당 액세스 유닛 당 제로 또는 그 초과의 NAL 유닛들이 존재할 수도 있다. 일 액세스 유닛 내의 일 계층에 대응하는 NAL 유닛들의 세트는 "계층 컴포넌트" 로서 지칭될 수도 있다. 도 6 의 예는 도 5 의 계층 컴포넌트들에 대응하는 계층 컴포넌트들을 나타낸다. 도 6 의 예에 도시된 바와 같이, 동일한 시간 인스턴스 (즉, 공통 AU 내) 에서의 코딩된 슬라이스들은 비트스트림 순서로 연속적이고, SVC 의 컨텍스트에서 일 액세스 유닛을 형성한다. 그 후, 그 SVC 액세스 유닛들은 디코딩 순서를 따르고, 이 디코딩 순서는 디스플레이 순서와는 상이할 수 있고, 예를 들어, 시간 예측 관계에 의해 판정될 수 있다.
H.264/AVC (어드밴스드 비디오 코딩) 의 스케일러블 확장들이 하기에서 설명된다. SVC 의 일부 기능들은 H.264/AVC 로부터 유래된다. 이전의 스케일러블 표준들에 비해, H.264/AVC 에 대한 SVC 확장의 최대 장점들 중 일부, 즉, 계층간 예측 및 단일 루프 디코딩이 하기에서 검토된다.
H.264/AVC 의 SVC 확장은 단일 루프 디코딩을 지원한다. 저 복잡도 디코더를 유지하기 위해, 단일 루프 디코딩은 SVC 에서 필수적이다. 단일-루프 디코딩으로, 각각의 지원된 계층은 단일 모션 보상 루프로 디코딩될 수 있다. 이를 달성하기 위해, 계층간 인트라 예측의 사용은 오직 인핸스먼트 계층 매크로 블록들을 위해서만 허용되며, 이를 위해, 병치된 레퍼런스 계층 신호가 인트라 코딩된다. 상위 계층들을 계층간 예측하기 위해 이용되는 모든 계층들은 제약된 인트라-예측을 이용하여 코딩됨이 추가로 요구된다.
H.264/AVC 의 SVC 확장은 또한 계층간 예측을 지원한다. SVC 는 텍스처, 레지듀 및 모션에 기초하여 공간 및 SNR 스케일러빌리티들에 대한 계층간 예측을 도입한다. SVC 에서의 공간 스케일러빌리티는 2개의 계층들 간의 임의의 분해능 비로 일반화되었다. SNR 스케일러빌리티는 조립 입도 스케일러빌리티 (CGS) 또는 중간 입도 스케일러빌리티 (MGS) 에 의해 실현될 수 있다. SVC 에 있어서, 2개의 공간 또는 CGS 계층들은 상이한 의존성 계층들 (NAL 유닛 헤더에서의 신택스 엘리먼트 dependency_id 에 의해 표시됨) 에 속하지만, 2개의 MGS 계층들은 동일한 의존성 계층에 있을 수 있다. 하나의 의존성 계층은, 품질 인핸스먼트 계층들에 대응하는, 0 부터 더 높은 값들까지의 신택스 엘리먼트 quality_id 의 값을 갖는 품질 계층들을 포함한다. SVC 에 있어서, 계층간 예측 방법들은 계층간 리던던시를 감소하는데 활용된다. 이들은 다음의 문단들에서 간략히 도입된다.
계층간 인트라 예측을 이용한 코딩 모드는 SVC 에서 "인트라BL" 모드로 지칭된다. 단일 루프 디코딩을 인에이블하기 위해, 제약된 인트라 모드들로서 코딩된 베이스 계층에서의 병치된 MB들을 갖는 오직 매크로블록들 (MB들) 만이 계층간 인트라 예측 모드를 사용할 수 있다. 제약된 인트라 모드 MB 는 이웃한 인터-코딩된 MB들로부터의 어떠한 샘플들도 참조하지 않고도 인트라-코딩된다.
MB 가 잔차 예측을 이용하도록 표시되면, 계층간 예측을 위한 베이스 계층에서의 병치된 MB 는 인터 MB 이어야 하며 그 레지듀는 공간 분해능 비에 따라 업샘플링될 수도 있다. 인핸스먼트 계층과 베이스 계층의 레지듀 간의 레지듀 차이가 코딩된다. 즉, 인핸스먼트 계층의 현재 프레임의 복원 (
Figure 112016014266819-pct00008
) 은, 하기에서 나타낸 바와 같이, 인핸스먼트 계층의 양자화해제된 계수들 (re), 인핸스먼트 계층으로부터의 시간 예측 (Pe), 및 베이스 계층의 양자화 정규화된 잔차 계수들 (rb) 의 합과 동일하다:
Figure 112016014266819-pct00009
병치된 베이스 계층 모션 벡터들은 인핸스먼트 계층에서의 MB 또는 MB 파티션의 모션 벡터들에 대한 예측자들을 생성하도록 스케일링될 수도 있다. 부가적으로, 각각의 MB 에 대한 하나의 플래그를 전송하는 하나의 MB 타입 명명된 베이스 모드가 존재한다. 이 플래그가 참이고 대응하는 베이스 계층 MB 가 인트라가 아니면, 모션 벡터들, 파티셔닝 모드들 및 레퍼런스 인덱스들은 베이스 계층으로부터 모두 도출된다.
상기 언급된 바와 같이, H.264/AVC 와 유사하게, HEVC 는 또한, 시간 스케일러빌리티, SNR 스케일러빌리티 및 공간 스케일러빌리티를 적어도 제공할 SHVC 로 현재 지칭되는 스케일러블 비디오 코딩 확장을 가질 것이다. SHVC 에 있어서, 계층간 텍스처 예측을 달성하기 위해, 레퍼런스 계층 복원된 샘플들은 먼저, 레퍼런스 계층의 분해능이 인핸스먼트 계층의 분해능보다 더 낮을 경우에 업샘플링된다. SNR 스케일러빌리티 경우에서라도, 레퍼런스 계층 샘플들은, 더 높은 코딩 효율을 획득하기 위해, 계층간 예측을 위해 사용되기 전에 필터링될 수도 있다. 업샘플링 또는 계층간 필터링 프로세스는, 계층 컴포넌트들 또는 단순히 픽처들로서 또한 지칭될 수도 있는 전체 계층 픽처들에 대해 수행될 수도 있다. SHVC 에 있어서, 멀티-루프 디코딩 구조가 사용될 수도 있으며, (비디오 디코더 (30) 와 같은) 비디오 디코더는 상이한 계층들을 병렬로 프로세싱할 수도 있다.
본 개시의 양태들에 따르면, 멀티-계층 비디오 코딩을 위한 오프셋 지연 정보가 비디오 파라미터 세트 (VPS) 에 포함될 수도 있다. 상기 언급된 바와 같이, 오프셋 지연 정보는, 레퍼런스 데이터가 이용가능함을 보장하기 위해 다른 계층에 대한 일 계층을 코딩 (인코딩 또는 디코딩) 하는 것 간의 지연을 나타낼 수도 있다. 본 개시의 양태들에 따르면, 비디오 인코더 (20) 는 VPS 에서 오프셋 지연 정보를 나타내는 데이터를 인코딩할 수도 있다. 유사하게, 비디오 디코더 (30) 는, 인코딩된 비트스트림으로부터, 오프셋 지연 정보를 나타내는 데이터를 디코딩할 수도 있다.
일부 예들에 있어서, (비디오 인코더 (20) 및/또는 비디오 디코더 (30) 와 같은) 비디오 코더는, 멀티-계층 비트스트림의 임의의 계층들이 계층간 예측 제한을 갖는지 여부를 나타내는 VPS 의 데이터를 코딩할 수도 있다. 예를 들어, 현재 코딩되고 있는 계층에 대한 적어도 하나의 레퍼런스 계층이 관련 오프셋 지연을 가짐을 나타내기 위해 VPS 에 플래그가 포함될 수도 있다. 적어도 하나의 계층이 관련 오프셋 지연을 가짐을 결정할 시, 비디오 코더는 어느 레퍼런스 계층들이 오프셋 지연을 갖는지와 그러한 계층들과 연관된 오프셋 지연을 결정할 수도 있다. 즉, 오프셋 지연 정보는 오직 오프셋 지연을 갖는 레퍼런스 계층들에 대해서만 제공될 수도 있다.
도 7 은 고효율 비디오 코딩 (HEVC) 표준에 따른 예시적인 타일들을 도시한 개념 다이어그램이다. HEVC 는 타일들 및 파면 병렬 프로세싱 (WPP) 을 포함하여, 코덱을 더 병렬 친화적이게 하기 위한 수개의 제안들을 포함한다. HEVC WD10 은, 타일의 CTB 래스터 스캔에 있어서 연속적으로 순서화되는, 일 컬럼 및 일 로우에서 동시발생하는 정수개의 CTB들로서 타일들을 정의한다. 각각의 픽처의 타일들로의 분할은 파티셔닝으로서 지칭될 수도 있다. 픽처에서의 타일들은 도 7 에 도시된 바와 같이 픽처의 타일 래스터 스캔에 있어서 연속적으로 순서화된다.
예를 들어, 도 7 은 다중의 타일들 (92A, 92B, 92C, 92D, 92E, 92F, 92G, 92H, 92I, 및 92J) (일괄적으로, "타일들 (92)") 로 파티셔닝되는 픽처 (90) 에 대한 예시적인 CTB 코딩 순서를 도시하며, 타일 경계들은 두꺼운 라인들에 의해 표시된다. 픽처 (90) 에서의 각각의 정사각형 블록은 CTB 와 연관된 픽셀 블록을 나타낸다. 픽셀 블록들에서의 수치들은 픽처 (90) 에 대한 타일 코딩 순서에서의 대응하는 CTB들 (예를 들어, LCU들) 의 포지션들을 나타낸다. 도 11 의 예에서 도시된 바와 같이, 타일 (92A) 에서의 CTB들이 먼저 코딩되고, 그 이후, 타일 (92B) 에서의 CTB들이 코딩되고, 그 이후, 타일 (92C) 에서의 CTB들이 코딩되고, 그 이후, 타일 (92D) 에서의 CTB들이 코딩되고, 그 이후, 타일 (92E) 에서의 CTB들이 코딩되고, 그 이후, 타일 (92F) 에서의 CTB들이 코딩되고, 그 이후, 타일 (92G) 에서의 CTB들이 코딩되고, 그 이후, 타일 (92H) 에서의 CTB들이 코딩되고, 그 이후, 타일 (92I) 에서의 CTB들이 코딩되고, 그 이후, 타일 (92J) 에서의 CTB들이 코딩된다. 타일들 (92) 각각 내에서, CTB들은 래스터 스캔 순서에 따라 코딩된다.
타일들의 수 및 그 경계들의 위치는 전체 시퀀스에 대해 정의되거나 또는 픽처에 따라 변경될 수도 있다. 타일 경계들은, 슬라이스 경계들과 유사하게, 파싱 및 예측 의존성들을 차단하여, 타일이 독립적으로 프로세싱될 수 있게 한다. 하지만, 일부 경우들에 있어서, 인-루프 필터들 (예를 들어, 디-블록킹 및 샘플 적응 오프셋 (SAO) 필터들) 은 여전히 타일 경계들을 크로싱할 수도 있다. 예를 들어, HEVC 워킹 드래프트 10 은 PPS 에 명시된 loop_filter_across_tiles_enabled_flag 신택스 엘리먼트를 위해 제공한다. loop_filter_across_tiles_enabled_flag 신택스 엘리먼트의 값이 1 과 동일할 경우, 인-루프 필터링 동작이, PPS 를 참조하는 픽처들에서의 경계들에 걸쳐 수행될 수도 있다. 0 과 동일한 loop_filter_across_tiles_enabled_flag 신택스 엘리먼트는, 인-루프 필터링 동작들이, PPS 를 참조하는 픽처들에서의 타일 경계들에 걸쳐 수행되지 않음을 명시한다.
타일들을 이용하는 것은 병렬화를 인핸스할 수도 있는데, 왜냐하면 어떠한 통신도 엔트로피 디코딩 및 모션 보상 복원을 위해 프로세서들 또는 프로세서 코어들 사이에서 필요하지 않기 (또는 상대적으로 적게 필요하기) 때문이다. 부가적으로, 타일들은 슬라이스들에 비교할 때 상대적으로 더 우수한 코딩 효율을 나타낼 수도 있는데, 왜냐하면 타일들은 슬라이스들보다 잠재적으로 더 높은 상관을 갖는 샘플들을 포함하는 픽처 파티션 형상들을 허용하기 때문이다. 타일들은 또한 슬라이스 헤더 오버헤드를 감소시킬 수도 있다.
타일이 단일 계층 코딩에 있어서 이용될 경우, 신택스 엘리먼트 min_spatial_segmentation_idc 는 일 프로세싱 스레드에 의해 프로세싱될 루마 샘플들의 최대 수를 계산하기 위해 (비디오 디코더 (30) 와 같은) 비디오 디코더에 의해 사용되어, 비디오 디코더 (30) 가 병렬 디코딩 정보를 최대로 활용한다고 가정하게 할 수도 있다. 0 과 동일하지 않을 경우, min_spatial_segmentation_idc 신택스 엘리먼트는 코딩된 비디오 시퀀스의 픽처들에 있어서 별개의 코딩된 공간 세그먼트화 영역들의 최대 가능한 사이즈에 대한 한계를 확립하는 것을 도울 수도 있다. HEVC WD10 에 있어서, 예를 들어, 타일 또는 슬라이스 경계들에 걸친 엔트로피 코딩 동기화 또는 디블록킹 필터링으로 인해 상이한 스레드들 사이에 일부 픽처 상호-의존성이 존재할 수도 있다.
도 8 은 파면 병렬 프로세싱 (WPP) 를 위한 파면들을 도시한 개념 다이어그램이다. HEVC 는 WPP 기술을 정의한다. WPP 가 인에이블될 경우, 픽처의 각각의 CTU 로우는 분리된 파티션이다. 하지만, 슬라이스들 및 타일들과 비교하면, 어떠한 코딩 의존성들도 CTU 로우 경계들에서 차단되지 않는다. 부가적으로, CABAC 확률들은 이전 로우의 제 2 CTU 로부터 전파되어, 코딩 손실들을 추가로 감소시킨다. 또한, WPP 는 정규의 래스터 스캔 순서를 변경하지 않는다. 의존성들이 차단되지 않기 때문에, 비병렬 비트스트림에 비해, WPP 비트스트림의 레이트-왜곡 손실이 적다.
WPP 가 인에이블될 경우, CTU 로우들의 수까지의 다수의 프로세서들이 병렬로 작동하여 CTU 로우 (또는 라인들) 를 프로세싱할 수 있다. 하지만, 파면 의존성들은 CTU 로우들 모두로 하여금 픽처의 시작부에서 디코딩을 시작하게 하지 않는다. 결과적으로, CTU 로우들은 또한 픽처의 종단부에서 동시에 디코딩을 종료할 수 없다. 이는, 더 높은 수의 프로세서들이 사용될 경우에 더 명백해 지는 병렬화 비효율성들을 도입한다. 도 8 은 WPP 가 어떻게 CTB들의 로우들을 병렬로 프로세싱하는지를 도시하며, 각각의 로우는, 상기 로우의 제 2 CTB 를 프로세싱한 이후에 이용가능한 CABAC 확률들로 시작한다.
도 9 는 레퍼런스 계층 픽처 (104) 로부터 예측된 예시적인 인핸스먼트 계층 픽처 (100) 를 도시한 개념 다이어그램이다. 이 예에 있어서, 인핸스먼트 계층 픽처 (100) 는 타일들 (102A-102D) 을 포함하지만, 레퍼런스 계층 픽처 (104) 는 타일들 (106A, 106B) 을 포함한다. 도 9 에서 점선에 의해 도시된 바와 같이, 인핸스먼트 계층 픽처 (100) 의 타일 (102B) 은 레퍼런스 계층 픽처 (104) 의 타일 (106A) 에 대응하지만, 인핸스먼트 계층 픽처 (100) 의 타일 (102C) 은 레퍼런스 계층 픽처 (104) 의 타일 (106B) 에 대응한다.
이 예에 있어서, 인핸스먼트 계층 픽처 (100) 는 레퍼런스 계층 픽처 (104) 와는 상이한 애스펙트 비를 갖는다. 예를 들어, 레퍼런스 계층 픽처 (104) 는 4:3 애스펙트 비를 가질 수도 있지만, 인핸스먼트 계층 픽처 (100) 는 16:9 애스펙트 비를 가질 수도 있다. 따라서, 인핸스먼트 계층 픽처 (100) 의 타일들 (102A, 102D) 은 레퍼런스 계층 픽처 (104) 에서의 대응하는 타일들을 갖지 않는다. 예를 들어, 인핸스먼트 계층 픽처 (100) 의 타일 (102A) 은 샘플 (108) 을 포함한다. 수직 해싱에 의해 나타낸 바와 같이, 샘플 (108) 은 레퍼런스 계층 픽처 (104) 에서의 이용가능한 병치된 레퍼런스 계층 (RL) 샘플을 갖지 않는다. 유사하게, 인핸스먼트 계층 픽처 (100) 의 타일 (102D) 의 샘플 (114) 은 이용가능한 병치된 RL 샘플을 갖지 않는다. 하지만, 샘플들 (110, 112) 은 (크로스-해칭에 의해 나타낸 바와 같이) 레퍼런스 계층 픽처 (104) 에서의 이용가능한 병치된 레퍼런스 계층 샘플들을 갖는다. 특히, 샘플들 (110, 112) 은 레퍼런스 계층 픽처 (104) 의 샘플들 (116, 118) 에 대응한다.
도 9 는 타일들 (102B, 102C) 의 타일 경계들이 타일들 (106A, 106B) 의 경계들과 정렬되는 것으로 일컬어질 수도 있는 예를 도시한다. 일부 예들에 있어서, 타일 경계들은, 동일한 인핸스먼트 계층 타일 내에 있는 임의의 2개의 인핸스먼트 계층 픽처 샘플들에 대해, 이용가능하다면 병치된 레퍼런스 계층 샘플들이 대응하는 레퍼런스 계층 타일 내에 있을 경우 그리고 대응하는 레퍼런스 계층 타일 내에 있는 임의의 2개의 레퍼런스 계층 픽처 샘플들에 대해, 이용가능하다면 병치된 인핸스먼트 계층 샘플들이 대응하는 인핸스먼트 계층 타일 내에 있을 경우 정렬되는 것으로 일컬어질 수도 있다. 타일 (102B) 내의 임의의 2개의 샘플들이 타일 (106A) 내의 병치된 샘플들에 대응할 것이고 유사하게 타일 (106A) 내의 임의의 2개의 샘플들이 타일 (102B) 내의 병치된 샘플들에 대응할 것이기 때문에, 타일 (102B) 의 경계들은 타일 (106A) 의 경계들과 정렬되는 것으로 일컬어질 수도 있다. 유사하게, 타일 (102C) 내의 임의의 2개의 샘플들이 타일 (106B) 내의 병치된 샘플들에 대응할 것이고 유사하게 타일 (106B) 내의 임의의 2개의 샘플들이 타일 (102C) 내의 병치된 샘플들에 대응할 것이기 때문에, 타일 (102C) 의 경계들은 타일 (106B) 의 경계들과 정렬되는 것으로 일컬어질 수도 있다.
타일 경계 정렬은 (비디오 인코더 (20) 또는 비디오 디코더 (30) 와 같은) 비디오 코더가 픽처 (또는 타일) 를 코딩하는 방식에 영향을 줄 수도 있다. 예를 들어, 일부 경우들에 있어서, 비디오 코더는, 타일 경계들이 정렬되지 않는 경우들에 있어서 계층간 예측 또는 특정 필터링 동작들을 제한할 수도 있다.
본 개시의 양태들에 따르면, 타일 경계들이 정렬되는지 여부의 표시가 VPS 에서 제공될 수도 있다. 예를 들어, VPS 를 참조하는 계층들의 타일들이 다른 타일들과 정렬되는지 여부를 나타내는 하나 이상의 신택스 엘리먼트들이 VPS 에 포함될 수도 있다. 예를 들어, 1 과 동일한 신택스 엘리먼트 tile_boundaries_aligned_flag[ i ][ j ] 는, VPS 에 의해 명시된 i번째 계층의 일 픽처의 임의의 2개의 샘플들이 일 타일에 속할 때, 2개의 병치된 샘플들이, 그 양자가 i번째 계층의 j번째 직접 레퍼런스 계층의 픽처에 존재할 경우에 일 타일에 속함을 나타내고, i번째 계층의 일 픽처의 임의의 2개의 샘플들이 상이한 타일들에 속할 때, 2개의 병치된 샘플들이, 그 양자가 i번째 계층의 j번째 직접 레퍼런스 계층의 픽처에 존재할 경우에 상이한 타일들에 속함을 나타낼 수도 있다. 0 과 동일한 신택스 엘리먼트 tile_boundaries_aligned_flag 는 그러한 제한이 적용될 수도 있거나 적용되지 않을 수도 있음을 나타낸다. 존재하지 않을 경우, tile_boundaries_aligned_flag[ i ][ j ] 의 값은 0 과 동일한 것으로 추론된다.
일부 예들에 있어서, 타일 경계 정렬 정보는 상기 표 5 에 나타낸 방식으로 제공될 수도 있다. 그러한 예들에 있어서, 비디오 디코더 (30) 는 각각의 직접 레퍼런스 계층 (예를 들어, 직접 의존성 플래그에 의해 표시됨) 이 현재 계층의 타일들과 정렬되는 타일 경계들을 갖는지 여부를 결정할 수도 있다.
이러한 방식으로, (비디오 인코더 (20) 와 같은) 비디오 인코더는, 타일 경계들이 VPS 에 있어서의 멀티-계층 비트스트림의 계층들 중 적어도 2개의 계층들 사이에서 정렬되는지 여부를 나타내는 데이터를 인코딩할 수도 있다. 유사하게, (비디오 디코더 (30) 와 같은) 비디오 디코더는, VPS 로부터, 타일 경계들이 멀티-계층 비트스트림의 계층들 중 적어도 2개의 계층들 사이에서 정렬되는지 여부를 나타내는 데이터를 디코딩할 수도 있다.
도 10 은 병치된 레퍼런스 계층 영역들을 갖지 않는 인핸스먼트 계층 영역들을 도시한 개념 다이어그램이다. 도 10 의 예는 인핸스먼트 계층 (130) 및 베이스 계층 (132) 을 포함한다. 베이스 계층 (132) 은 인핸스먼트 계층 (130) 을 코딩하기 위해 계층간 레퍼런스 (레퍼런스 계층) 에서와 같이 사용될 수도 있다. 베이스 계층 (132) 의 스케일링된/업샘플링된 버전은 인핸스먼트 계층 (130) 내에서 점선 (134) 에 의해 도시된다.
도 10 의 예에서 도시된 바와 같이, 인핸스먼트 계층 (130) 은 또한, 베이스 계층 (134) 에 포함되지 않은 영역 (136) 을 포함한다. 영역 (136) 은 일반적으로 스케일링된/업샘플링된 베이스 계층 (134) 과 인핸스먼트 계층 (130) 의 경계 사이의 영역을 포함하며, 이 영역은 스케일링된 오프셋 값들 (scaled_ref_layer_left_offset, scaled_ref_layer_top_offset, scaled_ref_layer_right_offset, 및 scaled_ref_layer_bottom_offset) 에 의해 표시된다. 즉, 신택스 엘리먼트 scaled_ref_layer_left_offset 의 값은 인핸스먼트 계층 (130) 의 좌측 에지와 스케일링된/업샘플링된 베이스 계층 (134) 의 좌측 에지 간의 위치에서의 차이를 나타낸다. 유사하게, scaled_ref_layer_top_offset 은 인핸스먼트 계층 (130) 의 상부 에지와 스케일링된/업샘플링된 베이스 계층 (134) 의 상부 에지 간의 위치에서의 차이를 나타내고, scaled_ref_layer_right_offset 은 인핸스먼트 계층 (130) 의 우측 에지와 스케일링된/업샘플링된 베이스 계층 (134) 의 우측 에지 간의 위치에서의 차이를 나타내고, 신택스 엘리먼트 scaled_ref_layer_bottom_offset 의 값은 인핸스먼트 계층 (130) 의 저부 에지와 스케일링된/업샘플링된 베이스 계층 (134) 의 저부 에지 간의 위치에서의 차이를 나타낸다. 일부 경우들에 있어서, 오프셋들에 의해 표시되는, 스케일링된/업샘플링된 베이스 계층 (134) 과 인핸스먼트 계층 (130) 의 경계 사이의 영역은 텍스트 또는 (예를 들어, 비디오 데이터가 아닌) 다른 스크린 콘텐츠를 포함할 수도 있다.
본 개시의 양태들에 따르면, (비디오 인코더 (20) 및/또는 비디오 디코더 (30) 와 같은) 비디오 코더는 병치된 샘플 (예를 들어, 레퍼런스 샘플) 의 위치를 결정할 수도 있다. 비디오 코더는 또한, 결정된 병치된 샘플에 기초하여 병치된 CTU 의 위치를 결정할 수도 있다. 병치된 CTU 는 인핸스먼트 계층 (130) 과 베이스 계층 (132) 간의 계층간 예측의 목적으로 사용될 수도 있다 (예를 들어, 여기서, 베이스 계층 (132) 은 레퍼런스 계층임).
예시의 목적들로의 예에 있어서, 비디오 코더는 다음 식들에 따라 i번째 직접 레퍼런스 계층의 병치된 샘플을 위한 변수들 (xRef[ i ] 및 yRef[ i ]) 을 결정할 수도 있다:
Figure 112016014266819-pct00010
여기서, xRef[i] 는 병치된 샘플의 x 좌표를 나타내고, yRef[i] 는 병치된 샘플의 y 좌표를 나타낸다. 부가적으로, xP 및 yP 는 픽처의 좌상부 샘플에 대한 픽처 (P) 에서의 샘플 위치들일 수도 있으며, 신택스 엘리먼트 ScaledRefLayerLeftOffset 의 값은 인핸스먼트 계층 (130) 의 좌측 에지와 스케일링된/업샘플링된 베이스 계층 (134) 의 좌측 에지 간의 거리의 표시일 수도 있으며, 신택스 엘리먼트 ScaledRefLayerTopOffset 의 값은 인핸스먼트 계층 (130) 의 우측 에지와 스케일링된/업샘플링된 베이스 계층 (134) 의 우측 에지 간의 거리의 표시일 수도 있다. 부가적으로, ScaleFactorX 및 ScaleFactorY (레퍼런스 픽처 및 스케일링된 레퍼런스 픽처의 사이즈에 기초한 스케일링 팩터들) 는 상기 언급된 SHVC 문헌 (JCTVC-M1007) 의 섹션 G.8.1.4 에 따라 인핸스먼트 계층 (130) 과 베이스 계층 (132) 간의 스케일에서의 차이에 기초하여 결정될 수도 있다.
상기 예에 있어서, 본 개시의 양태들에 따르면, 비디오 코더는 오프셋 값들에 기초하여 병치된 샘플 (xRef, yRef) 을 조정한다. 예를 들어, 비디오 코더는, 2개의 계층들 간의 스케일에서의 차이를 나타내는 스케일링된 오프셋들에 기초하여 레퍼런스 샘플의 위치를 결정할 수도 있다. 따라서, 인핸스먼트 계층 (130) 의 샘플을 베이스 계층 (132) 에서의 대응하는 위치에 직접 매핑하는 것보다, 비디오 코더는 스케일에서의 차이들 및 오프셋들로 인한 위치에서의 상대적인 차이를 설명할 수도 있다.
병치된 샘플의 위치를 결정한 후, 비디오 코더는 병치된 CTU 의 위치를 결정할 수도 있다. 일부 경우들에 있어서, 비디오 코더는 소정의 CTU 의 개별 병치된 CTB들 (루마 및 크로마 CTB들) 의 위치를 별도로 결정할 수도 있다. 예시의 목적들로의 예에 있어서, 본 개시의 양태들에 따르면, 비디오 코더는 다음 식들에 기초하여 병치된 CTU 의 위치를 결정할 수도 있다:
Figure 112016014266819-pct00011
여기서, xColCtb 는 CTU 의 x 컴포넌트 (예를 들어, CTU 의 루마 CTB 또는 크로마 CTB들 중 하나) 를 나타내고, xRef 는 병치된 샘플의 x 좌표를 나타내고, yColCtb 는 병치된 CTU 의 y 컴포넌트를 나타내고, yRef 는 병치된 샘플의 y 좌표를 나타내고, colCtbAddr[ i ] 는 병치된 CTU 의 어드레스를 나타낸다. 부가적으로, 변수들 refCtbLog2SizeY[ i ][ j ], refPicWidthInCtbsY[ i ][ j ], 및 refPicHeightInCtbsY[ i ][ j ] 는 i번째 계층의 j번째 직접 레퍼런스 계층의 각각 CtbLog2SizeY, PicWidthInCtbsY, 및 PicHeightInCtbsY 와 동일하게 설정될 수도 있다. 이에 따라, 변수 colCtbAddr[ i ] 는, i번째 직접 레퍼런스 계층에서의 픽처에 있어서, CTU 의 병치된 CTU 의 래스터 스캔 어드레스를, ctbAddr 과 동일한 래스터 스캔 어드레스로 표기한다.
본 개시의 양태들에 따르면, 병치된 CTU 는, 오직 병치된 CTU 가 오프셋 지연들을 만족시키는 영역에 위치될 경우에만 사용될 수도 있다. 예를 들어, 상기 언급된 바와 같이, 신택스 엘리먼트들 min_spatial_segment_offset_plus1 및 min_horizontal_ctu_offset_plus1 은 현재 계층의 디코딩 지연을 나타내는데 사용될 수도 있다. 하지만, 확장된 공간 스케일러빌리티가 사용된 경우, 현재 계층에서의 공간 세그먼트 A (슬라이스, 타일, CTU 로우 또는 CTU) 에 대해, 병치된 공간 세그먼트 B 가 직접 레퍼런스 계층에 존재하지 않을 수도 있음이 가능하다. 예를 들어, 도 10 의 예에서 도시된 바와 같이, 인핸스먼트 계층 (130) 에 포함된 공간 세그먼트의 병치된 공간 세그먼트는 베이스 계층 (132) 에 포함되지 않을 수도 있다 (예를 들어, 공간 세그먼트는, 베이스 계층 (132) 에서의 대응하는 영역을 갖지 않는 영역 (136) 에 포함될 수도 있음). 그러한 예에 있어서, 오프셋 지연은 정확하게 결정되지 않을 수도 있다.
본 개시의 양태들에 따르면, 레퍼런스 계층에서의 병치된 CTU 가 현재 계층에서의 특정 CTU 에 대해 존재하지 않을 경우, (비디오 인코더 (20) 및/또는 비디오 디코더 (30) 와 같은) 비디오 코더는 CTU 어드레스들의 값들 (x 및 y 컴포넌트들) 을 대응하는 레퍼런스 계층 경계로 조정할 수도 있어서, 조정된 어드레스가 레퍼런스 계층에 존재하는 CTU 에 대응하게 한다. 도 10 의 예에 있어서, 비디오 코더는, 병치된 CTU 가 베이스 계층 (132) 의 경계 내의 CTU 에 대응하도록 어드레스들을 조정할 수도 있다.
예시의 목적들로의 예에 있어서, 비디오 코더는, 병치된 CTU 를 결정하기 이전, 병치된 샘플의 어드레스를 조정하기 위해 클리핑 함수를 적용할 수도 있다. 예를 들어, 비디오 코더는 하기 식들을 적용할 수도 있다:
Figure 112016014266819-pct00012
여기서, xRef[i] 는 병치된 샘플의 x 좌표를 나타내고, yRef[i] 는 병치된 샘플의 y 좌표를 나타낸다. 일부 예들에 있어서, 비디오 코더는 하기 식들에 기초하여 변수들 leftStartC, rightEndC, topStartC, 및 bottomEndC (여기서, 아래첨자 C 는 크로마 샘플들을 나타냄) 를 결정할 수도 있다:
Figure 112016014266819-pct00013
여기서, 스케일링된 오프셋들 (예를 들어, ScaledRefLayerOffset) 은 도 10 의 예에 도시된 오프셋들에 대응한다. 상기 예가 크로마 샘플들에 대해 예시되지만, 비디오 코더는 루마 CTB 에 대해 동일한 식들을 적용할 수도 있다.
상기 예에 있어서, 비디오 코더는, 레퍼런스 샘플이 레퍼런스 픽처 외부에 위치될 경우에 레퍼런스 픽처의 상대적인 경계들에 대한 오프셋들을 조정하고; 그렇지 않으면 비디오 코더는 레퍼런스 샘플의 위치를 조정하지 않는다. 예를 들어, 레퍼런스 샘플의 수평 위치가 좌측 레퍼런스 픽처 경계의 좌측에 위치될 경우, 비디오 코더는 수평 위치를 좌측 레퍼런스 픽처 경계의 위치로 대체할 수도 있다. 유사하게, 레퍼런스 샘플의 수평 위치가 우측 레퍼런스 픽처 경계의 우측에 위치될 경우, 비디오 코더는 수평 위치를 우측 레퍼런스 픽처 경계의 위치로 대체할 수도 있다. 레퍼런스 샘플의 수직 위치가 상부 레퍼런스 픽처 경계 위에 위치될 경우, 비디오 코더는 수직 위치를 상부 레퍼런스 픽처 경계의 위치로 대체할 수도 있다. 레퍼런스 샘플의 수직 위치가 저부 레퍼런스 픽처 경계 아래에 위치될 경우, 비디오 코더는 수직 위치를 저부 레퍼런스 픽처 경계의 위치로 대체할 수도 있다.
베이스 계층 (132) 에서 병치된 CTU 를 로케이팅하기 이전 스케일링된 오프셋 값들에 기초하여 병치된 샘플의 위치를 조정함으로써, 비디오 코더는 병치된 CTU 를 베이스 계층 (132) 의 경계 내에 위치되도록 조정할 수도 있다.
이러한 방식으로, 오프셋 지연이 (베이스 계층 (132) 과 같은) 레퍼런스 계층에 존재하지 않는 공간 위치를 나타내면, 비디오 코더는 여전히, (인핸스먼트 계층 (130) 과 같은) 현재 계층을 코딩하기 시작할 때를 결정할 수도 있다. 즉, 병치된 CTU 를 레퍼런스 계층 내에 위치되도록 조정함으로써, 비디오 코더는 또한, 오프셋 지연을 레퍼런스 계층의 유효한 위치에 위치되도록 조정할 수도 있다.
다른 예에 있어서, 어드레스 colCtbAddr 을 갖는 CTU 가 i번째 직접 레퍼런스 계층에 존재하지 않을 경우, 비디오 코더는, 공간 세그먼트가 추론되는 신택스 엘리먼트 min_spatial_segment_offset_plus1[ i ] 의 값을 제로인 것으로 추론할 수도 있다. 이 예에 있어서, 비디오 코더는 또한, JCTVC-M0464 에 대한 다수의 다른 변경들을 적용할 수도 있다. 예를 들어, ctu_based_offset_enabled[ i ] 신택스 엘리먼트가 0 과 동일할 경우, 비디오 코더는 다음의 제약들을 적용할 수도 있다: 즉, CTU 로우 A 는 SPS 를 참조하는 임의의 픽처 (picA) 에서의 임의의 CTU 로우이고 ctbAddr 은 CTU 로우 A 에서의 마지막 CTU 의 래스터 스캔 어드레스인 것으로 하고; CTU 로우 B 는 picA 와 동일한 액세스 유닛에 속하고 그리고 i번째 직접 레퍼런스 계층에 속하는 픽처 (picB) 에 있고 그리고 래스터 스캔 어드레스 colCtbAddr[ i ] 를 갖는 CTU 를 포함하는 CTU 로우인 것으로 하고; CTU 로우 C 는 picB 에 또한 있고 그리고 디코딩 순서에서 CTU 로우 B 를 뒤따르는 CTU 로우인 것으로 하며, CTU 로우 B 와 그 CTU 로우 사이에는 디코딩 순서에서 min_spatial_segment_offset_plus1[ i ] -1 CTU 로우들이 존재하고; CTU 로우 C 가 존재할 경우, CTU 로우 A 의 신택스 엘리먼트는, CTU 로우 C 또는 C 이후의 동일한 픽처의 로우에서의 어떠한 샘플 또는 신택스 엘리먼트들도 CTU 로우 A 내의 임의의 샘플들의 디코딩 프로세스에서 계층간 예측을 위해 사용되지 않도록 제약됨. 부가적으로, CTU 로우 B 가 존재하지 않을 경우, 그 공간 세그먼트에 대한 신택스 엘리먼트 min_spatial_segment_offset_plus1[ i ] 의 값은 제로인 것으로 추론된다.
비디오 코더는 슬라이스들 및 타일들과 같은 다른 공간 세그먼트들에 대하여 동일한 제약들을 적용할 수도 있다. 예를 들어, 슬라이스 세그먼트 B 가 존재하지 않을 경우, 그 공간 세그먼트에 대한 신택스 엘리먼트 min_spatial_segment_offset_plus1[ i ] 의 값은 제로인 것으로 추론될 수도 있다. 다른 예로서, 타일 B 가 존재하지 않을 경우, 그 공간 세그먼트에 대한 신택스 엘리먼트 min_spatial_segment_offset_plus1[ i ] 의 값은 제로인 것으로 추론될 수도 있다.
도 11a 는 비디오 데이터에 대한 오프셋 지연 정보를 포함한 멀티-계층 비디오 데이터를 인코딩하기 위한 예시적인 프로세스를 도시한 플로우 다이어그램이다. 도 11a 의 프로세스는 예시의 목적들로 비디오 인코더 (20) 에 의해 수행되는 것으로 일반적으로 설명되지만, 다양한 다른 프로세서들이 또한 도 11a 에 나타낸 프로세스를 실행할 수도 있다.
도 11a 의 예에 있어서, 비디오 인코더 (20) 는 현재 인코딩되고 있는 멀티-계층 비트스트림에 대한 임의의 계층간 예측 제한들이 존재하는지 여부를 결정할 수도 있다 (150). 예를 들어, 비디오 인코더 (20) 는, 병렬로 디코딩될 수도 있는 다중의 계층들을 인코딩할 경우에 계층간 예측 제한들을 적용할 수도 있다. 특정 오프셋 지연 파라미터들은 비디오 인코더 (20) 의 특정 아키텍처 (예를 들어, 프로세싱 코어들의 수 등) 에 의존할 수도 있다.
계층간 제한들이 존재하면 (150 의 "예" 브랜치), 비디오 인코더 (20) 는 각각의 레퍼런스 계층에 대한 오프셋 지연 표시 및 오프셋 지연들을 인코딩할 수도 있다 (152). 본 개시의 양태들에 따르면, 비디오 인코더 (20) 는 VPS 에서 그러한 정보를 인코딩할 수도 있다. 예를 들어, 비디오 인코더 (20) 는, VPS 에서, 임의의 계층간 예측 제한들이 존재하는지 여부를 나타내는 데이터를 인코딩할 수도 있다. 일부 경우들에 있어서, 데이터는, 적어도 하나의 레퍼런스 계층이 관련 오프셋 지연을 갖는지 여부를 나타내는 하나 이상의 신택스 엘리먼트들을 포함할 수도 있다. 비디오 인코더 (20) 는 또한, 지연을 갖는 각각의 레퍼런스 계층에 대한 오프셋 지연을 나타내는 데이터 (예를 들어, 오프셋 지연의 공간 영역) 를 인코딩할 수도 있다.
그 후, 비디오 인코더 (20) 는 VPS 의 데이터에 따라 계층들을 인코딩할 수도 있다 (154). 일부 경우들에 있어서, 비디오 인코더 (20) 는 계층들을 병렬로 인코딩할 수도 있다.
도 11b 는 비디오 데이터에 대한 오프셋 지연 정보를 포함한 멀티-계층 비디오 데이터를 디코딩하기 위한 예시적인 프로세스를 도시한 플로우 다이어그램이다. 도 11b 의 프로세스는 예시의 목적들로 비디오 디코더 (30) 에 의해 수행되는 것으로 일반적으로 설명되지만, 다양한 다른 프로세서들이 또한 도 11b 에 나타낸 프로세스를 실행할 수도 있다.
도 11b 의 예에 있어서, 비디오 디코더 (30) 는 현재 인코딩되고 있는 멀티-계층 비트스트림에 대한 임의의 계층간 예측 제한들이 존재하는지 여부를 결정할 수도 있다 (158). 예를 들어, 비디오 디코더 (30) 는, 현재 계층에 대한 임의의 직접 레퍼런스 계층 (여기서, 직접 레퍼런스 계층은 계층간 예측의 목적들로 현재 계층에 의해 참조됨) 이 관련 오프셋 지연을 갖는지 여부를 결정할 수도 있다. 본 개시의 양태들에 따르면, 비디오 디코더 (30) 는 VPS 에 포함된 데이터에 기초하여 계층간 예측 제한 결정을 행할 수도 있다. 일부 경우들에 있어서, 데이터는, 적어도 하나의 레퍼런스 계층이 관련 오프셋 지연을 갖는지 여부를 나타내는 하나 이상의 신택스 엘리먼트들을 포함할 수도 있다. 비디오 디코더 (30) 는 또한, 지연을 갖는 각각의 레퍼런스 계층에 대한 오프셋 지연을 나타내는 데이터 (예를 들어, 오프셋 지연의 공간 영역) 를 디코딩할 수도 있다.
그 후, 비디오 디코더 (30) 는 VPS 의 데이터에 따라 계층들을 디코딩할 수도 있다 (162). 예를 들어, 일부 경우들에 있어서, 비디오 디코더 (30) 는 일 계층을 다른 계층에 대하여 디코딩할 수도 있다. 부가적으로, 비디오 디코더 (30) 는, 다중의 계층들을 병렬로 디코딩할 경우, (상기 설명된 VPS 에 명시된 바와 같이) 결정된 오프셋 파라미터들을 고수할 수도 있다. 즉, 비디오 디코더 (30) 는, (오프셋 지연에 의해 명시된 바와 같이) 레퍼런스 계층으로부터의 비디오 데이터의 명시된 양이 디코딩될 때까지 현재 계층을 디코딩하는 것을 대기할 수도 있다.
도 12 는 멀티-계층 비디오 코딩에서 비디오 데이터의 병치된 블록을 결정하기 위한 예시적인 프로세스를 도시한 플로우 다이어그램이다. 병치된 블록은 계층간 예측의 목적들로 사용될 수도 있으며, 오프셋 지연을 구현할 경우에 결정될 수도 있다. 도 12 의 방법은 비디오 코더에 의해 수행되는 것으로서 일반적으로 설명된다. 비디오 코더는, 예를 들어, 비디오 인코더 (20) 또는 비디오 디코더 (30), 또는 다른 그러한 비디오 코딩 디바이스들 (예를 들어, 비디오 트랜스코딩 디바이스들) 에 대응할 수도 있다.
도 12 의 예에 있어서, 비디오 코더는 병치된 레퍼런스 샘플의 위치를 결정할 수도 있다 (170). 예를 들어, 멀티-계층 비디오 코딩에 있어서, 비디오 코더는 처음에, 현재 코딩되고 있는 계층에서의 샘플의 위치를 결정할 수도 있다. 그 후, 비디오 코더는 샘플의 위치를, 레퍼런스 계층에서의 대응하는 병치된 위치에 매핑할 수도 있다.
비디오 코더는 레퍼런스 샘플의 위치를 레퍼런스 픽처 내에 위치되도록 조정할 수도 있다 (172). 예를 들어, 일부 경우들에 있어서, 현재 픽처에서의 블록 (예를 들어, 현재의 CTU) 은, 예를 들어, 도 9 및 도 10 의 예들에서 나타낸 바와 같이, 레퍼런스 픽처에서의 대응하는 블록 (예를 들어, 병치된 CTU) 을 갖지 않을 수도 있다. 병치된 블록이 레퍼런스 픽처에서 이용가능하지 않으면, 일부 예들에 있어서, 비디오 코더는 레퍼런스 계층과 연관된 오프셋 지연을 적당히 적용하지 않을 수도 있다. 예를 들어, 비디오 코더는, 현재 계층에서 지연에 의해 표시된 공간 세그먼트를 로케이팅하고 그리고 그 공간 세그먼트를 레퍼런스 계층에서의 병치된 포지션에 매핑함으로써, 오프셋 지연을 구현할 수도 있다. 병치된 공간 세그먼트가 이용가능하지 않으면, 비디오 코더는 오프셋 지연을 적절하게 구현하지 못할 수도 있다.
본 개시의 양태들에 따르면, 비디오 코더는, 레퍼런스 픽처의 영역 내에 있는 샘플의 위치를 결정함으로써 레퍼런스 샘플의 위치를 조정할 수도 있다. 예를 들어, (예컨대, 도 10 에 나타낸 바와 같이) 현재 픽처와 연관된 스케일링된 오프셋 값들이 레퍼런스 픽처의 경계들을 나타낼 수도 있다. 비디오 코더는 병치된 샘플의 위치를 이들 경계들 내에 있도록 조정할 수도 있다. 일부 예들에 있어서, 본 개시의 양태들에 따르면, 비디오 코더는 레퍼런스 샘플의 위치를 클리핑할 수도 있어서, 레퍼런스 샘플이 예를 들어 클리핑 함수를 이용하여 레퍼런스 픽처 내에 있게 한다. 레퍼런스 샘플이 레퍼런스 픽처의 경계에 이미 포함되면, 비디오 코더는 상기 설명된 조정을 수행하지 않을 수도 있다.
그 후, 비디오 코더는 레퍼런스 샘플에 기초하여 병치된 블록의 위치를 결정할 수도 있다 (174). 예를 들어, 비디오 코더는 병치된 블록의 사이즈를 결정하고, 그 적당하게 사이징된 블록을 레퍼런스 샘플의 위치에 로케이팅할 수도 있다. 일부 예들에 있어서, 비디오 코더는, 계층간 예측을 위한 오프셋 지연을 적용할 경우, 병치된 블록을 결정할 수도 있다. 비디오 코더는 병치된 블록에 대한 현재 블록을 코딩할 수도 있다 (176).
도 13 은 멀티-계층 비디오 코딩에서 타일 정렬 정보를 결정하기 위한 예시적인 프로세스를 도시한 플로우 다이어그램이다. 도 13 의 방법은 비디오 코더에 의해 수행되는 것으로서 일반적으로 설명된다. 비디오 코더는, 예를 들어, 비디오 인코더 (20) 또는 비디오 디코더 (30), 또는 다른 그러한 비디오 코딩 디바이스들 (예를 들어, 비디오 트랜스코딩 디바이스들) 에 대응할 수도 있다.
이 예에 있어서, 비디오 코더는 하나 이상의 레퍼런스 계층 타일들을 코딩한다 (180). 그 후, 비디오 코더는 인핸스먼트 계층의 타일 경계들이 정렬되는지 여부를 결정한다 (182). 예를 들어, 비디오 인코더 (20) 는 레퍼런스 계층 경계들을 정렬하는지 여부를 결정할 수도 있고, tile_boundaries_aligned_flag 신택스 엘리먼트와 같이 타일 경계들이 정렬되는지 여부를 나타내는 신택스 엘리먼트에 대한 값을 인코딩할 수도 있는 한편, 비디오 디코더 (30) 는, 예를 들어, tile_boundaries_aligned_flag 와 같은 신택스 엘리먼트의 값에 기초하여 레퍼런스 계층 경계들이 정렬되는지 여부를 결정할 수도 있다. 인핸스먼트 계층 픽처의 타일 경계들은, 동일한 인핸스먼트 계층 타일 내에 있는 임의의 2개의 인핸스먼트 계층 픽처 샘플들에 대해, 이용가능하다면 병치된 레퍼런스 계층 샘플들이 또한 동일한 레퍼런스 계층 타일 내에 있을 경우 그리고 동일한 레퍼런스 계층 타일 내에 있는 임의의 2개의 레퍼런스 계층 픽처 샘플들에 대해, 이용가능하다면 병치된 인핸스먼트 계층 샘플들이 또한 동일한 인핸스먼트 계층 타일 내에 있을 경우, 레퍼런스 계층 픽처의 타일 경계들과 정렬되는 것으로 일컬어질 수도 있다.
본 개시의 양태들에 따르면, 비디오 인코더 (20) 는, 타일 경계들이 VPS 에서 정렬되는지 여부를 나타내는 데이터를 인코딩할 수도 있다. 유사하게, 비디오 디코더 (30) 는, 타일 경계들이 VPS 로부터 정렬되는지 여부를 나타내는 데이터를 디코딩할 수도 있다. 타일 경계들이 정렬되는지 여부를 나타내는 데이터는 계층 특정이 아닐 수도 있으며, 타일 경계들이 정렬되도록 제약되는지 여부의 교차 계층 표시를 제공할 수도 있다.
인핸스먼트 계층 픽처의 타일 경계들이 레퍼런스 계층 픽처의 타일 경계들과 정렬되지 않을 경우 (182 의 "아니오" 브랜치), 비디오 코더는 이에 따라 비디오 데이터를 코딩할 수도 있다 (184). 예를 들어, 비디오 코더는, 일부 경우들에 있어서, 계층간 예측, 필터링 등에 대한 제한들을 적용할 수도 있다. 한편, 인핸스먼트 계층 픽처의 타일 경계들이 레퍼런스 계층 픽처의 타일 경계들과 정렬되는 경우 (182 의 "예" 브랜치), 비디오 코더는 이에 따라 비디오 데이터를 코딩할 수도 있다 (186). 예를 들어, 비디오 코더는, 정렬된 타일 경계들과의 계층간 예측, 필터링, 또는 다른 기술들을 이용할 수도 있다.
본 개시의 특정 양태들은 예시의 목적들로 HEVC 표준 및 HEVC 표준의 확장들에 관하여 설명되었다. 하지만, 본 개시에서 설명된 기술들은, 다른 표준 또는 아직 개발되지 않은 전매특허의 비디오 코딩 프로세스들을 포함한 다른 비디오 코딩 프로세스들에 대해 유용할 수도 있다.
본 개시에서 설명된 바와 같은 비디오 코더는 비디오 인코더 또는 비디오 디코더를 지칭할 수도 있다. 유사하게, 비디오 코딩 유닛은 비디오 인코더 또는 비디오 디코더를 지칭할 수도 있다. 유사하게, 비디오 코딩은, 적용가능할 때, 비디오 인코딩 또는 비디오 디코딩을 지칭할 수도 있다.
예에 의존하여, 본 명세서에서 설명된 기술들의 임의의 특정 작동들 또는 이벤트들은 상이한 시퀀스로 수행될 수 있고, 전체적으로 부가되거나 병합되거나 또는 제거될 수도 있음 (예를 들어, 설명된 모든 작동들 또는 이벤트들이 그 기술들의 실시를 위해 필수적인 것은 아님) 이 인식되어야 한다. 더욱이, 특정 예들에 있어서, 작동들 또는 이벤트들은 순차적인 것보다는, 예를 들어, 다중-스레딩된 프로세싱, 인터럽트 프로세싱, 또는 다중의 프로세서들을 통해 동시에 수행될 수도 있다.
하나 이상의 예들에 있어서, 설명된 기능들은 하드웨어, 소프트웨어, 펌웨어, 또는 이들의 임의의 조합으로 구현될 수도 있다. 소프트웨어로 구현된다면, 그 기능들은 하나 이상의 명령들 또는 코드로서 컴퓨터 판독가능 매체 상으로 저장 또는 전송되고 하드웨어 기반 프로세싱 유닛에 의해 실행될 수도 있다. 컴퓨터 판독가능 매체들은 데이터 저장 매체들과 같은 유형의 매체에 대응하는 컴퓨터 판독가능 저장 매체들, 또는 예를 들어, 통신 프로토콜에 따라 일 장소로부터 다른 장소로의 컴퓨터 프로그램의 전송을 용이하게 하는 임의의 매체를 포함하는 통신 매체들을 포함할 수도 있다. 이러한 방식으로, 컴퓨터 판독가능 매체들은 일반적으로 (1) 비-일시적인 유형의 컴퓨터 판독가능 저장 매체들 또는 (2) 신호 또는 캐리어파와 같은 통신 매체에 대응할 수도 있다. 데이터 저장 매체들은 본 개시에서 설명된 기술들의 구현을 위한 명령들, 코드 및/또는 데이터 구조들을 취출하기 위해 하나 이상의 컴퓨터들 또는 하나 이상의 프로세서들에 의해 액세스될 수 있는 임의의 가용 매체들일 수도 있다. 컴퓨터 프로그램 제품은 컴퓨터 판독가능 매체를 포함할 수도 있다.
한정이 아닌 예로서, 그러한 컴퓨터 판독가능 저장 매체는 RAM, ROM, EEPROM, CD-ROM 또는 다른 광학 디스크 저장부, 자기 디스크 저장부 또는 다른 자기 저장 디바이스들, 플래시 메모리, 또는 원하는 프로그램 코드를 명령들 또는 데이터 구조들의 형태로 저장하는데 이용될 수 있고 컴퓨터에 의해 액세스될 수 있는 임의의 다른 매체를 포함할 수 있다. 또한, 임의의 커넥션이 컴퓨터 판독가능 매체로 적절히 명명된다. 예를 들어, 동축 케이블, 광섬유 케이블, 꼬임쌍선, 디지털 가입자 라인 (DSL), 또는 적외선, 무선, 및 마이크로파와 같은 무선 기술들을 이용하여 웹사이트, 서버, 또는 다른 원격 소스로부터 명령들이 송신된다면, 동축 케이블, 광섬유 케이블, 꼬임쌍선, DSL, 또는 적외선, 무선, 및 마이크로파와 같은 무선 기술들은 매체의 정의에 포함된다. 하지만, 컴퓨터 판독가능 저장 매체 및 데이터 저장 매체는 커넥션들, 캐리어파들, 신호들, 또는 다른 일시적 매체들을 포함하지 않지만 대신 비-일시적인 유형의 저장 매체들로 지향됨을 이해해야 한다. 본 명세서에서 사용된 바와 같은 디스크 (disk) 및 디스크 (disc) 는 컴팩트 디스크 (CD), 레이저 디스크, 광학 디스크, 디지털 다기능 디스크 (DVD), 플로피 디스크 및 블루레이 디스크를 포함하며, 여기서, 디스크 (disk) 는 통상적으로 데이터를 자기적으로 재생하지만 디스크 (disc) 는 레이저들을 이용하여 데이터를 광학적으로 재생한다. 상기의 조합들이 또한, 컴퓨터 판독가능 매체의 범위 내에 포함되어야 한다.
명령들은 하나 이상의 디지털 신호 프로세서들 (DSP들), 범용 마이크로프로세서들, 주문형 집적회로들 (ASIC들), 필드 프로그래밍가능 로직 어레이들 (FPGA들), 또는 다른 등가의 집적된 또는 별도의 로직 회로와 같은 하나 이상의 프로세서들에 의해 실행될 수도 있다. 이에 따라, 본 명세서에서 사용된 바와 같은 용어 "프로세서" 는 본 명세서에서 설명된 기술들의 구현에 적합한 전술한 구조 또는 임의의 다른 구조 중 임의의 구조를 지칭할 수도 있다. 추가적으로, 일부 양태들에 있어서, 본 명세서에서 설명된 기능은 인코딩 및 디코딩을 위해 구성되고 결합된 코덱에서 통합된 전용 하드웨어 및/또는 소프트웨어 모듈들 내에 제공될 수도 있다. 또한, 그 기술들은 하나 이상의 회로들 또는 로직 엘리먼트들에서 완전히 구현될 수 있다.
본 개시의 기술들은 무선 핸드셋, 집적 회로 (IC) 또는 IC들의 세트 (예를 들어, 칩 세트) 를 포함하여 매우 다양한 디바이스들 또는 장치들에서 구현될 수도 있다. 다양한 컴포넌트들, 모듈들 또는 유닛들이 개시된 기술들을 수행하도록 구성된 디바이스들의 기능적 양태들을 강조하기 위해 본 개시에서 설명되지만, 반드시 상이한 하드웨어 유닛들에 의한 실현을 요구하지는 않는다. 오히려, 상기 설명된 바와 같이, 다양한 유닛들은 적합한 소프트웨어 및/또는 펌웨어와 함께 상기 설명된 바와 같은 하나 이상의 프로세서들을 포함하여 코덱 하드웨어 유닛으로 결합되거나 또는 상호운용식 하드웨어 유닛들의 집합에 의해 제공될 수도 있다.
다양한 예들이 설명되었다. 이들 및 다른 예들은 다음의 청구항들의 범위 내에 있다.

Claims (49)

  1. 비디오 데이터를 디코딩하는 방법으로서,
    멀티-계층 비트스트림의 비디오 파라미터 세트 (VPS) 로부터,
    계층간 예측에 대한 적어도 하나의 제한이 상기 멀티-계층 비트스트림의 하나 이상의 계층들의 적어도 하나의 직접 레퍼런스 계층에 대해 적용되는지 여부를 나타내는 ilp_restricted_ref_layers_flag 신택스 엘리먼트로서, 상기 계층간 예측에 대한 적어도 하나의 제한은:
    j번째 직접 레퍼런스 계층의 각각의 픽처에 있어서, min_spatial_segment_offset_plus1[i][j] 신택스 엘리먼트 홀로 또는 min_horizontal_ctu_offset_plus1[i][j] 신택스와 함께, 계층 인덱스 i 를 갖는 픽처를 디코딩하기 위한 계층간 예측에 사용되지 않는 공간 영역을 나타내는 상기 min_spatial_segment_offset_plus1[i][j] 신택스 엘리먼트, 또는
    상기 j번째 직접 레퍼런스 계층의 각각의 픽처에 있어서, 상기 min_spatial_segment_offset_plus1[i][j] 신택스 엘리먼트와 함께, 상기 계층 인덱스 i 를 갖는 픽처의 디코딩을 위한 계층간 예측에 사용되지 않는 공간 영역을 나타내는 min_horizontal_ctu_offset_plus1[i][j] 신택스 엘리먼트
    중 적어도 하나를 포함하는, 상기 ilp_restricted_ref_layers_flag 신택스 엘리먼트; 또는
    계층의 픽처의 임의의 2개의 샘플들이 일 타일에 속할 경우에, 존재한다면, 다른 픽처에서의 병치된 샘플들은 일 타일에 속함을, 또는 계층의 픽처의 임의의 2개의 샘플들이 상이한 타일들에 속할 경우에, 존재한다면, 다른 픽처에서의 병치된 샘플들은 상이한 타일들에 속함을 나타내는 tile_boundaries_aligned_flag 신택스 엘리먼트
    중 적어도 하나를 디코딩하는 단계; 및
    상기 VPS 로부터 디코딩된 상기 min_spatial_segment_offset_plus1[i][j] 신택스 엘리먼트 또는 상기 VPS 로부터 디코딩된 상기 tile_boundaries_aligned_flag 신택스 엘리먼트 중 적어도 하나에 따라 상기 멀티-계층 비트스트림을 디코딩하는 단계를 포함하는, 비디오 데이터를 디코딩하는 방법.
  2. 제 1 항에 있어서,
    적어도 하나의 계층이 적어도 하나의 계층간 제한을 갖는 경우, 상기 멀티-계층 비트스트림의 각각의 계층이 관련 계층간 제한을 갖는지 여부를 결정하는 단계를 더 포함하는, 비디오 데이터를 디코딩하는 방법.
  3. 비디오 데이터를 인코딩하는 방법으로서,
    멀티-계층 비트스트림의 비디오 파라미터 세트 (VPS) 에서,
    계층간 예측에 대한 적어도 하나의 제한이 상기 멀티-계층 비트스트림의 하나 이상의 계층들의 적어도 하나의 직접 레퍼런스 계층에 대해 적용되는지 여부를 나타내는 ilp_restricted_ref_layers_flag 신택스 엘리먼트로서, 상기 계층간 예측에 대한 적어도 하나의 제한은:
    j번째 직접 레퍼런스 계층의 각각의 픽처에 있어서, min_spatial_segment_offset_plus1[i][j] 신택스 엘리먼트 홀로 또는 min_horizontal_ctu_offset_plus1[i][j] 신택스와 함께, 계층 인덱스 i 를 갖는 픽처를 디코딩하기 위한 계층간 예측에 사용되지 않는 공간 영역을 나타내는 상기 min_spatial_segment_offset_plus1[i][j] 신택스 엘리먼트, 또는
    상기 j번째 직접 레퍼런스 계층의 각각의 픽처에 있어서, 상기 min_spatial_segment_offset_plus1[i][j] 신택스 엘리먼트와 함께, 상기 계층 인덱스 i 를 갖는 픽처의 디코딩을 위한 계층간 예측에 사용되지 않는 공간 영역을 나타내는 min_horizontal_ctu_offset_plus1[i][j] 신택스 엘리먼트
    중 적어도 하나를 포함하는, 상기 ilp_restricted_ref_layers_flag 신택스 엘리먼트; 또는
    계층의 픽처의 임의의 2개의 샘플들이 일 타일에 속할 경우에, 존재한다면, 다른 픽처에서의 병치된 샘플들은 일 타일에 속함을, 또는 계층의 픽처의 임의의 2개의 샘플들이 상이한 타일들에 속할 경우에, 존재한다면, 다른 픽처에서의 병치된 샘플들은 상이한 타일들에 속함을 나타내는 tile_boundaries_aligned_flag 신택스 엘리먼트
    중 적어도 하나를 인코딩하는 단계; 및
    상기 VPS 로부터 디코딩된 상기 min_spatial_segment_offset_plus1[i][j] 신택스 엘리먼트 또는 상기 VPS 에서 인코딩된 상기 tile_boundaries_aligned_flag 신택스 엘리먼트 중 적어도 하나에 따라 상기 멀티-계층 비트스트림을 인코딩하는 단계를 포함하는, 비디오 데이터를 인코딩하는 방법.
  4. 제 3 항에 있어서,
    적어도 하나의 계층이 적어도 하나의 계층간 제한을 갖는 경우, 상기 멀티-계층 비트스트림의 각각의 계층이 관련 계층간 제한을 갖는지 여부를 결정하는 단계를 더 포함하는, 비디오 데이터를 인코딩하는 방법.
  5. 비디오 코딩을 수행하는 장치로서,
    비디오 데이터를 저장하는 메모리; 및
    비디오 코더를 포함하고,
    상기 비디오 코더는,
    계층간 예측에 대한 적어도 하나의 제한이 멀티-계층 비트스트림의 하나 이상의 계층들의 적어도 하나의 직접 레퍼런스 계층에 대해 적용되는지 여부를 나타내는 ilp_restricted_ref_layers_flag 신택스 엘리먼트로서, 상기 계층간 예측에 대한 적어도 하나의 제한은:
    j번째 직접 레퍼런스 계층의 각각의 픽처에 있어서, min_spatial_segment_offset_plus1[i][j] 신택스 엘리먼트 홀로 또는 min_horizontal_ctu_offset_plus1[i][j] 신택스와 함께, 계층 인덱스 i 를 갖는 픽처를 디코딩하기 위한 계층간 예측에 사용되지 않는 공간 영역을 나타내는 상기 min_spatial_segment_offset_plus1[i][j] 신택스 엘리먼트, 또는
    상기 j번째 직접 레퍼런스 계층의 각각의 픽처에 있어서, 상기 min_spatial_segment_offset_plus1[i][j] 신택스 엘리먼트와 함께, 상기 계층 인덱스 i 를 갖는 픽처의 디코딩을 위한 계층간 예측에 사용되지 않는 공간 영역을 나타내는 min_horizontal_ctu_offset_plus1[i][j] 신택스 엘리먼트
    중 적어도 하나를 포함하는, 상기 ilp_restricted_ref_layers_flag 신택스 엘리먼트; 또는
    계층의 픽처의 임의의 2개의 샘플들이 일 타일에 속할 경우에, 존재한다면, 다른 픽처에서의 병치된 샘플들은 일 타일에 속함을, 또는 계층의 픽처의 임의의 2개의 샘플들이 상이한 타일들에 속할 경우에, 존재한다면, 다른 픽처에서의 병치된 샘플들은 상이한 타일들에 속함을 나타내는 tile_boundaries_aligned_flag 신택스 엘리먼트
    중 적어도 하나를 코딩하는 것을 포함하여, 상기 멀티-계층 비트스트림의 비디오 파라미터 세트 (VPS) 의 데이터를 코딩하고; 그리고
    상기 VPS 로부터 디코딩된 상기 min_spatial_segment_offset_plus1[i][j] 신택스 엘리먼트 또는 상기 VPS 의 상기 tile_boundaries_aligned_flag 신택스 엘리먼트 중 적어도 하나에 따라 상기 멀티-계층 비트스트림을 코딩하도록
    구성되는, 비디오 코딩을 수행하는 장치.
  6. 제 5 항에 있어서,
    상기 비디오 코더는 추가로, 적어도 하나의 계층이 적어도 하나의 계층간 제한을 갖는 경우, 상기 멀티-계층 비트스트림의 각각의 계층이 관련 계층간 제한을 갖는지 여부를 결정하도록 구성되는, 비디오 코딩을 수행하는 장치.
  7. 제 5 항에 있어서,
    상기 비디오 데이터를 코딩하기 위하여, 상기 비디오 코더는,
    상기 멀티-계층 비트스트림의 적어도 하나의 계층에 대한 잔차 비디오 데이터를 결정하는 것;
    상기 잔차 비디오 데이터를 변환하는 것; 및
    상기 멀티-계층 비트스트림에 있어서 변환된 상기 잔차 비디오 데이터를 나타내는 데이터를 인코딩하는 것
    을 포함하여 상기 비디오 데이터를 인코딩하도록 구성되는, 비디오 코딩을 수행하는 장치.
  8. 제 5 항에 있어서,
    상기 비디오 데이터를 코딩하기 위하여, 상기 비디오 코더는,
    상기 멀티-계층 비트스트림으로부터, 상기 멀티-계층 비트스트림의 적어도 하나의 계층에 대한 잔차 비디오 데이터를 나타내는 데이터를 파싱하는 것;
    상기 잔차 비디오 데이터를 역변환하는 것; 및
    역변환된 상기 잔차 비디오 데이터에 기초하여 상기 비디오 데이터의 적어도 하나의 계층을 복원하는 것
    을 포함하여 상기 비디오 데이터를 디코딩하도록 구성되는, 비디오 코딩을 수행하는 장치.
  9. 제 5 항에 있어서,
    상기 비디오 데이터를 프리젠테이션하도록 구성된 디스플레이 디바이스를 더 포함하는, 비디오 코딩을 수행하는 장치.
  10. 제 5 항에 있어서,
    상기 비디오 데이터를 수신하도록 구성된 무선 모뎀을 더 포함하는, 비디오 코딩을 수행하는 장치.
  11. 비디오 코딩을 수행하는 장치로서,
    계층간 예측에 대한 적어도 하나의 제한이 멀티-계층 비트스트림의 하나 이상의 계층들의 적어도 하나의 직접 레퍼런스 계층에 대해 적용되는지 여부를 나타내는 ilp_restricted_ref_layers_flag 신택스 엘리먼트로서, 상기 계층간 예측에 대한 적어도 하나의 제한은:
    j번째 직접 레퍼런스 계층의 각각의 픽처에 있어서, min_spatial_segment_offset_plus1[i][j] 신택스 엘리먼트 홀로 또는 min_horizontal_ctu_offset_plus1[i][j] 신택스와 함께, 계층 인덱스 i 를 갖는 픽처를 디코딩하기 위한 계층간 예측에 사용되지 않는 공간 영역을 나타내는 상기 min_spatial_segment_offset_plus1[i][j] 신택스 엘리먼트, 또는
    상기 j번째 직접 레퍼런스 계층의 각각의 픽처에 있어서, 상기 min_spatial_segment_offset_plus1[i][j] 신택스 엘리먼트와 함께, 상기 계층 인덱스 i 를 갖는 픽처의 디코딩을 위한 계층간 예측에 사용되지 않는 공간 영역을 나타내는 min_horizontal_ctu_offset_plus1[i][j] 신택스 엘리먼트
    중 적어도 하나를 포함하는, 상기 ilp_restricted_ref_layers_flag 신택스 엘리먼트; 또는
    계층의 픽처의 임의의 2개의 샘플들이 일 타일에 속할 경우에, 존재한다면, 다른 픽처에서의 병치된 샘플들은 일 타일에 속함을, 또는 계층의 픽처의 임의의 2개의 샘플들이 상이한 타일들에 속할 경우에, 존재한다면, 다른 픽처에서의 병치된 샘플들은 상이한 타일들에 속함을 나타내는 tile_boundaries_aligned_flag 신택스 엘리먼트
    중 적어도 하나를 포함하여, 상기 멀티-계층 비트스트림의 비디오 파라미터 세트 (VPS) 의 데이터를 코딩하는 수단; 및
    상기 VPS 로부터 디코딩된 상기 min_spatial_segment_offset_plus1[i][j] 신택스 엘리먼트 또는 상기 VPS 의 상기 tile_boundaries_aligned_flag 신택스 엘리먼트 중 적어도 하나에 따라 상기 멀티-계층 비트스트림을 코딩하는 수단을 포함하는, 비디오 코딩을 수행하는 장치.
  12. 제 11 항에 있어서,
    적어도 하나의 계층이 적어도 하나의 계층간 제한을 갖는 경우, 상기 멀티-계층 비트스트림의 각각의 계층이 관련 계층간 제한을 갖는지 여부를 결정하는 수단을 더 포함하는, 비디오 코딩을 수행하는 장치.
  13. 명령들을 저장하는 비-일시적인 컴퓨터 판독가능 저장 매체로서,
    상기 명령들은, 실행될 경우, 비디오 코더로 하여금
    계층간 예측에 대한 적어도 하나의 제한이 멀티-계층 비트스트림의 하나 이상의 계층들의 적어도 하나의 직접 레퍼런스 계층에 대해 적용되는지 여부를 나타내는 ilp_restricted_ref_layers_flag 신택스 엘리먼트로서, 상기 계층간 예측에 대한 적어도 하나의 제한은:
    j번째 직접 레퍼런스 계층의 각각의 픽처에 있어서, min_spatial_segment_offset_plus1[i][j] 신택스 엘리먼트 홀로 또는 min_horizontal_ctu_offset_plus1[i][j] 신택스와 함께, 계층 인덱스 i 를 갖는 픽처를 디코딩하기 위한 계층간 예측에 사용되지 않는 공간 영역을 나타내는 상기 min_spatial_segment_offset_plus1[i][j] 신택스 엘리먼트, 또는
    상기 j번째 직접 레퍼런스 계층의 각각의 픽처에 있어서, 상기 min_spatial_segment_offset_plus1[i][j] 신택스 엘리먼트와 함께, 상기 계층 인덱스 i 를 갖는 픽처의 디코딩을 위한 계층간 예측에 사용되지 않는 공간 영역을 나타내는 min_horizontal_ctu_offset_plus1[i][j] 신택스 엘리먼트
    중 적어도 하나를 포함하는, 상기 ilp_restricted_ref_layers_flag 신택스 엘리먼트; 또는
    계층의 픽처의 임의의 2개의 샘플들이 일 타일에 속할 경우에, 존재한다면, 다른 픽처에서의 병치된 샘플들은 일 타일에 속함을, 또는 계층의 픽처의 임의의 2개의 샘플들이 상이한 타일들에 속할 경우에, 존재한다면, 다른 픽처에서의 병치된 샘플들은 상이한 타일들에 속함을 나타내는 데이터 tile_boundaries_aligned_flag 신택스 엘리먼트
    중 적어도 하나를 코딩하는 것을 포함하여, 상기 멀티-계층 비트스트림의 비디오 파라미터 세트 (VPS) 의 데이터를 코딩하게 하고; 그리고
    상기 VPS 로부터 디코딩된 상기 min_spatial_segment_offset_plus1[i][j] 신택스 엘리먼트 또는 상기 VPS 의 상기 tile_boundaries_aligned_flag 신택스 엘리먼트 중 적어도 하나에 따라 상기 멀티-계층 비트스트림을 코딩하게 하는, 비-일시적인 컴퓨터 판독가능 저장 매체.
  14. 제 13 항에 있어서,
    상기 명령들은 상기 비디오 코더로 하여금, 적어도 하나의 계층이 적어도 하나의 계층간 제한을 갖는 경우, 상기 멀티-계층 비트스트림의 각각의 계층이 관련 계층간 제한을 갖는지 여부를 결정하게 하는, 비-일시적인 컴퓨터 판독가능 저장 매체.
  15. 삭제
  16. 삭제
  17. 삭제
  18. 삭제
  19. 삭제
  20. 삭제
  21. 삭제
  22. 삭제
  23. 삭제
  24. 삭제
  25. 삭제
  26. 삭제
  27. 삭제
  28. 삭제
  29. 삭제
  30. 삭제
  31. 삭제
  32. 삭제
  33. 삭제
  34. 삭제
  35. 삭제
  36. 삭제
  37. 삭제
  38. 삭제
  39. 삭제
  40. 삭제
  41. 삭제
  42. 삭제
  43. 삭제
  44. 삭제
  45. 삭제
  46. 삭제
  47. 삭제
  48. 삭제
  49. 삭제
KR1020167003713A 2013-07-15 2014-07-15 비디오 코딩을 위한 교차 계층 병렬 프로세싱 및 오프셋 지연 파라미터들 KR101811968B1 (ko)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201361846570P 2013-07-15 2013-07-15
US61/846,570 2013-07-15
US14/330,985 2014-07-14
US14/330,985 US9628792B2 (en) 2013-07-15 2014-07-14 Cross-layer parallel processing and offset delay parameters for video coding
PCT/US2014/046597 WO2015009661A1 (en) 2013-07-15 2014-07-15 Cross-layer parallel processing and offset delay parameters for video coding

Publications (2)

Publication Number Publication Date
KR20160032179A KR20160032179A (ko) 2016-03-23
KR101811968B1 true KR101811968B1 (ko) 2017-12-22

Family

ID=52277082

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020167003713A KR101811968B1 (ko) 2013-07-15 2014-07-15 비디오 코딩을 위한 교차 계층 병렬 프로세싱 및 오프셋 지연 파라미터들
KR1020167003714A KR101770928B1 (ko) 2013-07-15 2014-07-15 비디오 코딩을 위한 교차 계층 병렬 프로세싱 및 오프셋 지연 파라미터들

Family Applications After (1)

Application Number Title Priority Date Filing Date
KR1020167003714A KR101770928B1 (ko) 2013-07-15 2014-07-15 비디오 코딩을 위한 교차 계층 병렬 프로세싱 및 오프셋 지연 파라미터들

Country Status (9)

Country Link
US (2) US9628792B2 (ko)
EP (2) EP3022924B1 (ko)
JP (2) JP6290399B2 (ko)
KR (2) KR101811968B1 (ko)
CN (2) CN105359526B (ko)
BR (2) BR112016000850B1 (ko)
CA (2) CA2913813C (ko)
TW (2) TWI618398B (ko)
WO (2) WO2015009661A1 (ko)

Families Citing this family (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103718553B (zh) * 2011-08-11 2017-03-01 太阳专利托管公司 图像编码方法、图像解码方法、图像编码装置、图像解码装置及图像编码解码装置
WO2013111593A1 (ja) * 2012-01-27 2013-08-01 パナソニック株式会社 画像符号化方法、画像復号方法、画像符号化装置、画像復号装置及び画像符号化復号装置
US10085017B2 (en) * 2012-11-29 2018-09-25 Advanced Micro Devices, Inc. Bandwidth saving architecture for scalable video coding spatial mode
US9628792B2 (en) 2013-07-15 2017-04-18 Qualcomm Incorporated Cross-layer parallel processing and offset delay parameters for video coding
KR20150029592A (ko) * 2013-09-10 2015-03-18 주식회사 케이티 스케일러블 비디오 신호 인코딩/디코딩 방법 및 장치
CN105580370A (zh) * 2013-10-08 2016-05-11 夏普株式会社 图像解码装置、图像编码装置以及编码数据变换装置
CN110225349B (zh) * 2013-10-14 2023-06-02 韩国电子通信研究院 用于支持多层的视频编码/解码方法和计算机可读记录介质
MX359902B (es) * 2013-10-22 2018-10-16 Kt Corp Metodo y dispositivo para codificar/descodificar una señal de video de multicapa.
CN105659597B (zh) * 2013-10-22 2020-01-07 株式会社Kt 用于对多层视频信号进行编码/解码的方法和装置
WO2015064989A1 (ko) * 2013-10-29 2015-05-07 주식회사 케이티 멀티 레이어 비디오 신호 인코딩/디코딩 방법 및 장치
KR20150075040A (ko) * 2013-12-24 2015-07-02 주식회사 케이티 멀티 레이어 비디오 신호 인코딩/디코딩 방법 및 장치
US10212441B2 (en) * 2014-02-12 2019-02-19 Chips & Media, Inc. Method and apparatus for processing video
KR20150110295A (ko) * 2014-03-24 2015-10-02 주식회사 케이티 멀티 레이어 비디오 신호 인코딩/디코딩 방법 및 장치
US10277913B2 (en) * 2014-10-22 2019-04-30 Samsung Electronics Co., Ltd. Application processor for performing real time in-loop filtering, method thereof and system including the same
HUE053609T2 (hu) * 2014-11-07 2021-07-28 Sony Corp Átviteli készülék, átviteli eljárás, vételi készülék és vételi eljárás
CN109691103B (zh) * 2016-07-14 2023-02-28 皇家Kpn公司 视频编码
WO2019225934A1 (ko) * 2018-05-21 2019-11-28 엘지전자 주식회사 영상 코딩 시스템에서 타일 내 ctu 어드레스 관련 영상 디코딩 방법 및 그 장치
EP3821600A1 (en) * 2018-07-09 2021-05-19 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Encoder and decoder, encoding method and decoding method for versatile spatial partitioning of coded pictures
WO2020039364A1 (en) * 2018-08-21 2020-02-27 Beijing Bytedance Network Technology Co., Ltd. Reduced window size for bilateral filter
US11487702B2 (en) 2018-11-02 2022-11-01 International Business Machines Corporation Object mining and recognition system
WO2020125738A1 (en) * 2018-12-21 2020-06-25 Huawei Technologies Co., Ltd. An encoder, a decoder and corresponding methods using history based motion vector prediction
CN113273205A (zh) 2018-12-21 2021-08-17 北京字节跳动网络技术有限公司 使用更高比特深度精度的运动矢量推导
WO2020185471A1 (en) * 2019-03-08 2020-09-17 Beijing Dajia Internet Information Technology Co., Ltd. Video coding for handling different picture sizes
WO2020249124A1 (en) 2019-06-14 2020-12-17 Beijing Bytedance Network Technology Co., Ltd. Handling video unit boundaries and virtual boundaries based on color format
CN114424529A (zh) 2019-09-18 2022-04-29 北京字节跳动网络技术有限公司 视频编解码中自适应环路滤波器的两部分信令
BR112022005293A2 (pt) 2019-09-19 2022-09-20 Beijing Bytedance Network Tech Co Ltd Método de processamento de vídeo, aparelho para processar dados de vídeo e meios de armazenamento e de gravação não transitórios legíveis por computador
EP4018652A4 (en) 2019-09-22 2022-11-02 Beijing Bytedance Network Technology Co., Ltd. FILLING METHOD IN AN ADAPTIVE LOOP FILTER
KR20220063177A (ko) 2019-09-27 2022-05-17 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 상이한 비디오 유닛들 간의 적응적 루프 필터링
US20220417552A1 (en) * 2019-09-30 2022-12-29 Hyundai Motor Company Method and apparatus for inter-prediction of pictures with different resolutions
JP7454042B2 (ja) 2019-10-10 2024-03-21 北京字節跳動網絡技術有限公司 適応ループ・フィルタリングにおける利用可能でないサンプル位置でのパディング・プロセス
JP7389252B2 (ja) 2019-10-29 2023-11-29 北京字節跳動網絡技術有限公司 クロスコンポーネント適応ループフィルタ
CN115104302A (zh) 2019-12-11 2022-09-23 抖音视界有限公司 跨分量适应性回路滤波的样点填充
US11425388B2 (en) * 2020-04-05 2022-08-23 Mediatek Inc. Methods and apparatuses of coding pictures with CTU based slice partitions in video coding system
GB2595696B (en) * 2020-06-04 2022-12-28 Envisics Ltd Forming a hologram of a target image for projection using data streaming
JP2023531223A (ja) 2020-06-30 2023-07-21 北京字節跳動網絡技術有限公司 適応ループフィルタリングのための境界位置

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100679018B1 (ko) * 2004-09-07 2007-02-05 삼성전자주식회사 다계층 비디오 코딩 및 디코딩 방법, 비디오 인코더 및디코더
US7961963B2 (en) * 2005-03-18 2011-06-14 Sharp Laboratories Of America, Inc. Methods and systems for extended spatial scalability with picture-level adaptation
WO2006108863A2 (en) * 2005-04-13 2006-10-19 Thomson Licensing Process for scalable coding of images
TWI392368B (zh) * 2006-11-17 2013-04-01 Lg Electronics Inc 視訊訊號之解碼方法、解碼裝置及其電腦可讀取媒介
TR201905670T4 (tr) * 2007-01-04 2019-05-21 Interdigital Madison Patent Holdings Yüksek düzey sözdiziminde iletilen çoklu görüntülü bilgi için yöntemler ve aparat.
US8665942B2 (en) * 2007-01-23 2014-03-04 Sharp Laboratories Of America, Inc. Methods and systems for inter-layer image prediction signaling
CN101572817B (zh) * 2009-05-26 2011-01-05 北京邮电大学 一种用于空间可分级视频编码的编码模式选择方法
US20120063515A1 (en) * 2010-09-09 2012-03-15 Qualcomm Incorporated Efficient Coding of Video Parameters for Weighted Motion Compensated Prediction in Video Coding
EP2490403A1 (en) 2011-02-17 2012-08-22 Alcatel Lucent Network communication node comprising a plurality of processors for processing layers of communication and associated node
TWI523499B (zh) 2011-02-22 2016-02-21 Panasonic Ip Corp America An image coding method, an image decoding method, an image coding apparatus, an image decoding apparatus, and an image coding / decoding apparatus
AP3992A (en) 2011-07-15 2017-01-08 Ge Video Compression Llc Sample array coding for low-delay
US10070152B2 (en) 2011-08-24 2018-09-04 Texas Instruments Incorporated Sample adaptive offset (SAO) parameter signaling
US20130101033A1 (en) * 2011-10-14 2013-04-25 Qualcomm Incorporated Coding non-symmetric distributions of data
US10708622B2 (en) 2011-12-20 2020-07-07 Texas Instruments Incorporated Adaptive loop filtering (ALF) for video coding
SG10201606621XA (en) * 2012-01-20 2016-09-29 Ge Video Compression Llc Coding Concept Allowing Parallel Processing, Transport Demultiplexer and Video Bitstream
JP6110410B2 (ja) 2012-01-31 2017-04-05 ヴィド スケール インコーポレイテッド スケーラブルな高効率ビデオコーディング(hevc)のための参照ピクチャセット(rps)シグナリング
GB2505643B (en) 2012-08-30 2016-07-13 Canon Kk Method and device for determining prediction information for encoding or decoding at least part of an image
EP2642755B1 (en) 2012-03-20 2018-01-03 Dolby Laboratories Licensing Corporation Complexity scalable multilayer video coding
US9066108B2 (en) 2012-04-20 2015-06-23 Technische Universitat Berlin System, components and method for parametric motion vector prediction for hybrid video coding
KR101678321B1 (ko) * 2012-07-02 2016-11-21 노키아 테크놀로지스 오와이 비디오 코딩을 위한 방법 및 장치
AU2013322008B2 (en) 2012-09-26 2016-10-27 Sun Patent Trust Image coding method, image decoding method, image coding apparatus, image decoding apparatus, and image coding and decoding apparatus
EP2941891B1 (en) * 2013-01-04 2020-09-16 GE Video Compression, LLC Efficient scalable coding concept
US9628792B2 (en) 2013-07-15 2017-04-18 Qualcomm Incorporated Cross-layer parallel processing and offset delay parameters for video coding
KR102185245B1 (ko) * 2014-03-04 2020-12-01 마이크로소프트 테크놀로지 라이센싱, 엘엘씨 해시 기반 블록 매칭을 위한 해시 테이블 구성 및 이용가능성 검사

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
Jill Boyce, et al., ‘SHVC Working Draft 2’, (JCTVC-M1008_v3), JCT-VC of ITU-T SG16 WP3와 ISO/IEC JTC1/SC29/WG11, 13th Meeting: Incheon, KR, 2013.06.14.
RAPAKA, KRISHNAKANTH, et al., ‘MV-HEVC/SHVC HLS: On signaling of offset delay parameters and tile alignment’, (JCTVC-N0160), JCT-VC of ITU-T SG16 WP3와 ISO/IEC JTC1/SC29/WG11, 14th Meeting: Vienna, AT,
SKUPIN, et al., ‘Inter-layer delay indication in VUI’, (JCTVC-M0463), JCT-VC of ITU-T SG16 WP3와 ISO/IEC JTC1/SC29/WG11, 13th Meeting: Incheon, KR, 2013.04.25.
SKUPIN, et al., ‘Layer decoding delay indication for SHVC and 3D/MV-HEVC’, (JCTVC-M0200), JCT-VC of ITU-T SG16 WP3와 ISO/IEC JTC1/SC29/WG11, 13th Meeting: Incheon, KR, 2013.04.09.

Also Published As

Publication number Publication date
WO2015009665A1 (en) 2015-01-22
TWI618398B (zh) 2018-03-11
CN105359527B (zh) 2019-05-28
CA2913813A1 (en) 2015-01-22
CA2913813C (en) 2018-08-21
US9628792B2 (en) 2017-04-18
TW201511530A (zh) 2015-03-16
CA2913618C (en) 2018-08-21
EP3022924A1 (en) 2016-05-25
CA2913618A1 (en) 2015-01-22
CN105359526B (zh) 2019-08-30
BR112016000850A2 (ko) 2017-07-25
WO2015009661A1 (en) 2015-01-22
US9578328B2 (en) 2017-02-21
KR101770928B1 (ko) 2017-08-23
EP3022924B1 (en) 2020-11-25
EP3022925B1 (en) 2022-09-21
US20150016540A1 (en) 2015-01-15
TW201515443A (zh) 2015-04-16
CN105359526A (zh) 2016-02-24
TWI631851B (zh) 2018-08-01
JP2016530774A (ja) 2016-09-29
US20150016520A1 (en) 2015-01-15
BR112016000850B1 (pt) 2023-04-18
JP6290399B2 (ja) 2018-03-07
BR112016000858B1 (pt) 2023-04-25
KR20160032180A (ko) 2016-03-23
BR112016000858A2 (ko) 2017-07-25
JP2016530773A (ja) 2016-09-29
JP6301467B2 (ja) 2018-03-28
CN105359527A (zh) 2016-02-24
EP3022925A1 (en) 2016-05-25
KR20160032179A (ko) 2016-03-23

Similar Documents

Publication Publication Date Title
KR101811968B1 (ko) 비디오 코딩을 위한 교차 계층 병렬 프로세싱 및 오프셋 지연 파라미터들
JP6377778B2 (ja) ビデオコーディングにおける第0の出力レイヤセットのためのプロファイル、ティア、レベル
JP6700193B2 (ja) マルチレイヤコーディングにおける適合ウィンドウ情報
CA2925909C (en) Three-dimensional lookup table based color gamut scalability in multi-layer video coding
US9936207B2 (en) Indication of parallel processing in video coding
JP6542251B2 (ja) マルチレイヤビットストリームのためのsps時間idネスティング情報の導出
JP6513684B2 (ja) マルチレイヤビデオコーディングにおける異なるコーデックのベースレイヤのサポート
KR20160031499A (ko) 고효율 비디오 코딩 확장물들에서 타겟 출력 계층들의 선택
KR20160105437A (ko) 비디오 코딩에서의 nooutputofpriorpicsflag 의 개선된 추론
KR20180017019A (ko) 스케일러블 비디오 코딩에서의 컬러 개머트 스케일러빌리티 파라미터들 및 테이블들의 도출
TWI535273B (zh) 經組態以寫碼視訊資訊之設備及視訊寫碼裝置、編碼及解碼視訊資訊之方法與非暫態電腦可讀媒體
KR20160072153A (ko) 비디오 정보의 스케일러블 코딩을 위한 디바이스 및 방법
WO2015095361A1 (en) Signaling partition information for 3d lookup table for color gamut scalability in multi-layer video coding
JP2016508011A (ja) ビデオ情報のスケーラブルコード化のための機器及び方法

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant