KR102140361B1 - 멀티 계층 코딩에서의 컨포먼스 윈도우 정보 - Google Patents

멀티 계층 코딩에서의 컨포먼스 윈도우 정보 Download PDF

Info

Publication number
KR102140361B1
KR102140361B1 KR1020167031193A KR20167031193A KR102140361B1 KR 102140361 B1 KR102140361 B1 KR 102140361B1 KR 1020167031193 A KR1020167031193 A KR 1020167031193A KR 20167031193 A KR20167031193 A KR 20167031193A KR 102140361 B1 KR102140361 B1 KR 102140361B1
Authority
KR
South Korea
Prior art keywords
video
layer
picture
coding scheme
base layer
Prior art date
Application number
KR1020167031193A
Other languages
English (en)
Other versions
KR20160145076A (ko
Inventor
바딤 세레긴
지안레 천
예-쿠이 왕
잉 천
Original Assignee
퀄컴 인코포레이티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 퀄컴 인코포레이티드 filed Critical 퀄컴 인코포레이티드
Publication of KR20160145076A publication Critical patent/KR20160145076A/ko
Application granted granted Critical
Publication of KR102140361B1 publication Critical patent/KR102140361B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/167Position within a video image, e.g. region of interest [ROI]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/187Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a scalable video layer
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

멀티 계층 비트스트림에서 픽처를 코딩하기 위한 시스템 및 방법이 개시된다. 하나의 양태에서, 방법은 제 1 코딩 스킴에 따라 멀티 계층 비트스트림의 적어도 하나의 계층들을 인코딩하는 단계를 포함한다. 멀티 계층 비트스트림은 베이스 계층을 포함한다. 방법은 베이스 계층의 비디오 파라미터 세트 (VPS) 에서 픽처에 대한 적어도 하나의 포지션 오프셋 및 컨포먼스 윈도우 플래그를 인코딩하는 단계를 더 포함한다. 컨포먼스 윈도우 플래그는 VPS가 적어도 하나의 포지션 오프셋을 포함한다는 것을 나타낼 수도 있다.

Description

멀티 계층 코딩에서의 컨포먼스 윈도우 정보{CONFORMANCE WINDOW INFORMATION IN MULTI-LAYER CODING}
본 개시물은 일반적으로 비디오 코딩 및 압축의 분야에 관한 것이고, 보다 구체적으로는 컨포먼스 윈도우 정보에 기반한 코딩 픽처들에 관한 것이다.
디지털 비디오 능력들은 디지털 텔레비전들, 디지털 직접 브로드캐스트 시스템들, 무선 브로드캐스트 시스템들, 개인 휴대정보 단말기 (PDA) 들, 랩탑 또는 데스크탑 컴퓨터들, 디지털 카메라들, 디지털 리코딩 디바이스들, 디지털 미디어 플레이어들, 비디오 게이밍 디바이스들, 비디오 게임 콘솔들, 셀룰러 또는 위성 무선 전화기들, 원격 화상회의 디바이스들 등을 포함하는, 매우 다양한 디바이스들에 통합될 수 있다. 디지털 비디오 디바이스들은 MPEG-2 (Moving Picture Experts Grop-2), MPEG-4, ITU-T (International Telegraph Union-Telecommunication Standardization Sector) H.263, ITU-T H.264/MPEG-4, 파트 10, 어드밴스드 비디오 코딩 (AVC), 고효율 비디오 코딩 (HEVC) 표준에 의해 정의된 표준들, 및 이러한 표준들의 확장판들에 기재된 것과 같은 비디오 압축 기법들을 구현한다. 비디오 디바이스들은 그러한 비디오 압축 기법들을 구현하는 것에 의해 디지털 비디오 정보를 보다 효율적으로 송신, 수신, 인코딩, 디코딩 및/또는 저장할 수도 있다.
본 개시물의 시스템들, 방법들 및 디바이스들은 각각 몇몇 획기적인 양태들을 가지며, 단지 이들 양태들 중 단일 양태만이 본 명세서에 개시된 바람직한 속성들에 책임이 있는 것은 아니다.
하나의 양태에서, 제 1 코딩 스킴에 따라 멀티 계층 비트스트림의 적어도 하나의 계층을 인코딩하는 것을 수반할 수도 있는 멀티 계층 비트스트림에서 픽처를 인코딩하는 방법이 제공되며, 멀티 계층 비트스트림은 베이스 계층을 포함한다. 방법은 또한 베이스 계층의 비디오 파라미터 세트 (VPS) 에서 픽처에 대한 적어도 하나의 포지션 오프셋 및 컨포먼스 윈도우 플래그를 인코딩하는 것을 수반할 수도 있고, 컨포먼스 윈도우 플래그는 VPS가 적어도 하나의 포지션 오프셋을 포함한다는 것을 나타낸다.
다른 양태에서, 제 1 코딩 스킴에 따라 멀티 계층 비트스트림의 적어도 하나의 계층을 인코딩하도록 구성되고 메모리에 동작가능하게 커플링되는 하드웨어 프로세서는 물론, 메모리를 포함할 수도 있는 멀티 계층 비트스트림에서 픽처를 인코딩하기 위한 장치가 제공되며, 멀티 계층 비트스트림은 베이스 계층을 포함한다. 프로세서는 또한 베이스 계층의 비디오 파라미터 세트 (VPS) 에서 적어도 하나의 포지션 오프셋 및 컨포먼스 윈도우 플래그를 인코딩하도록 구성될 수 있으며, 컨포먼스 윈도우 플래그는 VPS가 적어도 하나의 포지션 오프셋을 포함한다는 것을 나타낸다.
하나의 양태에서, 멀티 계층 비트스트림을 수신하는 것을 수반할 수도 있는 멀티 계층 비트스트림에서 픽처를 디코딩하기 위한 방법이 제공되며, 멀티 계층 비트스트림은 베이스 계층을 포함한다. 방법은 또한 베이스 계층의 비디오 파라미터 세트 (VPS) 에서 적어도 하나의 포지션 오프셋 및 컨포먼스 윈도우 플래그를 디코딩하는 것을 수반할 수도 있고, 컨포먼스 윈도우 플래그는 VPS가 적어도 하나의 포지션 오프셋을 포함한다는 것을 나타낸다.
또 다른 양태에서, 비디오 코덱에서 멀티 계층 비트스트림을 수신하도록 구성되고 메모리에 동작가능하게 커플링되는 하드웨어 프로세서는 물론, 메모리를 포함할 수도 있는 멀티 계층 비트스트림에서 픽처를 디코딩하기 위한 장치가 제공되며, 멀티 계층 비트스트림은 베이스 계층을 포함한다. 프로세서는 또한 베이스 계층의 비디오 파라미터 세트 (VPS) 에서 적어도 하나의 포지션 오프셋 및 컨포먼스 윈도우 플래그를 코딩하도록 구성될 수 있으며, 컨포먼스 윈도우 플래그는 VPS가 적어도 하나의 포지션 오프셋을 포함한다는 것을 나타낸다.
도 1a 는 본 개시물에 기재된 양태들에 따른 기법들을 이용할 수도 있는 일 예의 비디오 인코딩 및 디코딩 시스템을 예시하는 블록도이다.
도 1b 는 본 개시물에 기재된 양태들에 따른 기법들을 수행할 수도 있는 또 다른 예의 비디오 인코딩 및 디코딩 시스템을 예시하는 블록도이다.
도 2a 는 본 개시물에 기재된 양태들에 따른 기법들을 구현할 수도 있는 비디오 인코더의 일 예를 예시하는 블록도이다.
도 2b 는 본 개시물에 기재된 양태들에 따른 기법들을 구현할 수도 있는 비디오 인코더의 다른 예를 예시하는 블록도이다.
도 3a 는 본 개시물에 기재된 양태들에 따른 기법들을 구현할 수도 있는 비디오 디코더의 일 예를 예시하는 블록도이다.
도 3b 는 본 개시물에 기재된 양태들에 따른 기법들을 구현할 수도 있는 비디오 디코더의 다른 예를 예시하는 블록도이다.
도 4 는 컨포먼스 윈도우 정보를 이용하기 위한 기법을 나타내는 예시적인 개략도를 예시한다.
도 5 는 본 개시물에 기재된 양태(들)에 따른 픽처를 인코딩하기 위한 프로세스의 예시적인 실시형태의 플로우차트이다.
도 6 은 본 개시물에 기재된 양태(들)에 따른 픽처를 디코딩하기 위한 프로세스의 예시적인 실시형태의 플로우차트이다.
일반적으로, 본 개시물은 HEVC (High Efficiency Video Coding), AVC (High Efficiency Video Coding) 등과 같은 진보된 비디오 코덱들 맥락에서의 컨포먼스 윈도우 정보에 기반한 코딩 픽처들과 관련된다.
컨포먼스 윈도우는 일반적으로 코딩 프로세서로부터 출력되는 코딩된 비디오 시퀀스에서의 픽처의 샘플들의 윈도우를 말한다. 비트스트림은 코딩된 픽처의 출력 영역을 나타내기 위해 컨포먼스 윈도우 크롭핑 파라미터들을 제공할 수도 있다. 예를 들어, 윈도우는 시그널링된 픽처 좌표들을 이용하여 특정된 직사각형 영역일 수도 있다. 픽처 좌표들은 레퍼런스 계층에 대해 시그널링될 수도 있다.
레퍼런스 계층에 대해 특정된 결과물인 출력 영역은 리샘플링 프로세스를 포함하여 다양한 프로세스들에 대한 입력으로서 사용될 수도 있다. 예를 들어, 리샘플링 프로세스는 출력 픽처를 계산하기 위해 (레퍼런스 계층에 대해 시그널링되는) 상부, 하부, 좌측, 및 우측 오프셋들을 포함한 컨포먼스 윈도우를 이용할 수도 있다.
AVC 에 대한 스케일러블 확장 (SVC로 알려짐) 및 HEVC 에 대한 스케일러블 확장에서, 멀티 계층들에 비디오 정보가 제공될 수도 있다. 아주 하부 레벨에서의 계층은 베이스 계층의 역할을 할 수 있고, 아주 상부 레벨에서의 계층은 인핸스먼트 계층의 역할을 할 수 있다. "인핸스먼트 계층"은 "인핸스드 계층"으로 지칭되는 경우도 있고, 이러한 용어들은 상호교환적으로 사용된다. 베이스 계층은 "레퍼런스 계층"으로 지칭되는 경우도 있고, 이러한 용어들도 또한 상호교환적으로 사용될 수 있다. 상부 계층과 하부 계층 사이의 모든 계층들은 인핸스먼트 계층들과 베이스 계층들 모두의 역할을 할 수도 있다. 예를 들어, 중간에 있는 계층은 그 아래에 있는 계층들에 대해 인핸스먼트 계층일 수 있고, 동시에 그 상부에 있는 계층들에 대해 베이스 계층일 수 있다.
멀티 계층 비트스트림들에서, 계층들은 상이한 코딩 스킴들을 사용하여 코딩될 수 있다. 이것은, 가령, 단일 계층이 스케일링되어 멀티 계층 비트스트림을 형성하는 경우 일어날 수도 있다. 예를 들어, SHVC에서 코딩된 인핸스먼트 계층은 HEVC에서 코딩된 베이스 계층과 조합하여 멀티 계층 비트스트림을 형성할 수도 있다. SHVC가 HEVC의 스케일러블 확장이기 때문에, SHVC 및 HEVC는 "연관된" 코딩 스킴들로서 지칭될 수도 있다. 하지만, 일부 사례들에서, 멀티 계층 비트스트림에서의 개별 계층들은 연관되지 않는 상이한 코딩 스킴들을 사용하여 코딩될 수도 있다. 예를 들어, AVC를 이용하여 코딩된 베이스 계층은 SVC (AVC의 스케일러블 확장) 보다는 오히려 SHVC를 사용하여 코딩된 인핸스먼트 계층과 조합될 수도 있다. 이러한 사례들에서, 베이스 계층의 컨포먼스 윈도우 정보는 리샘플링 프로세스와 같은 다양한 목적에 사용하기에 이용가능하지 않을 수도 있다. 이로써, 레퍼런스 계층을 수신하는 코덱의 코딩 스킴과 연관되지 않는 코딩 스킴을 사용하여 코딩된 베이스 계층들로부터의 컨포먼스 윈도우 정보를 송신 및/또는 수신하기 위한 시스템 및 방법이 바람직하다. 이러한 레퍼런스 계층들에 대해 컨포먼스 윈도우 정보를 제공하는 소정의 기술들이 아래에 기재된다.
본 개시물의 실시형태들은 멀티 계층 비트스트림의 베이스 계층을 이용하여 컨포먼스 윈도우 정보를 송신하기 위한 시스템 및 방법을 제공한다. 베이스 계층 컨포먼스 윈도우 플래그는, 스케일러블 확장 코딩 스킴에 대응하지 않는 베이스라인 코딩 스킴을 이용하여 코딩되었던 베이스 계층을 코덱이 수신하는 경우 스케일러블 확장 코딩 스킴을 이용하는 코덱에서 설정될 수도 있다. 플래그는, 리샘플링된 픽처에 대한 포지셔닝 정보를 제공하는 베이스 계층 포지션 오프셋들이 이어질 것이라는 것을 나타낼 수도 있다. 비디오 코덱은 이후, 이러한 정보를 리샘플링 프로세스와 같은 다양한 프로세스들에서, 또는 컨포먼스 윈도우 정보의 이용을 수반하는 다른 프로세스들에서 이용할 수도 있다.
소정의 실시형태들이 본 명세서에서 HEVC 및/또는 H.264 표준들의 맥락에서 설명되지만, 당업자는 본 명세서에 개시된 시스템들 및 방법들이 임의의 적합한 비디오 코딩 표준에 적용가능할 수도 있다는 것을 인식할 수도 있다. 예를 들어, 본 명세서에 개시되는 실시형태들은 다음 표준들 중 하나 이상에 적용가능할 수도 있다: 스케일러블 및 멀티뷰 확장들을 포함하여, 국제 전기통신 연합 (ITU) 전기통신 표준화 부문 (ITU-T) H.261, 국제 표준화 기구/국제 전기기술 위원회 (ISO/IEC) MPEG-1 비주얼, ITU-T H.262 또는 ISO/IEC MPEG-2 비주얼, ITU-T H.263, ISO/IEC MPEG-4 비주얼 및 ITU-T H.264 (또한 ISO/IEC MPEG-4 AVC 라고도 알려짐). 또한, 본 개시물에서 설명되는 기법들은 장래에 개발되는 표준들의 부분이 될 수도 있다. 다시 말해, 본 개시물에서 설명되는 기법들은 이전에 개발된 비디오 코딩 표준들, 현재 개발 중인 비디오 코딩 표준들, 및 곧 다가올 비디오 코딩 표준들에 적용가능할 수도 있다.
HEVC 는 일반적으로 많은 관점들에서 이전 비디오 코딩 표준들의 프레임워크를 따른다. HEVC 에서의 예측 유닛은 소정의 이전 비디오 코딩 표준들에서의 예측의 유닛들 (예를 들어, 매크로블록들) 과는 상이하다. 사실, 매크로블록의 개념은 소정의 이전 비디오 코딩 표준들에서 이해되는 바와 같이 HEVC 에 존재하지 않는다. 매크로블록은, 다른 가능한 혜택들 중에서도, 높은 유연성을 제공할 수도 있는, 쿼드트리 스킴에 기초한 계층적 구조에 의해 대체된다. 예를 들어, HEVC 스킴 내에서, 블록들의 3 가지 타입들, CU, PU, 및 TU 가 정의된다. CU 는 영역 스플리팅의 기본 유닛 (basic unit) 을 지칭한다. CU 는 매크로블록의 개념에 유사한 것으로 고려될 수도 있지만, HEVC 는 CU 의 최대 사이즈를 제한하지 않고, 콘텐츠 적응성을 향상시키기 위하여 4개의 동일한 사이즈의 CU 들로의 회귀적 스플리팅 (recursive splitting) 을 허용할 수도 있다. PU 는 인터/인트라 예측의 기본 유닛으로 고려될 수도 있고, 단일 PU 는 불규칙 이미지 패턴들을 효과적으로 코딩하기 위하여 다수의 임의 형상 파티션들을 포함할 수도 있다. TU 는 변환의 기본 유닛으로 고려될 수도 있다. TU 는 PU 와는 독립적으로 정의될 수 있지만; TU 의 사이즈는 TU 가 속하는 CU 의 사이즈로 한정될 수도 있다. 3개의 상이한 개념들로의 블록 구조의 이러한 분리는 각각의 유닛으로 하여금 유닛의 각각의 역할에 따라 최적화되는 것을 허용할 수도 있으며, 이는 향상된 코딩 효율을 야기할 수도 있다.
오직 예시의 목적을 위해, 본 명세서에 개시된 소정의 실시형태들은, 비디오 데이터의 2개의 계층들 (예를 들어, 베이스 계층과 같은 하위 계층 및 인핸스먼트 계층과 같은 상위 계층) 만을 포함하는 예들로 설명된다. 비디오 데이터의 "계층" (layer) 은 일반적으로, 뷰, 프레임 레이트, 해상도 등과 같은 적어도 하나의 공통 특징을 갖는 픽처들의 시퀀스를 지칭할 수도 있다. 예를 들어, 계층은 멀티뷰 비디오 데이터의 특정 뷰 (예를 들어, 시점) 와 연관된 비디오 데이터를 포함할 수도 있다. 또 다른 예로서, 계층은 스케일러블 비디오 데이터의 특정 계층과 연관된 비디오 데이터를 포함할 수도 있다. 따라서, 본 개시물은 비디오 데이터의 뷰 및 계층을 상호교환가능하게 나타낸다. 즉, 비디오 데이터의 뷰는 비디오 데이터의 계층으로 지칭될 수도 있고, 비디오 데이터의 계층은 비디오 데이터의 뷰로 지칭될 수도 있다. 또한, 멀티 계층 코덱 (멀티 계층 비디오 코더 또는 멀티 계층 인코더-디코더로도 지칭됨) 은 멀티뷰 코덱 또는 스케일러블 코덱 (예를 들어, HEVC 에 대한 멀티뷰 확장 (MV-HEVC), HEVC 에 대한 3차원 확장 (3D-HEVC), SHVC 또는 다른 멀티 계층 코딩 기법들을 이용하여 비디오 데이터를 인코딩 및/또는 디코딩하도록 구성된 코덱) 을 공동으로 나타낼 수도 있다. 비디오 인코딩 및 비디오 디코딩은 양자 모두 일반적으로, 비디오 코딩으로 지칭될 수도 있다. 그러한 예들은 다수의 베이스 및/또는 인핸스먼트 계층들을 포함하는 구성들에 적용가능할 수도 있다는 것이 이해되야 한다. 또한, 설명의 용이를 위해, 다음의 개시는 소정의 실시형태들과 관련하여 용어 "프레임" 또는 "블록" 을 포함한다. 하지만, 이들 용어들은 제한적인 것으로 의도되지 않았다. 예를 들어, 아래에 설명된 기법들은 임의의 적합한 비디오 유닛들, 예컨대 블록들 (예를 들어, CU, PU, TU, 매트로블록들 등), 슬라이스들, 프레임들 등과 함께 사용될 수 있다.
비디오 코딩 표준들
비디오 이미지, TV 이미지, 스틸 이미지 또는 비디오 리코더 또는 컴퓨터에 의해 생성된 이미지와 같은 디지털 이미지는 수평 및 수직 라인들로 배열된 픽셀들 또는 샘플들로 이루어질 수도 있다. 단일 이미지에서 픽셀들의 수는 통상적으로 수만개이다. 각 픽셀은 통상적으로 루미넌스 및 크로미넌스 정보를 포함한다. 압축이 없으면, 이미지 인코더로부터 이미지 디코더로 전달될 정보의 엄청난 양 (sheer quantity) 은 실시간 이미지 송신을 불가능하게 만든다. 송신될 정보의 양을 감소시키기 위하여, 많은 상이한 압축 방법들, 예컨대 JPEG, MPEG 및 H.263 표준들이 개발되었다.
비디오 코딩 표준들은 스케일러블 및 멀티뷰 확장들을 포함하는, TU-T H.261, ISO/IEC MPEG-1 비주얼, ITU-T H.262 또는 ISO/IEC MPEG-2 비주얼, ITU-T H.263, ISO/IEC MPEG-4 비주얼 및 ITU-T H.264 를 포함한다.
또한, 비디오 코딩 표준, 즉 HEVC 가, ITU-T VCEG (Video Coding Experts Group) 및 ISO/IEC MPEG 의 JCT-VC (Joint Collaboration Team on Video Coding) 에 의해 개발되었다. HEVC 초안 10 에 대한 전체 인용문은 ITU-T SG16 WP3 및 ISO/IEC JTC1/SC29/WG11 의 JCT-VC (Joint Collaborative Team on Video Coding) 의 2013년 1월 14일부터 2013년 1월 23일까지, 스위스, 제네바에 있었던 12차 미팅의 Bross 등의 “High Efficiency Video Coding (HEVC) Text Specification Draft 10”, 문헌 JCTVC-L1003 이다. HEVC 에 대한 멀티뷰 확장, 즉 MV-HEVC 그리고 HEVC 에 대한 스케일러블 확장, 즉 SHVC 는 또한, JCT-3V (ITU-T/ISO/IEC Joint Collaborative Team on 3D Video Coding Extension Development) 및 JCT-VC 에 의해 각각 개발되고 있다.
비디오 코딩 시스템
신규 시스템들, 장치들 및 방법들의 다양한 양태들은 이하 첨부 도면들을 참조하여 더 충분히 설명된다. 하지만, 본 개시물은 많은 상이한 형태들로 구현될 수도 있고 본 개시물 전체에 걸쳐 제시되는 임의의 특정 구조 또는 기능에 제한되는 것으로 해석되지 않아야 한다. 오히려, 이들 양태들은 본 개시물이 철저하고 완전하게 되도록, 그리고 당업자에게 본 개시물의 범위를 충분히 전달하도록 제공된다. 본 명세서에서의 교시들에 기초하여 당업자는 본 개시물의 범위가, 독립적으로 구현되든, 또는 본 개시물의 임의의 다른 양태와 결합되든, 본 명세서에 개시된 신규 시스템들, 장치들, 및 방법들의 임의의 양태들을 커버하는 것으로 의도되는 것을 이해하여야 한다. 예를 들어, 본 명세서에 기술된 임의의 수의 양태들을 사용하여 장치가 구현될 수도 있고 또는 방법이 실시될 수도 있다. 부가적으로, 본 개시물의 범위는 본 명세서에 기술된 본 개시물의 다양한 양태들 이외의 또는 양태들에 부가하여 다른 구조, 기능 또는 구조 및 기능을 사용하여 실시되는 그러한 장치 또는 방법을 커버하는 것으로 의도된다. 본 개시물에 개시된 임의의 양태는 청구항의 하나 이상의 엘리먼트들에 의해 실시될 수도 있다는 것을 이해해야 한다.
특정 양태들이 본 명세서에 기재되지만, 이들 양태들의 많은 변형들 및 치환들은 개시물의 범위 내에 포함된다. 선호되는 양태들의 일부 이익들 및 이점들이 언급되지만, 개시물의 범위는 특정 이익들, 사용들, 또는 오브젝트들에 제한되는 것으로 의도되지 않는다. 오히려, 개시물의 양태들은 상이한 무선 기술들, 시스템 구성들, 네트워크들 및 통신 프로토콜들에 넓게 적용가능한 것으로 의도되며, 그 일부는 선호된 양태들의 다음의 기재에서 그리고 도면들에서 예로써 예시된다. 상세한 설명 및 도면들은 단지 한정 보다는 개시물의 예시이며, 개시물의 범위는 첨부된 청구항들 및 그 등가물에 의해 정의된다.
첨부된 도면들은 예들을 도시한다. 첨부된 도면들에서 도면 부호로 표시된 요소들은 다음 설명에서 같은 도면 부호들로 표시된 요소들에 대응한다. 본 개시에서, 서수 용어들 (예를 들어, "제 1", "제 2", "제 3" 등) 로 시작하는 명칭들을 갖는 요소들은 그 요소들이 특정 순서를 가져야 한다는 것을 반드시 의미하는 것은 아니다. 오히려, 그러한 서수 용어들은 동일 또는 유사한 유형의 상이한 요소들을 지칭하는데 단지 사용된다.
도 1a 는 본 개시물에 기재된 양태들에 따른 기법들을 이용할 수 있는 일 예의 비디오 코딩 시스템 (10) 을 도시하는 블록 다이어그램이다. 본 명세서에서 사용된 바와 같이, 용어 "비디오 코더" 는 일반적으로 비디오 인코더들 및 비디오 디코더들 양자 모두를 지칭한다. 본 개시물에서, 용어들 "비디오 코딩" 또는 "코딩" 은 일반적으로 비디오 인코딩 및 비디오 디코딩을 지칭한다. 비디오 인코더들 및 비디오 디코더들에 부가하여, 본 출원에 기재된 양태들은 트랜스코더들 (예를 들어, 비트스트림을 디코딩하고 다른 비트스트림을 재인코딩할 수 있는 디바이스들) 및 미들박스들 (예를 들어 비트스트림을 수정, 변환, 및/또는 그렇지 않으면 조종할 수 있는 디바이스들) 과 같은 다른 관련된 디바이스들로 확장될 수도 있다.
도 1a 에 나타낸 바와 같이, 비디오 코딩 시스템 (10) 은 목적지 디바이스 (14) 에 의해 나중에 디코딩될 인코딩된 비디오 데이터를 생성하는 소스 디바이스 (12) 를 포함한다. 도 1a 의 예에서, 소스 디바이스 (12) 및 목적지 디바이스 (14) 는 별도의 디바이스들을 구성한다. 하지만, 소스 디바이스 (12) 및 목적지 디바이스 (14) 는 도 1b 의 예에 나타낸 바와 동일한 디바이스의 부분 상에 있을 수도 있고 또는 그 부분일 수도 있다.
도 1a 를 다시 한번 참조하면, 소스 디바이스 (12) 및 목적지 디바이스 (14) 는, 데스크탑 컴퓨터들, 노트북 (즉, 랩탑) 컴퓨터들, 테블릿 컴퓨터들, 셋톱 박스들, 이른바 "스마트" 폰들과 같은 전화 핸드셋들, 이른바 "스마트" 패드들, 텔레비전들, 카메라들, 디스플레이 디바이스들, 디지털 미디어 플레이어들, 비디오 게이밍 콘솔들, 비디오 스트리밍 디바이스 등을 포함하는 광범위한 범위의 디바이스들 중 임의의 것을 개별적으로 포함할 수도 있다. 다양한 실시형태들에서, 소스 디바이스 (12) 및 목적지 디바이스 (14) 는 무선 통신을 위해 구비될 수도 있다.
목적지 디바이스 (14) 는 디코딩될 인코딩된 비디오 데이터를 링크 (16) 를 통해 수신할 수도 있다. 링크 (16) 는 인코딩된 비디오 데이터를 소스 디바이스 (12) 에서 목적지 디바이스 (14) 로 이동시킬 수 있는 매체 또는 디바이스의 임의의 유형을 포함할 수도 있다. 도 1a 의 예에서, 링크 (16) 는 소스 디바이스 (12) 가 인코딩된 비디오 데이터를 목적지 디바이스 (14) 로 실시간으로 송신하게 하는 통신 매체를 포함할 수도 있다. 인코딩된 비디오 데이터는 무선 통신 프로토콜과 같은 통신 표준에 따라 변조될 수도 있고, 목적지 디바이스 (14) 로 송신될 수도 있다. 통신 매체는 임의의 무선 또는 유선 통신 매체, 예컨대 무선 주파수 (RF) 스펙트럼 또는 하나 이상의 물리적 송신 라인들을 포함할 수도 있다. 통신 매체는 패킷 기반 네트워크, 예컨대 근거리 통신망 (local area network), 광역 통신망 (wide-area network), 또는 인터넷과 같은 글로벌 네트워크의 부분을 형성할 수도 있다. 통신 매체는 라우터들, 스위치들, 기지국들, 또는 소스 디바이스 (12) 에서 목적지 디바이스 (14) 로의 통신을 용이하게 하는데 유용할 수도 있는 임의의 다른 장비를 포함할 수도 있다.
대안으로, 인코딩된 데이터는 출력 인터페이스 (22) 에서 저장 디바이스 (31)(옵션으로 존재) 로 출력될 수도 있다. 유사하게, 인코딩된 데이터는 예를 들어, 목적지 디바이스 (14) 의 입력 인터페이스 (28) 에 의해 저장 디바이스 (31) 로부터 액세스될 수도 있다. 저장 디바이스 (31) 는 하드 드라이브, 플래시 메모리, 휘발성 또는 비휘발성 메모리와 같은 임의의 다양한 분산된 또는 국부적으로 액세스된 데이터 저장 매체, 또는 인코딩된 비디오 데이터를 저장하는 임의의 다른 적절한 디지털 저장 매체를 포함할 수도 있다. 추가 예에서, 저장 디바이스 (31) 는 소스 디바이스 (12) 에 의해 생성된 인코딩된 비디오를 유지할 수도 있는 다른 중간 저장 디바이스 또는 파일 서버에 대응할 수도 있다. 목적지 디바이스 (14) 는 스트리밍 또는 다운로드를 통해 저장 디바이스 (31) 로부터의 저장된 비디오 데이터에 액세스할 수도 있다. 파일 서버는 인코딩된 비디오 데이터를 저장하고 그 인코딩된 비디오 데이터를 목적지 디바이스 (14) 로 송신할 수 있는 타입의 서버일 수도 있다. 예시의 파일 서버들은 (예를 들어, 웹사이트용의) 웹 서버, FTP (File Transfer Portocal) 서버, NAS (network attached storage) 디바이스들, 또는 로컬 디스크 드라이브를 포함한다. 목적지 디바이스 (14) 는 인터넷 접속을 포함하는 임의의 표준 데이터 접속을 통해 인코딩된 비디오 데이터에 액세스할 수도 있다. 이것은 파일 서버 상에 저장된 인코딩된 비디오 데이터를 액세스하는데 적합한 무선 채널 (예를 들어, 무선 로컬 영역 네트워크 (WLAN) 접속), 유선 접속 (예를 들어, 디지털 가입자 라인 (DSL), 케이블 모뎀 등), 또는 파일 서버 상에 저장된 인코딩된 비디오 데이터에 액세스하기에 적합한 양자의 조합을 포함할 수도 있다. 저장 디바이스 (31) 로부터의 인코딩된 비디오 데이터의 송신은 스트리밍 송신, 다운로드 송신, 또는 양자의 조합일 수도 있다.
본 개시물의 기법들은 무선 어플리케이션들 또는 설정들에 제한되지 않는다. 기법들은 예를 들어 인터넷 (예를 들어, DASH (dynamic adaptive streaming over HTTP) 등) 을 통해, 다양한 멀티미디어 어플리케이션들, 예컨대, 공중 (over-the-air) 텔레비전 방송들, 케이블 텔레비전 송신들, 위성 텔레비전 송신들, 스트리밍 비디오 송신들, 데이터 저장 매체 상의 저장을 위한 디지털 비디오의 인코딩, 데이터 저장 매체 상에 저장된 디지털 비디오의 디코딩, 또는 다른 어플리케이션들 중 어느 것의 지원에서 비디오 코딩에 적용될 수도 있다. 일부 예들에서, 비디오 코딩 시스템 (10) 은, 비디오 스트리밍, 비디오 플레이백, 비디오 브로드캐스팅, 및/또는 비디오 텔레포니와 같은 어플리케이션들을 지원하기 위해 일방향 또는 양방향 비디오 송신을 지원하도록 구성될 수도 있다.
도 1a 의 예에서, 소스 디바이스 (12) 는 비디오 소스 (18), 비디오 인코더 (20) 및 출력 인터페이스 (22) 를 포함한다. 일부 경우들에서, 출력 인터페이스 (22) 는 변조기/복조기 (모뎀) 및/또는 송신기를 포함할 수도 있다. 소스 디바이스 (12) 에서, 비디오 소스 (18) 는 소스, 예컨대 비디오 캡처 디바이스, 예를 들어, 비디오 카메라, 이전에 캡처된 비디오를 포함하는 비디오 아카이브, 비디오 콘텐츠 제공자로부터 비디오를 수신하기 위한 비디오 피드 인터페이스, 및/또는 소스 비디오로서 컴퓨터 그래픽스 데이터를 생성하기 위한 컴퓨터 그래픽스 시스템, 또는 그러한 소스들의 조합을 포함할 수도 있다. 일 예로서, 비디오 소스 (18) 가 비디오 카메라이면, 소스 디바이스 (12) 및 목적지 디바이스 (14) 는, 도 1b 의 예에 예시된 바와 같이, 소위 "카메라 폰들" 또는 "비디오 폰들" 을 형성할 수도 있다. 하지만, 본 개시물에 기재된 기법들은, 일반적으로 비디오 코딩에 적용가능할 수도 있고, 무선 및/또는 유선 응용들에 적용될 수도 있다.
캡처되거나, 미리 캡처되거나 또는 컴퓨터 생성된 비디오는 비디오 인코더 (20) 에 의해 인코딩될 수도 있다. 인코딩된 비디오 데이터는 소스 디바이스 (12) 의 출력 인터페이스 (22) 를 통해 목적지 디바이스 (14) 로 송신될 수도 있다. 인코딩된 비디오 데이터는 또한 (또는 대안적으로), 디코딩 및/또는 플레이백을 위해, 목적지 디바이스 (14) 또는 다른 디바이스들에 의한 나중 액세스를 위해 저장 디바이스 (31) 에 저장될 수도 있다. 도 1a 및 도 1b 에 예시된 비디오 인코더 (20) 는 도 2a 에 예시된 비디오 인코더 (20), 도 2b 에 예시된 비디오 인코더 (23), 또는 본 명세서에 기재된 임의의 다른 비디오 인코더를 포함할 수도 있다.
도 1a 의 예에서, 목적지 디바이스 (14) 는 입력 인터페이스 (28), 비디오 디코더 (30), 및 디스플레이 디바이스 (32) 를 포함한다. 일부 경우들에서, 입력 인터페이스 (28) 는 수신기 및/또는 모뎀을 포함할 수도 있다. 목적지 디바이스 (14) 의 입력 인터페이스 (28) 는 링크 (16) 상에서 및/또는 저장 디바이스 (31) 로부터 인코딩된 비디오 데이터를 수신할 수도 있다. 링크 (16) 를 통해 통신되거나, 또는 저장 디바이스 (31) 상에 제공된 인코딩된 비디오 데이터는, 비디오 데이터를 디코딩함에 있어서, 비디오 디코더 (30) 와 같은 비디오 디코더에 의한 사용을 위해 비디오 인코더 (20) 에 의해 생성된 다양한 신택스 엘리먼트들을 포함할 수도 있다. 그러한 신택스 엘리먼트들은, 통신 매체 상에서 송신되거나, 저장 매체 상에 저장되거나, 또는 파일 서버에 저장되는 인코딩된 비디오 데이터와 함께 포함될 수도 있다. 도 1a 및 도 1b 에 예시된 비디오 디코더 (30) 는 도 3a 에 예시된 비디오 디코더 (30), 도 3b 에 예시된 비디오 디코더 (33), 또는 본원에 설명된 임의의 다른 비디오 디코더를 포함할 수도 있다.
디스플레이 디바이스 (32) 는, 목적지 디바이스 (14) 와 통합되거나 또는 그 외부에 있을 수도 있다. 일부 예들에서, 목적지 디바이스 (14) 는, 통합된 디스플레이 디바이스를 포함할 수도 있고 또한 외부 디스플레이 디바이스와 인터페이스 접속하도록 구성될 수도 있다. 다른 예들에서, 목적지 디바이스 (14) 는 디스플레이 디바이스일 수도 있다. 일반적으로, 디스플레이 디바이스 (32) 는 디코딩된 비디오 데이터를 사용자에게 표시하고, 액정 디스플레이 (LCD), 플라즈마 디스플레이, 유기 발광 다이오드 (OLED) 디스플레이, 또는 다른 타입의 디스플레이 디바이스와 같은 다양한 디스플레이 디바이스들 중 어느 것을 포함할 수도 있다
관련된 양태들에서, 도 1b 는 일 예의 비디오 코딩 시스템 (10') 을 도시하고, 여기서 소스 디바이스 (12) 및 목적지 디바이스 (14) 는 디바이스 (11) 상에 있거나 또는 그 부분이다. 디바이스 (11) 는, 전화기 핸드셋, 예컨대 "스마트" 폰 등일 수도 있다. 디바이스 (11) 는 소스 디바이스 (12) 및 목적지 디바이스 (14) 와 동작적으로 통신하는 (선택적으로 존재하는) 제어기/프로세서 디바이스 (13) 를 포함할 수도 있다. 도 1b 의 비디오 코딩 시스템 (10') 및 이의 컴포넌트들은, 그렇지 않으면 도 1a 의 비디오 코딩 시스템 (10) 및 이의 컴포넌트들과 유사하다.
비디오 인코더 (20) 및 비디오 디코더 (30) 는 비디오 압축 표준, 예컨대 HEVC 에 따라 동작할 수도 있고, HEVC 테스트 모델 (HM) 을 따를 수도 있다. 대안으로, 비디오 인코더 (20) 및 비디오 디코더 (30) 는, 다르게는 MPEG-4, 파트 10, AVC 로도 지칭되는 ITU-T H.264 표준과 같은 다른 사설 표준 또는 산업 표준, 또는 그러한 표준들의 확장판들에 따라 동작할 수도 있다. 하지만, 본 개시물의 기법들은 임의의 특정 코딩 표준에 제한되지 않는다. 비디오 압축 표준들의 다른 예들은 MPEG-2 및 ITU-T H.263 을 포함한다.
도 1a 및 도 1b 의 예들에 도시되지 않았지만, 비디오 인코더 (20) 및 비디오 디코더 (30) 는 각각 오디오 인코더 및 디코더와 통합될 수도 있고, 공통 데이터 스트림 또는 별도의 데이터 스트림들에서 오디오 및 비디오 양자의 인코딩을 핸들링하기 위해, 적절한 MUX-DEMUX 유닛들, 또는 다른 하드웨어 및 소프트웨어를 포함할 수도 있다. 적용가능하다면, 일부 예들에서, MUX-DEMUX 유닛들은 ITU H.223 멀티플렉서 프로토콜, 또는 사용자 데이터그램 프로토콜 (UDP) 과 같은 다른 프로토콜들에 따를 수도 있다.
비디오 인코더 (20) 및 비디오 디코더 (30) 는 각각 임의의 다양한 적합한 인코더 회로부, 예컨대 하나 이상의 마이크로프로세서들, 디지털 신호 프로세서들 (DSP들), 주문형 집적 회로들 (ASIC들), 필드 프로그램가능 게이트 어레이들 (FPGA들), 이산 로직, 소프트웨어, 하드웨어, 펌웨어, 또는 이들의 임의의 조합들로서 구현될 수도 있다. 기법들이 부분적으로 소프트웨어로 구현될 때, 디바이스는 그 소프트웨어에 대한 명령들을 비일시적 컴퓨터 판독가능 매체에 저장할 수도 있고, 본 개시물의 기법들을 수행하기 위해 하나 이상의 프로세서들을 사용하여 하드웨어에서 그 명령들을 실행할 수도 있다. 비디오 인코더 (20) 및 비디오 디코더 (30) 의 각각은 하나 이상의 인코더들 또는 디코더들에 포함될 수도 있고, 이들 중 어느 하나는 결합된 인코더/디코더의 부분으로서 각각의 디바이스에 통합될 수도 있다.
비디오 코딩 프로세스
간략히 전술된 바와 같이, 비디오 인코더 (20) 는 비디오 데이터를 인코딩한다. 비디오 데이터는 하나 이상의 픽처들을 포함할 수도 있다. 픽처들의 각각은 비디오의 부분을 형성하는 정지 이미지이다. 일부 경우들에서, 픽처는 비디오 "프레임" 으로 지칭될 수도 있다. 비디오 인코더 (20) 가 비디오 데이터를 인코딩할 때, 비디오 인코더 (20) 는 비트스트림을 생성할 수도 있다. 비트스트림은 비디오 데이터의 코딩된 표현을 형성하는 비트들의 시퀀스를 포함할 수도 있다. 비트스트림은 코딩된 픽처들 및 연관된 데이터를 포함할 수도 있다. 코딩된 픽처는 픽처의 코딩된 표현이다.
비트스트림을 생성하기 위하여, 비디오 인코더 (20) 는 비디오 데이터에서 각 픽처에 대해 인코딩 동작들을 수행할 수도 있다. 비디오 인코더 (20) 가 픽처들에 대해 인코딩 동작들을 수행할 때, 비디오 인코더 (20) 는 일련의 코딩된 픽처들 및 연관된 데이터를 생성할 수도 있다. 연관된 데이터는 비디오 파라미터 세트 (VPS), 시퀀스 파라미터 세트 (SPS), 픽처 파라미터 세트 (PPS), 적응 파라미터 세트 (APS), 및 다른 신택스 구조들을 포함할 수도 있다. SPS 는 0 (zero) 이상의 시퀀스들의 픽처들에 적용가능한 파라미터들을 포함할 수도 있다. PPS 는 0 이상의 픽처들에 적용가능한 파라미터들을 포함할 수도 있다. APS 는 0 이상의 픽처들에 적용가능한 파라미터들을 포함할 수도 있다. APS 에서의 파라미터들은 PPS 에서의 파라미터들보다 더 변하기 쉬운 파라미터들일 수도 있다.
코딩된 픽처를 생성하기 위하여, 비디오 인코더 (20) 는 동일한 사이즈의 비디오 블록들로 픽처를 파티셔닝할 수도 있다. 비디오 블록은 샘플들의 2차원 어레이일 수도 있다. 비디오 블록의 각각은 트리블록과 연관된다. 일부 경우들에서, 픽처는 최대 코딩 유닛 (LCU) 으로서 지칭될 수도 있다. HEVC 의 트리블록들은 넓게, H.264/AVC 와 같은 이전 표준들의 매크로블록들에 유사할 수도 있다. 하지만, 트리블록이 특정 사이즈로 반드시 한정되는 것은 아니고 하나 이상의 코딩 유닛들 (CU) 들을 포함할 수도 있다. 비디오 인코더 (20) 는, 쿼드트리 파티셔닝을 사용하여 트리블록들의 비디오 블록들을 CU 들과 연관된 비디오 블록들로 파티셔닝할 수도 있으며, 이런 이유로 명칭 "트리블록들" 이다.
일부 예들에서, 비디오 인코더 (20) 는 복수의 슬라이스들로 픽처를 파티셔닝할 수도 있다. 슬라이스들의 각각은 정수 개의 CU들을 포함할 수도 있다. 일부 경우들에서, 슬라이스는 정수 개의 트리블록들을 포함한다. 다른 경우들에서, 슬라이스의 경계는 트리블록 내에 있을 수도 있다.
픽처에 대해 인코딩 동작을 수행하는 부분으로서, 비디오 인코더 (20) 는 픽처의 각각의 슬라이스에 대해 인코딩 동작들을 수행할 수도 있다. 비디오 인코더 (20) 가 슬라이스에 대해 인코딩 동작을 수행할 때, 비디오 인코더 (20) 는 슬라이스와 연관된 인코딩된 데이터를 생성할 수도 있다. 슬라이스와 연관된 인코딩된 데이터는 “코딩된 슬라이스”로 지칭될 수도 있다.
코딩된 슬라이스를 생성하기 위하여, 비디오 인코더 (20) 는 슬라이스에서 각 트리블록에 대해 인코딩 동작들을 수행할 수도 있다. 비디오 인코더 (20) 가 트리블록에 대해 인코딩 동작을 수행할 때, 비디오 인코더 (20) 는 코딩된 트리블록을 생성할 수도 있다. 코딩된 트리블록은 트리블록의 인코딩된 버전을 나타내는 데이터를 포함할 수도 있다.
비디오 인코더 (20) 가 코딩된 슬라이스를 생성할 때, 비디오 인코더 (20) 는 래스터 스캔 순서에 따라 슬라이스에서 트리블록들에 대해 인코딩 동작들을 수행 (예를 들어, 인코딩) 할 수도 있다. 예를 들어, 비디오 인코더 (20) 는 슬라이스에서 트리블록들의 최상단 행을 가로질러 좌에서 우로, 그 다음으로 트리블록들의 다음 아래 행을 가로질러 좌에서 우로 진행하는 등의 순서로, 비디오 인코더 (20) 가 슬라이스에서 트리블록들의 각각을 인코딩할 때까지, 슬라이스의 트리블록들을 인코딩할 수도 있다.
래스터 스캔 순서에 따라 트리블록들을 인코딩한 결과로서, 소정 트리블록의 위와 좌측의 트리블록들이 인코딩되었을 수도 있지만, 소정 트리블록의 아래와 우측의 트리블록들은 아직 인코딩되지 않았다. 결과적으로, 비디오 인코더 (20) 는, 소정 트리블록을 인코딩할 때, 소정 트리블록의 위와 좌측의 트리블록들을 인코딩하는 것에 의해 생성된 정보에 액세스 가능할 수도 있다. 하지만, 비디오 인코더 (20) 는, 소정 트리블록을 인코딩할 때, 소정 트리블록의 아래와 우측의 트리블록들을 인코딩하는 것에 의해 생성된 정보에 액세스 불가능할 수도 있다.
코딩된 트리블록을 생성하기 위하여, 비디오 인코더 (20) 는 점진적으로 더 작은 비디오 블록들로 비디오 블록을 분할하기 위하여 트리블록의 비디오 블록에 대해 쿼드트리 파티셔닝을 회귀적으로 수행할 수도 있다. 더 작은 비디오 블록의 각각은 상이한 CU 와 연관될 수도 있다. 예를 들어, 비디오 인코더 (20) 는 트리블록의 비디오 블록을 4개의 동일한 사이즈의 서브블록들로 파티셔닝하거나, 서브블록들 중의 하나 이상을 4개의 동일한 사이즈의 서브서브블록들로 파티셔닝하는 등을 할 수도 있다. 파티셔닝된 CU 는 비디오 블록이 다른 CU 들과 연관된 비디오 블록들로 파티셔닝되는 CU 일 수도 있다. 비파티셔닝된 CU 는 비디오 블록이 다른 CU 들과 연관된 비디오 블록들로 파티셔닝되지 않는 CU 일 수도 있다.
비트스트림에서 하나 이상의 신택스 엘리먼트들은 비디오 인코더 (20) 가 트리블록의 비디오 블록을 파티셔닝할 수도 있는 최대 횟 수를 표시할 수도 있다. CU 의 비디오 블록은 형상이 정사각형일 수도 있다. CU 의 비디오 블록의 사이즈(예를 들어, CU 의 사이즈) 는 8x8 픽셀들로부터 최대 64x64 픽셀들 이상을 갖는 트리블록의 비디오 블록의 사이즈 (예를 들어, 트리 블록의 사이즈) 에 이르기까지의 범위일 수도 있다.
비디오 인코더 (20) 는 z-스캔 순서에 따라 트리블록의 각각의 CU 에 대해 인코딩 동작들을 수행 (예를 들어, 인코딩) 할 수도 있다. 즉, 비디오 인코더 (20) 는 상단 좌측 CU, 상단 우측 CU, 하단 좌측 CU, 그리고 다음으로 하단 우측 CU 를, 그 순서로 인코딩할 수도 있다. 비디오 인코더 (20) 가, 파티셔닝된 CU 에 대해 인코딩 동작들을 수행할 때, 비디오 인코더 (20) 는 z-스캔 순서에 따라 파티셔닝된 CU 의 비디오 블록의 서브블록들과 연관된 CU 들을 인코딩할 수도 있다. 다른 말로, 비디오 인코더 (20) 는, 상단 좌측 서브블록과 연관된 CU, 상단 우측 서브블록과 연관된 CU, 하단 좌측 서브블록과 연관된 CU, 및 다음으로 하단 우측 서브블록과 연관된 CU 를, 그 순서로 인코딩할 수도 있다.
z-스캔 순서에 따라 트리블록의 CU 들을 인코딩하는 결과로서, 소정 CU 의 상부, 상부 좌측, 상부 우측, 좌측, 및 하부 좌측 CU 들이 인코딩되었을 수도 있다. 소정 CU 의 우하측 CU 들은 아직 인코딩되지 않았다. 결과적으로, 비디오 인코더 (20) 는, 소정 CU 를 인코딩할 때, 소정 CU 에 이웃하는 일부 CU들을 인코딩하는 것에 의해 생성된 정보에 액세스 가능할 수도 있다. 하지만, 비디오 인코더 (20) 는, 소정 CU 를 인코딩할 때, 소정 CU 에 이웃하는 다른 CU들을 인코딩하는 것에 의해 생성된 정보에 액세스 불가능할 수도 있다.
비디오 인코더 (20) 가 비파티셔닝된 CU 를 인코딩할 때, 비디오 인코더 (20) 는 CU 에 대해 하나 이상의 예측 유닛들 (PU) 을 생성할 수도 있다. CU 의 PU 들의 각각은 CU 의 비디오 블록 내의 상이한 비디오 블록과 연관될 수도 있다. 비디오 인코더 (20) 는 CU 의 각각의 PU 에 대해 예측된 비디오 블록을 생성할 수도 있다. PU 의 예측된 비디오 블록은 샘플들의 블록일 수도 있다. 비디오 인코더 (20) 는 PU 를 위한 예측된 비디오 블록을 생성하는데 인트라 예측 또는 인터 예측을 사용할 수도 있다.
비디오 인코더 (20) 가 PU 의 예측된 비디오 블록을 생성하기 위해 인트라 예측을 사용할 때, 비디오 인코더 (20) 는 PU 와 연관된 픽처의 디코딩된 샘플들에 기초하여 PU 의 예측된 비디오 블록을 생성할 수도 있다. 비디오 인코더 (20) 가 CU 의 PU 들의 예측된 비디오 블록들을 생성하는데 인트라 예측을 사용하는 경우, CU 는 인트라 예측된 CU 이다. 비디오 인코더 (20) 가 PU 의 예측된 비디오 블록을 생성하기 위해 인터 예측을 사용할 때, 비디오 인코더 (20) 는 PU 와 연관된 픽처 외의 하나 이상의 픽처들의 디코딩된 샘플들에 기초하여 PU 의 예측된 비디오 블록을 생성할 수도 있다. 비디오 인코더 (20) 가 CU 의 PU 들의 예측된 비디오 블록들을 생성하는데 인터 예측을 사용하는 경우, CU 는 인터 예측된 CU 이다.
게다가, 비디오 인코더 (20) 가 PU 를 위한 예측된 비디오 블록을 생성하는데 인터 예측을 사용할 때, 비디오 인코더 (20) 는 PU 에 대한 모션 정보를 생성할 수도 있다. PU 에 대한 모션 정보는 PU 의 하나 이상의 레퍼런스 블록들을 표시할 수도 있다. PU 의 각각의 레퍼런스 블록은 레퍼런스 픽처 내의 비디오 블록일 수도 있다. 레퍼런스 픽처는 PU 와 연관된 픽처 외의 픽처일 수도 있다. 일부 경우들에서, PU 의 레퍼런스 블록은 또한 PU 의 "레퍼런스 샘플" 로 지칭될 수도 있다. 비디오 인코더 (20) 는 PU 의 레퍼런스 블록들에 기초하여 PU 에 대한 예측된 비디오 블록을 생성할 수도 있다.
비디오 인코더 (20) 가 CU 의 하나 이상의 PU 들에 대해 예측된 비디오 블록들을 생성한 후에, 비디오 인코더 (20) 는 CU 의 PU 들에 대해 예측된 비디오 블록들에 기초하여 CU 에 대해 잔차 데이터를 생성할 수도 있다. CU 에 대한 잔차 데이터는 CU 의 PU 들에 대해 예측된 비디오 블록들과 CU 의 원래 비디오 블록에 있는 샘플들 사이의 차이를 표시할 수도 있다.
게다가, 비파티셔닝된 CU 에 대한 인코딩 동작을 수행하는 부분으로서, 비디오 인코더 (20) 는 CU 의 변환 유닛들 (TU) 과 연관된 잔차 데이터의 하나 이상의 블록들 (예를 들어, 잔차 비디오 블록들) 로 CU 의 잔차 데이터를 파티셔닝하기 위하여 CU 의 잔차 데이터에 대해 회귀적 쿼드트리 파티셔닝을 수행할 수도 있다. CU 의 각각의 TU 는 상이한 잔차 비디오 블록과 연관될 수도 있다.
비디오 인코더 (20) 는 TU 들과 연관된 변환 계수 블록들 (예를 들어, 변환 계수들의 블록들) 을 생성하기 위하여 TU 들과 연관된 잔차 비디오 블록들에 하나 이상의 변환 (transform) 들을 적용할 수도 있다. 개념적으로, 변환 계수 블록은 변환 계수들의 2차원 (2D) 매트릭스일 수도 있다.
변환 계수 블록을 생성한 후에, 비디오 인코더 (20) 는 변환 계수 블록에 대해 양자화 프로세스를 수행할 수도 있다. 일반적으로 양자화는, 변환 계수들이 양자화되어 그 변환 계수들을 나타내는데 사용된 데이터의 양을 감소시킬 수 있으며, 추가 압축을 제공하는 프로세스를 지칭한다. 양자화 프로세스는 변환 계수들의 일부 또는 전부와 연관된 비트 깊이를 감소시킬 수도 있다. 예를 들면, n-비트 변환 계수는 양자화 동안 m-비트 변환 계수로 절사 (round down) 될 수도 있고, 여기서 n 은 m 보다 더 크다.
비디오 인코더 (20) 는 양자화 파라미터 (QP) 값과 각각의 CU 를 연관시킬 수도 있다. CU 와 연관된 QP 값은 CU 와 연관된 변환 계수 블록들을 비디오 인코더 (20) 가 어떻게 양자화하는지를 결정할 수도 있다. 비디오 인코더 (20) 는 CU 와 연관된 QP 값을 조정함으로써 CU 와 연관된 변환 계수 블록들에 적용된 양자화의 정도를 조정할 수도 있다.
비디오 인코더 (20) 가 변환 계수 블록을 양자화한 후에, 비디오 인코더 (20) 는 양자화된 변환 계수 블록에서 변환 계수들을 나타내는 신택스 엘리먼트들의 세트들을 생성할 수도 있다. 비디오 인코더 (20) 는, 이들 신택스 엘리먼트들 중의 일부에 대해, CABAC (Context Adaptive Binary Arithmetic Coding) 동작들과 같은 엔트로피 인코딩 동작들을 적용할 수도 있다. CAVLC (context-adaptive variable-length coding), PIPE (probability interval partitioning entropy) 코딩 또는 다른 이진 산술 코딩과 같은 다른 엔트로피 코딩 기법들이 또한 사용될 수 있다.
비디오 인코더 (20) 에 의해 생성된 비트스트림은 일련의 NAL (Network Abstraction Layer) 유닛들을 포함할 수도 있다. NAL 유닛들의 각각은, NAL 유닛에 데이터의 유형 및 그 데이터를 포함하는 바이트들의 표시를 포함하는 신택스 구조일 수도 있다. 예를 들어, NAL 유닛은 비디오 파라미터 세트, 시퀀스 파라미터 세트, 픽처 파라미터 세트, 코딩된 슬라이스, SEI (informationSupplemental Enhancement Information), 액세스 유닛 디리미터 (delimiter) 를 표시하는 데이터, 필러 데이터, 또는 다른 유형의 데이터를 포함할 수도 있다. NAL 유닛에서 데이터는 다양한 신택스 구조들을 포함할 수도 있다.
비디오 디코더 (30) 는 비디오 인코더 (20) 에 의해 생성된 비트스트림을 수신할 수도 있다. 비트스트림은 비디오 인코더 (20) 에 의해 인코딩된 비디오 데이터의 코딩된 표현을 포함할 수도 있다. 비디오 디코더 (30) 가 비트스트림을 수신할 때, 비디오 디코더 (30) 는 비트스트림에 대해 파싱 동작 (parsing operation) 을 수행할 수도 있다. 비디오 디코더 (30) 가 파싱 동작을 수행할 때, 비디오 디코더 (30) 는 비트스트림으로부터 신택스 엘리먼트들을 추출할 수도 있다. 비디오 디코더 (30) 는 비트스트림으로부터 추출된 신택스 엘리먼트들에 기초하여 비디오 데이터의 픽처들을 재구성할 수도 있다. 신택스 엘리먼트들에 기초하여 비디오 데이터를 재구성하기 위한 프로세스는 일반적으로, 신택스 엘리먼트들을 생성하기 위하여 비디오 인코더 (20) 에 의해 수행되는 프로세스에 상반될 수도 있다.
비디오 디코더 (30) 가 CU 와 연관된 신택스 엘리먼트들을 추출한 후에, 비디오 디코더 (30) 는 신택스 엘리먼트들에 기초하여 CU 의 PU 들에 대해 예측된 비디오 블록들을 생성할 수도 있다. 또한, 비디오 디코더 (30) 는 CU 의 TU 들과 연관된 변환 계수 블록들을 역 양자화할 수도 있다. 비디오 디코더 (30) 는 CU 의 TU 들과 연관된 잔차 비디오 블록들을 재구성하기 위하여 변환 계수 블록들에 대해 역 변환들을 수행할 수도 있다. 예측된 비디오 블록들을 생성하고 잔차 비디오 블록들을 재구성한 후에, 비디오 디코더 (30) 는 예측된 비디오 블록들 및 잔차 비디오 블록들에 기초하여 CU 의 비디오 블록을 재구성할 수도 있다. 이런 식으로, 비디오 디코더 (30) 는 비트스트림에서 신택스 엘리먼트들에 기초하여 CU 들의 비디오 블록들을 재구성할 수도 있다.
비디오 인코더
도 2a 는 본 개시물에 기재된 양태들에 따른 기법들을 구현할 수도 있는 비디오 인코더 (20) 의 일 예를 도시하는 블록 다이어그램이다. 비디오 인코더 (20) 는, 예컨대 HEVC 에 대해 비디오 비트스트림의 단일 계층을 프로세싱하도록 구성될 수도 있다. 게다가, 비디오 인코더 (20) 는 본 개시물의 기법들 중 어느 것 또는 전부를 수행하도록 구성될 수도 있다. 일부 예들에서, 본 개시물에 기재된 기법들은 비디오 인코더 (20) 의 다양한 컴포넌트들 중에서 공유될 수도 있다. 일부 예들에서, 부가적으로 또는 대안으로, 프로세서 (미도시) 는 본 개시물에 기재된 기법들 중 어느 것 또는 전부를 수행하도록 구성될 수도 있다.
설명의 목적을 위해, 본 개시물은 HEVC 코딩의 콘텍스트에서 비디오 인코더 (20) 를 기재한다. 하지만, 본 개시물의 기법들은 다른 코딩 표준들 또는 방법들에 적용가능할 수도 있다. 도 2a 에 도시된 예는 코덱의 단일 계층에 대한 것이다. 하지만, 도 2b 에 관하여 더 기재될 바와 같이, 비디오 인코더 (20) 의 일부 또는 전부는 멀티 계층 코덱의 프로세싱을 위해 듀플리케이트될 수도 있다.
비디오 인코더 (20) 는 비디오 슬라이스들 내에서 비디오 블록들의 인트라 및 인터 코딩을 수행할 수도 있다. 인트라 코딩은 주어진 비디오 프레임 또는 픽처 내의 비디오에서 공간적 리던던시를 감소 또는 제거하기 위해 공간적 예측에 의존한다. 인터 코딩은 비디오 시퀀스의 인접한 프레임들 또는 픽처들 내의 비디오에서 시간적 리던던시를 감소 또는 제거하기 위해 시간적 예측에 의존한다. 인트라 모드 (I 모드) 는 임의의 몇몇 공간 기반 코딩 모드들을 지칭할 수도 있다. 인터 모드들, 예컨대 일 방향 예측 (P 모드) 또는 양 방향 예측 (B 모드) 는 임의의 몇몇 시간 기반 코딩 모드들을 지칭할 수도 있다.
도 2a 의 예에서, 비디오 인코더 (20) 는 복수의 기능 컴포넌트들을 포함한다. 비디오 인코더 (20) 의 기능 컴포넌트들은 예측 프로세싱 유닛 (100), 잔차 생성 유닛 (102), 변환 프로세싱 유닛 (104), 양자화 유닛 (106), 역 양자화 유닛 (108), 역 변환 유닛 (110), 재구성 유닛 (112), 필터 유닛 (113), 디코딩된 픽처 버퍼 (114), 및 엔트로피 인코딩 유닛 (116) 을 포함한다. 예측 프로세싱 유닛 (100) 은 인터 예측 유닛 (121), 모션 추정 유닛 (122), 모션 보상 유닛 (124), 인트라 예측 유닛 (126) 및 계층간 예측 유닛 (128) 을 포함한다. 다른 예들에서, 비디오 인코더 (20) 는, 더 많거나, 더 적거나, 또는 상이한 기능 컴포넌트들을 포함할 수도 있다. 게다가, 모션 추정 유닛 (122) 및 모션 보상 유닛 (124) 은 고도로 통합될 수도 있지만, 설명의 목적을 위해 따로 도 2a의 예에 나타냈다.
비디오 인코더 (20) 는 비디오 데이터를 수신할 수도 있다. 비디오 인코더 (20) 는 다양한 소스들로부터 비디오 데이터를 수신할 수도 있다. 예를 들어, 비디오 인코더 (20) 는 (예를 들어, 도 1a 또는 도 1b 에 도시된) 비디오 소스 (18) 또는 또 다른 소스로부터 비디오 데이터를 수신할 수도 있다. 비디오 데이터는 일련의 픽처들을 나타낼 수도 있다. 비디오 데이터를 인코딩하기 위하여, 비디오 인코더 (20) 는 픽처들의 각각에 대해 인코딩 동작을 수행할 수도 있다. 픽처에 대해 인코딩 동작을 수행하는 부분으로서, 비디오 인코더 (20) 는 픽처의 각각의 슬라이스에 대해 인코딩 동작들을 수행할 수도 있다. 슬라이스에 대해 인코딩 동작을 수행하는 부분으로서, 비디오 인코더 (20) 는 슬라이스에서의 트리블록들에 대해 인코딩 동작들을 수행할 수도 있다.
트리블록에 대해 인코딩 동작을 수행하는 부분으로서, 예측 프로세싱 유닛 (100) 은 점진적으로 더 작은 비디오 블록들로 비디오 블록을 분할하기 위하여 트리블록의 비디오 블록에 대해 쿼드트리 파티셔닝을 수행할 수도 있다. 더 작은 비디오 블록의 각각은 상이한 CU 와 연관될 수도 있다. 예를 들어, 예측 프로세싱 유닛 (100) 은 트리블록의 비디오 블록을 4개의 동일한 사이즈의 서브블록들로 파티셔닝하거나, 서브블록들 중의 하나 이상을 4개의 동일한 사이즈의 서브서브블록들로 파티셔닝할 수도 있는 등이다.
CU 들과 연관된 비디오 블록들의 사이즈는 8x8 샘플들로부터, 최대 64x64 샘플들 이상을 갖는 트리블록의 사이즈에 이르기까지의 범위일 수도 있다. 본 개시에서, “NxN” 그리고 “N 바이 N” 은, 수직 및 수평 치수들의 측면에서 비디오 블록의 샘플 치수들, 예를 들면, 16x16 샘플들 또는 16 바이 16 샘플들을 지칭하는데 상호교환가능하게 사용될 수도 있다. 일반적으로, 16x16 비디오 블록은, 수직 방향에서 16개 샘플들 (y = 16) 그리고 수평 방향에서 16개 샘플들 (x = 16) 을 갖는다. 마찬가지로, NxN 블록은 일반적으로 수직 방향에서 N개 샘플들 그리고 수평 방향에서 N개 샘플들을 갖고, 여기서 N 은 음이 아닌 정수 값을 나타낸다.
게다가, 트리블록에 대해 인코딩 동작을 수행하는 부분으로서, 예측 프로세싱 유닛 (100) 은 트리블록에 대한 계층적 쿼드트리 데이터 구조를 생성할 수도 있다. 예를 들어, 트리블록은 쿼드트리 데이터 구조의 루트 노드에 대응할 수도 있다. 예측 프로세싱 유닛 (100) 이 트리블록의 비디오 블록을 4개의 서브블록들로 파티셔닝하는 경우, 루트 노드는 쿼드트리 데이터 구조에서 4개의 자식 노드들을 갖는다. 자식 노드들의 각각은 서브블록들 중의 하나와 연관된 CU 에 대응한다. 예측 프로세싱 유닛 (100) 이 서브블록들 중의 하나를 4개의 서브서브블록들로 파티셔닝하는 경우, 서브블록과 연관된 CU 에 대응하는 노드는 4개의 자식 노드들을 가질 수도 있고, 이들의 각각은 서브서브블록들 중의 하나와 연관된 CU에 대응한다.
쿼드트리 데이터 구조의 각각의 노드는, 대응하는 트리블록 또는 CU 를 위한 신택스 데이터 (예를 들어, 신택스 엘리먼트들) 을 포함할 수도 있다. 예를 들어, 쿼드트리에서의 노드는, 그 노드에 대응하는 CU 의 비디오 블록이 4개의 서브 블록들로 파티셔닝 (예를 들어, 스플리팅) 되는지 여부를 표시하는, 스플릿 플래그 (split flag) 를 포함할 수도 있다. CU 를 위한 신택스 엘리먼트들이 회귀적으로 정의될 수도 있고, CU 의 비디오 블록이 서브블록들로 스플리팅되는지 여부에 의존할 수도 있다. 비디오 블록이 파티셔닝되지 않은 CU 는 쿼드트리 데이터 구조에서 리프 노드에 대응할 수도 있다. 코딩된 트리블록은 대응하는 트리블록에 대해 쿼드트리 데이터 구조에 기초한 데이터를 포함할 수도 있다.
비디오 인코더 (20) 는 트리블록의 각각의 비파티셔닝된 CU 에 대해 인코딩 동작들을 수행할 수도 있다. 비디오 인코더 (20) 가 비파티셔닝된 CU 에 대해 인코딩 동작을 수행할 때, 비디오 인코더 (20) 는 비파티셔닝된 CU 의 인코딩된 표현을 나타내는 데이터를 생성한다.
CU 에 대해 인코딩 동작을 수행하는 부분으로서, 예측 프로세싱 유닛 (100) 은 CU 의 하나 이상의 PU 들 중에서 CU 의 비디오 블록을 파티셔닝할 수도 있다. 비디오 인코더 (20) 및 비디오 디코더 (30) 는 다양한 PU 사이즈를 지원할 수도 있다. 특정 CU 의 사이즈가 2Nx2N 이라고 가정하면, 비디오 인코더 (20) 및 비디오 디코더 (30) 는 2Nx2N 또는 NxN 의 PU 사이즈들, 그리고 2Nx2N, 2NxN, Nx2N, NxN, 2NxnU, nLx2N, nRx2N 또는 유사한 것의 대칭적 PU 사이즈에서의 인터 예측을 지원할 수도 있다. 비디오 인코더 (20) 및 비디오 디코더 (30) 는 또한, 2NxnU, 2NxnD, nLx2N, 및 nRx2N 의 PU 사이즈에 대한 비대칭적 파티셔닝을 지원할 수도 있다. 일부 예들에서, 예측 프로세싱 유닛 (100) 은 직각으로 CU 의 비디오 블록의 측면들에 닿지 않는 경계를 따라 CU 의 PU 들 중에서 CU 의 비디오 블록을 파티셔닝하기 위하여 지오메트릭 파티셔닝을 수행할 수도 있다.
인터 예측 유닛 (121) 은 CU 의 각각의 PU 에 대해 인터 예측을 수행할 수도 있다. 인터 예측은 시간적 압축을 제공할 수도 있다. PU 에 대해 인터 예측을 수행하기 위하여, 모션 추정 유닛 (122) 은 PU 를 위한 모션 정보를 생성할 수도 있다. 모션 보상 유닛 (124) 은 (예를 들어, 레퍼런스 픽처들인) CU 와 연관된 픽처 외의 픽처들의 모션 정보 및 디코딩된 샘플들에 기초하여 PU 를 위한 예측된 비디오 블록을 생성할 수도 있다. 본 개시에서, 모션 보상 유닛 (124) 에 의해 생성된 예측된 비디오 블록은 인터 예측된 비디오 블록으로 지칭될 수도 있다.
슬라이스들은 I 슬라이스들, P 슬라이스들, 또는 B 슬라이스들일 수도 있다. 모션 추정 유닛 (122) 및 모션 보상 유닛 (124) 은 PU 가 I 슬라이스, P 슬라이스, 또는 B 슬라이스에 있는지 여부에 따라 CU 의 PU 에 대해 상이한 동작들을 수행할 수도 있다. I 슬라이스에서, 모든 PU 들이 인트라 예측된다. 그러므로, PU 가 I 슬라이스에 있는 경우, 모션 추정 유닛 (122) 및 모션 보상 유닛 (124) 은 PU 에 대해 인터 예측을 수행하지 않는다.
PU 가 P 슬라이스에 있는 경우, PU 를 포함하는 픽처는 "리스트 0" 으로 지칭된 레퍼런스 픽처들의 리스트와 연관된다. 리스트 0 에서의 각각의 레퍼런스 픽처들은 다른 픽처들의 인터 예측에 사용될 수도 있는 샘플들을 포함한다. 모션 보상 유닛 (122) 이 P 슬라이스에서 PU 에 대한 모션 추정 동작을 수행할 때, 모션 추정 유닛 (122) 은 PU 에 대한 레퍼런스 블록을 위해 리스트 0 에서 레퍼런스 픽처들을 검색할 수도 있다. PU 의 레퍼런스 블록은, PU 의 비디오 블록에서의 샘플들에 가장 가깝게 대응하는, 샘플들의 세트, 예를 들어, 샘플들의 블록일 수도 있다. 모션 추정 유닛 (122) 은 레퍼런스 픽처에서의 샘플들의 세트가 PU 의 비디오 블록에서의 샘플들에 얼마나 가깝게 대응하는지를 결정하기 위해 다양한 메트릭들을 사용할 수도 있다. 예를 들어, 모션 추정 유닛 (122) 은, SAD (sum of absolute difference), SSD (sum of square difference), 또는 다른 차이 메트릭들에 의해, 레퍼런스 픽처에서의 샘플들의 세트가 PU 의 비디오 블록에서의 샘플들에 얼마나 가깝게 대응하는지를 결정할 수도 있다.
P 슬라이스에서의 PU 의 레퍼런스 블록을 식별한 후에, 모션 추정 유닛 (122) 은 레퍼런스 블록을 포함하는 리스트 0 에서의 레퍼런스 픽처를 표시하는 레퍼런스 인덱스 (reference index) 및 PU 와 레퍼런스 블록 사이의 공간적 변위 (spatial displacement) 를 표시하는 모션 벡터를 생성할 수도 있다. 다양한 예들에서, 모션 추정 유닛 (122) 은 다양한 정도의 정밀도로 모션 벡터들을 생성할 수도 있다. 예를 들어, 모션 추정 유닛 (122) 은 1/4 샘플 정밀도, 1/8 샘플 정밀도, 또는 다른 분수의 샘플 정밀도에서 모션 벡터들을 생성할 수도 있다. 분수 샘플 정밀도의 경우에, 레퍼런스 블록 값들은 레퍼런스 픽처에서의 정수 위치 샘플 값들로부터 보간될 수도 있다. 모션 추정 유닛 (122) 은 PU 의 모션 정보로서 레퍼런스 인덱스 및 모션 벡터를 출력할 수도 있다. 모션 보상 유닛 (124) 은 PU 의 모션 정보에 의해 식별되는 레퍼런스 블록에 기초하여 PU 의 예측된 비디오 블록을 생성할 수도 있다.
PU 가 B 슬라이스에 있는 경우, PU 를 포함하는 픽처는 "리스트 0" 및 "리스트 1" 로 지칭되는, 레퍼런스 픽처들의 2개 리스트와 연관될 수도 있다. 일부 예들에서, B 슬라이스를 포함하는 픽처는 리스트 0 및 리스트 1의 조합 (combination) 인 리스트 조합과 연관될 수도 있다.
게다가, PU 가 B 슬라이스에 있는 경우, 모션 추정 유닛 (122) 은 PU 에 대해 단방향 예측 또는 양방향 예측을 수행할 수도 있다. 모션 추정 유닛 (122) 이 PU 에 대해 단방향 예측을 수행할 때, 모션 추정 유닛 (122) 은 PU 에 대한 레퍼런스 블록을 위해 리스트 0 또는 리스트 1의 레퍼런스 픽처들을 검색할 수도 있다. 그 후 모션 추정 유닛 (122) 은 레퍼런스 블록을 포함하는 리스트 0 또는 리스트 1 에서의 레퍼런스 픽처를 표시하는 레퍼런스 인덱스 및 PU 와 레퍼런스 블록 사이의 공간적 변위를 표시하는 모션 벡터를 생성할 수도 있다. 모션 추정 유닛 (122) 은 PU 의 모션 정보로서 레퍼런스 인덱스, 예측 방향 표시자, 및 모션 벡터를 출력할 수도 있다. 예측 방향 표시자는 레퍼런스 인덱스가 리스트 0 또는 리스트 1에서 레퍼런스 픽처를 표시하는지 여부를 표시할 수도 있다. 모션 보상 유닛 (124) 은 PU 의 모션 정보에 의해 표시된 레퍼런스 블록에 기초하여 PU 의 예측된 비디오 블록을 생성할 수도 있다.
모션 추정 유닛 (122) 이 PU 를 위해 양방향 예측을 수행할 때, 모션 추정 유닛 (122) 은 PU 를 위한 레퍼런스 블록을 위해 리스트 0 에서 레퍼런스 픽처들을 검색할 수도 있고 또한 PU 를 위한 또 다른 레퍼런스 블록을 위해 리스트 1 에서 레퍼런스 픽처들을 검색할 수도 있다. 그 후 모션 추정 유닛 (122) 은 레퍼런스 블록들을 포함하는 리스트 0 또는 리스트 1 에서의 레퍼런스 픽처들을 표시하는 레퍼런스 인덱스들 및 PU 와 레퍼런스 블록들 사이의 공간적 변위를 표시하는 모션 벡터를 생성할 수도 있다. 모션 추정 유닛 (122) 은 PU 의 모션 정보로서 PU 의 레퍼런스 인덱스들 및 모션 벡터들을 출력할 수도 있다. 모션 보상 유닛 (124) 은 PU 의 모션 정보에 의해 표시된 레퍼런스 블록들에 기초하여 PU 의 예측된 비디오 블록을 생성할 수도 있다.
일부 예들에서, 모션 추정 유닛 (122) 은 엔트로피 인코딩 유닛 (116) 으로 PU 를 위한 모션 정보의 전체 세트를 출력하지 않는다. 오히려, 모션 추정 유닛 (122) 은 또 다른 PU 의 모션 정보를 참조하여 PU 의 모션 정보를 시그널링할 수도 있다. 예를 들어, 모션 추정 유닛 (122) 은 PU 의 모션 정보가 이웃하는 PU 의 모션 정보에 충분히 유사하다고 결정할 수도 있다. 이 예에서, 모션 추정 유닛 (122) 은, PU 가 이웃하는 PU 와 동일한 모션 정보를 갖는다고 비디오 디코더 (30) 에 표시하는 값을, PU 와 연관된 신택스 구조에서, 표시할 수도 있다. 또 다른 예에서, 모션 추정 유닛 (122) 은, PU 와 연관된 신택스 구조에서, 이웃하는 PU 및 모션 벡터 차이 (MVD) 를 식별할 수도 있다. 모션 벡터 차이는 PU 의 모션 벡터와 표시된 이웃하는 PU 의 모션 벡터 사이의 차이를 표시한다. 비디오 디코더 (30) 는 표시된 이웃하는 PU 의 모션 벡터 및 모션 벡터 차이를 이용하여 PU 의 모션 벡터를 결정할 수도 있다. 제 2 PU 의 모션 정보를 시그널링할 때 제 1 PU 의 모션 정보를 참조함으로써, 비디오 인코더 (20) 는 더 적은 수의 비트들을 이용하여 제 2 PU 의 모션 정보를 시그널링 가능할 수도 있다.
CU 에 대해 인코딩 동작을 수행하는 부분으로서, 인트라 예측 유닛 (126) 은 CU 의 PU 들에 대해 인트라 예측을 수행할 수도 있다. 인트라 예측은 공간적 압축을 제공할 수도 있다. 인트라 예측 유닛 (126) 이 PU 에 대해 인트라 예측을 수행할 때, 인트라 예측 유닛 (126) 은 동일한 픽처에서 다른 PU 들의 디코딩된 샘플들에 기초하여 PU 를 위한 예측 데이터를 생성할 수도 있다. PU 를 위한 예측 데이터는 예측된 비디오 블록 및 다양한 신택스 엘리먼트들을 포함할 수도 있다. 인트라 예측 유닛 (126) 은 I 슬라이스, P 슬라이스, 및 B 슬라이스에서 PU 들에 대해 인트라 예측을 수행할 수도 있다.
PU 에 대한 인트라 예측을 수행하기 위하여, 인트라 예측 유닛 (126) 은 다수의 인트라 예측 모드들을 이용하여 PU 를 위한 예측 데이터의 다수의 세트들을 생성할 수도 있다. 인트라 예측 유닛 (126) 이 인트라 예측 모드를 이용하여 PU 를 위한 예측 데이터의 세트를 생성할 때, 인트라 예측 유닛 (126) 은 샘플들을 이웃하는 PU 들의 비디오 블록들로부터 PU 의 비디오 블록을 가로질러 인트라 예측 모드와 연관된 방향 및/또는 기울기에서 연장시킬 수도 있다. 이웃하는 PU 들은 PU 의 상부, 상부 우측, 상부 좌측 또는 좌측에 있을 수도 있으며, PU, CU 및 트리블록들에 대해 좌에서 우로, 상단에서 하단으로의 인코딩 순서를 취한다. 인트라 예측 유닛 (126) 은 PU 의 사이즈에 따라, 다양한 수의 인트라 예측 모드들, 예를 들어, 33개 방향 인트라 예측 모드들을 사용할 수도 있다.
예측 프로세싱 유닛 (100) 은, PU 를 위한 모션 보상 유닛 (124) 에 의해 생성된 예측 데이터 또는 PU 를 위한 인트라 예측 유닛 (126) 에 의해 생성된 예측 데이터 중에서 PU 를 위한 예측 데이터를 선택할 수도 있다. 일부 예들에서, 예측 프로세싱 유닛 (100) 은 예측 데이터의 세트들의 레이트/왜곡 메트릭스들에 기초하여 PU 를 위한 예측 데이터를 선택한다.
예측 프로세싱 유닛 (100) 이 인트라 예측 유닛 (126) 에 의해 생성된 예측 데이터를 선택하는 경우, 예측 프로세싱 유닛 (100) 은 PU 들을 위한 예측 데이터를 생성하는데 사용되었던 인트라 예측 모드, 예를 들어, 선택된 인트라 예측 모드를 시그널링할 수도 있다. 예측 프로세싱 유닛 (100) 이 다양한 방식으로 선택된 인트라 예측 모드를 시그널링할 수도 있다. 예를 들어, 선택된 인트라 예측 모드는 이웃하는 PU 의 인트라 예측 모드와 동일할 가능성이 있을 수도 있다. 즉, 이웃하는 PU 의 인트라 예측 모드는 현재 PU 에 대한 최고 확률 모드일 수도 있다. 따라서, 예측 프로세싱 유닛 (100) 은 선택된 인트라 예측 모드가 이웃하는 PU 의 인트라 예측 모드와 동일하다는 것을 표시하기 위한 신택스 엘리먼트를 생성할 수도 있다.
위에 논의된 바와 같이, 비디오 인코더 (20) 는 계층간 예측 유닛 (128) 을 포함할 수도 있다. 계층간 예측 유닛 (128) 은, SHVC 에서 이용가능한 하나 이상의 상이한 계층들 (예를 들어, 기초 또는 레퍼런스 계층) 을 이용하여 현재 블록 (예를 들어, EL 에서의 현재 블록) 을 예측하도록 구성된다. 그러한 예측은 계층간 예측으로 지칭될 수도 있다. 계층간 예측 유닛 (128) 이 계층간 리던던시를 감소시키기 위해 예측 방법들을 이용함으로써, 코딩 효율을 향상시키고 계산상의 리소스 요구들을 감소시킨다. 계층간 예측의 일부 예들은 계층간 인트라 예측, 계층간 모션 예측 및 계층간 잔차 예측을 포함한다. 계층간 인트라 예측은 인핸스먼트 계층에서 현재 블록을 예측하기 위하여 베이스 계층에 함께 위치된 (co-located) 블록들의 재구성을 이용한다. 계층간 모션 예측은 인핸스먼트 계층에서 모션을 예측하기 위하여 베이스 계층의 모션 정보를 이용한다. 계층간 잔차 예측은 인핸스먼트 계층의 잔차를 예측하기 위하여 베이스 계층의 잔차를 이용한다.
예측 프로세싱 유닛 (100) 이 CU 의 PU 를 위한 예측 데이터를 선택한 후에, 잔차 생성 유닛 (102) 은 CU 의 비디오 블록으로부터 CU 의 PU 들의 예측된 비디오 블록들을 (예를 들어, 마이너스 부호로 표시된) 감산하는 것에 의해 CU 를 위한 잔차 데이터를 생성할 수도 있다. CU 의 잔차 데이터는 CU 의 비디오 블록에서 샘플들의 상이한 샘플 컴포넌트들에 대응하는 2D 잔차 비디오 블록들을 포함할 수도 있다. 예를 들어, 잔차 데이터는 CU 의 PU 들의 예측된 비디오 블록들에서의 샘플들의 루미넌스 컴포넌트들과 CU 의 원래 비디오 블록에서의 샘플들의 루미넌스 컴포넌트들 사이의 차이에 대응하는 잔차 비디오 블록을 포함할 수도 있다. 또한, CU 의 잔차 데이터는 CU 의 PU 들의 예측된 비디오 블록들에서의 샘플들의 크로미넌스 컴포넌트들과 CU 의 원래 비디오 블록에서의 샘플들의 크로미넌스 컴포넌트들 사이의 차이에 대응하는 잔차 비디오 블록들을 포함할 수도 있다.
예측 프로세싱 유닛 (100) 은 CU 의 잔차 비디오 블록들을 서브블록들로 파티셔닝하기 위하여 쿼드트리 파티셔닝을 수행할 수도 있다. 각각의 분할되지 않은 잔차 비디오 블록은 CU 의 상이한 TU 와 연관될 수도 있다. CU 의 TU 들과 연관된 잔차 비디오 블록들의 사이즈 및 위치는 CU 의 PU 들과 연관된 비디오 블록들의 사이즈 및 위치에 기초하거나 또는 기초하지 않을 수도 있다. "잔차 쿼드 트리" (RQT) 로 알려진 쿼드트리 구조는 각각의 잔차 비디오 블록들과 연관된 노드들을 포함할 수도 있다. CU 의 TU 들은 RQT 의 리프 노드들에 대응할 수도 있다.
변환 프로세싱 유닛 (104) 은, TU 와 연관된 잔차 비디오 블록에 하나 이상의 변환들을 적용함으로써 CU 의 각각의 TU 에 대해 하나 이상의 변환 계수 블록들을 생성할 수도 있다. 각각의 변환 계수 블록은 변환 계수들의 2D 매트릭스일 수도 있다. 변환 프로세싱 유닛 (104) 은 TU 와 연관된 잔차 비디오 블록에 다양한 변환들을 적용할 수도 있다. 예를 들어, 변환 프로세싱 유닛 (104) 은, 이산 코사인 변환 (DCT), 방향 변환 또는 개념적으로 유사한 변환을 TU 와 연관된 잔차 비디오 블록에 적용할 수도 있다.
변환 프로세싱 유닛 (104) 이 TU 와 연관된 변환 계수 블록을 생성한 후에, 양자화 유닛 (106) 은 변환 계수 블록에서 변환 계수들을 양자화할 수도 있다. 양자화 유닛 (106) 은 CU 와 연관된 QP 값에 기초하여 CU 의 TU 와 연관된 변환 계수 블록을 양자화할 수도 있다.
비디오 인코더 (20) 는 다양한 방식들로 CU 와 QP 값을 연관시킬 수도 있다. 예를 들어, 비디오 인코더 (20) 는 CU 와 연관된 트리블록에 대해 레이트 왜곡 분석을 수행할 수도 있다. 레이트 왜곡 분석에서, 비디오 인코더 (20) 는 트리블록에 대해 인코딩 동작을 여러번 수행함으로써 트리블록의 다중 코딩된 표현들을 생성할 수도 있다. 비디오 인코더 (20) 가 트리블록의 상이한 인코딩된 표현들을 생성할 때, 비디오 인코더 (20) 는 CU 와 상이한 QP 값들을 연관시킬 수도 있다. 비디오 인코더 (20) 는, 가장 낮은 비트레이트 및 왜곡 메트릭을 갖는 트리블록의 코딩된 표현에서 CU 와 소정 QP 값이 연관될 때, 그 소정 QP 값이 CU 와 연관됨을 시그널링할 수도 있다.
역 양자화 유닛 (108) 및 역 변환 유닛 (110) 은 각각 변환 계수 블록에 역 양자화 및 역 변환들을 적용하여, 변환 계수 블록으로부터 잔차 비디오 블록을 재구성할 수도 있다. 재구성 유닛 (112) 은 예측 프로세싱 유닛 (100) 에 의해 생성된 하나 이상의 예측된 비디오 블록들로부터 대응하는 샘플들에 재구성된 잔차 비디오 블록을 가산함으로써, TU 와 연관된 재구성된 비디오 블록을 생성할 수도 있다. 이런 식으로 CU 의 각각의 TU 에 대해 비디오 블록들을 재구성함으로써, 비디오 인코더 (20) 는 CU 의 비디오 블록을 재구성할 수도 있다.
재구성 유닛 (112) 이 CU 의 비디오 블록을 재구성한 후에, 필터 유닛 (113) 은 CU 와 연관된 비디오 블록에서 블록킹 아티팩트들을 감소시키기 위해 디블록킹 동작을 수행할 수도 있다. 하나 이상의 디블록킹 동작들을 수행한 후에, 필터 유닛 (113) 은 디코딩된 픽처 버퍼 (114) 에 CU 의 재구성된 비디오 블록을 저장할 수도 있다. 모션 추정 유닛 (122) 및 모션 보상 유닛 (124) 은 후속 픽처들의 PU 들에 대해 인터 예측을 수행하기 위하여 재구성된 비디오 블록을 포함하는 레퍼런스 픽처를 사용할 수도 있다. 또한, 인트라 예측 유닛 (126) 은 CU 와 동일한 픽처들에 있는 다른 PU 들에 대해 인트라 예측을 수행하기 위하여 디코딩된 픽처 버퍼 (114) 에서 재구성된 비디오 블록들을 사용할 수도 있다.
엔트로피 인코딩 유닛 (116) 은 비디오 인코더 (20) 의 다른 기능 컴포넌트들로부터 데이터를 수신할 수도 있다. 예를 들어, 엔트로피 인코딩 유닛 (116) 은 양자화 유닛 (106) 으로부터 변환 계수 블록들을 수신할 수도 있고 예측 프로세싱 유닛 (100) 으로부터 신택스 엘리먼트들을 수신할 수도 있다. 엔트로피 인코딩 유닛 (116) 이 데이터를 수신할 때, 엔트로피 인코딩 유닛 (116) 은 하나 이상의 엔트로피 인코딩 동작들을 수행하여 엔트로피 인코딩된 데이터를 생성할 수도 있다. 예를 들어, 비디오 인코더 (20) 는 CAVLC 동작, CABAC 동작, V2V (variable-to-variable) 길이 코딩 동작, SBAC (syntax-based context-adaptive binary arithmetic coding) 동작, PIPE (Probability Interval Partitioning Entropy) 코딩 동작, 또는 또 다른 유형의 엔트로피 인코딩 동작을 그 데이터에 대해 수행할 수도 있다. 엔트로피 인코딩 유닛 (116) 은 엔트로피 인코딩된 데이터를 포함하는 비트스트림을 출력할 수도 있다.
데이터에 대해 엔트로피 인코딩 동작을 수행하는 부분으로서, 엔트로피 인코딩 유닛 (116) 은 콘텍스트 모델을 선택할 수도 있다. 엔트로피 인코딩 유닛 (116) 이 CABAC 동작을 수행하는 경우, 콘텍스트 모델은 특정 값들을 갖는 특정 빈들의 확률의 추정치를 표시할 수도 있다. CABAC 의 콘텍스트에서, 용어 "빈" (bin) 이 신택스 엘리먼트의 이진화 버전의 비트를 지칭하는데 사용된다.
멀티 계층 비디오 인코더
도 2b 는 본 개시물에 기재된 양태들에 따른 기법들을 구현할 수도 있는 멀티 계층 비디오 인코더 (23)(또한 비디오 인코더 (23) 로서 간단히 지칭됨) 의 다른 예를 도시하는 블록 다이어그램이다. 비디오 인코더 (23) 는 예컨대, SHVC 및 MV-HEVC 에 대해, 멀티 계층 비디오 프레임을 프로세싱하도록 구성될 수도 있다. 또한, 비디오 인코더 (23) 는 본 개시물의 기법들 중 어느 것 또는 전부를 수행하도록 구성될 수도 있다.
비디오 인코더 (23) 는 비디오 인코더 (20A) 및 비디오 인코더 (20B) 를 포함하며, 그 각각은 비디오 인코더 (20) 와 같이 구성될 수도 있고 비디오 인코더 (20) 에 관한 상술한 기능들을 수행할 수도 있다. 또한, 참조 번호들의 재사용에 의해 나타내는 바와 같이, 비디오 인코더들 (20A 및 20B) 는 비디오 인코더 (20) 로서 시스템들의 적어도 일부 및 서브 시스템들을 포함할 수도 있다. 비디오 인코더 (23) 가 2 개의 비디오 인코더들 (20A 및 20B) 를 포함하는 것으로 도시되지만, 비디오 인코더 (23) 는 그러한 것으로 제한되지 않으며 임의의 수의 비디오 인코더 (20) 계층들을 포함할 수도 있다. 일부 실시형태들에서, 비디오 인코더 (23) 는 액세스 유닛에서의 각각의 픽처 또는 프레임에 대해 비디오 인코더 (20) 를 포함할 수도 있다. 예를 들어, 5 개의 픽처들을 포함하는 액세스 유닛은 5 개의 인코더 계층들을 포함하는 비디오 인코더에 의해 프로세싱되거나 인코딩될 수도 있다. 일부 실시형태들에서, 비디오 인코더 (23) 는 액세스 유닛에서의 프레임들보다 많은 인코더 계층들을 포함할 수도 있다. 일부 그러한 경우들에서, 비디오 인코더 계층들의 일부는 일부 액세스 유닛들을 프로세싱할 때 비활성일 수도 있다.
비디오 인코더들 (20A 및 20B) 에 부가하여, 비디오 인코더 (23) 는 리샘플링 유닛 (90) 을 포함할 수도 있다. 리샘플링 유닛 (90) 은, 일부 경우들에서, 예를 들어 인핸스먼트 계층을 생성하기 위해 수신된 비디오 프레임의 베이스 계층을 업샘플링할 수도 있다. 리샘플링 유닛 (90) 은 프레임의 수신된 베이스 계층과 연관된 특정 정보를 업샘플링하지만 다른 정보는 업샘플링하지 않을 수도 있다. 예를 들어, 리샘플링 유닛 (90) 은 베이스 계층의 픽셀들의 수 또는 공간 사이즈를 업샘플링할 수도 있지만, 슬라이스들의 수 또는 픽처 오더 카운트는 일정하게 유지할 수도 있다. 일부 경우들에서, 리샘플링 유닛 (90) 은 수신된 비디오를 프로세싱하지 않을 수도 있고 및/또는 옵션일 수도 있다. 예를 들어, 일부 경우들에서, 모드 예측 유닛 (100) 이 업샘플링을 수행할 수도 있다. 일부 실시형태들에서, 리샘플링 유닛 (90) 은 래스터 스캔 규칙들 및/또는 슬라이스 경계 규칙들의 세트를 따르기 위해 계층을 업샘플링하고 하나 이상의 슬라이스들을 재조직화, 재정의, 수정 또는 조정하도록 구성된다. 액세스 유닛에서 베이스 계층 또는 하위 계층을 업샘플링하는 것으로 주로 기재되지만, 일부 경우들에서, 리샘플링 유닛 (90) 은 계층을 다운샘플링할 수도 있다. 예를 들어, 비디오의 스트리밍 동안 대역폭이 감소되는 경우, 프레임은 업샘플링되는 대신 다운샘플링될 수도 있다.
리샘플링 유닛 (90) 은 하위 계층 인코더 (예를 들어, 비디오 인코더 (20A)) 의 디코딩된 픽처 버퍼 (114) 로부터 픽처 또는 프레임 (또는 픽처와 연관된 픽처 정보) 를 수신하고 픽처 (또는 수신된 픽처 정보) 를 업샘플링하도록 구성될 수도 있다. 이러한 업샘플링된 픽처는 그 후 하위 계층 인코더와 동일한 액세스 유닛에서 픽처를 인코딩하도록 구성되는 상위 계층 인코더 (예를 들어, 비디오 인코더 (20B)) 의 모드 예측 유닛 (100) 에 제공될 수도 있다. 일부 경우들에서, 상위 계층 인코더는 하위 계층 인코더로부터 제거된 하나의 계층이다. 다른 경우들에서, 도 2b 의 계층 0 비디오 인코더와 계층 1 인코더 사이에 하나 이상의 상위 계층 인코더들이 있을 수도 있다.
일부 경우들에서, 리샘플링 유닛 (90) 은 생략되거나 우회될 수도 있다. 그러한 경우들에서, 비디오 인코더 (20A) 의 디코딩된 픽처 버퍼 (114) 로부터의 픽처는 직접 제공될 수도 있고 또는 적어도 리샘플링 유닛 (90) 에는 제공되지 않으면서, 비디오 인코더 (20B) 의 모드 예측 유닛 (100) 에 제공될 수도 있다. 예를 들어, 비디오 인코더 (20B) 에 제공된 비디오 데이터 및 비디오 인코더 (20A) 의 디코딩된 픽처 버퍼 (114) 로부터의 레퍼런스 픽처가 사이즈 또는 해상도가 동일한 경우, 레퍼런스 픽처는 임의의 리샘플링 없이 비디오 인코더 (20B) 에 제공될 수도 있다.
일부 실시형태들에서, 비디오 인코더 (23) 는 비디오 인코더 (20A) 에 비디오 데이터를 제공하기 전에 다운 샘플링 유닛 (94) 을 사용하여 하위 계층에 제공될 비디오 데이터를 다운샘플링한다. 대안으로, 다운샘플링 유닛 (94) 은 비디오 데이터를 업샘플링하거나 다운샘플링할 수 있는 리샘플링 유닛 (90) 일 수도 있다. 또 다른 실시형태들에서, 다운샘플링 유닛 (94) 은 생략될 수도 있다.
도 2b 에 도시된 바와 같이, 비디오 인코더 (23) 는 멀티플렉서 또는 mux (98) 를 더 포함할 수도 있다. mux (98) 는 비디오 인코더 (23) 로부터 결합된 비트스트림을 출력할 수 있다. 결합된 비트스트림은 비디오 인코더들 (20A 및 20B) 의 각각으로부터 비트스트림을 취하는 것에 의해 생성될 수도 있으며 그 비트스트림의 교번이 주어진 시간에 출력된다. 일부 경우들에서 2 개 (또는 2 개의 비디오 인코더 계층들보다 많은 경우들에서 그 이상) 의 비트스트림들로부터의 비트들은 한번에 하나의 비트씩 교번될 수도 있는 한편, 많은 경우들에서, 비트스트림들은 상이하게 결합된다. 예를 들어, 출력 비트스트림은 한번에 하나의 블록씩 선택된 비트스트림을 교번하는 것에 의해 생성될 수도 있다. 다른 예에서, 출력 비트스트림은 비디오 인코더들 (20A 및 20B) 의 각각으로부터 1:1 이 아닌 비를 출력하는 것에 의해 생성될 수도 있다. 가령, 2 개의 블록들은 비디오 인코더 (20A) 로부터 각각의 블록 출력에 대해 비디오 인코더 (20B) 로부터 출력될 수도 있다. 일부 실시형태들에서, mux (98) 로부터의 출력 스트림은 미리 프로그램될 수도 있다. 다른 실시형태들에서, mux (98) 는 비디오 인코더 (21) 외부에 있는 시스템으로부터, 예컨대, 소스 디바이스 (12) 를 포함하는 소스 디바이스 상의 프로세서로부터 수신된 제어 신호에 기초하여 비디오 인코더들 (20A, 20B) 로부터의 비트스트림들을 결합할 수도 있다. 제어 신호는 비디오 소스 (18) 로부터 비디오의 비트레이트 또는 해상도에 기초하여, 링크 (16) 의 대역폭에 기초하여, 사용자와 연관된 가입 (예를 들어, 유로 가입 대 무료 가입) 에 기초하여, 또는 비디오 인코더 (23) 로부터 요망되는 해상도 출력을 결정하기 위한 임의의 다른 팩터에 기초하여 생성될 수도 있다.
비디오 디코더
도 3a 는 본 개시물에 기재된 양태들에 따른 기법들을 구현할 수도 있는 비디오 인코더의 일 예를 도시하는 블록 다이어그램이다. 비디오 디코더 (30) 는 예컨대 HEVC 에 대해, 비디오 프레임의 단일 계층을 프로세싱하도록 구성될 수도 있다. 또한, 비디오 디코더 (30) 는 본 개시물의 기법들 중 어느 것 또는 전부를 수행하도록 구성될 수도 있다. 일부 예들에서, 본 개시물에 기재된 기법들은 비디오 디코더 (30) 의 다양한 컴포넌트들 중에서 공유될 수도 있다. 일부 예들에서, 부가적으로 또는 대안으로, 프로세서 (미도시) 는 본 개시물에 기재된 기법들 중 어느 것 또는 전부를 수행하도록 구성될 수도 있다.
설명의 목적을 위해, 본 개시물은 HEVC 코딩의 콘텍스트에서 비디오 디코더 (30) 를 기재한다. 하지만, 본 개시물의 기법들은 다른 코딩 표준들 또는 방법들에 적용가능할 수도 있다. 도 3a 에 도시된 예는 코덱의 단일 계층에 대한 것이다. 하지만, 도 3b 에 관하여 더 상세하게 기재될 바와 같이, 비디오 디코더 (30) 의 일부 또는 전부는 멀티 계층 코덱의 프로세싱을 위해 듀플리케이트될 수도 있다.
도 3a의 예에서, 비디오 디코더 (30) 는 복수의 기능 컴포넌트들을 포함한다. 비디오 디코더 (30) 의 기능 컴포넌트들은 엔트로피 디코딩 유닛 (150), 예측 프로세싱 유닛 (152), 역 양자화 유닛 (154), 역 변환 유닛 (156), 재구성 유닛 (158), 필터 유닛 (159), 및 디코딩된 픽처 버퍼 (160) 를 포함한다. 예측 프로세싱 유닛 (152) 은, 모션 보상 유닛 (162), 인트라 예측 유닛 (164) 및 계층간 예측 유닛 (166) 을 포함한다. 일부 예들에서, 비디오 디코더 (30) 는 도 2a 의 비디오 인코더 (20) 와 관련하여 설명된 인코딩 패스에 일반적으로 상반되는 디코딩 패스를 수행할 수도 있다. 다른 예들에서, 비디오 디코더 (30) 는, 더 많거나, 더 적거나, 또는 상이한 기능 컴포넌트들을 포함할 수도 있다.
비디오 디코더 (30) 는 인코딩된 비디오 데이터를 포함하는 비트스트림을 수신할 수도 있다. 비트스트림은 복수의 신택스 엘리먼트들을 포함할 수도 있다. 비디오 디코더 (30) 가 비트스트림을 수신할 때, 엔트로피 디코딩 유닛 (150) 은 비트스트림에 대해 파싱 동작을 수행할 수도 있다. 비트스트림들에 대해 파싱 동작을 수행하는 결과로서, 엔트로피 디코딩 유닛 (150) 은 비트스트림으로부터 신택스 엘리먼트들을 추출할 수도 있다. 파싱 동작을 수행하는 부분으로서, 엔트로피 디코딩 유닛 (150) 은 비트스트림에서 엔트로피 인코딩된 신택스 엘리먼트들을 엔트로피 디코딩할 수도 있다. 예측 프로세싱 유닛 (152), 역 양자화 유닛 (154), 역 변환 유닛 (156), 재구성 유닛 (158), 및 필터 유닛 (159) 은 비트스트림으로부터 추출된 신택스 엘리먼트들에 기초하여 디코딩된 비디오 데이터를 생성하는 재구성된 동작을 수행할 수도 있다.
위에 논의된 바와 같이, 비트스트림은 일련의 NAL 유닛들을 포함할 수도 있다. 비트스트림의 NAL 유닛들은 비디오 파라미터 세트 NAL 유닛들, 시퀀스 파라미터 세트 NAL 유닛들, 픽처 파라미터 세트 NAL 유닛들, SEI NAL 유닛들 기타 등등을 포함할 수도 있다. 비트스트림에 대해 파싱 동작을 수행하는 부분으로서, 엔트로피 디코딩 유닛 (150) 은 시퀀스 파라미터 세트 NAL 유닛들로부터 시퀀스 파라미터 세트들, 픽처 파라미터 세트 NAL 유닛들로부터 픽처 파라미터 세트들, SEI NAL 유닛들로부터 SEI 데이터 등을 추출 및 엔트로피 디코딩하는 파싱 동작들을 수행할 수도 있다.
또한, 비트스트림의 NAL 유닛들은 코딩된 슬라이스 NAL 유닛들을 포함할 수도 있다. 비트스트림에 대해 파싱 동작을 수행하는 부분으로서, 엔트로피 디코딩 유닛 (150) 은 코딩된 슬라이스 NAL 유닛들로부터 코딩된 슬라이스들을 추출 및 엔트로피 디코딩하는 파싱 동작들을 수행할 수도 있다. 각각의 코딩된 슬라이스들은 슬라이스 헤더 및 슬라이스 데이터를 포함할 수도 있다. 슬라이스 헤더는 슬라이스에 속하는 신택스 엘리먼트들을 포함할 수도 있다. 슬라이스 헤더에 있는 신택스 엘리먼트들은, 슬라이스를 포함하는 픽처와 연관된 픽처 파라미터 세트를 식별하는 신택스 엘리먼트를 포함할 수도 있다. 엔트로피 디코딩 유닛 (150) 은, 엔트로피 디코딩 동작들, 예컨대 CABAC 디코딩 동작들을, 코딩된 슬라이스 헤더에 있는 신텍스 엘리먼트들에 수행하여 슬라이스 헤더를 복구할 수도 있다.
코딩된 슬라이스 NAL 유닛들로부터 슬라이스 데이터를 추출하는 부분으로서, 엔트로피 디코딩 유닛 (150) 은 슬라이스 데이터에서 코딩된 CU 들로부터 신택스 엘리먼트들을 추출하는 파싱 동작들을 수행할 수도 있다. 추출된 신택스 엘리먼트들은 변환 계수 블록들과 연관된 신택스 엘리먼트들을 포함할 수도 있다. 그 후 엔트로피 디코딩 유닛 (150) 은 신택스 엘리먼트들의 일부에 대해 CABAC 디코딩 동작들을 수행할 수도 있다.
엔트로피 디코딩 유닛 (150) 이 비파티셔닝된 CU 에 대해 파싱 동작을 수행한 후에, 비디오 디코더 (30) 는 비파티셔닝된 (non-partitioned) CU 에 대해 재구성 동작을 수행할 수도 있다. 비파티셔닝된 CU 에 대해 재구성 동작을 수행하기 위하여, 비디오 디코더 (30) 는 CU 의 각 TU 에 대해 재구성 동작을 수행할 수도 있다. CU 의 각각의 TU 에 대해 재구성 동작을 수행함으로써, 비디오 디코더 (30) 는 CU 와 연관된 잔차 비디오 블록을 재구성할 수도 있다.
TU 에 대해 재구성 동작을 수행하는 부분으로서, 역 양자화 유닛 (154) 은 TU 와 연관된 변환 계수 블록을, 역 양자화, 예를 들어 양자화해제할 수도 있다. 역 양자화 유닛 (154) 은, HEVC 를 위해 제안되거나 또는 H.264 디코딩 표준에 의해 정의된 역 양자화 프로세스들과 유사한 방식으로 변환 계수 블록을 역 양자화할 수도 있다. 역 양자화 유닛 (154) 은, 변환 계수 블록의 CU 에 대해 비디오 인코더 (20) 에 의해 계산된 양자화 파라미터 QP 를 사용하여 양자화의 정도 그리고, 마찬가지로, 역 양자화 유닛 (154) 이 적용할 역 양자화의 정도를 결정할 수도 있다.
역 양자화 유닛 (154) 이 변환 계수 블록을 역 양자화한 후에, 역 변환 유닛 (156) 은 변환 계수 블록과 연관된 TU 를 위한 잔차 비디오 블록을 생성할 수도 있다. 역 변환 유닛 (156) 은 TU 를 위한 잔차 비디오 블록을 생성하기 위하여 변환 계수 블록에 역 변환을 적용할 수도 있다. 예를 들어, 역 변환 유닛 (156) 은 역 DCT, 역 정수 변환, 역 카루넨 루베 변환 (inverse Karhunen-Loeve transform; KLT), 역 회전 변환, 역 방향 변환, 또는 또 다른 역 변환을 그 변환 계수 블록에 적용할 수도 있다. 일부 예들에서, 역 변환 유닛 (156) 은 비디오 인코더 (20) 로부터의 시그널링에 기초하여 변환 계수 블록에 적용할 역 변환을 결정할 수도 있다. 그러한 예들에서, 역 변환 유닛 (156) 은 변환 계수 블록과 연관된 트리블록에 대해 쿼드트리의 루트 노드에서 시그널링된 변환에 기초하여 역 변환을 결정할 수도 있다. 다른 예들에서, 역 변환 유닛 (156) 은, 블록 사이즈, 코딩 모드 등과 같은 하나 이상의 코딩 특성들로부터 역 변환을 추론할 수도 있다. 일부 예들에서, 역 변환 유닛 (156) 은 케스케이드 역 변환 (cascaded inverse transform) 을 적용할 수도 있다.
일부 예들에서, 모션 보상 유닛 (162) 은 보간 필터들에 기초하여 보간을 수행함으로써 PU 의 예측된 비디오 블록을 정제할 수도 있다. 서브샘플 정밀도를 갖는 모션 보상에 이용될 보간 필터들을 위한 식별자들이 신택스 엘리먼트들에 포함될 수도 있다. 모션 보상 유닛 (162) 은 PU 의 예측된 비디오 블록의 생성 동안 비디오 인코더 (20) 에 의해 이용되는 동일한 보간 필터들을 이용하여 레퍼런스 블록의 서브정수 (sub-integer) 샘플들을 위한 보간된 값들을 계산할 수도 있다. 모션 보상 유닛 (162) 은 수신된 신택스 정보에 따라 비디오 인코더 (20) 에 의해 이용된 보간 필터들을 결정하고, 보간 필터들을 이용하여 예측된 비디오 블록을 생성할 수도 있다.
PU 가 인트라 예측을 이용하여 인코딩되면, 인트라 예측 유닛 (164) 은 PU 를 위한 예측된 비디오 블록을 생성하기 위하여 인트라 예측을 수행할 수도 있다. 예를 들어, 인트라 예측 유닛 (164) 은 비트스트림에서 신택스 엘리먼트들에 기초하여 PU 를 위한 인트라 예측 모드를 결정할 수도 있다. 비트스트림은, 인트라 예측 유닛 (164) 이 PU 의 인트라 예측 모드를 결정하기 위해 사용할 수도 있는 신택스 엘리먼트들을 포함할 수도 있다.
일부 경우들에서, 신택스 엘리먼트들은, 인트라 예측 유닛 (164) 이 현재 PU 의 인트라 예측 모드를 결정하기 위하여 또 다른 PU 의 인트라 예측 모드를 사용할 것을 표시할 수도 있다. 예를 들어, 현재 PU 의 인트라 예측 모드는 이웃하는 PU 의 인트라 예측 모드와 동일할 수도 있다. 즉, 이웃하는 PU 의 인트라 예측 모드는 현재 PU 에 대한 최고 확률 모드일 수도 있다. 그러므로, 이 예에서, 비트스트림은, PU 의 인트라 예측 모드가 이웃하는 PU 의 인트라 예측 모드와 동일하다는 것을 표시하는 작은 신택스 엘리먼트를 포함할 수도 있다. 그 후 인트라 예측 유닛 (164) 은 인트라 예측 모드를 이용하여 공간적으로 이웃하는 PU 들의 비디오 블록들에 기초하여 PU 를 위한 예측 데이터 (예를 들어, 예측된 샘플들) 을 생성할 수도 있다.
위에서 논의된 바와 같이, 비디오 디코더 (30) 는 또한 계층간 예측 유닛 (166) 을 포함할 수도 있다. 계층간 예측 유닛 (166) 은 SHVC 에서 이용가능한 하나 이상의 상이한 계층들 (예를 들어, 베이스 또는 레퍼런스 계층) 을 사용하여 현재 블록 (예를 들어, 인핸스먼트 계층에서의 현재 블록) 을 예측하도록 구성된다. 그러한 예측은 계층간 예측으로서 지칭될 수도 있다. 계층간 예측 유닛 (166) 은 계층간 리던던시를 감소시키기 위해 예측 방법들을 이용할 수도 있으며, 이로써 코딩 효율을 개선하고 계산 리소스 요건들을 감소시킨다. 계층간 예측의 일부 예들은 계층간 인트라 예측, 계층간 모션 예측, 및 계층간 잔차 예측을 포함한다. 계층간 인트라 예측은 인핸스먼트 계층에서 현재 블록을 예측하기 위해 베이스 계층에서 병치된 블록들의 재구성을 사용한다. 계층간 모션 예측은 인핸스먼트 계층에서 모션을 예측하기 위해 베이스 계층의 모션 정보를 사용한다. 계층간 잔차 예측은 인핸스먼트 계층의 잔차를 예측하기 위해 베이스 계층의 잔차를 사용한다. 계층간 예측 스킴들의 각각이 하기에서 더 상세하게 논의된다.
재구성 유닛 (158) 은, CU 의 비디오 블록을 재구성하기 위하여, 적용가능한 바에 따라, CU 의 TU 들과 연관된 잔차 비디오 블록들 및 CU 의 PU 들의 예측된 비디오 블록들, 예를 들어 인트라 예측 데이터 또는 인터 예측 데이터 중의 어느 하나를 이용할 수도 있다. 이로써, 비디오 디코더 (30) 는 비트스트림에 있는 신택스 엘리먼트들에 기초하여 예측된 비디오 블록 및 잔차 비디오 블록을 생성할 수도 있고 그 예측된 비디오 블록 및 잔차 비디오 블록에 기초하여 비디오 블록을 생성할 수도 있다.
재구성 유닛 (158) 이 CU 의 비디오 블록을 재구성한 후에, 필터 유닛 (159) 은 CU 와 연관된 블록킹 아티팩트들을 감소시키기 위해 디블록킹 동작을 수행할 수도 있다. 필터 유닛 (159) 이 CU 와 연관된 블록킹 아티팩트들을 감소시키기 위하여 디블록킹 동작을 수행한 후에, 비디오 디코더 (30) 는 디코딩된 픽처 버퍼 (160) 에 CU 의 비디오 블록을 저장할 수도 있다. 디코딩된 픽처 버퍼 (160) 는 후속 모션 보상, 인트라 예측, 및 디스플레이 디바이스, 예컨대 도 1a 또는 도 1b 의 디스플레이 디바이스 (32) 상의 제시를 위해 레퍼런스 픽처들을 제공할 수도 있다. 가령, 비디오 디코더 (30) 는, 디코딩된 픽처 버퍼 (160) 에 있는 비디오 블록들에 기초하여, 다른 CU 들의 PU 들에 대해 인트라 예측 또는 인터 예측 동작들을 수행할 수도 있다.
멀티 계층 디코더
도 3b 는 본 개시물에 기재된 양태들에 따른 기법들을 구현할 수도 있는 멀티 계층 비디오 디코더 (33)(또한 간단히 비디오 디코더 (33) 로서 지칭됨) 의 다른 예를 도시하는 블록 다이어그램이다. 비디오 디코더 (33) 는 예컨대 SHVC 및 멀티뷰 코딩에 대해, 멀티 계층 비디오 프레임들을 프로세싱하도록 구성될 수도 있다. 또한, 비디오 디코더 (33) 는 본 개시물의 기법들 중 어느 것 또는 전부를 수행하도록 구성될 수도 있다.
비디오 디코더 (33) 는 비디오 디코더 (30A) 및 비디오 디코더 (30B) 포함하고, 그 각각은 비디오 디코더 (30) 와 같이 구성될 수도 있고 비디오 디코더 (30) 에 관하여 위에서 기재된 기능들을 수행할 수도 있다. 또한, 참조 번호들의 재사용에 의해 나타낸 바와 같이, 비디오 디코더들 (30A 및 30B) 는 비디오 디코더 (30) 로서 시스템 및 서브 시스템의 적어도 일부를 포함할 수도 있다. 비디오 디코더 (33) 가 2 개의 비디오 디코더들 (30A 및 30B) 를 포함하는 것으로 도시되지만, 비디오 디코더 (33) 는 그러한 것으로 한정되지 않고 임의의 수의 비디오 디코더 (30) 계층들을 포함할 수도 있다. 일부 실시형태들에서, 비디오 디코더 (33) 는 액세스 유닛에서 각각의 픽처 또는 프레임에 대한 비디오 디코더 (30) 를 포함할 수도 있다. 예를 들어, 5 개의 픽처들을 포함하는 액세스 유닛은 5 개의 디코더 계층들을 포함하는 비디오 디코더에 의해 프로세싱되거나 디코딩될 수도 있다. 일부 실시형태들에서, 비디오 디코더 (33) 는 액세스 유닛에서의 프레임들보다 많은 디코더 계층들을 포함할 수도 있다. 일부 그러한 경우들에서, 비디오 디코더 계층들의 일부는 일부 액세스 유닛들을 프로세싱할 때 비활성일 수도 있다.
비디오 디코더들 (30A 및 30B) 에 부가하여, 비디오 디코더 (33) 는 업샘플링 유닛 (92) 을 포함할 수도 있다. 일부 실시형태들에서, 업샘플링 유닛 (92) 은 프레임 또는 액세스 유닛에 대한 레퍼런스 픽처 리스트에 부가될 인핸스먼트 계층을 생성하기 위해 수신된 비디오 프레임의 베이스 계층을 업샘플링할 수도 있다. 이러한 인핸스드 계층은 디코딩된 픽처 버퍼 (160) 에 저장될 수 있다. 일부 실시형태들에서, 업샘플링 유닛 (92) 은 도 2a 의 리샘플링 유닛 (90) 에 관하여 기재된 실시형태들의 일부 또는 전부를 포함할 수 있다. 일부 실시형태들에서, 업샘플링 유닛 (92) 은 계층을 업샘플링하고 래스터 스캔 규칙들 및/또는 슬라이스 경계 규칙들의 세트를 따르기 위해 하나 이상의 슬라이스들을 재조직화, 재정의, 수정 또는 조정하도록 구성된다. 일부 경우들에서, 업샘플링 유닛 (92) 은 수신된 비디오 프레임의 계층을 업샘플링 및/또는 다운샘플링하도록 구성되는 리샘플링 유닛일 수도 있다.
업샘플링 유닛 (92) 은 하위 계층 디코더 (예를 들어, 비디오 디코더 (30A)) 의 디코딩된 픽처 버퍼 (160) 로부터 픽처 또는 프레임 (또는 픽처와 연관된 픽처 정보) 를 수신하고 픽처 (또는 수신된 픽처 정보) 를 업샘플링하도록 구성될 수도 있다. 이러한 업샘플링된 픽처는 그 후 하위 계층 디코더와 동일한 액세스 유닛에서 픽처를 디코딩하도록 구성되는 상위 계층 디코더 (예를 들어, 비디오 디코더 (30B) 의 예측 프로세싱 유닛 (152) 에 제공될 수도 있다. 일부 경우들에서, 상위 계층 디코더는 하위 계층 디코더로부터 제거되는 하나의 층이다. 다른 경우들에서, 도 3b 의 계층 0 디코더와 계층 1 디코더 사이에 하나 이상의 상위 계층 디코더들이 있을 수도 있다.
일부 경우들에서, 업샘플링 유닛 (92) 은 생략되거나 우회될 수도 있다. 그러한 경우들에서, 비디오 디코더 (30A) 의 디코딩된 픽처 버퍼 (160) 로부터의 픽처는 직접 제공될 수도 있고, 또는 적어도 업샘플링 유닛 (92) 에는 제공되지 않으면서, 비디오 디코더 (30B) 의 계층간 예측 유닛 (152) 에 제공될 수도 있다. 예를 들어, 비디오 디코더 (30B) 에 제공된 비디오 데이터 및 비디오 디코더 (30A) 의 디코딩된 픽처 버퍼 (160) 로부터의 레퍼런스 픽처가 사이즈 또는 해상도가 동일한 경우, 레퍼런스 픽처는 업샘플링 없이 비디오 디코더 (30B) 에 제공될 수도 있다. 또한, 일부 실시형태들에서, 업샘플링 유닛 (92) 은 비디오 디코더 (30A) 의 디코딩된 픽처 버퍼 (160) 로부터 수신된 레퍼런스 픽처를 업샘플링 또는 다운샘플링하도록 구성되는 리샘플링 유닛 (90) 일 수도 있다.
도 3b 에 도시된 바와 같이, 비디오 디코더 (33) 는 디멀티플렉서 또는 demux (99) 를 더 포함할 수도 있다. demux (99) 는 상이한 비디오 디코더 (30A 및 30B) 에 제공되는 demux (99) 에 의해 출력되는 각각의 비트스트림으로 인코딩된 비디오 비트스트림을 다중 비트스트림들로 스플릿할 수 있다. 다중 비트스트림들은 비트스트림을 수신하는 것에 의해 생성될 수도 있고 비디오 디코더들 (30A 및 30B) 의 각각은 주어진 시간에서 비트스트림의 일부를 수신한다. 일부 경우들에서, demux (99) 에서 수신된 비트스트림으로부터의 비트들은 비디오 디코더들 (예를 들어, 도 3b 의 예에서 비디오 디코더들 (30A 및 30B) 의 각각의 사이에서 한번에 하나의 비트씩 교번될 수도 있는 한편, 많은 경우들에서 비트스트림은 상이하게 분할된다. 예를 들어, 비트스트림은 비디오 디코더가 한번에 하나의 블록씩 비트스트림을 수신하는 것을 교번하는 것에 의해 분할될 수도 있다. 다른 예에서, 비트스트림은 비디오 디코더들 (30A 및 30B) 의 각각에 1:1 비가 아닌 블록들에 의해 분할될 수도 있다. 가령, 2 개의 블록들은 비디오 디코더 (30A) 에 제공된 각각의 블록에 대한 비디오 디코더 (30B) 에 제공될 수도 있다. 일부 실시형태들에서, demux (99) 에 의한 비트스트림의 분할은 미리 프로그램될 수도 있다. 다른 실시형태들에서, demux (99) 는 비디오 디코더 (33) 외부의 시스템으로부터, 예컨대 목적지 디바이스 (14) 를 포함하는 목적지 디바이스 상의 프로세서로부터 수신되는 제어 신호에 기초하여 비트스트림을 분할할 수도 있다. 제어 신호는 입력 인터페이스 (28) 로부터의 비디오의 해상도 또는 비트레이트에 기초하여, 채널 (16) 의 대역폭에 기초하여, 사용자와 연관된 가입 (예를 들어, 유료 가입 대 무료 가입) 에 기초하여, 또는 비디오 디코더 (33) 에 의해 획득가능한 해상도를 결정하기 위한 임의의 다른 팩터에 기초하여 생성될 수도 있다.
인트라 랜덤 액세스 포인트 (IRAP) 픽처들
일부 비디오 코딩 스킴들은, 비트스트림 전체에 걸쳐 다양한 랜덤 액세스 포인트들을 제공하여, 비트스트림에서 그러한 랜덤 액세스 포인트들에 선행하는 임의의 픽처들을 디코딩할 필요 없이 그러한 랜덤 액세스 포인트들 중의 임의의 것으로부터 시작하여 비트스트림이 디코딩될 수 있도록 할 수도 있다. 그러한 비디오 코딩 스킴들에서, 랜덤 액세스 스킵 리딩 (random access skipped leading; RASL) 픽처들을 제외한, 디코딩 순서에서 랜덤 액세스 포인트에 후속하는 모든 픽처들은, 랜덤 액세스 포인트에 선행하는 픽처들을 사용하지 않고서 올바르게 디코딩될 수 있다. 예를 들어, 비트스트림의 일부가 송신 중 또는 디코딩 중에 손실되더라도, 디코더는 다음 랜덤 액세스 포인트로부터 시작하여 비트스트림을 디코딩하는 것을 재개할 수 있다. 랜덤 액세스를 위한 지원은, 예를 들어, 동적 스트리밍 서비스, 탐색 서비스, 채널 스위칭 등을 용이하게 할 수도 있다.
일부 코딩 스킴들에서, 그러한 랜덤 액세스 포인트들은 인트라 랜덤 액세스 포인트 (IRAP) 픽처들로 지칭되는 픽처들에 의해 제공될 수도 있다. 예를 들어, 액세스 유닛 (“auA”) 에 포함되는 인핸스먼트 계층 (“layerA”) 에서 인핸스먼트 계층 IRAP 픽처과 연관된 랜덤 액세스 포인트는 계층 특정 랜덤 액세스를 제공하여, layerB 에 있고 디코딩 순서에서 auA 에 선행하는 액세스 유닛 (“auB”) 에 포함된 픽처와 연관된 랜덤 액세스 유닛 (또는 auA 에 포함된 랜덤 액세스 유닛) 을 갖는 layerA 의 각 레퍼런스 계층 (“layerB”) (예를 들어, layerA 를 예측하는데 사용되는 계층인 레퍼런스 계층) 에 대해, 디코딩 순서에서 auA 에 후속되는 layerA 에 있는 픽처들 (auA에 위치된 그러한 픽처들을 포함) 이 auA 에 선행하는 layerA 에 있는 픽처들을 디코딩할 필요 없이 올바르게 디코딩가능하도록 할 수도 있다.
IRAP 픽처들은, 인트라 예측을 이용하여 코딩 (예를 들어, 다른 픽처들을 참조하지 않고서 코딩) 될 수도 있거나 및/또는 계층간 예측을 이용하여 코딩될 수도 있고, 예를 들어, 순시 디코더 리프레쉬 (IDR) 픽처들, 클린 랜덤 액세스 (CRA) 픽처들, 및 브로큰 링크 액세스 (BLA) 픽처들을 포함할 수도 있다. 비트스트림에 IDR 픽처가 있을 때, 디코딩 순서에서 IDR 픽처에 선행하는 모든 픽처들이, IDR 픽처에 후속하는 픽처들에 의한 예측에 사용되는 것은 아니다. 비트스트림에 CRA 픽처가 있을 때, CRA 픽처에 후속하는 픽처들이 예측을 위해 디코딩 순서에서 CRA 픽처에 선행하는 픽처들을 사용할 수도 있거나 또는 사용하지 않을 수도 있다. 디코딩 순서에서 CRA 픽처에 후속하지만, 디코딩 순서에서 CRA 픽처에 선행하는 픽처들을 사용하는 그러한 픽처들은 RASL 픽처들로 지칭될 수도 있다. 디코딩 순서에서 IRAP 픽처에 후속하고 출력 순서에서 IRAP 픽처에 선행할 수 있는 또 다른 타입의 픽처는 랜덤 액세스 디코딩가능 리딩 (RADL) 픽처이고, 이는 디코딩 순서에서 IRAP 픽처에 선행하는 임의의 픽처들에 대한 레퍼런스를 포함하지 않을 수도 있다. RASL 픽처들은, CRA 픽처에 선행하는 픽처들이 이용가능하지 않으면 디코더에 의해 버려질 수도 있다. BLA 픽처는, BLA 픽처에 선행하는 픽처들이 (예를 들어, 2개의 비트스트림들이 함께 슬라이스되고 BLA 픽처가 디코딩 순서에서 제 2 비트스트림의 제 1 픽처이기 때문에) 디코더에 이용가능하지 않을 수도 있다는 것을 디코더에게 표시한다. IRAP 픽처인 (예를 들어, 0 의 계층 ID 값을 갖는) 베이스 계층 픽처를 포함하는 액세스 유닛 (예를 들어, 다수의 계층들에 걸쳐 동일한 출력 시간과 연관된 모든 코딩된 픽처들로 이루어지는 픽처들의 그룹) 은 IRAP 액세스 유닛으로 지칭될 수도 있다.
SHVC에서의 리샘플링 프로세스
리샘플링 프로세스에서, 픽처의 샘플 수는 업샘플링 (증가) 또는 다운샘플링 (감소) 될 수 있다. 레퍼런스 계층 픽처 리샘플링의 일 설계에서, 출력 레퍼런스 계층은 리샘플링 프로세스의 입력으로서 사용된다.
SHVC에서, 레퍼런스 계층 (또는 베이스 계층) 픽처 사이즈가 인핸스먼트 계층 픽처 사이즈와 상이한 경우, 리샘플링 (또는 업샘플링) 프로세스는 계층간 예측에 대한 인핸스먼트 계층 픽처의 사이즈와 매칭하기 위해 레퍼런스 계층 픽처에 적용될 수 있다. 레퍼런스 계층 픽처를 리샘플링하기 위해, 각각의 컬러 성분에 대해 N 탭 리샘플링 필터가 적용될 수 있다.
필터링 프로세스에서, 레퍼런스 계층 픽처의 샘플들 (또는 화소들) 크기들은 필터링된 샘플 (또는 화소) 을 유도하기 위해 필터 계수들에 의해 승산될 수 있고 합산될 수 있다. 레퍼런스 계층 픽처의 사이즈 및 인핸스먼트 계층 픽처의 사이즈가 상이하기 때문에, 필터링 프로세스에 수반되는 레퍼런스 계층 샘플들의 좌표들이 정의될 수도 있다. 예를 들어, 레퍼런스 계층 픽처의 샘플 위치에 의해 표시된 샘플(들)이 리샘플링 프로세스에서 사용될 수 있도록, 현재의 인핸스먼트 계층 픽처의 샘플 위치에 상응하는 레퍼런스 계층 픽처의 샘플 위치가 결정될 수 있다.
베이스 계층의 컨포먼스 윈도우
위에 논의된 바와 같이, 컨포먼스 윈도우 정보는 레퍼런스 계층에 포함될 수 있고 리샘플링 프로세스들을 포함한 다양한 목적을 위해 사용될 수 있다. 코딩된 픽처의 출력 영역을 나타내기 위해서 컨포먼스 윈도우 크롭핑 파라미터들이 사용된다.
도 4는 컨포먼스 윈도우 정보를 이용하기 위한 기법을 예시한 예시적인 개략도를 나타낸다. SPS, PPS, 및 VPS를 포함한 코딩된 데이터가 코딩된 픽처 버퍼 (CPB) (405) 에 저장된다. SPS는 프로파일, 티어, 및 레벨 표시와 같은 코딩된 시퀀스의 특성을 기술하는 파라미터들을 포함할 수도 있다. 종래의 시스템에서, 컨포먼스 윈도우 크롭핑 파라미터들도 SPS에 포함될 수 있다. 이 정보는 디코딩 프로세스 (410) 에 제공되고, 디코딩된 피처는 출력을 위해 저장되며 디코딩된 화상 버퍼 (DPB) (415) 에서 레퍼런스 픽처로서 사용된다. 디코딩된 픽처들은 이후 출력 크롭핑 스테이지 (420) 로 통과되고, 여기서 출력 크롭핑이 SPS에 특정된 컨포먼스 윈도우 파라미터에 따라 출력 픽처들에 적용된다.
아래의 표 1은 HEVC에서 컨포먼스 윈도우를 시그널링하기 위한 종래의 시스템을 도시한다. 아래 표 1에 나타낸 바와 같이, 컨포먼스 윈도우는 상부, 하부, 좌측 및/또는 우측 오프셋들을 포함할 수도 있다. 이러한 오프셋들은, 픽처에서의 어느 샘플들이 리샘플링에 사용될 것인지를 나타내기 위해 사용될 수도 있다.
Figure 112016108992112-pct00001
표 1 - HEVC에서의 컨포먼스 윈도우 플래그들
단일 계층 비트스트림들의 경우, 컨포먼스 윈도우가 SPS에서 시그널링될 수도 있다. 하지만, 멀티 계층 비트스트림들의 경우, VPS가 멀티 계층 비트스트림의 모든 계층들에 적용되기 때문에, VPS에서 베이스 계층을 시그널링하는 것이 유리할 수도 있다.
멀티 계층 비트스트림들에서, 개별 계층들은 HEVC, SHVC, MV-HEVC, 3D-HEVC, AVC, SVC 등과 같은 상이한 코딩 스킴을 이용하여 코딩될 수도 있다. 이들 코딩 스킴들 중 일부는 다른 코딩 스킴들과 연관될 수도 있다. 예를 들어, HEVC의 스케일러블 확장으로서의 SHVC가 HEVC와 연관될 수도 있다. 하지만, SHVC 및/또는 HEVC는 다른 코딩 스킴들과 연관될 수도 있다. 코덱이 연관되지 않은 코딩 스킴을 이용하여 코딩되었던 레퍼런스 계층을 갖는 비트스트림을 코덱이 수신하는 경우, 코덱은 계층에 대한 컨포먼스 윈도우 정보를 결정하기에 적합하지 않을 수도 있다. 일 예에서, 상기 표 1에 나타낸 HEVC에서의 컨포먼스 윈도우 플래그들은 SVC를 이용한 코덱이 아닌 SHVC를 이용한 코덱에 의해 사용하기에 적합할 수도 있다. 또한, 본 예에서, 상기 표 1에 나타낸 HEVC에서의 컨포먼스 윈도우 플래그들은 컨포먼스 윈도우 정보를 SVC 코덱으로 전달하기에 적합하지 않을 수도 있다. 단일 계층 코딩 방식을 사용하여 코딩된 베이스 계층에 대한 컨포먼스 윈도우 정보는 시그널링되지 않을 수도 있고, 그에 따라 단일 계층 코딩 방식과 연관되지 않은 코딩 방식의 확장을 사용하는 코덱에 이용가능하지 않을 수도 있다.
SHVC에는 두가지 리샘플링 프로세스들이 있다: (1) 샘플 또는 화소 정보 리샘플링 및 (2) 모션 (즉, 모션 필드) 또는 비화소 정보 리샘플링. 본 개시물의 실시형태들은 이들 리샘플링 프로세스들 중 하나 또는 양자에 적용가능할 수도 있거나, 또는 그 어느 것에도 적용가능하지 않을 수도 있다.
본 개시물의 일부 양태들에서, 확장성 종횡비 또는 스케일링 팩터를 계산하기 위해 컨포먼스 윈도우 정보가 적용될 수도 있다. 예를 들어, 계산된 종횡비를 이용하여 디코딩된 레퍼런스 계층 픽처에 리샘플링 프로세스가 적용될 수도 있다. 본 개시물의 다른 양태들에서, 리샘플링 프로세스는 리샘플링 프로세스의 입력으로서 출력 레퍼런스 계층 픽처를 사용할 수도 있다. 본 개시물의 실시형태들은 이들 양태들 중 하나 또는 양자에 적용가능할 수도 있거나, 또는 그 어느 것에도 적용가능하지 않을 수도 있다.
본 개시물의 실시형태들은 베이스 계층에서 컨포먼스 윈도우 정보를 시그널링하기 위한 플래그들을 제공한다. 예를 들어 베이스 계층 컨포먼스 윈도우가 VPS, SPS, PPS, 및/또는 슬라이스 헤더에서 시그널링될 수도 있다. 일부 실시형태들에서, 베이스 계층 컨포먼스 윈도우는, 인코더에 의해 사용된 수신 코덱 및/또는 코딩 스킴와 연관되지 않은 코딩 스킴을 사용하여 베이스 계층이 인코딩된 것으로 나타내지는 경우 시그널링될 수도 있다 (예를 들어, 오로지 시그널링될 수 있다). 예를 들어, 베이스 계층 컨포먼스 윈도우는, 베이스 계층이 SHVC 준수 디코더에 의해 수신되는 경우 비-HEVC 코딩 스킴 (예를 들어, SHVC와 연관되지 않을 수도 있는 코딩 스킴인 AVC) 을 사용하여 코딩된다는 표시에 기초하여 시그널링될 수도 있다. 베이스 계층 컨포먼스 윈도우를 시그널링하기 위한 예시적인 신택스 및 시멘틱스는 아래 표 2에 나타내진다.
Figure 112016108992112-pct00002
표 2 - 베이스 계층을 위한 컨포먼스 윈도우 플래그들
표 2에서, bl_conformance_window_flag는 후속하는 베이스 계층의 오프셋 파라미터들을 나타내기 위해 1로 설정될 수도 있다. 이와 다르게, 0으로 설정된 bl_conformance_window_flag는 오프셋 파라미터들이 존재하지 않는다는 것을 나타낼 수도 있다. bl_conformance_window_flag가 존재하지 않는 경우, 그것은 0으로 설정된 것으로 추론될 수도 있다. 일부 실시형태들에서, 비트스트림 제한 요건이 사용될 수도 있다. 예를 들어, bl_conformance_window_flag는 임의의 비-HEVC 코딩된 베이스 계층에 대해 1로 설정될 수도 있다. 또 다른 예에서, bl_conformance_window_flag는, 수신 코덱과 연관되지 않은 코딩 스킴을 사용하여 베이스 계층이 코딩된 경우 1로 설정될 수도 있다.
또한, 표 2에서, bl_conf_win_left_offset, bl_conf_win_right_offset, bl_conf_win_top_offset, 및 bl_conf_win_bottom_offset은, 출력을 위한 픽처 좌표들에서 특정된 직사각형 영역과 관련하여, 베이스 계층 디코딩 프로세스로부터 출력되는 CVS (Coded Video Sequence) 에서 베이스 계층 픽처의 샘플들을 특정할 수도 있다. bl_conformance_window_flag가 0과 동일한 경우, bl_conf_win_left_offset, bl_conf_win_right_offset, bl_conf_win_top_offset, 및 bl_conf_win_bottom_offset의 값들은 또한 0과 동일한 것으로 추론될 수도 있다.
하나의 예에서, 시그널링된 베이스 계층 윈도우 오프셋은 출력 베이스 계층 픽쳐 사이즈, 및 선택적으로는 리샘플링 프로세스에서 사용될 디코딩된 베이스 계층 픽처에 대한 상대적인 위치를 계산하기 위해서, 그리고 예를 들어 디코딩된 인핸스먼트 계층 폭 또는 높이에 대한 출력 베이스 계층 폭 또는 높이의 비율로서 확장성 종횡비 또는 스케일링 팩터를 각각 계산하기 위해 포함될 수도 있다.
도 5는 본 개시물의 양태(들)에 따른 픽처를 인코딩하기 위한 프로세스의 예시적인 실시형태의 플로우차트이다. 프로세스 (500) 는 블록 505에서 시작한다.
블록 510에서, 프로세스 (500) 는 멀티 계층 비트스트림의 계층들을 인코딩하는 것을 수반할 수 있다. 일부 실시형태들에서, 제 1 비디오 인코더는 멀티 계층 비트스트림의 모든 계층들을 인코딩할 수도 있다. 다른 실시형태들에서, 비디오 인코더는 멀티 계층 비트스트림의 계층들 중 일부분만을 인코딩할 수도 있다. 비디오 인코더는 코딩 스킴에 따라 비트스트림의 계층들을 인코딩할 수도 있다. 일부 양태들에서, 비트스트림은, 제 1 비디오 인코더에 의해 사용된 코딩 스킴과 상이하고 및/또는 그 코딩 스킴과 연관되지 않은 코딩 스킴을 사용하여 코딩되었던 베이스 계층을 포함할 수도 있다. 예를 들어, 베이스 계층은 제 1 비디오 인코더와 상이한 제 2 비디오 인코더에 의해 인코딩되었을 수도 있다. 다른 양태들에서, 비트스트림은, 수신 코덱과 동일하고 및/또는 수신 코덱과 연관되는 코딩 스킴을 사용하여 코딩되엇던 베이스 계층을 포함할 수도 있다. 예를 들어, 베이스 계층은 제 1 비디오 인코더에 의해 인코딩되었을 수도 있다.
결정 블록 515에서, 프로세스 (500) 는, 제 1 비디오 인코더에 의해 사용된 코딩 스킴과 연관되는 코딩 스킴을 사용하여 베이스 계층이 인코딩되었는지 여부를 결정하는 것을 수반할 수도 있다. 제 1 비디오 인코더에 의해 사용된 코딩 스킴과 연관되는 코딩 스킴을 사용하여 베이스 계층이 인코딩된 경우, 프로세스 (500) 는 블록 520으로 진행하는 것을 수반할 수도 있다. 제 1 비디오 인코더에 의해 사용된 코딩 스킴과 연관되지 않는 코딩 스킴을 사용하여 베이스 계층이 인코딩된 경우, 프로세스 (500) 는 결정 블록 535로 진행하는 것을 수반할 수도 있다.
블록 520에서, 프로세스 (500) 는 컨포먼스 윈도우를 시그널링하는 것을 수반할 수도 있다. 하나의 예에서, 컨포먼스 윈도우를 시그널링하는 것은, 리샘플링된 픽처에 대한 포지셔닝 정보를 제공하는 포지션 오프셋들이 이어질 것이라는 것을 나타내기 위해서 컨포먼스 윈도우를 값 (예를 들어, 1) 으로 설정하는 것을 수반할 수도 있다. 컨포먼스 윈도우는 하나 이상의 오프셋들, 예를 들어, 상부, 하부, 좌측 및 우측 오프셋들을 포함할 수도 있다 (예를 들어, 표 1 참조). 컨포먼스 윈도우 및/또는 오프셋들은 SPS에서 시그널링될 수도 있다. 예를 들어, 컨포먼스 윈도우는 HEVC 코딩된 계층에서 시그널링될 수도 있다.
블록 525에서, 프로세스 (500) 는 컨포먼스 윈도우 정보를 사용하여 픽처를 인코딩하는 것을 수반할 수도 있다.
블록 530에서, 제 1 비디오 인코더에 의해 사용된 코딩 스킴과 연관되지 않는 코딩 스킴을 사용하여 베이스 계층이 인코딩된 경우, 프로세스 (500) 는 베이스 계층 컨포먼스 윈도우를 시그널링하는 것을 수반할 수도 있다. 하나의 예에서, 컨포먼스 윈도우를 시그널링하는 것은, 리샘플링된 픽처에 대한 포지셔닝 정보를 제공하는 베이스 계층 포지션 오프셋들이 이어질 것이라는 것을 나타내기 위해서 베이스 계층 컨포먼스 윈도우 플래그를 값 (예를 들어, 1) 으로 설정하는 것을 수반할 수도 있다. 베이스 계층 컨포먼스 윈도우는 하나 이상의 오프셋들, 예를 들어, 상부, 하부, 좌측 및 우측 오프셋들을 포함할 수도 있다 (예를 들어, 표 2 참조). 컨포먼스 윈도우 및/또는 오프셋들은 VPS, SPS, PPS, 및/또는 슬라이스 헤더에서 시그널링될 수도 있다.
블록 535에서, 프로세스 (500) 는 베이스 계층 컨포먼스 윈도우를 사용하여 픽처를 코딩하는 것을 수반할 수도 있다. 프로세스 (500) 는 블록 540에서 종료한다.
도 6은 본 개시물에 기재된 양태(들)에 따른 픽처를 디코딩하기 위한 프로세스의 예시적인 실시형태의 플로우차트이다. 프로세스 (600) 는 블록 605에서 시작한다.
블록 610에서, 프로세스 (600) 는 비트스트림을 수신하는 것을 수반할 수도 있다. 일부 양태들에서, 비트스트림은, 비트스트림의 다른 계층들을 인코딩하기 위해 사용된 코딩 스킴과 연관되지 않은 코딩 스킴을 사용하여 코딩되었던 베이스 계층을 포함할 수도 있다. 다른 양태들에서, 비트스트림은, 비트스트림의 다른 계층들을 인코딩하기 위해 사용된 코딩 스킴과 연관되는 코딩 스킴을 사용하여 코딩되었던 베이스 계층을 포함할 수도 있다.
블록 615에서, 프로세스 (600) 는 비트스트림의 베이스 계층에서 컨포먼스 윈도우 플래그 및 적어도 하나의 포지션 오프셋을 디코딩하는 것을 수반할 수도 있다. 일부 실시형태들에서, 컨포먼스 윈도우 플래그 및/또는 적어도 하나의 포지션 오프셋은 베이스 계층의 VPS에서 시그널링될 수도 있다.
블록 620에서, 프로세스 (600) 는 베이스 계층 컨포먼스 윈도우를 사용하여 픽처를 디코딩하는 것을 수반할 수도 있다. 프로세스 (600) 는 블록 625에서 종료한다.
하나의 양태에서, 베이스 계층 출력 픽처는, 베이스 계층 픽처들을 표시하고 리샘플링 프로세스들을 수행하는 것을 포함한 다수의 목적을 위해 유도될 수 있다.
다른 양태에서, 컨포먼스 윈도우의 사이즈는 폭 및 높이 정보를 가지고 명확하게 시그널링될 수도 있고, 폭 및 높이 정보는 확장성 종횡비를 계산하기 위해 사용될 수도 있다. 이것은, 출력 베이스 계층 픽처의 정확한 포지셔닝 또는 디코딩된 픽처 사이즈를 결정하고서 또는 결정하지 않고서 수행될 수도 있다. 이로써, 컨포먼스 윈도우가 단지 부분적으로 시그널링될 수 있다.
추가 양태에서, 수신된 베이스 계층이 비-HEVC 코딩되는 경우, SHVC 작업 드래프트에서 사용되는 리샘플링 프로세스 및 스케일링된 레퍼런스 오프셋들의 시멘틱스는, 적용된 스케일링된 레퍼런스 오프셋들을 갖는 레퍼런스 계층 디코딩된 픽처가 리샘플링 프로세스 및/또는 확장성 비 계산으로의 입력으로서 사용될 수 있도록 변경될 수 있다. 예를 들어, 이러한 양태들에서, 스케일링된 레퍼런스 오프셋들은 scaled_ref_layer_left_offset, scaled_ref_layer_top_offset, scaled_ref_layer_right_offset, 및 scaled_ref_layer_bottom_offset을 포함할 수도 있다.
또 다른 양태에서, SHVC 디코더는, AVC 베이스 계층의 컨포먼스 윈도우 정보가 SHVC 인핸스먼트 계층들에 의해 사용될 수 있고 임의의 추가 시그널링 없이 컨포먼스 윈도우 정보를 유도하기 위해 사용될 수 있도록 AVC SPS 신택스 구조를 사용할 수도 있다.
또 다른 양태에서, 베이스 계층의 컨포먼스 윈도우 파라미터들의 값들은, SHVC 비트스트림에서 관련 신택스를 시그널링하는 대신에, 외부 수단에 의해 (예를 들어, 시스템 레벨에 의해) 제공될 수도 있다. 이것은, 베이스 계층 자체 및 베이스 계층 픽처들에 대해 기타 외부적으로 제공된 파라미터들과 유사한 방식으로 행해질 수 있다.
다른 고려사항들
본 명세서에 개시된 정보 및 신호들은 다양한 상이한 기술들 및 기법들 중 어느 것을 사용하여 나타낼 수도 있다. 예를 들어, 위의 기재 전체에 걸쳐 언급될 수도 있는 데이터, 명령들, 커맨드들, 정보, 신호들, 비트들, 심볼들, 및 칩들은, 전압, 전류, 전자기파, 자기장 또는 자기 입자, 광학장 또는 광학 입자 또는 그 임의의 조합으로 나타낼 수도 있다.
본 명세서에 개시된 실시형태들과 관련하여 기재되는 다양한 예시적인 로직 블록들, 및 알고리즘 단계들은 전자 하드웨어, 컴퓨터 소프트웨어, 또는 양자의 조합으로서 구현될 수도 있다. 이러한 하드웨어 및 소프트웨어의 상호 교환가능성을 명확히 예시하기 위해서, 다양한 예시적인 컴포넌트들, 블록들, 및 단계들이 그 기능에 대하여 위에서 일반적으로 기재되었다. 그러한 기능이 하드웨어 또는 소프트웨어로서 구현되는지 여부는 전체 시스템에 부여된 특정 어플리케이션 및 설계 제약들에 의존한다. 당업자는 각각의 특정 어플리케이션에 대해 다양한 방식으로 기재된 기능을 구현할 수도 있지만, 그러한 구현 결정은 본 개시물의 범위로부터 벗어나는 것을 야기하는 것으로 해석되지 않아야 한다.
본 명세서에 기재된 기법들은 하드웨어, 소프트웨어, 펌웨어 또는 그 임의의 조합으로 구현될 수도 있다. 그러한 기법들은 범용 컴퓨터들, 무선 통신 디바이스 핸드셋들, 또는 무선 통신 디바이스 핸드셋들 및 다른 디바이스들에서의 어플리케이션을 포함하는 다중 사용들을 갖는 집적 회로 디바이스와 같은 다양한 디바이스들 중 어느 것에서 구현될 수도 있다. 디바이스들 또는 컴포넌트들로서 기재된 임의의 피처들은 집적 로직 디바이스에서 함께 또는 이산이지만 상호 교환가능한 로직 디바이스들로서 별도로 구현될 수도 있다. 소프트웨어에서 구현되는 경우, 기법들은 실행될 때 상술한 방법들 중 하나 이상의 수행하는 명령들을 포함하는 프로그램 코드를 포함하는 컴퓨터 판독가능 데이터 저장 매체에 의해 적어도 부분적으로 실현될 수도 있다. 컴퓨터 판독가능 데이터 저장 매체는, 패키징 재료들을 포함할 수도 있는 컴퓨터 프로그램 제품의 부분을 형성할 수도 있다. 컴퓨터 판독가능 매체는 메모리 또는 데이터 저장 매체들, 예컨대 동기식 동적 랜덤 액세스 메모리 (SDRAM) 와 같은 랜덤 액세스 메모리 (RAM), 리드 온니 메모리 (ROM), 비휘발성 랜덤 액세스 메모리 (NVRAM), 전기적 소거가능 프로그램가능 리드 온니 메모리 (EEPROM), 플래시 메모리, 자기 또는 광학 데이터 저장 매체 등을 포함할 수도 있다. 부가적으로 또는 대안으로, 기법들은 명령들 또는 데이터 구조들의 형태로 프로그램 코드를 반송하거나 통신하고, 전파된 신호들 또는 파형들과 같은, 컴퓨터에 의해 액세스되고, 판독되고, 및/또는 실행될 수 있는 컴퓨터에 의해 실행될 수 있는 컴퓨터 판독가능 통신 매체에 의해 적어도 부분적으로 실현될 수도 있다.
프로그램 코드는 하나 이상의 프로세서들, 예컨대 하나 이상의 디지털 신호 프로세서들 (DSP들), 범용 마이크로프로세서들, 주문형 집적 회로들 (ASIC들), 필드 프로그램가능 어레이 (FPGA들), 또는 다른 등가의 직접 또는 이산 로직 회로를 포함할 수도 있는 프로세서에 의해 실행될 수도 있다. 그러한 프로세서는 본 개시물에 기재된 기법들 중 어느 것을 수행하도록 구성될 수도 있다. 범용 프로세서는 마이크로프로세서일 수도 있지만, 대안으로 프로세서는 임의의 종래 프로세서, 제어기, 마이크로제어기 또는 상태 머신일 수도 있다. 프로세서는 또한, 컴퓨팅 디바이스들의 조합, 예를 들어 DSP 및 마이크로프로세서의 조합, 복수의 마이크로프로세서들, DSP 코어와 협력하는 하나 이상의 마이크로프로세서들, 또는 임의의 다른 그러한 구성으로서 구현될 수도 있다. 따라서, 본 명세서에서 사용된 바와 같이 용어 "프로세서" 는 상기 구조들 중 어느 것, 상기 구조의 임의의 조합, 또는 본 명세서에 기재된 기법들의 구현을 위해 적합한 임의의 다른 구조 또는 장치를 지칭할 수도 있다. 부가적으로, 일부 양태들에서, 본 명세서에 기재된 기능은 결합된 비디오 인코더-디코더 (코덱) 에서 인코딩 및 디코딩을 위해 구성되거나 통합되는 전용 소프트웨어 또는 하드웨어 내에 제공될 수도 있다. 또한, 기법들은 하나 이상의 회로들 또는 논리 엘리먼트들에서 전부 구성될 수 있다.
본 개시의 기법들은 무선 핸드셋, 집적 회로 (IC) 또는 IC 들의 세트 (예를 들면, 칩 세트) 를 포함하여, 광범위하게 다양한 디바이스들 또는 장치들에서 구현될 수도 있다. 다양한 컴포넌트들 또는 유닛들이 개시된 기술들을 수행하도록 구성된 디바이스들의 기능적인 양태들을 강조하기 위하여 본 개시에 설명되었지만, 다른 하드웨어 유닛들에 의한 실현을 반드시 필요로 하는 것은 아니다. 오히려, 상술한 바와 같이, 다양한 유닛들이 코덱 하드웨어 유닛에 결합될 수도 있거나, 또는 적합한 소프트웨어 및/또는 펌웨어와 함께, 상술된 하나 이상의 프로세서들을 포함하는 연동적인 하드웨어 유닛들의 집합에 의해 제공될 수도 있다.
전술한 것이 다양한 상이한 실시형태들과 관련되어 설명되었지만, 본 개시물의 교시들로부터 벗어남이 없이 하나의 실시형태로부터의 피처들 또는 엘리먼트들이 다른 실시형태들과 조합될 수도 있다. 예를 들어, 인코더는 이용을 위해 이용가능한 다수의 논의된 해시 함수들을 가질 수도 있고, 비디오 정보의 각각의 블록에 대해 어떤 해시 함수를 이용할지를 결정할 수도 있다. 저장된 해시 인덱스는 다수의 값들을 포함할 수도 있고, 비디오 정보의 블록은, 블록에 대해 연산된 해시 인덱스가 저장된 해시 인덱스의 값들 중 하나 이상과 매칭하는 경우, 저장된 해시 인덱스에 맵핑될 수도 있다. 논의된 해시 필터들은 그 대신에 해시 테이블에의 현재 블록의 자동 부가와 조합하여 적용될 수도 있다, 즉, 해시 필터는 비디오 정보의 블록을 나타내는 정보가 해시 테이블에 부가된 후에 적용될 수도 있다. 예를 들어, 링크된 리스트가 풀 (full) 로 된다면, 해시 필터들은 그 포인트에서 적용될 수도 있다. 현재 블록을 나타내는 정보가 해시 테이블에서의 해시 인덱스에 맵핑된 후에 그 정보를 해시 테이블에 부가하는 것을 포함하여 피처들의 유사한 조합들이 또한 고려된다; 그러나, 각각의 실시형태들 사이의 피처들의 조합들은 반드시 이들로 제한되지는 않는다.
본 개시물의 다양한 실시형태들이 기재되었다. 이들 실시형태들 및 다른 실시형태들은 다음의 청구항들의 범위 내에 있다.

Claims (22)

  1. 멀티 계층 비트스트림에서 인핸스먼트 계층 픽처를 인코딩하기 위한 방법으로서,
    제 1 코딩 스킴에 기초하여 상기 멀티 계층 비트스트림의 적어도 하나의 인핸스먼트 계층을 인코딩하는 단계로서, 상기 멀티 계층 비트스트림은 상기 적어도 하나의 인핸스먼트 계층과 베이스 계층을 포함하는, 상기 멀티 계층 비트스트림의 적어도 하나의 인핸스먼트 계층을 인코딩하는 단계;
    상기 제 1 코딩 스킴과 연관된 코딩 스킴을 사용하여 상기 베이스 계층이 코딩되었는지 여부를 결정하는 단계로서, i) 상기 코딩 스킴이 상기 제 1 코딩 스킴과 동일하거나 또는 ii) 상기 제 1 코딩 스킴이 상기 코딩 스킴의 스케일러블 확장인 경우에만 상기 코딩 스킴이 상기 제 1 코딩 스킴과 연관되는, 상기 베이스 계층이 코딩되었는지 여부를 결정하는 단계;
    상기 제 1 코딩 스킴과 연관된 코딩 스킴을 사용하여 상기 베이스 계층이 코딩되지 않았다고 결정하는 것에 응답하여,
    (i) 비디오 파라미터 세트 (VPS) 에서 상기 베이스 계층의 컨포먼스 윈도우 플래그를 인코딩하는 단계로서, 상기 컨포먼스 윈도우 플래그는 상기 VPS가 적어도 하나의 베이스 계층 포지션 오프셋을 포함하는지 여부를 나타내고, 상기 적어도 하나의 베이스 계층 포지션 오프셋은 상기 픽처에 대한 포지셔닝 정보를 나타내는, 상기 컨포먼스 윈도우 플래그를 인코딩하는 단계, (ii) 상기 컨포먼스 윈도우 플래그를 미리결정된 값으로 설정하는 단계로서, 상기 미리결정된 값은 상기 VPS가 상기 적어도 하나의 베이스 계층 포지션 오프셋을 포함한다는 것을 나타내는, 상기 컨포먼스 윈도우 플래그를 미리결정된 값으로 설정하는 단계, 및 (iii) 상기 VPS에서 상기 적어도 하나의 베이스 계층 포지션 오프셋을 인코딩하는 단계; 또는
    상기 제 1 코딩 스킴과 연관된 코딩 스킴을 사용하여 상기 베이스 계층이 코딩되었다고 결정하는 것에 응답하여,
    (i) 상기 인핸스먼트 계층의 시퀀스 파라미터 세트 (SPS) 에서 상기 베이스 계층에 대한 컨포먼스 윈도우 플래그를 인코딩하는 단계로서, 상기 컨포먼스 윈도우 플래그는 상기 SPS가 적어도 하나의 포지션 오프셋을 포함하는지 여부를 나타내고, 상기 적어도 하나의 포지션 오프셋은 상기 픽처에 대한 포지셔닝 정보를 나타내는, 상기 컨포먼스 윈도우 플래그를 인코딩하는 단계, (ii) 상기 컨포먼스 윈도우 플래그를 미리결정된 값으로 설정하는 단계로서, 상기 미리결정된 값은 상기 SPS가 상기 적어도 하나의 포지션 오프셋을 포함한다는 것을 나타내는, 상기 컨포먼스 윈도우 플래그를 미리결정된 값으로 설정하는 단계, 및 (iii) 상기 SPS에서 상기 적어도 하나의 포지션 오프셋을 인코딩하는 단계를 포함하는, 멀티 계층 비트스트림에서 인핸스먼트 계층 픽처를 인코딩하기 위한 방법.
  2. 삭제
  3. 삭제
  4. 제 1 항에 있어서,
    상기 적어도 하나의 포지션 오프셋은 좌측 오프셋, 우측 오프셋, 상부 오프셋, 및 하부 오프셋 중 적어도 하나를 포함하는, 멀티 계층 비트스트림에서 인핸스먼트 계층 픽처를 인코딩하기 위한 방법.
  5. 제 1 항에 있어서,
    상기 제 1 코딩 스킴 또는 상기 제 1 코딩 스킴과 연관된 코딩 스킴에 기초하여 상기 베이스 계층이 코딩되지 않았다고 결정하는 것에 응답하여 상기 적어도 하나의 포지션 오프셋에 기초하여 상기 픽처를 인코딩하는 단계를 더 포함하는, 멀티 계층 비트스트림에서 인핸스먼트 계층 픽처를 인코딩하기 위한 방법.
  6. 제 1 항에 있어서,
    상기 베이스 계층은 출력 픽처 사이즈를 더 포함하는, 멀티 계층 비트스트림에서 인핸스먼트 계층 픽처를 인코딩하기 위한 방법.
  7. 멀티 계층 비트스트림에서 인핸스먼트 계층 픽처를 인코딩하기 위한 장치로서,
    메모리; 및
    상기 메모리와 동작가능하게 커플링되는 하드웨어 프로세서를 포함하고,
    상기 하드웨어 프로세서는:
    제 1 코딩 스킴에 기초하여 상기 멀티 계층 비트스트림의 적어도 하나의 인핸스먼트 계층을 인코딩하는 것으로서, 상기 멀티 계층 비트스트림은 상기 인핸스먼트 계층과 상이한 베이스 계층을 포함하는, 상기 상기 멀티 계층 비트스트림의 적어도 하나의 인핸스먼트 계층을 인코딩하고;
    상기 제 1 코딩 스킴과 연관된 코딩 스킴을 사용하여 상기 베이스 계층이 코딩되었는지 여부를 결정하는 것으로서, i) 상기 코딩 스킴이 상기 제 1 코딩 스킴과 동일하거나 또는 ii) 상기 제 1 코딩 스킴이 상기 코딩 스킴의 스케일러블 확장인 경우에만 상기 코딩 스킴이 상기 제 1 코딩 스킴과 연관되는, 상기 베이스 계층이 코딩되었는지 여부를 결정하고;
    상기 제 1 코딩 스킴과 연관된 코딩 스킴을 사용하여 상기 베이스 계층이 코딩되지 않았다고 결정하는 것에 응답하여,
    (i) 비디오 파라미터 세트 (VPS) 에서 상기 베이스 계층의 컨포먼스 윈도우 플래그를 인코딩하는 것으로서, 상기 컨포먼스 윈도우 플래그는 상기 VPS가 적어도 하나의 베이스 계층 포지션 오프셋을 포함하는지 여부를 나타내고, 상기 적어도 하나의 베이스 계층 포지션 오프셋은 상기 픽처에 대한 포지셔닝 정보를 나타내는, 상기 컨포먼스 윈도우 플래그를 인코딩하고, (ii) 상기 컨포먼스 윈도우 플래그를 미리결정된 값으로 설정하는 것으로서, 상기 미리결정된 값은 상기 VPS가 상기 적어도 하나의 베이스 계층 포지션 오프셋을 포함한다는 것을 나타내는, 상기 컨포먼스 윈도우 플래그를 미리결정된 값으로 설정하고, (iii) 상기 VPS에서 상기 적어도 하나의 베이스 계층 포지션 오프셋을 인코딩하고; 또는
    상기 제 1 코딩 스킴과 연관된 코딩 스킴을 사용하여 상기 베이스 계층이 코딩되었다고 결정하는 것에 응답하여,
    (i) 상기 인핸스먼트 계층의 시퀀스 파라미터 세트 (SPS) 에서 상기 베이스 계층에 대한 컨포먼스 윈도우 플래그를 인코딩하는 것으로서, 상기 컨포먼스 윈도우 플래그는 상기 SPS가 적어도 하나의 포지션 오프셋을 포함하는지 여부를 나타내고, 상기 적어도 하나의 포지션 오프셋은 상기 픽처에 대한 포지셔닝 정보를 나타내는, 상기 컨포먼스 윈도우 플래그를 인코딩하고, (ii) 상기 컨포먼스 윈도우 플래그를 미리결정된 값으로 설정하는 것으로서, 상기 미리결정된 값은 상기 SPS가 상기 적어도 하나의 포지션 오프셋을 포함한다는 것을 나타내는, 상기 컨포먼스 윈도우 플래그를 미리결정된 값으로 설정하고, (iii) 상기 SPS에서 상기 적어도 하나의 포지션 오프셋을 인코딩하도록 구성되는, 멀티 계층 비트스트림에서 인핸스먼트 계층 픽처를 인코딩하기 위한 장치.
  8. 삭제
  9. 삭제
  10. 삭제
  11. 제 7 항에 있어서,
    상기 프로세서는 또한, 상기 제 1 코딩 스킴 또는 상기 제 1 코딩 스킴과 연관된 코딩 스킴에 기초하여 상기 베이스 계층이 코딩되지 않았다고 결정하는 것에 응답하여, 상기 적어도 하나의 포지션 오프셋에 기초하여 상기 픽처를 인코딩하도록 구성되는, 멀티 계층 비트스트림에서 인핸스먼트 계층 픽처를 인코딩하기 위한 장치.
  12. 제 7 항에 있어서,
    상기 베이스 계층은 출력 픽처 사이즈를 더 포함하는, 멀티 계층 비트스트림에서 인핸스먼트 계층 픽처를 인코딩하기 위한 장치.
  13. 삭제
  14. 삭제
  15. 삭제
  16. 삭제
  17. 삭제
  18. 삭제
  19. 삭제
  20. 삭제
  21. 삭제
  22. 삭제
KR1020167031193A 2014-04-18 2015-04-17 멀티 계층 코딩에서의 컨포먼스 윈도우 정보 KR102140361B1 (ko)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201461981625P 2014-04-18 2014-04-18
US61/981,625 2014-04-18
US14/689,000 2015-04-16
US14/689,000 US9641851B2 (en) 2014-04-18 2015-04-16 Conformance window information in multi-layer coding
PCT/US2015/026497 WO2015161271A1 (en) 2014-04-18 2015-04-17 Conformance window information in multi-layer coding

Publications (2)

Publication Number Publication Date
KR20160145076A KR20160145076A (ko) 2016-12-19
KR102140361B1 true KR102140361B1 (ko) 2020-07-31

Family

ID=54323096

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020167031193A KR102140361B1 (ko) 2014-04-18 2015-04-17 멀티 계층 코딩에서의 컨포먼스 윈도우 정보

Country Status (8)

Country Link
US (1) US9641851B2 (ko)
EP (1) EP3132604B1 (ko)
JP (1) JP6700193B2 (ko)
KR (1) KR102140361B1 (ko)
CN (1) CN106165429B (ko)
BR (1) BR112016024233B1 (ko)
MX (1) MX353507B (ko)
WO (1) WO2015161271A1 (ko)

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI606716B (zh) * 2012-07-09 2017-11-21 Vid衡器股份有限公司 多層視訊編碼編解碼器架構
EP3249928A1 (en) * 2016-05-23 2017-11-29 Thomson Licensing Method, apparatus and stream of formatting an immersive video for legacy and immersive rendering devices
EP3603067A4 (en) * 2017-03-20 2021-03-24 Sharp Kabushiki Kaisha SYSTEMS AND METHODS FOR SIGNALING SCALABLE VIDEO IN A MEDIA APPLICATION FORMAT
CN116347100A (zh) * 2019-07-08 2023-06-27 华为技术有限公司 用于视频译码中的参考图像重采样的多个图像大小和符合性窗口的处理
CN114503574A (zh) 2019-09-19 2022-05-13 北京字节跳动网络技术有限公司 视频编解码中的缩放窗口
JP7328445B2 (ja) * 2019-09-19 2023-08-16 北京字節跳動網絡技術有限公司 ビデオコーディングにおける参照サンプル位置の導出
US11336894B2 (en) * 2019-09-20 2022-05-17 Tencent America LLC Signaling of reference picture resampling with resampling picture size indication in video bitstream
US11140402B2 (en) * 2019-09-20 2021-10-05 Tencent America LLC Signaling of reference picture resampling with constant window size indication in video bitstream
US11317093B2 (en) 2019-09-24 2022-04-26 Tencent America LLC Method for reference picture resampling with offset in video bitstream
BR112022006453A2 (pt) 2019-10-05 2022-09-27 Beijing Bytedance Network Tech Co Ltd Método de processamento de dados de dados de vídeo, aparelho para processar dados de vídeo, meio de armazenamento não transitório legível por computador e meio de gravação não transitório legível por computador
CA3156989A1 (en) * 2019-10-07 2021-02-04 Huawei Technologies Co., Ltd. Avoidance of redundant signaling in multi-layer video bitstreams
EP4042678A4 (en) 2019-10-12 2023-01-18 Beijing Bytedance Network Technology Co., Ltd. USE AND REPORTING OF REFINEMENT VIDEO CODING TOOLS
KR20220073740A (ko) 2019-10-13 2022-06-03 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 레퍼런스 픽처 리샘플링 및 비디오 코딩 툴 사이의 상호 작용
US11778215B2 (en) 2020-02-28 2023-10-03 Qualcomm Incorporated Coding output layer set data and conformance window data of high level syntax for video coding
CN115299051A (zh) * 2020-03-11 2022-11-04 抖音视界有限公司 视频编解码的一致性窗口参数
KR20220159987A (ko) 2020-03-30 2022-12-05 바이트댄스 아이엔씨 비디오 코딩에서의 적합성 윈도우 파라미터
KR20230016655A (ko) 2020-05-31 2023-02-02 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 로컬 이중 트리 모드 유형 정의가 있는 팔레트 모드
CN114342371A (zh) * 2020-06-10 2022-04-12 腾讯美国有限责任公司 用于编码视频流中的子图片的比特流提取技术
CN112601111B (zh) * 2020-11-19 2023-03-14 西安诺瓦星云科技股份有限公司 数据处理方法和装置以及数据传输系统
WO2023054068A1 (ja) * 2021-09-30 2023-04-06 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 符号化装置、復号装置、符号化方法、および復号方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014008286A1 (en) 2012-07-02 2014-01-09 Qualcomm Incorporated Video parameter set for hevc and extensions
WO2014052292A1 (en) * 2012-09-27 2014-04-03 Dolby Laboratories Licensing Corporation Inter-layer reference picture processing for coding standard scalability

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3057326A1 (en) * 2011-06-10 2016-08-17 MediaTek, Inc Method and apparatus of scalable video coding
US20150078457A1 (en) * 2013-09-13 2015-03-19 Qualcomm Incorporated Representation format signaling in multi-layer video coding

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014008286A1 (en) 2012-07-02 2014-01-09 Qualcomm Incorporated Video parameter set for hevc and extensions
WO2014052292A1 (en) * 2012-09-27 2014-04-03 Dolby Laboratories Licensing Corporation Inter-layer reference picture processing for coding standard scalability

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
B. Choi, et al. On parameter set prediction. JCT-VC of ITU-T and ISO/IEC. JCTVC-M0165 Ver.4, Apr. 17, 2013, pp.1-11
Y-K. Wang, et al. AHG9: On VPS and SPS in HEVC 3DV and scalable extensions. JCT-VC of ITU-T and ISO/IEC. JCTVC-M0268 Ver.2, Apr. 24, 2013, pp.1-25*

Also Published As

Publication number Publication date
CN106165429B (zh) 2019-05-28
US20150304666A1 (en) 2015-10-22
EP3132604B1 (en) 2020-04-08
JP6700193B2 (ja) 2020-05-27
CN106165429A (zh) 2016-11-23
EP3132604A1 (en) 2017-02-22
BR112016024233A2 (pt) 2017-08-15
US9641851B2 (en) 2017-05-02
BR112016024233B1 (pt) 2023-12-19
BR112016024233A8 (pt) 2021-07-13
MX2016013401A (es) 2017-02-15
JP2017517185A (ja) 2017-06-22
KR20160145076A (ko) 2016-12-19
WO2015161271A1 (en) 2015-10-22
MX353507B (es) 2018-01-17

Similar Documents

Publication Publication Date Title
KR102140361B1 (ko) 멀티 계층 코딩에서의 컨포먼스 윈도우 정보
KR102142836B1 (ko) 다중 계층 비트스트림들에 대한 픽처 플러싱 및 디코딩된 픽처 버퍼 파라미터 추론
KR102038190B1 (ko) 스케일러블 비디오 코딩에서의 비트스트림 적합성 제약들
US9560358B2 (en) Device and method for scalable coding of video information
US9832481B2 (en) Support of base layer of a different codec in multi-layer video coding
CA2951530C (en) Full picture order count reset for multi-layer codecs
US10212437B2 (en) Device and method for scalable coding of video information
US9674522B2 (en) Device and method for scalable coding of video information
KR101864053B1 (ko) 멀티 계층 코딩에서 계층간 레퍼런스 픽처 세트 (rps) 의 코딩 및 비트스트림의 종단 (eob) 네트워크 액세스 계층 (nal) 유닛들의 코딩을 위한 방법들
KR20160031498A (ko) 비디오 정보의 스케일러블 코딩을 위한 디바이스 및 방법
KR102312764B1 (ko) 멀티 계층 코딩에서 레퍼런스 픽처 세트 (rps) 를 코딩하기 위한 방법

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant