KR20220070325A - 서브 비트스트림 추출의 sps 오류 방지 - Google Patents

서브 비트스트림 추출의 sps 오류 방지 Download PDF

Info

Publication number
KR20220070325A
KR20220070325A KR1020227015249A KR20227015249A KR20220070325A KR 20220070325 A KR20220070325 A KR 20220070325A KR 1020227015249 A KR1020227015249 A KR 1020227015249A KR 20227015249 A KR20227015249 A KR 20227015249A KR 20220070325 A KR20220070325 A KR 20220070325A
Authority
KR
South Korea
Prior art keywords
layer
sps
vps
picture
bitstream
Prior art date
Application number
KR1020227015249A
Other languages
English (en)
Inventor
예-쿠이 왕
Original Assignee
후아웨이 테크놀러지 컴퍼니 리미티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 후아웨이 테크놀러지 컴퍼니 리미티드 filed Critical 후아웨이 테크놀러지 컴퍼니 리미티드
Publication of KR20220070325A publication Critical patent/KR20220070325A/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/159Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/184Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being bits, e.g. of the compressed video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/188Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a video data packet, e.g. a network abstraction layer [NAL] unit
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/42Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/42Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
    • H04N19/423Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation characterised by memory arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • H04N19/463Embedding additional information in the video signal during the compression process by compressing encoding parameters before transmission
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • H04N19/52Processing of motion vectors by encoding by predictive encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/573Motion compensation with multiple frame prediction using two or more reference frames in a given prediction direction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/593Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/80Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
    • H04N19/82Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation involving filtering within a prediction loop
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/172Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/174Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a slice, e.g. a line of blocks or a group of blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/187Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a scalable video layer

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

비디오 코딩 메커니즘이 개시된다. 이 메커니즘은 비트스트림의 레이어에 대한 코딩된 레이어 비디오 시퀀스(CLVS)를 인코딩하는 단계를 포함한다. CLVS에 의해 참조되는 시퀀스 파라미터 세트(SPS)가 또한 비트스트림으로 인코딩된다. SPS는 레이어가 레이어 간 예측을 사용하지 않는 경우 CLVS의 네트워크 추상화 레이어(NAL) 유닛 헤더 레이어 식별자(nuh_layer_id) 값과 같은 nuh_layer_id 값을 갖도록 제한된다. 비트스트림은 디코더를 향한 통신을 위해 저장된다.

Description

서브 비트스트림 추출의 SPS 오류 방지
본 특허 출원은 2019년 10월 7일에 Ye-Kui Wang에 의해 출원된 미국 가특허 출원 제62/911,808호('비디오 코딩의 확장성')의 이익을 주장하며, 이것은 참조로서 본 명세서에 포함된다.
본 개시는 일반적으로 비디오 코딩에 관한 것으로, 구체적으로 서브 비트스트림 추출이 다중 레이어 비트스트림에 대해 수행되는 경우 오류를 방지하기 위한 메커니즘에 관한 것이다.
비교적 짧은 비디오라도 이를 묘사하는 데 필요한 비디오 데이터의 양은 상당할 수 있으며, 이로 인해 데이터가 스트리밍되거나 또는 제한된 대역폭 용량으로 통신 네트워크를 통해 통신될 때 어려움이 초래될 수 있다. 따라서, 비디오 데이터는 일반적으로 현대 통신 네트워크를 통해 통신되기 전에 압축된다. 메모리 자원이 한정될 수 있기 때문에 비디오가 저장 장치에 저장될 때 비디오의 크기가 또한 문제가 될 수 있다. 비디오 압축 장치는 종종 소스에서 소프트웨어 및/또는 하드웨어를 사용하여 전송 또는 저장 전에 비디오 데이터를 코딩하므로, 디지털 비디오 이미지를 표현하는 데 필요한 데이터의 양이 감소할 수 있다. 그 후, 압축된 데이터는 비디오 데이터를 디코딩하는 비디오 압축해제 장치에 의해 목적지에서 수신된다. 제한된 네트워크 자원과 더 높은 비디오 품질에 대한 요구가 계속 증가함에 따라, 이미지 품질을 거의 또는 전혀 희생하지 않고 압축 비율을 개선하는 개선된 압축 및 압축해제 기술이 요구된다.
실시예에서, 본 개시는 디코더에 의해 구현되는 방법을 포함하고, 이 방법은, 상기 디코더에 의해, 레이어에 대한 코딩된 레이어 비디오 시퀀스(coded layer video sequence, CLVS) 및 상기 CLVS에 의해 참조되는 시퀀스 파라미터 세트(sequence parameter set, SPS)를 포함하는 비트스트림을 수신하는 단계 ― 상기 SPS는 상기 레이어가 레이어 간 예측을 사용하지 않는 경우 상기 CLVS의 네트워크 추상화 레이어(network abstraction layer, NAL) 유닛 헤더 레이어 식별자(nuh_layer_id) 값과 같은 nuh_layer_id 값을 가짐 ―; 및 상기 디코더에 의해, 디코딩된 픽처를 생성하기 위해 상기 SPS에 기초하여 상기 CLVS로부터 코딩된 픽처를 디코딩하는 단계를 포함한다.
일부 비디오 코딩 시스템은 비디오 시퀀스를 픽처 레이어로 코딩한다. 상이한 레이어의 픽처는 상이한 특성을 갖는다. 따라서, 인코더는 디코더 측 제약에 따라 디코더에게 상이한 레이어를 전송할 수 있다. 이러한 기능을 수행하기 위해, 인코더는 모든 레이어를 단일 비트스트림으로 인코딩할 수 있다. 요청 시, 인코더는 비트스트림으로부터 관련 없는 정보를 제거하기 위해 서브 비트스트림 추출 프로세스를 수행할 수 있다. 이러한 결과는 디코더에 의해 요청된 레이어(들)의 데이터만을 포함하는 추출된 비트스트림이다. 레이어가 관련되는 방식에 대한 설명은 비디오 파라미터 세트(VPS)에 포함될 수 있다. 동시 방송 레이어는 다른 레이어를 참조하지 않고 디스플레이하도록 구성된 레이어이다. 동시 방송 레이어가 디코더로 전송되는 경우, 동시 방송 레이어를 디코딩하기 위해 레이어 관계가 필요하지 않기 때문에 서브 비트스트림 추출 프로세스는 VPS를 제거할 수 있다. 불행히도, 다른 파라미터 세트의 특정 변수는 VPS를 참조할 수 있다. 이와 같이, 동시 방송 레이어가 전송되는 경우 VPS를 제거하면 코딩 효율을 높일 수 있지만, 또한 오류가 발생할 수 있다. 또한, SPS를 정확하게 식별하지 못하면 VPS와 함께 SPS를 잘못 제거할 수 있다. SPS가 누락되는 경우 레이어가 디코더에서 정확하게 디코딩되지 않을 수 있으므로 이것이 문제가 될 수 있다. 본 예는 서브 비트스트림 추출 동안 VPS가 제거될 때 오류를 방지하기 위한 메커니즘을 포함한다. 구체적으로, 서브 비트스트림 추출 프로세스는 nuh_layer_ids에 기초하여 NAL 유닛을 제거한다. SPS는 CLVS가 레이어 간 예측을 사용하지 않는 레이어에 포함되는 경우 SPS를 참조하는 CLVS의 nuh_layer_id와 동일한 nuh_layer_id를 갖도록 제한된다. 레이어 간 예측을 사용하지 않는 레이어는 동시 방송 레이어이다. 이와 같이, SPS는 VPS가 제거될 때 레이어와 동일한 nuh_layer_id를 갖는다. 이러한 방식으로, SPS는 서브 비트스트림 추출 프로세스에 의해 실수로 제거되지 않는다. 레이어 간 예측의 사용은 VPS 독립 레이어 플래그(vps_independent_layer_flag)에 의해 시그널링된다. 그러나, vps_independent_layer_flag는 VPS가 제거되는 경우 제거된다. 따라서, vps_independent_layer_flag[GeneralLayerIdx[nuh_layer_id]]로 표시된 현재 레이어에 대한 vps_independent_layer_flag는 SPS가 VPS를 참조하지 않는 경우 1인 것으로 추론된다. SPS VPS 식별자(sps_video_parameter_set_id)가 0으로 설정되는 경우 SPS는 VPS를 참조하지 않는다. 또한, vps_independent_layer_flag[GeneralLayerIdx[nuh_layer_id]]가 1과 같은 경우(예를 들어, VPS가 존재하지 않는 경우), 디코더 및/또는 가상 참조 디코더(hypothetical reference decoder, HRD)는 현재 레이어/CLVS가 레이어 간 예측을 사용하지 않는 것으로 추론할 수 있다. 이러한 일련의 추론을 사용함으로써, SPS는 VPS 및 대응하는 파라미터가 비트스트림으로부터 제거되는 경우에도 서브 비트스트림 추출 프로세스에 의한 추출을 방지하기 위해 적절한 nuh_layer_id를 포함하도록 제한될 수 있다. 결과적으로, 인코더와 디코더의 기능이 향상된다. 또한, 인코더와 디코더 모두에서 프로세서, 메모리 및/또는 네트워크 시그널링 자원 사용량을 줄이는 동시 방송 레이어만을 포함하는 비트스트림에서 불필요한 VPS를 성공적으로 제거함으로써 코딩 효율성이 증가된다.
선택적으로, 선행 측면들 중 임의의 것에서, 본 측면의 다른 구현이 제공되며, 여기서 GeneralLayerIdx[nuh_layer_id]는 현재 레이어 인덱스와 같다.
선택적으로, 선행 측면들 중 임의의 것에서, 본 측면의 다른 구현이 제공되며, 여기서 vps_independent_layer_flag는 대응하는 레이어가 레이어 간 예측을 사용하는지 여부를 지정한다.
선택적으로, 선행 측면들 중 임의의 것에서, 본 측면의 다른 구현이 제공되며, 여기서 상기 레이어는 vps_independent_layer_flag[GeneralLayerIdx[nuh_layer_id]]가 1과 같은 경우 레이어 간 예측을 사용하지 않는다.
선택적으로, 선행 측면들 중 임의의 것에서, 본 측면의 다른 구현이 제공되며, 여기서 상기 SPS는 상기 SPS에 의해 참조되는 VPS에 대한 식별자(identifier, ID)의 값을 지정하는 sps_video_parameter_set_id를 포함하고, 상기 vps_independent_layer_flag[GeneralLayerIdx[nuh_layer_id]]는 sps_video_parameter_set_id가 0과 같은 경우 1과 같은 것으로 추론된다.
선택적으로, 선행 측면들 중 임의의 것에서, 본 측면의 다른 구현이 제공되며, 여기서 상기 SPS는 상기 sps_video_parameter_set_id가 0과 같은 경우 VPS를 참조하지 않는다.
선택적으로, 선행 측면들 중 임의의 것에서, 본 측면의 다른 구현이 제공되며, 여기서 상기 CLVS는 동일한 nuh_layer_id 값을 갖는 코딩된 픽처의 시퀀스이다.
실시예에서, 본 개시는 인코더에 의해 구현되는 방법을 포함하고, 이 방법은, 비트스트림의 레이어에 대한 CLVS를 인코딩하는 단계; 상기 CLVS에 의해 참조되는 SPS를 상기 비트스트림으로 인코딩하는 단계 ― 상기 SPS는 상기 레이어가 레이어 간 예측을 사용하지 않는 경우 상기 CLVS의 nuh_layer_id 값과 같은 nuh_layer_id 값을 갖도록 제한됨 ―; 및 상기 인코더에 의해, 디코더를 향한 통신을 위한 비트스트림을 저장하는 단계를 포함한다.
일부 비디오 코딩 시스템은 비디오 시퀀스를 픽처 레이어로 코딩한다. 상이한 레이어의 픽처는 상이한 특성을 갖는다. 따라서, 인코더는 디코더 측 제약에 따라 디코더에게 상이한 레이어를 전송할 수 있다. 이러한 기능을 수행하기 위해, 인코더는 모든 레이어를 단일 비트스트림으로 인코딩할 수 있다. 요청 시, 인코더는 비트스트림으로부터 관련 없는 정보를 제거하기 위해 서브 비트스트림 추출 프로세스를 수행할 수 있다. 이러한 결과는 디코더에 의해 요청된 레이어(들)의 데이터만을 포함하는 추출된 비트스트림이다. 레이어가 관련되는 방식에 대한 설명은 비디오 파라미터 세트(VPS)에 포함될 수 있다. 동시 방송 레이어는 다른 레이어를 참조하지 않고 디스플레이하도록 구성된 레이어이다. 동시 방송 레이어가 디코더로 전송되는 경우, 동시 방송 레이어를 디코딩하기 위해 레이어 관계가 필요하지 않기 때문에 서브 비트스트림 추출 프로세스는 VPS를 제거할 수 있다. 불행히도, 다른 파라미터 세트의 특정 변수는 VPS를 참조할 수 있다. 이와 같이, 동시 방송 레이어가 전송되는 경우 VPS를 제거하면 코딩 효율을 높일 수 있지만, 또한 오류가 발생할 수 있다. 또한, SPS를 정확하게 식별하지 못하면 VPS와 함께 SPS를 잘못 제거할 수 있다. SPS가 누락되는 경우 레이어가 디코더에서 정확하게 디코딩되지 않을 수 있으므로 이것이 문제가 될 수 있다. 본 예는 서브 비트스트림 추출 동안 VPS가 제거될 때 오류를 방지하기 위한 메커니즘을 포함한다. 구체적으로, 서브 비트스트림 추출 프로세스는 nuh_layer_ids에 기초하여 NAL 유닛을 제거한다. SPS는 CLVS가 레이어 간 예측을 사용하지 않는 레이어에 포함되는 경우 SPS를 참조하는 CLVS의 nuh_layer_id와 동일한 nuh_layer_id를 갖도록 제한된다. 레이어 간 예측을 사용하지 않는 레이어는 동시 방송 레이어이다. 이와 같이, SPS는 VPS가 제거될 때 레이어와 동일한 nuh_layer_id를 갖는다. 이러한 방식으로, SPS는 서브 비트스트림 추출 프로세스에 의해 실수로 제거되지 않는다. 레이어 간 예측의 사용은 vps_independent_layer_flag에 의해 시그널링된다. 그러나, vps_independent_layer_flag는 VPS가 제거되는 경우 제거된다. 따라서, vps_independent_layer_flag[GeneralLayerIdx[nuh_layer_id]]로 표시된 현재 레이어에 대한 vps_independent_layer_flag는 SPS가 VPS를 참조하지 않는 경우 1인 것으로 추론된다. sps_video_parameter_set_id가 0으로 설정되는 경우 SPS는 VPS를 참조하지 않는다. 또한, vps_independent_layer_flag[GeneralLayerIdx[nuh_layer_id]]가 1과 같은 경우(예를 들어, VPS가 존재하지 않는 경우), 디코더 및/또는 HRD는 현재 레이어/CLVS가 레이어 간 예측을 사용하지 않는 것으로 추론할 수 있다. 이러한 일련의 추론을 사용함으로써, SPS는 VPS 및 대응하는 파라미터가 비트스트림으로부터 제거되는 경우에도 서브 비트스트림 추출 프로세스에 의한 추출을 방지하기 위해 적절한 nuh_layer_id를 포함하도록 제한될 수 있다. 결과적으로, 인코더와 디코더의 기능이 향상된다. 또한, 인코더와 디코더 모두에서 프로세서, 메모리 및/또는 네트워크 시그널링 자원 사용량을 줄이는 동시 방송 레이어만을 포함하는 비트스트림에서 불필요한 VPS를 성공적으로 제거함으로써 코딩 효율성이 증가된다.
선택적으로, 선행 측면들 중 임의의 것에서, 본 측면의 다른 구현이 제공되며, 여기서 GeneralLayerIdx[nuh_layer_id]는 현재 레이어 인덱스와 같다.
선택적으로, 선행 측면들 중 임의의 것에서, 본 측면의 다른 구현이 제공되며, 여기서 vps_independent_layer_flag는 대응하는 레이어가 레이어 간 예측을 사용하는지 여부를 지정한다.
선택적으로, 선행 측면들 중 임의의 것에서, 본 측면의 다른 구현이 제공되며, 여기서 상기 레이어는 vps_independent_layer_flag[GeneralLayerIdx[nuh_layer_id]]가 1과 같은 경우 레이어 간 예측을 사용하지 않는다.
선택적으로, 선행 측면들 중 임의의 것에서, 본 측면의 다른 구현이 제공되며, 여기서 상기 SPS는 상기 SPS에 의해 참조되는 VPS에 대한 ID의 값을 지정하는 sps_video_parameter_set_id를 포함하고, 상기 vps_independent_layer_flag[GeneralLayerIdx[nuh_layer_id]]는 sps_video_parameter_set_id가 0과 같은 경우 1과 같은 것으로 추론된다.
선택적으로, 선행 측면들 중 임의의 것에서, 본 측면의 다른 구현이 제공되며, 여기서 상기 SPS는 상기 sps_video_parameter_set_id가 0과 같은 경우 VPS를 참조하지 않는다.
선택적으로, 선행 측면들 중 임의의 것에서, 본 측면의 다른 구현이 제공되며, 여기서 상기 CLVS는 동일한 nuh_layer_id 값을 갖는 코딩된 픽처의 시퀀스이다.
실시예에서, 본 개시는 프로세서, 상기 프로세서에 연결된 수신기, 상기 프로세서에 연결된 메모리, 및 상기 프로세서에 연결된 전송기를 포함하며, 상기 프로세서, 수신기, 메모리 및 전송기는 선행 측면들 중 어느 하나의 방법을 수행하도록 구성된 비디오 코딩 장치를 포함한다.
실시예에서, 본 개시는 비디오 코딩 장치에 의해 사용을 위한 컴퓨터 프로그램 제품을 포함하는 비일시적 컴퓨터 판독 가능 매체를 포함하며, 상기 컴퓨터 프로그램 제품은 프로세서에 의해 실행될 때 상기 비디오 코딩 장치로 하여금 선행 측면들 중 어느 하나의 방법을 수행하도록 상기 비일시적 컴퓨터 판독 가능 매체에 저장된 컴퓨터 실행 가능 명령을 포함한다.
실시예에서, 본 개시는, 레이어에 대한 CLVS 및 상기 CLVS에 의해 참조되는 SPS를 포함하는 비트스트림을 수신하기 위한 수신 수단 ― 상기 SPS는 상기 레이어가 레이어 간 예측을 사용하지 않는 경우 상기 CLVS의 nuh_layer_id 값과 같은 nuh_layer_id 값을 가짐 ―; 디코딩된 픽처를 생성하기 위해 상기 SPS에 기초하여 상기 CLVS로부터 코딩된 픽처를 디코딩하기 위한 디코딩 수단; 및 디코딩된 비디오 시퀀스의 일부로서 디스플레이를 위해 디코딩된 픽처를 전달하기 위한 전달 수단을 포함하는 디코더를 포함한다.
일부 비디오 코딩 시스템은 비디오 시퀀스를 픽처 레이어로 코딩한다. 상이한 레이어의 픽처는 상이한 특성을 갖는다. 따라서, 인코더는 디코더 측 제약에 따라 디코더에게 상이한 레이어를 전송할 수 있다. 이러한 기능을 수행하기 위해, 인코더는 모든 레이어를 단일 비트스트림으로 인코딩할 수 있다. 요청 시, 인코더는 비트스트림으로부터 관련 없는 정보를 제거하기 위해 서브 비트스트림 추출 프로세스를 수행할 수 있다. 이러한 결과는 디코더에 의해 요청된 레이어(들)의 데이터만을 포함하는 추출된 비트스트림이다. 레이어가 관련되는 방식에 대한 설명은 비디오 파라미터 세트(VPS)에 포함될 수 있다. 동시 방송 레이어는 다른 레이어를 참조하지 않고 디스플레이하도록 구성된 레이어이다. 동시 방송 레이어가 디코더로 전송되는 경우, 동시 방송 레이어를 디코딩하기 위해 레이어 관계가 필요하지 않기 때문에 서브 비트스트림 추출 프로세스는 VPS를 제거할 수 있다. 불행히도, 다른 파라미터 세트의 특정 변수는 VPS를 참조할 수 있다. 이와 같이, 동시 방송 레이어가 전송되는 경우 VPS를 제거하면 코딩 효율을 높일 수 있지만, 또한 오류가 발생할 수 있다. 또한, SPS를 정확하게 식별하지 못하면 VPS와 함께 SPS를 잘못 제거할 수 있다. SPS가 누락되는 경우 레이어가 디코더에서 정확하게 디코딩되지 않을 수 있으므로 이것이 문제가 될 수 있다. 본 예는 서브 비트스트림 추출 동안 VPS가 제거될 때 오류를 방지하기 위한 메커니즘을 포함한다. 구체적으로, 서브 비트스트림 추출 프로세스는 nuh_layer_ids에 기초하여 NAL 유닛을 제거한다. SPS는 CLVS가 레이어 간 예측을 사용하지 않는 레이어에 포함되는 경우 SPS를 참조하는 CLVS의 nuh_layer_id와 동일한 nuh_layer_id를 갖도록 제한된다. 레이어 간 예측을 사용하지 않는 레이어는 동시 방송 레이어이다. 이와 같이, SPS는 VPS가 제거될 때 레이어와 동일한 nuh_layer_id를 갖는다. 이러한 방식으로, SPS는 서브 비트스트림 추출 프로세스에 의해 실수로 제거되지 않는다. 레이어 간 예측의 사용은 vps_independent_layer_flag에 의해 시그널링된다. 그러나, vps_independent_layer_flag는 VPS가 제거되는 경우 제거된다. 따라서, vps_independent_layer_flag[GeneralLayerIdx[nuh_layer_id]]로 표시된 현재 레이어에 대한 vps_independent_layer_flag는 SPS가 VPS를 참조하지 않는 경우 1인 것으로 추론된다. sps_video_parameter_set_id가 0으로 설정되는 경우 SPS는 VPS를 참조하지 않는다. 또한, vps_independent_layer_flag[GeneralLayerIdx[nuh_layer_id]]가 1과 같은 경우(예를 들어, VPS가 존재하지 않는 경우), 디코더 및/또는 HRD는 현재 레이어/CLVS가 레이어 간 예측을 사용하지 않는 것으로 추론할 수 있다. 이러한 일련의 추론을 사용함으로써, SPS는 VPS 및 대응하는 파라미터가 비트스트림으로부터 제거되는 경우에도 서브 비트스트림 추출 프로세스에 의한 추출을 방지하기 위해 적절한 nuh_layer_id를 포함하도록 제한될 수 있다. 결과적으로, 인코더와 디코더의 기능이 향상된다. 또한, 인코더와 디코더 모두에서 프로세서, 메모리 및/또는 네트워크 시그널링 자원 사용량을 줄이는 동시 방송 레이어만을 포함하는 비트스트림에서 불필요한 VPS를 성공적으로 제거함으로써 코딩 효율성이 증가된다.
선택적으로, 선행 측면들 중 임의의 것에서, 본 측면의 다른 구현이 제공되며, 여기서 상기 디코더는 선행 측면들 중 어느 하나의 방법을 수행하도록 추가로 구성된다.
실시예에서, 본 개시는, 인코딩 수단 ― 상기 인코딩 수단은, 비트스트림의 레이어에 대한 CLVS를 인코딩하고, 상기 CLVS에 의해 참조되는 SPS를 상기 비트스트림으로 인코딩하기 위한 것이며, 상기 SPS는 상기 레이어가 레이어 간 예측을 사용하지 않는 경우 상기 CLVS의 nuh_layer_id 값과 같은 nuh_layer_id 값을 갖도록 제한됨 ―; 및 디코더를 향한 통신을 위한 비트스트림을 저장하기 위한 저장 수단을 포함하는 인코더를 포함한다.
일부 비디오 코딩 시스템은 비디오 시퀀스를 픽처 레이어로 코딩한다. 상이한 레이어의 픽처는 상이한 특성을 갖는다. 따라서, 인코더는 디코더 측 제약에 따라 디코더에게 상이한 레이어를 전송할 수 있다. 이러한 기능을 수행하기 위해, 인코더는 모든 레이어를 단일 비트스트림으로 인코딩할 수 있다. 요청 시, 인코더는 비트스트림으로부터 관련 없는 정보를 제거하기 위해 서브 비트스트림 추출 프로세스를 수행할 수 있다. 이러한 결과는 디코더에 의해 요청된 레이어(들)의 데이터만을 포함하는 추출된 비트스트림이다. 레이어가 관련되는 방식에 대한 설명은 비디오 파라미터 세트(VPS)에 포함될 수 있다. 동시 방송 레이어는 다른 레이어를 참조하지 않고 디스플레이하도록 구성된 레이어이다. 동시 방송 레이어가 디코더로 전송되는 경우, 동시 방송 레이어를 디코딩하기 위해 레이어 관계가 필요하지 않기 때문에 서브 비트스트림 추출 프로세스는 VPS를 제거할 수 있다. 불행히도, 다른 파라미터 세트의 특정 변수는 VPS를 참조할 수 있다. 이와 같이, 동시 방송 레이어가 전송되는 경우 VPS를 제거하면 코딩 효율을 높일 수 있지만, 또한 오류가 발생할 수 있다. 또한, SPS를 정확하게 식별하지 못하면 VPS와 함께 SPS를 잘못 제거할 수 있다. SPS가 누락되는 경우 레이어가 디코더에서 정확하게 디코딩되지 않을 수 있으므로 이것이 문제가 될 수 있다. 본 예는 서브 비트스트림 추출 동안 VPS가 제거될 때 오류를 방지하기 위한 메커니즘을 포함한다. 구체적으로, 서브 비트스트림 추출 프로세스는 nuh_layer_ids에 기초하여 NAL 유닛을 제거한다. SPS는 CLVS가 레이어 간 예측을 사용하지 않는 레이어에 포함되는 경우 SPS를 참조하는 CLVS의 nuh_layer_id와 동일한 nuh_layer_id를 갖도록 제한된다. 레이어 간 예측을 사용하지 않는 레이어는 동시 방송 레이어이다. 이와 같이, SPS는 VPS가 제거될 때 레이어와 동일한 nuh_layer_id를 갖는다. 이러한 방식으로, SPS는 서브 비트스트림 추출 프로세스에 의해 실수로 제거되지 않는다. 레이어 간 예측의 사용은 vps_independent_layer_flag에 의해 시그널링된다. 그러나, vps_independent_layer_flag는 VPS가 제거되는 경우 제거된다. 따라서, vps_independent_layer_flag[GeneralLayerIdx[nuh_layer_id]]로 표시된 현재 레이어에 대한 vps_independent_layer_flag는 SPS가 VPS를 참조하지 않는 경우 1인 것으로 추론된다. sps_video_parameter_set_id가 0으로 설정되는 경우 SPS는 VPS를 참조하지 않는다. 또한, vps_independent_layer_flag[GeneralLayerIdx[nuh_layer_id]]가 1과 같은 경우(예를 들어, VPS가 존재하지 않는 경우), 디코더 및/또는 HRD는 현재 레이어/CLVS가 레이어 간 예측을 사용하지 않는 것으로 추론할 수 있다. 이러한 일련의 추론을 사용함으로써, SPS는 VPS 및 대응하는 파라미터가 비트스트림으로부터 제거되는 경우에도 서브 비트스트림 추출 프로세스에 의한 추출을 방지하기 위해 적절한 nuh_layer_id를 포함하도록 제한될 수 있다. 결과적으로, 인코더와 디코더의 기능이 향상된다. 또한, 인코더와 디코더 모두에서 프로세서, 메모리 및/또는 네트워크 시그널링 자원 사용량을 줄이는 동시 방송 레이어만을 포함하는 비트스트림에서 불필요한 VPS를 성공적으로 제거함으로써 코딩 효율성이 증가된다.
선택적으로, 선행 측면들 중 임의의 것에서, 본 측면의 다른 구현이 제공되며, 여기서 인코더는 선행 측면들 중 어느 하나의 방법을 수행하도록 추가로 구성된다.
명료함을 위해, 전술한 실시예 중 임의의 하나는 본 개시의 범위 내에서 새로운 실시예를 생성하기 위해 임의의 하나 이상의 다른 전술한 실시예와 결합될 수 있다.
이들 및 다른 특징은 첨부 도면 및 청구범위와 관련하여 취해진 다음의 상세한 설명으로부터 더 명확하게 이해될 것이다.
본 개시의 보다 완전한 이해를 위해, 첨부 도면 및 상세한 설명과 관련하여 취해진 다음의 간단한 설명이 참조되며, 여기서 동일한 참조 번호는 동일한 부분을 나타낸다.
도 1은 비디오 신호를 코딩하는 예시적인 방법의 흐름도이다.
도 2는 비디오 코딩을 위한 예시적인 코딩 및 디코딩(코덱) 시스템의 개략도이다.
도 3은 예시적인 비디오 인코더를 도시한 개략도이다.
도 4는 예시적인 비디오 디코더를 도시한 개략도이다.
도 5는 예시적인 가상 기준 디코더(HRD)를 도시한 개략도이다.
도 6은 레이어 간 예측을 위해 구성된 예시적인 다중 레이어 비디오 시퀀스를 도시한 개략도이다.
도 7은 예시적인 비트스트림을 도시한 개략도이다.
도 8은 예시적인 비디오 코딩 장치의 개략도이다.
도 9는 동시 방송 레이어에 대한 서브 비트스트림 추출 동안 시퀀스 파라미터 세트(SPS)를 유지하는 것을 지원하기 위해 다중 레이어 비디오 시퀀스를 비트스트림으로 인코딩하는 예시적인 방법의 흐름도이다.
도 10은 서브 비트스트림 추출 동안 SPS가 유지되었던 다중 레이어 비트스트림으로부터 추출된 동시 방송 레이어를 포함하는 비트스트림으로부터 비디오 시퀀스를 디코딩하는 예시적인 방법의 흐름도이다.
도 11은 동시 방송 레이어에 대한 서브 비트스트림 추출 동안 SPS 유지를 지원하기 위해 다중 레이어 비디오 시퀀스를 비트스트림으로 코딩하기 위한 예시적인 시스템의 개략도이다.
하나 이상의 실시예의 예시적인 구현이 아래에서 제공되지만, 개시된 시스템 및/또는 방법은 현재 알려져 있거나 또는 존재하는지의 여부에 관계없이 임의의 수량의 기술을 사용하여 구현될 수 있다는 것이 이해되어야 한다. 본 개시는 여기에서 예시되고 설명된 예시적인 설계 및 구현을 포함하여 아래에서 도시된 예시적인 구현, 도면 및 기술로 제한되지 않아야 하며, 등가물의 전체 범위와 함께 첨부된 청구항의 범위 내에서 수정될 수 있다.
하기 용어들은 여기에서 상반되는 상황에서 사용되지 않는 한 다음과 같이 정의된다. 구체적으로, 하기 정의는 본 개시에 추가적인 명확성을 제공하기 위한 것이다. 그러나, 용어들은 상황에 따라 다르게 설명될 수 있다. 따라서, 다음 정의는 보충으로 간주되어야 하며 여기에서 이러한 용어들에 대해 제공된 설명의 다른 정의를 제한하는 것으로 간주되어서는 안된다.
비트스트림은 인코더와 디코더 사이의 전송을 위해 압축되는 비디오 데이터를 포함하는 비트 시퀀스이다. 인코더는 비디오 데이터를 비트스트림으로 압축하기 위해 인코딩 프로세스를 사용하도록 구성된 장치이다. 디코더는 디스플레이를 위해 비트스트림으로부터 비디오 데이터를 재구성하기 위해 디코딩 프로세스를 사용하도록 구성된 장치이다. 픽처는 프레임 또는 그 필드를 생성하는 루마(luma) 샘플의 어레이 및/또는 크로마(chroma) 샘플의 어레이이다. 인코딩 또는 디코딩되는 픽처는 설명의 명확성을 위해 현재 픽처로 지칭될 수 있다. 코딩된 픽처는 액세스 유닛(access unit, AU) 내에서 네트워크 추상화 레이어(network abstraction layer, NAL) 유닛 헤더 레이어 식별자(nuh_layer_id)의 특정 값을 갖는 비디오 코딩 레이어(video coding layer, VCL) NAL 유닛을 포함하고 픽처의 모든 코딩 트리 유닛(coding tree unit, CTU)을 포함하는 픽처의 코딩된 표현이다. 디코딩된 픽처는 코딩된 픽처에 디코딩 프로세스를 적용하여 생성된 픽처이다. NAL 유닛은 원시 바이트 시퀀스 페이로드(Raw Byte Sequence Payload, RBSP) 형태의 데이터를 포함하는 신택스 구조이며, 데이터 유형의 지시이고, 원하는 대로 에뮬레이션 방지 바이트로 산재되어 있다. VCL NAL 유닛은 픽처의 코딩된 슬라이스와 같은 비디오 데이터를 포함하도록 코딩된 NAL 유닛이다. 비-VCL NAL 유닛은 비디오 데이터 디코딩, 적합성 검사의 수행, 또는 기타 작동을 지원하는 신택스 및/또는 파라미터와 같은 비-비디오 데이터를 포함하는 NAL 유닛이다. 레이어는 레이어 ID(식별자) 및 연관된 비-VCL NAL 유닛에 의해 지시된 바와 같은 지정된 특성(예를 들어, 공통 해상도, 프레임 레이트, 이미지 크기 등)을 공유하는 VCL NAL 유닛의 세트이다. NAL 유닛 헤더 레이어 식별자(nuh_layer_id)는 NAL 유닛을 포함하는 레이어의 식별자를 지정하는 신택스 요소이다.
가상 참조 디코더(hypothetical reference decoder, HRD)는 지정된 제약에 대한 적합성을 검증하기 위해 인코딩 프로세스에 의해 생성된 비트스트림의 가변성을 검사하는 인코더에서 작동하는 디코더 모델이다. 비트스트림 적합성 테스트는 인코딩된 비트스트림이 다용도 비디오 코딩(Versatile Video Coding, VVC)와 같은 표준을 준수하는지 여부를 결정하는 테스트이다. 비디오 파라미터 세트(video parameter set, VPS)는 전체 비디오와 관련된 파라미터를 포함하는 신택스 구조이다. 시퀀스 파라미터 세트(sequence parameter set, SPS)는 0개 이상의 전체 코딩된 레이어 비디오 시퀀스(coded layer video sequence, CLVS)에 적용되는 신택스 요소를 포함하는 신택스 구조이다. CLVS는 동일한 nuh_layer_id 값을 갖는 코딩된 픽처의 시퀀스이다. SPS 비디오 파라미터 세트 식별자(sps_video_parameter_set_id)는 SPS에 의한 VPS 참조의 식별자(ID)를 지정하는 신택스 요소이다. 일반적인 레이어 인덱스(GeneralLayerIdx[i])는 대응하는 레이어 i의 인덱스를 지정하는 도출된 변수이다. 이와 같이, nuh_layer_id의 레이어 ID를 갖는 현재 레이어는 GeneralLayerIdx[nuh_layer_id]에 의해 지정된 인덱스를 갖는다. 현재 레이어 인덱스는 인코딩되거나 디코딩되는 중인 레이어에 대응하는 레이어 인덱스이다. VPS 독립 레이어 플래그(vps_independent_layer_flag[i])는 대응하는 레이어 i가 레이어 간 예측을 사용하는지 여부를 지정하는 신택스 요소이다. 이와 같이, vps_independent_layer_flag[GeneralLayerIdx[nuh_layer_id]]는 현재 레이어가 레이어 간 예측을 사용하는지 여부를 지정한다. 레이어간 예측은 (예를 들어, 동일한 액세스 유닛에서) 상이한 레이어로부터의 참조 픽처(들)에 기초하여 현재 레이어의 현재 픽처에서 샘플 값의 블록을 코딩하는 메커니즘이다. 액세스 유닛(access unit, AU)은 동일한 출력 시간과 연관된 상이한 레이어의 코딩된 픽처 세트이다. VPS 파라미터 세트 식별자(vps_video_parameter_set_id)는 다른 신택스 요소/구조에 의한 참조를 위해 VPS에 대한 ID를 제공하는 신택스 요소이다. 코딩된 비디오 시퀀스는 하나 이상의 코딩된 픽처 세트이다. 디코딩된 비디오 시퀀스는 하나 이상의 디코딩된 픽처의 세트이다.
다음의 두문자어, 액세스 유닛(AU), 코딩 트리 블록(Coding Tree Block, CTB), 코딩 트리 유닛(Coding Tree Unit, CTU), 코딩 유닛(Coding Unit, CU), 코딩된 레이어 비디오 시퀀스(Coded Layer Video Sequence, CLVS), 코딩된 레이어 비디오 시퀀스 시작(Coded Layer Video Sequence Start, CLVSS), 코딩된 비디오 시퀀스(CVS), 코딩된 비디오 시퀀스 시작(Coded Video Sequence Start, CVSS), 공동 비디오 전문가 팀(Joint Video Experts Team, JVET), 가상 참조 디코더(HRD), 모션 제한된 타일 세트(Motion Constrained Tile Set, MCTS), 최대 전송 유닛(Maximum Transfer Unit, MTU), 네트워크 추상화 레이어(NAL), 출력 레이어 세트(Output Layer Set, OLS), 작동 포인트(Operation Point, OP), 픽처 순서 카운트(Picture Order Count, POC), 랜덤 액세스 포인트(Random Access Point, RAP), 원시 바이트 시퀀스 페이로드(RBSP), 시퀀스 파라미터 세트(SPS), 비디오 파라미터 세트(VPS), 다용도 비디오 코딩(VVC)이 여기에서 사용된다.
데이터 손실을 최소화하면서 비디오 파일의 크기를 줄이기 위해 많은 비디오 압축 기술이 사용될 수 있다. 예를 들어, 비디오 압축 기술은 비디오 시퀀스에서 데이터 중복성을 감소시키거나 또는 제거하기 위해 공간적(예를 들어, 픽처 내) 예측 및/또는 시간적(예를 들어, 픽처 간) 예측을 수행하는 것을 포함할 수 있다. 블록 기반 비디오 코딩의 경우, 비디오 슬라이스(예를 들어, 비디오 픽처 또는 비디오 픽처의 일부)는 비디오 블록으로 분할될 수 있으며, 이는 트리 블록, 코딩 트리 블록(CTB), 코딩 트리 유닛(CTU), 코딩 유닛(CU) 및/또는 코딩 노드로서 지칭될 수도 있다. 픽처의 인트라 코딩된(intra-coded, I) 슬라이스의 비디오 블록은 동일한 픽처의 인접 블록에 있는 참조 샘플에 대한 공간적 예측을 사용하여 코딩된다. 픽처의 인터 코딩된 단방향 예측(P) 또는 양방향 예측(B) 슬라이스의 비디오 블록은 동일한 픽처의 인접 블록에 있는 참조 샘플에 대한 공간적 예측 또는 다른 참조 픽처의 참조 샘플에 대한 시간적 예측을 사용하여 코딩될 수 있다. 픽처는 프레임 및/또는 이미지로 지칭될 수 있고, 참조 픽처는 참조 프레임 및/또는 참조 이미지로 지칭될 수 있다. 공간적 또는 시간적 예측은 이미지 블록을 나타내는 예측 블록을 생성한다. 잔여 데이터는 원본 이미지 블록과 예측 블록 사이의 픽셀 차이를 나타낸다. 따라서, 인터 코딩된 블록은 예측 블록을 형성하는 참조 샘플의 블록을 가리키는 모션 벡터 및 코딩된 블록과 예측 블록 사이의 차이를 지시하는 잔여 데이터에 따라 인코딩된다. 인트라 코딩된 블록은 인트라 코딩 모드 및 잔여 데이터에 따라 인코딩된다. 추가 압축을 위해, 잔여 데이터는 픽셀 도메인에서 변환 도메인으로 변환될 수 있다. 이로 인해 양자화될 수 있는 잔여 변환 계수가 생성된다. 양자화된 변환 계수는 초기에 2차원 어레이로 배열될 수 있다. 양자화된 변환 계수는 변환 계수의 1차원 벡터를 생성하기 위해 스캔될 수 있다. 더 많은 압축을 달성하기 위해 엔트로피 코딩이 적용될 수 있다. 이러한 비디오 압축 기술은 아래에서 자세히 설명된다.
인코딩된 비디오가 정확하게 디코딩될 수 있도록 하기 위해, 비디오는 대응하는 비디오 코딩 표준에 따라 인코딩되고 디코딩된다. 비디오 코딩 표준은 ITU-T(International Telecommunication Union(ITU) Standardization Sector) H.261, ISO/IEC(International Organization for Standardization/International Electrotechnical Commission) MPEG(Motion Picture Experts Group)-1 Part 2, ITU-T H.262 또는 ISO/IEC MPEG-2 Part 2, ITU-T H.263, ISO/IEC MPEG-4 Part 2, ITU-T H.264 또는 ISO/IEC MPEG-4 Part 10이라고도 하는 AVC(Advanced Video Coding), 및 ITU-T H.265 또는 MPEG-H Part 2라고도 하는 고효율 비디오 코딩(High Efficiency Video Coding, HEVC)을 포함한다. AVC는 확장 가능 비디오 코딩(Scalable Video Coding, SVC), 멀티뷰 비디오 코딩(Multiview Video Coding, MVC) 및 멀티뷰 비디오 코딩 플러스 깊이(Multiview Video Coding plus Depth, MVC+D), 및 3차원(3D) AVC(3D-AVC)를 포함한다. HEVC는 확장 가능 HEVC(Scalable HEVC, SHVC), 멀티뷰 HEVC(MV-HEVC) 및 3D HEVC와 같은 확장을 포함한다. ITU-T와 ISO/IEC의 공동 비디오 전문가 팀(JVET)은 VVC(Versatile Video Coding)로서 지칭되는 비디오 코딩 표준을 개발하기 시작했다. VVC는 JVET-O2001-v14를 포함하는 작업 초안(Working Draft, WD)에 포함된다.
일부 비디오 코딩 시스템은 비디오 시퀀스를 픽처 레이어로 코딩한다. 상이한 레이어의 픽처는 상이한 특성을 가지고 있다. 따라서, 인코더는 디코더 측 제약에 따라 디코더에게 상이한 레이어를 전송할 수 있다. 이러한 기능을 수행하기 위해, 인코더는 모든 레이어를 단일 비트스트림으로 인코딩할 수 있다. 요청 시, 인코더는 서브 비트스트림 추출 프로세스를 수행하여 비트스트림으로부터 관련없는 정보를 제거할 수 있다. 이러한 결과는 디코더에 의해 요청된 레이어의 데이터만을 포함하는 추출된 비트스트림이다. 레이어가 관련되는 방식에 대한 설명은 비디오 파라미터 세트(VPS)에 포함될 수 있다. 동시 방송 레이어는 다른 레이어를 참조하지 않고 디스플레이하도록 구성된 레이어이다. 동시 방송 레이어가 디코더로 전송될 때, 동시 방송 레이어를 디코딩하기 위해 레이어 관계가 필요하지 않기 때문에 서브 비트스트림 추출 프로세스는 VPS를 제거할 수 있다. 불행히도, 다른 파라미터 세트의 특정 변수는 VPS를 참조할 수 있다. 이와 같이, 동시 방송 레이어가 전송되는 경우 VPS를 제거하면 코딩 효율을 높일 수 있지만, 또한 오류가 발생할 수도 있다. 또한, 시퀀스 파라미터 세트(SPS)를 정확하게 식별하지 못하면 VPS와 함께 SPS를 잘못 제거할 수 있다. 이것은 SPS가 누락된 경우 레이어가 디코더에서 정확하게 디코딩되지 않을 수 있으므로 문제가 될 수 있다.
서브 비트스트림 추출 동안 VPS가 제거되는 경우 오류를 방지하기 위한 메커니즘이 여기에서 개시된다. 구체적으로, 서브 비트스트림 추출 프로세스는 네트워크 추상화 레이어(network abstraction layer, NAL) 유닛 레이어 식별자(nuh_layer_ids)에 기초하여 NAL 유닛을 제거한다. SPS는 레이어 간 예측을 사용하지 않는 레이어에 코딩된 계층 비디오 시퀀스(coded layer video sequence, CLVS)가 포함되는 경우 SPS를 참조하는 CLVS의 nuh_layer_id와 동일한 nuh_layer_id를 갖도록 제한된다. 레이어 간 예측을 사용하지 않는 레이어는 동시 방송 레이어이다. 이와 같이, SPS는 VPS가 제거되는 경우 레이어와 동일한 nuh_layer_id를 갖는다. 이러한 방식으로, SPS는 서브 비트스트림 추출 프로세스에 의해 실수로 제거되지 않는다. 레이어 간 예측의 사용은 VPS 독립 레이어 플래그(vps_independent_layer_flag)에 의해 시그널링된다. 그러나, vps_independent_layer_flag는 VPS가 제거될 때 제거된다. 따라서, vps_independent_layer_flag[GeneralLayerIdx[nuh_layer_id]]로 표시된 현재 레이어에 대한 vps_independent_layer_flag는 SPS가 VPS를 참조하지 않는 경우 1인 것으로 추론된다. SPS VPS 식별자(sps_video_parameter_set_id)가 0으로 설정되는 경우 SPS는 VPS를 참조하지 않는다. 또한, vps_independent_layer_flag[GeneralLayerIdx[nuh_layer_id]]가 1과 같은 경우(예를 들어, VPS가 존재하지 않는 경우), 디코더 및/또는 가상 참조 디코더(HRD)는 현재 레이어/CLVS가 레이어 간 예측을 사용하지 않는다고 추론할 수 있다. 이러한 일련의 추론을 사용함으로써, SPS는 VPS 및 대응하는 파라미터가 비트스트림으로부터 제거되는 경우에도 서브 비트스트림 추출 프로세스에 의한 추출을 방지하기 위해 적절한 nuh_layer_id를 포함하도록 제한될 수 있다. 결과적으로, 인코더와 디코더의 기능이 향상된다. 또한, 인코더와 디코더 모두에서 프로세서, 메모리 및/또는 네트워크 시그널링 자원 사용량을 줄이는 동시 방송 레이어만을 포함하는 비트스트림에서 불필요한 VPS를 성공적으로 제거함으로써 코딩 효율성이 증가된다.
도 1은 비디오 신호를 코딩하는 예시적인 작동 방법(100)의 흐름도이다. 구체적으로, 비디오 신호는 인코더에서 인코딩된다. 인코딩 프로세스는 비디오 파일 크기를 줄이기 위해 다양한 메커니즘을 사용하여 비디오 신호를 압축한다. 파일 크기가 작을수록 압축된 비디오 파일을 사용자에게 전송하는 동시에 연관된 대역폭 오버헤드를 줄일 수 있다. 그런 다음, 디코더는 압축된 비디오 파일을 디코딩하여 최종 사용자에게 디스플레이할 원본 비디오 신호를 재구성한다. 디코딩 프로세스는 일반적으로 디코더가 비디오 신호를 일관되게 재구성할 수 있도록 인코딩 프로세스를 반영한다.
단계 101에서, 비디오 신호가 인코더에 입력된다. 예를 들어, 비디오 신호는 메모리에 저장된 비 압축 비디오 파일일 수 있다. 다른 예로서, 비디오 파일은 비디오 카메라와 같은 비디오 캡처 장치에 의해 캡처될 수 있고, 비디오의 라이브 스트리밍을 지원하도록 인코딩될 수 있다. 비디오 파일은 오디오 컴포넌트와 비디오 컴포넌트를 모두 포함할 수 있다. 비디오 컴포넌트는 순서적으로 시청될 때 모션의 시각적인 인상을 주는 일련의 이미지 프레임을 포함한다. 프레임은 여기에서 루마(luma) 컴포넌트(또는 루마 샘플)로 지칭되는, 빛의 관점에서 표현되는 픽셀과 크로마 컴포넌트(색상 샘플)로서 지칭되는 색상을 포함한다. 일부 예에서, 프레임은 또한 3차원 보기를 지원하기 위해 깊이 값을 포함할 수 있다.
단계 103에서, 비디오는 블록으로 분할된다. 분할(partitioning)은 압축을 위해 각각의 프레임의 픽셀을 정사각형 및/또는 직사각형 블록으로 세분화하는 것을 포함한다. 예를 들어, HEVC(High Efficiency Video Coding)(또한 H.265 및 MPEG-H Part 2라고도 함)에서, 프레임은 먼저 미리 정의된 크기(예를 들어, 64 픽셀 × 64 픽셀)의 블록인 코딩 트리 유닛(CTU)으로 분할될 수 있다. CTU는 루마 및 크로마 샘플을 모두 포함한다. 코딩 트리는 CTU를 블록으로 분할한 다음 추가 인코딩을 지원하는 구성이 달성될 때까지 블록을 재귀적으로 세분화하기 위해 사용될 수 있다. 예를 들어, 프레임의 루마 컴포넌트는 개별 블록이 상대적으로 균일한 라이팅(lighting) 값을 포함할 때까지 세분화될 수 있다. 또한, 프레임의 크로마 컴포넌트는 개별 블록이 상대적으로 균일한 색상 값을 포함할 때까지 세분화될 수 있다. 따라서, 분할 메커니즘은 비디오 프레임의 컨텐츠에 따라 달라진다.
단계 105에서, 단계 103에서 분할된 이미지 블록을 압축하기 위해 다양한 압축 메커니즘이 사용된다. 예를 들어, 인터 예측 및/또는 인트라 예측이 사용될 수 있다. 인터 예측은 공통 장면의 객체가 연속 프레임에 나타나는 경향이 있다는 사실을 활용하도록 설계된다. 따라서, 참조 프레임에서 객체를 묘사하는 블록은 인접한 프레임에서 반복적으로 기술될 필요가 없다. 구체적으로, 테이블과 같은 객체는 여러 프레임에 걸쳐 일정한 위치에 남아 있을 수 있다. 따라서, 테이블은 한 번 설명되고 인접 프레임은 참조 프레임을 다시 참조할 수 있다. 패턴 매칭 메커니즘은 여러 프레임에 걸쳐 객체를 매칭하기 위해 사용될 수 있다. 또한, 움직이는 객체는 예를 들어 객체 이동 또는 카메라 이동으로 인해 여러 프레임에 걸쳐 표현될 수 있다. 특정 예로서, 비디오는 여러 프레임에 걸쳐 스크린을 가로 질러 이동하는 자동차를 보여줄 수 있다. 이러한 이동을 설명하기 위해 모션 벡터가 사용될 수 있다. 모션 벡터는 프레임에 있는 객체의 좌표에서 참조 프레임에 있는 객체의 좌표까지의 오프셋을 제공하는 2차원 벡터이다. 이와 같이, 인터 예측은 현재 프레임의 이미지 블록을 참조 프레임의 대응하는 블록으로부터의 오프셋을 지시하는 모션 벡터의 세트로서 인코딩할 수 있다.
인트라 예측은 공통 프레임의 블록을 인코딩한다. 인트라 예측은 루마 및 크로마 컴포넌트가 프레임에 클러스터되는 경향이 있다는 사실을 활용한다. 예를 들어, 나무의 일부에 있는 녹색 패치는 유사한 녹색 패치 옆에 위치하는 경향이 있다. 인트라 예측은 다중 방향 예측 모드(예를 들어, HEVC에서 33), 평면 모드 및 직류(DC) 모드를 사용한다. 방향 모드는 현재 블록이 대응하는 방향의 이웃 블록 샘플과 유사/동일함을 나타낸다. 평면 모드는 행/열(예를 들어, 평면)을 따라 일련의 블록이 행의 에지에 있는 이웃 블록에 기초하여 보간될 수 있음을 지시한다. 사실상, 평면 모드는 값을 변경할 때 상대적으로 일정한 기울기를 사용함으로써 행/열에 걸쳐 빛/색상이 부드러운 전환을 지시한다. DC 모드는 경계 평활화에 사용되며 블록이 방향 예측 모드의 각도 방향과 연관된 모든 이웃 블록의 샘플과 연관된 평균 값과 유사/동일함을 지시한다. 따라서, 인트라 예측 블록은 실제 값 대신에 다양한 관계형 예측 모드 값으로 이미지 블록을 나타낼 수 있다. 또한, 인터 예측 블록은 이미지 블록을 실제 값 대신에 모션 벡터 값으로 나타낼 수 있다. 두 경우 모두, 예측 블록은 경우에 따라 이미지 블록을 정확하게 표현하지 못할 수 있다. 모든 차이는 잔여 블록에 저장된다. 파일을 추가로 압축하기 위해 잔여 블록에 변환이 적용될 수 있다.
단계 107에서, 다양한 필터링 기술이 적용될 수 있다. HEVC에서, 필터는 인-루프(in-loop) 필터링 방식에 따라 적용된다. 상기한 블록 기반 예측은 디코더에서 블록 이미지의 생성을 초래할 수 있다. 또한, 블록 기반 예측 방식은 블록을 인코딩한 후 나중에 참조 블록으로 사용하기 위해 인코딩된 블록을 재구성할 수 있다. 인-루프 필터링 방식은 잡음 억제 필터, 디블로킹(de-blocking) 필터, 적응형 루프 필터 및 샘플 적응 오프셋(sample adaptive offset, SAO) 필터를 블록/프레임에 반복적으로 적용한다. 이러한 필터는 이러한 차단 아티팩트(artifact)를 완화하여 인코딩된 파일이 정확하게 재구성될 수 있도록 할 수 있다. 또한, 이러한 필터는 재구성된 참조 블록에서 아티팩트를 완화하여 아티팩트가 재구성된 참조 블록을 기반으로 인코딩된 후속 블록에서 추가 아티팩트를 생성할 가능성을 줄일 수 있다.
일단 비디오 신호가 분할되고, 압축되며, 필터링되면, 결과 데이터는 단계 109에서 비트스트림으로 인코딩된다. 비트스트림은 위에서 설명된 데이터는 물론 디코더에서 적절한 비디오 신호 재구성을 지원하기 위해 원하는 시그널링 데이터를 포함한다. 예를 들어, 그러한 데이터는 분할 데이터, 예측 데이터, 잔여 블록, 및 디코더에게 코딩 명령을 제공하는 다양한 플래그를 포함할 수 있다. 비트스트림은 요청시 디코더를 향한 전송을 위해 메모리에 저장될 수 있다. 비트스트림은 또한 복수의 디코더를 향해 브로드캐스트 및/또는 멀티캐스트될 수 있다. 비트스트림의 생성은 반복적인 프로세스이다. 따라서, 단계 101, 103, 105, 107 및 109는 많은 프레임 및 블록에 걸쳐 연속적으로 그리고/또는 동시에 발생할 수 있다. 도 1에 도시된 순서는 명확성과 논의의 용이함을 위해 제시된 것이며, 비디오 코딩 프로세스를 특정 순서로 제한하려는 것이 아니다.
디코더는 단계 111에서 비트스트림을 수신하고 디코딩 프로세스를 시작한다. 구체적으로, 디코더는 비트스트림을 대응하는 신택스 및 비디오 데이터로 변환하기 위해 엔트로피 디코딩 방식을 사용한다. 디코더는 단계 111에서 프레임에 대한 분할을 결정하기 위해 비트스트림으로부터의 신택스 데이터를 사용한다. 분할은 단계 103에서 블록 분할의 결과와 매칭되어야 한다. 이제 단계 111에서 사용되는 엔트로피 인코딩/디코딩이 설명된다. 인코더는 입력 이미지(들)에서 값의 공간적 위치에 기초하여 여러 가지 가능한 선택에서 블록 분할 방식을 선택하는 것과 같이 압축 프로세스 중에 많은 선택을 한다. 정확한 선택을 시그널링하는 데 많은 빈(bin)이 사용될 수 있다. 여기에서 사용되는 바와 같이, 빈은 변수로 취급되는 이진 값(예를 들어, 컨텍스트에 따라 달라질 수 있는 비트 값)이다. 엔트로피 코딩은 인코더가 특정 경우에 명확하게 실행 불가능한 옵션을 버리고 허용 가능한 옵션 세트를 남길 수 있게 한다. 그런 다음, 각각의 허용 가능한 옵션에 코드 워드가 할당된다. 코드 워드의 길이는 허용 가능한 옵션의 수량을 기반으로 한다(예를 들어, 2개의 옵션에 대해 하나의 빈, 3 ~ 4개의 옵션에 대해 2개의 빈 등). 그런 다음, 인코더는 선택된 옵션에 대한 코드 워드를 인코딩한다. 이러한 방식은 가능한 모든 옵션의 잠재적으로 큰 세트에서 선택을 고유하게 지시하는 것과 반대로 허용 가능한 옵션의 작은 서브 세트에서 선택을 고유하게 지시하기 위해 코드 워드가 원하는 만큼 크기 때문에 코드 워드의 크기를 감소시킨다. 그런 다음, 디코더는 인코더와 유사한 방식으로 허용 가능한 옵션 세트를 결정하여 선택을 디코딩한다. 허용 가능한 옵션 세트를 결정함으로써, 디코더는 코드 워드를 읽고 인코더에 의해 행해진 선택을 결정할 수 있다.
단계 113에서, 디코더는 블록 디코딩을 수행한다. 구체적으로, 디코더는 잔여 블록을 생성하기 위해 역변환을 사용한다. 그런 다음, 디코더는 분할에 따라 이미지 블록을 재구성하기 위해 잔여 블록 및 대응하는 예측 블록을 사용한다. 예측 블록은 단계 105에서 인코더에서 생성된 바와 같이 인트라 예측 블록 및 인터 예측 블록을 모두 포함할 수 있다. 그 후, 재구성된 이미지 블록은 단계 111에서 결정된 분할 데이터에 따라 재구성된 비디오 신호의 프레임으로 위치 결정된다. 단계 113에서의 신택스는 또한 전술한 바와 같이 엔트로피 코딩을 통해 비트스트림으로 시그널링될 수 있다.
단계 115에서, 인코더에서의 단계 107과 유사한 방식으로 재구성된 비디오 신호의 프레임에 대해 필터링이 수행된다. 예를 들어, 노이즈 억제 필터, 디블로킹 필터, 적응형 루프 필터 및 SAO 필터는 블록킹 아티팩트를 제거하기 위해 프레임에 적용될 수 있다. 프레임이 필터링되면, 비디오 신호는 최종 사용자가 볼 수 있도록 단계 117에서 디스플레이로 출력될 수 있다.
도 2는 비디오 코딩을 위한 예시적인 코딩 및 디코딩(코덱) 시스템(200)의 개략도이다. 구체적으로, 코덱 시스템(200)은 작동 방법(100)의 구현을 지원하는 기능을 제공한다. 코덱 시스템(200)은 인코더 및 디코더 모두에서 사용되는 컴포넌트를 묘사하도록 일반화된다. 코덱 시스템(200)은 작동 방법(100)에서 단계 101 및 103과 관련하여 논의된 바와 같이 비디오 신호를 수신하고 분할하며, 이는 분할된 비디오 신호(201)를 생성한다. 그 후, 코덱 시스템(200)은 방법(100)에서 단계 105, 107 및 109에 관해 설명된 바와 같은 인코더로 동작하는 경우 분할된 비디오 신호(201)를 코딩된 비트스트림으로 압축한다. 디코더로서 동작하는 경우 코덱 시스템(200)은 작동 방법(100)에서 단계 111, 113, 115 및 117에 관해 논의된 바와 같이 비트스트림으로부터 출력 비디오 신호를 생성한다. 코덱 시스템(200)은 일반적인 코더 제어 컴포넌트(211), 변환 스케일링 및 양자화 컴포넌트(213), 인트라 픽처 추정 컴포넌트(215), 인트라 픽처 예측 컴포넌트(217), 모션 보상 컴포넌트(219), 모션 추정 컴포넌트(221), 스케일링 및 역변환 컴포넌트(229), 필터 제어 분석 컴포넌트(227), 인-루프 필터 컴포넌트(225), 디코딩된 픽처 버퍼 컴포넌트(223) 및 헤더 포맷팅 및 컨텍스트 적응 이진 산술 코딩(context adaptive binary arithmetic coding, CABAC) 컴포넌트(231)을 포함한다. 이러한 컴포넌트는 도시된 바와 같이 결합된다. 도 2에서, 검은색 선은 인코딩/디코딩될 데이터의 이동을 나타내고, 점선은 다른 컴포넌트의 작동을 제어하는 제어 데이터의 이동을 나타낸다. 코덱 시스템(200)의 컴포넌트는 모두 인코더에 존재할 수 있다. 디코더는 코덱 시스템(200)의 컴포넌트의 서브 세트를 포함할 수 있다. 예를 들어, 디코더는 픽처 내 예측 컴포넌트(217), 모션 보상 컴포넌트(219), 스케일링 및 역변환 컴포넌트(229), 인-루프 필터 컴포넌트(225) 및 디코딩된 픽처 버퍼 컴포넌트(223)를 포함활 수 있다. 이들 컴포넌트가 이제 설명될 것이다.
분할된 비디오 신호(201)는 코딩 트리에 의해 픽셀 블록으로 분할된 캡처된 비디오 시퀀스이다. 코딩 트리는 픽셀 블록을 더 작은 픽셀 블록으로 세분화하기 위해 다양한 분할 모드를 사용한다. 이 블록은 코딩 트리에서 노드로 지칭될 수 있다. 더 큰 부모 노드는 더 작은 자식 노드로 분할된다. 노드가 세분화되는 횟수는 노드/코딩 트리의 깊이로서 지칭된다. 분할된 블록은 경우에 따라 코딩 유닛(CU)에 포함될 수 있다. 예를 들어, CU는 CU에 대한 대응하는 신택스 명령과 함께 루마 블록, 빨간색 차이 크로마(Cr) 블록 및 파란색 차이 크로마(Cb) 블록을 포함하는 CTU의 하위 부분이 될 수 있다. 분할 모드는 노드를 사용되는 분할 모드에 따른 다양한 형상의 2개, 3개 또는 4개의 자식 노드로 각각 분할하는 데 사용되는 이진 트리(binary tree, BT), 트리플 트리(triple tree, TT) 및 쿼드 트리(quad tree, QT)를 포함할 수 있다. 분할된 비디오 신호(201)는 일반적인 코더 제어 컴포넌트(211), 변환 스케일링 및 양자화 컴포넌트(213), 인트라 픽처 추정 컴포넌트(215), 필터 제어 분석 컴포넌트(227), 및 압축을 위한 모션 추정 컴포넌트(221)로 전달된다.
일반적인 코더 제어 컴포넌트(211)는 애플리케이션 제약에 따라 비디오 시퀀스의 이미지를 비트스트림으로 코딩하는 것과 관련된 결정을 내리도록 구성된다. 예를 들어, 일반적인 코더 제어 컴포넌트(211)는 비트레이트/비트스트림 크기 대 재구성 품질의 최적화를 관리한다. 이러한 결정은 저장 공간/대역폭 가용성 및 이미지 해상도 요청에 기초하여 행해질 수 있다. 일반적인 코더 제어 컴포넌트(211)는 또한 버퍼 언더런(underrun) 및 오버런(overrun) 문제를 완화하기 위해 전송 속도 측면에서 버퍼 활용도를 관리한다. 이러한 문제를 관리하기 위해, 일반적인 코더 제어 컴포넌트(211)는 다른 컴포넌트에 의한 분할, 예측 및 필터링을 관리한다. 예를 들어, 일반적인 코더 제어 컴포넌트(211)는 해상도를 증가시키고 대역폭 사용을 증가시키기 위해 압축 복잡도를 동적으로 증가시키거나 또는 해상도 및 대역폭 사용을 감소시키기 위해 압축 복잡도를 감소시킬 수 있다. 따라서, 일반적인 코더 제어 컴포넌트(211)는 비디오 신호 재구성 품질과 비트레이트 문제의 균형을 맞추기 위해 코덱 시스템(200)의 다른 컴포넌트를 제어한다. 일반적인 코더 제어 컴포넌트(211)는 다른 컴포넌트의 작동을 제어하는 제어 데이터를 생성한다. 제어 데이터는 또한 디코더에서 디코딩을 위한 파라미터를 시그널링하기 위해 비트스트림으로 인코딩되도록 헤더 포맷팅 및 CABAC 컴포넌트(231)로 전달된다.
분할된 비디오 신호(201)는 또한 인터 예측을 위해 모션 추정 컴포넌트(221) 및 모션 보상 컴포넌트(219)로 전송된다. 분할된 비디오 신호(201)의 프레임 또는 슬라이스는 다수의 비디오 블록으로 분할될 수 있다. 모션 추정 컴포넌트(221) 및 모션 보상 컴포넌트(219)는 시간적 예측을 제공하기 위해 하나 이상의 참조 프레임에서 하나 이상의 블록에 대해 수신된 비디오 블록의 인터 예측 코딩을 수행한다. 코덱 시스템(200)은 예를 들어 비디오 데이터의 각각의 블록에 대한 적절한 코딩 모드를 선택하기 위해 다중 코딩 패스(pass)를 수행할 수 있다.
모션 추정 컴포넌트(221) 및 모션 보상 컴포넌트(219)는 고도로 통합될 수 있지만, 개념적 목적을 위해 별도로 예시된다. 모션 추정 컴포넌트(221)에 의해 수행되는 모션 추정은 비디오 블록에 대한 모션을 추정하는 모션 벡터를 생성하는 프로세스이다. 예를 들어, 모션 벡터는 예측 블록에 대한 코딩된 객체의 변위를 지시할 수 있다. 예측 블록은 픽셀 차이 측면에서 코딩될 블록과 밀접하게 매칭되는 것으로 확인된 블록이다. 예측 블록은 또한 참조 블록으로 지칭될 수 있다. 이러한 픽셀 차이는 절대 차이의 합(sum of absolute difference, SAD), 제곱 차이의 합(sum of square difference, SSD) 또는 다른 차이 메트릭에 의해 결정될 수 있다. HEVC는 CTU, 코딩 트리 블록(CTB) 및 CU를 포함하는 여러 코딩된 객체를 사용한다. 예를 들어, CTU는 CTB로 분할될 수 있으며, 그런 다음 CU에 포함시키기 위해 CB로 분할될 수 있다. CU는 예측 데이터를 포함하는 예측 유닛(prediction unit, PU) 및/또는 CU에 대한 변환된 잔여 데이터를 포함하는 변환 유닛(transform unit, TU)으로서 인코딩될 수 있다. 모션 추정 컴포넌트(221)는 레이트(rate) 왜곡 최적화 프로세스의 일부로서 레이트 왜곡 분석을 사용함으로써 모션 벡터, PU 및 TU를 생성한다. 예를 들어, 모션 추정 컴포넌트(221)는 현재 블록/프레임에 대한 다수의 참조 블록, 다수의 모션 벡터 등을 결정할 수 있고, 최상의 레이트 왜곡 특성을 갖는 참조 블록, 모션 벡터 등을 선택할 수 있다. 최상의 레이트 왜곡 특성은 비디오 재구성 품질(예를 들어, 압축에 의한 데이터 손실량)과 코딩 효율성(예를 들어, 최종 인코딩 크기) 모두의 균형을 맞춘다.
일부 예에서, 코덱 시스템(200)은 디코딩된 픽처 버퍼 컴포넌트(223)에 저장된 참조 픽처의 서브 정수 픽셀 위치에 대한 값을 계산할 수 있다. 예를 들어, 비디오 코덱 시스템(200)은 참조 픽셀의 1/4 픽셀 위치, 1/8 픽셀 위치 또는 다른 분수 픽셀 위치의 값을 보간할 수 있다. 따라서, 모션 추정 컴포넌트(221)는 전체 픽셀 위치 및 분수 픽셀 위치에 대한 모션 검색을 수행하고 분수 픽셀 정밀도를 갖는 모션 벡터를 출력할 수 있다. 모션 추정 컴포넌트(221)는 PU의 위치를 참조 픽처의 예측 블록의 위치와 비교함으로써 인터 코딩된 슬라이스에서 비디오 블록의 PU에 대한 모션 벡터를 계산한다. 모션 추정 컴포넌트(221)는 모션 보상 컴포넌트(219)에 대한 인코딩 및 모션을 위해 헤더 포맷팅 및 CABAC 컴포넌트(231)에 모션 데이터로서 계산된 모션 벡터를 출력한다.
모션 보상 컴포넌트(219)에 의해 수행되는 모션 보상은 모션 추정 컴포넌트(221)에 의해 결정된 모션 벡터에 기초하여 예측 블록을 페치(fetch)하거나 생성하는 것을 포함할 수 있다. 다시, 모션 추정 컴포넌트(221) 및 모션 보상 컴포넌트(219)는 일부 예에서 기능적으로 통합될 수 있다. 현재 비디오 블록의 PU에 대한 모션 벡터를 수신하면, 모션 보상 컴포넌트(219)는 모션 벡터가 가리키는 예측 블록을 찾을 수 있다. 그 후, 잔여 비디오 블록은 코딩되는 현재 비디오 블록의 픽셀 값에서 예측 블록의 픽셀 값을 감산하여 픽셀 차이 값을 형성함으로써 형성된다. 일반적으로, 모션 추정 컴포넌트(221)는 루마 컴포넌트에 대한 모션 추정을 수행하고, 모션 보상 컴포넌트(219)는 크로마 컴포넌트 및 루마 컴포넌트 모두에 대해 루마 컴포넌트에 기초하여 계산된 모션 벡터를 사용한다. 예측 블록 및 잔여 블록은 변환 스케일링 및 양자화 컴포넌트(213)로 전달된다.
분할된 비디오 신호(201)는 또한 픽처 내 추정 컴포넌트(215) 및 픽처 내 예측 컴포넌트(217)로 전송된다. 모션 추정 컴포넌트(221) 및 모션 보상 컴포넌트(219)와 마찬가지로, 픽처 내 추정 컴포넌트(215) 및 픽처 내 예측 컴포넌트(217)는 고도로 통합될 수 있지만, 개념적 목적을 위해 별도로 설명된다. 픽처 내 추정 컴포넌트(215) 및 픽처 내 예측 컴포넌트(217)는 상기한 바와 같이, 프레임 사이에 모션 추정 컴포넌트(221) 및 모션 보상 컴포넌트(219)에 의해 수행되는 인터 예측에 대한 대안으로서 현재 프레임의 블록에 대한 현재 블록을 인터 예측한다. 특히, 픽처 내 추정 컴포넌트(215)는 현재 블록을 인코딩하는 데 사용할 인트라 예측 모드를 결정한다. 일부 예에서, 픽처 내 추정 컴포넌트(215)는 다수의 테스트된 인트라 예측 모드로부터 현재 블록을 인코딩하기 위해 적절한 인트라 예측 모드를 선택한다. 그 후, 선택된 인트라 예측 모드는 인코딩을 위해 헤더 포맷팅 및 CABAC 컴포넌트(231)로 전달된다.
예를 들어, 픽처 내 추정 컴포넌트(215)는 테스트된 다양한 인트라 예측 모드에 대한 레이트 왜곡 분석을 사용하여 레이트 왜곡 값을 계산하고, 테스트된 모드 중에서 최상의 레이트 왜곡 특성을 갖는 인트라 예측 모드를 선택한다. 레이트 왜곡 분석은 일반적으로 인코딩된 블록과 인코딩된 블록을 생성하기 위해 인코딩된 원래의 인코딩되지 않은 블록 사이의 왜곡(또는 오류)의 양은 물론 인코딩된 블록을 생성하는 데 사용되는 비트레이트(예를 들어, 비트의 개수)를 결정한다. 픽처 내 추정 컴포넌트(215)는 인트라 예측 모드가 블록에 대한 최상의 레이트 왜곡 값을 나타내는 지 여부를 결정하기 위해 다양한 인코딩된 블록에 대한 왜곡 및 레이트로부터 비율을 계산한다. 또한, 픽처 내 추정 컴포넌트(215)는 레이트 왜곡 최적화(rate-distortion optimization, RDO)에 기초한 깊이 모델링 모드(depth modeling mode, DMM)를 사용하여 깊이 맵의 깊이 블록을 코딩하도록 구성될 수 있다.
픽처 내 예측 컴포넌트(217)는 인코더에서 구현될 때 픽처 내 추정 컴포넌트(215)에 의해 결정된 선택된 인트라 예측 모드에 기초하여 예측 블록으로부터 잔여 블록을 생성하거나 또는 디코더에서 구현될 때 비트스트림으로부터 잔여 블록을 읽을 수 있다. 잔여 블록은 매트릭스로 표현된, 예측 블록과 원래 블록 사이의 값의 차이를 포함한다. 그 후, 잔여 블록은 변환 스케일링 및 양자화 컴포넌트(213)로 전달된다. 픽처 내 추정 컴포넌트(215) 및 픽처 내 예측 컴포넌트(217)는 루마 및 크로마 컴포넌트 모두에서 작동할 수 있다.
변환 스케일링 및 양자화 컴포넌트(213)는 잔여 블록을 추가로 압축하도록 구성된다. 변환 스케일링 및 양자화 컴포넌트(213)는 이산 코사인 변환(discrete cosine transform, DCT), 이산 사인 변환(discrete sine transform, DST) 또는 개념적으로 유사한 변환과 같은 변환을 잔여 블록에 적용하여 잔여 변환 계수 값을 포함하는 비디오 블록을 생성한다. 웨이블릿 변환, 정수 변환, 서브 밴드 변환 또는 기타 유형의 변환도 사용할 수 있다. 변환은 잔여 정보를 픽셀 값 도메인으로부터 주파수 도메인과 같은 변환 도메인으로 변환할 수 있다. 변환 스케일링 및 양자화 컴포넌트(213)는 또한 예를 들어 주파수에 기초하여 변환된 잔여 정보를 스케일링하도록 구성된다. 이러한 스케일링은 스케일 팩터를 잔여 정보에 적용하여 상이한 주파수 정보가 상이한 입도에서 양자화되도록하는 것을 포함하며, 이는 재구성된 비디오의 최종 시각적 품질에 영향을 미칠 수 있다. 변환 스케일링 및 양자화 컴포넌트(213)는 또한 비트 레이트를 더 감소시키기 위해 변환 계수를 양자화하도록 구성된다. 양자화 프로세스는 계수의 일부 또는 전부와 관련된 비트 깊이를 감소시킬 수 있다. 양자화의 정도는 양자화 파라미터를 조정함으로써 수정될 수 있다. 일부 예에서, 변환 스케일링 및 양자화 컴포넌트(213)는 양자화된 변환 계수를 포함하는 매트릭스의 스캔을 수행할 수 있다. 양자화된 변환 계수는 헤더 포맷팅 및 CABAC 컴포넌트(231)로 전달되어 비트스트림으로 인코딩된다.
스케일링 및 역변환 컴포넌트(229)는 모션 추정을 지원하기 위해 변환 스케일링 및 양자화 컴포넌트(213)의 역 작동을 적용한다. 스케일링 및 역변환 컴포넌트(229)는, 예를 들어, 다른 현재 블록에 대한 예측 블록이 될 수 있는 참조 블록으로서 나중에 사용하기 위해 픽셀 도메인에서 잔여 블록을 재구성하기 위해 역 스케일링, 변환 및/또는 양자화를 적용한다. 모션 추정 컴포넌트(221) 및/또는 모션 보상 컴포넌트(219)는 추후의 블록/프레임의 모션 추정에 사용하기 위해 잔여 블록을 대응하는 예측 블록에 다시 추가함으로써 참조 블록을 계산할 수 있다. 스케일링, 양자화 및 변환 중에 생성된 아티팩트를 완화하기 위해 재구성된 참조 블록에 필터가 적용된다. 그렇지 않으면 이러한 아티팩트는 후속 블록이 예측될 때 부정확한 예측(및 추가 아티팩트 생성)을 유발할 수 있다.
필터 제어 분석 컴포넌트(227) 및 인-루프 필터 컴포넌트(225)는 필터를 잔여 블록 및/또는 재구성된 이미지 블록에 적용한다. 예를 들어, 스케일링 및 역 변환 컴포넌트(229)로부터 변환된 잔여 블록은 원본 이미지 블록을 재구성하기 위해 픽처 내 예측 컴포넌트(217) 및/또는 모션 보상 컴포넌트(219)로부터 대응하는 예측 블록과 결합될 수 있다. 그 후, 필터는 재구성된 이미지 블록에 적용될 수 있다. 일부 예에서, 필터는 대신에 잔여 블록에 적용될 수 있다. 도 2에서의 다른 컴포넌트와 마찬가지로, 필터 제어 분석 컴포넌트(227) 및 인-루프 필터 컴포넌트(225)는 고도로 통합되고 함께 구현될 수 있지만, 개념적 목적을 위해 별도로 도시된다. 재구성된 참조 블록에 적용된 필터는 특정 공간 영역에 적용되며 이러한 필터가 적용되는 방식을 조정하는 여러 파라미터를 포함한다. 필터 제어 분석 컴포넌트(227)는 재구성된 참조 블록을 분석하여 그러한 필터가 적용되어야 하는 위치를 결정하고 대응하는 파라미터를 설정한다. 이러한 데이터는 인코딩을 위한 필터 제어 데이터로서 헤더 포맷팅 및 CABAC 컴포넌트(231)로 전달된다. 인-루프 필터 컴포넌트(225)는 필터 제어 데이터에 기초하여 이러한 필터를 적용한다. 필터는 디블로킹 필터, 노이즈 억제 필터, SAO 필터 및 적응형 루프 필터를 포함할 수 있다. 그러한 필터는 예에 따라 공간/픽셀 도메인(예를 들어, 재구성된 픽셀 블록) 또는 주파수 도메인에서 적용될 수 있다.
인코더로서 작동하는 경우, 필터링된 재구성된 이미지 블록, 잔여 블록 및/또는 예측 블록은 상기한 바와 같이 모션 추정에서 나중의 사용을 위해 디코딩된 픽처 버퍼 컴포넌트(223)에 저장된다. 디코더로서 작동하는 경우, 디코딩된 픽처 버퍼 컴포넌트(223)는 출력 비디오 신호의 일부로서 디스플레이를 향해 재구성되고 필터링된 블록을 저장하고 전달한다. 디코딩된 픽처 버퍼 컴포넌트(223)는 예측 블록, 잔여 블록 및/또는 재구성된 이미지 블록을 저장할 수 있는 임의의 메모리 장치일 수 있다.
헤더 포맷팅 및 CABAC 컴포넌트(231)는 코덱 시스템(200)의 다양한 컴포넌트로부터 데이터를 수신하고 디코더를 향한 전송을 위해 이러한 데이터를 코딩된 비트스트림으로 인코딩한다. 구체적으로, 헤더 포맷팅 및 CABAC 컴포넌트(231)는 일반적인 제어 데이터 및 필터 제어 데이터와 같은 제어 데이터를 인코딩하기 위해 다양한 헤더를 생성한다. 또한, 인트라 예측 및 모션 데이터를 포함하는 예측 데이터는 물론 양자화된 변환 계수 데이터 형태의 잔여 데이터가 모두 비트스트림으로 인코딩된다. 최종 비트스트림은 원래 분할된 비디오 신호(201)를 재구성하기 위해 디코더에 의해 요구되는 모든 정보를 포함한다. 이러한 정보는 또한 인트라 예측 모드 인덱스 테이블(코드워드 매핑 테이블로 지칭되기도 함), 다양한 블록에 대한 인코딩 컨텍스트의 정의, 가장 가능성 있는 인트라 예측 모드의 지시, 분할 정보의 지시 등을 포함할 수 있다. 이러한 데이터는 엔트로피 코딩을 사용하여 인코딩될 수 있다. 예를 들어, 정보는 컨텍스트 적응 가변 길이 코딩(Context adaptive variable length coding, CAVLC), CABAC, 신택스 기반 컨텍스트 적응 이진 산술 코딩(syntax-based context-adaptive binary arithmetic coding, SBAC), 확률 간격 분할 엔트로피(probability interval partitioning entropy, PIPE) 코딩 또는 다른 엔트로피 코딩 기술을 사용하여 인코딩될 수 있다. 엔트로피 코딩 후에, 코딩된 비트스트림은 다른 장치(예를 들어, 비디오 디코더)로 전송되거나 또는 추후 전송 또는 검색을 위해 보관될 수 있다.
도 3은 예시적인 비디오 인코더(300)를 도시한 블록도이다. 비디오 인코더(300)는 코덱 시스템(200)의 인코딩 기능을 구현하고 그리고/또는 작동 방법(100)의 단계 101, 103, 105, 107 및/또는 109를 구현하기 위해 사용될 수 있다. 인코더(300)는 입력 비디오 신호를 분할하여 분할된 비디오 신호(301)를 생성하며, 이는 분할된 비디오 신호(201)와 실질적으로 유사하다. 그 후, 분할된 비디오 신호(301)는 인코더(300)의 컴포넌트에 의해 압축되고 비트스트림으로 인코딩된다.
구체적으로, 분할된 비디오 신호(301)는 인트라 예측을 위해 픽처 내 예측 컴포넌트(317)로 전달된다. 픽처 내 예측 컴포넌트(317)는 픽처 내 추정 컴포넌트(215) 및 픽처 내 예측 컴포넌트(217)와 실질적으로 유사할 수 있다. 분할된 비디오 신호(301)는 또한 디코딩된 픽처 버퍼 컴포넌트(323)의 참조 블록에 기초하여 인터 예측을 위해 모션 보상 컴포넌트(321)로 전달된다. 모션 보상 컴포넌트(321)는 모션 추정 컴포넌트(221) 및 모션 보상 컴포넌트(219)와 실질적으로 유사할 수 있다. 픽처 내 예측 컴포넌트(317) 및 모션 보상 컴포넌트(321)로부터의 예측 블록 및 잔여 블록은 잔여 블록의 변환 및 양자화를 위한 변환 및 양자화 컴포넌트(313)로 전달된다. 변환 및 양자화 컴포넌트(313)는 변환 스케일링 및 양자화 컴포넌트(213)와 실질적으로 유사할 수 있다. 변환 및 양자화된 잔여 블록 및 대응하는 예측 블록(연관된 제어 데이터와 함께)은 비트스트림으로의 코딩을 위해 엔트로피 코딩 컴포넌트(331)로 전달된다. 엔트로피 코딩 컴포넌트(331)는 헤더 포맷팅 및 CABAC 컴포넌트(231)와 실질적으로 유사할 수 있다.
변환되고 양자화된 잔여 블록 및/또는 대응하는 예측 블록은 또한 모션 보상 컴포넌트(321)에 의한 사용을 위한 참조 블록으로의 재구성을 위해 변환 및 양자화 컴포넌트(313)로 전달된다. 역변환 및 양자화 컴포넌트(329)는 스케일링 및 역변환 컴포넌트(229)와 실질적으로 유사할 수 있다. 인-루프 필터 컴포넌트(325)의 인-루프 필터는 또한 예에 따라 잔여 블록 및/또는 재구성된 참조 블록에 적용된다. 인-루프 필터 컴포넌트(325)는 필터 제어 분석 컴포넌트(227) 및 인-루프 필터 컴포넌트(225)와 실질적으로 유사할 수 있다. 인-루프 필터 컴포넌트(325)는 인-루프 필터 컴포넌트(225)에 대해 논의된 바와 같이 다수의 필터를 포함할 수 있다. 그 후, 필터링된 블록은 모션 보상 컴포넌트(321)에 의해 참조 블록으로 사용하기 위해 디코딩된 픽처 버퍼 컴포넌트(323)에 저장된다. 디코딩된 픽처 버퍼 컴포넌트(323)는 디코딩된 픽처 버퍼 컴포넌트(223)와 실질적으로 유사할 수 있다.
도 4는 예시적인 비디오 디코더(400)를 도시한 블록도이다. 비디오 디코더(400)는 코덱 시스템(200)의 디코딩 기능을 구현하고 그리고/또는 작동 방법(100)의 단계 111, 113, 115 및/또는 117을 구현하기 위해 사용될 수 있다. 디코더(400)는 예를 들어 인코더(300)로부터 비트스트림을 수신하고, 최종 사용자에게 디스플레이하기 위해 비트스트림에 기초하여 재구성된 출력 비디오 신호를 생성한다.
비트스트림은 엔트로피 디코딩 컴포넌트(433)에 의해 수신된다. 엔트로피 디코딩 컴포넌트(433)는 CAVLC, CABAC, SBAC, PIPE 코딩, 또는 다른 엔트로피 코딩 기술과 같은 엔트로피 디코딩 방식을 구현하도록 구성된다. 예를 들어, 엔트로피 디코딩 컴포넌트(433)는 비트스트림에서 코드워드로 인코딩된 추가 데이터를 해석하기 위한 컨텍스트를 제공하기 위해 헤더 정보를 사용할 수 있다. 디코딩된 정보는 일반적인 제어 데이터, 필터 제어 데이터, 분할 정보, 모션 데이터, 예측 데이터 및 잔여 블록으로부터의 양자화된 변환 계수와 같은 비디오 신호를 디코딩하기위한 임의의 원하는 정보를 포함한다. 양자화된 변환 계수는 잔여 블록으로의 재구성을 위해 역변환 및 양자화 컴포넌트(429)로 전달된다. 역변환 및 양자화 컴포넌트(429)는 역변환 및 양자화 컴포넌트(329)와 유사할 수 있다.
재구성된 잔여 블록 및/또는 예측 블록은 인트라 예측 작동에 기초하여 이미지 블록으로 재구성하기 위해 픽처 내 예측 컴포넌트(417)로 전달된다. 픽처 내 예측 컴포넌트(417)는 픽처 내 추정 컴포넌트(215) 및 픽처 내 예측 컴포넌트(217)와 유사할 수 있다. 구체적으로, 픽처 내 예측 컴포넌트(417)는 프레임에서 참조 블록을 찾기 위해 예측 모드를 사용하고 인트라 예측된 이미지 블록을 재구성하기 위해 결과에 잔여 블록을 적용한다. 재구성된 인트라 예측된 이미지 블록 및/또는 잔여 블록 및 대응하는 인터 예측 데이터는 인-루프 필터 컴포넌트(425)를 통해 디코딩된 픽처 버퍼 컴포넌트(423)로 전달되며, 이는 디코딩된 픽처 버퍼 컴포넌트(223) 및 인-루프 필터 컴포넌트(225)와 각각 실질적으로 유사할 수 있다. 인-루프 필터 컴포넌트(425)는 재구성된 이미지 블록, 잔여 블록 및/또는 예측 블록을 필터링하고, 이러한 정보는 디코딩된 픽처 버퍼 컴포넌트(423)에 저장된다. 디코딩된 픽처 버퍼 컴포넌트(423)로부터의 재구성된 이미지 블록은 인터 예측을 위해 모션 보상 컴포넌트(421)로 전달된다. 모션 보상 컴포넌트(421)는 모션 추정 컴포넌트(221) 및/또는 모션 보상 컴포넌트(219)와 실질적으로 유사할 수 있다. 구체적으로, 모션 보상 컴포넌트(421)는 예측 블록을 생성하고 이미지 블록을 재구성하기 위해 잔여 블록을 결과에 적용하기 위해 참조 블록으로부터의 모션 벡터를 사용한다. 결과적인 재구성된 블록은 또한 인-루프 필터 컴포넌트(425)를 통해 디코딩된 픽처 버퍼 컴포넌트(423)로 전달될 수 있다. 디코딩된 픽처 버퍼 컴포넌트(423)는 분할 정보를 통해 프레임으로 재구성될 수 있는 추가의 재구성된 이미지 블록을 계속 저장한다. 이러한 프레임은 또한 시퀀스로 배치될 수도 있다. 시퀀스는 재구성된 출력 비디오 신호로서 디스플레이에 출력된다.
도 5는 예시적인 HRD(500)를 도시한 개략도이다. HRD(500)는 코덱 시스템(200) 및/또는 인코더(300)와 같은 인코더에서 사용될 수 있다. HRD(500)는 비트스트림이 디코더(400)와 같은 디코더로 전달되기 전에 방법(100)의 단계 109에서 생성된 비트스트림을 검사할 수 있다. 일부 예에서, 비트스트림은 비트스트림이 인코딩됨에 따라 HRD(500)를 통해 연속적으로 전달될 수 있다. 비트스트림의 일부가 연관된 제약을 준수하는 데 실패하는 경우에, HRD(500)는 인코더로 하여금 상이한 메커니즘으로 비트스트림의 대응하는 섹션을 재인코딩하게 하는 그러한 실패를 인코더에게 지시할 수 있다.
HRD(500)는 가상 스트림 스케줄러(hypothetical stream scheduler, HSS)(541)를 포함한다. HSS(541)는 가상 전달 메커니즘을 수행하도록 구성된 컴포넌트이다. HRD(500)에 입력되는 비트스트림(551)의 타이밍 및 데이터 흐름과 관련하여 비트스트림 또는 디코더의 적합성을 확인하기 위해 가상의 전달 메커니즘이 사용된다. 예를 들어, HSS(541)는 인코더로부터 출력되는 비트스트림(551)을 수신하고, 비트스트림(551)에 대한 적합성 테스팅 프로세스를 관리할 수 있다. 특정 예에서, HSS(541)는 코딩된 픽처가 HRD(500)를 통해 이동하는 레이트를 제어하고 비트스트림(551)이 부적합한 데이터를 포함하지 않음을 검증할 수 있다.
HSS(541)는 비트스트림(551)을 미리 정의된 레이트로 CPB(543)에게 전달할 수 있다. HRD(500)는 디코딩 유닛(decoding unit, DU)(553)에서 데이터를 관리할 수 있다. DU(553)는 액세스 유닛(AU) 또는 AU 및 연관된 비-비디오 코딩 레이어(video coding layer, VCL) 네트워크 추상화 레이어(NAL) 유닛의 서브 세트이다. 구체적으로, AU는 출력 시간과 연관된 하나 이상의 픽처을 포함한다. 예를 들어, AU는 단일 레이어 비트스트림에서 단일 픽처를 포함할 수 있고, 다중 레이어 비트스트림에서 각각의 레이어에 대한 픽처를 포함할 수 있다. AU의 각각의 픽처는 대응하는 VCL NAL 유닛에 각각 포함되는 슬라이스로 분할될 수 있다. 따라서, DU(553)는 하나 이상의 픽처, 픽처의 하나 이상의 슬라이스, 또는 이들의 조합을 포함할 수 있다. 또한, AU/DU, 픽처 및/또는 슬라이스를 디코딩하는 데 사용되는 파라미터는 비-VCL NAL 유닛에 포함될 수 있다. 이와 같이, DU(553)는 DU(553)에서 VCL NAL 유닛의 디코딩을 지원하는데 필요한 데이터를 포함하는 비-VCL NAL 유닛을 포함한다. CPB(543)는 HRD(500)의 선입선출 버퍼이다. CPB(543)는 디코딩 순서로 비디오 데이터를 포함하는 DU(553)를 포함한다. CPB(543)는 비트스트림 적합성 검증 동안 사용을 위해 비디오 데이터를 저장한다.
CPB(543)는 DU(553)를 디코딩 프로세스 컴포넌트(545)로 전달한다. 디코딩 프로세스 컴포넌트(545)는 VVC 표준을 따르는 컴포넌트이다. 예를 들어, 디코딩 프로세스 컴포넌트(545)는 최종 사용자에 의해 채용된 디코더(400)를 에뮬레이트할 수 있다. 디코딩 프로세스 컴포넌트(545)는 예시적인 최종 사용자 디코더에 의해 달성될 수 있는 레이트로 DU(553)를 디코딩한다. 디코딩 프로세스 컴포넌트(545)가 CPB(543)의 오버플로를 방지(또는 버퍼 언더런을 방지)하기에 충분히 빠르게 DU(553)를 디코딩할 수 없다면, 비트스트림(551)은 표준을 따르지 않고 재인코딩되어야 한다.
디코딩 프로세스 컴포넌트(545)는 디코딩된 DU(555)를 생성하는 DU(553)를 디코딩한다. 디코딩된 DU(555)는 디코딩된 픽처를 포함한다. 디코딩된 DU(555)는 DPB(547)로 전달된다. DPB(547)는 디코딩된 픽처 버퍼 컴포넌트(223, 323, 및/또는 423)와 실질적으로 유사할 수 있다. 인터 예측을 지원하기 위해, 디코딩된 DU(555)로부터 획득되는 참조 픽처(556)로서의 사용을 위해 표시된 픽처는 추가 디코딩을 지원하기 위해 디코딩 프로세스 컴포넌트(545)로 리턴된다. DPB(547)는 디코딩된 비디오 시퀀스를 일련의 픽처(557)로서 출력한다. 픽처(557)는 인코더에 의해 비트스트림(551)으로 인코딩된 픽처를 일반적으로 미러링하는 재구성된 픽처이다.
픽처(557)는 출력 크롭핑(cropping) 컴포넌트(549)로 전달된다. 출력 크롭핑 컴포넌트(549)는 픽처(557)에 적합성 크롭핑 윈도우를 적용하도록 구성된다. 이는 출력 크롭핑 픽처(559)를 생성한다. 출력 크롭핑 픽처(559)는 완전히 재구성된 픽처이다. 따라서, 출력 크롭핑된 픽처(559)는 최종 사용자가 비트스트림(551)을 디코딩할 때 보게 될 것을 모방한다. 이와 같이, 인코더는 인코딩이 만족스러움을 보장하기 위해 출력 크롭핑된 픽처(559)를 검토할 수 있다.
HRD(500)는 비트스트림(551)의 HRD 파라미터에 기초하여 초기화된다. 예를 들어, HRD(500)는 VPS, SPS, 및/또는 SEI 메시지로부터 HRD 파라미터를 판독할 수 있다. 그 다음, HRD(500)는 이러한 HRD 파라미터의 정보에 기초하여 비트스트림(551)에 대한 적합성 테스팅 작동을 수행할 수 있다. 구체적인 예로서, HRD(500)는 HRD 파라미터들로부터 하나 이상의 CPB 배달 스케줄을 결정할 수 있다. 배달 스케줄은 CPB 및/또는 DPB와 같은 메모리 위치로 그리고/또는 메모리 위치로부터 비디오 데이터의 배달을 위한 타이밍을 지정한다. 따라서, CPB 배달 스케줄은 AU, DU(553) 및/또는 픽처를 CPB(543)로/CPB(543)로부터 배달하기 위한 타이밍을 지정한다. HRD(500)는 CPB 배달 스케줄과 유사한 DPB(547)에 대한 DPB 배달 스케줄을 채용할 수 있다.
비디오는 다양한 레벨의 하드웨어 능력뿐만 아니라 다양한 네트워크 조건에 대해 디코더에 의한 사용을 위해 상이한 레이어 및/또는 OLS로 코딩될 수 있다. CPB 배달 스케줄은 이러한 문제를 반영하기 위해 선택된다. 따라서, 상위 레이어 서브 비트스트림은 최적의 하드웨어 및 네트워크 조건을 위해 지정되고, 따라서 상위 레이어는 CPB(543)에서 많은 양의 메모리를 사용하고 DPB(547)로 DU(553)를 전송하기 위한 짧은 지연을 사용하는 하나 이상의 CPB 배달 스케줄을 수신할 수 있다. 마찬가지로, 하위 레이어 서브 비트스트림은 디코더 하드웨어 기능이 제한되고 그리고/또는 네트워크 상태가 좋지 않은 경우에 지정된다. 따라서, 하위 레이어는 CPB(543)에서 소량의 메모리를 사용하고 DPB(547)를 향한 DU(553)의 전송을 위해 더 긴 지연을 사용하는 하나 이상의 CPB 배달 스케줄을 수신할 수 있다. 그 다음, 결과적인 서브 비트스트림이 서브 비트스트림에 대해 예상되는 조건에서 정확하게 디코딩될 수 있음을 보장하기 위해 OLS, 레이어, 서브 레이어, 또는 그들의 조합이 대응하는 배달 스케줄에 따라 테스트될 수 있다. 따라서, 비트스트림(551)의 HRD 파라미터는 CPB 배달 스케줄을 지시할 수 있을 뿐만 아니라 HRD(500)가 CPB 배달 스케줄을 결정하고 CPB 배달 스케줄을 대응하는 OLS, 레이어, 및/또는 서브 레이어와 상관시키는 것을 허용하기에 충분한 데이터를 포함할 수 있다.
도 6은 레이어 간 예측(621)을 위해 구성된 예시적인 다중 레이어 비디오 시퀀스(600)를 도시한 개략도이다. 다중 레이어 비디오 시퀀스(600)는 예를 들어 방법(100)에 따라 코덱 시스템(200) 및/또는 인코더(300)와 같은 인코더에 의해 인코딩되고 코덱 시스템(200) 및/또는 디코더(400)와 같은 디코더에 의해 디코딩될 수 있다. 또한, 다중 레이어 비디오 시퀀스(600)는 HRD(500)와 같은 HRD에 의해 표준 적합성에 대해 검사될 수 있다. 다중 레이어 비디오 시퀀스(600)는 코딩된 비디오 시퀀스의 레이어에 대한 예시적인 애플리케이션을 묘사하기 위해 포함된다. 다중 레이어 비디오 시퀀스(600)는 레이어 N(631) 및 레이어 N+1(632)과 같은 복수의 레이어를 사용하는 임의의 비디오 시퀀스이다.
예에서, 다중 레이어 비디오 시퀀스(600)는 레이어 간 예측(621)을 사용할 수 있다. 레이어 간 예측(621)은 상이한 레이어들의 픽처(611, 612, 613, 614)와 픽처(615, 616, 617, 618) 사이에 적용된다. 도시된 예에서, 픽처(611, 612, 613, 614)는 레이어 N+1(632)의 일부이고 픽처(615, 616, 617, 618)는 레이어 N(631)의 일부이다. 레이어 N(631) 및/또는 레이어 N+1(632)같은 레이어는 유사한 크기, 품질, 해상도, 신호 대 잡음비, 능력 등과 같은 특성의 유사한 값과 모두 연관된 픽처의 그룹이다. 레이어는 공식적으로 VCL NAL 유닛 및 연관된 비-VCL NAL 유닛의 세트로서 정의될 수 있다. VCL NAL 유닛은 픽처의 코딩된 슬라이스와 같은 비디오 데이터를 포함하도록 코딩된 NAL 유닛이다. 비-VCL NAL 유닛은 비디오 데이터 디코딩, 적합성 검사의 성능, 또는 기타 작동을 지원하는 신택스 및/또는 파라미터와 같은 비-비디오 데이터를 포함하는 NAL 유닛이다.
도시된 예에서, 레이어 N+1(632)은 레이어 N(631)보다 더 큰 이미지 크기와 연관된다. 따라서, 본 예에서 레이어 N+1(632)의 픽처(611, 612, 613, 614)는 레이어 N(631)의 픽처(615, 616, 617, 618)보다 더 큰 픽처 크기(예를 들어, 더 큰 높이와 폭, 따라서 더 많은 샘플)을 갖는다. 그러나, 그러한 픽처는 다른 특성에 의해 레이어 N+1(632)과 레이어 N(631) 사이에서 분리될 수 있다. 두 개의 레이어, 레이어 N+1(632)과 레이어 N(631)만 도시되어 있지만, 한 세트의 픽처는 연관된 특성에 기초하여 임의의 개수의 레이어로 분리될 수 있다. 레이어 N+1(632) 및 레이어 N(631)은 또한 레이어 Id로 표시될 수 있다. 레이어 Id는 픽처와 연관되는 데이터의 항목이고 픽처가 지시된 레이어의 일부임을 나타낸다. 따라서, 각각의 픽처(611-618)는 대응하는 픽처를 포함하는 레이어 N+1(632) 또는 레이어 N(631)을 지시하기 위해 대응하는 레이어 Id와 연관될 수 있다. 예를 들어, 레이어 Id는 NAL 유닛을 포함하는(예를 들어, 레이어에 있는 픽처의 슬라이스 및/또는 파라미터를 포함하는) 레이어의 식별자를 지정하는 신택스 요소인 NAL 유닛 헤더 레이어 식별자(nuh_layer_id)를 포함할 수 있다. 레이어 N(631)과 같은 더 낮은 품질/비트스트림 크기와 연관된 레이어는 일반적으로 하위 레이어 Id가 할당되고 하위 레이어로서 지칭된다. 또한, 레이어 N+1(632)과 같은 더 높은 품질/비트스트림 크기와 연관된 레이어는 일반적으로 상위 레이어 Id가 할당되고 상위 레이어로서 지칭된다.
상이한 레이어(631-632)의 픽처(611-618)는 대안으로 디스플레이되도록 구성된다. 구체적인 예로서, 디코더는 더 작은 픽처가 요구되는 경우 현재 디스플레이 시간에 픽처(615)를 디코딩하여 디스플레이할 수 있거나, 또는 디코더는 더 큰 픽처가 요구되는 경우 현재 디스플레이 시간에 픽처(611)를 디코딩하여 디스플레이할 수 있다. 이와 같이, 상위 레이어 N+1(632)의 픽처(611-614)는 (픽처 크기의 차이에도 불구하고) 하위 레이어 N(631)의 대응하는 픽처(615-618)와 실질적으로 동일한 이미지 데이터를 포함한다. 구체적으로, 픽처(611)는 픽처(615)와 실질적으로 동일한 이미지 데이터를 포함하고, 픽처(612)는 픽처(616)와 실질적으로 동일한 이미지 데이터를 포함한다.
픽처(611-618)는 동일한 레이어 N(631) 또는 N+1(632)의 다른 픽처(611-618)를 참조하여 코딩될 수 있다. 동일한 레이어의 다른 픽처를 참조하여 픽처를 코딩하면 인터 예측(623)이 발생한다. 인터 예측(623)은 실선 화살표로 표시된다. 예를 들어, 픽처(613)는 레이어 N+1(632)의 픽처(611, 612 및/또는 614) 중 하나 또는 2개를 참조로서 사용하여 인터 예측(623)을 사용함으로써 코딩될 수 있으며, 여기서 하나의 픽처는 단방향 인터 예측을 위해 참조되고 그리고/또는 두 개의 픽처는 양방향 인터 예측을 위해 참조된다. 또한, 픽처(617)는 레이어 N(631)의 픽처(615, 616 및/또는 618) 중 하나 또는 2개를 참조로서 사용하여 인터 예측(623)을 사용함으로써 코딩될 수 있으며, 여기서 하나의 픽처는 단방향 인터 예측을 위해 참조되고 그리고/또는 두 개의 픽처는 양방향 인터 예측을 위해 참조된다. 인터 예측(623)을 수행할 때 픽처가 동일한 레이어의 다른 픽처에 대한 참조로 사용되는 경우, 픽처는 참조 픽처로 지칭될 수 있다. 예를 들어, 픽처(612)는 인터 예측(623)에 따라 픽처(613)를 코딩하는데 사용되는 참조 픽처일 수 있다. 인터 예측(623)은 또한 다중 레이어 컨텍스트에서 레이어 내 예측으로 지칭될 수 있다. 이와 같이, 인터 예측(623)은 현재 픽처와 상이한 참조 픽처에서 지시된 샘플을 참조하여 현재 픽처의 샘플을 코딩하는 메커니즘이며, 여기서 참조 픽처와 현재 픽처는 동일한 레이어에 있다.
픽처(611-618)는 또한 상이한 레이어의 다른 픽처(611-618)를 참조하여 코딩될 수 있다. 이러한 프로세스는 레이어 간 예측(621)으로 알려져 있으며, 점선 화살표로 표시된다. 레이어간 예측(621)은 참조 픽처의 지시된 샘플을 참조하여 현재 픽처의 샘플을 코딩하는 메커니즘이며, 여기서 현재 픽처와 참조 픽처는 상이한 레이어에 있으므로 상이한 레이어 ID를 갖는다. 예를 들어, 하위 레이어 N(631)의 픽처는 상위 레이어 N+1(632)의 대응하는 픽처를 코딩하기 위한 참조 픽처로 사용될 수 있다. 구체적인 예로, 픽처(611)는 레이어 간 예측(621)에 따라 픽처(615)를 참조하여 코딩될 수 있다. 이러한 경우에, 픽처(615)는 레이어 간 참조 픽처로 사용된다. 레이어 간 참조 픽처는 레이어 간 예측(621)에 사용되는 참조 픽처이다. 대부분의 경우, 레이어 간 예측(621)은 픽처(611)와 같은 현재 픽처가 픽처(615)와 같이 동일한 AU에 포함되면서 하위 레이어에 있는 레이어 간 참조 픽처(들)만을 사용할 수 있도록 제한된다. 다중 레이어(예를 들어, 둘 이상)가 이용 가능한 경우, 레이어 간 예측(621)은 현재 픽처보다 낮은 레벨의 다수의 레이어 간 참조 픽처(들)에 기초하여 현재 픽처를 인코딩/디코딩할 수 있다.
비디오 인코더는 인터 예측(623) 및 레이어 간 예측(621)의 많은 상이한 조합 및/또는 순열을 통해 픽처(611-618)를 인코딩하기 위해 다중 레이어 비디오 시퀀스(600)를 사용할 수 있다. 예를 들어, 픽처(615)는 인트라 예측에 따라 코딩될 수 있다. 그 다음, 픽처(616-618)는 픽처(615)를 참조 픽처로서 사용함으로써 인터 예측(623)에 따라 코딩될 수 있다. 또한, 픽처(611)는 픽처(615)를 레이어 간 참조 픽처로서 사용함으로써 레이어 간 예측(621)에 따라 코딩될 수 있다. 그 다음, 픽처(612-614)는 픽처(611)를 참조 픽처로서 사용함으로써 인터 예측(623)에 따라 코딩될 수 있다. 이와 같이, 참조 픽처는 상이한 코딩 메커니즘을 위한 단일 레이어 참조 픽처 및 레이어 간 참조 픽처 모두의 역할을 할 수 있다. 하위 레이어 N(631) 픽처에 기초하여 상위 레이어 N+1(632) 픽처를 코딩함으로써, 상위 레이어 N+1(632)은 인터 예측(623) 및 레이어 간 예측(621)보다 훨씬 낮은 코딩 효율을 갖는 인트라 예측을 사용하는 것을 피할 수 있다. 이와 같이, 인트라 예측의 열악한 코딩 효율이 최소/최저 품질 픽처로 제한될 수 있고, 따라서 최소량의 비디오 데이터 코딩으로 제한될 수 있다. 참조 픽처 및/또는 레이어 간 참조 픽처로 사용되는 픽처는 참조 픽처 리스트 구조에 포함된 참조 픽처 리스트(들)의 엔트리에서 지시될 수 있다.
레이어 N+1(632) 및 레이어 N(631)과 같은 레이어가 출력 레이어 세트(output layer set, OLS)에 포함될 수 있다는 점에 유의해야 한다. OLS는 하나 이상의 레이어의 세트이며, 여기서 적어도 하나의 레이어는 출력 레이어이다. 예를 들어, 레이어 N(631)은 제1 OLS에 포함될 수 있고 레이어 N(631) 및 레이어 N-1(632)은 둘 다 제2 OLS에 포함될 수 있다. 이를 통해 디코더 측 조건에 따라 다른 OLS가 다른 디코더로 전송될 수 있다. 예를 들어, 서브 비트스트림 추출 프로세스는 타깃 OLS가 디코더로 전송되기 전에 다중 레이어 비디오 시퀀스(600)로부터 타깃 OLS와 관련이 없는 데이터를 제거할 수 있다. 이와 같이, 다중 레이어 비디오 시퀀스(600)의 인코딩된 사본은 인코더(또는 대응하는 컨텐츠 서버)에 저장될 수 있고, 다양한 OLS가 추출되어 요청 시 다른 디코더로 전송될 수 있다.
동시 방송 레이어는 레이어 간 예측(621)을 사용하지 않는 레이어이다. 예를 들어, 레이어 N+1(632)은 레이어 간 예측(621)에 기초하여 레이어 N(631)을 참조하여 코딩된다. 그러나, 레이어(631)는 다른 레이어를 참조하여 코딩되지 않는다. 이와 같이, 레이어(631)는 동시 방송 레이어이다. 다중 레이어 비디오 시퀀스(600)와 같은 확장 가능한 비디오 시퀀스는 일반적으로 기본 레이어 및 기본 레이어의 일부 속성을 향상시키는 하나 이상의 향상 레이어를 사용한다. 도 6에서, 레이어 N(631)은 기본 레이어이다. 기본 레이어는 일반적으로 동시 방송 레이어로서 코딩된다. 또한, 도 6은 예시적이며 다수의 레이어를 갖는 비디오 시퀀스가 종속성의 많은 상이한 조합/순열을 사용할 수 있기 때문에 비제한적이다. 비트스트림은 임의의 개수의 레이어를 포함할 수 있으며 이러한 레이어의 임의의 개수는 동시 방송 레이어일 수 있다. 예를 들어, 레이어 간 예측(621)은 완전히 생략될 수 있으며, 이 경우 모든 레이어는 동시 방송 레이어이다. 다른 예로, 멀티뷰 애플리케이션은 두 개 이상의 출력 레이어를 디스플레이한다. 이와 같이, 멀티뷰 애플리케이션은 일반적으로 동시 방송 레이어인 둘 이상의 기본 레이어를 포함하며, 각각의 기본 레이어에 대응하는 향상 레이어를 포함할 수 있다.
동시 방송 레이어는 레이어 간 예측(621)을 사용하는 레이어와 다르게 처리될 수 있다. 예를 들어, 레이어 간 예측(621)을 사용하는 레이어를 코딩할 때, 인코더는 디코딩을 지원하기 위해 레이어의 개수와 레이어들 사이의 종속성을 지시해야 한다. 그러나, 그러한 정보는 동시 방송 레이어에 대해 생략될 수 있다. 예를 들어, 레이어 N+1(632) 및 레이어 N(631)의 구성은 아래에서 더 자세히 논의되는 바와 같이 VPS에서 지시될 수 있다. 그러나, 레이어 N(631)은 이러한 정보 없이 디코딩될 수 있다. 이와 같이, 레이어 N(631)만이 디코더로 전송되는 경우 대응하는 비트스트림에서 VPS가 제거될 수 있다. 그러나, 이것은 비트스트림에 남아 있는 파라미터가 VPS를 참조하는 경우 오류를 생성할 수 있다. 또한, 각각의 레이어는 SPS에 의해 설명될 수 있다. 동시 방송 레이어에 대한 SPS는 SPS가 VPS와 함께 잘못 제거되지 않는 방식으로 다중 레이어 비트스트림으로 인코딩되어야 한다. 이러한 문제와 기타 문제는 아래에서 더 자세히 설명된다.
도 7은 예시적인 비트스트림(700)을 도시한 개략도이다. 예를 들어, 비트스트림(700)은 방법(100)에 따라 코덱 시스템(200) 및/또는 디코더(400)에 의한 디코딩을 위해 코덱 시스템(200) 및/또는 인코더(300)에 의해 생성될 수 있다. 또한, 비트스트림(700)은 다중 레이어 비디오 시퀀스(600)를 포함할 수 있다. 또한, 비트스트림(700)은 HRD(500)와 같은 HRD의 작동을 제어하기 위한 다양한 파라미터를 포함할 수 있다. 이러한 파라미터에 기초하여, HRD(500)는 디코딩을 위해 디코더로 전송하기 전에 표준 준수를 위해 비트스트림(700)을 검사할 수 있다.
비트스트림(700)은 VPS(711), 하나 이상의 SPS(713), 복수의 픽처 파라미터 세트(PPS)(715), 복수의 슬라이스 헤더(717) 및 이미지 데이터(720)를 포함한다. VPS(711)는 전체 비트스트림과 관련된 데이터를 포함한다. 예를 들어, VPS(711)는 비트스트림(700)에서 사용되는 데이터 관련 OLS, 레이어 및/또는 서브 레이어를 포함할 수 있다. SPS(713)는 비트스트림(700)에 포함된 코딩된 비디오 시퀀스의 모든 픽처에 공통인 시퀀스 데이터를 포함한다. 예를 들어, 각각의 레이어는 하나 이상의 코딩된 비디오 시퀀스를 포함할 수 있고, 각각의 코딩된 비디오 시퀀스는 대응하는 파라미터에 대해 SPS(713)를 참조할 수 있다. SPS(713)의 파라미터는 픽처 크기 조정, 비트 깊이, 코딩 도구 파라미터, 비트 레이트 제한 등을 포함할 수 있다. 각각의 시퀀스는 SPS(713)를 참조하지만, 단일 SPS(713)는 일부 예에서 다수의 시퀀스에 대한 데이터를 포함할 수 있다. PPS(715)는 전체 픽처에 적용되는 파라미터를 포함한다. 따라서, 비디오 시퀀스의 각각의 픽처는 PPS(715)를 참조할 수 있다. 각각의 픽처가 PPS(715)를 참조하는 반면, 단일 PPS(715)는 일부 예에서 다수의 픽처에 대한 데이터를 포함할 수 있다는 점에 유의해야 한다. 예를 들어, 다수의 유사한 픽처가 유사한 파라미터에 따라 코딩될 수 있다. 그러한 경우에, 단일 PPS(715)는 그러한 유사한 픽처에 대한 데이터를 포함할 수 있다. PPS(715)는 대응하는 픽처, 양자화 파라미터, 오프셋 등의 슬라이스에 대해 이용 가능한 코딩 도구를 지시할 수 있다.
슬라이스 헤더(717)는 픽처의 각각의 슬라이스에 특정된 파라미터를 포함한다. 따라서, 비디오 시퀀스의 슬라이스당 하나의 슬라이스 헤더(717)가 있을 수 있다. 슬라이스 헤더(717)는 슬라이스 유형 정보, 픽처 순서 카운트(picture order count, POC), 참조 픽처 리스트, 예측 가중치, 타일 진입점, 디블로킹 파라미터 등을 포함할 수 있다. 일부 예에서, 비트스트림(700)은 또한 픽처 헤더를 포함할 수 있으며, 그것은 단일 픽처의 모든 슬라이스에 적용되는 파라미터를 포함하는 신택스 구조이다. 이러한 이유로, 픽처 헤더와 슬라이스 헤더(717)는 일부 상황에서 혼용될 수 있다. 예를 들어, 특정 파라미터는 그러한 파라미터가 픽처의 모든 슬라이스에 공통인지 여부에 따라 슬라이스 헤더(717)와 픽처 헤더 사이에서 이동될 수 있다.
이미지 데이터(720)는 인터 예측, 레이어 간 예측, 및/또는 인트라 예측에 따라 인코딩된 비디오 데이터는 물론 대응하는 변환되고 양자화된 잔여 데이터를 포함한다. 예를 들어, 이미지 데이터(720)는 레이어(723, 724), 픽처(725, 726), 및/또는 슬라이스(727, 728)를 포함할 수 있다. 레이어(723, 724)는 nuh_layer_id(732) 및 연관된 비-VCL NAL 유닛(742)과 같은 레이어 ID에 의해 지시된 바와 같이 지정된 특성(예를 들어, 공통 해상도, 프레임 레이트, 이미지 크기 등)을 공유하는 VCL NAL 유닛(741)의 세트이다. 예를 들어, 레이어(723)는 동일한 nuh_layer_id(732)를 공유하는 픽처(725)의 세트를 포함할 수 있다. 마찬가지로, 레이어(724)는 동일한 nuh_layer_id(732)를 공유하는 픽처(726)의 세트를 포함할 수 있다. 레이어(723, 724)는 실질적으로 유사할 수 있지만, 다른 컨텐츠를 포함할 수 있다. 예를 들어, 레이어(723, 724)는 도 6으로부터 각각 레이어 N(631) 및 레이어 N+1(632)을 포함할 수 있다. 이와 같이, 인코딩된 비트스트림(700)은 다중 레이어(723, 724)를 포함할 수 있다. 논의의 명확성을 위해 2개의 레이어(723, 724)만이 도시되어 있지만, 임의의 개수의 레이어(723, 724)가 비트스트림(700)에 포함될 수 있다.
nuh_layer_id(732)는 적어도 하나의 NAL 유닛을 포함하는 레이어(723 및/또는 724)의 식별자를 지정하는 신택스 요소이다. 예를 들어, 기본 레이어로 알려진 최저 품질 레이어는 더 높은 품질의 레이어에 대해 nuh_layer_id(732)의 증가되는 값을 갖는 nuh_layer_id(732)의 최저 값을 포함할 수 있다. 따라서, 하위 레이어는 nuh_layer_id(732)의 값이 작은 레이어(723 또는 724)이고 상위 레이어는 nuh_layer_id(732)의 값이 큰 레이어(723 또는 724)이다. 레이어(723, 724)의 데이터는 nuh_layer_id(723)에 기초하여 상관된다. 예를 들어, 파라미터 세트 및 비디오 데이터는 그러한 파라미터 세트/비디오 데이터를 포함하는 최하위 레이어(723 또는 724)에 대응하는 nuh_layer_id(732)의 값과 연관될 수 있다. 이와 같이, VCL NAL 유닛(741)의 세트는 VCL NAL 유닛(741)의 세트가 모두 nuh_layer_id(732)의 특정 값을 가질 때 레이어(723 및/또는 724)의 일부이다.
픽처 세트(725, 726)로부터의 픽처는 프레임 또는 그 필드를 생성하는 루마 샘플의 어레이 및/또는 크로마 샘플의 어레이이다. 예를 들어, 픽처 세트(725, 726)로부터의 픽처는 디스플레이를 위해 출력되거나 또는 출력을 위해 다른 픽처(들)의 코딩을 지원하는 데 사용될 수 있는 코딩된 이미지이다. 픽처 세트(725, 726)로부터의 픽처는 실질적으로 유사하지만, 픽처의 세트(725)는 레이어(723)에 포함되는 반면에 픽처의 세트(726)는 레이어(724)에 포함된다. 픽처 세트(725, 726)로부터의 픽처는 하나 이상의 슬라이스(727, 728)를 각각 포함한다. 슬라이스(727/728)는 VCL NAL 유닛(741)과 같은 단일 NAL 유닛에 배타적으로 포함된 픽처의 완전한 타일의 정수 또는 연속적인 완전한 코딩 트리 유닛(CTU) 행의 정수(예를 들어, 타일 내)로 정의될 수 있다. 슬라이스(727) 및 슬라이스(728)는 슬라이스(727)가 픽처(725) 및 레이어(723)에 포함되는 반면 슬라이스(728)가 픽처(726) 및 레이어(724)에 포함된다는 점을 제외하고는 실질적으로 유사하다. 슬라이스(727/728)는 CTU 및/또는 코딩 트리 블록(CTB)으로 추가로 분할된다. CTU는 코딩 트리로 분할될 수 있는 미리 정의된 크기의 샘플 그룹이다. CTB는 CTU의 서브 세트이며 CTU의 루마 컴포넌트 또는 크로마 컴포넌트를 포함한다. CTU/CTB는 코딩 트리에 기초한 코딩 블록으로 추가로 분할된다. 그 다음, 코딩 블록은 예측 메커니즘에 따라 인코딩/디코딩될 수 있다.
코딩된 레이어 비디오 시퀀스(CLVS)(743) 및 CLVS(744)는 각각 동일한 nuh_layer_id(732) 값을 갖는 코딩된 픽처(725) 및 픽처(725)의 시퀀스이다. 예를 들어, CLVS(743 및/또는 744)는 각각 단일 레이어(723 및/또는 724)에 포함된 픽처의 시퀀스(725 및/또는 726)일 수 있다. 따라서, CLVS(743)는 레이어(723)의 모든 픽처(725)를 포함하고 CLVS(744)는 레이어(724)의 모든 픽처(726)를 각각 포함한다. CLVS(743, 744) 각각은 대응하는 SPS(713)를 참조한다. CLVS(743, 743)는 예에 따라 동일한 SPS(713)를 참조할 수 있거나 또는 CLVS(743, 743)는 상이한 SPS(713)를 각각 참조할 수 있다.
비트스트림(700)은 NAL 유닛의 시퀀스로서 코딩될 수 있다. NAL 유닛은 비디오 데이터 및/또는 지원 신택스에 대한 컨테이너(container)이다. NAL 유닛은 VCL NAL 유닛(741) 또는 비-VCL NAL 유닛(742)일 수 있다. VCL NAL 유닛(741)은 이미지 데이터(720) 및 연관된 슬라이스 헤더(717)와 같은 비디오 데이터를 포함하도록 코딩된 NAL 유닛이다. 구체적인 예로서, 각각의 슬라이스(727, 728) 및 연관된 슬라이스 헤더(717)는 단일 VCL NAL 유닛(741)에서 인코딩될 수 있다. 비-VCL NAL 유닛(742)은 비디오 데이터 디코딩, 적합성 검사의 성능, 또는 다른 작동을 지원하는 신택스 및/또는 파라미터와 같은 비-비디오 데이터를 포함하는 NAL 유닛이다. 예를 들어, 비-VCL NAL 유닛(742)은 VPS(711), SPS(713), PPS(715), 픽처 헤더, 또는 다른 지원 신택스를 포함할 수 있다. 이와 같이, 비트스트림(700)은 일련의 VCL NAL 유닛(741) 및 비-VCL NAL 유닛(742)이다. 각각의 NAL 유닛은 nuh_layer_id(732)를 포함하며, 이는 인코더 또는 디코더가 어느 레이어(723 또는 724)가 대응하는 NAL 유닛을 포함하는지를 결정할 수 있게 한다.
다중 레이어(723, 724)를 포함하는 비트스트림(700)은 디코더에 의해 요청될 때까지 인코딩되고 저장될 수 있다. 예를 들어, 디코더는 레이어(723), 레이어(724), 및/또는 다중 레이어(723 및 724)를 포함하는 OLS를 요청할 수 있다. 특정 예에서, 레이어(723)는 기본 레이어이고 레이어(724)는 향상 레이어이다. 비트스트림(700)에 추가적인 레이어가 또한 사용될 수도 있다. 인코더 및/또는 컨텐츠 서버는 요청된 출력 레이어(들)를 디코딩하는 데 필요한 레이어(723 및/또는 724)만을 디코더로 전송해야 한다. 예를 들어, 레이어가 서로 다른 픽처 크기에 사용되는 경우, 가장 큰 픽처 크기를 요청하는 디코더는 레이어(723, 724) 모두와 함께 전체 비트스트림(700)을 수신할 수 있다. 가장 작은 픽처 크기를 요청하는 디코더는 레이어(723)만 수신할 수 있다. 중간 픽처 크기를 요청하는 디코더는 레이어(723) 및 다른 중간 레이어(들)를 수신할 수 있지만 최상위 레이어(724)는 수신하지 않으며, 따라서 전체 비트스트림은 수신하지 않을 수 있다. 프레임 레이트, 픽처 해상도 등과 같은 다른 레이어 특성에도 동일한 접근 방식이 사용될 수 있다.
서브 비트스트림 추출 프로세스(729)는 전술한 기능을 지원하기 위해 비트스트림(700)으로부터 서브 비트스트림(701)을 추출하기 위해 사용된다. 서브 비트스트림(701)은 비트스트림(700)으로부터의 NAL 유닛(예를 들어, 비-VCL NAL 유닛(742) 및 VCL NAL 유닛(741))의 서브 세트이다. 구체적으로, 서브 비트스트림(701)은 하나 이상의 레이어와 관련된 데이터를 포함할 수 있지만 다른 레이어와 관련된 데이터는 포함하지 않는다. 도시된 예에서, 서브 비트스트림(701)은 레이어(723)와 관련된 데이터를 포함하지만 레이어(724)와 관련된 데이터는 포함하지 않는다. 따라서, 서브 비트스트림(701)은 레이어(723), CLVS(743), 픽처(725) 및 슬라이스(732)를 포함하는 이미지 데이터(720), SPS(713), PPS(715) 및 슬라이스 헤더(717)를 포함한다. 서브 비트스트림 추출 프로세스(729)는 nuh_layer_id(732)에 기초하여 NAL 유닛을 제거한다. 예를 들어, 상위 레이어(724)에만 연관된 VCL NAL 유닛(741) 및 비-VCL NAL 유닛(742)은 더 높은 nuh_layer_id(732) 값을 포함하고, 따라서 더 높은 nuh_layer_id(732) 값을 갖는 모든 NAL 유닛을 제거하는 것은 하위 레이어(723) 및 연관된 파라미터를 추출한다. 각각의 NAL 유닛은 서브 비트스트림 추출 프로세스(729)를 지원하기 위해 NAL 유닛을 포함하는 최하위 레이어의 nuh_layer_id(732)보다 작거나 같은 nuh_layer_id(732) 값을 포함한다. 비트스트림(700) 및 서브 비트스트림(701)은 각각 일반적으로 비트스트림으로 지칭될 수 있다.
도시된 예에서, 서브 비트스트림(701)은 동시 방송 레이어(simulcast layer)(예를 들어, 기본 레이어)를 포함한다. 위에서 언급된 바와 같이, 동시 방송 레이어는 레이어 간 예측을 사용하지 않는 모든 레이어이다. VPS(711)는 레이어(723, 724)의 구성을 설명하는 데이터를 포함한다. 그러나, 이러한 데이터는 레이어(723)와 같은 동시 방송 레이어를 디코딩하는 데 필요하지 않다. 이와 같이, 서브 비트스트림 추출 프로세스(729)는 동시 방송 레이어를 추출할 때 증가된 코딩 효율성을 지원하기 위해 VPS(711)를 제거한다. 이것은 일부 비디오 코딩 시스템에서 문제를 일으킬 수 있다. 구체적으로, SPS(713)의 특정 파라미터는 VPS(711)를 참조할 수 있다. VPS(711)가 제거되는 경우, 디코더 및/또는 HRD는 이러한 파라미터에 의해 참조되는 데이터가 더 이상 존재하지 않기 때문에 이러한 파라미터를 해결할 수 없을 수 있다. 이로 인해 동시 방송 레이어에 대한 HRD의 적합성 테스트를 수행할 때 오류가 발생될 수 있다. 다르게는, 이것은 디코더에서의 디스플레이를 위해 동시 방송 레이어가 전송되는 경우 디코더에서 예측할 수 없는 오류를 초래할 수 있다. 또한, 각각의 SPS(713)를 정확하게 식별하는 데 실패하면 VPS(711)가 서브 비트스트림 추출 프로세스(729)에 의해 동시 방송 레이어에 대해 제거되는 경우 SPS(713)가 부적절하게 제거될 수 있다.
본 개시는 이러한 오류를 다룬다. 구체적으로, SPS(713)는 CLVS(743)를 포함하는 레이어(723)가 레이어 간 예측을 사용하지 않는 경우(동시 방송 레이어임) SPS(713)를 참조하는 CLVS(743)와 동일한 nuh_layer_id(732)를 포함하도록 제한된다. 또한, SPS(713)는 CLVS(744)를 포함하는 레이어(724)가 레이어간 예측을 사용하는 경우(동시 방송 레이어가 아님) CLVS(744)의 nuh_layer_id(732)보다 작거나 같은 nuh_layer_id(732)를 가질 수 있다. 이러한 방식으로, CLVS(743 및 743) 모두는 동일한 SPS(713)를 선택적으로 참조할 수 있다. 또한, SPS(713)는 SPS(713)가 CLVS(743)/레이어(723)와 동일한 nuh_layer_id(732)를 포함하기 때문에 동시 방송 레이어(예를 들어, 레이어(723))에 대한 서브 비트스트림 추출 프로세스(729)에 의해 제거되지 않는다.
또한, SPS(713)는 sps_video_parameter_set_id(731)를 포함한다. sps_video_parameter_set_id(731)는 SPS(713)에 의해 참조되는 VPS(711)의 ID를 지정하는 신택스 요소이다. 구체적으로, VPS(711)는 다른 신택스 요소/구조에 의한 참조를 위해 VPS(711)에 대한 ID를 제공하는 신택스 요소인 vps_video_parameter_set_id(735)를 포함한다. VPS(711)가 존재하는 경우, sps_video_parameter_set_id(731)는 vps_video_parameter_set_id(735)의 값으로 설정된다. 그러나, SPS(713)가 동시 방송 레이어에 대해 사용되는 경우, sps_video_parameter_set_id(731)는 0으로 설정된다. 달리 말하면, sps_video_parameter_set_id(731)는 0보다 큰 경우, SPS(713)에 의해 참조되는 VPS(711)에 대한 vps_video_parameter_set_id(735)의 값을 지정한다. sps_video_parameter_set_id(731)가 0과 같은 경우, SPS(713)는 VPS(711)를 참조하지 않고, VPS(711)는 SPS(713)를 참조하는 임의의 코딩된 레이어 비디오 시퀀스를 디코딩할 때 참조되지 않는다. 이것은 상이한 레이어에 대해 별도의 SPS(713)(예를 들어, 동시 방송 레이어에 대해 하나의 SPS 및 비-동시 방송 레이어(들)에 대해 다른 SPS)를 사용하거나, 또는 서브 비트스트림 추출 프로세스(729) 동안 sps_video_parameter_set_id(731)의 값을 변경함으로써 달성될 수 있다. 이러한 방식으로, sps_video_parameter_set_id(731)는 VPS(711)가 서브 비트스트림 추출 프로세스(729) 동안 제거될 때 사용할 수 없는 ID를 잘못 참조하지 않는다.
또한, HRD 및/또는 디코더에 의해 유도되는 다양한 변수는 VPS(711)의 파라미터도 참조한다. 따라서, 이러한 변수는 sps_video_parameter_set_id(731)가 0으로 설정될 때 기본값으로 설정된다. 이것은 VPS(711)가 동시 방송 레이어에 대해 추출될 때 그러한 변수가 실행 가능한 값으로 적절하게 해결될 수 있는 동시에, 다중 레이어 비트스트림에 대해 여전히 정확하게 작동함을 보장한다. 예를 들어, 디코더 및/또는 HRD는 비트스트림(700) 및/또는 서브 비트스트림(701)에 기초하여 GeneralLayerIdx[i]를 유도할 수 있다. GeneralLayerIdx[i]는 대응하는 레이어 i의 인덱스를 지정하는 유도 변수이다. 이와 같이, GeneralLayerIdx[i]는 현재 레이어의 nuh_layer_id(732)를 GeneralLayerIdx[i]의 레이어 i로서 포함함으로써 현재 레이어의 레이어 인덱스를 결정하는데 사용될 수 있다. 이는 nuh_layer_id(GeneralLayerIdx[nuh_layer_id])에 대응하는 일반 레이어 인덱스로 표현될 수 있다. 따라서, GeneralLayerIdx[nuh_layer_id]는 대응하는 레이어에 대한 현재 레이어 인덱스를 지시한다. 이러한 프로세스는 레이어(724)와 같은 비 동시 방송 레이어에 대해 정확하게 작동하지만, 동시 방송 레이어(723)에 대한 오류를 발생시킬 수 있다. 따라서, GeneralLayerIdx[nuh_layer_id]는 sps_video_parameter_set_id(731)가 0(동시 방송 레이어를 지시함)인 경우, 0으로 설정되거나 그리고/또는 추론된다.
다른 예로서, VPS(711)는 VPS 독립 레이어 플래그(vps_independent_layer_flag)(733)를 포함할 수 있다. vps_independent_layer_flag(733)는 레이어(723 및/또는 724)와 같은 대응하는 레이어가 레이어 간 예측을 사용하는지 여부를 지정한다. 따라서, vps_independent_layer_flag[GeneralLayerIdx[nuh_layer_id]]는 인덱스 GeneralLayerIdx[nuh_layer_id]인 현재 레이어가 레이어 간 예측을 사용하는지 여부를 지정한다. 그러나, vps_independent_layer_flag(733)를 포함하는 VPS(711)는 디코더로 전송되는 레이어(723)가 동시 방송 레이어인 경우 디코더로 전송되지 않는다. 이와 같이, 참조는 오류를 발생시킬 수 있다. 그러나, 동시 방송 레이어는 레이어 간 예측을 사용하지 않는다. 이와 같이, 동시 방송 레이어에 대한 vps_independent_layer_flag(733)는 1과 같도록 추론될 수 있으며, 이는 해당 레이어(723)에 대해 레이어 간 예측이 사용되지 않음을 지시한다. 따라서 vps_independent_layer_flag[GeneralLayerIdx[nuh_layer_id]]는 sps_video_parameter_set_id가 0으로 설정될 때 현재 레이어에 대해 레이어 간 예측이 사용되지 않음을 지시하기 위해 1로 설정되고 추론된다. 이러한 방식으로, VPS가 레이어(723)와 같은 동시 방송 레이어의 전송 이전에 비트스트림에서 제거될 때 오류가 방지된다. 결과적으로, 인코더 및 디코더의 기능이 증가된다. 또한, 인코더와 디코더 모두에서 프로세서, 메모리 및/또는 네트워크 시그널링 자원 사용량을 줄이는 동시 방송 레이어만을 포함하는 비트스트림에서 불필요한 VPS를 성공적으로 제거함으로써 코딩 효율성이 증가된다.
이전의 정보는 이제 아래에서 더 자세히 설명된다. 레이어화된 비디오 코딩은 또한 확장 가능한 비디오 코딩 또는 확장성을 갖는 비디오 코딩으로도 지칭된다. 비디오 코딩에서의 확장성은 다중 레이어 코딩 기술을 사용함으로써 지원될 수도 있다. 다중 레이어 비트스트림은 기본 레이어(BL) 및 하나 이상의 향상 레이어(EL)를 포함한다. 확장성의 예로는 공간 확장성, 품질/신호 대 잡음비(signal to noise ratio, SNR) 확장성, 멀티뷰 확장성, 프레임 레이트 확장성 등이 있다. 다중 레이어 코딩 기술이 사용되는 경우, 픽처 또는 그 일부가 참조 픽처(인트라 예측)를 사용하지 않고 코딩될 수 있으며, 동일한 레이어(인트라 예측)에 있는 참조 픽처를 참조하여 코딩될 수 있고(인터 예측), 및/또는 다른 레이어(들)에 있는 참조 픽처를 참조하여 코딩될 수 있다(인터 레이어 예측). 현재 픽처의 레이어 간 예측에 사용되는 참조 픽처를 레이어 간 참조 픽처(inter layer reference picture, ILRP)로서 지칭된다. 도 6은 상이한 레이어의 픽처가 상이한 해상도를 갖는 공간 확장성을 위한 다중 레이어 코딩의 예를 도시한다.
일부 비디오 코딩 패밀리는 단일 레이어 코딩을 위한 프로파일(들)로부터 분리된 프로파일(들)의 확장성에 대한 지원을 제공한다. 확장 가능한 비디오 코딩(scalable video coding, SVC)은 공간, 시간 및 품질 확장성을 지원하는 진보된 비디오 코딩(advanced video coding, AVC)의 확장 가능한 연장이다. SVC의 경우, EL MB가 하위 레이어에서 병치된 블록을 사용하여 예측되는지 여부를 지시하기 위해 플래그는 EL 픽처의 각각의 매크로블록(macroblock, MB)에서 시그널링된다. 병치된 블록으로부터의 예측은 텍스처, 모션 벡터 및/또는 코딩 모드를 포함할 수 있다. SVC 구현은 설계에서 수정되지 않은 AVC 구현을 직접 재사용할 수 없다. SVC EL 매크로블록 신택스 및 디코딩 프로세스는 AVC 신택스 및 디코딩 프로세스와 다르다.
확장 가능한 HEVC(SHVC)는 공간 및 품질 확장성 지원을 제공하는 HEVC의 연장이다. 멀티뷰 HEVC(MV-HEVC)는 멀티뷰 확장성을 지원하는 HEVC의 연장이다. 3D HEVC(3D-HEVC)는 MV-HEVC보다 더 발전되고 효율적인 3D 비디오 코딩에 대한 지원을 제공하는 HEVC의 연장이다. 시간 확장성은 단일 레이어 HEVC 코덱의 필수적인 부분으로 포함될 수 있다. HEVC의 다중 레이어 연장에서, 레이어 간 예측에 사용되는 디코딩된 픽처는 동일한 AU에서만 제공되며 장기간 참조 픽처(long-term reference pictures, LTRP)로서 처리된다. 이러한 픽처에는 현재 레이어의 다른 시간 참조 픽처와 함께 참조 픽처 리스트(들)의 참조 인덱스가 할당된다. 레이어 간 예측(Inter-layer prediction, ILP)은 참조 픽처 리스트(들)의 레이어 간 참조 픽처(들)를 참조하도록 참조 인덱스의 값을 설정함으로써 예측 유닛(prediction unit, PU) 레벨에서 달성된다. 공간 확장성은 ILRP가 인코딩되거나 또는 디코딩되는 현재 픽처와 다른 공간 해상도를 가질 때 참조 픽처 또는 그 일부를 재샘플링한다. 참조 픽처 재샘플링은 픽처 레벨 또는 코딩 블록 레벨에서 실현될 수 있다.
VVC는 또한 레이어화된 비디오 코딩을 지원할 수도 있다. VVC 비트스트림은 여러 레이어를 포함할 수 있다. 레이어는 모두 서로 독립적일 수 있다. 예를 들어, 각각의 레이어는 레이어 간 예측을 사용하지 않고 코딩될 수 있다. 이 경우, 레이어는 또한 동시 방송 레이어로서 지칭된다. 일부 경우에, 일부 레이어는 ILP를 사용하여 코딩된다. VPS의 플래그는 레이어가 동시 방송 레이어인지 여부 또는 일부 레이어가 ILP를 사용하는지 여부를 지시할 수 있다. 일부 레이어가 ILP를 사용하는 경우, 레이어 간의 레이어 종속 관계도 또한 VPS에서 시그널링된다. SHVC 및 MV-HEVC와 달리, VVC는 OLS를 지정하지 않을 수 있다. OLS는 지정된 레이어 세트를 포함하며, 여기서 레이어 세트의 하나 이상의 레이어가 출력 레이어로 지정된다. 출력 레이어는 출력되는 OLS의 레이어이다. VVC의 일부 구현에서, 레이어가 동시 방송 레이어인 경우 디코딩 및 출력을 위해 하나의 레이어만이 선택될 수 있다. VVC의 일부 구현에서, 모든 레이어를 포함하는 전체 비트스트림은 임의의 레이어가 ILP를 사용할 때 디코딩되도록 지정된다. 또한, 레이어 중 특정 레이어가 출력 레이어로 지정된다. 출력 레이어는 최상위 레이어만, 모든 레이어, 또는 최상위 레이어에 지시된 하위 레이어의 세트를 더하여 지시될 수 있다.
이전의 측면은 특정 확장성 관련 문제를 포함한다. 이러한 시스템의 확장성 설계에는 레이어별 프로파일, 티어 및 레벨(profile, tier, and level, PTL)은 물론 레이어별 코딩된 픽처 버퍼(coded picture buffer,CPB) 작동을 포함한다. PTL 시그널링 효율성이 개선되어야 한다. 서브 레이어에 대한 시퀀스 수준 HRD 파라미터에 대한 시그널링 효율성이 향상되어야 한다. DPB 파라미터 시그널링이 개선되어야 한다. 일부 설계에서는 단일 레이어 비트스트림이 VPS를 참조하도록 한다. 이러한 설계에서 num_ref_entries[ ][ ]의 값 범위는 올바르지 않으며 디코더에 대해 예기치 않은 오류를 발생시킨다. 이러한 설계에서 디코딩 프로세스는 서브 비트스트림 추출을 포함하며, 이는 디코더 구현에 부담을 준다. 이러한 설계에 대한 일반적인 디코딩 프로세스는 레이어 간 예측을 갖는 다중 레이어를 포함하는 확장 가능한 비트스트림에 대해 작동하지 않을 수 있다. 이러한 설계에서 변수 NoOutputOfPriorPicsFlag 값의 유도는 이러한 설계에 기초한 AU가 아니라 픽처 기반일 수 있다. 이러한 설계에서 확장 가능한 중첩 SEI 메시지는 nesting_ols_flag가 1과 같은 경우 OLS의 레이어 대신에 OLS에 직접 적용하도록 단순화되어야 한다. non-scalable-nested SEI 메시지는 payloadType이 0(버퍼링 주기), 1(픽처 타이밍) 또는 130(디코딩 유닛 정보)인 경우, 0번째 OLS에만 적용되도록 지정될 수 있다.
일반적으로, 본 개시는 비디오 코딩에서의 확장성에 대한 다양한 접근 방식을 설명한다. 기술에 대한 설명은 VVC에 기초한다. 그러나, 이 기술은 또한 다른 비디오 코덱 사양에 기초한 레이어화된 비디오 코딩에도 적용된다. 위에서 언급한 문제 중 하나 이상은 다음과 같이 해결될 수 있다. 구체적으로, 이러한 개시는 비디오 코딩에서 개선된 확장성 지원을 위한 방법을 포함한다.
다음은 다양한 예시적인 정의이다. OP는 OLS 인덱스와 TemporalId의 가장 높은 값에 의해 식별되는 OLS의 시간적 서브 세트일 수 있다. 출력 레이어는 출력되는 OLS의 레이어일 수 있다. OLS는 레이어의 세트일 수 있으며, 여기서 레이어의 세트의 하나 이상의 레이어가 출력 레이어로 지정된다. OLS 레이어 인덱스는 OLS 내의 레이어 리스트에 대한 OLS 내의 레이어의 인덱스일 수 있다. 서브 비트스트림 추출 프로세스는 타깃 OLS 인덱스 및 타깃 최고 TemporalId에 의해 결정된 타깃 세트에 속하지 않는 비트스트림의 NAL 유닛이 타깃 세트에 속하는 비트스트림의 NAL유닛을 포함하는 출력 서브 비트스트림을 갖도록 비트스트림으로부터 제거되는 지정된 프로세스일 수 있다.
예시적인 비디오 파라미터 세트 RBSP 신택스는 다음과 같다.
video_parameter_set_rbsp( ) { 설명자
vps_video_parameter_set_id u(4)
vps_max_layers_minus1 u(6)
vps_max_sub_layers_minus1 u(3)
if( vps_max_layers_minus1 > 0 && vps_max_sub_layers_minus1 > 0 )
vps_all_layers_same_num_sub_layers_flag u(1)
if( vps_max_layers_minus1 > 0 )
vps_all_independent_layers_flag u(1)
...
vps_num_ptls u(8)
for( i = 0; i < vps_num_ptls; i++ ) {
if( i > 0 )
pt_present_flag[ i ] u(1)
if( vps_max_sub_layers_minus1 > 0 && !vps_all_layers_same_num_sub_layers_flag )
ptl_max_temporal_id[ i ] u(3)
}
while( !byte_aligned( ) )
vps_ptl_byte_alignment_zero_bit /* 0과 같음 */ u(1)
for( i = 0; i < vps_num_ptls; i++ )
profile_tier_level( pt_present_flag[ i ], ptl_max_temporal_id[ i ] )
for( i = 0; i < TotalNumOlss; i++ )
if( NumLayersInOls[ i ] > 1 && vps_num_ptls > 1 )
ols_ptl_idx[ i ] u(8)
if( !vps_all_independent_layers_flag )
vps_num_dpb_params ue(v)
if( vps_num_dpb_params > 0 ) {
same_dpb_size_output_or_nonoutput_flag u(1)
if( vps_max_sub_layers_minus1 > 0 )
vps_sub_layer_dpb_params_present_flag u(1)
}
for( i = 0; i < vps_num_dpb_params; i++ ) {
dpb_size_only_flag[ i ] u(1)
if( vps_max_sub_layers_minus1 > 0 && !vps_all_layers_same_num_sub_layers_flag )
dpb_max_temporal_id[ i ] u(3)
dpb_parameters( dpb_size_only_flag[ i ], dpb_max_temporal_id[ i ],
vps_sub_layer_dpb_params_present_flag )
}
for( i = 0; i < vps_max_layers_minus1 && vps_num_dpb_params > 1; i++ ) {
if( !vps_independent_layer_flag[ i ] )
layer_output_dpb_params_idx[ i ] ue(v)
if( LayerUsedAsRefLayerFlag[ i ] && !same_dpb_size_output_or_nonoutput_flag )
layer_nonoutput_dpb_params_idx[ i ] ue(v)
}
general_hrd_params_present_flag u(1)
if( general_hrd_params_present_flag ) {
num_units_in_tick u(32)
time_scale u(32)
general_hrd_parameters( )
}
vps_extension_flag u(1)
if( vps_extension_flag )
while( more_rbsp_data( ) )
vps_extension_data_flag u(1)
rbsp_trailing_bits( )
}
예시적인 시퀀스 파라미터 세트 RBSP 신택스는 다음과 같다.
seq_parameter_set_rbsp( ) { 설명자
sps_decoding_parameter_set_id u(4)
sps_video_parameter_set_id u(4)
sps_max_sub_layers_minus1 u(3)
sps_reserved_zero_4bits u(4)
sps_ptl_dpb_present_flag u(1)
if( sps_ptl_dpb_present_flag )
profile_tier_level( 1, sps_max_sub_layers_minus1 )
gdr_enabled_flag u(1)
sps_seq_parameter_set_id ue(v)
chroma_format_idc ue(v)
...
log2_max_pic_order_cnt_lsb_minus4 ue(v)
poc_msb_in_rap_pics_flag u(1)
if( poc_msb_in_rap_pics_flag > 0 )
poc_msb_len_minus1 ue(v)
if( sps_max_sub_layers_minus1 > 0 )
sps_sub_layer_dpb_params_flag u(1)
if( sps_ptl_dpb_present_flag )
dpb_parameters( 0, sps_max_sub_layers_minus1, sps_sub_layer_dpb_params_flag )
for( i = ( sps_sub_layer_ordering_info_present_flag ? 0 : sps_max_sub_layers_minus1 );
i <= sps_max_sub_layers_minus1; i++ ) {
sps_max_dec_pic_buffering_minus1[ i ] ue(v)
sps_max_num_reorder_pics[ i ] ue(v)
sps_max_latency_increase_plus1[ i ] ue(v)
}
long_term_ref_pics_flag u(1)
...
sps_scaling_list_enabled_flag u(1)
general_hrd_parameters_present_flag u(1)
if( general_hrd_parameters_present_flag ) {
num_units_in_tick u(32)
time_scale u(32)
sub_layer_cpb_parameters_present_flag u(1)
if( sub_layer_cpb_parameters_present_flag )
general_hrd_parameters( 0,  sps_max_sub_layers_minus1 )
else
general_hrd_parameters( sps_max_sub_layers_minus1, sps_max_sub_layers_minus1 )
}
vui_parameters_present_flag u(1)
if( vui_parameters_present_flag )
vui_parameters( )
sps_extension_flag u(1)
if( sps_extension_flag )
while( more_rbsp_data( ) )
sps_extension_data_flag u(1)
rbsp_trailing_bits( )
}
예시적인 DPB 파라미터 신택스는 다음과 같다.
dpb_parameters( dpbSizeOnlyFlag, maxSubLayersMinus1, subLayerInfoFlag ) { 설명자
for( i = ( subLayerInfoFlag ? 0 : maxSubLayersMinus1 );
i <= maxSubLayersMinus1; i++ ) {
max_dec_pic_buffering_minus1[ i ] ue(v)
if( !dpbSizeOnlyFlag ) {
max_num_reorder_pics[ i ] ue(v)
max_latency_increase_plus1[ i ] ue(v)
}
}
}
예시적인 일반적인 HRD 파라미터 신택스는 다음과 같다.
general_hrd_parameters( ) { 설명자
general_nal_hrd_params_present_flag u(1)
general_vcl_hrd_params_present_flag u(1)
if( general_nal_hrd_params_present_flag | | general_vcl_hrd_params_present_flag ) {
decoding_unit_hrd_params_present_flag u(1)
if( decoding_unit_hrd_params_present_flag ) {
tick_divisor_minus2 u(8)
decoding_unit_cpb_params_in_pic_timing_sei_flag u(1)
}
bit_rate_scale u(4)
cpb_size_scale u(4)
if( decoding_unit_hrd_params_present_flag )
cpb_size_du_scale u(4)
}
if( vps_max_sub_layers_minus1 > 0 )
sub_layer_cpb_params_present_flag u(1)
if( TotalNumOlss > 1 )
num_ols_hrd_params_minus1 ue(v)
hrd_cpb_cnt_minus1 ue(v)
for( i = 0; i <= num_ols_hrd_params_minus1; i++ ) {
if( vps_max_sub_layers_minus1 > 0 && !vps_all_layers_same_num_sub_layers_flag )
hrd_max_temporal_id[ i ] u(3)
ols_hrd_parameters( hrd_max_temporal_id[ i ] )
}
if( num_ols_hrd_params_minus1 > 0 )
for( i = 1; i < TotalNumOlss; i++ )
ols_hrd_idx[ i ] ue(v)
}
예시적인 OLS HRD 파라미터 신택스는 다음과 같다.
ols_hrd_parameters( hrdMaxTid ) { 설명자
firstSubLayer = sub_layer_cpb_params_present_flag ? 0: hrdMaxTid
for( i = firstSubLayer; i <= hrdMaxTid; i++ ) {
fixed_pic_rate_general_flag[ i ] u(1)
if( !fixed_pic_rate_general_flag[ i ] )
fixed_pic_rate_within_cvs_flag[ i ] u(1)
if( fixed_pic_rate_within_cvs_flag[ i ] )
elemental_duration_in_tc_minus1[ i ] ue(v)
else if( hrd_cpb_cnt_minus1 = = 0 )
low_delay_hrd_flag[ i ] u(1)
if( general_nal_hrd_params_present_flag )
sub_layer_hrd_parameters( i )
if( general_vcl_hrd_params_present_flag )
sub_layer_hrd_parameters( i )
}
}
예시적인 서브 레이어 HRD 파라미터 신택스는 다음과 같다.
sub_layer_hrd_parameters( subLayerId ) { 설명자
for( j = 0; j <= hrd_cpb_cnt_minus1; j++ ) {
bit_rate_value_minus1[ subLayerId ][ j ] ue(v)
cpb_size_value_minus1[ subLayerId ][ j ] ue(v)
if( decoding_unit_hrd_params_present_flag ) {
cpb_size_du_value_minus1[ subLayerId ][ j ] ue(v)
bit_rate_du_value_minus1[ subLayerId ][ j ] ue(v)
}
cbr_flag[ subLayerId ][ j ] u(1)
}
}
예시적인 비디오 파라미터 세트 RBSP 시맨틱스는 다음과 같다. vps_max_layers_minus1 더하기 1은 VPS를 참조하는 각각의 CVS에서 허용되는 최대 레이어 개수를 지정한다. vps_max_sub_layers_minus1 더하기 1은 VPS를 참조하는 각각의 CVS에 존재할 수 있는 시간적 서브 레이어의 최대 개수를 지정한다. vps_max_sub_layers_minus1의 값은 0 내지 6(포함)까지에 있을 수 있다. 1과 동일한 vps_all_layers_same_num_sub_layers_flag는 시간적 서브 레이어의 개수가 VPS를 참조하는 각각의 CVS의 모든 레이어에 대해 동일하다는 것을 지정한다. 0과 동일한 vps_all_layers_same_num_sub_layers_flag는 VPS를 참조하는 각각의 CVS의 레이어가 동일한 개수의 시간적 서브 레이어를 가질 수도 있고 갖지 않을 수도 있음을 지정한다. 존재하지 않는 경우, vps_all_layers_same_num_sub_layers_flag의 값은 1과 동일한 것으로 추론될 수 있다. 1과 동일한 vps_all_independent_layers_flag는 CVS의 모든 레이어가 레이어 간 예측을 사용하지 않고 독립적으로 코딩됨을 지정한다. 0과 동일한 vps_all_independent_layers_flag는 CVS의 하나 이상의 레이어가 레이어 간 예측을 사용할 수 있음을 지정한다. 존재하지 않는 경우, vps_all_independent_layers_flag의 값은 1과 동일한 것으로 추론될 수 있다. vps_all_independent_layers_flag가 1과 같은 경우, vps_independent_layer_flag[i]의 값은 1과 같은 것으로 추론된다. vps_all_independent_layers_flag가 0과 같은 경우, vps_independent_layer_flag[0]의 값은 1과 같은 것으로 추론된다.
0과 동일한 vps_direct_dependency_flag[i][j]는 인덱스 j를 갖는 레이어가 인덱스 i를 갖는 레이어에 대한 직접 참조 레이어가 아님을 지정한다. 1과 동일한 vps_direct_dependency_flag[i][j]는 인덱스 j를 갖는 레이어가 인덱스 i를 갖는 레이어에 대한 직접 참조 레이어임을 지정한다. vps_direct_dependency_flag[i][j]가 0에서 vps_max_layers_minus1(포함)까지의 범위에서 i 및 j에 대해 존재하지 않는 경우, 플래그는 0과 동일한 것으로 추론된다. i번째 레이어의 j번째 직접 종속 레이어를 지정하는 변수 DirectDependentLayerIdx[i][j] 및 레이어 인덱스 j를 갖는 레이어가 다른 레이어에 의해 참조 레이어로 사용되는지 여부를 지정하는 변수 LayerUsedAsRefLayerFlag[j]는 다음과 같이 유도될 수 있다.
for(i = 0; i <= vps_max_layers_minus1; i++)
LayerUsedAsRefLayerFlag[j] = 0
for(i = 1; i < vps_max_layers_minus1; i++)
if(!vps_independent_layer_flag[i])
for(j = i - 1, k = 0, j >= 0, j--)
if(vps_direct_dependency_flag[i][j]) {
DirectDependentLayerIdx[i][k++] = j
LayerUsedAsRefLayerFlag[j] = 1
}
vps_layer_id[i]와 동일한 nuh_layer_id를 갖는 레이어의 레이어 인덱스를 지정하는 변수 GeneralLayerIdx[i]는 다음과 같이 유도될 수 있다.
for(i = 0; i <= vps_max_layers_minus1; i++)
GeneralLayerIdx[vps_layer_id[i]] = i
1과 동일한 each_layer_is_an_ols_flag는 각 출력 레이어 세트가 단 하나의 레이어를 포함하고 비트스트림의 각각의 레이어 자체가 유일한 출력 레이어 세트인 단일로 포함된 레이어를 갖는 출력 레이어 세트임을 지정한다. 0과 동일한 each_layer_is_an_ols_flag는 출력 레이어 세트가 하나 이상의 레이어를 포함할 수 있음을 지정한다. vps_max_layers_minus1이 0과 같은 경우, each_layer_is_an_ols_flag의 값은 1과 같은 것으로 추론된다. 그렇지 않고, vps_all_independent_layers_flag가 0과 같은 경우, each_layer_is_an_ols_flag의 값은 0과 같은 것으로 추론된다.
0과 동일한 ols_mode_idc는 VPS에 의해 지정된 OLS의 총 개수가 vps_max_layers_minus1 + 1과 동일하고, i번째 OLS가 0부터 i(포함)까지의 레이어 인덱스를 갖는 레이어를 포함하며, 각각의 OLS에 대해서만 OLS의 최상위 레이어가 출력되는 것을 지정한다. 1과 동일한 ols_mode_idc는 VPS에 의해 지정된 OLS의 총 개수가 vps_max_layers_minus1 + 1과 동일하고, i번째 OLS가 0에서 i(포함)까지의 레이어 인덱스를 갖는 레이어를 포함하며, 각각의 OLS에 대해 OLS의 모든 레이어가 출력되는 것을 지정한다. 2와 동일한 ols_mode_idc는 VPS에 의해 지정된 OLS의 총 개수가 명시적으로 시그널링되고 각각의 OLS에 대해 최상위 레이어 및 OLS에서 명시적으로 시그널링된 하위 레이어 세트가 출력되는 것을 지정한다. ols_mode_idc의 값은 0에서 2(포함)까지 일 수 있다. vps_all_independent_layers_flag가 1과 동일하고 each_layer_is_an_ols_flag가 0과 같은 경우, ols_mode_idc의 값은 2와 동일한 것으로 추론된다. num_output_layer_sets_minus1 더하기 1은 ols_mode_idc가 2와 같은 경우 VPS에 의해 지정된 OLS의 총 개수를 지정한다.
VPS에 의해 지정된 OLS의 총 개수를 지정하는 변수 TotalNumOlss는 다음과 같이 유도될 수 있다.
if(vps_max_layers_minus1 == 0)
TotalNumOlss = 1
else if(each_layer_is_an_ols_flag || ols_mode_idc == 0 || ols_mode_idc == 1)
TotalNumOlss = vps_max_layers_minus1 + 1
else if(ols_mode_idc == 2)
TotalNumOlss = num_output_layer_sets_minus1 + 1
layer_included_flag[i][j]는 ols_mode_idc가 2와 같은 경우 j번째 레이어(예를 들어, vps_layer_id[j]와 동일한 nuh_layer_id를 갖는 레이어)가 i번째 OLS에 포함되는지 여부를 지정한다. 1과 동일한 layer_included_flag[i][j]는 j번째 레이어가 i번째 OLS에 포함된다는 것을 지정한다. 0과 동일한 layer_included_flag[i][j]는 j번째 레이어가 i번째 OLS에 포함되지 않음을 지정한다. i번째 OLS의 레이어 개수를 지정하는 변수 NumLayersInOls[i] 및 i번째 OLS에서 j번째 레이어의 nuh_layer_id 값을 지정하는 변수 LayerIdInOls[i][j]는 다음과 같이 유도될 수 있다.
NumLayerInOls[0] = 1
LayerIdInOls[0][0] = vps_layer_id[0]
for(i = 1, i < TotalNumOlss; i++) {
if(each_layer_is_an_ols_flag) {
NumLayerInOls[i] = 1
LayerIdInOls[i][0] = vps_layer_id[i]
} else if(ols_mode_idc = = 0 || ols_mode_idc == 1) {
NumLayerInOls[i] = i + 1
for(j = 0; j < NumLayerInOls[i]; j++)
LayerIdInOls[i][j] = vps_layer_id[j]
} else if(ols_mode_idc == 2) {
for(k = 0, j = 0; k <= vps_max_layers_minus1; k++)
if(layer_included_flag[i][k])
LayerIdInOls[i][j++] = vps_layer_id[k]
NumLayerInOls[i] = j
}
}
LayerIdInOls[i][j]와 동일한 nuh_layer_id를 갖는 레이어의 OLS 레이어 인덱스를 지정하는 변수 OlsLayeIdx[i][j]는 다음과 같이 유도될 수 있다.
for(i = 0, i < TotalNumOlss; i++)
for j = 0; j < NumLayerInOls[i]; j++ )
OlsLayeIdx[i][LayerIdInOls[i][j]] = j
각각의 OLS의 최하위 레이어는 독립 레이어이어야 한다. 다시 말해, 0에서 TotalNumOlss - 1(포함)까지의 범위에 있는 각각의 i에 대해, vps_independent_layer_flag[GeneralLayerIdx[LayerIdInOls[i][0]]]의 값은 1과 동일해야 한다. 각각의 레이어는 VPS에서 지정된 적어도 하나의 OLS에 포함되어야 한다. 다시 말해서, 0에서 vps_max_layers_minus1(포함)까지의 범위의 k에 대한 vps_layer_id[k] 중 하나와 동일한 nuh_layer_id nuhLayerId의 특정 값을 갖는 각각의 레이어에 대해, i 및 j 값의 적어도 한 쌍이 있어야 하며, 여기서 i는 0에서 TotalNumOlss - 1(포함)의 범위에 있고, j는 NumLayerInOls[i] - 1(포함)의 범위에 있으므로, LayerIdInOls[i][j]의 값이 nuhLayerId와 동일할 수 있다. OLS의 모든 레이어는 OLS의 출력 레이어이거나 또는 OLS의 출력 레이어의 (직접 또는 간접) 참조 레이어이어야 한다.
vps_output_layer_flag[i][j]는 ols_mode_idc가 2와 같은 경우 i번째 OLS의 j번째 레이어가 출력되는지 여부를 지정한다. 1과 동일한 vps_output_layer_flag[i]는 i번째 OLS의 j번째 레이어가 출력되는 것을 지정한다. 0과 동일한 vps_output_layer_flag[i]는 i번째 OLS의 j번째 레이어가 출력되지 않음을 지정한다. vps_all_independent_layers_flag가 1과 동일하고 each_layer_is_an_ols_flag가 0과 같은 경우, vps_output_layer_flag[i]의 값은 1과 동일한 것으로 추론된다. 값 1이 i번째 OLS의 j번째 레이어가 출력됨을 지정하고 값 0이 i번째 OLS의 j번째 레이어가 출력되지 않음을 지정하는 변수 OutputLayerFlag[i][j]는 다음과 같이 유도될 수 있다.
for(i = 0, i < TotalNumOlss; i++) {
OutputLayerFlag[i][ NumLayerInOls[i] - 1] = 1
for(j = 0; j < NumLayerInOls[i] - 1; j++)
if(ols_mode_idc[i] == 0)
OutputLayerFlag[i][j] = 0
else if( ols_mode_idc[i] == 1)
OutputLayerFlag[i][j] = 1
else if(ols_mode_idc[i] == 2)
OutputLayerFlag[i][j] = vps_output_layer_flag[i][j]
}
0번째 OLS가 최하위 레이어(예를 들어, vps_layer_id[0]과 동일한 nuh_layer_id를 갖는 레이어)만을 포함하고 0번째 OLS에 대해 그 유일하게 포함된 레이어가 출력된다는 점에 유의해야 한다. vps_num_ptls는 VPS에서 profile_tier_level() 신택스 구조의 개수를 지정한다. 1과 동일한 pt_present_flag[i]는 프로파일, 티어 및 일반 제약 정보가 VPS의 i번째 profile_tier_level() 신택스 구조에 존재함을 지정한다. 0과 동일한 pt_present_flag[i]는 프로파일, 티어 및 일반 제약 정보가 VPS의 i번째 profile_tier_level() 신택스 구조에 존재하지 않음을 지정한다. pt_present_flag[0]의 값은 0과 같은 것으로 추론된다. pt_present_flag[i]가 0과 같은 경우, VPS에서 i번째 profile_tier_level() 신택스 구조에 대한 프로파일, 티어 및 일반 제약 정보가 VPS에서 (i - 1) 번째 profile_tier_level() 신택스 구조에 대한 것과 동일한 것으로 추론된다.
ptl_max_temporal_id[i]는 레벨 정보가 VPS의 i번째 profile_tier_level() 신택스 구조에 존재하는 최상위 서브 레이어 표현의 TemporalId를 지정한다. ptl_max_temporal_id[i]의 값은 0에서 vps_max_sub_layers_minus1(포함)까지의 범위에 있어야 한다. vps_max_sub_layers_minus1이 0과 같은 경우, ptl_max_temporal_id[i]의 값은 0과 같은 것으로 추론된다. vps_max_sub_layers_minus1이 0보다 크고 vps_all_layers_same_num_sub_layers_flag가 1과 같은 경우, ptl_max_temporal_id[i]의 값은 vps_max_sub_layers_minus1과 동일한 것으로 추론된다. vps_ptl_byte_alignment_zero_bit는 0과 같아야 한다.
ols_ptl_idx[i]는 i번째 OLS에 적용되는 profile_tier_level() 신택스 구조의, VPS에서 profile_tier_level() 신택스 구조의 리스트에 대한 인덱스를 지정한다. 존재하는 경우, ols_ptl_idx[i]의 값은 0 내지 vps_num_ptls - 1(포함)이어야 한다. NumLayersInOls[i]가 1과 같은 경우, i번째 OLS에 적용되는 profile_tier_level() 신택스 구조는 i번째 OLS의 레이어에 의해 참조되는 SPS에 존재한다. vps_num_dpb_params는 VPS에서 dpb_parameters() 신택스 구조의 개수를 지정한다. vps_num_dpb_params의 값은 0 내지 16(포함)이어야 한다. 존재하지 않는 경우, vps_num_dpb_params의 값은 0과 같은 것으로 추론될 수 있다. 1과 동일한 same_dpb_size_output_or_nonoutput_flag는 VPS에 존재하는 layer_nonoutput_dpb_params_idx[i] 신택스 요소가 없음을 지정한다. 0과 동일한 same_dpb_size_output_or_nonoutput_flag는 VPS에 존재하는 layer_nonoutput_dpb_params_idx[i] 신택스 요소가 있을 수 있거나 또는 없을 수 있음을 지정한다. vps_sub_layer_dpb_params_present_flag는 VPS의 dpb_parameters() 신택스 구조에서 max_dec_pic_buffering_minus1[], max_num_reorder_pics[] 및 max_latency_increase_plus1[] 신택스 요소의 존재를 제어하는 데 사용된다. 존재하지 않는 경우, vps_sub_dpb_params_info_present_flag는 0과 같은 것으로 추론된다.
1과 동일한 dpb_size_only_flag[i]는 max_num_reorder_pics[] 및 max_latency_increase_plus1[] 신택스 요소가 VPS의 i번째 dpb_parameters() 신택스 구조에 존재하지 않음을 지정한다. 1과 동일한 dpb_size_only_flag[i]는 max_num_reorder_pics[] 및 max_latency_increase_plus1[] 신택스 요소가 VPS의 i번째 dpb_parameters() 신택스 구조에 존재할 수 있음을 지정한다. dpb_max_temporal_id[i]는 DPB 파라미터가 VPS에서 i번째 dpb_parameters() 신택스 구조에 존재할 수 있는 최상위 서브 레이어 표현의 TemporalId를 지정한다. dpb_max_temporal_id[i]의 값은 0에서 vps_max_sub_layers_minus1(포함)까지의 범위에 있어야 한다. vps_max_sub_layers_minus1이 0과 같은 경우, dpb_max_temporal_id[i]의 값은 0과 같은 것으로 추론될 수 있다. vps_max_sub_layers_minus1이 0보다 크고 vps_all_layers_same_num_sub_layers_flag가 1과 같은 경우, dpb_max_temporal_id[i]의 값은 vps_max_sub_layers_minus1과 동일한 것으로 추론된다. layer_output_dpb_params_idx[i]는 OLS에서 출력 레이어인 경우 i번째 레이어에 적용되는 dpb_parameters() 신택스 구조의, VPS의 dpb_parameters() 신택스 구조 리스트에 대한 인덱스를 지정한다. 존재하는 경우, layer_output_dpb_params_idx[i]의 값은 0에서 vps_num_dpb_params - 1(포함)의 범위에 있어야 한다.
vps_independent_layer_flag[i]가 1과 같은 경우, 그것이 출력 레이어인 때 i번째 레이어에 적용되는 dpb_parameters() 신택스 구조는 레이어에 의해 참조되는 SPS에 존재하는 dpb_parameters() 신택스 구조이다. 그렇지 않은 경우(vps_independent_layer_flag[i]가 1과 같음), 다음이 적용된다. vps_num_dpb_params가 1과 같은 경우, layer_output_dpb_params_idx[i]의 값은 0과 같은 것으로 추론된다. 비트스트림 적합성은 layer_output_dpb_params_idx[i]의 값이 dpb_size_only_flag[layer_output_dpb_params_idx[i]]가 0과 같도록 요구할 수 있다.
layer_nonoutput_dpb_params_idx[i]는 i번째 레이어가 OLS에서 비-출력 레이어인 경우 i번째 레이어에 적용되는 dpb_parameters() 신택스 구조의, VPS에서 dpb_parameters() 신택스 구조의 리스트에 대한 인덱스를 지정한다. 존재하는 경우, layer_nonoutput_dpb_params_idx[i]의 값은 0에서 vps_num_dpb_params - 1(포함)의 범위에 있어야 한다. same_dpb_size_output_or_nonoutput_flag가 1과 같은 경우, 다음이 적용된다. vps_independent_layer_flag[i]가 1과 같은 경우, i번째 레이어가 비-출력 레이어일 때 i번째 레이어에 적용되는 dpb_parameters() 신택스 구조는 레이어에 의해 참조되는 SPS에 존재하는 dpb_parameters() 신택스 구조이다. 그렇지 않으면(vps_independent_layer_flag[i]가 1과 동일함), layer_nonoutput_dpb_params_idx[i]의 값은 layer_output_dpb_params_idx[i]와 동일한 것으로 추론된다. 그렇지 않으면(same_dpb_size_output_or_nonoutput_flag가 0과 동일함), vps_num_dpb_params가 1과 동일할 때, layer_output_dpb_params_idx[i]의 값은 0과 동일한 것으로 추론된다.
1과 동일한 general_hrd_params_present_flag는 신택스 요소 num_units_in_tick 및 time_scale과 신택스 구조 general_hrd_parameters()가 SPS RBSP 신택스 구조에 존재함을 지정한다. 0과 동일한 general_hrd_params_present_flag는 신택스 요소 num_units_in_tick 및 time_scale과 신택스 구조 general_hrd_parameters()가 SPS RBSP 신택스 구조에 존재하지 않음을 지정한다. num_units_in_tick은 클록 틱 카운터의 1 증분(클록 틱이라고 함)에 대응하는 주파수 time_scale 헤르츠(Hz)에서 작동하는 클록의 시간 단위 개수이다. num_units_in_tick은 0보다 커야 한다. 초 단위의 클록 틱은 num_units_in_tick의 몫을 time_scale로 나눈 값과 같다. 예를 들어, 비디오 신호의 픽처 레이트가 25Hz인 경우, time_scale은 27,000,000과 같을 수 있고 num_units_in_tick은 1,080,000과 같을 수 있으며, 따라서 클록 틱은 0.04초와 같을 수 있다. time_scale은 1초에 지나가는 시간 단위의 개수이다. 예를 들어, 27MHz 클록을 사용하여 시간을 측정하는 시간 좌표계는 27,000,000의 time_scale을 갖는다. time_scale의 값은 0보다 커야 한다.
0과 동일한 vps_extension_flag는 vps_extension_data_flag 신택스 요소가 VPS RBSP 신택스 구조에 존재하지 않음을 지정한다. 1과 동일한 vps_extension_flag는 VPS RBSP 신택스 구조에 vps_extension_data_flag 신택스 요소가 존재함을 지정한다. vps_extension_data_flag는 임의의 값을 가질 수 있다. vps_extension_data_flag의 존재 및 값은 프로파일에 대한 디코더 적합성에 영향을 미치지 않을 수 있다. 적합한 디코더는 모든 vps_extension_data_flag 신택스 요소를 무시할 수 있다.
예시적인 시퀀스 파라미터 세트 RBSP 시맨틱스는 다음과 같다. SPS RBSP는 참조되기 전에 디코딩 프로세스에 이용 가능해야 하고, TemporalId가 0인 적어도 하나의 액세스 유닛에 포함되거나, 또는 외부 수단을 통해 제공되어야 하며, SPS RBSP를 포함하는 SPS NAL 유닛은 SPS NAL 유닛을 참조하는 PPS NAL 유닛의 가장 낮은 nuh_layer_id와 동일한 nuh_layer_id를 가져야 한다. CVS에서 sps_seq_parameter_set_id의 특정 값을 갖는 모든 SPS NAL 유닛은 동일한 내용을 가져야 한다. sps_decoding_parameter_set_id는 0보다 큰 경우, SPS에 의해 참조되는 DPS에 대한 dps_decoding_parameter_set_id의 값을 지정한다. sps_decoding_parameter_set_id가 0과 같은 경우, SPS는 DPS를 참조하지 않으며 SPS를 참조하는 각각의 CLVS를 디코딩할 때 DPS가 참조되지 않는다. sps_decoding_parameter_set_id의 값은 비트스트림에서 코딩된 픽처에 의해 참조되는 모든 SPS에서 동일해야 한다.
sps_video_parameter_set_id는 0보다 큰 경우, SPS에 의해 참조되는 VPS에 대한 vps_video_parameter_set_id의 값을 지정한다. sps_video_parameter_set_id가 0과 같은 경우, SPS는 VPS를 참조하지 않을 수 있고 SPS를 참조하는 각각의 CLVS를 디코딩할 때 어떤 VPS도 참조되지 않으며, GeneralLayerIdx[nuh_layer_id]의 값은 0과 동일한 것으로 추론되어야 하고, vps_independent_layer_flag[GeneralLayerIdx[nuh_layer_id]]의 값은 1과 동일한 것으로 추론될 수 있다. vps_independent_layer_flag[GeneralLayerIdx[nuh_layer_id]]가 1과 같은 경우, 특정 nuh_layer_id 값 nuhLayerId를 갖는 CLVS에 의해 참조되는 SPS는 nuhLayerId와 동일한 nuh_layer_id를 가져야 한다.
sps_max_sub_layers_minus1 더하기 1은 SPS를 참조하는 각각의 CLVS에 존재할 수 있는 시간적 서브 레이어의 최대 개수를 지정한다. sps_max_sub_layers_minus1의 값은 0에서 vps_max_sub_layers_minus1(포함)까지의 범위에 있어야 한다. sps_reserved_zero_4bits는 적합한 비트스트림에서 0과 같아야 한다. sps_reserved_zero_4bits에 대한 다른 값이 예약될 수 있다.
1과 동일한 sps_ptl_dpb_present_flag는 profile_tier_level() 신택스 구조 및 dpb_parameters() 신택스 구조가 SPS에 존재함을 지정한다. 0과 동일한 sps_ptl_dpb_present_flag는 profile_tier_level() 신택스 구조 및 dpb_parameters() 신택스 구조가 SPS에 존재하지 않음을 지정한다. sps_ptl_dpb_present_flag의 값은 vps_independent_layer_flag[nuh_layer_id]와 같아야 한다. vps_independent_layer_flag[GeneralLayerIdx[nuh_layer_id]]가 1과 같으면, 변수 MaxDecPicBuffMinus1은 SPS의 dpb_parameters() 신택스 구조에서 max_dec_pic_buffering_minus1[sps_max_sub_layers_minus1]와 동일하게 설정된다. 그렇지 않으면, MaxDecPicBuffMinus1은 VPS에서 layer_nonoutput_dpb_params_idx[GeneralLayerIdx[nuh_layer_id]] 번째 dpb_parameters() 신택스 구조의 max_dec_pic_buffering_minus1[sps_max_sub_layers_minus1]과 동일하게 설정된다. 1과 동일한 gdr_enabled_flag는 GDR 픽처가 SPS를 참조하는 CLVS에 존재할 수 있음을 지정한다. 0과 동일한 gdr_enabled_flag는 GDR 픽처가 SPS를 참조하는 CLVS에 존재하지 않음을 지정한다.
sps_sub_layer_dpb_params_flag는 SPS의 dpb_parameters() 신택스에서 max_dec_pic_buffering_minus1[i], max_num_reorder_pics[i] 및 max_latency_increase_plus1[i] 신택스 요소의 존재를 제어하는 데 사용된다. 존재하지 않는 경우, sps_sub_dpb_params_info_present_flag는 0과 같은 것으로 추론된다. 0과 동일한 long_term_ref_pics_flag는 CLVS에서 코딩된 픽처의 인터 예측에 LTRP가 사용되지 않음을 지정한다. 1과 동일한 long_term_ref_pics_flag는 LTRP가 CLVS에서 하나 이상의 코딩된 픽처의 인터 예측에 사용될 수 있음을 지정한다.
예시적인 일반 프로파일, 티어 및 레벨 시맨틱스는 다음과 같다. profile_tier_level() 신택스 구조는 레벨 정보, 선택적으로 프로파일, 티어, 서브 프로파일 및 일반 제약 정보(PT 정보로 표시됨)를 제공한다. profile_tier_level() 신택스 구조가 DPS에 포함되는 경우, OlsInScope는 DPS를 참조하는 전체 비트스트림의 모든 레이어를 포함하는 OLS이다. profile_tier_level() 신택스 구조가 VPS에 포함되는 경우, OlsInScope는 VPS에 의해 지정된 하나 이상의 OLS이다. profile_tier_level( ) 신택스 구조가 SPS에 포함되는 경우, OlsInScope는 SPS를 참조하는 레이어 중 최하위 레이어인 레이어만을 포함하는 OLS이며, 이는 독립 레이어이어야 한다.
general_profile_idc는 OlsInScope가 준수하는 프로파일을 지시한다. general_tier_flag는 general_level_idc의 해석을 위한 티어 컨텍스트를 지정한다. num_sub_profiles는 general_sub_profile_idc[i] 신택스 요소의 개수를 지정한다. general_sub_profile_idc[i]는 등록된 i번째 상호운용성 메타데이터를 지시한다. general_level_idc는 OlsInScope가 준수하는 레벨을 지시한다. general_level_idc의 값이 클수록 높은 수준을 지시한다. OlsInScope에 대해 DPS에서 시그널링되는 최대 레벨은 OlsInScope 내에 포함된 CVS에 대한 SPS에서 시그널링되는 레벨보다 높을 수 있다. 또한, OlsInScope가 다중 프로필을 준수하는 경우, general_profile_idc는 인코더에 의해 결정된 바와 같이, 선호하는 디코딩된 결과 또는 선호하는 비트스트림 식별을 제공하는 프로파일을 지시하여야 한다. 또한, profile_tier_level() 신택스 구조가 DPS에 포함되고 OlsInScope의 CVS가 상이한 프로파일을 준수하는 경우, general_profile_idc 및 level_idc는 OlsInScope를 디코딩할 수 있는 디코더에 대한 프로파일 및 레벨을 지시하여야 한다.
1과 동일한 sub_layer_level_present_flag[i]는 레벨 정보가 i와 동일한 TemporalId를 갖는 서브 레이어 표현에 대한 profile_tier_level() 신택스 구조에 존재함을 지정한다. 0과 동일한 sub_layer_level_present_flag[i]는 레벨 정보가 i와 동일한 TemporalId를 갖는 서브 레이어 표현에 대한 profile_tier_level() 신택스 구조에 존재하지 않음을 지정한다. ptl_alignment_zero_bits는 0과 같아야 한다. 신택스 요소 sub_layer_level_idc[i]의 시맨틱스는 존재하지 않는 값의 추론의 사양을 제외하고, 신택스 요소 general_level_idc와 동일하지만, i와 동일한 TemporalId를 갖는 서브 레이어 표현에 적용된다.
예시적인 DPB 파라미터 시맨틱스는 다음과 같다. dpb_parameters(maxSubLayersMinus1, subLayerInfoFlag) 신택스 구조는 CVS의 각각의 CLVS에 대한 DPB 크기, 최대 픽처 재정렬 개수 및 최대 지연에 대한 정보를 제공한다. dpb_parameters() 신택스 구조가 VPS에 포함되는 경우, dpb_parameters() 신택스 구조가 적용되는 OLS는 VPS에 의해 지정된다. dpb_parameters() 신택스 구조가 SPS에 포함되는 경우, dpb_parameters() 신택스 구조는 SPS를 참조하는 레이어 중 최하위 레이어인 레이어만을 포함하는 OLS에 적용되며, 이는 독립 레이어이어야 한다.
max_dec_pic_buffering_minus1[i] 더하기 1은 CVS의 각각의 CLVS에 대해 Htid가 i와 같은 경우 픽처 저장 버퍼 단위로 디코딩된 픽처 버퍼의 최대 요구 크기를 지정한다. max_dec_pic_buffering_minus1[i]의 값은 0에서 MaxDpbSize - 1(포함)의 범위에 있어야 한다. i가 0보다 큰 경우, max_dec_pic_buffering_minus1[i]는 max_dec_pic_buffering_minus1[i - 1]보다 크거나 같아야 한다. max_dec_pic_buffering_minus1[i]가 0에서 maxSubLayersMinus1 - 1(포함)의 범위에서 i에 대해 존재하지 않는 경우, subLayerInfoFlag가 0과 같기 때문에 max_dec_pic_buffering_minus1[i]는 max_dec_pic_buffering_minus1[maxSubLayersMinus1]과 동일한 것으로 추론된다.
max_num_reorder_pics[i]는 CVS의 각각의 CLVS에 대해, Htid가 i와 같은 경우 디코딩 순서에서 CLVS의 임의의 픽처에 선행하고 출력 순서에서 해당 픽처를 따를 수 있는 CLVS의 최대 허용 픽처 개수를 지정한다. max_num_reorder_pics[i]의 값은 0에서 max_dec_pic_buffering_minus1[i](포함)까지의 범위에 있어야 한다. i가 0보다 큰 경우, max_num_reorder_pics[i]는 max_num_reorder_pics[i - 1]보다 크거나 같아야 한다. max_num_reorder_pics[i]가 0에서 maxSubLayersMinus1 - 1(포함)까지의 범위에서 i에 대해 존재하지 않는 경우, subLayerInfoFlag가 0과 동일하기 때문에 max_num_reorder_pics[i]는 max_num_reorder_pics[maxSubLayersMinus1]와 동일한 것으로 추론된다.
0과 같지 않은 max_latency_increase_plus1[i]는 MaxLatencyPictures[i]의 값을 계산하는 데 사용되며, 이는 CVS의 각각의 CLVS에 대해 Htid가 i와 같은 경우 출력 순서에서 CLVS의 임의의 픽처에 선행하고 디코딩 순서에서 해당 픽처를 따를 수 있는 CLVS의 최대 픽처 개수를 지정한다. max_latency_increase_plus1[i]가 0과 같지 않은 경우, MaxLatencyPictures[i]의 값은 다음과 같이 지정될 수 있다.
MaxLatencyPictures[i] = max_num_reorder_pics[i] + max_latency_increase_plus1[i] - 1
max_latency_increase_plus1[i]이 0과 같은 경우, 대응하는 제한이 표시되지 않는다.
max_latency_increase_plus1[i]의 값은 0에서 232 빼기 2(포함)의 범위에 있어야 한다. max_latency_increase_plus1[i]가 0에서 maxSubLayersMinus1 - 1(포함)의 범위에서 i에 대해 존재하지 않는 경우, subLayerInfoFlag가 0과 같기 때문에 max_latency_increase_plus1[i]는 max_latency_increase_plus1[maxSubLayersMinus1]와 동일한 것으로 추론된다.
예시적인 일반적인 HRD 파라미터 시맨틱스는 다음과 같다. general_hrd_parameters() 신택스 구조는 HRD 연산에서 사용되는 HRD 파라미터를 제공한다. num_ols_hrd_params_minus1 더하기 1은 general_hrd_parameters() 신택스 구조에 존재하는 ols_hrd_parameters() 신택스 구조의 개수를 지정한다. num_ols_hrd_params_minus1의 값은 0에서 63(포함)까지의 범위에 있어야 한다. TotalNumOlss가 1보다 큰 경우, num_ols_hrd_params_minus1의 값은 0과 같은 것으로 추론된다. hrd_cpb_cnt_minus1 더하기 1은 CVS의 비트스트림에서 대체 CPB 사양의 개수를 지정한다. hrd_cpb_cnt_minus1의 값은 0에서 31(포함)까지의 범위에 있어야 한다. hrd_max_temporal_id[i]는 HRD 파라미터가 i번째 layer_level_hrd_parameters() 신택스 구조에 포함되는 최상위 서브 레이어 표현의 TemporalId를 지정한다. hrd_max_temporal_id[i]의 값은 0에서 vps_max_sub_layers_minus1(포함)의 범위에 있어야 한다. vps_max_sub_layers_minus1이 0과 같은 경우, hrd_max_temporal_id[i]의 값은 0과 같은 것으로 추론된다. ols_hrd_idx[i]는 i번째 OLS에 적용되는 ols_hrd_parameters() 신택스 구조의 인덱스를 지정한다. ols_hrd_idx[[i]의 값은 0에서 num_ols_hrd_params_minus1(포함)의 범위에 있어야 한다. 존재하지 않는 경우, ols_hrd_idx[[i]의 값은 0과 같은 것으로 추론된다.
예시적인 참조 픽처 리스트 구조 시맨택스는 다음과 같다. ref_pic_list_struct(listIdx, rplsIdx) 신택스 구조는 SPS 또는 슬라이스 헤더에 존재할 수 있다. 신택스 구조가 슬라이스 헤더에 포함되는지 SPS에 포함되는지에 따라 다음이 적용된다. 슬라이스 헤더에 존재하는 경우, ref_pic_list_struct(listIdx, rplsIdx) 신택스 구조는 현재 픽처(슬라이스를 포함하는 픽처)의 참조 픽처 리스트 listIdx를 지정한다. 그렇지 않은 경우(SPS에 존재하는 경우), ref_pic_list_struct(listIdx, rplsIdx) 신택스 구조는 참조 픽처 리스트 listIdx의 후보를 지정하고, 본 절의 나머지 부분에서 지정된 시맨틱스에서 현재 픽처라는 용어는 SPS에 포함된 ref_pic_list_struct(listIdx, rplsIdx) 신택스 구조의 리스트에 대한 인덱스와 같은 ref_pic_list_idx[listIdx]를 포함하는 하나 이상의 슬라이스를 가지며 SPS를 참조하는 CVS에 있는 각각의 픽처를 지칭한다. num_ref_entries[listIdx][rplsIdx]는 ref_pic_list_struct(listIdx, rplsIdx) 신택스 구조의 엔트리 개수를 지정한다. num_ref_entries[listIdx][rplsIdx] 값은 0에서 MaxDecPicBuffMinus1 + 14(포함)의 범위 내에 있어야 한다.
예시적인 일반적인 디코딩 프로세스는 다음과 같다. 이러한 프로세스에 대한 입력은 비트스트림 BitstreamToDecode이다. 이러한 프로세스의 출력은 디코딩된 픽처의 리스트이다. 디코딩 프로세스는 특정 프로파일 및 레벨을 준수하는 모든 디코더가 해당 프로파일 및 레벨을 준수하는 비트스트림에 대해 해당 프로파일과 연관된 디코딩 프로세스를 호출할 때 수치적으로 동일한 크롭핑된 디코딩된 출력 픽처를 생성하도록 지정된다. (지정된 대로 정확한 출력 순서 또는 출력 타이밍으로) 여기에 설명된 프로세스에 의해 생성된 것과 동일하게 크롭핑된 디코딩된 출력 픽처를 생성하는 임의의 디코딩 프로세스는 디코딩 프로세스 요구사항을 따른다.
비트스트림의 각각의 IRAP AU에 대해, 다음이 적용된다. AU가 디코딩 순서에서 비트스트림의 제1 AU이고, 각각의 픽처는 순간 디코딩 리프레시(Instantaneous Decoding Refresh, IDR) 픽처이거나, 또는 각각의 픽처가 디코딩 순서에서 시퀀스 NAL 유닛의 끝을 뒤따르는 레이어의 제1 픽처인 경우, 변수 NoIncorrectPicOutputFlag는 1로 설정된다. 그렇지 않으면, 변수 HandleCraAsCvsStartFlag가 AU에 대한 값으로 설정되면, HandleCraAsCvsStartFlag는 tan 외부 메커니즘에 의해 제공되는 값과 동일하게 설정되고 NoIncorrectPicOutputFlag는 HandleCraAsCvsStartFlag와 동일하게 설정된다. 그렇지 않으면, HandleCraAsCvsStartFlag 및 NoIncorrectPicOutputFlag는 모두 0과 동일하게 설정된다.
비트스트림의 각각의 점진적 디코딩 리프레시(gradual decoding refresh, GDR) AU에 대해, 다음이 적용된다. AU가 디코딩 순서에서 비트스트림의 제1 AU이거나 또는 각각의 픽처가 디코딩 순서에서 시퀀스 NAL 유닛의 끝을 뒤따르는 레이어의 제1 픽처이면, 변수 NoIncorrectPicOutputFlag는 1과 동일하게 설정된다. 그렇지 않으면, 일부 외부 메커니즘이 변수 HandleGdrAsCvsStartFlag를 AU에 대한 값으로 설정하는 데 사용할 수 있는 경우, HandleGdrAsCvsStartFlag는 외부 메커니즘에 의해 제공된 값과 동일하게 설정되고 NoIncorrectPicOutputFlag는 HandleGdrAsCvsStartFlag와 동일하게 설정된다. 그렇지 않으면, HandleGdrAsCvsStartFlag 및 NoIncorrectPicOutputFlag가 모두 0과 동일하게 설정된다. IRAP 픽처와 GDR 픽처 모두에 대한 위의 작동은 비트스트림에서 CVS의 식별을 위해 사용된다. 디코딩은 디코딩 순서로 BitstreamToDecode의 각각의 코딩된 픽처에 대해 반복적으로 호출된다.
참조 픽처 리스트 구성을 위한 예시적인 디코딩 프로세스는 다음과 같다. 이러한 프로세스는 비-IDR 픽처의 각각의 슬라이스에 대한 디코딩 프로세스의 시작 부분에서 호출된다. 참조 픽처는 참조 인덱스를 통해 주소가 지정된다. 참조 인덱스는 참조 픽처 리스트에 대한 인덱스이다. I 슬라이스를 디코딩하는 경우, 슬라이스 데이터의 디코딩에 참조 픽처 리스트가 사용되지 않는다. P 슬라이스를 디코딩하는 경우, 슬라이스 데이터의 디코딩에는 참조 픽처 리스트 0(예를 들어, RefPicList[0])만이 사용된다. B 슬라이스를 디코딩하는 경우, 참조 픽처 리스트 0과 참조 픽처 리스트 1(예를 들어, RefPicList[1]) 둘 다 슬라이스 데이터의 디코딩에 사용된다.
비트스트림 적합성을 위해 다음과 같은 제약이 적용된다. 0 또는 1과 같은 각각의 i에 대해, num_ref_entries[i][RplsIdx[i]]는 NumRefIdxActive[i]보다 작아서는 안 된다. RefPicList[0] 또는 RefPicList[1]의 각각의 활성 엔트리에 의해 참조되는 픽처는 DPB에 존재하여야 하며 현재 픽처의 TemporalId보다 작거나 같아야 한다. RefPicList[0] 또는 RefPicList[1]의 각각의 엔트리에 의해 참조되는 픽처는 현재 픽처가 아니어야 하며 non_reference_picture_flag가 0과 같아야 한다. 픽처 슬라이스의 RefPicList[0] 또는 RefPicList[1]에 있는 단기 참조 픽처(short term reference picture, STRP) 엔트리와 동일한 픽처의 동일한 슬라이스 또는 상이한 슬라이스의 RefPicList[0] 또는 RefPicList[1]에 있는 장기 참조 픽처(long term reference picture, LTRP) 엔트리는 동일한 픽처를 참조해서는 안된다. RefPicList[0] 또는 RefPicList[1]에는 현재 픽처의 PicOrderCntVal과 엔트리에 의해 참조되는 픽처의 PicOrderCntVal 사이의 차이가 224보다 크거나 같은 LTRP 엔트리가 없어야 한다.
setOfRefPics를 현재 픽처와 동일한 nuh_layer_id를 갖는 RefPicList[0]의 모든 엔트리 및 현재 픽처와 동일한 nuh_layer_id를 갖는 RefPicList[1]의 모든 엔트리에 의해 참조되는 고유 픽처의 세트라고 하자. setOfRefPics의 픽처 개수는 MaxDecPicBuffMinus1 이하여야 하고 setOfRefPics는 픽처의 모든 슬라이스에 대해 동일해야 한다. 현재 픽처가 단계별 시간적 서브 레이어 액세스(step-wise temporal sublayer access, STSA) 픽처인 경우, 현재 픽처와 동일한 TemporalId를 갖는 RefPicList[0] 또는 RefPicList[1]에 활성 엔트리가 없어야 한다. 현재 픽처가 디코딩 순서에서 현재 픽처와 동일한 TemporalId를 갖는 STSA 픽처를 따르는 픽처인 경우, 디코딩 순서에서 STSA 픽처에 선행하는 RefPicList[0] 또는 RefPicList[1]에서 활성 엔트리로서 포함된 현재 픽처와 동일한 TemporalId를 갖는 픽처는 없을 것이다.
현재 픽처의 슬라이스의 RefPicList[0] 또는 RefPicList[1]의 각각의 레이어 간 참조 픽처(ILRP) 엔트리에 의해 참조되는 픽처는 현재 픽처와 동일한 액세스 유닛에 있을 것이다. 현재 화면의 슬라이스의 RefPicList[0] 또는 RefPicList[1]에서 각각의 ILRP 항목에 의해 참조되는 픽처는 DPB에 있을 것이며 현재 픽처의 것보다 작은 nuh_layer_id를 가져야 한다. 슬라이스의 RefPicList[0] 또는 RefPicList[1]의 각각의 ILRP 엔트리는 활성 엔트리이어야 한다.
예시적인 HRD 사양은 다음과 같다. HRD는 비트스트림 및 디코더 적합성을 검사하는 데 사용된다. 비트스트림 적합성 테스트의 세트는 전체 비트스트림으로 지칭되는 비트스트림의 적합성을 검사하는 데 사용되며, entireBitstream으로 표시된다. 비트스트림 적합성 테스트의 세트는 VPS에 의해 지정된 각각의 OLS의 각각의 OP의 적합성을 테스트하기 위한 것이다.
각각의 테스트에 대해, 다음과 같은 순서화된 단계가 나열된 순서대로 적용되고, 본 절에서 이러한 단계 다음에 설명된 프로세스가 뒤따른다. targetOp로 표시된 테스트 중인 작동 포인트는 OLS 인덱스 opOlsIdx 및 가장 높은 TemporalId 값 opTid를 갖는 타깃 OLS를 선택함으로써 선택된다. opOlsIdx의 값은 0에서 TotalNumOlss - 1(포함)의 범위에 있다. opTid의 값은 0에서 vps_max_sub_layers_minus1(포함)까지의 범위에 있다. opOlsIdx 및 opTid의 선택된 값의 각각의 쌍은 wholeBitstream, opOlsIdx 및 opTid를 입력으로 사용하여 서브 비트스트림 추출 프로세스를 호출함으로써 출력되는 서브 비트스트림이 다음 조건을 충족하도록 해야 한다. BitstreamToDecode의 LayerIdInOls[opOlsIdx]에 있는 nuh_layer_id 값의 각각과 동일한 nuh_layer_id를 갖는 적어도 하나의 VCL NAL 유닛이 있다. BitstreamToDecode의 opTid와 동일한 TemporalId를 갖는 적어도 하나의 VCL NAL 유닛이 있다.
targetOp의 레이어가 entireBitstream의 모든 레이어를 포함하고 opTid가 entireBitstream의 모든 NAL 유닛 중 가장 높은 TemporalId 값보다 큰 경우, BitstreamToDecode는 entireBitstream과 동일하도록 설정된다. 그렇지 않으면, BitstreamToDecode는 entireBitstream, opOlsIdx 및 opTid를 입력으로 사용하여 서브 비트스트림 추출 프로세스를 호출함으로써 출력으로 설정된다. TargetOlsIdx 및 Htid의 값은 각각 targetOp의 opOlsIdx 및 opTid와 동일하게 설정된다. ScIdx 값이 선택된다. 선택된 ScIdx는 0에서 hrd_cpb_cnt_minus1(포함)까지의 범위에 있어야 한다. TargetOlsIdx에 적용 가능한 버퍼링 기간 SEI 메시지(TargetLayerBitstream에 있거나 또는 외부 메커니즘을 통해 사용 가능함)와 연관된 BitstreamToDecode의 액세스 유닛은 HRD 초기화 포인트로서 선택되며 타깃 OLS의 각각의 레이어에 대한 액세스 유닛 0으로 지칭된다.
후속 단계는 타깃 OLS에서 OLS 레이어 인덱스 TargetOlsLayerIdx를 갖는 각각의 레이어에 적용된다. BitstreamToDecode에 적용 가능한 ols_hrd_parameters() 신택스 구조와 sub_layer_hrd_parameters() 신택스 구조는 다음과 같이 선택된다. VPS에서(또는 외부 메커니즘을 통해 제공되는) ols_hrd_idx[TargetOlsIdx]번째 ols_hrd_parameters() 신택스 구조가 선택된다. 선택된 ols_hrd_parameters() 신택스 구조 내에서, BitstreamToDecode가 유형 I 비트스트림이면, 조건 if(general_vcl_hrd_params_present_flag)을 즉시 따르는 sub_layer_hrd_parameters(Htid) 신택스 구조가 선택되고 변수 NalHrdModeFlag가 0과 동일하게 설정된다. 그렇지 않으면(BitstreamToDecode가 유형 II 비트스트림임), 조건 if(general_vcl_hrd_params_present_flag)(변수 NalHrdModeFlag가 0과 동일하게 설정되는 경우에) 또는 조건 if(general_nal_hrd_params_present_flag)(변수 NalHrdModeFlag가 1과 동일하게 설정되는 경우에)가 즉시 뒤따르는 sub_layer_hrd_parameters(Htid) 신택스 구조가 선택된다. BitstreamToDecode가 유형 II 비트스트림이고 NalHrdModeFlag가 0과 같은 경우, 필러 데이터 NAL 유닛을 제외한 모든 비-VCL NAL 유닛, 그리고 존재하는 경우, NAL 유닛 스트림으로부터 바이트 스트림을 형성하는 모든leading_zero_8bits, zero_byte, start_code_prefix_one_3bytes 및 trailing_zero_8bits 신택스 요소가 BitstreamToDecode에서 삭제되고 나머지 비트스트림이 BitstreamToDecode에게 할당된다.
decoding_unit_hrd_params_present_flag가 1과 같은 경우, CPB는 액세스 유닛 레벨(이 경우 변수 DecodingUnitHrdFlag가 0과 동일하게 설정됨) 또는 디코딩 유닛 레벨(이 경우 변수 DecodingUnitHrdFlag가 1과 동일하게 설정됨)에서 작동하도록 스케줄링된다. 그렇지 않으면, DecodingUnitHrdFlag는 0과 동일하게 설정되고 CPB는 액세스 유닛 레벨에서 작동하도록 스케줄링된다.
액세스 유닛 0에서 시작하는 BitstreamToDecode의 각각의 액세스 유닛에 대해, 액세스 유닛과 연관되고 TargetOlsIdx에 적용되는 버퍼링 기간 SEI 메시지(BitstreamToDecode에 존재하거나 또는 외부 메커니즘을 통해 이용 가능함)가 선택되고, 액세스 유닛과 연관되고 TargetOlsIdx에 적용되는 픽처 타이밍 SEI 메시지(BitstreamToDecode에 존재하거나 또는 외부 메커니즘을 통해 사용 가능함)가 선택되며, DecodingUnitHrdFlag가 1과 같고 decoding_unit_cpb_params_in_pic_timing_sei_flag가 0과 같은 경우, 액세스 유닛의 디코딩 유닛과 연관되고 TargetOlsIdx에 적용되는 디코딩 유닛 정보 SEI 메시지(BitstreamToDecode에 존재하거나 또는 외부 메커니즘을 통해 사용 가능함)가 선택된다.
각각의 적합성 테스트는 위의 각각의 단계에서 하나의 옵션 조합을 포함한다. 단계에 대해 하나 이상의 옵션이 있는 경우, 특정 적합성 테스트에 대해 하나의 옵션만이 선택된다. 모든 단계의 가능한 모든 조합은 전체 적합성 테스트 세트를 형성한다. 테스트 중인 각각의 작동 포인트에 대해, 수행될 비트스트림 적합성 테스트의 개수는 n0 * n1 * n2 * n3과 같으며, 여기서 n0, n1, n2 및 n3의 값은 다음과 같이 지정된다. n1은 hrd_cpb_cnt_minus1 + 1과 같다. n1은 버퍼링 기간 SEI 메시지와 연관된 BitstreamToDecode의 액세스 유닛의 개수이다. n2는 다음과 같이 유도된다. BitstreamToDecode가 유형 I 비트스트림인 경우, n0은 1과 같다. 그렇지 않으면(BitstreamToDecode가 유형 II 비트스트림임), n0은 2와 같다. n3은 다음과 같이 유도된다. decoding_unit_hrd_params_present_flag가 0과 같으면, n3은 1과 같다. 그렇지 않으면, n3은 2와 같다.
HRD는 비트스트림 추출기(선택적으로 존재), 코딩된 픽처 버퍼(CPB), 순간 디코딩 프로세스, 개념적으로 각각의 레이어에 대한 서브 DPB를 포함하는 디코딩된 픽처 버퍼(DPB) 및 출력 크롭핑을 포함한다. 각각의 비트스트림 적합성 테스트에 대해, CPB 크기(비트수)는 CpbSize[Htid][ScIdx]이고, 각각의 레이어에 대한 DPB 파라미터 max_dec_pic_buffering_minus1[Htid], max_num_reorder_pics[Htid] 및 MaxLatencyPictures[Htid]는 레이어가 독립 레이어인지 여부와 레이어가 타깃 OLS의 출력 레이어인지 여부에 따라 레이어에 적용되는 dpb_parameters() 신택스 구조로부터 찾아지거나 유도된다.
HRD는 다음과 같이 작동할 수 있다. HRD는 디코딩 유닛 0에서 초기화되며, CPB 및 DPB의 각각의 서브 DPB가 모두 비어 있는 것으로 설정된다(각각의 서브 DPB에 대한 서브 DPB 충만도는 0과 동일하게 설정됨). 초기화 후, HRD는 후속 버퍼링 기간 SEI 메시지에 의해 다시 초기화되지 않을 수 있다. 지정된 도착 스케줄에 따라 각각의 CPB로 흐르는 디코딩 유닛과 연관된 데이터는 가상 스트림 스케줄러(hypothetical stream scheduler, HSS)에 의해 배달된다. 각각의 디코딩 유닛과 연관된 데이터는 디코딩 유닛의 CPB 제거 시점에서 순간 디코딩 과정에 의해 즉시 제거되고 디코딩된다. 각각의 디코딩된 픽처는 DPB에 배치된다. 디코딩된 픽처가 인터 예측 참조를 위해 더 이상 필요하지 않고 출력을 위해 더 이상 필요하지 않은 경우 디코딩된 픽처는 DPB에서 제거된다.
디코딩된 픽처 버퍼의 예시적인 작동은 다음과 같다. 이러한 사양은 선택된 디코딩된 픽처 버퍼(DPB) 파라미터의 각각의 세트에 독립적으로 적용될 수 있다. 디코딩된 픽처 버퍼는 개념적으로 서브 DPB를 포함하고, 각각의 서브 DPB는 하나의 레이어의 디코딩된 픽처를 저장하기 위한 픽처 저장 버퍼를 포함한다. 각각의 픽처 저장 버퍼는 참조용으로 사용된 것으로 표시되거나 나중의 출력을 위해 유지되는 디코딩된 픽처를 포함할 수 있다. 여기에서 설명하는 프로세스는 OLS의 최하위 레이어부터 시작하여 OLS의 레이어의 nuh_layer_id 값이 증가하는 순서로 순차적으로 적용되고 각각의 레이어에 대해 독립적으로 적용된다. 이러한 프로세스가 특정 레이어에 적용되는 경우, 특정 레이어의 서브 DPB만 영향을 받는다. 이러한 프로세스의 설명에서, DPB는 특정 레이어에 대한 서브 DPB를 지칭하고, 특정 레이어는 현재 레이어로서 지칭된다.
출력 타이밍 DPB의 작동에서, 동일한 액세스 유닛에서 1과 동일한 PicOutputFlag를 갖는 디코딩된 픽처는 디코딩된 픽처의 nuh_layer_id 값의 오름차순으로 연속적으로 출력된다. 픽처 n 및 현재 픽처가 nuh_layer_id의 특정 값에 대한 액세스 유닛 n의 코딩된 픽처 또는 디코딩된 픽처라고 하며, 여기서 n은 음이 아닌 정수이다. 현재 픽처의 디코딩 전에 DPB로부터의 픽처 제거는 다음과 같이 발생한다. 현재 픽처의 디코딩 전(그러나, 현재 픽처의 제1 슬라이스의 슬라이스 헤더를 파싱한 후) DPB로부터의 픽처 제거는 액세스 유닛 n(현재 픽처를 포함함)의 제1 디코딩 유닛의 CPB 제거 시간에 실질적으로 즉시 발생하며 다음과 같이 진행한다.
참조 픽처 리스트 구성을 위한 디코딩 프로세스가 호출되고 참조 픽처 마킹을 위한 디코딩 프로세스가 호출된다. 현재 AU가 AU 0이 아닌 코딩된 비디오 시퀀스 시작(CVSS) AU인 경우, 다음의 순서화된 단계가 적용된다. 변수 NoOutputOfPriorPicsFlag는 다음과 같이 테스트 중인 디코더에 대해 유도된다. 현재 AU의 임의의 픽처에 대해 유도된 pic_width_max_in_luma_samples, pic_height_max_in_luma_samples, chroma_format_idc, separate_colour_plane_flag, bit_depth_luma_minus8, bit_depth_chroma_minus8 또는 max_dec_pic__minus1[Htid]의 값은 동일한 CLVS의 이전 픽처에 대해 유도된 pic_width_in_luma_samples, pic_height_in_luma_samples, chroma_format_idc, separate_colour_plane_flag, bit_depth_luma_minus8, bit_depth_chroma_minus8 또는 max_dec_pic_buffering_minus1[Htid]의 값과 각각 다른 경우, NoOutputOfPriorPicsFlag는 no_output_of_prior_pics_flag의 값에 관계없이 테스트 중인 디코더에 의해 1로 설정될 수 있다. NoOutputOfPriorPicsFlag를 no_output_of_prior_pics_flag와 동일하게 설정하는 것이 이러한 조건에서 선호될 수 있지만, 테스트 중인 디코더는 이 경우에 NoOutputOfPriorPicsFlag를 1로 설정하도록 허용된다. 그렇지 않으면, NoOutputOfPriorPicsFlag는 no_output_of_prior_pics_flag와 동일하게 설정된다.
테스트 중인 디코더에 대해 유도된 NoOutputOfPriorPicsFlag의 값은 HRD에 적용되어, NoOutputOfPriorPicsFlag의 값이 1과 같은 경우 DPB의 모든 픽처 저장 버퍼가 그들이 포함하는 픽처의 출력 없이 비워지고, DPB 충만도가 0과 같게 설정될 수 있다. DPB의 임의의 픽처 k에 대해 다음 조건이 모두 참인 경우, DPB의 그러한 모든 픽처 k가 DPB에서 제거된다. 픽처 k는 참조용으로 사용되지 않는 것으로 표시될 수 있거나, 또는 픽처 k는 0과 동일한 PictureOutputFlag를 가질 수 있거나 또는 DPB 출력 시간이 현재 픽처 n의 제1 디코딩 유닛(디코딩 유닛 m으로 표시됨)의 CPB 제거 시간보다 작거나 같을 수 있으며, 여기서 DpbOutputTime[k]는 DuCpbRemovalTime[m]보다 작거나 같다. DPB에서 제거된 각각의 픽처에 대해, DPB 충만도가 1씩 감소된다.
출력 순서 DPB의 작동은 다음과 같을 수 있다. 이들 프로세스는 선택된 디코딩된 픽처 버퍼(DPB) 파라미터의 각각의 세트에 독립적으로 적용될 수 있다. 디코딩된 픽처 버퍼는 개념적으로 서브 DPB를 포함하고, 각각의 서브 DPB는 하나의 레이어의 디코딩된 픽처를 저장하기 위한 픽처 저장 버퍼를 포함한다. 각각의 픽처 저장 버퍼는 참조용으로 사용되는 것으로 표시되거나 향후 출력을 위해 유지되는 디코딩된 픽처를 포함한다. 현재 픽처의 디코딩 전에 DPB로부터 픽처를 출력하고 제거하는 프로세스가 호출되고, 이어서 현재 디코딩된 픽처 표시 및 저장을 위한 프로세스가 호출되며, 마지막으로 추가 범핑(bumping)을 위한 프로세스가 호출된다. 이러한 프로세스는 OLS의 최하위 레이어부터 시작하여 OLS에 있는 레이어의 nuh_layer_id 값이 증가하는 순서로 각각의 레이어에 대해 독립적으로 적용된다. 이러한 프로세스가 특정 레이어에 적용되는 경우, 특정 레이어에 대한 서브 DPB만이 영향을 받는다.
출력 타이밍 DPB의 작동과 동일한 출력 순서 DPB의 작동에서, 동일한 액세스 유닛에서 1과 동일한 PicOutputFlag를 갖는 디코딩된 픽처가 또한 디코딩된 픽처의 nuh_layer_id 값의 오름차순으로 연속적으로 출력된다. 픽처 n 및 현재 픽처가 nuh_layer_id의 특정 값에 대한 액세스 유닛 n의 코딩된 픽처 또는 디코딩된 픽처라고 하며, 여기서 n은 음이 아닌 정수이다. DPB로부터 픽처의 출력 및 제거는 다음과 같이 설명된다.
현재 픽처의 디코딩 전(그러나 현재 픽처의 제1 슬라이스의 슬라이스 헤더를 파싱한 후) DPB로부터의 픽처의 출력 및 제거는 현재 픽처를 포함하는 액세스 유닛의 제1 디코딩 유닛이 CPB에서 제거되는 경우 실질적으로 즉시 발생하고 다음과 같이 진행된다. 참조 픽처 리스트 구성을 위한 디코딩 프로세스 및 참조 픽처 마킹을 위한 디코딩 프로세스가 호출된다. 현재 AU가 AU 0이 아닌 CVSS AU인 경우, 다음과 같은 순서화된 단계가 적용된다. 변수 NoOutputOfPriorPicsFlag는 다음과 같이 테스트 중인 디코더에 대해 유도된다. 현재 AU의 임의의 픽처에 대해 유도된 pic_width_max_in_luma_samples, pic_height_max_in_luma_samples, chroma_format_idc, separate_colour_plane_flag, bit_depth_luma_minus8, bit_depth_chroma_minus8 또는 max_dec_pic_buffering_minus1[Htid]의 값이 동일한 CLVS의 이전 픽처에 대해 유도된 pic_width_in_luma_samples, pic_height_in_luma_samples, chroma_format_idc, separate_colour_plane_flag, bit_depth_luma_minus8, bit_depth_chroma_minus8 또는 max_dec_pic_buffering_minus1[Htid]의 값과 각각 다른 경우, NoOutputOfPriorPicsFlag는 no_output_of_prior_pics_flag의 값에 관계없이 테스트 중인 디코더에 의해 1로 설정될 수 있다.
NoOutputOfPriorPicsFlag를 no_output_of_prior_pics_flag와 동일하게 설정하는 것이 이러한 조건에서 선호될 수 있지만, 테스트 중인 디코더는 이 경우에 NoOutputOfPriorPicsFlag를 1로 설정하도록 허용된다. 그렇지 않으면, NoOutputOfPriorPicsFlag는 no_output_of_prior_pics_flag와 동일하게 설정된다. 테스트 중인 디코더에 대해 유도된 NoOutputOfPriorPicsFlag 값은 다음과 같이 HRD에 적용된다. NoOutputOfPriorPicsFlag가 1과 같으면, DPB의 모든 픽처 저장 버퍼는 그들이 포함하는 픽처의 출력 없이 비워지고 DPB 충만도는 0과 동일하게 설정된다. 그렇지 않으면(NoOutputOfPriorPicsFlag가 0임), 출력에 필요하지 않고 참조용으로 사용되지 않는 것으로 표시된 픽처을 포함하는 모든 픽처 저장 버퍼는 비워지고(출력 없이) DPB의 비어 있지 않은 모든 픽처 저장 버퍼는 범핑 및 DPB 충만도가 0과 동일하게 설정되는 것을 반복적으로 호출함으로써 비워진다.
그렇지 않으면(현재 픽처가 CLVSS 픽처가 아님), 출력에 필요하지 않고 참조에 사용되지 않는 것으로 표시된 픽처을 포함하는 모든 픽처 저장 버퍼는 비워진다(출력 없이). 비워지는 각각의 픽처 저장 버퍼에 대해, DPB 충만도가 1씩 감소된다. 다음의 조건 중 하나 이상이 참인 경우, 범핑 프로세스는 다음 조건 중 어느 것도 참이 아닐 때까지 비워진 각각의 추가 픽처 저장 버퍼에 대해 DPB 충만도를 1씩 감소시키면서 반복적으로 호출된다. 출력에 필요한 것으로 표시된 DPB의 픽처 개수는 max_num_reorder_pics[Htid]보다 크다. max_latency_increase_plus1[Htid]는 0과 같지 않으며 연관된 변수 PicLatencyCount가 MaxLatencyPictures[Htid]보다 크거나 같은 출력에 필요한 것으로 표시된 DPB에 적어도 하나의 픽처가 존재한다. DPB의 픽처의 개수는 max_dec_pic_buffering_minus1[Htid] + 1보다 크거나 같다.
예에서, 추가 범핑은 다음과 같이 발생할 수 있다. 지정된 프로세스는 현재 픽처를 포함하는 액세스 유닛 n의 마지막 디코딩 유닛이 CPB로부터 제거되는 경우 실질적으로 즉시 발생할 수 있다. 현재 픽처가 1과 동일한 PictureOutputFlag를 갖는 경우, 출력에 필요한 것으로 표시되고 출력 순서에서 현재 픽처를 따르는 DPB의 각각의 픽처에 대해, 연관된 변수 PicLatencyCount는 PicLatencyCount + 1과 동일하게 설정된다. 다음이 또한 적용된다. 현재 디코딩된 픽처가 1과 동일한 PictureOutputFlag를 갖는다면, 현재 디코딩된 픽처는 출력에 필요한 것으로 표시되고 연관된 변수 PicLatencyCount는 0과 동일하게 설정된다. 그렇지 않으면(현재 디코딩된 픽처가 0과 동일한 PictureOutputFlag를 가짐), 현재 디코딩된 픽처가 출력에 필요하지 않은 것으로 표시된다.
다음 조건 중 하나 이상이 참인 경우, 범핑 프로세스는 다음 조건 중 어느 것도 참이 아닐 때까지 반복적으로 호출된다. 출력에 필요한 것으로 표시된 DPB의 픽처 개수가 max_num_reorder_pics[Htid]보다 크다. max_latency_increase_plus1[Htid]가 0과 같지 않고 MaxLatencyPictures[Htid]보다 크거나 같은 연관된 변수 PicLatencyCount에 대한 출력에 필요한 것으로 표시된 DPB에 하나 이상의 픽처가 있다.
범핑 프로세스는 다음과 같은 순서화된 단계를 포함한다. 먼저 출력될 픽처 또는 픽처들이 출력에 필요한 것으로 표시된 DPB의 모든 픽처 중 PicOrderCntVal의 가장 작은 값을 갖는 픽처로서 선택된다. 픽처에 대한 적합성 크롭핑 윈도우를 사용하여 오름차순 nuh_layer_id 순서로 이러한 픽처 각각이 크롭핑되고,크롭핑된 픽처가 출력되며, 그 픽처는 출력에 필요하지 않은 것으로 표시된다. 참조용으로 사용되지 않는 것으로 표시된 픽처를 포함하고 크롭핑되고 출력된 픽처 중 하나인 각각의 픽처 저장 버퍼가 비위지고 연관된 서브 DPB의 충만도가 1만큼 감소된다. 동일한 CVS에 속하고 범핑 프로세스에 의해 출력되는 임의의 두 픽처 picA 및 picB에 대해, picA가 picB보다 먼저 출력되는 경우, picA의 PicOrderCntVal의 값은 picB의 PicOrderCntVal의 값보다 작다.
예시적인 서브 비트스트림 추출 프로세스는 다음과 같다. 이러한 프로세스에 대한 입력은 비트스트림 inBitstream, 타깃 OLS 인덱스 targetOlsIdx 및 타깃 최고 TemporalId 값 tIdTarget이다. 이러한 프로세스의 출력은 서브 비트스트림 outBitstream이다. 비트스트림 적합성은 모든 입력 비트스트림에 대해 비트스트림, VPS에 의해 지정된 OLS의 리스트에 대한 인덱스와 동일한 targetOlsIdx, 및 입력으로 0에서 6(포함)의 임의의 값과 동일한 tIdTarget를 갖도록 이러한 프로세스로부터 출력되는 출력 서브 시트스트림이자 또한 다음 조건을 충족하는 출력 서브 비트스트림이 적합한 비트스트림이어햐 함을 요구할 수 있다. 출력 서브 비트스트림은 LayerIdInOls[targetOlsIdx]의 nuh_layer_id 값 각각과 동일한 nuh_layer_id를 갖는 적어도 하나의 VCL NAL 유닛을 포함한다. 출력 서브 비트스트림은 tIdTarget과 동일한 TemporalId를 갖는 적어도 하나의 VCL NAL 유닛을 포함한다. 적합한 비트스트림은 0과 동일한 TemporalId를 갖는 하나 이상의 코딩된 슬라이스 NAL 유닛을 포함하지만, 0과 동일한 nuh_layer_id를 갖는 코딩된 슬라이스 NAL 유닛을 포함할 필요는 없다.
출력 서브 비트스트림 OutBitstream은 다음과 같이 유도된다. 비트스트림 outBitstream은 비트스트림 inBitstream과 동일하게 설정된다. TemporalId가 tIdTarget보다 큰 모든 NAL 유닛은 outBitstream에서 제거된다. 리스트 LayerIdInOls[targetOlsIdx]에 포함되지 않은 nuh_layer_id를 갖는 모든 NAL 유닛은 outBitstream에서 제거된다. 1과 동일한 nesting_ols_flag를 갖고 NestingOlsIdx[i]가 targetOlsIdx와 같도록 0부터 nesting_num_olss_minus1(포함)까지의 범위에 i 값이 없는 확장 가능한 중첩 SEI 메시지를 포함하는 모든 SEI NAL 유닛은 outBitstream에서 제거된다. targetOlsIdx가 0보다 큰 경우, 0(버퍼링 기간), 1(픽처 타이밍) 또는 130(디코딩 유닛 정보)과 동일한 payloadType을 갖는 확장 불가능한 중첩 SEI 메시지를 포함하는 모든 SEI NAL 유닛은 outBitstream에서 제거된다.
예시적인 확장 가능한 중첩 SEI 메시지 신택스는 다음과 같다.
scalable_nesting( payloadSize ) { 설명자
nesting_ols_flag u(1)
if( nesting_ols_flag ) {
nesting_num_olss_minus1 ue(v)
for( i = 0; i <= nesting_num_olss_minus1; i++ )
nesting_ols_idx_delta_minus1[ i ] ue(v)
} else {
nesting_all_layers_flag u(1)
if( !nesting_all_layers_flag ) {
nesting_num_layers_minus1 ue(v)
for( i = 1; i <= nesting_num_layers_minus1; i++ )
nesting_layer_id[ i ] u(6)
}
}
nesting_num_seis_minus1 ue(v)
while( !byte_aligned( ) )
nesting_zero_bit /* 0과 같음 */ u(1)
for( i = 0; i <= nesting_num_seis_minus1; i++ )
sei_message( )
}
예시적인 일반적인 SEI 페이로드 시맨틱스는 다음과 같다. 다음은 확장 불가능한 중첩 SEI 메시지의 적용 가능한 레이어 또는 OLS에 적용된다. 확장 불가능한 중첩 SEI 메시지의 경우, payloadType이 0(버퍼링 주기), 1(픽처 타이밍), 또는 130(디코딩 유닛 정보)와 같은 경우, 확장 불가능한 중첩 SEI 메시지는 0번째 OLS에만 적용된다. 확장 불가능한 중첩 SEI 메시지의 경우, payloadType이 VclAssociatedSeiList 중 임의의 값과 같은 경우, 확장 불가능한 중첩 SEI 메시지는 VCL NAL 유닛이 SEI 메시지를 포함하는 SEI NAL 유닛의 nuh_layer_id와 동일한 nuh_layer_id를 갖는 레이어에만 적용된다.
비트스트림 적합성은 SEI NAL 유닛의 nuh_layer_id 값에 다음과 같은 제한이 적용될 것을 요구할 수 있다. 확장 불가능한 중첩 SEI 메시지가 0(버퍼링 주기), 1(픽처 타이밍) 또는 130(디코딩 유닛 정보)과 같은 payloadType을 갖는 경우, 확장 불가능한 중첩 SEI 메시지를 포함하는 SEI NAL 유닛은 vps_layer_id[0]과 동일한 nuh_layer_id를 가져야 한다. 확장 불가능한 중첩 SEI 메시지가 VclAssociatedSeiList 중 임의의 값과 동일한 payloadType을 갖는 경우, 확장 불가능한 중첩 SEI 메시지를 포함하는 SEI NAL 유닛은 SEI NAL 유닛과 연관된 VCL NAL 유닛의 nuh_layer_id 값과 동일한 nuh_layer_id를 가져야 한다. 확장 가능한 중첩 SEI 메시지를 포함하는 SEI NAL 유닛은 확장 가능한 중첩 SEI 메시지가 적용되는 모든 레이어의 nuh_layer_id의 가장 낮은 값(확장 가능한 중첩 SEI 메시지의 nesting_ols_flag가 0인 경우) 또는 확장 가능 중첩 SEI 메시지가 적용되는 OLS의 모든 레이어의 nuh_layer_id의 가장 낮은 값(확장 가능 중첩 SEI 메시지의 nesting_ols_flag가 1인 경우)과 동일한 nuh_layer_id를 가져야 한다.
예시적인 확장 가능한 중첩 SEI 메시지 시맨틱스는 다음과 같다. 확장 가능한 중첩 SEI 메시지는 SEI 메시지를 특정 OLS 또는 특정 레이어와 연관시키는 메커니즘을 제공한다. 확장 가능한 중첩 SEI 메시지는 하나 이상의 SEI 메시지를 포함한다. 확장 가능한 중첩(scalable nesting) SEI 메시지에 포함된 SEI 메시지는 확장 가능한 중첩(scalable-nested) SEI 메시지로도 지칭된다. 비트스트림 적합성은 확장 가능한 중첩 SEI 메시지에 SEI 메시지를 포함하는 데 다음 제한이 적용되도록 요구할 수 있다.
132(디코딩된 픽처 해시) 또는 133(확장 가능한 중첩)과 동일한 payloadType을 갖는 SEI 메시지는 확장 가능한 중첩 SEI 메시지에 포함되지 않을 수 있다. 확장 가능한 중첩 SEI 메시지가 버퍼링 기간, 픽처 타이밍 또는 디코딩 유닛 정보 SEI 메시지를 포함하는 경우, 확장 가능한 중첩 SEI 메시지는 0(버퍼링 기간), 1(픽처 타이밍), 또는 130(디코딩 유닛 정보)과 동일하지 않은 payloadType를 갖는 임의의 다른 SEI 메시지를 포함하지 않아야 한다.
비트스트림 적합성은 확장 가능한 중첩 SEI 메시지를 포함하는 SEI NAL 유닛의 nal_unit_type 값에 대해 다음의 제한이 적용될 것을 요구할 수 있다. 확장 가능한 중첩 SEI 메시지가 0(버퍼링 기간), 1(픽처 타이밍), 130(디코딩 유닛 정보), 145(종속 RAP 지시) 또는 168(프레임 필드 정보)과 동일한 payloadType을 갖는 SEI 메시지를 포함하는 경우, 확장 가능한 중첩 SEI 메시지를 포함하는 SEI NAL 유닛은 PREFIX_SEI_NUT와 동일한 nal_unit_type을 가져야 한다.
1과 동일한 nesting_ols_flag는 확장 가능한 중첩 SEI 메시지가 특정 OLS에 적용됨을 지정한다. 0과 동일한 nesting_ols_flag는 확장 가능한 중첩 SEI 메시지가 특정 레이어에 적용됨을 지정한다. 비트스트림 적합성은 다음의 제한이 nesting_ols_flag 값에 적용되는 것을 요구할 수 있다. 확장 가능한 중첩 SEI 메시지가 0(버퍼링 기간), 1(픽처 타이밍) 또는 130(디코딩 유닛 정보)과 같은 payloadType을 갖는 SEI 메시지를 포함하는 경우, nesting_ols_flag의 값은 1과 같아야 한다. 확장 가능한 중첩 SEI 메시지가 VclAssociatedSeiList의 값과 동일한 payloadType을 갖는 SEI 메시지를 포함하는 경우, nesting_ols_flag의 값은 0과 같아야 한다. nesting_num_olss_minus1 더하기 1은 확장 가능한 중첩 SEI 메시지가 적용되는 OLS의 개수를 지정한다. nesting_num_olss_minus1의 값은 0에서 TotalNumOlss - 1(포함)의 범위에 있어야 한다.
nesting_ols_idx_delta_minus1[i]은 nesting_ols_flag가 1과 같은 경우 확장 가능한 중첩 SEI 메시지가 적용되는 i번째 OLS의 OLS 인덱스를 지정하는 변수 NestingOlsIdx[i]를 유도하는 데 사용된다. nesting_ols_idx_delta_minus1[i]의 값은 0에서 TotalNumOlss 빼기 2(포함)의 범위에 있어야 한다. 변수 NestingOlsIdx[i]는 다음과 같이 유도될 수 있다.
if(i == 0)
NestingOlsIdx[i] = nesting_ols_idx_delta_minus1[i]
els
NestingOlsIdx[i] = NestingOlsIdx[i - 1] + nesting_ols_idx_delta_minus1[i] + 1
1과 동일한 nesting_all_layers_flag는 확장 가능한 중첩 SEI 메시지가 현재 SEI NAL 유닛의 nuh_layer_id보다 크거나 같은 nuh_layer_id를 갖는 모든 레이어에 적용됨을 지정한다. 0과 동일한 nesting_all_layers_flag는 확장 가능한 중첩 SEI 메시지가 현재 SEI NAL 유닛의 nuh_layer_id보다 크거나 같은 nuh_layer_id를 갖는 모든 레이어에 적용될 수 있거나 적용되지 않을 수 있음을 지정한다. nesting_num_layers_minus1 더하기 1은 확장 가능한 중첩 SEI 메시지가 적용되는 레이어의 개수를 지정한다. nesting_num_layers_minus1의 값은 0에서 vps_max_layers_minus1 - GeneralLayerIdx[nuh_layer_id](포함)까지의 범위에 있어야 하며, 여기서 nuh_layer_id는 현재 SEI NAL 유닛의 nuh_layer_id이다. nesting_layer_id[i]는 nesting_all_layers_flag가 0과 같은 경우 확장 가능한 중첩 SEI 메시지가 적용되는 i번째 레이어의 nuh_layer_id 값을 지정한다. nesting_layer_id[i]의 값은 nuh_layer_id보다 커야 하며, 여기서 nuh_layer_id는 현재 SEI NAL 유닛의 nuh_layer_id이다.
nesting_ols_flag가 0과 같은 경우, 변수 확장 가능한 중첩 SEI 메시지가 적용되는 레이어의 개수를 지정하는 변수 NestingNumLayers, 및 확장 가능한 중첩 SEI 메시지가 적용되는 레이어의 nuh_layer_id 값의 리스트를 지정하는, 0에서 NestingNumLayers - 1(포함)의 범위에 있는 i에 대한 리스트 NestingLayerId[i]는 다음과 같이 유도될 수 있으며, 여기서 nuh_layer_id는 현재 SEI NAL 유닛의 nuh_layer_id이다.
if(nesting_all_layers_flag) {
NestingNumLayers = vps_max_layers_minus1 + 1 - GeneralLayerIdx[nuh_layer_id]
for(i = 0; i < NestingNumLayers; i++)
NestingLayerId[i] = vps_layer_id[GeneralLayerIdx[nuh_layer_id] + i]
} else {
NestingNumLayers = nesting_num_layers_minus1 + 1
for(i = 0; i < NestingNumLayers; i++)
NestingLayerId[i] = (i == 0) ? nuh_layer_id : nesting_layer_id[i]
}
nesting_num_seis_minus1 더하기 1은 확장 가능한 중첩 SEI 메시지의 개수를 지정한다. nesting_num_seis_minus1의 값은 0에서 63(포함)까지의 범위에 있어야 한다. nesting_zero_bit는 0과 같아야 한다.
도 8은 예시적인 비디오 코딩 장치(800)의 개략도이다. 비디오 코딩 장치(800)는 여기에서 설명된 바와 같이 개시된 예시/실시예를 구현하는데 적합하다. 비디오 코딩 장치(800)는 다운스트림 포트(820), 업스트림 포트(850), 및/또는 네트워크를 통해 데이터 업스트림 및/또는 다운스트림을 통신하기 위한 전송기 및/또는 수신기를 포함하는 트랜시버 유닛(Tx/Rx)(810)을 포함한다. 비디오 코딩 장치(800)는 또한 데이터를 처리하기 위한 로직 유닛 및/또는 중앙 처리 유닛(central processing unit, CPU)을 포함하는 프로세서(830) 및 데이터를 저장하기 위한 메모리(832)를 포함한다. 비디오 코딩 장치(800)는 또한 전기, 광학 또는 무선 통신 네트워크를 통한 데이터의 통신을 위해 업스트림 포트(850) 및/또는 다운스트림 포트(820)에 연결된 전기, 광-전기(optical-to-electrical, OE) 컴포넌트, 전기-광(electrical-to-optical, EO) 컴포넌트 및/또는 무선 통신 컴포넌트를 포함할 수 있다. 비디오 코딩 장치(800)는 또한 사용자와 데이터를 통신하기 위한 입력 및/또는 출력(I/O) 장치(860)를 포함할 수 있다. I/O 장치(860)는 비디오 데이터를 디스플레이하기 위한 디스플레이, 오디오 데이터를 출력하기 위한 스피커 등과 같은 출력 장치를 포함할 수 있다. I/O 장치(860)는 또한 키보드, 마우스, 트랙볼 등과 같은 입력 장치, 및/또는 이러한 출력 장치와 상호 작용하기 위한 대응하는 인터페이스를 포함할 수 있다.
프로세서(830)는 하드웨어 및 소프트웨어에 의해 구현된다. 프로세서(830)는 하나 이상의 CPU 칩, 코어(예를 들어, 멀티 코어 프로세서), FPGA(field-programmable gate array), ASIC(application specific integrated circuit) 및 DSP(digital signal processor)로서 구현될 수 있다. 프로세서(830)는 다운스트림 포트(820), Tx/Rx(810), 업스트림 포트(850) 및 메모리(832)와 통신한다. 프로세서(830)는 코딩 모듈(814)을 포함한다. 코딩 모듈(814)은 다중 레이어 비디오 시퀀스(600), 비트스트림(700) 및/또는 서브 비트스트림(701)을 사용할 수 있는 방법(100, 900, 1000)과 같은 여기에서 설명된 개시된 실시예를 구현한다. 코딩 모듈(814)은 또한 여기에서 설명된 임의의 다른 방법/메커니즘을 구현할 수 있다. 또한, 코딩 모듈(814)은 코덱 시스템(200), 인코더(300), 디코더(400) 및/또는 HRD(500)를 구현할 수 있다. 예를 들어, 코딩 모듈(814)은 SNR 및/또는 공간 확장성을 지원하기 위해 비디오 시퀀스를 레이어 및/또는 OLS로 코딩하는 데 사용될 수 있다. 예를 들어, 코딩 모듈(814)은 VPS 없이 동시 방송 레이어를 포함하는 비트스트림을 인코딩하고, 추출하며 그리고/또는 디코딩하는 데 사용될 수 있다. 또한, 코딩 모듈(814)은 서브 비트스트림 추출의 일부로서 추출되는 VPS에 대한 참조에 기초하여 오류를 피하기 위해 다양한 신택스 요소 및/또는 변수를 설정하고 그리고/또는 추론하기 위해 사용될 수 있다. 또한, 코딩 모듈(814)은 SPS의 잘못된 추출을 방지하기 위해 CLVS를 포함하는 레이어가 동시 방송 레이어인 경우 nuh_layer_id를 CLVS의 nuh_layer_id와 동일하도록 제한하는 데 사용될 수 있다. 따라서, 코딩 모듈(814)은 위에서 논의된 문제들 중 하나 이상을 해결하기 위한 메커니즘을 수행하도록 구성될 수 있다. 따라서, 코딩 모듈(814)은 비디오 코딩 장치(800)가 비디오 데이터를 코딩할 때 추가적인 기능 및/또는 코딩 효율성을 제공하게 한다. 이와 같이, 코딩 모듈(814)은 비디오 코딩 장치(800)의 기능을 개선할 뿐만 아니라 비디오 코딩 기술에 특정한 문제를 해결한다. 또한, 코딩 모듈(814)은 비디오 코딩 장치(800)를 상이한 상태로 변환시킨다. 다르게는, 코딩 모듈(914)은 메모리(832)에 저장된 명령으로서 구현될 수 있고 프로세서(830)에 의해 실행될 수 있다(예를 들어, 비일시적 매체에 저장된 컴퓨터 프로그램 제품으로서임).
메모리(832)는 디스크, 테이프 드라이브, 솔리드 스테이트 드라이브, 읽기 전용 메모리(ROM), 랜덤 액세스 메모리(RAM), 플래시 메모리, TCAM(ternary content-addressable memory), SRAM(static random-access memory) 등과 같은 하나 이상의 메모리 유형을 포함한다. 메모리(832)는 그러한 프로그램이 실행을 위해 선택될 때 프로그램을 저장하고, 프로그램 실행 중에 판독되는 명령 및 데이터를 저장하기 위해 오버 플로우 데이터 저장 장치로 사용될 수 있다.
도 9는 동시 방송 레이어에 대한 서브 비트스트림 추출 프로세스(729) 동안 SPS(713)를 유지하는 것을 지원하기 위해 다중 레이어 비디오 시퀀스를 비트스트림(700)과 같은 비트스트림으로 인코딩하는 예시적인 방법(900)의 흐름도이다. 방법(900)은 방법(100)을 수행할 때 코덱 시스템(200), 인코더(300) 및/또는 비디오 코딩 장치(800)와 같은 인코더에 의해 사용될 수 있다. 또한, 방법(900)은 HRD(500)에서 작동할 수 있고 따라서 다중 레이어 비디오 시퀀스(600) 및/또는 그 추출된 레이어에 대해 적합성 테스트를 수행할 수 있다.
방법(900)은 인코더가 비디오 시퀀스를 수신하고 예를 들어 사용자 입력에 기초하여 해당 비디오 시퀀스를 다중 레이어 비트스트림으로 인코딩하기로 결정할 때 시작될 수 있다. 단계 901에서, 인코더는 코딩된 픽처의 CLVS를 비트스트림의 레이어로 인코딩한다. 코딩된 픽처는 VCL NAL 유닛의 세트에 포함된다. 예를 들어, 인코더는 비디오 시퀀스의 픽처를 하나 이상의 CLVS로서 하나 이상의 레이어로 인코딩하고 레이어/CLVS를 다중 레이어 비트스트림으로 인코딩할 수 있다. 따라서, 비트스트림은 하나 이상의 레이어와 하나 이상의 CLVS를 포함한다. 레이어는 동일한 레이어 Id 및 연관된 비-VCL NAL 유닛을 갖는 VCL NAL 유닛의 세트를 포함할 수 있다. 또한, CLVS는 동일한 nuh_layer_id 값을 갖는 코딩된 픽처의 시퀀스이다. 구체적인 예로서, VCL NAL 유닛은 nuh_layer_id에 의해 식별되는 레이어와 연관될 수 있다. 구체적으로, VCL NAL 유닛의 세트가 모두 nuh_layer_id의 특정 값을 갖는 경우 VCL NAL 유닛의 세트는 레이어의 일부이다. 레이어는 인코딩된 픽처의 비디오 데이터는 물론 그러한 픽처를 코딩하는 데 사용되는 임의의 파라미터 세트를 포함하는 VCL NAL 유닛의 세트를 포함할 수 있다. 그러한 파라미터는 VPS, SPS, PPS, 픽처 헤더, 슬라이스 헤더, 또는 다른 파라미터 세트 또는 신택스 구조에 포함될 수 있다. 하나 이상의 레이어는 출력 레이어일 수 있으며, 따라서 레이어에 포함된 하나 이상의 CLVS가 출력될 수 있다. 출력 레이어가 아닌 레이어는 참조 레이어로 지칭되며 출력 레이어(들)의 재구성을 지원하도록 인코딩되지만 이러한 지원되는 레이어/CLVS는 디코더에서의 출력을 위한 것이 아니다. 이러한 방식으로, 인코더는 요청 시 디코더로의 전송을 위해 레이어/CLVs의 다양한 조합을 인코딩할 수 있다. 레이어/CLVS는 디코더가 네트워크 조건, 하드웨어 능력 및/또는 사용자 설정에 따라 비디오 시퀀스의 다른 표현을 획득할 수 있도록 원하는 대로 전송될 수 있다. 본 예에서, 레이어 중 적어도 하나는 레이어 간 예측을 사용하지 않는 동시 방송 레이어이다. 따라서, 하나 이상의 CLVS가 동시 방송 레이어에 포함된다.
단계 903에서, 인코더는 SPS를 비트스트림으로 인코딩할 수 있다. SPS는 하나 이상의 CLVS에 의해 참조된다. 구체적으로, SPS는 CLVS를 포함하는 레이어가 레이어 간 예측을 사용하지 않는 경우 CLVS의 nuh_layer_id 값과 동일한 nuh_layer_id 값을 갖는다. 또한, SPS는 CLVS를 포함하는 레이어가 레이어 간 예측을 사용하는 경우 CLVS의 nuh_layer_id 값보다 작거나 같은 nuh_layer_id 값을 갖는다. 이러한 방식으로, SPS는 CLVS를 참조하는 모든 동시 방송 레이어와 동일한 nuh_layer_id를 갖는다. 또한, SPS는 SPS를 참조하는 임의의 동시 방송 레이어에 대한 nuh_layer_id보다 작거나 같은 nuh_layer_id를 갖는다. 이러한 방식으로, SPS는 다수의 CLVS/레이어에 의해 참조될 수 있다. 그러나, 서브 비트스트림 추출이 동시 방송 레이어인 CLVS/레이어에 적용되는 경우 SPS는 서브 비트스트림 추출에 의해 제거되지 않는다.
SPS는 vps_independent_layer_flag와 같은 SPS에 의해 참조되는 VPS에 대한 ID 값을 지정하는 sps_video_parameter_set_id를 포함하도록 인코딩될 수 있다. 이와 같이, sps_video_parameter_set_id는 sps_video_parameter_set_id가 0보다 큰 경우 SPS에 의해 참조되는 VPS의 vps_video_parameter_set_id 값을 지정한다. 또한, SPS는 VPS를 참조하지 않으며 sps_video_parameter_set_id가 0과 동일할 때 SPS를 참조하는 각각의 코딩된 레이어 비디오 시퀀스를 디코딩하는 경우 VPS가 참조되지 않는다. 따라서, sps_video_parameter_set_id가 동시 방송 레이어에 포함된 코딩된 레이어 비디오 시퀀스에 의해 참조되는 SPS로부터 획득되는 경우 sps_video_parameter_set_id는 0으로 설정되고 그리고/또는 0으로 추론된다.
HRD는 적합성 테스트를 수행하는 데 사용될 수 있으며, 따라서 VVC와 같은 표준에 대한 적합성을 위해 비트스트림을 검사하는 데 사용될 수 있다. HRD는 sps_video_parameter_set_id가 0과 같은 경우 GeneralLayerIdx[nuh_layer_id]를 0과 같도록 설정하고 그리고/또는 0으로 추론할 수 있다. GeneralLayerIdx[nuh_layer_id]는 대응하는 레이어에 대한 현재 레이어 인덱스와 동일하고 따라서 이를 지시한다. 이와 같이, 동시 방송 레이어에 대한 현재 레이어 인덱스는 0으로 설정되고 그리고/또는 0으로 추론된다. 또한, HRD는 sps_video_parameter_set_id가 0과 같은 경우 vps_independent_layer_flag[GeneralLayerIdx[ nuh_layer_id]]의 값이 1과 같은 것으로 추론할 수 있다. 구체적으로, vps_independent_layer_flag는 대응하는 레이어가 레이어 간 예측을 사용하는지 여부를 지정한다. vps_independent_layer_flag[i]는 VPS에 포함되며 i번째 레이어가 레이어 간 예측을 사용함을 지시하기 위해 0으로 설정되거나 또는 i번째 레이어가 인터-레이터(inter-later) 예측을 사용하지 않음을 지시하 위해 1로 설정될 수 있다. 이와 같이, vps_independent_layer_flag[GeneralLayerIdx[nuh_layer_id]]는 인덱스 GeneralLayerIdx[nuh_layer_id]를 갖는 현재 레이어가 레이어 간 예측을 사용하는지 여부를 지정한다. 이와 같이, 레이어는 vps_independent_layer_flag[GeneralLayerIdx[nuh_layer_id]]가 1과 같은 경우 레이어 간 예측을 사용하지 않는다. 현재 레이어가 동시 방송 레이어인 경우, VPS가 생략되고 레이어 간 예측이 사용되지 않는다. 따라서, sps_video_parameter_set_id가 0과 같은 경우 1의 값의 추론은 동시 방송 레이어에 대한 비트스트림 추출 동안 추출되는 VPS에 대한 참조를 피하면서 HRD에서 그리고 디코딩 동안 동시 방송 레이어가 적절하게 작동하는 것을 보장한다. 이와 같이, 추론은 VPS가 동시 방송 레이어에 대해 제거되는 경우 발생할 수 있는 서브 비트스트림 추출 오류를 방지한다. 그 다음, HRD는 디코딩된 픽처를 생성하기 위해 SPS, sps_video_parameter_set_id, GeneralLayerIdx[nuh_layer_id], 및/또는 vps_independent_layer_flag[GeneralLayerIdx[nuh_layer_d]]에 기초하여 동시 방송 레이어/CLVS의 VCL NAL 유닛으로부터 코딩된 픽처를 디코딩할 수 있다. 이와 같이, HRD는 다중 레이어 비트스트림의 동시 방송 레이어가 동시 전송 레이어에 대한 VPS 누락으로 인한 예기치 않은 오류 없이 비트스트림을 준수하는지 여부를 검증할 수 있다.
단계 905에서, 인코더는 요청 시 디코더를 향한 통신을 위해 비트스트림을 저장할 수 있다. 인코더는 또한 동시 방송 레이어를 획득하고 원하는 대로 인코더를 향해 비트스트림/서브 비트스트림을 전송하기 위해 서브 비트스트림 추출을 수행할 수 있다.
도 10은 비트스트림(700)과 같은 다중 레이어 비트스트림으로부터 추출된 동시 방송 레이어를 포함하는 서브 비트스트림(701)과 같은 비트스트림으로부터 비디오 시퀀스를 디코딩하는 예시적인 방법(1000)의 흐름도이며, 여기서 SPS(713)는 서브 비트스트림 추출 프로세스(729) 동안 유지된다. 방법(1000)은 방법(100)을 수행할 때 코덱 시스템(200), 디코더(400) 및/또는 비디오 코딩 장치(800)와 같은 디코더에 의해 사용될 수 있다. 또한, 방법(1000)은 HRD(500)와 같은 HRD에 의해 적합성에 대해 검사된 다중 레이어 비디오 시퀀스(600) 또는 그 추출된 레이어에 대해 사용될 수 있다.
방법(1000)은 디코더가 예를 들어 방법(900)의 결과로서 다중 레이어 비트스트림으로부터 추출된 동시 방송 레이어의 코딩된 비디오 시퀀스를 포함하는 비트스트림을 수신하기 시작할 때 시작할 수 있다. 단계 1001에서, 디코더는 레이어의 CLVS를 포함하는 비트스트림을 수신한다. 레이어는 인코더 또는 다른 중간 컨텐츠 서버에 의해 다중 레이어 비트스트림으로부터 추출된 동시 방송 레이어일 수 있다. 동시 방송 레이어는 코딩된 픽처 세트를 포함하는 CLVS를 포함한다. 예를 들어, 비트스트림은 각각의 코딩된 픽처가 nuh_layer_id에 의해 식별되는 바와 같은 동시 방송 레이어과 연관된 하나 이상의 VCL NAL 유닛의 세트에 포함되는 코딩된 픽처를 포함한다. 레이어는 동일한 레이어 Id 및 연관된 비-VCL NAL 유닛을 갖는 VCL NAL 유닛의 세트를 포함할 수 있다. 예를 들어, 레이어는 인코딩된 픽처의 비디오 데이터를 포함하는 VCL NAL 유닛의 세트 및 그러한 픽처를 코딩하는 데 사용되는 임의의 파라미터 세트를 포함할 수 있다. 이와 같이, VCL NAL 유닛의 세트가 모두 nuh_layer_id의 특정 값을 갖는 경우 VCL NAL 유닛의 세트는 레이어의 일부이다. 또한, CLVS는 동일한 nuh_layer_id 값을 갖는 코딩된 픽처의 시퀀스이다. 동시 방송 레이어는 또한 출력 레이어이며 레이어 간 예측을 사용하지 않는다. 따라서, CLVS는 또한 레이어 간 예측을 사용하지 않는다.
비트스트림은 또한 CLVS에 의해 참조되는 SPS를 포함한다. SPS는 CLVS를 포함하는 레이어가 레이어 간 예측을 사용하지 않는 경우 CLVS의 nuh_layer_id 값과 동일한 nuh_layer_id 값을 갖는다. 또한, SPS는 CLVS를 포함하는 레이어가 레이어 간 예측을 사용하는 경우 CLVS의 nuh_layer_id 값보다 작거나 같은 nuh_layer_id 값을 갖는다. 이러한 방식으로, SPS는 CLVS를 참조하는 모든 동시 방송 레이어와 동일한 nuh_layer_id를 갖는다. 또한, SPS는 SPS를 참조하는 임의의 비-동시 방송 레이어에 대한 nuh_layer_id보다 작거나 같은 nuh_layer_id를 갖는다. 이러한 방식으로, SPS는 다수의 CLVS/레이어에 의해 참조될 수 있다. 그러나, 동시 방송 레이어인 CLVS/레이어에 서브 비트스트림 추출이 적용되는 경우 인코더/컨텐츠 서버에서 서브 비트스트림 추출에 의해 SPS가 제거되지 않는다.
SPS는 vps_independent_layer_flag와 같은 SPS에 의해 참조되는 VPS에 대한 ID 값을 지정하는 sps_video_parameter_set_id를 포함한다. 이와 같이, sps_video_parameter_set_id는 sps_video_parameter_set_id가 0보다 큰 경우 SPS에 의해 참조되는 VPS의 vps_video_parameter_set_id 값을 지정한다. 또한, SPS는 VPS를 참조하지 않으며 sps_video_parameter_set_id가 0과 같은 경우 SPS를 참조하는 각각의 코딩된 레이어 비디오 시퀀스를 디코딩할 때 VPS가 참조되지 않는다. 따라서, sps_video_parameter_set_id가 동시 방송 레이어에 포함된 코딩된 레이어 비디오 시퀀스에 의해 참조되는 SPS로부터 획득되는 경우 sps_video_parameter_set_id는 0으로 설정되고 그리고/또는 0으로 추론된다. 또한, 비트스트림이 레이어 간 예측을 사용하지 않는 CLVS를 포함하는 동시 방송 레이어만을 포함하는 경우 비트스트림은 VPS를 포함하지 않는다.
단계 1003에서, 디코더는 디코딩된 픽처를 생성하기 위해 SPS에 기초하여 CLVS로부터 픽처를 디코딩할 수 있다. 예를 들어, 디코더는 sps_video_parameter_set_id가 0과 같은 경우 GeneralLayerIdx[nuh_layer_id]가 0과 같도록 설정하고 그리고/또는 0으로 추론할 수 있다. GeneralLayerIdx[nuh_layer_id]는 대응하는 레이어에 대한 현재 레이어 인덱스와 동일하고 따라서 이를 지시한다. 이와 같이, 동시 방송 레이어에 대한 현재 레이어 인덱스는 0으로 설정되고/추론된다. 또한, 디코더는 sps_video_parameter_set_id가 0과 같은 경우 vps_independent_layer_flag[GeneralLayerIdx[nuh_layer_id]]의 값이 1과 동일한 것으로 추론할 수 있다. 구체적으로, vps_independent_layer_flag는 대응하는 레이어가 레이어 간 예측을 사용하는지 여부를 지정한다. vps_independent_layer_flag[i]는 VPS에 포함되며 i번째 레이어가 레이어 간 예측을 사용함을 지시하기 위해 0으로 설정되거나 또는 i번째 레이어가 인터-레이터 예측을 사용하지 않음을 지시하기 위해 1로 설정될 수 있다. 이와 같이, vps_independent_layer_flag[GeneralLayerIdx[nuh_layer_id]]는 인덱스 GeneralLayerIdx[nuh_layer_id]를 갖는 현재 레이어가 레이어 간 예측을 사용하는지 여부를 지정한다. 이와 같이, 레이어는 vps_independent_layer_flag[GeneralLayerIdx[nuh_layer_id]]가 1과 같은 경우 레이어 간 예측을 사용하지 않는다. 현재 레이어가 동시 방송 레이어인 경우, VPS는 수신된 비트스트림에 포함되지 않고 레이어 간 예측이 사용되지 않는다. 따라서, sps_video_parameter_set_id가 0과 같은 경우 1의 값의 추론은 동시 방송 레이어에 대한 비트스트림 추출 중에 추출되는 VPS에 대한 참조를 피하면서 디코딩 동안 동시 방송 레이어가 적절하게 작동함을 보장한다. 이와 같이, 추론은 VPS가 동시 방송 레이어에 대해 제거되는 경우 발생할 수 있는 서브 비트스트림 추출 오류를 방지한다. 그 다음, 디코더는 디코딩된 픽처를 생성하기 위해 SPS, sps_video_parameter_set_id, GeneralLayerIdx[nuh_layer_id] 및/또는 vps_independent_layer_flag[GeneralLayerIdx[nuh_layer_id]]에 기초하여 동시 방송 레이어/CLVS의 VCL NAL 유닛으로부터 코딩된 픽처를 디코딩할 수 있다. 그 다음, 디코더는 단계 1005에서 디코딩된 비디오 시퀀스의 일부로서 디스플레이를 위해 디코딩된 픽처를 전달할 수 있다.
도 11은 동시 방송 레이어에 대한 서브 비트스트림 추출 프로세스(729) 동안 SPS(713)를 유지하는 것을 지원하기 위해 다중 레이어 비디오 시퀀스를 비트스트림(700)으로 코딩하기 위한 예시적인 시스템(1100)의 개략도이다. 시스템(1100)은 코덱 시스템(200), 인코더(300), 디코더(400) 및/또는 비디오 코딩 장치(800)와 같은 인코더 및 디코더에 의해 구현될 수 있다. 또한, 시스템(1100)은 다중 레이어 비디오 시퀀스(600), 비트스트림(700) 및/또는 서브 비트스트림(701)에 대한 적합성 테스트를 수행하기 위해 HRD(500)를 사용할 수 있다. 또한, 시스템(1100)은 방법(100, 900 및/또는 1000)을 구현할 때 사용될 수 있다.
시스템(1100)은 비디오 인코더(1102)를 포함한다. 비디오 인코더(1102)는 CLVS를 비트스트림의 레이어로 인코딩하기 위한 인코딩 모듈(1105)을 포함한다. 인코딩 모듈(1105)은 또한 CLVS에 의해 참조되는 SPS를 비트스트림으로 인코딩하기 위한 것이며, 여기서 SPS는 레이어가 레이어 간 예측을 사용하지 않는 경우 CLVS의 nuh_layer_id 값과 동일한 nuh_layer_id 값을 갖도록 제한된다. 비디오 인코더(1102)는 디코더를 향한 통신을 위한 비트스트림을 저장하기 위한 저장 모듈(1106)을 더 포함한다. 비디오 인코더(1102)는 비디오 디코더(1110)를 향해 비트스트림을 전송하기 위한 전송 모듈(1107)을 더 포함한다. 비디오 인코더(1102)는 방법(900)의 단계들 중 임의의 단계를 수행하도록 추가로 구성될 수 있다.
시스템(1100)은 또한 비디오 디코더(1110)를 포함한다. 비디오 디코더(1110)는 레이어의 CLVS 및 CLVS에 의해 참조되는 SPS를 포함하는 비트스트림을 수신하기 위한 수신 모듈(1111)을 포함하며, 여기서 SPS는 레이어가 레이어 간 예측을 사용하지 않는 경우 CLVS의 nuh_layer_id 값과 동일한 nuh_layer_id 값을 갖는다. 비디오 디코더(1110)는 디코딩된 픽처를 생성하기 위해 SPS에 기초하여 CLVS로부터 코딩된 픽처를 디코딩하기 위한 디코딩 모듈(1113)을 더 포함한다. 비디오 디코더(1110)는 디코딩된 비디오 시퀀스의 일부로서 디스플레이를 위해 디코딩된 픽처를 전달하기 위한 전달 모듈(1115)을 더 포함한다. 비디오 디코더(1110)는 방법(1000)의 단계들 중 임의의 단계를 수행하도록 추가로 구성될 수 있다.
제1 컴포넌트와 제2 컴포넌트 사이에 라인, 트레이스 또는 다른 매체를 제외하고 중간 컴포넌트가 없을 때 제1 컴포넌트는 제2 컴포넌트에 직접 결합된다. 제1 컴포넌트와 제2 컴포넌트 사이에 라인, 트레이스 또는 다른 매체 이외의 중간 컴포넌트가 있을 때 제1 컴포넌트는 제2 컴포넌트에 간접적으로 결합된다. 용어 "결합된" 및 그 변형은 직접 결합 및 간접 결합을 모두 포함한다. 용어 "약"의 사용은 달리 명시되지 않는 한 후속 숫자의 ±10%를 포함하는 범위를 의미한다.
또한, 여기에서 설명된 예시적인 방법의 단계가 반드시 설명된 순서로 수행되어야 하는 것은 아니며, 그러한 방법의 단계의 순서는 단지 예시적인 것으로 이해되어야 함이 이해되어야 한다. 마찬가지로, 추가 단계가 이러한 방법에 포함될 수 있고, 본 개시의 다양한 실시예와 일치하는 방법에서 특정 단계가 생략되거나 결합될 수 있다.
본 개시에서 여러 실시예가 제공되었지만, 개시된 시스템 및 방법은 본 개시의 사상 또는 범위를 벗어나지 않고 많은 다른 특정 형태로 구현 될 수 있이 이해될 수 있다. 본 예시는 제한적인 것이 아니라 예시적인 것으로 간주되어야 하며, 의도는 여기에서 제공된 세부 사항에 제한되지 않는다. 예를 들어, 다양한 요소 또는 컴포넌트는 다른 시스템에서 결합되거나 또는 통합될 수 있거나, 또는 특정 기능이 생략되거나 구현되지 않을 수 있다.
또한, 다양한 실시예에서 개별적이거나 별개로 설명되고 예시된 기술, 시스템, 서브 시스템 및 방법은 본 개시의 범위를 벗어나지 않고 다른 시스템, 컴포넌트, 기술 또는 방법과 결합되거나 통합될 수 있다. 변경, 대체 및 변형의 다른 예는 당업자에 의해 확인될 수 있으며 여기에 개시된 사상 및 범위를 벗어나지 않고 행해질 수 있다.

Claims (20)

  1. 디코더에 의해 구현되는 방법으로서,
    상기 디코더에 의해, 레이어에 대한 코딩된 레이어 비디오 시퀀스(coded layer video sequence, CLVS) 및 상기 CLVS에 의해 참조되는 시퀀스 파라미터 세트(sequence parameter set, SPS)를 포함하는 비트스트림을 수신하는 단계 ― 상기 SPS는 상기 레이어가 레이어 간 예측을 사용하지 않는 경우 상기 CLVS의 네트워크 추상화 레이어(network abstraction layer, NAL) 유닛 헤더 레이어 식별자(nuh_layer_id) 값과 같은 nuh_layer_id 값을 가짐 ―; 및
    상기 디코더에 의해, 디코딩된 픽처를 생성하기 위해 상기 SPS에 기초하여 상기 CLVS로부터 코딩된 픽처를 디코딩하는 단계
    를 포함하는 디코더에 의해 구현되는 방법.
  2. 제1항에 있어서,
    GeneralLayerIdx[nuh_layer_id]는 현재 레이어 인덱스와 같은,
    디코더에 의해 구현되는 방법.
  3. 제1항 내지 제2항 중 어느 한 항에 있어서,
    비디오 파라미터 세트(video parameter set, VPS) 독립 레이어 플래그(vps_independent_layer_flag)는 대응하는 레이어가 레이어 간 예측을 사용하는지 여부를 지정하는,
    디코더에 의해 구현되는 방법.
  4. 제1항 내지 제3항 중 어느 한 항에 있어서,
    상기 레이어는 vps_independent_layer_flag[GeneralLayerIdx[nuh_layer_id]]가 1과 같은 경우 레이어 간 예측을 사용하지 않는,
    디코더에 의해 구현되는 방법.
  5. 제1항 내지 제4항 중 어느 한 항에 있어서,
    상기 SPS는 상기 SPS에 의해 참조되는 VPS에 대한 식별자(identifier, ID)의 값을 지정하는 SPS VPS 식별자(sps_video_parameter_set_id)를 포함하고, 상기 vps_independent_layer_flag[GeneralLayerIdx[nuh_layer_id]]는 sps_video_parameter_set_id가 0과 같은 경우 1과 같은 것으로 추론되는,
    디코더에 의해 구현되는 방법.
  6. 제1항 내지 제5항 중 어느 한 항에 있어서,
    상기 SPS는 상기 sps_video_parameter_set_id가 0과 같은 경우 VPS를 참조하지 않는,
    디코더에 의해 구현되는 방법.
  7. 제1항 내지 제6항 중 어느 한 항에 있어서,
    상기 CLVS는 동일한 nuh_layer_id 값을 갖는 코딩된 픽처의 시퀀스인,
    디코더에 의해 구현되는 방법.
  8. 인코더에 의해 구현되는 방법으로서,
    상기 인코더에 의해, 비트스트림의 레이어에 대한 코딩된 레이어 비디오 시퀀스(CLVS)를 인코딩하는 단계;
    상기 인코더에 의해, 상기 CLVS에 의해 참조되는 시퀀스 파라미터 세트(SPS)를 상기 비트스트림으로 인코딩하는 단계 ― 상기 SPS는 상기 레이어가 레이어 간 예측을 사용하지 않는 경우 상기 CLVS의 네트워크 추상화 레이어(NAL) 유닛 헤더 레이어 식별자(nuh_layer_id) 값과 같은 nuh_layer_id 값을 갖도록 제한됨 ―; 및
    상기 인코더에 의해, 디코더를 향한 통신을 위한 비트스트림을 저장하는 단계
    를 포함하는 인코더에 의해 구현되는 방법.
  9. 제8항에 있어서,
    GeneralLayerIdx[nuh_layer_id]는 현재 레이어 인덱스와 같은,
    인코더에 의해 구현되는 방법.
  10. 제8항 내지 제9항 중 어느 한 항에 있어서,
    비디오 파라미터 세트(VPS) 독립 레이어 플래그(vps_independent_layer_flag)는 대응하는 레이어가 레이어 간 예측을 사용하는지 여부를 지정하는,
    인코더에 의해 구현되는 방법.
  11. 제8항 내지 제10항 중 어느 한 항에 있어서,
    상기 레이어는 vps_independent_layer_flag[GeneralLayerIdx[nuh_layer_id]]가 1과 같은 경우 레이어 간 예측을 사용하지 않는,
    인코더에 의해 구현되는 방법.
  12. 제8항 내지 제11항 중 어느 한 항에 있어서,
    상기 SPS는 상기 SPS에 의해 참조되는 VPS에 대한 식별자(ID)의 값을 지정하는 SPS VPS 식별자(sps_video_parameter_set_id)를 포함하고, 상기 vps_independent_layer_flag[GeneralLayerIdx[nuh_layer_id]]는 sps_video_parameter_set_id가 0과 같은 경우 1과 같은 것으로 추론되는,
    인코더에 의해 구현되는 방법.
  13. 제8항 내지 제12항 중 어느 한 항에 있어서,
    상기 SPS는 상기 sps_video_parameter_set_id가 0과 같은 경우 VPS를 참조하지 않는,
    인코더에 의해 구현되는 방법.
  14. 제8항 내지 제13항 중 어느 한 항에 있어서,
    상기 CLVS는 동일한 nuh_layer_id 값을 갖는 코딩된 픽처의 시퀀스인,
    인코더에 의해 구현되는 방법.
  15. 비디오 코딩 장치로서,
    프로세서, 상기 프로세서에 연결된 수신기, 상기 프로세서에 연결된 메모리, 및 상기 프로세서에 연결된 전송기를 포함하며,
    상기 프로세서, 수신기, 메모리 및 전송기는 제1항 내지 제14항 중 어느 한 항의 방법을 수행하도록 구성되는,
    비디오 코딩 장치.
  16. 비일시적 컴퓨터 판독 가능 매체로서,
    비디오 코딩 장치에 의한 사용을 위한 컴퓨터 프로그램 제품을 포함하며,
    상기 컴퓨터 프로그램 제품은 프로세서에 의해 실행될 때 상기 비디오 코딩 장치로 하여금 제1항 내지 제14항 중 어느 한 항의 방법을 수행하도록 상기 비일시적 컴퓨터 판독 가능 매체에 저장된 컴퓨터 실행 가능 명령을 포함하는,
    비일시적 컴퓨터 판독 가능 매체.
  17. 디코더로서,
    레이어에 대한 코딩된 레이어 비디오 시퀀스(CLVS) 및 상기 CLVS에 의해 참조되는 시퀀스 파라미터 세트(SPS)를 포함하는 비트스트림을 수신하기 위한 수신 수단 ― 상기 SPS는 상기 레이어가 레이어 간 예측을 사용하지 않는 경우 상기 CLVS의 네트워크 추상화 레이어(NAL) 유닛 헤더 레이어 식별자(nuh_layer_id) 값과 같은 nuh_layer_id 값을 가짐 ―; 및
    디코딩된 픽처를 생성하기 위해 상기 SPS에 기초하여 상기 CLVS로부터 코딩된 픽처를 디코딩하기 위한 디코딩 수단
    을 포함하는 디코더.
  18. 제17항에 있어서,
    상기 디코더는 제1항 내지 제7항 중 어느 한 항의 방법을 수행하도록 추가로 구성되는,
    디코더.
  19. 인코더로서,
    인코딩 수단 ― 상기 인코딩 수단은,
    비트스트림의 레이어에 대한 코딩된 레이어 비디오 시퀀스(CLVS)를 인코딩하고,
    상기 CLVS에 의해 참조되는 시퀀스 파라미터 세트(SPS)를 상기 비트스트림으로 인코딩하기 위한 것이며,
    상기 SPS는 상기 레이어가 레이어 간 예측을 사용하지 않는 경우 상기 CLVS의 네트워크 추상화 레이어(NAL) 유닛 헤더 레이어 식별자(nuh_layer_id) 값과 같은 nuh_layer_id 값을 갖도록 제한됨 ―; 및
    디코더를 향한 통신을 위한 비트스트림을 저장하기 위한 저장 수단
    을 포함하는 인코더.
  20. 제19항에 있어서,
    상기 인코더는 제8항 내지 제14항 중 어느 한 항의 방법을 수행하도록 추가로 구성되는,
    인코더.
KR1020227015249A 2019-10-07 2020-10-06 서브 비트스트림 추출의 sps 오류 방지 KR20220070325A (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201962911808P 2019-10-07 2019-10-07
US62/911,808 2019-10-07
PCT/US2020/054453 WO2021022272A2 (en) 2019-10-07 2020-10-06 Sps error avoidance in sub-bitstream extraction

Publications (1)

Publication Number Publication Date
KR20220070325A true KR20220070325A (ko) 2022-05-30

Family

ID=74228311

Family Applications (7)

Application Number Title Priority Date Filing Date
KR1020227015129A KR20220071275A (ko) 2019-10-07 2020-10-06 다중 계층 비디오 스트림에서의 중복 시그널링 방지
KR1020227015249A KR20220070325A (ko) 2019-10-07 2020-10-06 서브 비트스트림 추출의 sps 오류 방지
KR1020227015181A KR20220070039A (ko) 2019-10-07 2020-10-06 Dpb 사이즈 기반의 참조 픽쳐 엔트리 제약
KR1020227015375A KR20220070538A (ko) 2019-10-07 2020-10-06 다중 레이어 비디오 비트스트림에서의 중복 시그널링의 방지
KR1020227015232A KR20220071277A (ko) 2019-10-07 2020-10-06 서브 비트스트림 추출의 오류 방지
KR1020227015331A KR20220070040A (ko) 2019-10-07 2020-10-06 다중 레이어 비디오 비트스트림에서의 중복 시그널링의 방지
KR1020227015319A KR20220069114A (ko) 2019-10-07 2020-10-06 다중 계층 비디오 스트림에서 중복 시그널링의 방지

Family Applications Before (1)

Application Number Title Priority Date Filing Date
KR1020227015129A KR20220071275A (ko) 2019-10-07 2020-10-06 다중 계층 비디오 스트림에서의 중복 시그널링 방지

Family Applications After (5)

Application Number Title Priority Date Filing Date
KR1020227015181A KR20220070039A (ko) 2019-10-07 2020-10-06 Dpb 사이즈 기반의 참조 픽쳐 엔트리 제약
KR1020227015375A KR20220070538A (ko) 2019-10-07 2020-10-06 다중 레이어 비디오 비트스트림에서의 중복 시그널링의 방지
KR1020227015232A KR20220071277A (ko) 2019-10-07 2020-10-06 서브 비트스트림 추출의 오류 방지
KR1020227015331A KR20220070040A (ko) 2019-10-07 2020-10-06 다중 레이어 비디오 비트스트림에서의 중복 시그널링의 방지
KR1020227015319A KR20220069114A (ko) 2019-10-07 2020-10-06 다중 계층 비디오 스트림에서 중복 시그널링의 방지

Country Status (12)

Country Link
US (7) US20220239934A1 (ko)
EP (7) EP4026335A4 (ko)
JP (14) JP7451691B2 (ko)
KR (7) KR20220071275A (ko)
CN (15) CN117651135A (ko)
AU (7) AU2020319904A1 (ko)
BR (12) BR122022009663A2 (ko)
CA (4) CA3156988A1 (ko)
CL (4) CL2022000859A1 (ko)
IL (1) IL292060A (ko)
MX (4) MX2022004141A (ko)
WO (7) WO2021022271A2 (ko)

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021061390A1 (en) * 2019-09-24 2021-04-01 Futurewei Technologies, Inc. Sei message for single layer ols
US20230007291A1 (en) * 2019-12-06 2023-01-05 Sharp Kabushiki Kaisha Systems and methods for signaling temporal sublayer information in video coding
KR20220115958A (ko) 2019-12-26 2022-08-19 바이트댄스 아이엔씨 코딩된 비트스트림들에서의 비디오 계층들의 시그널링에 대한 제약들
WO2021134018A1 (en) 2019-12-26 2021-07-01 Bytedance Inc. Signaling of decoded picture buffer parameters in layered video
JP2023508680A (ja) 2019-12-27 2023-03-03 バイトダンス インコーポレイテッド ビデオコーディングにおけるサブピクチャシグナリング
CN114830662B (zh) * 2019-12-27 2023-04-14 阿里巴巴(中国)有限公司 用于对图像执行逐步解码刷新处理的方法和系统
CN115244932A (zh) * 2019-12-30 2022-10-25 Lg电子株式会社 用于对dpb参数进行编码的图像解码方法及其装置
US20230016307A1 (en) * 2019-12-30 2023-01-19 Lg Electronics Inc. Method for decoding image on basis of image information including ols dpb parameter index, and apparatus therefor
WO2021137597A1 (ko) * 2019-12-30 2021-07-08 엘지전자 주식회사 Ols에 대한 dpb 파라미터를 사용하는 영상 디코딩 방법 및 그 장치
WO2021142369A1 (en) 2020-01-09 2021-07-15 Bytedance Inc. Signalling of the wavefront parallel processing
CN115868165A (zh) 2020-03-21 2023-03-28 抖音视界有限公司 参考图片重采样
US11509920B2 (en) * 2020-03-27 2022-11-22 Tencent America LLC Indication of max sublayer numbers in multilayered video stream
US11228776B1 (en) * 2020-03-27 2022-01-18 Tencent America LLC Method for output layer set mode in multilayered video stream
US11818398B2 (en) * 2020-05-06 2023-11-14 Sharp Kabushiki Kaisha Systems and methods for signaling video parameter information in video coding
US11477471B2 (en) * 2020-05-20 2022-10-18 Tencent America LLC Techniques for signaling combination of reference picture resampling and spatial scalability
CN115943627A (zh) 2020-06-08 2023-04-07 字节跳动有限公司 对编解码视频图片中条带计数的约束
US11503342B2 (en) * 2020-06-10 2022-11-15 Sharp Kabushiki Kaisha Systems and methods for signaling sequence parameter information in video coding
WO2021254379A1 (en) 2020-06-20 2021-12-23 Beijing Bytedance Network Technology Co., Ltd. Inter layer prediction with different coding block size
US20220109865A1 (en) * 2020-10-02 2022-04-07 Sharp Kabushiki Kaisha Systems and methods for signaling picture buffer information for intra random access point picture sub-bitstreams in video coding
US11765376B2 (en) * 2020-10-08 2023-09-19 Tencent America LLC Pruning methods and apparatuses for neural network based video coding

Family Cites Families (47)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008060126A1 (en) * 2006-11-17 2008-05-22 Lg Electronics Inc. Method and apparatus for decoding/encoding a video signal
WO2012122246A1 (en) * 2011-03-10 2012-09-13 Vidyo, Inc. Dependency parameter set for scalable video coding
US9420307B2 (en) * 2011-09-23 2016-08-16 Qualcomm Incorporated Coding reference pictures for a reference picture set
US10609394B2 (en) * 2012-04-24 2020-03-31 Telefonaktiebolaget Lm Ericsson (Publ) Encoding and deriving parameters for coded multi-layer video sequences
US9602827B2 (en) * 2012-07-02 2017-03-21 Qualcomm Incorporated Video parameter set including an offset syntax element
US9351005B2 (en) * 2012-09-24 2016-05-24 Qualcomm Incorporated Bitstream conformance test in video coding
US9161039B2 (en) * 2012-09-24 2015-10-13 Qualcomm Incorporated Bitstream properties in video coding
US9942545B2 (en) * 2013-01-03 2018-04-10 Texas Instruments Incorporated Methods and apparatus for indicating picture buffer size for coded scalable video
US20140218473A1 (en) * 2013-01-07 2014-08-07 Nokia Corporation Method and apparatus for video coding and decoding
US9998735B2 (en) 2013-04-01 2018-06-12 Qualcomm Incorporated Inter-layer reference picture restriction for high level syntax-only scalable video coding
KR102383006B1 (ko) 2013-04-07 2022-04-04 돌비 인터네셔널 에이비 출력 계층 세트들에서의 시그널링 변경
US9591321B2 (en) 2013-04-07 2017-03-07 Dolby International Ab Signaling change in output layer sets
US20140301477A1 (en) * 2013-04-07 2014-10-09 Sharp Laboratories Of America, Inc. Signaling dpb parameters in vps extension and dpb operation
US9467700B2 (en) * 2013-04-08 2016-10-11 Qualcomm Incorporated Non-entropy encoded representation format
EP3020202B1 (en) 2013-07-10 2019-09-04 Sharp Kabushiki Kaisha Scaling list signaling and parameter sets activation
EP3022921A4 (en) * 2013-07-14 2017-03-15 Sharp Kabushiki Kaisha Signaling indications and constraints
KR20150009424A (ko) 2013-07-15 2015-01-26 한국전자통신연구원 시간적 서브 레이어 정보에 기반한 계층간 예측을 이용한 영상 부, 복호화 방법 및 그 장치
US9794579B2 (en) * 2013-07-15 2017-10-17 Qualcomm Incorporated Decoded picture buffer operations for video coding
JPWO2015053330A1 (ja) 2013-10-10 2017-03-09 シャープ株式会社 画像復号装置
US9819941B2 (en) * 2013-10-10 2017-11-14 Qualcomm Incorporated Signaling for sub-decoded picture buffer (sub-DPB) based DPB operations in video coding
KR101869882B1 (ko) * 2013-10-11 2018-06-25 브이아이디 스케일, 인크. Hevc 확장을 위한 하이 레벨 구문
WO2015052942A1 (en) * 2013-10-11 2015-04-16 Sharp Kabushiki Kaisha Signaling information for coding
US10187662B2 (en) * 2013-10-13 2019-01-22 Sharp Kabushiki Kaisha Signaling parameters in video parameter set extension and decoder picture buffer operation
US10264272B2 (en) * 2013-10-15 2019-04-16 Qualcomm Incorporated Device and method for scalable coding of video information
CN105874804A (zh) * 2014-01-02 2016-08-17 Vid拓展公司 针对hevc扩展的子比特流提取过程
US20170026655A1 (en) * 2014-01-02 2017-01-26 Sharp Kabushiki Kaisha Parameter set signaling
US10250895B2 (en) * 2014-03-14 2019-04-02 Sharp Kabushiki Kaisha DPB capacity limits
US20170019673A1 (en) * 2014-03-14 2017-01-19 Sharp Kabushiki Kaisha Image decoding device, image decoding method, recoding medium, image coding device, and image coding method
KR102073030B1 (ko) * 2014-03-14 2020-02-04 후아웨이 테크놀러지 컴퍼니 리미티드 이미지 디코딩 장치
US9866869B2 (en) * 2014-03-17 2018-01-09 Qualcomm Incorporated POC value design for multi-layer video coding
JP2015195543A (ja) 2014-03-26 2015-11-05 シャープ株式会社 画像復号装置、画像符号化装置
US9641851B2 (en) * 2014-04-18 2017-05-02 Qualcomm Incorporated Conformance window information in multi-layer coding
US9794626B2 (en) * 2014-05-01 2017-10-17 Qualcomm Incorporated Partitioning schemes in multi-layer video coding
US9699480B2 (en) * 2014-06-13 2017-07-04 Sharp Laboratories Of America, Inc. Level limits
JP2017522792A (ja) * 2014-06-18 2017-08-10 シャープ株式会社 スライス・タイプおよびデコーダ適合性
US20150373343A1 (en) * 2014-06-20 2015-12-24 Qualcomm Incorporated Representation format update in multi-layer codecs
US9918091B2 (en) * 2014-06-20 2018-03-13 Qualcomm Incorporated Systems and methods for assigning a minimum value to a syntax structure in a parameter set
US9756355B2 (en) * 2014-06-20 2017-09-05 Qualcomm Incorporated Value ranges for syntax elements in video coding
US10432951B2 (en) * 2014-06-24 2019-10-01 Qualcomm Incorporated Conformance and inoperability improvements in multi-layer video coding
US9538137B2 (en) * 2015-04-09 2017-01-03 Microsoft Technology Licensing, Llc Mitigating loss in inter-operability scenarios for digital video
EP3323243B1 (en) * 2015-07-16 2022-01-19 Dolby Laboratories Licensing Corporation Signal reshaping and decoding for hdr signals
US11979611B2 (en) * 2019-09-06 2024-05-07 Sharp Kabushiki Kaisha Systems and methods for signaling temporal sub-layer information in video coding
US11375223B2 (en) * 2019-09-20 2022-06-28 Tencent America LLC Method for signaling output layer set with sub-picture
US11159827B2 (en) * 2019-09-23 2021-10-26 Tencent America LLC Method for signaling output layer set with sub picture
BR112022005469A2 (pt) * 2019-09-24 2022-06-14 Huawei Tech Co Ltd Codificador, decodificador e métodos correspondentes
EP4140128A4 (en) * 2020-05-22 2023-08-02 ByteDance Inc. RESTRICTIONS ON IMAGE TYPES IN VIDEO BITSTREAM PROCESSING
US20220109865A1 (en) * 2020-10-02 2022-04-07 Sharp Kabushiki Kaisha Systems and methods for signaling picture buffer information for intra random access point picture sub-bitstreams in video coding

Also Published As

Publication number Publication date
BR122022009671A2 (pt) 2022-07-12
BR122022009673A2 (pt) 2022-07-12
AU2020319903A1 (en) 2022-05-19
JP2022551137A (ja) 2022-12-07
KR20220070039A (ko) 2022-05-27
CA3156988A1 (en) 2021-02-04
JP2024069331A (ja) 2024-05-21
MX2022004139A (es) 2022-04-26
CN114514749A (zh) 2022-05-17
KR20220069114A (ko) 2022-05-26
CN114514751B (zh) 2024-03-15
KR20220071275A (ko) 2022-05-31
KR20220071277A (ko) 2022-05-31
CN114556948A (zh) 2022-05-27
EP4032292A4 (en) 2022-12-21
BR122022009683A2 (pt) 2022-07-12
EP4032295A4 (en) 2022-11-30
CN114556947A (zh) 2022-05-27
JP2024019538A (ja) 2024-02-09
CN115361558B (zh) 2023-07-11
EP4032296A4 (en) 2022-11-09
KR20220070040A (ko) 2022-05-27
BR112022006429A2 (pt) 2022-06-28
AU2020320296A1 (en) 2022-05-05
CN117979011A (zh) 2024-05-03
JP2022552656A (ja) 2022-12-19
EP4026335A4 (en) 2022-11-09
JP7419513B2 (ja) 2024-01-22
JP2022552821A (ja) 2022-12-20
KR20220070538A (ko) 2022-05-31
BR112022006422A2 (pt) 2022-06-28
WO2021022270A3 (en) 2021-03-04
WO2021022272A3 (en) 2021-03-11
CN117651135A (zh) 2024-03-05
JP7439249B2 (ja) 2024-02-27
CN114556946A (zh) 2022-05-27
CN114845118A (zh) 2022-08-02
US20220239934A1 (en) 2022-07-28
AU2020323624A1 (en) 2022-04-28
CN117395428A (zh) 2024-01-12
EP4032294A2 (en) 2022-07-27
CN114514749B (zh) 2023-10-20
WO2021022272A2 (en) 2021-02-04
JP2022551138A (ja) 2022-12-07
CN114514751A (zh) 2022-05-17
JP7427774B2 (ja) 2024-02-05
CA3156987A1 (en) 2021-02-04
CA3156990A1 (en) 2021-02-04
JP2024040195A (ja) 2024-03-25
AU2020322053A1 (en) 2022-05-05
BR112022006389A2 (pt) 2022-06-28
CN114556947B (zh) 2023-10-20
WO2021022273A1 (en) 2021-02-04
MX2022004141A (es) 2022-04-26
CL2022000858A1 (es) 2022-11-25
AU2020321174A1 (en) 2022-04-28
JP7451691B2 (ja) 2024-03-18
CL2022000859A1 (es) 2022-11-25
WO2021022269A3 (en) 2021-03-04
JP2022551485A (ja) 2022-12-09
US20220232239A1 (en) 2022-07-21
JP2022552295A (ja) 2022-12-15
CL2022000860A1 (es) 2022-11-25
CN115580730A (zh) 2023-01-06
EP4026334A2 (en) 2022-07-13
EP4032293A2 (en) 2022-07-27
EP4032294A4 (en) 2022-11-30
CN117528100A (zh) 2024-02-06
EP4032293A4 (en) 2022-11-30
IL292060A (en) 2022-06-01
AU2020321996A1 (en) 2022-04-28
JP2024036348A (ja) 2024-03-15
CN114845118B (zh) 2023-03-24
WO2021022271A2 (en) 2021-02-04
US20220232257A1 (en) 2022-07-21
BR112022006419A2 (pt) 2022-06-28
MX2022004138A (es) 2022-04-26
JP7404522B2 (ja) 2023-12-25
WO2021022269A2 (en) 2021-02-04
CN117478892A (zh) 2024-01-30
US20220232259A1 (en) 2022-07-21
MX2022004140A (es) 2022-04-26
AU2020319904A1 (en) 2022-04-28
WO2021022271A3 (en) 2021-03-04
WO2021022270A2 (en) 2021-02-04
BR112022006393A2 (pt) 2022-06-28
EP4026334A4 (en) 2022-12-28
EP4032295A2 (en) 2022-07-27
JP7423764B2 (ja) 2024-01-29
JP7413518B2 (ja) 2024-01-15
JP2024036399A (ja) 2024-03-15
CN114514750B (zh) 2023-10-20
BR122022009663A2 (pt) 2022-07-12
US20220232258A1 (en) 2022-07-21
JP2022552822A (ja) 2022-12-20
US20220239938A1 (en) 2022-07-28
JP2024063033A (ja) 2024-05-10
WO2021022267A2 (en) 2021-02-04
CN115580730B (zh) 2023-07-11
EP4032296A2 (en) 2022-07-27
CN114514750A (zh) 2022-05-17
WO2021022267A3 (en) 2021-03-11
WO2021022268A2 (en) 2021-02-04
BR122022009696A2 (pt) 2022-07-12
CL2022000857A1 (es) 2022-11-25
BR112022006392A2 (pt) 2022-06-28
JP2024038112A (ja) 2024-03-19
US20220232240A1 (en) 2022-07-21
BR112022006421A2 (pt) 2022-06-28
CA3156989A1 (en) 2021-02-04
WO2021022268A3 (en) 2021-03-04
CN115361558A (zh) 2022-11-18
EP4032292A2 (en) 2022-07-27
CN114586365A (zh) 2022-06-03
EP4026335A1 (en) 2022-07-13

Similar Documents

Publication Publication Date Title
JP7439249B2 (ja) サブビットストリーム抽出におけるエラー回避
KR20220065055A (ko) Sei 메시지들에 대한 시간 식별자 제약들
KR20220065870A (ko) 시퀀스-레벨 hrd 파라미터
KR20220065044A (ko) 공간 및 snr 확장성을 위한 ols
KR20220063278A (ko) 모든 계층에 대한 스케일러블 네스팅 sei 메시지
CN118118681A (zh) 避免多层视频码流中的冗余指示
CN118158424A (zh) 避免多层视频码流中的冗余指示