KR101762521B1 - 에러에 강인한 디코딩 유닛 연관 - Google Patents

에러에 강인한 디코딩 유닛 연관 Download PDF

Info

Publication number
KR101762521B1
KR101762521B1 KR1020157010810A KR20157010810A KR101762521B1 KR 101762521 B1 KR101762521 B1 KR 101762521B1 KR 1020157010810 A KR1020157010810 A KR 1020157010810A KR 20157010810 A KR20157010810 A KR 20157010810A KR 101762521 B1 KR101762521 B1 KR 101762521B1
Authority
KR
South Korea
Prior art keywords
decoding
unit
units
decoding unit
sei message
Prior art date
Application number
KR1020157010810A
Other languages
English (en)
Other versions
KR20150063116A (ko
Inventor
예-쿠이 왕
Original Assignee
퀄컴 인코포레이티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 퀄컴 인코포레이티드 filed Critical 퀄컴 인코포레이티드
Publication of KR20150063116A publication Critical patent/KR20150063116A/ko
Application granted granted Critical
Publication of KR101762521B1 publication Critical patent/KR101762521B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/188Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a video data packet, e.g. a network abstraction layer [NAL] unit
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/40Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video transcoding, i.e. partial or full decoding of a coded input stream followed by re-encoding of the decoded output stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
    • H04N19/45Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder performing compensation of the inverse transform mismatch, e.g. Inverse Discrete Cosine Transform [IDCT] mismatch
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/65Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using error resilience
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
    • H04N19/89Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression involving methods or arrangements for detection of transmission errors at the decoder
    • H04N19/895Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression involving methods or arrangements for detection of transmission errors at the decoder in combination with error concealment

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Detection And Prevention Of Errors In Transmission (AREA)
  • Error Detection And Correction (AREA)
  • Physics & Mathematics (AREA)
  • Discrete Mathematics (AREA)
  • General Physics & Mathematics (AREA)

Abstract

액세스 유닛의 디코딩 유닛들에 대한 디코딩 유닛 식별자들을 시그널링하기 위한 기술들이 설명된다. 비디오 디코더는 디코딩 유닛 식별자들에 기초하여, 어떤 NAL (network abstraction layer) 유닛들이 어떤 디코딩 유닛들과 연관되는지를 결정한다. 또한, 액세스 유닛에서 SEI (supplemental enhancement information) 메세지들의 하나 이상의 카피들을 포함하기 위한 기술들이 설명된다.

Description

에러에 강인한 디코딩 유닛 연관{ERROR RESILIENT DECODING UNIT ASSOCIATION}
본 출원은 2012 년 9 월 28 일자로 출원된 미국 가출원 제 61/707,759 호의 이점을 청구하며, 그 전체 내용은 참조에 의해 본원에 통합된다.
본 개시물은 일반적으로 비디오 데이터를 프로세싱하는 것, 및 더 상세하게는, 하나 이상의 비디오 코딩 표준들에 적용가능한 기술들에 관한 것이다.
디지털 비디오 성능들은, 디지털 텔레비전, 디지털 다이렉트 브로드캐스트 시스템들, 무선 브로드캐스트 시스템들, PDA들 (personal digital assistants), 랩탑 또는 데스크탑 컴퓨터들, 태블릿 컴퓨터들, 이북 리더들, 디지털 카메라들, 디지털 레코딩 디바이스들, 디지털 미디어 플레이어들, 비디오 게이밍 디바이스들, 비디오 게임 콘솔들, 셀룰러 또는 위성 라디오 텔레폰들, 소위 "스마트폰들", 화상 원격회의 디바이스들, 비디오 스트리밍 디바이스들, 트랜스코더들, 라우터들, 또는 다른 네트워크 디바이스들 등등을 포함하는 광범위한 디바이스들에 통합될 수 있다. 디지털 비디오 디바이스들은 MPEG-2, MPEG-4, ITU-T H.263, ITU-T H.264/MPEG-4, Part 10, AVC (Advanced Video Coding) 에 의해 정의된 표준들, 현재 개발 하에 있는 HEVC (High Efficiency Video Coding) 표준, 전매 특허 표준들, VP8 과 같은 오픈 비디오 압축 포맷들, 및 이러한 표준들, 기술들 또는 포맷들의 확장물들에서 설명된 것과 같은 비디오 압축 기술들을 구현한다. 비디오 디바이스들은 이러한 비디오 압축 기술들을 구현함으로써 디지털 비디오 정보를 보다 효율적으로 송신하고, 수신하고, 인코딩하고, 디코딩하고, 및/또는 저장할 수도 있다.
비디오 압축 기술들은 비디오 시퀀스들에 고유한 리던던시를 감소시키거나 제거하기 위해 공간적 (인트라-픽처) 예측 및/또는 시간적(인터-픽처) 예측을 포함할 수도 있다. 블록 기반의 비디오 코딩을 위해, 비디오 슬라이스(즉, 비디오 프레임 또는 비디오 프레임의 일부)는 비디오 블록들로 파티셔닝될 수도 있으며, 비디오 블록들은 트리블록들, 코딩 유닛들(CU들) 및/또는 코딩 노드들로 또한 칭해질 수도 있다. 픽처의 인트라 코딩된 (I) 슬라이스 내의 비디오 블록들은 동일한 픽처 내의 이웃하는 블록들 내의 참조 샘플들에 대한 공간 예측을 이용하여 인코딩된다. 픽처의 인터 코딩된 (P 또는 B) 슬라이스 내의 비디오 블록들은 동일한 픽처의 이웃하는 블록들 내의 참조 샘플들에 대한 공간 예측, 또는 다른 참조 픽처들 내의 참조 샘플들에 대한 시간 예측을 이용할 수도 있다. 픽처들은 프레임들로 지칭될 수도 있고, 참조 픽처들은 참조 프레임들로 지칭될 수도 있다.
공간 또는 시간 예측은 코딩될 블록에 대한 예측 블록을 발생한다. 잔차 데이터는 코딩될 원래의 블록과 예측 블록 사이의 픽셀 차이들을 나타낸다. 인터 코딩된 블록은 예측 블록을 형성하는 참조 샘플들의 블록을 가리키는 모션 벡터, 및 코딩된 블록과 예측 블록 사이의 차이를 나타내는 잔차 데이터에 따라 인코딩된다. 인트라 코딩된 블록은 인트라 코딩 모드와 잔차 데이터에 따라 인코딩된다. 추가의 압축을 위해, 잔차 데이터는 픽셀 도메인에서 변환 도메인으로 변환되어, 잔차 변환 계수들을 발생할 수도 있고, 그 후 이들은 양자화될 수도 있다. 초기에 2 차원 어레이로 배열된 양자화된 변환 계수들은 변환 계수들의 1 차원 벡터를 생성하기 위해 스캔될 수도 있고, 더 많은 압축을 달성하기 위해 엔트로피 코딩이 적용될 수도 있다.
일반적으로, 본 개시물은 액세스 유닛 내의 디코딩 유닛들을 프로세싱하기 위한 기술들을 설명한다. 액세스 유닛은 동일한 시간 인스턴스 내의 하나 이상의 픽처들의 비디오 데이터를 지칭한다. 예를 들어, 액세스 유닛들의 디코딩은 하나 이상의 디코딩된 픽처들을 발생하며, 여기서 디코딩된 픽처들 모두는 동일한 시간 인스턴스에 대한 것이다.
액세스 유닛은 하나 이상의 디코딩 유닛들을 포함한다. 더 상세히 설명되는 것과 같이, 몇몇 예들에서, 본 개시물에서 설명된 기술들은 액세스 유닛 내의 디코딩 유닛들의 각각을 고유하게 식별한다. 몇몇 예들에서, 그 기술들은 메세지의 하나 이상의 카피들이 액세스 유닛 내에 삽입되게 한다.
일 예에서, 본 개시물은 비디오 데이터를 디코딩하는 방법을 설명한다. 그 방법은, 액세스 유닛에서의 각각의 디코딩 유닛에 대한 고유 식별자를 디코딩하는 단계를 포함한다. 이러한 예에서, 하나의 디코딩 유닛에 대한 식별자는 액세스 유닛에서의 임의의 다른 디코딩 유닛에 대한 식별자와 상이하다. 그 방법은 또한, 액세스 유닛에서의 각각의 디코딩 유닛에 대한 고유 식별자에 기초하여 어떤 NAL (network access layer) 유닛들이 어떤 디코딩 유닛들과 연관되는지를 결정하는 단계, 및 적어도 하나의 픽처를 복원하기 위해, 그 결정에 기초하여 액세스 유닛에서의 디코딩 유닛들의 각각의 NAL 유닛들을 디코딩하는 단계를 포함한다.
다른 예에서, 본 개시물은 비디오 데이터를 인코딩하는 방법을 설명한다. 그 방법은, 액세스 유닛에서 각각의 디코딩 유닛에 대한 고유 식별자를 결정하는 단계를 포함한다. 이러한 예에서, 하나의 디코딩 유닛에 대한 식별자는 액세스 유닛에서의 임의의 다른 디코딩 유닛에 대한 식별자와 상이하다. 그 방법은 또한, 어떤 NAL (network access layer) 유닛들이 액세스 유닛의 어떤 디코딩 유닛들과 연관되는지를 결정하는 단계, 및 어떤 NAL 유닛들이 액세스 유닛의 어떤 디코딩 유닛들과 연관되는지를 표시하기 위해, 대응하는 디코딩 유닛들에서 각각의 고유 식별자를 출력을 위해 생성하는 단계를 포함한다.
또 다른 예에서, 본 개시물은 비디오 데이터를 디코딩하는 디바이스를 설명한다. 그 디바이스는 액세스 유닛에서의 각각의 디코딩 유닛에 대한 고유 식별자를 디코딩하도록 구성된 비디오 디코더를 포함한다. 이러한 예에서, 하나의 디코딩 유닛에 대한 식별자는 액세스 유닛에서의 임의의 다른 디코딩 유닛에 대한 식별자와 상이하다. 비디오 디코더는 액세스 유닛에서의 각각의 디코딩 유닛에 대한 고유 식별자에 기초하여, 어떤 NAL (network access layer) 유닛들이 어떤 디코딩 유닛들과 연관되는지를 결정하고, 적어도 하나의 픽처를 복원하기 위해, 결정에 기초하여 액세스 유닛에서의 디코딩 유닛들 각각의 NAL 유닛들을 디코딩하도록 구성된다.
또 다른 예에서, 본 개시물은 비디오 데이터를 인코딩하는 디바이스를 설명한다. 그 디바이스는, 액세스 유닛에서의 각각의 디코딩 유닛에 대한 고유 식별자를 결정하도록 구성된 비디오 인코더를 포함한다. 이러한 예에서, 하나의 디코딩 유닛에 대한 식별자는 액세스 유닛에서의 임의의 다른 디코딩 유닛에 대한 식별자와 상이하다. 비디오 인코더는 어떤 NAL (network access layer) 유닛들이 액세스 유닛의 어떤 디코딩 유닛들과 연관되는지를 결정하고, 어떤 NAL 유닛들이 액세스 유닛의 어떤 디코딩 유닛들과 연관되는지를 표시하기 위해, 대응하는 디코딩 유닛들에서 각각의 고유 식별자를 출력을 위해 생성하도록 구성된다.
또 다른 예에서, 본 개시물은 저장된 명령들을 가지는 컴퓨터 판독가능 저장 매체를 설명하고, 그 명령들은 실행될 경우, 비디오 데이터를 디코딩하는 디바이스의 하나 이상의 프로세서들로 하여금, 액세스 유닛에서의 각각의 디코딩 유닛에 대한 고유 식별자를 디코딩하게 하는 것으로서, 여기서 하나의 디코딩 유닛에 대한 식별자는 액세스 유닛에서의 임의의 다른 디코딩 유닛에 대한 식별자와 상이한, 고유 식별자를 디코딩하게 하고, 액세스 유닛에서의 각각의 디코딩 유닛에 대한 고유 식별자에 기초하여, 어떤 NAL (network access layer) 유닛들이 어떤 디코딩 유닛들과 연관되는지를 결정하게 하며, 적어도 하나의 픽처를 복원하기 위해, 결정에 기초하여 액세스 유닛에서의 디코딩 유닛들 각각의 NAL 유닛들을 디코딩하게 한다.
또 다른 예에서, 본 개시물은 비디오 데이터를 디코딩하는 디바이스를 설명하며, 그 디바이스는 액세스 유닛에서의 각각의 디코딩 유닛에 대한 고유 식별자를 디코딩하는 수단으로서, 하나의 디코딩 유닛에 대한 식별자는 액세스 유닛에서의 임의의 다른 디코딩 유닛에 대한 식별자와 상이한, 고유 식별자를 디코딩하는 수단, 액세스 유닛에서의 각각의 디코딩 유닛에 대한 고유 식별자에 기초하여, 어떤 NAL (network access layer) 유닛들이 어떤 디코딩 유닛들과 연관되는지를 결정하는 수단, 및 적어도 하나의 픽처를 복원하기 위해, 결정에 기초하여 액세스 유닛에서의 디코딩 유닛들 각각의 NAL 유닛들을 디코딩하는 수단을 포함한다.
또 다른 예에서, 본 개시물은 비디오 데이터를 코딩하는 방법을 설명하며, 그 방법은 액세스 유닛에서 보충 강화 정보 (supplemental enhancement information; SEI) 메세지를 코딩하는 단계를 포함한다. 이러한 예에서, 액세스 유닛은 적어도 하나의 픽처를 복원하기 위한 비디오 데이터를 포함하며, SEI 메세지는 비디오 데이터의 특징을 정의한다. 그 방법은 또한, 액세스 유닛에서 SEI 메세지의 카피를 코딩하는 단계를 포함한다.
또 다른 예에서, 본 개시물은 비디오 데이터를 코딩하는 디바이스를 설명하며, 그 디바이스는 액세스 유닛에서 SEI (supplemental enhancement information) 메세지를 코딩하도록 구성된 비디오 코더를 포함한다. 이러한 예에서, 액세스 유닛은 적어도 하나의 픽처를 복원하기 위한 비디오 데이터를 포함하며, SEI 메세지는 비디오 데이터의 특징을 정의한다. 비디오 코더는 또한, 액세스 유닛에서 SEI 메세지의 카피를 코딩하도록 구성된다.
또 다른 예에서, 본 개시물은 저장된 명령들을 가지는 컴퓨터 판독가능 저장 매체를 설명하고, 그 명령들은 비디오 데이터를 코딩하는 디바이스의 하나 이상의 프로세서들에 의해 실행될 경우, 하나 이상의 프로세서들로 하여금, 액세스 유닛에서 SEI (supplemental enhancement information) 메세지를 코딩하게 한다. 이러한 예에서, 액세스 유닛은 적어도 하나의 픽처를 복원하기 위한 비디오 데이터를 포함하며, SEI 메세지는 비디오 데이터의 특징을 정의한다. 그 명령들은 또한, 하나 이상의 프로세서들로 하여금 액세스 유닛에서 SEI 메세지의 카피를 코딩하게 한다.
또 다른 예에서, 본 개시물은 비디오 데이터를 코딩하는 디바이스를 설명하며, 그 디바이스는 액세스 유닛에서 SEI (supplemental enhancement information) 메세지를 코딩하는 수단을 포함한다. 이러한 예에서, 액세스 유닛은 적어도 하나의 픽처를 복원하기 위한 비디오 데이터를 포함하며, SEI 메세지는 비디오 데이터의 특징을 정의한다. 그 디바이스는 또한, 액세스 유닛에서 SEI 메세지의 카피를 코딩하는 수단을 포함한다.
하나 이상의 실시예들의 상세들은 첨부된 도면과 하기의 설명으로부터 설명된다. 다른 특징들, 목적들 및 장점들은 하기의 설명 및 도면들, 및 하기의 특허청구범위로부터 명확해질 것이다.
도 1 은 본 개시물에서 설명된 기술들을 활용할 수도 있는 예시적인 비디오 인코딩 및 디코딩 시스템을 도시한 블록 다이어그램이다.
도 2a 및 도 2b 는 본 개시물에서 설명된 기술들에 따라 디코딩 유닛 식별자들을 포함하는 액세스 유닛들의 예들을 도시하는 개념 다이어그램들이다.
도 3 는 본 개시물에서 설명된 기술들을 구현할 수도 있는 예시적인 비디오 인코더를 도시한 블록 다이어그램이다.
도 4 는 본 개시에서 설명된 기술들을 구현할 수도 있는 예시적인 비디오 디코더를 도시한 블록 다이어그램이다.
도 5 는 본 개시물에 설명된 하나 이상의 예들에 따라 비디오 데이터를 인코딩하는 일 예를 도시하는 플로우차트이다.
도 6 은 본 개시물에 설명된 하나 이상의 예들에 따라 비디오 데이터를 디코딩하는 일 예를 도시하는 플로우차트이다.
도 7 은 본 개시물에 설명된 하나 이상의 예들에 따라 비디오 데이터를 코딩하는 일 예를 도시하는 플로우차트이다.
본 개시물은 비디오 코딩에서 에러에 강인한 디코딩 유닛 시그널링 및 연관을 위한 다양한 방법들을 설명한다. 멀티-뷰 코딩 또는 스케일러블 비디오 코딩에서, 다수의 픽처들 또는 층들은 소정의 시간 인스턴스 동안 코딩될 수도 있다. 동일한 시간 인스턴스의 픽처들은 단일 액세스 유닛 (AU) 에서 코딩된다. 예를 들어, 액세스 유닛들의 디코딩은, 멀티-뷰 코딩이 사용되지 않을 경우에 대하여 하나의 픽처를 발생하거나, 멀티-뷰 코딩을 위해 동일한 시간 인스턴스의 복수의 픽처들을 발생한다.
디코딩 유닛 (DU) 은 일반적으로, 액세스 유닛의 서브세트 또는 액세스 유닛 전체를 지칭한다. 예를 들어, 서브-픽처 레벨에서의 동작이 허용된다면, 디코딩 유닛은 액세스 유닛의 서브세트이고, 액세스 유닛은 복수의 디코딩 유닛들을 포함한다. 액세스 유닛이 하나 이상의 픽처들에 대한 비디오 데이터를 포함하기 때문에, 디코딩 유닛 레벨에서의 동작은 서브-픽처 레벨에서의 동작으로 간주될 수 있다. 서브-픽처 레벨에서의 동작이 허용되지 않는다면, 디코딩 유닛은 액세스 유닛 전체이다.
디코딩 유닛은 하나 이상의 NAL (network abstraction layer) 유닛들을 포함한다. 예를 들어, 디코딩 유닛은 하나 이상의 VCL (video coding layer) NAL 유닛들 및 연관된 비-VCL NAL 유닛들을 포함한다. NAL 유닛의 일 예는 픽처의 슬라이스이다 (즉, NAL 유닛에 캡슐화된 데이터는 픽처의 슬라이스를 디코딩하는데 필요한 비디오 데이터를 포함한다). NAL 유닛의 다른 예는 파라미터 세트이다. 예를 들어, NAL 유닛은 픽처 파라미터 세트, 시퀀스 파라미터 세트, 및 파라미터 세트의 다른 예들의 비디오 데이터를 포함할 수도 있다. 또 다른 예로서, NAL 유닛은 버퍼 (예컨대, 코딩된 픽처 버퍼) 로부터 디코딩 유닛들의 프로세싱 및 제거 시간들을 결정하기 위해 사용된 SEI (supplemental enhancement information) 메세지들과 같은 추가의 정보를 포함할 수도 있다.
본 개시물에 설명된 일부 예들에서, 비디오 인코더는 액세스 유닛 내의 각 디코딩 유닛에 대한 식별자를 출력을 위해 생성하고, 그 식별자를 코딩된 비트스트림에서 출력 (예컨대, 시그널링) 한다. (DU 식별자들로 지칭되는) 각각의 식별자는 액세스 유닛 내의 디코딩 유닛을 고유하게 식별한다. 비디오 디코더는, 코딩된 비트스트림으로부터, 액세스 유닛 내의 디코딩 유닛들에 대한 식별자들을 수신한다. 비디오 디코더는 디코딩 유닛 식별자들에 기초하여, 어떤 NAL 유닛들이 어떤 디코딩 유닛들과 연관되는지를 결정한다.
이러한 방식으로, 본 개시물에 설명된 기술들은, NAL 유닛들이 정확한 디코딩 유닛들과 연관되는 것을 보장할 수도 있다. 예를 들어, 비디오 인코더는 각각의 디코딩 유닛들이 포함하는 NAL 유닛들의 수를 표시하는 정보 (예컨대, 출력 정보) 를 시그널링하는 것이 가능하다. 디코딩 유닛 식별자들을 활용하는 것보다, 비디오 디코더는, 비디오 디코더가 NAL 유닛들을 수신한 순서 및 각각의 디코딩 유닛이 포함하는 NAL 유닛들의 개수를 표시하는 시그널링된 정보에 기초하여, NAL 유닛들의 디코딩 유닛들과의 연관을 결정할 수도 있다.
그러나, 이 경우, NAL 유닛들이 정확한 디코딩 유닛들과 연관되는 것을 보장하는 것은 에러에 강인하지 않다. 예를 들어, NAL 유닛이 (예컨대, 비디오 인코더로부터 비디오 디코더로의, 비디오 인코더로부터 중간 저장 디바이스로의, 또는 중간 저장 디바이스로부터 비디오 디코더로의) 송신 동안 손실된다면, 비디오 디코더는 어떤 NAL 유닛들이 어떤 디코딩 유닛들과 연관되는지를 결정할 수 없을 수도 있다.
NAL 유닛들이 정확한 디코딩 유닛들과 연관되는 것을 보장하는 가능한 이슈들의 다른 예로서, 비디오 인코더는 2 개 타입들의 메세지들 간에 디코딩 유닛과 연관된 NAL 유닛들을 시그널링하는 것이 가능할 수도 있다. 예를 들어, 비디오 인코더는 특정 타입의 SEI (supplemental enhancement information) 메세지의 제 1 인스턴스, 그 다음에 제 1 디코딩 유닛에 대한 하나 이상의 NAL 유닛들, 그 다음에 특정 타입의 SEI 메세지의 제 2 인스턴스, 그 다음에 제 2 디코딩 유닛의 하나 이상의 NAL 유닛들, 등등을 시그널링할 수도 있다. 비디오 디코더는 상기 타입의 SEI 메세지의 제 1 인스턴스 이후 및 상기 타입의 SEI 메세지의 제 2 인스턴스 이전에 수신된 모든 NAL 유닛이 제 1 디코딩 유닛과 연관되고, 상기 타입의 SEI 메세지의 제 2 인스턴스 이후 및 상기 타입의 SEI 메세지의 제 3 인스턴스 이전에 수신된 모든 NAL 유닛이 제 2 디코딩 유닛과 연관되는 등을 결정할 수도 있다.
상기 타입의 SEI 메세지는 인코딩 및 디코딩의 적절한 타이밍에 관련된 추가의 정보를 포함할 수도 있다. 그러나, 상기 타입의 SEI 메세지들의 위치들이 어떤 NAL 유닛들이 어떤 디코딩 유닛들과 연관되는지를 표시하기 때문에, 비디오 인코더가 상기 타입의 SEI 메세지의 다수의 카피들을 디코딩 유닛 내에 포함하게 하는 것은 가능하지 않을 수도 있다. 그러므로, 이들 SEI 메세지들 중 하나가 송신시 손실되는 경우에도, 비디오 디코더는 어떤 NAL 유닛들이 어떤 디코딩 유닛들과 연관되는지를 결정할 수 없을 수도 있고, 손실된 SEI 메세지에 의해 운반되는 추가의 정보를 결정할 수 없을 수도 있다.
본 개시물에 설명된 기술들에서, 비디오 인코더는 어떤 NAL 유닛들이 어떤 디코딩 유닛들과 연관되는지를 나타내는 (예컨대, SEI 메세지 또는 슬라이스 헤더에서 디코딩 유닛 식별자들을 갖는) 정보를 출력을 위해 생성하고, 그 정보를 출력할 수도 있다. 이러한 방식으로, NAL 이 송신시 손실되는 경우에도, 비디오 디코더는 어떤 NAL 유닛들이 어떤 디코딩 유닛들과 연관되는지를 결정할 수 있을 수도 있다. 또한, 비디오 디코더는 어떤 NAL 유닛들이 어떤 디코딩 유닛들과 연관되는지를 결정하기 위해 SEI 메세지들의 부분들에 의존할 필요가 없을 수도 있기 때문에, 비디오 인코더는 디코딩 유닛에 SEI 메세지의 하나 이상의 카피들을 출력을 위해 생성하고, 그 카피들을 출력할 수 있다. 그러한 기술들은, 전술된 몇몇 다른 기술들과 비교하여 비디오 디코더가 어떤 NAL 유닛들이 어떤 디코딩 유닛들과 연관되는지를 결정하는, 비교적 더 에러에 강인한 방식을 위해 제공할 수도 있다.
또한, 전술된 다른 기술들 중 일부에서, 특정 타입의 SEI 메세지들은 반복되는 것이 금지된다 (이는 본 개시물에서 설명된 기술들이 처리할 수도 있는 문제이다). 일부 경우에, 이들 다른 기술들에서, 특정 SEI 메세지 타입들이 반복되는 것이 금지될 뿐만 아니라, 일반적으로 SEI 메세지들은 액세스 유닛에서의 제 1 VCL NAL 유닛 이후 및 액세스 유닛에서의 최종 NAL 유닛 이전에 그 액세스 유닛에서 반복되는 것이 제한된다.
예를 들어, 이들 다른 기술들 중 일부에서, 비디오 디코더는 SEI 메세지들의 위치에 기초하여 액세스 유닛의 시작부를 결정할 것이다. 예를 들어, SEI 메세지들은 액세스 유닛의 시작부에 위치될 것이며, 비디오 디코더가 SEI 메세지를 프로세싱하고 있는 것으로 결정한 후에, 비디오 디코더는 그 비디오 디코더가 새로운 액세스 유닛을 프로세싱하고 있는 것으로 결정할 것이다. 따라서, 동일한 액세스 유닛 내에 SEI 메세지들의 다수의 카피들을 포함하는데 제한이 있다.
에러-유발 환경에서, SEI 메세지가 손실될 경우, SEI 메세지들의 다른 카피들이 사용가능하도록 SEI 메세지들의 카피들을 포함하는 것은 유익할 수도 있다. 일부 예들에서, 기술들은 다양한 타입들의 SEI 메세지들이 액세스 유닛 내에서 반복되게 하며, 이는 또한 에러 강인성을 허용한다. 일 예로서, 그 기술들은 모든 SEI 메세지들에 대하여 다음을 명시할 수도 있다: (1) SEI 메세지에서 운반되는 정보가 적용되는 적용 범위; (2) SEI 메세지가 존재할 수 있는 위치; 및 (3) 특정 타입의 SEI 메세지의 다수의 인스턴스들의 콘텐츠들에 대한 제한.
예를 들어, 액세스 유닛은 복수의 패킷들 (예컨대, 실시간 전송 프로토콜 (RTP) 패킷) 로 패킷화될 수도 있다. 각각의 패킷은 통상적으로 하나 이상의 NAL 유닛들을 포함하지만, 일부 경우에, 패킷은 NAL 유닛의 서브세트를 포함할 수도 있다. 에러-유발 환경에서, 하나 이상의 패킷들이 손실될 수도 있고, 손실된 패킷들이 SEI 메세지를 포함할 경우, SEI 메세지가 손실될 수도 있다. 본 개시물에 설명된 기술들에서, 비디오 인코더는 액세스 유닛에서 SEI 메세지의 하나 이상의 카피들을 출력을 위해 생성하고, 그 카피들을 출력 (예컨대, 시그널링) 할 수도 있다. 이러한 방식으로, SEI 메세지들 중 하나를 포함하는 패킷이 손실된 경우에도, SEI 메세지는 손실되지 않은 패킷에서 여전히 카피로서 사용가능할 수도 있다.
다른 예로서, 비디오 인코더는 예컨대, HEVC (high efficient video coding) 표준의 멀티층 확장물에서, 다수의 층들로 비디오 비트스트림을 인코딩할 수도 있다. 다수의 층들은 기본 층 및 하나 이상의 비-기본 층들을 포함한다. 비-기본 층은 공간 또는 품질 향상 층, 상이한 뷰의 텍스처, 상이한 뷰의 심도, 및 다른 예들일 수도 있다. 비디오 인코더는 (http://tools.ietf.org/rfc/rfc6190.txt 에서 공개적으로 입수가능한) IETF RFC 6190 에 유사하게 정의된 (예컨대, MST (multi-session transmission) 을 사용하는) 상이한 채널들에서 상이한 층들을 전송할 수도 있다. 본 개시물에 설명된 기술들에서, 비디오 인코더는 액세스 유닛 내의 2 개의 VCL NAL 유닛들 내에 SEI NAL 유닛을 포함할 수도 있고, 여기서 SEI NAL 유닛은 액세스 유닛의 제 1 VCL NAL 유닛 이후에 SEI 메세지들을 포함한다. 다시 말해서, 액세스 유닛에서 제 1 CAL NAL 유닛 이후에 SEI 메세지를 포함하기 위해 본 개시물에서 설명된 기술들은 또한, 멀티-세션 송신의 예들에 적용가능하다.
본 개시물에 설명된 기술들에서, 비디오 디코더는 그 비디오 디코더가 새로운 액세스 유닛을 프로세싱하고 있는 것을 결정하기 위해 반드시 SEI 메세지들의 위치에 의존해야할 필요는 없다. 예를 들어, 비디오 디코더는 새로운 액세스 유닛이 프로세싱되고 있는 것을 결정하기 위해 일부 다른 헤더 정보에 의존할 수도 있다. 따라서, 본 개시물에서 설명된 기술들에서, 비디오 인코더는 액세스 유닛에서 SEI 메세지 및 액세스 유닛에서 SEI 메세지의 하나 이상의 카피들을 출력을 위해 생성하고 이들을 출력할 수도 있고, 비디오 디코더는 SEI 메세지 및 SEI 메세지의 하나 이상의 카피들을 수신할 수도 있다. 비디오 디코더가 새로운 액세스 유닛이 언제 프로세싱되고 있는지 결정하기 위해 SEI 메세지에 의존할 필요가 없기 때문에, 비디오 디코더는 새로운 상이한 액세스 유닛이 프로세싱되고 있는 것을 결정하지 않고 동일한 액세스 유닛 내의 SEI 메세지들의 다수의 카피들을 프로세싱하도록 구성될 수도 있다.
도 1 은 본 개시물에서 설명된 기술들을 활용할 수도 있는 예시적인 비디오 인코딩 및 디코딩 시스템 (10) 을 도시한 블록 다이어그램이다. 도 1 에 도시된 바와 같이, 시스템 (10) 은 목적지 디바이스 (14) 에 의해 이후에 디코딩될, 인코딩된 비디오를 생성하는 소스 디바이스 (12) 를 포함한다. 소스 디바이스 (12) 및 목적지 디바이스 (14) 는 데스크탑 컴퓨터들, 노트북 (즉, 랩탑) 컴퓨터들, 태블릿 컴퓨터들, 셋탑 박스들, 소위 "스마트" 폰들과 같은 전화기 핸드셋들, 소위 "스마트" 패드들, 텔레비전들, 카메라들, 디스플레이 디바이스들, 디지털 미디어 플레이어들, 비디오 게이밍 콘솔들, 비디오 스트리밍 디바이스 등을 포함한 광범위한 디바이스들 중 임의의 디바이스를 포함할 수도 있다. 몇몇 경우들에서, 소스 디바이스 (12) 및 목적지 디바이스 (14) 는 무선 통신을 위해 장비될 수도 있다.
목적지 디바이스 (14) 는 디코딩될 인코딩된 비디오 데이터를 링크 (16) 를 통해 수신할 수도 있다. 링크 (16) 는 인코딩된 비디오 데이터를 소스 디바이스 (12) 에서 목적지 디바이스 (14) 로 이동시킬 수 있는 임의의 타입의 매체 또는 디바이스를 포함할 수도 있다. 일 예에서, 링크 (16) 는 소스 디바이스 (12) 가 인코딩된 비디오 데이터를 목적지 디바이스 (14) 에 실시간으로 직접 송신할 수 있도록 하는 통신 매체를 포함할 수도 있다. 인코딩된 비디오 데이터는 무선 통신 프로토콜과 같은 통신 표준에 따라 변조되고, 목적지 디바이스 (14) 로 송신될 수도 있다. 통신 매체는 임의의 무선 또는 유선 통신 매체, 예컨대 무선 주파수(RF) 스펙트럼 또는 하나 이상의 물리적 송신 라인들을 포함할 수도 있다. 통신 매체는 패킷 기반의 네트워크, 예컨대 근거리 통신망, 원거리 통신망, 또는 인터넷과 같은 글로벌 네트워크의 부분을 형성할 수도 있다. 통신 매체는 라우터들, 스위치들, 기지국들, 또는 소스 디바이스 (12) 에서 목적지 디바이스 (14) 로의 통신을 용이하게 하는데 유용할 수도 있는 임의의 다른 장비를 포함할 수도 있다.
대안적으로, 인코딩된 데이터는 출력 인터페이스 (22) 에서 저장 디바이스 (32) 로 출력될 수도 있다. 마찬가지로, 인코딩된 데이터는 입력 인터페이스에 의해 저장 디바이스 (32) 로부터 액세스될 수도 있다. 저장 디바이스 (32) 는 하드 드라이브, 블루레이 디스크들, DVD들, CD-ROM들, 플래시 메모리, 휘발성 또는 불휘발성 메모리와 같은 임의의 다양한 분산된 또는 국부적으로 액세스된 데이터 저장 매체, 또는 인코딩된 비디오 데이터를 저장하기 위한 임의의 다른 적절한 디지털 저장 매체를 포함할 수도 있다. 추가의 예에서, 저장 디바이스 (32) 는 소스 디바이스 (12) 에 의해 생성된 인코딩된 비디오를 유지할 수도 있는 다른 중간 저장 디바이스 또는 파일 서버에 대응할 수도 있다. 목적지 디바이스 (14) 는 스트리밍 또는 다운로드를 통해 저장 디바이스 (32) 로부터의 저장된 비디오 데이터에 액세스할 수도 있다. 파일 서버는 인코딩된 비디오 데이터를 저장할 수 있고 그 인코딩된 비디오 데이터를 목적지 디바이스 (14) 로 송신할 수 있는 임의의 타입의 서버일 수도 있다. 예시적인 파일 서버들은 (예를 들면 웹사이트용의) 웹서버, FTP 서버, NAS (network attached storage) 디바이스들, 또는 로컬 디스크 드라이브를 포함한다. 목적지 디바이스 (14) 는 인터넷을 접속을 포함하는 임의의 표준 데이터 접속을 통해 인코딩된 비디오 데이터에 액세스할 수도 있다. 이것은 파일 서버에 저장된 인코딩된 비디오 데이터를 액세스하는데 적합한 무선 채널 (예를 들면, 와이파이 접속), 유선 접속 (예를 들면, DSL, 케이블 모뎀 등), 또는 이들의 조합을 포함할 수도 있다. 저장 디바이스 (32) 로부터의 인코딩된 비디오 데이터의 송신은 스트리밍 송신, 다운로드 송신, 또는 이들의 조합일 수도 있다.
본 개시물의 기술들은 무선 애플리케이션들 또는 세팅들에 반드시 제한되는 것은 아니다. 기술들은 임의의 다양한 멀티미디어 애플리케이션들, 예컨대 공중 경유 (over-the-air) 텔레비전 브로드캐스트들, 케이블 텔레비전 송신들, 위성 텔레비전 송신들, 예를 들면 인터넷을 통한 스트리밍 비디오 송신들, 데이터 저장 매체 상의 저장을 위한 디지털 비디오의 인코딩, 데이터 저장 매체 상에 저장된 디지털 비디오의 디코딩 또는 다른 애플리케이션들을 지원하여 비디오 코딩에 적용될 수도 있다. 일부 예들에서, 시스템 (10) 은, 비디오 스트리밍, 비디오 재생, 비디오 브로드캐스팅, 및/또는 영상 전화와 같은 애플리케이션들을 지원하기 위해 일방향 또는 양방향 비디오 송신을 지원하도록 구성될 수도 있다.
도 1의 예에서, 소스 디바이스 (12) 는 비디오 소스 (18), 비디오 인코더 (20) 및 출력 인터페이스 (22) 를 포함한다. 몇몇 경우들에서, 출력 인터페이스 (22) 는 변조기/복조기 (모뎀) 및/또는 송신기를 포함할 수도 있다. 소스 디바이스 (12) 에서, 비디오 소스 (18) 는 비디오 캡쳐 디바이스, 예컨대 비디오 카메라, 이전에 캡쳐된 비디오를 포함하는 비디오 아카이브, 비디오 컨텐츠 공급자로부터 비디오를 수신하는 비디오 공급 인터페이스, 및/또는 소스 비디오로서 컴퓨터 그래픽 데이터를 생성하는 컴퓨터 그래픽 시스템, 또는 이러한 소스들의 조합과 같은 소스를 포함할 수도 있다. 일 예로서, 비디오 소스 (18) 가 비디오 카메라이면, 소스 디바이스 (12) 및 목적지 디바이스 (14) 는 소위 카메라 폰들 또는 비디오 폰들을 형성할 수도 있다. 그러나, 본 개시에서 설명된 기술들은 일반적으로 비디오 코딩에 적용될 수 있으며, 무선 및/또는 유선 애플리케이션들에 적용될 수도 있다.
캡쳐된, 프리-캡쳐된, 또는 컴퓨터에 의해 생성된 비디오는 비디오 인코더 (20) 에 의해 인코딩될 수도 있다. 인코딩된 비디오 데이터는 소스 디바이스 (12) 의 출력 인터페이스 (22) 를 통해 목적지 디바이스 (14) 에 직접 송신될 수도 있다. 인코딩된 비디오 데이터는 또한 (또는 대안적으로), 디코딩 및/또는 재생을 위해, 목적지 디바이스 (14) 또는 다른 디바이스들에 의한 이후 액세스를 위해 저장 디바이스 (32) 에 저장될 수도 있다.
목적지 디바이스 (14) 는 입력 인터페이스 (28), 비디오 디코더 (30), 및 디스플레이 디바이스 (31) 를 포함한다. 몇몇 경우들에서, 입력 인터페이스 (28) 는 수신기 및/또는 모뎀을 포함할 수도 있다. 목적지 디바이스 (14) 의 입력 인터페이스 (28) 는 링크 (16) 를 통해 인코딩된 비디오 데이터를 수신한다. 링크 (16) 를 통해 통신된 또는 저장 디바이스 (32) 상에 제공된 인코딩된 비디오 데이터는, 비디오 데이터의 디코딩시, 비디오 디코더, 예컨대 비디오 디코더 (30) 에 의한 사용을 위해 비디오 인코더 (20) 에 의해 생성된 다양한 신택스 엘리먼트들을 포함할 수도 있다. 이러한 신택스 엘리먼트들에는 통신 매체 상에서 송신되거나, 저장 매체 상에 저장되거나, 또는 파일 서버 상에 저장된 인코딩된 비디오 데이터가 포함될 수도 있다.
디스플레이 디바이스 (31) 는 목적지 디바이스 (14) 와 통합될 수도 있거나 또는 목적지 디바이스 (14) 외부에 있을 수도 있다. 몇몇 예들에서, 목적지 디바이스 (14) 는 통합된 디스플레이 디바이스를 포함할 수도 있고, 또한 외부 디스플레이 디바이스와 인터페이싱하도록 구성될 수도 있다. 다른 예들에서, 목적지 디바이스 (14) 는 디스플레이 디바이스일 수도 있다. 일반적으로, 디스플레이 디바이스 (31) 는 디코딩된 비디오 데이터를 사용자에게 디스플레이하고, 액정 디스플레이 (LCD), 플라즈마 디스플레이, 유기 발광 다이오드 (OLED) 디스플레이, 또는 다른 타입의 디스플레이 디바이스와 같은 다양한 디스플레이 디바이스들 중 임의의 것을 포함할 수도 있다.
비디오 인코더 (20) 및 비디오 디코더 (30) 는 개별 마이크로프로세서들 또는 집적 회로들 (IC들) 로 형성될 수도 있거나, 더 큰 마이크로프로세서들 또는 IC들의 부분일 수도 있다. 일부 예들에서, 비디오 인코더 (20) 및 비디오 디코더 (30) 는 무선 통신 디바이스의 부분일 수도 있다.
비디오 인코더 (20) 및 비디오 디코더 (30) 는 비디오 압축 표준에 따라 동작할 수도 있다. 비디오 코딩 표준들의 예들은 그 SVC (Scalable Video Coding) 및 MVC (Multiview Video Coding) 확장물들을 포함하여, ITU-T H.261, 즉 ISO/IEC MPEG-1 Visual, ITU-T H.262 또는 ISO/IEC MPEG-2 Visual, ITU-T H.263, 즉 ISO/IEC MPEG-4 Visual, 및 (또한 ISO/IEC MPEG-4 AVC 로 알려진) ITU-T H.264 를 포함한다.
추가로, 비디오 인코더 (20) 와 비디오 디코더 (30) 가 그에 따라 동작할 수도 있는 새로운 비디오 코딩 표준, 즉 ITU-T VCEG (Video Coding Experts Group) 및 ISO/IEC MPEG (Motion Picture Experts Group) 의 JCT-VC (Joint Collaboration Team on Video Coding) 에 의해 현재 개발 중에 있는 HEVC (High Efficiency Video Coding) 이 존재한다. 비디오 인코더 (20) 및 비디오 디코더 (30) 는 HEVC 테스트 모델 (HM) 을 따를 수도 있다. "HEVC Working Draft 8" 또는 "WD8" 로 지칭되는 HEVC 표준의 최근 드래프트는 Bross 등에 의한 문서 JCTVC-H1003, "High efficiency video coding (HEVC) text specification draft 8", ITU-T SG16 WP3 및 ISO/IEC JTC1/SC29/WG11 의 Joint Collaborative Team on Video Coding (JCT-VC), 10 차 미팅: 스웨덴, 스톡홀름, 2012 년 7 월 11-20 일에 설명되며, 이는 2013 년 4 월 2 일 현재, http://phenix.int-evry.fr/jct/doc_end_user/documents/10_Stockholm/wg11/JCTVC-J1003-v8.zip 에서 다운로드할 수 있고, 그 전체 콘텐츠가 본원에 참조로서 통합된다. 이하 "HEVC Working Draft 9" 또는 "WD9" 로 지칭되는 HEVC 의 더 최근의 작업 드래프트는 2013 년 4 월 2 일 현재, http://phenix.int-evry.fr/jct/doc_end_user/documents/11_Shanghai/wg11/JCTVC-K1003-v10.zip 에서 입수가능하다.
대안적으로, 비디오 인코더 (20) 및 비디오 디코더 (30) 는, 대안적으로 MPEG-4, Part 10, AVC (Advanced Video Coding) 으로도 지칭되는 ITU-T H.264 표준과 같은 다른 특허 또는 산업 표준들, 또는 그런 표준들의 확장안들에 따라 동작할 수도 있다. 그러나, 본 개시물의 기술들은 임의의 특정 코딩 표준에 제한되지 않는다. 비디오 압축 표준들의 다른 예들은 MPEG-2 및 ITU-T H.263 뿐만 아니라 VP8 과 같은 오픈 포맷들을 포함한다.
그러나, 본 개시물의 기술들은 임의의 특정 코딩 표준에 제한되지 않는다. 예를 들어, 비디오 인코더 (20) 및 비디오 디코더 (30) 는 반드시 임의의 특정 비디오 코딩 표준을 따를 필요는 없다. 추가로, 본 개시물에 설명된 기술들이 반드시 특정 표준을 따르지 않을 수도 있는 경우에도, 본 개시물에 설명된 기술들은 추가로 다양한 표준들과 관련된 코딩 효율을 보조할 수도 있다. 또한, 본 개시물에 설명된 기술들은 향후 표준들의 부분일 수도 있다. 이해의 용이함을 위해, 기술들은 개발 하의 HEVC 표준과 관련하여 설명되지만, 그 기술들은 HEVC 표준에 제한되지 않으며, 특정 표준에 의해 정의되지 않는 다른 비디오 코딩 표준들 또는 비디오 코딩 기술들로 확장될 수 있다.
도 1 에 도시되지 않았지만, 몇몇 양태들에서, 비디오 인코더 (20) 및 비디오 디코더 (30) 는 각각 오디오 인코더 및 디코더와 통합될 수도 있고, 공통 데이터 스트림 또는 개별적인 데이터 스트림들에서 오디오 및 비디오 양자의 인코딩을 핸들링하기 위해 적절한 MUX-DEMUX 유닛들, 또는 다른 하드웨어 및 소프트웨어를 포함할 수도 있다. 적용 가능하다면, 몇몇 예들에서, MUX-DEMUX 유닛들은 ITU H.223 멀티플렉서 프로토콜, 또는 유저 데이터그램 프로토콜 (UDP) 과 같은 다른 프로토콜에 순응할 수도 있다.
비디오 인코더 (20) 및 비디오 디코더 (30) 각각은 하나 이상의 마이크로프로세서들, 디지털 신호 프로세서들 (DSP들), 주문형 집적회로들 (ASIC들), 필드 프로그램가능 게이트 어레이들 (FPGA들), 이산 로직, 집적 회로 (IC) ,소프트웨어, 하드웨어, 펌웨어의 개별 부분 또는 이들의 임의의 조합들과 같은 다양한 적합한 인코더 회로 중 임의의 회로로서 구현될 수도 있다. 기술들이 부분적으로 소프트웨어로 구현될 경우, 디바이스는 적절한 비-일시적인 컴퓨터 판독가능 저장 매체에 소프트웨어에 대한 명령들을 저장할 수도 있으며, 본 개시물의 기술들을 수행하기 위해 하나 이상의 프로세서들을 사용하여 하드웨어로 명령들을 실행할 수도 있다. 다시 말해서, 부분적으로 소프트웨어로 구현될 경우, 그 소프트웨어는 하드웨어 컴포넌트들로 하여금 특정 기능들을 구현하게 하는 근본적인 하드웨어 컴포넌트들에서 실행된다. 비디오 인코더 (20) 및 비디오 디코더 (30) 각각은 하나 이상의 인코더들 또는 디코더들에 포함될 수도 있고, 이들 중 하나는 결합된 인코더/디코더 (CODEC) 의 일부로서 각각의 디바이스에 통합될 수도 있다.
예를 들어, 비디오 인코더 (20) 및 비디오 디코더 (30) 는 각각 소스 디바이스 (12) 와 목적지 디바이스 (14) 와 같은 무선 디바이스에 포함될 수도 있다. 다른 예로서, 디바이스는 집적 회로 또는 마이크로프로세서를 포함할 수도 있다. 일부 예들에서, 마이크로프로세서 또는 집적 회로와 같은 디바이스는 비디오 디코더 (30) 를 포함할 수도 있고, 다른 디바이스는 비디오 인코더 (20) 를 포함할 수도 있다.
JCT-VC 는 HEVC 표준의 개발에 관하여 작업하고 있다. HEVC 표준화 노력들은 HEVC 테스트 모델 (HM) 로 지칭되는 비디오 코딩 디바이스의 신흥 모델에 기초한다. HM은, 예를 들면, ITU-T H.264/AVC에 따른 기존 디바이스들에 비해 비디오 코딩 디바이스들의 여러가지 추가적인 성능들을 가정한다.
일반적으로, HM의 작업 모델은, 비디오 프레임 또는 픽처가 루마 및 크로마 샘플들 양자를 포함하는 최대 코딩 유닛들 (LCU) 또는 트리블록들의 시퀀스로 분할될 수도 있다. 트리 블록이 매크로블록과 관련하여 다수의 차이들을 가지지만, 트리블록은 H.264 표준의 매크로블록과 일부 유사한 목적들로 사용될 수도 있다. 슬라이스는 코딩 순서에서 다수의 연속적인 트리블록들을 포함한다. 비디오 프레임 또는 픽처는 하나 이상의 슬라이스들로 파티셔닝될 수도 있다. 각각의 트리블록은 쿼드트리에 따라 코딩 유닛들 (CU들) 로 분할될 수도 있다. 예를 들면, 쿼트트리의 루트 노드로서의 트리블록은 4 개의 차일드 노드들로 분할될 수도 있고, 계속해서 각각의 차일드 노드는 페어런트 노드일 수도 있고 다른 4 개의 차일드 노드들로 분할될 수도 있다. 최종적으로, 쿼드트리의 리프 노드로서의 분할되지 않은 차일드 노드는 코딩 노드, 즉, 코딩된 비디오 블록을 포함한다. 코딩된 비트스트림과 연관된 신택스 데이터는 트리블록이 분할될 수도 있는 최대 횟수를 정의할 수도 있고, 이는 또한 코딩 노드들의 최소 사이즈를 정의할 수도 있다.
CU 는 코딩 노드 및 코딩 노드와 연관된 변환 유닛들 (TU들) 및 예측 유닛들 (PU들) 을 포함한다. CU의 사이즈는 코딩 노드의 사이즈에 대응하고 정사각형 형상이어야만 한다. CU의 사이즈는 8x8 픽셀들에서 최대 64x64 픽셀들 이상의 픽셀들을 갖는 트리블록의 사이즈까지의 범위일 수도 있다. 각각의 CU는 하나 이상의 PU들 및 하나 이상의 TU들을 포함할 수도 있다. CU 와 연관된 신택스 데이터는, 예를 들면, CU 를 하나 이상의 PU 들로 파티셔닝하는 것을 설명할 수도 있다. 파티셔닝 모드들은, CU 가 스킵 또는 다이렉트 모드 인코딩되는지, 인트라 예측 모드 인코딩되는지, 또는 인터 예측 모드 인코딩되는지 여부 사이에서 상이할 수도 있다. PU들은 비-정사각형의 형상으로 파티셔닝될 수도 있다. CU 와 연관된 신택스 데이터는, 예를 들면, CU 를 쿼드트리에 따라 하나 이상의 TU들로 파티셔닝하는 것을 또한 설명할 수도 있다. TU는 정사각형 또는 비정사각형 형상일 수 있다.
HEVC 표준은 TU 들에 따른 변환들을 허용하는데, 이것은 상이한 CU 들에 대해 상이할 수도 있다. TU 들은 파티셔닝된 LCU에 대해 정의된 주어진 CU 내에서의 PU들의 사이즈에 기초하여 통상 크기가 정해지지만, 이것이 항상 그런 것은 아닐 수도 있다. TU들은 통상 PU들과 동일한 사이즈이거나 또는 더 작다. 일부 예들에 있어서, CU 에 대응하는 잔차 샘플들은 "잔차 쿼드트리 (RQT)" 로서 공지된 쿼드트리 구조를 이용하여 더 작은 유닛들로 세분될 수도 있다. RQT 의 리프 노드들은 변환 유닛들 (TU들) 로서 지칭될 수도 있다. TU들과 연관된 픽셀 차이값들은 변환되어 변환 계수들을 생성할 수도 있고, 변환 계수는 양자화될 수도 있다.
일반적으로, PU는 예측 프로세스와 관련된 데이터를 포함한다. 예를 들면, PU 가 인트라 모드 인코딩 (즉, 인트라 예측 인코딩) 될 경우, PU 는 PU 에 대한 인트라 예측 모드를 설명하는 데이터를 포함할 수도 있다. 다른 예로서, PU 가 인터 모드 인코딩 (즉, 인터 예측 인코딩) 될 경우, PU 는 PU 에 대한 모션 벡터를 정의하는 데이터를 포함할 수도 있다. PU에 대한 모션 벡터를 정의하는 데이터는, 예를 들면, 모션 벡터의 수평 컴포넌트, 모션 벡터의 수직 컴포넌트, 모션 벡터에 대한 해상도(예를 들면, 1/4 픽셀 정밀도 또는 1/8 픽셀 정밀도), 모션 벡터가 가리키는 참조 픽처, 및/또는 모션 벡터에 대한 참조 픽처 리스트 (예컨대, RefPiclList0 또는 RefPicList1) 를 설명할 수도 있다.
일반적으로, TU 는 변환 및 양자화 프로세스들에 대해 사용된다. 하나 이상의 PU들을 갖는 주어진 CU 는 하나 이상의 변환 유닛들 (TU들) 을 또한 포함할 수도 있다. 예측에 후속하여, 비디오 인코더 (20) 는 PU에 대응하는 잔차 값들을 계산할 수도 있다. 잔차 값들은, 변환 계수들로 변환되고, 양자화되고, TU들을 사용하여 스캐닝되어 엔트로피 코딩을 위한 직렬화된 변환 계수들을 생성할 수도 있는 픽셀 차이값들을 포함한다. 본 개시는 CU 의 코딩 노드를 지칭하기 위해 통상적으로 용어 "비디오 블록" 을 사용한다. 몇몇 특정 경우들에서, 본 개시는 또한 코딩 노드와 PU들 및 TU들을 포함하는 트리블록, 즉, LCU 또는 CU 를 지칭하기 위해 용어 "비디오 블록"을 사용할 수도 있다.
비디오 시퀀스는 비디오 프레임들 또는 픽처들의 시리즈를 통상 포함한다. 픽처들의 그룹 (GOP) 은 하나 이상의 비디오 픽처들의 시리즈를 일반적으로 포함한다. GOP 는 GOP 의 헤더, 하나 이상의 픽처들의 헤더, 또는 GOP 에 포함된 픽처들의 수를 설명하는 신택스 데이터를 포함할 수도 있다. 픽처의 각각의 슬라이스는 개별 슬라이스에 대한 인코딩 모드를 설명하는 슬라이스 신택스 데이터를 포함할 수도 있다. 비디오 인코더 (20) 는 비디오 데이터를 인코딩하기 위해 개개의 비디오 슬라이스들 내의 비디오 블록들에 대해 통상 동작한다. 비디오 블록은 CU 내의 코딩 노드에 대응할 수도 있다. 비디오 블록들은 고정의 또는 가변적인 사이즈들을 가질 수도 있고, 특정 코딩 표준에 따라 사이즈가 상이할 수도 있다.
일 예로서, HM 은 다양한 PU 사이즈들에서의 예측을 지원한다. 특정 CU의 사이즈가 2Nx2N이라고 가정하면, HM 은 2Nx2N 또는 NxN 의 PU 사이즈들에서의 인트라 예측, 및 2Nx2N, 2NxN, Nx2N, 또는 NxN의 대칭적 PU 사이즈들에서의 인터 예측을 지원한다. HM 은 2NxnU, 2NxnD, nLx2N, 및 nRx2N 의 PU 사이즈들에서의 인터 예측에 대한 비대칭적 파티셔닝을 또한 지원한다. 비대칭적 파티셔닝에서, CU 의 한 방향은 파티셔닝되지 않지만, 다른 방향은 25% 및 75% 로 파티셔닝된다. 25% 파티셔닝에 대응하는 CU 의 부분은 "상부", "하부", "좌측", 또는 "우측"의 표시가 후속하는 "n" 에 의해 표시된다. 따라서, 예를 들면, "2NxnU" 은 수평적으로 상부 2Nx0.5N PU 와 하부 2Nx1.5N PU 로 분할되는 2Nx2N CU 를 가리킨다.
본 개시물에서, "NxN" 및 "N 바이 N", 예컨대 16x16 픽셀들 또는 16 바이 16 픽셀들과 같이 수직 및 수평 치수들에 의해 비디오 블록의 픽셀 치수들을 지칭하기 위해 상호 교환적으로 사용될 수도 있다. 일반적으로, 16x16 블록은 수직 방향으로 16 픽셀들 (y=16) 및 수평 방향으로 16 픽셀들 (x=16) 을 구비할 것이다. 마찬가지로, NxN 블록은 수직 방향으로 N 픽셀들 및 수평 방향으로 N 픽셀들을 구비하는데, 여기서 N 은 음이 아닌 정수 값을 나타낸다. 블록에서의 픽셀들은 로우들 및 컬럼들로 정렬될 수도 있다. 또한, 블록들은 반드시 수직 방향에서와 동일한 수의 픽셀들을 수평 방향에서 가져야할 필요는 없다. 예를 들면, 블록들은 NxM 픽셀들을 포함할 수도 있으며, 여기서 M 은 N 과 반드시 동일하지는 않다.
CU 의 PU들을 사용하는 인트라 예측 또는 인터 예측 코딩에 후속하여, 비디오 인코더 (20) 는 CU 의 TU들에 대한 잔차 데이터를 계산할 수도 있다. PU들은 공간 도메인 (픽셀 도메인으로도 칭해짐) 에서의 픽셀 데이터를 포함할 수도 있고, TU들은 변환, 예를 들면 이산 코사인 변환 (DCT), 정수 변환, 웨이브릿 변환, 또는 개념적으로 유사한 변환의 잔차 비디오 데이터로의 적용 다음에, 변환 도메인에서의 계수들을 포함할 수도 있다. 잔차 데이터는 PU들에 대응하는 예측 값들과 인코딩되지 않은 픽처의 픽셀들 사이의 픽셀 차이들에 대응할 수도 있다. 비디오 인코더 (20) 는 CU에 대한 잔차 데이터를 포함하는 TU들을 형성하고, 그 후에, TU들을 변환하여 CU 에 대한 변환 계수들을 생성할 수도 있다.
변환 계수들을 생성하기 위한 임의의 변환들에 후속하여, 비디오 인코더 (20) 는 변환 계수들의 양자화를 수행할 수도 있다. 양자화는, 계수들을 표현하기 위해 사용되는 데이터의 양을 최대한 줄이기 위해 변환 계수들이 양자화되어 추가적인 압축을 제공하는 프로세스를 일반적으로 지칭한다. 양자화 프로세스는 계수들의 일부 또는 전부와 연관된 비트 깊이를 감소시킬 수도 있다. 예를 들면, n-비트 값은 양자화 동안 m-비트 값으로 반내림 (round down) 될 수도 있는데, 여기서 n 은 m 보다 크다.
일부 예들에서, 비디오 인코더 (20) 는 엔트로피 인코딩될 수 있는 직렬화된 벡터를 생성하도록 양자화된 변환 계수들을 스캔하기 위해 미리 정의된 스캔 순서를 활용할 수도 있다. 다른 예들에서, 비디오 인코더 (20) 는 적응형 스캔을 수행할 수도 있거나, 복수의 가능한 스캔들로부터 스캔을 선택할 수도 있다. 양자화된 변환 계수들을 스캐닝하여 1 차원 벡터를 형성한 이후, 비디오 인코더 (20) 는, 예를 들면, 콘텍스트 적응형 가변 길이 코딩 (CAVLC), 콘텍스트 적응형 이진 산술 코딩 (CABAC), 신택스 기반 콘텍스트 적응형 이진 산술 코딩 (SBAC), 확률 인터벌 파티셔닝 엔트로피 (PIPE) 코딩, 또는 다른 엔트로피 인코딩 방법론에 따라, 1 차원 벡터를 엔트로피 인코딩할 수도 있다. 비디오 인코더 (20) 는 또한 비디오 데이터를 디코딩할 시 비디오 디코더 (30) 에 의해 사용하기 위한 인코딩된 비디오와 연관된 신택스 엘리먼트들을 엔트로피 인코딩할 수도 있다.
CABAC 를 수행하기 위해, 비디오 인코더 (20) 는 콘텍스트 모델 내의 콘텍스트를 송신될 심볼에 할당할 수도 있다. 콘텍스트는, 예를 들면 심볼의 이웃하는 값들이 비-제로인지 또는 비-제로가 아닌지의 여부에 관련될 수도 있다. CAVLC를 수행하기 위해, 비디오 인코더 (20) 는 송신될 심볼에 대한 가변 길이 코드를 선택할 수도 있다. VLC 에서의 코드워드들은, 상대적으로 더 짧은 코드들이 고확률 (more probable) 심볼들에 대응하고, 상대적으로 더 긴 코드들이 저확률 (less probable) 심볼들에 대응하도록 구성될 수도 있다. 이러한 방식으로, VLC의 사용은, 예를 들면, 송신될 각각의 심볼에 대해 동일한 길이의 코드워드들을 사용하는 것을 통해 비트 절감을 달성할 수도 있다. 확률 결정은 심볼들에 할당된 콘텍스트에 기초할 수도 있다.
비디오 인코더 (20) 는 픽처들이 비디오 디코더 (30) 에 의해 복원되기 위한 방식을 정의하는 비디오 데이터를 생성하고, 그 비디오 데이터를 인코딩 (예컨대, 출력을 위해 생성) 하며, 그 비디오 데이터를 코딩된 비트스트림에서 비디오 디코더 (30) 에 출력 (예컨대, 시그널링) 한다. 비디오 디코더 (30) 는 코딩된 비트스트림으로부터 인코딩된 비디오 데이터를 수신하고, 그 비디오 데이터를 디코딩하며, 그 비디오 데이터를 프로세싱하여 픽처들을 복원한다. 일반적으로, 비디오 디코더 (30) 는 그 기술들의 역으로 비디오 데이터를 인코딩 및 생성하도록 구현된 비디오 인코더 (20) 를 구현한다.
예를 들어, 비디오 디코더 (30) 는 비디오 인코더 (20) 가 비디오 데이터를 인코딩한 방식과 역의 기술을 사용하여 비디오 데이터를 디코딩한다. 또한, 비디오 디코더 (30) 는 픽처들을 인트라-예측 디코딩 또는 인터-예측 디코딩하여 픽처들을 복원한다. 예를 들어, 비디오 디코더 (30) 는 비디오 데이터를 프로세싱하여 인터-예측 디코딩을 위해 사용되는 이전에 디코딩된 픽처를 결정하고, 인터-예측 디코딩을 위해 이전에 디코딩된 픽처와 현재 픽처 간의 잔차를 결정한다. 비디오 디코더 (30) 는 이전에 디코딩된 픽처에 잔차를 부가하여 현재 픽처를 복원한다. 유사하게, 비디오 디코더 (30) 는 비디오 데이터를 프로세싱하여 현재 픽처 내의 이전에 디코딩된 블록을 결정하고, 인트라-예측 디코딩을 위해 현재 픽처 내의 이전에 디코딩된 블록과 현재 픽처 내의 현재 블록 간에 잔차를 결정한다. 비디오 디코더 (30) 는 이전에 디코딩된 블록에 잔차를 부가하여 현재 픽처의 현재 블록을 복원한다.
이러한 방식으로, 비디오 인코더 (20) 는 비디오 디코더 (30) 가 픽처들을 복원하기 위해 활용하는 비디오 데이터를 출력한다. 일부 예들에서, 비디오 인코더 (20) 는 비디오 데이터를 액세스 유닛들로 출력한다. 액세스 유닛은 동일한 시간 인스턴스 내에 있는 하나 이상의 픽처들에 대한 비디오 데이터를 포함하는 개념적 유닛이다. 예를 들어, 스케일러블 비디오 코딩에서, 비디오 인코더 (20) 는 픽처에 대한 다중 충들에서 비디오 데이터를 생성한다. 이러한 예에서, 픽처에 대한 액세스 유닛은 다중 층들 모두에 대한 비디오 데이터를 포함한다.
다른 예로서, 멀티뷰 비디오 코딩에서, 비디오 인코더 (20) 는 다수의 뷰들에 대한 비디오 데이터를 생성하며, 여기서 각각의 뷰는 다수의 픽처들을 포함한다. 멀티뷰 비디오 코딩에서, 각 뷰에서의 하나의 픽처는 동일한 시간 인스턴스에서 디스플레이된다. 예를 들어, 제 1 뷰에서의 제 1 픽처는 제 2 뷰에서의 제 1 픽처, 제 3 뷰에서의 제 1 픽처 등과 동일한 시간 인스턴스에 디스플레이된다. 상기 예에서, 하나의 액세스 유닛은 동일한 시간 인스턴스에 디스플레이되는 모든 픽처들에 대한 비디오 데이터를 포함한다. 스케일러블 비디오 코딩 또는 멀티뷰 비디오 코딩이 사용되지 않는 예들에서, 하나의 액세스 유닛은 하나의 픽처에 대한 비디오 데이터를 포함한다.
따라서, 일반적으로, 비디오 디코더 (30) 에 의한 하나의 액세스 유닛의 디코딩 및 프로세싱은 하나 이상의 픽처들을 발생한다. 비디오 디코더 (30) 에 의한 하나의 액세스 유닛의 디코딩 및 프로세싱이 하나의 픽처를 발생한다면, 그 액세스 유닛의 비디오 데이터는 스케일러블 비디오 코딩이 활용될 경우 픽처의 모든 층들에 대한 정보를 포함하거나 스케일러블 비디오 코딩이 활용되지 않을 경우 오직 하나의 층에 대한 정보를 포함할 수도 있다. 비디오 디코더 (30) 에 의한 하나의 액세스 유닛의 디코딩 및 프로세싱이 다수의 픽처들을 발생한다면, 액세스 유닛의 비디오 데이터는 멀티뷰 비디오 코딩을 위해 동일한 시간 인스턴스에서 모든 픽처들에 대한 정보를 포함할 수도 있다.
액세스 유닛은 하나 이상의 디코딩 유닛들을 포함한다. 예를 들어, 전술된 것과 같이, 액세스 유닛은 전체 픽처에 대한 비디오 데이터를 포함할 수도 있다. 서브-픽처 레벨에서의 동작이 허용되지 않는다면, 액세스 유닛은 오직 하나의 디코딩 유닛을 포함한다. 서브-픽처 레벨에서의 동작이 허용된다면, 액세스 유닛은 하나 이상의 디코딩 유닛들을 포함한다.
예를 들어, 비디오 디코더 (30) 는 코딩된 픽처 버퍼 (CPB) 및 디코딩된 픽처 버퍼 (DPB) 를 포함한다. CPB 는 코딩된 비트스트림으로부터 수신된 비디오 데이터를 저장하고, DPB 는 복원된 픽처들을 저장한다. 더 상세히 설명되는 것과 같이, 비디오 인코더 (20) 는 디코딩 유닛들 또는 액세스 유닛들이 언제 CPB 로부터 제거될 것인지를 나타내는 정보와 같은, CPB 의 거동을 설명하는 정보를 생성하고 출력한다. 일부 예들에서, 비디오 인코더 (20) 가 (예컨대, 액세스 유닛 내의 디코딩 유닛들의 각각에 대하여) 액세스 유닛들에 대한 서브-픽처 레벨에서의 동작이 허용되는지 여부를 나타내는 신택스 엘리먼트 (예컨대, SubPicCpbFlag 로 지칭되는 플래그) 를 인코딩하고 출력한다.
비디오 디코더 (30) 가 SubPicCpbFlag 이 0 인 것으로 결정한다면 비디오 디코더 (30) 는 액세스 유닛의 동작이 서브-픽처 레벨에서 허용되지 않는 것으로 결정할 수도 있고, 또한 액세스 유닛이 하나의 디코딩 유닛을 포함하는 것으로 결정할 수도 있다. 다시 말해서, SubPicCpbFlag 이 0 일 경우, 디코딩 유닛 및 액세스 유닛은 동일하다. 비디오 디코더 (30) 가 SubPicCpbFlag 이 1 인 것으로 결정한다면, 비디오 디코더 (30) 는 액세스 유닛의 동작이 서브-픽처 레벨에서 허용되는 것으로 결정할 수도 있고, 또한 액세스 유닛이 하나 이상의 디코딩 유닛들을 포함하는 것으로 결정할 수도 있다.
디코딩 유닛은 하나 이상의 NAL (network abstraction layer) 유닛들을 포함한다. NAL 유닛은 뒤따르는 비디오 데이터의 타입 및 그 비디오를 포함하는 바이트들의 표시를 포함하는 신택스 구조이다. NAL 유닛의 예들은 VCL (video coding layer) NAL 유닛 및 비-VCL NAL 유닛을 포함한다. 일 예로서, VCL NAL 유닛들은 픽처 내의 슬라이스들에 대한 비디오 데이터 (예컨대, 참조 픽처 리스트 인덱스들, 모션 벡터들, 인트라-예측 모드들, 등과 같이 슬라이스들을 예측하는데 필요한 정보) 또는 특정 NAL 유닛 타입의 NAL 유닛들을 포함할 수도 있다. 일 예로서, 비-VCL NAL 유닛들은 파라미터 세트 (예컨대, 픽처 파라미터 세트, 시퀀스 파라미터 세트, 등) 의 정보와 같은 데이터 또는 비디오 인코딩 또는 비디오 디코딩을 지원하기 위한 보충 정보를 포함할 수도 있다.
본 개시물에서, 하나 이상의 NAL 유닛들을 포함하는 디코딩 유닛은, 디코딩 유닛과 연관되거나 그 디코딩 유닛에 할당된 하나 이상의 NAL 유닛들로서 고려될 수도 있다. 다시 말해서, 디코딩 유닛과 연관되거나 그 디코딩 유닛에 할당된 하나 이상의 NAL 유닛들은 이러한 하나 이상의 NAL 유닛들을 포함하는 디코딩 유닛과 동일한 것으로 고려될 수도 있다.
따라서, 본 개시물에 설명된 기술들은 이하 정의들을 갖는 이하의 용어들을 활용할 수도 있다.
디코딩 유닛: SubPicCpbFlag 가 0 과 동일한 경우 액세스 유닛 또는 SubPicCpbFlag 가 1 과 동일한 경우 액세스 유닛의 서브세트이며, 액세스 유닛에서의 하나 이상의 VCL NAL 유닛들 및 연관된 비-VCL NAL 유닛들을 포함한다.
연관된 비-VCL NAL 유닛: VCL NAL 유닛의 연관된 비-VCL NAL 유닛은 VCL NAL 유닛이 그들의 연관된 VCL NAL 유닛이 되는 비-VCL NAL 유닛들 중 하나이다. 다시 말해서, 비-VCL NAL 유닛은 VCL NAL 유닛과 연관되고, 그 VCL NAL 유닛들은 비-VCL NAL 유닛과 연관되는 것으로 고려될 수도 있다 (예컨대, VCL NAL 유닛과 비-VCL NAL 유닛 간의 연관은 양자에게 유리하다).
연관된 VCL NAL 유닛: RSV_NVCL44 .. RSV_NVCL47 의 범위에서 또는 UNSPEC48 .. UNSPEC63 의 범위에서 UNSPEC0, EOS_NUT, EOB_NUT, FD_NUT 과 동일한 nal_unit_type 을 갖는 비-VCL NAL 유닛들에 대한 디코딩 순서에 있어서 가장 최근의 선행하는 VCL NAL 유닛, 또는 다른 값들과 동일한 nal_unit_type 을 갖는 비-VCL NAL 유닛들에 대한 디코딩 순서에 있어서 제 1 의 후속하는 VCL NAL 유닛.
전술된 것과 같이, 일부 예들에서, 비디오 인코더 (20) 는 비디오 인코딩 또는 비디오 인코딩을 지원하기 위한 보충 정보를 포함하는 NAL 유닛들을 인코딩하고 출력한다. 이러한 보충 정보는 비디오 인코더 (20) 및 비디오 디코더 (30) 가 HEVC 비디오 코딩 표준과 같은 비디오 코딩 표준의 요건들에 순응하는데 있어 불필요하다. 따라서, 보충 정보의 포함은 옵션적이지만, 그러한 정보는 비디오 인코딩 및 비디오 디코딩의 효율을 증가시키는 것을 지원하기 때문에, 바람직할 수도 있다
그러한 보충 정보를 포함하는 NAL 유닛들의 일 예는 SEI (supplemental enhancement information) 유닛들이다. SEI NAL 유닛들의 사용은 비디오 인코더 (20) 가 출력 픽처들의 정확한 디코딩을 위해 요구되지 않는 코딩된 비트스트림에서 그러한 메타데이터를 포함할 수 있게 하지만, 픽처 출력 타이밍, 디스플레잉 뿐만 아니라 (예컨대, 인코딩 및 디코딩을 지원하기 위한) 손실 검출 및 은닉과 같은 다양한 다른 목적들을 위해 사용될 수 있다. 비디오 인코더 (20) 는 액세스 유닛에서 임의의 수의 SEI NAL 유닛들을 포함하도록 구성될 수도 있고, 각각의 SEI NAL 유닛은 하나 이상의 SEI 메세지들을 포함할 수도 있다.
HEVC 표준은 몇몇 SEI 메세지들에 대한 신택스 및 시맨틱들을 포함하지만, SEI 메세지들의 핸들링은, 이들 SEI 메세지들이 일반적으로 규범적 디코딩 프로세스에 영향을 주지 않기 때문에 명시되지 않는다. HEVC 표준에서 SEI 메세지들을 포함하는 이유들 중 하나는, 다양한 타입의 비디오 디코더들 (그 일 예는 비디오 디코더 (30)) 이 HEVC 표준에 순응하는 상이한 시스템들에서 SEI 메세지들을 동일하게 해석하는 것을 보장하기 위한 것이다. 따라서, HEVC 표준에 순응하는 명세들 또는 시스템들은 (비디오 인코더 (20) 와 같은) 비디오 인코더들이 특정 SEI 메세지들을 생성할 것을 요구할 수도 있거나, (비디오 디코더 (30) 와 같은) 비디오 디코더들에 의한 특정 타입의 수신된 SEI 메세지들의 특정 핸들링을 정의할 수도 있다.
이하 표 1 은 HEVC 에서 명시된 SEI 메세지를 열거하고, 그 목적을 간단히 설명한다. SEI 메세지들은 오직 예시의 목적으로 HEVC 표준에 대하여 설명되는 것이 이해되어야만 한다. 특허 비디오 코딩 표준들을 포함하는 다른 비디오 코딩 표준들은 표 1 에서 설명되거나, 이하 설명되는 것과 유사하거나 상이한 SEI 메세지들을 포함할 수도 있다. 추가로, 심지어 비-표준 기반의 비디오 코딩 기술들이 표 1 에 설명되거나 이하 설명되는 것과 유사하거나 상이한 SEI 메세지들에 의존할 수도 있다. 본 개시물에서 설명된 기술들은 그러한 경우들 모두에 적용가능할 수도 있다.
일반적으로, SEI 메세지들은 비디오 데이터의 특징들을 정의하는 것으로 고려될 수도 있다. 예컨대, 버퍼링 주기 및 픽처 타이밍 SEI 메세지들은 초기 지연들 및 픽처 출력 시간 또는 픽처/서브-픽처 제거 시간과 같은 비디오 데이터 특징들을 정의한다. 추가의 예들로서, 표 1 에서 SEI 메세지들의 목적은 대응하는 SEI 메세지들에 의해 정의되는 비디오 데이터의 특징들의 예들을 제공한다.
SEI 메세지 목적
버퍼링 주기 가설 참조 디코더 (HRD) 동작에 대한 초기 지연들
픽처 타이밍 HRD 동작에 대한 픽처 출력 시간 및 픽처/서브-픽처 제거 시간
팬-스캔 직사각형 출력 픽처들의 픽처 애스팩트비 (PAR) 와 상이한 PAR 에서 디스플레이
필러 페이로드 특정 제약들을 만족하도록 비트레이트를 조정
사용자 데이터 등록
사용자 데이터 미등록
외부 엔티티들에 의해 명시될 SEI 메세지들
복구 포인트 명확한 랜덤 액세스를 위한 추가 정보. 점진적인 디코딩 리프레시.
장면 정보 장면 변화들 및 천이들에 관한 정보
풀-프레임 스냅샵 연관된 디코딩 픽처를 비디오 콘텐츠의 스틸-이미지 스냅샷으로 표시하기 위한 표시
점진적 리파인먼트 세그먼트 특정한 연속하는 픽처들이 움직이는 장면보다는 픽처의 품질의 점진적인 리파인먼트를 나타내는 것을 표시함
필름 그레인 특성들 디코더들이 필름 그레인을 합성할 수 있게 함
디블록킹 필터 디스플레이 선호도 디스플레이된 픽처들이 인-루프 디블록킹 필터 프로세스를 경험해야 하는지 아닌지를 추천
포스트-필터 힌트 제안된 포스트-필터 계수들 또는 포스트-필터 설계를 위한 상관 정보를 제공
톤 맵핑 정보 인코딩시 사용되거나 가정되는 것과는 다른 컬러 공간으로 리맵핑
프레임 팩킹 배열 입체적인 비디오를 HEVC 비트스트림으로 팩킹
디스플레이 배향 출력 픽처들이 디스플레이될 경우 출력 픽처들에 적용되어야 하는 플립핑 및/또는 회전을 명시함
필드 표시 인터레이스된 비디오 콘텐츠 및/또는 필드 코딩에 관련된 정보를 제공함, 예컨대 픽처가 점진적인 프레임, 필드, 또는 2 개의 인터리빙된 필드들을 포함하는 프레임인지를 표시함.
디코딩된 픽처 해시 에러 검출을 위해 사용될 수도 있는 디코딩된 픽처의 검사합
서브-픽처 타이밍 HRD 동작에 대한 서브-픽처 제거 시간
활성 파라미터 세트 활성 VPS, SPS 등에 관한 정보를 제공함
픽처 구조 설명 비트스트림의 시간 및 인터 예측 구조를 설명함
SEI 메세지들의 개관
일부 예들에서, 비디오 인코더 (20) 는 SEI 메세지들이 액세스 유닛 내에 위치되는 장소를 제한하도록 구성될 수도 있다. 예를 들어, SEI 메세지들에서, 서브-픽처 타이밍 SEI 메세지는, 디코딩 순서에 있어서, SEI 메세지를 포함하는 액세스 유닛에서의 제 1 VCL NAL 유닛을 뒤따를 수도 있지만, 디코딩 순서에 있어서, 액세스 유닛에서의 최종 VCL NAL 유닛을 뒤따르지 않을 수도 있다. 다른 SEI 메세지들 모두는, SEI 메세지를 포함하는 SEI NAL 유닛에 대하여 nuh_reserved_zero_6bits 가 0 과 동일할 경우에 액세스 유닛에서의 제 1 VCL NAL 유닛에 선행할 수도 있다.
nuh_reserved_zero_6bits 신택스 엘리먼트는 스케일러블 비디오 코딩에서 층 또는 멀티뷰 비디오 코딩에서 뷰를 식별한다. 예를 들어, nuh_reserved_zero_6bits 신택스 엘리먼트는 스케일러블 비디오 코더에서 기본 층에 대하여 0 또는 멀티뷰 비디오 코딩에서 기본 뷰에 대하여 0 이다. 다른 층들 또는 뷰들에 대한 nuh_reserved_zero_6bits 신택스 엘리먼트는 그 층 또는 뷰를 식별하기 위해 사용된 양의 정수 값이다. 스케일러블 비디오 코딩 또는 멀티뷰 비디오 코딩이 사용되지 않는 경우에, nuh_reserved_zero_6bits 는 0 인 것으로 가정된다.
표 1 에 표시된 것과 같이, 버퍼링 주기 SEI 메세지, 픽처 타이밍 SEI 메세지, 및 서브-픽처 타이밍 SEI 메세지와 같은 다양한 SEI 메세지들은 가설 참조 디코더 (HRD) 에서 지연들 및 제거 시간들을 정의한다. HRD 는 코딩된 픽처 버퍼 (CPB) 및 디코딩된 픽처 버퍼 (DPB) 의 특징들을 정의하는데 사용되는 모델이다. 전술된 것과 같이, CPB 는 디코딩 이전에 인코딩된 픽처들과 같은 비트스트림들로부터의 비디오 데이터를 저장하고, DPB 는 디코딩된 픽처들을 포함하는 디코딩된 비디오 데이터를 저장한다.
일반적으로, 각각의 비디오 코딩 표준은 비디오 버퍼링 모델에 대한 사양을 포함한다. AVC 및 HEVC 에서, 버퍼링 모델은 가설 참조 디코더 (HRD) 로 지칭되고, 이는 코딩된 픽처 버퍼 (CPB) 및 디코딩된 픽처 버퍼 (DPB) 양자의 버퍼링 모델을 포함하며, CPB 및 DPB 거동들은 수학적으로 명시된다. HRD 는 상이한 타이밍, 버퍼 사이즈들 및 비트 레이트에 관한 제약들을 직접적으로 부과하고, 비트스트림 특징들 및 통계들에 관한 제약들을 간접적으로 부과할 수도 있다. HRD 파라미터들의 완전한 세트는 5 개의 기본 파라미터들: 초기 CPB 제거 지연, CPB 사이즈, 비트 레이트, 초기 DPB 출력 지연, 및 DPB 사이즈를 포함한다.
AVC 및 HEVC 에서, 비트스트림 적합성 및 디코더 적합성은 HRD 사양의 부분들로서 명시된다. HRD 는 디코더의 일 타입으로 지칭되지만, HRD 는 통상적으로 비트스트림 적합성을 보장하기 위해 비디오 인코더 (20) 측에서 요구되는 것이 이해되어야만 한다. HRD 는 비디오 디코더 (30) 측에서 요구되지 않을 수도 있다. 예를 들어, 비디오 인코더 (20) 는 CPB 및 DPB 의 타이밍 정보 및 다른 특징들을 SEI 메세지들로서 시그널링할 수도 있고, 비디오 디코더 (30) 는 시그널링된 SEI 메세지들에 기초하여 CPB 및 DPB 의 타이밍 및 특징들을 결정할 수도 있다. 예를 들어, SEI 메세지들은 2 가지 타입의 비트스트림 또는 HRD 적합성, 즉 타입 I 및 타입 II 을 명시할 수도 있다. 또한, SEI 메세지들은 2 가지 타입들의 비디오 디코더 (30) 적합성: 출력 타이밍 디코더 적합성 및 출력 순서 디코더 적합성을 명시할 수도 있다.
본 개시물에 설명된 기술들에서, 비디오 인코더 (20) 는 비디오 디코더 (30) 의 CPB 가 액세스 유닛 레벨에서 동작할 수 있는지, (또한 서브-픽처 레벨로 지칭되는) 서브-액세스 유닛 레벨에서 동작할 수 있는지 여부를 명시할 수도 있다. 전술된 것과 같이, 비디오 인코더 (20) 는 신택스 엘리먼트 (예컨대, SubPicCpbFlag) 를 인코딩하고 출력 (예컨대, 시그널링) 한다. SubPicCpbFlag 의 값이 0 이면, 서브-픽처 레벨에서 CPB 동작은 허용되지 않는다. SubPicCpbFlag 의 값이 1 이면, 서브-픽처 레벨에서 CPB 동작은 허용된다.
SEI 메세지들은 액세스 유닛 내의 디코딩 유닛들과 관련된 정보를 제공할 수도 있다. 예를 들어, 픽처 타이밍 SEI 메세지 (PT SEI 메세지) 는 num_nalus_in_du_minus1[i] 신택스 엘리먼트들을 포함할 수도 있다. num_nalus_in_du_minus1[i] 신택스 엘리먼트 더하기 1 은 i 번째 디코딩 유닛 내의 NAL 유닛들의 수를 표시한다.
일부 경우들에서, 비디오 디코더 (30) 는 비디오 인코더 (20) 에 의해 출력된 num_nalus_in_du_minus1[i] 신택스 엘리먼트들로부터의 정보를 활용하여 어떤 NAL 유닛들이 어떤 디코딩 유닛들에 연관되는지/할당되는지를 결정할 수도 있다. 예시적인 예로서, num_nalus_in_du_minus1[i] 신택스 엘리먼트들이 액세스 유닛의 제 1 디코딩 유닛이 3 개의 NAL 유닛들과 연관되고, 액세스 유닛의 제 2 디코딩 유닛이 2 개의 NAL 유닛들과 연관되고, 액세스 유닛의 제 3 디코딩 유닛이 2 개의 NAL 유닛들과 연관되는 것을 표시한다고 가정하자.
이 예에서, 비디오 디코더 (30) 는 CPB 가 NAL 유닛들을 수신하는 순서에 기초하여 어떤 NAL 유닛들이 어떤 디코딩 유닛들과 연관되는지를 결정한다. 예를 들어, 비디오 디코더 (30) 는 CPB 가 수신하는 제 1 의 3 개의 NAL 유닛들이 제 1 디코딩 유닛과 연관되고, CPB 가 수신하는 다음 2 개의 NAL 유닛들이 제 2 디코딩 유닛과 연관되고, CPB 가 수신하는 다음 2 개의 NAL 유닛들이 제 3 디코딩 유닛과 연관되는 것으로 결정한다.
그러나, 각각의 디코딩 유닛과 연관되는 NAL 유닛들의 수를 표시하는 신택스 엘리먼트들에 기초하여 어떤 NAL 유닛들이 어떤 디코딩 유닛들과 연관되는지를 결정하는 비디오 디코더 (30) 는 에러에 강인하지 않다. 에러-유발 또는 손실 통신 링크에서, NAL 유닛들 중 하나 이상이 손실될 수도 있다. 예를 들어, 링크 (16) 가 에러-유발 또는 손실된다면, NAL 유닛들 중 하나 이상이 손실될 수도 있다. 다른 예로서, 출력 인터페이스 (22) 로부터 저장 디바이스 (21) 로의 링크 또는 출력 인터페이스 (32) 로부터 입력 인터페이스 (28) 로의 링크가 에러-유발 또는 손실된다면, NAL 유닛들 중 하나 이상이 손실될 수도 있다.
NAL 유닛이 손실될 경우, 비디오 디코더 (30) 는, 연속하는 NAL 유닛들의 정확한 위치 및 손실들의 수가 알려지지 않는다면 (비디오 디코더 (30) 가 결정할 수 없을 수도 있다면), 어떤 NAL 유닛들이 어떤 디코딩 유닛들과 연관되는지를 정확히 결정할 수 없을 수도 있다. 예를 들어, 이전의 예에서, 제 2 NAL 유닛이 손실된 것으로 가정하자. 이 경우에, 비디오 디코더 (30) 는, num_nalus_in_du_minus1[i] 신택스 엘리먼트가 제 1 디코딩 유닛이 3 개의 NAL 유닛들을 포함하는 것을 표시하기 때문에, 제 1 의 3 개의 수신된 NAL 유닛들이 제 1 디코딩 유닛을 위한 것임을 결정한다. 그러나, 비디오 인코더 (20) 는 이 경우, 제 3 의 수신된 NAL 유닛을 제 2 의 디코딩 유닛과 연관시켰다 (다시, 제 2 NAL 유닛은 손실된다). 그러므로, 비디오 디코더 (30) 는, 비디오 디코더 (30) 가 제 3 의 수신된 NAL 유닛을 제 2 디코딩 유닛과 연관시켜야만할 경우, 제 3 의 수신된 NAL 유닛을 제 1 디코딩 유닛과 잘못 연관시켰다.
일부 예들에서, num_nalus_in_du_minus1[i] 신택스 엘리먼트들에 부가하거나 이를 대신하여, 비디오 디코더 (30) 는 SEI 메세지들의 위치들에 기초하여 어떤 NAL 유닛들이 어떤 디코딩 유닛들과 연관되는지를 결정할 수도 있다. 일 예로서, 비디오 인코더 (20) 는 액세스 유닛 내에서 서브-픽처 타이밍 (SPT) SEI 메세지들의 위치들을 활용하여 어떤 NAL 유닛들이 어떤 디코딩 유닛들과 연관되는지를 표시할 수도 있고, 비디오 디코더 (30) 는 액세스 유닛 내에서 서브-픽처 타이밍 (SPT) SEI 메세지들의 위치들을 활용하여 어떤 NAL 유닛들이 어떤 디코딩 유닛들과 연관되는지를 결정할 수도 있다.
예를 들어, SPT SEI 메세지는 디코딩 유닛과 연관된 SEI NAL 유닛의 부분이다. SPT SEI 메세지는 디코딩 유닛이 언제 CPB 로부터 제거될 것인지를 표시하는 정보를 제공할 수도 있다. 일부 예들에서, 다음 SPT SEI 메세지까지 SPT SEI 메세지를 포함하지 않는 SEI NAL 유닛을 뒤따르는 모든 NAL 유닛들은 디코딩 유닛과 연관된 것으로 고려된다. 다시 말해서, 제 1 SPT SEI 메세지와 제 2 SPT SEI 메세지 사이에 놓인 NAL 유닛들, 및 제 1 SPT SEI 메세지를 포함하는 SEI NAL 유닛은 모두 디코딩 유닛과 연관되는 것으로 고려된다.
이러한 방식으로, 비디오 디코더 (30) 의 CPB 가 제 1 SPT SEI 메세지를 갖는 제 1 SEI NAL 유닛을 수신한 후에, 비디오 디코더 (30) 는 제 1 SEI NAL 유닛 및 다음 SPT SEI 메세지를 갖는 다음 SEI NAL 유닛 (즉, 제 2 SPT SEI 메세지를 갖는 제 2 SEI NAL 유닛) 까지의 모든 NAL 유닛들이 제 1 디코딩 유닛과 연관된다고 결정할 수도 있다. 비디오 디코더 (30) 는 또한 제 2 SEI NAL 유닛 및 다음 SPT SEI 메세지를 갖는 다음 SEI NAL 유닛 (즉, 제 3 SPT SEI 메세지를 갖는 제 3 SEI NAL 유닛) 까지의 모든 NAL 유닛들이 제 2 디코딩 유닛과 연관된다고 결정할 수도 있다.
일부 경우들에서, 어떤 NAL 유닛들이 어떤 디코딩 유닛들과 연관되는지를 결정하기 위해 SPT SEI 메세지들의 위치들에 의존하는 것은 또한, 에러에 강인하지 않을 수도 있다. 일 예로서, SPT SEI 메세지들의 위치들이 어떤 NAL 유닛들이 디코딩 유닛들과 연관되는지를 정의하기 때문에, SPT SEI 메세지는 디코딩 유닛 내에서 (즉, 디코딩 순서에 있어서, SPT SEI 메세지를 바로 뒤따르는 NAL 유닛 이후 디코딩 유닛에서의 최종 NAL 유닛 이전에) 반복될 수 없다. 예를 들어, 디코딩 유닛이 4 개의 NAL 유닛들을 포함한다고 가정하자. 이 예에서, 제 1 SPT SEI 메세지는 4 개의 NAL 유닛들에 선행하고, 제 2 SPT SEI 메세지는 4 개의 NAL 유닛들을 뒤따를 것이다. SPT SEI 메세지가 2 개의 SPT SEI 메세지들의 중간에 삽입되었다면, 비디오 디코더 (30) 는 제 1 의 2 개의 NAL 유닛들이 제 1 디코딩 유닛을 위한 것이고, 제 2 의 2 개의 NAL 유닛들이 제 2 의 상이한 디코딩 유닛을 위한 것으로 부정확하게 결정할 것이다.
그러나, 디코딩 유닛 내에 SPT SEI 메세지의 하나 이상의 카피들을 포함하여 다른 하나가 손실된 경우에 그 카피들중 하나로부터 적절한 비디오 데이터가 복구될 수 있도록 하는 것이 유리할 수도 있다. 전술된 것과 같이, SPT SEI 메세지는 디코딩 유닛이 언제 CPB 로부터 제거될 것인지를 표시하는 정보를 포함할 수도 있다. 예를 들어, 에러-유발 또는 손실 환경에서, SPT SEI 메세지는 손실될 수도 있고, 디코딩 유닛이 언제 제거될 것인지를 표시하는 SPT SEI 메세지 내의 정보도 손실될 수도 있다.
예를 들어, 전술된 것과 같이, 액세스 유닛은 픽처에 대한 비디오 데이터를 포함하고, (SubPicCpbFlag 이 1 임을 가정할 때) 디코딩 유닛은 액세스 유닛의 서브세트이다. 따라서, 디코딩 유닛은, 일부 예들에서, 픽처의 하나 이상의 슬라이스들 (즉, 픽처의 서브-부분) 에 대한 비디오 데이터를 포함할 수도 있다. 소스 디바이스 (12) 는 패킷들 (예컨대, 실시간 전송 프로토콜 (RTP) 패킷들) 에서 디코딩 유닛의 하나 이상의 슬라이스들을 출력할 수도 있다. SPT SEI 메세지를 포함하는 패킷이 손실된다면, 비디오 디코더 (30) 는 디코딩 유닛의 다른 패킷들에 대한 서브-픽처 타이밍 정보 (예컨대, CPB 로부터의 제거 시간) 를 정확히 결정할 수 없을 수도 있다.
각각의 패킷이 SPT SEI 메세지를 포함하기 위한 것이었다면, 하나의 패킷의 손실은 디코딩 프로세스에 영향을 주지 않을 것인데, 이는 비디오 디코더 (30) 가 패킷들 중 다른 하나의 패킷에서의 SPT SEI 메세지의 카피로부터 SPT SEI 메세지의 서브-픽처 타이밍 정보를 결정할 수 있기 때문이다. 그러나, 일부 다른 기술들에서, SPT SEI 메세지는, 비디오 디코더 (30) 가 어떤 NAL 유닛들이 어떤 디코딩 유닛들과 연관되었는지를 결정하기 위해 SEI 메세지의 위치를 사용하였기 ??문에, 반복되지 않을 수 있다. 다시 말해서, 디코딩 유닛들에서 SPT SEI 메세지들을 반복하는 것을 금지하는 것은, 어떤 NAL 유닛들이 어떤 디코딩 유닛들과 연관되는지를 결정하기 위한 덜 에러에 강인한 방식을 발생한다. 일부 예들에서, 본 개시물의 기술들은 디코딩 유닛들에서 SPT SEI 메세지들의 반복을 금지하는 것들을 제거할 수도 있다.
이하 더 상세히 설명되는 것과 같이, 본 개시물은 비디오 디코더 (30) 가 에러에 강인한 방식으로 어떤 NAL 유닛들이 어떤 디코딩 유닛들과 연관되는지를 결정하게 하는 예시적인 기술들을 설명한다. 예를 들어, 비디오 인코더 (20) 는 디코딩된 유닛들에 대한 식별자를 출력을 위해 생성하고, 이를 출력할 수도 있다. 비디오 디코더 (30) 는, 디코딩 유닛과 연관된 NAL 유닛들의 수 및 NAL 유닛들이 수신되는 순서를 표시하는 정보에 의존하거나 SPT SEI 메세지의 위치에 의존하는 것보다, 상기 식별자를 활용하여 어떤 NAL 유닛들이 어떤 디코딩 유닛들과 연관되는지를 결정할 수도 있다. 디코딩 유닛 식별자의 출력 및 수신은 또한, 비디오 디코더 (30) 의 능력의 에러 강인성을 추가로 증가시키는 SPT SEI 메세지의 다수의 카피들이 CPB 로부터 디코딩 유닛들의 제거 시간들을 결정하게 할 수도 있다.
앞의 내용은 SPT SEI 메세지가 디코딩 유닛 내에서 반복되는 것이 허용되지 않는 예를 설명하였다. 일부 경우들에서, 다양한 다른 타입들의 SEI 메세지들은 디코딩 유닛 내에서 반복되는 것이 또한 금지될 수도 있다. 예를 들어, SPT SEI 메세지가 아니고, SEI 메세지를 포함하는 SEI NAL 유닛에 대한 nuh_reserved_zero_6bits 가 0 과 동일한, 임의의 SEI 메세지는 디코딩 순서에 있어서 제 1 VCL NAL 유닛 이후 최종 NAL 유닛 이전에 SEI 메세지를 포함하는 액세스 유닛 내에서 반복되는 것이 허용되지 않을 수도 있다.
예를 들어, 일부 다른 기술들에서, SEI 메세지들은 비디오 디코더 (30) 가 새로운 액세스 유닛을 프로세싱하고 있는 것을 결정하기 위해 사용된다. 다시 말해서, 코딩된 비트스트림에서 SEI 메세지의 위치는 액세스 유닛의 시작부의 표시이다. SEI 메세지가 액세스 유닛 내에서 반복된다면, 비디오 디코더 (30) 는 새로운 액세스 유닛이 프로세싱되고 있는 것으로 부정확하게 결정할 수도 있다. SEI 메세지들이 새로운 액세스 유닛을 표시하였기 때문에, SEI 메세지들의 카피들은 이들 다른 기술들에서 금지될 수도 있다.
앞의 내용과 유사하게, 액세스 유닛이 에러-유발 환경에서 송신된 다수의 슬라이스들을 포함한다면, 각 패킷에 SEI 메세지들의 카피들을 포함하여 패킷이 손실된 경우에 SEI 메세지들이 액세스 유닛의 다른 패킷들 중 하나 이상으로부터 복구될 수 있도록 하는 것이 유리할 수도 있다. 더 상세히 설명되는 것과 같이, 본 개시물에서 설명된 기술들은 다양한 SEI 메세지들의 다수의 카피들이 액세스 유닛 내에서 반복되는 것을 허용할 수도 있다.
예를 들어, 비디오 디코더 (30) 는 새로운 액세스 유닛이 프로세싱되고 있는지를 결정하기 위해 SEI 메세지에 의존할 필요가 없다. 오히려, 비디오 디코더 (30) 는 새로운 액세스 유닛이 프로세싱되고 있는지를 결정하기 위해 일부 다른 헤더 정보에 의존할 수도 있다. SEI 메세지의 존재가 새로운 액세스 유닛이 프로세싱되고 있는 것을 표시하는 것과 분리되기 때문에, 비디오 인코더 (20) 는 액세스 유닛에 SEI 메세지들의 다수의 카피들을 포함할 수도 있고, 비디오 디코더 (30) 는 새로운 액세스 유닛이 프로세싱되고 있는지를 결정하지 않고 동일한 액세스 유닛 내의 SEI 메세지들의 다수의 카피들을 프로세싱할 수도 있다.
본 개시물에 설명된 기술들에서, 비디오 인코더 (20) 는 각각의 디코딩 유닛에서의 식별자 (디코딩 유닛 식별자, DU 식별자, 또는 DU ID 로 지칭됨) 를 시그널링할 수도 있다. DU 식별자는 디코딩 유닛을 고유하게 식별하는 식별자일 수도 있다. 예를 들어, 액세스 유닛에서 디코딩 순서에 있어서 제 1 디코딩 유닛에 대한 DU 식별자는 0 일 수도 있고, 액세스 유닛에서 디코딩 순서에 있어서 제 2 디코딩 유닛에 대한 DU 식별자는 1 일 수도 있고, 그 밖에 등등이 가능하다 (즉, 제 1 디코딩 유닛에 대한 DU 식별자는 0 이고, DU 식별자의 값은 각각의 후속하는 디코딩 유닛에 대하여 1 씩 증가한다). 디코딩 유닛 식별자들로 디코딩 유닛들을 고유하게 식별하는 다른 방식들이 가능하며, 기술들은 디코딩 순서에 있어서 각각의 디코딩 유닛에 대하여 상승하는 DU 식별자들에 제한되는 것으로 고려되지 않아야 한다.
비디오 인코더 (20) 가 DU 식별자를 시그널링하는 다양한 방식들이 존재할 수도 있다. 예를 들어, 비디오 인코더 (20) 는 디코딩 유닛의 슬라이스의 슬라이스 헤더에서 및/또는 SEI 메세지 (예컨대, SPT SEI 메세지) 에서, 또는 임의의 다른 방식으로 DU 식별자를 시그널링할 수도 있다. 이 경우에, NAL 유닛들의 디코딩 유닛들로의 연관은 시그널링된 SU 식별자들에 기초한다. DU 식별자를 다른 위치들, 예컨대 NAL 유닛 헤더에 포함하는 것이 가능할 수도 있다.
NAL 유닛이 하나 이상의 슬라이스들을 위한 것이면, 비디오 디코더 (30) 는 슬라이스 헤더에서의 DU 식별자로부터 어떤 디코딩 유닛에 대하여 NAL 유닛이 연관되는지 결정할 수도 있다. 따라서, NAL 유닛들에 손실들이 존재하는 경우에도, 비디오 디코더 (30) 는 DU 식별자에 기초하여 어떤 NAL 유닛이 어떤 디코딩 유닛과 연관되는지를 결정할 수도 있다.
SEI 메세지가 DU 식별자를 포함하는 예들에서, SEI 메세지 (예컨대, SPT SEI 메세지) 가 손실되고, 이 경우 DU 식별자가 손실될 수도 있는 것이 가능할 수도 있다. 일부 예들에서, 비디오 인코더 (20) 는 DU 식별자가 손실될 기회들을 최소화하기 위해, 디코딩 유닛 내에 SPT SEI 메세지의 카피들을 포함할 수도 있다. 예를 들어, 전술된 것과 같이, 일부 경우들에서 디코딩 유닛 내의 SPT SEI 메세지의 위치는 어떤 NAL 유닛들이 디코딩 유닛들과 연관되는지를 표시할 수도 있고, 이는 SPT SEI 메세지들의 다수의 카피들이 존재하지 않을 수도 있다는 것을 의미한다. 본 개시물에 설명된 기술들에서, 비디오 디코더 (30) 는 어떤 NAL 유닛들이 어떤 디코딩 유닛들과 연관되는지를 결정하기 위해 DU 식별자를 활용할 수도 있다. 따라서, 비디오 디코더 (30) 는 어떤 NAL 유닛들이 어떤 디코딩 유닛들과 연관되는지를 결정하기 위해 SPT SEI 메세지들의 위치에 의존할 필요가 없다. 이는 비디오 인코더 (20) 가 코딩된 비트스트림 내의 디코딩 유닛 내에 SPT SEI 메세지들의 다수의 카피들을 포함하는 것을 허용하며, 이는 결국 SPT SEI 메세지의 각각의 카피가 DU 식별자를 포함할 경우에 DU 식별자가 손실될 확률을 감소시킨다.
전술된 것과 같이, 일부 예들에서, SEI 메세지들은 SEI 메세지를 포함하는 액세스 유닛에서 디코딩 순서에 있어서 제 1 VCL NAL 유닛을 뒤따르도록 허용되지 않는다. 일부 예들에서, 비디오 인코더 (20) 는 모든 SEI 메세지들이, SEI 메세지를 포함하는 액세스 유닛에서, 디코딩 순서에 있어 제 1 VCL NAL 유닛을 뒤따르도록 허용할 수도 있다. 그러나, SEI 메세지는 액세스 유닛에서 디코딩 순서에 있어 최종 VCL NAL 유닛 이후에 위치되지 않을 수도 있다.
일 예로서, 비디오 인코더 (20) 는 디코딩 순서에 있어서 제 1 VCL NAL 유닛 이전에 SEI 메세지를 포함할 수도 있다. 비디오 인코더 (20) 는 액세스 유닛에서 디코딩 순서에 있어서 제 1 VCL NAL 유닛 이후에 SEI 메세지의 카피를 포함할 수도 있다. 상기 예에서, 비디오 인코더 (20) 는 액세스 유닛에서 디코딩 순서에 있어서 최종 VCL NAL 유닛 이후에 SEI 메세지의 카피를 포함하지 않을 수도 있다.
비디오 인코더 (20) 가 다양한 타입들의 SEI 메세지들이 디코딩 유닛 또는 액세스 유닛에서 반복되는 것을 허용하는 예들에서, 비디오 인코더 (20) 는 SEI 메세지들과 관련된 추가의 정보를 명시할 수도 있다. 일 예로서, 비디오 인코더 (20) 는 SEI 메세지에서 운반되는 정보가 적용되는 적용 범위를 명시할 수도 있다. 다른 예로서, 비디오 인코더 (20) 는 액세스 유닛 및/또는 디코딩 유닛에서 SEI 메세지가 존재할 수 있는 장소를 명시할 수도 있다. 또 다른 예로서, 비디오 인코더 (20) 는 특정 타입의 SEI 메세지들의 다수의 인스턴스들의 콘텐츠에 대한 제한을 설정할 수도 있다.
비디오 디코더 (30) 는 SEI 메세지들에 대한 그러한 정보를 NAL 유닛들에서 데이터를 디코딩하기 위해 활용한다. 일부 예들에서, 비디오 디코더 (30) 는 특정 타입의 SEI 메세지들의 다수의 인스턴스들의 콘텐츠들에 관한 제한을 표시하는 정보와 같은 SEI 메세지들의 정보로 미리 구성되거나, SEI 메세지들이 액세스 유닛 및/또는 디코딩 유닛 내에 위치될 수 있는 장소의 정보로 미리 구성될 수도 있다. 이들 경우들에서, 비디오 인코더 (20) 가 SEI 메세지가 존재할 수 있는 장소를 명시하거나 특정 타입의 SEI 메세지들의 다수의 인스턴스들의 콘텐츠들에 관한 임의의 제한을 포함하는 정보를 시그널링하는 것은 불필요할 수도 있다.
전술된 것과 같이, 액세스 유닛은 적어도 하나의 픽처에 대한 비디오 데이터를 포함한다. 일부 예들에서, 액세스 유닛은 다수의 층들에 대한 비디오 데이터를 포함할 수도 잇고, 비디오 인코더 (20) 는 예컨대, HEVC (high efficient video coding) 표준의 멀티층 확장물에서, 다수의 층들로 비디오 비트스트림을 인코딩할 수도 있다.
다수의 층들은 기본 층 및 하나 이상의 비-기본 층들을 포함한다. 일부 예들에서, 기본 층은 픽처를 구성하기 위한 비디오 데이터를 포함할 수도 있고, 비-기본 층은 기본 층에서 픽처의 품질을 향상시키기 위한 비디오 데이터를 포함하는 공간 또는 품질 향상 층일 수도 있다. 멀티뷰 비디오 코딩에 대한 일부 예들에서, 기본 층은 특정 뷰 (예컨대, 인터-예측의 임의의 다른 뷰를 요구하지 않는 기본 뷰) 의 픽처들에 대한 비디오 데이터를 포함할 수도 있고, 비-기본 층은 상이한 뷰의 텍스처, 상이한 뷰의 심도, 및 다른 그러한 예들을 포함할 수도 있다.
본 개시물에 설명된 기술들에서, 비디오 인코더 (20) 는 (http://tools.ietf.org/rfc/rfc6190.txt 에서 공개적으로 입수가능한) IETF RFC 6190 에 유사하게 정의된 (예컨대, MST (multi-session transmission) 을 사용하는) 상이한 채널들에서 상이한 층들을 전송할 수도 있다. 본 개시에서 설명되는 기술들은 멀티-층들을 인코딩하기 위해 멀티 세션 송신이 활용되는 예들로 확장가능하다. 예를 들어, 액세스 유닛에서 제 1 CAL NAL 유닛 이후에 SEI 메세지를 포함하기 위한 본 개시물에서 설명된 기술들은 또한, 멀티-세션 송신의 예들에 적용가능하다. 일 예로서, 비디오 인코더 (20) 는 액세스 유닛의 제 1 VCL NAL 유닛 이전의 SEI NAL 유닛들을 이동시킬 필요 없이, 액세스 유닛 내의 2 개의 연속하는 VCL NAL 유닛들 사이에 SEI NAL 유닛을 포함할 수도 있다.
SEI NAL 유닛이 멀티-세션 송신 기술들을 위한 SEI 메세지들을 포함하기 때문에, 비디오 디코더 (30) 는 더 간략화된 방식으로 패킷화 해제 프로세스를 구현할 수도 있다. 예를 들어, 비디오 디코더 (30) 는 액세스 유닛의 시작부로부터 전부 보다는, 액세스 유닛 내에서부터 멀티-세션 송신 기술들에 대한 SEI 메세지들을 디코딩할 수도 있다. SEI 메세지의 다수의 카피들이 액세스 유닛 전체에서 사용가능하기 때문에, 비디오 디코더 (30) 는 수신된 패킷들을 더 효율적인 방식으로 패킷화해제할 수도 있다.
본 개시물의 기술들은 서로 함께 또는 개별적으로 적용될 수도 있다. 예를 들어, 비디오 인코더 (20) 가 DU 식별자를 포함한다면, 비디오 인코더 (20) 는 모든 예들에서 SPT SEI 메세지의 다수의 카피들을 반드시 포함해야하는 것이 아니라, 일부 예들에서 SPT SEI 메세지의 다수의 카피들을 포함할 수도 있다. 다른 예로서, 비디오 인코더 (20) 는 비디오 인코더 (20) 가 DU 식별자들을 포함하지 않을 경우에도 다양한 타입의 SEI 메세지들의 다수의 카피들을 포함할 수도 있다. 또 다른 예로서, 비디오 인코더 (20) 가 DU 식별자를 포함하는 예들에서, 비디오 인코더 (20) 는 SPT SEI 메세지가 아닌 SEI 메세지들의 다수의 카피들을 반드시 포함해야하는 것은 아니다. 일반적으로, 본 개시물에 설명된 기술들은, 시그널링 시에 정보가 손실될 수도 있는 에러-유발 환경을 위해 에러에 강인한 방식들을 제공하는데 있어 유리할 수도 있다.
전술된 것과 같이, 일 예에서, 비디오 인코더 (20) 는 슬라이스 헤더에 DU 식별자를 포함한다. 이하 표 2 는 비디오 인코더 (20) 가 슬라이스 헤더에 DU 식별자를 포함할 수도 있는 방식, 및 비디오 디코더 (30) 가 DU 식별자를 결정하기 위해 슬라이스 헤더를 해석할 수도 있는 방식을 위해 예시적인 의사-코드를 제공한다.
Figure 112015040304742-pct00001
슬라이스 헤더에서의 시그널링
상기 예에서, decoding_unit_id 는 DU 식별자를 지칭하고, 슬라이스가 속하는 디코딩 유닛의 식별자를 명시한다. decoding_unit_id 의 값은 0 부터 PicSizeInCtbsY - 1 까지의 범위에 있을 수도 있다. PicSizeInCtbsY 는 픽처에서 코딩 트리 유닛들 (CTU들) 의 수를 표시할 수도 있고, 이는 픽처의 루마 컴포넌트에서 코딩 트리블록들 (CTB들) 의 수와 동일하다.
비디오 인코더 (20) 가 슬라이스 헤더에 디코딩 유닛 식별자를 포함하는 예에서, DU 식별자 (예컨대, DU ID 또는 duID) 의 특정 값에 의해 식별된 디코딩 유닛은 액세스 유닛에서 DU 식별자와 동일한 decoding_unit_id 을 갖는 모든 코딩된 스라이스들 NAL 유닛들 및 그들의 연관된 비-VCL NAL 유닛들을 포함할 수도 있고, 오직 포함할 수도 있다. 하나의 액세스 유닛 내에서, 각각 duIDa 및 duIDb (여기서 duIDa 는 duIDb 미만임) 와 동일한 decoding_unit_id 를 갖는 임의의 2 개의 디코딩 유닛들 (예컨대, 디코딩 유닛 A 과 디코딩 유닛 B) 에 대하여, 디코딩 유닛 A 은 디코딩 순서에 있어서 디코딩 유닛 B 에 선행할 수도 있다. 다시 말해서, 더 작은 DU 식별자를 갖는 디코딩 유닛은 디코딩 순서에 있어서 더 큰 DU 식별자를 갖는 디코딩 유닛에 선행한다. 추가로, 하나의 디코딩 유닛의 NAL 유닛은 디코딩 순서에 있어서, 다른 디코딩 유닛의 2 개의 NAL 유닛들 사이에 존재하지 않을 수도 있다. 다시 말해서, 상기 예에서, 디코딩 유닛의 NAL 유닛들은 인접한다.
전술된 것과 같이, 일부 예들에서, 비디오 인코더 (20) 는 SEI 메세지 (예컨대, SPT SEI 메세지) 에 DU 식별자를 포함할 수도 있고, SPT SEI 메세지는 디코딩 유닛이 언제 제거될 것인지를 표시하는 정보를 포함한다. 하기에서, 비디오 인코더 (20) 가 SEI 메세지에 DU 식별자를 포함하기 위한 일부 예시적인 기술들을 설명한다. 충돌을 회피하기 위해, 하기에서 서브-픽처 타이밍 (SPT) SEI 메세지의 명칭은 디코딩 유닛 정보 SEI 메세지로 변경된다. 다시 말해서, 일부 예들에서, CPB 로부터 디코딩 유닛의 제거 시간을 표시하는 정보를 또한 포함하는 SEI 메세지에서의 DU 식별자를, 비디오 인코더 (20) 가 출력하고 비디오 디코더 (30) 가 수신한다.
이하 표 3 은 비디오 인코더 (20) 가 SEI 메세지에 DU 식별자를 포함할 수도 있는 방식, 및 비디오 디코더 (30) 가 DU 식별자를 결정하기 위해 SEI 메세지를 해석할 수도 있는 방식을 위해 예시적인 의사-코드를 제공한다. 하기에서, 서브-픽처 타이밍 (SPT) SEI 메세지의 명칭은 디코딩 유닛 정보 SEI 메세지로 변경되고, 신택스 및 시맨틱들은 하기와 같을 수도 있다. 다른 부분들은 HEVC WD8 에서와 동일하며, "서브-픽처 타이밍 SEI 메세지" 는 "디코딩 유닛 정보 SEI 메세지" 로 대체된다. 디코딩 유닛 정보 SEI 메세지는 SEI 메세지와 연관된 디코딩된 유닛에 대한 CPB 제거 시간 (예컨대, CPB 제거 지연 정보) 을 제공할 수도 있다.
Figure 112015040304742-pct00002
SEI 메세지에서의 시그널링
HEVC WD8 에서, 서브-픽처 타이밍 (SPT) SEI 메세지는 표 3 과 유사할 수도 있다. 그러나, HEVC WD8 의 SPT SEI 메세지는 decoding_unit_id 신택스 엘리먼트를 포함하지 않았고, 오직 du_cpb_removal_delay 신택스 엘리먼트를 포함했다. 본 개시물에 설명된 예시적인 기술들 중 일부에서, SEI 메세지는 또한 decoding_unit_id 를 포함하기 때문에, SPT SEI 메세지는 디코딩 유닛 정보 SEI 메세지로 명칭 변경된다.
일부 예들에서, 비디오 인코더 (20) 는 신택스 엘리먼트들을 출력을 위해 생성하고 출력하며, 비디오 디코더 (30) 는 비트스트림에서 디코딩 유닛 정보 SEI 메세지의 존재를 표시하는 신택스 엘리먼트들을 수신한다. 일 예로서, 비디오 인코더 (20) 는 CpbDpbDelaysPresentFlag 및 sub_pic_cpb_params_present_flag 를 출력한다. CpbDpbDelaysPresentFlag 가 1 과 동일하고 sub_pic_cpb_params_present_flag 가 1 과 동일하다면, 비디오 디코더 (30) 는 1 또는 1 초과의 디코딩 유닛 정보 SEI 메세지 (즉, 하나 이상의 디코딩 유닛 정보 SEI 메세지들) 가 코딩된 비디오 시퀀스에서의 각각의 디코딩 유닛에 존재하는 것으로 결정할 수도 있다. CpbDpbDelaysPresentFlag 가 0 과 동일하거나 sub_pic_cpb_params_present_flag 가 0 과 동일하다면, 비디오 디코더 (30) 는 어떤 디코딩 유닛 정보 SEI 메세지들도 코딩된 비디오 시퀀스의 임의의 액세스 유닛에 존재하지 않는 것으로 결정할 수도 있다.
본 개시물에 설명된 하나 이상의 예들에 따라, 또한 디코딩 유닛 정보 SEI 메세지와 연관된 NAL 유닛들로 지칭되는, 디코딩 유닛 정보 SEI 메세지가 적용되는 NAL 유닛들은 디코딩 순서에 있어서, 디코딩 유닛 정보 SEI 메세지를 포함하는 SEI NAL 유닛 및 상이한 값의 decoding_unit_id 를 갖는 디코딩 유닛 정보 SEI 메세지를 포함하는 임의의 후속하는 SEI NAL 유닛을 포함하지 않는 것까지의 액세스 유닛에서의 모든 후속하는 NAL 유닛들로 구성된다. 이들 예들에서, decoding_unit_id 의 정의는 표 2 에 대하여 전술된 decoding_unit_id 의 정의와 동일할 수도 있지만, SEI 메세지 (예컨대, 디코딩 유닛 정보 SEI 메세지) 에 포함된다. 예를 들어, 특정 값의 DU 식별자 (예컨대, DU ID 또는 duID) 에 의해 식별되는 디코딩 유닛은 액세스 유닛에서 DU 식별자와 동일한 decoding_unit_id 를 갖는 모든 디코딩 유닛 정보 SEI 메세지들과 연관된 모든 NAL 유닛들을 포함할 수도 있고, 오직 포함할 수도 있다. 전술된 것과 같이, 더 작은 디코딩 유닛 식별자를 갖는 디코딩 유닛은 더 큰 디코딩 유닛 식별자를 갖는 디코딩 유닛보다 디코딩 순서에 있어서 더 이전이다. 전술된 것과 같이, 하나의 디코딩 유닛의 NAL 유닛은 디코딩 순서에 있어서, 다른 디코딩 유닛의 2 개의 NAL 유닛들 사이에 존재하지 않을 수도 있다.
du_cpb_removal_delay 은, 비디오 디코더 (30) 가 디코딩 유닛 정보 SEI 메세지와 연관된 디코딩 유닛을 CPB 로부터 제거하기 전에, 비디오 디코더 (30) 가 선행하는 액세스 유닛에서의 가장 최근의 버퍼링 주기 SEI 메세지와 연관된 액세스 유닛에서의 제 1 디코딩 유닛의 CPB 로부터의 제거 이후에, 얼마나 많은 서브-픽처 클록 틱들을 대기할 것인지를 명시할 수도 있다. 이 값은 또한, HEVC WD8 의 첨부서류 C 에 명시된 것과 같이 가설 스트림 스케줄러 (HSS) 에 대한 CPB 내로 디코딩 유닛 데이터의 도달의 가장 빠른 가능한 시간을 계산하는데 사용될 수도 있다.
신택스 엘리먼트는 그 비트 길이가 cpb_removal_delay_length_minus1 + 1 로 주어지는 고정 길이 코드로 표현될 수도 있다. du_cpb_removal_delay 는 모듈로 2(cpb_removal_delay_length_minus1 + 1) 카운터의 나머지일 수도 있다.
일부 예들에서, 신택스 엘리먼트 du_cpb_removal_delay 의 길이 (비트) 를 결정하는 cpb_removal_delay_length_minus1 의 값은, 디코딩 유닛 정보 SEI 메세지와 연관된 코딩된 픽처에 대하여 활성인 시퀀스 파라미터 세트에서 코딩된 cpb_removal_delay_length_minus1 의 값일 수도 있다. 그러나, du_cpb_removal_delay 는 상이한 코딩된 비디오 시퀀스의 액세스 유닛일 수도 있는 버퍼링 주기 SEI 메세지를 포함하는 선행하는 액세스 유닛에서 제 1 디코딩 유닛의 제거 시간과 관련된 서브-픽처 클록 틱들의 수를 명시한다.
표 3 은 디코딩 유닛 정보 SEI 메세지의 일 예에 대한 예시적인 의사 코드를 제공하였으며, 여기서 SPT SEI 메세지의 명칭은, 디코딩 유닛 정보 SEI 메세지가 이전에 SPT SEI 메세지의 부분이었던 정보를 포함했고 메세지와 연관된 디코딩 유닛에 대한 DU 식별자를 추가로 포함했기 때문에, 디코딩 유닛 정보 SEI 메세지로 변경되었다. 일부 예들에서, 서브-픽처 타이밍 (SPT) SEI 메세지에 대한 다른 변경들이 잠재적으로 존재할 수도 있다.
예를 들어, 2012 년 9 월 24 일자로 출원된 미국 가출원 제 61/705,119 호 (본 명세서에서 이후 출원 '119) 및 2012 년 10 월 1 일자로 출원된 미국 가출원 제 61/708,475 호 (본 명세서에서 이후 출원 '475) 은, 이들 각각의 전체 내용이 참조에 의해 본 명세서에 통합되고, HEVC WD8 에 설명된 SPT SEI 메세지와 관련하여 SPT SEI 메세지에 대한 일부 가능한 변경을 설명한다. 출원 '119 및 출원 '475 은 SPT SEI 메세지에서 애플리케이션 동작 포인트 신택스 구조를 포함하는 것 및 du_cpb_removal_delay 신택스 엘리먼트를 이하 정의되는 du_spt_cpb_removal_delay 로 변경시키는 것을 설명한다.
본 개시물에 설명된 기술들은 또한 HEVC WD8 로부터의 SPT SEI 메세지가 출원 '119 및 출원 '475 에서의 SPT SEI 메세지로 변화한 예들에 적용가능하다. 이하 표 4 는 비디오 인코더 (20) 가 SEI 메세지의 대안적인 예에서 DU 식별자를 시그널링할 수도 있는 방식, 및 비디오 디코더 (30) 가 DU 식별자를 결정하기 위해 SEI 메세지를 해석할 수도 있는 방식을 위해 예시적인 의사-코드를 제공한다. 표 3 과 마찬가지로, 충돌을 피하기 위해, SPT SEI 메세지의 명칭은, 디코딩 유닛 정보 SEI 메세지가 출원 '119 및 출원 '475 에 설명된 것과 같은 SPT SEI 메세지에서의 정보에 부가하여 DU 식별자를 포함하기 때문에, 디코딩 유닛 정보 SEI 메세지로 변경된다.
Figure 112015040304742-pct00003
SEI 메세지에서 대안적인 시그널링
1 과 동일한 sub_pic_cpb_params_in_pic_timing_sei_flag 는 서브-픽처 레벨 CPB 제거 지연 파라미터들이 픽처 타이밍 SEI 메세지들에 존재하고 어떤 서브-픽처 타이밍 SEI 메세지도 존재하지 않는 것을 명시한다. 0 과 동일한 sub_pic_cpb_params_in_pic_timing_sei_flag 는 서브-픽처 레벨 CPB 제거 지연 파라미터들이 서브-픽처 타이밍 SEI 메세지들에 존재하고, 픽처 타이밍 SEI 메세지들이 서브-픽처 레벨 CPB 제거 지연 파라미터들을 포함하지 않는 것을 명시한다.
도 3 과 관련하여 전술된 것과 같이, 디코딩 유닛 정보 SEI 메세지는 SEI 메세지와 연관된 디코딩 유닛에 대한 CPB 제거 지연 정보를 제공한다. 하기의 내용은 디코딩 유닛 정보 SEI 메세지 신택스 및 시맨틱들에 적용할 수도 있다.
신택스 엘리먼트들 sub_pic_cpb_params_present_flag, sub_pic_cpb_params_in_pic_timing_sei_flag, 및 cpb_removal_delay_length_minus1 과, 변수 CpbDpbDelaysPresentFlag 는, 디코딩 유닛 정보 SEI 메세지가 적용되는 임의의 동작 포인트들에 적용가능한 hrd_parameters( ) 신택스 구조와 sub_layer_hrd_parameters( ) 신택스 구조에서 발견된 신택스 엘리먼트들에서 발견되거나 유도될 수도 있다. 비트스트림 (또는 그 부분) 은 디코딩 유닛 정보 SEI 메세지가 적용되는 임의의 동작 포인트들과 연관된 비트스트림 서브세트 (또는 그 부분) 를 지칭한다.
표 3 에 대한 앞의 내용과 유사하게, 비디오 인코더 (20) 는, 비디오 디코더 (30) 가 비트스트림에서 디코딩 유닛 SEI 메세지의 존재를 결정하기 위해 활용하는, CpbDpbDelaysPresentFlag 및 sub_pic_cpb_params_present_flag 를 출력한다. 표 4 의 예에서, CpbDpbDelaysPresentFlag 가 1 과 동일하고 sub_pic_cpb_params_present_flag 가 1 과 동일하다면, 비디오 디코더 (30) 는 명시된 동작 포인트들에 적용가능한 하나의 디코딩 유닛 정보 SEI 메세지가 코딩된 비디오 시퀀스에서 각각의 디코딩 유닛에 존재하는 것으로 결정할 수도 있다. 그렇지 않으면 (예컨대, CpbDpbDelaysPresentFlag 가 0 과 동일하거나 sub_pic_cpb_params_present_flag 가 0 과 동일하다면), 비디오 디코더 (30) 는 명시된 동작 포인트들에 적용가능한 어떤 디코딩 유닛 정보 SEI 메세지들도 코딩된 비디오 시퀀스에 존재하지 않는 것으로 결정할 수도 있다.
표 3 에 대한 설명과 유사하게, 또한 디코딩 유닛 정보 SEI 메세지와 연관된 NAL 유닛들로 지칭되는, 디코딩 유닛 정보 SEI 메세지가 적용되는 NAL 유닛들은, 디코딩 순서에 있어서, 디코딩 유닛 정보 SEI 메세지를 포함하는 SEI NAL 유닛 및 상이한 값의 decoding_unit_id 를 갖는 디코딩 유닛 정보 SEI 메세지를 포함하는 임의의 후속하는 SEI NAL 유닛을 포함하지 않는 것까지의 액세스 유닛에서의 모든 후속하는 NAL 유닛들로 구성된다. decoding_unit_id 의 정의는 표 3 에 대하여 전술된 것과 동일할 수도 있고, 더 작은 DU 식별자를 갖는 디코딩 유닛은 더 큰 DU 식별자를 갖는 디코딩 유닛보다 디코딩 순서에 있어서 더 이전이다. 표 4 의 예에서, du_cpb_removal_delay 는 디코딩 유닛 정보 SEI 메세지를 포함하는 현재의 액세스 유닛에서 디코딩 순서에 있어서 최종 디코딩 유닛의 CPB 로부터의 제거와 디코딩 유닛 정보 SEI 메세지와 연관된 디코딩 유닛 사이의 지속시간을, 서브-픽처 클록 틱들 (HEVC WD8 의 하위 조항 E.2.1 에 도시) 의 유닛들로 명시할 수도 있다. (이 값은 또한, HEVC WD8 의 첨부서류 C 에 명시된 것과 같이, 가설 시퀀스 스케줄러 (HSS) 에 대하여 CPB 내로 디코딩 유닛 데이터의 도달의 가장 빠른 가능한 시간을 계산하는데 사용될 수도 있다. 신택스 엘리먼트는 그 비트 길이가 du_cpb_removal_delay_length_minus1 + 1 로 주어지는 고정 길이 코드로 표현될 수도 있다. 디코딩 유닛 정보 SEI 메세지와 연관된 디코딩 유닛이 현재 액세스 유닛에서 최종 디코딩 유닛일 경우, du_spt_cpb_removal_delay 의 값은 0 과 동일할 수도 있다.
대안적으로, du_spt_cpb_removal_delay 는, 디코딩 유닛 정보 SEI 메세지를 포함하는 현재의 액세스 유닛에서 디코딩 순서에 있어서 다음 디코딩 유닛의 CPB 로부터의 제거와 디코딩 유닛 정보 SEI 메세지와 연관된 디코딩 유닛 사이의 지속시간을, 서브-픽처 클록 틱들 (하위 조항 E.2.1 에 도시) 의 유닛들로 명시할 수도 있다. (이 값은 또한, HEVC WD8 의 첨부서류 C 에 명시된 것과 같이, HSS 에 대하여 CPB 내로 디코딩 유닛 데이터의 도달의 가장 빠른 가능한 시간을 계산하는데 사용될 수도 있다. 신택스 엘리먼트는 그 비트 길이가 du_cpb_removal_delay_length_minus1 + 1 로 주어지는 고정 길이 코드로 표현될 수도 있다. 디코딩 유닛 정보 SEI 메세지와 연관된 디코딩 유닛이 현재 액세스 유닛에서 최종 디코딩 유닛일 경우, du_spt_cpb_removal_delay 의 값은 0 과 동일할 수도 있다. 대안적으로, 어떤 디코딩 유닛 정보 SEI 메세지도 각각의 액세스 유닛에서 최종 디코딩 유닛과 연관되지 않을 수도 있다.
앞의 예들은, 비디오 디코더 (30) 가 어떤 NAL 유닛들이 어떤 디코딩 유닛들과 연관되는지를 결정하기 위해 활용하는 디코딩 유닛 식별자를 시그널링 하기 위한 기술들을 설명하였다. 예를 들어, 슬라이스 헤더가 디코딩 유닛 식별자를 표시한다면, 비디오 디코더 (30) 는 슬라이스를 포함하는 NAL 유닛이 슬라이스 헤더에 표시된 디코딩 유닛과 연관되는 것으로 결정할 수도 있다. 다른 예로서, SEI 메세지 (예컨대, 디코딩 유닛 정보 SEI 메세지) 가 디코딩 유닛 식별자를 표시한다면, 비디오 디코더 (30) 는 이전의 SEI 메세지의 디코딩 유닛 식별자와 상이한 디코딩 유닛 식별자를 갖는 디코딩 유닛 정보 SEI 메세지를 포함하는 다음 SEI NAL 유닛까지의 SEI 메세지를 뒤따르는 모든 NAL 유닛들을 결정한다. 이는 비디오 인코더 (20) 가 디코딩 유닛 정보 SEI 메세지의 다수의 카피들을 포함하게 하며, 결국 비디오 디코더 (30) 가 다른 디코딩 유닛 정보 SEI 메세지 중 하나가 송신시 손실되는 경우에 복수의 디코딩 유닛 정보 SEI 메세지 중 하나로부터 CPB 로부터 디코딩 유닛의 제거 시간을 결정하게 한다.
일부 예들에서, 비디오 인코더 (20) 는 다양한 타입의 SEI 메세지들의 다수의 카피들을 출력을 위해 생성하고 이들을 출력할 수도 있고, 비디오 디코더 (30) 는 이들을 수신할 수도 있다. 전술된 것과 같이, 모든 SEI 메세지들에 대하여 다음 양태들이 명시된다: a) SEI 메세지에서 운반되는 정보가 적용되는 적용 범위; b) SEI 메세지가 존재할 수 있는 위치; 및 c) 특정 타입의 SEI 메세지의 다수의 인스턴스들의 콘텐츠들에 대한 제한.
다음의 규약은 적용 범위, 메세지가 존재할 수 있는 위치, 및 SEI 메세지의 다수의 인스턴스들의 콘텐츠들에 대한 제한을 설명하기 위해 가정된다. SEI 메세지는 SEI 메세지를 포함하는 SEI NAL 유닛의 NAL 유닛 헤더에서 nuh_reserved_zero_6bits 의 값과 연관되는 것으로 고려된다. 하기에서, "층 ID" 은 nuh_reserved_zero_6bits" 와 상호교환하여 사용되며, 이는 nuh_reserved_zero_6bits 가 스케일러블 비디오 코딩에서 그 층을 식별하기 때문이다.
전술된 것과 같이, 약어 AU 는 액세스 유닛을 나타낸다. 각각의 버퍼링 주기 SEI 메세지, 픽처 타이밍 SEI 메세지 또는 서브-픽처 타이밍 SEI 메세지에 대한 적용가능한 동작 포인트들은 출원 '119 및 출원 '475 에 명시된 것과 같다. 동작 포인트는 OpLayerIdSet 로 표시되는 nuh_reserved_zero_6bits 값들 및 OpTid 로 표시되는 시간 식별값 (TemporalId) 값의 세트, 및 독립적으로 디코딩가능한 입력들로서 OpTid 및 OpLayerIdSet 을 갖는 HEVC WD8 의 하위 조항 10.1 에 명시된 것과 같은 서브-비트스트림 추출 프로세스의 출력으로서 유도된 연관된 비트스트림 서브세트에 의해 식별된다.
픽처들의 TemporalId 값은 그 픽처가 다른 픽처들을 인터-코딩하기 위해 사용될 수 있는지 여부를 나타낸다. 예를 들어, 제 1 픽처의 TemporalId 값이 제 2 픽처의 TemporalId 값보다 크다면, 제 1 픽처는 제 2 픽처의 인터-예측을 위해 사용될 수 없다. 이러한 방식으로, 최대 TemporalId 값들을 갖는 픽처들은, 그 픽처들이 임의의 나머지 픽처들을 인터-예측하기 위해 사용될 수 없기 때문에, 비디오 디코딩에 어떤 영향도 주지 않고 제거 (추출) 될 수 있다. 유사하게, 최대 및 다음의 최대 TemporalId 값들을 갖는 픽처들은, 이들 픽처들이 임의의 나머지 픽처들을 인터-예측하기 위해 사용될 수 없기 때문에, 비디오 디코딩에 어떤 영향도 주지 않고 제거될 수 있다. TemporalId 값들에 기초하여 그러한 픽처들을 제거하는 것이 비디오 디코딩에 영향을 주지 않고 (예컨대, 픽처들의 제거로 인해) 대역폭 활용을 개선시킬 수도 있지만, 그러한 픽처들이 제거될 경우 비디오의 품질에 부정적인 영향을 미칠 수도 있다.
하위 조항 10.1 에 명시된 서브-비트스트림 추출 프로세스는 적합성을 위한 특정 요건들을 설명한다. 일 예로서, 0 부터 6 까지의 범위에서 임의의 타겟 최고 TemporalId 값 및 오직 0 과 동일한 nuh_reserved_zero_6bits 의 값을 포함하는 타겟 층 식별자 리스트를 갖는 프로세스에 의해 비트스트림으로부터 추출된 임의의 서브-비트스트림은 확인 비트스트림인 것으로 고려된다.
장면 주기는 장면 정보 SEI 메세지를 포함하는 AU 로부터 시작하여, 장면 정보 SEI 메세지를 포함하는 디코딩 순서에 있어서의 다음 AU 까지 모든 AU들 또는 디코딩 순서에 있어서 더 이전의 코딩된 비디오 시퀀스의 단부를 포함할 수도 있고 오직 포함할 수도 있다. 포스트-필터 주기는 포스트-필터 힌트 SEI 메세지를 포함하는 AU 로부터 시작하여, 포스트-필터 힌트 SEI 메세지를 포함하는 디코딩 순서에 있어서의 다음 AU 까지 모든 AU들 또는 디코딩 순서에 있어서 더 이전의 코딩된 비디오 시퀀스의 단부를 포함할 수도 있고 오직 포함할 수도 있다.
서브-픽처 타이밍 SEI 메세지가 디코딩 유닛 ID 를 포함하지 않는다면, 디코딩 유닛은 서브-픽처 타이밍 SEI 메세지를 포함하는 SEI NAL 유닛으로부터 서브-픽처 타이밍 SEI 메세지를 포함하는 다음 SEI NAL 유닛까지의 AU 또는 디코딩 순서에 있어서 더 이전의 AU 의 단부 내에 NAL 유닛들의 세트를 포함할 수도 있고 오직 포함할 수도 있다. 그렇지 않으면, 디코딩 유닛은 서브-픽처 타이밍 SEI 메세지를 포함하는 SEI NAL 유닛으로부터 상이한 값의 디코딩 유닛 ID 를 갖는 서브-픽처 타이밍 SEI 메세지를 포함하는 다음 SEI NAL 유닛까지의 AU 또는 디코딩 순서에 있어서 더 이전의 AU 의 단부 내에 NAL 유닛들의 세트를 포함할 수도 있고 오직 포함할 수도 있다.
SEI 메세지
(payloadType)
적용 범위 존재 다중-인스턴스 제한
버퍼링 주기 (0) SEI 메세지를 포함하는 버퍼링 주기 0 과 동일한 TemporalId 를 갖는 임의의 AU 에서 AU 내의 (임의의 특정 동작 포인트에 적용가능한) 모든 인스턴스들은 동일할 것이다
픽처 타이밍 (1) SEI 메세지를 포함하는 AU 임의의 값의 TemporalId 를 갖는 임의의 AU 에서 AU 내의 (임의의 특정 동작 포인트에 적용가능한) 모든 인스턴스들은 동일할 것이다
팬-스캔 직사각형 (2) 신택스에 의해 명시됨 0 과 동일한 TemporalId 를 갖는 임의의 적용가능한 AU들에서 적용 범위 내의 (특정 값의 층 ID 와 연관된) 모든 인스턴스들은 동일할 것이다
필러 페이로드 (3) SEI 메세지를 포함하는 AU 임의의 값의 TemporalId 를 갖는 임의의 AU 에서 제한 없음
등록된 사용자 데이터 (4) 명시되지 않음 임의의 값의 TemporalId 를 갖는 임의의 AU 에서 제한 없음
미등록된 사용자 데이터 (5) 명시되지 않음 임의의 값의 TemporalId 를 갖는 임의의 AU 에서 제한 없음
복구 포인트 (6) SEI 메세지를 포함하는 AU 0 과 동일한 TemporalId 를 갖는 임의의 AU 에서 AU 내의 (특정 값의 층 ID 와 연관된) 모든 인스턴스들은 동일할 것이다
장면 정보 (9) SEI 메세지를 포함하는 장면 주기 0 과 동일한 TemporalId 를 갖는 임의의 AU 에서 AU 내의 (특정 값의 층 ID 와 연관된) 모든 인스턴스들은 동일할 것이다
풀-프레임 스냅샷 (15) SEI 메세지를 포함하는 AU 임의의 값의 TemporalId 를 갖는 임의의 AU 에서 AU 내의 (특정 값의 층 ID 와 연관된) 모든 인스턴스들은 동일할 것이다
점진적인 리파인먼트 세그먼트 시작 (16) SEI 메세지를 포함하는 AU 임의의 값의 TemporalId 를 갖는 임의의 AU 에서 AU 내의 (특정 값의 층 ID 와 연관된) 모든 인스턴스들은 동일할 것이다
점진적인 리파인먼트 세그먼트 종료 (17) SEI 메세지를 포함하는 AU 임의의 값의 TemporalId 를 갖는 임의의 AU 에서 AU 내의 (특정 값의 층 ID 와 연관된) 모든 인스턴스들은 동일할 것이다
필름 그레인 특성들 (19) 신택스에 의해 명시됨 0 과 동일한 TemporalId 를 갖는 임의의 적용가능한 AU들에서 적용 범위 내의 (특정 값의 층 ID 와 연관된) 모든 인스턴스들은 동일할 것이다
디블록킹 필터 디스플레이 선호도 (21) 신택스에 의해 명시됨 0 과 동일한 TemporalId 를 갖는 임의의 적용가능한 AU들에서 적용 범위 내의 (특정 값의 층 ID 와 연관된) 모든 인스턴스들은 동일할 것이다
포스트-필터 힌트 (22) SEI 메세지를 포함하는 포스트-필터 주기 0 과 동일한 TemporalId 를 갖는 임의의 AU 에서 AU 내의 (특정 값의 층 ID 와 연관된) 모든 인스턴스들은 동일할 것이다
톤 맵핑 정보 (23) 신택스에 의해 명시됨 0 과 동일한 TemporalId 를 갖는 임의의 적용가능한 AU들에서 적용 범위 내의 (특정 값의 층 ID 와 연관된) 모든 인스턴스들은 동일할 것이다
프레임 팩킹 배열 (45) 신택스에 의해 명시됨 0 과 동일한 TemporalId 를 갖는 임의의 적용가능한 AU들에서 적용 범위 내의 (특정 값의 층 ID 와 연관된) 모든 인스턴스들은 동일할 것이다
디스플레이 배향 (47) 신택스에 의해 명시됨 0 과 동일한 TemporalId 를 갖는 임의의 적용가능한 AU들에서 적용 범위 내의 (특정 값의 층 ID 와 연관된) 모든 인스턴스들은 동일할 것이다
픽처 구조 (SOP) 설명 (128) SEI 메세지를 포함하는 AU 를 포함하는 SOP 0 과 동일한 TemporalId 를 갖는 임의의 AU 에서 적용 범위 내의 (특정 값의 층 ID 와 연관된) 모든 인스턴스들
필드 표시 (129) SEI 메세지를 포함하는 AU 임의의 값의 TemporalId 를 갖는 임의의 AU 에서 AU 내의 (특정 값의 층 ID 와 연관된) 모든 인스턴스들은 동일할 것이다
디코딩된 픽처 해시 (130) SEI 메세지를 포함하는 AU 임의의 값의 TemporalId 를 갖는 임의의 AU 에서 AU 내의 (특정 값의 층 ID 와 연관된) 모든 인스턴스들은 동일할 것이다
활성 파라미터 세트 (131) SEI 메세지를 포함하는 코딩된 비디오 시퀀스 0 과 동일한 TemporalId 를 갖는 임의의 AU 에서 적용 범위 내의 (특정 값의 층 ID 와 연관된) 모든 인스턴스들은 동일할 것이다
서브-픽처 타이밍 (132) SEI 메세지를 포함하는 디코딩 유닛 임의의 값의 TemporalId 를 갖는 임의의 AU 에서 제한 없음
SEI 메세지들에 대한 연관, 존재 및 제한
표 5 는 상이한 타입의 SEI 메세지들을 예시하고, 상이한 타입의 SEI 메세지들 간의 관계, 액세스 유닛의 시간 식별 값, 및 임의의 제한들이 존재하는지 여부와 SEI 메세지에 대한 제한들의 타입들을 예시한다. 예를 들어, 비디오 인코더 (20) 는 SEI 메세지의 타입을 결정할 수도 있고, 액세스 유닛의 시간 식별값을 결정할 수도 있다. SEI 메세지의 시간 식별 값 및 타입에 기초하여, 비디오 인코더 (20) 는 SEI 메세지의 존재가 허용되는지 여부를 결정할 수도 있다.
일 예로서, SEI 메세지 타입이 버퍼 주기 SEI 메세지라고 가정하자. 상기 예에서, 시간 식별 값이 0 과 동일하지 않다면, 비디오 인코더 (20) 는 버퍼 주기 SEI 메세지의 존재가 허용되지 않는 것으로 결정할 수도 있다. 다른 예로서, SEI 메세지 타입이 픽처 타이밍 SEI 메세지라고 가정하자. 상기 예에서, 시간 식별 값에 관계 없이, 비디오 인코더 (20) 는 픽처 타이밍 SEI 메세지의 존재가 허용되는 것으로 결정할 수도 있다.
본 개시물에 설명된 기술들에 따르면, 비디오 인코더 (20) 및 비디오 디코더 (30) 는 본 개시물에 설명된 하나 이상의 예시적인 기술들을 구현하도록 구성된 비디오 코더의 예들이다. 예를 들어, 비디오 인코더 (20) 는 디코딩 유닛들에 대한 식별자들을 시그널링 (예컨대, 디코딩 유닛들에 대한 식별자들을 인코딩 및 시그널링) 할 수도 있고, 비디오 디코더 (30) 는 디코딩 유닛들에 대한 식별자들을 수신 (예컨대, 디코딩 유닛들에 대한 식별자들을 수신 및 디코딩) 할 수도 있다. 이러한 의미에서, 비디오 인코더 (20) 및 비디오 디코더 (30) 와 같은 비디오 코더는 디코딩 유닛들에 대한 식별자들을 코딩 (예컨대, 인코딩 또는 디코딩) 하도록 구성될 수도 있다.
비디오 코더는, 액세스 유닛에서 하나의 디코딩 유닛에 대한 식별자가 액세스 유닛에서의 임의의 다른 디코딩 유닛에 대한 식별자와 상이하도록, 액세스 유닛에서 각각의 디코딩 유닛에 대하여 고유 식별자를 코딩하도록 구성될 수도 있다. 일부 예들에서, 비디오 코더는 디코딩 유닛들의 각각에 대한 고유 식별자에 기초하여, NAL (network abstraction layer) 유닛들을 액세스 유닛에서의 디코딩 유닛들에 연관시킬 수도 있다. 또한, 일부 예들에서, 비디오 코더는 디코딩 유닛 또는 액세스 유냇 내에서 SEI (supplemental enhancement information) 메세지들을 반복할 수도 있다.
각각의 DU 를 코딩하기 위해, 비디오 코더는 제 1 DU 에 대한 제 1 식별자를 코딩하고, 제 2 의 상이한 DU 에 대한 제 2 의 상이한 식별자를 코딩할 수도 있다. 상기 예에서, 제 2 식별자는 1 만큼 증분된 제 1 식별자일 수도 있다.
일부 예들에서, 비디오 코더는 슬라이스 헤더에서 각각의 디코딩에 대한 고유 식별자를 코딩할 수도 있다. 상기 예들에서, 고유 식별자는 슬라이스가 속하는 디코딩 유닛을 식별할 수도 있고, 비디오 코더는 슬라이스를 포함하는 NAL 유닛이 슬라이스 헤더에서의 디코딩 유닛 식별자에의해 식별된 디코딩 유닛과 연관되는 것으로 결정할 수도 있다. 일부 예들에서, 비디오 코더는 SEI 메세지에서 디코딩 유닛에 대한 고유 식별자를 코딩할 수도 있다. 예를 들어, 비디오 코더는, 디코딩 유닛이 언제 코딩된 픽처 버퍼 (CPB) 로부터 제거될 것인지에 관한 정보를 또한 포함하는 SEI 메세지 (예컨대, 디코딩 유닛 정보 SEI 메세지) 에서 고유 식별자를 코딩할 수도 있다. 디코딩 유닛에 대한 고유 식별자는 디코딩 유닛 정보 SEI 메세지를 포함하는 디코딩 유닛을 식별할 수도 있다.
하나 이상의 예시적인 기술들에서, 비디오 코더는 액세스 유닛에서 제 1 디코딩 유닛에 대한 제 1 식별자를 코딩하고, 액세스 유닛에서 제 2 의 상이한 디코딩 유닛에 대한 제 2 의 상이한 식별자를 코딩할 수도 있다. 일부 예들에서, 제 1 식별자의 값이 제 2 식별자의 값 미만일 경우, 제 1 디코딩 유닛은 디코딩 순서에서 제 2 디코딩 유닛에 선행할 수도 있다. 일부 예들에서, 비디오 코더는 디코딩 유닛의 인덱스로서 각각의 디코딩 유닛에 대한 고유 식별자를 디코딩 순서에서 액세스 유닛에서의 모든 디코딩 유닛들로 코딩할 수도 있다.
일부 경우들에서, 비디오 코더는 액세스 유닛 (AU) 에서 제 1 VCL (video coding layer) NAL (network abstraction layer) 유닛을 코딩할 수도 있다. 비디오 코더는 또한, 디코딩 순서에 있어서 제 1 VCL NAL 유닛을 뒤따르는 SEI (supplementation enhancement information) 메세지를 코딩할 수도 있다. 일부 예들에서, 비디오 코더는 또한, SEI 메세지가 디코딩 순서에 있어서 AU 에서 최종 VCL NAL 유닛에 선행하도록, SEI 메세지를 코딩할 수도 있다.
도 2a 및 도 2b 는 본 개시물에서 설명된 기술들에 따라 디코딩 유닛 식별자들을 포함하는 액세스 유닛들의 예들을 도시하는 개념 다이어그램들이다. 도 2a 는 액세스 유닛 (34) 을 도시하고, 도 2b 는 액세스 유닛 (50) 을 도시한다. 액세스 유닛 (34) 및 액세스 유닛 (50) 은 적어도 하나의 픽처를 디코딩하는데 필요한 비디오 데이터 (예컨대, 동일한 시간 인스턴스 동안 상이한 뷰들의 다수의 픽처들 또는 하나의 픽처를 디코딩하기 위한 하나 이상의 층들) 을 포함한다. 비디오 인코더 (20) 는 액세스 유닛 (34) 또는 액세스 유닛 (50) 을 비디오 디코더 (30) 가 링크 (16) 또는 저장 디바이스 (32) 를 통해 수신하는 코딩된 비트스트림의 부분으로서 출력한다.
도 2a 및 도 2b 에서, 액세스 유닛 (34) 및 액세스 유닛 (50) 은 복수의 디코딩 유닛들을 포함하며, 이는 서브-픽처 레벨에서의 동작이 액세스 유닛 (34) 및 액세스 유닛 (50) 에 대하여 허용되는 것을 비디오 디코더 (30) 에 나타내기 위해, 비디오 인코더 (20) 가 액세스 유닛 (34) 및 액세스 유닛 (50) 에 대한 SubPicCpbFlag 를 1 로서 출력한 것을 의미한다.
도 2a 에서, 액세스 유닛 (34) 은 (종합적으로 "디코딩 유닛 (36)" 으로 지칭되는) 디코딩 유닛들 (36A - 36C) 을 포함한다. 디코딩 유닛 (36A) 은 제 1 SEI NAL 유닛 (38A) 및 제 2 SEI NAL 유닛 (38B) 을 포함한다. SEI NAL 유닛들 (38A 및 38B) 양자는, 디코딩 유닛 (36A) 의 제거 시간에 관한 정보를 표시하는 SEI 메세지 (예컨대, 디코딩 유닛 정보 SEI 메세지) 를 포함하고, 또한 디코딩 유닛 (36A) 에 대한 디코딩 유닛 식별자를 포함한다. 디코딩 유닛 (36A) 은 또한 NAL 유닛들 (40A - 40D) 을 포함한다.
디코딩 유닛 (36B) 은, 디코딩 유닛 (36B) 의 제거 시간에 관한 정보를 표시하는 SEI 메세지를 포함하고, 또한 디코딩 유닛 (36B) 에 대한 디코딩 유닛 식별자를 포함하는, 제 3 SEI NAL 유닛 (42) 을 포함한다. 디코딩 유닛 (36B) 에 대한 디코딩 유닛 식별자는 디코딩 유닛 (36A) 에 대한 디코딩 유닛 식별자와 상이하다 (예컨대, 디코딩 유닛 (36A) 에 대한 디코딩 유닛 식별자보다 많다). 디코딩 유닛 (36B) 은 또한 NAL 유닛들 (44A 및 44B) 을 포함한다.
디코딩 유닛 (36C) 은 제 4 SEI NAL 유닛 (46A) 및 제 5 SEI NAL 유닛 (46B) 을 포함한다. SEI NAL 유닛들 (46A 및 46B) 양자는, 디코딩 유닛 (36C) 의 제거 시간에 관한 정보를 표시하는 SEI 메세지 (예컨대, 디코딩 유닛 정보 SEI 메세지) 를 포함하고, 또한 디코딩 유닛 (36C) 에 대한 디코딩 유닛 식별자를 포함한다. 디코딩 유닛 (36C) 은 또한 NAL 유닛들 (48A 및 48B) 을 포함한다.
비디오 디코더 (30) 는 디코딩 유닛 정보 SEI 메세지에 기초하여, 어떤 NAL 유닛들이 어떤 디코딩 유닛들과 연관되는지를 결정한다. 예를 들어, 비디오 디코더 (30) 는, SEI NAL 유닛 (38A) 의 디코딩 유닛 정보 SEI 메세지가 디코딩 유닛 (36A) 에 대한 디코딩 유닛 식별자를 포함했기 때문에, SEI NAL 유닛 (38A) 및 SEI NAL 유닛 (38A) 을 뒤따르는 NAL 유닛들 (예컨대, NAL 유닛들 (40A 및 40B)) 이 디코딩 유닛 (36A) 과 연관된다고 결정할 수도 있다. 그 후에, 비디오 디코더 (30) 는, SEI NAL 유닛 (38B) 의 디코딩 유닛 정보 SEI 메세지가 (예컨대, 동일한 제거 시간 정보 및 동일한 디코딩 유닛 식별자를 포함하는) SEI NAL 유닛 (38A) 의 디코딩 유닛 정보 SEI 메세지의 카피이기 때문에, SEI NAL 유닛 (38B) 이 또한 디코딩 유닛 (36A) 의 부분인 것으로 결정할 수도 있다. 상기 예에서, 비디오 디코더 (30) 는, NAL 유닛들 (40C 및 40D) 이 SEI NAL 유닛 (38B) 을 뒤따르고 디코딩 유닛 정보 SEI 메세지를 갖는 다른 SEI NAL 유닛에 선행하기 때문에, NAL 유닛들 (40C 및 40D) 이 또한 디코딩 유닛 (36A) 과 연관된다고 결정할 수도 있다.
비디오 디코더 (30) 는, SEI NAL 유닛 (42) 의 디코딩 유닛 정보 SEI 메세지에서의 디코딩 유닛 식별자가 SEI NAL 유닛들 (38A 및 38B) 에 대한 디코딩 유닛 정보 SEI 메세지에서의 디코딩 유닛 식별자와 상이하기 때문에, SEI NAL 유닛 (42) 이 디코딩 유닛 (36A) 에 속하지 않는 것으로 결정할 수도 있다. 이 경우, 비디오 디코더 (30) 는, 이들 NAL 유닛들이 SEI NAL 유닛 (42) 을 뒤따르고 상이한 디코딩 유닛 식별자를 포함하는 디코딩 유닛 정보 SEI 메세지를 갖는 다른 SEI NAL 유닛에 선행하기 때문에, SEI NAL 유닛 (42) 이 다른 디코딩 유닛 (예컨대, 디코딩 유닛 (36B)) 과 연관된다고 결정할 수도 있다.
비디오 디코더 (30) 는, SEI NAL 유닛 (46A) 의 디코딩 유닛 정보 SEI 메세지에서의 디코딩 유닛 식별자가 이전의 디코딩 유닛 식별자들과 상이하기 (예컨대, 이전 보다 더 크기) 때문에, SEI NAL 유닛 (46A) 이 상이한 디코딩 유닛 (예컨대, 디코딩 유닛 (36C)) 과 연관된다고 결정할 수도 있다. 비디오 디코더 (30) 는, NAL 유닛 (48A) 이 SEI NAL 유닛 (46A) 을 뒤따르고 디코딩 유닛 정보 SEI 메세지를 포함하는 SEI NAL 유닛 (46B) 에 선행하기 때문에, NAL 유닛 (48A) 이 디코딩 유닛 (36C) 과 연관된다고 결정한다.
상기 예에서, SEI NAL 유닛 (46B) 은 SEI NAL 유닛 (46A) 의 디코딩 유닛 정보 SEI 메세지와 동일한 디코딩 유닛 식별자를 포함하는 디코딩 유닛 정보 SEI 메세지를 포함한다 (예컨대, 디코딩 유닛 정보 SEI 메세지들은 카피들이다). 그 후에, 비디오 디코더 (30) 는, NAL 유닛 (48B) 이 액세스 유닛 (34) 에서 최종 NAL 유닛이기 때문에, NAL 유닛 (48B) 이 디코딩 유닛 (36C) 과 연관된 것을 결정할 수도 있다.
도 2a 에서, 디코딩 유닛 정보 SEI 메세지의 예들은 표 3 및 표 4 에 대하여 앞서 설명된 예들을 포함한다. 또한, 도 2a 에서, 디코딩 유닛에 속하는 NAL 유닛들은 연속적이다 (즉, 다른 디코딩 유닛들에 대한 NAL 유닛들은 디코딩 유닛의 NAL 유닛들과 함께 배치되지 않는다).
도 2a 에서, 비디오 인코더는 대응하는 디코딩 유닛들에서 각각의 디코딩 유닛에 대한 디코딩 유닛 식별자들을 출력을 위해 생성하고 출력할 수도 있다. 예를 들어, 비디오 인코더 (20) 는 대응하는 디코딩 유닛 (36A) 에서의 SEI NAL 유닛 (38A) 및 SEI NAL 유닛 (38B) 의 디코딩 유닛 정보 SEI 메세지들에 디코딩 유닛 식별자들을 포함하고, 그 디코딩 유닛 식별자들을 SEI NAL 유닛들 (38A 및 38B) 의 디코딩 유닛 정보 SEI 메세지들의 부분으로서 출력한다. 비디오 인코더 (20) 는 대응하는 디코딩 유닛 (36B) 에서의 SEI NAL 유닛 (42) 의 디코딩 유닛 정보 SEI 메세지에 디코딩 유닛 식별자들을 포함하고, 그 디코딩 유닛 식별자들을 대응하는 디코딩 유닛 (36C) 에서의 SEI NAL 유닛 (46A) 및 SEI NAL 유닛 (46B) 의 디코딩 유닛 정보 SEI 메세지들에 포함한다. 이들 예들에서, 비디오 인코더 (20) 는 디코딩 유닛 식별자들을 SEI NAL 유닛들 (42, 46A, 및 46B) 의 개별 디코딩 유닛 SEI 메세지들의 부분으로서 출력한다.
디코딩 유닛 SEI 메세지들의 포함은, 비디오 디코더 (30) 가 디코딩 유닛 식별자들에 기초하여 어떤 NAL 유닛들이 어떤 디코딩 유닛들과 연관되는지를 결정하게 하며, 따라서 NAL 유닛이 손실된 경우에도, 비디오 디코더 (30) 는 여전히 어떤 NAL 유닛들이 어떤 디코딩 유닛들과 연관되는지를 결정할 수 있다. 예를 들어, NAL 유닛 (40C) 가 손실되는 것으로 가정하자. 상기 예에서, 비디오 디코더 (30) 는, NAL 유닛 (40D) 이 그 디코딩 유닛 정보 SEI 메세지가 디코딩 유닛 (36A) 에 대한 디코딩 유닛 식별자를 표시한 SEI NAL 유닛 (38B) 에 후속하고, 그 디코딩 유닛 정보 SEI 메세지가 디코딩 유닛 (36B) 에 대한 디코딩 유닛 식별자를 표시한 SEI NAL 유닛 (42) 에 선행하기 때문에, NAL 유닛 (40D) 이 디코딩 유닛 (36A) 과 연관된 것을 여전히 결정할 수도 있다. 또한, 디코딩 유닛 식별자들을 표시하는 디코딩 유닛 SEI 메세지와 함께, 비디오 인코더 (20) 는 디코딩 유닛 SEI 메세지의 다수의 카피들을 디코딩 유닛에 포함할 수도 있다.
도 2b 에 도시된 것과 같이, 액세스 유닛 (50) 은 (종합적으로 "디코딩 유닛 (52)" 으로 지칭되는) 디코딩 유닛들 (52A - 52C) 을 포함한다. 디코딩 유닛 (52A) 은 슬라이스 NAL 유닛들 (54A 및 54B) 을 포함하고, 디코딩 유닛 (52B) 은 슬라이스 NAL 유닛들 (64A - 64C) 을 포함하고, 디코딩 유닛 (52C) 은 슬라이스 NAL 유닛들 (78A 및 78B) 을 포함한다. 슬라이스 NAL 유닛들 각각은 슬라이스 헤더 및 슬라이스 바디를 포함한다. 슬라이스 헤더는 디코딩 유닛 식별자를 포함하는 헤더 정보를 포함하고, 슬라이스 바디는 슬라이스를 디코딩하기 위한 비디오 데이터를 포함한다.
예를 들어, 슬라이스 NAL 유닛 (54A) 은 슬라이스 헤더 (56) 및 슬라이스 바디 (58) 를 포함하고, 슬라이스 NAL 유닛 (54B) 은 슬라이스 헤더 (60) 및 슬라이스 바디 (62) 를 포함한다. 상기 예에서, 슬라이스 NAL 유닛 (54A) 의 슬라이스 헤더 (56) 및 슬라이스 NAL 유닛 (54B) 의 슬라이스 헤더 (60) 는 각각, 비디오 디코더 (30) 가 NAL 유닛 (54A) 및 NAL 유닛 (54B) 이 동일한 디코딩 유닛 (예컨대, 디코딩 유닛 (52A) 과 연관되는지 결정하기 위해 활용하는, 동일한 디코딩 유닛 식별자를 포함한다.
슬라이스 NAL 유닛 (64A) 은 슬라이스 헤더 (66) 및 슬라이스 바디 (68) 를 포함하고, 슬라이스 NAL 유닛 (64B) 은 슬라이스 헤더 (70) 및 슬라이스 바디 (72) 를 포함하고, 슬라이스 NAL 유닛 (64C) 은 슬라이스 헤더 (74) 및 슬라이스 바디 (76) 를 포함한다. 상기 예에서, 슬라이스 NAL 유닛 (64A) 의 슬라이스 헤더 (66), 슬라이스 NAL 유닛 (64B) 의 슬라이스 헤더 (70), 및 슬라이스 NAL 유닛 (64C) 의 슬라이스 헤더 (74) 는 각각, 비디오 디코더 (30) 가 NAL 유닛 (64A), NAL 유닛 (64B), 및 NAL 유닛 (64C) 이 동일한 디코딩 유닛 (예컨대, 디코딩 유닛 (52B) 과 연관되는지 결정하기 위해 활용하는, 동일한 디코딩 유닛 식별자를 포함한다.
슬라이스 NAL 유닛 (78A) 은 슬라이스 헤더 (80) 및 슬라이스 바디 (82) 를 포함하고, 슬라이스 NAL 유닛 (78B) 은 슬라이스 헤더 (84) 및 슬라이스 바디 (86) 를 포함한다. 상기 예에서, 슬라이스 NAL 유닛 (78A) 의 슬라이스 헤더 (80) 및 슬라이스 NAL 유닛 (78B) 의 슬라이스 헤더 (84) 는 각각, 비디오 디코더 (30) 가 NAL 유닛 (78A) 및 NAL 유닛 (78B) 이 동일한 디코딩 유닛 (예컨대, 디코딩 유닛 (52C) 과 연관되는지 결정하기 위해 활용하는, 동일한 디코딩 유닛 식별자를 포함한다.
도 2b 에서, 디코딩 유닛 정보 SEI 메세지의 예들은 표 2 에 대하여 앞서 설명된 예들을 포함한다. 도 2a 와 유사하게, 도 2b 에서, 디코딩 유닛에 속하는 NAL 유닛들은 연속적이다 (즉, 다른 디코딩 유닛들에 대한 NAL 유닛들은 디코딩 유닛의 NAL 유닛들과 함께 배치되지 않는다).
도시된 것과 같이, 비디오 인코더 (20) 는 대응하는 디코딩 유닛 (52A) 에 대한 슬라이스 헤더들 (56 및 60) 에 디코딩 유닛 식별자를 포함하고, 그 디코딩 유닛 식별자를 슬라이스 헤더들 (56 및 60) 의 부분으로서 출력한다. 또한, 비디오 인코더 (20) 는 대응하는 디코딩 유닛 (52B) 에 대한 슬라이스 헤더들 (66, 70, 및 74) 에 디코딩 유닛 식별자를 포함하고, 그 디코딩 유닛 식별자를 슬라이스 헤더들 (66, 70, 및 74) 의 부분으로서 출력한다. 유사하게, 비디오 인코더 (20) 는 대응하는 디코딩 유닛 (52C) 에 대한 슬라이스 헤더들 (80 및 84) 에 디코딩 유닛 식별자를 포함하고, 그 디코딩 유닛 식별자를 슬라이스 헤더들 (80 및 84) 의 부분으로서 출력한다.
도 2b 에 도시된 예에서, 비디오 디코더 (30) 는 어떤 슬라이스 NAL 유닛이 어떤 디코딩 유닛과 연관되는지를 결정하기 위해 SPT SEI 메세지들의 위치들에 의존할 필요가 없다. 오히려, 비디오 디코더 (30) 는 어떤 슬라이스 NAL 유닛이 어떤 디코딩 유닛과 연관되는지를 결정하기 위해 슬라이스 NAL 유닛의 슬라이스 헤더들에 표시된 디코딩 유닛 식별자를 활용한다. 이 경우, 슬라이스 NAL 유닛 (예컨대, 슬라이스 NAL 유닛 (56B)) 이 손실되는 경우에도, 비디오 디코더 (30) 는 슬라이스 헤더에 기초하여 어떤 NAL 유닛이 어떤 디코딩 유닛들과 연관되는지를 여전히 결정할 수 있을 수도 있다.
도 3 은 본 개시물에서 설명된 기술들을 구현할 수도 있는 예시적인 비디오 인코더 (20) 를 도시하는 블록 다이어그램이다. 비디오 인코더 (20) 는 비디오 슬라이스들 내의 비디오 블록들의 인트라-코딩 및 인터-코딩 (인트라-예측 인코딩 또는 디코딩 및 인터-예측 인코딩 또는 디코딩) 을 수행할 수도 있다. 인트라-코딩은 소정의 비디오 프레임 또는 픽처 내의 비디오에서 공간 리던던시를 감소시키거나 제거하기 위해 공간적 예측에 의존한다. 인터-코딩은 비디오 시퀀스의 인접한 프레임들 또는 픽처들 내의 비디오에서 시간 리던던시를 감소시키거나 제거하기 위해 시간 예측에 의존한다. 인트라-모드 (I 모드) 는 다양한 공간 기반의 압축 모드들 중 임의의 것을 지칭할 수도 있다. 단방향 예측 (P 모드) 및 양방향 예측 (B 모드) 과 같은 인터-모드들은 다양한 시간 기반의 압축 모드들 중 임의의 것을 지칭할 수도 있다.
도 3 의 예에서, 비디오 인코더 (20) 는 파티셔닝 유닛 (135), 예측 프로세싱 유닛 (141), 필터 유닛 (163), (때때로 디코딩된 픽처 버퍼로 지칭되는) 참조 픽처 메모리 (164), 합산기 (150), 변환 프로세싱 유닛 (152), 양자화 프로세싱 유닛 (154), 및 엔트로피 인코딩 유닛 (156) 을 포함한다. 예측 프로세싱 유닛 (141) 은 모션 추정 유닛 (142), 모션 보상 유닛 (144), 및 인트라 예측 유닛 (146) 을 포함한다. 비디오 블록 복원을 위해, 비디오 인코더 (20) 는 역양자화 프로세싱 유닛 (158), 역변환 프로세싱 유닛 (160), 및 합산기 (162) 를 또한 포함한다. 필터 유닛 (163) 은 일반적으로 디블록킹 필터, 적응형 루프 필터 (ALF), 및 샘플 적응형 오프셋 (SAO) 필터와 같은 하나 이상의 루프 필터들을 나타낼 수도 있다. 필터 (163) 는 도 3 에서 인 루프 필터인 것으로 도시되지만, 다른 구성들에서, 필터 유닛 (163) 은 포스트 루프 필터로서 구현될 수도 있으며, 이 경우 필터링되지 않은 데이터는 코딩 루프에서 사용될 수도 있다.
도 3 에 도시된 바와 같이, 비디오 인코더 (20) 는 비디오 데이터를 수신하고, 파티셔닝 유닛 (135) 은 데이터를 비디오 블록들로 파티셔닝한다. 이러한 파티셔닝은, 예를 들면, LCU들 및 CU들의 쿼드트리 구조에 따라, 비디오 블록 피티셔닝뿐만 아니라, 슬라이스들, 타일들, 또는 다른 더 큰 유닛들로의 파티셔닝을 또한 포함할 수도 있다. 비디오 인코더 (20) 는 인코딩될 비디오 슬라이스 내의 비디오 블록들을 인코딩하는 컴포넌트들을 일반적으로 예시한다. 슬라이스는 다수의 비디오 블록들로 (및 가능하면 타일들로 지칭되는 비디오 블록들의 세트들로) 분할될 수도 있다. 예측 프로세싱 유닛 (141) 은, 에러 결과들 (예를 들면, 코딩 레이트 및 왜곡 레벨) 에 기초하여 현재의 비디오 블록에 대해, 복수의 가능한 코딩 모드들 중 하나, 예컨대 복수의 인트라 코딩 모드들 중 하나 또는 복수의 인터 코딩 모드들 중 하나를 선택할 수도 있다. 예측 프로세싱 유닛 (141) 은 결과적인 인트라-코딩된 블록 또는 인터-코딩된 블록을 합산기 (150) 에 제공하여 잔차 블록 데이터를 생성하고, 합산기 (162) 에 제공하여 참조 픽처로서 사용하기 위한 인코딩된 블록을 복원할 수도 있다.
예측 프로세싱 유닛 (141) 내의 인트라 예측 유닛 (146) 은 코딩될 현재 블록과 동일한 픽처 또는 슬라이스에서의 하나 이상의 이웃하는 블록들에 대하여 현재의 비디오 블록의 인트라 예측 코딩을 수행하여 공간적 압축을 제공할 수도 있다. 예측 프로세싱 유닛 (141) 내의 모션 추정 유닛 (142) 및 모션 보상 유닛 (144) 은 하나 이상의 기준 픽처들에서의 하나 이상의 예측 블록들에 대한 현재 비디오 블록의 인터 예측 코딩을 수행하여 시간적 압축을 제공한다.
모션 추정 유닛 (142) 은 비디오 시퀀스에 대한 미리 결정된 패턴에 따라 비디오 슬라이스에 대한 인터 예측 모드를 결정하도록 구성될 수도 있다. 미리 결정된 패턴은 시퀀스에서의 비디오 슬라이스들을 P 슬라이스들, B 슬라이스들 또는 GPB 슬라이스들로서 지정할 수도 있다. 모션 추정 유닛 (142) 및 모션 보상 유닛 (144) 은 고도로 통합될 수도 있지만, 개념적인 목적을 위해 별개로 도시된다. 모션 추정 유닛 (142) 에 의해 수행된 모션 추정은, 모션 벡터들을 생성하는 프로세스이며, 모션 벡터들은 비디오 블록들에 대한 모션을 추정한다. 모션 벡터는, 예를 들면, 기준 픽처 내에서의 예측 블록에 대한 현재 비디오 프레임 또는 픽처 내에서의 비디오 블록의 PU의 변위를 나타낼 수도 있다.
예측 블록은 픽셀 차이의 관점에서 코딩될 비디오 블록의 PU 와 밀접하게 매칭하는 것으로 발견된 블록이며, 픽셀 차이는 절대 차이 합 (SAD), 제곱 차이 합 (SSD), 또는 다른 차이 메트릭들에 의해 결정될 수도 있다. 일부 예들에 있어서, 비디오 인코더 (20) 는 참조 픽처 메모리 (164) 에 저장된 참조 픽처들의 서브-정수 픽셀 포지션들에 대한 값들을 계산할 수도 있다. 예를 들면, 비디오 인코더 (20) 는 참조 픽처의 1/4 픽셀 위치들, 1/8 픽셀 위치들, 또는 다른 분수의 픽셀 위치들의 값들을 보간할 수도 있다. 따라서, 모션 추정 유닛 (142) 은 전체 픽셀 위치들 및 분수 픽셀 위치들에 대한 모션 검색을 수행하고, 분수 픽셀 정밀도를 갖는 모션 벡터를 출력할 수도 있다.
모션 추정 유닛 (142) 은 인터-코딩된 슬라이스에 있어서의 비디오 블록의 PU 에 대한 모션 벡터를, 그 PU 의 포지션을 참조 픽처의 예측 블록의 포지션과 비교함으로써 계산한다. 참조 픽처는 제 1 참조 픽처 리스트 (리스트 0) 또는 제 2 참조 픽처 리스트 (리스트 1) 로부터 선택될 수도 있으며, 이 리스트들 각각은 참조 픽처 메모리 (164) 에 저장된 하나 이상의 참조 픽처들을 식별한다. 모션 추정 유닛 (142) 은 계산된 모션 벡터를 엔트로피 인코딩 유닛 (156) 과 모션 보상 유닛 (144) 으로 전송한다.
모션 보상 유닛 (144) 에 의해 수행된 모션 보상은, 모션 추정에 의해 결정된 모션 벡터에 기초하여 예측 블록을 페칭 (fetching) 하는 것 또는 생성하는 것, 가능하게는 서브-픽셀 정밀도에 보간들을 수행하는 것을 수반할 수도 있다. 현재 비디오 블록의 PU 에 대한 모션 벡터를 수신하면, 모션 보상 유닛 (144) 은 모션 벡터가 가리키는 예측 블록을 참조 픽처 리스트들 중 하나에 로케이팅할 수도 있다. 비디오 인코더 (20) 는 코딩되고 있는 현재 비디오 블록의 픽셀 값들로부터 예측 블록의 픽셀 값을 감산함으로써 픽셀 차이 값들을 형성하는 잔차 비디오 블록을 형성한다. 픽셀 차이 값들은 블록에 대한 잔차 데이터를 형성하며, 루마 및 크로마 차이 컴포넌트들 양자를 포함할 수도 있다. 합산기 (150) 는 이러한 감산 동작을 수행하는 컴포넌트 또는 컴포넌트들을 나타낸다. 모션 보상 유닛 (144) 은 비디오 블록들과 연관된 신택스 엘리먼트들 및 비디오 슬라이스의 비디오 블록들을 디코딩함에 있어서 비디오 디코더(30) 에 의해 사용하기 위한 비디오 슬라이스를 또한 생성할 수도 있다.
인트라-예측 유닛 (146) 은, 전술된 것과 같은 모션 추정 유닛 (142) 및 모션 보상 유닛 (144) 에 의해 수행된 인터-예측에 대한 대안으로서 현재 블록을 인트라-예측할 수도 있다. 특히, 인트라-예측 모듈 (146) 은 현재 블록을 인코딩하는데 이용하기 위한 인트라-예측 모드를 결정할 수도 있다. 일부 예들에서, 인트라-예측 유닛 (146) 은, 예를 들어 별도의 인코딩 패스들 동안에 다양한 인트라-예측 모드들을 이용하여 현재 블록을 인코딩할 수도 있으며, 인트라-예측 유닛 (146) (또는 일부 예들에서, 모드 선택 유닛 (비도시)) 은 테스트된 모드들로부터 이용하기 위해 적절한 인트라-예측 모드를 선택할 수도 있다. 예를 들어, 인트라-예측 유닛 (146) 은 다양한 테스팅된 인트라-예측 모드들에 대한 레이트-왜곡 분석을 이용하여 레이트-왜곡 값들을 계산하고, 테스팅된 모드들 중 최상의 레이트-왜곡 특성들을 갖는 인트라-예측 모드를 선택할 수도 있다. 레이트-왜곡 분석은 일반적으로, 인코딩된 블록과 그 인코딩된 블록을 생성하도록 인코딩되었던 오리지널의 인코딩되지 않은 블록 간의 왜곡 (또는 에러) 의 양뿐 아니라 인코딩된 블록을 생성하는데 사용된 비트 레이트 (즉, 비트들의 수) 를 결정한다. 인트라-예측 유닛 (146) 은 다양한 인코딩된 블록들에 대한 왜곡들 및 레이트들로부터의 비율들을 계산하여, 어느 인트라-예측 모드가 그 블록에 대한 최상의 레이트-왜곡 값을 나타내는지를 결정할 수도 있다.
임의의 경우, 블록에 대한 인트라-예측 모드를 선택한 후에, 인트라-예측 유닛 (146) 은 그 블록에 대하여 선택된 인트라 예측 모드를 표시하는 정보를 엔트로피 코딩 유닛 (156) 에 제공할 수도 있다. 엔트로피 인코딩 유닛 (156) 은 본 개시물의 기술들에 따라 선택된 인트라 예측 모드를 나타내는 정보를 인코딩할 수도 있다. 비디오 인코더 (20) 는 복수의 인트라 예측 모드 인덱스 표들 및 복수의 변경된 인트라 예측 모드 인덱스 표들 (또한 코드워드 맵핑 표들로 지칭됨) 을 포함할 수도 있는 송신된 비트스트림 구성 데이터에, 다양한 블록들에 대한 인코딩 콘텍스트들의 정의들, 및 콘텍스트들의 각각에 대하여 사용하기 위한 가장 가능한 인트라 예측 모드, 인트라 예측 모드 인덱스 표, 및 변경된 인트라 예측 모드 인덱스 표의 표시를 포함할 수도 있다.
예측 프로세싱 유닛 (141) 이 인트라-예측 또는 인터-예측을 통해 현재의 비디오 블록에 대한 예측 블록을 생성한 이후, 비디오 인코더 (20) 는 현재의 비디오 블록에서 예측 블록을 감산하는 것에 의해 잔차 비디오 블록을 형성한다. 잔차 블록에서의 잔차 비디오 데이터는 하나 이상의 TU들에 포함되고 변환 프로세싱 유닛 (152) 에 적용될 수도 있다. 변환 프로세싱 유닛 (152) 은 변환, 예컨대 이산 코사인 변환 (DCT) 또는 개념적으로 유사한 변환을 사용하여 잔차 비디오 데이터를 잔차 변환 계수들로 변환한다. 변환 프로세싱 유닛 (152) 은 잔차 비디오 데이터를 픽셀 도메인으로부터 주파수 도메인과 같은 변환 도메인으로 컨버팅할 수도 있다.
변환 프로세싱 유닛 (152) 은 결과적인 변환 계수들을 양자화 프로세싱 유닛 (154) 으로 전송할 수도 있다. 양자화 프로세싱 유닛 (154) 은 변환 계수들을 양자화하여 비트 레이트를 더 감소시킬 수도 있다. 양자화 프로세스는 계수들의 일부 또는 전부와 연관된 비트 깊이를 감소시킬 수도 있다. 양자화의 정도는 양자화 파라미터를 조정함으로써 변경될 수도 있다. 일부 예들에서, 양자화 프로세싱 유닛 (154) 은 양자화된 변환 계수들을 포함하는 매트릭스의 스캔을 수행할 수도 있다. 대안적으로, 엔트로피 인코딩 유닛 (156) 은 스캔을 수행할 수도 잇다.
양자화 이후, 엔트로피 인코딩 유닛 (156) 은 양자화된 변환 계수들을 엔트로피 인코딩한다. 예를 들면, 엔트로피 인코딩 유닛 (156) 은 콘텍스트 적응형 가변 길이 코딩 (CAVLC), 콘텍스트 적응형 이진 산술 코딩 (CABAC), 신택스 기반 콘텍스트 적응형 이진 산술 코딩 (SBAC), 확률 인터벌 파티셔닝 엔트로피 (PIPE) 코딩, 또는 다른 엔트로피 인코딩 방법론 또는 기술을 수행할 수도 있다. 엔트로피 인코딩 유닛 (156) 에 의한 엔트로피 인코딩에 후속하여, 인코딩된 비트스트림은 비디오 디코더 (30) 로 송신되거나, 또는 비디오 디코더 (30) 에 의한 취출 또는 이후 송신을 위해 아카이브될 수도 있다. 엔트로피 인코딩 유닛 (156) 은 또한, 코딩되고 있는 현재 비디오 슬라이스에 대한 다른 예측 신택스 엘리먼트들 및 모션 벡터들을 엔트로피 인코딩할 수도 있다.
역양자화 프로세싱 유닛 (158) 및 역변환 프로세싱 유닛 (160) 은, 픽셀 도메인의 잔차 블록을 이후 사용을 위해 참조 픽처의 참조 블록으로서 복원하기 위해 각각, 역양자화 및 역변환을 적용한다. 모션 보상 유닛 (144) 은 참조 픽처 리스트들 중 하나 내의 참조 픽처들의 하나의 예측 블록에 잔차 블록을 가산함으로써 참조 블록을 계산할 수도 있다. 모션 보상 유닛 (144) 은, 모션 추정에서 사용하기 위한 서브-정수 픽셀 값들을 계산하기 위해, 복원된 잔차 블록에 하나 이상의 보간 필터들을 또한 적용할 수도 있다. 합산기 (162) 는 복원된 잔차 블록을 모션 보상 유닛 (144) 에 의해 생성된 모션 보상된 예측 블록에 가산하여 참조 픽처 메모리 (164) 에 저장하기 위한 참조 픽처를 생성한다. 참조 블록은 후속하는 비디오 프레임 또는 픽처에서의 블록을 인터-예측하기 위한 참조 블록으로서 모션 추정 유닛 (142) 및 모션 보상 유닛 (144) 에 의해 사용될 수도 있다.
도 3 의 비디오 인코더 (20) 는 본원에 설명된 기술들 중 하나 이상을 구현하도록 구성된 비디오 인코더의 일 예를 나타낸다. 예를 들어, 예측 프로세싱 유닛 (141) 은 전술된 예시적인 기능들을 수행하기 위한 하나의 예시적인 유닛을 나타낸다. 예측 프로세싱 유닛 (141) 은 NAL 유닛들을 생성하고, NAL 유닛들을 액세스 유닛의 디코딩 유닛에 연관시킬 수도 있다. 예측 프로세싱 유닛 (141) 은 디코딩 유닛 식별자들을 생성하고, 디코딩 유닛 식별자들을 SEI NAL 유닛의 디코딩 유닛 정보 SEI 메세지에 포함하고 및/또는 디코딩 유닛 식별자들을 슬라이스 NAL 유닛들의 슬라이스들의 슬라이스 헤더들에 포함할 수도 있다. 엔트로피 인코딩 유닛 (156) 은 디코딩 유닛들 (예컨대, 디코딩 유닛들 내의 NAL 유닛들) 을 엔트로피 인코딩할 수도 있다.
일부 예들에서, 예측 프로세싱 유닛 (141) 과 상이한 유닛은 전술된 예들을 구현할 수도 있다. 일부 예들에서, 예측 프로세싱 유닛 (141) 과 함께 비디오 인코더 (20) 의 하나 이상의 다른 유닛들이 전술된 예들을 구현할 수도 있다. 일부 예들에서, (도 3 에 도시되지 않은) 비디오 인코더 (20) 의 프로세서 또는 유닛은 단독으로 또는 비디오 인코더 (20) 의 다른 유닛들과 함께 전술된 예들을 구현한다.
도 4 는 본 개시물의 기술들을 구현할 수도 있는 예시적인 비디오 디코더 (30) 를 도시한 블록 다이어그램이다. 도 4 의 예에서, 비디오 디코더 (30) 는 엔트로피 디코딩 유닛 (180), 예측 프로세싱 유닛 (181), 역양자화 프로세싱 유닛 (186), 역변환 프로세싱 유닛 (188), 합산기 (190), 필터 유닛 (191), 및 (때때로 디코딩 픽처 버퍼 (DBP) 로 지칭되는) 참조 픽처 메모리 (192), 및 코딩 픽처 버퍼 (CPB; 194) 를 포함한다. 예측 프로세싱 유닛 (181) 은 모션 보상 유닛 (182) 및 인트라 예측 유닛 (184) 을 포함한다. 비디오 디코더 (30) 는, 몇몇 예들에서, 도 3 의 비디오 인코더 (20) 에 대해 설명된 인코딩 과정에 일반적으로 역순인 디코딩 과정을 수행할 수도 있다.
디코딩 프로세스 동안, 비디오 디코더 (30) 는, 인코딩된 비디오 슬라이스의 비디오 블록들 및 연관된 신택스 엘리먼트들을 나타내는 인코딩된 비디오 비트스트림을 비디오 인코더 (20) 로부터 수신한다. 비디오 디코더 (30) 는 인코딩된 비디오 비트스트림을 네트워크 엔티티 (29) 로부터 수신할 수도 있다. 네트워크 엔티티 (29) 는 예컨대, 서버, MANE (media-aware network element), 비디오 에디터/스플라이서, 또는 전술된 기술들 중 하나 이상을 구현하도록 구성된 다른 그러한 디바이스일 수도 있다. 전술된 것과 같이, 본 개시물에 설명된 기술들 중 일부는 네트워크 (29) 가 인코딩된 비디오 비트스트림을 비디오 디코더 (30) 에 송신하기 전에 네트워크 엔티티 (29) 에 의해 구현될 수도 있다. 일부 비디오 디코딩 시스템들에서, 네트워크 엔티티 (29) 및 비디오 디코더 (30) 는 분리된 디바이스들의 부분들일 수도 있지만, 다른 경우들에서, 네트워크 엔티티 (29) 에 대하여 설명된 기능은 비디오 디코더 (30) 를 포함하는 동일한 디바이스에 의해 수행될 수도 있다.
코딩된 픽처 버퍼 (194) 는 코딩된 픽처들을 네트워크 엔티티 (29) 로부터 수신한다. 본 개시물에 설명된 것과 같이, 인코딩된 비트스트림에서 신택스 엘리먼트들의 부분은, CPB (194) 로의 서브-픽처 레벨 액세스가 허용되는지 여부를 나타낸다. 또한, 인코딩된 비트스트림은 CPB (194) 내의 픽처들의 프로세싱을 위한 정보 (예컨대, 액세스 유닛의 디코딩 유닛들의 제거 시간들) 을 정의하는 SEI 메세지들을 포함할 수도 있다.
비디오 디코더 (30) 의 엔트로피 디코딩 유닛 (180) 은 비트스트림을 엔트로피 디코딩하여 양자화된 계수들, 모션 벡터들, 및 다른 신택스 엘리먼트들을 생성한다. 엔트로피 디코딩 유닛 (180) 은 모션 벡터들 및 다른 신택스 엘리먼트들을 예측 프로세싱 유닛 (181) 으로 포워딩한다. 비디오 디코더 (30) 는 비디오 슬라이스 레벨 및/또는 비디오 블록 레벨에서 신택스 엘리먼트들을 수신할 수도 있다.
비디오 슬라이스가 인트라-코딩된 (I) 슬라이스로서 코딩되면, 예측 프로세싱 유닛 (181) 의 인트라 예측 유닛 (184) 은 현재 프레임 또는 픽처의 이전에 디코딩된 블록들로부터의 데이터와 시그널링된 인트라 예측 모드에 기초한 현재 비디오 슬라이스의 비디오 블록에 대한 예측 데이터를 생성할 수도 있다. 비디오 프레임이 인터-코딩된 (즉, B, P 또는 GPB) 슬라이스로 코딩되면, 예측 프로세싱 유닛 (181) 의 모션 보상 유닛 (182) 은 엔트로피 디코딩 유닛 (180) 으로부터 수신된 다른 신택스 엘리먼트들과 모션 벡터들에 기초하여 현재 비디오 슬라이스의 비디오 블록에 대한 예측 블록들을 생성한다. 예측 블록들은 참조 픽처 리스트들 중 하나 내의 참조 픽처들 중 하나로부터 생성될 수도 있다. 비디오 디코더 (30) 는 참조 픽처 메모리 (192) 에 저장된 참조 픽처들에 기초한 디폴트 구성 기술들을 이용하여 참조 픽처 리스트들, 즉, 리스트 0 및 리스트 1 을 구성할 수도 있다.
모션 보상 유닛 (182) 은 모션 벡터들 및 다른 신택스 엘리먼트들을 파싱하는 것에 의해 현재의 비디오 슬라이스의 비디오 블록에 대한 예측 정보를 결정하고, 그 예측 정보를 사용하여, 디코딩되고 있는 현재 비디오 블록에 대한 예측 블록들을 생성한다. 예를 들면, 모션 보상 유닛 (182) 은, 비디오 슬라이스의 비디오 블록들을 코딩하기 위해 사용되는 예측 모드 (예를 들면, 인트라-예측 또는 인터-예측), 인터 예측 슬라이스 타입 (예를 들면, B 슬라이스, P 슬라이스, 또는 GPB 슬라이스), 슬라이스에 대한 하나 이상의 기준 픽처 리스트들에 대한 구성 정보, 슬라이스의 각각의 인터 인코딩된 비디오 블록에 대한 모션 벡터들, 슬라이스의 각각의 인터 코딩된 비디오 블록에 대한 인터 예측 상태, 및 현재의 비디오 슬라이스의 비디오 블록들을 디코딩하기 위한 다른 정보를 결정하기 위해, 수신된 신택스 엘리먼트들의 일부를 사용한다.
모션 보상 유닛 (182) 은 또한, 보간 필터들에 기초하여 보간을 수행할 수도 있다. 모션 보상 유닛 (182) 은 비디오 블록들의 인코딩 동안 비디오 인코더 (20) 에 의해 사용되는 것과 같이 보간 필터들을 사용하여 기준 블록들의 서브-정수 픽셀들에 대한 보간된 값들을 계산할 수도 있다. 이 경우, 모션 보상 유닛 (182) 은 수신된 신택스 엘리먼트들로부터 비디오 인코더 (20) 에 의해 사용된 보간 필터들을 결정하고 그 보간 필터들을 사용하여 예측 블록을 생성할 수도 있다.
역양자화 프로세싱 유닛 (186) 은 비트스트림에서 제공되고 엔트로피 디코딩 유닛 (180) 에 의해 디코딩된 양자화된 변환 계수들을 역양자화, 즉, 탈양자화 (dequantizes) 한다. 역양자화 프로세스는 양자화의 정도, 및, 마찬가지로, 적용되어야 하는 역양자화의 정도를 결정하기 위해, 비디오 슬라이스에서의 각각의 비디오 블록에 대해 비디오 인코더 (20) 에 의해 계산된 양자화 파라미터의 사용을 포함할 수도 있다. 역변환 프로세싱 유닛 (188) 은 픽셀 도메인에서 잔차 블록들을 생성하기 위해, 역변환, 예를 들어, 역 DCT, 정수 역변환, 또는 개념적으로 유사한 역변환 프로세스를 변환 계수들에 적용한다.
모션 보상 유닛 (182) 이 모션 벡터들 및 다른 신택스 엘리먼트들에 기초하여 현재 비디오 블록에 대한 예측 블록을 생성한 이후, 비디오 디코더 (30) 는 역변환 프로세싱 유닛 (188) 으로부터의 잔차 블록들을 모션 보상 유닛 (182) 에 의해 생성된 대응하는 예측 블록들과 합산함으로써 디코딩된 비디오 블록을 형성한다. 합산기 (190) 는 이 합산 동작을 수행하는 컴포넌트 또는 컴포넌트들을 나타낸다. 원한다면, 픽셀 트랜지션들을 평활화하기 위해, 또는 다르게는 비디오 품질을 향상시키기 위해, (코딩 루프 내의 또는 코딩 루프 이후의) 루프 필터들이 또한 사용될 수도 있다. 필터 유닛 (191) 은 디블록킹 필터, 적응형 루프 필터 (ALF), 및 샘플 적응형 오프셋 (SAO) 필터와 같은 하나 이상의 루프 필터들을 나타낼 수도 있다. 필터 유닛 (191) 은 도 4 에서 인 루프 필터인 것으로 도시되지만, 다른 구성들에서, 필터 유닛 (161) 은 포스트 루프 필터로서 구현될 수도 있다. 그 후에, 소정의 프레임 또는 픽처에서의 디코딩된 비디오 블록들은 참조 픽처 메모리 (192) 에 저장되는데, 참조 픽처 메모리 (192) 는 후속 모션 보상을 위해 사용되는 참조 픽처들을 저장한다. 참조 픽처 메모리 (192) 는 또한, 도 1 의 디스플레이 디바이스 (31) 와 같은 디스플레이 디바이스 상으로의 더 나중의 프리젠테이션을 위해 디코딩된 비디오를 저장한다.
도 4 의 비디오 디코더 (30) 는 본원에 설명된 기술들 중 하나 이상을 구현하도록 구성된 비디오 인코더의 일 예를 나타낸다. 예를 들어, 예측 프로세싱 유닛 (181) 은 전술된 예시적인 기능들을 수행하기 위한 하나의 예시적인 유닛을 나타낸다. 예를 들어, 예측 프로세싱 유닛 (181) 은 SubPicCpbFlag 가 CPB (194) 에서 서브-픽처 레벨 동작이 허용되는 것을 나타내는지 여부를 결정할 수도 있다. 서브-픽처 레벨 동작이 허용된다면, 예측 프로세싱 유닛 (181) 은 어떤 NAL 유닛들이 액세스 유닛의 어떤 디코딩 유닛들과 연관되는 것을 결정할 수도 있다.
예를 들어, 예측 프로세싱 유닛 (181) 은 SEI NAL 유닛이 디코딩 유닛 정보 SEI 메세지를 포함하는 것을 결정할 수도 있다. 디코딩 유닛 정보 SEI 메세지로부터, 예측 프로세싱 유닛 (181) 은 디코딩 유닛의 CPB (194) 로부터의 제거 시간, 및 디코딩 유닛 식별자를 결정할 수도 있다. 예측 프로세싱 유닛 (181) 은 SEI NAL 유닛과, 상이한 디코딩 유닛 식별자를 갖는 디코딩 유닛 정보 SEI 메세지를 포함하는 다른 SEI NAL 유닛까지 SEI NAL 유닛을 뒤따르는 모든 NAL 유닛들이 디코딩 유닛의 디코딩 유닛 정보 SEI 메세지에 의해 식별된 디코딩 유닛과 연관되는 것을 결정할 수도 있다.
다른 예로서, 예측 프로세싱 유닛 (181) 은 슬라이스 헤더의 슬라이스가 디코딩 유닛 식별자를 포함하는 것을 결정할 수도 있다. 예측 프로세싱 유닛 (181) 은 디코딩 식별자에 기초하여 슬라이스 및 그 슬라이스 헤더를 포함하는 슬라이스 NAL 유닛이 어떤 디코딩 유닛과 연관되는지를 결정할 수도 있다.
상기 방식으로, NAL 유닛이 송신시 손실되는 경우에도, 예측 프로세싱 유닛 (181) 은 다른 (즉, 수신되고 손실되지 않은) NAL 유닛들이 어떤 디코딩 유닛들에 연관되는지를 결정할 수도 있다. 일부 예들에서, 예측 프로세싱 유닛 (181) 은, 디코딩 유닛 내에 디코딩 유닛 SEI 메세지의 다수의 카피들이 존재할 수도 있기 때문에, 디코딩 유닛이 CPB (194) 로부터 제거될 시간을 결정할 수도 있다.
일부 예들에서, 예측 프로세싱 유닛 (181) 과 상이한 유닛은 전술된 예들을 구현할 수도 있다. 일부 예들에서, 예측 프로세싱 유닛 (181) 과 함께 비디오 인코더 (30) 의 하나 이상의 다른 유닛들이 전술된 예들을 구현할 수도 있다. 일부 예들에서, (도 4 에 도시되지 않은) 비디오 인코더 (30) 의 프로세서 또는 유닛은 단독으로 또는 비디오 인코더 (4) 의 다른 유닛들과 함께 전술된 예들을 구현한다.
도 5 는 본 개시물에 설명된 하나 이상의 예들에 따라 비디오 데이터를 인코딩하는 일 예를 도시하는 플로우차트이다. 예시의 목적으로, 도 5 의 예는 비디오 인코더 (20) 에 관하여 설명된다.
비디오 인코더 (20) 는 액세스 유닛에서의 각각의 디코딩 유닛에 대한 고유 식별자를 결정한다 (200). 하나의 디코딩 유닛에 대한 식별자는 액세스 유닛에서의 임의의 다른 디코딩 유닛에 대한 식별자와 상이하다. 예를 들어, 비디오 인코더 (20) 는 액세스 유닛에서 제 1 디코딩 유닛에 대한 제 1 식별자를 결정하고, 액세스 유닛에서 제 2 의 상이한 디코딩 유닛에 대한 제 2 의 상이한 식별자를 결정한다. 상기 예에서, 제 1 식별자의 값이 제 2 식별자의 값 미만일 경우, 제 1 디코딩 유닛은 디코딩 순서에 있어서 제 2 디코딩 유닛에 선행한다.
비디오 인코더 (20) 는 어떤 NAL 유닛들이 액세스 유닛의 어떤 디코딩 유닛들과 연관되는지를 결정한다 (202). 예를 들어, 디코딩 유닛은 픽처의 부분에 대한 비디오 데이터를 각각 나타낼 수도 있고, NAL 유닛들은 디코딩 유닛의 부분을 나타낼 수도 있다. 비디오 인코더 (20) 는 디코딩 유닛의 비디오 데이터의 어떤 부분들이 어떤 NAL 유닛들에 의해 표현되는지를 결정하고, 디코딩 유닛의 비디오 데이터를 표현하는 NAL 유닛들이 디코딩 유닛과 연관된 것을 결정할 수도 있다.
비디오 인코더 (20) 는 어떤 NAL 유닛들이 액세스 유닛의 어떤 디코딩 유닛들과 연관되는지를 나타내기 위해 대응하는 디코딩 유닛들에서 각각의 고유한 식별자를 출력을 위해 생성한다 (204). 예를 들어, 비디오 인코더 (20) 는 엔트로피 인코딩 유닛 (156) 을 통해 디코딩 유닛들의 각각에 대한 고유 식별자들을 엔트로피 인코딩할 수도 있다. 상기 예들에서, 인코딩은 출력을 위해 생성하는 것으로 고려될 수도 있다. 또한, 비디오 인코더 (20) 는 어떤 NAL 유닛들이 코딩된 비트스트림의 부분으로서 액세스 유닛들의 어떤 디코딩 유닛들과 연관되는지 나타내기 위해 대응하는 디코딩 유닛들에서 각각의 고유 식별자를 출력 (예컨대, 시그널링) 할 수도 있다.
예를 들어, 비디오 인코더 (20) 는 제 1 디코딩 유닛 정보 SEI 메세지에 제 1 디코딩 유닛에 대한 제 1 고유 식별자를 포함하고, 제 1 디코딩 유닛 정보 SEI 메세지의 부분으로서 제 1 고유 식별자의 출력 이후에 제 1 디코딩 유닛과 연관된 모든 NAL 유닛들을 출력할 수도 있다. 비디오 인코더 (20) 는 제 2 디코딩 유닛 SEI 메세지에 제 2 디코딩 유닛에 대한 제 2 디코딩 유닛 식별자를 포함할 수도 있다. 제 1 디코딩 유닛과 연관되는 모든 NAL 유닛들의 출력 이후에, 비디오 인코더 (20) 는 제 2 디코딩 유닛의 출력의 부분으로서 제 2 디코딩 유닛 SEI 메세지에서 제 2 디코딩 유닛 식별자를 출력할 수도 있다. 다른 예로서, 비디오 인코더 (20) 는 슬라이스 NAL 유닛들의 슬라이스 헤더들에 고유한 식별자들의 각각을 포함하고, 이들 각각을 출력할 수도 있다.
일부 예들에서, 비디오 인코더 (20) 는 디코딩 유닛의 부분으로서, 디코딩 유닛의 제거 시간을 위한 정보를 표시하는 제 1 디코딩 유닛 SEI 메세지를 출력할 수도 있다. 비디오 인코더 (20) 는 또한, 디코딩 유닛의 부분으로서, 디코딩 유닛의 제거 시간을 위한 정보를 표시하는 제 2 디코딩 유닛 SEI 메세지를 출력할 수도 있다. 일부 경우들에서, 제 2 디코딩 유닛 SEI 메세지는 제 1 디코딩 유닛 SEI 메세지의 카피이다. 일부 예들에서, 비디오 인코더 (20) 는 액세스 유닛에서 SEI 메세지를 포함하고, 액세스 유닛에서 SEI 메세지의 카피를 포함할 수도 있다. 비디오 인코더 (20) 는 SEI 메세지 및 SEI 메세지의 카피를 포함하는 액세스 유닛을 출력할 수도 있다.
도 6 은 본 개시물에 설명된 하나 이상의 예들에 따라 비디오 데이터를 디코딩하는 일 예를 도시하는 플로우차트이다. 예시의 목적으로, 도 6 의 예는 비디오 인코더 (30) 에 관하여 설명된다.
비디오 디코더 (30) 는 액세스 유닛에서의 각각의 디코딩 유닛에 대한 고유 식별자를 디코딩할 수도 있다 (206). 상기 예에서, 하나의 디코딩 유닛에 대한 식별자는 액세스 유닛에서의 임의의 다른 디코딩 유닛에 대한 식별자와 상이하다. 예를 들어, 비디오 디코더 (30) 는 액세스 유닛에서 제 1 디코딩 유닛에 대한 제 1 식별자를 디코딩하고, 액세스 유닛에서 제 2 의 상이한 디코딩 유닛에 대한 제 2 의 상이한 식별자를 디코딩한다. 상기 예에서, 제 1 식별자의 값이 제 2 식별자의 값 미만일 경우, 제 1 디코딩 유닛은 디코딩 순서에서 제 2 디코딩 유닛에 선행한다.
비디오 디코더 (30) 는, 액세스 유닛에서 각각의 디코딩 유닛에 대한 고유 식별자에 기초하여 어떤 NAL 유닛들이 어떤 디코딩 유닛들과 연관되는지를 결정할 수도 있다 (208). 예를 들어, 비디오 디코더 (30) 는 제 1 디코딩 유닛에 대한 제 1 디코딩 유닛 정보 SEI 메세지로부터 제 1 고유 식별자를 디코딩하고, 제 2 디코딩 유닛에 대한 제 2 디코딩 유닛 SEI 메세지로부터 제 2 고유 식별자를 디코딩할 수도 있다. 비디오 디코더 (30) 는 제 1 디코딩 유닛 정보 SEI 메세지를 포함하는 제 1 SEI NAL 유닛 및 제 2 디코딩 유닛 정보 SEI 메세지를 포함하는 제 2 SEI NAL 유닛까지의 제 1 SEI NAL 유닛을 뒤따르는 모든 NAL 유닛들이 제 1 디코딩 유닛과 연관되는 것을 결정할 수도 있다. 다른 예로서, 비디오 디코더 (30) 는 슬라이스 NAL 유닛의 슬라이스 헤더에서 고유 식별자를 디코딩하고, 슬라이스 헤더에서 고유 식별자에 기초하여 슬라이스 NAL 유닛이 어떤 디코딩 유닛과 연관되는지 결정할 수도 있다.
비디오 디코더 (30) 는 적어도 하나의 픽처를 복원하기 위해, 결정에 기초하여 NAL 유닛들을 디코딩할 수도 있다 (210). 예를 들어, 디코딩 유닛들 모두와 연관된 NAL 유닛들 모두를 디코딩한 결과는 디코딩된 액세스 유닛일 수도 있다. 전술된 것과 같이, 액세스 유닛의 디코딩은 적어도 하나의 픽처 (예컨대, 멀티뷰 비디오 코딩이 사용되지 않을 경우 하나의 픽처이고 멀티뷰 비디오 코딩이 사용될 경우 다수의 픽처들) 을 발생한다.
일부 예들에서, 비디오 디코더 (30) 는 디코딩 유닛의 제거 시간에 대한 정보를 표시하는 제 1 디코딩 유닛 정보 SEI 메세지를 디코딩할 수도 있다. 비디오 디코더 (30) 는 또한 디코딩 유닛과 연관된 2 개의 NAL 유닛들 간에 위치된 제 2 디코딩 유닛 정보 SEI 메세지를 디코딩할 수도 있다. 상기 예에서, 제 2 디코딩 유닛 정보 SEI 메세지는 제 1 디코딩 유닛 정보 SEI 메세지의 카피이다. 일부 예들에서, 비디오 디코더 (30) 는 액세스 유닛에서 SEI 메세지를 디코딩하고, 액세스 유닛에서 SEI 메세지의 카피를 디코딩할 수도 있다.
도 7 은 본 개시물에 설명된 하나 이상의 예들에 따라 비디오 데이터를 코딩하는 일 예를 도시하는 플로우차트이다. 예시의 목적으로, 비디오 코더에 대한 기술들이 설명된다. 비디오 코더의 예들은 비디오 인코더 (20) 및 비디오 디코더 (30) 를 포함한다. 예를 들어, 비디오 인코딩의 경우, 비디오 코더의 예는 비디오 인코더 (20) 이다. 비디오 디코딩의 경우, 비디오 코더의 예는 비디오 디코더 (30) 이다.
도 7 에 도시된 것과 같이, 비디오 코더는 액세스 유닛에서 SEI (supplemental enhancement information) 메세지를 코딩하도록 구성된다 (212). 전술된 것과 같이, 액세스 유닛은 적어도 하나의 픽처를 복원하기 위한 비디오 데이터를 포함하고, SEI 메세지는 비디오 데이터의 특징 (예컨대, 표 1 및 표 5 에서 전술된 것과 같은 특징들) 을 정의한다. 일부 예들에서, 비디오 코더는 멀티-세션 송신을 위해 액세스 유닛에서 SEI 메세지를 코딩할 수도 있다. 비디오 코더는 액세스 유닛에서 SEI 메세지의 카피를 코딩하도록 구성된다 (214). 일부 예들에서, 비디오 코더는 멀티-세션 송신을 위해 액세스 유닛에서 SEI 메세지의 카피를 코딩할 수도 있다.
예를 들어, 비디오 인코더 (20) 는 액세스 유닛에서 디코딩 순서에 있어서 제 1 VCL (video coding layer) NAL (network abstraction layer) 유닛 이전에 SEI 메세지를 포함할 수도 있다. 비디오 인코더 (20) 는 디코딩 순서에 있어서 제 1 VCL NAL 유닛 이후 및 디코딩 순서에 있어서 최종 VCL NAL 유닛 이전에 SEI 메세지의 카피를 포함할 수도 있다. 상기 예에서, 비디오 인코더 (20) 는 제 1 VCL NAL 유닛 이전에 포함된 SEI 메세지를 인코딩하고 제 1 VCL NAL 유닛 이후 최종 VCL NAL 유닛 이전에 포함된 SEI 메세지의 카피를 인코딩할 수도 있다.
다른 예로서, 비디오 디코더 (30) 는 액세스 유닛에서 디코딩 순서에 있어서 제 1 VCL NAL 유닛을 디코딩하고, 액세스 유닛에서 디코딩 순서에 있어서 최종 VCL NAL 유닛을 디코딩할 수도 있다. 상기 예에서, 비디오 디코더 (30) 는 제 1 VCL NAL 유닛을 디코딩하기 전에 SEI 메세지를 디코딩하고, 제 1 VCL NAL 유닛을 디코딩한 후 최종 VCL NAL 유닛을 디코딩하기 전에 SEI 메세지의 카피를 디코딩할 수도 있다.
일부 예들에서, 비디오 코더는 SEI 메세지의 타입을 결정할 수도 있다. 비디오 코더는 또한 액세스 유닛의 시간 식별 값을 결정할 수도 있다. 비디오 코더는 SEI 메세지의 타입 및 액세스 유닛의 시간 식별값에 기초하여 SEI 메세지의 존재가 허용되는지 여부를 결정할 수도 있다. 상기 예들에서, 비디오 코더는 SEI 메세지의 존재가 허용되는지 여부의 결정에 기초하여 SEI 메세지를 코딩할 수도 있다.
하나 이상의 예들에서, 설명된 기능들은 하드웨어, 소프트웨어, 펌?R어, 또는 이들의 임의의 조합으로 구현될 수도 있다. 소프트웨어로 구현되면, 상기 기능들은 하나 이상의 명령들 또는 코드로서 컴퓨터 판독가능 매체 상에 저장되거나 또는 컴퓨터 판독가능 매체를 통해 송신되며 하드웨어 기반 프로세싱 유닛에 의해 실행될 수도 있다. 컴퓨터 판독가능 매체는, 데이터 저장 매체와 같은 유형의 매체, 또는 예를 들어, 통신 프로토콜에 따라, 일 위치에서 다른 위치로의 컴퓨터 프로그램의 전송을 용이하게 하는 임의의 매체를 포함하는 통신 매체에 대응하는 컴퓨터 판독가능 저장 매체들일 포함할 수도 있다. 이러한 방식으로, 컴퓨터 판독가능 매체는 일반적으로 (1) 비-일시적인 유형의 컴퓨터 판독가능 저장 매체 또는 (2) 신호 또는 캐리어파와 같은 통신 매체에 대응할 수도 있다. 데이터 저장 매체는, 본 개시에서 설명된 기술들의 구현을 위한 명령들, 코드 및/또는 데이터 구조들을 취출하기 위한 하나 이상의 컴퓨터들 또는 하나 이상의 프로세서들에 의해 액세스될 수 있는 임의의 이용가능한 매체일 수도 있다. 컴퓨터 프로그램 제품은 컴퓨터 판독가능 매체를 포함할 수도 있다.
다른 예들에서, 본 개시물은 저장된 데이터 구조를 포함하는 컴퓨터 판독가능 매체를 고려하며, 여기서 데이터 구조는 본 개시물과 일치하여 코딩된 인코딩된 비트스트림을 포함한다.
비-제한적인 예로서, 이러한 컴퓨터 판독가능 매체는 RAM, ROM, EEPROM, CD-ROM 또는 다른 광학 디스크 스토리지, 자기 디스크 스토리지, 또는 다른 자기 스토리지 디바이스들, 플래시 메모리, 또는 요구되는 프로그램 코드를 명령들 또는 데이터 구조들의 형태로 저장하기 위해 사용될 수 있으며 컴퓨터에 의해 액세스될 수 있는 임의의 다른 매체를 포함할 수 있다. 또한, 임의의 접속물이 컴퓨터 판독가능 매체로 적절히 칭해진다. 예를 들면, 명령들이 동축 케이블, 광섬유 케이블, 연선, 디지털 가입자 회선 (DSL), 또는 적외선, 무선, 및 마이크로파와 같은 무선 기술들을 이용하여 웹사이트, 서버, 또는 다른 원격 소스로부터 송신된다면, 동축 케이블, 광섬유 케이블, 연선, DSL, 또는 적외선, 무선, 및 마이크로파와 같은 무선 기술들은 매체의 정의 내에 포함된다. 그러나, 컴퓨터 판독가능 저장 매체들 및 데이터 저장 매체들은 접속들, 반송파들, 신호들, 또는 다른 일시적 매체들을 포함하는 것이 아니라, 대신에 비-일시적인, 유형의 저장 매체들과 관련되는 것이 이해되어야만 한다. 본원에서 이용된 디스크 (disk) 와 디스크 (disc) 는, 컴팩트 디스크(CD), 레이저 디스크, 광학 디스크, 디지털 다기능 디스크 (DVD), 플로피 디스크, 및 블루레이 디스크를 포함하며, 여기서 디스크 (disk) 들은 통상 자기적으로 데이터를 재생하는 반면, 디스크 (disc) 들은 레이저들을 이용하여 광학적으로 데이터를 재생한다. 위의 조합들도 컴퓨터 판독가능 매체들의 범위 내에 포함되어야 한다.
명령들은 하나 이상의 디지털 신호 프로세서들 (DSP들), 범용 마이크로프로세서들, 주문형 집적회로들 (ASIC들), 필드 프로그래밍가능 로직 어레이들 (FPGA들), 또는 다른 등가의 집적된 또는 별도의 로직 회로와 같은 하나 이상의 프로세서들에 의해 실행될 수도 있다. 따라서, 본 명세서에서 사용되는 바와 같은 용어 "프로세서" 는 본 명세서에서 설명된 기술들의 구현에 적절한 전술한 구조 또는 임의의 다른 구조 중 임의의 구조를 지칭할 수도 있다. 부가적으로, 일부 양태들에 있어서, 본 명세서에서 설명된 기능은 인코딩 및 디코딩을 위해 구성되고 결합된 코덱에서 통합된 전용 하드웨어 모듈 및/또는 소프트웨어 모듈들 내에 제공될 수도 있다. 또한, 그 기술들은 하나 이상의 회로들 또는 로직 엘리먼트들에서 완전히 구현될 수 있다.
본 개시의 기술들은 무선 핸드셋, 집적 회로 (IC) 또는 IC들의 세트 (예를 들어, 칩 세트) 를 포함하여 매우 다양한 디바이스들 또는 장치들에서 구현될 수도 있다. 다양한 컴포넌트들, 모듈들 또는 유닛들이 개시된 기술들을 수행하도록 구성된 디바이스들의 기능적 양태들을 강조하기 위해 본 개시에서 설명되지만, 반드시 상이한 하드웨어 유닛들에 의한 실현을 요구하지는 않는다. 오히려, 상기 설명된 바와 같이, 다양한 유닛들은 적절한 소프트웨어 및/또는 펌웨어와 함께 상기 설명된 바와 같은 하나 이상의 프로세서들을 포함하여 코덱 하드웨어 유닛으로 결합되거나 상호작용하는 하드웨어 유닛들의 집합에 의해 제공될 수도 있다.
다양한 예들이 설명되었다. 이들 및 다른 예들은 하기의 특허청구범위 내에 있다.

Claims (31)

  1. 비디오 데이터를 디코딩하는 방법으로서,
    하나 이상의 개별 디코딩 유닛 정보 SEI (supplemental enhancement information) 메세지들로부터, 액세스 유닛에서의 하나 이상의 디코딩 유닛들 중 각각의 디코딩 유닛에 대한 고유 식별자를 디코딩하는 단계로서, 하나의 디코딩 유닛에 대한 식별자는 상기 액세스 유닛에서의 임의의 다른 디코딩 유닛에 대한 식별자와 상이하고, 상기 하나 이상의 디코딩 유닛들의 각각은 복수의 NAL (network abstraction layer) 유닛들을 포함하며, 그리고 상기 하나 이상의 디코딩 유닛들의 각각에 대한 상기 고유 식별자는 디코딩 순서에 있어서 상기 액세스 유닛에서의 모든 디코딩 유닛들의 리스트 내로의 상기 하나 이상의 디코딩 유닛들의 각각의 인덱스인, 상기 고유 식별자를 디코딩하는 단계;
    상기 액세스 유닛에서의 상기 하나 이상의 디코딩 유닛들에 대하여, 상기 액세스 유닛에서의 상기 하나 이상의 디코딩 유닛들의 각각에 대한 상기 고유 식별자에 기초하여, 상기 하나 이상의 디코딩 유닛들 중 어느 디코딩 유닛이 상기 복수의 NAL 유닛들 중 어느 NAL 유닛을 포함하는지를 결정하는 단계; 및
    적어도 하나의 픽처를 복원하기 위해, 상기 결정에 기초하여 상기 액세스 유닛에서의 상기 하나 이상의 디코딩 유닛들의 각각의 상기 복수의 NAL 유닛들을 디코딩하는 단계를 포함하는, 비디오 데이터를 디코딩하는 방법.
  2. 제 1 항에 있어서,
    상기 고유 식별자를 디코딩하는 단계는 제 1 디코딩 유닛에 대한 제 1 디코딩 유닛 정보 SEI 메세지로부터 제 1 고유 식별자를 디코딩하는 단계, 및 제 2 디코딩 유닛에 대한 제 2 디코딩 유닛 정보 SEI 메세지로부터 제 2 고유 식별자를 디코딩하는 단계를 포함하고,
    상기 결정하는 단계는 상기 제 1 디코딩 유닛 정보 SEI 메세지를 포함하는 제 1 SEI NAL 유닛 및 상기 제 2 디코딩 유닛 정보 SEI 메세지를 포함하는 제 2 SEI NAL 유닛까지 상기 제 1 SEI NAL 유닛을 뒤따르는 모든 NAL 유닛들이 상기 제 1 디코딩 유닛에 포함되는 것을 결정하는 단계를 포함하는, 비디오 데이터를 디코딩하는 방법.
  3. 제 1 항에 있어서,
    상기 고유 식별자를 디코딩하는 단계는 슬라이스 NAL 유닛의 슬라이스 헤더에서의 상기 고유 식별자를 디코딩하는 단계를 포함하고,
    상기 결정하는 단계는 상기 슬라이스 헤더에서의 상기 고유 식별자에 기초하여 상기 하나 이상의 디코딩 유닛들 중 어느 디코딩 유닛이 상기 슬라이스 NAL 유닛을 포함하는지를 결정하는 단계를 포함하는, 비디오 데이터를 디코딩하는 방법.
  4. 제 1 항에 있어서,
    디코딩 유닛의 제거 시간에 대한 정보를 표시하는 제 1 디코딩 유닛 정보 SEI 메세지를 디코딩하는 단계; 및
    상기 디코딩 유닛에 포함된 2 개의 NAL 유닛들 사이에 위치된 제 2 디코딩 유닛 정보 SEI 메세지를 디코딩하는 단계를 더 포함하며,
    상기 제 2 디코딩 유닛 정보 SEI 메세지는 상기 제 1 디코딩 유닛 정보 SEI 메세지의 카피인, 비디오 데이터를 디코딩하는 방법.
  5. 제 1 항에 있어서,
    상기 고유 식별자를 디코딩하는 단계는,
    상기 액세스 유닛에서의 제 1 디코딩 유닛에 대한 제 1 식별자를 디코딩하는 단계; 및
    상기 액세스 유닛에서의 상이한 제 2 디코딩 유닛에 대한 상이한 제 2 식별자를 디코딩하는 단계를 포함하며,
    상기 제 1 식별자의 값이 상기 제 2 식별자의 값 미만인 것에 기초하여, 상기 제 1 디코딩 유닛은 디코딩 순서에 있어서 상기 제 2 디코딩 유닛에 선행하는, 비디오 데이터를 디코딩하는 방법.
  6. 제 1 항에 있어서,
    상기 액세스 유닛에서 디코딩 유닛 SEI 메세지 이외의 SEI 메세지를 디코딩하는 단계; 및
    상기 액세스 유닛에서 상기 SEI 메세지의 카피를 디코딩하는 단계를 더 포함하는, 비디오 데이터를 디코딩하는 방법.
  7. 비디오 데이터를 인코딩하는 방법으로서,
    액세스 유닛에서의 하나 이상의 디코딩 유닛들 중 각각의 디코딩 유닛에 대한 고유 식별자를 결정하는 단계로서, 하나의 디코딩 유닛에 대한 식별자는 상기 액세스 유닛에서의 임의의 다른 디코딩 유닛에 대한 식별자와 상이하고, 상기 하나 이상의 디코딩 유닛들의 각각은 복수의 NAL (network abstraction layer) 유닛들을 포함하며, 그리고 상기 하나 이상의 디코딩 유닛들의 각각에 대한 상기 고유 식별자는 디코딩 순서에 있어서 상기 액세스 유닛에서의 모든 디코딩 유닛들의 리스트 내로의 상기 하나 이상의 디코딩 유닛들의 각각의 인덱스인, 상기 고유 식별자를 결정하는 단계;
    상기 액세스 유닛에서의 상기 하나 이상의 디코딩 유닛들에 대하여, 상기 하나 이상의 디코딩 유닛들 중 어느 디코딩 유닛이 상기 복수의 NAL 유닛들 중 어느 NAL 유닛을 포함하는지를 결정하는 단계; 및
    상기 하나 이상의 디코딩 유닛들 중 어느 디코딩 유닛이 상기 복수의 NAL 유닛들 중 어느 NAL 유닛을 포함하는지를 표시하기 위해, 대응하는 하나 이상의 디코딩 유닛들의 하나 이상의 개별 디코딩 유닛 정보 SEI (supplemental enhancement information) 메세지들에서 각각의 고유 식별자를 출력을 위해 생성하는 단계를 포함하는, 비디오 데이터를 인코딩하는 방법.
  8. 제 7 항에 있어서,
    상기 출력을 위해 생성하는 단계는 제 1 디코딩 유닛 정보 SEI 메세지에서 제 1 디코딩 유닛에 대한 제 1 고유 식별자를 포함하는 단계를 포함하고,
    상기 비디오 데이터를 인코딩하는 방법은,
    제 1 디코딩 유닛 SEI 메세지를 출력한 후에 상기 제 1 디코딩 유닛에 포함된 상기 복수의 NAL 유닛들 모두를 출력하는 단계;
    제 2 디코딩 유닛 정보 SEI 메세지에 제 2 디코딩 유닛에 대한 제 2 고유 식별자를 포함하는 단계; 및
    상기 제 1 디코딩 유닛에 포함된 상기 복수의 NAL 유닛들 모두를 출력한 후에, 상기 제 2 디코딩 유닛에 대한 상기 제 2 고유 식별자를 포함하는 상기 제 2 디코딩 유닛 정보 SEI 메세지를 출력하는 단계를 더 포함하는, 비디오 데이터를 인코딩하는 방법.
  9. 제 7 항에 있어서,
    상기 출력을 위해 생성하는 단계는 대응하는 디코딩 유닛들에 포함되는 슬라이스 NAL 유닛들의 대응하는 슬라이스 헤더들에서 각각의 고유 식별자를 포함하는 단계를 포함하는, 비디오 데이터를 인코딩하는 방법.
  10. 제 7 항에 있어서,
    디코딩 유닛의 부분으로서, 상기 디코딩 유닛의 제거 시간에 대한 정보를 표시하는 제 1 디코딩 유닛 정보 SEI 메세지를 출력하는 단계; 및
    상기 디코딩 유닛의 부분으로서, 제 2 디코딩 유닛 정보 SEI 메세지를 출력하는 단계를 더 포함하며,
    상기 제 2 디코딩 유닛 정보 SEI 메세지는 상기 제 1 디코딩 유닛 정보 SEI 메세지의 카피인, 비디오 데이터를 인코딩하는 방법.
  11. 제 7 항에 있어서,
    상기 고유 식별자를 결정하는 단계는,
    상기 액세스 유닛에서의 제 1 디코딩 유닛에 대한 제 1 식별자를 결정하는 단계; 및
    상기 액세스 유닛에서 상이한 제 2 디코딩 유닛에 대한 상이한 제 2 식별자를 결정하는 단계를 포함하며,
    상기 제 1 식별자의 값이 상기 제 2 식별자의 값 미만인 것에 기초하여, 상기 제 1 디코딩 유닛은 디코딩 순서에 있어서 상기 제 2 디코딩 유닛에 선행하는, 비디오 데이터를 인코딩하는 방법.
  12. 제 7 항에 있어서,
    상기 액세스 유닛에서 디코딩 유닛 SEI 메세지 이외의 SEI 메세지를 포함하는 단계; 및
    상기 액세스 유닛에서 상기 SEI 메세지의 카피를 포함하는 단계를 더 포함하는, 비디오 데이터를 인코딩하는 방법.
  13. 비디오 데이터를 디코딩하는 디바이스로서,
    상기 비디오 데이터를 저장하도록 구성된 메모리; 및
    비디오 디코더를 포함하며,
    상기 비디오 디코더는,
    상기 비디오 데이터의 하나 이상의 개별 디코딩 유닛 정보 SEI (supplemental enhancement information) 메세지들로부터, 상기 비디오 데이터의 액세스 유닛에서의 하나 이상의 디코딩 유닛들 중 각각의 디코딩 유닛에 대한 고유 식별자를 디코딩하는 것으로서, 하나의 디코딩 유닛에 대한 식별자는 상기 액세스 유닛에서의 임의의 다른 디코딩 유닛에 대한 식별자와 상이하고, 상기 하나 이상의 디코딩 유닛들의 각각은 복수의 NAL (network abstraction layer) 유닛들을 포함하며, 그리고 상기 하나 이상의 디코딩 유닛들의 각각에 대한 상기 고유 식별자는 디코딩 순서에 있어서 상기 액세스 유닛에서의 모든 디코딩 유닛들의 리스트 내로의 상기 하나 이상의 디코딩 유닛들의 각각의 인덱스인, 상기 고유 식별자를 디코딩하고;
    상기 액세스 유닛에서의 상기 하나 이상의 디코딩 유닛들에 대하여, 상기 액세스 유닛에서의 상기 하나 이상의 디코딩 유닛들의 각각에 대한 상기 고유 식별자에 기초하여, 상기 하나 이상의 디코딩 유닛들 중 어느 디코딩 유닛이 상기 복수의 NAL 유닛들 중 어느 NAL 유닛을 포함하는지를 결정하며; 그리고
    적어도 하나의 픽처를 복원하기 위해, 상기 결정에 기초하여 상기 액세스 유닛에서의 상기 하나 이상의 디코딩 유닛들의 각각의 상기 복수의 NAL 유닛들을 디코딩하도록
    구성되는, 비디오 데이터를 디코딩하는 디바이스.
  14. 제 13 항에 있어서,
    상기 고유 식별자를 디코딩하기 위해, 상기 비디오 디코더는 제 1 디코딩 유닛에 대한 제 1 디코딩 유닛 정보 SEI 메세지로부터 제 1 고유 식별자를 디코딩하고, 그리고 제 2 디코딩 유닛에 대한 제 2 디코딩 유닛 정보 SEI 메세지로부터 제 2 고유 식별자를 디코딩하도록 구성되고,
    결정하기 위해, 상기 비디오 디코더는 상기 제 1 디코딩 유닛 정보 SEI 메세지를 포함하는 제 1 SEI NAL 유닛 및 상기 제 2 디코딩 유닛 정보 SEI 메세지를 포함하는 제 2 SEI NAL 유닛까지 상기 제 1 SEI NAL 유닛을 뒤따르는 모든 NAL 유닛들이 상기 제 1 디코딩 유닛에 포함되는 것을 결정하도록 구성되는, 비디오 데이터를 디코딩하는 디바이스.
  15. 제 13 항에 있어서,
    상기 고유 식별자를 디코딩하기 위해, 상기 비디오 디코더는 슬라이스 NAL 유닛의 슬라이스 헤더에서의 상기 고유 식별자를 디코딩하도록 구성되고,
    결정하기 위해, 상기 비디오 디코더는 상기 슬라이스 헤더에서의 상기 고유 식별자에 기초하여 상기 하나 이상의 디코딩 유닛들 중 어느 디코딩 유닛이 상기 슬라이스 NAL 유닛을 포함하는지를 결정하도록 구성되는, 비디오 데이터를 디코딩하는 디바이스.
  16. 제 13 항에 있어서,
    상기 비디오 디코더는,
    디코딩 유닛의 제거 시간에 대한 정보를 표시하는 제 1 디코딩 유닛 정보 SEI 메세지를 디코딩하고, 그리고
    상기 디코딩 유닛에 포함된 2 개의 NAL 유닛들 사이에 위치된 제 2 디코딩 유닛 정보 SEI 메세지를 디코딩하도록
    구성되며,
    상기 제 2 디코딩 유닛 정보 SEI 메세지는 상기 제 1 디코딩 유닛 정보 SEI 메세지의 카피인, 비디오 데이터를 디코딩하는 디바이스.
  17. 제 13 항에 있어서,
    상기 고유 식별자를 디코딩하기 위해, 상기 비디오 디코더는,
    상기 액세스 유닛에서의 제 1 디코딩 유닛에 대한 제 1 식별자를 디코딩하고, 그리고
    상기 액세스 유닛에서의 상이한 제 2 디코딩 유닛에 대한 상이한 제 2 식별자를 디코딩하도록
    구성되며,
    상기 제 1 식별자의 값이 상기 제 2 식별자의 값 미만인 것에 기초하여, 상기 제 1 디코딩 유닛은 디코딩 순서에 있어서 상기 제 2 디코딩 유닛에 선행하는, 비디오 데이터를 디코딩하는 디바이스.
  18. 제 13 항에 있어서,
    상기 비디오 디코더는,
    상기 액세스 유닛에서 디코딩 유닛 SEI 메세지 이외의 SEI 메세지를 디코딩하고, 그리고
    상기 액세스 유닛에서 상기 SEI 메세지의 카피를 디코딩하도록
    구성되는, 비디오 데이터를 디코딩하는 디바이스.
  19. 제 13 항에 있어서,
    상기 비디오 데이터를 디코딩하는 디바이스는,
    마이크로프로세서;
    집적 회로; 또는
    상기 비디오 디코더를 포함하는 무선 디바이스
    중 하나를 포함하는, 비디오 데이터를 디코딩하는 디바이스.
  20. 비디오 데이터를 인코딩하는 디바이스로서,
    상기 비디오 데이터를 저장하도록 구성된 메모리; 및
    비디오 인코더를 포함하며,
    상기 비디오 인코더는,
    상기 비디오 데이터의 액세스 유닛에서의 하나 이상의 디코딩 유닛들 중 각각의 디코딩 유닛에 대한 고유 식별자를 결정하는 것으로서, 하나의 디코딩 유닛에 대한 식별자는 상기 액세스 유닛에서의 임의의 다른 디코딩 유닛에 대한 식별자와 상이하고, 상기 각각의 디코딩 유닛은 상기 비디오 데이터의 복수의 NAL (network abstraction layer) 유닛들을 포함하며, 그리고 상기 하나 이상의 디코딩 유닛들의 각각에 대한 상기 고유 식별자는 디코딩 순서에 있어서 상기 액세스 유닛에서의 모든 디코딩 유닛들의 리스트 내로의 상기 하나 이상의 디코딩 유닛들의 각각의 인덱스인, 상기 고유 식별자를 결정하고;
    상기 액세스 유닛에서의 상기 하나 이상의 디코딩 유닛들에 대하여, 상기 하나 이상의 디코딩 유닛들 중 어느 디코딩 유닛이 상기 복수의 NAL 유닛들 중 어느 NAL 유닛을 포함하는지를 결정하며; 그리고
    상기 하나 이상의 디코딩 유닛들 중 어느 디코딩 유닛이 상기 복수의 NAL 유닛들 중 어느 NAL 유닛을 포함하는지를 표시하기 위해, 대응하는 하나 이상의 디코딩 유닛들의 하나 이상의 개별 디코딩 유닛 정보 SEI (supplemental enhancement information) 메세지들에서 각각의 고유 식별자를 출력을 위해 생성하도록
    구성되는, 비디오 데이터를 인코딩하는 디바이스.
  21. 제 20 항에 있어서,
    상기 출력을 위해 생성하기 위해, 상기 비디오 인코더는 제 1 디코딩 유닛 정보 SEI 메세지에서 제 1 디코딩 유닛에 대한 제 1 고유 식별자를 포함하도록 구성되고,
    상기 비디오 인코더는,
    제 1 디코딩 유닛 SEI 메세지를 출력한 후에 상기 제 1 디코딩 유닛에 포함된 상기 복수의 NAL 유닛들 모두를 출력하고,
    제 2 디코딩 유닛 정보 SEI 메세지에 제 2 디코딩 유닛에 대한 제 2 고유 식별자를 포함하며, 그리고
    상기 제 1 디코딩 유닛에 포함된 상기 복수의 NAL 유닛들 모두를 출력한 후에, 상기 제 2 디코딩 유닛에 대한 상기 제 2 고유 식별자를 포함하는 상기 제 2 디코딩 유닛 정보 SEI 메세지를 출력하도록
    구성되는, 비디오 데이터를 인코딩하는 디바이스.
  22. 제 20 항에 있어서,
    상기 출력을 위해 생성하기 위해, 상기 비디오 인코더는 대응하는 디코딩 유닛들에 포함된 슬라이스 NAL 유닛들의 대응하는 슬라이스 헤더들에 각각의 고유 식별자를 포함하도록 구성되는, 비디오 데이터를 인코딩하는 디바이스.
  23. 제 20 항에 있어서,
    상기 비디오 인코더는,
    디코딩 유닛의 부분으로서, 상기 디코딩 유닛의 제거 시간에 대한 정보를 표시하는 제 1 디코딩 유닛 정보 SEI 메세지를 출력하고, 그리고
    상기 디코딩 유닛의 부분으로서, 제 2 디코딩 유닛 정보 SEI 메세지를 출력하도록
    구성되며,
    상기 제 2 디코딩 유닛 정보 SEI 메세지는 상기 제 1 디코딩 유닛 정보 SEI 메세지의 카피인, 비디오 데이터를 인코딩하는 디바이스.
  24. 제 20 항에 있어서,
    상기 고유 식별자를 결정하기 위해, 상기 비디오 인코더는,
    상기 액세스 유닛에서의 제 1 디코딩 유닛에 대한 제 1 식별자를 결정하고, 그리고
    상기 액세스 유닛에서 상이한 제 2 디코딩 유닛에 대한 상이한 제 2 식별자를 결정하도록
    구성되며,
    상기 제 1 식별자의 값이 상기 제 2 식별자의 값 미만인 것에 기초하여, 상기 제 1 디코딩 유닛은 디코딩 순서에 있어서 상기 제 2 디코딩 유닛에 선행하는, 비디오 데이터를 인코딩하는 디바이스.
  25. 제 20 항에 있어서,
    상기 비디오 인코더는,
    상기 액세스 유닛에서 디코딩 유닛 SEI 메세지 이외의 SEI 메세지를 포함하고, 그리고
    상기 액세스 유닛에서 상기 SEI 메세지의 카피를 포함하도록
    구성되는, 비디오 데이터를 인코딩하는 디바이스.
  26. 저장된 명령들을 가지는 비-일시적 컴퓨터 판독가능 저장 매체로서,
    상기 명령들은, 실행될 경우, 비디오 데이터를 디코딩하는 디바이스의 하나 이상의 프로세서들로 하여금,
    하나 이상의 개별 디코딩 유닛 정보 SEI (supplemental enhancement information) 메세지들로부터, 액세스 유닛에서의 하나 이상의 디코딩 유닛들의 각각에 대한 고유 식별자를 디코딩하게 하는 것으로서, 하나의 디코딩 유닛에 대한 식별자는 상기 액세스 유닛에서의 임의의 다른 디코딩 유닛에 대한 식별자와 상이하고, 상기 하나 이상의 디코딩 유닛들의 각각은 복수의 NAL (network abstraction layer) 유닛들을 포함하며, 그리고 상기 하나 이상의 디코딩 유닛들의 각각에 대한 상기 고유 식별자는 디코딩 순서에 있어서 상기 액세스 유닛에서의 모든 디코딩 유닛들의 리스트 내로의 상기 하나 이상의 디코딩 유닛들의 각각의 인덱스인, 상기 고유 식별자를 디코딩하게 하고;
    상기 액세스 유닛에서의 상기 하나 이상의 디코딩 유닛들에 대하여, 상기 액세스 유닛에서의 상기 하나 이상의 디코딩 유닛들의 각각에 대한 상기 고유 식별자에 기초하여, 상기 하나 이상의 디코딩 유닛들 중 어느 디코딩 유닛이 상기 복수의 NAL 유닛들 중 어느 NAL 유닛을 포함하는지를 결정하게 하며; 그리고
    적어도 하나의 픽처를 복원하기 위해, 상기 결정에 기초하여 상기 액세스 유닛에서의 상기 하나 이상의 디코딩 유닛들의 각각의 상기 복수의 NAL 유닛들을 디코딩하게 하는, 비-일시적 컴퓨터 판독가능 저장 매체.
  27. 제 26 항에 있어서,
    상기 하나 이상의 프로세서들로 하여금, 상기 고유 식별자를 디코딩하게 하는 명령들은, 상기 하나 이상의 프로세서들로 하여금, 제 1 디코딩 유닛에 대한 제 1 디코딩 유닛 정보 SEI 메세지로부터 제 1 고유 식별자를 디코딩하게 하고, 그리고 제 2 디코딩 유닛에 대한 제 2 디코딩 유닛 정보 SEI 메세지로부터 제 2 고유 식별자를 디코딩하게 하는 명령들을 포함하고,
    상기 하나 이상의 프로세서들로 하여금, 상기 결정하게 하는 명령들은, 상기 하나 이상의 프로세서들로 하여금, 상기 제 1 디코딩 유닛 정보 SEI 메세지를 포함하는 제 1 SEI NAL 유닛 및 상기 제 2 디코딩 유닛 정보 SEI 메세지를 포함하는 제 2 SEI NAL 유닛까지 상기 제 1 SEI NAL 유닛을 뒤따르는 모든 NAL 유닛들이 상기 제 1 디코딩 유닛에 포함되는 것을 결정하게 하는 명령들을 포함하는, 비-일시적 컴퓨터 판독가능 저장 매체.
  28. 제 26 항에 있어서,
    상기 하나 이상의 프로세서들로 하여금,
    상기 액세스 유닛에서 디코딩 유닛 SEI 메세지 이외의 SEI 메세지를 디코딩하게 하고, 그리고
    상기 액세스 유닛에서 상기 SEI 메세지의 카피를 디코딩하게 하는
    명령들을 더 포함하는, 비-일시적 컴퓨터 판독가능 저장 매체.
  29. 비디오 데이터를 디코딩하는 디바이스로서,
    하나 이상의 개별 디코딩 유닛 정보 SEI (supplemental enhancement information) 메세지들로부터, 액세스 유닛에서의 하나 이상의 디코딩 유닛들 중 각각의 디코딩 유닛에 대한 고유 식별자를 디코딩하는 수단으로서, 하나의 디코딩 유닛에 대한 식별자는 상기 액세스 유닛에서의 임의의 다른 디코딩 유닛에 대한 식별자와 상이하고, 상기 하나 이상의 디코딩 유닛들의 각각은 복수의 NAL (network abstraction layer) 유닛들을 포함하며, 그리고 상기 하나 이상의 디코딩 유닛들의 각각에 대한 상기 고유 식별자는 디코딩 순서에 있어서 상기 액세스 유닛에서의 모든 디코딩 유닛들의 리스트 내로의 상기 하나 이상의 디코딩 유닛들의 각각의 인덱스인, 상기 고유 식별자를 디코딩하는 수단;
    상기 액세스 유닛에서의 상기 하나 이상의 디코딩 유닛들에 대하여, 상기 액세스 유닛에서의 상기 하나 이상의 디코딩 유닛들의 각각에 대한 상기 고유 식별자에 기초하여, 상기 하나 이상의 디코딩 유닛들 중 어느 디코딩 유닛이 상기 복수의 NAL 유닛들 중 어느 NAL 유닛을 포함하는지를 결정하는 수단; 및
    적어도 하나의 픽처를 복원하기 위해, 상기 결정에 기초하여 상기 액세스 유닛에서의 상기 하나 이상의 디코딩 유닛들의 각각의 상기 복수의 NAL 유닛들을 디코딩하는 수단을 포함하는, 비디오 데이터를 디코딩하는 디바이스.
  30. 제 29 항에 있어서,
    상기 고유 식별자를 디코딩하는 수단은 제 1 디코딩 유닛에 대한 제 1 디코딩 유닛 정보 SEI 메세지로부터 제 1 고유 식별자를 디코딩하는 수단, 및 제 2 디코딩 유닛에 대한 제 2 디코딩 유닛 정보 SEI 메세지로부터 제 2 고유 식별자를 디코딩하는 수단을 포함하고,
    상기 결정하는 수단은 상기 제 1 디코딩 유닛 정보 SEI 메세지를 포함하는 제 1 SEI NAL 유닛 및 상기 제 2 디코딩 유닛 정보 SEI 메세지를 포함하는 제 2 SEI NAL 유닛까지 상기 제 1 SEI NAL 유닛을 뒤따르는 상기 NAL 유닛들 모두가 상기 제 1 디코딩 유닛에 포함되는 것을 결정하는 수단을 포함하는, 비디오 데이터를 디코딩하는 디바이스.
  31. 제 29 항에 있어서,
    상기 액세스 유닛에서 디코딩 유닛 SEI 메세지 이외의 SEI 메세지를 디코딩하는 수단; 및
    상기 액세스 유닛에서 상기 SEI 메세지의 카피를 디코딩하는 수단을 더 포함하는, 비디오 데이터를 디코딩하는 디바이스.
KR1020157010810A 2012-09-28 2013-08-20 에러에 강인한 디코딩 유닛 연관 KR101762521B1 (ko)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201261707759P 2012-09-28 2012-09-28
US61/707,759 2012-09-28
US13/926,478 2013-06-25
US13/926,478 US9565452B2 (en) 2012-09-28 2013-06-25 Error resilient decoding unit association
PCT/US2013/055858 WO2014051892A1 (en) 2012-09-28 2013-08-20 Error resilient decoding unit association

Publications (2)

Publication Number Publication Date
KR20150063116A KR20150063116A (ko) 2015-06-08
KR101762521B1 true KR101762521B1 (ko) 2017-07-27

Family

ID=50385188

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020157010819A KR101741342B1 (ko) 2012-09-28 2013-08-20 보충 강화 정보 메세지 코딩
KR1020157010810A KR101762521B1 (ko) 2012-09-28 2013-08-20 에러에 강인한 디코딩 유닛 연관

Family Applications Before (1)

Application Number Title Priority Date Filing Date
KR1020157010819A KR101741342B1 (ko) 2012-09-28 2013-08-20 보충 강화 정보 메세지 코딩

Country Status (20)

Country Link
US (2) US9565452B2 (ko)
EP (2) EP2901678B1 (ko)
JP (2) JP6235026B2 (ko)
KR (2) KR101741342B1 (ko)
CN (2) CN104704841B (ko)
AR (1) AR094447A1 (ko)
AU (2) AU2013324246B2 (ko)
BR (2) BR112015006849B1 (ko)
CA (2) CA2884352C (ko)
ES (1) ES2978906T3 (ko)
HK (2) HK1207927A1 (ko)
IL (2) IL237770B (ko)
MY (2) MY194740A (ko)
PH (2) PH12015500509A1 (ko)
RU (2) RU2618942C2 (ko)
SG (2) SG11201501632SA (ko)
TW (3) TW201424404A (ko)
UA (2) UA117355C2 (ko)
WO (2) WO2014051893A1 (ko)
ZA (1) ZA201502307B (ko)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021137592A1 (ko) * 2020-01-02 2021-07-08 엘지전자 주식회사 영상 디코딩 방법 및 그 장치
WO2021137588A1 (ko) * 2020-01-02 2021-07-08 엘지전자 주식회사 픽처 헤더를 포함하는 영상 정보를 코딩하는 영상 디코딩 방법 및 그 장치
WO2021137590A1 (ko) * 2020-01-02 2021-07-08 엘지전자 주식회사 Ph nal 유닛 코딩 관련 영상 디코딩 방법 및 그 장치

Families Citing this family (45)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102427824B1 (ko) 2010-12-08 2022-08-02 엘지전자 주식회사 인트라 예측 방법과 이를 이용한 부호화 장치 및 복호화 장치
CN104185992A (zh) * 2012-02-08 2014-12-03 汤姆逊许可公司 用于使用假设参考解码器的超低延迟模式的方法和装置
KR20190053290A (ko) * 2012-06-25 2019-05-17 닛본 덴끼 가부시끼가이샤 비디오 인코딩/디코딩 장치, 방법 및 프로그램
CN110035286B (zh) * 2012-07-09 2021-11-12 Vid拓展公司 用于多层视频编码的编解码器架构
US9565452B2 (en) 2012-09-28 2017-02-07 Qualcomm Incorporated Error resilient decoding unit association
US9374585B2 (en) * 2012-12-19 2016-06-21 Qualcomm Incorporated Low-delay buffering model in video coding
WO2015009693A1 (en) * 2013-07-15 2015-01-22 Sony Corporation Layer based hrd buffer management for scalable hevc
KR102652871B1 (ko) 2013-07-15 2024-04-01 지이 비디오 컴프레션, 엘엘씨 네트워크 장치 및 오류 처리
WO2015053673A1 (en) * 2013-10-11 2015-04-16 Telefonaktiebolaget L M Ericsson (Publ) Method and arrangement for video transcoding using mode or motion or in-loop filter information
EP3061253A4 (en) 2013-10-25 2016-08-31 Microsoft Technology Licensing Llc PAIRING OF BLOCKS BY HASHING VIDEO AND IMAGE CODING
WO2015058397A1 (en) 2013-10-25 2015-04-30 Microsoft Technology Licensing, Llc Representing blocks with hash values in video and image coding and decoding
US10368092B2 (en) 2014-03-04 2019-07-30 Microsoft Technology Licensing, Llc Encoder-side decisions for block flipping and skip mode in intra block copy prediction
KR102185245B1 (ko) * 2014-03-04 2020-12-01 마이크로소프트 테크놀로지 라이센싱, 엘엘씨 해시 기반 블록 매칭을 위한 해시 테이블 구성 및 이용가능성 검사
US10178397B2 (en) * 2014-03-24 2019-01-08 Qualcomm Incorporated Generic use of HEVC SEI messages for multi-layer codecs
US9813719B2 (en) * 2014-06-18 2017-11-07 Qualcomm Incorporated Signaling HRD parameters for bitstream partitions
US10681372B2 (en) * 2014-06-23 2020-06-09 Microsoft Technology Licensing, Llc Encoder decisions based on results of hash-based block matching
US9838697B2 (en) 2014-06-25 2017-12-05 Qualcomm Incorporated Multi-layer video coding
JP6462119B2 (ja) 2014-09-30 2019-01-30 マイクロソフト テクノロジー ライセンシング,エルエルシー コンピューティングデバイス
US9800898B2 (en) * 2014-10-06 2017-10-24 Microsoft Technology Licensing, Llc Syntax structures indicating completion of coded regions
US9516147B2 (en) 2014-10-30 2016-12-06 Microsoft Technology Licensing, Llc Single pass/single copy network abstraction layer unit parser
EP3249912A4 (en) * 2015-01-23 2018-10-24 LG Electronics Inc. Method and device for transmitting and receiving broadcast signal for restoring pulled-down signal
US10390039B2 (en) 2016-08-31 2019-08-20 Microsoft Technology Licensing, Llc Motion estimation for screen remoting scenarios
US11095877B2 (en) 2016-11-30 2021-08-17 Microsoft Technology Licensing, Llc Local hash-based motion estimation for screen remoting scenarios
JP7026450B2 (ja) * 2017-04-24 2022-02-28 ソニーグループ株式会社 送信装置、送信方法、受信装置および受信方法
JP6982990B2 (ja) 2017-06-19 2021-12-17 ソニーグループ株式会社 送信装置、送信方法、受信装置および受信方法
UA126871C2 (uk) * 2018-02-14 2023-02-15 Долбі Лабораторіс Лайсензін Корпорейшн Перетворення зображення в кодуванні відео з використанням оптимізації залежності викривлення від швидкості передачі
SG11202106524PA (en) 2018-12-20 2021-07-29 Ericsson Telefon Ab L M Normative indication of recovery point
US11140403B2 (en) * 2018-12-20 2021-10-05 Tencent America LLC Identifying tile from network abstraction unit header
US12113997B2 (en) * 2019-01-22 2024-10-08 Tencent America LLC Method for tile group identification
CN109905715B (zh) * 2019-02-26 2021-07-06 北京世纪好未来教育科技有限公司 插入sei数据的码流转换方法及系统
WO2021134015A1 (en) 2019-12-26 2021-07-01 Bytedance Inc. Profile, tier and layer indication in video coding
JP7568350B2 (ja) 2019-12-26 2024-10-16 バイトダンス インコーポレイテッド ビデオコーディングにおける復号パラメータセット
EP4062634A4 (en) 2019-12-26 2022-12-28 ByteDance Inc. LIMITATIONS ON SIGNALING HYPOTHETICAL REFERENCE DECODER PARAMETERS IN VIDEO BITSTREAMS
CN114902567A (zh) 2019-12-27 2022-08-12 字节跳动有限公司 视频编解码中的子图像信令
CN114930837A (zh) * 2020-01-04 2022-08-19 字节跳动有限公司 对子图片的帧间预测的限制
EP4074052A4 (en) 2020-01-09 2023-05-31 ByteDance Inc. PROCESSING OF FILLER DATA UNITS IN VIDEO STREAMS
WO2021193775A1 (ja) * 2020-03-27 2021-09-30 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 符号化装置、復号装置、符号化方法、および復号方法
US11706428B2 (en) * 2020-04-06 2023-07-18 Tencent America LLC Method for signaling picture header in coded video stream
WO2021252471A1 (en) 2020-06-09 2021-12-16 Bytedance Inc. Handling of supplemental enhancement information in subpicture sub-bitstream extraction process
US11202085B1 (en) 2020-06-12 2021-12-14 Microsoft Technology Licensing, Llc Low-cost hash table construction and hash-based block matching for variable-size blocks
US12041386B2 (en) 2020-09-29 2024-07-16 Lemon Inc. Dependent random access point indication in video bitstreams
US11930222B1 (en) * 2021-03-30 2024-03-12 Amazon Technologies, Inc. Encoding video for film grain synthesis
AU2022257959B2 (en) * 2021-04-12 2024-06-20 Telefonaktiebolaget Lm Ericsson (Publ) Message referencing
CN114745600B (zh) * 2022-06-10 2022-09-27 中国传媒大学 一种基于sei的视频标签标注方法及装置
WO2024107002A1 (ko) * 2022-11-17 2024-05-23 엘지전자 주식회사 영상 부호화/복호화 방법, 비트스트림을 전송하는 방법 및 비트스트림을 저장한 기록 매체

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2382940A (en) 2001-11-27 2003-06-11 Nokia Corp Encoding objects and background blocks
US7831990B2 (en) * 2002-04-29 2010-11-09 Sony Corporation Generic adaptation layer for JVT video
US20050201471A1 (en) 2004-02-13 2005-09-15 Nokia Corporation Picture decoding method
US7586924B2 (en) 2004-02-27 2009-09-08 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Apparatus and method for coding an information signal into a data stream, converting the data stream and decoding the data stream
EP1773063A1 (en) 2005-06-14 2007-04-11 Thomson Licensing Method and apparatus for encoding video data, and method and apparatus for decoding video data
US20070230564A1 (en) * 2006-03-29 2007-10-04 Qualcomm Incorporated Video processing with scalability
RU2395174C1 (ru) * 2006-03-30 2010-07-20 ЭлДжи ЭЛЕКТРОНИКС ИНК. Способ и устройство для декодирования/кодирования сигнала видео
US8520733B2 (en) * 2006-06-30 2013-08-27 Core Wireless Licensing S.A.R.L Video coding
US8582663B2 (en) * 2006-08-08 2013-11-12 Core Wireless Licensing S.A.R.L. Method, device, and system for multiplexing of video streams
WO2008018626A2 (en) * 2006-08-10 2008-02-14 Canon Kabushiki Kaisha Image decoding apparatus
CA2674710C (en) * 2007-01-09 2016-02-23 Vidyo, Inc. Improved systems and methods for error resilience in video communication systems
CN101622879B (zh) * 2007-01-18 2012-05-23 诺基亚公司 以rtp净荷格式传输sei消息
RU2432703C2 (ru) 2007-04-17 2011-10-27 Нокиа Корпорейшн Масштабируемое видеокодирование с обратной связью
US20080291999A1 (en) 2007-05-24 2008-11-27 Julien Lerouge Method and apparatus for video frame marking
US8855199B2 (en) * 2008-04-21 2014-10-07 Nokia Corporation Method and device for video coding and decoding
JP5238069B2 (ja) 2008-04-25 2013-07-17 フラウンホッファー−ゲゼルシャフト ツァ フェルダールング デァ アンゲヴァンテン フォアシュンク エー.ファオ トランスポート・データストリーム内で参照するフレキシブル・サブストリーム
CA2730543C (en) * 2008-07-16 2014-04-22 Nokia Corporation Method and apparatus for track and track subset grouping
TWI371214B (en) 2008-12-03 2012-08-21 Himax Media Solutions Inc Decoding testing device and decoding testing method
MX2013004068A (es) * 2010-10-25 2013-05-22 Panasonic Corp Metodo de codificacion, dispositivo de visualizacion, metodo de codificacion.
KR101912472B1 (ko) * 2011-01-14 2018-10-26 선 페이턴트 트러스트 화상 부호화 방법, 화상 복호 방법, 메모리 관리 방법, 화상 부호화 장치, 화상 복호 장치, 메모리 관리 장치 및 화상 부호화 복호 장치
CA2829290C (en) * 2011-03-10 2017-10-17 Vidyo, Inc. Render-orientation information in video bitstream
US20120236115A1 (en) 2011-03-14 2012-09-20 Qualcomm Incorporated Post-filtering in full resolution frame-compatible stereoscopic video coding
CN115442623B (zh) * 2012-06-29 2024-08-23 Ge视频压缩有限责任公司 解码视频数据流的方法、存储介质、编码器、解码器
US9565452B2 (en) 2012-09-28 2017-02-07 Qualcomm Incorporated Error resilient decoding unit association

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
Bross, et al., "Proposed Editorial Improvements for High efficiency video coding (HEVC) Text Specification Draft 9 (SoDIS)", (JCTVC-L0030), JCT-VC of ITU-T SG16 WP3 and ISO/IEC JTC1/SC29/WG11, 12th Me
SCHIERL T. et al., ‘AHG9: Slice Prefix for sub-picture and slice level HLS signaling’, JCTVC-J0255, JCT-VC of ITU-T SG 16 WP 3 and ISO/IEC JTC 1/SC 29/WG11, 10th Meeting: Stockholm, SE, 11-20 July 201
Y.-K. Wang, et al., ‘AHG9: On HRD and related general issues’, (JCTVC-K0126), JCT-VC of ITU-T SG16 WP3 and ISO/IEC JTC1/SC29/WG11, 11th Meeting: Shanghai, CN, 15 October 2012

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021137592A1 (ko) * 2020-01-02 2021-07-08 엘지전자 주식회사 영상 디코딩 방법 및 그 장치
WO2021137588A1 (ko) * 2020-01-02 2021-07-08 엘지전자 주식회사 픽처 헤더를 포함하는 영상 정보를 코딩하는 영상 디코딩 방법 및 그 장치
WO2021137590A1 (ko) * 2020-01-02 2021-07-08 엘지전자 주식회사 Ph nal 유닛 코딩 관련 영상 디코딩 방법 및 그 장치
US11589068B2 (en) 2020-01-02 2023-02-21 Lg Electronics Inc. Image decoding method, and device for same
US11601658B2 (en) 2020-01-02 2023-03-07 Lg Electronics Inc. PH NAL unit coding-related image decoding method, and device for same
US11729402B2 (en) 2020-01-02 2023-08-15 Lg Electronics Inc. Image decoding method and apparatus for coding image information including picture header
US11856209B2 (en) 2020-01-02 2023-12-26 Lg Electronics Inc. PH NAL unit coding-related image decoding method, and device for same

Also Published As

Publication number Publication date
MY194740A (en) 2022-12-15
AU2013324245B2 (en) 2017-08-10
KR101741342B1 (ko) 2017-05-29
AR094447A1 (es) 2015-08-05
AU2013324246A1 (en) 2015-04-16
CA2884560C (en) 2019-05-14
TW201424404A (zh) 2014-06-16
CN104685888A (zh) 2015-06-03
CN104704841B (zh) 2018-10-26
HK1208580A1 (en) 2016-03-04
IL237770A0 (en) 2015-05-31
MY173902A (en) 2020-02-26
US9479782B2 (en) 2016-10-25
PH12015500645A1 (en) 2015-05-11
CN104685888B (zh) 2018-02-06
PH12015500509B1 (en) 2015-04-27
ZA201502307B (en) 2017-05-31
ES2978906T3 (es) 2024-09-23
RU2618942C2 (ru) 2017-05-11
CA2884560A1 (en) 2014-04-03
KR20150063117A (ko) 2015-06-08
RU2015115894A (ru) 2016-11-20
SG11201501636WA (en) 2015-05-28
CA2884352A1 (en) 2014-04-03
IL237770B (en) 2019-08-29
BR112015006849B1 (pt) 2022-08-02
BR112015006849A2 (pt) 2017-07-04
EP2901678A1 (en) 2015-08-05
RU2628250C2 (ru) 2017-08-15
US20140092993A1 (en) 2014-04-03
JP6125643B2 (ja) 2017-05-10
TW201611583A (zh) 2016-03-16
WO2014051892A1 (en) 2014-04-03
PH12015500645B1 (en) 2015-05-11
JP6235026B2 (ja) 2017-11-22
AU2013324246B2 (en) 2017-09-14
US9565452B2 (en) 2017-02-07
WO2014051893A1 (en) 2014-04-03
UA114343C2 (uk) 2017-05-25
CN104704841A (zh) 2015-06-10
SG11201501632SA (en) 2015-05-28
UA117355C2 (uk) 2018-07-25
US20140092994A1 (en) 2014-04-03
IL237771A (en) 2017-09-28
HK1207927A1 (en) 2016-02-12
PH12015500509A1 (en) 2015-04-27
TWI569633B (zh) 2017-02-01
CA2884352C (en) 2019-01-08
EP2901678C0 (en) 2024-05-15
BR112015006856B1 (pt) 2022-08-09
RU2015115896A (ru) 2016-11-20
EP2901676A1 (en) 2015-08-05
BR112015006856A2 (pt) 2017-07-04
JP2015534773A (ja) 2015-12-03
KR20150063116A (ko) 2015-06-08
EP2901678B1 (en) 2024-05-15
AU2013324245A1 (en) 2015-04-16
TWI556630B (zh) 2016-11-01
TW201424391A (zh) 2014-06-16
JP2015534774A (ja) 2015-12-03

Similar Documents

Publication Publication Date Title
KR101762521B1 (ko) 에러에 강인한 디코딩 유닛 연관
EP2898691B1 (en) Indication and activation of parameter sets for video coding

Legal Events

Date Code Title Description
A201 Request for examination
A302 Request for accelerated examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant