KR102138407B1 - 색 공간 스케일러빌리티에 대한 3d 칼라 예측을 위한 비트 심도 값들의 시그널링 - Google Patents

색 공간 스케일러빌리티에 대한 3d 칼라 예측을 위한 비트 심도 값들의 시그널링 Download PDF

Info

Publication number
KR102138407B1
KR102138407B1 KR1020167031620A KR20167031620A KR102138407B1 KR 102138407 B1 KR102138407 B1 KR 102138407B1 KR 1020167031620 A KR1020167031620 A KR 1020167031620A KR 20167031620 A KR20167031620 A KR 20167031620A KR 102138407 B1 KR102138407 B1 KR 102138407B1
Authority
KR
South Korea
Prior art keywords
bit depth
lookup table
chroma components
picture
luma component
Prior art date
Application number
KR1020167031620A
Other languages
English (en)
Other versions
KR20160145117A (ko
Inventor
샹 리
지안레 천
마르타 카르체비츠
Original Assignee
퀄컴 인코포레이티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 퀄컴 인코포레이티드 filed Critical 퀄컴 인코포레이티드
Publication of KR20160145117A publication Critical patent/KR20160145117A/ko
Application granted granted Critical
Publication of KR102138407B1 publication Critical patent/KR102138407B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/161Encoding, multiplexing or demultiplexing different image signal components
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/109Selection of coding mode or of prediction mode among a plurality of temporal predictive coding modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/186Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/187Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a scalable video layer
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • H04N19/36Scalability techniques involving formatting the layers as a function of picture distortion after decoding, e.g. signal-to-noise [SNR] scalability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/42Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

비디오 코딩에서 색 공간 스케일러빌리티에 대한 제한된 3차원 (3D) 칼라 예측을 수행하는 기법들이 설명된다. 색 공간 스케일러빌리티에 대한 칼라 예측 기법들은 비디오 데이터의 참조 계층에 대한 색 공간이 비디오 데이터의 향상 계층에 대한 색 공간과 상이할 때, 또는 참조 계층의 비트 심도가 향상 계층의 비트 심도와 상이할 때 인터-계층 참조 픽처들을 발생시키기 위해 비디오 코더들에 의해 사용될 수도 있다. 본 기법들에 따르면, 비디오 코더는 3D 룩업 테이블의 입력 및 출력 칼라 성분들의 제한된 비트 심도들에 의해 3D 칼라 예측을 수행할 수도 있다. 추가적인 기법들에 따르면, 다수의 계층들의 경우, 비디오 코더는 단지 하나 이상의 식별된 참조 계층들에서의 참조 픽처들에의 제한된 적용에 의해 3D 칼라 예측을 수행할 수도 있다.

Description

색 공간 스케일러빌리티에 대한 3D 칼라 예측을 위한 비트 심도 값들의 시그널링{SIGNALING BIT DEPTH VALUES FOR 3D COLOR PREDICTION FOR COLOR GAMUT SCALABILITY}
본 출원은 2014년 4월 17일에 출원된 미국 가출원 번호 제 61/981,125호, 및 2014년 5월 30일에 출원된 미국 가출원 번호 제 62/005,651호의 이익을 주장하며, 이들의 내용들은 그들 전체로 본원에 참조로 포함된다.
기술 분야
본 개시물은 비디오 코딩에 관한 것이다.
디지털 비디오 능력들은, 디지털 텔레비전들, 디지털 직접 브로드캐스트 시스템들, 무선 브로드캐스트 시스템들, 개인 휴대정보 단말기들 (PDA들), 랩탑 또는 데스크탑 컴퓨터들, 태블릿 컴퓨터들, e-북 리더들, 디지털 카메라들, 디지털 리코딩 디바이스들, 디지털 미디어 플레이어들, 비디오 게이밍 디바이스들, 비디오 게임 콘솔들, 셀룰러 또는 위성 무선 전화기들, 소위 "스마트폰들", 원격 화상회의 디바이스들, 비디오 스트리밍 디바이스들 등을 포함한, 광범위한 디바이스들에 포함될 수 있다. 디지털 비디오 디바이스들은 MPEG-2, MPEG-4, ITU-T H.263, ITU-T H.264/MPEG-4, 파트 10, AVC (Advanced Video Coding), 현재 개발중인 HEVC (High Efficiency Video Coding) 표준, 및 이러한 표준들의 확장판들에 의해 정의된 표준들에서 설명되는 비디오 코딩 기법들과 같은, 비디오 코딩 기법들을 구현한다. 비디오 디바이스들은 이러한 비디오 코딩 기법들을 구현함으로써, 디지털 비디오 정보를 좀더 효율적으로 송신하거나, 수신하거나, 인코딩하거나, 디코딩하거나, 및/또는 저장할 수도 있다.
비디오 코딩 기법들은 비디오 시퀀스들에 고유한 리던던시를 감소시키거나 또는 제거하기 위해, 공간 (인트라-픽처) 예측 및/또는 시간 (인터-픽처) 예측을 포함한다. 블록-기반 비디오 코딩에 있어, 비디오 슬라이스 (예컨대, 비디오 프레임 또는 비디오 프레임의 부분) 은 비디오 블록들로 파티셔닝될 수도 있으며, 이 비디오 블록들은 또한 트리블록들, 코딩 유닛들 (CU들) 및/또는 코딩 노드들로서 지칭될 수도 있다. 픽처의 인트라-코딩된 (I) 슬라이스에서의 비디오 블록들은 동일한 픽처의 이웃하는 블록들에서의 참조 샘플들에 대한 공간 예측을 이용하여 인코딩된다. 픽처의 인터-코딩된 (P 또는 B) 슬라이스에서의 비디오 블록들은 동일한 픽처의 이웃하는 블록들에서의 참조 샘플들에 대한 공간 예측, 또는 다른 참조 픽처들에서의 참조 샘플들에 대한 시간 예측을 이용할 수도 있다. 픽처들은 프레임들로 지칭될 수 있으며, 참조 픽처들은 참조 프레임들로서 지칭될 수도 있다.
공간 또는 시간 예측은 코딩되는 블록에 대한 예측 블록을 초래한다. 잔차 데이터는 코딩되는 원래 블록과 예측 블록 사이의 픽셀 차이들을 나타낸다. 인터-코딩된 블록은 예측 블록을 형성하는 참조 샘플들의 블록을 가리키는 모션 벡터, 및 코딩된 블록과 예측 블록 사이의 차이를 나타내는 잔차 데이터에 따라서 인코딩된다. 인트라-코딩된 블록은 인트라-코딩 모드 및 잔차 데이터에 따라서 인코딩된다. 추가적인 압축을 위해, 잔차 데이터는 픽셀 도메인으로부터 변환 도메인으로 변환되어, 잔차 변환 계수들을 초래할 수도 있으며, 이 잔차 변환 계수는 그후 양자화될 수도 있다. 처음에 2차원 어레이로 배열된, 양자화된 변환 계수들은 변환 계수들의 1차원 벡터를 발생하기 위해 스캐닝될 수도 있으며, 엔트로피 코딩이 더욱 더 많은 압축을 달성하기 위해 적용될 수도 있다.
일반적으로, 본 개시물은 비디오 코딩에서 색 공간 (color gamut) 스케일러빌리티 (scalability) 에 대한 제한된 3차원 (3D) 칼라 예측을 수행하는 기법들을 설명한다. 색 공간 스케일러빌리티에 대한 칼라 예측 기법들은 비디오 데이터의 하부 참조 계층에 대한 색 공간이 비디오 데이터의 상부 향상 계층에 대한 색 공간과 상이할 때 인터-계층 참조 픽처들을 발생시키기 위해 비디오 인코더들 및/또는 비디오 디코더들에 의해 사용될 수도 있다. 예를 들어, 비디오 인코더 및/또는 비디오 디코더는 하부 참조 계층에 대한 참조 픽처의 칼라 데이터를 상부 향상 계층에 대한 색 공간으로 변환하기 위해 색 공간 스케일러빌리티에 대한 3D 룩업 테이블을 이용하여 칼라 예측을 먼저 수행하고, 그후 그 변환된 칼라 데이터에 기초하여 인터-계층 참조 픽처들을 발생시킬 수도 있다. 칼라 예측 기법들은 또한 비디오 데이터의 하부 참조 계층의 비트 심도가 비디오 데이터의 상부 향상 계층의 비트 심도와 상이할 때 인터-계층 참조 픽처들을 발생시키기 위해 비디오 인코더들 및/또는 비디오 디코더들에 의해 사용될 수도 있다.
본 개시물에서 설명하는 기법들에 따르면, 비디오 인코더 및/또는 비디오 디코더는 3D 룩업 테이블의 입력 및 출력 칼라 성분들의 제한된 비트 심도들에 의해 3D 칼라 예측을 수행할 수도 있다. 본 개시물에서 설명되는 추가적인 기법들에 따르면, 다수의 계층들의 경우, 비디오 인코더 및/또는 비디오 디코더는 단지 하나 이상의 식별된 참조 계층들에서의 참조 픽처들에의 제한된 적용에 의해 3D 칼라 예측을 수행할 수도 있다.
일 예에서, 본 개시물은 비디오 데이터를 디코딩하는 방법에 대해 기술되며, 본 방법은 비디오 데이터의 참조 계층에서의 참조 계층 픽처의 칼라 성분들의 비트 심도들과 동일하도록 색 공간 스케일러빌리티에 대한 3D 룩업 테이블의 입력 비트 심도들을 결정하는 단계; 칼라 성분들을 비디오 데이터의 참조 계층에 대한 제 1 색 공간을 비디오 데이터의 향상 계층에 대한 제 2 색 공간으로 변환하기 위해 3D 룩업 테이블을 참조 계층 픽처의 칼라 성분들에 적용하는 단계; 변환된 칼라 성분들에 기초하여 비디오 데이터의 향상 계층에서의 향상 계층 픽처에 대한 인터-계층 참조 픽처를 발생시키는 단계; 및 3D 룩업 테이블을 이용하여 발생된 인터-계층 참조 픽처에 기초하여 향상 계층 픽처의 비디오 블록들을 디코딩하는 단계를 포함한다.
다른 예에서, 본 개시물은 비디오 데이터를 인코딩하는 방법에 대해 기술되며, 본 방법은 비디오 데이터의 참조 계층에서의 참조 계층 픽처의 칼라 성분들의 비트 심도들과 동일하도록 색 공간 스케일러빌리티에 대한 3D 룩업 테이블의 입력 비트 심도들을 결정하는 단계; 칼라 성분들을 비디오 데이터의 참조 계층에 대한 제 1 색 공간을 비디오 데이터의 향상 계층에 대한 제 2 색 공간으로 변환하기 위해 3D 룩업 테이블을 참조 계층 픽처의 칼라 성분들에 적용하는 단계; 변환된 칼라 성분들에 기초하여 비디오 데이터의 향상 계층에서의 향상 계층 픽처에 대한 인터-계층 참조 픽처를 발생시키는 단계; 및 3D 룩업 테이블을 이용하여 발생된 인터-계층 참조 픽처에 기초하여 향상 계층 픽처에서의 비디오 블록들을 인코딩하는 단계를 포함한다.
추가적인 예에서, 본 개시물은 비디오 데이터를 저장하도록 구성된 메모리, 및 메모리와 통신하는 하나 이상의 프로세서들을 포함하는 비디오 디코딩 디바이스에 대해 기술된다. 하나 이상의 프로세서들은 비디오 데이터의 참조 계층에서의 참조 계층 픽처의 칼라 성분들의 비트 심도들과 동일하도록 색 공간 스케일러빌리티에 대한 3D 룩업 테이블의 입력 비트 심도들을 결정하고; 칼라 성분들을 비디오 데이터의 참조 계층에 대한 제 1 색 공간으로부터 비디오 데이터의 향상 계층에 대한 제 2 색 공간으로 변환하기 위해 3D 룩업 테이블을 참조 계층 픽처의 칼라 성분들에 적용하고; 변환된 칼라 성분들에 기초하여 비디오 데이터의 향상 계층에서의 향상 계층 픽처에 대한 인터-계층 참조 픽처를 발생시키고; 그리고 3D 룩업 테이블을 이용하여 발생된 인터-계층 참조 픽처에 기초하여 향상 계층 픽처의 비디오 블록들을 디코딩하도록 구성된다.
추가적인 예에서, 본 개시물은 비디오 데이터를 저장하도록 구성된 메모리, 및 메모리와 통신하는 하나 이상의 프로세서들을 포함하는 비디오 인코딩 디바이스에 대해 기술된다. 하나 이상의 프로세서들은 비디오 데이터의 참조 계층에서의 참조 계층 픽처의 칼라 성분들의 비트 심도들과 동일하도록 색 공간 스케일러빌리티에 대한 3D 룩업 테이블의 입력 비트 심도들을 결정하고; 칼라 성분들을 비디오 데이터의 참조 계층에 대한 제 1 색 공간으로부터 비디오 데이터의 향상 계층에 대한 제 2 색 공간으로 변환하기 위해 3D 룩업 테이블을 참조 계층 픽처의 칼라 성분들에 적용하고; 변환된 칼라 성분들에 기초하여 비디오 데이터의 향상 계층에서의 향상 계층 픽처에 대한 인터-계층 참조 픽처를 발생시키고; 그리고 3D 룩업 테이블을 이용하여 발생된 인터-계층 참조 픽처에 기초하여 향상 계층 픽처에서의 비디오 블록들을 인코딩하도록 구성된다.
다른 예에서, 본 개시물은 비디오 데이터의 참조 계층에서의 참조 계층 픽처의 칼라 성분들의 비트 심도들과 동일하도록 색 공간 스케일러빌리티에 대한 3D 룩업 테이블의 입력 비트 심도들을 결정하는 수단; 칼라 성분들을 비디오 데이터의 참조 계층에 대한 제 1 색 공간을 비디오 데이터의 향상 계층에 대한 제 2 색 공간으로 변환하기 위해 3D 룩업 테이블을 참조 계층 픽처의 칼라 성분들에 적용하는 수단; 변환된 칼라 성분들에 기초하여 비디오 데이터의 향상 계층에서의 향상 계층 픽처에 대한 인터-계층 참조 픽처를 발생시키는 수단; 및 3D 룩업 테이블을 이용하여 발생된 인터-계층 참조 픽처에 기초하여 향상 계층 픽처의 비디오 블록들을 디코딩하는 수단을 포함하는 비디오 디코딩 디바이스에 대해 기술된다.
추가적인 예에서, 본 개시물은 비디오 데이터를 디코딩하기 위한 명령들을 저장하는 컴퓨터-판독가능 저장 매체에 대해 기술되며, 상기 명령들은, 실행될 때, 하나 이상의 프로세서들로 하여금, 비디오 데이터의 참조 계층에서의 참조 계층 픽처의 칼라 성분들의 비트 심도들과 동일하도록 색 공간 스케일러빌리티에 대한 3D 룩업 테이블의 입력 비트 심도들을 결정하고; 칼라 성분들을 비디오 데이터의 참조 계층에 대한 제 1 색 공간으로부터 비디오 데이터의 향상 계층에 대한 제 2 색 공간으로 변환하기 위해 3D 룩업 테이블을 참조 계층 픽처의 칼라 성분들에 적용하고; 변환된 칼라 성분들에 기초하여 비디오 데이터의 향상 계층에서의 향상 계층 픽처에 대한 인터-계층 참조 픽처를 발생시키고; 그리고 3D 룩업 테이블을 이용하여 발생된 인터-계층 참조 픽처에 기초하여 향상 계층 픽처의 비디오 블록들을 디코딩하도록 한다.
일 예에서, 본 개시물은 비디오 데이터를 디코딩하는 방법에 대해 기술되며, 본 방법은 색 공간 스케일러빌리티에 대한 3D 룩업 테이블에 대한 적어도 하나의 참조 계층 식별자 (ID) 를 수신하는 단계로서, 적어도 하나의 참조 계층 ID 는 비디오 데이터의 복수의 참조 계층들 중 적어도 하나의 참조 계층을 식별하는, 상기 수신하는 단계; 칼라 성분들을 비디오 데이터의 참조 계층들에 대한 제 1 색 공간으로부터 비디오 데이터의 향상 계층에 대한 제 2 색 공간으로 변환하기 위해 3D 룩업 테이블을 적어도 하나의 참조 계층 ID 에 의해 식별된 적어도 하나의 참조 계층에서의 참조 계층 픽처의 칼라 성분들에 적용하는 단계; 변환된 칼라 성분들에 기초하여 비디오 데이터의 향상 계층에서의 향상 계층 픽처에 대한 인터-계층 참조 픽처를 발생시키는 단계; 및 3D 룩업 테이블을 이용하여 발생된 인터-계층 참조 픽처에 기초하여 향상 계층 픽처의 비디오 블록들을 디코딩하는 단계를 포함한다.
다른 예에서, 본 개시물은 비디오 데이터를 인코딩하는 방법에 대해 기술되며, 본 방법은 색 공간 스케일러빌리티에 대한 3D 룩업 테이블에 대해 비디오 데이터의 복수의 참조 계층들 중 적어도 하나의 참조 계층을 결정하는 단계; 칼라 성분들을 비디오 데이터의 참조 계층들에 대한 제 1 색 공간으로부터 비디오 데이터의 향상 계층에 대한 제 2 색 공간으로 변환하기 위해 3D 룩업 테이블을 적어도 하나의 참조 계층에서의 참조 계층 픽처의 칼라 성분들에 적용하는 단계; 변환된 칼라 성분들에 기초하여 비디오 데이터의 향상 계층에서의 향상 계층 픽처에 대한 인터-계층 참조 픽처를 발생시키는 단계; 3D 룩업 테이블을 이용하여 발생된 인터-계층 참조 픽처에 기초하여 향상 계층 픽처의 비디오 블록들을 인코딩하는 단계; 및 적어도 하나의 참조 계층을 식별하는 적어도 하나의 참조 계층 ID 를 시그널링하는 단계를 포함한다.
추가적인 예에서, 본 개시물은 비디오 데이터를 저장하도록 구성된 메모리, 및 메모리와 통신하는 하나 이상의 프로세서들을 포함하는 비디오 디코딩 디바이스에 대해 기술된다. 하나 이상의 프로세서들은 색 공간 스케일러빌리티에 대한 3D 룩업 테이블에 대한 적어도 하나의 참조 계층 ID 를 수신하고; 칼라 성분들을 비디오 데이터의 참조 계층들에 대한 제 1 색 공간으로부터 비디오 데이터의 향상 계층에 대한 제 2 색 공간으로 변환하기 위해 3D 룩업 테이블을 적어도 하나의 참조 계층 ID 에 의해 식별된 적어도 하나의 참조 계층에서의 참조 계층 픽처의 칼라 성분들에 적용하고; 변환된 칼라 성분들에 기초하여 비디오 데이터의 향상 계층에서의 향상 계층 픽처에 대한 인터-계층 참조 픽처를 발생시키고; 그리고 3D 룩업 테이블을 이용하여 발생된 인터-계층 참조 픽처에 기초하여 향상 계층 픽처의 비디오 블록들을 디코딩하도록 구성되며, 상기 적어도 하나의 참조 계층 ID 는 비디오 데이터의 복수의 참조 계층들 중 적어도 하나의 참조 계층을 식별한다.
추가적인 예에서, 본 개시물은 비디오 데이터를 저장하도록 구성된 메모리, 및 메모리와 통신하는 하나 이상의 프로세서들을 포함하는 비디오 인코딩 디바이스에 대해 기술된다. 하나 이상의 프로세서들은 색 공간 스케일러빌리티에 대한 3D 룩업 테이블에 대해 비디오 데이터의 복수의 참조 계층들 중 적어도 하나의 참조 계층을 결정하고; 칼라 성분들을 비디오 데이터의 참조 계층들에 대한 제 1 색 공간으로부터 비디오 데이터의 향상 계층에 대한 제 2 색 공간으로 변환하기 위해 3D 룩업 테이블을 적어도 하나의 참조 계층에서의 참조 계층 픽처의 칼라 성분들에 적용하는 단계; 변환된 칼라 성분들에 기초하여 비디오 데이터의 향상 계층에서의 향상 계층 픽처에 대한 인터-계층 참조 픽처를 발생시키고; 3D 룩업 테이블을 이용하여 발생된 인터-계층 참조 픽처에 기초하여 향상 계층 픽처의 비디오 블록들을 인코딩하고; 그리고 적어도 하나의 참조 계층을 식별하는 적어도 하나의 참조 계층 ID 를 시그널링하도록 구성된다.
다른 예에서, 본 개시물은, 색 공간 스케일러빌리티에 대한 3D 룩업 테이블에 대한 적어도 하나의 참조 계층 ID 를 수신하는 수단로서, 상기 적어도 하나의 참조 계층 ID 는 비디오 데이터의 복수의 참조 계층들 중 적어도 하나의 참조 계층을 식별하는, 상기 수신하는 수단; 칼라 성분들을 비디오 데이터의 참조 계층들에 대한 제 1 색 공간으로부터 비디오 데이터의 향상 계층에 대한 제 2 색 공간으로 변환하기 위해 3D 룩업 테이블을 적어도 하나의 참조 계층 ID 에 의해 식별된 적어도 하나의 참조 계층에서의 참조 계층 픽처의 칼라 성분들에 적용하는 수단; 변환된 칼라 성분들에 기초하여 비디오 데이터의 향상 계층에서의 향상 계층 픽처에 대한 인터-계층 참조 픽처를 발생시키는 수단; 및 3D 룩업 테이블을 이용하여 발생된 인터-계층 참조 픽처에 기초하여 향상 계층 픽처의 비디오 블록들을 디코딩하는 수단을 포함하는 비디오 디코딩 디바이스에 대해 기술된다.
추가적인 예에서, 본 개시물은 비디오 데이터를 디코딩하기 위한 명령들을 저장하는 컴퓨터-판독가능 저장 매체에 대해 기술되며, 상기 명령들은 실행될 때, 하나 이상의 프로세서들로 하여금, 색 공간 스케일러빌리티에 대한 3D 룩업 테이블에 대한 적어도 하나의 참조 계층 ID 를 수신하고; 칼라 성분들을 비디오 데이터의 참조 계층들에 대한 제 1 색 공간으로부터 비디오 데이터의 향상 계층에 대한 제 2 색 공간으로 변환하기 위해 3D 룩업 테이블을 적어도 하나의 참조 계층 ID 에 의해 식별된 적어도 하나의 참조 계층에서의 참조 계층 픽처의 칼라 성분들에 적용하고; 변환된 칼라 성분들에 기초하여 비디오 데이터의 향상 계층에서의 향상 계층 픽처에 대한 인터-계층 참조 픽처를 발생시키고; 그리고 3D 룩업 테이블을 이용하여 발생된 인터-계층 참조 픽처에 기초하여 향상 계층 픽처의 비디오 블록들을 디코딩하도록 하며, 상기 적어도 하나의 참조 계층 ID 는 비디오 데이터의 복수의 참조 계층들 중 적어도 하나의 참조 계층을 식별한다.
하나 이상의 예들의 세부 사항들이 첨부도면 및 아래의 상세한 설명에서 개시된다. 다른 특성들, 목적들, 및 이점들은 설명 및 도면들로부터, 그리고 청구항들로부터 명백히 알 수 있을 것이다.
도 1 은 본 개시물에서 설명하는 기법들을 이용할 수도 있는 예시적인 비디오 인코딩 및 디코딩 시스템을 예시하는 블록도이다.
도 2 는 본 개시물에서 설명된 기법들을 구현할 수도 있는 비디오 인코더의 일 예를 예시하는 블록도이다.
도 3 은 본 개시물에서 설명된 기법들을 구현할 수도 있는 비디오 디코더의 일 예를 예시하는 블록도이다.
도 4 는 3개의 상이한 차원들에서 스케일러빌리티의 일 예를 나타내는 개념적인 예시이다.
도 5 는 스케일러블 비디오 코딩 비트스트림의 예시적인 구조를 나타내는 개념적인 예시이다.
도 6 은 비트스트림 순서에서 예시적인 스케일러블 비디오 코딩 액세스 유닛들을 나타내는 개념적인 예시이다.
도 7 은 HEVC (SHVC) 인코더에 대한 예시적인 스케일러블 비디오 코딩 확장판을 예시하는 블록도이다.
도 8 은 샘플 비디오 시퀀스의 예시적인 색 공간을 예시하는 그래프이다.
도 9 는 고화질 (HD) 색 공간 BT.709 으로부터 초-고화질 (UHD) 색 공간 BT.2020 으로의 변환을 예시하는 블록도이다.
도 10 은 기초 계층 색 공간 및 향상 계층 색 공간이 상이할 때 인터-계층 참조 픽처를 발생시킬 수도 있는 칼라 예측 프로세싱 유닛을 포함하는 색 공간 스케일러블 코더를 예시하는 블록도이다.
도 11a 및 도 11b 는 색 공간 스케일러빌리티에 대한 예시적인 3D 룩업 테이블의 상이한 뷰들을 나타내는 개념적인 예시들이다.
도 12 는 색 공간 스케일러빌리티에 대한 3D 룩업 테이블에 의한 트리-선형 내삽을 나타내는 개념적인 예시이다.
도 13 은 색 공간 스케일러빌리티에 대한 3D 룩업 테이블에 의한 4면체 내삽을 나타내는 개념적인 예시이다.
도 14 는 4면체 내삽을 이용하여 내삽될 3D 룩업 테이블의 지점 P 를 포위하는데 사용되는 4면체들의 6개의 예들을 나타내는 개념적인 예시이다.
도 15 는 3D 룩업 테이블에 대한 입력 칼라 성분들의 제한된 비트 심도들에 의해 3D 칼라 예측을 수행하도록 구성된 비디오 인코더의 예시적인 동작을 예시하는 플로우차트이다.
도 16 은 3D 룩업 테이블에 대한 입력 칼라 성분들의 제한된 비트 심도들에 의해 3D 칼라 예측을 수행하도록 구성된 비디오 디코더의 예시적인 동작을 예시하는 플로우차트이다.
도 17 은 단지 적어도 하나의 결정된 참조 계층에서의 참조 픽처들에 대한 제한된 적용에 의해 3D 칼라 예측을 수행하도록 구성된 비디오 인코더의 예시적인 동작을 예시하는 플로우차트이다.
도 18 은 단지 적어도 하나의 식별된 참조 계층에서의 참조 픽처들에 대한 제한된 적용에 의해 3D 칼라 예측을 수행하도록 구성된 비디오 디코더의 예시적인 동작을 예시하는 플로우차트이다.
본 개시물의 기법들은 비디오 코딩에서 색 공간 스케일러빌리티에 대한 3차원 (3D) 칼라 예측 또는 맵핑에 관한 것이다. 색 공간 스케일러빌리티에 대한 3D 칼라 예측 기법들은 비디오 데이터의 하부 참조 계층에 대한 색 공간이 비디오 데이터의 상부 향상 계층에 대한 색 공간과 상이할 때 인터-계층 참조 픽처들을 발생시키기 위해 비디오 인코더들 및/또는 비디오 디코더들에 의해 사용될 수도 있다. 예를 들어, 비디오 인코더 및/또는 비디오 디코더는 하부 참조 계층에 대한 참조 픽처의 칼라 데이터를 상부 향상 계층에 대한 색 공간으로 변환하기 위해 색 공간 스케일러빌리티에 대한 3D 룩업 테이블을 이용하여 칼라 예측을 먼저 수행하고, 그후 그 변환된 칼라 데이터에 기초하여 인터-계층 참조 픽처들을 발생시킬 수도 있다. 칼라 예측 기법들은 또한 비디오 데이터의 하부 참조 계층의 비트 심도가 비디오 데이터의 상부 향상 계층의 비트 심도와 상이할 때 인터-계층 참조 픽처들을 발생시키기 위해 비디오 인코더들 및/또는 비디오 디코더들에 의해 사용될 수도 있다.
색 공간은 이미지, 예컨대, 비디오 데이터의 픽처, 슬라이스, 블록 또는 계층에 대해 재생될 수 있는 칼라들의 완전한 범위를 포함한다. 종래, 멀티-계층 비디오 코딩에서, 비디오 데이터의 하부 계층 (예컨대, 기초 계층) 및 비디오 데이터의 상부 계층 (예컨대, 향상 계층) 은 동일한 색 공간, 예컨대, 고화질 (HD) 색 공간 BT.709 에서의 칼라 데이터를 포함한다. 이 경우, 비디오 인코더 및/또는 비디오 디코더는 비디오 데이터의 상부 계층에 대한 인터-계층 참조 픽처들을, 비디오 데이터의 하부 계층에 대한 동일 위치에 배치된 참조 픽처들의 업-샘플링된 버전들로서 발생시킬 수도 있다.
일부 예들에서, 그러나, 비디오 데이터의 하부 계층은 제 1 색 공간, 예컨대, BT.709 에서의 칼라 데이터를 포함할 수도 있으며, 비디오 데이터의 상부 계층은 상이한, 제 2 색 공간, 예컨대, 초-고화질 (UHD) 색 공간 BT.2020 에서의 칼라 데이터를 포함할 수도 있다. 이 예에서, 비디오 데이터의 상부 계층에 대한 인터-계층 참조 픽처들을 발생시키기 위해, 비디오 인코더 및/또는 비디오 디코더는 참조 픽처의 칼라 데이터를 비디오 데이터의 하부 계층에 대한 제 1 색 공간에서, 비디오 데이터의 상부 계층에 대한 제 2 색 공간으로 변환하기 위해 칼라 예측을 먼저 수행해야 한다.
비디오 인코더 및/또는 비디오 디코더는 색 공간 스케일러빌리티에 대한 3D 룩업 테이블을 이용하여 칼라 예측을 수행할 수도 있다. 일부 예들에서, 별개의 3D 룩업 테이블이 칼라 성분들, 즉, 루마 (Y) 성분, 제 1 크로마 (U) 성분 및 제 2 크로마 (V) 성분 각각에 대해 발생될 수도 있다. 3D 룩업 테이블들의 각각은 루마 (Y) 차원, 제 1 크로마 (U) 차원 및 제 2 크로마 (V) 차원을 포함하며, 3개의 독립적인 칼라 성분들 (Y, U, V) 을 이용하여 인덱싱된다.
본 개시물에서 설명하는 기법들에 따르면, 비디오 인코더 및/또는 비디오 디코더는 3D 룩업 테이블의 입력 및 출력 칼라 성분들의 제한된 비트 심도들에 의해 3D 칼라 예측을 수행할 수도 있다. 예를 들어, 3D 룩업 테이블의 입력 칼라 성분들의 비트 심도들은 하부 참조 계층 픽처의 비트 심도와 동일하게 제한될 수도 있다. 추가적인 예로서, 3D 룩업 테이블의 출력 칼라 성분들의 비트 심도들은 하부 참조 계층 픽처의 비트 심도와 상부 향상 계층 픽처의 비트 심도 사이의 범위 내에 제한될 수도 있다. 다시 말해서, 3D 룩업 테이블의 출력 칼라 성분들의 비트 심도들은 하부 참조 계층 픽처의 비트 심도보다 크거나 또는 동일하고 그리고 상부 향상 계층 픽처의 비트 심도보다 작거나 또는 동일한 범위 내로 제한될 수도 있다.
본 개시물에서 설명되는 추가적인 기법들에 따르면, 다수의 계층들의 경우, 비디오 인코더 및/또는 비디오 디코더는 단지 하나 이상의 식별된 참조 계층들에서의 참조 픽처들에의 제한된 적용에 의해 3D 칼라 예측을 수행할 수도 있다. 예를 들어, 비디오 인코더는 각각의 3D 룩업 테이블에 대한 하나 이상의 참조 계층 식별자들 (ID들) 을 비디오 디코더로 시그널링할 수도 있으며, 비디오 디코더는 단지 3D 룩업 테이블을 하나 이상의 식별된 참조 계층들 내 참조 계층 픽처들에 적용할 수도 있다. 다른 예로서, 각각의 향상 계층 픽처에 대해, 비디오 인코더 및/또는 비디오 디코더는 단지 3D 룩업 테이블을 참조 계층들의 규정된 하나 내 참조 계층 픽처들에 적용하도록 추가로 제한될 수도 있다.
개시된 기법들은 HEVC (High Efficiency Video Coding) 코덱들과 같은, 진보된 비디오 코덱들의 상황에서 사용될 수도 있다. 본 개시물에서 설명하는 기법들에 관련된 스케일러블 비디오 코딩 (SVC) 기법들이 도 4 내지 도 6 에 대해 아래에서 재검토되며, 뒤이어서 HEVC 표준 및 관련된 색 공간 스케일러빌리티 기법들의 설명이 도 7 내지 도 14 에 대해 이어진다.
비디오 코딩 표준들은 ITU-T H.261, ISO/IEC MPEG-1 Visual, ITU-T H.262 또는 ISO/IEC MPEG-2 Visual, ITU-T H.263, ISO/IEC MPEG-4 Visual 및 그의 스케일러블 비디오 코딩 (SVC) 및 멀티뷰 비디오 코딩 (MVC) 확장판들을 포함한, (또한, ISO/IEC MPEG-4 AVC 로서 알려진) ITU-T H.264 를 포함한다. 게다가, 고-효율 비디오 코딩 (HEVC) 은 ITU-T 비디오 코딩 전문가 그룹 (VCEG) 과 ISO/IEC 동화상 전문가 그룹 (MPEG) 의 비디오 코딩에 관한 합동 작업팀 (JCT-VC) 에 의해 개발되었다. Wang 등, "High efficiency video coding (HEVC) Defect Report", ITU-T SG16 WP3 와 ISO/IEC JTC1/SC29/WG11 의 JCT-VC (Joint Collaborative Team on Video Coding), 14차 회의: 7월 25일-2013년 8월 2일, 오스트리아, 비엔나, JCTVC-N1003v1 로서 지칭되는, 최신 HEVC 초안 사양 HEVC WD 는, http://phenix.int-evry.fr/jct/doc_end_user/documents/14_Vienna/wg11/JCTVC-N1003-v1.zip 로부터 입수가능하다. 완결된 HEVC 표준 문서는 2013년 4월, ITU-T H.265, Series H: Audiovisual and Multimedia Systems, Infrastructure of audiovisual services - Coding of moving video, High efficiency video coding, Telecommunication Standardization Sector of International Telecommunication Union (ITU) 로서 공개되어 있다.
HEVC 에 대한 멀티-뷰 확장판 (MV-HEVC) 및 더 진보된 3D 비디오 코딩에 대한 다른 HEVC 확장판 (3D-HEVC) 이 JCT-3V 에 의해 개발되고 있으며, 한편, HEVC 에 대한 스케일러블 비디오 코딩 확장판 (SHVC) 이 JCT-VC 에 의해 개발되고 있다. 이하에서 MV-HEVC WD5 로서 지칭되는, MV-HEVC 의 최신 작업 초안 (WD) 은, http://phenix.it-sudparis.eu/jct2/doc_end_user/documents/5_Vienna/wg11/JCT3V-E1004-v6.zip 로부터 입수가능하다. 이하에서 3D-HEVC WD1 로서 지칭되는, 3D-HEVC 의 최근의 WD 는, http://phenix.it-sudparis.eu/jct2/doc_end_user/documents/5_Vienna/wg11/JCT3V-E1001-v3.zip 로부터 입수가능하다. 이하에서 SHVC WD3 로서 지칭되는, SHVC 의 최근의 작업 초안 (WD) 은, http://phenix.it-sudparis.eu/jct/doc_end_user/documents/14_Vienna/wg11/JCTVC-N1008-v3.zip 로부터 입수가능한다.
도 1 은 본 개시물에서 설명하는 기법들을 이용할 수도 있는 예시적인 비디오 인코딩 및 디코딩 시스템 (10) 을 예시하는 블록도이다. 도 1 에 나타낸 바와 같이, 시스템 (10) 은 목적지 디바이스 (14) 에 의해 추후에 디코딩되는 인코딩된 비디오 데이터를 제공하는 소스 디바이스 (12) 를 포함한다. 특히, 소스 디바이스 (12) 는 비디오 데이터를 목적지 디바이스 (14) 에 컴퓨터-판독가능 매체 (16) 를 통해서 제공한다. 소스 디바이스 (12) 및 목적지 디바이스 (14) 는 데스크탑 컴퓨터들, 노트북 (즉, 랩탑) 컴퓨터들, 태블릿 컴퓨터들, 셋-탑 박스들, 소위 "스마트" 폰들과 같은 전화기 핸드셋들, 소위 "스마트" 패드들, 텔레비전들, 카메라들, 디스플레이 디바이스들, 디지털 미디어 플레이어들, 비디오 게이밍 콘솔들, 비디오 스트리밍 디바이스 등을 포함한, 광범위한 디바이스들 중 임의의 디바이스를 포함할 수도 있다. 일부의 경우, 소스 디바이스 (12) 및 목적지 디바이스 (14) 는 무선 통신용으로 탑재될 수도 있다.
목적지 디바이스 (14) 는 디코딩되는 인코딩된 비디오 데이터를 컴퓨터-판독가능 매체 (16) 를 통해서 수신할 수도 있다. 컴퓨터-판독가능 매체 (16) 는 인코딩된 비디오 데이터를 소스 디바이스 (12) 로부터 목적지 디바이스 (14) 로 이동시킬 수 있는 임의 종류의 매체 또는 디바이스를 포함할 수도 있다. 일 예에서, 컴퓨터-판독가능 매체 (16) 는 소스 디바이스 (12) 로 하여금 인코딩된 비디오 데이터를 직접 목적지 디바이스 (14) 로 실시간으로 송신할 수 있게 하는 통신 매체를 포함할 수도 있다. 인코딩된 비디오 데이터는 무선 통신 프로토콜과 같은 통신 표준에 따라서 변조되어 목적지 디바이스 (14) 로 송신될 수도 있다. 통신 매체는 무선 주파수 (RF) 스펙트럼 또는 하나 이상의 물리적인 송신 라인들과 같은, 임의의 무선 또는 유선 통신 매체를 포함할 수도 있다. 통신 매체는 근거리 네트워크, 광역 네트워크, 또는 글로벌 네트워크, 예컨대 인터넷과 같은 패킷-기반 네트워크의 일부를 형성할 수도 있다. 통신 매체는 라우터들, 스위치들, 기지국들, 또는 소스 디바이스 (12) 로부터 목적지 디바이스 (14) 로 통신을 용이하게 하는데 유용할 수도 있는 임의의 다른 장비를 포함할 수도 있다.
일부 예들에서, 인코딩된 데이터는 출력 인터페이스 (22) 로부터 저장 디바이스로 출력될 수도 있다. 이와 유사하게, 인코딩된 데이터는 입력 인터페이스에 의해 저장 디바이스로부터 액세스될 수도 있다. 저장 디바이스는 하드 드라이브, Blu-ray 디스크들, DVD들, CD-ROM들, 플래시 메모리, 휘발성 또는 비-휘발성 메모리, 또는 인코딩된 비디오 데이터를 저장하기 위한 임의의 다른 적합한 디지털 저장 매체들과 같은 다양한 분산된 또는 로컬 액세스되는 데이터 저장 매체들 중 임의의 데이터 저장 매체를 포함할 수도 있다. 추가 예에서, 저장 디바이스는 소스 디바이스 (12) 에 의해 발생된 인코딩된 비디오를 저장할 수도 있는 파일 서버 또는 또 다른 중간 저장 디바이스에 대응할 수도 있다. 목적지 디바이스 (14) 는 저장된 비디오 데이터에 저장 디바이스로부터 스트리밍 또는 다운로드를 통해서 액세스할 수도 있다. 파일 서버는 인코딩된 비디오 데이터를 저장하고 그 인코딩된 비디오 데이터를 목적지 디바이스 (14) 로 송신하는 것이 가능한 임의 종류의 서버일 수도 있다. 예시적인 파일 서버들은 웹 서버 (예컨대, 웹사이트용), FTP 서버, NAS (network attached storage) 디바이스들, 또는 로칼 디스크 드라이브를 포함한다. 목적지 디바이스 (14) 는 인터넷 접속을 포함한, 임의의 표준 데이터 접속을 통해서, 인코딩된 비디오 데이터에 액세스할 수도 있다. 이것은 파일 서버 상에 저장되는 인코딩된 비디오 데이터에 액세스하는데 적합한, 무선 채널 (예컨대, Wi-Fi 접속), 유선 접속 (예컨대, DSL, 케이블 모뎀 등), 또는 양쪽의 조합을 포함할 수도 있다. 저장 디바이스로부터의 인코딩된 비디오 데이터의 송신은 스트리밍 송신, 다운로드 송신, 또는 이들의 조합일 수도 있다.
본 개시물의 기법들은 무선 애플리케이션들 또는 설정들에 반드시 한정되지는 않는다. 이 기법들은 오버-디-에어 텔레비전 브로드캐스트들, 케이블 텔레비전 송신들, 위성 텔레비전 송신들, 인터넷 스트리밍 비디오 송신들, 예컨대 HTTP 를 통한 동적 적응 스트리밍 (DASH), 데이터 저장 매체 상에 인코딩된 디지털 비디오, 데이터 저장 매체 상에 저장된 디지털 비디오의 디코딩, 또는 다른 애플리케이션들과 같은, 다양한 멀티미디어 애플리케이션들 중 임의의 애플리케이션의 지원 하에 비디오 코딩에 적용될 수도 있다. 일부 예들에서, 시스템 (10) 은 비디오 스트리밍, 비디오 플레이백, 비디오 브로드캐스팅, 및/또는 비디오 전화 통신과 같은, 지원 애플리케이션들로의 단방향 또는 양방향 비디오 송신을 지원하도록 구성될 수도 있다.
도 1 의 예에서, 소스 디바이스 (12) 는 비디오 소스 (18), 비디오 인코더 (20), 및 출력 인터페이스 (22) 를 포함한다. 목적지 디바이스 (14) 는 입력 인터페이스 (28), 비디오 디코더 (30), 및 디스플레이 디바이스 (32) 를 포함한다. 본 개시물에 따르면, 소스 디바이스 (12) 의 비디오 인코더 (20) 는 비디오 데이터를 병렬로 프로세싱하는 기법들을 적용하도록 구성될 수도 있다. 다른 예들에서, 소스 디바이스 및 목적지 디바이스는 다른 구성요소들 또는 배열들을 포함할 수도 있다. 예를 들어, 소스 디바이스 (12) 는 비디오 데이터를 외부 카메라와 같은 외부 비디오 소스 (18) 로부터 수신할 수도 있다. 이와 유사하게, 목적지 디바이스 (14) 는 통합된 디스플레이 디바이스를 포함하는 대신, 외부 디스플레이 디바이스와 인터페이스할 수도 있다.
도 1 의 예시된 시스템 (10) 은 단지 일 예이다. 비디오 데이터를 병렬로 프로세싱하는 기법들은 임의의 디지털 비디오 인코딩 및/또는 디코딩 디바이스에 의해 수행될 수도 있다. 일반적으로 본 개시물의 기법들은 비디오 인코딩 디바이스에 의해 수행되지만, 그 기법들은 또한 "코덱" 으로서 일반적으로 지칭되는, 비디오 인코더/디코더에 의해 수행될 수도 있다. 더욱이, 본 개시물의 기법들은 또한 비디오 프리프로세서에 의해 수행될 수도 있다. 소스 디바이스 (12) 및 목적지 디바이스 (14) 는 단지 코딩 디바이스들의 예들이며, 여기서, 소스 디바이스 (12) 는 목적지 디바이스 (14) 로의 송신을 위해 코딩된 비디오 데이터를 발생한다. 일부 예들에서, 디바이스들 (12, 14) 는 디바이스들 (12, 14) 의 각각이 비디오 인코딩 및 디코딩 구성요소들을 포함하도록, 실질적으로 대칭적 방식으로 동작할 수도 있다. 그러므로, 시스템 (10) 은 예컨대, 비디오 스트리밍, 비디오 플레이백, 비디오 브로드캐스팅, 또는 비디오 전화 통신을 위해, 비디오 디바이스들 (12, 14) 사이에 단방향 또는 양방향 비디오 송신을 지원할 수도 있다.
소스 디바이스 (12) 의 비디오 소스 (18) 는 비디오 카메라와 같은 비디오 캡쳐 디바이스, 이전에 캡쳐된 비디오를 포함하는 비디오 아카이브, 및/또는 비디오 콘텐츠 제공자로부터 비디오를 수신하는 비디오 공급 인터페이스를 포함할 수도 있다. 추가 대안적인 예로서, 비디오 소스 (18) 는 컴퓨터 그래픽스-기반의 데이터를 소스 비디오, 또는 라이브 비디오, 아카이브된 비디오, 및 컴퓨터 발생된 비디오의 조합으로서 발생할 수도 있다. 어떤 경우, 비디오 소스 (18) 가 비디오 카메라이면, 소스 디바이스 (12) 및 목적지 디바이스 (14) 는 소위 카메라 폰들 또는 비디오 폰들을 형성할 수도 있다. 그러나, 위에서 언급한 바와 같이, 본 개시물에서 설명하는 기법들은 비디오 코딩에 일반적으로 적용가능할 수도 있으며, 무선 및/또는 유선 애플리케이션들에 적용될 수도 있다. 각 경우, 캡쳐되거나, 사전-캡쳐되거나, 또는 컴퓨터-발생된 비디오는 비디오 인코더 (20) 에 의해 인코딩될 수도 있다. 인코딩된 비디오 정보는 그후 출력 인터페이스 (22) 에 의해 컴퓨터-판독가능 매체 (16) 상으로 출력될 수도 있다.
컴퓨터-판독가능 매체 (16) 는 무선 브로드캐스트 또는 유선 네트워크 송신과 같은 일시성 매체, 또는 하드 디스크, 플래시 드라이브, 컴팩트 디스크, 디지털 비디오 디스크, Blu-ray 디스크, 또는 다른 컴퓨터-판독가능 매체들과 같은 저장 매체들 (즉, 비일시성 저장 매체들) 을 포함할 수도 있다. 일부 예들에서, 네트워크 서버 (미도시) 는 인코딩된 비디오 데이터를 소스 디바이스 (12) 로부터 수신하고 그 인코딩된 비디오 데이터를 목적지 디바이스 (14) 로, 예컨대, 네트워크 송신을 통해서 제공할 수도 있다. 이와 유사하게, 디스크 스탬핑 설비와 같은 매체 생산 설비의 컴퓨팅 디바이스는 인코딩된 비디오 데이터를 소스 디바이스 (12) 로부터 수신하고 그 인코딩된 비디오 데이터를 포함하는 디스크를 제조할 수도 있다. 따라서, 컴퓨터-판독가능 매체 (16) 는 여러 예들에서, 여러 형태들의 하나 이상의 컴퓨터-판독가능 매체들을 포함하는 것으로 이해될 수도 있다.
목적지 디바이스 (14) 의 입력 인터페이스 (28) 는 컴퓨터-판독가능 매체 (16) 로부터 정보를 수신한다. 컴퓨터-판독가능 매체 (16) 의 정보는 블록들 및 다른 코딩된 유닛들, 예컨대, 화상들의 그룹들 (GOPs) 의 특성들 및/또는 프로세싱을 기술하는 신택스 엘리먼트들을 포함하는, 비디오 인코더 (20) 에 의해 정의되고 또한 비디오 디코더 (30) 에 의해 사용되는 신택스 정보를 포함할 수도 있다. 디스플레이 디바이스 (32) 는 그 디코딩된 비디오 데이터를 사용자에게 디스플레이하며, 음극선관 (CRT), 액정 디스플레이 (LCD), 플라즈마 디스플레이, 유기 발광 다이오드 (OLED) 디스플레이, 또는 또 다른 유형의 디스플레이 디바이스와 같은 다양한 디스플레이 디바이스들 중 임의의 디바이스를 포함할 수도 있다.
비디오 인코더 (20) 및 비디오 디코더 (30) 각각은 하나 이상의 마이크로프로세서들, 디지털 신호 프로세서들 (DSP들), 주문형 집적회로들 (ASIC들), 필드 프로그래밍가능 게이트 어레이들 (FPGA들), 이산 로직, 소프트웨어, 하드웨어, 펌웨어 또는 임의의 이들의 조합들과 같은, 다양한 적합한 인코더 회로 중 임의의 회로로 구현될 수도 있다. 이 기법들이 소프트웨어로 부분적으로 구현되는 경우, 디바이스는 본 개시물의 기법들을 수행하기 위해 소프트웨어용 명령들을 적합한 비일시성 컴퓨터-판독가능 매체에 저장하고, 그 명령들을 하드웨어에서 하나 이상의 프로세서들을 이용하여 실행할 수도 있다. 비디오 인코더 (20) 및 비디오 디코더 (30) 각각은 하나 이상의 인코더들 또는 디코더들에 포함될 수도 있으며, 이들 중 어느 쪽이든 각각 디바이스에서 결합된 인코더/디코더 (CODEC) 의 부분으로서 통합될 수도 있다.
도 1 의 예에서, 비디오 인코더 (20) 및 비디오 디코더 (30) 는 ITU-T 비디오 코딩 전문가 그룹 (VCEG) 과 ISO/IEC 동화상 전문가 그룹 (MPEG) 의 비디오 코딩에 관한 합동 작업팀 (JCT-VC) 에 의해 개발된 HEVC (High Efficiency Video Coding) 표준에 따라서 동작할 수도 있다. 최신 HEVC 초안 사양은 위에서 인용된, HEVC WD로서, 지칭된다. HEVC 에 대한 멀티-뷰 확장판 (MV-HEVC) 및 더 진보된 3D 비디오 코딩에 대한 다른 HEVC 확장판 (3D-HEVC) 이 JCT-3V 에 의해 개발되고 있으며, HEVC 에 대한 스케일러블 비디오 코딩 확장판 (SHVC) 이 JCT-VC 에 의해 개발되고 있다. MV-HEVC 의 최근의 초안 사양은 위에서 인용된 MV-HEVC WD5 로서 지칭된다. 3D-HEVC 의 최신 초안 사양은 위에서 인용된 3D-HEVC WD1 로서 지칭된다. SHVC 의 최신 안 사양은 위에서 인용된 SHVC WD3 로서 지칭된다.
HEVC 및 다른 비디오 코딩 표준들에서, 비디오 시퀀스는 일반적으로 일련의 픽처들을 포함한다. 픽처들은 또한 "프레임들" 로서 지칭될 수도 있다. 픽처는 SL, SCb, 및 SCr 로 표기되는, 3개의 샘플 어레이들을 포함할 수도 있다. SL 은 루마 샘플들의 2차원 어레이 (즉, 블록) 이다. SCb 는 Cb 색차 샘플들의 2차원 어레이이다. SCr 은 Cr 색차 샘플들의 2차원 어레이이다. 색차 샘플들은 또한 본원에서 "크로마" 샘플들로서 지칭될 수도 있다. 다른 경우, 픽처는 단색일 수도 있으며 단지 루마 샘플들의 어레이를 포함할 수도 있다.
비디오 인코더 (20) 는 코딩 트리 유닛들 (CTU들) 의 세트를 발생시킬 수도 있다. CTU들의 각각은 루마 샘플들의 코딩 트리 블록, 크로마 샘플들의 2개의 대응하는 코딩 트리 블록들, 및 코딩 트리 블록들의 샘플들을 코딩하는데 사용되는 신택스 구조들을 포함할 수도 있다. 단색 픽처 또는 3개의 별개의 칼라 평면들을 가지는 픽처에서, CTU 는 단일 코딩 트리 블록 및 코딩 트리 블록의 샘플들을 코딩하는데 사용되는 신택스 구조들을 포함할 수도 있다. 코딩 트리 블록은 샘플들의 NxN 블록일 수도 있다. CTU 는 또한 "트리 블록" 또는 "최대 코딩 유닛" (LCU) 으로서 지칭될 수도 있다. HEVC 의 CTU들은 H.264/AVC 와 같은, 다른 비디오 코딩 표준들의 매크로블록들과 대략 유사할 수도 있다. 그러나, CTU 는 특정의 사이즈에 반드시 제한되지 않으며, 하나 이상의 코딩 유닛들 (CU들) 을 포함할 수도 있다. 슬라이스는 래스터 스캔으로 연속적으로 순서화된 CTU들의 정수를 포함할 수도 있다.
본 개시물은 하나 이상의 샘플들의 블록들 및 하나 이상의 샘플들의 블록들의 샘플들을 코딩하는데 사용되는 신택스 구조들을 지칭하기 위해, 용어 "비디오 유닛" 또는 "비디오 블록" 을 이용할 수도 있다. 비디오 유닛들의 예시적인 유형들은 CTU들, CU들, PU들, 변환 유닛들 (TU들), 매크로블록들, 매크로블록 파티션들 등을 포함할 수도 있다.
코딩된 CTU 를 발생하기 위해, 비디오 인코더 (20) 는 코딩 트리 블록들을 코딩 블록들, 따라서 이름 "코딩 트리 유닛들" 로 분할하기 위해 CTU 의 코딩 트리 블록들에 관해 쿼드-트리 파티셔닝을 회귀적으로 수행할 수도 있다. 코딩 블록은 샘플들의 NxN 블록이다. CU 는 루마 샘플들의 코딩 블록 및 루마 샘플 어레이, Cb 샘플 어레이, 및 Cr 샘플 어레이를 가지는 픽처의 크로마 샘플들의 2개의 대응하는 코딩 블록들, 및 코딩 블록들의 샘플들을 코딩하는데 사용되는 신택스 구조들을 포함할 수도 있다. 단색 픽처 또는 3개의 별개의 칼라 평면들을 가지는 픽처에서, CU 는 단일 코딩 블록 및 코딩 블록의 샘플들을 코딩하는데 사용되는 신택스 구조들을 포함할 수도 있다.
비디오 인코더 (20) 는 CU 의 코딩 블록을 하나 이상의 예측 블록들로 파티셔닝할 수도 있다. 예측 블록은 동일한 예측이 적용되는 샘플들의 직사각형 (즉, 정사각형 또는 비-정사각형) 블록일 수도 있다. CU 의 예측 유닛 (PU) 는 루마 샘플들의 예측 블록, 화상의 크로마 샘플들의 2개의 대응하는 예측 블록들, 및 예측 블록 샘플들을 예측하는데 사용되는 신택스 구조들을 포함할 수도 있다. 단색 픽처 또는 3개의 별개의 칼라 평면들을 가지는 픽처에서, PU 는 단일 예측 블록 및 예측 블록 샘플들을 예측하는데 사용되는 신택스 구조들을 포함할 수도 있다. 비디오 인코더 (20) 는 CU 의 각각의 PU 의 루마, Cb 및 Cr 예측 블록들에 대한 예측 루마, Cb 및 Cr 블록들을 발생시킬 수도 있다.
비디오 인코더 (20) 는 인트라 예측 또는 인터 예측을 이용하여, PU 에 대한 예측 블록들을 발생시킬 수도 있다. 비디오 인코더 (20) 이 PU 의 예측 블록들을 발생시키기 위해 인트라-예측을 이용하면, 비디오 인코더 (20) 는 PU 와 연관되는 픽처의 디코딩된 샘플들에 기초하여 PU 의 예측 블록들을 발생시킬 수도 있다.
비디오 인코더 (20) 가 PU 의 예측 블록들을 발생하기 위해 인터-예측을 이용하면, 비디오 인코더 (20) 는 PU 와 연관되는 픽처 이외의 하나 이상의 픽처들의 디코딩된 샘플들에 기초하여, PU 의 예측 블록들을 발생시킬 수도 있다. 인터 예측은 단방향 인터-예측 (즉, 단방향-예측) 또는 양방향 인터-예측 (즉, 양방향-예측) 일 수도 있다. 단방향-예측 또는 양방향-예측을 수행하기 위해, 비디오 인코더 (20) 는 현재의 슬라이스에 대한 제 1 참조 픽처 리스트 (RefPicList0) 및 제 2 참조 픽처 리스트 (RefPicList1) 를 발생시킬 수도 있다. 참조 픽처 리스트들의 각각은 하나 이상의 참조 픽처들을 포함할 수도 있다. 단방향-예측을 이용할 때, 비디오 인코더 (20) 는 참조 픽처 내 참조 로케이션을 결정하기 위해 RefPicList0 및 RefPicList1 중 어느 하나 또는 양쪽에서 참조 픽처들을 탐색할 수도 있다. 더욱이, 단방향-예측을 이용할 때, 비디오 인코더 (20) 는 참조 로케이션에 대응하는 샘플들에 적어도 부분적으로 기초하여, PU 에 대한 예측 샘플 블록들을 발생시킬 수도 있다. 더욱이, 단방향-예측을 이용할 때, 비디오 인코더 (20) 는 PU 의 예측 블록과 참조 로케이션 사이의 공간 변위를 나타내는 단일 모션 벡터를 발생시킬 수도 있다. PU 의 예측 블록과 참조 로케이션 사이의 공간 변위를 표시하기 위해, 모션 벡터는 PU 의 예측 블록과 참조 로케이션 사이의 수평 변위를 규정하는 수평 성분을 포함할 수도 있으며, PU 의 예측 블록과 참조 로케이션 사이의 수직 변위를 규정하는 수직 성분을 포함할 수도 있다.
PU 를 인코딩하는데 양방향-예측을 이용할 때, 비디오 인코더 (20) 는 RefPicList0 에서의 참조 픽처에서 제 1 참조 로케이션을, 그리고 RefPicList1 에서의 참조 픽처에서 제 2 참조 로케이션을 결정할 수도 있다. 비디오 인코더 (20) 는 그후 제 1 및 제 2 참조 로케이션들에 대응하는 샘플들에 적어도 부분적으로 기초하여, PU 에 대한 예측 블록들을 발생시킬 수도 있다. 더욱이, PU 를 인코딩하기 위해 양방향-예측을 이용할 때, 비디오 인코더 (20) 는 PU 의 샘플 블록과 제 1 참조 로케이션 사이의 공간 변위를 나타내는 제 1 모션, 및 PU 의 예측 블록과 제 2 참조 로케이션 사이의 공간 변위를 나타내는 제 2 모션을 발생시킬 수도 있다.
비디오 인코더 (20) 가 CU 의 하나 이상의 PU들에 대한 예측 루마, Cb, 및 Cr 블록들을 발생한 후, 비디오 인코더 (20) 는 CU 에 대한 루마 잔차 블록을 발생시킬 수도 있다. CU 의 루마 잔차 블록에서의 각각의 샘플은 CU 의 예측 루마 블록들 중 하나에서의 루마 샘플과 CU 의 원래 루마 코딩 블록에서의 대응하는 샘플 사이의 차이를 나타낸다. 게다가, 비디오 인코더 (20) 는 CU 에 대한 Cb 잔차 블록을 발생시킬 수도 있다. CU 의 Cb 잔차 블록에서의 각각의 샘플은 CU 의 예측 Cb 블록들 중 하나에서의 Cb 샘플과 CU 의 원래 Cb 코딩 블록에서의 대응하는 샘플 사이의 차이를 나타낼 수도 있다. 비디오 인코더 (20) 는 또한 CU 에 대한 Cr 잔차 블록을 발생시킬 수도 있다. CU 의 Cr 잔차 블록에서의 각각의 샘플은 CU 의 예측 Cr 블록들 중 하나에서의 Cr 샘플과 CU 의 원래 Cr 코딩 블록에서의 대응하는 샘플 사이의 차이를 나타낼 수도 있다.
더욱이, 비디오 인코더 (20) 는 쿼드-트리 파티셔닝을 이용하여, CU 의 루마, Cb, 및 Cr 잔차 블록들을 하나 이상의 루마, Cb, 및 Cr 변환 블록들로 분해할 수도 있다. 변환 블록은 동일한 변환이 적용되는 샘플들의 직사각형의 블록일 수도 있다. CU 의 변환 유닛 (TU) 는 루마 샘플들의 변환 블록, 크로마 샘플들의 2개의 대응하는 변환 블록들, 및 변환 블록 샘플들을 변환하는데 사용되는 신택스 구조들을 포함할 수도 있다. 단색 픽처 또는 3개의 별개의 칼라 평면들을 가지는 픽처에서, TU 는 단일 변환 블록 및 변환 블록 샘플들을 변환하는데 사용되는 신택스 구조들을 포함할 수도 있다. 따라서, CU 의 각각의 TU 는 루마 변환 블록, Cb 변환 블록, 및 Cr 변환 블록과 연관될 수도 있다. TU 와 연관되는 루마 변환 블록은 CU 의 루마 잔차 블록의 서브-블록일 수도 있다. Cb 변환 블록은 CU 의 Cb 잔차 블록의 서브-블록일 수도 있다. Cr 변환 블록은 CU 의 Cr 잔차 블록의 서브-블록일 수도 있다.
비디오 인코더 (20) 는 하나 이상의 변환들을 TU 의 루마 변환 블록에 적용하여, TU 에 대한 루마 계수 블록을 발생시킬 수도 있다. 계수 블록은 변환 계수들의 2차원 어레이일 수도 있다. 변환 계수는 스칼라 양일 수도 있다. 비디오 인코더 (20) 는 하나 이상의 변환들을 TU 의 Cb 변환 블록에 적용하여, TU 에 대한 Cb 계수 블록을 발생시킬 수도 있다. 비디오 인코더 (20) 는 하나 이상의 변환들을 TU 의 Cr 변환 블록에 적용하여, TU 에 대한 Cr 계수 블록을 발생시킬 수도 있다.
계수 블록 (예컨대, 루마 계수 블록, Cb 계수 블록, 또는 Cr 계수 블록) 을 발생시킨 후, 비디오 인코더 (20) 는 계수 블록을 양자화할 수도 있다. 양자화는 일반적으로 변환 계수들이 변환 계수들을 나타내는데 사용되는 데이터의 양을 가능한 한 감소시키도록 양자화되어 추가적인 압축을 제공하는 프로세스를 지칭한다. 더욱이, 비디오 인코더 (20) 는 변환 계수들을 역양자화하고, 픽처의 CU들의 TU들의 변환 블록들을 복원하기 위해 변환 계수들에 역변환을 적용할 수도 있다. 비디오 인코더 (20) 는 CU 의 TU들의 복원된 변환 블록들 및 CU 의 PU들의 예측 블록들을 이용하여, CU 의 코딩 블록들을 복원할 수도 있다. 픽처의 각각의 CU 의 코딩 블록들을 복원함으로써, 비디오 인코더 (20) 는 그 픽처를 복원할 수도 있다. 비디오 인코더 (20) 는 복원된 픽처들을 디코딩된 픽처 버퍼 (DPB) 에 저장할 수도 있다. 비디오 인코더 (20) 는 인터-예측 및 인트라-예측을 위해 DPB 에서의 복원된 픽처들을 이용할 수도 있다.
비디오 인코더 (20) 가 계수 블록을 양자화한 후, 비디오 인코더 (20) 는 양자화된 변환 계수들을 나타내는 신택스 엘리먼트들을 엔트로피 인코딩할 수도 있다. 예를 들어, 비디오 인코더 (20) 는 양자화된 변환 계수들을 나타내는 신택스 엘리먼트들에 관해 컨텍스트-적응 2진 산술 코딩 (CABAC) 을 수행할 수도 있다. 비디오 인코더 (20) 는 엔트로피-인코딩된 신택스 엘리먼트들을 비트스트림으로 출력할 수도 있다.
비디오 인코더 (20) 는 코딩된 픽처들 및 연관되는 데이터의 표현을 형성하는 비트들의 시퀀스를 포함하는 비트스트림을 출력할 수도 있다. 비트스트림은 네트워크 추상화 계층 (NAL) 유닛들의 시퀀스를 포함할 수도 있다. NAL 유닛들의 각각은 NAL 유닛 헤더를 포함하며, 미가공 바이트 시퀀스 페이로드 (RBSP; raw byte sequence payload) 를 캡슐화한다. NAL 유닛 헤더는 NAL 유닛 유형 코드를 나타내는 신택스 엘리먼트를 포함할 수도 있다. NAL 유닛의 NAL 유닛 헤더에 의해 규정된 NAL 유닛 유형 코드는 NAL 유닛의 유형을 나타낸다. RBSP 는 NAL 유닛 내에 캡슐화된 정수의 바이트들을 포함하는 신택스 구조일 수도 있다. 일부의 경우, RBSP 는 제로 비트들을 포함한다.
상이한 유형들의 NAL 유닛들이 상이한 유형들의 RBSP들을 캡슐화할 수도 있다. 예를 들어, NAL 유닛의 제 1 유형은 픽처 파라미터 세트 (PPS) 에 대한 RBSP 를 캡슐화할 수도 있으며, NAL 유닛의 제 2 유형은 코딩된 슬라이스에 대한 RBSP 를 캡슐화할 수도 있으며, NAL 유닛의 제 3 유형은 보충 강화 정보 (SEI) 에 대한 RBSP 를 캡슐화할 수도 있으며, 기타 등등을 캡슐화할 수도 있다. PPS 는 0개 이상의 코딩된 픽처들에 적용하는 신택스 엘리먼트들을 포함하는 신택스 구조이다. (파라미터 세트들 및 SEI 메시지들에 대한 RBSP들과는 반대로) 비디오 코딩 데이터에 대한 RBSP들을 캡슐화하는 NAL 유닛들은 비디오 코딩 계층 (VCL) NAL 유닛들로서 지칭될 수도 있다. 코딩된 슬라이스를 캡슐화하는 NAL 유닛은 본원에서, 코딩된 슬라이스 NAL 유닛으로서 지칭될 수도 있다. 코딩된 슬라이스에 대한 RBSP 는 슬라이스 헤더 및 슬라이스 데이터를 포함할 수도 있다.
비디오 디코더 (30) 는 비트스트림을 수신할 수도 있다. 게다가, 비디오 디코더 (30) 는 비트스트림을 파싱하여, 비트스트림으로부터 신택스 엘리먼트들을 디코딩할 수도 있다. 비디오 디코더 (30) 는 비트스트림으로부터 디코딩된 신택스 엘리먼트들에 적어도 부분적으로 기초하여 비디오 데이터의 픽처들을 재구성할 수도 있다. 비디오 데이터를 복원하는 프로세스는 일반적으로 비디오 인코더 (20) 에 의해 수행되는 프로세스와 반대일 수도 있다. 예를 들어, 비디오 디코더 (30) 는 현재의 CU 의 PU들에 대한 예측 블록들을 결정하기 위해 PU들의 모션 벡터들을 이용할 수도 있다. 비디오 디코더 (30) 는 PU들의 모션 벡터 또는 모션 벡터들을 이용하여 PU들에 대한 예측 블록들을 발생시킬 수도 있다.
게다가, 비디오 디코더 (30) 는 현재의 CU 의 TU들과 연관되는 계수 블록들을 역양자화할 수도 있다. 비디오 디코더 (30) 는 계수 블록들에 관해 역변환들을 수행하여, 현재의 CU 의 TU들과 연관되는 변환 블록들을 복원할 수도 있다. 비디오 디코더 (30) 는 현재의 CU 의 PU들에 대한 예측 샘플 블록들의 샘플들을 현재의 CU 의 TU들의 변환 블록들의 대응하는 샘플들에 가산함으로써, 현재의 CU 의 코딩 블록들을 복원할 수도 있다. 픽처의 각각의 CU 에 대해 코딩 블록들을 복원함으로써, 비디오 디코더 (30) 는 그 픽처를 복원할 수도 있다. 비디오 디코더 (30) 는 다른 픽처들을 디코딩할 때에 출력을 위해 및/또는 사용을 위해 디코딩된 픽처들을 디코딩된 픽처 버퍼에 저장할 수도 있다.
MV-HEVC 에서, 3D-HEVC 및 SHVC, 비디오 인코더는 일련의 네트워크 추상화 계층 (NAL) 유닛들을 포함하는 비트스트림을 발생시킬 수도 있다. 비트스트림의 상이한 NAL 유닛들은 비트스트림의 상이한 계층들과 연관될 수도 있다. 계층은 동일한 계층 식별자를 가지는 비디오 코딩 계층 (VCL) NAL 유닛들 및 연관된 비-VCL NAL 유닛들의 세트로서 정의될 수도 있다. 계층은 멀티-뷰 비디오 코딩에서의 뷰와 상응할 수도 있다. 멀티-뷰 비디오 코딩에서, 계층은 상이한 시간 인스턴스들을 가지는 동일한 계층의 모든 뷰 성분들을 포함할 수 있다. 각각의 뷰 성분은 특정의 시간 인스턴스에서 특정의 뷰에 속하는 비디오 장면의 코딩된 픽처일 수도 있다. 3D 비디오 코딩에서, 계층은 특정의 뷰의 모든 코딩된 심도 픽처들 또는 특정의 뷰의 코딩된 텍스쳐 픽처들을 포함할 수도 있다. 이와 유사하게, 스케일러블 비디오 코딩의 상황에서, 계층은 다른 계층들에서의 코딩된 픽처들과는 상이한 비디오 특성들을 가지는 코딩된 픽처들에 일반적으로 대응한다. 이러한 비디오 특성들은 공간 해상도 및 품질 레벨 (신호-대-잡음비) 을 일반적으로 포함한다. HEVC 및 그의 확장판들에서, 시간 스케일러빌리티는 특정의 시간 레벨을 가지는 픽처들의 그룹을 서브-계층으로서 정의함으로써 하나의 계층 내에서 얻어질 수도 있다.
비트스트림의 각각의 개개의 계층에 대해, 하부 계층에서의 데이터는 임의의 상부 계층에서의 데이터에 대한 참조 없이 디코딩될 수도 있다. 스케일러블 비디오 코딩에서, 예를 들어, 기초 계층에서의 데이터는 향상 계층에서의 데이터에 대한 참조 없이 디코딩될 수도 있다. NAL 유닛들은 단지 단일 계층의 데이터를 캡슐화한다. SHVC 에서, 뷰는 비디오 디코더가 임의의 다른 계층의 데이터에 대한 참조 없이 그 뷰에서의 픽처들을 디코딩할 수 있으면 "기초 계층" 으로서 지칭될 수도 있다. 기초 계층은 HEVC 베이스 사양을 따를 수도 있다. 따라서, 비트스트림의 최고 나머지 계층의 데이터를 캡슐화하는 NAL 유닛들은 비트스트림의 나머지 계층들에서의 데이터의 디코딩성 (decodability) 에 영향을 미침이 없이 비트스트림으로부터 제거될 수도 있다. MV-HEVC 에서, 상부 계층들은 추가적인 뷰 성분들을 포함할 수도 있다. SHVC 에서, 상부 계층들은 신호 대 잡음 비 (SNR) 향상 데이터, 공간 향상 데이터, 및/또는 시간 향상 데이터를 포함할 수도 있다.
일부 예들에서, 상부 계층에서의 데이터는 하나 이상의 하부 계층들에서의 데이터를 참조하여 디코딩될 수도 있다. 하부 계층들은 인터-계층 예측을 이용하여 상부 계층을 압축하는데 참조 픽처들로서 사용될 수도 있다. 하부 계층들의 데이터는 상부 계층들과 동일한 해상도를 갖도록 업-샘플링될 수도 있다. 일반적으로, 비디오 인코더 (20) 및 비디오 디코더 (30) 는 하나 이상의 업-샘플링된 하부 계층들이 하나 이상의 이웃하는 픽처들과는 대조적으로, 참조 픽처들로서 사용될 수도 있다는 점을 제외하고는, 위에서 설명된 인터-예측과 유사한 방법으로 인터-계층 예측을 수행할 수도 있다.
도 4 는 3개의 상이한 차원들에서 스케일러빌리티의 일 예를 나타내는 개념적인 예시이다. 스케일러블 비디오 코딩 구조에서, 스케일러빌리티들은 3차원에서 이용가능하게 된다. 도 4 의 예에서, 스케일러빌리티들은 공간 (S) 차원 (100), 시간 (T) 차원 (102), 및 신호-대-잡음비 (SNR) 또는 품질 (Q) 차원 (104) 에서 이용가능하게 된다. 시간 차원 (102) 에서, 예를 들어, 7.5 Hz (T0), 15 Hz (T1) 또는 30 Hz (T2) 를 가지는 프레임 레이트들은 시간 스케일러빌리티에 의해 지원될 수도 있다. 공간 스케일러빌리티가 지원될 때, 예를 들어, 1/4 공통 중간 포맷 (QCIF) (S0), 공통 중간 포맷 (CIF) (S1) 및 4CIF (S2) 와 같은 상이한 해상도들은 공간 차원 (100) 에서 이용가능하게 된다. 각각의 특정의 공간 해상도 및 프레임 레이트에 대해, SNR 계층들 (Q1) 이 픽처 품질을 향상시키기 위해 SNR 차원 (104) 에 추가될 수 있다.
비디오 콘텐츠가 이러한 스케일러블 방법으로 인코딩되었으면, 추출기 툴이 예컨대, 클라이언트들 또는 송신 채널에 의존하는 애플리케이션 요구사항들에 따라서 실제 전달된 콘텐츠를 적응시키기 위해 사용될 수도 있다. 도 4 에 나타낸 예에서, 각각의 입방체는 동일한 프레임 레이트 (시간 레벨), 공간 해상도, 및 SNR 계층들을 가진 화상들을 포함한다. 더 나은 표현이 입방체들 (즉, 픽처들) 을 차원들 (100, 102 또는 104) 중 임의의 차원에 추가함으로써 달성될 수도 있다. 결합된 스케일러빌리티는 인에이블된 2개의, 3개, 또는 더 많은 스케일러빌리티들이 존재할 때 지원된다.
H.264 에 대한 SVC 확장판 또는 SHVC 와 같은, 스케일러블 비디오 코딩 표준들에서, 최저 공간 및 SNR 계층을 가지는 픽처는 단일 계층 비디오 코덱과 호환가능하며, 최저 시간 레벨에서의 픽처들은 상부 시간 레벨들에서의 픽처들에 의해 향상될 수도 있는 시간 기초 계층을 형성한다. 기초 계층에 더해서, 여러 공간 및/또는 SNR 향상 계층들이 공간 및/또는 품질 스케일러빌리티들을 제공하기 위해 추가될 수도 있다. 각각의 공간 또는 SNR 향상 계층 자체는 기초 계층과 동일한 시간 스케일러빌리티 구조로, 시간적으로 스케일링가능할 수도 있다. 하나의 공간 또는 SNR 향상 계층에 대해, 그것이 의존하는 하부 계층은 또한 그 특정의 공간 또는 SNR 향상 계층의 기초 계층으로서 지칭될 수도 있다.
도 5 는 스케일러블 비디오 코딩 비트스트림의 예시적인 구조 (110) 를 나타내는 개념적인 예시이다. 비트스트림 구조 (110) 는 픽처들 또는 슬라이스들 I0, P4 및 P8 을 포함하는 계층 0 (112), 및 픽처들 또는 슬라이스들 B2, B6 및 B10 을 포함하는 계층 1 (114) 을 포함한다. 게다가, 비트스트림 구조 (110) 는 픽처들 0, 2, 4, 6, 8 및 10 을 각각 포함하는 계층 2 (116) 및 계층 3 (117), 및 픽처들 0 내지 11 을 포함하는 계층 4 (118) 을 포함한다.
기초 계층은 최저 공간 및 품질 계층 (즉, QCIF 해상도를 가지는 계층 0 (112) 및 계층 1 (114) 에서의 픽처들) 을 갖는다. 이들 중에서, 최저 시간 레벨의 그들 화상들은 도 5 의 계층 0 (112) 에 나타낸 바와 같이, 시간 기초 계층을 형성한다. 시간 기초 계층 (계층 0) (112) 은 상부 시간 레벨, 예컨대, 15 Hz 의 프레임 레이트를 가지는 계층 1 (114) 또는 30 Hz 의 프레임 레이트를 가지는 계층 4 (118) 의 픽처들에 의해 향상될 수 있다.
기초 계층 (112, 114) 에 더해서, 여러 공간 및/또는 SNR 향상 계층들이 공간 및/또는 품질 스케일러빌리티들을 제공하기 위해 추가될 수도 있다. 예를 들어, CIF 해상도를 가지는 계층 2 (116) 는 기초 계층 (112, 114) 에 대한 공간 향상 계층일 수도 있다. 다른 예에서, 계층 3 (117) 은 기초 계층 (112, 114) 및 계층 2 (116) 에 대한 SNR 향상 계층일 수도 있다. 도 5 에 나타낸 바와 같이, 각각의 공간 또는 SNR 향상 계층 자체는 기초 계층 (112, 114) 과 동일한 시간 스케일러빌리티 구조로, 시간적으로 스케일링가능할 수도 있다. 게다가, 향상 계층은 공간 해상도 및 프레임 레이트 중 하나 또는 양쪽을 향상시킬 수도 있다. 예를 들어, 계층 4 (118) 은 프레임 레이트를 15 Hz 로부터 30 Hz 까지 추가로 증가시키는 4CIF 해상도 향상 계층을 제공한다.
도 6 은 예시적인 스케일러블 비디오 코딩 액세스 유닛들 (120A-120E) ("액세스 유닛들 (120)") 을 비트스트림 순서로 나타내는 개념적인 예시이다. 도 6 에 나타낸 바와 같이, 동일한 시간 인스턴스에서의 코딩된 픽처들 또는 슬라이스들은 비트스트림 순서에서 연속적이며, H.264 에 대한 SVC 확장판 또는 SHVC 와 같은, 스케일러블 비디오 코딩 표준의 상황에서 하나의 액세스 유닛을 형성한다. 액세스 유닛들 (120) 은 따라서 디스플레이 순서와 상이하며 예를 들어, 액세스 유닛들 (120) 사이의 시간 예측 관계에 의해 결정될 수 있는 디코딩 순서를 따른다.
예를 들어, 액세스 유닛 (120A) 은 계층 0 (112) 으로부터의 픽처 I0, 계층 2 (116) 로부터의 픽처 0, 계층 3 (117) 으로부터의 픽처 0, 및 계층 4 (118) 로부터의 픽처 0 을 포함한다. 액세스 유닛 (120B) 은 계층 0 (112) 으로부터의 픽처 P4, 계층 2 (116) 로부터의 픽처 4, 계층 3 (117) 으로부터의 픽처 4, 및 계층 4 (118) 로부터의 픽처 4 를 포함한다. 액세스 유닛 (120C) 은 계층 1 (114) 으로부터의 픽처 B2, 계층 2 (116) 로부터의 픽처 2, 계층 3 (117) 으로부터의 픽처 2, 및 계층 4 (118) 로부터의 픽처 2 를 포함한다. 액세스 유닛 (120D) 은 계층 4 (118) 로부터의 픽처 1 을 포함하고, 액세스 유닛 (120E) 은 계층 4 (118) 로부터의 픽처 3 을 포함한다.
도 7 은 예시적인 3-계층 SHVC 인코더를 예시하는 블록도이다. 도 7 에 예시된 바와 같이, SHVC 인코더 (122) 는 기초 계층 인코더 (124), 제 1 향상 계층 인코더 (125) 및 제 2 향상 계층 인코더 (126) 를 포함한다. 하이-레벨 신택스 단독 SHVC 에서, HEVC 단일 계층 코딩과 비교될 때 어떤 새로운 블록 레벨 코딩 툴들도 존재하지 않는다. SHVC 에서, 화상 필터링 또는 업-샘플링과 같은, 단지 슬라이스 및 상부 레벨 구문 변화들 및 화상 레벨 동작이 허용된다.
계층들 사이에 리던던시를 감소시키기 위해, 인터-계층 예측이 단일 계층 내 인터-프레임 예측과 동일한 방법으로 달성될 수 있도록, 하부/기초 계층에 대한 업-샘플링된 동일 위치에 배치된 참조 계층 픽처들이 발생되어 상부/향상 계층에 대한 참조 버퍼에 저장될 수도 있다. 도 7 에 예시된 바와 같이, 리샘플링된 인터-계층 참조 (ILR) 픽처 (128) 는 기초 계층 인코더 (124) 에서 참조 픽처로부터 발생되어, 제 1 향상 계층 인코더 (125) 에 저장된다. 이와 유사하게, 리샘플링된 ILR 픽처 (129) 는 제 1 향상 계층 인코더 (125) 에서 참조 픽처로부터 발생되어, 제 2 향상 계층 인코더 (126) 에 저장된다. SHVC WD3 에서, ILR 픽처는 향상 계층에 대한 장기 참조 픽처로서 표시된다. 인터-계층 참조 픽처와 연관된 모션 벡터 차이는 제로로 제한된다.
초-고화질 텔레비전 (UHDTV) 디바이스들 및 콘텐츠의 차기 배치는 레거시 디바이스들과는 상이한 색 공간을 이용할 것이다. 구체적으로 설명하면, HD 는 2010년 12월, BT.709 권고안, ITU-R 권고안 BT.709 "Parameter values for the HDTV standards for production and international programme exchange" 을 이용하는 반면, UHDTV 는 2012년 4월, BT.2020 권고안, ITU-R 권고안 BT.2020 "Parameter values for UHDTV systems for production and international programme exchange" 을 이용할 것이다. 색 공간은 이미지, 예컨대, 비디오 데이터의 픽처, 슬라이스, 블록 또는 계층에 대해 재생될 수 있는 칼라들의 완전한 범위를 포함한다. 이들 시스템들 사이의 주요 차이는 UHDTV 의 색 공간이 HD 보다 현저하게 더 크다는 것이다. UHDTV 가 높은 해상도와 같은, 다른 UHDTV 특성들과 부합하는 더 많은, 실물과 똑같은 또는 실제적인 뷰잉 경험을 제공할 것이라고 단언된다.
도 8 은 샘플 비디오 시퀀스 (130) 의 예시적인 색 공간을 예시하는 그래프이다. 도 8 에 예시된 바와 같이, SWG1 샘플 비디오 시퀀스 (130) 는 UHD 색 공간 BT.2020 (132) 의 라인 윤곽 (outline) 내에 도트들의 클러스터로서 표시된다. 비교 목적들을 위해, HD 색 공간 BT.709 (134) 의 윤곽과 CIE (International Commission on Illumination)-XYZ 선형 칼라 공간 (136) 의 윤곽이 SWG1 샘플 비디오 시퀀스 (130) 를 오버레이한다. UHD 색 공간 BT.2020 (132) 이 HD 색 공간 BT.709 (134) 보다 아주 더 크다는 것이 도 8 로부터 쉽게 관찰된다. BT.709 색 공간 (134) 으로부터 벗어나는 SWG1 샘플 비디오 시퀀스 (130) 에서의 픽셀들의 개수에 유의한다.
도 9 는 HD 색 공간 BT.709 (134) 로부터 UHD 색 공간 BT.2020 (132) 로의 변환을 예시하는 블록도이다. HD 색 공간 BT.709 (134) 및 UHD 색 공간 BT.2020 (132) 양쪽은 루마 및 크로마 성분들에서의 칼라 픽셀들의 표현들 (예컨대, YCbCr 또는 YUV) 을 정의한다. 각각의 색 공간은 CIE-XYZ 선형 칼라 공간 (136) 로의 변환 및 CIE-XYZ 선형 칼라 공간 (136) 으로부터의 변환을 정의한다. 이 공통 중간 칼라 공간은 UHD 색 공간 BT.2020 (132) 에서의 대응하는 루마 및 크로마 값들로의 HD 색 공간 BT.709 (134) 에서의 루마 및 크로마 값들의 변환을 정의하는데 사용될 수도 있다. 도 8 에 예시된 샘플 시퀀스의 색공간 및 도 9 에 예시된 색 공간 변환에 관한 좀더 자세한 사항들은 L. Kerofsky, A. Segall, S.-H. Kim, K. Misra, "Color Gamut Scalable Video Coding: New Results", JCTVC-L0334, ITU-T SG 16 WP 3 와 ISO/IEC JTC 1/SC 29/WG 11 의 JCT-VC (Joint Collaborative Team on Video Coding), 2013년 1월, 스위스, 제네바, 12차 회의 (이하 "JCTVC-L0334" 로서 지칭됨) 에서 발견될 수도 있다.
도 10 은 기초 계층 색 공간과 향상 계층 색 공간이 상이할 때 인터-계층 참조 픽처를 발생시킬 수도 있는 칼라 예측 프로세싱 유닛 (144) 을 포함하는 색 공간 스케일러블 코더 (140) 를 예시하는 블록도이다. 칼라 예측 프로세싱 유닛 (144) 은 베이스 및 향상 계층의 색 공간이 상이한 색 공간 스케일러블 비디오 코딩을 수행하기 위해 도 2 의 비디오 인코더 (20) 또는 도 3 의 비디오 디코더 (30) 와 같은, 비디오 코더에 의해 사용될 수도 있다. 일부의 경우, 칼라 예측 프로세싱 유닛 (144) 은 도 2 의 비디오 인코더 (20) 의 칼라 예측 프로세싱 유닛 (66) 과 실질적으로 유사하게 동작할 수도 있다. 다른 경우, 칼라 예측 프로세싱 유닛 (144) 은 도 3 의 비디오 디코더 (30) 의 칼라 예측 프로세싱 유닛 (86) 과 실질적으로 유사하게 동작할 수도 있다.
도 10 에 예시된 예에서, 기초 계층 코딩 루프 (142) 는 제 1 색 공간, 예컨대, BT.709 에서의 칼라 데이터를 포함하는 픽처들의 비디오 코딩을 수행하며, 향상 계층 코딩 루프 (146) 는 제 2 색 공간, 예컨대, BT.2020 에서의 칼라 데이터를 포함하는 픽처들의 비디오 코딩을 수행한다. 칼라 예측 프로세싱 유닛 (144) 은 칼라 예측을 수행하여 기초 계층 참조 픽처의 칼라 데이터를 제 1 색 공간에서 제 2 색 공간으로 맵핑하거나 또는 변환하고, 기초 계층 참조 픽처의 맵핑된 칼라 데이터에 기초하여 향상 계층에 대한 인터-계층 참조 픽처를 발생시킨다.
높은 코딩 효율을 달성하기 위해, 칼라 예측 프로세싱 유닛 (144) 은 인터-계층 참조 픽처들을 발생시킬 때 특정의 칼라 예측을 수행하도록 구성된다. 아래에서 좀더 자세하게 설명하는 바와 같이, 칼라 예측 프로세싱 유닛 (144) 은 선형 예측 모델, 구분적 선형 예측 모델, 또는 3D 룩업 테이블 기반의 칼라 예측 모델 중 임의의 모델에 따라서 칼라 예측을 수행하도록 구성될 수도 있다.
선형 예측 모델은 위에서 인용된 JCTVC-L0334 에 제안되어 있다. 일반적으로, 선형 예측 모델의 칼라 예측 프로세스는 이득 및 오프셋 모델로서 기술될 수도 있다. 선형 예측 모델은 개개의 칼라 평면들 상에서 동작한다. 정수 계산을 촉진하기 위해, 파라미터는 파라미터 numFractionBits 를 이용하여 계산할 때에 사용되는 분수 비트들의 개수를 기술한다. 각각의 채널에 대해, gain[c] 및 offset[c] 가 규정된다. 선형 예측 모델은 다음과 같이 정의된다:
Pred[c][x][y] = (gain[c]*In[x][y] + (1<<(numFractionBits-1)) >> numFractionBits + offset[c]
구분적 선형 예측 모델은 위에서 인용한 JCTVC-L0334 에 기초한, 2013년 7월, 오스트리아, 비엔나, JCTVC-N0271, C. Auyeung, K. Sato, "AHG14: Color gamut scalable video coding with piecewise linear predictions and shift-offset model" 에 제안되어 있다. 구분적 선형 예측 모델의 칼라 예측 프로세스는 또한 이득 및 오프셋 모델로서 기술될 수도 있다. 구분적 선형 예측 모델은 다음과 같이 정의된다:
Figure 112016110448650-pct00001

예측 파라미터들 knot[c], offset[c], gain1[c], 및 gain2[c] 는 비트스트림으로 인코딩될 수도 있다.
도 11a 및 도 11b 는 색 공간 스케일러빌리티에 대한 예시적인 3D 룩업 테이블 (150) 의 상이한 뷰들을 나타내는 개념적인 예시들이다. 3D 룩업 테이블 기반의 칼라 예측 모델은 P. Bordes, P. Andrivon, F. Hiron, "AHG14: Color Gamut Scalable Video Coding using 3D LUT: New Results", ITU-T SG 16 WP 3 와 ISO/IEC JTC 1/SC 29/WG 11 의 JCT-VC (Joint Collaborative Team on Video Coding), 2013년 7월, 오스트리아, 비엔나, 14차 회의, JCTVC-N0168, (이하 "JCTVC-N0168" 로서 지칭됨) 에 제안되어 있다. 색 공간 스케일러빌리티에 대한 3D 룩업 테이블의 원리는 도 11a 및 도 11b 에 도시된다. 3D 룩업 테이블 (150) 은 제 1 의 3D 칼라 공간, 예컨대, HD 색 공간 BT.709 의 서브-샘플링으로서 간주될 수 있으며, 여기서, 각각의 정점은 제 2 의 3D 칼라 공간 (즉, 예측된) 값들, 예컨대, UHD 색 공간 BT.2020) 에 대응하는 칼라 트리플릿 값 (y, u, v) 과 연관된다.
일반적으로, 제 1 색 공간은 각각의 칼라 차원 (즉, Y, U, 및 V) 에서 8분원들 또는 직육면체들로 파티셔닝될 수도 있으며, 8분원들의 정점들은 제 2 색 공간에 대응하는 칼라 트리플릿 값과 연관되며 3D 룩업 테이블 (150) 을 팝퓰레이트하는데 사용된다. 각각의 칼라 차원에서 정점들 또는 세그먼트들의 개수는 3D 룩업 테이블의 사이즈를 표시한다. 도 11a 는 3D 룩업 테이블 (150) 의 각각의 칼라 차원에서 8분원들의 정점들 또는 교차하는 격자 지점들을 예시한다. 도 11b 는 3D 룩업 테이블 (150) 의 정점들의 각각과 연관된 상이한 칼라 값들을 예시한다. 예시된 바와 같이, 도 11a 에서 각각의 칼라 차원은 4개의 정점들을 가지며, 도 11b 에서 각각의 칼라 차원은 4개의 칼라 값들을 포함한다.
도 12 는 색 공간 스케일러빌리티에 대한 3D 룩업 테이블 (152) 에 의한 트리-선형 내삽을 나타내는 개념적인 예시이다. 제 1 색 공간에서의 주어진 기초 계층 칼라 샘플에 대해, 향상 계층에 대한 제 2 색 공간에서의 그의 예측의 계산은 다음 방정식에 따라서 트리-선형 내삽을 이용하여 이루어진다:
Figure 112016110448650-pct00002
여기서:
Figure 112016110448650-pct00003
Figure 112016110448650-pct00004
y0 는 y 보다 낮은 가장 가까운 서브-샘플링된 정점의 인덱스이고,
y1 은 y 보다 높은 가장 가까운 서브-샘플링된 정점의 인덱스이다.
도 11a 및 도 11b 에 예시된 3D 룩업 테이블 및 도 12 에 예시된 3D 룩업 테이블에 의한 트리-선형 내삽의 좀더 자세한 사항들은 위에서 인용된 JCTVC-N0168 에서 발견될 수도 있다.
도 13 은 색 공간 스케일러빌리티에 대한 3D 룩업 테이블 (154) 에 의한 4면체 내삽을 나타내는 개념적인 예시이다. 4면체 내삽이 3D 룩업 테이블의 계산 복잡성을 감소시키기 위해, 위에서 설명된 트리-선형 내삽 대신 사용될 수도 있다.
도 14 는 4면체 내삽을 이용하여 내삽될 3D 룩업 테이블의 지점 P 을 포위하는데 사용되는 4면체들 (156A-156F) (일괄하여 "4면체들 (156)") 의 6개의 예들을 나타내는 개념적인 예시이다. 도 14 의 예에서, 정점들 P0 및 P7 이 4면체에 포함되어야 한다고 가정하면, 3D 룩업 테이블의 8분원에 내삽될 지점 P 를 포함하는 4면체를 결정하는데 6개의 선택들이 존재한다. 4면체 내삽을 이용하면, 각각의 2개의 구성요소들: y 및 u, y 및 v, u 및 v 의 관계를 체킹하는 대신, 빠른 결정을 위해, 3D 룩업 테이블이 설계될 수도 있다.
2014년 10월 10일에 출원된, 미국 특허출원 번호 제 14/512,177호에서, 비대칭 3D LUT 및 비평형 3D LUT 가 설명되었다. 비대칭 3D 룩업 테이블은 루마 및 크로마 성분들이 상이한 테이블 사이즈들을 가지도록, 예컨대, 크로마 성분들이 더 거친 (coarser) 룩업 테이블을 이용하고 루마 성분이 더욱 개선된 룩업 테이블을 이용하도록, 사용될 수도 있다. 비평형 3D 룩업 테이블 즉, 테이블[M][N][K] 이 사용될 수도 있으며, 여기서, 각각의 차원의 사이즈는 칼라 맵핑이 동일한 칼라 성분으로부터는 더 정확할 수 있지만 다른 칼라 성분으로부터는 덜 정확할 수 있도록, 상이하다. 3D 룩업 테이블은 단지 루마 성분에 대해서만 사용될 수도 있으며, 반면 1-D 선형 맵핑 또는 구분적 선형 맵핑은 U 및 V 성분들에 대해 각각 사용된다.
2014년 12월 16일에 출원된, 미국 특허출원 번호 제 14/571,939호, 및 2014년 12월 16일에 출원된, 미국 특허출원 번호 제 14/572,002호에서, 위에서 설명된 비대칭 3D LUT 및 비평형 3D LUT 에 대한 향상들이 설명되었다. 예를 들어, 설명된 향상들은 색 공간 스케일러빌리티에 대한 3D LUT 를 발생시키는데 사용되는 파티션 정보 및/또는 칼라 값들을 시그널링하는 기법들을 포함한다. 더 많은 세부 사항들은 관련된 미국 특허출원들의 텍스트에서 발견될 수 있다.
17차 JCT-VC 회의에서, JCTVC-Q0048 (ITU-T SG 16 WP 3 및 ISO/IEC JTC 1/SC 29/WG 11 의 JCT-VC, 17차 회의: 2014년 3월 27일 - 4월 4일, 스페인, 발렌시아, Li, X., 등, "SCE1.2: Color gamut scalability with asymmetric 3D LUT") 에서 제안된 비대칭 3D 룩업 테이블 기반의 색 공간 스케일러빌리티가 채택되었다. 관련된 신택스 테이블들 및 의미들은 다음과 같다.
칼라 맵핑 테이블 RBSP 신택스
Figure 112016110448650-pct00005

칼라 맵핑 테이블 8분원 RBSP 신택스
Figure 112016110448650-pct00006

칼라 맵핑 테이블 RBSP 의미들
cm_octant_depth 는 칼라 맵핑 테이블의 최대한의 분할 심도를 규정한다. 본 사양의 이 버전을 따르는 비트스트림들에서, cm_octant_depth 의 값은 0 내지 1 의 범위 이내여야 한다. 변수 COctantNum 은 다음과 같이 유도된다.
COctantNum = 1 << cm_octant_depth
cm_y_part_num_log2 는 루마 성분에 대한 가장 작은 칼라 맵핑 테이블 8분원의 파티션들의 개수를 규정한다. 변수들 YOctantNum 및 YPartNum 은 다음과 같이 유도된다.
YOctantNum = 1 << ( cm_octant_depth + cm_y_part_num_log2 )
YPartNum = 1 << cm_y_part_num_log2
cm_input_bit_depth_luma_minus8 은 칼라 맵핑 프로세스의 입력 루마 성분의 샘플 비트 심도를 규정한다. 변수 CMInputBitDepthY 는 다음과 같이 유도된다:
CMInputBitDepthY = 8 + cm_input_bit_depth_luma_minus8
cm_input_bit_depth_chroma delta 는 칼라 맵핑 프로세스의 입력 크로마 성분들의 샘플 비트 심도를 규정한다. 변수 CMInputBitDepthC 는 다음과 같이 유도된다:
CMInputBitDepthC = CMInputBitDepthY+ cm_input_bit_depth_chroma_delta
cm_output_bit_depth_luma_minus8 은 칼라 맵핑 프로세스의 출력 루마 성분의 샘플 비트 심도를 규정한다. 변수 CMOutputBitDepthY 는 다음과 같이 유도된다:
CMOutputBitDepthY = 8 + cm_output_bit_depth_luma_minus8
cm_output_bit_depth_chroma_delta 는 칼라 맵핑 프로세스의 출력 크로마 성분들의 샘플 비트 심도를 규정한다. 변수 CMOutputBitDepthC 는 다음과 같이 유도된다:
CMOutputBitDepthC = CMOutputBitDepthY +
cm_output_bit_depth_chroma_delta
cm_res_quant_bits 는 정점 잔차 값들 res_y, res_u 및 res_v 에 가산될 최하위 비트들의 개수를 규정한다.
칼라 맵핑 테이블 8분원 RBSP 의미들
1 과 동일한 split_octant_flag 는 현재의 칼라 맵핑 테이블 8분원이 3차원의 각각에서 절반 길이를 가지는 8개의 8분원들로 추가로 분할된다는 것을 규정한다. 0 과 동일한 split_octant_flag 는 현재의 칼라 맵핑 테이블 8분원이 8개의 8분원들로 추가로 분할되지 않는다는 것을 규정한다. 존재하지 않을 때, split_octant_flag 의 값은 0 과 동일한 것으로 추론된다.
1 과 동일한 coded_vertex_flag [ yIdx ][ uIdx ][ vIdx ][ vertex ] 는 인덱스 [ yIdx ][ uIdx ][ vIdx ][ vertex ] 를 가지는 정점에 대한 잔차들이 존재한다는 것을 규정한다. 0 과 동일한 coded_vertex_flag 는 인덱스 [ yIdx ][ uIdx ][ vIdx ][ vertex ] 을 가지는 정점의 잔차들이 존재하지 않는다는 것을 규정한다. 존재하지 않을 때, coded_vertex_flag 의 값은 0 과 동일한 것으로 추론된다.
res_y[ yIdx ][ uIdx ][ vIdx ][ vertex ] 는 인덱스 [ yIdx ][ uIdx ][ vIdx ][ vertex ] 를 가지는 정점에 대한 루마 성분의 예측 잔차를 규정한다. 존재하지 않을 때, res_y[ yIdx ][ uIdx ][ vIdx ][ vertex ] 의 값은 0 과 동일한 것으로 추론된다.
res_u[ yIdx ][ uIdx ][ vIdx ][ vertex ] 는 인덱스 [ yIdx ][ uIdx ][ vIdx ][ vertex ] 를 가지는 정점에 대한 Cb 성분의 예측 잔차를 규정한다. 존재하지 않을 때, res_u[ yIdx ][ uIdx ][ vIdx ][ vertex ] 의 값은 0 과 동일한 것으로 추론된다.
res_v[ yIdx ][ uIdx ][ vIdx ][ vertex ] 는 인덱스 [ yIdx ][ uIdx ][ vIdx ][ vertex ] 를 가지는 정점에 대한 Cr 성분의 예측 잔차를 규정한다. 존재하지 않을 때, res_v[ yIdx ][ uIdx ][ vIdx ][ vertex ] 의 값은 0 과 동일한 것으로 추론된다.
상기 예에서, 칼라 성분들의 각각에 대한 각각의 8분원에 대해, 8분원의 정점들이 시그널링될 수도 있다. 이 예에서, 주어진 정점의 예측된 값과 주어진 정점의 실제 값 사이의 잔차 값이 시그널링될 수도 있다. 다른 예에서, 칼라 성분들의 각각에 대한 각각의 8분원에 대해, 3D 룩업 테이블에서 칼라 값들의 선형 칼라 맵핑 함수에 대한 칼라 맵핑 계수들 (즉, a, b, c 및 d) 이 8분원의 정점들 대신, 시그널링될 수도 있다. 칼라 맵핑 파라미터들을 가지는 선형 칼라 맵핑 함수가 칼라 예측을 수행하는데 직접 사용될 수도 있다. 공통 선형 칼라 맵핑 함수는 다음과 같이 표현될 수도 있다.
Figure 112016110448650-pct00007
상기 예시적인 함수에서, 하첨자 e 및 b 는 루마, 제 1 크로마, 및 제 2 크로마 칼라 성분들 (즉, Y, U, 및 V) 의 각각에 대해, 상부 계층 (즉, 향상 계층) 및 하부 계층 (예컨대, 기초 계층) 을 각각 표시한다. 파라미터들 a, b, c, 및, d 는 비디오 데이터의 하부 및 상부 계층들의 칼라 성분들 사이의 가중 인자들인 칼라 맵핑 계수들을 나타낸다.
3D 룩업 테이블의 각각의 8분원에 대한 선형 칼라 맵핑 함수에 대한 칼라 맵핑 계수들을 시그널링하는 예시적인 기법에서, colour_mapping_table_octant 신택스 테이블은 정점 잔차 값들 resY[yIdx][uIdx][vIdx][vertex], resU[yIdx][uIdx][vIdx][vertex], 및 resV[yIdx][uIdx][vIdx][vertex] 을 시그널링하는 대신, 8분원의 선형 칼라 맵핑 함수에 대한 칼라 맵핑 계수들 (즉, a, b, c, 및 d) 과 8분원에 대한 예측된 칼라 맵핑 계수 값들 사이의 차이들인 잔차 값들을 표시할 수도 있다. 관련된 신택스 테이블 및 의미들은 다음과 같다.
칼라 맵핑 8분원들 신택스
Figure 112016110448650-pct00008
칼라 맵핑 8분원들 의미들
1 과 동일한 split_octant_flag 는 현재의 칼라 맵핑 8분원이 3차원의 각각에서 절반 길이를 가지는 8개의 8분원들로 추가로 분할된다는 것을 규정한다. 0 과 동일한 split_octant_flag 는 현재의 칼라 맵핑 8분원이 8개의 8분원들로 추가로 분할되지 않는다는 것을 규정한다. 존재하지 않을 때, split_octant_flag 의 값은 0 과 동일하게 추론된다.
1 과 동일한 coded_res_flag[ idxShiftY ][ idxCb ][ idxCr ][ j ] 는 ( idxShiftY, idxCb, idxCr ) 과 동일한 8분원 인덱스를 가지는 8분원의 j-번째 칼라 맵핑 계수들에 대한 잔차들이 존재한다는 것을 규정한다. 0 과 동일한 coded_res_flag[ idxShiftY ][ idxCb ][ idxCr ][ j ] 는 ( idxShiftY, idxCb, idxCr ) 과 동일한 8분원 인덱스를 가지는 8분원의 j-번째 칼라 맵핑 계수들의 잔차들이 존재하지 않는다는 것을 규정한다. 존재하지 않을 때, coded_res_flag[ idxShiftY ][ idxCb ][ idxCr ][ j ] 의 값은 0 과 동일한 것으로 추론된다.
res_coeff_q[ idxShiftY ][ idxCb ][ idxCr ][ j ][ c ] 는 ( idxShiftY, idxCb, idxCr ) 과 동일한 8분원 인덱스를 가지는 8분원의 c-번째 칼라 성분의 j-번째 칼라 맵핑 계수에 대한 잔차의 몫을 규정한다. 존재하지 않을 때, res_coeff_q[ idxShiftY ][ idxCb ][ idxCr ][ j ][ c ] 의 값은 0 과 동일한 것으로 추론된다.
res_coeff_r[ idxShiftY ][ idxCb ][ idxCr ][ j ][ c ] 는 ( idxShiftY, idxCb, idxCr ) 과 동일한 8분원 인덱스를 가지는 8분원의 c-번째 칼라 성분의 j-번째 칼라 맵핑 계수에 대한 잔차의 나머지를 규정한다. res_coeff_r 을 코딩하는데 사용되는 비트수는 CMResLSBits 과 동일하다. CMResLSBits 가 0 과 동일하면, res_coeff_r 은 존재하지 않는다. 존재하지 않을 때, res_coeff_r[ idxShiftY ][ idxCb ][ idxCr ][ j ][ c ] 의 값은 0 과 동일한 것으로 추론된다.
res_coeff_s[ idxShiftY ][ idxCb ][ idxCr ][ j ][ c ] 는 ( idxShiftY, idxCb, idxCr ) 과 동일한 8분원 인덱스를 가지는 8분원의 c-번째 칼라 구성요소의 j-번째 칼라 맵핑 계수에 대한 잔차의 부호를 규정한다. 존재하지 않을 때, res_coeff_s[ idxShiftY ][ idxCb ][ idxCr ][ j ][ c ] 의 값은 0 과 동일하게 추론된다.
다음 잠재적인 이슈들이 위에서 설명된 비대칭 3D 룩업 테이블 기반의 색 공간 스케일러빌리티 (CGS) 에서 식별되었다. 제 1 잠재적인 이슈로서, 색 공간 스케일러빌리티에 대한 3D 칼라 예측의 현재의 설계에서, 칼라 예측 프로세스의 입력 및 출력 칼라 성분들의 비트 심도들은 필수적이지 않을 수도 있는 인코더에 의해 양쪽 다 시그널링된다. 게다가, 현재의 신택스는 칼라 예측 프로세스의 참조 계층 신호 (예컨대, 기초 계층 칼라 성분들) 및 입력 칼라 성분들이 상이한 비트 심도들을 가질 수 있도록 한다.
제 2 잠재적인 이슈로서, 다수의 참조 계층들의 경우, 현재의 설계는 향상 계층에 대한 CGS 테이블을 정의하지만, 향상 계층에 대한 인터-계층 참조 픽처를 유도하기 위해 그 시그널링된 CGS 테이블이 참조 계층들 중 어느 참조 계층에 적용되는지를 명확히 정의하지 않는다. 제 3 잠재적인 이슈로서, 현재의 신택스는 인터-계층 가중 예측이 칼라 예측 프로세스의 상부에 적용될 수도 있도록 허용하는데, 이것은 어떤 코딩 이득 이점도 주지 않고 복잡성을 증가시킬 수도 있다.
본 개시물에서 설명하는 기법들은 위에서 언급한 이슈들 중 하나 이상을 해결할 수도 있다. 다음 기법들이 개별적으로 각각 적용될 수도 있다. 대안적으로, 기법들 중 2개 이상이 함께 적용될 수도 있다.
위에서 설명된 제 1 잠재적인 이슈에 대한 제 1 솔루션으로서, 칼라 예측 프로세스의 입력 및 출력 비트 심도들은, 비디오 인코더 (20) 및/또는 비디오 디코더 (30) 에서 입력 및 출력 비트 심도들 중 하나 또는 양쪽에 제약들이 적용된 상태에서, 비트스트림으로 양쪽 다 시그널링된다. 일 예에서, 비디오 인코더 (20) 및/또는 비디오 디코더 (30) 는 CGS 칼라 예측 프로세스의 입력 루마 및 크로마 성분들의 비트 심도들을, 그들이 참조 계층 픽처의 루마 및 크로마 성분들의 비트 심도들과 동일하게, 제한하도록 구성될 수도 있다. 이 예에서, 참조 계층 (예컨대, 참조 계층 픽처의 칼라 성분들) 의 출력 신호가 CGS 칼라 예측 프로세스에 대한 3D 룩업 테이블의 입력 신호로서 사용될 수도 있다.
다른 예에서, 비디오 인코더 (20) 및/또는 비디오 디코더 (30) 는 CGS 칼라 예측 프로세스의 출력 루마 및 크로마 성분들의 비트 심도들을, 그들이 향상 계층 픽처의 루마 및 크로마 성분들의 비트 심도들과 동일하게, 제한하도록 구성될 수도 있다. 대안적인 예에서, 비디오 인코더 (20) 및/또는 비디오 디코더 (30) 는 CGS 칼라 예측 프로세스의 출력 루마 및 크로마 성분들의 비트 심도들을, 그들이 참조 계층 픽처의 루마 및 크로마 성분들의 비트 심도들과 향상 계층 픽처의 루마 및 크로마 성분들의 비트 심도들 사이의 범위에 있게, 제한하도록 구성될 수도 있다.
위에서 설명된 제 1 잠재적인 이슈에 대한 제 2 솔루션으로서, 단지 칼라 예측 프로세스의 출력 비트 심도들만이 비트스트림으로 시그널링되며 입력 비트 심도들은 비디오 인코더 (20) 및/또는 비디오 디코더 (30) 에서 입력 및 출력 비트 심도들 중 하나 또는, 양쪽에 제약이 적용되는 상태에서, 비트스트림으로 시그널링되지 않는다. 이 경우, 비디오 디코더 (30) 는 제약들에 따라서 칼라 예측 프로세스의 입력 비트 심도들을 유도한다. 일 예에서, 비디오 인코더 (20) 및/또는 비디오 디코더 (30) 는 CGS 칼라 예측 프로세스의 입력 루마 및 크로마 성분들의 비트 심도들을, 그들이 참조 계층 픽처의 루마 및 크로마 성분들의 비트 심도들과 동일하게, 제한하도록 구성될 수도 있다.
다른 예에서, 비디오 인코더 (20) 및/또는 비디오 디코더 (30) 는 CGS 칼라 예측 프로세스의 출력 루마 및 크로마 성분들의 비트 심도들을, 그들이 향상 계층 픽처의 루마 및 크로마 성분들의 비트 심도들과 동일하게, 제한하도록 구성될 수도 있다. 대안적인 예로서, 비디오 인코더 (20) 및/또는 비디오 디코더 (30) 는 CGS 칼라 예측 프로세스의 출력 루마 및 크로마 성분들의 비트 심도들을, 그들이 참조 계층 픽처의 루마 및 크로마 성분들의 비트 심도들과 향상 계층 픽처의 루마 및 크로마 성분들의 비트 심도들 사이의 범위에 있게, 제한하도록 구성될 수도 있다.
위에서 설명된 제 1 잠재적인 이슈에 대한 제 3 솔루션으로서, 칼라 예측 프로세스의 입력 및 출력 비트 심도들이 비트스트림으로 시그널링되지 않지만, 대신 비디오 인코더 (20) 및/또는 비디오 디코더 (30) 에서 입력 및 출력 비트 심도들 중 하나 또는, 양쪽에 제약들이 적용되는 상태에서, 유도된다. 일 예에서, 비디오 인코더 (20) 및/또는 비디오 디코더 (30) 는 CGS 칼라 예측 프로세스에 대한 입력 루마 및 크로마 성분들의 비트 심도들을, 그들이 참조 계층 픽처의 루마 및 크로마 성분들의 비트 심도들과 동일하게, 유도하도록 구성될 수도 있다. 다른 예에서, 비디오 인코더 (20) 및/또는 비디오 디코더 (30) 는 CGS 칼라 예측 프로세스의 출력 루마 및 크로마 성분들의 비트 심도들을, 그들이 향상 계층 픽처의 루마 및 크로마 성분들의 비트 심도들과 동일하게, 유도하도록 구성된다.
위에서 설명된 제 2 잠재적인 이슈에 대한 솔루션으로서, 다수의 참조 계층들의 경우, 비디오 인코더 (20) 및/또는 비디오 디코더 (30) 는 향상 계층에 대한 3D 룩업 테이블을 단지 하나 이상의 식별된 참조 계층들 내 참조 픽처들에 적용하도록 제한된다. 3D 룩업 테이블은 3D 룩업 테이블이 PPS 에 의해 참조되는 하나 이상의 픽처들에 적용되도록, 비트스트림의 픽처 파라미터 세트 (PPS) 로 시그널링된다. PPS 는 비디오 데이터의 향상 계층에서의 하나 이상의 향상 계층 픽처들, 및 비디오 데이터의 하나 이상의 참조 계층들에서의 하나 이상의 동일 위치에 배치된 참조 계층 픽처들을 참조할 수도 있다. PPS 가 복수의 참조 계층들 (예컨대, 하나 보다 많은 참조 계층) 을 포함하는 예들에서, 본 개시물의 기법들은 주어진 향상 계층 픽처에 대한 인터-계층 참조 픽처를 발생시키기 위해 3D 룩업 테이블을 적용할 참조 계층들 중 적어도 하나를 식별한다.
예를 들어, 비디오 인코더 (20) 는 CGS 에 대한 3D 룩업 테이블에 대한 하나 이상의 참조 계층 식별자들 (ID들) 을 시그널링할 수도 있으며, 비디오 디코더 (30) 는 단지 3D 룩업 테이블을 시그널링된 참조 계층 ID들에서 식별된 하나 이상의 참조 계층들에서의 참조 계층 픽처들에만 적용한다. 3D 룩업 테이블이 CGS 를 수행하여 향상 계층 픽처에 대한 인터-계층 참조 픽처를 발생시키기 위해 주어진 향상 계층 픽처에 대해 시그널링된다. 비디오 디코더 (30) 는 인터-계층 참조 픽처를 발생시키기 위해 3D 룩업 테이블이 적용될 하나 이상의 참조 계층들을 알아야 한다.
일부 예들에서, 복수의 참조 계층들 중 2개 이상에서의 참조 계층 픽처들이 향상 계층 픽처에 대한 3D 룩업 테이블을 이용하여 인터-계층 참조 픽처를 발생시키기 위해 함께 사용될 수도 있다. 이 경우, 2개 이상의 참조 계층들을 식별하는 2개 이상의 참조 계층 ID들은 비트스트림으로 시그널링된다. 다른 예들에서, 단지 복수의 참조 계층들 중 하나에서의 참조 계층 픽처가 향상 계층 픽처에 대한 3D 룩업 테이블을 이용하여 인터-계층 참조 픽처를 발생시키기 위해 사용된다. 이 경우, 하나의 참조 계층을 식별하는 하나의 참조 계층 ID 는 비트스트림으로 시그널링된다.
추가적인 예로서, 낮은 계산 복잡성을 유지하기 위해, 비디오 인코더 (20) 및/또는 비디오 디코더 (30) 는 다수의 참조 계층들이 이용가능하더라도 단지 각각의 향상 계층 픽처에 대해 CGS 칼라 예측 프로세스를 한번 적용하도록 제한된다. 이 예에서, 각각의 향상 계층 픽처에 대해, 복수의 참조 계층들 중 정확히 하나에서의 참조 계층 픽처가 향상 계층 픽처에 대한 3D 룩업 테이블을 이용하여 인터-계층 참조 픽처를 발생시키기 위해 사용될 수도 있다. 비디오 인코더 (20) 는 각각의 향상 계층 픽처에 대한 정확히 하나의 참조 계층 ID 를 시그널링하도록 제한될 수도 있으며, 비디오 디코더 (30) 는 단지 3D 룩업 테이블을 시그널링된 참조 계층 ID 에 의해 식별되는 정확히 하나의 참조 계층에서의 참조 계층 픽처에 적용하도록 제한될 수도 있다.
2개의 연속적인 향상 계층 픽처들에 대해, 상이한 참조 계층들에서의 참조 계층 픽처들이 CGS 칼라 예측 프로세스에 대해 사용될 수도 있다. 예를 들어, 제 1 향상 계층 픽처에 대해, 비디오 인코더 (20) 및/또는 비디오 디코더 (30) 는 제 1 참조 계층에서의 참조 계층 픽처를 이용하여, 제 1 향상 계층 픽처에 대한 인터-계층 참조 픽처를 발생시킬 수도 있다. 제 2 향상 계층 픽처에 대해, 비디오 인코더 (20) 및/또는 비디오 디코더 (30) 는 제 1 참조 계층과는 상이한 제 2 참조 계층에서의 참조 계층 픽처를 이용하여, 제 2 향상 계층 픽처에 대한 인터-계층 참조 픽처를 발생시킬 수도 있다.
CGS 에 대한 3D 룩업 테이블에서 참조 계층 ID들을 시그널링하는 일 예가 아래에 설명된다. 위에서 제시된 colour_mapping_table 의 신택스 및 의미들에 대한 추가사항들은 이탤릭체 텍스트로 표시된다.
Figure 112016110448650-pct00009
cm_inter_layer_ref_idc 는 인터-계층 픽처가 유도될 때 현재의 칼라 맵핑 테이블에 의해 규정된 칼라 예측 프로세스가 적용되는 참조 계층 픽처의 nuh_layer_id 를 규정한다.
CGS 에 대한 3D 룩업 테이블에서 참조 계층 ID들을 시그널링하는 다른 예가 아래에 설명된다. colour_mapping_table 의 신택스 및 의미들의 추가사항들은 이탤릭체 텍스트로 표시된다.
Figure 112016110448650-pct00010
num_cm_ref_layers_minus1 다음 cm_ref_layer_id[ i ] 신택스 엘리먼트들의 수를 규정한다. num_cm_ref_layers_minus1 의 값은 0 내지 61 의 범위 이내여야 한다.
cm_ref_layer_id[ i ] 칼라 맵핑 테이블이 규정되는 연관된 직접 참조 계층 픽처의 nuh_layer_id 값을 규정한다.
위에서 설명된 제 3 잠재적인 이슈에 대한 솔루션으로서, 낮은 계산 복잡성을 유지하기 위해, 비디오 인코더 (20) 및/또는 비디오 디코더 (30) 는 CGS 칼라 예측 프로세스에 의해 발생되는 인터-계층 참조 픽처에 대해 가중 예측을 적용하지 않도록 제한된다. 이 경우, 하나 이상의 참조 계층 픽처들에 적용되는 3D 룩업 테이블을 이용하여 향상 계층 픽처에 대해 발생되는 인터-계층 참조 픽처 자신이 향상 계층 픽처를 예측하는데 사용된다. 인터-계층 참조 픽처가 향상 계층 픽처에 대한 가중 예측의 경우에 후보 참조 픽처들의 그룹에서의 후보 참조 픽처로서 사용되지 않는다.
도 2 는 본 개시물에서 설명된 기법들을 구현할 수도 있는 비디오 인코더 (20) 의 일 예를 예시하는 블록도이다. 비디오 인코더 (20) 는 비디오 슬라이스들 내 비디오 블록들의 인트라-코딩 및 인터-코딩을 수행할 수도 있다. 인트라 코딩은 주어진 비디오 프레임 또는 픽처 내 비디오에서 공간 리던던시를 감소시키거나 또는 제거하기 위해, 공간 예측에 의존한다. 인터-코딩은 비디오 시퀀스의 인접 프레임들 또는 픽처들 내 비디오에서 시간 리던던시를 감소시키거나 또는 제거하기 위해, 시간 예측에 의존한다. 인트라-모드 (I 모드) 는 여러 공간 기반의 압축 모드들 중 임의의 코딩 모드를 참조할 수도 있다. 단방향 예측 (P 모드) 또는 양방향-예측 (B 모드) 과 같은 인터-모드들은 여러 시간-기반의 코딩 모드들 중 임의의 모드를 참조할 수도 있다.
도 2 에 나타낸 바와 같이, 비디오 인코더 (20) 는 인코딩되는 비디오 프레임 내 현재의 비디오 블록을 수신한다. 도 2 의 예에서, 비디오 인코더 (20) 는 모드 선택 유닛 (40), 비디오 데이터 메모리 (41), 디코딩된 픽처 버퍼 (64), 합산기 (50), 변환 프로세싱 유닛 (52), 양자화 유닛 (54), 및 엔트로피 인코딩 유닛 (56) 을 포함한다. 모드 선택 유닛 (40) 은, 결과적으로, 모션 보상 유닛 (44), 모션 추정 유닛 (42), 인트라-예측 유닛 (46), 및 파티션 유닛 (48) 을 포함한다. 비디오 블록 재구성을 위해, 비디오 인코더 (20) 는 또한 역양자화 유닛 (58), 역변환 프로세싱 유닛 (60), 및 합산기 (62) 를 포함한다. 디블록킹 필터 (도 2 에 미도시) 가 또한 블록 경계들을 필터링하여 복원된 비디오로부터 블록킹 현상 아티팩트들을 제거하기 위해 포함될 수도 있다. 원할 경우, 디블록킹 필터는 일반적으로 합산기 (62) 의 출력을 필터링할 것이다. (인 루프 또는 사후 루프에서) 추가적인 필터들이 또한 디블록킹 필터에 추가하여 사용될 수도 있다. 이러한 필터들은 간결성을 위해 도시되지 않지만, 그러나 원할 경우, 합산기 (50) 의 출력을 (인-루프 필터로서) 필터링할 수도 있다.
비디오 데이터 메모리 (41) 는 비디오 인코더 (20) 의 구성요소들에 의해 인코딩될 비디오 데이터를 저장할 수도 있다. 비디오 데이터 메모리 (41) 에 저장된 비디오 데이터는 예를 들어, 비디오 소스 (18) 로부터 획득될 수도 있다. 디코딩된 픽처 버퍼 (64) 는 예컨대, 인트라- 또는 인터-코딩 모드들에서 비디오 인코더 (20) 에 의해 비디오 데이터를 인코딩할 때에 사용하기 위해 참조 비디오 데이터를 저장하는 참조 픽처 메모리일 수도 있다. 비디오 데이터 메모리 (41) 및 디코딩된 픽처 버퍼 (64) 는 동기 DRAM (SDRAM) 을 포함한 동적 랜덤 액세스 메모리 (DRAM), 자기저항 RAM (MRAM), 저항 RAM (RRAM), 또는 다른 유형들의 메모리 디바이스들과 같은, 다양한 메모리 디바이스들 중 임의의 메모리 디바이스에 의해 형성될 수도 있다. 비디오 데이터 메모리 (41) 및 디코딩된 픽처 버퍼 (64) 는 동일한 메모리 디바이스 또는 별개의 메모리 디바이스들에 의해 제공될 수도 있다. 여러 예들에서, 비디오 데이터 메모리 (41) 는 비디오 인코더 (20) 의 다른 구성요소들과의 온칩, 또는 그들 구성요소들에 대한 오프-칩일 수도 있다.
인코딩 프로세스 동안, 비디오 인코더 (20) 는 코딩될 비디오 프레임 또는 슬라이스를 수신한다. 프레임 또는 슬라이스는 다수의 비디오 블록들로 분할될 수도 있다. 모션 추정 유닛 (42) 및 모션 보상 유닛 (44) 은 시간 예측을 제공하기 위해 하나 이상의 참조 프레임들에서 하나 이상의 블록들에 대해 그 수신된 비디오 블록의 인터-예측 코딩을 수행한다. 인트라-예측 유닛 (46) 은 대안적으로, 공간 예측을 제공하기 위해, 코딩되는 블록과 동일한 프레임 또는 슬라이스에서의 하나 이상의 이웃하는 블록들에 대한 수신된 비디오 블록의 인트라-예측 코딩을 수행할 수도 있다. 비디오 인코더 (20) 는 예컨대, 비디오 데이터의 각각의 블록에 대해 적합한 코딩 모드를 선택하기 위해, 다수의 코딩 패스들 (passes) 을 수행할 수도 있다.
더욱이, 파티션 유닛 (48) 은 이전 코딩 패스들에서의 이전 파티셔닝 방식들의 평가에 기초하여, 비디오 데이터의 블록들을 서브-블록들로 파티셔닝할 수도 있다. 예를 들어, 파티션 유닛 (48) 은 레이트-왜곡 분석 (예컨대, 레이트-왜곡 최적화) 에 기초하여, 처음에 프레임 또는 슬라이스를 LCU들로 파티셔닝하고, LCU들의 각각을 서브-CU들로 파티셔닝할 수도 있다. 모드 선택 유닛 (40) 은 서브-CU들로의 LCU 의 파티셔닝을 나타내는 쿼드트리 데이터 구조를 추가로 발생할 수도 있다. 쿼드트리의 리프-노드 CU들은 하나 이상의 PU들 및 하나 이상의 TU들을 포함할 수도 있다.
모드 선택 유닛 (40) 은 에러 결과들에 기초하여 코딩 모드들, 즉 인트라 또는 인터 중 하나를 선택할 수도 있으며, 그리고, 최종 인트라- 또는 인터-코딩된 블록을 합산기 (50) 에 제공하여 잔차 블록 데이터를 발생시킬 수도 있으며, 그리고 합산기 (62) 에 제공하여 참조 프레임으로서 사용을 위한 인코딩된 블록을 복원할 수도 있다. 모드 선택 유닛 (40) 은 또한 모션 벡터들, 인트라-모드 표시자들, 파티션 정보, 및 다른 이러한 신택스 정보와 같은 신택스 엘리먼트들을, 엔트로피 인코딩 유닛 (56) 에 제공한다.
모션 추정 유닛 (42) 및 모션 보상 유닛 (44) 은 고도로 통합될 수도 있지만, 개념적인 목적들을 위해 별개로 예시된다. 모션 추정 유닛 (42) 에 의해 수행되는 모션 추정은 모션 벡터들을 발생하는 프로세스이며, 이 프로세스는 비디오 블록들에 대한 모션을 추정한다. 모션 벡터는, 예를 들어, 현재의 픽처 (또는, 다른 코딩된 유닛) 내 코딩중인 현재의 블록에 대한 참조 픽처 (또는, 다른 코딩된 유닛) 내 예측 블록에 상대적인, 현재의 비디오 프레임 또는 픽처 내 비디오 블록의 PU 의 변위를 나타낼 수도 있다. 예측 블록은 픽셀 차이의 관점에서 코딩되는 블록에 가깝게 매칭하는 것으로 발견되는 블록이며, SAD (sum of absolute difference), SSD (sum of square difference), 또는 다른 차이 메트릭들에 의해 결정될 수도 있다. 일부 예들에서, 비디오 인코더 (20) 는 디코딩된 픽처 버퍼 (64) 에 저장된 참조 픽처들의 서브-정수 픽셀 위치들에 대한 값들을 계산할 수도 있다. 예를 들어, 비디오 인코더 (20) 는 참조 픽처의 1/4 픽셀 위치들, 1/8 픽셀 위치들, 또는 다른 분수 픽셀 위치들의 값들을 내삽할 수도 있다. 따라서, 모션 추정 유닛 (42) 은 풀 픽셀 위치들 및 분수 픽셀 위치들에 대해, 모션 탐색을 수행하고, 분수 픽셀 정밀도를 가진 모션 벡터를 출력할 수도 있다.
모션 추정 유닛 (42) 은 PU 의 위치를 참조 픽처의 예측 블록의 위치와 비교함으로써 인터-코딩된 슬라이스에서의 비디오 블록의 PU 에 대한 모션 벡터를 계산한다. 참조 픽처는 제 1 참조 픽처 리스트 (List 0) 또는 제 2 참조 픽처 리스트 (List 1) 로부터 선택될 수도 있으며, 이 리스트들 각각은 디코딩된 픽처 버퍼 (64) 에 저장된 하나 이상의 참조 픽처들을 식별한다. 모션 추정 유닛 (42) 은 그 계산된 모션 벡터를 엔트로피 인코딩 유닛 (56) 및 모션 보상 유닛 (44) 으로 전송한다.
모션 보상 유닛 (44) 에 의해 수행되는 모션 보상은 모션 추정 유닛 (42) 에 의해 결정된 모션 벡터에 기초하여 예측 블록을 페치하거나 또는 발생하는 것을 수반할 수도 있다. 또, 모션 추정 유닛 (42) 및 모션 보상 유닛 (44) 은 일부 예들에서, 기능적으로 통합될 수도 있다. 현재의 비디오 블록의 PU 에 대한 모션 벡터를 수신하자 마자, 모션 보상 유닛 (44) 은 모션 벡터가 참조 픽처 리스트들 중 하나에서 가리키는 예측 블록을 로케이트할 수도 있다. 합산기 (50) 는 이하에서 설명하는 바와 같이, 코딩중인 현재의 비디오 블록의 픽셀 값들로부터 예측 블록의 픽셀 값들을 감산하여 픽셀 차이 값들을 형성함으로써, 잔차 비디오 블록을 형성한다. 일반적으로, 모션 추정 유닛 (42) 은 루마 성분들에 대해 모션 추정을 수행하고, 모션 보상 유닛 (44) 은 크로마 성분들 및 루마 성분들 양쪽에 대해 루마 성분들에 기초하여 계산된 모션 벡터들을 이용한다. 모드 선택 유닛 (40) 은 또한 비디오 슬라이스의 비디오 블록들을 디코딩할 때에 비디오 디코더 (30) 에 의한 사용을 위해 비디오 블록들 및 비디오 슬라이스와 연관되는 신택스 엘리먼트들을 발생시킬 수도 있다.
인트라-예측 유닛 (46) 은 위에서 설명한 바와 같이, 모션 추정 유닛 (42) 및 모션 보상 유닛 (44) 에 의해 수행되는 인터-예측에 대한 대안으로서, 현재의 블록을 인트라-예측할 수도 있다. 특히, 인트라-예측 유닛 (46) 은 현재의 블록을 인코딩하는데 사용할 인트라-예측 모드를 결정할 수도 있다. 일부 예들에서, 인트라-예측 유닛 (46) 은 예컨대, 별개의 인코딩 과정들 동안 여러 인트라-예측 모드들을 이용하여 현재의 블록을 인코딩할 수도 있으며, 인트라-예측 유닛 (46) (또는, 일부 예들에서는, 모드 선택 유닛 (40)) 은 테스트된 모드들 중에서 사용할 적합한 인트라-예측 모드를 선택할 수도 있다.
예를 들어, 인트라-예측 유닛 (46) 은 여러 테스트된 인트라-예측 모드들에 대한 레이트-왜곡 분석을 이용하여 레이트-왜곡 값들을 계산하고, 그 테스트된 모드들 중에서 최상의 레이트-왜곡 특성들을 갖는 인트라-예측 모드를 선택할 수도 있다. 레이트-왜곡 분석은 일반적으로 인코딩된 블록과 그 인코딩된 블록을 발생하기 위해 인코딩되었던 원래의 미인코딩된 블록 사이의 왜곡의 양 (또는, 에러) 뿐만 아니라, 그 인코딩된 블록을 발생하는데 사용되는 비트 레이트 (즉, 비트수) 를 결정한다. 인트라-예측 유닛 (46) 은 여러 인코딩된 블록들에 대한 왜곡들 및 레이트들로부터 비율들 (ratios) 을 계산하여, 어느 인트라-예측 모드가 그 블록에 대해 최상의 레이트-왜곡 값을 나타내는 지를 결정할 수도 있다.
블록에 대한 인트라-예측 모드를 선택한 후, 인트라-예측 유닛 (46) 은 블록에 대한 그 선택된 인트라-예측 모드를 나타내는 정보를 엔트로피 인코딩 유닛 (56) 에 제공할 수도 있다. 엔트로피 인코딩 유닛 (56) 은 그 선택된 인트라-예측 모드를 나타내는 정보를 인코딩할 수도 있다. 비디오 인코더 (20) 는 복수의 인트라-예측 모드 인덱스 테이블들 및 복수의 수정된 인트라-예측 모드 인덱스 테이블들 (또한, 코드워드 맵핑 테이블들로서 지칭됨) 을 포함할 수도 있는 그 송신되는 비트스트림 구성 데이터에, 여러 블록들에 대한 인코딩 컨텍스트들의 정의들, 및 가장 가능성있는 인트라-예측 모드, 인트라-예측 모드 인덱스 테이블 및 컨텍스트들의 각각에 사용할 수정된 인트라-예측 모드 인덱스 테이블의 표시들을 포함할 수도 있다.
비디오 인코더 (20) 는 코딩중인 원래 비디오 블록으로부터, 모드 선택 유닛 (40) 으로부터의 예측 데이터를 감산함으로써 잔차 비디오 블록을 형성한다. 합산기 (50) 는 이 감산 동작을 수행하는 구성요소 또는 구성요소들을 나타낸다. 변환 프로세싱 유닛 (52) 은 이산 코사인 변환 (DCT) 또는 개념적으로 유사한 변환과 같은 변환을 잔차 블록에 적용하여, 잔차 변환 계수 값들을 포함하는 비디오 블록을 생성한다. 변환 프로세싱 유닛 (52) 은 DCT 와 개념적으로 유사한 다른 변환들을 수행할 수도 있다. 웨이블릿 변환들, 정수 변환들, 서브밴드 변환들 또는 다른 유형들의 변환들이 또한 이용될 수 있다. 어쨌든, 변환 프로세싱 유닛 (52) 은 그 변환을 잔차 블록에 적용하여, 잔차 변환 계수들의 블록을 생성한다. 변환은 잔차 정보를 픽셀 값 도메인으로부터 주파수 도메인과 같은 변환 도메인으로 변환할 수도 있다. 변환 프로세싱 유닛 (52) 은 최종 변환 계수들을 양자화 유닛 (54) 으로 전송할 수도 있다. 양자화 유닛 (54) 은 비트 레이트를 추가로 감소시키기 위해 변환 계수들을 양자화한다. 양자화 프로세스는 그 계수들의 일부 또는 모두와 연관되는 비트 심도를 감소시킬 수도 있다. 양자화의 정도는 양자화 파라미터를 조정함으로써 변경될 수도 있다. 일부 예들에서, 양자화 유닛 (54) 은 그후 양자화된 변환 계수들을 포함하는 매트릭스의 스캐닝을 수행할 수도 있다. 이의 대안으로, 엔트로피 인코딩 유닛 (56) 이 그 스캐닝을 수행할 수도 있다.
양자화 이후, 엔트로피 인코딩 유닛 (56) 은 양자화된 변환 계수들을 엔트로피 코딩한다. 예를 들어, 엔트로피 인코딩 유닛 (56) 은 컨텍스트 적응 가변 길이 코딩 (CAVLC), 컨텍스트 적응 2진 산술 코딩 (CABAC), 신택스-기반 컨텍스트-적응 2진 산술 코딩 (SBAC), 확률 간격 파티셔닝 엔트로피 (PIPE) 코딩 또는 또 다른 엔트로피 코딩 기법을 수행할 수도 있다. 컨텍스트-기반 엔트로피 코딩의 경우, 컨텍스트는 이웃하는 블록들에 기초할 수도 있다. 엔트로피 인코딩 유닛 (56) 에 의한 엔트로피 코딩 이후, 인코딩된 비트스트림은 또 다른 디바이스 (예컨대, 비디오 디코더 (30)) 로 송신되거나 또는 추후 송신 또는 취출을 위해 아카이브될 수도 있다.
역양자화 유닛 (58) 및 역변환 프로세싱 유닛 (60) 은 역양자화 및 역변환을 각각 적용하여, 예컨대, 참조 블록으로 추후 사용을 위해, 픽셀 도메인에서 잔차 블록을 복원한다. 모션 보상 유닛 (44) 은 잔차 블록을 디코딩된 픽처 버퍼 (64) 의 프레임들 중 하나의 예측 블록에 가산함으로써 참조 블록을 계산할 수도 있다. 모션 보상 유닛 (44) 은 또한 하나 이상의 내삽 필터들을 그 복원된 잔차 블록에 적용하여, 모션 추정에 사용하기 위한 서브-정수 픽셀 값들을 계산할 수도 있다. 합산기 (62) 는 복원된 잔차 블록을 모션 보상 유닛 (44) 에 의해 발생되는 모션 보상된 예측 블록에 가산하여, 디코딩된 픽처 버퍼 (64) 에의 저장을 위한 복원된 비디오 블록을 생성한다. 복원된 비디오 블록은 후속 비디오 프레임에서 블록을 인터-코딩하기 위해 모션 추정 유닛 (42) 및 모션 보상 유닛 (44) 에 의해 참조 블록으로서 사용될 수도 있다.
비디오 인코더 (20) 는 본 개시물의 기법들을, 단독으로 또는 임의의 조합으로 수행하도록 구성될 수도 있는 비디오 인코더의 일 예를 나타낸다.
비디오 인코더 (20) 는 3D 룩업 테이블에 대한 입력 칼라 성분들의 제한된 비트 심도들에 의한 3D 칼라 예측을 수행하도록 구성된 하나 이상의 프로세서들을 포함하는 비디오 인코딩 디바이스를 나타낼 수도 있다. 이 경우, 비디오 인코더 (20) 의 칼라 예측 프로세싱 유닛 (66) 은 비디오 데이터의 참조 계층에서의 참조 계층 픽처의 칼라 성분들의 비트 심도들과 동일하도록 3D 룩업 테이블의 입력 비트 심도들을 결정한다. 이러한 방법으로, 3D 룩업 테이블의 입력 비트 심도가 향상 계층 픽처에 대한 인터-계층 참조 픽처를 발생시키기 위해 변환용 3D 룩업 테이블에 입력될 수도 있는, 참조 계층 픽처의 칼라 성분들의 비트 심도와 동일하다. 일부 예들에서, 칼라 예측 프로세싱 유닛 (66) 은 또한 참조 계층 픽처의 칼라 성분들의 비트 심도들보다 크거나 또는 동일하고 그리고 향상 계층 픽처의 칼라 성분들의 비트 심도들보다 작거나 또는 동일한 범위 이내에 있도록 3D 룩업 테이블의 출력 비트 심도들을 결정할 수도 있다. 일 예에서, 칼라 예측 프로세싱 유닛 (66) 은 향상 계층 픽처의 칼라 성분들의 비트 심도들과 동일하도록 3D 룩업 테이블의 출력 비트 심도들을 결정할 수도 있다.
칼라 예측 프로세싱 유닛 (66) 은 칼라 성분들을 비디오 데이터의 참조 계층에 대한 제 1 색 공간 및/또는 제 1 비트 심도로부터 비디오 데이터의 향상 계층에 대한 제 2 색 공간 및/또는 제 2 비트 심도로 변환하기 위해 3D 룩업 테이블을 참조 계층 픽처의 칼라 성분들에 적용한다. 칼라 예측 프로세싱 유닛 (66) 은 변환된 칼라 성분들에 기초하여 비디오 데이터의 향상 계층에서의 향상 계층 픽처에 대한 인터-계층 참조 픽처를 발생시킨다. 비디오 인코더 (20) 는 3D 룩업 테이블을 이용하여 발생된 인터-계층 참조 픽처에 기초하여 향상 계층 픽처에서의 비디오 블록들을 인코딩한다.
본 개시물의 기법들의 일 예에 따르면, 비디오 인코더 (20) 는 참조 계층 픽처의 루마 성분의 비트 심도와 동일한 3D 룩업 테이블의 입력 루마 성분에 대한 제 1 비트 심도를 표시하는 제 1 신택스 엘리먼트를 시그널링하고, 참조 계층 픽처의 크로마 성분들의 비트 심도와 동일한 3D 룩업 테이블의 입력 크로마 성분들에 대한 제 2 비트 심도를 표시하는 제 2 신택스 엘리먼트를 시그널링할 수도 있다. 이에 추가적으로 또는 대안적으로, 비디오 인코더 (20) 는 참조 계층 픽처의 루마 성분의 비트 심도보다 크거나 또는 동일하고 그리고 향상 계층 픽처의 루마 성분의 비트 심도보다 작거나 또는 동일한 3D 룩업 테이블의 출력 루마 성분에 대한 제 3 비트 심도를 표시하는 제 3 신택스 엘리먼트를 시그널링하고, 참조 계층 픽처의 크로마 성분들의 비트 심도보다 크거나 또는 동일하고 그리고 향상 계층 픽처의 크로마 성분들의 비트 심도보다 작거나 또는 동일한 3D 룩업 테이블의 출력 크로마 성분들에 대한 제 4 비트 심도를 표시하는 제 4 신택스 엘리먼트를 시그널링할 수도 있다.
본 개시물의 기법들의 다른 예에서, 칼라 예측 프로세싱 유닛 (66) 은 제 1 및 제 2 비트 심도들을 표시하는 제 1 및 제 2 신택스 엘리먼트들을 시그널링함이 없이, 3D 룩업 테이블의 입력 루마 성분에 대한 제 1 비트 심도를 결정하고, 3D 룩업 테이블의 입력 크로마 성분들에 대한 제 2 비트 심도를 결정할 수도 있다. 이에 추가적으로 또는 대안적으로, 칼라 예측 프로세싱 유닛 (66) 은 제 3 및 제 4 비트 심도들을 표시하는 제 3 및 제 4 신택스 엘리먼트들을 시그널링함이 없이, 3D 룩업 테이블의 출력 루마 성분에 대한 제 3 비트 심도를 결정하고, 3D 룩업 테이블의 출력 크로마 성분들에 대한 제 4 비트 심도를 결정할 수도 있다.
게다가, 비디오 인코더 (20) 는 비디오 데이터의 복수의 가용 참조 계층들 중에서 단지 적어도 하나의 결정된 참조 계층에서의 참조 픽처들에 대한 제한된 적용에 의해 3D 칼라 예측을 수행하도록 구성된 하나 이상의 프로세서들을 포함하는 비디오 인코딩 디바이스를 나타낼 수도 있다. 이 경우, 비디오 인코더 (20) 의 칼라 예측 프로세싱 유닛 (66) 은 3D 룩업 테이블에 대한 복수의 참조 계층들 중 적어도 하나의 참조 계층을 결정한다. 칼라 예측 프로세싱 유닛 (66) 은 칼라 성분들을 비디오 데이터의 참조 계층에 대한 제 1 색 공간 및/또는 제 1 비트 심도로부터 비디오 데이터의 향상 계층에 대한 제 2 색 공간 및/또는 제 2 비트 심도로 변환하기 위해 3D 룩업 테이블을 적어도 하나의 참조 계층에서의 참조 계층 픽처의 칼라 성분들에 적용한다. 칼라 예측 프로세싱 유닛 (66) 은 변환된 칼라 성분들에 기초하여 비디오 데이터의 향상 계층에서의 향상 계층 픽처에 대한 인터-계층 참조 픽처를 발생시킨다. 비디오 인코더 (20) 는 3D 룩업 테이블을 이용하여 발생된 인터-계층 참조 픽처에 기초하여 향상 계층 픽처에서의 비디오 블록들을 인코딩한다.
개시된 기법들에 따르면, 비디오 인코더 (20) 는 3D 룩업 테이블이 적용되는 적어도 하나의 참조 계층을 식별하는 적어도 하나의 참조 계층 ID 를 시그널링한다. 일 예에서, 비디오 인코더 (20) 는 3D 룩업 테이블이 향상 계층 픽처에 대해 적용되는 정확히 하나의 참조 계층을 식별하는 정확히 하나의 참조 계층 ID 를 시그널링할 수도 있다. 이 예에서, 칼라 예측 프로세싱 유닛 (66) 은 3D 룩업 테이블에 대한 정확히 하나의 참조 계층을 결정하고, 3D 룩업 테이블을 정확히 하나의 참조 계층에서의 참조 계층 픽처의 칼라 성분들에 적용한다. 향상 계층 픽처에 대한 인터-계층 참조 픽처를 발생시키기 위해 3D 룩업 테이블을 오직 하나의 참조 계층에서의 참조 계층 픽처들에 적용함으로써, 비디오 인코더 (20) 는 비디오 디코더 (30) 에서의 계산 복잡성을 감소시킨다.
다른 예에서, 비디오 인코더 (20) 는 3D 룩업 테이블이 향상 계층 픽처에 대해 적용되는 2개 이상의 참조 계층들을 식별하는 2개 이상의 참조 계층 ID들을 시그널링할 수도 있다. 이 예에서, 칼라 예측 프로세싱 유닛 (66) 은 3D 룩업 테이블에 대한 2개 이상의 참조 계층들을 결정하고, 3D 룩업 테이블을 2개 이상의 참조 계층들의 각각에서의 참조 계층 픽처의 칼라 성분들에 적용하고, 그리고 2개 이상의 참조 계층들로부터의 변환된 칼라 성분들의 조합에 기초하여 향상 계층 픽처에 대한 인터-계층 참조 픽처를 발생시킨다.
추가적인 예에서, 향상 계층에서의 제 1 향상 계층 픽처에 대해, 칼라 예측 프로세싱 유닛 (66) 은 향상 계층에서의 제 1 향상 계층 픽처에 대한 제 1 인터-계층 참조 픽처를 발생시키기 위해 3D 룩업 테이블이 적용되는 제 1 참조 계층을 식별하는 제 1 참조 계층 ID 를 시그널링할 수도 있다. 디스플레이 순서 또는 코딩 순서에서 제 1 향상 계층 픽처에 대한 후속 픽처일 수도 있는 향상 계층에서의 제 2 향상 계층 픽처에 대해, 칼라 예측 프로세싱 유닛 (66) 은 향상 계층에서의 제 2 향상 계층 픽처에 대한 제 2 인터-계층 참조 픽처를 발생시키기 위해 3D 룩업 테이블이 적용되는 복수의 참조 계층들의 제 2 참조 계층을 식별하는 제 2 참조 계층 ID 를 시그널링할 수도 있으며, 여기서, 제 2 참조 계층은 제 1 참조 계층과 상이하다.
더욱이, 비디오 인코더 (20) 는 3D 룩업 테이블에 의해 발생되는 인터-계층 참조 픽처에 대해 가중 예측을 수행함이 없이 3D 칼라 예측을 수행하도록 구성된 하나 이상의 프로세서들을 포함하는 비디오 인코딩 디바이스를 나타낼 수도 있다. 비디오 인코더 (20) 의 칼라 예측 프로세싱 유닛 (66) 은 적어도 하나의 참조 계층에서의 참조 계층 픽처들의 칼라 성분들에 적용되는 3D 룩업 테이블을 이용하여, 향상 계층에서의 향상 계층 픽처에 대한 인터-계층 참조 픽처를 발생시킨다. 개시된 기법들에 따르면, 인터-계층 참조 픽처 자체가 향상 계층 픽처를 예측하는데 사용된다. 인터-계층 참조 픽처가 향상 계층 픽처에 대한 가중 예측의 경우에 후보 참조 픽처들의 그룹에서의 후보 참조 픽처로서 사용되지 않는다. 인터-계층 참조 픽처에 대해 가중 예측을 적용하지 않음으로써, 비디오 인코더 (20) 는 비디오 디코더 (30) 에서의 계산 복잡성을 감소시킨다.
도 3 은 본 개시물에서 설명된 기법들을 구현할 수도 있는 비디오 디코더 (30) 의 일 예를 예시하는 블록도이다. 도 3 의 예에서, 비디오 디코더 (30) 는 엔트로피 디코딩 유닛 (70), 비디오 데이터 메모리 (71), 모션 보상 유닛 (72), 칼라 예측 프로세싱 유닛 (86), 인트라-예측 유닛 (74), 역양자화 유닛 (76), 역변환 프로세싱 유닛 (78), 디코딩된 픽처 버퍼 (82) 및 합산기 (80) 를 포함한다. 비디오 디코더 (30) 는 일부 예들에서, 비디오 인코더 (20) 에 대해 설명된 인코딩 과정과는 일반적으로 반대인 디코딩 과정을 수행할 수도 있다 (도 2). 모션 보상 유닛 (44) 은 엔트로피 디코딩 유닛 (70) 으로부터 수신된 모션 벡터들에 기초하여 예측 데이터를 발생시킬 수도 있는 반면, 인트라 예측 유닛 (74) 은 엔트로피 디코딩 유닛 (70) 으로부터 수신된 인트라-예측 모드 표시자들에 기초하여 예측 데이터를 발생시킬 수도 있다.
비디오 데이터 메모리 (71) 는 비디오 디코더 (30) 의 구성요소들에 의해 디코딩될, 인코딩된 비디오 비트스트림과 같은, 비디오 데이터를 저장할 수도 있다. 비디오 데이터 메모리 (71) 에 저장된 비디오 데이터는 예를 들어, 컴퓨터-판독가능 매체 (16) 로부터, 예컨대, 카메라와 같은 로컬 비디오 소스로부터, 비디오 데이터의 유선 또는 무선 네트워크 통신을 통해서, 또는 물리적인 데이터 저장 매체들에 액세스함으로써 획득될 수도 있다. 비디오 데이터 메모리 (71) 는 인코딩된 비디오 비트스트림으로부터 인코딩된 비디오 데이터를 저장하는 코딩된 픽처 버퍼 (CPB) 를 형성할 수도 있다. 디코딩된 픽처 버퍼 (82) 는 예컨대, 인트라- 또는 인터-코딩 모드들에서 비디오 디코더 (30) 에 의해 비디오 데이터를 디코딩할 때에 사용하기 위해 참조 비디오 데이터를 저장하는 참조 픽처 메모리일 수도 있다. 비디오 데이터 메모리 (71) 및 디코딩된 픽처 버퍼 (82) 는 동기 DRAM (SDRAM) 을 포함한 동적 랜덤 액세스 메모리 (DRAM), 자기저항 RAM (MRAM), 저항 RAM (RRAM), 또는 다른 유형들의 메모리 디바이스들과 같은, 다양한 메모리 디바이스들 중 임의의 메모리 디바이스에 의해 형성될 수도 있다. 비디오 데이터 메모리 (71) 및 디코딩된 픽처 버퍼 (82) 는 동일한 메모리 디바이스 또는 별개의 메모리 디바이스들에 의해 제공될 수도 있다. 여러 예들에서, 비디오 데이터 메모리 (71) 는 비디오 디코더 (30) 의 다른 구성요소들과의 온칩, 또는 그들 구성요소들에 대한 오프-칩일 수도 있다.
디코딩 프로세스 동안, 비디오 디코더 (30) 는 인코딩된 비디오 슬라이스의 비디오 블록들 및 연관되는 신택스 엘리먼트들을 나타내는 인코딩된 비디오 비트스트림을 비디오 인코더 (20) 로부터 수신한다. 비디오 디코더 (30) 의 엔트로피 디코딩 유닛 (70) 은 그 비트스트림을 엔트로피 디코딩하여, 양자화된 계수들, 모션 벡터들 또는 인트라-예측 모드 표시자들, 및 다른 신택스 엘리먼트들을 발생한다. 엔트로피 디코딩 유닛 (70) 은 모션 벡터들, 및 다른 신택스 엘리먼트들을 모션 보상 유닛 (72) 으로 포워딩한다. 비디오 디코더 (30) 는 신택스 엘리먼트들을 비디오 슬라이스 레벨 및/또는 비디오 블록 레벨에서 수신할 수도 있다.
비디오 슬라이스가 인트라-코딩된 (I) 슬라이스로서 코딩될 때, 인트라 예측 유닛 (74) 은 시그널링된 인트라 예측 모드 및 현재의 프레임 또는 픽처의 이전에 디코딩된 블록들로부터의 데이터에 기초하여, 현재의 비디오 슬라이스의 비디오 블록에 대한 예측 데이터를 발생시킬 수도 있다. 비디오 프레임이 인터-코딩된 (즉, B 또는 P) 슬라이스로서 코딩될 때, 모션 보상 유닛 (72) 은 엔트로피 디코딩 유닛 (70) 으로부터 수신된 모션 벡터들 및 다른 신택스 엘리먼트들에 기초하여 현재의 비디오 슬라이스의 비디오 블록에 대한 예측 블록들을 발생한다. 예측 블록들은 참조 픽처 리스트들 중 하나 내 참조 픽처들 중 하나로부터 발생될 수도 있다. 비디오 디코더 (30) 는 디코딩된 픽처 버퍼 (82) 에 저장된 참조 픽처들에 기초하여, 디폴트 구성 기법들을 이용하여, 참조 픽처 리스트들, 리스트 0 및 리스트 1 를 구성할 수도 있다.
모션 보상 유닛 (72) 은 모션 벡터들 및 다른 신택스 엘리먼트들을 파싱하여 현재의 비디오 슬라이스의 비디오 블록에 대한 예측 정보를 결정하고, 그리고, 그 예측 정보를 이용하여, 디코딩중인 현재의 비디오 블록에 대한 예측 블록들을 발생한다. 예를 들어, 모션 보상 유닛 (72) 은 그 수신된 신택스 엘리먼트들 중 일부를 이용하여, 비디오 슬라이스의 비디오 블록들을 코딩하는 사용되는 예측 모드 (예컨대, 인트라- 또는 인터-예측), 인터-예측 슬라이스 유형 (예컨대, B 슬라이스 또는 P 슬라이스), 슬라이스에 대한 참조 픽처 리스트들 중 하나 이상에 대한 구성 정보, 슬라이스의 각각의 인터-인코딩된 비디오 블록에 대한 모션 벡터들, 슬라이스의 각각의 인터-코딩된 비디오 블록에 대한 인터-예측 상태, 및 다른 정보를 결정하여, 현재의 비디오 슬라이스에서의 비디오 블록들을 디코딩한다.
모션 보상 유닛 (72) 은 또한 내삽 필터들에 기초하여 내삽을 수행할 수도 있다. 모션 보상 유닛 (72) 은 비디오 블록들의 인코딩 동안 비디오 인코더 (20) 에 의해 사용되는 것과 같은 내삽 필터들을 이용하여, 참조 블록들의 서브-정수 픽셀들에 대해 내삽된 값들을 계산할 수도 있다. 이 경우, 모션 보상 유닛 (72) 은 수신된 신택스 엘리먼트들로부터 비디오 인코더 (20) 에 의해 사용되는 내삽 필터들을 결정하고 그 내삽 필터들을 이용하여 예측 블록들을 발생할 수도 있다.
역양자화 모듈 (76) 은 비트스트림으로 제공되어 엔트로피 디코딩 유닛 (70) 에 의해 디코딩되는 양자화된 변환 계수들을 역양자화한다, 즉 양자화 해제한다. 역양자화 프로세스는 양자화의 정도를 결정하기 위해, 그리고, 이와 유사하게, 적용되어야 하는 역양자화의 정도를 결정하기 위해, 비디오 슬라이스에서의 각각의 비디오 블록에 대한, 비디오 디코더 (30) 에 의해 계산된 양자화 파라미터의 사용을 포함할 수도 있다. 역변환 프로세싱 유닛 (78) 은 역 DCT, 역 정수 변환, 또는 개념적으로 유사한 역변환 프로세스와 같은 역변환을 변환 계수들에 적용하여, 픽셀 도메인에서 잔차 블록들을 발생한다.
모션 보상 유닛 (72) 이 모션 벡터들 및 다른 신택스 엘리먼트들에 기초하여 현재의 비디오 블록에 대한 예측 블록을 발생한 후, 비디오 디코더 (30) 는 역변환 프로세싱 유닛 (78) 으로부터의 잔차 블록들을 모션 보상 유닛 (72) 에 의해 발생된 대응하는 예측 블록들과 합산함으로써, 디코딩된 비디오 블록을 형성한다. 합산기 (80) 은 이 합산 동작을 수행하는 구성요소 또는 구성요소들을 나타낸다. 원할 경우, 블록킹 현상 아티팩트들 (blockiness artifacts) 을 제거하기 위해 디블록킹 필터가 또한 그 디코딩된 블록들을 필터링하는데 적용될 수도 있다. (코딩 루프 중에 또는 코딩 루프 이후에) 다른 루프 필터들이 또한 픽셀 전환들 (pixel transitions) 을 평활화하거나 또는 아니면 비디오 품질을 향상시키기 위해 사용될 수도 있다. 주어진 프레임 또는 픽처에서 디코딩된 비디오 블록들은 그후 디코딩된 픽처 버퍼 (82) 에 저장되며, 이 메모리는 후속 모션 보상을 위해 사용되는 참조 픽처들을 저장한다. 디코딩된 픽처 버퍼 (82) 는 또한 도 1 의 디스플레이 디바이스 (32) 와 같은 디스플레이 디바이스 상에의 추후 프리젠테이션을 위해, 디코딩된 비디오를 저장한다.
비디오 디코더 (30) 는 본 개시물의 기법들을, 단독으로 또는 임의의 조합하여 수행하도록 구성될 수도 있다.
비디오 디코더 (30) 는 3D 룩업 테이블에 대한 입력 칼라 성분들의 제한된 비트 심도들에 의한 3D 칼라 예측을 수행하도록 구성된 하나 이상의 프로세서들을 포함하는 비디오 디코딩 디바이스를 나타낼 수도 있다. 이 경우, 비디오 디코더 (30) 의 칼라 예측 프로세싱 유닛 (86) 은 비디오 데이터의 참조 계층에서의 참조 계층 픽처의 칼라 성분들의 비트 심도들과 동일하도록 3D 룩업 테이블의 입력 비트 심도들을 결정한다. 이러한 방법으로, 3D 룩업 테이블의 입력 비트 심도가 향상 계층 픽처에 대한 인터-계층 참조 픽처를 발생시키기 위해 변환용 3D 룩업 테이블에 입력될 수도 있는, 참조 계층 픽처의 칼라 성분들의 비트 심도와 동일하다. 일부 예들에서, 칼라 예측 프로세싱 유닛 (86) 은 또한 참조 계층 픽처의 칼라 성분들의 비트 심도들보다 크거나 또는 동일하고 그리고 향상 계층 픽처의 칼라 성분들의 비트 심도들보다 작거나 또는 동일한 범위 이내에 있도록 3D 룩업 테이블의 출력 비트 심도들을 결정할 수도 있다. 일 예에서, 칼라 예측 프로세싱 유닛 (86) 은 향상 계층 픽처의 칼라 성분들의 비트 심도들과 동일하도록 3D 룩업 테이블의 출력 비트 심도들을 결정할 수도 있다.
본 개시물의 기법들의 일 예에 따르면, 칼라 예측 프로세싱 유닛 (86) 은 참조 계층 픽처의 루마 성분의 비트 심도와 동일한 3D 룩업 테이블의 입력 루마 성분에 대한 제 1 비트 심도를 표시하는 제 1 신택스 엘리먼트를 수신하고, 참조 계층 픽처의 크로마 성분들의 비트 심도와 동일한 3D 룩업 테이블의 입력 크로마 성분들에 대한 제 2 비트 심도를 표시하는 제 2 신택스 엘리먼트를 수신할 수도 있다. 이에 추가적으로 또는 대안적으로, 칼라 예측 프로세싱 유닛 (86) 은 참조 계층 픽처의 루마 성분의 비트 심도보다 크거나 또는 동일하고 그리고 향상 계층 픽처의 루마 성분의 비트 심도보다 작거나 또는 동일한 3D 룩업 테이블의 출력 루마 성분에 대한 제 3 비트 심도를 표시하는 제 3 신택스 엘리먼트를 수신하고, 참조 계층 픽처의 크로마 성분들의 비트 심도보다 크거나 또는 동일하고 그리고 향상 계층 픽처의 크로마 성분들의 비트 심도보다 작거나 또는 동일한 3D 룩업 테이블의 출력 크로마 성분들에 대한 제 4 비트 심도를 표시하는 제 4 신택스 엘리먼트를 수신할 수도 있다.
본 개시물의 기법들의 다른 예에서, 칼라 예측 프로세싱 유닛 (86) 은 제 1 및 제 2 비트 심도들을 포함하는 제 1 및 제 2 신택스 엘리먼트들을 수신함이 없이, 3D 룩업 테이블의 입력 루마 성분에 대한 제 1 비트 심도를 독립적으로 유도하고, 3D 룩업 테이블의 입력 크로마 성분들에 대한 제 2 비트 심도를 독립적으로 유도할 수도 있다. 이에 추가적으로 또는 대안적으로, 칼라 예측 프로세싱 유닛 (86) 은 제 3 및 제 4 비트 심도들을 표시하는 제 3 및 제 4 신택스 엘리먼트들을 수신함이 없이, 3D 룩업 테이블의 출력 루마 성분에 대한 제 3 비트 심도를 독립적으로 유도하고, 3D 룩업 테이블의 출력 크로마 성분들에 대한 제 4 비트 심도를 독립적으로 유도할 수도 있다.
칼라 예측 프로세싱 유닛 (86) 은 칼라 성분들을 비디오 데이터의 참조 계층에 대한 제 1 색 공간 및/또는 제 1 비트 심도로부터 비디오 데이터의 향상 계층에 대한 제 2 색 공간 및/또는 제 2 비트 심도로 변환하기 위해 3D 룩업 테이블을 참조 계층 픽처의 칼라 성분들에 적용한다. 칼라 예측 프로세싱 유닛 (86) 은 변환된 칼라 성분들에 기초하여 비디오 데이터의 향상 계층에서의 향상 계층 픽처에 대한 인터-계층 참조 픽처를 발생시킨다. 비디오 디코더 (30) 는 그후 3D 룩업 테이블을 이용하여 발생된 인터-계층 참조 픽처에 기초하여 향상 계층 픽처에서의 비디오 블록들을 디코딩한다.
게다가, 비디오 디코더 (30) 는 비디오 데이터의 복수의 가용 참조 계층들 중 단지 적어도 하나의 식별된 참조 계층에서의 참조 픽처들에 대한 제한된 적용에 의한 3D 칼라 예측을 수행하도록 구성된 하나 이상의 프로세서들을 포함하는 비디오 디코딩 디바이스를 나타낼 수도 있다. 이 경우, 비디오 디코더 (30) 의 칼라 예측 프로세싱 유닛 (86) 은 3D 룩업 테이블에 대한 복수의 참조 계층들 중 적어도 하나의 참조 계층을 식별하는 적어도 하나의 참조 계층 ID 를 수신한다. 칼라 예측 프로세싱 유닛 (86) 은 칼라 성분들을 비디오 데이터의 참조 계층에 대한 제 1 색 공간 및/또는 제 1 비트 심도로부터 비디오 데이터의 향상 계층에 대한 제 2 색 공간 및/또는 제 2 비트 심도로 변환하기 위해, 3D 룩업 테이블을, 적어도 하나의 참조 계층 ID 에 의해 식별된 적어도 하나의 참조 계층에서의 참조 계층 픽처의 칼라 성분들에 적용한다. 칼라 예측 프로세싱 유닛 (86) 은 변환된 칼라 성분들에 기초하여 비디오 데이터의 향상 계층에서의 향상 계층 픽처에 대한 인터-계층 참조 픽처를 발생시킨다. 비디오 디코더 (30) 는 그후 3D 룩업 테이블을 이용하여 발생된 인터-계층 참조 픽처에 기초하여 향상 계층 픽처에서의 비디오 블록들을 디코딩한다.
개시된 기법들의 일 예에서, 비디오 디코더 (30) 의 칼라 예측 프로세싱 유닛 (86) 은 3D 룩업 테이블이 향상 계층 픽처에 대해 적용되는 정확히 하나의 참조 계층을 식별하는 정확히 하나의 참조 계층 ID 를 수신할 수도 있다. 이 예에서, 칼라 예측 프로세싱 유닛 (86) 은 그후 3D 룩업 테이블을 정확히 하나의 참조 계층 ID 에 의해 식별되는 정확히 하나의 참조 계층에서의 참조 계층 픽처의 칼라 성분들에 적용한다. 3D 룩업 테이블을 오직 하나의 참조 계층에서의 참조 계층 픽처들에 적용하여 향상 계층 픽처에 대한 인터-계층 참조 픽처를 발생하는 것은 비디오 디코더 (30) 에서 계산 복잡성을 감소시킨다.
개시된 기법들의 다른 예에서, 비디오 디코더 (30) 의 칼라 예측 프로세싱 유닛 (86) 은 3D 룩업 테이블이 향상 계층 픽처에 대해 적용되는 2개 이상의 참조 계층들을 식별하는 2개 이상의 참조 계층 ID들을 수신할 수도 있다. 이 예에서, 칼라 예측 프로세싱 유닛 (86) 은 그후 3D 룩업 테이블을 2개 이상의 참조 계층 ID들에 의해 식별된 2개 이상의 참조 계층들의 각각에서의 참조 계층 픽처의 칼라 성분들에 적용하고, 2개 이상의 참조 계층들로부터의 변환된 칼라 성분들의 조합에 기초하여 향상 계층 픽처에 대한 인터-계층 참조 픽처를 발생시킨다
개시된 기법들의 추가적인 예에서, 향상 계층에서의 제 1 향상 계층 픽처에 대해, 칼라 예측 프로세싱 유닛 (86) 은 향상 계층에서의 제 1 향상 계층 픽처에 대한 제 1 인터-계층 참조 픽처를 발생시키기 위해 3D 룩업 테이블이 적용되는 제 1 참조 계층을 식별하는 제 1 참조 계층 ID 를 수신할 수도 있다. 디스플레이 순서 또는 코딩 순서에서 제 1 향상 계층 픽처에 대한 후속 픽처일 수도 있는 향상 계층에서의 제 2 향상 계층 픽처에 대해, 칼라 예측 프로세싱 유닛 (86) 은 향상 계층에서의 제 2 향상 계층 픽처에 대한 제 2 인터-계층 참조 픽처를 발생시키기 위해 3D 룩업 테이블이 적용되는 복수의 참조 계층들의 제 2 참조 계층을 식별하는 제 2 참조 계층 ID 를 수신할 수도 있으며, 여기서, 제 2 참조 계층은 제 1 참조 계층과 상이하다.
더욱이, 비디오 디코더 (30) 는 3D 룩업 테이블에 의해 발생되는 인터-계층 참조 픽처에 대해 가중 예측을 수행함이 없이 3D 칼라 예측을 수행하도록 구성된 하나 이상의 프로세서들을 포함하는 비디오 디코딩 디바이스를 나타낼 수도 있다. 비디오 디코더 (30) 의 칼라 예측 프로세싱 유닛 (86) 은 적어도 하나의 참조 계층에서의 참조 계층 픽처들의 칼라 성분들에 적용되는 3D 룩업 테이블을 이용하여 향상 계층에서의 향상 계층 픽처에 대한 인터-계층 참조 픽처를 발생시킨다. 개시된 기법들에 따르면, 인터-계층 참조 픽처 자체가 향상 계층 픽처를 예측하는데 사용된다. 인터-계층 참조 픽처가 향상 계층 픽처에 대한 가중 예측의 경우에 후보 참조 픽처들의 그룹에서의 후보 참조 픽처로서 사용되지 않는다. 인터-계층 참조 픽처 상에서 가중 예측을 적용하지 않는 것은 비디오 디코더 (30) 에서의 계산 복잡성을 감소시킨다.
도 15 는 3D 룩업 테이블에 대한 입력 칼라 성분들의 제한된 비트 심도들에 의해 3D 칼라 예측을 수행하도록 구성된 비디오 인코더의 예시적인 동작을 예시하는 플로우차트이다. 도 15 의 예시적인 동작은 도 2 의 비디오 인코더 (20) 의 칼라 예측 프로세싱 유닛 (66) 에 의해 수행되는 것으로 본원에서 설명된다. 다른 예들에서, 동작은 도 10 의 칼라 예측 프로세싱 유닛 (144) 에 의해 수행될 수도 있다.
비디오 인코더 (20) 의 칼라 예측 프로세싱 유닛 (66) 은 색 공간 스케일러빌리티에 대한 3D 룩업 테이블을 발생시켜, 3D 칼라 예측을 수행할 수도 있다. 3D 룩업 테이블은 코딩될 비디오 데이터에 대한 픽처 파라미터 세트 (PPS) 에서 시그널링되어, PPS 에 의해 참조되는 하나 이상의 픽처들에 적용된다. PPS 는 비디오 데이터의 향상 계층에서의 하나 이상의 향상 계층 픽처들, 및 비디오 데이터의 하나 이상의 참조 계층들에서의 하나 이상의 동일 위치에 배치된 참조 계층 픽처들을 참조할 수도 있다. 예를 들어, 각각의 3D 룩업 테이블은 참조 계층들에 포함되는 동일 위치에 배치된 참조 계층 픽처들에 기초하여, 향상 계층에 포함되는 향상 계층 픽처들에 대한 인터-계층 참조 픽처들을 발생시키는데 사용될 수도 있다. 참조 계층들은 기초 계층들 및/또는 향상 계층보다 낮은 비디오 데이터의 계층들을 포함할 수도 있다.
본 개시물의 기법들에 따르면, 칼라 예측 프로세싱 유닛 (66) 은 비디오 데이터의 참조 계층에서의 참조 계층 픽처의 칼라 성분들의 비트 심도들과 동일하도록 3D 룩업 테이블의 입력 비트 심도들을 결정한다 (160). 예를 들어, 칼라 예측 프로세싱 유닛 (66) 은 참조 계층 픽처의 루마 성분의 비트 심도와 동일한 3D 룩업 테이블의 입력 루마 성분에 대한 제 1 비트 심도를 결정할 수도 있다. 칼라 예측 프로세싱 유닛 (66) 은 참조 계층 픽처의 크로마 성분들의 비트 심도와 동일한 3D 룩업 테이블의 입력 크로마 성분들에 대한 제 2 비트 심도를 결정할 수도 있다. 이러한 방법으로, 3D 룩업 테이블의 입력 비트 심도가 향상 계층 픽처에 대한 인터-계층 참조 픽처를 발생시키기 위해 변환용 3D 룩업 테이블에 입력될 수도 있는, 참조 계층 픽처의 칼라 성분들의 비트 심도와 동일하다.
일부 예들에서, 칼라 예측 프로세싱 유닛 (66) 은 또한 참조 계층 픽처의 칼라 성분들의 비트 심도들과 향상 계층 픽처의 칼라 성분들의 비트 심도들 사이의 범위 이내에 있도록 3D 룩업 테이블의 출력 비트 심도들을 결정할 수도 있다. 예를 들어, 칼라 예측 프로세싱 유닛 (66) 은 참조 계층 픽처의 루마 성분의 비트 심도보다 크거나 또는 동일하고 그리고 향상 계층 픽처의 루마 성분의 비트 심도보다 작거나 또는 동일한 3D 룩업 테이블의 출력 루마 성분에 대한 제 3 비트 심도를 결정하고, 참조 계층 픽처의 크로마 성분들의 비트 심도보다 크거나 또는 동일하고 그리고 향상 계층 픽처의 크로마 성분들의 비트 심도보다 작거나 또는 동일한 3D 룩업 테이블의 출력 크로마 성분들에 대한 제 4 비트 심도를 결정할 수도 있다. 일 예에서, 칼라 예측 프로세싱 유닛 (66) 은 향상 계층 픽처의 칼라 성분들의 비트 심도들과 동일하도록 3D 룩업 테이블의 출력 비트 심도들을 결정할 수도 있다.
칼라 예측 프로세싱 유닛 (66) 은 그후 칼라 성분들을 비디오 데이터의 참조 계층에 대한 제 1 색 공간으로부터 비디오 데이터의 향상 계층에 대한 제 2 색 공간으로 변환하기 위해 3D 룩업 테이블을 참조 계층 픽처의 칼라 성분들에 적용한다 (162). 칼라 성분들을 변환하는 것은 참조 계층의 비트 심도를 향상 계층의 비트 심도로 변환하는 것을 포함할 수도 있다. 칼라 예측 프로세싱 유닛 (66) 은 변환된 칼라 성분들에 기초하여 비디오 데이터의 향상 계층에서의 향상 계층 픽처에 대한 인터-계층 참조 픽처를 발생시킨다 (164).
비디오 인코더 (20) 는 3D 룩업 테이블을 이용하여 발생된 인터-계층 참조 픽처에 기초하여 향상 계층 픽처에서의 비디오 블록들을 인코딩한다 (166). 비디오 인코더 (20) 는 그후 인코딩된 비디오 데이터 및 연관된 신택스 엘리먼트들의 비트스트림을 시그널링한다 (168). 예를 들어, 본 개시물의 기법들에 따르면, 비디오 인코더 (20) 는 참조 계층 픽처의 루마 성분의 비트 심도와 동일한 3D 룩업 테이블의 입력 루마 성분에 대한 제 1 비트 심도를 표시하는 제 1 신택스 엘리먼트를 시그널링하고, 참조 계층 픽처의 크로마 성분들의 비트 심도와 동일한 3D 룩업 테이블의 입력 크로마 성분들에 대한 제 2 비트 심도를 표시하는 제 2 신택스 엘리먼트를 시그널링할 수도 있다. 이에 추가적으로 또는 대안적으로, 비디오 인코더 (20) 는 참조 계층 픽처의 루마 성분의 비트 심도보다 크거나 또는 동일하고 그리고 향상 계층 픽처의 루마 성분의 비트 심도보다 작거나 또는 동일한 3D 룩업 테이블의 출력 루마 성분에 대한 제 3 비트 심도를 표시하는 제 3 신택스 엘리먼트를 시그널링하고, 참조 계층 픽처의 크로마 성분들의 비트 심도보다 크거나 또는 동일하고 그리고 향상 계층 픽처의 크로마 성분들의 비트 심도보다 작거나 또는 동일한 3D 룩업 테이블의 출력 크로마 성분들에 대한 제 4 비트 심도를 표시하는 제 4 신택스 엘리먼트를 시그널링할 수도 있다.
도 16 은 3D 룩업 테이블에 대한 입력 칼라 성분들의 제한된 비트 심도들에 의해 3D 칼라 예측을 수행하도록 구성된 비디오 디코더의 예시적인 동작을 예시하는 플로우차트이다. 도 16 의 예시적인 동작은 도 3 의 비디오 디코더 (30) 의 칼라 예측 프로세싱 유닛 (86) 에 의해 수행되는 것으로 본원에서 설명된다. 다른 예들에서, 동작은 도 10 의 칼라 예측 프로세싱 유닛 (144) 에 의해 수행될 수도 있다.
비디오 디코더 (30) 는 인코딩된 비디오 데이터 및 연관된 신택스 엘리먼트들의 비트스트림을 수신한다 (170). 신택스 엘리먼트들 중 하나 이상에 기초하여, 비디오 디코더 (30) 의 칼라 예측 프로세싱 유닛 (86) 은 색 공간 스케일러빌리티에 대한 3D 룩업 테이블을 발생시켜, 3D 칼라 예측을 수행할 수도 있다. 3D 룩업 테이블은 코딩될 비디오 데이터에 대한 PPS 에서 시그널링되어, PPS 에 의해 참조되는 하나 이상의 픽처들에 적용될 수도 있다. PPS 는 비디오 데이터의 향상 계층에서의 하나 이상의 향상 계층 픽처들, 및 비디오 데이터의 하나 이상의 참조 계층들에서의 하나 이상의 동일 위치에 배치된 참조 계층 픽처들을 참조할 수도 있다. 예를 들어, 각각의 3D 룩업 테이블은 참조 계층들에 포함되는 동일 위치에 배치된 참조 계층 픽처들에 기초하여, 향상 계층에 포함되는 향상 계층 픽처들에 대한 인터-계층 참조 픽처들을 발생시키는데 사용될 수도 있다. 참조 계층들은 기초 계층들 및/또는 향상 계층보다 낮은 비디오 데이터의 계층들을 포함할 수도 있다.
본 개시물의 기법들에 따르면, 칼라 예측 프로세싱 유닛 (86) 은 비디오 데이터의 참조 계층에서의 참조 계층 픽처의 칼라 성분들의 비트 심도들과 동일하도록 3D 룩업 테이블의 입력 비트 심도들을 결정한다 (172). 이러한 방법으로, 3D 룩업 테이블의 입력 비트 심도가 향상 계층 픽처에 대한 인터-계층 참조 픽처를 발생시키기 위해 변환용 3D 룩업 테이블에 입력될 수도 있는, 참조 계층 픽처의 칼라 성분들의 비트 심도와 동일하다.
일 예에서, 칼라 예측 프로세싱 유닛 (86) 은 참조 계층 픽처의 루마 성분의 비트 심도와 동일하도록 제한되는 3D 룩업 테이블의 입력 루마 성분에 대한 제 1 비트 심도를 표시하는 제 1 신택스 엘리먼트를 수신하고, 참조 계층 픽처의 크로마 성분들의 비트 심도와 동일하도록 제한되는 3D 룩업 테이블의 입력 크로마 성분들에 대한 제 2 비트 심도를 표시하는 제 2 신택스 엘리먼트를 수신할 수도 있다. 다른 예에서, 칼라 예측 프로세싱 유닛 (86) 은 참조 계층 픽처의 루마 성분의 비트 심도와 동일하게 3D 룩업 테이블의 입력 루마 성분에 대한 제 1 비트 심도를 독립적으로 유도하고, 참조 계층 픽처의 크로마 성분들의 비트 심도와 동일하게 3D 룩업 테이블의 입력 크로마 성분들에 대한 제 2 비트 심도를 독립적으로 유도할 수도 있다.
일부 예들에서, 칼라 예측 프로세싱 유닛 (86) 은 또한 참조 계층 픽처의 칼라 성분들의 비트 심도들과 향상 계층 픽처의 칼라 성분들의 비트 심도들 사이의 범위 이내에 있도록 3D 룩업 테이블의 출력 비트 심도들을 결정할 수도 있다. 예를 들어, 칼라 예측 프로세싱 유닛 (86) 은 향상 계층 픽처의 칼라 성분들의 비트 심도들과 동일하게, 3D 룩업 테이블의 출력 비트 심도들을 결정할 수도 있다.
일 예에서, 칼라 예측 프로세싱 유닛 (86) 은 참조 계층 픽처의 루마 성분의 비트 심도보다 크거나 또는 동일하고 그리고 향상 계층 픽처의 루마 성분의 비트 심도보다 작거나 또는 동일하도록 제한되는 3D 룩업 테이블의 출력 루마 성분에 대한 제 3 비트 심도를 표시하는 제 3 신택스 엘리먼트를 수신하고, 참조 계층 픽처의 크로마 성분들의 비트 심도보다 크거나 또는 동일하고 그리고 향상 계층 픽처의 크로마 성분들의 비트 심도보다 작거나 또는 동일하도록 제한되는 3D 룩업 테이블의 출력 크로마 성분들에 대한 제 4 비트 심도를 표시하는 제 4 신택스 엘리먼트를 수신할 수도 있다. 다른 예에서, 칼라 예측 프로세싱 유닛 (86) 은 참조 계층 픽처의 루마 성분의 비트 심도보다 크거나 또는 동일하고 그리고 향상 계층 픽처의 루마 성분의 비트 심도보다 작거나 또는 동일하게 3D 룩업 테이블의 출력 루마 성분에 대한 제 3 비트 심도를 독립적으로 유도하고, 참조 계층 픽처의 크로마 성분들의 비트 심도보다 크거나 또는 동일하고 그리고 향상 계층 픽처의 크로마 성분들의 비트 심도보다 작거나 또는 동일하게 3D 룩업 테이블의 출력 크로마 성분들에 대한 제 4 비트 심도를 독립적으로 유도할 수도 있다.
칼라 예측 프로세싱 유닛 (86) 은 그후 칼라 성분들을 비디오 데이터의 참조 계층에 대한 제 1 색 공간으로부터 비디오 데이터의 향상 계층에 대한 제 2 색 공간으로 변환하기 위해 3D 룩업 테이블을 참조 계층 픽처의 칼라 성분들에 적용한다 (174). 칼라 성분들을 변환하는 것은 참조 계층의 비트 심도를 향상 계층의 비트 심도로 변환하는 것을 포함할 수도 있다. 칼라 예측 프로세싱 유닛 (86) 은 변환된 칼라 성분들에 기초하여 비디오 데이터의 향상 계층에서의 향상 계층 픽처에 대한 인터-계층 참조 픽처를 발생시킨다 (176). 비디오 디코더 (30) 는 그후 3D 룩업 테이블을 이용하여 발생된 인터-계층 참조 픽처에 기초하여 향상 계층 픽처에서의 비디오 블록들을 디코딩한다 (178).
도 17 은 단지 적어도 하나의 결정된 참조 계층에서의 참조 픽처들에 대한 제한된 적용에 의해 3D 칼라 예측을 수행하도록 구성된 비디오 인코더의 예시적인 동작을 예시하는 플로우차트이다. 도 17 의 예시적인 동작은 도 2 의 비디오 인코더 (20) 의 칼라 예측 프로세싱 유닛 (66) 에 의해 수행되는 것으로 본원에서 설명된다. 다른 예들에서, 동작은 도 10 의 칼라 예측 프로세싱 유닛 (144) 에 의해 수행될 수도 있다.
비디오 인코더 (20) 의 칼라 예측 프로세싱 유닛 (66) 은 색 공간 스케일러빌리티에 대한 3D 룩업 테이블을 발생시켜, 3D 칼라 예측을 수행할 수도 있다. 일 예에서, 3D 룩업 테이블은 코딩될 비디오 데이터에 대한 PPS 에서 시그널링되어, PPS 에 의해 참조되는 하나 이상의 픽처들에 적용될 수도 있다. PPS 는 비디오 데이터의 향상 계층에서의 하나 이상의 향상 계층 픽처들, 및 비디오 데이터의 하나 이상의 참조 계층들에서의 하나 이상의 동일 위치에 배치된 참조 계층 픽처들을 참조할 수도 있다. 참조 계층들은 기초 계층들 및/또는 향상 계층보다 낮은 비디오 데이터의 계층들을 포함할 수도 있다.
본 개시물의 기법들에 따르면, 칼라 예측 프로세싱 유닛 (66) 은 3D 룩업 테이블에 대한 비디오 데이터의 복수의 참조 계층들 중 적어도 하나의 참조 계층을 결정한다 (180). 칼라 예측 프로세싱 유닛 (66) 은 그후 칼라 성분들을 비디오 데이터의 참조 계층에 대한 제 1 색 공간으로부터 비디오 데이터의 향상 계층에 대한 제 2 색 공간으로 변환하기 위해 3D 룩업 테이블을 적어도 하나의 참조 계층에서의 참조 계층 픽처의 칼라 성분들에 적용한다 (182). 칼라 성분들을 변환하는 것은 참조 계층의 비트 심도를 향상 계층의 비트 심도로 변환하는 것을 포함할 수도 있다. 칼라 예측 프로세싱 유닛 (66) 은 변환된 칼라 성분들에 기초하여 비디오 데이터의 향상 계층에서의 향상 계층 픽처에 대한 인터-계층 참조 픽처를 발생시킨다 (184).
비디오 인코더 (20) 는 3D 룩업 테이블을 이용하여 발생된 인터-계층 참조 픽처에 기초하여 향상 계층 픽처에서의 비디오 블록들을 인코딩한다 (186). 비디오 인코더 (20) 는 그후 3D 룩업 테이블이 적용되는 적어도 하나의 참조 계층을 식별하는 적어도 하나의 참조 계층 ID 를 포함하여, 인코딩된 비디오 데이터 및 연관된 신택스 엘리먼트들의 비트스트림을 시그널링한다 (188). 일 예에서, 비디오 인코더 (20) 는 3D 룩업 테이블이 향상 계층 픽처에 대해 적용되는 정확히 하나의 참조 계층을 식별하는 정확히 하나의 참조 계층 ID 를 시그널링할 수도 있다. 이 예에서, 칼라 예측 프로세싱 유닛 (66) 은 3D 룩업 테이블에 대한 정확히 하나의 참조 계층을 결정하고, 3D 룩업 테이블을 정확히 하나의 참조 계층에서의 참조 계층 픽처의 칼라 성분들에 적용한다.
다른 예에서, 비디오 인코더 (20) 는 3D 룩업 테이블이 향상 계층 픽처에 대해 적용되는 2개 이상의 참조 계층들을 식별하는 2개 이상의 참조 계층 ID들을 시그널링할 수도 있다. 이 예에서, 칼라 예측 프로세싱 유닛 (66) 은 3D 룩업 테이블에 대한 2개 이상의 참조 계층들을 결정하고, 3D 룩업 테이블을 2개 이상의 참조 계층들의 각각에서의 참조 계층 픽처의 칼라 성분들에 적용하고, 그리고 2개 이상의 참조 계층들로부터의 변환된 칼라 성분들의 조합에 기초하여 향상 계층 픽처에 대한 인터-계층 참조 픽처를 발생시킨다.
추가적인 예에서, 향상 계층에서의 제 1 향상 계층 픽처에 대해, 칼라 예측 프로세싱 유닛 (66) 은 향상 계층에서의 제 1 향상 계층 픽처에 대한 제 1 인터-계층 참조 픽처를 발생시키기 위해 3D 룩업 테이블이 적용되는 제 1 참조 계층을 식별하는 제 1 참조 계층 ID 를 시그널링할 수도 있다. 디스플레이 순서 또는 코딩 순서에서 제 1 향상 계층 픽처에 대한 후속 픽처일 수도 있는 향상 계층에서의 제 2 향상 계층 픽처에 대해, 칼라 예측 프로세싱 유닛 (66) 은 향상 계층에서의 제 2 향상 계층 픽처에 대한 제 2 인터-계층 참조 픽처를 발생시키기 위해 3D 룩업 테이블이 적용되는 복수의 참조 계층들의 제 2 참조 계층을 식별하는 제 2 참조 계층 ID 를 시그널링할 수도 있으며, 여기서, 제 2 참조 계층은 제 1 참조 계층과 상이하다.
도 18 은 단지 적어도 하나의 식별된 참조 계층에서의 참조 픽처들에 대한 제한된 적용에 의해 3D 칼라 예측을 수행하도록 구성된 비디오 디코더의 예시적인 동작을 예시하는 플로우차트이다. 도 18 의 예시적인 동작은 도 3 의 비디오 디코더 (30) 의 칼라 예측 프로세싱 유닛 (86) 에 의해 수행되는 것으로 본원에서 설명된다. 다른 예들에서, 동작은 도 10 의 칼라 예측 프로세싱 유닛 (144) 에 의해 수행될 수도 있다.
비디오 디코더 (30) 는 3D 룩업 테이블에 대한 복수의 참조 계층들 중 적어도 하나의 참조 계층을 식별하는 적어도 하나의 참조 계층 ID 를 포함하여, 인코딩된 비디오 데이터 및 연관된 신택스 엘리먼트들의 비트스트림을 수신한다 (190). 신택스 엘리먼트들 중 하나 이상에 기초하여, 비디오 디코더 (30) 의 칼라 예측 프로세싱 유닛 (86) 은 색 공간 스케일러빌리티에 대한 3D 룩업 테이블을 발생시켜, 3D 칼라 예측을 수행할 수도 있다. 3D 룩업 테이블은 코딩될 비디오 데이터에 대한 PPS 에서 시그널링되어, PPS 에 의해 참조되는 하나 이상의 픽처들에 적용될 수도 있다. PPS 는 비디오 데이터의 향상 계층에서의 하나 이상의 향상 계층 픽처들, 및 비디오 데이터의 하나 이상의 참조 계층들에서의 하나 이상의 동일 위치에 배치된 참조 계층 픽처들을 참조할 수도 있다. 참조 계층들은 기초 계층들 및/또는 향상 계층보다 낮은 비디오 데이터의 계층들을 포함할 수도 있다.
본 개시물의 기법들에 따르면, 비트스트림에서 수신된 3D 룩업 테이블에 대한 적어도 하나의 참조 계층 ID 는 향상 계층에 포함되는 주어진 향상 계층 픽처에 대한 인터-계층 참조 픽처를 발생시키기 위해 3D 룩업 테이블이 적용되는 비디오 데이터의 참조 계층들 중 적어도 하나를 식별한다. 칼라 예측 프로세싱 유닛 (86) 은 그후 칼라 성분들을 비디오 데이터의 참조 계층에 대한 제 1 색 공간으로부터 비디오 데이터의 향상 계층에 대한 제 2 색 공간으로 변환하기 위해 3D 룩업 테이블을 적어도 하나의 참조 계층 ID 에 의해 식별된 적어도 하나의 참조 계층에서의 참조 계층 픽처의 칼라 성분들에 적용한다 (192). 칼라 성분들을 변환하는 것은 참조 계층의 비트 심도를 향상 계층의 비트 심도로 변환하는 것을 포함할 수도 있다. 칼라 예측 프로세싱 유닛 (86) 은 변환된 칼라 성분들에 기초하여 비디오 데이터의 향상 계층에서의 향상 계층 픽처에 대한 인터-계층 참조 픽처를 발생시킨다 (194). 비디오 디코더 (30) 는 그후 3D 룩업 테이블을 이용하여 발생된 인터-계층 참조 픽처에 기초하여 향상 계층 픽처에서의 비디오 블록들을 디코딩한다 (196).
일 예에서, 비디오 디코더 (30) 의 칼라 예측 프로세싱 유닛 (86) 은 3D 룩업 테이블이 향상 계층 픽처에 대해 적용되는 정확히 하나의 참조 계층을 식별하는 정확히 하나의 참조 계층 ID 를 수신할 수도 있다. 이 예에서, 칼라 예측 프로세싱 유닛 (86) 은 그후 3D 룩업 테이블을 정확히 하나의 참조 계층 ID 에 의해 식별되는 정확히 하나의 참조 계층에서의 참조 계층 픽처의 칼라 성분들에 적용한다.
다른 예에서, 비디오 디코더 (30) 의 칼라 예측 프로세싱 유닛 (86) 은 3D 룩업 테이블이 향상 계층 픽처에 대해 적용되는 2개 이상의 참조 계층들을 식별하는 2개 이상의 참조 계층 ID들을 수신할 수도 있다. 이 예에서, 칼라 예측 프로세싱 유닛 (86) 은 그후 3D 룩업 테이블을 2개 이상의 참조 계층 ID들에 의해 식별된 2개 이상의 참조 계층들의 각각에서의 참조 계층 픽처의 칼라 성분들에 적용하고, 2개 이상의 참조 계층들로부터의 변환된 칼라 성분들의 조합에 기초하여 향상 계층 픽처에 대한 인터-계층 참조 픽처를 발생시킨다
추가적인 예에서, 향상 계층에서의 제 1 향상 계층 픽처에 대해, 칼라 예측 프로세싱 유닛 (86) 은 향상 계층에서의 제 1 향상 계층 픽처에 대한 제 1 인터-계층 참조 픽처를 발생시키기 위해 3D 룩업 테이블이 적용되는 제 1 참조 계층을 식별하는 제 1 참조 계층 ID 를 수신할 수도 있다. 디스플레이 순서 또는 코딩 순서에서 제 1 향상 계층 픽처에 대한 후속 픽처일 수도 있는 향상 계층에서의 제 2 향상 계층 픽처에 대해, 칼라 예측 프로세싱 유닛 (86) 은 향상 계층에서의 제 2 향상 계층 픽처에 대한 제 2 인터-계층 참조 픽처를 발생시키기 위해 3D 룩업 테이블이 적용되는 복수의 참조 계층들의 제 2 참조 계층을 식별하는 제 2 참조 계층 ID 를 수신할 수도 있으며, 여기서, 제 2 참조 계층은 제 1 참조 계층과 상이하다.
본 개시물의 어떤 양태들은 예시의 목적을 위해 HEVC 표준에 대해서 설명되었다. 그러나, 본 개시물에서 설명하는 기법들은 아직 개발되지 않은 다른 표준 또는 독점 비디오 코딩 프로세스들을 포함한, 다른 비디오 코딩 프로세스들에 유용할 수도 있다.
비디오 코더는, 본 개시물에서 설명하는 바와 같이, 비디오 인코더 또는 비디오 디코더를 지칭할 수도 있다. 이와 유사하게, 비디오 코딩 유닛은 비디오 인코더 또는 비디오 디코더를 지칭할 수도 있다. 이와 유사하게, 비디오 코딩은 적용가능한 경우, 비디오 인코딩 또는 비디오 디코딩을 지칭할 수도 있다.
그 예에 따라서, 본원에서 설명되는 기법들 중 임의의 기법의 어떤 행위들 또는 이벤트들이 상이한 시퀀스로 수행될 수 있으며, 추가되거나, 병합되거나, 또는 모두 제외시킬 수도 있는 (예컨대, 모든 설명되는 행위들 또는 이벤트들이 기법들의 실시에 필수적인 것은 아닌) 것으로 인식되어야 한다. 더욱이, 어떤 예들에서, 행위들 또는 이벤트들은 순차적으로 보다는, 동시에, 예컨대, 멀티-쓰레드된 프로세싱, 인터럽트 프로세싱, 또는 다수의 프로세서들을 통해서 수행될 수도 있다.
하나 이상의 예들에서, 설명된 기능들은 하드웨어, 소프트웨어, 펌웨어, 또는 이들의 임의의 조합으로 구현될 수도 있다. 소프트웨어로 구현되는 경우, 그 기능들은 하나 이상의 명령들 또는 코드로서, 컴퓨터-판독가능 매체 상에 저장되거나 또는 컴퓨터-판독가능 매체를 통해서 송신될 수도 있으며, 하드웨어-기반의 프로세싱 유닛에 의해 실행될 수도 있다. 컴퓨터-판독가능 매체는 컴퓨터-판독가능 저장 매체들을 포함할 수도 있으며, 이 컴퓨터-판독가능 저장 매체들은 데이터 저장 매체와 같은 유형의 매체, 또는 예컨대, 통신 프로토콜에 따라서 한 장소로부터 다른 장소로의 컴퓨터 프로그램의 전송을 용이하게 하는 임의의 매체를 포함한 통신 매체들에 대응한다. 이런 방법으로, 컴퓨터-판독가능 매체들은 일반적으로 (1) 비일시성 유형의 컴퓨터-판독가능 저장 매체, 또는 (2) 신호 또는 캐리어 파와 같은 통신 매체에 대응할 수도 있다. 데이터 저장 매체는 본 개시물에서 설명하는 기법들의 구현을 위한 명령들, 코드 및/또는 데이터 구조들을 취출하기 위해 하나 이상의 컴퓨터들 또는 하나 이상의 프로세서들에 의해 액세스될 수 있는 임의의 가용 매체들일 수도 있다. 컴퓨터 프로그램 제품은 컴퓨터-판독가능 매체를 포함할 수도 있다.
일 예로서, 이에 한정하지 않고, 이런 컴퓨터-판독가능 저장 매체는 RAM, ROM, EEPROM, CD-ROM 또는 다른 광디스크 스토리지, 자기디스크 스토리지, 또는 다른 자기 저장 디바이스들, 플래시 메모리, 또는 원하는 프로그램 코드를 명령들 또는 데이터 구조들의 형태로 저장하는데 사용될 수 있고 컴퓨터에 의해 액세스될 수 있는 임의의 다른 매체를 포함할 수 있다. 또한, 임의의 접속이 컴퓨터-판독가능 매체로 적절히 지칭된다. 예를 들어, 동축 케이블, 광섬유 케이블, 연선, 디지털 가입자 회선 (DSL), 또는 무선 기술들, 예컨대 적외선, 라디오, 및 마이크로파를 이용하여 명령들이 웹사이트, 서버, 또는 다른 원격 소스로부터 송신되는 경우, 동축 케이블, 광섬유 케이블, 연선, DSL, 또는 무선 기술들 예컨대 적외선, 라디오, 및 마이크로파가 그 매체의 정의에 포함된다. 그러나, 컴퓨터-판독가능 저장 매체 및 데이터 저장 매체는 접속부들, 캐리어 파들, 신호들, 또는 다른 일시성 매체를 포함하지 않고, 그 대신, 비-일시성 유형의 저장 매체로 송신되는 것으로 해석되어야 한다. 디스크 (disk) 및 디스크 (disc) 는, 본원에서 사용할 때, 컴팩트 디스크 (CD), 레이저 디스크, 광 디스크, 디지털 다기능 디스크 (DVD), 플로피 디스크 및 Blu-ray 디스크를 포함하며, 디스크들 (disks) 은 데이터를 자기적으로 보통 재생하지만, 디스크들 (discs) 은 레이저로 데이터를 광학적으로 재생한다. 앞에서 언급한 것들의 결합들이 또한 컴퓨터-판독가능 매체들의 범위 내에 포함되어야 한다.
명령들은 하나 이상의 디지털 신호 프로세서들 (DSP들), 범용 마이크로프로세서들, 주문형 집적회로들 (ASIC들), 필드 프로그래밍가능 로직 어레이들 (FPGA들), 또는 다른 등가의 집적 또는 이산 로직 회로와 같은, 하나 이상의 프로세서들에 의해 실행될 수도 있다. 따라서, 용어 "프로세서" 는, 본원에서 사용될 때 전술한 구조 중 임의의 구조 또는 본원에서 설명하는 기법들의 구현에 적합한 임의의 다른 구조를 지칭할 수도 있다. 게다가, 일부 양태들에서, 본원에서 설명하는 기능은 인코딩 및 디코딩을 위해 구성되는 전용 하드웨어 및/또는 소프트웨어 모듈들 내에 제공되거나, 또는 결합된 코덱에 포함될 수도 있다. 또한, 이 기법들은 하나 이상의 회로들 또는 로직 엘리먼트들로 전적으로 구현될 수 있다.
본 개시물의 기법들은 무선 핸드셋, 집적 회로 (IC) 또는 IC들의 세트 (예컨대, 칩 세트) 를 포함한, 매우 다양한 디바이스들 또는 장치들로 구현될 수도 있다. 개시한 기법들을 수행하도록 구성되는 디바이스들의 기능적 양태들을 강조하기 위해서 여러 구성요소들, 모듈들, 또는 유닛들이 본 개시물에서 설명되지만, 상이한 하드웨어 유닛들에 의한 실현을 반드시 필요로 하지는 않는다. 대신, 위에서 설명한 바와 같이, 여러 유닛들이 코덱 하드웨어 유닛에 결합되거나 또는 적합한 소프트웨어 및/또는 펌웨어와 함께, 위에서 설명한 바와 같은 하나 이상의 프로세서들을 포함한, 상호작용하는 하드웨어 유닛들의 컬렉션으로 제공될 수도 있다.
여러 예들이 설명되었다. 이들 및 다른 예들은 다음 청구항들의 범위 이내이다.

Claims (28)

  1. 비디오 데이터를 디코딩하는 방법으로서,
    색 공간 (color gamut) 스케일러빌리티에 대한 3차원 (3D) 룩업 테이블의 입력 루마 성분에 대한 제 1 비트 심도를 표시하는 제 1 신택스 엘리먼트를 수신하는 단계로서, 상기 제 1 비트 심도는 상기 비디오 데이터의 참조 계층에서의 참조 계층 픽처의 루마 성분의 비트 심도와 동일하도록 제한되는, 상기 제 1 신택스 엘리먼트를 수신하는 단계;
    상기 3D 룩업 테이블의 입력 크로마 성분들에 대한 제 2 비트 심도를 표시하는 제 2 신택스 엘리먼트를 수신하는 단계로서, 상기 제 2 비트 심도는 상기 참조 계층 픽처의 크로마 성분들의 비트 심도와 동일하도록 제한되는, 상기 제 2 신택스 엘리먼트를 수신하는 단계;
    상기 참조 계층 픽처의 상기 루마 성분 및 상기 크로마 성분들을 상기 비디오 데이터의 상기 참조 계층에 대한 제 1 색 공간으로부터 상기 비디오 데이터의 향상 계층에 대한 제 2 색 공간으로 변환하기 위해, 상기 참조 계층 픽처의 상기 루마 성분 및 상기 크로마 성분들에 직접 상기 3D 룩업 테이블을 적용하는 단계로서, 상기 참조 계층 픽처의 상기 루마 성분 및 상기 크로마 성분들에 직접 상기 3D 룩업 테이블을 적용하는 것은 상기 3D 룩업 테이블의 상기 입력 루마 성분에 대한 상기 제 1 비트 심도 및 상기 입력 크로마 성분들에 대한 상기 제 2 비트 심도와 각각 동일한 비트 심도들을 갖는 상기 3D 룩업 테이블의 입력으로서 상기 참조 계층 픽처의 상기 루마 성분 및 상기 크로마 성분들을 이용하는 것을 포함하는, 상기 3D 룩업 테이블을 적용하는 단계;
    상기 참조 계층 픽처의 변환된 상기 루마 성분 및 변환된 상기 크로마 성분들에 기초하여 상기 비디오 데이터의 상기 향상 계층에서의 향상 계층 픽처에 대해 인터-계층 참조 픽처를 발생시키는 단계; 및
    상기 3D 룩업 테이블을 사용하여 생성된 상기 인터-계층 참조 픽처에 기초하여 상기 향상 계층 픽처의 비디오 블록들을 디코딩하는 단계를 포함하는, 비디오 데이터를 디코딩하는 방법.
  2. 제 1 항에 있어서,
    상기 3D 룩업 테이블의 출력 루마 성분에 대한 제 3 비트 심도를 표시하는 제 3 신택스 엘리먼트를 수신하는 단계로서, 상기 제 3 비트 심도는 상기 참조 계층 픽처의 상기 루마 성분의 상기 비트 심도보다 크거나 또는 동일하고 그리고 상기 향상 계층 픽처의 루마 성분의 비트 심도보다 적거나 또는 동일하도록 제한되는, 상기 제 3 신택스 엘리먼트를 수신하는 단계; 및
    상기 3D 룩업 테이블의 출력 크로마 성분들에 대한 제 4 비트 심도를 표시하는 제 4 신택스 엘리먼트를 수신하는 단계로서, 상기 제 4 비트 심도는 상기 참조 계층 픽처의 상기 크로마 성분들의 상기 비트 심도보다 크거나 또는 동일하고 그리고 상기 향상 계층 픽처의 크로마 성분들의 비트 심도보다 적거나 또는 동일하도록 제한되는, 상기 제 4 신택스 엘리먼트를 수신하는 단계를 더 포함하는, 비디오 데이터를 디코딩하는 방법.
  3. 제 1 항에 있어서,
    상기 3D 룩업 테이블의 출력 루마 성분에 대한 제 3 비트 심도를 표시하는 제 3 신택스 엘리먼트를 수신하는 단계로서, 상기 제 3 비트 심도는 상기 향상 계층 픽처의 루마 성분의 비트 심도와 동일하도록 제한되는, 상기 제 3 신택스 엘리먼트를 수신하는 단계; 및
    상기 3D 룩업 테이블의 출력 크로마 성분들에 대한 제 4 비트 심도를 표시하는 제 4 신택스 엘리먼트를 수신하는 단계로서, 상기 제 4 비트 심도는 상기 향상 계층 픽처의 크로마 성분들의 비트 심도와 동일하도록 제한되는, 상기 제 4 신택스 엘리먼트를 수신하는 단계를 더 포함하는, 비디오 데이터를 디코딩하는 방법.
  4. 비디오 데이터를 인코딩하는 방법으로서,
    색 공간 (color gamut) 스케일러빌리티에 대한 3차원 (3D) 룩업 테이블의 입력 루마 성분에 대한 제 1 비트 심도를 상기 비디오 데이터의 참조 계층에서의 참조 계층 픽처의 루마 성분의 비트 심도와 동일하도록 제한하는 단계;
    상기 3D 룩업 테이블의 입력 크로마 성분들에 대한 제 2 비트 심도를 상기 참조 계층 픽처의 크로마 성분들의 비트 심도와 동일하도록 제한하는 단계;
    상기 참조 계층 픽처의 상기 루마 성분 및 상기 크로마 성분들을 상기 비디오 데이터의 상기 참조 계층에 대한 제 1 색 공간으로부터 상기 비디오 데이터의 향상 계층에 대한 제 2 색 공간으로 변환하기 위해, 상기 참조 계층 픽처의 상기 루마 성분 및 상기 크로마 성분들에 직접 상기 3D 룩업 테이블을 적용하는 단계로서, 상기 참조 계층 픽처의 상기 루마 성분 및 상기 크로마 성분들에 직접 상기 3D 룩업 테이블을 적용하는 것은 상기 3D 룩업 테이블의 상기 입력 루마 성분에 대한 상기 제 1 비트 심도 및 상기 입력 크로마 성분들에 대한 상기 제 2 비트 심도와 각각 동일한 비트 심도들을 갖는 상기 3D 룩업 테이블의 입력으로서 상기 참조 계층 픽처의 상기 루마 성분 및 상기 크로마 성분들을 이용하는 것을 포함하는, 상기 3D 룩업 테이블을 적용하는 단계;
    상기 참조 계층 픽처의 변환된 상기 루마 성분 및 변환된 상기 크로마 성분들에 기초하여 상기 비디오 데이터의 상기 향상 계층에서의 향상 계층 픽처에 대해 인터-계층 참조 픽처를 발생시키는 단계;
    상기 3D 룩업 테이블을 사용하여 생성된 상기 인터-계층 참조 픽처에 기초하여 상기 향상 계층 픽처에서의 비디오 블록들을 인코딩하는 단계;
    상기 3D 룩업 테이블의 상기 입력 루마 성분에 대한 상기 제 1 비트 심도를 표시하는 제 1 신택스 엘리먼트를 시그널링하는 단계; 및
    상기 3D 룩업 테이블의 상기 입력 크로마 성분들에 대한 상기 제 2 비트 심도를 표시하는 제 2 신택스 엘리먼트를 시그널링하는 단계를 포함하는, 비디오 데이터를 인코딩하는 방법.
  5. 제 4 항에 있어서,
    상기 3D 룩업 테이블의 출력 루마 성분에 대한 제 3 비트 심도를 상기 참조 계층 픽처의 상기 루마 성분의 상기 비트 심도보다 크거나 또는 동일하고 그리고 상기 향상 계층 픽처의 루마 성분의 비트 심도보다 적거나 또는 동일하도록 제한하는 단계;
    상기 3D 룩업 테이블의 출력 크로마 성분들에 대한 제 4 비트 심도를 상기 참조 계층 픽처의 상기 크로마 성분들의 상기 비트 심도보다 크거나 또는 동일하고 그리고 상기 향상 계층 픽처의 크로마 성분들의 비트 심도보다 적거나 또는 동일하도록 제한하는 단계;
    상기 3D 룩업 테이블의 상기 출력 루마 성분에 대한 상기 제 3 비트 심도를 표시하는 제 3 신택스 엘리먼트를 시그널링하는 단계; 및
    상기 3D 룩업 테이블의 상기 출력 크로마 성분들에 대한 상기 제 4 비트 심도를 표시하는 제 4 신택스 엘리먼트를 시그널링하는 단계를 더 포함하는, 비디오 데이터를 인코딩하는 방법.
  6. 제 4 항에 있어서,
    상기 3D 룩업 테이블의 출력 루마 성분에 대한 제 3 비트 심도를 상기 향상 계층 픽처의 루마 성분의 비트 심도와 동일하도록 제한하는 단계;
    상기 3D 룩업 테이블의 출력 크로마 성분들에 대한 제 4 비트 심도를 상기 향상 계층 픽처의 크로마 성분들의 비트 심도와 동일하도록 제한하는 단계;
    상기 3D 룩업 테이블의 상기 출력 루마 성분에 대한 상기 제 3 비트 심도를 표시하는 제 3 신택스 엘리먼트를 시그널링하는 단계; 및
    상기 3D 룩업 테이블의 상기 출력 크로마 성분들에 대한 상기 제 4 비트 심도를 표시하는 제 4 신택스 엘리먼트를 시그널링하는 단계를 더 포함하는, 비디오 데이터를 인코딩하는 방법.
  7. 비디오 디코딩 디바이스로서,
    비디오 데이터를 저장하도록 구성된 메모리; 및
    상기 메모리와 통신하는 하나 이상의 프로세서들을 포함하며,
    상기 하나 이상의 프로세서들은,
    색 공간 (color gamut) 스케일러빌리티에 대한 3차원 (3D) 룩업 테이블의 입력 루마 성분에 대한 제 1 비트 심도를 표시하는 제 1 신택스 엘리먼트를 수신하는 것으로서, 상기 제 1 비트 심도는 상기 비디오 데이터의 참조 계층에서의 참조 계층 픽처의 루마 성분의 비트 심도와 동일하도록 제한되는, 상기 제 1 신택스 엘리먼트를 수신하는 것을 행하고;
    상기 3D 룩업 테이블의 입력 크로마 성분들에 대한 제 2 비트 심도를 표시하는 제 2 신택스 엘리먼트를 수신하는 것으로서, 상기 제 2 비트 심도는 상기 참조 계층 픽처의 크로마 성분들의 비트 심도와 동일하도록 제한되는, 상기 제 2 신택스 엘리먼트를 수신하는 것을 행하며;
    상기 참조 계층 픽처의 상기 루마 성분 및 상기 크로마 성분들을 상기 비디오 데이터의 상기 참조 계층에 대한 제 1 색 공간으로부터 상기 비디오 데이터의 향상 계층에 대한 제 2 색 공간으로 변환하기 위해, 상기 참조 계층 픽처의 상기 루마 성분 및 상기 크로마 성분들에 직접 상기 3D 룩업 테이블을 적용하는 것으로서, 상기 참조 계층 픽처의 상기 루마 성분 및 상기 크로마 성분들에 직접 상기 3D 룩업 테이블을 적용하기 위해, 상기 하나 이상의 프로세서들은, 상기 3D 룩업 테이블의 상기 입력 루마 성분에 대한 상기 제 1 비트 심도 및 상기 입력 크로마 성분들에 대한 상기 제 2 비트 심도와 각각 동일한 비트 심도들을 갖는 상기 3D 룩업 테이블의 입력으로서 상기 참조 계층 픽처의 상기 루마 성분 및 상기 크로마 성분들을 이용하도록 구성되는, 상기 3D 룩업 테이블을 적용하는 것을 행하고;
    상기 참조 계층 픽처의 변환된 상기 루마 성분 및 변환된 상기 크로마 성분들에 기초하여 상기 비디오 데이터의 상기 향상 계층에서의 향상 계층 픽처에 대해 인터-계층 참조 픽처를 발생시키며; 그리고
    상기 3D 룩업 테이블을 사용하여 생성된 상기 인터-계층 참조 픽처에 기초하여 상기 향상 계층 픽처의 비디오 블록들을 디코딩하도록 구성되는, 비디오 디코딩 디바이스.
  8. 제 7 항에 있어서,
    상기 하나 이상의 프로세서들은,
    상기 3D 룩업 테이블의 출력 루마 성분에 대한 제 3 비트 심도를 표시하는 제 3 신택스 엘리먼트를 수신하는 것으로서, 상기 제 3 비트 심도는 상기 참조 계층 픽처의 상기 루마 성분의 상기 비트 심도보다 크거나 또는 동일하고 그리고 상기 향상 계층 픽처의 루마 성분의 비트 심도보다 적거나 또는 동일하도록 제한되는, 상기 제 3 신택스 엘리먼트를 수신하는 것을 행하고; 그리고
    상기 3D 룩업 테이블의 출력 크로마 성분들에 대한 제 4 비트 심도를 표시하는 제 4 신택스 엘리먼트를 수신하는 것으로서, 상기 제 4 비트 심도는 상기 참조 계층 픽처의 상기 크로마 성분들의 상기 비트 심도보다 크거나 또는 동일하고 그리고 상기 향상 계층 픽처의 크로마 성분들의 비트 심도보다 적거나 또는 동일하도록 제한되는, 상기 제 4 신택스 엘리먼트를 수신하는 것을 행하도록 구성되는, 비디오 디코딩 디바이스.
  9. 제 7 항에 있어서,
    상기 하나 이상의 프로세서들은,
    상기 3D 룩업 테이블의 출력 루마 성분에 대한 제 3 비트 심도를 표시하는 제 3 신택스 엘리먼트를 수신하는 것으로서, 상기 제 3 비트 심도는 상기 향상 계층 픽처의 루마 성분의 비트 심도와 동일하도록 제한되는, 상기 제 3 신택스 엘리먼트를 수신하는 것을 행하고; 그리고
    상기 3D 룩업 테이블의 출력 크로마 성분들에 대한 제 4 비트 심도를 표시하는 제 4 신택스 엘리먼트를 수신하는 것으로서, 상기 제 4 비트 심도는 상기 향상 계층 픽처의 크로마 성분들의 비트 심도와 동일하도록 제한되는, 상기 제 4 신택스 엘리먼트를 수신하는 것을 행하도록 구성되는, 비디오 디코딩 디바이스.
  10. 비디오 인코딩 디바이스로서,
    비디오 데이터를 저장하도록 구성된 메모리; 및
    상기 메모리와 통신하는 하나 이상의 프로세서들을 포함하며,
    상기 하나 이상의 프로세서들은,
    색 공간 (color gamut) 스케일러빌리티에 대한 3차원 (3D) 룩업 테이블의 입력 루마 성분에 대한 제 1 비트 심도를 상기 비디오 데이터의 참조 계층에서의 참조 계층 픽처의 루마 성분의 비트 심도와 동일하도록 제한하는 것을 행하고;
    상기 3D 룩업 테이블의 입력 크로마 성분들에 대한 제 2 비트 심도를 상기 참조 계층 픽처의 크로마 성분들의 비트 심도와 동일하도록 제한하는 것을 행하며;
    상기 참조 계층 픽처의 상기 루마 성분 및 상기 크로마 성분들을 상기 비디오 데이터의 상기 참조 계층에 대한 제 1 색 공간으로부터 상기 비디오 데이터의 향상 계층에 대한 제 2 색 공간으로 변환하기 위해, 상기 참조 계층 픽처의 상기 루마 성분 및 상기 크로마 성분들에 직접 상기 3D 룩업 테이블을 적용하는 것으로서, 상기 참조 계층 픽처의 상기 루마 성분 및 상기 크로마 성분들에 직접 상기 3D 룩업 테이블을 적용하기 위해, 상기 하나 이상의 프로세서들은, 상기 3D 룩업 테이블의 상기 입력 루마 성분에 대한 상기 제 1 비트 심도 및 상기 입력 크로마 성분들에 대한 상기 제 2 비트 심도와 각각 동일한 비트 심도들을 갖는 상기 3D 룩업 테이블의 입력으로서 상기 참조 계층 픽처의 상기 루마 성분 및 상기 크로마 성분들을 이용하도록 구성되는, 상기 3D 룩업 테이블을 적용하는 것을 행하고;
    상기 참조 계층 픽처의 변환된 상기 루마 성분 및 변환된 상기 크로마 성분들에 기초하여 상기 비디오 데이터의 상기 향상 계층에서의 향상 계층 픽처에 대해 인터-계층 참조 픽처를 발생시키며;
    상기 3D 룩업 테이블을 사용하여 생성된 상기 인터-계층 참조 픽처에 기초하여 상기 향상 계층 픽처에서의 비디오 블록들을 인코딩하고;
    상기 3D 룩업 테이블의 상기 입력 루마 성분에 대한 상기 제 1 비트 심도를 표시하는 제 1 신택스 엘리먼트를 시그널링하며; 그리고
    상기 3D 룩업 테이블의 상기 입력 크로마 성분들에 대한 상기 제 2 비트 심도를 표시하는 제 2 신택스 엘리먼트를 시그널링하도록 구성되는, 비디오 인코딩 디바이스.
  11. 제 10 항에 있어서,
    상기 하나 이상의 프로세서들은,
    상기 3D 룩업 테이블의 출력 루마 성분에 대한 제 3 비트 심도를 상기 참조 계층 픽처의 상기 루마 성분의 상기 비트 심도보다 크거나 또는 동일하고 그리고 상기 향상 계층 픽처의 루마 성분의 비트 심도보다 적거나 또는 동일하도록 제한하고;
    상기 3D 룩업 테이블의 상기 출력 루마 성분에 대한 상기 제 3 비트 심도를 표시하는 제 3 신택스 엘리먼트를 시그널링하며;
    상기 3D 룩업 테이블의 출력 크로마 성분들에 대한 제 4 비트 심도를 상기 참조 계층 픽처의 상기 크로마 성분들의 상기 비트 심도보다 크거나 또는 동일하고 그리고 상기 향상 계층 픽처의 크로마 성분들의 비트 심도보다 적거나 또는 동일하도록 제한하고; 그리고
    상기 3D 룩업 테이블의 상기 출력 크로마 성분들에 대한 상기 제 4 비트 심도를 표시하는 제 4 신택스 엘리먼트를 시그널링하도록 구성되는, 비디오 인코딩 디바이스.
  12. 제 10 항에 있어서,
    상기 하나 이상의 프로세서들은,
    상기 3D 룩업 테이블의 출력 루마 성분에 대한 제 3 비트 심도를 상기 향상 계층 픽처의 루마 성분의 비트 심도와 동일하도록 제한하고;
    상기 3D 룩업 테이블의 상기 출력 루마 성분에 대한 상기 제 3 비트 심도를 표시하는 제 3 신택스 엘리먼트를 시그널링하며;
    상기 3D 룩업 테이블의 출력 크로마 성분들에 대한 제 4 비트 심도를 상기 향상 계층 픽처의 크로마 성분들의 비트 심도와 동일하도록 제한하고; 그리고
    상기 3D 룩업 테이블의 상기 출력 크로마 성분들에 대한 상기 제 4 비트 심도를 표시하는 제 4 신택스 엘리먼트를 시그널링하도록 구성되는, 비디오 인코딩 디바이스.
  13. 비디오 인코딩 디바이스로서,
    색 공간 (color gamut) 스케일러빌리티에 대한 3차원 (3D) 룩업 테이블의 입력 루마 성분에 대한 제 1 비트 심도를 상기 비디오 데이터의 참조 계층에서의 참조 계층 픽처의 루마 성분의 비트 심도와 동일하도록 제한하는 수단;
    상기 3D 룩업 테이블의 입력 크로마 성분들에 대한 제 2 비트 심도를 상기 참조 계층 픽처의 크로마 성분들의 비트 심도와 동일하도록 제한하는 수단;
    상기 참조 계층 픽처의 상기 루마 성분 및 상기 크로마 성분들을 상기 비디오 데이터의 상기 참조 계층에 대한 제 1 색 공간으로부터 상기 비디오 데이터의 향상 계층에 대한 제 2 색 공간으로 변환하기 위해, 상기 참조 계층 픽처의 상기 루마 성분 및 상기 크로마 성분들에 직접 상기 3D 룩업 테이블을 적용하는 수단으로서, 상기 참조 계층 픽처의 상기 루마 성분 및 상기 크로마 성분들에 직접 상기 3D 룩업 테이블을 적용하는 수단은 상기 3D 룩업 테이블의 상기 입력 루마 성분에 대한 상기 제 1 비트 심도 및 상기 입력 크로마 성분들에 대한 상기 제 2 비트 심도와 각각 동일한 비트 심도들을 갖는 상기 3D 룩업 테이블의 입력으로서 상기 참조 계층 픽처의 상기 루마 성분 및 상기 크로마 성분들을 이용하는 수단을 포함하는, 상기 3D 룩업 테이블을 적용하는 수단;
    상기 참조 계층 픽처의 변환된 상기 루마 성분 및 변환된 상기 크로마 성분들에 기초하여 상기 비디오 데이터의 상기 향상 계층에서의 향상 계층 픽처에 대해 인터-계층 참조 픽처를 발생시키는 수단;
    상기 3D 룩업 테이블을 사용하여 생성된 상기 인터-계층 참조 픽처에 기초하여 상기 향상 계층 픽처의 비디오 블록들을 인코딩하는 수단;
    상기 3D 룩업 테이블의 상기 입력 루마 성분에 대한 상기 제 1 비트 심도를 표시하는 제 1 신택스 엘리먼트를 시그널링하는 수단; 및
    상기 3D 룩업 테이블의 상기 입력 크로마 성분들에 대한 상기 제 2 비트 심도를 표시하는 제 2 신택스 엘리먼트를 시그널링하는 수단을 포함하는, 비디오 인코딩 디바이스.
  14. 제 13 항에 있어서,
    상기 3D 룩업 테이블의 출력 루마 성분에 대한 제 3 비트 심도를 상기 참조 계층 픽처의 상기 루마 성분의 상기 비트 심도보다 크거나 또는 동일하고 그리고 상기 향상 계층 픽처의 루마 성분의 비트 심도보다 적거나 또는 동일한 범위 내에 있도록 제한하는 수단;
    상기 3D 룩업 테이블의 상기 출력 루마 성분에 대한 상기 제 3 비트 심도를 표시하는 제 3 신택스 엘리먼트를 시그널링하는 수단;
    상기 3D 룩업 테이블의 출력 크로마 성분들에 대한 제 4 비트 심도를 상기 참조 계층 픽처의 상기 크로마 성분들의 상기 비트 심도보다 크거나 또는 동일하고 그리고 상기 향상 계층 픽처의 크로마 성분들의 비트 심도보다 적거나 또는 동일하도록 제한하는 수단; 및
    상기 3D 룩업 테이블의 상기 출력 크로마 성분들에 대한 상기 제 4 비트 심도를 표시하는 제 4 신택스 엘리먼트를 시그널링하는 수단을 더 포함하는, 비디오 인코딩 디바이스.
  15. 비디오 데이터를 인코딩하기 위한 명령들을 저장하는 비일시적 컴퓨터-판독가능 저장 매체로서,
    상기 명령들은, 실행될 때, 하나 이상의 프로세서들로 하여금,
    색 공간 (color gamut) 스케일러빌리티에 대한 3차원 (3D) 룩업 테이블의 입력 루마 성분에 대한 제 1 비트 심도를 상기 비디오 데이터의 참조 계층에서의 참조 계층 픽처의 루마 성분의 비트 심도와 동일하도록 제한하는 것을 행하게 하고;
    상기 3D 룩업 테이블의 입력 크로마 성분들에 대한 제 2 비트 심도를 상기 참조 계층 픽처의 크로마 성분들의 비트 심도와 동일하도록 제한하는 것을 행하게 하며;
    상기 참조 계층 픽처의 상기 루마 성분 및 상기 크로마 성분들을 상기 비디오 데이터의 상기 참조 계층에 대한 제 1 색 공간으로부터 상기 비디오 데이터의 향상 계층에 대한 제 2 색 공간으로 변환하기 위해, 상기 참조 계층 픽처의 상기 루마 성분 및 상기 크로마 성분들에 직접 상기 3D 룩업 테이블을 적용하는 것으로서, 상기 참조 계층 픽처의 상기 루마 성분 및 상기 크로마 성분들에 직접 상기 3D 룩업 테이블을 적용하기 위해, 상기 명령들은 상기 하나 이상의 프로세서들로 하여금, 상기 3D 룩업 테이블의 상기 입력 루마 성분에 대한 상기 제 1 비트 심도 및 상기 입력 크로마 성분들에 대한 상기 제 2 비트 심도와 각각 동일한 비트 심도들을 갖는 상기 3D 룩업 테이블의 입력으로서 상기 참조 계층 픽처의 상기 루마 성분 및 상기 크로마 성분들을 이용하게 하는, 상기 3D 룩업 테이블을 적용하는 것을 행하게 하고;
    상기 참조 계층 픽처의 변환된 상기 루마 성분 및 변환된 상기 크로마 성분들에 기초하여 상기 비디오 데이터의 상기 향상 계층에서의 향상 계층 픽처에 대해 인터-계층 참조 픽처를 발생시키게 하고;
    상기 3D 룩업 테이블을 사용하여 생성된 상기 인터-계층 참조 픽처에 기초하여 상기 향상 계층 픽처의 비디오 블록들을 인코딩하게 하고;
    상기 3D 룩업 테이블의 상기 입력 루마 성분에 대한 상기 제 1 비트 심도를 표시하는 제 1 신택스 엘리먼트를 시그널링하게 하며; 그리고
    상기 3D 룩업 테이블의 상기 입력 크로마 성분들에 대한 상기 제 2 비트 심도를 표시하는 제 2 신택스 엘리먼트를 시그널링하게 하는, 비일시적 컴퓨터-판독가능 저장 매체.
  16. 제 15 항에 있어서,
    상기 하나 이상의 프로세서들로 하여금,
    상기 3D 룩업 테이블의 출력 루마 성분에 대한 제 3 비트 심도를 상기 참조 계층 픽처의 상기 루마 성분의 상기 비트 심도보다 크거나 또는 동일하고 그리고 상기 향상 계층 픽처의 루마 성분의 비트 심도보다 적거나 또는 동일한 범위 내에 있도록 제한하게 하고;
    상기 3D 룩업 테이블의 상기 출력 루마 성분에 대한 상기 제 3 비트 심도를 표시하는 제 3 신택스 엘리먼트를 시그널링하게 하며;
    상기 3D 룩업 테이블의 출력 크로마 성분들에 대한 제 4 비트 심도를 상기 참조 계층 픽처의 상기 크로마 성분들의 상기 비트 심도보다 크거나 또는 동일하고 그리고 상기 향상 계층 픽처의 크로마 성분들의 비트 심도보다 적거나 또는 동일하도록 제한하게 하고; 그리고
    상기 3D 룩업 테이블의 상기 출력 크로마 성분들에 대한 상기 제 4 비트 심도를 표시하는 제 4 신택스 엘리먼트를 시그널링하게 하는
    명령들을 더 포함하는, 비일시적 컴퓨터-판독가능 저장 매체.
  17. 삭제
  18. 삭제
  19. 삭제
  20. 삭제
  21. 삭제
  22. 삭제
  23. 삭제
  24. 삭제
  25. 삭제
  26. 삭제
  27. 삭제
  28. 삭제
KR1020167031620A 2014-04-17 2015-04-17 색 공간 스케일러빌리티에 대한 3d 칼라 예측을 위한 비트 심도 값들의 시그널링 KR102138407B1 (ko)

Applications Claiming Priority (7)

Application Number Priority Date Filing Date Title
US201461981125P 2014-04-17 2014-04-17
US61/981,125 2014-04-17
US201462005651P 2014-05-30 2014-05-30
US62/005,651 2014-05-30
US14/688,648 2015-04-16
US14/688,648 US10448029B2 (en) 2014-04-17 2015-04-16 Signaling bit depth values for 3D color prediction for color gamut scalability
PCT/US2015/026483 WO2015161260A1 (en) 2014-04-17 2015-04-17 Signaling bit depth values for 3d color prediction for color gamut scalability

Publications (2)

Publication Number Publication Date
KR20160145117A KR20160145117A (ko) 2016-12-19
KR102138407B1 true KR102138407B1 (ko) 2020-07-27

Family

ID=54323087

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020167031620A KR102138407B1 (ko) 2014-04-17 2015-04-17 색 공간 스케일러빌리티에 대한 3d 칼라 예측을 위한 비트 심도 값들의 시그널링
KR1020167031621A KR102381496B1 (ko) 2014-04-17 2015-04-17 색 공간 스케일러빌리티에 대한 3d 칼라 예측을 위한 참조 계층들의 시그널링

Family Applications After (1)

Application Number Title Priority Date Filing Date
KR1020167031621A KR102381496B1 (ko) 2014-04-17 2015-04-17 색 공간 스케일러빌리티에 대한 3d 칼라 예측을 위한 참조 계층들의 시그널링

Country Status (10)

Country Link
US (2) US10448029B2 (ko)
EP (2) EP3132606A1 (ko)
JP (2) JP6768516B2 (ko)
KR (2) KR102138407B1 (ko)
CN (2) CN106233729B (ko)
BR (2) BR112016024201A8 (ko)
ES (1) ES2903013T3 (ko)
MX (1) MX360952B (ko)
TW (2) TWI669949B (ko)
WO (2) WO2015161268A1 (ko)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10448029B2 (en) 2014-04-17 2019-10-15 Qualcomm Incorporated Signaling bit depth values for 3D color prediction for color gamut scalability
JP6330507B2 (ja) 2014-06-19 2018-05-30 ソニー株式会社 画像処理装置及び画像処理方法
JP6769231B2 (ja) * 2016-10-17 2020-10-14 富士通株式会社 動画像符号化装置、動画像符号化方法、動画像復号装置、動画像復号方法、及び動画像符号化用コンピュータプログラムならびに動画像復号用コンピュータプログラム
US10681382B1 (en) * 2016-12-20 2020-06-09 Amazon Technologies, Inc. Enhanced encoding and decoding of video reference frames
GB2618718B (en) * 2019-03-20 2024-03-13 V Nova Int Ltd Low complexity enhancement video coding
CN113826382B (zh) * 2019-05-16 2023-06-20 北京字节跳动网络技术有限公司 视频编解码中的自适应比特深度转换
US20220067978A1 (en) * 2020-08-26 2022-03-03 Facebook Technologies, Llc Rate controlled image and texture data compression

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1494456A1 (en) 2003-07-01 2005-01-05 Deutsche Thomson-Brandt GmbH Method for run-length encoding of a bitmap data stream
US8446961B2 (en) 2008-07-10 2013-05-21 Intel Corporation Color gamut scalability techniques
US9756353B2 (en) 2012-01-09 2017-09-05 Dolby Laboratories Licensing Corporation Hybrid reference picture reconstruction method for single and multiple layered video coding systems
US10178400B2 (en) 2012-11-21 2019-01-08 Dolby International Ab Signaling scalability information in a parameter set
CN109951712B (zh) 2013-04-08 2022-11-11 杜比国际公司 对lut进行编码的方法和进行解码的方法以及对应的设备
JP2017501599A (ja) 2013-10-07 2017-01-12 ヴィド スケール インコーポレイテッド マルチレイヤビデオコーディングのコンバインドスケーラビリティ処理
US9948916B2 (en) 2013-10-14 2018-04-17 Qualcomm Incorporated Three-dimensional lookup table based color gamut scalability in multi-layer video coding
AU2014362246B2 (en) * 2013-12-13 2018-01-25 Vid Scale, Inc. Color gamut scalable video coding device and method for the phase alignment of luma and chroma using interpolation
US9756337B2 (en) 2013-12-17 2017-09-05 Qualcomm Incorporated Signaling color values for 3D lookup table for color gamut scalability in multi-layer video coding
US10531105B2 (en) 2013-12-17 2020-01-07 Qualcomm Incorporated Signaling partition information for 3D lookup table for color gamut scalability in multi-layer video coding
US10448029B2 (en) 2014-04-17 2019-10-15 Qualcomm Incorporated Signaling bit depth values for 3D color prediction for color gamut scalability

Also Published As

Publication number Publication date
BR112016024129A8 (pt) 2021-07-13
BR112016024201A8 (pt) 2021-07-13
TWI669949B (zh) 2019-08-21
US20150304628A1 (en) 2015-10-22
KR20160145118A (ko) 2016-12-19
JP6768516B2 (ja) 2020-10-14
KR102381496B1 (ko) 2022-03-31
EP3132607A1 (en) 2017-02-22
CN106233729A (zh) 2016-12-14
WO2015161268A1 (en) 2015-10-22
JP2017515383A (ja) 2017-06-08
KR20160145117A (ko) 2016-12-19
CN106233728B (zh) 2019-06-14
MX360952B (es) 2018-11-21
BR112016024129A2 (pt) 2017-08-15
WO2015161260A1 (en) 2015-10-22
ES2903013T3 (es) 2022-03-30
EP3132607B1 (en) 2021-12-15
TWI666919B (zh) 2019-07-21
TW201543872A (zh) 2015-11-16
US10448029B2 (en) 2019-10-15
JP2017515386A (ja) 2017-06-08
EP3132606A1 (en) 2017-02-22
US10104385B2 (en) 2018-10-16
US20150304664A1 (en) 2015-10-22
JP6640108B2 (ja) 2020-02-05
CN106233729B (zh) 2019-06-14
MX2016013403A (es) 2017-02-15
TW201543871A (zh) 2015-11-16
CN106233728A (zh) 2016-12-14
BR112016024201A2 (pt) 2017-08-15

Similar Documents

Publication Publication Date Title
JP6780054B2 (ja) マルチレイヤビデオコーディングにおける3次元ルックアップテーブルベースの色域スケーラビリティ
US10432942B2 (en) Signaling color values for 3D lookup table for color gamut scalability in multi-layer video coding
KR102377386B1 (ko) 멀티-계층 비디오 코딩에서의 색역 스케일러빌러티를 위한 3d 룩업 테이블에 대한 파티션 정보의 시그널링
KR102138407B1 (ko) 색 공간 스케일러빌리티에 대한 3d 칼라 예측을 위한 비트 심도 값들의 시그널링

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant