KR102642646B1 - 높은 동적 범위 및 넓은 색 영역 비디오 코딩을 위한 보충적 향상 정보 (sei) 메시지들 - Google Patents

높은 동적 범위 및 넓은 색 영역 비디오 코딩을 위한 보충적 향상 정보 (sei) 메시지들 Download PDF

Info

Publication number
KR102642646B1
KR102642646B1 KR1020187011144A KR20187011144A KR102642646B1 KR 102642646 B1 KR102642646 B1 KR 102642646B1 KR 1020187011144 A KR1020187011144 A KR 1020187011144A KR 20187011144 A KR20187011144 A KR 20187011144A KR 102642646 B1 KR102642646 B1 KR 102642646B1
Authority
KR
South Korea
Prior art keywords
video data
offset value
partitions
dynamic range
component
Prior art date
Application number
KR1020187011144A
Other languages
English (en)
Other versions
KR20180056726A (ko
Inventor
아다르쉬 크리쉬난 라마수브라모니안
드미트로 루사노브스키
로할스 호엘 솔레
성원 이
산스리 도네 부그다이지
마르타 카르체비츠
Original Assignee
퀄컴 인코포레이티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 퀄컴 인코포레이티드 filed Critical 퀄컴 인코포레이티드
Publication of KR20180056726A publication Critical patent/KR20180056726A/ko
Application granted granted Critical
Publication of KR102642646B1 publication Critical patent/KR102642646B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • H04N19/463Embedding additional information in the video signal during the compression process by compressing encoding parameters before transmission
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/184Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being bits, e.g. of the compressed video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • H04N19/36Scalability techniques involving formatting the layers as a function of picture distortion after decoding, e.g. signal-to-noise [SNR] scalability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/65Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using error resilience
    • H04N19/66Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using error resilience involving data partitioning, i.e. separation of data into packets or partitions according to importance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/80Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/117Filters, e.g. for pre-processing or post-processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/154Measured or subjectively estimated visual quality after decoding, e.g. measurement of distortion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/174Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a slice, e.g. a line of blocks or a group of blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/186Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

본 개시물은 HDR/WCG 컬러 표현에 의해 표현되는 비디오 데이터를 프로세싱하는 것을 포함하는 비디오 데이터를 프로세싱하는 것에 관련된다. 본 개시물의 하나 이상의 양태들에 따라서, 하나 이상의 보충적 향상 정보 (SEI) 메시지들은 비디오 데이터의 원래의 또는 네이티브 컬러 표현을 복원하기 위하여 비디오 디코더 또는 비디오 포스트프로세싱 디바이스가 본 개시물의 동적 범위 조정 (dynamic range adjustment, DRA) 기법들을 역전시키는 것을 허용하는 신택스 엘리먼트들 및 또는 다른 정보를 시그널링하는데 사용될 수도 있다. 동적 범위 조정 (DRA) 파라미터들은 HDR/WCG 컬러 표현을 더 잘 사용하기 위하여 본 개시물의 하나 이상의 양태들에 따라서 비디오 데이터에 적용될 수도 있고, 컬러 성분 값들의 파티션들을 위한 로컬 스케일 및 오프셋 값들 뿐만 아니라, 글로벌 오프셋 값들의 사용을 포함할 수도 있다.

Description

높은 동적 범위 및 넓은 색 영역 비디오 코딩을 위한 보충적 향상 정보 (SEI) 메시지들
본 출원은 2015년 9월 21일자로 출원된 미국 임시 출원 제62/221,586호와, 2015년 10월 2일자로 출원된 미국 임시 출원 제62/236,804호를 우선권 주장하며, 그것들 둘 다의 전체 내용은 참조로 본 명세서에 포함된다.
본 개시물은 비디오 프로세싱에 관한 것이다.
디지털 비디오 능력들은 디지털 텔레비전들, 디지털 직접 브로드캐스트 시스템들, 무선 브로드캐스트 시스템들, 개인 정보 단말기들 (PDA들), 랩톱 또는 데스크톱 컴퓨터들, 태블릿 컴퓨터들, e-북 리더들, 디지털 카메라들, 디지털 레코딩 디바이스들, 디지털 미디어 플레이어들, 비디오 게이밍 디바이스들, 비디오 게임 콘솔들, 셀룰러 또는 위성 무선 전화기들, 이른바 "스마트 폰들", 비디오 원격회의 디바이스들, 비디오 스트리밍 디바이스들 등을 포함한 넓은 범위의 디바이스들에 통합될 수 있다. 디지털 비디오 디바이스들은 MPEG-2, MPEG-4, ITU-T H.263 또는 ITU-T H.264/MPEG-4, 파트 10, 고급 비디오 코딩 (AVC), ITU- H.265, 고 효율 비디오 코딩 (HEVC), 및 이러한 표준들의 확장본들과 같은 비디오 코딩 기법들을 구현한다. 비디오 디바이스들은 이러한 비디오 코딩 기법들을 구현함으로써 디지털 비디오 정보를 더 효율적으로 송신, 수신, 인코딩, 디코딩, 및/또는 저장할 수도 있다.
비디오 코딩 기법들은 비디오 시퀀스들에 내재하는 리던던시를 감소시키거나 제거하기 위해 공간적 (픽처 내) 예측 및/또는 시간적 (픽처 간) 예측을 포함한다. 블록 기반 비디오 코딩의 경우, 비디오 슬라이스 (예컨대, 비디오 프레임 또는 비디오 프레임의 부분) 가 비디오 블록들로 구획화될 수도 있으며, 그 비디오 블록들은 트리블록 (treeblock) 들, 코딩 유닛 (coding unit, CU) 들 및/또는 코딩 노드들이라고 또한 지칭될 수도 있다. 픽처의 인트라 코딩식 (intra-coded)(I) 슬라이스에서의 비디오 블록들은 동일한 픽처의 이웃하는 블록들에서의 참조 샘플들에 관한 공간적 예측을 사용하여 인코딩된다. 픽처의 인터 코딩식 (inter-coded)(P 또는 B) 슬라이스에서의 비디오 블록들은 동일한 픽처의 이웃하는 블록들에서의 참조 샘플들에 관한 공간적 예측 또는 다른 참조 픽처들에서의 참조 샘플들에 관한 시간적 예측을 사용할 수도 있다. 픽처들은 프레임들이라고 지칭될 수도 있고, 참조 픽처들은 참조 프레임들이라고 지칭될 수도 있다.
공간적 또는 시간적 예측은 코딩될 블록에 대한 예측성 블록 (predictive block) 이 생기게 한다. 잔차 데이터는 코딩될 원래의 블록과 예측성 블록 사이의 화소 차이들을 나타낸다. 인터 코딩식 블록이 예측성 블록을 형성하는 참조 샘플들의 블록을 가리키는 모션 벡터와, 코딩된 블록 및 예측성 블록 간의 차이를 나타내는 잔차 데이터에 따라 인코딩된다. 인트라 코딩식 블록이 인트라 코딩 모드 및 잔차 데이터에 따라 인코딩된다. 추가 압축을 위해, 잔차 데이터는 화소 도메인으로부터 변환 도메인으로 변환될 수도 있으며, 결과적으로 잔차 변환 계수들이 생겨나며, 그 계수들은 그 다음에 양자화될 수도 있다. 처음에 2차원 어레이로 배열된 양자화된 변환 계수들은, 변환 계수들의 1차원 벡터를 생성하기 위하여 스캐닝될 수도 있고, 엔트로피 코딩이 더 많은 압축을 달성하기 위해 적용될 수도 있다.
캡처, 코딩, 및 디스플레이될 수도 있는 컬러 값들의 총 수는 색 영역 (color gamut) 에 의해 정의될 수도 있다. 색 영역이 디바이스가 캡처 (예컨대, 카메라) 또는 재현 (예컨대, 디스플레이) 할 수 있는 컬러들의 범위를 지칭한다. 종종, 색 영역들은 디바이스마다 상이하다. 비디오 코딩의 경우, 비디오 코딩 프로세스에서의 각각의 디바이스가 동일한 색 영역에서 화소 값들을 프로세싱하게 구성될 수도 있도록 비디오 데이터에 대한 미리 정의된 색 영역이 사용될 수도 있다. 일부 색 영역들은 비디오 코딩을 위해 전통적으로 사용된 색 영역들보다 더 큰 범위의 컬러들로 정의된다. 더 큰 범위의 컬러들을 갖는 이러한 색 영역들은 와이드 색 영역 (wide color gamut, WCG) 이라고 지칭될 수도 있다.
비디오 데이터의 다른 양태가 동적 범위 (dynamic range) 이다. 동적 범위는 비디오 신호의 최대와 최소 밝기 (예컨대, 휘도) 사이의 비율로서 통상적으로 정의된다. 과거에 사용된 공통 비디오 데이터의 동적 범위는 표준 동적 범위 (standard dynamic range, SDR) 로 간주된다. 비디오 데이터에 대한 다른 예시적인 사양들은 최대 및 최소 밝기 사이에 더 큰 비율을 갖는 컬러 데이터를 정의한다. 이러한 비디오 데이터는 높은 동적 범위 (high dynamic range, HDR) 를 갖는 것으로서 설명될 수도 있다.
본 개시물은 HDR/WCG 컬러 표현에 의해 표현되는 비디오 데이터를 프로세싱하는 것을 포함하는 비디오 데이터를 프로세싱하는 것에 관련된다. 본 개시물의 하나 이상의 양태들에 따라서, 하나 이상의 보충적 향상 정보 (SEI) 메시지들은 비디오 데이터의 원래의 또는 네이티브 컬러 표현을 복원하기 위하여 비디오 디코더 또는 비디오 포스트프로세싱 디바이스가 본 개시물의 동적 범위 조정 (dynamic range adjustment, DRA) 기법들을 역전시키는 것을 허용하는 신택스 엘리먼트들 및 또는 다른 정보를 시그널링하는데 사용될 수도 있다. 동적 범위 조정 (DRA) 파라미터들은 HDR/WCG 컬러 표현을 더 잘 사용하기 위하여 본 개시물의 하나 이상의 양태들에 따라서 비디오 데이터에 적용될 수도 있고, 컬러 성분 값들의 파티션들을 위한 로컬 스케일 및 오프셋 값들 뿐만 아니라, 글로벌 오프셋 값들의 사용을 포함할 수도 있다.
본 개시물의 하나의 예에서, 동적 범위 조정을 수행함으로써 조정된 비디오 데이터를 디코딩하는 방법이, 인코딩된 비디오 비트스트림에서 적어도 하나의 보충적 향상 정보 (SEI) 메시지를 수신하는 단계로서, 적어도 하나의 SEI 메시지는 동적 범위 조정이 비디오 데이터에 적용된 방법을 특정하는 조정 정보를 나타내고, 조정 정보는 비디오 데이터가 동적 범위 조정 동안 파티셔닝되었던 복수의 파티션들 중 각각의 파티션에 적용되는 글로벌 오프셋 값을 포함하는, 상기 수신하는 단계와, 비디오 데이터로부터 비조정된 성분 값들을 생성하기 위해 조정 정보에 따라서 비디오 데이터에 대해 역 동적 범위 조정을 수행하는 단계를 포함한다.
본 개시물 다른 예에서, 비디오 데이터를 인코딩하는 방법이, 비디오 데이터로부터 조정된 성분 값들을 생성하기 위해 비디오 데이터에 대해 동적 범위 조정을 수행하는 단계와, 인코딩된 비디오 비트스트림에 적어도 하나의 보충적 향상 정보 (SEI) 메시지를 생성하는 단계로서, 적어도 하나의 SEI 메시지는 동적 범위 조정이 비디오 데이터에 적용된 방법을 특정하는 조정 정보를 나타내고, 조정 정보는 비디오 데이터가 동적 범위 조정 동안 파티셔닝되었던 복수의 파티션들 중 각각의 파티션에 적용되는 글로벌 오프셋 값을 포함하는, 상기 생성하는 단계를 포함한다.
본 개시물 다른 예에서, 동적 범위 조정을 수행함으로써 조정된 비디오 데이터를 디코딩하도록 구성되는 장치가, 비디오 데이터를 저장하도록 구성되는 메모리와, 인코딩된 비디오 비트스트림에서 적어도 하나의 보충적 향상 정보 (SEI) 메시지를 수신하는 것으로서, 적어도 하나의 SEI 메시지는 동적 범위 조정이 비디오 데이터에 적용된 방법을 특정하는 조정 정보를 나타내며, 조정 정보는 비디오 데이터가 동적 범위 조정 동안 파티셔닝되었던 복수의 파티션들 중 각각의 파티션에 적용되는 글로벌 오프셋 값을 포함하는, 상기 적어도 하나의 SEI 메시지를 수신하며, 그리고 비디오 데이터로부터 비조정된 성분 값들을 생성하기 위해 조정 정보에 따라서 비디오 데이터에 대해 역 동적 범위 조정을 수행하도록 구성되는 하나 이상의 프로세서들을 포함한다.
본 개시물 다른 예에서, 동적 범위 조정을 수행함으로써 조정된 비디오 데이터를 디코딩하도록 구성되는 장치가, 인코딩된 비디오 비트스트림에서 적어도 하나의 보충적 향상 정보 (SEI) 메시지를 수신하는 수단으로서, 적어도 하나의 SEI 메시지는 동적 범위 조정이 비디오 데이터에 적용된 방법을 특정하는 조정 정보를 나타내고, 조정 정보는 비디오 데이터가 동적 범위 조정 동안 파티셔닝되었던 복수의 파티션들 중 각각의 파티션에 적용되는 글로벌 오프셋 값을 포함하는, 상기 수신하는 수단과, 비디오 데이터로부터 비조정된 성분 값들을 생성하기 위해 조정 정보에 따라서 비디오 데이터에 대해 역 동적 범위 조정을 수행하는 수단을 포함한다.
본 개시물 다른 예에서, 동적 범위 조정을 수행함으로써 조정된 비디오 데이터를 디코딩하기 위한 컴퓨터 프로그램 제품이 저장하고 있는 컴퓨터 판독가능 매체를 포함한다. 실행될 때 명령들은 프로세서로 하여금, 인코딩된 비디오 비트스트림에서 적어도 하나의 보충적 향상 정보 (SEI) 메시지를 수신하는 것으로서, 적어도 하나의 SEI 메시지는 동적 범위 조정이 비디오 데이터에 적용된 방법을 특정하는 조정 정보를 나타내고, 조정 정보는 비디오 데이터가 동적 범위 조정 동안 파티셔닝되었던 복수의 파티션들 중 각각의 파티션에 적용되는 글로벌 오프셋 값을 포함하는, 상기 적어도 하나의 SEI 메시지를 수신하는 것과, 비디오 데이터로부터 비조정된 성분 값들을 생성하기 위해 조정 정보에 따라서 비디오 데이터에 대해 역 동적 범위 조정을 수행하는 것을 하게 한다.
하나 이상의 예들의 세부사항들은 첨부 도면들 및 다음의 설명에서 언급된다. 다른 특징들, 목적들, 및 장점들은 상세한 설명, 도면들, 및 청구항들로부터 명확하게 될 것이다.
도 1은 본 개시물의 기법들을 구현하도록 구성될 수도 있는 예시적인 비디오 인코딩 및 디코딩 시스템을 도시하는 블록도이다.
도 2는 HDR 데이터의 개념들을 예시하는 개념도이다.
도 3은 예시적인 색 영역들을 도시하는 개념도이다.
도 4는 HDR/WCG 표현 변환의 일 예를 도시하는 개념도이다.
도 5는 HDR/WCG 표현 역 변환의 일 예를 도시하는 개념도이다.
도 6은 인지적으로 균일한 코드 레벨들로부터 선형 휘도로의 비디오 데이터 변환 (SDR 및 HDR을 포함함) 을 위해 이용되는 전기 광학 전달 함수들 (Electro-optical transfer functions) (EOTF) 의 예를 도시하는 개념도이다.
도 7은 단일 컬러 성분에 적용되는 바와 같은 색 영역 변환 프로세스의 양태들을 도시하는 개념도이다.
도 8은 본 개시물의 기법들에 따라 동작하는 예시적인 HDR/WCG 변환 장치를 도시하는 블록도이다.
도 9a 내지 도 9c는 본 개시물의 하나 이상의 양태들에 따라서 동적 범위 조정 프로세스의 양태들을 예시하는 개념도들이다.
도 10은 본 개시물의 기법들에 따라 예시적인 HDR/WCG 역 변환 장치를 도시하는 블록도이다.
도 11은 컬러 리매핑 정보 (color remapping information, CRI) 프로세스의 전형적인 구조를 도시하는 개념도이다.
도 12는 본 개시물의 기법들을 구현할 수도 있는 또는 본 개시물의 하나 이상의 양태들에 따라서 사용될 수도 있는 비디오 인코더의 일 예를 도시하는 블록도이다.
도 13은 본 개시물의 기법들을 구현할 수도 있는 또는 본 개시물의 하나 이상의 양태들에 따라서 사용될 수도 있는 비디오 디코더의 일 예를 도시하는 블록도이다.
도 14는 본 개시물의 기법들에 따른 예시적인 HDR/WCG 변환 프로세스를 도시하는 흐름도이다.
도 15는 본 개시물의 기법들에 따른 예시적인 HDR/WCG 역 변환 프로세스를 도시하는 흐름도이다.
본 개시물은 높은 동적 범위 (HDR) 및 와이드 색 영역 (WCG) 표현들을 갖는 비디오 데이터의 프로세싱 및/또는 코딩에 관련된다. 더 구체적으로, 본 개시물의 기법들은 HDR 및 WCG 비디오 데이터의 더욱 효율적인 압축을 가능하게 하기 위해 특정한 색 공간들에서 비디오 데이터에 적용되는 시그널링 및 관련된 동작들을 포함한다. 본 개시물의 하나 이상의 양태들에 따라서, 이러한 동작들에 관련한 파라미터들은 하나 이상의 SEI 메시지들을 통해 시그널링될 수도 있다. 본 명세서에서 설명되는 기법들 및 디바이스들은 HDR 및 WCG 비디오 데이터를 포함하는 비디오 데이터를 코딩하기 위해 이용되는 하이브리드 기반 비디오 코딩 시스템들 (예컨대, H.265/HEVC, H.264/AVC 등) 의 압축 효율을 개선시킬 수도 있다.
하이브리드 기반 비디오 코딩 표준들을 포함하는 비디오 코딩 표준들은 ITU-T H.261, ISO/IEC MPEG-1 비주얼, ITU-T H.262 또는 ISO/IEC MPEG-2 비주얼, ITU-T H.263, ISO/IEC MPEG-4 비주얼 그리고 스케일러블 비디오 코딩 (SVC) 및 멀티-뷰 비디오 코딩 (MVC) 확장본들을 포함한 ITU-T H.264 (또한 ISO/IEC MPEG-4 AVC로 알려짐) 를 포함한다. 새로운 비디오 코딩 표준, 즉 고 효율 비디오 코딩 (HEVC, 또한 H.265라 지칭됨) 의 설계는 ITU-T 비디오 코딩 전문가 그룹 (Video Coding Experts Group, VCEG) 및 ISO/IEC 동 화상 전문가 그룹 (Motion Picture Experts Group, MPEG) 의 JCT-VC (Joint Collaboration Team on Video Coding) 에 의해 완결되었다. HEVC 규격 초안 10 (WD10) 이라고 지칭되는 HEVC 초안 사양서인, Bross et al., "High efficiency video coding (HEVC) text specification draft 10 (for FDIS & Last Call)", Joint Collaborative Team on Video Coding (JCT-VC) of ITU-T SG16 WP3 and ISO/IEC JTC1/SC29/WG11, 12th Meeting: Geneva, CH, 14-23 January 2013, JCTVC-L1003v34는 http://phenix.int-evry.fr/jct/doc_end_user/documents/12_Geneva/wg11/JCTVC-L1003-v34.zip에서 입수 가능하다. 완결된 HEVC 표준은 HEVC 버전 1이라고 지칭된다.
결함 보고서인 Wang et al., "High efficiency video coding (HEVC) Defect Report," Joint Collaborative Team on Video Coding (JCT-VC) of ITU-T SG16 WP3 and ISO/IEC JTC1/SC29/WG11, 14th Meeting: Vienna, AT, 25 July-2 August 2013, JCTVC-N1003v1은, http://phenix.int-evry.fr/jct/doc_end_user/documents/14_Vienna/wg11/JCTVC-N1003-v1.zip에서 입수 가능하다. 완결된 HEVC 표준 문서는 ITU-T H.265, Series H: Audiovisual and Multimedia Systems, Infrastructure of audiovisual services - Coding of moving video, High efficiency video coding, Telecommunication Standardization Sector of International Telecommunication Union (ITU), April 2013로서 게시되었고, 완결된 HEVC 표준의 다른 버전이 2014년 10월에 게시되었다. H.265/HEVC 규격 텍스트의 사본이 http://www.itu.int/rec/T-REC-H.265-201504-I/en으로부터 다운로드될 수도 있다.
도 1은 본 개시물의 기법들을 이용할 수도 있는 예시적인 비디오 인코딩 및 디코딩 시스템 (10) 을 도시하는 블록도이다. 도 1에 도시된 바와 같이, 시스템 (10) 은 목적지 디바이스 (14) 에 의해 나중에 디코딩될 인코딩된 비디오 데이터를 제공하는 소스 디바이스 (12) 를 포함한다. 특히, 소스 디바이스 (12) 는 비디오 데이터를 컴퓨터 판독가능 매체 (16) 를 통해 목적지 디바이스 (14) 로 제공한다. 소스 디바이스 (12) 와 목적지 디바이스 (14) 는 데스크톱 컴퓨터들, 노트북 (즉, 랩톱) 컴퓨터들, 태블릿 컴퓨터들, 셋톱 박스들, 이른바 "스마트" 폰들과 같은 전화기 핸드셋들, 이른바 "스마트" 패드들, 텔레비전들, 카메라들, 디스플레이 디바이스들, 디지털 미디어 플레이어들, 비디오 게이밍 콘솔들, 비디오 스트리밍 디바이스들 등을 포함하는 매우 다양한 디바이스들 중 임의의 것을 포함할 수도 있다. 일부 경우들에서, 소스 디바이스 (12) 와 목적지 디바이스 (14) 는 무선 통신을 위해 갖추어질 수도 있다.
목적지 디바이스 (14) 는 디코딩될 인코딩된 비디오 데이터를 컴퓨터 판독가능 매체 (16) 를 통해 수신할 수도 있다. 컴퓨터 판독가능 매체 (16) 는 소스 디바이스 (12) 로부터의 인코딩된 비디오 데이터를 목적지 디바이스 (14) 로 이동시킬 수 있는 임의 유형의 매체 또는 디바이스를 포함할 수도 있다. 하나의 예에서, 컴퓨터 판독가능 매체 (16) 는 소스 디바이스 (12) 가 인코딩된 비디오 데이터를 목적지 디바이스 (14) 로 직접 실시간으로 송신하는 것을 가능하게 하는 통신 매체를 포함할 수도 있다. 인코딩된 비디오 데이터는 통신 표준, 이를테면 유선 또는 무선 통신 프로토콜에 따라 변조되고 목적지 디바이스 (14) 로 송신될 수도 있다. 통신 매체는 임의의 무선 또는 유선 통신 매체, 이를테면 무선 주파수 (RF) 스펙트럼 또는 하나 이상의 물리적 송신 라인들을 포함할 수도 있다. 통신 매체는 패킷 기반 네트워크, 이를테면 국부 영역 네트워크, 광역 네트워크, 또는 인터넷과 같은 글로벌 네트워크의 부분을 형성할 수도 있다. 통신 매체는 라우터들, 스위치들, 기지국들, 또는 소스 디바이스 (12) 로부터 목적지 디바이스 (14) 로의 통신을 용이하게 하는데 유용할 수도 있는 임의의 다른 장비를 포함할 수도 있다.
다른 예들에서, 컴퓨터 판독가능 매체 (16) 는 비-일시적 저장 매체, 이를테면 하드 디스크, 플래시 드라이브, 콤팩트 디스크, 디지털 비디오 디스크, 블루레이 디스크, 또는 다른 컴퓨터-판독가능 매체를 포함할 수도 있다. 일부 예들에서, 네트워크 서버 (미도시) 가 소스 디바이스 (12) 로부터 인코딩된 비디오 데이터를 수신하고 그 인코딩된 비디오 데이터를, 예컨대, 네트워크 송신을 통해 목적지 디바이스 (14) 에 제공할 수도 있다. 마찬가지로, 매체 생산 설비, 이를테면 디스크 스탬핑 설비의 컴퓨팅 디바이스가, 소스 디바이스 (12) 로부터 인코딩된 비디오 데이터를 수신하고 그 인코딩된 비디오 데이터를 포함하는 디스크를 생산할 수도 있다. 그러므로, 컴퓨터 판독가능 매체 (16) 는 다양한 예들에서, 다양한 형태들의 하나 이상의 컴퓨터 판독가능 매체들을 포함한다고 이해될 수도 있다.
일부 예들에서, 인코딩된 데이터는 출력 인터페이스 (22) 로부터 저장 디바이스로 출력될 수도 있다. 마찬가지로, 인코딩된 데이터는 입력 인터페이스에 의해 저장 디바이스로부터 액세스될 수도 있다. 저장 디바이스는 하드 드라이브, 블루-레이 디스크들, DVD들, CD-ROM들, 플래시 메모리, 휘발성 또는 비휘발성 메모리, 또는 인코딩된 비디오 데이터를 저장하기 위한 임의의 다른 적합한 디지털 저장 매체들과 같은 다양한 분산형 또는 국부적으로 액세스되는 데이터 저장 매체들 중 임의의 것을 포함할 수도 있다. 추가의 예에서, 저장 디바이스는 소스 디바이스 (12) 에 의해 생성된 인코딩된 비디오를 저장할 수도 있는 파일 서버 또는 다른 중간 저장 디바이스에 대응할 수도 있다. 목적지 디바이스 (14) 는 저장 디바이스로부터의 저장된 비디오 데이터에 스트리밍 또는 다운로드를 통해 액세스할 수도 있다. 파일 서버는 인코딩된 비디오 데이터를 저장하고 인코딩된 비디오 데이터를 목적지 디바이스 (14) 로 송신할 수 있는 임의 유형의 서버일 수도 있다. 예시적인 파일 서버들은 웹 서버 (예컨대, 웹사이트용), FTP 서버, 네트워크 부속 스토리지 (network attached storage; NAS) 디바이스들, 또는 로컬 디스크 드라이브를 포함한다. 목적지 디바이스 (14) 는 인터넷 접속을 포함하는 임의의 표준 데이터 접속을 통해 인코딩된 비디오 데이터에 액세스할 수도 있다. 이는 무선 채널 (예컨대, Wi-Fi 접속), 유선 접속 (예컨대, DSL, 케이블 모뎀 등), 또는 파일 서버 상에 저장된 인코딩된 비디오 데이터에 액세스하기에 적합한 양쪽 모두의 조합을 포함할 수도 있다. 저장 디바이스로부터의 인코딩된 비디오 데이터의 송신은 스트리밍 송신, 다운로드 송신, 또는 그 조합일 수도 있다.
본 개시물의 기법들은 무선 애플리케이션들 또는 설정 (setting) 들로 반드시 제한되지는 않는다. 그 기법들은 다양한 멀티미디어 애플리케이션들 중 임의의 것, 이를테면 OTA (over-the-air) 텔레비전 브로드캐스트, 케이블 텔레비전 송신들, 위성 텔레비전 송신들, 인터넷 스트리밍 비디오 송신들, 이를테면 HTTP를 통한 동적 적응적 스트리밍 (DASH), 데이터 저장 매체 상에 인코딩된 디지털 비디오, 데이터 저장 매체 상에 저장된 디지털 비디오의 디코딩, 또는 다른 애플리케이션들의 지원으로 비디오 코딩에 적용될 수도 있다. 일부 예들에서, 시스템 (10) 은 비디오 스트리밍, 비디오 플레이백, 비디오 브로드캐스팅, 및/또는 비디오폰 통화 (video telephony) 와 같은 애플리케이션들을 지원하기 위해 단방향 또는 양방향 비디오 송신을 지원하도록 구성될 수도 있다.
도 1의 예에서, 소스 디바이스 (12) 는 비디오 소스 (18), 비디오 프리프로세서 (19), 비디오 인코더 (20), 및 출력 인터페이스 (22) 를 포함한다. 목적지 디바이스 (14) 는 입력 인터페이스 (28), 비디오 포스트프로세서 (31), 비디오 디코더 (30), 및 디스플레이 디바이스 (32) 를 포함한다. 본 개시물에 따라서, 소스 디바이스 (12) 의 비디오 프리프로세서 (19) 는 HDR 및 WCG 비디오 데이터의 더욱 효율적인 압축을 가능하게 하기 위해 특정한 색 공간들에서 비디오 데이터에 적용되는 시그널링 및 관련된 동작들을 포함하는, 본 개시물의 기법들을 구현하도록 구성될 수도 있다. 일부 예들에서, 비디오 프리프로세서 (19) 는 비디오 인코더 (20) 와는 별개일 수도 있다. 다른 예들에서, 비디오 프리프로세서 (19) 는 비디오 인코더 (20) 의 일부일 수도 있다. 다른 예들에서, 소스 디바이스와 목적지 디바이스가 다른 컴포넌트들 또는 배열체들을 포함할 수도 있다. 예를 들어, 소스 디바이스 (12) 는 외부 비디오 소스 (18), 이를테면 외부 카메라로부터 비디오 데이터를 수신할 수도 있다. 마찬가지로, 목적지 디바이스 (14) 는, 통합형 디스플레이 디바이스를 포함하기 보다는, 외부 디스플레이 디바이스와 인터페이싱할 수도 있다.
도 1의 예시된 시스템 (10) 은 단지 하나의 예일 뿐이다. HDR 및 WCG 비디오 데이터를 프로세싱하기 위한 기법들은 임의의 디지털 비디오 인코딩 및/또는 비디오 디코딩 디바이스에 의해 수행될 수도 있다. 더구나, 본 개시물의 기법들은 비디오 프리프로세서 및/또는 비디오 포스트프로세서에 의해 또한 수행될 수도 있다. 비디오 프리프로세서가 인코딩 전에 (예컨대, HEVC 인코딩 전에) 비디오 데이터를 프로세싱하도록 구성되는 임의의 디바이스일 수도 있다. 비디오 포스트프로세서가 디코딩 후에 (예컨대, HEVC 디코딩 후에) 비디오 데이터를 프로세싱하도록 구성되는 임의의 디바이스일 수도 있다. 소스 디바이스 (12) 와 목적지 디바이스 (14) 는, 소스 디바이스 (12) 가 목적지 디바이스 (14) 로의 송신을 위해 코딩된 비디오 데이터를 생성하는 그런 코딩 디바이스들의 예들일 뿐이다. 일부 예들에서, 디바이스들 (12, 14) 은 디바이스들 (12, 14) 의 각각이 비디오 인코딩 및 디코딩 컴포넌트들, 뿐만 아니라 비디오 프리프로세서 및 비디오 포스트프로세서 (예컨대, 비디오 프리프로세서 (19) 및 비디오 포스트프로세서 (31) 각각) 를 포함하도록 실질적으로 대칭적 방식으로 동작할 수도 있다. 그런고로, 시스템 (10) 은, 예컨대, 비디오 스트리밍, 비디오 플레이백, 비디오 브로드캐스팅, 또는 비디오폰 통화를 위해 비디오 디바이스들 (12, 14) 간에 단방향 또는 양방향 비디오 송신을 지원할 수도 있다.
소스 디바이스 (12) 의 비디오 소스 (18) 는 비디오 캡처 디바이스, 이를테면 비디오 카메라, 이전에 캡처된 비디오를 포함하는 비디오 아카이브, 및/또는 비디오 콘텐츠 제공자로부터의 비디오를 수신하는 비디오 피드 인터페이스를 포함할 수도 있다. 추가의 대체예로서, 비디오 소스 (18) 는 컴퓨터 그래픽 기반 데이터를, 소스 비디오, 또는 라이브 비디오, 아카이브된 비디오, 및 컴퓨터 생성 비디오의 조합으로서 생성할 수도 있다. 일부 경우들에서, 비디오 소스 (18) 가 비디오 카메라이면, 소스 디바이스 (12) 와 목적지 디바이스 (14) 는 이른바 카메라 폰들 또는 비디오 폰들을 형성할 수도 있다. 그러나, 위에서 언급된 바와 같이, 본 개시물에서 설명되는 기법들은 대체로 비디오 코딩 및 비디오 프로세싱에 적용 가능할 수도 있고, 무선 및/또는 유선 애플리케이션들에 적용될 수도 있다. 각각의 경우에서, 캡처된, 사전-캡처된 (pre-captured), 또는 컴퓨터 생성된 비디오는 비디오 인코더 (20) 에 의해 인코딩될 수도 있다. 인코딩된 비디오 정보는 그러면 출력 인터페이스 (22) 에 의해 컴퓨터 판독가능 매체 (16) 상으로 출력될 수도 있다.
목적지 디바이스 (14) 의 입력 인터페이스 (28) 는 컴퓨터 판독가능 매체 (16) 로부터 정보를 수신한다. 컴퓨터 판독가능 매체 (16) 의 정보는, 블록들 및 다른 코딩된 유닛들, 예컨대, 픽처들의 그룹 (groups of pictures GOP) 들의 특성들 및/또는 프로세싱을 기술하는 신택스 엘리먼트들을 포함하는, 비디오 디코더 (30) 에 의해 또한 사용되는, 비디오 인코더 (20) 에 의해 정의된 신택스 정보를 포함할 수도 있다. 디스플레이 디바이스 (32) 는 디코딩된 비디오 데이터를 사용자에게 디스플레이하고, 음극선관 (CRT), 액정 디스플레이 (LCD), 플라즈마 디스플레이, 유기 발광 다이오드 (OLED) 디스플레이, 또는 다른 유형의 디스플레이 디바이스와 같은 다양한 디스플레이 디바이스들 중 임의의 것을 포함할 수도 있다.
비디오 인코더 (20) 와 비디오 디코더 (30) 각각은 다양한 적합한 인코더 회로, 이를테면 하나 이상의 마이크로프로세서들, 디지털 신호 프로세서들 (DSP들), 주문형 집적회로들 (ASIC들), 현장 프로그램가능 게이트 어레이들 (FPGA들), 개별 로직, 소프트웨어, 하드웨어, 펌웨어 또는 그것들의 임의의 조합 중 임의의 것으로서 구현될 수도 있다. 그 기법들이 소프트웨어에서 부분적으로 구현되는 경우, 디바이스가 본 개시물의 기법들을 수행하기 위해, 적합한 비일시적 컴퓨터 판독가능 매체 내에 소프트웨어에 대한 명령들을 저장하고 하나 이상의 프로세서들을 사용하여 하드웨어에서 그 명령들을 실행할 수도 있다. 비디오 인코더 (20) 및 비디오 디코더 (30) 의 각각은 하나 이상의 인코더들 또는 디코더들 내에 구비될 수도 있고, 그것들 중 어느 하나는 결합형 인코더/디코더 (CODEC) 의 부분으로서 각각의 디바이스 내에 통합될 수도 있다.
비디오 프리프로세서 (19) 와 비디오 포스트프로세서 (31) 각각은, 하나 이상의 마이크로프로세서들, DSP들, ASIC들, FPGA들, 개별 로직, 소프트웨어, 하드웨어, 펌웨어 또는 그것들의 임의의 조합과 같은 다양한 적합한 인코더 중 임의의 것으로서 구현될 수도 있다. 그 기법들이 소프트웨어에서 부분적으로 구현되는 경우, 디바이스가 본 개시물의 기법들을 수행하기 위해, 적합한 비일시적 컴퓨터 판독가능 매체 내에 소프트웨어에 대한 명령들을 저장하고 하나 이상의 프로세서들을 사용하여 하드웨어에서 그 명령들을 실행할 수도 있다.
일부 예들에서, 비디오 인코더 (20) 와 비디오 디코더 (30) 는, ISO/IEC MPEG-4 비주얼 그리고 SVC (Scalable Video Coding) 확장본, MVC (Multi-view Video Coding) 확장본, MVC 기반 3차원 비디오 (3DV) 확장본을 포함한 ITU-T H.264 (또한 ISO/IEC MPEG-4 AVC로 알려짐) 와 같은 비디오 압축 표준에 따라 동작한다. 일부 경우들에서, MVC 기반 3DV에 부합하는 임의의 비트스트림은 MVC 프로파일, 예컨대, 스테레오 하이 프로파일을 준수하는 서브-비트스트림을 항상 포함한다. 더욱이, H.264/AVC에 대한 3DV 코딩 확장본, 즉 AVC 기반 3DV를 생성하려는 지속적인 노력이 있다. 비디오 코딩 표준들의 다른 예들은 ITU-T H.261, ISO/IEC MPEG-1 비주얼, ITU-T H.262 또는 ISO/IEC MPEG-2 비주얼, ITU-T H.263, ISO/IEC MPEG-4 비주얼 그리고 ITU-T H.264, ISO/IEC 비주얼을 포함한다. 다른 예들에서, 비디오 인코더 (20) 와 비디오 디코더 (30) 는 HEVC 표준에 따라 동작하도록 구성될 수도 있다.
본 개시물의 하나 이상의 양태들에 따라서, 하나 이상의 SEI 메시지들은 비디오 프리프로세서 (19) 에 의해 생성된 하나 이상의 파라미터들을 시그널링할 수도 있다. 아래에서 더 상세히 설명될 바와 같이, 비디오 프리프로세서 (19) 와 비디오 포스트프로세서 (31) 는, 일부 예들에서, 제 1 컬러 컨테이너가 제 1 색 영역 또는 제 1 세트 또는 원색들에 의해 정의되어 있는, 상기 제 1 컬러 컨테이너와, 제 1 색 공간을 포함하는 제 1 컬러 표현에 관련된 비디오 데이터를 수신하며, 동적 범위 조정 파라미터들이 그 비디오 데이터의 특성들에 기초하고 있는, 상기 하나 이상의 동적 범위 조정 파라미터들을 도출하고, 하나 이상의 동적 범위 조정 파라미터들에 따라서 비디오 데이터에 대해 동적 범위 조정을 수행하도록 구성될 수도 있다. 비디오 인코더 (20) 는 비디오 프리프로세서 (19) 로부터 수신된 하나 이상의 파라미터들에 기초하여 하나 이상의 SEI 메시지들을 시그널링할 수도 있다. 비디오 디코더 (30) 는 하나 이상의 SEI 메시지들을 수신하고 파라미터들을 비디오 포스트프로세서 (31) 에 전달할 수도 있다.
비디오 프리프로세서 (19) 와 비디오 포스트프로세서 (31) 각각은 다양한 적합한 인코더 회로, 이를테면 하나 이상의 마이크로프로세서들, 디지털 신호 프로세서들 (DSP들), 주문형 집적회로들 (ASIC들), 현장 프로그램가능 게이트 어레이들 (FPGA들), 개별 로직, 소프트웨어, 하드웨어, 펌웨어 또는 그것들의 임의의 조합 중 임의의 것으로서 구현될 수도 있다. 그 기법들이 소프트웨어에서 부분적으로 구현되는 경우, 디바이스가 본 개시물의 기법들을 수행하기 위해, 적합한 비일시적 컴퓨터 판독가능 매체 내에 소프트웨어에 대한 명령들을 저장하고 하나 이상의 프로세서들을 사용하여 하드웨어에서 그 명령들을 실행할 수도 있다. 위에서 논의된 바와 같이 비디오 프리프로세서 (19) 와 비디오 포스트프로세서 (31) 는 각각 비디오 인코더 (20) 와 비디오 디코더 (30) 와는 별개의 디바이스들일 수도 있다. 다른 예들에서, 비디오 프리프로세서 (19) 는 비디오 인코더 (20) 와 단일 디바이스로 통합될 수도 있고 비디오 포스트프로세서 (31) 는 비디오 디코더 (30) 와 단일 디바이스로 통합될 수도 있다.
HEVC 및 다른 비디오 코딩 표준들에서, 비디오 시퀀스가 일련의 픽처들을 통상 포함한다. 픽처들은 "프레임들"이라고 또한 지칭될 수도 있다. 픽처가 SL, SCb 및 SCr로 표시되는 세 개의 샘플 어레이들을 포함할 수도 있다. SL은 루마 샘플들의 2차원 어레이 (즉, 블록) 이다. SCb는 Cb 색차 샘플들의 2차원 어레이이다. SCr은 Cr 색차 샘플들의 2차원 어레이이다. 색차 샘플들은 본 명세서에서 "크로마" 샘플들이라고 또한 지칭될 수도 있다. 다른 사례들에서, 픽처가 모노크롬일 수도 있고 루마 샘플들의 어레이만을 포함할 수도 있다.
비디오 인코더 (20) 는 코딩 트리 유닛들 (CTU들) 의 세트를 생성할 수도 있다. CTU들의 각각은, 루마 샘플들의 코딩 트리 블록, 크로마 샘플들의 두 개의 대응 코딩 트리 블록들, 및 코딩 트리 블록들의 샘플들을 코딩하는데 사용된 신택스 구조들을 포함할 수도 있다. 모노크롬 픽처 또는 별개의 세 개의 컬러 평면들을 갖는 픽처에서, CTU가 단일 코딩 트리 블록과 그 코딩 트리 블록의 샘플들을 코딩하는데 사용된 신택스 구조들을 포함할 수도 있다. 코딩 트리 블록이 샘플들의 NxN 블록일 수도 있다. CTU가 "트리 블록" 또는 "최대 코딩 유닛 (LCU)"이라고 또한 지칭될 수도 있다. HEVC의 CTU들은 다른 비디오 코딩 표준들, 이를테면 H.264/AVC의 매크로블록들과 대체로 유사할 수도 있다. 그러나, CTU가 특정 사이즈로 반드시 제한되는 것은 아니고 하나 이상의 코딩 유닛들 (CU들) 을 포함할 수도 있다. 슬라이스가 래스터 스캔으로 연속하여 순서화된 정수 수의 CTU들을 포함할 수도 있다.
본 개시물은 하나 이상의 샘플 블록들과 하나 이상의 샘플 블록들의 샘플들을 코딩하는데 사용된 신택스 구조들을 지칭하기 위해 "비디오 유닛" 또는 "비디오 블록"이란 용어를 사용할 수도 있다. 예시적인 유형들의 비디오 유닛들은 HEVC에서의 CTU들, CU들, PU들, 변환 유닛들 (TU들), 또는 다른 비디오 코딩 표준들에서의 매크로블록들, 매크로블록 파티션들 등을 포함할 수도 있다.
코딩된 CTU를 생성하기 위해, 비디오 인코더 (20) 는 CTU의 코딩 트리 블록들에 대해 쿼드트리 파티셔닝을 재귀적으로 수행하여 코딩 트리 블록들을 코딩 블록들로 나눌 수도 있으며, 그래서 그 이름이 "코딩 트리 유닛들"이다. 코딩 블록이 샘플들의 NxN 블록이다. CU가, 루마 샘플 어레이, Cb 샘플 어레이 및 Cr 샘플 어레이를 갖는 픽처의 루마 샘플들의 코딩 블록 및 크로마 샘플들의 두 개의 대응하는 코딩 블록들과, 그 코딩 블록들의 샘플들을 코딩하는데 사용된 신택스 구조들을 포함할 수도 있다. 모노크롬 픽처 또는 별개의 세 개의 컬러 평면들을 갖는 픽처에서, CU가 단일 코딩 블록과 그 코딩 블록의 샘플들을 코딩하는데 사용된 신택스 구조들을 포함할 수도 있다.
비디오 인코더 (20) 는 CU의 코딩 블록을 하나 이상의 예측 블록 (prediction block) 들로 파티셔닝할 수도 있다. 예측 블록이 동일한 예측이 적용되는 샘플들의 직사각형 (즉, 정사각형 또는 정사각형 아닌) 블록일 수도 있다. CU의 예측 유닛 (PU) 이 픽처의 루마 샘플들의 예측 블록, 크로마 샘플들의 두 개의 대응하는 예측 블록들, 및 예측 블록 샘플들을 예측하는데 사용된 신택스 구조들을 포함할 수도 있다. 모노크롬 픽처 또는 별개의 세 개의 컬러 평면들을 갖는 픽처에서, PU가 단일 예측 블록과 그 예측 블록 샘플들을 예측하는데 사용된 신택스 구조들을 포함할 수도 있다. 비디오 인코더 (20) 는 CU의 각각의 PU의 루마, Cb 및 Cr 예측 블록들에 대한 예측성 루마, Cb 및 Cr 블록들을 생성할 수도 있다.
비디오 인코더 (20) 는 PU에 대한 예측성 블록들을 생성하기 위해 인트라 예측 또는 인터 예측을 사용할 수도 있다. 비디오 인코더 (20) 가 PU의 예측성 블록들을 생성하기 위해 인트라 예측을 사용하면, 비디오 인코더 (20) 는 그 PU에 연관된 픽처의 디코딩된 샘플들에 기초하여 그 PU의 예측성 블록들을 생성할 수도 있다.
비디오 인코더 (20) 가 PU의 예측성 블록들을 생성하기 위해 인터 예측을 사용하면, 비디오 인코더 (20) 는 그 PU에 연관된 픽처 이외의 하나 이상의 픽처들의 디코딩된 샘플들에 기초하여 그 PU의 예측성 블록들을 생성할 수도 있다. 인터 예측은 단방향 인터 예측 (즉, 단예측 (uni-prediction)) 또는 양방향 인터 예측 (즉, 양예측 (bi-prediction)) 일 수도 있다. 단예측 또는 양예측을 수행하기 위해, 비디오 인코더 (20) 는 현재 슬라이스에 대한 제 1 참조 픽처 리스트 (RefPicList0) 및 제 2 참조 픽처 리스트 (RefPicList1) 를 생성할 수도 있다.
참조 픽처 리스트들의 각각은 하나 이상의 참조 픽처들을 포함할 수도 있다. 단예측을 사용할 때, 비디오 인코더 (20) 는 참조 픽처 내의 참조 로케이션을 결정하기 위해 RefPicList0 및 RefPicList1 중 어느 하나 또는 양쪽 모두에서 참조 픽처들을 검색할 수도 있다. 더욱이, 단예측을 사용할 때, 비디오 인코더 (20) 는, 참조 로케이션에 대응하는 샘플들에 적어도 부분적으로 기초하여, PU에 대한 예측성 샘플 블록들을 생성할 수도 있다. 더구나, 단예측을 사용할 때, 비디오 인코더 (20) 는 PU의 예측 블록과 참조 로케이션 사이의 공간적 변위를 나타내는 단일 모션 벡터를 생성할 수도 있다. PU의 예측 블록과 참조 로케이션 사이의 공간적 변위를 나타내기 위해, 모션 벡터가 PU의 예측 블록과 참조 로케이션 사이의 수평 변위를 특정하는 수평 성분을 포함할 수도 있고, PU의 예측 블록과 참조 로케이션 사이의 수직 변위를 특정하는 수직 성분을 포함할 수도 있다.
양예측을 사용하여 PU를 인코딩할 때, 비디오 인코더 (20) 는 RefPicList0에서의 참조 픽처의 제 1 참조 로케이션과 RefPicList1에서의 참조 픽처의 제 2 참조 로케이션을 결정할 수도 있다. 비디오 인코더 (20) 는 그 다음에, 제 1 및 제 2 참조 로케이션들에 대응하는 샘플들에 적어도 부분적으로 기초하여, PU에 대한 예측성 블록들을 생성할 수도 있다. 더구나, 양예측을 사용하여 PU를 인코딩할 때, 비디오 인코더 (20) 는, PU의 샘플 블록과 제 1 참조 로케이션 사이의 공간적 변위를 나타내는 제 1 모션과 PU의 예측 블록과 제 2 참조 로케이션 사이의 공간적 변위를 나타내는 제 2 모션을 생성할 수도 있다.
비디오 인코더 (20) 가 CU의 하나 이상의 PU들에 대한 예측성 루마, Cb, 및 Cr 블록들을 생성한 후, 비디오 인코더 (20) 는 그 CU에 대한 루마 잔차 블록을 생성할 수도 있다. CU의 루마 잔차 블록에서의 각각의 샘플은 CU의 예측성 루마 블록들 중 하나의 예측성 루마 블록에서의 루마 샘플과 CU의 원래의 루마 코딩 블록에서의 대응하는 샘플 간의 차이를 나타낸다. 덧붙여서, 비디오 인코더 (20) 는 CU에 대한 Cb 잔차 블록을 생성할 수도 있다. CU의 Cb 잔차 블록에서의 각각의 샘플은 CU의 예측성 Cb 블록들 중 하나의 예측성 Cb 블록에서의 Cb 샘플과 CU의 원래의 Cb 코딩 블록에서의 대응 샘플 사이의 차이를 나타낼 수도 있다. 비디오 인코더 (20) 는 CU에 대한 Cr 잔차 블록을 또한 생성할 수도 있다. CU의 Cr 잔차 블록에서의 각각의 샘플은 CU의 예측성 Cr 블록들 중 하나의 예측성 Cr 블록에서의 Cr 샘플과 CU의 원래의 Cr 코딩 블록에서의 대응 샘플 사이의 차이를 나타낼 수도 있다.
더욱이, 비디오 인코더 (20) 는 쿼드트리 파티셔닝을 사용하여 CU의 루마, Cb, 및 Cr 잔차 블록들을 하나 이상의 루마, Cb, 및 Cr 변환 블록들로 분해할 수도 있다. 변환 블록이 동일한 변환이 적용되는 샘플들의 직사각형 블록일 수도 있다. CU의 변환 유닛 (TU) 이 루마 샘플들의 변환 블록, 크로마 샘플들의 두 개의 대응하는 변환 블록들, 및 그 변환 블록 샘플들을 변환하는데 사용된 신택스 구조들을 포함할 수도 있다. 모노크롬 픽처 또는 별개의 세 개의 컬러 평면들을 갖는 픽처에서, TU가 단일 변환 블록과 그 변환 블록 샘플들을 변환하는데 사용된 신택스 구조들을 포함할 수도 있다. 따라서, CU의 각각의 TU는 루마 변환 블록, Cb 변환 블록, 및 Cr 변환 블록에 연관될 수도 있다. TU에 연관된 루마 변환 블록은 CU의 루마 잔차 블록의 서브-블록일 수도 있다. Cb 변환 블록은 CU의 Cb 잔차 블록의 서브-블록일 수도 있다. Cr 변환 블록은 CU의 Cr 잔차 블록의 서브-블록일 수도 있다.
비디오 인코더 (20) 는 하나 이상의 변환들을 TU의 루마 변환 블록에 적용하여 그 TU에 대한 루마 계수 블록을 생성할 수도 있다. 계수 블록이 변환 계수들의 2차원 어레이일 수도 있다. 변환 계수가 스칼라 양일 수도 있다. 비디오 인코더 (20) 는 하나 이상의 변환들을 TU의 Cb 변환 블록에 적용하여 TU에 대한 Cb 계수 블록을 생성할 수도 있다. 비디오 인코더 (20) 는 하나 이상의 변환들을 TU의 Cr 변환 블록에 적용하여 TU에 대한 Cr 계수 블록을 생성할 수도 있다.
계수 블록 (예컨대, 루마 계수 블록, Cb 계수 블록 또는 Cr 계수 블록) 을 생성한 후, 비디오 인코더 (20) 는 그 계수 블록을 양자화할 수도 있다. 양자화는 변환 계수들이 그 변환 계수들을 표현하는데 사용된 데이터의 양을 가능한 한 줄이도록 양자화되어서, 추가의 압축을 제공하는 프로세스를 일반적으로 지칭한다. 더욱이, 비디오 인코더 (20) 는 변환 계수들을 역 양자화하고 픽처의 CU들의 TU들의 변환 블록들을 복원하기 위하여 변환 계수들에 역 변환을 적용할 수도 있다. 비디오 인코더 (20) 는 CU의 TU들의 복원된 변환 블록들과 CU의 PU들의 예측성 블록들을 사용하여 CU의 코딩 블록들을 복원할 수도 있다. 픽처의 각각의 CU의 코딩 블록들을 복원함으로써, 비디오 인코더 (20) 는 그 픽처를 복원할 수도 있다. 비디오 인코더 (20) 는 복원된 픽처들을 디코딩된 픽처 버퍼 (DPB) 에 저장할 수도 있다. 비디오 인코더 (20) 는 인터 예측 및 인트라 예측을 위해 DPB에서의 복원된 픽처들을 사용할 수도 있다.
비디오 인코더 (20) 가 계수 블록을 양자화한 후, 비디오 인코더 (20) 는 양자화된 변환 계수들을 나타내는 신택스 엘리먼트들을 엔트로피 인코딩할 수도 있다. 예를 들어, 비디오 인코더 (20) 는 양자화된 변환 계수들을 나타내는 신택스 엘리먼트들에 대해 콘텍스트 적응 이진 산술 코딩 (CABAC) 을 수행할 수도 있다. 비디오 인코더 (20) 는 엔트로피 인코딩된 신택스 엘리먼트들을 비트스트림으로 출력할 수도 있다.
비디오 인코더 (20) 는 코딩된 픽처들의 표현 및 연관된 데이터를 형성하는 비트들의 시퀀스를 포함하는 비트스트림을 출력할 수도 있다. 그 비트스트림은 네트워크 추상화 계층 (NAL) 유닛들의 시퀀스를 포함할 수도 있다. NAL 유닛들의 각각은 NAL 유닛 헤더를 포함하고 원시 바이트 시퀀스 패이로드 (RBSP) 를 캡슐화한다. NAL 유닛 헤더는 NAL 유닛 유형 코드를 나타내는 신택스 엘리먼트를 포함할 수도 있다. NAL 유닛의 NAL 유닛 헤더에 의해 특정된 NAL 유닛 유형 코드는 NAL 유닛의 유형을 나타낸다. RBSP가 NAL 유닛 내에 캡슐화되는 정수 수의 바이트들을 포함하는 신택스 구조일 수도 있다. 일부 사례들에서, RBSP가 영 비트들을 포함한다.
상이한 유형들의 NAL 유닛들이 상이한 유형들의 RBSP들을 캡슐화할 수도 있다. 예를 들어, 제 1 유형의 NAL 유닛은 픽처 파라미터 세트 (PPS) 에 대한 RBSP를 캡슐화할 수도 있으며, 제 2 유형의 NAL 유닛은 코딩된 슬라이스에 대한 RBSP를 캡슐화할 수도 있으며, 제 3 유형의 NAL 유닛은 보충적 향상 정보 (SEI) 에 대한 RBSP를 캡슐화할 수도 있다는 등등이다. PPS가, 0 이상의 전체 코딩된 픽처들에 적용되는 신택스 엘리먼트들을 포함할 수도 있는 신택스 구조이다. 비디오 코딩 데이터에 대한 RBSP들 (파라미터 세트들 및 SEI 메시지들에 대한 RBSP과는 대조적임) 을 캡슐화하는 NAL 유닛들은, 비디오 코딩 계층 (VCL) NAL 유닛들이라고 지칭될 수도 있다. 코딩된 슬라이스를 캡슐화하는 NAL 유닛이 코딩된 슬라이스 NAL 유닛이라고 본원에서 지칭될 수도 있다. 코딩된 슬라이스에 대한 RBSP가 슬라이스 헤더와 슬라이스 데이터를 포함할 수도 있다.
비디오 디코더 (30) 는 비트스트림을 수신할 수도 있다. 덧붙여서, 비디오 디코더 (30) 는 그 비트스트림으로부터 신택스 엘리먼트들을 디코딩하기 위해 그 비트스트림을 파싱할 수도 있다. 비디오 디코더 (30) 는 비트스트림으로부터 디코딩된 신택스 엘리먼트들에 적어도 부분적으로 기초하여 비디오 데이터의 픽처들을 복원할 수도 있다. 비디오 데이터를 복원하는 프로세스는 비디오 인코더 (20) 에 의해 수행된 프로세스에 일반적으로 역일 수도 있다. 예를 들면, 비디오 디코더 (30) 는 현재 CU의 PU들에 대한 예측성 블록들을 결정하기 위해 그 PU들의 모션 벡터들을 사용할 수도 있다. 비디오 디코더 (30) 는 PU들의 모션 벡터 또는 모션 벡터들을 사용하여 PU들에 대한 예측성 블록들을 생성할 수도 있다.
덧붙여서, 비디오 디코더 (30) 는 현재 CU의 TU들에 연관된 계수 블록들을 역 양자화할 수도 있다. 비디오 디코더 (30) 는 현재 CU의 TU들에 연관된 변환 블록들을 복원하기 위해 계수 블록들에 대해 역 변환들을 수행할 수도 있다. 비디오 디코더 (30) 는 현재 CU의 PU들에 대한 예측성 샘플 블록들의 샘플들을 현재 CU의 TU들의 변환 블록들의 대응하는 샘플들에 가산함으로써 현재 CU의 코딩 블록들을 복원할 수도 있다. 픽처의 각각의 CU에 대한 코딩 블록들을 복원함으로써, 비디오 디코더 (30) 는 그 픽처를 복원할 수도 있다. 비디오 디코더 (30) 는 디코딩된 픽처들을 디코딩된 픽처 버퍼에 출력을 위해 그리고/또는 다른 픽처들을 디코딩함에 있어서의 사용을 위해 저장할 수도 있다.
차세대 비디오 애플리케이션들은 HDR 및 WCG로 캡처된 경치를 표현하는 비디오 데이터로 동작할 것으로 예상된다. 이용되는 동적 범위 및 색 영역의 파라미터들은 비디오 콘텐츠의 두 개의 독립적인 속성들이고, 디지털 텔레비전 및 멀티미디어 서비스들의 목적들을 위한 그것들의 사양은 여러 국제 표준들에 의해 정의된다. 예를 들어, ITU-R Rec. BT.709, "Parameter values for the HDTV standards for production and international programme exchange", 및/또는 ITU-R Rec. BT.2020, "Parameter values for ultra-high definition television systems for production and international programme exchange"는, 표준 동적 범위 (SDR) 와 표준 색 영역을 넘어서 연장하는 원색들과 같은 HDTV (high definition television) 및 UHDTV (ultra-high definition television) 를 위한 파라미터들을 정의한다. Rec. BT.2100: Image parameter values for high dynamic range television for use in production and international programme exchange"는 와이드 색 영역 표현을 지원하는 원색들을 포함하는, HDR 텔레비전 사용을 위한 전달 함수들 및 표현들을 정의한다. 다른 시스템들에서의 동적 범위 및 색 영역 속성들을 특정하는 다른 표준 개발 조직 (SDO들) 문서들이 또한 있으며, 예컨대, DCI-P3 색 영역은 SMPTE-231-2 (Society of Motion Picture and Television Engineers) 에서 정의되고 HDR의 일부 파라미터들은 SMPTE-2084에서 정의된다. 비디오 데이터에 대한 동적 범위 및 색 영역의 간략한 설명이 아래에서 제공된다.
동적 범위는 비디오 신호의 최대와 최소 밝기 (예컨대, 휘도) 사이의 비율로서 통상적으로 정의된다. 동적 범위는 'f-스톱'의 측면에서 또한 측정될 수도 있는데, 하나의 f-스톱은 신호의 동적 범위의 배가 (doubling) 에 대응한다. MPEG의 정의에서, 16을 초과하는 f-스톱들로 밝기 변동을 특징화하는 콘텐츠가 HDR 콘텐츠라고 지칭된다. 일부 용어들에서, 10 f-스톱과 16 f-스톱 사이의 레벨들은 중간 동적 범위로서 간주되지만, 다른 정의들에서는 HDR로 간주된다. 본 개시물의 일부 예들에서, HDR 비디오 콘텐츠는 표준 동적 범위를 갖는 전통적으로 사용되는 비디오 콘텐츠 (예컨대, ITU-R Rec. BT.709에 의해 특정된 바와 같은 비디오 콘텐츠) 보다 더 높은 동적 범위를 갖는 임의의 비디오 콘텐츠일 수도 있다.
인간 시각계 (HVS) 는 SDR 콘텐츠 및 HDR 콘텐츠보다 훨씬 더 큰 동적 범위들을 인지할 수도 있다. 그러나, HVS는 HVS의 동적 범위를 이른바 동시 범위 (simultaneous range) 로 좁히는 적응 메커니즘을 포함한다. 동시 범위의 폭은 현재 조명 상태들 (예컨대, 현재 밝기) 에 따라 달라질 수도 있다. HDTV의 SDR, UHDTV의 예상되는 HDR 및 HVS 동적 범위에 의해 제공되는 동적 범위의 시각화가 도 2에서 도시되지만, 정확한 범위는 각 개인과 디스플레이에 기초하여 가변할 수도 있다.
현재 비디오 애플리케이션 및 서비스들은 ITU Rec.709에 의해 규제되고, 10 미만의 f-스톱으로 이어지는, 약 0.1 내지 100 칸델라 (cd)/m2 (종종 "니트 (nit)"라고 지칭됨) 의 밝기 (예컨대, 휘도) 의 범위를 통상적으로 지원하는 SDR을 제공한다. 일부 예시적인 차세대 비디오 서비스들은 16 f-스톱까지의 동적 범위를 제공할 것이 예상된다. 비록 이러한 콘텐츠에 대한 상세한 사양들이 현재 개발 중이지만, 일부 초기 파라미터들은 SMPTE-2084 및 ITU-R Rec. 2020에서 특정되어 있다.
HDR 외에, 더욱 사실적인 비디오 경험을 위한 다른 양태가 컬러 차원이다. 컬러 차원은 색 영역에 의해 통상적으로 정의된다. 도 3은 SDR 색 영역 (BT.709 원색들에 기초한 삼각형 (100)) 과, UHDTV를 위한 더 넓은 색 영역 (BT.2020 원색들에 기초한 삼각형 (102)) 을 도시하는 개념도이다. 도 3은 자연색들의 한계들을 나타내는 이른바 스펙트럼 궤적 (locus) (혓바닥 형상 영역 (104) 으로 구분됨) 을 또한 묘사한다. 도 3에 의해 예시된 바와 같이, BT.709(삼각형 100) 으로부터 BT.2020(삼각형 102) 원색들로 이동하는 것은 약 70% 더 많은 컬러들에 대해 UHDTV 서비스들을 제공하는 것을 목표로 한다. D65는 BT.709 및/또는 BT.2020 사양들에 대한 예시적인 백색을 특정한다.
DCI-P3, BT.709, 및 BT.2020 색 공간들에 대한 색 영역 사양들의 예들이 표 1에서 도시된다.
표 1 - 색 영역 파라미터들
표 1에서 알 수 있는 바와 같이, 색 영역이 백색점의 X 및 Y 값들에 의해, 그리고 원색들 (예컨대, 적색 (R), 녹색 (G), 및 청색 (B) 의 x 및 y 값들에 의해 정의될 수도 있다. x 및 y 값들은 CIE 1931 색 공간에 의해 정의된 바와 같이, 컬러들의 색도 (X 및 Z) 및 밝기 (Y) 로부터 도출되는 정규화된 값들을 나타낸다. CIE 1931 색 공간은 순색들 (예컨대, 파장들의 측면에서임) 사이의 링크들과 사람의 눈이 이러한 컬러들을 인지하는 방법을 정의한다.
HDR/WCG 비디오 데이터는 4:4:4 크로마 포맷과 매우 넓은 색 공간 (예컨대, CIE XYZ) 으로, 성분 당 매우 높은 정밀도 (심지어 부동소수점) 로 보통 취득되고 저장된다. 이 표현은 고 정밀도를 목표로 하고 수학적으로 거의 무손실이다. 그러나, HDR/WCG 비디오 데이터를 저장하는 그런 포맷은 많은 리던던시들을 포함할 수도 있고 압축 목적들을 위한 최적이 아닐 수도 있다. HVS 기반 가정을 갖는 더 낮은 정밀도 포맷이 최신 비디오 애플리케이션들을 위해 통상적으로 이용된다.
압축의 목적을 위한 전형적인 비디오 데이터 포맷 변환은, 도 4에 도시된 바와 같이, 세 개의 주요 엘리먼트들로 이루어진다. 도 4의 기법들은, 예를 들어, 비디오 프리프로세서 (17) 에 의해 수행될 수도 있다. 세 개의 엘리먼트들은 양자화로 인한 에러들이 휘도 값들의 범위에 걸쳐 (대략) 인지적으로 균일하도록 하는 동적 범위 압축을 위한 비선형 전달 함수 (TF), 더욱 콤팩트하거나 또는 강건한 색 공간으로의 컬러 변환, 및 부동소수점-정수 표현 변환 (양자화) 을 포함한다. 그런고로, 선형 RGB 데이터는 동적 범위 압축을 위한 비선형 전달 함수 (TF) 를 사용하여 압축된다. 예를 들면, 비디오 프리프로세서 (17) 는 양자화로 인한 에러들이 휘도 값들의 범위에 걸쳐 (대략) 인지적으로 균일하도록 동적 범위 압축을 위한 비선형 전달 함수를 사용하도록 구성되는 전달 함수 (TF) 부를 포함할 수도 있다. 압축된 데이터는 컬러 변환 프로세스를 통해 더욱 콤팩트하거나 또는 강건한 색 공간으로 (예컨대, 컬러 변환 부를 통해) 들어간다. 데이터는 그러면 비디오 데이터 (예컨대, HDR' 데이터) 를 생성하기 위해 부동소수점-정수 표현 변환을 사용하여 (예컨대, 양자화 부를 통해) 양자화되며, 그 비디오 데이터는 비디오 인코더 (20) 로 송신될 수도 있다.
디코더 측에서 역 변환은 도 5에서 묘사된다. 도 5의 기법들은 비디오 포스트프로세서 (33) 에 의해 수행될 수도 있다. 예를 들어, 비디오 포스트프로세서 (33) 는 비디오 디코더 (30) 로부터 비디오 데이터를 수신하며, 그 데이터를 (예컨대, 역 양자화 부를 통해) 역 양자화하며, 역 컬러 변환을 (예컨대, 역 컬러 변환 부를 통해) 수행하고, 비선형 역 전달 함수를 (예컨대, 역 TF 부를 통해) 수행할 수도 있다. 이들 엘리먼트들의, 예컨대, 도 4 및 도 5에서의 순서는, 일 예로서 주어지고, 실-세계 애플리케이션들에서 가변할 수도 있다. (예컨대, 도 4에서, 컬러 변환은 TF 모듈 (예컨대, TF 부) 에 선행할 수도 있으며, 뿐만 아니라 추가적인 프로세싱, 예컨대, 공간적 서브샘플링이, 컬러 성분들에 적용될 수도 있다.
도 4에 묘사된 기법들이 이제 더 상세히 논의될 것이다. 대체로, 전달 함수는 양자화로 인한 에러들이 휘도 값들의 범위 전체에 걸쳐 (대략) 인지적으로 균일하도록 데이터의 동적 범위를 압축하기 위해 데이터 (예컨대, HDR/WCG 비디오 데이터) 에 적용된다. 이러한 압축은 데이터가 더 적은 비트들로 표현되는 것을 허용한다. 하나의 예에서, 전달 함수는 1차원 (1D) 비선형 함수일 수도 있고, 예컨대, Rec. 709에서 SDR에 대해 특정된 바와 같이, 최종 사용자 디스플레이의 전기 광학 전달 함수 (EOTF) 의 역을 반영할 수도 있다. 다른 예에서, 전달 함수는 HVS 인지를 밝기 변화들, 예컨대, HDR에 대해 SMPTE-2084에서 특정된 PQ 전달 함수로 근사화할 수도 있다. OETF의 역 프로세스는 코드 레벨들을 휘도로 다시 매핑하는 EOTF (electro-optical transfer function) 이다. 도 6은 EOTF들로서 사용되는 비선형 전달 함수의 여러 예들을 도시한다. 전달 함수들은 각각의 R, G 및 B 성분에 따로따로 또한 적용될 수도 있다.
본 개시물의 맥락에서, "신호 값" 또는 "컬러 값"이라는 용어들은 이미지 엘리먼트에 대해 특정 컬러 성분 (이를테면 R, G, B, 또는 Y) 의 값에 대응하는 휘도 레벨을 설명하는데 사용될 수도 있다. 신호 값은 선형 광 레벨 (휘도 값) 을 통상적으로 나타낸다. "코드 레벨" 또는 "디지털 코드 값"이란 용어들은 이미지 신호 값의 디지털 표현을 지칭할 수도 있다. 통상적으로, 그런 디지털 표현은 비선형 신호 값을 나타낸다. EOTF가 디스플레이 디바이스 (예컨대, 디스플레이 디바이스 (32)) 에 제공되는 비선형 신호 값들과 디스플레이 디바이스에 의해 생성되는 선형 컬러 값들 사이의 관계를 나타낸다.
RGB 데이터는 입력 색 공간으로서 통상적으로 이용되는데, RGB가 이미지 캡처링 센서들에 의해 통상적으로 생성되는 데이터의 유형이라서이다. 그러나, RGB 색 공간은 그것의 성분들 간에 높은 리던던시를 가지고 콤팩트 표현을 위한 최적은 아니다. 더욱 콤팩트하고 더욱 강건한 표현을 성취하기 위해, RGB 성분들은 압축에 더욱 적합한 더욱 비상관된 색 공간, 예컨대, YCbCr로 통상적으로 변환된다 (예컨대, 컬러 변환이 수행된다). YCbCr 색 공간이 밝기를 상이한 덜 상관된 성분들에서의 휘도 (Y) 및 컬러 정보 (CrCb) 의 형태로 분리한다. 이 맥락에서, 강건한 표현이 제약된 비트레이트에서 압축될 때 더 높은 에러 내성 레벨들을 특징으로 하는 색 공간을 지칭할 수도 있다.
컬러 변환을 뒤따라, 타겟 색 공간에서의 입력 데이터는 높은 비트-깊이 (예컨대, 부동소수점 정확도) 로 여전히 표현될 수도 있다. 높은 비트-깊이 데이터는 타겟 비트-깊이로, 예를 들어, 양자화 프로세스를 사용하여 변환될 수도 있다. 특정한 연구들이 변환과 조합하는 10~12 비트 정확도가 16 f-스톱의 HDR 데이터를 JND (Just-Noticeable Difference) 미만의 왜곡으로 제공하기에 충분하다는 것을 보여준다. 대체로, JND이, 차이가 (예컨대, HVS에 의해) 현저해질 수 있도록 하기 위하여 무엇인가 (예컨대, 비디오 데이터) 가 변화되어야만 하는 양이다. 10-비트 정확도로 표현되는 데이터는 대부분의 최신 비디오 코딩 해법들로 추가로 코딩될 수 있다. 이 양자화는 손실 코딩의 엘리먼트이고 변환된 데이터에 도입되는 부정확성의 소스이다.
차세대 HDR/WCG 비디오 애플리케이션들이 HDR 및 CG의 상이한 파라미터들에서 캡처된 비디오 데이터로 동작할 것이라는 것이 예상된다. 상이한 구성들의 예들은 최대 1000 nit까지, 또는 최대 10,000 nit까지의 피크 밝기를 갖는 HDR 비디오 콘텐츠의 캡처일 수 있다. 상이한 색 영역의 예들은 BT.709, BT.2020 및 SMPTE 특정-P3, 또는 다른 것들을 포함할 수도 있다.
모든 다른 현재 사용되는 색 영역을 포함 (하거나 또는 거의 포함) 하는 단일 색 공간, 예컨대, 타겟 컬러 표현이 장래에 이용될 것이라는 것이 또한 예상된다. 그런 타겟 컬러 표현의 하나의 예는 BT.2020이다. 단일 타겟 컬러 표현의 지원이 HDR/WCG 시스템들의 표준화, 구현예 및 전개를 상당히 단순화시킬 것인데, 감소된 수의 동작 포인트들 (예컨대, 컬러 컨테이너들, 색 공간들, 컬러 변환 알고리즘들 등의 수) 및/또는 감소된 수의 요구된 알고리즘들이 디코더 (예컨대, 비디오 디코더 (30)) 에 의해 지원되어야 하여서이다.
그런 시스템의 하나의 예에서, 타겟 컬러 표현 (예컨대, BT.2020) 과는 상이한 네이티브 색 영역 (예컨대, P3 또는 BT.709) 으로 캡처된 콘텐츠가 프로세싱에 앞서 (예컨대, 비디오 인코딩에 앞서) 타겟 컨테이너로 변환될 수도 있다. 이하는 이러한 변환의 여러 예들이다:
BT.709 컬러 표현으로부터 BT.2020로의 RGB 변환:
(수학식 1)
P3 컬러 표현으로부터 BT.2020 컬러 표현으로의 RGB 변환:
(수학식 2)
이 변환 동안, P3 또는 BT.709 색 영역에서 캡처된 신호의 각각의 성분 (R,G,B) 이 차지하는 값 범위는 BT.2020 표현에서 감소될 수도 있다. 데이터가 부동소수점 정확도로 표현되므로, 손실은 없지만, 컬러 변환 (예컨대, 아래의 수학식 3에 도시된 RGB로부터 YCrCB로의 변환) 과 양자화 (아래의 수학식 4에서의 예) 과 조합될 때, 값 범위의 축소는 입력 데이터에 대한 증가된 양자화 에러로 이어진다.
(수학식3)
(수학식 4)
수학식 (4) 에서 DY'은 양자화된 Y' 성분이며, DCb 는 양자화된 Cb이고 DCr 은 양자화된 Cr 성분이다. 표현 << 는 비트 단위 (bit-wise) 우측 시프트를 나타낸다. BitDepthY, BitDepthCr, 및 BitDepthCb는 양자화된 성분들의 원하는 비트 깊이들이다.
덧붙여서, 실-세계 코딩 시스템에서, 감소된 동적 범위로 신호를 코딩하는 것은 코딩된 크로마 성분들에 대한 상당한 정확도 손실로 이어질 수도 있고 코딩 아티팩트들, 예컨대, 컬러 불일치 및/또는 컬러 번짐 (bleeding) 으로서 관람자에 의해 관찰될 것이다.
도 7은 타겟 컬러에 대한 값들의 범위로 해석될 컬러 표현에서 성분들의 전체 값 범위를 차지하지 않을 수도 있는, 컬러 표현에서의 컬러 성분에 대한 값들의 범위를 나타내는 고유 비트 시퀀스들을 비디오 프리프로세서 (17) 가 생성할 수도 있는 방법의 단순화된 개념적 예시도이다. 1차원 네이티브 코드워드 범위 (910) 와, 1차원 타겟 코드워드 범위 (920) 를 포함하는 성분 값들의 일-차원 범위들이 도시된다. 단순화를 위해, 그리고 예시를 목적으로, 도 7의 예에서의 네이티브 코드워드 범위 (코드워드 범위 (910) 에 해당함) 는 1024 개 코드워드들 (예를 들어, 0부터 1023까지의 범위임) 을 갖는 것으로 가정되고, 타겟 코드워드 범위 (코드워드 범위 (920) 에 해당함) 는 2048 개 (예를 들어, 0부터 2047까지의 범위임) 와 같은 더 많은 수의 코드워드들을 갖는 것으로 가정된다.
도 7에 예시된 것은, 네이티브 코드워드 범위 (910) 에서의 비디오 데이터의 샘플로 표현되는 성분 값에 각각이 대응할 수도 있는 네이티브 코드워드 범위 (910) 에서의 다수의 표현된 값들 (910a) 이다. 도 7의 예시의 단순화를 위해, 단지 몇몇 표현된 값들 (910a) 만이 코드워드 범위 (910) 를 따라 도시되지만, 그 범위에서의 더 많은 값들 (910a) 이 비디오 데이터의 전형적인 샘플에 존재할 수도 있다. 마찬가지로, 타겟 코드워드 범위로의 변환 후의 대응하는 성분 값들 (920a) 만이 코드워드 범위 (920) 에서 도시되지만; 상이한 예에서, 더욱 많은 값들 (920a) 이 코드워드 범위 (920) 에서 표현될 수도 있다.
일부 예들에서, 비디오 프리프로세서가 네이티브 코드워드 범위 (910) 에서의 비조정된 성분 값들 (910a) 을 타겟 코드워드 범위 (920) 의 조정된 값들 (920a) 으로 변환할 수도 있다. 예시의 목적을 위해, 그런 프로세스는 도 7의 단순화된 예에서 도시된 방식으로 예시될 것이다. 예를 들어, 네이티브 코드워드 범위에서의 루마 값들이 도 7의 네이티브 코드워드 범위에 대응하는 값들의 1차원 표현 (910) 에 의해 표현된다면, 루마 값들은 네이티브 코드워드 범위에서의 1024 개의 가능한 값들 (0부터 1023까지임) 을 가질 수 있어, 비디오 데이터의 실제 샘플이 루마 값들 (910a) 을 포함한다. 마찬가지로, 타겟 코드워드 범위로의 변환 후의 그들 동일한 루마 값들이 타겟 코드워드 범위에 대응하는 값들의 코드워드들의 1차원 표현 (920) 에 의해 표현된다면, 루마 값들은 타겟 코드워드 범위에서 2048 개의 가능한 값들 (0 내지 2047) 을 가질 수 있어, 비디오 데이터의 샘플은 변환 후 루마 값들 (920a) 을 포함한다. 따라서, 코드워드 범위 (910) 에서의 표현된 값들 (910a) 은, 변환 프로세스를 통해, 도 7에 도시된 바와 같은 코드워드 범위 (920) 에서의 표현된 값들 (920a) 로 해석될 수도 있다. 각각의 경우에, 코드워드 범위 (910) 에서의 값들 (910a) 과 코드워드 범위 (920) 에서의 값들 (920a) 은 각각이 그 범위에서의 하나의 이러한 값에 대응하는 이진 코드워드에 의해 표현될 것이다.
대체로, 도 7의 단순화된 예에서, 색 영역 변환 (과 전달 함수에 의한 동적 범위 압축) 후, 변환된 성분 값들은 타겟 컬러 표현에서의 이용가능 코드워드들의 모두를 사용하지 않을 수도 있다. 도 7의 예에서, 타겟 코드워드 범위는 네이티브 코드워드 범위의 두 배의 루마 코드워드들을 가진다. 코드워드 범위 (910) 에서의 성분 값들에 대해 수행되는 변환 및 양자화 프로세스가, 일부 경우들에서, 코드워드 범위 (910) 에서의 성분 값들에 분포에 의존하여, 코드워드 범위 (920) 에서 2048 개 모두보다 상당히 적은 코드워드들이 변환 후 루마 값들에 의해 사용되고 있는 결과를 초래할 수도 있다. 다르게 말하면, 도 7에 예시된 것과 같은 변환 프로세스가 그렇지 않으면 코드워드 범위 (920) 에서 이용 가능한 타겟 코드워드들의 수에 비하여 컬러 값들을 비효율적으로 분산시킬 수도 있고, 그 결과, 모든 가능한 코드워드들의 효율적인 사용을 하지 못할 것이다. 따라서, 변환 및 양자화 프로세스는 상당한 정확도 손실을 초래할 수도 있다. 이 정확도 손실은 코딩 아티팩트들, 컬러 불일치, 및/또는 컬러 번짐을 포함하는, 결과적인 비디오에 바람직하지 않은 영향들을 미칠 수도 있다.
위에서 설명된 문제들을 해결하기 위해, 다른 기법들이 고려될 수도 있다. 하나의 예시적인 기법은 색 영역 인식 비디오 코덱을 포함한다. 그런 기법에서, 가상적인 비디오 인코더가 입력 신호의 네이티브 색 영역을 추정하고 감소된 동적 범위로부터 초래되는 임의의 왜곡을 감소시키기 위해 코딩 파라미터들 (예컨대, 코딩된 크로마 성분들에 대한 양자화 파라미터들) 을 조정하도록 구성된다. 그러나, 그런 기법은 정확도 손실을 복원할 수 없을 것이며, 이는 위의 수학식 (4) 로 수행된 양자화로 인해 일어날 수도 있는데, 모든 입력 데이터가 전형적인 코덱에 정수 포인트 정확도로 제공되어서이다.
본 개시물은 HDR 신호 표현들에 도입되는 동적 범위 변화들을 보상하기 위해 동적 범위 조정 (DRA) 을 수행하는 기법들, 방법들, 및 장치들을 설명한다. 동적 범위 조정은 컬러 불일치, 컬러 번짐 등을 포함하는, 초래되는 임의의 왜곡을 방지하는 그리고/또는 줄이는 것을 도울 수도 있다. 본 개시물의 하나 이상의 예들에서, DRA는 인코더 측의 (예컨대, 소스 디바이스 (12) 에 의한) 양자화에 앞서 그리고 디코더 측의 (예컨대, 목적지 디바이스 (14) 에 의한) 역 양자화 후에 타겟 색 공간, 예컨대, YCbCr의 각각의 컬러 성분의 값들에 대해 수행된다. 전술한 바를 감안하여, 본 개시물은, 하나 이상의 SEI 메시지들을 통해, 이러한 동적 범위 조정을 수행하는 것에 관련한 파라미터들을 시그널링하는 것을 제안하는데, 이러한 파라미터들은 스케일 및 오프셋들, 파티션들, 글로벌 오프셋들, 그리고 로컬 스케일 및 오프셋들에 관련한 정보를 포함한다.
도 8은 본 개시물의 기법들에 따라 동작하는 예시적인 HDR/WCG 변환 장치를 도시하는 블록도이다. 도 8에서, 실선들은 데이터 흐름을 특정하고 파선들은 제어 신호들을 특정한다. 본 개시물에서 설명되는 하나 이상의 기법들은 소스 디바이스 (12) 의 비디오 프리프로세서 (19) 에 의해 수행될 수도 있다. 위에서 논의된 바와 같이, 비디오 프리프로세서 (19) 는 비디오 인코더 (20) 와는 별개의 디바이스일 수도 있다. 다른 예들에서, 비디오 프리프로세서 (19) 는 비디오 인코더 (20) 와는 동일한 디바이스에 통합될 수도 있다.
도 8에 도시된 바와 같이, RGB 네이티브 CG 비디오 데이터 (200) 가 비디오 프리프로세서 (19) 에 입력된다. 비디오 프리프로세서 (19) 에 의한 비디오 프리프로세싱의 맥락에서, RGB 네이티브 CG 비디오 데이터 (200) 가 입력 컬러 표현에 의해 정의된다. 입력 컬러 컨테이너는 비디오 데이터 (200) 를 표현하는데 사용되는 원색들의 세트 (예컨대, BT. 709, BT. 2020, P3 등) 를 특정한다. 본 개시물의 하나의 예에서, 비디오 프리프로세서 (19) 는 RGB 네이티브 CG 비디오 데이터 (200) 의 컬러 컨테이너 및 색 공간 둘 다를 HDR' 데이터 (216) 를 위한 타겟 컬러 컨테이너 및 타겟 색 공간으로 변환하도록 구성될 수도 있다. 입력 컬러 컨테이너처럼, 타겟 컬러 컨테이너는 HDR' 데이터 (216) 를 표현하는데 사용되는 세트 또는 원색들을 특정할 수도 있다. 본 개시물의 하나의 예에서, RGB 네이티브 CG 비디오 데이터 (200) 는 HDR/WCG 비디오일 수도 있고, BT.2020 또는 P3 컬러 컨테이너 (또는 임의의 WCG) 를 가질 수도 있고, RGB 색 공간에 있을 수도 있다. 다른 예에서, RGB 네이티브 CG 비디오 데이터 (200) 는 SDR 비디오일 수도 있고, BT.709 컬러 컨테이너를 가질 수도 있다. 하나의 예에서, HDR' 데이터 (216) 를 위한 타겟 컬러 컨테이너는 HDR/WCG 비디오 (예컨대, BT.2020 컬러 컨테이너) 를 위해 구성되었을 수도 있고 비디오 인코딩을 위한 더욱 최적인 색 공간 (예컨대, YCrCb) 을 사용할 수도 있다.
본 개시물의 하나의 예에서, CG 변환기 (202) 는 RGB 네이티브 CG 비디오 데이터 (200) 의 컬러 컨테이너를 입력 컬러 컨테이너 (예컨대, 제 1 컬러 컨테이너) 로부터 타겟 컬러 컨테이너 (예컨대, 제 2 컬러 컨테이너) 로 변환하도록 구성될 수도 있다. 하나의 예로서, CG 변환기 (202) 는 RGB 네이티브 CG 비디오 데이터 (200) 를 BT.709 컬러 표현으로부터 BT.2020 컬러 표현으로 변환할 수도 있으며, 그 예가 아래에서 도시된다.
RGB BT.709 샘플들 (R709, G709, B709) 을 RGB BT.2020 샘플들 (R2020, G2020, B2020) 로 변환하는 프로세스는 먼저 XYZ 표현으로의 변환과, 뒤따르는 적절한 변환 매트릭스들을 사용한 XYZ로부터 RGB BT.2020로의 변환을 수반하는 2-단계 변환으로 구현될 수 있다.
(수학식 5)
XYZ로부터 R2020G2020B2020 (BT.2020) 로의 변환
(수학식 6)
마찬가지로, 단일 단계 및 권장된 방법은 다음과 같다:
(수학식 7)
CG 변환 후의 결과적인 비디오 데이터는 도 8에서 RGB 타겟 CG 비디오 데이터 (204) 로서 도시된다. 본 개시물의 다른 예들에서, 입력 데이터 및 출력 HDR' 데이터를 위한 컬러 컨테이너는 동일할 수도 있다. 이러한 일 예에서, CG 변환기 (202) 는 RGB 네이티브 CG 비디오 데이터 (200) 에 대해 임의의 변환을 수행할 필요가 없다.
다음으로, 전달 함수 부 (206) 는 RGB 타겟 CG 비디오 데이터 (204) 의 동적 범위를 압축한다. 전달 함수 부 (206) 는 도 4를 참조하여 위에서 논의된 바와 동일한 방식으로 동적 범위를 압축하기 위해 전달 함수를 적용하도록 구성될 수도 있다. 컬러 변환 부 (208) 는 RGB 타겟 CG 컬러 데이터 (204) 를 입력 컬러 컨테이너의 색 공간 (예컨대, RGB) 으로부터 타겟 컬러 컨테이너의 색 공간 (예컨대, YCrCb) 으로 변환한다. 도 4를 참조하여 위에서 설명된 바와 같이, 컬러 변환 부 (208) 는 압축된 데이터를 하이브리드 비디오 인코더 (예컨대, 비디오 인코더 (20)) 에 의한 압축에 더욱 적합한 더욱 콤팩트하거나 또는 강건한 색 공간 (예컨대, YUV 또는 YCrCb 색 공간) 으로 변환한다.
조정 부 (210) 는 DRA 파라미터들 추정 부 (212) 에 의해 도출된 DRA 파라미터들에 따라서 컬러 변환된 비디오 데이터의 동적 범위 조정 (DRA) 을 수행하도록 구성된다. 대체로, CG 변환기 (202) 에 의한 CG 변환 및 전달 함수 부 (206) 에 의한 동적 범위 압축 후, 결과적인 비디오 데이터의 실제 컬러 값들은 특정 타겟 컬러 표현의 할당된 모든 이용가능 코드워드들 (예컨대, 각각의 컬러를 표현하는 고유 비트 시퀀스들) 을 사용하지 않을 수도 있다. 다시 말하면, 일부 환경들에서, 입력 컬러 표현으로부터 출력 컬러 표현으로의 RGB 네이티브 CG 비디오 데이터 (200) 의 변환은 결과적인 압축된 비디오 데이터가 모든 가능한 컬러 값들의 효율적인 사용을 하지 못하게 하도록 비디오 데이터의 컬러 값들 (예컨대, Cr 및 Cb) 을 과도하게 압축할 수도 있다. 위에서 설명된 바와 같이, 컬러들에 대한 값들의 감소된 범위를 이용하여 신호를 코딩하는 것은, 코딩된 크로마 성분들에 대한 상당한 정확도 손실로 이어질 수도 있고 코딩 아티팩트들, 예컨대, 컬러 불일치 및/또는 컬러 번짐으로서 관람자에 의해 관찰될 것이다.
조정 부 (210) 는 특정 타겟 컬러 표현에 대해 이용 가능한 코드워드들의 전체를 사용하기 위해 동적 범위 압축 및 컬러 변환 후 비디오 데이터, 예컨대, RGB 타겟 CG 비디오 데이터 (204) 의 컬러 성분들 (예컨대, YCrCb) 에 DRA 파라미터들을 적용하도록 구성될 수도 있다. 조정 부 (210) 는 DRA 파라미터를 화소 레벨에서 비디오 데이터에 적용할 수도 있다. 대체로, DRA 파라미터들은 실제 비디오 데이터를 표현하는데 사용되는 코드워드들을 타겟 컬러 표현에 대해 이용 가능한 가능한 한 많은 코드워드들로 확장하는 함수를 정의한다. 아래에서 추가로 설명되는 바와 같이, 실제 비디오를 표현하는데 사용되는 코드워드들을 확장하기 위한 프로세스는 코드워드 범위를 파티셔닝하는 것과, 스케일 및 오프셋을 각각의 이러한 파티션에 적용하는 것을 포함할 수도 있다.
본 개시물의 하나의 예에서, DRA 파라미터들은 비디오 데이터의 성분들에 적용되는 스케일 및 오프셋 값을 포함한다. 대체로, 비디오 데이터의 컬러 성분들의 값 범위가 더 낮을수록, 더 큰 스케일링 계수가 사용될 수도 있다. 오프셋 파라미터는 타겟 컬러 표현을 위한 이용가능 코드워드들의 중심에 컬러 성분들의 값들을 중심 맞추는데 사용될 수도 있다. 예를 들어, 타겟 컬러 표현이 컬러 성분 당 1024 개 코드워드들을 포함한다면, 중심 코드워드가 코드워드 (512) (예컨대, 가장 중앙의 코드워드) 로 이동되도록 오프셋 값이 선택될 수도 있다. 다른 예들에서, 오프셋 파라미터는 타겟 컬러 표현에서의 전체 표현이 코딩 아티팩트들을 방지함에 있어서 더욱 효율적이도록 입력 코드워드들의 출력 코드워드들로의 더 나은 매핑을 제공하는데 사용될 수도 있다.
하나의 예에서, 조정 부 (210) 는 DRA 파라미터들을 타겟 색 공간 (예컨대, YCrCb) 에서의 비디오 데이터에 다음과 같이 적용하며:
- Y" = scale1 * Y' + offset1
- Cb" = scale2 * Cb' + offset2 (수학식 8)
- Cr" = scale3 * Cr' + offset3
여기서 신호 성분들 (Y', Cb' 및 Cr') 은 RGB로부터 YCbCr로의 변환 (수학식 3의 예) 으로부터 생성된 신호이다. Y', Cr' 및 Cr'은 또한 비디오 디코더 (30) 에 의해 디코딩된 비디오 신호일 수도 있다는 것에 주의한다. Y", Cb", 및 Cr"은 DRA 파라미터들이 각각의 컬러 성분에 적용된 후의 비디오 신호의 컬러 성분들이다. 위의 예에서 알 수 있는 바와 같이, 각각의 컬러 성분은 상이한 스케일 및 오프셋 파라미터들에 관련된다. 예를 들어, scale1 및 offset1은 Y' 성분을 위해 사용되며, scale2 및 offset2는 Cb' 성분을 위해 사용되고, scale3 및 offset3은 Cr' 성분을 위해 사용된다. 이는 단지 일 예라는 것이 이해되어야 한다. 다른 예들에서, 동일한 스케일 및 오프셋 값들은 모든 컬러 성분에 대해 사용될 수도 있다.
위의 예에서 알 수 있는 바와 같이, 조정 부 (210) 는 동적 범위 조정 파라미터들, 이를테면 스케일 및 오프셋 DRA 파라미터들을 선형 함수로서 적용할 수도 있다. 이와 같이, 컬러 변환 부 (208) 에 의한 컬러 변환 후 조정 부 (210) 가 타겟 색 공간에서 DRA 파라미터들을 적용하는 것이 필요하지 않다. 이는 컬러 변환이 자체가 선형 프로세스이기 때문이다. 이와 같이, 다른 예들에서, 조정 부 (210) 는 임의의 컬러 변환 프로세스 전에 네이티브 색 공간 (예컨대, RGB) 에서의 비디오 데이터에 DRA 파라미터들을 적용할 수도 있다. 이 예에서, 조정 부 (210) 가 DRA 파라미터들을 적용한 후 컬러 변환 부 (208) 는 컬러 변환을 적용할 것이다.
다른 예들에서, 그리고 도 9a 내지 도 9c에 관련하여 아래에서 더 설명되는 바와 같이, 각각의 컬러 성분이 다수의 스케일 및 오프셋 파라미터들과 연관될 수도 있고, 코드워드 범위는 다수의 파티션들로 나누어질 수도 있다. 예를 들어, Cr 또는 Cb 컬러 성분들에 대한 크로마 값들의 실제 분포는 코드워드들의 상이한 부분들에 대해 상이할 수도 있고, 코드워드 범위 전체에 걸쳐 균일하지 않을 수도 있다. 그런 상황에서 (또는 다른 상황들에서), 코드워드 범위를 다수의 파티션들로 나누고, 스케일 및 오프셋을 각각의 파티션에 적용하는 것이 유익할 수도 있다. 하나 이상의 글로벌 오프셋들이 파티션들의 일부 또는 전부에 적용될 수도 있다.
일부 예들에서, 조정 부 (210) 는 DRA 파라미터들을 타겟 색 공간 또는 네이티브 색 공간 중 어느 하나에서 다음과 같이 적용할 수도 있다:
- Y" = (scale1 * (Y' - offsetY) + offset1) + offsetY;
- Cb" = scale2 * Cb' + offset2 (수학식 9)
- Cr" = scale3 * Cr' + offset3
이 예에서, 파라미터 scale1, scale2, scale3, offset1, offset2, 및 offset3은 위에서 설명된 바와 동일한 의미를 가진다. 파라미터 offsetY는 신호의 밝기를 반영하는 파라미터이고, Y'의 평균 값과 동일할 수 있다. 다른 예들에서, 입력 및 출력 표현들에서 중심 값의 매핑을 더 잘 보존하기 위해 offset Y와 유사한 오프셋 파라미터가 Cb' 및 Cr' 성분들에 적용될 수도 있다.
본 개시물 다른 예에서, 조정 부 (210) 는 네이티브 색 공간 또는 타겟 색 공간이 아닌 색 공간에서 DRA 파라미터들을 적용하도록 구성될 수도 있다. 대체로, 조정 부 (210) 는 DRA 파라미터들을 다음과 같이 적용하도록 구성될 수도 있으며:
- X' = scale1 * (X - offset1) + offset2 + offset3;
- Y' = scale2 * (Y -offset4) + offset5 + offset6 (수학식 10)
- Z' = scale3 * (Z - offset7) + offset8 + offset9
여기서 신호 성분들 (X, Y 및 Z) 은 타겟 색 공간, 예컨대, RGB 또는 중간 색 공간과는 상이한 색 공간에서의 신호 성분들이다. 값들 (X, Y, 및 Z) 은 단순히 변수들 또는 신호 성분들에 대한 참조들일 수도 있고, XYZ 색 공간과 혼동되지 않아야 한다.
도 9a는 본 개시물의 하나 이상의 양태들에 따르는, 네이티브 코드워드 범위에서의 컬러 성분에 대한 값들의 범위를 나타내는 고유 비트 시퀀스들이 도 8의 비디오 프리프로세서 (19) 에 의해 타겟 코드워드 범위를 위한 값들의 범위로 변환될 방법의 단순화된 개념적 예시도이다. 네이티브 코드워드 범위에 해당하는 1차원 네이티브 코드워드 범위 (1210) 와, 타겟 코드워드 범위에 해당하는 1차원 타겟 코드워드 범위 (1220) 를 포함하는, 성분 값들의 1차원 범위들이 도 9a에 도시된다. 도 7에 관련하여 설명된 것과 유사한 방식에서, 단순화를 위해 그리고 예시를 목적으로, 도 9a의 예에서의 네이티브 코드워드 범위 (범위 (1210) 에 해당함) 를 위한 성분 값들의 범위는 1024 개 코드워드들을 갖는 것으로 가정되고, 타겟 코드워드 범위 (코드워드 범위 (1220) 에 해당함) 를 위한 성분 값들의 범위는 2048 개 코드워드들을 갖는 것으로 가정된다. 예를 들어, 1차원 네이티브 코드워드 범위 (1210) 가 루마 값들을 나타내면, 네이티브 코드워드 범위에 해당하는 코드워드 범위 (1210) 에 1024 개의 가능한 루마 값들이 있을 수 있다. 1차원 타겟 코드워드 범위 (1220) 가 타겟 코드워드 범위에서의 루마 값들을 나타내면, 타겟 코드워드 범위에 해당하는 코드워드 범위 (1220) 에 2048 개의 가능한 루마 값들이 있을 수 있다.
도 9a에 예시된 것은, 네이티브 코드워드 범위 (1210) 에서의 비디오 데이터의 샘플로 표현되는 성분 값에 각각이 대응하는 네이티브 코드워드 범위 (1210) 에서의 다수의 표현된 값들 (1210a) 이다. 도 9a의 예시의 단순화를 위해, 단지 몇몇 표현된 값들 (1210a) 만이 코드워드 범위 (1210) 에서 도시되지만, 그 코드워드 범위 (1210) 에서의 더 많은 성분 값들 (1210a) 이 비디오 데이터의 전형적인 샘플에 존재할 수도 있다.
일부 경우들에서, 비디오 데이터의 샘플에 대한 값들 (1210a) 은 코드워드 범위 (1210) 에 걸쳐 균일하게 분산되지 않을 것이고, 코드워드 범위 (1210) 내의 상대적으로 작은 수의 지역들에 집중될 수도 있다. 비록 도 9a에서의 예시가 단순화된 예이지만, 그런 비-균일 표현은 그럼에도 불구하고 도 9a에서 명확한데, 코드워드 범위 (1210) 가 코드워드 범위 (1210) 의 말단들 근처에서 다수의 성분 값들 (1210a) 을 도시하지만 그 범위의 중간에서는 (즉, 169와 702 사이의 코드워드 범위에서는) 일반적으로 값들이 없기 때문이다.
일부 예들에서, 비디오 프리프로세서 (19) 는, 코드워드 값들의 범위 (1210) 에서의 비조정된 성분 값들 (1210a) 을 성분 값들의 범위 (1220) 에서의 조정된 성분 값들 (1220a) 로 효율적으로 매핑하기 위해 동적 범위 조정을 수행할 때, 글로벌 오프셋 값을 도 9a에서의 코드워드 값들의 범위 (1210) 에 적용할 수도 있다. 예를 들면, 도 9a에서, 비디오 프리프로세서 (19) 는 코드워드 범위 (1210) 에서의 성분 값들 (1210a) 중 하나의 성분 값인 제 1 글로벌 오프셋 값 (119) 을 비조정된 코드워드 범위 (1210) 에서 선택할 수도 있다. 비디오 프리프로세서 (19) 는 제 2 글로벌 오프셋 값을 0으로 선택할 수도 있는데, 이 제 2 글로벌 오프셋 값은 도 9a의 예에서 동적 범위 조정을 수행할 때 제 1 글로벌 오프셋 (119) 이 매핑되는 코드워드 범위 (1220) 에서의 조정된 값이다.
일부 예들에서, 글로벌 오프셋 값 미만인 비조정된 성분 값들이 코드워드 범위 (1210) 에 있을 수도 있다. 도 9a의 코드워드 범위 (1210) 에서, 하나의 이러한 성분 값 (1210a) (60의 값을 가짐) 이 있다. 일부 예들에서, 비디오 프리프로세서 (19) 는 이 값을, 특히 제 1 글로벌 오프셋 미만인 비조정된 성분 값이 디코딩된 비디오 데이터에 상당한 영향을 미치지 않을 경우 무시할 수도 있다. 다른 예들에서, 코드워드 범위 (1210) 에서의 제 1 글로벌 오프셋 값 (119) 미만인 임의의 성분 값 (1210a) 이 제 1 글로벌 오프셋 값 (119) 에 클리핑될 수도 있거나, 또는 다르게 말하면, 비디오 프리프로세서 (19) 는 그것을 제 1 글로벌 오프셋 값 (119) 과 동일한 것으로 가정할 수도 있다. 이러한 일 예에서, 비디오 프리프로세서 (19) 는 동적 범위 조정을 수행하기에 앞서 비조정된 값 (60) 을, 그것이, 60의 비조정된 성분 값이 아니라, 코드워드 범위 (1210) 내의 119의 비조정된 성분 값을 가지도록 수정할 수도 있다.
비디오 프리프로세서 (19) 는 글로벌 오프셋 값들과 연계하여 사용될 적절한 스케일 값을 선택할 수도 있다. 따라서, 도 9a의 예에서, 비디오 프리프로세서 (19) 는 코드워드 범위 (1210) 에서의 비조정된 성분 값들 (1210a) 을 코드워드 범위 (1220) 에서의 값들 (1220a) 로 해석하기 위해 이러한 동적 범위 파라미터들을 사용할 수도 있다. 일부 예들에서, 이러한 동적 범위 조정 파라미터들은, 값들 (1210a) 을 코드워드 범위 (1220) 로 변환할 때, 코드워드 범위 (1220) 에서의 이용가능 코드워드들이 효율적인 방식으로 사용되도록 선택될 수도 있다. 예를 들어, 비디오 프리프로세서 (19) 는 동적 범위 조정이 제 1 글로벌 오프셋 (비조정된 값 (119)) 을 제 2 글로벌 오프셋 (조정된 값 0) 으로 해석할 것이라는 가정과 동적 범위 조정이 코드 워드 범위 (1210) 에서의 해석되는 마지막 비조정된 값 (1210a) (852의 비조정된 값을 가짐) 을 코드워드 범위 (1210) 에서의2047의 조정된 값으로 해석할 것이라는 가정에 기초하여 선형 스케일 값을 계산할 수도 있다. 도 9a의 단순화된 예에서의 이러한 가정들에 기초하여, 비디오 프리프로세서 (19) 는 비조정된 성분 값들 (1210a) 을 코드워드 범위 (1210) 로부터 코드워드 범위 (1220) 에서의 조정된 성분 값들 (1220a) 로 해석하는데 다음의 공식이 사용될 수 있다고 결정할 수도 있다:
A1220 = 2.793 * (U1210 - 119) + 0 (수학식 11)
위의 수학식에서, A1220 은 코드워드 범위 (1220) 에서의 조정된 성분 값이고, U1210 은 코드워드 범위 (1210) 에서의 비조정된 성분 값이다. 이 공식에서 스케일 값은 2.793으로 계산되고, 제 1 글로벌 오프셋 값은 119이고, 제 2 글로벌 오프셋 값은 0이다.
비디오 프리프로세서 (19) 에 의해 수행되는 그리고 도 9a에서 예시되는 동적 범위 조정의 효과는, 코드워드 범위 (1220) 에서 더 많은 코드워드들을 효과적으로 사용하기 위해 조정된 성분 값들이 코드워드 범위 (1220) 내에서 분산되도록 하는 방식으로 코드워드 범위 (1210) 에서의 값들이 코드워드 범위 (1220) 에서의 값들로 해석된다는 것이다. 일부 예들에서, 비디오 프리프로세서 (19) 는 비디오 데이터에서 표현되는 성분 값들 (코드워드 범위 (1210) 에서의 값들 (1210a)) 이, 코드워드 범위 (1220) 를 따라 가능한 한 많은 코드워드들 가운데 유익한 대로 분산되도록 스케일 글로벌 오프셋 값들을 선택한다. 추가의 예들에서, 심지어 범위들 (1220 및 1210) 에 대응하는 비트 깊이 및/또는 코드워드들이 동일할 때, 코드워드 범위 (1220) 에서 더 많은 코드워드들을 효과적으로 사용하기 위해 조정된 성분 값들이 코드워드 범위 (1220) 내에 분산되도록 비디오 프리프로세서 (19) 가 값들을 코드워드 범위 (1220) 에서의 값들로 해석하는 것이 가능할 수도 있다. 일부 예들에서, 이것이 가능할 수도 있는 하나의 방도는 글로벌 오프셋 값에 있는 또는 글로벌 오프셋 값 미만의 비조정된 값들을 코드워드 범위 (1220) 에서의 제 1 값으로 매핑 (예컨대, 값 (1210a) 을 조정된 값 0으로 매핑) 하는 것이다.
도 9b는 비디오 프리프로세서 (19) 가 네이티브 코드워드 범위에서의 컬러 성분을 위한 값들의 범위를 나타내는 고유 비트 시퀀스들을 타겟 코드워드 범위를 위한 값들의 범위로 해석할 수도 있는 방법의 다른 단순화된 개념적 예시도이다. 도 9a에서처럼, 네이티브 코드워드 범위에 해당하는 1차원 네이티브 코드워드 범위 (1230) 와, 타겟 코드워드 범위에 해당하는 1차원 타겟 코드워드 범위 (1240) 를 포함하는, 성분 값들의 1차원 범위들이 도 9b에 도시된다. 단순화를 위해, 그리고 예시를 목적으로, 도 9b의 예에서 네이티브 컬러 표현을 위한 성분 값들의 범위 (코드워드 범위 (1230) 에 해당함) 는 1024 개 코드워드들을 갖는 것으로 가정되고, 타겟 코드워드 범위를 위한 성분 값들의 범위 (코드워드 범위 (1240) 에 해당함) 는 2048 개 코드워드들을 갖는 것으로 가정된다. 예를 들어, 도 9a와 유사한 방식에서, 1차원 네이티브 코드워드 범위 (1230) 가 루마 값들을 나타내면, 네이티브 코드워드 범위에 해당하는 코드워드 범위 (1230) 에 1024 개의 가능한 루마 값들이 있을 수 있다. 1차원 타겟 코드워드 범위 (1240) 가 타겟 코드워드 범위에서의 루마 값들을 나타내면, 타겟 코드워드 범위에 해당하는 코드워드 범위 (1240) 에 2048 개의 가능한 루마 값들이 있을 수 있다.
도 9b에 예시된 것은, 네이티브 코드워드 범위 (1230) 에서의 비디오 데이터의 샘플로 표현되는 성분 값에 각각이 대응하는 네이티브 코드워드 범위 (1230) 에서의 다수의 표현된 값들 (1230a) 이다. 도 9b의 예시의 단순화를 위해, 단지 몇몇 표현된 값들 (1230a) 만이 코드워드 범위 (1230) 에서 도시되지만, 그 코드워드 범위 (1230) 에서의 더 많은 성분 값들 (1230a) 이 비디오 데이터의 전형적인 샘플에 존재할 수도 있다.
도 9b에 예시된 바와 같이, 그리고 일부 예들에서, 비디오 프리프로세서 (19) 는 동적 범위 조정을 수행함에 있어서의 추가의 효율들이 코드워드 범위 (1230) 를 다수의 파티션들로 나누는 것에 의해 얻어질 수도 있다고 결정할 수도 있다. 비디오 프리프로세서 (19) 가 각각의 파티션에서의 비조정된 성분 값들 (1230a) 을 성분 값들 (1240) 의 범위에서의 조정된 성분 값들 (1240a) 에 매핑하기 위해 사용하는 스케일 및 오프셋 값들을 비디오 프리프로세서 (19) 는 각각의 파티션에 대해 결정할 수도 있다. 비디오 프리프로세서 (19) 가 타겟 코드워드 범위 (1240) 의 코드워드들을 효율적으로 사용하기 위해 스케일 및 오프셋 파라미터들을 선택하면, 타겟 코드워드 범위 (1240) 에서 비디오 데이터를 효율적으로 표현하는 것이 가능할 수도 있고, 또한 더 높은 품질 디코딩된 비디오 데이터가 생기게 할 수도 있다.
예를 들면, 도 9b에서, 비디오 프리프로세서 (19) 는 코드워드 범위 (1230) 를 다섯 개 파티션들 (1231, 1232, 1233, 1234, 및 1235) 로 분할한다. 파티션 (1231) 은 코드워드 범위 (1230) 에서의 코드워드들 (0 내지 118(포함)) 에 해당하고, 단지 하나의 표현된 성분 값 (성분 값 60) 만을 포함한다. 파티션 (1232) 은 코드워드들 (119 내지 168) 에 해당하고, 도 9b의 단순화된 예에서, 코드워드 범위 (1210) 에 의해 표현되는 비디오 샘플은 파티션 (1232) 에서의 세 개의 성분 값들 (1230a) (성분 값 119, 132, 및 168) 을 포함한다. 파티션 (1233) 은 코드워드들 (169 내지 702) 에 해당하고 코드워드 범위 (1230) 에 의해 표현되는 비디오 샘플은 이 범위에 성분 값들을 포함하지 않는다. 파티션 (1234) 은 코드워드들 (703 내지 852) 에 해당하고, 코드워드 범위 (1230) 에 의해 표현되는 비디오 샘플은 이 파티션 (성분 값 703, 767, 및 852) 에 세 개의 성분 값들 (1230a) 을 포함한다. 마지막으로, 제 5 파티션인 파티션 (1235) 은, 코드워드 (853) 부터 코드워드 (1023) 까지의 범위이고, 코드워드 범위 (1230) 에 의해 표현되는 비디오 샘플은 이 범위에 성분 값들을 포함하지 않는다.
비디오 프리프로세서 (19) 는 코드워드 범위 (1230) 에 도시된 성분 값들에 대해 동적 범위 조정을 수행하는 것이 코드워드 범위 (1240) 에서의 이용가능 코드워드들을 효율적인 방식으로 사용하는 것을 초래하도록 파티션들과 적절한 스케일 및 오프셋 값들을 선택한다. 도 9b의 예에서, 비디오 프리프로세서 (19) 는 값들을 포함하는 파티션들 (예컨대, 파티션들 (1232 및 1234)) 에 코드워드 범위 (1240) 의 부분을 할당하는 한편, 비디오 프리프로세서 (19) 는 값들을 포함하지 않는 파티션들 (파티션들 (1231, 1233, 1225)) 에 코드워드 범위 (1240) 의 부분을 할당하지 않는다. 마찬가지로, 비디오 프리프로세서 (19) 가 파티션들에 할당하는 범위 (1240) 의 부분의 사이즈는 대응하는 파티션 (1231, 1232, 1233, 1234, 및 1235) 의 사이즈에 따라 달라진다. 범위 (1230) 상의 더 크거나 또는 더 넓은 파티션들에 대해, 범위 (1240) 의 더 큰 부분이 할당된다.
게다가, 일부 경우들에서, 도 9a에 관련하여 이전에 설명된 바와 같이, 비디오 프리프로세서 (19) 는, 예를 들어, 코드워드 범위 (1230) 의 극단들에서의 값들과 같은 코드워드 범위 (1230) 에서의 특정한 값들을 생략 또는 무시하는 것이 유익할 수도 있다고 결정할 수도 있다. 이러한 값들이 숫자적으로 적을 수도 있는 한, 그리고/또는 이러한 값들이 디코딩된 비디오 데이터에 중요한 방식으로 영향을 미치지 않는 경우, 일부 효율들은 이러한 값들을 생략함으로써 얻어질 수도 있다. 예를 들면, 도 9b의 예에서의 파티션 (1211) 에 관해, 비디오 프리프로세서 (19) 가 파티션 (1231) 에서의 비디오 데이터에 의해 표현되는 60의 성분 값을 갖는 단일 코드워드를 무시한다면 얼마간의 효율들이 얻어질 수도 있으며, 그래서 도 9b의 예에서, 비디오 프리프로세서 (19) 는 그 파티션 (1231) 에 코드워드 범위 (1240) 의 임의의 부분을 할당하지 않는다.
따라서, 도 9b의 예에서, 비디오 프리프로세서 (19) 는 코드워드 범위 (1230) 에서의 50 개 값들 또는 코드워드들 (119 내지 168) 에 걸쳐 있는 파티션 (1232) 을, 코드워드 범위 (1240) 의 코드워드들 (0 내지 511) 에 걸쳐 있는 파티션 (1242) 로 해석한다. 비디오 프리프로세서 (19) 는 코드워드 범위 (1230) 에서의 150 개 코드워드들에 걸쳐 있는 파티션 (1234) 을 코드워드들 (512 내지 2047) 에 걸쳐 있는 코드워드 범위 (1240) 에서의 파티션 (1244) 으로 해석한다. 그 결과, 코드워드 범위 (1240) 에서의 파티션 (1242) 은 코드워드 범위 (1240) 를 따라 512 개 코드워드들에 걸쳐 있고, 코드워드 범위 (1240) 에서의 파티션 (1244) 은 코드워드 범위 (1240) 를 따라 1536 개 코드워드들에 걸쳐 있다. 파티션 (1244) 은 그러므로 파티션 (1242) 의 사이즈의 세 배이다. 도 9b의 예에서, 비디오 프리프로세서 (19) 는 파티션들 (1232 및 1234) 이 유사하게 비례 (즉, 파티션 (1234) 이 파티션 (1232) 의 사이즈의 세 배로) 되었기 때문에 파티션 사이즈들을 이 방식으로 선택함으로써, 동적 범위 조정이 그들 파티션들을 코드워드 범위 (1240) 에서의 파티션들 (1242 및 1244) 내의 조정된 성분 값들로 해석할 때 파티션들 (1232 및 1234) 의 상대적인 사이즈를 유지할 수도 있다. 다른 예들에서, 비디오 프리프로세서 (19) 는 파티션들을 코드워드 범위 (1240) 에서의 값들로 해석하기 위해 동적 범위 조정이 코드워드 범위 (1230) 에서의 값들에 적용될 때 코드워드 범위 (1230) 를 따라 그들 파티션들의 비율들을 이 방식으로 유지하지 않을 것이다. 다른 예들에서, 비디오 프리프로세서 (19) 는 코드워드 범위 (1230) 를 따르는 파티션들의 비율들을 상이한 방식으로 유지할 수도 있다.
도 9b의 예를 여전히 참조하면, 비디오 프리프로세서 (19) 는 스케일 및 오프셋 값 (예컨대, 로컬 스케일 및 로컬 오프셋) 을 코드워드 값들의 범위 (1230) 에서의 파티션들 중 각각의 파티션에 국부적인 방식으로 적용하여, 그들 파티션들에서의 비조정된 성분 값들 (1230) 을 코드워드 범위 (1240) 를 따르는 파티션들 (1242 및 1244) 에서의 조정된 성분 값들 (1240a) 로 해석할 수도 있다. 예를 들어, 파티션 (1232) 에 대해, 비디오 프리프로세서 (19) 는 파티션 (1232) 에서의 119의 제 1 비조정된 값이 파티션 (1242) 에서의 0의 조정된 값으로 매핑된다는 가정과 파티션 (1232) 에서의 168의 마지막 비조정된 값이 파티션 (1242) 에서의 511의 조정된 값으로 매핑된다는 가정에 기초하여 선형 스케일 및 오프셋 값들을 계산할 수도 있다. 도 9b의 단순화된 예에서의 이러한 가정에 기초하여, 비디오 프리프로세서 (19) 는 다음의 공식이 파티션 (1232) 으로부터의 비조정된 성분 값들을 파티션 (1242) 으로부터의 조정된 성분 값들로 해석하는데 사용될 수 있다고 결정할 수도 있다:
A1242 = 10.429 * U1232 + -1241.1 (수학식 12)
위의 수학식에서, A1242 는 코드워드 범위 (1240) 내의 파티션 (1242) 에서의 조정된 성분 값이고, U1232 는 코드워드 범위 (1230) 내의 파티션 (1232) 에서의 비조정된 성분 값이다. 이 공식에서, 파티션 (1232) 에 대한 로컬 스케일 값은 10.429이고, 파티션 (1232) 에 대한 로컬 오프셋 값은 -1241.1이다.
마찬가지로, 비디오 프리프로세서 (19) 는 파티션 (1234) 에서의 703의 제 1 비조정된 값이 파티션 (1244) 에서의 512의 조정된 값에 대응한다는 가정과, 파티션 (1234) 에서의 852의 마지막 비조정된 값이 파티션 (1244) 에서의 2047의 조정된 값에 대응한다는 가정에 기초하여 파티션 (1234) 에서의 비조정된 성분 값들을 파티션 (1244) 에서의 조정된 성분 값들로 변환하기 위한 선형 스케일 및 오프셋 값들을 계산할 수도 있다. 이러한 가정에 기초하여, 비디오 프리프로세서 (19) 는 다음의 공식이 파티션 (1234) 으로부터의 비조정된 성분 값들을 파티션 (1244) 에서의 조정된 성분 값들로 해석하는데 사용될 수도 있다고 결정할 수도 있다:
A1244 = 10.302 * U1234 + -6730.3 (수학식 13)
위의 수학식에서, A1244 는 코드워드 범위 (1240) 내의 파티션 (1244) 에서의 조정된 성분 값이고, U1234 는 코드워드 범위 (1230) 내의 파티션 (1234) 에서의 비조정된 성분 값이다. 이 공식에서, 파티션 (1234) 에 대한 로컬 스케일 값은 10.302이고, 파티션 (1234) 에 대한 로컬 오프셋 값은 -6730.3이다.
도 9b의 예에서, 비디오 프리프로세서 (19) 는 파티션들 (1231, 1233, 및 1235) 에 코드워드 범위 (1240) 중 임의의 코드워드를 할당하지 않는데, 이는 코드워드 범위 (1240) 의 더욱 효율적인 사용을 가능하게 할 수도 있고, 비디오 데이터가 더 많은 값들을 포함하는 파티션들 (예컨대, 파티션들 (1232 및 1234)) 을 위해 코드워드 범위 (1240) 중 많은 것이 사용되는 것을 허용할 수도 있다. 이러한 일 예에서, 파티션들 (1231, 1233, 및 1235) 은 코드워드 범위 (1240) 에 임의의 대응하는 파티션을 가지지 않을 수도 있다. 일부 예들에서, 비디오 프리프로세서 (19) 는 파티션들 (1231, 1233, 및 1235) 에 대응하는 비디오 데이터 샘플에 포함될 수 있는 임의의 비조정된 성분 값들을 무시하거나 뺄 수도 있다. 다른 예들에서, 비디오 프리프로세서 (19) 는 파티션들 (1231, 1233, 및 1235) 에 포함될 수 있는 임의의 비조정된 성분 값들을 다른 파티션들 중 하나의 파티션에서의 적절한 값으로 매핑할 수도 있거나, 또는 비디오 프리프로세서 (19) 는 이러한 값들을 코드워드 범위 (1240) 에 할당된 파티션들 사이의 경계 상의 또는 그러한 경계 근처의 값으로 매핑할 수도 있거나, 또는 비디오 프리프로세서 (19) 는 이러한 값들을 코드워드 범위 (1240) 의 두 개의 말단들 중 하나의 말단으로 매핑할 수도 있다. 대안적으로, 비디오 프리프로세서 (19) 는 작은 파티션, 또는 영의 사이즈를 갖는 것을 할당 (또는 논리적으로 할당) 할 수도 있고, 비디오 프리프로세서 (19) 는 이러한 파티션들을 위한 비조정된 성분 값들을 코드워드 범위 (1240) 에서의 조정된 성분 값들에 매핑하기 위해 그런 파티션에 대해 적절한 로컬 스케일 및 오프셋 값들을 적용할 수도 있다.
도 9b에 예시된 동적 범위 조정의 효과는, 코드워드 범위 (1240) 에서 더 많은 코드워드들을 효과적으로 사용하기 위해 파티션들 (1232 및 1234) 에서의 값들이 코드워드 범위 (1240) 내에 분산되는 방식으로, 비디오 프리프로세서 (19) 가 코드워드 범위 (1230) 에서의 값들을 코드워드 범위 (1240) 에서의 값들로 해석한다는 것이다. 일부 예들에서, 비디오 프리프로세서 (19) 는 로컬 스케일 및 로컬 오프셋 값들을 각각의 파티션에 대해 선택하여서, 코드워드 범위 (1230) 에서 값들 (1230a) 에 의해 표현되는 바와 같은, 비디오 데이터에서 표현되는 성분 값들은, 코드워드 범위 (1240) 를 따라 가능한 한 많은 코드워드들 중에 분산된다. 일부 경우들에서, 이를테면 특정한 범위들 내에 많은 수의 값들 (1230a) 이 있는 경우, 이러한 조정은 유익할 수도 있다. 도 9b에 관련하여 설명된 것과 유사한 방식으로 동적 범위 조정을 수행하는 비디오 프리프로세서 (19) 는 이러한 경우에 코딩된 성분 값들에 대한 임의의 정확도 손실을 방지하거나 또는 감소시킬 수도 있고, 그러므로, 코딩 아티팩트들 (예컨대, 컬러 불일치 및/또는 컬러 번짐) 이 디코딩된 비디오 데이터의 관람자에 의해 관찰되는 것을 방지할 수도 있다.
일부 예들에서, 비디오 프리프로세서 (19) 는, 도 9a 에 관련하여 설명된 것과 유사한 방식으로 도 9b의 코드워드 범위 (1230 및 1240) 에 적용될 수도 있는 글로벌 오프셋 값을 선택함으로써 추가적인 효율들을 얻을 수도 있다. 예를 들면, 도 9b에서, 비디오 프리프로세서 (19) 는 119의 글로벌 오프셋 값을 선택할 수도 있어서, 코드워드 범위 (1210) 에서의 119 미만의 임의의 값들이 비조정된 값 (119) 으로 가정될 수도 있다. 이러한 일 예에서, 비디오 프리프로세서 (19) 는 파티션 (1231) 에서의 비조정된 성분 값 (60) 이, 60이 아니라, 119의 값을 가지고, 그러므로 파티션 (1232) 에 포함될 것이라고 가정할 것이다. 일부 예들에서, 동적 범위 조정을 수행하기 전에 값을 수정하는 비디오 프리프로세서 (19) 는 그 값을 무시하는 것 또는 그 값에 대해 동적 범위 조정을 수행하지 않는 것이 바람직할 수도 있다.
도 9b의 예에서, 비디오 프리프로세서 (19) 는 비조정된 성분 값 (119) 에 대한 글로벌 오프셋 값을 코드워드 범위 (1240) 를 따라 0의 조정된 성분 값으로 해석한다. 비조정된 값 (119) 에 대한 글로벌 오프셋 값에 해당하는 조정된 값 0은 도 9a에 관련하여 설명된 것과 유사한 방식으로 제 2 글로벌 오프셋 값으로서 자체가 사용될 수도 있다. 이 제 2 글로벌 오프셋 값은 비조정된 값 (119) 에 대응하는 조정된 값으로 간주될 수도 있거나, 또는 다르게 말하면, 제 1 글로벌 오프셋 값 (코드워드 범위 (1230) 에서의 비조정된 성분 값) 은 제 2 글로벌 오프셋 값 (코드워드 범위 (1240) 에서의 조정된 성분 값) 에 매핑될 수도 있다.
파티션들 (1212 및 1214) 에서의 값들에 대해 동적 범위 조정을 수행하기 위한 이전에 설명된 수학식 {12} 및 {13}은, 이들 위에서 설명된 글로벌 오프셋 값들의 측면에서 다시 쓸 수 있다. 구체적으로, 비디오 프리프로세서 (19) 는 하나 이상의 글로벌 오프셋 값들이 사용될 때 상이한 관계가 파티션 (1232) 에 적용될 수도 있다고 결정할 수도 있다. 따라서, 수학식 {12}는 다음과 같이 다시 쓸 수 있다:
A1242 = 10.429 * (U1232 + -119) + 0 + 0 (수학식 14)
위의 수학식에서, A1242 는 코드워드 범위 (1240) 내의 파티션 (1242) 에서의 조정된 성분 값이고, U1232 는 코드워드 범위 (1230) 내의 파티션 (1232) 에서의 비조정된 성분 값이다. 이 공식에서, 코드워드 범위 (1230) 에서의 비조정된 성분 값들에 대한 (제 1) 글로벌 오프셋 값은 -119이고, 코드워드 범위 (1240) 에서의 조정된 성분 값들에 대한 (제 2) 글로벌 오프셋 값은 0이다. 파티션 (1232) 에 대한 스케일 값은 10.429이고, 파티션 (1232) 에 대한 오프셋 값은 0이다.
마찬가지로, 비디오 프리프로세서 (19) 는 하나 이상의 글로벌 오프셋 값들이 사용될 때 상이한 관계가 파티션 (1234) 에 적용될 수도 있다고 결정할 수도 있다. 따라서, 수학식 {13}은 다음과 같이 다시 쓸 수 있다:
A1244 = 10.302 * (U1234 + -119) + 0 + -5504.4 (수학식 15)
위의 수학식에서, A1244 는 코드워드 범위 (1240) 내의 파티션 (1244) 에서의 조정된 성분 값이고, U1234 는 코드워드 범위 (1230) 내의 파티션 (1234) 에서의 비조정된 성분 값이다. 이 공식에서, 코드워드 범위 (1230) 에서의 비조정된 성분 값들에 대한 (제 1) 글로벌 오프셋 값은 -119이고, 코드워드 범위 (1240) 에서의 조정된 성분 값들에 대한 (제 2) 글로벌 오프셋 값은 0이다. 파티션 (1234) 에 대한 스케일 값은 10.302이고, 그 파티션에 대한 오프셋 값은 -5504.4이다.
도 9c는 비디오 프리프로세서 (19) 가 네이티브 코드워드 범위에서의 컬러 성분을 위한 값들의 범위를 나타내는 고유 비트 시퀀스들을 타겟 코드워드 범위를 위한 값들의 범위로 해석할 수도 있는 방법의 다른 단순화된 개념적 예시도이다. 도 9a 및 도 9b에서처럼, 네이티브 코드워드 범위에 해당하는 1차원 네이티브 코드워드 범위 (1250) 와, 타겟 코드워드 범위에 해당하는 1차원 타겟 코드워드 범위 (1260) 를 포함하는, 성분 값들의 1차원 범위들이 도 9c에 도시된다. 이 예에서, 네이티브 코드워드 범위 (코드워드 범위 (1250) 에 해당함) 를 위한 성분 값들의 범위는 2048 개 코드워드들에 대응한다고 가정되고, 타겟 코드워드 범위 (코드워드 범위 (1260) 에 해당함) 을 위한 성분 값들의 범위는 2048 개 코드워드들에 대응한다고 가정된다. 예를 들어, 1차원 네이티브 코드워드 범위 (1250) 가 루마 값들을 나타내면, 네이티브 코드워드 범위에 해당하는 코드워드 범위 (1250) 에 2048 개의 가능한 루마 값들이 있을 수 있다. 1차원 타겟 코드워드 범위 (1260) 가 타겟 코드워드 범위에서의 루마 값들을 나타내면, 타겟 코드워드 범위에 해당하는 코드워드 범위 (1260) 에 2048 개의 가능한 루마 값들이 있을 수 있다.
도 9c의 예는 심지어 네이티브 코드워드 범위 (도 9c의 코드워드 범위 (1250) 에 해당함) 가 타겟 코드워드 범위 (도 9c의 코드워드 범위 (1260) 에 해당함) 와는 동일한 사이즈 또는 실질적으로 동일한 사이즈인 경우에도 본 개시물의 하나 이상의 양태들에 따라서 비디오 프리프로세서 (19) 에 의해 수행되는 동적 범위 조정이 유익할 수도 있다는 것을 예시한다. 도 9c에 예시된 것은 네이티브 코드워드 범위 (1250) 에서의 다수의 표현된 값들 (1250a) 이다. 단순화를 위해, 단지 몇몇 표현된 값들 (1250a) 만이 도시된다.
도 9c에 예시된 바와 같이, 비디오 프리프로세서 (19) 는 코드워드 범위 (1250) 를 다수의 파티션들로 나눌 수도 있다. 비디오 프리프로세서 (19) 는 각각의 파티션에서의 비조정된 성분 값들 (1250a) 을 성분 값들의 범위 (1260) 에서의 조정된 성분 값들 (1260a) 로 매핑하기 위해 각각의 파티션에 대해 스케일 및 오프셋 값들을 계산하고 사용할 수도 있다. 비디오 프리프로세서 (19) 는 타겟 코드워드 범위 (1260) 의 코드워드들을 효율적으로 사용하기 위해 동적 범위 조정 파라미터들을 선택할 수도 있다. 예를 들면, 도 9c에서, 비디오 프리프로세서 (19) 는 코드워드 범위 (1250) 를 다섯 개 파티션들 (1251, 1252, 1253, 1254, 및 1255) 로 나눌 수도 있다. 다른 예들에서처럼, 도 9c의 예에서, 비디오 프리프로세서 (19) 는 코드워드 범위 (1260) 의 부분을 값들을 포함하는 그들 파티션들로 할당하는 반면, 비디오 프리프로세서 (19) 는 코드워드 범위 (1260) 의 임의의 부분을 값들을 포함하지 않는 그들 파티션들로 할당하지 않을 수 있다. 마찬가지로, 비디오 프리프로세서 (19) 는 코드워드 범위 (1260) 의 더 큰 부분을 1250에서의 다른 파티션보다 더 넓거나 또는 더 많은 값들에 걸쳐 있는, 코드워드 범위 (1250) 에서의 그들 파티션들에 할당할 수도 있다. 게다가, 도 9c의 예에서의 파티션 (1251) 에 관해, 심지어 파티션이 120의 성분 값을 포함하더라도, 비디오 프리프로세서 (19) 는 코드워드 범위 (1260) 의 어떠한 부분도 파티션 (1251) 에 할당하지 않는다.
따라서, 도 9c의 예에서의 비디오 프리프로세서 (19) 는 코드워드 범위 (1250) 의 100 개의 값들 또는 코드워드들 (238 내지 337) 에 걸쳐 있는 파티션 (1252) 을 코드워드 범위 (1260) 의 코드워드들 (0 내지 511) 에 걸쳐 있는 파티션 (1262) 으로 해석한다. 비디오 프리프로세서 (19) 는 코드워드 범위 (1250) 에서의 300 개 코드워드들에 걸쳐 있는 파티션 (1254) 을 코드워드들 (512 내지 2047) 에 걸쳐 있는 코드워드 범위 (1260) 에서의 파티션 (1264) 으로 해석한다.
도 9c의 예를 여전히 참조하면, 비디오 프리프로세서 (19) 는 코드워드 값들의 범위 (1250) 의 파티션들 중 각각의 파티션에 국부적인 방식으로 스케일 및 오프셋 값을 계산하고 적용하여, 그들 파티션들의 비조정된 성분 값들을 코드워드 범위 (1260) 를 따르는 파티션들 (1262 및 1264) 의 조정된 성분 값들로 해석할 수도 있다. 예를 들어, 파티션 (1252) 에 대해, 비디오 프리프로세서 (19) 는 파티션 (1252) 에서의 238의 제 1 비조정된 값이 파티션 (1262) 에서의 0의 조정된 값으로 매핑된다는 가정과 파티션 (1252) 에서의 337의 마지막 비조정된 값이 파티션 (1262) 에서의 511의 조정된 값으로 매핑된다는 가정에 기초하여 선형 스케일 및 오프셋 값들을 계산할 수도 있다. 도 9c의 단순화된 예에서의 이러한 가정에 기초하여, 비디오 프리프로세서 (19) 는 다음의 관계가 파티션 (1212) 으로부터의 비조정된 성분 값들을 파티션 (1222) 으로부터의 조정된 성분 값들로 해석하는데 사용될 수도 있다고 결정할 수도 있다:
A1262 = 5.162 * (U1252 + -238) + 0 + 0 (수학식 16)
위의 수학식에서, A1262 는 코드워드 범위 (1260) 내의 파티션 (1262) 에서의 조정된 성분 값이고, U1252 는 코드워드 범위 (1250) 내의 파티션 (1252) 에서의 비조정된 성분 값이다. 이 공식에서, (제 1) 글로벌 오프셋 값은 -238이고, (제 2) 글로벌 오프셋 값은 0이다. 파티션 (1252) 에 대한 로컬 스케일 값은 5.162이고, 파티션 (1252) 에 대한 로컬 오프셋 값은 0이다.
마찬가지로, 비디오 프리프로세서 (19) 는 파티션 (1254) 에서의 1406의 제 1 비조정된 값이 파티션 (1264) 에서의 512의 조정된 값에 대응한다는 가정과, 파티션 (1254) 에서의 1705의 마지막 비조정된 값이 파티션 (1264) 에서의 2047의 조정된 값에 대응한다는 가정에 기초하여 파티션 (1254) 에서의 비조정된 성분 값들을 파티션 (1264) 에서의 조정된 성분 값들로 변환하기 위한 선형 스케일 및 오프셋 값들을 계산할 수도 있다. 이러한 가정에 기초하여, 비디오 프리프로세서 (19) 는 다음의 관계가 파티션 (1254) 으로부터의 비조정된 성분 값들을 파티션 (1264) 에서의 조정된 성분 값들로 해석하는데 사용될 수도 있다고 결정할 수도 있다:
A1264 = 5.134 * (U1254 + -238) + 0 + -5484.5 (수학식 17)
위의 수학식에서, A1264 는 코드워드 범위 (1260) 내의 파티션 (1264) 에서의 조정된 성분 값이고, U1254 는 코드워드 범위 (1250) 내의 파티션 (1254) 에서의 비조정된 성분 값이다. 이 공식에서, (제 1) 글로벌 오프셋 값은 -238이고, (제 2) 글로벌 오프셋 값은 0이다. 파티션 (1254) 에 대한 로컬 스케일 값은 5.134이고, 파티션 (1254) 에 대한 로컬 오프셋 값은 -5484.5이다.
다시, 도 9c에 예시된 동적 범위 조정의 효과는, 코드워드 범위 (1260) 의 더 많은 코드워드들을 효과적으로 사용하기 위해 파티션들 (1252 및 1254) 에서의 값들이 코드워드 범위 (1260) 내에 분산되는 방식으로, 비디오 프리프로세서 (19) 가 코드워드 범위 (1250) 에서의 값들을 코드워드 범위 (1260) 에서의 값들로 해석한다는 것이다. 일부 예들에서, 도 9c에 관련하여 설명된 것과 유사한 방식으로 동적 범위 조정을 수행하는 비디오 프리프로세서 (19) 는 코딩된 성분 값들에 대한 임의의 정확도 손실을 방지하거나 또는 감소시킬 수도 있고, 그러므로, 코딩 아티팩트들 (예컨대, 컬러 불일치 및/또는 컬러 번짐) 이 디코딩된 비디오 데이터의 관람자에 의해 관찰되는 것을 방지할 수도 있다.
아래에서 더 설명되는 바와 같이, 그리고 본 개시물의 하나 이상의 양태들에 따라서, 하나 이상의 새로운 SEI 메시지들은 위에서 설명된 동적 범위 조정을 수행하는 것에 관련한 파라미터들 및/또는 정보를 포함할 수도 있다. 동적 범위 조정 파라미터들 또는 정보는 비디오 프리프로세서 (19) 에 의해 생성되고 비디오 디코더 (30) 에 의해 SEI 메시지로서 인코딩될 수도 있다. 이러한 SEI 메시지들은 비디오 디코더 (30) 및/또는 비디오 포스트프로세서 (31) 가 비디오 데이터를 복원하기 위해 동적 범위 조정의 역을 수행하는 것을 가능하게 하기에 충분한 정보를 포함할 수도 있다.
본 개시물의 다른 예들에서, 조정 부 (210) 는 DRA를 수행하기 위해 비디오에 선형 전달 함수를 적용하도록 구성될 수도 있다. 그런 전달 함수는 동적 범위를 압축하기 위해 전달 함수 부 (206) 에 의해 사용되는 전달 함수와는 상이할 수도 있다. 위에서 정의된 스케일 및 오프셋 항들과 유사하게, 조정 부 (210) 에 의해 적용되는 전달 함수는 타겟 컬러 표현의 이용가능 코드워드들로 컬러 값을 확장하고 중심 맞추는데 사용될 수도 있다. DRA를 수행하기 위해 전달 함수를 적용하는 일 예가 아래에서 도시된다:
- Y" = TF2(Y')
- Cb" = TF2(Cb')
- Cr" = TF2(Cr')
항 TF2는 조정 부 (210) 에 의해 적용되는 전달 함수를 특정한다. 일부 실시형태들에서 조정 부는 상이한 전달 함수들을 성분들의 각각에 적용할 수도 있다.
본 개시물 다른 예에서, 조정 부 (210) 는 단일 프로세스에서 컬러 변환 부 (208) 의 컬러 변환과 공동으로 DRA 파라미터들을 적용하도록 구성될 수도 있다. 다시 말하면, 조정 부 (210) 및 컬러 변환 부 (208) 의 선형 함수들은 결합될 수도 있다. f1 및 f2가 RGB 대 YCbCr 매트릭스와 DRA 스케일링 계수들의 조합인 조합된 애플리케이션의 일 예가 아래에서 도시된다:
;
본 개시물 다른 예에서, DRA 파라미터들을 적용한 후, 조정 부 (210) 는 비디오 데이터가 특정한 타겟 컬러 표현을 위해 특정된 코드워드 범위 밖의 값들을 갖는 것을 방지하는 클리핑 프로세스를 수행하도록 구성될 수도 있다. 일부 환경들에서, 조정 부 (210) 에 의해 적용되는 스케일 및 오프셋 파라미터들은 일부 컬러 성분 값들이 허용가능 코드워드들의 범위를 초과하게 할 수도 있다. 이 경우, 조정 부 (210) 는 범위를 초과하는 성분들의 값들을 그 범위에서의 최대 값으로 클리핑하도록 구성될 수도 있다.
조정 부 (210) 에 의해 적용되는 DRA 파라미터들은 DRA 파라미터들 추정 부 (212) 에 의해 결정될 수도 있다. DRA 파라미터들 추정 부 (212) 가 DRA 파라미터들을 업데이트하는 빈도 및 시간 인스턴스들은 융통성이 있다. 예를 들어, DRA 파라미터들 추정 부 (212) 는 시간적 레벨에서 DRA 파라미터들을 업데이트할 수도 있다. 다시 말하면, 새로운 DRA 파라미터들은 픽처들의 그룹 (GOP), 또는 단일 픽처 (프레임) 에 대해 결정될 수도 있다. 이 예에서, RGB 네이티브 CG 비디오 데이터 (200) 는 GOP 또는 단일 픽처일 수도 있다. 다른 예들에서, DRA 파라미터들 추정 부 (212) 는 공간적 레벨에서, 예컨대, 슬라이스 타일, 또는 블록 레벨에서 DRA 파라미터들을 업데이트할 수도 있다. 이 맥락에서, 비디오 데이터의 블록이 매크로블록, 코딩 트리 유닛 (CTU), 코딩 유닛, 또는 임의의 다른 사이즈 및 모양의 블록일 수도 있다. 블록이 정사각형, 직사각형, 또는 임의의 다른 형상일 수도 있다. 따라서, DRA 파라미터들은 더욱 효율적인 시간적 및 공간 예측과 코딩을 위해 사용될 수도 있다.
본 개시물의 다른 예들에서, DRA 파라미터들 추정 부 (212) 는 비디오 데이터를 프리프로세싱하는 것 및/또는 인코딩하는 것에 연관된 특정한 비용 함수들을 최소화하기 위해서 DRA 파라미터들에 대한 값들을 도출하도록 구성될 수도 있다. 하나의 예로서, DRA 파라미터들 추정 부 (212) 는 위의 양자화 부 (214) (예컨대, 수학식 (4) 참조) 에 의해 도입된 양자화 에러들을 최소화했던 DRA 파라미터들을 추정하도록 구성될 수도 있다. DRA 파라미터들 추정 부 (212) 는 적용되는 상이한 DRA 파라미터 세트들을 가졌던 비디오 데이터에 대해 양자화 에러 테스트들을 수행함으로써 이러한 에러를 최소화할 수도 있다. 다른 예에서, DRA 파라미터들 추정 부 (212) 는 양자화 부 (214) 에 의해 도입된 양자화 에러들을 인지적 방식으로 최소화하는 DRA 파라미터들을 추정하도록 구성될 수도 있다. DRA 파라미터들 추정 부 (212) 는 적용되는 상이한 DRA 파라미터 세트들을 가졌던 비디오 데이터에 대한 인지 에러 테스트들에 기초하여 이러한 에러를 최소화할 수도 있다. DRA 파라미터들 추정 부 (212) 는 그 다음에 최저 양자화 에러를 생성했던 DRA 파라미터들을 선택할 수도 있다.
다른 예에서, DRA 파라미터들 추정 부 (212) 는 조정 부 (210) 에 의해 수행된 DRA 및 비디오 인코더 (20) 에 의해 수행된 비디오 인코딩 둘 다에 연관된 비용 함수를 최소화하는 DRA 파라미터들을 선택할 수도 있다. 예를 들어, DRA 파라미터들 추정 부 (212) 는 DRA를 수행하고 다수의 상이한 DRA 파라미터 세트들과 함께 비디오 데이터를 인코딩할 수도 있다. DRA 파라미터들 추정 부 (212) 는 그 다음에 DRA 및 비디오 인코딩, 뿐만 아니라 이들 두 개의 손실 프로세스에 의해 도입된 왜곡으로부터 초래되는 비트레이트의 가중된 합을 형성함으로써 각각의 DRA 파라미터 세트에 대한 비용 함수를 계산할 수도 있다. DRA 파라미터들 추정 부 (212) 는 그 다음에 비용 함수를 최소화하는 DRA 파라미터들의 세트를 선택할 수도 있다.
DRA 파라미터 추정을 위한 위의 기법들의 각각에서, DRA 파라미터들 추정 부 (212) 는 각각의 성분에 대해 그 성분에 관한 정보를 사용하여 따로따로 DRA 파라미터들을 결정할 수도 있다. 다른 예들에서, DRA 파라미터들 추정 부 (212) 는 교차-성분 정보를 사용하여 DRA 파라미터들을 결정할 수도 있다. 예를 들어, Cr 성분에 대해 도출된 DRA 파라미터들은 Cb 성분에 대한 DRA 파라미터들을 도출하는데 사용될 수도 있다.
가중 예측을 이용하는 비디오 코딩 스킴들에서, 가중값 (Wwp) 이 취해진 참조 픽처의 (단일 방향 예측을 위한) 샘플 (Sr) 과 예측된 샘플 (Sp) 에서 초래되는 오프셋 (Owp) 으로부터 현재 코딩되는 픽처의 샘플 (Sc) 이 예측된다:
Sp = Sr * Wwp + Owp.
DRA를 이용하는 일부 예들에서, 참조 및 현재 코딩되는 픽처의 샘플들은 상이한 파라미터들, 즉 현재 픽처에 대한 {scale1cur, offset1cur} 및 참조 픽처에 대한 {scale1ref, offset1 ref}을 사용하는 DRA로 프로세싱될 수 있다. 그런 실시형태들에서, 가중 예측의 파라미터들은 DRA로부터 도출될 수 있는데, 예를 들어:
Wwp = scale1cur / scale1ref
Owp = offset1cur - offset1ref
조정 부 (210) 가 DRA 파라미터들에 적용한 후, 비디오 프리프로세서 (19) 는 그러면 양자화 부 (214) 를 사용하여 비디오 데이터를 양자화할 수도 있다. 양자화 부 (214) 는 도 4를 참조하여 위에서 설명된 것과 동일한 방식으로 동작할 수도 있다. 양자화 후, 비디오 데이터는 이제 HDR' 데이터 (216) 의 타겟 컬러 컨테이너의 타겟 원색들과 타겟 색 공간에서 조정된다. HDR' 데이터 (216) 는 그 다음에 비디오 인코더 (20) 에 압축을 위해 전송될 수도 있다.
도 10은 본 개시물의 기법들에 따라 예시적인 HDR/WCG 역 변환 장치를 도시하는 블록도이다. 도 10에 도시된 바와 같이, 비디오 포스트프로세서 (31) 는 도 8의 비디오 프리프로세서 (19) 에 의해 수행되는 기법들의 역을 적용하도록 구성될 수도 있다. 다른 예들에서, 비디오 포스트프로세서 (31) 의 기법들은 비디오 디코더 (30) 에 통합되고 그 비디오 디코더에 의해 수행될 수도 있다.
하나의 예에서, 비디오 디코더 (30) 는 비디오 인코더 (20) 에 의해 인코딩된 비디오 데이터를 디코딩하도록 구성될 수도 있다. 디코딩된 비디오 데이터 (타겟 컬러 컨테이너에서의 HDR' 데이터 (316)) 는 그러면 비디오 포스트프로세서 (31) 에 포워딩된다. 역 양자화 부 (314) 는 도 8의 양자화 부 (214) 에 의해 수행되는 양자화 프로세스를 역전시키기 위해 HDR' 데이터 (316) 에 대해 역 양자화 프로세스를 수행한다.
비디오 디코더 (30) 는 도 10의 DRA 파라미터들 추정 부 (212) 에 의해 생성된 하나 이상의 신택스 엘리먼트들 중 임의의 신택스 엘리먼트를 디코딩하고 비디오 포스트프로세서 (31) 의 DRA 파라미터들 도출 부 (312) 에 전송하도록 또한 구성될 수도 있다. DRA 파라미터들 도출 부 (312) 는 본 개시물의 하나 이상의 양태들에 따라서, 하나 이상의 신택스 엘리먼트들 또는 SEI 메시지들에 기초하여 DRA 파라미터들을 결정하도록 구성될 수도 있다. 일부 예들에서, 하나 이상의 신택스 엘리먼트들 또는 SEI 메시지들은 DRA 파라미터들을 명시적으로 나타낼 수도 있다. 다른 예들에서, DRA 파라미터들 도출 부 (312) 는 신택스 엘리먼트들 또는 SEI 메시지들로부터의 정보를 사용하여, 그리고/또는 도 10의 DRA 파라미터들 추정 부 (212) 에 의해 사용되는 동일한 기법들을 사용하여 DRA 파라미터들의 일부 (또는 모두) 를 도출하도록 구성된다.
DRA 파라미터들 도출 부 (312) 에 의해 도출되는 파라미터들은 역 조정 부 (310) 로 전송될 수도 있다. 역 조정 부 (310) 는 조정 부 (210) 에 의해 수행되는 선형 DRA 조정의 역을 수행하기 위해 DRA 파라미터들을 사용한다. 역 조정 부 (310) 는 조정 부 (210) 에 대해 위에서 설명된 조정 기법들 중 임의의 조정 기법의 역을 적용할 수도 있다. 덧붙여서, 조정 부 (210) 에서처럼, 역 조정 부 (310) 는 임의의 역 컬러 변환 전 또는 후에 역 DRA를 적용할 수도 있다. 이와 같이, 역 조정 부 (310) 는 타겟 컬러 표현 또는 네이티브 컬러 표현의 비디오 데이터에 DRA 파라미터를 적용할 수도 있다. 일부 예들에서, 역 조정 부는 역 양자화 부 전에 또한 적용될 수도 있다.
역 컬러 변환 부 (308) 는 비디오 데이터를 타겟 색 공간 (예컨대, YCbCr) 에서부터 네이티브 색 공간 (예컨대, RGB) 으로 변환한다. 역 전달 함수 (306) 는 그 다음에 비디오 데이터의 동적 범위를 비압축하기 위해 전달 함수 (206) 에 의해 적용되는 전달 함수의 역을 적용한다. 결과적인 비디오 데이터 (RGB 타겟 CG (304)) 는 타겟 원색들을 사용하여 여전히 표현되지만, 이제는 네이티브 동적 범위 및 네이티브 색 공간에 있다. 다음으로, 역 CG 변환기 (302) 는 RGB 네이티브 CG (300) 를 복원하기 위해 RGB 타겟 CG(304) 를 네이티브 색 영역으로 변환한다.
일부 예들에서, 추가적인 후처리 기법들은 비디오 포스트프로세서 (31) 에 의해 채용될 수도 있다. DRA를 적용하면 비디오가 자신의 실제 네이티브 색 영역 밖에 놓일 수도 있다. 양자화 부 (214) 및 역 양자화 부 (314) 에 의해 수행되는 양자화 단계들, 뿐만 아니라 조정 부 (210) 및 역 조정 부 (310) 에 의해 수행되는 업 및 다운-샘플링 기법들은, 네이티브 색 영역 밖에 있는 네이티브 컬러 표현에서의 결과적인 컬러 값들에 기여할 수도 있다. 네이티브 색 영역 (또는 위에서 설명된 바와 같이, 시그널링된다면, 실제 최소 콘텐츠 원색들) 이 알려질 때, 추가적인 프로세스는 DRA에 대한 포스트프로세싱으로서 컬러 값들 (예컨대, RGB 또는 Cb 및 Cr) 을 의도된 영역 (gamut) 으로 다시 변환하기 위해 RGB 네이티브 CG 비디오 데이터 (304) 에 적용될 수 있다. 다른 예들에서, 이러한 포스트프로세싱은 양자화 후 또는 DRA 적용 후 적용될 수도 있다.
본 개시물의 하나 이상의 양태들에 따르면, 그리고 아래에서 더 설명되는 바와 같이, 비디오 디코더 (30) 는 비디오 프리프로세서 (19) 에 의해 수행된 동적 범위 조정에 관련하는 파라미터들 및/또는 정보를 나타내는 하나 이상의 SEI 메시지들을 수신할 수도 있다. 비디오 디코더 (30) 는 그 정보를 파싱 및/또는 디코딩하고, 그것에 적용하며 그리고/또는 그 정보를 비디오 포스트프로세서 (31) 에 전달할 수도 있다. 이러한 SEI 메시지들은 비디오 디코더 (30) 및/또는 비디오 포스트프로세서 (31) 가 비디오 데이터를 복원하기 위해 동적 범위 조정의 역을 수행하는 것을 가능하게 하기에 충분한 정보를 포함할 수도 있다.
DRA 파라미터들 또는 DRA 조정 정보를 도출하는 것 외에도, 도 8의 비디오 프리프로세서 (19) (예컨대, DRA 파라미터들 추정 부 (212)) 또는 비디오 인코더 (20) 는 인코딩된 비트스트림에서 또는 상이한 채널과 같은 다른 수단에 의해 DRA 파라미터들을 시그널링하도록 구성될 수도 있다. 도 10의 DRA 파라미터들 도출 부 (312) 또는 비디오 디코더 (30) 는 인코딩된 비트스트림에서 또는 상이한 채널과 같은 다른 수단으로부터 이러한 시그널링을 수신하도록 구성될 수도 있다. DRA 파라미터들 추정 부 (212) 는 DRA 파라미터들을 직접적으로 나타내는 하나 이상의 신택스 엘리먼트들을 시그널링할 수도 있거나, 또는 하나 이상의 신택스 엘리먼트들을 비디오 인코더 (20) 에 시그널링을 위해 제공하도록 구성될 수도 있다. 비디오 디코더 (30) 및/또는 비디오 포스트프로세서 (31) 가 비디오 데이터를 그것의 네이티브 컬러 표현으로 복원하기 위해 비디오 프리프로세서 (19) 의 프로세스의 역을 수행할 수도 있도록 파라미터들의 이러한 신택스 엘리먼트들은 비트스트림으로 시그널링될 수도 있다.
비디오 인코더 (20) 또는 비디오 프리프로세서 (19) 가 DRA 조정 파라미터들 또는 DRA 조정 정보를 시그널링할 수도 있는 하나의 방도는 SEI 메시지를 통하는 것이다. 보충적 향상 정보 (SEI) 메시지들은 다수의 목적들을 위해 사용되고 있고, 통상적으로 디코더에 의해 비트스트림을 디코딩하기 위하여 필수적이지 않은 정보를 운반하기 위하여 비디오 비트스트림들에 포함될 수도 있다. 이 정보는 디코딩된 출력의 디스플레이 또는 프로세싱을 개선함에 있어서 유용할 수도 있으며; 예컨대, 이러한 정보는 콘텐츠의 가시성을 개선하기 위해 디코더 측 엔티티들에 의해 사용될 수 있다. 품질에서의 개선이 애플리케이션 표준을 준수하는 모든 디바이스들에 가져와질 수 있도록 하는 그런 SEI 메시지들의 비트스트림에서의 존재 (예컨대, ETSI - TS 101 547-2, Digital Video Broadcasting (DVB) Plano-stereoscopic 3DTV; Part 2: Frame compatible plano-stereoscopic 3DTV에서 설명된 바와 같은, SEI 메시지가 비디오의 모든 프레임에 대해 운반되는 프레임 호환 평면-스테레오스코픽 3DTV 비디오 포맷을 위한 프레임 패킹 (packing) SEI 메시지의 캐리지, 예컨대, 3GPP TS 26.114 v13.0.0, 3rd Generation Partnership Project; Technical Specification Group Services and System Aspects; IP Multimedia Subsystem (IMS); Multimedia Telephony; Media handling and interaction (Release 13) 에서 설명되는 바와 같은 복원점 SEI 메시지의 핸들링, 또는, 예컨대, ETSI - TS 101 154, Digital Video Broadcasting (DVB); Specification for the use of Video and Audio Coding in Broadcasting Applications based on the MPEG-2 Transport Stream에서 설명된 바와 같은 DVB에서의 팬-스캔 스캔 직사각형 SEI 메시지의 사용) 를 특정한 애플리케이션 표준들이 요구할 수 있다는 것이 또한 가능하다.
본 개시물의 하나 이상의 양태들에 따라서 동적 범위 조정 파라미터들을 시그널링하는 하나 이상의 방식들에서는 사용된 다수의 SEI 메시지들이 부족할 수도 있다.
예를 들어, 하나의 SEI 메시지는, 루마 샘플들, 또는 RGB 성분 샘플들의 각각을 매핑하는데 사용되는 톤-매핑 정보 SEI 메시지이다. tone_map_id의 상이한 값들이 상이한 목적들을 정의하는데 사용되고, 톤-맵 SEI 메시지의 신택스는 그에 따라 또한 수정된다. 예를 들어, tone_map_id에 대한 1의 값이 SEI 메시지에 작용하는 프로세서가 RGB 샘플들을 최소 및 최대 값으로 클리핑하는 것을 허용한다. tone_map_id에 대한 3의 값이 룩업 테이블이 피벗 포인트들의 형태로 시그널링될 것을 허용하거나 또는 나타낸다. 그러나, 적용될 때, 동일한 값들은 모든 RGB 성분들에 적용되거나, 또는 루마 성분에만 적용된다.
다른 예가 무릎 함수 (knee function) SEI 메시지인데, 이는 정규화된 선형 도메인에서의 디코딩된 픽처들의 RGB 성분들의 매핑을 나타내는데 사용된다. 입력 및 출력 최대 휘도 값들은 또한 나타내어지고, 룩업 테이블은 입력 휘도 값들을 출력 휘도 값들에 매핑한다. 동일한 룩업 테이블은 모든 세 개의 컬러 성분들에 적용될 수도 있다.
HEVC 표준에서 정의되는 컬러 리매핑 정보 (CRI) SEI 메시지는, 하나의 색 공간에서의 픽처들을 다른 색 공간으로 매핑하는데 사용되는 정보를 운반하는데 사용된다. 도 11은 CRI SEI 메시지에 의해 사용되는 컬러 리매핑 정보 프로세스의 전형적인 구조를 도시한다. 하나의 예에서, CRI SEI 메시지의 신택스는 세 개의 부분들, 즉, 제 1 룩업 테이블 (프리-LUT) (1302), 뒤따르는 컬러 리매핑 계수들을 나타내는 3x3 매트릭스 (1304), 및 뒤따르는 제 2 룩업 테이블 (포스트-LUT) (1306) 을 포함한다. 각각의 컬러 성분, 예컨대, R,G,B 또는 Y,Cb,Cr에 대해, 독립적인 프리-LUT가 정의되고, 또한 독립적인 포스트-LUT가 정의된다. CRI SEI 메시지는 colour_remap_id라 불리는 신택스 엘리먼트를 또한 포함하는데, 그 신택스 엘리먼트의 상이한 값들은 SEI 메시지의 상이한 목적들을 나타내는데 사용될 수도 있다.
다른 예에서, 동적 범위 조정 (DRA) SEI 메시지는, D. Bugdayci Sansli, A. K. Ramasubramonian, D. Rusanovskyy, S. Lee, J. Sole, M. Karczewicz, Dynamic range adjustment SEI message, m36330, MPEG meeting, Warsaw, Poland, 22 - 26 June, 2015에서 설명되어 있다. 예시적인 DRA SEI 메시지가 입력 샘플들을 매핑하기 위한 스케일 및 오프셋 수들의 하나의 세트의 시그널링을 포함한다. SEI 메시지는 상이한 성분들에 대한 상이한 룩업 테이블들의 시그널링을 또한 허용하고, 동일한 스케일 및 오프셋이 하나를 초과하는 성분을 위해 사용되는 것일 때 시그널링 최적화를 또한 허용한다. 스케일 및 오프셋 수들은 고정된 길이 정확도로 시그널링될 수도 있다.
이 섹션은 비디오 콘텐츠를 스케일링 또는 매핑하는 것에 관련된 컬러 리매핑 정보 SEI 메시지 및 다른 SEI 메시지들에 연관되는 여러 문제들을 열거한다. 이전의 단락들에서 설명된 SEI 메시지들은 다음의 결함들 중 하나 이상을 가진다:
톤-매핑 SEI 메시지, 무릎 함수 SEI 메시지, 및 CRI SEI 메시지에 연관되는 여러 문제들이 있다. 예를 들어, 톤-매핑 정보 SEI 신택스는 크로마 성분들 (Cb 및 Cr) 에 대한 스케일링의 표시를 허용하지 않거나, 또는 임의의 표시를 제공하지 않는다. 게다가 룩업 테이블 피벗 포인트들 및 다른 신택스 엘리먼트들을 (예컨대, CRI SEI 메시지에서) 나타내는데 필요한 비트들의 수는 필요한 것보다 더 많고, 비효율적일 수도 있다. SEI 메시지가 더 빈번하게, 예컨대, 프레임마다 시그널링될 때, SEI 메시지는 단순하고 더 적은 비트들을 소비하는 것이 유익할 수도 있다. 게다가, 많은 SEI 메시지들 (예컨대, 톤-매핑 정보, 무릎 함수 SEI 메시지) 은 적용 가능할 때 모든 세 개의 컬러 성분들에 적용되는 동일한 룩업 테이블을 가진다. 더군다나, 동적 범위 조정 SEI 메시지는 각각의 성분에 대해 하나의 스케일 및 하나의 오프셋만을 시그널링한다.
전술한 바를 감안하여, 그리고 아래에서 더 설명되는 바와 같이, 본 개시물은, 하나 이상의 새로운 SEI 메시지들을 통해, 위에서 설명된 동적 범위 조정을 수행하는 것에 관련한 파라미터들 및/또는 정보를 시그널링하는 것을 제안한다. 동적 범위 조정 파라미터들 또는 정보는 동적 범위 조정의 역을 수행하여 비디오 데이터를 복원하기 위해 비디오 디코더 (30) 및/또는 비디오 포스트프로세서 (31) 에 의해 사용될 수도 있다. 일부 예들에서, DRA 파라미터들 또는 DRA 정보는 명시적으로 시그널링될 수도 있다. 예를 들어, 하나 이상의 SEI 메시지들은 다양한 글로벌 오프셋, 로컬 오프셋, 파티션, 및 스케일 정보를 포함할 수도 있다.
따라서, 일부 예들에서, 비디오 인코더 (20) 는 비디오 프리프로세서 (19) 로부터 동적 범위 조정 파라미터들 또는 정보를 수신할 수도 있고, 다양한 동적 범위 조정 파라미터들 또는 동적 범위 조정 정보를 포함하는 하나 이상의 SEI 메시지들을 시그널링할 수도 있다. 이러한 정보는 글로벌 오프셋, 로컬 오프셋, 파티션, 및 스케일 파라미터들, 또는 이러한 파라미터들 또는 정보를 도출하기에 충분하거나, 또는 그렇지 않으면 동적 범위 조정이 비디오 데이터에 적용되었던 방법을 설명하기에 충분한 정보를 포함할 수도 있다. 디코더 (30) 는 하나 이상의 이러한 SEI 메시지들을 수신하며, SEI 메시지들에서의 정보를 파싱 및/또는 디코딩하고, 이러한 정보에 따라 작용하며 그리고/또는 그 정보를 비디오 포스트프로세서 (31) 에 전달할 수도 있다.
일부 예들에서, 비디오 인코더 (20) 는 각각의 성분에 대해, 본 개시물에서 설명된 바와 같은 동적 범위 조정을 적용하기 전에 모든 성분 값들이 비조정된 제 1 성분 값으로 클리핑되게 하는 제 1 성분 값을 결정하는 제 1 오프셋 값을 포함하는 글로벌 오프셋 값들을 포함하는 하나 이상의 SEI 메시지들을 시그널링할 수도 있다. 디코더 (30) 는 하나 이상의 이러한 SEI 메시지들을 수신하며, SEI 메시지들의 정보를 파싱 및/또는 디코딩하고, 그 정보를 비디오 포스트프로세서 (31) 에 전달할 수도 있다.
일부 예들에서, 각각의 성분에 대해, 비디오 인코더 (20) 는 동적 범위 조정 후에 제 1 오프셋 값이 매핑되는 조정된 값을 특정하는 제 2 오프셋 값을 포함하는 하나 이상의 SEI 메시지들을 시그널링할 수도 있다. 비디오 디코더 (30) 는 이러한 SEI 메시지들을 수신하며, 그 정보를 파싱 및/또는 디코딩하고, 그 정보를 비디오 포스트프로세서 (31) 에 전달할 수도 있다.
다른 예에서, 제 1 글로벌 오프셋 값 또는 제 2 글로벌 오프셋 값 중 어느 것도 SEI 메시지로 시그널링되지 않는다. 대신, 디코더 (30) 는 제 1 글로벌 오프셋 및 제 2 글로벌 오프셋의 값들이 디코더 (30) 가 시퀀스마다 결정하거나 또는 외부 수단에 의해 수신하는 일정한, 미리 결정된, 또는 시그널링된 값이라고 가정한다. 다른 예에서, 비디오 인코더 (20) 는 SEI 메시지에서 제 1 글로벌 오프셋 값을 시그널링하지만, 제 2 글로벌 오프셋 값은 SEI 메시지에서 시그널링되지 않는다. 대신, 비디오 디코더 (30) 는 그것의 값이 디코더 (30) 가 시퀀스마다 결정하거나 또는 외부 수단에 의해 수신하는 일정하거나, 미리 결정되거나, 또는 시그널링되는 값이라고 유추한다. 더 추가의 예에서, 비디오 인코더 (20) 는 SEI 메시지에서 제 2 글로벌 오프셋 값을 시그널링하지만, 제 1 글로벌 오프셋 값은 SEI 메시지에서 시그널링되지 않는다. 대신, 비디오 디코더 (30) 는 제 1 글로벌 오프셋 값이 디코더 (30) 가 시퀀스마다 결정하거나 또는 외부 수단에 의해 수신하는 일정하거나, 미리 결정되거나, 또는 시그널링되는 값이라고 유추한다.
일부 예들에서, 비디오 인코더 (20) 는 디코더 (30) 에 의해 수신되고, 디코더 (30) 에 의해 사용되는 오프셋 값들을, 글로벌 및 로컬 스케일 및 오프셋 값들 둘 다, 뿐만 아니라 비조정된 값들의 범위의 파티션들, 및 조정된 값들의 범위의 파티션들을 포함하는 다른 글로벌 또는 로컬 파라미터들을 도출하기 위해 시그널링할 수도 있다.
일부 예들에서, 비디오 인코더 (20) 는 동적 범위 조정 동안 입력 표현 값들 (즉, 성분 값들) 의 범위가 나누어졌던 파티션들의 수를 포함하는 하나 이상의 SEI 메시지들을 시그널링할 수도 있다. 하나의 예에서, 파티션들의 수는 2의 거듭제곱 (즉, 1, 2, 4, 8, 16 등) 으로 제한될 수도 있고 파티션들의 수는 로그로서 시그널링된다 (예컨대, 3 = log2 8 일 때 8 개 파티션들이 시그널링된다). 비디오 디코더 (30) 는 이러한 SEI 메시지들을 수신하며, 그 정보를 파싱 및/또는 디코딩하고, 그 정보를 비디오 포스트프로세서 (31) 에 전달할 수도 있다.
일부 예들에서, 크로마 성분들에 대한 파티션들의 수는 루마 성분에 대한 파티션들의 수와는 상이할 수도 있다. 파티션들의 수는 2 + 1의 거듭제곱으로 제한되고 로그로서 시그널링되고 마이너스 0으로 반올림될 수도 있다. 이런 식으로, 뉴트럴 (neutral) 크로마를 갖는 화소들이 자신들 소유의 값들을 가질 수 있고 그 파티션의 사이즈는 다른 파티션들보다 더 작을 수 있다. 이러한 일 예에서, 뉴트럴 크로마는 중간-값 (예컨대, 크로마 값들이 10-비트 표현에서 -0.5와 0.5 사이, 또는 -512와 511 사이의 범위일 때 0) 주위의 크로마의 값들을 지칭할 수도 있다. 2의 거듭제곱으로서 파티션들의 수를 제한하는 것은 인코더 (20) 가 비트들을 절약하는 것을 가능하게 할 수도 있는데, 인코더 (20) 는 정수 값들에 대해 실제 값보다 더 적은 비트수로 값의 로그를 나타낼 수도 있기 때문이다. 파티션들의 수를 2 + 1의 거듭제곱으로 제한하는 것은 적어도 하나의 파티션이 뉴트럴 크로마 값들에 전용될 수도 있는 것과, 일부 예들에서, 뉴트럴 크로마 값들에 대응하는 파티션의 폭이 나머지보다 더 작을 수도 있는 것을 보장할 수도 있다. 다른 예들에서, 그런 파티션은 다른 파티션들 중 하나 이상의 파티션보다 더 클 수도 있다.
일부 예들에서, 디코더 (30) 는, 글로벌 및 로컬 스케일 및 오프셋 값들 둘 다, 뿐만 아니라 비조정된 성분 값들의 범위의 파티션들의 실제 사이즈 및/또는 조정된 성분 값들의 범위의 파티션들의 사이즈를 포함하는 다른 글로벌 또는 로컬 파라미터들을 도출하기 위해 시그널링된 수의 파티션들을 사용할 수도 있다.
일부 예들에서, 인코더 (20) 는, 각각의 파티션에 대해, 입력 성분 값들 및 대응하는 매핑 출력 성분 값들의 범위를 특정하는 로컬 스케일 및 로컬 오프셋 값을 포함할 수도 있는 하나 이상의 SEI 메시지들을 시그널링할 수도 있다. 일부 예들에서, 인코더 (20) 는 스케일 및 오프셋들을 시그널링하기 위해 신택스 엘리먼트들에 의해 사용되는 비트들의 수를 포함하는 SEI 메시지를 시그널링할 수도 있다. 다른 예들에서, 인코더 (20) 는 신택스 엘리먼트들에서 스케일 및 오프셋들의 소수 부분을 표현하는데 사용되는 비트들의 수를 나타내는 SEI 메시지를 시그널링할 수도 있다. 다른 예들에서, 인코더 (20) 는 스케일 파라미터들의 정수 부분이 부호 있는 표현으로 시그널링됨을 나타내는 하나 이상의 SEI 메시지들 또는 신택스 엘리먼트들을 시그널링할 수도 있다. 일부 예들에서, 부호 있는 표현은 2의 보수이다. 다른 예들에서, 부호 있는 표현은 부호 있는 크기 표현이다. 비디오 디코더 (30) 는 이러한 SEI 메시지들 및/또는 신택스 엘리먼트들을 수신하며, 그 정보를 파싱 및/또는 디코딩하고, 그 정보를 비디오 포스트프로세서 (31) 에 전달할 수도 있다.
다른 예들에서, 인코더 (20) 는 각각의 오프셋 값을 연속적으로 사용하여, 조정된 성분 또는 표현 값들의 범위를 먼저 컴퓨팅한 다음, 스케일 값을 사용하여, 비조정된 표현에서의 대응하는 범위를 컴퓨팅할 수도 있다. 예를 들어, 하나의 오프셋 값은, 조정된 성분에 대해 도출되거나 또는 시그널링되는 글로벌 오프셋 값의 값을 사용하여, 뒤이어서 스케일 값 및 조정된 표현의 제 1 파티션의 범위를 사용하여 조정된 성분에서의 제 1 파티션의 범위를 컴퓨팅하여, 비조정된 표현의 대응하는 파티션에서의 범위를 도출하는데, 그리고 조정된 것의 제 1 파티션 및 비조정된 표현의 대응하는 파티션의 각각의 범위들로, 조정된 범위의 제 1 파티션 및 파티션들의 경계를 나타내는 비조정된 표현들의 대응하는 파티션에 대해 도출되는 각각의 값을 도출하는데 사용될 수도 있다. 이에 뒤이어, 다른 오프셋 값은, 이전의 단계에서 도출된 조정된 성분에서의 제 1 파티션의 경계 값을 사용하여, 뒤이어서 스케일 값 및 조정된 표현의 제 2 파티션의 범위를 사용하여, 조정된 성분에서의 제 2 파티션의 범위를 컴퓨팅하여, 비조정된 표현의 범위를 도출하는데, 그리고 조정된 표현의 제 2 파티션들 및 비조정된 표현들의 대응하는 파티션의 각각의 범위들로, 각각의 값은 각각의 표현들의 경계를 나타내는 조정된 및 비조정된 표현들에 대해 도출하는데 사용될 수도 있다. 이 방법은 모든 범위들 및 경계들이 조정된 및 비조정된 표현들의 모든 파티션들에 대해 도출되기까지 반복될 수도 있다. 다른 예에서, 인코더 (20) 는 각각의 오프셋 값을 연속적으로 사용하여 비조정된 성분 또는 표현 값들의 범위를 먼저 컴퓨팅한 다음, 스케일 값을 사용하여, 조정된 표현에서의 대응하는 범위를 컴퓨팅할 수도 있다. 다르게 말하면, 스케일 및 오프셋 값들이 적용되는 성분 또는 표현은 비조정된 표현과 조정된 표현 사이에서 스와핑될 수 있다.
일부 예들에서, 스케일 및 오프셋 값들을 시그널링하기 위해 신택스 엘리먼트들에 의해 사용되는 비트들의 수는 성분에 따라 달라질 수도 있다. 다른 예들에서, 이들 수들이 명시적으로 시그널링되지 않을 때 디폴트 비트 수가 정의되고 사용된다.
일부 예들에서, 인코더 (20) 는 출력 표현들 (즉, 출력 성분들) 의 파티션들의 길이들이 동일한지의 여부를 나타내는 신택스 엘리먼트를 시그널링할 수도 있다. 이러한 일 예에서, 인코더 (20) 는 하나 이상의 파티션들에 대한 오프셋 값을 시그널링하지 않을 수 있다. 디코더 (30) 는 일부 예들에서 오프셋 값들을 동일한 것으로 유추할 수도 있다. 다른 예에서, 디코더 (30) 는 파티션들이 동일한 길이로 된다고 가정할 수도 있고 그렇게 나타내는 신택스 엘리먼트를 수신하지 않을 수도 있다. 일부 예들에서, 디코더 (30) 는 시그널링된 신택스 엘리먼트들 및 표현의 미리 정의된 전체 동적 범위로부터 각각의 파티션의 사이즈를 도출할 수도 있다.
다른 예들에서, 각각의 파티션에 대한 피벗 포인트들 뿐만 아니라 각각의 파티션에 대한 스케일 및 오프셋 값들을 시그널링하는 것이 아니라, 비디오 인코더 (20) 는 하나 이상의 또는 모든 파티션들의 사이즈와 함께 각각의 파티션에 대한 스케일 값 또는 파생물 (derivative) 을 나타내는 하나 이상의 SEI 메시지들을 시그널링할 수도 있다. 이 접근법은 인코더 (20) 가 각각의 파티션에 대해 로컬 오프셋 값들을 시그널링하는 것을 피하는 것을 허용할 수도 있다. 대신, 일부 예들에서, 인코더 (20) 는, 하나 이상의 SEI 메시지들에서, 하나 이상의 파티션들에 대한 파티션 사이즈 및 스케일 값 (또는 파생물) 을 시그널링할 수도 있다. 각각의 파티션 또는 파티셔닝에 대한 로컬 오프셋 값 (이는 더 높은 정확도를 요구할 수도 있음) 은 디코더 (30) 에 의해 결정 또는 도출될 수도 있다.
일부 예들에서, 인코더 (20) 는 특정한 파티션들에 대한 오프셋 및 스케일 값들을 위한 여러 디폴트 값들을 특정하는 모드 값을 나타내는 하나 이상의 SEI 메시지들을 시그널링할 수도 있다. 비디오 디코더 (30) 는 이러한 SEI 메시지들을 수신하며, 그 정보를 파싱 및/또는 디코딩하고, 그 정보를 비디오 포스트프로세서 (31) 에 전달할 수도 있다.
일부 예들에서, 인코더 (20) 는 성분들의 서브세트의 퍼시스턴스 (persistence) 가 정의될 수도 있고 성분들의 서브세트의 성분 스케일 값들이 업데이트될 수도 있도록 SEI 메시지의 퍼시스턴스를 정의하는 값을 나타내는 하나 이상의 SEI 메시지들을 시그널링할 수도 있다. SEI 메시지의 퍼시스턴스는 SEI의 인스턴스에서 시그널링되는 값들이 적용될 수도 있는 픽처들을 나타낸다. 일부 예들에서, SEI 메시지의 퍼시스턴스는 SEI 메시지들의 하나의 인스턴스에서 시그널링되는 값들이 SEI 메시지가 적용되는 픽처들의 모든 성분들에 대응하게 적용될 수도 있도록 정의된다. 다른 예들에서, SEI 메시지의 퍼시스턴스는 SEI의 하나의 인스턴스에서 시그널링되는 값들이 성분들의 서브세트에 대응하게 적용됨이 나타내어질 수도 있도록 정의되며, SEI의 인스턴스에서의 값들이 적용되지 않는 성분들은 값들을 이용 불가능하게 할 수도 있거나 또는 SEI 메시지의 다른 인스턴스에서 시그널링되는 값들을 이용 가능하게 할 수도 있다. 비디오 디코더 (30) 는 이러한 SEI 메시지들을 수신하며, 그 정보를 파싱 및/또는 디코딩하고, 그 정보를 비디오 포스트프로세서 (31) 에 전달할 수도 있다.
일부 예들에서, 인코더 (20) 는 디코딩된 출력에 대해 수행될 포스트프로세싱 단계들을 나타내는 신택스 엘리먼트들을 포함하는 하나 이상의 SEI 메시지들을 시그널링할 수도 있다. 각각의 신택스 엘리먼트는 특정 프로세스 (예컨대, 스케일링 성분들, 컬러 변환들, 업-샘플링/다운-샘플링 필터들 등) 와 연관될 수도 있고 신택스 엘리먼트의 각각의 값은 그 프로세스에 연관된 파라미터들의 특정 세트가 사용되는 것을 특정할 수도 있다. 일부 예들에서, 그 프로세스에 연관된 파라미터들은 비디오 인코더 (20) 에 의해 비트스트림의 일부인 SEI 메시지들을 사용하여, 또는 다른 수단을 통해 송신될 수도 있는 메타데이터로서 시그널링된다. 비디오 디코더 (30) 는 이러한 SEI 메시지들을 수신하며, 그 정보를 파싱 및/또는 디코딩하고, 그 정보를 비디오 포스트프로세서 (31) 에 전달할 수도 있다.
일부 예들에서, 인코더 (20) 는 입력 표현들 (즉, 입력 성분 값들) 을 출력 표현들 (즉, 출력 성분 값들) 에 매핑하기 위한 조각적 (piece-wise) 선형 모델 함수를 설명 및/또는 구축하기 위해 사용될 수도 있는 신택스 엘리먼트들 또는 하나 이상의 SEI 메시지들을 시그널링할 수도 있다. 비디오 디코더 (30) 는 이러한 SEI 메시지들을 수신하며, 그 정보를 파싱 및/또는 디코딩하고, 그 정보를 비디오 포스트프로세서 (31) 에 전달할 수도 있다. 다른 예들에서, 미리 정의된 가정들이 입력 표현들을 출력 표현에 매핑하기 위한 조각적 선형 모델 함수를 설명 및/또는 구축하기 위해 사용될 수도 있다.
일부 예들에서, 인코더 (20) 는 SEI 메시지에서 시그널링되는 스케일 및 오프셋 파라미터들이 제 2 성분의 상이한 값들의 함수로서 제 1 성분에 적용될 스케일의 변동을 표현함을 나타내는 하나 이상의 신택스 엘리먼트들을 포함할 수도 있는 하나 이상의 SEI 메시지들을 시그널링할 수도 있다.
일부 예들에서, 인코더 (20) 는 제 2 성분의 상이한 값들의 함수로서 제 1 성분에 대한 스케일과 함께 적용되거나 또는 적용될 수도 있는 오프셋 파라미터들을 나타내는 하나 이상의 SEI 메시지들을 시그널링할 수도 있다. 일부 예들에서, 인코더 (20) 는 제 2 성분의 상이한 값들의 함수로서 제 1 성분에 대한 스케일과 함께 적용되거나 또는 적용될 수도 있는 오프셋 파라미터들을 나타내는 하나 이상의 추가적인 신택스 엘리먼트들을 포함할 수도 있는 하나 이상의 SEI 메시지들을 시그널링할 수도 있다. 비디오 디코더 (30) 는 이러한 SEI 메시지들을 수신하며, 그 정보를 파싱 및/또는 디코딩하고, 그 정보를 비디오 포스트프로세서 (31) 에 전달할 수도 있다.
일부 예들에서, 인코더 (20) 는 디코더 측에서 사용되는 전기 광학 전달 함수 특성들이 전기 광학 전달 함수 특성들의 제 1 세트와 유사할 때 SEI 메시지에서의 시그널링되는 스케일, 오프셋 및 다른 동적 범위 조정 파라미터들이 적용되도록 하는 전기 광학 전달 함수 특성들의 제 1 세트를 나타내는 제 1 신택스 엘리먼트를 포함하는 하나 이상의 SEI 메시지들을 시그널링할 수도 있다.
다른 예에서, 인코더 (20) 는 전기 광학 전달 함수 특성들의 제 1 세트, 또는 유사한 특성들을 갖는 것들이 디코더 (30) 에 의해 사용될 때 SEI 메시지(들) 에서의 시그널링되는 오프셋, 스케일 및 다른 동적 범위 파라미터들이 HDR 출력의 최상의 복원을 위해 적용됨을 나타내는 하나 이상의 SEI 메시지들을 시그널링할 수도 있다. 비디오 디코더 (30) 는 이러한 SEI 메시지들을 수신하며, 그 정보를 파싱 및/또는 디코딩하고, 그 정보를 비디오 포스트프로세서 (31) 에 전달할 수도 있다.
다른 예에서, 인코더 (20) 는 광-전자 전달 함수 특성들의 제 1 세트와, 시그널링되는 스케일, 오프셋 및 다른 동적 범위 조정 파라미터들이, 대응하는 역 전기 광학 전달 함수 특성들이 디코더 측에서 적용될 때, 디코더 (30) 에 의해 적용됨을 나타내는 하나 이상의 SEI 메시지들을 시그널링할 수도 있다. 비디오 디코더 (30) 는 이러한 SEI 메시지들을 수신하며, 그 정보를 파싱 및/또는 디코딩하고, 그 정보를 비디오 포스트프로세서 (31) 에 전달할 수도 있다.
다른 예들에서, 인코더 (20) 는 전기-광학/광-전자 특성들의 상이한 세트를 나타내고 현재 픽처에 적용 가능한 하나를 초과하는 SEI 메시지가 존재할 때, 단지 하나의 SEI 메시지가 적용되도록 하는 조건을 시그널링할 수도 있다. 인코더는 상이한 유형들의 디코더들, 또는 상이한 능력들을 갖는 디코더들을 충족시키기 위해 전기-광학/광전자 특성들의 상이한 세트를 시그널링할 수도 있다. 예를 들어, 디코더 측의 일부 디스플레이들은 적절한 도메인의 코딩된 성분 값들을 선형 광으로 변환하기 위해 PT EOTF를 적용할 수도 있는 반면, 다른 디스플레이들, 예컨대, 레거시 디스플레이들은 선형 광으로 변환하기 위해 감마 EOTF를 적용할 수도 있다. 인코더가 전송하는 특정 특성을 갖는 각각의 SEI는 디스플레이들의 특정한 유형들에 적합하거나 또는 유익할 수도 있고 디스플레이들의 다른 유형들에는 적합 또는 유익하지 않을 수도 있으며, 예컨대, PQ EOTF 특성들을 갖는 SEI 메시지는 코딩된 비디오를 선형 광으로 변환하기 위해 PQ EOTF를 적용하는 디스플레이들에 적합할 수도 있다. 디코더 (30) 는 SEI 메시지가 적용되어야 하는지를 결정하고, 애플리케이션 표준에 기초하여, 최종 사용자 디바이스에 기초하여, 수신된 신호에 기초하여, 또는 외부 수단을 통해 수신된 다른 표시에 기초하여 그런 선택을 한다. 예를 들어, 디코더 (30) 는, 현재 픽처에 적용되는 제 1 SEI 메시지의 제 1 신택스 엘리먼트는 그 SEI 메시지가 PQ OETF의 역으로 적용될 것임을 나타내고, 현재 픽처에 적용되는 제 2 SEI 메시지의 제 1 신택스 엘리먼트는 그 SEI 메시지가 다른 전달 함수 (이를테면 BBC, 또는 PH) 로 적용될 것임을 나타낸다고 결정할 수도 있고, 디코더 (30) 또는 최종 사용자 디바이스는 그 디바이스가 PQ EOTF를 사용하기 때문에 제 1 SEI 메시지의 파라미터들을 적용할 것을 선택할 수도 있다. 일부 예들에서, 디코더가 준수하는 애플리케이션 표준이 특성들의 특정 세트를 갖는 SEI 메시지가 사용될 것임을 특정할 수도 있다.
다른 예들에서, 인코더 (20) 는 전송 특성들의 다수의 세트들에 대응하는 파라미터들을 운반하는 SEI 메시지를 시그널링할 수도 있다. 다른 예들에서, 인코더 (20) 는 그 목적을 위해 상이한 SEI 메시지들을 시그널링할 수도 있다. 비디오 디코더 (30) 는 이러한 SEI 메시지들을 수신하며, 그 정보를 파싱 및/또는 디코딩하고, 그 정보를 비디오 포스트프로세서 (31) 에 전달할 수도 있다.
일부 예들에서, 인코더 (20) 는 SEI 메시지의 적용가능성을 나타내는 신택스 엘리먼트를 포함하는 하나 이상의 SEI 메시지들을 시그널링할 수도 있다. SEI 메시지의 적용가능성은 (1) 스케일들 및 오프셋들이 적용되는 성분들, (2) 성분 스케일링이 적용되는 포지션, 및/또는 (3) 추가적인 스케일링 파라미터들이 시그널링되는지의 여부를 비제한적으로 포함할 수도 있다.
설명되는 바와 같이, 인코더 (20) 는 스케일들 및 오프셋들이 적용되는 성분들을 나타내는 신택스 엘리먼트를 포함하는 하나 이상의 SEI 메시지들을 시그널링할 수도 있다. 다음에서는 이러한 애플리케이션의 여러 예들을 열거한다. 예를 들어, 신택스 엘리먼트의 하나의 값은 제 1 성분 인덱스에 대한 시그널링된 파라미터들이 RGB 성분들에 적용될 것임을 나타낼 수 있다. 다른 값은 제 1 성분 인덱스에 대한 시그널링된 파라미터들이 루마 성분에 적용될 것임과, 제 2 및 제 3 인덱스들에 대한 것들이 Cb 및 Cr 성분들에 적용될 것임을 나타낼 수도 있다. 다른 값은 제 1 성분 인덱스에 대한 시그널링된 파라미터들이 R, G 및 B 성분들에 적용될 것임과, 제 2 및 제 3 인덱스들에 대한 것들이 Cb 및 Cr 성분들에 적용될 것임을 나타낼 수도 있다. 다른 값은 처음 세 개의 인덱스들에 대한 시그널링된 파라미터들이 루마, Cb 및 Cr 성분들에 적용될 것임과, 나머지 인덱스들에 대응하는 것들이 컬러 정정을 위해 적용될 것임을 나타낼 수도 있다. 비디오 디코더 (30) 는 이러한 SEI 메시지들을 수신하며, 그 정보를 파싱 및/또는 디코딩하고, 그 정보를 비디오 포스트프로세서 (31) 에 전달할 수도 있다.
또한 설명된 바와 같이, 인코더 (20) 는 성분 스케일링이 적용되는 포지션을 나타내는 신택스 엘리먼트를 포함하는 하나 이상의 SEI 메시지들을 시그널링할 수도 있다. 여러 프로세스들이 디코더 측에서, 비디오의 디코딩 후, 그리고 비디오 포스트프로세서 (31) 에서 일어난다. SEI에 연관된 프로세스가 적용될 포지션을 나타내는 신택스 엘리먼트의 시그널링, 다르게 말하면 SEI에서의 정보를 사용하는 것과 연관된 프로세스의 선행 또는 후속 동작들의 임의의 서브세트의 표시는 비디오 디코더 (30) 또는 비디오 포스트프로세서 (31) 가 비디오를 프로세싱하는 것에 도움일 될 것이다. 예를 들어, 그런 신택스 엘리먼트는 성분 스케일링이, 예를 들어 업샘플링 전 또는 후의 YCbCr 성분들에 적용되는 포지션을 나타낼 수 있다. 다른 예에서, 신택스 엘리먼트는 성분 스케일링이 양자화 전에 디코더 측에 적용됨을 나타낼 수 있다. 비디오 디코더 (30) 는 이러한 SEI 메시지들을 수신하며, 그 정보를 파싱 및/또는 디코딩하고, 그 정보를 비디오 포스트프로세서 (31) 에 전달할 수도 있다.
또한 설명되는 바와 같이, 인코더 (20) 는, 예컨대 컬러 정정을 위한, 스케일링 및 파라미터들의 추가적인 세트가 시그널링되는지의 여부를 나타내는 신택스 엘리먼트를 포함하는 하나 이상의 SEI 메시지들을 시그널링할 수도 있다. 파라미터들의 추가적인 세트는 특정 색 영역에 맞도록 컬러 성분들을 매핑하는 컬러 정정을 위해, 또는 VUI에서의 transfer_characteristics 신택스 엘리먼트에 의해 나타내어지는 것과는 상이한 전달 함수가 적용될 때의 성분 값들의 정정을 위해 사용될 수 있다.
다른 예들에서, 인코더 (20) 는 위의 양태들을 나타내는 상이한 신택스 엘리먼트들; 예컨대, 어떤 성분(들) 에 SEI가 적용되는 나타내는 하나의 신택스 엘리먼트, HDR-호환가능한 SDR-호환가능 콘텐츠에 적용되는지의 여부를 나타내는 하나의 신택스 엘리먼트, 및 성분 스케일링 SEI 메시지가 적용될 포지션(들) 을 나타내는 하나의 신택스 엘리먼트를 시그널링할 수도 있다.
성분 스케일링 SEI 메시지 파라미터들이 적용되는 성분들의 수가 1을 초과할 때, 인코더 (20) 는 스케일 및 오프셋 파라미터들의 적용이 성분의 인덱스에 기초하여 순차적으로 행해질 수도 있음을 나타내는 신택스 엘리먼트를 포함하는 하나 이상의 SEI 메시지들을 시그널링할 수도 있다. 예를 들어, 제 1 성분의 스케일 및 오프셋 파라미터들에 기초한 매핑은 적용될 수도 있고, 그 다음에 예를 들어 제 2 성분에 대해 시그널링되는 스케일 및 오프셋을 사용하는 제 2 성분의 매핑이 제 1 성분의 값들에 따라 달라질 수도 있다. 일부 예들에서, 이는, 예를 들어, 제 1 성분의 매핑된 값들이 사용되어야 함을 특정하는 신택스 엘리먼트에 의해 나타내어진다. 비디오 디코더 (30) 는 이러한 SEI 메시지들을 수신하며, 그 정보를 파싱 및/또는 디코딩하고, 그 정보를 비디오 포스트프로세서 (31) 에 전달할 수도 있다.
다른 예에서, 비디오 인코더 (20) 는 심지어 SEI 포스트프로세싱이 적용되지 않더라도 HDR10 수신기가 시청가능 HDR 비디오를 디코딩하고 보여줄 수 있는 그런 방식으로, 하나 이상의 SEI 메시지들에서, 또는 비트스트림에서 시그널링되는 값들을 제한할 수도 있다. SEI 메시지(들) 은 이것이 그 경우 (예컨대, 비트스트림이 HDR10 하위 호환가능 비트스트림임) 을 나타내는 신택스 엘리먼트를 포함할 수도 있다.
이 섹션은 본 개시물의 하나 이상의 양태들에 따라서 개시되는 기법들을 사용하는 여러 예들을 포함한다.
예 1
이 예 1에서, 성분 스케일링 함수는 룩업 테이블로서 시그널링되고 룩업 테이블을 정의하는 포인트들을 시그널링하는데 사용되는 비트들의 수가 또한 시그널링된다. 시그널링되는 명시적인 포인트들을 가지지 않는 샘플 값들의 경우, 그 값은 이웃하는 피벗 포인트들에 기초하여 보간된다.
성분 스케일링 SEI 메시지의 신택스
성분 스케일링 SEI 메시지의 시맨틱스
성분 스케일링 SEI 메시지는 디코딩된 픽처들의 다양한 성분들에 대해 스케일링 동작들을 수행하기 위한 정보를 제공한다. 스케일링 동작들이 수행되어야 하는 색 공간 및 성분들은 SEI 메시지에서 시그널링되는 신택스 엘리먼트들의 값에 의해 결정된다.
comp_scale_id는 성분 스케일링 SEI 메시지의 목적을 식별하는데 사용될 수도 있는 식별 번호를 포함한다. comp_scale_id의 값은 0 내지 232 - 2의 범위에 있을 것이다. comp_scale_id의 값은 성분 스케일링 SEI 메시지가 있는 색 공간, 또는 성분 스케일링 SEI 메시지가 선형 또는 비선형 도메인에서 적용되는지의 여부를 특정하는데 사용될 수도 있다.
0 내지 255의 그리고 512 내지 231 - 1의 comp_scale_id의 값들은 애플리케이션에 의해 결정된 대로 사용될 수도 있다. 256 내지 511의 그리고 231 내지 232 - 2의 comp_scale_id의 값들은 ITU-T | ISO/IEC에 의한 장래의 사용을 위해 유보된다. 디코더들은 256 내지 511의 범위에서의, 또는 231 내지 232 - 2의 범위에서의 comp_scale_id의 값을 포함하는 모든 성분 스케일 정보 SEI 메시지들을 무시할 것이고, 비트스트림들은 이러한 값들을 포함하지 않을 것이다.
주 1 - comp_scale_id는 상이한 디스플레이 시나리오들에 적합한 성분 스케일링 프로세스들을 지원하기 위해 사용될 수 있다. 예를 들어, comp_scale_id의 상이한 값들은 스케일링이 적용되는 상이한 디스플레이 비트 깊이들 또는 상이한 색 공간들에 대응할 수도 있다.
대안적으로, comp_scale_id는 특정한 유형들의 디스플레이들 또는 디코더, 예컨대, HDR, SDR에 대한 호환성을 위해 스케일링이 수행되는지의 여부를 식별하는데 또한 사용될 수도 있다.
1과 동일한 comp_scale_cancel_flag는 성분 스케일링 정보 SEI 메시지가 현재 계층에 적용되는 출력 순서에서 임의의 이전의 성분 정보 SEI 메시지들의 퍼시스턴스를 취소함을 나타낸다. 0과 동일한 comp_scale_cancel_flag는 성분 스케일링 정보가 뒤따름을 나타낸다.
comp_scale_persistence_flag는 현재 계층에 대한 성분 스케일링 정보 SEI 메시지의 퍼시스턴스를 특정한다.
0과 동일한 comp_scale_persistence_flag는 성분 스케일링 정보가 현재 디코딩되는 픽처에만 적용됨을 특정한다.
picA를 현재 픽처이라고 하자. 1과 동일한 comp_scale_persistence_flag는 다음의 조건들 중 임의의 조건이 참이 되기까지 성분 스케일링 정보가 출력 순서에서의 현재 계층에 대해 지속함을 특정한다:
- 현재 계층의 새로운 CLVS가 시작한다.
- 비트스트림이 종료한다.
- PicOrderCnt(picB) 가 PicOrderCnt(picA) 보다 큰 경우, 동일한 값의 comp_scale_id를 갖고 현재 계층에 적용 가능한 성분 스케일링 정보 SEI 메시지를 포함하는 액세스 유닛의 현재 계층에서의 픽처 picB가 출력되며, 여기서 PicOrderCnt(picB) 와 PicOrderCnt(picA) 는 picB에 대한 픽처 순서 카운트를 위한 디코딩 프로세스의 호출 직후 각각 picB 및 picA의 PicOrderCntVal 값들이다.
comp_scale_ num _comps_ minus1 더하기 1은 성분 스케일링 함수가 특정되는 성분들의 수를 특정한다. comp_scale_num_comps_minus1은 0 내지 2의 범위에 있을 것이다.
comp_scale_num_comps_minus1이 2 미만이고 c-번째 성분의 성분 스케일링 파라미터들이 시그널링되지 않을 때, (c - 1)-번째 성분의 그것들과 동일한 것으로 유추된다.
대안적으로, comp_scale_num_comps_minus1이 2 미만이고, c-번째 성분의 성분 스케일링 파라미터들이 시그널링되지 않을 때, c-번째 성분의 성분 스케일링 파라미터들은 사실상 그 성분의 스케일링이 없도록 디폴트 값들과 동일한 것으로 유추된다.
대안적으로, 성분 스케일링 파라미터들의 추론은 SEI 메시지가 적용되는 색 공간에 기초하여 특정될 수도 있다.
- 색 공간이 YCbCr이고, comp_scale_num_comps_minus1이 1과 동일할 때, 성분 스케일링 파라미터들은 Cb 및 Cr 성분들 둘 다에 적용된다.
- 색 공간이 YCbCr이고, comp_scale_num_comps_minus1이 2와 동일할 때, 제 1 및 제 2 성분 스케일링 파라미터들은 Cb 및 Cr 성분들에 적용된다.
하나의 대체예에서, 상이한 추론은 comp_scale_id의 값에 기초하여 또는 명시적 신택스 엘리먼트를 기초로 특정된다.
대안적으로, 제약조건이 다음과 같이 추가된다:
comp_scale_num_comps_minus1의 값이 comp_scale_id의 주어진 값이 CLVS 내에 있는 모든 성분 스케일링 SEI 메시지에 대해 동일해야 한다는 것이 비트스트림 적합성에 대한 제약조건이다.
comp_scale_input_bit_depth_ minus8 더하기 8은 신택스 엘리먼트 comp_scale_input_point[c][i]를 시그널링하는데 사용되는 비트들의 수를 특정한다. comp_scale_input_bit_depth_minus8의 값은 0 내지 8의 범위에 있을 것이다.
성분 스케일링 SEI 메시지가 범위 0.0 내지 1.0의 정규화된 부동소수점 표현에 있는 입력에 적용될 때, SEI 메시지는 입력 비디오를 colour_remap_input_bit_depth_minus8 + 8과 동일한 비트 깊이를 갖는 변환된 비디오 표현으로 변환하기 위해 수행되는 양자화 동작의 가상적인 결과와 관련된다.
성분 스케일링 SEI 메시지가 comp_scale_input_bit_depth_minus8 + 8과 동일하지 않은 비트 깊이를 갖는 입력에 적용될 때, SEI 메시지는 입력 비디오 표현을 colour_remap_input_bit_depth_minus8 + 8과 동일한 비트 깊이를 갖는 변환된 비디오 표현으로 변환하기 위해 수행되는 트랜스코딩 동작의 가상적인 결과와 관련된다.
comp_scale_output_bit_depth_ minus8 더하기 8은 신택스 엘리먼트 comp_scale_output_point[c][i]를 시그널링하기 위해 사용되는 비트들의 수를 특정한다. comp_scale_output_bit_depth_minus8의 값은 0 내지 8의 범위에 있을 것이다.
성분 스케일링 SEI 메시지가 부동소수점 표현의 입력에 적용될 때, SEI 메시지는 성분 스케일링 SEI 메시지의 프로세싱 후에 획득되는 colour_remap_output_bit_depth_minus8 + 8과 동일한 비트 깊이를 갖는 비디오 표현을 범위 0.0 내지 1.0의 부동소수점 표현으로 변환하기 위해 수행되는 역 양자화 동작의 가상적인 결과와 관련된다.
대안적으로, comp_scale_input_point[c][i] 및 comp_scale_output_point[c][i]를 시그널링하는데 사용되는 비트들의 수들은 각각 comp_scale_input_bit_depth 및 comp_scale_output_bit_depth로서, 또는 다르게 말하면 8을 감산하는 일 없이 시그널링된다.
comp_scale_ num _points_ minus1[c] 더하기 1은 성분 스케일링 함수를 정의하는데 사용되는 피벗 포인트들의 수를 특정한다. comp_scale_num_points_minus1[c]은 0 내지 (1 << Min(comp_scale_input_bit_depth_minus8 + 8, comp_scale_output_bit_depth_minus8 + 8)) - 1의 범위에 있을 것이다.
comp_scale_input_point[c][i]은 입력 픽처의 c-번째 성분의 i-번째 피벗 포인트를 특정한다. comp_scale_input_point[c][i]의 값은 0 내지 (1 << comp_scale_input_bit_depth_minus8[c] + 8) - 1의 범위에 있을 것이다. comp_scale_input_point[c][i]의 값은 1 내지 comp_scale_points_minus1[c]의 범위의 i에 대해, comp_scale_input_point[c][i - 1]의 값 이상에 있을 것이다.
comp_scale_output_point[c][i]는 출력 픽처의 c-번째 성분의 i-번째 피벗 포인트를 특정한다. comp_scale_output_point[c][i]의 값은 1 내지 (1 << comp_scale_output_bit_depth_minus8[c] + 8) - 1의 범위에 있을 것이다. 1 내지 comp_scale_points_minus1[c]의 범위에서의 i에 대해, comp_scale_output_point[c][i]의 값은 comp_scale_output_point[c][i - 1]의 값 이상일 것이다.
입력 신호 표현 x와 출력 신호 표현 y를 매핑하는 프로세스는, 입력 및 출력 둘 다에 대한 샘플 값들이 각각 0 내지 (1 << comp_scale_input_bit_depth_minus8[c] + 8) - 1의 범위와, 0 내지 (1 << comp_scale_output_bit_depth_minus8[c] + 8) - 1의 범위에 있을 때, 다음과 같이 특정된다:
하나의 대체예에서, 입력 및 출력 피벗 포인트들 comp_scale_input_point[c][i] 및 comp_scale_output_point[c][i]는 인접한 값들의 차이, 예컨대, delta_comp_scale_input_point[][] 및 delta_comp_scale_output_point[][]로서 코딩되고, 신택스 엘리먼트들은 지수 골롬 코드를 사용하여 코딩된다.
다른 대체예에서, 입력 및 출력 표현 값을 매핑하는 프로세스는 스프라인들 및 큐빅 보간을 비제한적으로 포함하는 다른 보간 방법들에 의해 특정된다.
예 2
이 예 2는 예 1에서 설명된 SEI 신택스 구조와 비교되는 상이한 신택스 구조를 보여준다. 이 신택스 구조에서, 매핑 함수는 피벗 포인트들 대신 스케일들 및 오프셋들의 측면에서 설명된다.
성분 스케일링 SEI 메시지의 신택스
comp_scale_bit_depth_scale_val은 신택스 엘리먼트 comp_scale_val[c][i]를 시그널링하는데 사용되는 비트들의 수를 특정한다. comp_scale_bit_depth_scale_val의 값은 0 내지 24의 범위에 있을 것이다.
comp_scale_ log2 _ denom _scale_val은 스케일 값의 베이스 2 분모를 특정한다. comp_scale_log2_denom_scale_val의 값은 0 내지 16의 범위에 있을 것이다.
comp_scale_global_offset_input_val[c] 더하기 1은 모든 입력 표현 값들이 CompScaleOffsetOutputVal[c][0]으로 클리핑되게 하는 입력 샘플 값을 특정한다. 성분 스케일링 함수를 정의하는데 사용됨. comp_scale_num_points_minus1[c]는 0 내지 (1 << comp_scale_input_bit_depth) - 1의 범위에 있을 것이다. comp_scale_global_offset_input_val[c]를 표현하는데 사용되는 비트들의 수는 comp_scale_input_bit_depth이다.
comp_scale_global_offset_output_val[c] 더하기 1은 comp_scale_global_offset_input_val[c] 미만의 모든 입력 표현 값들이 클리핑될 출력 샘플 값을 특정한다. comp_scale_num_points_minus1[c]는 0 내지 (1 << comp_scale_output_bit_depth) - 1의 범위에 있을 것이다. comp_scale_global_offset_output_val[c]를 표현하는데 사용되는 비트들의 수는 comp_scale_output_bit_depth이다.
comp_scale_ num _points_ minus1[c] 더하기 1은 성분 스케일링 함수를 정의하는데 사용되는 피벗 포인트들의 수를 특정한다. comp_scale_num_points_minus1[c]는 0 내지 (1 << Min(comp_scale_input_bit_depth, comp_scale_output_bit_depth) - 1의 범위에 있을 것이다.
입력 신호 표현 x와 출력 신호 표현 y를 매핑하는 프로세스는, 양 입력 표현에 대한 샘플 값들이 0 내지 (1 << comp_scale_input_bit_depth) - 1의 범위에, 그리고 출력 표현이 0 내지 (1 << comp_scale_output_bit_depth) - 1의 범위에 있을 때, 다음과 같이 특정된다:
comp_scale_offset_val[c][i]는 c-번째 성분의 i-번째 샘플 값 지역의 오프셋 값을 특정한다. comp_scale_offset_val[c]를 표현하는데 사용되는 비트들의 수는 comp_scale_input_bit_depth와 동일하다.
comp_scale_val[c][i]는 c-번째 성분의 i-번째 샘플 값 지역 포인트의 스케일 값을 특정한다. comp_scale_val[c]를 표현하는데 사용되는 비트들의 수는 comp_scale_bit_depth_scale_val과 동일하다.
0 내지 comp_scale_num_points_minus1[c]의 범위에서의 i에 대한 변수 CompScaleOffsetOutputVal[c][i] 및 CompScaleOffsetInputVal[c][i]는 다음과 같이 유도된다:
하나의 대체예에서, comp_scale_offset_val[c][i]는 0 내지 comp_scale_num_points_minus1[c]의 범위에서의 i에 대해 CompScaleOffsetOutputVal[][i]를 직접적으로 계산하고 CompScaleOffsetInputVal[][i]를 간접적으로 계산하는데 다음과 같이 사용된다:
하나의 대체예에서, 0 내지 comp_scale_num_points_minus1[c]의 범위에서의 i에 대한 comp_scale_offset_val[c][i]는 시그널링되지 않고, comp_scale_offset_val[c][i]의 값들은 스케일이 특정되는 comp_scale_num_points_minus1[c] 동일하게 이격된 간격들에 기초하여 도출된다. 0 내지 comp_scale_num_points_minus1[c] - 1의 범위에서의 i에 대한 comp_scale_offset_val[c][i]의 값은 다음과 같이 도출된다:
comp_scale_offset_val[c][i] = ((1 << comp_scale_output_bit_depth)
- comp_scale_global_offset_output_val[c])
÷ comp_scale_num_points_minus1[c]
다른 대체예에서, 0 내지 comp_scale_num_points_minus1[c]의 범위에서의 i에 대한 comp_scale_offset_val[c][i]는 다음과 같이 계산된다:
comp_scale_offset_val[c][i] = (1 << comp_scale_output_bit_depth )÷ comp_scale_num_points_minus1[c] ÷
하나의 대체예에서, comp_scale_num_points_minus1[c]를 시그널링하는 대신, 피벗 포인트들의 수는 log2_comp_scale_num_points[c]를 사용하여 시그널링되는데, 여기서 (1 << log2_comp_scale_num_points[c]) 는 c-번째 성분에 대한 피벗 포인트들의 수를 특정한다.
대안적으로, comp_scale_offset_val[c][] 및 comp_scale_val[c][]의 각각은 부동소수점 수들로서, 또는 지수 및 가수를 갖는 두 개의 신택스 엘리먼트들로서 시그널링된다.
다른 대체예에서, comp_scale_val[c][i]의 시그널링은 comp_scale_output_point[c][i]에 의해 대체된다.
신택스 엘리먼트들의 나머지의 시맨틱스는 예 1에서 설명된 것들과 유사하다.
예 3
예 3에서 설명되는 이 방법은, 성분 스케일링 함수들이 독립적으로 업데이트되는 것이 허용된다는 것을 제외하면, 예 2에서 설명되는 대체예들 중 하나의 대체예와 유사하다.
성분 스케일링 SEI 메시지의 신택스
성분 스케일링 SEI 메시지의 시맨틱스
시맨틱스는, 다음의 신택스 엘리먼트들을 제외하면, 예 2와 유사하다.
comp_scale_ num _scale_regions[c]는 신택스 엘리먼트 comp_scale_val[c][i]가 c-번째 성분에 대해 시그널링되는 지역들의 수를 특정한다. comp_scale_num_scale_regions[c]는 0 내지 (1 << comp_scale_input_bit_depth) - 1의 범위에 있을 것이다.
0과 동일한 comp_scale_persist_component_flag[c]는 c-번째 성분에 대한 성분 스케일링 파라미터들이 SEI 메시지에서 명시적으로 시그널링됨을 특정한다. 1과 동일한 comp_scale_persist_component_flag[c]는 c-번째 성분에 대한 성분 스케일링 파라미터들이 SEI 메시지에서 명시적으로 시그널링되지 않음을 특정하고, 그것은 출력 순서에서, 이전의 픽처에 적용되는 성분 스케일링 SEI 메시지의 c-번째 성분의 성분 스케일링 파라미터들에서부터 지속된다.
성분 스케일링 SEI 메시지가 IRAP 액세스 유닛에 존재할 때, comp_scale_persist_component_flag[c]의 값은, 존재하는 경우, 0과 동일할 것이라는 것이 비트스트림 적합성의 요건이다.
다르게는, 다음의 조건이 추가된다:
성분 스케일링 SEI 메시지가 IRAP 액세스 유닛이 아닌 액세스 유닛에 존재하고 comp_scale_persist_component_flag[c]가 1과 동일할 때, 출력 순서에서 현재 픽처에 선행하고, 출력 순서에서, 디코딩 순서에서의 이전의 IRAP 픽처에 후행하는 적어도 하나의 픽처가 있어서, 1과 동일한 comp_scale_persistence_flag를 갖는 성분 스케일링 SEI 메시지에 하나의 픽처가 연관된다는 것이 비트스트림 적합성의 요건이다.
comp_scale_persistence_flag는 현재 계층에 대한 성분 스케일링 정보 SEI 메시지의 퍼시스턴스를 특정한다.
0과 동일한 comp_scale_persistence_flag는 성분 스케일링 정보가 현재 디코딩되는 픽처에만 적용됨을 특정한다.
picA가 현재 픽처라고 하자. 1과 동일한 comp_scale_persistence_flag는 다음의 조건들 중 임의의 조건이 참이 되기까지 c-번째 성분의 성분 스케일링 정보가 출력 순서에서의 현재 계층에 대해 지속함을 특정한다:
- 현재 계층의 새로운 CLVS가 시작한다.
- 비트스트림이 종료한다.
- PicOrderCnt(picB) 가 PicOrderCnt(picA) 보다 큰 경우, 동일한 값의 comp_scale_id 및 0과 동일한 comp_scale_persist_component_flag[c]를 갖고 현재 계층에 적용 가능한 성분 스케일링 정보 SEI 메시지를 포함하는 액세스 유닛의 현재 계층에서의 픽처 picB가 출력되며, 여기서 PicOrderCnt(picB) 와 PicOrderCnt(picA) 는 picB에 대한 픽처 순서 카운트를 위한 디코딩 프로세스의 호출 직후 각각 picB 및 picA의 PicOrderCntVal 값들이다.
예 4
이 예 4에서, 스케일 지역들을 시그널링하는 상이한 방법이 개시된다.
성분 스케일링 SEI 메시지 신택스에 대한 변경들
성분 스케일링 SEI 메시지 시맨틱스에 대한 변경들
신택스 엘리먼트들의 시맨틱스는, 다음을 제외하면, 이전의 예들에서의 것들과 유사하다:
comp_scale_offset_begin_val[c][i]는 스케일 값 comp_scale_val[c][i]가 적용 가능한 샘플 값 범위의 시작부분을 특정한다. comp_scale_offset_begin_val[c]를 표현하는데 사용되는 비트들의 수는 comp_scale_input_bit_depth와 동일하다.
comp_scale_offset_end_val[c][i]는 스케일 값 comp_scale_val[c][i]가 적용 가능한 샘플 값 범위의 말단을 특정한다. comp_scale_offset_end_val[c]를 표현하는데 사용되는 비트들의 수는 comp_scale_input_bit_depth와 동일하다.
comp_scale_offset_begin_val 및 comp_scale_offset_end_val에 의해 명시적으로 특정되지 않는 지역들의 경우, 그들 지역들에 대한 comp_scale_value[c][i]는 0과 동일한 것으로 유추된다.
대안적으로, comp_scale_offset_end_val[c][i]는 시그널링되지 않고 대신 comp_scale_offset_end_val[c][i]와 comp_scale_offset_begin_val[c][i] 사이의 차이는 시그널링되고, comp_scale_offset_end_val[c][i]의 값은 디코더 측에서 도출된다.
다른 대체예에서, 출력 샘플 범위가 분할되는 지역들의 총 수는 특정되고, 스케일 지역들이 명시적으로 시그널링되는 지역들의 수는 시그널링된다.
comp_scale_tot_scale_regions[c]는 샘플 값들이 분할되는 동일한 길이 샘플 값 범위들의 총 수를 특정한다. comp_scale_tot_scale_regions[c]를 표현하는데 사용되는 비트들의 수는 comp_scale_input_bit_depth와 동일하다.
하나의 대체예에서, comp_scale_tot_scale_regions[c] 샘플 값 범위들은 길이가 정확히 동일하지 않을 수도 있지만 지역 길이들의 정수 정확도를 고려하면 정말 거의 동일하다.
comp_scale_region_ idx[c][i]는 스케일 값 comp_scale_val[c][i]가 적용되는 샘플 값 범위의 인덱스를 특정한다. 신택스 엘리먼트 comp_scale_region_idx[c]의 길이는 Ceil(Log2(comp_scale_tot_scale_regions[c])) 비트이다.
대체예들
대안적으로, 크로마 뉴트럴 (10-비트 데이터에 대해 511) 주위의 지역은 더 작은 사이즈, 즉, 다른 지역들의 절반 사이즈를 가진다.
예 5
성분 스케일 SEI 메시지의 신택스
성분 스케일 SEI 메시지의 시맨틱스
성분 스케일링 SEI 메시지는 디코딩된 픽처들의 다양한 성분들에 대해 스케일링 동작들을 수행하기 위한 정보를 제공한다. 스케일링 동작들이 수행되어야 하는 색 공간 및 성분들은 SEI 메시지에서 시그널링되는 신택스 엘리먼트들의 값에 의해 결정된다.
comp_scale_id는 성분 스케일링 SEI 메시지의 목적을 식별하는데 사용될 수도 있는 식별 번호를 포함한다. comp_scale_id의 값은 0 내지 232 - 2의 범위에 있을 것이다. comp_scale_id의 값은 성분 스케일링 SEI 메시지가 있는 색 공간, 또는 성분 스케일링 SEI 메시지가 선형 또는 비선형 도메인에서 적용되는지의 여부를 특정하는데 사용될 수도 있다.
일부 예들에서, comp_scale_id는 HDR 복원 프로세스의 구성을 특정할 수 있다. 일부 예들에서, comp_scale_id의 특정 값은 3 개의 성분들에 대한 스케일링 파라미터들의 시그널링과 연관될 수도 있다. R',G',B' 색 공간의 샘플들에 적용될 제 1 성분들의 스케일링과, 뒤따르는 2 개의 성분들의 파라미터들은 Cr 및 Cb의 스케일링에 적용된다.
또 다른 comp_scale_id 값의 경우, hdr 복원 프로세스가 3 개의 성분들에 대한 파라미터들을 이용할 수 있고, 스케일링은 루마, Cr 및 Cb 컬러 성분들의 샘플들에 적용된다.
또 다른 comp_scale_id 값에서, hdr 복원 프로세스는 4 개의 성분들에 대한 시그널링을 이용할 수 있으며, 그것들 중 3은 루마, Cr 및 Cb 스케일링에 적용되고, 4번째 성분은 컬러 정정의 파라미터들을 제공한다.
일부 예들에서, comp_scale_id 값들의 특정한 범위는 SDR 하위 호환가능 구성으로 수행되는 HDR 복원과 연관될 수도 있는 한편, comp_scale_id 값들의 다른 범위는 비-하위 호환가능 구성으로 수행되는 HDR 복원과 연관될 수도 있다.
0 내지 255의 그리고 512 내지 231 - 1의 comp_scale_id의 값들은 애플리케이션에 의해 결정된 대로 사용될 수도 있다. 256 내지 511의 그리고 231 내지 232 - 2의 comp_scale_id의 값들은 ITU-T | ISO/IEC에 의한 장래의 사용을 위해 유보된다. 디코더들은 256 내지 511의 범위에서의, 또는 231 내지 232 - 2의 범위에서의 comp_scale_id의 값을 포함하는 모든 성분 스케일 정보 SEI 메시지들을 무시할 것이고, 비트스트림들은 이러한 값들을 포함하지 않을 것이다.
주 1 - comp_scale_id는 상이한 디스플레이 시나리오들에 적합한 성분 스케일링 프로세스들을 지원하기 위해 사용될 수 있다. 예를 들어, comp_scale_id의 상이한 값들은 스케일링이 적용되는 상이한 디스플레이 비트 깊이들 또는 상이한 색 공간들에 대응할 수도 있다.
대안적으로, comp_scale_id는 특정한 유형들의 디스플레이들 또는 디코더, 예컨대, HDR, SDR에 대한 호환성을 위해 스케일링이 수행되는지의 여부를 식별하는데 또한 사용될 수도 있다.
1과 동일한 comp_scale_cancel_flag는 성분 스케일링 정보 SEI 메시지가 현재 계층에 적용되는 출력 순서에서 임의의 이전의 성분 정보 SEI 메시지들의 퍼시스턴스를 취소함을 나타낸다. 0과 동일한 comp_scale_cancel_flag는 성분 스케일링 정보가 뒤따름을 나타낸다.
comp_scale_persistence_flag는 현재 계층에 대한 성분 스케일링 정보 SEI 메시지의 퍼시스턴스를 특정한다.
0과 동일한 comp_scale_persistence_flag는 성분 스케일링 정보가 현재 디코딩되는 픽처에만 적용됨을 특정한다.
picA를 현재 픽처이라고 하자. 1과 동일한 comp_scale_persistence_flag는 다음의 조건들 중 임의의 조건이 참이 되기까지 성분 스케일링 정보가 출력 순서에서의 현재 계층에 대해 지속함을 특정한다:
- 현재 계층의 새로운 CLVS가 시작한다.
- 비트스트림이 종료한다.
- PicOrderCnt(picB) 가 PicOrderCnt(picA) 보다 큰 경우, 동일한 값의 comp_scale_id를 갖고 현재 계층에 적용 가능한 성분 스케일링 정보 SEI 메시지를 포함하는 액세스 유닛의 현재 계층에서의 픽처 picB가 출력되며, 여기서 PicOrderCnt(picB) 와 PicOrderCnt(picA) 는 picB에 대한 픽처 순서 카운트를 위한 디코딩 프로세스의 호출 직후 각각 picB 및 picA의 PicOrderCntVal 값들이다.
comp_scale_scale_bit_depth는 신택스 엘리먼트 comp_scale_scale_val[c][i]를 시그널링하는데 사용되는 비트들의 수를 특정한다. comp_scale_scale_bit_depth의 값은 0 내지 15의 범위에 있을 것이다.
comp_scale_offset_bit_depth는 신택스 엘리먼트 comp_scale_global_offset_val[c] 및 comp_scale_offset_val[c][i]를 시그널링하는데 사용되는 비트들의 수를 특정한다. comp_scale_offset_bit_depth의 값은 0 내지 15의 범위에 있을 것이다.
comp_scale_scale_ frac _bit_depth는 c-번째 성분의 i-번째 파티션의 스케일 파라미터의 소수 부분을 나타내는데 사용되는 LSB들의 수를 특정한다. comp_scale_scale_frac_bit_depth의 값은 0 내지 15의 범위에 있을 것이다. comp_scale_scale_frac_bit_depth의 값은 comp_scale_scale_bit_depth의 값 이하일 것이다.
comp_scale_offset_ frac _bit_depth는 c-번째 성분의 i-번째 파티션의 오프셋 파라미터의 소수 부분과 c-번째 성분의 글로벌 오프셋을 나타내는데 사용되는 LSB들의 수를 특정한다. comp_scale_offset_frac_bit_depth의 값은 0 내지 15의 범위에 있을 것이다. comp_scale_offset_frac_bit_depth의 값은 comp_scale_offset_bit_depth의 값 이하일 것이다.
comp_scale_ num _comps_ minus1 더하기 1은 성분 스케일링 함수가 특정되는 성분들의 수를 특정한다. comp_scale_num_comps_minus1은 0 내지 2의 범위에 있을 것이다.
comp_scale_ num _ranges[c]는 출력 샘플 범위가 파티셔닝되는 범위들의 수를 특정한다. comp_scale_num_ranges[c]의 값은 0 내지 63의 범위에 있을 것이다.
1과 동일한 comp_scale_equal_ranges_flag[c]는 그 출력 샘플 범위가 comp_scale_num_ranges[c] 거의 동일한 파티션들로 파티셔닝되고, 파티션 폭들이 명시적으로 시그널링되지 않음을 나타낸다. 0과 동일한 comp_scale_equal_ranges_flag[c]는 그 출력 샘플 범위가 모두가 동일한 사이즈로 되는 것은 아닌 comp_scale_num_ranges[c] 파티션들로 파티셔닝될 수도 있고, 파티션들 폭들이 명시적으로 시그널링됨을 나타낸다.
comp_scale_global_offset_val[c]는 c-번째 성분에 대해 유효한 입력 데이터 범위의 최소 값을 매핑하는데 사용되는 오프셋 값을 도출하는데 사용된다. comp_scale_global_offset_val[c]의 길이는 comp_scale_offset_bit_depth 비트이다.
comp_scale_scale_val[c][i]는 c-번째 성분의 i-번째 파티션의 폭을 도출하는데 사용되는 오프셋 값을 도출하는데 사용된다. comp_scale_global_offset_val[c]의 길이는 comp_scale_offset_bit_depth 비트이다.
변수 CompScaleScaleVal[c][i]는 다음과 같이 도출된다:
CompScaleScaleVal[c][i]
= (comp_scale_scale_val[c][i] >> comp_scale_scale_frac_bit_depth) +
(comp_scale_scale_val[c][i] &
((1 << comp_scale_scale_frac_bit_depth) - 1))
÷ (1 << comp_scale_scale_frac_bit_depth)
comp_scale_offset_val[c][i]는 c-번째 성분의 i-번째 파티션의 폭을 도출하는데 사용되는 오프셋 값을 도출하는데 사용된다. comp_scale_global_offset_val[c]의 길이는 comp_scale_offset_bit_depth 비트이다.
comp_scale_offset_val[c][i]가 시그널링될 때, CompScaleOffsetVal[c][i]의 값은 다음과 같이 유도된다:
CompScaleOffsetVal[c][i]
= (comp_scale_offset_val[c][i] >>
comp_scale_offset_frac_bit_depth) +
(comp_scale_offset_val[c][i] &
((1 << comp_scale_offset_frac_bit_depth) - 1)) ÷
(1 << comp_scale_offset_frac_bit_depth)
대안적으로, 변수 CompScaleScaleVal[c][i] 및 CompScaleOffsetVal[c][i]는 다음과 같이 도출된다:
CompScaleScaleVal[c][i] = comp_scale_scale_val[c][i] ÷
(1 << comp_scale_scale_frac_bit_depth)
CompScaleOffsetVal[c][i] = comp_scale_offset_val[c][i] ÷
(1 << comp_scale_offset_frac_bit_depth)
comp_scale_equal_ranges_flag[c]가 1과 동일할 때, comp_scale_offset_val[c][i]는 시그널링되지 않고, CompScaleOffsetVal[c][i]의 값은 다음과 같이 도출된다:
CompScaleOffsetVal[c][i] = 1 ÷ comp_scale_num_ranges[c]
0 내지 comp_scale_num_ranges[c]의 범위에서의 i에 대한 변수 CompScaleOutputRanges[c][i] 및 CompScaleOutputRanges[c][i]는 다음과 같이 도출된다:
하나의 대체예에서, CompScaleOutputRanges[][] 및 CompScaleOutputRanges[][]의 값들은 다음과 같이 도출된다:
입력 신호 표현 (이는 정수 뿐만 아니라 부동소수점 둘 다를 커버하는데 사용될 수도 있음) x와 출력 신호 표현 y를 매핑하는 프로세스는, 양 입력 표현에 대한 샘플 값들이 0 내지 1의 범위로 정규화되고 출력 표현이 0 내지 1의 범위에 있는 경우, 다음과 같이 특정된다:
하나의 대체예에서, CompScaleOutputRanges[c][0]의 값은 허용된 샘플 값 범위에 기초하여 설정된다.
대안적으로, 입력 값 valIn을 출력 값 valOut으로 매핑하는 프로세스는 다음과 같이 정의된다:
하나의 대체예에서, c-번째 성분에 대해 m_offset2는 comp_scale_global_offset_val[c] (1 << comp_scale_offset_frac_bit_depth) 와 동일하며, m_pAtfScale[c][i]는 CompScaleScaleVal[c][i]와 동일하고 m_pAtfDelta[i]는 CompScaleOffsetVal[c][i]와 동일하고, pScale 및 pOffset는 m_AtfScale 및 m_pAtfDelta로부터 도출되는 스케일 및 오프셋 파라미터이다.
역 동작이 그에 따라 정의될 것이다.
예 6
일부 예들에서, 위에서, 예컨대, 예 5에서 설명된 시그널링 방법들 중 일부는, 다음의 의사 코드에서 보인 바와 같이 이용될 수 있다.
m_atfNumberRanges는 매핑된 데이터에 대한 동적 범위 파티셔닝의 수를 특정하는 주어진 c에 대한 신택스 엘리먼트들 comp_scale_num_ranges[c]를 위한 항이다.
m_pAtfRangeIn은 CompScaleInputRanges를 위한 항이며, 두 개의 연접된 파티션들, 예컨대, i 및 i+1 사이의 경계를 특정하는 입력 샘플 값을 포함하는 m_atfNumberRanges+1의 어레이 사이즈이다.
m_pAtfRangeOut은 CompScaleOutputRanges를 위한 항이며, 두 개의 연접된 파티션들, 예컨대, i 및 i+1 사이의 경계를 특정하는 출력 샘플 값을 포함하는 m_atfNumberRanges+1의 어레이 사이즈이다.
m_pAtfScale2는 변수 CompScaleScaleVal[c]를 위한 항이며 각각의 파티션들에 대한 스케일 값들을 포함하는 m_atfNumberRanges의 어레이 사이즈이다.
m_pAtfOffset2는 각각의 파티션에 대한 오프셋 값들을 포함하는 m_atfNumberRanges의 어레이 사이즈이다.
m_offset2는 comp_scale_global_offset_val을 위한 항이다.
이 예에서, 조각적 선형 모델의 파라미터들은 알고리즘 1에서처럼 신택스 엘리먼트들로부터 결정될 수 있다:
알고리즘 1:
일단 결정되면, 조각적 선형 모델이 알고리즘 2에서처럼 출력 샘플 값 outValue을 결정하기 위해 입력 샘플 값 inValue에 적용될 수 있다:
알고리즘 2:
알고리즘 3에서 역 프로세스가 수행됨:
알고리즘 3:
일부 예들에서, 두 개의 연접된 파티션들 i 및 i+1 사이의 경계 샘플 값 (m_pAtfRangeIn 또는 m_pAtfRangeOut의 엔트리) 은 알고리즘 2 및 3에서 도시된 바와 같이 i 파티션에 속하는 대신, i+1에 속하는 것으로서 상이하게 해석될 수 있다.
일부 예들에서, 알고리즘 3에서 보인 역 프로세스는, m_pAtfScale2[j]에 의한 나눗셈 대신, m_pAtfInverseScale2 값에 의한 곱셈으로 구현될 수 있다. 이러한 예들에서, m_pAtfScale2[j]의 값은 m_pAtfScale2[j]로부터 미리 결정된다.
일부 예들에서, m_pAtfInverseScale2[j]는 디코더 측에서 1/m_pAtfScale2[j]으로서 결정된다.
일부 예들에서, m_pAtfInverseScale2[j]는 인코더 측에서 컴퓨팅되고, 비트스트림을 통해 시그널링될 수 있다. 이러한 예들에서, 알고리즘 1, 2 및 3에서 주어진 동작은 그에 따라 조정될 것이다.
다양한 예들
일부 예들에서, 제안된 시그널링 메커니즘이 입력 신호의 샘플들에 대한 동적 범위 조정을 가능하게 하는데, 예컨대, 비디오 코딩 시스템들의 압축 효율을 개선하는데 이용될 수 있는 조각적 함수를 모델링하기 위해 사용될 수 있다.
일부 예들에서, 제안된 시그널링 메커니즘은 OETF에 의해, 예컨대, ST.2084의 PQ TF, 또는 다른 것들에 의해 생성되는 코드워드들 (R,G,B 샘플들의 비선형 표현) 에 적용될 수 있는 조각적 함수를 모델링하는데 사용될 수 있다.
일부 예들에서, 제안된 시그널링 메커니즘은 YCbCr 컬러들의 샘플들에 적용될 수 있는 조각적 함수를 모델링하는데 사용될 수 있다.
일부 예들에서, 제안된 시그널링 메커니즘은 SDR 호환성을 갖는 HDR/WCG 해법들에 이용될 수 있는 조각적 함수를 모델링하는데 사용될 수 있다.
일부 예들에서, 제안된 시그널링 메커니즘은 샘플들에 적용될 수 있는 조각적 함수를 부동소수점 표현으로 모델링하는데 사용될 수 있다. 또 다른 예에서, 제안된 시그널링 메커니즘 및 결과적인 함수는 정수 표현, 예컨대, 10 비트로 샘플들에 적용될 수 있다.
일부 예들에서, 제안된 시그널링 메커니즘은 샘플들에 적용될 수 있는 조각적 함수를 룩업 테이블들의 형태로 모델링하는데 사용될 수 있다. 또 다른 예들에서, 제안된 시그널링은 샘플에 적용될 수 있는 함수를 곱셈기의 형태로 모델링하는데 사용될 수 있다.
조합들 및 확장들
위의 예들에서, 선형 모델이 각각의 지역 (즉, 스케일 더하기 오프셋) 에 대해 가정되며; 본 개시물의 기법들은 고차 다항식 모델들에, 예를 들어, 두 개 대신 세 개의 파라미터들을 요구하는 2 차 다항식으로 또한 적용 가능할 수도 있다. 시그널링 및 신택스는 이 시나리오에 대해 적절히 확장될 것이다.
위에서 설명된 양태들의 조합들이 가능하고 본 개시물의 기법들의 일부가 된다.
도구상자 조합: 본 개시물에서 설명되는 SEI들의 목표들과 다소 유사한 목표들을 타겟으로 할 수 있는 여러 HDR 방법들이 있다. 그것들 중 하나를 초과하는 것을 수용하지만, 동시에, 프레임 당 가용 SEI 프로세싱의 수를 제한하기 위하여, 이들 방법들 (중 하나 이상의 방법) 을 단일 SEI로 조합하는 것이 제안된다. 제안된 신택스 엘리먼트는 각각의 사례에 적용하는 특정 방법을 나타낼 것이다. 예를 들어, 두 개의 가능한 방법들이 SEI에 있다면, 신택스 엘리먼트는 사용될 하나를 나타내는 플래그일 것이다.
예 7
이 예에서, 스케일 파라미터들의 시그널링은 음의 스케일들이 송신될 수 있도록 수정되고, 시그널링된 스케일 파라미터들은 다양한 성분들의 상이한 범위들에 적용될 스케일의 변동을 나타낸다. 예 5에 관한 변경들은 아래와 같다.
SEI 메시지의 신택스에 대한 변경들
SEI 메시지의 시맨틱스에 대한 변경들
1과 동일한 comp_scale_negative_scales_present_flag는 comp_scale_scale_val[c][i]로부터 도출되는 스케일 파라미터들의 정수 부분이 부호 있는 정수로서 표현됨을 특정한다. 0과 동일한 comp_scale_negative_scales_present_flag는 comp_scale_scale_val[c][i]로부터 도출되는 정수 부분 스케일 파라미터들이 부호 없는 정수로서 표현됨을 특정한다.
하나의 대체예에서, 오프셋 파라미터들의 다른 세트는 제 2 성분의 값의 함수로서 제 1 성분에 대한 스케일과 함께 적용되는 오프셋을 정의하는데 사용되는 comp_scale_scale_val와 함께 시그널링된다.
부호 있는 정수 표현은 2의 보수 표기법과 부호 있는 크기 표현 (한 비트는 부호를 위한 것이고 나머지 비트들은 정수 부분임) 을 비제한적으로 포함한다. 아래의 도출은 부호 있는 크기 표현에 대해 주어진다. 도출은 부호 있는 표현들의 다른 형태들에 대해 유사하게 정의될 수 있다.
변수 CompScaleScaleVal[c][i]는 다음과 같이 도출된다:
comp_scale_negative_scale_present_flag가 1과 동일할 때, comp_scale_scale_bit_depth의 값은 comp_scale_scale_frac_bit_depth 이상일 것이라는 것이 비트스트림 적합성의 요건이다.
comp_scale_dependent_component_id는 비디오의 다양한 성분들에 대한 스케일 및 오프셋 파라미터들의 적용을 특정한다. comp_scale_dependent_component_id가 0과 동일할 때, 신택스 엘리먼트 comp_scale_global_offset_val[c], comp_scale_scale_val[c][i] 및 comp_scale_offset_val[c][i]는 c-번째 성분의 입력 및 출력 값들의 매핑을 식별하는데 사용된다. comp_scale_dependent_component_id가 0보다 더 클 때, 신택스 엘리먼트 comp_scale_global_offset_val[c], comp_scale_scale_val[c][i] 및 comp_scale_offset_val[c][i]가 샘플의 (comp_scale_dependent_component_id - 1)-번째 성분의 값의 함수로서 그 샘플의 c-번째 성분에 적용될 스케일 파라미터의 매핑을 특정하도록 comp_scale_dependent_component_id - 1은 성분의 인덱스를 특정한다.
시맨틱스의 나머지는 예 5에서 설명된 것들과 유사하다.
예 8
이 예에서, ATF 파라미터들의 비트 깊이는 성분에 따라 다르다. 각각의 성분에 대해, 신택스 엘리먼트들의 비트 깊이는 명시적으로 시그널링된다. 덧붙여서, 그들 신택스 엘리먼트들에 대한 디폴트 비트-깊이가 있다. 디폴트 값은 비트 깊이가 명시적으로 시그널링되지 않을 때 지정된다. 디폴트 값들이 적용되는지 또는 그것들이 명시적으로 시그널링되는지를 플래그가 나타낼 수 있다.
아래의 표는 이들 개념들의 일 예를 도시한다. ATF 파라미터들의 신택스 엘리먼트들은 스케일 hdr_recon_scale_val[][] 및 범위 hdr_recon_range_val[][]이다. 대응하는 비트 깊이를 나타내는 신택스 엘리먼트들 (정수 및 소수 부분) 은 다음의 것들이며:
Figure 112018039214237-pct00030
hdr_recon_scale_bit_depth[c],
hdr_recon_offset_bit_depth[c],
hdr_recon_scale_frac_bit_depth[c],
hdr_recon_offset_frac_bit_depth[c],
여기서 c는 성분 인덱스이다. 스케일 및 오프셋 (범위) 에 대한 디폴트 비트-깊이들은 다음으로 설정될 수 있다:
hdr_recon_scale_bit_depth[c] = 8,
hdr_recon_offset_bit_depth[c] = 8,
hdr_recon_scale_frac_bit_depth[c] = 6,
hdr_recon_offset_frac_bit_depth[c] = 8.
파라미터들의 정확도는 ATF 파라미터들 및 컬러 조정 파라미터들에 대해 또한 상이할 수 있다. 또한, 디폴트는 성분 마다 그리고 컬러 조정 파라미터들에 대해 상이할 수 있다. 이 예에서, 디폴트들은 동일한 것으로 가정된다.
예 9
새로운 HDR 해법의 바람직한 특성은 그것이 HDR10같은 이전의 HDR 해법들과 하위 호환 가능하다는 것이다. 신택스 엘리먼트가 이것이 그 경우임을 나타낼 수도 있다. 이는 비트스트림의 특성을 나타내고, ATF 버전이 이미 가시적이지 않다면 HDR 디코더가 일부 환경들 하에서 역 ATF 프로세싱에 대해 계산 리소스들을 소비하지 않기로 결정할 수 있다.
하나의 예에서, hdr_recon_id 신택스 엘리먼트의 일부 값들은 HDR10 하위 호환성, 또는 어느 정도 하위 호환성이 있는지를 나타내기 위해 예약된다.
다른 예에서, 플래그 (hdr_recon_hdr10_bc) 가 이 상황을 나타낸다.
하나의 예에서, 시그널링된 HDR10 하위 호환성은 비트스트림이 가시적임을 나타낸다. 대안적으로, 그것은 시그널링된 값들의 일부 구체적인 특성들: 예를 들어, 이 특성을 보장하는 값들의 범위를 나타낼 수도 있다. 예를 들면, 스케일이 0.9와 1.1 사이라는 제약조건이 있을 수 있다.
도 12는 본 개시물의 기법들을 구현할 수도 있는 비디오 인코더 (20) 의 일 예를 도시하는 블록도이다. 비디오 인코더 (20) 는 비디오 프리프로세서 (19) 에 의해 프로세싱된 타겟 컬러 표현에서의 비디오 슬라이스들 내의 비디오 블록들의 인트라 코딩 및 인터 코딩을 수행할 수도 있다. 인트라 코딩은 공간적 예측에 의존하여, 주어진 비디오 프레임 또는 픽처 내의 비디오에서 공간적 리던던시를 감소시키거나 또는 제거한다. 인터 코딩은 시간적 예측에 의존하여, 비디오 시퀀스의 인접한 프레임들 또는 픽처들 내의 비디오에서 시간적 리던던시를 감소시키거나 또는 제거한다. 인트라 모드 (I 모드) 는 여러 공간 기반 코딩 모드들 중 임의의 것을 지칭할 수도 있다. 단방향 예측 (P 모드) 또는 양-예측 (B 모드) 과 같은 인터 모드들은 여러 시간 기반 코딩 모드들 중 임의의 것을 지칭할 수도 있다.
도 12에 도시된 바와 같이, 비디오 인코더 (20) 는 인코딩될 비디오 프레임 내의 현재 비디오 블록을 수신한다. 도 12의 예에서, 비디오 인코더 (20) 는 모드 선택 부 (40), 비디오 데이터 메모리 (40), 디코딩된 픽처 버퍼 (64), 합산기 (50), 변환 프로세싱 부 (52), 양자화 부 (54), 및 엔트로피 인코딩 부 (56) 를 포함한다. 모드 선택 부 (40) 는, 차례로, 모션 보상 부 (44), 모션 추정 부 (42), 인트라 예측 프로세싱 부 (46), 및 파티션 부 (48) 를 포함한다. 비디오 블록 복원을 위해, 비디오 인코더 (20) 는 역 양자화 부 (58), 역 변환 부 (60), 및 합산기 (62) 를 또한 포함한다. 블록화제거 필터 (도 12에서 도시되지 않음) 가 블록 경계들을 필터링하여 복원된 비디오로부터 블록현상 (blockiness) 아티팩트들을 제거하기 위해 또한 포함될 수도 있다. 원한다면, 블록화제거 필터는 합산기 (62) 의 출력을 통상 필터링할 것이다. 추가적인 필터들 (인 루프 또는 포스트 루프) 이 블록화제거 필터에 부가하여 또한 사용될 수도 있다. 그런 필터들은 간결함을 위해 도시되지 않았지만, 원한다면, (인 루프 필터로서) 합산기 (50) 의 출력을 필터링할 수도 있다.
비디오 데이터 메모리 (41) 는 비디오 인코더 (20) 의 컴포넌트들에 의해 인코딩될 비디오 데이터를 저장할 수도 있다. 비디오 데이터 메모리 (41) 에 저장된 비디오 데이터는, 예를 들어, 비디오 소스 (18) 로부터 획득될 수도 있다. 디코딩된 픽처 버퍼 (64) 가, 예컨대, 인트라 코딩 또는 인터 코딩 모드들에서 비디오 인코더 (20) 에 의해 비디오 데이터를 인코딩함에 있어서의 사용을 위한 참조 비디오 데이터를 저장하는 참조 픽처 메모리일 수도 있다. 비디오 데이터 메모리 (41) 와 디코딩된 픽처 버퍼 (64) 는 동기식 DRAM (SDRAM) 을 포함한 다이나믹 랜덤 액세스 메모리 (DRAM), 자기저항 RAM (MRAM), 저항 RAM (RRAM), 또는 다른 유형들의 메모리 디바이스들과 같은 다양한 메모리 디바이스들 중 임의의 것에 의해 형성될 수도 있다. 비디오 데이터 메모리 (41) 와 디코딩된 픽처 버퍼 (64) 는 동일한 메모리 디바이스 또는 별개의 메모리 디바이스들에 의해 제공될 수도 있다. 다양한 예들에서, 비디오 데이터 메모리 (41) 는 비디오 인코더 (20) 의 다른 컴포넌트들과 온-칩, 또는 그들 컴포넌트들에 대하여 오프-칩일 수도 있다.
인코딩 프로세스 동안, 비디오 인코더 (20) 는 코딩될 비디오 프레임 또는 슬라이스를 수신한다. 프레임 또는 슬라이스는 다수의 비디오 블록들로 세분될 수도 있다. 모션 추정 부 (42) 와 모션 보상 부 (44) 는 시간적 예측을 제공하기 위해 하나 이상의 참조 프레임들에서 하나 이상의 블록들에 관하여 수신된 비디오 블록의 인터 예측성 코딩을 수행한다. 인트라 예측 프로세싱 부 (46) 는 공간적 예측을 제공하기 위해 코딩될 블록과 동일한 프레임 또는 슬라이스에서의 하나 이상의 이웃 블록들에 대해, 수신된 비디오 블록의 인트라 예측성 코딩을 대신 수행할 수도 있다. 비디오 인코더 (20) 는 다수의 코딩 과정들을, 예컨대, 비디오 데이터의 각각의 블록에 대한 적절한 코딩 모드를 선택하기 위해 수행할 수도 있다.
더구나, 파티션 부 (48) 는 이전의 코딩 과정들에서의 이전의 파티셔닝 스킴들의 평가에 기초하여, 비디오 데이터의 블록들을 서브 블록들로 파티셔닝할 수도 있다. 예를 들어, 파티션 부 (48) 는 초기에는 프레임 또는 슬라이스를 LCU들로 파티셔닝하고, 레이트 왜곡 분석 (예컨대, 레이트 왜곡 최적화) 에 기초하여 그 LCU들의 각각을 서브 CU들로 파티셔닝할 수도 있다. 모드 선택 부 (40) 는 LCU의 서브 CU들로의 파티셔닝을 나타내는 쿼드트리 데이터 구조를 추가로 생성할 수도 있다. 쿼드트리의 리프 노드 CU들은 하나 이상의 PU들과 하나 이상의 TU들을 포함할 수도 있다.
모드 선택 부 (40) 는 코딩 모드들인 인트라 또는 인터 중의 하나를, 예컨대 에러 결과들에 기초하여 선택할 수도 있고, 결과적인 인트라 코딩된 또는 인터 코딩된 블록을, 합산기 (50) 에 제공하여 잔차 블록 데이터를 생성하고, 합산기 (62) 에 제공하여 참조 프레임으로서 사용하기 위한 인코딩된 블록을 복원한다. 모드 선택 부 (40) 는, 신택스 엘리먼트들, 이를테면 모션 벡터들, 인트라 모드 표시자들, 파티션 정보, 및 다른 이러한 신택스 정보를 엔트로피 인코딩 부 (56) 에 또한 제공한다.
모션 추정 부 (42) 와 모션 보상 부 (44) 는 고도로 통합될 수도 있지만 개념적 목적들을 위해 별개로 예시된다. 모션 추정 부 (42) 에 의해 수행되는 모션 추정은 비디오 블록들에 대한 모션을 추정하는 모션 벡터들을 생성하는 프로세스이다. 모션 벡터가, 예를 들어, 현재 픽처 내의 코딩되고 있는 현재 블록 (또는 다른 코딩되는 유닛) 을 기준으로 참조 픽처 내의 예측성 블록 (또는 다른 코딩된 유닛) 에 대한 현재 비디오 프레임 또는 픽처 내의 비디오 블록의 PU의 변위를 나타낼 수도 있다. 예측성 블록이 차의 절대값 합 (SAD), 차의 제곱 합 (SSD), 또는 다른 차이 메트릭들에 의해 결정될 수도 있는, 화소 차이의 관점에서 코딩될 블록에 밀접하게 매칭된다고 생각되는 블록이다. 일부 예들에서, 비디오 인코더 (20) 는 디코딩된 픽처 버퍼 (64) 에 저장된 참조 픽처들의 부 정수 (sub-integer) 화소 위치들에 대한 값들을 계산할 수도 있다. 예를 들어, 비디오 인코더 (20) 는 참조 픽처의 1/4 화소 위치들, 1/8 화소 위치들, 또는 다른 분수 화소 위치들의 값들을 보간할 수도 있다. 그러므로, 모션 추정 부 (42) 는 풀 (full) 화소 위치들 및 분수 화소 위치들에 대한 모션 검색을 수행하여 분수 화소 정밀도를 갖는 모션 벡터를 출력할 수도 있다.
모션 추정 부 (42) 는 PU의 위치와 참조 픽처의 예측성 블록의 위치를 비교함으로써 인터 코딩된 슬라이스에서의 비디오 블록의 PU에 대한 모션 벡터를 계산한다. 참조 픽처는 디코딩된 픽처 버퍼 (64) 에 저장된 하나 이상의 참조 픽처들을 각각 식별하는 제 1 참조 픽처 리스트 (List 0) 또는 제 2 참조 픽처 리스트 (List 1) 로부터 선택될 수도 있다. 모션 추정 부 (42) 는 계산된 모션 벡터를 엔트로피 인코딩 부 (56) 와 모션 보상 부 (44) 로 전송한다.
모션 보상 부 (44) 에 의해 수행되는 모션 보상은 모션 추정 부 (42) 에 의해 결정된 모션 벡터에 기초하여 예측성 블록을 페치하는 것 또는 생성하는 것을 수반할 수도 있다. 다시, 모션 추정 부 (42) 와 모션 보상 부 (44) 는 몇몇 예들에서 기능적으로 통합될 수도 있다. 현재 비디오 블록의 PU에 대한 모션 벡터를 수신 시, 모션 보상 부 (44) 는 참조 픽처 리스트들 중 하나의 참조 픽처 리스트에서 모션 벡터가 가리키는 예측성 블록을 찾을 수도 있다. 합산기 (50) 는, 아래에서 논의되는 바와 같이, 코딩되고 있는 현재 비디오 블록의 화소 값들로부터 예측성 블록의 화소 값들을 감산하여 화소 차이 값들을 형성함으로써 잔차 비디오 블록을 형성한다. 대체로, 모션 추정 부 (42) 는 루마 성분들에 관하여 모션 추정을 수행하고, 모션 보상 부 (44) 는 크로마 성분들 및 루마 성분들 양쪽 모두에 대해 루마 성분들에 기초하여 계산된 모션 벡터들을 사용한다. 모드 선택 부 (40) 는 비디오 슬라이스의 비디오 블록들을 디코딩함에 있어서 비디오 디코더 (30) 에 의한 사용을 위해 비디오 블록들 및 비디오 슬라이스에 연관된 신택스 엘리먼트들을 또한 생성할 수도 있다.
인트라 예측 프로세싱 부 (46) 는, 위에서 설명된 바와 같이, 모션 추정 부 (42) 및 모션 보상 부 (44) 에 의해 수행된 인터 예측에 대한 대안으로서 현재 블록을 인트라 예측할 수도 있다. 특히, 인트라 예측 프로세싱 부 (46) 는 현재 블록을 인코딩하는데 사용하기 위한 인트라 예측 모드를 결정할 수도 있다. 일부 예들에서, 인트라 예측 프로세싱 부 (46) 는 예컨대, 개별 인코딩 과정들 동안에 다양한 인트라 예측 모드들을 사용하여 현재 블록을 인코딩할 수도 있고, 인트라 예측 프로세싱 부 (46) (또는 일부 예들에서, 모드 선택 부 (40)) 는 테스트된 모드들로부터 사용할 적절한 인트라 예측 모드를 선택할 수도 있다.
예를 들어, 인트라 예측 프로세싱 부 (46) 는 다양한 테스트된 인트라 예측 모드들에 대한 레이트 왜곡 분석을 사용하여 레이트 왜곡 값들을 계산하고, 테스트된 모드들 중에서 최상의 레이트 왜곡 특성들을 갖는 인트라 예측 모드를 선택할 수도 있다. 레이트 왜곡 분석은 일반적으로, 인코딩된 블록과 인코딩된 블록을 생성하기 위해 인코딩되었던 원래의 인코딩되지 않은 블록 사이의 왜곡 (또는 에러) 의 양, 뿐만 아니라 인코딩된 블록을 생성하는데 사용된 비트 레이트 (다시 말하면, 비트들의 수) 를 결정한다. 인트라 예측 프로세싱 부 (46) 는 어떤 인트라 예측 모드가 그 블록에 대한 최상의 레이트 왜곡 값을 나타내는지를 결정하기 위해 다양한 인코딩된 블록들에 대한 왜곡들 및 레이트들로부터 비율들을 계산할 수도 있다.
블록에 대해 인트라 예측 모드를 선택한 후, 인트라 예측 프로세싱 부 (46) 는 그 블록에 대한 선택된 인트라 예측 모드를 나타내는 정보를 엔트로피 인코딩 부 (56) 에 제공할 수도 있다. 엔트로피 인코딩 부 (56) 는 선택된 인트라 예측 모드를 나타내는 정보를 인코딩할 수도 있다. 비디오 인코더 (20) 는 송신되는 비트스트림에 구성 데이터를 포함시킬 수도 있는데, 이 구성 데이터는 복수의 인트라 예측 모드 인덱스 테이블들 및 복수의 수정된 인트라 예측 모드 인덱스 테이블들 (코드워드 매핑 테이블들이라고 또한 지칭됨), 다양한 블록들에 대한 콘텍스트들을 인코딩하는 정의들, 그리고 그 콘텍스트들의 각각에 대한 사용을 위한 가장 가능성 있는 인트라 예측 모드, 인트라 예측 모드 인덱스 테이블, 및 수정된 인트라 예측 모드 인덱스 테이블의 표시들을 포함할 수도 있다.
비디오 인코더 (20) 는 코딩되고 있는 원래의 비디오 블록으로부터 모드 선택 부 (40) 로부터의 예측 데이터를 감산함으로써 잔차 비디오 블록을 형성한다. 합산기 (50) 는 이 감산 동작을 수행하는 컴포넌트 또는 컴포넌트들을 나타낸다. 변환 프로세싱 부 (52) 는 변환, 이를테면 이산 코사인 변환 (DCT) 또는 개념적으로 유사한 변환을 잔차 블록에 적용하여, 잔차 변환 계수 값들을 포함하는 비디오 블록을 생성한다. 변환 프로세싱 부 (52) 는 DCT에 개념적으로 유사한 다른 변환들을 수행할 수도 있다. 웨이브릿 변환들, 정수 변환들, 서브 밴드 변환들 또는 다른 유형들의 변환들이 또한 이용될 수 있다. 어느 경우에나, 변환 프로세싱 부 (52) 는 잔차 블록에 변환을 적용하여, 잔차 변환 계수들의 블록을 생성한다. 그 변환은 잔차 정보를 화소 값 도메인으로부터 변환 도메인, 이를테면 주파수 도메인으로 변환할 수도 있다. 변환 프로세싱 부 (52) 는 결과적인 변환 계수들을 양자화 부 (54) 에 전송할 수도 있다.
양자화 부 (54) 는 변환 계수들을 양자화하여 비트 레이트를 더욱 감소시킨다. 양자화 프로세스는 그 계수들의 일부 또는 전부에 연관된 비트 깊이를 감소시킬 수도 있다. 양자화 정도는 양자화 파라미터를 조정함으로써 수정될 수도 있다. 일부 예들에서, 양자화 부 (54) 는 그 후, 양자화된 변환 계수들을 포함하는 매트릭스의 스캔을 수행할 수도 있다. 대안적으로, 엔트로피 인코딩 부 (56) 가 그 스캔을 수행할 수도 있다.
양자화를 뒤따라, 엔트로피 인코딩 부 (56) 는 양자화된 변환 계수들을 엔트로피 코딩한다. 예를 들어, 엔트로피 인코딩 부 (56) 는 콘텍스트 적응 가변 길이 코딩 (CAVLC), 콘텍스트 적응 이진 산술 코딩 (CABAC), 신택스 기반 콘텍스트 적응 이진 산술 코딩 (SBAC), 확률 간격 구획화 엔트로피 (PIPE) 코딩 또는 다른 엔트로피 코딩 기법을 수행할 수도 있다. 콘텍스트 기반 엔트로피 코딩의 경우, 콘텍스트는 이웃 블록들에 기초할 수도 있다. 엔트로피 코딩 부 (56) 에 의한 엔트로피 코딩에 뒤이어, 인코딩된 비트스트림은 다른 디바이스 (예컨대, 비디오 디코더 (30)) 로 송신되거나 또는 나중의 송신 또는 취출을 위해 보관될 수도 있다.
역 양자화 부 (58) 및 역 변환 프로세싱 부 (60) 는 역 양자화 및 역 변환을 각각 적용하여, 화소 도메인에서 잔차 블록을, 예컨대, 나중에 참조 블록으로서 사용하기 위해 복원한다. 모션 보상 부 (44) 는 잔차 블록을 디코딩된 픽처 버퍼 (64) 의 프레임들 중 하나의 프레임의 예측성 블록에 가산함으로써 참조 블록을 계산할 수도 있다. 모션 보상 부 (44) 는 또한 하나 이상의 보간 필터들을 복원된 잔차 블록에 적용하여 모션 추정에서의 사용을 위한 부 정수 화소 값들을 계산할 수도 있다. 합산기 (62) 는 복원된 잔차 블록을 모션 보상 부 (44) 에 의해 생성된 모션 보상 예측 블록에 가산하여, 디코딩된 픽처 버퍼 (64) 에 저장하기 위한 복원된 비디오 블록을 생성한다. 복원된 비디오 블록은 모션 추정 부 (42) 및 모션 보상 부 (44) 에 의해 후속 비디오 프레임에서의 블록을 인터 코딩하기 위한 참조 블록으로서 사용될 수도 있다.
도 13은 본 개시물의 기법들을 구현할 수도 있는 비디오 디코더 (30) 의 일 예를 도시하는 블록도이다. 특히, 비디오 디코더 (30) 는 비디오 데이터를, 위에서 설명된 바와 같이, 비디오 포스트프로세서 (31) 에 의해 그 다음에 프로세싱될 수도 있는 타겟 컬러 표현으로 디코딩할 수도 있다. 도 13의 예에서, 비디오 디코더 (30) 는 엔트로피 디코딩 부 (70), 비디오 데이터 메모리 (71), 모션 보상 부 (72), 인트라 예측 프로세싱 부 (74), 역 양자화 부 (76), 역 변환 프로세싱 부 (78), 디코딩된 픽처 버퍼 (82) 및 합산기 (80) 를 포함한다. 비디오 디코더 (30) 는, 일부 예들에서, 비디오 인코더 (20) (도 12) 에 관해 설명된 인코딩 과정에 일반적으로 역인 디코딩 과정을 수행할 수도 있다. 모션 보상 부 (72) 는 엔트로피 디코딩 부 (70) 로부터 수신된 모션 벡터들에 기초하여 예측 데이터를 생성할 수도 있는 한편, 인트라 예측 프로세싱 부 (74) 는 엔트로피 디코딩 부 (70) 로부터 수신된 인트라 예측 모드 표시자들에 기초하여 예측 데이터를 생성할 수도 있다.
비디오 데이터 메모리 (71) 는, 비디오 디코더 (30) 의 컴포넌트들에 의해 디코딩될 인코딩된 비디오 비트스트림과 같은 비디오 데이터를 저장할 수도 있다. 비디오 데이터 메모리 (71) 에 저장된 비디오 데이터는, 예를 들어, 컴퓨터 판독가능 매체 (16) 로부터, 예컨대, 카메라와 같은 국부 비디오 소스로부터, 비디오 데이터의 유선 또는 무선 네트워크 통신을 통해, 또는 물리적 데이터 저장 매체들에 액세스함으로써 획득될 수도 있다. 비디오 데이터 메모리 (71) 는 인코딩된 비디오 비트스트림으로부터의 인코딩된 비디오 데이터를 저장하는 코딩된 픽처 버퍼 (coded picture buffer, CPB) 를 형성할 수도 있다. 디코딩된 픽처 버퍼 (82) 가, 예컨대 인트라 코딩 또는 인터 코딩 모드들에서, 비디오 디코더 (30) 에 의해 비디오 데이터를 디코딩함에 있어서의 사용을 위한 참조 비디오 데이터를 저장하는 참조 픽처 메모리일 수도 있다. 비디오 데이터 메모리 (71) 와 디코딩된 픽처 버퍼 (82) 는 동기식 DRAM (SDRAM) 을 포함한 다이나믹 랜덤 액세스 메모리 (DRAM), 자기저항 RAM (MRAM), 저항 RAM (RRAM), 또는 다른 유형들의 메모리 디바이스들과 같은 다양한 메모리 디바이스들 중 임의의 것에 의해 형성될 수도 있다. 비디오 데이터 메모리 (71) 와 디코딩된 픽처 버퍼 (82) 는 동일한 메모리 디바이스 또는 별개의 메모리 디바이스들에 의해 제공될 수도 있다. 다양한 예들에서, 비디오 데이터 메모리 (71) 는 비디오 디코더 (30) 의 다른 컴포넌트들과 온-칩, 또는 그들 컴포넌트들에 대하여 오프-칩일 수도 있다.
디코딩 프로세스 동안, 비디오 디코더 (30) 는 인코딩된 비디오 슬라이스의 비디오 블록들 및 연관된 신택스 엘리먼트들을 나타내는 인코딩된 비디오 비트스트림을 비디오 인코더 (20) 로부터 수신한다. 비디오 디코더 (30) 의 엔트로피 디코딩 부 (70) 는 그 비트스트림을 엔트로피 디코딩하여 양자화된 계수들, 모션 벡터들 또는 인트라 예측 모드 표시자들, 및 다른 신택스 엘리먼트들을 생성한다. 엔트로피 디코딩 부 (70) 는 모션 벡터들을 그리고 다른 신택스 엘리먼트들을 모션 보상 부 (72) 로 포워딩한다. 비디오 디코더 (30) 는 비디오 슬라이스 레벨 및/또는 비디오 블록 레벨에서 신택스 엘리먼트들을 수신할 수도 있다.
비디오 슬라이스가 인트라 코딩된 (I) 슬라이스로서 코딩되는 경우, 인트라 예측 프로세싱 부 (74) 는 현재 비디오 슬라이스의 비디오 블록에 대한 예측 데이터를 현재 프레임 또는 픽처의 이전에 디코딩된 블록들로부터의 시그널링된 인트라 예측 모드 및 데이터에 기초하여 생성할 수도 있다. 비디오 프레임이 인터 코딩된 (즉, B 또는 P) 슬라이스로서 코딩되는 경우, 모션 보상 부 (72) 는 엔트로피 디코딩 부 (70) 로부터 수신된 모션 벡터들 및 다른 신택스 엘리먼트들에 기초하여, 현재 비디오 슬라이스의 비디오 블록에 대한 예측성 블록들을 생성한다. 그 예측성 블록들은 참조 픽처 리스트들 중 하나의 참조 픽처 리스트 내의 참조 픽처들 중 하나의 참조 픽처로부터 생성될 수도 있다. 비디오 디코더 (30) 는 디코딩된 픽처 버퍼 (82) 에 저장된 참조 픽처들에 기초하여 디폴트 구축 기법들을 사용하여, 참조 픽처 리스트들 (List 0 및 List 1) 을 구축할 수도 있다. 모션 보상 부 (72) 는 모션 벡터들 및 다른 신택스 엘리먼트들을 파싱함으로써 현재 비디오 슬라이스의 비디오 블록에 대한 예측 정보를 결정하고, 그 예측 정보를 사용하여 디코딩되고 있는 현재 비디오 블록에 대한 예측성 블록들을 생성한다. 예를 들어, 모션 보상 부 (72) 는 수신된 신택스 엘리먼트들의 일부를 이용하여, 비디오 슬라이스의 비디오 블록들을 코딩하는데 사용된 예측 모드 (예컨대, 인트라 또는 인터 예측), 인터 예측 슬라이스 유형 (예컨대, B 슬라이스 또는 P 슬라이스), 슬라이스에 대한 참조 픽처 리스트들 중 하나 이상에 대한 구축 정보, 슬라이스의 각각의 인터 인코딩된 비디오 블록에 대한 모션 벡터들, 슬라이스의 각각의 인터 코딩된 비디오 블록에 대한 인터 예측 스테이터스, 및 현재 비디오 슬라이스 내의 비디오 블록들을 디코딩하기 위한 다른 정보를 결정한다.
모션 보상 부 (72) 는 보간 필터들에 기초하여 보간을 또한 수행할 수도 있다. 모션 보상 부 (72) 는 비디오 블록들의 인코딩 동안에 비디오 인코더 (20) 에 의해 사용된 것과 같은 보간 필터들을 사용하여 참조 블록들의 부 정수 화소들에 대한 보간된 값들을 계산할 수도 있다. 이 경우, 모션 보상 부 (72) 는 수신된 신택스 엘리먼트들로부터 비디오 인코더 (20) 에 의해 사용된 보간 필터들을 결정하고 그 보간 필터들을 사용하여 예측성 블록들을 생성할 수도 있다.
역 양자화 부 (76) 는 비트스트림으로 제공되고 엔트로피 디코딩 부 (70) 에 의해 디코딩된 양자화된 변환 계수들을 역 양자화, 즉, 탈 양자화한다. 역 양자화 프로세스는 양자화 정도와, 마찬가지로 적용되어야 할 역 양자화의 정도를 결정하기 위해, 비디오 슬라이스에서의 각각의 비디오 블록에 대해 비디오 디코더 (30) 에 의해 계산된 양자화 파라미터 (QPY) 의 사용을 포함할 수도 있다. 역 변환 프로세싱 부 (78) 는 화소 도메인에서 잔차 블록들을 생성하기 위하여 역 변환, 예컨대, 역 DCT, 역 정수 변환, 또는 개념적으로 유사한 역 변환 프로세스를 변환 계수들에 적용한다.
모션 보상 부 (72) 가 현재 비디오 블록에 대한 예측성 블록을 모션 벡터들 및 다른 신택스 엘리먼트들에 기초하여 생성한 후, 비디오 디코더 (30) 는 역 변환 프로세싱 부 (78) 로부터의 잔차 블록들을 모션 보상 부 (72) 에 의해 생성된 대응하는 예측성 블록들과 합산함으로써 디코딩된 비디오 블록을 형성한다. 합산기 (80) 는 이 합산 동작을 수행하는 컴포넌트 또는 컴포넌트들을 나타낸다. 원한다면, 블록화제거 필터가 블록현상 아티팩트들을 제거하기 위하여 디코딩된 블록들을 필터링하는데 또한 적용될 수도 있다. 다른 루프 필터들이 (코딩 루프 내 또는 코딩 루프 후 중 어느 하나에서) 화소 전환 (transition) 들을 부드럽게 하기 위해, 또는 그렇지 않으면 비디오 품질을 개선하기 위해 또한 사용될 수도 있다. 주어진 프레임 또는 픽처에서의 디코딩된 비디오 블록들은 그러면 디코딩된 픽처 버퍼 (82) 에 저장되며, 그 디코딩된 픽처 버퍼는 후속 모션 보상을 위해 사용되는 참조 픽처들을 저장한다. 디코딩된 픽처 버퍼 (82) 는 디스플레이 디바이스, 이를테면 도 1의 디스플레이 디바이스 (32) 상의 나중의 프레젠테이션을 위해 디코딩된 비디오를 또한 저장한다.
도 14는 본 개시물의 기법들에 따른 예시적인 HDR/WCG 변환 프로세스를 도시하는 흐름도이다. 도 14의 기법들은 비디오 프리프로세서 (19) 및/또는 비디오 인코더 (20) 중 하나 이상을 포함하는 도 1의 소스 디바이스 (12) 에 의해 실행될 수도 있다.
본 개시물의 하나의 예에서, 소스 디바이스 (12) 는 비디오 데이터를 인코딩하도록 구성될 수도 있다. 그런 디바이스는 비디오 데이터로부터 조정된 성분 값들을 생성하기 위해 비디오 데이터에 대해 동적 범위 조정을 수행하고 (1502), 적어도 하나의 보충적 향상 정보 (SEI) 메시지가 동적 범위 조정이 비디오 데이터에 적용된 방법을 특정하는 조정 정보를 나타내며, 조정 정보가 비디오 데이터가 동적 범위 조정 동안 파티셔닝되었던 복수의 파티션들 중 각각의 파티션에 적용되는 글로벌 오프셋 값을 포함하는, 상기 적어도 하나의 SEI 메시지를 인코딩된 비디오 비트스트림에서 시그널링 (1504) 할 수도 있다. 도 14의 예에서, 비디오 데이터는 비디오 인코딩에 앞선 입력 비디오 데이터이다. 일부 다른 예들에서, 소스 디바이스는, 적어도 하나의 SEI 메시지가 역 동적 범위 조정이 디코더에 의해 비디오 데이터에 적용되는 방법을 특정하는 조정 정보를 나타내고 조정 정보는 비디오 데이터가 동적 범위 조정 동안 파티셔닝될 복수의 파티션들 중 각각의 파티션에 적용되는 글로벌 오프셋 값을 포함하는, 상기 적어도 하나의 SEI 메시지를 인코딩된 비디오 비트스트림에서 시그널링할 수도 있다 (1504).
일부 예들에서, 글로벌 오프셋 값은 제 1 글로벌 오프셋 값이며, 제 1 글로벌 오프셋 값은, 비디오 데이터에 대해 동적 범위 조정을 수행하기에 앞서, 제 1 글로벌 오프셋 값 미만의 비조정된 성분 값들에 대해 대체되고, 조정 정보는 제 2 글로벌 오프셋 값을 더 포함하고, 비디오 데이터에 대해 동적 범위 조정을 수행하는 것은, 제 1 글로벌 오프셋 값에 일치하는 성분 값을 제 2 글로벌 오프셋 값에 매핑하는 것을 포함한다.
다른 예들에서, 조정 정보는 비디오 데이터가 동적 범위 조정 동안 파티셔닝되었던 파티션들의 수, 하나 이상의 파티션들에 대한 스케일 및 로컬 오프셋 값을 더 포함하고, 동적 범위 조정을 수행하는 것은, 파티션들의 수와, 하나 이상의 파티션들에 대한 스케일 및 로컬 오프셋들에 따라 조정된 성분 값들을 생성하는 것을 포함한다 (1506).
도 15는 본 개시물의 기법들에 따른 예시적인 HDR/WCG 역 변환 프로세스를 도시하는 흐름도이다. 도 15의 기법들은 비디오 포스트프로세서 (31) 및/또는 비디오 디코더 (30) 중 하나 이상을 포함하는 도 1의 목적지 디바이스 (14) 에 의해 실행될 수도 있다.
본 개시물의 하나의 예에서, 목적지 디바이스 (14) 는 동적 범위 조정을 수행함으로써 조정된 비디오 데이터를 디코딩하도록 구성될 수도 있다. 그런 디바이스는, 적어도 하나의 보충적 향상 정보 (SEI) 메시지가 동적 범위 조정이 비디오 데이터에 적용된 방법을 특정하는 조정 정보를 나타내고, 조정 정보는 비디오 데이터가 동적 범위 조정 동안 파티셔닝되었던 복수의 파티션들 중 각각의 파티션에 적용되는 글로벌 오프셋 값을 포함하는, 상기 적어도 하나의 SEI 메시지를 인코딩된 비디오 비트스트림에서 수신하고 (1602), 비디오 데이터로부터 비조정된 성분 값들을 생성하기 위해 조정 정보에 따라서 비디오 데이터에 대해 역 동적 범위 조정을 수행 (1604) 할 수도 있다. 도 15의 예에서, 비디오 데이터는 디코딩된 비디오 데이터이다. 다른 예들에서, 디바이스는, 적어도 하나의 보충적 향상 정보 (SEI) 메시지가 동적 범위 조정이 비디오 데이터에 적용될 방법을 특정하는 조정 정보를 나타내고, 조정 정보는 비디오 데이터가 역 동적 범위 조정 동안 파티셔닝될 복수의 파티션들 중 각각의 파티션에 적용되는 글로벌 오프셋 값을 포함하는, 상기 적어도 하나의 SEI 메시지를 인코딩된 비디오 비트스트림에서 수신하고 (1604), 비디오 데이터로부터 비조정된 성분 값들을 생성하기 위해 조정 정보에 따라서 비디오 데이터에 대해 역 동적 범위 조정을 수행 (1604) 할 수도 있다.
일부 예들에서, 글로벌 오프셋 값은 제 1 글로벌 오프셋 값이며, 제 1 글로벌 오프셋 값은, 비디오 데이터에 대해 동적 범위 조정을 수행하기에 앞서, 제 1 글로벌 오프셋 값 미만의 비조정된 성분 값들에 대해 대체되고, 조정 정보는 제 2 글로벌 오프셋 값을 더 포함하고, 비디오 데이터에 대해 역 동적 범위 조정을 수행하는 것은, 제 2 글로벌 오프셋 값에 일치하는 성분 값을 제 1 글로벌 오프셋 값에 매핑하는 것을 포함한다.
다른 예들에서, 조정 정보는 비디오 데이터가 동적 범위 조정 동안 파티셔닝되었던 파티션들의 수와, 하나 이상의 파티션들에 대한 스케일 및 로컬 오프셋을 더 포함하고, 역 동적 범위 조정을 수행하는 것은, 파티션들의 수와 하나 이상의 파티션들에 대한 스케일 및 오프셋에 따라 비조정된 성분 값들을 생성하는 것 (1606) 을 포함한다.
본 개시물의 특정한 양태들은 예시의 목적으로 HEVC 표준의 확장본들에 대해 설명되었다. 그러나, 본 개시물에서 설명된 기법들은, 아직 개발되지 않은 다른 표준 또는 사유의 비디오 코딩 프로세스들을 포함하는 다른 비디오 코딩 프로세스들에 대해 유용할 수도 있다.
비디오 코더는, 본 개시물에서 설명된 바와 같이, 비디오 인코더 또는 비디오 디코더를 지칭할 수도 있다. 마찬가지로, 비디오 코딩 유닛은 비디오 인코더 또는 비디오 디코더를 지칭할 수도 있다. 비슷하게, 비디오 코딩은 해당되는 경우 비디오 인코딩 또는 비디오 디코딩을 지칭할 수도 있다.
예에 의존하여, 상이한 시퀀스로 수행될 수도 있는 본 명세서에서 설명된 기법들 중 임의의 기법의 특정 액트들 또는 이벤트들이 추가되거나, 병합되거나, 또는 다 함께 제외될 수도 있다 (예컨대, 모든 설명된 액트들 또는 이벤트들이 그 기법들의 실용화에 필요한 것은 아니다) 는 것이 이해되어야 한다. 더구나, 특정 예들에서, 액트들 또는 이벤트들은 순차적으로라기 보다는, 예컨대, 다중 스레드식 프로세싱, 인터럽트 프로세싱, 또는 다수의 프로세서들을 통하여 동시에 수행될 수도 있다.
하나 이상의 예들에서, 설명된 기능들은 하드웨어, 소프트웨어, 펌웨어, 또는 그것들의 임의의 조합으로 구현될 수도 있다. 소프트웨어로 구현된다면, 그 기능들은 하나 이상의 명령들 또는 코드로서 컴퓨터 판독가능 매체 상에 저장되거나 또는 그것을 통해 송신될 수도 있고 하드웨어 기반 프로세싱 유닛에 의해 실행될 수도 있다. 컴퓨터 판독가능 매체들은, 데이터 저장 매체들과 같은 유형의 (tangible) 매체에 대응하는 컴퓨터 판독가능 저장 매체들, 또는 예컨대 통신 프로토콜에 따라 한 장소에서 다른 장소로 컴퓨터 프로그램의 전달을 용이하게 하는 임의의 매체를 포함하는 통신 매체들을 포함할 수도 있다. 이런 방식으로, 컴퓨터 판독가능 매체들은 일반적으로 (1) 비일시적인 유형의 컴퓨터 판독가능 저장 매체들 또는 (2) 신호 또는 반송파와 같은 통신 매체에 해당할 수도 있다. 데이터 저장 매체들은 본 개시물에서 설명된 기법들의 구현을 위한 명령들, 코드 및/또는 데이터 구조들을 취출하기 위해 하나 이상의 컴퓨터들 또는 하나 이상의 프로세서들에 의해 액세스될 수 있는 임의의 이용가능 매체들일 수도 있다. 컴퓨터 프로그램 제품은 컴퓨터 판독가능 매체를 포함할 수도 있다.
비제한적인 예로, 이러한 컴퓨터 판독가능 저장 매체들은 RAM, ROM, EEPROM, CD-ROM 또는 다른 광 디스크 스토리지, 자기 디스크 스토리지, 또는 다른 자기 저장 디바이스들, 플래시 메모리, 또는 소망의 프로그램 코드를 컴퓨터에 의해 액세스될 수 있는 명령들 또는 데이터 구조들의 형태로 저장하는데 사용될 수 있는 임의의 다른 매체를 포함할 수 있다. 또한, 임의의 접속이 컴퓨터 판독가능 매체로 적절히 칭해진다. 예를 들어, 명령들이 웹사이트, 서버, 또는 다른 원격 리소스로부터 동축 케이블, 광섬유 케이블, 연선 (twisted pair), 디지털 가입자 회선 (DSL), 또는 무선 기술들 이를테면 적외선, 라디오, 및/또는 마이크로파를 이용하여 송신된다면, 동축 케이블, 광섬유 케이블, 연선, DSL, 또는 적외선, 라디오, 및 마이크로파와 같은 무선 기술은 매체의 정의에 포함된다. 그러나, 컴퓨터 판독가능 저장 매체들 및 데이터 저장 매체들은 커넥션들, 반송파들, 신호들, 또는 다른 일시적 매체들을 포함하지 않지만, 대신 비일시적, 유형의 저장 매체들을 지향하고 있음이 이해되어야 한다. 디스크 (disk 및 disc) 는 본원에서 사용되는 바와 같이, 콤팩트 디스크 (compact disc, CD), 레이저 디스크, 광 디스크, 디지털 다용도 디스크 (DVD), 플로피 디스크 (floppy disk) 및 블루레이 디스크를 포함하는데, disk들은 보통 데이터를 자기적으로 재생하지만, disc들은 레이저들로써 광적으로 데이터를 재생한다. 상기한 것들의 조합들은 컴퓨터 판독가능 매체들의 범위 내에 또한 포함되어야 한다.
명령들은 하나 이상의 프로세서들, 이를테면 하나 이상의 디지털 신호 프로세서들 (DSP들), 범용 마이크로프로세서들, 주문형 집적회로들 (ASIC들), 필드 프로그램가능 로직 어레이들 (FPGA들), 또는 다른 동등한 집적 또는 개별 로직 회로에 의해 실행될 수도 있다. 따라서, 본 명세서에서 사용되는 바와 같은 "프로세서"라는 용어는 앞서의 구조 또는 본 명세서에서 설명된 기법들의 구현에 적합한 임의의 다른 구조 중 임의의 것을 나타낼 수도 있다. 덧붙여서, 일부 양태들에서, 본 명세서에서 설명된 기능성은 인코딩 및 디코딩을 위해 구성되는, 또는 결합형 코덱으로 통합되는 전용 하드웨어 및/또는 소프트웨어 모듈들 내에 제공될 수도 있다. 또한, 본 기법들은 하나 이상의 회로들 또는 로직 엘리먼트들 내에 완전히 구현될 수 있다.
본 개시물의 기법들은 무선 핸드셋, 집적회로 (IC) 또는 IC들의 세트 (예컨대, 칩 셋) 를 포함하는 매우 다양한 디바이스들 또는 장치들로 구현될 수도 있다. 다양한 컴포넌트들, 모듈들, 또는 유닛들이 개시된 기법들을 수행하도록 구성되는 디바이스들의 기능적 양태들을 강조하기 위해 본 개시물에서 설명되지만, 상이한 하드웨어 유닛들에 의한 실현을 반드시 요구하지는 않는다. 대신에, 위에서 설명된 바와 같이, 다양한 유닛들은 코덱 하드웨어 유닛에 결합되거나 또는 적합한 소프트웨어 및/또는 펌웨어에 연계하여, 위에서 설명된 바와 같은 하나 이상의 프로세서들을 포함한 상호운용적 하드웨어 유닛들의 컬렉션에 의해 제공될 수도 있다.
다양한 예들이 설명되어 있다. 이들 및 다른 예들은 다음의 청구항들의 범위 내에 있을 수도 있다.

Claims (73)

  1. 동적 범위 조정을 수행함으로써 조정된 비디오 데이터를 디코딩하는 방법으로서,
    인코딩된 비디오 비트스트림으로부터 적어도 하나의 신택스 구조를 수신하는 단계로서, 상기 적어도 하나의 신택스 구조는 상기 동적 범위 조정이 상기 비디오 데이터에 적용된 방법을 특정하는 조정 정보를 나타내고,
    상기 조정 정보는:
    상기 비디오 데이터가 상기 동적 범위 조정 동안 파티셔닝되었던 하나 이상의 파티션들 중 각각의 파티션에 적용되는 글로벌 오프셋 값, 및
    상기 비디오 데이터가 상기 동적 범위 조정 동안 파티셔닝되었던 파티션들의 수를 포함하는, 상기 적어도 하나의 신택스 구조를 수신하는 단계; 및
    상기 비디오 데이터로부터 비조정된 성분 값들을 생성하기 위해 상기 조정 정보에 따라서 상기 비디오 데이터에 대해 역 동적 범위 조정을 수행하는 단계로서, 상기 역 동적 범위 조정을 수행하는 단계는 상기 파티션들의 수에 따라 상기 비조정된 성분 값들을 생성하는 단계를 포함하는, 상기 역 동적 범위 조정을 수행하는 단계를 포함하는, 비디오 데이터를 디코딩하는 방법.
  2. 제 1 항에 있어서,
    상기 글로벌 오프셋 값은 제 1 글로벌 오프셋 값이며, 상기 제 1 글로벌 오프셋 값은, 상기 비디오 데이터에 대해 상기 동적 범위 조정을 수행하기에 앞서, 상기 제 1 글로벌 오프셋 값 미만의 비조정된 성분 값들에 대해 대체되며,
    상기 조정 정보는 제 2 글로벌 오프셋 값을 더 포함하고,
    상기 비디오 데이터에 대해 상기 역 동적 범위 조정을 수행하는 단계는,
    상기 제 2 글로벌 오프셋 값에 일치하는 성분 값들을 상기 제 1 글로벌 오프셋 값에 매핑하는 단계를 포함하는, 비디오 데이터를 디코딩하는 방법.
  3. 제 1 항에 있어서,
    상기 글로벌 오프셋 값은 제 1 글로벌 오프셋 값이며, 상기 제 1 글로벌 오프셋 값은, 상기 비디오 데이터에 대해 상기 동적 범위 조정을 수행하기에 앞서, 상기 제 1 글로벌 오프셋 값 미만의 비조정된 성분 값들에 대해 대체되고,
    상기 비디오 데이터에 대해 상기 역 동적 범위 조정을 수행하는 단계는,
    메타데이터, 비디오 유용성 정보, 비디오 파라미터 세트, 시퀀스 파라미터 세트, 픽처 파라미터, 슬라이스 헤더, 또는 CTU 헤더 중 하나 이상으로부터 제 2 글로벌 오프셋 값을 도출하는 단계; 및
    상기 제 2 글로벌 오프셋 값에 일치하는 성분 값들을 상기 제 1 글로벌 오프셋 값에 매핑하는 단계를 포함하는, 비디오 데이터를 디코딩하는 방법.
  4. 제 1 항에 있어서,
    상기 글로벌 오프셋 값은 제 1 글로벌 오프셋 값이며,
    상기 비디오 데이터에 대해 상기 역 동적 범위 조정을 수행하는 단계는,
    메타데이터, 비디오 유용성 정보, 비디오 파라미터 세트, 시퀀스 파라미터 세트, 픽처 파라미터, 슬라이스 헤더, 또는 CTU 헤더 중 하나 이상으로부터 제 2 글로벌 오프셋 값을 도출하는 단계로서, 상기 제 2 글로벌 오프셋 값은, 상기 비디오 데이터에 대해 상기 동적 범위 조정을 수행하기에 앞서, 상기 제 2 글로벌 오프셋 값 미만인 비조정된 성분 값들에 대해 대체되었던 값인, 상기 제 2 글로벌 오프셋 값을 도출하는 단계, 및
    상기 제 1 글로벌 오프셋 값에 일치하는 성분 값들을 상기 제 2 글로벌 오프셋 값에 매핑하는 단계를 포함하는, 비디오 데이터를 디코딩하는 방법.
  5. 제 1 항에 있어서,
    적어도 상기 글로벌 오프셋 값으로부터 추가적인 조정 정보를 도출하는 단계를 더 포함하고, 상기 추가적인 조정 정보는 또한 상기 동적 범위 조정이 상기 비디오 데이터에 적용된 방법을 특정하는, 비디오 데이터를 디코딩하는 방법.
  6. 삭제
  7. 제 1 항에 있어서,
    상기 조정 정보는 하나의 파티션을 특정하고, 상기 하나의 파티션은 모든 성분들에 적용되는, 비디오 데이터를 디코딩하는 방법.
  8. 제 1 항에 있어서,
    상기 비디오 데이터는 루마 성분들과 크로마 성분들을 포함하며, 상기 조정 정보는 상기 루마 성분들이 상기 동적 범위 조정 동안 파티셔닝되었던 제 1 파티션 수, 제 1 크로마 성분 세트가 상기 동적 범위 조정 동안 파티셔닝되었던 제 2 파티션 수, 및 제 2 크로마 성분 세트가 상기 동적 범위 조정 동안 파티셔닝되었던 제 3 파티션 수를 포함하고,
    상기 역 동적 범위 조정을 수행하는 단계는,
    상기 제 1 파티션 수에 따라 비조정된 루마 성분 값들을 생성하는 단계;
    상기 제 2 파티션 수에 따라 상기 제 1 크로마 성분 세트에 대응하는 비조정된 크로마 성분 값들을 생성하는 단계; 및
    상기 제 3 파티션 수에 따라 상기 제 2 크로마 성분 세트에 대응하는 비조정된 크로마 성분 값들을 생성하는 단계를 포함하는, 비디오 데이터를 디코딩하는 방법.
  9. 제 8 항에 있어서,
    상기 제 2 파티션 수는 상기 제 1 파티션 수와는 상이하고, 상기 제 2 파티션 수의 파티션들 중 하나의 파티션은 상기 제 2 파티션 수의 파티션들에서의 임의의 다른 파티션보다 더 작은 뉴트럴 크로마 파티션인, 비디오 데이터를 디코딩하는 방법.
  10. 제 1 항에 있어서,
    상기 비디오 데이터는 적색, 녹색, 및 청색 성분들을 포함하며,
    상기 조정 정보는 상기 적색 성분들이 상기 동적 범위 조정 동안 파티셔닝되었던 제 1 파티션 수, 상기 녹색 성분들이 상기 동적 범위 조정 동안 파티셔닝되었던 제 2 파티션 수, 및 상기 청색 성분들이 상기 동적 범위 조정 동안 파티셔닝되었던 제 3 파티션 수를 포함하고,
    상기 역 동적 범위 조정을 수행하는 단계는,
    상기 제 1 파티션 수에 따라 비조정된 적색 성분 값들을 생성하는 단계;
    상기 제 2 파티션 수에 따라 비조정된 녹색 성분 값들을 생성하는 단계; 및
    상기 제 3 파티션 수에 따라 비조정된 청색 성분 값들을 생성하는 단계를 포함하는, 비디오 데이터를 디코딩하는 방법.
  11. 제 1 항에 있어서,
    상기 파티션들의 수는 상기 파티션들의 수의 함수의 로그로서 표현되는, 비디오 데이터를 디코딩하는 방법.
  12. 제 1 항에 있어서,
    상기 적어도 하나의 신택스 구조로부터 추가적인 조정 정보를 도출하는 단계를 더 포함하고, 상기 추가적인 조정 정보는 또한 상기 동적 범위 조정이 상기 비디오 데이터에 적용된 방법을 특정하는, 비디오 데이터를 디코딩하는 방법.
  13. 제 1 항에 있어서,
    상기 비디오 데이터에 대해 상기 역 동적 범위 조정을 수행하는 단계는,
    상기 비디오 데이터의 각각의 성분에 대한 각각의 입력 샘플에 대해, 상기 입력 샘플이 속하는 파티션을 결정하는 단계, 및
    상기 파티션들 중 각각의 파티션에 대해, 비조정된 성분 값들을 생성하는 단계를 포함하는, 비디오 데이터를 디코딩하는 방법.
  14. 제 13 항에 있어서,
    상기 조정 정보는 파티션들 중 각각의 파티션에 대한 로컬 오프셋 값 및 로컬 스케일 값을 더 포함하고,
    상기 비조정된 성분 값들을 생성하는 단계는,
    상기 로컬 오프셋 값 및 상기 로컬 스케일 값에 따라 상기 비조정된 성분 값들을 생성하는 단계를 포함하는, 비디오 데이터를 디코딩하는 방법.
  15. 제 14 항에 있어서,
    상기 파티션들 중 각각의 파티션에 대한 상기 로컬 오프셋 값은 제 1 비트 수 및 제 2 비트 수에 의해 표현되고, 상기 제 1 비트 수는 상기 로컬 오프셋 값의 정수 부분을 표현하는데 사용되고 상기 제 2 비트 수는 상기 로컬 오프셋 값의 소수 부분을 표현하는데 사용되며, 상기 조정 정보는 상기 제 1 비트 수와 상기 제 2 비트 수를 더 포함하고,
    상기 비디오 데이터에 대해 상기 역 동적 범위 조정을 수행하는 단계는,
    상기 제 1 비트 수 및 상기 제 2 비트 수에 의해 표현된 바와 같은 상기 파티션들 중 각각의 파티션에 대한 상기 로컬 오프셋 값에 따라 상기 비조정된 성분 값들을 생성하는 단계를 포함하는, 비디오 데이터를 디코딩하는 방법.
  16. 제 14 항에 있어서,
    상기 파티션들 중 각각의 파티션에 대한 상기 로컬 스케일 값은 제 1 비트 수 및 제 2 비트 수에 의해 표현되고, 상기 제 1 비트 수는 상기 로컬 스케일 값의 정수 부분을 표현하는데 사용되고 상기 제 2 비트 수는 상기 로컬 스케일 값의 소수 부분을 표현하는데 사용되며, 상기 조정 정보는 상기 제 1 비트 수와 상기 제 2 비트 수를 더 포함하고,
    상기 비디오 데이터에 대해 상기 역 동적 범위 조정을 수행하는 단계는,
    상기 제 1 비트 수 및 상기 제 2 비트 수에 의해 표현된 바와 같은 상기 파티션들 중 각각의 파티션에 대한 상기 로컬 스케일 값에 따라 상기 비조정된 성분 값들을 생성하는 단계를 포함하는, 비디오 데이터를 디코딩하는 방법.
  17. 제 16 항에 있어서,
    상기 스케일 값의 상기 정수 부분은 부호 있는 크기 포맷 또는 2의 보수 표기법 중 하나로 표현되는, 비디오 데이터를 디코딩하는 방법.
  18. 제 14 항에 있어서,
    상기 파티션들 중 각각의 파티션에 대한 상기 로컬 스케일 값은 상기 파티션들 중 각각의 파티션에 대한 제 1 성분 로컬 스케일 값이며,
    상기 조정 정보는 상기 파티션들 중 각각의 파티션에 대한 제 2 성분 로컬 스케일 값을 더 포함하며,
    상기 파티션들 중 각각의 파티션에 대한 상기 제 1 성분 로컬 스케일 값은 제 1 비트 수에 의해 표현되며, 상기 파티션들 중 각각의 파티션에 대한 상기 제 2 성분 로컬 스케일 값은 제 2 비트 수에 의해 표현되며,
    상기 조정 정보는 상기 제 1 비트 수와 상기 제 2 비트 수를 더 포함하며, 상기 제 2 비트 수는 상기 제 1 비트 수와는 상이하고,
    상기 비디오 데이터에 대해 상기 역 동적 범위 조정을 수행하는 단계는,
    상기 파티션들 중 각각의 파티션에 대한 상기 제 1 성분 로컬 스케일 값에 따라 제 1 성분 비조정된 성분 값들을 생성하는 단계; 및
    상기 파티션들 중 각각의 파티션에 대한 상기 제 2 성분 로컬 스케일 값에 따라 제 2 성분 비조정된 성분 값들을 생성하는 단계를 포함하는, 비디오 데이터를 디코딩하는 방법.
  19. 제 14 항에 있어서,
    상기 파티션들 중 각각의 파티션에 대한 상기 로컬 오프셋 값은 상기 파티션들 중 각각의 파티션에 대한 제 1 성분 로컬 오프셋 값이며,
    상기 조정 정보는 상기 파티션들 중 각각의 파티션에 대한 제 2 성분 로컬 오프셋 값을 더 포함하며,
    상기 파티션들 중 각각의 파티션에 대한 상기 제 1 성분 로컬 오프셋 값은 제 1 비트 수에 의해 표현되며, 상기 파티션들 중 각각의 파티션에 대한 상기 제 2 성분 로컬 오프셋 값은 제 2 비트 수에 의해 표현되며,
    상기 조정 정보는 상기 제 1 비트 수와 상기 제 2 비트 수를 더 포함하며, 상기 제 2 비트 수는 상기 제 1 비트 수와는 상이하고,
    상기 비디오 데이터에 대해 상기 역 동적 범위 조정을 수행하는 단계는,
    상기 파티션들 중 각각의 파티션에 대한 상기 제 1 성분 로컬 오프셋 값에 따라 제 1 성분 비조정된 성분 값들을 생성하는 단계; 및
    상기 파티션들 중 각각의 파티션에 대한 상기 제 2 성분 로컬 오프셋 값에 따라 제 2 성분 비조정된 성분 값들을 생성하는 단계를 포함하는, 비디오 데이터를 디코딩하는 방법.
  20. 제 1 항에 있어서,
    상기 조정 정보는 상기 파티션들이 동일 사이즈인지의 여부를 나타내는, 비디오 데이터를 디코딩하는 방법.
  21. 제 1 항에 있어서,
    상기 조정 정보는, 상기 파티션들 중 각각의 파티션에 대해, 스케일 값과 사이즈 값을 포함하는, 비디오 데이터를 디코딩하는 방법.
  22. 제 1 항에 있어서,
    디스플레이 디바이스 상에 동적 범위 조정된 비디오 데이터를 디스플레이하는 단계를 더 포함하는, 비디오 데이터를 디코딩하는 방법.
  23. 비디오 데이터를 인코딩하는 방법으로서,
    상기 비디오 데이터로부터 조정된 동적 성분 값들을 생성하기 위해 상기 비디오 데이터에 대해 동적 범위 조정을 수행하는 단계; 및
    인코딩된 비디오 비트스트림에서 적어도 하나의 신택스 구조를 생성하는 단계로서, 상기 적어도 하나의 신택스 구조는 상기 동적 범위 조정이 상기 비디오 데이터에 적용된 방법을 특정하는 조정 정보를 나타내고,
    상기 조정 정보는:
    상기 비디오 데이터가 동적 범위 조정 동안 파티셔닝되었던 하나 이상의 파티션들 중 각각의 파티션에 적용되는 글로벌 오프셋 값, 및
    상기 비디오 데이터가 상기 동적 범위 조정 동안 파티셔닝되었던 파티션들의 수를 포함하는, 상기 적어도 하나의 신택스 구조를 생성하는 단계를 포함하고; 그리고
    상기 동적 범위 조정을 수행하는 단계는 상기 파티션들의 수에 따라 상기 조정된 성분 값들을 생성하는 단계를 포함하는, 비디오 데이터를 인코딩하는 방법.
  24. 제 23 항에 있어서,
    상기 글로벌 오프셋 값은 제 1 글로벌 오프셋 값이며, 상기 제 1 글로벌 오프셋 값은, 상기 비디오 데이터에 대해 상기 동적 범위 조정을 수행하기에 앞서, 상기 제 1 글로벌 오프셋 값 미만의 비조정된 성분 값들에 대해 대체되며,
    상기 조정 정보는 제 2 글로벌 오프셋 값을 더 포함하고,
    상기 비디오 데이터에 대해 상기 동적 범위 조정을 수행하는 단계는,
    상기 제 1 글로벌 오프셋 값에 일치하는 성분 값들을 상기 제 2 글로벌 오프셋 값에 매핑하는 단계를 포함하는, 비디오 데이터를 인코딩하는 방법.
  25. 제 23 항에 있어서,
    상기 글로벌 오프셋 값은 제 1 글로벌 오프셋 값이며, 상기 제 1 글로벌 오프셋 값은, 상기 비디오 데이터에 대해 상기 동적 범위 조정을 수행하기에 앞서, 상기 제 1 글로벌 오프셋 값 미만의 비조정된 성분 값들에 대해 대체되고,
    상기 비디오 데이터에 대해 상기 동적 범위 조정을 수행하는 단계는,
    메타데이터, 비디오 유용성 정보, 비디오 파라미터 세트, 시퀀스 파라미터 세트, 픽처 파라미터, 슬라이스 헤더, 또는 CTU 헤더 중 하나 이상에서 제 2 글로벌 오프셋 값을 생성하는 단계; 및
    상기 제 1 글로벌 오프셋 값에 일치하는 성분 값들을 상기 제 2 글로벌 오프셋 값에 매핑하는 단계를 포함하는, 비디오 데이터를 인코딩하는 방법.
  26. 제 23 항에 있어서,
    상기 글로벌 오프셋 값은 제 1 글로벌 오프셋 값이며,
    상기 비디오 데이터에 대해 상기 동적 범위 조정을 수행하는 단계는,
    메타데이터, 비디오 유용성 정보, 비디오 파라미터 세트, 시퀀스 파라미터 세트, 픽처 파라미터, 슬라이스 헤더, 또는 CTU 헤더 중 하나 이상에서 제 2 글로벌 오프셋 값을 생성하는 단계로서, 상기 제 2 글로벌 오프셋 값은, 상기 비디오 데이터에 대해 상기 동적 범위 조정을 수행하기에 앞서, 상기 제 2 글로벌 오프셋 값 미만인 비조정된 성분 값들에 대해 대체되었던 값인, 상기 제 2 글로벌 오프셋 값을 생성하는 단계, 및
    상기 제 1 글로벌 오프셋 값에 일치하는 성분 값들을 상기 제 2 글로벌 오프셋 값에 매핑하는 단계를 포함하는, 비디오 데이터를 인코딩하는 방법.
  27. 제 23 항에 있어서,
    상기 글로벌 오프셋 값에 기초하여 추가적인 조정 정보를 생성하는 단계를 더 포함하고, 상기 추가적인 조정 정보는 또한 상기 동적 범위 조정이 상기 비디오 데이터에 적용된 방법을 특정하는, 비디오 데이터를 인코딩하는 방법.
  28. 삭제
  29. 제 26 항에 있어서,
    상기 조정 정보는 하나의 파티션을 특정하고, 상기 하나의 파티션은 모든 성분들에 적용되는, 비디오 데이터를 인코딩하는 방법.
  30. 제 23 항에 있어서,
    상기 비디오 데이터는 루마 성분들과 크로마 성분들을 포함하며, 상기 조정 정보는 상기 루마 성분들이 상기 동적 범위 조정 동안 파티셔닝되었던 제 1 파티션 수, 제 1 크로마 성분 세트가 상기 동적 범위 조정 동안 파티셔닝되었던 제 2 파티션 수, 및 제 2 크로마 성분 세트가 상기 동적 범위 조정 동안 파티셔닝되었던 제 3 파티션 수를 포함하고,
    상기 동적 범위 조정을 수행하는 단계는,
    상기 제 1 파티션 수에 따라 조정된 루마 성분 값들을 생성하는 단계;
    상기 제 2 파티션 수에 따라 상기 제 1 크로마 성분 세트에 대응하는 조정된 크로마 성분 값들을 생성하는 단계; 및
    상기 제 3 파티션 수에 따라 상기 제 2 크로마 성분 세트에 대응하는 조정된 크로마 성분 값들을 생성하는 단계를 포함하는, 비디오 데이터를 인코딩하는 방법.
  31. 제 30 항에 있어서,
    상기 제 2 파티션 수는 상기 제 1 파티션 수와는 상이하고, 상기 제 2 파티션 수의 파티션들 중 하나의 파티션은 상기 제 2 파티션 수의 파티션들에서의 임의의 다른 파티션보다 더 작은 뉴트럴 크로마 파티션인, 비디오 데이터를 인코딩하는 방법.
  32. 제 23 항에 있어서,
    상기 비디오 데이터는 적색, 녹색, 및 청색 성분들을 포함하며,
    상기 조정 정보는 상기 적색 성분들이 상기 동적 범위 조정 동안 파티셔닝되었던 제 1 파티션 수, 상기 녹색 성분들이 상기 동적 범위 조정 동안 파티셔닝되었던 제 2 파티션 수, 및 상기 청색 성분들이 상기 동적 범위 조정 동안 파티셔닝되었던 제 3 파티션 수를 포함하고,
    상기 동적 범위 조정을 수행하는 단계는,
    상기 제 1 파티션 수에 따라 조정된 적색 성분 값들을 생성하는 단계;
    상기 제 2 파티션 수에 따라 조정된 녹색 성분 값들을 생성하는 단계; 및
    상기 제 2 파티션 수에 따라 조정된 청색 성분 값들을 생성하는 단계를 포함하는, 비디오 데이터를 인코딩하는 방법.
  33. 제 23 항에 있어서,
    상기 파티션들의 수는 상기 파티션들의 수의 함수의 로그로서 표현되는, 비디오 데이터를 인코딩하는 방법.
  34. 제 23 항에 있어서,
    상기 파티션들의 수에 기초하여 추가적인 조정 정보를 생성하는 단계를 더 포함하고, 상기 추가적인 조정 정보는 또한 상기 동적 범위 조정이 상기 비디오 데이터에 적용된 방법을 특정하는, 비디오 데이터를 인코딩하는 방법.
  35. 제 26 항에 있어서,
    상기 비디오 데이터에 대해 상기 동적 범위 조정을 수행하는 단계는,
    상기 비디오 데이터의 각각의 성분에 대한 각각의 입력 샘플에 대해, 상기 입력 샘플이 속하는 파티션을 결정하는 단계, 및
    상기 파티션들 중 각각의 파티션에 대해, 조정된 성분 값들을 생성하는 단계를 포함하는, 비디오 데이터를 인코딩하는 방법.
  36. 제 35 항에 있어서,
    상기 조정 정보는 상기 파티션들 중 각각의 파티션에 대한 로컬 오프셋 값 및 로컬 스케일 값을 더 포함하고,
    상기 비디오 데이터에 대해 상기 동적 범위 조정을 수행하는 단계는,
    상기 로컬 오프셋 값 및 상기 로컬 스케일 값에 따라 상기 조정된 성분 값들을 생성하는 단계를 포함하는, 비디오 데이터를 인코딩하는 방법.
  37. 제 36 항에 있어서,
    상기 파티션들 중 각각의 파티션에 대한 상기 로컬 오프셋 값은 제 1 비트 수 및 제 2 비트 수에 의해 표현되고, 상기 제 1 비트 수는 상기 로컬 오프셋 값의 정수 부분을 표현하는데 사용되고 상기 제 2 비트 수는 상기 로컬 오프셋 값의 소수 부분을 표현하는데 사용되며, 상기 조정 정보는 상기 제 1 비트 수와 상기 제 2 비트 수를 더 포함하고,
    상기 비디오 데이터에 대해 상기 동적 범위 조정을 수행하는 단계는,
    상기 제 1 비트 수 및 상기 제 2 비트 수에 의해 표현된 바와 같은 상기 파티션들 중 각각의 파티션에 대한 상기 로컬 오프셋 값에 따라 상기 조정된 성분 값들을 생성하는 단계를 포함하는, 비디오 데이터를 인코딩하는 방법.
  38. 제 36 항에 있어서,
    상기 파티션들 중 각각의 파티션에 대한 상기 로컬 스케일 값은 제 1 비트 수 및 제 2 비트 수에 의해 표현되고, 상기 제 1 비트 수는 상기 로컬 스케일 값의 정수 부분을 표현하는데 사용되고 상기 제 2 비트 수는 상기 로컬 스케일 값의 소수 부분을 표현하는데 사용되며, 상기 조정 정보는 상기 제 1 비트 수와 상기 제 2 비트 수를 더 포함하고,
    상기 비디오 데이터에 대해 상기 동적 범위 조정을 수행하는 단계는,
    상기 제 1 비트 수 및 상기 제 2 비트 수에 의해 표현된 바와 같은 상기 파티션들 중 각각의 파티션에 대한 상기 로컬 스케일 값에 따라 상기 조정된 성분 값들을 생성하는 단계를 포함하는, 비디오 데이터를 인코딩하는 방법.
  39. 제 38 항에 있어서,
    상기 스케일 값의 상기 정수 부분은 부호 있는 크기 포맷 또는 2의 보수 표기법 중 하나로 표현되는, 비디오 데이터를 인코딩하는 방법.
  40. 제 36 항에 있어서,
    상기 파티션들 중 각각의 파티션에 대한 상기 로컬 스케일 값은 상기 파티션들 중 각각의 파티션에 대한 제 1 성분 로컬 스케일 값이며,
    상기 조정 정보는 상기 파티션들 중 각각의 파티션에 대한 제 2 성분 로컬 스케일 값을 더 포함하며,
    상기 파티션들 중 각각의 파티션에 대한 상기 제 1 성분 로컬 스케일 값은 제 1 비트 수에 의해 표현되며, 상기 파티션들 중 각각의 파티션에 대한 상기 제 2 성분 로컬 스케일 값은 제 2 비트 수에 의해 표현되며,
    상기 조정 정보는 상기 제 1 비트 수와 상기 제 2 비트 수를 더 포함하며, 상기 제 2 비트 수는 상기 제 1 비트 수와는 상이하고,
    상기 비디오 데이터에 대해 상기 동적 범위 조정을 수행하는 단계는,
    상기 파티션들 중 각각의 파티션에 대한 상기 제 1 성분 로컬 스케일 값에 따라 제 1 성분 조정된 성분 값들을 생성하는 단계; 및
    상기 파티션들 중 각각의 파티션에 대한 상기 제 2 성분 로컬 스케일 값에 따라 제 2 성분 조정된 성분 값들을 생성하는 단계를 포함하는, 비디오 데이터를 인코딩하는 방법.
  41. 제 36 항에 있어서,
    상기 파티션들 중 각각의 파티션에 대한 상기 로컬 오프셋 값은 상기 파티션들 중 각각의 파티션에 대한 제 1 성분 로컬 오프셋 값이며,
    상기 조정 정보는 상기 파티션들 중 각각의 파티션에 대한 제 2 성분 로컬 오프셋 값을 더 포함하며,
    상기 파티션들 중 각각의 파티션에 대한 상기 제 1 성분 로컬 오프셋 값은 제 1 비트 수에 의해 표현되며, 상기 파티션들 중 각각의 파티션에 대한 상기 제 2 성분 로컬 오프셋 값은 제 2 비트 수에 의해 표현되며,
    상기 조정 정보는 상기 제 1 비트 수와 상기 제 2 비트 수를 더 포함하며, 상기 제 2 비트 수는 상기 제 1 비트 수와는 상이하고,
    상기 비디오 데이터에 대해 상기 동적 범위 조정을 수행하는 단계는,
    상기 파티션들 중 각각의 파티션에 대한 상기 제 1 성분 로컬 오프셋 값에 따라 제 1 성분 조정된 성분 값들을 생성하는 단계; 및
    상기 파티션들 중 각각의 파티션에 대한 상기 제 2 성분 로컬 오프셋 값에 따라 제 2 성분 조정된 성분 값들을 생성하는 단계를 포함하는, 비디오 데이터를 인코딩하는 방법.
  42. 제 23 항에 있어서,
    상기 조정 정보는 상기 파티션들이 동일 사이즈인지의 여부를 나타내는, 비디오 데이터를 인코딩하는 방법.
  43. 제 23 항에 있어서,
    상기 조정 정보는, 상기 파티션들 중 각각의 파티션에 대해, 스케일 값과 사이즈 값을 포함하는, 비디오 데이터를 인코딩하는 방법.
  44. 동적 범위 조정을 수행함으로써 조정된 비디오 데이터를 디코딩하도록 구성되는 장치로서,
    상기 비디오 데이터를 저장하도록 구성되는 메모리; 및
    하나 이상의 프로세서들을 포함하며,
    상기 하나 이상의 프로세서들은,
    인코딩된 비디오 비트스트림에서 적어도 하나의 신택스 구조를 수신하는 것으로서, 상기 적어도 하나의 신택스 구조는 상기 동적 범위 조정이 상기 비디오 데이터에 적용된 방법을 특정하는 조정 정보를 나타내고,
    상기 조정 정보는:
    상기 비디오 데이터가 동적 범위 조정 동안 파티셔닝되었던 하나 이상의 파티션들 중 각각의 파티션에 적용되는 글로벌 오프셋 값, 및
    상기 비디오 데이터가 상기 동적 범위 조정 동안 파티셔닝되었던 파티션들의 수를 포함하는, 상기 적어도 하나의 신택스 구조를 수신하는 것, 그리고
    상기 비디오 데이터로부터 비조정된 성분 값들을 생성하기 위해 상기 조정 정보에 따라서 상기 비디오 데이터에 대해 역 동적 범위 조정을 수행하는 것으로서, 상기 역 동적 범위 조정을 수행하는 것은 상기 파티션들의 수에 따라 상기 비조정된 성분 값들을 생성하는 것을 포함하는, 상기 역 동적 범위 조정을 수행하는 것
    을 하도록 구성되고, 비디오 데이터를 디코딩하도록 구성되는 장치.
  45. 제 44 항에 있어서,
    상기 글로벌 오프셋 값은 제 1 글로벌 오프셋 값이며, 상기 제 1 글로벌 오프셋 값은, 상기 비디오 데이터에 대해 상기 동적 범위 조정을 수행하기에 앞서, 상기 제 1 글로벌 오프셋 값 미만의 비조정된 성분 값들에 대해 대체되며,
    상기 조정 정보는 제 2 글로벌 오프셋 값을 더 포함하고,
    상기 비디오 데이터에 대해 상기 역 동적 범위 조정을 수행하는 것은,
    상기 제 2 글로벌 오프셋 값에 일치하는 성분 값들을 상기 제 1 글로벌 오프셋 값에 매핑하는 것을 포함하는, 비디오 데이터를 디코딩하도록 구성되는 장치.
  46. 제 44 항에 있어서,
    상기 글로벌 오프셋 값은 제 1 글로벌 오프셋 값이며, 상기 제 1 글로벌 오프셋 값은, 상기 비디오 데이터에 대해 상기 동적 범위 조정을 수행하기에 앞서, 상기 제 1 글로벌 오프셋 값 미만의 비조정된 성분 값들에 대해 대체되고,
    상기 비디오 데이터에 대해 상기 역 동적 범위 조정을 수행하는 것은,
    메타데이터, 비디오 유용성 정보, 비디오 파라미터 세트, 시퀀스 파라미터 세트, 픽처 파라미터, 슬라이스 헤더, 또는 CTU 헤더 중 하나 이상으로부터 제 2 글로벌 오프셋 값을 도출하는 것; 및
    상기 제 2 글로벌 오프셋 값에 일치하는 성분 값들을 상기 제 1 글로벌 오프셋 값에 매핑하는 것을 포함하는, 비디오 데이터를 디코딩하도록 구성되는 장치.
  47. 제 44 항에 있어서,
    상기 글로벌 오프셋 값은 제 1 글로벌 오프셋 값이며,
    상기 비디오 데이터에 대해 상기 역 동적 범위 조정을 수행하는 것은,
    메타데이터, 비디오 유용성 정보, 비디오 파라미터 세트, 시퀀스 파라미터 세트, 픽처 파라미터, 슬라이스 헤더, 또는 CTU 헤더 중 하나 이상으로부터 제 2 글로벌 오프셋 값을 도출하는 것으로서, 상기 제 2 글로벌 오프셋 값은, 상기 비디오 데이터에 대해 상기 동적 범위 조정을 수행하기에 앞서, 상기 제 2 글로벌 오프셋 값 미만인 비조정된 성분 값들에 대해 대체되었던 값인, 상기 제 2 글로벌 오프셋 값을 도출하는 것, 및
    상기 제 1 글로벌 오프셋 값에 일치하는 성분 값들을 상기 제 2 글로벌 오프셋 값에 매핑하는 것을 포함하는, 비디오 데이터를 디코딩하도록 구성되는 장치.
  48. 제 44 항에 있어서,
    상기 하나 이상의 프로세서들은 또한, 적어도 상기 글로벌 오프셋 값으로부터 추가적인 조정 정보를 도출하는 것을 하도록 구성되고, 상기 추가적인 조정 정보는 또한 상기 동적 범위 조정이 상기 비디오 데이터에 적용된 방법을 특정하는, 비디오 데이터를 디코딩하도록 구성되는 장치.
  49. 삭제
  50. 제 44 항에 있어서,
    상기 조정 정보는 하나의 파티션을 특정하고, 상기 하나의 파티션은 모든 성분들에 적용되는, 비디오 데이터를 디코딩하도록 구성되는 장치.
  51. 제 44 항에 있어서,
    상기 비디오 데이터는 루마 성분들과 크로마 성분들을 포함하며, 상기 조정 정보는 상기 루마 성분들이 상기 동적 범위 조정 동안 파티셔닝되었던 제 1 파티션 수, 제 1 크로마 성분 세트가 상기 동적 범위 조정 동안 파티셔닝되었던 제 2 파티션 수, 및 제 2 크로마 성분 세트가 상기 동적 범위 조정 동안 파티셔닝되었던 제 3 파티션 수를 포함하고,
    상기 역 동적 범위 조정을 수행하는 것은,
    상기 제 1 파티션 수에 따라 비조정된 루마 성분 값들을 생성하는 것;
    상기 제 2 파티션 수에 따라 상기 제 1 크로마 성분 세트에 대응하는 비조정된 크로마 성분 값들을 생성하는 것; 및
    상기 제 3 파티션 수에 따라 상기 제 2 크로마 성분 세트에 대응하는 비조정된 크로마 성분 값들을 생성하는 것을 포함하는, 비디오 데이터를 디코딩하도록 구성되는 장치.
  52. 제 51 항에 있어서,
    상기 제 2 파티션 수는 상기 제 1 파티션 수와는 상이하고, 상기 제 2 파티션 수의 파티션들 중 하나의 파티션은 상기 제 2 파티션 수의 파티션들에서의 임의의 다른 파티션보다 더 작은 뉴트럴 크로마 파티션인, 비디오 데이터를 디코딩하도록 구성되는 장치.
  53. 제 44 항에 있어서,
    상기 비디오 데이터는 적색, 녹색, 및 청색 성분들을 포함하며,
    상기 조정 정보는 상기 적색 성분들이 상기 동적 범위 조정 동안 파티셔닝되었던 제 1 파티션 수, 상기 녹색 성분들이 상기 동적 범위 조정 동안 파티셔닝되었던 제 2 파티션 수, 및 상기 청색 성분들이 상기 동적 범위 조정 동안 파티셔닝되었던 제 3 파티션 수를 포함하고,
    상기 역 동적 범위 조정을 수행하는 것은,
    상기 제 1 파티션 수에 따라 비조정된 적색 성분 값들을 생성하는 것;
    상기 제 2 파티션 수에 따라 비조정된 녹색 성분 값들을 생성하는 것; 및
    상기 제 3 파티션 수에 따라 비조정된 청색 성분 값들을 생성하는 것을 포함하는, 비디오 데이터를 디코딩하도록 구성되는 장치.
  54. 제 44 항에 있어서,
    상기 파티션들의 수는 로그로서 표현되는, 비디오 데이터를 디코딩하도록 구성되는 장치.
  55. 제 44 항에 있어서,
    상기 하나 이상의 프로세서들은 또한,
    상기 적어도 하나의 SEI 메시지로부터 추가적인 조정 정보를 도출하는 것을 하도록 구성되고, 상기 추가적인 조정 정보는 또한 상기 동적 범위 조정이 상기 비디오 데이터에 적용된 방법을 특정하는, 비디오 데이터를 디코딩하도록 구성되는 장치.
  56. 제 44 항에 있어서,
    상기 비디오 데이터에 대해 상기 역 동적 범위 조정을 수행하는 것은,
    상기 비디오 데이터의 각각의 성분에 대한 각각의 입력 샘플에 대해, 상기 입력 샘플이 속하는 파티션을 결정하는 것, 및
    상기 파티션들 중 각각의 파티션에 대해, 비조정된 성분 값들을 생성하는 것을 포함하는, 비디오 데이터를 디코딩하도록 구성되는 장치.
  57. 제 56 항에 있어서,
    상기 조정 정보는 상기 파티션들 중 각각의 파티션에 대한 로컬 오프셋 값 및 로컬 스케일 값을 더 포함하고,
    상기 비디오 데이터에 대해 상기 역 동적 범위 조정을 수행하는 것은,
    상기 로컬 오프셋 값 및 상기 로컬 스케일 값에 따라 상기 비조정된 성분 값들을 생성하는 것을 포함하는, 비디오 데이터를 디코딩하도록 구성되는 장치.
  58. 제 57 항에 있어서,
    상기 파티션들 중 각각의 파티션에 대한 상기 로컬 오프셋 값은 제 1 비트 수 및 제 2 비트 수에 의해 표현되고, 상기 제 1 비트 수는 상기 로컬 오프셋 값의 정수 부분을 표현하는데 사용되고 상기 제 2 비트 수는 상기 로컬 오프셋 값의 소수 부분을 표현하는데 사용되며, 상기 조정 정보는 상기 제 1 비트 수와 상기 제 2 비트 수를 더 포함하고,
    상기 비디오 데이터에 대해 상기 역 동적 범위 조정을 수행하는 것은,
    상기 제 1 비트 수 및 상기 제 2 비트 수에 의해 표현된 바와 같은 상기 파티션들 중 각각의 파티션에 대한 상기 로컬 오프셋 값에 따라 상기 비조정된 성분 값들을 생성하는 것을 포함하는, 비디오 데이터를 디코딩하도록 구성되는 장치.
  59. 제 57 항에 있어서,
    상기 파티션들 중 각각의 파티션에 대한 상기 로컬 스케일 값은 제 1 비트 수 및 제 2 비트 수에 의해 표현되고, 상기 제 1 비트 수는 상기 로컬 스케일 값의 정수 부분을 표현하는데 사용되고 상기 제 2 비트 수는 상기 로컬 스케일 값의 소수 부분을 표현하는데 사용되며, 상기 조정 정보는 상기 제 1 비트 수와 상기 제 2 비트 수를 더 포함하고,
    상기 비디오 데이터에 대해 상기 역 동적 범위 조정을 수행하는 것은,
    상기 제 1 비트 수 및 상기 제 2 비트 수에 의해 표현된 바와 같은 상기 파티션들 중 각각의 파티션에 대한 상기 로컬 스케일 값에 따라 상기 비조정된 성분 값들을 생성하는 것을 포함하는, 비디오 데이터를 디코딩하도록 구성되는 장치.
  60. 제 59 항에 있어서,
    상기 스케일 값의 상기 정수 부분은 부호 있는 크기 포맷 또는 2의 보수 표기법 중 하나로 표현되는, 비디오 데이터를 디코딩하도록 구성되는 장치.
  61. 제 57 항에 있어서,
    상기 파티션들 중 각각의 파티션에 대한 상기 로컬 스케일 값은 상기 파티션들 중 각각의 파티션에 대한 제 1 성분 로컬 스케일 값이며,
    상기 조정 정보는 상기 파티션들 중 각각의 파티션에 대한 제 2 성분 로컬 스케일 값을 더 포함하며,
    상기 파티션들 중 각각의 파티션에 대한 상기 제 1 성분 로컬 스케일 값은 제 1 비트 수에 의해 표현되며, 상기 파티션들 중 각각의 파티션에 대한 상기 제 2 성분 로컬 스케일 값은 제 2 비트 수에 의해 표현되며,
    상기 조정 정보는 상기 제 1 비트 수와 상기 제 2 비트 수를 더 포함하며, 상기 제 2 비트 수는 상기 제 1 비트 수와는 상이하고,
    상기 비디오 데이터에 대해 상기 역 동적 범위 조정을 수행하는 것은,
    상기 파티션들 중 각각의 파티션에 대한 상기 제 1 성분 로컬 스케일 값에 따라 제 1 성분 비조정된 성분 값들을 생성하는 것; 및
    상기 파티션들 중 각각의 파티션에 대한 상기 제 2 성분 로컬 스케일 값에 따라 제 2 성분 비조정된 성분 값들을 생성하는 것을 포함하는, 비디오 데이터를 디코딩하도록 구성되는 장치.
  62. 제 57 항에 있어서,
    상기 파티션들 중 각각의 파티션에 대한 상기 로컬 오프셋 값은 상기 파티션들 중 각각의 파티션에 대한 제 1 성분 로컬 오프셋 값이며,
    상기 조정 정보는 상기 파티션들 중 각각의 파티션에 대한 제 2 성분 로컬 오프셋 값을 더 포함하며,
    상기 파티션들 중 각각의 파티션에 대한 상기 제 1 성분 로컬 오프셋 값은 제 1 비트 수에 의해 표현되며, 상기 파티션들 중 각각의 파티션에 대한 상기 제 2 성분 로컬 오프셋 값은 제 2 비트 수에 의해 표현되며,
    상기 조정 정보는 상기 제 1 비트 수와 상기 제 2 비트 수를 더 포함하며, 상기 제 2 비트 수는 상기 제 1 비트 수와는 상이하고,
    상기 비디오 데이터에 대해 상기 역 동적 범위 조정을 수행하는 것은,
    상기 파티션들 중 각각의 파티션에 대한 상기 제 1 성분 로컬 오프셋 값에 따라 제 1 성분 비조정된 성분 값들을 생성하는 것; 및
    상기 파티션들 중 각각의 파티션에 대한 상기 제 2 성분 로컬 오프셋 값에 따라 제 2 성분 비조정된 성분 값들을 생성하는 것을 포함하는, 비디오 데이터를 디코딩하도록 구성되는 장치.
  63. 제 44 항에 있어서,
    상기 조정 정보는 상기 파티션들이 동일 사이즈인지의 여부를 나타내는, 비디오 데이터를 디코딩하도록 구성되는 장치.
  64. 제 44 항에 있어서,
    상기 조정 정보는, 상기 파티션들 중 각각의 파티션에 대해, 스케일 값과 사이즈 값을 포함하는, 비디오 데이터를 디코딩하도록 구성되는 장치.
  65. 제 44 항에 있어서,
    디코딩된 상기 비디오 데이터를 포함하는 픽처를 디스플레이하도록 구성되는 디스플레이를 더 포함하는, 비디오 데이터를 디코딩하도록 구성되는 장치.
  66. 제 44 항에 있어서,
    상기 장치는 카메라, 컴퓨터, 모바일 디바이스, 브로드캐스트 수신기 디바이스, 또는 셋톱 박스 중 하나 이상을 포함하는, 비디오 데이터를 디코딩하도록 구성되는 장치.
  67. 비디오 데이터를 인코딩하도록 구성되는 장치로서,
    상기 비디오 데이터를 저장하도록 구성되는 메모리; 및
    하나 이상의 프로세서들을 포함하며,
    상기 하나 이상의 프로세서들은,
    상기 비디오 데이터로부터 조정된 성분 값들을 생성하기 위해 상기 비디오 데이터에 대해 동적 범위 조정을 수행하는 것; 및
    인코딩된 비디오 비트스트림에서 적어도 하나의 신택스 구조를 생성하는 것으로서, 상기 적어도 하나의 신택스 구조는 동적 범위 조정이 비디오 데이터에 적용된 방법을 특정하는 조정 정보를 나타내고,
    상기 조정 정보는:
    상기 비디오 데이터가 상기 동적 범위 조정 동안 파티셔닝되었던 하나 이상의 파티션들 중 각각의 파티션에 적용되는 글로벌 오프셋 값, 및
    상기 비디오 데이터가 상기 동적 범위 조정 동안 파티셔닝되었던 파티션들의 수를 포함하는, 상기 적어도 하나의 신택스 구조를 생성하는 것을 하도록 구성되고,
    상기 동적 범위 조정을 수행하는 것은 상기 파티션들의 수에 따라 상기 조정된 성분 값들을 생성하는 것을 포함하는, 비디오 데이터를 인코딩하도록 구성되는 장치.
  68. 제 67 항에 있어서,
    상기 글로벌 오프셋 값은 제 1 글로벌 오프셋 값이며, 상기 제 1 글로벌 오프셋 값은, 상기 비디오 데이터에 대해 상기 동적 범위 조정을 수행하기에 앞서, 상기 제 1 글로벌 오프셋 값 미만의 비조정된 성분 값들에 대해 대체되며,
    상기 조정 정보는 제 2 글로벌 오프셋 값을 더 포함하고,
    상기 비디오 데이터에 대해 상기 동적 범위 조정을 수행하는 단계는,
    상기 제 1 글로벌 오프셋 값에 일치하는 성분 값들을 상기 제 2 글로벌 오프셋 값에 매핑하는 것을 포함하는, 비디오 데이터를 인코딩하도록 구성되는 장치.
  69. 삭제
  70. 제 67 항에 있어서,
    상기 비디오 데이터를 포함하는 픽처를 캡처하도록 구성되는 카메라 센서를 더 포함하는, 비디오 데이터를 인코딩하도록 구성되는 장치.
  71. 제 67 항에 있어서,
    상기 장치는 카메라, 컴퓨터, 모바일 디바이스, 브로드캐스트 수신기 디바이스, 또는 셋톱 박스 중 하나 이상을 포함하는, 비디오 데이터를 인코딩하도록 구성되는 장치.
  72. 삭제
  73. 프로세서 상에서 실행될 때, 상기 프로세서로 하여금 제 1 항에 따른 방법을 수행하도록 하는 저장된 명령들을 갖는 비일시적 컴퓨터 판독가능 저장매체.
KR1020187011144A 2015-09-21 2016-09-20 높은 동적 범위 및 넓은 색 영역 비디오 코딩을 위한 보충적 향상 정보 (sei) 메시지들 KR102642646B1 (ko)

Applications Claiming Priority (7)

Application Number Priority Date Filing Date Title
US201562221586P 2015-09-21 2015-09-21
US62/221,586 2015-09-21
US201562236804P 2015-10-02 2015-10-02
US62/236,804 2015-10-02
US15/269,497 US10129558B2 (en) 2015-09-21 2016-09-19 Supplement enhancement information (SEI) messages for high dynamic range and wide color gamut video coding
US15/269,497 2016-09-19
PCT/US2016/052640 WO2017053280A1 (en) 2015-09-21 2016-09-20 Supplemental enhancement information (sei) messages for high dynamic range and wide color gamut video coding

Publications (2)

Publication Number Publication Date
KR20180056726A KR20180056726A (ko) 2018-05-29
KR102642646B1 true KR102642646B1 (ko) 2024-02-29

Family

ID=58283606

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020187011144A KR102642646B1 (ko) 2015-09-21 2016-09-20 높은 동적 범위 및 넓은 색 영역 비디오 코딩을 위한 보충적 향상 정보 (sei) 메시지들

Country Status (14)

Country Link
US (2) US10129558B2 (ko)
EP (1) EP3354024B1 (ko)
JP (1) JP6840740B2 (ko)
KR (1) KR102642646B1 (ko)
CN (1) CN108028935B (ko)
AU (1) AU2016328639B2 (ko)
DK (1) DK3354024T3 (ko)
ES (1) ES2866180T3 (ko)
HU (1) HUE054203T2 (ko)
PL (1) PL3354024T3 (ko)
PT (1) PT3354024T (ko)
SI (1) SI3354024T1 (ko)
TW (1) TWI755363B (ko)
WO (1) WO2017053280A1 (ko)

Families Citing this family (50)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10244249B2 (en) 2015-09-21 2019-03-26 Qualcomm Incorporated Fixed point implementation of range adjustment of components in video coding
US10129558B2 (en) * 2015-09-21 2018-11-13 Qualcomm Incorporated Supplement enhancement information (SEI) messages for high dynamic range and wide color gamut video coding
US10200701B2 (en) * 2015-10-14 2019-02-05 Qualcomm Incorporated HDR and WCG coding architecture with SDR backwards compatibility in a single bitstream for video coding
US20190132600A1 (en) * 2016-05-04 2019-05-02 Thomson Licensing Method and apparatus for encoding/decoding a scalar integer into a parameter representative of a pivot points of a piece-wise linear function
EP3244616A1 (en) * 2016-05-13 2017-11-15 Thomson Licensing A method for encoding an input video comprising a luma component and two chroma components, the method comprising reshaping of said input video based on reshaping functions
US10334277B2 (en) * 2016-09-02 2019-06-25 Qualcomm Incorporated Signaling target display parameters of color remapping information supplemental enhancement information messages
PT3523970T (pt) 2016-10-05 2022-10-07 Dolby Laboratories Licensing Corp Mensagens de informação de volume de cor de origem
US10477212B2 (en) * 2016-10-11 2019-11-12 Dolby Laboratories Licensing Corporation Adaptive chroma quantization in video coding for multiple color imaging formats
EP3386198A1 (en) * 2017-04-07 2018-10-10 Thomson Licensing Method and device for predictive picture encoding and decoding
US10728559B2 (en) * 2017-07-07 2020-07-28 Qualcomm Incorporated Precision of computation and signaling of dynamic range adjustment and color remapping information
US10778978B2 (en) * 2017-08-21 2020-09-15 Qualcomm Incorporated System and method of cross-component dynamic range adjustment (CC-DRA) in video coding
US10778979B2 (en) * 2018-01-11 2020-09-15 Qualcomm Incorporated Signaling mechanisms for equal ranges and other DRA parameters for video coding
US11153579B2 (en) * 2018-03-23 2021-10-19 Qualcomm Incorporated Deriving dynamic range adjustment (DRA) parameters for video coding
US11303912B2 (en) * 2018-04-18 2022-04-12 Qualcomm Incorporated Decoded picture buffer management and dynamic range adjustment
KR102533723B1 (ko) 2018-09-14 2023-05-18 삼성전자주식회사 전자 장치 및 그 제어 방법
US10630867B2 (en) 2018-09-17 2020-04-21 Samsung Electronics Co., Ltd. Perceptual hue preserved color-gamut transferring in non-uniform CIE-1931 color space
US10950161B2 (en) 2018-10-25 2021-03-16 Baylor University System and method for a six-primary wide gamut color system
US11410593B2 (en) 2018-10-25 2022-08-09 Baylor University System and method for a multi-primary wide gamut color system
US11488510B2 (en) 2018-10-25 2022-11-01 Baylor University System and method for a multi-primary wide gamut color system
US11475819B2 (en) 2018-10-25 2022-10-18 Baylor University System and method for a multi-primary wide gamut color system
US10950162B2 (en) 2018-10-25 2021-03-16 Baylor University System and method for a six-primary wide gamut color system
US11069280B2 (en) 2018-10-25 2021-07-20 Baylor University System and method for a multi-primary wide gamut color system
US11373575B2 (en) 2018-10-25 2022-06-28 Baylor University System and method for a multi-primary wide gamut color system
US11289003B2 (en) 2018-10-25 2022-03-29 Baylor University System and method for a multi-primary wide gamut color system
US11062638B2 (en) 2018-10-25 2021-07-13 Baylor University System and method for a multi-primary wide gamut color system
US11043157B2 (en) 2018-10-25 2021-06-22 Baylor University System and method for a six-primary wide gamut color system
US11315467B1 (en) 2018-10-25 2022-04-26 Baylor University System and method for a multi-primary wide gamut color system
US10607527B1 (en) 2018-10-25 2020-03-31 Baylor University System and method for a six-primary wide gamut color system
US11037481B1 (en) 2018-10-25 2021-06-15 Baylor University System and method for a multi-primary wide gamut color system
US10997896B2 (en) 2018-10-25 2021-05-04 Baylor University System and method for a six-primary wide gamut color system
US11189210B2 (en) 2018-10-25 2021-11-30 Baylor University System and method for a multi-primary wide gamut color system
US11532261B1 (en) 2018-10-25 2022-12-20 Baylor University System and method for a multi-primary wide gamut color system
US11587491B1 (en) 2018-10-25 2023-02-21 Baylor University System and method for a multi-primary wide gamut color system
US11030934B2 (en) 2018-10-25 2021-06-08 Baylor University System and method for a multi-primary wide gamut color system
US11289000B2 (en) 2018-10-25 2022-03-29 Baylor University System and method for a multi-primary wide gamut color system
US11069279B2 (en) 2018-10-25 2021-07-20 Baylor University System and method for a multi-primary wide gamut color system
US11403987B2 (en) 2018-10-25 2022-08-02 Baylor University System and method for a multi-primary wide gamut color system
US11341890B2 (en) 2018-10-25 2022-05-24 Baylor University System and method for a multi-primary wide gamut color system
CN113196763B (zh) * 2018-12-21 2024-04-12 北京字节跳动网络技术有限公司 使用多项式模型的帧内预测
US11348553B2 (en) 2019-02-11 2022-05-31 Samsung Electronics Co., Ltd. Color gamut mapping in the CIE 1931 color space
US11533460B2 (en) * 2019-09-11 2022-12-20 Nbc Universal Media, Llc High dynamic range and wide colour gamut comfort measurement and feedback
US11558616B2 (en) * 2020-03-05 2023-01-17 Qualcomm Incorporated Methods for quantization parameter control for video coding with joined pixel/transform based quantization
EP4115611A4 (en) * 2020-03-30 2023-06-28 ByteDance Inc. Slice type in video coding
US11533512B2 (en) * 2020-04-10 2022-12-20 Qualcomm Incorporated Dynamic range adjustment parameter signaling and enablement of variable bit depth support
CR20230152A (es) 2020-05-22 2023-05-15 Ge Video Compression Llc Codificador de video, decodificador de video, métodos para codificar y decodificar y flujo de datos de video para realizar conceptos avanzados de codificación de video (divisional exp. n°2022-0589)
KR20240059003A (ko) * 2020-06-12 2024-05-07 베이징 다지아 인터넷 인포메이션 테크놀로지 컴퍼니 리미티드 4:4:4 색 포맷의 비디오 코딩 방법 및 장치
CN112132120B (zh) * 2020-11-24 2021-03-30 北京沃东天骏信息技术有限公司 用于视频结构化的方法及装置
CN114650449A (zh) * 2022-03-03 2022-06-21 京东科技信息技术有限公司 一种视频数据处理方法和装置
WO2023244670A1 (en) * 2022-06-15 2023-12-21 Innopeak Technology, Inc. Methods, systems, and apparatuses for point cloud coding
CN115174880B (zh) * 2022-09-08 2023-03-10 江西渊薮信息科技有限公司 一种提高色域的投影系统、投影仪及投影方法

Family Cites Families (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1732009A4 (en) 2004-04-01 2009-07-15 Panasonic Corp INTEGRATED SWITCHING FOR VIDEO / AUDIO PROCESSING
US8014445B2 (en) * 2006-02-24 2011-09-06 Sharp Laboratories Of America, Inc. Methods and systems for high dynamic range video coding
US9036042B2 (en) 2011-04-15 2015-05-19 Dolby Laboratories Licensing Corporation Encoding, decoding, and representing high dynamic range images
JP6009538B2 (ja) * 2011-04-28 2016-10-19 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. Hdr画像を符号化及び復号するための装置及び方法
US8891863B2 (en) 2011-06-13 2014-11-18 Dolby Laboratories Licensing Corporation High dynamic range, backwards-compatible, digital cinema
US9363535B2 (en) * 2011-07-22 2016-06-07 Qualcomm Incorporated Coding motion depth maps with depth range variation
CN102333223A (zh) * 2011-10-25 2012-01-25 北京华兴宏视技术发展有限公司 视频数据编码方法、解码方法、编码系统和解码系统
WO2013067113A1 (en) 2011-11-01 2013-05-10 Dolby Laboratories Licensing Corporation Adaptive false contouring prevention in layered coding of images with extended dynamic range
TWI575933B (zh) 2011-11-04 2017-03-21 杜比實驗室特許公司 階層式視覺動態範圍編碼中之層分解技術
AR091515A1 (es) * 2012-06-29 2015-02-11 Sony Corp Dispositivo y metodo para el procesamiento de imagenes
US9426462B2 (en) * 2012-09-21 2016-08-23 Qualcomm Incorporated Indication and activation of parameter sets for video coding
US9154785B2 (en) * 2012-10-08 2015-10-06 Qualcomm Incorporated Sub-bitstream applicability to nested SEI messages in video coding
US20140218473A1 (en) * 2013-01-07 2014-08-07 Nokia Corporation Method and apparatus for video coding and decoding
CN105027567A (zh) * 2013-01-07 2015-11-04 诺基亚技术有限公司 用于视频编码和解码的方法和装置
EP2819414A3 (en) * 2013-06-28 2015-02-25 Samsung Electronics Co., Ltd Image processing device and image processing method
AU2013206815A1 (en) 2013-07-11 2015-03-05 Canon Kabushiki Kaisha Method, apparatus and system for encoding and decoding video data
US10194162B2 (en) * 2013-07-18 2019-01-29 Koninklijke Philips N.V. Methods and apparatuses for creating code mapping functions for encoding an HDR image, and methods and apparatuses for use of such encoded images
US9264683B2 (en) * 2013-09-03 2016-02-16 Sony Corporation Decoding device and decoding method, encoding device, and encoding method
US9277196B2 (en) 2014-02-19 2016-03-01 DDD IP Ventures, Ltd. Systems and methods for backward compatible high dynamic range/wide color gamut video coding and rendering
US10469849B2 (en) 2014-10-07 2019-11-05 Trellis Europe Srl Video and image encoding process
WO2016054765A1 (en) 2014-10-08 2016-04-14 Microsoft Technology Licensing, Llc Adjustments to encoding and decoding when switching color spaces
MX2017007451A (es) 2014-12-11 2017-08-10 Koninklijke Philips Nv Optimizacion de imagenes de intervalo dinamico alto para unidades de visualizacion particulares.
US9942551B2 (en) * 2015-01-30 2018-04-10 Qualcomm Incorporated Palette index grouping for video coding
US20160309154A1 (en) * 2015-04-17 2016-10-20 Qualcomm Incorporated Dynamic range adjustment for high dynamic range and wide color gamut video coding
US10244245B2 (en) * 2015-06-08 2019-03-26 Qualcomm Incorporated Content-adaptive application of fixed transfer function to high dynamic range (HDR) and/or wide color gamut (WCG) video data
US10116938B2 (en) 2015-07-22 2018-10-30 Arris Enterprises Llc System for coding high dynamic range and wide color gamut sequences
US10244249B2 (en) * 2015-09-21 2019-03-26 Qualcomm Incorporated Fixed point implementation of range adjustment of components in video coding
US10129558B2 (en) * 2015-09-21 2018-11-13 Qualcomm Incorporated Supplement enhancement information (SEI) messages for high dynamic range and wide color gamut video coding
US10200690B2 (en) * 2015-09-22 2019-02-05 Qualcomm Incorporated Video decoder conformance for high dynamic range (HDR) video coding using a core video standard
US20170105014A1 (en) * 2015-10-08 2017-04-13 Qualcomm Incorporated Luma-driven chroma scaling for high dynamic range and wide color gamut contents
US10200701B2 (en) * 2015-10-14 2019-02-05 Qualcomm Incorporated HDR and WCG coding architecture with SDR backwards compatibility in a single bitstream for video coding
US11228770B2 (en) * 2016-05-16 2022-01-18 Qualcomm Incorporated Loop sample processing for high dynamic range and wide color gamut video coding
US10574959B2 (en) * 2017-07-05 2020-02-25 Qualcomm Incorporated Color remapping for non-4:4:4 format video content
US10778978B2 (en) * 2017-08-21 2020-09-15 Qualcomm Incorporated System and method of cross-component dynamic range adjustment (CC-DRA) in video coding
US11095896B2 (en) * 2017-10-12 2021-08-17 Qualcomm Incorporated Video coding with content adaptive spatially varying quantization
US10681358B2 (en) * 2017-12-19 2020-06-09 Qualcomm Incorporated Quantization parameter control for video coding with joined pixel/transform based quantization
US10778979B2 (en) * 2018-01-11 2020-09-15 Qualcomm Incorporated Signaling mechanisms for equal ranges and other DRA parameters for video coding

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
D. Bugdayci Sansli, et al., Dynamic Range Adjustment SEI Message, JCTVC-U0098_r1, 2015.06.25.*

Also Published As

Publication number Publication date
WO2017053280A1 (en) 2017-03-30
DK3354024T3 (da) 2021-04-26
KR20180056726A (ko) 2018-05-29
PT3354024T (pt) 2021-05-04
JP6840740B2 (ja) 2021-03-10
AU2016328639A1 (en) 2018-04-26
EP3354024B1 (en) 2021-03-31
PL3354024T3 (pl) 2021-08-30
SI3354024T1 (sl) 2021-08-31
US10595032B2 (en) 2020-03-17
TWI755363B (zh) 2022-02-21
US20170085896A1 (en) 2017-03-23
AU2016328639B2 (en) 2020-06-25
TW201729594A (zh) 2017-08-16
CN108028935A (zh) 2018-05-11
EP3354024A1 (en) 2018-08-01
JP2018532322A (ja) 2018-11-01
CN108028935B (zh) 2021-09-17
US10129558B2 (en) 2018-11-13
HUE054203T2 (hu) 2021-08-30
US20190045209A1 (en) 2019-02-07
ES2866180T3 (es) 2021-10-19

Similar Documents

Publication Publication Date Title
KR102642646B1 (ko) 높은 동적 범위 및 넓은 색 영역 비디오 코딩을 위한 보충적 향상 정보 (sei) 메시지들
AU2021200087B2 (en) Fixed point implementation of range adjustment of components in video coding
CN109643531B (zh) 用于具有反馈信道的色域自适应的方法和装置
US10284863B2 (en) Adaptive constant-luminance approach for high dynamic range and wide color gamut video coding
US20160309154A1 (en) Dynamic range adjustment for high dynamic range and wide color gamut video coding
EP3459246A1 (en) In loop sample processing for high dynamic range and wide color gamut video coding
US10728559B2 (en) Precision of computation and signaling of dynamic range adjustment and color remapping information

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant