KR20210069717A - 다중-레벨 향상 및 코딩 포맷 조정을 갖는 비디오 신호용 향상 디코더 - Google Patents

다중-레벨 향상 및 코딩 포맷 조정을 갖는 비디오 신호용 향상 디코더 Download PDF

Info

Publication number
KR20210069717A
KR20210069717A KR1020217014100A KR20217014100A KR20210069717A KR 20210069717 A KR20210069717 A KR 20210069717A KR 1020217014100 A KR1020217014100 A KR 1020217014100A KR 20217014100 A KR20217014100 A KR 20217014100A KR 20210069717 A KR20210069717 A KR 20210069717A
Authority
KR
South Korea
Prior art keywords
decoder
signal
video stream
coding format
data
Prior art date
Application number
KR1020217014100A
Other languages
English (en)
Inventor
시몬 페라라
귀도 메아르디
Original Assignee
브이-노바 인터내셔널 리미티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from GBGB1816469.9A external-priority patent/GB201816469D0/en
Priority claimed from GBGB1820473.5A external-priority patent/GB201820473D0/en
Priority claimed from GBGB1900511.5A external-priority patent/GB201900511D0/en
Priority claimed from GBGB1902008.0A external-priority patent/GB201902008D0/en
Application filed by 브이-노바 인터내셔널 리미티드 filed Critical 브이-노바 인터내셔널 리미티드
Publication of KR20210069717A publication Critical patent/KR20210069717A/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/132Sampling, masking or truncation of coding units, e.g. adaptive resampling, frame skipping, frame interpolation or high-frequency transform coefficient masking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/119Adaptive subdivision aspects, e.g. subdivision of a picture into rectangular or non-rectangular coding blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/172Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/184Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being bits, e.g. of the compressed video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/186Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • H04N19/33Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability in the spatial domain
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
    • H04N19/98Adaptive-dynamic-range coding [ADRC]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • H04N21/234327Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements by decomposing into layers, e.g. base layer and one or more enhancement layers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/01Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
    • H04N7/0102Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving the resampling of the incoming video signal

Abstract

비디오 신호용 향상 디코더는 표준 디코더로부터 제1 신호 요소 코딩 포맷을 사용하여 제1 비디오 스트림(1150)을 수신하는 인터페이스, 향상 데이터 스트림을 수신하는 인터페이스 및 향상 데이터 스트림을 향상 데이터의 제1 세트, 향상 데이터의 제2 세트 및 범위 데이터로 분해하는 디멀티플렉서(200)를 포함한다. 제1 해상도에서 제1 비디오 스트림으로부터 도출된 제1 디코더 비디오 스트림은 향상 데이터의 제1 세트를 사용하여 제1 인핸서에 의해 향상된다. 제1 인핸서의 출력으로부터 도출된 제2 디코더 비디오 스트림은 업샘플링에 의해 제2 해상도로 변환된다. 제2 해상도는 제1 해상도보다 높다. 제2 해상도에서 업샘플러의 출력으로부터 도출된 제3 디코더 비디오 스트림은 향상 데이터의 제2 세트를 사용하여 제2 인핸서에 의해 향상된다. 코딩 포맷 조정 모듈은 범위 데이터를 사용하여 제1 디코더 비디오 스트림 내지 제3 디코더 비디오 스트림 중 하나를 제1 신호 요소 코딩 포맷으로부터 제2 신호 요소 코딩 포맷으로 변환한다.

Description

다중-레벨 향상 및 코딩 포맷 조정을 갖는 비디오 신호용 향상 디코더
본 발명은 신호, 특히 비디오 신호를 프로세싱하기 위한 방법에 관한 것이다. 프로세싱 신호는 비디오 신호에서 동적 색 범위를 증가시키는 것과 같이 데이터를 획득, 도출, 출력, 수신 및 재구성하는 것을 포함할 수 있지만 이에 한정되지 않는다.
기술적 진보는 특히 압축, 저장 및 전송을 위한 신호 프로세싱을 위한 다수의 상이한 기술 및 방법이 있음을 의미한다. 예를 들어, 수년에 걸쳐 정보가 압축되도록 사진 및 비디오 신호를 인코딩하는 많은 방식이 개발되었다. 이는 공중파 지상파 방송, 케이블 방송, 위성 방송 또는 인터넷이나 다른 데이터 네트워크를 통해 임의의 전송 경로의 저장 요건과 대역폭 요건을 줄이는 이점을 갖는다. 기술이 발전함에 따라, 보다 정교한 압축 및 전송 방법이 개발되었다. 증가된 품질 신호가 요구되며, 예를 들어, 증가된 비디오 해상도를 갖는 신호(프레임 당 증가된 픽셀 또는 초 당 증가된 프레임으로 나타남)가 요구된다. 결과적으로, 많은 신호 포맷이 존재하고, 이러한 포맷을 사용할 수 있거나 사용할 수 없는 많은 유형의 신호 인코더 및 디코더가 존재한다. 이는 컨텐츠 제작자와 배포자가 자신의 컨텐츠를 가장 많은 청중이 이용하도록 보장할 것을 원하기 때문에 이들에 대해 문제를 발생시킨다. 결과적으로, 제작자와 배포자는 MPEG-2, MPEG-4 Part 10, 고효율 비디오 코딩(HEVC: High Efficiency Video Coding) 등과 같은 표준 인코딩 기술을 사용하여 인코딩된 다수의 상이한 인코딩 포맷으로 그들의 컨텐츠를 제공해야 한다. 또한, 인코딩된 신호의 배포는 표준 및 비표준 방송 및 스트리밍 기술에 의해서도 촉진된다. 대체로, 이는 복잡한 상황으로 인해 컨텐츠 배포자에 대한 비용을 증가시키고, 현재 널리 퍼져 있는 (예를 들어, 레거시 디코더 및 셋톱 박스와 같은) 이전 기술의 호환성 부족으로 인해 더 새롭고 더 나은 기술의 채택을 더욱 어렵게 만든다.
높은 동적 범위(HDR: High Dynamic Range) 비디오는 해상도를 증가시키고(즉, 프레임 당 더 많은 픽셀) 모션 충실도를 증가시키는 것(즉, 초 당 더 많은 프레임) 외에, 1차원의 품질 개선을 추가함으로써 훨씬 더 높은 품질의 비디오를 전송할 수 있는 잠재력을 보여주었으며, 운영자는 또는 동적 범위를 증가시킬 수 있다(즉, 더 넓은 범위의 휘도, 더 많은 톤(tone), 따라서 더 선명한 콘트라스트와 색). HDR-가능 디스플레이의 광범위한 가용성은 HDR 비디오를 점점 더 적합한 것으로 만들고 있다.
높은 동적 범위(HDR)는 통상적으로 표준 동적 범위(SDR: Standard Dynamic Range)보다 더 높은 휘도 및/또는 색 범위를 나타내며, 표준 동적 범위는 통상의 감마(gamma) 곡선을 사용하여 색 범위를 나타낸다. HDR은 통상적으로 가장 밝은 색과 가장 어두운 색의 값을 변경할 뿐만 아니라 다른 색 평면(통상적으로 표준 색 평면으로부터 더 넓은 색 영역 평면으로 확장)을 사용함으로써 작동한다.
현재 시장에는 다양한 HDR 구현이 존재하며, 이용 가능한 값의 충분히 넓은 범위를 갖기 위해, 통상적으로 색 구성 요소(예를 들어, 루마(luma) Y 및 크로마(chroma) Cb 및 Cr)의 10-비트(또는 심지어 더 높은 비트-심도) 표현을 필요로 한다. 이러한 HDR 구현 중 하나가 HDR10이며, 이는 비디오 신호의 정적 메타데이터를 사용하여 비디오 스트림에 표시되는 휘도 및 색의 범위를 조정한다. 이러한 방식으로, 비디오 시퀀스 전체에 단일 HDR 설정이 적용된다. 동적 메타데이터를 사용하는 다양한 구현은 HDR10+ 또는 Dolby®Vision과 같은 다양한 상업적 명칭을 갖는다. 동적 메타데이터를 사용하여, HDR 설정이 프레임별 기반으로 변경되므로, 장면 변경에 대한 더 높은 입상도(granularity) 및 적응도를 허용한다.
그러나, 현재 HDR 비디오 전송은 HEVC와 같은 네이티브 10-비트 비디오 포맷을 디코딩할 수 있는 디코더를 필요로 한다. 대부분의 운영자는 8-비트 AVC/H.264 비디오를 디코딩할 수 있는 레거시 디바이스만을 보유한 고객 기반의 많은 부분을 계속 서비스할 필요가 있으므로, 종종 비디오 워크플로우의 중복을 필요로 한다. 마찬가지로, 이는 운영자가 VP9와 같은 8-비트 포맷으로 HDR을 사용하는 것을 방지한다. 또한 HDR에 의해 요구되는 톤 매핑이 압축 효율성을 최적화하는 데 반드시 가장 잘 맞는 것은 아니다. 이러한 양태에 대한 추가 정보에 대해: A. Banitalebi-Dehkordi, M. Azimi, M. T. Pourazad 및 P. Nasiopoulos, "HEVC 및 H.264/AVC 표준을 사용한 높은 동적 범위 비디오의 압축", 10th International Conference on Heterogeneous Networking for Quality, Reliability, Security and Robustness, Rhodes, 2014, pp. 8-12의 문헌을 참조한다.
쉽게 교체되거나 업그레이드될 수 없는 레거시 디코딩 장비와 더 새로운 코딩 표준, 특히 HDR-관련 표준 또는 기술의 비호환성에 대한 일반적인 문제가 있다. 신호 전송을 위한 제한된 대역폭 가용성의 일반적인 문제도 있다. 다른 방식으로 인코딩된 동일한 컨텐츠의 다수의 버전을 생성하고 유지하는 데 있어서 컨텐츠 배포자의 프로세싱 및 저장 오버헤드의 일반적인 문제도 있으며, 이러한 문제는 HDR-유형 신호(즉, 더 넓은 휘도 범위 및 콘트라스트 비율에 대한 잠재력을 가진 신호 및/또는 더 넓은 색 영역을 나타내는 정보를 포함하는 신호)의 인코딩의 경쟁적이고 광범위하게 비호환적인 몇몇 기술의 도입으로 인해 악화된다.
본 개시는 위에서 식별된 문제들 중 하나 이상을 해결하는 것을 목적으로 한다.
본 발명의 개요
본 개시에서, 위에서 언급한 문제들 중 하나 이상을 해결하기 위한 방식으로 HDR-유형 정보가 계층적 코딩 스킴으로 결합될 수 있는 방식을 설명한다. 특히, HDR 호환 디스플레이 디바이스를 통해 사용자에게 HDR-유형 신호를 제공할 수 있도록 하거나, 디코더 기술 또는 관련 디스플레이 디바이스 중 하나 이상이 HDR-유형 정보를 프로세싱할 수 없을 때 비(non)-HDR 등가 신호가 사용자에게 제공될 수 있도록 하는 방식으로 계층적 신호가 인코딩, 전송 및 디코딩될 수 있게 하는 인코딩 및 디코딩 스킴을 제공하는 것을 목적으로 한다. 특히, 보다 훌륭하고 효율적인 방법을 제공하는 것을 목적으로 한다. 가능한 경우, HDR-유형 디코딩 및 SDR-유형 인코딩에 필요한 모든 정보를 포함하는 복합 인코딩된 비디오 스트림을 제공하고, HDR-유형 디코딩에 필요한 정보가 디코더로 스트리밍되는지 여부, 또는 HDR-유형 디코딩에 필요한 정보가 디코더에서 사용되는지 여부에 있어서 유연성을 제공하는 것을 목적으로 한다(예를 들어, 정보는 무시되거나 폐기될 수 있음).
첨부된 청구항에 따른 장치, 방법, 컴퓨터 프로그램 및 컴퓨터 판독 가능 저장 매체 또는 데이터 캐리어가 제공된다.
본 발명의 일 양태에 따르면, 비디오 신호용 향상 디코더가 제공된다. 향상 디코더는 표준 디코더로부터 제1 비디오 스트림을 수신하는 인터페이스를 포함하고, 여기서 제1 비디오 스트림은 제1 신호 요소 코딩 포맷을 사용한다. 향상 디코더는 향상 데이터 스트림을 수신하는 인터페이스, 및 향상 데이터 스트림을: 향상 데이터의 제1 세트; 향상 데이터의 제2 세트; 및 범위 데이터로 분해하는 디멀티플렉서를 추가로 포함한다. 이러한 방식으로, 이전과의 호환성이 제공된다.
향상 디코더는 향상 데이터의 제1 세트를 사용하여 제1 해상도에서 제1 디코더 비디오 스트림을 향상시키는 제1 인핸서(enhancer)로서, 제1 디코더 비디오 스트림은 제1 비디오 스트림으로부터 도출되는, 제1 인핸서; 및 제1 인핸서의 출력으로부터 도출된 제2 디코더 비디오 스트림을 제1 해상도보다 높은 제2 해상도로 변환하는 업샘플러(up-sampler)를 포함한다.
향상 디코더는 향상 데이터의 제2 세트를 사용하여 제2 해상도에서 업샘플러의 출력으로부터 도출되는 제3 디코더 비디오 스트림을 향상시키는 제2 인핸서를 추가로 포함한다.
향상 디코더는 범위 데이터를 사용하여 제1 디코더 비디오 스트림 내지 제3 디코더 비디오 스트림 중 하나를 제1 신호 요소 코딩 포맷으로부터 제2 신호 요소 코딩 포맷으로 변환하는 코딩 포맷 조정 모듈을 추가로 포함한다. 이러한 방식으로, 더 높은 품질의 신호가 제공될 수 있다.
표준 디코더로부터 수신된 제1 비디오 스트림은 제1 품질 레벨에 있고, 제2 신호 요소 코딩 포맷은 제2 품질 레벨을 제공할 수 있고, 여기서 제2 품질 레벨은 제1 품질 레벨보다 높다.
제1 신호 요소 코딩 포맷은 표준 동적 범위 - SDR - 포맷일 수 있고, 제2 신호 요소 포맷은 높은 동적 범위 - HDR - 포맷일 수 있다. HDR 포맷은 SDR 포맷보다 더 높은 휘도 및/또는 더 넓은 색 범위를 가질 수 있다.
바람직하게는, 향상 데이터 스트림 내의 범위 데이터의 부재에 응답하여, 코딩 포맷 조정 모듈은 제2 신호 요소 코딩 포맷으로의 변환 없이 비디오 스트림을 출력하도록 구성된다. 이러한 방식으로 이전과의 호환성이 제공된다.
선택적으로, 코딩 포맷 조정 모듈은 제1 비디오 스트림을 수신하고 제1 디코더 비디오 스트림을 출력하도록 구성될 수 있다.
선택적으로, 코딩 포맷 조정 모듈은 제1 인핸서의 출력을 수신하고 제2 디코더 비디오 스트림을 출력하도록 구성될 수 있다.
선택적으로, 코딩 포맷 조정 모듈은 업샘플러의 출력을 수신하고 제3 디코더 비디오 스트림을 출력하도록 구성될 수 있다.
제1 신호 요소 코딩 포맷은 제1 비트 길이를 사용할 수 있고, 제2 신호 요소 코딩 포맷은 제2 비트 길이를 사용할 수 있으며, 제2 비트 길이는 제1 비트 길이보다 길 수 있다.
업샘플러는 코딩 포맷 조정 모듈을 포함할 수 있다.
업샘플러는 업샘플링 동작과 코딩 포맷 변환 동작을 결합할 수 있다.
선택적으로, 향상 데이터의 제1 세트 및 향상 데이터의 제2 세트 중 하나 이상은 2개의 대응하는 비디오 신호 간의 차이를 나타내는 잔차 데이터를 포함할 수 있다.
선택적으로, 제1 인핸서 및 제2 인핸서 중 하나 이상은 향상 데이터의 제1 세트 및 향상 데이터의 제2 세트의 각각 내에서 잔차 데이터를 디코딩하고, 향상된 비디오 스트림을 출력하기 위해 상기 잔차 데이터를 각각의 입력 디코더 비디오 스트림과 결합하도록 구성될 수 있다.
표준 디코더는 제1 비디오 스트림을 출력하기 위해 제1 데이터 스트림을 디코딩할 수 있으며, 여기서 표준 디코더는 향상 디코더에 의해 구현되는 제2 디코딩 스킴과 상이한 표준-준수 제1 디코딩 스킴을 구현한다.
제1 비디오 스트림은 비디오 세그먼트의 모든 프레임을 포함할 수 있다.
제1 인핸서, 제1 업샘플러, 제2 인핸서 및 코딩 포맷 조정 모듈은 모두 각각의 프레임에 대해 동작할 수 있다.
제1 신호 요소 코딩 포맷으로부터 제2 신호 요소 코딩 포맷으로 변환하는 단계는 비선형일 수 있다.
제1 신호 요소 코딩 포맷으로부터 제2 신호 요소 코딩 포맷으로 변환하는 단계는 비예측적일 수 있다.
또한, 위에 상세히 설명한 향상 디코더의 기능을 제공하는 방법이 제공된다.
바람직하게는, 범위 데이터를 사용하여 제1 디코더 비디오 스트림 내지 제3 디코더 비디오 스트림 중 하나를 제1 신호 요소 코딩 포맷으로부터 제2 신호 요소 코딩 포맷으로 변환하는 단계는 제2 디코더 비디오 스트림을 제3 디코더 비디오 스트림으로 변환하는 단계를 포함하고, 업샘플링될 때 수행된다.
또한, 위에 상세히 설명한 향상 디코딩 방법을 수행하도록 구성된 컴퓨터 프로그램이 제공된다.
또한, 위에 상세히 설명한 향상 디코딩 방법을 수행하도록 구성된 컴퓨터 프로그램을 포함하는 컴퓨터-판독 가능 저장 매체 또는 데이터 캐리어가 제공된다.
이제 본 발명은 첨부 도면을 참조하여 단지 예시의 방식으로 설명될 것이다.
도 1은 신호를 인코딩 및 디코딩하기 위한 예시적인 시스템을 나타낸다.
도 2는 제1 예에 따른 디코딩 시스템의 예를 나타낸다.
도 3은 제1 예의 제1 변형에 따른 디코더의 예를 나타낸다.
도 4는 제1 예의 제2 변형에 따른 디코더의 예를 나타낸다.
도 5는 제1 예의 제3 변형에 따른 디코더의 예를 나타낸다.
도 6은 컴퓨터 시스템의 예를 나타낸다.
도 7은 제2 예에 따른 인코딩 시스템 및 방법의 예를 나타낸다.
도 8은 제2 예에 따른 디코딩 시스템 및 방법의 예를 나타낸다.
도 9는 제3 예에 따른 인코딩 시스템의 예를 나타낸다.
도 10은 제3 예에 따른 디코딩 시스템의 예를 나타낸다.
도 11은 제1 예에 따른 인코딩 시스템의 예를 나타낸다.
도 12는 제4 예에 따른 인코딩 시스템의 예를 나타낸다.
도 13은 제4 예의 제1 변형에서 인코딩 시스템의 예를 나타낸다.
도 14는 제1 변형에 대응하는 디코딩 시스템의 예를 나타낸다.
사용되는 용어와 관련하여 본 문서의 독자를 돕기 위해 몇몇 정의가 아래에 제공된다.
비제한적인 예로서, 신호는 이미지, 오디오 신호, 다중-채널 오디오 신호, 비디오 신호, 다중-뷰 비디오 신호(예를 들어, 3D 비디오), 체적 신호(예를 들어, 의료 이미징, 과학 이미징, 홀로그래픽 이미징 등), 체적 비디오 신호, 또는 심지어 4차원 초과의 신호일 수 있다.
대체로, 비디오는 동영상을 기록, 재생 또는 방송하는 것으로 정의된다. 비디오 신호는 개별 프레임의 시퀀스로 구성되며, 그 각각은 인코딩/디코딩 방법을 통해 개별적으로 압축될 수 있다.
인코딩은 하나의 소스로부터 다른 소스로의 효율적인 전송이나 해당 정보의 저장을 허용하도록 정보를 하나의 포맷으로부터 다른 포맷으로 변환하는 것을 포함하는 프로세스이다. 인코딩되는 정보는 원래 형식으로 실현 가능하게 전송될 수 없는 대량의 데이터를 종종 포함하는 미가공 비디오일 수 있다. 이와 같이, 미가공 비디오가 인코딩 또는 압축되어, 미가공 비디오 컨텐츠는 전송을 위한 감소된 공간량을 필요로 한다. 디코딩은 인코딩의 역 프로세스이며, 인코딩된 정보를 원래의 전송-전 포맷으로 다시 변환(압축 해제)하는 것을 포함한다. 인코딩 및 디코딩은 손실이 없거나 손실이 있을 수 있다.
비디오 신호, 특히 HDR 비디오와 관련된 신호, 제한된 컬러 볼륨(즉, 관련 HDR 표준에 의해 요구되는 피크 밝기/콘트라스트 및 색 영역을 제공하지 않음)을 갖는 소비자 디스플레이의 경우, SMPTE는 마스터링 디스플레이 상에 나타나는 장면을 설명하기 위한 메타데이터를 정의한다. SMPTE ST 2086 "고휘도 및 넓은 색 영역 이미지를 지원하는 마스터링 디스플레이 색 볼륨 메타데이터"는 MaxFALL(Maximum Frame Average Light Level) 및 MaxCLL(Maximum Content Light Level)과 같은 정적 데이터를 설명한다. SMPTE ST 2094 "고휘도 및 넓은 색 영역 이미지의 색 볼륨 변환을 위한 컨텐츠-종속 메타데이터"는 장면별로 변경할 수 있는 동적 메타데이터를 포함한다. 이는 ST 2094-10(Dolby Vision 포맷), 색 볼륨 재구성 정보(CVRI: Color Volume Reconstruction Information) SMPTE ST 2094-20(Philips 포맷) 및 ST 2094-30(Technicolor 포맷) 및 HDR10+ ST 2094-40(Samsung 포맷)에 정의된 색 리매핑 정보(CRI: Color Remapping Information)를 포함한다. 보조 데이터는 본원에 설명된 메타데이터를 포괄하거나 포함할 수 있으며, 잔차 정보와 같은 추가 향상 정보는 임의의 보조 데이터의 일부일 수 있다.
비디오 컨텐츠는 예를 들어, 특정 공간 해상도 또는 프레임 레이트 또는 피크 신호-대-잡음비(PSNR)에 의해 정의될 수 있는 규정된 품질 레벨(또는 레벨들)로 전송될 수 있다. 품질 레벨은 비디오 컨텐츠를 전달하는 전송 채널의 제약에 의해 제한될 수 있다. 예로서, 기존 디코딩 하드웨어는 주어진 해상도 및/또는 프레임 레이트(제1 품질 레벨)까지 신호를 디코딩할 수 있다. 하나 이상의 추가 품질 레벨이 계산 디코딩 방법을 사용하여 재구성될 수 있다. 제1 품질 레벨보다 높은 품질 레벨의 디코딩을 수행하도록 업데이트될 수 없는 레거시 디코딩 디바이스는 단순히 제1 품질 레벨에서 신호를 디코딩하고 추가 향상 데이터를 무시할 것이다.
신호의 비트 심도는 특정 값을 전달하는 데 사용되는 비트 수와 관련된다. 비디오에서, 비트 심도(때로는 색 심도라고 칭함)는 이미지 내의 픽셀을 나타내는 색 구성 요소(예를 들어, 루마 Y 및 크로마 Cb 및 Cr)와 관련되며, 구체적으로 휘도 레벨 수와 이미지에 저장될 수 있는 색의 수를 정의한다. 비트 심도가 8-비트 이하인 이미지는 표준 동적 범위의 이미지로 고려되고, 비트 심도가 8-비트 초과인 이미지는 높은 동적 범위 또는 향상된 동적 범위를 갖는 이미지로 고려될 수 있다.
이미지 해상도는 얼마나 많은 정보가 이용 가능한지에 대한 측정으로 고려될 수 있다. 비디오 해상도는 본질적으로 특정 이미지에 대해 얼마나 많은 정보가 보이는지에 대한 기본 측정이다. 공간 비디오 해상도는 통상적으로 디스플레이 디바이스 상의 각각의 차원에서 표시될 수 있는 픽셀 수로 정의되며, 일반적으로 디스플레이 디바이스의 높이에 대한 디스플레이 디바이스의 폭으로서 제공된다. 예를 들어, 풀(full) HD 신호는 1920 x 1080 픽셀 또는 더욱 일반적으로 간단히 1080p로 나타내어진다. UHD 신호는 통상적으로 3840 x 2160 픽셀의 프레임 해상도를 가질 수 있으며, 보다 일반적으로 간단히 4 K 해상도로 지칭된다. UHD 신호는 또한 8 K 해상도(예를 들어, 7680 x 4320 픽셀)를 가질 수 있다. 유사하게, 비디오 신호에는 추가적인 시간 해상도가 있을 수 있으며, 예를 들어, 비디오 신호는 초 당 25, 30, 50, 60, 100 및 120 프레임과 같은 다양한 프레임 레이트로 이용 가능할 수 있다.
업샘플링 프로세스는 신호의 품질을 향상시키기 위해 신호 또는 신호들의 시퀀스의 저해상도 버전을 신호의 고해상도 버전으로 변환시키는 것을 포함한다. 업샘플링은 더 높은 레이트에서 신호를 샘플링하여 얻은 시퀀스의 근사치를 생성하며, 이는 통상적으로 인코딩된 데이터에 대해 디코더에 의해 수행된다. 업샘플링은 공간적으로(즉, 픽셀 해상도에 대해) 또는 시간적으로(즉, 프레임 레이트에 대해) 수행될 수 있다.
반대로, 다운샘플링은 더 낮은 레이트에서 신호를 샘플링하여 얻은 시퀀스의 근사치를 생성하여 신호의 더 낮은 해상도 버전으로 귀결된다.
색 공간은 특정 색이 재생될 수 있게 하는 색 집합의 수학적 표현으로 정의될 수 있다. 디지털 이미지 및 비디오 표현에 가장 통상적으로 사용되는 2개의 색 공간은 RGB(적색/녹색/청색) 및 YCrCb(휘도/적색 크로미넌스(chrominance)/청색 크로미넌스)이다. 색 공간은 픽셀과 같은 이미지 요소가 비디오에서 어떻게 표현되는지에 대한 사양을 포함하여 색 정의에 대한 보다 상세 사항을 제공하는 ITU-R 권고 BT 709, 2020, 2100, 2390 중 하나 이상에 의해 정의되는 것으로 더욱 광범위하게 정의될 수 있으며, 또한, 일부 경우에: 샘플링 패턴(예를 들어, 4:4:4 내지 4:2:2); 비트 심도; 휘도 성분의 동적 범위; 색 영역; 사용된 전자-광 전달 함수 모델; 최저 휘도 레벨(예를 들어, 블랙 레벨); 및 최고 휘도 레벨(예를 들어, 화이트 레벨)과 같은 신호의 속성에 대한 파라미터를 포함하고 정의한다.
아래의 예는 비디오 컨텐츠를 갖는 신호에 대해 유용하게 수행되고, 비디오 컨텐츠는 프레임을 포함하며, 임의의 프로세싱은 각각의 비디오 세그먼트 내의 각각 및 모든 프레임에 대해(즉, 연속적인 프레임에 대해) 수행된다는 점에 유의해야 한다. 일부 예에서, 일부 프레임은 다르게 프로세싱될 수 있지만, 프레임 카운팅 및 시그널링에 대한 필요성이 감소하고 인트라-코딩 기준 프레임을 관리할 필요성이 훨씬 감소된다는 점에서 동일한 방식으로 모든 프레임을 프로세싱하는 것이 유리하다.
도 1은 본 특허 출원에서 설명되는 신호를 인코딩 및 디코딩하기 위한 예시적인 시스템을 나타낸다. 특히, 원래 신호(100)는 인코더(1100)에 의해 인코딩된다. 데이터 스트림(1150)은 상기 인코더에 의해 생성되고 디코더(1200-0 내지 1200-N)로 전송된다. 데이터 스트림은 분할될 수 있고 데이터 스트림(1150)의 일부는 디코더로 전송된다. 각각의 디코더는 데이터 스트림의 각각의 부분을 디코딩하고 레벨 #0에서의 재구성된 신호 내지 레벨 #N에서의 재구성된 신호를 얻는다. 최종 신호는 하나의 단일 신호를 얻기 위해 다른 레벨에서 상기 상이한 재구성된 신호를 프로세싱 및 결합함으로써 얻어진다. 상이한 디코더는 데이터 스트림의 상이한 부분을 수신하고 상이한 품질 레벨에서 신호를 재구성할 수 있다. 디코더는 상이한 품질 레벨을 디코딩 및 출력할 수 있다.
도 2는 본 특허 출원에 설명된 디코딩 시스템의 예를 나타낸다. 특히, 데이터 스트림(1150)은 복수의 디코더(1200-0 및 1200-1)에 의해 수신된다. 데이터 스트림(1150)은 표준 준수 데이터 스트림(예를 들어, AVC, HEVC, VVC 등과 같은 표준 코덱 및 비표준 코덱과 호환) 및 보조 데이터 스트림으로 형성될 수 있다. 제1 서브-스트림은 저품질 비디오(240)를 생성하기 위해 표준 디코더(230)로 공급되는 데이터 스트림(220)으로 데이터 스트림을 분할하는 제1 디코더(1200-1)로 공급된다. 저품질 비디오(240)는 출력 비디오 SDR(280), 즉, SDR을 갖는 비디오 출력을 생성하기 위해 향상 디코더(270)에 의해 데이터 스트림(210)과 함께 프로세싱된다. 이 경우, 출력 비디오 SDR은 프로세싱(예를 들어, 업샘플링) 후에 그러나 데이터 스트림(210)에 의해 그 위에 추가된 어떠한 추가 정보도 없이(예를 들어, 디코더(1200-1)가 데이터 스트림(210)을 인터프리팅할 수 없는 경우) 저품질 비디오(240)에, 또는 데이터 스트림(210)(예를 들어, 결합된 스트림)으로부터 도출된 추가 정보로 이를 프로세싱한 후 저품질 비디오(240)에 대응할 수 있으며, 그 후 결합된 스트림은 예를 들어, SDR 비디오만 표시할 수 있는 TV 또는 디스플레이에 적응하기 위하여 SDR 해상도로 다운샘플링된다. 제2 서브-스트림은 저품질 비디오(240)를 생성하기 위해 표준 디코더(230)로 공급되는 데이터 스트림(220)으로 데이터 스트림을 분할하는 제2 디코더(1200-0)로 공급된다. 저품질 비디오(240)는 출력 비디오 HDR(260)을 생성하기 위해 향상 디코더(250)에 의해 데이터 스트림(210)과 함께 프로세싱된다.
도 1 및 도 2에서, 데이터 스트림은 디코딩 모듈(1200-0, 1200-N)에서 수신된다. 데이터 스트림은 프로토콜 표준(예를 들어, DASH, HLS 등) 및/또는 코딩 표준(예를 들어, AVC, HEVC, VVC 등과 같은 MPEG 표준, 또는 VP9, AV1, VC-6 등과 같은 다른 코덱 포맷)과 같은 표준을 준수하는 데이터를 포함하는 스트림일 수 있다. 그 후 데이터 스트림은 디-먹싱(de-muxing) 모듈에 의해 2개(또는 그 이상)의 개별 스트림으로 분할된다. 제1 스트림은 표준 기반 스킴(예를 들어, AVC, HEVC, VVC, VC-6 등) 또는 비표준 기반 스킴(예를 들어, VP9, AV1 등)과 같은 제1 디코딩 스킴에 따라 디코딩하는 디코딩 모듈로 전달된다. 제1 디코딩 모듈의 출력(예를 들어, 제1 디코딩된 비디오 신호)은 제2 디코딩 스킴에 따라 디코딩하는 제2 디코딩 모듈로 전달된다. 이러한 제2 디코딩 모듈은 또한 제1 디코딩 모듈의 출력으로 프로세싱될 때 향상된 디코딩된 비디오 신호를 생성하는 일부 보조 데이터 스트림을 수신한다.
일 예에서, 제1 디코딩 스킴은 제2 디코딩 스킴과 동일하다.
다른 예에서, 제1 디코딩 스킴은 제2 디코딩 스킴과 다르다. 제2 디코딩 스킴은 또한 업샘플링, 잔차 역양자화, 잔차 변환, 모션-보상된 프레임 버퍼로부터 잔차 추가, 후-프로세싱 등과 같은 동작을 포함할 수 있다. 잔차 정보는 예를 들어, 이하의 추가 설명으로부터 명백해지는 바와 같이, 기준 신호를 기준 신호의 재구성된 버전과 비교함으로써 생성된 차이 신호이다.
일부 예에서, 보조 데이터 스트림은 또한 HDR 신호를 재구성하는 데 필요한 것과 같은 일부 메타데이터(정적 또는 동적)를 포함한다. 이러한 메타데이터는 향상된 HDR 디코딩된 비디오 신호를 생성하기 위해 제1 디코딩 모듈의 출력 및 보조 데이터 스트림의 다른 데이터와 함께 제2 디코딩 모듈에 의해 프로세싱될 수 있다. 메타데이터는 HDR 정보의 범위를 특정하기 위한 범위 정보를 포함할 수 있으며, HDR 신호가 디스플레이, 타이틀별, 또는 장면별 또는 프레임별 기반으로 적절하게 렌더링되도록 보장하기 위한 정보를 포함할 수 있다. 보조 데이터 스트림이 또한 잔차 정보를 포함할 수 있다.
일부 예에서, 제1 디코딩 모듈은 하위 비트 심도(예를 들어, 8-비트) 신호를 재구성하고, 제2 디코딩 모듈은 신호를 HDR에 적합한 상위 비트 심도(예를 들어, 10-비트) 신호로 변환한다. 일 예에서, 제2 디코딩 모듈은 디코딩 디바이스가 상위 비트-심도(예를 들어, 10-비트) HDR 사진을 표시할 수 없는지를 감지할 수 있으며, 이 경우 하위 비트 심도(예를 들어, 8-비트) 신호를 디코딩하고 표시한다.
일부 예에서, 제2 디코딩 모듈은 값 범위를 조정하는 데 필요한 프로세싱을 제1(하위) 품질 레벨로부터 출력 신호를 재구성하는 데 필요한 다른 프로세싱과 결합한다. 일 예에서, 업샘플링 동작은 메모리 버퍼를 복수회 터치하는 것을 피하기 위해 범위 조정과 결합되어 메모리 액세스와 필요한 메모리 대역폭 모두를 감소시킨다. 예를 들어, 다른 프로세싱은 업샘플링된 하위 품질 레벨로부터 상위 품질 레벨로 변환하기 위해 업샘플링 및/또는 잔차 데이터의 추가를 포함한다.
일부 예에서, 제1 디코딩 모듈은 신호의 저해상도 렌디션(rendition)을 재구성한다. 그 후, HDR 조정은 제2 디코딩 모듈에 의해 신호의 저해상도 재구성에 적용된다. 해당 조정 후에, 제2 인코딩 모듈은 더 높은 해상도 및/또는 더 높은 품질의 신호를 얻기 위해 해당 신호 및 다른 보조 데이터를 추가로 프로세싱한다.
일부 예에서, 인코더는 높은-비트-심도(예를 들어, 10-비트) HDR 소스 신호를 수신한다. 인코더는 소스 신호를 다운샘플링하고 낮은 비트 심도(예를 들어, 8 비트) SDR 신호를 얻기 위해 다운샘플링된 렌디션을 조정한다. SDR 신호는 제1 인코딩된 데이터 세트를 얻기 위해 제1 코덱으로 프로세싱된다. 제1 코덱의 디코딩된 출력은 더 높은 비트 심도 HDR 신호로 변환되고, 이는 그 후 원래 소스 신호의 풀-해상도 재구성된 렌디션을 재구성하는 데 사용될 추가 보조 데이터를 포함하는 제2 인코딩된 데이터 세트를 생성하기 위해 제2 인코더 모듈에 의해 프로세싱된다.
일부 예에서, 인코더는 다운샘플링 동작 전 또는 후에 높은-비트-심도 HDR 신호를 프로세싱한다. 예를 들어, 높은-비트-심도 HDR 신호는 본원에 참조로 통합되는 ITU-R 권고 BT.2020, ITU-R 권고 BT.2100 또는 이와 유사한 것에서 정의된 것과 같은 색 공간에서 표현될 수 있다. 배경으로, Rec. 2100은 HDR 신호에 사용될 수 있는 2개의 전달 함수 정의, 즉, 이전에 SMPTE ST 2084(여기에 참조로 통합됨)로서 표준화된 지각적 양자화기(PQ: Perceptual Quantizer), 및 이전에 ARIB STD-B67(본원에 참조로 통합됨)로서 표준화된 하이브리드 로그-감마(HLG: Hybrid Log-Gamma)를 포함한다. 10 비트 색 비트 심도를 갖는 PQ 스킴은 또한 HDR10으로 칭해졌다. https://en.wikipedia.org/wiki/Rec._2020-cite_note-HDRCompatibleCEA2015-49. 마찬가지로, 10 비트 색 비트 심도를 갖는 HLG 스킴은 HLG10으로 칭해졌다.
HDR 신호는 다운샘플링 이전 또는 이후에 프로세싱되어 ITU-R 권고 BT.709 또는 이와 유사한 것(본원에 참조로 통합됨)에 정의된 것과 같은 다른 색 공간으로 이를 변환할 수 있다. 예를 들어, 이러한 변환은 결과적인 신호가 낮은-비트-심도(예를 들어, 8-비트) SDR 신호인 방식으로 수행될 수 있다. 이러한 신호는 그 후 상술한 바와 같이 제1 인코딩 모듈에 의해 사용될 수 있다.
반대로, 제1 코덱의 디코딩된 출력은 높은-비트-심도 신호(예를 들어, 10-비트)를 생성하기 위해 업샘플링 동작 이전 또는 이후에 제1 색 공간(예를 들어, BT.709)으로부터 제2 색 공간(예를 들어, BT.2020 또는 BT.2100)으로 변환된다. 이러한 신호는 그 후 상술한 바와 같이 제2 인코더 모듈에 의해 프로세싱될 수 있다.
일부 예에서, 제1 디코딩 모듈은 제1 인코딩된 신호를 수신하고 예를 들어, 또한 낮은-비트-심도(예를 들어, 8-비트) SDR 신호인 신호의 더 낮은 해상도 렌디션을 재구성한다. SDR 신호는 제1 색 공간(예를 들어, BT.709)에서 표현될 수 있고, 더 높은 해상도 렌디션으로의 업샘플링 동작 이전 또는 이후에 제2 색 공간(예를 들어, BT.2020 또는 BT.2100)으로 변환되므로, 예를 들어, 더 높은 해상도에서 높은-비트-심도(예를 들어, 10-비트)에서 HDR 신호를 생성한다. 제2 인코딩된 신호는 조정 신호 또는 잔차 신호를 생성하기 위해 제2 디코딩 모듈에 의해 디코딩된다. HDR 신호는 그 후 조정 신호를 사용하여 조정된 HDR 신호를 생성하기 위해 제2 디코딩 모듈에 의해 추가로 프로세싱될 수 있다. 해당 조정 후에, 제2 인코딩 모듈은 더 높은 해상도 및/또는 더 높은 품질의 신호를 얻기 위해 신호 및 다른 보조 데이터를 추가로 프로세싱한다.
변환은 본원에 참조로 통합되는 ITU-R 권고 BT.2407 및 ITU-R 권고 BT.2087에 포함된 것과 같은 본 기술 분야에 알려진 방법을 사용하여 수행될 수 있다. 색 공간 사이의 변환을 지원하는 데 사용되는 룩-업-테이블(LUT: look-up-table) 및/또는 다른 알려진 방법(예를 들어, 모두 본원에 참조로 통합된 보고서 ITU-R BT.2408-0 또는 BBR R&D에 의한 HLG 룩-업 테이블 라이센싱)이 또한 존재한다.
다른 예에서, 소스 신호는 조정되고 다운샘플링 프로세스를 진행하기 전에 예를 들어, 색 변환을 수행함으로써 더 낮은 비트 심도 SDR 신호로 변환된다.
도 3은 제1 예에 따른 디코더의 예를 나타낸다. 데이터 스트림(210)은 디먹스(300)에 의해 3개의 상이한 스트림, HDR 스트림 또는 범위(들) 데이터(310), 향상 데이터의 제1 세트(330) 및 향상 데이터의 제2 세트(360)로 분할된다. HDR 범위 데이터(310)는 제1 출력 스트림을 생성하기 위해 HDR 조정 모듈(320)로 공급되어 저품질 비디오(240)와 결합된다. 이러한 제1 출력 스트림은 제2 출력 스트림을 생성하기 위해 제1 인핸서(enhancer)(340)로 공급되어 향상 데이터의 제1 세트(330)와 함께 프로세싱된다. 제2 출력 스트림은 최종적으로 업샘플러(350)로 공급되고 업샘플링된 스트림은 비디오 HDR 출력(260)을 출력하기 위해 제2 인핸서(370)에 의해 향상 데이터의 제2 세트(360)로 프로세싱된다. 향상 데이터의 제1 세트(330)가 존재하지 않는 경우, 제1 출력 스트림은 업샘플러(350)로 직접 공급되고 다른 단계는 변경되지 않은 채로 유지된다는 점에 유의한다.
도 4는 제2 예에 따른 디코더의 예를 나타낸다. 제2 예는 제1 예의 대안적인 구현으로 볼 수 있다. 데이터 스트림(210)은 디먹스(300)에 의해 3개의 다른 스트림, HDR 스트림(310), 향상 데이터의 제1 세트(330) 및 향상 데이터의 제2 세트(360)로 분할된다. 향상 데이터의 제1 세트(330)는 제1 출력 스트림을 생성하기 위해 제1 인핸서(400)로 공급되어 저품질 비디오(240)와 결합된다. 이러한 제1 출력 스트림은 제2 출력 스트림을 생성하기 위해 HDR 스트림 데이터(310)와 함께 HDR 조정 모듈(420)로 그 후 공급되는 업샘플링된 버전을 생성하기 위해 업샘플러(410)로 공급된다. 제2 출력 스트림은 비디오 HDR 출력(260)을 출력하기 위해 제2 인핸서(370)에 의해 향상 데이터의 제2 세트(360)로 프로세싱된다. 향상 데이터의 제1 세트(330)가 존재하지 않는 경우, 저품질 비디오(240)는 업샘플러(410)로 직접 공급되고 다른 단계는 변경되지 않은 채로 유지된다는 점에 유의한다.
도 5는 제3 예에 따른 디코더의 예를 나타낸다. 제3 예는 제1 및 제2 예 중 하나 이상에 대한 대안으로서 다시 구현될 수 있다. 데이터 스트림(210)은 디먹스(300)에 의해 3개의 다른 스트림, HDR 스트림(310), 향상 데이터의 제1 세트(330) 및 향상 데이터의 제2 세트(360)로 분할된다. 향상 데이터의 제1 세트(330)는 제1 출력 스트림을 생성하기 위해 제1 인핸서(500)로 공급되어 저품질 비디오(240)와 결합된다. 이러한 제1 출력 스트림은 제2 출력 스트림을 생성하기 위해 업샘플러(510)로 공급되어 HDR 범위 데이터(310)와 함께 프로세싱된다. 제2 출력 스트림은 비디오 출력(280)을 출력하기 위해 제2 인핸서(520)에 의해 향상 데이터의 제2 세트(360)로 프로세싱된다. 이 경우 업샘플링과 HDR 조정은 하나의 동작으로 결합된다.
도 3, 도 4 및 도 5의 예에서, HDR 범위 데이터(310), 향상 데이터의 제1 세트(330) 및 향상 데이터의 제2 세트(360) 중 하나 이상이 데이터 스트림(210)에 없으면, 이러한 데이터를 사용하는 대응하는 향상 또는 조정 동작도 생략될 수 있다. 이러한 경우에, 디먹싱된 데이터 스트림의 한 부분이 존재하지 않으면 수신 프로세싱 엔티티(예를 들어, 인핸서 또는 HDR 조정 모듈 중 하나)가 수신된 비디오 스트림을 통과하도록 구성될 수 있다. 특정 경우에, 향상 디코더는 예를 들어, 디스플레이 디바이스가 HDR 비디오를 렌더링할 수 없는 경우, HDR 조정 동작을 생략함으로써 SDR 비디오를 출력하도록 구성될 수 있다. 더 낮은 해상도에서 출력 비디오가 필요한 경우, 업샘플러와 제2 인핸서는 불능화될 수 있다. 상이한 비디오 출력이 향상 디코더(250)의 구성 요소들의 동작을 선택적으로 제어함으로써 구성될 수 있다.
도 6은 본 특허 출원에 설명된 컴퓨터 시스템(600)의 예를 나타낸다. 상술한 디코더가 구현될 수 있는 다중 프로세서를 포함하는 컴퓨터 시스템(600)을 나타낸다. 컴퓨터 시스템은 시스템 버스(611), 컴퓨터-판독 가능 저장 매체(612), 하나 이상의 프로세서(613), I/O 인터페이스(614) 및 통신 인터페이스(615)를 포함한다. 도 6은 입력 디바이스(670)와 I/O 인터페이스(614)에 통신 가능하게 커플링된 저장 디바이스(680)와 통신 인터페이스(615)를 통해 하나 이상의 네트워크(690)에 통신 가능하게 커플링된 컴퓨터 시스템(600)을 나타낸다. 컴퓨터-판독 가능 저장 매체(612)는 적어도 상술한 향상 디코더를 구현할 수 있는 신호 프로세서 어플리케이션(640-1)을 저장한다. 신호 프로세서 어플리케이션(640-1)은 하나 이상의 신호 프로세서가 프로세싱(640-2)함에 따라 하나 이상의 프로세서(613)에 의해 실행될 수 있다. 병렬 프로세싱의 요소를 가능하게 하기 위해 다중 프로세서에 걸쳐 디코딩을 분산할 수 있는 것이 특히 유리하다. 본원에 설명된 인코딩 및 디코딩 시스템 및 방법은 병렬 프로세싱의 효과적인 사용을 가능하게 한다.
도 7은 본 특허 출원에 설명된 인코딩 시스템 및 방법의 예를 나타낸다. 입력 신호(700), 예를 들어, 높은-비트-심도(예를 들어, 10-비트 또는 12-비트 또는 기타, 예를 들어, 16-비트 또는 심지어 그 초과) HDR-유형 신호가 인코딩 시스템에서 수신된다. 그 후, 입력 신호는 제1 색 변환 모듈(701)을 통해 제1 색 공간(예를 들어, BT.2020 또는 BT.2100)으로부터 제2 색 공간(예를 들어, BT.709)으로 변환된다. 제1 색 공간과 제2 색 공간은 다르다. 변환하는 동안, 신호의 비트-심도는 원래의 높은-비트-심도로부터 낮은-비트-심도(예를 들어, 8-비트) SDR 신호로 감소될 수 있다. 그 후, SDR 신호는 다운샘플러(702)에 의해 프로세싱되어 더 높은 해상도로부터 더 낮은 해상도로 전달된다. 그 후, 출력 신호는 제1 인코더(703)에 의해 프로세싱된다. 제1 인코더(703)는 일 예에서 MPEG 표준 등에 기초한 표준-기반의 알려진 인코딩 모듈이고, 일 예에서 이 기술의 광범위한 이전과의 호환성을 허용하기 위해 최종 사용자 디코더의 상당 부분이 호환 가능한 널리 사용되는 인코딩 표준이다.
다른 특정 예에서, 변환 및 다운샘플링은 역순으로, 즉, 먼저 다운샘플링 후 변환이 수행될 수 있다. 다른 예에서, 다운샘플링 동작이 수행되지 않으므로 변환된 신호는 제1 인코더(703)로 곧바로 전달된다. 이러한 가장 기본적인 경우, 다운샘플링 동작이 수행되지 않을 때, 해상도 변화는 없다.
제1 인코더(703)의 출력은 제1 인코딩된 스트림(710)이다. 이는 또한 위에서 언급한 바와 같이 광범위하게 디코딩할 수 있는 베이스 계층 출력으로서 생각될 수 있고, 입력 신호(700)와 다른 색 공간에서(그리고 선택적으로 더 낮은 해상도에서) 사용자에게 입력 신호의 렌디션을 제시할 수 있다. 상이한 색 공간은 다수의 상이한 포맷 중 임의의 하나 이상일 수 있거나 신호에 대한 임의의 하나 이상의 다른 제약에 의해 정의될 수 있다. 일 예에서, 색 공간은 RGB 색 공간으로부터 YUV 색 공간으로, 또는 HDR-유형 색 공간으로부터 SDR-유형 색 공간으로 변경될 수 있다.
제1 인코더(703)의 출력은 제1 디코더(704)에 의해 추가로 디코딩되고, 출력 디코딩된 신호는 그 후 제2 색 변환 모듈(705)로 전달되어 디코딩된 신호를 제2 색 공간으로부터 제1 색 공간으로 다시 변환한다. 제2 색 변환 모듈(705)은 제1 색 공간 변환 모듈(701)에 의해 사용되는 것과 역의 프로세스를 사용할 수 있다. 메타데이터가 필요하지 않거나 색 공간 변환(705)을 수행하는 방식에 대한 다른 표시가 필요하지 않다는 점에서 제1 색 변환 모듈(701)로부터 제2 색 변환 모듈(705)로 흐르는 어떠한 정보 없이, 역 프로세스 또는 다른 것을 사용하는 이점이 있다. 명백해질 바와 같이, 상위-레벨 인코딩 프로세스는 색 공간 변환에 있어서 임의의 부정확성을 보정하는 방식을 제공한다. 계속해서, 상위-레벨 인코딩으로 인해 제1 색 공간에서 신호를 정확하게 또는 전혀 예측하려고 시도할 필요가 없다.
또한, 제2 색 변환 모듈(705)에 의해 수행되는 변환 동안, 신호의 비트-심도는 HDR-유형 신호를 생성하기 위해 낮은-비트-심도(예를 들어, 8-비트)로부터 높은-비트-심도(예를 들어, 10-비트, 12-비트 또는 그 이상)로 증가될 수 있다. HDR-유형 신호 또는 단순 색상 변환된 신호는 그 후 706에 의해 업샘플링되고 결과적인 업샘플링된 HDR-유형 신호는 제2 인코딩된 스트림(720)을 생성하기 위해 제2 인코더(707)에 의해 원래 입력 신호와 함께 프로세싱된다.
제2 인코더(707)에 의해 수행되는 프로세싱은 기준 신호로서의 입력 신호(700)와 원래 신호(700)의 재구성으로서의 업샘플링된 HDR-유형 신호 사이의 차이를 나타내는 잔차 신호를 생성할 수 있다. 잔차 신호는 원래 입력 신호(700)를 재구성하기 위해 디코더에서 대응하는 업샘플링된 HDR-유형 신호 또는 디코더에서 그 가까운 근사치를 조정하는 데 사용될 수 있다. 이 경우, 잔차 신호는 제1 인코더(703) 및 제1 디코더(704)에 의해 도입된 임의의 아티팩트 또는 다른 신호 불일치를 설명하며, 즉, 잔차 신호는 코덱-유형의 부정확성을 보정한다. 또한, 잔차 신호는 제1 및 제2 색 공간 변환 모듈(701 및 705) 모두에 의해 수행되는 색 공간 변환에 의해 도입된 임의의 아티팩트 또는 신호 불일치를 보정한다. 마지막으로, 잔차 신호는 사용되는 경우 다운샘플러(702) 및 업샘플러(706)에 의해 도입된 임의의 불일치를 보정한다. 이는 상술한 것의 더 간단하거나 더 효율적인 버전을 사용하도록 설계 결정을 내릴 수 있도록 한다. 잔차 신호는 알려진 기술을 사용하여 인코딩될 수 있다.
일 예에서, 변환 및 업샘플링은 역순으로, 즉, 먼저 업샘플링 후 변환이 수행될 수 있다. 다른 예에서, 업샘플링 동작이 수행되지 않으므로 변환된 신호는 제2 인코더(707)로 곧바로 전달되며, 여기서 제2 인코더(707)는 이전과 동일하게 잔차 신호를 생성하지만, 이 때 해상도 변화는 없다.
도 7로부터 알 수 있는 바와 같이, 인코더 및 관련 인코딩 방법은 표준-준수 또는 다른 인코딩 수단을 사용하여 인코딩될 수 있고 제1 또는 베이스 품질 레벨에서 신호를 나타내는 제1 인코딩된 스트림(710)을 생성한다. 인코더 및 관련 인코딩 방법은 또한 디코더에서 제1 인코딩된 스트림(710)으로부터 도출된 베이스 품질 레벨에서 신호의 색 변환된 버전을 조정하거나 보정하기 위한 잔차 정보를 포함할 수 있는 제2 인코딩된 스트림(720) 또는 향상 스트림을 생성한다. 색 변화 외에도 해상도에서의 변화가 있을 수 있다. 이러한 모든 피처는 인코딩된 입력 신호의 광범위하게 디코딩 가능한 버전 위에 인코딩 및 디코딩되는 HDR에서 SDR로의 변환에 한정되지 않지만 이와 같은 색 공간 변환을 허용할 수 있는 합성 신호를 개별적으로 및/또는 총괄적으로 발생시켜, 신호 개선, 감소된 대역폭 포텐셜 및 이전과의 호환성 중 하나 이상을 허용한다. 아키텍처 및 구조는 종래 기술에 비해 효율성을 허용할 수 있다.
도 8은 본 특허 출원에서 설명되는 디코딩 시스템 및 방법의 예를 나타낸다. 제1 디코더(801)는 제1 인코딩된 스트림(710)을 수신하고 이를 디코딩하여 제2 색 공간에서 디코딩된 신호(820)를 생성하며, 이는 낮은-비트-심도(예를 들어, 8-비트)에서 SDR-유형 신호일 수 있다. 그 후, 디코딩된 신호(820)는 디코딩된 신호를 제2 색 공간으로부터 제1 색 공간으로 다시 변환하기 위해 색 변환 모듈(802)로 전달된다. 변환 동안, 신호의 비트-심도는 낮은-비트-심도(예를 들어, 8-비트)로부터 높은-비트-심도(예를 들어, 10-비트, 12-비트 또는 그 초과)로 증가되어 더 낮은 해상도에서 원래 HDR-유형 신호를 재구성인 HDR-유형 신호를 생성할 수 있다. 그 후, 변환된 신호(제1 색 공간 및/또는 HDR-유형)는 업샘플러(803)에 의해 업샘플링되고, 결과적인 업샘플링된 신호는 최종 디코딩된 신호(810)(예를 들어, 제1 색 공간에 있는 및/또는 보정된 HDR-유형의 신호를 생성하기 위해 제2 인코딩된 스트림(720)과 함께 제2 디코더(804)에 의해 프로세싱된다. 여기서, 제2 인코딩된 스트림(720)은 원래 입력 신호(700)(예를 들어, 인코더에서 수신됨) 또는 그 근접한 근사치를 재구성하기 위해 업샘플링된 HDR-유형 신호와 결합(예를 들어, 합산)될 수 있는 잔차 정보를 포함할 수 있다. 대안적으로, 다른 예에서, 색 변환 및 업샘플링은 역순으로, 즉, 우선 업샘플링한 다음 색 변환을 수행할 수 있다. 다른 예에서, 업샘플링 동작(803)이 수행되지 않으므로 변환된 신호는 제2 디코더(804)로 곧바로 전달된다. 이는 해상도 변화가 없는 기본 경우에 발생한다.
도 8의 디코딩 시스템은 제2 색 공간에 있고 SDR-유형 신호일 수 있는 제1 디코딩된 신호(820)를 생성한다. 제1 디코딩된 신호(820)는 디스플레이, 특히 그리고 유리하게는 제1 디코딩된 신호(820)가 제2 색 공간으로 변환될 때 이용 가능한 정보를 이용할 수 없는 디스플레이에 출력하기 위해 이용 가능하다. 도 8의 디코딩 시스템은 또한 제1 색 공간에 있고 제2 인코딩된 스트림(720)의 잔차 신호에 의해 보정되는 HDR-유형 신호일 수 있는 최종 디코딩된 신호(810)를 생성한다. 최종 디코딩된 신호(810) 제1 색 공간과 호환되는 디스플레이에 출력하기 위해 이용 가능하다. 최종 디코딩된 신호(810)는 제1 디코딩된 신호(820)와 비교할 때 추가적인 품질 레벨에 있을 수 있다(예를 들어, 향상된 색 및/또는 해상도). 디코딩 시스템은 임의의 연결된 디스플레이가 갖는 기능을 결정할 수 있고, 따라서 최종 디코딩된 신호(810)를 생성할지 여부, 제1 디코딩된 신호(820)를 사용할지 여부 및/또는 최종 디코딩된 신호를 호환 가능한 포맷으로 다시 변환할지 여부를 선택할 수 있다.
도 9는 본 특허 출원에 설명되는 인코딩 시스템의 예를 나타낸다. 도 9의 예는 도 7의 예의 변형으로서 볼 수 있다. 도 7의 개시의 공통된 피처는 간결성을 위해 다시 상세히 개시되지 않는다. 특히, 도 9는 동일한 해상도에 있을 수 있지만 색 공간 및/또는 SDR/HDR 특성에서 다를 수 있는 3개의 인코딩 계층과 2개의 개별 입력 신호가 있는 예를 나타낸다.
본 예에서, SDR 입력 신호(900), 예를 들어 낮은-비트-심도(예를 들어, 8-비트) SDR 신호가 인코딩 시스템에서 수신된다. 이는 원래 신호(예를 들어, 카메라 또는 비디오 피드와 같은 비디오 소스로부터 직접 획득됨) 또는 HDR 색 공간(예를 들어, BT.2020 또는 BT.2100)으로부터 SDR 색상 공간(예를 들어, BT.709)으로 변환된 HDR 신호(예를 들어, HDR 입력 신호(960))일 수 있다. SDR 신호(900)는 더 높은 해상도로부터 더 낮은 해상도로 전달되기 위해 다운샘플러(902)에 의해 프로세싱된다. 그 후, 출력 신호는 제1 인코더(903)에 의해 프로세싱된다. 제1 인코더(903)의 출력은 제1 인코딩된 스트림(910)이다. 제1 인코더(903)의 출력은 제1 디코더(904)에 의해 추가로 디코딩되고, 그 후 출력된 디코딩된 신호는 업샘플러(906)에 의해 업샘플링되고 결과적인 업샘플링된 SDR 신호는 제2 인코딩된 스트림(920)을 생성하기 위해 제2 인코더(907)에 의해 원래 SDR 입력 신호(900)와 함께 프로세싱된다. 도 7을 참조하여 설명된 바와 같이, 제2 인코딩된 스트림(920)은 다운샘플링/업샘플링 프로세스(902 및 906) 및 인코딩/디코딩 프로세스(903 및 904)에서 임의의 결함을 보정하기 위한 잔차 신호를 포함할 수 있다.
그 후, 제2 인코딩된 스트림(920) 및 제1 인코딩된 스트림(910)은 SDR 디코더(930)로 전달되고, SDR 디코더(930)는 도 10의 박스형 영역에 나타낸 SDR 디코더와 같을 수 있다. SDR 디코더(930)는 SDR 입력 신호(900)의 재구성된 버전을 생성하기 위해 제1 인코딩된 스트림(910)을 디코딩하고 이를 업샘플링한다. 그 후, 제2 인코딩된 스트림(920)은 잔차 정보가 있는 특정 경우에 사용되어 SDR 입력 신호(900)의 재구성된 버전을 SDR 입력 신호 또는 그 더 가까운 표현인 신호로 터치-업(touch-up) 또는 조정한다. 이 지점까지의 신호의 색 공간은 SDR 입력 신호(900)의 색 공간과 동일하다는 점에 유의해야 한다.
그 후, SDR 디코더(930)의 출력은 SDR 색 공간으로부터 HDR 색 공간으로 디코딩된 신호를 변환하기 위해 색 변환 모듈(940)로 전달된다. 변환 동안, 신호의 비트-심도는 또한 HDR 신호(예를 들어, 휘도에 대한 더 넓은 동적 범위 및/또는 더 넓은 색 영역을 갖는 신호)를 생성하기 위해 낮은-비트-심도(예를 들어, 8-비트)로부터 높은-비트-심도(예를 들어, 10-비트 또는 12-비트)로 증가될 수 있다. 그 후, 결과적인 HDR 신호는 제3 인코딩된 스트림(970)을 생성하기 위해 HDR 입력 신호(960)와 함께 제3 인코더(950)로 공급된다. 이러한 제3 인코딩된 스트림(970)은 디코더에서 HDR 신호를 재구성하는 데 사용될 수 있는 추가 인코딩된 정보를 포함할 수 있다.
제3 인코딩된 스트림(970)은 색 변환 프로세스의 임의의 결함을 주로 보정하는 잔차 신호를 포함할 수 있다. 잔차 신호는 기준 신호로서의 HDR 입력 신호(960)와 결과적인 HDR 신호 사이의 차이를 나타낸다. 제3 인코딩된 스트림(970)의 잔차 신호는 제2 인코딩된 스트림(920)의 잔차에 의해 이미 처리되지 않는 다운샘플링/업샘플링 프로세스(902 및 906) 및 인코딩/디코딩 프로세스(903 및 904)에 기인하는 임의의 문제에 대해 보정할 수 있다. 잔차 신호는 HDR 입력 신호(960) 또는 그 근접한 근사치를 재구성하기 위해 디코더에서 대응하는 색 공간 변환된 HDR 신호를 조정하는 데 사용될 수 있다. 예를 들어, 제3 인코더(950)에 의해 생성된 잔차 신호는 HDR 포맷으로의 변환에 후속하는 SDR 디코더(930)의 출력과 HDR 입력 신호(960) 사이의 차이를 보정할 수 있다.
도 10은 디코딩 시스템의 예를 나타낸다. 도 10의 디코딩 시스템은 도 9의 인코더에 의해 출력된 인코딩된 스트림을 수용하도록 설계된다. 제1 디코더(1001)는 제1 인코딩된 스트림(910)을 수신하고 이를 디코딩하여 제1 디코딩된 신호를 생성한다. 그 후, 제1 디코딩된 신호는 업샘플러(1003)에 의해 업샘플링되고, 결과적인 업샘플링된 신호는 SDR 디코딩된 신호(1010)를 생성하기 위해 예를 들어, 내부의 잔차 신호를 사용하여 제2 인코딩된 스트림(920)과 함께 제2 디코더(1004)에 의해 프로세싱된다. 그 후, SDR 디코딩된 신호(1010)는 SDR 색 공간으로부터 HDR 색 공간으로 디코딩된 신호를 변환하기 위해 색 변환 모듈(1002)로 전달된다. 변환 동안, 신호의 비트-심도는 또한 HDR 재구성된 신호를 생성하기 위해 낮은-비트-심도로부터 높은-비트-심도로 증가될 수 있다. 그 후, HDR 재구성된 신호는 예를 들어, 내부의 잔차 신호를 사용하여 HDR 디코딩된 신호(1030)를 생성하기 위해 제3 인코딩된 스트림(970)과 함께 제3 디코더(1020)로 전달된다. 예를 들어, 제3 인코딩된 스트림(970) 내의 잔차 신호는 색 변환 모듈(1002)의 출력과 결합(예를 들어, 합산)될 수 있다.
도 9 및 도 10의 인코딩 및 디코딩 시스템은 신호, 특히, 그러나 배타적이지 않게 2개의 해상도와 2개의 색 공간에서 이용 가능한 비디오 신호를 인코딩 및 디코딩하기 위한 유연하고 효율적인 기술을 제공한다. 2개의 개별 신호가 인코더에 입력되며, 하나는 다른 하나보다 높거나 더 정교한 색 공간에 있다. 예를 들어, 하나의 신호는 높은 동적 범위 색 공간(예를 들어, 더 넓은 휘도 범위 및 콘트라스트 비율 및/또는 더 넓은 색 영역을 포함)에 있을 수 있고, 다른 신호는 높지 않은 동적 범위 또는 표준 동적 범위에 있을 수 있다. 이러한 2개의 개별 입력 신호와 관련된 다중 인코딩된 스트림이 디코더에서 이용 가능하다.
또한, 인코딩 및 디코딩 시스템은 더 낮거나 덜 정교한 색 공간에서 신호의 다운샘플링된 버전, 예를 들어, 낮은-비트-심도에서 SDR 신호의 다운샘플링된 버전을 또한 제공한다. 이러한 신호는 제1 인코더(903)에 의해 인코딩되고, 인코더 시스템으로부터 출력되는 신호에 대한 베이스 계층을 형성한다. 베이스 계층은 입력 신호(900, 960)보다 낮은 해상도에 있다. 따라서, 더 많은 레거시 디코더가 더 낮은 해상도에서 제1 인코딩된 스트림(910)을 디코딩할 수 있으므로(예를 들어, 베이스 계층), 이전과의 호환성을 보장하는 데 더욱 유용한 인코딩 및 디코딩 시스템이 제공된다. 예를 들어, 제1 인코딩된 스트림(910)은 표준 해상도에 있을 수 있는 반면, 제2 인코딩된 스트림(920) 및 제3 인코딩된 스트림(970)은 HD 또는 1080p 해상도에 있을 수 있다. 대안적으로, 제1 인코딩된 스트림(910)은 HD 또는 1080p 해상도에 있을 수 있는 반면, 제2 인코딩된 스트림(920) 및 제3 인코딩된 스트림(970)은 UHD 또는 4K 해상도에 있을 수 있다. 더 높은 해상도를 처리할 수 있는 디코더는 제2 인코딩된 스트림(920), 특히 그 안에 포함된 잔차 정보를 이용하여 더 높은 해상도, 예를 들어 UHD 또는 4K 해상도에서 업샘플링하고 업샘플링된 렌디션을 보정하고 이를 SDR 디코딩된 신호(1010)로서 출력할 수 있을 것이다. 특정 경우에, SDR 디코딩된 신호(1010)는 더 높은 해상도를 표시할 수 있지만 비디오 데이터를 제1 또는 HDR 색 공간 내에서 표시하는 데 적합하지 않은 디스플레이 디바이스에 의해 볼 수 있다. 업샘플링(1003) 및 제2 디코더(1004)에서의 보정은 소프트웨어에서 수행될 수 있으며, 이러한 기술을 적용하기 위해 기존의 레거시 디코더에 소프트웨어 업데이트를 제공하는 것이 가능할 수 있다. 물론, 디코더가 이러한 기능을 갖고 연결된 디스플레이가 이러한 신호를 표시하는 대응하는 기능을 갖는다면, 이러한 업샘플링되고 보정된 렌디션은 색 공간 변환(1002) 및 제3 인코딩된 스트림(970)에 의해 제공되는 추가 신호 개선에 대한 기초로서 사용될 수 있다. 알 수 있는 바와 같이, 컨텐츠 공급자는 컨텐츠의 하나 또는 2개의 신호를 공급할 수 있고, 인코딩 및 디코딩 시스템은 다양한 디코더/디스플레이 조합에서 신호를 3개의 포맷으로 재생하기 위해 필요에 따라 제1, 제2 및 제3 인코딩된 스트림을 적절하게 전달할 수 있다. 제2 및 제3 인코딩된 스트림(920 및 970)이 잔차 신호에 기초하는 경우, (제1 인코더(903)에 의해 출력된 조밀하거나 구조화된 데이터와 비교하여 희소 또는 구조화되지 않은 데이터를 표현하기 때문에) 이는 효율적으로 인코딩될 수 있다. 예를 들어, 잔차 신호는 (비교되는 2개의 신호가 다르지 않은 영역에서) 대략 제로-평균(mean)일 수 있고 많은 제로 값을 포함할 수 있다. 이러한 형태의 신호는 효율적으로 압축될 수 있다.
도 11은 본 특허 출원에 설명되는 인코딩 시스템의 예를 나타낸다. SDR 입력 신호(900), 예를 들어, 낮은-비트-심도(예를 들어, 8-비트) SDR 신호가 인코딩 시스템에서 수신된다. 이는 원래 신호(예를 들어, 카메라 또는 비디오 피드와 같은 비디오 소스로부터 직접 획득) 또는 HDR 색 공간(예를 들어, BT.2020 또는 BT.2100)으로부터 SDR 색 공간(예를 들어, BT.709)으로 변환된 HDR 입력 신호(예를 들어, HDR 입력 신호(960))일 수 있다. 그 후, SDR 입력 신호(900)는 제1 인코더(1103)에 의해 프로세싱된다. 제1 인코더(1103)의 출력은 제1 인코딩된 스트림(910)이다. 제1 인코더(1103)의 출력은 제1 디코더(1104)에 의해 추가로 디코딩되고, 그 후 출력 디코딩된 신호는 디코딩된 신호를 SDR 색 공간으로부터 HDR 색 공간으로 다시 변환하기 위해 색 변환 모듈(1105)로 전달된다. 변환 동안, 신호의 비트-심도는 HDR 신호를 생성하기 위해 낮은-비트-심도로부터 높은-비트-심도로 증가될 수 있다. 그 후, HDR 신호는 업샘플러(1106)에 의해 업샘플링되고, 결과적인 업샘플링된 HDR 신호는 제2 인코딩된 스트림(920)을 생성하기 위해 제2 인코더(1107)에 의해 HDR 원래 입력 신호(960)와 함께 프로세싱된다.
일 예에서, 변환 및 업샘플링은 역순으로, 즉, 우선 업샘플링한 다음 변환을 수행할 수 있다. 다른 예에서, 업샘플링 동작이 수행되지 않으므로 변환된 신호는 제2 인코더(1107)로 곧바로 전달된다. 하나의 경우에, 색 변환이 더 낮은 해상도에서 더 빠르게 수행될 수 있으므로, 업샘플링 전에 색 변환을 수행하는 것이 유리할 수 있다. 잔차 신호가 제2 인코더(1107)에 의해 생성되면, 이는 HDR 입력 신호(960)와 업샘플러(1106)의 출력 사이의 임의의 차이를 보정할 것이다.
그 후, (예를 들어, 도 11에 나타낸 바와 같이 대응하는 제1 인코딩된 스트림(710) 및 제2 인코딩된 스트림(720) 대신) 제1 인코딩된 스트림(910) 및 제2 인코딩된 스트림(920)은 도 8에 설명된 것과 같은 디코더로 전송될 수 있고, 그에 따라 디코딩된 SDR 신호(820) 및 디코딩된 HDR 신호(810)를 생성하기 위해 디코딩될 수 있다.
도 12는 본 특허 출원에 설명되는 인코딩 시스템의 예를 나타낸다. 입력 신호(1000), 예를 들어, 높은-비트-심도(예를 들어, 10-비트 또는 12-비트) HDR 신호가 인코딩 시스템에서 수신된다. 그 후, 입력 신호는 다운샘플러(1002)에 의해 프로세싱되어 더 높은 해상도로부터 더 낮은 해상도로 전달된다. 그 후, 다운샘플링된 신호는 톤-매핑 변환기(1003)를 사용하여 톤-매핑된 변환된 다운샘플링된 신호로 변환될 수 있다. 톤-매핑 변환기(1003)는 통상의 및/또는 알려진 톤-매핑 연산자 및 알고리즘을 사용하여 입력 신호에 대한 톤-맵(1016)을 도출한다(단지 배경으로 독자는 본원에 참조로 통합되는 특허 공보 US20150078661호, US20170070719호 또는 US9437171호를 참조할 수 있음). 변환은 다운샘플링된 신호와 연관된 다양한 파라미터, 예를 들어, 비제한적인 예시의 방식으로 루마 및 크로마 값; 밝기, 콘트라스트 및 색; 감마 로직; 크로마 데시메이션, 스케일링, 크로마 노이즈 감소 등을 조정하는 것을 포함할 수 있다. 변환 프로세스에서, 톤-맵 변환기(1003)는 높은-비트-심도(예를 들어, 10-비트 또는 12-비트) HDR 신호로부터 낮은-비트-심도(예를 들어, 8-비트) SDR 신호로 다운샘플링된 신호를 추가로 변환할 수 있다. 예를 들어, 이는 제1 인코더(1004)가 10-비트 이상의 비트-심도 신호보다는 8-비트 신호만을 프로세싱할 수 있을 때 가장 유리할 수 있다. 톤-맵(1016)은 (예를 들어, 메타데이터에 의해) 디코딩 시스템으로 전송될 수 있으며, 예를 들어, 압축되거나 압축되지 않는다. 그 후, 톤-매핑된 다운샘플링된 신호는 제1 인코더(1004)에 의해 프로세싱된다. 일 예에서, 변환 및 다운샘플링은 역순으로, 즉, 우선 다운샘플링한 후 변환을 수행할 수 있다. 다른 예에서, 다운샘플링 동작이 수행되지 않으므로 변환된 신호는 제1 인코더(1004)로 곧바로 전달된다.
제1 인코더(1004)의 출력, 즉, 제1 인코딩된 스트림(1012)은 제1 디코딩된 신호를 생성하기 위해 제1 디코더(1005)에 의해 추가로 디코딩된다. 선택적으로, 제1 디코딩된 신호는 제2 인코딩된 스트림(1014)을 생성하기 위해 톤-매핑된 다운샘플링된 신호와 함께 제2 인코더(1006)에 의해 프로세싱된다. 선택적으로, 제2 인코딩된 스트림은 제2 디코딩된 신호를 생성하기 위해 제2 디코더(1007)에 의해 디코딩되고 제1 디코딩된 신호에 추가된다(미도시). 그 후, 제2 디코딩된 신호(또는 제2 인코더 및 제2 디코더가 사용되지 않는 경우, 제1 디코딩된 신호)는 톤-매핑 변환기(1003)에 의해 생성된 톤 맵(1016)을 사용하여 톤-맵 조정된 신호를 생성하는 톤-매핑 역변환기(1008)에 의해 프로세싱된다. 톤-매핑 역변환기(1008)는 통상의 및/또는 알려진 역 톤-매핑 연산자 및 알고리즘을 사용하여 톤-맵에 의해 지시된 바와 같이 신호를 재조정함으로써 톤-매핑 변환기에 대해 역으로 동작할 수 있다(단지 배경으로 독자는 앞서 언급한 특허 공보를 참조할 수 있음). 제2 디코딩된 신호가 낮은-비트-심도의(예를 들어, 8-비트) SDR 신호인 경우, 톤-매핑 역변환기는 제2 디코딩된 신호를 낮은-비트-심도(예를 들어, 8-비트) SDR 신호로부터 높은-비트-심도(예를 들어, 10-비트 또는 12-비트) HDR 신호로 추가로 변환할 수 있다. 그 후, 신호는 업샘플러(1009)에 의해 업샘플링되고 결과적인 업샘플링된 신호는 제3 인코딩된 스트림(1020)을 생성하기 위해 제3 인코더(1010)에 의해 원래 입력 신호와 함께 프로세싱된다. 일 예에서, 변환 및 업샘플링은 역순으로, 즉, 우선 업샘플링한 다음 변환을 수행할 수 있다. 다른 예에서, 업샘플링 동작이 수행되지 않으므로 변환된 신호는 제3 인코더(1010)로 곧바로 전달된다.
선택적인 제2 인코더(1006)는 제1 디코더의 출력과 톤-매핑된 다운샘플링된 신호 사이의 차이를 보정하도록 동작할 수 있다. 이는 예를 들어, 제1 디코더의 출력과 톤-매핑된 다운샘플링된 신호 사이의 차이(예를 들어, 잔차)를 도출하고 상기 잔차를 효율적인 방식으로 인코딩함으로써 수행될 수 있다. 그 후, 인코딩된 잔차는 선택적인 제2 디코더(1007)에 의해 다시 프로세싱되어 이를 디코딩하고, 이를 제1 디코딩된 신호에 추가하여 제1 디코딩된 신호의 효과적으로 보정된 버전인 제2 디코딩된 신호를 생성할 수 있다.
유사하게, 제3 인코더(1010)는 원래 입력 신호(1000)와 업샘플링된 HDR 신호, 예를 들어, 업샘플러(1009)의 출력 사이의 차이를 보정하도록 동작할 수 있다. 이는 예를 들어, 원래 입력 신호와 업샘플링된 HDR 신호 사이의 차이(예를 들어, 잔차)를 유도하고 상기 잔차를 효율적인 방식으로 인코딩함으로써 수행될 수 있다. 그 후, 인코딩된 잔차는 디코딩 시스템에 의해 다시 프로세싱되고 업샘플링된 HDR 신호에 추가될 수 있다.
선택적인 제2 인코더/디코더 및 제3 인코더/디코더는 예를 들어, 모두 본원에 참조로 통합되는 특허 공보 WO2014/170819호, WO2013/011466호, WO2013/011492호 또는 WO2017/089839호에 설명된 것과 유사한 방식으로 동작할 수 있다.
(예를 들어, 다운샘플링 후에) 더 낮은 해상도 신호에 대해 톤-맵을 도출함으로써 톤-맵의 프로세싱은 더 적은 수의 픽셀에 대해 수행됨에 따라 더 빠르게 수행될 수 있으므로 크게 감소된다. 또한, 톤-맵의 크기는 풀-해상도에서 톤-맵에 비해 감소될 것이며, 그 후 압축된다면 훨씬 더 큰 효율성을 산출할 수 있다. 또한, 선택적인 제2 인코더/디코더가 프로세싱에 사용되는 경우, 제1 인코더/디코더에 의해 도입된 임의의 아티팩트(예를 들어, 색 밴딩(banding), 블록 등)는 더 낮은 해상도에서 보정될 수 있으므로 더 높은 해상도에서 보정되는 아티팩트와 비교할 때 이러한 아티팩트의 효율적인 보정을 허용한다. 또한, 제3 인코더는 인코딩된 신호를 HDR 입력 신호에 최대한 가깝게 만들기 위해 추가의 잔차를 추가함으로써 신호를 더욱 향상시킬 것이다.
도 13은 본 특허 출원에 설명되는 인코딩 시스템의 예를 나타낸다. 입력 신호(1000), 예를 들어, 높은-비트-심도(예를 들어, 10-비트 또는 12-비트) HDR 신호가 인코딩 시스템에서 수신된다. 그 후, 입력 신호는 다운샘플러(1002)에 의해 프로세싱되어 더 높은 해상도로부터 더 낮은 해상도로 전달된다. 그 후, 다운샘플링된 신호는 톤-매핑 변환기(1003)를 사용하여 톤-매핑된 변환된 다운샘플링된 신호로 변환될 수 있다. 톤-매핑 변환기(1003)는 (위에 논의된 바와 같이) 통상의 및/또는 알려진 톤-매핑 연산자 및 알고리즘을 사용하여 입력 신호의 톤-맵(1016)을 도출한다. 변환은 다운샘플링된 신호와 연관된 다양한 파라미터, 예를 들어, 비제한적인 예시의 방식으로 루마 및 크로마 값; 밝기, 콘트라스트 및 색; 감마 로직; 크로마 데시메이션, 스케일링, 크로마 노이즈 감소 등을 조정하는 것을 포함할 수 있다. 변환 프로세스에서, 톤-맵 변환기(1003)는 높은-비트-심도(예를 들어, 10-비트 또는 12-비트) HDR 신호로부터 낮은-비트-심도(예를 들어, 8-비트) SDR 신호로 다운샘플링된 신호를 추가로 변환할 수 있다. 예를 들어, 이는 제1 인코더(1004)가 10-비트 이상의 비트-심도 신호보다는 8-비트 신호만을 프로세싱할 수 있을 때 가장 유리할 수 있다. 톤-맵(1016)은 압축되거나 압축되지 않고 (예를 들어, 메타데이터에 의해) 디코딩 시스템으로 전송될 수 있다. 그 후, 톤-매핑된 다운샘플링된 신호는 제1 인코더(1004)에 의해 프로세싱된다. 일 예에서, 변환 및 다운샘플링은 역순으로, 즉, 우선 다운샘플링한 후 변환을 수행할 수 있다. 다른 예에서, 다운샘플링 동작이 수행되지 않으므로 변환된 신호는 제1 인코더(1004)로 곧바로 전달된다. 제1 인코더(1004)의 출력, 즉, 제1 인코딩된 스트림(1012)은 제1 디코딩된 신호를 생성하기 위해 제1 디코더(1005)에 의해 추가로 디코딩된다. 그 후, 제1 디코딩된 신호는 톤-매핑 변환기(1003)에 의해 생성된 톤 맵(1016)을 사용하여 톤-맵 조정된 신호를 생성하는 톤-매핑 역변환기(1008)에 의해 프로세싱된다. 톤-매핑 역변환기(1008)는 (예를 들어, 위에 논의된 바와 같이) 통상의 및/또는 알려진 역 톤-매핑 연산자 및 알고리즘을 사용하여 톤-맵에 의해 지시된 바와 같이 신호를 재조정함으로써 톤-매핑 변환기에 대해 역으로 동작할 수 있다. 제2 디코딩된 신호가 낮은-비트-심도의(예를 들어, 8-비트) SDR 신호인 경우, 톤-매핑 역변환기는 제2 디코딩된 신호를 낮은-비트-심도(예를 들어, 8-비트) SDR 신호로부터 높은-비트-심도(예를 들어, 10-비트 또는 12-비트) HDR 신호로 추가로 변환할 수 있다. 선택적으로, 톤-매핑된 보정된 신호는 제2 인코딩된 스트림(1014)을 생성하기 위해 다운샘플링된 신호와 함께 제2 인코더(1006)에 의해 프로세싱된다. 선택적으로, 제2 인코딩된 스트림은 제2 디코딩된 신호를 생성하기 위해 제2 디코더(1007)에 의해 디코딩되고 제1 디코딩된 신호에 추가된다(미도시). 그 후, 제2 디코딩된 신호(또는 제2 인코더 및 제2 디코더가 사용되지 않는 경우, 제1 디코딩된 신호)는 업샘플러(1009)에 의해 업샘플링되고 결과적인 업샘플링된 신호는 제3 인코딩된 스트림(1020)을 생성하기 위해 제3 인코더(1010)에 의해 원래 입력 신호와 함께 프로세싱된다. 일 예에서, 변환 및 업샘플링은 역순으로, 즉, 우선 업샘플링한 다음 변환을 수행할 수 있다. 다른 예에서, 업샘플링 동작이 수행되지 않으므로 변환된 신호는 제3 인코더(1010)로 곧바로 전달된다.
선택적인 제2 인코더(1006)는 제1 디코더의 출력과 다운샘플링된 신호 사이의 차이를 보정하도록 동작할 수 있다. 이는 예를 들어, 제1 디코더의 출력과 다운샘플링된 신호 사이의 차이(예를 들어, 잔차)를 도출하고 상기 잔차를 효율적인 방식으로 인코딩함으로써 수행될 수 있다. 그 후, 인코딩된 잔차는 선택적인 제2 디코더(1007)에 의해 다시 프로세싱되어 이를 디코딩하고, 이를 제1 디코딩된 신호에 추가하여 제1 디코딩된 신호의 효과적으로 보정된 버전인 제2 디코딩된 신호를 생성할 수 있다.
유사하게, 제3 인코더(1010)는 원래 입력 신호와 업샘플링된 HDR 신호 사이의 차이를 보정하도록 동작할 수 있다. 이는 예를 들어, 원래 입력 신호와 업샘플링된 HDR 신호 사이의 차이(예를 들어, 잔차)를 유도하고 상기 잔차를 효율적인 방식으로 인코딩함으로써 수행될 수 있다. 그 후, 인코딩된 잔차는 디코딩 시스템에 의해 다시 프로세싱되고 업샘플링된 HDR 신호에 추가될 수 있다.
선택적인 제2 인코더/디코더 및 제3 인코더/디코더는 예를 들어, 위에서 논의된 특허 공보에 설명된 것과 유사한 방식으로 동작할 수 있다.
(예를 들어, 다운샘플링 후에) 더 낮은 해상도 신호에 대해 톤-맵을 도출함으로써 톤-맵의 프로세싱은 더 적은 수의 픽셀에 대해 수행됨에 따라 더 빠르게 수행될 수 있으므로 크게 감소된다. 또한, 톤-맵의 크기는 풀-해상도에서 톤-맵에 비해 감소될 것이며, 그 후 압축된다면 훨씬 더 큰 효율성을 산출할 수 있다. 또한, 선택적인 제2 인코더/디코더가 프로세싱에 사용되는 경우, 제1 인코더/디코더 및/또는 톤-매핑 프로세싱에 의해 도입된 임의의 아티팩트(예를 들어, 색 밴딩, 블록 등)는 더 낮은 해상도에서 보정될 수 있으므로 더 높은 해상도에서 보정되는 아티팩트와 비교할 때 이러한 아티팩트의 효율적인 보정을 허용한다. 또한, 제3 인코더는 인코딩된 신호를 HDR 입력 신호에 최대한 가깝게 만들기 위해 추가의 잔차를 추가함으로써 신호를 더욱 향상시킬 것이다.
도 14는 본 특허 출원에 설명되는 디코딩 시스템의 예를 나타낸다. 제1 디코더(1101)는 제1 인코딩된 스트림(1010)을 수신하고 이를 디코딩하여 제1 디코딩된 신호(1120)를 생성한다. 그 후, 제1 디코딩된 신호(1120)는 수신된 톤 맵 메타데이터(1016)를 사용하여 톤-맵 조정된 신호를 생성하는 톤-매핑 역변환기(1108)에 의해 프로세싱된다. 톤-매핑 역변환기(1108)는 (예를 들어, 위에 논의된 바와 같이) 통상의 및/또는 알려진 역 톤-매핑 연산자 및 알고리즘을 사용하여 톤-맵에 의해 지시된 바와 같이 신호를 재조정함으로써 톤-매핑 변환기에 대해 역으로 동작할 수 있다. 제1 디코딩된 신호가 낮은-비트-심도의(예를 들어, 8-비트) SDR 신호인 경우, 톤-매핑 역변환기는 제1 디코딩된 신호를 낮은-비트-심도(예를 들어, 8-비트) SDR 신호로부터 높은-비트-심도(예를 들어, 10-비트 또는 12-비트) HDR 신호로 추가로 변환할 수 있다. 선택적으로, 제2 디코더(1201)는 디코딩된 제1 잔차 스트림을 생성하기 위해 제2 인코딩된 스트림(101)을 디코딩한다. 또한, 톤-맵 조정된 신호는 제2 디코딩된 신호를 생성하기 위해 디코딩된 제1 잔차 스트림과 함께 제2 디코더(1201)에 의해 선택적으로 프로세싱된다. 그 후, 제2 디코딩된 신호(또는 제2 인코딩된 스트림(1014)이 수신되지 않으므로 제2 디코더(1201)가 사용되지 않는 경우, 톤 매핑된 조정된 신호)가 톤-매핑된 보정된 업샘플링된 신호를 생성하기 위해 업샘플러(1103)에 의해 업샘플링된다. 일 예에서, 톤-매핑된 변환 및 업샘플링은 역순으로, 즉, 우선 업샘플링한 다음 변환을 수행할 수 있다. 다른 예에서, 업샘플링 동작이 수행되지 않으므로 톤-매핑된 신호는 업샘플러(1103)로 곧바로 전달된다. 제3 디코더(1104)는 디코딩된 제2 잔차 스트림을 생성하기 위해 제3 인코딩된 스트림(1020)을 디코딩한다. 톤-매핑된 보정된 업샘플링된 신호는 제3 디코딩된 신호를 생성하기 위해 디코딩된 제2 잔차 스트림과 함께 제3 디코더(1104)에 의해 추가로 프로세싱된다. 제3 디코드 신호는 HDR 신호일 수 있다.
(예를 들어, 업샘플링 전에) 더 낮은 해상도 신호에 대해 톤-맵을 프로세싱함으로써 톤-맵의 프로세싱은 더 적은 수의 픽셀에 대해 수행됨에 따라 더 빠르게 수행될 수 있으므로 크게 감소된다. 또한, 톤-맵의 크기는 풀-해상도에서 톤-맵에 비해 감소될 것이며, 압축 해제가 훨씬 더 큰 효율적일 수 있다. 또한, 선택적인 제2 디코더가 프로세싱에 사용되는 경우, 제1 디코더 및/또는 톤-매핑 프로세싱에 의해 도입된 임의의 아티팩트(예를 들어, 색 밴딩, 블록 등)는 더 낮은 해상도에서 보정될 수 있으므로 더 높은 해상도에서 보정되는 아티팩트와 비교할 때 이러한 아티팩트의 효율적인 보정을 허용한다. 또한, 제3 인코더는 인코딩된 신호를 HDR 입력 신호에 최대한 가깝게 만들기 위해 추가의 잔차를 추가함으로써 신호를 더욱 향상시킬 것이다.
도 12 내지 도 14의 예는 동적 톤 매핑이 구현될 때 적용될 수 있으며, 예를 들어, 여기서 톤 매핑 파라미터는 프로세싱 중인 프레임에 기초하여 변한다. 본 예는 연속적인 프레임에 쉽게 적용될 수 있으며, 예를 들어, 각각의 프레임은 독립적인 방식으로 프로세싱되며, 인코더 및 디코더 시스템에서 효율적이고 쉽게 구현될 수 있다.
본원에 설명되는 예는 풀-해상도 풀-품질 사진을 재구성하기 위한 8-비트 저해상도 비디오, 10-비트 또는 12-비트 HDR 정보의 로컬 재구성을 위한 톤-맵 및 보정 메타데이터를 포함하는 데이터 세트로의 10-비트 또는 12-비트 HDR 비디오의 효율적인 변환을 허용한다. 계층-기반 인코딩 방법 내에서 더 낮은 해상도에서 톤-맵 변환을 수행하는 것은 이러한 동작에 필요한 프로세싱 능력을 최소화할 수 있는 것과 같은 고유한 이점의 세트를 제공한다(인코딩 및 디코딩 모두에서, 이는 저전력 디코더 디바이스뿐만 아니라 라이브 비디오에 대해 특히 중요함). 예를 들어, 보정 메타데이터의 가용성은 "10-비트 대 8-비트 대 10-비트" 변환 프로세스에 도입될 수 있는 임의의 밴딩을 보정할 수 있게 한다. 마지막으로, 10-비트 또는 12-비트 대 8-비트 변환은 볼 수 있는 이전과 호환되는 8-비트 표준 동적 범위(SDR) 저해상도 비디오를 제공하거나 압축 효율을 최대화하기 위해 최대 압축을 위한 로컬 이미지 히스토그램을 지능적으로 분산하여 교정될 수 있다.
위의 예에서 논의된 변환에서, 디코더에서 또는 인코더가 디코더의 액션을 시뮬레이팅하는 경우에 소위 "블라인드(blind)" 변환이 사용될 수 있다. 이는 변환 기능의 모듈식 교체를 용이하게 하는 독립적인 방식으로 변환이 수행될 수 있음을 의미한다. 이는 업샘플링, 다운샘플링, 색 공간 변환, HDR에서 SDR로의 변환 및 그 반대, 신호 요소 코딩 포맷 변경 등에 적용된다. 예를 들어, 다른 프레임 또는 다른 비디오 스트림에 대해 다른 변환 방법이 적용될 수 있다. 이는 인코딩 및 디코딩을 조정하기 위해 인코더와 디코더 사이에서 시그널링될 수 있다. 그러나 이러한 변화를 수용하기 위해 시스템 아키텍처 또는 프로세싱 흐름에 변경이 필요하지 않다. 이는 알 수 없는 것을 프로세싱하는 잔차 신호의 사용에 의해 가능하게 될 수 있으며, 예를 들어, 2개의 비교되는 신호 - 기준 신호와 재구성된 신호 - 사이의 차이를 보정하지만, 재구성된 신호는 다양한 방식으로 생성될 수 있다. 본 예는 또한 병렬로 비디오 데이터의 작은 부분, 예를 들어, 2x2 또는 4x4 픽셀의 코딩 유닛 또는 블록에 대해 동작할 수 있다. 이는 프로세싱 흐름의 특정 구현이 비디오 데이터의 프레임의 일부 내에 공간 종속성을 도입하지 않기 때문이다. 이는 다른 프레임 부분의 효율적인 병렬 프로세싱을 가능하게 하며, 예를 들어, 해당 예는 다른 프레임 부분에 대해 그 후 하나 이상의 품질 레벨에서 출력 신호를 생성하도록 구성된 최종 출력에 대해 병렬로 적용될 수 있다.
본원에 설명된 특정 예는 상이한 색 표현을 프로세싱할 수 있는 용이하게 구현 가능한 낮은-복잡도의 스킴을 제시하며, 여기서 이러한 색 표현은 상이한 레벨의 색 품질을 나타낼 수 있다. 특정 예에서, 개별 변환 구성 요소 또는 모듈은 신호를 예측하려고 시도하지 않으므로, 독립형 방식으로 동작하며; 잔차를 사용하는 향상 신호는 적절한 조정을 제공할 수 있다. 이러한 접근법은 또한 이러한 변환 구성 요소 또는 모듈에 대해 보다 모듈식 접근법을 취할 수 있게 하여, 필요한 경우 메타데이터에 대한 전송 스트림 변경을 고려할 필요 없이 이를 변경한다.
몇몇 유형의 색 공간 변환이 수행될 수 있다. 특히, 비선형 색 공간 변환이 사용될 수 있다.
상대적으로 낮은 정교함 신호로부터 상대적으로 높은 정교함 신호로 변경할 때 색 공간, HDR 또는 신호 요소 코딩 포맷 정보를 인코딩하기 위해 잔차 정보(즉, 신호에 대한 변경만)를 사용하여 추가적인 효율성이 달성될 수 있다.
위의 모든 예에서, 제1 인코딩 모듈/인코더(및 대응하는 제1 디코딩 모듈/디코더)는 표준 MPEG 코덱(예를 들어, AVC, HEVC 등), 비표준 코덱(예를 들어, VP9, AV1 등) 또는 PERSEUS®와 같은 계층적 코덱과 같은 임의의 유형의 코딩 스킴에 대응할 수 있다.
위의 설명은 비제한적인 예시의 방식으로 제공되며, 위의 임의의 변형 또는 조합이 본 설명에 포함된다.

Claims (30)

  1. 비디오 신호용 향상 디코더로서,
    표준 디코더로부터 제1 비디오 스트림을 수신하는 인터페이스로서, 상기 제1 비디오 스트림은 제1 신호 요소 코딩 포맷을 사용하는, 인터페이스;
    향상 데이터 스트림을 수신하는 인터페이스;
    상기 향상 데이터 스트림을:
    향상 데이터의 제1 세트,
    향상 데이터의 제2 세트, 및
    범위 데이터로 분해하는 디멀티플렉서;
    상기 향상 데이터의 제1 세트를 사용하여 제1 해상도에서 제1 디코더 비디오 스트림을 향상시키는 제1 인핸서(enhancer)로서, 상기 제1 디코더 비디오 스트림은 상기 제1 비디오 스트림으로부터 도출되는, 제1 인핸서;
    상기 제1 인핸서의 출력으로부터 도출된 제2 디코더 비디오 스트림을 상기 제1 해상도보다 높은 제2 해상도로 변환하는 업샘플러(up-sampler);
    상기 향상 데이터의 제2 세트를 사용하여 상기 제2 해상도에서 상기 업샘플러의 출력으로부터 도출되는 제3 디코더 비디오 스트림을 향상시키는 제2 인핸서; 및
    상기 범위 데이터를 사용하여 상기 제1 디코더 비디오 스트림 내지 제3 디코더 비디오 스트림 중 하나를 상기 제1 신호 요소 코딩 포맷으로부터 제2 신호 요소 코딩 포맷으로 변환하는 코딩 포맷 조정 모듈을 포함하는, 향상 디코더.
  2. 제1항에 있어서,
    표준 디코더로부터의 상기 제1 비디오 스트림은 제1 품질 레벨에 있고, 상기 제2 신호 요소 코딩 포맷은 제2 품질 레벨을 제공하고, 상기 제2 품질 레벨은 상기 제1 품질 레벨보다 높은, 향상 디코더.
  3. 제1항 또는 제2항에 있어서,
    상기 제1 신호 요소 코딩 포맷은 표준 동적 범위 - SDR - 포맷이고, 상기 제2 신호 요소 포맷은 높은 동적 범위 - HDR - 포맷이고, 상기 HDR 포맷은 상기 SDR 포맷보다 더 높은 휘도 및/또는 더 넓은 색 범위를 갖는, 향상 디코더.
  4. 제1항 내지 제3항 중 어느 한 항에 있어서,
    상기 향상 데이터 스트림 내의 상기 범위 데이터의 부재에 응답하여, 상기 코딩 포맷 조정 모듈은 상기 제2 신호 요소 코딩 포맷으로의 변환 없이 비디오 스트림을 출력하도록 구성되는, 향상 디코더.
  5. 제1항 내지 제4항 중 어느 한 항에 있어서,
    상기 코딩 포맷 조정 모듈은 상기 제1 비디오 스트림을 수신하고 상기 제1 디코더 비디오 스트림을 출력하도록 구성되고;
    상기 코딩 포맷 조정 모듈은 상기 제1 인핸서의 상기 출력을 수신하고 상기 제2 디코더 비디오 스트림을 출력하도록 구성되고;
    상기 코딩 포맷 조정 모듈은 상기 업샘플러의 상기 출력을 수신하고 상기 제3 디코더 비디오 스트림을 출력하도록 구성되는, 향상 디코더.
  6. 제1항 내지 제5항 중 어느 한 항에 있어서,
    상기 제1 신호 요소 코딩 포맷은 제1 비트 길이를 사용하고, 상기 제2 신호 요소 코딩 포맷은 제2 비트 길이를 사용하고, 상기 제2 비트 길이는 상기 제1 비트 길이보다 긴, 향상 디코더.
  7. 제1항 내지 제6항 중 어느 한 항에 있어서,
    상기 업샘플러는 상기 코딩 포맷 조정 모듈을 포함하는, 향상 디코더.
  8. 제7항에 있어서,
    상기 업샘플러는 업샘플링 동작과 코딩 포맷 변환 동작을 결합하는, 향상 디코더.
  9. 제1항 내지 제8항 중 어느 한 항에 있어서,
    상기 향상 데이터의 제1 세트 및 상기 향상 데이터의 제2 세트 중 하나 이상은 2개의 대응하는 비디오 신호 간의 차이를 나타내는 잔차 데이터를 포함하고,
    상기 제1 인핸서 및 상기 제2 인핸서 중 하나 이상은 상기 향상 데이터의 제1 세트 및 상기 향상 데이터의 제2 세트의 각각 내에서 잔차 데이터를 디코딩하고, 향상된 비디오 스트림을 출력하기 위해 상기 잔차 데이터를 각각의 입력 디코더 비디오 스트림과 결합하도록 구성되는, 향상 디코더.
  10. 제1항 내지 제9항 중 어느 한 항에 있어서,
    상기 표준 디코더는 상기 제1 비디오 스트림을 출력하기 위해 제1 데이터 스트림을 디코딩하고, 상기 표준 디코더는 상기 향상 디코더에 의해 구현되는 제2 디코딩 스킴과 상이한 표준-준수 제1 디코딩 스킴을 구현하는, 향상 디코더.
  11. 제1항 내지 제10항 중 어느 한 항에 있어서,
    상기 제1 비디오 스트림은 비디오 세그먼트의 모든 프레임을 포함하는, 향상 디코더.
  12. 제11항에 있어서,
    상기 제1 인핸서, 상기 제1 업샘플러, 상기 제2 인핸서 및 상기 코딩 포맷 조정 모듈은 모두 각각의 프레임에 대해 동작하는, 향상 디코더.
  13. 제1항 내지 제12항 중 어느 한 항에 있어서,
    상기 제1 신호 요소 코딩 포맷으로부터 상기 제2 신호 요소 코딩 포맷으로 변환하는 단계는 비선형인, 향상 디코더.
  14. 제1항 내지 제13항 중 어느 한 항에 있어서,
    상기 제1 신호 요소 코딩 포맷으로부터 상기 제2 신호 요소 코딩 포맷으로 변환하는 단계는 비예측적인, 향상 디코더.
  15. 비디오 신호를 디코딩하는 방법으로서,
    향상 디코더에서, 표준 디코더로부터 제1 비디오 스트림을 수신하는 단계로서, 상기 제1 비디오 스트림은 제1 신호 요소 코딩 포맷을 사용하는, 수신하는 단계;
    상기 향상 디코더에서, 향상 데이터 스트림을 수신하는 단계;
    상기 향상 디코더에서, 상기 향상 데이터 스트림을 향상 데이터의 제1 세트, 향상 데이터의 제2 세트 및 범위 데이터로 디멀티플렉싱하는 단계;
    상기 향상 디코더의 제1 인핸서에서, 상기 향상 데이터의 제1 세트를 사용하여 제1 해상도에서 제1 디코더 비디오 스트림을 향상시키는 단계로서, 상기 제1 디코더 비디오 스트림은 상기 제1 비디오 스트림으로부터 도출되는, 향상시키는 단계;
    제2 디코더 비디오 스트림을 제2 해상도로 업샘플링하는 단계로서, 상기 제2 디코더 비디오 스트림은 상기 제1 인핸서의 출력으로부터 도출되고, 상기 제2 해상도는 상기 제1 해상도보다 높은, 업샘플링하는 단계; 및
    상기 향상 디코더의 제2 인핸서에서, 상기 향상 데이터의 제2 세트를 사용하여 상기 제2 해상도에서 제3 디코더 비디오 스트림을 향상시키는 단계로서, 상기 제3 디코더 비디오 스트림은 상기 업샘플링의 결과로부터 도출되는, 향상시키는 단계를 포함하고,
    상기 방법은:
    상기 범위 데이터를 사용하여 상기 제1 디코더 비디오 스트림 내지 상기 제3 디코더 비디오 스트림 중 하나를 상기 제1 신호 요소 코딩 포맷으로부터 제2 신호 요소 코딩 포맷으로 변환하는 단계를 더 포함하는, 방법.
  16. 제15항에 있어서,
    표준 디코더로부터의 상기 제1 비디오 스트림은 제1 품질 레벨에 있고, 상기 제2 신호 요소 코딩 포맷은 제2 품질 레벨을 제공하고, 상기 제2 품질 레벨은 상기 제1 품질 레벨보다 높은, 방법.
  17. 제15항 또는 제16항에 있어서,
    상기 제1 신호 요소 코딩 포맷은 표준 동적 범위 - SDR - 포맷이고, 상기 제2 신호 요소 포맷은 높은 동적 범위 - HDR - 포맷이고, 상기 HDR 포맷은 상기 SDR 포맷보다 더 높은 휘도 및/또는 더 넓은 색 범위를 갖는, 방법.
  18. 제15항 내지 제17항 중 어느 한 항에 있어서,
    상기 방법은 상기 향상 데이터 스트림 내의 상기 범위 데이터의 부재에 응답하여, 상기 제2 신호 요소 코딩 포맷으로의 변환 없이 비디오 스트림을 출력하는 단계를 포함하는, 방법.
  19. 제15항 내지 제18항 중 어느 한 항에 있어서,
    상기 범위 데이터를 사용하여 상기 제1 디코더 비디오 스트림 내지 상기 제3 디코더 비디오 스트림 중 하나를 상기 제1 신호 요소 코딩 포맷으로부터 상기 제2 신호 요소 코딩 포맷으로 변환하는 단계는:
    상기 제1 비디오 스트림을 수신하고 상기 제1 디코더 비디오 스트림을 출력하는 단계;
    상기 제1 인핸서의 상기 출력을 수신하고 상기 제2 디코더 비디오 스트림을 출력하는 단계; 및
    상기 업샘플러의 상기 출력을 수신하고 상기 제3 디코더 비디오 스트림을 출력하는 단계 중 하나를 포함하는, 방법.
  20. 제15항 내지 제19항 중 어느 한 항에 있어서,
    상기 제1 신호 요소 코딩 포맷은 제1 비트 길이를 사용하고, 상기 제2 신호 요소 코딩 포맷은 제2 비트 길이를 사용하고, 상기 제2 비트 길이는 상기 제1 비트 길이보다 긴, 방법.
  21. 제15항 내지 제20항 중 어느 한 항에 있어서,
    상기 범위 데이터를 사용하여 상기 제1 디코더 비디오 스트림 내지 상기 제3 디코더 비디오 스트림 중 하나를 상기 제1 신호 요소 코딩 포맷으로부터 상기 제2 신호 요소 코딩 포맷으로 변환하는 단계는 상기 제2 디코더 비디오 스트림을 상기 제3 디코더 비디오 스트림으로 변환하는 단계를 포함하고, 업샘플링될 때 수행되는, 방법.
  22. 제21항에 있어서,
    상기 코딩 포맷 변환 동작은 상기 업샘플링과 결합되는, 방법.
  23. 제15항 내지 제22항 중 어느 한 항에 있어서,
    상기 향상 데이터의 제1 세트 및 상기 향상 데이터의 제2 세트 중 하나 이상은 2개의 대응하는 비디오 신호 간의 차이를 나타내는 잔차 데이터를 포함하고,
    상기 향상시키는 단계 중 하나 이상은 상기 향상 데이터의 제1 세트 및 상기 향상 데이터의 제2 세트의 각각 내에서 잔차 데이터를 디코딩하고, 각각의 향상된 비디오 스트림을 출력하기 위해 상기 잔차 데이터를 상기 각각의 디코더 비디오 스트림과 결합하는 단계를 포함하는, 방법.
  24. 제15항 내지 제23항 중 어느 한 항에 있어서,
    상기 표준 디코더는 상기 제1 비디오 스트림을 출력하기 위해 제1 데이터 스트림을 디코딩하고, 상기 표준 디코더는 상기 향상 디코더에 의해 구현되는 제2 디코딩 스킴과 상이한 표준-준수 제1 디코딩 스킴을 구현하는, 방법.
  25. 제15항 내지 제24항 중 어느 한 항에 있어서,
    상기 제1 비디오 스트림은 비디오 세그먼트의 모든 프레임을 포함하는, 방법.
  26. 제25항에 있어서,
    상기 제1 인핸서, 상기 제1 업샘플러, 상기 제2 인핸서 및 상기 범위 데이터는 모두 각각의 프레임에 대해 동작하는, 방법.
  27. 제15항 내지 제26항 중 어느 한 항에 있어서,
    상기 제1 신호 요소 코딩 포맷으로부터 상기 제2 신호 요소 코딩 포맷으로 변환하는 단계는 비선형인, 방법.
  28. 제15항 내지 제27항 중 어느 한 항에 있어서,
    상기 제1 신호 요소 코딩 포맷으로부터 상기 제2 신호 요소 코딩 포맷으로 변환하는 단계는 비예측적인, 방법.
  29. 제15항 내지 제28항 중 어느 한 항의 방법을 수행하도록 구성된 컴퓨터 프로그램.
  30. 제29항의 컴퓨터 프로그램을 포함하는 컴퓨터-판독 가능 저장 매체 또는 데이터 캐리어.
KR1020217014100A 2018-10-09 2019-10-09 다중-레벨 향상 및 코딩 포맷 조정을 갖는 비디오 신호용 향상 디코더 KR20210069717A (ko)

Applications Claiming Priority (9)

Application Number Priority Date Filing Date Title
GBGB1816469.9A GB201816469D0 (en) 2018-10-09 2018-10-09 Encoding and decoding methods
GB1816469.9 2018-10-09
GB1820473.5 2018-12-14
GBGB1820473.5A GB201820473D0 (en) 2018-12-14 2018-12-14 Encoding and decoding methods
GB1900511.5 2019-01-14
GBGB1900511.5A GB201900511D0 (en) 2019-01-14 2019-01-14 Encoding and decoding methods
GB1902008.0 2019-02-13
GBGB1902008.0A GB201902008D0 (en) 2019-02-13 2019-02-13 HDR bit-depth conversion in tiered hierarchical coding
PCT/GB2019/052870 WO2020074898A1 (en) 2018-10-09 2019-10-09 Enhancement decoder for video signals with multi-level enhancement and coding format adjustment

Publications (1)

Publication Number Publication Date
KR20210069717A true KR20210069717A (ko) 2021-06-11

Family

ID=68296520

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020217014101A KR20210072079A (ko) 2018-10-09 2019-10-09 다중 해상도를 사용하는 계층적 코딩 스킴 내에서의 신호 요소 코딩 포맷 호환성
KR1020217014100A KR20210069717A (ko) 2018-10-09 2019-10-09 다중-레벨 향상 및 코딩 포맷 조정을 갖는 비디오 신호용 향상 디코더

Family Applications Before (1)

Application Number Title Priority Date Filing Date
KR1020217014101A KR20210072079A (ko) 2018-10-09 2019-10-09 다중 해상도를 사용하는 계층적 코딩 스킴 내에서의 신호 요소 코딩 포맷 호환성

Country Status (8)

Country Link
US (5) US11653034B2 (ko)
EP (2) EP3864844A1 (ko)
JP (1) JP2022508741A (ko)
KR (2) KR20210072079A (ko)
CN (4) CN113170157A (ko)
BR (1) BR112021006706A2 (ko)
GB (5) GB2613262B (ko)
WO (4) WO2020074898A1 (ko)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2936313C (en) * 2014-01-24 2022-07-19 Sony Corporation Transmission device, transmission method, reception device, and reception method
US11617010B1 (en) * 2020-09-30 2023-03-28 Amazon Technologies, Inc. High dynamic range video content stitching
KR20230160247A (ko) * 2021-03-22 2023-11-23 퀄컴 인코포레이티드 세일리언시 기반 프레임 컬러 향상을 위한 방법들 및 장치
CN113076050B (zh) * 2021-04-25 2022-05-20 深圳创维-Rgb电子有限公司 基于内存拷贝的人机交互方法、装置、电视机及存储介质
US11544826B2 (en) * 2021-04-30 2023-01-03 Realnetworks, Inc. Intelligent metadata service for video enhancement
US11606605B1 (en) * 2021-09-30 2023-03-14 Samsung Electronics Co., Ltd. Standard dynamic range (SDR) / hybrid log-gamma (HLG) with high dynamic range (HDR) 10+
US20230171512A1 (en) * 2021-11-30 2023-06-01 Texas Instruments Incorporated High precision color processing for wide dynamic range sensors
US11838513B2 (en) * 2022-01-14 2023-12-05 Meta Platforms Technologies, Llc Progressive transmission of detailed image data via video compression of successive subsampled frames
GB2611129B (en) 2022-03-31 2024-03-27 V Nova Int Ltd Signal processing with overlay regions
GB2619096A (en) 2022-05-27 2023-11-29 V Nova Int Ltd Enhancement interlacing
GB2620994A (en) 2022-08-22 2024-01-31 V Nova Int Ltd Encoding and decoding of pre-processing renditions of input videos
CN116170592B (zh) * 2023-04-21 2023-08-15 深圳市微智体技术有限公司 高分辨率视频的传输方法、装置、设备及介质

Family Cites Families (47)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020126759A1 (en) * 2001-01-10 2002-09-12 Wen-Hsiao Peng Method and apparatus for providing prediction mode fine granularity scalability
US8218625B2 (en) * 2004-04-23 2012-07-10 Dolby Laboratories Licensing Corporation Encoding, decoding and representing high dynamic range images
JP4844456B2 (ja) * 2006-06-15 2011-12-28 日本ビクター株式会社 映像信号階層符号化装置、映像信号階層符号化方法、及び映像信号階層符号化プログラム
CN101589625B (zh) * 2006-10-25 2011-09-21 弗劳恩霍夫应用研究促进协会 质量可缩放编码
KR100954290B1 (ko) * 2007-12-10 2010-04-26 한국전자통신연구원 Dmb 방송 시스템에서 고품질 미디어 데이터 처리 방법및 장치
US9167246B2 (en) * 2008-03-06 2015-10-20 Arris Technology, Inc. Method and apparatus for decoding an enhanced video stream
US9571856B2 (en) * 2008-08-25 2017-02-14 Microsoft Technology Licensing, Llc Conversion operations in scalable video encoding and decoding
KR101597987B1 (ko) * 2009-03-03 2016-03-08 삼성전자주식회사 계층 독립적 잔차 영상 다계층 부호화 장치 및 방법
KR101346008B1 (ko) * 2009-03-13 2013-12-31 돌비 레버러토리즈 라이쎈싱 코오포레이션 고 동적 범위, 가시 동적 범위, 및 광색역 비디오의 층상 압축
US20130156113A1 (en) * 2010-08-17 2013-06-20 Streamworks International, S.A. Video signal processing
US8977065B2 (en) 2011-07-21 2015-03-10 Luca Rossato Inheritance in a tiered signal quality hierarchy
US8948248B2 (en) * 2011-07-21 2015-02-03 Luca Rossato Tiered signal decoding and signal reconstruction
TWI575933B (zh) * 2011-11-04 2017-03-21 杜比實驗室特許公司 階層式視覺動態範圍編碼中之層分解技術
TWI556629B (zh) * 2012-01-03 2016-11-01 杜比實驗室特許公司 規定視覺動態範圍編碼操作及參數
US9357197B2 (en) * 2012-05-24 2016-05-31 Dolby Laboratories Licensing Corporation Multi-layer backwards-compatible video delivery for enhanced dynamic range and enhanced resolution formats
US10085017B2 (en) * 2012-11-29 2018-09-25 Advanced Micro Devices, Inc. Bandwidth saving architecture for scalable video coding spatial mode
US9437171B2 (en) 2012-12-05 2016-09-06 Texas Instruments Incorporated Local tone mapping for high dynamic range images
KR101901124B1 (ko) * 2013-01-02 2018-09-27 돌비 레버러토리즈 라이쎈싱 코오포레이션 향상된 동적 범위를 갖는 초고화질 비디오 신호들에 대한 하위 호환가능한 코딩
US11146803B2 (en) * 2013-03-11 2021-10-12 Dolby Laboratories Licensing Corporation Distribution of multi-format high dynamic range video using layered coding
CN110855994B (zh) * 2013-04-05 2023-09-19 交互数字麦迪逊专利控股公司 针对多层视频编码的层间参考图片增强的设备
US9503732B2 (en) * 2013-04-10 2016-11-22 Arris Enterprises, Inc. Re-sampling with phase offset adjustment for luma and chroma to select filters in scalable video coding
CN105432083B (zh) 2013-04-15 2020-01-07 卢卡·罗萨托 混合向后兼容的信号编码和解码的方法和系统
JP6351313B2 (ja) * 2013-07-11 2018-07-04 キヤノン株式会社 画像符号化装置、画像復号装置、画像処理装置、並びにそれらの制御方法
KR101712108B1 (ko) * 2013-07-16 2017-03-03 삼성전자 주식회사 비트 뎁스 및 컬러 포맷의 변환을 동반하는 업샘플링 필터를 이용하는 스케일러블 비디오 부호화 방법 및 장치, 스케일러블 비디오 복호화 방법 및 장치
US11252213B2 (en) * 2013-08-15 2022-02-15 Comcast Cable Communications, Llc Multiple flinging devices in a media fling system
US9275445B2 (en) * 2013-08-26 2016-03-01 Disney Enterprises, Inc. High dynamic range and tone mapping imaging techniques
US9445111B2 (en) * 2014-01-08 2016-09-13 Sony Corporation Image processing apparatus and image processing method
US9712837B2 (en) * 2014-03-17 2017-07-18 Qualcomm Incorporated Level definitions for multi-layer video codecs
WO2015175549A1 (en) * 2014-05-12 2015-11-19 Apple Inc. Techniques for hdr/wcr video coding
JP6358718B2 (ja) * 2014-05-28 2018-07-18 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. Hdr画像をエンコードするための方法及び装置、並びに、斯様なエンコードされた画像の使用のための方法及び装置
US20150373343A1 (en) * 2014-06-20 2015-12-24 Qualcomm Incorporated Representation format update in multi-layer codecs
US10091532B2 (en) * 2014-06-26 2018-10-02 Qualcomm Incorporated Bitstream conformance constraints in scalable video coding
WO2016055875A1 (en) 2014-10-07 2016-04-14 Agostinelli Massimiliano Improved video and image encoding process
US9591254B2 (en) * 2015-03-26 2017-03-07 Qualcomm Incorporated Device and method for processing video data
US11677967B2 (en) * 2015-04-21 2023-06-13 Arris Enterprises Llc Scalable video coding system with parameter signaling
US10880557B2 (en) * 2015-06-05 2020-12-29 Fastvdo Llc High dynamic range image/video coding
US10037592B2 (en) * 2015-06-05 2018-07-31 Mindaptiv LLC Digital quaternion logarithm signal processing system and method for images and other data types
EP3308541B1 (en) * 2015-07-22 2021-12-29 ARRIS Enterprises LLC System for coding high dynamic range and wide color gamut sequences
WO2017015397A1 (en) * 2015-07-22 2017-01-26 Dolby Laboratories Licensing Corporation Video coding and delivery with both spatial and dynamic range scalability
US10277904B2 (en) * 2015-08-28 2019-04-30 Qualcomm Incorporated Channel line buffer data packing scheme for video codecs
US9979895B2 (en) 2015-09-04 2018-05-22 Disney Enterprises, Inc. High dynamic range tone mapping
US10536695B2 (en) * 2015-09-09 2020-01-14 Qualcomm Incorporated Colour remapping information supplemental enhancement information message processing
EP3338243B1 (en) * 2015-09-23 2022-04-20 ARRIS Enterprises LLC High dynamic range adaptation operations at a video decoder
US10200701B2 (en) * 2015-10-14 2019-02-05 Qualcomm Incorporated HDR and WCG coding architecture with SDR backwards compatibility in a single bitstream for video coding
GB2544800A (en) 2015-11-27 2017-05-31 V-Nova Ltd Adaptive bit rate ratio control
FI20165547A (fi) * 2016-06-30 2017-12-31 Nokia Technologies Oy Laitteisto, menetelmä ja tietokoneohjelma videokoodausta ja videokoodauksen purkua varten
US10616583B2 (en) * 2016-06-30 2020-04-07 Sony Interactive Entertainment Inc. Encoding/decoding digital frames by down-sampling/up-sampling with enhancement information

Also Published As

Publication number Publication date
GB202219204D0 (en) 2023-02-01
CN113170157A (zh) 2021-07-23
GB202304694D0 (en) 2023-05-17
US11677989B2 (en) 2023-06-13
US20230156195A1 (en) 2023-05-18
WO2020074897A1 (en) 2020-04-16
WO2020074898A1 (en) 2020-04-16
GB2613262B (en) 2023-11-15
US11523118B2 (en) 2022-12-06
EP3864845A1 (en) 2021-08-18
GB2593327B (en) 2023-02-08
CN113170218B (zh) 2023-08-01
KR20210072079A (ko) 2021-06-16
JP2022508741A (ja) 2022-01-19
CN113170156A (zh) 2021-07-23
WO2020089583A1 (en) 2020-05-07
EP3864844A1 (en) 2021-08-18
GB2593328B (en) 2023-02-01
GB2593328A (en) 2021-09-22
GB2616980A (en) 2023-09-27
US20210377549A1 (en) 2021-12-02
CN116668742A (zh) 2023-08-29
GB2613262A (en) 2023-05-31
US11653034B2 (en) 2023-05-16
US20210392350A1 (en) 2021-12-16
BR112021006706A2 (pt) 2021-07-27
CN113170218A (zh) 2021-07-23
GB2593327A (en) 2021-09-22
GB2592536B (en) 2023-02-01
GB2592536A (en) 2021-09-01
US20210360253A1 (en) 2021-11-18
US11509902B2 (en) 2022-11-22
WO2020074896A1 (en) 2020-04-16
GB2616980B (en) 2023-12-13
US20210377573A1 (en) 2021-12-02

Similar Documents

Publication Publication Date Title
US11509902B2 (en) Colour conversion within a hierarchical coding scheme
US11070809B2 (en) System and method for reshaping and adaptation of high dynamic range video data
US20230276061A1 (en) Scalable video coding system with parameter signaling
US11146803B2 (en) Distribution of multi-format high dynamic range video using layered coding
US9357197B2 (en) Multi-layer backwards-compatible video delivery for enhanced dynamic range and enhanced resolution formats
US20190028727A1 (en) High dynamic range adaptation operations at a video decoder
US10015525B2 (en) Content mapping using extended color range
EP3718305A1 (en) Saturation control for high-dynamic range reconstruction
US20230412813A1 (en) Enhancement decoder for video signals with multi-level enhancement and coding format adjustment
CN108027978B (zh) 用于hdr编码/解码的颜色分量采样的同位置亮度采样的确定

Legal Events

Date Code Title Description
A201 Request for examination