KR102717552B1 - 기본 스트림들로부터 디코딩된 비디오 콘텐츠를 디스플레이의 특성들에 적응시키기 위한 방법 및 디바이스 - Google Patents

기본 스트림들로부터 디코딩된 비디오 콘텐츠를 디스플레이의 특성들에 적응시키기 위한 방법 및 디바이스 Download PDF

Info

Publication number
KR102717552B1
KR102717552B1 KR1020237030291A KR20237030291A KR102717552B1 KR 102717552 B1 KR102717552 B1 KR 102717552B1 KR 1020237030291 A KR1020237030291 A KR 1020237030291A KR 20237030291 A KR20237030291 A KR 20237030291A KR 102717552 B1 KR102717552 B1 KR 102717552B1
Authority
KR
South Korea
Prior art keywords
hdr
display
information
dynamic metadata
content
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
KR1020237030291A
Other languages
English (en)
Other versions
KR20230131967A (ko
Inventor
필립 보르드
삐에르 앙드리봉
에두아르 프랑쑤와
Original Assignee
인터디지털 브이씨 홀딩스 인코포레이티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 인터디지털 브이씨 홀딩스 인코포레이티드 filed Critical 인터디지털 브이씨 홀딩스 인코포레이티드
Priority to KR1020247033756A priority Critical patent/KR20240154081A/ko
Publication of KR20230131967A publication Critical patent/KR20230131967A/ko
Application granted granted Critical
Publication of KR102717552B1 publication Critical patent/KR102717552B1/ko
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/434Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
    • H04N21/4346Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream involving stuffing data, e.g. packets or bytes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/434Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
    • H04N21/4343Extraction or processing of packetized elementary streams [PES]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/235Processing of additional data, e.g. scrambling of additional data or processing content descriptors
    • H04N21/2353Processing of additional data, e.g. scrambling of additional data or processing content descriptors specifically adapted to content descriptors, e.g. coding, compressing or processing of metadata
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/434Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
    • H04N21/4345Extraction or processing of SI, e.g. extracting service information from an MPEG stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/435Processing of additional data, e.g. decrypting of additional data, reconstructing software from modules extracted from the transport stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/462Content or additional data management, e.g. creating a master electronic program guide from data received from the Internet and a Head-end, controlling the complexity of a video stream by scaling the resolution or bit-rate based on the client capabilities
    • H04N21/4621Controlling the complexity of the content stream or additional data, e.g. lowering the resolution or bit-rate of the video stream for a mobile client with a small screen
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/8166Monomedia components thereof involving executable data, e.g. software
    • H04N21/8193Monomedia components thereof involving executable data, e.g. software dedicated tools, e.g. video decoder software or IPMP tool
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/84Generation or processing of descriptive data, e.g. content descriptors

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Library & Information Science (AREA)
  • Databases & Information Systems (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Television Systems (AREA)

Abstract

본 개시내용은 기본 스트림들에 관한 정보를 제공하는 적어도 하나의 유형의 메타데이터로부터, 기본 스트림들로부터 디코딩된 비디오 콘텐츠를 디스플레이의 특성들에 적응시키기 위한 방법 및 디바이스에 관한 것이다. 이 방법은, 하나의 특정한 유형의 메타데이터의 존재를 나타내는 추가 정보(HDR DESCR.)를 획득하는 단계(102), 기본 스트림들로부터 디코딩된 비디오 콘텐츠가 추가 정보(HDR DESCR.) 및 디스플레이의 특성들(EDID)로부터 디스플레이(11) 상에 표시가능한지를 결정하는 단계, 및 기본 스트림들로부터 디코딩된 비디오 콘텐츠가 표시가능한 것으로 결정되면, 추가 정보 및 디스플레이의 특성들로부터 프로세스를 선택하고(105), 선택된 프로세스에 따라 비디오 콘텐츠를 적응시키는 단계(106)를 포함한다.

Description

기본 스트림들로부터 디코딩된 비디오 콘텐츠를 디스플레이의 특성들에 적응시키기 위한 방법 및 디바이스{METHOD AND DEVICE FOR ADAPTING THE VIDEO CONTENT DECODED FROM ELEMENTARY STREAMS TO THE CHARACTERISTICS OF A DISPLAY}
본 개시내용은 일반적으로 픽처/비디오 인코딩 및 디코딩에 관한 것이다. 특히, 본 개시내용의 기술 분야는, 배타적인 것은 아니지만, 상이한 능력들을 갖는 디스플레이들 상에 높은 동적 범위(High Dynamic Range: HDR) 콘텐츠를 전달하는 것에 관한 것이다.
본 란은 이하에서 설명되고/되거나 청구되는 본 원리들의 다양한 양태들과 관련될 수 있는 관련 기술의 다양한 양태들을 독자에게 소개하기 위해 의도된 것이다. 본 논의는 독자에게 본 원리들의 다양한 양태들의 보다 나은 이해를 용이하게 하는 배경 정보를 제공하는데 도움이 될 것으로 믿어진다. 따라서, 이러한 진술들이 종래 기술의 인정이 아니라 이런 관점에서 읽혀져야 한다는 점을 이해해야 한다.
실제 장면들에 근접하는 동적 범위를 가진 정적 픽처들 또는 비디오들의 이미지 콘텐츠의 캡처 및 표시가 장기적인 과제였었다.
실제로, 인간의 시력은 장면의 밝기에 대해 넓은 허용범위(latitude)를 가지며, 인간의 시각 시스템에 자동 이득을 제공하는 여러 적응 메커니즘들을 가지고 있다. 특히, 사람들이 볼 수 있는 밝기 범위는 대부분의 현존하는 디스플레이들의 사용가능한 대비 범위보다 훨씬 크다.
인간의 시력 요건들을 충족시키는 콘텐츠들의 표시를 제공하기 위한 시도에 있어서, 표준 동적 범위(Standard Dynamic Range: SDR) 이미지들과 비교하여 더 높은 피크 휘도, 더 낮은 최소 휘도, 더 큰 대비 범위를 포함하는 높은 동적 범위(HDR) 이미지들이 최근에 지정 및 정의되었다. 다시 말해, HDR 이미지들은 SDR 이미지들에 비해 음영 증가, 세부내용 강조, 즉 우리가 실제 세계에서 보는 이미지들과 더 잘 어울리는 더 밝은 백색들, 더 어두운 흑색들 및 더 밝은 컬러들을 제공한다.
잘 알려진 바와 같이, HDR 또는 SDR 유형 중 어느 하나의 픽처는 특정한 인코딩 포맷의 샘플들의 하나 또는 몇몇 어레이(일명 픽셀 값들)로 표현될 수 있으며, 이 포맷은 이들 픽셀 값들에 대한 모든 정보, 및 이 픽처를 디코딩 및/또는 표시하기 위해 디스플레이 및/또는 임의의 다른 디바이스에 의해 사용될 수 있는 모든 정보를 지정한다. 이는 비디오 콘텐츠들에도 동일하게 적용된다. 이하에서, "이미지 콘텐츠"라는 용어는 픽처들과 비디오 콘텐츠들 모두를 포괄하는데 사용될 것이다.
이미지 콘텐츠는 일반적으로 샘플들의 제1 어레이, 통상적으로 루마(또는 휘도) 성분의 형상인 적어도 하나의 성분, 및 가능하게는, 샘플들의 적어도 하나의 다른 어레이, 통상적으로는 컬러 성분의 형상인 적어도 하나의 다른 성분을 포함한다. 또는, 동등하게, 동일한 정보는 전통적인 삼색 RGB 표현과 같은 컬러 샘플들의 어레이들의 세트에 의해 또한 표현될 수 있다.
픽셀 값은 C 값들의 벡터에 의해 표현되며, 여기서 C는 성분들의 수(number)이다. 벡터의 각각의 값은, 픽셀 값들의 최대 동적 범위를 정의하는, 다수의(a number of) 비트들로 표현된다.
이미지 콘텐츠들의 방송사들 및 배포자들이 가능한 모든 아웃렛들 및 디바이스들로의 전달을 지원하기 위해 SDR 및 HDR 콘텐츠 간에 변환해야 하는 경우가 자주 있을 것으로 예상된다. 이는 특히 HDR 콘텐츠로부터 SDR 배포 및 디스플레이 시스템들과의 하위 호환성을 허용하는 계층화된 콘텐츠로 변환하는 경우에 그러할 수 있다. HDR 신호들과 소스보다 더 작은 피크 백색 능력을 갖는 HDR 디스플레이들과의 상호운용의 경우에 또한 그러할 수 있다.
디스플레이들, 이미지 프로세서들, 업/다운 컬러 변환기들은 모두 신호를 올바르게 처리하고 표시하기 위해 사용 중인 HDR 인코딩 및 색측정(colorimetry)을 검출할 필요가 있을 것이다.
이러한 처리를 쉽게 하기 위해, 일부 표준 개발 기구(Standards Developing Organization: SDO)들은 HDR 코딩된 비디오 스트림들과 관련될 메타데이터 정보 세트를 지정하였다. 이러한 메타데이터의 목적은 재구성된 HDR 픽처들의 현재 디스플레이 특성들에 대한 적응(예를 들어, HDR 대 SDR 또는 HDR 대 HDR 리매핑) 또는 해석을 용이하게 하는 것이다.
이러한 HDR 메타데이터는 한편으로는 정적 메타데이터, 및 다른 한편으로는 동적 또는 콘텐츠 의존 메타데이터를 주로 포함하며, 후자는 소스 콘텐츠 전체에서 동적으로 변할 수 있는(즉, 동일한 시퀀스 내에서 장면마다 변경될 수 있는) 메타데이터로서 정의된다.
이들은 예를 들어 다음을 포함한다.
- (예를 들어, SMPTE Standard ST 2086:2014, "Mastering Display Color Volume Metadata Supporting High Luminance and Wide Color Gamut Images" , CEA Standard "HDR Static Metadata Extensions CEA-861.3 January 2015 ITU-T H.265 (10/2014) 에서 설명된 바와 같은) 마스터링 디스플레이 컬러 볼륨 정보: 이러한 정적 메타데이터는 마스터링 디스플레이의 컬러 볼륨과 콘텐츠의 휘도를 전달하기 위해 마스터링된 HDR 콘텐츠에 포함된다. 이는 적색, 녹색 및 청색 디스플레이 원색들의 색도 및 마스터링 디스플레이의 백색 지점과 그 흑색 레벨 및 피크 휘도 레벨에 의해 설명된다. 다시 말해, 이러한 정적 메타데이터는 디스플레이 특성들에 대한 콘텐츠 적응(예를 들어, 컬러 볼륨 리매핑)을 안내하기 위해 이미지 콘텐츠를 생성하는데 사용되는 마스터링 디스플레이의 실제 HDR 컬러 볼륨을 설명한다.
- ( ITU-T H.265 (10/2014) 및 SMPTE Standard ST 2094-30에서 설명된 바와 같은) 컬러 리매핑 정보(CRI): 동적 메타데이터는 HDR 픽처들의 컬러 볼륨 리매핑 변환을 수행하여 (표준화된 포맷으로 표현되는) SDR 픽처들을 생성하는 파라메트릭 모델 함수에 의해 표현된다. 이러한 동적 메타데이터는 프레임별 또는 장면별 컬러 리매핑 정보를 전달하며, 이 정보는 컬러 변환이 콘텐츠 타임라인을 따라 변할 수 있게 할 것이다.
- ( CEA Standard "HDR Static Metadata Extensions CEA-861.3 January 2015 ITU-T H.265 (04/2015) 에서 설명된 바와 같은) 콘텐츠 라이트 레벨 정보: HDR 콘텐츠를 HDR 디스플레이 능력들(예를 들어, 전력 소모)로 재스케일링하기 위한 최소 및 평균 최대 휘도 값들이다.
- ( ITU-T H.265 (04/2015) M. Naccari, A. Cotton, S. Schwarz, M. Pindoria, M. Mrak, T. Borer (BBC) "High dynamic range compatibility information SEI message" 에서 설명된 바와 같은) HDR 호환성: 이러한 메타데이터는 콘텐츠가 적합한(미리 정의된) 사후 처리로 HDR 또는 SDR 디스플레이들 상에 표시될 수 있다는 것을 나타낸다.
이러한 상이한 HDR-관련 메타데이터 유형들은 수신기 인코딩된 비디오 콘텐츠의 디코딩을 담당하는 수신기, 예를 들어 통합 수신기 디바이스(IRD)에 의해 사용되어 재구성된 HDR 픽처들을 디스플레이 특성들, 예를 들어 IRD에 현재 연결된 디스플레이에 적응시킬 수 있다.
실제로, HDR로 마스터링된 소스 콘텐츠가 SDR 디스플레이와 같은 더 작은 컬러 볼륨을 갖는 디스플레이 상의 프리젠테이션을 위해 변환될 때, 컬러 변환 프로세스는 이러한 콘텐츠 의존의 동적 컬러 변환 메타데이터의 사용을 통해 최적화될 수 있다.
콘텐츠 특성들이 장면마다 변함에 따라, 콘텐츠 제작자들의 예술적 의도를 가장 잘 재현하는 최적의 변환 처리가 변경될 수 있다. 예를 들어, 매우 어두운 장면에 사용되는 컬러 볼륨 변환 파라미터들은 매우 밝은 장면에 사용되는 것들과 매우 상이할 수 있다.
따라서, 이러한 변환들은 하나의 마스터의 프레임들과 동기화된 메타데이터로서 표현될 수 있다. 메타데이터는 마스터링 프로세스의 일부로서 캡처되거나 생성될 수 있으며, 이미지들이 독창적으로 승인되면 나중에 배포 단계에서 미디어 변환들에 적용된다.
더 정확하게는, 예를 들어 셋톱 박스의 일부이거나 TV 세트에 통합될 수 있는 IRD는 IRD에 구현된 콘텐츠 적응(CA) 방법에 따라, 이러한 메타데이터 중 하나를 사용하거나 몇몇을 결합하여 디코딩된 HDR 픽처들을 목표로 한 디스플레이 능력들(예를 들어, SDR, HDR, WCG(Wide Color Gamut) ...)에 적응시킬 수 있다. 사실, 일부 디코딩 디바이스들은 소위 마스터링 디스플레이 컬러 볼륨 정보와 같은 정적 메타데이터만을 사용하여 HDR 콘텐츠로부터 SDR 이미지 콘텐츠로의 리매핑을 수행할 것이다. 일부 다른 디코딩 디바이스들은 하나 또는 몇몇의 동적 메타데이터를 사용하여 HDR 컬러 볼륨으로부터 디스플레이 특성들에 적응된 컬러 볼륨으로의 더 복잡한 변환을 수행할 것이다.
또한, 일부 디코딩 디바이스들은 몇몇 콘텐츠 적응 방법들을 지원하고, 사용가능한 메타데이터에 따라 가장 적합한 것을 선택할 수 있지만, 일부 다른 디코딩 디바이스들은 콘텐츠 적응 방법들 중 하나만을 지원한다.
그 결과, 구현된 방법에 대응하고 디코딩 디바이스에 의해 필요로 하는 메타데이터가 이미지 콘텐츠와 관련된 기본 스트림들에 존재하지 않으면, 디코딩된 이미지들을 디스플레이 특징들에 적응시키는 것이 가능하지 않거나 부정확할 수 있다.
더욱이, 당분간은 위에서 언급된 바와 같이, 이러한 메타데이터가 인코딩된 이미지 콘텐츠와 관련된 기본 스트림들(ES)에 내장된다. 실제로, 이미지들이 (예를 들어, MPEG-AVC/H.264 표준 또는 MPEG-HEVC/H. 265 표준에서 정의된 바와 같이) 코덱에 의해 기본 스트림(ES)으로 인코딩된다는 점을 상기해야 한다. 이 기본 스트림은 그 다음에 방송 또는 배포를 위해 전송 계층으로 캡슐화된다. 목표로 한 애플리케이션 및 대응하는 표준에 따라 ES를 전송 계층으로 캡슐화하는 다음과 같은 몇 가지 방식들이 있다.
- 방송 애플리케이션들용의 MPEG-2 전송(전통적인 TV, 모바일, 네트워크 IPTV);
- 인터넷(인터넷 프로토콜) 상의 비디오 스트리밍 애플리케이션들용의 RTP;
- ISO 베이스 미디어 파일 포맷 표준을 기반으로 하며 대화형 서비스들, IPTV 또는 주문형 비디오 애플리케이션들에 사용될 수 있는 MPEG-DASH;
- DVD 또는 블루레이 디스크 상에 이미지 콘텐츠를 기록하는 것과 같은 저장 및 다운로드 애플리케이션들용의 MPEG-2 시스템들.
따라서, 기본 스트림(ES, 코딩된 비디오 계층)으로 인코딩된 HDR 메타데이터 또는 HDR 특징들의 존재에 대한 정보에 액세스하기 위해, IRD와 같은 디코딩 디바이스는, 디코딩된 콘텐츠를 디스플레이 특성들에 적응시키는데 필요한 메타데이터가 ES에 존재하는지 여부에 대해 알지 못하고, 먼저 올바른 멀티플렉스를 선택하고, 그 다음에 전송 계층(TS)을 디코딩하며, 그 다음에 기본 스트림들의 디코딩을 시작해야 한다. 이는 시간과 전력 모두를 소모하는 것이다.
이러한 종래 기술의 다른 단점은, 사용가능하다면, 메타데이터가 전체 시퀀스 또는 프로그램 동안 존재할 것이라는 보장이 없다는 사실에 있다.
실제로, 일부 비디오 프로그램들은 예를 들어 영화에서 일부 비디오 시퀀스들을 자르고 두 개의 자른 부분들 사이에 일부 광고에 대응하는 비디오 시퀀스를 삽입할 수 있는 스플라이싱 기술들 덕분에 만들어진다. 대응하는 스트림이 일부 영화 장면들에 대응하는 부분들에서는 메타데이터를 포함할 것이지만, 광고 비디오 시퀀스에서는 포함하지 않는 것이 가능하다.
디코딩 디바이스의 경우, 메타데이터가 비디오 프로그램의 전체 지속기간 동안 또는 비디오 프로그램의 일부분들 동안만 사용가능할 것인지 여부에 대해 알 수 있는 방법이 없다.
따라서, 이러한 단점들 중 적어도 일부를 극복할 수 있는 기술이 필요하다.
다음은 본 개시내용의 일부 양태들의 기본적인 이해를 제공하기 위하여 본 개시내용의 간략화된 개요를 제시한다. 이 개요는 본 개시내용에 대한 광범위한 개관은 아니다. 이것은 본 개시내용의 핵심 요소 또는 중요 요소들을 식별하는 것으로 의도되지 않는다. 다음의 개요는 단지 아래에 제공되는 보다 상세한 설명에 대한 서문으로서 본 개시내용의 일부 양태들을 간략화된 형태로 제시한다.
본 개시내용의 일 양태에 따르면, 인코딩된 비디오 콘텐츠의 기본 스트림들에 관한 정보를 제공하는 적어도 하나의 유형의 메타데이터를 갖는 신호가 제공된다. 이러한 신호는 적어도 하나의 특정한 유형의 메타데이터의 존재를 나타내는 추가 정보를 포함하도록 포맷팅된다.
따라서, 본 개시내용은 비디오 신호의 인코딩에 대한 신규하고 독창적인 접근법에 의존하며, 이는 비디오 콘텐츠를 나타내는 신호 내에 추가 정보를 추가하여 신호 내의 하나 또는 몇몇 유형들의 메타데이터의 존재에 대해 수신기에게 알려주는 것을 포함한다. 수신기가 일부 유형들의 메타데이터가 이러한 스트림들 내에서 사용가능한지 여부를 결정하기 위해 더 이상 기본 스트림들의 디코딩을 시작할 필요가 없다. 더욱이, 수신기는, 이 추가 정보가 나타내는 바와 같이, 사용가능한 유형들의 메타데이터의 함수로서, 디코딩된 비디오 콘텐츠를 연결된 디스플레이의 특성들에 적응시킬 수 있는지 여부에 대해 직접 알 수 있다.
이러한 기술은 종래 기술들과 비교하여 시간과 전력 소모 모두를 절약할 수 있게 한다.
다른 양태에 따르면, 추가 정보는 또한 적어도 하나의 특정한 유형의 메타데이터가 인코딩된 비디오 콘텐츠의 전체 지속기간 동안 신호 내에 존재하는지를 나타낸다.
따라서, 신호의 수신기는, 디코딩된 비디오 콘텐츠를 연결된 디스플레이의 특성들에 적응시키는데 필요한 메타데이터가 비디오 시퀀스 또는 프로그램의 전체 지속기간 동안 사용가능할 것인지 여부 또는 비디오 시퀀스 동안 이러한 적응을 수정하거나 중단시켜야 할지 여부에 대해 직접 알 수 있다.
또 다른 양태에 따르면, 추가 정보는 또한 메타데이터의 적어도 일부를 포함한다. 이는 정적 메타데이터에 특히 유리하며, 수신기가 어떤 콘텐츠 적응 방법을 사용할지 선택할 수 있도록 하기 위해 추가 정보 내에서 일부 또는 전체 메타데이터 정보가 직접 사용될 수 있다.
추가적인 양태에 따르면, 적어도 하나의 특정한 유형의 메타데이터가 동적 메타데이터의 세트에 속할 때, 추가 정보는, 최대 동적 메타데이터 리프레시 레이트, 동적 메타데이터가 리프레시되는 최소 시간 간격을 포함하는 그룹에 속하는 제1 리프레시 정보를 포함한다.
추가적인 양태에 따르면, 적어도 하나의 특정한 유형의 메타데이터가 동적 메타데이터의 세트에 속할 때, 추가 정보는, 최소 동적 메타데이터 리프레시 레이트, 동적 메타데이터가 리프레시되는 최대 시간 간격을 포함하는 그룹에 속하는 제2 리프레시 정보를 포함한다.
메타데이터 리프레시 레이트에 관한 정보는 신호의 수신기가 리프레시된 메타데이터에 기반하여 비디오 콘텐츠의 디코딩을 언제 시작할 수 있는지를 아는데 유용하다. 이는 예를 들어 사용자가 TV 채널로부터 다른 채널로 전환하기로 결정할 때의 방송된 비디오 콘텐츠의 경우에 관심이 있을 수 있다.
본 개시내용의 일 양태에 따르면, 추가 정보는 신호의 전송 스트림에 존재한다.
따라서, 수신기는 전송 스트림 내에 캡슐화된 기본 스트림들을 디코딩할 필요 없이 이러한 정보에 직접 액세스할 수 있다.
추가적인 양태에 따르면, 인코딩된 비디오 콘텐츠는 높은 동적 범위 비디오 콘텐츠이며, 메타데이터는 높은 동적 범위 메타데이터이다.
본 개시내용의 다른 양태에 따르면, 기본 스트림들에 관한 정보를 제공하는 적어도 하나의 유형의 메타데이터로부터, 기본 스트림들로부터 디코딩된 비디오 콘텐츠를 디스플레이의 특성들에 적응시키기 위한 방법이 제공된다. 이 방법은, 하나의 특정한 유형의 메타데이터의 존재를 나타내는 추가 정보를 획득하는 단계, 기본 스트림들로부터 디코딩된 비디오 콘텐츠가 추가 정보 및 디스플레이의 특성들로부터 디스플레이 상에 표시가능한지를 결정하는 단계, 및 기본 스트림들로부터 디코딩된 비디오 콘텐츠가 표시가능한 것으로 결정되면, 추가 정보 및 디스플레이의 특성들로부터 프로세스를 선택하고, 선택된 프로세스에 따라 비디오 콘텐츠를 적응시키는 단계를 포함한다.
따라서, 인코딩된 비디오 기본 스트림들의 수신기는, 디스플레이의 특성들 및 사용가능한 메타데이터에 따라, 수신된 콘텐츠가 표시가능할지를 신속하고 용이하게 결정할 수 있으며, 예를 들어 HDR 콘텐츠를 디스플레이에 의해 지원되는 색측정 특징들의 함수로서 리매핑하기 위한 적합한 콘텐츠 적응 프로세스를 선택할 수 있다.
다른 양태에 따르면, 추가 정보는 또한 적어도 하나의 특정한 유형의 메타데이터가 비디오 기본 스트림들의 전체 지속기간 동안 신호 내에 존재하는지를 나타낸다.
본 개시내용의 다른 양태들에 따르면, 본 개시내용은 이러한 방법을 구현하도록 구성된 프로세서를 포함하는 디바이스, 프로그램이 컴퓨터 상에서 실행될 때, 이러한 방법의 단계들을 실행시키기 위한 프로그램 코드 명령어들을 포함하는 컴퓨터 프로그램 제품, 프로세서로 하여금 이러한 방법의 단계들을 적어도 수행하게 하기 위한 명령어들을 저장하는 프로세서 판독가능한 매체, 및 프로그램이 컴퓨팅 디바이스 상에서 실행될 때, 이러한 방법의 단계들을 실행시키기 위한 프로그램 코드의 명령어들을 운반하는 비일시적 저장 매체에 관한 것이다.
본 원리들의 특정한 성질뿐만 아니라 본 원리들의 다른 목적들, 이점들, 특징들 및 용도들은 첨부 도면들과 관련하여 행해지는 예들의 다음의 설명으로부터 명확해질 것이다.
본 개시내용은 예로써 주어지고 보호의 범위를 제한하지 않는 다음의 설명 및 도면들을 참조하면 더 잘 이해될 수 있다.
도 1은 본 개시내용의 일 실시예에 따라 비디오 기본 스트림들의 콘텐츠를 적응시키기 위한 방법의 단계들을 나타내는 도면이다.
도 2는 본 개시내용의 일 실시예에 따른 디바이스의 아키텍처의 예를 도시한다.
도 3은 본 개시내용의 일 실시예에 따른 신호의 신택스를 도시한다.
도 4는 도 1의 방법에 따라 적응된 비디오 기본 스트림들을 운반하는 멀티플렉스 스트림의 트리 구조를 나타낸다.
유사하거나 동일한 요소들이 동일한 참조 번호들로 참조된다.
본 원리들은 본 원리들의 예들이 도시되어 있는 첨부된 도면들을 참조하여 이하에서 보다 상세히 설명될 것이다. 그러나, 본 원리들은 많은 대안적 형태들로 구현될 수 있으며 본 명세서에 개시된 예들에 제한되는 것으로 해석되어서는 안 된다. 따라서, 본 원리들은 다양한 수정들 및 대안적인 형태들이 가능하지만, 그 특정한 예들은 도면들에서 예들로서 도시되며 본 명세서에 상세히 설명될 것이다. 그러나, 본 원리들을 개시된 특정한 형태들로 제한할 의도는 없고, 반대로, 본 개시내용은 청구항들에 의해 정의된 바와 같은 본 원리들의 사상 및 범위 내에 속하는 모든 수정들, 균등물들, 및 대안들을 포괄하는 것으로 이해되어야 한다.
본 명세서에서 사용되는 용어는 특정한 예들을 설명하기 위한 것일 뿐이며, 본 원리들을 제한하는 것으로 의도되지 않는다. 본 명세서에서 사용될 때, 단수 형태들은, 문맥상 명확하게 달리 나타내지 않는 한, 복수 형태들도 포함하는 것으로 의도된다. "포함하고" 및/또는 "포함하는"이란 용어들은, 본 명세서에서 사용될 때, 언급된 특징들, 정수들, 단계들, 동작들, 요소들 및/또는 구성요소들의 존재를 지정하지만, 하나 이상의 다른 특징, 정수, 단계, 동작, 요소, 구성요소 및/또는 그 그룹의 존재 또는 추가를 배제하지는 않는다는 것이 또한 이해될 것이다. 더구나, 요소가 다른 요소에 "응답하는" 또는 "연결되는" 것으로서 언급될 때, 그 요소는 다른 요소에 직접적으로 응답하거나 연결될 수 있거나, 또는 개재하는 요소들이 존재할 수 있다. 반면에, 요소가 다른 요소에 "직접적으로 응답하는" 또는 "직접적으로 연결되는" 것으로서 언급될 때에는, 개재하는 요소들이 존재하지 않는다. 본 명세서에서 사용될 때, "및/또는"이라는 용어는 나열된 관련 항목들 중 하나 이상의 임의의 및 모든 조합들을 포함하며, "/"로서 축약될 수 있다.
다양한 요소들을 설명하기 위해 제1, 제2 등의 용어들이 본 명세서에서 사용될 수 있기는 하지만, 이러한 요소들은 이런 용어들에 의해 제한되지 않아야 한다는 것을 이해할 것이다. 이러한 용어들은 하나의 요소와 다른 요소를 구별하는데 사용될 뿐이다. 예를 들어, 본 원리들의 교시들로부터 벗어나지 않고, 제1 요소는 제2 요소라 명명될 수 있고, 유사하게, 제2 요소는 제1 요소라 명명될 수 있다.
일부 도면들이 통신의 주요 방향을 나타내기 위해 통신 경로들 상에 화살표들을 포함하고 있지만, 통신은 묘사된 화살표들과 반대 방향으로 일어날 수 있다는 것을 이해해야 한다.
일부 예들은 블록도들 및 동작 흐름도들과 관련하여 설명되며, 각각의 블록은 회로 요소, 모듈, 또는 지정된 논리 기능(들)을 구현하기 위한 하나 이상의 실행가능한 명령어를 포함하는 코드의 일부를 나타낸다. 다른 구현예들에서, 블록들에서 언급된 기능(들)은 언급된 순서에서 벗어나서 발생할 수 있음에 또한 유의해야 한다. 예를 들면, 연속해서 도시된 2개의 블록은, 실제로는 실질적으로 동시에 실행될 수 있거나 또는 그 블록들은 때때로 수반된 기능에 따라 역순으로 실행될 수 있다.
본 명세서에서 "일 예에 따라" 또는 "일 예에서"라는 언급은 이 예와 관련하여 설명된 특정한 특징, 구조 또는 특성이 본 원리들의 적어도 하나의 구현예에 포함될 수 있음을 의미한다. 본 명세서의 여러 곳들에서의 문구 "일 예에 따라" 또는 "일 예에서"라는 표현들은 반드시 모두 동일한 예를 언급하고 있는 것도 아니며, 별개의 또는 대안적인 예들이 다른 예들과 반드시 상호 배타적이지도 않다.
청구항들에서 나타나는 참조 번호들은 단지 예시에 의한 것이며, 청구항들의 범위에 대한 제한적인 영향을 주지 않는다.
명시적으로 설명되지 않을지라도, 본 예들 및 변형예들은 임의의 조합 또는 하위 조합으로 사용될 수 있다.
본 원리들은 픽처 또는 픽처들의 그룹 또는 픽처들의 전체 시퀀스를 나타내는 비디오 기본 스트림들을 인코딩/디코딩/적응시키기 위해 설명된다.
이하에서, 본 개시내용은 본 개시내용의 특징들이 높은 동적 범위(HDR) 콘텐츠 적응 선택 프로세스 및 전송 스트림들(TS)에 대한 HDR 메타데이터 시그널링에 적용되는 특정한 실시예와 관련하여 보다 상세히 설명될 것이다.
알려진 종래 기술들과 관련하여 앞서 설명한 바와 같이, 인코딩된 비디오 콘텐츠와 관련된 전송 스트림에서 수신기들에 유용할 수 있는 HDR 메타데이터의 존재에 관한 정보가 없다. 그 결과, 수신기/디코더는 목표로 한 디스플레이로의 운반에 앞서, 디코딩된 콘텐츠가 목표로 한 디스플레이 특성들에 적응되어야 하는지 여부를 결정하기 전에 HDR 코딩된 스트림을 파싱할 것을 요구한다. 이러한 단계들은 자원 소모(기본 스트림들의 디코딩 부분들) 및 미리보기(스트림에 무엇이 있는지를 검사)를 의미한다.
본 개시내용은 HDR 기본 스트림(ES)을 통해 액세스가능한 HDR 특정한 특징들을 알 수 있게 하는 높은 동적 범위(HDR) 메타데이터 디스크립터를 지정하는 것에 있다. 수신기, 디코더, 렌더러 요소들과 같은 전체 소비자 말단 체인을 고려할 때 코딩된 비디오를 적응시키거나 해석하는 것이 중요하다.
예를 들어, ES에서 HDR 대 SDR 리매핑 메타데이터의 존재에 관한 정보를 그 전체 지속기간 동안 보유할 수 있다. 이는 ES 자체를 파싱할 필요 없이 이 정보의 검색을 용이하게 하고 단순화한다. 이러한 방식으로, 수신기, 예를 들어 통합 수신기 디코더(Integrated Receiver Decoder: IRD)는 스트림이 IRD, 예를 들어 셋톱 박스(STB)에 연결된 디스플레이로 (가능하게는 수신기의 적응 능력을 고려하여) 디코딩가능하고 표시가능할 것인지 여부를 미리 알 수 있다. 더욱이, 수신기는 또한 디코딩된 비디오 콘텐츠를 디스플레이 특성들에 적응시키기 위해 어떤 콘텐츠 적응 모델을 사용할지 선택할 수 있다.
도 1은 본 개시내용의 일 실시예에 따라 비디오 기본 스트림들로부터 디코딩된 비디오 콘텐츠를 디스플레이의 특성들에 적응시키기 위한 방법의 주요 단계들을 도시한다.
수신기 RX(10)는 디스플레이(11)에 연결된다. 예를 들어, 수신기 RX(10)는 TV 세트(11)에 통합된 IRD이거나 또는 HDMI 링크를 통해 디스플레이(11)에 연결된 셋톱 박스의 일부이다.
수신기 RX(10)는, 예를 들어 도 4에 도시된 바와 같이, 채널 변조에 대응하는 멀티플렉스 스트림 MX 1을 수신한다. 이러한 멀티플렉스 스트림 MX 1은 제1 레벨에서 인코딩된 비디오 콘텐츠에 대응하는 캡슐화된 기본 스트림들(42)인 전송 계층(41)을 갖는 트리 구조(43)를 갖는다. 각각의 기본 스트림은 예를 들어 TV 채널에 대응할 수 있는 식별자에 관련된다. 따라서, 도 4의 예에서, 제1 신호(멀티플렉스 0)는 식별자들 pid_0, pid_1pid_2에 관련된 기본 스트림들을 운반하는 반면, 제2 신호(멀티플렉스 1)는 식별자들 pid_3pid_4에 관련된 기본 스트림들을 운반한다.
수신기 MX 1은 단계(101)에서 멀티플렉스 스트림 MX 1을 디멀티플렉싱하고, 그 다음에 단계(102)에서 전송 스트림 TS(41)를 파싱한다. 따라서, 전송 스트림 TS(41) 내의 하나 또는 몇몇 특정한 유형들의 메타데이터의 존재를 나타내는 추가 정보(HDR DESCR.)를 획득한다. 이러한 추가 정보(HDR DESCR.)는 수신된 비디오 기본 스트림들로부터의 디코딩된 픽처들이 단계(CA SELEC)(105)에서 디스플레이(11) 상에 표시가능한지를 결정하기 위해 디스플레이(11)의 특성들에 관한 정보(EDID)와 함께 사용된다. EDID 정보는 디스플레이 제어 모듈(DISP. CTRL)(111)로부터 수신되고, 특히 디스플레이 지원 포맷들 및 디스플레이 특성들을 포함한다. 이러한 EDID 정보를 멀티플렉스 스트림 MX 1에서 사용가능한 메타데이터와 비교함으로써, 수신기 RX1은 단계(105)에서, 비디오 기본 스트림들이 실제로 표시가능한 것으로 결정된다면 디코딩된 비디오 콘텐츠를 디스플레이 특성들에 적응시키기 위해 어떤 콘텐츠 적응 방법을 사용해야 하는지를 결정할 수 있다.
콘텐츠 적응 프로세스가 선택되면, 수신기 RX(10)는 단계(CA)(106)에서 선택된 프로세스에 따라 기본 스트림들로부터 디코딩된 비디오 콘텐츠를 적응시킨다. 기본 스트림들로부터 디코딩된 비디오 콘텐츠(DEC. PIC.)는 전송 스트림(41)에 캡슐화된 기본 스트림들(42)이 파싱된 단계(103)에 기인하는 비디오 ES 디코딩의 단계(104) 이후에 획득된다.
적응되거나 리매핑된 픽처들(REMAP. PICT.)은 디스플레이(11)에 보내져서 단계(DISP. RENDER.)(110)에 렌더링된다.
따라서, HDR_descriptor는 IRD에 의해 다음과 같은 용도로 사용된다.
- EDID 정보(디스플레이 지원 포맷들) 및 HDR_descriptor 정보로 인해 HDR 비디오가 연결된 디스플레이 상에 (올바르게) 표시가능한지 여부를 IRD가 결정한다.
- HDR 콘텐츠가 표시가능하면, 디스플레이 능력들을 고려하여 적합한 콘텐츠 적응 방법을 선택한다.
ES(42)가 아닌 TS 계층(41)만이 파싱된다는 점에 유의해야 한다.
본 개시내용의 일 실시예에 따르면, TS 계층(41)에 디스크립터를 추가하는 것은 하나의 특정한 유형의 HDR 메타데이터 또는 특징의 존재를 시그널링한다. 이는 또한 이 정보가 전체 프로그램 또는 시퀀스 지속기간 동안 존재하는지를 시그널링할 수 있다.
신호(F)에 의해 운반되는 이러한 디스크립터(HDR DESCR.)(본 문서에서 추가 정보로도 지칭됨)의 신택스의 예가 표 1에 제시되어 있다.
<표 1>
Figure 112023098141473-pat00001
표 1에서 볼 수 있는 바와 같이, 디스크립터는 다음과 같은 4가지 상이한 유형들의 메타데이터의 존재를 나타내는 플래그들을 포함한다.
- 컬러 리매핑 정보(CRI);
- 마스터링 디스플레이 컬러 볼륨 정보;
- 콘텐츠 라이트 레벨 정보;
- HDR 호환성.
플래그의 값이 "1"로 설정될 때, 이는 대응하는 유형의 메타데이터가 인코딩된 비디오 스트림의 전체 지속기간 또는 전체 프로그램 동안 존재한다는 것을 나타낸다.
일 실시예에 따르면, 일부 또는 전체 정적 메타데이터 정보는 표 2에서의 "Mastering Display Colour Volume information"의 예에서 주어진 바와 같이 디스크립터에서 사용가능할 수 있다.
<표 2>
Figure 112023098141473-pat00002
대응하는 메타데이터의 특징들, 즉 관련 색측정 원색들, 백색 지점들 및 최소 및 최대 디스플레이 마스터링 휘도는 전송 스트림(41)의 디스크립터(HDR DESCR.)에서 직접 사용가능하다.
일 실시예에 따르면, 최대 동적 메타데이터 리프레시 레이트 또는 최소 기간이 시그널링된다. 이는 동적 메타데이터가 리프레시되는 최소 간격을 나타낸다(표 3에서의 예). 이 정보는 기준 클럭 레이트의 수 또는 틱들의 수(예를 들어, 90KHz)로 표현될 수 있다.
<표 3>
Figure 112023098141473-pat00003
일 실시예에 따르면, 최소 동적 메타데이터 리프레시 레이트 또는 최대 기간이 시그널링된다. 이는 동적 메타데이터가 리프레시되는 최대 간격을 나타낸다(표 4에서의 예). 이 정보는 기준 클럭 레이트의 수 또는 틱들의 수(예를 들어, 90KHz) 또는 ES 비디오 프레임 레이트의 수로 표현될 수 있다.
<표 4>
Figure 112023098141473-pat00004
일 실시예에 따르면, 리매핑된(colour_remapping_info) 신호 특성이 시그널링된다. 이는 어떤 포맷이 디스플레이에 보내질지 알고(선택하고)/알거나(선택하거나) 그 포맷이 디스플레이에 의해 지원되는지를 알기 위해 IRD에 의해 사용될 것이다.
<표 5>
Figure 112023098141473-pat00005
표 5의 예에 대한 변형예가 아래와 같이 제공된다.
<표 6>
Figure 112023098141473-pat00006
따라서, 본 개시내용은 종래 기술들에 비해 다음과 같은 몇 가지 이점들을 제공한다.
- IRD RX(10)는 일부 특정한 유형의 HDR 정적 및 동적 메타데이터의 존재에 대한 정보에 높은 레벨(TS(41))에서 액세스한다.
- IRD RX(10)는 메타데이터가 프로그램/시퀀스의 모든 지속기간 동안 존재할 것인지 여부에 대해 알고 있다.
- IRD RX(10)는 HDR 픽처들을 올바르게 표시할 수 있는지를 알기 위해 ES(42)를 더 이상 파싱할 필요가 없고 TS(41)만을 파싱하면 된다.
이러한 방식으로, IRD RX(10)는 이 정보를 사용자 인터페이스(또는 콘텐츠 적응 선택 모듈)에 제공하여 그 구현된 사후 처리(예를 들어, 컬러 볼륨 매핑) 및 EDID를 통한 연결된 디스플레이 특성들에 따라 HDR 렌더링의 가능한 전체 지원 여부에 대해 경고할 수 있다.
추가적으로, IRD RX(10)는 (IRD RX(10)에서 구현된 것들 중에서) 적합한 콘텐츠 적응 모델을 선택할 수 있다.
도 1에서, 모듈들은 구별가능한 물리적 유닛들과 관계가 있을 수도 있고 없을 수도 있는 기능 유닛들이다. 예를 들어, 이러한 모듈들 또는 이들 중 일부는 고유 구성요소 또는 회로에 통합되거나, 또는 소프트웨어의 기능들에 기여할 수 있다. 대조적으로, 일부 모듈들은 잠재적으로 별도의 물리적 엔티티들로 구성될 수 있다. 본 원리들과 호환가능한 장치는 순수 하드웨어, 예를 들어 ASIC(Application Specific Integrated Circuit), FPGA(Field-Programmable Gate Array) 또는 VLSI(Very Large Scale Integration)와 같은 전용 하드웨어를 사용하거나, 또는 디바이스에 내장된 여러 통합된 전자 구성요소들 또는 하드웨어와 소프트웨어 구성요소들의 혼합으로 구현된다.
도 2는 도 1과 관련하여 설명된 방법을 구현하도록 구성될 수 있는 디바이스(20)의 예시적인 아키텍처를 나타낸다.
디바이스(20)는 데이터 및 주소 버스(21)에 의해 함께 연결되는 다음의 요소들을 포함한다.
- 예를 들어 디지털 신호 프로세서(DSP)인 마이크로프로세서(22)(또는 CPU);
- 판독 전용 메모리(ROM)(23);
- 랜덤 액세스 메모리(RAM)(24);
- 애플리케이션으로부터 전송할 데이터를 수신하기 위한 I/O 인터페이스(25); 및
- 배터리(26).
일 예에 따르면, 배터리(26)는 디바이스 외부에 있다. 언급된 메모리 각각에서, 본 명세서에서 사용되는 단어 <<레지스터>>는 작은 용량(일부 비트들)의 영역에 또는 매우 큰 영역(예를 들어, 전체 프로그램 또는 많은 양의 수신된 또는 디코딩된 데이터)에 대응할 수 있다. ROM(23)은 프로그램 및 파라미터들을 적어도 포함한다. ROM(23)은 본 원리들에 따른 기술들을 수행하기 위한 알고리즘들 및 명령어들을 저장할 수 있다. 스위치 온될 때, CPU(22)는 프로그램을 RAM에 업로드하고 대응하는 명령어들을 실행시킨다.
RAM(24)은 레지스터 내에 CPU(22)에 의해 실행되고 디바이스(20)의 스위치 온 후에 업로드되는 프로그램, 레지스터 내의 입력 데이터, 레지스터 내의 방법의 상이한 상태들에서의 중간 데이터, 및 레지스터 내의 방법의 실행에 사용되는 다른 변수들을 포함한다.
본 명세서에서 설명된 구현예들은, 예를 들어 방법 또는 프로세스, 장치, 소프트웨어 프로그램, 데이터 스트림 또는 신호로 구현될 수 있다. 단일 형태의 구현예의 면에서만 논의되었지만(예를 들어, 방법 또는 디바이스로서만 논의됨), 논의된 특징들의 구현예는 다른 형태들(예를 들어, 프로그램)로 또한 구현될 수 있다. 장치는, 예를 들어 적합한 하드웨어, 소프트웨어 및 펌웨어로 구현될 수 있다. 방법들은, 예를 들어 컴퓨터, 마이크로프로세서, 집적 회로 또는 프로그램가능한 논리 디바이스를 포함하고 일반적으로 처리 디바이스들을 지칭하는, 예를 들어 프로세서와 같은 장치에서 구현될 수 있다. 프로세서들은 또한, 예를 들어 컴퓨터들, 셀 폰들, 휴대용/개인용 휴대 정보 단말기들("PDA들") 및 최종 사용자들 간의 정보 통신을 용이하게 하는 다른 디바이스들과 같은 통신 디바이스들을 포함한다.
디바이스의 일 예에 따르면, 멀티플렉스 스트림 MX 1(도 1)은 소스로부터 획득된다. 예를 들어, 소스는 다음을 포함하는 세트에 속한다.
- 국부 메모리(23 또는 24), 예컨대 비디오 메모리 또는 RAM, 플래시 메모리, ROM, 하드 디스크;
- 저장 인터페이스(25), 예컨대 대용량 저장소, RAM, 플래시 메모리, ROM, 광학 디스크 또는 자기 지지체를 갖는 인터페이스;
- 통신 인터페이스(25), 예컨대 유선 인터페이스(예를 들어, 버스 인터페이스, 광역 네트워크 인터페이스, 근거리 네트워크 인터페이스) 또는 (IEEE 802.11 인터페이스 또는 Bluetooth® 인터페이스와 같은) 무선 인터페이스; 및
- 픽처 캡처링 회로(예컨대 CCD(Charge-Coupled Device) 또는 CMOS(Complementary Metal-Oxide-Semiconductor)와 같은 센서).
디바이스의 일 예에 따르면, 리매핑된 픽처(REMAP. PICT.)(도 1)는 목적지로 보내지며, 구체적으로, 목적지는 다음을 포함하는 세트에 속한다.
- 국부 메모리(23 또는 24), 예컨대 비디오 메모리 또는 RAM, 플래시 메모리, 하드 디스크;
- 저장 인터페이스(25), 예컨대 대용량 저장소, RAM, 플래시 메모리, ROM, 광학 디스크 또는 자기 지지체를 갖는 인터페이스;
- 통신 인터페이스(25), 예컨대 유선 인터페이스(예를 들어, 버스 인터페이스(예컨대 USB(Universal Serial Bus)), 광역 네트워크 인터페이스, 근거리 네트워크 인터페이스, HDMI(High Definition Multimedia Interface) 인터페이스) 또는 (IEEE 802.11 인터페이스, WiFi® 또는 Bluetooth® 인터페이스와 같은) 무선 인터페이스;
- 디스플레이(11); 및
- IRD(10).
디바이스의 예들에 따르면, 디스크립터(HDR DESCR.)를 운반하는 신호(F)는 소스로부터 획득된다. 예시적으로, 신호(F)는 국부 메모리, 예를 들어 비디오 메모리(24), RAM(24), ROM(23), 플래시 메모리(23) 또는 하드 디스크(23)로부터 판독된다. 변형예에서, 비트스트림은 저장 인터페이스(25), 예를 들어 대용량 저장소, RAM, ROM, 플래시 메모리, 광학 디스크 또는 자기 지지체를 갖는 인터페이스로부터 수신되고/되거나, 통신 인터페이스(25), 예를 들어 지점간 연결, 버스, 지점 대 다지점 연결 또는 방송 네트워크에의 인터페이스로부터 수신된다.
예들에 따르면, 도 1과 관련하여 설명된 방법을 구현하도록 구성된 디바이스(20)는 다음을 포함하는 세트에 속한다.
- 모바일 디바이스;
- 통신 디바이스;
- 게임 디바이스;
- 태블릿(또는 태블릿 컴퓨터);
- 랩톱;
- 스틸 픽처 카메라;
- 비디오 카메라;
- 인코딩 칩;
- 스틸 픽처 서버; 및
- 비디오 서버(예를 들어, 방송 서버, 주문형 비디오 서버 또는 웹 서버).
도 3은 패킷 기반 전송 프로토콜이 사용될 때 이러한 신호(F)의 신택스의 예를 도시한다. 각각의 전송되는 패킷(P)은 헤더(H) 및 페이로드(PAYLOAD)를 포함한다. 예를 들어, 헤더(H)의 비트는 하나의 특정한 유형의 메타데이터의 존재를 나타내는 추가 정보 및 이 추가 정보가 비디오 스트림들(페이로드(PAYLOAD))의 전체 지속기간 동안 존재하는지를 나타낸다.
더 정확하게는, 일 실시예에 따르면, 표 1의 예에서 설명된 바와 같이, 일부 비트들은 예약될 수 있으며 도 4의 멀티플렉스(멀티플렉스 0 또는 멀티플렉스 1)의 전송 스트림 TS 패킷에 HDR 메타데이터 디스크립터를 형성할 수 있다. 이러한 비트들은 상이한 유형들의 HDR 메타데이터의 존재를 나타내고 이들이 기본 스트림들(42)의 전체 지속기간 동안 존재하는지를 나타내는 플래그들이다.
본 명세서에서 설명되는 다양한 프로세스들 및 특징들의 구현예들은 다양하고 상이한 장비 또는 애플리케이션들에서 구현될 수 있다. 이러한 장비의 예들은 인코더, 디코더, 디코더로부터의 출력을 처리하는 사후 프로세서, 인코더에 입력을 제공하는 사전 프로세서, 비디오 코더, 비디오 디코더, 비디오 코덱, 웹 서버, 셋톱 박스, 랩톱, 개인용 컴퓨터, 셀 폰, PDA, 및 픽처 또는 비디오를 처리하기 위한 임의의 다른 디바이스 또는 다른 통신 디바이스들을 포함한다. 명백한 바와 같이, 이러한 장비는 이동식일 수 있으며, 심지어 이동식 차량에 설치될 수 있다.
게다가, 이 방법들은 프로세서에 의해 수행되는 명령어들에 의해 구현될 수 있고, 이러한 명령어들(및/또는 구현예에 의해 생성된 데이터 값들)은 컴퓨터 판독가능한 저장 매체 상에 저장될 수 있다. 컴퓨터 판독가능한 저장 매체는 하나 이상의 컴퓨터 판독가능한 매체(들) 내에 구현되고 컴퓨터에 의해 실행가능한 컴퓨터 판독가능한 프로그램 코드가 구현되는 컴퓨터 판독가능한 프로그램 제품의 형태를 취할 수 있다. 본 명세서에 사용되는 컴퓨터 판독가능한 저장 매체는 그 안에 정보를 저장하기 위한 고유 능력은 물론 그로부터 정보의 검색을 제공하기 위한 고유 능력이 주어지는 비일시적 저장 매체로 간주된다. 컴퓨터 판독가능한 저장 매체는, 예를 들어 전자, 자기, 광학, 전자기, 적외선, 또는 반도체 시스템, 장치, 디바이스, 또는 이들의 임의의 적합한 조합일 수 있지만, 이들로 제한되지 않는다. 휴대용 컴퓨터 디스켓, 하드 디스크, ROM, 소거가능한 프로그램가능한 판독 전용 메모리(EPROM 또는 플래시 메모리), 휴대용 컴팩트 디스크 판독 전용 메모리(CD-ROM), 광학 저장 디바이스, 자기 저장 디바이스 또는 이들의 임의의 적합한 조합은, 본 원리들이 적용될 수 있는 컴퓨터 판독가능한 저장 매체의 보다 구체적인 예들을 제공하지만, 관련 기술분야의 통상의 기술자가 용이하게 이해할 수 있는 단지 예시적인 것이며 포괄적인 목록이 아님을 이해해야 한다.
명령어들은 프로세서 판독가능한 매체 상에 유형적으로 구현되는 애플리케이션 프로그램을 형성할 수 있다.
명령어들은 예를 들어 하드웨어, 펌웨어, 소프트웨어 또는 이들의 조합일 수 있다. 명령어들은 예를 들어 운영 체계, 별도의 애플리케이션, 또는 이 둘의 조합에서 발견될 수 있다. 따라서, 프로세서는 예를 들어 프로세스를 수행하도록 구성된 디바이스 및 프로세스를 수행하기 위한 명령어들을 갖는 (저장 디바이스와 같은) 프로세서 판독가능한 매체를 포함하는 디바이스 모두로서 특징지어질 수 있다. 또한, 프로세서 판독가능한 매체는 명령어들에 추가하여 또는 명령어들을 대신하여, 구현예에 의해 생성된 데이터 값들을 저장할 수 있다.
관련 기술분야의 통상의 기술자에게 명백한 바와 같이, 구현예들은 예를 들어 저장되거나 전송될 수 있는 정보를 운반하도록 포맷팅된 다양한 신호들을 생성할 수 있다. 이 정보는 예를 들어 방법을 수행하기 위한 명령어들 또는 설명된 구현예들 중 하나에 의해 생성된 데이터를 포함할 수 있다. 예를 들어, 신호는 본 원리들의 설명된 예의 신택스를 기입 또는 판독하기 위한 규칙들을 데이터로서 운반하거나 또는 본 원리들의 설명된 예에 의해 기입된 실제 신택스 값들을 데이터로서 운반하도록 포맷팅될 수 있다. 이러한 신호는, 예를 들어 전자기파로서(예를 들어, 스펙트럼의 무선 주파수 부분을 사용) 또는 기저 대역 신호로서 포맷팅될 수 있다. 포맷팅은, 예를 들어 데이터 스트림을 인코딩하고 인코딩된 데이터 스트림으로 반송파를 변조하는 것을 포함할 수 있다. 신호가 운반하는 정보는 예를 들어 아날로그 또는 디지털 정보일 수 있다. 신호는 알려진 바와 같이 다양하고 상이한 유선 또는 무선 연결들을 통해 전송될 수 있다. 신호는 프로세서 판독가능한 매체 상에 저장될 수 있다.
다수의 구현예들이 설명되었다. 그럼에도 불구하고, 다양한 수정들이 이루어질 수 있음이 이해될 것이다. 예를 들어, 상이한 구현예들의 요소들은 결합, 보충, 수정, 또는 제거되어 다른 구현예들을 생성할 수 있다. 게다가, 통상의 기술자는 다른 구조들 및 프로세스들이 개시된 것들에 대체될 수 있고 그 결과의 구현예들이 적어도 실질적으로 개시된 구현예들과 동일한 결과(들)를 달성하기 위해 적어도 실질적으로 동일한 기능(들)을 적어도 실질적으로 동일한 방식(들)으로 수행할 것이라는 점을 이해할 것이다. 따라서, 이들 및 다른 구현예들이 본 출원에 의해 고려된다.

Claims (20)

  1. 디스플레이의 특성들에 비디오 콘텐츠를 적응시키기 위한 방법으로서,
    비디오 데이터를 획득하는 단계;
    상기 비디오 데이터로부터, 콘텐츠 적응 파라미터들 및 HDR(High Dynamic Range) 동적 메타데이터의 리프레시 정보를 나타내는 정보를 포함하는 상기 HDR 동적 메타데이터를 획득하는 단계;
    상기 디스플레이의 특성들을 포함하는 EDID 정보를 획득하는 단계 - 상기 특성들은 상기 디스플레이에 의해 지원되는 하나 이상의 포맷들을 포함함 -;
    상기 HDR 동적 메타데이터 및 상기 EDID 정보에 기초하여, 상기 비디오 콘텐츠가 상기 디스플레이 상에 표시가능한지를 결정하는 단계; 및
    상기 비디오 콘텐츠가 상기 디스플레이 상에 표시가능하다는 결정에 응답하여,
    상기 비디오 데이터로부터 적어도 하나의 기본 스트림을 디코딩함으로써 상기 비디오 콘텐츠를 획득하는 단계; 및
    상기 HDR 동적 메타데이터 및 상기 EDID 정보에 기초하여 선택된 콘텐츠 적응 프로세스를 사용하여 상기 디코딩된 비디오 콘텐츠를 적응시키는 단계 - 상기 콘텐츠 적응 프로세스는 상기 리프레시 정보에 따라 획득된 상기 콘텐츠 적응 파라미터들에 기초함 -
    를 포함하는, 방법.
  2. 제1항에 있어서,
    리프레시 레이트를 나타내는 상기 정보는 상기 동적 메타데이터에 대한 최대 리프레시 기간을 포함하는, 방법.
  3. 제1항에 있어서,
    리프레시 레이트를 나타내는 상기 정보는 상기 동적 메타데이터에 대한 최대 리프레시 레이트를 포함하는, 방법.
  4. 제1항에 있어서,
    리프레시 레이트를 나타내는 상기 정보는 상기 동적 메타데이터에 대한 최소 리프레시 기간을 포함하는, 방법.
  5. 제1항에 있어서,
    리프레시 레이트를 나타내는 상기 정보는 상기 동적 메타데이터에 대한 최소 리프레시 레이트를 포함하는, 방법.
  6. 제1항에 있어서,
    상기 콘텐츠 적응 파라미터들은 컬러 원색들, 전달 특성들, 및 행렬 계수들을 설명하는 파라미터들을 포함하는, 방법.
  7. 제1항에 있어서,
    상기 HDR 동적 메타데이터는 SEI(Supplemental Enhancement Information) 메시지들에 의해 운반되는, 방법.
  8. 제1항에 있어서, 상기 HDR 동적 메타데이터는 SMPTE Standard ST 2086:2014에서 정의된 바와 같은 마스터링 디스플레이 컬러 볼륨 정보를 포함하는, 방법.
  9. 제1항에 있어서, 상기 HDR 동적 메타데이터는 SMPTE Standard ST 2094-30에서 정의된 바와 같은 컬러 리매핑 정보를 포함하는, 방법.
  10. 제1항에 있어서, 상기 HDR 동적 메타데이터는 2015년 1월자 CEA Standard "HDR Static Metadata Extensions" CEA-861.3에서 정의된 바와 같은 콘텐츠 라이트 레벨 정보를 포함하는, 방법.
  11. 제1항에 있어서, 상기 HDR 동적 메타데이터는 전송 스트림 내에 캡슐화된 기본 스트림으로부터 상기 비디오 콘텐츠를 디코딩하지 않고 획득가능한, 방법.
  12. 제1항에 있어서, 상기 비디오 콘텐츠가 상기 디스플레이 상에 표시가능하다고 결정하는 단계는 상기 비디오 데이터로부터 상기 적어도 하나의 캡슐화된 기본 스트림을 디코딩하기 시작하기 전에 발생하는, 방법.
  13. 디스플레이의 특성들에 비디오 콘텐츠를 적응시키기 위한 디바이스로서,
    상기 디바이스는 프로세서를 포함하고, 상기 프로세서는,
    비디오 데이터를 획득하고;
    상기 비디오 데이터로부터, 콘텐츠 적응 파라미터들 및 HDR(High Dynamic Range) 동적 메타데이터의 리프레시 정보를 나타내는 정보를 포함하는 상기 HDR 동적 메타데이터를 획득하고;
    상기 디스플레이의 특성들을 포함하는 EDID 정보를 획득하고 - 상기 특성들은 상기 디스플레이에 의해 지원되는 하나 이상의 포맷들을 포함함 -;
    상기 HDR 동적 메타데이터 및 상기 EDID 정보에 기초하여, 상기 비디오 콘텐츠가 상기 디스플레이 상에 표시가능한지를 결정하고; 그리고
    상기 비디오 콘텐츠가 상기 디스플레이 상에 표시가능하다는 결정에 응답하여,
    상기 비디오 데이터로부터 적어도 하나의 기본 스트림을 디코딩함으로써 상기 비디오 콘텐츠를 획득하고; 그리고
    상기 HDR 동적 메타데이터 및 상기 EDID 정보에 기초하여 선택된 콘텐츠 적응 프로세스를 사용하여 상기 디코딩된 비디오 콘텐츠를 적응시키도록 - 상기 콘텐츠 적응 프로세스는 상기 리프레시 정보에 따라 획득된 상기 콘텐츠 적응 파라미터들에 기초함 -
    구성되는, 디바이스.
  14. 제13항에 있어서,
    리프레시 레이트를 나타내는 상기 정보는 상기 동적 메타데이터에 대한 최대 리프레시 기간을 포함하는, 디바이스.
  15. 제13항에 있어서,
    리프레시 레이트를 나타내는 상기 정보는 상기 동적 메타데이터에 대한 최대 리프레시 레이트를 포함하는, 디바이스.
  16. 제13항에 있어서,
    상기 HDR 동적 메타데이터는 SEI(Supplemental Enhancement Information) 메시지들에 의해 운반되는, 디바이스.
  17. 제13항에 있어서, 상기 HDR 동적 메타데이터는 SMPTE Standard ST 2086:2014에서 정의된 바와 같은 마스터링 디스플레이 컬러 볼륨 정보를 포함하는, 디바이스.
  18. 제13항에 있어서, 상기 HDR 동적 메타데이터는 SMPTE Standard ST 2094-30에서 정의된 바와 같은 컬러 리매핑 정보를 포함하는, 디바이스.
  19. 제13항에 있어서, 상기 HDR 동적 메타데이터는 2015년 1월자 CEA Standard "HDR Static Metadata Extensions" CEA-861.3에서 정의된 바와 같은 콘텐츠 라이트 레벨 정보를 포함하는, 디바이스.
  20. 프로그램이 컴퓨팅 디바이스 상에서 실행될 때 제1항에 따른 디스플레이의 특성들에 비디오 콘텐츠를 적응시키기 위한 방법의 단계들을 실행하기 위한 프로그램 코드의 명령어들을 저장하는, 프로세서 판독가능 저장 매체.
KR1020237030291A 2015-11-09 2016-11-04 기본 스트림들로부터 디코딩된 비디오 콘텐츠를 디스플레이의 특성들에 적응시키기 위한 방법 및 디바이스 Active KR102717552B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020247033756A KR20240154081A (ko) 2015-11-09 2016-11-04 기본 스트림들로부터 디코딩된 비디오 콘텐츠를 디스플레이의 특성들에 적응시키기 위한 방법 및 디바이스

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
EP15306777 2015-11-09
EP15306777.2 2015-11-09
KR1020187015665A KR102577659B1 (ko) 2015-11-09 2016-11-04 기본 스트림들로부터 디코딩된 비디오 콘텐츠를 디스플레이의 특성들에 적응시키기 위한 방법 및 디바이스
PCT/EP2016/076707 WO2017080927A1 (en) 2015-11-09 2016-11-04 Method and device for adapting the video content decoded from elementary streams to the characteristics of a display

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020187015665A Division KR102577659B1 (ko) 2015-11-09 2016-11-04 기본 스트림들로부터 디코딩된 비디오 콘텐츠를 디스플레이의 특성들에 적응시키기 위한 방법 및 디바이스

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020247033756A Division KR20240154081A (ko) 2015-11-09 2016-11-04 기본 스트림들로부터 디코딩된 비디오 콘텐츠를 디스플레이의 특성들에 적응시키기 위한 방법 및 디바이스

Publications (2)

Publication Number Publication Date
KR20230131967A KR20230131967A (ko) 2023-09-14
KR102717552B1 true KR102717552B1 (ko) 2024-10-16

Family

ID=54703913

Family Applications (3)

Application Number Title Priority Date Filing Date
KR1020247033756A Pending KR20240154081A (ko) 2015-11-09 2016-11-04 기본 스트림들로부터 디코딩된 비디오 콘텐츠를 디스플레이의 특성들에 적응시키기 위한 방법 및 디바이스
KR1020187015665A Active KR102577659B1 (ko) 2015-11-09 2016-11-04 기본 스트림들로부터 디코딩된 비디오 콘텐츠를 디스플레이의 특성들에 적응시키기 위한 방법 및 디바이스
KR1020237030291A Active KR102717552B1 (ko) 2015-11-09 2016-11-04 기본 스트림들로부터 디코딩된 비디오 콘텐츠를 디스플레이의 특성들에 적응시키기 위한 방법 및 디바이스

Family Applications Before (2)

Application Number Title Priority Date Filing Date
KR1020247033756A Pending KR20240154081A (ko) 2015-11-09 2016-11-04 기본 스트림들로부터 디코딩된 비디오 콘텐츠를 디스플레이의 특성들에 적응시키기 위한 방법 및 디바이스
KR1020187015665A Active KR102577659B1 (ko) 2015-11-09 2016-11-04 기본 스트림들로부터 디코딩된 비디오 콘텐츠를 디스플레이의 특성들에 적응시키기 위한 방법 및 디바이스

Country Status (13)

Country Link
US (2) US11711569B2 (ko)
EP (1) EP3375194A1 (ko)
JP (2) JP6921815B2 (ko)
KR (3) KR20240154081A (ko)
CN (2) CN112822537B (ko)
BR (1) BR112018009422A8 (ko)
CA (1) CA3004793A1 (ko)
DO (1) DOP2018000120A (ko)
MX (1) MX378608B (ko)
RU (1) RU2728766C2 (ko)
TW (2) TWI792861B (ko)
WO (1) WO2017080927A1 (ko)
ZA (1) ZA201802815B (ko)

Families Citing this family (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180139360A1 (en) * 2015-05-18 2018-05-17 Thomson Licensing Method and device for processing color image data representing colors of a color gamut
CN112822537B (zh) 2015-11-09 2023-07-11 交互数字Vc控股公司 使视频内容适应到显示特性的方法、设备及介质
BR112020008999A2 (pt) * 2017-11-08 2020-11-17 Interdigital Vc Holdings, Inc. processamento de uma imagem
US12444334B2 (en) 2018-10-25 2025-10-14 Baylor University System and method for a multi-primary wide gamut color system
US11069279B2 (en) * 2018-10-25 2021-07-20 Baylor University System and method for a multi-primary wide gamut color system
US10607527B1 (en) 2018-10-25 2020-03-31 Baylor University System and method for a six-primary wide gamut color system
US11341890B2 (en) 2018-10-25 2022-05-24 Baylor University System and method for a multi-primary wide gamut color system
US11189210B2 (en) 2018-10-25 2021-11-30 Baylor University System and method for a multi-primary wide gamut color system
US11315467B1 (en) 2018-10-25 2022-04-26 Baylor University System and method for a multi-primary wide gamut color system
US11488510B2 (en) 2018-10-25 2022-11-01 Baylor University System and method for a multi-primary wide gamut color system
US10950162B2 (en) 2018-10-25 2021-03-16 Baylor University System and method for a six-primary wide gamut color system
US10997896B2 (en) 2018-10-25 2021-05-04 Baylor University System and method for a six-primary wide gamut color system
US11373575B2 (en) 2018-10-25 2022-06-28 Baylor University System and method for a multi-primary wide gamut color system
US10950161B2 (en) 2018-10-25 2021-03-16 Baylor University System and method for a six-primary wide gamut color system
US11062638B2 (en) 2018-10-25 2021-07-13 Baylor University System and method for a multi-primary wide gamut color system
US11532261B1 (en) 2018-10-25 2022-12-20 Baylor University System and method for a multi-primary wide gamut color system
US11403987B2 (en) 2018-10-25 2022-08-02 Baylor University System and method for a multi-primary wide gamut color system
US11587491B1 (en) 2018-10-25 2023-02-21 Baylor University System and method for a multi-primary wide gamut color system
US12444337B2 (en) 2018-10-25 2025-10-14 Baylor University System and method for a multi-primary wide gamut color system
US11069280B2 (en) 2018-10-25 2021-07-20 Baylor University System and method for a multi-primary wide gamut color system
US11030934B2 (en) 2018-10-25 2021-06-08 Baylor University System and method for a multi-primary wide gamut color system
US11410593B2 (en) 2018-10-25 2022-08-09 Baylor University System and method for a multi-primary wide gamut color system
US11475819B2 (en) 2018-10-25 2022-10-18 Baylor University System and method for a multi-primary wide gamut color system
US11037481B1 (en) 2018-10-25 2021-06-15 Baylor University System and method for a multi-primary wide gamut color system
US11289003B2 (en) 2018-10-25 2022-03-29 Baylor University System and method for a multi-primary wide gamut color system
US12475826B2 (en) 2018-10-25 2025-11-18 Baylor University System and method for a multi-primary wide gamut color system
US11289000B2 (en) 2018-10-25 2022-03-29 Baylor University System and method for a multi-primary wide gamut color system
US11043157B2 (en) 2018-10-25 2021-06-22 Baylor University System and method for a six-primary wide gamut color system
US12160555B2 (en) 2019-07-22 2024-12-03 Interdigital Vc Holdings, Inc. Method and apparatus for delivering a volumetric video content
CN111970564B (zh) * 2020-08-26 2023-03-24 展讯通信(上海)有限公司 Hdr视频显示处理的优化方法及装置、存储介质、终端
CN114095733B (zh) * 2021-08-23 2024-11-05 镕铭微电子(济南)有限公司 视频转码中元数据的处理方法、视频转码设备及电子设备
EP4376426A1 (en) * 2022-11-25 2024-05-29 Beijing Xiaomi Mobile Software Co., Ltd. Signaling encapsulated data representing alignment axes of a video
CN119854384A (zh) * 2023-10-17 2025-04-18 华为技术有限公司 一种视频元数据传输方法及设备
US12462772B1 (en) 2024-06-20 2025-11-04 6P Color, Inc. System and method for conversion from XYZ to multiple primaries using pseudo white points

Family Cites Families (86)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5943029A (en) * 1996-01-26 1999-08-24 Dell Usa, L.P. Method and apparatus to provide non-DDC monitor characteristics to system software
CN101035277A (zh) * 2000-03-13 2007-09-12 索尼公司 产生压缩的代码转换提示元数据的方法和设备
US8782705B2 (en) * 2000-04-17 2014-07-15 Lg Electronics Inc. Information descriptor and extended information descriptor data structures for digital television signals
US8091112B1 (en) * 2001-02-28 2012-01-03 Keen Personal Technologies, Inc. System and a method for transmitting and receiving a program with improved efficiency
JP3908691B2 (ja) * 2003-04-28 2007-04-25 株式会社東芝 情報記録媒体、録画前処理方法、情報記録方法、情報再生方法、情報記録装置および情報再生装置
JP4980913B2 (ja) 2004-09-23 2012-07-18 トムソン ライセンシング トリック・プレイ用メタデータのビデオ伝送ストリームへの挿入
US20080204481A1 (en) * 2005-04-20 2008-08-28 Freescale Semiconductor, Inc. Device and Method for Controlling a Backlit Display
US7870090B2 (en) * 2005-08-22 2011-01-11 Trane International Inc. Building automation system date management
US8548048B2 (en) 2005-10-27 2013-10-01 Qualcomm Incorporated Video source rate control for video telephony
KR101285863B1 (ko) * 2006-11-17 2013-07-12 엘지전자 주식회사 디지털 데이터 통신 최적화 방법
KR20080046858A (ko) 2006-11-23 2008-05-28 엘지전자 주식회사 미디어 싱크 기기, 미이어 소스 기기 및 미디어 싱크기기의 제어 방법
FR2917204B1 (fr) 2007-06-05 2011-07-01 Airbus France Procede et dispositif d'acquisition, enregistrement et exploitation de donnees captees dans un aeronef
US8135230B2 (en) * 2007-07-30 2012-03-13 Dolby Laboratories Licensing Corporation Enhancing dynamic ranges of images
US7817586B2 (en) * 2007-08-16 2010-10-19 Mediatek Inc. High-speed digital interface transceiver and method of supplying bi-directional communication process on high-speed digital interface device
CN101810007B (zh) * 2007-09-28 2013-03-06 杜比实验室特许公司 具有附加信息容量的多媒体编码和解码
US8334857B1 (en) * 2007-12-14 2012-12-18 Nvidia Corporation Method and system for dynamically controlling a display refresh rate
JP2009253468A (ja) * 2008-04-02 2009-10-29 Canon Inc 映像制御装置およびその制御方法
US20090322800A1 (en) 2008-06-25 2009-12-31 Dolby Laboratories Licensing Corporation Method and apparatus in various embodiments for hdr implementation in display devices
WO2010080852A1 (en) * 2009-01-08 2010-07-15 Dolby Laboratories Licensing Corporation Universal back light unit control
US8010692B1 (en) 2009-11-05 2011-08-30 Adobe Systems Incorporated Adapting audio and video content for hardware platform
KR101786050B1 (ko) * 2009-11-13 2017-10-16 삼성전자 주식회사 데이터 전송 방법 및 장치
JP2011114444A (ja) * 2009-11-25 2011-06-09 Fujitsu Ltd 情報処理装置,情報生成方法,およびプログラム
JP2011119828A (ja) 2009-12-01 2011-06-16 Renesas Electronics Corp 映像変換装置、記録媒体読取装置、映像再生装置及び映像再生情報送信方法
US8599932B2 (en) * 2009-12-18 2013-12-03 General Instrument Corporation Carriage systems encoding or decoding JPEG 2000 video
WO2011103258A2 (en) * 2010-02-22 2011-08-25 Dolby Laboratories Licensing Corporation Video display control using embedded metadata
US20110216829A1 (en) 2010-03-02 2011-09-08 Qualcomm Incorporated Enabling delta compression and modification of motion estimation and metadata for rendering images to a remote display
US9502073B2 (en) 2010-03-08 2016-11-22 Magisto Ltd. System and method for semi-automatic video editing
ES2390298B1 (es) * 2010-04-16 2013-11-11 Telefónica, S.A. Procedimiento de transmisión de contenido visual.
US9185439B2 (en) 2010-07-15 2015-11-10 Qualcomm Incorporated Signaling data for multiplexing video components
KR101436267B1 (ko) 2010-07-15 2014-08-29 퀄컴 인코포레이티드 비디오 구성요소들을 멀티플렉싱하기 위한 데이터의 시그널링
US8994713B2 (en) * 2010-10-01 2015-03-31 Z124 Smart pad operation with differing display parameters applied to different display elements
DE112011103642T5 (de) * 2010-11-02 2013-09-19 Lg Electronics Inc. Verfahren zum Senden/Empfangen von Medieninhalt und Vorrichtung zum Senden/Empfangen, die dieses verwendet
KR101770824B1 (ko) 2010-11-26 2017-08-23 엘지전자 주식회사 복수의 컨텐츠 제공자로부터 제공되는 컨텐츠를 제공/수신하기 위한 방법 및 그 방법을 이용한 시스템 및 장치
KR101711937B1 (ko) * 2010-12-03 2017-03-03 삼성전자주식회사 비디오 및 오디오 통신 시스템에서 가변 길이 전송 패킷을 지원하기 위한 장치 및 방법
KR101670723B1 (ko) * 2011-01-04 2016-11-01 삼성전자주식회사 비디오 및 오디오 통신 시스템에서 가변 길이의 전송 패킷 지원 방법 및 장치
EP2523145A1 (en) 2011-05-11 2012-11-14 Alcatel Lucent Method for dynamically adapting video image parameters for facilitating subsequent applications
CN103597812B (zh) 2011-06-14 2017-11-21 皇家飞利浦有限公司 用于高动态范围视频的图形处理设备及方法
CN107103588B (zh) * 2011-09-27 2025-08-22 皇家飞利浦有限公司 用于图像的动态范围变换的装置和方法
EP2769540B1 (en) * 2011-10-20 2018-11-28 Dolby Laboratories Licensing Corporation Method and system for video equalization
US9565476B2 (en) * 2011-12-02 2017-02-07 Netzyn, Inc. Video providing textual content system and method
EP2805523B1 (en) * 2012-01-19 2019-03-27 VID SCALE, Inc. Methods and systems for video delivery supporting adaption to viewing conditions
US20130195171A1 (en) 2012-01-30 2013-08-01 Qualcomm Incorporated Method of coding video and storing video content
US9438818B2 (en) * 2012-06-20 2016-09-06 Qualcomm Incorporated Device and method for multimedia communications with picture orientation information
DK2894861T3 (da) 2012-09-07 2020-02-10 Saturn Licensing Llc Overførselsindretning, overførselsfremgangsmåde, modtageindretning og modtagefremgangsmåde
ES2708954T3 (es) * 2013-02-21 2019-04-12 Dolby Laboratories Licensing Corp Gestión de visualización para video de alto rango dinámico
EP3783883B1 (en) * 2013-02-21 2023-10-04 Dolby Laboratories Licensing Corporation Systems and methods for appearance mapping for compositing overlay graphics
US9671926B2 (en) * 2013-02-22 2017-06-06 Xiaomi Inc. Method and terminal device for displaying dynamic icon
JP5641090B2 (ja) * 2013-03-14 2014-12-17 ソニー株式会社 送信装置、送信方法、受信装置および受信方法
US10142382B1 (en) * 2013-03-15 2018-11-27 Google Llc Detecting video streaming and identifying streamed videos
US9860505B2 (en) * 2013-04-30 2018-01-02 Saturn Licensing Llc Transmitting device, transmitting method, receiving device, and receiving method
JP2015005878A (ja) * 2013-06-20 2015-01-08 ソニー株式会社 再生装置、再生方法、および記録媒体
JP2015008361A (ja) 2013-06-24 2015-01-15 ソニー株式会社 再生装置、再生方法、および記録媒体
DK177954B1 (en) 2013-07-04 2015-02-02 Jasopels As Apparatus for processing of pelts having helical scraping rollers
JP6419807B2 (ja) 2013-07-19 2018-11-07 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. Hdrメタデータ転送
TWI632810B (zh) 2013-07-19 2018-08-11 新力股份有限公司 Data generating device, data generating method, data reproducing device, and data reproducing method
TWI630821B (zh) * 2013-07-19 2018-07-21 新力股份有限公司 File generation device, file generation method, file reproduction device, and file reproduction method
CN105531992A (zh) * 2013-09-06 2016-04-27 Lg电子株式会社 用于在数字广播系统中发送和接收用于高动态范围呈现的超高清晰度广播信号的方法和装置
US9538155B2 (en) 2013-12-04 2017-01-03 Dolby Laboratories Licensing Corporation Decoding and display of high dynamic range video
US20150302819A1 (en) * 2014-04-22 2015-10-22 Lenovo (Singapore) Pte. Ltd. Updating an attribute used for displaying video content based on video content type
KR101785671B1 (ko) * 2014-05-20 2017-11-06 엘지전자 주식회사 디스플레이 적응적 영상 재생을 위한 비디오 데이터 처리 방법 및 장치
US9837030B2 (en) * 2014-05-22 2017-12-05 Nvidia Corporation Refresh rate dependent adaptive dithering for a variable refresh rate display
WO2015196122A1 (en) * 2014-06-19 2015-12-23 Contentguard Holdings, Inc. Rendering content using obscuration techniques
MX358934B (es) * 2014-06-26 2018-09-10 Panasonic Ip Man Co Ltd Dispositivo de salida de datos, metodo de salida de datos y metodo de generacion de datos.
WO2016021809A1 (ko) * 2014-08-08 2016-02-11 엘지전자 주식회사 디스플레이 적응적 영상 재생을 위한 비디오 데이터 처리 방법 및 장치
US10045065B2 (en) * 2014-09-05 2018-08-07 Qualcomm Incorporated Synchronization and control of overlay contents for video streaming in a wireless communication system
US9952642B2 (en) * 2014-09-29 2018-04-24 Apple Inc. Content dependent display variable refresh rate
WO2016072347A1 (ja) * 2014-11-07 2016-05-12 ソニー株式会社 送信装置、送信方法、受信装置および受信方法
US20160142746A1 (en) * 2014-11-14 2016-05-19 Thales Avionics, Inc. Method of encrypting, streaming, and displaying video content using selective encryption
JP6601729B2 (ja) * 2014-12-03 2019-11-06 パナソニックIpマネジメント株式会社 データ生成方法、データ再生方法、データ生成装置及びデータ再生装置
EP3242487B1 (en) * 2014-12-29 2021-10-13 Sony Group Corporation Transmitting device, transmitting method, receiving device and receiving method
US9652870B2 (en) * 2015-01-09 2017-05-16 Vixs Systems, Inc. Tone mapper with filtering for dynamic range conversion and methods for use therewith
US9992553B2 (en) * 2015-01-22 2018-06-05 Engine Media, Llc Video advertising system
US10594978B2 (en) * 2015-02-11 2020-03-17 Lg Electronics Inc. Method and device for transmitting and receiving broadcast signal
US20160286226A1 (en) * 2015-03-24 2016-09-29 Nokia Technologies Oy Apparatus, a method and a computer program for video coding and decoding
US20160286241A1 (en) * 2015-03-24 2016-09-29 Nokia Technologies Oy Apparatus, a method and a computer program for video coding and decoding
US10516915B2 (en) * 2015-04-24 2019-12-24 Lg Electronics Inc. Apparatus and method of processing metadata for indicating a change in HDR information
CN107736017B (zh) * 2015-06-25 2020-07-28 三菱电机株式会社 影像再现装置和影像再现方法
US10652588B2 (en) * 2015-09-21 2020-05-12 Vid Scale, Inc. Inverse reshaping for high dynamic range video coding
WO2017053863A1 (en) * 2015-09-23 2017-03-30 Arris Enterprises Llc Signaling high dynamic range and wide color gamut content in transport streams
EP3338452B1 (en) * 2015-09-23 2020-08-26 ARRIS Enterprises LLC Signalling of reshaping functions for coding high dynamic range and wide color gamut sequences
CN108028958B (zh) * 2015-09-25 2021-09-03 麦克赛尔株式会社 广播接收装置
US10462491B2 (en) * 2015-11-02 2019-10-29 Dolby Laboratories Licensing Corporation Layered representation and delivery of high dynamic range video
US9681182B2 (en) * 2015-11-02 2017-06-13 Disney Enterprises, Inc. Real-time transmission of dynamic range tags in a video broadcast
CN112822537B (zh) * 2015-11-09 2023-07-11 交互数字Vc控股公司 使视频内容适应到显示特性的方法、设备及介质
US11102495B2 (en) * 2016-05-17 2021-08-24 Qualcomm Incorporated Methods and systems for generating and processing content color volume messages for video
CN106210921B (zh) * 2016-08-12 2019-10-11 深圳创维-Rgb电子有限公司 一种图像效果提升方法及其装置

Also Published As

Publication number Publication date
TW201717618A (zh) 2017-05-16
TWI792861B (zh) 2023-02-11
TW202218420A (zh) 2022-05-01
US11711569B2 (en) 2023-07-25
CN112822537A (zh) 2021-05-18
ZA201802815B (en) 2019-07-31
MX378608B (es) 2025-03-10
KR102577659B1 (ko) 2023-09-13
CN108370455B (zh) 2021-03-16
RU2728766C2 (ru) 2020-07-31
EP3375194A1 (en) 2018-09-19
DOP2018000120A (es) 2018-07-31
KR20240154081A (ko) 2024-10-24
CN108370455A (zh) 2018-08-03
TWI756193B (zh) 2022-03-01
CA3004793A1 (en) 2017-05-18
JP7370360B2 (ja) 2023-10-27
KR20180081091A (ko) 2018-07-13
RU2018121256A (ru) 2019-12-09
US20180324481A1 (en) 2018-11-08
CN112822537B (zh) 2023-07-11
BR112018009422A8 (pt) 2019-02-26
US20230328305A1 (en) 2023-10-12
JP2021184617A (ja) 2021-12-02
RU2018121256A3 (ko) 2019-12-09
BR112018009422A2 (en) 2018-11-13
KR20230131967A (ko) 2023-09-14
MX2018005762A (es) 2018-08-01
JP2018537030A (ja) 2018-12-13
WO2017080927A1 (en) 2017-05-18
JP6921815B2 (ja) 2021-08-18

Similar Documents

Publication Publication Date Title
JP7370360B2 (ja) エレメンタリーストリームから復号されたビデオコンテンツをディスプレイの特性に適応させる方法およびデバイス
CN111343460B (zh) 接收装置、显示设备及接收方法
CN106134172B (zh) 显示系统、显示方法及显示装置
US9967599B2 (en) Transmitting display management metadata over HDMI
US10136181B2 (en) Playback method and playback device
EP3707891B1 (en) Method and device for generating a second image from a first image
JP2017168101A (ja) 拡張された高ダイナミックレンジ(“hdr”)−hdrトーンマッピングのための方法、装置、及びシステム
US11202050B2 (en) Data processing method and device for adaptive image playing
CN110213459A (zh) 显示方法和显示装置
CN111836047A (zh) 显示装置
CN106165403A (zh) 数据输出装置、数据输出方法以及数据生成方法
CN104813666A (zh) 解码装置和解码方法、以及编码装置和编码方法
US10616617B2 (en) Method and apparatus for transmitting or receiving broadcast signal
CN116508054A (zh) 用于避免色调映射器中的色度削波同时维持饱和度并保持色调的方法、设备和装置
JP6958645B2 (ja) 送信装置、送信方法、受信装置および受信方法
CN120345235A (zh) 发信号通知表示视频的对准轴线的封装的数据
WO2025201839A1 (en) Display energy reduction mdcv message

Legal Events

Date Code Title Description
A107 Divisional application of patent
PA0104 Divisional application for international application

St.27 status event code: A-0-1-A10-A16-div-PA0104

St.27 status event code: A-0-1-A10-A18-div-PA0104

PA0201 Request for examination

St.27 status event code: A-1-2-D10-D11-exm-PA0201

PG1501 Laying open of application

St.27 status event code: A-1-1-Q10-Q12-nap-PG1501

E902 Notification of reason for refusal
PE0902 Notice of grounds for rejection

St.27 status event code: A-1-2-D10-D21-exm-PE0902

P11-X000 Amendment of application requested

St.27 status event code: A-2-2-P10-P11-nap-X000

P13-X000 Application amended

St.27 status event code: A-2-2-P10-P13-nap-X000

E701 Decision to grant or registration of patent right
PE0701 Decision of registration

St.27 status event code: A-1-2-D10-D22-exm-PE0701

PA0104 Divisional application for international application

St.27 status event code: A-0-1-A10-A16-div-PA0104

St.27 status event code: A-0-1-A10-A18-div-PA0104

PR0701 Registration of establishment

St.27 status event code: A-2-4-F10-F11-exm-PR0701

PR1002 Payment of registration fee

Fee payment year number: 1

St.27 status event code: A-2-2-U10-U12-oth-PR1002

PG1601 Publication of registration

St.27 status event code: A-4-4-Q10-Q13-nap-PG1601