WO2017061796A1 - 방송 신호 송신 장치, 방송 신호 수신 장치, 방송 신호 송신 방법, 및 방송 신호 수신 방법 - Google Patents

방송 신호 송신 장치, 방송 신호 수신 장치, 방송 신호 송신 방법, 및 방송 신호 수신 방법 Download PDF

Info

Publication number
WO2017061796A1
WO2017061796A1 PCT/KR2016/011202 KR2016011202W WO2017061796A1 WO 2017061796 A1 WO2017061796 A1 WO 2017061796A1 KR 2016011202 W KR2016011202 W KR 2016011202W WO 2017061796 A1 WO2017061796 A1 WO 2017061796A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
color
content
sink
color gamut
Prior art date
Application number
PCT/KR2016/011202
Other languages
English (en)
French (fr)
Inventor
오현묵
서종열
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority to US201562238097P priority Critical
Priority to US62/238,097 priority
Priority to US201562238721P priority
Priority to US62/238,721 priority
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Publication of WO2017061796A1 publication Critical patent/WO2017061796A1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/64Circuits for processing colour signals
    • H04N9/646Circuits for processing colour signals for image enhancement, e.g. vertical detail restoration, cross-colour elimination, contour correction, chrominance trapping filters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/434Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
    • H04N21/4345Extraction or processing of SI, e.g. extracting service information from an MPEG stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/436Interfacing a local distribution network, e.g. communicating with another STB or one or more peripheral devices inside the home
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/436Interfacing a local distribution network, e.g. communicating with another STB or one or more peripheral devices inside the home
    • H04N21/4363Adapting the video or multiplex stream to a specific local network, e.g. a IEEE 1394 or Bluetooth® network
    • H04N21/43632Adapting the video or multiplex stream to a specific local network, e.g. a IEEE 1394 or Bluetooth® network involving a wired protocol, e.g. IEEE 1394
    • H04N21/43635HDMI
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs
    • H04N21/4402Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs
    • H04N21/4402Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display
    • H04N21/440218Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display by transcoding between formats or standards, e.g. from MPEG-2 to MPEG-4
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/4508Management of client data or end-user data
    • H04N21/4516Management of client data or end-user data involving client characteristics, e.g. Set-Top-Box type, software version or amount of memory available
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/64Circuits for processing colour signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/64Circuits for processing colour signals
    • H04N9/641Multi-purpose receivers, e.g. for auxiliary information
    • GPHYSICS
    • G06COMPUTING; CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image

Abstract

본 발명은 방송 신호를 전송하는 방법을 제안한다. 본 발명에 따른 방송 신호를 전송하는 방법은, 지상파 방송망과 인터넷 망을 사용하는 차세대 하이브리드 방송을 지원하는 환경에서 차세대 방송 서비스를 지원할 수 있는 시스템을 제안한다. 또한, 차세대 하이브리드 방송을 지원하는 환경에서, 지상파 방송망과 인터넷 망을 모두 아우를 수 있는 효율적인 시그널링 방안을 제안한다.

Description

방송 신호 송신 장치, 방송 신호 수신 장치, 방송 신호 송신 방법, 및 방송 신호 수신 방법

본 발명은 방송 신호 송신 장치, 방송 신호 수신 장치, 및 방송 신호 송수신 방법에 관한 것이다.

비디오 신호 처리 속도가 빨라지면서 초고해상도 (ultra high definition; UHD) 비디오를 인코딩/디코딩하는 방안이 연구되고 있다.

UHD 컨텐츠는 기존의 컨텐츠 대비 다양한 측면에서 향상된 화질을 제공하는 것을 목표로 한다. 이를 위해 방송 분야뿐 아니라 다양한 분야에서 UHD 비디오 요소에 대한 연구 및 개발이 진행되고 있다. 그 중 기존 컨텐츠에서 제공하지 못하였던 색감 및 밝기 측면에서 향상된 시청자 경험을 제공에 대한 요구가 높아지고 있다.

이에 따라 UHD 비디오를 구성하는 다양한 요소 중 색상 및 밝기 표현 범위를 확대하여 고품질 영상을 제공하려는 노력이 계속되고 있다.

UHD 디스플레이 기기는 색상 및 밝기 측면의 표현력에서 기존 디스플레이 기기와의 차별성을 갖는다.

그러나, 다양한 디스플레이 기기 환경 하에서 UHD 컨텐츠를 최적의 환경에서 시청하기 위한 기술에 대한 개발되지 않는 문제점이 있다.

예를 들어 같은 차세대 디스플레이 기기 보급이 진행되는 상황에서 UHD 컨텐츠가 공급되는 경우 디스플레이 기기의 물리적 특성에 따라 색감 혹은 밝기 제한이 생겨 컨텐츠 감상이 제대로 이뤄지지 않는 문제점이 있다.

디스플레이 기기에 적응적으로 컨텐츠의 색감 및 밝기를 조정하기 위해서는 디스플레이의 기기 특성에 대한 정확한 분석을 바탕으로 컨텐츠 변환이 이뤄져야 한다. 그러나, 만약 디스플레이 외부 기기를 통해 UHD 컨텐츠가 공급되는 경우, 디스플레이의 기기 특성을 제한적으로 전달하는 문제점이 있었다.

본 발명의 목적은, 다양한 디스플레이 기기 환경 하에서 UHD 컨텐츠를 포함한 컨텐츠를 최적의 환경에서 시청할 수 있는 비디오 처리 방법 및 비디오 처리 장치를 제공하는 것이다.

본 발명의 다른 목적은, UHD 컨텐츠를 포함한 UHD 컨텐츠를 다양한 디스플레이 기기에서 표출할 경우, 그 디스플레이 기기들의 물리적 특성에 따라 색감 혹은 밝기 표현 제한이 적도록 하는 비디오 처리 방법 및 비디오 처리 장치를 제공하는 것이다.

본 발명의 다른 목적은, 디스플레이 외부 기기를 통해 UHD 컨텐츠를 포함한 컨텐츠가 공급되는 경우라도 디스플레이의 기기 특성을 전달하여 UHD 컨텐츠를 포함한 컨텐츠를 최적의 환경에서 시청할 수 있는 비디오 처리 방법 및 비디오 처리 장치를 제공하는 것이다.

본 발명의 목적에 따라, 여기에 포함되고 대략적으로 기재된 바와 같이, 본 발명은 지상파 방송망과 인터넷 망을 사용하는 차세대 하이브리드 방송을 지원하는 환경에서 차세대 방송 서비스를 효과적으로 지원할 수 있는 시스템 및 관련된 시그널링 방안을 제안한다.

본 발명의 실시예에 따르면, 다양한 디스플레이 기기 환경 하에서 UHD 컨텐츠를 포함한 컨텐츠를 최적의 환경에서 시청할 수 있다.

본 발명의 실시예에 따르면, UHD 컨텐츠를 포함한 UHD 컨텐츠를 다양한 디스플레이 기기에서 표출할 경우, 그 디스플레이 기기들의 물리적 특성에 따라 색감 혹은 밝기 표현 제한이 적도록 할 수 있다.

본 발명의 실시예에 따르면 디스플레이 외부 기기를 통해 UHD 컨텐츠가 공급되는 경우라도 디스플레이의 기기 특성을 전달하여 UHD 컨텐츠를 포함한 UHD 컨텐츠를 최적의 환경에서 시청할 수 있다.

본 발명에 대해 더욱 이해하기 위해 포함되며 본 출원에 포함되고 그 일부를 구성하는 첨부된 도면은 본 발명의 원리를 설명하는 상세한 설명과 함께 본 발명의 실시예를 나타낸다.

도 1 은 본 발명의 일 실시예에 따른 프로토콜 스택을 도시한 도면이다.

도 2 는 본 발명의 일 실시예에 따른 서비스 디스커버리 과정을 도시한 도면이다.

도 3 은 본 발명의 일 실시예에 따른 LLS (Low Level Signaling) 테이블 및 SLT (Service List Table)를 도시한 도면이다.

도 4 는 본 발명의 일 실시예에 따른, ROUTE 로 전달되는 USBD 및 S-TSID 를 도시한 도면이다.

도 5 는 본 발명의 일 실시예에 따른, MMT 로 전달되는 USBD 를 도시한 도면이다.

도 6 은 본 발명의 일 실시예에 따른 링크 레이어(Link Layer) 동작을 도시한 도면이다.

도 7 은 본 발명의 일 실시예에 따른 LMT (Link Mapping Table) 를 도시한 도면이다.

도 8는 비디오 영상을 송수신하기 위해 소스 디바이스와 싱크 디바이스가 연결된 예를 나타낸 도면이다.

도 9은 본 발명에 실시예에 따라 소스 디바이스가 싱크 디바이스와 연결된 경우 정보를 송수신하는 실시예를 나타낸 도면이다.

도 10는 본 발명의 실시예에 따라 싱크 디바이스가 소스 디바이스로 전달하는 정보의 일 예를 나타낸 도면이다.

도 11는 본 발명의 실시예에 따라 싱크 디바이스가 소스 디바이스로 전달하는 정보의 일 예로서 위에서 개시한 실시예의 구체적인 필드 값을 예시한 도면이다.

도 12은 개시한 본 발명의 실시예에 따른 control option flag의 상세한 예를 예시한 도면이다.

도 13은 기술한 본 발명의 실시예에 따른 Sink Device Dynamic Range 정보의 상세한 예를 예시한 도면이다.

도 14은 본 발명의 실시예에 따라 싱크 디바이스에서 소스 디바이스로 전달하는 디스플레이 관련 정보로서, DisplayID의 Display Parameters Data Block을 예시한 도면이다.

도 15는 본 발명의 실시예에서 기술하는 디스플레이 관련 정보로서, Display Device Data Block을 예시한 도면이다.

도 16은 본 발명의 일 실시예에 따라 싱크 디바이스가 소스 디바이스로 디스플레이 관련 정보를 전달하는 또 다른 예를 예시한 도면이다.

도 17은 본 발명에 실시예에 따라 소스 디바이스에서 싱크 디바이스로 전달할 정보를 예시한 도면이다.

도 18는 본 발명의 실시예에 따라 개시한 포스트 프로세싱 타입 정보의 상세한 예를 개시한 도면이다.

도 19은 본 발명의 실시예에 따라 개시한 오리지널 컬러 개멋 정보(Orig_color_gamut)의 상세한 예를 개시한 도면이다.

도 20는 본 발명의 실시예에 따라 소스 디바이스가 싱크 디바이스로 전달하는 영상의 컬러 정보를 전달하는 다른 예를 개시한다.

도 21는 본 발명의 일 실시예에 따른 신호 처리 장치의 실시예들 및 그 동작을 예시한 도면이다.

도 22은 본 발명의 일 실시예에 따른 EOTF type의 구성을 나타낸 도면이다.

도 23은 본 발명의 일 실시예에 따른 DCI-P3 컬러 개멋을 시그널링하기 위한 방법을 나타낸 도면이다.

도 24은 본 발명의 다른 일 실시예에 따른 DCI-P3 컬러 개멋을 시그널링하기 위한 방법을 나타낸 도면이다.

도 25는 본 발명의 또 다른 일 실시예에 따른 DCI-P3 컬러 개멋을 시그널링하기 위한 방법을 나타낸 도면이다.

도 26은 본 발명의 일 실시예에 따라 싱크 디바이스가 처리 가능한 Transfer Function에 대한 정보를 전달하기 위한 방법을 나타낸 도면이다.

도 27은 본 발명의 일 실시예에 따라 싱크 디바이스가 처리 가능한 Transfer Function에 대한 정보를 전달하기 위한 방법에 사용되는 구체적인 필드값을 나타낸 도면이다.

도 28은 본 발명의 일 실시예에 따라 소스 디바이스로부터 싱크 디바이스로 컨테이너 컬러 개멋을 시그널링하는 방법을 나타낸 도면이다.

도 29는 본 발명의 일 실시예에 따라 싱크 디바이스로부터 소스 디바이스로 싱크 디바이스의 디스플레이 컬러 개멋을 시그널링하는 방법을 나타낸 도면이다.

도 30은 본 발명의 일 실시예에 따라 소스 디바이스로부터 싱크 디바이스로 콘텐트 컬러 개멋을 시그널링하는 방법을 나타낸 도면이다.

도 31은 본 발명의 일 실시예에 따라 싱크 디바이스로부터 소스 디바이스로 콘텐트 컬러 개멋에 대한 정보를 시그널링하는 방법을 나타낸 도면이다.

도 32는 본 발명의 다른 일 실시예에 따라 소스 디바이스로부터 싱크 디바이스로 콘텐트 컬러 개멋을 시그널링하는 방법을 나타낸 도면이다.

도 33은 본 발명의 다른 일 실시예에 따라 소스 디바이스로부터 싱크 디바이스로 콘텐트 컬러 개멋을 시그널링하는 방법을 나타낸 도면이다.

도 34는 본 발명의 일 실시예에 따라 소스 디바이스로부터 싱크 디바이스로 콘텐트 컬러 개멋에 대한 정보를 시그널링하는 방법을 나타낸 도면이다.

도 35는 본 발명의 일 실시예에 따른 소스 디바이스의 비디오 데이터 처리 방법을 나타낸 도면이다.

도 36은 본 발명의 일 실시예에 따른 싱크 디바이스의 비디오 데이터 처리 방법을 나타낸 도면이다.

도 37은 본 발명의 일 실시예에 따른 비디오 데이터 처리 장치 (소스 디바이스)의 구성을 나타낸 도면이다.

도 38은 본 발명의 일 실시예에 따른 비디오 데이터 처리 장치 (싱크 디바이스)의 구성을 나타낸 도면이다.

본 발명은 차세대 방송 서비스에 대한 방송 신호 송신 및 수신 장치 및 방법을 제공한다. 본 발명의 일 실시예에 따른 차세대 방송 서비스는 지상파 방송 서비스, 모바일 방송 서비스, UHDTV 서비스 등을 포함한다. 본 발명은 일 실시예에 따라 비-MIMO (non-Multiple Input Multiple Output) 또는 MIMO 방식을 통해 차세대 방송 서비스에 대한 방송 신호를 처리할 수 있다. 본 발명의 일 실시예에 따른 비-MIMO 방식은 MISO (Multiple Input Single Output) 방식, SISO (Single Input Single Output) 방식 등을 포함할 수 있다. 본 발명은 특정 용도에 요구되는 성능을 달성하면서 수신기 복잡도를 최소화하기 위해 최적화된 피지컬 프로파일 (또는 시스템)을 제안한다.

도 1 은 본 발명의 일 실시예에 따른 프로토콜 스택을 도시한 도면이다.

서비스는 복수개의 레이어를 거쳐 수신기로 전달될 수 있다. 먼저 송신측에서는 서비스 데이터를 생성할 수 있다. 송신측의 딜리버리 레이어에서는 서비스 데이터에 전송을 위한 처리를 수행하고, 피지컬 레이어에서는 이를 방송 신호로 인코딩하여 방송망 또는 브로드밴드를 통해 전송할 수 있다.

여기서 서비스 데이터들은 ISO BMFF (base media file format) 에 따른 포맷으로 생성될 수 있다. ISO BMFF 미디어 파일은 방송망/브로드밴드 딜리버리, 미디어 인캡슐레이션(media encapsulation) 및/또는 동기화 포맷(synchronization format) 으로 사용될 수 있다. 여기서 서비스 데이터는 서비스와 관련된 모든 데이터로서, 리니어 서비스를 이루는 서비스 컴포넌트들, 그에 대한 시그널링 정보, NRT (Non Real Time) 데이터, 기타 파일들 등을 포함하는 개념일 수 있다.

딜리버리 레이어에 대해 설명한다. 딜리버리 레이어는 서비스 데이터에 대한 전송 기능을 제공할 수 있다. 서비스 데이터는 방송망및/또는 브로드밴드를 통해 전달될 수 있다.

방송망을 통한 서비스 딜리버리(broadcast service delivery)에 있어 두가지 방법이 있을 수 있다.

첫번째 방법은 MMT (MPEG Media Transport) 에 근거하여, 서비스 데이터들을 MPU (Media Processing Units) 들로 처리하고, 이를 MMTP (MMT protocol) 를 이용하여 전송하는 것일 수 있다. 이 경우, MMTP 를 통해 전달되는 서비스 데이터에는, 리니어 서비스를 위한 서비스 컴포넌트들 및/또는 그에 대한 서비스 시그널링 정보 등이 있을 수 있다.

두번째 방법은 MPEG DASH 에 근거하여, 서비스 데이터들을 DASH 세그먼트들로 처리하고, 이를 ROUTE (Real time Object delivery over Unidirectional Transport) 를 이용하여 전송하는 것일 수 있다. 이 경우, ROUTE 프로토콜을 통해 전달되는 서비스 데이터에는, 리니어 서비스를 위한 서비스 컴포넌트들, 그에 대한 서비스 시그널링 정보 및/또는 NRT 데이터 등이 있을 수 있다. 즉, NRT 데이터 및 파일 등의 논 타임드(non timed) 데이터는 ROUTE 를 통해서 전달될 수 있다.

MMTP 또는 ROUTE 프로토콜에 따라 처리된 데이터는 UDP / IP 레이어를 거쳐 IP 패킷들로 처리될 수 있다. 방송망을 통한 서비스 데이터 전달에 있어서, SLT (Service List Table) 역시 UDP / IP 레이어를 거쳐 방송망을 통해 전달될 수 있다. SLT 는 LLS (Low Level Signaling) 테이블에 포함되어 전달될 수 있는데, SLT, LLS 테이블에 대해서는 후술한다.

IP 패킷들은 링크 레이어에서 링크 레이어 패킷들로 처리될 수 있다. 링크 레이어는 상위 레이어에서 전달되는 다양한 포맷의 데이터를, 링크 레이어 패킷으로 인캡슐레이션한 후, 피지컬 레이어에 전달할 수 있다. 링크 레이어에 대해서는 후술한다.

하이브리드 서비스 딜리버리(hybrid service delivery) 에 있어서는, 적어도 하나 이상의 서비스 엘레멘트가 브로드밴드 패쓰(path) 를 통해 전달될 수 있다. 하이브리드 서비스 딜리버리의 경우, 브로드밴드로 전달되는 데이터에는, DASH 포맷의 서비스 컴포넌트들, 그에 대한 서비스 시그널링 정보 및/또는 NRT 데이터 등이 있을 수 있다. 이 데이터들은 HTTP/TCP/IP 를 거쳐 처리되고, 브로드밴드 전송을 위한 링크 레이어를 거쳐, 브로드밴드 전송을 위한 피지컬 레이어로 전달될 수 있다.

피지컬 레이어는 딜리버리 레이어(상위 레이어 및/또는 링크 레이어)로부터 전달받은 데이터를 처리하여, 방송망 또는 브로드밴드를 통하여 전송할 수 있다. 피지컬 레이어에 대한 자세한 사항은 후술한다.

서비스에 대해 설명한다. 서비스는 전체적으로 사용자에게 보여주는 서비스 컴포넌트의 컬렉션일 수 있고, 컴포넌트는 여러 미디어 타입의 것일 수 있고, 서비스는 연속적이거나 간헐적일 수 있으며, 서비스는 실시간이거나 비실시간일 수 있고, 실시간 서비스는 TV 프로그램의 시퀀스로 구성될 수 있다.

서비스는 여러 타입을 가질 수 있다. 첫 번째로 서비스는 앱 기반 인헨스먼트를 가질 수 있는 리니어 오디오/비디오 또는 오디오만의 서비스일 수 있다. 두 번째로 서비스는 다운로드된 어플리케이션에 의해 그 재생/구성 등이 제어되는 앱 기반 서비스일 수 있다. 세 번째로 서비스는 ESG (Electronic Service Guide) 를 제공하는 ESG 서비스일 수 있다. 네 번째로 긴급 경보 정보를 제공하는 EA (Emergency Alert) 서비스일 수 있다.

앱 기반 인헨스먼트가 없는 리니어 서비스가 방송망을 통해 전달되는 경우, 서비스 컴포넌트는 (1) 하나 이상의 ROUTE 세션 또는 (2) 하나 이상의 MMTP 세션에 의해 전달될 수 있다.

앱 기반 인헨스먼트가 있는 리니어 서비스가 방송망을 통해 전달되는 경우, 서비스 컴포넌트는 (1) 하나 이상의 ROUTE 세션 및 (2) 0개 이상의 MMTP 세션에 의해 전달될 수 있다. 이 경우 앱 기반 인핸스먼트에 사용되는 데이터는 NRT 데이터 또는 기타 파일 등의 형태로 ROUTE 세션을 통해 전달될 수 있다. 본 발명의 일 실시예에서, 하나의 서비스의 리니어 서비스 컴포넌트(스트리밍 미디어 컴포넌트)들이 두 프로토콜을 동시에 사용해 전달되는 것이 허용되지 않을 수 있다.

앱 기반 서비스가 방송망을 통해 전달되는 경우, 서비스 컴포넌트는 하나 이상의 ROUTE 세션에 의해 전달될 수 있다. 이 경우, 앱 기반 서비스에 사용되는 서비스 데이터는 NRT 데이터 또는 기타 파일 등의 형태로 ROUTE 세션을 통해 전달될 수 있다.

또한, 이러한 서비스의 일부 서비스 컴포넌트 또는 일부 NRT 데이터, 파일 등은 브로드밴드를 통해 전달될 수 있다(하이브리드 서비스 딜리버리).

즉, 본 발명의 일 실시예에서, 하나의 서비스의 리니어 서비스 컴포넌트들은 MMT 프로토콜을 통해 전달될 수 있다. 본 발명의 다른 실시예에서, 하나의 서비스의 리니어 서비스 컴포넌트들은 ROUTE 프로토콜을 통해 전달될 수 있다. 본 발명의 또 다른 실시예에서, 하나의 서비스의 리니어 서비스 컴포넌트 및 NRT 데이터(NRT 서비스 컴포넌트)들은 ROUTE 프로토콜을 통해 전달될 수 있다. 본 발명의 또 다른 실시예에서, 하나의 서비스의 리니어 서비스 컴포넌트들은 MMT 프로토콜을 통해 전달되고, NRT 데이터(NRT 서비스 컴포넌트)들은 ROUTE 프로토콜을 통해 전달될 수 있다. 전술한 실시예들에서, 서비스의 일부 서비스 컴포넌트 또는 일부 NRT 데이터들은 브로드밴드를 통해 전달될 수 있다. 여기서 앱 기반 서비스 내지 앱 기반 인핸스먼트에 관한 데이터들은 NRT 데이터 형태로, ROUTE 에 따른 방송망을 통해 전달되거나 브로드밴드를 통해 전달될 수 있다. NRT 데이터는 로컬리 캐쉬드 데이터(Locally cashed data) 등으로 불릴 수도 있다.

각각의 ROUTE 세션은 서비스를 구성하는 컨텐츠 컴포넌트를 전체적으로 또는 부분적으로 전달하는 하나 이상의 LCT 세션을 포함한다. 스트리밍 서비스 딜리버리에서, LCT 세션은 오디오, 비디오, 또는 클로즈드 캡션 스트림과 같은 사용자 서비스의 개별 컴포넌트를 전달할 수 있다. 스트리밍 미디어는 DASH 세그먼트로 포맷된다.

각각의 MMTP 세션은 MMT 시그널링 메시지 또는 전체 또는 일부 컨텐츠 컴포넌트를 전달하는 하나 이상의 MMTP 패킷 플로우를 포함한다. MMTP 패킷 플로우는 MMT 시그널링 메시지 또는 MPU 로 포맷된 컴포넌트를 전달할 수 있다.

NRT 사용자 서비스 또는 시스템 메타데이터의 딜리버리를 위해, LCT 세션은 파일 기반의 컨텐츠 아이템을 전달한다. 이들 컨텐츠 파일은 NRT 서비스의 연속적 (타임드) 또는 이산적 (논 타임드) 미디어 컴포넌트, 또는 서비스 시그널링이나 ESG 프레그먼트와 같은 메타데이터로 구성될 수 있다. 서비스 시그널링이나 ESG 프레그먼트와 같은 시스템 메타데이터의 딜리버리 또한 MMTP의 시그널링 메시지 모드를 통해 이루어질 수 있다.

수신기에서는 튜너가 주파수들을 스캐닝하다가, 특정 주파수에서 방송 시그널을 감지할 수 있다. 수신기는 SLT 를 추출해 이를 처리하는 모듈로 보낼 수 있다. SLT 파서는 SLT 를 파싱하고 데이터를 획득해 채널 맵에 저장할 수 있다. 수신기는 SLT 의 부트스트랩 정보를 획득하고 ROUTE 또는 MMT 클라이언트에 전달해줄 수 있다. 수신기는 이를 통해 SLS 를 획득할 수 있고, 저장할 수 있다. USBD 등이 획득될 수 있고, 이는 시그널링 파서에 의해 파싱될 수 있다.

도 2 는 본 발명의 일 실시예에 따른 서비스 디스커버리 과정을 도시한 도면이다.

피지컬 레이어의 방송 신호 프레임이 전달하는 브로드캐스트 스트림은 LLS (Low Level Signaling) 을 운반할 수 있다. LLS 데이터는 웰 노운(well known) IP 어드레스/포트 로 전달되는 IP 패킷의 페이로드를 통해서 운반될 수 있다. 이 LLS 는 그 타입에 따라 SLT 를 포함할 수 있다. LLS 데이터는 LLS 테이블의 형태로 포맷될 수 있다. LLS 데이터를 운반하는 매 UDP/IP 패킷의 첫번째 바이트는 LLS 테이블의 시작일 수 있다. 도시된 실시예와 달리 LLS 데이터를 전달하는 IP 스트림은, 다른 서비스 데이터들과 함께 같은 PLP 로 전달될 수도 있다.

SLT 는 빠른 채널 스캔을 통하여 수신기가 서비스 리스트를 생성할 수 있게 하고, SLS 를 로케이팅(locating) 하기 위한 액세스 정보를 제공한다. SLT 는 부트스트랩 정보를 포함하는데, 이 부트스트랩 정보는 수신기가 각각의 서비스에 대한 SLS (Service Layer Signaling) 을 획득할 수 있도록 한다. SLS, 즉 서비스 시그널링 정보가 ROUTE 를 통해 전달되는 경우, 부트스트랩 정보는 SLS 를 운반하는 LCT 채널 내지 그 LCT 채널을 포함하는 ROUTE 세션의 데스티네이션 IP 어드레스 및 데스티네이션 포트 정보를 포함할 수 있다. SLS 가 MMT 를 통해 전달되는 경우, 부트스트랩 정보는 SLS 를 운반하는 MMTP 세션의 데스티네이션 IP 어드레스 및 데스티네이션 포트 정보를 포함할 수 있다.

도시된 실시예에서, SLT 가 기술하는 서비스 #1 의 SLS 는 ROUTE 를 통해 전달되고, SLT 는 해당 SLS 가 전달되는 LCT 채널을 포함하는 ROUTE 세션에 대한 부트스트랩 정보(sIP1, dIP1, dPort1) 를 포함할 수 있다. SLT 가 기술하는 서비스 #2 의 SLS 는 MMT 를 통해 전달되고, SLT 는 해당 SLS 가 전달되는 MMTP 패킷 플로우를 포함하는 MMTP 세션에 대한 부트스트랩 정보(sIP2, dIP2, dPort2) 를 포함할 수 있다.

SLS 는 해당 서비스에 대한 특성을 기술하는 시그널링 정보로서, 해당 서비스 및 해당 서비스의 서비스 컴포넌트를 획득하기 위한 정보를 제공하거나, 해당 서비스를 유의미하게 재생하기 위한 수신기 캐패빌리티 정보 등을 포함할 수 있다. 각 서비스에 대해 별개의 서비스 시그널링을 가지면 수신기는 브로드캐스트 스트림 내에서 전달되는 전체 SLS을 파싱할 필요 없이 원하는 서비스에 대한 적절한 SLS를 획득하면 된다.

SLS 가 ROUTE 프로토콜을 통해 전달되는 경우, SLS 는 SLT 가 지시하는 ROUTE 세션의 특정(dedicated) LCT 채널을 통해 전달될 수 있다. 실시예에 따라 이 LCT 채널은 tsi = 0 로 식별되는 LCT 채널일 수 있다. 이 경우 SLS 는 USBD/USD (User Service Bundle Description / User Service Description), S-TSID (Service-based Transport Session Instance Description) 및/또는 MPD (Media Presentation Description) 를 포함할 수 있다.

여기서 USBD 내지 USD 는 SLS 프래그먼트 중 하나로서, 서비스의 구체적 기술적 정보들을 기술하는 시그널링 허브로서 역할할 수 있다. USBD 는 서비스 식별 정보, 디바이스 캐패빌리티 정보 등을 포함할 수 있다. USBD 는 다른 SLS 프래그먼트(S-TSID, MPD 등) 에의 레퍼런스 정보(URI 레퍼런스)를 포함할 수 있다. 즉, USBD/USD 는 S-TSID 와 MPD 를 각각 레퍼런싱할 수 있다. 또한 USBD 는 수신기가 전송 모드(방송망/브로드밴드)를 결정할 수 있게 해주는 메타데이터 정보를 더 포함할 수 있다. USBD/USD 의 구체적 내용들에 대해서는 후술한다.

S-TSID 는 SLS 프래그먼트 중 하나로서, 해당 서비스의 서비스 컴포넌트를 운반하는 전송 세션에 대한 전체적인 세션 디스크립션 정보를 제공할 수 있다. S-TSID 는 해당 서비스의 서비스 컴포넌트가 전달되는 ROUTE 세션 및/또는 그 ROUTE 세션들의 LCT 채널에 대한 전송 세션 디스크립션 정보를 제공할 수 있다. S-TSID 는 하나의 서비스와 관련된 서비스 컴포넌트들의 컴포넌트 획득(acquisition) 정보를 제공할 수 있다. S-TSID 는, MPD 의 DASH 레프리젠테이션(Representation) 과 해당 서비스 컴포넌트의 tsi 간의 매핑을 제공할 수 있다. S-TSID 의 컴포넌트 획득 정보는 tsi, 관련 DASH 레프리젠테이션의 식별자의 형태로 제공될 수 있으며, 실시예에 따라 PLP ID 를 포함하거나 포함하지 않을 수 있다. 컴포넌트 획득 정보를 통해 수신기는 한 서비스의 오디오/비디오 컴포넌트들을 수집하고 DASH 미디어 세그먼트들의 버퍼링, 디코딩 등을 수행할 수 있다. S-TSID 는 전술한 바와 같이 USBD 에 의해 레퍼런싱될 수 있다. S-TSID 의 구체적 내용들에 대해서는 후술한다.

MPD 는 SLS 프래그먼트 중 하나로서, 해당 서비스의 DASH 미디어 프리젠테이션에 관한 디스크립션을 제공할 수 있다. MPD 는 미디어 세그먼트들에 대한 리소스 식별자(resource identifier) 를 제공하고, 식별된 리소스들에 대한 미디어 프리젠테이션 내에서의 컨텍스트 정보를 제공할 수 있다. MPD 는 방송망을 통해 전달되는 DASH 레프리젠테이션(서비스 컴포넌트)를 기술하고, 또한 브로드밴드를 통해 전달되는 추가적인 DASH 레프리젠테이션을 기술할 수 있다(하이브리드 딜리버리). MPD 는 전술한 바와 같이 USBD 에 의해 레퍼런싱될 수 있다.

SLS 가 MMT 프로토콜을 통해 전달되는 경우, SLS 는 SLT 가 지시하는 MMTP 세션의 특정(dedicated) MMTP 패킷 플로우을 통해 전달될 수 있다. 실시예에 따라 SLS 를 전달하는 MMTP 패킷들의 packet_id 는 00 의 값을 가질 수 있다. 이 경우 SLS 는 USBD/USD 및/또는 MMT Package (MP) 테이블을 포함할 수 있다.

여기서 USBD 는 SLS 프래그먼트의 하나로서, ROUTE 에서의 그것과 같이 서비스의 구체적 기술적 정보들을 기술할 수 있다. 여기서의 USBD 역시 다른 SLS 프래그먼트에의 레퍼런스 정보(URI 레퍼런스)를 포함할 수 있다. MMT 의 USBD 는 MMT 시그널링의 MP 테이블을 레퍼런싱할 수 있다. 실시예에 따라 MMT 의 USBD 는 S-TSID 및/또는 MPD 에의 레퍼런스 정보 또한 포함할 수 있다. 여기서의 S-TSID 는 ROUTE 프로토콜을 통해 전달되는 NRT 데이터를 위함일 수 있다. MMT 프로토콜을 통해 리니어 서비스 컴포넌트가 전달되는 경우에도 NRT 데이터는 ROUTE 프로토콜을 통해 전달될 수 있기 때문이다. MPD 는 하이브리드 서비스 딜리버리에 있어서, 브로드밴드로 전달되는 서비스 컴포넌트를 위함일 수 있다. MMT 의 USBD 의 구체적 내용들에 대해서는 후술한다.

MP 테이블은 MPU 컴포넌트들을 위한 MMT 의 시그널링 메시지로서, 해당 서비스의 서비스 컴포넌트를 운반하는 MMTP 세션에 대한 전체적인 세션 디스크립션 정보를 제공할 수 있다. 또한 MP 테이블은 이 MMTP 세션을 통해 전달되는 에셋(Asset) 에 대한 디스크립션을 포함할 수 있다. MP 테이블은 MPU 컴포넌트들을 위한 스트리밍 시그널링 정보로서, 하나의 서비스에 해당하는 에셋들의 리스트와 이 컴포넌트들의 로케이션 정보(컴포넌트 획득 정보)를 제공할 수 있다. MP 테이블의 구체적인 내용은 MMT 에서 정의된 형태이거나, 변형이 이루어진 형태일 수 있다. 여기서 Asset 이란, 멀티미디어 데이터 엔티티로서, 하나의 유니크 ID 로 연합되고 하나의 멀티미디어 프리젠테이션을 생성하는데 사용되는 데이터 엔티티를 의미할 수 있다. Asset 은 하나의 서비스를 구성하는 서비스 컴포넌트에 해당할 수 있다. MP 테이블을 이용하여 원하는 서비스에 해당하는 스트리밍 서비스 컴포넌트(MPU) 에 접근할 수 있다. MP 테이블은 전술한 바와 같이 USBD 에 의해 레퍼런싱될 수 있다.

기타 다른 MMT 시그널링 메시지가 정의될 수 있다. 이러한 MMT 시그널링 메시지들에 의해 MMTP 세션 내지 서비스에 관련된 추가적인 정보들이 기술될 수 있다.

ROUTE 세션은 소스 IP 어드레스, 데스티네이션 IP 어드레스, 데스티네이션 포트 넘버에 의해 식별된다. LCT 세션은 페어런트 ROUTE 세션의 범위 내에서 유일한 TSI (transport session identifier)에 의해 식별된다. MMTP 세션은 데스티네이션 IP 어드레스 및 데스티네이션 포트 넘버에 의해 식별된다. MMTP 패킷 플로우는 페어런트 MMTP 세션의 범위 내에서 유일한 packet_id에 의해 식별된다.

ROUTE 의 경우 S-TSID, USBD/USD, MPD 또는 이 들을 전달하는 LCT 세션을 서비스 시그널링 채널이라 부를 수도 있다. MMTP 의 경우, USBD/UD, MMT 시그널링 메시지들 또는 이들을 전달하는 패킷 플로우를 서비스 시그널링 채널이라 부를 수도 있다.

도시된 실시예와는 달리, 하나의 ROUTE 또는 MMTP 세션은 복수개의 PLP 를 통해 전달될 수 있다. 즉, 하나의 서비스는 하나 이상의 PLP 를 통해 전달될 수도 있다. 도시된 것과 달리 실시예에 따라 하나의 서비스를 구성하는 컴포넌트들이 서로 다른 ROUTE 세션들을 통해 전달될 수도 있다. 또한, 실시예에 따라 하나의 서비스를 구성하는 컴포넌트들이 서로 다른 MMTP 세션들을 통해 전달될 수도 있다. 실시예에 따라 하나의 서비스를 구성하는 컴포넌트들이 ROUTE 세션과 MMTP 세션에 나뉘어 전달될 수도 있다. 도시되지 않았으나, 하나의 서비스를 구성하는 컴포넌트가 브로드밴드를 통해 전달(하이브리드 딜리버리)되는 경우도 있을 수 있다.

도 3 은 본 발명의 일 실시예에 따른 LLS (Low Level Signaling) 테이블 및 SLT (Service List Table)를 도시한 도면이다.

도시된 LLS 테이블의 일 실시예(t3010) 은, LLS_table_id 필드, provider_id 필드, LLS_table_version 필드 및/또는 LLS_table_id 필드에 따른 정보들을 포함할 수 있다.

LLS_table_id 필드는 해당 LLS 테이블의 타입을 식별하고, provider_id 필드는 해당 LLS 테이블에 의해 시그널링되는 서비스들과 관련된 서비스 프로바이더를 식별할 수 있다. 여기서 서비스 프로바이더는 해당 브로드캐스트 스트림의 전부 또는 일부를 사용하는 브로드캐스터로서, provider_id 필드는 해당 브로드캐스트 스트림을 사용중인 복수의 브로드캐스터들 중 하나를 식별할 수 있다. LLS_table_version 필드는 해당 LLS 테이블의 버전 정보를 제공할 수 있다.

LLS_table_id 필드의 값에 따라, 해당 LLS 테이블은 전술한 SLT, 컨텐트 어드바이저리 레이팅(Content advisory rating) 에 관련된 정보를 포함하는 RRT(Rating Region Table), 시스템 타임과 관련된 정보를 제공하는 SystemTime 정보, 긴급 경보와 관련된 정보를 제공하는 CAP (Common Alert Protocol) 메시지 중 하나를 포함할 수 있다. 실시예에 따라 이들 외에 다른 정보가 LLS 테이블에 포함될 수도 있다.

도시된 SLT 의 일 실시예(t3020) 는, @bsid 속성, @sltCapabilities 속성, sltInetUrl 엘레멘트 및/또는 Service 엘레멘트를 포함할 수 있다. 각 필드들은 도시된 Use 컬럼의 값에 따라 생략되거나, 복수개 존재할 수 있다.

@bsid 속성은 브로드캐스트 스트림의 식별자일 수 있다. @sltCapabilities 속성은 해당 SLT 가 기술하는 모든 서비스들을 디코딩하고 유의미하게 재생하는데 요구되는 캐패빌리티 정보를 제공할 수 있다. sltInetUrl 엘레멘트는 해당 SLT 의 서비스들을 위한 ESG 내지 서비스 시그널링 정보를 브로드밴드를 통해 얻기 위해 사용되는 베이스 URL 정보를 제공할 수 있다. sltInetUrl 엘레멘트는 @urlType 속성을 더 포함할 수 있는데, 이는 해당 URL 을 통해 얻을 수 있는 데이터의 타입을 지시할 수 있다.

Service 엘레멘트는 해당 SLT 가 기술하는 서비스들에 대한 정보를 포함하는 엘레멘트일 수 있으며, 각각의 서비스들에 대해 Service 엘레멘트가 존재할 수 있다. Service 엘레멘트는 @serviceId 속성, @sltSvcSeqNum 속성, @protected 속성, @majorChannelNo 속성, @minorChannelNo 속성, @serviceCategory 속성, @shortServiceName 속성, @hidden 속성, @broadbandAccessRequired 속성, @svcCapabilities 속성, BroadcastSvcSignaling 엘레멘트 및/또는 svcInetUrl 엘레멘트를 포함할 수 있다.

@serviceId 속성은 해당 서비스의 식별자이고, @sltSvcSeqNum 속성은 해당 서비스에 대한 SLT 정보의 시퀀스 넘버를 나타낼 수 있다. @protected 속성은 해당 서비스의 유의미한 재생을 위해 필요한 적어도 하나의 서비스 컴포넌트가 보호(protected)되고 있는지 여부를 지시할 수 있다. @majorChannelNo 속성과 @minorChannelNo 속성은 각각 해당 서비스의 메이저 채널 넘버와 마이너 채널 넘버를 지시할 수 있다.

@serviceCategory 속성은 해당 서비스의 카테고리를 지시할 수 있다. 서비스의 카테고리로는 리니어 A/V 서비스, 리니어 오디오 서비스, 앱 기반 서비스, ESG 서비스, EAS 서비스 등이 있을 수 있다. @shortServiceName 속성은 해당 서비스의 짧은 이름(Short name)을 제공할 수 있다. @hidden 속성은 해당 서비스가 테스팅 또는 독점적(proprietary) 사용을 위한 서비스인지 여부를 지시할 수 있다. @broadbandAccessRequired 속성은 해당 서비스의 유의미한 재생을 위하여 브로드밴드 억세스가 필요한지 여부를 지시할 수 있다. @svcCapabilities 속성은 해당 서비스의 디코딩과 유의미한 재생을 위하여 필요한 캐패빌리티 정보를 제공할 수 있다.

BroadcastSvcSignaling 엘레멘트는 해당 서비스의 브로드캐스트 시그널링에 관련된 정보들을 제공할 수 있다. 이 엘레멘트는 해당 서비스의 방송망을 통한 시그널링에 대하여, 로케이션, 프로토콜, 어드레스 등의 정보를 제공할 수 있다. 자세한 사항은 후술한다.

svcInetUrl 엘레멘트는 해당 서비스를 위한 시그널링 정보를 브로드밴드를 통해 액세스하기 위한 URL 정보를 제공할 수 있다. sltInetUrl 엘레멘트는 @urlType 속성을 더 포함할 수 있는데, 이는 해당 URL 을 통해 얻을 수 있는 데이터의 타입을 지시할 수 있다.

전술한 BroadcastSvcSignaling 엘레멘트는 @slsProtocol 속성, @slsMajorProtocolVersion 속성, @slsMinorProtocolVersion 속성, @slsPlpId 속성, @slsDestinationIpAddress 속성, @slsDestinationUdpPort 속성 및/또는 @slsSourceIpAddress 속성을 포함할 수 있다.

@slsProtocol 속성은 해당 서비스의 SLS 를 전달하는데 사용되는 프로토콜을 지시할 수 있다(ROUTE, MMT 등). @slsMajorProtocolVersion 속성 및 @slsMinorProtocolVersion 속성은 각각 해당 서비스의 SLS 를 전달하는데 사용되는 프로토콜의 메이저 버전 넘버 및 마이너 버전 넘버를 지시할 수 있다.

@slsPlpId 속성은 해당 서비스의 SLS 를 전달하는 PLP 를 식별하는 PLP 식별자를 제공할 수 있다. 실시예에 따라 이 필드는 생략될 수 있으며, SLS 가 전달되는 PLP 정보는 후술할 LMT 내의 정보와, SLT 의 부트스트랩 정보를 조합하여 확인될 수도 있다.

@slsDestinationIpAddress 속성, @slsDestinationUdpPort 속성 및 @slsSourceIpAddress 속성은 각각 해당 서비스의 SLS 를 전달하는 전송 패킷의 데스티네이션 IP 어드레스, 데스티네이션 UDP 포트 및 소스 IP 어드레스 를 지시할 수 있다. 이들은 SLS 가 전달되는 전송세션(ROUTE 세션 또는 MMTP 세션)을 식별할 수 있다. 이들은 부트스트랩 정보에 포함될 수 있다.

도 4 는 본 발명의 일 실시예에 따른, ROUTE 로 전달되는 USBD 및 S-TSID 를 도시한 도면이다.

도시된 USBD 의 일 실시예(t4010) 은, bundleDescription 루트 엘레멘트를 가질 수 있다. bundleDescription 루트 엘레멘트는 userServiceDescription 엘레멘트를 가질 수 있다. userServiceDescription 엘레멘트는 하나의 서비스에 대한 인스턴스일 수 있다.

userServiceDescription 엘레멘트는 @globalServiceID 속성, @serviceId 속성, @serviceStatus 속성, @fullMPDUri 속성, @sTSIDUri 속성, name 엘레멘트, serviceLanguage 엘레멘트, capabilityCode 엘레멘트 및/또는 deliveryMethod 엘레멘트를 포함할 수 있다. 각 필드들은 도시된 Use 컬럼의 값에 따라 생략되거나, 복수개 존재할 수 있다.

@globalServiceID 속성은 해당 서비스의 글로벌하게 유니크한(globally unique) 식별자로서, ESG 데이터와 링크되는데 사용될 수 있다(Service@globalServiceID). @serviceId 속성은 SLT 의 해당 서비스 엔트리와 대응되는 레퍼런스로서, SLT 의 서비스 ID 정보와 동일할 수 있다. @serviceStatus 속성은 해당 서비스의 상태를 지시할 수 있다. 이 필드는 해당 서비스가 액티브인지 인액티브(inactive) 상태인지 여부를 지시할 수 있다.

@fullMPDUri 속성은 해당 서비스의 MPD 프래그먼트를 레퍼런싱할 수 있다. MPD 는 전술한 바와 같이 방송망 또는 브로드밴드를 통해 전달되는 서비스 컴포넌트에 대한 재생 디스크립션을 제공할 수 있다. @sTSIDUri 속성은 해당 서비스의 S-TSID 프래그먼트를 레퍼런싱할 수 있다. S-TSID 는 전술한 바와 같이 해당 서비스를 운반하는 전송 세션에의 액세스와 관련된 파라미터들을 제공할 수 있다.

name 엘레멘트는 해당 서비스의 이름을 제공할 수 있다. 이 엘레멘트는 @lang 속성을 더 포함할 수 있는데, 이 필드는 name 엘레멘트가 제공하는 이름의 언어를 지시할 수 있다. serviceLanguage 엘레멘트는 해당 서비스의 이용 가능한(available) 언어들을 지시할 수 있다. 즉, 이 엘레멘트는 해당 서비스가 제공될 수 있는 언어들을 나열할 수 있다.

capabilityCode 엘레멘트는 해당 서비스를 유의미하게 재생하기 위해 필요한 수신기 측의 캐패빌리티 또는 캐패빌리티 그룹 정보를 지시할 수 있다. 이 정보들은 서비스 아나운스먼트(announccement) 에서 제공되는 캐패빌리티 정보 포맷과 호환될 수 있다.

deliveryMethod 엘레멘트는 해당 서비스의 방송망 또는 브로드밴드를 통해 액세스되는 컨텐츠들에 대하여, 전송 관련 정보들을 제공할 수 있다. deliveryMethod 엘레멘트는 broadcastAppService 엘레멘트 및/또는 unicastAppService 엘레멘트를 포함할 수 있다. 이 엘레멘트들은 각각 basePattern 엘레멘트를 하위 엘레멘트로 가질 수 있다.

broadcastAppService 엘레멘트는 방송망을 통해 전달되는 DASH 레프리젠테이션에 대한 전송 관련 정보를 포함할 수 있다. 이 DASH 레프리젠테이션들은 해당 서비스 미디어 프리젠테이션의 모든 피리오드(Period)에 걸친 미디어 컴포넌트들을 포함할 수 있다.

이 엘레멘트의 basePattern 엘레멘트는 수신기가 세그먼트 URL 과 매칭하는데 사용되는 캐릭터 패턴을 나타낼 수 있다. 이는 DASH 클라이언트가 해당 레프리젠테이션의 세그먼트들을 요청하는데 사용될 수 있다. 매칭된다는 것은 해당 미디어 세그먼트가 방송망을 통해 전달된다는 것을 암시할 수 있다.

unicastAppService 엘레멘트는 브로드밴드를 통해 전달되는 DASH 레프리젠테이션에 대한 전송 관련 정보를 포함할 수 있다. 이 DASH 레프리젠테이션들은 해당 서비스 미디어 프리젠테이션의 모든 피리오드(Period)에 걸친 미디어 컴포넌트들을 포함할 수 있다.

이 엘레멘트의 basePattern 엘레멘트는 수신기가 세그먼트 URL 과 매칭하는데 사용되는 캐릭터 패턴을 나타낼 수 있다. 이는 DASH 클라이언트가 해당 레프리젠테이션의 세그먼트들을 요청하는데 사용될 수 있다. 매칭된다는 것은 해당 미디어 세그먼트가 브로드밴드를 통해 전달된다는 것을 암시할 수 있다.

도시된 S-TSID 의 일 실시예(t4020) 은, S-TSID 루트 엘레멘트를 가질 수 있다. S-TSID 루트 엘레멘트는 @serviceId 속성 및/또는 RS 엘레멘트를 포함할 수 있다. 각 필드들은 도시된 Use 컬럼의 값에 따라 생략되거나, 복수개 존재할 수 있다.

@serviceId 속성은 해당 서비스의 식별자로서, USBD/USD 의 해당 서비스를 레퍼런싱할 수 있다. RS 엘레멘트는 해당 서비스의 서비스 컴포넌트들이 전달되는 ROUTE 세션들에 대한 정보를 기술할 수 있다. 이러한 ROUTE 세션의 개수에 따라, 이 엘레멘트는 복수개 존재할 수 있다. RS 엘레멘트는 @bsid 속성, @sIpAddr 속성, @dIpAddr 속성, @dport 속성, @PLPID 속성 및/또는 LS 엘레멘트를 더 포함할 수 있다.

@bsid 속성은 해당 서비스의 서비스 컴포넌트들이 전달되는 브로드캐스트 스트림의 식별자일 수 있다. 이 필드가 생략된 경우, 디폴트 브로드캐스트 스트림은 해당 서비스의 SLS 를 전달하는 PLP 를 포함하는 브로드캐스트 스트림일 수 있다. 이 필드의 값은 SLT 의 @bsid 속성과 같은 값일 수 있다.

@sIpAddr 속성, @dIpAddr 속성 및 @dport 속성은 각각 해당 ROUTE 세션의 소스 IP 어드레스, 데스티네이션 IP 어드레스 및 데스티네이션 UDP 포트를 나타낼 수 있다. 이 필드들이 생략되는 경우, 디폴트 값들은 해당 SLS 를 전달하는, 즉 해당 S-TSID 를 전달하고 있는 현재의, ROUTE 세션의 소스 IP 어드레스, 데스티네이션 IP 어드레스 및 데스티네이션 UDP 포트값들일 수 있다. 현재 ROUTE 세션이 아닌, 해당 서비스의 서비스 컴포넌트들을 전달하는 다른 ROUTE 세션에 대해서는, 본 필드들이 생략되지 않을 수 있다.

@PLPID 속성은 해당 ROUTE 세션의 PLP ID 정보를 나타낼 수 있다. 이 필드가 생략되는 경우, 디폴트 값은 해당 S-TSID 가 전달되고 있는 현재 PLP 의 PLP ID 값일 수 있다. 실시예에 따라 이 필드는 생략되고, 해당 ROUTE 세션의 PLP ID 정보는 후술할 LMT 내의 정보와, RS 엘레멘트의 IP 어드레스 / UDP 포트 정보들을 조합하여 확인될 수도 있다.

LS 엘레멘트는 해당 서비스의 서비스 컴포넌트들이 전달되는 LCT 채널들에 대한 정보를 기술할 수 있다. 이러한 LCT 채널의 개수에 따라, 이 엘레멘트는 복수개 존재할 수 있다. LS 엘레멘트는 @tsi 속성, @PLPID 속성, @bw 속성, @startTime 속성, @endTime 속성, SrcFlow 엘레멘트 및/또는 RepairFlow 엘레멘트를 포함할 수 있다.

@tsi 속성은 해당 LCT 채널의 tsi 정보를 나타낼 수 있다. 이를 통해 해당 서비스의 서비스 컴포넌트가 전달되는 LCT 채널들이 식별될 수 있다. @PLPID 속성은 해당 LCT 채널의 PLP ID 정보를 나타낼 수 있다. 실시예에 따라 이 필드는 생략될 수 있다. @bw 속성은 해당 LCT 채널의 최대 대역폭를 나타낼 수 있다. @startTime 속성은 해당 LCT 세션의 스타트 타임을 지시하고, @endTime 속성은 해당 LCT 채널의 엔드 타임을 지시할 수 있다.

SrcFlow 엘레멘트는 ROUTE 의 소스 플로우에 대해 기술할 수 있다. ROUTE 의 소스 프로토콜은 딜리버리 오브젝트를 전송하기 위해 사용되며, 한 ROUTE 세션 내에서 적어도 하나 이상의 소스 플로우를 설정(establish)할 수 있다. 이 소스 플로우들은 관련된 오브젝트들을 오브젝트 플로우로서 전달할 수 있다.

RepairFlow 엘레멘트는 ROUTE 의 리페어 플로우에 대해 기술할 수 있다. 소스 프로토콜에 따라 전달되는 딜리버리 오브젝트들은 FEC (Forward Error Correction) 에 따라 보호될 수 있는데, 리페어 프로토콜은 이러한 FEC 프로텍션을 가능케 하는 FEC 프레임워크(framework)를 정의할 수 있다.

도 5 는 본 발명의 일 실시예에 따른, MMT 로 전달되는 USBD 를 도시한 도면이다.

도시된 USBD 의 일 실시예는, bundleDescription 루트 엘레멘트를 가질 수 있다. bundleDescription 루트 엘레멘트는 userServiceDescription 엘레멘트를 가질 수 있다. userServiceDescription 엘레멘트는 하나의 서비스에 대한 인스턴스일 수 있다.

userServiceDescription 엘레멘트는 @globalServiceID 속성, @serviceId 속성, Name 엘레멘트, serviceLanguage 엘레멘트, contentAdvisoryRating 엘레멘트, Channel 엘레멘트, mpuComponent 엘레멘트, routeComponent 엘레멘트, broadbandComponent 엘레멘트 및/또는 ComponentInfo 엘레멘트를 포함할 수 있다. 각 필드들은 도시된 Use 컬럼의 값에 따라 생략되거나, 복수개 존재할 수 있다.

@globalServiceID 속성, @serviceId 속성, Name 엘레멘트 및/또는 serviceLanguage 엘레멘트는 전술한 ROUTE 로 전달되는 USBD 의 해당 필드들과 같을 수 있다. contentAdvisoryRating 엘레멘트는 해당 서비스의 컨텐트 어드바이저리(advisory) 레이팅을 나타낼 수 있다. 이 정보들은 서비스 아나운스먼트(announccement) 에서 제공되는 컨텐트 어드바이저리 레이팅 정보 포맷과 호환될 수 있다. Channel 엘레멘트는 해당 서비스와 관련된 정보들을 포함할 수 있다. 이 엘레멘트의 자세한 내용에 대해서는 후술한다.

mpuComponent 엘레멘트는 해당 서비스의 MPU 로서 전달되는 서비스 컴포넌트들에 대한 디스크립션을 제공할 수 있다. 이 엘레멘트는 @mmtPackageId 속성 및/또는 @nextMmtPackageId 속성을 더 포함할 수 있다. @mmtPackageId 속성은 해당 서비스의 MPU 로서 전달되는 서비스 컴포넌트들의 MMT 패키지(Package) 를 레퍼런싱할 수 있다. @nextMmtPackageId 속성은 시간상 @mmtPackageId 속성이 레퍼런싱하는 MMT 패키지 다음으로 사용될 MMT 패키지를 레퍼런싱할 수 있다. 이 엘레멘트의 정보들을 통해 MP 테이블이 레퍼런싱될 수 있다.

routeComponent 엘레멘트는 ROUTE 로 전달되는 해당 서비스의 서비스 컴포넌트들에 대한 디스크립션을 포함할 수 있다. 리니어 서비스 컴포넌트들이 MMT 프로토콜로 전달되는 경우라 하더라도, NRT 데이터들은 전술한 바와 같이 ROUTE 프로토콜에 따라 전달될 수 있다. 이 엘레멘트는 이러한 NRT 데이터들에 대한 정보들을 기술할 수 있다. 이 엘레멘트의 자세한 내용에 대해서는 후술한다.

broadbandComponent 엘레멘트는 브로드밴드로 전달되는 해당 서비스의 서비스 컴포넌트들에 대한 디스크립션을 포함할 수 있다. 하이브리드 서비스 딜리버리에 있어서, 한 서비스의 일부 서비스 컴포넌트 또는 기타 파일들은 브로드밴드를 통해 전달될 수 있다. 이 엘레멘트는 이러한 데이터들에 대한 정보들을 기술할 수 있다. 이 엘레멘트는 @fullMPDUri 속성을 더 포함할 수 있다. 이 속성은 브로드밴드로 전달되는 서비스 컴포넌트들에 대해 기술하는 MPD 를 레퍼런싱할 수 있다. 하이브리드 서비스 딜리버리 이외에도, 터널 내의 주행 등으로 인해 방송 신호가 약화되는 경우에 있어, 방송망-브로드밴드 간의 핸드오프(handoff) 를 지원하기 위해 본 엘레멘트가 필요할 수 있다. 방송 신호가 약해지는 경우, 브로드밴드를 통해 서비스 컴포넌트를 획득하다가, 다시 방송 신호가 강해지면 방송망을 통해 서비스 컴포넌트를 획득하여 서비스의 연속성이 보장될 수 있다.

ComponentInfo 엘레멘트는 해당 서비스의 서비스 컴포넌트들에 대한 정보를 포함할 수 있다. 서비스의 서비스 컴포넌트들의 개수에 따라, 이 엘레멘트는 복수개 존재할 수 있다. 이 엘레멘트는 각 서비스 컴포넌트의 타입, 롤(role), 이름, 식별자, 프로텍션 여부 등의 정보들을 기술할 수 있다. 이 엘레멘트의 자세한 정보에 대해서는 후술한다.

전술한 Channel 엘레멘트는 @serviceGenre 속성, @serviceIcon 속성 및/또는 ServiceDescription 엘레멘트를 더 포함할 수 있다. @serviceGenre 속성은 해당 서비스의 장르를 지시하고, @serviceIcon 속성은 해당 서비스를 대표하는 아이콘(icon) 의 URL 정보를 포함할 수 있다. ServiceDescription 엘레멘트는 해당 서비스의 서비스 디스크립션을 제공하는데, 이 엘레멘트는 @serviceDescrText 속성 및/또는 @serviceDescrLang 속성을 더 포함할 수 있다. 이 속성들은 각각 해당 서비스 디스크립션의 텍스트 및 그 텍스트에 사용되는 언어를 지시할 수 있다.

전술한 routeComponent 엘레멘트는 @sTSIDUri 속성, @sTSIDDestinationIpAddress 속성, @sTSIDDestinationUdpPort 속성, @sTSIDSourceIpAddress 속성, @sTSIDMajorProtocolVersion 속성 및/또는 @sTSIDMinorProtocolVersion 속성을 더 포함할 수 있다.

@sTSIDUri 속성은 S-TSID 프래그먼트를 레퍼런싱할 수 있다. 이 필드는 전술한 ROUTE 로 전달되는USBD 의 해당 필드와 같을 수 있다. 이 S-TSID 는 ROUTE 로 전달되는 서비스 컴포넌트들에 대한 액세스 관련 정보를 제공할 수 있다. 이 S-TSID 는 MMT 프로토콜에 따라 리니어 서비스 컴포넌트들이 전달되는 상황에서, ROUTE 프로토콜에 따라 전달되는 NRT 데이터들을 위해 존재할 수 있다.

@sTSIDDestinationIpAddress 속성, @sTSIDDestinationUdpPort 속성 및 @sTSIDSourceIpAddress 속성은 각각 전술한 S-TSID 를 운반하는 전송 패킷의 데스티네이션 IP 어드레스, 데스티네이션 UDP 포트, 소스 IP 어드레스를 나타낼 수 있다. 즉, 이 필드들은 전술한 S-TSID 를 운반하는 전송 세션(MMTP 세션 또는 ROUTE 세션)을 식별할 수 있다.

@sTSIDMajorProtocolVersion 속성 및 @sTSIDMinorProtocolVersion 속성은 전술한 S-TSID 를 전달하는데 사용되는 전송 프로토콜의 메이저 버전 넘버 및 마이너 버전 넘버를 지시할 수 있다.

전술한 ComponentInfo 엘레멘트는 @componentType 속성, @componentRole 속성, @componentProtectedFlag 속성, @componentId 속성 및/또는 @componentName 속성을 더 포함할 수 있다.

@componentType 속성은 해당 컴포넌트의 타입을 지시할 수 있다. 예를 들어 이 속성은 해당 컴포넌트가 오디오, 비디오, 클로즈드캡션 컴포넌트인지를 지시할 수 있다. @componentRole 속성은 해당 컴포넌트의 롤(역할)을 지시할 수 있다. 예를 들어 이 속성은 해당 컴포넌트가 오디오 컴포넌트인 경우 메인 오디오, 뮤직, 코멘터리 등인지를 지시할 수 있다. 해당 컴포넌트가 비디오 컴포넌트인 경우 프라이머리 비디오인지 등을 지시할 수 있다. 해당 컴포넌트가 클로즈드 캡션 컴포넌트인 경우 노말 캡션인지 이지리더(easy reader) 타입인지 등을 지시할 수 있다.

@componentProtectedFlag 속성은 해당 서비스 컴포넌트가 프로텍티드되었는지, 예를 들어 암호화되었는지를 지시할 수 있다. @componentId 속성은 해당 서비스 컴포넌트의 식별자를 나타낼 수 있다. 이 속성의 값은 이 서비스 컴포넌트에 해당하는 MP 테이블의 asset_id (에셋 ID) 와 같은 값일 수 있다. @componentName 속성은 해당 서비스 컴포넌트의 이름을 나타낼 수 있다.

도 6 은 본 발명의 일 실시예에 따른 링크 레이어(Link Layer) 동작을 도시한 도면이다.

링크 레이어는 피지컬 레이어와 네트워크 레이어 사이의 레이어일 수 있다. 송신 측에서는 네트워크 레이어에서 피지컬 레이어로 데이터를 전송하고, 수신 측에서는 피지컬 레이어에서 네트워크 레이어로 데이터를 전송할 수 있다(t6010). 링크 레이어의 목적은 피지컬 레이어에 의한 처리를 위해 모든 입력 패킷 타입을 하나의 포맷으로 압축(abstracting)하는 것, 아직 정의되지 않은 입력 패킷 타입에 대한 유연성(flexibility) 및 추후 확장 가능성을 보장하는 것일 수 있다. 또한 링크 레이어는 입력 패킷의 헤더의 불필요한 정보를 압축하는 옵션을 제공함으로써, 입력 데이터가 효율적으로 전송될 수 있도록 할 수 있다. 링크 레이어의 오버헤드 리덕션, 인캡슐레이션 등의 동작은 링크 레이어 프로토콜이라 불리고, 해당 프로토콜을 이용하여 생성된 패킷은 링크 레이어 패킷이라 불릴 수 있다. 링크 레이어는 패킷 인캡슐레이션(packet encapsulation), 오버헤드 리덕션(Overhead Reduction) 및/또는 시그널링 전송(Signaling Transmission) 등의 기능을 수행할 수 있다.

송신측 기준으로, 링크 레이어(ALP)는 입력 패킷에 대하여 오버헤드 리덕션 과정을 수행한 후 이들을 링크 레이어 패킷으로 인캡슐레이션할 수 있다. 또한 실시예에 따라 링크 레이어는 오버헤드 리덕션 과정을 수행하지 아니하고, 링크 레이어 패킷으로 인캡슐레이션할 수도 있다. 링크 레이어 프로토콜의 사용으로 인해 피지컬 레이어 상에서 데이터의 전송에 대한 오버헤드가 크게 감소할 수 있으며, 본 발명에 따른 링크 레이어 프로토콜은 IP 오버헤드 리덕션 및/또는 MPEG-2 TS 오버헤드 리덕션을 제공할 수 있다.

도시된, IP 패킷이 입력패킷으로 입력되는 경우에 있어서(t6010), 링크 레이어는 IP 헤더 압축, 어댑테이션 및/또는 인캡슐레이션 과정을 차례로 수행할 수 있다. 실시예에 따라 일부 과정은 생략될 수 있다. 먼저, RoHC 모듈이 IP 패킷 헤더 압축을 수행하여 불필요한 오버헤드를 줄이고, 어댑테이션 과정을 통해 컨텍스트 정보가 추출되고 대역 외로 전송될 수 있다. IP 헤더 압축과 어댑테이션 과정을 통칭하여 IP 헤더 압축이라 부를 수도 있다. 이 후 인캡슐레이션 과정을 통해 IP 패킷들이 링크 레이어 패킷들로 인캡슐레이션될 수 있다.

MPEG 2 TS 패킷이 입력패킷으로 입력되는 경우에 있어서, 링크 레이어는 TS 패킷에 대한 오버헤드 리덕션 및/또는 인캡슐레이션 과정을 차례로 수행할 수 있다. 실시예에 따라 일부 과정은 생략될 수 있다. 오버헤드 리덕션에 있어, 링크 레이어는 싱크 바이트 제거, 널 패킷 삭제 및/또는 공통(common) 헤더 제거 (압축)을 제공할 수 있다. 싱크 바이트 제거를 통해 TS 패킷당 1 바이트의 오버헤드 리덕션이 제공될 수 있다. 수신측에서 재삽입될 수 있는 방식으로 널 패킷 삭제가 수행될 수 있다. 또한 연속된 헤더들 간의 공통되는 정보들이 수신측에서 복구될 수 있는 방식으로 삭제(압축)될 수 있다. 각 오버헤드 리덕션 과정 중 일부는 생략될 수 있다. 이 후 인캡슐레이션 과정을 통해 TS 패킷들이 링크 레이어 패킷들로 인캡슐레이션될 수 있다. TS 패킷의 인캡슐레이션에 대한 링크 레이어 패킷 구조는 다른 타입의 패킷들과는 다를 수 있다.

먼저 IP 헤더 압축(IP Header Compression) 에 대해서 설명한다.

IP 패킷은 고정된 헤더 포맷을 가지고 있으나, 통신 환경에서 필요한 일부 정보는 브로드캐스트 환경에서 불필요할 수 있다. 링크 레이어 프로토콜은 IP 패킷의 헤더를 압축함으로써 브로드캐스트 오버헤드를 줄이는 메커니즘을 제공할 수 있다.

IP 헤더 압축은 헤더 컴프레서/디컴프레서 및/또는 어댑테이션 모듈을 포함할 수 있다. IP 헤더 컴프레서(RoHC 컴프레서)는 RoHC 방식에 기초하여 각 IP 패킷 헤더의 크기를 감소시킬 수 있다. 이 후 어댑테이션 모듈은 컨텍스트 정보를 추출하고 각 패킷 스트림으로부터 시그널링 정보를 생성할 수 있다. 수신기는 해당 패킷 스트림에 관련된 시그널링 정보를 파싱하고 컨텍스트 정보를 그 패킷 스트림에 붙일(attach) 수 있다. RoHC 디컴프레서는 패킷 헤더를 복구하여 원래의 IP 패킷을 재구성할 수 있다. 이하, IP 헤더 압축이란, 헤더 컴프레서에 의한 IP 헤더 압축만을 의미할 수도 있고, IP 헤더 압축과 어댑테이션 모듈에 의한 어댑테이션 과정을 합한 개념을 의미할 수도 있다. 디컴프레싱(decompressing) 에 대해서도 마찬가지이다.

이하, 어댑테이션(Adaptation) 에 대해서 설명한다.

단방향 링크를 통한 전송의 경우, 수신기가 컨텍스트의 정보를 갖고 있지 않으면, 디컴프레서는 완전한 컨텍스트를 수신할 때까지 수신된 패킷 헤더를 복구할 수 없다. 이는 채널 변경 지연 및 턴 온 딜레이 (turn-on delay)를 초래할 수 있다. 따라서 어댑테이션 기능을 통해, 컴프레서/디컴프레서 간의 컨피규레이션 파라미터와 컨텍스트 정보가 대역 외로 전송될 수 있다. 어댑테이션 펑션(function)은 컨텍스트 정보 및/또는 컨피규레이션 파라미터들을 이용하여 링크 레이어 시그널링을 생성(construction) 할 수 있다. 어댑테이션 펑션은 예전(previous) 컨피규레이션 파라미터 및/또는 컨텍스트 정보를 이용하여 각각의 피지컬 프레임을 통해 주기적으로 링크 레이어 시그널링을 전송할 수 있다.

압축된 IP 패킷들로부터 컨텍스트 정보가 추출되는데, 어댑테이션 모드에 따라 다양한 방법이 사용될 수 있다.

모드 #1 은 압축된 패킷 스트림에 대해 어떠한 동작도 수행하지 않는 모드로서, 어댑테이션 모듈이 버퍼로서 동작하는 모드일 수 있다.

모드 #2 는 압축된 패킷 스트림 중, IR 패킷을 검출하여 컨텍스트 정보(스태틱 체인)을 추출하는 모드일 수 있다. 추출후 IR 패킷은 IR-DYN 패킷으로 전환되고, IR-DYN 패킷은 원래의 IR 패킷을 대체하여 패킷 스트림 내에서 같은 순서로 전송될 수 있다.

모드 #3 (t6020) 는 압축된 패킷 스트림 중, IR 및 IR-DYN 패킷을 검출하고 컨텍스트 정보를 추출하는 모드일 수 있다. IR 패킷으로부터 스태틱 체인 및 다이나믹 체인이, IR-DYN 패킷으로부터 다이나믹 체인이 추출될 수 있다. 추출후 IR 및 IR-DYN 패킷은 일반 압축 패킷으로 전환될 수 있다. 전환된 패킷은 원래의 IR 및 IR-DYN 패킷을 대체하여 패킷 스트림 내에서 같은 순서로 전송될 수 있다.

각 모드에서, 컨텍스트 정보가 추출되고 남은 패킷들은, 압축된 IP 패킷을 위한 링크 레이어 패킷 구조에 따라 인캡슐레이션 되어 전송될 수 있다. 컨텍스트 정보들은, 링크 레이어 시그널링으로서, 시그널링 정보를 위한 링크 레이어 패킷 구조에 따라 인캡슐레이션 되어 전송될 수 있다.

추출된 컨텍스트 정보는 RDT (RoHC-U Description Table) 에 포함되어 RoHC 패킷 플로우와 별도로 전송될 수 있다. 컨텍스트 정보는 다른 시그널링 정보와 함께 특정(specific) 피지컬 데이터 경로를 통해 전송될 수 있다. 특정 피지컬 데이터 경로란, 실시예에 따라, 일반적인 PLP 중 하나를 의미할 수도 있고, LLS (Low Level Signaling) 이 전달되는 PLP 를 의미할 수도 있고, 지정된(dedicated) PLP 일 수도 있고, L1 시그널링 패쓰(path)를 의미할 수도 있다. 여기서 RDT 는 컨텍스트 정보(스태틱 체인 및/또는 다이나믹 체인) 및/또는 헤더 컴프레션과 관련된 정보를 포함하는 시그널링 정보일 수 있다. 실시예에 따라 RDT 는 컨텍스트 정보가 바뀔 때마다 전송될 수 있다. 또한 실시예에 따라 RDT 는 매 피지컬 프레임에서 전송될 수 있다. 매 피지컬 프레임에서 RDT 를 전송하기 위해서, 예전(previous) RDT 가 재사용(re-use)될 수 있다.

수신기는 패킷 스트림을 획득하기 앞서, 최초 PLP 를 선택해 SLT, RDT, LMT 등의 시그널링 정보를 먼저 획득할 수 있다. 수신기는 이 시그널링 정보들이 획득되면, 이 들을 조합하여 서비스 - IP 정보 - 컨텍스트 정보 - PLP 간의 매핑을 획득할 수 있다. 즉, 수신기는 어떤 서비스가 어느 IP 스트림들로 전송되는지, 어떤 PLP 로 어떤 IP 스트림들이 전달되는지 등을 알 수 있고, 또한 PLP 들의 해당 컨텍스트 정보들을 획득할 수 있다. 수신기는 특정 패킷 스트림을 운반하는 PLP 를 선택하여 디코딩 할 수 있다. 어댑테이션 모듈은 컨텍스트 정보를 파싱하고 이를 압축된 패킷들과 합칠 수 있다. 이를 통해 패킷 스트림이 복구될 수 있고, 이는 RoHC 디컴프레서로 전달될 수 있다. 이후 디컴프레션이 시작될 수 있다. 이 때 수신기는 어댑테이션 모드에 따라, IR 패킷을 디텍팅하여 최초 수신된 IR 패킷으로부터 디컴프레션을 시작하거나(모드 1), IR-DYN 패킷을 디텍팅하여 최초 수신된 IR-DYN 패킷으로부터 디컴프레션을 시작하거나(모드 2), 아무 일반 압축 패킷(compressed packet)으로부터 디컴프레션을 시작할 수 있다(모드 3).

이하, 패킷 인캡슐레이션에 대해서 설명한다.

링크 레이어 프로토콜은 IP 패킷, TS 패킷 등의 모든 타입의 인풋 패킷들을 링크 레이어 패킷으로인캡슐레이션할 수 있다. 이를 통해 피지컬 레이어는 네트워크 레이어의 프로토콜 타입과는 독립적으로 하나의 패킷 포맷만 처리하면 된다(여기서 네트워크 레이어 패킷의 일종으로 MPEG-2 TS 패킷을 고려). 각 네트워크 레이어 패킷 또는 입력 패킷은 제네릭 링크 레이어 패킷의 페이로드로 변형된다.

패킷 인캡슐레이션 과정에서 분할(segmentation) 이 활용될 수 있다. 네트워크 레이어 패킷이 지나치게 커서 피지컬 레이어에서 처리하지 못하는 경우, 네트워크 레이어 패킷은 두 개 이상의 세그먼트들로 나누어질 수 있다. 링크 레이어 패킷 헤더는 송신 측에서 분할을 실행하고 수신 측에서 재결합을 실행하기 위한 필드들을 포함할 수 있다. 각 세그먼트들은 원래 위치와 같은 순서로 링크 레이어 패킷으로 인캡슐레이션될 수 있다.

패킷 인캡슐레이션 과정에서 연쇄(concatenation) 또한 활용될 수 있다. 링크 레이어 패킷의 페이로드가 여러 네트워크 레이어 패킷을 포함할 정도로 네트워크 레이어 패킷이 충분히 작은 경우, 연쇄가 수행될 수 있다. 링크 레이어 패킷 헤더는 연쇄를 실행하기 위한 필드들을 포함할 수 있다. 연쇄의 경우 각 입력 패킷들은 원래의 입력 순서와 같은 순서로 링크 레이어 패킷의 페이로드로 인캡슐레이션될 수 있다.

링크 레이어 패킷은 헤더와 페이로드를 포함할 수 있고, 헤더는 베이스 헤더, 추가(additional) 헤더 및/또는 옵셔널 헤더가 포함될 수 있다. 추가 헤더는 연쇄나 분할 등의 상황에 따라 더 추가될 수 있는데, 추가헤더에는 상황에 맞춘 필요한 필드들이 포함될 수 있다. 또한 추가적인 정보의 전달을 위해 옵셔널 헤더가 더 추가될 수도 있다. 각각의 헤더 구조는 기 정의되어 있을 수 있다. 전술한 바와 같이 입력 패킷이 TS 패킷인 경우에는, 다른 패킷들과는 다른 링크 레이어 헤더 구조가 사용될 수 있다.

이하, 링크 레이어 시그널링에 대해서 설명한다.

링크 레이어 시그널링은 IP 레이어보다 하위 레벨에서 동작할 수 있다. 수신측에서는 LLS, SLT, SLS 등의 IP 레벨 시그널링보다, 링크 레이어 시그널링을 더 빠르게 획득할 수 있다. 따라서 링크 레이어 시그널링은 세션 설정(establishment) 이전에 획득될 수 있다.

링크 레이어 시그널링에는 인터널 링크 레이어 시그널링과 익스터널 링크 레이어 시그널링이 있을 수 있다. 인터널 링크 레이어 시그널링은 링크 레이어에서 생성된 시그널링 정보일 수 있다. 전술한 RDT 나 후술할 LMT 등이 여기에 해당할 수 있다. 익스터널 링크 레이어 시그널링은 외부 모듈 또는 외부 프로토콜, 상위 레이어로부터 전달받은 시그널링 정보일 수 있다. 링크 레이어는 링크 레이어 시그널링을 링크 레이어 패킷으로 인캡슐레이션하여 전달할 수 있다. 링크 레이어 시그널링을 위한 링크 레이어 패킷 구조(헤더 구조)가 정의될 수 있는데, 이 구조에 따라 링크 레이어 시그널링 정보가 인캡슐레이션될 수 있다.

도 7 은 본 발명의 일 실시예에 따른 LMT (Link Mapping Table) 를 도시한 도면이다.

LMT 는 PLP 로 운반되는 상위 레이어 세션들의 리스트를 제공할 수 있다. 또한 LMT 는 상위 레이어 세션들을 전달하는 링크 레이어 패킷들을 프로세싱하기 위한 추가적인 정보들을 제공할 수 있다. 여기서 상위 레이어 세션은 멀티캐스트(multicast) 라고 불릴 수도 있다. LMT 를 통해 특정 PLP 를 통해 어떠한 IP 스트림들, 어떠한 전송 세션들이 전송되고 있는지에 대한정보가 획득될 수 있다. 반대로 특정 전송 세션이 어느 PLP 로 전달되는지에 대한 정보를 획득할 수 있다.

LMT 는 LLS 를 운반하는 것으로 식별된 어떤 PLP 로도 전달될 수 있다. 여기서 LLS 가 전달되는 PLP 는 피지컬 레이어의 L1 디테일 시그널링 정보의 LLS 플래그에 의해 식별될 수 있다. LLS 플래그는 각각의 PLP 에 대하여, 해당 PLP 로 LLS 가 전달되는지 여부를 지시하는 플래그 필드일 수 있다. 여기서 L1 디테일 시그널링 정보는 후술할 PLS2 데이터에 해당할 수 있다.

즉, LMT 는 LLS 와 함께, 같은 PLP 로 전달될 수 있다. 각각의 LMT 들은 전술한 바와 같이 PLP 들과 IP 어드레스/포트간의 매핑을 기술할 수 있다. 전술한 바와 같이 LLS 는 SLT 를 포함할 수 있는데, LMT 가 기술하는 이 IP 어드레스/포트들은, 해당 LMT 와 같은 PLP 로 전달되는 SLT 가 기술하는, 모든(any) 서비스와 관련된 모든(any) IP 어드레스/포트들일 수 있다.

실시예에 따라 전술한 SLT, SLS 등에서의 PLP 식별자 정보가 활용되어, SLT, SLS 가 지시하는 특정전송 세션이 어느 PLP 로 전송되고 있는지에 대한 정보가 확인될 수 있다.

다른 실시예에 따라 전술한 SLT, SLS 등에서의 PLP 식별자 정보는 생략되고, SLT, SLS 가 지시하는 특정 전송 세션에 대한 PLP 정보는 LMT 내의 정보를 참조함으로써 확인될 수 있다. 이 경우 수신기는 LMT 와 다른 IP 레벨 시그널링 정보들을 조합하여, 알고자 하는 PLP 를 식별할 수 있다. 이 실시예에 있어서도 SLT, SLS 등에서의 PLP 정보는 생략되지 않고, SLT, SLS 등에 남아있을 수 있다.

도시된 실시예에 따른 LMT 는, signaling_type 필드, PLP_ID 필드, num_session 필드 및/또는 각각의 세션들에 대한 정보들을 포함할 수 있다. 도시된 실시예의 LMT 는 하나의 PLP 에 대해서, 그 PLP 로 전송되는 IP 스트림들을 기술하고 있지만, 실시예에 따라 LMT 에 PLP 루프가 추가되어, 복수개의 PLP 에 대한 정보가 기술될 수도 있다. 이 경우 LMT 는, 전술한 바와 같이, 함께 전달되는 SLT 가 기술하는 모든 서비스와 관련된 모든 IP 어드레스/포트들에 대한 PLP 들을, PLP 루프로 기술할 수 있다.

signaling_type 필드는 해당 테이블에 의해 전달되는 시그널링 정보의 타입을 지시할 수 있다. LMT 에 대한 signaling_type 필드의 값은 0x01로 설정될 수 있다. signaling_type 필드는 생략될 수 있다. PLP_ID 필드는 기술하고자 하는 대상 PLP 를 식별할 수 있다. PLP 루프가 사용되는 경우, 각각의 PLP_ID 필드는 각각의 대상 PLP 를 식별할 수 있다. PLP_ID 필드부터는 PLP 루프 내에 포함될 수 있다. 이하 언급되는 PLP_ID 필드는 PLP 루프 중의 PLP 하나에 대한 식별자이며, 이하 설명되는 필드들은 그 해당 PLP 에 대한 필드들일 수 있다.

num_session 필드는 해당 PLP_ID 필드에 의해 식별되는 PLP 로 전달되는 상위 레이어 세션들의 개수를 나타낼 수 있다. num_session 필드가 나타내는 개수에 따라, 각각의 세션들에 대한 정보들이 포함될 수 있다. 이정보에는 src_IP_add 필드, dst_IP_add 필드, src_UDP_port 필드, dst_UDP_port 필드, SID_flag 필드, compressed_flag 필드, SID 필드 및/또는 context_id 필드가 있을 수 있다.

src_IP_add 필드, dst_IP_add 필드, src_UDP_port 필드 및 dst_UDP_port 필드는 해당 PLP_ID 필드에 의해 식별되는 PLP 로 전달되는 상위 레이어 세션들 중, 해당 전송 세션에 대한 소스 IP 어드레스, 데스티네이션 IP 어드레스, 소스 UDP 포트, 데스티네이션 UDP 포트를 나타낼 수 있다.

SID_flag 필드는 해당 전송 세션을 전달하는 링크 레이어 패킷이 그 옵셔널 헤더에 SID 필드를 갖는지 여부를 지시할 수 있다. 상위 레이어 세션을 전달하는 링크 레이어 패킷은 그 옵셔널 헤더에 SID 필드를 가질 수 있고, 그 SID 필드 값은 후술할 LMT 내의 SID 필드와 동일할 수 있다.

compressed_flag 필드는 해당 전송 세션을 전달하는 링크 레이어 패킷의 데이터들에 헤더 컴프레션이 적용되었는지 여부를 지시할 수 있다. 또한 본 필드의 값에 따라 후술할 context_id 필드의 존부가 결정될 수 있다. 헤더 컴프레션이 적용된 경우(compressed_flag = 1), RDT 가 존재할 수 있고, 그 RDT 의 PLP ID 필드는 본 compressed_flag 필드와 관련된 해당 PLP_ID 필드와 같은 값을 가질 수 있다.

SID 필드는 해당 전송 세션을 전달하는 링크 레이어 패킷들에 대한 SID (sub stream ID) 를 지시할 수 있다. 이 링크 레이어 패킷들은, 그 옵셔널 헤더에 본 SID 필드와 같은 값을 가지는 SID 를 포함하고 있을 수 있다. 이를 통해 수신기는 링크 레이어 패킷을 전부 파싱할 필요 없이, LMT 의 정보와 링크 레이어 패킷 헤더의 SID 정보를 이용하여, 링크 레이어 패킷들을 필터링할 수 있다.

context_id 필드는 RDT 내의 CID(context id) 에 대한 레퍼런스를 제공할 수 있다. RDT 의 CID 정보는 해당되는 압축 IP 패킷 스트림에 대한 컨텍스트 ID 를 나타낼 수 있다. RDT 는 해당 압축 IP 패킷 스트림에 대한 컨텍스트 정보들을 제공할 수 있다. 본 필드를 통해 RDT 와 LMT 가 연관될 수 있다.

전술한, 본 발명의 시그널링 정보/테이블의 실시예들에 있어서, 각각의 필드, 엘레멘트, 속성들은 생략되거나 다른 필드로 대체될 수 있으며, 실시예에 따라 추가적인 필드, 엘레멘트, 속성들이 추가될 수도 있다.

본 발명의 일 실시예에서, 한 서비스의 서비스 컴포넌트들이 복수개의 ROUTE 세션을 통해 전달될 수 있다. 이 경우, SLT 의 부트스트랩 정보를 통하여 SLS 가 획득될 수 있다. 이 SLS 의 USBD 를 통해 S-TSID 와 MPD 가 레퍼런싱될 수 있다. S-TSID 는 SLS 가 전달되고 있는 ROUTE 세션 뿐 아니라, 서비스 컴포넌트들이 전달되고 있는 다른 ROUTE 세션에 대한 전송 세션 디스크립션 정보 또한 기술할 수 있다. 이를 통해 복수개의 ROUTE 세션을 통해 전달되는 서비스 컴포넌트들이 모두 수집될 수 있다. 이러한 사항은 한 서비스의 서비스 컴포넌트들이 복수개의 MMTP 세션을 통해 전달되는 경우에도 유사하게 적용될 수 있다. 참고로, 하나의 서비스 컴포넌트는 복수개의 서비스에 의해 동시에 사용될 수도 있다.

본 발명의 또 다른 실시예에서, ESG 서비스에 대한 부트스트래핑은 방송망 또는 브로드밴드에 의해 수행될 수 있다. 브로드밴드를 통한 ESG 획득을 통해, SLT 의 URL 정보가 활용될 수 있다. 이 URL 로 ESG 정보 등이 요청될 수 있다.

본 발명의 또 다른 실시예에서, 한 서비스의 서비스 컴포넌트가 하나는 방송망으로 하나는 브로드밴드로 전달될 수 있다(하이브리드). S-TSID 는 방송망으로 전달되는 컴포넌트들에 대해 기술해, ROUTE 클라이언트가 원하는 서비스 컴포넌트들을 획득케 할 수 있다. 또한 USBD 는 베이스 패턴 정보를 가지고 있어, 어느 세그먼트들이(어느 컴포넌트들이) 어느 경로로 전달되는지 기술할 수 있다. 따라서 수신기는 이를 이용해, 브로드밴드 서버로 요청해야될 세그먼트는 무엇인지, 방송 스트림에서 찾아야될 세그먼트는 무엇인지 알 수 있다.

본 발명의 또 다른 실시예에서, 서비스에 대한 스케일러블(scalable) 코딩이 수행될 수 있다. USBD 는 해당 서비스를 렌더링하기 위해 필요한 모든 캐패빌리티 정보를 가질 수 있다. 예를 들어 한 서비스가 HD 또는 UHD 로 제공되는 경우, USBD 의 캐패빌리티 정보는 "HD 또는 UHD" 값을 가질 수 있다. 수신기는 MPD 를 이용하여 UHD 또는 HD 서비스를 렌더링하기 위하여 어느 컴포넌트가 재생되어야 하는지 알 수 있다.

본 발명의 또 다른 실시예에서, SLS 를 전달하는 LCT 채널로 전달되는 LCT 패킷들의 TOI 필드를 통해, 해당 LCT 패킷들이 어느 SLS 프래그먼트를 전달하고 있는지(USBD, S-TSID, MPD 등..) 가 식별될 수 있다.

본 발명의 또 다른 실시예에서, 앱 기반 인핸스먼트/ 앱 기반 서비스에 사용될 앱 컴포넌트들은 NRT 컴포넌트로서 방송망을 통해 전달되거나 브로드밴드를 통해 전달될 수 있다. 또한 앱 기반 인핸스먼트에 대한 앱 시그널링은 SLS 와 함께 전달되는 AST (Application Signaling Table) 에 의해 수행될 수 있다. 또한 앱이 수행할 동작에 대한 시그널링인 이벤트는 SLS 와 함께 EMT (Event Message Table) 형태로 전달되거나, MPD 내에 시그널링되거나, DASH 레프리젠테이션 내에 box 형태로 인밴드(in-band) 시그널링될 수 있다. AST, EMT 등은 브로드밴드를 통해 전달될 수도 있다. 수집된 앱 컴포넌트들과 이러한 시그널링 정보들을 이용해 앱 기반 인핸스먼트 등이 제공될 수 있다.

본 발명의 또 다른 실시예에서, 긴급 경보를 위해 CAP 메시지가 전술한 LLS 테이블에 포함되어 제공될 수 있다. 긴급 경보를 위한 리치 미디어(Rich Media) 컨텐츠 역시 제공될 수 있다. 리치 미디어는 CAP 메시지에 의해 시그널링될 수 있으며, 리치 미디어가 존재하는 경우 이는 SLT 에 의해 시그널링되는 EAS 서비스로서 제공될 수 있다.

본 발명의 또 다른 실시예에서, MMT 프로토콜에 따라 리니어 서비스 컴포넌트들이 방송망을 통해 전달될 수 있다. 이 경우 해당 서비스에 대한 NRT 데이터(예를 들어 앱 컴포넌트)들은 ROUTE 프로토콜에 따라 방송망을 통해 전달될 수 있다. 또한 해당 서비스에 대한 데이터가 브로드밴드를 통해 전달될 수도 있다. 수신기는 SLT 의 부트스트랩 정보를 이용해 SLS 를 전달하는 MMTP 세션에 접근할 수 있다. MMT 에 따른 SLS 의 USBD 는 MP 테이블을 레퍼런싱하여, 수신기가 MMT 프로토콜에 따라 전달되는 MPU 로 포맷된 리니어 서비스 컴포넌트들을 획득케 할 수 있다. 또한, USBD 는 S-TSID 를 더 레퍼런싱하여, 수신기가 ROUTE 프로토콜에 따라 전달되는 NRT 데이터를 획득케 할 수 있다. 또한, USBD 는 MPD 를 더 레퍼런싱하여, 브로드밴드를 통해 전달되는 데이터에 대한 재생 디스크립션을 제공할 수 있다.

본 발명의 또 다른 실시예에서, 수신기는 그 컴패니언 디바이스에 스트리밍 컴포넌트 및/또는 파일 컨텐트 아이템(파일 등)을 획득할 수 있는 로케이션 URL 정보를, 웹소켓 등의 방법을 통해 전달할 수 있다. 컴패니언 디바이스의 어플리케이션은 이 URL 로 HTTP GET 등을 통해 요청하여 해당 컴포넌트, 데이터 등을 획득할 수 있다. 그 밖에 수신기는 시스템 타임 정보, 긴급 경보 정보 등의 정보를 컴패니언 디바이스 측에 전달할 수 있다.

도 8은 비디오 영상을 송수신하기 위해 소스 디바이스와 싱크 디바이스가 연결된 예를 나타낸 도면이다. 이 도면에서 영상의 디코딩과 화질 처리가 가능한 소스 디바이스와 영상의 출력이 가능한 싱크 디바이스의 정보 교환은 다음과 같다.

소스 디바이스(100)는 방송, 블루레이(Blu-ray), UV(Ultra Violet), SCSA(Secure Content Storage Association) 등의 저장매체, IP (internet protocol) 스트리밍 등 다양한 경로로 들어오는 영상에 대해 복호화(decoding)하는 기기 또는 화질처리를 위한 비디오 프로세싱이 가능한 기기를 총칭한다. 예를 들면 셋탑박스, 블루레이 디스크(BD) 플레이어와 같은 저장매체의 플레이어, 컴퓨터 등이 이에 해당한다.

소스 디바이스(100)의 비디오 프로세싱은 WCG(Wide color gamut) 또는 HDR(high dynamic range) 또는 기타 포스트 프로세싱(post processing) 등의 화질을 변화시키는 방식이 포함될 수 있다. 이 경우 영상에 대해 일괄적으로 비디오 프로세싱을 하는 것이 아니라 싱크 디바이스가 제공하는 디스플레이 정보, 예를 들면 컬러 개멋(color gamut) 정보 또는 다이나믹 레인지(dynamic range) 정보 등에 기초하여 해당 비디오 소스가 디스플레이 기기에서 재생가능한지 판단하고 필요한 경우 재생에 재생하기 적합한 화질로 변환하여 제공한다.

또한 소스 디바이스(100)의 영상처리 과정을 싱크 디바이스(200)에서 컨트롤 할 필요가 있는 경우 이에 대한 정보를 제공하여 소스 디바이스(100)에서 어떤 영상 처리 과정이 사용되었는지에 대한 정보를 제공 받을 수 있다.

소스 디바이스(100)는 싱크 디바이스(200)로부터 디스플레이 관련 메타 정보 또는 디스플레이 옵션 정보를 수신할 수 있다. 그리고, 수신된 정보를 기반으로 소스 디바이스(100)는 싱크 디바이스(200)에 UHD 비디오 메타데이터와 프로세싱된 비디오의 프로세싱 옵션정보를 제공할 수 있다. 싱크 디바이스(200)는 이를 소스 디바이스(100)가 제공한 데이터나 정보를 기초로 소스 디바이스(100)가 프로세싱한 비디오를 표출할 수 있다. 싱크 디바이스(200)는 해당 디스플레이에 맞는 컬러 개멋 정보나 다이나믹 레인지 범위 내에서 소스 디바이스(100)가 프로세싱한 비디오를 표출할 수 있다.

도 9는 본 발명에 실시예에 따라 소스 디바이스가 싱크 디바이스와 연결된 경우 정보를 송수신하는 실시예를 나타낸 도면이다.

이 예는 소스 디바이스가 싱크 디바이스와 HDMI 또는 Display Port와 같은 유선 인터페이스와 연결될 경우를 나타낸다. 이 예는, Source Device와 Sink Device가 유선 인터페이스로 연결되어 있을 시, EDID (Extended Display Identification Data)의 HDR(High Dynamic Range)의 데이터 블록을 통해 Sink Device(200)에서 Source Device(100)의 HDR 및 WCG 기능을 제어(Activation or Deactivation)하고, 이를 이용해 Source Device가 Sink Device의 변경된 EDID를 읽어오는 실시예를 예시한다.

Source Device가 Sink Device에 유선 인터페이스로 연결되면 Source Device는 해당 유선 인터페이스의 +5V power line에 high level 전압을 인가하고 Sink Device는 이를 통해 Source Device가 연결됨을 확인한다 (S1).

Sink Device는 low level 전압으로 유지되고 있는 Hot Plug Detect line에 high level 전압을 인가함으로써 Source Device에 Sink Device와 연결 완료 및 EDID와 같은 디스플레이 관련 정보(이하 디스플레이 관련 정보)를 읽을 준비가 되었음을 소스 디바이스에 알려준다(S2).

Source Device는, Hot Plug Detect line이 high level로 천이됨을 확인하고 Display Data Channel을 통해 디스플레이 관련 정보에 대한 읽기 요청을 Sink Device에게 하고 (S3), Sink Device는 디스플레이 관련 정보를 Display Data Channel을 통해 Source Device에 전송한다(S4).

Sink Device에서 사용자의 요청에 의해 Signaling 되거나 혹은 Sink Device의 기능적 판단에 의해 디스플레이 관련 정보의 HDR Data Block 의 Control option flag에 해당 field가 변경되면(S5), Sink Device는 Source Device에 디스플레이 관련 정보의 update된 정보를 알려주기 위해 Hot Plug Detect line에 low level 전압을 인가하고 이 전압을 일정시간, 예를 들면 최소 100ms 동안 유지한다(S6).

소스 디바이스에서 디스플레이 관련 정보 읽기가 가능해지면 Sink Device는 Hot Plug line에 high level 전압을 인가하고(S7) Source Device는 이를 감지하고 Display Data Channel을 통해 디스플레이 관련 정보 읽기 요청을 한다(S8). 그리고 Sink Device는 Display Data Channel을 통해 변경된 디스플레이 관련 정보를 송신한다(S9).

이러한 동작을 기초로 본 발명의 실시예에 대한 소스 디바이스와 싱크 디바이스 간의 정보 교환의 예를 설명하면 다음과 같다.

본 발명의 실시예에 따르면 위에서 설명한 S3 또는 S8의 요청에 대한 응답으로, 싱크 디바이스는 컬러 개멋(color gamut) 정보 및 밝기(brightness) 정보를 소스 디바이스에 전달할 수 있다 (S4 또는 S9에 포함).

Color gamut 정보는 RGBW에 해당하는 색 공간인 CIE xy diagram 상의 color primary 좌표 혹은 BT. 709 또는 BT. 2020 등의 컬러 개멋(color gamut) 정보를 포함할 수 있다. 이 정보는 인터페이스에서 정의되어 있는 DisplayID의 color characteristics data block 등을 통해 전달될 수 있다. 밝기(brightness) 관련 정보는 최대 밝기 또는 최소 밝기 값을 포함할 수 있고, 실시예에서 개시하는 예에 따르면 인터페이스의 DisplayID, EDID, 또는 EDID extension 정보 등에 정의된 datablock을 이용하여 전달될 수 있다.

그러면, 소스 디바이스는 전달된 디스플레이 관련 정보를 바탕으로 비디오의 색상 또는 밝기 정보를 조정할 필요가 있는지 판단한다. 만약 소스 디바이스가 색상 또는 밝기 조정이 필요하다고 판단되는 경우 비디오에서 제공하는 컬러 매핑(color mapping) 혹은 다이나믹 레인지 매핑(dynamic range mapping) 정보를 기반으로 변환하거나, 소스 디바이스 자체적으로 비디오의 색상 또는 밝기 정보를 제공하는 방법을 사용할 수도 있다.

소스 디바이스는 이렇게 조정된 최종 영상을 싱크 디바이스에 전달한다. 이 때, 최종 비디오에 대한 컬러 개멋(color gamut) 또는 다이나믹 레인지(dynamic range) 관련 metadata를 인터페이스의 InfoFrame을 통해 전달할 수 있다. 컬러 개멋(Color gamut) 정보의 경우 인터페이스의 AVI infoFrame 에서 기존에 정의하고 있는 color gamut 정보(예를 들면 BT. 709, BT. 2020 등) 를 이용하여 전달할 수 있다. 다이나믹 레인지(dynamic range) 관련 정보는 최대 또는 최소 밝기 정보를 전달할 수 있으며, 실시예들에서 기술하는 방법을 통해 새로운 InfoFrame을 정의하거나 AVI InfoFrame을 확장하는 방법을 통해 전달할 수 있다.

소스 디바이스가 최종 영상을 전달할 때 소스 디바이스에서 처리된 video processing에 대한 정보를 제공할 필요가 있는 경우, 실시예들에서 기술하는 방법을 통해 InfoFrame 내 post_processing_type를 이용하여 HDR 정보 또는 WCG 정보와 같은 video processing unit의 처리 정보를 전달할 수 있다. 또한, 최종 영상에 대해 HDR 정보와 관련하여 새로운 EOTF(electro-optical transfer function)와 같은 색 변환 함수 정보가 정의되어 사용되었거나, 사용될 필요가 있는 경우 새로운 색 변환 함수 정보에 대한 정보를 인터페이스 정보의 flag 등을 이용하여 전달할 수 있다.

최종 처리된 영상에 대해 싱크 디바이스는 소스 디바이스의 처리가 적절한지 판단하고, 이에 대한 feedback을 통해 소스 디바이스의 제어가 필요한지 판단할 수 있다. 이 경우 실시예들에서 기술하는 DisplayID, EDID, EDID extension 정보 등에 정의된 데이터블록(datablock)내의 Control Option Flag를 통해 이를 제어할 수 있다. 만약 WCG 정보 또는 HDR 정보 등 소스 디바이스의 비디오 프로세싱(video processing)에서 처리된 결과가 적절한 경우 싱크 디바이스는 WCG 정보 또는 HDR 정보와 관련된 비트를 활성화(on) 시켜 동일한 처리가 계속되도록 제어할 수 있다.

처리가 부적절한 경우 싱크 디바이스는 WCG 정보 또는 HDR 정보와 관련 비트를 비활성화(off) 시킴으로써 소스 디바이스에서 현재 수행중인 video processing을 사용하지 않도록 제어할 수 있다.

싱크 디바이스는, Control Option Flag 를 통해 전달된 정보가 현재 소스 디바이스에서 처리 중인 video processing과 다른 경우 Control Option Flag 에 있는 정보를 기준으로 video processing을 변경한다. 변경된 비디오 처리와 관련하여 UHD video metadata가 변경되는 경우 InfoFrame 내 컬러 특성(color characteristics) 정보 및 밝기(brightness) 정보를 변경하며, 포스트 프로세싱 타입(post_processing_type)을 변경한 video processing 과정에 맞게 업데이트할 수 있다. 그리고 S5의 과정이 수행된다.

이하에서는 싱크 디바이스가 소스 디바이스에 전달되는 정보를 예시한다.

본 발명의 실시예에 따르면 소스 디바이스가 HDR 관련 정보를 처리하는 경우, 싱크 디바이스가 재생 가능한 정보를 기반으로 소스 디바이스는 싱크 디바이스에 적합한 영상 처리를 수행할 수 있다. 이 경우 싱크 디바이스는 display 밝기 범위에 대한 적절한 정보, 예를 들면 Sink Black Luminance Level, Sink White Luminance Level, 및 소스 디바이스의 post processing을 control 할 수 있는 flag 등을 소스 디바이스에 전달할 수 있다. 이 경우 DisplayID, EDID, 혹은 EDID extension 의 data block을 이용할 수 있는데, 이에 대해 상세한 예를 개시하면 다음과 같다.

도 10은 본 발명의 실시예에 따라 싱크 디바이스가 소스 디바이스로 전달하는 정보의 일 예를 나타낸 도면이다.

이 도면은 DisplayID의 Data Block을 이용하여 소스 디바이스가 싱크 디바이스로 전달하는 정보의 예를 나타낸다.

이 도면은, DisplayID의 Data Block의 offset 필드, value 필드, 및 그에 대한 description과 포맷을 예시한다. 예를 들면 DisplayID의 Data Block의 offset필드가 0x00, value필드가 0x14인 경우, HDR 데이터 블록을 나타낼 수 있다.

이 도면에서 예시한 바와 같이 offset 필드가 0x03인 경우 소스 디바이스의 post processing을 control 할 수 있는 flag (control option flag)를 나타낼 수 있다. 이에 대한 상세한 value의 예는 후술한다.

그리고, offset 필드가 0x04 또는 0x05인 경우 싱크 디바이스 자체의 표현 가능한 밝기 값 (Sink Black Luminance Level, Sink White Luminance Level 등)에 대한 정보를 전달할 수 있다.

DisplayID의 Data Block은 추후 offset 필드값에 따라 비디오 처리에 필요한 정보들을 더 포함할 수 있다. 예를 들어 offset 필드가 0x03인 경우 현재의 reserved 필드 등을 이용하여 HDR 관련 post processing 관련 정보들을 전달할 수 있다.

여기서 offset 필드나 value 필드 값의 임의의 값으로서 변경이 가능하고, control option flag의 상세한 예와 싱크 디바이스의 디스플레이 정보에 대한 예는 이하에서 개시한다.

도 11은 본 발명의 실시예에 따라 싱크 디바이스가 소스 디바이스로 전달하는 정보의 일 예로서 위에서 개시한 실시예의 구체적인 필드 값을 예시한 도면이다.

싱크 디바이스가 소스 디바이스로 전달하는 정보로서 DisplayID의 Data Block의 Control option flag는 소스 디바이스가 수행하는 post processing 과정을 control (on/off) 하는 필드이다. 본 발명의 실시예에 따르면 이를 이용하여 소스/싱크 디바이스의 인터페이스 상에서 향후 제공될 다양한 옵션을 나타낼 수 있는데 여기서는 HDR, WCG 관련 옵션들을 개시하였다.

위에서 DisplayID의 Data Block의 offset 필드가 0x03인 경우 소스 디바이스를 제어할 수 있는 control option flag 정보임을 나타낼 수 있음을 개시하였다. Value 필드의 비트 위치에 따라 소스 디바이스의 HDR 프로세싱을 활성화시키거나, 소스 디바이스의 WCG 프로세싱을 활성화시킬 수 있다. 이 예에서는 하위 2개 비트로 이에 대한 정보를 각각 표현하였다.

본 실시예에서 개시된 필드는 사용자의 요청에 의해 시그널링되거나 혹은 싱크 디바이스의 기능적 판단에 의해 (싱크 디바이스의 처리 능력이 상위에 있는 경우 등) 제어될 수 있다. 본 발명의 실시예는 Reserved bit를 이용하여 FRC(Frame Rate Control)와, multi-layer video enhancement의 기능에 대해 싱크-소스 디바이스간 정보 교환을 수행할 수도 있다. 여기서 offset 필드나 value 필드 값의 임의의 값으로서 변경이 가능하다

도 12는 개시한 본 발명의 실시예에 따른 control option flag의 상세한 예를 예시한 도면이다.

control option flag를 나타내는 offset 필드의 value 필드의 하위 2개의 bit에 각각 소스 디바이스에서 이뤄지는 HDR, WCG 처리에 대한 control을 하도록 하는 정보를 설정할 수 있다. 두 개의 flag에 대한 조합에 의해 아래의 예시와 같이 사용할 수 있다.

이 예에서, value 필드가 00000000인 경우, Source device에서 아무런 처리를 하지 않음을 나타낸다. 예를 들어 value 필드가 10000000 인 경우, Source device의 HDR 처리에 대한 정보를 나타내는데, Source device에서 HDR 만을 처리하는 option을 나타낼 수 있다. 다른 예로서, value 필드가 01000000 인 경우, Source device의 WCG 처리에 대한 정보를 나타내고 Source device에서 WCG 만을 처리하는 option을 나타낼 수 있다.

다른 예로서, value 필드가 11000000 인 경우, Sink device에서 전달한 정보를 바탕으로 source device가 HDR 및 WCG에 대해 모두 처리하도록 하는 컨트롤 옵션 정보를 나타내고, 이 값이 초기 값으로 사용될 수 있다.

도 13은 기술한 본 발명의 실시예에 따른 Sink Device Dynamic Range 정보의 상세한 예를 예시한 도면이다.

개시한 것처럼 싱크 디바이스는 DisplayID의 Data Block를 이용하여 싱크 디바이스의 dynamic range 정보를 소스 디바이스에 전달하여 싱크 디바이스가 표현할 수 있는 밝기 정보 등을 소스 디바이스에 알려줄 수 있다.

싱크 디바이스의 dynamic range에 대한 정보는 sink device의 display에서 표현할 수 있는 dynamic range를 표현하기 위한 최대 및 최소 물리적 밝기 값 (nit 혹은 cd/m2 단위)를 지칭한다.

예를 들어 DisplayID의 Data Block의 offset 필드가 0x04 또는 0x05인 경우 이용하여 싱크 디바이스의 dynamic range 정보를 나타낸다.

이 예에서 DisplayID의 Data Block의 offset 필드가 0x04인 경우 하위 8비트보다 높은 8개비트를 이용해 싱크 디바이스의 가장 낮은 레벨의 밝기정보를 나타낼 수 있다.

DisplayID의 Data Block의 offset 필드가 0x05인 경우, value 필드의 최하위 1비트는 싱크 디바이스의 가장 낮은 레벨의 밝기정보를 나타내고, value 필드의 나머지 비트로 싱크 디바이스의 가장 높은 레벨의 밝기정보를 나타낼 수 있다.

여기서 offset 필드나 value 필드 값의 임의의 값으로서 변경이 가능하다

이 정보를 이용해 나타낼 수 있는 싱크 디바이스의 최소 밝기 정보(sink_black_luminance_level 로 표기), 및 최대 밝기 정보 (sink_white_luminance_level)는 아래와 같이 나타낼 수 있다.

예를 들어 싱크 디바이스의 최소 밝기 정보(sink_black_luminance_level)는 display에서 표현할 수 있는 최소 밝기를 나타내기 위한 값으로써, 일반적인 최저 밝기를 고려하여 0~0.05 범위에 대해 0.0001 단위로 값을 표현할 수 있다. 즉, display의 물리적 밝기를 Brightness_black (cd/m2 단위)라고 할 때, 실제 최소 밝기는 이 최소 밝기 정보(sink_black_luminance_level)로부터 아래와 같이 산출될 수 있다.

Brightness_black = sink_black_luminance_level x 10000

(0<= sink_black_luminance_level <= 500 < 29)

예를 들어 reference monitor의 경우 0.05 cd/m2 를 최소 기준 밝기로 삼으며, 10000(10진수)을 곱한 값인 500을 전송할 수 있다.

싱크 디바이스의 최대 밝기 정보(sink_white_luminance_level)는 display에서 표현할 수 있는 최대 밝기를 나타내기 위한 값으로써, 일반적인 최대 밝기를 고려하여 100~10000 범위에 대해 100 단위로 값을 표현할 수 있다. 즉, display의 물리적 밝기를 Brightness_white (cd/m2단위)라고 할 때 , 실제 최대 밝기는 이 최대 밝기 정보(sink_white_luminance_level)로부터 아래와 같이 산출될 수 있다.

Brightness_white = sink_white_luminance_level x 100

(1<= sink_white_luminance_level <= 100 < 27)

예를 들어 reference monitor의 경우 100 cd/m2 를 최대 기준 밝기로 삼으며, 100(10진수)으로 나눈 값의 몫인 1 값을 전송할 수 있다.

본 발명의 일 실시예에 따르면, 싱크 디바이스의 최대 밝기 정보 및/또는 싱크 디바이스의 최소 밝기 정보는 디스플레이의 밝기 범위에 대한 성능을 나타낼 수 있다. 즉, 본 발명의 일 실시예에 따른 싱크 디바이스의 최대 밝기 정보 및/또는 싱크 디바이스의 최소 밝기 정보는 디스플레이의 성능을 고려하여, 컨텐츠를 최적의 환경에서 렌더링하기 위해 요구되는 컨텐츠의 최대 밝기 정보 (Desired content Max Luminance data) 및/또는 최소 밝기 정보 (Desired content Min Luminance data)를 나타낼 수 있다.

싱크 디바이스에서 소스 디바이스로 디스플레이 관련 정보를 전달하는 다른 실시예를 개시한다.

도 14는 본 발명의 실시예에 따라 싱크 디바이스에서 소스 디바이스로 전달하는 디스플레이 관련 정보로서, DisplayID의 Display Parameters Data Block을 예시한 도면이다.

디스플레이 관련 정보로서 DisplayID의 Display Parameters Data Block은 모니터의 전체적인 파라미터를 포함할 수 있다. 이 도면에서 예시한 바와 같이 예를 들면, Display Parameters Data Block은 영상의 수평 또는 수직 size (offset 필드가 0x03 또는 0x04), 수평 또는 수직 pixel 개수(offset 필드가 0x05 또는 0x06), monitor에서 지원 가능한 기능에 대한 flag (offset 필드가 0x0B), transfer function에서 사용되는 gamma(offset 필드가 0x0C), display aspect ratio(offset 필드가 0x0D), pixel bit depth (offset 필드가 0x0E)등의 정보가 포함된다.

본 발명의 실시예에 따르면 Display Parameters Data Block은 위에서 기술한 Control option flag정보와 sink device dynamic range 정보를 포함할 수 있다. 즉, 본 발명의 실시예에 따르면 싱크 디바이스는 위에서 개시한 Control option flag와 sink device dynamic range 정보를 포함한 Display Parameters Data Block 정보를 source device에 전달할 수 있다.

이 실시예에서 Display Parameters Data Block의 offset 필드가 0x0F인 경우 control option flag를 나타낼 수 있고, offset 필드가 0x10 또는 0x11인 경우 싱크 디바이스 자체의 표현 가능한 밝기 값 (Sink Black Luminance Level, Sink White Luminance Level 등)에 대한 정보를 포함할 수 있다.

offset 필드가 0x0F인 경우 control option flag에 대한 value 필드와, offset 필드가 0x10 또는 0x11인 경우 Sink Device Dynamic Range 정보에 대한 value 필드 및 각 value 필드에 대한 설명은 도 11 내지 도 13 에서 예시한 바와 같다. 여기서 offset 필드나 value 필드 값의 임의의 값으로서 변경이 가능하다

본 발명의 실시예는, Transfer Characteristic Gamma 를 통해 HDR에 적합한 transfer curve 정보를 전달할 수 있다.

싱크 디바이스에서 소스 디바이스로 디스플레이 관련 정보를 전달하는 다른 실시예를 개시한다.

도 15는 본 발명의 실시예에서 기술하는 디스플레이 관련 정보로서, Display Device Data Block을 예시한 도면이다. 본 발명의 실시예는 Display Device Data Block을 이용하여 소스 디바이스가 싱크 디바이스로 전달하는 정보의 예를 나타낸다.

Display Device Data Block은 디스플레이 패널(panel) 자체의 특성을 나타낼 수 있는 정보를 포함한다. Display Device Data Block 은 display device의 종류(offset 필드가 0x03), display device 의 operating mode(offset 필드가 0x04), pixel 수로 나타낼 수 있는 영상 크기(offset 필드가 0x05 내지 0x08), display aspect ratio(offset 필드가 0x09 내지 0x0A), bit depth (offset 필드가 0x0E), 응답 속도 (offset 필드가 0x0F)등을 나타낸다. 본 발명의 실시예는 이 도면에서 예시한 바와 같이 Display Device Data Block과 함께 디스플레이 패널의 개시한 Control option flag정보와 sink device dynamic range 정보를 source device에 전달할 수 있다.

본 발명의 실시예에 따르면 Display Device Data Block의 offset 필드가 0x0F 인 경우 control option flag 를 나타낼 수 있고, Display Device Data Block의 offset 필드가 0x10 또는 0x11 인 경우 sink device dynamic range 정보를 나타낼 수 있다.

Display Device Data Block의 offset 필드가 0x0F 인 경우 value 필드의 예와, Display Device Data Block의 offset 필드가 0x10 또는 0x11 인 경우 value 필드의 예는 도 11 내지 도 13 또는 도 14에서 예시한 바에 따를 수 있다. 여기서 offset 필드나 value 필드 값의 임의의 값으로서 변경이 가능하다.

싱크 디바이스가 소스 디바이스로 디스플레이 관련 정보를 전달하는 다른 예로서, 싱크 디바이스는 DisplayID의 Vendor-Specific Data Block을 이용하여 Control option flag와 sink device dynamic range 정보를 전달할 수 있다. Vendor-Specific Data Block 은 싱크 디바이스가 Data Block 에 정의되지 않은 정보를 전달할 경우 사용하는 데이터로서, 이 데이터 블록에 위에서 개시한 Control option flag와 sink device dynamic range 정보를 포함하여 전달할 수 있다.

싱크 디바이스가 소스 디바이스로 디스플레이 관련 정보를 전달하는 또 다른 예로서, 싱크 디바이스는 DisplayID의 Product Identification Data Block을 이용할 수 있다.

DisplayID의 Product Identification Data Block은 display device의 제조업체에 대한 정보, display device의 serial number, Product ID 등을 포함할 수 있다. 이 때 싱크 디바이스가 display device의 제조업체, 제조 연월, Product ID 등을 통해 각 제품의 정보를 확인할 수 있는 경우, 이 정보를 이용하여 각 제품에 대응되는 dynamic range 정보를 소스 디바이스에 전달할 수 있다. 본 발명에 따르면 DisplayID의 Product Identification Data Block이 제품의 식별정보로 dynamic range 정보를 전달하는 경우, Control option flag는 위에서 개시한 실시예들 중 어느 하나의 예를 통해 전달한다.

싱크 디바이스가 소스 디바이스로 디스플레이 관련 정보를 전달하는 또 다른 예로서, 싱크 디바이스가 Transfer Characteristics Data Block 을 이용하여 디스플레이 관련 정보를 소스 디바이스에 전달할 수 있다. Transfer characteristics data block은 디스플레이의 transfer curve 관련 정보를 전달하는 data block 이다. Transfer characteristics data block 디스플레이 시에 임의의 gamma function을 사용하거나, piecewise linear curve를 지원하는 경우 이를 표시하기 위한 Data block이다. 디스플레이 패널의 peak luminance 및 최하위 luminance를 정의한 부분은 없기 때문에 싱크 디바이스는 Transfer characteristics data block 에 앞에 개시한 Control option flag와 sink device dynamic range 정보를 포함한 dynamic range 정보를 source device에 전달할 수 있다.

도 16은 본 발명의 일 실시예에 따라 싱크 디바이스가 소스 디바이스로 디스플레이 관련 정보를 전달하는 또 다른 예를 예시한 도면이다. 본 발명의 실시예에 따르면 싱크 디바이스는 CEA(Consumer Electronics Association) EDID extension 정보를 이용하여 디스플레이 관련 정보를 소스 디바이스에 전달할 수 있다.

싱크 디바이스는 CEA-861 의 VESA에서 정의한 EDID외에 CE Sink device에서 지원 가능한 device 속성 정보를 포함한 CEA EDID extension 정보를 소스 디바이스에 전달할 수 있다. 이 경우 싱크 디바이스는 이 도면에서 예시한 dynamic range 정보를 소스 디바이스에 전달할 수 잇다.

CEA EDID extension 정보의 extension data block은 Video, Audio, Speaker Allocation, Vendor-Specific, 및 Video Capability data block을 포함할 수 있다. extension data block은 이 data block을 각각 식별하기 위해 미리 정의된 Tag Code를 각 data block의 첫 번째 byte의 bits 5-7에 포함한다.

발명의 실시예에 따르면 CEA EDID extension data block의 첫 번째 byte의 bits 5-7는 dynamic range 정보를 표시하는 tag code를 포함할 수 있다.

그리고, 이 도면에서 예시한 바와 같이 CEA EDID extension data block내에 dynamic range 정보를 위에서 예시한 바와 같이 싱크 디바이스의 최소 밝기 정보(Lowest Brightness level of Sink device 중 하위 8비트보다 높은 8비트 (higher 8 bits) 정보, 싱크 디바이스의 최소 밝기의 LSB 정보(Lowest Brightness level of Sink device (LSB)) 및 싱크 디바이스의 최대 밝기 정보(Highest Brightness level of Sink device (total 7 bits))로 표현할 수 있다. 비트 할당은 임의적인 것으로 변경이 가능하다. 따라서, 본 발명의 실시예에 따르면, 싱크 디바이스가 CEA의 EDID extension 정보를 이용하여 소스 디바이스로 디스플레이 관련 정보 중 싱크 디바이스의 최대/최소 밝기 정보를 전달할 수 있다.

본 발명의 일 실시예에 따른 싱크 디바이스의 최대 밝기 정보는 싱크 디바이스에서 처리할 수 있는 최대 밝기 정보를 나타낼 수 있고, 싱크 디바이스의 최소 밝기 정보는 싱크 디바이스에서 처리할 수 있는 최소 밝기 정보를 나타낼 수 있다.

다음으로 본 발명의 실시예에 따라 소스 디바이스에서 싱크 디바이스로 전달할 정보를 개시하면 다음과 같다.

소스 디바이스는, 싱크 디바이스의 디스플레이 관련 정보 및 color gamut 관련 정보를 기반으로 컨텐츠의 밝기 및 컬러 gamut 등이 sink device에 적합한지 판단하고, 필요한 경우 소스 디바이스는 컨텐츠의 밝기 및 컬러 gamut 등을 변환할 수 있다. 이 경우 초고화질 영상을 처리할 경우 source device는 어떠한 처리가 이뤄졌는지에 대한 정보 및 영상 처리 이후의 밝기 및 color gamut에 대한 정보를 싱크 디바이스에 전달해야 한다. 이는 싱크 디바이스의 포스트 프로세싱을 제어하기 위한 것인데 이에 대한 실시예를 상세히 개시하면 다음과 같다.

본 발명에 실시예에 따라 소스 디바이스는 CEA 861에 정의 된 InfoFrame을 통해 싱크 디바이스로 초고화질 영상 처리 관련 정보를 전달할 수 있다.

도 17은 본 발명에 실시예에 따라 소스 디바이스에서 싱크 디바이스로 전달할 정보를 예시한 도면이다.

CEA 861에서 소스/싱크 디바이스의 인터페이스 정보로서 정의된 InfoFrame 중 color gamut 정보는 AVI InfoFrame을 통해 전달될 수 있다. 본 발명의 실시예는 소스 디바이스가 초고화질 영상 처리에 대한 정보를 InfoFrame을 통해 싱크 디바이스로 전달한다. 이를 이용해 초고화질 영상의 brightness 정보, 임의의 color gamut 정보 및 HDR 정보 또는 WCG 정보 등의 영상 처리 정보를 싱크 디바이스로 전달하도록 할 수 있다. 본 실시예에 따르면 소스 디바이스는 수행한 post processing에 대한 정보와 post processing 이후의 컨텐츠의 밝기 정보, post processing 이전의 컨텐츠 밝기 정보 및 컬러 표현 범위 정보를 싱크 디바이스로 전달할 수 있다.

post processing에 대한 정보는 컨텐츠의 상태에 대한 정보를 포함하고, 싱크 디바이스의 요청에 대한 응답으로 사용될 수 있다. post processing 이후의 컨텐츠의 밝기 정보는 컨텐츠의 최소 밝기 정보(black_luminance_level) 와 컨텐츠의 최대 밝기 정보(white_luminance_level)를 포함할 수 있다. post processing 이전의 컨텐츠 최소 밝기 정보(orig_black_luminance_level)와 최대 밝기 정보(orig_white_luminance_level)를 포함할 수도 있다. 컨텐츠의 컬러 표현 범위 정보는 Orig_color_gamut 정보로 나타내었는데 이에 대해서는 상세히 설명한다.

InfoFrame Type Code는 이 InfoFrame의 Type을 나타내는데, 예를 들어 이 값이 0x07인 경우 UHD 영상처리에 대한 정보를 포함하는 프레임을 나타낼 수 있다. 여기서, UHD 영상처리에 대한 정보는 다이나믹 레인지 마스터링 정보 (Dynamic Range and Mastering information)으로 명명될 수 있다. 본 발명의 일 실시예에 따른 다이나믹 레인지 마스터링 정보는 컨텐츠의 다이나믹 레인지 관련 정보를 포함할 수 있다.

InfoFrame Version Number는 이 프레임의 버전 정보를 나타내고, Length of HDR InfoFrame는 HDR InfoFrame의 길이 정보를 나타낸다.

Data Byte 1의 P3 내지 P0 필드는, post_processing_type_flag 로 source device가 수행하는 post processing 과정을 control (on/off) 하기 위한 필드이다. 여기서는 이 필드를 이용해 HDR 정보 또는 WCG 정보 관련 option 정보를 개시하고, 이에 대한 상세한 예는 이하에서 후술한다. 본 발명의 일 실시예는, BT. 709로 제작된 컨텐츠를 BT. 2020으로 인코딩하여 전송하는 경우, 이 필드 및/또는 후술할 오리지널 컬러 개멋 정보 (Orig_color_gamut)를 이용하여 contents color gamut 및/또는 container color gamut을 구분하여 각각을 시그널링할 수 있다. 이에 대한 상세한 설명은 후술한다.

그리고, Data Byte 1의 R2~R0 필드는 reserved bits를 나타내고, E0 필드는 new_EOTF_flag를 통해 새로운 색 변환 함수(EOTF 등)를 사용할지 여부를 나타낸다. reserved bits는 추후 HDR 정보에 적합한 새로운 EOTF 가 정의되면 사용할 수 있는 flag 이다.

Data Byte 2는 컨텐츠에서 표현하는 최소 밝기 정보를 포함할 수 있는데 여기서는 black_luminance_level로 표현하였다. 이 실시예에서는 최소 밝기 정보의 최고 8비트를 Data Byte 2 필드에 표현하도록 하였다.

컨텐츠의 최소 밝기 정보는 일반적인 최저 밝기를 고려하여 0~0.05 범위에 대해 0.0001 단위로 값을 표현할 수 있다. 즉, display의 물리적 밝기를 Brightness_black (cd/m2 단위)라고 할 때 다음과 같은 관계를 갖는다.

Brightness_black = black_luminance_level x 10000

(0<= black_luminance_level <= 500 < 29)

예를 들어 reference monitor의 경우 0.05 cd/m2 를 최소 기준 밝기로 삼으며, 10000(10진수)을 곱한 값인 500을 밝기 정보로 표현할 수 있다.

Data Byte 3은, 이 도면에서 예시한 바와 같이 컨텐츠 최소 밝기 정보(black_luminance_level)의 최하위 1비트와 컨텐츠 최대 밝기 정보 (white_luminance_level) 7비트를 포함할 수 있다.

최대 밝기 정보 (white_luminance_level) 는 컨텐츠에서 표현하는 최대 밝기를 나타내기 위한 정보로써, 일반적인 최대 밝기를 고려하여 100~10000 범위에 대해 100 단위로 값을 표현할 수 있다. 즉, display의 물리적 밝기를 Brightness_white (cd/m2단위)라고 할 때 다음과 같은 관계를 갖는다.

Brightness_white = white_luminance_level x 100

(1<= white_luminance_level <= 100 < 27)

예를 들어 reference monitor의 경우 100 cd/m2 를 최대 기준 밝기로 삼으며, 100(10진수)으로 나눈 값의 몫인 1 값을 밝기 정보로 표현할 수 있다.

Data Byte 4는 컨텐츠의 오리지널 최소 밝기 정보 (Orig_black_luminance_level)의 최상위 8비트를 표현할 수 있고, Data Byte 5는 컨텐츠의 오리지널 최소 밝기 정보 (Orig_black_luminance_level)의 최하위 1비트와 컨텐츠의 오리지널 최대 밝기 정보(Orig_white_luminance_level)) 7비트를 표현할 수 있다.

컨텐츠의 오리지널 최소 밝기 정보 (Orig_black_luminance_level)는 source device에서 HDR 처리 이전 컨텐츠의 최소 밝기를 나타낸다. 표현 방법 및 범위는 black_luminance_level와 동일하고 본 실시예에서 필드의 구현은 post_processing_type에서 HDR 정보가 on 된 것으로 표시되는 경우에만 전송하도록 옵션을 줄 수도 있다.

유사하게 컨텐츠의 오리지널 최소 밝기 정보 (Orig_white_luminance_level)는 source device에서 HDR 처리 이전 컨텐츠의 최대 밝기를 나타낸다. 표현 방법 및 범위는 white_luminance_level와 동일하고 마찬가지로 본 실시예에서 필드 구현은 post_processing_type에서 HDR정보가 on 된 것으로 표시되는 경우에만 전송하도록 옵션을 줄 수도 있다.

본 발명의 일 실시예에 따르면, 컨텐츠의 밝기 범위 (contents dynamic range)와 구분되는 밝기 범위 (dynamic range)에 대한 시그널링이 필요한 경우, 상술한 오리지널 최소 밝기 정보 (Orig_black_luminance_level) 및/또는 오리지널 최소 밝기 정보 (Orig_white_luminance_level)가 사용될 수 있다. 이 때, 상술한 컨텐츠의 밝기 범위와 구분되는 밝기 범위는 image processing 전후의 밝기 범위, 인코딩 시 사용된 밝기 범위, mastering display의 밝기 범위, target display의 밝기 범위, container의 밝기 범위 등을 포함할 수 있다. 여기서, container의 밝기 범위는 원본 컨텐츠의 밝기 범위 (Dynamic range)와 컨테이너 (container)의 밝기 범위가 다른 경우의 container의 최대/최소 밝기 범위를 나타낼 수 있다. 예를 들어, 원본 컨텐츠의 밝기 범위 (Dynamic range)와 컨테이너 (container)의 밝기 범위가 다른 경우란 LDR (Low Dynamic Range)로 제작된 컨텐츠를 HDR (High Dynamic Range)로 인코딩하여 전송하는 경우, HDR로 제작된 컨텐츠를 LDR로 인코딩하여 전송하는 경우, 좁은 밝기 범위를 갖는 컨텐츠를 넓은 밝기 범위를 갖는 container로 전송하는 경우, 넓은 밝기 밤위를 갖는 컨텐츠를 좁은 밝기 범위를 갖는 container로 전송하는 경우 등을 포함할 수 있다. 여기서, container의 밝기 범위는 content의 밝기 범위와 구분되는 의미로서 display의 밝기 범위를 나타낼 수 있다. 또한, 상술한 마스터링 디스플레이 (mastering display)는 컨텐츠 및/또는 디스플레이의 밝기 및/또는 컬러 정보에 따라 마스터링 과정이 이루어지는 디스플레이를 나타낼 수 있다. 따라서, mastering display의 밝기 범위는 display에서 지원 가능한 밝기 범위를 나타낼 수 있다.

Data Byte 6은 오리지널 컬러 개멋 정보(Orig_color_gamut) 및 S3 ~ S0이 reserved bits를 포함할 수 있다. 오리지널 컬러 개멋 정보(Orig_color_gamut)는 source device에서 WCG 처리 이전 컨텐츠의 색 표현 범위를 나타낸다. 표준 색 표현 범위에 대한 상세한 예는 후술한다. 본 실시예에서 필드 구현은 post_processing_type에서 WCG가 on 된 것으로 표시되는 경우에만 전송하도록 옵션을 줄 수도 있다.

본 발명의 일 실시예는, 소스 디바이스에서 별도의 color gamut mapping 처리를 하지 않는 경우 중, 원본 컨텐츠의 color gamut과 컨테이너 (container)의 color gamut이 다른 경우, post_processing_type의 값을 0000 (아무 처리도 하지 않음) 또는 1111 (Different color gamut)로 시그널링함으로써 오리지널 컬러 개멋 정보 (Orig_color_gamut)를 사용하여 contents color gamut 및 container color gamut을 구분하여 각 컬러 개멋에 대한 정보를 디스플레이 장치에 전달할 수 있다. 여기서, 상술한 원본 컨텐츠의 color gamut과 컨테이너 (container)의 color gamut이 다른 경우는 BT. 709로 제작된 컨텐츠를 BT. 2020으로 인코딩하여 전송하는 경우를 포함할 수 있다. 본 발명의 다른 일 실시예는, CEA 861-F의 AVI Info Frame 내 Data Byte 2, 3의 colorimetry 정의 (C1, C0)와 extended colorimetry (EC2, EC1, EC0)을 이용하여 container color gamut을 표현하고, Orig_color_gamut을 이용하여 contents color gamut을 표현할 수 있다. 이와 반대로, 본 발명의 또 다른 일 실시예는, CEA 861-F의 AVI Info Frame 내 Data Byte 2, 3의 colorimetry 정의 (C1, C0)와 extended colorimetry (EC2, EC1, EC0)을 이용하여 contents color gamut을 표현하고, Orig_color_gamut을 이용하여 container color gamut을 표현할 수 있다. 또한, 본 발명의 또 다른 일 실시예는, Orig_color_gamut를 이용하여 contents color gamut을 표현하고, Red-x, Red-y, Green-x, Green-y, Blue-x, Blue-y, White-x 및/또는 White-y를 이용하여 container color gamut을 표현할 수 있다. 이와 반대로, 본 발명의 또 다른 일 실시예는, Orig_color_gamut를 이용하여 container color gamut을 표현하고, Red-x, Red-y, Green-x, Green-y, Blue-x, Blue-y, White-x 및/또는 White-y를 이용하여 contents color gamut을 표현할 수 있다. 여기서, container color gamut은 content color gamut과 구분되는 의미로서 display의 컬러 개멋 (display color gamut)을 나타낼 수 있다. 나아가, 본 발명의 일 실시예에 따른 Orig_color_gamut, Red-x, Red-y, Green-x, Green-y, Blue-x, Blue-y, White-x 및/또는 White-y은 color primaries (예를 들어, 삼원색) 및/또는 화이트 색상의 색도 좌표를 포함할 수 있다.

본 발명의 일 실시예에 따르면, 컨텐츠의 컬러 개멋 (contents color gamut)과 구분되는 컬러 개멋 (color gamut)에 대한 시그널링이 필요한 경우, 상술한 오리지널 컬러 개멋 정보 (Orig_color_gamut)가 사용될 수 있다. 이 때, 상술한 컨텐츠의 컬러 개멋 (contents color gamut)과 구분되는 컬러 개멋 (color gamut)은 image processing 전후의 컬러 개멋, container의 컬러 개멋, 인코딩 시 사용된 컬러 개멋, mastering display의 컬러 개멋, target display의 컬러 개멋 등을 포함할 수 있다. 여기서, 마스터링 디스플레이 (mastering display)는 컨텐츠 및/또는 디스플레이의 밝기 및/또는 컬러 정보에 따라 마스터링 과정이 이루어지는 디스플레이를 나타낼 수 있다. 즉, mastering display의 컬러 개멋은 display에서 지원 가능한 color gamut을 나타낼 수 있다.

Data Byte 7부터 Data Byte 16은 임의의 컬러 개멋 정보를 나타낼 수 있는 필드이다. 이 도면에서 임의의 컬러 개멋 정보는 Red-x, Red-y, Green-x, Green-y, Blue-x, Blue-y, White-x, White-y로 예시하였다.

여기서 Red-x는 색공간 (예를 들어 CIE 1931)의 R 색상의 x 좌표를 0~1 사이의 값을 2진법으로 나타낸 것인데, 본 실시 예는 전체 10 bit를 사용하며, Data Byte 9의 상위 8 bit와 Data Byte 6의 상위 2bit 을 사용할 수 있다.

유사하게 Red-y는 색공간 (예를 들어 CIE 1931)의 R 색상의 y 좌표를 0~1 사이의 값에 대해 2진법으로 나타낸 것이다. 본 실시 예는 전체 10 bit를 사용하여 이 색 정보를 나타내며, Data Byte 10의 상위 8 bit와 Data Byte 6의 하위 2bit 을 사용할 수 있다.

소스 디바이스는 위에서 개시한 컨텐츠의 오리지널 컬러 개멋 정보(Orig_color_gamut)에서 적절한 정보를 표현하지 못하는 경우, Data Byte 7부터 Data Byte 16를 사용하여 컬러 개멋 정보를 전달할 수 있다.

본 발명의 다른 실시예로서 도 11에서 개시한 혹은 오리지널 컬러 개멋 정보(Orig_color_gamut)는 사용하지 않고 Data Byte 7부터 Data Byte 16에 해당하는 정보만을 사용하여 오리지널 컬러 개멋 정보를 전송할 수도 있다. 또는 오리지널 컬러 개멋 정보(Orig_color_gamut)가 특정한 값을 나타내는 경우에만 Data Byte 7부터 Data Byte 16에 해당하는 정보를 추가로 활용하도록 이용할 수도 있다.

Data Byte 17은 E3 필드, E2 필드, E1 필드, E0 필드 및/또는 Number of Coefficients 필드를 포함할 수 있다.

E3 내지 E1 필드는 EOTF_type으로서 HDR 컨텐츠의 최적 화질을 위해 컨텐츠 제작자가 사용한 EOTF의 종류를 나타낼 수 있다. 본 발명의 일 실시예에 따르면, 복수의 EOTF 표준이 제정될 수 있고 컨텐츠 제작자가 임의로 EOTF를 정의하여 사용할 수 있다. EOTF_type 값이 나타내는 내용에 대한 상세한 설명은 후술한다.

E0 필드는 private_EOTF_coeff_flag를 나타낼 수 있다. 이 필드 값이 1인 경우, 이 필드는 EOTF_type에 따른 별도의 coefficient가 사용되었음을 나타낼 수 있다. 예를 들어, 서로 다른 최대 밝기에 따라 적합한 EOTF coefficient가 다른 경우와 같이, 동일 함수에 대하여 서로 다른 계수가 사용되는 경우, 본 발명의 일 실시예는 이 필드를 이용하여 이에 대한 적절한 coefficient를 전송할 수 있다. 또한, 본 발명의 다른 일 실시예에 따르면, 별도의 파라미터가 세팅되고 EOTF_type을 통하여 시그널링될 수 있다. 이 필드 값이 0인 경우, 이 필드는 범용적으로 사용되는 default 파라미터가 사용됨을 나타낼 수 있다. 여기서, 파라미터와 coefficient는 동일한 의미로 사용될 수 있다. 본 발명의 일 실시예에 따르면, E0 필드가 1인 경우, Data Byte 18 내지 18+N이 추가적으로 사용될 수 있고, 0인 경우, Data Byte 18 내지 18+N은 사용되지 않을 수 있다.

Number of Coefficients 필드는 상술한 E0 필드가 1을 나타내는 경우에 사용되는 coefficient의 개수를 나타낼 수 있다.

Data Byte 18은 EOTF_additional_info 필드를 포함할 수 있다. EOTF_additional_info 필드는 EOTF_type에 따라 추가적인 정보가 전달될 필요가 있는 경우, EOTF_type에 따른 추가적인 정보를 나타낼 수 있다. 예를 들어, 서로 다른 최대 밝기에 따라 적합한 EOTF coefficient가 다른 경우, 이 필드는 목표로 하는 최대 밝기 (target max brightness)에 대한 정보를 포함할 수 있다. 본 발명의 일 실시예에 따르면, 주어진 EOTF_type에 대하여 다양한 조건에 따른 복수의 EOTF 함수의 계수를 전달할 필요가 있는 경우, 예를 들면, 최대 밝기에 따라 계수가 달라지고 다양한 최대 밝기에 따른 계수들을 모두 전달해야 하는 경우, 이 필드는 각 계수들에 대한 정보를 제공하기 위해 사용될 수 있다. 이 경우, 조건들의 개수를 나타내는 필드를 별도로 지정하고 각 조건에 대하여 EOTF_target_max_brightness, EOTF_Coefficient 1 내지 N을 지정하는 방법이 사용될 수 있다.

Data Byte 18+1 내지 18+N은 각각 EOTF_Coefficient 1 내지 N 필드를 포함할 수 있다. EOTF_Coefficient 1 내지 N 필드는 E0 필드가 1인 경우 사용되는 파라미터 값을 나타낼 수 있다. 또한 이 필드는 임의의 EOTF 함수를 전송하는데 사용될 수 있다.

상술한 정보들은 인터페이스 (interface) 상에서 소스에서 싱크로 전송되는 것을 전제로 할 수 있다. 하지만, 이 정보들은 비디오 내부 (예를 들면, SEI message) 및/또는 스토리지 (storage)의 별도의 메타데이터 전달 방법을 통하여 전송될 수 있다. 따라서, 동일한 정보가 비디오 소스에도 정의되어 있을 수 있으며, 그렇지 않은 경우 소스 디바이스에서 해당 컨텐츠에 대한 추가 메타데이터를 external server 등을 통하여 별도로 공급받을 수 있다.

본 발명의 일 실시예에 따르면, 이 도면에서 나타낸 InfoFrame은 Dynamic Range and Mastering InfoFrame으로 명명될 수 있다.

도 18는 본 발명의 실시예에 따라 개시한 포스트 프로세싱 타입 정보의 상세한 예를 개시한 도면이다. 개시한 것처럼 소스 디바이스가 UHD 영상을 싱크 디바이스에 맞게 포스트 프로세싱한 경우 디스플레이 관련 정보 및 컬러 개멋 정보를 InfoFrame를 통해 싱크 디바이스로 전달할 수 있다.

InfoFrameData Byte 1의 P3 내지 P0 필드는, post_processing_type을 나타내고 HDR 정보 또는 WCG 정보 관련 option을 나타내는데 포스트 프로세싱 타입은 이 도면에서 예시한 바와 같다.

예를 들어 post_processing_type이 0000인 경우, Source device에서 아무런 처리를 하지 않음을 나타내고, 0001인 경우, Source device가dynamic range mapping을 수행했음을 나타낸다.

예를 들어 post_processing_type이 0010인 경우, Source device가 color gamut mapping을 수행했음을 나타내고, post_processing_type이 0011인 경우, Sink device가 전달한 정보를 바탕으로 이에 맞게 source device가 처리했음을 나타낸다. 이 값은 초기 값(initial value)으로 사용될 수 있다.

post_processing_type이 0110~1000은 추후에 multi-layer video enhancement 의 기능에 대해 sink-source간 정보 교환을 위해 사용될 수 있고, 1001-1110 은 User private를 위해 사용될 수 있다.

예를 들어, post_processing_type이 1111인 경우, 오리지널 컬러 개멋 정보 (Orig_color_gamut)가 contents color gamut 및 container color gamut을 구분하여 시그널링하는 데 사용됨을 나타낼 수 있다. 즉, 본 발명의 일 실시예는, contents color gamut과 구분되는 의미의 color gamut에 대한 시그널링이 필요한 경우, post_processing_type 필드를 이용할 수 있다. 이와 동일한 방법으로, 본 발명의 다른 일 실시예는, 컨텐츠의 밝기 범위 (contents dynamic range)와 구분되는 의미의 밝기 범위 (dynamic range)에 대한 시그널링이 필요한 경우, post_processing_type 필드를 이용할 수 있다. 이 경우, 예를 들어, post_processing_type으로 1110이 할당될 수 있다.

도 19은 본 발명의 실시예에 따라 개시한 오리지널 컬러 개멋 정보(Orig_color_gamut)의 상세한 예를 개시한 도면이다.

기술한 바와 같이 소스 디바이스가 UHD 영상을 싱크 디바이스에 맞게 프로세싱한 경우 컨텐츠의 오리지널 컬러 개멋 정보(Orig_color_gamut)를 싱크 디바이스에 전송할 수 있다.

이 예에서 오리지널 컨텐츠의 컬러 개멋 정보(Orig_color_gamut)의 필드가 0000인 경우 오리지널 컨텐츠의 컬러는 REC. 709을 따른 것을 나타내고, 0001인 경우 오리지널 컨텐츠의 컬러는 BT. 2020 NCL을 따른 것을 나타낸다. 유사하게 이 필드가 0010, 0011, 0100, 0101인 경우 각각 오리지널 컨텐츠의 컬러는 xvYCC, DCI-P3, Adobe RGB 및 BT. 2020 CL에 따라 정의되었음을 나타낸다.

도 20는 본 발명의 실시예에 따라 소스 디바이스가 싱크 디바이스로 전달하는 영상의 컬러 정보를 전달하는 다른 예를 개시한다.

본 발명의 실시예는, AVI InfoFrame version 3의 형식을 확장하여 소스 디바이스가 처리한 영상의 포스트 프로세싱 타입 정보(post_processing_type_flag), 색 변환함수 정보(new_EOTF_flag) 및 영상의 밝기 정보(black_luminance_level 또는 white_luminance_level)를 싱크 디바이스에 전달할 수 있다. 또는 본 발명의 실시예는 소스/싱크 디바이스의 인터페이스 상에서 정의된 새로운 AVI InfoFrame를 이용하여 소스 디바이스가 처리한 영상의 포스트 프로세싱 타입 정보(post_processing_type_flag), 색 변환함수 정보(new_EOTF_flag) 및 영상의 밝기 정보(black_luminance_level 또는 white_luminance_level)를 싱크 디바이스에 전달할 수 있다.

개시한 AVI InfoFrame은 Data byte에 따라 소스 디바이스가 싱크 디바이스에 처리된 영상의 정보를 전달할 수 있다. 이 예에서 Data byte14 내지 Data byte29는 도 11 내지 도 13에서 예시한 Data byte 1 내지 Data byte 16정보를 각각 포함할 수 있다.

따라서, 본 실시예에 따르면 소스 디바이스는 수행한 post processing에 대한 정보를 제공하는 정보와 post processing 이후의 컨텐츠의 밝기 정보, post processing 이전의 컨텐츠 밝기 정보 및 컬러 표현 범위 정보를 싱크 디바이스로 전달할 수 있다.

본 발명의 실시예는, AVI InfoFrame version 3의 형식을 확장하여 Orig_color_gamut, RGBW index, EOTF_type, private_EOTF_coeff_flag, Number of Coefficients, EOTF_additional_info 및/또는 EOTF_Coefficient를 싱크 디바이스에 전달할 수 있고, 소스/싱크 디바이스의 인터페이스 상에서 정의된 새로운 AVI InfoFrame를 이용하여 상술한 정보를 전달할 수 있다.

이 도면에서 Data Byte 30 내지 Data Byte 31+N은 도 11 내지 도 13에서 예시한 Data Byte 17 내지 Data Byte 18+N 정보를 각각 포함할 수 있다.

도 21는 본 발명의 일 실시예에 따른 신호 처리 장치의 실시예들 및 그 동작을 예시한 도면이다.

먼저 본 발명의 일 실시예에 따른 신호 처리 장치의 실시예는 소스 디바이스(100)와 싱크 디바이스(200)를 포함한다.

소스 디바이스(100)는, 디코더(110), 컬러 개멋 매핑부(120), 다이나믹 레인지 매핑부(130), 포스트 프로세싱부(140), 메타데이터 프로세서(150) 및 옵션 컨트롤러(160)를 포함한다.

소스 디바이스(100)의 컬러 개멋 매핑부(120), 다이나믹 레인지 매핑부(130) 및 포스트 프로세싱부(140)는 비디오 처리부로 호칭할 수 있고, 비디오 처리부의 컬러 개멋 매핑부(120), 다이나믹 레인지 매핑부(130) 및 포스트 프로세싱부(140)는 비디오 처리 시에 앞의 블록과 상관없이 각각 개별적으로 필요한 경우 동작할 수 있다.

싱크 디바이스(200)는 소스 디바이스 컨트롤러(210), 메타데이터 프로세서(220) 및 패널 컨트롤러(230)를 포함한다. 소스 디바이스가(100)가 싱크 디바이스(200)와 인터페이스로 연결된 경우, 도 9에서 예시한 바와 같은 프로토콜에 따라 정보를 송수신할 수 있다. 이하에서 기술하는 디바이스 간의 정보의 전송과 수신은 인터페이스를 통해 전송 및 수신된다.

소스 디바이스(100)는 인코딩된 UHD 비디오 스트림을 복호하고, 필요에 따라 복호된 UHD 비디오를 후처리하거나 싱크 디바이스(200)의 표출 능력에 맞게 UHD 비디오를 처리하고 처리된 UHD 비디오를 싱크 디바이스에 제공할 수 있다.

싱크 디바이스(200)는 소스 디바이스(100)가 디코딩한 UHD 비디오를 수신하여 표출할 수 있는데, 소스 디바이스(100)에게 싱크 디바이스(200)의 표출 능력에 대한 정보를 제공하여 소스 디바이스(100)로부터 싱크 디바이스(200)가 표출 가능한 UHD 비디오를 수신하여 표출할 수 있다.

소스 디바이스(100)의 옵션 컨트롤러(160)는 싱크 디바이스(200)와의 인터페이스를 통해 비디오 옵션 신호를 전송하여 디스플레이 관련 정보를 요청할 수 있다. 디스플레이 관련 정보는 디스플레이 컬러 개멋 정보와 디스플레이 밝기 관련 정보를 포함할 수 있다. 소스 디바이스(100)에서 싱크 디바이스(200)로 전송하는 비디오 옵션 정보는 도 11 내지 도 14의 예에 따를 수 있다.

소스 디바이스(100)의 메타데이터 프로세서(150)는 UHD 비디오에 대한 메타 데이터를 싱크 디바이스(100)로 전송할 수 있고, 싱크 디바이스(220)는 디스플레이에 관련된 메타 데이터를 소스 디바이스(100)로 전송할 수 있다.

소스 디바이스(100)의 디코더는 인코딩된 UHD 비디오 스트림을 수신하여 복호할 수 있다.

컬러 개멋 매핑부(120) 디코딩된 UHD 비디오의 컬러 개멋 정보를 매핑하는데, 이 경우 싱크 디바이스(200)의 디스플레이 관련 정보를 이용하거나 UHD 비디오 내 메타데이터에 기반하여 UHD 비디오의 컬러 개멋 정보를 매핑하고 변경할 수 있다.

또는 다이나믹 레인지 매핑부(130)는 디코딩된 UHD 비디오에 대한 다이나믹 레인지를 매핑할 수 있는데, 기술한 바와 같이 싱크 디바이스(200)의 디스플레이 관련 정보를 이용하거나 UHD 비디오 내 메타데이터에 기반하여 UHD 비디오의 다이나믹 레인지를 매핑하고 변경할 수 있다.

포스트 프로세싱부(140)는 디코딩된 UHD 비디오에 대해 비디오 포스트 프로세싱을 수행할 수 있으며, 마찬가지로 디스플레이 관련 정보에 기반하여 비디오 포스트 프로세싱을 수행할 수 있다.

메타데이터 프로세서(150)는 UHD 비디오의 메타데이터를 싱크 디바이스(200)로 전송하고, 싱크 디바이스로부터 디스플레이 관련된 메타데이터를 수신할 수 있다

옵션 컨트롤러(160)는 싱크 디바이스(200)에 비디오 옵션 정보를 전송하고, 싱크 디바이스(200)로부터 디스플레이 옵션 정보를 수신할 수 있다. 싱크 디바이스(100)에서 소스 디바이스(200)로 전송하는 디스플레이 옵션 정보의 예는 도 10 내지 도 16에 예시한 바와 같다. 한편, 소스 디바이스(100)에서 싱크 디바이스(200)로 전송하는 비디오 옵션 정보는 도 17 내지 도 20의 예에 따를 수 있다.

싱크 디바이스(200)의 소스 디바이스 컨트롤러(210)는 소스 디바이스(100)를 컨트롤할 수 있는 컨트롤 신호를 전송할 수 있고, 사용자로부터 사용자 컨트롤 신호를 수신할 수도 있다.

싱크 디바이스(200)의 메타데이터 컨트롤러(220)는 소스 디바이스(100)로부터 UHD 비디오의 메타데이터를 수신할 수 있고, 디스플레이 기기와 관련된 메타데이터를 소스 디바이스(100)로 전송할 수 있다. 메타데이터 프로세서(220)는 소스 디바이스 컨트롤러(210)로 비디오 프로세싱 컨트롤 신호를 전송하여 소스 디바이스 컨트롤러(210)가 컨트롤 신호를 전송하도록 할 수 있다.

패널 컨트롤러(230)는 메타데이터 프로세서(220)의 디스플레이 컨트롤 신호에 따라 디스플레이 패널을 제어할 수 있다.

본 발명의 실시예는 디스플레이에 적응적인 비디오 처리가 가능하도록 할 수 있다. 즉, 본 발명의 실시예들은 싱크 디바이스(200)의 성능에 따라 각각 소스-싱크 디바이스들 간의 정보교환, 비디오 프로세싱, 및 디스플레이되는 방식이 각각 달라질 수 있다. 이하에서는 싱크 디바이스(200)의 메타 데이터 정보를 소스 디바이스(100)로 전송하고, 소스 디바이스에서 디스플레이 관련 정보를 기반으로 영상처리를 한 후 싱크 디바이스(200)를 이를 수신하여 비디오를 출력하는 예에 대해 상세히 기술한다.

먼저, 싱크 디바이스(200)가 하이엔드 UHD 싱크 디바이스인 경우에 대한 제 1 실시예를 개시한다.

싱크 디바이스(200)가 하이엔드 UHD 싱크 디바이스인 경우, 싱크 디바이스(200)는 디스플레이 관련 메타데이터를 소스 디바이스(100)로 전송할 수 있다. 디스플레이 관련 정보는 디스플레이의 컬러 개멋 정보 (또는 RGBW에 해당하는 color primary정보)와 디스플레이 밝기 범위 관련 정보 (예를 들면 peak luminance 정보, black luminance 정보)를 포함할 수 있다. 싱크 디바이스(200)의 메타데이터 프로세서(220)는 디스플레이 관련 정보를 처리할 수 있다. 예를 들어 싱크 디바이스(200)의 메타데이터 프로세서(220)는 디스플레이 관련 정보를 저장하여 컨텐츠 처리 및 디스플레이 시에 참조할 수 있고, 필요에 따라 소스 디바이스(100)에 이 정보를 다시 요청할 수도 있다.

소스 디바이스(100)는 디스플레이 관련 정보를 싱크 디바이스(200)에 전달할 때 디스플레이의 색상 및 밝기 관련한 metadata 뿐만 아니라 소스 디바이스(100)의 control signal도 전달할 수 있다.

소스 디바이스(100)의 control signal는 소스 디바이스(100)가 어떠한 종류의 video processing이 가능한지에 대한 정보를 포함할 수 있다. 소스 디바이스(100)의 control signal는 싱크 디바이스(200)의 소스 디바이스 컨트롤러(210)가 전달하는 디스플레이할 수 있는 색 범위를 기초로 생성될 수도 있고, 싱크 디바이스(200)로부터 전달받은 정보 없이 디폴트 처리 요청에 따라 생성될 수도 있다.

소스-싱크 디바이스 간의 정보 교환 과정은 두 디바이스가 연결된 시점에서 동작하지만, 소스-싱크 디바이스가 연결된 상태에서 방송 또는 스트리밍 컨텐츠가 입력되는 경우, 또는 컨텐츠가 변경되는 경우, 또는 특정 scene이 변경되는 시점 등에서 두 디바이스의 정보 교환이 다시 수행될 수 있다.

싱크 디바이스(200)가 하이엔드 UHD 싱크 디바이스인 경우 비디오 프로세싱은 다음과 같이 처리될 수 있다.

소스 디바이스(100)의 포스트 프로세싱부(140)는 메타데이터 프로세서(150)로부터 싱크 디바이스(200)의 디스플레이 관련 정보에 기초하여 디코딩된 UHD 비디오에 후처리를 수행해야 하는지 판단하고, 이에 대한 컨트롤 신호를 출력할 수 있다. 만약 소스 디바이스(100)는 UHD 비디오의 WCG 정보 또는 HDR 정보와 관련된 영상 처리, 예를 들면 컬러 개멋 매핑 또는 다이나믹 레인지 매핑을 수행할 수 있다. 싱크 디바이스(200)의 디스플레이 성능이 비디오의 후처리 후 UHD 비디오를 재생하는데 충분한 경우, 소스 디바이스(100)의 옵션 컨트롤러(160)는 포스트 프로세싱부(140)에 그에 대한 정보를 전달할 수 있다. 싱크 디바이스(200)의 디스플레이 컬러 개멋 정보 또는 밝기 정보가 비디오의 WCG 정보 또는 HDR 정보를 변경하는데 기초가 될 수 있는 경우 메타데이터 프로세서(150)는 컬러 개멋 매핑부(120) 또는 다이나믹 레인지 매핑부(130)에 디스플레이 관련 메타데이터를 전송할 수 있다.

소스 디바이스(100)의 포스트 프로세싱부(140)는 비디오와 함께 전송되는 메타데이터, 예를 들면 WCG SEI message 또는 HDR SEI message를 이용하여 포스트 프로세싱이 수행될 수도 있다. 비디오디코더(110) 또는 포스트 프로세싱부(140)는 scalable coding에 따라 enhancement layer 데이터가 전송된 경우라면 enhancement layer 데이터를 디코딩하여 출력되는 비디오의 화질을 높일 수 있다.

출력 비디오의 화질이 디스플레이 화질에 맞게 추가 향상이 가능하지만 싱크 디바이스(200) 로부터 비디오 처리를 위한 추가 정보가 없는 경우 소스 디바이스(100)는 자체적으로 화질 향상 기능을 수행할 수 있다.

메타데이터 프로세서(150)는 디코딩되거나 후처리된 비디오의 WCG 정보 또는 HDR 정보를 포함한 UHD video metadata를 싱크 디바이스(200)로 전달한다. 또한, 옵션 컨트롤러(160)는 처리된 비디오 프로세싱 정보를 비디오 옵션 정보(video option signal)에 담아 소스 디바이스 컨트롤러(210)로 전송할 수 있다. 비디오 옵션 정보는 도 17 내지 도 20의 예에 따를 수 있다.

만약 디코더(110)가 복호화한 영상 자체가 디스플레이에 적합한 비디오인 경우 비디오의 WCG 정보 또는 HDR 정보에 대해 별도의 처리 없이 재생을 위해 싱크 디바이스(200)로 전달할 수도 있다. 이 경우 옵션 컨트롤러(160)는 비디오에 대해 별도의 처리가 없었음을 시그널링할 수 있다.

싱크 디바이스(200)는 UHD 비디오를 디스플레이 기기를 통해 표출하도록 할 수 있다. 이 경우 싱크 디바이스(200)는 소스 디바이스(100)를 통해 처리된 영상을 그대로 재생할 수 있지만, 소스 디바이스(100)가 전달하는 영상이 실제로 디스플레이에 적합하게 처리되었는지 여부를 판단할 수 있다. 그리고, 싱크 디바이스(200)의 소스 디바이스 컨트롤러(210)는 소스 디바이스(100)에 컨트롤 신호를 출력할 수 있다. 싱크 디바이스(200)의 소스 디바이스 컨트롤러(210)는 영상이 적합하게 처리되지 않는 경우 control signal을 소스 디바이스(100)의 video processing 중 문제가 되는 부분을 판단하여 해당 비디오 프로세싱이 오프되도록 알릴 수 있다. 이런 컨트롤 기능은 사용자의 요청에 의해 온/오프(on/off)될 수 있다. 싱크 디바이스(200)는 소스 디바이스(100)가 처리 가능한 혹은 처리하고 있는 video processing option을 사용자에게 출력하고, 이를 컨트롤 할 수 있는 메뉴 또는 인터페이스(UI)를 사용자에게 제공할 수 있다.

싱크 디바이스(200)는 디스플레이 기기의 밝기 및 색상을 조정할 수 있는 기능이 있는 경우, 싱크 디바이스(200)의 메타데이터 프로세서(220)의 정보를 분석한 후 패널 컨트롤러(230)를 통해 디스플레이 기기를 조정하여 컨텐츠에 적합한 재생 환경을 제공할 수 있다.

다음으로, 싱크 디바이스(200)가 기존의 UHD 싱크 디바이스인 경우에 대한 제 2 실시예를 개시한다. 제 1실시예와 동일한 부분에 대한 예는 제 1 실시예에 따른다.

싱크 디바이스(200)는 기존의 UHD 싱크 디바이스에 대한 메타데이터를 소스 디바이스(100)로 전송한다. 기존의 UHD 싱크 디바이스에 대한 메타데이터는 디스플레이 컬러 개멋 정보(혹은 RGBW에 해당하는 color primary정보)와 디스플레이 밝기 관련 정보(예를 들면 peak luminance 정보, black luminance 정보)를 포함할 수 있다. 소스 디바이스(100)의 메타데이터 프로세서(150)는 기존의 UHD 싱크 디바이스에 대한 메타데이터를 수신하여 처리할 수 있다.

소스 디바이스(100)의 옵션 컨트롤러(160)는 메타데이터 프로세서(150)에서 획득한 디스플레이 관련 정보를 바탕으로 디코딩된 UHD video에 대해 후처리 과정을 거칠지 여부에 대해 판단하여 컨트롤 신호를 출력한다.

만약 디스플레이의 성능이 비디오에서 표현하고자 하는 화질 (색상 및 밝기)에 못 미치는 경우 비디오에 적절한 처리를 거쳐 디스플레이에서 표현 가능한 색상 및 밝기로 변화시킬 수 있다. 예를 들어 소스 디바이스(100)의 컬러 개멋 매핑부(120) 또는 다이나믹 레인지 매핑부(130)는 UHD 비디오의 컬러 개멋 정보나 다이나믹 레인지 정보를 디스플레이 기기에 맞는 정보로 매핑할 수 있다.

소스 디바이스(100)는 비디오 데이터내의 메타 데이터, 예를 들면 WCG SEI message, HDR SEI message 등을 기반으로 이를 변환시킬 수도 있고, 소스 디바이스(100)의 자체적 기능에 따라 이를 수행할 수도 있다. 만약 비디오 데이터의 WCG 정보 또는 HDR 정보가 변경된 경우 옵션 컨트롤러(160)는 이를 비디오 옵션 정보 (video option signal)에 담아 싱크 디바이스(200)로 전송할 수 있다 비디오 옵션 정보는 도 17 내지 도 20의 예에 따를 수 있다.

싱크 디바이스(200)의 디스플레이의 색상 및 밝기 표현 범위가 비디오의 색상 및 밝기 범위를 지원할 수 있는 경우 소스 디바이스(100)는 추가적인 비디오 프로세싱없이 비디오를 싱크 디바이스(200)에 전송할 수 있다. 그리고, 소스 디바이스(100)의 옵션 컨트롤러(160)는 UHD video 의 metadata 또는 WCG 정보 또는 HDR 정보가 처리되지 않았음을 video option signal을 통해 싱크 디바이스(200)에 전달할 수 있다.

싱크 디바이스(200)의 디스플레이 기기는 UHD video를 재생할 수 있다. 싱크 디바이스(200)가 수신한 UHD video의 WCG 정보 또는 HDR 정보가 싱크 디바이스(200)의 디스플레이 기기에 적절하지 않다고 판단되는 경우, 소스 디바이스 컨트롤러(210)는 이에 대한 컨트롤 신호를 소스 디바이스(100)로 전달할 수 있다. 사용자는 사용자 메뉴 또는 인터페이스(UI)를 디스플레이 기기에 관련 기능을 조절할 수도 있다.

도 22은 본 발명의 일 실시예에 따른 EOTF type의 구성을 나타낸 도면이다.

본 발명의 일 실시예에 따르면, EOTF type이 000이면 이는 reserved 비트임을 나타낼 수 있고, 001이면 이는 EOTF_type1의 변환 곡선이 사용됨을 나타낼 수 있고, 010이면 이는 EOTF_type2의 변환 곡선이 사용됨을 나타낼 수 있고, 011-111이면 이는 user private임을 나타낼 수 있다.

도 23은 본 발명의 일 실시예에 따른 DCI-P3 컬러 개멋을 시그널링하기 위한 방법을 나타낸 도면이다.

본 발명은 DCI-P3와 같이 새로운 color gamut을 정의하기 위하여 다음과 같은 실시예를 제공할 수 있다.

본 발명의 일 실시예는 기존의 AVI InfoFrame (17010) 내의 Data Byte 2에 포함된 C1 및 C0 필드를 이용하여, 컬러 개멋의 확장을 위해 Data Byte 3에 포함된 EC2 내지 EC0 필드가 사용됨을 시그널링할 수 있다. (17020) 그리고, EC2 내지 EC0 필드의 reserved bit를 이용하여 DCI-P3를 시그널링할 수 있다. 즉, EC2 내지 EC0가 111이면 DCI-P3가 사용됨을 나타낼 수 있다. (17030, 17040)

본 발명의 다른 일 실시예는 기존의 AVI InfoFrame (17010) 내의 Data Byte 3에 포함된 EC2 내지 EC0 필드의 reserved bit를 이용하여 colorimetry extension이 있음을 시그널링할 수 있다. 즉, EC2 내지 EC0가 111이면 colorimetry extension이 있음을 나타낼 수 있다. (17030, 17050) 그리고, 전술한 AVI InfoFrame 내의 Data Byte 19 또는 전술한 Dynamic Range and Mastering InfoFrame 내의 Data Byte 6에 포함된 reserved bit인 S3 내지 S0 필드를 이용하여 DCI-P3가 사용됨을 시그널링할 수 있다. (17060, 17070) 이 때, 필요에 따라 3 비트 이하 또는 초과되는 비트가 사용될 수 있다. 나아가, 상술한 reserved bit인 S3 내지 S0 필드를 이용하여 임의의 color gamut이 사용됨을 시그널링할 수 있다. (17070)

도 24은 본 발명의 다른 일 실시예에 따른 DCI-P3 컬러 개멋을 시그널링하기 위한 방법을 나타낸 도면이다.

본 발명의 일 실시예는 기존의 AVI InfoFrame (18010) 내의 Data Byte 2에 포함된 C1 및 C0 필드를 이용하여, 컬러 개멋의 확장을 위해 Data Byte 3에 포함된 EC2 내지 EC0 필드가 사용됨을 시그널링할 수 있다. (18020) 그리고, 기존의 AVI InfoFrame (18010) 내의 Data Byte 3에 포함된 EC2 내지 EC0 필드의 reserved bit를 이용하여 colorimetry extension이 있음을 시그널링할 수 있다. 즉, EC2 내지 EC0가 111이면 colorimetry extension이 있음을 나타낼 수 있다. (18030, 18040) 그리고, 본 발명의 일 실시예에 따른 Dynamic Range and Mastering InfoFrame 내의 reserved bit를 이용하여 DCI-P3가 사용됨을 시그널링할 수 있다. 예를 들면, 이 도면에 도시된 바와 같이, Data Byte 1에 포함된 reserved bit가 사용될 수 있다. (18060) 나아가, 상술한 reserved bit를 이용하여 임의의 color gamut이 사용됨을 시그널링할 수 있다. (18050)

도 25는 본 발명의 또 다른 일 실시예에 따른 DCI-P3 컬러 개멋을 시그널링하기 위한 방법을 나타낸 도면이다.

본 발명의 일 실시예는 DCI-P3와 같은 새로운 컬러 개멋을 시그널링하기 위하여 새로운 InfoFrame을 정의할 수 있다. 예를 들어, InfoFrame Type이 0x08인 InfoFrame을 새로 정의하고 새로운 컬러 개멋을 위한 비트를 할당하여 새로운 컬러 개멋이 사용됨을 시그널링할 수 있다.

본 발명의 다른 일 실시예는 기존의 AVI InfoFrame 포맷을 확장하는 방법으로서 이 도면에 도시된 바와 같이, Data Byte 14를 새로 정의할 수 있다. 이 때, 기존의 AVI InfoFrame 내의 Data Byte 2에 포함된 C1 및 C0 필드를 이용하여, 컬러 개멋의 확장을 위해 Data Byte 3에 포함된 EC2 내지 EC0 필드가 사용됨을 시그널링할 수 있다. 그리고, 기존의 AVI InfoFrame 내의 Data Byte 3에 포함된 EC2 내지 EC0 필드의 reserved bit를 이용하여 colorimetry extension이 있음을 시그널링할 수 있다. 즉, EC2 내지 EC0가 111이면 colorimetry extension이 있음을 나타낼 수 있다. 여기서, 본 발명의 일 실시예는 하위 호환성을 고려하는 경우, 기존의 AVI InfoFrame과 동일한 version number를 사용하면서 Data Byte 3의 EC2 내지 EC0 필드가 111이면 colorimetry extension이 있음을 인식하고 Data Byte 14를 읽어올 수 있다. 반면, 하위 호환성을 고려하지 않아도 되는 경우, 이 도면에 도시된 바와 같이, 본 발명의 다른 일 실시예는 AVI InfoFrame에 새로운 version number를 부여하고 Length of AVI InfoFrame을 14로 설정하여 해당 InfoFrame이 Data Byte 14까지 정의되어 있음을 시그널링하고, Data Byte 3의 EC2 내지 EC0 필드가 111이면 colorimetry extension이 있음을 인식하고 해당 colorimetry를 시그널링할 수 있다.

도 26은 본 발명의 일 실시예에 따라 싱크 디바이스가 처리 가능한 Transfer Function에 대한 정보를 전달하기 위한 방법을 나타낸 도면이다.

이 도면은 DisplayID의 Data Block을 이용하여 소스 디바이스가 싱크 디바이스로 전달하는 정보의 예를 나타낼 수 있고, 이 도면에서 도시된 offset 필드가 0x00 내지 0x05인 경우에 대한 상세한 설명은 전술하였다.

본 발명의 일 실시예는 이 도면에 도시된 바와 같이, offset 필드를 할당하여 싱크 디바이스의 Transfer Function 관련 정보를 추가적으로 전달할 수 있다. 이 때, 본 발명의 일 실시예는 미리 지정되어 있는 Transfer Function (BT. 1886, SMPTE ST 2084 등)을 시그널링할 수 있고, 임의의 Transfer Function에 대한 상세 정보를 시그널링할 수 있다.

이 도면에 도시된 바와 같이, offset 필드가 0x06이면 이 필드는 Transfer Function Type flag를 나타낼 수 있다. Transfer Function Type flag는 Transfer Function Type을 시그널링할 수 있다. 본 발명의 일 실시예는 각각의 Transfer Function을 flag로 지정함으로써 복수의 Transfer Function을 지원하는 경우에도 지원하는 모든 Transfer Function을 동시에 시그널링할 수 있다. 여기서, Transfer Function은 BT. 1886, SMPTE ST 2084, Traditional gamma - SDR Luminance Range, Traditional gamma - HDR Luminance Range 등을 포함할 수 있다. 여기서, Transfer Function은 EOTF (Electro Optical Transfer Function)를 포함할 수 있다.

offset 필드가 0x07 내지 0x0A이면 이 필드는 Unspecified TF details를 나타낼 수 있다. 본 발명의 일 실시예는 임의의 Transfer Function을 지원하는 경우 별도의 시그널링을 통하여 이를 표현할 수 있다. 예를 들어, 임의의 Transfer Function을 지원하는 경우, Transfer Function Type flag = 0x80 (16진수) 또는 10000000 (2진수) 으로 나타낼 수 있다. 본 발명의 일 실시예는 임의의 Transfer Function도 그 종류가 다양한 경우를 고려하여 각 Transfer Function의 타입을 시그널링하고, 각 타입에 따라 필요한 계수의 개수, bitdepth, 각 타입에 따른 최대/최소 밝기 정보 등의 보가 정보를 전달할 수 있다. 이 때, Transfer Function type은 여러 종류의 Transfer Function 중 하나를 지칭할 수 있고 복수개의 Transfer Function을 전달하는 경우, 복수개의 Transfer Function이 사용됨을 나타내는 비트 (예를 들어, Number of types 필드)를 따로 할당한 뒤, 이 필드를 이용하여 복수개의 Transfer Function의 순서를 나타낼 수 있다. Unspecified TF details가 포함하는 정보에 대한 상세한 설명은 후술한다.

offset 필드가 0x0B 또는 그 이상이면, 이 필드는 Unspecified TF coefficients를 나타낼 수 있다. 본 발명의 일 실시예는 이 필드를 이용하여 임의의 Transfer Function에 대한 계수 정보를 전달할 수 있다. 상술한 계수 정보는 Transfer Function의 변곡점, 구간, 사용되는 함수에 대한 정보 등을 포함할 수 있다.

본 발명의 일 실시예에 따르면, 싱크 디바이스가 소스 디바이스로 전달하는 정보는 EDID (Extended Display Identification Data) 정보로 명명될 수 있다. 여기서, EDID 정보는 싱크 디바이스의 성능을 나타낼 수 있다. 나아가, EDID 정보는 싱크 디바이스의 HDR 관한 성능을 나타내는 HDR 스테틱 메타데이터 (HDR Static Metadata Data Block)를 포함하고, 상기 HDR 스테틱 메타데이터는 전술한 Transfer Function Type에 대한 정보를 포함할 수 있다.

본 발명의 일 실시예에 따른 EDID 정보는 하나 이상의 데이터 블록을 포함할 수 있다.

본 발명의 일 실시예에 따른 HDR 스테틱 메타데이터는 데이터 블록에 포함되어 전송될 수 있다. 나아가, HDR 스테틱 메타데이터는 해당 데이터 블록이 HDR 스테틱 메타데이터를 포함하는 데이터 블록임을 식별하는 정보 및/또는 해당 데이터 블록의 길이를 나타내는 정보를 포함할 수 있다.

도 27은 본 발명의 일 실시예에 따라 싱크 디바이스가 처리 가능한 Transfer Function에 대한 정보를 전달하기 위한 방법에 사용되는 구체적인 필드값을 나타낸 도면이다.

본 발명의 일 실시예에 따르면, offset이 0x06인 필드는 Transfer Function Type을 나타내기 위해 사용되고, 0x07 내지 0x0A 필드는 Unspecified TF Details를 나타내기 위해 사용되고, 0x0B 내지 그 이상의 필드는 Unspecified TF coefficients를 나타내기 위해 사용될 수 있다. 여기서, Unspecified TF Details는 임의의 Transfer Function을 싱크 디바이스가 지원하는 경우, 임의의 Transfer Function에 대한 부가 정보를 나타내고, 임의의 Transfer Function의 종료 (Type of Unspecified Transfer Function), 임의의 Transfer Function에 사용된 계수의 개수 (Number of coefficients in Unspecified Transfer Function), 임의의 Transfer Function을 복수의 Transfer Function이 구성하는 경우 각 Transfer Function의 타입 개수 (Number of types), bitdepth, 싱크 디바이스의 최소 밝기 정보 (Lowest Brightness level of Sink device) 및/또는 싱크 디바이스의 최대 밝기 정보 (Highest Brightness level of Sink device)를 포함할 수 있다.

offset 필드가 0x06인 경우, value 값의 상위 1비트는 싱크 디바이스가 Unspecified Transfer Function을 처리 가능함을 나타낼 수 있고, 그 다음 1 비트는 BT. 1886에 따른 EOTF를 처리 가능함을 나타낼 수 있고, 그 다음 1 비트는 SMPTE ST 2084에 따른 EOTF를 처리 가능함을 나타낼 수 있다.

offset 필드가 0x07인 경우, value 값의 상위 4 비트는 Type of Unspecified Transfer Function을 나타내기 위하여 사용될 수 있고, 하위 4 비트는 Number of coefficients in Unspecified Transfer Function을 나타내기 위하여 사용될 수 있다.

offset 필드가 0x08인 경우, value 값의 상위 2 비트는 Number of types를 나타내기 위하여 사용될 수 있고, 그 다음 2 비트는 bitdepth를 나타내기 위하여 사용될 수 있다.

offset 필드가 0x09인 경우, value 값은 싱크 디바이스의 최소 밝기 정보 (Lowest Brightness level of Sink device)를 나타낼 수 있다.

offset 필드가 0x0A인 경우, value 값의 상위 1 비트는 싱크 디바이스의 최소 밝기 정보 (Lowest Brightness level of Sink device)를 LSB로 나타낼 수 있고, 나머지 7 비트는 싱크 디바이스의 최대 밝기 정보 (Highest Brightness level of Sink device)를 나타낼 수 있다.

offset 필드가 0x0B 내지 그 이상인 경우, value 값은 임의의 Transfer Function에 사용되는 계수 정보를 나타낼 수 있다.

도 28은 본 발명의 일 실시예에 따라 소스 디바이스로부터 싱크 디바이스로 컨테이너 컬러 개멋을 시그널링하는 방법을 나타낸 도면이다.

본 발명의 일 실시예에 따르면, WCG (wide color gamut) 관점에서 넓은 범위의 디스플레이 성능을 지원하기 위하여 추가적인 컬러리메트리 (colorimetry)에 대한 시그널링이 필요하다. 본 발명의 일 실시예에 따르면, DCI-P3 색 공간이 시그널링될 수 있다.

본 발명의 일 실시예에 따르면, 방송 시스템은 서로 다른 두 가지 컬러리메트리를 시그널링할 수 있다. 방송 시스템은 컨테이너 컬러 개멋 (container color gamut) 및 콘텐트 컬러 개멋 (content color gamut)을 시그널링할 수 있다.

본 발명의 일 실시예에 따르면, 컨테이너 컬러 개멋은 콘텐츠를 전송, 인코딩 및/또는 분배 (distribution)하는 과정에서 사용되는 컬러 개멋을 나타낸다. 즉, 전송, 인코딩 및/또는 분배 시스템의 컬러 개멋을 나타낸다. 컨테이너 컬러 개멋은 코딩된 값들의 이론적인 컬러 바운더리 (color boundary)를 나타낸다. 예를 들어, BT.2020 컬러 개멋이 콘텐츠의 전송, 인코딩 및/또는 분배 과정에서 사용된다면, BT.2020 컬러 개멋이 컨테이너 컬러 개멋에 해당한다.

본 발명의 일 실시예에 따르면, 콘텐트 컬러 개멋은 실제 콘텐츠의 컬러 개멋을 나타낸다. 즉, 콘텐트 컬러 개멋은 콘텐츠를 이미지 처리하는 이미징 시스템 (imaging system) 및/또는 콘텐츠를 마스터링하는 마스터링 환경 (mastering environment)에서 사용되는 컬러 개멋을 나타낸다. 콘텐트 컬러 개멋은 마스터링된 콘텐트의 실제 컬러 바운더리를 나타낸다. 예를 들어, DCI-P3 컬러 개멋이 이미징 시스템 및/또는 마스터링 환경에서 사용된다면, DCI-P3 컬러 개멋이 콘텐트 컬러 개멋에 해당한다.

본 발명의 일 실시예에 따르면, DCI-P3로 마스터링된 콘텐트가 BT.2020에 따른 컨테이너 포맷에 의해 전송될 수 있고, BT.709로 마스터링된 콘텐트가 BT.2020에 따른 컨테이너 포맷에 의해 전송될 수 있다.

본 발명의 일 실시예에 따르면, 콘텐트 컬러 개멋은 싱크 디바이스가 어떤 컬러 매핑 프로세스를 사용할 지를 결정하는데 사용될 수 있다. 콘텐트 컬러 개멋은 컨테이너 컬러 개멋이 싱크 디바이스의 디스플레이 컬러 개멋과 일치하지 않는 경우 유용하게 사용될 수 있다. 예를 들어, 컨테이너 컬러 개멋이 디스플레이의 컬러 개멋과 일치하는 경우, 컬러 개멋을 변환하지 않고 콘텐츠를 바로 디스플레이할 수 있지만, 컨테이너 컬러 개멋이 디스플레이의 컬러 개멋과 일치 하지 않으면, 컬러 개멋의 변환이 필요하고 컬러 개멋을 적절히 변환하기 위하여 콘텐트 컬러 개멋이 사용될 수 있다. 방송 시스템은 콘텐트 컬러 개멋을 시그널링함으로써 더 다양한 색감을 제공할 수 있고 디스플레이되는 콘텐트의 질을 향상시킬 수 있다.

본 발명의 일 실시예에 따라, DCI-P3 콘텐트가 BT.2020 컨테이너 내에 인코딩되고 DCI-P3 디스플레이에서 재생되는 경우, 싱크 디바이스는 일반적으로 콘텐트의 컬러가 디스플레이의 컬러 바운더리 내에서 표현될 수 있도록 콘텐트의 컬러를 조정한다. 이러한 조정의 결과, 개멋이 수축되고 개멋의 수축에 의해 콘텐트의 컬러 왜곡이 발생한다. 하지만, 본 발명의 일 실시예에 따라, 콘텐트 컬러 개멋에 대한 정보가 제공되는 경우, DCI-P3 디스플레이는 개멋의 수축 (컬러 개멋 클리핑)에 의한 컬러 왜곡 없이 (또는 최소한의 컬러 왜곡으로) 콘텐트를 디스플레이할 수 있다. 이 실시예에 따르면, 콘텐트 컬러 개멋이 디스플레이 컬러 개멋과 일치하기 때문에, 최초 제작자의 의도가 유지될 수 있다. 나아가, 시청자는 최초 의도된 컬러감을 갖는 콘텐트를 즐길 수 있다.

본 발명의 일 실시예에 따르면, 컨테이너 컬러 개멋은 AVI (Auxiliary Video Informaion) InfoFrame 데이터 블록 (data block) 내의 colorimetry 필드 및/또는 extended colorimetry 필드에 의해 시그널링될 수 있다. 본 발명의 일 실시예에 따르면, DCI-P3는 상기 필드들 내의 reserved 공간에 정의될 수 있다. 예를 들어, colorimetry 필드의 값 "11" 및 extended colorimetry 필드의 값 "111"은 컨테이너 컬러 개멋에 대한 정보가 AVI InfoFrame 내에서 시그널링됨을 나타내고, 컨테이너 컬러 개멋에 대한 정보는 container color gamut extenstion 필드를 통해 시그널링된다. 하지만, 컨테이너 컬러 개멋에 대한 정보를 시그널링하기 위하여 extended colorimetry 필드의 값 "111"을 사용하면, 추후 추가될 컬러리메트리를 위한 남은 공간이 없게 된다.

본 발명의 일 실시예에 따르면, 방송 시스템은 기존의 컬러리메트리 시그널링을 확장하여 컨테이너 컬러 개멋을 시그널링할 수 있다. 구체적으로, 방송 시스템은 AVI InfoFrame 및/또는 Dynamic Range and Mastering (DRM) InfoFrame 내에 부가적인 확장 필드를 정의하여 컨테이너 컬러 개멋을 시그널링할 수 있다. 현재 컬러리메트리 시그널링의 reserved 공간은 부가적인 컬러리메트리 확장의 이용가능성을 알리기 위해 사용될 수 있다. 방송 시스템은 상술한 바와 같이 확장 필드를 이용함으로써 기존 컬러리메트리의 시그널링 과정을 변경하지 않고 컨테이너 컬러 개멋을 시그널링할 수 있다.

이 도면은 본 발명의 일 실시예에 따라 소스 디바이스로부터 싱크 디바이스로 컨테이너 컬러 개멋을 시그널링하는 방법을 나타낸 도면이다.

이 도면을 참조하면, 본 발명의 일 실시예에 따른 AVI InfoFrame은 Y 필드 (Data Byte 1의 Y2, Y1, Y0), colorimetry 필드 (Data Byte 2의 C1, C0), extended colorimetry 필드 (Data Byte 3의 EC2, EC1, EC0) 및/또는 container color gamut extension 필드 (Data Byte 14의 CGE2, CGE1, CGE0)를 포함한다.

본 발명의 일 실시예에 따르면, colorimetry 필드의 값 "11"은 extended colorimetry 필드가 유효한 값을 가짐을 나타내고, extended colorimetry 필드의 값 "111"은 container color gamut extension 필드가 유효한 값을 가짐을 나타낸다. 따라서, colorimetry 필드의 값이 "11"을 갖고 extended colorimetry 필드의 값이 "111"을 갖는 경우, container color gamut extension 필드는 유효한 값을 갖게된다. 본 발명의 일 실시예에 따르면, container color gamut extension 필드의 값 "000"은 컨테이너 컬러 개멋이 DCI-P3임을 나타내고, 나머지 값들은 추후 사용될 컬러리메트리를 나타낼 수 있다.

본 발명의 일 실시예에 따르면, Y 필드는 콘텐츠의 컬러 컴포넌트 샘플 포맷 (color component sample format) 및 크로마 샘플링 포맷 (chroma sampling format)을 나타낸다. colorimetry 필드는 extended colorimetry 필드와 함께 사용되어 콘텐츠의 컬러리메트리를 나타낸다. 나아가, Y 필드, colorimetry 필드 및 extended colorimetry 필드의 조합에 의하여 콘텐츠의 컬러리메트리가 시그널링될 수 있다.

본 발명의 일 실시예에 따르면, AVI InfoFrame에 포함된 필드들을 이용하여 콘텐츠의 컬러 개멋 및 컨테이너 컬러 개멋을 모두 시그널링할 수 있다.

도 29는 본 발명의 일 실시예에 따라 싱크 디바이스로부터 소스 디바이스로 싱크 디바이스의 디스플레이 컬러 개멋을 시그널링하는 방법을 나타낸 도면이다.

본 발명의 일 실시예에 따르면, 방송 시스템은 EDID의 컬러리메트리 데이터 블록 (colorimetry data block) 내의 resesrved bit를 이용하여 DCI-P3 컬러메트리를 시그널링할 수 있다. 방송 시스템은 기존 EDID 내의 다른 컬러리메트리 시그널링의 변경 없이 DCI-P3 컬러메트리를 시그널링할 수 있다.

본 발명의 일 실시예에 따르면, 컬러리메트리 데이터 블록은 EDID 중에 하나로서, Tag Code 필드 (Byte 1, bits 5-7), Length 필드 (Byte 1, bits 0-4), Extended Tag Code 필드 (Byte 2), Colorimetry flag 필드 (Byte 3) 및/또는 reserved 필드 (Byte 4, bits 0-3, MD0, MD1, MD2, MD3)를 포함한다. Tag Code 필드 및 Extended Tag Code 필드 는 이 데이터 블록이 디스플레이의 컬러리메트리를 포함하는 컬러리메트리 데이터 블록임을 식별한다. Length 필드는 이 데이터 블록의 길이를 나타낸다. Colorimetry flag 필드는 디스플레이의 컬러리메트리를 나타낸다. 즉, Colorimetry flag 필드의 값 1은 해당 컬러리메트리로 인코딩된 콘텐츠를 싱크 디바이스가 디스플레이할 수 있음을 나타낸다. reserved 필드는 추후 개멋 관련된 메타데이터를 나타내기 위해 사용될 수 있다.

본 발명의 일 실시예에 따르면, 방송 시스템은 reserved 필드 중 하나인 MD0을 이용하여 디스플레이 컬러 개멋이 SMPTE 431-2에 정의된 DCI-P3 컬러 개멋임을 시그널링할 수 있다. 이 실시예에 따르면, MD0 비트의 값 1은 싱크 디바이스의 디스플레이가 DCI-P3로 인코딩된 콘텐츠를 디스플레이할 수 있음을 나타내고, 0은 싱크 디바이스의 디스플레이가 DCI-P3로 인코딩된 콘텐츠를 디스플레이할 수 없음을 나타낸다.

도 30은 본 발명의 일 실시예에 따라 소스 디바이스로부터 싱크 디바이스로 콘텐트 컬러 개멋을 시그널링하는 방법을 나타낸 도면이다.

본 발명의 일 실시예에 따르면, 소스 디바이스는 AVI InfoFrame 및/또는 DRM InfoFrame 내에 새로운 콘텐트 컬러 개멋 필드를 정의함으로써 콘텐트 컬러 개멋에 대한 정보를 싱크 디바이스에게 제공할 수 있다.

본 발명의 일 실시예에 따르면, 싱크 디바이스가 상술한 실시예에 따른 콘텐트 컬러 개멋에 대한 시그널링을 이해하지 못하는 경우, AVI InfoFrame에 존재하는 컬러리메트리 시그널링이 사용될 수 있다.

본 발명의 일 실시예에 따르면, 싱크 디바이스는 콘텐트 컬러 개멋에 대한 정보를 요청하는 플래그를 소스 디바이스에게 전송할 수 있다.

이 도면을 참조하면, 본 발명의 일 실시예에 따른 DRM InfoFrame은 content color gamut 필드 (CCG2, CCG1, CCG0)를 포함한다. content color gamut 필드의 값 "000"은 이 필드가 사용되지 않음을 나타낸다. 즉, content color gamut 필드의 값 "000"은 콘텐트 컬러 개멋이 컨테이너 컬러 개멋과 동일함을 나타낼 수 있고, 또는 콘텐트 컬러 개멋에 대한 정보가 없음을 나타낼 수 있다. content color gamut 필드의 값 "001"은 콘텐트 컬러 개멋이 DCI-P3임을 나타낸다. content color gamut 필드의 다른 값들은 콘텐트 컬러 개멋의 다른 컬러리메트리를 나타낼 수 있다.

도 31은 본 발명의 일 실시예에 따라 싱크 디바이스로부터 소스 디바이스로 콘텐트 컬러 개멋에 대한 정보를 시그널링하는 방법을 나타낸 도면이다.

본 발명의 일 실시예에 따르면, 방송 시스템은 EDID의 HDR 스테틱 메타데이터 데이터 블록 (HDR static metadata data block) 내의 resesrved bit를 이용하여 콘텐트 컬러 개멋 리퀘스트를 시그널링할 수 있다. 방송 시스템은 기존 EDID 내의 다른 시그널링의 변경 없이 콘텐트 컬러 개멋 리퀘스트를 시그널링할 수 있다.

본 발명의 일 실시예에 따르면, HDR 스테틱 메타데이터 데이터 블록은 EDID 중에 하나로서, Tag Code 필드 (Byte 1, bits 5-7), Length 필드 (Byte 1, bits 0-4), Extended Tag Code 필드 (Byte 2) 및/또는 content color gamut request flag 필드 (Byte 3, bit 7)를 포함한다. Tag Code 필드 및 Extended Tag Code 필드는 이 데이터 블록이 콘텐트 컬러 개멋 리퀘스트 플래그를 포함하는 HDR 스테틱 메타데이터 데이터 블록임을 식별한다. Length 필드는 이 데이터 블록의 길이를 나타낸다. content color gamut request flag 필드 (CCG0)는 싱크 디바이스가 소스 디바이스에게 콘텐트 컬러 개멋에 대한 정보를 요청하는지 여부를 나타낸다. content color gamut request flag 필드의 값 "0"은 콘텐트 컬러 개멋에 대한 시그널링이 필요없음을 나타내고, content color gamut request flag 필드의 값 "1"은 싱크 디바이스가 콘텐트 컬러 개멋에 대한 정보가 필요함을 나타낸다. 예를 들어, 소스 디바이스는 싱크 디바이스로부터 HDR 스테틱 메타데이터 데이터 블록을 수신하고 content color gamut request flag 필드를 확인한 후, 이 필드의 값이 "1"이면 싱크 디바이스에게 콘텐트 컬러 개멋에 대한 정보를 전송할 수 있다.

도 32는 본 발명의 다른 일 실시예에 따라 소스 디바이스로부터 싱크 디바이스로 콘텐트 컬러 개멋을 시그널링하는 방법을 나타낸 도면이다.

본 발명의 일 실시예에 따르면, 소스 디바이스는 DRM InfoFrame 내의 스테틱 메타데이터 디스크립터 (Static_Metadata_Descriptor) 내에 새로운 콘텐트 컬러 개멋 필드를 정의함으로써 콘텐트 컬러 개멋에 대한 정보를 싱크 디바이스에게 제공할 수 있다.

이 도면을 참조하면, 본 발명의 일 실시예에 따른 DRM InfoFrame은 스테틱 메타데이터 디스크립터 식별자 필드 (Static_Metadata_Descriptor ID) 및/또는 스테틱 메타데이터 디스크립터 (Static_Metadata_Descriptor)를 포함한다. 스테틱 메타데이터 디스크립터는 DRM InfoFrame의 Data Byte 3 내지 Data Byte n에 기술된다. 스테틱 메타데이터 디스크립터 식별자 필드는 DRM InfoFrame에 포함되는 스테틱 메타데이터 디스크립터를 식별한다. 스테틱 메타데이터 디스크립터 식별자 필드의 값 0은 스테틱 메타데이터 디스크립터가 Static Metadata Type 1에 해당하는 스테틱 메타데이터 디스크립터임을 나타낸다. 스테틱 메타데이터 디스크립터 식별자 필드의 값 1-7은 reserved 값을 나타낸다.

Static Metadata Type 1에 해당하는 스테틱 메타데이터 디스크립터은 display_primaries 필드, white_point 필드, max_display_mastering_luminance 필드, min_display_mastering_luminance 필드, Maximum Content Light Level 필드, Maximum Frame-average Light Level 필드 및/또는 content color gamut 필드 (CCG2, CCG1, CCG0)를 포함할 수 있다. content color gamut 필드의 값 "000"은 이 필드가 사용되지 않음을 나타낸다. 즉, content color gamut 필드의 값 "000"은 콘텐트 컬러 개멋이 컨테이너 컬러 개멋과 동일함을 나타낼 수 있고, 또는 콘텐트 컬러 개멋에 대한 정보가 없음을 나타낼 수 있다. content color gamut 필드의 값 "001"은 콘텐트 컬러 개멋이 DCI-P3임을 나타낸다. content color gamut 필드의 다른 값들은 콘텐트 컬러 개멋의 다른 컬러리메트리를 나타낼 수 있다. display_primaries 필드 및 white_point 필드는 마스터링 디스플레이의 컬러리메트리 값들을 나타낸다. max_display_mastering_luminance 필드 및 min_display_mastering_luminance 필드는 마스터링 디스플레이의 최대/최소 밝기 값을 나타낸다. Maximum Content Light Level 필드는 콘텐트의 최대 밝기 값을 나타낸다. Maximum Frame-average Light Level 필드는 최대 프레임 평균 밝기 값을 나타낸다.

도 33은 본 발명의 다른 일 실시예에 따라 소스 디바이스로부터 싱크 디바이스로 콘텐트 컬러 개멋을 시그널링하는 방법을 나타낸 도면이다.

본 발명의 일 실시예에 따르면, 방송 시스템은 새로운 스테틱 메타데이터 타입 (Static Metadata Type)을 정의하고 새로 정의된 스테틱 메타데이터 타입을 갖는 스테틱 메타데이터 디스크립터 내에 콘텐트 컬러 개멋 필드 및/또는 콘텐트의 실제 컬러리메트리 값들을 정의할 수 있다.

이 도면을 참조하면, 본 발명의 일 실시예에 따른 DRM InfoFrame은 스테틱 메타데이터 디스크립터 식별자 필드 (Static_Metadata_Descriptor ID) 및/또는 스테틱 메타데이터 디스크립터 (Static_Metadata_Descriptor)를 포함한다. 스테틱 메타데이터 디스크립터는 DRM InfoFrame의 Data Byte 3 내지 Data Byte n에 기술된다. 스테틱 메타데이터 디스크립터 식별자 필드는 DRM InfoFrame에 포함되는 스테틱 메타데이터 디스크립터를 식별한다. 스테틱 메타데이터 디스크립터 식별자 필드의 값 0은 스테틱 메타데이터 디스크립터가 Static Metadata Type 1에 해당하는 스테틱 메타데이터 디스크립터임을 나타낸다. 스테틱 메타데이터 디스크립터 식별자 필드의 값 1은 스테틱 메타데이터 디스크립터가 Static Metadata Type 2에 해당하는 스테틱 메타데이터 디스크립터임을 나타낸다. 본 발명의 일 실시예에 따르면, Static Metadata Type 2에 해당하는 스테틱 메타데이터 디스크립터는 콘텐트 컬러 개멋 및/또는 콘텐트의 실제 컬러리메트리 값들을 포함한다. 스테틱 메타데이터 디스크립터 식별자 필드의 값 2-7은 reserved 값을 나타낸다.

Static Metadata Type 2에 해당하는 스테틱 메타데이터 디스크립터은 content color gamut 필드 (CCG2, CCG1, CCG0) 및/또는 콘텐트의 컬러리메트리 값 (Red-x, Red-y, Green-x, Green-y, Blue-x, Blue-y, White-x, White-y)을 포함할 수 있다. content color gamut 필드의 값 "000"은 이 필드가 사용되지 않음을 나타낸다. 즉, content color gamut 필드의 값 "000"은 콘텐트 컬러 개멋이 컨테이너 컬러 개멋과 동일함을 나타낼 수 있고, 또는 콘텐트 컬러 개멋에 대한 정보가 없음을 나타낼 수 있다. content color gamut 필드의 값 "001"은 콘텐트 컬러 개멋이 DCI-P3임을 나타낸다. content color gamut 필드의 다른 값들은 콘텐트 컬러 개멋의 다른 컬러리메트리를 나타낼 수 있다. 상술한 콘텐트의 컬러리메트리 값은 콘텐트가 표현된 컬러 개멋 상 Red, Green, Blue 및/또는 White 색상의 위치를 나타낸다.

도 34는 본 발명의 일 실시예에 따라 소스 디바이스로부터 싱크 디바이스로 콘텐트 컬러 개멋에 대한 정보를 시그널링하는 방법을 나타낸 도면이다.

본 발명의 일 실시예에 따르면, 방송 시스템은 DRM InfoFrame의 Static Metadata Type 1에 해당하는 스테틱 메타데이터 디스크립터 내에 포함된 display_primaries 필드 및 white_point 필드를 이용하여 콘텐트 컬러 개멋을 시그널링할 수 있다.

본 발명의 일 실시예에 따른 DRM InfoFrame은 content color gamut flag 필드 (CCG_flag), 스테틱 메타데이터 디스크립터 식별자 필드 (Static_Metadata_Descriptor ID, SMD_ID) 및/또는 스테틱 메타데이터 디스크립터 (Static_Metadata_Descriptor)를 포함한다. content color gamut flag 필드는 Static Metadata Type 1에 해당하는 스테틱 메타데이터 디스크립터 내에 포함된 display_primaries 필드 및 white_point 필드가 콘텐트의 컬러 개멋을 나타내는 컬러리메트리 정보로 사용되는지 여부를 나타낸다. 스테틱 메타데이터 디스크립터 식별자 필드의 값이 0이고, content color gamut flag 필드의 값이 1인 경우, 콘텐트 컬러 개멋은 DRM InfoFrame의 Data Byte 3 내지 18에 기술된 display_primaries 필드 및 white_point 필드에 의하여 시그널링될 수 있다. 즉, content color gamut flag 필드의 값 1은 display_primaries 필드 및 white_point 필드가 콘텐트의 컬러리메트리 정보를 나타냄을 나타낸다.

본 발명의 다른 일 실시예에 따르면, DRM InfoFrame 내의 display_primaries 필드 및 white_point 필드가 콘텐트 컬러 개멋을 기술하기 위해 사용됨을 소스 디바이스 및 싱크 디바이스 모두가 알고 있는 경우, 방송 시스템은 content color gamut flag 필드없이 display_primaries 필드 및 white_point 필드를 이용하여 콘텐트 컬러 개멋을 시그널링할 수 있다.

도 35는 본 발명의 일 실시예에 따른 소스 디바이스의 비디오 데이터 처리 방법을 나타낸 도면이다.

본 발명의 일 실시예에 따른 소스 디바이스의 비디오 데이터 처리 방법은 인터페이스를 통해 콘텐트의 비디오 데이터를 싱크 디바이스로 전송하는 단계 (SL35010) 및/또는 상기 비디오 데이터에 대한 부가 정보를 포함하는 AVI 인포프레임 (Auxiliary Video Information InfoFrame)을 상기 인터페이스를 통해 상기 싱크 디바이스로 전송하는 단계 (SL35020)를 포함한다. 이 때, 상기 AVI 인포프레임은 상기 콘텐트의 컬러 개멋을 나타내는 컬러리메트리 필드, 상기 컬러리메트리 필드와 함께 상기 콘텐트의 컬러 개멋을 나타내는 확장 컬러리메트리 필드 및 상기 콘텐트를 전송하는 컨테이너의 컬러 개멋을 나타내는 컨테이너 컬러 개멋 확장 필드를 포함하고, 상기 컬러리메트리 필드는 상기 확장 컬러리메트리 필드가 유효함을 나타내는 정보를 포함하고, 상기 확장 컬러리메트리 필드는 상기 컨테이너 컬러 개멋 확장 필드가 유효함을 나타내는 정보를 포함한다.

본 발명의 다른 일 실시예에 따르면, 상기 비디오 데이터 처리 방법은 상기 싱크 디바이스가 지원하는 컬러 개멋에 대한 정보를 포함하는 컬러리메트리 데이터 블록을 상기 인터페이스를 통해 상기 싱크 디바이스로부터 수신하는 단계를 더 포함하고, 상기 컬러리메트리 데이터 블록은 상기 싱크 디바이스가 DCI-P3 컬러 개멋을 지원하는지 여부를 나타내는 정보를 포함한다.

본 발명의 다른 일 실시예에 따르면, 상기 비디오 데이터 처리 방법은 상기 비디오 데이터의 다이나믹 레인지에 대한 정보를 포함하는 DRM 인포프레임 (Dynamic Range and Mastering InfoFrame)을 상기 인터페이스를 통해 싱크 디바이스로 전송하는 단계를 더 포함하고, 상기 DRM 인포프레임은 상기 콘텐트의 컬러 개멋을 나타내는 콘텐트 컬러 개멋 필드를 포함하고, 상기 콘텐트 컬러 개멋 필드는 상기 콘텐트의 컬러 개멋이 상기 컨테이너의 컬러 개멋과 동일함을 나타내는 정보 및 상기 콘텐트의 컬러 개멋이 DCI-P3 컬러 개멋임을 나타내는 정보를 포함한다.

본 발명의 다른 일 실시예에 따르면, 상기 비디오 데이터 처리 방법은 상기 싱크 디바이스의 HDR (High Dynamic Range) 성능을 나타내는 HDR 스테틱 메타데이터 데이터 블록 (HDR Static Metadata Data Block)을 상기 인터페이스를 통해 상기 싱크 디바이스로부터 수신하는 단계를 더 포함하고, 상기 HDR 스테틱 메타데이터 데이터 블록은 상기 싱크 디바이스가 상기 콘텐트의 컬러 개멋에 대한 정보를 필요로하는지 여부를 나타내는 정보를 포함한다.

본 발명의 다른 일 실시예에 따르면, 상기 비디오 데이터 처리 방법은 상기 비디오 데이터의 다이나믹 레인지에 대한 정보를 포함하는 DRM 인포프레임을 상기 인터페이스를 통해 싱크 디바이스로 전송하는 단계를 더 포함하고, 상기 DRM 인포프레임은 스테틱 메타데이터 디스크립터 (Static Metadata Descriptor) 및 상기 스테틱 메타데이터 디스크립터를 식별하는 식별 정보를 포함하고, 상기 스테틱 메타데이터 디스크립터는 상기 콘텐트를 마스터링 처리하기 위해 사용되는 마스터링 디스플레이의 컬러리메트리 정보를 나타내는 디스플레이 컬러리메트리 필드 및 상기 콘텐트의 컬러 개멋을 나타내는 콘텐트 컬러 개멋 필드 중 적어도 하나를 포함한다.

본 발명의 다른 일 실시예에 따르면, 상기 비디오 데이터 처리 방법은 상기 비디오 데이터의 다이나믹 레인지에 대한 정보를 포함하는 DRM 인포프레임을 상기 인터페이스를 통해 싱크 디바이스로 전송하는 단계를 더 포함하고, 상기 DRM 인포프레임은 스테틱 메타데이터 디스크립터 및 상기 스테틱 메타데이터 디스크립터를 식별하는 식별 정보를 포함하고, 상기 스테틱 메타데이터 디스크립터는 상기 콘텐트의 컬러 개멋을 나타내는 콘텐트 컬러 개멋 필드 및 상기 콘텐트의 실제 컬러리메트리 값 중 적어도 하나를 포함한다.

본 발명의 다른 일 실시예에 따르면, 상기 DRM 인포프레임은 상기 스테틱 메타데이터 디스크립터에 포함된 상기 디스플레이 컬러리메트리 필드가 상기 콘텐트의 컬러 개멋을 기술하기 위해 사용되는지 여부를 나타내는 정보를 포함한다.

도 36은 본 발명의 일 실시예에 따른 싱크 디바이스의 비디오 데이터 처리 방법을 나타낸 도면이다.

본 발명의 일 실시예에 따른 싱크 디바이스의 비디오 데이터 처리 방법인터페이스를 통해 콘텐트의 비디오 데이터를 소스 디바이스로부터 수신하는 단계 (SL36010) 및/또는 상기 비디오 데이터에 대한 부가 정보를 포함하는 AVI 인포프레임 (Auxiliary Video Information InfoFrame)을 상기 인터페이스를 통해 상기 소스 디바이스로부터 수신하는 단계 (SL36020)를 포함한다. 이 때, 상기 AVI 인포프레임은 상기 콘텐트의 컬러 개멋을 나타내는 컬러리메트리 필드, 상기 컬러리메트리 필드와 함께 상기 콘텐트의 컬러 개멋을 나타내는 확장 컬러리메트리 필드 및 상기 콘텐트를 전송하는 컨테이너의 컬러 개멋을 나타내는 컨테이너 컬러 개멋 확장 필드를 포함하고, 상기 컬러리메트리 필드는 상기 확장 컬러리메트리 필드가 유효함을 나타내는 정보를 포함하고, 상기 확장 컬러리메트리 필드는 상기 컨테이너 컬러 개멋 확장 필드가 유효함을 나타내는 정보를 포함한다.

본 발명의 다른 일 실시예에 따르면, 상기 비디오 데이터 처리 방법은 싱크 디바이스가 지원하는 컬러 개멋에 대한 정보를 포함하는 컬러리메트리 데이터 블록을 상기 인터페이스를 통해 상기 소스 디바이스로 전송하는 단계를 더 포함하고, 상기 컬러리메트리 데이터 블록은 상기 싱크 디바이스가 DCI-P3 컬러 개멋을 지원하는지 여부를 나타내는 정보를 포함한다.

본 발명의 다른 일 실시예에 따르면, 상기 비디오 데이터 처리 방법은 상기 비디오 데이터의 다이나믹 레인지에 대한 정보를 포함하는 DRM 인포프레임 (Dynamic Range and Mastering InfoFrame)을 상기 인터페이스를 통해 상기 소스 디바이스로부터 수신하는 단계를 더 포함하고, 상기 DRM 인포프레임은 상기 콘텐트의 컬러 개멋을 나타내는 콘텐트 컬러 개멋 필드를 포함하고, 상기 콘텐트 컬러 개멋 필드는 상기 콘텐트의 컬러 개멋이 상기 컨테이너의 컬러 개멋과 동일함을 나타내는 정보 및 상기 콘텐트의 컬러 개멋이 DCI-P3 컬러 개멋임을 나타내는 정보를 포함한다.

본 발명의 다른 일 실시예에 따르면, 상기 비디오 데이터 처리 방법은 싱크 디바이스의 HDR (High Dynamic Range) 성능을 나타내는 HDR 스테틱 메타데이터 데이터 블록 (HDR Static Metadata Data Block)을 상기 인터페이스를 통해 상기 소스 디바이스로 전송하는 단계를 더 포함하고, 상기 HDR 스테틱 메타데이터 데이터 블록은 상기 싱크 디바이스가 상기 콘텐트의 컬러 개멋에 대한 정보를 필요로하는지 여부를 나타내는 정보를 포함한다.

본 발명의 다른 일 실시예에 따르면, 상기 비디오 데이터 처리 방법은 상기 비디오 데이터의 다이나믹 레인지에 대한 정보를 포함하는 DRM 인포프레임을 상기 인터페이스를 통해 상기 소스 디바이스로부터 수신하는 단계를 더 포함하고, 상기 DRM 인포프레임은 스테틱 메타데이터 디스크립터 (Static Metadata Descriptor) 및 상기 스테틱 메타데이터 디스크립터를 식별하는 식별 정보를 포함하고, 상기 스테틱 메타데이터 디스크립터는 상기 콘텐트를 마스터링 처리하기 위해 사용되는 마스터링 디스플레이의 컬러리메트리 정보를 나타내는 디스플레이 컬러리메트리 필드 및 상기 콘텐트의 컬러 개멋을 나타내는 콘텐트 컬러 개멋 필드 중 적어도 하나를 포함한다.

본 발명의 다른 일 실시예에 따르면, 상기 비디오 데이터 처리 방법은 상기 비디오 데이터의 다이나믹 레인지에 대한 정보를 포함하는 DRM 인포프레임을 상기 인터페이스를 통해 상기 소스 디바이스로부터 수신하는 단계를 더 포함하고, 상기 DRM 인포프레임은 스테틱 메타데이터 디스크립터 및 상기 스테틱 메타데이터 디스크립터를 식별하는 식별 정보를 포함하고, 상기 스테틱 메타데이터 디스크립터는 상기 콘텐트의 컬러 개멋을 나타내는 콘텐트 컬러 개멋 필드 및 상기 콘텐트의 실제 컬러리메트리 값 중 적어도 하나를 포함한다.

도 37은 본 발명의 일 실시예에 따른 비디오 데이터 처리 장치 (소스 디바이스)의 구성을 나타낸 도면이다.

본 발명의 일 실시예에 따른 비디오 데이터 처리 장치 (소스 디바이스, L37010)는 인터페이스를 통해 콘텐트의 비디오 데이터를 싱크 디바이스로 전송하는 제 1 전송부 (L37020) 및/또는 상기 비디오 데이터에 대한 부가 정보를 포함하는 AVI 인포프레임 (Auxiliary Video Information InfoFrame)을 상기 인터페이스를 통해 상기 싱크 디바이스로 전송하는 제 2 전송부 (L37030)를 포함한다. 이 때, 상기 AVI 인포프레임은 상기 콘텐트의 컬러 개멋을 나타내는 컬러리메트리 필드, 상기 컬러리메트리 필드와 함께 상기 콘텐트의 컬러 개멋을 나타내는 확장 컬러리메트리 필드 및 상기 콘텐트를 전송하는 컨테이너의 컬러 개멋을 나타내는 컨테이너 컬러 개멋 확장 필드를 포함하고, 상기 컬러리메트리 필드는 상기 확장 컬러리메트리 필드가 유효함을 나타내는 정보를 포함하고, 상기 확장 컬러리메트리 필드는 상기 컨테이너 컬러 개멋 확장 필드가 유효함을 나타내는 정보를 포함한다.

도 38은 본 발명의 일 실시예에 따른 비디오 데이터 처리 장치 (싱크 디바이스)의 구성을 나타낸 도면이다.

본 발명의 일 실시예에 따른 비디오 데이터 처리 장치 (싱크 디바이스, L38010)는 인터페이스를 통해 콘텐트의 비디오 데이터를 소스 디바이스로부터 수신하는 제 1 수신부 (L38020) 및/또는 상기 비디오 데이터에 대한 부가 정보를 포함하는 AVI 인포프레임 (Auxiliary Video Information InfoFrame)을 상기 인터페이스를 통해 상기 소스 디바이스로부터 수신하는 제 2 수신부 (L38030)를 포함한다. 이 때, 상기 AVI 인포프레임은 상기 콘텐트의 컬러 개멋을 나타내는 컬러리메트리 필드, 상기 컬러리메트리 필드와 함께 상기 콘텐트의 컬러 개멋을 나타내는 확장 컬러리메트리 필드 및 상기 콘텐트를 전송하는 컨테이너의 컬러 개멋을 나타내는 컨테이너 컬러 개멋 확장 필드를 포함하고, 상기 컬러리메트리 필드는 상기 확장 컬러리메트리 필드가 유효함을 나타내는 정보를 포함하고, 상기 확장 컬러리메트리 필드는 상기 컨테이너 컬러 개멋 확장 필드가 유효함을 나타내는 정보를 포함한다.

모듈 또는 유닛은 메모리(또는 저장 유닛)에 저장된 연속된 수행과정들을 실행하는 프로세서들일 수 있다. 전술한 실시예에 기술된 각 단계들은 하드웨어/프로세서들에 의해 수행될 수 있다. 전술한 실시예에 기술된 각 모듈/블락/유닛들은 하드웨어/프로세서로서 동작할 수 있다. 또한, 본 발명이 제시하는 방법들은 코드로서 실행될 수 있다. 이 코드는 프로세서가 읽을 수 있는 저장매체에 쓰여질 수 있고, 따라서 장치(apparatus)가 제공하는 프로세서에 의해 읽혀질 수 있다.

설명의 편의를 위하여 각 도면을 나누어 설명하였으나, 각 도면에 서술되어 있는 실시 예들을 병합하여 새로운 실시 예를 구현하도록 설계하는 것도 가능하다. 그리고, 통상의 기술자의 필요에 따라, 이전에 설명된 실시 예들을 실행하기 위한 프로그램이 기록되어 있는 컴퓨터에서 판독 가능한 기록 매체를 설계하는 것도 본 발명의 권리범위에 속한다.

본 발명에 따른 장치 및 방법은 상술한 바와 같이 설명된 실시 예들의 구성과 방법이 한정되게 적용될 수 있는 것이 아니라, 상술한 실시 예들은 다양한 변형이 이루어질 수 있도록 각 실시 예들의 전부 또는 일부가 선택적으로 조합되어 구성될 수도 있다.

한편, 본 발명이 제안하는 방법을 네트워크 디바이스에 구비된, 프로세서가 읽을 수 있는 기록매체에, 프로세서가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 프로세서가 읽을 수 있는 기록매체는 프로세서에 의해 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 프로세서가 읽을 수 있는 기록 매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등이 있으며, 또한, 인터넷을 통한 전송 등과 같은 캐리어 웨이브의 형태로 구현되는 것도 포함한다. 또한, 프로세서가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 프로세서가 읽을 수 있는 코드가 저장되고 실행될 수 있다.

또한, 이상에서는 본 발명의 바람직한 실시 예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시 예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해돼서는 안 될 것이다.

그리고, 당해 명세서에서는 물건 발명과 방법 발명이 모두 설명되고 있으며, 필요에 따라 양 발명의 설명은 보충적으로 적용될 수가 있다.

본 발명의 사상이나 범위를 벗어나지 않고 본 발명에서 다양한 변경 및 변형이 가능함은 당업자에게 이해된다. 따라서, 본 발명은 첨부된 청구항 및 그 동등 범위 내에서 제공되는 본 발명의 변경 및 변형을 포함하는 것으로 의도된다.

본 명세서에서 장치 및 방법 발명이 모두 언급되고, 장치 및 방법 발명 모두의 설명은 서로 보완하여 적용될 수 있다.

다양한 실시예가 본 발명을 실시하기 위한 최선의 형태에서 설명되었다.

본 발명은 일련의 방송 신호 제공 분야에서 이용된다.

본 발명의 사상이나 범위를 벗어나지 않고 본 발명에서 다양한 변경 및 변형이 가능함은 당업자에게 자명하다. 따라서, 본 발명은 첨부된 청구항 및 그 동등 범위 내에서 제공되는 본 발명의 변경 및 변형을 포함하는 것으로 의도된다.

Claims (15)

  1. 인터페이스를 통해 콘텐트의 비디오 데이터를 싱크 디바이스로 전송하는 단계; 및
    상기 비디오 데이터에 대한 부가 정보를 포함하는 AVI 인포프레임 (Auxiliary Video Information InfoFrame)을 상기 인터페이스를 통해 상기 싱크 디바이스로 전송하는 단계를 포함하는 비디오 데이터 처리 방법으로서,
    상기 AVI 인포프레임은 상기 콘텐트의 컬러 개멋을 나타내는 컬러리메트리 필드, 상기 컬러리메트리 필드와 함께 상기 콘텐트의 컬러 개멋을 나타내는 확장 컬러리메트리 필드 및 상기 콘텐트를 전송하는 컨테이너의 컬러 개멋을 나타내는 컨테이너 컬러 개멋 확장 필드를 포함하고,
    상기 컬러리메트리 필드는 상기 확장 컬러리메트리 필드가 유효함을 나타내는 정보를 포함하고, 상기 확장 컬러리메트리 필드는 상기 컨테이너 컬러 개멋 확장 필드가 유효함을 나타내는 정보를 포함하는 비디오 데이터 처리 방법.
  2. 제 1 항에 있어서,
    상기 비디오 데이터 처리 방법은 상기 싱크 디바이스가 지원하는 컬러 개멋에 대한 정보를 포함하는 컬러리메트리 데이터 블록을 상기 인터페이스를 통해 상기 싱크 디바이스로부터 수신하는 단계를 더 포함하고,
    상기 컬러리메트리 데이터 블록은 상기 싱크 디바이스가 DCI-P3 컬러 개멋을 지원하는지 여부를 나타내는 정보를 포함하는 비디오 데이터 처리 방법.
  3. 제 1 항에 있어서,
    상기 비디오 데이터 처리 방법은 상기 비디오 데이터의 다이나믹 레인지에 대한 정보를 포함하는 DRM 인포프레임 (Dynamic Range and Mastering InfoFrame)을 상기 인터페이스를 통해 싱크 디바이스로 전송하는 단계를 더 포함하고,
    상기 DRM 인포프레임은 상기 콘텐트의 컬러 개멋을 나타내는 콘텐트 컬러 개멋 필드를 포함하고, 상기 콘텐트 컬러 개멋 필드는 상기 콘텐트의 컬러 개멋이 상기 컨테이너의 컬러 개멋과 동일함을 나타내는 정보 및 상기 콘텐트의 컬러 개멋이 DCI-P3 컬러 개멋임을 나타내는 정보를 포함하는 비디오 데이터 처리 방법.
  4. 제 1 항에 있어서,
    상기 비디오 데이터 처리 방법은 상기 싱크 디바이스의 HDR (High Dynamic Range) 성능을 나타내는 HDR 스테틱 메타데이터 데이터 블록 (HDR Static Metadata Data Block)을 상기 인터페이스를 통해 상기 싱크 디바이스로부터 수신하는 단계를 더 포함하고,
    상기 HDR 스테틱 메타데이터 데이터 블록은 상기 싱크 디바이스가 상기 콘텐트의 컬러 개멋에 대한 정보를 필요로하는지 여부를 나타내는 정보를 포함하는 비디오 데이터 처리 방법.
  5. 제 1 항에 있어서,
    상기 비디오 데이터 처리 방법은 상기 비디오 데이터의 다이나믹 레인지에 대한 정보를 포함하는 DRM 인포프레임을 상기 인터페이스를 통해 싱크 디바이스로 전송하는 단계를 더 포함하고,
    상기 DRM 인포프레임은 스테틱 메타데이터 디스크립터 (Static Metadata Descriptor) 및 상기 스테틱 메타데이터 디스크립터를 식별하는 식별 정보를 포함하고,
    상기 스테틱 메타데이터 디스크립터는 상기 콘텐트를 마스터링 처리하기 위해 사용되는 마스터링 디스플레이의 컬러리메트리 정보를 나타내는 디스플레이 컬러리메트리 필드 및 상기 콘텐트의 컬러 개멋을 나타내는 콘텐트 컬러 개멋 필드 중 적어도 하나를 포함하는 비디오 데이터 처리 방법.
  6. 제 1 항에 있어서,
    상기 비디오 데이터 처리 방법은 상기 비디오 데이터의 다이나믹 레인지에 대한 정보를 포함하는 DRM 인포프레임을 상기 인터페이스를 통해 싱크 디바이스로 전송하는 단계를 더 포함하고,
    상기 DRM 인포프레임은 스테틱 메타데이터 디스크립터 및 상기 스테틱 메타데이터 디스크립터를 식별하는 식별 정보를 포함하고,
    상기 스테틱 메타데이터 디스크립터는 상기 콘텐트의 컬러 개멋을 나타내는 콘텐트 컬러 개멋 필드 및 상기 콘텐트의 실제 컬러리메트리 값 중 적어도 하나를 포함하는 비디오 데이터 처리 방법.
  7. 제 5 항에 있어서,
    상기 DRM 인포프레임은 상기 스테틱 메타데이터 디스크립터에 포함된 상기 디스플레이 컬러리메트리 필드가 상기 콘텐트의 컬러 개멋을 기술하기 위해 사용되는지 여부를 나타내는 정보를 포함하는 비디오 데이터 처리 방법.
  8. 인터페이스를 통해 콘텐트의 비디오 데이터를 소스 디바이스로부터 수신하는 단계; 및
    상기 비디오 데이터에 대한 부가 정보를 포함하는 AVI 인포프레임 (Auxiliary Video Information InfoFrame)을 상기 인터페이스를 통해 상기 소스 디바이스로부터 수신하는 단계를 포함하는 비디오 데이터 처리 방법으로서,
    상기 AVI 인포프레임은 상기 콘텐트의 컬러 개멋을 나타내는 컬러리메트리 필드, 상기 컬러리메트리 필드와 함께 상기 콘텐트의 컬러 개멋을 나타내는 확장 컬러리메트리 필드 및 상기 콘텐트를 전송하는 컨테이너의 컬러 개멋을 나타내는 컨테이너 컬러 개멋 확장 필드를 포함하고,
    상기 컬러리메트리 필드는 상기 확장 컬러리메트리 필드가 유효함을 나타내는 정보를 포함하고, 상기 확장 컬러리메트리 필드는 상기 컨테이너 컬러 개멋 확장 필드가 유효함을 나타내는 정보를 포함하는 비디오 데이터 처리 방법.
  9. 제 8 항에 있어서,
    상기 비디오 데이터 처리 방법은 싱크 디바이스가 지원하는 컬러 개멋에 대한 정보를 포함하는 컬러리메트리 데이터 블록을 상기 인터페이스를 통해 상기 소스 디바이스로 전송하는 단계를 더 포함하고,
    상기 컬러리메트리 데이터 블록은 상기 싱크 디바이스가 DCI-P3 컬러 개멋을 지원하는지 여부를 나타내는 정보를 포함하는 비디오 데이터 처리 방법.
  10. 제 8 항에 있어서,
    상기 비디오 데이터 처리 방법은 상기 비디오 데이터의 다이나믹 레인지에 대한 정보를 포함하는 DRM 인포프레임 (Dynamic Range and Mastering InfoFrame)을 상기 인터페이스를 통해 상기 소스 디바이스로부터 수신하는 단계를 더 포함하고,
    상기 DRM 인포프레임은 상기 콘텐트의 컬러 개멋을 나타내는 콘텐트 컬러 개멋 필드를 포함하고, 상기 콘텐트 컬러 개멋 필드는 상기 콘텐트의 컬러 개멋이 상기 컨테이너의 컬러 개멋과 동일함을 나타내는 정보 및 상기 콘텐트의 컬러 개멋이 DCI-P3 컬러 개멋임을 나타내는 정보를 포함하는 비디오 데이터 처리 방법.
  11. 제 8 항에 있어서,
    상기 비디오 데이터 처리 방법은 싱크 디바이스의 HDR (High Dynamic Range) 성능을 나타내는 HDR 스테틱 메타데이터 데이터 블록 (HDR Static Metadata Data Block)을 상기 인터페이스를 통해 상기 소스 디바이스로 전송하는 단계를 더 포함하고,
    상기 HDR 스테틱 메타데이터 데이터 블록은 상기 싱크 디바이스가 상기 콘텐트의 컬러 개멋에 대한 정보를 필요로하는지 여부를 나타내는 정보를 포함하는 비디오 데이터 처리 방법.
  12. 제 8 항에 있어서,
    상기 비디오 데이터 처리 방법은 상기 비디오 데이터의 다이나믹 레인지에 대한 정보를 포함하는 DRM 인포프레임을 상기 인터페이스를 통해 상기 소스 디바이스로부터 수신하는 단계를 더 포함하고,
    상기 DRM 인포프레임은 스테틱 메타데이터 디스크립터 (Static Metadata Descriptor) 및 상기 스테틱 메타데이터 디스크립터를 식별하는 식별 정보를 포함하고,
    상기 스테틱 메타데이터 디스크립터는 상기 콘텐트를 마스터링 처리하기 위해 사용되는 마스터링 디스플레이의 컬러리메트리 정보를 나타내는 디스플레이 컬러리메트리 필드 및 상기 콘텐트의 컬러 개멋을 나타내는 콘텐트 컬러 개멋 필드 중 적어도 하나를 포함하는 비디오 데이터 처리 방법.
  13. 제 8 항에 있어서,
    상기 비디오 데이터 처리 방법은 상기 비디오 데이터의 다이나믹 레인지에 대한 정보를 포함하는 DRM 인포프레임을 상기 인터페이스를 통해 상기 소스 디바이스로부터 수신하는 단계를 더 포함하고,
    상기 DRM 인포프레임은 스테틱 메타데이터 디스크립터 및 상기 스테틱 메타데이터 디스크립터를 식별하는 식별 정보를 포함하고,
    상기 스테틱 메타데이터 디스크립터는 상기 콘텐트의 컬러 개멋을 나타내는 콘텐트 컬러 개멋 필드 및 상기 콘텐트의 실제 컬러리메트리 값 중 적어도 하나를 포함하는 비디오 데이터 처리 방법.
  14. 인터페이스를 통해 콘텐트의 비디오 데이터를 싱크 디바이스로 전송하는 제 1 전송부; 및
    상기 비디오 데이터에 대한 부가 정보를 포함하는 AVI 인포프레임 (Auxiliary Video Information InfoFrame)을 상기 인터페이스를 통해 상기 싱크 디바이스로 전송하는 제 2 전송부를 포함하는 비디오 데이터 처리 장치로서,
    상기 AVI 인포프레임은 상기 콘텐트의 컬러 개멋을 나타내는 컬러리메트리 필드, 상기 컬러리메트리 필드와 함께 상기 콘텐트의 컬러 개멋을 나타내는 확장 컬러리메트리 필드 및 상기 콘텐트를 전송하는 컨테이너의 컬러 개멋을 나타내는 컨테이너 컬러 개멋 확장 필드를 포함하고,
    상기 컬러리메트리 필드는 상기 확장 컬러리메트리 필드가 유효함을 나타내는 정보를 포함하고, 상기 확장 컬러리메트리 필드는 상기 컨테이너 컬러 개멋 확장 필드가 유효함을 나타내는 정보를 포함하는 비디오 데이터 처리 장치.
  15. 인터페이스를 통해 콘텐트의 비디오 데이터를 소스 디바이스로부터 수신하는 제 1 수신부; 및
    상기 비디오 데이터에 대한 부가 정보를 포함하는 AVI 인포프레임 (Auxiliary Video Information InfoFrame)을 상기 인터페이스를 통해 상기 소스 디바이스로부터 수신하는 제 2 수신부를 포함하는 비디오 데이터 처리 장치로서,
    상기 AVI 인포프레임은 상기 콘텐트의 컬러 개멋을 나타내는 컬러리메트리 필드, 상기 컬러리메트리 필드와 함께 상기 콘텐트의 컬러 개멋을 나타내는 확장 컬러리메트리 필드 및 상기 콘텐트를 전송하는 컨테이너의 컬러 개멋을 나타내는 컨테이너 컬러 개멋 확장 필드를 포함하고,
    상기 컬러리메트리 필드는 상기 확장 컬러리메트리 필드가 유효함을 나타내는 정보를 포함하고, 상기 확장 컬러리메트리 필드는 상기 컨테이너 컬러 개멋 확장 필드가 유효함을 나타내는 정보를 포함하는 비디오 데이터 처리 장치.
PCT/KR2016/011202 2015-10-06 2016-10-06 방송 신호 송신 장치, 방송 신호 수신 장치, 방송 신호 송신 방법, 및 방송 신호 수신 방법 WO2017061796A1 (ko)

Priority Applications (4)

Application Number Priority Date Filing Date Title
US201562238097P true 2015-10-06 2015-10-06
US62/238,097 2015-10-06
US201562238721P true 2015-10-08 2015-10-08
US62/238,721 2015-10-08

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
US15/759,798 US10587852B2 (en) 2015-10-06 2016-10-06 Broadcast signal transmission device, broadcast signal reception device, broadcast signal transmission method, and broadcast signal reception method

Publications (1)

Publication Number Publication Date
WO2017061796A1 true WO2017061796A1 (ko) 2017-04-13

Family

ID=58487982

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2016/011202 WO2017061796A1 (ko) 2015-10-06 2016-10-06 방송 신호 송신 장치, 방송 신호 수신 장치, 방송 신호 송신 방법, 및 방송 신호 수신 방법

Country Status (2)

Country Link
US (1) US10587852B2 (ko)
WO (1) WO2017061796A1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019094346A1 (en) * 2017-11-08 2019-05-16 Interdigital Vc Holdings, Inc. Processing an image

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10587852B2 (en) * 2015-10-06 2020-03-10 Lg Electronics Inc. Broadcast signal transmission device, broadcast signal reception device, broadcast signal transmission method, and broadcast signal reception method
KR20190052146A (ko) * 2016-10-05 2019-05-15 돌비 레버러토리즈 라이쎈싱 코오포레이션 Source color volume information messaging
US20200213638A1 (en) * 2019-01-02 2020-07-02 Tencent America LLC Service descriptions for multimedia streaming
WO2020226674A1 (en) * 2019-05-06 2020-11-12 Huawei Technologies Co. Ltd. Display of video content on a sink device using advanced features

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100157154A1 (en) * 2007-08-02 2010-06-24 Sony Corporation Image processing apparatus
US20140079113A1 (en) * 2011-05-10 2014-03-20 Koninklijke Philips N.V. High dynamic range image signal generation and processing
WO2014130343A2 (en) * 2013-02-21 2014-08-28 Dolby Laboratories Licensing Corporation Display management for high dynamic range video
US20140369662A1 (en) * 2007-03-13 2014-12-18 Sony Corporation Communication system, transmission apparatus, transmission method, reception apparatus and reception method
WO2015076608A1 (ko) * 2013-11-21 2015-05-28 엘지전자 주식회사 비디오 처리 방법 및 비디오 처리 장치

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007132877A1 (ja) * 2006-05-16 2007-11-22 Sony Corporation 通信システム、送信装置及び受信装置、通信方法、並びにプログラム
JP5240491B2 (ja) * 2007-06-26 2013-07-17 ソニー株式会社 送信装置および受信装置
US9055281B2 (en) * 2010-05-20 2015-06-09 Samsung Electronics Co., Ltd. Source device and sink device and method of transmitting and receiving multimedia service and related data
RU2013152741A (ru) * 2011-04-28 2015-06-10 Конинклейке Филипс Н.В. Способ и устройство для генерирования сигнала кодирования изображения
JP6464083B2 (ja) * 2013-06-20 2019-02-06 サターン ライセンシング エルエルシーSaturn Licensing LLC 再生装置、再生方法
TWI684364B (zh) * 2013-06-21 2020-02-01 日商新力股份有限公司 Sending device, high dynamic range image data sending method, receiving device, high dynamic range image data receiving method and program
CN106464964B (zh) * 2014-03-13 2019-09-10 Lg电子株式会社 利用hdmi发送和接收数据的装置和方法
CN106134210B (zh) * 2014-03-24 2019-04-16 Lg电子株式会社 利用hdmi进行数据发送和接收的装置和方法
WO2015174109A1 (ja) * 2014-05-12 2015-11-19 ソニー株式会社 通信装置及び通信方法、並びにコンピューター・プログラム
JP6571073B2 (ja) * 2014-05-20 2019-09-04 エルジー エレクトロニクス インコーポレイティド ディスプレイ適応的映像再生のためのビデオデータ処理方法及び装置
WO2015190880A1 (ko) * 2014-06-12 2015-12-17 엘지전자(주) Hdmi를 사용하여 데이터를 송수신하기 위한 방법 및 장치
WO2016021809A1 (ko) * 2014-08-08 2016-02-11 엘지전자 주식회사 디스플레이 적응적 영상 재생을 위한 비디오 데이터 처리 방법 및 장치
JP2016052015A (ja) * 2014-08-29 2016-04-11 株式会社東芝 電子機器および色域判定方法
EP3209016A4 (en) * 2014-10-14 2018-02-28 LG Electronics Inc. Method and apparatus for transmitting and receiving data using hdmi
WO2016060447A2 (ko) * 2014-10-14 2016-04-21 엘지전자(주) Hdmi를 사용한 데이터 송수신 기기 및 방법
US10587852B2 (en) * 2015-10-06 2020-03-10 Lg Electronics Inc. Broadcast signal transmission device, broadcast signal reception device, broadcast signal transmission method, and broadcast signal reception method

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140369662A1 (en) * 2007-03-13 2014-12-18 Sony Corporation Communication system, transmission apparatus, transmission method, reception apparatus and reception method
US20100157154A1 (en) * 2007-08-02 2010-06-24 Sony Corporation Image processing apparatus
US20140079113A1 (en) * 2011-05-10 2014-03-20 Koninklijke Philips N.V. High dynamic range image signal generation and processing
WO2014130343A2 (en) * 2013-02-21 2014-08-28 Dolby Laboratories Licensing Corporation Display management for high dynamic range video
WO2015076608A1 (ko) * 2013-11-21 2015-05-28 엘지전자 주식회사 비디오 처리 방법 및 비디오 처리 장치

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019094346A1 (en) * 2017-11-08 2019-05-16 Interdigital Vc Holdings, Inc. Processing an image

Also Published As

Publication number Publication date
US20180262731A1 (en) 2018-09-13
US10587852B2 (en) 2020-03-10

Similar Documents

Publication Publication Date Title
WO2015099343A1 (ko) 디지털 디바이스 및 그 제어 방법
WO2012173423A2 (ko) 무선데이터통신장치 및 무선데이터통신방법
WO2015108373A1 (en) Apparatus and method for operating user plane protocol stack in connectionless communicaton system
WO2013089437A1 (ko) 미디어 컨텐트를 수신하는 장치 및 방법
WO2012161552A2 (ko) 송/수신 시스템 및 방송 신호 처리 방법
WO2011099749A2 (ko) 방송 신호 송/수신기 및 방송 신호 송/수신 방법
WO2013055191A2 (ko) 방송 시스템에서의 제어 메시지 구성 장치 및 방법
WO2012074197A1 (en) Method for sharing messages in image display device and image display device for the same
WO2015064942A1 (en) Apparatus for transmitting broadcast signals, apparatus for receiving broadcast signals, method for transmitting broadcast signals and method for receiving broadcast signals
WO2011083934A2 (en) Method for connecting video communication to other device, video communication apparatus and display apparatus thereof
WO2015023098A1 (ko) 방송 신호 송신 장치, 방송 신호 수신 방법, 방송 신호 송신 방법 및 방송 신호 수신 방법
WO2012015117A1 (en) Method for operating image display apparatus
WO2011105811A2 (en) Method and apparatus for transmitting and receiving data
WO2018038523A1 (ko) 전방향 비디오를 전송하는 방법, 전방향 비디오를 수신하는 방법, 전방향 비디오 전송 장치, 전방향 비디오 수신 장치
WO2011132984A2 (ko) 서로 다른 소스에 의해 제공되는 컨텐츠의 이전 시청 리스트 제공 방법 및 상기 방법을 수행하는 디스플레이 장치
WO2011129631A2 (ko) 디지털 자막 방송을 위한 방송 비트스트림을 생성하는 방법 및 그 장치, 디지털 자막 방송을 위한 방송 비트스트림을 수신하는 방법 및 그 장치
WO2010033006A2 (ko) 실감 효과 표현 방법 및 장치
WO2011136458A1 (en) Image display apparatus and method for operating the same
WO2011122908A2 (ko) 방송 신호 송신 장치, 방송 신호 수신 장치, 및 방송 신호 송/수신 장치에서 방송 신호 송수신 방법
WO2013133601A1 (en) Video display apparatus and operating method thereof
WO2016056787A1 (en) Display device and method of controlling the same
WO2011142564A2 (ko) 방송 신호 송신 장치, 방송 신호 수신 장치, 및 방송 신호 송/수신 장치에서 방송 신호 송수신 방법
WO2014007571A1 (en) Method and apparatus for processing digital service signals
WO2011093677A2 (en) Method and apparatus for transmitting digital broadcasting stream using linking information about multi-view video stream, and method and apparatus for receiving the same
WO2013119082A1 (ko) 영상 표시 장치 및 그 동작 방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16853912

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 15759798

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 16853912

Country of ref document: EP

Kind code of ref document: A1