JP2017503379A - ビデオ処理方法及びビデオ処理装置 - Google Patents

ビデオ処理方法及びビデオ処理装置 Download PDF

Info

Publication number
JP2017503379A
JP2017503379A JP2016532547A JP2016532547A JP2017503379A JP 2017503379 A JP2017503379 A JP 2017503379A JP 2016532547 A JP2016532547 A JP 2016532547A JP 2016532547 A JP2016532547 A JP 2016532547A JP 2017503379 A JP2017503379 A JP 2017503379A
Authority
JP
Japan
Prior art keywords
video
information
display
processing
source device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016532547A
Other languages
English (en)
Inventor
ヒョンムク オ
ヒョンムク オ
チャンウン パク
チャンウン パク
チョンヨル ソ
チョンヨル ソ
スンリュル ヤン
スンリュル ヤン
チュンイ ユン
チュンイ ユン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
LG Electronics Inc
Original Assignee
LG Electronics Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by LG Electronics Inc filed Critical LG Electronics Inc
Publication of JP2017503379A publication Critical patent/JP2017503379A/ja
Pending legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/258Client or end-user data management, e.g. managing client capabilities, user preferences or demographics, processing of multiple end-users preferences to derive collaborative data
    • H04N21/25808Management of client data
    • H04N21/25825Management of client data involving client display capabilities, e.g. screen resolution of a mobile phone
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/434Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/436Interfacing a local distribution network, e.g. communicating with another STB or one or more peripheral devices inside the home
    • H04N21/4363Adapting the video stream to a specific local network, e.g. a Bluetooth® network
    • H04N21/43632Adapting the video stream to a specific local network, e.g. a Bluetooth® network involving a wired protocol, e.g. IEEE 1394
    • H04N21/43635HDMI
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/4402Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/4508Management of client data or end-user data
    • H04N21/4516Management of client data or end-user data involving client characteristics, e.g. Set-Top-Box type, software version or amount of memory available
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/4508Management of client data or end-user data
    • H04N21/4518Management of client data or end-user data involving characteristics of one or more peripherals, e.g. peripheral type, software version, amount of memory available or display capabilities
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/015High-definition television systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Databases & Information Systems (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Computer Security & Cryptography (AREA)
  • Computer Graphics (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

【課題】本発明は、ビデオ処理方法及びビデオ処理装置に関する。【解決手段】本発明の実施例は、ディスプレイ機器に対するディスプレイ関連情報をインターフェースを介してソースデバイスに伝送するステップ、ディスプレイ機器のビデオ表出機能に応じて処理されたUHDビデオに対するビデオオプション情報を、インターフェースを介して受信するステップ、処理されたUHDビデオをインターフェースを介して受信するステップ、及び受信したUHDビデオを前記ディスプレイ機器に表出するステップを含むビデオ処理方法を提供する。【選択図】図1

Description

本発明は、ビデオ処理方法及びビデオ処理装置に関する。
ビデオ信号処理速度が高速化するに伴い、超高解像度(ultra high definition;UHD)ビデオをエンコーディング/デコーディングする方案が研究されている。
UHDコンテンツは、既存のコンテンツに比べて様々な面で向上した画質を提供することを目標とする。そのために、放送分野のみならず様々な分野でUHDビデオ要素に対する研究及び開発が進んでいる。そのうち、既存のコンテンツで提供できなかった色感及び明るさの面で向上した視聴者経験の提供に対する要求が高まっている。
そのため、UHDビデオを構成する様々な要素のうち、色相及び明るさ表現の範囲を拡大して高品質映像を提供するための努力が続けられている。
UHDディスプレイ機器は、色相及び明るさの表現力の面において既存のディスプレイ機器と差別化される。
しかし、様々なディスプレイ機器の環境下で、UHDコンテンツを最適の環境で視聴するための技術が開発されていないという問題がある。
例えば、次世代ディスプレイ機器の普及が進んでいる状況で、UHDコンテンツが供給される場合、ディスプレイ機器の物理的特性によって色感または明るさの制限が発生するため、コンテンツの鑑賞が良好に行われないという問題がある。
ディスプレイ機器に適応的にコンテンツの色感及び明るさを調整するためには、ディスプレイ機器の特性に対する正確な分析に基づいてコンテンツの変換が行われなければならない。しかし、もし、ディスプレイ機器の外部機器を介してUHDコンテンツが供給される場合、ディスプレイ機器の特性を制限的に伝達するという問題があった。
本発明の目的は、様々なディスプレイ機器の環境下で、UHDコンテンツを含むコンテンツを最適の環境で視聴することができるビデオ処理方法及びビデオ処理装置を提供することである。
本発明の他の目的は、UHDコンテンツを含むUHDコンテンツを様々なディスプレイ機器で表出する場合、そのディスプレイ機器の物理的特性による色感または明るさ表現の制限が少なくなるようにするビデオ処理方法及びビデオ処理装置を提供することである。
本発明の他の目的は、ディスプレイ機器の外部機器を介してUHDコンテンツを含むコンテンツが供給される場合でも、ディスプレイ機器の特性を伝達することによって、UHDコンテンツを含むコンテンツを最適の環境で視聴することができるビデオ処理方法及びビデオ処理装置を提供することである。
本発明の実施例は、ディスプレイ機器に対するディスプレイ関連情報をインターフェースを介してソースデバイスに伝送するステップ、前記ディスプレイ機器のビデオ表出機能に応じて処理されたUHDビデオに対するビデオオプション情報を、前記インターフェースを介して受信するステップ、前記処理されたUHDビデオを前記インターフェースを介して受信するステップ、及び前記受信したUHDビデオを前記ディスプレイ機器に表出するステップを含むビデオ処理方法を提供する。
前記ディスプレイ関連情報は、前記ディスプレイ機器のビデオ表出機能に応じたディスプレイオプション情報を含むことができる。前記ディスプレイオプション情報は、前記ソースデバイスのプロセッシングを制御する情報または前記ディスプレイ機器の明るさ情報を含むことができる。
前記ビデオオプション情報は、前記処理されたUHDビデオの明るさ処理情報または前記UHDビデオの色空間変換情報を含むことができる。
本発明の他の実施例は、ディスプレイ機器に対するディスプレイ関連情報をインターフェースを介してソースデバイスに伝送するメタデータプロセッサ、前記ディスプレイ機器のビデオ表出機能に応じて処理されたUHDビデオに対するビデオオプション情報を、前記インターフェースを介して受信するコントローラ、及び前記処理されたUHDビデオを前記インターフェースを介して受信するようにし、前記受信したUHDビデオを前記ディスプレイ機器に表出するように制御するディスプレイパネルコントローラを含むビデオ処理装置を提供する。
本発明の他の実施例は、エンコーディングされたUHDビデオをデコーディングするデコーダ、ディスプレイ機器に対するディスプレイ関連情報をインターフェースを介して受信するメタデータプロセッサ、前記デコーディングしたUHDビデオを前記ディスプレイ機器のビデオ表出機能に応じて処理するビデオ処理部、及び前記デコーディングしたUHDビデオをディスプレイ機器のビデオ表出機能に応じて処理した情報であるビデオオプション情報を、前記インターフェースを介してシンクデバイスに伝送するオプションコントローラを含むビデオ処理装置を提供する。
本発明の他の実施例は、エンコーディングされたUHDビデオをデコーディングするステップ、ディスプレイ機器に対するディスプレイ関連情報をインターフェースを介して受信するステップ、前記デコーディングしたUHDビデオを前記ディスプレイ機器のビデオ表出機能に応じて処理するステップ、及び前記デコーディングしたUHDビデオをディスプレイ機器のビデオ表出機能に応じて処理した情報であるビデオオプション情報を、前記インターフェースを介してシンクデバイスに伝送するステップを含むビデオ処理方法を提供する。
本発明の実施例によれば、様々なディスプレイ機器の環境下で、UHDコンテンツを含むコンテンツを最適の環境で視聴することができる。
本発明の実施例によれば、UHDコンテンツを含むUHDコンテンツを様々なディスプレイ機器で表出する場合、それらディスプレイ機器の物理的特性による色感または明るさ表現の制限が少なくなるようにすることができる。
本発明の実施例によれば、ディスプレイ機器の外部機器を介してUHDコンテンツが供給される場合でも、ディスプレイ機器の特性を伝達することによって、UHDコンテンツを含むUHDコンテンツを最適の環境で視聴することができる。
本発明に係るビデオ処理方法の一実施例を例示した図である。 ビデオ映像を送受信するためにソースデバイスとシンクデバイスが接続された例を示した図である。 本発明の実施例によってソースデバイスがシンクデバイスと接続された場合、情報を送受信する実施例を示した図である。 本発明の実施例によってシンクデバイスがソースデバイスに伝達する情報の一例を示した図である。 本発明の実施例によってシンクデバイスがソースデバイスに伝達する情報の一例として、具体的なフィールド値を例示した図である。 本発明の実施例に係るコントロールオプションフラグ(control option flag)の詳細な例を例示した図である。 本発明の実施例に係るシンクデバイスダイナミックレンジ(Sink Device Dynamic Range)情報の詳細な例を例示した図である。 本発明の実施例によってシンクデバイスでソースデバイスに伝達するディスプレイ関連情報として、DisplayIDのディスプレイパラメータデータブロック(Display Parameters Data Block)を例示した図である。 本発明の実施例で記述するディスプレイ関連情報として、ディスプレイデバイスデータブロック(Display Device Data Block)を例示した図である。 本発明に実施例によってシンクデバイスがソースデバイスにディスプレイ関連情報を伝達する更に他の例を例示した図である。 本発明の実施例によってソースデバイスでシンクデバイスに伝達する情報を例示した図である。 本発明の実施例によって開示したポストプロセッシングタイプ情報の詳細な例を示した図である。 本発明の実施例によって開示したオリジナルカラーガマット情報(Orig_color_gamut)の詳細な例を示した図である。 本発明の実施例によってソースデバイスがシンクデバイスに伝達する映像のカラー情報を伝達する他の例を示した図である。 本発明の一実施例に係るソースデバイス及びシンクデバイスを例示した図である。 本発明に係るビデオ処理方法の他の一実施例を例示した図である。
図1は、本発明に係るビデオ処理方法の一実施例を例示した図である。
ここで、以下で開示するシンクデバイスがビデオ処理を行う方法の一実施例を説明すると、次の通りである。
ディスプレイ機器に対するディスプレイ関連情報をソースデバイスに伝送する(S110)。ディスプレイ関連情報は、ディスプレイ機器のビデオ表出機能に関する情報であって、ディスプレイ機器のカラーガマット(color gamut)情報またはディスプレイ機器の明るさ関連情報を含むことができる。これについての詳細な例は後述する。
ディスプレイ機器のビデオ表出機能に応じて処理されたUHDビデオに対するビデオオプション情報を受信する(S120)。ビデオオプション情報は、処理されたUHDビデオのカラーガマット情報、ダイナミックレンジ情報及び後処理情報などを含むことができる。ビデオオプション情報についての詳細な実施例は、図11乃至図14の例を参照して説明する。
処理されたUHDビデオを受信する(S130)。
受信したUHDビデオをディスプレイ機器に表出する(S140)。
図示していないが、開示したビデオ処理方法の実施例は、ディスプレイ機器が適切に表出するように、UHDビデオ処理に対するディスプレイオプション情報を伝送することができる。ディスプレイオプション情報は、図4乃至図10の例に従ってもよく、その他の詳細な例も以下で開示した。このように、シンクデバイスは、ソースデバイスのビデオ処理を制御できるディスプレイオプション情報を伝送することができ、ディスプレイのためのディスプレイオプション情報もディスプレイ関連情報に含まれてもよい。
図2は、ビデオ映像を送受信するためにソースデバイスとシンクデバイスが接続された例を示した図である。同図において、映像のデコーディング及び画質処理が可能なソースデバイスと映像の出力が可能なシンクデバイスとの情報交換は、次の通りである。
ソースデバイス100は、放送、ブルーレイ(Blu−ray)、UV(Ultra Violet)、SCSA(Secure Content Storage Association)などの格納媒体、IP(internet protocol)ストリーミングなどの様々な経路で入ってくる映像に対して復号化(decoding)する機器、または画質処理のためのビデオプロセッシングが可能な機器を総称する。例えば、セットトップボックス、ブルーレイディスク(BD)プレーヤーのような格納媒体のプレーヤー、コンピュータなどがこれに該当する。
ソースデバイス100のビデオプロセッシングは、WCG(Wide color gamut)、HDR(high dynamic range)またはその他のポストプロセッシング(post processing)などの画質を変化させる方式が含まれてもよい。この場合、映像に対して一括的にビデオプロセッシングを行うものではなく、シンクデバイスが提供するディスプレイ情報、例えば、カラーガマット(color gamut)情報またはダイナミックレンジ(dynamic range)情報などに基づいて、当該ビデオソースがディスプレイ機器で再生可能であるか否かを判断し、必要であれば、再生するのに適した画質に変換して提供する。
また、ソースデバイス100の映像処理過程をシンクデバイス200でコントロールする必要がある場合、それに関する情報を提供して、ソースデバイス100でどのような映像処理過程が用いられたかに関する情報の提供を受けることができる。
ソースデバイス100は、シンクデバイス200から、ディスプレイ関連メタ情報またはディスプレイオプション情報を受信することができる。そして、受信された情報に基づいて、ソースデバイス100は、シンクデバイス200に、UHDビデオメタデータ及びプロセッシングされたビデオのプロセッシングオプション情報を提供することができる。シンクデバイス200は、ソースデバイス100が提供したデータや情報に基づいて、ソースデバイス100がプロセッシングしたビデオを表出することができる。シンクデバイス200は、当該ディスプレイに合うカラーガマット情報やダイナミックレンジ範囲内でソースデバイス100がプロセッシングしたビデオを表出することができる。
図3は、本発明の実施例によってソースデバイスがシンクデバイスと接続された場合、情報を送受信する実施例を示した図である。
この例は、ソースデバイスがシンクデバイスとHDMIまたはディスプレイポート(Display Port)のような有線インターフェースで接続される場合を示す。この例は、ソースデバイスとシンクデバイスが有線インターフェースで接続されているとき、EDID(Extended Display Identification Data)のHDR(High Dynamic Range)のデータブロックを通じてシンクデバイス200でソースデバイス100のHDR及びWCG機能を制御(Activation or Deactivation)し、これを用いて、ソースデバイスがシンクデバイスの変更されたEDIDを読み込む実施例を例示する。
ソースデバイスがシンクデバイスに有線インターフェースで接続される場合、ソースデバイスは、当該有線インターフェースの+5Vパワーラインにハイレベル(high level)電圧を印加し、シンクデバイスは、これを通じて、ソースデバイスが接続されることを確認する(S1)。
シンクデバイスは、ローレベル(low level)電圧に維持されているホットプラグ検出ライン(Hot Plug Detect line)にハイレベル電圧を印加することによって、シンクデバイスとの接続完了及びEDIDのようなディスプレイ関連情報(以下、ディスプレイ関連情報)を読む準備ができたことをソースデバイスに知らせる(S2)。
ソースデバイスは、ホットプラグ検出ラインがハイレベルに遷移することを確認し、ディスプレイデータチャネル(Display Data Channel)を介してシンクデバイスに、ディスプレイ関連情報に対する読み取り要請をし(S3)、シンクデバイスは、ディスプレイ関連情報をディスプレイデータチャネルを介してソースデバイスに伝送する(S4)。
シンクデバイスでユーザの要請によってシグナリングされるか、またはシンクデバイスの機能的判断によってディスプレイ関連情報のHDRデータブロック(HDR Data Block)のコントロールオプションフラグ(Control option flag)に当該フィールドが変更される場合(S5)、シンクデバイスは、ソースデバイスにディスプレイ関連情報のアップデートされた情報を知らせるために、ホットプラグ検出ラインにローレベル電圧を印加し、この電圧を一定時間、例えば、最小100msの間維持する(S6)。
ソースデバイスでディスプレイ関連情報の読み取りが可能になると、シンクデバイスは、ホットプラグ検出ラインにハイレベル電圧を印加し(S7)、ソースデバイスは、これを感知し、ディスプレイデータチャネルを介してディスプレイ関連情報読み取り要請をする(S8)。そして、シンクデバイスは、ディスプレイデータチャネルを介して、変更されたディスプレイ関連情報を送信する(S9)。
このような動作に基づいて、本発明の実施例に係るソースデバイスとシンクデバイスとの間の情報交換の例を説明すると、次の通りである。
本発明の実施例によれば、上述したS3又はS8の要請に対する応答として、シンクデバイスは、カラーガマット(color gamut)情報及び明るさ(brightness)情報をソースデバイスに伝達することができる(S4又はS9に含まれる)。
カラーガマット情報は、RGBWに該当する色空間であるCIE xyダイアグラム上のカラープライマリ(color primary)座標あるいはBT.709又はBT.2020などのカラーガマット情報を含むことができる。この情報は、インターフェースで定義されているDisplayIDのカラー特性データブロック(color characteristics data block)などを介して伝達されてもよい。明るさ関連情報は、最大明るさまたは最小明るさ値を含むことができ、実施例で開示する例によれば、インターフェースのDisplayID、EDID、またはEDID extension情報などに定義されたデータブロック(datablock)を用いて伝達されてもよい。
すると、ソースデバイスは、伝達されたディスプレイ関連情報に基づいて、ビデオの色相または明るさ情報を調整する必要があるか否かを判断する。ソースデバイスが、色相または明るさの調整が必要であると判断される場合、ビデオで提供するカラーマッピング(color mapping)あるいはダイナミックレンジマッピング(dynamic range mapping)情報に基づいて変換したり、ソースデバイス自体でビデオの色相または明るさ情報を提供する方法を使用してもよい。
ソースデバイスは、このように調整された最終映像をシンクデバイスに伝達する。このとき、最終ビデオに対するカラーガマット(color gamut)またはダイナミックレンジ(dynamic range)関連メタデータ(metadata)をインターフェースのInfoFrameを介して伝達することができる。カラーガマット情報の場合、インターフェースのAVI infoFrameで既存に定義しているカラーガマット情報(例えば、BT.709、BT.2020など)を用いて伝達することができる。ダイナミックレンジ関連情報は、最大または最小明るさ情報を伝達することができ、実施例で記述する方法を通じて新たなInfoFrameを定義したり、またはAVI InfoFrameを拡張する方法を通じて伝達してもよい。
ソースデバイスが最終映像を伝達するとき、ソースデバイスで処理されたビデオプロセッシング(video processing)に関する情報を提供する必要がある場合、実施例で記述する方法を通じて、InfoFrame内のpost_processing_typeを用いてHDR情報またはWCG情報のようなビデオプロセッシングユニット(video processing unit)の処理情報を伝達することができる。また、最終映像に対して、HDR情報と関連して新しいEOTF(electro−optical transfer function)のような色変換関数情報が定義されて使用された場合、または使用される必要がある場合、新しい色変換関数情報に関する情報をインターフェース情報のフラグ(flag)などを用いて伝達することができる。
最終処理された映像に対して、シンクデバイスは、ソースデバイスの処理が適切であるかを判断し、これに対するフィードバック(feedback)を通じてソースデバイスの制御が必要であるか否かを判断できる。この場合、実施例で記述するDisplayID、EDID、EDID extension情報などに定義されたデータブロック内のコントロールオプションフラグを介してこれを制御することができる。もし、WCG情報またはHDR情報など、ソースデバイスのビデオプロセッシングで処理された結果が適切な場合、シンクデバイスは、WCG情報またはHDR情報に関連するビットを活性化(on)させて、同一の処理が続くように制御することができる。
処理が不適切な場合、シンクデバイスは、WCG情報またはHDR情報と関連するビットを非活性化(off)させることによって、ソースデバイスで現在行っているビデオプロセッシングを使用しないように制御することができる。
シンクデバイスは、コントロールオプションフラグを介して伝達された情報が現在のソースデバイスで処理しているビデオプロセッシングと異なる場合、コントロールオプションフラグにある情報を基準としてビデオプロセッシングを変更する。変更されたビデオ処理と関連してUHDビデオメタデータ(UHD video metadata)が変更される場合、InfoFrame内のカラー特性(color characteristics)情報及び明るさ情報を変更し、ポストプロセッシングタイプ(post_processing_type)を、変更したビデオプロセッシング過程に合わせてアップデートすることができる。そして、S5の過程が行われる。
以下では、シンクデバイスがソースデバイスに伝達する情報を例示する。
本発明の実施例によれば、ソースデバイスがHDR関連情報を処理する場合、シンクデバイスが再生可能な情報に基づいて、ソースデバイスは、シンクデバイスに適した映像処理を行うことができる。この場合、シンクデバイスは、ディスプレイ(display)の明るさ範囲に対する適切な情報、例えば、シンクブラックルミナンスレベル(Sink Black Luminance Level)、シンクホワイトルミナンスレベル(Sink White Luminance Level)、及びソースデバイスのポストプロセッシングをコントロールできるフラグなどをソースデバイスに伝達することができる。この場合、DisplayID、EDID、あるいはEDID extensionのデータブロックを用いることができ、これについての詳細な例を開示すると、次の通りである。
図4は、本発明の実施例によってシンクデバイスがソースデバイスに伝達する情報の一例を示した図である。
同図は、DisplayIDのデータブロックを用いてシンクデバイスがソースデバイスに伝達する情報の例を示す。
同図は、DisplayIDのデータブロックのoffsetフィールド、valueフィールド、及びそれに対する記述(description)とフォーマットを例示する。例えば、DisplayIDのデータブロックのoffsetフィールドが0x00、valueフィールドが0x14である場合、HDRデータブロックを示すことができる。
同面で例示したように、offsetフィールドが0x03である場合、ソースデバイスのポストプロセッシングをコントロールできるフラグ(control option flag)を示すことができる。これについての詳細な値(value)の例は後述する。
そして、offsetフィールドが0x04又は0x05である場合、シンクデバイス自体の表現可能な明るさ値(シンクブラックルミナンスレベル、シンクホワイトルミナンスレベルなど)に関する情報を伝達することができる。
DisplayIDのデータブロックは、後でoffsetフィールド値に応じて、ビデオ処理に必要な情報をさらに含むことができる。例えば、offsetフィールドが0x03である場合、現在のreservedフィールドなどを用いてHDR関連ポストプロセッシング関連情報を伝達することができる。
ここで、offsetフィールドやvalueフィールドの値は任意の値であって、変更可能であり、コントロールオプションフラグの詳細な例及びシンクデバイスのディスプレイ情報についての例は、以下で開示する。
図5は、本発明の実施例によってシンクデバイスがソースデバイスに伝達する情報の一例として、上述した実施例の具体的なフィールド値を例示した図である。
シンクデバイスがソースデバイスに伝達する情報として、DisplayIDのデータブロックのコントロールオプションフラグは、ソースデバイスが行うポストプロセッシング過程をコントロール(on/off)するフィールドである。本発明の実施例によれば、これを用いて、ソース/シンクデバイスのインターフェース上で後で提供される様々なオプションを示すことができ、ここでは、HDR、WCG関連オプションを開示した。
上記で、DisplayIDのデータブロックのoffsetフィールドが0x03である場合、ソースデバイスを制御できるコントロールオプションフラグ情報であることを示すことができることを開示した。Valueフィールドのビット位置に応じて、ソースデバイスのHDRプロセッシングを活性化させるか、またはソースデバイスのWCGプロセッシングを活性化させることができる。この例では、下位2ビットでこれに対する情報をそれぞれ表現した。
本実施例で開示したフィールドは、ユーザの要請によってシグナリングされたり、シンクデバイスの機能的判断によって(シンクデバイスの処理能力が上位にある場合など)制御されてもよい。本発明の実施例は、リザーブドビット(Reserved bit)を用いて、FRC(Frame Rate Control)及びマルチレイヤビデオエンハンスメント(multi−layer video enhancement)の機能に対してシンク−ソースデバイス間の情報交換を行うこともできる。ここで、offsetフィールドやvalueフィールドの値は任意の値であって、変更可能である。
図6は、開示した本発明の実施例に係るコントロールオプションフラグの詳細な例を例示した図である。
コントロールオプションフラグを示すoffsetフィールドのvalueフィールドの下位2ビットに、それぞれソースデバイスで行われるHDR、WCG処理に対するコントロールを行うようにする情報を設定することができる。2つのフラグに対する組み合わせによって、下記の例示のように使用することができる。
この例において、valueフィールドが00000000である場合、ソースデバイスでいかなる処理も行わないことを示す。例えば、valueフィールドが10000000である場合、ソースデバイスのHDR処理に関する情報を示し、ソースデバイスでHDRのみを処理するオプション(option)を示すことができる。他の例として、valueフィールドが01000000である場合、ソースデバイスのWCG処理に関する情報を示し、ソースデバイスでWCGのみを処理するオプションを示すことができる。
他の例として、valueフィールドが11000000である場合、シンクデバイスで伝達した情報に基づいて、ソースデバイスがHDR及びWCGに対して全て処理するようにするコントロールオプション情報を示し、この値が初期値として使用されてもよい。
図7は、記述した本発明の実施例に係るシンクデバイスダイナミックレンジ情報の詳細な例を例示した図である。
開示したように、シンクデバイスは、DisplayIDのデータブロックを用いてシンクデバイスのダイナミックレンジ情報をソースデバイスに伝達して、シンクデバイスが表現できる明るさ情報などをソースデバイスに知らせることができる。
シンクデバイスのダイナミックレンジに関する情報は、シンクデバイスのディスプレイ(display)で表現できるダイナミックレンジを表現するための最大及び最小物理的明るさ値(nitあるいはcd/m2単位)を示す。
例えば、DisplayIDのデータブロックのoffsetフィールドが0x04又は0x05である場合、シンクデバイスのダイナミックレンジ情報を示す。
この例において、DisplayIDのデータブロックのoffsetフィールドが0x04である場合、下位8ビットよりも高い8個のビットを用いてシンクデバイスの最も低いレベルの明るさ情報を示すことができる。
DisplayIDのデータブロックのoffsetフィールドが0x05である場合、valueフィールドの最下位1ビットは、シンクデバイスの最も低いレベルの明るさ情報を示し、valueフィールドの残りのビットでシンクデバイスの最も高いレベルの明るさ情報を示すことができる。
ここで、offsetフィールドやvalueフィールドの値は任意の値であって、変更可能である。
この情報を用いて示すことができるシンクデバイスの最小明るさ情報(sink_black_luminance_levelで表記)及び最大明るさ情報(sink_white_luminance_level)は、以下のように示すことができる。
例えば、シンクデバイスの最小明るさ情報(sink_black_luminance_level)は、ディスプレイで表現できる最小明るさを示すための値であって、一般的な最低明るさを考慮して、0〜0.05の範囲に対して0.0001単位で値を表現できる。すなわち、ディスプレイの物理的明るさをBrightness_black(cd/m2単位)とするとき、実際の最小明るさは、この最小明るさ情報(sink_black_luminance_level)から以下のように算出することができる。
Brightness_black=sink_black_luminance_levelx10000
(0<=sink_black_luminance_level<=500<29)
例えば、参照モニタ(reference monitor)の場合、0.05cd/m2を最小基準明るさにし、10000(10進数)を掛けた値である500を伝送することができる。
シンクデバイスの最大明るさ情報(sink_white_luminance_level)は、ディスプレイで表現できる最大明るさを示すための値であって、一般的な最大明るさを考慮して、100〜10000の範囲に対して100単位で値を表現できる。すなわち、ディスプレイの物理的明るさをBrightness_white(cd/m2単位)とするとき、実際の最大明るさは、この最大明るさ情報(sink_white_luminance_level)から以下のように算出することができる。
Brightness_white=sink_white_luminance_levelx100
(1<=sink_white_luminance_level<=100<27)
例えば、参照モニタ(reference monitor)の場合、100cd/m2を最大基準明るさにし、100(10進数)で割った値の商である1値を伝送することができる。
シンクデバイスでソースデバイスにディスプレイ関連情報を伝達する他の実施例を開示する。
図8は、本発明の実施例によってシンクデバイスでソースデバイスに伝達するディスプレイ関連情報として、DisplayIDのディスプレイパラメータデータブロック(Display Parameters Data Block)を例示した図である。
ディスプレイ関連情報として、DisplayIDのディスプレイパラメータデータブロックはモニタの全体的なパラメータを含むことができる。同図で例示したように、例えば、ディスプレイパラメータデータブロックは、映像の水平または垂直サイズ(offsetフィールドが0x03又は0x04)、水平または垂直ピクセル(pixel)数(offsetフィールドが0x05又は0x06)、モニタで支援可能な機能に対するフラグ(offsetフィールドが0x0B)、変換関数(transfer function)で使用されるガンマ(gamma)(offsetフィールドが0x0C)、ディスプレイアスペクト比(display aspect ratio)(offsetフィールドが0x0D)、ピクセルビット深度(pixel bit depth)(offsetフィールドが0x0E)などの情報が含まれる。
本発明の実施例によれば、ディスプレイパラメータデータブロックは、上述したコントロールオプションフラグ情報及びシンクデバイスダイナミックレンジ情報を含むことができる。すなわち、本発明の実施例によれば、シンクデバイスは、上述したコントロールオプションフラグ及びシンクデバイスダイナミックレンジ情報を含むディスプレイパラメータデータブロック情報をソースデバイスに伝達することができる。
この実施例において、ディスプレイパラメータデータブロックのoffsetフィールドが0x0Fである場合、コントロールオプションフラグを示すことができ、offsetフィールドが0x10または0x11である場合、シンクデバイス自体の表現可能な明るさ値(シンクブラックルミナンスレベル、シンクホワイトルミナンスレベルなど)に関する情報を含むことができる。
offsetフィールドが0x0Fである場合、コントロールオプションフラグに対するvalueフィールド、offsetフィールドが0x10または0x11である場合、シンクデバイスダイナミックレンジ情報に対するvalueフィールド及び各valueフィールドについての説明は、図5乃至図7で例示した通りである。ここで、offsetフィールドやvalueフィールドの値は任意の値であって、変更可能である。
本発明の実施例は、トランスファ特性ガンマ(Transfer Characteristic Gamma)を通じてHDRに適したトランスファ曲線(transfer curve)情報を伝達することができる。
シンクデバイスでソースデバイスにディスプレイ関連情報を伝達する他の実施例を開示する。
図9は、本発明の実施例で記述するディスプレイ関連情報として、ディスプレイデバイスデータブロック(Display Device Data Block)を例示した図である。本発明の実施例は、ディスプレイデバイスデータブロックを用いてシンクデバイスがソースデバイスに伝達する情報の例を示す。
ディスプレイデバイスデータブロックは、ディスプレイパネル(panel)自体の特性を示すことができる情報を含む。ディスプレイデバイスデータブロックは、ディスプレイデバイスの種類(offsetフィールドが0x03)、ディスプレイデバイスのオペレーティングモード(operating mode)(offsetフィールドが0x04)、ピクセル数で示すことができる映像の大きさ(offsetフィールドが0x05〜0x08)、ディスプレイアスペクト比(offsetフィールドが0x09〜0x0A)、ビット深度(bit depth)(offsetフィールドが0x0E)、応答速度(offsetフィールドが0x0F)などを示す。本発明の実施例は、同図で例示したように、ディスプレイデバイスデータブロックと共に、ディスプレイパネルの開示したコントロールオプションフラグ情報とシンクデバイスダイナミックレンジ情報をソースデバイスに伝達することができる。
本発明の実施例によれば、ディスプレイデバイスデータブロックのoffsetフィールドが0x0Fである場合、コントロールオプションフラグを示すことができ、ディスプレイデバイスデータブロックのoffsetフィールドが0x10又は0x11である場合、シンクデバイスダイナミックレンジ情報を示すことができる。
ディスプレイデバイスデータブロックのoffsetフィールドが0x0Fである場合のvalueフィールドの例、ディスプレイデバイスデータブロックのoffsetフィールドが0x10又は0x11である場合のvalueフィールドの例は、図5乃至図7又は図8で例示したものに従ってもよい。ここで、offsetフィールドやvalueフィールドの値は任意の値であって、変更可能である。
シンクデバイスがソースデバイスにディスプレイ関連情報を伝達する他の例として、シンクデバイスは、DisplayIDのベンダー特定の(Vendor−Specific)データブロックを用いてコントロールオプションフラグとシンクデバイスダイナミックレンジ情報を伝達することができる。ベンダー特定のデータブロックは、シンクデバイスがデータブロックに定義されていない情報を伝達する場合に使用するデータであって、このデータブロックに、上述したコントロールオプションフラグとシンクデバイスダイナミックレンジ情報を含めて伝達することができる。
シンクデバイスがソースデバイスにディスプレイ関連情報を伝達する更に他の例として、シンクデバイスは、DisplayIDの製品識別(Product Identification)データブロックを用いることができる。
DisplayIDの製品識別データブロックは、ディスプレイデバイスの製造メーカーに関する情報、ディスプレイデバイスのシリアルナンバー(serial number)、製品ID(Product ID)などを含むことができる。このとき、シンクデバイスがディスプレイデバイスの製造メーカー、製造年月、製品IDなどを通じて各製品の情報を確認できる場合、この情報を用いて、各製品に対応するダイナミックレンジ情報をソースデバイスに伝達することができる。本発明によれば、DisplayIDの製品識別データブロックが製品の識別情報としてダイナミックレンジ情報を伝達する場合、コントロールオプションフラグは、上述した実施例のいずれか一つの例を通じて伝達する。
シンクデバイスがソースデバイスにディスプレイ関連情報を伝達する更に他の例として、シンクデバイスがトランスファ特性データブロック(Transfer Characteristics Data Block)を用いてディスプレイ関連情報をソースデバイスに伝達することができる。トランスファ特性データブロックは、ディスプレイのトランスファ曲線(transfer curve)関連情報を伝達するデータブロックである。トランスファ特性データブロックは、ディスプレイ時に任意のガンマ関数(gamma function)を使用したり、区分線形曲線(piecewise linear curve)を支援する場合、これを表示するためのデータブロックである。ディスプレイパネルのピークルミナンス(peak luminance)及び最下位ルミナンスを定義した部分はないので、シンクデバイスは、トランスファ特性データブロックに上述したコントロールオプションフラグとシンクデバイスダイナミックレンジ情報を含めたダイナミックレンジ情報をソースデバイスに伝達することができる。
図10は、本発明の一実施例によってシンクデバイスがソースデバイスにディスプレイ関連情報を伝達する更に他の例を例示した図である。本発明の実施例によれば、シンクデバイスは、CEA(Consumer Electronics Association) EDID extension情報を用いてディスプレイ関連情報をソースデバイスに伝達することができる。
シンクデバイスは、CEA−861のVESAで定義したEDID以外に、CEシンクデバイスで支援可能なデバイス属性情報を含むCEA EDID extension情報をソースデバイスに伝達することができる。この場合、シンクデバイスは、同図で例示したダイナミックレンジ情報をソースデバイスに伝達することができる。
CEA EDID extension情報の拡張データブロック(extension data block)は、ビデオ(Video)、オーディオ(Audio)、スピーカ割り当て(Speaker Allocation)、ベンダー特定の(Vendor−Specific)データブロック、及びビデオケイパビリティデータブロック(Video Capability data block)を含むことができる。拡張データブロックは、このデータブロックをそれぞれ識別するために予め定義されたタグコード(Tag Code)を各データブロックの最初のバイト(byte)のビット5〜7(bits 5〜7)に含む。
本発明の実施例によれば、CEA EDID extensionデータブロックの最初のバイトのビット5〜7は、ダイナミックレンジ情報を表示するタグコードを含むことができる。
そして、同図で例示したように、CEA EDID extensionデータブロック内にダイナミックレンジ情報を、上記で例示したように、シンクデバイスの最小明るさ情報(Lowest Brightness level of Sink device)のうち下位8ビットよりも高い8ビット(higher 8 bits)情報、シンクデバイスの最小明るさのLSB情報(Lowest Brightness level of Sink device(LSB))及びシンクデバイスの最大明るさ情報(Highest Brightness level of Sink device(total 7 bits))で表現することができる。ビット割り当ては任意的なものであって、変更可能である。したがって、本発明の実施例によれば、シンクデバイスが、CEAのEDID extension情報を用いてソースデバイスにディスプレイ関連情報のうちシンクデバイスの最大/最小明るさ情報を伝達することができる。
次に、本発明の実施例によってソースデバイスでシンクデバイスに伝達する情報を開示すると、次の通りである。
ソースデバイスは、シンクデバイスのディスプレイ関連情報及びカラーガマット関連情報に基づいてコンテンツの明るさ及びカラーガマットなどがシンクデバイスに適しているか否かを判断し、必要であれば、ソースデバイスは、コンテンツの明るさ及びカラーガマットなどを変換することができる。この場合、超高画質映像を処理する場合、ソースデバイスは、どのような処理が行われたかに関する情報、及び映像処理後の明るさ及びカラーガマットに関する情報をシンクデバイスに伝達しなければならない。これは、シンクデバイスのポストプロセッシングを制御するためのものであり、これについての実施例を詳細に開示すると、次の通りである。
本発明の実施例によって、ソースデバイスは、CEA 861に定義されたInfoFrameを介してシンクデバイスに超高画質映像処理関連情報を伝達することができる。
図11は、本発明に実施例によってソースデバイスでシンクデバイスに伝達する情報を例示した図である。
CEA 861でソース/シンクデバイスのインターフェース情報として定義されたInfoFrameのうちカラーガマット情報は、AVI InfoFrameを介して伝達されてもよい。本発明の実施例は、ソースデバイスが、超高画質映像処理に関する情報をInfoFrameを介してシンクデバイスに伝達する。これを用いて、超高画質映像の明るさ(brightness)情報、任意のカラーガマット情報、及びHDR情報又はWCG情報などの映像処理情報をシンクデバイスに伝達するようにすることができる。本実施例によれば、ソースデバイスは、行ったポストプロセッシングに関する情報、ポストプロセッシング後のコンテンツの明るさ情報、ポストプロセッシングの前のコンテンツの明るさ情報及びカラー表現範囲情報をシンクデバイスに伝達することができる。
ポストプロセッシングに関する情報は、コンテンツの状態に関する情報を含み、シンクデバイスの要請に対する応答として使用できる。ポストプロセッシング後のコンテンツの明るさ情報は、コンテンツの最小明るさ情報(black_luminance_level)とコンテンツの最大明るさ情報(white_luminance_level)を含むことができる。ポストプロセッシングの前のコンテンツの最小明るさ情報(orig_black_luminance_level)と最大明るさ情報(orig_white_luminance_level)を含むこともできる。コンテンツのカラー表現範囲情報は、Orig_color_gamut情報として示しており、これについては詳細に説明する。
InfoFrame Type Codeは、このInfoFrameのタイプを示し、例えば、この値が0x07の場合、UHD映像処理に関する情報を含むフレームを示すことができる。
InfoFrame Version Numberは、このフレームのバージョン情報を示し、Length of HDR InfoFrameは、HDR InfoFrameの長さ情報を示す。
Data Byte 1のP3〜P0フィールドは、post_processing_type_flagに対応し、ソースデバイスが行うポストプロセッシング過程をコントロール(on/off)するためのフィールドである。ここでは、このフィールドを用いてHDR情報又はWCG情報関連オプション情報を開示し、これについての詳細な例は後述する。
そして、Data Byte 1のR2〜R0フィールドは、リザーブドビット(reserved bits)を示し、E0フィールドは、new_EOTF_flagを介して新しい色変換関数(EOTFなど)を使用するか否かを示す。リザーブドビットは、後でHDR情報に適した新しいEOTFが定義される場合に使用できるフラグである。
Data Byte 2は、コンテンツで表現する最小明るさ情報を含むことができ、ここでは、black_luminance_levelで表現した。この実施例では、最小明るさ情報の最高8ビットをData Byte 2フィールドに表現するようにした。
コンテンツの最小明るさ情報は、一般的な最低明るさを考慮して、0〜0.05の範囲に対して0.0001単位で値を表現できる。すなわち、ディスプレイの物理的明るさをBrightness_black(cd/m2単位)とするとき、次のような関係を有する。
Brightness_black=black_luminance_levelx10000
(0<=black_luminance_level<=500<29)
例えば、参照モニタ(reference monitor)の場合、0.05cd/m2を最小基準明るさにし、10000(10進数)を掛けた値である500を明るさ情報として表現できる。
Data Byte 3は、同図で例示したように、コンテンツ最小明るさ情報(black_luminance_level)の最下位1ビットとコンテンツ最大明るさ情報(white_luminance_level)7ビットを含むことができる。
最大明るさ情報(white_luminance_level)は、コンテンツで表現する最大明るさを示すための情報であって、一般的な最大明るさを考慮して、100〜10000の範囲に対して100単位で値を表現できる。すなわち、ディスプレイの物理的明るさをBrightness_white(cd/m2単位)とするとき、次のような関係を有する。
Brightness_white=white_luminance_levelx100
(1<=white_luminance_level<=100<27)
例えば、参照モニタ(reference monitor)の場合、100cd/m2を最大基準明るさにし、100(10進数)で割った値の商である1値を明るさ情報として表現できる。
Data Byte 4は、コンテンツのオリジナル最小明るさ情報(Orig_black_luminance_level)の最上位8ビットを表現することができ、Data Byte 5は、コンテンツのオリジナル最小明るさ情報(Orig_black_luminance_level)の最下位1ビットとコンテンツのオリジナル最大明るさ情報(Orig_white_luminance_level))7ビットを表現することができる。
コンテンツのオリジナル最小明るさ情報(Orig_black_luminance_level)は、ソースデバイスでHDR処理を行う前のコンテンツの最小明るさを示す。表現方法及び範囲はblack_luminance_levelと同一であり、本実施例において、フィールドの具現は、post_processing_typeでHDR情報がオン(on)されたものと表示される場合にのみ伝送するようにオプションを与えることもできる。
同様に、コンテンツのオリジナル最大明るさ情報(Orig_white_luminance_level)は、ソースデバイスでHDR処理を行う前のコンテンツの最大明るさを示す。表現方法及び範囲はwhite_luminance_levelと同一であり、同様に、本実施例において、フィールドの具現は、post_processing_typeでHDR情報がオン(on)されたものと表示される場合にのみ伝送するようにオプションを与えることもできる。
Data Byte 6は、オリジナルカラーガマット情報(Orig_color_gamut)及びS3〜S0のリザーブドビット(reserved bits)を含むことができる。オリジナルカラーガマット情報(Orig_color_gamut)は、ソースデバイスでWCG処理を行う前のコンテンツの色表現範囲を示す。標準色表現範囲についての詳細な例は後述する。本実施例において、フィールドの具現は、post_processing_typeでWCGがオン(on)されたものと表示される場合にのみ伝送するようにオプションを与えることもできる。
Data Byte 7〜Data Byte 16は、任意のカラーガマット情報を示すことができるフィールドである。同図で任意のカラーガマット情報は、Red−x、Red−y、Green−x、Green−y、Blue−x、Blue−y、White−x、White−yで例示した。
ここで、Red−xは、色空間(例えば、CIE 1931)のR色相のx座標を0〜1の間の値を2進法で示したものであって、本実施例は、総10ビットを使用し、Data Byte 9の上位8ビットとData Byte 6の上位2ビットを使用することができる。
同様に、Red−yは、色空間(例えば、CIE 1931)のR色相のy座標を0〜1の間の値に対して2進法で示したものである。本実施例は、総10ビットを使用してこの色情報を示し、Data Byte 10の上位8ビットとData Byte 6の下位2ビットを使用することができる。
ソースデバイスは、上述したコンテンツのオリジナルカラーガマット情報(Orig_color_gamut)で適切な情報を表現できない場合、Data Byte 7〜Data Byte 16を使用してカラーガマット情報を伝達することができる。
本発明の他の実施例として、図11で開示したオリジナルカラーガマット情報(Orig_color_gamut)は使用せず、Data Byte 7〜Data Byte 16に該当する情報のみを使用してオリジナルカラーガマット情報を伝送することもできる。または、オリジナルカラーガマット情報(Orig_color_gamut)が特定の値を示す場合にのみData Byte 7〜Data Byte 16に該当する情報を追加的に活用するように用いてもよい。
図12は、本発明の実施例によって開示したポストプロセッシングタイプ情報の詳細な例を示した図である。開示したように、ソースデバイスが、UHD映像をシンクデバイスに合わせてポストプロセッシングした場合、ディスプレイ関連情報及びカラーガマット情報をInfoFrameを介してシンクデバイスに伝達することができる。
InfoFrameData Byte 1のP3〜P0フィールドは、post_processing_typeを示し、HDR情報又はWCG情報関連オプションを示し、ポストプロセッシングタイプは、同図で例示した通りである。
例えば、post_processing_typeが0000である場合、ソースデバイスでいかなる処理も行わないことを示し、0001である場合、ソースデバイスがダイナミックレンジマッピング(dynamic range mapping)を行ったことを示す。
例えば、post_processing_typeが0010である場合、ソースデバイスがカラーガマットマッピング(color gamut mapping)を行ったことを示し、post_processing_typeが0011である場合、シンクデバイスが伝達した情報に基づいて、これに合わせてソースデバイスが処理したことを示す。この値は、初期値(initial value)として使用できる。
post_processing_type0110〜1000は、後でマルチレイヤビデオエンハンスメント(multi−layer video enhancement)の機能に対してシンク−ソース間の情報交換のために使用することができ、1001〜1111は、ユーザプライベート(User private)のために使用することができる。
図13は、本発明の実施例によって開示したオリジナルカラーガマット情報(Orig_color_gamut)の詳細な例を示した図である。
記述したように、ソースデバイスがUHD映像をシンクデバイスに合わせてプロセッシングした場合、コンテンツのオリジナルカラーガマット情報(Orig_color_gamut)をシンクデバイスに伝送することができる。
この例において、オリジナルコンテンツのカラーガマット情報(Orig_color_gamut)のフィールドが0000である場合、オリジナルコンテンツのカラーはREC.709に従ったことを示し、0001である場合、オリジナルコンテンツのカラーはBT.2020 NCLに従ったことを示す。同様に、このフィールドが0010、0011、0100、0101である場合、それぞれオリジナルコンテンツのカラーはxvYCC、DCI−P3、Adobe RGB及びBT.2020 CLによって定義されたことを示す。
図14は、本発明の実施例によってソースデバイスがシンクデバイスに伝達する映像のカラー情報を伝達する他の例を開示する。
本発明の実施例は、AVI InfoFrame version 3の形式を拡張して、ソースデバイスが処理した映像のポストプロセッシングタイプ情報(post_processing_type_flag)、色変換関数情報(new_EOTF_flag)及び映像の明るさ情報(black_luminance_level又はwhite_luminance_level)をシンクデバイスに伝達することができる。または、本発明の実施例は、ソース/シンクデバイスのインターフェース上で定義された新しいAVI InfoFrameを用いて、ソースデバイスが処理した映像のポストプロセッシングタイプ情報(post_processing_type_flag)、色変換関数情報(new_EOTF_flag)及び映像の明るさ情報(black_luminance_level又はwhite_luminance_level)をシンクデバイスに伝達することができる。
開示したAVI InfoFrameは、Data byteに応じて、ソースデバイスがシンクデバイスに処理された映像の情報を伝達することができる。この例において、Data byte 14〜Data byte 29は、図11乃至図13で例示したData byte 1〜Data byte 16の情報をそれぞれ含むことができる。
したがって、本実施例によれば、ソースデバイスは、行ったポストプロセッシングに関する情報を提供する情報、ポストプロセッシング後のコンテンツの明るさ情報、ポストプロセッシングの前のコンテンツの明るさ情報及びカラー表現範囲情報をシンクデバイスに伝達することができる。
図15は、本発明の一実施例に係る信号処理装置の実施例及びその動作を例示した図である。
まず、本発明の一実施例に係る信号処理装置の実施例は、ソースデバイス100とシンクデバイス200を含む。
ソースデバイス100は、デコーダ110、カラーガマットマッピング部120、ダイナミックレンジマッピング部130、ポストプロセッシング部140、メタデータプロセッサ150及びオプションコントローラ160を含む。
ソースデバイス100のカラーガマットマッピング部120、ダイナミックレンジマッピング部130及びポストプロセッシング部140は、ビデオ処理部と呼ぶことができ、ビデオ処理部のカラーガマットマッピング部120、ダイナミックレンジマッピング部130及びポストプロセッシング部140は、ビデオ処理時に前のブロックと関係なく、必要であれば、それぞれ個別的に動作し得る。
シンクデバイス200は、ソースデバイスコントローラ210、メタデータプロセッサ220及びパネルコントローラ230を含む。ソースデバイス100がシンクデバイス200とインターフェースで接続された場合、図3で例示したようなプロトコルに従って情報を送受信することができる。後述するデバイス間の情報の伝送及び受信は、インターフェースを介して伝送及び受信される。
ソースデバイス100は、エンコーディングされたUHDビデオストリームを復号し、必要に応じて、復号されたUHDビデオを後処理したり、シンクデバイス200の表出能力に合わせてUHDビデオを処理したりし、処理されたUHDビデオをシンクデバイスに提供することができる。
シンクデバイス200は、ソースデバイス100がデコーディングしたUHDビデオを受信して表出することができ、ソースデバイス100にシンクデバイス200の表出能力に関する情報を提供して、ソースデバイス100から、シンクデバイス200が表出可能なUHDビデオを受信して表出することができる。
ソースデバイス100のオプションコントローラ160は、シンクデバイス200とのインターフェースを介してビデオオプション信号を伝送してディスプレイ関連情報を要請することができる。ディスプレイ関連情報は、ディスプレイカラーガマット情報とディスプレイ明るさ関連情報を含むことができる。ソースデバイス100でシンクデバイス200に伝送するビデオオプション情報は、図11乃至図14の例に従ってもよい。
ソースデバイス100のメタデータプロセッサ150は、UHDビデオに対するメタデータをシンクデバイス100に伝送することができ、シンクデバイス220は、ディスプレイに関連するメタデータをソースデバイス100に伝送することができる。
ソースデバイス100のデコーダは、エンコーディングされたUHDビデオストリームを受信して復号することができる。
カラーガマットマッピング部120は、デコーディングされたUHDビデオのカラーガマット情報をマッピングし、この場合、シンクデバイス200のディスプレイ関連情報を用いたり、UHDビデオ内のメタデータに基づいて、UHDビデオのカラーガマット情報をマッピングし、変更することができる。
または、ダイナミックレンジマッピング部130は、デコーディングされたUHDビデオに対するダイナミックレンジをマッピングすることができ、記述したように、シンクデバイス200のディスプレイ関連情報を用いたり、UHDビデオ内のメタデータに基づいて、UHDビデオのダイナミックレンジをマッピングし、変更することができる。
ポストプロセッシング部140は、デコーディングされたUHDビデオに対してビデオポストプロセッシングを行うことができ、同様に、ディスプレイ関連情報に基づいてビデオポストプロセッシングを行うことができる。
メタデータプロセッサ150は、UHDビデオのメタデータをシンクデバイス200に伝送し、シンクデバイスからディスプレイ関連メタデータを受信することができる。
オプションコントローラ160は、シンクデバイス200にビデオオプション情報を伝送し、シンクデバイス200からディスプレイオプション情報を受信することができる。シンクデバイス100でソースデバイス200に伝送するディスプレイオプション情報の例は、図4乃至図10に例示した通りである。一方、ソースデバイス100でシンクデバイス200に伝送するビデオオプション情報は、図11乃至図14の例に従ってもよい。
シンクデバイス200のソースデバイスコントローラ210は、ソースデバイス100を制御できるコントロール信号を伝送することができ、ユーザからユーザコントロール信号を受信することもできる。
シンクデバイス200のメタデータプロセッサ220は、ソースデバイス100からUHDビデオのメタデータを受信することができ、ディスプレイ機器と関連するメタデータをソースデバイス100に伝送することができる。メタデータプロセッサ220は、ソースデバイスコントローラ210にビデオプロセッシングコントロール信号を伝送して、ソースデバイスコントローラ210がコントロール信号を伝送するようにすることができる。
パネルコントローラ230は、メタデータプロセッサ220のディスプレイコントロール信号によってディスプレイパネルを制御することができる。
本発明の実施例は、ディスプレイに適応的なビデオ処理が可能なようにすることができる。すなわち、本発明の実施例は、シンクデバイス200の性能に応じて、それぞれソース−シンクデバイス間の情報交換、ビデオプロセッシング、及びディスプレイされる方式が変わり得る。以下では、シンクデバイス200のメタデータ情報をソースデバイス100に伝送し、ソースデバイスでディスプレイ関連情報に基づいて映像処理を行った後、シンクデバイス200がこれを受信してビデオを出力する例について詳細に記述する。
まず、シンクデバイス200がハイエンドUHDシンクデバイスである場合に対する第1実施例を開示する。
シンクデバイス200がハイエンドUHDシンクデバイスである場合、シンクデバイス200は、ディスプレイ関連メタデータをソースデバイス100に伝送することができる。ディスプレイ関連情報は、ディスプレイのカラーガマット情報(またはRGBWに該当するカラープライマリ(color primary)情報)とディスプレイの明るさ範囲関連情報(例えば、ピークルミナンス(peak luminance)情報、ブラックルミナンス(black luminance)情報)を含むことができる。シンクデバイス200のメタデータプロセッサ220はディスプレイ関連情報を処理することができる。例えば、シンクデバイス200のメタデータプロセッサ220は、ディスプレイ関連情報を格納し、コンテンツの処理及びディスプレイの時に参照することができ、必要に応じて、ソースデバイス100にこの情報を再び要請することもできる。
ソースデバイス100は、ディスプレイ関連情報をシンクデバイス200に伝達するとき、ディスプレイの色相及び明るさに関連するメタデータのみならず、ソースデバイス100のコントロール信号(control signal)も伝達することができる。
ソースデバイス100のコントロール信号は、ソースデバイス100がどのような種類のビデオプロセッシングが可能であるかに関する情報を含むことができる。ソースデバイス100のコントロール信号は、シンクデバイス200のソースデバイスコントローラ210が伝達するディスプレイできる色範囲に基づいて生成されてもよく、シンクデバイス200から伝達された情報なしにデフォルト処理要請によって生成されてもよい。
ソース−シンクデバイス間の情報交換過程は、両デバイスが接続された時点で動作するが、ソース−シンクデバイスが接続された状態で放送またはストリーミングコンテンツが入力される場合、またはコンテンツが変更される場合、または特定のシーン(scene)が変更される時点などで、両デバイスの情報交換が再び行われてもよい。
シンクデバイス200がハイエンドUHDシンクデバイスである場合、ビデオプロセッシングは、次のように処理されてもよい。
ソースデバイス100のポストプロセッシング部140は、メタデータプロセッサ150からのシンクデバイス200のディスプレイ関連情報に基づいて、デコーディングされたUHDビデオに後処理を行うか否かを判断し、これに対するコントロール信号を出力することができる。ソースデバイス100は、UHDビデオのWCG情報又はHDR情報に関連する映像処理、例えば、カラーガマットマッピング又はダイナミックレンジマッピングを行うことができる。シンクデバイス200のディスプレイ性能が、ビデオの後処理の後にUHDビデオを再生するのに十分な場合、ソースデバイス100のオプションコントローラ160は、ポストプロセッシング部140にそれに関する情報を伝達することができる。シンクデバイス200のディスプレイカラーガマット情報又は明るさ情報がビデオのWCG情報又はHDR情報を変更するのに基礎となり得る場合、メタデータプロセッサ150は、カラーガマットマッピング部120またはダイナミックレンジマッピング部130にディスプレイ関連メタデータを伝送することができる。
ソースデバイス100のポストプロセッシング部140は、ビデオと共に伝送されるメタデータ、例えば、WCG SEI messageまたはHDR SEI messageを用いてポストプロセッシングを行ってもよい。ビデオデコーダ110またはポストプロセッシング部140は、スケーラブルコーディング(scalable coding)によってエンハンスメントレイヤ(enhancement layer)データが伝送された場合であれば、エンハンスメントレイヤデータをデコーディングして、出力されるビデオの画質を高めることができる。
出力ビデオの画質をディスプレイの画質に合わせて追加向上させることができるが、シンクデバイス200からビデオ処理のための追加情報がない場合、ソースデバイス100自体で画質向上機能を行うことができる。
メタデータプロセッサ150は、デコーディングまたは後処理されたビデオのWCG情報又はHDR情報を含むUHDビデオメタデータをシンクデバイス200に伝達する。また、オプションコントローラ160は、処理されたビデオプロセッシング情報をビデオオプション情報(video option signal)に含めてソースデバイスコントローラ210に伝送することができる。ビデオオプション情報は、図11乃至図14の例に従ってもよい。
もし、デコーダ110が復号化した映像自体がディスプレイに適したビデオである場合、ビデオのWCG情報又はHDR情報に対して別途の処理なしに、再生のためにシンクデバイス200に伝達することもできる。この場合、オプションコントローラ160は、ビデオに対して別途の処理がなかったことをシグナリングすることができる。
シンクデバイス200は、UHDビデオをディスプレイ機器を介して表出するようにすることができる。この場合、シンクデバイス200は、ソースデバイス100を通じて処理された映像をそのまま再生できるが、ソースデバイス100が伝達する映像が、実際にディスプレイに適した処理が行われたか否かを判断することができる。そして、シンクデバイス200のソースデバイスコントローラ210は、ソースデバイス100にコントロール信号を出力することができる。シンクデバイス200のソースデバイスコントローラ210は、映像に対して適した処理が行われなかった場合、コントロール信号を、ソースデバイス100のビデオプロセッシングにおいて問題となる部分を判断して、当該ビデオプロセッシングがオフされるように知らせることができる。このようなコントロール機能は、ユーザの要請によってオン/オフ(on/off)されてもよい。シンクデバイス200は、ソースデバイス100が処理可能な又は処理しているビデオプロセッシングオプションをユーザに出力し、これを制御できるメニューまたはインターフェース(UI)をユーザに提供することができる。
シンクデバイス200は、ディスプレイ機器の明るさ及び色相を調整できる機能がある場合、シンクデバイス200のメタデータプロセッサ220の情報を分析した後、パネルコントローラ230を通じてディスプレイ機器を調整することによって、コンテンツに適した再生環境を提供することができる。
次に、シンクデバイス200が既存のUHDシンクデバイスである場合に対する第2実施例を開示する。第1実施例と同一の部分に対する例は、第1実施例に従う。
シンクデバイス200は、既存のUHDシンクデバイスに対するメタデータをソースデバイス100に伝送する。既存のUHDシンクデバイスに対するメタデータは、ディスプレイカラーガマット情報(またはRGBWに該当するカラープライマリ情報)とディスプレイ明るさ関連情報(例えば、ピークルミナンス情報、ブラックルミナンス情報)を含むことができる。ソースデバイス100のメタデータプロセッサ150は、既存のUHDシンクデバイスに対するメタデータを受信して処理することができる。
ソースデバイス100のオプションコントローラ160は、メタデータプロセッサ150で獲得したディスプレイ関連情報に基づいて、デコーディングされたUHDビデオに対して後処理過程を経るか否かに対して判断して、コントロール信号を出力する。
もし、ディスプレイの性能がビデオで表現しようとする画質(色相及び明るさ)に及ばない場合、ビデオに適切な処理を経ることによって、ディスプレイで表現可能な色相及び明るさに変化させることができる。例えば、ソースデバイス100のカラーガマットマッピング部120またはダイナミックレンジマッピング部130は、UHDビデオのカラーガマット情報やダイナミックレンジ情報をディスプレイ機器に合う情報にマッピングすることができる。
ソースデバイス100は、ビデオデータ内のメタデータ、例えば、WCG SEI message、HDR SEI messageなどに基づいてこれを変換させてもよく、ソースデバイス100自体の機能によってこれを行ってもよい。もし、ビデオデータのWCG情報またはHDR情報が変更された場合、オプションコントローラ160は、これをビデオオプション情報(video option signal)に含めてシンクデバイス200に伝送することができる。ビデオオプション情報は、図11乃至図14の例に従ってもよい。
シンクデバイス200のディスプレイの色相及び明るさ表現範囲がビデオの色相及び明るさ範囲を支援できる場合、ソースデバイス100は、追加的なビデオプロセッシングなしにビデオをシンクデバイス200に伝送することができる。そして、ソースデバイス100のオプションコントローラ160は、UHDビデオのメタデータまたはWCG情報又はHDR情報が処理されなかったことをビデオオプション信号(video option signal)を介してシンクデバイス200に伝達することができる。
シンクデバイス200のディスプレイ機器はUHDビデオを再生することができる。シンクデバイス200が受信したUHDビデオのWCG情報又はHDR情報がシンクデバイス200のディスプレイ機器に適切ではないと判断される場合、ソースデバイスコントローラ210は、これに対するコントロール信号をソースデバイス100に伝達することができる。ユーザは、ユーザメニューまたはインターフェース(UI)を介してディスプレイ機器の関連機能を調節することができる。
図16は、本発明の実施例に係るビデオ処理方法の他の一例を例示した図である。
ここで開示したソースデバイスのビデオ処理方法の一実施例を説明すると、次の通りである。
エンコーディングされたUHDビデオをデコーディングする(S210)。
ディスプレイ機器に対するディスプレイ関連情報をインターフェースから受信する(S220)。ディスプレイ関連情報は、ディスプレイ機器のビデオ表出機能に関する情報であって、ディスプレイ機器のカラーガマット(color gamut)情報またはディスプレイ機器の明るさ関連情報を含むことができる。
デコーディングしたUHDビデオをディスプレイ機器のビデオ表出機能に応じて処理する(S230)。
デコーディングしたUHDビデオをディスプレイ機器のビデオ表出機能に応じて処理する場合、デコーディングしたUHDビデオのカラーガマット情報の変更、ダイナミックレンジ情報の変更、またはその他の後処理を行うことができる。
デコーディングしたUHDビデオをディスプレイ機器のビデオ表出機能に応じて処理した情報であるビデオオプション情報を、インターフェースを介してシンクデバイスに伝送する(S240)。ビデオオプション情報の例は図11乃至図14に例示した。
処理したUHDビデオをインターフェースを介してシンクデバイスに出力する(S250)。
図示していないが、開示したビデオ処理方法の一実施例は、ディスプレイ機器の表出機能に応じたディスプレイオプション情報を受信することができる。ディスプレイオプション情報の例を図4乃至図10に例示し、その他の例も開示した。
そして、コントロール情報に従って、S230で例示したような、デコーディングしたUHDビデオのディスプレイ関連情報を変更する処理を行うことができる。
したがって、開示した実施例によれば、様々なディスプレイ機器の環境下で、UHDコンテンツを含むコンテンツを最適の環境で視聴できるようにし、UHDコンテンツを様々なディスプレイ機器で表出する場合、そのディスプレイ機器の物理的特性による色感あるいは明るさ表現の制限が少なくなるようにすることができ、ディスプレイ機器の外部機器を介してUHDコンテンツが供給される場合でも、ディスプレイ機器の特性を伝達することによって、UHDコンテンツを含むコンテンツを最適の環境で視聴することができる。
発明の実施のための形態は、上記の発明を実施するための最良の形態で共に記述された。
本発明は、放送及びビデオ信号処理の分野で利用可能であり、反復可能性があるという産業上の利用可能性がある。

Claims (15)

  1. ディスプレイ機器に対するディスプレイ関連情報をインターフェースを介してソースデバイスに伝送するステップと、
    前記ディスプレイ機器のビデオ表出機能に応じて処理されたUHDビデオに対するビデオオプション情報を、前記インターフェースを介して受信するステップと、
    前記処理されたUHDビデオを前記インターフェースを介して受信するステップと、
    前記受信したUHDビデオを前記ディスプレイ機器に表出するステップと、を含む、ビデオ処理方法。
  2. 前記ディスプレイ関連情報は、前記ディスプレイ機器のビデオ表出機能に応じたディスプレイオプション情報を含む、請求項1に記載のビデオ処理方法。
  3. 前記ディスプレイオプション情報は、前記ソースデバイスのプロセッシングを制御する情報または前記ディスプレイ機器の明るさ情報を含む、請求項2に記載のビデオ処理方法。
  4. 前記ビデオオプション情報は、前記処理されたUHDビデオの明るさ処理情報または前記UHDビデオの色空間変換情報を含む、請求項1に記載のビデオ処理方法。
  5. ディスプレイ機器に対するディスプレイ関連情報をインターフェースを介してソースデバイスに伝送するメタデータプロセッサと、
    前記ディスプレイ機器のビデオ表出機能に応じて処理されたUHDビデオに対するビデオオプション情報を、前記インターフェースを介して受信するコントローラと、
    前記処理されたUHDビデオを前記インターフェースを介して受信するようにし、前記受信したUHDビデオを前記ディスプレイ機器に表出するように制御するディスプレイパネルコントローラと、を含む、ビデオ処理装置。
  6. 前記ディスプレイ関連情報は、前記ディスプレイ機器のビデオ表出機能に応じたディスプレイオプション情報を含む、請求項5に記載のビデオ処理装置。
  7. 前記ディスプレイオプション情報は、前記ソースデバイスのプロセッシングを制御する情報または前記ディスプレイ機器の明るさ情報を含む、請求項6に記載のビデオ処理装置。
  8. 前記ビデオオプション情報は、前記処理されたUHDビデオの明るさ処理情報または前記UHDビデオの色空間変換情報を含む、請求項5に記載のビデオ処理装置。
  9. エンコーディングされたUHDビデオをデコーディングするステップと、
    ディスプレイ機器に対するディスプレイ関連情報をインターフェースを介して受信するステップと、
    前記デコーディングしたUHDビデオを前記ディスプレイ機器のビデオ表出機能に応じて処理するステップと、
    前記デコーディングしたUHDビデオをディスプレイ機器のビデオ表出機能に応じて処理した情報であるビデオオプション情報を、前記インターフェースを介してシンクデバイスに伝送するステップと、を含む、ビデオ処理方法。
  10. 前記ディスプレイ関連情報は、前記ディスプレイ機器のビデオ表出機能に応じたディスプレイオプション情報を含む、請求項9に記載のビデオ処理方法。
  11. 前記ディスプレイオプション情報は、前記ソースデバイスのプロセッシングを制御する情報または前記ディスプレイ機器の明るさ情報を含む、請求項10に記載のビデオ処理方法。
  12. 前記ビデオオプション情報は、前記処理されたUHDビデオの明るさ処理情報または前記UHDビデオの色空間変換情報を含む、請求項9に記載のビデオ処理方法。
  13. エンコーディングされたUHDビデオをデコーディングするデコーダと、
    ディスプレイ機器に対するディスプレイ関連情報をインターフェースを介して受信するメタデータプロセッサと、
    前記デコーディングしたUHDビデオを前記ディスプレイ機器のビデオ表出機能に応じて処理するビデオ処理部と、
    前記デコーディングしたUHDビデオをディスプレイ機器のビデオ表出機能に応じて処理した情報であるビデオオプション情報を、前記インターフェースを介してシンクデバイスに伝送するオプションコントローラと、を含む、ビデオ処理装置。
  14. 前記ディスプレイ関連情報は、前記ディスプレイ機器のビデオ表出機能に応じたディスプレイオプション情報を含む、請求項13に記載のビデオ処理装置。
  15. 前記ディスプレイオプション情報は、前記ソースデバイスのプロセッシングを制御する情報または前記ディスプレイ機器の明るさ情報を含む、請求項14に記載のビデオ処理装置。
JP2016532547A 2013-11-21 2014-11-21 ビデオ処理方法及びビデオ処理装置 Pending JP2017503379A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201361906900P 2013-11-21 2013-11-21
US61/906,900 2013-11-21
PCT/KR2014/011244 WO2015076608A1 (ko) 2013-11-21 2014-11-21 비디오 처리 방법 및 비디오 처리 장치

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2018117263A Division JP6730375B2 (ja) 2013-11-21 2018-06-20 ビデオ処理方法及びビデオ処理装置

Publications (1)

Publication Number Publication Date
JP2017503379A true JP2017503379A (ja) 2017-01-26

Family

ID=53179805

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2016532547A Pending JP2017503379A (ja) 2013-11-21 2014-11-21 ビデオ処理方法及びビデオ処理装置
JP2018117263A Expired - Fee Related JP6730375B2 (ja) 2013-11-21 2018-06-20 ビデオ処理方法及びビデオ処理装置

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2018117263A Expired - Fee Related JP6730375B2 (ja) 2013-11-21 2018-06-20 ビデオ処理方法及びビデオ処理装置

Country Status (4)

Country Link
US (1) US9936236B2 (ja)
JP (2) JP2017503379A (ja)
KR (1) KR101867828B1 (ja)
WO (1) WO2015076608A1 (ja)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3024222A4 (en) * 2013-07-14 2017-01-18 LG Electronics Inc. Method and apparatus for transmitting and receiving ultra high-definition broadcasting signal for expressing high-quality color in digital broadcasting system
RU2670599C9 (ru) * 2014-05-12 2018-11-22 Сони Корпорейшн Устройство связи, способ связи и компьютерная программа
EP3570555B1 (en) * 2014-06-16 2023-10-18 Panasonic Intellectual Property Management Co., Ltd. Display method and display device using type information and hdmi and hdcp
JP5906504B1 (ja) 2014-06-26 2016-04-20 パナソニックIpマネジメント株式会社 データ出力装置、データ出力方法及びデータ生成方法
EP3276948A4 (en) * 2015-03-27 2018-04-25 Panasonic Intellectual Property Management Co., Ltd. Signal processing device, display device, signal processing method, and program
KR102337159B1 (ko) * 2015-05-21 2021-12-08 삼성전자주식회사 컨텐츠 출력 장치 및 방법과, 디스플레이 장치
KR102379601B1 (ko) 2015-06-05 2022-03-29 삼성전자주식회사 영상 데이터의 제어 방법 및 장치
EP3300368A4 (en) * 2015-06-09 2018-07-04 Huawei Technologies Co., Ltd. Video encoding and decoding method, and video encoder/decoder
WO2017061796A1 (ko) * 2015-10-06 2017-04-13 엘지전자 주식회사 방송 신호 송신 장치, 방송 신호 수신 장치, 방송 신호 송신 방법, 및 방송 신호 수신 방법
JP2018006877A (ja) * 2016-06-28 2018-01-11 シャープ株式会社 映像伝送装置、表示装置、映像表示システム、映像配信装置、映像配信システム、映像送受信システム、プログラム、記録媒体、および映像伝送方法
US9916638B2 (en) * 2016-07-20 2018-03-13 Dolby Laboratories Licensing Corporation Transformation of dynamic metadata to support alternate tone rendering
US20200036765A1 (en) * 2016-10-14 2020-01-30 Samsung Electronics Co., Ltd. Method and device for transmitting content
US10868624B2 (en) * 2017-07-07 2020-12-15 Sony Corporation Backward compatible mechanism to provide cable type signaling in HDMI
WO2022245182A1 (ko) * 2021-05-20 2022-11-24 엘지전자 주식회사 비디오 데이터 송수신 방법 및 이에 대한 장치
WO2023136610A1 (ko) * 2022-01-11 2023-07-20 엘지전자 주식회사 비디오 데이터 송수신 방법 및 이에 대한 장치

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010140199A1 (ja) * 2009-06-01 2010-12-09 パナソニック株式会社 映像データの伝送方法
WO2012153224A1 (en) * 2011-05-10 2012-11-15 Koninklijke Philips Electronics N.V. High dynamic range image signal generation and processing
WO2013046095A1 (en) * 2011-09-27 2013-04-04 Koninklijke Philips Electronics N.V. Apparatus and method for dynamic range transforming of images
WO2013100986A1 (en) * 2011-12-28 2013-07-04 Intel Corporation Systems and methods for integrated metadata insertion in a video encoding system
JP2013153410A (ja) * 2011-12-28 2013-08-08 Sharp Corp Av機器
WO2013138127A1 (en) * 2012-03-12 2013-09-19 Dolby Laboratories Licensing Corporation 3d visual dynamic range coding

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4692576B2 (ja) * 2008-05-26 2011-06-01 ソニー株式会社 信号送信装置及び信号送信方法
CN103180891B (zh) * 2010-07-22 2015-09-02 杜比实验室特许公司 显示器管理服务器
US8958018B2 (en) * 2010-12-22 2015-02-17 Google Technology Holdings LLC Remote control device and method for controlling operation of a media display system
KR101396473B1 (ko) * 2011-10-17 2014-05-21 에이스텔 주식회사 셋톱박스에서 서브 단말기로 초고화질 영상을 제공하는 시스템 및 그 방법
KR101918040B1 (ko) 2012-02-20 2019-01-29 삼성전자주식회사 스크린 미러링 방법 및 그 장치
KR101358812B1 (ko) * 2012-03-29 2014-02-11 (주)정직한기술 미러링 과정에서의 멀티미디어 데이터의 전송을 위한 단말장치와 셋탑박스 및 미러링 과정에서의 멀티미디어 데이터의 전송을 위한 방법
US9357197B2 (en) * 2012-05-24 2016-05-31 Dolby Laboratories Licensing Corporation Multi-layer backwards-compatible video delivery for enhanced dynamic range and enhanced resolution formats
KR101274619B1 (ko) * 2013-04-03 2013-06-13 리모트솔루션주식회사 미러링을 이용한 대화형 리모컨 및 그 제어방법
WO2016021809A1 (ko) * 2014-08-08 2016-02-11 엘지전자 주식회사 디스플레이 적응적 영상 재생을 위한 비디오 데이터 처리 방법 및 장치

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010140199A1 (ja) * 2009-06-01 2010-12-09 パナソニック株式会社 映像データの伝送方法
WO2012153224A1 (en) * 2011-05-10 2012-11-15 Koninklijke Philips Electronics N.V. High dynamic range image signal generation and processing
WO2013046095A1 (en) * 2011-09-27 2013-04-04 Koninklijke Philips Electronics N.V. Apparatus and method for dynamic range transforming of images
WO2013100986A1 (en) * 2011-12-28 2013-07-04 Intel Corporation Systems and methods for integrated metadata insertion in a video encoding system
JP2013153410A (ja) * 2011-12-28 2013-08-08 Sharp Corp Av機器
WO2013138127A1 (en) * 2012-03-12 2013-09-19 Dolby Laboratories Licensing Corporation 3d visual dynamic range coding

Also Published As

Publication number Publication date
JP6730375B2 (ja) 2020-07-29
US9936236B2 (en) 2018-04-03
KR20160071399A (ko) 2016-06-21
KR101867828B1 (ko) 2018-06-18
JP2018174563A (ja) 2018-11-08
US20160345040A1 (en) 2016-11-24
WO2015076608A1 (ko) 2015-05-28

Similar Documents

Publication Publication Date Title
JP6730375B2 (ja) ビデオ処理方法及びビデオ処理装置
KR101809967B1 (ko) 디스플레이 적응적 영상 재생을 위한 비디오 데이터 처리 방법 및 장치
US11856200B2 (en) Data output apparatus, data output method, and data generation method
KR101785671B1 (ko) 디스플레이 적응적 영상 재생을 위한 비디오 데이터 처리 방법 및 장치
JP6934908B2 (ja) ビデオコンテンツ配信方法およびビデオ処理装置
JP6522643B2 (ja) Hdmiを使用したデータ送受信機器及び方法
US20180367750A1 (en) Display system, display method, and display apparatus
US10735688B2 (en) Electronics apparatus, display apparatus and control method thereof
US11202050B2 (en) Data processing method and device for adaptive image playing
US10616617B2 (en) Method and apparatus for transmitting or receiving broadcast signal
US11234042B2 (en) Display device, control method therefor and recording medium
JP2018006877A (ja) 映像伝送装置、表示装置、映像表示システム、映像配信装置、映像配信システム、映像送受信システム、プログラム、記録媒体、および映像伝送方法

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170518

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170704

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171004

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180320

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20181023