JP2022540067A - ハイダイナミックレンジ用映像コンテンツタイプメタデータ - Google Patents

ハイダイナミックレンジ用映像コンテンツタイプメタデータ Download PDF

Info

Publication number
JP2022540067A
JP2022540067A JP2021578039A JP2021578039A JP2022540067A JP 2022540067 A JP2022540067 A JP 2022540067A JP 2021578039 A JP2021578039 A JP 2021578039A JP 2021578039 A JP2021578039 A JP 2021578039A JP 2022540067 A JP2022540067 A JP 2022540067A
Authority
JP
Japan
Prior art keywords
video content
content
display
metadata
video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021578039A
Other languages
English (en)
Other versions
JPWO2020264409A5 (ja
Inventor
アトキンス,ロビン
ヨナス エー. クリットマーク,パー
Original Assignee
ドルビー ラボラトリーズ ライセンシング コーポレイション
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ドルビー ラボラトリーズ ライセンシング コーポレイション filed Critical ドルビー ラボラトリーズ ライセンシング コーポレイション
Publication of JP2022540067A publication Critical patent/JP2022540067A/ja
Publication of JPWO2020264409A5 publication Critical patent/JPWO2020264409A5/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/485End-user interface for client configuration
    • H04N21/4854End-user interface for client configuration for modifying image parameters, e.g. image brightness, contrast
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/235Processing of additional data, e.g. scrambling of additional data or processing content descriptors
    • H04N21/2353Processing of additional data, e.g. scrambling of additional data or processing content descriptors specifically adapted to content descriptors, e.g. coding, compressing or processing of metadata
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • H04N21/23614Multiplexing of additional data and video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/434Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
    • H04N21/4348Demultiplexing of additional data and video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/435Processing of additional data, e.g. decrypting of additional data, reconstructing software from modules extracted from the transport stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs
    • H04N21/4402Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/485End-user interface for client configuration
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/84Generation or processing of descriptive data, e.g. content descriptors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards

Abstract

ターゲットディスプレイにおいて、映像再生の当初の制作意図を保持するという課題に対するソリューションを提供するための、装置および方法を記載する。一局面において、映像ビットストリームは、ターゲットディスプレイのための、制作意図を指し示すフラグを有するメタデータを含む。このメタデータは、特性を示す多数のフィールド(コンテンツタイプおよびコンテンツサブタイプ、想定白色点、映像をリファレンスモードで使用するか否か、想定シャープネス、想定ノイズリダクション、想定MPEGノイズリダクション、想定フレームレート変換、想定平均画像レベル、および想定カラーなど)を含み得る。このメタデータは、コンテンツ制作者が自身のコンテンツに容易にタグ付けできるように設計されている。メタデータは、複数ポイントにおいて前記映像コンテンツに付加されることができ、前記フラグの状態は、前記メタデータがコンテンツ制作者によって付加されたか第三者によって付加されたかを示すため、真または偽に設定される。

Description

関連出願への相互参照
本出願は、2019年6月28日付けで出願された米国仮特許出願第62/868,070号および2019年6月28日付けで出願された欧州特許出願第19183269.0に基づく優先権を主張するものであり、これらの各々の全体を本願に援用する。
本開示は、画像全般に関する。より詳細には、本開示の実施形態は、映像コンテンツタイプメタデータに関する。
本明細書において、用語「ダイナミックレンジ」は、人間の視覚システムが画像においてある範囲の強度(例えば、輝度、ルマ)(例えば、最暗の黒(暗部)から最明の白(ハイライト)まで)を知覚する能力に関連し得る。この意味では、ダイナミックレンジはシーン-リファード(scene-referred)の強度に関する。ダイナミックレンジはまた、ディスプレイデバイスが特定の幅を有する強度範囲を妥当にまたは近似的に描画する能力にも関連し得る。この意味では、ダイナミックレンジは、ディスプレイ-リファード(display-referred)の強度に関する。本明細書中の任意の箇所において、ある特定の意味が特に明示的に指定されている場合を除いて、この用語はどちらの意味としても(例えば、区別なく)使用できるものとする。
本明細書において、ハイダイナミックレンジ(HDR)という用語は、人間の視覚システムにおいて14~15桁ほどにわたるダイナミックレンジ幅に関する。実際において、人間が広範囲の強度範囲を同時に知覚し得るダイナミックレンジは、HDRに対して幾分端折られ得る。本明細書において、エンハンストダイナミックレンジ(EDR)または視覚ダイナミックレンジ(VDR)という用語は、個別にまたは区別なく、人間の視覚システムによって同時に知覚されることが可能なダイナミックレンジに関する。本明細書において、EDRは、5~6桁にわたるダイナミックレンジに関連し得る。従って、真のシーンリファードのHDRに対しては幾分狭いものの、EDRは広いダイナミックレンジ幅を表し、HDRとも呼ばれ得る。
実際において、画像は1つ以上の色成分(例えばルマYおよびクロマCbおよびCr)を有しており、各色成分は、画素あたりnビットの精度(例えばn=8)で表される。線形輝度符号化(linear luminance coding)を用いた場合、n<8の画像(例えばカラー24ビットJPEG画像)はスタンダードダイナミックレンジとされ、n>8の画像はエンハンストダイナミックレンジの画像とされる。EDRおよびHDR画像はまた、Industrial Light and Magicが開発したOpenEXRファイルフォーマットなどの高精度の(例えば16ビット)浮動小数点フォーマットを用いて、格納および配信され得る。
ほとんどのコンシューマー用デスクトップディスプレイは、200~300cd/mまたはニトの輝度をサポートしている。ほとんどのコンシューマー用HDTVは300~1000cd/mの範囲である。このような従来のディスプレイはしたがって、HDRやEDRに対し、ローダイナミックレンジ(LDR)(またはスタンダードダイナミックレンジ(SDR)とも呼ばれる)の典型例となる。キャプチャ機器(例えばカメラ)およびEDRディスプレイ(例えばDolby LaboratoriesのPRM-4200プロフェッショナルリファレンスモニター)両方の進化によって、EDRコンテンツの普及率が高まるにつれ、EDRコンテンツはカラーグレーディングされてより高いダイナミックレンジ(例えば1,000ニトから5,000ニト以上)をサポートするEDRディスプレイ上に表示されることがある。
本明細書において、「メタデータ」の語は、符号化ビットストリームの一部として送信され、デコーダが復号化画像を描画することを助ける、任意の補助的情報に関する。そのようなメタデータは、本明細書に記載の、色空間または色域情報、リファレンスディスプレイパラメータ、および補助的な信号パラメータを含むが、これらに限定されない。
本明細書において、「ディスプレイマネジメント」という用語は、第1のダイナミックレンジ(例えば1,000ニト)の入力映像信号を第2のダイナミックレンジ(例えば500ニト)のディスプレイにマッピングするために要求される処理(例えばトーンおよび色域のマッピング)を含むが、これに限定されない。
本節に記載されている手法は、探求し得る手法ではあるが、必ずしもこれまでに着想または探求されてきた手法ではない。従って、別途示唆のない限り、本節に記載された手法のいずれも、本節に記載されているという理由だけで従来技術としての適格性を有すると考えるべきではない。同様に、別途示唆のない限り、1以上の手法に関して特定される問題が、本節に基づいて、いずれかの先行技術において認識されたことがあると考えるべきではない。
本開示による装置および方法は、デコーダまたはターゲットディスプレイにおいて、映像の制作意図を保持するという課題に対するソリューションを提供する。本開示の一実施形態において、映像ビットストリームは、ビットストリーム中においてデコーダまたはターゲットディスプレイに前記映像コンテンツのタイプを伝えるメタデータを含む。このメタデータは、前記映像コンテンツの特性を示す多数のフィールド(コンテンツタイプおよびコンテンツサブタイプなど)を含み得、これらは、前記ターゲットディスプレイに、関連する表示設定を有する対応の表示モードを適用させる。前記ターゲットディスプレイは、前記メタデータ中のフィールド(例えば、想定白色点、映像をリファレンスモードで使用するか否か、想定シャープネス、想定ノイズリダクション、想定MPEGノイズリダクション、想定フレームレート変換、想定平均画像明るさレベル、および想定カラーを定義する)に基づき、さらなる調節を個々の表示設定に対して行い得る。固有の階層をともなって、複数のフィールドが、前記メタデータ内に付加される。これらフィールドの階層は、階層内のより高次のレベルに割り当てられたフィールドによって既に調節されている表示設定を、さらに洗練させ得る。例えば、コンテンツタイプは、第1の階層レベルにおいて、特定の表示設定の基本調節を引き起こし得る。第2の階層レベルにおいてより具体的なコンテンツサブタイプを選択すると、選択されたコンテンツサブタイプの内容にしたがって表示設定の一部がさらに調節される。第3の階層レイヤにおいて、フィールドが、特定の表示設定の個々の調節を引き起こす。このメタデータは、コンテンツ制作者が自身のコンテンツに容易にタグ付けできるように設計されている。どれくらいの努力を払ったかに応じて、コンテンツ制作者らは、単に適切なコンテンツタイプを選択することによって基本調節を適用するか、オプションとして、コンテンツサブタイプを選択し得る。ただし、コンテンツ制作者らは、前記ターゲットディスプレイ上の特定の表示設定に直接影響する個別レベルにおいて、さらなる調節を適用してもよい。
メタデータにおいて、前記映像コンテンツに前記メタデータを付加できるポイントが複数可能にされている。当初のコンテンツ制作者が前記メタデータを定義したかどうかを識別するために、前記メタデータは、真または偽に設定可能なリファレンスモードフラグを含んでいる。リファレンスモードフラグは、当初のコンテンツ制作者が前記メタデータを付加した場合は、真に設定されることにより、前記メタデータを前記ターゲットディスプレイに適用することで、制作意図が保持されることを示す。このフラグは、当初のコンテンツ制作者以外によって前記メタデータが付加された場合は、偽に設定される。
本開示の第1の局面において、メタデータを有するデジタル映像ビットストリームを生成する方法が提供される。前記メタデータは、前記メタデータ内の1つ以上のカテゴリーフィールドが、前記映像コンテンツをリファレンスモードで表示するための表示設定をターゲットディスプレイに選択させるかどうかを指し示す、リファレンスモードフラグであって、前記リファレンスモードは前記映像コンテンツの制作者の制作意図を保持する表示設定を有する表示モードである、リファレンスモードフラグを含む。本方法は、前記デジタル映像ビットストリームの前記映像コンテンツのカテゴリーを指し示す1つ以上のカテゴリーフィールドを、前記メタデータに設定する工程であって、前記1つ以上のカテゴリーフィールドは、ターゲットディスプレイに、前記映像コンテンツの前記カテゴリーに対応する表示モードで前記映像コンテンツを表示するための表示設定を選択させる、工程と、前記1つ以上のカテゴリーフィールドが前記リファレンスモードを指し示しているかどうかを示すように設定する工程と、を包含する。
本開示の第2の局面において、映像コンテンツおよびメタデータを含む、デジタル映像ビットストリームが提供される。前記メタデータは、前記デジタル映像ビットストリームの前記映像コンテンツのカテゴリーを指し示す、1つ以上のカテゴリーフィールドであって、ターゲットディスプレイに、前記映像コンテンツの前記カテゴリーに対応する表示モードで前記映像コンテンツを表示するための表示設定を選択させる、1つ以上のカテゴリーフィールドと、前記1つ以上のカテゴリーフィールドが、前記映像コンテンツをリファレンスモードで表示するための表示設定をターゲットディスプレイに選択させるかどうかを指し示す、リファレンスモードフラグであって、前記リファレンスモードは制作意図を保持する表示設定を有する表示モードである、リファレンスモードフラグと、を含む。
図1は、映像供給パイプラインのプロセス例を示しており、映像のキャプチャから映像コンテンツの表示までの、様々な段を示している。
図2は、本開示のメタデータフラグの使用例を、テーブル形式で示す。
図3は、L11リファレンスモード(RM)フラグの使用例をフローチャートで示す。
図4Aは、本開示のメタデータの詳細の一例を、テーブル形式で示す。 図4Bは、本開示のメタデータの詳細の一例を、テーブル形式で示す。 図4Cは、本開示のメタデータの詳細の一例を、テーブル形式で示す。 図4Dは、本開示のメタデータの詳細の一例を、テーブル形式で示す。
図5は、本開示のメタデータのコンテンツタイプの詳細の一例を、テーブル形式で示す。
図6は、本開示のメタデータの典型的なピクチャモード設定の一例を、テーブル形式で示す。
図7は、本開示のメタデータのコンテンツサブタイプの詳細の一例を、テーブル形式で示す。
図8は、本開示のメタデータの想定白色点の詳細の一例を、テーブル形式で示す。
図9は、本開示のメタデータの想定シャープネスの詳細の一例を、テーブル形式で示す。
図10は、本開示のメタデータの想定ノイズリダクションの詳細の一例を、テーブル形式で示す。
図11は、本開示のメタデータの想定MPEGノイズリダクションの詳細の一例を、テーブル形式で示す。
図12は、本開示のメタデータのフレームレート変換の詳細の一例を、テーブル形式で示す。
図13は、本開示のメタデータの平均画像レベルの詳細の一例を、テーブル形式で示す。
図14は、本開示のメタデータの想定カラーの詳細の一例を、テーブル形式で示す。
図15は、ブロードキャストプレイアウトサーバマッピングの一例を、テーブル形式で示す。
定義
本開示を通じて、リファレンスモード(RM)とは、ターゲットディスプレイが当初の制作意図に完全に忠実な映像コンテンツを提示する再生状態を意味する。この再生状態は、ターゲットディスプレイを、関連する表示設定を有する、ある特定の表示モードに設定することによって達成され得る。特定の表示モードの表示設定は、当初の制作意図を保持するようにさらに調節されてもよい。
フレームレート変換とは、異なる映像フレームレート間の変換(例えば、60フレーム/秒から120フレーム/秒への変換など)を指す。フレームレート変換とは、異なるフレームレートを有する映像機器でコンテンツを表示するために、フレームを複製(動き推定や動き補正を含む可能性がある)したり、低減したりすることである。
知覚的量子化(PQ)は、ハイダイナミックレンジ(HDR)画像を効率的に符号化する方法である。各連続する符号値のペアは、ダイナミックレンジ全体にわたり、知覚可能なステップ(perceivable step)にちょうど満たない差を有することにより、符号値の非常に効率的な使用をもたらす。PQを用いた符号化・復号化の例は、Report ITU-R BT. 2390、「High dynamic range television for production and international programme exchange」,ITU,2016に記載されている。PQを使用することの代替としては、従来の「ガンマ」およびHLG(Hybrid Log-Gamma)信号パラメータの使用がある。
詳細な説明
本明細書において、ハイダイナミックレンジ(HDR)用の映像コンテンツタイプメタデータを記載する。以下の記載においては、説明目的のため、本開示を完全に理解できるように、多数の詳細事項を説明する。ただし、これらの詳細事項が無くても本請求項に記載の主題を実施可能であることは明白であろう。他方、本開示の説明を不必要に煩雑にしたり、不明瞭にしたり、難読化したりしないように、周知の構造およびデバイスの細かな詳細までは説明しない。
図1は、映像供給パイプライン100のプロセス例を示しており、映像のキャプチャから映像コンテンツの表示までの、様々な段を示している。画像生成ブロック105を用い、映像フレームのシーケンス102をキャプチャまたは生成する。映像フレーム102は、デジタル的にキャプチャされるか(例えばデジタルカメラにより)またはコンピュータによって生成(例えばコンピュータアニメーションを用いて)されることにより、映像データ107が得られる。あるいは映像フレーム102は、銀塩カメラによってフィルム上に取得されてもよく、この場合、フィルムがデジタルフォーマットに変換されることによって、映像データ107が得られる。プロダクションフェーズ110において、映像データ107は編集され、映像プロダクションストリーム112を得る。
映像プロダクションストリーム112の映像データは次に、ポストプロダクションブロック115のプロセッサに与えられて、ポストプロダクション編集を受ける。ポストプロダクションブロック115における編集は、画像の特定の領域の色または明るさを調節または変更することにより、映像制作者の制作意図にしたがってその画像が特定の見え方をするようにしたり、画質を上げたりすることを含み得る。これは、「カラータイミング」あるいは「カラーグレーディング」と呼ばれることがある。ポストプロダクションブロック115において、その他の編集(例えば、シーン選択およびシーケンシング、画像クロッピング、コンピュータ生成された視覚的特殊効果の追加など)を行うことにより、プロダクションの、配信用の最終バージョン117を作成してもよい。ポストプロダクションブロック115のポストプロダクション編集において、映像イメージは、リファレンスディスプレイ125上で視聴される。
ポストプロダクションブロック115におけるポストプロダクションの後、最終バージョン117の映像データは、下流のテレビ受像機、セットトップボックス、映画館などの復号化・再生機器まで供給されるために、エンコーダ120に供給されてもよい。いくつかの実施形態において、エンコーダ120は、符号化されたビットストリーム122を生成するための、ATSC、DVB、DVD、ブルーレイおよびその他の供給フォーマットに規定されるような音声およびビデオエンコーダを含み得る。受信機において、符号化されたビットストリーム122は、デコーダ130により復号化されることにより、最終バージョン117に対応する映像データと同一またはこれに近い近似を表す、復号化された信号132を生成し得る。受信機は、リファレンスディスプレイ125と全く異なる特性を有し得るターゲットディスプレイ151に取り付けられていてもよい。その場合、ディスプレイマネジメントユニット135を用いてディスプレイマッピング化信号137を生成することで、復号化された信号132のダイナミックレンジを、ターゲットディスプレイ151の特性にマッピングしてもよい。ターゲットディスプレイ151は、リファレンスモニター、コンピュータ用のモニターもしくはディスプレイ、テレビ受像機(TV)、ヘッドマウントディスプレイ、仮想網膜ディスプレイなどであり得る。
Dolby VisionTMは、ハイダイナミックレンジかつ広色域でマスタリングされたコンテンツの制作および配信を可能にする、エンドツーエンドのスイート(suite)である。Dolby Visionのディスプレイマネジメントは、一連のアルゴリズムを用いて信号を任意のDolby Vision対応のコンシューマー用テレビにマッピングすることで、所与のテレビの能力にマッチングする。これは、視聴者に最適でシームレスな映像体験を創出する。
Dolby Visionのように、ハイダイナミックレンジかつ広色域のコンテンツの制作および配信を可能にするエンドツーエンドのスイートには、映像データとともにメタデータも含まれている。例えば、Dolby Vision中において、レベル1(L1)からレベル10(L10)と呼ばれる異なるレベルのメタデータが存在する。このようなメタデータの記述の例は、R.AtkinsらによるWIPO公開WO2019/050972号「Tone-curve optimization method and associated video」に記載されている。この全体を本願に援用する。本開示によるデジタル映像ビットストリーム、および、デジタル映像ビットストリームを生成する方法と、映像コンテンツを再生する方法は、デコーダまたはターゲットディスプレイ上において制作意図を保持するという問題に対するソリューションを提供するとともに、映像コンテンツの識別されたカテゴリーに応じて表示設定を調節するために、デコーダまたはターゲットディスプレイにおいて映像コンテンツのカテゴリーを識別するためのソリューションを提供するものである。
Dolby Visionなどのハイダイナミックレンジかつ広色域の映像制作および配信スイートでは、限定されないが本願ではレベル11(L11)と呼ぶ新たなメタデータのセットが導入され、これによって、デコーダまたはターゲットディスプレイにおける映像コンテンツの再生の特性に関するコンテンツ制作者の意図が指定されている。L11メタデータは、コンテンツ制作者の制作意図をデコーダまたはターゲットディスプレイに伝えることができる。このコンテンツアウェアメタデータ(content aware metadata)は、ターゲットディスプレイがコンテンツを提示するための最適な方法を知っている。L11メタデータは、コンテンツ制作者が自身のコンテンツに容易にタグ付けできるよう、多くのフィールドを含んでいる。
本開示によるデジタル映像ビットストリーム、および、デジタル映像ビットストリームを生成する方法と、映像コンテンツを再生する方法は、ハイダイナミックレンジかつ広色域の映像制作および配信スイートに一般的に適用可能であることを理解すべきであり、またL11という用語は、本明細書では例示目的のためのみに使用されており、本開示におけるデジタル映像ビットストリーム、および、デジタル映像ビットストリームを生成する方法と、映像コンテンツを再生する方法に制限を課すことは意図していない。
TVなどのターゲットディスプレイには様々な表示モードがあるが、どの表示モードを選択するかはユーザーの判断に委ねられている。例えば、ユーザーは映画を見ているとき、TV上の表示モードを変更することを選び得る。しかし、多くのユーザーは、異なるタイプのコンテンツを視聴するたびに表示モードを変更するというほど洗練されておらず、またそうする時間に価値があるとは感じていない。特定の表示モードを選択すると、ターゲットディスプレイには、その選択された表示モードに関連した表示設定が適用されることになる。
本開示は、ターゲットディスプレイが取るべき表示モードについてスマートな決定を行うことができるように、映像コンテンツのカテゴリーを自動的に識別する装置および方法を提供する。また本開示は、L11メタデータを導入することで映像コンテンツに意識性を加えるような、装置および方法を提供する。さらに、本開示は、ターゲットディスプレイが映像コンテンツのカテゴリーを推測する必要がなく、またユーザも映像コンテンツのカテゴリーを推測する必要がないように、ターゲットディスプレイで映像コンテンツを提示するための最良の方法を決定することを可能にする。さらに、本請求項に記載の主題では、ユーザーおよびターゲットディスプレイが、映像コンテンツの再生時において何も実行する必要がない。ターゲットディスプレイは、L11メタデータが命令したことを実行するだけである。
今日、ターゲットディスプレイは、推測に基づいて映像コンテンツの処理を行っているが、これはあまり正確な処理ではない。コンテンツアウェアメタデータを持つことで、ターゲットディスプレイに映像コンテンツの適切な処理が通知される。これにより、ターゲットディスプレイでの意思決定プロセスに情報が与えられ、毎回正しい結果が得られるようになる。例えば、L11メタデータにより、コンテンツがスポーツであることがターゲットディスプレイに通知され、したがってターゲットディスプレイは、再生時にスポーツコンテンツに対応した表示モードに切り替え、それに合わせて表示モードの関連する表示設定を設定する。
本開示の一実施形態によれば、映像ビットストリームは、ビットストリーム内の映像コンテンツのカテゴリーをターゲットディスプレイに伝えるメタデータを含む。このメタデータは、コンテンツタイプ、およびコンテンツサブタイプなどの映像コンテンツの特性を示す多数のフィールドを含んでもよい。さらに、想定白色点、映像をリファレンスモードで使用するかどうか、想定シャープネス、想定ノイズリダクション、想定MPEGノイズリダクション、想定フレームレート変換(Frame Rate Conversion:FRC)、想定平均画像レベル(Average Picture Level:APL)、想定カラーなどの、特定の表示設定の調節を明示的に指定することで、選択された映像コンテンツのカテゴリーを洗練させることができる。L11メタデータの中には、固有の階層を持つ複数のフィールドが追加されている。
L11メタデータは、コンテンツ制作者が自身のコンテンツに容易にタグ付けできるように設計されている。1)コンテンツ制作者にとって最もわかりやすい方法は、何もしないことであり、これはデフォルトの挙動となる。2)コンテンツ制作者にとって2番目にわかりやすい方法は、ターゲットデコーダまたはターゲットディスプレイに、映画、ゲーム、またはスポーツなどのコンテンツのカテゴリーを伝えることである。このメタデータ情報に基づいて、TVなどのターゲットディスプレイは、表示モードの高レベルの決定を行う。例えばTVが映画、ゲーム、またはスポーツモードに切り替えるなどである。TVは、これらのカテゴリーに対応する、適切な表示モードの詳細表示設定をルックアップする。3)最後に、L11メタデータは、選択された表示モードをより洗練されたものにするような、ターゲットディスプレイにおける表示設定の詳細を、コンテンツ制作者がさらに指定することを可能にする。例えば、スポーツコンテンツの場合、コンテンツ制作者は、スポーツがウィンタースポーツなのかウォータースポーツなのかなど、コンテンツのサブタイプを指定することができる。さらに、コンテンツ制作者は、例えば、フレームレート変換をハイに設定した状態で映像コンテンツがターゲットディスプレイ上において最も良く見えるよう指定することができる。L11メタデータは階層的であるため、情報が不足の場合にコンテンツタイプやコンテンツサブタイプをデフォルトに設定することができる。さらに、L11メタデータでは、ケースバイケースでそのようなデフォルトをメタデータによって上書きすることが可能となっている。
L11メタデータは、コンテンツ制作者が指定できるだけでなく、アプリケーションレベルでも指定することができる。例えば、スマートブルーレイプレーヤがNetflix「上付きR丸囲み」(Netflix「上付きR丸囲み」はNetflix Inc.の登録商標である)などの映画ストリーミングサービスから再生している場合には、スマートブルーレイプレーヤはメタデータを映画やドラマの設定にしたり、スマートブルーレイがゲームから再生している場合にはコンテンツをゲームとタグ付けしたり、放送用セットトップボックスから再生している場合にはコンテンツをスポーツその他のコンテンツが該当するものに設定したりすることができる。このように、L11メタデータは、当初のコンテンツ制作者以外の他者が、映像コンテンツのタイプを指定することを許可するものである。その意味で、制作意図を保持するためには、単にコンテンツアウェアメタデータを提供するだけでなく、これらのメタデータがどのように作成されたのか、例えば、コンテンツ制作者が作成したのか、あるいは中間者が作成したのかを示すことが重要である。
L11メタデータにおいて、映像コンテンツにL11メタデータを付加できるポイントが複数可能にされている。一実施形態において、L11メタデータのソースを示すために、L11メタデータには、真または偽に設定可能なリファレンスモードフラグ(L11リファレンスモードフラグ、略してL11RMフラグともいう)が含まれている。例えば、コンテンツ制作者がゲームを制作し、そのゲームを再生したときに、ターゲットディスプレイ上でゲームの色がより青くなって非常にシャープに見えるようにしたい場合などの特定の理由によって、当初のコンテンツ制作者はL11メタデータを追加することができる。そしてコンテンツ制作者は、L11RMフラグを真に設定し得る。これは、ターゲットディスプレイが最高画質モードであっても、制作意図を保持するためにコンテンツアウェアメタデータを適用すべきであることを意味する。
一方、コンテンツが例えばゲームであり、L11メタデータが自動画像処理など第三者によってさらに下流において付加された場合、L11RMフラグは偽に設定される。つまり、ターゲットディスプレイが最高画質モードの場合、L11メタデータはコンテンツ制作者以外によって付加されたものであるため、ターゲットディスプレイはL11メタデータを適用すべきではなく、したがってターゲットディスプレイは当初のコンテンツ制作者の意図を保持していないことになる。L11RMフラグを偽に設定することは、コンテンツ制作者の意図が変更されたことを意味する。このようにL11RMフラグを利用することで、メタデータはそのままでありながら、フラグの状態に応じてその用途を変更することができる。例えば、制作者の当初の意図を保持するために多くの処理が行われ、最高画質が重要であるリファレンスモードで映像コンテンツを再生する場合、再生時において、L11RMフラグを用いて、コンテンツアウェアメタデータをリファレンスモードで使用するかどうかをターゲットディスプレイに伝える。i)メタデータが当初のコンテンツ制作者によって作成されたものならば、コンテンツアウェアメタデータをリファレンスモードにおいて使用すべきである(フラグ状態が真に設定されている)。ii)メタデータが当初のコンテンツ制作者以外によって下流で作成されたものであれば、コンテンツアウェアメタデータをリファレンスモードにおいて使用すべきではない(フラグ状態が偽に設定されている)。これは、本開示の重要な側面の1つである。これは、視聴者の意図がリファレンスモードで映像コンテンツを見ることである場合に、ターゲットディスプレイがコンテンツアウェアメタデータに従うべきかどうかを重要視するものである。
L11RMフラグの使用を、図2のテーブル200にさらにテーブル形式で示す。この例示的なテーブルでは、「メタデータリファレンスモードを使用する」(210)は、再生時のターゲットディスプレイの状態を指す。このテーブルは、前の段落で説明した状況をさらに示している。1)テーブルの1行目(220)において、メタデータが存在しないため、メタデータは、リファレンスモードにおいても非リファレンスモード(230)においても用いられることができない。2)2行目(240)では、L11メタデータが存在するが、L11RMフラグが偽であるため、制作意図を保持するために、ターゲットディスプレイは、リファレンスモードにおいてL11メタデータを使用しないように指示される。ターゲットディスプレイはしかし、非リファレンスモードにあるときには処理中にL11メタデータを用いることを許される。3)3行目(260)では、L11メタデータが存在し、L11RMフラグが真であるため、ターゲットディスプレイは、リファレンスモードおよびその他すべての非リファレンスモードにおいてL11メタデータを使用できることが命令されている。
図3は、フローチャート300におけるL11RMフラグの例示的な使用方法を示している。デコーダまたはターゲットディスプレイは、まず、映像コンテンツ内にL11メタデータが存在するかどうかを調べる(310)。答えがノーであれば、デコーダまたはターゲットディスプレイは、他に何もすることがない(320)。答えがイエスであれば、デコーダまたはターゲットディスプレイは、L11RMフラグが真であるか偽であるかを確認する(330)。フラグが偽であり、ユーザーが制作意図を保持することを重視する場合、L11メタデータはリファレンスモードにおいて使用されるべきではない(340)。フラグが偽であり、ユーザーが制作意図の保持を気にしない場合、L11メタデータは、ターゲットディスプレイの非リファレンスモードにおいて使用されてもよい(360)。L11RMフラグが真の場合、デコーダまたはターゲットディスプレイは、メタデータをリファレンスモードおよび非リファレンスモードの両方において使用してもよい(350)。
以下の図および図それぞれのテーブルは、L11メタデータフィールドの例示的な実施形態と、これらのフィールドを埋めるために使用される例示的な値を示している。
図4A~4Dは、例示的なL11メタデータの詳細をテーブル形式で示している。図4Aのテーブル400Aでは、L11メタデータは、コンテンツタイプ(410)およびコンテンツサブタイプ(412)を有することが示されている。図4Bのテーブル400Bでは、白色点(420)、RMフラグ(422)、および将来利用(424)のためのビットが示されている。図4Cのテーブル400Cは、シャープネス(430)、ノイズリダクション(432)、MPEGノイズリダクション(434)、およびフレームレート変換(436)のためのビットを示す。図4Dのテーブル400Dは、明るさ(440)、カラー(442)、および将来利用(444)のためのビットを示す。
図5は、コンテンツタイプのさらなる詳細例をテーブル形式で示している。テーブル500は、L11メタデータ内の異なるタイプのコンテンツタイプ(510)を説明している。L11メタデータは、シーンごとに更新される小さなペイロード、例えば、4ビットを使用する。予約値(550)は、将来のコンテンツタイプのためのものであり、メタデータの定義が保管されていない再生機器では、現在の「開封したそのまま(out of the box)」でのユーザー体験との一貫性を維持するために、デフォルトでは「0」になる。
図6は、L11の典型的なカテゴリーの一例を示しており、それぞれが、テーブル形式の複数の表示設定からなる特定の表示モードに対応している。テーブル600は、コンテンツ制作および配信スイートの所有者(Dolbyなど)と、ディスプレイターゲットのOEM業者(Original Equipment Manufacturer)と、オプションとしてコンテンツ制作者との間の共同作業において、知覚的量子化器(PQ)のチューニング段階で埋められる。
図7は、L11コンテンツサブタイプの詳細例をテーブル形式で示している。L11メタデータは、シーンごとに更新される追加的な4ビットを使用する。コンテンツサブタイプ(720)は、コンテンツタイプをさらに洗練することにより、デフォルトの挙動をコンテンツタイプ(510)から変更するものであり、これは、選択されたコンテンツサブタイプに関連する特定の表示設定の調節をターゲットディスプレイに行わせる。これは、OEM業者が後処理アルゴリズムをさらにファインチューニングすることを可能にし、そのことにより差別化が可能になる。コンテンツ制作者は、希望であれば単純にテーブルに「0」を埋めてよい。
図8は、L11メタデータの想定白色点の詳細例をテーブル形式で示している。テーブル800は、ピクチャの描画される白色点をガイドする。白色点は、Audio Plug-in(API)システムレベルを介してバイパスされるか、Dolby Display Management(DM)内で適用されることができ、その場合、ターゲットディスプレイはネイティブ温度にキャリブレーションされることになる。デフォルトに「0」を設定すると、コンテンツタイプに対するデフォルトの白色点が使用される。想定白色点(810)は、再生時にターゲットディスプレイにおいてフィルタリングされることにより、急激な変化を防ぐ。
図9は、L11メタデータの想定シャープネスの詳細例をテーブル形式で示している。テーブル900は、ターゲットディスプレイにおけるディテール強調/シャープ化アルゴリズムをガイドする。デフォルトに「0」を設定すると、コンテンツタイプに対するデフォルト設定が使用される。OFFはシャープネスを加えないことを意味する。画像は必要に応じて、双線形補間を用いてリサイズされる。HIGHは、最大シャープネス強化に対応する。OFFとHIGHとの間の設定は、シャープネスの強さを制御する。このテーブルを利用すれば、シャープネス設定間の遷移はシームレスになるはずである。想定シャープネス(910)は、再生時にターゲットディスプレイにおいてフィルタリングされることにより、急激な変化を防ぐ。
図10は、L11メタデータの想定ノイズリダクションの詳細例をテーブル形式で示している。テーブル1000は、ランダムノイズに対するノイズリダクションアルゴリズムをガイドする。デフォルトに「0」を設定すると、コンテンツタイプに対するデフォルト設定が使用される。OFFは、ノイズリダクションを行わないことに対応する。HIGHは、最大ノイズリダクションに対応する。OFFとHIGHの間に設定することで、ノイズリダクションの強さを制御する。このテーブルを利用すれば、異なる設定間の遷移はシームレスになるはずである。想定ノイズリダクション(1010)は、再生時にターゲットディスプレイにおいてフィルタリングされることにより、急激な変化を防ぐ。
図11は、L11メタデータの想定MPEGノイズリダクションの詳細例をテーブル形式で示している。テーブル1100は、圧縮ノイズのノイズリダクションアルゴリズムをガイドする。デフォルトに「0」を設定すると、コンテンツタイプに対するデフォルト設定が使用される。OFFは、ノイズリダクションを行わないことに対応する。HIGHは、最大ノイズリダクションに対応する。OFFとHIGHの間に設定することで、ノイズリダクションの強さを制御する。このテーブルを利用すれば、異なる設定間の遷移はシームレスになるはずである。想定MPEGノイズリダクション(1110)は、再生時にターゲットディスプレイにおいてフィルタリングされることにより、急激な変化を防ぐ。
図12は、L11メタデータのフレームレート変換(FRC)の詳細例をテーブル形式で示している。テーブル1200は、フレームレート変換アルゴリズムをガイドする。デフォルトに「0」を設定すると、コンテンツタイプに対するデフォルトのFRC設定が使用される。OFFはフレームレート変換なしに対応する。フレームは必要な場合にのみ複製される。HIGHは、最大フレームレート変換に対応する。フレームは、ターゲットディスプレイの最大リフレッシュレートまで、スムーズに補間される。OFFとHIGHの間に設定することで、FRCの強さを制御する。原点と中間点の間の端数を補うようにフレームが補間される。このテーブルを利用すれば、異なるFRC設定間の遷移はシームレスになるはずである(ブラックフレームが発生しない)。結果として、FRCを完全にバイパスすることはL11ではトリガできない。これは典型的にはブラックフレームを発生させてしまうためである。HDMI2.1におけるALLM(Auto Low Latency Mode)のように、FRCを要求するための仕組みは存在する。想定フレームレート変換(1210)は、再生時にターゲットディスプレイにおいてフィルタリングされることにより、急激な変化を防ぐ。
図13は、L11メタデータの平均画像レベル(APL)の詳細例をテーブル形式で示している。テーブル1300は、平均画像レベルをガイドする。デフォルトに「0」を設定すると、コンテンツタイプに対するデフォルト設定が使用される。LOWは、やや暗めの明るさに対応する。MEDIUMは、平均的な明るさに対応する。HIGHは最大明るさに対応する。このテーブルを利用すれば、異なる設定間の遷移はシームレスになるはずである。想定平均画像レベル(1310)は、再生時にターゲットディスプレイにおいてフィルタリングされることにより、急激な変化を防ぐ。
図14は、L11メタデータの想定カラーの詳細例をテーブル形式で示している。テーブル1400は、カラー彩度をガイドする。デフォルトに「0」を設定すると、コンテンツタイプに対するデフォルト設定が使用される。LOWは、やや低い彩度に対応する。MEDIUMは、平均的な彩度に対応する。HIGHは、最大彩度に対応する。このテーブルを利用すれば、異なる設定間の遷移はシームレスになるはずである。想定カラー彩度(1410)は、再生時にターゲットディスプレイにおいてフィルタリングされることにより、急激な変化を防ぐ。
ここで、L11メタデータのデフォルト設定についてさらに説明する。一例として、ターゲットディスプレイがDolby Smart Modeなどのスマートモードの場合、L11メタデータの無い映像コンテンツは、DEFAULT(例えば、図5では、コンテンツタイプ=0)をデフォルトとし得る。「その他すべて」(例えば、図5では、コンテンツタイプ=6)は、全てのコンテンツ(例えば、スポーツ、ドラマ、ソープオペラ、コマーシャル、ゲーム、映画)に対する「平均的な最適設定」と考えてよい。ポストプロダクション(115)の間、スタジオは、異なる表示モード(例えば、鮮やか(vivid)、シネマ/映画など)下でリリースの品質をチェックすることができる。スタジオがレンダリング用ディスプレイ(125)を「シネマホーム」にしてコンテンツをレビューした場合、L11を「シネマ」に設定してスマートモードを使用している人と同じ視聴者体験が得られるとは限らない。これは、ゲームモード、スポーツモード、および標準モードでも同様である。これは、2つのディスプレイ間で白色点やその他のキャリブレーションパラメータの定義が異なるために起こり得る。
ここで、L11メタデータの生成について説明する。一例として、コンテンツにL11が指定されていない場合に、ターゲットディスプレイデバイスを所望のモードに設定するために、画像生成装置がフィールドを埋めることができる。さらに、コンテンツにL11が指定されていない場合に、ターゲットディスプレイデバイスを設定するために、アプリケーション(アプリ)レベルがフィールドを埋めることができる。例えば、一実施形態において、PS4/Xboxのゲームアプリがゲームに設定され、ブルーレイプレーヤおよびNetflixのアプリがシネマに設定され、NBCのスポーツアプリがスポーツに設定される。さらに、オーサリングツールが、ターゲットディスプレイデバイスを設定するためにフィールドを埋めることもできる。この場合、オーサリングツールは、コンテンツタイプ用のドロップダウンメニューを展開(resolve)して有効にする。ハリウッドスタジオは常に「シネマ」に設定される。放送局は、スポーツまたはシネマを明示的にカバーしていない限りは、「その他すべて」に設定される。
ブロードキャストプレイアウトサーバマッピングの例を、テーブル形式で図15に与える。テーブル1500は、EBU Core Metadata Tech 3293よりL11メタデータをマッピングすることによる、欧州放送連合(EBU)Core Metadata(EBUCore)Tech 3293(1410)からのL11メタデータの生成を示している(“EBU Core metadata set (EBUCore),” specification v1.9, MIM-AI, EBU, Jan. 2019を参照)。
ターゲットディスプレイにおけるL11再生の実装について説明する。一例として、ユーザーはターゲットディスプレイ上でDolby Smart ModeTMなどのスマートモード(工場出荷時設定であり得る)を選択する。コンテンツの種類が変わっても、ターゲットディスプレイはスマートモードのままである。メタデータの変更はシームレスであり、すなわち画像コンテンツのちらつきは発生しない。ユーザーはいつでも旧式ピクチャーモードに変更することができる。
以下のさらなる実施形態の説明では、先に説明した実施形態との相違点を中心に説明する。したがって、両実施形態に共通する特徴は、以下の説明では省略されるため、以下の説明で別段の要求がない限り、先に説明した実施形態の特徴は、さらなる実施形態でも実施されているか、または少なくとも実施可能であると仮定されるべきである。
本開示の別の実施形態では、RMフラグは、単に再生時だけでなく、より多くの状況で利用される。例えば、メタデータが制作意図を表していない場合、本実施形態による装置および方法は、制作者より下流の誰か(エンコーダ、配信者、再生機器)がメタデータを変更、作成、および/または上書きすることを許可する。しかし、メタデータが制作意図を表している場合は、メタデータを下流で変更することはできない。
本開示の代替的な実施形態においては、誰がメタデータを埋めたかについて、より多くの情報が含まれる。本実施形態による装置および方法は、RMフラグフィールドに、より多くのビットを使用させることが可能である。一例として、コンテンツ制作および配信の段階や、L11メタデータを埋めた会社の名前などの情報を、RMフラグに格納することができる。この情報は、コンテンツおよびメタデータに添付することができる。この情報は、メタデータをどのように解釈し適用するかを知るために活用できる。いくつかの例を挙げると、i)誰がメタデータを埋めたかの識別と再生の優先順位に応じて、再生機器においてメタデータを適用する、または適用しない、ii)誰がメタデータを埋めたかに応じて、例えばDolbyおよびそのパートナーを含む様々な配信参加者が、コンテンツ制作および配信の様々な段階でメタデータをさらに変更、強化、または上書きすることを許可する、または許可しない、iii)誰がメタデータを埋めたかと、メタデータが潜在的に公開されている場所(コンシューマーが目にすることができるGUIでのコンテンツタイプの公開など)に応じて、メタデータの一部を公開する、または公開しないである。
本開示のさらに別の代替的実施形態においては、ブロックチェーンに概念的に類似したコンテンツフォーマットにおいて、下流の参加者は、追加および/または代替のL11メタデータセットまたはレコードを添付することができる。この場合、各セットやレコードを誰が埋めたかを知ることが極めて重要になる。例えば、あるコンテンツサービスプロバイダは、自身のすべてのコンテンツに対して一貫した、ある1つのL11メタデータのセットで定義された好みの外観を持ち得る一方、当初のコンテンツ制作者によって定義されるような異なるL11メタデータのセットが、各コンテンツに対して維持されることになる。これにより、どちらのL11メタデータのセットを使用するかによって、異なる消費者体験が可能になる。各L11メタデータセットについての拡張RMフラグは、どのL11メタデータのセットを使用するかの判断情報となる。
本開示の数々の実施形態を記載した。しかし、本開示の趣旨および範囲から離れることなく様々な改変を成し得ることが理解されるであろう。従って、他の実施形態が、以下に続く請求項の範囲に含まれる。
上記に提示した例は、当該分野に通常の熟練を有する当業者に対し、本開示の実施形態を作成して使用する方法を完全に開示かつ説明するものとして提供されているのであって、発明者/発明者らが自らの開示であると考えるものの範囲を限定するようには意図されていない。
本明細書中に開示された方法およびシステムを実行するための上記の態様に対する改変であって当該分野の当業者にとって明らかなものは、以下に続く請求項の範囲に含まれるものとして意図されている。本明細書において言及された全ての特許および公開は、本開示が関する当該分野の当業者の技術レベルを示す。本開示に引用された全ての文献は、各文献が個別にその全ての開示内容を援用されている場合と同程度に、援用される。
本開示は、特定の方法またはシステムには限定されず、もちろん変化し得ることを理解されたい。また、本明細書で用いられる用語は、特定の実施形態を記載する目的のためだけのものであり、限定するようには意図されていないことも理解されたい。本明細書および添付の請求項において用いるとき、単数形の「ある(a)」、「一つの(an)」、および「この(the)」は、内容によって明らかにそうでないと決まらない限り、複数の指示対象を含む。「複数(plurality)」という用語は、内容によって明らかにそうでないと決まらない限り、2つ以上の指示対象を含む。別途の定義のない限り、本明細書で用いられる全ての技術的および科学的な用語は、本開示が関する当該技術の当業者によって一般に理解されるものと同一の意味を有する。
本開示に記載されている方法およびシステムは、ハードウェア、ソフトウェア、ファームウェア、またはそれらの組み合わせで実装され得る。ブロックモジュールまたはコンポーネントとして記述された特徴は、ハードウェア、ソフトウェア、およびファームウェアの組み合わせを使用して、一緒にまたは別々に実装され得る。本開示の方法のソフトウェア部分は、実行されたとき、記載された方法を少なくとも部分的に実行する命令(例えば、実行可能プログラム)を含むコンピュータ可読媒体で構成され得る。コンピュータ可読媒体は、例えば、ランダムアクセスメモリ(RAM)および/またはリードオンリーメモリ(ROM)で構成され得る。命令は、プロセッサ(例えば、デジタルシグナルプロセッサ(DSP)、特定用途向け集積回路(ASIC)、またはフィールドプログラマブルロジックアレイ(FPGA))によって実行され得る。
本発明の様々な態様を、以下に続く列挙実施形態例(enumerated example embodiments)(EEE)から理解することができる。
EEE1.メタデータを有するデジタル映像ビットストリームを生成する方法であって、前記メタデータは、制作意図を保持することを指し示すフラグを含み、
前記メタデータに1つ以上の追加的フィールドを設定することにより、前記デジタル映像ビットストリームのコンテンツタイプを示すことと、
前記メタデータ内の前記フラグを設定することにより、前記デジタル映像ビットストリームが、前記デジタル映像ビットストリームを当初の制作意図にしたがって再生および/または表示するべきリファレンスモードにおいて復号化されるときに、前記1つ以上の追加的フィールドが用いられるべきか否かを示すことと、
を包含する、方法。
EEE2.前記メタデータ内の前記1つ以上の追加的フィールドは、映像コンテンツタイプ、映像コンテンツサブタイプ、映像コンテンツ想定白色点、映像コンテンツ想定シャープネス、映像コンテンツ想定ノイズリダクション、映像コンテンツ想定MPEGノイズリダクション、映像コンテンツ想定フレームレート変換、映像コンテンツ平均画像レベル、および映像コンテンツ想定カラーのうち少なくとも1つを含む、EEE1に記載の方法。
EEE3.前記メタデータが映像コンテンツ制作者によって生成される場合、前記フラグは第1の論理値に設定され、前記メタデータが第三者によって生成される場合、前記フラグは第2の論理値に設定される、EEE2に記載の方法。
EEE4.前記メタデータは、映像コンテンツ制作者もしくは自動画像生成器によって、またはアプリケーションレベルにおいて生成される、EEE2に記載の方法。
EEE5.前記メタデータは、映像コンテンツ制作者もしくは自動画像生成器によって、またはアプリケーションレベルにおいて生成される、EEE1から4のいずれかに記載の方法。
EEE6.前記メタデータが映像コンテンツ制作者によって生成される場合、前記フラグは第1の論理値に設定され、前記メタデータが第三者によって生成される場合、前記フラグは第2の論理値に設定される、EEE1から5のいずれかに記載の方法。
EEE7.他のメタデータからのマッピングを用いて前記メタデータを生成する、
EEE1から6のいずれかに記載の方法。
EEE8.前記他のメタデータは欧州放送連合Core Metadata Tech 3293である、EEE7に記載の方法。
EEE9.メタデータを有する映像コンテンツを再生する方法であって、前記メタデータは制作意図を保持することを指し示すフラグを含み、
前記映像コンテンツをデコーダにおいて受信することと、
前記映像コンテンツが、前記デジタル映像ビットストリームを当初の制作意図にしたがって再生および/または表示するべきリファレンスモードにおいて復号化されるときに、前記1つ以上の追加的フィールドが用いられるべきか否かを、前記フラグの状態に基づいて前記デコーダに命令することと、
を包含する、方法。
EEE10.前記フラグが第1の論理値に設定されている場合、前記デコーダは、前記リファレンスモードおよび非リファレンスモードにおいて前記メタデータを利用して前記映像コンテンツタイプを決定するように命令される、EEE9に記載の方法。
EEE11.前記フラグが第2の論理値に設定されている場合、前記デコーダは、前記リファレンスモードにおいては前記メタデータを無視し、非リファレンスモードにおいては前記メタデータを利用するように命令される、EEE9に記載の方法。
EEE12.前記メタデータは、映像コンテンツタイプ、映像コンテンツサブタイプ、映像コンテンツ想定白色点、映像コンテンツ想定シャープネス、映像コンテンツ想定ノイズリダクション、映像コンテンツ想定MPEGノイズリダクション、映像コンテンツ想定フレームレート変換、映像コンテンツ平均画像レベル、および映像コンテンツ想定カラーのうち少なくとも1つを含む、EEE9から11のいずれかに記載の方法。
EEE13.映像コンテンツと、
制作意図を指し示すフラグを含むメタデータであって、前記デジタル映像ビットストリームのコンテンツタイプを示すための1つ以上の追加的フィールドを有する、メタデータと、
を含むデジタル映像ビットストリームであって、
前記メタデータ内の前記フラグは、前記デジタル映像ビットストリームが、前記デジタル映像ビットストリームを当初の制作意図にしたがって再生および/または表示するべきリファレンスモードにおいて復号化されるときに、前記1つ以上の追加的フィールドが用いられるべきか否かを示す、
デジタル映像ビットストリーム。
EEE14.前記メタデータ内の前記1つ以上の追加的フィールドは、映像コンテンツタイプ、映像コンテンツサブタイプ、映像コンテンツ想定白色点、映像コンテンツ想定シャープネス、映像コンテンツ想定ノイズリダクション、映像コンテンツ想定MPEGノイズリダクション、映像コンテンツ想定フレームレート変換、映像コンテンツ平均画像レベル、および映像コンテンツ想定カラーのうち少なくとも1つを含む、
EEE13に記載のデジタル映像ビットストリーム。
EEE15.映像ビットストリーム内においてメタデータの使用または不使用を示すための方法であって、
EEE13またはEEE14記載の前記デジタル映像ビットストリームを提供することと、
前記メタデータが映像コンテンツ制作者によって生成される場合には前記フラグを第1の論理値に設定し、前記メタデータが第三者によって生成される場合には前記フラグを第2の論理値に設定することと、
を包含する、方法。
EEE16.ハイダイナミックレンジを有する映像ビットストリームを再生する方法であって、
EEE13またはEEE14に記載の前記デジタル映像ビットストリームを提供することと、
前記フラグが第1の論理値に設定されている場合、前記リファレンスモードおよび非リファレンスモードにおいて前記メタデータを利用して前記映像コンテンツタイプを決定するように、ビデオデコーダに命令することと、
を包含する、方法。
EEE17.ハイダイナミックレンジを有する映像ビットストリームを再生する方法であって、
EEE13またはEEE14に記載の前記デジタル映像ビットストリームを提供することと、
前記フラグが第2の論理値に設定されている場合、前記リファレンスモードにおいては前記メタデータを無視し、非リファレンスモードにおいては前記メタデータを利用するように、ビデオデコーダに命令することと、
を包含する、方法。
EEE18.実行されたとき、EEE1から12、または、EEE15から17のいずれかに記載の方法の工程を実施する命令を包含する、コンピュータ可読媒体。

Claims (15)

  1. 映像コンテンツからデジタル映像ビットストリームを生成する方法であって、前記デジタル映像ビットストリームはコンテンツアウェアメタデータを含み、前記コンテンツアウェアメタデータは、
    前記デジタル映像ビットストリームの前記映像コンテンツのカテゴリーを指し示す1つ以上のカテゴリーフィールドであって、ターゲットディスプレイに、前記映像コンテンツの前記カテゴリーに対応する表示モードで前記映像コンテンツを表示するための表示設定を選択させる、1つ以上のカテゴリーフィールドと、
    前記1つ以上のカテゴリーフィールドが、前記映像コンテンツをリファレンスモードで表示するための表示設定を前記ターゲットディスプレイに選択させるかどうかを指し示す、リファレンスモードフラグであって、前記リファレンスモードは前記映像コンテンツの制作者の制作意図を保持する表示設定を有する表示モードである、リファレンスモードフラグと、を含み、
    前記方法は、
    前記コンテンツアウェアメタデータ内の前記1つ以上のカテゴリーフィールドを、前記映像コンテンツの前記カテゴリーにしたがって設定することと、
    前記コンテンツアウェアメタデータ内の前記リファレンスモードフラグを、前記1つ以上のカテゴリーフィールドが前記リファレンスモードを指し示しているかどうかを示すように設定することと、
    を包含する、方法。
  2. 前記コンテンツアウェアメタデータ内の前記1つ以上のカテゴリーフィールドは、映像コンテンツタイプおよび映像コンテンツサブタイプのうち少なくとも一方を含む、請求項1に記載の方法。
  3. 前記コンテンツアウェアメタデータ内の前記1つ以上のカテゴリーフィールドを設定することは、
    欧州放送連合Core Metadata Tech 3293を受信することと、
    受信された欧州放送連合Core Metadata Tech 3293からのマッピングを、前記1つ以上のカテゴリーフィールドに適用することと、
    を包含する、請求項1または2に記載の方法。
  4. 前記コンテンツアウェアメタデータは、
    前記映像コンテンツを前記ターゲットディスプレイ上で表示するときの、前記ターゲットディスプレイの表示設定の映像コンテンツ想定調節を指し示す、1つ以上の調節フィールドをさらに含み、
    前記1つ以上の調節フィールドは、前記映像コンテンツを前記表示モードで表示するために、前記ターゲットディスプレイに、前記選択された表示設定の少なくとも一部を調節させることにより、前記適用された表示モードを前記調節された表示設定によって洗練させる、請求項1から3のいずれかに記載の方法。
  5. 前記コンテンツアウェアメタデータ内の前記1つ以上の調節フィールドは、映像コンテンツ想定白色点、映像コンテンツ想定シャープネス、映像コンテンツ想定ノイズリダクション、映像コンテンツ想定MPEGノイズリダクション、映像コンテンツ想定フレームレート変換、映像コンテンツ平均画像明るさレベル、および映像コンテンツ想定カラーのうち少なくとも1つを指し示す、請求項4に記載の方法。
  6. 前記コンテンツアウェアメタデータ内の前記1つ以上の調節フィールドを設定することは、
    欧州放送連合Core Metadata Tech 3293を受信することと、
    受信された欧州放送連合Core Metadata Tech 3293からのマッピングを、前記1つ以上の調節フィールドに適用することと、
    を包含する、請求項4または5に記載の方法。
  7. ターゲットディスプレイ上において映像コンテンツを、前記映像コンテンツの制作者の制作意図を保持する表示設定を有する表示モードであるリファレンスモードで再生する方法であって、
    前記映像コンテンツおよびコンテンツアウェアメタデータを含むデジタル映像ビットストリームを受信する工程であって、前記コンテンツアウェアメタデータは、
    前記デジタル映像ビットストリームの前記映像コンテンツのカテゴリーを指し示す1つ以上のカテゴリーフィールドおよび、
    前記1つ以上のカテゴリーフィールドが、前記映像コンテンツを前記リファレンスモードで表示するための表示設定を前記ターゲットディスプレイに選択させるかどうかを指し示す、リファレンスモードフラグを含む、工程と、
    前記映像コンテンツをデコーダにおいて復号化する工程と、
    前記コンテンツアウェアメタデータを前記リファレンスモードフラグから取得する工程と、
    前記リファレンスモードフラグが、1つ以上のカテゴリーフィールドが、前記映像コンテンツを前記リファレンスモードで表示するための表示設定を前記ターゲットディスプレイに選択させることを指し示す場合、
    前記コンテンツアウェアメタデータの前記1つ以上のカテゴリーフィールドから、前記映像コンテンツのカテゴリーを決定し、
    前記決定された映像コンテンツのカテゴリーに対応する表示モードを決定し、
    前記決定された表示モードの表示設定を前記ターゲットディスプレイに適用し、
    前記映像コンテンツを表示する、工程と、
    前記リファレンスモードフラグが、1つ以上のカテゴリーフィールドが、前記映像コンテンツを前記リファレンスモードで表示するための表示設定を前記ターゲットディスプレイに選択させることを指し示さない場合、
    前記コンテンツアウェアメタデータを適用せずに前記映像コンテンツを表示する、工程と、
    を包含する、方法。
  8. 前記コンテンツアウェアメタデータ内の前記1つ以上のカテゴリーフィールドは、映像コンテンツタイプおよび映像コンテンツサブタイプのうち少なくとも一方を含む、請求項7に記載の方法。
  9. 前記コンテンツアウェアメタデータは、
    前記映像コンテンツを前記ターゲットディスプレイ上で表示するときの、前記ターゲットディスプレイの表示設定の映像コンテンツ想定調節を指し示す、1つ以上の調節フィールドをさらに含み、
    前記1つ以上の調節フィールドは、前記映像コンテンツを前記表示モードで表示するために、前記ターゲットディスプレイに、前記選択された表示設定の少なくとも一部を調節させることにより、前記適用された表示モードを前記調節された表示設定によって洗練させる、請求項7または8に記載の方法。
  10. 前記コンテンツアウェアメタデータ内の前記1つ以上の調節フィールドは、映像コンテンツ想定白色点、映像コンテンツ想定シャープネス、映像コンテンツ想定ノイズリダクション、映像コンテンツ想定MPEGノイズリダクション、映像コンテンツ想定フレームレート変換、映像コンテンツ平均画像明るさレベル、および映像コンテンツ想定カラーのうち少なくとも1つを指し示す、請求項9に記載の方法。
  11. 映像コンテンツと、
    コンテンツアウェアメタデータであって、
    前記デジタル映像ビットストリームの前記映像コンテンツのカテゴリーを指し示す1つ以上のカテゴリーフィールドであって、ターゲットディスプレイに、前記映像コンテンツの前記カテゴリーに対応する表示モードで前記映像コンテンツを表示するための表示設定を選択させる、1つ以上のカテゴリーフィールドと、
    前記1つ以上のカテゴリーフィールドが、前記映像コンテンツをリファレンスモードで表示するための表示設定をターゲットディスプレイに選択させるかどうかを指し示す、リファレンスモードフラグであって、前記リファレンスモードは前記映像コンテンツの制作者の制作意図を保持する表示設定を有する表示モードである、リファレンスモードフラグと、を含むコンテンツアウェアメタデータと、
    を含む、デジタル映像ビットストリーム。
  12. 前記コンテンツアウェアメタデータ内の前記1つ以上のカテゴリーフィールドは、映像コンテンツタイプおよび映像コンテンツサブタイプのうち少なくとも一方を含む、請求項11に記載のデジタル映像ビットストリーム。
  13. 前記コンテンツアウェアメタデータは、
    前記映像コンテンツを前記ターゲットディスプレイ上で表示するときの、前記ターゲットディスプレイの表示設定の映像コンテンツ想定調節を指し示す、1つ以上の調節フィールドをさらに含み、
    前記1つ以上の調節フィールドは、前記映像コンテンツを前記表示モードで表示するために、前記ターゲットディスプレイに、前記選択された表示設定の少なくとも一部を調節させることにより、前記適用された表示モードを前記調節された表示設定によって洗練させる、請求項11または12に記載のデジタル映像ビットストリーム。
  14. 前記コンテンツアウェアメタデータ内の前記1つ以上の調節フィールドは、映像コンテンツ想定白色点、映像コンテンツ想定シャープネス、映像コンテンツ想定ノイズリダクション、映像コンテンツ想定MPEGノイズリダクション、映像コンテンツ想定フレームレート変換、映像コンテンツ平均画像明るさレベル、および映像コンテンツ想定カラーのうち少なくとも1つを指し示す、請求項13に記載のデジタル映像ビットストリーム。
  15. 実行されたとき、請求項1から10のいずれかに記載の方法を実行する命令を包含する、コンピュータ可読媒体。
JP2021578039A 2019-06-28 2020-06-26 ハイダイナミックレンジ用映像コンテンツタイプメタデータ Pending JP2022540067A (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201962868070P 2019-06-28 2019-06-28
EP19183269 2019-06-28
EP19183269.0 2019-06-28
US62/868,070 2019-06-28
PCT/US2020/039969 WO2020264409A1 (en) 2019-06-28 2020-06-26 Video content type metadata for high dynamic range

Publications (2)

Publication Number Publication Date
JP2022540067A true JP2022540067A (ja) 2022-09-14
JPWO2020264409A5 JPWO2020264409A5 (ja) 2023-07-03

Family

ID=71614975

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021578039A Pending JP2022540067A (ja) 2019-06-28 2020-06-26 ハイダイナミックレンジ用映像コンテンツタイプメタデータ

Country Status (7)

Country Link
US (1) US11743550B2 (ja)
EP (1) EP3991427A1 (ja)
JP (1) JP2022540067A (ja)
KR (1) KR102653767B1 (ja)
CN (1) CN114073089B (ja)
BR (1) BR112021024551A2 (ja)
WO (1) WO2020264409A1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114297436A (zh) * 2021-01-14 2022-04-08 海信视像科技股份有限公司 一种显示设备及用户界面主题更新方法
WO2022235969A1 (en) 2021-05-06 2022-11-10 Dolby Laboratories Licensing Corporation Systems and methods for processing volumetric images
WO2023055736A1 (en) 2021-10-01 2023-04-06 Dolby Laboratories Licensing Corporation Encoding and decoding multiple-intent images and video using metadata
US11785300B2 (en) * 2022-02-17 2023-10-10 Roku, Inc. HDMI customized ad insertion

Family Cites Families (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6771323B1 (en) 1999-11-15 2004-08-03 Thx Ltd. Audio visual display adjustment using captured content characteristics
US20030007001A1 (en) 2001-06-07 2003-01-09 Philips Electronics North America Corporation Automatic setting of video and audio settings for media output devices
US8482614B2 (en) 2005-06-14 2013-07-09 Thx Ltd Content presentation optimizer
EP2033444A1 (en) 2006-06-13 2009-03-11 Koninklijke Philips Electronics N.V. Distribution of ambience and content
US20080043031A1 (en) 2006-08-15 2008-02-21 Ati Technologies, Inc. Picture adjustment methods and apparatus for image display device
JP2010518722A (ja) 2007-02-13 2010-05-27 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ ビデオ制御ユニット
CN101682684A (zh) 2007-06-20 2010-03-24 汤姆森特许公司 输入源内容的自动伽马校正
KR20090022373A (ko) 2007-08-30 2009-03-04 삼성전자주식회사 컨텐츠 장르에 따라 컨텐츠 재생 장치를 자동으로 조정하는방법 및 이를 구현하는 송출 및 수신 시스템
US8488901B2 (en) 2007-09-28 2013-07-16 Sony Corporation Content based adjustment of an image
CN104954831A (zh) * 2008-01-31 2015-09-30 汤姆逊许可证公司 用于观看数据定义和高清晰度多媒体接口上的传输的方法
US20100013855A1 (en) 2008-07-16 2010-01-21 International Business Machines Corporation Automatically calibrating picture settings on a display in accordance with media stream specific characteristics
US20100013996A1 (en) 2008-07-18 2010-01-21 Samsung Electronics Co., Ltd. Method and system for theme-based settings for a display device
KR101196410B1 (ko) 2009-07-07 2012-11-01 삼성전자주식회사 Tv 설치타입에 기초한 자동 환경 설정방법 및 이를 적용한 tv
US8280222B2 (en) 2009-10-06 2012-10-02 Sony Corporation Use of metadata in video to establish TV settings
US9183580B2 (en) * 2010-11-04 2015-11-10 Digimarc Corporation Methods and systems for resource management on portable devices
KR101428504B1 (ko) 2010-02-22 2014-08-11 돌비 레버러토리즈 라이쎈싱 코오포레이션 비트스트림에 임베딩된 메타데이터를 이용하는 렌더링 제어부를 갖는 비디오 디스플레이
JP5588022B2 (ja) * 2010-02-22 2014-09-10 ドルビー ラボラトリーズ ライセンシング コーポレイション 表示サブシステムにビデオデータを提供する方法、およびシステム
US9654757B2 (en) 2013-03-01 2017-05-16 Nokia Technologies Oy Method, apparatus, and computer program product for including device playback preferences in multimedia metadata
KR20160031466A (ko) * 2013-07-14 2016-03-22 엘지전자 주식회사 디지털 방송 시스템에서 고품질의 색감 표현을 위한 초고화질 방송 신호 송수신 방법 및 장치
WO2015009973A1 (en) * 2013-07-17 2015-01-22 Visible World, Inc. Systems and methods for content presentation management
KR102229156B1 (ko) 2014-03-05 2021-03-18 삼성전자주식회사 디스플레이 장치 및 디스플레이 장치의 제어 방법
JP2016058848A (ja) * 2014-09-08 2016-04-21 ソニー株式会社 画像処理装置及び画像処理方法
US20160092405A1 (en) * 2014-09-30 2016-03-31 Microsoft Technology Licensing, Llc Intent Based Authoring
KR102190233B1 (ko) * 2014-10-06 2020-12-11 삼성전자주식회사 영상 처리 장치 및 이의 영상 처리 방법
TW201633779A (zh) * 2014-12-16 2016-09-16 湯姆生特許公司 將圖像之高動態範圍版本轉換至該圖像之標準動態範圍版本之方法及裝置
WO2017171391A1 (ko) * 2016-03-30 2017-10-05 엘지전자 주식회사 방송 신호 송수신 방법 및 장치
US10939158B2 (en) * 2017-06-23 2021-03-02 Samsung Electronics Co., Ltd. Electronic apparatus, display apparatus and control method thereof
CN111095931B (zh) 2017-09-06 2022-05-27 杜比实验室特许公司 色调曲线优化方法以及相关联的视频编码器和视频解码器
US11778282B2 (en) * 2018-07-30 2023-10-03 Sony Group Corporation Automatically setting picture mode for each media
CN109361949B (zh) * 2018-11-27 2020-08-25 Oppo广东移动通信有限公司 视频处理方法、装置、电子设备以及存储介质
CN109640169B (zh) * 2018-11-27 2020-09-22 Oppo广东移动通信有限公司 视频增强控制方法、装置以及电子设备

Also Published As

Publication number Publication date
WO2020264409A1 (en) 2020-12-30
BR112021024551A2 (pt) 2022-01-18
KR20220029688A (ko) 2022-03-08
CN114073089B (zh) 2024-02-09
KR102653767B1 (ko) 2024-04-03
EP3991427A1 (en) 2022-05-04
US20220264190A1 (en) 2022-08-18
CN114073089A (zh) 2022-02-18
US11743550B2 (en) 2023-08-29

Similar Documents

Publication Publication Date Title
JP6621898B2 (ja) オーバーレイグラフィクス合成のためのアピアランスマッピングのシステムおよび装置
CN109219844B (zh) 在视频优先级与图形优先级之间转换
KR102653767B1 (ko) 하이 다이내믹 레인지를 위한 비디오 콘텐츠 타입 메타데이터
RU2640750C2 (ru) Устройство и способ для преобразования динамического диапазона изображений
US11019302B2 (en) Frame rate conversion metadata
JP2017204864A (ja) ディスプレイ装置及び方法
JP6845946B2 (ja) ハイダイナミックレンジ画像のための映像処理曲線を調整するためのシステムおよび方法
CN110192223B (zh) 高动态范围图像的显示映射
CN112703529B (zh) 功率限制显示器上高动态范围图像的显示映射
Sharma Exploring the basic concepts of HDR: dynamic range, gamma curves, and wide color gamut
Pouli et al. Hdr content creation: creative and technical challenges
Luštica Live HDR Workflow
CN115699178A (zh) 计算用于编辑hdr内容的动态元数据
WO2023150074A1 (en) Beta scale dynamic display mapping
Borg et al. Content-Dependent Metadata for Color Volume Transformation of High Luminance and Wide Color Gamut Images
CN115918061A (zh) 用于高动态范围视频的图片元数据

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230623

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230623

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20230623

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230718

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230914

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231121

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240214

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240409