JP2018042253A - シーン不変化されたメタデータを生成するためのシステムおよび方法 - Google Patents

シーン不変化されたメタデータを生成するためのシステムおよび方法 Download PDF

Info

Publication number
JP2018042253A
JP2018042253A JP2017197969A JP2017197969A JP2018042253A JP 2018042253 A JP2018042253 A JP 2018042253A JP 2017197969 A JP2017197969 A JP 2017197969A JP 2017197969 A JP2017197969 A JP 2017197969A JP 2018042253 A JP2018042253 A JP 2018042253A
Authority
JP
Japan
Prior art keywords
scene
metadata
video
invariant
scenes
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017197969A
Other languages
English (en)
Other versions
JP6334799B2 (ja
Inventor
アトキンス,ロビン
atkins Robin
ヨン,レイモンド
Yeung Raymond
キュ,シェン
Sheng Qu
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dolby Laboratories Licensing Corp
Original Assignee
Dolby Laboratories Licensing Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dolby Laboratories Licensing Corp filed Critical Dolby Laboratories Licensing Corp
Publication of JP2018042253A publication Critical patent/JP2018042253A/ja
Application granted granted Critical
Publication of JP6334799B2 publication Critical patent/JP6334799B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • H04N21/8549Creating video summaries, e.g. movie trailer
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • G11B27/28Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
    • G11B27/30Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on the same track as the main recording
    • G11B27/3027Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on the same track as the main recording used signal is digitally coded
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/10Intensity circuits
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • G11B27/28Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/34Indicating arrangements 
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/845Structuring of content, e.g. decomposing content into time segments
    • H04N21/8456Structuring of content, e.g. decomposing content into time segments by decomposing the content in the time domain, e.g. in time segments
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • H04N21/8543Content authoring using a description language, e.g. Multimedia and Hypermedia information coding Expert Group [MHEG], eXtensible Markup Language [XML]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/82Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
    • H04N9/8205Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2360/00Aspects of the architecture of display systems
    • G09G2360/16Calculation or use of calculated indices related to luminance levels in display data
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2370/00Aspects of data communication
    • G09G2370/04Exchange of auxiliary data, i.e. other than image data, between monitor and graphics controller
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/147Scene change detection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/268Signal distribution or switching

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Security & Cryptography (AREA)
  • Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Television Signal Processing For Recording (AREA)
  • Studio Devices (AREA)

Abstract

【課題】映像データストリームに対してシーン不変的なメタデータを生成および適用するための、方法およびシステムを提供する。【解決手段】映像データストリームをシーンに分割または区分けし、映像データのある1つのシーンについてメタデータの第1のセットが生成される。メタデータの第1のセットは、映像コンテンツの所望の関数としての、任意の公知のメタデータ(例えば輝度など)である。メタデータの第1のセットは、フレーム単位で生成される。一例において、そのシーンについてのメタデータの第1のセットとは異なる、シーン不変的なメタデータを生成する。シーン不変的なメタデータは、シーン中における所望の特徴部を監視することによって生成され、その所望の特徴部を許容可能な範囲の値に保つために用いられる。これにより、映像データのレンダリングに際して、目立ちかつ場合によっては邪魔になる視覚的アーチファクトを回避する。【選択図】図4

Description

本願は、2013年7月30日付け出願の米国仮特許出願第61/859,956号に基づき優先権主張を行う。その開示全体を、本願において参考のため援用する。
本発明は、映像コンテンツの制作およびレンダリングに関し、特に、ターゲットディスプレイ上における映像データのレンダリングを改善するために、関連付けられたメタデータを生成するためのシステムおよび方法に関する。
映像ファイル中のメタデータは典型的にはフレームごと、またはキーフレームについて生成される。しかし多くの場合、再生映像は、映像コンテンツの視聴者にとって邪魔なアーチファクトを有する可能性がある。これらのアーチファクトは、シーン間(例えばある共通の特徴部を有するシーンなど)において目立ち得る。例えば、カメラは、空間的および時間的に移動中(例えば、ある瞬間には暗く照らされた部屋にいたが、戸外の太陽に照らされた空間に移動するなど)の、ある一人の俳優の映像を撮影しているかもしれない。
周囲条件のそのような変化は、視聴者にとって目立つアーチファクトを生成し得る(俳優の顔の色調が変化するなど)。これは、例えば輝度や色域レンダリングなどの性能に関して制限を有するようなターゲットディスプレイ上で映像コンテンツが表示される場合において、特にそうである。コンテンツの制作者(creater)(ディレクターまたはポストプロダクションの専門家など)は、シーンベースのメタデータを作成することにより、そのようなアーチファクトを緩和でき得る。
所望の映像データストリームに対して、シーン不変的なメタデータを生成および適用するための、方法およびシステムを本願において開示する。提供されるシステムおよび/または方法では、映像データストリームをシーンに分割または区分けし、映像データのある1つのシーンについてメタデータの第1のセットが生成され得る。メタデータの第1のセットは、映像コンテンツの所望の関数としての、任意の公知のメタデータ(例えば輝度、色域など)であり得る。メタデータの第1のセットは、フレーム単位で生成され得る。一実施形態において、そのシーンについてのメタデータの第1のセットとは異なる、シーン不変的なメタデータを生成してもよい。シーン不変的なメタデータは、シーン中における所望の特徴部を監視することによって生成され、その所望の特徴部を許容可能な範囲の値に保つために用いられ得る。これにより、映像データのレンダリングに際して、目立ちかつ場合によっては邪魔になる視覚的アーチファクトを回避することを助け得る。
一実施形態において、映像データストリームにおいてシーン不変的なメタデータを用いる方法であり、前記方法は、映像データストリームをシーンの集合に分割し、前記シーンの集合内の第1のシーンに関連付けられた第1のメタデータを生成し、シーン不変的なメタデータを生成し、前記シーン不変的なメタデータを前記第1のシーンに関連付ける。
別の実施形態において、シーン不変的なメタデータを映像データに用いるシステムであり、前記システムは、プロセッサと、前記プロセッサに対応付けられたメモリとを有し、前記メモリはプロセッサ読み取り可能な命令を含んでおり、前記プロセッサが前記プロセッサ読み取り可能な命令を読みだすことにより、以下の命令を前記プロセッサに実行させ
る。すなわち、シーンの集合を含む映像データストリームを受け取ることと、前記シーンの集合について、前記シーンの集合に関連する第1のメタデータを生成することと、シーン不変的なメタデータのセットを生成することと、少なくとも1つのシーンについて、シーン不変的なメタデータを前記少なくとも1つのシーンに関連付けることである。
さらに別の実施形態において、ビデオプロセッサは、プロセッサと、前記プロセッサに対応付けられたメモリとを有し、前記メモリはさらにプロセッサ読み取り可能な命令を含んでおり、前記プロセッサが前記プロセッサ読み取り可能な命令を読みだすことにより、以下の命令を前記プロセッサに実行させる。すなわち、シーンの集合を含む入力映像データストリームを受け取ることと、少なくとも1つのシーンに関連付けられたメタデータの第1のセットを受け取ることと、あるシーンカットは前記入力映像データストリームの実質的に次のフレームであるという標示(indication)を受け取ることと、シーン不変的なメタデータを受け取ることと、前記シーン不変的なメタデータを、前記入力映像データストリームの実質的に次のフレームに関連付けることである。
本システムのその他の特徴および利点が、以下に詳細な説明において、本願に添付する図面とともに読まれることにより示される。
図1は、本発明の原理により構成された映像パイプラインシステムの、環境およびアーキテクチャの一実施形態を示す。 図2Aは、本願の目的に適し得る、映像パイプラインフローチャートの2つの実施形態を示す。 図2Bは、本願の目的に適し得る、映像パイプラインフローチャートの2つの実施形態を示す。 図3は、ある一例のターゲットディスプレイのディスプレイ管理において起こり得る映像処理の、高次フロー図の一実施形態である。 図4は、1つの映像ファイルに対する、シーン不変的なメタデータの生成および関連付けのための映像処理の、一実施形態である。 図5は、映像パイプラインにおける、シーンチェンジの予告通知を含むフローチャートの、一実施形態である。 図6は、シーンに区分けされた映像ファイルの一例および、シーンチェンジの標示を含むあるシーン内の1フレームを示す。
実施形態例を、図面の中でそれぞれ言及したものに示す。本願において開示する実施形態および図面は、例示的なものであり、限定的ではないと見なされることを意図している。
本願において、「構成要素」、「システム」、「インターフェース」などの語は、コンピュータに関連するもの(ハードウェア、ソフトウェア(例えば実行中の)および/またはファームウェアであっても)を指すことが意図される。例えば、ある構成要素は、プロセッサ上で走っているプロセス、プロセッサ、オブジェクト、実行可能コード(executable)、プログラムおよび/またはコンピュータであり得る。例示として、サーバー上で走っているアプリケーションもまたそのサーバーも、構成要素たり得る。1つのプロセス中には1つ以上の構成要素が存在し得る。また、1つの構成要素は、1つのコンピュータ上に局在してもよく、および/または2つ以上のコンピュータ間に分散されていてもよい。また1つの構成要素が、通信に関連するもの(ハードウェア、ソフトウェア(例えば実行中の)および/またはファームウェアであっても)に言及することも意図され、これは通信を支配するのに十分な有線または無線のハードウェアを構成し得る。
以下の説明において、当業者に完全な理解を提供するために、具体的な詳細を説明する。しかし、開示が不用意に不明瞭になることを避けるため、周知の事項は図示または説明していない場合がある。従って、説明および図面は、例示的な意味でとらえられるべきであり、限定的にとらえられるべきではない。
序説
時間的安定性を得るため(例えば、ちらつき、脈動、フェーディングなどがないように)、また、ターゲットディスプレイ上での再生映像における邪魔になる可能性のある視覚的アーチファクトを緩和するために、映像データに関連付けられるメタデータは、概して時間的に安定であることが望ましいといえる。これはいくつかの実施形態においては、一シーンの持続期間にわたってメタデータの安定性を図ることにより、実現される。そのようなメタデータは、各シーンカットにおいて変化することが許されてもよい。そのような場合、コンテンツに適応したメタデータの変化は、視聴者にとって目立たないものであり得る。
単なる一例として、表示直前に、映像/画像データメタデータをフレーム単位で推測することが可能である。ただしこれは、ある1つのシーンの見た目において(場合によっては1つのシーンの最中に)、不快で目立つ変化を起こし得る。
本願のいくつかの実施形態として、映像データに関連するおよび/または関連付けられたメタデータを、生成またはその他作成するシステムおよび方法を、本明細書において記載する。本明細書においてより詳しく説明されるように、本願の多くの実施形態において、この関連付けられたメタデータはシーン単位で生成され得る。そのようなメタデータは、映像データストリームのフロントエンド、または映像データストリームのその他任意の適切な部分に作成され得る。映画館やホーム視聴環境やテレビ会議であるかによらず、またどこで映像データが視聴および/または享受されるかによらず、映像データは、映像データのユーザー/消費者/視聴者に送信および/または送られ得る。
多くのメタデータ生成および/またはメタデータ使用技術が、同一出願人に係る以下の特許および/または特許出願に記載されている。
(1)Messmerの2013年3月28日公開の、「TONE AND GAMUT MAPPING METHODS AND APPARATUS」の名称を有する米国特許出願第20130076763号、
(2)Messmerらの2013年6月27日公開の、「DATA TRANSMISSION USING OUT−OF−GAMUT COLOR COORDINATES」の名称を有する米国特許出願第20130162666号、
(3)Longhurstらの2013年6月6日公開の、「METADATA FOR USE IN COLOR GRADING」の名称を有する米国特許出願第20130141647号、および
(4)Messmerらの2012年12月13日公開の、「VIDEO DELIVERY AND CONTROL BY OVERWRITING VIDEO DATA」の名称を有する米国特許出願第20120315011号。
上記すべてについて、その開示全体を本願において参考のため援用する。
図1、2Aおよび2Bは、本願のシステムおよび/または方法を適用し得る、いくつか
の環境システム(それぞれ100、200、206)を全体的に示す。これらのシステムは、エンドツーエンドの映像生成/送信/視聴映像パイプラインの可能性を表しており、例えば、映像が撮影され、シーン単位のメタデータが抽出されて映像ストリームに入れられて配信され、ターゲットディスプレイに送られて視聴される。
図1において、システム100(またはその一部)は、本明細書に記載される方法の1つ以上を実行するように構成され得る。システム100の構成要素は、ソフトウェア、ファームウェア、ハードウェアおよび/またはその組み合わせとして実現され得る。システム100は、映像キャプチャサブシステム102、ポストプロダクションサブシステム103、および表示サブシステム104を含む。映像データのストリーム123(より具体的には、映像ストリームパイプライン中の異なる点を123−1、123−2、123−3としている)は、映像キャプチャサブシステム102によって生成され、ポストプロダクションサブシステム103に供給されて処理および編集を受ける。映像データ123の編集の過程において、映像イメージは、ポストプロダクションサブシステム103のリファレンスディスプレイ111上で表示および視聴され得る。編集された映像データ123は、表示サブシステム104(配信媒体125を介し、エンコーダ127Aおよびデコーダ127Bを通る)に供給されて、さらなる処理を受け表示される。サブシステム102、103および104(そしてエンコーダ127A)の各々は、映像データ123中のメタデータ225を符号化するように構成され得る。下流のサブシステムは、上流機器から映像データ123を受け取り、その中に埋め込まれたメタデータ225を復号化するように構成され得る。メタデータ225は、下流のサブシステム(例えばサブシステム103および104)によって、映像データ123の処理および/または表示をガイドするために用いられ得る。メタデータ225は、ディスプレイ特性パラメータ120とともに、表示サブシステム104のディスプレイ118上での映像再生を、表示サブシステム104が制御および/またはガイドするために用いられ得る。
図1に示すように、サブシステム102、103および104はそれぞれ、プロセッサ106、108および116ならびに、各プロセッサがアクセス可能なプログラムメモリ107、109および117を有していてもよい。各プロセッサ(他所にも記載)は、中央処理装置(CPU)、1つ以上のマイクロプロセッサや1つ以上のフィールドプログラマブルゲートアレイ(FPGA)、あるいはその任意の組み合わせや、またはその他の本明細書記載のように機能することが可能な、ハードウェアおよび/またはソフトウェアを包含する適切な処理装置(単数または複数)を有し得る。各サブシステムにおいて、プロセッサは、プログラムメモリに格納されたソフトウェアによって与えられる命令を実行する。ソフトウェアは、本明細書に記載のメタデータ生成、符号化、復号化、および処理ステップを実行するためのルーチンを含み得る。例えば、以下を行うルーチンである。
(1)メタデータ225を生成する、またはメタデータ225のパラメータを受け取ること、
(2)映像データ123中のメタデータ225を、そのような映像データが下流機器に伝えられる前に、符号化すること、
(3)上流機器から受け取った映像データ123から、メタデータ225を復号化すること、
(4)映像データの処理および/または表示をガイドするために、メタデータ225を処理および適用すること、
(5)画像および/または映像データ123に基づいて、メタデータ225を符号化する方法を選択すること、
(6)および/またはその他。
システム100は、サブシステム102、103および104がアクセス可能なリポジトリ110を有していてもよい。リポジトリ110は、メタデータ定義112のライブラ
リ(これらは例えば、メタデータのエンコーダおよびデコーダに、どのようにしてメタデータを生成および/または読み出しするかを知らせる)および、予約語114のリスト(例えば保護されている画素値、あるいは予約されたメタデータワード)を含み得る。メタデータ定義112のライブラリは、メタデータの生成、符号化および/または処理の際に、サブシステム102、103および104によってアクセスされ得る。メタデータ225を符号化または復号化するに際して、符号化/復号化されたメタデータビットに対して予約語114を比較することにより、メタデータストリームに挿入しようとしている(または挿入された)ガードビットのシーケンスを識別することができ、これにより、予約語の伝達を防ぎ得る。図1に例示した実施形態では共有されたリポジトリ110を示しているが、他の実施形態において、サブシステム102、103および104のそれぞれが、そのサブシステムによりアクセスされることが可能な記憶媒体に格納された、ローカルリポジトリ110を備えてもよい。
図2Aは、特定の実施形態における映像供給パイプライン200を通るデータの流れを示す、フローチャートである。映像供給パイプライン200は、図1の映像供給パイプライン100に示したものと同様な段を含んでいる。映像供給パイプライン200の1つ以上の段において、メタデータ225を生成し、下流の段で使用されるために映像データ123のストリームに埋め込んでもよい。メタデータ225は映像データ123とともに、映像供給パイプライン200を介して送信され、下流機器による映像データの処理をガイドし、および/またはブロック210の表示サブシステムにおける映像再生をガイドするために用いられ得る。ブロック206において映像データ123(埋め込まれたメタデータ225を含む)は、当該タイプの映像コンテンツ供給に適したシステム、装置および方法(例えば衛星、ケーブルまたはハイデフィニションネットワークを介したテレビ放送や、IPまたは無線ネットワークを介したマルチメディアのストリーミング、DVDその他の記憶媒体からの再生など)を用いて、表示サブシステムに供給され得る。
図2Aの実施形態において、ブロック202でカメラメタデータ225Aを生成し、映像データ123−1に埋め込み得る。カメラメタデータ225Aは、カメラ設定おび映像フレームの撮影環境に基づいて生成され得る。カメラメタデータ225Aは例えば、映像フレームの撮影中におけるカメラ設定のスナップショットを与えるような、カメラパラメータを含んでいてもよい。そのようなカメラパラメータは、絞り(f値)、レンズ、シャッタースピード、感度(ISO規格値)などを含み得る。これらのカメラパラメータを用いて、映像供給パイプライン200における後のステップ、例えばブロック204のポストプロダクション編集でのカラー調整(例えばカラータイミング)やブロック210の表示構成など、をガイドすることができる。
ブロック204において、ポストプロダクションメタデータ225Bを生成し、映像データ123−2に埋め込む。ポストプロダクションメタデータ225Bは、リファレンスディスプレイおよび環境メタデータ225B1と、ソース映像コンテンツ特性定義メタデ
ータ225B2とを含み得る。ポストプロダクションメタデータ225Bは、ブロック2
10の表示構成などの、映像供給パイプライン200における後のステップをガイドするために用いられ得る。
リファレンスディスプレイおよび環境メタデータ225B1は、ブロック204のポス
トプロダクション編集で用いられる、リファレンスディスプレイ構成およびスタジオまたは視聴環境を記述していてもよい。例えば、ブロック204のポストプロダクション編集において映像データ123を表示するために用いられるリファレンスディスプレイに関して、リファレンスディスプレイおよび環境メタデータ225B1は、以下のパラメータを
含み得る。
(1)微細な解像度における、リファレンスディスプレイのトーンおよび色域範囲を記
述する、3D色域マッピング、
(2)リファレンスディスプレイのトーンおよび色域範囲を定義する、(3D色域マッピングを推測するために用い得る)縮小したパラメータセット、
(3)各クロミナンスチャンネルについて、リファレンスディスプレイのトーンレスポンスを記述する、システムのトーンレスポンスパラメータ、
(4)画面サイズ、
(5)および/またはその他
リファレンスディスプレイおよび環境メタデータ225B1はまた、ブロック204の
ポストプロダクション編集において、リファレンスディスプレイ上で映像コンテンツがカラータイミングを取られたまたは編集されたスタジオ環境を記述する、パラメータを含んでいてもよい。そのようなパラメータは、周囲輝度および周囲色温度を含み得る。
ソース映像コンテンツ特性定義メタデータ225B2は、以下を識別または提供し得る
情報を含む、ポストプロダクション編集された映像コンテンツを記述していてもよい。
(1)トーンマッピング(例えば、ディスプレイにおけるトーン拡張をガイドするために用いられ得る、カスタマイズされたトーンマッピングパラメータまたは曲線)および色域マッピング(例えば、ディスプレイにおける色域拡張をガイドするために用いられ得る、カスタマイズされた色域マッピングパラメータなど)、
(2)シーンにおいて重要と考えられる最低黒レベルのレベル(例えば車の下の影など)、
(3)あるシーンの最も重要な部分に対応するレベル(例えば俳優の顔など)、
(4)シーンにおいて重要と考えられる最高白レベルのレベル(例えば電球の中心など)、
(5)シーンにおける最大色度の色(例えばネオンライトなど)、
(6)画像内の光源、または画像内の反射体または発光体の位置マップ、
(7)映像ソースコンテンツの色域、
(8)画像中の、わざとリファレンスディスプレイの色域の外にカラータイミングされている領域、
(9)ビデオプロセッサによる表示前の処理中や表示構成中に変更されるべきでない、保護されているカラー、
(10)画像を輝度または色域的に特徴付ける画像ヒストグラム(例えばこのような情報は、下流機器がトーンおよび色域マッピングを整えるために平均輝度を決定するために用いられ得る)、
(11)以前の映像フレームからの統計またはヒステリシスが既に有効ではないことを下流機器に警告する、シーンチェンジまたはリセットフラグ、
(12)動いている物体を識別し映像コンテンツを特徴付ける、モーションマップ(下流機器は、これを光源位置マップとともに用いてトーンおよび色域マッピングをガイドし得る)、
(13)カラータイミングされているコンテンツのソースの標示(例えばカメラから直接、あるいはポストプロダクション編集)、
(14)デコーダ/テレビその他のディスプレイなどの下流機器を制御するために用い得る、ディレクターの制作意図設定であって、例えばそのような設定は、ディスプレイが特定のモードで動作する能力を提供する、表示モード制御(例えば、鮮やか、シネマ、スタンダード、プロフェッショナルなど)・適切な色域またはトーンマッピングなどを決定するために用いられ得る、コンテンツタイプ(例えばアニメーション、ドラマ、スポーツ、ゲームなど)を含む、
(15)および/またはその他。
ブロック206において、映像データ123−2は表示サブシステムに供給される。図
2Bに示されるように供給パイプライン206は、衛星、ケーブルまたはハイデフィニションネットワーク、IPまたは無線ネットワーク、あるいはDVDその他の記憶媒体などの映像配信媒体125を介して、映像データ123の配信、放送または送信を行わせるための、エンコーダ段127Aを有し得る。媒体125を介して配信された映像データ123を復号化するためのデコーダ段127Bが、ブロック206のディスプレイ側に設けられ得る。デコーダ段127Bは、例えばセットトップボックスや、表示サブシステム内のデコーダによって実現されてもよい。ブロック206および/または208において、視聴環境メタデータ225Cおよび/またはその他のメタデータ225を、映像データ123に埋め込み得る。視聴環境メタデータ225Cは例えば、以下のものを含み得る。
レファレンスモニタのトーンマッピングまたは色域曲線、あるいは基準環境の周囲輝度を与える、Advanced Video Coding(AVC)VDRエンコーダデータ。この情報の少なくとも一部分は、ビデオプロセッサによって、表示特性(例えばディスプレイのExtended Display Identification Data(EDID)を読みだすことにより)および表示サブシステムの環境を知ることにより決定されてもよい。いくつかの実施形態において、この情報の少なくとも一部は、映像データのポストプロダクション処理中においてスタジオにて決定されてもよい。
表示サブシステムのディスプレイが存在している環境を記述するパラメータ。このようなパラメータは例えば、周囲輝度および/またはトーンあるいは色温度を含み得る。
視聴環境メタデータ225Cは、ブロック208における映像データの処理および/またはブロック210における表示構成をガイドするために用いられ得る。
表示サブシステムは、ブロック208において入力映像データ123−3を処理するためのビデオプロセッサを備える。表示サブシステムのビデオプロセッサは、映像データ123から抽出したメタデータ225(例えばメタデータ225A)および/または表示サブシステムのディスプレイに関する既知の表示特性に基づいて、映像データ123−3に対し信号処理を行い得る。映像データ123は、ディスプレイ特性定義パラメータ226および/またはメタデータ225に従って、ディスプレイに対し処理および調節され得る。
ブロック206および/または208、あるいは映像供給パイプライン200中のその他の段において映像データ123に埋め込まれ得るその他のメタデータ225は、例えば以下のような管理メタデータ225D(配信権利などを管理するための)である。
(1)映像コンテンツがどこで生成されたか、配信されたか、改変されたかなどを示す透かしデータ、
(2)検索またはインデックス化のための映像コンテンツの記述を提供する、フィンガープリント化データ、
(3)誰が映像コンテンツを所有するかおよび/または誰がそれに対するアクセスを有するかを示す、保護データ、
(4)および/またはその他。
視聴環境メタデータ225Cは少なくとも部分的に、表示サブシステムのディスプレイに関連付けられたディスプレイ特性定義パラメータ206に基づいて生成され得る。いくつかの実施形態において、視聴環境メタデータ225C、ソース映像コンテンツ特性定義メタデータ225B2および/または管理メタデータ225Dは、エンコーダ段127A
、デコーダ段127Bおよび/またはブロック208のビデオプロセッサにおける、映像データ103の分析によって作成または提供されてもよい。
ブロック210において、表示サブシステムのディスプレイ上で表示構成を行い得る。表示構成のための適切なパラメータは、ディスプレイ特性定義パラメータ226および/またはメタデータ225、例えばカメラメタデータ225A、ポストプロダクションメタデータ225B(リファレンスディスプレイおよび環境メタデータ225B1およびソー
ス映像コンテンツ特性定義メタデータ225B2を含む)および視聴環境メタデータ22
5Cなどに基づいて、決定し得る。これらのパラメータに従ってディスプレイが構成される。映像データ123を、ディスプレイに出力する。
ブロック208の映像データ123の処理およびブロック210の表示構成に用いられるメタデータ225は、その適用の前にメタデータ225が表示サブシステム(ビデオプロセッサおよびディスプレイを含む)によって受け取られるように、映像データストリームにおいて供給される。いくつかの実施形態において、メタデータ225は、メタデータ225が適用されるフレームの少なくとも1つ前の映像フレームにおいて表示サブシステムに受け取られるように、供給される。特定のいくつかの実施形態において、メタデータ225は1映像フレーム前に供給され、ブロック208および/または210におけるメタデータ225の適用は、入力映像ストリームにおいて新しい映像フレームが検出されることによってトリガされてもよい。
シーン単位の「不変的な」メタデータ
前述したように、映像ファイル中のメタデータは、シーン単位で取得することが望ましい場合があり得る。本明細書に記載されるように、本願のいくつかの実施形態においては、シーン単位でメタデータを取得(例えば輝度、色域その他に基づき)してもよい。特に一実施形態においては、同一および/または同様なシーンにわたって適用され得るような、「不変的な」メタデータのセットを提供してもよい。
一実施形態において、各シーンはグローバルシーンメタデータに関連付けられ得る。グローバルシーンメタデータとは、1シーン内のフレーム依存的な特性(例えば各フレーム内の最小、最大、および中間の輝度値など)に応じて生成され得る。同様な特性を有するシーンは、同じメタデータを共有することをまた強制され得るため、表示中においてそれらは同じルック・アンド・フィールを保つ。別の実施形態において、受信側はまた「予告通知メタデータ」を受け取る。これは例えばすなわち、未来のシーン用のメタデータであり、DM処理に関連するパラメータを受信側は前もって準備することができるようになる。
「不変的な」シーンメタデータの概念の理解のために、以下の説明を単なる解説として述べるが、これは本願の範囲を限定するものではない。数個のシーンにわたる間、色および明るさを安定に保つことが望まれる場合がある。一例として、ある「シーン」において二人の俳優がいるが、映像フレームのシーケンスの中で、カメラはまず一方の俳優に、それから他方の俳優へと言うようにカットを向けていくとする。例えば、1つのセットにおける二人の俳優の間の長い会話などの場合である。これは演劇的には1つの「シーン」を構成するものであるが、2つの異なるカメラカットが、視聴者にとって目立ちかつ邪魔であるような色および/または輝度のシフトを引き起こし得る。いくつかの実施形態においては、例えば、シーン全体の安定した見た目を得るために、各カットにつき異なるメタデータを有することも可能であり得る。
別の一例として、ある「シーン」において一人の俳優がいるがその俳優は動き回っており、カメラがその俳優を追うことを考える。やはりこれは演劇的には1つのシーンであり得るが、視聴者にとって目立つおよび/または邪魔な輝度および/または色のシフトが起こり得る。さらに別の一例として、ディレクターは、数フレームの期間のうちにあるシー
ンがその輝度を減少(おそらくはゼロまで)し、その一方で別のシーンが低い(例えばゼロの)輝度から開始して最大輝度に至るような、「ディゾルブ」(または「クロスフェード」)手法を利用し得る。そのようなディゾルブまたはクロスフェードは、画面上の俳優に対するフラッシュバックを表現したり、または他の目的で用いられることがある。
これらの状況は、ディレクターが撮影された映像のポストプロダクション処理を行っているような場合に、当てはまり得る。そのようなディレクターは、例えば5000ニトに達するような輝度を有するプロフェッショナルグレードのモニタ上で、映像をカラーグレーディングまたは輝度マッピングしているかもしれない。しかし、動画は、よりずっと低い輝度を有する家庭用ビデオ機器または他の何らかのターゲットディスプレイ)で視聴されるかもしれない。このことを事前に分かっていれば、ディレクターまたはその他のコンテンツの制作者は、視聴者によるコンテンツ体験を改善する機会が得られることになる。
これら数個の例(およびここで述べていない他の例)に基づけば、視聴者の視点からは(映像コンテンツ制作者/ディレクターの視点ではないとしても)、メタデータをシーン単位で適用すること、および/または、ある1つのシーンおよび/またはフレームの1シーケンスに対していつ「不変的な」メタデータを適用するか(これらは、現シーン/フレームに対して別の違った、おそらくはフレームベースの、メタデータを用いていたかもしれない)を決定するプロセスを実施することが、望ましいと考えてよい。
ホームビデオ的な状況において、家庭のディスプレイに対し、映像データの「最善な」(あるいは「より良い」)マッピングを提供しようとするディスプレイ管理(Display Management(DM))プロセッサが存在している場合が、しばしばある。DMは、利用可能な表示映像データから、ターゲットディスプレイに対して良好な輝度マッチングを提供するために、往々にしてダイナミックレンジマッピングを提供する。ダイナミックレンジマッピングは、マッピングを可能にするために、輝度統計に基づいたメタデータ、例えば、最大輝度、算術平均輝度および/または最小輝度を用い得る。
同一出願人に係るいくつかの特許出願に、ディスプレイ管理(DM)システムおよび手法が開示されており、本願のシステムおよび方法において有用であり得る。すなわち、
(1)Gishらの2011年8月11日公開の、「COMPATIBLE COMPRESSION OF HIGH DYNAMIC RANGE, VISUAL DYNAMIC RANGE, AND WIDE COLOR GAMUT VIDEO」の名称を有する米国特許出願第20110194618号、
(2)Longhurstの2012年9月13日公開の、「INTERPOLATION OF COLOR GAMUT FOR DISPLAY ON TARGET DISPLAY」の名称を有する米国特許出願第20120229495号、
(3)Messmerの2012年12月20日公開の、「VIDEO DISPLAY CONTROL USING EMBEDDED METADATA」の名称を有する米国特許出願第20120321273号、および
(4)Seetzenらの2013年2月14日公開の、「DISPLAY MANAGEMENT METHODS AND APPARATUS」の名称を有する米国特許出願第20130038790号である。
上記すべてについて、その開示全体を本願において参考のため援用する
不変的なシーンメタデータの一実施形態
図3に、本願の高次ブロックフロー図の一実施形態を示す。映像パイプライン300は、符号化されたビットストリーム301を受け取る。符号化されたビットストリーム301はさらに、映像/画像データを、何らかの使用可能なフォーマットの形のメタデータ(例えばフレーム単位、シーン単位、および輝度統計に基づくメタデータ、カラーマッピングメタデータその他を含む)とともに、含み得る。
この符号化ビットストリーム301は、デコーダ302によって受け取られ得る。デコーダ302は、パーサー304をさらに含んでいてもよい。デコーダ302は、暗号化、圧縮またはその他当該分野において公知の任意の方法で符号化されている、入力ビットストリームを復号化する。復号化された後、入力ビットストリームはパーサー304によってパースされ得る。パーサー304は、映像/画像データからメタデータを吐き出し得る。
抽出された映像/画像データは、その関連付けられたメタデータとともに、中間ビットストリーム303として送り出される。ビットストリーム303はまた、本明細書においてさらに説明されるように、下流のプロセッサ(単数または複数)に対してどのメタデータを適用するかなどを知らせる、1つ以上のフラグ(またはその他の何らかの標示、信号など)305を含んでいてもよい。
中間ビットストリーム303および/または任意のフラグ305は、ディスプレイ管理(DM)モジュール306によって受け取られ得る。DMモジュール306は、最後の画像/映像データがターゲットディスプレイ308に送られる前に、任意の所望の画像/映像マッピングを適用してもよい。ターゲットディスプレイ308は、画像および/または映像データを視聴者に表示し得る、任意の適切な機器であり得る。単なる例として、そのようなターゲットディスプレイ308は、HDテレビジョン、ムービープロジェクター、デスクトップモニタ、ラップトップ、タブレット、スマート機器などであってもよい。
前述のように、本願のいくつかの実施形態は、シーン単位のメタデータ(例えば可能性として「不変的な」シーンメタデータのセットである)を計算および/または導出することを包含し得る。不変的なシーンメタデータを用い得るタイミングにおいて(その他の利用可能なメタデータ(シーンベースであるかフレームベースであるかを問わず)に代わるものとして)、パイプラインはそのような不変的なシーンメタデータを適切に用いることができ、このことにより、視聴者にとって目立つおよび/または邪魔なアーチファクトの可能性を緩和する。
単なる一例として、暗い洞窟の中のシーンを考える。画像は、洞窟の暗いディテールをすべて示しているかもしれない。しかし、もしカメラがパンして洞窟の開口部(明るい)を向いたならば、適応的なマッピングにより画像をこれに応じて調節すればよい。例えば、新しいより明るい画素に対応するためには、洞窟の壁の暗いディテールを下げればよい。シーン不変的なメタデータの生成および使用により、シーン全体についてマッピングを最適化し得る(例えばシーンの途中において、目立つ変化が無いようにする)。
図4は、不変的なシーンメタデータ処理の高次フローチャート400の一実施形態である。402において、映像データはシーンの集合に分割され得る。このように映像をシーンの集合へ分割および/または区分けすることは、いくつかの方法で達成することができる。まず、区分けは人間のユーザー、例えばディレクター、動画編集者、ポストプロダクションの誰か、などによって行われてもよい。例えば、一実施形態において、編集リスト(Edit Decision List(EDL))からシーンカットが既に分かって
いるかもしれない。EDLは、いくつかの異なるショットから映画を制作するために用いられ得る。ある一実施形態において、EDLを抽出して、それを用いてシーンの範囲を規定してもよい。このようにすれば、追加的な労力は少なくて済むか、全く必要ない。さらに、ユーザーは自動的に決定された(または抽出された)シーンカットを上書きすることもできる。
あるいは、シーン区分けの識別は、映像データをフレーム単位で分析することによりそのような決定を行い得るビデオプロセッサによって、自動的に行ってもよい。例えば、もし輝度データ、カラーデータまたはその他の画像データ尺度について、測定可能なほどの大きな変動がフレーム間に存在した場合は、ビデオプロセッサはこの差異が2つのシーンの境界を示しているものと決定してよい。このような自動決定は、先読みまたはマルチパス処理によって高められることができる。すなわち、数個のフレームを分析し、画像データ尺度に関して初期的な差異が見いだされれば、もしその尺度がその後多くのフレームにおいて実質的にこの初期的な差異に従っているならば、シーンチェンジが起こった可能性が高いとしてもよい。
本願の目的において、映像データ中におけるシーンは、任意の公知の方法で識別することができる。404においてメタデータを、シーン単位で算出、測定またはその他抽出し得る。単なる一例として、もしあるシーンを構成するフレームが50枚あるならば、シーン全体について輝度データを測定および抽出すればよい。最小輝度、算術平均および/または平均輝度および最大輝度などのシーンメタデータを計算し得る。その他の画像/映像尺度もまた同様に測定および/または抽出することによって、他のシーンベースのメタデータを形成することができる。
以下は、映像ストリーム中においてシーン不変的なメタデータを生成することの、一実施形態である。
(1)MIN、MID、およびMAX輝度を、1シーン内の各フレームについて算出する。そしてその結果をそのシーン全体についてまとめる。
a.MINについては、1シーン内の全フレームの全最小値のうち最小値を取る。
b.MIDについては、1シーン内の全フレームの全中間値のうち中間(平均)値を取る。
c.MAXについては、1シーン内の全フレームの全最大値のうち最大値を取る。
同様な統計を、例えば色域データなどの他の映像/画像尺度についても導出し得ることが、理解される。別の実施形態において、他のシーン依存のメタデータ、例えばシーン内の画像データに対してどの程度のシャープニングまたはスムージングを適用するかなど、を生成することも可能である。
406において、あるシーンについての「不変的な」メタデータのセットを算出し得る。不変的なメタデータは、そのメタデータの用途によっては、先に算出されたシーンベース(またはフレームベース)のメタデータと異なっていてもよい。シーン不変的なメタデータは例えば、目立つおよび/または邪魔な映像データの変化を生んでしまう可能性のあるような(例えば以前に算出されたシーンベースのメタデータを用いてそのシーンを視聴のためにレンダリングしたとしても)、何らかの監視された特徴部、側面、および/または尺度に従って、1つのシーンについて算出および/または生成され得る。例えば、1人の俳優が異なる背景にわたって空間的および時間的に移動すると(例えば1カット中において暗く閉ざされた部屋から明るい戸外の太陽に照らされた設定に移る場合)、俳優の顔その他の肌色トーンのカラーあるいは色合いに関して、目立つおよび/または邪魔な変化が生まれ得る。いくつかの実施形態において、監視された特徴部、側面、および/または尺度に従いもし2つのシーンが知覚的に同様であると考えられるならば、第2のシーンに
対するメタデータを、第1のシーン(例えば第2のシーンとは異なる)について算出されたメタデータで置き換えてもよい。第2のシーンは、第1のシーンの後でも前でもよい。
他の特徴部、側面および/または尺度もまた可能である。例えば肌色トーン、光る特徴部/物体、暗い特徴部/物体、カラー特徴部/物体などである。そのような変化は、不変的なシーンメタデータを用いることによって緩和することができる。シーン不変的なメタデータは、1シーンにわたって監視されている特徴部、側面および/または尺度が、許容可能な値の範囲に戻されおよび/または保たれるよう、算出および/または生成され得る。408におけるプロセスは、この不変的なシーンメタデータを、以前にそのシーンと関連付けられていたかあるいは関連付けられていなかったかもしれない任意の他のメタデータに対し、関連付けおよび/または代用し得る。この不変的なシーンメタデータの関連付けおよび/または代用は、例えばそのような特徴部、側面および/または尺度を許容可能な範囲の外に出ることを許してしまうようなメタデータが他に存在するときに、これらの特徴部、側面および/または尺度を許容可能な範囲まで戻すために、用いられ得る。特徴部、側面および/または尺度の許容可能な値の範囲は、手動で(例えばディレクターおよび/または動画編集者によって)決定されるか、あるいは画像処理/レンダリングおよび/または動画編集に関する何らかのルールおよび/または自助学習に従って、決定され得る。
図4に述べる処理は、映像/画像パイプラインの多くの異なるポイントで起こり得ることが、理解される。例えば、映像をシーンに区分けすることは、人間によってポストプロダクションにおいてなされるか、パイプライン中の別のどこかでプロセッサによってなされ得る。またその後のシーンベースのメタデータの算出および/または抽出は、ポストプロダクションまたはパイプライン中の別のどこかでなされ得る。同様に、「不変的な」シーンメタデータの関連付けは、ポストプロダクション中か、あるいは、さらに下流、例えばDMその他のビデオプロセッサによって、最後の映像/画像データをターゲットディスプレイへレンダリング用に送る前に、なされ得る。
その他の実施形態
いくつかの実施形態においては、最大性能を達成するため、マッピング動作は画像コンテンツ依存であってもよい。そのような画像依存的マッピングは、ソースコンテンツから生成されるメタデータによって、制御され得る。時間的安定性を得るため(例えば、ちらつき、脈動、フェーディングなどがないように)、メタデータは概して時間的に安定であることが望ましいといえる。一実施形態においてこれは、一シーンの持続期間にわたってメタデータの安定性を図ることにより支配され得る。メタデータは、各シーンカットにおいて変化させてもよい。そのような場合、コンテンツに適応したメタデータの急激な変化は、視聴者にとって目立たないかもしれない。
一実施形態において、シーン不変的なメタデータを生成するステップは、以下を含み得る。
(1)映像データ中におけるシーンカットの位置を取得する。一実施形態において、これは編集リスト(EDL)から導出され得る。または、これは人間によって手動入力されるか、あるいはプロセッサにより自動的に検出されてもよい。
(2)シーン中のフレームについて、メタデータを算出および/または生成する。すなわち、
a.随意に画像をダウンサンプリング(これは、処理を高速化する傾向にあり、もし数個の外れ画素値があったとしてもその効果を最小にする)
b.画像を所望の色空間(例えばIPT−PQ)に変換
c.画像の最小値を算出(例えばIチャンネル)
d.画像の最大値を算出(例えばIチャンネル)
e.画像の算術平均値を算出(例えばIチャンネル)。
(3)フレームごとの結果をシーンごとの結果にまとめる、すなわち
a.フレームの最小値のそれぞれの、最小値を算出
b.フレームの最大値のそれぞれの、最大値を算出
c.フレームの算術平均のそれぞれの、算術平均を算出。
(4)メタデータを、シーン、あるいはシーン内の各フレームに関連付ける。
上述の実施形態には変形例が可能であり、それらが本願の範囲と見なされることが、理解される。例えば、ステップ(2)においてシーンの各フレームを分析する代わりに、単一の代表的なフレームを選択してメタデータを算出および/または生成し、これをシーン全体に対して関連付けてもよい。
さらに、クロスフェードの両側におけるシーンに対するメタデータを示した後、中間のフレームを補間することにより、クロスフェードに対応してもよい。そのような補間は、両側において線形またはコサインその他の同様な関数を介した漸近線であってもよい。
ステップ(4)の後、メタデータは、正しい映像フレームと適切に同期させながら、符号化されたビットストリームに挿入され得る。メタデータは、規則的に繰り返されることにより、ストリームにランダムに入れられてもよい。
さらに別の実施形態において、予め算出された値をメタデータに含めることにより、復号化された映像を所望の色空間(例えばIPT−PQ)に変換することを助けることが可能である。これは、変換はしばしば固定小数点プロセッサを有する機器上でなされ、そのような機器は除算や指数などのある種の演算が不得意であり得るため、望ましいことがある。予め算出された値を用いそれらをメタデータストリーム中に埋め込むことが、有利であり得る。
シーン不変化されたメタデータの復号化/「予告通知」メタデータ
映像デコーダにおいて、ある新しいシーンの第1番目のフレームと同じフレームにおいて、新しいシーンメタデータが到着してもよい。または、メタデータは、そのシーンの第1番目のフレームよりも前に到着することにより、映像の処理への適用に間に合うように、メタデータを復号化および解釈する時間を稼いでもよい。ビットストリーム送信におけるシーン不変化されたメタデータのロバスト性を改善するために、この「予告通知メタデータ」や他の手法が望ましい場合があり得る。以下のような改良が可能であるが、これらは個別の改良としてもよく、またはいくつかの改良が組み合わせられてもよい。
(1)同一シーン内において、毎フレームにつきメタデータを繰り返す
(2)メタデータ本体中、実質的に次のフレームにおいて起こるシーンカットのインジケータ/フラグを追加する
(3)メタデータ本体中、現フレームにおいて起こるシーンカットのインジケータ/フラグを追加する
(4)次のフレームのメタデータが、現フレームのメタデータと実質的に同一である(または実質的に異なる)ことを示すインジケータ/フラグを追加する、および/または
(5)エラーチェック(例えばCRC32など)のためのデータ完全性フィールドを、メタデータ本体に追加する。
図5は、そのような500の予告通知メタデータフローチャートの一実施形態を示す。502において、システム/パイプラインは、メタデータをシーンごとに算出および/または生成し得る。このメタデータ(不変的なシーンメタデータまたはその他)は、504において映像データビットストリーム中のシーンと関連付けられ得る。そしてシステム/
パイプラインは506において、新しいシーンの実際の第1番目のフレームよりも所望の数の(例えば1つ以上の)フレームだけ前に、差し迫っているシーンチェンジの標示を前もって追加してもよい。この標示および/またはフラグは、ビットストリームの一部を構成していて、DM(またはパイプライン内の他の適切なプロセッサ)がこれを通知されてもよい。508においてシステムは、シーンチェンジよりも前もってパラメータおよび/またはマッピングをインストールする時間を、DM(または他の適切なプロセッサ)に与えてもよい。この追加的な時間によりシステムは、映像コンテンツの視聴者にとって邪魔であり得る目立つアーチファクトを回避する機会を得る。
これは、シーンカットの位置に前もってはアクセスし得ない、従来のメタデータ不変化方法に対しての改良となり得る。例えば、シーンカットが前もってわかっていないと、リアルタイムで映像データを分析することか、メタデータを時間とともにスムーズに変化させることにより、メタデータを推測することになる。これはちらつき、脈動、フェーディングなどの画像アーチファクトを発生させ得る。別の実施形態において、メタデータをソースにおいて(例えば映像圧縮の前に)算出することにより、能力のより低いコンシューマー機器において、必要とされる演算すなわちコストを減らすことが可能である。
図6は、複数のシーン(シーン1からシーンN)に区分けされ、さらにこれらが複数のフレーム(例えばフレーム602a)を含むような、映像データ600の一例を示す。シーン1のフレーム602mは、そのフレームに関連付けられた予告通知フラグを有する。このことにより、次に続くシーン2をよりよくレンダリングするように、パラメータおよび/またはマッピングを設定する時間をDMが持つことができる。
本発明の1つ以上の実施形態の詳細な説明を、添付の図面とともに読まれることにより本発明の原理を例示するよう、提示した。本発明をそのような実施形態に関連して説明したが、本発明はいかなる実施形態にも限定されないことが、理解される。本発明の範囲は請求項によってのみ限定され、本発明は多数の代替物、改変、および均等物を包含している。本発明の完全な理解を提供するために、多数の具体的な詳細を本説明において述べた。これらの詳細は例示目的で提供したのであり、本発明は請求項に基づいて、これら具体的な詳細のうちのいくつかまたは全てが無しでも、実施し得る。明瞭さのため、本発明に関連する技術分野において公知である技術的題材は詳細に説明しないことによって、本発明が不用意に不明瞭になることを避けた。

Claims (15)

  1. 複数のシーンを有する映像ストリームを処理するための映像エンコーダにおいて、シーン不変的なメタデータを用いる方法であって、
    前記映像ストリーム中のシーンの集合内の第1のシーンに関連付けられたメタデータの第1のセットを生成する工程と、
    前記映像ストリーム中の前記シーンの集合内の第2のシーンに関連付けられたメタデータの第2のセットを生成する工程と、
    シーン不変的なメタデータを生成する工程と、
    前記シーン不変的なメタデータを、前記シーンの集合内の第2のシーンに関連付ける工程と、
    を包含する、方法。
  2. シーンはシーンカットを用いて決定され、シーンカットは、プロセッサによる自動、手動、または編集リスト(edit decision list)に基づく、を含む1つ以上のシーンチェンジ検出法によって検出される、請求項1に記載の方法。
  3. 前記シーンの集合内の第1のシーンに関連付けられたメタデータの第1のセットを生成する工程は、
    前記シーン中の各フレームについてMIN、MID、およびMAX輝度を算出すること、および
    前記シーンの全フレーム間でのMIN、MID、およびMAX輝度を算出すること
    を包含する、請求項1に記載の方法。
  4. 前記シーン不変的なメタデータを生成する工程は、
    1つのシーン内の特徴部を監視して、前記シーンについての前記シーン不変的なメタデータを決定すること
    をさらに包含する、請求項1に記載の方法。
  5. 前記第2のシーンは前記第1のシーンより後である、請求項1に記載の方法。
  6. 前記第2のシーンは前記第1のシーンより前である、請求項1に記載の方法。
  7. 前記シーン不変的なメタデータを前記第2のシーンに関連付ける工程は、
    前記第2のシーン内の全てのフレームについて、前記メタデータを繰り返すこと
    をさらに包含する、請求項1に記載の方法。
  8. 前記シーン不変的なメタデータを前記第2のシーンに関連付ける工程は、
    シーンカットの標示を、前記第1のシーン内の実質的に次のフレームに追加すること
    をさらに包含する、請求項1に記載の方法。
  9. 前記シーン不変的なメタデータを前記第2のシーンに関連付ける工程は、シーンカットの標示を現フレームに追加すること
    をさらに包含する、請求項1に記載の方法。
  10. 複数のシーンを有する映像ストリームを処理するための映像デコーダにおいて、シーン不変的なメタデータを用いる方法であって、
    シーンの集合を含む、入力映像データストリームを受け取ることと、
    現シーン内の、シーン不変的なメタデータの集合を受け取ることと、
    前記入力映像データストリーム中の第1のシーンについて、差し迫っているシーンチェンジの予告的な標示を受け取ることと、
    前記シーン不変的なメタデータの集合を、前記第1のシーン内の映像フレームに関連付けること
    を包含する、方法。
  11. 前記入力映像データストリーム中の第2のシーンについて、差し迫っているシーンチェンジの標示を受け取ることと、
    前記シーン不変的なメタデータの集合を、前記第2のシーン内の映像フレームに関連付けること
    をさらに包含する、請求項10に記載の方法。
  12. 前記シーン不変的なメタデータの集合は、1つのシーンについてのMIN、MID、およびMAX輝度を含む、
    請求項10に記載の方法。
  13. 前記シーン不変的なメタデータの集合は、1つのシーン内の監視される特徴部を、許容可能な値の範囲内に保つことに基づいている、請求項10に記載の方法。
  14. 前記監視される特徴部は、肌色トーン、光る特徴部、暗い特徴部およびカラー特徴部からなる群より選択される1つである、請求項13に記載の方法。
  15. 前記第1のシーンについての差し迫っているシーンチェンジに対し前もって、前記第1のシーン内のフレームを表示するための、ディスプレイ管理パラメータを用意すること
    をさらに包含する、請求項10に記載の方法。
JP2017197969A 2013-07-30 2017-10-11 シーン不変化されたメタデータを生成するためのシステムおよび方法 Active JP6334799B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201361859956P 2013-07-30 2013-07-30
US61/859,956 2013-07-30

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2016531791A Division JP6227778B2 (ja) 2013-07-30 2014-07-28 シーン不変化されたメタデータを生成するためのシステムおよび方法

Publications (2)

Publication Number Publication Date
JP2018042253A true JP2018042253A (ja) 2018-03-15
JP6334799B2 JP6334799B2 (ja) 2018-05-30

Family

ID=51392348

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2016531791A Active JP6227778B2 (ja) 2013-07-30 2014-07-28 シーン不変化されたメタデータを生成するためのシステムおよび方法
JP2017197969A Active JP6334799B2 (ja) 2013-07-30 2017-10-11 シーン不変化されたメタデータを生成するためのシステムおよび方法

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2016531791A Active JP6227778B2 (ja) 2013-07-30 2014-07-28 シーン不変化されたメタデータを生成するためのシステムおよび方法

Country Status (10)

Country Link
US (2) US9607658B2 (ja)
EP (2) EP3425899B1 (ja)
JP (2) JP6227778B2 (ja)
KR (2) KR101775938B1 (ja)
CN (2) CN108831511B (ja)
BR (1) BR122020018850B1 (ja)
HK (2) HK1259138A1 (ja)
RU (1) RU2627048C1 (ja)
TW (2) TWI555392B (ja)
WO (1) WO2015017314A1 (ja)

Families Citing this family (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2989793B1 (en) 2013-11-13 2017-04-05 Dolby Laboratories Licensing Corporation Workflow for content creation and guided display management of enhanced dynamic range video
US10009632B2 (en) * 2014-03-05 2018-06-26 Qualcomm Incorporated Flicker detection and mitigation in video coding
JP6421504B2 (ja) * 2014-07-28 2018-11-14 ソニー株式会社 画像処理装置及び画像処理方法
WO2016056787A1 (en) * 2014-10-06 2016-04-14 Samsung Electronics Co., Ltd. Display device and method of controlling the same
CN112511833A (zh) 2014-10-10 2021-03-16 索尼公司 再现装置
WO2016129891A1 (ko) * 2015-02-11 2016-08-18 엘지전자 주식회사 방송 신호 송수신 방법 및 장치
US10430664B2 (en) * 2015-03-16 2019-10-01 Rohan Sanil System for automatically editing video
KR101974137B1 (ko) * 2015-05-11 2019-08-23 삼성전자주식회사 메타데이터에 기초한 영상 처리 장치 및 영상 처리 방법
EP3295451B1 (en) 2015-05-12 2020-07-01 Dolby Laboratories Licensing Corporation Metadata filtering for display mapping for high dynamic range images
GB201511450D0 (en) * 2015-06-30 2015-08-12 British Broadcasting Corp Audio-video content control
EP3185570A1 (en) * 2015-12-22 2017-06-28 Thomson Licensing Method and apparatus for transmission-based smoothing of rendering
US10167694B2 (en) * 2016-08-31 2019-01-01 Weatherford Technology Holdings, Llc Pressure control device, and installation and retrieval of components thereof
US10847073B2 (en) * 2016-10-17 2020-11-24 Huawei Technologies Co., Ltd. Image display optimization method and apparatus
EP3316248A1 (en) * 2016-10-28 2018-05-02 Thomson Licensing Method for adapting a luminance of a multimedia content, corresponding computer program product and apparatus
US10438124B2 (en) 2017-01-25 2019-10-08 Centurylink Intellectual Property Llc Machine discovery of aberrant operating states
US10346756B2 (en) 2017-01-25 2019-07-09 Centurylink Intellectual Property Llc Machine discovery and rapid agglomeration of similar states
EP3697098A1 (en) * 2017-10-12 2020-08-19 Sony Corporation Image processing device, image processing method, transmission device, transmission method and reception device
KR102413839B1 (ko) 2017-11-15 2022-06-28 삼성전자 주식회사 컨텐츠 제공장치, 그 제어방법 및 기록매체
US10657627B2 (en) 2018-01-23 2020-05-19 Gopro, Inc. Temporal smoothing in image capture systems
US10298895B1 (en) 2018-02-15 2019-05-21 Wipro Limited Method and system for performing context-based transformation of a video
US11030728B2 (en) * 2018-05-29 2021-06-08 Apple Inc. Tone mapping techniques for increased dynamic range
KR102369148B1 (ko) 2018-06-18 2022-03-02 돌비 레버러토리즈 라이쎈싱 코오포레이션 이미지 캡처 방법 및 시스템
KR102572432B1 (ko) * 2018-07-03 2023-08-30 삼성전자주식회사 디스플레이장치 및 그 제어방법과 기록매체
GB2578625A (en) * 2018-11-01 2020-05-20 Nokia Technologies Oy Apparatus, methods and computer programs for encoding spatial metadata
US11184551B2 (en) * 2018-11-07 2021-11-23 Canon Kabushiki Kaisha Imaging apparatus and control method thereof
JP7246894B2 (ja) * 2018-11-07 2023-03-28 キヤノン株式会社 撮像装置およびその制御方法
CN109525901B (zh) * 2018-11-27 2020-08-25 Oppo广东移动通信有限公司 视频处理方法、装置、电子设备及计算机可读介质
KR102666909B1 (ko) 2019-06-19 2024-05-20 삼성전자주식회사 디스플레이장치 및 그 제어방법
KR20210083840A (ko) * 2019-12-27 2021-07-07 삼성전자주식회사 다이나믹 톤 메타데이터를 포함하는 영상의 편집을 위한 전자 장치 및 그의 동작 방법
EP4158897A1 (en) * 2020-05-26 2023-04-05 Dolby Laboratories Licensing Corporation Picture metadata for variable frame-rate video
US11930189B2 (en) * 2021-09-30 2024-03-12 Samsung Electronics Co., Ltd. Parallel metadata generation based on a window of overlapped frames
WO2023055736A1 (en) 2021-10-01 2023-04-06 Dolby Laboratories Licensing Corporation Encoding and decoding multiple-intent images and video using metadata
US11734806B2 (en) 2021-11-24 2023-08-22 Roku, Inc. Dynamic tone mapping

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000511743A (ja) * 1997-03-22 2000-09-05 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 映像信号の解析と記憶
JP2003299010A (ja) * 2002-04-05 2003-10-17 Sony Corp 映像コンテンツ編集支援システム,撮像装置,編集者端末装置,記録媒体,コンピュータプログラム,映像コンテンツ編集支援システム,
JP2003304417A (ja) * 2002-04-08 2003-10-24 Olympus Optical Co Ltd 撮像システム
JP2008264530A (ja) * 2007-03-28 2008-11-06 Toshiba Corp 超音波診断装置、超音波画像処理装置及び超音波画像処理方法
JP2010062920A (ja) * 2008-09-04 2010-03-18 Ricoh Co Ltd 画像処理装置、画像処理方法、プログラムおよび記録媒体
JP2011223054A (ja) * 2010-04-02 2011-11-04 Canon Inc 画像処理装置および画像処理方法
WO2012166382A2 (en) * 2011-05-27 2012-12-06 Dolby Laboratories Licensing Corporation Scalable systems for controlling color management comprising varying levels of metadata
JP2013527996A (ja) * 2010-02-22 2013-07-04 ドルビー ラボラトリーズ ライセンシング コーポレイション ビットストリームに埋め込まれたメタデータを用いたレンダリング制御を備えるビデオ表示

Family Cites Families (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5724456A (en) * 1995-03-31 1998-03-03 Polaroid Corporation Brightness adjustment of images using digital scene analysis
JP3825615B2 (ja) * 2000-08-11 2006-09-27 株式会社東芝 動画像符号化装置および動画像符号化方法およびプログラムを記録した媒体
KR100912984B1 (ko) 2002-04-12 2009-08-20 미쓰비시덴키 가부시키가이샤 메타데이터 편집 장치, 메타데이터 재생 장치, 메타데이터 배신 장치, 메타데이터 검색 장치, 메타데이터 재생성 조건 설정 장치, 콘텐츠 배신 장치, 메타데이터 배신 방법, 메타데이터 재생성 장치, 메타데이터 재생성 방법
JP4263933B2 (ja) * 2003-04-04 2009-05-13 日本放送協会 映像提示装置、映像提示方法及び映像提示プログラム
US7986372B2 (en) * 2004-08-02 2011-07-26 Microsoft Corporation Systems and methods for smart media content thumbnail extraction
CN101032165B (zh) * 2004-08-17 2010-06-16 松下电器产业株式会社 制作装置、制作方法
JP4954901B2 (ja) * 2005-02-07 2012-06-20 トムソン ライセンシング 24Hzフレーム周波数のビデオ信号に基づくオーディオ/ビデオ・データに関係するビデオ信号および一つまたは複数のオーディオ信号を再生するための方法および装置
JP4536015B2 (ja) * 2005-02-14 2010-09-01 富士フイルム株式会社 輝度変換曲線作成装置および方法,ならび輝度変換曲線作成プログラム
JP2006331591A (ja) * 2005-05-30 2006-12-07 Sony Corp 情報処理装置および方法、並びにプログラム
US7656462B2 (en) * 2005-06-17 2010-02-02 Martin Weston Systems and methods for modifying master film for viewing at different viewing locations
JP4592652B2 (ja) * 2005-09-09 2010-12-01 株式会社東芝 電子透かし埋め込み装置及び方法、電子透かし検出装置及び方法、並びにプログラム
US7639893B2 (en) * 2006-05-17 2009-12-29 Xerox Corporation Histogram adjustment for high dynamic range image mapping
US8458595B1 (en) * 2006-05-31 2013-06-04 Adobe Systems Incorporated Video editing including simultaneously displaying timelines and storyboards
JP4197014B2 (ja) * 2006-07-18 2008-12-17 株式会社日立製作所 映像の検索方法および装置
EP2063635A4 (en) * 2006-09-12 2009-12-09 Panasonic Corp CONTENT IMAGE FORMATION DEVICE
US20080195977A1 (en) * 2007-02-12 2008-08-14 Carroll Robert C Color management system
US8478331B1 (en) 2007-10-23 2013-07-02 Clearwire Ip Holdings Llc Method and system for transmitting streaming media content to wireless subscriber stations
US8237864B2 (en) 2007-11-12 2012-08-07 Cyberlink Corp. Systems and methods for associating metadata with scenes in a video
KR101444834B1 (ko) * 2008-01-31 2014-09-26 톰슨 라이센싱 보기 데이터 정의 및 송신을 위한 방법 및 시스템
ES2389458T3 (es) 2008-07-10 2012-10-26 The University Of Warwick Métodos y dispositivos para la compresión de datos de vídeo HDR
MX2010011683A (es) * 2009-02-19 2010-11-30 Panasonic Corp Medio de grabacion, dispositivo de reproduccion y circuito integrado.
BRPI1009443B1 (pt) 2009-03-13 2021-08-24 Dolby Laboratories Licensing Corporation Método de geração de parâmetros de mapeamento de tons inverso, método de compactação de dados de vídeo e método para geração de um fluxo de bits de saída a partir de um fluxo de bits de entrada
JP5493531B2 (ja) 2009-07-17 2014-05-14 三菱電機株式会社 映像音声記録再生装置および映像音声記録再生方法
US9226048B2 (en) 2010-02-22 2015-12-29 Dolby Laboratories Licensing Corporation Video delivery and control by overwriting video data
WO2011106247A2 (en) 2010-02-24 2011-09-01 Dolby Laboratories Licensing Corporation Display management methods and apparatus
US8928686B2 (en) 2010-06-08 2015-01-06 Dolby Laboratories Licensing Corporation Tone and gamut mapping methods and apparatus
CN103098453B (zh) 2010-09-13 2016-12-21 杜比实验室特许公司 使用色域外颜色坐标的数据传输
US9113130B2 (en) * 2012-02-06 2015-08-18 Legend3D, Inc. Multi-stage production pipeline system
EP2498499B1 (en) 2011-03-08 2018-04-18 Dolby Laboratories Licensing Corporation Interpolation of color gamut for display on target display
TWI538473B (zh) * 2011-03-15 2016-06-11 杜比實驗室特許公司 影像資料轉換的方法與設備
US9035965B2 (en) 2011-12-06 2015-05-19 Dolby Laboratories Licensing Corporation Metadata for use in color grading
TWI556629B (zh) 2012-01-03 2016-11-01 杜比實驗室特許公司 規定視覺動態範圍編碼操作及參數
JP6236148B2 (ja) * 2013-10-02 2017-11-22 ドルビー ラボラトリーズ ライセンシング コーポレイション Hdmiを介したディスプレイマネジメントメタデータの送信
EP2989793B1 (en) * 2013-11-13 2017-04-05 Dolby Laboratories Licensing Corporation Workflow for content creation and guided display management of enhanced dynamic range video

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000511743A (ja) * 1997-03-22 2000-09-05 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 映像信号の解析と記憶
JP2003299010A (ja) * 2002-04-05 2003-10-17 Sony Corp 映像コンテンツ編集支援システム,撮像装置,編集者端末装置,記録媒体,コンピュータプログラム,映像コンテンツ編集支援システム,
JP2003304417A (ja) * 2002-04-08 2003-10-24 Olympus Optical Co Ltd 撮像システム
JP2008264530A (ja) * 2007-03-28 2008-11-06 Toshiba Corp 超音波診断装置、超音波画像処理装置及び超音波画像処理方法
JP2010062920A (ja) * 2008-09-04 2010-03-18 Ricoh Co Ltd 画像処理装置、画像処理方法、プログラムおよび記録媒体
JP2013527996A (ja) * 2010-02-22 2013-07-04 ドルビー ラボラトリーズ ライセンシング コーポレイション ビットストリームに埋め込まれたメタデータを用いたレンダリング制御を備えるビデオ表示
JP2011223054A (ja) * 2010-04-02 2011-11-04 Canon Inc 画像処理装置および画像処理方法
WO2012166382A2 (en) * 2011-05-27 2012-12-06 Dolby Laboratories Licensing Corporation Scalable systems for controlling color management comprising varying levels of metadata

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
"「ユーリードシステムズ DVD Workshop 2 Professional」", DOS/V MAGAZINE, vol. 13, no. 8, JPN6017046326, 1 May 2004 (2004-05-01), JP, pages 136, ISSN: 0003697007 *
LAUGA, P., ET AL.: ""REGION-BASED TONE MAPPING FOR EFFICIENT HIGH DYNAMIC RANGE VIDEO CODING"", PROCEEDINGS OF 4TH EUROPEAN WORKSHOP ON VISUAL INFORMATION PROCESSING (EUVIP), JPN6017034534, June 2013 (2013-06-01), pages 208 - 213, XP032500384, ISSN: 0003770254 *

Also Published As

Publication number Publication date
TW201521435A (zh) 2015-06-01
CN105409203A (zh) 2016-03-16
BR112016001639A2 (pt) 2017-08-01
KR20170021384A (ko) 2017-02-27
US9607658B2 (en) 2017-03-28
RU2627048C1 (ru) 2017-08-03
EP3028446A1 (en) 2016-06-08
CN108831511B (zh) 2020-10-23
KR20160027975A (ko) 2016-03-10
US20160254028A1 (en) 2016-09-01
KR102051798B1 (ko) 2019-12-04
HK1217068A1 (zh) 2016-12-16
US10553255B2 (en) 2020-02-04
WO2015017314A1 (en) 2015-02-05
JP2016528826A (ja) 2016-09-15
KR101775938B1 (ko) 2017-09-07
TW201630429A (zh) 2016-08-16
TWI555392B (zh) 2016-10-21
JP6334799B2 (ja) 2018-05-30
TWI542206B (zh) 2016-07-11
RU2016102884A (ru) 2017-08-03
HK1259138A1 (zh) 2019-11-29
EP3425899A1 (en) 2019-01-09
CN105409203B (zh) 2018-07-31
JP6227778B2 (ja) 2017-11-08
CN108831511A (zh) 2018-11-16
EP3425899B1 (en) 2019-12-25
BR122020018850B1 (pt) 2023-01-31
US20170125063A1 (en) 2017-05-04

Similar Documents

Publication Publication Date Title
JP6334799B2 (ja) シーン不変化されたメタデータを生成するためのシステムおよび方法
JP6621898B2 (ja) オーバーレイグラフィクス合成のためのアピアランスマッピングのシステムおよび装置
US20240155143A1 (en) Scalable systems for controlling color management comprising varying levels of metadata
CN109219844B (zh) 在视频优先级与图形优先级之间转换
JP5588022B2 (ja) 表示サブシステムにビデオデータを提供する方法、およびシステム
RU2609760C2 (ru) Устройства и способы усовершенствованного кодирования изображений
JP5577415B2 (ja) ビットストリームに埋め込まれたメタデータを用いたレンダリング制御を備えるビデオ表示
US11288781B2 (en) Efficient end-to-end single layer inverse display management coding
BR112016001639B1 (pt) Sistema para gerar metadados estabilizados de cena

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171212

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180309

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180403

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180426

R150 Certificate of patent or registration of utility model

Ref document number: 6334799

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250