JP2017076409A - シーン基準のメタデータ捕捉のための基準カード - Google Patents

シーン基準のメタデータ捕捉のための基準カード Download PDF

Info

Publication number
JP2017076409A
JP2017076409A JP2016224099A JP2016224099A JP2017076409A JP 2017076409 A JP2017076409 A JP 2017076409A JP 2016224099 A JP2016224099 A JP 2016224099A JP 2016224099 A JP2016224099 A JP 2016224099A JP 2017076409 A JP2017076409 A JP 2017076409A
Authority
JP
Japan
Prior art keywords
image
scene
images
values
metadata
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016224099A
Other languages
English (en)
Other versions
JP2017076409A5 (ja
JP6316910B2 (ja
Inventor
アリ,アルシャッド
Ali Arshad
ロングハースト,ピーター
Longhurst Peter
コザック,エリック
Kozak Eric
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dolby Laboratories Licensing Corp
Original Assignee
Dolby Laboratories Licensing Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dolby Laboratories Licensing Corp filed Critical Dolby Laboratories Licensing Corp
Publication of JP2017076409A publication Critical patent/JP2017076409A/ja
Publication of JP2017076409A5 publication Critical patent/JP2017076409A5/ja
Application granted granted Critical
Publication of JP6316910B2 publication Critical patent/JP6316910B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/583Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/5838Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using colour
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • G11B27/28Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
    • G11B27/32Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on separate auxiliary tracks of the same or an auxiliary record carrier
    • G11B27/322Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on separate auxiliary tracks of the same or an auxiliary record carrier used signal is digitally coded
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/46Colour picture communication systems
    • H04N1/56Processing of colour picture signals
    • H04N1/60Colour correction or control
    • H04N1/6027Correction or control of colour gradation or colour contrast
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/46Colour picture communication systems
    • H04N1/56Processing of colour picture signals
    • H04N1/60Colour correction or control
    • H04N1/603Colour correction or control controlled by characteristics of the picture signal generator or the picture reproducer
    • H04N1/6033Colour correction or control controlled by characteristics of the picture signal generator or the picture reproducer using test pattern analysis
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/84Camera processing pipelines; Components thereof for processing colour signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/64Circuits for processing colour signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/82Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
    • H04N9/8205Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal

Abstract

【課題】シーン基準のメタデータ捕捉のための基準カードを提供する。
【解決手段】生成された画像において使われている符号化された値と、いかなる特定の画像とも独立に定義される基準値との間の対応関係を含むシーン基準のメタデータが、生成される画像についての画像メタデータの一部として提供される。下流の画像処理装置または画像レンダリング装置は、画像処理またはレンダリング動作を実行するためにシーン基準のメタデータを使うことができる。入力画像の符号化された値が対応する出力画像において変更されるときは、シーン基準のメタデータは、出力画像において使用される新しい符号値を用いて更新される。基準値は、基準色値または基準グレーレベルを指す。符号化された値は、一つまたは複数の画像のピクセルまたはサブピクセルにおいて符号化されている色値またはグレーレベルを表わす。
【選択図】図4

Description

関連出願への相互参照
本願は2012年4月30日に出願された米国仮特許出願第61/640,166号への優先権を主張するものである。同出願の内容はここに参照によりその全体において組み込まれる。
技術
本発明は概括的には撮像システムに、詳細にはシーン基準の(scene-referred)メタデータを用いて画像を処理する撮像システムに関する。
シーンからカメラによって捕捉された源画像に対してデジタルおよび/またはアナログ操作が実行されて、公開のための処理された画像を生成することがある。源画像は、種々のカメラ、種々のカメラ設定および種々のシーンで化学的なフィルムまたはデジタル媒体上に記録された色値またはグレーレベルを含む。種々の画像からの色値またはグレーレベルのいくつかは、現実における同じ人物またはオブジェクトに対応することがあるが、シーンから画像を捕捉する際に異なるカメラおよび/または異なる設定が使われうるので、異なることもある。
源画像に対して実行される画像処理動作は、いかなる特定の画像とも異なる値範囲をもつ動作パラメータとも独立な色値またはグレーレベルに基づいていてもよい。動作パラメータについての値を決定するために、源画像がサンプリングされてもよい;比較的限られた色または陰影を含みうる源画像からヒストグラムが構築されてもよい。こうして、画像サンプリングまたはヒストグラム構築から決定できなかった欠けている色または陰影についての知識の欠如を補償する推定がなされることがある。結果として、画像処理動作は、不正確さをもって実行されることがあり、生成される画像において望ましくない視覚的効果を生じる結果となる。
上記のセクションで記述されたアプローチは、追求されることができたアプローチであるが必ずしも以前に着想または追求されたアプローチではない。したがって、特に断りのない限り、該セクションにおいて記述されるアプローチはいずれも、該セクションに含まれているというだけのために従来技術の資格をもつと想定されるべきではない。同様に、特に断りのない限り、一つまたは複数のアプローチに関して特定されている問題は、該セクションに基づいて何らかの従来技術において認識されていたと想定されるべきではない。
本発明は、限定ではなく例として付属の図面に示される。図面において、同様の参照符号は同様の要素を指す。
複数の画像細部を含む例示的なシーンを示す。 ある実施形態に基づく例示的な基準カードを示す。 ある実施形態に基づく例示的な画像処理システムを示す。 ある実施形態に基づく例示的な画像処理ユニットを示す。 ある実施形態に基づく例示的なプロセス・フローを示す。 ある実施形態に基づく、本稿に記載されるようなコンピュータまたはコンピューティング装置が実装されうる例示的なハードウェア・プラットフォームを示す。
シーン基準のメタデータをもつ画像の処理に関係する例示的な可能な実施形態が本稿において記述される。以下の記述では、説明のために、数多くの個別的詳細が、本発明の十全な理解を与えるために記述される。しかしながら、本発明がそうした個別的詳細なしでも実施されうることは明白であろう。他方、よく知られた構造および装置は、本発明を無用に隠蔽し、埋没させ、曖昧にするのを避けるために、網羅的な詳細さでは記述されない。
本稿では例示的な実施形態は次のアウトラインに従って記述される(アウトラインの見出しは単に参照のためであり、いかなる仕方であれ本発明の範囲を制御することはない):
1.全般的概観
2.基準および非基準源画像
3.シーン基準のメタデータの生成および更新
4.シーン基準のメタデータの例示的な応用
5.処理フロー
6.実装機構――ハードウェアの概観
7.等価物、拡張、代替その他。
〈1.全般的概観〉
この概観は、本発明の可能な実施形態のいくつかの側面の基本的な記述を提示する。この概観はその可能な実施形態の諸側面の包括的ないし網羅的な要約ではないことは注意しておくべきである。さらに、この概観は、その可能な実施形態の何らかの特に有意な側面もしくは要素を特定するものと理解されることも、一般には本発明の、特にその可能な実施形態の何らかの範囲を画定するものと理解されることも、意図されていない。この概観は単に、その例示的な可能な実施形態に関係するいくつかの概念を凝縮された単純化された形式で提示するものであり、単に後続の例示的な可能な諸実施形態のより詳細な説明への概念的な導入部として理解されるべきである。
本稿に記載される技法のもとでは、シーン基準のメタデータが画像処理動作からの出力画像のために生成されてもよい。まず、基準カードが出力画像のための源画像が撮影されるのと同じシーン内に置かれてもよい。シーン内に基準カードを含む画像が源画像を撮影するのと同じカメラによって撮影されてもよい。基準カードは、さまざまな基準色値または基準グレーレベルを表わすパターン化された空間的諸部分を有していてもよい。前記基準色値または基準グレーレベルを表わすパターン化された空間的諸部分を含む画像中の生のピクセル値が、前記基準値(基準色値または基準グレーレベル)と、同じシーンから撮影された源画像中の符号化された値(色値またはグレーレベル)との間の対応関係を導出するために使用されてもよい。前記基準値およびパターン化された空間的諸部分に表わされている符号化された値および両者の間の対応関係に基づいてシーン基準のメタデータが生成され、同じシーンの画像とともに、該画像の画像メタデータの一部として含められてもよい。本稿の用法では、「シーン基準のメタデータ」は、該シーン基準のメタデータが付随する画像とは別個で異なるデータをいう。たとえば、画像はシーン基準のメタデータを使うことなくレンダリングされてもよい。
符号化された値がその後の画像処理において源画像の派生画像における新しい符号化された値に変更または更新されるとき、シーン基準のメタデータはしかるべく更新されてもよい。派生画像とともに更新されるシーン基準のメタデータは、対応する派生画像についての画像メタデータの一部として、下流の画像処理装置または画像レンダリング装置に与えられる。
例解のため、シーン基準のメタデータを生成するために使われる画像(たとえば基準カードを含む画像)は基準源画像(reference source image)と称されてもよい。一方、前記シーン基準のメタデータをその画像メタデータとして用いて出力画像を導出するために使われる画像は非基準源画像(non-reference source image)と称されてもよい。いくつかの実施形態では、基準カードをもつ源画像を直接下流の画像処理に与える代わりに、シーン基準のメタデータだけが下流の画像処理に与えられる。
非基準源画像は、対応するシーン基準のメタデータにおけるよりも少数の符号化された色値またはグレーレベルを含むことがある。入力画像に付随するシーン基準のメタデータは、当該シーンからの広い範囲の色値およびグレーレベルについての情報を、たとえ該色値およびグレーレベルのいくつかが入力画像における符号化された値のうちに存在していなくても、その後の画像処理に与える。
本稿に記載されるシーン基準のメタデータは、多様な画像処理アプリケーションにおいて使用されうる。一例では、シーン基準のメタデータは、照明性オブジェクトを反射性オブジェクトから区別するためおよび/またはそれらのオブジェクトを照明性か反射性かに依存して異なる仕方で扱うためのアルゴリズムにおいて使用されてもよい。もう一つの例では、シーン基準のメタデータは、――たとえば種々のカメラ、種々のシャッター速度、種々の開口、種々の時刻、種々の設定などで撮影された――多様な画像を調和させて、一貫したテーマに関連する見え方をもつ統一された映画または画像のシーケンスにするために使用されてもよい。
いくつかの実施形態では、本稿に記載される機構は、サーバー、スタジオ・システム、アート・ディレクター・システム、画像エディタ、アニメーション・システム、映画スタジオ・システム、カメラ、TV、放送システム、メディア記録装置、メディア再生装置、テレビジョン、ラップトップ・コンピュータ、ネットブック・コンピュータ、セルラー無線電話、電子書籍リーダー、ポイントオブセール端末、デスクトップ・コンピュータ、コンピュータ・ワークステーション、コンピュータ・キオスクおよび他のさまざまな種類の端末および表示ユニットを含むがそれに限られない画像処理システムの一部をなす。
本稿に記載される好ましい実施形態および一般的な原理および特徴へのさまざまな修正が当業者にはすぐに明白となるであろう。よって、本開示は示している実施形態に限定されることは意図されておらず、本稿に記載される原理および特徴と整合する最も広い範囲を与えられるべきものである。
〈2.基準および非基準源画像〉
図1は、複数の画像細部を有する例示的なシーン108を示している。単に例解のため、シーン108は、照明性オブジェクト104および反射性オブジェクト106を含んでいてもよいが、それに限られない。カメラ102がシーン108から写真(または画像)を撮るために使用されてもよい。カメラ102は、シーンから写真を撮るよう構成されているいかなる画像取得装置であってもよく、デジタルでもアナログ(たとえば光感応性化学フィルム・ベースのもの)でもよい。シーン108は屋内、屋外、水中、宇宙空間、制御された環境内、自然の環境内、種々の環境要素の組み合わせと一緒などであってもよい。
図2は、例示的な基準カード(202)を示している。基準カード(202)は、複数のサイズのうちの任意のものおよび/または複数の形のうちの任意のものであってもよい。前記基準は、明確な幾何学的特徴または構成をもつ位置決め印(204)を有していてもよい。本稿に記載される画像処理システムは、これらの位置決め印(204)を検出し、基準カード(202)において表わされている基準グレーレベルおよび/または基準色値の配向または幾何学的な位置を決定するよう構成されていてもよい。基準グレーレベルおよび/または基準色値は、基準カード(202)上で一つまたは複数の基準空間的パターンにおいて配列されていてもよい。単に例解のために、基準グレーレベルおよび/または基準色値を含むために、複数の基準空間的パターン(206−1ないし206−4)が使用されてもよい。たとえば、基準空間的パターン(206−1)は複数のグレーレベルを含んでいてもよく、基準空間的パターン(206−2ないし206−4)はそれぞれ異なる色について複数の値を含んでいてもよい。これらの異なる色は、カメラ(たとえば102)によって捕捉された画像をデジタル的にエンコードするために使われる色空間の色成分を表わしていてもいなくてもよい。
本稿に記載される画像処理システムは、基準空間的パターン(206−1ないし206−4)以外の位置決め印(204)を使うことなく基準空間的パターン(206−1ないし206−4)を認識するよう構成されていてもよい。このように、204のような位置決め印は基準カード(202)に存在していてもいなくてもよい。
本稿に記載される基準カード(たとえば202)は、より少数またはより多数の基準空間的パターン、より少数のまたはより多数の基準グレーレベル、より少数またはより多数の基準色値などを含んでいてもよい。一例では、基準カード(202)はグレーレベルのみを含んでいてもよい。もう一つの例では、基準カード(202)は色値のみを含んでいてもよい。追加的、任意的または代替的に、他の色の基準値が基準カード(202)に含まれていてもいなくてもよい。
いくつかの実施形態では、一つまたは複数の基準カードについての一つまたは複数の基準源画像が、一つまたは複数の対応する(非基準)源画像がカメラ(たとえば102)によって撮影されるのと同じシーン内の同じカメラ(102)によって撮影されてもよい。いくつかの実施形態では、基準源画像は、対応する非基準源画像が撮影される前に、後にまたはそれと同時に撮影されてもよい。いくつかの実施形態では、基準源画像および対応する非基準源画像は、照明条件を含むがそれに限られない同じセッティングのもとで撮影されてもよい。一例では、基準源画像は、特定のカメラ設定において撮影された画像を含んでいてもよい。もう一つの例では、基準源画像は、複数のカメラ設定で撮影された画像を含んでいてもよい。各カメラ設定は、特定のメーカー、撮影角度、撮影距離、シャッター速度、開口、焦点距離、フラッシュ設定、センサー設定、記録媒体、フィルム種別、ISO設定などによって指定されてもよいが、それに限られない。
いくつかの実施形態では、一つまたは複数の対応する非基準源画像のための基準源画像は、同様のシーンおよび/または同様のカメラ設定から撮影された他の基準源画像を使って補外または補間によって生成または合成されてもよい。たとえば、非基準源画像が、同じシーンから撮影された基準源画像のどれともマッチしない特定のカメラ設定をもってあるシーンから撮影される場合、その特定のカメラ設定に最も近いカメラ設定をもつ諸基準源画像が見出されてもよい。最も近いカメラ設定をもつ諸基準源画像が補間および/または補外されて、非基準源画像についての基準源画像を生成してもよい。
〈3.シーン基準のメタデータの生成および更新〉
図3Aは、ある実施形態に基づく、本稿に記載される技法の少なくともいくつかを実装する例示的な画像処理システム(300)を示している。ある実施形態では、画像処理システム(300)は一般に、単一の装置または複数の装置であって、共通の(またはいくつかの実施形態では類似の)シーンまたは設定に関連付けられている一つまたは複数の基準源画像(306−1)および一つまたは複数の対応する非基準源画像(306−2)を処理するよう構成されているものを表わす。いくつかの実施形態では、基準源画像(306−1)および対応する非基準源画像(306−2)は、そのシーンから同様のカメラ設定を用いて撮影されてもよい。基準源画像(306−1)および対応する非基準源画像(306−2)のそれぞれは、化学的なフィルムまたはデジタル媒体によって捕捉/記録された生の写真感知応答に基づいて生成されうるピクセル値を含んでいてもよい。
単に例解のために、画像処理システム(300)は、基準カード処理ユニット(302)および画像処理ユニット(304)を有していてもよい。
ある実施形態では、画像処理システム(300)は、一つまたは複数の基準源画像(306−1)を処理し、少なくとも部分的には前記一つまたは複数の基準源画像(306−1)に基づいて、前記一つまたは複数の対応する非基準源画像(306−2)についてシーン基準のメタデータ(310)を生成するよう構成された基準カード処理ユニット302を有していてもよい。基準源画像(306−1)は、シーン内に置かれた一つまたは複数の基準カードの画像を含んでいてもよい。一方、非基準源画像は、基準源画像に基づいて生成されるシーン基準のメタデータ(310)とともに処理されうる画像を含んでいてもよい。
ある例示的な実施形態では、基準色値またはグレーレベルは、いかなる特定の装置(たとえばカメラ)とも独立に定義される標準的なまたは独自の色値またはグレーレベルに対応してもよい。基準色値またはグレーレベルは、本稿に記載される基準カードにおいて表現されていてもよい。画像処理システム(たとえば300)が、たとえば基準源画像に対して実行されるパターン認識および解析に基づいて、該基準カード上の基準色値またはグレーレベルを認識するよう構成されてもよい。画像処理システム(300)はさらに、前記基準色値またはグレーレベルについて、基準源画像(306−1)中の対応する(たとえばシーン基準の)ピクセル値を決定するよう構成されていてもよい。該対応するピクセル値は、ある基準値(たとえば基準色値またはグレーレベル)について対応する符号化された値(たとえば符号化された色値またはグレーレベル)を導出するために使用されてもよい。基準値およびその対応する符号化された値の決定は、前記基準色値またはグレーレベルの一部または全部について繰り返されてもよく、それにより基準値(たとえば基準色値またはグレーレベル)とその対応する(シーン基準の)符号化された値との間の一つまたは複数のマッピングを確立してもよい。
シーン基準のメタデータ(310)は、基準色値および/または基準グレーレベルの一つまたは複数のセット、符号化された色値および/または符号化されたグレーレベルの一つまたは複数のセット、基準値(たとえば基準色値および/または基準グレーレベル)と符号化された値(符号化された色値および/または符号化されたグレーレベル)との間の一つまたは複数のマッピングを含んでいてもよいが、そのいずれにも限定されるだけではない。
いくつかの実施形態では、シーン基準のメタデータ(310)は、基準源画像(306−1)のピクセル値を記憶しない。本稿での用法では、ピクセル値は、画像(フレーム)中のピクセルを表わす一つまたは複数の色値またはグレーレベルを指す。いくつかの実施形態では、ピクセル値が属するピクセルは、画像フレームの列および行のインデックスによって指定されてもよい。対照的に、本稿の記述での符号化された値は、その符号化された値が導出されるもとになったピクセル値が基準源画像中のどこに位置されているかに関わりなく、対応する基準色値またはグレーレベルについて符号化される色値またはグレーレベルを指す。このように、ピクセル値から導出されるものの、符号化された値は、基準源画像(フレーム)におけるピクセル値についての情報またはインデックスを担持する必要はない。いくつかの実施形態では、大量のピクセル値をたとえば二次元配列において担持する代わりに、基準色値および/または基準グレーレベルの一つまたは複数のセット、符号化された色値および/または符号化されたグレーレベルの一つまたは複数のセット、基準値(たとえば基準色値および/または基準グレーレベル)と符号化された値(符号化された色値および/または符号化されたグレーレベル)との間の一つまたは複数のマッピングなどを記憶するために、ずっと小さなデータ・ボリュームが使用されてもよい。
いくつかの実施形態では、非基準源画像(306−2)は、非基準源画像(306−2)の内容に依存して、色値またはグレーレベルの限られたセットを含んでいてもよい。基準色値またはグレーレベルは、非基準源画像(306−2)における色値またはグレーレベルの前記限られたセットより大きな、符号化された色値またはグレーレベルのセットを含んでいてもよいが、それに限られない。このように、本稿に記載される技法のもとでは、シーン基準のメタデータ(310)は、非基準源画像(306−2)のピクセル値において存在しない基準色値またはグレーレベルに対応する符号化された色値を含んでいてもよい。
ある実施形態では、画像処理システム(300)は、前記一つまたは複数の非基準源画像(306−2)を処理して、少なくとも部分的に前記一つまたは複数の非基準源画像(306−2)に基づいて一つまたは複数の出力画像(308)を生成するよう構成された画像処理ユニット304を有していてもよい。前記出力画像(308)を生成するために、一つまたは複数の画像処理動作が画像処理システム(300)によって前記一つまたは複数の非基準源画像(306−2)に対して実行されてもよい。画像処理動作の例は、トーン・マッピング、逆トーン・マッピング、カラーグレーディング、色空間変換、量子化、逆量子化、圧縮、圧縮解除、データ符号化、データ復号、エントロピー符号化、画像バッファリング、サンプル・フィルタリング、ダウンサンプリング、アップサンプリング、補間、多重化、多重分離、インターリーブ、アップスケーリング、ダウンスケーリング、動き補償、視差推定、視差補償、奥行き推定、奥行き補償、エンコード、デコードなどの任意のものを含むがこれらのみに限定されるものではない。
画像処理システム(たとえば300)は、シーン基準のメタデータにおける基準値およびその対応する符号化された値をその動作において利用するよう構成されていてもよい。追加的、任意的または代替的に、画像処理動作は、入力画像において記録されているピクセルのグレーレベルを、出力画像において出力されるピクセルの異なるグレーレベルに変えてもよい。追加的、任意的または代替的に、本稿に記述される画像処理動作は、入力画像において記録されているピクセルの(色空間の一つまたは複数の色成分における)色値を、出力画像において出力されるピクセルの(前記色空間の同じ色成分におけるまたさらには異なる色空間の色成分における)異なる色値に変えてもよい。
これらの変更は、線形または非線形量子化/量子化解除、ガンマ補正、S字曲線などの一つまたは複数に基づいていてもよいが、それに限定されるものではなく、装置固有および/または製造業者固有であってもなくてもよい。
いくつかの実施形態では、前記非基準源画像(306−1)の色値またはグレーレベルの、出力画像(308)において出力される異なる色値またはグレーレベルへの、画像処理動作によってなされる同じ変更が、シーン基準のメタデータ(310)における符号化された値(たとえば符号化された色値またはグレーレベル)に適用されて、新しいシーン基準の符号化された値(たとえば新たな符号化された色値またはグレーレベル)を生成してもよい。新しいシーン基準の符号化された値は、変更前のシーン基準の符号化された値が対応する同じ基準値(たとえば基準色値またはグレーレベル)に対する同じ対応関係を維持してもよい。新しいシーン基準の符号化された値および前記基準値とのその対応関係が、出力画像(308)に付随する出力シーン基準のメタデータとして含められてもよい。追加的、任意的または代替的に、基準値についての変更前の値のようなシーン基準のメタデータ(310)における既存の情報の一部または全部が、出力シーン基準のメタデータに含められてもよい。追加的、任意的または代替的に、出力シーン基準のメタデータは、基準色値についての変更前の符号値を、画像処理動作によって変更された基準色値またはグレーレベルについての新しい符号値で置き換えることによって、シーン基準のメタデータ(310)から生成されてもよい。
本稿での用法では、出力画像または入力画像は画像処理動作のチェーンにおける中間画像であってもよい。現在の画像処理動作への入力画像は、前の画像処理動作の出力画像であってもよい。同様に、現在の画像処理動作からの出力画像は後続の画像処理動作の入力画像のはたらきをしてもよい。
図3Bは、画像処理ユニット304に対して下流の画像処理ユニットであってもよい例示的な画像処理ユニット(304−1)を示している。画像処理ユニット(304−1)は、同じ画像処理システム(300)内であってもよいし、あるいは画像処理システム(300)とは異なる画像処理システム内であってもよい。図3Bに示されるように、例示的な画像処理ユニット(304−1)は、もはやシーンにおいて撮影された対応する源画像の生のピクセル値を含んでいなくてもよい処理された非基準画像(314)を受領するよう構成されていてもよい。処理された非基準画像は、図3Aの出力画像(308)を有していてもよいが、これに限られない。出力画像(308)は、少なくとも部分的に非基準源画像(306−2)に基づいて生成され、少なくとも部分的に基準源画像(306−1)に基づいて生成されたシーン基準のメタデータを、出力画像(308)の画像メタデータの一部として含む。
図3Aの画像処理ユニット(304)と同様に、図3Bの304−1のような下流の画像処理ユニットは、シーン基準のメタデータにおける基準値およびその対応する符号化された値をその動作において利用するよう構成されていてもよい。画像処理ユニット(304−1)は、入力(たとえばビットストリーム、画像ファイル、画像のシーケンスなど)における処理された非基準画像(314)に付随するシーン基準のメタデータを使って、処理された非基準画像(314)に対してその動作を実行してもよい。
追加的、任意的または代替的に、画像処理動作(304−1)は、入力の処理された非基準画像(314)において与えられるピクセルの色値またはグレーレベルを、新しい処理された非基準画像において出力されるピクセルの異なる色値またはグレーレベルに変更してもよい。これらの変更は、他の画像処理動作において実行される変更と異なっていてもいなくてもよい。
いくつかの実施形態では、処理された非基準画像(314)の色値またはグレーレベルを新しい処理された非基準画像(316)において出力される異なる色値またはグレーレベルにする画像処理動作(304−1)によってなされる同じ変更が、入力における処理された非基準画像(314)に付随するシーン基準のメタデータにおける符号化された値(たとえば符号化された色値またはグレーレベル)に適用されて、新しいシーン基準の符号化された値(たとえば新たな符号化された色値またはグレーレベル)を生成してもよい。新しいシーン基準の符号化された値は、変更前のシーン基準の符号化された値が対応する同じ基準値(たとえば基準色値またはグレーレベル)に対する同じ対応関係を維持してもよい。新しいシーン基準の符号化された値および前記基準値とのその対応関係が、新しい処理された非基準画像(316)に付随する出力シーン基準のメタデータとして含められてもよい。追加的、任意的または代替的に、基準値についての変更前の値のような入力におけるシーン基準のメタデータにおける既存の情報の一部または全部が、出力シーン基準のメタデータに含められてもよい。追加的、任意的または代替的に、新しい処理された非基準画像に付随する出力シーン基準のメタデータは、基準色値についての変更前の符号値を、画像処理動作(304−1)によって変更された基準色値またはグレーレベルについての新しい符号値で置き換えることによって、入力におけるシーン基準のメタデータ(310)から生成されてもよい。
このように、一つまたは複数の画像処理動作が、最終的なまたは中間的な非基準画像を生成するために非基準画像に適用されてもよい。本稿に記載される技法のもとでは、シーン基準のメタデータは、同じ画像処理動作によって変更されてもよいし、画像処理動作において使用されてもよいし、および/またはこれらの画像処理動作によって生成される、出力の処理された非基準画像とともに更新および出力されてもよい。
〈4.シーン基準のメタデータの例示的な応用〉
非基準源画像および/または非基準中間画像は、一つまたは複数の画像処理動作を通じてデジタル的に操作されてもよい。画像のデジタル操作は、画像に特殊効果を加えること、古典的な見かけをシミュレートすること、画像にコンピュータ生成されたグラフィックを加えること、(たとえば異なるカメラによって撮影、異なるカメラ設定を用いて、または異なるシーン/セッティングで撮影された)画像を調和させること、画像のダイナミックレンジを増すことなどの任意のものを含んでいてもよいが、それに限定されるものではない。
上記で論じたように、本稿に記載される技法のもとで生成されるシーン基準のメタデータは、画像のデジタル操作の一部であってもよい画像処理動作によって使用されてもよい。
一例では、非基準画像のルミナンスのダイナミックレンジを増大させるまたは減少させるために、前のダイナミックレンジにおけるグレーレベルを新しいダイナミックレンジにおける新しいグレーレベルにスケーリングするために、一つまたは複数の特定のS字曲線が使用されてもよい。これらの曲線の少なくとも一つは、特定の装置、特定の製造業者、カメラ設定、シーン・セッティングなどとは独立な基準グレーレベルを用いて定義されてもよい。他の技法のもとでは、S字曲線は、操作されるべき画像中のグレーレベルを、それらのグレーレベルがあたかもS字曲線が想定する基準グレーレベルと同じであるかのように変換するために適用される。しかしながら、操作されるべき画像中のグレーレベルは実際には特定の装置、特定の製造業者、カメラ設定、シーン・セッティングなどに依存することがあるので、これら他の技法のもとでのS字曲線の適用は、不正確につながり、結果として得られる画像に現実離れした見え方をさせることになりうる。
全く対照的に、本稿に記載される技法のもとでは、処理されるべき非基準画像とともにシーン基準のメタデータが利用可能であってもよい。よって、本稿に記載される画像処理ユニット(たとえば図3Aの304、図3Bの304−1など)は、シーン基準のメタデータに基づいて、処理されるべき非基準画像における符号化されたグレーレベルに対応する基準グレーレベルを決定するよう構成されていてもよい。画像処理ユニットは、シーン基準のメタデータから決定される情報に基づいてダイナミックレンジ変更を適応させるよう構成されていてもよい。結果として、S字曲線は正しく適用されることができ、高品質で精確な出力画像が得られる。いくつかの実施形態では、シーン基準のメタデータは、処理されるべき画像中に実際に存在するより多くのグレーレベルを有し、よって動作パラメータおよびS字曲線は、本稿に記載される技法を実装しない他のアプローチよりも精確に適応されることができ、出力画像における一層よい品質および精度が得られる。
もう一つの例では、処理されるべき画像における色値が対応する出力画像に含められるべき新しい色値にマッピングされてもよい。たとえば、黄みがかった色相またはスキャン・トーンが色値変換によって出力画像中に導入されて、結果として、見る者にとって比較的快適な見え方を与えてもよい。色値変換は、特定の装置、特定の製造業者、カメラ設定、シーン・セッティングなどとは独立に基準色値を用いて定義されてもよい。他の技法のもとでは、色値変換は、操作されるべき画像中の色値を、それらの色値があたかも色値変換が想定する基準色値と同じであるかのように変換するために適用される。しかしながら、操作されるべき画像中の色値は実際には特定の装置、特定の製造業者、カメラ設定、シーン・セッティングなどに依存することがあるので、これら他の技法のもとでの色値の適用は、色値変換の不正確な適用につながる。
全く対照的に、本稿に記載される技法のもとでは、処理されるべき非基準画像とともにシーン基準のメタデータが利用可能であってもよい。よって、本稿に記載される画像処理ユニット(たとえば図3Aの304、図3Bの304−1など)は、シーン基準のメタデータに基づいて、処理されるべき非基準画像における符号化された色値に対応する基準色値を決定するよう構成されていてもよい。画像処理ユニットは、シーン基準のメタデータから決定される情報に基づいて色値変換を適応させるよう構成されていてもよい。結果として、色値変換は正しく適用されることができ、高品質で精確な出力画像が得られる。いくつかの実施形態では、シーン基準のメタデータは、処理されるべき画像中に実際に存在するより多くの色値を有し、よって動作パラメータおよび色値変換は、本稿に記載される技法を実装しない他のアプローチよりも精確に適応されることができ、出力画像における一層よい品質および精度が得られる。
いくつかの実施形態では、シーン基準のメタデータは、対応する画像が大量の飽和された色を有するかどうかを決定するために画像処理システムによって使用される。シーン基準のメタデータは、符号化された値に基づいて検索されうる基準値を有するからである。よって、色の飽和レベルを変える画像処理動作は、他の場合よりも精確に前記変更を実行するために、シーン基準のメタデータから決定されるこの情報を使ってもよい。
本稿に記載されるシーン基準のメタデータは、上記で論じたようなシーン基準のメタデータを担持する対応する画像に固有の情報を処理するためにおよび/または画像中に新しい視覚的要素を追加/導入するために使われてもよい。たとえば、アニメのキャラクターのようなコンピュータ生成される(CG)視覚的要素が、映画または画像のシーケンスの一部をなす既存の画像に追加される必要があることがある。アニメのキャラクターは、種々の空間的位置における色値またはグレーレベルによって記述される。アニメのキャラクターを記述する色値またはグレーレベルは、基準色値またはグレーレベルを用いて指定されてもよい。他の技法のもとでは、アニメのキャラクターは、操作されるべき画像中に、あたかも操作されるべき画像中の既存の色値またはグレーレベルがアニメのキャラクターを記述する基準色値またはグレーレベルと同じであるかのように挿入される。しかしながら、操作されるべき画像中の色値は実際には、特定の装置、特定の製造業者、カメラ設定、シーン・セッティングなどに依存することがあり、アニメのキャラクターは基準色値またはグレーレベルによって記述されるので、これら他の技法のもとでのアニメのキャラクターの既存の画像中への追加または導入色は、アニメのキャラクターが画像中の画像細部の残りの部分に対して場違いに見える結果を与える。
全く対照的に、本稿に記載される技法のもとでは、処理されるべき非基準画像とともにシーン基準のメタデータが利用可能であってもよい。よって、本稿に記載される画像処理ユニット(たとえば図3Aの304、図3Bの304−1など)は、シーン基準のメタデータに基づいて、処理されるべき非基準画像における符号化された値(たとえば符号化された色値または符号化されたグレーレベル)に対応する基準値(たとえば基準色値、グレーレベルなど)を決定するよう構成されていてもよい。画像処理ユニットは、シーン基準のメタデータから決定される情報に基づいてアニメのキャラクターを記述する基準色値またはグレーレベルについての対応する符号化された色値またはグレーレベルを決定するよう構成されていてもよい。結果として、アニメのキャラクターは既存の画像中に正しく追加または導入されることができ、既存の画像における(実写と一緒の)アニメのキャラクターの高品質で自然な融合が得られる。
本稿に記載されるシーン基準のメタデータは、異なるカメラまたは異なるカメラ設定または異なるシーン・セッティングによって撮影された画像を処理して互いに調和する画像にするために使用されてもよい。屋外のシーンおよび屋内のシーンにおいて異なるカメラが使用されることがある。映画スタジオのような同じシーン・セッティングにおいてさえ、アクション・シーンおよび比較的静的なシーンを捕捉するには、異なるカメラおよび/または異なるカメラ設定が使用されることがある。このように、カメラ、カメラ設定、シーンなどの相違のため、画像処理システムによって処理されるべき画像は全く異なるように見えることがある。他の技法のもとでは、調和させる画像処理動作が、比較的アドホックな仕方で幅広い多様な画像に適用されてもよい。たとえば、二つの異なる画像からの異なるピクセル値が同じ基準色値またはグレーレベルに対応することがある。しかしながら、他の技法のもとでの調和させる画像処理動作はこの事実を判別してしかるべく行動するためのシーン基準のメタデータを与えられていない。よって、これら他の技法のもとで調和された画像は相変わらず見る者にとって全く異なっているように見えることがある。調和させる画像処理動作が特定のカメラまたはカメラ設定またはシーン・セッティングに固有でありうるピクセル値に適用されるからである。
全く対照的に、本稿に記載される技法のもとでは、映画または画像のシーケンスにまとめられるべき幅広い多様な画像とともに、シーン基準のメタデータが利用可能であってもよい。本稿に記載される画像処理ユニット(たとえば図3Aの304、図3Bの304−1など)は、処理されるべき画像についてのシーン基準のメタデータに基づいて、処理されるべき非基準画像における符号化された値(たとえば符号化された色値または符号化されたグレーレベル)に対応する基準値(たとえば基準色値、グレーレベルなど)を決定するよう構成されていてもよい。このようにして、調和させられるべき異なる画像の符号値が、それぞれのシーン基準のメタデータに基づいて基準値に正しくマッピングされることができる。画像処理ユニットは、シーン基準のメタデータから決定される情報に基づいて画像を調和させるよう構成されていてもよい。結果として、出力画像における高品質で、一貫した、調和された見え方が得られる。
本稿に記載されるシーン基準のメタデータは、画像の異なる部分を異なる仕方で処理するために使用されてもよい。たとえば、画像は照明性のオブジェクト(たとえば図1の104)および反射性のオブジェクト(たとえば図1の106)を含んでいてもよい。画像中の照明性のオブジェクトおよび/または反射性のオブジェクトを認識するために一つまたは複数のアルゴリズムが適用されてもよい。いくつかの実施形態では、そのようなアルゴリズムは画像フレームを複数のセグメントに分割し、それらのセグメントについての色温度をそれぞれ決定するよう構成されている。照明性のオブジェクトを反射性のオブジェクトから区別することは、少なくとも部分的には、それらのセグメントのそれぞれの温度に基づいていてもよい。この判別は、純粋にそれらの画像のグレーレベル情報に基づいていてもそうでなくてもよい。あるいはまた、解析対象の画像は等しいサイズに分割されてもされなくてもよい。追加的、任意的または代替的に、画像中の照明性のオブジェクトが、画像処理動作によって、画像中の反射性のオブジェクトとは異なる仕方で扱われてもよい。たとえば、反射性のオブジェクトにおける影が、照明性のオブジェクトの位置に基づいて暗くされてもよい。他の技法のもとでは、前記アルゴリズムは画像中の符号化された値に完全に依拠する。それらの値は正しい色温度のものではなく、可能性としては正しくない認識または画像中の照明性のオブジェクトおよび/または反射性のオブジェクトの混同につながる。カメラ、カメラ設定、シーン・セッティングなどに依存する符号化された値に影響されて、照明性のオブジェクトおよび/または反射性のオブジェクトの扱いは精確でないことがある。たとえば、反射性のドレスが照明性のオブジェクトとして誤って認識されることがあり、電球に対応するルミナンス・レベルにスケーリングされることがある。
全く対照的に、本稿に記載される技法のもとでは、画像中の符号化された値についての基準値は、その画像についてのシーン基準のメタデータに基づいて決定されてもよい。本稿に記載される画像処理ユニット(たとえば図3Aの304、図3Bの304−1など)は、基準値に基づいてアルゴリズムを適用するよう構成されており、それは画像の種々の部分についての正しい色温度情報を与える。このようにして、画像中の照明性のオブジェクトおよび/または反射性の画像が比較的精確に判別されうる。結果として、画像処理ユニットは、同じ画像の異なる部分を、それらが照明性のオブジェクトを描いているか反射性のオブジェクトを描いているかに基づいて異なる仕方で扱うよう構成されていてもよく、結果として、出力画像において照明性のオブジェクトと反射性のオブジェクトとの間の高品質で正しい相関が得られる。
本稿に記載されるシーン基準のメタデータは、先に論じた以外のメタデータを含んでいてもよい。いくつかの実施形態では、シーン基準のメタデータは、カメラ型、カメラ設定、シーン・セッティングなどの任意のものを含んでいてもよいが、これに限られない。たとえば、シーン基準のメタデータは、基準源画像が撮影されたもとになったシーンに対するカメラの位置および撮影角度を含んでいてもよい。
いくつかの実施形態では、本稿に記載される画像処理システムは、既存の基準源画像または既存のシーン基準のメタデータを補間または補外して、建設的な基準源画像または建設的なシーン基準のメタデータを得るよう構成されていてもよい。たとえば、基準源画像があるシーンにおける30度の特定の撮影角度をもって撮影されてもよく、一方、別の基準源画像が前記シーンにおける45度の撮影角度をもって撮影されてもよい。40度の撮影角度をもって撮影された非基準源画像について、画像処理システムは最も近いものとして二つの基準源画像を決定してもよい。それらの非基準源画像についての建設的なシーン基準のメタデータが、それらの最も近い基準源画像またはそれから生成されるシーン基準のメタデータを補間または補外することによって得られてもよい。いくつかの実施形態では、異なる基準源画像またはシーン基準のデータに異なる重み因子値が割り当てられてもよい。たとえば、45度の基準源画像またはそれから生成されたシーン基準のメタデータが、30度の基準源画像またはシーン基準のメタデータに割り当てられるものより大きな重み因子値を与えられてもよい。
同様に、屋外のシーンについて、基準源画像またはシーン基準のメタデータは、非基準源画像の撮影時間に最も近いと判別される二つの特定の時刻について利用可能であってもよい。それら二つの特定の時刻からの基準源画像またはシーン基準のメタデータは画像処理システムによって補間または補外されて、前記非基準源画像についての建設的なシーン基準のメタデータを生成してもよい。
〈5.処理フロー〉
図4は、本発明のある例示的な実施形態に基づく例示的なプロセス・フローを示している。いくつかの例示的な実施形態において、一つまたは複数のコンピューティング装置またはコンポーネントがこのプロセス・フローを実行してもよい。ブロック410では、画像処理システム(たとえば図3Aに示した300)が一つまたは複数の基準源画像および一つまたは複数の対応する非基準源画像を受領する。前記一つまたは複数の基準源画像は、一つまたは複数の基準カードについての画像データを含んでいてもよい。
ブロック420では、画像処理システム(300)は、前記一つまたは複数の対応する非基準源画像についての一つまたは複数の出力画像を生成する。
ブロック430では、画像処理システム(300)は、前記一つまたは複数の基準カードについての画像データに基づいて、基準値のセットおよび符号化された値の対応するセットを含むシーン基準のメタデータを導出する。ここで、符号化された値の対応するセットは、前記一つまたは複数の出力画像における符号化された値を含む。
ブロック440では、画像処理システム(300)は、前記一つまたは複数の出力画像を、シーン基準のメタデータを該一つまたは複数の出力画像についての画像メタデータの一部として、出力する。
ある実施形態では、基準値のセットは、基準色値または基準グレーレベルの少なくとも一方を含み、一方、符号化された値のセットは符号化された色値または符号化されたグレーレベルの少なくとも一方を含む。
ある実施形態では、シーン基準のメタデータは、シーン基準のメタデータの前のバージョンから導出され;シーン基準のメタデータの前記前のバージョンは、基準値の前記セットおよび前に符号化された値の対応するセットを含む。
ある実施形態では、前記一つまたは複数の出力画像は、一つまたは複数の前の出力画像から導出され;シーン基準のメタデータはシーン基準のメタデータの前のバージョンから導出され;シーン基準のメタデータの前記前のバージョンは、基準値の前記セットおよび前に符号化された値の対応するセットを含み;前に符号化された値の前記対応するセットは、前記一つまたは複数の非基準源画像から導出された前記一つまたは複数の前の出力画像における符号化された値を含む。
ある実施形態では、前記出力画像は、一つまたは複数の前の画像から一つまたは複数の画像処理動作によって生成され;前記一つまたは複数の画像処理動作は、(a)前記一つまたは複数の前の画像を符号化するために使われた符号化された値の前のバージョンとは異なる符号化された値の新しいセットを使わない画像処理動作または(b)前記一つまたは複数の前の画像を符号化するために使われた符号化された値の前のバージョンとは異なる符号化された値の新しいセットを使う画像処理動作の少なくとも一方を含む。
ある実施形態では、前記一つまたは複数の画像処理動作は、シーン基準のメタデータにおける基準値の前記セットと符号化された値の前記セットとの間の一つまたは複数の対応関係に準拠して、コンピュータ生成された画像部分を、前記一つまたは複数の出力画像の既存の画像内容とスーパーインポーズするよう構成されており;前記既存の画像内容は、前記一つまたは複数の非基準源画像の画像内容から導出される。
ある実施形態では、前記一つまたは複数の画像処理動作は、シーン基準のメタデータにおける基準値の前記セットと符号化された値の前記セットとの間の一つまたは複数の対応関係に準拠して、一つまたは複数の出力画像のグレーレベルを符号化するよう構成されており;前記既存の画像内容は、前記一つまたは複数の非基準源画像の画像内容から導出される。
ある実施形態では、前記一つまたは複数の画像処理動作は、シーン基準のメタデータにおける基準値の前記セットと符号化された値の前記セットとの間の一つまたは複数の対応関係に準拠して、一つまたは複数の出力画像の色値を符号化するよう構成されており;前記既存の画像内容は、前記一つまたは複数の非基準源画像の画像内容から導出される。
ある実施形態では、前記一つまたは複数の画像処理動作は、少なくとも部分的にシーン基準のメタデータに基づいて、前記一つまたは複数の非基準源画像における光源または照明性のオブジェクトを反射性のオブジェクトから区別するよう構成されている。
ある実施形態では、前記一つまたは複数の画像処理動作は、前記一つまたは複数の出力画像を一つまたは複数の他の出力画像と、前記一つまたは複数の他の出力画像についての他のシーン基準のメタデータおよび前記一つまたは複数の出力画像についてのシーン基準のメタデータを使って調和させるよう構成されている。
ある実施形態では、前記一つまたは複数の画像処理動作は、トーン・マッピング、逆トーン・マッピング、カラーグレーディング、色空間変換、量子化、逆量子化、圧縮、圧縮解除、データ符号化、データ復号、エントロピー符号化、画像バッファリング、サンプル・フィルタリング、ダウンサンプリング、アップサンプリング、補間、多重化、多重分離、インターリーブ、アップスケーリング、ダウンスケーリング、動き補償、視差推定、視差補償、奥行き推定、奥行き補償、エンコードまたはデコードのうちの少なくとも一つを含む。
ある実施形態では、前記一つまたは複数の基準源画像および前記一つまたは複数の非基準源画像は、同じカメラ、同じカメラ設定または同じシーン・セッティングの一つまたは複数に関係する。
ある実施形態では、前記シーン基準のメタデータはさらに、前記一つまたは複数の基準源画像および前記一つまたは複数の非基準源画像を撮影する一つまたは複数のカメラについての情報、前記一つまたは複数の基準源画像および前記一つまたは複数の非基準源画像が撮影される一つまたは複数のカメラ設定についての情報、または前記一つまたは複数の基準源画像および前記一つまたは複数の非基準源画像が撮影される一つまたは複数のシーン・セッティングについての情報のうちの一つまたは複数を含む。
ある実施形態では、前記画像処理システム(300)はさらに:一つまたは複数の他の基準源画像および一つまたは複数の他の対応する非基準源画像を受領する段階であって、一つまたは複数の他の基準源画像は一つまたは複数の基準カードについての画像データを含む、段階と;前記一つまたは複数の他の対応する非基準源画像について一つまたは複数の他の出力画像を生成する段階と;前記一つまたは複数の基準カードについての前記画像データに基づいて、基準値のセットおよび符号化された値の対応するセットを含む他のシーン基準のメタデータを導出する段階であって、符号化された値の前記対応するセットは前記一つまたは複数の他の出力画像における符号化された値を含む、段階と;前記一つまたは複数の他の出力画像を、前記他のシーン基準のメタデータを前記一つまたは複数の他の出力画像についての画像メタデータの一部として、出力する段階とを実行するよう構成されている。
ある実施形態では、前記画像処理システム(300)はさらに:一つまたは複数の他の非基準源画像を受領する段階と;前記一つまたは複数の他の非基準源画像について一つまたは複数の他の出力画像を生成する段階と;少なくとも部分的に前記シーン基準のメタデータに基づいて、基準値のセットおよび符号化された値の別のセットを含む他のシーン基準のメタデータを導出する段階であって、符号化された値の前記別のセットは前記一つまたは複数の他の出力画像における符号化された値を表わす、段階と;前記一つまたは複数の他の出力画像を、前記他のシーン基準のメタデータを前記一つまたは複数の他の出力画像についての画像メタデータの一部として、出力する段階とを実行するよう構成されている。
ある実施形態では、前記画像処理システム(300)はさらに、前記一つまたは複数の基準源画像のいずれの中の前記基準カードの位置に関するユーザー入力も受け取ることなく、前記基準カード上の一つまたは複数の空間的パターンを自動的に認識するよう構成されており、前記一つまたは複数の空間的パターンの少なくとも一つは基準色値または基準グレーレベルの少なくとも一方を含む。
ある実施形態では、画像処理システム(300)はさらに、一つまたは複数の入力ビデオ信号をもって表現される、受領される、送信されるまたは記憶される一つまたは複数の入力画像を、一つまたは複数の出力ビデオ信号をもって表現される、受領される、送信されるまたは記憶される一つまたは複数の出力画像に変換するよう構成される。
ある実施形態では、前記出力画像は、高ダイナミックレンジ(HDR)画像フォーマット、映画芸術科学アカデミー(AMPAS: Academy of Motion Picture Arts and Sciences)のアカデミー色エンコード規格(ACES: Academy Color Encoding Specification)に関連するRGB色空間、デジタル・シネマ・イニシアチブ(Digital Cinema Initiative)のP3色空間規格、参照入力媒体メトリック/参照出力媒体メトリック(RIMM/ROMM: Reference Input Medium Metric/Reference Output Medium Metric)規格、sRGB色空間、RGB色空間またはYCbCr色空間のうちの一つにおいてエンコードされた画像データを含む。
実施形態は、プロセッサを有し、上記で論じた以上の方法の任意のものを実行するよう構成されている装置を含む。
実施形態はソフトウェア命令を有するコンピュータ可読記憶媒体を含み、前記命令は、一つまたは複数のプロセッサによって実行されたときに、上記で論じた以上の方法の任意のものの実行を引き起こす。
〈6.実装機構――ハードウェアの概観〉
ある実施形態によれば、本稿に記載される技法は、一つまたは複数の特殊目的コンピューティング装置によって実装される。特殊目的コンピューティング装置は、本技法を実行するよう固定構成とされていてもよいし、あるいは一つまたは複数の特定用途向け集積回路(ASIC)またはフィールド・プログラマブル・ゲート・アレイ(FPGA)のような、本技法を実行するよう持続的にプログラムされたデジタル電子デバイスを含んでいてもよいし、あるいはファームウェア、メモリ、他の記憶または組み合わせにおけるプログラム命令に従って本技法を実行するようプログラムされた一つまたは複数の汎用ハードウェア・プロセッサを含んでいてもよい。そのような特殊目的コンピューティング装置は、カスタムの固定構成論理、ASICまたはFPGAをカスタムのプログラミングと組み合わせて本技法を達成してもよい。特殊目的コンピューティング装置はデスクトップ・コンピュータ・システム、ポータブル・コンピュータ・システム、ハンドヘルド装置、ネットワーキング装置または本技法を実装するために固定構成および/またはプログラム論理を組み込んでいる他の任意の装置であってもよい。
たとえば、図5は、本発明の実施形態が実装されうるコンピュータ・システム500を示すブロック図である。コンピュータ・システム500は、情報を通信するためのバス502または他の通信機構と、情報を処理するための、バス502に結合されたハードウェア・プロセッサ504とを含む。ハードウェア・プロセッサ504はたとえば汎用マイクロプロセッサであってもよい。
コンピュータ・システム500は、ランダム・アクセス・メモリ(RAM)または他の動的記憶装置のような、情報およびプロセッサ504によって実行されるべき命令を記憶するための、バス502に結合されたメイン・メモリ506をも含む。メイン・メモリ506はまた、一時変数または他の中間的な情報を、プロセッサ504によって実行されるべき命令の実行の間、記憶しておくために使われてもよい。そのような命令は、プロセッサ504にとってアクセス可能な記憶媒体に記憶されたとき、コンピュータ・システム500を、前記命令において指定されている処理を実行するようカスタマイズされた特殊目的機械にする。
コンピュータ・システム500はさらに、バス502に結合された、静的な情報およびプロセッサ504のための命令を記憶するための読み出し専用メモリ(ROM)508または他の静的記憶装置を含む。磁気ディスクまたは光ディスクのような記憶装置510が提供され、情報および命令を記憶するためにバス502に結合される。
コンピュータ・システム500は、コンピュータ・ユーザーに対して情報を表示するための、液晶ディスプレイ(LCD)のようなディスプレイ512にバス502を介して結合されていてもよい。英数字その他のキーを含む入力装置514が、情報およびコマンド選択をプロセッサ504に伝えるためにバス502に結合される。もう一つの型のユーザー入力装置は、方向情報およびコマンド選択をプロセッサ504に伝えるとともにディスプレイ512上でのカーソル動きを制御するための、マウス、トラックボールまたはカーソル方向キーのようなカーソル・コントロール516である。この入力装置は典型的には、第一軸(たとえばx)および第二軸(たとえばy)の二つの軸方向において二つの自由度をもち、これにより該装置は平面内での位置を指定できる。
コンピュータ・システム500は、本稿に記載される技法を実施するのに、カスタマイズされた固定構成論理、一つまたは複数のASICもしくはFPGA、コンピュータ・システムと組み合わさってコンピュータ・システム500を特殊目的機械にするまたはプログラムするファームウェアおよび/またはプログラム論理を使ってもよい。ある実施形態によれば、本稿の技法は、プロセッサ504がメイン・メモリ506に含まれる一つまたは複数の命令の一つまたは複数のシーケンスを実行するのに応答して、コンピュータ・システム500によって実行される。そのような命令は、記憶装置510のような別の記憶媒体からメイン・メモリ506に読み込まれてもよい。メイン・メモリ506に含まれる命令のシーケンスの実行により、プロセッサ504は、本稿に記載されるプロセス段階を実行する。代替的な実施形態では、ソフトウェア命令の代わりにまたはソフトウェア命令と組み合わせて固定構成の回路が使用されてもよい。
本稿で用いられる用語「記憶媒体」は、データおよび/または機械に特定の仕方で動作させる命令を記憶する任意の媒体を指す。そのような記憶媒体は、不揮発性媒体および/または揮発性媒体を含んでいてもよい。不揮発性媒体は、たとえば、記憶装置510のような光学式または磁気ディスクを含む。揮発性媒体は、メイン・メモリ506のような動的メモリを含む。記憶媒体の一般的な形は、たとえば、フロッピーディスク、フレキシブルディスク、ハードディスク、半導体ドライブ、磁気テープまたは他の任意の磁気データ記憶媒体、CD-ROM、他の任意の光学式データ記憶媒体、孔のパターンをもつ任意の物理的媒体、RAM、PROMおよびEPROM、フラッシュEPROM、NVRAM、他の任意のメモリ・チップまたはカートリッジを含む。
記憶媒体は、伝送媒体とは異なるが、伝送媒体と関連して用いられてもよい。伝送媒体は、記憶媒体間で情報を転送するのに参加する。たとえば、伝送媒体は同軸ケーブル、銅線および光ファイバーを含み、バス502をなすワイヤを含む。伝送媒体は、電波および赤外線データ通信の際に生成されるような音響波または光波の形を取ることもできる。
さまざまな形の媒体が、一つまたは複数の命令の一つまたは複数のシーケンスを実行のためにプロセッサ504に搬送するのに関与しうる。たとえば、命令は最初、リモート・コンピュータの磁気ディスクまたは半導体ドライブ上に担持されていてもよい。リモート・コンピュータは該命令をその動的メモリにロードし、該命令をモデムを使って電話線を通じて送ることができる。コンピュータ・システム500にローカルなモデムが、電話線上のデータを受信し、赤外線送信器を使ってそのデータを赤外線信号に変換することができる。赤外線検出器が赤外線信号において担持されるデータを受信することができ、適切な回路がそのデータをバス502上に載せることができる。バス502はそのデータをメイン・メモリ506に搬送し、メイン・メモリ506から、プロセッサ504が命令を取り出し、実行する。メイン・メモリ506によって受信される命令は、任意的に、プロセッサ504による実行の前または後に記憶装置510上に記憶されてもよい。
コンピュータ・システム500は、バス502に結合された通信インターフェース518をも含む。通信インターフェース518は、ローカル・ネットワーク522に接続されているネットワーク・リンク520への双方向データ通信結合を提供する。たとえば、通信インターフェース518は、対応する型の電話線へのデータ通信接続を提供するための、統合サービス・デジタル通信網(ISDN)カード、ケーブル・モデム、衛星モデムまたはモデムであってもよい。もう一つの例として、通信インターフェース518は、互換LANへのデータ通信接続を提供するためのローカル・エリア・ネットワーク(LAN)カードであってもよい。無線リンクも実装されてもよい。そのようないかなる実装でも、通信インターフェース518は、さまざまな型の情報を表すデジタル・データ・ストリームを搬送する電気的、電磁的または光学的信号を送受信する。
ネットワーク・リンク520は典型的には、一つまたは複数のネットワークを通じた他のデータ装置へのデータ通信を提供する。たとえば、ネットワーク・リンク520は、ローカル・ネットワーク522を通じてホスト・コンピュータ524またはインターネット・サービス・プロバイダー(ISP)526によって運営されているデータ設備への接続を提供してもよい。ISP 526は、現在一般に「インターネット」528と称される世界規模のパケット・データ通信網を通じたデータ通信サービスを提供する。ローカル・ネットワーク522およびインターネット528はいずれも、デジタル・データ・ストリームを担持する電気的、電磁的または光学的信号を使う。コンピュータ・システム500に/からデジタル・データを搬送する、さまざまなネットワークを通じた信号およびネットワーク・リンク520上および通信インターフェース518を通じた信号は、伝送媒体の例示的な形である。
コンピュータ・システム500は、ネットワーク(単数または複数)、ネットワーク・リンク520および通信インターフェース518を通じて、メッセージを送り、プログラム・コードを含めデータを受信することができる。インターネットの例では、サーバー530は、インターネット528、ISP 526、ローカル・ネットワーク522および通信インターフェース518を通じてアプリケーション・プログラムのための要求されたコードを送信してもよい。受信されたコードは、受信される際にプロセッサ504によって実行されても、および/または、のちの実行のために記憶装置510または他の不揮発性記憶に記憶されてもよい。
〈7.等価物、拡張、代替その他〉
明確な例を例解するため、現実から取られた画像が本発明のいくつかの側面を例解するために使われている。他の型の画像が本発明の実施形態において使用されてもよいことを注意しておくべきである。たとえば、画像は二つ以上の異なる画像源からの合成フレームであってもよい。さらに、画像の一部または全体が2D画像から入手されてもよく、一方、同じ画像上の別の部分が3Dまたはマルチビュー画像から入手されてもよい。本稿に記載される技法は、本発明の実施形態において、これら他の型の画像について提供されてもよい。
以上の明細書では、本発明の可能な諸実施形態について、実装によって変わりうる数多くの個別的詳細に言及しつつ述べてきた。このように、何が本発明であるか、何が出願人によって本発明であると意図されているかの唯一にして排他的な指標は、この出願に対して付与される特許の請求項の、その後の訂正があればそれも含めてかかる請求項が特許された特定の形のものである。かかる請求項に含まれる用語について本稿で明示的に記載される定義があったとすればそれは請求項において使用される当該用語の意味を支配する。よって、請求項に明示的に記載されていない限定、要素、属性、特徴、利点もしくは特性は、いかなる仕方であれかかる請求項の範囲を限定すべきではない。よって、明細書および図面は制約する意味ではなく例示的な意味で見なされるべきものである。
いくつかの態様を記載しておく。
〔態様1〕
一つまたは複数の基準源画像および一つまたは複数の対応する非基準源画像を受領する段階であって、前記一つまたは複数の基準源画像は、一つまたは複数の基準カードについての画像データを含む、段階と;
前記一つまたは複数の対応する非基準源画像についての一つまたは複数の出力画像を生成する段階と;
前記一つまたは複数の基準カードについての前記画像データに基づいて、基準値のセットおよび符号化された値の対応するセットを含むシーン基準のメタデータを導出する段階であって、前記符号化された値の対応するセットは、前記一つまたは複数の出力画像における符号化された値を含む、段階と;
前記一つまたは複数の出力画像を、前記シーン基準のメタデータを該一つまたは複数の出力画像についての画像メタデータの一部として、出力する段階とを含む、
方法。
〔態様2〕
前記基準値のセットは、基準色値または基準グレーレベルの少なくとも一方を含み、前記符号化された値のセットは、符号化された色値または符号化されたグレーレベルの少なくとも一方を含む、態様1記載の方法。
〔態様3〕
前記シーン基準のメタデータは、シーン基準のメタデータの前のバージョンから導出され、シーン基準のメタデータの前記前のバージョンは、基準値の前記セットおよび前に符号化された値の対応するセットを含む、態様1記載の方法。
〔態様4〕
前記一つまたは複数の出力画像は、一つまたは複数の前の出力画像から導出され;前記シーン基準のメタデータは、シーン基準のメタデータの前のバージョンから導出され;シーン基準のメタデータの前記前のバージョンは、基準値の前記セットおよび前に符号化された値の対応するセットを含み;前に符号化された値の前記対応するセットは、前記一つまたは複数の非基準源画像から導出された前記一つまたは複数の前の出力画像における符号化された値を含む、態様1記載の方法。
〔態様5〕
前記出力画像は、一つまたは複数の前の画像から一つまたは複数の画像処理動作によって生成され;前記一つまたは複数の画像処理動作は、(a)前記一つまたは複数の前の画像を符号化するために使われた符号化された値の前のバージョンとは異なる符号化された値の新しいセットを使わない画像処理動作または(b)前記一つまたは複数の前の画像を符号化するために使われた符号化された値の前のバージョンとは異なる符号化された値の新しいセットを使う画像処理動作の少なくとも一方を含む、態様1記載の方法。
〔態様6〕
前記一つまたは複数の画像処理動作は、前記シーン基準のメタデータにおける基準値の前記セットと符号化された値の前記セットとの間の一つまたは複数の対応関係に準拠して、コンピュータ生成された画像部分を、前記一つまたは複数の出力画像の既存の画像内容にスーパーインポーズするよう構成されており;前記既存の画像内容は、前記一つまたは複数の非基準源画像の画像内容から導出される、態様5記載の方法。
〔態様7〕
前記一つまたは複数の画像処理動作は、前記シーン基準のメタデータにおける基準値の前記セットと符号化された値の前記セットとの間の一つまたは複数の対応関係に準拠して、前記一つまたは複数の出力画像のグレーレベルを符号化するよう構成されており;前記既存の画像内容は、前記一つまたは複数の非基準源画像の画像内容から導出される、態様5記載の方法。
〔態様8〕
前記一つまたは複数の画像処理動作は、前記シーン基準のメタデータにおける基準値の前記セットと符号化された値の前記セットとの間の一つまたは複数の対応関係に準拠して、前記一つまたは複数の出力画像の色値を符号化するよう構成されており;前記既存の画像内容は、前記一つまたは複数の非基準源画像の画像内容から導出される、態様5記載の方法。
〔態様9〕
前記一つまたは複数の画像処理動作は、少なくとも部分的に前記シーン基準のメタデータに基づいて、前記一つまたは複数の非基準源画像における光源を反射性のオブジェクトから区別するよう構成されている、態様5記載の方法。
〔態様10〕
前記一つまたは複数の画像処理動作は、前記一つまたは複数の出力画像を一つまたは複数の他の出力画像と、前記一つまたは複数の他の出力画像についての他のシーン基準のメタデータおよび前記一つまたは複数の出力画像についての前記シーン基準のメタデータを使って調和させるよう構成されている、態様5記載の方法。
〔態様11〕
前記一つまたは複数の画像処理動作は、トーン・マッピング、逆トーン・マッピング、カラーグレーディング、色空間変換、量子化、逆量子化、圧縮、圧縮解除、データ符号化、データ復号、エントロピー符号化、画像バッファリング、サンプル・フィルタリング、ダウンサンプリング、アップサンプリング、補間、多重化、多重分離、インターリーブ、アップスケーリング、ダウンスケーリング、動き補償、視差推定、視差補償、奥行き推定、奥行き補償、エンコードまたはデコードのうちの少なくとも一つを含む、態様5記載の方法。
〔態様12〕
前記一つまたは複数の基準源画像および前記一つまたは複数の非基準源画像は、同じカメラ、同じカメラ設定または同じシーン・セッティングの一つまたは複数に関係する、態様1記載の方法。
〔態様13〕
前記シーン基準のメタデータはさらに、前記一つまたは複数の基準源画像および前記一つまたは複数の非基準源画像を捕捉する一つまたは複数のカメラについての情報、前記一つまたは複数の基準源画像および前記一つまたは複数の非基準源画像が捕捉される一つまたは複数のカメラ設定についての情報、または前記一つまたは複数の基準源画像および前記一つまたは複数の非基準源画像が捕捉される一つまたは複数のシーン・セッティングについての情報のうちの一つまたは複数を含む、態様1記載の方法。
〔態様14〕
一つまたは複数の他の基準源画像および一つまたは複数の他の対応する非基準源画像を受領する段階であって、前記一つまたは複数の他の基準源画像は一つまたは複数の基準カードについての画像データを含む、段階と;
前記一つまたは複数の他の対応する非基準源画像について一つまたは複数の他の出力画像を生成する段階と;
前記一つまたは複数の基準カードについての前記画像データに基づいて、基準値のセットおよび符号化された値の対応するセットを含む他のシーン基準のメタデータを導出する段階であって、符号化された値の前記対応するセットは前記一つまたは複数の他の出力画像における符号化された値を含む、段階と;
前記一つまたは複数の他の出力画像を、前記他のシーン基準のメタデータを、前記一つまたは複数の他の出力画像についての画像メタデータの一部として、出力する段階とをさらに含む、
態様1記載の方法。
〔態様15〕
一つまたは複数の他の非基準源画像を受領する段階と;
前記一つまたは複数の他の非基準源画像について一つまたは複数の他の出力画像を生成する段階と;
少なくとも部分的に前記シーン基準のメタデータに基づいて、基準値のセットおよび符号化された値の別のセットを含む他のシーン基準のメタデータを導出する段階であって、符号化された値の前記別のセットは前記一つまたは複数の他の出力画像における符号化された値を表わす、段階と;
前記一つまたは複数の他の出力画像を、前記他のシーン基準のメタデータを前記一つまたは複数の他の出力画像についての画像メタデータの一部として、出力する段階とを含む、
態様1記載の方法。
〔態様16〕
前記一つまたは複数の基準源画像のいずれの中の前記基準カードの位置に関するユーザー入力も受け取ることなく、前記基準カード上の一つまたは複数の空間的パターンを自動的に認識する段階をさらに含み、前記一つまたは複数の空間的パターンの少なくとも一つは基準色値または基準グレーレベルの少なくとも一方を含む、態様1記載の方法。
〔態様17〕
一つまたは複数の入力ビデオ信号をもって表現される、受領される、送信されるまたは記憶される一つまたは複数の入力画像を、一つまたは複数の出力ビデオ信号をもって表現される、受領される、送信されるまたは記憶される一つまたは複数の出力画像に変換する段階をさらに含む、態様1記載の方法。
〔態様18〕
前記出力画像の少なくとも一つは、高ダイナミックレンジ(HDR)画像フォーマット、映画芸術科学アカデミー(AMPAS)のアカデミー色エンコード規格(ACES)に関連するRGB色空間、デジタル・シネマ・イニシアチブのP3色空間規格、参照入力媒体メトリック/参照出力媒体メトリック(RIMM/ROMM)規格、sRGB色空間、RGB色空間またはYCbCr色空間のうちの少なくとも一つにおいてエンコードされた画像データを含む、態様1記載の方法。
〔態様19〕
プロセッサを有し、態様1ないし18のうちいずれか一項記載の方法を実行するよう構成されている装置。
〔態様20〕
ソフトウェア命令を記憶しているコンピュータ可読記憶媒体であって、前記ソフトウェア命令は、一つまたは複数のプロセッサによって実行されたときに、態様1ないし18のうちいずれか一項記載の方法の実行を引き起こすものである、コンピュータ可読記憶媒体。

Claims (1)

  1. 一つまたは複数の基準源画像および一つまたは複数の対応する非基準源画像を受領する段階であって、前記一つまたは複数の基準源画像は、一つまたは複数の基準カードについての画像データを含む、段階と;
    前記一つまたは複数の対応する非基準源画像についての一つまたは複数の出力画像を生成する段階と;
    前記一つまたは複数の基準カードについての前記画像データに基づいて、基準値のセットおよび符号化された値の対応するセットを含むシーン基準のメタデータを導出する段階であって、前記符号化された値の対応するセットは、前記一つまたは複数の出力画像における符号化された値を含む、段階と;
    前記一つまたは複数の出力画像を、前記シーン基準のメタデータを該一つまたは複数の出力画像についての画像メタデータの一部として、出力する段階とを含む、
    方法。
JP2016224099A 2012-04-30 2016-11-17 シーン基準のメタデータ捕捉のための基準カード Active JP6316910B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201261640166P 2012-04-30 2012-04-30
US61/640,166 2012-04-30

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2015505995A Division JP6283348B2 (ja) 2012-04-30 2013-04-16 シーン基準のメタデータ捕捉のための基準カード

Publications (3)

Publication Number Publication Date
JP2017076409A true JP2017076409A (ja) 2017-04-20
JP2017076409A5 JP2017076409A5 (ja) 2017-06-08
JP6316910B2 JP6316910B2 (ja) 2018-04-25

Family

ID=49514744

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2015505995A Active JP6283348B2 (ja) 2012-04-30 2013-04-16 シーン基準のメタデータ捕捉のための基準カード
JP2016224099A Active JP6316910B2 (ja) 2012-04-30 2016-11-17 シーン基準のメタデータ捕捉のための基準カード

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2015505995A Active JP6283348B2 (ja) 2012-04-30 2013-04-16 シーン基準のメタデータ捕捉のための基準カード

Country Status (4)

Country Link
US (1) US10114838B2 (ja)
EP (1) EP2845164B1 (ja)
JP (2) JP6283348B2 (ja)
WO (1) WO2013165687A1 (ja)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9560330B2 (en) * 2015-01-09 2017-01-31 Vixs Systems, Inc. Dynamic range converter with reconfigurable architecture and methods for use therewith
US9544560B2 (en) * 2015-01-09 2017-01-10 Vixs Systems, Inc. Dynamic range converter with generic architecture and methods for use therewith
US9860504B2 (en) 2015-01-09 2018-01-02 Vixs Systems, Inc. Color gamut mapper for dynamic range conversion and methods for use therewith
US9558538B2 (en) * 2015-01-09 2017-01-31 Vixs Systems, Inc. Dynamic range converter with frame by frame adaptation and methods for use therewith
US9589313B2 (en) * 2015-01-09 2017-03-07 Vixs Systems, Inc. Dynamic range converter with pipelined architecture and methods for use therewith
KR102329862B1 (ko) * 2015-02-10 2021-11-23 삼성전자주식회사 영상의 컬러 변환 방법 및 전자 장치
WO2016179542A1 (en) * 2015-05-06 2016-11-10 Dolby Laboratories Licensing Corporation Thermal compensation in image projection
US20190007709A1 (en) * 2015-08-20 2019-01-03 Lg Electronics Inc. Broadcast signal transmission apparatus, broadcast signal reception apparatus, broadcast signal transmission method and broadcast signal reception method
CN112822389B (zh) * 2019-11-18 2023-02-24 北京小米移动软件有限公司 照片拍摄方法、照片拍摄装置及存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007503030A (ja) * 2003-08-05 2007-02-15 フォトネーション ビジョン リミテッド デジタル画像から赤目現象を除去するシステム及びその方法
US20070071314A1 (en) * 2005-09-09 2007-03-29 Nina Bhatti Capture and systematic use of expert color analysis
JP2008005540A (ja) * 2007-08-21 2008-01-10 Fujifilm Corp 画像処理装置及び方法
JP2010537672A (ja) * 2007-04-12 2010-12-09 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ バイタルサインベッドサイドモニタと組み合わせた画像獲得

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2747530B1 (fr) 1996-04-15 1998-06-26 Aaton Sa Procede d'analyse d'un film cinematographique dans un appareil de telecinema
KR100294219B1 (ko) 1999-01-19 2001-06-15 윤종용 독취장치 및 방법
JP2001045316A (ja) * 1999-08-04 2001-02-16 Fuji Photo Film Co Ltd 色修正関係抽出方法および色修正方法
US20050174473A1 (en) * 1999-11-18 2005-08-11 Color Kinetics, Inc. Photography methods and systems
US6781600B2 (en) 2000-04-14 2004-08-24 Picsel Technologies Limited Shape processor
US6628829B1 (en) 2000-08-08 2003-09-30 Richard Jeffrey Chasen Method and system for matching a surface color
US20030146982A1 (en) 2002-02-01 2003-08-07 Tindall John R. Special color pigments for calibrating video cameras
AU2002341464A1 (en) 2002-09-17 2004-04-08 Qp Card Method and arrangement for colour correction of digital images
AU2003297064A1 (en) 2002-12-13 2004-07-09 Color Savvy Systems Limited Method for using an electronic imaging device to measure color
TWI225362B (en) 2003-06-19 2004-12-11 Benq Corp Color correcting device and method for image forming apparatus
US8330831B2 (en) 2003-08-05 2012-12-11 DigitalOptics Corporation Europe Limited Method of gathering visual meta data using a reference image
US20110102643A1 (en) * 2004-02-04 2011-05-05 Tessera Technologies Ireland Limited Partial Face Detector Red-Eye Filter Method and Apparatus
WO2007078563A2 (en) * 2005-12-21 2007-07-12 Thomson Licensing Constrained color palette in a color space
US7893975B2 (en) * 2006-10-13 2011-02-22 Apple Inc. System and method for processing images using predetermined tone reproduction curves
US8019153B2 (en) 2007-09-18 2011-09-13 Canon Kabushiki Kaisha Wide luminance range colorimetrically accurate profile generation method
KR100928586B1 (ko) * 2007-10-16 2009-11-24 한국전자통신연구원 촬영용 표준컬러 기준판 시스템
BRPI0821678A2 (pt) 2008-01-31 2015-06-16 Thomson Licensing Método e sistema para definição e transmissão de dados de exame.
US8819014B2 (en) * 2008-08-15 2014-08-26 Apple Inc. Digital slate
US8831343B2 (en) * 2009-01-19 2014-09-09 Dolby Laboratories Licensing Corporation Image processing and displaying methods for devices that implement color appearance models
US10531062B2 (en) * 2009-10-13 2020-01-07 Vincent Pace Stereographic cinematography metadata recording
KR101310216B1 (ko) 2009-12-21 2013-09-24 한국전자통신연구원 촬영된 영상의 컬러 변환 장치 및 방법
GB201000835D0 (en) 2010-01-19 2010-03-03 Akzo Nobel Coatings Int Bv Method and system for determining colour from an image
SE1000314A1 (sv) 2010-03-31 2011-10-01 Qpcard Ab Färgkalibreringskort
EP2580913A4 (en) 2010-06-08 2017-06-07 Dolby Laboratories Licensing Corporation Tone and gamut mapping methods and apparatus
US8457484B2 (en) * 2011-05-25 2013-06-04 Echostar Technologies L.L.C. Apparatus, systems and methods for acquiring information from film set devices

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007503030A (ja) * 2003-08-05 2007-02-15 フォトネーション ビジョン リミテッド デジタル画像から赤目現象を除去するシステム及びその方法
US20070071314A1 (en) * 2005-09-09 2007-03-29 Nina Bhatti Capture and systematic use of expert color analysis
JP2010537672A (ja) * 2007-04-12 2010-12-09 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ バイタルサインベッドサイドモニタと組み合わせた画像獲得
JP2008005540A (ja) * 2007-08-21 2008-01-10 Fujifilm Corp 画像処理装置及び方法

Also Published As

Publication number Publication date
EP2845164A1 (en) 2015-03-11
EP2845164B1 (en) 2018-06-06
US10114838B2 (en) 2018-10-30
US20150066923A1 (en) 2015-03-05
EP2845164A4 (en) 2016-01-06
JP6316910B2 (ja) 2018-04-25
JP6283348B2 (ja) 2018-02-21
JP2015520438A (ja) 2015-07-16
WO2013165687A1 (en) 2013-11-07

Similar Documents

Publication Publication Date Title
JP6316910B2 (ja) シーン基準のメタデータ捕捉のための基準カード
JP6767558B2 (ja) 明視野画像ファイルを符号化および復号するためのシステムおよび方法
US11218729B2 (en) Coding multiview video
KR102560187B1 (ko) 3차원("3d") 장면의 2차원("2d") 캡처 이미지를 기반으로 하는 가상 현실 콘텐츠를 렌더링하기 위한 방법 및 시스템
CN108353157B (zh) 编码设备和编码方法以及解码设备和解码方法
CN102326391B (zh) 多视点图像编码装置及方法、多视点图像译码装置及方法
CN108353156B (zh) 图像处理装置和图像处理方法
CN102693538B (zh) 生成高动态范围图像的全局对准方法和装置
CN108243629B (zh) 图像处理设备和图像处理方法
EP3660663B1 (en) Delivering virtualized content
CN102741883A (zh) 高动态范围图像生成和渲染
JP2017076409A5 (ja)
US20220092848A1 (en) Machine learning based image attribute determination
Simone et al. Omnidirectional video communications: new challenges for the quality assessment community
GB2585197A (en) Method and system for obtaining depth data
EP3407297B1 (en) Method and device for determining a characteristic of a display device
KR102510821B1 (ko) 영상 처리 방법, 장치 및 기록 매체
JP2001008231A (ja) 3次元空間における物体の多視点画像伝送方法及びシステム
EP4246988A1 (en) Image synthesis
WO2021200190A1 (ja) 情報処理装置および方法、並びにプログラム
JP2022551064A (ja) 容積ビデオを符号化、送信、及び復号化するための方法及び装置
Lucas et al. 3D HDR Images and Videos: Acquisition and Restitution

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170420

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180227

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180328

R150 Certificate of patent or registration of utility model

Ref document number: 6316910

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250