JP2017010549A - ライトフィールドデータベースでのデータ取り出しのための方法及び装置 - Google Patents
ライトフィールドデータベースでのデータ取り出しのための方法及び装置 Download PDFInfo
- Publication number
- JP2017010549A JP2017010549A JP2016119905A JP2016119905A JP2017010549A JP 2017010549 A JP2017010549 A JP 2017010549A JP 2016119905 A JP2016119905 A JP 2016119905A JP 2016119905 A JP2016119905 A JP 2016119905A JP 2017010549 A JP2017010549 A JP 2017010549A
- Authority
- JP
- Japan
- Prior art keywords
- image
- light field
- sample
- data
- images
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/51—Indexing; Data structures therefor; Storage structures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/58—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/583—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
- G06F16/5854—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using shape and object relationship
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/58—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/583—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/58—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/583—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
- G06F16/5838—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10052—Images from lightfield camera
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Library & Information Science (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Databases & Information Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Software Systems (AREA)
- Multimedia (AREA)
- Geometry (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Signal Processing (AREA)
- Processing Or Creating Images (AREA)
- Image Processing (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Image Analysis (AREA)
Abstract
【課題】ライトフィールドデータベースでのデータ取り出しのための方法及び装置を提供する。
【解決手段】装置の取得ユニットは、サンプルデータを取得する。動作ユニットは、ライトフィールドデータベースの夫々の4Dライトフィールドデータから複数の2D画像を決定し、サンプルデータの幾何学パラメータ及び2D画像の幾何学パラメータに従ってサンプルデータを決定された2D画像と照合する。2D画像の1つは、照合の結果に基づき対象画像として選択され、対象画像が決定される4Dライトフィールドデータが取り出される。
【選択図】図2
【解決手段】装置の取得ユニットは、サンプルデータを取得する。動作ユニットは、ライトフィールドデータベースの夫々の4Dライトフィールドデータから複数の2D画像を決定し、サンプルデータの幾何学パラメータ及び2D画像の幾何学パラメータに従ってサンプルデータを決定された2D画像と照合する。2D画像の1つは、照合の結果に基づき対象画像として選択され、対象画像が決定される4Dライトフィールドデータが取り出される。
【選択図】図2
Description
ライトフィールドデータベースでのデータ取り出しのための方法及び装置が提案される。加えて、そのような方法及び装置に適したコンピュータ可読媒体も提案される。
サンプル画像を用いた且つ画像間の類似に基づいた、2次元(2D)画像のデータベースでの2D画像の検索及び取り出しは、当該分野においてよく知られている。類似は、任意に、種々の局面に基づくことができる。例えば、サンプル画像において示されているサンプルオブジェクトがデータベースにおいて検索され、サンプルオブジェクトと類似したオブジェクトを示す画像が検索結果として取り出される。取り出し方法は、通常、データベース内の画像の特徴を計算し、それらの特徴をサンプル画像又はサンプルデータと比較して、類似する画像を見つけ出す。特徴は、例えば、色ヒストグラム、エッジ、及び特徴点を含むことができる。検索の性能は、一般に、特徴解析の品質及びロバスト性に依存する。
ロバストな特徴の計算には課題及び問題が存在する。第1に、不鮮明な画像からは、エッジ又は特徴点のような信頼できる特徴を計算し抽出することが難しい。透明な又は部分的に透明なオブジェクトを含む画像について、色ヒストグラム、エッジ検出及び特徴点検出は、透明な又は半透明なオブジェクトの後ろに見えている背景に苦しむ。枝葉を持った木のような散在性のオブジェクトは、大きく且つ空間的に散在しているデプス範囲をあらわにする。更には、複数の画像の間で異なるビューポイントから見られるオブジェクトについて、幾何学的且つ測光的ゆがみは、画像の取り出しを難しくする。
シーンの4次元(4D)ライトフィールドは、画像捕捉のための代替の選択肢として導入されてきた。4Dライトフィールドは、例えば、プレンオプティックカメラ又はカメラのグリッドによって、捕捉可能であり、スナップショット後の捕捉のリフォーカシングと、捕捉の際にシーンのデプスを推定することと、捕捉データのための多数の他の柔軟な編集オプションとを可能にする。複数の旧来の2D画像は、同じシーンについての4Dライトフィールドデータから計算され得る。計算された2D画像、いわゆるライトフィールド画像は、ビューポイント、ビューイング方向、解像度、ビューのデプス、フォーカスプレーン、などにおいて異なってよい。例えば、リフォーカシングされた2D画像をライトフィールドから計算する方法は、下記の非特許文献1において説明されている。この中で、カメラセンサのロー画像からのサブ画像は、画像プレーンにおいて空間的にシフトされ、その後に集約される。
更なるライトフィールドデータが近い将来に入手可能であり使用されると期待され得る。ライトフィールドデータの検索及び取り出しのための技術及び解決法も、ユーザにとって必須となる。
R. Ng, et al.,"Light field photography with a hand-held plenoptic camera",Stanford University Computer Science Tech Report CSTR,2005年4月
K.E.A. van de Sande, et al.,"Evaluating color descriptors for object and scene recognition",IEEE Transactions on Pattern Analysis and Machine Intelligence,32(9),pp.1582-1596,2010年
従って、4Dライトフィールドデータを含むライトフィールドデータベースでのデータ取り出しのための解決法を提案することを目的とする。特に、解決法は、所与のサンプルデータに類似したライトフィールドデータをデータベースにおいて検索するために使用される。
一実施形態に従って、ライトフィールドデータベースでのデータ取り出しの方法が提案される。前記ライトフィールドデータベースは4Dライトフィールドデータを含む。当該方法は、サンプルデータを取得するステップと、前記ライトフィールドデータベースの夫々の4Dライトフィールドデータから複数の2次元(2D)画像を決定し、夫々の2D画像は、少なくとも1つの幾何学パラメータにおいて他の2D画像と異なる、ステップと、前記サンプルデータの幾何学パラメータ及び前記2D画像の幾何学パラメータに従って、前記サンプルデータを前記決定された2D画像と照合するステップと、前記照合の結果に基づき、前記2D画像の1つを対象画像として選択するステップと、前記対象画像が決定される4Dライトフィールドデータを取り出すステップとを有する。前記幾何学パラメータは、解像度、ビューポイント、ビューイング方向、フォーカスプレーン、前記サンプルデータと前記2D画像との相違、及び前記サンプルデータと前記2D画像とにおいて捕捉される画像オブジェクト、のうちの少なくとも1つを含む。前記サンプルデータは、任意に、2D画像サンプル又はライトフィールドデータサンプルであることができる。
望ましくは、前記ライトフィールドデータベースから決定される前記2D画像は、前記ライトフィールドデータベースの変更されたビューポイント、変更された視差、又は変更されたデプスマップを使用する、サブアパーチャビュー、リフォーカシングされた画像、全焦点画像、クロッピングされた画像、インペイントされた画像、ノイズ除去された画像、及び同期化された画像のうちの少なくとも1つを有する。
望ましくは、前記サンプルデータを前記決定された2D画像と照合するステップは、前記ライトフィールドデータベースの同じライトフィールドデータから決定された複数の2D画像の間の幾何学リンクを使用することを含む。前記幾何学リンクは、前記複数の2D画像の幾何学パラメータの間の関係を表す。
一実施形態において、前記サンプルデータは、ライトフィールドデータサンプルである。当該方法は、前記ライトフィールドデータサンプルから複数の2D画像サンプルを決定し、夫々の2D画像サンプルは、少なくとも1つの幾何学パラメータにおいて他の2D画像サンプルと異なる、ステップと、前記2D画像サンプルの幾何学パラメータ及び前記ライトフィールドデータベースの前記決定された2D画像の幾何学パラメータに従って、前記サンプルデータの前記2D画像サンプルを前記ライトフィールドデータベースの前記決定された2D画像と照合するステップとを更に有する。
望ましくは、当該方法のこの実施形態は、前記複数の2D画像サンプルから、シャープネスが最も高い2D画像サンプル、又は目標とするサンプルオブジェクトが前記ライトフィールドデータサンプルの代表サンプルとしてフロントビューにおいて示される2D画像サンプルを選択するステップと、前記代表サンプルの幾何学パラメータ及び前記ライトフィールドデータベースの前記決定された2D画像の幾何学パラメータに従って、前記代表サンプルを前記ライトフィールドデータベースの前記決定された2D画像と照合するステップとを更に有する。
一実施形態に従って、ライトフィールドデータベースからデータを取り出すよう構成される装置が導入される。当該装置は、取得ユニット及び動作ユニットを有する。前記取得ユニットは、サンプルデータを取得するよう構成される。前記動作ユニットは、前記ライトフィールドデータベースの夫々の4Dライトフィールドデータから複数の2次元(2D)画像を決定し、夫々の2D画像は、少なくとも1つの幾何学パラメータにおいて他の2D画像と異なり、前記サンプルデータの幾何学パラメータ及び前記2D画像の幾何学パラメータに従って、前記サンプルデータを前記決定された2D画像と照合し、前記照合の結果に基づき、前記2D画像の1つを対象画像として選択し、前記対象画像が決定される4Dライトフィールドデータを取り出すよう構成される。前記幾何学パラメータは、解像度、ビューポイント、ビューイング方向、フォーカスプレーン、前記サンプルデータと前記2D画像との相違、及び前記サンプルデータと前記2D画像とにおいて捕捉される画像オブジェクト、のうちの少なくとも1つを含む。
望ましくは、前記動作ユニットは、前記ライトフィールドデータベースの同じライトフィールドデータから決定された複数の2D画像の間の幾何学リンクを使用するよう更に構成される。前記幾何学リンクは、前記複数の2D画像の幾何学パラメータの間の関係を表す。
一実施形態において、前記サンプルデータは、ライトフィールドデータサンプルである。前記動作ユニットは、前記ライトフィールドデータサンプルから複数の2D画像サンプルを決定し、夫々の2D画像サンプルは、少なくとも1つの幾何学パラメータにおいて他の2D画像サンプルと異なり、前記2D画像サンプルの幾何学パラメータ及び前記ライトフィールドデータベースの前記決定された2D画像の幾何学パラメータに従って、前記サンプルデータの前記2D画像サンプルを前記ライトフィールドデータベースの前記決定された2D画像と照合するよう更に構成される。望ましくは、前記動作ユニットは、前記複数の2D画像サンプルから、シャープネスが最も高い2D画像サンプル、又は目標とするサンプルオブジェクトが前記ライトフィールドデータサンプルの代表サンプルとしてフロントビューにおいて示される2D画像サンプルを選択し、前記代表サンプルの幾何学パラメータ及び前記ライトフィールドデータベースの前記決定された2D画像の幾何学パラメータに従って、前記代表サンプルを前記ライトフィールドデータベースの前記決定された2D画像と照合するよう更に構成される。
また、コンピュータ可読記憶媒体は、ライトフィールドデータベースでのデータ取り出しのための命令であって、コンピュータによって実行される場合に、該コンピュータに、サンプルデータを取得するステップと、前記ライトフィールドデータベースの夫々の4Dライトフィールドデータから複数の2次元(2D)画像を決定し、夫々の2D画像は、少なくとも1つの幾何学パラメータにおいて他の2D画像と異なる、ステップと、前記サンプルデータの幾何学パラメータ及び前記2D画像の幾何学パラメータに従って、前記サンプルデータを前記決定された2D画像と照合するステップと、前記照合の結果に基づき、前記2D画像の1つを対象画像として選択するステップと、前記対象画像が決定される4Dライトフィールドデータを取り出すステップとを実行させる命令を記憶している。前記幾何学パラメータは、解像度、ビューポイント、ビューイング方向、フォーカスプレーン、前記サンプルデータと前記2D画像との相違、及び前記サンプルデータと前記2D画像とにおいて捕捉される画像オブジェクト、のうちの少なくとも1つを含む。
コンピュータ可読記憶媒体は、例えば、ハードディスク、光又は磁気ディスク又はテープ、ソリッドステートメモリデバイス、などのような、非一時的な揮発性又は不揮発性記憶媒体であることができる。記憶媒体は、ここで記載されるプログラムステップを実施するようコンピュータ又はプロセッシングデバイスによって実行可能な命令のプログラムをこのようにして有形に具現する。
提案される方法は、ライトフィールドデータベースが、捕捉されたシーンに関する豊富な情報を含む、という見識を利用する。従来の画像データベースの幾つかの欠点は、ライトフィールドデータベース及びそれが提供する視覚情報の使用により解消され得る。例えば、異なるデプスにおける目標とされるオブジェクトは、部分的に透明なオブジェクト及び部分的に散在したオブジェクトと同様に、検索され取り出され得る。加えて、異なるビューポイントによって見られるオブジェクトも、ライトフィールドデータベースにおいて検索され得る。検索及び取り出しは、幾何学リンクが使用される場合に、更に改善され、より有効であることができる。
より良い理解のために、提案される解決法は、これより、図を参照して以下の記載において更に詳細に説明されるべきである。解決法は、開示されている例となる実施形態に制限されず、且つ、特定される特徴は、添付の特許請求の範囲で定義されている提案される解決法の適用範囲から逸脱することなしに、便宜上も、結合及び/又は変更され得ることが理解される。
ライトフィールドデータベースにおいてデータを取り出すよう構成される装置の例となる実施形態を表す概略図である。
ライトフィールドデータベースでのデータ取り出しのための方法の好適な実施形態を表すフローチャートである。
ライトフィールドデータベースでのデータ取り出しのための方法の他の好適な実施形態を表すフローチャートである。
ライトフィールドデータベースでのデータ取り出しのための方法の更なる他の好適な実施形態を表すフローチャートである。
明細書中で使用される語「ライトフィールド」は、当該分野で一般に定義されるものとして理解されるべきである。すなわち、4Dビデオデータは、如何なる瞬間においても、空間シーン内のあらゆる方向において移動するあらゆる点での全ての光線に関する角度及び空間情報を含み、例えば、プレンオプティックビデオカメラ、ビデオカメラアレイ、又は何らかの他の実現可能なカメラデバイスによって、捕捉され得る。特に、本明細書中のライトフィールドは、ライトフィールドの2D画像データの生成を可能にするシーンについて捕捉されたデータの全体として又は全体のサブセットとして理解され得る。
図1は、4Dライトフィールドデータを含むライトフィールドデータベースからデータを取り出すよう構成される装置10の例となる実施形態を概略的に表す。装置は、取得ユニット11、動作ユニット12、及び任意の記憶ユニット13を有する。
取得ユニット11は、サンプルデータを取得するよう構成される。サンプルデータは、装置10のユーザ入力(図示せず。)又は外部の入力デバイスを通じてユーザから取得され得る。代替案において、サンプルデータは、利用可能なデータベースから取り出されて取得され得る。そのデータベースは、例えば、記憶ユニット13において記憶され得る。
記憶ユニット13は、如何なる実現可能な且つ適切なメモリデバイスであることもでき、装置10に組み込まれるか、あるいは、装置10に追加され得る。4Dライトフィールドデータが取り出されるライトフィールドデータベースも、任意に、記憶ユニット13において記憶され得る。
動作ユニット12は、ライトフィールドデータベースの夫々の4Dライトフィールドデータから複数の2D画像を決定するよう構成される。決定された2D画像の夫々は、少なくとも1つの幾何学パラメータにおいて他の2D画像と異なる。動作ユニット12は、サンプルデータ及び決定された2D画像の幾何学パラメータに従って、取得されたサンプルデータを、決定された2D画像と照合し、その照合結果に基づき、2D画像の1つを対象画像として選択し、対象画像が決定される特定の4Dライトフィールドデータを取り出すよう更に構成される。
一実施形態において、動作ユニット12は、ライトフィールドデータベースの同じライトフィールドデータから決定された複数の2D画像の間の幾何学リンクを使用するよう更に構成される。幾何学リンクは、複数の2D画像の幾何学パラメータの間の関係を表す。
装置10の動作に関する更なる詳細は、ライトフィールドデータベースでのデータ取り出しのための提案される方法とともに、以下で記載される。当然、装置10は、提案される方法の実施形態の実施のための何らかの他の追加又は代替のデバイスを任意に有することができる。
図2は、4Dライトフィールドデータを含むライトフィールドデータベースでのデータ取り出しのための方法の好適な実施形態を概略的に表す。図1を参照すると、方法の実施形態は、装置10の例となる実施形態を用いて以下で詳細に説明される。方法は、当該分野で知られており且つ利用可能な如何なる他の適切なシステム又は装置でも実施され得る。
上述されたように、ライトフィールドデータベースは、望ましくは、装置10の記憶ユニット13において記憶されている。代替案において、ライトフィールドデータベースは、外部のメモリデバイスにおいても記憶され得る。装置10は、外部のメモリデバイスへのアクセスを得て、そこからライトフィールドデータを取り出すことができる。ライトフィールドデータベースは、4Dライトフィールドデータを含む。
装置10の動作ユニット12は、ライトフィールドデータベースの4Dライトフィールドデータから複数の2D画像を決定する(21)。2D画像の夫々は、少なくとも1つの幾何学パラメータにおいて他の2D画像と異なる。望ましくは、幾何学パラメータは、解像度、ビューポイント、ビューイング方向、フォーカスプレーン、サンプルデータと2D画像との相違、及びサンプルデータと2D画像とにおいて捕捉された画像オブジェクト、のうちの少なくとも1つを含む。任意に、決定された2D画像も、記憶ユニット13において記憶され得る。
装置10の取得ユニット11は、サンプルデータを取得する(20)。サンプルデータは、原則として、検索又は取り出しクエリを定義し、任意に、2D画像、3D画像、ライトフィールドデータ、などであることができる。加えて、サンプルデータにおいて示され捕捉される少なくとも1つのサンプルオブジェクトが存在することが好ましい。
動作ユニット12は、次いで、サンプルデータ及び2D画像の幾何学パラメータに従って、サンプルデータを、決定された2D画像と照合する(22)。照合の結果に基づき、動作ユニット12は、2D画像の1つを対象画像として選択し(23)、対象画像が取り出し結果として決定される4Dライトフィールドデータを然るべく取り出す(24)。
提案される方法は、ライトフィールドデータベースが、それらのライトフィールドによって捕捉されたシーンに関する豊富な情報を含む、という見識を利用する。従って、サンプルデータとライトフィールドデータとの間の類似を正確に且つはっきりと推定するために、サンプルデータを、ライトフィールドデータベースに含まれている最大数の異なった視覚情報と比較し照合することが有利であり好ましく、このようにして、改善された取り出し結果が達成される。
ライトフィールドデータベースの夫々のライトフィールドデータから決定(21)される2D画像の性質は、様々であることができる。例えば、2D画像はサブアパーチャビューであることができ、夫々のサブアパーチャビューは特定のビューイング方向を特徴とする。2D画像は、リフォーカシングされた画像、あるいは、全ての画像コンテンツが焦点を合わせられている全焦点画像であることができる。他のタイプの画像も、ライトフィールドデータから決定され計算され得る。例えば、クロッピングされた画像、インペイントされた画像、ノイズ除去された画像、デプスマップ、視差マップ、又は何らかの他のタイプの画像がある。
望ましくは、ライトフィールドデータベースのライトフィールドデータから決定(21)された2D画像は、ライトフィールドデータベースの変更されたビューポイント、変更された視差、又は変更されたデプスマップを使用する、サブアパーチャビュー、リフォーカシングされた画像、全焦点画像、クロッピングされた画像、インペイントされた画像、ノイズ除去された画像、及び同期化された画像のうちの少なくとも1つを有する。
図3を参照すると、一実施形態において、取得(20)されたサンプルデータは、それだけでライトフィールドデータサンプルである。よって、方法は、ライトフィールドデータサンプルから複数の2D画像サンプルを決定すること(25)を更に有する。このとき、2D画像サンプルの夫々は、少なくとも1つの幾何学パラメータにおいて他の2D画像サンプルと異なる。これは、望ましくは、装置10の動作ユニット12によって実施され得る。然るに、動作ユニット12は、2D画像サンプル及びライトフィールドデータベースの決定された2D画像の幾何学パラメータに従って、サンプルデータの2D画像サンプルを、ライトフィールドデータベースの決定された2D画像と照合する(22)。
望ましくは、方法は、所与のライトフィールドデータサンプルから決定された複数の2D画像サンプルの中から代表2D画像サンプルを選択すること(26)を更に有する。これは、同様に、動作ユニット12によって実施されることが好ましい。この選択は、データベース内の画像の、又は画像内のオブジェクトの、取り出しが、大体において画像と最も良く連携する、という考えに基づく。オブジェクト又はオブジェクトの少なくとも部分は、画像において明らかに示されており、例えば、高いシャープネスを有して最適に認識され得るか、あるいは、好ましいビューポイントから見られる。よって、選択された代表2D画像サンプルは、最も高いシャープネスを有する2D画像サンプル、及び/又は目標とされるサンプルオブジェクトがフロントビューにおいて示され、あるいは、最も鮮明であり、あるいは、最も良く表されている2D画像サンプルである。例えば、人の顔がフロントビューにおいて示されており、2D画像サンプルの1つで高いシャープネスを有する場合に、この2D画像サンプルは、よって、対応するライトフィールドデータのための代表2D画像サンプルである優れた候補である。然るに、動作ユニット12は、ライトフィールドデータベースでのデータ取り出しのために、代表サンプルをライトフィールドデータベースの決定された2D画像と照合する(22)。
図4を参照すると、他の実施形態において、方法は、ライトフィールドデータベースのライトフィールドデータから決定される複数の2D画像の間の幾何学リンクを使用すること(27)を更に有する。幾何学リンクは、複数の2D画像の幾何学パラメータの間の関係を表す。幾何学リンクは、望ましくは、複数の2D画像を順序付けることを可能にする。例えば、幾何学リンクは、複数の2D画像を、順序付けられたリスト、又はグリッドに整理することができる。一次元のグリッド、又は順序付けられたリストは、例えば、幾何学パラメータである焦点長さを持ったフォーカススタックであることができる。そして、2次元のグリッドは、例えば、異なるビューイング方向を持った複数のビューのグリッドであることができ、このとき、ビューイング方向ベクトルの座標が幾何学パラメータである。グリッドを埋める前に、検索ストラテジは、比較され照合されるべき夫々の次の2D画像を決定する。幾何学リンクを使用することによって、ライトフィールドデータベースから決定される全ての起こり得る2D画像を照合し見直すことが不要になり、よって、ライトフィールドデータベースでの検索及び取り出しを加速させる。
一実施形態において、フォーカススタックの幾何学リンクが使用される(27)。それは、複数の2D画像の夫々におけるフォーカスプレーンと画像プレーンとの間の距離に従って順に複数の2D画像のフォーカスプレーンを表す。
提案される方法のこの実施形態は、ライトフィールドデータベースにおける夫々のライトフィールドデータについて、サンプルデータを複数の2D画像の第1及び第2の2D画像と照合し(22)、第1及び第2の特徴距離を夫々計算することを更に有する。計算された第1及び第2の特徴距離は、次いで、フォーカススタックに対応する照合ストラテジを決定するために使用される。照合ストラテジの例は、以下で与えられる。望ましくは、照合ストラテジの決定は、サンプルデータを、ライトフィールドデータベースの夫々のライトフィールドデータから決定された複数の2D画像サンプルのサブセットと再帰的に照合することを含む。例えば、第1及び第2の2D画像との照合に続いて、第3の2D画像が、サンプルデータと照合されるべく選択され、照合結果は、照合ストラテジの決定に寄与する。言い換えると、照合及び計算のステップは、最も小さい特徴距離を有する候補2D画像を複数の2D画像の中から選択するために、計算された特徴距離及び照合ストラテジに従って再帰的に実施される。続いて、照合結果及び幾何学リンクの使用に基づき、ライトフィールドデータの候補画像の1つが対象画像として選択される。その後に、対象画像が決定される4Dライトフィールドデータの取り出し24が続く。
フォーカススタックの幾何学リンクを利用することによって、動作ユニット12は、意図的な取り出しストラテジにより、サンプルデータを、ライトフィールドデータベースからのそれらの複数の2D画像と照合することができる(22)。照合ストラテジの例は、次のように与えられる。
出発点として、サンプルデータは、順序付けられたフォーカススタックにおける第1のインデックス(I1)(例えば、フォーカスプレーンと画像プレーンとの間の平均焦点距離にあるフォーカスプレーンに対応する。)を有する第1の2D画像と照合され(22)、特徴ベクトルの結果として現れる第1の距離(D1)が然るべく計算される。次いで、サンプルデータは、順序付けられたフォーカススタックにおける第2のインデックス(I2)を有する第2の2D画像と照合され、特徴ベクトルの対応する第2の距離(D2)が計算される。
D2<D1の場合に、D2は、最も小さい特徴距離として記録に残され、特徴距離は、インデックスが大きくなるにつれて小さくなると予想され得る。次いで、サンプルデータを、第3のインデックス(I3)を有する第3の画像と照合すること(22)が妥当である。第3のインデックスは、I2の後であり、I1とI2との間のインターバルをI2に加えたものに等しい。結果として現れる特徴距離D3は、次いでD2と比較され、どちらがより小さいかが確認される。
D2≧D1の場合に、サンプルデータは、I1とI2との間にある第3のインデックス(I3)を有する第3の画像と、更には、I1よりも小さい第4のインデックス(I4)を有する第4の画像と照合される(22)。これは、最も小さい、結果として現れる特徴距離を見つけ出し、最も小さい特徴距離を有する対象画像として最適な2D画像を然るべく選択する(23)同じ目的のためであることが理解され得る。
他の実施形態において、複合デプスマップの幾何学リンクが使用される(27)。複合デプスマップは、ライトフィールドデータベースの夫々のライトフィールドデータから決定された全焦点画像に関連する。全焦点画像は、シーン内の異なるオブジェクトのデプスから独立した、焦点が合っている捕捉されたシーンを示す。
ここで使用される複合デプスマップは、ライトフィールドデータベースの同じライトフィールドデータから決定された複数の2D画像に関連する複数の視差マップをただ1つの複合デプスマップにまとめることによって、計算され生成される。複数の視差マップの夫々は、一般に、異なるビューポイントにより同じシーン又は同じオブジェクトを捕捉する複数の2D画像の2つの異なる出力から計算される。複合デプスマップの各ピクセルは、全焦点画像の対応するピクセルで見られるオブジェクトのデプスを示す。任意に、視差マップ及び複合デプスマップは、ライトフィールドデータのために使用される何らかの他の実現可能な方法及び技術、例えば、フォーカススタックでのデフォーカスからのデプス、によっても生成され得る。
この実施形態において、ライトフィールドデータベースの夫々の4Dライトフィールドデータについて、全焦点2D画像は特に決定される(21)。夫々の全焦点2D画像は、シーン内の異なるオブジェクトのデプスから独立した、焦点が合っている捕捉されたシーンを示す。加えて、全焦点画像の夫々に関連するデプスマップも生成される。
然るに、提案される方法は、ライトフィールドデータベースの夫々のライトフィールドデータについて、サンプルデータを、決定された全焦点画像と照合し(22)、サンプルデータと最も高い類似を有する全焦点画像内の1つの幾何学ポジションを決定することを更に有する。この照合は、サンプルデータのスケールの変化及び回転のような幾何学的動作を含んでよい。全焦点画像を使用することによって、照合及び比較は、焦点が合っていないブラーが存在しないことで、有効且つ時間節約的である。対応する全焦点画像に関連する複合デプスマップは、次いで、具体的に、全焦点画像における決定されたポジションのデプスを特定するために、使用される(27)。夫々のライトフィールドデータについて、複数の2D画像の候補2D画像は、このようにして選択され得る。候補2D画像は、決定されたポジションのデプスを有する/そのデプスでのフォーカスプレーンを有する2D画像である。
サンプルデータと夫々のライトフィールドデータの夫々の候補2D画像との間の特徴距離が次いで計算される。続いて、特徴距離が最も小さい候補2D画像が対象画像として選択される(23)。その後に、対象画像が決定される4Dライトフィールドデータを取り出すこと(24)が続く。
この実施形態において、検索は、フォーカススタックのサイズと無関係に実施され得る。これによって、ライトフィールドデータベースでの検索及び取り出しは加速され得る。
任意に、特徴距離の計算は、当該分野における如何なる利用可能な又は知られている技術に従っても、実施され得る(例えば、上記の非特許文献2に記載される方法)。
更なる他の実施形態において、サンプルデータとライトフィールドデータベースからの2D画像との照合22は、特徴記述子及び/又はBag-of-features法を用いて実施され得る。
10 装置
11 取得ユニット
12 動作ユニット
13 記憶ユニット
11 取得ユニット
12 動作ユニット
13 記憶ユニット
Claims (14)
- 4次元(4D)ライトフィールドデータを含むライトフィールドデータベースでのデータ取り出しの方法であって、
サンプルデータを取得するステップと、
前記ライトフィールドデータベースの夫々の4Dライトフィールドデータから複数の2次元(2D)画像を決定し、夫々の2D画像は、少なくとも1つの幾何学パラメータにおいて他の2D画像と異なる、ステップと、
前記サンプルデータの幾何学パラメータ及び前記2D画像の幾何学パラメータに従って、前記サンプルデータを前記決定された2D画像と照合するステップと、
前記照合の結果に基づき、前記2D画像の1つを対象画像として選択するステップと、
前記対象画像が決定される4Dライトフィールドデータを取り出すステップと
を有し、
前記幾何学パラメータは、解像度、ビューポイント、ビューイング方向、フォーカスプレーン、前記サンプルデータと前記2D画像との相違、及び前記サンプルデータと前記2D画像とにおいて捕捉される画像オブジェクト、のうちの少なくとも1つを含む、
方法。 - 前記サンプルデータは、2D画像サンプルである、
請求項1に記載の方法。 - 前記サンプルデータは、ライトフィールドデータサンプルであり、
当該方法は、
前記ライトフィールドデータサンプルから複数の2D画像サンプルを決定し、夫々の2D画像サンプルは、少なくとも1つの幾何学パラメータにおいて他の2D画像サンプルと異なる、ステップと、
前記2D画像サンプルの幾何学パラメータ及び前記ライトフィールドデータベースの前記決定された2D画像の幾何学パラメータに従って、前記サンプルデータの前記2D画像サンプルを前記ライトフィールドデータベースの前記決定された2D画像と照合するステップと
を有する、請求項1に記載の方法。 - 前記複数の2D画像サンプルから、シャープネスが最も高い2D画像サンプル、又は目標とするサンプルオブジェクトが前記ライトフィールドデータサンプルの代表サンプルとしてフロントビューにおいて示される2D画像サンプルを選択するステップと、
前記代表サンプルの幾何学パラメータ及び前記ライトフィールドデータベースの前記決定された2D画像の幾何学パラメータに従って、前記代表サンプルを前記ライトフィールドデータベースの前記決定された2D画像と照合するステップと
を更に有する請求項3に記載の方法。 - 前記ライトフィールドデータベースから決定される前記2D画像は、前記ライトフィールドデータベースの変更されたビューポイント、変更された視差、又は変更されたデプスマップを使用する、サブアパーチャビュー、リフォーカシングされた画像、全焦点画像、クロッピングされた画像、インペイントされた画像、ノイズ除去された画像、及び同期化された画像のうちの少なくとも1つを有する、
請求項1乃至4のうちいずれか一項に記載の方法。 - 前記サンプルデータを前記決定された2D画像と照合するステップは、
前記ライトフィールドデータベースの同じライトフィールドデータから決定された複数の2D画像の間の幾何学リンクを使用することを含み、
前記幾何学リンクは、前記複数の2D画像の幾何学パラメータの間の関係を表す、
請求項1乃至5のうちいずれか一項に記載の方法。 - 前記幾何学リンクは、前記複数の2D画像の夫々におけるフォーカスプレーンと画像プレーンとの間の距離に従って順に前記複数の2D画像のフォーカスプレーンを表すフォーカススタックであり、
当該方法は、
前記ライトフィールドデータベースの夫々のライトフィールドデータについて、
前記サンプルデータを前記複数の2D画像の中の第1の2D画像と照合し、第1の特徴距離を計算し、
前記サンプルデータを前記複数の2D画像の中の第2の2D画像と照合し、第2の特徴距離を計算し、
前記計算された第1及び第2の特徴距離に基づき、マッチングストラテジを決定し、
前記マッチングストラテジに従って、最も小さい特徴距離を有する前記複数の2D画像の中の候補2D画像を選択する
ステップと、
前記照合の結果及び前記幾何学リンクの使用に基づき、前記候補2D画像の1つを前記対象画像として選択するステップと
を更に有する、請求項6に記載の方法。 - 前記マッチングストラテジを決定することは、前記サンプルデータを、前記ライトフィールドデータベースの夫々のライトフィールドデータから決定された前記複数の2D画像のサブセットと再帰的に照合することを含む、
請求項7に記載の方法。 - 前記幾何学リンクは、ライトフィールドデータから決定された全焦点画像に関連する複合デプスマップであり、
当該方法は、
前記ライトフィールドデータベースの夫々のライトフィールドデータについて、
全焦点2D画像を決定し、
前記全焦点画像に関連する複合デプスマップを生成し、
前記サンプルデータを前記全焦点画像と照合して、前記サンプルデータと最も高い類似を有する1つのポジションを決定し、
前記複合デプスマップを使用して、前記決定されたポジションのデプスを特定し、
前記決定されたポジションのデプスを有するフォーカスプレーンを有する前記複数の2D画像の中の候補2D画像を選択し、
前記サンプルデータと前記候補2D画像との間の特徴距離を計算する
ステップと、
最も小さい特徴距離を有する前記候補2D画像の1つを前記対象画像として選択するステップと
を更に有する、請求項6に記載の方法。 - 4次元(4D)ライトフィールドデータを含むライトフィールドデータベースでのデータ取り出しのための装置であって、
サンプルデータを取得するよう構成される取得ユニットと、
動作ユニットと
を有し、
前記動作ユニットは、
前記ライトフィールドデータベースの夫々の4Dライトフィールドデータから複数の2次元(2D)画像を決定し、夫々の2D画像は、少なくとも1つの幾何学パラメータにおいて他の2D画像と異なり、
前記サンプルデータの幾何学パラメータ及び前記2D画像の幾何学パラメータに従って、前記サンプルデータを前記決定された2D画像と照合し、
前記照合の結果に基づき、前記2D画像の1つを対象画像として選択し、
前記対象画像が決定される4Dライトフィールドデータを取り出す
よう構成され、
前記幾何学パラメータは、解像度、ビューポイント、ビューイング方向、フォーカスプレーン、前記サンプルデータと前記2D画像との相違、及び前記サンプルデータと前記2D画像とにおいて捕捉される画像オブジェクト、のうちの少なくとも1つを含む、
装置。 - 前記サンプルデータは、ライトフィールドデータサンプルであり、
前記動作ユニットは、
前記ライトフィールドデータサンプルから複数の2D画像サンプルを決定し、夫々の2D画像サンプルは、少なくとも1つの幾何学パラメータにおいて他の2D画像サンプルと異なり、
前記2D画像サンプルの幾何学パラメータ及び前記ライトフィールドデータベースの前記決定された2D画像の幾何学パラメータに従って、前記サンプルデータの前記2D画像サンプルを前記ライトフィールドデータベースの前記決定された2D画像と照合する
よう更に構成される、請求項10に記載の装置。 - 前記動作ユニットは、
前記複数の2D画像サンプルから、シャープネスが最も高い2D画像サンプル、又は目標とするサンプルオブジェクトが前記ライトフィールドデータサンプルの代表サンプルとしてフロントビューにおいて示される2D画像サンプルを選択し、
前記代表サンプルの幾何学パラメータ及び前記ライトフィールドデータベースの前記決定された2D画像の幾何学パラメータに従って、前記代表サンプルを前記ライトフィールドデータベースの前記決定された2D画像と照合する
よう更に構成される、請求項11に記載の装置。 - 前記動作ユニットは、前記ライトフィールドデータベースの同じライトフィールドデータから決定された複数の2D画像の間の幾何学リンクを使用するよう更に構成され、
前記幾何学リンクは、前記複数の2D画像の幾何学パラメータの間の関係を表す、
請求項10乃至12のうちいずれか一項に記載の装置。 - 4次元(4D)ライトフィールドデータを含むライトフィールドデータベースでのデータ取り出しのための命令を記憶しているコンピュータ可読記憶媒体であって、
前記命令は、コンピュータによって実行される場合に、該コンピュータに、
サンプルデータを取得するステップと、
前記ライトフィールドデータベースの夫々の4Dライトフィールドデータから複数の2次元(2D)画像を決定し、夫々の2D画像は、少なくとも1つの幾何学パラメータにおいて他の2D画像と異なる、ステップと、
前記サンプルデータの幾何学パラメータ及び前記2D画像の幾何学パラメータに従って、前記サンプルデータを前記決定された2D画像と照合するステップと、
前記照合の結果に基づき、前記2D画像の1つを対象画像として選択するステップと、
前記対象画像が決定される4Dライトフィールドデータを取り出すステップと
を実行させ、
前記幾何学パラメータは、解像度、ビューポイント、ビューイング方向、フォーカスプレーン、前記サンプルデータと前記2D画像との相違、及び前記サンプルデータと前記2D画像とにおいて捕捉される画像オブジェクト、のうちの少なくとも1つを含む、
コンピュータ可読記憶媒体。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP15305941.5A EP3107007B1 (en) | 2015-06-17 | 2015-06-17 | Method and apparatus for data retrieval in a lightfield database |
EP15305941.5 | 2015-06-17 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2017010549A true JP2017010549A (ja) | 2017-01-12 |
Family
ID=53489907
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016119905A Pending JP2017010549A (ja) | 2015-06-17 | 2016-06-16 | ライトフィールドデータベースでのデータ取り出しのための方法及び装置 |
Country Status (6)
Country | Link |
---|---|
US (2) | US10726067B2 (ja) |
EP (1) | EP3107007B1 (ja) |
JP (1) | JP2017010549A (ja) |
KR (1) | KR20160149160A (ja) |
CN (1) | CN106257454A (ja) |
TW (1) | TW201710931A (ja) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107995424B (zh) * | 2017-12-06 | 2020-06-16 | 太原科技大学 | 基于深度图的光场全聚焦图像生成方法 |
CN108615221B (zh) * | 2018-04-10 | 2020-12-01 | 清华大学 | 基于剪切二维极线平面图的光场角度超分辨率方法及装置 |
KR102365735B1 (ko) | 2018-11-06 | 2022-02-22 | 한국전자통신연구원 | 플렌옵틱 영상 처리 장치, 그것을 포함하는 플렌옵틱 영상 처리 시스템 및 그것의 객체 분할 방법 |
CN112711965B (zh) * | 2019-10-24 | 2023-12-05 | 深圳市优必选科技股份有限公司 | 一种绘本识别方法、装置及设备 |
CN111427166B (zh) | 2020-03-31 | 2022-07-05 | 京东方科技集团股份有限公司 | 一种光场显示方法及系统、存储介质和显示面板 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8416240B1 (en) * | 2012-04-02 | 2013-04-09 | Google Inc. | Determining 3D model information from stored images |
EP3869797B1 (en) * | 2012-08-21 | 2023-07-19 | Adeia Imaging LLC | Method for depth detection in images captured using array cameras |
CN104685860A (zh) | 2012-09-28 | 2015-06-03 | 派力肯影像公司 | 利用虚拟视点从光场生成图像 |
WO2014164550A2 (en) * | 2013-03-13 | 2014-10-09 | Pelican Imaging Corporation | System and methods for calibration of an array camera |
US9075826B2 (en) * | 2013-05-16 | 2015-07-07 | Hewlett-Packard Development Company, L.P. | Image matching |
-
2015
- 2015-06-17 EP EP15305941.5A patent/EP3107007B1/en active Active
-
2016
- 2016-06-15 US US15/183,213 patent/US10726067B2/en active Active
- 2016-06-16 KR KR1020160075018A patent/KR20160149160A/ko unknown
- 2016-06-16 JP JP2016119905A patent/JP2017010549A/ja active Pending
- 2016-06-17 TW TW105119021A patent/TW201710931A/zh unknown
- 2016-06-17 CN CN201610439341.8A patent/CN106257454A/zh active Pending
-
2020
- 2020-07-21 US US16/934,636 patent/US20200349187A1/en active Pending
Also Published As
Publication number | Publication date |
---|---|
EP3107007B1 (en) | 2020-05-20 |
US20200349187A1 (en) | 2020-11-05 |
US20160371304A1 (en) | 2016-12-22 |
KR20160149160A (ko) | 2016-12-27 |
CN106257454A (zh) | 2016-12-28 |
US10726067B2 (en) | 2020-07-28 |
TW201710931A (zh) | 2017-03-16 |
EP3107007A1 (en) | 2016-12-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20200349187A1 (en) | Method and apparatus for data retrieval in a lightfield database | |
US9324151B2 (en) | System and methods for world-scale camera pose estimation | |
US20120127276A1 (en) | Image retrieval system and method and computer product thereof | |
JP6320075B2 (ja) | 画像処理装置およびその制御方法 | |
FR3009635A1 (fr) | Procede de recherche d'une image similaire dans une banque d'images a partir d'une image de reference | |
JP5018614B2 (ja) | 画像処理方法、その方法を実行するプログラム、記憶媒体、撮像機器、画像処理システム | |
US9995905B2 (en) | Method for creating a camera capture effect from user space in a camera capture system | |
CN110443228B (zh) | 一种行人匹配方法、装置、电子设备及存储介质 | |
CN112465796B (zh) | 一种融合焦点堆栈和全聚焦图像的光场特征提取方法 | |
Teixeira et al. | Epipolar based light field key-location detector | |
Krishnan et al. | A survey on image matching methods | |
CN110457998B (zh) | 影像数据关联方法和设备、数据处理设备及介质 | |
KR101692634B1 (ko) | 2차원 영상의 3차원 변환 장치 및 방법 | |
US20220414393A1 (en) | Methods and Systems for Generating Composite Image Descriptors | |
CN113298871B (zh) | 地图生成方法、定位方法及其系统、计算机可读存储介质 | |
CN109409387A (zh) | 图像采集设备的采集方向确定方法、装置及电子设备 | |
KR20180069312A (ko) | 라이트 필드 동영상을 이용한 물체 추적 방법 및 장치 | |
CN108062741B (zh) | 双目图像处理方法、成像装置和电子设备 | |
Ying et al. | Fully Convolutional Networks tor Street Furniture Identification in Panorama Images. | |
Al-Nuaimi et al. | Towards location recognition using range images | |
JP2020091718A (ja) | 撮像画像分類装置及び撮像画像分類方法 | |
Hollick et al. | Creation of 3D models from large unstructured image and video datasets | |
Kim et al. | Object tracking using plenoptic image sequences | |
Boin et al. | Effective Fisher vector aggregation for 3D object retrieval | |
CN117292405A (zh) | 一种基于单光场相机的高精度三维手势识别方法及系统 |