JP7423595B2 - 画素の深度を推定するための方法、対応するデバイス、およびコンピュータプログラム製品 - Google Patents

画素の深度を推定するための方法、対応するデバイス、およびコンピュータプログラム製品 Download PDF

Info

Publication number
JP7423595B2
JP7423595B2 JP2021502893A JP2021502893A JP7423595B2 JP 7423595 B2 JP7423595 B2 JP 7423595B2 JP 2021502893 A JP2021502893 A JP 2021502893A JP 2021502893 A JP2021502893 A JP 2021502893A JP 7423595 B2 JP7423595 B2 JP 7423595B2
Authority
JP
Japan
Prior art keywords
depth
images
current pixel
image
determining
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021502893A
Other languages
English (en)
Other versions
JP2021531581A (ja
JPWO2020016299A5 (ja
Inventor
バボン,フレデリック
サバテール,ノイス
ホグ,マシュー
ドワイヤン,ディディエ
ボワソン,ギヨーム
Original Assignee
インターデジタル シーイー パテント ホールディングス,エスアーエス
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by インターデジタル シーイー パテント ホールディングス,エスアーエス filed Critical インターデジタル シーイー パテント ホールディングス,エスアーエス
Publication of JP2021531581A publication Critical patent/JP2021531581A/ja
Publication of JPWO2020016299A5 publication Critical patent/JPWO2020016299A5/ja
Application granted granted Critical
Publication of JP7423595B2 publication Critical patent/JP7423595B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/557Depth or shape recovery from multiple images from light fields, e.g. from plenoptic cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/21Indexing scheme for image data processing or generation, in general involving computational photography
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10052Images from lightfield camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20016Hierarchical, coarse-to-fine, multiscale or multiresolution image processing; Pyramid transform

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Measurement Of Optical Distance (AREA)

Description

本開示は、概して、ライトフィールド(LF)コンテンツ(例えば、LF画像またはビデオ)の分野に関する。
より具体的には、本開示は、LFコンテンツ内の画像に属する画素の深度を推定するための方法に関する。
本開示は、専門家と消費者の両方にとっては、LFキャプチャが使用される任意の分野において、関心を引くものであり得る。
LFコンテンツは、
-すなわち、画像の行列に属する画像が、例えばプレノプティックカメラなどのメインレンズシステムに加えてマイクロレンズアレイを使用して単一のカメラから同時にキャプチャされたサブアパーチャ画像であるビデオ内のレンズレットベースのビデオとしても知られるプレノプティックビデオ、または
-すなわち、画像の行列に属する画像が、典型的には、いくつかのカメラを含むカメラアレイ(カメラリグとしても知られる)を使用して、複数のカメラアングルから同時にキャプチャされたビデオ内のマルチビュービデオ、のいずれかにある。
LFコンテンツ内の画素の深度の推定は、ほとんどの場合、2つの異なる視点から同じシーンをキャプチャする少なくとも2つのビューの可用性に基づいて、そのような深度を判定するために古典的に使用されている既知の技術(例えば、マッチング技術)のLFコンテンツに属する各ビューへの重複になる。
しかしながら、2つの異なるビューの使用に基づくアプローチは、例えば、オクルージョンが発生する特定の場合において、信頼できる結果をもたらすことができない。実際、その場合、所与のビューによってキャプチャされたシーンの一部が他のビューではキャプチャされていない可能性がある。その場合、深度を判定することができないか、またはそのような既知のアルゴリズムによって異常値が返される。
例えば、H.Zhu,Q.Wang and J.Yu,“Occlusion-Model Guided Anti-Occlusion Depth Estimation in Light Field,”in IEEE Journal of Selected Topics in Signal Processing,vol.11,no.7,pp.965-978,Oct.2017の論文のようなオクルージョンが発生したとき、深度推定においてより信頼性の高い結果を得るために、LFコンテンツにおいて利用可能な最大数の視点を使用するためのいくつかの提案がなされている。しかしながら、そのようなアプローチは、依然として改善することができる。
結果として、特にオクルージョンの存在下で、強制的な整合性を有する画素の深度を推定するために、LFコンテンツ内の異なるビューに関連する情報を利用する方法が必要である。
また、推定された深度において高い品質を可能にするそのような方法を有する必要がある。
本開示は、ライトフィールドコンテンツのM個の画像(M>2)の行列内の画素の深度を推定するための方法に関する。そのような方法は、M個の画像の中から取られたN個の画像(2<N≦M)の少なくとも1つのセットに対して、
-N個の深度マップのセットを提供するN個の画像のセット内の画像に対する深度マップを判定することと、
-N個の画像のセットの現在の画像内の少なくとも1つの現在の画素に対して、
-N個の深度マップのセットのうちの1つの深度マップ内の現在の画素に関連付けられた深度値に対応する候補深度が、N個の深度マップのセットの他の深度マップ(複数可)と整合するか否かを判断することと、
-候補深度がN個の深度マップのセットの他の深度マップ(複数可)と整合すると判断された場合、候補深度を現在の画素に対する推定された深度であるとして選択することと、を含む、プロセスを含む。
プロセスは、反復的に実施され、プロセスの各新しい反復は、プロセスの前の反復において使用された前のN値よりも低い新しいN値で実行される。
本開示の別の態様は、ライトフィールドコンテンツのM個の画像(M>2)の行列内の画素の深度を推定するためのデバイスに関する。そのようなデバイスは、M個の画像の中から取られたN個の画像(2<N≦M)の少なくとも1つのセットに対して、
-N個の深度マップのセットを提供するN個の画像のセット内の画像に対する深度マップを判定することと、
-N個の画像のセットの現在の画像内の少なくとも1つの現在の画素に対して、
-N個の深度マップのセットのうちの1つの深度マップ内の現在の画素に関連付けられた深度値に対応する候補深度が、N個の深度マップのセットの他の深度マップ(複数可)と整合するか否かを判断することと、
-候補深度がN個の深度マップのセットの他の深度マップ(複数可)と整合すると判断された場合、候補深度を現在の画素に対する推定された深度であるとして選択することと、を含む、プロセスを実施するように構成されたプロセッサまたは専用コンピューティングマシンを含む。
プロセスは、反復的に実施され、プロセスの各新しい反復は、プロセスの前の反復において使用された前のN値よりも低い新しいN値で実行される。
加えて、本開示は、前述のライトフィールドコンテンツのM個の画像の行列内の画素の深度を推定するための方法を実装するためのプログラムコード命令を含む、プログラムコード命令を含む、その上に記録され、プロセッサによって実行することができるコンピュータプログラム製品を含む非一時的コンピュータ可読媒体に関する。
実施形態の他の特徴および利点は、指示的かつ非網羅的な例によって与えられる以下の説明から、ならびに添付の図面から明らかになる。
一実施形態による、LFコンテンツの画像の行列を例示する。 一実施形態による、画像(または角度パッチ)の複数のセットを各々例示する。 一実施形態による、画素の複数の空間パッチを各々例示する。 一実施形態による、図1の画像の行列内の画素の深度を推定するための方法のフローチャートを例示する。 一実施形態による、図1の画像の行列内の異なる画像に対応するあるビューから別のビューへの変化を例示する。 図4の方法を実装するために使用することができる例示的なデバイスを例示する。
本文書のすべての図において、同じ参照符号は、類似の要素およびステップを示す。
次に、図1と関連して、一実施形態による、LFコンテンツの画像100miの行列について説明する。
画像100miの行列は、LFキャプチャシステムによって同時に、すなわち所与の瞬間にキャプチャされる4つの画像を含む。他の実施形態では、画像の行列は、LFキャプチャシステムによって同時にキャプチャされた2つを超える任意の数の画像を含む。
図1に戻ると、画像100miの行列の各画像は、同じシーンの異なるビューに対応する。その意味では、画像と対応するビューとの間に等価性がある。例えば、そのようなLFキャプチャシステムは、カメラアレイ(またはカメラリグ)であり、各画像は、カメラアレイの異なるカメラによって撮影される。他の例では、LFキャプチャシステムは、プレノプティックカメラであり、画像の行列に属する画像は、サブアパーチャ画像である。
画像100miの行列に属する画像の中に、現在の画像100ciと、現在の画像100ciに属する現在の画素100cpとがある。続いて、現在の画素100cpに対しては、深度がまだ推定されていないと仮定するので、図4に関して以下で考察される本開示による画素の深度を推定するための方法のステップを詳細に説明するための例として、現在の画素100cpが取り上げられる。
次に、図2aと関連して、一実施形態による、画像200Nの複数200pNのセットについて説明する。
複数200pNの画像200Nの各セット(「角度パッチ」とも呼ばれる)は、画像100miの行列の4つの画像の中から取られた3つの異なる画像(ダークグレーで描写される)を含む。
画像200Nのそのようなセットおよび画像200Nのそのような複数200pNのセットが、図4に関して以下で考察されるように、本開示による画素の深度を推定するための方法に使用される。
本実施形態では、複数200pNは、4セットの画像200Nを含む。他の実施形態では、本開示による画素の深度を推定するための方法は、3とは異なる数の画像を含む画像のセットに依拠し、画像の複数のセットは、4とは異なる数のセットの画像を含む。例えば、図2bに例示される実施形態では、複数200pN’の画像200N’の各セットは、画像100miの行列の4つの画像の中から取られた2つの異なる画像(依然としてダークグレーで描写される)を含む。複数200pN’は、6セットの画像200N’を含む。
次に、図3aと関連して、一実施形態による、画素300Pの複数300pPの空間パッチについて説明する。
複数300pPの画素300Pの各空間パッチは、現在の画像100ci内の現在の画素100cpの近傍で取られた8つの異なる画素を含む。空間近傍は、通常、考慮される現在の画素100cpを中心とする奇数辺の長さの正方形の空間パッチで構成される。
画素300Pの空間パッチのそのようなセットおよび画素300Pのそのような複数300pPの空間パッチが、図4に関して以下で考察されるように、本開示による画素の深度を推定するための方法のいくつかの実施形態に使用される。
本実施形態では、複数300pPは、画素300Pの4つの空間パッチを含む。他の実施形態では、本開示による画素の深度を推定するための方法は、8とは異なる数の画素を含む画素の空間パッチを使用し、画素の複数の空間パッチは、4とは異なる数の画素の空間パッチを含む。例えば、図3bに例示される実施形態では、複数300pP’の画素300P’の各空間パッチは、現在の画像100ci内の現在の画素100cpの近傍で取られた7つの異なる画素を含む。複数300pP’は、画素300P’の14個の空間パッチを含む。
次に、図4と関連して、一実施形態による、画像100miの行列内の画素の深度を推定するための方法のステップについて説明する。
画像100miの行列内の画素の深度を推定するための方法は、少なくとも画像100miの行列のM個の画像の中から取られ(図1の実施形態では、M=4である。しかしながら、上で考察されるように、本方法を適用するために、2を超える任意の値Mを考慮することができる)、現在の画像100ciを含むN個の画像のセットに対して、2<N≦Mの場合、以下のステップを含むプロセスを含む。
-ステップS400で、N個の深度マップのセットを提供するN個の画像のセット内の画像に対する深度マップが判定され、
-深度がまだ推定されていない現在の画像100ci内の少なくとも現在の画素100cpに対して、
-ステップS410で、N個の深度マップのセットのうちの1つの深度マップ内の現在の画素100cpに関連付けられた深度値に対応する候補深度が、N個の深度マップのセットの他の深度マップ(複数可)と整合するか否かが判断され、
-ステップS420で、候補深度がN個の深度マップのセットの他の深度マップ(複数可)と整合すると判断された場合、現在の画素100cpに対する推定された深度であるとして候補深度が選択される。
プロセスは、反復的に実施され、プロセスの各新しい反復は、プロセスの前の反復において使用された前のN値よりも低い新しいN値で実行される。
したがって、現在の画素100cpの深度の推定は、反復ごとに異なるセットの画像を伴う反復プロセスに基づく。結果として、オクルージョンの存在下であっても信頼できる深度推定が達成されるように、画像100miの行列において利用可能なすべての情報が使用される。さらに、プロセスの反復のために、減少する数の画像を含む画像のセットが連続的に考慮される。したがって、最初に深度が整合すると判断されたときは、LFコンテンツ内の最大数の画像に基づいて推定された深度に対応する。これにより、より高い品質の結果を得ることができる。
他の実施形態では、ステップS410およびステップS420は、現在の画像100ci内の現在の画素100cpに対してだけでなく、深度がまだ推定されていないN個の画像のセットの各画像の各画素に対しても実施される。
N<Mであり、N個の画像のセットが現在の画像100ciのM個の画像の中から取られたN個の画像の複数のセットに属する他の実施形態では、プロセスの各反復は、N個の画像の複数のセットのN個の画像の各セットに対して実行される。したがって、異なるビュー内の利用可能なすべての情報が使用され、深度推定の改善につながる。いくつかの実施形態では、N個の画像の複数のセットは、現在の画像100ciのM個の画像の中から取られたN個の画像のすべてのセットを含む。
図4に戻り、現在の画素100cpの候補深度が他の深度マップ(複数可)と整合するか否かを判断するために、ステップS410は、現在の画素100cpの候補深度とN個の深度マップのセットの他の深度マップ(複数可)との間の幾何学的整合性が判定されるステップS410aを含む。ビュー間の幾何学的整合性基準により、すべての考慮されたビューの整合する再構築された3Dシーンに対応する深度値を判断することができる。
そのような幾何学的整合性の導出は、図5に描かれる例を通して例示される。
図5には、画像100miの行列をキャプチャする4つのLFキャプチャシステムのうち、2つのカメラ501、502のみが例示されている。より具体的には、カメラ501は、ビュー番号#cに対応する現在の画像100ciをキャプチャし、カメラ502は、画像100miの行列内の現在の画像100ciとは別の画像をキャプチャする。考慮される他の画像は、ビュー番号#c’に対応する。
をビュー#cの現在の画素100cpの座標とする。
を、現在の画素100cpに関連付けられた候補深度による、基準座標系(CS)における対応する3Dポイント510の座標とする。ビュー番号#c’に対応する他の画像におけるその投影は、座標
の理論位置502tlを与える。実際、例えばカメラ501、502のピンホールモデルに基づく、そのような投影は、考慮される別の画像の画素と正確に整合しない場合がある位置をもたらす。ビュー番号#c’に対応する他の画像に対する深度マップを補間することで、座標
の対応する3Dポイント520を計算し、ビュー番号#cにそれを戻して投影することができ、現在の画像100ci内の座標
の別の理論位置501atlで終了する。
ドリフトベクトルのノルム
が所定の閾値未満であるとき、現在の画素100cpの候補深度は、整合すると判断される。
言い換えれば、図4の実施形態では、ステップS410aは、以下を含む。
-ステップS410a1、現在の画像100ci以外のN個の画像のセットの他の画像における理論位置502tlが判定される。理論位置は、現在の画素100cpに関連付けられたオブジェクトポイント510の他の画像における投影および候補深度に対応する。
-ステップS410a2、N個の深度マップのセット内の他の画像に関連付けられた深度マップに基づいて、理論位置502tlに関連付けられた深度値が取得される、および
-ステップS410a3、現在の画像100ciにおいて、理論位置502tlおよび深度値に関連付けられた他のオブジェクトポイント520の現在の画像100ciにおける投影に対応する別の理論位置501atlが判定される。
現在の画素100cpと他の理論位置501atlとの間の現在の画像内の距離が所定の閾値を下回るとき(例えば、所定の閾値は、現在の画像内の画素の半分のサイズである)、現在の画素100cpの候補深度は、整合すると判断される。
N>3である他の実施形態では、ステップS410a1は、理論位置の対応するセットを提供する、現在の画像100ci以外のN個の画像のセットの他のすべての画像に対して実施される。ステップS410a2は、深度値の対応するセットを提供する、理論位置のセット内のすべての理論位置に対して実施される。ステップS410a3は、理論位置のセット内のすべての理論位置に対して、および現在の画像100ci内の別の理論位置のセットを提供する、深度値のセット内のすべての関連する深度値に対して実施される。現在の画素100cpと他の理論位置との間の距離が所定の閾値を下回るとき、現在の画素100cpの候補深度は整合すると判断される。したがって、整合性は、画像の行列のすべての画像に存在する情報に基づく。
図4に戻ると、ステップS410は、現在の画素100cpと理論位置(複数可)502tlとの間の写真整合性が判定されるステップS410bも含む。
例えば、写真整合性は、理論位置(複数可)502tlにおける他の画像(複数可)内の色の分布の標準偏差によって測定することができる。
は、ビュー番号#cに対応する現在の画像100ci内の座標
の現在の画素100cpに関連付けられた候補深度である。
ステップS410aで判定された幾何学的整合性とステップS410bで判定された写真整合性とを組み合わせて、現在の画素100cpに関連付けられた候補深度がN個の深度マップのセットの他の深度マップ(複数可)と整合するか否かを判断する。例えば、そのような組み合わせは、K.Wolff et al.,“Point Cloud Noise and Outlier Removal for Image-Based 3D Reconstruction,”2016 Fourth International Conference on 3D Vision (3DV),Stanford,CA,2016,pp.118-127に提案された方法に依拠する。
他の実施形態では、ステップS410で、現在の画素100cpの候補深度が他の深度マップ(複数可)と整合するか否かを判断するために、幾何学的整合性基準のみが使用される。
他の実施形態では、現在の画素100cpの候補深度が他の深度マップ(複数可)と整合するか否かを判断するために、写真整合性基準のみが使用される。
さらに他の実施形態では、現在の画素100cpの候補深度が他の深度マップ(複数可)と整合するか否かを判断するために、画像100miの行列の画像間の任意の他の整合性基準が使用される。
図4に戻り、N個の画像のセット内の画像に対する深度マップを判定するために、ステップS400は、少なくとも現在の画素100cpに対して、
-P<Pmaxであり、Pmaxが、現在の画素100cpの近傍で取られた、現在の画像100ci内の画素の総数である場合、現在の画像100ciのP画素の空間パッチと、
-現在の画像100ciに関連付けられた深度マップ内の現在の画素100cpに関連付けられた候補深度を提供する、N個の画像のセット内の現在の画像100ciとは少なくとも別の画像におけるP画素の空間パッチの少なくとも投影と、の間のマッチング技術を実施する。ステップS400は、反復的に実施され、ステップS400の各新しい反復は、ステップS400の前の反復において使用された前の値Pよりも低い新しい値Pで実行される。
したがって、深度マップの判定は、LFコンテンツの画像において利用可能なすべての情報の使用に基づく。さらに、減少する画素数の画素の空間パッチは、連続的な反復のために連続的に考慮される。したがって、最初に深度マップ内の深度値が判定されたときは、LFコンテンツの画像内の最大数の画素に基づいて判定された深度値に対応する。これにより、より高い品質の結果を得ることができる。
一実施形態では、現在の画像100ciとは少なくとも別の画像におけるP画素の空間パッチの投影は、例えば、図5に関して上記で開示したように、LFキャプチャシステムのカメラのピンホールモデルに基づいて、同じ投影機構を使用して取得される。
P<Pmaxであるいくつかの実施形態では、P画素の空間パッチは、P画素の複数の空間パッチに属する。ステップS400の所与の反復に対して、マッチング技術は、現在の画素100cpに関連付けられた中間深度値のセットおよび対応する信頼値のセットを提供する、P画素の複数の空間パッチに属するP画素の各空間パッチに対して連続的に実施される。現在の画像100ciに関連付けられた深度マップ内の現在の画素100cpに関連付けられた候補深度は、中間深度値のセット内のより高い信頼値の中間深度値である。変形態では、P画素の複数の空間パッチは、P画素のすべての空間パッチを含む。
したがって、深度マップを判定するために考慮される画素のパッチの所与のサイズに対して、最適な信頼レベルを提供する画素のパッチは、問題の深度マップを判定するために保持される。
いくつかの実施形態では、マッチング技術は、以下に従って、コスト関数Eの最小化を実施し、
は、ビュー#cに対応する現在の画像100ciの深度マップであり、(u,v)は、現在の画像100ciにおける現在の画素100cpの座標である。
その場合、マッチング技術の連続的な実施は、コスト関数Eの最小値のセットをさらに提供する。いくつかの実施形態では、信頼値は、少なくとも以下の関数である。
-最小値のセット内の最小値m、例えば、信頼値は-mに等しい、または
-最小値のセット内の最小値mと最後から3番目の最小値mとの組み合わせ、例えば、信頼値は
に等しい。
いくつかの実施形態では、コスト関数Eは、例えば、以下のように、MSE(「平均二乗誤差」の場合)ノルムの関数であり、
は、ビュー#cを含むN個の画像(または「角度パッチ」)の考慮されたセットであり、
は、座標(u,v)の現在の画素100cpの近傍で取られたP画素の考慮された空間パッチであり、
は、セット
の基数であり、
-||.||は、L2ノルム(二乗成分の和の平方根)であり、(i’,j’,z’)は、ビュー#cと#c’との間のホモグラフィー
を通じて(i,j,z)から取得される(例えば、図5に関連して上記に開示されたLFキャプチャシステムのカメラのピンホールモデルに基づいて、同じ投影機構を使用して)。
いくつかの実施形態では、コスト関数Eは、例えば、以下のように、MAD(「平均絶対差」)ノルムの関数であり、
||.||は、L1ノルム(絶対値の合計)である。
いくつかの実施形態では、コスト関数Eは、例えば、以下のように、ZNCC(「ゼロ平均正規化相互相関」)ノルムの関数であり、
合計は、3つの成分R、G、およびBに対して実行され、
式中、
は、座標(u,v)の現在の画素100cpの近傍で取られた空間パッチ
における画像Iの平均であり、
は、座標(u,v)の現在の画素100cpの近傍で取られた空間パッチ
における画像Iの標準偏差である。
図6は、(上記に開示された実施形態のいずれかに従って)本開示による、ライトフィールドコンテンツの画像の行列内の画素の深度を推定するために使用され得るデバイス600の特定の実施形態の構造ブロックを例示する。
この実施形態では、開示された方法を実装するためのデバイス600は、不揮発性メモリ603(例えば、読み取り専用メモリ(ROM)またはハードディスク)、揮発性メモリ601(例えば、ランダムアクセスメモリまたはRAM)、およびプロセッサ602を含む。不揮発性メモリ603は、非一時的コンピュータ可読キャリア媒体である。それは、図4に関連して上記に開示された様々な実施形態において、上記の方法(ライトフィールドコンテンツの画像の行列内の画素の深度を推定するための方法)の実装を可能にするために、プロセッサ602によって実行される実行可能プログラムコード命令を記憶する。
初期化時に、前述のプログラムコード命令は、プロセッサ602によって実行されるように不揮発性メモリ603から揮発性メモリ601に転送される。揮発性メモリ601はまた、この実行に必要な変数およびパラメータを記憶するためのレジスタを含む。
本開示に従うライトフィールドコンテンツの画像の行列内の画素に対する深度を推定するための上記の方法のすべてのステップは、以下によって同様に良好に実装され得る。
・PC型装置、DSP(デジタル信号プロセッサ)、またはマイクロコントローラなどの再プログラム可能なコンピューティングマシンによって実行されるプログラムコード命令のセットの実行による。このプログラムコード命令は、取り外し可能(例えば、フロッピーディスク、CD-ROMまたはDVD-ROM)または取り外し不可能な非一時的コンピュータ可読キャリア媒体に記憶することができる、または
・FPGA(フィールドプログラマブルゲートアレイ)、ASIC(特定用途向け集積回路)、または任意の専用ハードウェア構成要素など、専用のマシンまたは構成要素による。
言い換えれば、本開示は、コンピュータプログラム命令の形態で、純粋にソフトウェアベースの実装に限定されず、それはまた、ハードウェア形態またはハードウェア部分とソフトウェア部分とを組み合わせた任意の形態で実装され得る。
一実施形態によれば、ライトフィールドコンテンツのM個の画像(M>2)の行列内の画素の深度を推定するための方法が提案される。そのような方法は、M個の画像の中から取られたN個の画像(2<N≦M)の少なくとも1つのセットに対して、
-N個の深度マップのセットを提供するN個の画像のセット内の画像に対する深度マップを判定することと、
-N個の画像のセットの現在の画像内の少なくとも1つの現在の画素に対して、
-N個の深度マップのセットのうちの1つの深度マップ内の現在の画素に関連付けられた深度値に対応する候補深度が、N個の深度マップのセットの他の深度マップ(複数可)と整合するか否かを判断することと、
-候補深度がN個の深度マップのセットの他の深度マップ(複数可)と整合すると判断された場合、候補深度を現在の画素に対する推定された深度であるとして選択することと、を含む、プロセスを含む。
プロセスは、反復的に実施され、プロセスの各新しい反復は、プロセスの前の反復において使用された前のN値よりも低い新しいN値で実行される。
したがって、本開示は、強制的な整合性を有するライトフィールド(LF)コンテンツ内の画素の深度を推定するための新しい、進歩的な解決策を提案する。
より具体的には、画素の深度の推定は、反復ごとに異なるセットの画像(角度パッチとも呼ばれる)を伴う反復プロセスに基づく。したがって、オクルージョンの存在下であっても信頼できる深度推定が達成されるように、LFコンテンツの画像の行列内で利用可能なすべての情報が使用される。
さらに、プロセスの反復のために、減少する数の画像を含む画像のセットが連続的に考慮される。したがって、最初に深度が整合していると判断されたときは、LFコンテンツ内の最大数の画像に基づいて推定された深度に対応する。これにより、より高い品質の結果を得ることができる。
一実施形態によれば、ライトフィールドコンテンツのM個の画像(M>2)の行列内の画素の深度を推定するためのデバイスが提案される。そのようなデバイスは、M個の画像の中から取られたN個の画像(2<N≦M)の少なくとも1つのセットに対して、
-N個の深度マップのセットを提供するN個の画像のセット内の画像に対する深度マップを判定することと、
-N個の画像のセットの現在の画像内の少なくとも1つの現在の画素に対して、
-N個の深度マップのセットのうちの1つの深度マップ内の現在の画素に関連付けられた深度値に対応する候補深度が、N個の深度マップのセットの他の深度マップ(複数可)と整合するか否かを判断することと、
-候補深度がN個の深度マップのセットの他の深度マップ(複数可)と整合すると判断された場合、候補深度を現在の画素に対する推定された深度であるとして選択することと、を含む、プロセスを実施するように構成されたプロセッサまたは専用コンピューティングマシンを含む。
プロセスは、反復的に実施され、プロセスの各新しい反復は、プロセスの前の反復において使用された前のN値よりも低い新しいN値で実行される。
一実施形態によれば、現在の画素の候補深度が整合するか否かを判断することと、深度がまだ推定されていないN個の画像のセットの各画像の各画素に対して、現在の画素の深度を選択することと、が実施される。
一実施形態によれば、N<Mであり、N個の画像のセットは、M個の画像の中から取られたN個の画像の複数のセットに属する。プロセスの各反復は、N個の画像のセットごとに実行される。
一実施形態によれば、N個の画像の複数のセットは、M個の画像の中から取られたN個の画像のすべてのセットを含む。
一実施形態によれば、現在の画素の候補深度が整合するか否かを判断することは、現在の画素の候補深度とN個の深度マップのセットの他の深度マップ(複数可)との間の幾何学的整合性を判定することを含む。
したがって、ビュー間の幾何学的整合性基準により、すべての考慮されたビューの整合する再構築された3Dシーンに対応する深度値を判断することができる。
一実施形態によれば、幾何学的整合性を判定することは、
-現在の画像とは異なるN個の画像のセットの別の画像における理論位置を判定することであって、理論位置は、現在の画素に関連付けられたオブジェクトポイントの他の画像における投影および候補深度に対応する、判定することと、
-N個の深度マップのセット内の他の画像に関連付けられた深度マップに基づいて、理論位置に関連付けられた深度値を取得することと、
-現在の画像において、理論位置および深度値に関連付けられた別のオブジェクトポイントの現在の画像における投影に対応する別の理論位置を判定することと、を含み、
現在の画素と他の理論位置との間の現在の画像内の距離が所定の閾値を下回るとき、現在の画素の候補深度が整合すると判断される。
一実施形態によれば、N>3である。別の画像における理論位置を判定することは、理論位置の対応するセットを提供する、現在の画像以外のN個の画像のセットのすべての他の画像に対して実施される。理論位置に関連付けられた深度値を取得することは、深度値の対応するセットを提供する、理論位置のセット内のすべての理論位置に対して実施される。現在の画像において、別の理論位置を判定することは、理論位置のセット内のすべての理論位置に対して、および現在の画像内の別の理論位置のセットを提供する、深度値のセット内のすべての関連する深度値に対して実施され、現在の画素と他の理論位置との間の距離が所定の閾値を下回るとき(例えば、所定の閾値は、現在の画像内の画素の半分のサイズである)、現在の画素の候補深度は整合すると判断される。
一実施形態によれば、現在の画素の候補深度が整合するか否かを判断することは、現在の画素と理論位置(複数可)との間の写真整合性を判定することをさらに含む。
一実施形態によれば、N個の画像のセット内の画像に対する深度マップを判定することは、少なくとも現在の画素に対して、
-P≦Pmaxであり、Pmaxが、現在の画素の近傍で取られた、現在の画像内の画素の総数である場合、現在の画像のP画素の空間パッチと、
-現在の画像に関連付けられた深度マップ内の現在の画素に関連付けられた候補深度を提供する、N個の画像のセット内の現在の画像とは少なくとも別の画像におけるP画素の空間パッチの少なくとも投影と、の間でマッチング技術を実施する。深度マップを判定することは、反復的に実施され、深度マップを判定することの各新しい反復は、深度マップを判定することの前の反復において使用された前の値Pよりも低い新しい値Pで実行される。
したがって、反復プロセスに基づく深度マップの判定は、各反復に対して異なる空間パッチの画素を伴い、したがって、LFコンテンツの画像において利用可能なすべての情報の使用を可能にする。
さらに、減少する画素数の画素の空間パッチは、連続的な反復のために連続的に考慮される。したがって、最初に深度マップ内の深度値が判定されたときは、LFコンテンツの画像内の最大数の画素に基づいて判定された深度値に対応する。これにより、より高い品質の結果を得ることができる。
一実施形態によれば、P<Pmaxであり、P画素の空間パッチは、P画素の複数の空間パッチに属する。深度マップを判定することの所与の反復に対して、マッチング技術が、現在の画素に関連付けられた中間深度値のセットおよび対応する信頼値のセットを提供する、P画素の複数の空間パッチに属するP画素の各空間パッチに対して連続的に実施され、現在の画像に関連付けられた深度マップ内の現在の画素に関連付けられた候補深度は、中間深度値のセット内のより高い信頼値の中間深度値である。
したがって、深度マップを判定するために考慮される画素のパッチの所与のサイズに対して、最適な信頼レベルを提供する画素のパッチは、問題の深度マップを判定するために保持される。
一実施形態によれば、P画素の複数の空間パッチは、P画素のすべての空間パッチを含む。
一実施形態によれば、マッチング技術は、コスト関数の最小化を実施する。マッチング技術の連続的な実施は、さらに、コスト関数の最小値のセットを提供し、信頼値は、少なくとも
-最小値のセット内の最小値、または
-最小値のセット内の最小値と少なくとも最後から3番目の最小値との組み合わせ、の関数である。
一実施形態によれば、コスト関数は、
-平均二乗誤差、
-平均絶対差、または
-ゼロ平均正規化相互相関、を含むグループに属するノルムの関数である。
一実施形態によれば、前述のライトフィールドコンテンツのM個の画像の行列内の画素の深度を推定するための方法を実装するためのプログラムコード命令を含む、プログラムコード命令を含む、その上に記録され、プロセッサによって実行することができるコンピュータプログラム製品を含む非一時的コンピュータ可読媒体が提案される。

Claims (13)

  1. ライトフィールドコンテンツのM個の画像(M>2)の行列内の画素の深度を推定するための方法であって、前記M個の画像の中から取られたN個の画像(2<N≦M)の少なくとも1つのセットに対して、
    -N個の深度マップのセットを提供する前記N個の画像のセット内の前記画像に対する深度マップを判定することと、
    -前記N個の画像のセットの現在の画像内の少なくとも1つの現在の画素に対して、
    -前記N個の深度マップのセットのうちの1つの深度マップ内の前記現在の画素に関連付けられた深度値に対応する候補深度が、前記N個の深度マップのセットの前記他の深度マップ(複数可)と整合するか否かを判断することと、
    -前記候補深度が前記N個の深度マップのセットの前記他の深度マップ(複数可)と整合すると判断された場合、前記候補深度を前記現在の画素に対する前記推定された深度であるとして選択することと、を含む、プロセスを含む、方法。
  2. ライトフィールドコンテンツのM個の画像(M>2)の行列内の画素の深度を推定するためのデバイスであって、前記M個の画像の中から取られたN個の画像(2<N≦M)の少なくとも1つのセットに対して、
    -N個の深度マップのセットを提供する前記N個の画像のセット内の前記画像に対する深度マップを判定することと、
    -前記N個の画像のセットの現在の画像内の少なくとも1つの現在の画素に対して、
    -前記N個の深度マップのセットのうちの1つの深度マップ内の前記現在の画素に関連付けられた深度値に対応する候補深度が、前記N個の深度マップのセットの前記他の深度マップ(複数可)と整合するか否かを判断することと、
    -前記候補深度が前記N個の深度マップのセットの前記他の深度マップ(複数可)と整合すると判断された場合、前記候補深度を前記現在の画素に対する前記推定された深度であるとして選択することと、を含む、プロセスを実施するように構成されたプロセッサまたは専用コンピューティングマシンを含む、デバイス。
  3. N<Mであり、前記N個の画像のセットは、前記M個の画像の中から取られたN個の画像の複数のセットに属し、
    前記プロセスの各反復は、N個の画像のセットごとに実行される、請求項1に記載の方法
  4. 前記現在の画素の候補深度が整合するか否かを前記判断することは、前記現在の画素の前記候補深度と前記N個の深度マップのセットの前記他の深度マップ(複数可)との間の幾何学的整合性を判定することを含む、請求項1に記載の方法
  5. 幾何学的整合性を前記判定することは、
    -前記現在の画像とは異なる前記N個の画像のセットの別の画像における理論位置を判定することであって、前記理論位置は、前記現在の画素に関連付けられたオブジェクトポイントの前記他の画像における投影および前記候補深度に対応する、判定することと、
    -前記N個の深度マップのセット内の前記他の画像に関連付けられた深度マップに基づいて、前記理論位置に関連付けられた深度値を取得することと、
    -前記現在の画像において、前記理論位置および前記深度値に関連付けられた別のオブジェクトポイントの前記現在の画像における投影に対応する別の理論位置を判定することと、を含み、
    前記現在の画素と前記他の理論位置との間の前記現在の画像内の距離が所定の閾値を下回るとき、前記現在の画素の前記候補深度が整合すると判断される、請求項4に記載の方法
  6. N>3であり、
    別の画像における理論位置を前記判定することは、理論位置の対応するセットを提供する、前記現在の画像以外の前記N個の画像のセットのすべての他の画像に対して実施され、
    前記理論位置に関連付けられた深度値を前記取得することは、深度値の対応するセットを提供する、前記理論位置のセット内のすべての前記理論位置に対して実施され、
    前記現在の画像において、別の理論位置を前記判定することは、前記理論位置のセット内のすべての前記理論位置に対して、および前記現在の画像内の他の理論位置のセットを提供する、前記深度値のセット内のすべての前記関連する深度値に対して実施され、
    前記現在の画素と前記他の理論位置との間の距離が前記所定の閾値を下回るとき、前記現在の画素の前記候補深度は整合すると判断される、請求項5に記載の方法
  7. 前記現在の画素の候補深度が整合するか否かを前記判断することは、前記現在の画素と前記理論位置(複数可)との間の写真整合性を判定することをさらに含む、請求項4に記載の方法
  8. 前記N個の画像のセット内の前記画像に対する深度マップを前記判定することは、少なくとも前記現在の画素に対して、
    -P≦Pmaxであり、Pmaxが、前記現在の画素の近傍で取られた、前記現在の画像内の画素の総数である場合、前記現在の画像のP画素の空間パッチと、
    -前記現在の画像に関連付けられた深度マップ内の前記現在の画素に関連付けられた前記候補深度を提供する、前記N個の画像のセット内の前記現在の画像とは少なくとも別の画像における前記P画素の空間パッチの少なくとも投影と、の間でマッチング技術を実施し、
    深度マップを前記判定することは、反復的に実施され、深度マップを前記判定することの各新しい反復は、深度マップを前記判定することの前の反復において使用された前の値Pよりも低い新しい値Pで実行される、請求項1に記載の方法
  9. P<Pmaxであり、P画素の前記空間パッチは、P画素の複数の空間パッチに属し、
    深度マップを前記判定することの所与の反復に対して、前記マッチング技術が、前記現在の画素に関連付けられた中間深度値のセットおよび対応する信頼値のセットを提供する、P画素の前記複数の空間パッチに属するP画素の各空間パッチに対して連続的に実施され、
    前記現在の画像に関連付けられた前記深度マップ内の前記現在の画素に関連付けられた前記候補深度は、前記中間深度値のセット内のより高い信頼値の中間深度値である、請求項8に記載の方法
  10. 前記マッチング技術は、コスト関数の最小化を実施し、前記マッチング技術の前記連続的な実施は、前記コスト関数の最小値のセットをさらに提供し、前記信頼値は、少なくとも、
    -前記最小値のセット内の最小値、または
    -前記最小値のセット内の前記最小値と少なくとも最後から3番目の最小値との組み合わせ、の関数である、請求項9に記載の方法
  11. 前記プロセスは、反復的に実施され、前記プロセスの各新しい反復は、前記プロセスの前の反復において使用された前のN値よりも低い新しいN値で実行される、請求項1に記載の方法
  12. プログラムがコンピュータまたはプロセッサ上で実行されるとき、請求項1に記載の方法を実装するためのプログラムコード命令を含むことを特徴とする、コンピュータプログラム
  13. 前記プログラムコード命令がプロセッサによって実行されるとき、請求項1に記載の方法を実行するプログラムコード命令を記憶する、非一時的コンピュータ可読キャリア媒体。
JP2021502893A 2018-07-19 2019-07-17 画素の深度を推定するための方法、対応するデバイス、およびコンピュータプログラム製品 Active JP7423595B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP18305989.8A EP3598390A1 (en) 2018-07-19 2018-07-19 Method for estimating a depth for pixels, corresponding device and computer program product
EP18305989.8 2018-07-19
PCT/EP2019/069246 WO2020016299A1 (en) 2018-07-19 2019-07-17 Method for estimating a depth for pixels, corresponding device and computer program product

Publications (3)

Publication Number Publication Date
JP2021531581A JP2021531581A (ja) 2021-11-18
JPWO2020016299A5 JPWO2020016299A5 (ja) 2022-07-20
JP7423595B2 true JP7423595B2 (ja) 2024-01-29

Family

ID=63165309

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021502893A Active JP7423595B2 (ja) 2018-07-19 2019-07-17 画素の深度を推定するための方法、対応するデバイス、およびコンピュータプログラム製品

Country Status (5)

Country Link
US (1) US11257236B2 (ja)
EP (2) EP3598390A1 (ja)
JP (1) JP7423595B2 (ja)
CN (1) CN112771574B (ja)
WO (1) WO2020016299A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010021843A (ja) 2008-07-11 2010-01-28 Nippon Telegr & Teleph Corp <Ntt> 多視点距離情報符号化方法,復号方法,符号化装置,復号装置,符号化プログラム,復号プログラムおよびコンピュータ読み取り可能な記録媒体
WO2014196374A1 (ja) 2013-06-05 2014-12-11 ソニー株式会社 画像処理装置および画像処理方法
JP2017102708A (ja) 2015-12-02 2017-06-08 日本放送協会 オブジェクト追跡装置及びそのプログラム

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7123742B2 (en) * 2002-04-06 2006-10-17 Chang Kenneth H P Print user interface system and its applications
ATE507542T1 (de) * 2007-07-03 2011-05-15 Koninkl Philips Electronics Nv Berechnung einer tiefenkarte
US10848731B2 (en) * 2012-02-24 2020-11-24 Matterport, Inc. Capturing and aligning panoramic image and depth data
EP3869797B1 (en) * 2012-08-21 2023-07-19 Adeia Imaging LLC Method for depth detection in images captured using array cameras
EP3216006B1 (en) * 2015-04-28 2020-06-10 Huawei Technologies Co., Ltd. An image processing apparatus and method
EP3736771A1 (en) * 2015-12-23 2020-11-11 Gauss Surgical, Inc. Method for estimating blood component quantities in surgical textiles
CN109997170B (zh) * 2016-10-18 2023-08-11 弗托斯传感与算法公司 用于从视图中获得距离信息的设备和方法
CN107038719A (zh) * 2017-03-22 2017-08-11 清华大学深圳研究生院 基于光场图像角度域像素的深度估计方法及系统
CN107545586B (zh) * 2017-08-04 2020-02-28 中国科学院自动化研究所 基于光场极线平面图像局部的深度获取方法及系统
CN108242063B (zh) * 2018-02-06 2020-06-19 清华大学深圳研究生院 一种基于gpu加速的光场图像深度估计方法
EP4216164A1 (en) * 2019-01-28 2023-07-26 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Localization of elements in the space
US10911735B2 (en) * 2019-02-22 2021-02-02 Avalon Holographics Inc. Layered scene decomposition CODEC with asymptotic resolution

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010021843A (ja) 2008-07-11 2010-01-28 Nippon Telegr & Teleph Corp <Ntt> 多視点距離情報符号化方法,復号方法,符号化装置,復号装置,符号化プログラム,復号プログラムおよびコンピュータ読み取り可能な記録媒体
WO2014196374A1 (ja) 2013-06-05 2014-12-11 ソニー株式会社 画像処理装置および画像処理方法
JP2017102708A (ja) 2015-12-02 2017-06-08 日本放送協会 オブジェクト追跡装置及びそのプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Katja Wolff et al.,Point Cloud Noise and Outlier Removal for Image-Based 3D Reconstruction,2016 Fourth International Conference on 3D Vision (3DV),米国,IEEE,2016年10月25日,https://ieeexplore.ieee.org/abstract/document/7785084

Also Published As

Publication number Publication date
CN112771574A (zh) 2021-05-07
EP3598390A1 (en) 2020-01-22
CN112771574B (zh) 2024-03-26
US20210279902A1 (en) 2021-09-09
WO2020016299A1 (en) 2020-01-23
US11257236B2 (en) 2022-02-22
EP3824436A1 (en) 2021-05-26
JP2021531581A (ja) 2021-11-18

Similar Documents

Publication Publication Date Title
US10540806B2 (en) Systems and methods for depth-assisted perspective distortion correction
US11257289B2 (en) Systems and methods for 3D facial modeling
JP7173772B2 (ja) 深度値推定を用いた映像処理方法及び装置
KR102135770B1 (ko) 스테레오 카메라 기반의 3차원 얼굴 복원 방법 및 장치
US10410397B2 (en) Picture presentation method and apparatus
JP2018534698A (ja) Rgbdカメラ姿勢のラージスケール判定のための方法およびシステム
WO2017183470A1 (ja) 三次元再構成方法
US9025862B2 (en) Range image pixel matching method
KR20130104691A (ko) 영상 처리 장치 및 방법
US9460513B1 (en) Method for reconstructing a 3D scene as a 3D model using images acquired by 3D sensors and omnidirectional cameras
US20200288102A1 (en) Image processing method and apparatus
KR102231496B1 (ko) 스테레오-시간적 이미지 시퀀스들로부터 향상된 3-d 데이터 재구성을 위한 방법들 및 장치
DK3189493T3 (en) PERSPECTIVE CORRECTION OF DIGITAL PHOTOS USING DEPTH MAP
US11475629B2 (en) Method for 3D reconstruction of an object
JP7423595B2 (ja) 画素の深度を推定するための方法、対応するデバイス、およびコンピュータプログラム製品
CN110443228B (zh) 一种行人匹配方法、装置、电子设备及存储介质
WO2019019160A1 (zh) 一种图像信息获取方法、图像处理设备及计算机存储介质
RU2777277C1 (ru) Способ оценки глубины для пикселей, соответствующее устройство и компьютерный программный продукт
JP6601893B2 (ja) 画像処理装置、画像処理方法、及びプログラム
KR20110133677A (ko) 3d 영상 처리 장치 및 그 방법
JP5478533B2 (ja) 全方位画像生成方法、画像生成装置およびプログラム
JP2022159253A (ja) フレームカメラへのイベントカメラの画素ごとの登録の方法
JP2014071870A (ja) 仮想視点画像合成装置、仮想視点画像合成方法及び仮想視点画像合成プログラム
US10360719B2 (en) Method and apparatus for obtaining high-quality textures
Kaviani et al. Iterative mask generation method for handling occlusion in optical flow assisted view interpolation

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220707

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220707

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230529

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230705

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231002

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231225

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240117

R150 Certificate of patent or registration of utility model

Ref document number: 7423595

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150