JP5249221B2 - 画像から奥行きマップを決定する方法、奥行きマップを決定する装置 - Google Patents

画像から奥行きマップを決定する方法、奥行きマップを決定する装置 Download PDF

Info

Publication number
JP5249221B2
JP5249221B2 JP2009526255A JP2009526255A JP5249221B2 JP 5249221 B2 JP5249221 B2 JP 5249221B2 JP 2009526255 A JP2009526255 A JP 2009526255A JP 2009526255 A JP2009526255 A JP 2009526255A JP 5249221 B2 JP5249221 B2 JP 5249221B2
Authority
JP
Japan
Prior art keywords
point
image
matching
depth map
windows
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009526255A
Other languages
English (en)
Other versions
JP2010502945A (ja
Inventor
ブゴールベル,ファイサル
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Koninklijke Philips NV
Koninklijke Philips Electronics NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koninklijke Philips NV, Koninklijke Philips Electronics NV filed Critical Koninklijke Philips NV
Publication of JP2010502945A publication Critical patent/JP2010502945A/ja
Application granted granted Critical
Publication of JP5249221B2 publication Critical patent/JP5249221B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes

Description

本発明は、異なる配向から得られた複数の画像から、画像のある点についてウィンドウ・ベースのマッチングを使って奥行きマップを決定する方法に関する。本発明は、異なる配向から得られた複数の画像から、画像のある点についてウィンドウ・ベースのマッチングを使って奥行きマップを決定する装置にも関する。
いくつかの応用について、画像から奥行きマップを決定することが望ましい。そのような応用の例は、対話的に制御可能な配向から見たシーンの画像を計算することを可能にするシステム、画像圧縮、検査などを含む。ステレオ画像から奥行きマップを復元する課題はしばしば、3Dディスプレイ、製造における品質管理、自律的ナビゲーションおよびオブジェクト認識といった幅広い範囲の応用について決定的に重要である。本稿では、画像中のある点の奥行き(depth)とは、視点と、前記点を通りカメラの光学軸に垂直な平面との間の距離を指す。
カメラの視点が第一の視点から第二の視点に動かされるとき、画像点の位置の並進量から画像点の奥行きが決定できる。画像が点投影によって得られる場合、並進はカメラの変位の量に比例し、画像のその部分の奥行きに反比例する。
並進を測定するために、カメラの第一の配向から得られた第一の画像におけるあるピクセルのまわりのあるウィンドウ内のピクセル値が第二の配向から得られた第二の画像におけるあるピクセルのまわりのあるウィンドウ内のピクセル値と比較される、ウィンドウ・ベースのマッチングを使うことが知られている。マッチングは通例、マッチング・ウィンドウ内のピクセルのピクセル値の差の集計(aggregate)を決定することを含む。
適応的ウィンドウを使うことも提案されている。しかしながら、適応的ウィンドウを使うことは、ウィンドウを適応させるために、通例きわめて込み入ったアルゴリズムを必要とする。
ウィンドウ・ベースのマッチングを使って奥行きマップを決定する方法は非特許文献1に記載されている。
既知の方法では、マッチングが実行される画像の各点について、マッチング・ウィンドウが使用され、該マッチング・ウィンドウ内で、着目点の位置が該ウィンドウのすべての点にわたって走査される。マッチング・ウィンドウが着目ピクセルのまわりに非対称的に設定されていてマッチング・ウィンドウがオブジェクト境界をカバーしない場合、境界突出(boundary overreach)は現れない。着目ピクセルは、マッチング・ウィンドウの全集合にわたって走査される。結果として得られるSSSD(SSDの和[Sum of SSD]、ここで、SSDは平方差分和[Sum of Squared differences])の最小値を見出すことで、前記点についての視差推定値(disparity estimate)が与えられる。
既知の方法は、境界突出の問題に解決を提供する。しかしながら、その解決はより多数の計算の必要性という代償を伴う。さらに別の問題が生じる:なめらかな視差表面(smooth disparity surfaces)は破壊され、そのようななめらかな視差表面に多くの階段状の正方形(stepwise squares)が観察される。なめらかな視差表面における問題は、既知の方法では、境界検出方法を実装し、境界領域を非境界領域とは異なる仕方で処理することによって対処される。
奥富正敏ら、「精確なオブジェクト境界およびなめらかな表面を回復するための簡単なステレオ・アルゴリズム」、コンピュータ視覚およびパターン認識2001(CVPR2001)、2001年米国電気電子技術者協会・コンピュータ協会会議集録、第2巻、第II-138‐II-142頁(Masatoshi Okutomi et al., "Simple Stereo Algorithm to Recover Precise Object Boundaries and Smooth Surfaces", Computer Vision and Pattern Recognition 2001, CVPR 2001, Proceedings of the 2001 IEEE Computer Society Conference, Volume 2, 2001, pp. II-138‐II-142, vol. 2)
しかしながら、既知の方法は大量の計算パワーおよびかなり複雑なアルゴリズムを必要とする。
なかんづく、比較的信頼できかつ精確な奥行きの推定を提供しつつ、比較的少なめの計算パワーしか要求しない方法を提供することが本発明の一つの目的である。
本発明によれば、少なくとも画像の一部分について、画像の前記一部分の諸点について、一組のマッチング・ウィンドウが使われ、それにより各点についていくつかの候補奥行き値が計算されて、各点に二つ以上の候補奥行き値が割り当てられる仮の奥行きマップを与え、各点について、近傍点候補奥行き値から前記点の候補奥行き値に向かう単位ベクトルの和のノルムの少なくともz成分を最小化することによってさらなる奥行きマップが計算される。
既知の方法は「勝者総取り」戦略に基づいている。すなわち、各点について、単一の最良の視差値が計算される。これは高い精度を要求し、そのことは大量の計算パワーを要求する。そうではあっても、精度はマッチング・ウィンドウの特定の選択次第である。つまり、ある特定の問題がマッチング・ウィンドウの選択に関連付けられる場合、問題は残る。
本発明では異なるアプローチが取られる。各点について、いくつかの候補視差値が最初に一組のマッチング・ウィンドウを使って計算される。
発明者は、ウィンドウ・ベースの技法についてはウィンドウの適正な選択が重要であることを認識するに至った。用いられるマッチング・ウィンドウの大きさが大きければ、これは不正確な境界をもち細かな詳細が失われたぼやけた奥行きマップにつながりうる。他方、小さなウィンドウを使うことは、計算パワーを節減し、良好である一方、ノイズの影響を受けやすい方法につながりうる。比較的小さなウィンドウを用いたマッチングの結果は、ノイズのある奥行きマップであるが、重要な小さな画像特徴を含んでいるものとなる。着目点についての視差値としてSSDまたはSADスコアが最低になるウィンドウの結果を選択するマルチ・ウィンドウ・マッチングへの一般的なアプローチの代わりに、本発明に基づく方法の主要な特徴は、候補を正則化空間(a regularizing space)として使っての視差推定値の再計算である。ノイズのある仮奥行きマップが作られる。ここで、各点について、いくつかの候補視差値が計算される。そのような計算のためには、限られた計算パワーしか必要とされない。その後、なめらかにする動作が実行されて、各点がz値を与えられる。
「真の視差値」を見出すために候補視差値の平均または中央値を取ることは、有望な結果を与えないことがわかった。しかしながら、再計算のための単位ベクトルを使うと、前記さらなる奥行きマップは良好な結果を与えることがわかった。前記さらなる奥行きマップは、本稿の以下では時に局所的奥行きマップとも呼ばれるが、近傍の諸3D点(近傍内であり、種々のスーパーインポーズされた複数候補データ・セットから来る)からある点をポイントする単位ベクトルを計算し、これらの単位ベクトルの和のノルムの少なくともz成分を前記点において最小化する視差を見出すことによって計算される。これは、表面の前記一部分の各点について行われる。「各点」とは、さらなる奥行きマップが作られるべきであるような画像の部分の点を指す。画像の前記一部分についての前記計算内の点の数は、通例ピクセル数と等価である。この場合には各ピクセルにある点が帰される。「各点」は、数学的な意味での、無限にある「各点」を意味するものと誤解すべきではない。近傍とは、本発明の概念の範囲内では、着目点のまわりの所与の範囲を表す。
好ましい諸実施形態では、単位ベクトルの和のノルムが最小化される。関心が、主として前額平行な表面を復元することにある場合、単位ベクトルの差のノルムのz成分のみを最小化することが十分な手続きでありうる。
より洗練された諸方法では、近傍点の単位ベクトルの和のノルムのすべての成分が最小化される。
好ましくは、単位ベクトルの和は重み付けされた和である。ここで、計算内での各単位ベクトルについての重みは着目点までの距離の関数である。これは精度を改善することになる。着目点の視差値は、着目点から遠く離れた点よりも近くにある近傍点の視差値に似ている可能性がより高い。
好ましくは、前記一組のマッチングは、着目点がマッチング・ウィンドウに対して離心的に位置するような一つまたは複数のマッチング・ウィンドウを含む。正方形のブロックがマッチング・ウィンドウについて最も一般的に使われる形であるが、マッチング・ウィンドウについての離心的に位置された形は、横または縦の辺といった特定の画像特徴上にロックするためにより好適である。画像中の着目点を中心としていないという事実により、ウィンドウの少なくとも一つが、隠蔽する境界(occluding boundaries)の近くで適正にマッチすることができる。
好ましくは、平均からある閾値より大きく異なっている単位ベクトルを計算から削除するチェックが実行される。それにより、逸脱した候補視差値、すなわち何らかの計算誤差のために正常な範囲から大きく外れている候補視差値が結果に負の影響を与える可能性が小さくなる。閾値は固定値であってもよいし、他の値に基づいて計算されてもよいし、あるいはスプレッド計算(a spread calculation)に関係していてもよい。
好ましくは、前記一組のマッチング・ウィンドウは、マッチング・ウィンドウの実質的に直交する集合である。実質的に直交する(orthogonal)マッチング・ウィンドウとは、ウィンドウ間のピクセルの重なりがウィンドウ当たりのピクセル数の1/4未満であるマッチング・ウィンドウである。
好ましい諸実施形態では、マッチング・ウィンドウの数は4であり、それらのマッチング・ウィンドウは十字を形成する。十字は単純な配置であるが、良好な結果を与えることが示されている。
もう一つの好ましい実施形態では、マッチング・ウィンドウの数は8であり、それらのウィンドウはそれぞれが十字を形成する二つの四つ組(foursome)からなり、一方の四つ組が他方の四つ組のウィンドウの左手バージョンまたは右手バージョンである。マッチング・ウィンドウの一つの四つ組を使うことは、若干の左から右または右から左のバイアスを導入しうる。二つの四つ組を使うことによって、このバイアスは消去できる。
もう一つの実施形態では、マッチング・ウィンドウは実質的に三角形状である。
本発明のこれらおよびその他の利点が以下の図面を使ってより詳細に記述される。
図面は縮尺通りに描かれてはいない。一般に、同一の構成要素は複数の図面において同じ参照符号によって示されている。
画像の一部分および二つの配向の幾何学を示す図である。 画像の一部分の画像を示す図である。 Aは、奥行きマップを作成する方法のフローチャートである。Bは、本発明に基づく方法の一部を例解する図である。 結果として得られる仮の奥行きマップを、一次元で線に沿って示す図である。 本発明の方法におけるさらなる段階を示す図である。 従来技術において記載されている一組のマッチング・ウィンドウを示す図である。 本発明の方法のために使用可能なマッチング・ウィンドウの組の実施形態を示す図である。 本発明の方法のために使用可能なマッチング・ウィンドウの組の実施形態を示す図である。 本発明の方法のために使用可能なマッチング・ウィンドウの組の実施形態を示す図である。 本発明の方法のために使用可能なマッチング・ウィンドウの組の実施形態を示す図である。 本発明の方法のために使用可能なマッチング・ウィンドウの組の実施形態を示す図である。 本発明の方法のために使用可能なマッチング・ウィンドウの組の実施形態を示す図である。 本発明の方法のために使用可能なマッチング・ウィンドウの組の実施形態を示す図である。 本発明に基づく方法を示す図である。 本発明に基づく装置を示す図である。 本発明に基づく装置を示す図である。 本発明に基づく方法の結果を示す図である。 本発明に基づく方法の結果をさらに示す図である。 本発明に基づく方法の結果をさらに示す図である。 本発明に基づく方法の結果をさらに示す図である。 本発明に基づく方法の結果をさらに示す図である。
図1は、画像10の一部分および二つの配向12a、12bの幾何構造を示している。画像の一部分はたとえば、人物であってもよいし、画像内の他のいかなるオブジェクトであってもよい。本発明は、画像についての奥行きマップを与える方法に関する。奥行きマップとは、オブジェクトの点にz値、すなわち奥行き値を帰属させるものと見ることができる。画像10の一部分を含むシーンの画像が異なる配向12a、12bからの点投影を使って得られるとき、画像の前記部分の上の点14、15が見える像の中の位置が、点14、15の投影16a、b、17a、bである。投影は、点14、15から配向12a、12bを通って像平面18への描線19a〜19dによって図示できる。基本原理を述べるために、配向12a、bは像平面18に平行な面内に選択されているが、本発明は配向12a、bのそのような選択に限定されない。これらの線19a〜19dと像平面18との交点が、画像10の前記部分の点14、15が像において見える位置を示す。
視点12a、12bの変化は、画像の一部分の上の点14、15が像平面18内に見える位置16a、b、17a、bの並進につながることを注意しておく。この並進は、視点と前記点との間の奥行き「z」に反比例し、視点の位置の変化量に比例する。結果として、並進は、配向12a、12bからの奥行き「z」が異なる画像10の前記部分の点14、15について、異なることになる。
図2は、画像の一部分が見える領域22を含む画像20を示している。画像20において、画像20内に見える画像の前記一部分の点が視点の移動に応答して受ける並進を表す並進ベクトル23a、b、25a、bが示されている。並進ベクトル25a、bは、視点により近い画像の部分の点についてのほうが、視点からより遠い点についてよりも大きくなることを注意しておく。すべての点の奥行きが同じである直線26に沿っては、並進は同じである。
直線26に沿った軸およびその直線に垂直な軸をもつ座標系を使うと、点が見える位置の並進の幅「D」はA+Buに比例する。ここで、uはその点が直線26に垂直な軸に沿って見える位置の座標である。並進の方向は、視点の動きの方向とは逆である。パラメータ「A」はu=0における奥行き「Z0」の逆数に比例し、「B」は同様にその奥行きと、見る方向に垂直な、画像の前記一部分の傾き「s」に比例する:B=c×s/Z0(cは視点の変位、焦点距離および画像のスケールに比例する比例定数)。図1および図2は、二つのカメラが使用される状況を示している。奥行きマップを決定するためには、3つ以上のカメラが使用されてもよい。3つ以上のカメラを使用することは、精度を高め、背景オブジェクトが前景にあるオブジェクトによって隠蔽される可能性を減らす。
図3のAは、画像について、あるいは画像の一部分について奥行きマップを作成する方法の一部のフローチャートを概略的に示している。
フローチャートの第一および第二のステップ31、32では、カメラ光学系が第一および第二の視点にそれぞれ位置される。それらの視点から第一および第二の画像が得られる。
フローチャートの第三のステップ33では、第一の画像中のあるピクセルが選択される。第四のステップ34では、そのピクセルについて、マッチング・ウィンドウを使って前記画像間でマッチがみつけられる。
フローチャートのステップ35では、前記ピクセルに対して、ステップ34の結果、すなわちウィンドウどうしのマッチを使ってz値が割り当てられる。既知の諸方法では、勝者総取りの原則により、各ピクセルに対して、単一の「最良」z値が割り当てられる、すなわち最良マッチが求められ、これが視差値(=z値)を確立する。高い信頼レベルを与えるために、精度は高くなければならない。これはかなり大きなマッチング・ウィンドウの選択につながる。しかしながら、そのような比較的大きなマッチング・ウィンドウは、そのサイズに起因して小さな詳細を捉えることができない。
図3のBは、本発明に基づく方法を示している。着目点について一つの視差値を与えるのではなく、ある着目点について、比較的小さな離心マッチング・ウィンドウのセットが使われ、各点についていくつかの候補視差値(z値1、z値2、z値3など)が与えられる。いかなる点についても確定的な決断はされず、各点に対して二つ以上の候補視差値が割り当てられる。すべての候補視差値が組み合わされたものが、ノイズのある奥行きマップを与える。
図4は、一次元において線に沿って候補視差(すなわちz値)が示される、結果として得られる仮の奥行きマップを示している。この例では、二つの異なる色についての視差値が計算されている。二つの異なる値は概略的に黒丸および白丸で示されている。
図5は、本発明の方法内の次のステップを示している。
ノイズのあるサンプルからある点について実際の奥行き、すなわち実際の視差値を推定するために、図5に示された方式が使用される。各ピクセルについて、再構成されたサンプルから候補点をポイントする単位ベクトルの和のノルムを最小にする奥行き値が計算される。奥行き値が表面から遠い場合には、これらのベクトルの和のノルムは大きいが、表面に当たると、最小または最小近くであると期待される。本記述の枠組み内では、これは「表面フィルタ(surface filter)」とも呼ばれる。すなわち、仮のノイズのある奥行きマップに対して特定的なフィルタリングが行われるのである。仮のノイズのある奥行きマップは、本方法が使われる対象となる画像の前記一部分における各点について、いくつかの候補視差値を含む。単位ベクトルの和自身もベクトルである。
ベクトルのノルムは、数学的には、このベクトルの「強さ」として理解できる。本発明の方法では、これらすべての単位ベクトルの和であるこのベクトルの強さが最小化される。この強さが小さい場合には表面マップに達する。さて、ベクトルの強さを測るいくつかの方法があるが、最も一般的なのはLpノルムである。これは次の公式で記述される:
Figure 0005249221
個別的な場合として:
・L2ノルムまたはユークリッド・ノルム(p=2)
Figure 0005249221
・L1ノルム(p=1)
Figure 0005249221
・L∞と呼ばれる極限の場合で、
Figure 0005249221
として定義される場合、がある。
数学的には、サイトiのまわりの小さな近傍N内での単位ベクトルの和のL-1ノルムが視差diに関して最小化される(下記にL-1ノルムを与えておく)。
Figure 0005249221
ここで、Pi=(Pi x,Pi y,Pz(di))は最適化されるべき視差値diに対応する再構成された点(正則(regular)格子上にいるのでz成分だけがdiに依存する)、Pj=(Pj x,Pj y,Pj z)は異なるウィンドウ配位によって推定される視差に対応する再構成された点である。近傍Nの大きさは小さく保つことができ、一方で、異なる奥行き推定器(異なるウィンドウ・マッチング配位)から来る冗長さのために、表面抽出は堅牢なままである。主として前額平行な表面を復元することに関心があるのであれば、(1)のz成分だけを最小化することができる。これは、計算コストを下げる。
近傍Nは、点に重みを割り当てることによって設定されることもできる。ここで、重みは点の間の距離の関数である。
Figure 0005249221
ここで、W(Pi)は、点Piと点Pとの間の距離の関数で、距離が増すにつれて値が減少する。
計算は、表面の各点についてなされる。そこにあるいくつの点が計算にはいるかは、通例、ピクセル数に等しい。すなわち、各ピクセルに点が割り当てられ、その点について、単位ベクトルの和のノルムを最小化することによってz値が計算される。これは、計算を比較的簡単にする。
これは、視差値に対して平滑化フィルタ効果をもつことになる。着目点のまわりのある範囲の点が使われるので、これは、本発明の枠組み内では、表面フィルタ(surface filter)と呼ばれる。
完全性のため、やはり使用可能なL-2ノルムも与えておく:
Figure 0005249221
L-2ノルム={S2(di)}1/2である。
さらなる実施形態では、画像制約条件が使われる。
表面フィルタは、堅牢に視差を抽出するが、奥行き不連続の過剰な平滑化は避けることを示すことができる。そして、小さな詳細のよりよい復元のために、画像マッチング制約条件(image-matching constraint)も含める。この条件のために、いかなる局所的な画像類似性基準を使うこともできる。たとえば、非常に小さなウィンドウ上でのSSDを採用することができる。局所的に最小化される最終的な基準は:
E(i)=S(di)+λSSD(di) (2)
である。ここで、λはなめらかな視差領域抽出を精確な境界復元とバランスさせる因子である。最適化は、単に最小および最大の許容される離散的視差値の間を走査してE(i)を最小化する視差を見出すことによって実行される。
ある意味では、これは、ある点についてのSSDと近傍点からの単位ベクトルの和のノルムの組み合わせを最小化する組み合わされた方法と見ることができる。単位ベクトルの和のノルムは最小化されるが、前記和のノルムにその点におけるSSDを加えたものによって与えられるE(i)が最小化されるという制約条件のもとでである。
図6は、非特許文献1に記載される一組のマッチング・ウィンドウを示している。25個のウィンドウが使用され、各ウィンドウは25個のピクセルを含む。「着目点」と呼ばれるz値が決定されようとしているピクセル61は黒い正方形によって表されている。5×5ピクセルの標準的なマッチング・ウィンドウが使用され、着目ピクセルが該標準的なウィンドウのすべての点にわたって走査される。これは25個のマッチング・ウィンドウ62を与える。図4では、これら25個のマッチング・ウィンドウは灰色の正方形からなる5×5の領域によって表されている。大量の計算を実行する必要がある。
図7は、本発明の方法および装置において使用される一組のマッチング・ウィンドウを示している。マッチング・ウィンドウの間の重なりは小さい。
図8は、ウィンドウの組のさらなる例を示している。
図9は、本発明に基づく方法および装置で使用されるウィンドウの組のさらにもう一つの例を示している。この場合、4つのマッチング・ウィンドウからなる組二つが使用される。
図10は、本発明に基づく方法および装置で使用されるウィンドウの組のさらにもう一つの例を示している。
図11は、さらなる例を示している。
図12および図13は本発明のさらなる実施形態を示している。これらの例では、8つの三角形ウィンドウの組が使用される。
マッチング・ウィンドウの示された例のいずれも正方形ではないことを注意しておく。好ましくは、マッチング・ウィンドウは非正方形である。これは、長方形もしくは三角形のマッチング・ウィンドウといった非正方形の形をしたウィンドウは、横および縦の辺(図11に示されるような長方形マッチング・ウィンドウまたは三角形について)あるいは45度の角度の辺(三角形マッチング・ウィンドウについて)といった特定の画像特徴の上にロックするのにより好適だからである。
図7、図8、図9に示される例は、実質的に長方形の形のマッチング・ウィンドウを示す。ウィンドウは互いに直交して配向され、組み合わさって十字形を形成する。これらのマッチング・ウィンドウは、図9に示されるマッチング・ウィンドウのように、縦および横の方向に沿った辺を示す。縦および横の方向に沿って配向されたそのような長方形の形のマッチング・ウィンドウが最も好ましい。
好ましくは、諸マッチング・ウィンドウは同じ形をもち、形の四つ組を形成し、前記形は配向され、各マッチング・ウィンドウの形は別のマッチング・ウィンドウの形と関係しており、別のマッチング・ウィンドウの90度、180度または270度回転によって得られるものであってもよい。図7ないし図13の諸セットはそのような配置を示している。ここで、マッチング・ウィンドウの各セットは、一つ(図7、図8、図9、図10)または二つ(図9、図12)の基本配向形から、それを90度、180度および270度回転させて他の形を与えることで導出されている。好ましくは、視差候補を生成するために互いに直交する方向に配向された小さな比較的細いマッチング・ウィンドウを採用することによってバランスが取られる。
この方式は、仮奥行きマップに基づいて、さらなる奥行きマップを与える。
計算は、いくつかの好ましい改良によってさらに最適化されうる。
・S(D)の計算において、平均値からある閾値より大きく異なる単位ベクトルをS(D)の計算から削除するチェックが実行される。逸脱した候補視差値、すなわち何らかの計算誤差に起因する候補視差値が結果に負の影響を与える可能性が小さくなる。閾値は固定値であってもよいし、他の値に基づいて計算されてもよいし、あるいはスプレッド計算(a spread calculation)に関係していてもよい。
・偽のマッチを拒否し、隠蔽された領域を検出するために種々の方式が可能である。ある簡単な方式は、ストレートな左‐右/右‐左整合性チェックである。これは、得られた対応の一意性を保証し、隠蔽領域のラベル付けを許容する。
・画像ベースの後処理
突出値(outlier)拒否および隠蔽検出は前記さらなる奥行きマップにおける穴、すなわち視差値がない領域を生じることになる。突出値拒否および隠蔽検出ステップから帰結する穴を埋めるため、我々は色に基づく平均化を使う。これは、我々のサイト(Ri,Gi,Bi)での色に近い色ピクセルに対応する視差の平均(局所的な近傍内での)を計算することからなる。ある穴におけるサイトiにおける奥行きを再計算するために非線形フィルタが使用されることができる。
Figure 0005249221
ここで、TCは色差閾値である。
Σjwij=0の場合については、古い奥行き値が保持される。
このフィルタは、逐次反復的に使用されることができ、奥行きマップの境界を対応する色画像の境界と再整列させるという利点がある。これは3Dレンダリング用途のためには非常に重要である。色差閾値を含める選択は、実際の画像不連続に一致する鋭い奥行き不連続をもちたいという意向によって要求されるものである。実際上、この選択はうまく機能することが証明されている。
図14は、本発明に基づく方法をより詳細に示している。
図14は、4つのモジュール141〜144を示している。最初の二つのモジュール141および142は最も広い範囲における本発明の方法の一部である。あとの二つのモジュール143および144は、好ましい実施形態の一部であり、任意的である。
第一のモジュール141に対して、左および右の画像のデータが、あるいは画像が二つより多い視点から撮られる場合にはさまざまな視点からの画像データが与えられる。このモジュールでは、ウィンドウ・ベースのマッチングを使って仮奥行きマップが生成される。この仮奥行きマップは、各点について二つ以上の候補視差値を含むものであり、表面フィルタ・モジュール142に送られる。表面フィルタ・モジュールは、前記点を近傍点についての候補視差値からポイントする単位ベクトルの和のノルムの少なくともz成分を最小化することによって、表面フィルタを仮奥行きマップに適用する。これはさらなる奥行きマップを提供する。任意的であるさらなるモジュール143および144は、突出値/隠蔽検出およびその後の穴充填を提供する。最終産物は最終的な奥行きマップである。
本発明に基づく装置は、異なる配向から得られた画像データを入力するための入力と、前記入力によって受領された画像データから前記画像のある点についてウィンドウ・ベースのマッチングを使って仮奥行きマップを決定する決定器(142)とを有する。ここで、前記決定器においては、一組のマッチング・ウィンドウが前記画像の前記点について使用されて、前記諸点について候補視差値を生成する。ここで、前記一組のマッチング・ウィンドウは前記諸点に関して離心的に位置されており、当該装置はさらに、各点について、前記点を近傍点についての候補視差値からポイントする単位ベクトルの和のノルムの少なくともz成分を最小化することによって、仮奥行きマップに基づいてさらなる奥行きマップを提供するよう構成されている表面フィルタ(142)を有する。
図15は、本発明に基づく装置を示している。図15では立方体によって表現されているあるオブジェクトについて、二つのカメラによって画像が取得される。この例では二つのカメラが示されているが、本装置は三つ以上のカメラを有していてもよい。カメラはカラー画像または白黒画像またはX線画像または赤外線画像を記録してもよい。カメラのそれぞれは2セットのデータを与え、データの各セットは二次元画像を表す。2セットのデータは、図ではD1(x1,y1)およびD2(x2,y2)によって示されている、すなわち2つの二次元データ・セットである。前記複数のカメラは異なる配向から画像を取得する。本装置は、異なる配向から取得された画像を入力するための入力Iと、決定器141とを有する。決定器内において、前記画像が、本発明に基づいてマッチング・ウィンドウ手法を使ってマッチされる。決定器は仮奥行きマップを与え、これが表面フィルタ142に送られる。表面フィルタ142はさらなる奥行きマップを与える。このさらなる奥行きマップは、突出値拒否/隠蔽検出および画像ベースの穴充填によってさらに改善されてもよい。
割り当て器151において、前記ピクセルに対して、前記さらなる奥行きマップ、あるいは最終的な奥行きマップを使ってz値が割り当てられる。好ましくは、カメラからのデータがカメラ相互の配向についてのデータを含む、決定器がカメラ相互の配向を決定する手段を有する、あるいはカメラがそのような相互配向を決定器に伝える手段を有する、あるいは決定器がそのようなデータを(たとえば手で)入力するための手段を有する、あるいはカメラのセットアップが固定で相互配向が既知である。カメラによる画像の取得は、好ましくは同期される。本装置は出力OPを有する。出力データ・ストリームD(x,y,z)は、点のxおよびy座標の両方ならびにz座標、すなわち奥行きマップを含むデータ・ストリームである。この出力データ・ストリームD(x,y,z)は、たとえば該データ・ストリームをDVDデータ担体もしくは他の任意のデータ担体上に記録するために、記録装置に送られてもよい。あるいは出力データ・ストリームD(x,y,z)は、三次元画像を表示するための三次元表示装置に送られてもよい。
図15は、カメラのような記録装置を有する装置を示している。
図16は、たとえばDVDのようなデータ担体のための入力をもつ装置を示している。該データ担体上に、データD1(x1,y1)およびD2(x2,y2)ならびにカメラ相互配向についてのデータ(D(cam1,cam2))が記憶されている。本発明に基づく装置は前記データを読み、出力データ・ストリームD(x,y,z)を与える。
本発明に基づく装置の好ましい諸実施形態は、マッチング・ウィンドウが非正方形であるなど、前記方法の上述した好ましい諸実施形態の任意の一つまたは任意の組み合わせに基づいて奥行きマップを決定する手段を有する。
本発明に基づく装置は画像を記録する手段を有していてもよい。すなわち、本装置は、画像を取得するための前記のカメラを含んでいてもよい。ここでは、カメラが画像についてのデータを前述の入力に送る。本装置は、記録装置からデータを受領してもよい。
本発明の概念の範囲内では、「決定器」フィルタなどは広義に理解されるものであり、たとえば記載された決定、選択またはマッチング機能を実行するために設計された任意のハードウェア(決定装置のような)、任意の回路または部分回路、ならびに、本発明に基づく決定、選択またはマッチング動作を実行するよう設計されたまたはプログラムされた任意のソフトウェア(コンピュータ・プログラムまたはサブプログラムまたはコンピュータ・プログラムのセットまたはプログラム・コード)、ならびに、単独でまたは組み合わせでそのように機能するハードウェアおよびソフトウェアの任意の組み合わせを含むものであり、以下に与える例示的な実施形態に制限されることはない。一つのプログラムがいくつかの機能を組み合わせてもよい。
図17は、本発明に基づく方法の結果を示している。
性能評価のために、我々のアルゴリズムをスチール画像の対(図17)に対して走らせてみる。最初の二つの画像が左と右の画像であり、最後の図が奥行きマップの画像を与えるもので、グレー値が奥行きの指標になっている。結果は、低テクスチャー領域内での奥行きの抽出および奥行き不連続における高い精度の両方において、非常に良好な性能を示している。低テクスチャー領域内の奥行きの堅牢な再現は、堅牢な表面フィルタの使用および複数の候補から来る冗長性によって許容されるものである。また、表面の暗黙的モデルの使用も重要な因子であった。整合性を検査することによる突出値拒否も、左から右へおよび右から左への奥行き推定値の堅牢性からすると、うまく機能しており、ほとんど隠蔽されたまたは事実上無テクスチャーの領域が検出されている。最後に、画像ベースの後処理段階が、非常に単純であるにもかかわらず、適正なギャップ充填および境界再整列の両方を許容する。画像シーケンスに対する試験は、本発明に基づくアルゴリズムが、高品質の奥行きおよび良好な時間整合性(time consistency)の両方を与えたことを示した。一方、そのようなシーケンスについては、収束(convergence)が局所的であり、よって初期化が決定的になることからすると、主要な最適化駆動の技法(the leading optimization-driven techniques)はそれほど安定ではないことが立証された。本発明のもう一つの利点は、システムのモジュール的性質である。これは柔軟な実装を許容し、リアルタイムでの稼働につながる最適化の妥協を許容する。
図18Aないし図18Dは本発明をさらに例解する。
図18Bには、図18Aの左(L)‐右(R)画像対の、図7に示されるような四つの異なる小さな細いウィンドウ(左の二つは水平のウィンドウをもち、右の二つは垂直のウィンドウをもつ)を使ったステレオ・マッチング〔ステレオ照合〕の結果が示されている。得られた仮奥行きマップは予想通り非常にノイズがあるものである。メジアン・フィルタリングの結果が図18Cに示されており、図18Dの本発明の表面フィルタの結果と比較される。このように、図18Dは、本発明に基づく方法によって作られたさらなる奥行きマップを示す。メジアン・フィルタは奥行きマップを過剰に平滑化し、細かな詳細の損失につながることが明らかである。たとえばランプ上には、図18Dでは図18Cより多くの詳細が見える。表面フィルタは他方、このように、ノイズを除去しつつ、元来の奥行きマップからより多くの情報を再現する。画像ベースの後処理のあとの最終的な結果は、メジアン・フィルタについても表面フィルタについても改善された。前記さらなる奥行きマップおよび最終的な奥行きマップがもとからわかっている事実と比較されるとき、表面フィルタはメジアン・フィルタより15%少ない「不良ピクセル」を有している。
まとめると、本発明は次のように記述されうる:
異なる配向から得られた複数の画像から奥行きマップを決定するために、ウィンドウ・ベースのマッチングが使用される。奥行きが決定されるべき画像の諸点について、一組のマッチング・ウィンドウが使用される。仮奥行きマップが生成される。仮奥行きマップでは、各点に対して、二つ以上の候補視差値が帰属させられる。仮奥行きマップは、表面フィルタを使ってフィルタリングされる。それにより、着目点を近傍点についての候補視差値からポイントする単位ベクトルの和のノルムの少なくともz成分が最小化される。
本発明はまた、本発明に基づく方法または装置についての何らかのコンピュータ・プログラム・プロダクトにおいても具現される。コンピュータ・プログラム・プロダクトのもとでは、汎用ものもであれ特殊目的のものであれプロセッサが、コマンドをプロセッサに取り込むための一連のローディング・ステップ(これは中間言語および最終的なプロセッサ言語への翻訳のような中間的な変換ステップを含んでいてもよい)後に、発明の特徴的機能のいずれかを実行することができるようにするコマンドの集合の任意の物理的な実現が理解されるべきである。特に、コンピュータ・プログラム・プロダクトは、たとえばディスクまたはテープのような担体上のデータ、メモリ内に存在するデータ、有線または無線のネットワーク接続を通じて伝搬するデータまたは紙の上のプログラム・コードとして実現されてもよい。プログラム・コードは別として、本プログラムのために要求される特徴的なデータがコンピュータ・プログラム・プロダクトとして具現されてもよい。
本方法の機能のために要求されるステップのいくつかは、データ入力および出力ステップのように、コンピュータ・プログラム・プロダクトにおいて記述される代わりに、プロセッサの機能性において既に存在していてもよい。
上述した実施形態は本発明を限定するのではなく例解すること、当業者は付属の請求項の範囲から外れることなく多くの代替的な実施形態を設計できるであろうことを注意しておくべきであろう。
請求項において、括弧に入れられた参照符号があったとしてもその請求項を限定するものと解釈してはならない。
本発明の枠組み内において、多くの変形が可能であることは明らかであろう。本発明が、本稿で上に個別的に示され、説明されてきたことによって限定されないことは、当業者は理解するであろう。本発明は、新規な特徴的な点一つ一つおよび特徴的な点の組み合わせの一つ一つに存する。請求項における参照符号はその保護範囲を限定しない。
たとえば、本方法は、画像の一部分のみについて使用されてもよい。あるいは本発明の方法の異なる諸実施形態が画像の異なる一部分について使用されてもよい。たとえば、画像の中心について一つの実施形態を使い、画像の周辺について別の実施形態を使うのである。
また、前記諸例では、三次元での単位ベクトル、すなわち三つの座標x、y、z座標をもつ単位ベクトルが使用されている。より高次元のベクトルが使用されてもよい:
一例は、空間座標(Px,Py,Pz)および関連する赤、緑、青の色値(Pr,Pg,Pb)を含む六次元ベクトルの使用である。これは増大したベクトル(Px,Py,Pz,Pr,Pg,Pb)を与える。この場合を使うと、今やL-1ノルムについての基準を次のように
Figure 0005249221
と一般化できる。
また、重みが単位ベクトルに割り当てられるとき、これは視差候補と着目点との間の距離の関数であることができるが、使用されるマッチング・ウィンドウに依存して割り当てられる重みもあってよい。示された諸例で与えられるように配向は異なるが基本的に一様であるマッチング・ウィンドウのセットが使用されるとき、すべての推定が等しい重みである可能性が非常に高い。しかしながら、マッチング・ウィンドウのセットは、大きさまたは形において根本的に異なる複数のマッチング・ウィンドウをもつことができる。一例は、図7に示される型と図10に示される型の複合されたマッチング・ウィンドウの複合セットを使うことであろう。各点に対して、各サブセットについて4つで、8つの候補視差値が割り当てられることになる。候補視差値の重みはサブセット内では同じであってもよいが、サブセット間では異なっていてもよい。この信頼重みは、異なる推定器での自らの経験に依存してユーザーによって与えられる固定された数であってもよい。
「有する」およびその活用形の使用は、請求項において述べられている以外の要素の存在を排除するものではない。要素の単数形の表現はそのような要素の複数の存在を排除するものではない。

Claims (19)

  1. 複数の異なる配向から得られた画像から、画像の点についてウィンドウ・ベースのマッチングを使って奥行きマップを決定する方法であって、少なくとも画像の一部分について、画像の前記一部分の点について、一組のマッチング・ウィンドウが使われ、それにより各点についていくつかの候補奥行き値が計算されて、各点に二つ以上の候補奥行き値が割り当てられる仮の奥行きマップを与え、各点について、近傍点の候補奥行き値から前記点の候補奥行き値に向かう単位ベクトルの和のノルムの少なくともz成分を最小化することによってさらなる奥行きマップが計算される、方法。
  2. 近傍点の単位ベクトルの和のノルムのすべての成分が最小化される、請求項1記載の方法。
  3. 前記一組のマッチングが、着目点がマッチング・ウィンドウに対して離心的に位置するような一つまたは複数のマッチング・ウィンドウを含む、請求項1記載の方法。
  4. 前記単位ベクトルの和は重み付けされた和であり、計算内での各単位ベクトルについての重みは着目点までの距離の関数である、請求項1ないし3のうちいずれか一項記載の方法。
  5. 平均からある閾値より大きく異なっている単位ベクトルを計算から削除するチェックが実行される、請求項1ないし4のうちいずれか一項記載の方法。
  6. 前記一組のマッチング・ウィンドウは、マッチング・ウィンドウの直交する集合である、請求項1ないし5のうちいずれか一項記載の方法。
  7. マッチング・ウィンドウの数は4であり、該マッチング・ウィンドウは十字を形成する、請求項6記載の方法。
  8. マッチング・ウィンドウの数は8であり、該ウィンドウは二つの四つ組からなり、一方の四つ組は他方の四つ組をなす諸ウィンドウの左手バージョンまたは右手バージョンであり、各四つ組が十字をなす、請求項7記載の方法。
  9. 前記マッチング・ウィンドウが三角形状である、請求項6記載の方法。
  10. 前記さらなる奥行きマップに対して
    ・突出値拒否および
    隠蔽検出
    のうちの少なくとも一方が実行される、請求項1ないし9のうちいずれか一項記載の方法。
  11. 前記さらなる奥行きマップに対して画像ベースの穴充填が実行される、請求項10記載の方法。
  12. 当該プログラムがコンピュータ上で走らされたときに請求項1ないし11のうちいずれか一項記載の方法を実行するためのプログラム・コード手段を有するコンピュータ・プログラム。
  13. 請求項1ないし11のうちいずれか一項記載の方法を実行するための、コンピュータ可読媒体上に記憶されたプログラム・コード手段を有するコンピュータ・プログラム。
  14. 複数の異なる配向から得られた画像データを入力するための入力と、前記入力によって受領された画像データから、前記画像のある点についてウィンドウ・ベースのマッチングを使って仮奥行きマップを決定する決定器とを有する装置であって、前記決定器においては、一組のマッチング・ウィンドウが前記画像の前記点について使用されて、前記諸点について候補奥行き値が生成され、当該装置はさらに、前記仮奥行きマップに基づいて、各点について、近傍点の候補奥行き値から前記点の候補奥行き値に向かう単位ベクトルの和のノルムの少なくともz成分を最小化することによって、さらなる奥行きマップを提供するよう構成されている表面フィルタを有する、装置。
  15. 前記表面フィルタが近傍点の単位ベクトルの和のノルムのすべての成分を最小化するよう構成されている、請求項14記載の装置。
  16. 前記決定器が、前記一組のマッチングが、着目点がマッチング・ウィンドウに対して離心的に位置するような一つまたは複数のマッチング・ウィンドウを含むよう構成されている、請求項14記載の装置。
  17. 前記表面フィルタが、前記単位ベクトルの和は重み付けされた和であり、計算内での各単位ベクトルについての重みは着目点までの距離の関数であるよう構成されている、請求項14記載の装置。
  18. 前記表面フィルタが、平均からある閾値より大きく異なっている単位ベクトルを計算から削除するチェックが実行されるよう構成される、請求項14記載の装置。
  19. 当該装置が画像を記録する手段を有する、請求項14記載の装置。
JP2009526255A 2006-09-04 2007-09-04 画像から奥行きマップを決定する方法、奥行きマップを決定する装置 Expired - Fee Related JP5249221B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP06120051.5 2006-09-04
EP06120051 2006-09-04
PCT/IB2007/053550 WO2008029345A1 (en) 2006-09-04 2007-09-04 Method for determining a depth map from images, device for determining a depth map

Publications (2)

Publication Number Publication Date
JP2010502945A JP2010502945A (ja) 2010-01-28
JP5249221B2 true JP5249221B2 (ja) 2013-07-31

Family

ID=38961271

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009526255A Expired - Fee Related JP5249221B2 (ja) 2006-09-04 2007-09-04 画像から奥行きマップを決定する方法、奥行きマップを決定する装置

Country Status (6)

Country Link
US (1) US8326025B2 (ja)
EP (1) EP2064675B1 (ja)
JP (1) JP5249221B2 (ja)
KR (1) KR20090052889A (ja)
CN (1) CN101512601B (ja)
WO (1) WO2008029345A1 (ja)

Families Citing this family (60)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101288105B (zh) 2005-10-11 2016-05-25 苹果公司 用于物体重现的方法和系统
US9330324B2 (en) 2005-10-11 2016-05-03 Apple Inc. Error compensation in three-dimensional mapping
JP5174684B2 (ja) 2006-03-14 2013-04-03 プライムセンス リミテッド スペックル・パターンを用いた三次元検出
WO2008120217A2 (en) * 2007-04-02 2008-10-09 Prime Sense Ltd. Depth mapping using projected patterns
US8494252B2 (en) * 2007-06-19 2013-07-23 Primesense Ltd. Depth mapping using optical elements having non-uniform focal characteristics
US8456517B2 (en) * 2008-07-09 2013-06-04 Primesense Ltd. Integrated processor for 3D mapping
CN101673395B (zh) 2008-09-10 2012-09-05 华为终端有限公司 图像拼接方法及装置
CA2747544C (en) * 2008-12-19 2016-06-21 Saab Ab System and method for mixing a scene with a virtual scenario
KR101526866B1 (ko) * 2009-01-21 2015-06-10 삼성전자주식회사 깊이 정보를 이용한 깊이 노이즈 필터링 방법 및 장치
WO2010087955A1 (en) * 2009-01-30 2010-08-05 Thomson Licensing Coding of depth maps
US8462207B2 (en) * 2009-02-12 2013-06-11 Primesense Ltd. Depth ranging with Moiré patterns
US8786682B2 (en) 2009-03-05 2014-07-22 Primesense Ltd. Reference image techniques for three-dimensional sensing
US8717417B2 (en) 2009-04-16 2014-05-06 Primesense Ltd. Three-dimensional mapping and imaging
US8933925B2 (en) * 2009-06-15 2015-01-13 Microsoft Corporation Piecewise planar reconstruction of three-dimensional scenes
JP4934701B2 (ja) * 2009-06-30 2012-05-16 株式会社日立製作所 ステレオ画像処理装置およびステレオ画像処理方法
US9582889B2 (en) * 2009-07-30 2017-02-28 Apple Inc. Depth mapping based on pattern matching and stereoscopic information
US8830227B2 (en) 2009-12-06 2014-09-09 Primesense Ltd. Depth-based gain control
US8982182B2 (en) 2010-03-01 2015-03-17 Apple Inc. Non-uniform spatial resource allocation for depth mapping
US8837774B2 (en) * 2010-05-04 2014-09-16 Bae Systems Information Solutions Inc. Inverse stereo image matching for change detection
US8885890B2 (en) * 2010-05-07 2014-11-11 Microsoft Corporation Depth map confidence filtering
US9098931B2 (en) 2010-08-11 2015-08-04 Apple Inc. Scanning projectors and image capture modules for 3D mapping
KR101640404B1 (ko) * 2010-09-20 2016-07-18 엘지전자 주식회사 휴대 단말기 및 그 동작 제어방법
US8983121B2 (en) * 2010-10-27 2015-03-17 Samsung Techwin Co., Ltd. Image processing apparatus and method thereof
WO2012066501A1 (en) 2010-11-19 2012-05-24 Primesense Ltd. Depth mapping using time-coded illumination
US9131136B2 (en) 2010-12-06 2015-09-08 Apple Inc. Lens arrays for pattern projection and imaging
BR112013021276A2 (pt) * 2011-02-23 2018-06-12 Koninklijke Philips Nv dispositivo e método de processamento de sinal para processar dados da imagem tridimensional, gerador de ponto de vista, gerador dos dados de profundidade e programa de computador
US9030528B2 (en) 2011-04-04 2015-05-12 Apple Inc. Multi-zone imaging sensor and lens array
US8982117B2 (en) 2011-06-22 2015-03-17 Samsung Display Co., Ltd. Display apparatus and method of displaying three-dimensional image using same
US8817073B2 (en) * 2011-08-12 2014-08-26 Himax Technologies Limited System and method of processing 3D stereoscopic image
US20140241434A1 (en) * 2011-10-11 2014-08-28 Mediatek Inc Method and apparatus of motion and disparity vector derivation for 3d video coding and hevc
US20130094753A1 (en) * 2011-10-18 2013-04-18 Shane D. Voss Filtering image data
KR20130047822A (ko) * 2011-11-01 2013-05-09 삼성전자주식회사 영상 처리 장치 및 방법
JP5985661B2 (ja) 2012-02-15 2016-09-06 アップル インコーポレイテッド 走査深度エンジン
US9070196B2 (en) 2012-02-27 2015-06-30 Samsung Electronics Co., Ltd. Apparatus and method for estimating disparity using visibility energy model
KR101913321B1 (ko) 2012-05-10 2018-10-30 삼성전자주식회사 깊이 센서 기반 반사 객체의 형상 취득 방법 및 장치
US9571818B2 (en) * 2012-06-07 2017-02-14 Nvidia Corporation Techniques for generating robust stereo images from a pair of corresponding stereo images captured with and without the use of a flash device
WO2014000664A1 (en) 2012-06-28 2014-01-03 Mediatek Inc. Method and apparatus of disparity vector derivation in 3d video coding
CN104412597B (zh) 2012-07-05 2017-09-08 联发科技股份有限公司 用于3d视频编码的统一视差矢量推导的方法及装置
US9299152B2 (en) * 2012-12-20 2016-03-29 Hong Kong Applied Science And Technology Research Institute Co., Ltd. Systems and methods for image depth map generation
US9171373B2 (en) * 2012-12-26 2015-10-27 Ncku Research And Development Foundation System of image stereo matching
CN103974055B (zh) * 2013-02-06 2016-06-08 城市图像科技有限公司 3d照片生成系统及方法
WO2014166109A1 (en) * 2013-04-12 2014-10-16 Mediatek Singapore Pte. Ltd. Methods for disparity vector derivation
US10009621B2 (en) * 2013-05-31 2018-06-26 Qualcomm Incorporated Advanced depth inter coding based on disparity of depth blocks
US20140363097A1 (en) 2013-06-06 2014-12-11 Etron Technology, Inc. Image capture system and operation method thereof
CN105359520B (zh) * 2013-07-15 2017-12-12 联发科技(新加坡)私人有限公司 在三维视频编码中的深度编码方法和装置
WO2015006900A1 (en) * 2013-07-15 2015-01-22 Mediatek Singapore Pte. Ltd. A disparity derived depth coding method
FR3013488B1 (fr) 2013-11-18 2017-04-21 Univ De Nice (Uns) Procede d'estimation de la vitesse de deplacement d'une camera
TW201528775A (zh) 2014-01-02 2015-07-16 Ind Tech Res Inst 景深圖校正方法及系統
JP6401922B2 (ja) * 2014-03-13 2018-10-10 株式会社メガチップス 物体検出装置
CN105082888A (zh) * 2014-05-06 2015-11-25 低碳动能开发股份有限公司 一种轮胎胎纹侦测装置
US9858719B2 (en) 2015-03-30 2018-01-02 Amazon Technologies, Inc. Blended reality systems and methods
JP2017021759A (ja) * 2015-07-15 2017-01-26 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
JP6908025B2 (ja) * 2016-04-06 2021-07-21 ソニーグループ株式会社 画像処理装置と画像処理方法
US10237530B1 (en) * 2016-06-29 2019-03-19 Amazon Technologies, Inc. Depth-map augmentation techniques
US10212408B1 (en) 2016-06-29 2019-02-19 Amazon Technologies, Inc. Depth-map augmentation techniques
KR102507383B1 (ko) * 2016-11-08 2023-03-08 한국전자통신연구원 직사각형 윈도우를 이용한 스테레오 정합 방법 및 스테레오 정합 시스템
US10445861B2 (en) * 2017-02-14 2019-10-15 Qualcomm Incorporated Refinement of structured light depth maps using RGB color data
KR102468897B1 (ko) 2017-10-16 2022-11-21 삼성전자주식회사 깊이 값을 추정하는 방법 및 장치
CN110070500B (zh) * 2019-03-21 2020-12-08 浙江大学 一种深度图像的后处理方法
CN111223059B (zh) * 2020-01-04 2022-02-11 西安交通大学 一种基于引导滤波器的鲁棒深度图结构重建和去噪方法

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4532546A (en) 1984-01-04 1985-07-30 Itek Corporation Real time single frame memory for converting video interlaced formats
EP1418766A3 (en) * 1998-08-28 2010-03-24 Imax Corporation Method and apparatus for processing images
US6269175B1 (en) * 1998-08-28 2001-07-31 Sarnoff Corporation Method and apparatus for enhancing regions of aligned images using flow estimation
JP4524514B2 (ja) * 1999-08-05 2010-08-18 ソニー株式会社 画像処理装置、画像処理方法、および記録媒体
EP1374174A2 (en) * 2000-09-07 2004-01-02 Koninklijke Philips Electronics N.V. Image matching
JP3915664B2 (ja) * 2002-05-15 2007-05-16 日本電気株式会社 画像処理装置及びそれに用いる画像処理方法並びにそのプログラム
JP2006513502A (ja) * 2003-01-17 2006-04-20 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 完全な奥行きマップを得る方法

Also Published As

Publication number Publication date
CN101512601A (zh) 2009-08-19
EP2064675B1 (en) 2012-11-21
JP2010502945A (ja) 2010-01-28
WO2008029345A1 (en) 2008-03-13
EP2064675A1 (en) 2009-06-03
US20090324059A1 (en) 2009-12-31
KR20090052889A (ko) 2009-05-26
CN101512601B (zh) 2013-07-31
US8326025B2 (en) 2012-12-04

Similar Documents

Publication Publication Date Title
JP5249221B2 (ja) 画像から奥行きマップを決定する方法、奥行きマップを決定する装置
US10846844B1 (en) Collaborative disparity decomposition
US7224357B2 (en) Three-dimensional modeling based on photographic images
Li et al. Stereo reconstruction from multiperspective panoramas
Strecke et al. Accurate depth and normal maps from occlusion-aware focal stack symmetry
EP1442614B1 (en) Method and apparatus for image matching
US8447099B2 (en) Forming 3D models using two images
US7103211B1 (en) Method and apparatus for generating 3D face models from one camera
US8452081B2 (en) Forming 3D models using multiple images
JP6143747B2 (ja) 深度測定の品質の向上
Jain et al. Exploiting global connectivity constraints for reconstruction of 3D line segments from images
Kubota et al. Reconstructing dense light field from array of multifocus images for novel view synthesis
da Silveira et al. Dense 3D scene reconstruction from multiple spherical images for 3-DoF+ VR applications
US8340399B2 (en) Method for determining a depth map from images, device for determining a depth map
Saxena et al. 3-d reconstruction from sparse views using monocular vision
KR100944293B1 (ko) 단일 축 회전 영상들로부터의 효율적인 전 방향 3차원모델의 재구성 방법
Lhuillier Toward flexible 3d modeling using a catadioptric camera
Argiles et al. Dense multi-planar scene estimation from a sparse set of images
Fu et al. Computing visibility for triangulated panoramas
CN117456114B (zh) 基于多视图的三维图像重建方法及系统
Chen et al. Stereo with zooming
Cavan Reconstruction of 3d points from uncalibrated underwater video
Laycock et al. Image Registration in a Coarse Three‐Dimensional Virtual Environment
Wong et al. Computing Visibility for Triangulated Panoramas
Okarma et al. Vector median splatting for image based rendering

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100902

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121022

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121120

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121221

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130319

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130411

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160419

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees