JP2009517683A - ステレオビジョンにおいて散乱視差場を求める方法 - Google Patents

ステレオビジョンにおいて散乱視差場を求める方法 Download PDF

Info

Publication number
JP2009517683A
JP2009517683A JP2008542846A JP2008542846A JP2009517683A JP 2009517683 A JP2009517683 A JP 2009517683A JP 2008542846 A JP2008542846 A JP 2008542846A JP 2008542846 A JP2008542846 A JP 2008542846A JP 2009517683 A JP2009517683 A JP 2009517683A
Authority
JP
Japan
Prior art keywords
image
pixel
point
camera
window
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008542846A
Other languages
English (en)
Other versions
JP4887374B2 (ja
Inventor
ジャンルカ・フランチーニ
スクヤルグ・レプソイ
ジョヴァンニ・プレスティ
Original Assignee
テレコム・イタリア・エッセ・ピー・アー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by テレコム・イタリア・エッセ・ピー・アー filed Critical テレコム・イタリア・エッセ・ピー・アー
Publication of JP2009517683A publication Critical patent/JP2009517683A/ja
Application granted granted Critical
Publication of JP4887374B2 publication Critical patent/JP4887374B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/147Details of sensors, e.g. sensor lenses
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Vascular Medicine (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

同じ場面を撮影する2台のカメラ(T,T)を備えたステレオビジョン用システム(100)において、エピポーラ幾何が知られている場合に散乱視差場を求める方法が実行される。この方法は、2台のカメラにより2つの異なる位置から当該場面の第1の画像及び第2の画像(IM,IM)を取り込むステップ;第1の画像中の少なくとも1つのピクセルを選択するステップであって、前記ピクセルは当該場面の1つのポイントに関連付けられており、第2の画像はこれも当該場面の前記ポイントに関連付けられた1つのポイントを含んでいる前記ステップ;及び前記ピクセルから第2の画像内の前記ポイントまでの変位を計算して費用関数を最小化するステップを含む。この費用関数は、第1の画像と第2の画像との間の差に依存した項と、エピポーラ直線から第2の画像内の前記ポイントまでの距離に依存した項とを含む。カメラを校正する際の誤差又は不確かさを考慮するために、前記ポイントの存在が許容されているエピポーラ直線のサブセットの周りの許容領域に属しているか否かをチェックする。
【選択図】図2

Description

一般に、本発明はステレオビジョンのために画像を自動的に分析する方法を取り扱い、特に、エピポーラ幾何が知られている場合に散乱視差場を求める方法を取り扱う。
画像を自動的に分析する際に解決すべき頻出課題は、1台以上のカメラにより異なる視点から得られた同じ場面を示す2つのフレーム間に存在する視差(disparity)を求めることである。視差は、同じ場面要素の2つのフレームの位置に関係する。すべての画像ピクセルに対して視差を計算するアルゴリズムや、ピクセルのサブセット(すなわちポイント群)に限定されたアルゴリズムが存在する。前者の場合は密な視差場(dense disparity field)を扱い、後者の場合は散乱視差場(scattered disparity field)を扱う。本発明は二番目のカテゴリーに属する。
2つのフレーム間に存在する散乱視差場を求める一般的な技術では、関係のある関連ポイント(すなわち特徴的な画像領域を記述するポイント)を特定して関連付ける。この目的のためにいくつかのアルゴリズムがあり、これらのアルゴリズムは角、エッジ、輪郭、又は(フレーム間でもっともらしく関連付け得る、すなわち曖昧さを低減する)他の任意の特徴を特定することに基づいている。これらのアルゴリズムは、異なる時間に1台のカメラにより撮られた一般フレーム間のポイントをトラッキングするために作られた。
「コンピュータビジョン」の分野では、異なるフレーム間の対応を探す課題を取り扱っている文献が数多く存在する。特に、ステレオビジョンにおいて、主な目標の一つは、n個の異なるビュー(n≧2)から開始して表示された対象物の距離を求めることである。n=2の場合、対応を決定するために、ビジョンシステムを記述するパラメータ(すなわちカメラの特徴及び位置)を考慮に入れて、同じ場面に関係した2つの画像間に存在する関係を記述するいわゆる基本マトリックスが用いられる。この関係とは、第1の画像(フレーム)上に1つのポイントをとると、第2の画像(フレーム)上の対応ポイントがエピポーラ線と称される直線上に存在することを意味する。
画像中に存在している特徴を特定しトラッキングすることに基づいて、散乱視差場を計算するために用いることのできる最もよく知られたアルゴリズムの一つが、Carlo Tomasi及びTakeo Kanadeによる論文「Shape and Motion from Image Stream − Part 3 − Detection and Tracking of Point Features」,Technical Report CMU−CS−91−132,1991年4月に記載されており、当該技術においてKLT(Kanade−Lucas−Tomasi)技術として知られている。この論文に記載されているように、フレーム間での正確なポイントトラッキングのために解決すべき2つの重要な課題、すなわち、トラッキングされる特徴をいかにして選択するか(「特徴選択」)と、それらをフレーム毎にいかにしてトラッキングするか(「トラッキング」)という課題がある。特に、この論文には、2つのフレーム間のポイント特徴の2次元変位ベクトル(視差ベクトル)が知られていない2×2線形系(これは最小化すべき費用関数に変換し得る)によってトラッキングを実行するためのアルゴリズムが記載されている。KLT技術は、一連の画像に関係する場合や、同じ場面の同時画像の場合にも効率的に使用できる。
J.Shi及びC.Tomasiの論文「Good Features to Track」,IEEE Conference on Computer Vision and Pattern Recognition(CVPR94),Seattle,1994年6月は、KLT技術に基づいており、トラッキングを実行し得る特徴についての選択基準を提案している。
J.Mendelsohn,E.Simoncelli及びR.Bajcsyの論文「Discrete−Time Rigidity−Constrained Optical Flow」,7th International Conference on Computer Analysis of Images and Patterns,1997年9月10〜12日は、密な場の計算を扱っており、(密な場を構成している)視差ベクトルがエピポーラ直線上に存在する位置を示していることを課している。この拘束により、エピポーラ直線が正確に知られている場合に得ることができる結果を改善することができる。
H.Najafi及びG.Klinkerの論文,「Model-based Tracking with Stereovision for AR」,Proceedings of the Second IEEE and ACM International Symposium on Mixed and Augmented Reality (ISMAR),2003は、第2のフレーム中の対応するポイントがエピポーラ直線上に存在しないような特徴を除去するために、KLT技術の下流の基本マトリックスを使用することを提案している。したがって、2台のカメラからなる構成と矛盾する視差ベクトルが除去される。
Carlo Tomasi及びTakeo Kanadeによる論文「Shape and Motion from Image Stream − Part 3 − Detection and Tracking of Point Features」,Technical Report CMU−CS−91−132,1991年4月 J.Shi及びC.Tomasiの論文「Good Features to Track」,IEEE Conference on Computer Vision and Pattern Recognition(CVPR94),Seattle,1994年6月 J.Mendelsohn,E.Simoncelli及びR.Bajcsyの論文「Discrete−Time Rigidity−Constrained Optical Flow」,7th International Conference on Computer Analysis of Images and Patterns,1997年9月10〜12日
発明の簡単な説明
出願人は、特に2台以上のカメラの場合にしばしば利用可能な基本マトリックスの知識をKLT技術が利用していないことに気付いた。
また、出願人は、基本マトリックスを利用する視差計算技術では、ポイントがエピポーラ線上に存在するという拘束を有すること、及びこの拘束によってカメラの正確な校正のみを仮定する正確な結果が得られることに気付いた。しかしながら、一般にこの校正は推定によって得られるので、誤差又は不正確さを含む。
出願人は、校正プロセスにより計算し得る基本マトリックスに属する情報を考慮に入れるためにKLT方法を適切に修正することによって、抽出された視差場の質を改善できることを見いだした。特に、出願人は、絶対的な拘束を設定することなく基本マトリックスを考慮に入れるべくポイントトラッキングを修正することによって、本システムを校正する際の誤差を補正すべく随意に本プロセスに作用できることを見いだした。
特に、出願人は、エピポーラ線とサーチされたポイントとの距離の二乗に比例した項をKLT技術の費用関数に導入することで、配置がエピポーラ直線から外れることを可能にすることによって、おおよその校正が行われた場合にも正確な結果を得られることを見いだした。そのようにして得られた結果は、元のKLT技術を適用して得ることのできる結果よりも優れ、特定されたポイントがエピポーラ直線上にのみ存在するという拘束を課することにより得ることのできる結果よりも優れ得る。
好ましくは、第1の画像のピクセルに関連付けられた第2の画像のポイントを決定するために、費用関数最小化ステップが、前のサイクルで得られた費用関数の更新を毎回用いて多数回繰り返される。
また、出願人は、エピポーラ直線に関して有効領域を更に制限できることを見いだした。この制限は半直線(エピポーラ直線のサブセット)により表され、これにより、この半直線の近くの位置を示さないすべての視差ベクトルが除去される。
本発明を適用する好ましい分野は、コンピュータビジョンであり、特に多くの視点から撮影される場合である。
以下、限定するものではないが、本発明の適用例を示す添付図面に関して本発明を説明する。
発明の詳細な説明
図1は、複数のカメラでビデオ撮影するシステム全体を100で示す。特に、このシステム100は、同じ場面を異なる位置から撮ることができると共に、このようにして撮られた画像間の散乱視差場を決定できる。
システム100は第1のカメラTと第2のカメラTとを含み、両カメラとも同じ場面について夫々のデジタル画像(又はフレーム)IM、IMを生成できる。これら2台のカメラT、Tは互いに平行となるか又は互いに傾斜するように当該場面に向けることができる。
システム100は、両カメラT、Tに接続された処理装置PUを更に備え、この処理装置PUは、後で説明する方法により散乱視差場を得るべく、これら2台のカメラT、Tから受け取ったデジタル画像IM及びIMを処理できる。また、システム100は処理装置内又は別の装置内に存在しているカメラ校正モジュールCM、好ましくはソフトウエアモジュールを備え、このモジュールは、本発明の方法による処理のために用いられる校正データを処理装置に提供できる。
同じ場面についての2つの同時画像間に存在する関係は、1つのカメラにより撮られた一連の連続した画像において存在する関係に類似している。したがって、画像特徴の変位を求める課題は、上記論文においてShi及びTomasiにより示唆されている特徴の選択と共にKLTトラッキング技術を参照することで解決できる。
一連の画像は関数F(x,y,t)により表すことができる。ここで、Fは強度(白黒の場合にはスカラー強度)を示し、x及びyは空間座標(フレーム内の位置)であり、tは時間である。KLT技術の基礎ともなっている一般的な近似では、時間tと時間t+τとの間での画像変化を空間歪みとして次のように表す。
ここでu(x,y)及びv(x,y)は2つの空間方向における変位量である。式(1)は文献において「輝度変化拘束方程式」(BCCE)として知られている。
このことは、時間tでのすべての画像ポイントを適当な量だけ移動させること(変位という)によって時間t+τでの画像を得ることができることを意味する。画像中のすべてのピクセルの変位を知ることによって、画像自体の視差場を構築できる、すなわち関連フレームに適用されると他の時間でのフレームを構成可能な1セットのベクトルを構築できる。
実際には、BCCEは正確には成り立たない。画像の一つ中の部分的に隠された対象物を考えれば十分である。すなわち、このような対象物は1つのフレームから次のフレームに「移動」せず、単に現れ又は消えている。同じ問題は画像のエッジでも見られ、画像エッジでは対象物が場面に入ってきたり、場面から外れたりする。いずれにしても、KLT技術ではすべてのピクセルではなくいくつかの特徴を考慮し、これらの特徴について、変位計算の下流のBCCE正確さの推定を行うことができる。
本発明の技術では、当該場面に属する異なる特徴について独立に2(又はそれより多い)フレーム間に存在する視差場を計算し、したがって散乱場を生成する。
要するに、図1に示されるように、本発明の方法は後に詳細に説明する以下のステップを含む。
- カメラの固有のパラメータ(焦点距離や投影中心など)及び付随的なパラメータ(回転-並進マトリックス)を計算することによりカメラT、Tを構成するステップ(ブロック110);
- 画像IMの特徴を抽出するステップ(ブロック120);
- 校正パラメータを考慮して第2の画像IM上の特徴をトラッキングするステップ(ブロック130);及び
- 後に述べる第2の画像IM中の許容領域内に存在するポイントを計算から除去するステップ(ブロック140)。
除去するステップは本発明の方法において好ましいものであるが、必須ではない。本方法の出力は、第1の画像IMの特徴と第2の画像IMの対応するポイントの特徴との一致である。
上述したように、散乱視差場を計算する課題は、2つの部分に分割できる。2つの部分とは、トラッキングされる対象物、すなわち画像特徴をいかにして選択するか、及び選択した対象物をいかにしてトラッキングするかである。本発明はトラッキング操作に関するものである。
2つの時刻t及びt+τでの上記関数Fは、2つの関数I及びJとして次のように表すことができる。
及び
ここで、dは座標x=(x,y)を有するピクセルに関連付けられた変位ベクトルであり、2つの成分u及びvを含む。この変位を挿入することにより、式(1)により表されたBCCEを次のように書き換えることができる。
この方法は選択されたすべてのポイントに独立に適用されるので、動きを計算しなければならない対象物(すなわちピクセルx)が中心に位置しているピクセルの窓Wを考慮することができる。式(4)は窓W内において残差を除いて有効である。残差は次のように表すことができる。
最適な変位ベクトルdは式(5)の残差を最小にすることにより得られる。式(5)は線形ではないので、それを解くには、線形に変換するのが好ましい。これは変位ベクトルdが小さい場合に1次で切り捨てたテーラー近似を用いることによって次のように可能である。
ここで、gはx=(x,y)にて求められた関数Jの勾配である。
窓W内に含まれるすべてのピクセルに対して式(6)を分離することにより、次の連立方程式が得られる。
ここで、J(p)及びJ(p)は一般ピクセルpにおける勾配ベクトルの2つの要素であり、Nは窓W内に含まれるピクセルの数である。
連立方程式(8)はマトリックス形式にて次のように表すことができる。
式(9)はコンパクトな形式Ad=bに書き直すことができる。マトリックスAは、適用される窓内に含まれるピクセルにおける第2のフレームの輝度勾配から成る。ベクトルbは、同じ窓内の2つのフレームのピクセル間での輝度差から成る。ベクトルdは計算すべき変位である。変位は1ピクセル(よって離散座標を有する)に必ずしも向かっている必要はないが、より一般的には第2の画像の1ポイント(これも隣接した2つのピクセル間の中間に存在し得る)に向かっていることが分かる。
次のようにして各式に重みを掛けることにより、窓に属するすべてのピクセルに相対的重要度を割り当てるのが有利である。
ここで、
よって、一般ピクセルpに割り当てられる重みはWに等しい。窓の中心に存在しているピクセルに対してより大きな重要度を与えるように重みが用いられる。
この連立方程式はN個の式(N>2)と2つの未知数から構成されており、最小2乗近似を表す正規方程式により次のように解くことができるので、この連立方程式は優決定の連立方程式である。
ここで、
KLT技術はトラッキングすべきポイントを選択する基準を更に含む。この選択は、例えばShi-Tomasiの教示に基づいた公知の技術により行うことができる。いずれにしても、この選択基準は、マトリックスGの逆行列が得られること(invertibility)を保証しなければならない。
上記で述べた事項はすべて、図1のフレームIM及びIMと同様に同時に撮られ同じ場面を示す一対のフレームについても有効である。この場合、実際には、2つの関数I及びJが第1の画像IM及び第2の画像IMにそれぞれ関連付けられる。2つのフレームIM、IMが式(1)を満たすことができるために必要な条件は、2台のカメラT、Tが互いに十分接近して配置されること、及び2台のカメラT、Tが同じ場面部分を撮影することである。
同じ場面の2つの撮影の間の関係は、エピポーラ幾何により表される。両方の撮影において見ることのできる場面中のすべての要素は、2つのフレームIM、IM内にて単純な式に従った位置に投影される。この式の係数は、3x3要素から成る基本マトリックスF中に含まれている。2つのフレーム内での投影位置は、次のように同種の座標で特定される。
及び
ここで、x、y、x、yは、撮影された要素を示す2つのフレーム内での2つのピクセルの座標である。これらの座標は次式を満たす必要がある。
したがって、これら2つのフレームのうち第1のフレーム内のポイントmを考えると、第2のフレーム内のポイントmは、積Fmにより係数が決定される直線上に存在しなければならない。対称的に、第2のフレーム内のポイントmを考えると、ポイントmは、積m F中に含まれる係数を有する直線上に存在する。これらの直線はエピポーラと称される。これらの関係はエピポーラ幾何を構成し、これは基本マトリックスFにより完全に表される。
本明細書においては、基本マトリックスを決定する固有のカメラ校正パラメータ及び付随的なカメラ校正パラメータが両方とも既知であると仮定する。しかしながら、出願人は、校正は推定誤差から影響を受け得るので、このようにして提供される情報を絶対的な拘束として用いるのは不正確となり得ることが分かった。
校正パラメータの知識から得られる情報を関連付けるためには、式(9)から得られる特定の関数の最小化としてKLT技術を解釈するのが便利である。この式は優決定の方程式であり、最小二乗近似により解くことができる。すなわち、その解法は、Ad−bにより与えられるいわゆる残ノルム(residue norm)の最小を見つけることに対応する。したがって、上記で述べた問題を次のように、
すなわち最小化すべき費用関数として言い換えることができる。式(10)に導入された重みを考慮すると、式(13)は次のようになる。
実際には、このようにして得られたベクトルは常に正確であるわけではなく、すなわち一方のフレームからもう一方のフレームへの対象物の変位に必ずしも対応しているとは限らない。例えば、このことは、KLTアルゴリズムを基にした線形近似が有効でない場合に起こり得る。
2台のカメラの場合、校正に関する情報を考慮することができ、したがって結果を改善することができる。エピポーラ幾何は、変位ベクトルdを計算するために特徴をサーチする必要のある第2のフレーム内で当該領域についての指示を与える。
本発明は、式(14)中に既に含まれているものに加えるべき拘束に構成データを変換することにより、校正データを利用する。この拘束はエピポーラ情報にリンクされた費用項に変換される。この幾何が正確に知られているならば、サーチされるポイントはエピポーラ直線上に存在すべきである。推定により構成が得られること、したがって誤差又は不正確さを有することを考慮すると、校正情報に関係したバレンス(valence)を割り当てるのが更に好ましい。したがって、考慮しなければならないのは、本解法がエピポーラ直線から外れることであり、これは本発明において、エピポーラ線とサーチされるポイントとの距離の2乗に比例した項を費用関数(14)に導入することによって得られる。
したがって、式(14)は次の形式を仮定する。
ここで、ρは、ポイントz+d(すなわちポイントz=[x y]からd=[u v]なる量だけ平行移動したポイント)とL(すなわちポイントzに関連付けられたエピポーラ直線)とのユークリッド距離を表す関数である。係数λはあらかじめ設定しおく必要があり、これも基本マトリックスに割り当てられた信頼度に依存して発見的手法により決定できる。λの値が大きくなればなるほど、基本マトリックスの正確さが増すことを基にする。現実の解法がエピポーラ直線上に存在するよう拘束するまで、λを増すことができる。
エピポーラ直線は基本マトリックスFにより得られる。第2のフレーム内で、ポイントz+dから当該直線の距離は次式により表すことができる。
ここで、係数a、b及びcは次に示す積により与えられる。
その結果、当該直線上の任意のポイントm=[x 1]は次式を満たす。
式(15)の解は次の正規方程式から得ることができる。
ここで、ベクトルp及びrは次式により定義される。
及び
ステップごとにテーラー級数の更新を行なう反復計算によってより正確な結果を得るために式(11)及び(14)を拡張できる。この場合、視差ベクトルは多くの項から構成される。ステップごとに1項が加えられ、最後の解は次式で表すことができる。
ここで、すべての項は下記のベクトルである。
ステップ数Mでの式(9)は下記のようになる。
又は、簡単に下記のように示すことができる。
したがって、式(11)は反復数Mにて下記のようになる。
この反復はM=1にてd=0で初期化される。反復の総数はあらかじめ設定することもできるし、又は最後に加えられた項のノルムに依存して決定することもできる。
式(20)に記載されたベクトルrを修正することにより、式(15)の解を与える正規方程式(18)を上記の反復計算プロセスに適合させることができる。このベクトルは反復数Mにて下記の形式をとることが仮定される。
ここまで説明したプロセスは、計算する必要がある変位ベクトルの方向についての情報を付加する、すなわち式(15)がエピポーラ幾何に一致する変位ベクトルを生成する。しかしながら、このことはベクトル自体を正確に特徴付けるには十分ではあり得ない。というのは、エピポーラ直線に対する拘束が或る程度自由なままだからである。この或る程度の自由さは、式(15)の第2項はエピポーラ直線に向かう解をとるが、第2のフレーム内の真の特徴位置に必ずしも向かってはいないからである。エピポーラ直線の許容領域を導入することで、それを半直線に変換することによって、この問題を小さくすることができる。
このチェックは、図2に関して、撮られた場面内で有限距離にて見いだし得るポイントPを、第1のフレームIM内の特徴Aに関連付けることができることに基づいている。したがって、ポイントPの投射である第2のフレームIMに関連付けられたエピポーラ直線L上にポイントBを配置できる。ポイントA上に投射される場面の任意の対象物は半直線AP上に存在するので、第2のフレーム内の当該対象物の投射は、半直線APの投射である半直線S上に存在する必要がある。したがって、この半直線はエピポーラ直線のサブセットである。
不確かな校正の信頼性に起因してエピポーラ直線から外れる可能性を考慮すると、図3から分かるように、ポイントBを頂点として有しかつ半直線Sを含んだ許容領域Zまで許容可能なサブセットを拡張できる。
このような考えに基づくと、場面幾何を満たしていない変位ベクトルを効率的に除去できるチェックを実施できる。ポイントBが第2のフレームIM内にある場合に有効なこのチェックにより、ポイントz+dが許容領域Z内に存在しないすべての候補{z、d}(特徴及び変位ベクトル)をこのように除去できる。領域Zは異なる形状を有し得る。Zは、ポイントBの近くを通過する曲線により画定され半直線Sを含んだ平面のサブセットである必要がある。
半直線Sは下記のように表すことができる。
ここで、Kは負でない係数であり、
はエピポーラ直線に平行な方向ベクトルである。
半直線Sを定めるのに用いられる要素は、カメラ校正パラメータの知識から得ることができる。中でも、2台のカメラの固有のパラメータはマトリックスK及びKに含まれ、第2の機械に関連付けられた回転マトリックス及び平行移動ベクトル(付随的なパラメータ)はR及びtで示される。詳しくは、Richard Hartley及びAndrew Zissermanのテキスト,「Multiple Vision Geometry」,Cambridge University Press,2000,153〜156及び244頁を参照のこと。マトリックスR及びベクトルtは第2のカメラに属する座標系を第1のカメラに属する座標系に変換する。第1のフレーム内の特徴Aは同種の座標にて下記のように表すことができる。
ポイントB(無限遠に存在するポイントPの投影)はA及び校正パラメータにより下記のように表すことができる。
ここでRは回転マトリックスRの第3行を示す。ベクトルwはポイントAから次式により得られる。
方向ベクトル
は次式により表すことができる。
ここで、tは平行移動ベクトルtの第3要素である。
例として、図3に関して、許容領域を次のようにして定めることができる。正確さを検証する必要があるポイントの位置は、和z+dにより与えられる。Bから開始しz+dと交差する半直線が、特定の閾値より小さい半直線Sとの角度を形成する場合には、当該ポイントは許容領域に属する。この場合、それが属するか否かのチェックは、ベクトル項にて下記の関係を検証するものとして表すことができる。
ここで、規格化されたベクトル間の内積は設定される閾値θ∈[0,1]を超える。最小の閾値は0であり、この場合には許容領域は、ポイントB内でエピポーラ直線に垂直な直線により画定されかつ半直線Sを含んだ半平面である。閾値が1の値に向かって更に増加すれば、許容領域は更に限定される。図3は0〜1の中間の閾値に対応する許容領域を示しており、上記の基準に基づき許容できないポイントz+d’の例が示されている。
上記処理の結果、処理装置PUの出力として、第1のフレームIMから抽出された特徴と第2のフレームIM中に見いだされた対応するポイントとの間の関連性が得られ、よって当該ポイント自体にリンクされた変位ベクトルdが得られる。
いくつかの例を図4〜9に示す。図4及び5は、本発明を構成するアルゴリズムを適用し、異なる角度から撮った同じ場面の一対のフレームを含む。
図6は元々の方法で実行されたKLTトラッキング技術の結果を示し、図7は本発明の技術により得られた結果を示す。両図とも、トラッキングのために選択された特徴の変位ベクトルを線分として示す。図から分かるように、図7では線分が更に十分に密着して相互に方向付けられており、このことは誤差がより少ないことを示す。
図8及び9はいくつかの重要な詳細を示しており、本発明により与えられる利点がより明らかになっている。これらの画像の各々において、左上の長方形(8a、9a)は第1のフレームにより抽出された特徴を中心にしており、右上の長方形(8b、9b)は元のKLT技術により得られた第2のフレーム中の当該ポイントを中心にしており、右下の長方形(8c、9c)は本発明により得られた第2のフレーム中の当該ポイントを中心にしている。右の両長方形では、関連特徴に関連付けられたエピポーラ直線が示されおり、かなりの改善が得られたことが分かる。
2台のカメラと、本発明のプロセスを構成するブロックとを含んだビデオ撮影用システムを概略的に示す。 2台のカメラにより撮られた画像を概略的に示し、それらの一方の上に、もう一方の画像のピクセルに関連付けられたエピポーラ線を示している。 上記エピポーラ線と視差ベクトルの許容領域とを示す上記画像を表す。 本発明の技術と元の方法で実行されるKLT技術との比較テストのために異なる角度から撮られた同じ場面の一対のフレームを示す。 本発明の技術と元の方法で実行されるKLT技術との比較テストのために異なる角度から撮られた同じ場面の一対のフレームを示す。 元の方法で実行されるKLTトラッキング技術の結果を示す。 本発明の技術により得られた結果を示す。 図6及び7に示された結果の比較を詳細に示す。 図6及び7に示された結果の比較を詳細に示す。
符号の説明
100 ビデオ撮影システム
第1のカメラ
第2のカメラ
IM デジタル画像
IM デジタル画像
CM カメラ校正モジュール
PU 処理装置

Claims (11)

  1. ステレオビジョンにおいて散乱視差場を求める方法であって、
    ・2つの異なる位置から同じ場面の第1の画像及び第2の画像を取り込むステップであって、前記第1の画像のピクセルからなる少なくとも1セットが前記第2の画像上のポイントの対応するセットに関連付けられる前記ステップ;
    ・前記第1の画像中の少なくとも1つのピクセルを選択するステップ;及び
    ・前記ピクセルに関連付けられた前記第2の画像のポイントを決定するステップであって、前記ピクセルと前記ポイントとの間の視差ベクトルを変数として有する費用関数を最小化することを含み、前記費用関数が、前記ピクセルが中心位置にある窓内及び決定すべきポイントが中心位置にある対応する窓内での第1の画像と第2の画像との差に依存している前記ステップ;
    を含み、前記費用関数が、前記ピクセルに関連付けられた前記第2の画像中のエピポーラ直線から、決定されるべき前記ポイントまでの距離に単調増加にて依存する項を含むことを特徴とする方法。
  2. 前記第1の画像及び第2の画像が第1のカメラ及び第2のカメラからそれぞれ取り込まれ、前記項が前記第1のカメラ及び第2のカメラの校正パラメータに依存している請求項1に記載の方法。
  3. 前記項がカメラ校正データの不確かさに依存して重み付けされる請求項2に記載の方法。
  4. 前記項が前記ポイントと前記エピポーラ直線との距離の2乗に比例している請求項1に記載の方法。
  5. 前記ピクセルに関連付けられた前記第2の画像のポイントを決定するステップが、前記第2の画像内で前記エピポーラ直線の周りの前記ポイントの許容領域を画定することを含む請求項1〜4のいずれか一項に記載の方法。
  6. 前記許容領域が、前記エピポーラ直線に垂直な直線により画定された半平面内に含まれる請求項5に記載の方法。
  7. 前記費用関数が、前記第2の画像内の前記ピクセルが中心位置にある前記窓のピクセルにおける輝度勾配と、前記ピクセル上に中心位置がある前記窓のピクセルと同じ窓内の前記第2の画像のピクセルとの間の輝度差とから構成されるパラメータを含む、請求項1〜6のいずれか一項に記載の方法。
  8. 前記ピクセルに関連付けられた前記第2の画像のポイントを決定するステップが、前記ピクセルが中心位置にある前記窓内に含まれるすべてのピクセルに相対重みを加えることを含む、請求項1〜7のいずれか一項に記載の方法。
  9. 前記ピクセルが中心位置にある前記窓の中央領域内のピクセルに加えられる重みが、前記窓の外部領域内のピクセルに加えられる重みよりも大きい請求項8に記載の方法。
  10. 前記ポイントを決定するステップが費用関数を最小化する前記ステップを含む請求項1〜9のいずれか一項に記載の方法。
  11. 同じ場面を撮影できる第1の撮影カメラ及び第2の撮影カメラと、前記第1の撮影カメラ及び第2の撮影カメラから前記場面の夫々の同時画像を受信できる処理装置とを備え、前記処理装置が請求項1〜10のいずれか一項に記載の方法によって前記夫々の画像を処理するよう構成されているステレオビジョン用システム。
JP2008542846A 2005-11-30 2005-11-30 ステレオビジョンにおいて散乱視差場を求める方法 Expired - Fee Related JP4887374B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/IB2005/003598 WO2007063352A1 (en) 2005-11-30 2005-11-30 Method for determining scattered disparity fields in stereo vision

Publications (2)

Publication Number Publication Date
JP2009517683A true JP2009517683A (ja) 2009-04-30
JP4887374B2 JP4887374B2 (ja) 2012-02-29

Family

ID=36968909

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008542846A Expired - Fee Related JP4887374B2 (ja) 2005-11-30 2005-11-30 ステレオビジョンにおいて散乱視差場を求める方法

Country Status (5)

Country Link
US (1) US8275195B2 (ja)
EP (1) EP1958458B1 (ja)
JP (1) JP4887374B2 (ja)
CN (1) CN101356831B (ja)
WO (1) WO2007063352A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014002725A1 (ja) * 2012-06-29 2014-01-03 富士フイルム株式会社 3次元測定方法、装置、及びシステム、並びに画像処理装置

Families Citing this family (78)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101347000B (zh) 2005-12-21 2010-09-01 意大利电信股份公司 用于确定立体视觉中密集差异区的方法
US11792538B2 (en) 2008-05-20 2023-10-17 Adeia Imaging Llc Capturing and processing of images including occlusions focused on an image sensor by a lens stack array
EP2289235A4 (en) 2008-05-20 2011-12-28 Pelican Imaging Corp RECORDING AND PROCESSING IMAGES BY MONOLITHIC CAMERA ARRANGEMENT WITH HETEROGENIC IMAGE TRANSFORMER
US8866920B2 (en) 2008-05-20 2014-10-21 Pelican Imaging Corporation Capturing and processing of images using monolithic camera array with heterogeneous imagers
CN102077246A (zh) * 2008-06-24 2011-05-25 汤姆森特许公司 利用运动补偿进行图像的深度提取的系统和方法
GB2473248A (en) 2009-09-04 2011-03-09 Sony Corp Determining image misalignment by comparing image characteristics at points along a line
WO2011063347A2 (en) 2009-11-20 2011-05-26 Pelican Imaging Corporation Capturing and processing of images using monolithic camera array with heterogeneous imagers
WO2011081646A1 (en) * 2009-12-15 2011-07-07 Thomson Licensing Stereo-image quality and disparity/depth indications
SG10201503516VA (en) 2010-05-12 2015-06-29 Pelican Imaging Corp Architectures for imager arrays and array cameras
WO2012060093A1 (ja) * 2010-11-05 2012-05-10 パナソニック株式会社 ステレオ画像処理装置及びステレオ画像処理方法
US8878950B2 (en) 2010-12-14 2014-11-04 Pelican Imaging Corporation Systems and methods for synthesizing high resolution images using super-resolution processes
WO2012086173A1 (ja) * 2010-12-20 2012-06-28 パナソニック株式会社 ステレオ画像処理装置及びステレオ画像処理方法
WO2012155119A1 (en) 2011-05-11 2012-11-15 Pelican Imaging Corporation Systems and methods for transmitting and receiving array camera image data
EP2726930A4 (en) 2011-06-28 2015-03-04 Pelican Imaging Corp OPTICAL ARRANGEMENTS FOR USE WITH AN ARRAY CAMERA
US20130265459A1 (en) 2011-06-28 2013-10-10 Pelican Imaging Corporation Optical arrangements for use with an array camera
WO2013043761A1 (en) 2011-09-19 2013-03-28 Pelican Imaging Corporation Determining depth from multiple views of a scene that include aliasing using hypothesized fusion
KR102002165B1 (ko) 2011-09-28 2019-07-25 포토내이션 리미티드 라이트 필드 이미지 파일의 인코딩 및 디코딩을 위한 시스템 및 방법
CN102506757B (zh) * 2011-10-10 2014-04-23 南京航空航天大学 双目立体测量系统多视角测量中的自定位方法
WO2013102790A2 (en) 2012-01-04 2013-07-11 Thomson Licensing Processing 3d image sequences cross reference to related applications
EP2817955B1 (en) 2012-02-21 2018-04-11 FotoNation Cayman Limited Systems and methods for the manipulation of captured light field image data
US9729849B2 (en) 2012-04-19 2017-08-08 Intel Corporation 3D video coding including depth based disparity vector calibration
US9210392B2 (en) 2012-05-01 2015-12-08 Pelican Imaging Coporation Camera modules patterned with pi filter groups
KR20150023907A (ko) 2012-06-28 2015-03-05 펠리칸 이매징 코포레이션 결함있는 카메라 어레이들, 광학 어레이들 및 센서들을 검출하기 위한 시스템들 및 방법들
US20140002674A1 (en) 2012-06-30 2014-01-02 Pelican Imaging Corporation Systems and Methods for Manufacturing Camera Modules Using Active Alignment of Lens Stack Arrays and Sensors
CN107346061B (zh) 2012-08-21 2020-04-24 快图有限公司 用于使用阵列照相机捕捉的图像中的视差检测和校正的系统和方法
WO2014032020A2 (en) 2012-08-23 2014-02-27 Pelican Imaging Corporation Feature based high resolution motion estimation from low resolution images captured using an array source
US9214013B2 (en) 2012-09-14 2015-12-15 Pelican Imaging Corporation Systems and methods for correcting user identified artifacts in light field images
EP2901671A4 (en) 2012-09-28 2016-08-24 Pelican Imaging Corp CREATING IMAGES FROM LIGHT FIELDS USING VIRTUAL POINTS OF VIEW
US9275459B2 (en) * 2012-10-05 2016-03-01 Qualcomm Incorporated Method and apparatus for calibrating an imaging device
US9143711B2 (en) 2012-11-13 2015-09-22 Pelican Imaging Corporation Systems and methods for array camera focal plane control
WO2014130849A1 (en) 2013-02-21 2014-08-28 Pelican Imaging Corporation Generating compressed light field representation data
US9374512B2 (en) 2013-02-24 2016-06-21 Pelican Imaging Corporation Thin form factor computational array cameras and modular array cameras
US9638883B1 (en) 2013-03-04 2017-05-02 Fotonation Cayman Limited Passive alignment of array camera modules constructed from lens stack arrays and sensors based upon alignment information obtained during manufacture of array camera modules using an active alignment process
WO2014138697A1 (en) 2013-03-08 2014-09-12 Pelican Imaging Corporation Systems and methods for high dynamic range imaging using array cameras
US8866912B2 (en) 2013-03-10 2014-10-21 Pelican Imaging Corporation System and methods for calibration of an array camera using a single captured image
US9521416B1 (en) 2013-03-11 2016-12-13 Kip Peli P1 Lp Systems and methods for image data compression
WO2014164909A1 (en) 2013-03-13 2014-10-09 Pelican Imaging Corporation Array camera architecture implementing quantum film sensors
US9124831B2 (en) 2013-03-13 2015-09-01 Pelican Imaging Corporation System and methods for calibration of an array camera
WO2014165244A1 (en) 2013-03-13 2014-10-09 Pelican Imaging Corporation Systems and methods for synthesizing images from image data captured by an array camera using restricted depth of field depth maps in which depth estimation precision varies
US9106784B2 (en) 2013-03-13 2015-08-11 Pelican Imaging Corporation Systems and methods for controlling aliasing in images captured by an array camera for use in super-resolution processing
US9100586B2 (en) 2013-03-14 2015-08-04 Pelican Imaging Corporation Systems and methods for photometric normalization in array cameras
US9578259B2 (en) 2013-03-14 2017-02-21 Fotonation Cayman Limited Systems and methods for reducing motion blur in images or video in ultra low light with array cameras
US9497370B2 (en) 2013-03-15 2016-11-15 Pelican Imaging Corporation Array camera architecture implementing quantum dot color filters
US9445003B1 (en) 2013-03-15 2016-09-13 Pelican Imaging Corporation Systems and methods for synthesizing high resolution images using image deconvolution based on motion and depth information
US10122993B2 (en) 2013-03-15 2018-11-06 Fotonation Limited Autofocus system for a conventional camera that uses depth information from an array camera
WO2014145856A1 (en) 2013-03-15 2014-09-18 Pelican Imaging Corporation Systems and methods for stereo imaging with camera arrays
US9633442B2 (en) 2013-03-15 2017-04-25 Fotonation Cayman Limited Array cameras including an array camera module augmented with a separate camera
US9497429B2 (en) 2013-03-15 2016-11-15 Pelican Imaging Corporation Extended color processing on pelican array cameras
US9898856B2 (en) 2013-09-27 2018-02-20 Fotonation Cayman Limited Systems and methods for depth-assisted perspective distortion correction
WO2015070105A1 (en) 2013-11-07 2015-05-14 Pelican Imaging Corporation Methods of manufacturing array camera modules incorporating independently aligned lens stacks
WO2015074078A1 (en) 2013-11-18 2015-05-21 Pelican Imaging Corporation Estimating depth from projected texture using camera arrays
EP3075140B1 (en) 2013-11-26 2018-06-13 FotoNation Cayman Limited Array camera configurations incorporating multiple constituent array cameras
US10089740B2 (en) 2014-03-07 2018-10-02 Fotonation Limited System and methods for depth regularization and semiautomatic interactive matting using RGB-D images
US9247117B2 (en) 2014-04-07 2016-01-26 Pelican Imaging Corporation Systems and methods for correcting for warpage of a sensor array in an array camera module by introducing warpage into a focal plane of a lens stack array
US9521319B2 (en) 2014-06-18 2016-12-13 Pelican Imaging Corporation Array cameras and array camera modules including spectral filters disposed outside of a constituent image sensor
US9866820B1 (en) * 2014-07-01 2018-01-09 Amazon Technologies, Inc. Online calibration of cameras
KR102214934B1 (ko) 2014-07-18 2021-02-10 삼성전자주식회사 단항 신뢰도 및 쌍별 신뢰도 학습을 통한 스테레오 매칭 장치 및 방법
US9571819B1 (en) * 2014-09-16 2017-02-14 Google Inc. Efficient dense stereo computation
CN113256730B (zh) 2014-09-29 2023-09-05 快图有限公司 用于阵列相机的动态校准的系统和方法
US9942474B2 (en) 2015-04-17 2018-04-10 Fotonation Cayman Limited Systems and methods for performing high speed video capture and depth estimation using array cameras
DE102015111120A1 (de) 2015-07-09 2017-01-12 Chromasens Gmbh Verfahren und Vorrichtung zum Abtasten von Oberflächen mit einer Stereokamera
WO2017079702A1 (en) 2015-11-05 2017-05-11 Google Inc. Edge-aware bilateral image processing
CN107449432A (zh) * 2016-05-31 2017-12-08 华为终端(东莞)有限公司 一种利用双摄像头导航方法、装置和终端
US10482618B2 (en) 2017-08-21 2019-11-19 Fotonation Limited Systems and methods for hybrid depth regularization
US10460512B2 (en) * 2017-11-07 2019-10-29 Microsoft Technology Licensing, Llc 3D skeletonization using truncated epipolar lines
CN109242914B (zh) * 2018-09-28 2021-01-01 上海爱观视觉科技有限公司 一种可动视觉系统的立体标定方法
KR102646521B1 (ko) 2019-09-17 2024-03-21 인트린식 이노베이션 엘엘씨 편광 큐를 이용한 표면 모델링 시스템 및 방법
EP4042101A4 (en) 2019-10-07 2023-11-22 Boston Polarimetrics, Inc. SYSTEMS AND METHODS FOR DETECTING SURFACE NORMALS USING POLARIZATION
EP4066001A4 (en) 2019-11-30 2024-01-24 Boston Polarimetrics, Inc. SYSTEMS AND METHODS FOR TRANSPARENT OBJECT SEGMENTATION USING POLARIZATION GUIDES
CN111351446B (zh) * 2020-01-10 2021-09-21 奕目(上海)科技有限公司 一种用于三维形貌测量的光场相机校准方法
JP7462769B2 (ja) 2020-01-29 2024-04-05 イントリンジック イノベーション エルエルシー 物体の姿勢の検出および測定システムを特徴付けるためのシステムおよび方法
WO2021154459A1 (en) 2020-01-30 2021-08-05 Boston Polarimetrics, Inc. Systems and methods for synthesizing data for training statistical models on different imaging modalities including polarized images
EP3896640B1 (en) * 2020-04-17 2022-09-28 MVTec Software GmbH System and method for efficient 3d reconstruction of objects with telecentric line-scan cameras
US11953700B2 (en) 2020-05-27 2024-04-09 Intrinsic Innovation Llc Multi-aperture polarization optical systems using beam splitters
US12020455B2 (en) 2021-03-10 2024-06-25 Intrinsic Innovation Llc Systems and methods for high dynamic range image reconstruction
US11290658B1 (en) 2021-04-15 2022-03-29 Boston Polarimetrics, Inc. Systems and methods for camera exposure control
US11954886B2 (en) 2021-04-15 2024-04-09 Intrinsic Innovation Llc Systems and methods for six-degree of freedom pose estimation of deformable objects
US11689813B2 (en) 2021-07-01 2023-06-27 Intrinsic Innovation Llc Systems and methods for high dynamic range imaging using crossed polarizers

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0814828A (ja) * 1994-06-29 1996-01-19 Kobe Steel Ltd ステレオ画像センサのキャリブレーション方法及びその装置
JP2005140623A (ja) * 2003-11-06 2005-06-02 Nippon Telegr & Teleph Corp <Ntt> 画像計測方法、装置、プログラム及び記録媒体

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1991019265A1 (en) * 1990-05-29 1991-12-12 Axiom Innovation Limited Machine vision stereo matching
US5179441A (en) * 1991-12-18 1993-01-12 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Near real-time stereo vision system
US5383013A (en) * 1992-09-18 1995-01-17 Nec Research Institute, Inc. Stereoscopic computer vision system
FR2700654B1 (fr) * 1993-01-19 1995-02-17 Thomson Csf Procédé d'estimation de disparité entre les images monoscopiques constituant une image stéréoscopiques.
US20020012459A1 (en) * 2000-06-22 2002-01-31 Chips Brain Co. Ltd. Method and apparatus for detecting stereo disparity in sequential parallel processing mode
US7444013B2 (en) * 2001-08-10 2008-10-28 Stmicroelectronics, Inc. Method and apparatus for recovering depth using multi-plane stereo and spatial propagation
GB0125774D0 (en) * 2001-10-26 2001-12-19 Cableform Ltd Method and apparatus for image matching
US7570803B2 (en) * 2003-10-08 2009-08-04 Microsoft Corporation Virtual camera translation
US7512250B2 (en) * 2004-11-24 2009-03-31 Siemens Corporate Research, Inc. System and method for fast illumination-invariant background subtraction using two views
US7512262B2 (en) * 2005-02-25 2009-03-31 Microsoft Corporation Stereo-based image processing

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0814828A (ja) * 1994-06-29 1996-01-19 Kobe Steel Ltd ステレオ画像センサのキャリブレーション方法及びその装置
JP2005140623A (ja) * 2003-11-06 2005-06-02 Nippon Telegr & Teleph Corp <Ntt> 画像計測方法、装置、プログラム及び記録媒体

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
H. NAJAFI, G. KLINKER: "Model-based Tracking with Stereovision for AR", PROCEEDINGS OF THE SECOND IEEE AND ACM INTERNATIONAL SYMPOSIUM ON MIXED AND AUGMENTED REALITY (ISMAR, JPN6011042263, October 2003 (2003-10-01), pages 313 - 314, XP010662844, ISSN: 0001991418, DOI: 10.1109/ISMAR.2003.1240736 *
J. SHI, C. TOMASI: "Good Features to Track", PROCEEDINGS OF IEEE COMPUTER SOCIETY CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION (CVPR '94, JPN6011042264, June 1994 (1994-06-01), pages 593 - 600, XP000515898, ISSN: 0001991419 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014002725A1 (ja) * 2012-06-29 2014-01-03 富士フイルム株式会社 3次元測定方法、装置、及びシステム、並びに画像処理装置
CN104395692A (zh) * 2012-06-29 2015-03-04 富士胶片株式会社 三维测定方法、装置、系统以及图像处理装置
JP5715735B2 (ja) * 2012-06-29 2015-05-13 富士フイルム株式会社 3次元測定方法、装置、及びシステム、並びに画像処理装置
US9369695B2 (en) 2012-06-29 2016-06-14 Fujifilm Corporation Method and apparatus for three-dimensional measurement and image processing device
CN104395692B (zh) * 2012-06-29 2016-08-24 富士胶片株式会社 三维测定方法、装置、系统以及图像处理装置

Also Published As

Publication number Publication date
CN101356831B (zh) 2010-09-01
WO2007063352A1 (en) 2007-06-07
EP1958458B1 (en) 2016-08-17
CN101356831A (zh) 2009-01-28
EP1958458A1 (en) 2008-08-20
US8275195B2 (en) 2012-09-25
JP4887374B2 (ja) 2012-02-29
US20090207235A1 (en) 2009-08-20

Similar Documents

Publication Publication Date Title
JP4887374B2 (ja) ステレオビジョンにおいて散乱視差場を求める方法
US10334168B2 (en) Threshold determination in a RANSAC algorithm
US8447099B2 (en) Forming 3D models using two images
US8452081B2 (en) Forming 3D models using multiple images
KR100450469B1 (ko) 시차에 기반을 둔 기술을 사용한 이미지 조합 방법 및 시스템
US10789765B2 (en) Three-dimensional reconstruction method
US6785427B1 (en) Image matching using resolution pyramids with geometric constraints
US6381302B1 (en) Computer assisted 2D adjustment of stereo X-ray images
CN108648194B (zh) 基于cad模型三维目标识别分割和位姿测量方法及装置
KR20170087814A (ko) 영상 블러링 제거 방법 및 장치
EP1964412B1 (en) Method for determining dense disparity fields in stereo vision
US20180189979A1 (en) Method for reducing matching error in disparity image by information in zoom image
WO2020075252A1 (ja) 情報処理装置、プログラム及び情報処理方法
WO2021108626A1 (en) System and method for correspondence map determination
JP3333721B2 (ja) 領域検出装置
Bostanci 3D reconstruction of crime scenes and design considerations for an interactive investigation tool
US20080226159A1 (en) Method and System For Calculating Depth Information of Object in Image
KR20150097251A (ko) 다중 영상간 대응점을 이용한 카메라 정렬 방법
JP2006113832A (ja) ステレオ画像処理装置およびプログラム
JP2003050110A (ja) 3次元形状データ生成システム、3次元形状データ生成方法、プログラム、および記録媒体
Sheikh et al. On the direct estimation of the fundamental matrix
KR20060007816A (ko) 영상 합성 방법
JP2007292657A (ja) カメラ運動情報取得装置、カメラ運動情報取得方法および記録媒体
Liu Improving forward mapping and disocclusion inpainting algorithms for depth-image-based rendering and geomatics applications
JP2005030956A (ja) 3次元情報復元方法、3次元情報復元装置、3次元情報復元プログラム、およびこのプログラムを記録した記録媒体

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20090728

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20100727

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20100825

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20110117

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110812

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111109

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111205

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20111212

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141216

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4887374

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees