JP3555159B2 - 3次元形状復元方法および装置 - Google Patents
3次元形状復元方法および装置 Download PDFInfo
- Publication number
- JP3555159B2 JP3555159B2 JP03207794A JP3207794A JP3555159B2 JP 3555159 B2 JP3555159 B2 JP 3555159B2 JP 03207794 A JP03207794 A JP 03207794A JP 3207794 A JP3207794 A JP 3207794A JP 3555159 B2 JP3555159 B2 JP 3555159B2
- Authority
- JP
- Japan
- Prior art keywords
- camera
- estimated value
- covariance matrix
- motion
- distance information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000000034 method Methods 0.000 title claims description 41
- 239000011159 matrix material Substances 0.000 claims description 61
- 230000003287 optical effect Effects 0.000 claims description 43
- 238000004364 calculation method Methods 0.000 claims description 25
- 230000004927 fusion Effects 0.000 claims description 12
- 239000013598 vector Substances 0.000 description 12
- 238000001514 detection method Methods 0.000 description 7
- 238000010586 diagram Methods 0.000 description 4
- 238000013519 translation Methods 0.000 description 4
- 238000005259 measurement Methods 0.000 description 2
- 238000011084 recovery Methods 0.000 description 2
- 238000007476 Maximum Likelihood Methods 0.000 description 1
- 102000001999 Transcription Factor Pit-1 Human genes 0.000 description 1
- 108010040742 Transcription Factor Pit-1 Proteins 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 239000006185 dispersion Substances 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Images
Description
【産業上の利用分野】
本発明は、環境内の物体までの距離の情報を必要とする場合に、画像を解析して距離の情報を得る3次元形状復元方法および装置に関する。
【0002】
【従来の技術】
環境内を自律的に移動する移動ロボットや、道路環境を自ら理解して走行する自立走行自動車において、テレビカメラで得られた画像をコンピュータで解析し、必要な情報を得る人工視覚システムを持つことが多い。これらのシステムでは、例えば障害物の検知などのために、環境内の物体までの距離の情報が必要とされる。画像を解析して距離の情報を得るための手法には、ステレオ視などと並んで、動画像の持つ移動情報を利用するStructure from Motionと呼ばれる手法がある。
【0003】
動画像からオプティカルフローを検出する技術として、例えば
Ohta N.:“Image Movement Detection with Reliability Indices”,IEICE Trans.,E74,10,pp.3379−3388(Oct.1991)
に示されている手法があり、また、オプティカルフローからカメラの運動パラメータと撮影されている物体までの距離を計算する手法の例として
太田直哉:“信頼性情報を持ったオプティカルフローからの形状復元とその移動物体検出への応用”,電子情報通信学会論文誌,D−II,Vol.J76−D−II,No.8,pp.1562−1571(1993年8月)
で報告されている手法がある。これら2つの手法により、動画像から物体までの距離とカメラの運動パラメータ、およびそれらの値に見積もられる誤差の分散が計算できる。しかし、これらの手法は、動画像のうちの2枚のフレームを用いるものである。カメラから次々と得られる動画像の各フレームから計算される距離情報とカメラの運動を時間的に融合し、より精度の良い結果を得るためにカルマンフィルタを利用する方法が
Matthies L.M.,Kanade T.,Szeliski R.:“Kalman Filter−based Algorithms forEstimating Depth from Image Sequence”,Int.J.Comput.Vision,3,pp.209−236(1989)
によって示された。しかし、この報告では具体例としてカメラの運動が回転を含まない場合のみを議論しており、一般的なカメラの運動に対しては
Heel J.:“Dynamic Motion Vision”,Proc. of Image Understanding Workshop ’89,pp.702−713(1989)
によって示された。
【0004】
【発明が解決しようとする課題】
Heelによって提案された方法は、オプティカルフローと距離情報との関係式を線形化し、拡張カルマンフィルタを適用するものである。しかし、オプティカルフローと距離情報との関係は非線形性が強いので、この方法が正しく動作するためのカメラの運動は制限されたものとなり、また、動作の安定性にも問題があった。一般的なカメラの運動に対して安定な動作を可能にするためには、この問題が持つ非線形性を十分考慮してアルゴリズムを構成する必要がある。
【0005】
本発明の目的は、動画像の各フレームから得られる距離情報とカメラの運動を時間的に融合し、より正確な情報を安定して得ることのできる3次元形状復元方法および装置を提供することにある。
【0006】
【課題を解決するための手段】
本発明は、動画像を構成する一連の画像内の2枚のフレームを用いて画像上の移動情報であるオプティカルフローの推定値とその共分散行列を計算するオプティカルフロー計算手段と、前記オプティカルフローの推定値と共分散行列を用いて撮像されている物体までの距離とカメラの運動の推定値およびそれらの共分散行列を計算する距離情報計算手段と、これら2つの方法を動画像に対して連続的に適用することで得られる多数の物体までの距離とカメラの運動の推定値とそれらの共分散行列を時間的に融合し、物体までの距離とカメラの運動の精度の高い推定値とその共分散行列を計算する距離情報融合手段とを備える3次元形状復元装置において、
前記距離情報融合手段は、前記距離情報計算手段によって計算される物体までの距離の推定値とカメラの運動の推定値の各々に対して独立なカルマンフィルタを構成することを特徴としている。
【0007】
また、本発明は、距離情報計算手段の入力としてオプティカルフローの推定値とその共分散行列に加えて、カメラの並進運動の大きさとそれに含まれるノイズの分散を使用し、計算される物体までの距離の推定値とカメラの運動の推定値に反映する距離情報融合手段を採用することを特徴としている。
【0008】
【作用】
非線形性の強いオプティカルフローと距離情報およびカメラの運動との関係に対して、直接拡張カルマンフィルタを適用すると不安定な動作となる。そこで、距離情報計算手段において問題の持つ非線形性を十分考慮した処理を行い、線形近似が有効となる値を得てからそれらの値に対してカルマンフィルタを適用する。オプティカルフロー計算手段によって動画像からオプティカルフローとそれに見積もられる誤差の共分散行列を計算し、距離情報計算手段によってカメラの運動パラメータと距離情報およびそれらに含まれる誤差の共分散行列を計算する。これらの値は、距離情報融合手段のカルマンフィルタで時間的に融合され、より正確な値となる。距離情報計算手段によって計算される距離情報とカメラの運動パラメータには相関があるので、両者を一括してカルマンフィルタを構成することも考えられるが、状態ベクトルの次元が非常に大きなものとなるため、実際の手法としては現実的ではない。従って、距離情報とカメラの運動パラメータ各々について独立したカルマンフィルタを構成する。なお、距離情報計算手段への入力としてオプティカルフローとは別にカメラの運動速度があるが、これは以下の理由による。オプティカルフローから解析して得られる距離情報は、カメラの並進運動の大きさとの相対的な値のみであり、絶対的な値は知ることができない。距離情報融合手段のカルマンフィルタが正しい動作を行うためには絶対的な値が必要であり、これを得るためには、距離情報計算手段において、カメラの並進運動の絶対値、すなわちカメラの運動速度が速度計などカメラ以外の装置から入力される必要があるからである。しかし、現実的には、カメラの運動はなめらかであることが多く、時間を短時間に限れば、速度が一定であると仮定しても問題がない場合も多い。その場合には、カメラの速度の計測値とそれに含まれるノイズの分散は、適当な値を設定すればよい。
【0009】
【実施例】
次に、本発明の実施例について、図面を参照して説明する。図1は、本発明の3次元形状復元装置の一実施例を示す構成図である。図1に示す3次元形状復元装置は、動画像からオプティカルフローの推定値とそれに見積もられる誤差の共分散行列を計算するオプティカルフロー計算手段10と、オプティカルフローの推定値と共分散行列およびカメラの並進運動の大きさとそれに含まれるノイズの分散を用いて撮像されている物体までの距離情報とカメラの運動パラメータの推定値およびそれらに含まれる誤差の共分散行列を計算する距離情報計算手段20と、距離情報の推定値とカメラの運動パラメータの推定値の各々に対して独立なカルマンフィルタ30,40を構成し、距離情報とカメラの運動パラメータの精度の高い推定値とその共分散行列を計算する距離情報融合手段50とを備えている。
【0010】
まず、図1のオプティカルフロー計算手段10については、オプティカルフローとそれに含まれるノイズの共分散行列を出力する手法ならば、本発明の手法で使用することができる。例えば前記の文献
Ohta N.:“Image Movement Detection with Reliability Indices”,IEICE Trans.,E74,10,pp.3379−3388(Oct.1991)
または
太田直哉:“オプティカルフローからの形状復元とその移動物体検出”,計測自動制御学会,第25回パターン計測部会資料,pp.7−13(1993/11/19)
で報告されている手法が利用できる。この手法は、画像上の点iでそこでの移動ベクトルの推定値ui * とその推定値の誤差の共分散行列Vui(より正確にはその逆行列Vui −1)を出力する。
【0011】
次に、距離情報計算手段20では、前記の文献
太田直哉:“信頼性情報を持ったオプティカルフローからの形状復元とその移動物体検出への応用”,電子情報通信学会論文誌,D−II,Vol.J76−D−II,No.8,pp.1562−1571(1993年8月)
に述べられている手法が参考になるが、この手法では、カメラの並進運動の大きさを入力する場合については述べられていないので、以下に述べる。
【0012】
撮像系のモデルとして焦点距離1の中心投影系を採用する。カメラが静止環境中を並進速度T,回転速度Rで移動したときに、画像上の点i(位置を(xi ,yi )とする)に生じるオプティカルフローui は次式で表される。
【0013】
【数1】
【0014】
ただし、
【0015】
【数2】
【0016】
上式において、添え字i(=1,・・・,N)は画像上の各々の点に対応する番号、pi は画像上の点iでのZ座標値の逆数(インバースデプスと呼ぶ)である。一方、カメラの速度kは次式で与えられる。
【0017】
k=|T|=(Tx 2 +Ty 2 +Tz 2 )1/2 (2)
ここで、距離情報計算手段20の入力となる量であるオプティカルフローとカメラの速度を1つのベクトルy、計算すべき量であるカメラの並進・回転速度とインバースデプスを1つのベクトルθにまとめて表記する。
【0018】
y=[u1 v1 u2 v2 ・・・uN vN k]T (3)
θ=[Tx Ty Tz Rx Ry Rz p1 p2 ・・・pN ]T
ベクトルyはθの関数y(θ)であり、詳細は式(1)および(2)で与えられる。
【0019】
次に、オプティカルフロー計算手段10によって実際の動画像から計算されるオプティカルフローと速度計などにより計測されるカメラの速度から作られる観測ベクトルy* は、真の値yに平均0の多次元ガウスノイズnが加わったものとして確率的なモデル化を行う。
【0020】
y* =y(θ)+n (4)
ノイズnの共分散行列をVy とすると、パラメータθが与えられたときに計測値y* が観測される確率P(y* |θ)は次式となる。
【0021】
P(y* |θ)=(2π)−N/2|Vy |−1/2exp(−J/2) (5)
J=(y* −y(θ))T Vy −1(y* −y(θ))
計測値y* が観測されたときのパラメータθの最ゆう推定値θMLは、式(5)を最大にするθ、すなわちJを最小にするθである。Jの最小化は、最急勾配法などの非線形最適化の手法を用いることができる。また、文献
太田直哉:“信頼性情報を持ったオプティカルフローからの形状復元とその移動物体検出への応用”,電子情報通信学会論文誌,D−II,Vol.J76−D−II,No.8,pp.1562−1571(1993年8月)
の第2.3節に示されている最小化アルゴリズムにおいて、カメラの並進速度の大きさ|T|を1に正規化するステップをカメラの速度の計測値k* の大きさにするように変更することで、このアルゴリズムがそのまま適用可能である。
【0022】
次に、推定されたパラメータθMLの誤差の共分散行列の計算法について述べる。関数y(θ)の非線形性により、厳密に共分散行列を計算することは容易ではないので、y(θ)をθML周りでテーラー展開し、1次の項までとることによって線形化する。
【0023】
yL =y(θML)+(dy/dθ)(θ−θML) (6)
ここで、dy/dθはヤコビ行列である。式(6)をθについて解くと次式となる。
【0024】
θ=(dy/dθ)−1(yL −y(θML))+θML (7)
ベクトルyL の共分散行列をVy とすれば、θの共分散行列Vh は
Vh =(dy/dθ)−1Vy ((dy/dθ)−1)T (8)
となる。オプティカルフロー検出方法によって得られる分散情報は、共分散行列の逆行列である関係上、実際の計算では、Vy の逆行列を用いて計算を行う方が効率的である。そこで、式(8)の逆行列を作り、実際の計算ではこれを用いる。
【0025】
Vh −1 =(dy/dθ)T Vy −1(dy/dθ) (9)
一方、距離情報融合手段30において、計算の容易性からカメラの運動パラメータmと各インバースデプスpi に関して独立にカルマンフィルタを構成するので、そのためには、式(9)からそれぞれの共分散行列を作り出す必要がある。ここで、運動パラメータmとは
m=[Tx Ty Tz Rx Ry Rz ]T (10)
である。そこでVh −1から対応する部分行列を取り出し、それをそれぞれの変数に対する分散の逆行列として使用する。すなわち、カメラの運動パラメータに関しては、Vh −1の1行1列から6行6列までの部分行列を運動パラメータの分散の逆行列Vm −1とし、i番目のインバースデプスに関しては、i+6行i+6列の対角成分を分散の逆数1/σpi 2 とする。この操作は、各変数の分散を他の変数の正しい値が得られた場合の条件付き確率で見積もっていることに相当する。
【0026】
ここで、今まで述べたことをまとめておく。まず、オプティカルフロー計算手段10によって、画像上の各点での移動ベクトルui * とその共分散行列の逆行列Vui −1が計算されると共に、速度計などからカメラの移動速度kが得られる。移動速度k* にはσk 2 の分散の誤差が含まれているとする。このときui * およびk* の誤差は独立であると仮定する。これらから観測ベクトルy* と共分散行列の逆行列Vy −1を作り、距離情報計算手段20の入力とする。観測ベクトルy* は、式(3)で示した順序に各要素を並べる。行列Vy −1は、2行2列の行列Vui −1をその対角要素、すなわち2i−1行2i−1列から2i行2i列までの2行2列の部分行列になるように並べ、最後の対角成分2N+1行2N+1列の要素は1/σk 2 とする。残りの部分は0とする。このようにして作られたy* とVy − 1 を用いて式(5)を最小化し、θMLを計算すると共に、式(9)によりVh −1を求める。さらに、式(10)を参考にθMLを分解してmMLとpMLi 、Vh −1を分解してVm −1と1/σpi 2 を得る。Vm −1と1/σpi 2 の具体的な形は、式(1)および(9)から計算され、次のようになる。
【0027】
【数3】
【0028】
距離情報融合手段30においては、前述のごとくカメラの運動パラメータmと各インバースデプスpi に関して独立にカルマンフィルタを構成する。距離情報計算手段20によってθMLとその共分散行列の逆行列Vh −1が得られているので、理論的にはθを状態ベクトルとしてカルマンフィルタを構成することができる。しかし、このようなカルマンフィルタを構成すると、実際にVh −1の逆行列を数値計算により求める必要があり、その大きな次元数のため処理量と安定性の面で問題がある。それを避けるために、θをカメラの運動パラメータmと各インバースデプスpi に分解し、それぞれ独立にカルマンフィルタを構成する。
【0029】
最初にカメラの運動パラメータmのカルマンフィルタについて述べる。カメラの並進・回転速度は、微少時間では一定であると考え、状態遷移行列を単位行列とし、システムノイズの共分散行列をQm とすると、時間更新アルゴリズムは次のようになる。
【0030】
mt+1 − =mt + (12)
Vmt+1 − =Vmt + +Qm
一方、観測更新アルゴリズムは次式で与えられる。
【0031】
mt + =mt − +Kmt(mt * −mt − ) (13)
Vmt + =(I−Kmt)Vmt −
Kmt=Vmt − (Vmt − +Vmt * )−1
これらの式で、ベクトルおよび行列の添字tおよびt+1は時間ステップを、肩の+および−はそれぞれ観測更新値と時間更新値を表す。また、Iは単位行列であり、mt * およびVmt * は時刻tにおける観測値とその分散で、距離情報計算手段20で計算されたmMLとVm −1の逆行列を使用する。
【0032】
次に、インバースデプスpi のカルマンフィルタを構成する。時刻tに3次元座標がXt * であった物体上の点は、その時刻のカメラの並進・回転速度がTt * およびR t * とすれば、単位時間後の座標値Xt+1 * は次式で与えられる。
【0033】
Xt+1 * =−Tt * −Rt * ×Xt * (14)
Xt * =(Xt Yt Zt )T
Xt+1 * =(Xt+1 Yt+1 Zt+1 )T
上式のZt とZt+1 の関係から両時刻のインバースデプスの関係は次のようになる。
【0034】
pit+1=pit/(1+Rytxit−Rxtyit−Tztpit) (15)
ここで、上式をpitで微分すると次式となる。
【0035】
dpit+1/dpit=(Tztpit)/(1+Rytxit−Rxtyit−Tztpit)2 +1/(1+Rytxit−Rxtyit−Tztpit) (16)
式(15)および(16)より、時間更新アルゴリズムが得られる。
【0036】
pit+1 − =pit + /(1+Rytxit−Rxtyit−Tztpit + ) (17)
σpit+1 2−=(dpit+1/dpit)2 σpit 2++Qp
Ryt,Rxt,Tztは、カメラの運動パラメータのカルマンフィルタの推定値mt + の対応する要素を用いる。また、Q p は、インバースデプスに関するシステムノイズである。
【0037】
一方、観測更新アルゴリズムは次のようになる。
【0038】
pit + =pit − +Kpt(pit * −pit − ) (18)
σpit 2+=(1−Kpt)σpit 2−
Kpt=σpit 2−/(σpit 2−+σpit 2*)
ここで、pit * およびσpit 2*は、時刻tに距離情報計算手段20によって計算された値pMLi およびσpi 2 に対応する。さて、以上で物体上に固定された点のインバースデプスに関するカルマンフィルタが構成されたが、その点は、カメラの運動によって画像上を移動する。従って、ある時刻でのインバースデプスpi に対応する点は、次の時刻では画像上の異なった位置にあるので、補間によってこれらを関係づける必要があるが、これは次のようにして達成される。式(18)で示される観測更新アルゴリズムを適用する際に、式(13)で計算されるその時刻のカメラの運動パラメータの推定値mt + から式(1)を用いて推定されるオプティカルフローui + を計算する。観測値pit * に対応する予測値pit − は、単位時間前には画像上で−ui + だけ離れた位置に存在することになるので、pit − の画像を内挿してその位置での値を求め、式(18)内のpit − として使用する。この様子を1次元の図として図2に示した。内挿の方法には、最近隣内挿法、共1次内挿法、3次たたみ込み内挿法などがあり、そのいずれも使用することができる。詳細は以下の参考文献に述べられている。
【0039】
高木幹雄,下田陽久 監修:画像解析ハンドブック,東京大学出版会,pp.411−444(1991)
また、予測値pit − の位置を単位時間だけ前の運動パラメータの推定値mt−1 + から計算する方法もある。これにはmt−1 + を式(1)に代入して時刻t−1のオプティカルフローui + を推定し、図3に示すようにpit − の位置を移動する。移動された位置を標本点として内挿し、観測値pit * の位置の値を得る。この方法では、内挿すべき画像の標本点が規則正しい格子上に存在しないので、内挿問題がやや複雑になる。この場合の内挿の1例として以下の方法がある。まず、計算しようとする点に最も近く、かつその点を内部に含むような3つの標本点を決定する。これらの標本点の位置をそれぞれ(xa ,ya ),(xb ,yb ),(xc ,yc )とし、値をpa ,pb ,pc とすると、位置(x,y)の点での値pは次式で与えられる。
【0040】
p=(c1 x+c2 y+c3 )/c4 (19)
c1 =(ya −yb )pa +(ya −yc )pb +(yb −ya )pc
c2 =(xb −xc )pa +(xc −xa )pb +(xa −xb )pc
c3 =(xc yb −xb yc )pa +(xa yc −xc ya )pb +(xb ya −xa yb )pc
c4 =(xb −xc )ya +(xc −xa )yb +(xa −xb )yc
予測値pit − と同様に分散σpit 2−の内挿も必要であるが、これも以上述べた方法によって達成される。ただし、分散の場合には平方根を求めて標準偏差に直してから内挿を行い、自乗して分散に戻すという操作を行う。
【0041】
【発明の効果】
本発明によって示された方法および装置を使用することで、動画像の各フレームから得られる距離情報とカメラの運動を時間的に融合し、より正確な情報を安定して得ることができる。
【図面の簡単な説明】
【図1】本発明の3次元形状復元装置の一実施例を示す構成図である。
【図2】インバースデプスの内挿方法を説明する図である。
【図3】インバースデプスの内挿方法を説明する図である。
【符号の説明】
10 オプティカルフロー計算手段
20 距離情報計算手段
30 距離情報融合手段
40 距離情報カルマンフィルタ
50 運動パラメータカルマンフィルタ
Claims (5)
- 動画像を構成する一連の画像内の2枚のフレームを用いて画像上の移動情報であるオプティカルフローの推定値とその共分散行列を計算するオプティカルフロー計算手順と、そのオプティカルフローの推定値と共分散行列を用いて撮像されている物体までの距離とカメラの運動の推定値およびそれらの共分散行列を計算する距離情報計算手順と、これら2つの手順を動画像に対して連続的に適用することで得られる多数の物体までの距離の推定値とカメラの運動の推定値に対して独立に構成されたカルマンフィルタを適用して時間的に融合し、物体までの距離とカメラの運動の精度の高い推定値とその共分散行列を計算する距離情報融合手順を含むことを特徴とする3次元形状復元方法。
- 請求項1記載の3次元形状復元方法において、オプティカルフローの推定値とその共分散行列に加えて、カメラの並進運動の大きさとそれに含まれるノイズの分散を入力して使用し、計算される物体までの距離の推定値とカメラの運動の推定値に反映することを特徴とする3次元形状復元方法。
- 動画像を構成する一連の画像内の2枚のフレームを用いて画像上の移動情報であるオプティカルフローの推定値とその共分散行列を計算するオプティカルフロー計算手段と、前記オプティカルフローの推定値と共分散行列を用いて撮像されている物体までの距離とカメラの運動の推定値およびそれらの共分散行列を計算する距離情報計算手段と、これら2つの方法を動画像に対して連続的に適用することで得られる多数の物体までの距離とカメラの運動の推定値とそれらの共分散行列を時間的に融合し、物体までの距離とカメラの運動の精度の高い推定値とその共分散行列を計算する距離情報融合手段とを備える3次元形状復元装置において、
前記距離情報融合手段は、前記距離情報計算手段によって計算される物体までの距離の推定値とカメラの運動の推定値の各々に対して独立なカルマンフィルタを構成することを特徴とする3次元形状復元装置。 - 請求項3記載の3次元形状復元装置において、距離情報計算手段の入力としてオプティカルフローの推定値とその共分散行列に加えて、カメラの並進運動の大きさとそれに含まれるノイズの分散を使用し、計算される物体までの距離の推定値とカメラの運動の推定値に反映する距離情報融合手段を採用することを特徴とする3次元形状復元装置。
- 動画像からオプティカルフローの推定値とオプティカルフローに見積もられる誤差の共分散行列を計算するオプティカルフロー計算手段と、
前記オプティカルフローの推定値と共分散行列およびカメラの並進運動の大きさとそれに含まれるノイズの分散を用いて撮像されている物体までの距離情報とカメラの運動パラメータの推定値および距離情報とカメラの運動パラメータに含まれる誤差の共分散行列を計算する距離情報計算手段と、
前記距離情報の推定値と共分散行列に対して適用する距離情報カルマンフィルタと、前記カメラの運動パラメータの推定値と共分散行列に対して適用する運動パラメータカルマンフィルタとを備え、距離情報とカメラの運動パラメータの精度の高い推定値と誤差の共分散行列を計算する距離情報融合手段とを備えることを特徴とする3次元形状復元装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP03207794A JP3555159B2 (ja) | 1994-03-02 | 1994-03-02 | 3次元形状復元方法および装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP03207794A JP3555159B2 (ja) | 1994-03-02 | 1994-03-02 | 3次元形状復元方法および装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH07244735A JPH07244735A (ja) | 1995-09-19 |
JP3555159B2 true JP3555159B2 (ja) | 2004-08-18 |
Family
ID=12348825
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP03207794A Expired - Fee Related JP3555159B2 (ja) | 1994-03-02 | 1994-03-02 | 3次元形状復元方法および装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3555159B2 (ja) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
FR2749419B1 (fr) * | 1996-05-31 | 1998-08-28 | Sagem | Procede et dispositif d'identification et de localisation d'objets fixes le long d'un trajet |
US6038074A (en) * | 1997-05-20 | 2000-03-14 | Ricoh Company, Ltd. | Three-dimensional measuring apparatus and method, image pickup apparatus, and apparatus and method for inputting image |
JP5148669B2 (ja) * | 2000-05-26 | 2013-02-20 | 本田技研工業株式会社 | 位置検出装置、位置検出方法、及び位置検出プログラム |
JP4672175B2 (ja) * | 2000-05-26 | 2011-04-20 | 本田技研工業株式会社 | 位置検出装置、位置検出方法、及び位置検出プログラム |
JP4934806B2 (ja) * | 2006-05-26 | 2012-05-23 | 国立大学法人 東京大学 | モーションキャプチャを用いたリンク機構モデルのリンク長パラメータの推定法及び装置 |
CN105717924B (zh) | 2012-06-08 | 2018-12-28 | 艾罗伯特公司 | 使用差动传感器或视觉测量的地毯偏移估计 |
-
1994
- 1994-03-02 JP JP03207794A patent/JP3555159B2/ja not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JPH07244735A (ja) | 1995-09-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10755428B2 (en) | Apparatuses and methods for machine vision system including creation of a point cloud model and/or three dimensional model | |
Haußecker et al. | Motion | |
US6307959B1 (en) | Method and apparatus for estimating scene structure and ego-motion from multiple images of a scene using correlation | |
EP2352128B1 (en) | Mobile body detection method and mobile body detection apparatus | |
Bergman et al. | Deep adaptive lidar: End-to-end optimization of sampling and depth completion at low sampling rates | |
Zhang et al. | Fast, robust, and consistent camera motion estimation | |
Wechsler et al. | Motion estimation using statistical learning theory | |
Hajder et al. | Relative planar motion for vehicle-mounted cameras from a single affine correspondence | |
Senst et al. | Robust local optical flow: Long-range motions and varying illuminations | |
JP3555159B2 (ja) | 3次元形状復元方法および装置 | |
Saxena et al. | Simultaneous localization and mapping: Through the lens of nonlinear optimization | |
Al Ismaeil et al. | Real-time enhancement of dynamic depth videos with non-rigid deformations | |
KR101791166B1 (ko) | 오브젝트의 공간 정보 추정 장치 및 방법 | |
JP3435240B2 (ja) | 移動物体検知装置及びその方法 | |
Gedik et al. | RGBD data based pose estimation: Why sensor fusion? | |
Weng et al. | Transitory image sequences, asymptotic properties, and estimation of motion and structure | |
KR101776638B1 (ko) | 복수개의 오브젝트의 공간 정보 추정 장치 및 방법 | |
JP2988933B1 (ja) | 頭部運動測定装置 | |
JPH08129025A (ja) | 3次元画像処理流速計測方法 | |
Xu et al. | Visual-inertial odometry using iterated cubature Kalman filter | |
Saeed et al. | Real time, dynamic target tracking using image motion | |
Winkens et al. | Optical truck tracking for autonomous platooning | |
JP5874996B2 (ja) | 物体運動推定装置、物体運動推定方法及びプログラム | |
JP2883111B2 (ja) | 多重動きベクトル検出方法 | |
Tagawa et al. | Direct 3-d shape recovery from image sequence based on multi-scale bayesian network |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20040420 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20040503 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090521 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100521 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110521 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110521 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120521 Year of fee payment: 8 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120521 Year of fee payment: 8 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130521 Year of fee payment: 9 |
|
LAPS | Cancellation because of no payment of annual fees |