JP2726366B2 - 視点・物点位置決定方法 - Google Patents

視点・物点位置決定方法

Info

Publication number
JP2726366B2
JP2726366B2 JP4238586A JP23858692A JP2726366B2 JP 2726366 B2 JP2726366 B2 JP 2726366B2 JP 4238586 A JP4238586 A JP 4238586A JP 23858692 A JP23858692 A JP 23858692A JP 2726366 B2 JP2726366 B2 JP 2726366B2
Authority
JP
Japan
Prior art keywords
viewpoint
viewpoints
real space
equation
coordinates
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP4238586A
Other languages
English (en)
Other versions
JPH0688706A (ja
Inventor
敦 野引
央 成瀬
哲郎 藪田
立田  光廣
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP4238586A priority Critical patent/JP2726366B2/ja
Publication of JPH0688706A publication Critical patent/JPH0688706A/ja
Application granted granted Critical
Publication of JP2726366B2 publication Critical patent/JP2726366B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は、非接触の形状計測や測
量の分野で利用される視点・物点位置決定方法に関し、
相対位置関係が未知である複数の視点において複数の物
点のステレオ画像計測を行ない、前記ステレオ画像計測
の結果から前記複数の視点の相対位置関係および前記各
物点の実空間座標を決定する視点・物点位置決定方法に
関する。
【0002】
【従来の技術】
(ステレオ画像計測の原理)本発明の背景技術を説明す
るに当り、まず、ステレオ画像計測とその誤差の性質に
ついて説明する。ステレオ画像計測は、視点に設けられ
た左右の2台のカメラによって3次元空間の像を2次元
空間に投影し、2台のカメラ間の視差により被計測点の
位置を計測する方法である。図5に示すように、3次元
空間(実空間)において視点を原点Oとする実空間座標
系(視点座標系)を考える。ここでは、水平面内にx軸
とy軸をとり、鉛直方向にz軸をとっている。この3次
元空間を左右の2台のカメラによって投影した2次元の
画像面2,3上の位置を表わす座標として、u,vを用い
る。x軸とu軸、y軸とv軸とはそれぞれ平行であり、
y軸はカメラの光軸1に平行であるとする。左右のカメ
ラ間の距離は2aであって、左右の各カメラの主点FL,
Rの座標はそれぞれ(−a,0,0),(a,0,0)とな
る。また、各主点FL,FRと対応する画像面2,3との距
離(焦点距離)はfであるとする。以下、左、右の画像
をそれぞれ添え字L,Rで表わす。したがって、左右の各
画像面2,3の原点OL,ORの座標はそれぞれ(−a,f,
0),(a,f,0)である。
【0003】今、実空間内の点P(x,y,x)が左右の
画像面2,3上の点IL(uL,vL)、IR(uR,vR)に
投影されたとする。このときエピポーラ条件よりvL
Rとなるから、以下ではvLとvRとを区別せずにvで
表わすことにする。△ILRPと△FLRPとが相似で
あることから、画像面座標uL,uR,vから実空間座標
x,y,zへの変換は、次のようになる。
【0004】
【数1】 したがって、ステレオ画像計測による左右の画像面にお
いて、物点の投影点の画像面座標を求めることにより、
この物点の実空間座標を求めることができる。ここでい
う物点とは、実空間内の被計測点として他から識別され
て認識されるものことであり、例えば、3次元物体上の
特徴的な点であって容易に画像から抽出できるもの、あ
るいは特徴的な地物や標定点などのことである。
【0005】ステレオ画像計測を行なうための装置の一
例のブロック図が図6に示されている。ここではステレ
オ画像計測を行なうために、2台のテレビカメラ41,4
2が用いられている。各テレビカメラ41,42で撮影され
た画像は、走査線ごとに走査されながら光電変換され、
時間的に連続した映像信号に変換される。この画像信号
はディジタイザ内のサンプラによって1画面当り数百万
個の画素に標本化され、さらにディジタイザ5内のA/
D変換器によって各画素ごとにその画素に入力した光強
度に対応した濃度として数百階調に量子化される。この
ように画像はディジタイザ5を介してディジタル化さ
れ、画素の位置を示す座標とそこでの濃度の情報とし
て、画像メモリ6に入力されて記憶される。記憶された
画像の情報は、画像メモリ6から計算機(CPU)7に
入力され、エッジなどの特徴を手掛かりとして座標uL,
R,vが求められる。そしてこれらの値から上記式(1)
にもと図いて3次元の座標値が求められる。
【0006】(ステレオ画像計測における誤差の性質)
式(1)から明らかなように、ステレオ画像計測における
物点の実空間での座標計測誤差は、画像面座標での計測
誤差に依存する。画像面上における計測誤差duL,du
R,dvの統計的性質として、相互に独立な標準偏差σの
正規分布を仮定すると、duL,duR,dvが同時に起こ
る確率密度分布hは、
【0007】
【数2】 となる。一方、式(1)より、実空間座標(x,y,z)か
ら画像面座標(uL,uR,v)への変換は、次式で与えら
れる。
【0008】
【数3】 ここで、画像面上での計測誤差duL,duR,dvによっ
て生じる実空間で誤差dx,dy,dzを用いて、確率密
度分布hを表わすことにする。dx,dy,dzは、それ
ぞれx方向,y方向、z方向の計測誤差を表わしてい
る。式(3)の全微分をとると、
【0009】
【数4】 となる。したがって、確率密度分布hは、
【0010】
【数5】 と表わされる。
【0011】(視点位置決定方法) 以上の説明は、単一の視点からのステレオ画像計測を行
なってその視点を基準とする座標系を用いて被計測点の
位置を記述する方法についてのものである。ステレオ画
像計測は、物点の座標を求めるだけではなく、相互の位
置関係が未知の複数の視点間の位置関係を求めることに
も応用できる。このような視点位置決定方法の例とし
て、特願平3−74439号(特開平4−286905
号公報)がある。特願平3−74439号に示された方
法は、視点の数が2である場合において、各視点ごとの
実空間座標系で記述された物点の座標から、2視点間の
相対位置関係を求めようとするものである。なお、特願
平3−74439号には、簡単化のため2次元の場合、
すなわち式(4)でdvを考慮しない場合についてのみ、
詳細な説明がなされている。ここでもまず2次元の場合
について検討し、そののち3次元への拡張について説明
する。
【0012】図7はこの従来の視点位置決定方法のアル
ゴリズムを示すフローチャートである。ここでは、図8
に示すように、2つの視点O1,O2間の相対的な位置関
係を回転パラメータθ、平行移動パラメータtx,ty
表わすことにする。また、点Oi(i=1,2)を原点と
する座標系を第i視点座標系ということにする。n個あ
る物点に物点番号j(j=1,2,...n)を付与し、第
i視点座標系における第j物点の真の位置をベクトル
【0013】
【外1】 で表わす。さらに、第i視点からステレオ画像計測によ
って求めた第j物点の位置(計測位置)を
【0014】
【外2】 で表わすことにする。特願平3−74439号に示した
方法では、まず、第i視点において撮影したステレオ画
像を演算処理し、式(1)より第i視点座標系における第
j物点の計測された実空間座標
【0015】
【外3】 を算出する(ステップ201)。
【0016】次に、第i視点から計測された第j物点の
実空間座標の計測誤差の確率密度分布の近似値h
i,j(xi,j o,yi,j o)を求める(ステップ202)。確
率密度分布の近似値といっているのは、物点の真の位置
が未知であって計測値をもとに確率密度分布を算出しよ
うとするからである。式(4),(5)より、
【0017】
【数6】 が成立する。ここで
【0018】
【数7】 である。ところで、図8に定義した各視点O1,O2間の
相対位置関係より、第1および第2の視点O1,O2のそ
れぞれにおける第j物点の真の実空間座標(x1,j o,y
1, j o),(x2,j o,y2,j o)の間には、以下の関係が成立
している。
【0019】
【数8】 2つの視点O1,O2間の座標変換パラメータθ,tx,ty
をまとめてTで表わすと、(x2,j o,y2,j o)は(x1,j
o,y1,j o,T)の関数で表わされることになる。ここ
で、各物点について、2つの視点O1,O2のそれぞれに
おける確率密度分布の近似値h1,j(x1,j o,y1,j o),
2,j(x2,j o,y2,j o)の積として、視点間合成確率密
度分布Hj(x1,j o,y1,j o,T)を算出する(ステップ
203)。ここでこの視点間合成確率密度分布は、
【0020】
【数9】 として表わされる。ただし、
【0021】
【数10】 である。
【0022】次に、式(8)においてx1,j o,y1,j oを変数
と見なして、式(8)の最大値である最大確率sj(T)とそ
のときの座標
【0023】
【外4】 を算出する(ステップ204)。式(8)の視点間合成確
率密度分布Hj(x1,j o,y1,j o,T)は、gj(x1,j o,
1,j o,T)に関して単調減少である。したがってg
j(x1,j o,y1,j o,T)が最小になるとき、式(8)は最大
確率
【0024】
【数11】 をとる。この最大確率sj(T)を与える座標
【0025】
【外5】 は、gj(x1,j o,y1,j o,T)が最小であるという条件
【0026】
【数12】 より、次のように求められる。
【0027】
【数13】 ただし式(9)における係数c1,j〜c5,jは、
【0028】
【数14】 を満たすものである。このように座標変換パラメータT
が与えられると、それに応じた物点の最も確からしい座
【0029】
【外6】 が求められる。最大確率sj(T)は、このようにして求
めた座標
【0030】
【外7】 を式(9)のx1,j o,y1,j oに代入することによって求めら
れる。
【0031】上記のステップ204では、物点ごとにそ
の物点に対する最大確率sj(T)を求めている。次に、
全ての物点についてこの最大確率sj(T)を合成し、物
点間合成確率S(T)を算出する(ステップ205)。す
なわち、
【0032】
【数15】 を算出する。続いてTを変化させながらS(T)を算出
し、式(10)を最大にする最尤推定値
【0033】
【外8】 を求める(ステップ206)。この最尤推定値が、2つ
の視点間の求めるべき相対位置関係を示している。ま
た、求めた座標変換パラメータの最尤推定値をもとに、
物点の実空間座標の最尤推定値を求めることができる。
すなわち、座標変換パラメターの最尤推定値
【0034】
【外9】 を式(9)に代入し、第j物点の実空間座標
【0035】
【外10】 を求める(ステップ207)。このようにして求められ
た実空間座標は、各視点O1,O2からの計測結果を総合
して得られたものであり、より確からしい値となってい
る。
【0036】以上の説明は2次元についてのものであ
り、以下、3次元に拡張した場合について説明する。3
次元の場合の第1および第2の視点O1,O2間の相対位
置関係を図9のようにとる。すると、各視点O1,O2
それぞれからみた第j物点の真の座標
【0037】
【外11】 の間には、以下のような関係式が成立する。
【0038】
【数16】 2次元の場合と同様にして、2つの視点O1,O2間の座
標変換パラメータをまとめてT(=α,β,γ,tx,ty,
z)とすると、そのときの視点間合成確率密度分布Hj
(x1,j o,y1,j o,z1,j o,T)は、
【0039】
【数17】 で与えられる。ただし、
【0040】
【数18】 である。2次元の場合と同様に、式(11)を式(13)に代入
することにより、式(12)の最大値である最大確率s
j(T)とそのときの座標
【0041】
【外12】 を算出する。すなわち、
【0042】
【数19】 より求められた座標
【0043】
【外13】 を式(12)に代入し、最大確率sj(T)を求め、この最大
確率sj(T)を全ての物点について合成し、物点間合成
確率S(T)を得る。この物点間合成確率S(T)を最大に
するように座標変換パラメータの最尤推定値
【0044】
【外14】 を決定する。この最尤推定値が2視点O1,O2間の求め
るべき相互の位置関係を表わしている。また、式(14)か
ら算出され座標変換パラメータTの関数である
【0045】
【外15】 に、今求めた座標変換パラメータの最尤推定値を代入す
ることにより、より確からしい物点座標が求められる。
【0046】
【発明が解決しようとする課題】上述した従来の視点位
置決定方法は、3次元に拡張した場合に、最小値を求め
るべき式(式(13))が複雑になって、式(14)によって座
標変換パラメータTを変数として解析的に
【0047】
【外16】 を求めることが困難である。また、解析的な方法によら
ず解を求める場合であっても、複雑な式を取り扱うため
に効率的に視点や物点の位置を決定することが困難であ
って、総当たり的に計算を実行しなければならないとい
う問題点がある。このような理由から、上述した従来の
方法を3次元に適用することは困難である。さらに、上
述した従来の方法は視点の数が2の場合を扱っており、
視点の数が増加した場合には、2視点ごとに視点間の相
対位置関係および物点の位置を算出しなければならな
い。したがって算出された結果には、2視点間の影響し
か考慮されておらず、その他の視点から計測された結果
が寄与しないので、計測精度をより向上させることがで
きないという問題点がある。
【0048】本発明の目的は、相対位置関係が未知であ
る複数の視点における複数の物点のステレオ画像計測の
結果に基づいて、視点間の相対位置関係と各物点の実空
間座標を簡単かつ精度良く求められる視点・物点位置決
定方法を提供することにある。
【0049】
【課題を解決するための手段】本発明の視点・物点位置
決定方法は、複数の視点のそれぞれにおいて獲得された
ステレオ画像を演算処理し、各視点座標系で記述された
複数の物点の実空間座標を得る第1の工程と、前記ステ
レオ画像の画像面座標での計測誤差と実空間座標での計
測誤差との関係に基づき、前記視点間の相対位置関係を
記述する座標変換パラメータと前記各物点の真の実空間
座標とを変数として含む形で、前記各視点座標系におけ
る前記各物点の位置計測誤差の確率密度分布を求める第
2の工程と、前記各視点と前記各物点とのそれぞれにつ
いて前記確率密度分布の総積を算出して合成確率密度分
布を求める第3の工程と、前記合成確率密度分布の最大
値を与える全ての前記座標変換パラメータと前記各物点
の実空間座標とを同時に求める第4の工程とを有する。
【0050】
【作用】実空間における計測誤差とその発生原因である
画像面座標上での計測誤差との関係に基づき、視点間の
座標変換パラメータと各物点の真の実空間座標とを変数
として含む形で、各視点座標系における物点の位置計測
誤差の確率密度分布を求め、この確率密度分布を全ての
視点、全ての物点について合成した合成確率密度分布を
考え、この合成確率密度分布を最大にするように、座標
変換パラメータの物点の実空間座標とを同時に決定する
ので、3次元の場合であってもこれら座標変換パラメー
タと実空間座標値とを簡単かつ精度良く求めることがで
きる。
【0051】この場合、座標変換パラメータや確率密度
分布を行列を用いて定式化し、さらに最急降下法などの
非線形最適化手法を用いることが、とりわけ視点の数が
多くなった場合に望ましい。また、複数の視点座標系の
うち、任意の1つのものを基準座標系とし、座標変換パ
ラメータがこの基準座標系との相対位置関係を表わすよ
うにするとよい。
【0052】
【実施例】次に本発明の実施例について図面を参照して
説明する。
【0053】(計測誤差の確率密度分布の行列による定
式化)実施例に説明にあたり、まずステレオ画像計測に
おける実空間座標の計測誤差の確率密度分布について、
行列による定式化を説明する。「従来の技術」でも述べ
たように、ステレオ画像計測では、計測された画像面座
標(uL,uR,v)から上記の式(1)に基づいて、当該視
点座標系における実空間座標(x,y,z)が算出され
る。 ここで
【0054】
【外17】 のように、ベクトルを用いて表わすことにする。画像面
における計測誤差を
【0055】
【外18】 とし、統計的性質として標準偏差σの独立した正規分布
を考えると、計測誤差
【0056】
【外19】 の起こる確率密度分布hi,jは、
【0057】
【数20】 で表わされる。ここでm個の複数の視点O1,O2,...,O
m間の相対位置関係を図1のように定義する。また、物
点の数をn個とする。第i視点座標系(1≦i≦m)で
の第j物点の
【0058】
【外20】 とする。画像面上での計測誤差
【0059】
【外21】 が微小であるとすると、それに伴って発生する実空間で
の計測誤差
【0060】
【外22】 は、次式のように表わされる。
【0061】
【数21】 ここで、
【0062】
【数22】 である。式(16)は、式(3)より、
【0063】
【数23】 のように表わされる。したがって、式(15)で表わされた
画像面座標での計測誤差の確率密度分布は、次のように
実空間座標の計測誤差の確率密度分布に変換できる。
【0064】
【数24】
【0065】(本実施例の視点・物点位置決定方法)続
いて、本実施例による視点・物点位置決定方法について
説明する。図2は本実施例のアルゴリズムを示すフロー
チャートである。まず、m個の視点のそれぞれにおい
て、ステレオ画像計測を行ない、物点の実空間座標の計
測値を得る(ステップ101)。そして、得られた物点
について視点間の対応を求める(ステップ102)。こ
れは、異なる視点で得られた被計測点のうち、同一の物
点に対応するものを見つけ出す操作である。このような
対応付けの方法としては、例えば特願平3−16585
9号にあるような方法を用いることができる。この方法
は、物点の一致度を与える評価関数を考え、この評価関
数を最小にする条件から物点の対応付けを行なう方法で
ある。
【0066】続いて上述の定式化によって、第i視点か
ら計測された第j物点の実空間座標の確率密度分布h
i,jを求める(ステップ103)。実空間における計測
誤差
【0067】
【外23】 を式(17)に代入することにより、確率密度分布h
i,jは、
【0068】
【数25】 のように記述できる。
【0069】次に、合成確率密度分布Sを算出する(ス
テップ104)。この算出にあたって、まず基準座標系
を設定する。ここでは図1に示すように第1視点座標系
を基準座標系とする。もちろん、他の視点座標系を基準
座標系とすることもできる。そして、第1視点座標系
(基準座標系)から第i視点座標系(2≦i≦m)への
変換を表わす
【0070】
【外24】 で記述する。なお、この回転マトリクスは図1に示すよ
うに、回転角
【0071】
【外25】 の関数である。回転マトリクスと平行移動ベクトルは、
それぞれ以下のように表わされる。
【0072】
【数26】 この場合、
【0073】
【外26】 の関係は、
【0074】
【数27】 のようになる。この関係式を式(18)に代入することによ
り、確率密度分布hi,jは、以下のように記述される。
【0075】
【数28】 そしてm個の視点の全て、n個の物点の全てについて、
式(19)で表わされた実空間座標の計測誤差の確率密度分
布hi,jを合成し、合成確率密度分布Sを次式によって
算出する。
【0076】
【数29】 ただし、
【0077】
【数30】 である。
【0078】合成確率密度分布Sの算出が終ったら、こ
の合成確率密度分布Sを最大にする、すなわち、式(20)
のGを最小にする物点座標
【0079】
【外27】 と、座標変換パラメータ
【0080】
【外28】 を求める(ステップ105)。この場合、式(20)のGを
最小とする
【0081】
【外29】 を解析的に求めるのは困難であるので、最急降下法を用
いることにする。最急降下法は、関数
【0082】
【外30】 の最小点を実際に数値的に求めるための最適化手法の1
つである。最急降下法では、
【0083】
【外31】 を系統的に生成し、現在の点
【0084】
【外32】 において最急降下方向のベクトルを
【0085】
【数31】 により求める。このベクトル
【0086】
【外33】 とあるステップ幅εとを用いて、新しい点
【0087】
【外34】 を次式を用いて生成する。
【0088】
【数32】 これにより、kが1つ進むごとに関数eを最大速度で減
少させることができる。関数eの最小点では、
【0089】
【数33】 が成立するので、この条件を満たすまで繰り返し計算を
行ない、関数eの最小点を実際に数値的に算出する。こ
の最急降下法を用いて、式(20)を最小にする
【0090】
【外35】 を計算する。すなわち、
【0091】
【数34】 の反復計算による収束値
【0092】
【外36】 を求める値
【0093】
【外37】 とする。この最急降下法での反復計算の初期値
【0094】
【外38】 としては適宜のものを使用でき、例えば特開平4−11
8504号に記載された方法で算出されたものを用いる
ことができる。特開平4−118504号の方法は、2
つの視点から計測された全ての物点について、実空間で
のずれ量ベクトルのユークリッド・ノルムの2乗の総和
を最小にする座標変換パラメータを用いて2つの視点間
の相対位置関係を求めるものである。ここでは、複数の
視点の相対位置関係を特開平4−118504号の方法
で2視点ごとに求め、全ての視点間の相対位置関係を表
わす座標変換パラメータを決定し、基準座標系との座標
変換パラメータを求めて座標変換パラメータの初期値と
する。また、物点座標の初期値は、このようにして求め
た座標変換パラメータを用い、各視点座標系で計測した
当該物点の実空間座標を基準座標系での値に変換し、そ
の平均を求めることにより決定する。
【0095】次に、多視点ステレオ画像計測データに基
づく本実施例の視点・物点位置決定方法を実際に実施し
た結果について説明する。実験例1は2視点、3次元の
場合のものであり、実験例2は3視点2次元の場合のも
のである。
【0096】(実験例1)各視点O1,O2でのカメラ間
隔(2a)を0.8mとし、焦点距離fが16.1mmの
レンズを用いて、図3に示すような建物と道路配置の場
所において、電柱やマンホールといった4つの物点P1
〜P4について、3次元ステレオ画像計測を行なった。
図3は平面上への投影図として表わされているが、実際
には、第1視点O1を水平面内にとって基準座標系と
し、全体を俯瞰する位置に第2視点O2を設定してい
る。各視点O1,O2からのステレオ画像計測の結果を表
1に示す。
【0097】
【表1】 次に、表1のデータを用いて、本実施例の方法により、
座標変換パラメータの推定値と物点の位置の推定値とを
求めた。別に測定した真の値とともに、その結果を表2
(座標変換パラメータ)と表3(物点の位置)に示し
た。また、第2視点O2および物点P1〜P4の推定位置
と真の位置とを平面上に投影したものを図3に示す。
【0098】
【表2】
【0099】
【表3】 物点の位置精度について、表1での測定値と表3の結果
とを推定誤差の2乗和で比較すると、視点の数が1から
2に増えたことで、3次元の位置計測精度が約2倍向上
していることが確認された。
【0100】(実験例2)各視点O1,O2でのカメラ間
隔(2a)を1mとし、焦点距離fが16.1mmのレ
ンズを用いて、図4に示すような建物と道路配置の場所
において、電柱などの3つの物点P1〜P3について、水
平面内の3つの視点O1〜O3から3次元ステレオ画像計
測を行なった。第1視点O1を基準座標系とした。各視
点O1〜O3からのステレオ画像計測の結果を表4に示
す。
【0101】
【表4】 次に、表4のデータを用いて本実施例の方法により、座
標変換パラメータの推定値と物点の位置の推定値とを求
めた。別に測定した真の値とともに、その結果を表5
(座標変換パラメータ)と表6(物点の位置)に示し
た。また、第2および第3の視点O2,O3および各物点
1〜P3の推定位置と真の位置とを図4にも示す。
【0102】
【表5】
【0103】
【表6】 物点の位置精度について、表4での測定値と表6の結果
とを推定誤差の2乗和で比較すると、視点の数が1から
3に増えたことで、位置計測精度が約2倍向上している
ことが確認された。
【0104】以上本発明の実施例について説明したが、
本発明は、3視点以上の多視点の場合についても、全て
の視点間の相対位置関係と全ての物点位置とを同時に高
い精度で決定することができること。したがって、3次
元の場合の適用が困難であり、かつ多視点の場合に視点
の数に見合っては精度が向上しない従来の方法とは異な
るものである。
【0105】
【発明の効果】以上説明したように本発明は、実空間に
おける計測誤差とその発生原因である画像面座標上での
計測誤差との関係に基づき、視点間の座標変換パラメー
タと各物点の真の実空間座標とを変数として含む形で、
各視点座標系における物点の位置計測誤差の確率密度分
布を求め、この確率密度分布を全ての視点、全ての物点
について合成した合成確率密度分布を考え、この合成確
率密度分布を最大にするように、全ての座標変換パラメ
ータと物点の実空間座標とを同時に決定することによ
り、3次元の場合であってもこれら座標変換パラメータ
と実空間座標値とを簡単かつ精度良く求めることができ
るという効果がある。また、視点の数が増えればそれに
見合って精度が向上するという効果がある。
【図面の簡単な説明】
【図1】本発明の一実施例の視点・物点位置決定方法に
おける複数の視点と物点との位置関係を示す図である
【図2】本発明の一実施例の視点・物点位置決定方法の
アルゴリズムを示すフローチャートである。
【図3】実験例1における視点と物点の配置を示す図で
ある。
【図4】実験例2における視点と物点の配置を示す図で
ある。
【図5】ステレオ画像計測の原理を説明する図である。
【図6】ステレオ画像計測に用いられる装置の一例を示
すブロック図である。
【図7】従来の視点位置決定方法のアルゴリズムを示す
フローチャートである。
【図8】2つの視点間の2次元空間における相対位置関
係を示す図である。
【図9】2つの視点間の3次元空間における相対位置関
係を示す図である。
【符号の説明】
1 光軸 2,3 画像面 41,42 テレビカメラ 5 ディジタイザ 6 画像メモリ 7 計算機 101〜105 ステップ
───────────────────────────────────────────────────── フロントページの続き (72)発明者 立田 光廣 東京都千代田区内幸町一丁目1番6号 日本電信電話株式会社内 (56)参考文献 特開 平4−286905(JP,A) 特開 平4−264207(JP,A)

Claims (3)

    (57)【特許請求の範囲】
  1. 【請求項1】 相対位置関係が未知である複数の視点に
    おいて複数の物点のステレオ画像計測を行ない、前記ス
    テレオ画像計測の結果から前記複数の視点の相対位置関
    係および前記各物点の実空間座標を決定する視点・物点
    位置決定方法において、 前記複数の視点のそれぞれにおいて獲得されたステレオ
    画像を演算処理し、各視点座標系で記述された前記複数
    の物点の実空間座標を得る第1の工程と、 前記ステレオ画像の画像面座標での計測誤差と実空間座
    標での計測誤差との関係に基づき、前記視点間の相対位
    置関係を記述する座標変換パラメータと前記各物点の真
    の実空間座標とを変数として含む形で、前記各視点座標
    系における前記各物点の位置計測誤差の確率密度分布を
    求める第2の工程と、 前記各視点と前記各物点とのそれぞれについて前記確率
    密度分布の総積を算出して合成確率密度分布を求める第
    3の工程と、 前記合成確率密度分布の最大値を与える全ての前記座標
    変換パラメータと前記各物点の実空間座標とを同時に求
    める第4の工程とを有することを特徴とする視点・物点
    位置決定方法。
  2. 【請求項2】 複数の視点座標系のうち任意の1つの視
    点座標系を基準座標系とし、座標変換パラメータが前記
    基準座標系と前記基準座標系以外の視点座標系との間の
    相対位置関係を記述するものである請求項1に記載の視
    点・物点位置決定方法。
  3. 【請求項3】 第4の工程が、最急降下法に基づいて反
    復的に行なわれる請求項2に記載の視点・物点位置決定
    方法。
JP4238586A 1992-09-07 1992-09-07 視点・物点位置決定方法 Expired - Fee Related JP2726366B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP4238586A JP2726366B2 (ja) 1992-09-07 1992-09-07 視点・物点位置決定方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP4238586A JP2726366B2 (ja) 1992-09-07 1992-09-07 視点・物点位置決定方法

Publications (2)

Publication Number Publication Date
JPH0688706A JPH0688706A (ja) 1994-03-29
JP2726366B2 true JP2726366B2 (ja) 1998-03-11

Family

ID=17032407

Family Applications (1)

Application Number Title Priority Date Filing Date
JP4238586A Expired - Fee Related JP2726366B2 (ja) 1992-09-07 1992-09-07 視点・物点位置決定方法

Country Status (1)

Country Link
JP (1) JP2726366B2 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5477658B2 (ja) * 2010-11-29 2014-04-23 独立行政法人産業技術総合研究所 キャリブレーション用校正治具、校正治具を備えた3次元計測システム
JP5975484B2 (ja) * 2012-11-26 2016-08-23 Kddi株式会社 画像処理装置
DE112014006876T5 (de) 2014-08-21 2017-05-18 Mitsubishi Electric Corporation Fahrassistenzvorrichtung, Fahrassistenzverfahren und Programm
CN104196542B (zh) * 2014-09-05 2017-02-15 中国铁建重工集团有限公司 一种隧道预切槽机及其导向系统
JP6150950B1 (ja) * 2015-11-20 2017-06-21 三菱電機株式会社 運転支援装置、運転支援システム、運転支援方法及び運転支援プログラム
CN113050660B (zh) * 2021-06-01 2021-08-20 新石器慧通(北京)科技有限公司 误差补偿方法、装置、计算机设备及存储介质

Also Published As

Publication number Publication date
JPH0688706A (ja) 1994-03-29

Similar Documents

Publication Publication Date Title
WO2020046066A1 (en) Method for training convolutional neural network to reconstruct an image and system for depth map generation from an image
US6438507B1 (en) Data processing method and processing device
CN110853075B (zh) 一种基于稠密点云与合成视图的视觉跟踪定位方法
US7471809B2 (en) Method, apparatus, and program for processing stereo image
US7965885B2 (en) Image processing method and image processing device for separating the background area of an image
CN110298884B (zh) 一种适于动态环境中单目视觉相机的位姿估计方法
US20060221417A1 (en) Image processing method, three-dimensional position measuring method and image processing apparatus
CN108629756B (zh) 一种Kinectv2深度图像无效点修复方法
WO2021052283A1 (zh) 处理三维点云数据的方法和计算设备
JP2007164816A (ja) 画像中のパターンを自動的に位置付けるベクトル相関システム
Park et al. Estimation of camera parameters from image sequence for model-based video coding
Svoboda et al. Matching in catadioptric images with appropriate windows, and outliers removal
JP2726366B2 (ja) 視点・物点位置決定方法
JP2923063B2 (ja) 多視点ステレオ画像計測方法
US6483949B1 (en) Image processing apparatus and method, and medium therefor
CN113790711B (zh) 一种无人机低空飞行位姿无控多视测量方法及存储介质
CN112669388B (zh) 激光雷达与摄像装置的标定方法及装置、可读存储介质
CN115407302A (zh) 激光雷达的位姿估计方法、装置和电子设备
JP2923069B2 (ja) 視点位置決定方法
US5682438A (en) Method and apparatus for determining a motion vector
JP3340599B2 (ja) 平面推定方法
JPH05256613A (ja) ステレオ画像からの視差演算方法と装置並びに奥行き測定装置
US6674922B1 (en) Image processing method, image processing apparatus, and storage medium
JPH10239054A (ja) 視点・物点位置計測方法及び装置
CN116704129B (zh) 基于全景图的三维图像生成方法、装置、设备及存储介质

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees