JPH07146121A - 視覚に基く三次元位置および姿勢の認識方法ならびに視覚に基く三次元位置および姿勢の認識装置 - Google Patents

視覚に基く三次元位置および姿勢の認識方法ならびに視覚に基く三次元位置および姿勢の認識装置

Info

Publication number
JPH07146121A
JPH07146121A JP27922393A JP27922393A JPH07146121A JP H07146121 A JPH07146121 A JP H07146121A JP 27922393 A JP27922393 A JP 27922393A JP 27922393 A JP27922393 A JP 27922393A JP H07146121 A JPH07146121 A JP H07146121A
Authority
JP
Japan
Prior art keywords
search
parameter
point
image feature
dimensional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP27922393A
Other languages
English (en)
Other versions
JP2778430B2 (ja
Inventor
Yukinori Kanayama
幸礼 金山
Mikio Sasaki
美樹男 笹木
Hideki Saito
英樹 斉藤
Tetsuya Kominami
哲也 小南
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
NipponDenso Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NipponDenso Co Ltd filed Critical NipponDenso Co Ltd
Priority to JP27922393A priority Critical patent/JP2778430B2/ja
Priority to US08/206,828 priority patent/US5499306A/en
Publication of JPH07146121A publication Critical patent/JPH07146121A/ja
Application granted granted Critical
Publication of JP2778430B2 publication Critical patent/JP2778430B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

(57)【要約】 【目的】 既知対象物体を撮影するカメラの位置姿勢を
高速且つ高精度でロバストに認識できるようにする。 【構成】 ワークを撮影するカメラ4からの信号により
その画像特徴点を画像処理部7で計算する。量子化空間
探索部10の各部の計算処理により、カメラ4の位置姿
勢ベクトルsの複数の探索パラメータに対して、画像特
徴点と予測した推定画像特徴点との間の誤差を計算して
最小値をとる局所最適値を求めることにより、各探索パ
ラメータについて逐次的独立探索を実行し、これを多重
スケールで巡回的に所定回数繰り返すことでカメラ4の
最適位置姿勢を示すデータを計算して認識する。高速且
つ高精度でロバストに位置姿勢の認識を行うことができ
る。

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は、自律移動ロボットなど
に搭載され単眼視カメラにより撮影した既知対象の画像
情報に基いて単眼視カメラの三次元位置および姿勢を認
識するようにした視覚に基く三次元位置および姿勢の認
識方法ならびに視覚に基く三次元位置および姿勢の認識
装置に関する。
【0002】
【従来の技術】近年、例えば、自律移動ロボット等のよ
うに、形状および絶対座標位置が既知である対象物体に
対して接近するように移動し、アームにより対象物体を
把持するといった能動的操作を行うようにしたものがあ
る。このような自律移動ロボット等においては、CCD
カメラなどの撮像手段を搭載してその二次元的な画像情
報に基いて対象物体に対する自己の三次元的な相対位置
を認識することが必要になる。この場合、位置認識を行
うための装置においては、高精度且つ迅速に計算を行っ
て三次元的な位置のデータを求めることが要求され、し
かも安価に実現できる構成が望まれている。
【0003】そこで、従来では、比較的簡単なものとし
て、例えば、特開平3−166072号公報あるいは特
開平3−166073号公報に示されるようなものが考
えられている。すなわち、これらにおいては、対象装置
に固定された形状および寸法が既知の特殊な幾何学形状
(マーカと呼ぶ)をカメラにより撮影し、そのマーカの
二次元的な画像情報に基いて、その重心を計算する等の
方法により対象装置に対するカメラの相対的な三次元の
位置関係を求めるようにしたものである。
【0004】
【発明が解決しようとする課題】しかしながら、上述の
ような従来方法によると、対象装置にマーカを設ける必
要があるため、その設置のための準備をその都度行う必
要があると共に、マーカに対してカメラの光軸を常に垂
直に設定する必要があるため、任意の姿勢をとるカメラ
に対しては適用が困難となる不具合がある。
【0005】このような不具合を解消し得る理論的手法
として、一般には、透視n点問題において最小二乗推定
した透視変換行列の成分からカメラの位置および姿勢を
表すパラメータを逆算する方法がコンピュータビジョン
の手法として存在する。この方法によれば、カメラの光
軸と対象物体を記述する絶対座標の原点との間の関係が
未知の場合でも、原理的にはカメラの位置および姿勢を
表すパラメータを求めることが可能となる。
【0006】ところが、このようなコンピュータビジョ
ンの手法においては、実際にコンピュータを用いて明示
的に計算する場合に、適用する式が非常に複雑になるこ
とに加えてその計算量が膨大なものとなるため、迅速な
計算処理が困難になり実用的には適用が難しくなるもの
である。
【0007】本発明は、上記事情に鑑みてなされたもの
で、その目的は、カメラの光軸と既知形状の対象物体を
記述する絶対座標の原点との間の関係が未知の場合で
も、カメラにより撮影した二次元の画像情報に基いて、
比較的簡単かつ迅速にカメラの位置と姿勢を表すパラメ
ータとを求めることができるようにした視覚に基く三次
元位置と姿勢の認識方法ならびに視覚に基く三次元位置
と姿勢の認識装置を提供することにある。
【0008】
【課題を解決するための手段】本発明の視覚に基く三次
元位置および姿勢の認識方法は、形状を示す三次元絶対
座標が既知である対象物体を撮像手段により撮影したと
きの画像信号に基いてその対象物体の形状の特徴を示す
二次元の画像特徴点を抽出する画像処理ステップと、前
記対象物体に対する前記撮像手段の位置姿勢を示す複数
のパラメータを探索パラメータとし、外部情報により与
えられる推定距離に応じたパラメータ探索開始点を設定
すると共にその推定距離に応じたパラメータ探索幅で量
子化したパラメータ探索点を有する空間探索領域を設定
する探索領域設定ステップと、この探索領域設定ステッ
プにて設定された前記空間探索領域のパラメータ探索点
で決まる位置から前記撮像手段により前記対象物体を撮
影したときに得られるべき二次元の推定画像特徴点を算
出するための透視変換行列を、あらかじめ記憶手段に記
憶された前記対象物体の三次元絶対座標に対する前記量
子化空間点の推定位置と前記撮像手段の初期探索パラメ
ータとに基いて計算する透視変換行列計算ステップと、
この透視変換行列計算ステップにて求められた前記透視
変換行列を用いて前記パラメータ探索点における前記対
象物体の二次元の前記推定画像特徴点を算出する透視変
換計算ステップと、前記画像処理ステップにて抽出され
た前記対象物体の二次元の画像特徴点と前記透視変換計
算ステップにて算出された二次元の前記推定画像特徴点
との対応関係を求めると共に、それら対応関係が得られ
た画像特徴点と推定画像特徴点との間の適合度を示す評
価誤差値を所定の誤差評価関数に基いて計算する誤差計
算ステップと、前記複数の探索パラメータのうちの指定
された探索パラメータに対して前記探索領域内で、前記
各推定画像特徴点に対する画像特徴点の評価誤差値が最
小となるような前記パラメータ探索点を局所最適パラメ
ータとして求めて、あらたにパラメータ探索点として設
定する局所最適パラメータ計算ステップと、この局所最
適パラメータ計算ステップを、あらかじめ指定された順
序で前記複数のパラメータのすべてについて逐次実行す
ると共に、これを所定回数繰り返して実行し、そのとき
の前記評価誤差値が所定の要求誤差精度よりも小さいと
きに、得られた複数のパラメータ探索値を前記位置姿勢
ベクトルの複数のパラメータとして決定する最適位置姿
勢データ決定ステップとを有する構成としたところに特
徴を有する。
【0009】また、本発明の視覚に基く三次元位置およ
び姿勢の認識装置は、画像信号を出力する撮像手段と、
対象物体の形状を示す三次元絶対座標データおよび探索
順序を指定するデータが記憶された記憶手段と、前記撮
像手段により前記対象物体を撮影したときの画像信号に
基いてその対象物体の形状の特徴を示す二次元の画像特
徴点を抽出する画像処理手段と、前記対象物体に対する
前記撮像手段の位置姿勢を示す複数のパラメータを探索
パラメータとし、外部情報により与えられる推定距離に
応じたパラメータ探索開始点を設定すると共にその推定
距離に応じたパラメータ探索幅で量子化したパラメータ
探索点を有する空間探索領域を設定する探索領域設定手
段と、この探索領域設定手段により設定された前記空間
探索領域のパラメータ探索点で決まる位置から前記撮像
手段により前記対象物体を撮影したときに得られるべき
二次元の推定画像特徴点を算出するための透視変換行列
を、あらかじめ記憶手段に記憶された前記対象物体の三
次元絶対座標に対する前記量子化空間点の推定位置と前
記撮像手段の初期探索パラメータとに基いて計算する透
視変換行列計算手段と、この透視変換行列計算手段によ
り求められた前記透視変換行列を用いて前記パラメータ
探索点における前記対象物体の二次元の前記推定画像特
徴点を算出する透視変換計算手段と、前記画像処理手段
により抽出された前記対象物体の二次元の画像特徴点と
前記透視変換計算手段により算出された二次元の前記推
定画像特徴点との間の対応関係を求めると共に、それら
対応関係が得られた画像特徴点と推定画像特徴点との間
の適合度を示す評価誤差値を所定の誤差評価関数に基い
て計算する誤差計算手段と、前記複数の探索パラメータ
のうちの指定された探索パラメータに対して前記探索領
域内で、前記各推定画像特徴点に対する画像特徴点の評
価誤差値が最小となるような前記パラメータ探索点を局
所最適パラメータとして求めて、あらたにパラメータ探
索点として設定する局所最適パラメータ計算手段と、こ
の局所最適パラメータ計算手段による計算処理を、あら
かじめ指定された順序で前記複数のパラメータのすべて
について逐次実行すると共に、これを所定回数繰り返し
て実行し、そのときの前記評価誤差値が所定の要求誤差
精度よりも小さいときに、得られた複数のパラメータ探
索値を前記位置姿勢ベクトルの複数のパラメータとして
決定する最適位置姿勢データ決定手段とを設けて構成し
たところに特徴を有する。
【0010】
【作用】請求項1記載の視覚に基く三次元位置と姿勢の
認識方法によれば、以下のようにして対象物体に対する
撮像手段の位置姿勢が認識されるようになる。すなわ
ち、撮像手段により撮影された対象物体の画像信号が入
力されると、画像処理ステップにおいて、その画像信号
に基づいて対象物体の形状の特徴等を示す二次元の画像
特徴点を抽出するようになる。
【0011】探索領域設定ステップにおいては、対象物
体に対する撮像手段の位置姿勢を示す複数のパラメータ
を探索パラメータとし、外部情報により与えられる推定
距離に応じてそれらの探索パラメータに対するパラメー
タ探索開始点を設定すると共にその推定距離に応じて決
められるパラメータ探索幅で量子化したパラメータ探索
点を有する空間探索領域を設定するようになる。
【0012】透視変換行列計算ステップにおいては、上
述の探索領域設定ステップにて設定された空間探索領域
のパラメータ探索点で決まる位置から前記撮像手段によ
り前記対象物体を撮影したときに得られるべき二次元の
推定画像特徴点を算出するための透視変換行列を計算に
より求める。このとき、透視変換行列は、あらかじめ記
憶手段に記憶された対象物体の三次元絶対座標に対する
パラメータ探索点の推定位置と撮像手段のパラメータ探
索開始点とに基いて計算される。
【0013】誤差計算ステップにおいては、前述の画像
処理ステップにて抽出された対象物体の二次元の画像特
徴点と透視変換計算ステップにて算出された二次元の推
定画像特徴点との対応関係を求めると共に、それら対応
関係が得られた画像特徴点と推定画像特徴点との間の適
合度を示す評価誤差値を所定の誤差評価関数に基いて計
算するようになる。
【0014】局所最適パラメータ計算ステップにおいて
は、複数の探索パラメータのうちの指定された探索パラ
メータに対して設定されている探索領域内で、各推定画
像特徴点に対する画像特徴点の評価誤差値が最小となる
ようなパラメータ探索点を局所最適パラメータとして求
めて、あらたにパラメータ探索点として設定するように
なる。
【0015】最適位置姿勢データ決定ステップにおいて
は、上述の局所最適パラメータ計算ステップを、あらか
じめ指定された順序で複数の探索パラメータのすべてに
ついて逐次実行すると共に、これを所定回数繰り返して
実行し、そのときの評価誤差値が所定の要求誤差精度よ
りも小さいときに、得られた複数のパラメータ探索値を
撮像手段の位置姿勢を示す複数のパラメータとして決定
するようになる。
【0016】この場合、三次元絶対座標が既知である対
象物をある一つの見え方の位置姿勢の範囲内で撮像手段
により撮影している状態では、上述の各ステップの実行
により、撮像手段の位置姿勢を複数のパラメータで表し
た位置姿勢ベクトルに対して、それぞれのパラメータを
逐次独立して探索することを多重スケールで巡回的に所
定回数だけ実施することになるので、最適な位置姿勢を
探索できる確率が非常に高くなり、少ない探索回数であ
りながら高速且つ高精度で撮像手段の位置姿勢を認識で
きるようになるものである。
【0017】請求項2記載の視覚に基く三次元位置と姿
勢の認識装置によれば、上述の各処理ステップを実行す
る手段を備えているので、それらの各手段により上述の
処理ステップを実行することにより、少ない探索回数で
ありながら高速且つ高精度で撮像手段の位置姿勢を認識
できるようになるものである。
【0018】
【実施例】以下、本発明を工場内などの軌道上を走行す
る自律移動ロボットに搭載する三次元位置認識装置に適
用した場合の第1の実施例について図1ないし図10を
参照しながら説明する。
【0019】全体構成の概略を示す図2において、自律
移動ロボット1は、例えば、工場内などの床面に設けら
れた軌道に沿って作業エリア2間を移動するようになっ
ており、本発明の三次元位置認識装置(図1参照)が搭
載されている。自律移動ロボット1の上部にはアーム3
が設けられ、そのアーム3の先端部には撮像手段として
のカメラ4および対象物体としてのワーク5を把持する
等の作業を行うためのハンド6が配設されている。この
場合、作業エリア2は壁面から窪んだ状態に形成された
凹部に設けられ、所定形状をなすワーク5はその作業エ
リア2の底面2aの所定位置に載置されている。
【0020】さて、三次元位置認識装置は図1に示すよ
うに構成される。画像処理手段としての画像処理部7
は、前処理計算部8および特徴点抽出部9からなる。前
処理計算部8は、カメラ4が撮影したワーク5を含むシ
ーンの画像信号を入力して二値化処理等の前処理計算を
行い、特徴点抽出部9は、前処理計算部8により計算さ
れた画像情報に基いて、後述のように、ワーク5の特徴
点に対応する二次元の画像特徴点を抽出するようになっ
ている。
【0021】量子化空間探索部10は、探索領域設定手
段としての探索領域決定部11,透視変換行列計算手段
としての透視変換行列計算部12,透視変換計算手段と
しての透視変換部13,誤差計算手段としての誤差評価
関数計算部14,局所最適パラメータ計算手段および最
適位置姿勢データ決定手段としての最適値決定部15そ
して、決定された最適位置姿勢データを出力する最終出
力部16から構成されている。
【0022】この場合、探索領域決定部11は、作業エ
リア2のワーク5に対する自律移動ロボット1の概略位
置情報に基いてカメラ4の位置姿勢ベクトルs〔γ,
θ,φ,ρ〕の4個(h=1,2,3,4)のパラメー
タを探索パラメータとして、それらのパラメータ探索開
始点s(1,1),パラメータ探索幅δ(k,h)およ
びパラメータ探索領域を設定する(k(=1,2,…,
K)は繰返し探索回数を示す)。なお、これらのパラメ
ータγ,θ,φ,ρについては作用の説明にて詳述す
る。
【0023】透視変換行列計算部12は、設定されたパ
ラメータ探索領域のパラメータ探索点s(k,h)にお
いてカメラ4によりワーク5を撮影したときに画像信号
から得られる画像内における画像特徴点の座標を求める
ための透視変換行列Mを、自律移動ロボット1の概略位
置情報およびカメラ4の姿勢パラメータに応じて計算す
る。透視変換計算部13は、求められた透視変換行列M
を用いてパラメータ探索点s(k,h)のそれぞれの位
置でカメラ4によりワーク5を撮影したときにその特徴
点に対応して得られるべき二次元の推定画像特徴点を計
算する。
【0024】誤差評価関数計算部14は、画像処理部7
にて抽出された画像特徴点と前記推定画像特徴点との対
応関係をつけると共に、それらの間の位置の誤差値を二
乗誤差和を求める誤差評価関数Dに基いて計算する。最
適値決定部15は、一つの探索パラメータに対する最適
値を局所最適パラメータとして決定すると共に、この局
所最適パラメータをあらかじめ指定された順序で位置姿
勢ベクトルの各パラメータに対して逐次計算し、これを
所定回数繰り返して実行させることにより、位置姿勢ベ
クトルの複数のパラメータを決定する。
【0025】また、量子化空間探索部10には、記憶手
段としてのメモリ17が接続され、その各種データの書
き込みおよび読み出し動作が行えるようになっている。
この場合、メモリ17にあらかじめ記憶されるデータと
しては、特徴点マッチングリスト,ワーク5および作業
エリア2の三次元絶対座標データ,カメラ4の焦点距離
f,パラメータ探索点およびパラメータ探索幅のリスト
とその座標データおよび位置姿勢パラメータの探索順序
指定情報などである。
【0026】また、外部位置情報出力部18は、カメラ
4の外部位置情報を示すデータを量子化空間探索部10
に入力するもので、自律移動ロボット1の走行制御を行
う図示しない制御装置あるいは図示しない位置検出セン
サなどから自律移動ロボット1の概略位置を示す信号が
入力されるようになっている。
【0027】次に、本実施例の作用について図3ないし
図10をも参照して説明する。三次元位置認識装置は、
その動作の流れとして図3に示すようなフローチャート
の各処理ステップにしたがって自律移動ロボット1の存
在位置を認識する。まず、図2の状態において、自律移
動ロボット1が軌道上を移動してきて作業エリア2に差
し掛かると、カメラ4の撮影シーン内に作業エリア2が
入って撮影されるようになり、画像処理部7は、カメラ
4の画像信号を入力するようになる(ステップT1)。
【0028】この場合、自律移動ロボット1は、所定軌
道上を所定方向に移動しており、作業エリア2に近付く
と、停止位置を指示するセンサからの信号や移動制御情
報等に基づいて、所定の停止領域E内に停止するように
なっているので、この停止領域E内に停止した状態では
カメラ4により作業エリア2のワーク5を撮影したとき
に、その視野内にワーク5が十分収まるように設定され
ている。
【0029】次に、カメラ4により撮影されたワーク5
の画像信号は、画像処理部7の前処理計算部8にて前処
理としての雑音除去処理(ステップT2)およびワーク
5の画像の切り出し処理(ステップT3)を実行し、こ
の後、特徴点抽出部9にてその画像信号に基いて次のよ
うにしてm個の画像特徴点Qjの集合Qを求めて出力す
るようになる(ステップT4)。ここで、画像特徴点Q
jの集合Qは式(1),(2)のように定義される。
【0030】
【数1】
【0031】この画像特徴点Qjの抽出に際しては、外
部情報出力部19から与えられる概略位置情報に基いて
次のように計算を行う。すなわち、概略位置情報とし
て、例えば、自律移動ロボット1の移動経路を記憶した
作業計画,走行制御により移動した空間移動の履歴情報
などが入力されるので、これらの外部情報に基いて、自
律移動ロボット1の中心位置の概略的な三次元絶対座標
を得ることができる。そして、自律移動ロボット1の中
心位置に対するカメラ4の相対位置はアーム3の制御位
置情報に基づいて得ることができるから、カメラ4の概
略位置を決定することができる。これにより得られたカ
メラ4の概略位置情報に基づいて、以降の探索過程にお
ける基準となる探索領域として初期探索領域S(1)を
設定することができる。
【0032】次に、ステップT5,T6において、探索
領域決定部11により、カメラ4の各種パラメータの探
索範囲を設定する。ここで、カメラ4の状態を示すパラ
メータとしては、図2および図4に対応関係を示してい
るように、(a)カメラ4の姿勢パラメータCP(α,
β,γ),(b)カメラ4の焦点距離特性f,(c)カ
メラ4の位置ベクトル(r,θ,φ)がある。
【0033】この場合、(b)に示すカメラ4の焦点距
離fは、カメラ4の特性によりあらかじめ決まっている
データであり、メモリ17内に焦点距離データとしてあ
らかじめ記憶されている。姿勢パラメータCPの各パラ
メータα,β,γは、カメラ4の光軸をz軸,水平方向
をx軸そして垂直方向をy軸としたときの、z軸周りの
回転角度γ,x軸周りの回転角度α,そしてy軸周りの
回転角度βとなる値である。また、カメラ4の位置パラ
メータは、三次元絶対座標系の原点に対するカメラ4の
視点の位置を極座標で示すもので、rは距離、θ,φは
rの傾き角度を示した値である。
【0034】そして、カメラ4の姿勢パラメータCPの
うち、光軸ずれを示す姿勢パラメータαおよびβについ
ては、対象物の中心位置の撮影画面上の座標データに基
づいて求めることができる。すなわち、図5に示すよう
に、撮影画面上でのワーク5の座標系の原点Opに対し
て、撮影画面上での画像位置Ops(画像情報に含まれ
ていない場合には含まれている特徴点を原点とする座標
系に変換する)が画素単位(ピクセル値)で示した二次
元座標(u,v)において、例えば(Na,Nb)であ
るとすると、次に示す式(3),(4)より姿勢パラメ
ータαおよびβの推定値が計算できる。
【0035】この場合、式(3)に示すαの値に cosβ
の要素が入るのは、初めにy軸周りに角度βだけ回転し
たときに、ワーク5の座標系の原点Opが遠ざかること
によって撮影画面上の画像位置Opsの二次元座標デー
タNaが変動するのを補正しているためである。
【0036】
【数2】
【0037】この結果、カメラ4の位置姿勢を示すカメ
ラパラメータとしては、残った未知の4個のパラメータ
γ,θ,φ,rを要素とした4次元の位置姿勢ベクトル
s〔γ,θ,φ,r〕を想定し、これらのパラメータを
探索パラメータとして設定すれば良いことになる。な
お、以降の説明においては、パラメータγとパラメータ
rとの符号の表記上の混同を避けるために、本明細書中
の表記を符号「r」に代えて符号「ρ」として示し、し
たがって、上述の位置姿勢ベクトルs〔γ,θ,φ,
r〕に対して位置姿勢ベクトルs〔γ,θ,φ,ρ〕に
置き換えて示す。(図2,図4,図6においては、
「r」のまま表記した。)次に、探索すべき探索パラメ
ータを指定するための変数hを「1」に設定して(ステ
ップT7)はじめの探索パラメータを「γ」に指定し
(ステップT8)、探索領域S(1)内の1点を探索パ
ラメータγに対するパラメータ探索開始点s(1、1)
として設定する。このパラメータ探索開始点s(1,
1)は、パラメータ探索点s(k,h)の初期値に対応
するものであり、kは繰り返し探索回数を示している。
【0038】また、設定されたパラメータ探索開始点s
(1,1)においては、その探索パラメータγに対する
パラメータ探索幅δ(1,1)が設定され(ステップT
10,T11)、探索過程が実行されるようになってい
る。このとき、探索範囲内での探索パラメータの値の変
更は、変数Iを順次指定することにより、パラメータ探
索幅δだけ変化されるようになっている。
【0039】次に、透視変換行列計算部12において、
パラメータ探索開始点s(1,1)の三次元位置座標お
よび前述の式(3),(4)で求めた姿勢パラメータα
およびβの値,探索パラメータγの初期設定値で作られ
る初期姿勢を用いて、透視変換行列M(1,1)を計算
する(ステップT12)。
【0040】この場合、透視変換行列Mは、次のように
して計算される。すなわち、まず、ワーク5の原点Op
に対して設定されている三次元絶対座標(X,Y,Z)
を基準として、初期探索領域S(1)を設定する。この
初期探索領域S(1)は、自律移動ロボット1の停止領
域Eに基づいて設定されるもので、カメラ4の予定撮像
位置である概略位置A0(X0,Y0,Z0)を極座標
で表した概略位置A0(ρ0,θ0,φ0)を中心とし
て、停止位置精度に対応する位置探索領域として、 ρ0−Δρ1≦ρ≦ρ0+Δρ2 θ0−Δθ1≦θ≦θ0+Δθ2 φ0−Δφ1≦φ≦φ0+Δφ2 の範囲に相当するように設定される。また、姿勢探索領
域に対しては、パラメータαおよびβについては式
(3),(4)で求めた結果を用い、パラメータγにつ
いては、 −Δγ1≦γ≦Δγ2 の範囲に相当するように設定される。
【0041】そして、カメラ4の姿勢パラメータCP
(α,β,γ)と、焦点距離特性fから求めたカメラ4
の視点位置と射影平面に対する距離dとに基いて、図6
(「ρ」は「r」として表記している)に示す関係に基
いて透視変換行列Mを求める。ここで、透視変換行列M
は次式(5)のように表すことができる。
【0042】
【数3】
【0043】このうち、画像の表示面とワーク5との間
の透視変換を計算するための透視変換行列M1とM2と
の積および座標変換行列M3は、それぞれ、次式
(6),(7)のように表すことができる。
【0044】
【数4】
【0045】また、カメラ4の光軸ずれに対応する姿勢
パラメータCP(α,β,γ)に応じた回転の計算を行
うための変換行列Tは、前述の図4(「ρ」は「r」と
して表記している)と図6に示す関係とに基いて、γ,
αそしてβの順に回転する回転変換行列として次式
(8),(9),(10)のように表すことができる。
【0046】
【数5】
【0047】なお、上述の場合、透視変換行列Mの計算
過程においては、以下のようにして演算量の削減を図る
ことができる。すなわち、式(5)中の変換行列Tに式
(8)を代入し、ここで、(T1・M1・M2)で示さ
れた要素をMTと置くと式(5A)のようになる。この
とき、要素MTの値は、式(6)および式(8)から計
算すると式(5B)のように単純な形の式に変形でき
る。したがって、式(5B)を式(5A)に代入する
と、透視変換行列Mは式(5C)のようになり、実際の
計算にあたっては、この式(5C)に基づいて行うこと
により演算量を少なくして演算速度の向上を図ることが
できる。
【0048】
【数6】
【0049】次に、ステップT13に進むと、このよう
にして計算により求めた透視変換行列M(1,1)に基
いて、透視変換計算部13により、作業エリア2とそこ
に載置されたワーク5のn個の特徴点Piの集合Pの各
特徴点Piについて三次元絶対座標データを透視変換の
計算を行って二次元の画像表示部の座標を求め、式(1
1),式(12)に示すような各特徴点Piに対する推
定画像特徴点Qeiの集合Qeを求める。そして、斉次
座標を用いると、特徴点Piの集合Pから推定画像特徴
点Qeiの集合Qeへの変換は、式(5)あるいは単純
化した式(5C)を用いると、式(13)のように表す
ことができる。
【0050】
【数7】
【0051】次に、画像処理部7にて抽出されたカメラ
4により撮影されたワーク5の画像特徴点Qjの集合Q
(式(1)参照)の各画像特徴点Qjと、あらかじめ記
憶されたワーク5の三次元の特徴点Pi(式(4)参
照)との間の対応関係をとった特徴点対応リストを選択
する(ステップT14)。この場合、図7(a)に示す
ワーク5の特徴点Piの位置と、図8(a)〜(f)に
示す種々の見え方パターンとの対比から、各画像特徴点
Qjを対応付けると、図7(b)に示すように、画像情
報として撮影画面上の画像特徴点Qjと対応する特徴点
Piとの対応関係が得られる。そして、以上のような対
応付けの結果に基づいて、ワーク5の見え方のパターン
を決定する。
【0052】例えば、図8に示す見え方パターンの
(b)に相当する特徴点対応リストが得られた場合に
は、見え方パターン(b)の対応関係の範囲内で、例え
ば、図9(a)〜(c)に示すように、画像特徴点Qj
の位置が推定特徴点Qeiに対して小さく見える場合
(a)、偏って見える場合(b)、傾いて見える場合
(c)などの種々の状態が想定される。つまり、以下の
探索過程においては、図9(a)〜(c)などのよう
な、同じ見え方パターンの状態におけるワーク5の形状
のずれを探索することになるのである。
【0053】続いて、誤差評価関数計算部14により、
対応関係が得られた画像特徴点Qjと前述の推定画像特
徴点Qeiの集合Qe(=P・M)との間の誤差評価関
数D(1,1)を計算する(ステップT15)。この場
合、誤差評価関数D(k,h)は、画像特徴点Qjと推
定画像特徴点Qeiとの間の距離の二乗誤差和に相当す
る値を計算するものである。
【0054】続いて、ステップT16,T17を経て、
探索パラメータγを設定したパラメータ探索範囲内でそ
のパラメータ探索幅δ(1,1)の間隔で量子化された
各パラメータ探索点について上述のステップT11ない
しT15を繰り返し実行することにより探索過程を進め
る。
【0055】そして、得られた誤差評価関数の値D
(1,1)の最小値となる局所最適値Dmin (1,1)
に対応するパラメータ探索点における探索パラメータγ
の値に基づいて、このときのパラメータ探索範囲におけ
るパラメータ探索点をs(1,2)とするようになる
(ステップT18)。なお、この計算過程においては、
探索パラメータであるγの値以外にはパラメータθ,
φ,ρの値をパラメータ初期設定値のまま固定して行う
独立探索として実行するようになっている。
【0056】続いて、いま求めた位置姿勢のパラメータ
探索点s(1,2)を新たなパラメータ探索開始点とし
て、ステップT19,T20にて次の探索パラメータを
θ(h=2)に設定し、上述のステップT8ないしT1
7を繰り返すことにより、探索パラメータθについての
局所最適値Dmin (1,2)を計算する。
【0057】この場合、探索パラメータθの値は、θの
パラメータ探索範囲内でパラメータ探索幅をδ(1,
2)として量子化されたパラメータ探索点について上述
のステップT8ないしT17を実行することにより計算
される。そして、ステップT18にて探索パラメータθ
についての局所最適値Dmin (1,2)が得られると、
これに対応するパラメータ探索点をs(1,3)とす
る。
【0058】以下、探索パラメータφおよびρについて
も、同様にして上述のステップT8〜T18を繰り返し
実行する。そして、探索パラメータφの局所最適値Dmi
n (1,4)に対するパラメータ探索点s(1,4)が
求められた後、探索パラメータρの局所最適値Dmin
(2,1)が求められると、このときのパラメータ探索
点s(2,1)は、すべての探索パラメータγ,θ,
φ,ρについて1回の局所最適値Dmin を求めたことに
なる。
【0059】したがって、次にステップT19になる
と、こんどはステップT21に移行することになり、繰
り返し探索回数kの値が設定値Kに達するまでの間はス
テップT22に移行し、再び上述のステップT7〜T2
2の探索過程を繰り返すようになる。
【0060】この場合、探索領域S(k)は、上述の探
索領域S(1)から新たな探索領域S(2)に設定され
るようになっている。つまり、各探索パラメータγ,
θ,φおよびρについて1回の探索過程を実行したこと
により、2回目には探索範囲を絞り込んでその範囲内で
精度を上げた狭い幅のパラメータ探索幅δ(2,h)を
設定することになるのである。
【0061】また、すべての探索パラメータγ,θ,
φ,ρについて順次1回の局所最適値Dmin (2,1)
として得られたパラメータ探索点s(2,1)を2回目
の探索過程におけるパラメータ探索開始点s(2,1)
として新たに設定して同様の計算処理を実行するように
なっている。したがって、各探索パラメータγ,θ,
φ,ρについて逐次的且つ独立に探索過程が実行され、
これを巡回的に所定回数K回繰り返すという計算が行わ
れるのである。
【0062】ところで、このような探索過程の概念を、
図10を用いて簡単に説明する。なお、本実施例におい
ては、位置姿勢ベクトルs〔γ,θ,φ,ρ〕が4個の
パラメータを持っているので、探索領域空間が4次元と
なって図示する上で無理が生ずるため、ここでは、便宜
的に位置姿勢ベクトルsを3個の探索パラメータθ,
φ,ρを有する位置姿勢ベクトルs〔θ,φ,ρ〕とし
て設定した場合を例にとって説明する。
【0063】すなわち、図10においては、位置姿勢ベ
クトルs〔θ,φ,ρ〕の各探索パラメータθ,φ,ρ
をそれぞれ探索軸であるθ軸,φ軸,ρ軸とし、三次元
空間内で直交する座標軸として示している。また、この
座標系の原点をパラメータ探索開始点s(1,1)とす
る。
【0064】そして、まず、探索パラメータφ,ρを初
期探索点の値のまま固定し、探索パラメータθについて
のみ独立に探索過程を実行してそのときの誤差評価値D
minが最小となるときの位置姿勢ベクトルのパラメータ
探索点s(1,2)を計算する。つまり、θ軸方向(図
中矢印(イ)で示す)に沿って所定のパラメータ探索幅
δ(1,1)で設定されたパラメータ探索点について誤
差評価値Dmin を求め、そのときの探索パラメータθの
値を用いた新たなパラメータ探索点s(1,2)を求め
て、1回目の探索パラメータθに対する独立探索を終了
する。
【0065】次に、いま得られたパラメータ探索点s
(1,2)をパラメータ探索開始点として探索パラメー
タφについて同様の探索過程を実行する。今度は、他の
探索パラメータθおよびρを固定した状態で探索パラメ
ータφのみをパラメータ探索幅δ(1,2)に応じて探
索過程を実行するのである。したがって、パラメータ探
索点s(1,2)を探索開始点としてφ軸に沿った方向
に探索を行うことになり(図中矢印(ロ)で示す)、所
定の探索範囲内で得られる局所最適値Dmin を求めてそ
のときの探索パラメータφの値を用いた新たなパラメー
タ探索点s(1,3)を求める。
【0066】次に、同様のことを探索パラメータρにつ
いて実行すると、そのときに得られたパラメータ探索点
s(2,1)は2回目の探索過程におけるパラメータ探
索開始点となり、以下、このような探索過程をK回繰り
返し実行することにより、図中矢印(ハ)〜(ヘ)で示
すようにして順次パラメータ探索点s(k,h)が最適
値に向かって探索されて行き、最終的に得られるパラメ
ータ探索点s(K+1,1)が最適な位置姿勢ベクトル
s〔θ,φ,ρ〕を与える最適位置姿勢データとなる。
【0067】なお、上述のようにして各探索パラメータ
についての探索過程を1回実行すると、次の回に行われ
る探索過程においては、その探索範囲が絞り込まれるよ
うになる多重スケールとして巡回的に探索過程を実行す
ることができるので、この探索回数Kの値を大きく設定
するほど、検出精度を向上させることができるようにな
って、目標検出精度を高くすることができる。
【0068】さて、上述のようにして繰り返し回数Kだ
け(例えばK=5)上述のステップT7〜T22を繰り
返し実行すると、ステップT21を経てステップT23
に移行するようになる。ここで、最適値決定部15は、
最終的に得られたパラメータ探索点s(6,1)に対す
る局所最適値Dmin の値が目標となる誤差精度εよりも
小さいか否かを判定し、この条件を満たしている場合に
は、このときのパラメータ探索点s(6,1)に対応す
る位置姿勢ベクトルs〔γ,θ,φ,ρ〕および姿勢パ
ラメータとしてステップT5で計算した値αおよびβを
最適位置姿勢データとして最終出力部16から出力する
ようになる(ステップT24)。
【0069】また、一連の探索過程が終了した結果、局
所最適値Dmin の値が誤差精度ε以上となってステップ
T23の条件を満たさない場合には、ステップT23か
らステップT25に進み、要求誤差精度εを満たす探索
点sが存在しないことをメッセージ出力した後、それま
での間に計算された局所最適値Dmin のなかから要求誤
差精度εに一番近い値が得られたパラメータ探索点s
(k,h)の位置姿勢ベクトルs〔γ,θ,φ,ρ〕の
値およびカメラ4の姿勢パラメータ(α,β)の値を新
たなパラメータ探索開始点として設定すると共に新たな
探索領域Sを設定してステップT6に戻り、上述と全く
同様にして探索過程を繰り返し実行するようになる。
【0070】なお、上述のように探索過程を実行するこ
とにより、例えば、繰り返し回数kの値が最終回Kのと
きには最終目標検出精度εよりも小さいパラメータ探索
幅δを設定する必要があるが、それ以前の繰り返し回数
k(k<K)に対しては、そのときの検出精度に対応し
て目標検出精度よりも大きいパラメータ探索幅δを設定
することができ、これにより、探索の初期段階において
はパラメータ探索幅δを広い幅として概略的な位置姿勢
の計算を行うことにより迅速に探索領域を絞り込み、最
終段階でパラメータ探索幅δを目標検出精度となるよう
に設定することができるようになる。つまり、パラメー
タ探索幅を多重スケールとして探索過程を実行すること
ができるので、探索過程の計算時間を短縮した概略的な
計算を行いながら効率的に精度の高い計算処理を行うこ
とができる。
【0071】なお、発明者らの実験結果によると、この
ように多重スケールで探索過程を実行することにより、
繰り返し探索回数Kの値を「5」とした場合でも、検出
誤差精度を、距離精度±1.0mm、姿勢精度±0.5
°の位置姿勢決定に対して十分に対応できることがわか
り、高速且つ高精度でロバストに位置姿勢を認識するこ
とができることが確認されている。
【0072】このように本実施例においては、既知形状
の対象物体としての作業エリア2およびワーク5をカメ
ラ4により撮像してその画像情報から画像特徴点Qjを
抽出し、量子化した空間点を複数個有する空間探索領域
Scを設定すると共に、カメラ4の位置姿勢ベクトルs
〔γ,θ,φ,ρ〕を設定してワーク5をその探索点s
(k,h)において撮像したときに得られるべきワーク
5の推定画像特徴点Qeiを透視変換行列M(k,h)
を求めることにより計算し、それらの対応関係を求めて
誤差評価関数Dに対する局所最適値Dmin を計算して探
索パラメータごとに逐次的な独立探索を実行することを
繰り返し回数Kだけ繰り返し実行し、要求誤差精度εを
満たしたときの探索点sに対応する位置姿勢ベクトルs
〔γ,θ,φ,ρ〕および姿勢パラメータ(α,β)を
最適位置姿勢データとして出力するようにしたので、以
下のような効果を得ることができる。
【0073】すなわち、第1に、従来と異なり、特殊マ
ーカを設ける必要がなくなり、マーカ認識用の移動時間
が不要となって計算時間を短縮して高速化を図れる。第
2に、現在、明示的に解けていない透視変換行列の成分
からパラメータを算出する方法ではないので、明示的に
は解けるが計算量が膨大となる透視変換行列の最小二乗
推定を必要としないため、迅速に計算処理を実行でき
る。第3に、カメラ4の姿勢パラメータが未知の場合で
も適用できる。
【0074】第4に、カメラ4の位置姿勢ベクトルs
〔γ,θ,φ,ρ〕を求めるための計算において、探索
パラメータ毎の逐次的独立探索を多重スケールで巡回的
に繰り返し実行することにより、少ない探索回数で最適
な位置姿勢を高精度且つロバストに認識することができ
るようになる。
【0075】第5に、透視変換行列Mの式(5)を式
(5C)のように単純化して実際の計算を行うので、式
(5)のままで計算する場合に比べて大幅な計算量の削
減を図れるので、演算速度の向上を図ることができる。
【0076】なお、上記実施例においては、探索パラメ
ータγ,θ,φ,ρの探索順序をこの順番となるように
あらかじめ指定して逐次的独立探索過程を実行するよう
にしているが、これに限らず、ワーク5に対するカメラ
4の概略位置姿勢に応じて探索順序を柔軟に変更する機
能を設けても良い。つまり、例えば、距離rに対するパ
ラメータρが探索範囲を決定づける大きな要素となるよ
うな位置にある場合には、探索パラメータρを探索順序
の第1番目に指定するといったように、探索順序を決定
するための判断基準を設けておくことにより、さらに効
率的な探索過程を実行することができるのである。
【0077】図11は本発明の第2の実施例を示すもの
で、以下、第1の実施例と異なる部分について説明す
る。すなわち、このものは、第1の実施例において実行
されるプログラムの内容に加えて図11に示すステップ
を実行することにより、撮影画面上の原点計算に起因す
る測定誤差に対してロバスト性の向上を図ると共に認識
精度の向上を図るようにしたものである。
【0078】第1の実施例においては、探索過程の初期
段階でカメラの姿勢パラメータであるαとβの値を画像
情報に基づいて設定し、これを既知データとして取り扱
うようにした。これは、探索すべき6個のパラメータ
α,β,γ,θ,φおよびρに対して実際の計算段階で
4個のパラメータに絞り込むことで演算量を低減して高
速化を図るようにしている。
【0079】しかし、この場合に、撮影画面の画像デー
タから抽出した対象物座標系原点の二次元座標に誤差が
含まれていると、初期設定として求めた姿勢パラメータ
α,βの値にも誤差が生じていることになる。したがっ
て、この初期設定に基づいて他の4個の探索パラメータ
の巡回独立探索を行う場合には、姿勢パラメータα,β
の探索精度を上回る高精度の位置姿勢認識が達成できな
くなる場合が生ずるのである。
【0080】そこで、この実施例では、上述の不具合を
解消しながら、しかも6個すべての位置姿勢パラメータ
を探索パラメータとして巡回独立探索過程を実行する場
合に比べて、演算量の増加分を最小限に止めて演算速度
の低下の防止を図るようにしている。
【0081】まず、第1の実施例における探索過程を実
行するうちに、ステップT6が終了すると、続いて図1
1に示すステップT25を実行する。ここでは、繰り返
し探索回数kの値があらかじめ設定されたカメラ姿勢パ
ラメータα,βの探索開始回数m回以上となっているか
否かを判断する。ここで、「NO」と判断されたときに
は、そのままステップT7に移行して第1の実施例と同
様の探索過程を実施し、以後、繰り返して探索過程を実
行するうちに、このステップT25で「YES」と判断
されると、ステップT26に分岐するようになる。
【0082】すなわち、ステップT26にて探索パラメ
ータとしての姿勢パラメータα,βの探索幅を設定し、
ステップT27に進むと姿勢パラメータβの探索を実行
し、続いてステップT28にて姿勢パラメータαの探索
を実行し、この後、ステップT7に戻って第1の実施例
と同様にして以降のステップにおける探索過程を実行す
る。この場合、探索回数が大きくなるにしたがってステ
ップT26における探索幅の設定値は細かい値となり、
探索精度が高くなるようにしている。
【0083】したがって、このような第2の本実施例に
よれば、第1の実施例における効果に加えて、初期段階
で撮影画面上の原点Opに基づいて求めたカメラ姿勢パ
ラメータα,βの値を探索過程の後半段階で探索パラメ
ータに加えて探索過程を実行するようにしたので、初期
段階で撮影画像原点座標Opデータに含まれる検出誤差
によるカメラ姿勢パラメータα,βの初期値の誤差を修
正することができ、探索過程の後半段階での実質的な検
出精度をより向上させることができるようになる。ま
た、探索過程の前半段階から全てのパラメータについて
探索を実行する場合に比べて演算速度の低下を招くこと
なく検出精度の向上を図ることができるものである。
【0084】なお、発明者らは、上述の場合に、繰り返
し探索回数Kの値を第1の実施例における回数5回より
もさらに多くした12回に設定して高精度の探索を実施
し、この場合に、カメラ姿勢パラメータα,βの探索開
始回数mを7回として実施した場合に、高精度で良好な
結果が得られることがわかった。
【0085】この場合、繰り返し探索回数Kの値を大き
く設定することは、一般的に検出精度の向上となる反
面、探索時間が長くなるという制約を受けることになる
ので、実際には要求される検出精度と探索時間との兼ね
合いで繰り返し探索回数を設定することになる。そこ
で、短時間での検出精度向上が要求される場合には、本
実施例における探索過程が有効な方法となるものであ
る。
【0086】なお、上記第2の実施例においては、繰り
返し探索回数Kを12回とし、カメラ姿勢パラメータ
α,βの探索開始回数mを7回として実験した場合につ
いて説明したが、これに限らず、繰り返し探索回数Kお
よび探索開始回数m(K>m>2)の値は検出精度と探
索時間との兼ね合いで適宜の値に設定することができる
ものである。
【0087】
【発明の効果】以上説明したように、本発明によれば、
次のような効果を得ることができる。すなわち、請求項
1記載の視覚に基く三次元位置および姿勢の認識方法に
おいては、撮像手段により撮影された対象物体の画像信
号入力に対し、画像処理ステップにおいて二次元の画像
特徴点を抽出し、空間探索領域設定ステップにおいて外
部情報等に基づいた撮像手段と対象物体との概略的な推
定距離に応じて必要な計算精度に対応する密度の量子化
空間点を有する空間探索領域を設定し、探索パラメータ
設定ステップにおいてパラメータ探索値の初期値,探索
点,探索範囲を設定する。
【0088】そして、透視変換行列計算ステップにおい
て二次元の推定画像特徴点を算出するための透視変換行
列を計算すると共に、透視変換計算ステップにおいて対
象物体の二次元の推定画像特徴点を算出し、誤差計算ス
テップにおいて画像特徴点と推定画像特徴点との対応関
係を求めてそれらの間の評価誤差値を誤差評価関数に基
いて計算し、局所最適パラメータ計算ステップおよび最
適位置姿勢データ決定ステップにおいて、あらかじめ指
定された順序で前記複数のパラメータのすべてについて
局所最適パラメータの逐次的独立探索を実行させ、これ
を所定回数繰り返すことにより、位置姿勢ベクトルの複
数のパラメータとして決定するようにした。
【0089】これにより、撮像手段の位置姿勢を複数の
パラメータで表した位置姿勢ベクトルに対して、それぞ
れのパラメータを逐次独立して探索することを多重スケ
ールで巡回的に所定回数だけ実施することができ、少な
い探索回数で高速且つ高精度でロバストに撮像手段の位
置姿勢を認識できるという優れた効果を奏する。
【0090】請求項2記載の視覚に基く三次元位置と姿
勢の認識装置によれば、上述の各処理ステップを実行す
る手段を備えているので、少ない探索回数でありながら
高速且つ高精度でロバストに撮像手段の位置姿勢を認識
できるという優れた効果を奏する。
【図面の簡単な説明】
【図1】本発明の第1の実施例を示す概略的なブロック
構成図
【図2】自律移動ロボットと作業エリアとの位置関係を
示す図
【図3】プロセスの流れを概略的に説明するためのフロ
ーチャート
【図4】透視変換行列を計算するための座標軸の関係を
示す説明図
【図5】撮影画面上のワークとカメラの姿勢パラメータ
との関係を示す説明図
【図6】絶対座標軸とカメラおよび撮影画面の座標軸と
の関係を示す説明図
【図7】(a)作業エリアおよびワークの特徴点の定義
と(b)画像信号による画像特徴点との対応関係を示す
作用説明図
【図8】ワークの種々の見え方パターン
【図9】ひとつの見え方パターンにおける異なる見え方
の状態の説明図
【図10】探索過程の概念的な説明図
【図11】本発明の第2の実施例を示すプロセスの流れ
を概略的に説明するためのフローチャートの追加ステッ
プ説明図
【符号の説明】
1は自律移動ロボット、4はカメラ(撮像手段)、5は
ワーク(対象物体)、7は画像処理部(画像処理手
段)、8は前処理計算部、9は特徴点抽出部、10は量
子化空間探索部、11は探索領域決定部(探索領域設定
手段)、12は透視変換行列計算部(透視変換行列計算
手段)、13は透視変換部(透視変換計算手段)、14
は誤差評価関数計算部(誤差計算手段)、15は最適値
決定部(局所最適パラメータ計算手段、最適位置姿勢デ
ータ決定手段)、16は最終出力部、17はメモリ(記
憶手段)、18は外部位置情報出力部である。
───────────────────────────────────────────────────── フロントページの続き (72)発明者 小南 哲也 愛知県刈谷市昭和町1丁目1番地 日本電 装株式会社内

Claims (2)

    【特許請求の範囲】
  1. 【請求項1】 形状を示す三次元絶対座標が既知である
    対象物体を撮像手段により撮影したときの画像信号に基
    いてその対象物体の形状の特徴を示す二次元の画像特徴
    点を抽出する画像処理ステップと、 前記対象物体に対する前記撮像手段の位置姿勢を示す複
    数のパラメータを探索パラメータとし、外部情報により
    与えられる推定距離に応じたパラメータ探索開始点を設
    定すると共にその推定距離に応じたパラメータ探索幅で
    量子化したパラメータ探索点を有する空間探索領域を設
    定する探索領域設定ステップと、 この探索領域設定ステップにて設定された前記空間探索
    領域のパラメータ探索点で決まる位置から前記撮像手段
    により前記対象物体を撮影したときに得られるべき二次
    元の推定画像特徴点を算出するための透視変換行列を、
    あらかじめ記憶手段に記憶された前記対象物体の三次元
    絶対座標に対する前記パラメータ探索点の推定位置と前
    記撮像手段のパラメータ探索開始点とに基いて計算する
    透視変換行列計算ステップと、 この透視変換行列計算ステップにて求められた前記透視
    変換行列を用いて前記パラメータ探索点における前記対
    象物体の二次元の前記推定画像特徴点を算出する透視変
    換計算ステップと、 前記画像処理ステップにて抽出された前記対象物体の二
    次元の画像特徴点と前記透視変換計算ステップにて算出
    された二次元の前記推定画像特徴点との対応関係を求め
    ると共に、それら対応関係が得られた画像特徴点と推定
    画像特徴点との間の適合度を示す評価誤差値を所定の誤
    差評価関数に基いて計算する誤差計算ステップと、 前記複数の探索パラメータのうちの指定された探索パラ
    メータに対して前記探索領域内で、前記各推定画像特徴
    点に対する画像特徴点の評価誤差値が最小となるような
    前記パラメータ探索点を局所最適パラメータとして求め
    て、あらたにパラメータ探索点として設定する局所最適
    パラメータ計算ステップと、 この局所最適パラメータ計算ステップを、あらかじめ指
    定された順序で前記複数のパラメータのすべてについて
    逐次実行すると共に、これを所定回数繰り返して実行
    し、そのときの前記評価誤差値が所定の要求誤差精度よ
    りも小さいときに、得られた複数のパラメータ探索値を
    前記位置姿勢ベクトルの複数のパラメータとして決定す
    る最適位置姿勢データ決定ステップとを有することを特
    徴とする視覚に基く三次元位置および姿勢の認識方法。
  2. 【請求項2】 画像信号を出力する撮像手段と、 対象物体の形状を示す三次元絶対座標データおよび探索
    順序を指定するデータが記憶された記憶手段と、 前記撮像手段により前記対象物体を撮影したときの画像
    信号に基いてその対象物体の形状の特徴を示す二次元の
    画像特徴点を抽出する画像処理手段と、 前記対象物体に対する前記撮像手段の位置姿勢を示す複
    数のパラメータを探索パラメータとし、外部情報により
    与えられる推定距離に応じたパラメータ探索開始点を設
    定すると共にその推定距離に応じたパラメータ探索幅で
    量子化したパラメータ探索点を有する空間探索領域を設
    定する探索領域設定手段と、 この探索領域設定手段により設定された前記空間探索領
    域のパラメータ探索点で決まる位置から前記撮像手段に
    より前記対象物体を撮影したときに得られるべき二次元
    の推定画像特徴点を算出するための透視変換行列を、あ
    らかじめ記憶手段に記憶された前記対象物体の三次元絶
    対座標に対する前記量子化空間点の推定位置と前記撮像
    手段の初期探索パラメータとに基いて計算する透視変換
    行列計算手段と、 この透視変換行列計算手段により求められた前記透視変
    換行列を用いて前記パラメータ探索点における前記対象
    物体の二次元の前記推定画像特徴点を算出する透視変換
    計算手段と、 前記画像処理手段により抽出された前記対象物体の二次
    元の画像特徴点と前記透視変換計算手段により算出され
    た二次元の前記推定画像特徴点との間の対応関係を求め
    ると共に、それら対応関係が得られた画像特徴点と推定
    画像特徴点との間の適合度を示す評価誤差値を所定の誤
    差評価関数に基いて計算する誤差計算手段と、 前記複数の探索パラメータのうちの指定された探索パラ
    メータに対して前記探索領域内で、前記各推定画像特徴
    点に対する画像特徴点の評価誤差値が最小となるような
    前記パラメータ探索点を局所最適パラメータとして求め
    て、あらたにパラメータ探索点として設定する局所最適
    パラメータ計算手段と、 この局所最適パラメータ計算手段による計算処理を、あ
    らかじめ指定された順序で前記複数のパラメータのすべ
    てについて逐次実行すると共に、これを所定回数繰り返
    して実行し、そのときの前記評価誤差値が所定の要求誤
    差精度よりも小さいときに、得られた複数のパラメータ
    探索値を前記位置姿勢ベクトルの複数のパラメータとし
    て決定する最適位置姿勢データ決定手段とを有すること
    を特徴とする視覚に基く三次元位置および姿勢の認識装
    置。
JP27922393A 1993-03-08 1993-11-09 視覚に基く三次元位置および姿勢の認識方法ならびに視覚に基く三次元位置および姿勢の認識装置 Expired - Fee Related JP2778430B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP27922393A JP2778430B2 (ja) 1993-10-01 1993-11-09 視覚に基く三次元位置および姿勢の認識方法ならびに視覚に基く三次元位置および姿勢の認識装置
US08/206,828 US5499306A (en) 1993-03-08 1994-03-07 Position-and-attitude recognition method and apparatus by use of image pickup means

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP24722993 1993-10-01
JP5-247229 1993-10-01
JP27922393A JP2778430B2 (ja) 1993-10-01 1993-11-09 視覚に基く三次元位置および姿勢の認識方法ならびに視覚に基く三次元位置および姿勢の認識装置

Publications (2)

Publication Number Publication Date
JPH07146121A true JPH07146121A (ja) 1995-06-06
JP2778430B2 JP2778430B2 (ja) 1998-07-23

Family

ID=26538154

Family Applications (1)

Application Number Title Priority Date Filing Date
JP27922393A Expired - Fee Related JP2778430B2 (ja) 1993-03-08 1993-11-09 視覚に基く三次元位置および姿勢の認識方法ならびに視覚に基く三次元位置および姿勢の認識装置

Country Status (1)

Country Link
JP (1) JP2778430B2 (ja)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6633664B1 (en) 1999-05-11 2003-10-14 Nippon Telegraph And Telephone Corporation Three-dimensional structure acquisition method, apparatus and computer readable medium
JP2005141702A (ja) * 2003-07-11 2005-06-02 Olympus Corp 情報呈示装置
JP2007114916A (ja) * 2005-10-19 2007-05-10 Kazuo Iwane 新旧映像座標統合装置
JP2008040913A (ja) * 2006-08-08 2008-02-21 Canon Inc 情報処理方法、情報処理装置
JP2010284781A (ja) * 2009-06-15 2010-12-24 Fanuc Ltd ロボットの異常監視機能を備えたロボットシステム
JP2011215082A (ja) * 2010-04-01 2011-10-27 Nippon Telegr & Teleph Corp <Ntt> 撮像パラメータ決定方法、撮像パラメータ決定装置、撮像パラメータ決定プログラム
CN109146957A (zh) * 2018-08-14 2019-01-04 河南工程学院 一种基于三角形特征的机器人视觉控制方法
WO2020054094A1 (ja) * 2018-09-14 2020-03-19 クモノスコーポレーション株式会社 三次元レーザー光走査装置の計測データ較正方法
JP7093881B1 (ja) * 2021-09-06 2022-06-30 Dmg森精機株式会社 システム、及び自動搬送車

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6633664B1 (en) 1999-05-11 2003-10-14 Nippon Telegraph And Telephone Corporation Three-dimensional structure acquisition method, apparatus and computer readable medium
JP2005141702A (ja) * 2003-07-11 2005-06-02 Olympus Corp 情報呈示装置
JP4540329B2 (ja) * 2003-07-11 2010-09-08 オリンパス株式会社 情報呈示装置
JP2007114916A (ja) * 2005-10-19 2007-05-10 Kazuo Iwane 新旧映像座標統合装置
JP2008040913A (ja) * 2006-08-08 2008-02-21 Canon Inc 情報処理方法、情報処理装置
JP4741691B2 (ja) * 2009-06-15 2011-08-03 ファナック株式会社 ロボットの異常監視機能を備えたロボットシステム
JP2010284781A (ja) * 2009-06-15 2010-12-24 Fanuc Ltd ロボットの異常監視機能を備えたロボットシステム
JP2011215082A (ja) * 2010-04-01 2011-10-27 Nippon Telegr & Teleph Corp <Ntt> 撮像パラメータ決定方法、撮像パラメータ決定装置、撮像パラメータ決定プログラム
CN109146957A (zh) * 2018-08-14 2019-01-04 河南工程学院 一种基于三角形特征的机器人视觉控制方法
CN109146957B (zh) * 2018-08-14 2020-09-25 河南工程学院 一种基于三角形特征的机器人视觉控制方法
WO2020054094A1 (ja) * 2018-09-14 2020-03-19 クモノスコーポレーション株式会社 三次元レーザー光走査装置の計測データ較正方法
JP2020046187A (ja) * 2018-09-14 2020-03-26 クモノスコーポレーション株式会社 三次元レーザー光走査装置の計測データ較正方法
JP7093881B1 (ja) * 2021-09-06 2022-06-30 Dmg森精機株式会社 システム、及び自動搬送車
WO2023032400A1 (ja) * 2021-09-06 2023-03-09 Dmg森精機株式会社 自動搬送装置、及びシステム

Also Published As

Publication number Publication date
JP2778430B2 (ja) 1998-07-23

Similar Documents

Publication Publication Date Title
US10948297B2 (en) Simultaneous location and mapping (SLAM) using dual event cameras
CN110116407B (zh) 柔性机器人位姿测量方法及装置
CN112767490B (zh) 一种基于激光雷达的室外三维同步定位与建图方法
KR100855657B1 (ko) 단안 줌 카메라를 이용한 이동로봇의 자기위치 추정 시스템및 방법
CN110686677A (zh) 一种基于几何信息的全局定位方法
CN108279670B (zh) 用于调整点云数据采集轨迹的方法、设备以及计算机可读介质
CN111583369A (zh) 一种基于面线角点特征提取的激光slam方法
JP2017091079A (ja) 入力データから検出対象物の像を検出する画像処理装置および方法
WO2021052283A1 (zh) 处理三维点云数据的方法和计算设备
Zhou et al. π-LSAM: LiDAR smoothing and mapping with planes
Agrawal et al. PCE-SLAM: A real-time simultaneous localization and mapping using LiDAR data
JP2730457B2 (ja) 視覚に基く三次元位置および姿勢の認識方法ならびに視覚に基く三次元位置および姿勢の認識装置
JP6922348B2 (ja) 情報処理装置、方法、及びプログラム
CN115810133A (zh) 基于图像处理和点云处理的焊接控制方法及相关设备
CN111583342A (zh) 一种基于双目视觉的目标快速定位方法及装置
JP2778430B2 (ja) 視覚に基く三次元位置および姿勢の認識方法ならびに視覚に基く三次元位置および姿勢の認識装置
KR102490521B1 (ko) 라이다 좌표계와 카메라 좌표계의 벡터 정합을 통한 자동 캘리브레이션 방법
CN109459046B (zh) 悬浮式水下自主航行器的定位和导航方法
JP3326851B2 (ja) 視覚に基く三次元位置および姿勢の認識方法とその装置
JP3208900B2 (ja) 視覚に基く三次元位置および姿勢の認識方法とその装置
CN115239902A (zh) 移动设备的周边地图建立方法、装置、设备及存储介质
CN114972491A (zh) 视觉slam方法、电子设备、存储介质及产品
CN114821113A (zh) 基于自适应鲁棒核的单目视觉惯性slam方法与系统
CN113886903A (zh) 构建全局slam地图的方法、装置及存储介质
CN114119885A (zh) 图像特征点匹配方法、装置及系统、地图构建方法及系统

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees