JP3326851B2 - 視覚に基く三次元位置および姿勢の認識方法とその装置 - Google Patents

視覚に基く三次元位置および姿勢の認識方法とその装置

Info

Publication number
JP3326851B2
JP3326851B2 JP04636293A JP4636293A JP3326851B2 JP 3326851 B2 JP3326851 B2 JP 3326851B2 JP 04636293 A JP04636293 A JP 04636293A JP 4636293 A JP4636293 A JP 4636293A JP 3326851 B2 JP3326851 B2 JP 3326851B2
Authority
JP
Japan
Prior art keywords
error
dimensional
perspective transformation
target object
search area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP04636293A
Other languages
English (en)
Other versions
JPH06262568A (ja
Inventor
美樹男 笹木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP04636293A priority Critical patent/JP3326851B2/ja
Priority to US08/206,828 priority patent/US5499306A/en
Publication of JPH06262568A publication Critical patent/JPH06262568A/ja
Application granted granted Critical
Publication of JP3326851B2 publication Critical patent/JP3326851B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は、自律移動ロボットなど
に搭載され単眼視カメラにより撮影した既知対象の画像
情報に基いて単眼視カメラの三次元位置および姿勢を認
識するようにした視覚に基く三次元位置および姿勢の認
識方法とその装置に関する。
【0002】
【従来の技術】近年、例えば、自律移動ロボット等のよ
うに、形状および絶対座標位置が既知である対象物体に
対して接近するように移動し、アームにより対象物体を
把持するといった能動的操作を行うようにしたものがあ
る。このような自律移動ロボット等においては、CCD
カメラなどの撮像手段を搭載してその二次元的な画像情
報に基いて対象物体に対する自己の三次元的な相対位置
を認識することが必要になる。この場合、位置認識を行
うための装置においては、高精度且つ迅速に演算を行っ
て三次元的な位置のデータを求めることが要求され、し
かも安価に実現できる構成が望まれている。
【0003】そこで、従来では、比較的簡単なものとし
て、例えば、特開平3−166072号公報あるいは特
開平3−166073号公報に示されるようなものが考
えられている。すなわち、これらにおいては、対象装置
に固定された形状および寸法が既知の特殊な幾何学形状
(マーカと呼ぶ)をカメラにより撮影し、そのマーカの
二次元的な画像情報に基いて、その重心を計算する等の
方法により対象装置に対するカメラの相対的な三次元の
位置関係を求めるようにしたものである。
【0004】
【発明が解決しようとする課題】しかしながら、上述の
ような従来方法によると、対象装置にマーカを設ける必
要があるため、その設置のための準備をその都度行う必
要があると共に、マーカに対してカメラの光軸を常に垂
直に設定する必要があるため、任意の姿勢をとるカメラ
に対しては適用が困難となる不具合がある。
【0005】このような不具合を解消し得る理論的手法
として、一般には、透視n点問題において最小二乗推定
した透視変換行列の成分からカメラの位置および姿勢を
表すパラメータを逆算する方法がコンピュータビジョン
の手法として存在する。この方法によれば、カメラの光
軸と対象物体を記述する絶対座標の原点との間の関係が
未知の場合でも、原理的にはカメラの位置および姿勢を
表すパラメータを求めることが可能となる。
【0006】ところが、このようなコンピュータビジョ
ンの手法においては、実際にコンピュータを用いて明示
的に計算する場合に、適用する式が非常に複雑になるこ
とに加えてその演算量が膨大なものとなるため、迅速な
演算処理が困難になり実用的には適用が難しくなるもの
である。
【0007】本発明は、上記事情に鑑みてなされたもの
で、その目的は、カメラの光軸と既知形状の対象物体を
記述する絶対座標の原点との間の関係が未知の場合で
も、カメラにより撮影した二次元の画像情報に基いて、
比較的簡単かつ迅速ににカメラの位置と姿勢を表すパラ
メータとを求めることができるようにした視覚情報に基
く三次元位置と姿勢の認識方法とその装置を提供するこ
とにある。
【0008】
【課題を解決するための手段】本発明の視覚に基く三次
元位置および姿勢の認識方法は、形状を示す三次元絶対
座標が既知である対象物体を撮像手段により撮影したと
きの画像情報に基いてその対象物体の形状の特徴を示す
二次元の画像特徴点を抽出する画像処理工程と、外部情
報として入力される概略位置情報から得られる概略位置
に対応して、必要な演算精度が得られるようにあらかじ
め定められている密度の量子化空間点を有する探索領域
を設定する探索領域設定工程と、外部から与えられる概
略位置情報に基づく前記撮像手段と前記対象物体との概
略的な推定距離から、必要な演算精度に対応する所定の
密度の量子化空間点を有する探索領域を設定する探索領
域設定工程と、前記探索領域の量子化空間点において前
記撮像手段により前記対象物体を撮影したときに得られ
るべき二次元の推定画像特徴点を算出するための透視変
換行列を、あらかじめ記憶手段に記憶された前記対象物
体の三次元絶対座標に対する前記量子化空間点の推定位
置と前記撮像手段の撮像姿勢を示す姿勢パラメータとに
基いて演算する透視変換行列演算工程と、この透視変換
行列演算工程にて求められた前記透視変換行列を用いて
前記量子化空間点における前記対象物体の二次元の前記
推定画像特徴点を算出する透視変換演算工程と、前記画
像処理工程にて抽出された前記対象物体の二次元の画像
特徴点と前記透視変換演算工程にて算出された二次元の
前記推定画像特徴点との対応関係を求めると共に、それ
ら対応関係が得られた画像特徴点と推定画像特徴点との
間の適合度を示す評価誤差値を所定の誤差評価関数に基
いて演算する誤差演算工程と、この誤差演算工程にて求
められた前記評価誤差値を前記探索領域に対応して設定
された要求誤差精度と比較し、前記評価誤差値が前記要
求誤差制度よりも小さくなることを判定条件として、前
記探索領域設定工程,前記透視変換行列演算工程,前記
透視変換演算工程および前記誤差演算工程を繰り返し実
行させる誤差判定工程と、この誤差判定工程において前
記判定条件を満たしたときに、そのときの量子化空間点
の三次元絶対座標と前記撮像手段の姿勢パラメータとを
出力するデータ出力工程とから構成したところに特徴を
有する。
【0009】また、本発明の視覚に基く三次元位置およ
び姿勢の認識装置においては、画像情報を出力する撮像
手段と、形状を示す三次元絶対座標が既知である対象物
体を前記撮像手段により撮影したときの画像情報に基い
てその対象物体の形状の特徴を示す二次元の画像特徴点
を抽出する画像処理手段と、外部情報として入力される
概略位置情報から得られる概略位置に対応して、必要な
演算精度が得られるようにあらかじめ定められている
度の量子化空間点を有する探索領域を設定する探索領域
設定手段と、前記探索領域の量子化空間点において前記
撮像手段により前記対象物体を撮影したときに得られる
べき二次元の推定画像特徴点を算出するための透視変換
行列を、あらかじめ記憶手段に記憶された前記対象物体
の三次元絶対座標に対する前記量子化空間点の推定位置
と前記撮像手段の撮像姿勢を示す姿勢パラメータとに基
いて演算する透視変換行列演算手段と、この透視変換行
列演算手段により求められた前記透視変換行列を用いて
前記量子化空間点における前記対象物体の二次元の前記
推定画像特徴点を算出する透視変換演算手段と、前記画
像処理手段にて抽出された前記対象物体の二次元の画像
特徴点と前記透視変換演算手段にて算出された二次元の
前記推定画像特徴点との対応関係を求めると共に、それ
ら対応関係が得られた画像特徴点と推定画像特徴点との
間の適合度を示す評価誤差値を所定の誤差評価関数に基
いて演算する誤差演算手段と、この誤差演算手段にて求
められた前記評価誤差値を前記探索領域に対応して設定
された要求誤差精度と比較し、前記評価誤差値が前記要
求誤差制度よりも小さくなることを判定条件として、前
記探索領域設定手段,前記透視変換行列演算手段,前記
透視変換演算手段および前記誤差演算手段による工程を
繰り返し実行させる誤差判定手段と、この誤差判定手段
において前記判定条件を満たしたときに、そのときの量
子化空間点の三次元絶対座標と前記撮像手段の姿勢パラ
メータとを出力するデータ出力手段とから構成したとこ
ろに特徴を有する。
【0010】
【作用】本発明の視覚に基く三次元位置および姿勢の認
識方法によれば、対象物体に対して移動接近して作業を
行う装置等に搭載した撮像手段により、三次元絶対座標
が既知である対象物体が撮影されると、画像処理工程に
おいては、その画像情報に基いて対象物体の形状の特徴
を示す二次元の画像特徴点を抽出する。続いて、探索領
域設定工程においては、外部情報として入力される概略
位置情報から得られる概略位置に対応して、必要な演算
精度が得られるようにあらかじめ定められている密度の
量子化空間点を有する探索領域を設定するようになる。
【0011】次に、透視変換行列演算工程においては、
その探索領域の量子化空間点に前記撮像手段を配置して
前記対象物体を撮影したときに得られるべき二次元の推
定画像特徴点を算出するための透視変換行列を、あらか
じめ記憶手段に記憶された前記対象物体の三次元絶対座
標に対する前記量子化空間点の推定位置と前記撮像手段
の撮像姿勢を示す姿勢パラメータとに基いて演算し、続
く、透視変換演算工程においては、上述のように求めら
れた透視変換行列を用いて前記量子化空間点における前
記対象物体の二次元の前記推定画像特徴点を算出する。
これにより、設定した探索領域の量子化空間点において
撮像手段により対象物体を撮影したと想定したときに、
撮像手段の画像情報から得られる画像特徴点を推定画像
特徴点として求めることができる。
【0012】そして、続く誤差演算工程において、前記
画像処理工程にて抽出された前記対象物体の二次元の画
像特徴点と透視変換演算工程にて算出された二次元の前
記推定画像特徴点との対応関係を求めると共に、それら
対応関係が得られた画像特徴点と推定画像特徴点との間
の適合度を示す評価誤差値を、例えば、所定の誤差評価
関数として二乗誤差和を用いて演算する。
【0013】この後、誤差判定工程においては、誤差演
算工程にて求められた前記評価誤差値が前記探索領域に
対応して設定された要求誤差精度よりも小さくなるとい
う判定条件に適合しているか否かを判定し、適合してい
ないときには、前記探索領域設定工程,前記透視変換行
列演算工程,前記透視変換演算工程および前記誤差演算
工程を繰り返し実行させて適合するまでこれを行うよう
になる。
【0014】この場合、要求誤差精度は、最終的な演算
処理速度と相反する関係にあり、例えば、そのときの対
象物体に対する撮像手段の距離に応じて要求される処理
速度との兼ね合いで、必要な値に設定することで両者を
満たすようにして演算を実行させることができる。
【0015】最終的に、誤差判定工程にて上記条件に適
合するようになったときには、データ出力工程におい
て、そのときの量子化空間点の三次元絶対座標と前記撮
像手段の姿勢パラメータとを出力するようになり、実際
の撮像手段の三次元絶対座標に最も近い量子化空間点を
近似点として求めることができると共に、撮像手段の光
軸のずれ等を表す姿勢パラメータを検出することができ
るようになり、これらのデータに基いて対象物体に対す
る装置の移動制御などを適確に行うことができるように
なるものである。
【0016】また、本発明の視覚に基く三次元位置およ
び姿勢の認識装置によれば、上述の各工程を実施する手
段により、同様の動作を行なわせることができ、実際の
撮像手段の三次元絶対座標に最も近い量子化空間点を近
似点として求めることができると共に、撮像手段の光軸
のずれ等を表す姿勢パラメータを検出することができる
ようになり、これらのデータに基いて対象物体に対する
装置の移動制御などを適確に行うことができるようにな
るものである。
【0017】
【実施例】以下、本発明を工場内などの軌道上を走行す
る自律移動ロボットに搭載する三次元位置認識装置に適
用した場合の一実施例について図面を参照しながら説明
する。全体構成の概略を示す図2において、自律移動ロ
ボット1は、例えば、工場内などの床面に設けられた軌
道に沿って作業エリア2間を移動するようになってお
り、本発明の三次元位置認識装置(図1参照)が搭載さ
れている。自律移動ロボット1の上部にはアーム3が設
けられ、そのアーム3の先端部には撮像手段としてのカ
メラ4および対象物体としてのワーク5を把持する等の
作業を行うためのハンド6が配設されている。この場
合、作業エリア2は壁面から窪んだ状態に形成された凹
部に設けられ、所定形状をなすワーク5はその作業エリ
ア2の底面2aの所定位置に載置されている。
【0018】さて、三次元位置認識装置は図1に示すよ
うに構成される。画像処理手段としての画像処理部7
は、前処理計算部8および特徴点抽出部9からなる。前
処理計算部8は、カメラ4が撮影したワーク5を含むシ
ーンの画像信号を入力して前処理を施し、特徴点抽出部
9は、前処理計算部8により計算された画像情報に基い
て、後述のように、ワーク5の特徴点に対応する二次元
の画像特徴点を抽出するようになっている。
【0019】量子化空間探索部10は、探索領域設定手
段としての探索領域設定部11,透視変換行列演算手段
としての透視変換行列演算部12,透視変換演算手段と
しての透視変換演算部13,誤差演算手段としての誤差
演算部14,誤差判定手段としての誤差判定部15およ
びデータ出力手段としてのデータ出力部16から構成さ
れている。
【0020】この場合、探索領域設定部11は、探索領
域設定工程として、作業エリア2のワーク5に対する自
律移動ロボット1の概略位置情報に基いた密度の複数の
量子化空間点Eを有する空間探索領域Sを設定する。透
視変換行列演算部12は、透視変換行列演算工程とし
て、設定された空間探索領域Sの量子化空間点Eにおい
てカメラ4によりワーク5を撮影したときに画像信号か
ら得られる画像内における画像特徴点の座標を求めるた
めの透視変換行列Mを、自律移動ロボット1の概略位置
情報およびカメラ4の姿勢パラメータに応じて演算す
る。透視変換演算部13は、透視変換演算工程として、
求められた透視変換行列Mを用いて量子化空間点Eのそ
れぞれの位置でカメラ4によりワーク5を撮影したとき
にその特徴点に対応して得られるべき二次元の推定画像
特徴点を演算する。
【0021】誤差演算部14は、誤差演算工程として、
画像処理部7にて抽出された画像特徴点と前記推定画像
特徴点との対応関係をつけると共に、それらの間の位置
の誤差を二乗誤差和を求める誤差評価関数に基いて演算
する。誤差判定部15は、誤差判定工程として、演算さ
れた二乗誤差和が要求誤差精度εよりも小さいか否かを
判定し、小さいときにはそのときのカメラ4の位置およ
び姿勢のデータを出力端子17に出力し、大きいときに
は再び探索領域設定部11に戻って上述の各部において
演算を実行させる。そして、データ出力部16は、デー
タ出力工程として、上述の判定をした結果に基いてその
ときの空間探索領域Sにおける量子化空間点Eを出力す
る。
【0022】また、量子化空間探索部10には、後述す
る各種データが記憶される記憶手段としてのメモリ18
が接続され、その各種データの書き込みおよび読み出し
動作が行えるようになっていると共に、外部情報入力端
子19が設けられ、自律移動ロボット1の走行制御を行
う図示しない制御部あるいは図示しない位置検出センサ
などから自律移動ロボット1の概略位置を示す信号が入
力されるようになっている。この場合、メモリ18にあ
らかじめ記憶されるデータとしては、特徴点マッチング
リスト,ワーク5および作業エリア2の三次元絶対座標
データ,カメラ4のパラメータ,量子化空間点Eのリス
トとその座標データなどである。
【0023】次に、本実施例の作用について図3ないし
図10をも参照して説明する。三次元位置認識装置は、
その動作の流れとして図3に示すようなステップにした
がって自律移動ロボット1の存在位置を認識する。ま
ず、図2の状態において、自律移動ロボット1が軌道上
を移動してきて作業エリア2に差し掛かると、カメラ4
の撮影シーン内に作業エリア2が入って撮影されると、
画像処理部7は、カメラ4の画像信号を入力するように
なる(ステップT1)。この場合、自律移動ロボット1
は、所定軌道上を所定方向に移動しており、また移動を
制御する制御部の内部情報などにより概略の停止位置姿
が分かっているので、その停止予定位置姿勢において
対象物体としてのワーク5がカメラ4の視野内に入るよ
うに設定することができる。
【0024】次に、カメラ4により撮影されたワーク5
の画像信号は、画像処理部7の前処理計算部8にて前処
理としての雑音除去処理(ステップT2)およびワーク
5の画像の切り出し処理(ステップT3)を実行し、こ
の後、特徴点抽出部9にてその画像信号に基いて次のよ
うにしてm個の画像特徴点Qjの集合Qを求めて出力す
るようになる(ステップT4)。ここで、画像特徴点Q
jの集合Qは次のように定義される。 Q={Qj;j=1,2,…,m} …(1) Qj=(uj,vj) …(2) u,v;表示画面上における画素単位の二次元座標の各
要素値を示す
【0025】この画像特徴点Qjの抽出に際しては、外
部情報として入力端子19から与えられる概略位置情報
に基いて次のように演算を行う。すなわち、概略位置情
報として、例えば、自律移動ロボット1の移動経路を記
憶した作業計画,走行制御により移動した空間移動の履
歴情報などが入力されるので、これらの外部情報に基い
て、自律移動ロボット1の中心位置の概略的な三次元絶
対座標として、絶対座標で表した概略位置A0、 A0=(X0 ,Y0 ,Z0 ) …(3) を得ることができる。なお、概略位置A0の三次元絶対
座標は、作業エリア2の所定の位置を原点Opとして表
現したものである。
【0026】また、メモリ18にあらかじめ記憶されて
いる作業エリア2に載置されたワーク5の種々の見え方
パターン(図4(a)ないし(f)参照)の中から、概
略位置A0の値に対応する見え方パターンを選択する。
いま、例えば、概略位置A0に対応する見え方パターン
が図4(b)に対応しているときには、その見え方パタ
ーンに現れているワーク5の三次元の特徴点Piの集
合、 P={Pi;i=1,2,…,n} …(4) に対応する画像特徴点Qjを求めて順次抽出する。抽出
した画像特徴点Qjはメモリ18に記憶される。
【0027】さて、量子化空間探索部10においては、
探索領域設定部11により、概略位置A0(X0 ,Y0
,Z0 )を基準とした空間探索領域Sc、 Sc(c=1,2,…,C) …(5) を設定する(ステップT5)。この空間探索領域Sc
は、図5に示すように、所定の密度で格子状に量子化し
て配列された複数の量子化空間点E(k,c)、 E(k,c)(k=1,2,…,K、c=1,2,…,C) …(6) を含んで構成される。
【0028】この場合、作業エリア2の原点Opを基準
とした絶対座標系におけるX軸方向(作業エリア2に対
向する方向)の座標値X=XL1の平面内で、カメラ4は
ワーク5を向いていると仮定できる。ここで、XL1はカ
メラ4の視点の位置を示すX座標値の推定値であり、こ
の値は自律移動ロボット1の概略位置A0のX方向の座
標値X0 とカメラ4のロボット上の相対座標から決定で
きる。また、本実施例における自律移動ロボット1の場
合には、概略位置A0の高さ方向の座標値Z0は、一定
の値から大きく外れることがないと想定されるので、カ
メラ4のZ方向の座標を求めるための探索範囲は実質的
に狭い範囲に絞り込むことができる。
【0029】次に、カメラ4の各種パラメータの探索範
囲を設定する(ステップT6)。ここで、カメラ4のパ
ラメータとしては、図6に対応関係を示すように、 (a)カメラ4の姿勢パラメータCP(α,β,γ)、 …(7) (b)カメラ4の焦点距離特性f …(8) (c)カメラ4の位置(r,θ,φ) …(9) がある。そして、この場合において、(b)の焦点距離
特性fはカメラ4の特性によりあらかじめ決まっている
ので、例えば、メモリ18内にデータとして記憶させて
おくことができる。また、(c)のカメラ4の位置
(r,θ,φ)の値は以降の演算工程にて決めることが
できる値である。
【0030】したがって、ここでは、カメラ4のワーク
5の中心位置からの光軸のずれを表している姿勢パラメ
ータCP(α,β,γ)の探索範囲を決定すれば良い。
すなわち、カメラ4の姿勢パラメータCPの探索範囲
は、例えば図7に示すように、γ=0の場合に対して、
ワーク5の所定位置としての原点Opの画像位置Ops
(画像情報に含まれていない場合には含まれている特徴
点を原点とする座標系に変換する)が画像の表示画面上
における画素単位の二次元座標(u,v)において、例
えば(Na,Nb)であるとすると、次式よりαおよび
βの推定値が計算できる。
【0031】 α=2×arctan{(Na/NH )× tan(wH /2)} …(10) β=2×arctan{(Nb/NV )× tan(wV /2)} …(11) ただし、NH ;画像の表示画面上における水平方向の画
像サイズ NV ;画像の表示画面上における垂直方向の画像サイズ wH ;カメラの水平画角サイズ wV ;カメラの垂直画角サイズ である。
【0032】この場合、要求誤差精度があまり高くない
場合には、線形近似として、 α=(Na/NH )×wH …(12) β=(Nb/NV )×wV …(13) という式で代用することもできる。
【0033】そして、γ=0でない場合には、ワーク5
の中心の画像位置Opsを含む円環状の領域Sa(Op
s)内にγの補正をした場合のOpscが存在すると考
えられるので、Sa(Ops)内の量子化空間点Ops
cについて式(10),(11)あるいは式(12),
(13)に基いてα,βを定め、 γ=γpsc(OpsとOpscとのなす角度) として、以降の探索工程を行うようにする。なお、本実
施例においては、自律移動ロボット1は、略水平な床の
上を移動することと、概略位置A0の座標値を用いて高
精度にカメラ4の回転角を調整できるので、カメラ4の
光軸ずれに対する姿勢パラメータ(α,β,γ)のう
ち、最も広い探索能力を要求されるのは水平方向の角度
ずれを表すαである。したがって、β,γについては微
小範囲の探索を行えば良い。
【0034】次に、透視変換行列演算部12にて、空間
探索領域S1内の初期探索点として量子化空間点E
(k,1)(k=1,2,…,K)のうちの1点である
量子化空間点E(1,1)を選択して(ステップT7)
その三次元絶対座標と、カメラ4の姿勢パラメータCP
(α,β,γ)の初期値とを用いて、 透視変換行列M(k,c)(k=1,2,…,K、c=1,2,…,C) …(14) を演算する(ステップT8)。
【0035】この場合、透視変換行列Mは、次のように
して演算される。すなわち、まず、ワーク5の原点Op
に対して設定されている三次元絶対座標(X,Y,Z)
を基準として、初期探索領域S1を概略位置A0のX座
標値であるX=X0 の平面内にとる。この初期探索領域
S1内の三次元絶対座標(X,Y,Z)を三次元極座標
(r,θ,φ)に変換する変換行列M1を求める。カメ
ラ4の姿勢パラメータCP(α,β,γ)と、焦点距離
特性fから求めたカメラ4の視点位置と射影平面に対す
る距離dとに基いて、図6に示す関係に基いて透視変換
行列M(k,c)を求める。
【0036】ここで、透視変換行列M(k,c)は次の
ように表すことができる。 M(k,c)=T・M1・M2・M3 …(15) ただし、 T ;回転,並行移動,拡大,縮小等の変換行列(ここ
では、カメラ4の姿勢パラメータCPで表される回転の
演算) M1;撮影しているワークの射影空間内への透視変換 M2;射影空間内の平面から射影平面への透視変換 M3;射影平面から画像の表示面への座標変換 このうち、画像の表示面とワーク5との間の透視変換を
演算するための透視変換行列M1とM2との積および座
標変換行列M3は、それぞれ、次式(16),(17)
のように表すことができる。
【0037】
【数1】
【0038】また、カメラ4の光軸ずれに対応する姿勢
パラメータCP(α,β,γ)に応じた回転の演算を行
うための変換行列Tは、前述の図6と図8に示す関係と
に基いて次式(18),(19),(20)のように表
すことができる。なお、このとき、光軸ずれの変換にお
いては、、ワーク5との距離が変化しないと仮定する
と、T0 =T1 とおくことができるので、式(21)の
関係が成立する。
【0039】
【数2】
【0040】次に、このようにして演算により求めた透
視変換行列M(k,c)に基いて、透視変換演算部13
により、作業エリア2とそこに載置されたワーク5のn
個の特徴点の集合Pの各特徴点Pi(式(4)参照)を
二次元の画像表示部の座標に透視変換の演算を実行し、
各特徴点Piに対する推定画像特徴点QEiを求める(ス
テップT9)。これらの推定画像特徴点QEiの集合QE
は、 QE ={QEi;i =1,2,…,n} (n≧m) …(22) である。
【0041】これにより、斉次座標を用いると、特徴点
の集合Pから推定画像特徴点の集合QE への変換は、式
(16)から次式のように表すことができる。 (uEi,vEi,1)=(Xi,Yi,Zi,1)・M …(23) ただし、 (Xi,Yi,Zi);特徴点Piの三次元絶対座標 (uEi,vEi) ;推定画像特徴点QEiの表示部上
の二次元座標 である。なお、この場合においては、量子化空間点E
(1,1)に対して求められた透視変換行列M(1,
1)を用いて特徴点の集合Pの推定画像特徴点の集合Q
E を演算する。
【0042】次に、画像処理部7にて抽出されたカメラ
4により撮影されたワーク5の画像特徴点の集合Q(式
(1)参照)の各画像特徴点Qjとあらかじめ記憶され
たワーク5の三次元の特徴点Pi(式(4)参照)との
間の対応関係をとった特徴点対応リストを作成する(ス
テップT10)。これは、図9(a),(b)に示すよ
うに、ワーク5の特徴点Piの位置と、量子化空間点E
(1,1)に応じた見え方パターン(図4(b)参照)
との対比から、図9(b)に示すように、各画像特徴点
Qjを対応付けると、次の表に示すように画像情報とし
て表示面に表れた画像特徴点Qjと対応する特徴点Pi
との対応関係が得られる。
【0043】
【表1】
【0044】なお、この場合において、特徴点Piに対
して対応する観測された画像特徴点Qjが全て存在しな
い場合があるので、対応する画像特徴点Qjが存在する
場合に「存在フラグ」が「1」となるようになってい
る。また、抽出の順序は、画像の表示部上で左上から右
下に向かって順次行っている。
【0045】続いて、誤差演算部14により、対応関係
が得られた画像特徴点Qjと前述の推定画像特徴点の集
合QE (=P・M(1,1))との間の誤差評価関数D
(1,1)を計算する(ステップT11)。この場合、
誤差評価関数D(k,c)は画像特徴点Qjと推定画像
特徴点QEiとの間の距離に相当する値を演算するもので
ある。続いて、現在つまり1番目の量子化空間点E
(1,1)において姿勢パラメータCP (α,β,
γ)のうちγをそのままにした状態でα,βを変更し、
上述と同様にして誤差評価関数D(nE ,1)(nE =
1,2,…,NE )を演算する(ステップT12,1
3,8〜11)。
【0046】この後、探索領域S1中のk番目の量子化
空間点E(k,1)におけるこれらの誤差評価関数D
(nE ,1)から上述の演算を行なうことで最適値とし
てDE1(αE ,βE ,γE )を算出する(ステップT1
4)。ここで、通常、この最適値の決定は、観測される
全特徴点についてQE とQとの間の二乗誤差和を評価関
数とし、その最小値演算を行うことにより実行されるよ
うになっている。
【0047】続いて、誤差判定部15において、上記誤
差演算部14でk番目の量子化空間点E(k,1)につ
いて演算された誤差評価関数D(k,1)の値から得ら
れた最適値DE1(αE,βE,γE)の演算値DE kが、
探索領域S1のk番目の量子化空間点E(k,1)の検
出条件としてあらかじめ設定されている要求誤差精度ε
の値に対して、 DE k<ε …(24) とした判定条件を満たすか否かを判断する(ステップT
15)。
【0048】そして、上述の判定条件式(24)を満た
していない場合には、以上の演算を初期探索領域S1内
における他の量子化空間点E(k,1)についても同様
に実行する(ステップT16,T17を経てステップT
7〜T15を実行)。さらに、他の量子化空間点E
(k,1)について判定条件式(24)を満たさない場
合には、そのときの最適値DE kのなかから要求誤差精
度εに一番近い値が得られた量子化空間点E(k,1)
の位置に基づいて、新たな空間探索領域S2を設定し
(ステップT18,T19)、前述の演算工程を再び実
行する(ステップT5〜T15)。
【0049】一方、判定条件式(24)の条件を満たし
た場合には(ステップT15)、データ出力部16によ
り、そのときの最適値DE kに相当する量子化空間点E
(k,c)の位置(rE ,θE ,φE )の値およびカメ
ラ4の姿勢パラメータ(αE,βE ,γE )の値を検出
データとして出力端子17に出力し(ステップT2
0)、探索プログラムを終了する。
【0050】また、最終の空間探索領域SCの設定にも
拘らず判定条件式(24)を満たさない場合には(ステ
ップT18)、要求誤差精度εを満たす量子化空間点E
(k,c)が存在しないことをメッセージ出力した(ス
テップT21)後、それまでの間に演算された最適値D
E kのなかから要求誤差精度εに一番近い値が得られた
量子化空間点E(k,c)の位置(rE ,θE ,φE )
の値およびカメラ4の姿勢パラメータ(αE ,βE ,γ
E )の値を検出データとして出力端子17に出力して
(ステップT20)探索プログラムを終了する。
【0051】なお、上述の場合には、作業エリア2のワ
ーク5の原点Opから一定の距離(X=XL1)におい
て、要求誤差精度εを満たす量子化空間点E(k,1)
を求めるように、空間探索領域Sの設定をS1,S2,
…と設定する探索過程を示しているが、例えば、図10
に示すように、自律移動ロボット1の進行によるワーク
5への近接(X<XL1)するのに応じてその位置に応じ
た空間探索領域S(k,c)を設定する探索過程を実行
することもできる。
【0052】すなわち、例えば、自律移動ロボット1の
進行過程において、原点Opからの距離Xに対応して一
つの空間探索領域S1を設定し、そのなかの量子化空間
点E(k,1)のうち要求誤差精度εに一番近いものを
カメラ4の位置および姿勢パラメータを示す仮の検出デ
ータとして求め、その検出データに基いて自律移動ロボ
ット1の移動量を制御し、原点Opからの距離Xがさら
に小さくなったときに新たに空間探索領域S2を設定し
てさらに要求誤差精度εに一番近い量子化空間点E
(k,2)を求めるようにし、以下、同様にして、ワー
ク5に自律移動ロボット1が最も近接したときに、最終
的に要求誤差精度εを満たすように探索過程を設定する
ようにしても良い。
【0053】このような本実施例によれば、既知形状の
対象物体としての作業エリア2およびワーク5をカメラ
4により撮像してその画像情報から画像特徴点Qjを抽
出し、量子化した空間点を複数個有する空間探索領域S
cを設定すると共に、カメラ4の姿勢パラメータCP
(α,β,γ)を設定してワーク5をその量子化空間点
E(k,c)において撮像したときに得られるべきワー
ク5の推定画像特徴点QE iを透視変換行列M(k,
c)を求めることにより演算し、それらの対応関係を求
めて誤差評価関数D(k,c)により要求誤差精度εを
満たすか否かを判定してマッチングをとることによりカ
メラ4の位置および姿勢パラメータCPを推定するよう
にしたので、以下のような効果を得ることができる。
【0054】すなわち、第1に、従来と異なり、特殊マ
ーカを設ける必要がなくなり、マーカ認識用の移動時間
が不要となって演算時間を短縮して高速化を図れる。第
2に、透視変換行列の成分からパラメータを算出する方
法ではないので、演算量が膨大となる透視変換行列の最
小二乗推定を必要としないため、迅速に演算処理を実行
できる。第3に、カメラ4の姿勢パラメータが未知の場
合でも適用できる。第4に、カメラ4の位置を求めるた
めの演算の精度を、量子化空間点Eの取り方で調整する
ことができる。つまり、例えば、作業内容や環境の実情
を考慮して遠距離においては粗い精度で、そしてワーク
5に近接したときには細かい精度で設定するといった情
況に応じた適切な精度に設定することができる。第5
に、このように演算を実行するので、対象物体としての
ワーク5に対して、能動的にカメラ4が移動する際に、
遠距離での光軸合わせ(粗い推定)から近距離での高精
度推定まで、移動系と連動して多段的に用いることがで
きる。
【0055】
【発明の効果】以上説明したように、本発明の視覚に基
く三次元位置および姿勢の認識方法によれば、画像処理
工程により、形状を示す三次元絶対座標が既知である対
象物体を撮像手段により撮影したときの画像情報に基い
てその対象物体の形状の特徴を示す二次元の画像特徴点
を抽出し、探索領域設定工程,透視変換行列演算工程,
透視変換演算工程,誤差演算工程,誤差判定工程および
データ出力工程により、撮像手段の概略的な推定位置に
応じた探索領域を設定してその探索領域における複数の
量子化された空間点において撮像手段により対象物体を
撮像したときに得られるべき推定画像特徴点と前記画像
特徴点との誤差を誤差評価関数により評価して要求誤差
精度を満たすときにそのときの量子化空間点を撮像手段
の三次元絶対座標位置として推定すると共に、撮像手段
の姿勢パラメータを姿勢として出力するようにしたの
で、撮像手段の光軸ずれがある場合でも、特殊マーカな
どを用いることなく、迅速且つ高精度に撮像手段の位置
と姿勢を認識することができ、しかも、要求誤差精度の
設定の仕方により演算速度と演算精度との兼ね合いを距
離に応じて適切に設定することができ、これらのデータ
に基いて対象物体に対する装置の移動制御などを適確に
行うことができるという優れた効果を奏するものであ
る。
【0056】また、本発明の視覚に基く三次元位置およ
び姿勢の認識装置によれば、上述の各工程を実行する手
段により、同様の動作を行なわせることができ、実際の
撮像手段の三次元絶対座標に最も近い量子化空間点を近
似点として求めることができると共に、撮像手段の光軸
のずれ等を表す姿勢パラメータを検出することができる
ようになり、これらのデータに基いて対象物体に対する
装置の移動制御などを適確に行うことができるようにな
るという優れた効果を奏する。
【図面の簡単な説明】
【図1】本発明の一実施例を示す機能的構成のブロック
【図2】自律移動ロボットと作業エリアとの位置関係を
示す図
【図3】プロセスの流れを説明するフローチャート
【図4】種々の見え方パターン
【図5】空間探索領域と作業エリアとの位置関係を示す
作用説明図
【図6】絶対座標軸とカメラおよび画像の座標軸との関
係を示す図
【図7】画像表示部上のワークとカメラの姿勢パラメー
タとの関係を示す説明図
【図8】透視変換行列を演算するための座標軸の関係を
示す作用説明図
【図9】(a)作業エリアとワークの特徴点の定義と
(b)画像信号による画像特徴点との対応関係を示す作
用説明図
【図10】探索領域をワークとの距離に応じて設定する
場合の作用説明図
【符号の説明】 1は自律移動ロボット、2は作業エリア、4はカメラ
(撮像手段)、5はワーク(対象物体)、7は画像処理
部、8は前処理計算部、9は特徴点抽出部、10は量子
化空間探索部、11は探索領域設定部(探索領域設定手
段)、12は透視変換行列演算部(透視変換行列演算手
段)、13は透視変換演算部(透視変換演算手段)、1
4は誤差演算部(誤差演算手段)、15は誤差判定部
(誤差判定手段)、16はデータ出力部(データ出力手
段)、18はメモリ(記憶手段)、19は外部情報入力
端子である。
───────────────────────────────────────────────────── フロントページの続き (58)調査した分野(Int.Cl.7,DB名) B25J 3/00 - 3/04 B25J 9/10 - 9/22 B25J 13/00 - 13/08 B25J 19/02 - 19/06 G01B 11/00

Claims (2)

    (57)【特許請求の範囲】
  1. 【請求項1】 形状を示す三次元絶対座標が既知である
    対象物体を撮像手段により撮影したときの画像情報に基
    いてその対象物体の形状の特徴を示す二次元の画像特徴
    点を抽出する画像処理工程と、外部情報として入力される概略位置情報から得られる概
    略位置に対応して、 必要な演算精度が得られるようにあ
    らかじめ定められている密度の量子化空間点を有する探
    索領域を設定する探索領域設定工程と、 前記探索領域の量子化空間点において前記撮像手段によ
    り前記対象物体を撮影したときに得られるべき二次元の
    推定画像特徴点を算出するための透視変換行列を、あら
    かじめ記憶手段に記憶された前記対象物体の三次元絶対
    座標に対する前記量子化空間点の推定位置と前記撮像手
    段の撮像姿勢を示す姿勢パラメータとに基いて演算する
    透視変換行列演算工程と、 この透視変換行列演算工程にて求められた前記透視変換
    行列を用いて前記量子化空間点における前記対象物体の
    二次元の前記推定画像特徴点を算出する透視変換演算工
    程と、 前記画像処理工程にて抽出された前記対象物体の二次元
    の画像特徴点と前記透視変換演算工程にて算出された二
    次元の前記推定画像特徴点との対応関係を求めると共
    に、それら対応関係が得られた画像特徴点と推定画像特
    徴点との間の適合度を示す評価誤差値を所定の誤差評価
    関数に基いて演算する誤差演算工程と、 この誤差演算工程にて求められた前記評価誤差値を前記
    探索領域に対応して設定された要求誤差精度と比較し、
    前記評価誤差値が前記要求誤差制度よりも小さくなるこ
    とを判定条件として、前記探索領域設定工程,前記透視
    変換行列演算工程,前記透視変換演算工程および前記誤
    差演算工程を繰り返し実行させる誤差判定工程と、 この誤差判定工程において前記判定条件を満たしたとき
    に、そのときの量子化空間点の三次元絶対座標と前記撮
    像手段の姿勢パラメータとを出力するデータ出力工程と
    からなる視覚に基く三次元位置および姿勢の認識方法。
  2. 【請求項2】 画像情報を出力する撮像手段と、 形状を示す三次元絶対座標が既知である対象物体を前記
    撮像手段により撮影したときの画像情報に基いてその対
    象物体の形状の特徴を示す二次元の画像特徴点を抽出す
    る画像処理手段と、外部情報として入力される概略位置情報から得られる概
    略位置に対応して、 必要な演算精度が得られるようにあ
    らかじめ定められている密度の量子化空間点を有する探
    索領域を設定する探索領域設定手段と、 前記探索領域の量子化空間点において前記撮像手段によ
    り前記対象物体を撮影したときに得られるべき二次元の
    推定画像特徴点を算出するための透視変換行列を、あら
    かじめ記憶手段に記憶された前記対象物体の三次元絶対
    座標に対する前記量子化空間点の推定位置と前記撮像手
    段の撮像姿勢を示す姿勢パラメータとに基いて演算する
    透視変換行列演算手段と、 この透視変換行列演算手段により求められた前記透視変
    換行列を用いて前記量子化空間点における前記対象物体
    の二次元の前記推定画像特徴点を算出する透視変換演算
    手段と、 前記画像処理手段にて抽出された前記対象物体の二次元
    の画像特徴点と前記透視変換演算手段にて算出された二
    次元の前記推定画像特徴点との対応関係を求めると共
    に、それら対応関係が得られた画像特徴点と推定画像特
    徴点との間の適合度を示す評価誤差値を所定の誤差評価
    関数に基いて演算する誤差演算手段と、 この誤差演算手段にて求められた前記評価誤差値を前記
    探索領域に対応して設定された要求誤差精度と比較し、
    前記評価誤差値が前記要求誤差制度よりも小さくなるこ
    とを判定条件として、前記探索領域設定手段,前記透視
    変換行列演算手段,前記透視変換演算手段および前記誤
    差演算手段による工程を繰り返し実行させる誤差判定手
    段と、 この誤差判定手段において前記判定条件を満たしたとき
    に、そのときの量子化空間点の三次元絶対座標と前記撮
    像手段の姿勢パラメータとを出力するデータ出力手段と
    からなる視覚に基く三次元位置および姿勢の認識装置。
JP04636293A 1993-03-08 1993-03-08 視覚に基く三次元位置および姿勢の認識方法とその装置 Expired - Fee Related JP3326851B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP04636293A JP3326851B2 (ja) 1993-03-08 1993-03-08 視覚に基く三次元位置および姿勢の認識方法とその装置
US08/206,828 US5499306A (en) 1993-03-08 1994-03-07 Position-and-attitude recognition method and apparatus by use of image pickup means

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP04636293A JP3326851B2 (ja) 1993-03-08 1993-03-08 視覚に基く三次元位置および姿勢の認識方法とその装置

Publications (2)

Publication Number Publication Date
JPH06262568A JPH06262568A (ja) 1994-09-20
JP3326851B2 true JP3326851B2 (ja) 2002-09-24

Family

ID=12745047

Family Applications (1)

Application Number Title Priority Date Filing Date
JP04636293A Expired - Fee Related JP3326851B2 (ja) 1993-03-08 1993-03-08 視覚に基く三次元位置および姿勢の認識方法とその装置

Country Status (1)

Country Link
JP (1) JP3326851B2 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4599515B2 (ja) * 2005-05-27 2010-12-15 コニカミノルタセンシング株式会社 3次元形状データの位置合わせ方法および装置
JP5032415B2 (ja) * 2008-08-06 2012-09-26 株式会社豊田中央研究所 運動推定装置及びプログラム
CN103522304B (zh) * 2013-10-28 2015-06-03 中国科学院自动化研究所 一种基于母机器人视觉的子机器人入舱方法
CN108724183B (zh) * 2018-05-29 2024-03-26 广东工业大学 一种搬运机械臂的控制方法、系统及相关装置
EP3910593A4 (en) * 2019-01-09 2022-01-19 Fuji Corporation IMAGE PROCESSING DEVICE, WORKING ROBOT, SUBSTRATE INSPECTION DEVICE AND SAMPLE INSPECTION DEVICE
CN111360840A (zh) * 2020-04-28 2020-07-03 沈阳优诚自动化工程有限公司 一种基于视觉算法的机械臂分拣方法
WO2022091895A1 (ja) * 2020-10-30 2022-05-05 パナソニックIpマネジメント株式会社 ロボット制御方法

Also Published As

Publication number Publication date
JPH06262568A (ja) 1994-09-20

Similar Documents

Publication Publication Date Title
CN110116407B (zh) 柔性机器人位姿测量方法及装置
Kanade et al. Development of a video-rate stereo machine
US7283661B2 (en) Image processing apparatus
JP2013187862A (ja) 画像データ処理装置、画像データ処理方法および画像データ処理用のプログラム
EP0157299B1 (en) Image processing apparatus
Kagami et al. Vision-based 2.5 D terrain modeling for humanoid locomotion
Smith et al. Eye-in-hand robotic tasks in uncalibrated environments
JP2730457B2 (ja) 視覚に基く三次元位置および姿勢の認識方法ならびに視覚に基く三次元位置および姿勢の認識装置
JP3326851B2 (ja) 視覚に基く三次元位置および姿勢の認識方法とその装置
JP3208900B2 (ja) 視覚に基く三次元位置および姿勢の認識方法とその装置
JP2778430B2 (ja) 視覚に基く三次元位置および姿勢の認識方法ならびに視覚に基く三次元位置および姿勢の認識装置
JP2001076128A (ja) 障害物検出装置及び方法
JP2003136465A (ja) 検出対象物の3次元位置・姿勢決定方法とロボット用視覚センサ
Viéville et al. Experimenting with 3D vision on a robotic head
Strelow et al. Extending shape-from-motion to noncentral onmidirectional cameras
Goto et al. 3D environment measurement using binocular stereo and motion stereo by mobile robot with omnidirectional stereo camera
Brandt et al. Controlled active exploration of uncalibrated environments
Motai et al. SmartView: hand-eye robotic calibration for active viewpoint generation and object grasping
JP3512894B2 (ja) 相対的移動量算出装置及び相対的移動量算出方法
Hwang et al. Robust 2D map building with motion-free ICP algorithm for mobile robot navigation
Lanser et al. MORAL—A vision-based object recognition system for autonomous mobile systems
JPH05143156A (ja) 環境認識装置
JPH07244519A (ja) 画像による可動物体の運動制御方法
Okada et al. A parts picking system with a range finder and a camera system
Schleicher et al. Real-time simultaneous localization and mapping using a wide-angle stereo camera

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110712

Year of fee payment: 9

LAPS Cancellation because of no payment of annual fees