JPH06258028A - 視覚に基く三次元位置および姿勢の認識方法とその装置 - Google Patents

視覚に基く三次元位置および姿勢の認識方法とその装置

Info

Publication number
JPH06258028A
JPH06258028A JP5049240A JP4924093A JPH06258028A JP H06258028 A JPH06258028 A JP H06258028A JP 5049240 A JP5049240 A JP 5049240A JP 4924093 A JP4924093 A JP 4924093A JP H06258028 A JPH06258028 A JP H06258028A
Authority
JP
Japan
Prior art keywords
transformation matrix
error
perspective transformation
image
target object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP5049240A
Other languages
English (en)
Other versions
JP3208900B2 (ja
Inventor
Mikio Sasaki
美樹男 笹木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
NipponDenso Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NipponDenso Co Ltd filed Critical NipponDenso Co Ltd
Priority to JP04924093A priority Critical patent/JP3208900B2/ja
Priority to US08/206,828 priority patent/US5499306A/en
Publication of JPH06258028A publication Critical patent/JPH06258028A/ja
Application granted granted Critical
Publication of JP3208900B2 publication Critical patent/JP3208900B2/ja
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Abstract

(57)【要約】 【目的】 自律移動ロボットの位置を単眼視カメラによ
り撮像したワークの画像情報から迅速且つ高精度に演算
して求める。 【構成】 カメラ4により撮像されたワークの画像特徴
点を画像処理部7により演算する。最小二乗推定部10
により、カメラ4の概略位置に応じた見え方パターンを
選択してカメラ行列を最小二乗推定により求めて推定透
視変換行列を演算する。量子化探索部11により、所定
の密度で設定された量子化空間点を有する空間探索領域
を設定し、その各量子化空間点においてワークをカメラ
により撮影したときに推定画像特徴点を得るための透視
変換行列を演算すると共に、画像特徴点とのずれを誤差
評価関数により演算する。所定の要求誤差精度を満たす
場合に、そのときの量子化空間点および姿勢パラメータ
をカメラの位置と姿勢として出力する。これにより、迅
速且つ高精度で検出することができる。

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は、自律移動ロボットなど
に搭載され単眼視カメラにより撮影した既知対象の画像
情報に基いて単眼視カメラの三次元位置および姿勢を認
識するようにした視覚に基く三次元位置および姿勢の認
識方法とその装置に関する。
【0002】
【従来の技術】近年、例えば、自律移動ロボット等のよ
うに、形状および絶対座標位置が既知である対象物体に
対して接近するように移動し、アームにより対象物体を
把持するといった能動的操作を行うようにしたものがあ
る。このような自律移動ロボット等においては、CCD
カメラなどの撮像手段を搭載してその二次元的な画像情
報に基いて対象物体に対する自己の三次元的な相対位置
を認識することが必要になる。この場合、位置認識を行
うための装置においては、高精度且つ迅速に演算を行っ
て三次元的な位置のデータを求めることが要求され、し
かも安価に実現できる構成が望まれている。
【0003】そこで、従来では、比較的簡単なものとし
て、例えば、特開平3−166072号公報あるいは特
開平3−166073号公報に示されるようなものが考
えられている。すなわち、これらにおいては、対象装置
に固定された形状および寸法が既知の特殊な幾何学形状
(マーカと呼ぶ)をカメラにより撮影し、そのマーカの
二次元的な画像情報に基いて、その重心を計算する等の
方法により対象装置に対するカメラの相対的な三次元の
位置関係を求めるようにしたものである。
【0004】
【発明が解決しようとする課題】しかしながら、上述の
ような従来方法によると、対象装置にマーカを設ける必
要があるため、その設置のための準備をその都度行う必
要があると共に、マーカに対してカメラの光軸を常に垂
直に設定する必要があるため、任意の姿勢をとるカメラ
に対しては適用が困難となる不具合がある。
【0005】このような不具合を解消し得る理論的手法
として、一般には、透視n点問題において最小二乗推定
した透視変換行列の成分からカメラの位置および姿勢を
表すパラメータを逆算する方法がコンピュータビジョン
の手法として存在する。この方法によれば、カメラの光
軸と対象物体を記述する絶対座標の原点との間の関係が
未知の場合でも、原理的にはカメラの位置および姿勢を
表すパラメータを求めることが可能となる。
【0006】ところが、このようなコンピュータビジョ
ンの手法においては、実際にコンピュータを用いて明示
的に計算する場合に、適用する式が非常に複雑になるこ
とに加えてその演算量が膨大なものとなるため、迅速な
演算処理が困難になり実用的には適用が難しくなるもの
である。
【0007】本発明は、上記事情に鑑みてなされたもの
で、その目的は、カメラの光軸と既知形状の対象物体を
記述する絶対座標の原点との間の関係が未知の場合で
も、カメラにより撮影した二次元の画像情報に基いて、
比較的簡単かつ迅速ににカメラの位置と姿勢を表すパラ
メータとを求めることができるようにした視覚情報に基
く三次元位置と姿勢の認識方法とその装置を提供するこ
とにある。
【0008】
【課題を解決するための手段】本発明の視覚に基く三次
元位置および姿勢の認識方法は、形状を示す三次元絶対
座標が既知である対象物体を撮像手段により撮影したと
きの画像情報に基いてその対象物体の形状の特徴を示す
二次元の画像特徴点を抽出する画像処理工程と、前記撮
像手段の概略位置と姿勢とに基いて、前記画像処理工程
で抽出した画像特徴点と記憶手段にあらかじめ記憶され
た前記対象物体の見え方のパターンとの間の特徴点の対
応リストを選択すると共に、その対応リストに基いて前
記撮像手段の現在位置と姿勢とにおける前記対象物体の
見え方を表すカメラ行列の最小二乗推定を行って推定透
視変換行列を求める最小二乗推定工程と、前記撮像手段
と前記対象物体との概略的な推定距離に応じて必要な演
算精度に対応する密度の量子化空間点を有する探索領域
を設定する探索領域設定工程と、前記探索領域の量子化
空間点において前記撮像手段により前記対象物体を撮影
したときに得られるべき二次元の画像特徴点を算出する
ための透視変換行列を、あらかじめ記憶手段に記憶され
た前記対象物体の三次元絶対座標に対する前記量子化空
間点の推定位置と前記撮像手段の撮像姿勢を示す姿勢パ
ラメータとに基いて演算する透視変換行列演算工程と、
この透視変換行列演算工程にて求められた前記透視変換
行列と前記最小二乗推定工程において求められた推定透
視変換行列との間の適合度を示す評価誤差値を所定の誤
差評価関数に基いて演算する誤差演算工程と、この誤差
演算工程にて求められた前記評価誤差値を前記探索領域
に対応して設定された要求誤差精度と比較し、前記評価
誤差値が前記要求誤差精度よりも小さくなることを判定
条件として、前記探索領域設定工程,前記透視変換行列
演算工程および前記誤差演算工程を繰り返し実行させる
誤差判定工程と、この誤差判定工程において前記判定条
件を満たしたときに、そのときの量子化空間点の三次元
絶対座標と前記撮像手段の姿勢パラメータとを出力する
データ出力工程とから構成したところに特徴を有する。
【0009】また、本発明の視覚に基く三次元位置およ
び姿勢の認識装置は、画像情報を出力する撮像手段と、
形状を示す三次元絶対座標が既知である対象物体を前記
撮像手段により撮影したときの画像情報に基いてその対
象物体の形状の特徴を示す二次元の画像特徴点を抽出す
る画像処理手段と、前記撮像手段の概略位置と姿勢とに
基いて、前記画像処理手段により抽出した画像特徴点と
記憶手段にあらかじめ記憶された前記対象物体の見え方
のパターンとの間の特徴点の対応リストを選択すると共
に、その対応リストに基いて前記撮像手段の現在位置と
姿勢とにおける前記対象物体の見え方を表すカメラ行列
の最小二乗推定を行って推定透視変換行列を求める最小
二乗推定手段と、前記撮像手段と前記対象物体との概略
的な推定距離に応じて必要な演算精度に対応する密度の
量子化空間点を有する探索領域を設定する探索領域設定
手段と、前記探索領域の量子化空間点において前記撮像
手段により前記対象物体を撮影したときに得られるべき
二次元の画像特徴点を算出するための透視変換行列を、
あらかじめ記憶手段に記憶された前記対象物体の三次元
絶対座標に対する前記量子化空間点の推定位置と前記撮
像手段の撮像姿勢を示す姿勢パラメータとに基いて演算
する透視変換行列演算手段と、この透視変換行列演算手
段により求められた前記透視変換行列と前記最小二乗推
定手段により求められた推定透視変換行列との間の適合
度を示す評価誤差値を所定の誤差評価関数に基いて演算
する誤差演算手段と、この誤差演算手段にて求められた
前記評価誤差値を前記探索領域に対応して設定された要
求誤差精度と比較し、前記評価誤差値が前記要求誤差精
度よりも小さくなることを判定条件として、前記探索領
域設定手段,前記透視変換行列演算手段および前記誤差
演算手段に前記演算を繰り返し実行させる誤差判定手段
と、この誤差判定手段により前記判定条件が満たされた
ときに、そのときの量子化空間点の三次元絶対座標と前
記撮像手段の姿勢パラメータとを出力するデータ出力手
段とから構成したところに特徴を有する。
【0010】
【作用】本発明の視覚に基く三次元位置および姿勢の認
識方法によれば、対象物体に対して移動接近して作業を
行う装置等に搭載した撮像手段により、三次元絶対座標
が既知である対象物体が撮影されると、画像処理工程に
おいては、その画像情報に基いて対象物体の形状の特徴
を示す二次元の画像特徴点を抽出する。
【0011】続いて、最小二乗推定工程においては、前
記撮像手段の概略位置と姿勢とに基いて、前記画像処理
工程で抽出した画像特徴点と記憶手段にあらかじめ記憶
された前記対象物体の見え方のパターンとの間の特徴点
の対応リストを選択し、この後、その対応リストに基い
て前記撮像手段の現在位置と姿勢とにおいて前記対象物
体の見え方を表す変換行列としてのカメラ行列の最小二
乗推定を行って推定透視変換行列を求める。
【0012】次に、探索領域設定工程において、撮像手
段とその対象物体との概略的な推定距離に応じて必要な
演算精度に対応する密度の量子化空間点を有する探索領
域を設定し、続く透視変換行列演算工程において、その
探索領域の量子化空間点に前記撮像手段を配置して前記
対象物体を撮影したときに得られるべき二次元の画像特
徴点を算出するための透視変換行列を、あらかじめ記憶
手段に記憶された前記対象物体の三次元絶対座標に対す
る前記量子化空間点の推定位置と前記撮像手段の撮像姿
勢を示す姿勢パラメータとに基いて演算する。
【0013】そして、誤差演算工程において、透視変換
行列演算工程にて求められた前記透視変換行列と前記最
小二乗推定工程において求められた推定透視変換行列と
の間の適合度を示す評価誤差値を所定の誤差評価関数に
基いて演算する。これは、各行列における対応する要素
のずれを演算するもので、評価誤差値が小さい程両行列
間の適合度合が高いことを示している。
【0014】次に、誤差判定工程において、上述の誤差
演算工程にて求められた前記評価誤差値を前記探索領域
に対応して設定された要求誤差精度と比較し、前記評価
誤差値が前記要求誤差精度よりも小さくなることを判定
条件として、前記探索領域設定工程,前記透視変換行列
演算工程および前記誤差演算工程を繰り返し実行させ、
最終的に、誤差判定工程にて上記条件に適合するように
なったときには、データ出力工程において、そのときの
量子化空間点の三次元絶対座標と前記撮像手段の姿勢パ
ラメータとを出力するようになり、実際の撮像手段の三
次元絶対座標に最も近い量子化空間点を近似点として求
めることができると共に、撮像手段の光軸のずれ等を表
す姿勢パラメータを検出することができるようになり、
これらのデータに基いて対象物体に対する装置の移動制
御などを適確に行うことができるようになるものであ
る。
【0015】また、本発明の視覚に基く三次元位置およ
び姿勢の認識装置によれば、上述の各工程を実施する手
段により、同様の動作を行なわせることができ、実際の
撮像手段の三次元絶対座標に最も近い量子化空間点を近
似点として求めることができると共に、撮像手段の光軸
のずれ等を表す姿勢パラメータを検出することができる
ようになり、これらのデータに基いて対象物体に対する
装置の移動制御などを適確に行うことができるようにな
るものである。
【0016】
【実施例】以下、本発明を工場内を走行する自律移動ロ
ボットに搭載する三次元位置認識装置に適用した場合の
一実施例について図面を参照しながら説明する。全体構
成の概略を示す図2において、自律移動ロボット1は、
例えば、工場内などの床面に設けられた軌道に沿って作
業エリア2間を移動するようになっており、本発明の三
次元位置認識装置(図1参照)が搭載されている。自律
移動ロボット1の上部にはアーム3が設けられ、そのア
ーム3の先端部には撮像手段としてのカメラ4および対
象物体としてのワーク5を把持する等の作業を行うため
のハンド6が配設されている。この場合、作業エリア2
は壁面から窪んだ状態に形成された凹部に設けられ、所
定形状をなすワーク5はその作業エリア2の底面2aの
所定位置に載置されている。
【0017】さて、三次元位置認識装置は図1に示すよ
うに構成される。画像処理手段としての画像処理部7
は、前処理計算部8および特徴点抽出部9からなる。前
処理計算部8は、カメラ4が撮影したワーク5を含むシ
ーンの画像信号を入力して前処理を施し、特徴点抽出部
9は、前処理計算部8により計算された画像情報に基い
て、後述のように、ワーク5の特徴点に対応する二次元
の画像特徴点を抽出するようになっている。
【0018】最小二乗推定手段としての最小二乗推定部
10は、画像処理部7にて抽出された画像特徴点が与え
られると、これに基いて後述するようにして、カメラ4
によりワーク5を撮影したときにそのカメラ4の位置お
よび姿勢に対応して得られるべき見え方のパターンを選
択すると共に、カメラ4の現在位置と姿勢とに対するカ
メラ行列の最小二乗推定を行い、この結果得られる推定
透視変換行列Msを演算して求める。
【0019】量子化空間探索部11は、探索領域設定手
段としての探索領域設定部12,透視変換行列演算手段
としての透視変換行列演算部13,誤差演算手段として
の誤差演算部14,誤差判定手段としての誤差判定部1
5およびデータ出力手段としてのデータ出力部16から
構成されている。
【0020】この場合、探索領域設定部12は、探索領
域設定工程として、作業エリア2のワーク5に対する自
律移動ロボット1の概略位置情報に基いた密度の複数の
量子化空間点Eを有する空間探索領域Sを設定する。透
視変換行列演算部13は、透視変換行列演算工程とし
て、設定された空間探索領域Sの量子化空間点Eにおい
てカメラ4によりワーク5を撮影したときに画像信号か
ら得られる画像内における画像特徴点の座標を求めるた
めの透視変換行列Mを、自律移動ロボット1の概略位置
情報およびカメラ4の姿勢パラメータに応じて演算す
る。
【0021】誤差演算部14は、誤差演算工程として、
最小二乗推定部10にて求められた推定透視変換行列M
sと透視変換行列演算部13にて演算された透視変換行
列Mとの間の誤差を各行列要素の二乗誤差和として求め
る誤差評価関数に基いて演算する。誤差判定部15は、
誤差判定工程として、演算された二乗誤差和が要求誤差
精度εよりも小さいか否かを判定し、小さいときにはそ
のときのカメラ4の位置および姿勢のデータを出力端子
17に出力し、大きいときには再び探索領域設定部12
に戻って上述の各部において演算を実行させる。そし
て、データ出力部16は、データ出力工程として、上述
の判定をした結果に基いてそのときの空間探索領域Sに
おける量子化空間点Eを出力する。
【0022】また、量子化空間探索部11には、後述す
る各種データが記憶される記憶手段としてのメモリ18
が接続され、その各種データの書き込みおよび読み出し
動作が行えるようになっていると共に、外部情報入力端
子19が設けられ、自律移動ロボット1の走行制御を行
う図示しない制御部あるいは図示しない位置検出センサ
などから自律移動ロボット1の概略位置を示す信号が入
力されるようになっている。この場合、メモリ18にあ
らかじめ記憶されるデータとしては、特徴点の対応リス
ト,ワーク5および作業エリア2の三次元絶対座標デー
タ,カメラ4のパラメータ,量子化空間点Eのリストと
その座標データなどである。
【0023】次に、本実施例の作用について図3ないし
図10をも参照して説明する。三次元位置認識装置は、
その動作の流れとして図3に示すようなステップにした
がって自律移動ロボット1の存在位置を認識する。ま
ず、図2の状態において、自律移動ロボット1が軌道上
を移動してきて作業エリア2に差し掛かると、カメラ4
の撮影シーン内に作業エリア2が入って撮影されると、
画像処理部7は、カメラ4の画像信号を入力するように
なる(ステップT1)。この場合、自律移動ロボット1
は、所定軌道上を所定方向に移動しており、また移動を
制御する制御部の内部情報などにより概略の停止位置が
わかっているので、その停止予定位置において対象物体
としてのワーク5がカメラ4の視野内に入るように設定
することができる。
【0024】次に、カメラ4により撮影されたワーク5
の画像信号は、画像処理部7の前処理計算部8にて前処
理としての雑音除去処理(ステップT2)およびワーク
5の画像の切り出し処理(ステップT3)を実行し、こ
の後、特徴点抽出部9にてその画像信号に基いて次のよ
うにしてm個の画像特徴点Qjの集合Qを求めて出力す
るようになる(ステップT4)。ここで、画像特徴点Q
jの集合Qは次のように定義される。 Q={Qj;j=1,2,…,m} …(1) Qj=(uj,vj) …(2) u,v;表示画面上における画素単位の二次元座標の各
要素値を示す
【0025】この画像特徴点Qjの抽出に際しては、外
部情報として入力端子19から与えられる概略位置情報
に基いて次のように演算を行う。すなわち、概略位置情
報として、例えば、自律移動ロボット1の移動経路を記
憶した作業計画,走行制御により移動した空間移動の履
歴情報などが入力されるので、これらの外部情報に基い
て、自律移動ロボット1の中心位置の概略的な三次元絶
対座標として、絶対座標で表した概略位置A0、 A0=(X0 ,Y0 ,Z0 ) …(3) を得ることができる。なお、概略位置A0の三次元絶対
座標は、作業エリア2の所定の位置を原点Opとして表
現したものである。
【0026】次に、メモリ18にあらかじめ記憶されて
いる作業エリア2に載置されたワーク5の種々の見え方
パターン(図4(a)ないし(f)参照)の中から、概
略位置A0の値に対応する見え方パターンを選択する
(ステップT5)。いま、例えば、概略位置A0に対応
する見え方パターンが図4(b)に対応しているときに
は、その見え方パターンに現れているワーク5の三次元
の特徴点Piの集合、 P={Pi;i=1,2,…,n} …(4) に対応する画像特徴点Qjを求めて順次抽出する。抽出
した画像特徴点Qjはメモリ18に記憶される。これ
は、例えば、図9(a)に示すように、作業エリア2と
ワーク5との特徴点Piの座標が記述されたメモリ18
の座標データと、同図(b)に示す画像信号により得ら
れた画像特徴点Qjとの間の対応関係を上述の見え方パ
ターン(図4(b)参照)に対応させて選択し、これに
基いて特徴点の対応リストを選択するのである。
【0027】さて、最小二乗推定部10においては、上
述のように選択された対応リストに基いてカメラ4の現
在位置と姿勢に対するカメラ行列Cの最小二乗推定を行
う(ステップT6)。この場合、カメラ行列Cは、次式
(5),(6),(7)に基いて設定されるもので、
(u,v,w)は斉次座標系における画像表示面の1点
を表し、(U,V)は画像表示面の座標軸で表した座標
値であり、(x,y,z)は三次元絶対座標空間におい
て対応する1点の座標である。つまり、カメラ行列Cは
三次元絶対空間の座標と画像表示面上との間の変換を行
うためのパラメータである。なお、wはカメラ4による
スケールファクタを表している。
【0028】
【数1】
【0029】そして、式(5),(6)から、 u−Uw=0 , v−Vw=0 …(8) が導かれ、また、斉次座標の性質を考慮すると、式
(7)から次式(9),(10),(11)が得られ
る。
【0030】
【数2】
【0031】次に、式(9),(10),(11)を式
(8)に代入すると、次式(12),(13)が得られ
る。
【0032】
【数3】 これらの式から次式(14),(15)のようにスケー
ルファクタとしてのwを消去して変形することができ
る。
【0033】
【数4】 この結果から、次式(16),(17)で示される評価
関数を導出することができ、Eu,Evを最小化するよ
うな次式(18),(19)で示される条件のもとでカ
メラ行列Cの各要素を係数とする線形方程式を得て最終
的にカメラ行列Cを決定することができる。
【0034】
【数5】 そして、このようにして得られたカメラ行列C(広義の
透視変換行列)の推定結果を推定透視変換行列Msとし
て記憶する。
【0035】次に、量子化空間探索部11においては、
探索領域設定部12により、概略位置A0(X0 ,Y0
,Z0 )を基準とした空間探索領域Sc、 Sc(c=1,2,…,C) …(20) を設定する(ステップT7)。この空間探索領域Sc
は、図5に示すように、所定の密度で格子状に量子化し
て配列された複数の量子化空間点E(k,c)、 E(k,c)(k=1,2,…,K、c=1,2,…,C) …(21) を含んで構成される。
【0036】この場合、作業エリア2の原点Opを基準
とした絶対座標系におけるX軸方向(作業エリア2に対
向する方向)の座標値X=XL1の平面内で、カメラ4は
ワーク5を向いていると仮定できる。ここで、XL1はカ
メラ4の視点の位置を示すX座標値の推定値であり、こ
の値は自律移動ロボット1の概略位置A0のX方向の座
標値X0 とカメラ4のロボット上の相対座標から決定で
きる。また、本実施例における自律移動ロボット1の場
合には、概略位置A0の高さ方向の座標値Z0は、一定
の値から大きく外れることがないと想定されるので、カ
メラ4のZ方向の座標を求めるための探索範囲は実質的
に狭い範囲に絞り込むことができる。
【0037】次に、カメラ4の各種パラメータの探索範
囲を設定する(ステップT8)。ここで、カメラ4のパ
ラメータとしては、図6に対応関係を示すように、 (a)カメラ4の姿勢パラメータCP(α,β,γ)、 (b)カメラ4の焦点距離特性f (c)カメラ4の位置(r,θ,φ) がある。そして、この場合において、(b)の焦点距離
特性fはカメラ4の特性によりあらかじめ決まっている
ので、例えば、メモリ18内にデータとして記憶させて
おくことができる。また、(c)のカメラ4の位置
(r,θ,φ)の値は以降の演算工程にて決めることが
できる値である。
【0038】したがって、ここでは、カメラ4のワーク
5の中心位置からの光軸のずれを表している姿勢パラメ
ータCP(α,β,γ)の探索範囲を決定すれば良い。
すなわち、カメラ4の姿勢パラメータCPの探索範囲
は、例えば図7に示すように、γ=0の場合に対して、
ワーク5の所定位置としての原点Opの画像位置Ops
(画像情報に含まれていない場合には含まれている特徴
点を原点とする座標系に変換する)が画像の表示画面上
における画素単位の二次元座標(u,v)において、例
えば(Na,Nb)であるとすると、次式よりαおよび
βの推定値が計算できる。
【0039】 α=2×arctan{(Na/NH )× tan(wH /2)} …(22) β=2×arctan{(Nb/NV )× tan(wV /2)} …(23) ただし、NH ;画像の表示画面上における水平方向の画
像サイズ NV ;画像の表示画面上における垂直方向の画像サイズ wH ;カメラの水平画角 wV ;カメラの垂直画角 である。
【0040】この場合、要求誤差精度があまり高くない
場合には、線形近似として、 α=(Na/NH )×wH …(24) β=(Nb/NV )×wV …(25) という式で代用することもできる。
【0041】そして、γ=0でない場合には、ワーク5
の中心の画像位置Opsを含む円環状の領域Sa(Op
s)内にγの補正をした場合のOpscが存在すると考
えられるので、Sa(Ops)内の量子化空間点Ops
cについて式(22),(23)あるいは式(24),
(25)に基いてα,βを定め、 γ=γpsc(OpsとOpscとのなす角度) として、以降の探索工程を行うようにする。なお、本実
施例においては、自律移動ロボット1は、略水平な床の
上を移動することと、概略位置A0の座標値を用いて高
精度にカメラ4の回転角を調整できるので、カメラ4の
光軸ずれに対する姿勢パラメータ(α,β,γ)のう
ち、最も広い探索能力を要求されるのは水平方向の角度
ずれを表すαである。したがって、β,γについては微
小範囲の探索を行えば良い。
【0042】次に、透視変換行列演算部13にて、空間
探索領域S1内の初期探索点として量子化空間点E
(k,1)(k=1,2,…,K)のうちの1点である
量子化空間点E(1,1)を選択して(ステップT9)
その三次元絶対座標と、カメラ4の姿勢パラメータCP
(α,β,γ)の初期値とを用いて、 透視変換行列M(k,c)(k=1,2,…,K、c=1,2,…,C) …(26) を演算する(ステップT10)。
【0043】この場合、透視変換行列Mは、次のように
して演算される。すなわち、まず、ワーク5の原点Op
に対して設定されている三次元絶対座標(X,Y,Z)
を基準として、初期探索領域S1を概略位置A0のX座
標値であるX=X0 の平面内にとり、この初期探索領域
S1内の三次元絶対座標(X,Y,Z)を三次元極座標
(r,θ,φ)に変換する透視変換行列Mを求める。カ
メラ4の姿勢パラメータCP(α,β,γ)と、焦点距
離特性fから求めたカメラ4の視点位置と射影平面に対
する距離dとに基いて、図6に示す関係に基いて透視変
換行列M(k,c)を求める。
【0044】ここで、透視変換行列M(k,c)は次の
ように表すことができる。 M(k,c)=T・M1・M2・M3 …(27) ただし、 T ;回転,並行移動,拡大,縮小等の変換行列(ここ
では、カメラ4の姿勢パラメータCPで表される回転の
演算) M1;撮影しているワークの射影空間内への透視変換 M2;射影空間内の平面から射影平面への透視変換 M3;射影平面から画像の表示面への座標変換 このうち、画像の表示面とワーク5との間の透視変換を
演算するための透視変換行列M1とM2との積および座
標変換行列M3は、それぞれ、次式(28),(29)
のように表すことができる。
【0045】
【数6】 また、カメラ4の光軸ずれに対応する姿勢パラメータC
P(α,β,γ)に応じた回転の演算を行うための変換
行列Tは、前述の図6と図8に示す関係とに基いて次式
(30),(31),(32)のように表すことができ
る。なお、このとき、光軸ずれの変換においては、、ワ
ーク5との距離が変化しないと仮定すると、T0 =T1
とおくことができるので、次式(33)の関係が成立す
る。
【0046】
【数7】 次に、誤差演算部14において、このようにして演算に
より求めた透視変換行列M(k,r)と、最小二乗推定
部10で求めた推定透視変換行列Msとの間の誤差評価
関数D(1,1)を計算する(ステップT11)。この
場合、誤差評価関数D(k,c)は透視変換行列Mと推
定透視変換行列Msとの各行列要素間の二乗誤差の和を
演算するものである。
【0047】続いて、現在の量子化空間点E(1,1)
において姿勢パラメータCP(α,β,γ)のうちγを
そのままにした状態でα,βを変更し、上述と同様にし
て誤差評価関数D(nE ,1)(nE =1,2,…,N
E )を演算する(ステップT12,13,10,1
1)。この後、これらの誤差評価関数D(nE ,1)か
ら最適値としてDE1(αE ,βE ,γE )を算出する
(ステップT14)。続いて、誤差判定部15におい
て、演算された誤差評価関数D(k,1)の値から得ら
れた最適値DE1の演算値が、あらかじめ設定されている
検出条件としての要求誤差精度εの値に対して、 DE k<ε …(34) とした判定条件を満たすか否かを判断する(ステップT
15)。
【0048】そして、上述の判定条件式(37)を満た
していない場合には、以上の演算を初期探索領域S1内
における他の量子化空間点E(k,1)についても同様
に実行する(ステップT16,T17を経てステップT
9〜T15を実行)。さらに、他の量子化空間点E
(k,1)について判定条件式(34)を満たさない場
合には、そのときの最適値DE kのなかから要求誤差精
度εに一番近い値が得られた量子化空間点E(k,1)
の位置に基づいて、新たな空間探索領域S2を設定し
(ステップT18,T19)、前述の演算工程を再び実
行する(ステップT5〜T15)。
【0049】一方、判定条件式(34)の条件を満たし
た場合には(ステップT15)、データ出力部16によ
り、そのときの最適値DE kに相当する量子化空間点E
(k,c)の位置(rE ,θE ,φE )の値およびカメ
ラ4の姿勢パラメータ(αE,βE ,γE )の値を検出
データとして出力端子17に出力し(ステップT2
0)、探索プログラムを終了する。
【0050】また、最終の空間探索領域SCの設定にも
拘らず判定条件式(34)を満たさない場合には(ステ
ップT18)、要求誤差精度εを満たす量子化空間点E
(k,c)が存在しないことをメッセージ出力した(ス
テップT21)後、それまでの間に演算された最適値D
E kのなかから要求誤差精度εに一番近い値が得られた
量子化空間点E(k,c)の位置(rE ,θE ,φE )
の値およびカメラ4の姿勢パラメータ(αE ,βE ,γ
E )の値を検出データとして出力端子17に出力して
(ステップT20)探索プログラムを終了する。
【0051】なお、上述の場合には、作業エリア2のワ
ーク5の原点Opから一定の距離(X=XL1)におい
て、要求誤差精度εを満たす量子化空間点E(k,1)
を求めるように、空間探索領域Sの設定をS1,S2,
…と設定する探索過程を示しているが、例えば、図10
に示すように、自律移動ロボット1の進行によるワーク
5への近接(X<XL1)するのに応じてその位置に応じ
た空間探索領域S(k,c)を設定する探索過程を実行
することもできる。
【0052】すなわち、例えば、自律移動ロボット1の
進行過程において、原点Opからの距離Xに対応して一
つの空間探索領域S1を設定し、そのなかの量子化空間
点E(k,1)のうち要求誤差精度εに一番近いものを
カメラ4の位置および姿勢パラメータを示す仮の検出デ
ータとして求め、その検出データに基いて自律移動ロボ
ット1の移動量を制御し、原点Opからの距離Xがさら
に小さくなったときに新たに空間探索領域S2を設定し
てさらに要求誤差精度εに一番近い量子化空間点E
(k,2)を求めるようにし、以下、同様にして、ワー
ク5に自律移動ロボット1が最も近接したときに、最終
的に要求誤差精度εを満たすように探索過程を設定する
ようにしても良い。
【0053】このように、本実施例においては、既知形
状の対象物体としての作業エリア2およびワーク5をカ
メラ4により撮像してその画像情報から画像特徴点Qj
を抽出し、最小二乗推定部10により、抽出した画像特
徴点とワーク5の見え方のパターンとの間の特徴点の対
応リストを選択してカメラ4の現在位置と姿勢とにおけ
るワーク5の見え方を表すカメラ行列の最小二乗推定を
行って推定透視変換行列Msを求め、一方、量子化した
空間点を複数個有する空間探索領域Scを設定すると共
に、カメラ4の姿勢パラメータCP(α,β,γ)を設
定してワーク5をその量子化空間点E(k,c)におい
て撮像したときに得られるべきワーク5の画像特徴点を
求めるための透視変換行列M(k,c)を演算し、それ
らの対応関係を求めて誤差評価関数D(k,c)により
要求誤差精度εを満たすか否かを判定してマッチングを
とることによりカメラ4の位置および姿勢パラメータC
Pを推定するようにしたので、以下のような効果を得る
ことができる。
【0054】すなわち、第1に、従来と異なり、特殊マ
ーカを設ける必要がなくなり、マーカ認識用の移動時間
が不要となって演算時間を短縮して高速化を図れる。第
2に、透視変換行列の成分からパラメータを算出する方
法ではなく、所定密度で配置される量子化空間点Eを有
する空間探索領域Scを設定して透視変換行列を求め、
推定透視変換行列との間の適合度を評価するので、演算
量が膨大となることなく迅速に演算処理を実行できる。
第3に、カメラ4の姿勢パラメータCP(α,β,γ)
が未知の場合でも適用できる。第4に、カメラ4の位置
を求めるための演算の精度を、量子化空間点Eの取り方
で調整することができる。つまり、例えば、作業内容や
環境の実情を考慮して遠距離においては粗い精度で高速
演算を行わせ、そしてワーク5に近接したときには細か
い精度で正確な演算を行なわせるように設定するという
ように、情況に応じた適切な精度に設定することができ
る。第5に、このように演算を実行するので、対象物体
としてのワーク5に対して、能動的にカメラ4が移動す
る際に、遠距離での光軸合わせ(粗い推定)から近距離
での高精度推定まで、移動系と連動して多段的に用いる
ことができる。
【0055】
【発明の効果】以上説明したように、本発明の視覚に基
く三次元位置および姿勢の認識方法によれば、画像処理
工程により、形状を示す三次元絶対座標が既知である対
象物体を撮像手段により撮影したときの画像情報に基い
てその対象物体の形状の特徴を示す二次元の画像特徴点
を抽出し、最小二乗推定工程において、撮像手段の概略
位置と姿勢とに基いて、抽出した画像特徴点と記憶手段
に記憶された対象物体の見え方パターンとの間の対応リ
ストを選択し、カメラ行列の最小二乗推定により推定透
視変換行列を求め、探索領域設定工程,透視変換行列演
算工程,誤差演算工程,誤差判定工程およびデータ出力
工程により、撮像手段の概略的な推定位置に応じた探索
領域を設定してその探索領域における複数の量子化され
た空間点における対象物体に対する透視変換行列を演算
して前記推定透視変換行列との誤差を誤差評価関数によ
り評価して要求誤差精度を満たすときにそのときの量子
化空間点を撮像手段の三次元絶対座標位置として推定す
ると共に、撮像手段の姿勢パラメータを姿勢として出力
するようにしたので、撮像手段の光軸ずれがある場合で
も、特殊マーカなどを用いることなく、迅速且つ高精度
に撮像手段の位置と姿勢を認識することができ、しか
も、要求誤差精度の設定の仕方により演算速度と演算精
度との兼ね合いを距離に応じて適切に設定することがで
き、これらのデータに基いて対象物体に対する装置の移
動制御などを適確に行うことができるという優れた効果
を奏するものである。
【0056】また、本発明の視覚に基く三次元位置およ
び姿勢の認識装置によれば、上述の各工程を実行する手
段により、同様の動作を行なわせることができ、実際の
撮像手段の三次元絶対座標に最も近い量子化空間点を近
似点として求めることができると共に、撮像手段の光軸
のずれ等を表す姿勢パラメータを検出することができる
ようになり、これらのデータに基いて対象物体に対する
装置の移動制御などを的確に行うことができるようにな
るという優れた効果を奏する。
【図面の簡単な説明】
【図1】本発明の一実施例を示す機能的構成のブロック
【図2】自律移動ロボットと作業エリアとの位置関係を
示す図
【図3】プロセスの流れを説明するフローチャート
【図4】種々の見え方パターン
【図5】空間探索領域と作業エリアとの位置関係を示す
作用説明図
【図6】絶対座標軸とカメラおよび画像の座標軸との関
係を示す図
【図7】画像表示部上のワークとカメラの姿勢パラメー
タとの関係を示す説明図
【図8】透視変換行列を演算するための座標軸の関係を
示す作用説明図
【図9】(a)作業エリアとワークの特徴点の定義と
(b)画像信号による画像特徴点との対応関係を示す作
用説明図
【図10】探索領域をワークとの距離に応じて設定する
場合の作用説明図
【符号の説明】
1は自律移動ロボット、2は作業エリア、4はカメラ
(撮像手段)、5はワーク(対象物体)、7は画像処理
部、8は前処理計算部、9は特徴点抽出部、10は最小
二乗推定部(最小二乗推定手段)、11は量子化空間探
索部、12は探索領域設定部(探索領域設定手段)、1
3は透視変換行列演算部(透視変換行列演算手段)、1
4は誤差演算部(誤差演算手段)、15は誤差判定部
(誤差判定手段)、16はデータ出力部(データ出力手
段)、18はメモリ(記憶手段)、19は外部情報入力
端子である。
───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.5 識別記号 庁内整理番号 FI 技術表示箇所 G05D 3/12 K 9179−3H G06F 15/62 415 9287−5L

Claims (2)

    【特許請求の範囲】
  1. 【請求項1】 形状を示す三次元絶対座標が既知である
    対象物体を撮像手段により撮影したときの画像情報に基
    いてその対象物体の形状の特徴を示す二次元の画像特徴
    点を抽出する画像処理工程と、 前記撮像手段の概略位置と姿勢とに基いて、前記画像処
    理工程で抽出した画像特徴点と記憶手段にあらかじめ記
    憶された前記対象物体の見え方のパターンとの間の特徴
    点の対応リストを選択すると共に、その対応リストに基
    いて前記撮像手段の現在位置と姿勢とにおける前記対象
    物体の見え方を表すカメラ行列の最小二乗推定を行って
    推定透視変換行列を求める最小二乗推定工程と、 前記撮像手段と前記対象物体との概略的な推定距離に応
    じて必要な演算精度に対応する密度の量子化空間点を有
    する探索領域を設定する探索領域設定工程と、 前記探索領域の量子化空間点において前記撮像手段によ
    り前記対象物体を撮影したときに得られるべき二次元の
    画像特徴点を算出するための透視変換行列を、あらかじ
    め記憶手段に記憶された前記対象物体の三次元絶対座標
    に対する前記量子化空間点の推定位置と前記撮像手段の
    撮像姿勢を示す姿勢パラメータとに基いて演算する透視
    変換行列演算工程と、 この透視変換行列演算工程にて求められた前記透視変換
    行列と前記最小二乗推定工程において求められた推定透
    視変換行列との間の適合度を示す評価誤差値を所定の誤
    差評価関数に基いて演算する誤差演算工程と、 この誤差演算工程にて求められた前記評価誤差値を前記
    探索領域に対応して設定された要求誤差精度と比較し、
    前記評価誤差値が前記要求誤差精度よりも小さくなるこ
    とを判定条件として、前記探索領域設定工程,前記透視
    変換行列演算工程および前記誤差演算工程を繰り返し実
    行させる誤差判定工程と、 この誤差判定工程において前記判定条件を満たしたとき
    に、そのときの量子化空間点の三次元絶対座標と前記撮
    像手段の姿勢パラメータとを出力するデータ出力工程と
    からなる視覚に基く三次元位置および姿勢の認識方法。
  2. 【請求項2】 画像情報を出力する撮像手段と、 形状を示す三次元絶対座標が既知である対象物体を前記
    撮像手段により撮影したときの画像情報に基いてその対
    象物体の形状の特徴を示す二次元の画像特徴点を抽出す
    る画像処理手段と、 前記撮像手段の概略位置と姿勢とに基いて、前記画像処
    理手段により抽出した画像特徴点と記憶手段にあらかじ
    め記憶された前記対象物体の見え方のパターンとの間の
    特徴点の対応リストを選択すると共に、その対応リスト
    に基いて前記撮像手段の現在位置と姿勢とにおける前記
    対象物体の見え方を表すカメラ行列の最小二乗推定を行
    って推定透視変換行列を求める最小二乗推定手段と、 前記撮像手段と前記対象物体との概略的な推定距離に応
    じて必要な演算精度に対応する密度の量子化空間点を有
    する探索領域を設定する探索領域設定手段と、 前記探索領域の量子化空間点において前記撮像手段によ
    り前記対象物体を撮影したときに得られるべき二次元の
    画像特徴点を算出するための透視変換行列を、あらかじ
    め記憶手段に記憶された前記対象物体の三次元絶対座標
    に対する前記量子化空間点の推定位置と前記撮像手段の
    撮像姿勢を示す姿勢パラメータとに基いて演算する透視
    変換行列演算手段と、 この透視変換行列演算手段により求められた前記透視変
    換行列と前記最小二乗推定手段により求められた推定透
    視変換行列との間の適合度を示す評価誤差値を所定の誤
    差評価関数に基いて演算する誤差演算手段と、 この誤差演算手段にて求められた前記評価誤差値を前記
    探索領域に対応して設定された要求誤差精度と比較し、
    前記評価誤差値が前記要求誤差精度よりも小さくなるこ
    とを判定条件として、前記探索領域設定手段,前記透視
    変換行列演算手段および前記誤差演算手段に前記演算を
    繰り返し実行させる誤差判定手段と、 この誤差判定手段により前記判定条件が満たされたとき
    に、そのときの量子化空間点の三次元絶対座標と前記撮
    像手段の姿勢パラメータとを出力するデータ出力手段と
    からなる視覚に基く三次元位置および姿勢の認識装置。
JP04924093A 1993-03-08 1993-03-10 視覚に基く三次元位置および姿勢の認識方法とその装置 Expired - Lifetime JP3208900B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP04924093A JP3208900B2 (ja) 1993-03-10 1993-03-10 視覚に基く三次元位置および姿勢の認識方法とその装置
US08/206,828 US5499306A (en) 1993-03-08 1994-03-07 Position-and-attitude recognition method and apparatus by use of image pickup means

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP04924093A JP3208900B2 (ja) 1993-03-10 1993-03-10 視覚に基く三次元位置および姿勢の認識方法とその装置

Publications (2)

Publication Number Publication Date
JPH06258028A true JPH06258028A (ja) 1994-09-16
JP3208900B2 JP3208900B2 (ja) 2001-09-17

Family

ID=12825353

Family Applications (1)

Application Number Title Priority Date Filing Date
JP04924093A Expired - Lifetime JP3208900B2 (ja) 1993-03-08 1993-03-10 視覚に基く三次元位置および姿勢の認識方法とその装置

Country Status (1)

Country Link
JP (1) JP3208900B2 (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002243446A (ja) * 2001-02-20 2002-08-28 Minolta Co Ltd 位置情報設定装置および環境情報獲得装置
KR101040957B1 (ko) * 2009-07-27 2011-06-17 전자부품연구원 로봇의 위치 인식 방법 및 장치
JP2012103213A (ja) * 2010-11-12 2012-05-31 Fujitsu Ltd 画像処理プログラムおよび画像処理装置
JP2015060430A (ja) * 2013-09-19 2015-03-30 株式会社Ihi センサの指向制御方法と装置
CN106553195A (zh) * 2016-11-25 2017-04-05 中国科学技术大学 工业机器人抓取过程中的物体6自由度定位方法及系统
JP2019190962A (ja) * 2018-04-24 2019-10-31 大成建設株式会社 画像水平調整装置及びそのプログラム、並びに、図面生成システム
CN114440776A (zh) * 2022-01-28 2022-05-06 上海交途科技有限公司 一种基于机器视觉的位移自动测量方法及系统

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002243446A (ja) * 2001-02-20 2002-08-28 Minolta Co Ltd 位置情報設定装置および環境情報獲得装置
JP4595212B2 (ja) * 2001-02-20 2010-12-08 コニカミノルタビジネステクノロジーズ株式会社 位置情報設定装置および環境情報獲得装置
KR101040957B1 (ko) * 2009-07-27 2011-06-17 전자부품연구원 로봇의 위치 인식 방법 및 장치
JP2012103213A (ja) * 2010-11-12 2012-05-31 Fujitsu Ltd 画像処理プログラムおよび画像処理装置
US8478001B2 (en) 2010-11-12 2013-07-02 Fujitsu Limited Image processing apparatus
JP2015060430A (ja) * 2013-09-19 2015-03-30 株式会社Ihi センサの指向制御方法と装置
CN106553195A (zh) * 2016-11-25 2017-04-05 中国科学技术大学 工业机器人抓取过程中的物体6自由度定位方法及系统
JP2019190962A (ja) * 2018-04-24 2019-10-31 大成建設株式会社 画像水平調整装置及びそのプログラム、並びに、図面生成システム
CN114440776A (zh) * 2022-01-28 2022-05-06 上海交途科技有限公司 一种基于机器视觉的位移自动测量方法及系统

Also Published As

Publication number Publication date
JP3208900B2 (ja) 2001-09-17

Similar Documents

Publication Publication Date Title
US10948297B2 (en) Simultaneous location and mapping (SLAM) using dual event cameras
CN110116407B (zh) 柔性机器人位姿测量方法及装置
US7283661B2 (en) Image processing apparatus
Lins et al. Vision-based measurement for localization of objects in 3-D for robotic applications
CN111429344B (zh) 基于感知哈希的激光slam闭环检测方法及系统
CN114022560A (zh) 标定方法及相关装置、设备
JPS60200111A (ja) 3次元物体認識装置
JP6922348B2 (ja) 情報処理装置、方法、及びプログラム
CN111583342A (zh) 一种基于双目视觉的目标快速定位方法及装置
JP2730457B2 (ja) 視覚に基く三次元位置および姿勢の認識方法ならびに視覚に基く三次元位置および姿勢の認識装置
JP2003136465A (ja) 検出対象物の3次元位置・姿勢決定方法とロボット用視覚センサ
JP3208900B2 (ja) 視覚に基く三次元位置および姿勢の認識方法とその装置
JP2778430B2 (ja) 視覚に基く三次元位置および姿勢の認識方法ならびに視覚に基く三次元位置および姿勢の認識装置
JP3326851B2 (ja) 視覚に基く三次元位置および姿勢の認識方法とその装置
Strelow et al. Extending shape-from-motion to noncentral onmidirectional cameras
Goto et al. 3D environment measurement using binocular stereo and motion stereo by mobile robot with omnidirectional stereo camera
Motai et al. SmartView: hand-eye robotic calibration for active viewpoint generation and object grasping
Brandt et al. Controlled active exploration of uncalibrated environments
JP3516668B2 (ja) 3次元形状認識方法、装置およびプログラム
JP7365567B2 (ja) 計測システム、計測装置、計測方法及び計測プログラム
Lanser et al. MORAL—A vision-based object recognition system for autonomous mobile systems
Schleicher et al. Real-time simultaneous localization and mapping using a wide-angle stereo camera and adaptive patches
KR100991194B1 (ko) 이동 로봇의 물체 운반 시스템 및 방법
Okada et al. A parts picking system with a range finder and a camera system
JPH1137736A (ja) 3次元形状計測方法及び3次元形状計測装置

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110713

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120713

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120713

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130713

Year of fee payment: 12

EXPY Cancellation because of completion of term