JPH06262568A - Recognition method for three-dimensional position and attitude based on visual sensation and device thereof - Google Patents

Recognition method for three-dimensional position and attitude based on visual sensation and device thereof

Info

Publication number
JPH06262568A
JPH06262568A JP5046362A JP4636293A JPH06262568A JP H06262568 A JPH06262568 A JP H06262568A JP 5046362 A JP5046362 A JP 5046362A JP 4636293 A JP4636293 A JP 4636293A JP H06262568 A JPH06262568 A JP H06262568A
Authority
JP
Japan
Prior art keywords
error
dimensional
image
perspective transformation
target object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP5046362A
Other languages
Japanese (ja)
Other versions
JP3326851B2 (en
Inventor
Mikio Sasaki
美樹男 笹木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
NipponDenso Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NipponDenso Co Ltd filed Critical NipponDenso Co Ltd
Priority to JP04636293A priority Critical patent/JP3326851B2/en
Priority to US08/206,828 priority patent/US5499306A/en
Publication of JPH06262568A publication Critical patent/JPH06262568A/en
Application granted granted Critical
Publication of JP3326851B2 publication Critical patent/JP3326851B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

PURPOSE:To make it possible to seek a parameter showing the position and attitude of a camera in a relatively simple and quick manner by constituting it from an image processing operation, a search area setting process, a through-vision transformation matrix operating process, a through-vision transformation operating process, an error operating process and a data outputting process. CONSTITUTION:This recognition method of a three-dimensional position-and-attitude based on visual sensation is featured that the image characteristic point of a work picked up by a camera 4 is operated by an image processing part 7. In succession, a space search area with a quantized space point set at the specified density by a quantization search part 10, is set by a search area setting part 11, and an estimate image characteristic point to lee securable at a time when the work is photographed by the camera 4 is operated for seeking a through-vision transformation matrix at the respective quantized space points, while a slippage with the image characteristic point is operated by an error evaluation function. Thus, when the specified request error accuracy is satisfied, the quantized space point and an attitude parameter at that time are outputted from a data output part 16 as the position and attitude of the camera 4.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、自律移動ロボットなど
に搭載され単眼視カメラにより撮影した既知対象の画像
情報に基いて単眼視カメラの三次元位置および姿勢を認
識するようにした視覚に基く三次元位置および姿勢の認
識方法とその装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention is based on vision for recognizing the three-dimensional position and orientation of a monocular camera based on image information of a known object taken by a monocular camera mounted on an autonomous mobile robot or the like. The present invention relates to a three-dimensional position / orientation recognition method and apparatus.

【0002】[0002]

【従来の技術】近年、例えば、自律移動ロボット等のよ
うに、形状および絶対座標位置が既知である対象物体に
対して接近するように移動し、アームにより対象物体を
把持するといった能動的操作を行うようにしたものがあ
る。このような自律移動ロボット等においては、CCD
カメラなどの撮像手段を搭載してその二次元的な画像情
報に基いて対象物体に対する自己の三次元的な相対位置
を認識することが必要になる。この場合、位置認識を行
うための装置においては、高精度且つ迅速に演算を行っ
て三次元的な位置のデータを求めることが要求され、し
かも安価に実現できる構成が望まれている。
2. Description of the Related Art In recent years, for example, an active operation such as an autonomous mobile robot which moves so as to approach a target object whose shape and absolute coordinate position are known and which grips the target object with an arm has been performed. There are things I tried to do. In such an autonomous mobile robot, the CCD
It is necessary to mount an image pickup means such as a camera and recognize the own three-dimensional relative position with respect to the target object based on the two-dimensional image information. In this case, in a device for position recognition, it is required to perform a highly accurate and quick calculation to obtain three-dimensional position data, and a configuration that can be realized at low cost is desired.

【0003】そこで、従来では、比較的簡単なものとし
て、例えば、特開平3−166072号公報あるいは特
開平3−166073号公報に示されるようなものが考
えられている。すなわち、これらにおいては、対象装置
に固定された形状および寸法が既知の特殊な幾何学形状
(マーカと呼ぶ)をカメラにより撮影し、そのマーカの
二次元的な画像情報に基いて、その重心を計算する等の
方法により対象装置に対するカメラの相対的な三次元の
位置関係を求めるようにしたものである。
Therefore, conventionally, as a relatively simple one, for example, ones disclosed in JP-A-3-166072 or JP-A-3-166073 are considered. That is, in these, a special geometric shape (called a marker) whose shape and dimensions are fixed to the target device is photographed by a camera, and the center of gravity of the marker is determined based on the two-dimensional image information of the marker. The relative three-dimensional positional relationship of the camera with respect to the target device is obtained by a method such as calculation.

【0004】[0004]

【発明が解決しようとする課題】しかしながら、上述の
ような従来方法によると、対象装置にマーカを設ける必
要があるため、その設置のための準備をその都度行う必
要があると共に、マーカに対してカメラの光軸を常に垂
直に設定する必要があるため、任意の姿勢をとるカメラ
に対しては適用が困難となる不具合がある。
However, according to the conventional method as described above, since it is necessary to provide the marker on the target device, it is necessary to make preparations for its installation each time, and at the same time, for the marker. Since it is necessary to always set the optical axis of the camera to be vertical, there is a problem that it is difficult to apply it to a camera that takes an arbitrary posture.

【0005】このような不具合を解消し得る理論的手法
として、一般には、透視n点問題において最小二乗推定
した透視変換行列の成分からカメラの位置および姿勢を
表すパラメータを逆算する方法がコンピュータビジョン
の手法として存在する。この方法によれば、カメラの光
軸と対象物体を記述する絶対座標の原点との間の関係が
未知の場合でも、原理的にはカメラの位置および姿勢を
表すパラメータを求めることが可能となる。
As a theoretical method capable of solving such a problem, in general, a method of back-calculating the parameters representing the position and orientation of the camera from the components of the perspective transformation matrix estimated by least-squares in the perspective n-point problem is a computer vision method. It exists as a method. According to this method, even if the relationship between the optical axis of the camera and the origin of the absolute coordinates that describe the target object is unknown, it is possible in principle to obtain parameters that represent the position and orientation of the camera. .

【0006】ところが、このようなコンピュータビジョ
ンの手法においては、実際にコンピュータを用いて明示
的に計算する場合に、適用する式が非常に複雑になるこ
とに加えてその演算量が膨大なものとなるため、迅速な
演算処理が困難になり実用的には適用が難しくなるもの
である。
However, in such a computer vision method, when an explicit calculation is actually performed using a computer, the applied formula becomes very complicated and the amount of calculation is enormous. Therefore, rapid arithmetic processing becomes difficult and practically difficult to apply.

【0007】本発明は、上記事情に鑑みてなされたもの
で、その目的は、カメラの光軸と既知形状の対象物体を
記述する絶対座標の原点との間の関係が未知の場合で
も、カメラにより撮影した二次元の画像情報に基いて、
比較的簡単かつ迅速ににカメラの位置と姿勢を表すパラ
メータとを求めることができるようにした視覚情報に基
く三次元位置と姿勢の認識方法とその装置を提供するこ
とにある。
The present invention has been made in view of the above circumstances, and an object thereof is to provide a camera even when the relationship between the optical axis of the camera and the origin of absolute coordinates describing a target object of a known shape is unknown. Based on the two-dimensional image information taken by
It is an object of the present invention to provide a method and apparatus for recognizing a three-dimensional position and orientation based on visual information, which makes it possible to relatively easily and quickly obtain parameters representing the position and orientation of a camera.

【0008】[0008]

【課題を解決するための手段】本発明の視覚に基く三次
元位置および姿勢の認識方法は、形状を示す三次元絶対
座標が既知である対象物体を撮像手段により撮影したと
きの画像情報に基いてその対象物体の形状の特徴を示す
二次元の画像特徴点を抽出する画像処理工程と、前記撮
像手段と前記対象物体との概略的な推定距離に応じて必
要な演算精度に対応する密度の量子化空間点を有する探
索領域を設定する探索領域設定工程と、前記探索領域の
量子化空間点において前記撮像手段により前記対象物体
を撮影したときに得られるべき二次元の推定画像特徴点
を算出するための透視変換行列を、あらかじめ記憶手段
に記憶された前記対象物体の三次元絶対座標に対する前
記量子化空間点の推定位置と前記撮像手段の撮像姿勢を
示す姿勢パラメータとに基いて演算する透視変換行列演
算工程と、この透視変換行列演算工程にて求められた前
記透視変換行列を用いて前記量子化空間点における前記
対象物体の二次元の前記推定画像特徴点を算出する透視
変換演算工程と、前記画像処理工程にて抽出された前記
対象物体の二次元の画像特徴点と前記透視変換演算工程
にて算出された二次元の前記推定画像特徴点との対応関
係を求めると共に、それら対応関係が得られた画像特徴
点と推定画像特徴点との間の適合度を示す評価誤差値を
所定の誤差評価関数に基いて演算する誤差演算工程と、
この誤差演算工程にて求められた前記評価誤差値を前記
探索領域に対応して設定された要求誤差精度と比較し、
前記評価誤差値が前記要求誤差制度よりも小さくなるこ
とを判定条件として、前記探索領域設定工程,前記透視
変換行列演算工程,前記透視変換演算工程および前記誤
差演算工程を繰り返し実行させる誤差判定工程と、この
誤差判定工程において前記判定条件を満たしたときに、
そのときの量子化空間点の三次元絶対座標と前記撮像手
段の姿勢パラメータとを出力するデータ出力工程とから
構成したところに特徴を有する。
A method of recognizing a three-dimensional position and orientation based on the present invention is based on image information when a target object whose shape has a known three-dimensional absolute coordinate is known. And an image processing step of extracting a two-dimensional image feature point indicating the feature of the shape of the target object, and a density corresponding to a calculation accuracy required according to a rough estimated distance between the image pickup means and the target object. A search area setting step of setting a search area having a quantized space point; and calculating a two-dimensional estimated image feature point to be obtained when the target object is photographed by the imaging means at the quantized space point of the search area. The perspective transformation matrix for performing the above-mentioned transformation is a posture parameter indicating the estimated position of the quantized space point with respect to the three-dimensional absolute coordinates of the target object stored in advance in the storage unit and the image pickup posture of the image pickup unit. Based on the perspective transformation matrix calculation step, and using the perspective transformation matrix obtained in this perspective transformation matrix calculation step, the two-dimensional estimated image feature points of the target object at the quantized space point The perspective transformation calculation step to be calculated, and the correspondence between the two-dimensional image feature points of the target object extracted in the image processing step and the two-dimensional estimated image feature points calculated in the perspective transformation calculation step. And an error calculation step of calculating an evaluation error value indicating the degree of conformity between the image feature points and the estimated image feature points for which the corresponding relationship is obtained, based on a predetermined error evaluation function,
The evaluation error value obtained in this error calculation step is compared with the required error accuracy set corresponding to the search area,
An error determination step of repeatedly executing the search area setting step, the perspective transformation matrix operation step, the perspective transformation operation step, and the error operation step under the condition that the evaluation error value is smaller than the required error accuracy. , When the determination condition is satisfied in this error determination step,
It is characterized in that it is composed of a three-dimensional absolute coordinate of the quantized space point at that time and a data output step of outputting the attitude parameter of the image pickup means.

【0009】また、本発明の視覚に基く三次元位置およ
び姿勢の認識装置においては、画像情報を出力する撮像
手段と、形状を示す三次元絶対座標が既知である対象物
体を前記撮像手段により撮影したときの画像情報に基い
てその対象物体の形状の特徴を示す二次元の画像特徴点
を抽出する画像処理手段と、前記撮像手段と前記対象物
体との概略的な推定距離に応じて必要な演算精度に対応
する密度の量子化空間点を有する探索領域を設定する探
索領域設定手段と、前記探索領域の量子化空間点におい
て前記撮像手段により前記対象物体を撮影したときに得
られるべき二次元の推定画像特徴点を算出するための透
視変換行列を、あらかじめ記憶手段に記憶された前記対
象物体の三次元絶対座標に対する前記量子化空間点の推
定位置と前記撮像手段の撮像姿勢を示す姿勢パラメータ
とに基いて演算する透視変換行列演算手段と、この透視
変換行列演算手段により求められた前記透視変換行列を
用いて前記量子化空間点における前記対象物体の二次元
の前記推定画像特徴点を算出する透視変換演算手段と、
前記画像処理手段にて抽出された前記対象物体の二次元
の画像特徴点と前記透視変換演算手段にて算出された二
次元の前記推定画像特徴点との対応関係を求めると共
に、それら対応関係が得られた画像特徴点と推定画像特
徴点との間の適合度を示す評価誤差値を所定の誤差評価
関数に基いて演算する誤差演算手段と、この誤差演算手
段にて求められた前記評価誤差値を前記探索領域に対応
して設定された要求誤差精度と比較し、前記評価誤差値
が前記要求誤差制度よりも小さくなることを判定条件と
して、前記探索領域設定手段,前記透視変換行列演算手
段,前記透視変換演算手段および前記誤差演算手段によ
る工程を繰り返し実行させる誤差判定手段と、この誤差
判定手段において前記判定条件を満たしたときに、その
ときの量子化空間点の三次元絶対座標と前記撮像手段の
姿勢パラメータとを出力するデータ出力手段とから構成
したところに特徴を有する。
Further, in the visual-based three-dimensional position and orientation recognition apparatus of the present invention, an image pickup means for outputting image information and a target object whose three-dimensional absolute coordinates indicating a shape are known are photographed by the image pickup means. Image processing means for extracting a two-dimensional image feature point indicating the shape feature of the target object based on the image information at the time, and necessary according to a rough estimated distance between the imaging means and the target object. Search area setting means for setting a search area having a quantized spatial point having a density corresponding to calculation accuracy, and two-dimensional to be obtained when the target object is imaged by the imaging means at the quantized spatial point of the search area. A perspective transformation matrix for calculating the estimated image feature points of the estimated position of the quantized space point with respect to the three-dimensional absolute coordinates of the target object stored in advance in the storage unit and the imaging Perspective transformation matrix computing means for computing based on a posture parameter indicating the imaging posture of the stage, and two-dimensional of the target object at the quantized space point using the perspective transformation matrix calculated by the perspective transformation matrix computing means A perspective transformation calculation means for calculating the estimated image feature points of
While obtaining the correspondence between the two-dimensional image feature points of the target object extracted by the image processing means and the two-dimensional estimated image feature points calculated by the perspective transformation calculation means, Error calculation means for calculating an evaluation error value indicating the matching degree between the obtained image feature point and the estimated image feature point based on a predetermined error evaluation function, and the evaluation error obtained by the error calculation means. The value is compared with the required error accuracy set corresponding to the search area, and the search area setting means and the perspective transformation matrix operation means are set on the condition that the evaluation error value is smaller than the required error accuracy. Error determining means for repeatedly performing the steps of the perspective transformation calculating means and the error calculating means, and the quantization space point at that time when the determination condition is satisfied in the error determining means Characterized in was composed of a data output means for outputting the three-dimensional absolute coordinate and the posture parameter of the imaging means.

【0010】[0010]

【作用】本発明の視覚に基く三次元位置および姿勢の認
識方法によれば、対象物体に対して移動接近して作業を
行う装置等に搭載した撮像手段により、三次元絶対座標
が既知である対象物体が撮影されると、画像処理工程に
おいては、その画像情報に基いて対象物体の形状の特徴
を示す二次元の画像特徴点を抽出する。続いて、探索領
域設定工程においては、撮像手段とその対象物体との概
略的な推定距離に応じて必要な演算精度に対応する密度
の量子化空間点を有する探索領域を設定するようにな
る。
According to the vision-based three-dimensional position and orientation recognition method of the present invention, the three-dimensional absolute coordinates are known by the image pickup means mounted on the device or the like that moves and approaches the target object to perform work. When the target object is photographed, in the image processing step, a two-dimensional image feature point indicating the shape feature of the target object is extracted based on the image information. Subsequently, in the search area setting step, the search area having the quantized spatial points with the density corresponding to the required calculation accuracy is set according to the approximate estimated distance between the imaging means and the target object.

【0011】次に、透視変換行列演算工程においては、
その探索領域の量子化空間点に前記撮像手段を配置して
前記対象物体を撮影したときに得られるべき二次元の推
定画像特徴点を算出するための透視変換行列を、あらか
じめ記憶手段に記憶された前記対象物体の三次元絶対座
標に対する前記量子化空間点の推定位置と前記撮像手段
の撮像姿勢を示す姿勢パラメータとに基いて演算し、続
く、透視変換演算工程においては、上述のように求めら
れた透視変換行列を用いて前記量子化空間点における前
記対象物体の二次元の前記推定画像特徴点を算出する。
これにより、設定した探索領域の量子化空間点において
撮像手段により対象物体を撮影したと想定したときに、
撮像手段の画像情報から得られる画像特徴点を推定画像
特徴点として求めることができる。
Next, in the perspective transformation matrix calculation step,
A perspective transformation matrix for calculating a two-dimensional estimated image feature point that should be obtained when the target object is photographed by arranging the image pickup unit at the quantized space point in the search area is stored in advance in the storage unit. The calculated position based on the estimated position of the quantized spatial point with respect to the three-dimensional absolute coordinates of the target object and the posture parameter indicating the image-capturing posture of the image-capturing means, and in the subsequent perspective transformation calculation step, is calculated as described above. The two-dimensional estimated image feature points of the target object at the quantized spatial points are calculated using the obtained perspective transformation matrix.
Thereby, when it is assumed that the target object is imaged by the imaging unit at the quantized space point of the set search area,
An image feature point obtained from the image information of the image pickup means can be obtained as an estimated image feature point.

【0012】そして、続く誤差演算工程において、前記
画像処理工程にて抽出された前記対象物体の二次元の画
像特徴点と透視変換演算工程にて算出された二次元の前
記推定画像特徴点との対応関係を求めると共に、それら
対応関係が得られた画像特徴点と推定画像特徴点との間
の適合度を示す評価誤差値を、例えば、所定の誤差評価
関数として二乗誤差和を用いて演算する。
Then, in a subsequent error calculation step, the two-dimensional image feature points of the target object extracted in the image processing step and the two-dimensional estimated image feature points calculated in the perspective transformation calculation step are The correspondence error is calculated, and an evaluation error value indicating the degree of matching between the image feature points for which the correspondence relation is obtained and the estimated image feature point is calculated using, for example, a sum of squared errors as a predetermined error evaluation function. .

【0013】この後、誤差判定工程においては、誤差演
算工程にて求められた前記評価誤差値が前記探索領域に
対応して設定された要求誤差精度よりも小さくなるとい
う判定条件に適合しているか否かを判定し、適合してい
ないときには、前記探索領域設定工程,前記透視変換行
列演算工程,前記透視変換演算工程および前記誤差演算
工程を繰り返し実行させて適合するまでこれを行うよう
になる。
Thereafter, in the error determining step, whether the evaluation error value obtained in the error calculating step is smaller than the required error accuracy set corresponding to the search area is satisfied. If it is not matched, the search area setting step, the perspective transformation matrix calculation step, the perspective transformation calculation step, and the error calculation step are repeatedly executed until it is matched.

【0014】この場合、要求誤差精度は、最終的な演算
処理速度と相反する関係にあり、例えば、そのときの対
象物体に対する撮像手段の距離に応じて要求される処理
速度との兼ね合いで、必要な値に設定することで両者を
満たすようにして演算を実行させることができる。
In this case, the required error accuracy is in a relationship contradictory to the final calculation processing speed, and is required in consideration of the processing speed required according to the distance of the image pickup means to the target object at that time. By setting the value to any value, it is possible to execute the operation so as to satisfy both.

【0015】最終的に、誤差判定工程にて上記条件に適
合するようになったときには、データ出力工程におい
て、そのときの量子化空間点の三次元絶対座標と前記撮
像手段の姿勢パラメータとを出力するようになり、実際
の撮像手段の三次元絶対座標に最も近い量子化空間点を
近似点として求めることができると共に、撮像手段の光
軸のずれ等を表す姿勢パラメータを検出することができ
るようになり、これらのデータに基いて対象物体に対す
る装置の移動制御などを適確に行うことができるように
なるものである。
Finally, when the above conditions are met in the error determination step, the data output step outputs the three-dimensional absolute coordinates of the quantized space point at that time and the attitude parameter of the image pickup means. As a result, the quantized space point closest to the actual three-dimensional absolute coordinates of the image pickup means can be obtained as an approximate point, and the attitude parameter indicating the deviation of the optical axis of the image pickup means can be detected. Therefore, the movement control of the device with respect to the target object and the like can be appropriately performed based on these data.

【0016】また、本発明の視覚に基く三次元位置およ
び姿勢の認識装置によれば、上述の各工程を実施する手
段により、同様の動作を行なわせることができ、実際の
撮像手段の三次元絶対座標に最も近い量子化空間点を近
似点として求めることができると共に、撮像手段の光軸
のずれ等を表す姿勢パラメータを検出することができる
ようになり、これらのデータに基いて対象物体に対する
装置の移動制御などを適確に行うことができるようにな
るものである。
Further, according to the visual-based three-dimensional position / orientation recognizing device of the present invention, the same operation can be performed by the means for carrying out the above-mentioned steps, and the three-dimensional position of the actual imaging means. It becomes possible to obtain the quantized space point closest to the absolute coordinates as an approximate point, and it becomes possible to detect the posture parameter representing the deviation of the optical axis of the image pickup means, and based on these data The movement control of the device can be performed appropriately.

【0017】[0017]

【実施例】以下、本発明を工場内などの軌道上を走行す
る自律移動ロボットに搭載する三次元位置認識装置に適
用した場合の一実施例について図面を参照しながら説明
する。全体構成の概略を示す図2において、自律移動ロ
ボット1は、例えば、工場内などの床面に設けられた軌
道に沿って作業エリア2間を移動するようになってお
り、本発明の三次元位置認識装置(図1参照)が搭載さ
れている。自律移動ロボット1の上部にはアーム3が設
けられ、そのアーム3の先端部には撮像手段としてのカ
メラ4および対象物体としてのワーク5を把持する等の
作業を行うためのハンド6が配設されている。この場
合、作業エリア2は壁面から窪んだ状態に形成された凹
部に設けられ、所定形状をなすワーク5はその作業エリ
ア2の底面2aの所定位置に載置されている。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment in which the present invention is applied to a three-dimensional position recognition device mounted on an autonomous mobile robot running on a track in a factory or the like will be described below with reference to the drawings. In FIG. 2 showing the outline of the overall configuration, the autonomous mobile robot 1 is configured to move between the work areas 2 along a trajectory provided on a floor surface in a factory, for example, and the three-dimensional structure of the present invention is provided. A position recognition device (see FIG. 1) is installed. An arm 3 is provided on the top of the autonomous mobile robot 1, and a hand 6 for performing work such as gripping a camera 4 as an image pickup means and a work 5 as a target object is provided at the tip of the arm 3. Has been done. In this case, the work area 2 is provided in a recess formed in a state of being recessed from the wall surface, and the work 5 having a predetermined shape is placed at a predetermined position on the bottom surface 2 a of the work area 2.

【0018】さて、三次元位置認識装置は図1に示すよ
うに構成される。画像処理手段としての画像処理部7
は、前処理計算部8および特徴点抽出部9からなる。前
処理計算部8は、カメラ4が撮影したワーク5を含むシ
ーンの画像信号を入力して前処理を施し、特徴点抽出部
9は、前処理計算部8により計算された画像情報に基い
て、後述のように、ワーク5の特徴点に対応する二次元
の画像特徴点を抽出するようになっている。
Now, the three-dimensional position recognizing device is constructed as shown in FIG. Image processing unit 7 as image processing means
Is composed of a preprocessing calculation unit 8 and a feature point extraction unit 9. The preprocessing calculation unit 8 inputs an image signal of a scene including the work 5 photographed by the camera 4 and performs preprocessing, and the feature point extraction unit 9 based on the image information calculated by the preprocessing calculation unit 8. As will be described later, two-dimensional image feature points corresponding to the feature points of the work 5 are extracted.

【0019】量子化空間探索部10は、探索領域設定手
段としての探索領域設定部11,透視変換行列演算手段
としての透視変換行列演算部12,透視変換演算手段と
しての透視変換演算部13,誤差演算手段としての誤差
演算部14,誤差判定手段としての誤差判定部15およ
びデータ出力手段としてのデータ出力部16から構成さ
れている。
The quantization space search unit 10 includes a search area setting unit 11 as a search area setting unit, a perspective transformation matrix calculation unit 12 as a perspective transformation matrix calculation unit, a perspective transformation calculation unit 13 as a perspective transformation calculation unit, and an error. The error calculation unit 14 as a calculation unit, the error determination unit 15 as an error determination unit, and the data output unit 16 as a data output unit.

【0020】この場合、探索領域設定部11は、探索領
域設定工程として、作業エリア2のワーク5に対する自
律移動ロボット1の概略位置情報に基いた密度の複数の
量子化空間点Eを有する空間探索領域Sを設定する。透
視変換行列演算部12は、透視変換行列演算工程とし
て、設定された空間探索領域Sの量子化空間点Eにおい
てカメラ4によりワーク5を撮影したときに画像信号か
ら得られる画像内における画像特徴点の座標を求めるた
めの透視変換行列Mを、自律移動ロボット1の概略位置
情報およびカメラ4の姿勢パラメータに応じて演算す
る。透視変換演算部13は、透視変換演算工程として、
求められた透視変換行列Mを用いて量子化空間点Eのそ
れぞれの位置でカメラ4によりワーク5を撮影したとき
にその特徴点に対応して得られるべき二次元の推定画像
特徴点を演算する。
In this case, the search area setting unit 11 performs a space search having a plurality of quantized space points E having a density based on the rough position information of the autonomous mobile robot 1 with respect to the work 5 in the work area 2 as a search area setting step. Area S is set. The perspective transformation matrix calculation unit 12 performs, as a perspective transformation matrix calculation step, image feature points in the image obtained from the image signal when the work 5 is photographed by the camera 4 at the quantization space point E of the set space search area S. The perspective transformation matrix M for obtaining the coordinates of is calculated according to the rough position information of the autonomous mobile robot 1 and the posture parameter of the camera 4. The perspective transformation calculation unit 13 uses, as a perspective transformation calculation step,
Using the obtained perspective transformation matrix M, a two-dimensional estimated image feature point to be obtained corresponding to the feature point when the work 5 is photographed by the camera 4 at each position of the quantized space point E is calculated. .

【0021】誤差演算部14は、誤差演算工程として、
画像処理部7にて抽出された画像特徴点と前記推定画像
特徴点との対応関係をつけると共に、それらの間の位置
の誤差を二乗誤差和を求める誤差評価関数に基いて演算
する。誤差判定部15は、誤差判定工程として、演算さ
れた二乗誤差和が要求誤差精度εよりも小さいか否かを
判定し、小さいときにはそのときのカメラ4の位置およ
び姿勢のデータを出力端子17に出力し、大きいときに
は再び探索領域設定部11に戻って上述の各部において
演算を実行させる。そして、データ出力部16は、デー
タ出力工程として、上述の判定をした結果に基いてその
ときの空間探索領域Sにおける量子化空間点Eを出力す
る。
The error calculation section 14 performs the error calculation step as follows.
The image feature points extracted by the image processing unit 7 and the estimated image feature points are associated with each other, and the position error between them is calculated based on an error evaluation function for obtaining the sum of squared errors. The error determination unit 15 determines whether or not the calculated sum of squared errors is smaller than the required error accuracy ε as an error determination step, and when it is smaller, the position and orientation data of the camera 4 at that time is output to the output terminal 17. When it is larger, when it is larger, it returns to the search area setting unit 11 again to execute the calculation in each of the above units. Then, the data output unit 16 outputs the quantized spatial point E in the spatial search region S at that time based on the result of the above determination as a data output step.

【0022】また、量子化空間探索部10には、後述す
る各種データが記憶される記憶手段としてのメモリ18
が接続され、その各種データの書き込みおよび読み出し
動作が行えるようになっていると共に、外部情報入力端
子19が設けられ、自律移動ロボット1の走行制御を行
う図示しない制御部あるいは図示しない位置検出センサ
などから自律移動ロボット1の概略位置を示す信号が入
力されるようになっている。この場合、メモリ18にあ
らかじめ記憶されるデータとしては、特徴点マッチング
リスト,ワーク5および作業エリア2の三次元絶対座標
データ,カメラ4のパラメータ,量子化空間点Eのリス
トとその座標データなどである。
Further, the quantization space search unit 10 has a memory 18 as a storage means for storing various data described later.
Are connected to each other so that various data can be written and read out, an external information input terminal 19 is provided, and a control unit (not shown) or a position detection sensor (not shown) that controls traveling of the autonomous mobile robot 1 is provided. A signal indicating the approximate position of the autonomous mobile robot 1 is input from. In this case, the data stored in advance in the memory 18 includes a feature point matching list, three-dimensional absolute coordinate data of the work 5 and the work area 2, parameters of the camera 4, a list of the quantization space points E and their coordinate data. is there.

【0023】次に、本実施例の作用について図3ないし
図10をも参照して説明する。三次元位置認識装置は、
その動作の流れとして図3に示すようなステップにした
がって自律移動ロボット1の存在位置を認識する。ま
ず、図2の状態において、自律移動ロボット1が軌道上
を移動してきて作業エリア2に差し掛かると、カメラ4
の撮影シーン内に作業エリア2が入って撮影されると、
画像処理部7は、カメラ4の画像信号を入力するように
なる(ステップT1)。この場合、自律移動ロボット1
は、所定軌道上を所定方向に移動しており、また移動を
制御する制御部の内部情報などにより概略の停止位置が
分かっているので、その停止予定位置において対象物体
としてのワーク5がカメラ4の視野内に入るように設定
することができる。
Next, the operation of this embodiment will be described with reference to FIGS. 3 to 10. The three-dimensional position recognition device
As the flow of the operation, the existence position of the autonomous mobile robot 1 is recognized according to the steps shown in FIG. First, in the state of FIG. 2, when the autonomous mobile robot 1 moves on the orbit and approaches the work area 2, the camera 4
When work area 2 enters the shooting scene of
The image processing unit 7 inputs the image signal of the camera 4 (step T1). In this case, the autonomous mobile robot 1
Is moving in a predetermined direction on a predetermined trajectory, and a rough stop position is known from internal information of a control unit that controls the movement. Can be set within the field of view.

【0024】次に、カメラ4により撮影されたワーク5
の画像信号は、画像処理部7の前処理計算部8にて前処
理としての雑音除去処理(ステップT2)およびワーク
5の画像の切り出し処理(ステップT3)を実行し、こ
の後、特徴点抽出部9にてその画像信号に基いて次のよ
うにしてm個の画像特徴点Qjの集合Qを求めて出力す
るようになる(ステップT4)。ここで、画像特徴点Q
jの集合Qは次のように定義される。 Q={Qj;j=1,2,…,m} …(1) Qj=(uj,vj) …(2) u,v;表示画面上における画素単位の二次元座標の各
要素値を示す
Next, the work 5 photographed by the camera 4
The image signal of is subjected to the noise removal processing (step T2) as the preprocessing and the image cutting processing (step T3) as the preprocessing in the preprocessing calculation portion 8 of the image processing portion 7, and then the feature point extraction is performed. Based on the image signal, the section 9 obtains and outputs a set Q of m image feature points Qj as follows (step T4). Here, the image feature point Q
The set Q of j is defined as follows. Q = {Qj; j = 1,2, ..., m} (1) Qj = (uj, vj) (2) u, v; Each element value of the two-dimensional coordinates in pixel units on the display screen is shown.

【0025】この画像特徴点Qjの抽出に際しては、外
部情報として入力端子19から与えられる概略位置情報
に基いて次のように演算を行う。すなわち、概略位置情
報として、例えば、自律移動ロボット1の移動経路を記
憶した作業計画,走行制御により移動した空間移動の履
歴情報などが入力されるので、これらの外部情報に基い
て、自律移動ロボット1の中心位置の概略的な三次元絶
対座標として、絶対座標で表した概略位置A0、 A0=(X0 ,Y0 ,Z0 ) …(3) を得ることができる。なお、概略位置A0の三次元絶対
座標は、作業エリア2の所定の位置を原点Opとして表
現したものである。
When extracting the image feature point Qj, the following calculation is performed based on the rough position information given from the input terminal 19 as external information. That is, as the rough position information, for example, a work plan in which the moving route of the autonomous mobile robot 1 is stored, the history information of the spatial movement moved by the traveling control, and the like are input, and therefore the autonomous mobile robot is based on these external information. As approximate three-dimensional absolute coordinates of the center position of 1, the approximate positions A0, A0 = (X0, Y0, Z0) (3) expressed in absolute coordinates can be obtained. The three-dimensional absolute coordinates of the rough position A0 represent a predetermined position of the work area 2 as the origin Op.

【0026】また、メモリ18にあらかじめ記憶されて
いる作業エリア2に載置されたワーク5の種々の見え方
パターン(図4(a)ないし(f)参照)の中から、概
略位置A0の値に対応する見え方パターンを選択する。
いま、例えば、概略位置A0に対応する見え方パターン
が図4(b)に対応しているときには、その見え方パタ
ーンに現れているワーク5の三次元の特徴点Piの集
合、 P={Pi;i=1,2,…,n} …(4) に対応する画像特徴点Qjを求めて順次抽出する。抽出
した画像特徴点Qjはメモリ18に記憶される。
Further, the value of the rough position A0 is selected from the various appearance patterns (see FIGS. 4A to 4F) of the work 5 placed on the work area 2 stored in the memory 18 in advance. Select the appearance pattern corresponding to.
Now, for example, when the appearance pattern corresponding to the approximate position A0 corresponds to FIG. 4B, a set of three-dimensional feature points Pi of the work 5 appearing in the appearance pattern, P = {Pi I = 1, 2, ..., N} (4) The image feature points Qj corresponding to (4) are obtained and sequentially extracted. The extracted image feature points Qj are stored in the memory 18.

【0027】さて、量子化空間探索部10においては、
探索領域設定部11により、概略位置A0(X0 ,Y0
,Z0 )を基準とした空間探索領域Sc、 Sc(c=1,2,…,C) …(5) を設定する(ステップT5)。この空間探索領域Sc
は、図5に示すように、所定の密度で格子状に量子化し
て配列された複数の量子化空間点E(k,c)、 E(k,c)(k=1,2,…,K、c=1,2,…,C) …(6) を含んで構成される。
Now, in the quantization space search unit 10,
The search area setting unit 11 causes the approximate position A0 (X0, Y0
, Z0) as a reference, and spatial search areas Sc, Sc (c = 1, 2, ..., C) (5) are set (step T5). This space search area Sc
5, a plurality of quantized spatial points E (k, c), E (k, c) (k = 1, 2, ..., Quantized and arranged in a lattice at a predetermined density as shown in FIG. K, c = 1, 2, ..., C) (6).

【0028】この場合、作業エリア2の原点Opを基準
とした絶対座標系におけるX軸方向(作業エリア2に対
向する方向)の座標値X=XL1の平面内で、カメラ4は
ワーク5を向いていると仮定できる。ここで、XL1はカ
メラ4の視点の位置を示すX座標値の推定値であり、こ
の値は自律移動ロボット1の概略位置A0のX方向の座
標値X0 とカメラ4のロボット上の相対座標から決定で
きる。また、本実施例における自律移動ロボット1の場
合には、概略位置A0の高さ方向の座標値Z0は、一定
の値から大きく外れることがないと想定されるので、カ
メラ4のZ方向の座標を求めるための探索範囲は実質的
に狭い範囲に絞り込むことができる。
In this case, the camera 4 faces the work 5 in the plane of the coordinate value X = XL1 in the X-axis direction (direction facing the work area 2) in the absolute coordinate system with the origin Op of the work area 2 as a reference. Can be assumed. Here, XL1 is an estimated value of the X coordinate value indicating the position of the viewpoint of the camera 4, and this value is calculated from the coordinate value X0 of the approximate position A0 of the autonomous mobile robot 1 in the X direction and the relative coordinates of the camera 4 on the robot. I can decide. Further, in the case of the autonomous mobile robot 1 in the present embodiment, it is assumed that the coordinate value Z0 of the approximate position A0 in the height direction does not deviate significantly from a fixed value, and therefore the coordinate of the camera 4 in the Z direction. The search range for obtaining can be narrowed down to a substantially narrow range.

【0029】次に、カメラ4の各種パラメータの探索範
囲を設定する(ステップT6)。ここで、カメラ4のパ
ラメータとしては、図6に対応関係を示すように、 (a)カメラ4の姿勢パラメータCP(α,β,γ)、 …(7) (b)カメラ4の焦点距離特性f …(8) (c)カメラ4の位置(r,θ,φ) …(9) がある。そして、この場合において、(b)の焦点距離
特性fはカメラ4の特性によりあらかじめ決まっている
ので、例えば、メモリ18内にデータとして記憶させて
おくことができる。また、(c)のカメラ4の位置
(r,θ,φ)の値は以降の演算工程にて決めることが
できる値である。
Next, the search range of various parameters of the camera 4 is set (step T6). Here, as the parameters of the camera 4, as shown in the correspondence relationship in FIG. 6, (a) posture parameter CP (α, β, γ) of the camera 4, ... (7) (b) focal length characteristic of the camera 4 f (8) (c) There is a position (r, θ, φ) of the camera 4 (9). Then, in this case, the focal length characteristic f of (b) is determined in advance by the characteristic of the camera 4, so that it can be stored as data in the memory 18, for example. The value of the position (r, θ, φ) of the camera 4 in (c) is a value that can be determined in the subsequent calculation process.

【0030】したがって、ここでは、カメラ4のワーク
5の中心位置からの光軸のずれを表している姿勢パラメ
ータCP(α,β,γ)の探索範囲を決定すれば良い。
すなわち、カメラ4の姿勢パラメータCPの探索範囲
は、例えば図7に示すように、γ=0の場合に対して、
ワーク5の所定位置としての原点Opの画像位置Ops
(画像情報に含まれていない場合には含まれている特徴
点を原点とする座標系に変換する)が画像の表示画面上
における画素単位の二次元座標(u,v)において、例
えば(Na,Nb)であるとすると、次式よりαおよび
βの推定値が計算できる。
Therefore, here, the search range of the posture parameter CP (α, β, γ) representing the deviation of the optical axis from the center position of the work 5 of the camera 4 may be determined.
That is, the search range of the posture parameter CP of the camera 4 is, for example, as shown in FIG.
Image position Ops of the origin Op as the predetermined position of the work 5
In the two-dimensional coordinates (u, v) in pixel units on the display screen of the image, (convert to a coordinate system having the included feature point as the origin if not included in the image information) is, for example, (Na , Nb), the estimated values of α and β can be calculated by the following equation.

【0031】 α=2×arctan{(Na/NH )× tan(wH /2)} …(10) β=2×arctan{(Nb/NV )× tan(wV /2)} …(11) ただし、NH ;画像の表示画面上における水平方向の画
像サイズ NV ;画像の表示画面上における垂直方向の画像サイズ wH ;カメラの水平画角サイズ wV ;カメラの垂直画角サイズ である。
Α = 2 × arctan {(Na / NH) × tan (wh / 2)} (10) β = 2 × arctan {(Nb / NV) × tan (wV / 2)} (11) , NH; the image size in the horizontal direction on the image display screen NV; the image size in the vertical direction on the image display screen wH; the horizontal view angle size of the camera wV; the vertical view angle size of the camera.

【0032】この場合、要求誤差精度があまり高くない
場合には、線形近似として、 α=(Na/NH )×wH …(12) β=(Nb/NV )×wV …(13) という式で代用することもできる。
In this case, when the accuracy of the required error is not so high, a linear approximation is made by the following equation: α = (Na / NH) × wH (12) β = (Nb / NV) × wV (13) It can be substituted.

【0033】そして、γ=0でない場合には、ワーク5
の中心の画像位置Opsを含む円環状の領域Sa(Op
s)内にγの補正をした場合のOpscが存在すると考
えられるので、Sa(Ops)内の量子化空間点Ops
cについて式(10),(11)あるいは式(12),
(13)に基いてα,βを定め、 γ=γpsc(OpsとOpscとのなす角度) として、以降の探索工程を行うようにする。なお、本実
施例においては、自律移動ロボット1は、略水平な床の
上を移動することと、概略位置A0の座標値を用いて高
精度にカメラ4の回転角を調整できるので、カメラ4の
光軸ずれに対する姿勢パラメータ(α,β,γ)のう
ち、最も広い探索能力を要求されるのは水平方向の角度
ずれを表すαである。したがって、β,γについては微
小範囲の探索を行えば良い。
When γ = 0 is not satisfied, the work 5
An annular region Sa (Op including the image position Ops at the center of
Since it is considered that Opsc when γ is corrected exists in s), the quantized space point Ops in Sa (Ops) is Ops.
For c, equations (10), (11) or (12),
Based on (13), α and β are determined, and γ = γpsc (angle formed by Ops and Opsc) is set, and the subsequent search process is performed. In the present embodiment, the autonomous mobile robot 1 is capable of moving on a substantially horizontal floor and adjusting the rotation angle of the camera 4 with high accuracy using the coordinate value of the approximate position A0. Of the posture parameters (α, β, γ) for the optical axis shift of, the largest search capability is required for α, which represents the angular shift in the horizontal direction. Therefore, a small range may be searched for β and γ.

【0034】次に、透視変換行列演算部12にて、空間
探索領域S1内の初期探索点として量子化空間点E
(k,1)(k=1,2,…,K)のうちの1点である
量子化空間点E(1,1)を選択して(ステップT7)
その三次元絶対座標と、カメラ4の姿勢パラメータCP
(α,β,γ)の初期値とを用いて、 透視変換行列M(k,c)(k=1,2,…,K、c=1,2,…,C) …(14) を演算する(ステップT8)。
Next, in the perspective transformation matrix calculation unit 12, the quantized space point E is set as the initial search point in the space search area S1.
A quantization space point E (1,1), which is one of (k, 1) (k = 1,2, ..., K), is selected (step T7).
The three-dimensional absolute coordinates and the posture parameter CP of the camera 4
Using the initial values of (α, β, γ) and the perspective transformation matrix M (k, c) (k = 1, 2, ..., K, c = 1, 2, ..., C) (14) Calculate (step T8).

【0035】この場合、透視変換行列Mは、次のように
して演算される。すなわち、まず、ワーク5の原点Op
に対して設定されている三次元絶対座標(X,Y,Z)
を基準として、初期探索領域S1を概略位置A0のX座
標値であるX=X0 の平面内にとる。この初期探索領域
S1内の三次元絶対座標(X,Y,Z)を三次元極座標
(r,θ,φ)に変換する変換行列M1を求める。カメ
ラ4の姿勢パラメータCP(α,β,γ)と、焦点距離
特性fから求めたカメラ4の視点位置と射影平面に対す
る距離dとに基いて、図6に示す関係に基いて透視変換
行列M(k,c)を求める。
In this case, the perspective transformation matrix M is calculated as follows. That is, first, the origin Op of the work 5
3D absolute coordinates (X, Y, Z) set for
With reference to, the initial search area S1 is set within the plane of X = X0 which is the X coordinate value of the approximate position A0. A transformation matrix M1 for transforming the three-dimensional absolute coordinates (X, Y, Z) in the initial search area S1 into the three-dimensional polar coordinates (r, θ, φ) is obtained. Based on the posture parameter CP (α, β, γ) of the camera 4 and the viewpoint position of the camera 4 obtained from the focal length characteristic f and the distance d with respect to the projection plane, the perspective transformation matrix M based on the relationship shown in FIG. Find (k, c).

【0036】ここで、透視変換行列M(k,c)は次の
ように表すことができる。 M(k,c)=T・M1・M2・M3 …(15) ただし、 T ;回転,並行移動,拡大,縮小等の変換行列(ここ
では、カメラ4の姿勢パラメータCPで表される回転の
演算) M1;撮影しているワークの射影空間内への透視変換 M2;射影空間内の平面から射影平面への透視変換 M3;射影平面から画像の表示面への座標変換 このうち、画像の表示面とワーク5との間の透視変換を
演算するための透視変換行列M1とM2との積および座
標変換行列M3は、それぞれ、次式(16),(17)
のように表すことができる。
Here, the perspective transformation matrix M (k, c) can be expressed as follows. M (k, c) = T · M1 · M2 · M3 (15) where T: transformation matrix for rotation, parallel movement, enlargement, reduction, etc. (here, rotation represented by the posture parameter CP of the camera 4 Calculation) M1; Perspective transformation of the workpiece being photographed into the projective space M2; Perspective transformation from a plane in the projective space to the projective plane M3: Coordinate transformation from the projective plane to the display surface of the image The product of the perspective transformation matrices M1 and M2 and the coordinate transformation matrix M3 for calculating the perspective transformation between the surface and the work 5 are the following equations (16) and (17), respectively.
Can be expressed as

【0037】[0037]

【数1】 [Equation 1]

【0038】また、カメラ4の光軸ずれに対応する姿勢
パラメータCP(α,β,γ)に応じた回転の演算を行
うための変換行列Tは、前述の図6と図8に示す関係と
に基いて次式(18),(19),(20)のように表
すことができる。なお、このとき、光軸ずれの変換にお
いては、、ワーク5との距離が変化しないと仮定する
と、T0 =T1 とおくことができるので、式(21)の
関係が成立する。
Further, the transformation matrix T for calculating the rotation according to the posture parameter CP (α, β, γ) corresponding to the optical axis shift of the camera 4 has the relationship shown in FIG. 6 and FIG. It can be expressed by the following equations (18), (19) and (20). At this time, in the conversion of the optical axis shift, assuming that the distance to the work 5 does not change, it is possible to set T0 = T1. Therefore, the relationship of Expression (21) is established.

【0039】[0039]

【数2】 [Equation 2]

【0040】次に、このようにして演算により求めた透
視変換行列M(k,c)に基いて、透視変換演算部13
により、作業エリア2とそこに載置されたワーク5のn
個の特徴点の集合Pの各特徴点Pi(式(4)参照)を
二次元の画像表示部の座標に透視変換の演算を実行し、
各特徴点Piに対する推定画像特徴点QEiを求める(ス
テップT9)。これらの推定画像特徴点QEiの集合QE
は、 QE ={QEi;i =1,2,…,n} (n≧m) …(22) である。
Next, based on the perspective transformation matrix M (k, c) thus calculated, the perspective transformation calculation unit 13
N of the work area 2 and the work 5 placed there
Perspective transformation of each feature point Pi (see equation (4)) of the set P of individual feature points is performed on the coordinates of the two-dimensional image display unit,
An estimated image feature point QEi for each feature point Pi is obtained (step T9). A set QE of these estimated image feature points QEi
Is QE = {QEi; i = 1, 2, ..., N} (n ≧ m) (22)

【0041】これにより、斉次座標を用いると、特徴点
の集合Pから推定画像特徴点の集合QE への変換は、式
(16)から次式のように表すことができる。 (uEi,vEi,1)=(Xi,Yi,Zi,1)・M …(23) ただし、 (Xi,Yi,Zi);特徴点Piの三次元絶対座標 (uEi,vEi) ;推定画像特徴点QEiの表示部上
の二次元座標 である。なお、この場合においては、量子化空間点E
(1,1)に対して求められた透視変換行列M(1,
1)を用いて特徴点の集合Pの推定画像特徴点の集合Q
E を演算する。
Thus, using the homogeneous coordinates, the conversion from the set of feature points P to the set of estimated image feature points QE can be expressed by the following equation from equation (16). (UEi, vEi, 1) = (Xi, Yi, Zi, 1) · M (23) where (Xi, Yi, Zi); three-dimensional absolute coordinates of feature point Pi (uEi, vEi); estimated image feature It is a two-dimensional coordinate on the display of the point QEi. In this case, the quantization space point E
The perspective transformation matrix M (1,
1) Using estimated image feature point set P of feature point set P
Calculate E.

【0042】次に、画像処理部7にて抽出されたカメラ
4により撮影されたワーク5の画像特徴点の集合Q(式
(1)参照)の各画像特徴点Qjとあらかじめ記憶され
たワーク5の三次元の特徴点Pi(式(4)参照)との
間の対応関係をとった特徴点対応リストを作成する(ス
テップT10)。これは、図9(a),(b)に示すよ
うに、ワーク5の特徴点Piの位置と、量子化空間点E
(1,1)に応じた見え方パターン(図4(b)参照)
との対比から、図9(b)に示すように、各画像特徴点
Qjを対応付けると、次の表に示すように画像情報とし
て表示面に表れた画像特徴点Qjと対応する特徴点Pi
との対応関係が得られる。
Next, each image feature point Qj of the set Q of image feature points of the work 5 photographed by the camera 4 extracted by the image processing unit 7 (see the equation (1)) and the work 5 stored in advance. A feature point correspondence list is created which has a correspondence relationship with the three-dimensional feature points Pi of (see equation (4)) (step T10). As shown in FIGS. 9A and 9B, this is the position of the feature point Pi of the work 5 and the quantization space point E.
Appearance pattern according to (1, 1) (see FIG. 4B)
9B, when the image feature points Qj are associated with each other, as shown in FIG. 9B, the image feature points Qj appearing on the display surface as image information and the feature points Pi corresponding to the image feature points Qj are shown in the following table.
Correspondence is obtained with.

【0043】[0043]

【表1】 [Table 1]

【0044】なお、この場合において、特徴点Piに対
して対応する観測された画像特徴点Qjが全て存在しな
い場合があるので、対応する画像特徴点Qjが存在する
場合に「存在フラグ」が「1」となるようになってい
る。また、抽出の順序は、画像の表示部上で左上から右
下に向かって順次行っている。
In this case, there are cases where all the observed image feature points Qj corresponding to the feature point Pi do not exist, so that when the corresponding image feature point Qj exists, the "presence flag" is " It becomes 1 ”. In addition, the extraction order is sequentially from the upper left to the lower right on the image display unit.

【0045】続いて、誤差演算部14により、対応関係
が得られた画像特徴点Qjと前述の推定画像特徴点の集
合QE (=P・M(1,1))との間の誤差評価関数D
(1,1)を計算する(ステップT11)。この場合、
誤差評価関数D(k,c)は画像特徴点Qjと推定画像
特徴点QEiとの間の距離に相当する値を演算するもので
ある。続いて、現在の量子化空間点E(1,1)におい
て姿勢パラメータCP(α,β,γ)のうちγをそのま
まにした状態でα,βを変更し、上述と同様にして誤差
評価関数D(nE ,1)(nE =1,2,…,NE )を
演算する(ステップT12,13,8〜11)。
Subsequently, the error calculating unit 14 calculates an error evaluation function between the image feature points Qj for which the correspondence is obtained and the above-described set of estimated image feature points QE (= P · M (1,1)). D
(1,1) is calculated (step T11). in this case,
The error evaluation function D (k, c) is for calculating a value corresponding to the distance between the image feature point Qj and the estimated image feature point QEi. Next, at the current quantized spatial point E (1,1), α and β are changed while leaving γ out of the posture parameters CP (α, β, γ), and the error evaluation function is performed in the same manner as described above. D (nE, 1) (nE = 1, 2, ..., NE) is calculated (steps T12, 13, 8 to 11).

【0046】この後、これらの誤差評価関数D(nE ,
1)から最適値としてDE1(αE ,βE ,γE )を算出
する(ステップT14)。ここで、通常、この最適値の
決定は、観測される全特徴点についてQE とQとの間の
二乗誤差和を評価関数とし、その最小値演算を行うこと
により実行されるようになっている。
Thereafter, these error evaluation functions D (nE,
From 1), DE1 (αE, βE, γE) is calculated as the optimum value (step T14). Here, usually, the determination of the optimum value is performed by using the sum of squared errors between QE and Q for all observed feature points as an evaluation function and performing the minimum value calculation. .

【0047】続いて、誤差判定部15において、演算さ
れた誤差評価関数D(k,1)の値から得られた最適値
DE1の演算値が、あらかじめ設定されている検出条件と
しての要求誤差精度εの値に対して、 DE k<ε …(24) とした判定条件を満たすか否かを判断する(ステップT
15)。
Subsequently, in the error judging section 15, the calculated value of the optimum value DE1 obtained from the calculated value of the error evaluation function D (k, 1) is the required error accuracy as a preset detection condition. For the value of ε, it is determined whether or not the determination condition of DE k <ε (24) is satisfied (step T).
15).

【0048】そして、上述の判定条件式(24)を満た
していない場合には、以上の演算を初期探索領域S1内
における他の量子化空間点E(k,1)についても同様
に実行する(ステップT16,T17を経てステップT
7〜T15を実行)。さらに、他の量子化空間点E
(k,1)について判定条件式(24)を満たさない場
合には、そのときの最適値DE kのなかから要求誤差精
度εに一番近い値が得られた量子化空間点E(k,1)
の位置に基づいて、新たな空間探索領域S2を設定し
(ステップT18,T19)、前述の演算工程を再び実
行する(ステップT5〜T15)。
Then, when the above-mentioned judgment condition (24) is not satisfied, the above calculation is similarly executed for other quantized spatial points E (k, 1) in the initial search area S1 ( After steps T16 and T17, step T
7 to T15). In addition, another quantization space point E
When the judgment condition (24) is not satisfied for (k, 1), the quantization space point E (k, which gives the value closest to the required error accuracy ε from the optimum value DE k at that time is obtained. 1)
A new space search area S2 is set based on the position of (steps T18 and T19), and the above-described calculation process is executed again (steps T5 to T15).

【0049】一方、判定条件式(24)の条件を満たし
た場合には(ステップT15)、データ出力部16によ
り、そのときの最適値DE kに相当する量子化空間点E
(k,c)の位置(rE ,θE ,φE )の値およびカメ
ラ4の姿勢パラメータ(αE,βE ,γE )の値を検出
データとして出力端子17に出力し(ステップT2
0)、探索プログラムを終了する。
On the other hand, when the condition of the judgment conditional expression (24) is satisfied (step T15), the data output unit 16 causes the quantized spatial point E corresponding to the optimum value DE k at that time.
The value of the position (rE, θE, φE) of (k, c) and the value of the posture parameter (αE, βE, γE) of the camera 4 are output to the output terminal 17 as detection data (step T2).
0), the search program ends.

【0050】また、最終の空間探索領域SCの設定にも
拘らず判定条件式(24)を満たさない場合には(ステ
ップT18)、要求誤差精度εを満たす量子化空間点E
(k,c)が存在しないことをメッセージ出力した(ス
テップT21)後、それまでの間に演算された最適値D
E kのなかから要求誤差精度εに一番近い値が得られた
量子化空間点E(k,c)の位置(rE ,θE ,φE )
の値およびカメラ4の姿勢パラメータ(αE ,βE ,γ
E )の値を検出データとして出力端子17に出力して
(ステップT20)探索プログラムを終了する。
If the determination condition expression (24) is not satisfied despite the setting of the final spatial search area SC (step T18), the quantized spatial point E satisfying the required error accuracy ε is obtained.
After outputting a message that (k, c) does not exist (step T21), the optimum value D calculated up to that point
The position (rE, θE, φE) of the quantized space point E (k, c) that gives the value closest to the required error accuracy ε from E k
Value and the pose parameters of the camera 4 (αE, βE, γ
The value E) is output to the output terminal 17 as detection data (step T20), and the search program is terminated.

【0051】なお、上述の場合には、作業エリア2のワ
ーク5の原点Opから一定の距離(X=XL1)におい
て、要求誤差精度εを満たす量子化空間点E(k,1)
を求めるように、空間探索領域Sの設定をS1,S2,
…と設定する探索過程を示しているが、例えば、図10
に示すように、自律移動ロボット1の進行によるワーク
5への近接(X<XL1)するのに応じてその位置に応じ
た空間探索領域S(k,c)を設定する探索過程を実行
することもできる。
In the above case, the quantized space point E (k, 1) satisfying the required error accuracy ε at a fixed distance (X = XL1) from the origin Op of the work 5 in the work area 2.
So that the spatial search area S is set to S1, S2,
Although the search process of setting ... Is shown, for example, FIG.
As shown in FIG. 5, when the autonomous mobile robot 1 moves closer to the work 5 (X <XL1), a search process for setting a space search area S (k, c) corresponding to the position is executed. You can also

【0052】すなわち、例えば、自律移動ロボット1の
進行過程において、原点Opからの距離Xに対応して一
つの空間探索領域S1を設定し、そのなかの量子化空間
点E(k,1)のうち要求誤差精度εに一番近いものを
カメラ4の位置および姿勢パラメータを示す仮の検出デ
ータとして求め、その検出データに基いて自律移動ロボ
ット1の移動量を制御し、原点Opからの距離Xがさら
に小さくなったときに新たに空間探索領域S2を設定し
てさらに要求誤差精度εに一番近い量子化空間点E
(k,2)を求めるようにし、以下、同様にして、ワー
ク5に自律移動ロボット1が最も近接したときに、最終
的に要求誤差精度εを満たすように探索過程を設定する
ようにしても良い。
That is, for example, in the course of progress of the autonomous mobile robot 1, one space search area S1 is set in correspondence with the distance X from the origin Op, and the quantized space point E (k, 1) in the space search area S1 is set. Of these, the one that is closest to the required error accuracy ε is obtained as provisional detection data indicating the position and orientation parameters of the camera 4, the movement amount of the autonomous mobile robot 1 is controlled based on the detection data, and the distance X from the origin Op is set. Is further reduced, a new space search area S2 is set, and the quantization space point E closest to the required error accuracy ε is set.
(K, 2) is obtained, and in the same manner, when the autonomous mobile robot 1 comes closest to the work 5, the search process is finally set so as to satisfy the required error accuracy ε. good.

【0053】このような本実施例によれば、既知形状の
対象物体としての作業エリア2およびワーク5をカメラ
4により撮像してその画像情報から画像特徴点Qjを抽
出し、量子化した空間点を複数個有する空間探索領域S
cを設定すると共に、カメラ4の姿勢パラメータCP
(α,β,γ)を設定してワーク5をその量子化空間点
E(k,c)において撮像したときに得られるべきワー
ク5の推定画像特徴点QE iを透視変換行列M(k,
c)を求めることにより演算し、それらの対応関係を求
めて誤差評価関数D(k,c)により要求誤差精度εを
満たすか否かを判定してマッチングをとることによりカ
メラ4の位置および姿勢パラメータCPを推定するよう
にしたので、以下のような効果を得ることができる。
According to the present embodiment as described above, the work area 2 and the work 5 as target objects of known shape are imaged by the camera 4, the image feature points Qj are extracted from the image information, and the quantized spatial points are extracted. Space search region S having a plurality of
c as well as the posture parameter CP of the camera 4
(Α, β, γ) is set and the estimated image feature point QE i of the work 5 to be obtained when the work 5 is imaged at the quantized space point E (k, c) is transformed into the perspective transformation matrix M (k,
c) is calculated and the correspondence between them is calculated, and it is determined whether or not the required error accuracy ε is satisfied by the error evaluation function D (k, c), and matching is performed to determine the position and orientation of the camera 4. Since the parameter CP is estimated, the following effects can be obtained.

【0054】すなわち、第1に、従来と異なり、特殊マ
ーカを設ける必要がなくなり、マーカ認識用の移動時間
が不要となって演算時間を短縮して高速化を図れる。第
2に、透視変換行列の成分からパラメータを算出する方
法ではないので、演算量が膨大となる透視変換行列の最
小二乗推定を必要としないため、迅速に演算処理を実行
できる。第3に、カメラ4の姿勢パラメータが未知の場
合でも適用できる。第4に、カメラ4の位置を求めるた
めの演算の精度を、量子化空間点Eの取り方で調整する
ことができる。つまり、例えば、作業内容や環境の実情
を考慮して遠距離においては粗い精度で、そしてワーク
5に近接したときには細かい精度で設定するといった情
況に応じた適切な精度に設定することができる。第5
に、このように演算を実行するので、対象物体としての
ワーク5に対して、能動的にカメラ4が移動する際に、
遠距離での光軸合わせ(粗い推定)から近距離での高精
度推定まで、移動系と連動して多段的に用いることがで
きる。
That is, firstly, unlike the prior art, it is not necessary to provide a special marker, the moving time for marker recognition is unnecessary, and the calculation time can be shortened and the speed can be increased. Secondly, since it is not the method of calculating the parameters from the components of the perspective transformation matrix, the least square estimation of the perspective transformation matrix, which requires a large amount of computation, is not required, and thus the arithmetic processing can be executed quickly. Thirdly, it can be applied even when the posture parameter of the camera 4 is unknown. Fourthly, the accuracy of the calculation for obtaining the position of the camera 4 can be adjusted by the method of taking the quantized space point E. That is, for example, the accuracy can be set to a coarse accuracy at a long distance in consideration of the work content and the actual circumstances of the environment, and a fine accuracy at a close distance to the work 5, so that the accuracy can be set to an appropriate accuracy according to the situation. Fifth
In addition, since the calculation is performed in this way, when the camera 4 actively moves with respect to the work 5 as the target object,
From long-range optical axis alignment (coarse estimation) to high-precision estimation at short distances, it can be used in multiple stages in conjunction with a moving system.

【0055】[0055]

【発明の効果】以上説明したように、本発明の視覚に基
く三次元位置および姿勢の認識方法によれば、画像処理
工程により、形状を示す三次元絶対座標が既知である対
象物体を撮像手段により撮影したときの画像情報に基い
てその対象物体の形状の特徴を示す二次元の画像特徴点
を抽出し、探索領域設定工程,透視変換行列演算工程,
透視変換演算工程,誤差演算工程,誤差判定工程および
データ出力工程により、撮像手段の概略的な推定位置に
応じた探索領域を設定してその探索領域における複数の
量子化された空間点において撮像手段により対象物体を
撮像したときに得られるべき推定画像特徴点と前記画像
特徴点との誤差を誤差評価関数により評価して要求誤差
精度を満たすときにそのときの量子化空間点を撮像手段
の三次元絶対座標位置として推定すると共に、撮像手段
の姿勢パラメータを姿勢として出力するようにしたの
で、撮像手段の光軸ずれがある場合でも、特殊マーカな
どを用いることなく、迅速且つ高精度に撮像手段の位置
と姿勢を認識することができ、しかも、要求誤差精度の
設定の仕方により演算速度と演算精度との兼ね合いを距
離に応じて適切に設定することができ、これらのデータ
に基いて対象物体に対する装置の移動制御などを適確に
行うことができるという優れた効果を奏するものであ
る。
As described above, according to the visual-based three-dimensional position and posture recognition method of the present invention, the image processing step is used to image the target object whose three-dimensional absolute coordinates indicating the shape are known. A two-dimensional image feature point indicating the feature of the shape of the target object is extracted based on the image information when the image is captured, and a search region setting step, a perspective transformation matrix calculation step,
By the perspective transformation calculation step, the error calculation step, the error determination step and the data output step, a search area is set according to a rough estimated position of the image pickup means, and the image pickup means is set at a plurality of quantized spatial points in the search area. The error between the estimated image feature point and the image feature point that should be obtained when the target object is imaged is evaluated by an error evaluation function, and when the required error accuracy is satisfied, the quantized spatial point at that time is the third order of the image pickup means. Since it is estimated as the original absolute coordinate position and the posture parameter of the image pickup unit is output as the posture, the image pickup unit can be swiftly and highly accurately without using a special marker even when the optical axis of the image pickup unit is deviated. The position and orientation of the robot can be recognized, and the balance between the calculation speed and the calculation accuracy can be set appropriately according to the distance by setting the required error accuracy. You can be one in which an excellent effect that a like movement control device for the target object can be performed accurately based on these data.

【0056】また、本発明の視覚に基く三次元位置およ
び姿勢の認識装置によれば、上述の各工程を実行する手
段により、同様の動作を行なわせることができ、実際の
撮像手段の三次元絶対座標に最も近い量子化空間点を近
似点として求めることができると共に、撮像手段の光軸
のずれ等を表す姿勢パラメータを検出することができる
ようになり、これらのデータに基いて対象物体に対する
装置の移動制御などを適確に行うことができるようにな
るという優れた効果を奏する。
Further, according to the visual-based three-dimensional position / orientation recognizing apparatus of the present invention, the same operation can be performed by the means for executing the above-mentioned steps, and the three-dimensional position of the actual image pickup means can be obtained. It becomes possible to obtain the quantized space point closest to the absolute coordinates as an approximate point, and it becomes possible to detect the posture parameter representing the deviation of the optical axis of the image pickup means, and based on these data It has an excellent effect that the movement control of the device can be performed accurately.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の一実施例を示す機能的構成のブロック
FIG. 1 is a block diagram of a functional configuration showing an embodiment of the present invention.

【図2】自律移動ロボットと作業エリアとの位置関係を
示す図
FIG. 2 is a diagram showing a positional relationship between an autonomous mobile robot and a work area.

【図3】プロセスの流れを説明するフローチャートFIG. 3 is a flowchart illustrating a process flow.

【図4】種々の見え方パターン[Fig. 4] Various appearance patterns

【図5】空間探索領域と作業エリアとの位置関係を示す
作用説明図
FIG. 5 is an operation explanatory view showing a positional relationship between a space search area and a work area.

【図6】絶対座標軸とカメラおよび画像の座標軸との関
係を示す図
FIG. 6 is a diagram showing a relationship between absolute coordinate axes and camera and image coordinate axes.

【図7】画像表示部上のワークとカメラの姿勢パラメー
タとの関係を示す説明図
FIG. 7 is an explanatory diagram showing a relationship between a work on the image display unit and a posture parameter of a camera.

【図8】透視変換行列を演算するための座標軸の関係を
示す作用説明図
FIG. 8 is an operation explanatory view showing a relationship of coordinate axes for calculating a perspective transformation matrix.

【図9】(a)作業エリアとワークの特徴点の定義と
(b)画像信号による画像特徴点との対応関係を示す作
用説明図
FIG. 9 is an operation explanatory view showing a correspondence relationship between (a) definition of feature points of a work area and a work, and (b) image feature points by image signals.

【図10】探索領域をワークとの距離に応じて設定する
場合の作用説明図
FIG. 10 is an operation explanatory view when the search area is set according to the distance to the work.

【符号の説明】[Explanation of symbols]

1は自律移動ロボット、2は作業エリア、4はカメラ
(撮像手段)、5はワーク(対象物体)、7は画像処理
部、8は前処理計算部、9は特徴点抽出部、10は量子
化空間探索部、11は探索領域設定部(探索領域設定手
段)、12は透視変換行列演算部(透視変換行列演算手
段)、13は透視変換演算部(透視変換演算手段)、1
4は誤差演算部(誤差演算手段)、15は誤差判定部
(誤差判定手段)、16はデータ出力部(データ出力手
段)、18はメモリ(記憶手段)、19は外部情報入力
端子である。
1 is an autonomous mobile robot, 2 is a work area, 4 is a camera (imaging means), 5 is a work (target object), 7 is an image processing unit, 8 is a preprocessing calculation unit, 9 is a feature point extraction unit, and 10 is quantum. Generalized space search unit, 11 a search region setting unit (search region setting unit), 12 perspective transformation matrix calculation unit (perspective transformation matrix calculation unit), 13 perspective transformation calculation unit (perspective transformation calculation unit), 1
Reference numeral 4 is an error calculation unit (error calculation unit), 15 is an error determination unit (error determination unit), 16 is a data output unit (data output unit), 18 is a memory (storage unit), and 19 is an external information input terminal.

Claims (2)

【特許請求の範囲】[Claims] 【請求項1】 形状を示す三次元絶対座標が既知である
対象物体を撮像手段により撮影したときの画像情報に基
いてその対象物体の形状の特徴を示す二次元の画像特徴
点を抽出する画像処理工程と、 前記撮像手段と前記対象物体との概略的な推定距離に応
じて必要な演算精度に対応する密度の量子化空間点を有
する探索領域を設定する探索領域設定工程と、 前記探索領域の量子化空間点において前記撮像手段によ
り前記対象物体を撮影したときに得られるべき二次元の
推定画像特徴点を算出するための透視変換行列を、あら
かじめ記憶手段に記憶された前記対象物体の三次元絶対
座標に対する前記量子化空間点の推定位置と前記撮像手
段の撮像姿勢を示す姿勢パラメータとに基いて演算する
透視変換行列演算工程と、 この透視変換行列演算工程にて求められた前記透視変換
行列を用いて前記量子化空間点における前記対象物体の
二次元の前記推定画像特徴点を算出する透視変換演算工
程と、 前記画像処理工程にて抽出された前記対象物体の二次元
の画像特徴点と前記透視変換演算工程にて算出された二
次元の前記推定画像特徴点との対応関係を求めると共
に、それら対応関係が得られた画像特徴点と推定画像特
徴点との間の適合度を示す評価誤差値を所定の誤差評価
関数に基いて演算する誤差演算工程と、 この誤差演算工程にて求められた前記評価誤差値を前記
探索領域に対応して設定された要求誤差精度と比較し、
前記評価誤差値が前記要求誤差制度よりも小さくなるこ
とを判定条件として、前記探索領域設定工程,前記透視
変換行列演算工程,前記透視変換演算工程および前記誤
差演算工程を繰り返し実行させる誤差判定工程と、 この誤差判定工程において前記判定条件を満たしたとき
に、そのときの量子化空間点の三次元絶対座標と前記撮
像手段の姿勢パラメータとを出力するデータ出力工程と
からなる視覚に基く三次元位置および姿勢の認識方法。
1. An image for extracting a two-dimensional image feature point indicating a feature of a shape of a target object based on image information when the target object whose shape has a known three-dimensional absolute coordinate is photographed by an image pickup means. A processing step; a search area setting step of setting a search area having a quantized spatial point having a density corresponding to a necessary calculation accuracy in accordance with a rough estimated distance between the imaging means and the target object; A perspective transformation matrix for calculating a two-dimensional estimated image feature point to be obtained when the target object is photographed by the image pickup means at the quantized spatial point of the third order of the target object stored in advance in the storage means. A perspective transformation matrix computing step of computing based on the estimated position of the quantized spatial point with respect to the original absolute coordinates and a posture parameter indicating the image pickup posture of the image pickup means; And a perspective transformation calculation step of calculating the two-dimensional estimated image feature points of the target object in the quantized space point using the perspective transformation matrix obtained in The correspondence between the two-dimensional image feature points of the target object and the two-dimensional estimated image feature points calculated in the perspective transformation calculation step is obtained, and the image feature points and the estimated image features for which the corresponding relations are obtained. An error calculation step of calculating an evaluation error value indicating a goodness of fit between the points based on a predetermined error evaluation function, and the evaluation error value obtained in the error calculation step is set corresponding to the search area. Compared with the required error accuracy,
An error determination step of repeatedly executing the search area setting step, the perspective transformation matrix operation step, the perspective transformation operation step, and the error operation step under the condition that the evaluation error value is smaller than the required error accuracy. A three-dimensional position based on vision, which comprises a data output step of outputting the three-dimensional absolute coordinates of the quantized space point at that time and the attitude parameter of the imaging means when the determination condition is satisfied in this error determination step. And attitude recognition method.
【請求項2】 画像情報を出力する撮像手段と、 形状を示す三次元絶対座標が既知である対象物体を前記
撮像手段により撮影したときの画像情報に基いてその対
象物体の形状の特徴を示す二次元の画像特徴点を抽出す
る画像処理手段と、 前記撮像手段と前記対象物体との概略的な推定距離に応
じて必要な演算精度に対応する密度の量子化空間点を有
する探索領域を設定する探索領域設定手段と、 前記探索領域の量子化空間点において前記撮像手段によ
り前記対象物体を撮影したときに得られるべき二次元の
推定画像特徴点を算出するための透視変換行列を、あら
かじめ記憶手段に記憶された前記対象物体の三次元絶対
座標に対する前記量子化空間点の推定位置と前記撮像手
段の撮像姿勢を示す姿勢パラメータとに基いて演算する
透視変換行列演算手段と、 この透視変換行列演算手段により求められた前記透視変
換行列を用いて前記量子化空間点における前記対象物体
の二次元の前記推定画像特徴点を算出する透視変換演算
手段と、 前記画像処理手段にて抽出された前記対象物体の二次元
の画像特徴点と前記透視変換演算手段にて算出された二
次元の前記推定画像特徴点との対応関係を求めると共
に、それら対応関係が得られた画像特徴点と推定画像特
徴点との間の適合度を示す評価誤差値を所定の誤差評価
関数に基いて演算する誤差演算手段と、 この誤差演算手段にて求められた前記評価誤差値を前記
探索領域に対応して設定された要求誤差精度と比較し、
前記評価誤差値が前記要求誤差制度よりも小さくなるこ
とを判定条件として、前記探索領域設定手段,前記透視
変換行列演算手段,前記透視変換演算手段および前記誤
差演算手段による工程を繰り返し実行させる誤差判定手
段と、 この誤差判定手段において前記判定条件を満たしたとき
に、そのときの量子化空間点の三次元絶対座標と前記撮
像手段の姿勢パラメータとを出力するデータ出力手段と
からなる視覚に基く三次元位置および姿勢の認識装置。
2. An image pickup means for outputting image information, and a feature of the shape of the target object based on image information when the image of the target object whose three-dimensional absolute coordinates showing the shape are known is picked up by the image pickup means. An image processing unit for extracting a two-dimensional image feature point, and a search region having a quantized spatial point having a density corresponding to a required calculation accuracy according to a rough estimated distance between the image pickup unit and the target object are set. And a perspective transformation matrix for calculating a two-dimensional estimated image feature point that should be obtained when the target object is photographed by the imaging unit at the quantized space point of the search region. Perspective transformation matrix calculated based on the estimated position of the quantized spatial point with respect to the three-dimensional absolute coordinates of the target object stored in the means, and an attitude parameter indicating the imaging attitude of the imaging means. Computing means, perspective transformation computing means for computing the two-dimensional estimated image feature points of the target object at the quantized spatial points using the perspective transformation matrix obtained by the perspective transformation matrix computing means, and the image The correspondence relationship between the two-dimensional image feature points of the target object extracted by the processing means and the two-dimensional estimated image feature points calculated by the perspective transformation calculation means is obtained, and the correspondence relationships are obtained. Error calculation means for calculating an evaluation error value indicating the degree of conformity between the image feature point and the estimated image feature point based on a predetermined error evaluation function, and the evaluation error value obtained by the error calculation means. Compared with the required error accuracy set corresponding to the search area,
An error determination for repeatedly executing the steps of the search region setting means, the perspective transformation matrix computing means, the perspective transformation computing means, and the error computing means under the condition that the evaluation error value is smaller than the required error accuracy. Means based on the visual sense, and three-dimensional absolute coordinates based on the visual sense, which output the three-dimensional absolute coordinates of the quantized spatial point at that time and the orientation parameter of the image pickup means when the determination condition is satisfied in the error determination means. Original position and posture recognition device.
JP04636293A 1993-03-08 1993-03-08 Method and apparatus for recognizing three-dimensional position and orientation based on vision Expired - Fee Related JP3326851B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP04636293A JP3326851B2 (en) 1993-03-08 1993-03-08 Method and apparatus for recognizing three-dimensional position and orientation based on vision
US08/206,828 US5499306A (en) 1993-03-08 1994-03-07 Position-and-attitude recognition method and apparatus by use of image pickup means

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP04636293A JP3326851B2 (en) 1993-03-08 1993-03-08 Method and apparatus for recognizing three-dimensional position and orientation based on vision

Publications (2)

Publication Number Publication Date
JPH06262568A true JPH06262568A (en) 1994-09-20
JP3326851B2 JP3326851B2 (en) 2002-09-24

Family

ID=12745047

Family Applications (1)

Application Number Title Priority Date Filing Date
JP04636293A Expired - Fee Related JP3326851B2 (en) 1993-03-08 1993-03-08 Method and apparatus for recognizing three-dimensional position and orientation based on vision

Country Status (1)

Country Link
JP (1) JP3326851B2 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006329842A (en) * 2005-05-27 2006-12-07 Konica Minolta Sensing Inc Method and device for aligning three-dimensional shape data
JP2010038753A (en) * 2008-08-06 2010-02-18 Toyota Central R&D Labs Inc Device and program for estimating motion
CN103522304A (en) * 2013-10-28 2014-01-22 中国科学院自动化研究所 Capsule entry method of slave robots based on master robot vision
CN108724183A (en) * 2018-05-29 2018-11-02 广东工业大学 A kind of control method, system and the relevant apparatus of handling machinery arm
CN111360840A (en) * 2020-04-28 2020-07-03 沈阳优诚自动化工程有限公司 Mechanical arm sorting method based on visual algorithm
CN113196337A (en) * 2019-01-09 2021-07-30 株式会社富士 Image processing apparatus, working robot, substrate inspection apparatus, and specimen inspection apparatus
WO2022091895A1 (en) * 2020-10-30 2022-05-05 パナソニックIpマネジメント株式会社 Robot control method

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006329842A (en) * 2005-05-27 2006-12-07 Konica Minolta Sensing Inc Method and device for aligning three-dimensional shape data
JP4599515B2 (en) * 2005-05-27 2010-12-15 コニカミノルタセンシング株式会社 Method and apparatus for aligning three-dimensional shape data
JP2010038753A (en) * 2008-08-06 2010-02-18 Toyota Central R&D Labs Inc Device and program for estimating motion
CN103522304A (en) * 2013-10-28 2014-01-22 中国科学院自动化研究所 Capsule entry method of slave robots based on master robot vision
CN108724183A (en) * 2018-05-29 2018-11-02 广东工业大学 A kind of control method, system and the relevant apparatus of handling machinery arm
CN108724183B (en) * 2018-05-29 2024-03-26 广东工业大学 Control method, system and related device of carrying mechanical arm
CN113196337A (en) * 2019-01-09 2021-07-30 株式会社富士 Image processing apparatus, working robot, substrate inspection apparatus, and specimen inspection apparatus
CN113196337B (en) * 2019-01-09 2023-08-29 株式会社富士 Image processing device, work robot, substrate inspection device, and specimen inspection device
CN111360840A (en) * 2020-04-28 2020-07-03 沈阳优诚自动化工程有限公司 Mechanical arm sorting method based on visual algorithm
WO2022091895A1 (en) * 2020-10-30 2022-05-05 パナソニックIpマネジメント株式会社 Robot control method

Also Published As

Publication number Publication date
JP3326851B2 (en) 2002-09-24

Similar Documents

Publication Publication Date Title
CN110116407B (en) Flexible robot position and posture measuring method and device
US10948297B2 (en) Simultaneous location and mapping (SLAM) using dual event cameras
US7283661B2 (en) Image processing apparatus
KR100493159B1 (en) Landmark, apparatus and method for determining position of autonomous vehicles effectively
US20100070125A1 (en) Apparatus and method for localizing mobile robot
KR102226846B1 (en) System for Positioning Hybrid Indoor Localization Using Inertia Measurement Unit Sensor and Camera
Kagami et al. Vision-based 2.5 D terrain modeling for humanoid locomotion
JP2730457B2 (en) Three-dimensional position and posture recognition method based on vision and three-dimensional position and posture recognition device based on vision
JP6922348B2 (en) Information processing equipment, methods, and programs
CN111583342A (en) Target rapid positioning method and device based on binocular vision
JP2003136465A (en) Three-dimensional position and posture decision method of detection target object and visual sensor of robot
JP3326851B2 (en) Method and apparatus for recognizing three-dimensional position and orientation based on vision
JP2778430B2 (en) Three-dimensional position and posture recognition method based on vision and three-dimensional position and posture recognition device based on vision
JP3208900B2 (en) Method and apparatus for recognizing three-dimensional position and orientation based on vision
JP2001076128A (en) Device and method for detecting obstacle
CN109459046B (en) Positioning and navigation method of suspension type underwater autonomous vehicle
EP1307705A1 (en) Height measurement apparatus
Brandt et al. Controlled active exploration of uncalibrated environments
Motai et al. SmartView: hand-eye robotic calibration for active viewpoint generation and object grasping
Lanser et al. MORAL—A vision-based object recognition system for autonomous mobile systems
Hwang et al. Robust 2D map building with motion-free ICP algorithm for mobile robot navigation
Schleicher et al. Real-time simultaneous localization and mapping using a wide-angle stereo camera and adaptive patches
Okada et al. A parts picking system with a range finder and a camera system
Ding et al. Fusing Stereopsis & Corner Sparse Optical Flow for Real-time Obstacle Avoidance of Unmanned Aerial Vehicle
Schleicher et al. Real-time simultaneous localization and mapping using a wide-angle stereo camera

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110712

Year of fee payment: 9

LAPS Cancellation because of no payment of annual fees