JP2778430B2 - Three-dimensional position and posture recognition method based on vision and three-dimensional position and posture recognition device based on vision - Google Patents

Three-dimensional position and posture recognition method based on vision and three-dimensional position and posture recognition device based on vision

Info

Publication number
JP2778430B2
JP2778430B2 JP27922393A JP27922393A JP2778430B2 JP 2778430 B2 JP2778430 B2 JP 2778430B2 JP 27922393 A JP27922393 A JP 27922393A JP 27922393 A JP27922393 A JP 27922393A JP 2778430 B2 JP2778430 B2 JP 2778430B2
Authority
JP
Japan
Prior art keywords
search
parameter
point
dimensional
image feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP27922393A
Other languages
Japanese (ja)
Other versions
JPH07146121A (en
Inventor
幸礼 金山
美樹男 笹木
英樹 斉藤
哲也 小南
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP27922393A priority Critical patent/JP2778430B2/en
Priority to US08/206,828 priority patent/US5499306A/en
Publication of JPH07146121A publication Critical patent/JPH07146121A/en
Application granted granted Critical
Publication of JP2778430B2 publication Critical patent/JP2778430B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Numerical Control (AREA)
  • Manipulator (AREA)
  • Control Of Position Or Direction (AREA)

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【産業上の利用分野】本発明は、自律移動ロボットなど
に搭載され単眼視カメラにより撮影した既知対象の画像
情報に基いて単眼視カメラの三次元位置および姿勢を認
識するようにした視覚に基く三次元位置および姿勢の認
識方法ならびに視覚に基く三次元位置および姿勢の認識
装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention is based on vision that recognizes the three-dimensional position and orientation of a monocular camera based on image information of a known object captured by a monocular camera mounted on an autonomous mobile robot or the like. The present invention relates to a three-dimensional position and orientation recognition method and a three-dimensional position and orientation recognition device based on vision.

【0002】[0002]

【従来の技術】近年、例えば、自律移動ロボット等のよ
うに、形状および絶対座標位置が既知である対象物体に
対して接近するように移動し、アームにより対象物体を
把持するといった能動的操作を行うようにしたものがあ
る。このような自律移動ロボット等においては、CCD
カメラなどの撮像手段を搭載してその二次元的な画像情
報に基いて対象物体に対する自己の三次元的な相対位置
を認識することが必要になる。この場合、位置認識を行
うための装置においては、高精度且つ迅速に計算を行っ
て三次元的な位置のデータを求めることが要求され、し
かも安価に実現できる構成が望まれている。
2. Description of the Related Art In recent years, active operations such as moving an object such as an autonomous mobile robot so as to approach a target object having a known shape and absolute coordinate position and grasping the target object by an arm are performed. There's something we did. In such autonomous mobile robots, CCDs
It is necessary to mount imaging means such as a camera and recognize its own three-dimensional relative position with respect to the target object based on the two-dimensional image information. In this case, in a device for performing position recognition, it is required to perform calculation with high accuracy and speed to obtain three-dimensional position data, and a configuration that can be realized at low cost is desired.

【0003】そこで、従来では、比較的簡単なものとし
て、例えば、特開平3−166072号公報あるいは特
開平3−166073号公報に示されるようなものが考
えられている。すなわち、これらにおいては、対象装置
に固定された形状および寸法が既知の特殊な幾何学形状
(マーカと呼ぶ)をカメラにより撮影し、そのマーカの
二次元的な画像情報に基いて、その重心を計算する等の
方法により対象装置に対するカメラの相対的な三次元の
位置関係を求めるようにしたものである。
[0003] Conventionally, as a relatively simple device, for example, a device as disclosed in Japanese Patent Application Laid-Open No. Hei 3-166072 or Japanese Patent Application Laid-Open No. Hei 3-166073 has been considered. That is, in these, a special geometric shape (referred to as a marker) having a known shape and dimensions fixed to the target device is photographed by a camera, and the center of gravity is determined based on the two-dimensional image information of the marker. The relative three-dimensional positional relationship of the camera with respect to the target device is obtained by a method such as calculation.

【0004】[0004]

【発明が解決しようとする課題】しかしながら、上述の
ような従来方法によると、対象装置にマーカを設ける必
要があるため、その設置のための準備をその都度行う必
要があると共に、マーカに対してカメラの光軸を常に垂
直に設定する必要があるため、任意の姿勢をとるカメラ
に対しては適用が困難となる不具合がある。
However, according to the above-described conventional method, since it is necessary to provide a marker on the target device, it is necessary to prepare for the installation each time, and the marker must be provided for the marker. Since it is necessary to always set the optical axis of the camera vertically, there is a problem that it is difficult to apply the camera to an arbitrary posture.

【0005】このような不具合を解消し得る理論的手法
として、一般には、透視n点問題において最小二乗推定
した透視変換行列の成分からカメラの位置および姿勢を
表すパラメータを逆算する方法がコンピュータビジョン
の手法として存在する。この方法によれば、カメラの光
軸と対象物体を記述する絶対座標の原点との間の関係が
未知の場合でも、原理的にはカメラの位置および姿勢を
表すパラメータを求めることが可能となる。
As a theoretical method capable of solving such a problem, a method of inversely calculating parameters representing the position and orientation of a camera from components of a perspective transformation matrix estimated by least squares in a perspective n-point problem is generally used in computer vision. It exists as a method. According to this method, even when the relationship between the optical axis of the camera and the origin of the absolute coordinates describing the target object is unknown, it is possible in principle to obtain parameters representing the position and orientation of the camera. .

【0006】ところが、このようなコンピュータビジョ
ンの手法においては、実際にコンピュータを用いて明示
的に計算する場合に、適用する式が非常に複雑になるこ
とに加えてその計算量が膨大なものとなるため、迅速な
計算処理が困難になり実用的には適用が難しくなるもの
である。
However, in such a computer vision method, when an explicit calculation is actually performed using a computer, the applied formula becomes extremely complicated and the amount of calculation is enormous. Therefore, rapid calculation processing becomes difficult, and practical application becomes difficult.

【0007】本発明は、上記事情に鑑みてなされたもの
で、その目的は、カメラの光軸と既知形状の対象物体を
記述する絶対座標の原点との間の関係が未知の場合で
も、カメラにより撮影した二次元の画像情報に基いて、
比較的簡単かつ迅速にカメラの位置と姿勢を表すパラメ
ータとを求めることができるようにした視覚に基く三次
元位置と姿勢の認識方法ならびに視覚に基く三次元位置
と姿勢の認識装置を提供することにある。
SUMMARY OF THE INVENTION The present invention has been made in view of the above circumstances, and an object of the present invention is to provide a camera which can be used even when the relationship between the optical axis of the camera and the origin of absolute coordinates describing a target object having a known shape is unknown. Based on the two-dimensional image information taken by
Provided are a vision-based three-dimensional position and orientation recognition method and a vision-based three-dimensional position and orientation recognition device that enable relatively simple and quick determination of parameters representing the position and orientation of a camera. It is in.

【0008】[0008]

【課題を解決するための手段】本発明の視覚に基く三次
元位置および姿勢の認識方法は、形状を示す三次元絶対
座標が既知である対象物体を撮像手段により撮影したと
きの画像信号に基いてその対象物体の形状の特徴を示す
二次元の画像特徴点を抽出する画像処理ステップと、前
記対象物体に対する前記撮像手段の位置姿勢を示す複数
のパラメータを探索パラメータとし、外部情報により与
えられる推定距離に応じたパラメータ探索開始点を設定
すると共にその推定距離に応じたパラメータ探索幅で量
子化したパラメータ探索点を有する空間探索領域を設定
する探索領域設定ステップと、この探索領域設定ステッ
プにて設定された前記空間探索領域のパラメータ探索点
で決まる位置から前記撮像手段により前記対象物体を撮
影したときに得られるべき二次元の推定画像特徴点を算
出するための透視変換行列を、あらかじめ記憶手段に記
憶された前記対象物体の三次元絶対座標に対する前記量
子化空間点の推定位置と前記撮像手段の初期探索パラメ
ータとに基いて計算する透視変換行列計算ステップと、
この透視変換行列計算ステップにて求められた前記透視
変換行列を用いて前記パラメータ探索点における前記対
象物体の二次元の前記推定画像特徴点を算出する透視変
換計算ステップと、前記画像処理ステップにて抽出され
た前記対象物体の二次元の画像特徴点と前記透視変換計
算ステップにて算出された二次元の前記推定画像特徴点
との対応関係を求めると共に、それら対応関係が得られ
た画像特徴点と推定画像特徴点との間の適合度を示す評
価誤差値を所定の誤差評価関数に基いて計算する誤差計
算ステップと、前記複数の探索パラメータのうちの指定
された探索パラメータに対して前記探索領域内で、前記
各推定画像特徴点に対する画像特徴点の評価誤差値が最
小となるような前記パラメータ探索点を局所最適パラメ
ータとして求めて、あらたにパラメータ探索点として設
定する局所最適パラメータ計算ステップと、この局所最
適パラメータ計算ステップを、あらかじめ指定された順
序で前記複数のパラメータのすべてについて逐次実行す
ると共に、これを所定回数繰り返して実行し、そのとき
の前記評価誤差値が所定の要求誤差精度よりも小さいと
きに、得られた複数のパラメータ探索値を前記位置姿勢
ベクトルの複数のパラメータとして決定する最適位置姿
勢データ決定ステップとを有する構成としたところに特
徴を有する。
According to the present invention, a method for recognizing a three-dimensional position and orientation based on vision is based on an image signal obtained by photographing a target object whose shape has known three-dimensional absolute coordinates by an image pickup means. An image processing step of extracting a two-dimensional image feature point indicating a characteristic of the shape of the target object, and a plurality of parameters indicating the position and orientation of the imaging unit with respect to the target object as search parameters, and estimation provided by external information. A search area setting step of setting a parameter search start point according to the distance and setting a spatial search area having a parameter search point quantized with a parameter search width corresponding to the estimated distance; and setting in the search area setting step Obtained when the target object is imaged by the imaging means from a position determined by the parameter search point of the space search area. A perspective transformation matrix for calculating a two-dimensional estimated image feature point to be calculated is obtained by estimating an estimated position of the quantization space point with respect to three-dimensional absolute coordinates of the target object stored in advance in the storage means and an initial search of the imaging means. Calculating a perspective transformation matrix based on the parameters and
A perspective transformation calculation step of calculating the two-dimensional estimated image feature point of the target object at the parameter search point using the perspective transformation matrix obtained in the perspective transformation matrix calculation step; and The correspondence between the extracted two-dimensional image feature points of the target object and the two-dimensional estimated image feature points calculated in the perspective transformation calculation step is determined, and the image feature points from which the correspondences are obtained. An error calculation step of calculating an evaluation error value indicating the degree of conformity between the search parameter and the estimated image feature point based on a predetermined error evaluation function; and performing the search for a specified search parameter of the plurality of search parameters. In the region, the parameter search point such that the evaluation error value of the image feature point with respect to each of the estimated image feature points is minimized is determined as a local optimum parameter. A local optimum parameter calculation step to be newly set as a parameter search point, and this local optimum parameter calculation step, while sequentially executing all of the plurality of parameters in a predetermined order, and repeatedly executing the predetermined number of times; When the evaluation error value at that time is smaller than a predetermined required error accuracy, an optimal position and orientation data determination step of determining the obtained plurality of parameter search values as a plurality of parameters of the position and orientation vector. It is characterized by

【0009】また、本発明の視覚に基く三次元位置およ
び姿勢の認識装置は、画像信号を出力する撮像手段と、
対象物体の形状を示す三次元絶対座標データおよび探索
順序を指定するデータが記憶された記憶手段と、前記撮
像手段により前記対象物体を撮影したときの画像信号に
基いてその対象物体の形状の特徴を示す二次元の画像特
徴点を抽出する画像処理手段と、前記対象物体に対する
前記撮像手段の位置姿勢を示す複数のパラメータを探索
パラメータとし、外部情報により与えられる推定距離に
応じたパラメータ探索開始点を設定すると共にその推定
距離に応じたパラメータ探索幅で量子化したパラメータ
探索点を有する空間探索領域を設定する探索領域設定手
段と、この探索領域設定手段により設定された前記空間
探索領域のパラメータ探索点で決まる位置から前記撮像
手段により前記対象物体を撮影したときに得られるべき
二次元の推定画像特徴点を算出するための透視変換行列
を、あらかじめ記憶手段に記憶された前記対象物体の三
次元絶対座標に対する前記量子化空間点の推定位置と前
記撮像手段の初期探索パラメータとに基いて計算する透
視変換行列計算手段と、この透視変換行列計算手段によ
り求められた前記透視変換行列を用いて前記パラメータ
探索点における前記対象物体の二次元の前記推定画像特
徴点を算出する透視変換計算手段と、前記画像処理手段
により抽出された前記対象物体の二次元の画像特徴点と
前記透視変換計算手段により算出された二次元の前記推
定画像特徴点との間の対応関係を求めると共に、それら
対応関係が得られた画像特徴点と推定画像特徴点との間
の適合度を示す評価誤差値を所定の誤差評価関数に基い
て計算する誤差計算手段と、前記複数の探索パラメータ
のうちの指定された探索パラメータに対して前記探索領
域内で、前記各推定画像特徴点に対する画像特徴点の評
価誤差値が最小となるような前記パラメータ探索点を局
所最適パラメータとして求めて、あらたにパラメータ探
索点として設定する局所最適パラメータ計算手段と、こ
の局所最適パラメータ計算手段による計算処理を、あら
かじめ指定された順序で前記複数のパラメータのすべて
について逐次実行すると共に、これを所定回数繰り返し
て実行し、そのときの前記評価誤差値が所定の要求誤差
精度よりも小さいときに、得られた複数のパラメータ探
索値を前記位置姿勢ベクトルの複数のパラメータとして
決定する最適位置姿勢データ決定手段とを設けて構成し
たところに特徴を有する。
Further, the apparatus for recognizing a three-dimensional position and orientation based on vision according to the present invention comprises: an image pickup means for outputting an image signal;
Storage means for storing three-dimensional absolute coordinate data indicating the shape of the target object and data specifying the search order; and characteristics of the shape of the target object based on an image signal when the target object is photographed by the imaging means. Image processing means for extracting a two-dimensional image feature point indicating, and a plurality of parameters indicating the position and orientation of the imaging means with respect to the target object as search parameters, and a parameter search start point corresponding to an estimated distance given by external information And a search area setting means for setting a space search area having a parameter search point quantized with a parameter search width corresponding to the estimated distance, and a parameter search for the space search area set by the search area setting means A two-dimensional estimated image to be obtained when the target object is photographed by the imaging means from a position determined by a point A perspective transformation matrix for calculating a feature point is calculated based on an estimated position of the quantization space point with respect to the three-dimensional absolute coordinates of the target object stored in advance in the storage unit and an initial search parameter of the imaging unit. Perspective transformation matrix calculation means, and perspective transformation calculation means for calculating the two-dimensional estimated image feature point of the target object at the parameter search point using the perspective transformation matrix determined by the perspective transformation matrix calculation means, While obtaining the correspondence between the two-dimensional image feature points of the target object extracted by the image processing means and the two-dimensional estimated image feature points calculated by the perspective transformation calculation means, Error calculating means for calculating an evaluation error value indicating a degree of conformity between the obtained image feature point and the estimated image feature point based on a predetermined error evaluation function; For the specified search parameter among the search parameters, the parameter search point that minimizes the evaluation error value of the image feature point with respect to each of the estimated image feature points in the search area is determined as a local optimum parameter. A local optimum parameter calculating means to be newly set as a parameter search point; and a calculating process by the local optimum parameter calculating means are sequentially executed for all of the plurality of parameters in a predetermined order. An optimal position and orientation data determining means for repeatedly executing, and when the evaluation error value at that time is smaller than a predetermined required error accuracy, determining a plurality of obtained parameter search values as a plurality of parameters of the position and orientation vector This is characterized in that it is provided with

【0010】[0010]

【作用】請求項1記載の視覚に基く三次元位置と姿勢の
認識方法によれば、以下のようにして対象物体に対する
撮像手段の位置姿勢が認識されるようになる。すなわ
ち、撮像手段により撮影された対象物体の画像信号が入
力されると、画像処理ステップにおいて、その画像信号
に基づいて対象物体の形状の特徴等を示す二次元の画像
特徴点を抽出するようになる。
According to the method for recognizing a three-dimensional position and orientation based on vision, the position and orientation of the imaging means with respect to the target object are recognized as follows. That is, when an image signal of a target object photographed by the imaging means is input, a two-dimensional image feature point indicating a shape characteristic or the like of the target object is extracted based on the image signal in the image processing step. Become.

【0011】探索領域設定ステップにおいては、対象物
体に対する撮像手段の位置姿勢を示す複数のパラメータ
を探索パラメータとし、外部情報により与えられる推定
距離に応じてそれらの探索パラメータに対するパラメー
タ探索開始点を設定すると共にその推定距離に応じて決
められるパラメータ探索幅で量子化したパラメータ探索
点を有する空間探索領域を設定するようになる。
In the search area setting step, a plurality of parameters indicating the position and orientation of the imaging means with respect to the target object are set as search parameters, and a parameter search start point for the search parameters is set according to an estimated distance given by external information. At the same time, a spatial search area having a parameter search point quantized with a parameter search width determined according to the estimated distance is set.

【0012】透視変換行列計算ステップにおいては、上
述の探索領域設定ステップにて設定された空間探索領域
のパラメータ探索点で決まる位置から前記撮像手段によ
り前記対象物体を撮影したときに得られるべき二次元の
推定画像特徴点を算出するための透視変換行列を計算に
より求める。このとき、透視変換行列は、あらかじめ記
憶手段に記憶された対象物体の三次元絶対座標に対する
パラメータ探索点の推定位置と撮像手段のパラメータ探
索開始点とに基いて計算される。
In the perspective transformation matrix calculation step, a two-dimensional image to be obtained when the object is photographed by the imaging means from a position determined by the parameter search point in the space search area set in the search area setting step described above. Is calculated by calculating a perspective transformation matrix for calculating the estimated image feature point. At this time, the perspective transformation matrix is calculated based on the estimated position of the parameter search point with respect to the three-dimensional absolute coordinates of the target object stored in advance in the storage means and the parameter search start point of the imaging means.

【0013】誤差計算ステップにおいては、前述の画像
処理ステップにて抽出された対象物体の二次元の画像特
徴点と透視変換計算ステップにて算出された二次元の推
定画像特徴点との対応関係を求めると共に、それら対応
関係が得られた画像特徴点と推定画像特徴点との間の適
合度を示す評価誤差値を所定の誤差評価関数に基いて計
算するようになる。
In the error calculation step, the correspondence between the two-dimensional image feature points of the target object extracted in the image processing step and the two-dimensional estimated image feature points calculated in the perspective transformation calculation step is determined. In addition to the evaluation error value, the evaluation error value indicating the degree of conformity between the image feature point and the estimated image feature point for which the correspondence has been obtained is calculated based on a predetermined error evaluation function.

【0014】局所最適パラメータ計算ステップにおいて
は、複数の探索パラメータのうちの指定された探索パラ
メータに対して設定されている探索領域内で、各推定画
像特徴点に対する画像特徴点の評価誤差値が最小となる
ようなパラメータ探索点を局所最適パラメータとして求
めて、あらたにパラメータ探索点として設定するように
なる。
In the local optimum parameter calculating step, the evaluation error value of the image feature point for each estimated image feature point is minimized within the search area set for the specified search parameter among the plurality of search parameters. Is obtained as a local optimum parameter, and is newly set as a parameter search point.

【0015】最適位置姿勢データ決定ステップにおいて
は、上述の局所最適パラメータ計算ステップを、あらか
じめ指定された順序で複数の探索パラメータのすべてに
ついて逐次実行すると共に、これを所定回数繰り返して
実行し、そのときの評価誤差値が所定の要求誤差精度よ
りも小さいときに、得られた複数のパラメータ探索値を
撮像手段の位置姿勢を示す複数のパラメータとして決定
するようになる。
In the optimum position and orientation data determining step, the above-described local optimum parameter calculating step is sequentially executed for all of the plurality of search parameters in a predetermined order, and this is repeated a predetermined number of times. When the evaluation error value is smaller than a predetermined required error accuracy, the obtained plurality of parameter search values are determined as a plurality of parameters indicating the position and orientation of the imaging unit.

【0016】この場合、三次元絶対座標が既知である対
象物をある一つの見え方の位置姿勢の範囲内で撮像手段
により撮影している状態では、上述の各ステップの実行
により、撮像手段の位置姿勢を複数のパラメータで表し
た位置姿勢ベクトルに対して、それぞれのパラメータを
逐次独立して探索することを多重スケールで巡回的に所
定回数だけ実施することになるので、最適な位置姿勢を
探索できる確率が非常に高くなり、少ない探索回数であ
りながら高速且つ高精度で撮像手段の位置姿勢を認識で
きるようになるものである。
In this case, in a state in which the object whose known three-dimensional absolute coordinates are known is photographed by the image pickup means within a range of a position and orientation of one view, the execution of each of the above-mentioned steps causes the image pickup means to execute the above steps. For the position and orientation vector representing the position and orientation by a plurality of parameters, searching for each parameter sequentially and independently is performed a predetermined number of times on a multi-scale cyclically, so that an optimal position and orientation is searched. The probability of being able to do so is extremely high, and the position and orientation of the imaging means can be recognized at high speed and with high accuracy while the number of searches is small.

【0017】請求項2記載の視覚に基く三次元位置と姿
勢の認識装置によれば、上述の各処理ステップを実行す
る手段を備えているので、それらの各手段により上述の
処理ステップを実行することにより、少ない探索回数で
ありながら高速且つ高精度で撮像手段の位置姿勢を認識
できるようになるものである。
According to the apparatus for recognizing a three-dimensional position and orientation based on vision according to the second aspect of the present invention, since the means for executing the above-described processing steps are provided, the above-described processing steps are executed by the respective means. As a result, the position and orientation of the imaging unit can be recognized at high speed and with high accuracy while the number of searches is small.

【0018】[0018]

【実施例】以下、本発明を工場内などの軌道上を走行す
る自律移動ロボットに搭載する三次元位置認識装置に適
用した場合の第1の実施例について図1ないし図10を
参照しながら説明する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS A first embodiment in which the present invention is applied to a three-dimensional position recognition apparatus mounted on an autonomous mobile robot running on a track in a factory or the like will be described below with reference to FIGS. I do.

【0019】全体構成の概略を示す図2において、自律
移動ロボット1は、例えば、工場内などの床面に設けら
れた軌道に沿って作業エリア2間を移動するようになっ
ており、本発明の三次元位置認識装置(図1参照)が搭
載されている。自律移動ロボット1の上部にはアーム3
が設けられ、そのアーム3の先端部には撮像手段として
のカメラ4および対象物体としてのワーク5を把持する
等の作業を行うためのハンド6が配設されている。この
場合、作業エリア2は壁面から窪んだ状態に形成された
凹部に設けられ、所定形状をなすワーク5はその作業エ
リア2の底面2aの所定位置に載置されている。
2, an autonomous mobile robot 1 moves between work areas 2 along a trajectory provided on a floor surface in a factory, for example. (See FIG. 1). An arm 3 is provided above the autonomous mobile robot 1
And a hand 6 for performing operations such as gripping a camera 4 as an imaging unit and a work 5 as a target object. In this case, the work area 2 is provided in a recess formed so as to be depressed from the wall surface, and the work 5 having a predetermined shape is placed at a predetermined position on the bottom surface 2a of the work area 2.

【0020】さて、三次元位置認識装置は図1に示すよ
うに構成される。画像処理手段としての画像処理部7
は、前処理計算部8および特徴点抽出部9からなる。前
処理計算部8は、カメラ4が撮影したワーク5を含むシ
ーンの画像信号を入力して二値化処理等の前処理計算を
行い、特徴点抽出部9は、前処理計算部8により計算さ
れた画像情報に基いて、後述のように、ワーク5の特徴
点に対応する二次元の画像特徴点を抽出するようになっ
ている。
Now, the three-dimensional position recognition device is configured as shown in FIG. Image processing unit 7 as image processing means
Comprises a pre-processing calculation unit 8 and a feature point extraction unit 9. The pre-processing calculation unit 8 inputs image signals of a scene including the work 5 captured by the camera 4 and performs pre-processing calculations such as binarization processing. Based on the obtained image information, a two-dimensional image feature point corresponding to the feature point of the work 5 is extracted as described later.

【0021】量子化空間探索部10は、探索領域設定手
段としての探索領域決定部11,透視変換行列計算手段
としての透視変換行列計算部12,透視変換計算手段と
しての透視変換部13,誤差計算手段としての誤差評価
関数計算部14,局所最適パラメータ計算手段および最
適位置姿勢データ決定手段としての最適値決定部15そ
して、決定された最適位置姿勢データを出力する最終出
力部16から構成されている。
The quantization space search section 10 includes a search area determination section 11 as search area setting means, a perspective transformation matrix calculation section 12 as perspective transformation matrix calculation means, a perspective transformation section 13 as perspective transformation calculation means, and error calculation. An error evaluation function calculator 14 as means, a local optimum parameter calculator, an optimum value determiner 15 as optimum position and orientation data determiner, and a final output unit 16 for outputting the determined optimum position and orientation data. .

【0022】この場合、探索領域決定部11は、作業エ
リア2のワーク5に対する自律移動ロボット1の概略位
置情報に基いてカメラ4の位置姿勢ベクトルs〔γ,
θ,φ,ρ〕の4個(h=1,2,3,4)のパラメー
タを探索パラメータとして、それらのパラメータ探索開
始点s(1,1),パラメータ探索幅δ(k,h)およ
びパラメータ探索領域を設定する(k(=1,2,…,
K)は繰返し探索回数を示す)。なお、これらのパラメ
ータγ,θ,φ,ρについては作用の説明にて詳述す
る。
In this case, the search area determination section 11 determines the position and orientation vector s [γ, γ of the camera 4 based on the approximate position information of the autonomous mobile robot 1 with respect to the work 5 in the work area 2.
θ, φ, ρ] (h = 1, 2, 3, 4) as search parameters, the parameter search start point s (1, 1), the parameter search width δ (k, h), and Set the parameter search area (k (= 1, 2, ...,
K) indicates the number of repetitive searches). The parameters γ, θ, φ, and ρ will be described in detail in the description of the operation.

【0023】透視変換行列計算部12は、設定されたパ
ラメータ探索領域のパラメータ探索点s(k,h)にお
いてカメラ4によりワーク5を撮影したときに画像信号
から得られる画像内における画像特徴点の座標を求める
ための透視変換行列Mを、自律移動ロボット1の概略位
置情報およびカメラ4の姿勢パラメータに応じて計算す
る。透視変換計算部13は、求められた透視変換行列M
を用いてパラメータ探索点s(k,h)のそれぞれの位
置でカメラ4によりワーク5を撮影したときにその特徴
点に対応して得られるべき二次元の推定画像特徴点を計
算する。
The perspective transformation matrix calculator 12 calculates the image feature points in the image obtained from the image signal when the camera 4 photographs the work 5 at the parameter search point s (k, h) in the set parameter search area. A perspective transformation matrix M for obtaining coordinates is calculated according to the approximate position information of the autonomous mobile robot 1 and the posture parameters of the camera 4. The perspective transformation calculator 13 calculates the perspective transformation matrix M
Is used to calculate a two-dimensional estimated image feature point to be obtained corresponding to the feature point when the camera 4 captures the work 5 at each position of the parameter search point s (k, h).

【0024】誤差評価関数計算部14は、画像処理部7
にて抽出された画像特徴点と前記推定画像特徴点との対
応関係をつけると共に、それらの間の位置の誤差値を二
乗誤差和を求める誤差評価関数Dに基いて計算する。最
適値決定部15は、一つの探索パラメータに対する最適
値を局所最適パラメータとして決定すると共に、この局
所最適パラメータをあらかじめ指定された順序で位置姿
勢ベクトルの各パラメータに対して逐次計算し、これを
所定回数繰り返して実行させることにより、位置姿勢ベ
クトルの複数のパラメータを決定する。
The error evaluation function calculator 14 is provided with the image processor 7
A correspondence between the extracted image feature points and the estimated image feature points is established, and an error value of a position between them is calculated based on an error evaluation function D for obtaining a sum of squared errors. The optimum value determining unit 15 determines an optimum value for one search parameter as a local optimum parameter, and sequentially calculates the local optimum parameter for each parameter of the position and orientation vector in a predetermined order, and calculates this predetermined value. A plurality of parameters of the position and orientation vector are determined by repeatedly executing the number of times.

【0025】また、量子化空間探索部10には、記憶手
段としてのメモリ17が接続され、その各種データの書
き込みおよび読み出し動作が行えるようになっている。
この場合、メモリ17にあらかじめ記憶されるデータと
しては、特徴点マッチングリスト,ワーク5および作業
エリア2の三次元絶対座標データ,カメラ4の焦点距離
f,パラメータ探索点およびパラメータ探索幅のリスト
とその座標データおよび位置姿勢パラメータの探索順序
指定情報などである。
The quantization space search unit 10 is connected to a memory 17 as a storage means so that various data can be written and read.
In this case, the data stored in advance in the memory 17 include a feature point matching list, three-dimensional absolute coordinate data of the work 5 and the work area 2, a list of the focal length f of the camera 4, a parameter search point, and a parameter search width. The information includes coordinate data and search order designation information for position and orientation parameters.

【0026】また、外部位置情報出力部18は、カメラ
4の外部位置情報を示すデータを量子化空間探索部10
に入力するもので、自律移動ロボット1の走行制御を行
う図示しない制御装置あるいは図示しない位置検出セン
サなどから自律移動ロボット1の概略位置を示す信号が
入力されるようになっている。
The external position information output unit 18 outputs data indicating the external position information of the camera 4 to the quantization space search unit 10.
A signal indicating the approximate position of the autonomous mobile robot 1 is input from a control device (not shown) for controlling the travel of the autonomous mobile robot 1 or a position detection sensor (not shown).

【0027】次に、本実施例の作用について図3ないし
図10をも参照して説明する。三次元位置認識装置は、
その動作の流れとして図3に示すようなフローチャート
の各処理ステップにしたがって自律移動ロボット1の存
在位置を認識する。まず、図2の状態において、自律移
動ロボット1が軌道上を移動してきて作業エリア2に差
し掛かると、カメラ4の撮影シーン内に作業エリア2が
入って撮影されるようになり、画像処理部7は、カメラ
4の画像信号を入力するようになる(ステップT1)。
Next, the operation of the present embodiment will be described with reference to FIGS. The three-dimensional position recognition device
As the flow of the operation, the position of the autonomous mobile robot 1 is recognized in accordance with each processing step of the flowchart as shown in FIG. First, in the state of FIG. 2, when the autonomous mobile robot 1 moves on the track and approaches the work area 2, the work area 2 enters the shooting scene of the camera 4, and the image is processed. 7 comes to input the image signal of the camera 4 (step T1).

【0028】この場合、自律移動ロボット1は、所定軌
道上を所定方向に移動しており、作業エリア2に近付く
と、停止位置を指示するセンサからの信号や移動制御情
報等に基づいて、所定の停止領域E内に停止するように
なっているので、この停止領域E内に停止した状態では
カメラ4により作業エリア2のワーク5を撮影したとき
に、その視野内にワーク5が十分収まるように設定され
ている。
In this case, the autonomous mobile robot 1 is moving on a predetermined trajectory in a predetermined direction. When approaching the work area 2, the autonomous mobile robot 1 determines a predetermined position based on a signal from a sensor indicating a stop position, movement control information, and the like. Is stopped in the stop area E, so that when the camera 4 captures the work 5 in the work area 2 with the camera 4 stopped in the stop area E, the work 5 is sufficiently contained within the field of view. Is set to

【0029】次に、カメラ4により撮影されたワーク5
の画像信号は、画像処理部7の前処理計算部8にて前処
理としての雑音除去処理(ステップT2)およびワーク
5の画像の切り出し処理(ステップT3)を実行し、こ
の後、特徴点抽出部9にてその画像信号に基いて次のよ
うにしてm個の画像特徴点Qjの集合Qを求めて出力す
るようになる(ステップT4)。ここで、画像特徴点Q
jの集合Qは式(1),(2)のように定義される。
Next, the work 5 photographed by the camera 4
Of the image signal of the image processing unit 7, the preprocessing calculation unit 8 of the image processing unit 7 executes a noise removal process (step T2) as a preprocess and a cutout process of the image of the work 5 (step T3), and thereafter, the feature point extraction The unit 9 calculates and outputs a set Q of m image feature points Qj based on the image signal as follows (step T4). Here, the image feature point Q
The set Q of j is defined as in equations (1) and (2).

【0030】[0030]

【数1】 (Equation 1)

【0031】この画像特徴点Qjの抽出に際しては、外
部情報出力部19から与えられる概略位置情報に基いて
次のように計算を行う。すなわち、概略位置情報とし
て、例えば、自律移動ロボット1の移動経路を記憶した
作業計画,走行制御により移動した空間移動の履歴情報
などが入力されるので、これらの外部情報に基いて、自
律移動ロボット1の中心位置の概略的な三次元絶対座標
を得ることができる。そして、自律移動ロボット1の中
心位置に対するカメラ4の相対位置はアーム3の制御位
置情報に基づいて得ることができるから、カメラ4の概
略位置を決定することができる。これにより得られたカ
メラ4の概略位置情報に基づいて、以降の探索過程にお
ける基準となる探索領域として初期探索領域S(1)を
設定することができる。
In extracting the image feature points Qj, the following calculation is performed based on the approximate position information provided from the external information output unit 19. That is, as the approximate position information, for example, a work plan in which the moving path of the autonomous mobile robot 1 is stored, history information of the spatial movement moved by the travel control, and the like are input. The approximate three-dimensional absolute coordinates of the center position can be obtained. The relative position of the camera 4 with respect to the center position of the autonomous mobile robot 1 can be obtained based on the control position information of the arm 3, so that the approximate position of the camera 4 can be determined. Based on the obtained approximate position information of the camera 4, the initial search area S (1) can be set as a reference search area in the subsequent search process.

【0032】次に、ステップT5,T6において、探索
領域決定部11により、カメラ4の各種パラメータの探
索範囲を設定する。ここで、カメラ4の状態を示すパラ
メータとしては、図2および図4に対応関係を示してい
るように、(a)カメラ4の姿勢パラメータCP(α,
β,γ),(b)カメラ4の焦点距離特性f,(c)カ
メラ4の位置ベクトル(r,θ,φ)がある。
Next, in steps T5 and T6, the search area determination section 11 sets search ranges of various parameters of the camera 4. Here, as the parameters indicating the state of the camera 4, as shown in the correspondence relationship in FIGS. 2 and 4, (a) the posture parameter CP (α,
β, γ), (b) the focal length characteristic f of the camera 4, and (c) the position vector (r, θ, φ) of the camera 4.

【0033】この場合、(b)に示すカメラ4の焦点距
離fは、カメラ4の特性によりあらかじめ決まっている
データであり、メモリ17内に焦点距離データとしてあ
らかじめ記憶されている。姿勢パラメータCPの各パラ
メータα,β,γは、カメラ4の光軸をz軸,水平方向
をx軸そして垂直方向をy軸としたときの、z軸周りの
回転角度γ,x軸周りの回転角度α,そしてy軸周りの
回転角度βとなる値である。また、カメラ4の位置パラ
メータは、三次元絶対座標系の原点に対するカメラ4の
視点の位置を極座標で示すもので、rは距離、θ,φは
rの傾き角度を示した値である。
In this case, the focal length f of the camera 4 shown in (b) is data determined in advance according to the characteristics of the camera 4 and is stored in advance in the memory 17 as focal length data. The parameters α, β, and γ of the posture parameter CP are a rotation angle γ and a rotation angle around the z-axis when the optical axis of the camera 4 is the z-axis, the horizontal direction is the x-axis, and the vertical direction is the y-axis. The rotation angle α and the rotation angle β about the y-axis. The position parameters of the camera 4 indicate the position of the viewpoint of the camera 4 with respect to the origin of the three-dimensional absolute coordinate system in polar coordinates, where r is a distance and θ and φ are values indicating the inclination angle of r.

【0034】そして、カメラ4の姿勢パラメータCPの
うち、光軸ずれを示す姿勢パラメータαおよびβについ
ては、対象物の中心位置の撮影画面上の座標データに基
づいて求めることができる。すなわち、図5に示すよう
に、撮影画面上でのワーク5の座標系の原点Opに対し
て、撮影画面上での画像位置Ops(画像情報に含まれ
ていない場合には含まれている特徴点を原点とする座標
系に変換する)が画素単位(ピクセル値)で示した二次
元座標(u,v)において、例えば(Na,Nb)であ
るとすると、次に示す式(3),(4)より姿勢パラメ
ータαおよびβの推定値が計算できる。
Then, of the posture parameters CP of the camera 4, the posture parameters α and β indicating the deviation of the optical axis can be obtained based on the coordinate data on the photographing screen of the center position of the object. That is, as shown in FIG. 5, the image position Ops on the shooting screen (the feature included when not included in the image information) with respect to the origin Op of the coordinate system of the workpiece 5 on the shooting screen. If the coordinates are converted to a coordinate system with the point as the origin, for example, (Na, Nb) in the two-dimensional coordinates (u, v) expressed in pixel units (pixel values), the following equation (3), (4) The estimated values of the posture parameters α and β can be calculated from (4).

【0035】この場合、式(3)に示すαの値に cosβ
の要素が入るのは、初めにy軸周りに角度βだけ回転し
たときに、ワーク5の座標系の原点Opが遠ざかること
によって撮影画面上の画像位置Opsの二次元座標デー
タNaが変動するのを補正しているためである。
In this case, the value of α shown in equation (3) is cos β
Is contained in the two-dimensional coordinate data Na of the image position Ops on the photographing screen when the origin Op of the coordinate system of the workpiece 5 moves away from the work 5 when the work is first rotated around the y axis by the angle β. Is corrected.

【0036】[0036]

【数2】 (Equation 2)

【0037】この結果、カメラ4の位置姿勢を示すカメ
ラパラメータとしては、残った未知の4個のパラメータ
γ,θ,φ,rを要素とした4次元の位置姿勢ベクトル
s〔γ,θ,φ,r〕を想定し、これらのパラメータを
探索パラメータとして設定すれば良いことになる。な
お、以降の説明においては、パラメータγとパラメータ
rとの符号の表記上の混同を避けるために、本明細書中
の表記を符号「r」に代えて符号「ρ」として示し、し
たがって、上述の位置姿勢ベクトルs〔γ,θ,φ,
r〕に対して位置姿勢ベクトルs〔γ,θ,φ,ρ〕に
置き換えて示す。(図2,図4,図6においては、
「r」のまま表記した。)次に、探索すべき探索パラメ
ータを指定するための変数hを「1」に設定して(ステ
ップT7)はじめの探索パラメータを「γ」に指定し
(ステップT8)、探索領域S(1)内の1点を探索パ
ラメータγに対するパラメータ探索開始点s(1、1)
として設定する。このパラメータ探索開始点s(1,
1)は、パラメータ探索点s(k,h)の初期値に対応
するものであり、kは繰り返し探索回数を示している。
As a result, the camera parameters indicating the position and orientation of the camera 4 include a four-dimensional position and orientation vector s [γ, θ, φ] using the remaining four unknown parameters γ, θ, φ, r as elements. , R] and these parameters may be set as search parameters. In the following description, in order to avoid confusion in the notation of the sign between the parameter γ and the parameter r, the notation in the present specification is indicated by the sign “ρ” instead of the sign “r”. Position and orientation vector s [γ, θ, φ,
r] is replaced with the position and orientation vector s [γ, θ, φ, ρ]. (In FIGS. 2, 4 and 6,
Indicated as “r”. Next, the variable h for designating the search parameter to be searched is set to "1" (step T7), the first search parameter is designated to "γ" (step T8), and the search area S (1) Is a parameter search start point s (1, 1) for a search parameter γ.
Set as This parameter search start point s (1,
1) corresponds to the initial value of the parameter search point s (k, h), where k indicates the number of repetitive searches.

【0038】また、設定されたパラメータ探索開始点s
(1,1)においては、その探索パラメータγに対する
パラメータ探索幅δ(1,1)が設定され(ステップT
10,T11)、探索過程が実行されるようになってい
る。このとき、探索範囲内での探索パラメータの値の変
更は、変数Iを順次指定することにより、パラメータ探
索幅δだけ変化されるようになっている。
The set parameter search start point s
In (1,1), a parameter search width δ (1,1) for the search parameter γ is set (step T).
10, T11), a search process is performed. At this time, the change of the value of the search parameter within the search range is changed by the parameter search width δ by sequentially specifying the variable I.

【0039】次に、透視変換行列計算部12において、
パラメータ探索開始点s(1,1)の三次元位置座標お
よび前述の式(3),(4)で求めた姿勢パラメータα
およびβの値,探索パラメータγの初期設定値で作られ
る初期姿勢を用いて、透視変換行列M(1,1)を計算
する(ステップT12)。
Next, in the perspective transformation matrix calculation unit 12,
The three-dimensional position coordinates of the parameter search start point s (1, 1) and the posture parameter α obtained by the above equations (3) and (4)
Then, the perspective transformation matrix M (1, 1) is calculated using the initial postures formed by the values of .beta. And the initial setting values of the search parameter .gamma. (Step T12).

【0040】この場合、透視変換行列Mは、次のように
して計算される。すなわち、まず、ワーク5の原点Op
に対して設定されている三次元絶対座標(X,Y,Z)
を基準として、初期探索領域S(1)を設定する。この
初期探索領域S(1)は、自律移動ロボット1の停止領
域Eに基づいて設定されるもので、カメラ4の予定撮像
位置である概略位置A0(X0,Y0,Z0)を極座標
で表した概略位置A0(ρ0,θ0,φ0)を中心とし
て、停止位置精度に対応する位置探索領域として、 ρ0−Δρ1≦ρ≦ρ0+Δρ2 θ0−Δθ1≦θ≦θ0+Δθ2 φ0−Δφ1≦φ≦φ0+Δφ2 の範囲に相当するように設定される。また、姿勢探索領
域に対しては、パラメータαおよびβについては式
(3),(4)で求めた結果を用い、パラメータγにつ
いては、 −Δγ1≦γ≦Δγ2 の範囲に相当するように設定される。
In this case, the perspective transformation matrix M is calculated as follows. That is, first, the origin Op of the work 5
Three-dimensional absolute coordinates (X, Y, Z) set for
Is set as an initial search area S (1). The initial search area S (1) is set based on the stop area E of the autonomous mobile robot 1, and the approximate position A0 (X0, Y0, Z0), which is the scheduled imaging position of the camera 4, is represented by polar coordinates. Centering on the approximate position A0 (ρ0, θ0, φ0), a position search area corresponding to stop position accuracy corresponds to the range of ρ0−Δρ1 ≦ ρ ≦ ρ0 + Δρ2 θ0−Δθ1 ≦ θ ≦ θ0 + Δθ2 φ0−Δφ1 ≦ φ ≦ φ0 + Δφ2 Is set to For the posture search area, the parameters α and β are set using the results obtained by the equations (3) and (4), and the parameter γ is set so as to correspond to the range of −Δγ1 ≦ γ ≦ Δγ2. Is done.

【0041】そして、カメラ4の姿勢パラメータCP
(α,β,γ)と、焦点距離特性fから求めたカメラ4
の視点位置と射影平面に対する距離dとに基いて、図6
(「ρ」は「r」として表記している)に示す関係に基
いて透視変換行列Mを求める。ここで、透視変換行列M
は次式(5)のように表すことができる。
Then, the posture parameter CP of the camera 4
Camera 4 calculated from (α, β, γ) and focal length characteristic f
FIG. 6 based on the viewpoint position and the distance d to the projection plane.
(“Ρ” is represented as “r”) based on the relationship shown in FIG. Here, the perspective transformation matrix M
Can be expressed as in the following equation (5).

【0042】[0042]

【数3】 (Equation 3)

【0043】このうち、画像の表示面とワーク5との間
の透視変換を計算するための透視変換行列M1とM2と
の積および座標変換行列M3は、それぞれ、次式
(6),(7)のように表すことができる。
Of these, the product of the perspective transformation matrices M1 and M2 for calculating the perspective transformation between the image display surface and the work 5 and the coordinate transformation matrix M3 are given by the following equations (6) and (7), respectively. ).

【0044】[0044]

【数4】 (Equation 4)

【0045】また、カメラ4の光軸ずれに対応する姿勢
パラメータCP(α,β,γ)に応じた回転の計算を行
うための変換行列Tは、前述の図4(「ρ」は「r」と
して表記している)と図6に示す関係とに基いて、γ,
αそしてβの順に回転する回転変換行列として次式
(8),(9),(10)のように表すことができる。
The conversion matrix T for calculating the rotation according to the posture parameter CP (α, β, γ) corresponding to the optical axis shift of the camera 4 is shown in FIG. 4 (“ρ” is “r ) And the relationship shown in FIG.
Equations (8), (9), and (10) can be used as a rotation transformation matrix that rotates in the order of α and β.

【0046】[0046]

【数5】 (Equation 5)

【0047】なお、上述の場合、透視変換行列Mの計算
過程においては、以下のようにして演算量の削減を図る
ことができる。すなわち、式(5)中の変換行列Tに式
(8)を代入し、ここで、(T1・M1・M2)で示さ
れた要素をMTと置くと式(5A)のようになる。この
とき、要素MTの値は、式(6)および式(8)から計
算すると式(5B)のように単純な形の式に変形でき
る。したがって、式(5B)を式(5A)に代入する
と、透視変換行列Mは式(5C)のようになり、実際の
計算にあたっては、この式(5C)に基づいて行うこと
により演算量を少なくして演算速度の向上を図ることが
できる。
In the above case, in the process of calculating the perspective transformation matrix M, the amount of calculation can be reduced as follows. That is, the equation (8) is substituted into the transformation matrix T in the equation (5). Here, when the element represented by (T1, M1, M2) is set to MT, the equation (5A) is obtained. At this time, the value of the element MT can be transformed into a simple expression such as Expression (5B) when calculated from Expressions (6) and (8). Therefore, when the equation (5B) is substituted into the equation (5A), the perspective transformation matrix M becomes as shown in the equation (5C). In the actual calculation, the calculation amount is reduced by performing the calculation based on the equation (5C). Thus, the calculation speed can be improved.

【0048】[0048]

【数6】 (Equation 6)

【0049】次に、ステップT13に進むと、このよう
にして計算により求めた透視変換行列M(1,1)に基
いて、透視変換計算部13により、作業エリア2とそこ
に載置されたワーク5のn個の特徴点Piの集合Pの各
特徴点Piについて三次元絶対座標データを透視変換の
計算を行って二次元の画像表示部の座標を求め、式(1
1),式(12)に示すような各特徴点Piに対する推
定画像特徴点Qeiの集合Qeを求める。そして、斉次
座標を用いると、特徴点Piの集合Pから推定画像特徴
点Qeiの集合Qeへの変換は、式(5)あるいは単純
化した式(5C)を用いると、式(13)のように表す
ことができる。
Next, in step T13, based on the perspective transformation matrix M (1, 1) calculated in this way, the work area 2 and the work area 2 are placed by the perspective transformation calculation unit 13. For each feature point Pi of the set P of n feature points Pi of the workpiece 5, the perspective coordinate transformation of the three-dimensional absolute coordinate data is performed to obtain the coordinates of the two-dimensional image display unit, and the equation (1)
1) A set Qe of estimated image feature points Qei for each feature point Pi as shown in equation (12) is obtained. When the homogeneous coordinates are used, the conversion from the set P of the feature points Pi to the set Qe of the estimated image feature points Qei is performed by using the equation (5) or the simplified equation (5C). It can be expressed as follows.

【0050】[0050]

【数7】 (Equation 7)

【0051】次に、画像処理部7にて抽出されたカメラ
4により撮影されたワーク5の画像特徴点Qjの集合Q
(式(1)参照)の各画像特徴点Qjと、あらかじめ記
憶されたワーク5の三次元の特徴点Pi(式(4)参
照)との間の対応関係をとった特徴点対応リストを選択
する(ステップT14)。この場合、図7(a)に示す
ワーク5の特徴点Piの位置と、図8(a)〜(f)に
示す種々の見え方パターンとの対比から、各画像特徴点
Qjを対応付けると、図7(b)に示すように、画像情
報として撮影画面上の画像特徴点Qjと対応する特徴点
Piとの対応関係が得られる。そして、以上のような対
応付けの結果に基づいて、ワーク5の見え方のパターン
を決定する。
Next, a set Q of image feature points Qj of the work 5 photographed by the camera 4 extracted by the image processing unit 7
A feature point correspondence list in which a correspondence between each image feature point Qj in (formula (1)) and a three-dimensional feature point Pi (see formula (4)) of the work 5 stored in advance is selected. (Step T14). In this case, when each image feature point Qj is associated with the position of the feature point Pi of the work 5 shown in FIG. 7A and the various appearance patterns shown in FIGS. 8A to 8F, As shown in FIG. 7B, the correspondence between the image feature point Qj on the shooting screen and the corresponding feature point Pi is obtained as the image information. Then, a pattern of how the work 5 looks is determined based on the result of the above association.

【0052】例えば、図8に示す見え方パターンの
(b)に相当する特徴点対応リストが得られた場合に
は、見え方パターン(b)の対応関係の範囲内で、例え
ば、図9(a)〜(c)に示すように、画像特徴点Qj
の位置が推定特徴点Qeiに対して小さく見える場合
(a)、偏って見える場合(b)、傾いて見える場合
(c)などの種々の状態が想定される。つまり、以下の
探索過程においては、図9(a)〜(c)などのよう
な、同じ見え方パターンの状態におけるワーク5の形状
のずれを探索することになるのである。
For example, when the feature point correspondence list corresponding to the appearance pattern (b) shown in FIG. 8 is obtained, the feature point correspondence list shown in FIG. a) to (c), the image feature points Qj
Various states are supposed, such as a case where the position appears small with respect to the estimated feature point Qei (a), a case where the position appears biased (b), and a case where the position appears inclined (c). In other words, in the following search process, a shift in the shape of the work 5 in the same appearance pattern state as shown in FIGS. 9A to 9C is searched.

【0053】続いて、誤差評価関数計算部14により、
対応関係が得られた画像特徴点Qjと前述の推定画像特
徴点Qeiの集合Qe(=P・M)との間の誤差評価関
数D(1,1)を計算する(ステップT15)。この場
合、誤差評価関数D(k,h)は、画像特徴点Qjと推
定画像特徴点Qeiとの間の距離の二乗誤差和に相当す
る値を計算するものである。
Subsequently, the error evaluation function calculator 14 calculates
An error evaluation function D (1,1) between the image feature point Qj for which the correspondence has been obtained and the set Qe (= P · M) of the estimated image feature points Qei is calculated (step T15). In this case, the error evaluation function D (k, h) calculates a value corresponding to the sum of square errors of the distance between the image feature point Qj and the estimated image feature point Qei.

【0054】続いて、ステップT16,T17を経て、
探索パラメータγを設定したパラメータ探索範囲内でそ
のパラメータ探索幅δ(1,1)の間隔で量子化された
各パラメータ探索点について上述のステップT11ない
しT15を繰り返し実行することにより探索過程を進め
る。
Subsequently, through steps T16 and T17,
The search process proceeds by repeatedly executing the above-described steps T11 to T15 for each parameter search point quantized at intervals of the parameter search width δ (1, 1) within the parameter search range in which the search parameter γ is set.

【0055】そして、得られた誤差評価関数の値D
(1,1)の最小値となる局所最適値Dmin (1,1)
に対応するパラメータ探索点における探索パラメータγ
の値に基づいて、このときのパラメータ探索範囲におけ
るパラメータ探索点をs(1,2)とするようになる
(ステップT18)。なお、この計算過程においては、
探索パラメータであるγの値以外にはパラメータθ,
φ,ρの値をパラメータ初期設定値のまま固定して行う
独立探索として実行するようになっている。
Then, the value D of the obtained error evaluation function is obtained.
Local optimal value Dmin (1, 1) which is the minimum value of (1, 1)
Search parameter γ at the parameter search point corresponding to
, The parameter search point in the parameter search range at this time is set to s (1, 2) (step T18). In this calculation process,
Other than the search parameter γ, the parameters θ and
The search is executed as an independent search in which the values of φ and ρ are fixed with the parameter initial setting values unchanged.

【0056】続いて、いま求めた位置姿勢のパラメータ
探索点s(1,2)を新たなパラメータ探索開始点とし
て、ステップT19,T20にて次の探索パラメータを
θ(h=2)に設定し、上述のステップT8ないしT1
7を繰り返すことにより、探索パラメータθについての
局所最適値Dmin (1,2)を計算する。
Subsequently, the next search parameter is set to θ (h = 2) in steps T19 and T20 using the parameter search point s (1,2) of the position and orientation just obtained as a new parameter search start point. , The above-described steps T8 to T1
7, the local optimum value Dmin (1,2) for the search parameter θ is calculated.

【0057】この場合、探索パラメータθの値は、θの
パラメータ探索範囲内でパラメータ探索幅をδ(1,
2)として量子化されたパラメータ探索点について上述
のステップT8ないしT17を実行することにより計算
される。そして、ステップT18にて探索パラメータθ
についての局所最適値Dmin (1,2)が得られると、
これに対応するパラメータ探索点をs(1,3)とす
る。
In this case, the value of the search parameter θ is such that the parameter search width is δ (1,1) within the parameter search range of θ.
The calculation is performed by performing the above-described steps T8 to T17 for the parameter search point quantized as 2). Then, in step T18, the search parameter θ
When the local optimal value Dmin (1,2) for is obtained,
The corresponding parameter search point is s (1,3).

【0058】以下、探索パラメータφおよびρについて
も、同様にして上述のステップT8〜T18を繰り返し
実行する。そして、探索パラメータφの局所最適値Dmi
n (1,4)に対するパラメータ探索点s(1,4)が
求められた後、探索パラメータρの局所最適値Dmin
(2,1)が求められると、このときのパラメータ探索
点s(2,1)は、すべての探索パラメータγ,θ,
φ,ρについて1回の局所最適値Dmin を求めたことに
なる。
Hereinafter, steps T8 to T18 described above are repeatedly executed for search parameters φ and ρ. And the local optimum value Dmi of the search parameter φ
After the parameter search point s (1,4) for n (1,4) is obtained, the local optimum value Dmin of the search parameter ρ
When (2,1) is obtained, the parameter search point s (2,1) at this time is determined by all search parameters γ, θ,
This means that one local optimum Dmin has been obtained for φ and ρ.

【0059】したがって、次にステップT19になる
と、こんどはステップT21に移行することになり、繰
り返し探索回数kの値が設定値Kに達するまでの間はス
テップT22に移行し、再び上述のステップT7〜T2
2の探索過程を繰り返すようになる。
Therefore, when the process goes to step T19, the process goes to step T21. The process goes to step T22 until the value of the number of repetition searches k reaches the set value K. ~ T2
Step 2 is repeated.

【0060】この場合、探索領域S(k)は、上述の探
索領域S(1)から新たな探索領域S(2)に設定され
るようになっている。つまり、各探索パラメータγ,
θ,φおよびρについて1回の探索過程を実行したこと
により、2回目には探索範囲を絞り込んでその範囲内で
精度を上げた狭い幅のパラメータ探索幅δ(2,h)を
設定することになるのである。
In this case, the search area S (k) is set from the search area S (1) to a new search area S (2). That is, each search parameter γ,
By executing one search process for θ, φ, and ρ, the search range is narrowed in the second time, and a narrow parameter search width δ (2, h) is set within the range. It becomes.

【0061】また、すべての探索パラメータγ,θ,
φ,ρについて順次1回の局所最適値Dmin (2,1)
として得られたパラメータ探索点s(2,1)を2回目
の探索過程におけるパラメータ探索開始点s(2,1)
として新たに設定して同様の計算処理を実行するように
なっている。したがって、各探索パラメータγ,θ,
φ,ρについて逐次的且つ独立に探索過程が実行され、
これを巡回的に所定回数K回繰り返すという計算が行わ
れるのである。
Further, all search parameters γ, θ,
One local optimum Dmin (2,1) for φ and ρ
The parameter search point s (2,1) obtained as s (2,1) is used as the parameter search start point s (2,1) in the second search process.
And a similar calculation process is executed. Therefore, each search parameter γ, θ,
The search process is performed sequentially and independently for φ and ρ,
A calculation is performed such that this is cyclically repeated a predetermined number of times K.

【0062】ところで、このような探索過程の概念を、
図10を用いて簡単に説明する。なお、本実施例におい
ては、位置姿勢ベクトルs〔γ,θ,φ,ρ〕が4個の
パラメータを持っているので、探索領域空間が4次元と
なって図示する上で無理が生ずるため、ここでは、便宜
的に位置姿勢ベクトルsを3個の探索パラメータθ,
φ,ρを有する位置姿勢ベクトルs〔θ,φ,ρ〕とし
て設定した場合を例にとって説明する。
By the way, the concept of such a search process is as follows:
This will be briefly described with reference to FIG. In the present embodiment, since the position and orientation vector s [γ, θ, φ, ρ] has four parameters, the search area space becomes four-dimensional, which is unreasonable in the drawing. Here, for convenience, the position and orientation vector s is set to three search parameters θ,
An example in which the position and orientation vector s [θ, φ, ρ] having φ and ρ is set will be described.

【0063】すなわち、図10においては、位置姿勢ベ
クトルs〔θ,φ,ρ〕の各探索パラメータθ,φ,ρ
をそれぞれ探索軸であるθ軸,φ軸,ρ軸とし、三次元
空間内で直交する座標軸として示している。また、この
座標系の原点をパラメータ探索開始点s(1,1)とす
る。
That is, in FIG. 10, each search parameter θ, φ, ρ of the position and orientation vector s [θ, φ, ρ]
Are the search axes θ axis, φ axis, and ρ axis, respectively, and are shown as coordinate axes orthogonal in a three-dimensional space. The origin of this coordinate system is defined as a parameter search start point s (1, 1).

【0064】そして、まず、探索パラメータφ,ρを初
期探索点の値のまま固定し、探索パラメータθについて
のみ独立に探索過程を実行してそのときの誤差評価値D
minが最小となるときの位置姿勢ベクトルのパラメータ
探索点s(1,2)を計算する。つまり、θ軸方向(図
中矢印(イ)で示す)に沿って所定のパラメータ探索幅
δ(1,1)で設定されたパラメータ探索点について誤
差評価値Dmin を求め、そのときの探索パラメータθの
値を用いた新たなパラメータ探索点s(1,2)を求め
て、1回目の探索パラメータθに対する独立探索を終了
する。
First, the search parameters φ and ρ are fixed at the values of the initial search points, and the search process is independently executed only for the search parameter θ to obtain the error evaluation value D at that time.
The parameter search point s (1,2) of the position and orientation vector when min becomes minimum is calculated. That is, an error evaluation value Dmin is obtained for a parameter search point set at a predetermined parameter search width δ (1, 1) along the θ-axis direction (indicated by an arrow (a) in the figure), and the search parameter θ at that time is obtained. A new parameter search point s (1,2) using the value of is obtained, and the first independent search for the search parameter θ is completed.

【0065】次に、いま得られたパラメータ探索点s
(1,2)をパラメータ探索開始点として探索パラメー
タφについて同様の探索過程を実行する。今度は、他の
探索パラメータθおよびρを固定した状態で探索パラメ
ータφのみをパラメータ探索幅δ(1,2)に応じて探
索過程を実行するのである。したがって、パラメータ探
索点s(1,2)を探索開始点としてφ軸に沿った方向
に探索を行うことになり(図中矢印(ロ)で示す)、所
定の探索範囲内で得られる局所最適値Dmin を求めてそ
のときの探索パラメータφの値を用いた新たなパラメー
タ探索点s(1,3)を求める。
Next, the parameter search point s obtained just now is
A similar search process is executed for search parameter φ using (1, 2) as a parameter search start point. This time, the search process is executed only for the search parameter φ in accordance with the parameter search width δ (1, 2) while the other search parameters θ and ρ are fixed. Therefore, the search is performed in the direction along the φ axis with the parameter search point s (1, 2) as the search start point (indicated by an arrow (b) in the figure), and the local optimum obtained within a predetermined search range is obtained. The value Dmin is obtained, and a new parameter search point s (1, 3) is obtained using the value of the search parameter φ at that time.

【0066】次に、同様のことを探索パラメータρにつ
いて実行すると、そのときに得られたパラメータ探索点
s(2,1)は2回目の探索過程におけるパラメータ探
索開始点となり、以下、このような探索過程をK回繰り
返し実行することにより、図中矢印(ハ)〜(ヘ)で示
すようにして順次パラメータ探索点s(k,h)が最適
値に向かって探索されて行き、最終的に得られるパラメ
ータ探索点s(K+1,1)が最適な位置姿勢ベクトル
s〔θ,φ,ρ〕を与える最適位置姿勢データとなる。
Next, when the same is performed for the search parameter ρ, the parameter search point s (2, 1) obtained at that time becomes the parameter search start point in the second search process. By repeatedly performing the search process K times, the parameter search points s (k, h) are sequentially searched for optimal values as shown by arrows (c) to (f) in the figure, and finally, The obtained parameter search point s (K + 1, 1) becomes the optimum position and orientation data that gives the optimum position and orientation vector s [θ, φ, ρ].

【0067】なお、上述のようにして各探索パラメータ
についての探索過程を1回実行すると、次の回に行われ
る探索過程においては、その探索範囲が絞り込まれるよ
うになる多重スケールとして巡回的に探索過程を実行す
ることができるので、この探索回数Kの値を大きく設定
するほど、検出精度を向上させることができるようにな
って、目標検出精度を高くすることができる。
When the search process for each search parameter is executed once as described above, in the next search process, the search range is narrowed cyclically as a multiple scale. Since the process can be executed, the detection accuracy can be improved and the target detection accuracy can be increased as the value of the number of searches K is set larger.

【0068】さて、上述のようにして繰り返し回数Kだ
け(例えばK=5)上述のステップT7〜T22を繰り
返し実行すると、ステップT21を経てステップT23
に移行するようになる。ここで、最適値決定部15は、
最終的に得られたパラメータ探索点s(6,1)に対す
る局所最適値Dmin の値が目標となる誤差精度εよりも
小さいか否かを判定し、この条件を満たしている場合に
は、このときのパラメータ探索点s(6,1)に対応す
る位置姿勢ベクトルs〔γ,θ,φ,ρ〕および姿勢パ
ラメータとしてステップT5で計算した値αおよびβを
最適位置姿勢データとして最終出力部16から出力する
ようになる(ステップT24)。
When the above-described steps T7 to T22 are repeatedly executed by the number of repetitions K (for example, K = 5) as described above, the process proceeds from step T21 to step T23.
Will be transferred to. Here, the optimal value determination unit 15
It is determined whether or not the value of the local optimum value Dmin for the finally obtained parameter search point s (6, 1) is smaller than the target error accuracy ε. The position / posture vector s [γ, θ, φ, ρ] corresponding to the parameter search point s (6, 1) at that time and the values α and β calculated in step T5 as posture parameters are output to the final output unit 16 as optimal position / posture data. (Step T24).

【0069】また、一連の探索過程が終了した結果、局
所最適値Dmin の値が誤差精度ε以上となってステップ
T23の条件を満たさない場合には、ステップT23か
らステップT25に進み、要求誤差精度εを満たす探索
点sが存在しないことをメッセージ出力した後、それま
での間に計算された局所最適値Dmin のなかから要求誤
差精度εに一番近い値が得られたパラメータ探索点s
(k,h)の位置姿勢ベクトルs〔γ,θ,φ,ρ〕の
値およびカメラ4の姿勢パラメータ(α,β)の値を新
たなパラメータ探索開始点として設定すると共に新たな
探索領域Sを設定してステップT6に戻り、上述と全く
同様にして探索過程を繰り返し実行するようになる。
If the value of the local optimum value Dmin is greater than or equal to the error accuracy ε and does not satisfy the condition of step T23 as a result of a series of search processes, the process proceeds from step T23 to step T25, where the required error accuracy After outputting a message that there is no search point s that satisfies ε, the parameter search point s for which a value closest to the required error precision ε was obtained from the local optimum values Dmin calculated up to that time.
The value of the position and orientation vector s [γ, θ, φ, ρ] of (k, h) and the value of the orientation parameter (α, β) of the camera 4 are set as new parameter search start points, and a new search area S Is set, the process returns to step T6, and the search process is repeatedly executed in the same manner as described above.

【0070】なお、上述のように探索過程を実行するこ
とにより、例えば、繰り返し回数kの値が最終回Kのと
きには最終目標検出精度εよりも小さいパラメータ探索
幅δを設定する必要があるが、それ以前の繰り返し回数
k(k<K)に対しては、そのときの検出精度に対応し
て目標検出精度よりも大きいパラメータ探索幅δを設定
することができ、これにより、探索の初期段階において
はパラメータ探索幅δを広い幅として概略的な位置姿勢
の計算を行うことにより迅速に探索領域を絞り込み、最
終段階でパラメータ探索幅δを目標検出精度となるよう
に設定することができるようになる。つまり、パラメー
タ探索幅を多重スケールとして探索過程を実行すること
ができるので、探索過程の計算時間を短縮した概略的な
計算を行いながら効率的に精度の高い計算処理を行うこ
とができる。
By executing the search process as described above, it is necessary to set a parameter search width δ smaller than the final target detection accuracy ε when the value of the number of repetitions k is the last K, for example. For the number of repetitions k (k <K) before that, a parameter search width δ larger than the target detection accuracy can be set in accordance with the detection accuracy at that time. Makes it possible to quickly narrow down the search area by roughly calculating the position and orientation by setting the parameter search width δ to a wide width, and to set the parameter search width δ to the target detection accuracy in the final stage. . In other words, since the search process can be executed with the parameter search width being a multiple scale, highly accurate calculation processing can be performed efficiently while performing a rough calculation in which the calculation time of the search process is reduced.

【0071】なお、発明者らの実験結果によると、この
ように多重スケールで探索過程を実行することにより、
繰り返し探索回数Kの値を「5」とした場合でも、検出
誤差精度を、距離精度±1.0mm、姿勢精度±0.5
°の位置姿勢決定に対して十分に対応できることがわか
り、高速且つ高精度でロバストに位置姿勢を認識するこ
とができることが確認されている。
According to the experimental results of the inventors, by executing the search process on multiple scales as described above,
Even when the value of the number of repetitive searches K is set to “5”, the detection error accuracy is set to the distance accuracy ± 1.0 mm and the posture accuracy ± 0.5.
It can be seen that it can sufficiently cope with the determination of the position and orientation of °, and it has been confirmed that the position and orientation can be robustly recognized with high speed and high accuracy.

【0072】このように本実施例においては、既知形状
の対象物体としての作業エリア2およびワーク5をカメ
ラ4により撮像してその画像情報から画像特徴点Qjを
抽出し、量子化した空間点を複数個有する空間探索領域
Scを設定すると共に、カメラ4の位置姿勢ベクトルs
〔γ,θ,φ,ρ〕を設定してワーク5をその探索点s
(k,h)において撮像したときに得られるべきワーク
5の推定画像特徴点Qeiを透視変換行列M(k,h)
を求めることにより計算し、それらの対応関係を求めて
誤差評価関数Dに対する局所最適値Dmin を計算して探
索パラメータごとに逐次的な独立探索を実行することを
繰り返し回数Kだけ繰り返し実行し、要求誤差精度εを
満たしたときの探索点sに対応する位置姿勢ベクトルs
〔γ,θ,φ,ρ〕および姿勢パラメータ(α,β)を
最適位置姿勢データとして出力するようにしたので、以
下のような効果を得ることができる。
As described above, in the present embodiment, the work area 2 and the work 5 as a target object having a known shape are imaged by the camera 4, image feature points Qj are extracted from the image information, and the quantized spatial points are extracted. A plurality of spatial search areas Sc are set, and the position and orientation vector s of the camera 4 is set.
[Γ, θ, φ, ρ] is set and the work 5 is moved to its search point s.
The estimated image feature point Qei of the work 5 to be obtained when the image is taken at (k, h) is transformed into a perspective transformation matrix M (k, h).
Is obtained by calculating the corresponding relationship, calculating the local optimum value Dmin for the error evaluation function D, and executing the sequential independent search for each search parameter by the number of repetitions K. Position and orientation vector s corresponding to search point s when error accuracy ε is satisfied
Since [γ, θ, φ, ρ] and the posture parameter (α, β) are output as optimal position / posture data, the following effects can be obtained.

【0073】すなわち、第1に、従来と異なり、特殊マ
ーカを設ける必要がなくなり、マーカ認識用の移動時間
が不要となって計算時間を短縮して高速化を図れる。第
2に、現在、明示的に解けていない透視変換行列の成分
からパラメータを算出する方法ではないので、明示的に
は解けるが計算量が膨大となる透視変換行列の最小二乗
推定を必要としないため、迅速に計算処理を実行でき
る。第3に、カメラ4の姿勢パラメータが未知の場合で
も適用できる。
First, unlike the related art, there is no need to provide a special marker, and no moving time for marker recognition is required, so that the calculation time can be reduced and the speed can be increased. Second, since it is not a method of calculating parameters from components of a perspective transformation matrix that is not explicitly solved at present, there is no need for least-squares estimation of a perspective transformation matrix that can be explicitly solved but requires a large amount of calculation. Therefore, calculation processing can be executed quickly. Third, the present invention can be applied even when the posture parameter of the camera 4 is unknown.

【0074】第4に、カメラ4の位置姿勢ベクトルs
〔γ,θ,φ,ρ〕を求めるための計算において、探索
パラメータ毎の逐次的独立探索を多重スケールで巡回的
に繰り返し実行することにより、少ない探索回数で最適
な位置姿勢を高精度且つロバストに認識することができ
るようになる。
Fourth, the position and orientation vector s of the camera 4
In the calculation for obtaining [γ, θ, φ, ρ], the sequential independent search for each search parameter is cyclically and repeatedly performed on multiple scales, so that the optimum position and orientation can be obtained with high accuracy and robustness with a small number of searches. Will be able to recognize.

【0075】第5に、透視変換行列Mの式(5)を式
(5C)のように単純化して実際の計算を行うので、式
(5)のままで計算する場合に比べて大幅な計算量の削
減を図れるので、演算速度の向上を図ることができる。
Fifth, since the actual calculation is performed by simplifying the expression (5) of the perspective transformation matrix M as shown in the expression (5C), a large calculation is performed as compared with the case where the calculation is performed without changing the expression (5). Since the amount can be reduced, the calculation speed can be improved.

【0076】なお、上記実施例においては、探索パラメ
ータγ,θ,φ,ρの探索順序をこの順番となるように
あらかじめ指定して逐次的独立探索過程を実行するよう
にしているが、これに限らず、ワーク5に対するカメラ
4の概略位置姿勢に応じて探索順序を柔軟に変更する機
能を設けても良い。つまり、例えば、距離rに対するパ
ラメータρが探索範囲を決定づける大きな要素となるよ
うな位置にある場合には、探索パラメータρを探索順序
の第1番目に指定するといったように、探索順序を決定
するための判断基準を設けておくことにより、さらに効
率的な探索過程を実行することができるのである。
In the above embodiment, the search order of the search parameters γ, θ, φ, and ρ is specified in advance so as to be in this order, and the sequential independent search process is executed. The present invention is not limited to this, and a function of flexibly changing the search order according to the approximate position and orientation of the camera 4 with respect to the workpiece 5 may be provided. That is, for example, if the parameter ρ with respect to the distance r is at a position that is a large element that determines the search range, the search order is determined such that the search parameter ρ is designated as the first search order. By setting the judgment criteria, it is possible to execute a more efficient search process.

【0077】図11は本発明の第2の実施例を示すもの
で、以下、第1の実施例と異なる部分について説明す
る。すなわち、このものは、第1の実施例において実行
されるプログラムの内容に加えて図11に示すステップ
を実行することにより、撮影画面上の原点計算に起因す
る測定誤差に対してロバスト性の向上を図ると共に認識
精度の向上を図るようにしたものである。
FIG. 11 shows a second embodiment of the present invention. Hereinafter, portions different from the first embodiment will be described. In other words, this embodiment improves the robustness against the measurement error caused by the calculation of the origin on the photographing screen by executing the steps shown in FIG. 11 in addition to the contents of the program executed in the first embodiment. And to improve the recognition accuracy.

【0078】第1の実施例においては、探索過程の初期
段階でカメラの姿勢パラメータであるαとβの値を画像
情報に基づいて設定し、これを既知データとして取り扱
うようにした。これは、探索すべき6個のパラメータ
α,β,γ,θ,φおよびρに対して実際の計算段階で
4個のパラメータに絞り込むことで演算量を低減して高
速化を図るようにしている。
In the first embodiment, the values of α and β, which are the posture parameters of the camera, are set based on the image information at the initial stage of the search process, and these are handled as known data. This is because the six parameters α, β, γ, θ, φ, and ρ to be searched are narrowed down to four parameters in the actual calculation stage to reduce the amount of calculation and increase the speed. I have.

【0079】しかし、この場合に、撮影画面の画像デー
タから抽出した対象物座標系原点の二次元座標に誤差が
含まれていると、初期設定として求めた姿勢パラメータ
α,βの値にも誤差が生じていることになる。したがっ
て、この初期設定に基づいて他の4個の探索パラメータ
の巡回独立探索を行う場合には、姿勢パラメータα,β
の探索精度を上回る高精度の位置姿勢認識が達成できな
くなる場合が生ずるのである。
However, in this case, if an error is included in the two-dimensional coordinates of the origin of the object coordinate system extracted from the image data of the photographing screen, the error also occurs in the values of the posture parameters α and β obtained as initial settings. Has occurred. Therefore, when performing the cyclic independent search for the other four search parameters based on this initial setting, the posture parameters α, β
In some cases, it becomes impossible to achieve high-accuracy position and orientation recognition that exceeds the search accuracy of the search.

【0080】そこで、この実施例では、上述の不具合を
解消しながら、しかも6個すべての位置姿勢パラメータ
を探索パラメータとして巡回独立探索過程を実行する場
合に比べて、演算量の増加分を最小限に止めて演算速度
の低下の防止を図るようにしている。
Therefore, in this embodiment, the above-mentioned disadvantages are eliminated, and the increase in the amount of calculation is minimized as compared with the case where the cyclic independent search process is performed using all six position and orientation parameters as search parameters. In order to prevent the calculation speed from decreasing.

【0081】まず、第1の実施例における探索過程を実
行するうちに、ステップT6が終了すると、続いて図1
1に示すステップT25を実行する。ここでは、繰り返
し探索回数kの値があらかじめ設定されたカメラ姿勢パ
ラメータα,βの探索開始回数m回以上となっているか
否かを判断する。ここで、「NO」と判断されたときに
は、そのままステップT7に移行して第1の実施例と同
様の探索過程を実施し、以後、繰り返して探索過程を実
行するうちに、このステップT25で「YES」と判断
されると、ステップT26に分岐するようになる。
First, during the search process in the first embodiment, when step T6 is completed,
Step T25 shown in FIG. Here, it is determined whether or not the value of the number k of repeated searches is equal to or more than the number m of times of starting the search for the preset camera posture parameters α and β. Here, when the determination is "NO", the process directly proceeds to step T7 to execute the same search process as in the first embodiment, and thereafter, while repeatedly executing the search process, the process proceeds to step T25. If "YES" is determined, the process branches to step T26.

【0082】すなわち、ステップT26にて探索パラメ
ータとしての姿勢パラメータα,βの探索幅を設定し、
ステップT27に進むと姿勢パラメータβの探索を実行
し、続いてステップT28にて姿勢パラメータαの探索
を実行し、この後、ステップT7に戻って第1の実施例
と同様にして以降のステップにおける探索過程を実行す
る。この場合、探索回数が大きくなるにしたがってステ
ップT26における探索幅の設定値は細かい値となり、
探索精度が高くなるようにしている。
That is, in step T26, the search width of the posture parameters α and β as the search parameters is set,
When the process proceeds to step T27, a search for the posture parameter β is performed, and subsequently, a search for the posture parameter α is performed in step T28, and thereafter, the process returns to step T7 and proceeds to the subsequent steps in the same manner as in the first embodiment. Perform the search process. In this case, as the number of searches increases, the set value of the search width in step T26 becomes smaller,
The search accuracy is increased.

【0083】したがって、このような第2の本実施例に
よれば、第1の実施例における効果に加えて、初期段階
で撮影画面上の原点Opに基づいて求めたカメラ姿勢パ
ラメータα,βの値を探索過程の後半段階で探索パラメ
ータに加えて探索過程を実行するようにしたので、初期
段階で撮影画像原点座標Opデータに含まれる検出誤差
によるカメラ姿勢パラメータα,βの初期値の誤差を修
正することができ、探索過程の後半段階での実質的な検
出精度をより向上させることができるようになる。ま
た、探索過程の前半段階から全てのパラメータについて
探索を実行する場合に比べて演算速度の低下を招くこと
なく検出精度の向上を図ることができるものである。
Therefore, according to the second embodiment, in addition to the effects of the first embodiment, the camera posture parameters α and β obtained based on the origin Op on the photographing screen at the initial stage are obtained. Since the search process is executed by adding the values to the search parameters in the latter half of the search process, the errors in the initial values of the camera posture parameters α and β due to the detection errors included in the captured image origin coordinate Op data in the initial stage. This can be corrected, and the actual detection accuracy in the latter half of the search process can be further improved. Further, compared with the case where the search is executed for all parameters from the first half of the search process, the detection accuracy can be improved without lowering the calculation speed.

【0084】なお、発明者らは、上述の場合に、繰り返
し探索回数Kの値を第1の実施例における回数5回より
もさらに多くした12回に設定して高精度の探索を実施
し、この場合に、カメラ姿勢パラメータα,βの探索開
始回数mを7回として実施した場合に、高精度で良好な
結果が得られることがわかった。
Note that, in the above case, the inventors set the value of the number of repetitive searches K to 12 times, which is more than the number of times 5 in the first embodiment, and performed a highly accurate search. In this case, it has been found that when the number m of search start times of the camera posture parameters α and β is set to seven, good results can be obtained with high accuracy.

【0085】この場合、繰り返し探索回数Kの値を大き
く設定することは、一般的に検出精度の向上となる反
面、探索時間が長くなるという制約を受けることになる
ので、実際には要求される検出精度と探索時間との兼ね
合いで繰り返し探索回数を設定することになる。そこ
で、短時間での検出精度向上が要求される場合には、本
実施例における探索過程が有効な方法となるものであ
る。
In this case, setting the value of the number of times K of repetitive search to a large value generally increases the detection accuracy, but on the other hand, restricts the search time to be long. The number of repetitive searches is set in consideration of the detection accuracy and the search time. Therefore, when it is required to improve detection accuracy in a short time, the search process in the present embodiment is an effective method.

【0086】なお、上記第2の実施例においては、繰り
返し探索回数Kを12回とし、カメラ姿勢パラメータ
α,βの探索開始回数mを7回として実験した場合につ
いて説明したが、これに限らず、繰り返し探索回数Kお
よび探索開始回数m(K>m>2)の値は検出精度と探
索時間との兼ね合いで適宜の値に設定することができる
ものである。
In the above-described second embodiment, a case has been described in which the number of repetitive searches K is set to 12 and the number of searches m for starting the camera attitude parameters α and β is set to 7 in an experiment. However, the present invention is not limited to this. , The number of repetitive searches K and the number of searches start m (K>m> 2) can be set to appropriate values in consideration of detection accuracy and search time.

【0087】[0087]

【発明の効果】以上説明したように、本発明によれば、
次のような効果を得ることができる。すなわち、請求項
1記載の視覚に基く三次元位置および姿勢の認識方法に
おいては、撮像手段により撮影された対象物体の画像信
号入力に対し、画像処理ステップにおいて二次元の画像
特徴点を抽出し、空間探索領域設定ステップにおいて外
部情報等に基づいた撮像手段と対象物体との概略的な推
定距離に応じて必要な計算精度に対応する密度の量子化
空間点を有する空間探索領域を設定し、探索パラメータ
設定ステップにおいてパラメータ探索値の初期値,探索
点,探索範囲を設定する。
As described above, according to the present invention,
The following effects can be obtained. That is, in the method for recognizing a three-dimensional position and orientation based on vision according to claim 1, a two-dimensional image feature point is extracted in an image processing step with respect to an image signal input of a target object photographed by an imaging unit. In the spatial search area setting step, a spatial search area having a quantized spatial point having a density corresponding to a required calculation accuracy is set according to a rough estimated distance between the imaging means and the target object based on external information or the like, and the search is performed. In the parameter setting step, an initial value of a parameter search value, a search point, and a search range are set.

【0088】そして、透視変換行列計算ステップにおい
て二次元の推定画像特徴点を算出するための透視変換行
列を計算すると共に、透視変換計算ステップにおいて対
象物体の二次元の推定画像特徴点を算出し、誤差計算ス
テップにおいて画像特徴点と推定画像特徴点との対応関
係を求めてそれらの間の評価誤差値を誤差評価関数に基
いて計算し、局所最適パラメータ計算ステップおよび最
適位置姿勢データ決定ステップにおいて、あらかじめ指
定された順序で前記複数のパラメータのすべてについて
局所最適パラメータの逐次的独立探索を実行させ、これ
を所定回数繰り返すことにより、位置姿勢ベクトルの複
数のパラメータとして決定するようにした。
Then, in the perspective transformation matrix calculation step, a perspective transformation matrix for calculating a two-dimensional estimated image feature point is calculated, and in the perspective transformation calculation step, a two-dimensional estimated image feature point of the target object is calculated. In the error calculation step, the correspondence between the image feature point and the estimated image feature point is obtained, and the evaluation error value between them is calculated based on the error evaluation function.In the local optimum parameter calculation step and the optimum position / posture data determination step, The local independent parameters are sequentially and independently searched for all of the plurality of parameters in a predetermined order, and the search is repeated a predetermined number of times to determine the plurality of parameters of the position and orientation vector.

【0089】これにより、撮像手段の位置姿勢を複数の
パラメータで表した位置姿勢ベクトルに対して、それぞ
れのパラメータを逐次独立して探索することを多重スケ
ールで巡回的に所定回数だけ実施することができ、少な
い探索回数で高速且つ高精度でロバストに撮像手段の位
置姿勢を認識できるという優れた効果を奏する。
Thus, for the position and orientation vector representing the position and orientation of the image pickup means by a plurality of parameters, it is possible to repeatedly and independently search for each of the parameters a predetermined number of times on a multiple scale. This provides an excellent effect that the position and orientation of the imaging means can be recognized robustly at high speed and with high accuracy with a small number of searches.

【0090】請求項2記載の視覚に基く三次元位置と姿
勢の認識装置によれば、上述の各処理ステップを実行す
る手段を備えているので、少ない探索回数でありながら
高速且つ高精度でロバストに撮像手段の位置姿勢を認識
できるという優れた効果を奏する。
According to the apparatus for recognizing a three-dimensional position and orientation based on vision according to the second aspect of the present invention, since the means for executing each of the above-mentioned processing steps is provided, it is possible to achieve high-speed and high-accuracy robustness despite a small number of searches. This has an excellent effect that the position and orientation of the image pickup means can be recognized.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の第1の実施例を示す概略的なブロック
構成図
FIG. 1 is a schematic block diagram showing a first embodiment of the present invention.

【図2】自律移動ロボットと作業エリアとの位置関係を
示す図
FIG. 2 is a diagram showing a positional relationship between an autonomous mobile robot and a work area.

【図3】プロセスの流れを概略的に説明するためのフロ
ーチャート
FIG. 3 is a flowchart for schematically explaining a process flow;

【図4】透視変換行列を計算するための座標軸の関係を
示す説明図
FIG. 4 is an explanatory diagram showing a relationship between coordinate axes for calculating a perspective transformation matrix.

【図5】撮影画面上のワークとカメラの姿勢パラメータ
との関係を示す説明図
FIG. 5 is an explanatory diagram showing a relationship between a work on a shooting screen and a posture parameter of a camera.

【図6】絶対座標軸とカメラおよび撮影画面の座標軸と
の関係を示す説明図
FIG. 6 is an explanatory diagram showing a relationship between absolute coordinate axes and coordinate axes of a camera and a photographing screen.

【図7】(a)作業エリアおよびワークの特徴点の定義
と(b)画像信号による画像特徴点との対応関係を示す
作用説明図
FIG. 7A is an operation explanatory view showing a correspondence relationship between (a) the definition of the feature points of the work area and the work and (b) the image feature points by the image signal.

【図8】ワークの種々の見え方パターンFIG. 8: Various appearance patterns of a workpiece

【図9】ひとつの見え方パターンにおける異なる見え方
の状態の説明図
FIG. 9 is an explanatory diagram of states of different appearances in one appearance pattern.

【図10】探索過程の概念的な説明図FIG. 10 is a conceptual explanatory diagram of a search process.

【図11】本発明の第2の実施例を示すプロセスの流れ
を概略的に説明するためのフローチャートの追加ステッ
プ説明図
FIG. 11 is an explanatory diagram showing additional steps of a flowchart for schematically explaining a process flow according to the second embodiment of the present invention;

【符号の説明】[Explanation of symbols]

1は自律移動ロボット、4はカメラ(撮像手段)、5は
ワーク(対象物体)、7は画像処理部(画像処理手
段)、8は前処理計算部、9は特徴点抽出部、10は量
子化空間探索部、11は探索領域決定部(探索領域設定
手段)、12は透視変換行列計算部(透視変換行列計算
手段)、13は透視変換部(透視変換計算手段)、14
は誤差評価関数計算部(誤差計算手段)、15は最適値
決定部(局所最適パラメータ計算手段、最適位置姿勢デ
ータ決定手段)、16は最終出力部、17はメモリ(記
憶手段)、18は外部位置情報出力部である。
1 is an autonomous mobile robot, 4 is a camera (imaging means), 5 is a work (target object), 7 is an image processing unit (image processing means), 8 is a pre-processing calculation unit, 9 is a feature point extraction unit, 10 is a quantum A space search unit, 11 is a search area determination unit (search area setting means), 12 is a perspective transformation matrix calculation unit (perspective transformation matrix calculation means), 13 is a perspective transformation unit (perspective transformation calculation means), 14
Is an error evaluation function calculation unit (error calculation means), 15 is an optimum value determination unit (local optimum parameter calculation means, optimum position and orientation data determination means), 16 is a final output unit, 17 is a memory (storage means), and 18 is an external unit. It is a position information output unit.

フロントページの続き (72)発明者 小南 哲也 愛知県刈谷市昭和町1丁目1番地 日本 電装株式会社内 (58)調査した分野(Int.Cl.6,DB名) G01B 11/00 - 11/30 B25J 19/04 G05B 19/19 G05D 3/12Continuation of front page (72) Inventor Tetsuya Konan 1-1-1 Showa-cho, Kariya-shi, Aichi Japan Inside Denso Co., Ltd. (58) Field surveyed (Int. Cl. 6 , DB name) G01B 11/00-11/30 B25J 19/04 G05B 19/19 G05D 3/12

Claims (2)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 形状を示す三次元絶対座標が既知である
対象物体を撮像手段により撮影したときの画像信号に基
いてその対象物体の形状の特徴を示す二次元の画像特徴
点を抽出する画像処理ステップと、 前記対象物体に対する前記撮像手段の位置姿勢を示す複
数のパラメータを探索パラメータとし、外部情報により
与えられる推定距離に応じたパラメータ探索開始点を設
定すると共にその推定距離に応じたパラメータ探索幅で
量子化したパラメータ探索点を有する空間探索領域を設
定する探索領域設定ステップと、 この探索領域設定ステップにて設定された前記空間探索
領域のパラメータ探索点で決まる位置から前記撮像手段
により前記対象物体を撮影したときに得られるべき二次
元の推定画像特徴点を算出するための透視変換行列を、
あらかじめ記憶手段に記憶された前記対象物体の三次元
絶対座標に対する前記パラメータ探索点の推定位置と前
記撮像手段のパラメータ探索開始点とに基いて計算する
透視変換行列計算ステップと、 この透視変換行列計算ステップにて求められた前記透視
変換行列を用いて前記パラメータ探索点における前記対
象物体の二次元の前記推定画像特徴点を算出する透視変
換計算ステップと、 前記画像処理ステップにて抽出された前記対象物体の二
次元の画像特徴点と前記透視変換計算ステップにて算出
された二次元の前記推定画像特徴点との対応関係を求め
ると共に、それら対応関係が得られた画像特徴点と推定
画像特徴点との間の適合度を示す評価誤差値を所定の誤
差評価関数に基いて計算する誤差計算ステップと、 前記複数の探索パラメータのうちの指定された探索パラ
メータに対して前記探索領域内で、前記各推定画像特徴
点に対する画像特徴点の評価誤差値が最小となるような
前記パラメータ探索点を局所最適パラメータとして求め
て、あらたにパラメータ探索点として設定する局所最適
パラメータ計算ステップと、 この局所最適パラメータ計算ステップを、あらかじめ指
定された順序で前記複数のパラメータのすべてについて
逐次実行すると共に、これを所定回数繰り返して実行
し、そのときの前記評価誤差値が所定の要求誤差精度よ
りも小さいときに、得られた複数のパラメータ探索値を
前記位置姿勢ベクトルの複数のパラメータとして決定す
る最適位置姿勢データ決定ステップとを有することを特
徴とする視覚に基く三次元位置および姿勢の認識方法。
1. An image for extracting a two-dimensional image feature point indicating a feature of a shape of a target object based on an image signal obtained by photographing the target object of which the three-dimensional absolute coordinate indicating the shape is known by an imaging unit. Processing step, a plurality of parameters indicating the position and orientation of the imaging unit with respect to the target object are set as search parameters, a parameter search start point is set according to an estimated distance given by external information, and a parameter search is performed according to the estimated distance. A search area setting step of setting a spatial search area having a parameter search point quantized by a width; and the object by the imaging means from a position determined by the parameter search point of the space search area set in the search area setting step. A perspective transformation matrix for calculating a two-dimensional estimated image feature point to be obtained when shooting the object,
Calculating a perspective transformation matrix based on an estimated position of the parameter search point with respect to the three-dimensional absolute coordinates of the target object stored in advance in the storage means and a parameter search start point of the imaging means; A perspective transformation calculation step of calculating the two-dimensional estimated image feature point of the target object at the parameter search point using the perspective transformation matrix obtained in the step, and the object extracted in the image processing step The correspondence between the two-dimensional image feature point of the object and the two-dimensional estimated image feature point calculated in the perspective transformation calculation step is obtained, and the image feature point and the estimated image feature point from which the correspondence is obtained. An error calculation step of calculating an evaluation error value indicating a degree of conformity between the plurality of search parameters based on a predetermined error evaluation function. In the search area for the specified search parameter, the parameter search point that minimizes the evaluation error value of the image feature point for each of the estimated image feature points is obtained as a local optimum parameter, and A local optimal parameter calculating step to be set as a parameter search point, and sequentially executing the local optimal parameter calculating step for all of the plurality of parameters in a predetermined order, and repeatedly executing the predetermined number of times. And determining an obtained plurality of parameter search values as a plurality of parameters of the position and orientation vector when the evaluation error value is smaller than a predetermined required error accuracy. A three-dimensional position and orientation recognition method based on vision.
【請求項2】 画像信号を出力する撮像手段と、 対象物体の形状を示す三次元絶対座標データおよび探索
順序を指定するデータが記憶された記憶手段と、 前記撮像手段により前記対象物体を撮影したときの画像
信号に基いてその対象物体の形状の特徴を示す二次元の
画像特徴点を抽出する画像処理手段と、 前記対象物体に対する前記撮像手段の位置姿勢を示す複
数のパラメータを探索パラメータとし、外部情報により
与えられる推定距離に応じたパラメータ探索開始点を設
定すると共にその推定距離に応じたパラメータ探索幅で
量子化したパラメータ探索点を有する空間探索領域を設
定する探索領域設定手段と、 この探索領域設定手段により設定された前記空間探索領
域のパラメータ探索点で決まる位置から前記撮像手段に
より前記対象物体を撮影したときに得られるべき二次元
の推定画像特徴点を算出するための透視変換行列を、あ
らかじめ記憶手段に記憶された前記対象物体の三次元絶
対座標に対する前記量子化空間点の推定位置と前記撮像
手段の初期探索パラメータとに基いて計算する透視変換
行列計算手段と、 この透視変換行列計算手段により求められた前記透視変
換行列を用いて前記パラメータ探索点における前記対象
物体の二次元の前記推定画像特徴点を算出する透視変換
計算手段と、 前記画像処理手段により抽出された前記対象物体の二次
元の画像特徴点と前記透視変換計算手段により算出され
た二次元の前記推定画像特徴点との間の対応関係を求め
ると共に、それら対応関係が得られた画像特徴点と推定
画像特徴点との間の適合度を示す評価誤差値を所定の誤
差評価関数に基いて計算する誤差計算手段と、 前記複数の探索パラメータのうちの指定された探索パラ
メータに対して前記探索領域内で、前記各推定画像特徴
点に対する画像特徴点の評価誤差値が最小となるような
前記パラメータ探索点を局所最適パラメータとして求め
て、あらたにパラメータ探索点として設定する局所最適
パラメータ計算手段と、 この局所最適パラメータ計算手段による計算処理を、あ
らかじめ指定された順序で前記複数のパラメータのすべ
てについて逐次実行すると共に、これを所定回数繰り返
して実行し、そのときの前記評価誤差値が所定の要求誤
差精度よりも小さいときに、得られた複数のパラメータ
探索値を前記位置姿勢ベクトルの複数のパラメータとし
て決定する最適位置姿勢データ決定手段とを有すること
を特徴とする視覚に基く三次元位置および姿勢の認識装
置。
2. An image pickup means for outputting an image signal; a storage means for storing three-dimensional absolute coordinate data indicating a shape of a target object and data for specifying a search order; Image processing means for extracting a two-dimensional image feature point indicating a feature of the shape of the target object based on the image signal at the time, a plurality of parameters indicating the position and orientation of the imaging means with respect to the target object as search parameters, Search area setting means for setting a parameter search start point according to an estimated distance given by external information and setting a spatial search area having a parameter search point quantized with a parameter search width according to the estimated distance; The object is set by the imaging unit from a position determined by a parameter search point of the space search area set by the area setting unit. A perspective transformation matrix for calculating a two-dimensional estimated image feature point to be obtained when capturing the image, the estimated position of the quantized space point with respect to the three-dimensional absolute coordinates of the target object stored in advance in the storage means. A perspective transformation matrix calculating means for calculating based on an initial search parameter of the imaging means; andthe two-dimensional object of the target object at the parameter search point using the perspective transformation matrix obtained by the perspective transformation matrix calculating means. A perspective transformation calculating unit that calculates an estimated image feature point; a two-dimensional image feature point of the target object extracted by the image processing unit; and a two-dimensional estimated image feature point calculated by the perspective transformation calculation unit. And the evaluation error value indicating the degree of conformity between the image feature point from which the correspondence is obtained and the estimated image feature point is determined by a predetermined error. An error calculating means for calculating based on a valence function, wherein an evaluation error value of an image feature point with respect to each of the estimated image feature points is minimized in the search area for a specified search parameter of the plurality of search parameters. A local optimum parameter calculating means for obtaining the parameter search point as a local optimum parameter and setting the parameter search point as a new parameter search point; and performing the calculation processing by the local optimum parameter calculating means in a predetermined order. Are sequentially executed for all of the parameters, and this is repeatedly executed a predetermined number of times. When the evaluation error value at that time is smaller than a predetermined required error accuracy, the obtained plurality of parameter search values are converted to the position and orientation. And an optimal position and orientation data determining means for determining as a plurality of parameters of the vector. A three-dimensional position and posture recognition device based on the visual sense of the sign.
JP27922393A 1993-03-08 1993-11-09 Three-dimensional position and posture recognition method based on vision and three-dimensional position and posture recognition device based on vision Expired - Fee Related JP2778430B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP27922393A JP2778430B2 (en) 1993-10-01 1993-11-09 Three-dimensional position and posture recognition method based on vision and three-dimensional position and posture recognition device based on vision
US08/206,828 US5499306A (en) 1993-03-08 1994-03-07 Position-and-attitude recognition method and apparatus by use of image pickup means

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP5-247229 1993-10-01
JP24722993 1993-10-01
JP27922393A JP2778430B2 (en) 1993-10-01 1993-11-09 Three-dimensional position and posture recognition method based on vision and three-dimensional position and posture recognition device based on vision

Publications (2)

Publication Number Publication Date
JPH07146121A JPH07146121A (en) 1995-06-06
JP2778430B2 true JP2778430B2 (en) 1998-07-23

Family

ID=26538154

Family Applications (1)

Application Number Title Priority Date Filing Date
JP27922393A Expired - Fee Related JP2778430B2 (en) 1993-03-08 1993-11-09 Three-dimensional position and posture recognition method based on vision and three-dimensional position and posture recognition device based on vision

Country Status (1)

Country Link
JP (1) JP2778430B2 (en)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6633664B1 (en) 1999-05-11 2003-10-14 Nippon Telegraph And Telephone Corporation Three-dimensional structure acquisition method, apparatus and computer readable medium
JP4540329B2 (en) * 2003-07-11 2010-09-08 オリンパス株式会社 Information presentation device
JP4773794B2 (en) * 2005-10-19 2011-09-14 株式会社岩根研究所 New and old video coordinate integration device
JP4926598B2 (en) * 2006-08-08 2012-05-09 キヤノン株式会社 Information processing method and information processing apparatus
JP4741691B2 (en) * 2009-06-15 2011-08-03 ファナック株式会社 Robot system with robot abnormality monitoring function
JP5331047B2 (en) * 2010-04-01 2013-10-30 日本電信電話株式会社 Imaging parameter determination method, imaging parameter determination device, imaging parameter determination program
CN109146957B (en) * 2018-08-14 2020-09-25 河南工程学院 Robot vision control method based on triangular features
JP2020046187A (en) * 2018-09-14 2020-03-26 クモノスコーポレーション株式会社 Measurement data calibration method for three-dimensional laser light scanning device
JP7093881B1 (en) * 2021-09-06 2022-06-30 Dmg森精機株式会社 System and automatic guided vehicle

Also Published As

Publication number Publication date
JPH07146121A (en) 1995-06-06

Similar Documents

Publication Publication Date Title
US11668571B2 (en) Simultaneous localization and mapping (SLAM) using dual event cameras
CN110116407B (en) Flexible robot position and posture measuring method and device
US7283661B2 (en) Image processing apparatus
CN108381549B (en) Binocular vision guide robot rapid grabbing method and device and storage medium
CN111476841B (en) Point cloud and image-based identification and positioning method and system
CN112747750B (en) Positioning method based on monocular vision odometer and IMU fusion
CN111754579A (en) Method and device for determining external parameters of multi-view camera
CN113379849A (en) Robot autonomous recognition intelligent grabbing method and system based on depth camera
JP2730457B2 (en) Three-dimensional position and posture recognition method based on vision and three-dimensional position and posture recognition device based on vision
JP2778430B2 (en) Three-dimensional position and posture recognition method based on vision and three-dimensional position and posture recognition device based on vision
CN114596382A (en) Binocular vision SLAM method and system based on panoramic camera
CN110068824B (en) Sensor pose determining method and device
JP2024502523A (en) Location method and apparatus, computer equipment, and computer readable storage medium
JP2003136465A (en) Three-dimensional position and posture decision method of detection target object and visual sensor of robot
Devy et al. Camera calibration from multiple views of a 2D object, using a global nonlinear minimization method
JP3326851B2 (en) Method and apparatus for recognizing three-dimensional position and orientation based on vision
CN109459046B (en) Positioning and navigation method of suspension type underwater autonomous vehicle
JP3208900B2 (en) Method and apparatus for recognizing three-dimensional position and orientation based on vision
WO2020010625A1 (en) Method and system for optimizing kinematic model of robot, and storage device.
CN114972491A (en) Visual SLAM method, electronic device, storage medium and product
Huang et al. Methods on visual positioning based on basketball shooting direction standardisation
CN114821113A (en) Monocular vision inertia SLAM method and system based on adaptive robust kernel
Motai et al. SmartView: hand-eye robotic calibration for active viewpoint generation and object grasping
JP2005186193A (en) Calibration method and three-dimensional position measuring method for robot
CN114119885A (en) Image feature point matching method, device and system and map construction method and system

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees