JP2562047B2 - Position and orientation recognition method of target object - Google Patents

Position and orientation recognition method of target object

Info

Publication number
JP2562047B2
JP2562047B2 JP63320575A JP32057588A JP2562047B2 JP 2562047 B2 JP2562047 B2 JP 2562047B2 JP 63320575 A JP63320575 A JP 63320575A JP 32057588 A JP32057588 A JP 32057588A JP 2562047 B2 JP2562047 B2 JP 2562047B2
Authority
JP
Japan
Prior art keywords
target object
image
points
feature
teaching
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP63320575A
Other languages
Japanese (ja)
Other versions
JPH02167410A (en
Inventor
雅昭 安本
正英 平井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nachi Fujikoshi Corp
Original Assignee
Fujikoshi KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujikoshi KK filed Critical Fujikoshi KK
Priority to JP63320575A priority Critical patent/JP2562047B2/en
Publication of JPH02167410A publication Critical patent/JPH02167410A/en
Application granted granted Critical
Publication of JP2562047B2 publication Critical patent/JP2562047B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)

Description

【発明の詳細な説明】 (産業上の利用分野) 本発明は、ITVカメラなどで撮影された画像から、画
像処理装置を用いて画像内の対象物体の位置や傾きを認
識する方法に関し、特に複数の特徴点について、これら
の幾何学的特徴量が相互に等しいものが存在する場合の
認識方法に関するものである。
Description: TECHNICAL FIELD The present invention relates to a method for recognizing the position or inclination of a target object in an image using an image processing device from an image captured by an ITV camera or the like, and more particularly, The present invention relates to a recognition method when a plurality of geometric points have geometrical features equal to each other.

(従来の技術) ロボットなどを用いた自動化生産ラインなどでは、組
立や搬送をロボットが行うケースが最近増加しつつあ
る。ところが、ロボット自身は、決められた位置におい
てある対象物体に対して作業を行うもので、このために
は対象物体をあらかじめ位置決めしておかなければなら
ない。常に同じ物体に対して作業を行う場合は、機械的
な位置決め装置を設ければ良いが、対象物体の形状など
が変化する場合は、位置決め装置が複雑になり、コスト
が高くなってしまう。これに対して、最近は視覚センサ
を用いて、対象物体の位置や傾きを画像処理の手法を用
いて認識し、この位置に対してロボットが作業を行う方
式が採用され始めている。
(Prior Art) In automated production lines using robots and the like, cases in which robots perform assembly and transportation are increasing recently. However, the robot itself works on a certain target object at a predetermined position, and for this purpose, the target object must be positioned in advance. When always working on the same object, a mechanical positioning device may be provided, but when the shape of the target object changes, the positioning device becomes complicated and the cost increases. On the other hand, recently, a method in which a visual sensor is used to recognize the position and inclination of a target object using an image processing method, and a robot works at this position has begun to be adopted.

第6図は視覚センサを用いたロボット用位置認識装置
の模式図である。41はロボット、42はロボットの制御装
置、43は対象物体を撮影するカメラ、44はカメラで撮影
された画像を処理し、対象物体の位置や傾きを計測する
視覚センサ、45は作業テーブル、46は対象物体である。
この図を用いて簡単に視覚センサによる位置認識方法を
説明する。
FIG. 6 is a schematic view of a robot position recognition device using a visual sensor. 41 is a robot, 42 is a control device for the robot, 43 is a camera for capturing the target object, 44 is a visual sensor for processing the image captured by the camera and measuring the position and inclination of the target object, 45 is a work table, 46 Is the target object.
A position recognition method using a visual sensor will be briefly described with reference to this drawing.

まず、対象物体46が作業テーブル45におかれると、カ
メラ43で対象物体を撮影し、その画像を視覚センサ44の
画像メモリに記憶させる。第7図は視覚センサで撮影し
た画像の一例である。51は対象物体、52はカメラで撮影
された画像の境界である。通常、入力画像を明るい領域
と暗い領域の2値画像に変換して処理を行う。第7図の
斜線部は、対象物体の映像で、明るい領域となってい
る。視覚センサは、この画像から、対象物体の位置や傾
きを計算する。対象物体の位置や傾きは、画像の明るい
領域の面積、重心、周囲長などの幾何学的特徴量を計算
することにより得ることができる。例えば、位置は撮影
された画像の重心位置を計算すれば良い。また、傾きは
図のような長方形の場合は、慣性主軸の傾きを計算すれ
ばよい。このようにしていま置かれている対象物体の位
置、傾きなどを視覚センサで認識した後、ロボットにそ
のデータを教える。一般的には、第7図に示されている
破線53の位置に対象物体がある場合において、ロボット
が作業するようにあらかじめ教示されているため、視覚
センサからロボットに与えられるデータは、教示位置か
らの移動量となる。従って、ロボットは視覚センサから
教えられた移動量だけ座標をシフトして、作業を行う。
First, when the target object 46 is placed on the work table 45, the camera 43 photographs the target object and stores the image in the image memory of the visual sensor 44. FIG. 7 is an example of an image taken by the visual sensor. Reference numeral 51 is a target object, and 52 is a boundary between images captured by the camera. Normally, the input image is converted into a binary image of a bright area and a dark area and processed. The shaded area in FIG. 7 is a bright area in the image of the target object. The visual sensor calculates the position and inclination of the target object from this image. The position and inclination of the target object can be obtained by calculating geometrical feature quantities such as the area, center of gravity, and perimeter of the bright area of the image. For example, the position may be calculated by calculating the position of the center of gravity of the captured image. If the inclination is a rectangle as shown in the figure, the inclination of the principal axis of inertia may be calculated. In this way, after recognizing the position, inclination, etc. of the target object currently placed by the visual sensor, the robot is informed of the data. Generally, when the target object is located at the position of the broken line 53 shown in FIG. 7, the robot is taught to work in advance, so the data given to the robot from the visual sensor is the teaching position. It is the movement amount from. Therefore, the robot shifts the coordinates by the movement amount taught by the visual sensor to perform the work.

このように、視覚センサで対象物体の位置を計測し
て、そのデータにもとづきロボットが作業を行う方法を
使用すると、カメラで撮影する範囲を超えた位置に対象
物体が置かれない限り位置決め装置などが不要となるか
ら、システムが簡単になる。さらに、対象物体の種類や
外形形状が変わる場合は、ロボットを同時に視覚センサ
を教示するだけで対処できるので、新たな設備投資が不
要となるなど、FAに適した製造ラインを構成することが
できる。
In this way, using the method in which the position of the target object is measured with the visual sensor and the robot performs work based on the data, if the target object is not placed at a position beyond the range captured by the camera, a positioning device etc. The system is simple because it is unnecessary. Furthermore, when the type or external shape of the target object changes, it can be handled by simply teaching the robot the visual sensor at the same time, so new equipment investment becomes unnecessary, and a manufacturing line suitable for FA can be configured. .

しかし、以上説明した方法は、比較的簡単な外形形状
を持つ対象物体には有効であるが、対象物体の外形形状
が複雑なものについては、視覚センサが誤認識する可能
性が高くなるという問題があった。
However, the method described above is effective for a target object having a relatively simple outer shape, but if the outer shape of the target object is complicated, there is a high possibility that the visual sensor will erroneously recognize it. was there.

そこで、特開昭63−44103号公報では、対象物体の撮
影画像から対象物体の特徴点を複数個抽出し、この特徴
点相互間の位置と距離とから当該対象物体の位置及び姿
勢を認識する位置姿勢認識装置が開示されている。この
装置によれば、抽出された被測定物画像の特徴点の位置
に基づいて、これら特徴点間相互の全て置の組合わせに
おける距離を算出し、この被測定物画像の各特徴点間相
互の距離がマスター画像の各特徴点間相互の距離にほぼ
一致していると思われる何組かの組合わせ候補(特徴点
候補)を選択し、この選択された被測定物画像の特徴点
候補についてのみマスター画像の特徴点の位置データと
順次比較し、対象物体の位置及び姿勢を求めるようにし
ているので、対象物体の外形形状が複雑なものについて
も高精度の認識が可能になるとされている。
Therefore, in Japanese Patent Laid-Open No. 63-44103, a plurality of feature points of the target object are extracted from the captured image of the target object, and the position and orientation of the target object are recognized from the positions and distances between the feature points. A position / orientation recognition device is disclosed. According to this device, based on the positions of the feature points of the extracted object image, the distances in all combinations of these feature points are calculated, and the feature points of the object image Of several candidate combinations (feature point candidates) that are considered to have a distance substantially equal to the mutual distance between the feature points of the master image, and select the feature point candidates of the selected object image to be measured. Only the position of the target image is sequentially compared with the position data of the feature points of the master image to determine the position and orientation of the target object, so it is possible to recognize with high accuracy even if the outer shape of the target object is complicated. There is.

(発明が解決しようとする課題) しかし、この方法は、特徴点候補を抽出する際に特徴
点間相互の全ての組合わせにおける距離を算出している
ので、特徴点の数が多い場合は特徴点間相互の組合わせ
数が非常に多くなり、その結果特徴点候補を抽出する際
のデータ処理量が多くなり全体の演算時間も長くなると
いう問題がある。また、処理されるデータの量が多くな
ると、近似する位置データや距離データが多くなるの
で、比較処理において許容誤差を設定している場合は、
許容誤差を小さく設定しなければならなくなるが、許容
誤差を極端に小さく設定すると、比較処理の演算時間が
長くなったり、場合によっては該当データなしと誤判定
されてしまうことも起こりうる。逆に、抽出される特徴
点の数が少なすぎると高精度の認識ができなくなる。し
たがって、この方法では、高速かつ高精度の認識を行わ
せるためには抽出する特徴点の数を適正に選択しなけれ
ばならないことになるが、様々な外形形状の対象物体の
認識を想定した場合、対象物体毎に適正な特徴点の数を
選択することは容易ではない。
(Problem to be Solved by the Invention) However, since this method calculates the distances in all combinations between feature points when extracting feature point candidates, the feature is calculated when the number of feature points is large. There is a problem in that the number of combinations of points is very large, resulting in a large amount of data processing when extracting feature point candidates and a long overall calculation time. Further, when the amount of data to be processed increases, the approximate position data and distance data also increase. Therefore, when the allowable error is set in the comparison process,
Although it is necessary to set the allowable error small, if the allowable error is set extremely small, the calculation time of the comparison process may become long, and in some cases, it may be erroneously determined that there is no corresponding data. On the contrary, if the number of extracted feature points is too small, high-precision recognition cannot be performed. Therefore, in this method, it is necessary to properly select the number of feature points to be extracted in order to perform recognition with high speed and high accuracy. It is not easy to select an appropriate number of feature points for each target object.

本発明の目的は、特に幾何学的特徴量が相互に等しい
特徴点が多数存在する場合の対象物体の認識方法におい
て、特徴点候補の抽出にかかる演算時間を短縮し、かつ
正確に対象物体の位置や傾きを認識するための対象物体
の位置姿勢認識方法を提供することにある。
An object of the present invention is to reduce the calculation time required for extracting feature point candidates in a method of recognizing a target object when there are a large number of feature points whose geometric feature amounts are equal to each other, and to accurately calculate the target object. It is to provide a position / orientation recognition method of a target object for recognizing a position or an inclination.

(課題を解決するための手段) このため本発明は、特許請求の範囲記載の対象物体の
位置姿勢認識方法を提供することにより、上述の従来技
術の課題を解決した。
(Means for Solving the Problems) Therefore, the present invention has solved the above-mentioned problems of the conventional art by providing a method for recognizing the position and orientation of a target object described in the claims.

(作用) 以下、本発明の作用について説明する。本発明は、マ
スターとなる対象物体を撮影したマスター画像と被測定
物となる対象物体を撮影した被測定物画像のそれぞれの
特徴点の幾何学的特徴量と位置関係データを比較するこ
とにより、被測定物となる対象物体の位置がロボットに
教え込まれた対象物体の教示位置に対してどれだけシフ
トしているかを算出し、ロボットが対象物体に対して正
確に位置決めできるようにしたものである。
(Operation) Hereinafter, the operation of the present invention will be described. The present invention, by comparing the geometrical characteristic amount and the positional relationship data of the respective feature points of the master image obtained by photographing the master target object and the measured object image obtained by photographing the target object becoming the measured object, It calculates how much the position of the target object to be measured is shifted with respect to the taught position of the target object taught to the robot so that the robot can accurately position with respect to the target object. is there.

その手順は、第1に、被測定物画像のそれぞれの特徴
点がマスター画像のどの特徴点に対応するものであるか
を特定する。まず、画像処理が施されたマスター画像に
対して複数の特徴点を教示し、この教示された複数の特
徴点即ち教示点のそれぞれについて幾何学的特徴量とし
ての各教示点の面積及び重心と位置関係データとしての
各教示点間の距離及び傾きが算出される。また、算出さ
れた幾何学的特徴量及び位置関係データには許容誤差が
設定される。次に、被測定物となる対象物体を撮影した
被測定物画像に対して、マスター画像と同様の画像処理
が施され、抽出された複数の特徴点のそれぞれについて
幾何学的特徴量としての各特徴点の面積及び重心と位置
関係データとしての各特徴点間の距離及び傾きが算出さ
れる。さらに、被測定物画像の全ての特徴点に対して、
前述のマスター画像の教示点の幾何学的特徴量の許容誤
差の範囲に含まれる特徴点即ち特徴点候補が抽出され、
この抽出された被測定物画像の特徴点候補の位置関係デ
ータとマスター画像の教示点の位置関係データを比較す
ることにより、マスター画像のそれぞれの教示点に対応
する被測定物画像の特徴点が特徴点候補の中から特定さ
れる。
The procedure firstly identifies which feature point of the master image each feature point of the DUT image corresponds to. First, a plurality of feature points are taught to the image-processed master image, and the area and the center of gravity of each taught point as a geometric feature amount are calculated for each of the plurality of taught feature points, that is, the taught points. The distance and inclination between each teaching point as the positional relationship data are calculated. In addition, a permissible error is set for the calculated geometrical characteristic amount and the positional relationship data. Next, an image of the object to be measured, which is an object to be measured, is subjected to the same image processing as that of the master image, and each of a plurality of extracted feature points is used as a geometrical feature amount. The area and the center of gravity of the feature points and the distance and the slope between the feature points as the positional relationship data are calculated. Furthermore, for all feature points of the DUT image,
The feature points, ie, feature point candidates included in the allowable error range of the geometric feature amount of the teaching point of the above-mentioned master image are extracted,
By comparing the extracted positional relationship data of the feature point candidates of the measured object image with the positional relationship data of the taught points of the master image, the characteristic points of the measured object image corresponding to the respective taught points of the master image are determined. It is specified from the feature point candidates.

第2に、特定された被測定物画像の特徴点とこれに対
応するマスター画像の教示点のそれぞれの幾何学的特徴
量及び位置関係データを比較することにより、被測定物
画像の対象物体の位置がマスター画像の対象物体の位置
に対してどれだけシフトしているかが算出される。ロボ
ットに教え込まれた対象物体の教示位置がマスター画像
の対象物体の位置を基準にしたものであるとすれば、算
出されたシフト量を補正量としてロボットの制御装置に
入力されるようにすることで、ロボットを対象物体に対
して正確に位置決めすることが可能となる。
Secondly, by comparing the geometric feature amounts and the positional relationship data of the specified feature points of the measured object image and the corresponding teaching points of the master image, the target object of the measured object image is compared. It is calculated how much the position is shifted with respect to the position of the target object in the master image. If the taught position of the target object taught to the robot is based on the position of the target object in the master image, the calculated shift amount is input to the robot controller as a correction amount. As a result, the robot can be accurately positioned with respect to the target object.

(実施例) 本発明につき図面を参照しながら説明する。第1図
は、対象物体の一例である。この対象物体1は、外形形
状が複雑で、また内部に複数の組立用の穴が設けられて
いる。斜線部は対象物体1の表面で、次に説明する画像
の2値化が容易なように、光沢があるものとする。ま
ず、この対象物体1をカメラで撮影して、視覚センサの
画像メモリに記憶する。この時視覚センサでは、処理速
度の高速化と画像メモリの節約のためカメラから入力さ
れた画像信号を2値化した後、画像メモリに記憶する。
2値化とは、入力信号のある明るさを閾値(2値化レベ
ル)として、これより暗い部分を黒、明るい部分を白の
2値(黒と白)に変換する処理である。2値化レベルを
最適な値に設定すると、画像メモリの内容は、第2図の
ようになる。ここで、2はカメラで撮影された範囲を表
し、この範囲が画像処理の対象となっている。なお、入
力画像の処理範囲を限定するウィンドウというものが画
像処理ではよく使用されるが、2をこのウィンドウとし
てもよい。第1図の対象物体1の表面は光沢があるの
で、2値化した画像では、斜線部が白く、背景や複数の
穴11〜19が黒くなっている。対象物体1の画像には、合
計9個の穴11〜19が設けられており、穴11〜19が対象物
体1の特徴を表している。そこで、穴11〜19を形状的に
特徴がある部分即ち特徴点として、画像処理による認識
の対象とする。
(Example) The present invention will be described with reference to the drawings. FIG. 1 is an example of a target object. The target object 1 has a complicated outer shape and has a plurality of holes for assembly therein. The shaded area is the surface of the target object 1 and is glossy so as to facilitate the binarization of the image described below. First, the target object 1 is photographed by the camera and stored in the image memory of the visual sensor. At this time, in the visual sensor, the image signal input from the camera is binarized and then stored in the image memory in order to increase the processing speed and save the image memory.
The binarization is a process in which a certain brightness of an input signal is used as a threshold value (binarization level) and a darker portion is converted into a black value and a brighter portion is converted into a white value (black and white). When the binarization level is set to the optimum value, the contents of the image memory are as shown in FIG. Here, 2 represents the range photographed by the camera, and this range is the target of image processing. Although a window for limiting the processing range of the input image is often used in image processing, 2 may be used as this window. Since the surface of the target object 1 in FIG. 1 is glossy, in the binarized image, the hatched portion is white and the background and the plurality of holes 11 to 19 are black. The image of the target object 1 is provided with nine holes 11 to 19 in total, and the holes 11 to 19 represent the characteristics of the target object 1. Therefore, the holes 11 to 19 are made to be targets for recognition by image processing, as portions having characteristic features in shape, that is, feature points.

ここで、第2図の画像を用いて、特徴点としての各穴
の抽出方法と、抽出された各穴の幾何学的特徴量及び位
置関係データについて説明する。
Here, the method of extracting each hole as a feature point and the geometric feature amount and positional relationship data of each extracted hole will be described using the image of FIG.

対象物体1に設けられている9個の穴11〜19の抽出に
は、既に公知となっているパーツ認識方法を利用すれば
よい。これは、2値化画像に対して、白画素の領域と黒
画素の領域に分類して、黒画素の領域に囲まれた白画素
の領域を1つのパーツと認識するものである。第1図に
おいては各穴が黒画素の領域となるので、白画素の領域
と黒画素の領域を逆に認識するような方法を用いれば、
白画素の領域となる各穴を認識することができる。
To extract the nine holes 11 to 19 provided in the target object 1, a known part recognition method may be used. This is to classify a binarized image into a white pixel region and a black pixel region, and recognize a white pixel region surrounded by a black pixel region as one part. In FIG. 1, since each hole is a black pixel area, if a method of recognizing the white pixel area and the black pixel area in reverse is used,
It is possible to recognize each hole that is a white pixel area.

各穴の幾何学的特徴量は各穴の重心及び面積とする。
重心はその穴の位置を表し、面積は穴の大きさを表して
いる。さらに、各穴の長径も短径も同時に計算させてお
くと長径と短径の比から真円に近いものだけを抽出でき
るため、本実施例のように認識対象となる穴が真円の場
合は不要なものをあらかじめ除去しておくことができ
る。ここで、各穴に対する重心、面積をGi、Siとし、こ
のデータの組を各穴に対する幾何学的特徴量Fiとする。
なお、iは各穴に対応する仮の番号で1から9の値をと
る。例えば、第2図の穴11では、幾何学的特徴量F1、重
心G1、面積S1となる。同様に、12から19までの各穴につ
いてF2からF9の幾何学的特徴量を割り当てる。
The geometric feature amount of each hole is the center of gravity and area of each hole.
The center of gravity represents the position of the hole, and the area represents the size of the hole. Further, if the major axis and the minor axis of each hole are calculated at the same time, only the one close to a perfect circle can be extracted from the ratio of the major axis and the minor axis, so that when the hole to be recognized is a perfect circle as in this embodiment. Can remove unnecessary things in advance. Here, the center of gravity and area of each hole are Gi and Si, and the set of this data is the geometrical feature amount Fi of each hole.
It should be noted that i is a temporary number corresponding to each hole and takes a value from 1 to 9. For example, the hole 11 in FIG. 2 has a geometrical feature amount F1, a center of gravity G1, and an area S1. Similarly, the geometric features F2 to F9 are assigned to each of the holes 12 to 19.

穴同士の位置関係データは穴同士の距離及び穴同士の
方向とする。ここで、穴同士の距離は、例えば各穴の重
心間の距離として算出すればよい。方向は、例えば画像
処理画面の水平方向に対する角度で計算する。i番目の
穴とj番目の穴の距離、方向をそれぞれLij、θijとす
ると、例えば、1番目の穴11と9番目の穴19の位置関係
データは、第3図に示すように、距離がL19、方向がθ1
9となる。以上説明した例では、i、jの範囲は1から
9までであるから、その組合せは81(=9×9)通りあ
るが、例えば距離Lijと距離Ljiは等価となるので、実際
には36通りのデータの組(Lij、θij)となる。ここ
で、距離Lij、方向θijの組を位置関係データPijとす
る。
The positional relationship data between the holes is the distance between the holes and the direction between the holes. Here, the distance between the holes may be calculated, for example, as the distance between the centers of gravity of the holes. The direction is calculated, for example, as an angle with respect to the horizontal direction of the image processing screen. Assuming that the distance and the direction of the i-th hole and the j-th hole are Lij and θij, for example, the positional relationship data of the first hole 11 and the ninth hole 19 are as shown in FIG. L19, direction θ1
Will be 9. In the example described above, the range of i and j is from 1 to 9, so there are 81 (= 9 × 9) combinations, but for example, the distance Lij and the distance Lji are equivalent, so in practice 36 It becomes a set of data (Lij, θij). Here, the set of the distance Lij and the direction θij is the positional relationship data Pij.

さて、対象物体の位置を認識するためには、予め対象
物体の基準位置を計算しておかなければならない。そこ
で、通常は、視覚センサにおいて、ティーチング、ある
いは教示というものを実行する。これはマスターとなる
対象物体を一度撮影しておき、このマスター画像に対し
て画像処理を施し、抽出された複数の穴を特徴点として
幾何学的特徴量及び位置関係データを計算する。この
時、抽出された9個の穴全てについて幾何学的特徴量及
び位置関係データを計算しておく必要はない。例えば、
第4図に示すように、特徴点としての9個の穴の中から
5個の穴を教示点として教示対象に選ぶ。そして、この
教示点としての5個の各穴に対する幾何学的特徴量及び
位置関係データのみを計算し記憶しておく。第4図に示
すように、穴19を教示番号1番21、穴11を教示番号2番
22、穴18を教示番号3番23、穴13を教示番号4番24、穴
17を教示番号5番25とし、第2図に示す残りの4つの穴
12、14、15、16は教示対象から除外する。なお、教示対
象とする穴の数は、各穴の幾何学的特徴量に依存し、対
象物体を特定できればよく、従って5個に限らない。例
えば、第2図に示す対象物体1では、穴11,14,18のそれ
ぞれの面積は等しく、穴12,13,15,16,17のそれぞれの面
積も等しいので、各穴の幾何学的特徴量を面積とした場
合は、面積を等しくする穴の各グループの中から最低1
個以上の穴を教示点として選べばよい。また、教示対象
とする穴の教示順序に制限はないが、教示順序を規則的
に選ぶことにより演算効率を向上させ認識時間の短縮を
図ることができる。ここで、マスターとなる対象物体の
幾何学的特徴量、位置関係データをそれぞれFk′、Pk
l′とする。また、位置関係データPkl′のうち、距離、
方向はそれぞれLkl′、θkl′とする。kは、マスター
となる対象物体で教示された各穴の番号で、この例では
教示する穴の数を5個としたので、k、lの範囲は1か
ら5の整数となる。
Now, in order to recognize the position of the target object, the reference position of the target object must be calculated in advance. Therefore, usually, teaching or teaching is executed in the visual sensor. In this method, a target object serving as a master is photographed once, image processing is performed on the master image, and geometrical feature quantities and positional relationship data are calculated using a plurality of extracted holes as feature points. At this time, it is not necessary to calculate the geometrical characteristic amount and the positional relationship data for all the nine extracted holes. For example,
As shown in FIG. 4, five holes are selected as teaching points as teaching points from nine holes as feature points. Then, only the geometric feature amount and the positional relationship data for each of the five holes as the teaching points are calculated and stored. As shown in Fig. 4, hole 19 is teaching number 1 and hole 11 is teaching number 2.
22, hole 18 is teaching number 3 23, hole 13 is teaching number 4 24, hole
No. 17 is teaching number 5 to 25, and the remaining four holes shown in Fig. 2
12, 14, 15, and 16 are excluded from teaching targets. Note that the number of holes to be taught depends on the geometric feature amount of each hole as long as the target object can be specified, and is not limited to five. For example, in the target object 1 shown in FIG. 2, since the areas of the holes 11, 14, 18 are the same and the areas of the holes 12, 13, 15, 16, 17 are also the same, the geometric features of the holes are If the quantity is the area, at least 1 must be selected from each group of holes that make the area equal.
It suffices to select more than one hole as the teaching point. Further, although there is no limitation on the teaching order of the holes to be taught, it is possible to improve the calculation efficiency and shorten the recognition time by regularly selecting the teaching order. Here, the geometrical feature amount and the positional relationship data of the master target object are Fk ′ and Pk, respectively.
l '. Also, of the positional relationship data Pkl ′, the distance,
The directions are Lkl 'and θkl', respectively. k is the number of each hole taught by the target object to be the master. Since the number of holes to be taught is 5 in this example, the range of k and l is an integer from 1 to 5.

次に、実際に認識すべき被測定物となる対象物体を撮
影して、この被測定物画像に対して画像処理を施し、抽
出された全ての穴に対する幾何学的特徴量及び位置関係
データを計算する。第5図は被測定物となる対象物体の
2値化画像の例である。算出された各穴の幾何学的特徴
量及び位置関係データを先に記述したようにそれぞれF
i、Pijとする。この例では、抽出された穴の数は9個と
なるので、i、jの範囲は1から9となる。なお、第5
図に示すように、被測定物となる対象物体はマスターと
なる対象物体に対して傾いて置かれているために、穴を
認識する順序は第2図の場合とは異なっており、認識さ
れた穴の番号は画面右上から左下に向かって規則的に
からまでの記号で設定する。
Next, an object to be measured that is to be actually recognized is photographed, image processing is performed on this measured object image, and geometrical feature amounts and positional relationship data for all the extracted holes are obtained. calculate. FIG. 5 is an example of a binarized image of the target object that is the measured object. As described above, the calculated geometrical feature amount and positional relationship data of each hole are F
Let i and Pij. In this example, the number of extracted holes is nine, so the range of i and j is 1 to 9. The fifth
As shown in the figure, since the target object to be measured is placed at an angle with respect to the master target object, the order of recognizing holes is different from that in the case of FIG. The number of the hole is set from the upper right of the screen to the lower left with symbols from to.

次に、前述のマスターとなる対象物体の教示点として
の穴の幾何学的特徴量及び位置関係データと、被測定物
となる対象物体の特徴点としての穴の幾何学的特徴量及
び位置関係データを比較し、マスターとなる対象物体の
各穴(第4図に示す穴21〜25)が被測定物となる対象物
体の各穴(第5図に示す穴〜)のどれと対応してい
るかを順に特定していく。特定していく方法にはいろい
ろあるが、ここでは演算効率の良い特定方法について説
明する。
Next, the geometrical feature amount and positional relationship data of the hole as the teaching point of the target object to be the master, and the geometrical characteristic amount and positional relationship of the hole as the feature point of the target object to be the measured object. By comparing the data, the holes of the master target object (holes 21 to 25 shown in FIG. 4) correspond to which of the holes of the target object to be measured (holes shown in FIG. 5). I will identify in order. Although there are various methods of specifying, here, a method of specifying with high calculation efficiency will be described.

まず、被測定物となる対象物体の各穴の幾何学的特徴
量Fiとしての面積Siについてのみ注目する。すなわち、
予めマスターとなる対象物体で算出された教示点として
の各穴の幾何学的特徴量Fk′の面積Siについてその許容
誤差を設けておき、被測定物となる対象物体の特徴量と
しての各穴の幾何学的特徴Fiがこの許容誤差の範囲内に
該当するか否かでクラス分けする。このようにマスター
となる対象物体の教示点毎にクラス分けされた被測定物
となる対象物体の特徴点を特徴点候補と呼ぶ。この結
果、穴の面積において明らかに他とは大きさが異なる穴
がこの時点で特定されることになる。例えば、第5図の
穴は明らかに他の穴と大きさが異なるため、第4図で
教示された教示番号1番21に分類される。次に第5図の
穴、、は第4図の教示番号2番22と3番23の双方
の穴に該当するため、両方の教示番号に分類される。ま
た、第5図の残りの穴、、、、は、第4図の
教示番号4番24と5番25の双方の穴に該当するため、両
方の教示番号に分類される。これを表に表すと次のよう
になる。
First, only the area Si as the geometric feature amount Fi of each hole of the target object to be measured is focused. That is,
The permissible error is set in advance for the area Si of the geometrical feature amount Fk ′ of each hole as the teaching point calculated in the master target object, and each hole as the feature amount of the target object to be measured is set. The geometrical feature Fi of is classified into the classes according to whether or not it falls within the range of this tolerance. In this way, the characteristic points of the target object, which is the object to be measured, which are divided into classes for each teaching point of the master target object, are called characteristic point candidates. As a result, a hole whose size is obviously different from that of the others is specified at this point. For example, the hole in FIG. 5 is obviously different in size from other holes, and is therefore classified as teaching number 1-21 taught in FIG. Next, the holes in FIG. 5 correspond to both the teaching numbers 2 22 and 3 23 in FIG. 4, so they are classified into both teaching numbers. Further, since the remaining holes in FIG. 5 correspond to both of the teaching numbers 4 24 and 5 25 in FIG. 4, they are classified into both teaching numbers. This is shown in the table below.

教示番号 分類番号 1 2 ,, 3 ,, 4 ,,,, 5 ,,,, これで、被測定物となる対象物体の全ての穴がマスタ
ーとなる対象物体で教示された穴に分類されたことにな
る。
Teaching number Classification number 1 2, 3, 3, 4, 4, 5, 5 ... All holes in the target object to be measured are now classified as the holes taught by the target object to be the master. It will be.

次に、分類された各穴に対して、位置関係データPij
を用いることにより各穴を特定していく。
Next, for each classified hole, the positional relationship data Pij
Each hole is specified by using.

まず、教示番号1番に分類された穴はのみであるか
ら、この穴は特定されたことになる。即ち、第5図の穴
は第4図の穴21に特定された。
First, since only the hole classified as the teaching number 1 is, this hole has been specified. That is, the hole in FIG. 5 was identified as the hole 21 in FIG.

次に、教示番号2番に分類された穴を特定する。既に
特定された穴と教示番号2番に分類された穴、、
とのそれぞれの距離L16、L46、L67を、教示番号1番2
1の穴と2番22の穴との距離L12′と比較し、最も値が近
いものを選び出す。この場合、教示番号1番21と2番22
の穴との距離L12′と最も値が近いのは、穴と穴と
の距離L46なので、第5図の穴は第4図の穴22に特定
された。これでとの穴が特定された。
Next, the hole classified into teaching number 2 is specified. Holes that have already been identified and classified into teaching number 2,
Distance L16, L46, L67 for each and teaching number 1 2
Compare the distance L12 'between the 1st hole and the 2nd 22nd hole and select the one with the closest value. In this case, teaching numbers 1-21 and 2-22
Since the distance L12 'from the hole is closest to the distance L46 from hole to hole, the hole in FIG. 5 is specified as the hole 22 in FIG. The holes in and are now identified.

次に、教示番号3番に分類された穴を特定する。既に
穴は特定されているので、穴とについて、同様
に、既に特定された穴とのそれぞれの距離L14、L47
を、教示番号2番22の穴と3番23の穴との距離L23′と
比較し、最も値が近いものを選び出す。この場合、教示
番号2番22の穴と3番23の穴との距離L23′と最も値が
近いのは、穴と穴との距離L47なので、第5図の穴
は第4図の穴23に特定された。
Next, the hole classified into teaching number 3 is specified. Since the hole has already been specified, with respect to the hole, similarly, the respective distances L14 and L47 from the already specified hole are similarly set.
Is compared with the distance L23 'between the hole with teaching number 2-22 and the hole with number 3-23, and the one with the closest value is selected. In this case, the distance L23 'between the hole numbered 22 and the numbered hole 23 is closest to the distance L47 between the holes. Therefore, the hole in FIG. 5 is the hole 23 in FIG. Was identified by.

次に、上記番号4番に分類された5つの穴、、
、、から1つを特定する。教示番号3番の場合と
同様に、穴、、、、と穴とのそれぞれの距
離L27、L37、L57、L78、L79を、教示番号3番23の穴と
4番24の穴との距離L34′と比較し、最も値が近いもの
を選び出す。この場合、教示番号3番23の穴と4番24の
穴との距離L34′と最も値が近いのは、穴と穴との
距離L27と、穴と穴との距離L79となり、穴とが
該当する。このように該当する候補が2種類以上ある場
合は、さらに教示番号5番25の穴に該当する穴を調べ
る。即ち、穴を教示番号4番24の穴と特定した場合
は、穴、、、と穴とのそれぞれの距離L29、L
39、L59、L89を、教示番号4番24の穴と5番25の穴との
距離L45′と比較し、最も値が近いものを選び出す。と
ころが、いずれの場合も該当するものが見つからないの
で、教示番号4番に特定した穴が間違っていることが
わかる。そこで、先ほど教示番号4番のもう一つの候補
となっていた穴について同様の比較を行う。即ち、穴
を教示番号4番24の穴と特定した場合は、穴、、
、と穴とのそれぞれの距離L23、L25、L28、L29
を、教示番号4番24の穴と5番25の穴との距離L45′と
比較し、最も値が近いものを選び出す。この場合、教示
番号4番24の穴と5番25の穴との距離L45′と最も値が
近いのは、穴と穴との距離L29なので、第5図の穴
は第4図の穴25に特定された。さらに、教示番号4番
に対応する穴は穴となり、すべての穴の特定が終了す
る。これを表に表すと次のようになる。
Next, 5 holes classified as No. 4 above,
,,, to identify one. As in the case of teaching number 3, the distances L27, L37, L57, L78, and L79 between the holes ,,, and are respectively the distance L34 between the holes of teaching number 3 23 and the number 4 24. ′ And select the one with the closest value. In this case, the distance L34 'between the hole number 3-23 and the hole number 4-24 is closest to the distance L27 between holes and the distance L79 between holes. Applicable In the case where there are two or more applicable candidates in this way, the hole corresponding to the hole of teaching number 5-25 is further investigated. That is, when the hole is identified as the hole of teaching number 4 to 24, the distances L29, L between the holes ,,, and, respectively.
39, L59, L89 are compared with the distance L45 'between the holes of teaching numbers 4-24 and 5-25 and the closest one is selected. However, in any case, since the corresponding one is not found, it can be understood that the hole specified as the teaching number 4 is wrong. Therefore, the same comparison is made with respect to the hole that was another candidate of the teaching number 4 earlier. That is, if the hole is identified as the hole with teaching number 4 to 24, the hole is ...
, And the distance between each hole L23, L25, L28, L29
Is compared with the distance L45 'between the hole number 4-24 and the hole number 5-25, and the one with the closest value is selected. In this case, the distance L45 'between the hole number 4-24 and the hole number 525 is closest to the distance L29 between the holes, so the hole in FIG. 5 is the hole 25 in FIG. Was identified by. Further, the hole corresponding to the teaching number 4 becomes a hole, and the identification of all holes is completed. This is shown in the table below.

教示番号 分類番号 1 2 3 4 5 なお、候補を特定していく過程において、比較値が最
も近いものを選んでいったが、実際の対象物体は加工誤
差などにより教示通りの位置関係データが得られない場
合がある。そこで、各距離データにも許容範囲を設定し
ておき、この範囲内にあるものを複数候補選んでおき、
最後に、全ての誤差の合計が最も小さいパターンを特定
してもよい。
Teaching number Classification number 1 2 3 4 5 In the process of specifying candidates, the one with the closest comparison value was selected, but the actual target object has the positional relationship data as taught due to processing errors. It may not be possible. Therefore, set an allowable range for each distance data, and select multiple candidates within this range,
Finally, the pattern with the smallest sum of all errors may be identified.

また、対象物体が左右対象の場合は、被測定物となる
対象物体とマスターとなる対象物体のそれぞれの距離Li
j、Lkl′だけでは、一義的に穴を特定できない場合が発
生する。この場合は、距離Lij、Lkl′に加え、被測定物
となる対象物体とマスターとなる対象物体のそれぞれの
方向θij、θkl′を併用するとよい。
If the target object is a left-right object, the distance between the target object to be measured and the master target object is Li
In some cases, the hole cannot be uniquely identified only by j and Lkl ′. In this case, in addition to the distances Lij and Lkl ′, the directions θij and θkl ′ of the target object to be measured and the target object to be the master may be used together.

以上で、マスターとなる対象物体の教示点として選ん
だ各穴が、被測定物となる対象物体のどの穴(特徴点)
に対応しているかが特定できたので、次に、被測定物と
なる対象物体の位置及び傾きが、マスターとなる対象物
体の位置及び傾きに対して、どれだけシフトしているか
を計算する。
As described above, each hole selected as the teaching point of the master target object is a hole (feature point) of the target object which is the DUT.
Since it can be specified that the position and the inclination of the target object to be measured are shifted with respect to the position and the inclination of the target object to be the master, it is calculated.

まず、マスターとなる対象物体に対する被測定物とな
る対象物体の位置のシフト量は、例えば、マスターとな
る対象物体の教示番号1番21の穴の幾何学的特徴量F1′
の中の重心座標G1′と、この穴に対応すると特定された
被測定物となる対象物体の穴の幾何学的特徴量F6の重
心座標G6との差を算出することにより求める。即ち、重
心座標は通常X座標とY座標で与えられているので、両
重心座標のX座標およびY座標の差を計算すれば、被測
定物となる対象物体の位置がマスターとなる対象物体の
位置に対して、X方向にΔXだけ、Y方向にΔYだけシ
フトしていることがわかる。
First, the shift amount of the position of the target object to be measured with respect to the master target object is, for example, the geometrical feature amount F1 ′ of the hole of teaching number 1-21 of the master target object.
Is calculated by calculating the difference between the barycentric coordinate G1 ′ in G and the barycentric coordinate G6 of the geometrical feature F6 of the hole of the target object which is the object to be measured and is specified to correspond to this hole. That is, since the barycentric coordinates are usually given by X and Y coordinates, if the difference between the X and Y coordinates of both barycentric coordinates is calculated, the position of the target object to be measured is the position of the master target object. It can be seen that the position is shifted by ΔX in the X direction and by ΔY in the Y direction.

次に、マスターとなる対象物体に対する被測定物とな
る対象物体の傾きのシフト量は、例えば、教示番号1番
21の穴と2番22の穴との位置関係データP12′の中の傾
きθ12′と、教示番号1番21の穴、2番22の穴のそれぞ
れに対応すると特定された穴、の位置関係データP4
6の中の傾きθ46との差を算出することにより求める。
これにより、被測定物となる対象物体の傾きがマスター
となる対象物体の傾きに対して、Δθだけシフトしてい
ることがわかる。
Next, the shift amount of the inclination of the target object to be measured with respect to the master target object is, for example, teaching number 1.
Positional relationship between the inclination θ12 'in the positional relationship data P12' between the 21st hole and the 2nd and 22nd holes, and the holes identified as corresponding to the 2nd and 22nd holes, respectively. Data P4
Calculated by calculating the difference from the slope θ46 in 6.
From this, it can be seen that the inclination of the target object to be measured is shifted by Δθ with respect to the inclination of the master target object.

従って、被測定物となる対象物体の位置をマスターと
なる対象物体の位置に対して(−ΔX、−ΔY)だけ平
行移動させた後、−Δθだけ回転させれば、被測定物と
なる対象物体の位置は教示位置であるマスターとなる対
象物体の位置に戻ることになる。
Therefore, if the position of the target object to be measured is translated by (−ΔX, −ΔY) with respect to the position of the master target object and then rotated by −Δθ, the target object becomes The position of the object will return to the position of the target object that is the master position, which is the taught position.

このようにすれば、置かれている対象物体がロボット
に教え込まれた教示位置に対してどれだけシフトしてい
るかがわかり、このシフト量を補正量として用いロボッ
トの教示データを変更することにより、ロボットは置か
れている対象物に対して正確に位置決めができるように
なる。
By doing this, it is possible to know how much the target object placed has shifted with respect to the taught position taught by the robot, and by using this shift amount as the correction amount, the teaching data of the robot can be changed. , The robot can be positioned accurately with respect to the placed object.

以上の説明では、特徴点を対象物体の穴としたが、必
ずしもこれに限定するものではない。例えば、対象物体
のコーナーの位置なども特徴点として設定することがで
きる。また、幾何学的特徴量は、円形の穴を対象とした
ので、重心、面積で説明したが、これに限定されない。
特徴点の形状により種々の幾何学的特徴量が使用でき
る。例えば、多角形の特徴点であれば、コーナーの数な
ども有効な幾何学的特徴量となり得る。
In the above description, the feature point is the hole of the target object, but the feature point is not necessarily limited to this. For example, the position of the corner of the target object can be set as the feature point. Further, since the geometrical feature amount is intended for a circular hole, the description has been given by using the center of gravity and the area, but the geometrical feature amount is not limited to this.
Various geometric feature quantities can be used depending on the shape of the feature points. For example, in the case of a polygonal feature point, the number of corners can be an effective geometric feature amount.

(発明の効果) 本発明によれば、カメラで撮影された対象物体の位置
が予め教示された位置よりどれだけシフトしているかを
認識する場合、マスターとなる対象物体を撮影したマス
ター画像と被測定物となる対象物体を撮影した被測定物
画像のそれぞれの特徴点の幾何学的特徴量と位置関係デ
ータを比較するようにしているので、複雑な外形形状の
対象物体に対しても、被測定物となる対象物体が予め教
示された対象物体に対して位置や傾きがどれだけシフト
しているかを正確に算出することができる。
(Effect of the Invention) According to the present invention, when recognizing how much the position of a target object photographed by a camera is shifted from a position taught in advance, a master image of a target object serving as a master and Since the geometrical feature quantities and the positional relationship data of the respective feature points of the image of the object to be measured, which is the object to be measured, are compared, the object to be measured even for the object having a complicated outer shape. It is possible to accurately calculate how much the position and the inclination of the target object to be measured are shifted with respect to the target object taught in advance.

特に本発明は、マスター画像中に幾何学的特徴量が相
互に等しい特徴点のグループガ多数存在する場合におい
て、各グループより最低1個以上の特徴点を教示点とし
て選択し、各教示点毎にこれと幾何学的特徴量が等しい
被測定物画像の特徴点を分類しこれを特徴点候補とする
ことにより、マスター画像と被測定物画像の比較処理は
各教示点とこれに対応する複数の特徴点候補の間でのみ
行えばよいので、従来のようにマスター画像と被測定物
画像のそれぞれの全ての特徴点間の距離を算出すること
により特徴点候補を抽出する方法と比較して演算時間が
短縮された。
In particular, the present invention selects at least one feature point as a teaching point from each group when there are a large number of groups of feature points whose geometric feature amounts are equal to each other in the master image, and for each teaching point. Then, by classifying the feature points of the measured object image having the same geometrical feature amount as these and using these as feature point candidates, the comparison process of the master image and the measured object image is carried out for each teaching point and a plurality of corresponding teaching points. Since it is only necessary to perform between the feature point candidates, compared with the conventional method of extracting the feature point candidates by calculating the distances between all the feature points of the master image and the measured object image. The calculation time was shortened.

さらに、設定する教示点の数は対象物体の特徴点の幾
何学的特徴量に依存して決定され、同一の幾何学的特徴
量を持った特徴点が多くある場合には、教示点の数を少
なく設定することができる。これにより、マスターとな
る対象物体の教示点に対応する、被測定物となる対象物
体の特徴点を特定する処理においては、教示点の数は対
象物体の特徴点の幾何学的特徴量により適正に設定する
ことが可能となり、認識を短時間に行うことができるよ
うになった。
Further, the number of teaching points to be set is determined depending on the geometric feature amount of the feature points of the target object, and if there are many feature points having the same geometric feature amount, the number of teach points is set. Can be set less. As a result, in the process of identifying the feature points of the target object to be measured, which correspond to the teach points of the target object to be the master, the number of taught points is appropriate according to the geometric feature amount of the feature points of the target object. It has become possible to set to, and recognition can be performed in a short time.

【図面の簡単な説明】[Brief description of drawings]

第1図は、本発明の実施例に使用する対象物体の形状を
示したものである。1は対象物体である。 第2図は、カメラで撮影された対象物体を示したもので
ある。2は画面の境界である。また、11から19は視覚セ
ンサが認識した対象物体内の特徴点としての穴である。 第3図は、特徴点間の位置関係データの説明を行ったも
のである。L19、θ19は2個の穴の距離、及び方向であ
る。 第4図は、対象物体の教示例を示したものである。21か
ら25は教示された特徴点である。 第5図は、認識しようとする被測定物となる対象物体を
カメラで撮影した例である。〜は、視覚センサが認
識した特徴点(穴)である。 第6図は、視覚センサを用いたロボット作業の模式図で
ある。41はロボット、42はロボットの制御装置、43はカ
メラ、44は視覚センサ、45は作業テーブル、46は対象物
体である。 第7図は、従来例を説明するための図で、51は撮影され
ている対象物体、52は教示位置における対象物体であ
る。
FIG. 1 shows the shape of a target object used in the embodiment of the present invention. 1 is a target object. FIG. 2 shows a target object photographed by a camera. 2 is the boundary of the screen. Further, 11 to 19 are holes as feature points in the target object recognized by the visual sensor. FIG. 3 illustrates the positional relationship data between feature points. L19 and θ19 are the distances and directions of the two holes. FIG. 4 shows an example of teaching a target object. 21 to 25 are the feature points taught. FIG. 5 is an example in which a camera captures an object to be measured, which is an object to be recognized. ~ Are feature points (holes) recognized by the visual sensor. FIG. 6 is a schematic diagram of a robot work using a visual sensor. 41 is a robot, 42 is a robot controller, 43 is a camera, 44 is a visual sensor, 45 is a work table, and 46 is a target object. FIG. 7 is a diagram for explaining a conventional example, in which 51 is a target object being photographed and 52 is a target object at a teaching position.

Claims (3)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】認識すべき対象物体をカメラなどで撮影
し、該撮影画像を基に画像処理の手法を用いて前記対象
物体の位置や傾きを認識する方法であって、特に対象物
体の一部であって形状的に特徴がある複数の領域即ち特
徴点に関して、幾何学的特徴量が相互に等しい特徴点が
存在する場合の認識方法において、 予め、マスターとなる前記対象物体の撮影画像即ちマス
ター画像に対して画像処理を施すことにより前記特徴点
を複数個抽出し、 該抽出された複数個の特徴点について幾何学的特徴量が
相互に等しい特徴点毎に複数個のグループを作成し、 該複数個のグループのそれぞれについてグループ内の特
徴点の少なくとも1個以上を教示点として選出し、 該選出された複数個の教示点の幾何学的特徴量及び各教
示点間の位置関係データを算出し、 該算出された幾何学的特徴量及び位置関係データの許容
誤差を設定し、 しかる後、被測定物となる対象物体の撮影画像即ち被測
定物画像に対して前記マスター画像の場合と同様の画像
処理を施し前記複数個の特徴点を抽出し、 該抽出された被測定物画像の特徴点の幾何学的特徴量及
び各特徴点間の位置関係データを算出し、 前記被測定物画像の全ての特徴点に対して、前記マスタ
ー画像の各教示点の幾何学的特徴量の許容誤差の範囲に
含まれる特徴点即ち複数の特徴点候補を抽出し、該抽出
された被測定物画像の特徴点候補の位置関係データと前
記マスター画像の教示点の位置関係データを比較するこ
とにより、前記マスター画像のそれぞれの教示点に対応
する前記被測定物画像の特徴点を前記特徴点候補の中か
ら特定し、特定された被測定物画像の特徴点とこれに対
応する前記マスター画像の教示点のそれぞれの幾何学的
特徴量及び位置関係データを比較することにより、前記
マスター画像の対象物体の位置及び傾きを基準としたと
きの前記被測定物画像の対象物体の位置及び傾きを認識
することを特徴とする対象物体の位置姿勢認識方法。
1. A method of recognizing the position or inclination of a target object by photographing an object to be recognized by a camera and using an image processing method based on the photographed image. In a recognition method in the case where there are feature points having geometrical features equal to each other with respect to a plurality of regions that are parts and are geometrically characteristic, that is, in the recognition method, a captured image of the target object serving as a master, that is, A plurality of the characteristic points are extracted by performing image processing on the master image, and a plurality of groups are created for each of the extracted characteristic points whose geometrical feature amounts are equal to each other. , At least one or more of feature points in each of the plurality of groups is selected as a teaching point, and geometrical feature amounts of the selected plurality of teaching points and positional relationship data between the respective teaching points To The calculated geometrical feature amount and the allowable error of the positional relationship data are set, and then the captured image of the target object to be measured, that is, the measured object image is the master image. The same image processing is performed to extract the plurality of feature points, the geometrical feature amount of the feature points of the extracted object image and the positional relationship data between the feature points are calculated, and the object to be measured is calculated. With respect to all the feature points of the image, feature points, that is, a plurality of feature point candidates included in the permissible error range of the geometric feature amount of each teaching point of the master image are extracted, and the extracted object to be measured is extracted. By comparing the positional relationship data of the characteristic point candidates of the image and the positional relationship data of the teaching points of the master image, the characteristic points of the measured object image corresponding to the respective teaching points of the master image are identified as the characteristic point candidates. Identified from among By comparing the geometrical feature amount and the positional relationship data of each of the feature points of the measured object image and the corresponding teaching points of the master image, the position and the inclination of the target object of the master image are used as a reference. The position and orientation recognition method of the target object, characterized in that the position and the inclination of the target object in the image of the object under measurement are recognized.
【請求項2】前記各特徴点間の位置関係データは特徴点
間の距離及び傾きからなることを特徴とする特許請求の
範囲第1項記載の対象物体の位置姿勢認識方法。
2. The position / orientation recognition method for a target object according to claim 1, wherein the positional relationship data between the respective characteristic points comprises a distance and a slope between the characteristic points.
【請求項3】前記幾何学的特徴量は特徴点の重心及び面
積からなることを特徴とする特許請求の範囲第1項記載
の対象物体の位置姿勢認識方法。
3. The position / orientation recognition method for a target object according to claim 1, wherein the geometrical feature amount comprises a center of gravity and an area of a feature point.
JP63320575A 1988-12-21 1988-12-21 Position and orientation recognition method of target object Expired - Fee Related JP2562047B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP63320575A JP2562047B2 (en) 1988-12-21 1988-12-21 Position and orientation recognition method of target object

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP63320575A JP2562047B2 (en) 1988-12-21 1988-12-21 Position and orientation recognition method of target object

Publications (2)

Publication Number Publication Date
JPH02167410A JPH02167410A (en) 1990-06-27
JP2562047B2 true JP2562047B2 (en) 1996-12-11

Family

ID=18122962

Family Applications (1)

Application Number Title Priority Date Filing Date
JP63320575A Expired - Fee Related JP2562047B2 (en) 1988-12-21 1988-12-21 Position and orientation recognition method of target object

Country Status (1)

Country Link
JP (1) JP2562047B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7260252B2 (en) 2002-10-22 2007-08-21 Kabushiki Kaisha Toshiba X-ray computed tomographic apparatus, image processing apparatus, and image processing method
US7502504B2 (en) 2002-10-17 2009-03-10 Fanuc Ltd Three-dimensional visual sensor
KR102252888B1 (en) * 2020-01-03 2021-05-17 포테닛 주식회사 An apparatus and method for detecting position of transfer robot in space

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1094991A (en) * 1996-09-24 1998-04-14 Mazda Motor Corp Article location detecting method and device thereof

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5282163A (en) * 1975-12-29 1977-07-09 Nec Corp Characteristics point pair decision unit
JPS61290311A (en) * 1985-06-19 1986-12-20 Hitachi Ltd Apparatus and method for inspecting soldered zone
JPS6344103A (en) * 1986-08-12 1988-02-25 Nissan Motor Co Ltd Apparatus for confirming position and posture

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7502504B2 (en) 2002-10-17 2009-03-10 Fanuc Ltd Three-dimensional visual sensor
US7260252B2 (en) 2002-10-22 2007-08-21 Kabushiki Kaisha Toshiba X-ray computed tomographic apparatus, image processing apparatus, and image processing method
KR102252888B1 (en) * 2020-01-03 2021-05-17 포테닛 주식회사 An apparatus and method for detecting position of transfer robot in space

Also Published As

Publication number Publication date
JPH02167410A (en) 1990-06-27

Similar Documents

Publication Publication Date Title
US5692061A (en) Method of utilizing a two-dimensional image for detecting the position, posture, and shape of a three-dimensional objective
CN111611989B (en) Multi-target accurate positioning identification method based on autonomous robot
WO2004011876A1 (en) Apparatus and method for automatically arranging three dimensional scan data using optical marker
CN111627072A (en) Method and device for calibrating multiple sensors and storage medium
TW200821156A (en) Screen printing equipment, and method for image recognition and alignment
CN113269762B (en) Screen defect detection method, system and computer storage medium
US20130058526A1 (en) Device for automated detection of feature for calibration and method thereof
CN108907526A (en) A kind of weld image characteristic recognition method with high robust
CN115609591B (en) Visual positioning method and system based on 2D Marker and compound robot
KR900002509B1 (en) Apparatus for recognizing three demensional object
CN113538583A (en) Method for accurately positioning position of workpiece on machine tool and vision system
JPS62285004A (en) Detecting method of rotating angle of object pattern
JP2562047B2 (en) Position and orientation recognition method of target object
JPH09189513A (en) Marker gravity center measurement method and device
JPH06243236A (en) Setting device for coordinate system correction parameter of visual recognizer
JP3684799B2 (en) Device for detecting displacement amount of stop position of moving object
CN114782535B (en) Workpiece pose recognition method and device, computer equipment and storage medium
CN116823708A (en) PC component side mold identification and positioning research based on machine vision
TWI504859B (en) Method for photographing and piecing together the images of an object
JPH07121713A (en) Pattern recognition method
JPH03184747A (en) Automatic check-recognition device for workpiece in machine tool
JP2003078925A (en) Camera calibration system and camera calibration method
CN116797546B (en) Visual inspection carrying method and control system
JP2013010160A (en) Robot control system, robot system, and marker processing method
KR100266805B1 (en) Method for measuring the position and arrangement state of a sub-assembly member in a shipbuilding process via two-step vision system

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees