JPS6344103A - Apparatus for confirming position and posture - Google Patents

Apparatus for confirming position and posture

Info

Publication number
JPS6344103A
JPS6344103A JP18787686A JP18787686A JPS6344103A JP S6344103 A JPS6344103 A JP S6344103A JP 18787686 A JP18787686 A JP 18787686A JP 18787686 A JP18787686 A JP 18787686A JP S6344103 A JPS6344103 A JP S6344103A
Authority
JP
Japan
Prior art keywords
data
feature point
imaged
position data
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP18787686A
Other languages
Japanese (ja)
Other versions
JPH0575243B2 (en
Inventor
Tomohiko Noda
野田 朋彦
Hideyuki Kumasaka
熊坂 秀行
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP18787686A priority Critical patent/JPS6344103A/en
Publication of JPS6344103A publication Critical patent/JPS6344103A/en
Publication of JPH0575243B2 publication Critical patent/JPH0575243B2/ja
Granted legal-status Critical Current

Links

Abstract

PURPOSE:To confirm the position and posture of an article of which image has to be picked up, by extracting a plurality of characteristic points of the article of which image has to be picked up and calculating the mutual position and distance between the characteristic points. CONSTITUTION:The image of a work from an image input means 10 is converted to a line image by a characteristic point extraction means 11 and the characteristic points thereof are subsequently calculated to be collated with the distance data between the characteristic point of the work stored in a distance data storing means 12 to select one set combination data specifying the work by a selection means 13. A conversion type forming means 15 calculates a conversion formula to the above mentioned one set of the combination data from the position data of each characteristic point stored in a position data storing means 14 and also calculates the max. error between the characteristic point in the position data and one set of the combination data. A comparing means 17 judges whether said max. error is within the allowable error range set to a allowable error storing means 16. When said error is within the allowable error range, the position and posture of the work are calculated on the basis of one set of the combination data specifying the work by a position/posture calculation means.

Description

【発明の詳細な説明】 (産業上の利用分野) 本発明は、例えば、ワーク等の波目原物の位置及び姿勢
を画像処理を行なうことによって算出する位置姿勢認識
装置に関する。
DETAILED DESCRIPTION OF THE INVENTION (Field of Industrial Application) The present invention relates to a position and orientation recognition device that calculates the position and orientation of a wave original such as a work by performing image processing.

(従来の技術) 近年、生産工程の自動化に伴い、例えば組立て作業にお
いては、無人搬送車等によって自動的に搬送されたワー
クをロボットによって掴み、所定の作業を行なわせてい
る。
(Prior Art) In recent years, with the automation of production processes, for example, in assembly work, robots are used to grab workpieces that are automatically transported by automatic guided vehicles or the like and perform predetermined work.

この場合、ロボットにカメラ等による視覚機能を持たせ
、この視覚機能によって搬送されたワークの姿勢1位置
等を認識し、ロボットはワークの搬送姿勢及び位置にか
かわらず常にワークの一定の位置を掴むようにしている
In this case, the robot is equipped with a visual function such as a camera, and uses this visual function to recognize the posture and position of the transported workpiece, so that the robot always grasps the fixed position of the workpiece regardless of the transporting posture and position of the workpiece. I try to keep it that way.

このようなワークの位置及び姿勢を認識する装置には、
第5図及び第6図に示すものがある。
Devices that recognize the position and orientation of such workpieces include
There are those shown in FIGS. 5 and 6.

第5図に示す位置姿勢認識装置は、被写体であるワーク
の画像情報を入力するカメラ1と、前記画像情報をデジ
タルデータに変換すると共にこのデータを画像パターン
として格納する画像入力部2と、規範とする前記ワーク
にあける特徴点の画像パターンを記憶する教示パターン
格納部3と、教示パターン格納部3に記憶されている画
像パターンを移動させるパターン移動部4と、画像入力
部2かう取出した画像パターン及びパターン移動部4か
ら出力された画像パターンをマツチングざぜるパターン
マツチング部5とから成っている。
The position and orientation recognition device shown in FIG. 5 includes a camera 1 that inputs image information of a workpiece as a subject, an image input unit 2 that converts the image information into digital data and stores this data as an image pattern, and a standard A taught pattern storage section 3 stores an image pattern of feature points to be drilled in the work, a pattern moving section 4 moves the image pattern stored in the taught pattern storage section 3, and an image input section 2 stores the image thus extracted. It consists of a pattern matching section 5 that matches the image patterns output from the pattern and pattern moving section 4.

そして、カメラ1によって@像したワークの画像は、画
像入力部2に画像パターンとして記°しQされ、この画
像パターンに対して、教示パターン格納部3に記憶され
ている画像パターンをパターン移動部4によって移動さ
せ、パターンマツチング部5によって最も一致度が高い
ものを選択し、これによりワークの位置及び姿勢を算出
している。
The image of the workpiece imaged by the camera 1 is recorded as an image pattern in the image input section 2, and the image pattern stored in the taught pattern storage section 3 is transferred to the pattern moving section. 4, and the pattern matching unit 5 selects the one with the highest degree of matching, thereby calculating the position and orientation of the work.

また、第6図に示す位置姿勢認識装置は、被写体である
ワークの画像情報を入力するカメラ1と、前記画像情報
をデジタルデータに変換すると共にこのデータを画像パ
ターンとして格納する画像入力部2と、当該画像パター
ンを二値化処理する二値化処理部6と、二値化処理部6
によって二値化する場合の閾値を設定する二値化レベル
設定部7と、ワークの重心1面積2周囲長、モーメント
The position and orientation recognition device shown in FIG. 6 also includes a camera 1 that inputs image information of a workpiece as a subject, and an image input unit 2 that converts the image information into digital data and stores this data as an image pattern. , a binarization processing unit 6 that binarizes the image pattern, and a binarization processing unit 6
A binarization level setting unit 7 sets a threshold value when binarizing by, and the center of gravity, area, circumference, and moment of the workpiece.

慣性主軸等のデータを格納する教示データ格納部8と、
二値化処理部6から出力されたデータを教示データ格納
部8に格納され一〇いるデータと比較し、一致したデー
タを取出す演算部9とからなる。
a teaching data storage section 8 that stores data such as the principal axis of inertia;
It consists of an arithmetic unit 9 that compares the data output from the binarization processing unit 6 with the data stored in the teaching data storage unit 8 and extracts the matched data.

そして、カメラ1によって躍像したワークの画像は、画
像入力部2に画像パターンとして記憶され、この画像パ
ターンは、二値化レベル設定部7の設定レベルに基づき
、二値化処理部6によって二値化処理され、演算部9に
よってこの二値化処理後の画像について、その重心1面
積1周囲長。
Then, the image of the workpiece captured by the camera 1 is stored as an image pattern in the image input section 2, and this image pattern is converted by the binarization processing section 6 based on the setting level of the binarization level setting section 7. For the image that has been digitized and binarized by the calculation unit 9, its centroid 1 area 1 circumference length.

モーメント、慣性主軸等を求めると共に教示データ格納
部8に格納されているワークの重心1面積。
Moment, principal axis of inertia, etc. are calculated and the area of the center of gravity of the workpiece is stored in the teaching data storage section 8.

周囲長、モーメント、慣性主軸等のデータが比較され、
一致したデータを選択し、これによりワークの位置及び
姿勢を算出している。
Data such as perimeter, moment, principal axis of inertia, etc. are compared,
The matching data is selected, and the position and orientation of the workpiece are calculated based on this data.

(発明が解決しようとする問題点) しかしながら、前記した第5図及び第6図に示したよう
な溝底を有する従来の位置姿勢認識装置にあっては、以
下に記すような問題点を有する。
(Problems to be Solved by the Invention) However, the conventional position and orientation recognition device having a groove bottom as shown in FIGS. 5 and 6 has the following problems. .

すなわら、第5図に示した溝底を有する位置姿勢認識装
置の場合には、規範とするワークにあける特徴点の画像
パターンを画面上に移動させ、この画像パターンをカメ
ラ1から入力したワークにおける特徴点の画像パターン
と比較して、最も一致度が高い画像パターンから当該ワ
ークの位置及び姿勢を算出するようになっているために
、パターンマツチング処理に時間を要し、前記ワークの
位置及び姿勢の高速度検出が不可能であり、タクトタイ
ムの極めて短い生産ラインには適用できないという問題
があり、また、第6図に示した溝底を有する位置姿勢認
識装置の場合には、カメラ1から入力したワークにおけ
る画像を、所定の閾値をもって二値化処理し、この二値
化処理後の画像についての重心2面積1周囲長、モーメ
ント、江11性主軸等のデータから当該ワークの位置及
び姿勢を算出するようになっていたために、前記ワーク
における照明条件の影響によって、その外形形状が鮮明
に検出できない時には、その位置及び姿勢の検出精度に
誤差を生じるという問題があった。
In other words, in the case of the position and orientation recognition device having the groove bottom shown in FIG. Since the position and orientation of the workpiece are compared with the image pattern of the feature points on the workpiece and the image pattern with the highest matching degree is used to calculate the position and orientation of the workpiece, the pattern matching process takes time. There is a problem that high-speed detection of position and orientation is impossible, and it cannot be applied to a production line with extremely short takt time.Furthermore, in the case of the position and orientation recognition device having the groove bottom shown in Fig. 6, The image of the workpiece input from camera 1 is binarized using a predetermined threshold value, and the data of the center of gravity, area, perimeter, moment, principal axis, etc. of the binarized image are used to determine the image of the workpiece. Since the position and orientation of the workpiece are calculated, there is a problem in that when the external shape of the workpiece cannot be clearly detected due to the influence of the illumination conditions on the workpiece, an error occurs in the detection accuracy of the position and orientation.

本発明は、このような従来の問題点に鑑みて成されたも
のであり、照明条件等の影響を受は難い線画画像等から
ワークの特徴点(例えば、ボルト孔や円形外形の中心点
又は鋭利部の頂点等)を抽出し、この特徴点相互間の位
置と距離とから当該ワークの位置及び姿勢を九27aす
る位置姿勢認識装置を提供することを目的とする。
The present invention has been made in view of such conventional problems, and it is possible to identify the characteristic points of a workpiece (for example, the center point of a bolt hole, a circular outline, or It is an object of the present invention to provide a position/orientation recognition device that extracts the vertices of a sharp portion, etc., and determines the position and orientation of the workpiece based on the positions and distances between the feature points.

(問題点を解決するための手段) 前記目的を達成するために、本発明では、被撮像物の画
像情報を入力し、当該画像情報を各画素毎にデジタル値
として出力する画像入力手段と、当該デジタル値に基づ
いて、当該被撮像物における投数の特徴点を抽出する特
徴点抽出手段と、前記被搬像物において基準となる夫々
の各特徴点間の距離データを予め格納する距離データ格
納手段と、当該距離データ格納手段に格納されている当
該夫々の距離データに基づいて、当該特徴点抽出手段に
よって抽出した夫々の特徴特徴点間の距離を順次比較し
、この比較結果から前記被R原物における1組の組合わ
せデータを選択する選択手段と、前記被撮像物において
基準となる夫々の特徴点の位置データを格納する位置デ
ータ格納手段と、当該位置データ格納手段に格納されて
いる位置データから当該選択手段により選択された1粗
の組合わせデータへ変換すべき変換式を算出すると共に
、この変換式により算出された前記被撮像物における夫
々の特徴点の位置データ及び前記被搬像物において基準
となる夫々の特徴点の位置データ相互の最大誤差を求め
る変換式作成手段と、前記被撮像物において基準となる
夫々の特徴点の位置データ及び前記被撮像物における夫
々の特徴点の位置データ相互の許容誤差を格納する許容
誤差格納手段と、当該変換式作成手段によって算出した
前記被撮像物にあける夫々の特徴点の位置データ相互の
最大誤差が、当該許容誤差範囲内であるかどうかを比較
する比較手段と、当該比較手段を介して出力した前記変
換式によって、前記被撮像物の位置及び姿勢を求める位
置姿勢算出手段とを有することを特徴とする。
(Means for Solving the Problems) In order to achieve the above object, the present invention includes an image input means for inputting image information of an object to be imaged and outputting the image information as a digital value for each pixel; feature point extraction means for extracting a number of feature points in the object to be imaged based on the digital value; and distance data that stores in advance distance data between each feature point serving as a reference in the object to be imaged. The storage means and the distances between the feature points extracted by the feature point extraction means are sequentially compared based on the respective distance data stored in the distance data storage means, and the distances between the feature points extracted by the feature point extraction means are sequentially compared. a selection means for selecting one set of combination data in the R original; a position data storage means for storing position data of each feature point serving as a reference in the imaged object; A conversion formula is calculated to convert the position data of the target object into one coarse combination data selected by the selection means, and the position data of each feature point of the object to be imaged calculated by this conversion formula and the position data of the target object are calculated. conversion formula creation means for calculating the maximum error between position data of each feature point serving as a reference in the image carrier; position data of each feature point serving as a reference in the object to be imaged and each feature of the object to be imaged; The maximum error between the mutual position data of each feature point on the imaged object calculated by the tolerance storage means for storing the mutual tolerance of point position data and the conversion formula creation means is within the permissible error range. The present invention is characterized in that it includes a comparing means for comparing whether or not the object exists, and a position and orientation calculating means for calculating the position and orientation of the object to be imaged based on the conversion formula outputted through the comparing means.

(作用) 以下に、本発明の作用を第1図に基づいて説明する。(effect) Below, the operation of the present invention will be explained based on FIG.

まず、画像入力手段10から入力されたワークの画像は
、特徴点抽出手段11によって照明条件の影響を受は難
い線画画像に変換されると共に当該線画画像における投
数の特徴点が算出され、これらの特徴点は、選択手段1
3によって、距離データ格納手段12に記憶されている
当該ワークの各特徴点間における距離データと照合され
て前記ワークを特定する1組の組合わけデータが選択さ
れる。
First, the image of the workpiece inputted from the image input means 10 is converted by the feature point extraction means 11 into a line drawing image that is hardly affected by lighting conditions, and the number of feature points of the line drawing image is calculated. The feature points are selection means 1
3, a set of combination data that specifies the workpiece is selected by comparing it with the distance data between the feature points of the workpiece stored in the distance data storage means 12.

そして、変換式作成手段15は、位置データ格納手段1
4に格納されている各特徴点の位置データから、前記し
た1絹の組合わせデータへの変換式を弾出すると共に当
該位置データと当該1組の組合わせデータにあける各特
徴点間の最大誤差を降出し、この最大誤差は比較手段1
7によって、許容誤差格納手段16に設定されている許
容誤差範囲内でおるかどうかの判断が成される。そして
、この誤差が許容範囲内であれば、前記ワークを特定す
る1組の組合わせデータに基づき、位置姿勢算出手段1
8によって前記ワークの位置及び姿勢が算出される。
The conversion formula creation means 15 then converts the position data storage means 1
4. From the position data of each feature point stored in 4, calculate the conversion formula to the combination data of one silk described above, and calculate the maximum distance between each feature point between the position data and the set of combination data. The maximum error is the comparison means 1.
7, it is determined whether or not it is within the tolerance range set in the tolerance storage means 16. If this error is within the allowable range, the position and orientation calculation means 1
8, the position and orientation of the workpiece are calculated.

(実施例) 以下に、本発明の実施例を図面に基づいて詳細に説明す
る。
(Example) Below, an example of the present invention will be described in detail based on the drawings.

第2図には、本発明に係る位置姿勢認識装置の概略構成
図が示されており、被撮像物で必る1ノークの画像を入
力するカメラ1には、アナログ信号をデジタル信号に変
換するへ/Dコンバータ20か接続されている。なお、
このカメラ1とA/Dコンバータ20とで画像入力手段
10を構成している。
FIG. 2 shows a schematic configuration diagram of the position and orientation recognition device according to the present invention.The camera 1, which inputs an image of one node of the object to be imaged, converts an analog signal into a digital signal. to/D converter 20 is connected. In addition,
This camera 1 and A/D converter 20 constitute an image input means 10.

そして、A/Dコンバータ20は、人出力菰首21を介
してCPU22に接続されている。このCPU22は、
特徴点抽出手段11.選択手段13゜変換式作成手段1
5.比較手段17及び位置姿勢算出手段18の各機能を
兼ねている。ざらに、CPU22には、ワークの位置及
び姿勢を弾出刃−るプログラムが書き込まれているRO
M23と距岨データ格納手段122位置データ+81内
手段14及び許容誤差格納手段16としてのRAM24
が接続されている。
The A/D converter 20 is connected to the CPU 22 via a human output head 21. This CPU 22 is
Feature point extraction means 11. Selection means 13゜Conversion formula creation means 1
5. It also serves as the comparison means 17 and the position/orientation calculation means 18. In general, the CPU 22 has an RO in which a program for determining the position and orientation of the workpiece is written.
M23 and distance data storage means 122 position data +81 internal means 14 and RAM 24 as tolerance storage means 16
is connected.

このように構成された位置姿勢認識装置は、第3図に示
す動作フローチャートに塁づいて次のように動作する。
The position and orientation recognition device configured as described above operates as follows based on the operation flowchart shown in FIG.

以下に、この動作フローチャートを第4図(a>から(
C)を参照して説明する。
Below, this operation flowchart is shown in Figure 4 (a> to (
This will be explained with reference to C).

ステップ1 ます、カメラ1は、例えば、第4図(a)に示されてい
るような形状を有するワークWの画像を取込み、この画
像は、A/Dコンバータ20によってその画像を構成す
る画素毎にその濃度値に応じたデジタルデータに変換さ
れ、このデジタルデータは入出力装置21を介して順次
CPU22に入力され、t(A〜124内に一時記憶さ
れる。
Step 1 First, the camera 1 captures an image of a workpiece W having a shape as shown in FIG. The digital data is then converted into digital data corresponding to the density value, and this digital data is sequentially input to the CPU 22 via the input/output device 21 and temporarily stored in t(A~124).

ステップ2 CPU22は、RAM24内に記憶した前記デジタルデ
ータに塁づいて、第4図(b)に示すようなワークにお
ける特徴点であるXAI、 XA2. XA3.・・・
・・・、 XBI、 XB2.・・・・・・、 XC2
,XC3等を空間微分等によって抽出し、これらの点の
位置データをRAM24内に記憶する。
Step 2 Based on the digital data stored in the RAM 24, the CPU 22 determines characteristic points XAI, XA2, . XA3. ...
..., XBI, XB2. ......, XC2
,

ステップ3 CPU22は、ステップ2において陣出した各特徴点の
位置に具づいて、これらの特徴点間相互の全ての組合せ
における距離を算出しく例えば、XAI−X81間、X
B1−XC2間、XA2−X81間、XA2−XC2間
等)、この各特徴点間の距離がRAM24内に予め記憶
されている任意のワークにおける各特徴点間相互の距離
にほぼ一致していると思われる細組かの組合わせ(例え
ば、1組の組合わせとしてXAl−XB2−XC2−X
C5>候補を選択する。これらの組合わせ候補は、第4
図(C)に示すA点、8点、0点及びD点に夫々対応す
る。
Step 3 The CPU 22 calculates distances between all combinations of feature points based on the positions of the feature points set out in step 2. For example, between XAI and X81,
B1-XC2, XA2-X81, XA2-XC2, etc.), the distance between each feature point almost matches the distance between each feature point in any workpiece stored in advance in the RAM 24. A combination of subgroups (for example, one combination of XAl-XB2-XC2-X
C5> Select a candidate. These combination candidates are the fourth
This corresponds to point A, point 8, point 0, and point D shown in Figure (C), respectively.

この組合わせ候補の選択は、例えば、XAl−X81間
の許容誤差範囲内における最小値がδmin 。
The selection of this combination candidate is such that, for example, the minimum value within the tolerance range between XAl and X81 is δmin.

最大値がδmaX (L設定されていたどりると、の条
件を満足するものを順次比較することにより行なわれる
If the maximum value is set as δma

ステップ4 CPU22は、ステップ3の処理の結果、各特徴点間の
距離がRAM24内に予め記憶されている任意のワーク
における特徴点間の距離にほぼ一致していると思われる
1組の組合わせ候補が存在しているかどうかの判断をす
る。この判断の結果、組合わせ候補が存在していればス
テップ5に、存在していなければステップ6に夫々進む
Step 4 As a result of the processing in Step 3, the CPU 22 selects a set of combinations in which the distance between each feature point is considered to be approximately the same as the distance between the feature points in any workpiece stored in advance in the RAM 24. Determine whether a candidate exists. As a result of this judgment, if a combination candidate exists, the process proceeds to step 5, and if it does not exist, the process proceeds to step 6.

ステップ5 CI−’U22は、RAM24内に予め記憶している任
意のワークの特徴点における立直データに基づいて、こ
の位置データをステップ3で求められた1組の組合わせ
候補の位置データに変換する変換式における変換係数と
、ステップ3において算出された各特徴点(Xへ1. 
XBI、 XC2,XC3)及びRAM24内に予め記
憶されている各特徴点(xal、 xbl 、 XC2
,XC3)の夫々の特徴点に対応する最大誤差δを障出
し、この値をRAM24内に格納する。
Step 5 The CI-'U 22 converts this position data into position data of the set of combination candidates obtained in Step 3, based on the upright data at the feature points of arbitrary works stored in advance in the RAM 24. The conversion coefficients in the conversion formula and each feature point (X to 1.
XBI, XC2, XC3) and each feature point (xal, xbl, XC2) stored in advance in the RAM 24
, XC3), and stores this value in the RAM 24.

この変換係数は、以下に記すようにして求める。This conversion coefficient is determined as described below.

変換式を X=Axo十B  ・・・・・・・・・(1)とし、 で与えられる式の△を最小にする△。conversion formula X=Axo10B......(1), △ that minimizes △ in the expression given by .

B夫々の値を求める。この時のA、8夫々の値が変換係
数の値である。
Find the value of each B. The values of A and 8 at this time are the values of the conversion coefficients.

また、最大誤差δは、(2)式中、右辺各」nの値の中
で最大のものを興出することによって求められる。
Further, the maximum error δ is obtained by finding the maximum value among the values of each n on the right side of equation (2).

ステップ6 ステップ4において、任意のワークにあける1h徴点間
の距離にほぼ一致していると思われる1組組合わせ候補
が存在していないと判断されたので、CPU22は、入
出力装置21を介して図示しない外部装置にル2識物な
しの信号を出力する。
Step 6 In Step 4, it is determined that there is no candidate combination that seems to approximately match the distance between 1h feature points on any workpiece, so the CPU 22 controls the input/output device 21. A signal indicating that there is no identification is output to an external device (not shown).

ステップ7 CPtJ22は、ステップ5において算出した最大誤差
δの値とRAM24内に予め設定されている許容誤差δ
Oの値を比較し、δ≦δOでおればステップ8に、δ〉
δOであればステップ3に夫々進む。
Step 7 CPtJ22 is the value of the maximum error δ calculated in step 5 and the allowable error δ preset in the RAM 24.
Compare the values of O, and if δ≦δO, proceed to step 8, δ〉
If δO, proceed to step 3, respectively.

ステップ8 CPU22は、ステップ5において算出した変換係数△
、Bからワークの基準座標系に対する回転角θとX軸、
Y@!1方向の平行移動量を以下の式によって算出する
Step 8 The CPU 22 calculates the conversion coefficient △ calculated in step 5.
, the rotation angle θ and the X axis from B to the reference coordinate system of the workpiece,
Y@! The amount of parallel movement in one direction is calculated using the following formula.

回転角θ=TaTl−1a12/all平行移動足 X
=bl y=b2 以上のようにして、ワークの位置及び姿勢を求めること
ができる。尚、ステップ3の処理は、本来、ワークの位
置及び姿勢を求める目的においては不要なものであるが
、この処理を行なわずにステップ5の処理を行なうと、
ステップ5の処理時間が長いために処理時間の短縮の面
から非常に不利になるので、この処理を行なっている。
Rotation angle θ=TaTl-1a12/all parallel movement foot X
=bl y=b2 As described above, the position and orientation of the workpiece can be determined. Note that the process in step 3 is originally unnecessary for the purpose of determining the position and orientation of the workpiece, but if the process in step 5 is performed without performing this process,
This process is performed because the long processing time of step 5 is very disadvantageous in terms of reducing the processing time.

(発明の効果) 以上の説明により明らかなように、本発明によれば、被
撮像物における複数の特徴点を抽出し、この特徴点相互
間の位置と距離とから当該波目原物の位置及び姿勢を認
識させるようにしたので、照明条件の影響を受は難くな
り、これに伴って高精度の認識能力を備えることが可能
になり、かつ、前記被撮像物における真の特徴点を抽出
する前辺理を行なっているので、高速度の処理が可能に
なる。さらに、位置及び距離のデータを前記被撮像物に
対応したものに変更することによって、多種類の物に適
用させることができ、汎用性に冨んでいる等の優れた効
果を奏する。
(Effects of the Invention) As is clear from the above description, according to the present invention, a plurality of feature points in an imaged object are extracted, and the position of the wave original is determined based on the positions and distances between the feature points. Since the system recognizes the image and posture, it is less affected by lighting conditions, and as a result, it is possible to have highly accurate recognition ability, and extract the true feature points of the object to be imaged. Since front edge processing is performed, high-speed processing is possible. Furthermore, by changing the position and distance data to those corresponding to the imaged object, the present invention can be applied to many types of objects, and has excellent effects such as being highly versatile.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図は、本発明に係る位置姿勢認識装置のブロック図
、第2図は、本発明に係る位置姿勢認識装置の概略構成
図、第3図は、第2図に示した位置姿勢認識装置の動作
フローチャート、第4図(a>〜(C)は、第3図に示
した動作フローチャートの動f¥説明に供する図、第5
図及び第6図は、従来の位置姿勢認識装置の概略構成図
である。 1・・・カメラ(画像入力手段)、 20・・・A/Dコンバータ(画像入力手段)、22・
・・CPU (候補点抽出手段、選択手段、変換式作成
手段、比較手段、位置姿勢 締出手段)、 24・・・RAM (距離データ格納手段、位置データ
格納手段、許容誤差格納手段)、 W・・・ワーク(被撮像物)。 特許出願人     日産自動車株式会社代理人 弁理
士   八 1)幹 雄(ほか2名)第3図 第4図 (b)
FIG. 1 is a block diagram of the position and orientation recognition device according to the present invention, FIG. 2 is a schematic configuration diagram of the position and orientation recognition device according to the present invention, and FIG. 3 is the position and orientation recognition device shown in FIG. The operation flowchart of FIG. 4 (a> to (C) is a diagram for explaining the operation flowchart shown in FIG.
6 are schematic configuration diagrams of a conventional position and orientation recognition device. 1... Camera (image input means), 20... A/D converter (image input means), 22.
...CPU (candidate point extraction means, selection means, conversion formula creation means, comparison means, position and orientation exclusion means), 24...RAM (distance data storage means, position data storage means, tolerance storage means), W ...Work (object to be imaged). Patent applicant Nissan Motor Co., Ltd. agent Patent attorney 8 1) Mikio (and 2 others) Figure 3 Figure 4 (b)

Claims (1)

【特許請求の範囲】 被撮像物の画像情報を入力し、当該画像情報を各画素毎
にデジタル値として出力する画像入力手段と、 当該デジタル値に基づいて、当該被撮像物における複数
の特徴点を抽出する特徴点抽出手段と、前記被撮像物に
おいて基準となる夫々の各特徴点間の距離データを予め
格納する距離データ格納手段と、 当該距離データ格納手段に格納されている当該夫々の距
離データに基づいて、当該特徴点抽出手段によって抽出
した夫々の特徴点間の距離を順次比較し、この比較結果
から前記被撮像物における1組の組合わせデータを選択
する選択手段と、前記被撮像物において基準となる夫々
の特徴点の位置データを格納する位置データ格納手段と
、当該位置データ格納手段に格納されている位置データ
から当該選択手段により選択された1組の組合わせデー
タへ変換すべき変換式を算出すると共に、この変換式に
より算出された前記被撮像物における夫々の特徴点の位
置データ及び前記被撮像物において基準となる夫々の特
徴点の位置データ相互の最大誤差を求める変換式作成手
段と、前記被撮像物において基準となる夫々の特徴点の
位置データ及び前記被撮像物における夫々の特徴点の位
置データ相互の許容誤差を格納する許容誤差格納手段と
、 当該変換式作成手段によつて算出した前記被撮像物にお
ける夫々の特徴点の位置データ相互の最大誤差が、当該
許容誤差範囲内であるかどうかを比較する比較手段と、 当該比較手段を介して出力した前記変換式によって、前
記被撮像物の位置及び姿勢を求める位置姿勢算出手段と
を有することを特徴とする位置姿勢認識装置。
[Scope of Claims] Image input means for inputting image information of an object to be imaged and outputting the image information as a digital value for each pixel; a feature point extracting means for extracting a feature point, a distance data storage means for storing in advance distance data between each feature point serving as a reference in the imaged object, and a distance data storage means for storing in advance distance data between each feature point serving as a reference in the object to be imaged; a selection means for sequentially comparing distances between respective feature points extracted by the feature point extracting means based on the data, and selecting one set of combination data of the imaged object from the comparison results; a position data storage means for storing position data of each feature point serving as a reference in an object; and a position data storage means for converting the position data stored in the position data storage means into a set of combination data selected by the selection means. A transformation that calculates a power conversion formula and calculates the maximum error between the position data of each feature point in the imaged object calculated by this conversion formula and the position data of each feature point serving as a reference in the imaged object. formula creation means; tolerance storage means for storing mutual tolerance between position data of each feature point serving as a reference in the object to be imaged and position data of each feature point in the object to be imaged; a comparison means for comparing whether a maximum error between the positional data of each feature point of the imaged object calculated by the means is within the permissible error range; and the conversion outputted via the comparison means. A position/orientation recognition device comprising: position/orientation calculation means for determining the position and orientation of the object to be photographed using an equation.
JP18787686A 1986-08-12 1986-08-12 Apparatus for confirming position and posture Granted JPS6344103A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP18787686A JPS6344103A (en) 1986-08-12 1986-08-12 Apparatus for confirming position and posture

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP18787686A JPS6344103A (en) 1986-08-12 1986-08-12 Apparatus for confirming position and posture

Publications (2)

Publication Number Publication Date
JPS6344103A true JPS6344103A (en) 1988-02-25
JPH0575243B2 JPH0575243B2 (en) 1993-10-20

Family

ID=16213752

Family Applications (1)

Application Number Title Priority Date Filing Date
JP18787686A Granted JPS6344103A (en) 1986-08-12 1986-08-12 Apparatus for confirming position and posture

Country Status (1)

Country Link
JP (1) JPS6344103A (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01305303A (en) * 1988-06-03 1989-12-08 Yamatake Honeywell Co Ltd Method and apparatus for visual measurement
JPH0232203A (en) * 1988-07-21 1990-02-02 Aisin Seiki Co Ltd Height correcting method for two-dimensional image processing
JPH0259605A (en) * 1988-08-26 1990-02-28 Fanuc Ltd Detecting method for position and attitude of object having plural pieces of same shape objects
JPH02167410A (en) * 1988-12-21 1990-06-27 Nachi Fujikoshi Corp Recognizing method for object body
US7260252B2 (en) 2002-10-22 2007-08-21 Kabushiki Kaisha Toshiba X-ray computed tomographic apparatus, image processing apparatus, and image processing method
JP2007327938A (en) * 2006-05-10 2007-12-20 Topcon Corp Image processing device and method therefor
US7502504B2 (en) 2002-10-17 2009-03-10 Fanuc Ltd Three-dimensional visual sensor
CN112229373A (en) * 2019-07-15 2021-01-15 中国石油天然气集团有限公司 Combined height difference measuring device and method

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01305303A (en) * 1988-06-03 1989-12-08 Yamatake Honeywell Co Ltd Method and apparatus for visual measurement
JPH0232203A (en) * 1988-07-21 1990-02-02 Aisin Seiki Co Ltd Height correcting method for two-dimensional image processing
JPH0259605A (en) * 1988-08-26 1990-02-28 Fanuc Ltd Detecting method for position and attitude of object having plural pieces of same shape objects
JPH02167410A (en) * 1988-12-21 1990-06-27 Nachi Fujikoshi Corp Recognizing method for object body
US7502504B2 (en) 2002-10-17 2009-03-10 Fanuc Ltd Three-dimensional visual sensor
US7260252B2 (en) 2002-10-22 2007-08-21 Kabushiki Kaisha Toshiba X-ray computed tomographic apparatus, image processing apparatus, and image processing method
JP2007327938A (en) * 2006-05-10 2007-12-20 Topcon Corp Image processing device and method therefor
CN112229373A (en) * 2019-07-15 2021-01-15 中国石油天然气集团有限公司 Combined height difference measuring device and method
CN112229373B (en) * 2019-07-15 2022-12-02 中国石油天然气集团有限公司 Combined height difference measuring device and method

Also Published As

Publication number Publication date
JPH0575243B2 (en) 1993-10-20

Similar Documents

Publication Publication Date Title
JP3242108B2 (en) Target mark recognition and tracking system and method
JP6529302B2 (en) INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING METHOD, AND PROGRAM
EP2045772B1 (en) Apparatus for picking up objects
JPH01196501A (en) Object recognizing apparatus for robot
US4110736A (en) Shape recognition system
CN111844019A (en) Method and device for determining grabbing position of machine, electronic device and storage medium
JPS6344103A (en) Apparatus for confirming position and posture
JP2003136465A (en) Three-dimensional position and posture decision method of detection target object and visual sensor of robot
JP3243916B2 (en) Circular pattern measurement and position recognition device
JP2010032258A (en) Apparatus and method for recognizing position of work for depalletizing
JP4793109B2 (en) Object detection method and robot
WO2018135326A1 (en) Image processing device, image processing system, image processing program, and image processing method
JPS6361903A (en) Three-dimensional coordinate converting device
JP3516668B2 (en) Three-dimensional shape recognition method, apparatus and program
JPH0953915A (en) Method for recognizing overlapping state
JPH1166321A (en) Method for detecting work position
JPH07121713A (en) Pattern recognition method
JPH085333A (en) Three-dimensional position-attitude recognizing apparatus
JPH05113315A (en) Detecting method for center position of circular image data
Gadelmawla et al. On-line measurement of product dimensions using computer vision
CN117260003B (en) Automatic arranging, steel stamping and coding method and system for automobile seat framework
JPH0738223B2 (en) Image recognition device for mobile robots
Katsoulas et al. Efficient 3d vertex detection in range images acquired with a laser sensor
JP2897612B2 (en) Work detection method
JP3375242B2 (en) Robot object recognition method and apparatus