JPS59227382A - Precise positioning system - Google Patents

Precise positioning system

Info

Publication number
JPS59227382A
JPS59227382A JP10259183A JP10259183A JPS59227382A JP S59227382 A JPS59227382 A JP S59227382A JP 10259183 A JP10259183 A JP 10259183A JP 10259183 A JP10259183 A JP 10259183A JP S59227382 A JPS59227382 A JP S59227382A
Authority
JP
Japan
Prior art keywords
image
imaging device
robot
work
precision positioning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP10259183A
Other languages
Japanese (ja)
Inventor
大場 雅博
薦田 憲久
春名 公一
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP10259183A priority Critical patent/JPS59227382A/en
Publication of JPS59227382A publication Critical patent/JPS59227382A/en
Pending legal-status Critical Current

Links

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。
(57) [Summary] This bulletin contains application data before electronic filing, so abstract data is not recorded.

Description

【発明の詳細な説明】 〔発明の利用分野〕 本発明は、ロボット#を用いる自動化生産システムに係
わ9、ロボットやマテリアルルンドリング(マアルン)
装置等により、任意形状部品を、立体空間内の任意の位
置へ組付け、パレタイズ等を実施する稍密位14決めシ
ステム((関する。
[Detailed Description of the Invention] [Field of Application of the Invention] The present invention relates to an automated production system using a robot.
A dense positioning system (14) in which parts of arbitrary shape are assembled to any position in a three-dimensional space and palletized using a device or the like.

〔発明の背泉〕[Back spring of invention]

従来、撮像装置を用いた位、猷決めシステムにおい工は
、撮像装置。泣1酢は固定うオ、えい、 −1e 1 
)・72)。そのため、平面内の位1(決めは可能なも
のの、立体空間内、特に筐体の内部での位置決めは不可
能であるという問題点があった。
Conventionally, an imaging device was used for the odor control system, but an imaging device was used. Cry 1 vinegar is fixed Uo, Ei, -1e 1
)・72). Therefore, although it is possible to determine the position in a plane, there is a problem in that it is impossible to determine the position in a three-dimensional space, especially inside the casing.

米1)江尻正員:知能ロボット技術の工業応用。1) Masanori Ejiri: Industrial application of intelligent robot technology.

ロボット 白井良明編(共立出版)、pp。Robot, edited by Yoshiaki Shirai (Kyoritsu Publishing), pp.

67〜75(1976) 米2)谷内田正彦:視覚を用いた自動検査および自動組
立てシステムの動向1日経エレクトロニクス、pp、1
69〜202 (1982,6゜7) 〔発明の目的〕 本発明の目的は、ロボットやマテハン装置による組立、
パレタイズシステムに対し、立体空間内で任意の作業点
の位置決めを可能とする位置決めシステムを提供するこ
とにある。
67-75 (1976) US 2) Masahiko Yauchida: Trends in automatic inspection and automatic assembly systems using visual sense 1 Nikkei Electronics, pp, 1
69-202 (1982, 6°7) [Object of the invention]
An object of the present invention is to provide a positioning system for a palletizing system that enables positioning of an arbitrary work point within a three-dimensional space.

〔発明の概要〕[Summary of the invention]

ロボットハンドは立体空間内で高精度に位置決めを行な
うことが可能である。これを利用して、ロボットハンド
が撮像装置を把持して移動し、任意の視点、視線からの
画像を得ることにする。この場合の問題点は、ロボット
に把持された撮像装置とロボットハンド間の位置のキャ
リブレーションである。本発明では、作業台(ワークを
取付けるステーション)がロボットに対し精密位置決め
されていることに着目し、作業台を用いてキャリブレー
ションを実施する。
A robot hand can perform highly accurate positioning within a three-dimensional space. Using this, the robot hand grasps the imaging device and moves to obtain images from any viewpoint or line of sight. The problem in this case is the calibration of the position between the imaging device held by the robot and the robot hand. In the present invention, attention is paid to the fact that the workbench (station where a workpiece is attached) is precisely positioned with respect to the robot, and calibration is performed using the workbench.

〔発明の実施例〕[Embodiments of the invention]

以下、本発明の一実施例を第1図〜第6図を用いて説明
する。
An embodiment of the present invention will be described below with reference to FIGS. 1 to 6.

第1図は、本発明の一実施例を示すシステム構成図であ
る。1は作業ロボット、2は撮像装置、3は制御装置、
4は作業台、5はソールマガジン、6はワーク、7はパ
レットである。撮像装置2は、制御装置惺3と接続され
ており、画像情報を制御装置3に送信する。作業口ボッ
)1は、制御装置3と接続されており、制御装置3から
の信号に従って動作するっツールマガジン5は、作(ロ
ボット1の傍にあり、撮像装置2を置くものである。ワ
ーク6Lパレツト7に取付けら1tてお9、パレット7
は作業台4に取付けられている。制御装置lt3は、作
業ロボット1の動作の制御や撮像装置2から送信されて
きた画像情報の処理を行なう。
FIG. 1 is a system configuration diagram showing an embodiment of the present invention. 1 is a working robot, 2 is an imaging device, 3 is a control device,
4 is a workbench, 5 is a sole magazine, 6 is a workpiece, and 7 is a pallet. The imaging device 2 is connected to a control device 3 and transmits image information to the control device 3. The work opening (bottom) 1 is connected to the control device 3, and operates according to signals from the control device 3. 1t 9, attached to 6L pallet 7, pallet 7
is attached to the workbench 4. The control device lt3 controls the operation of the working robot 1 and processes image information transmitted from the imaging device 2.

本実施例では、作業テーブル4上にパレット7が粗い精
度で衣付けられているときに、ワーク6上の点Pの位置
を、高精度で検出する場合を例にとり説明する。
In this embodiment, a case will be described in which the position of a point P on the workpiece 6 is detected with high accuracy when the pallet 7 is placed on the work table 4 with rough accuracy.

第2図(a)に、制御装置3の内部構成を示す。FIG. 2(a) shows the internal configuration of the control device 3.

21は通常時ロボット制御プログラム、25は、撮像時
ロボット制耐プログラム、22は教示用画像記憶部、2
3は撮像用画像記憶部、26は、変位登録部、24は、
作業教示データ記憶部、27は、キャリブレーション位
置データ記憶部、2Bはキャリブレーション結果記憶部
でるる。
21 is a normal robot control program, 25 is a robot endurance program during imaging, 22 is a teaching image storage unit, 2
3 is an imaging image storage unit, 26 is a displacement registration unit, 24 is
A work instruction data storage section, 27 is a calibration position data storage section, and 2B is a calibration result storage section.

作業教示データ記憶部24には、一連の作業を実施する
ための教示データ(位14.決めポイント、動作内容、
等)が記憶されている。撮像による位置検出を実行する
ためには、動作内容として、「場像」、位置決めポイン
トとして、撮像装置をセットすべき位置、方向に応じた
ロボットハンドの座標9回転角、等が記入されている。
The work teaching data storage unit 24 stores teaching data (14. decision points, operation details,
etc.) are memorized. In order to perform position detection by imaging, the "field image" is entered as the operation content, the position where the imaging device should be set as the positioning point, the coordinates of the robot hand according to the direction, 9 rotation angles, etc. .

教示用画像記憶部22は、第2図(b)に示す構造をし
ておりワークがロボットに対し正しい位置にある場合に
、上記座標9回転角等で撮像して得られる画像を教示時
に記憶しておく部分であり、広角画像と近接画像の2つ
が記憶されている。ただし、この記憶部Ω画像データ番
号00部分はワークエリアとして、画像データ番号1の
部分は、キャリブレーション用データの記憶部として使
われる。撮像用画像記憶部23は、撮像装置2からの画
像情報を記憶する部分である。
The teaching image storage unit 22 has a structure shown in FIG. 2(b), and stores an image obtained by capturing the image at the above-mentioned coordinates 9 rotation angles etc. when the workpiece is in the correct position relative to the robot at the time of teaching. Two images, a wide-angle image and a close-up image, are stored. However, the storage section Ω image data number 00 portion is used as a work area, and the image data number 1 portion is used as a storage section for calibration data. The imaging image storage unit 23 is a part that stores image information from the imaging device 2.

変位登録部23は、教示時画像と撮像時画像とにもとづ
き、撮像時ロボット判御プログラム25がずれを算出し
、その結果を登録するためのものである。
The displacement registration unit 23 is used by the imaging robot recognition program 25 to calculate a deviation based on the teaching image and the imaging image, and to register the result.

キャリブレーション位置データ記憶部27には、キヤリ
ブレーシヨンを行なうための位置データが記憶されてい
る。キャリブレーション41記憶部2Bには、キャリブ
レーションの結果得られた、ロボットハンドと撮像装置
との相対位置を記憶するためのものである。通常時ロボ
ット”t+tJ御プログラム21け、従来から行なわれ
ているロボット制御プログラムと同等のものであり、作
業教示データ記憶部24に記入されているデータに従い
、口ポットの動作を制御する。撮像時ロボット制御プロ
グラム25は、作業教示データが「撮像」の場合、通常
時ロボット制御プログラムからCALLされ1以下に述
べる処理を実施する。
The calibration position data storage section 27 stores position data for performing calibration. The calibration 41 storage unit 2B is for storing the relative positions of the robot hand and the imaging device obtained as a result of calibration. In normal operation, the robot control program 21 is equivalent to the conventional robot control program, and controls the operation of the mouth pot according to the data written in the work instruction data storage section 24. When the work instruction data is "imaging", the robot control program 25 is called by the normal robot control program and executes the process described below.

第3図に、撮像用ロボット制御プログラム25の処理フ
ローを示す。
FIG. 3 shows a processing flow of the imaging robot control program 25.

1)ox31では、撮像装置を把持する旨の信号をロボ
ットに送信する。ロボットはこの信号に従い、ツールマ
ガジン内の撮像装置を把持する。
1) The ox31 sends a signal to the robot to grasp the imaging device. The robot grasps the imaging device in the tool magazine according to this signal.

box32では、キャリブレーション周位置データ記1
意部27から、位置座標Xcと回転角θc等とを読取る
In box 32, calibration circumferential position data record 1
The position coordinate Xc, rotation angle θc, etc. are read from the control section 27.

1)ox33では、位置座標Xcと回転角θC等をロボ
ットに送信する。ロボットは、Xc、θC等にもとづき
、キャリブレーション位置に移動する。
1) The ox33 transmits the position coordinates Xc, rotation angle θC, etc. to the robot. The robot moves to the calibration position based on Xc, θC, etc.

box34では、画像データ番号工に1をセットする。In box 34, 1 is set in the image data number field.

box35では、画像処理サブルー−1’7’rcAL
I。
In box 35, image processing subroutine-1'7'rcAL
I.

する。do.

画像処理サブルーチンは、第4図に示す処理フローに従
う。
The image processing subroutine follows the processing flow shown in FIG.

1)ox55で社、!層像装置の画像を読込み、撮像用
画像記憶部にストアする。
1) OX55 company! The image of the layer imaging device is read and stored in the imaging image storage section.

box56では、教示用画像記憶部22中の、画像デー
タ番号工に記入されている画像データと、撮像用画像記
憶部23に記入されている画像データとの比較により、
「ずれ」を検出して、変位登録部26に記入する。
In box 56, by comparing the image data written in the image data number field in the teaching image storage section 22 and the image data written in the imaging image storage section 23,
A "shift" is detected and entered in the displacement registration section 26.

この後、画像処理サブルーチンはRETURNする。After this, the image processing subroutine RETURN.

box36では、変位登録部2″′6に記入さルた値が
、許容値(ロボット運用者により予め設定されている)
以内かを判定する。許容値以内であれば、1)ox38
へ、許容値を越えておればbox37へ進む。
In box 36, the value entered in the displacement registration section 2'''6 is the allowable value (preset by the robot operator).
Determine whether it is within the range. If it is within the allowable value, 1) ox38
If the value exceeds the allowable value, proceed to box 37.

box37では、変位登録部36に記入された値だけ移
動するように、ロボットに対し1言号を送信する。その
後、1)ox35へ進む。
In box 37, one word is sent to the robot so that it moves by the value entered in the displacement registration section 36. Then proceed to 1) ox35.

これにより、ロボットは、「ずれ」を解消する方向へ移
動する。1)ox35〜1)ox37の処理を繰返すこ
とにより、画像データ番号Iを用いた位置決めが完了す
る。
As a result, the robot moves in a direction that eliminates the "misalignment." By repeating the processing of 1) ox35 to 1) ox37, positioning using image data number I is completed.

box38では、ロボットハンドの現在位置Xpを検出
し、近接距離XNに達しているか否かを判定する。もし
、近接距離に達している(Xp≦XN)ならbQX42
へ進み、近接距離に達していない(XP>XN)なら、
box39へ進む。
In box 38, the current position Xp of the robot hand is detected, and it is determined whether the proximity distance XN has been reached. If close distance is reached (Xp≦XN), bQX42
Proceed to , and if the melee distance has not been reached (XP>XN),
Proceed to box 39.

t)ox39では、ロボットに対し、XQの位置へ移動
する旨の信号を送信する。X ci =max (XN
t) The ox39 sends a signal to the robot to move to the position XQ. X ci = max (XN
.

Xp+Y)。(Yは、ロボット運用者により予め設定さ
れている。) box40では、ワークが正しく置かれている場合に、
位置XQで得られるべき画像を、広角画像と近接画像を
用いて作成する。その原理は、第5図に示す如く、単純
な比例計算にもとづく。図中、XFは、広角画像を得た
位置データである。このようにして得られた画像を、教
示用画像記憶部22のワークエリアにストアする。
Xp+Y). (Y is set in advance by the robot operator.) In box 40, if the workpiece is placed correctly,
An image to be obtained at position XQ is created using a wide-angle image and a close-up image. The principle is based on a simple proportional calculation, as shown in FIG. In the figure, XF is position data from which a wide-angle image was obtained. The image thus obtained is stored in the work area of the teaching image storage section 22.

box41は、画像データ番号Iを0(ワークエリア)
とする。
box41 sets the image data number I to 0 (work area)
shall be.

box35〜box41での繰返しにより、撮像装置2
を段階的にキャリプレ−7ヨン位置に接近させ、高精度
な位置決めを実施する。
By repeating boxes 35 to 41, the imaging device 2
is brought closer to the caliper position in stages to perform highly accurate positioning.

box42では、キヤリプレーションデータヲソの記憶
部28にストアする。
In the box 42, the calibration data is stored in the storage section 28.

box43では、今位置決めしたい点の画像データ番号
をIにセットする。
In box 43, the image data number of the point to be positioned is set to I.

1)ox44では、今位置決めしたい点Pのデータを、
作業数示データ記憶部から読出する。
1) On ox44, input the data of the point P you want to position now,
Read from the work number indication data storage section.

box45〜box51は、box35〜box41と
同様にして、点Pの精密位置決めを実施する。
Boxes 45 to 51 perform precise positioning of point P in the same way as boxes 35 to 41.

その様子を第6図に示す。The situation is shown in FIG.

f3)は教示時の広角画像データである。教示された位
置での撮像画像は(0の如くなったとする。すると、ず
れrlを解消するために、t)ox45〜box47を
繰返す。この結果、(C)の搬像画像が得られ、粗い位
置決めは完了する。次に、撮像装置をわずかだけ近接す
る。その時、box50に従って作成した画像データは
bに示すものとなる。撮像装置からの画像が(f)の如
くなったとすると、ずれr2を解消するように、box
 45〜box47を繰返す。その結果(g)の撮像画
像が得られる。以上の近接を繰返し、最終的には、近接
画像データ(c)と一致した撮像画像(i)が得られる
と、位置検出は終了する。
f3) is wide-angle image data at the time of teaching. Assume that the captured image at the taught position is (0). Then, in order to eliminate the deviation rl, t) ox45 to box47 are repeated. As a result, the conveyed image shown in (C) is obtained, and the rough positioning is completed. Next, move the imaging device slightly closer. At that time, the image data created according to box 50 will be as shown in b. Assuming that the image from the imaging device is as shown in (f), box
45 to box 47 are repeated. As a result, the captured image (g) is obtained. When the above-described approach is repeated and a captured image (i) that matches the close-up image data (c) is finally obtained, the position detection ends.

t)ox 52では、1曖終的なロボットハンドの位置
データから、キャリブレーション結果を差引くことによ
り、求める点の精密位置データel!出する。
t)ox 52 subtracts the calibration result from the final robot hand position data to obtain precise position data el! of the desired point! put out

以上の操作により、点Pの精密位置決めが実行される。Through the above operations, precise positioning of point P is executed.

〔発明の効果〕〔Effect of the invention〕

本発明によれば、任意の方向、任意の形状のワークに対
し、立体空間内で高精度の位置決めが可能となるので、
任意の方向で到着する多様な形状のワークを、特定の位
置に立体的に精度良く取付けねばならない組立作業やパ
レタイズ作業をロボットに実施させることが可能になる
According to the present invention, it is possible to position a workpiece of any direction and any shape with high precision in a three-dimensional space.
This makes it possible for robots to perform assembly and palletizing work that requires three-dimensionally and accurately attaching workpieces of various shapes that arrive in arbitrary directions to specific positions.

【図面の簡単な説明】 第1図は、本発明のシステム構成図、第2図は、制御装
置の内部構成を示す図、第3図は、撮像時ロボット制御
プログラムの処理フローを示す図、第4図は、そのサブ
ルーチンの処理フローン:示す図、第5図は、教示画像
データから、ワークデータを作成する原理を示す図、第
6図は、精密位置が決まるまでの過程を示す図、である
。 3・・・制御装置、2・・・撮像装置、1・・・作業ロ
ボット、25・・・撮像時ロボット制御プログラム、2
2・・・教第  1  図 ′f3z  回 (0−) <1) 葛 3 図 ′¥34  図 寥  5  図 vib図 (f) −1げ (θ−ン (C〕
[BRIEF DESCRIPTION OF THE DRAWINGS] FIG. 1 is a system configuration diagram of the present invention, FIG. 2 is a diagram showing the internal configuration of a control device, and FIG. 3 is a diagram showing a processing flow of a robot control program during imaging. FIG. 4 is a diagram showing the processing flow of the subroutine, FIG. 5 is a diagram showing the principle of creating workpiece data from teaching image data, and FIG. 6 is a diagram showing the process until the precise position is determined. It is. 3... Control device, 2... Imaging device, 1... Work robot, 25... Robot control program at the time of imaging, 2
2... Lesson 1 Figure'f3z times (0-) <1) Kuzu 3 Figure'\34 Figure 5 Figure vib figure (f) -1ge (θ-n (C)

Claims (1)

【特許請求の範囲】 1、精密位置決めシステムにおいて、撮像装置と、その
撮像装置Itを把持し作業対象の任意の点の画像を得る
ことができるように撮像装置を運搬する作業ロボットと
、部品画像を記憶する記憶部とを設け、該記憶部には予
め位置決めすべき作業点の特徴パターン画1象を記憶せ
しめ、撮像装置を作業用ロボットにより搬送して位置決
めすべき作業点の画像を得、記憶しである特徴パターン
画像と撮像装置4の画像のずれにもとづき作業ロボット
を移動することにより、1′「業対象の任意の点の立1
i決めを行なうこと’e 特徴とする享青留泣1唯決め
システム。 2、特許請求の範囲第1項の精密位置決めシステムにお
いて、作業ロボットのハンド部に撮像装置を組込んだこ
とを特徴とする精密位置決めシステム。 3、特許請求の範囲第1項の精密位、遅決めシステムに
おいて、画像記憶部に、予め、作業点を遠方から撮像し
た場合の広角画像と、作業点を近傍で撮像した場合の近
接面1象を記憶しておき、広角画像を用いた粗位1置決
めの後、撮像装置を作業点に接近し、近接画像を用いて
高精度位置決めを行なうことを特徴とする精密位置決め
システム。
[Claims] 1. In a precision positioning system, an imaging device, a working robot that grasps the imaging device It and carries the imaging device so as to be able to obtain an image of an arbitrary point on a work target, and a part image. a storage unit for storing, in the storage unit, a characteristic pattern image of a work point to be positioned is stored in advance, and an image pickup device is conveyed by a work robot to obtain an image of the work point to be positioned; By moving the working robot based on the discrepancy between the memorized characteristic pattern image and the image captured by the imaging device 4,
To make a decision'e A unique decision system for Kyosei Rui. 2. A precision positioning system according to claim 1, characterized in that an imaging device is incorporated into a hand portion of a working robot. 3. In the precision positioning/delay determination system of Claim 1, the image storage unit stores in advance a wide-angle image when the work point is imaged from a distance, and a close-up image 1 when the work point is imaged from a nearby location. 1. A precision positioning system that memorizes an image, performs rough positioning using a wide-angle image, approaches a work point with an imaging device, and performs high-precision positioning using a close-up image.
JP10259183A 1983-06-10 1983-06-10 Precise positioning system Pending JPS59227382A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP10259183A JPS59227382A (en) 1983-06-10 1983-06-10 Precise positioning system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP10259183A JPS59227382A (en) 1983-06-10 1983-06-10 Precise positioning system

Publications (1)

Publication Number Publication Date
JPS59227382A true JPS59227382A (en) 1984-12-20

Family

ID=14331472

Family Applications (1)

Application Number Title Priority Date Filing Date
JP10259183A Pending JPS59227382A (en) 1983-06-10 1983-06-10 Precise positioning system

Country Status (1)

Country Link
JP (1) JPS59227382A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61296409A (en) * 1985-06-25 1986-12-27 Fanuc Ltd Robot control system
WO1992001539A1 (en) * 1990-07-19 1992-02-06 Fanuc Ltd Method of calibrating visual sensor

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61296409A (en) * 1985-06-25 1986-12-27 Fanuc Ltd Robot control system
WO1992001539A1 (en) * 1990-07-19 1992-02-06 Fanuc Ltd Method of calibrating visual sensor
US6114824A (en) * 1990-07-19 2000-09-05 Fanuc Ltd. Calibration method for a visual sensor

Similar Documents

Publication Publication Date Title
EP0123214B1 (en) Operation teaching method and apparatus for industrial robot
US9333654B2 (en) Robot parts assembly on a workpiece moving on an assembly line
EP1607194A2 (en) Robot system comprising a plurality of robots provided with means for calibrating their relative position
WO1992005399A1 (en) Method and apparatus for determining position and orientation of mechanical objects
JP2004508954A (en) Positioning device and system
JPS6037273A (en) Manipulator type welding apparatus
WO1999012082A1 (en) Method for calibration of a robot inspection system
Jinno et al. Development of a force controlled robot for grinding, chamfering and polishing
US11554494B2 (en) Device for acquiring a position and orientation of an end effector of a robot
CN110883774A (en) Robot joint angle zero calibration system, method and storage medium
Sharma et al. A framework for robot motion planning with sensor constraints
JPS6332306A (en) Non-contact three-dimensional automatic dimension measuring method
CN107932502A (en) A kind of SCARA method for planning track of robot based on binocular stereo vision
Driels et al. Robot calibration using an automatic theodolite
JP3517529B2 (en) Image input type robot system
JPS59227382A (en) Precise positioning system
Jian et al. On-line precision calibration of mobile manipulators based on the multi-level measurement strategy
CN111275662A (en) Workpiece positioning method, device and equipment based on two-dimensional code and storage medium
JP3562096B2 (en) Position detection method
SE456976B (en) PROCEDURE AND DEVICE FOR A ROBOT EQUIPMENT FOR DETERMINING THE LOCATION OF A PURPOSE
CN116442225B (en) Robot tail end positioning method, positioning device and electronic equipment
JPS5997873A (en) Method of correcting positional displacement of work in robot
JP7155216B2 (en) Mobile body control device and control method
JPH05100725A (en) Position correcting method for robot
JPH08141881A (en) Device and method for deburring