JPH0299802A - Setting method of coordinate system in visual sensor using hand eye - Google Patents

Setting method of coordinate system in visual sensor using hand eye

Info

Publication number
JPH0299802A
JPH0299802A JP25213988A JP25213988A JPH0299802A JP H0299802 A JPH0299802 A JP H0299802A JP 25213988 A JP25213988 A JP 25213988A JP 25213988 A JP25213988 A JP 25213988A JP H0299802 A JPH0299802 A JP H0299802A
Authority
JP
Japan
Prior art keywords
coordinate system
point
robot
visual sensor
jig
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP25213988A
Other languages
Japanese (ja)
Inventor
Atsushi Watanabe
淳 渡辺
Kazuhiko Akiyama
和彦 秋山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fanuc Corp
Original Assignee
Fanuc Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fanuc Corp filed Critical Fanuc Corp
Priority to JP25213988A priority Critical patent/JPH0299802A/en
Publication of JPH0299802A publication Critical patent/JPH0299802A/en
Pending legal-status Critical Current

Links

Abstract

PURPOSE:To reduce an error between a robot coordinate system and a coordinate system of a visual sensor and to improve the precision in correction of position by a method wherein the two coordinate systems used for a robot control are set on the basis of one point on a jig fitted to a robot. CONSTITUTION:A jig 9 showing a point P of which the coordinate position in a base coordinate system is known is fitted to a robot 1, a tool center point is positioned at the point P and taught, the origin of the base coordinate system is shifted in parallel to the taught point, with the taught point used as the origin, and a coordinate system thus obtained is set as a robot coordinate system. Next, a camera 8 fitted to a hand 7 is positioned at an image intake position and made to recognize the point P, and this is set as the origin of a visual sensor coordinate system. Subsequently, the hand 7 (camera 8) is moved in parallel to one coordinate axis being vertical to the optical axis of the camera 8 and passing through the point P, and a visual sensor is made to recognize the point P. Then the visual sensor coordinate system and the length for one picture element are set on the basis of a distance of shift between the recognized point and the origin of the visual sensor coordinate system, the direction of shift thereof and the direction of the hand 7.

Description

【発明の詳細な説明】 産業上の利用分野 本発明は、視覚セン→ノの座標系設定方法に関し、特に
、ロボットハンドにカメラを取イ」()る視覚センサに
お【ノる座標系設定方法に関する。
DETAILED DESCRIPTION OF THE INVENTION Field of Industrial Application The present invention relates to a method for setting a coordinate system for a visual sensor, and in particular, a method for setting a coordinate system for a visual sensor in which a camera is attached to a robot hand. Regarding the method.

従来の技術 三次元空間の直交座標系を設定するには、三次元空間士
の最低3点を決める必要がある。通常、ロボッ1へを制
御りる/jめの肖交肢標系(mlボッl−座標系という
〉を設定するには、例えば、■[1ボッl−iii’i
交座標系の原点(【コボッ]〜機構部に設定されている
ベース座標系に対する位置)、■[1ボツh直交座標系
のX軸上の正方向の点、■ロボット直交座標系のXY平
面十におけるY軸止り向の任意の点等の3つの点を教示
することによって[1ボッ1−直交座標系を設定しでい
る。また、視覚センサのカメラと検出対象物どの距離、
即ち、画像取込位置も設定する必要がある。
BACKGROUND OF THE INVENTION To set a rectangular coordinate system in a three-dimensional space, it is necessary to determine at least three points on the three-dimensional spaceman. Normally, in order to set the /jth portrait limb reference system (referred to as the ml-coordinate system) for controlling robot 1, for example,
Origin of the orthogonal coordinate system ([Kobot] - position relative to the base coordinate system set in the mechanism), ■ [1 point in the positive direction on the X axis of the orthogonal coordinate system, ■ XY plane of the robot orthogonal coordinate system By teaching three points, such as an arbitrary point in the Y-axis end direction in 1, a rectangular coordinate system has been set. Also, the distance between the visual sensor camera and the detected object,
That is, it is also necessary to set the image capture position.

同様に、視覚ロン1ノの座標系の設定を行う場合にも、
例えば■視覚セン勺座標系の原点、■視覚セン1ノ座標
系のX 1lIl)の11一方向の点、■視覚セン1ノ
座標系のXY平面上に6けるY Ill+正り向の任意
の点の3点を教示ηる必要があり、さらに、視覚しンリ
のカメラが取込んだ画像を記憶するフレームメモリの1
画素あたりの長さを決定しな()ればならない。イして
、こうして設定されるロボット座標系と視覚セン1ノ座
標系を一致させ、視覚センサが該視覚しンリの座標系で
認識した位置と[1ポツト座標系の位置が対応するJ、
)に座標系61.9定しな(Jればならない。
Similarly, when setting the visual Ron 1 no coordinate system,
For example, ■ the origin of the visual sense coordinate system, ■ 11 points in one direction of the visual sense coordinate system (X 1lIl), ■ 6 points on the XY plane of the visual sense 1 coordinate system + any point in the normal direction. It is necessary to teach three points, and one frame memory that stores images captured by the visual camera.
The length per pixel must be determined (). Then, the robot coordinate system set in this way is made to match the coordinate system of the visual sensor 1, and the position recognized by the visual sensor in the coordinate system of the visual sensor is
) must be defined as the coordinate system 61.9 (J).

従来、このようなロボット座標系及び視覚シテン+J[
標系を設定する場合、上述したにうに、[1ボット直交
座標系の原点位置と、ある1つの軸、例えばX軸上の正
り向の点及びXY平而面のYIl!l14T:方向の任
意の点の3点を示す治具を用意しておき、これら3点に
夫々ロボットのツールセンタポイント(TCP)を位置
づけ、これら3点を教示しでロボット座標系を設定し、
その後、上記画像取込位置にハンドを移動させ、上記3
点をカメラでとらえ、認識された上記3点より視覚セン
→ノ座標系を設定している。1こうして、同一 3点に
J:って座標系を設定するから、ロボット座標系と視覚
センリー座標系は一致する。
Conventionally, such a robot coordinate system and visual position +J [
When setting the reference system, as described above, [the origin position of the 1-bot Cartesian coordinate system, the point in the normal direction on one axis, for example, the X-axis, and YIl! of the XY plane! l14T: Prepare a jig that indicates three arbitrary points in the direction, position the robot's tool center point (TCP) at each of these three points, set the robot coordinate system by teaching these three points,
After that, move the hand to the above image capture position, and
The points are captured with a camera, and a visual coordinate system is established from the three recognized points. 1 In this way, the coordinate system J: is set at the same three points, so the robot coordinate system and the visual sensory coordinate system match.

発明が解決しようとする課題 上述したように、従来の方式では、3貞を教示する治具
を用いて、ロボッ(・を制御り−るIこめの座標系設定
ど視覚セン勺の用いる座標系の設定とを別々に行わねば
ならないから、座標系設定、即ち、4ヤリブレーシヨン
の作X項[1が多く効率的ではなかった1、また、座標
系の設定に用いられる治具の粘麿が位置補正の精度に大
きく影響を与えるという欠点があった。
Problems to be Solved by the Invention As mentioned above, in the conventional method, a jig that teaches three points is used to set the coordinate system of the robot (I) that controls the robot, and the coordinate system used by the visual sensor. The setting of the coordinate system, that is, the operation of the 4-brasion X term [1], which was not efficient, and the However, there was a drawback in that the accuracy of position correction was greatly affected.

そこで、本発明の目的は、Dボッ1−及び視覚センサの
座標系の設定を筒中に?ゴうごとができる、ハンドアイ
を用いた視覚センサにおりる座標系設定方法を提供する
ことにある。
Therefore, it is an object of the present invention to set the coordinate system of the D-box and the visual sensor in the cylinder. The object of the present invention is to provide a method for setting a coordinate system on a visual sensor using a hand-eye, which can be moved around.

課題を解決りるための手段 本発明では、上記課題を解決するために、[1ボツ1〜
に設定されているベース8標系にお【)る所定の座標位
1行の1点をちえる治具をロボット・に取付り、該治具
」二の1点を11ボッ1−に教示し、該教示点を原点と
する上記ベース座標系をシフトした直交座標系をロボッ
1へ座標系として設定覆る。次に、ロボットを画像取込
位置に移動させて、十記治具十の1点を視覚セン勺で・
認識させ(視覚しンリ座標系の原点として設定し、上記
カメラの光軸と垂j 直で上記治具上の1点を通る上記ベース座標系の1つの
座標軸と平行にロボットハンドを移動さけて上記治具上
の1点を視覚センサに認識さゼ、該認識した点と1記視
覚センリ座標系の原点間の移動距離、移動方向及び0ボ
ツ1〜ハンドの向きにJ、って視覚セン勺の座標系及び
1画素あたりの長さを設定するようにした。
Means for Solving the Problems In the present invention, in order to solve the above problems,
Attach a jig to the robot that hits one point in one row at the predetermined coordinate position in the base 8 reference system set in [ ), and teach the 11th point of the jig to the 11th box 1-. Then, an orthogonal coordinate system obtained by shifting the base coordinate system with the teaching point as the origin is set as the coordinate system for the robot 1. Next, move the robot to the image capture position and visually detect one point on the jig.
(set it as the origin of the visual coordinate system, and move the robot hand parallel to one coordinate axis of the base coordinate system that is perpendicular to the optical axis of the camera and passes through one point on the jig) One point on the jig is recognized by the visual sensor. The coordinate system and length per pixel of the pixel can now be set.

作  用 ベース座標系にa3 Lノる座標位置が既知である治具
上の1点を、ベース座標系にJ5ける陣標位置としての
数値により、または、手動でツールセンタポイン[・を
位置づけて教示することにより、該教示点を原点とし、
ベース座標系の各軸に平行<’j、即ち、ベース座標系
の原点を教示点に平行移動して得られる座標系を[1ボ
ツ1〜を制御するため0月ポット座標系として設定する
Position a point on the jig whose coordinate position is known in the operation base coordinate system using the numerical value as the base position in J5 in the base coordinate system, or manually position the tool center point [. By teaching, the teaching point is set as the origin,
Parallel to each axis of the base coordinate system<'j, that is, the coordinate system obtained by moving the origin of the base coordinate system parallel to the teaching point is set as the pot coordinate system to control [1 pot 1~].

そして、ロボットを移動さけ、ハンドに取イ・H)られ
たカメラを設定された画像取込位置に位;6づり、治具
上の上記1貞を認識し、この認識した貞を視覚センリ座
標系の原点として設定し、次に、カメラの光軸と垂直で
、治り、1」−の上記1点を通るベース座標系(ロボッ
ト座標系)の1つの座標軸と平行にnボットハンドを移
動させることにより、カメラを移動さけ、治具上の上記
1点を視覚セン→ノに認識ざゼると、該認識した点と視
覚センサ座標系の原点間の移動距離、移動1ノ向 [1
ボツトハンドの向きより視覚ヒンサ座標系が設定される
Then, while avoiding moving the robot, place the camera held in the hand at the set image capturing position; Set as the origin of the system, then move the n-bot hand parallel to one coordinate axis of the base coordinate system (robot coordinate system) that is perpendicular to the optical axis of the camera and passes through the above one point of 1"- Therefore, when the camera is moved and the above point on the jig is recognized from the visual sensor to
A visual coordinate system is set based on the orientation of the bottom hand.

即ち、視覚センタ座標系の原点として認識した視覚セン
タのフレームメ[り十の上記治具上の1点どカメラを移
動さμで認識させた治具上の1点間のフレームメモリの
画素数ど、ロボットハンドの移動距離にJ:って1画系
あたりの長さが決定され、視覚センタで認識した2つの
点を結ぶ線が視覚センタ座標系の1つの座標軸として決
定され、この座標軸とIロボットハンド(カメラ)の移
動方向により、他の2つの視覚センタの座標軸が決定で
き、かつ、ツールの向きにより座標軸の向ぎが決まる。
In other words, from one point on the jig at the visual center recognized as the origin of the visual center coordinate system, the number of pixels in the frame memory between the points on the jig recognized by moving the camera is Then, the length per image system is determined by the moving distance of the robot hand, and the line connecting the two points recognized by the visual center is determined as one coordinate axis of the visual center coordinate system, and this coordinate axis and The coordinate axes of the other two visual centers can be determined by the moving direction of the I robot hand (camera), and the direction of the coordinate axes is determined by the orientation of the tool.

例えば、視覚センタの原点を決定した後、ベース座標系
(ロボット座標系)のX軸ンイブス方向にロボットハン
ド(カメラ)を移動させて治具上の上記1点を認識すれ
ば、該認識貞は視覚センサ座標系のX軸プラス上の点と
なり、他の視覚センタ座標系のY軸、Z軸はこのX軸ど
垂直Cベース座標系(ロボット座標系)のY軸、Z軸と
平行な線として決定でき、かつ、X軸のプラス方向への
向きとツールの向きにより、Y軸、Z軸のプラス方向の
向きも決定できる。
For example, after determining the origin of the visual center, if the robot hand (camera) is moved in the X-axis direction of the base coordinate system (robot coordinate system) and the above point on the jig is recognized, the recognition accuracy is It is a point on the plus X axis of the visual sensor coordinate system, and the Y and Z axes of other vision center coordinate systems are lines parallel to the Y and Z axes of the C base coordinate system (robot coordinate system) perpendicular to this X axis. In addition, the positive directions of the Y-axis and Z-axis can also be determined based on the positive direction of the X-axis and the orientation of the tool.

実施例 第2図は、本発明の座標系設定方d1を実施づるロボッ
1−の概要図で、エメ台1には所定範囲内で回転可能な
ボスト2が軸支され、該ボス1〜2には一ト手動する支
軸3が挿通され、該支軸3には水平方向に支持された第
1のアーム4.該第1のアームの先端には水平方向に回
動する第2のアーt\5、また、該第2のアーム5の先
端には水XP力方向回動する手首6が軸支され、該手首
6には視覚センサのカメラ8が取イ→りられたハンド7
が取f・]()られている。
Embodiment FIG. 2 is a schematic diagram of a robot 1- that implements the coordinate system setting method d1 of the present invention, in which a boss 2 rotatable within a predetermined range is supported on an embossing table 1, and the bosses 1 to 2 A manually operated support shaft 3 is inserted through the support shaft 3, and a first arm 4. is supported horizontally on the support shaft 3. At the tip of the first arm, a second arm t\5 that rotates in the horizontal direction is pivotally supported, and at the tip of the second arm 5, a wrist 6 that rotates in the water XP force direction is pivotally supported. A visual sensor camera 8 is taken from the wrist 6 → the taken hand 7
is taken f・]().

そして、該ロボットのロボット機構部に対しC設定され
ているベース座標系(X−Y −、7)に対して該ロボ
ットの制御のための11ポツト座標系及びセンタ座標系
を設定する場合、即ら、原点を調整し、キャリブレーシ
ョンを行う場合には、ベース座標系< x −、y −
z >における座標位置が既知な点Pを示η冶貝9を[
1ボッ1−に取付り、該治具9により1ヤリブレーシヨ
ンを行う。
When setting the 11-point coordinate system and center coordinate system for controlling the robot with respect to the base coordinate system (X-Y-, 7) set for the robot mechanism of the robot, immediately When adjusting the origin and performing calibration, the base coordinate system < x −, y −
Indicates a point P whose coordinate position at z> is known;
1. Attach it to the 1-bottom 1-, and perform the 1-shot rebrasion using the jig 9.

まヂ、1」ボッ1〜のツールセンタポイン1〜(「CP
)を、上記γh具9の1点Pに位置づけ、[1ボット座
標系の原点どしで教示し、1コボツト制御装置のメEり
内に格納り゛る。この治具上の点Pのベース座標系にお
(〕る座座位置を(x O,y O,z O)とすると
、該座標位置(x O,y O,70)を原点とし、ベ
ース座標系の各軸に夫々平行で、夫々同一向きの軸を座
標軸とり°る座標系をロボット座標系として設定する。
Madi, 1" Bot 1~ tool center point 1~ ("CP
) is positioned at one point P of the γh tool 9, [is taught at the origin of the one-bot coordinate system, and stored within the memory of the one-bot control device. If the seat position of the point P on this jig in the base coordinate system is (x O, y O, z O), then the coordinate position (x O, y O, 70) is the origin, and the base A coordinate system whose coordinate axes are parallel to each axis of the coordinate system and in the same direction is set as a robot coordinate system.

即ち、ベース沖・標系の餡点を座標位置(xO,yO,
zO)l、mシフ トL、り直交座標系(X’Y’−Z
’)をに1ボット座標系として設定する、1なお、十記
冶員上の点Pのベース座標系の外標位”+;’i (x
 O,y 0.70H;1. a知Tあるから、該座標
位置を数値で1]ボッ1−制御装置に入力して、入力座
座位置を原点とするロボットFP標系を設定するように
してもよい。次に、設定された画像取込位置までロボッ
トハンドを移動させる1、この実施例ではベース座標系
のZ軸プラスh向に移動させ、画像取込位置に位置づけ
、視覚ヒフ4ノのカメラ8で上記治具9上の点Pを層形
し、核熱Pの視覚センタのフレームメモリ十の点を視覚
ヒフ1ノ座標系の原点として、視覚センタのf−タメし
り内に格納する。
That is, the coordinate position (xO, yO,
zO) l, m shift L, ri Cartesian coordinate system (X'Y'-Z
') is set as the 1bot coordinate system, 1. Furthermore, the outer coordinate of the base coordinate system of the point P on the Jukijiman is ``+;'i (x
O,y 0.70H;1. Since there is a knowledge T, the coordinate position may be input numerically into the control device to set the robot FP reference system with the input seat position as the origin. Next, move the robot hand to the set image capture position 1. In this example, move the robot hand in the Z-axis plus h direction of the base coordinate system, position it at the image capture position, and use the camera 8 with a visual axis of 4. The point P on the jig 9 is layered, and the point in the frame memory 10 of the visual center of the nuclear heat P is stored in the f-tameter of the visual center as the origin of the visual axis coordinate system.

第1図は、ベース座標系(X−Y−7) 、nボッ]〜
座標系(X’ −Y’−Z’ )及び視覚センタ座標系
の関係を説明する図で、治具9上の点1−)(ベース座
標系における( x O,y O,y O)の点)が教
示されると、ロボット座標系(X′−Y′Z′ )が決
定され、核熱Pをカメラ8′cIIIz影し、核熱がフ
レームメしり上の(sxo、5yo)の点として認識さ
れると、該位置(sxo、5yO)を視覚センタ座標系
の原点として格納する。
Figure 1 shows the base coordinate system (X-Y-7), n box]~
This is a diagram explaining the relationship between the coordinate system (X'-Y'-Z') and the visual center coordinate system. point) is taught, the robot coordinate system (X'-Y'Z') is determined, the nuclear heat P is imaged by the camera 8'cIIIz, and the nuclear heat is located at the point (sxo, 5yo) on the frame. , the position (sxo, 5yO) is stored as the origin of the visual center coordinate system.

そして、ロボットハンド7(カメラ8)をノJメラ光軸
に垂C1なベース座標系([1ボツ1〜座標系)の1つ
の軸に平行に移動させる。本実施例ではベース座標系の
X軸に平行にマイブス力向に移動させ、上記冶貝十の点
Pが視覚センサの視野でとらえることができる位置まで
最大限移動させる(これにJ:り後述Jるようにセンサ
座標系における1画素あたりの良さの粘度1.!(差を
少なくりる)。イしで、ベース神標系」でツールセンタ
ポーイン1〜(カメラ)がP (x O,y O,z 
O)からPl(xiyozo)まで移動し、視覚センサ
の視野が第1図におい(SからS′に移動して土5【シ
治具十の点Pをフレームス−「す」二で点(s’ xo
 、s’  yO)としで認識されたとすると、11ポ
ツトのツールセンタポイントの点PからPlまでの移動
量(XiXO)とフレームス[り上の上記治具上の点P
の移動量、即ち、点(sxO,5yo)から点(s’x
O。
Then, the robot hand 7 (camera 8) is moved parallel to one axis of the base coordinate system ([1 point 1 ~ coordinate system)] perpendicular to the optical axis of the camera. In this example, the movement is made parallel to the X-axis of the base coordinate system in the direction of the Meibus force, and the point P of the above-mentioned Yoshikai is moved as much as possible to a position that can be captured in the field of view of the visual sensor (J: will be described later). The viscosity of the quality per pixel in the sensor coordinate system is 1.! (reducing the difference).In the base reference system, the tool center point 1 ~ (camera) is set to P (x O ,y O,z
The field of view of the visual sensor moves from S to S' as shown in Fig. s' xo
, s' yO), then the amount of movement (XiXO) of the 11 tool center points from point P to Pl and the point P on the above jig above the frame
, that is, from the point (sxO, 5yo) to the point (s'x
O.

s’  yO)間の画素数により1白木あたつの長さが
求められる。そして、貞(sxo、5yO)と点(s’
 xo 、s’  yO) /6結ぶ線が視覚センタ座
標系のX軸どじて認識され、かつ、点(SXOsyo)
から点(S’  XO、S’  yO)へのh向が×軸
プラス方向として求まる1、そして、ツールの向き、即
ち、ツールが上ブノ向に向いているか、土方向に向いて
いるかによってX軸にTli直<−i Y軸の向き、Z
軸の向ぎも求まり、視覚センリ座椋系が決定されること
となる。
The length of one plain wood is determined by the number of pixels between s' yO). Then, Sada (sxo, 5yO) and Dot (s'
xo , s' yO) /6 The connecting line is recognized as the X-axis of the visual center coordinate system, and the point (SXOsyo)
The h direction from the point (S' XO, S' yO) to the point (S' Direction of Tli to axis <-i Y-axis direction, Z
The direction of the axis is also determined, and the visual sensor system is determined.

第3図は、本実施例にお(プるr]ボッ1〜制御菰ii
”f20と視覚センυの制御部40の東部ゾ11ツク図
で、ロボット制御装置20の中央処理装置(以1・、C
P LJという)21にはへス2つにJ、って制御プロ
グラムが格納されたR OM 22 、フータの一11
4記憶等に利用されるRΔM23.教示データや各種設
定値が格納される不揮発性メしり2/I、c+ボッ1−
の各軸を駆動する1ノーボ尤−夕の1ノ一ボ回路に接続
される軸制御器25.教示操作5f82 G 、操作盤
271通信通信インタフェイスが接続され、視覚センタ
40のCP U I!1.1にt、Lハス/19によ−
)てカメラ8で賑影した画像を記憶づるル−ムメモリ4
2.コン1−ロールソフト用メtす43.lログラムメ
モリ44.’7−タメーしり45.カメラ8に接続され
るカメラインタフェイス469画像処理ブロヒッ1ノ4
7及び通(5インタノエイス48が接続され、通信イン
タフェイス28.48によって【」ボッ1〜制御装置2
0と視覚セン→)制御部40は情報の送受を行っている
FIG.
``This is the eastern 11th diagram of the f20 and the control unit 40 of the visual sensor υ.
P LJ) 21 contains a ROM 22 in which a control program is stored, and a ROM 21 in which a control program is stored.
4 RΔM23 used for storage etc. Non-volatile memory 2/I, c+bot 1- in which teaching data and various setting values are stored
An axis controller 25 connected to the one-no-one-voice circuit of the one-nobodies driving each axis of the one-nobodies. The teaching operation 5f82G and the communication interface of the operation panel 271 are connected, and the CPU of the visual center 40 is connected. 1.1 by t, L lotus/19 -
) A room memory 4 that stores images captured by the camera 8
2. Controller 1-Roll software method 43. l Program memory 44. '7-Tameshiri 45. Camera interface 469 connected to camera 8 Image processing block 1/4
7 and communication (5 InternoAce 48 are connected, and communication interface 28.48 connects
0 and the visual sensor→) The control unit 40 sends and receives information.

なお、上記ロボット制御装置20.視覚センサ制御部4
0の構成tま公知なものであり、訂細な説明は省略IJ
る。
Note that the robot control device 20. Visual sensor control unit 4
The configuration of 0 is well known and detailed explanation is omitted.IJ
Ru.

そこで、教示操f1盤26を操作し、[Jホットのツー
ルセンタポイン1−を治具9十の点Pに位置づり、1−
1ボット座標系の原点として教示するど、CPU21は
不揮発性メモリ24に該教示点を[1ボツ1〜座標系の
原点として格納し、ベース座標系(X−Y −Z )の
原点をこの教示点にシフトした座標系を1」ボット座椋
値として設定づる。次に、教示操作盤26より視覚セン
サ座標系設定指令を入力づるど、IZ1ボッ1−制御装
置20.視覚セン4ノ制御部40のCI)U21,41
は第4図(a)。
Therefore, by operating the teaching operation f1 board 26, [position the J hot tool center point 1- at the point P of the jig 90,
The CPU 21 stores the teaching point in the non-volatile memory 24 as the origin of the 1bot coordinate system, and sets the origin of the base coordinate system (X-Y-Z) to this teaching point. Set the coordinate system shifted to the point as 1" as the bot's value. Next, by inputting a visual sensor coordinate system setting command from the teaching operation panel 26, the IZ1 button 1-control device 20. Vision sensor 4 control unit 40 CI) U21, 41
is shown in Figure 4(a).

([))で承り処理を開kfiする、。([)) to open the acceptance process kfi.

ロボット制御′JA閘20のCPU21は設定された画
像取込指令置に[1ボッ1−を移動させる(ステラブ1
00)。即ち、治只十のJj、(「)にツールシコンタ
ボイン1〜が位置決めされた位i5から/軸プラス方向
にロボッ1−を移動さゼ、画像取込イl′/ W(にイ
1′/’II ’つけ、画像取込指令を通信インタフェ
イス28.’18を介して視覚センサ制御部40に出力
覆る(ステップ101)。視覚セン1ノ制御部40のC
PtJ41はこの信号を受信しくステップ200) 、
カメラインタフェイス4Gを介しCカメラ8にス太ツブ
指令を出力し、匙影された画像は画像処理プロセッサ4
7でグレースケール濃淡処理を行ってフレームメモリ4
2に格納し、次に、カ11像処理ブロレッ1J47によ
ってフレームス■す12に格納された画像より治具−[
の点Pのフレームス=しり上の位@(sxo、5yo)
を認識しくステップ201)、この位置(sxo、5y
o)を視覚セン1ノ座標系の原点としてデータメモリ4
5内に格納しくステップ202) 、作業完了411号
を出力覆る(ス1ツブ″203)。ロボット制御装置2
0のCPU21はこの信号を受信しくステップ102)
、RAM23内に設けたレジスタRを+’ 0.1にレ
ツ1へし、(スアッ7103 ) 、+−1ポツト・を
ベース座標系のX軸のマイノス力向に設定された所定−
)l移動させる(ステップ104)。そして、レジスタ
Rに上記所定量j!を加貝−しくステップ105)、画
像取込指令を出力刀る(ステップ106)。視覚センサ
制御部40のCPU41はこの画像取込指令を受信し、
前述同様カメラ8からの画像をフレームメモリ42内に
格納しくステップ204.205)、画像処理プ[lセ
ラ4)47によって治具トの点Pが認識Cきたか否か判
断し、認識されていれば、その認識座標位置(s’ x
o 、s’ yO)をブタメモリ45内の座標値記憶レ
ジスタに格納し、記憶座標位置を史新しくステップ20
6,207)、認識信号を出力する(ステップ208)
。なお、ステップ206で治具上の点Pが認識できなけ
れば、非認識信号を出力する(ステップ209)。
Robot control 'The CPU 21 of the JA lock 20 moves [1-bot 1-] to the set image capture command position (Stellab 1
00). That is, the robot 1 is moved in the positive direction of the /axis from the position i5 where the tool control point 1~ is positioned at Jj, (''), and the image is taken in l'/W (in 1). '/'II' and outputs an image capture command to the visual sensor control unit 40 via the communication interface 28.'18 (step 101).C of the visual sensor 1 control unit 40
PtJ41 receives this signal (step 200),
A stab command is output to the C camera 8 via the camera interface 4G, and the projected image is processed by the image processing processor 4.
7 to perform grayscale gradation processing and store frame memory 4.
Then, using the image processing block 1J47, the jig-[
Frames of point P = bottom position @ (sxo, 5yo)
(step 201), this position (sxo, 5y
data memory 4 with o) as the origin of the visual sensor 1 coordinate system.
5. Step 202), work completion No. 411 is output (Step 1" 203). Robot control device 2
0's CPU 21 receives this signal (Step 102)
, set the register R provided in the RAM 23 to +'0.1, and set the +-1 pot to the predetermined - set in the minus force direction of the X-axis of the base coordinate system.
) l is moved (step 104). Then, register R receives the above predetermined amount j! Then, an image capture command is output (step 106). The CPU 41 of the visual sensor control unit 40 receives this image capture command,
As described above, the image from the camera 8 is stored in the frame memory 42 (steps 204 and 205), and the image processing processor 47 judges whether or not the point P on the jig has been recognized. If so, its recognized coordinate position (s' x
o, s' yO) in the coordinate value storage register in the pig memory 45, and the stored coordinate position is newly updated in step 20.
6, 207), output a recognition signal (step 208)
. Note that if the point P on the jig cannot be recognized in step 206, a non-recognition signal is output (step 209).

白ボッ1〜制御装置20のCPU21は、認識、非認識
信号が受信されたか否か判断しくステップ107)、受
信されているどその信号が認識信号か否か判断しくステ
ップ108)、認識信号であればステップ104に戻り
、再び所定+ji 1だ(ノベス座標系のX軸上マイナ
スh向にロボットを移動ざゼ、レジスタRに所定ris
 1を加律し、画像取込指令を出力しくステップ105
,106)、視覚センサ制御部40のCPU41は、前
述したJ、うに、ステップ204〜208の処理を行う
。以下、治具上の点Pがカメラの視野にあり、フレーム
メモリ42内に認識される間は、ロボット制御装首20
のCPU21はステップ10/l・〜108の処理を、
視覚センサ制御部40のCPU41はステップ204〜
208の処理を繰返しく]う、、その結果、データメモ
リ45内の座標値記憶レジスタには[」ボッ1〜(カメ
ラ)が移動し、カメラがとらえた治具上の点Pの座標値
(s′xO1s′ yO)が順次更新されることとなる
(ステップ207)。
The CPU 21 of the control device 20 determines whether a recognition or non-recognition signal has been received (step 107), determines whether the received signal is a recognition signal (step 108), and determines whether the recognition signal is a recognition signal. If so, return to step 104 and return to the predetermined +ji 1 again (move the robot in the minus h direction on the X-axis of the Noves coordinate system, and set the predetermined ris in the register R.
1 and output the image capture command in step 105.
, 106), the CPU 41 of the visual sensor control unit 40 performs the processes of steps 204 to 208 described above. Hereinafter, while the point P on the jig is in the field of view of the camera and is recognized in the frame memory 42, the robot control head 20
The CPU 21 performs the processing of steps 10/l to 108,
The CPU 41 of the visual sensor control unit 40 performs steps 204-
208 is repeated] As a result, the coordinate value storage register in the data memory 45 contains the coordinate value () of the point P on the jig captured by the camera. s'xO1s' yO) will be sequentially updated (step 207).

こうして、第1図に示ずように、治具上の点[)がカメ
ラ8の視野の端部まで移動し、次に、所定量lだけロボ
ットが移動し、ステップ206で治具上の点Pが認識で
きなくなったとさ、CPU/11【、1非認識信号をロ
ボッ[〜制御部20に出力し、]」ボッ1ル制御部20
のCP U 21はこの信号を受りて(ステップ107
,108>、レジスタRから所定Q’+ 1減す)シ、
これにJ、す、カメラ8の視野で治具1−の点Pをとら
え得る原点(ロボット座標系の原点)からの移動量を求
め(ステップ109)、このレジスタRに記憶する移動
量とロボットのツルの向さ、即ら、ツールが下向き、上
向きか(ツールの向きがZ軸のマイブスh向またはプラ
ス方向か)を視覚センサ制御部40に送信する。
In this way, as shown in FIG. When P is no longer recognized, the CPU/11 outputs a non-recognition signal to the robot control unit 20.
CPU 21 receives this signal (step 107).
, 108>, subtract a predetermined Q'+ 1 from register R)
From this, the amount of movement from the origin (origin of the robot coordinate system) that can capture the point P of the jig 1- in the field of view of the camera 8 is determined (step 109), and the amount of movement stored in this register R and the robot The direction of the vine, that is, whether the tool is facing downwards or upwards (whether the tool is facing toward the vertical axis h or the positive direction of the Z axis) is transmitted to the visual sensor control unit 40.

視覚センサ制御部40のCPU41はこの移動量とツー
ルの向きを受信りると(ステップ210)、ステップ2
02でデータメモリ内に格納した視覚センυ座標系の原
点(sxo、5yo)と、ス゛アップ207で更新され
記憶されているロボットのX軸マイナス1)向の移動で
、カメラが最後にとらえた治具上の点Pの座標位置(s
’ xo 、s’  yO1間の距離、及び該2つの座
標位置(sxo、5yo)。
When the CPU 41 of the visual sensor control unit 40 receives the amount of movement and the direction of the tool (step 210), it executes step 2.
The origin (sxo, 5yo) of the visual sensor υ coordinate system stored in the data memory in step 02 and the movement of the robot in the Coordinate position of point P on the tool (s
The distance between 'xo, s' yO1, and the coordinate positions of the two (sxo, 5yo).

(s’ xo 、s’  yO)間のロボット移動量、
即ち、ステップ210で受信した1]ボツト移動量より
ル−ムメtす42の1画素あたりの長さを求め、データ
メモリ45に格納する。ぞして、原点(Sxo、5yO
)から座標位置(s’  xO、s’  yO)のh向
を視覚センサ座標系のX軸プラス1J向どし、かつ、こ
のX軸と0交するY軸の向きをX軸の7″ラス方向とツ
ールの向きより求め、か)、視覚センリ座標系のZ軸は
ベース座標系のZ軸及びぞの向ぎと同一とすることによ
って視覚しン1ノ坤・セ;:系を設定する(ステップ2
11)。
The amount of robot movement between (s' xo , s' yO),
That is, the length per pixel of the room meter 42 is determined from the amount of bot movement received in step 210, and is stored in the data memory 45. Then, the origin (Sxo, 5yO
), set the h direction of the coordinate position (s' xO, s' yO) to the X-axis plus 1J of the visual sensor coordinate system, and set the direction of the Y-axis that intersects 0 with this X-axis to the 7" las of the X-axis. The Z axis of the visual sensor coordinate system is determined from the direction and the orientation of the tool, and the visual axis system is set by making the Z axis of the visual sensor coordinate system the same as the Z axis and the direction of the base coordinate system. (Step 2
11).

第4図(a)、(b)のノ[1−ブ【?−1〜で示した
動作はロボッ]〜座標系の原点を手動で教示16方式で
あるが、治具上のt3「)のベース座標系の座標位置は
既知であるから、ロボット制御装置20内に予めこの点
Pの座標値F1を設定しておく(またはプログラム化し
ておく)ことににす、座FA系設定指令をロボット制御
具V♂20に入力づると、第4図(a)のステップ10
0の前に、自動的に設定されている治具上の点Pの座C
N V(にツール廿ンタボイン1〜を移atさせ、その
後スープ′・ンプ100以下の処理を行うようにしても
J、い。
No. [1-B [?] in Fig. 4 (a) and (b). The movements shown in -1~ are the 16 methods in which the robot manually teaches the origin of the coordinate system, but since the coordinate position of the base coordinate system of t3'') on the jig is known, the robot controller 20 It is decided to set (or program) the coordinate value F1 of this point P in advance.If a seat FA system setting command is input to the robot controller V♂20, the result shown in Fig. 4(a) will be obtained. Step 10
0, the seat C of the point P on the jig that is automatically set
It is also possible to move the tool inputs 1 to 1 to NV() and then perform the processing below 100.

発明の効果 本発明は、治具上の1点によってロボット制御に用いら
れるロボッl−座標系及び視覚センリの座標系を一連の
作業で筒中に効5キ′的にiううことができ、f3貝上
の1点によつく座標系を設定するから、従来のように3
点によって設定づる場合ど比べ、ロボット座標系と視覚
セン1ノの座標系間の誤差が少なくなり、位置補正粕麿
の面上を図ることができる。
Effects of the Invention The present invention allows the robot's coordinate system and visual sensor coordinate system used for robot control to be effectively transferred into the cylinder in a series of operations using one point on the jig. Since we set a coordinate system based on one point on the shell, we need 3 points like before.
Compared to the case of setting by points, the error between the robot coordinate system and the coordinate system of the visual sensor 1 is reduced, and the position can be corrected on the surface of Kasumaro.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図4.L本発明にJjI’Jるベース座標系、[1
ボット座標系、視覚センリ座標系の関係を説明する説明
図、 第2図は本発明を適用した11ボツ1への一実施例を示
す図、 第3図は同実施例にd3(」るロボット制御装置。 視覚センリ制御部の要部ブ「1ツク図、第4図(a)、
(b)は座標系設定のための[1ボッi〜制御装置、?
51覚レンリ制御部の勅伯処狸)fil −’f−1ノ
ー1〜である1゜7・・・ツール、8・・・カメラ、9
・・・治具、P・・・治具土の点、20・・・Iコボッ
1〜制御装置、/IO・・・視覚ヒンサ制御部。
Figure 1 4. L base coordinate system according to the present invention, [1
An explanatory diagram illustrating the relationship between the bot coordinate system and the visual sensor coordinate system. Figure 2 is a diagram showing an example of applying the present invention to 11 robots 1. Figure 3 is a diagram illustrating the robot d3 (") in the same example. Control device. The main parts of the visual sensor control section are shown in Figure 4 (a).
(b) is for setting the coordinate system.
51 Kakurenri control unit's imperial order) fil-'f-1 No 1 ~ 1゜7...Tool, 8...Camera, 9
. . . Jig, P . . . Jig soil point, 20 . . . I Kobot 1 to control device, /IO .

Claims (3)

【特許請求の範囲】[Claims] (1)ロボットハンドにカメラが取付けられた視覚セン
サにおいて、ロボットに設定されているベース座標系に
おける所定の座標位置の1点を与える治具をロボットに
取付け、該治具上の1点をロボットに教示し、該教示点
を原点とする上記ベース座標系をシフトした直交座標系
をロボット座標系として設定し、次に、ロボットを画像
取込位置に移動させて、上記治具上の1点を視覚センサ
で認識させて視覚センサ座標系の原点として設定し、上
記カメラの光軸と垂直で上記治具上の1点を通る上記ベ
ース座標系の1つの座標軸と平行にロボットハンドを移
動させて上記治具上の1点を視覚センサに認識させ、該
認識した点と上記視覚センサ座標系の原点間の移動距離
、移動方向及びロボットハンドの向きによって視覚セン
サの座標系及び1画素あたりの長さを設定するようにし
たハンドアイを用いた視覚センサにおける座標系設定方
法。
(1) In a visual sensor with a camera attached to the robot hand, attach a jig to the robot that gives one point at a predetermined coordinate position in the base coordinate system set on the robot, and point one point on the jig to the robot. The robot coordinate system is set as an orthogonal coordinate system obtained by shifting the base coordinate system with the teaching point as the origin, and then the robot is moved to the image capture position and one point on the jig is set as the robot coordinate system. is recognized by the visual sensor and set as the origin of the visual sensor coordinate system, and the robot hand is moved parallel to one coordinate axis of the base coordinate system that is perpendicular to the optical axis of the camera and passes through one point on the jig. The visual sensor is made to recognize one point on the jig, and the coordinate system of the visual sensor and the number of points per pixel are calculated based on the moving distance between the recognized point and the origin of the visual sensor coordinate system, the moving direction, and the orientation of the robot hand. A method for setting a coordinate system in a visual sensor using a hand eye whose length is set.
(2)上記ロボット座標系の原点教示は上記治具上の1
点にツールセンタポイントを手動で移動させて教示する
ことにより行われる請求項第1項記載のハンドアイを用
いた視覚センサにおける座標系設定方法。
(2) The origin of the robot coordinate system is taught at 1 on the jig.
2. A method for setting a coordinate system in a visual sensor using a hand-eye according to claim 1, wherein the method is performed by manually moving a tool center point to a point and teaching the coordinate system.
(3)上記ロボット座標系の原点教示は、上記治具上の
1点のベース座標系の座標位置を数値で教示することに
より行われる請求項第1項記載のハンドアイを用いた視
覚センサにおける座標系設定方法。
(3) In the visual sensor using a hand-eye according to claim 1, wherein the teaching of the origin of the robot coordinate system is performed by numerically teaching the coordinate position of one point in the base coordinate system on the jig. How to set the coordinate system.
JP25213988A 1988-10-07 1988-10-07 Setting method of coordinate system in visual sensor using hand eye Pending JPH0299802A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP25213988A JPH0299802A (en) 1988-10-07 1988-10-07 Setting method of coordinate system in visual sensor using hand eye

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP25213988A JPH0299802A (en) 1988-10-07 1988-10-07 Setting method of coordinate system in visual sensor using hand eye

Publications (1)

Publication Number Publication Date
JPH0299802A true JPH0299802A (en) 1990-04-11

Family

ID=17233019

Family Applications (1)

Application Number Title Priority Date Filing Date
JP25213988A Pending JPH0299802A (en) 1988-10-07 1988-10-07 Setting method of coordinate system in visual sensor using hand eye

Country Status (1)

Country Link
JP (1) JPH0299802A (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04174305A (en) * 1990-11-06 1992-06-22 Mitsutoyo Corp Coordinate conversion system of measuring apparatus
JPH058185A (en) * 1991-06-29 1993-01-19 Fanuc Ltd Automatic operation error measuring method of robot body
US5319443A (en) * 1991-03-07 1994-06-07 Fanuc Ltd Detected position correcting method
JPH0755427A (en) * 1993-08-12 1995-03-03 Nec Corp Lead position detector
CN102909728A (en) * 2011-08-05 2013-02-06 鸿富锦精密工业(深圳)有限公司 Vision correcting method of robot tool center point
CN104260112A (en) * 2014-09-18 2015-01-07 西安航天精密机电研究所 Robot hand and eye locating method
WO2019114629A1 (en) * 2017-12-13 2019-06-20 北京柏惠维康科技有限公司 Method and device for acquiring tcp coordinates of robot
US10923370B2 (en) 2017-05-11 2021-02-16 Murata Machinery, Ltd. Transport system and transport method

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04174305A (en) * 1990-11-06 1992-06-22 Mitsutoyo Corp Coordinate conversion system of measuring apparatus
US5319443A (en) * 1991-03-07 1994-06-07 Fanuc Ltd Detected position correcting method
JPH058185A (en) * 1991-06-29 1993-01-19 Fanuc Ltd Automatic operation error measuring method of robot body
JPH0755427A (en) * 1993-08-12 1995-03-03 Nec Corp Lead position detector
CN102909728A (en) * 2011-08-05 2013-02-06 鸿富锦精密工业(深圳)有限公司 Vision correcting method of robot tool center point
CN104260112A (en) * 2014-09-18 2015-01-07 西安航天精密机电研究所 Robot hand and eye locating method
US10923370B2 (en) 2017-05-11 2021-02-16 Murata Machinery, Ltd. Transport system and transport method
WO2019114629A1 (en) * 2017-12-13 2019-06-20 北京柏惠维康科技有限公司 Method and device for acquiring tcp coordinates of robot

Similar Documents

Publication Publication Date Title
DE102018213985B4 (en) robotic system
EP1661669A2 (en) Processing program generating device
US5471312A (en) Automatic calibration method
JP4844453B2 (en) Robot teaching apparatus and teaching method
EP1555508B1 (en) Measuring system
JP4167954B2 (en) Robot and robot moving method
CN111331592A (en) Mechanical arm tool center point correcting device and method and mechanical arm system
US20150202776A1 (en) Data generation device for vision sensor and detection simulation system
US10766135B2 (en) Teach pendant and robot control system
CN110712194B (en) Object inspection device, object inspection system, and method of adjusting inspection position
CN113379849A (en) Robot autonomous recognition intelligent grabbing method and system based on depth camera
CN109531604B (en) Robot control device for performing calibration, measurement system, and calibration method
JPH08132373A (en) Coordinate system coupling method in robot-sensor system
JPH0299802A (en) Setting method of coordinate system in visual sensor using hand eye
JPH0790494B2 (en) Calibration method of visual sensor
JP6410411B2 (en) Pattern matching apparatus and pattern matching method
US5300868A (en) Robot teaching method
JPH02183102A (en) Automatic calibration adjusting system for visual sensor
JPS62106503A (en) Method for correcting assembling operation of robot
JPH05301195A (en) Camera position slippage detecting method in visual sensor
JP3125374B2 (en) Inspection device coordinate display method
US20220226982A1 (en) Method Of Creating Control Program For Robot, System Executing Processing Of Creating Control Program For Robot, And Non-Transitory Computer-Readable Storage Medium
JP2019036072A (en) Image processing method, image processing system and manufacturing method
KR100693016B1 (en) Method for calibrating robot
JPH04250700A (en) Mounting method for electronic component