JPH054180A - Co-ordinate system matching method for multi-axis robot with hand-eye - Google Patents

Co-ordinate system matching method for multi-axis robot with hand-eye

Info

Publication number
JPH054180A
JPH054180A JP15707291A JP15707291A JPH054180A JP H054180 A JPH054180 A JP H054180A JP 15707291 A JP15707291 A JP 15707291A JP 15707291 A JP15707291 A JP 15707291A JP H054180 A JPH054180 A JP H054180A
Authority
JP
Japan
Prior art keywords
robot
optical axis
coordinate system
visual
axis
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP15707291A
Other languages
Japanese (ja)
Inventor
Kazuyuki Yamaguchi
和幸 山口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Industries Corp
Original Assignee
Toyoda Automatic Loom Works Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyoda Automatic Loom Works Ltd filed Critical Toyoda Automatic Loom Works Ltd
Priority to JP15707291A priority Critical patent/JPH054180A/en
Publication of JPH054180A publication Critical patent/JPH054180A/en
Pending legal-status Critical Current

Links

Landscapes

  • Control Of Position Or Direction (AREA)
  • Manipulator (AREA)

Abstract

PURPOSE:To project the optical axis of the camera onto the robot co-ordinate system by determining the vector of the positional deviation between both the optical axes of the vision and the robot on the basis of a positional change in stationary reference point on the vision co-ordinate system due to rotation of the hand eye about the optical axis of the robot after parallelizing both the optical axes. CONSTITUTION:It is assumed that respective optical axes of the vision and the robot are adjusted to be parallel with each other. With a stationary reference point Ph being set as an origin Pro of the robot co-ordinate system, a hand eye 3 is moved using the point spaced by a specified distance L from the origin Pro along the optical axis of the robot as the camera position on the robot co-ordinate system, and then the hand eye 3 is moved orthogonally to the optical axis to thereby cause the optical axis of the vision to coincide with the stationary reference point Ph. The hand eye 3 is rotated by theta about the Y axis which is an orthogonally intersecting axis of the robot. Determination is made of a distance Z between the stationary reference point Ph previously calculated on the robot co-ordinate system and a stationary reference point Ph' recognized on the vision co-ordinate system. By Z which is the vector of the positional deviation, the position of the stationary reference point Ph on the robot coordinate system is shifted.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、ハンドアイ付き多軸ロ
ボットにおけるハンドアイの視覚座標系と、多軸ロボッ
ト自体のロボット座標系とを整合させる方法に関し、詳
しくは、視覚座標系の原点としてのカメラ位置と、前記
ロボット座標系上の前記カメラ位置との間の位置ずれを
解消する方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a method of aligning a visual coordinate system of a hand eye in a multi-axis robot with a hand eye and a robot coordinate system of the multi-axis robot itself. Of the camera position and the camera position on the robot coordinate system are eliminated.

【0002】[0002]

【従来の技術】従来、多軸ロボットのハンドに二次元固
体撮像素子内蔵のTVカメラ(以下、ハンドアイともい
う)を搭載し、ロボットのハンドワ−クを支援する提案
がある。このようなロボットでは、ハンドアイすなわち
ハンドに装着されたTVカメラが有する視覚座標系と、
多軸ロボット自体のロボット座標系とを整合させる作業
(以下、キャリブレーションともいう)が必要である。
2. Description of the Related Art Conventionally, it has been proposed to mount a TV camera (hereinafter also referred to as a hand eye) having a built-in two-dimensional solid-state image pickup device on the hand of a multi-axis robot to support the handwork of the robot. In such a robot, a hand eye, that is, a visual coordinate system of a TV camera attached to the hand,
Work (hereinafter also referred to as calibration) to match the robot coordinate system of the multi-axis robot itself is required.

【0003】このようなハンドアイ付き多軸ロボットの
キャリブレ−ションでは、ハンドアイの撮像画面上の互
いに直交する2本の直交軸及び光軸を各座標軸とする直
交座標系を視覚座標系とし、この視覚座標系の原点すな
わちカメラ位置と、光軸及び直交軸とを、ロボット座標
系上で整合させるのが簡単である。従来のキャリブレ−
ションでは、所定数の基準点の座標をロボット座標系上
のロボット座標点としてロボットに教示し、次に、この
基準点を所定位置から撮像して視覚座標系上の視覚座標
点として求め、次に、ロボット座標点とそれらに対応す
る視覚座標点との座標関係(座標系変換マトリックス)
を決定している。
In the calibration of such a multi-axis robot with a hand eye, a visual coordinate system is defined as an orthogonal coordinate system having two orthogonal axes and an optical axis which are orthogonal to each other on an image pickup screen of the hand eye as coordinate axes. It is easy to align the origin of the visual coordinate system, that is, the camera position with the optical axis and the orthogonal axis on the robot coordinate system. Conventional caliber
In this section, the robot is taught the coordinates of a predetermined number of reference points as robot coordinate points on the robot coordinate system, and then these reference points are imaged from a predetermined position to obtain visual coordinate points on the visual coordinate system. , The coordinate relationship between robot coordinate points and their corresponding visual coordinate points (coordinate system transformation matrix)
Has been decided.

【0004】[0004]

【発明が解決しようとする課題】上記した従来のキャリ
ブレ−ション方法は、単にロボット座標系と視覚座標系
との変換マトリックスを求めることができるが、多くの
手作業を要し作業が複雑である。また、視覚座標系上の
カメラ光軸(以下、視覚光軸またはz軸ともいう)と、
それと平行なロボット座標系が認識するカメラ光軸(以
下、ロボット光軸またはZ軸ともいう)とがロボット光
軸と直角な面内において位置ずれしていたり、視覚座標
系上の原点すなわちカメラ位置が、絶対空間内において
ロボット座標系が認識するカメラ位置に対してロボット
光軸方向にずれていると、測定誤差を生じてしまう。
The above-mentioned conventional calibration method can simply obtain the transformation matrix between the robot coordinate system and the visual coordinate system, but it requires a lot of manual work and the work is complicated. . Also, a camera optical axis on the visual coordinate system (hereinafter, also referred to as a visual optical axis or z axis),
The camera optical axis (hereinafter also referred to as the robot optical axis or Z axis) recognized by the robot coordinate system parallel to it is misaligned in a plane perpendicular to the robot optical axis, or the origin on the visual coordinate system, that is, the camera position. However, if there is a deviation in the robot optical axis direction with respect to the camera position recognized by the robot coordinate system in absolute space, a measurement error will occur.

【0005】本発明は、上記問題点に鑑みなされたもの
であり、実際のカメラ位置(すなわち視覚座標系の原点
位置)と、ロボット座標系上の前記カメラ位置との位置
ずれを解消し、キャリブレ−ション(座標系整合)作業
を簡単化することを、その解決すべき課題としている。
The present invention has been made in view of the above problems, and eliminates the positional deviation between the actual camera position (that is, the origin position of the visual coordinate system) and the camera position on the robot coordinate system, thereby eliminating the calibrator. -The task to be solved is to simplify the operation (coordinate system matching) work.

【0006】[0006]

【課題を解決するための手段】本第1発明は、3次元移
動可能なハンドに固定されたハンドアイの視覚光軸を座
標軸とし前記ハンドアイの位置を原点とする視覚座標系
と、前記ハンドアイの位置を算出可能なロボット座標系
とを有し、前記視覚光軸の前記ロボット座標系上への投
影すなわち前記算出結果としてのロボット光軸と前記視
覚光軸との前記視覚光軸に直交する面内における位置ず
れを解消するハンドアイ付き多軸ロボットの座標系整合
方法であって、前記視覚光軸と前記ロボット光軸とを平
行に調整し、所定の静止基準点を撮像しつつ前記ハンド
アイを前記ロボット光軸の回りに所定角度回転させ、該
回転による前記視覚座標系上の前記静止基準点の位置変
化に基づいて前記視覚座標系上における前記両光軸間の
位置ずれベクトルを求め、前記位置ずれベクトルに応じ
て前記両光軸の少なくとも一方の位置を前記ロボット光
軸と直角な方向に変位させることにより、前記両光軸間
の位置ずれを解消することを特徴としている。
The first invention is a visual coordinate system having a visual optical axis of a hand eye fixed to a three-dimensionally movable hand as a coordinate axis and a position of the hand eye as an origin, and the hand. A robot coordinate system capable of calculating the position of the eye, and projecting the visual optical axis onto the robot coordinate system, that is, orthogonal to the visual optical axes of the robot optical axis as the calculation result and the visual optical axis. A coordinate system matching method for a multi-axis robot with a hand eye that eliminates positional deviation in the plane, in which the visual optical axis and the robot optical axis are adjusted in parallel, and while imaging a predetermined stationary reference point, A hand eye is rotated around the optical axis of the robot by a predetermined angle, and a positional shift vector between the optical axes on the visual coordinate system is based on a position change of the stationary reference point on the visual coordinate system due to the rotation. Determined, by displacing at least one of the position on the robot optical axis perpendicular direction of both the optical axis in accordance with the positional deviation vector is characterized in that to eliminate the positional displacement between the two optical axes.

【0007】本第2発明は、3次元移動可能なハンドに
固定されたハンドアイの視覚光軸を座標軸とし前記ハン
ドアイの位置を原点とする視覚座標系と、前記ハンドア
イの位置を算出可能なロボット座標系とを有し、前記視
覚光軸の前記ロボット座標系上への投影すなわち前記算
出結果としてのロボット光軸と前記視覚光軸との前記視
覚光軸方向における位置ずれを解消するハンドアイ付き
多軸ロボットの座標系整合方法であって、前記視覚光軸
と前記ロボット光軸とを平行に調整し、所定の静止基準
点を撮像しつつ前記ハンドアイを静止基準点を中心とし
て前記ロボット光軸と直交する軸の回りに所定角度回転
させ、該回転による前記視覚座標系上の前記静止基準点
の位置変化に基づいて前記視覚座標系上における前記両
光軸間の位置ずれベクトルを求め、前記位置ずれベクト
ルに応じて前記両光軸の少なくとも一方の位置を前記ロ
ボット光軸の方向に変位させることにより、前記両光軸
間の位置ずれを解消することを特徴としている。
According to the second aspect of the present invention, the visual coordinate system having the visual optical axis of the hand eye fixed to a three-dimensionally movable hand as the coordinate axis and the position of the hand eye as the origin, and the position of the hand eye can be calculated. A robot coordinate system, which is for projecting the visual optical axis onto the robot coordinate system, that is, for eliminating the positional deviation between the robot optical axis as the calculation result and the visual optical axis in the visual optical axis direction. A coordinate system matching method for a multi-axis robot with an eye, wherein the visual optical axis and the robot optical axis are adjusted in parallel, and the hand eye is centered on the stationary reference point while imaging a predetermined stationary reference point. The robot is rotated about an axis orthogonal to the optical axis of the robot by a predetermined angle, and based on the position change of the stationary reference point on the visual coordinate system due to the rotation, a positional shift between the optical axes on the visual coordinate system. Seek vector, by displacing at least one of the position of both the optical axis in accordance with the positional deviation vector in the direction of the robot optical axis, it is characterized in that to eliminate the positional displacement between the two optical axes.

【0008】本第3発明は、3次元移動可能なハンドに
固定されたハンドアイの視覚光軸を座標軸とし前記ハン
ドアイの位置を原点とする視覚座標系と、前記ハンドア
イの位置を算出可能なロボット座標系とを有し、前記視
覚光軸の前記ロボット座標系上への投影すなわち前記算
出結果としてのロボット光軸と前記視覚光軸との位置ず
れを解消するハンドアイ付き多軸ロボットの座標系整合
方法であって、 前記ハンドアイが所定距離離れた位置
から所定姿勢で注視する所定の静止注視点をロボット座
標系上の代表点とし、前記ロボット座標系上における前
記視覚座標系の前記原点すなわちカメラ位置を前記代表
点からの変位ベクトルとして規定することを特徴として
いる。
According to the third aspect of the present invention, the visual coordinate system having the visual optical axis of the hand eye fixed to the three-dimensionally movable hand as the coordinate axis and the position of the hand eye as the origin, and the position of the hand eye can be calculated. Of a multi-axis robot with a hand eye that eliminates the positional deviation between the visual optical axis and the robot optical axis as a result of the projection of the visual optical axis onto the robot coordinate system. A coordinate system matching method, wherein a predetermined stationary gazing point at which the hand eye gazes in a predetermined posture from a position separated by a predetermined distance is used as a representative point on the robot coordinate system, and the visual coordinate system on the robot coordinate system is It is characterized in that the origin, that is, the camera position is defined as a displacement vector from the representative point.

【0009】[0009]

【発明の効果】上記した第1発明の方法では、両光軸を
平行化した後、ハンドアイをロボット光軸の回りに回転
することによる視覚座標系上の静止基準点の位置変化に
基づいて両光軸間の位置ずれベクトルを求め、この位置
ずれベクトルを解消するようにどちらかの光軸をシフト
するものであり、このようにすればカメラの実際の光軸
をロボット座標系上に簡単かつ正確に投影することがで
きる。
According to the above-described method of the first invention, based on the position change of the stationary reference point on the visual coordinate system by rotating the hand eye around the robot optical axis after parallelizing both optical axes. It calculates the displacement vector between both optical axes and shifts one of the optical axes so as to eliminate this displacement vector. By doing this, the actual optical axis of the camera can be easily placed on the robot coordinate system. And it is possible to project accurately.

【0010】上記した第2発明の方法では、両光軸を平
行化した後、静止基準点を貫通しかつロボット光軸の直
交する軸の回りにハンドアイを回転することにより両光
軸間の位置ずれベクトルを求め、この位置ずれベクトル
を解消するようにどちらかの光軸をシフトするものであ
り、このようにすればカメラの実際の光軸をロボット座
標系上に簡単かつ正確に投影することができる。
In the method of the second aspect of the invention described above, after the two optical axes are made parallel, the stationary eye is penetrated, and the hand eye is rotated around an axis orthogonal to the robot optical axis, so that the optical axis between the two optical axes is increased. A position shift vector is obtained, and either optical axis is shifted so as to eliminate this position shift vector. In this way, the actual optical axis of the camera is projected onto the robot coordinate system easily and accurately. be able to.

【0011】上記した第3発明の方法では、ハンドアイ
が所定距離離れた位置から所定姿勢で注視する所定の注
視点をロボット座標系上の代表点とし、ロボット座標系
上における前記視覚座標系の原点すなわちカメラ位置を
前記代表点からの変位として規定している。このように
すれば、ハンドアイの実際の光軸すなわち視覚光軸の位
置が、ロボット座標系が算出する前記光軸すなわちロボ
ット光軸の位置とずれた場合、容易にこの位置ずれを解
消できるという優れた効果を奏することができる。
In the above-described method of the third aspect of the invention, a predetermined gazing point at which the hand eye gazes in a predetermined posture from a position separated by a predetermined distance is set as a representative point on the robot coordinate system, and the visual coordinate system on the robot coordinate system is changed. The origin, that is, the camera position is defined as the displacement from the representative point. With this configuration, if the actual optical axis of the hand eye, that is, the visual optical axis is displaced from the position of the optical axis calculated by the robot coordinate system, that is, the robot optical axis, this positional displacement can be easily eliminated. An excellent effect can be achieved.

【0012】すなわちこの場合、ロボット座標系上に注
視点の座標と、この注視点を撮像するハンドアイのベク
トル座標とは予め規定されている。一方、この注視点を
注視するハンドアイの画像からこの注視点を原点とする
ハンドアイの位置や姿勢がわかる。したがって、ハンド
アイの画像から求めたハンドアイのベクトル座標(注視
点を基準)と、予めロボット座標系上に設定されたハン
ドアイのベクトル座標(注視点を基準)とを比較するこ
とにより、両者間の位置ずれを容易に発見することがで
き、更に、両者の位置ずれの分だけロボット座標系上の
ハンドアイのベクトル位置をシフトすることにより、上
記位置ずれを容易に解消することができる。
That is, in this case, the coordinates of the gazing point and the vector coordinates of the hand eye for picking up the gazing point are defined in advance on the robot coordinate system. On the other hand, from the image of the hand eye that gazes at this gazing point, the position and orientation of the hand eye with this gazing point as the origin can be known. Therefore, by comparing the vector coordinates of the hand eye obtained from the image of the hand eye (reference point is the reference point) with the vector coordinates of the hand eye preset on the robot coordinate system (reference point is the reference point), The positional deviation between them can be easily found, and further, the positional deviation can be easily eliminated by shifting the vector position of the hand eye on the robot coordinate system by the amount of the positional deviation between the two.

【0013】[0013]

【実施例】本発明の一実施例を使用する工作機械装置を
図1に示す。この装置は、制御用のロボットコントロ−
ラ(以下単にコントロ−ラという)10を備え、ハンド
11を3次元移動可能な多軸ロボット1と、多軸ロボッ
ト1のハンド11に装着されたハンドアイ3とからな
り、ハンドアイ3には光軸30を有するレンズ系(図示
せず)と、このレンズ系と直交配置されて撮像する二次
元固体撮像素子(図示せず)が格納されている。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENT A machine tool device using an embodiment of the present invention is shown in FIG. This device is a robot controller for control.
The multi-axis robot 1 is provided with a la (hereinafter, simply referred to as a controller) 10 and is capable of moving the hand 11 three-dimensionally, and a hand eye 3 attached to the hand 11 of the multi-axis robot 1. A lens system (not shown) having an optical axis 30 and a two-dimensional solid-state image pickup device (not shown) that is arranged orthogonal to the lens system to capture an image are stored.

【0014】ハンド11の旋回範囲直下の所定位置にキ
ャリブレ−ションプレ−ト4が配置されている。このキ
ャリブレ−ションプレ−ト4は孔40を有する厚肉の金
属板であって、後述するキャリブレ−ション、すなわ
ち、ハンドアイ3の視覚座標系と、ロボットコントロ−
ラの座標系(ロボット座標系)との整合(補正)を行う
作業に使用される。ハンドアイ3はキャリブレ−ション
プレ−ト4の直上に略所定距離だけ隔てて配置されてい
る。
The calibration plate 4 is arranged at a predetermined position just below the turning range of the hand 11. The calibration plate 4 is a thick metal plate having a hole 40, and the calibration described later, that is, the visual coordinate system of the hand eye 3 and the robot controller.
It is used for matching (correction) work with the coordinate system of robot (robot coordinate system). The hand eyes 3 are arranged directly above the calibration plate 4 with a predetermined distance therebetween.

【0015】なお、上記キャリブレ−ション(座標系整
合)を実行する前に、孔40の中心線である基軸Aにハ
ンドアイ3の光軸30を合致させ、かつ、ハンドアイ3
とキャリブレ−ション4の孔40との光軸方向の距離を
確定する光軸、距離設定作業を行う。光軸設定作業は、
後で行うキャリブレ−ション作業において、ハンドアイ
を移動させた場合、基軸Aの検出が不正確となって測定
誤差が生じるのを排除するためである。また、距離設定
作業は、撮像画面上での画素距離と孔40表面の実距離
との変換を正確にするためである。
Before carrying out the above calibration (coordinate system matching), the optical axis 30 of the hand eye 3 is aligned with the base axis A which is the center line of the hole 40, and the hand eye 3
And the optical axis and distance setting work for determining the distance between the hole 40 of the calibration 4 and the optical axis direction. The optical axis setting work is
This is because it is possible to eliminate the occurrence of measurement error due to inaccurate detection of the base axis A when the hand eye is moved in the calibration work performed later. Further, the distance setting work is to make the conversion between the pixel distance on the imaging screen and the actual distance on the surface of the hole 40 accurate.

【0016】以下、各設定作業を順に説明する。 (面直出し)まず、面直出しについて図2に基づいて説
明する。図2において、キャリブレ−ションプレ−ト4
は平坦床面上の所定位置に配設されており、キャリブレ
−ションプレ−ト4に面直アタッチメント5が配設され
ている。
Hereinafter, each setting operation will be described in order. (Direct Surface Out) First, the direct surface out will be described with reference to FIG. In FIG. 2, the calibration plate 4
Is disposed at a predetermined position on the flat floor surface, and a plane attachment 5 is disposed on the calibration plate 4.

【0017】この面直アタッチメント5は、平坦な下面
53を有しキャリブレ−ションプレ−ト4の平坦な上面
に載置される円盤部55と、この円盤部55の中央から
下方に突設されキャリブレ−ションプレ−ト4の孔40
に密着嵌入される下軸部54と、この円盤部55の中央
から上方に突設される上軸部56とを備えている。上軸
部56及び下軸部54は円盤部55と同軸となってお
り、したがって、このアタッチメント軸心は孔40の軸
心である。。
The plane attachment 5 has a flat lower surface 53 and is mounted on the flat upper surface of the calibration plate 4, and a disc portion 55 projecting downward from the center of the disc portion 55. -Hole 40 of the option plate 4
And a lower shaft portion 54 that is fitted in close contact with the upper disc portion 55 and an upper shaft portion 56 that projects upward from the center of the disc portion 55. The upper shaft portion 56 and the lower shaft portion 54 are coaxial with the disc portion 55, and therefore, the attachment axis is the axis of the hole 40. .

【0018】上軸部56及び円盤部55の輪郭は上方か
ら撮像した場合、円C1、C2となり、円C1の直径は
d1、円C2の直径はd2に設計されている(図3参
照)。この面直出しをロボットコントロ−ラ10を用い
て全自動で実施する手順を図4のフロ−チャ−トを参照
して、以下説明する。まず、ハンド11を制御して、ハ
ンドアイ3をキャリブレ−ションプレ−ト4の略直上位
置に移動させ、かつ光軸30を基軸Aに略合致させ、ア
タッチメント5とハンドアイ3との距離Lを基準距離L
oに略一致させる(100)。なおこの実施例では、光
軸30は画面の中央画素の位置にあるとしている。
The contours of the upper shaft portion 56 and the disc portion 55 are circles C1 and C2 when picked up from above, and the diameter of the circle C1 is designed to be d1 and the diameter of the circle C2 is designed to be d2 (see FIG. 3). A procedure for fully automatically performing this surface straightening using the robot controller 10 will be described below with reference to the flowchart of FIG. First, the hand 11 is controlled to move the hand eye 3 to a position substantially directly above the calibration plate 4, and the optical axis 30 is substantially aligned with the base axis A, so that the distance L between the attachment 5 and the hand eye 3 is adjusted. Reference distance L
It is made to approximately match o (100). In this embodiment, the optical axis 30 is located at the center pixel of the screen.

【0019】次に、アタッチメント5を撮像して画像信
号を取り込み(101)、得られた画像信号から円C
1、C2を抽出し、それを真円に正規化処理して正規化
円C1’、C2’を求め、正規化円C1’、C2’の中
心座標点(視覚座標系における)P1(x1,y1)、
P2(x2,y2)を求める(102)。なお、これら
の画像処理はロボットコントロ−ラ10に内蔵された画
像処理プロセッサ(図示せず)で行う。
Next, the attachment 5 is imaged to capture an image signal (101), and a circle C is obtained from the obtained image signal.
1, C2 are extracted, they are normalized into a perfect circle to obtain normalized circles C1 ′ and C2 ′, and the center coordinate points (in the visual coordinate system) P1 (x1, of the normalized circles C1 ′ and C2 ′ are obtained. y1),
P2 (x2, y2) is calculated (102). It should be noted that these image processes are performed by an image processor (not shown) built in the robot controller 10.

【0020】次に、内円である正規化円C1’の中心点
P1が画面(図5参照)の中央位置(光軸30)にくる
ように、ハンド11を移動させる(104)。次に、両
中心座標点P1(x1,y1)、P2(x2,y2)を
結ぶ画面上の直線Lx(図5参照)を求め、ハンドアイ
3をこの直線Lxと光軸30とを含む面内で、直線Lx
の長さが減る方向に揺動させる(106)。なお、この
時、ハンドアイ3の揺動角度は直線Lxの大きさに対応
する量(正確には三角関数関係にある量)とする。
Next, the hand 11 is moved so that the center point P1 of the normalized circle C1 'which is the inner circle is located at the center position (optical axis 30) of the screen (see FIG. 5) (104). Next, a straight line Lx (see FIG. 5) connecting the center coordinate points P1 (x1, y1) and P2 (x2, y2) is obtained, and the hand eye 3 is moved to a plane including this straight line Lx and the optical axis 30. Within the straight line Lx
(106). At this time, the swing angle of the hand eye 3 is set to an amount corresponding to the size of the straight line Lx (correctly, an amount having a trigonometric function relationship).

【0021】次に、中心点P1が画面(図5参照)の中
央位置(光軸30)にくるように、ハンド11を再度、
移動させる(108)。次に、直線Lxの長さが、微小
な長さΔLより小さいかどうかを調べ、小さければ面直
出しが行われたとしてル−チンを終了しそうでなければ
ステップ106に戻ってル−チンを繰り返す。
Next, the hand 11 is again moved so that the center point P1 is at the center position (optical axis 30) of the screen (see FIG. 5).
It is moved (108). Next, it is checked whether or not the length of the straight line Lx is smaller than the minute length ΔL. If it is smaller, it is determined that the surface straightening has been performed, and the routine is ended. If not so, the routine returns to step 106 to execute the routine. repeat.

【0022】このようにすれば、面直出しに好適なアタ
ッチメント5を用いているので、面直出しを自動的に高
精度に実行することができる。またこの実施例では、キ
ャリブレ−ションプレ−ト4の孔40の中心線からなる
基軸と光軸30とを合致させること、すなわち、孔40
の中心に光軸30をセットすることもできる。上記した
実施例は面直アタッチメント50を用いた面直出しを説
明しているが、この面直アタッチメント50の形状自体
にも大きな特徴がある。すなわち、このアタッチメント
50は互いに平行で軸に直交する二面を有し、この二面
から同心円が抽出可能となっている。したがって、両円
の中心点間を結ぶ直線の方向及び長さにより簡単に面直
出しを行うことができる。
With this configuration, since the attachment 5 suitable for the surface straightening is used, the surface straightening can be automatically executed with high accuracy. Further, in this embodiment, the optical axis 30 and the base axis of the hole 40 of the calibration plate 4 are aligned with each other, that is, the hole 40.
The optical axis 30 can be set at the center of the. Although the above-described embodiment describes the straight surface feeding using the straight surface attachment 50, the shape itself of the straight surface attachment 50 also has a great feature. That is, the attachment 50 has two surfaces that are parallel to each other and orthogonal to the axis, and concentric circles can be extracted from these two surfaces. Therefore, the surface straightening can be easily performed by the direction and length of the straight line connecting the center points of both circles.

【0023】なお、キャリブレーションプレート4への
アタッチメント5の係止はこのような嵌合構造だけでな
く、他の方法を採用することができる。例えば、キャリ
ブレーションプレート4が磁性体の場合、アタッチメン
トを磁石としてもよい。図6に面直アタッチメントの他
の態様を示す。このアタッチメント5aでは、上軸部5
6aが切頭円錐形状を有している。この場合には、照明
光を光軸30と平行な方向に照射することが好ましい。
このようにすれば斜面58aで照明光は全反射して上面
51a.52aと斜面58aとを視覚的に区別すること
ができる。もちろん、斜面58a又は上面51a.52
aのどちらかを着色してもよい。 (距離出し)次に、距離出しについて図8に基づいて説
明する。
Note that the attachment 5 can be locked to the calibration plate 4 not only by such a fitting structure but also by another method. For example, when the calibration plate 4 is a magnetic body, the attachment may be a magnet. FIG. 6 shows another aspect of the vertical attachment. In this attachment 5a, the upper shaft portion 5
6a has a frustoconical shape. In this case, it is preferable to illuminate the illumination light in a direction parallel to the optical axis 30.
In this way, the illumination light is totally reflected by the inclined surface 58a and the upper surface 51a. The 52a and the slope 58a can be visually distinguished. Of course, the slope 58a or the upper surface 51a. 52
Either of a may be colored. (Distance Out) Next, distance out will be described with reference to FIG.

【0024】上記した面直出し及び光軸合わせを行った
後、図8に示すように、キャリブレ−ションプレ−ト4
に距離アタッチメント6を載置する。この距離アタッチ
メント6は、平坦な下面63を有しキャリブレ−ション
プレ−ト4の平坦な上面に載置される円盤部65と、こ
の円盤部65の中央から下方に突設されキャリブレ−シ
ョンプレ−ト4の孔40に密着嵌入される下軸64とを
有し、この円盤部65の中央には上方開口で円形の凹部
66が穿設されている。 ここで、凹部66、下軸6
4、円盤部65は同軸となっており、したがって、この
アタッチメント6の軸心は、孔40の軸心、すなわち、
基軸Aに合致している。凹部66の輪郭は上方から撮像
した場合、円C3となり、円C3の直径はdoに設計さ
れている(図9参照)。
After the above-described surface straightening and optical axis alignment, as shown in FIG. 8, the calibration plate 4 is
Place the distance attachment 6 on. The distance attachment 6 has a flat lower surface 63 and is mounted on the flat upper surface of the calibration plate 4, and a calibration plate projecting downward from the center of the disk portion 65. 4 has a lower shaft 64 fitted tightly into the hole 40, and a circular recess 66 is formed in the center of the disc portion 65 as an upper opening. Here, the recess 66 and the lower shaft 6
4, the disk portion 65 is coaxial, and therefore the axis of the attachment 6 is the axis of the hole 40, that is,
It matches the base axis A. The contour of the recess 66 becomes a circle C3 when the image is taken from above, and the diameter of the circle C3 is designed to be do (see FIG. 9).

【0025】この距離出しをロボットコントロ−ラ10
を用いて全自動で実施する手順を図10のフロ−チャ−
トを参照して、以下説明する。まず撮像を行って画像信
号を取り込み(200)、取り込んだ画像信号を画像処
理プロセッサで処理して凹部66の輪郭である円C3の
平均直径dを算出する(202)。次に、この平均直径
dと予め記憶する真の直径doとの差(d−do)が微
小値Δdより小さいかどうかを調べ(204)、小さけ
ればル−チンを終了し(204)、そうでなければ、d
がdoより小さいかどうかを調べ(206)、小さけれ
ばハンドアイ3を所定距離接近させ(210)、そうで
なければハンドアイ3を所定距離離遠させ(210)、
204にリタ−ンする。
This distance measurement is performed by the robot controller 10
The procedure shown in the flowchart of FIG.
With reference to FIG. First, image pickup is performed to capture an image signal (200), and the captured image signal is processed by an image processor to calculate an average diameter d of a circle C3 that is the contour of the recess 66 (202). Next, it is checked whether the difference (d-do) between the average diameter d and the true diameter do stored in advance is smaller than the minute value Δd (204), and if it is smaller, the routine is finished (204). Otherwise, d
Is checked to see if it is smaller than do (206). If it is smaller, the hand eye 3 is moved closer by a predetermined distance (210), and if not, the hand eye 3 is moved away by a predetermined distance (210).
Return to 204.

【0026】ただし、コントロ−ラ10に記憶されてい
る上記真の直径doは、ハンドアイ3を基準距離Loに
位置させた場合に画面上に得られる距離すなわち画素距
離で記憶されており、平均直径dも画素距離で表示され
る。以上説明したようにこの実施例では、アタッチメン
ト6上に形成され既知の長さを有する明瞭な直線(ここ
では直径)の画素距離の大小によりハンドアイ3のアタ
ッチメント6からの遠近を検出しているので、高精度か
つ高速に距離出しを行うことができる。
However, the true diameter do stored in the controller 10 is stored as a distance obtained on the screen when the hand eye 3 is positioned at the reference distance Lo, that is, a pixel distance, and the average. The diameter d is also displayed in pixel distance. As described above, in this embodiment, the distance from the attachment 6 of the hand eye 3 is detected by the size of the pixel distance of a straight line (diameter in this case) formed on the attachment 6 and having a known length. Therefore, it is possible to perform distance measurement with high accuracy and high speed.

【0027】以下、本実施例の骨子となるキャリブレ−
ション作業を説明する。このキャリブレ−ション作業は
上記光軸設定及び距離設定の後で実施される。 (光軸整合)まず、光軸整合について図11から図13
及びフロ−チャ−トである図14を参照して説明する。
The caliber, which is the main feature of this embodiment, will be described below.
Explain the work. This calibration work is carried out after the above optical axis setting and distance setting. (Optical Axis Matching) First, FIG. 11 to FIG.
14 and the flow chart of FIG.

【0028】最初、図11に示すように、キャリブレ−
ションプレ−ト4の直上において光軸30を基軸Aに合
致させ、キャリブレ−ションプレ−ト4(ここでは、そ
の上面)とハンドアイ3(ここでは、その先端)との距
離を基準距離Lに一致させる(400)。なお、この基
準距離Lは、上記距離出しで設定された距離であり、こ
の時のハンドアイ3のポジションはロボット座標系上に
おいてPr1で表示される(図12参照)。
First, as shown in FIG.
The optical axis 30 is aligned with the base axis A immediately above the motion plate 4, and the distance between the calibration plate 4 (here, its upper surface) and the hand eye 3 (here, its tip) is matched with the reference distance L. (400). The reference distance L is the distance set by the above-described distance setting, and the position of the hand eye 3 at this time is displayed as Pr1 on the robot coordinate system (see FIG. 12).

【0029】次に、キャリブレ−ションプレ−ト4を撮
像して画像信号を取り込み、得られた画像信号から孔4
0の中心点(本発明でいう静止基準点)を求め、これに
視覚光軸30を合致させる(402)。なおこの実施例
では、上述の面直出しで既に視覚光軸30は基軸Aに合
致しているので、このステップは省略することができ
る。
Next, the image of the calibration plate 4 is picked up to take in the image signal, and the hole 4 is obtained from the obtained image signal.
The center point of 0 (the stationary reference point in the present invention) is obtained, and the visual optical axis 30 is matched with this (402). It should be noted that in this embodiment, since the visual optical axis 30 is already aligned with the base axis A when the above-mentioned surface is directly projected, this step can be omitted.

【0030】次に、この視覚光軸30の画面上の座標点
を第1視覚座標点P1として記憶する(404、なお、
第1座標点P1については図13参照)。ただしこの実
施例では、上述の光軸出しで既に視覚光軸30は画面の
中央点に設定されているので、第1座標点P1としてそ
の座標位置を記憶すれば、このステップは省略すること
ができる。
Next, the coordinate point on the screen of the visual optical axis 30 is stored as the first visual coordinate point P1 (404, where
(See FIG. 13 for the first coordinate point P1). However, in this embodiment, since the visual optical axis 30 is already set at the center point of the screen by the above-described optical axis alignment, if the coordinate position is stored as the first coordinate point P1, this step can be omitted. it can.

【0031】次に、ハンドアイ3をロボット光軸に沿っ
て所定距離だけ移動させる(406)。なお、コントロ
−ラ10がロボット座標系上の所定のベクトルだけハン
ド11の移動を支持する場合、ハンド11はそのベクト
ルに忠実に変位するものとする。移動後のハンドアイ3
のロボット座標系上のポジションはPr2で表示される
(図12参照)。
Next, the hand eye 3 is moved along the optical axis of the robot by a predetermined distance (406). When the controller 10 supports the movement of the hand 11 by a predetermined vector on the robot coordinate system, the hand 11 is supposed to be displaced with respect to the vector. Hand eye 3 after moving
The position on the robot coordinate system is displayed as Pr2 (see FIG. 12).

【0032】次に、このポジションPr2で再度キャリ
ブレ−ションプレ−ト4を撮像し、得た画像信号を画像
処理して、孔40の中心点の画面上の座標点を第2視覚
座標点P2として記憶し(408)、その後、ハンドア
イ3を元の位置に復帰させる(410)。次に、視覚座
標系上の上記第1、第2視覚座標点P1、P2間の移動
ベクトル(図13参照)を算出する(412)。もし、
ロボット光軸と視覚光軸とが合致していれば、この移動
ベクトルは0になる筈である。
Next, the calibration plate 4 is imaged again at this position Pr2, the obtained image signal is subjected to image processing, and the coordinate point of the center point of the hole 40 on the screen is set as the second visual coordinate point P2. It is stored (408), and then the hand eye 3 is returned to its original position (410). Next, the movement vector (see FIG. 13) between the first and second visual coordinate points P1 and P2 on the visual coordinate system is calculated (412). if,
This movement vector should be 0 if the robot optical axis and the visual optical axis match.

【0033】次に、算出した移動ベクトルが充分に小さ
いか(所定の微小値ΔLより小さいかどうかを調べ(4
14)、もし小さければロボット光軸と視覚光軸とは合
致しているものとして次のル−チン(図17)に進む。
もし移動ベクトルが充分に小さくなければ、移動ベクト
ルの大きさに応じてその大きさが縮小する方向にハンド
アイ3を揺動し(416)、再度、ステップ406にリ
タ−ンする。なお、この揺動はロボット光軸と、視覚座
標系上の移動ベクトルに対応するロボット座標系上のベ
クトルとを含む面内で実施されるが、他の面内で実施し
ても構わない。このようにして、移動ベクトルが充分に
小さくなるまでル−チンを繰り返せば、簡単かつ自動的
に視覚光軸をロボット光軸に合致させることができる。
Next, it is checked whether the calculated movement vector is sufficiently small (whether it is smaller than a predetermined minute value ΔL (4
14) If it is smaller, it is assumed that the robot optical axis and the visual optical axis coincide with each other, and the process proceeds to the next routine (FIG. 17).
If the movement vector is not sufficiently small, the hand eye 3 is swung in the direction in which the movement vector decreases in size (416), and the process returns to step 406 again. The swing is performed in a plane including the robot optical axis and a vector in the robot coordinate system corresponding to the movement vector in the visual coordinate system, but may be performed in another plane. In this way, the visual optical axis can be easily and automatically matched with the robot optical axis by repeating the routine until the movement vector becomes sufficiently small.

【0034】(直交軸整合)次に、視覚光軸と直交して
所定方向に延びる視覚座標系上の所定の視覚直交軸(こ
こでは、画面の水平走査方向であるX軸を選択する)
と、このX軸と対応するとともに、ロボット光軸と直交
して延びる視覚座標系上のロボッ直交軸(ここでは、x
軸と呼ぶ)との方向を整合させる直交軸整合方法を図1
5、図16及びフロ−チャ−トである図17を参照して
説明する。
(Orthogonal Axis Matching) Next, a predetermined visual orthogonal axis on the visual coordinate system which extends in a predetermined direction orthogonal to the visual optical axis (here, the X axis which is the horizontal scanning direction of the screen is selected).
And a robot orthogonal axis on the visual coordinate system that corresponds to the X axis and extends orthogonal to the robot optical axis (here, x
(Referred to as the axis) is shown in FIG.
5, FIG. 16 and FIG. 17 which is a flow chart.

【0035】当然、図17に示すル−チンの開始前に、
ロボット光軸と視覚光軸30と基軸Aとは合致してお
り、かつ、ハンドアイ3はポジションPr1に位置して
おり、そして、第1視覚座標点P1を記憶している。最
初、図15に示すようにハンドアイ3をロボット直交軸
の一つであるx軸(水平軸)方向に距離Lだけ移動させ
(500)、キャリブレ−ションプレ−ト4を撮像して
画像信号を取り込み、得られた画像信号から孔40の中
心点(本発明でいう静止基準点)を求め、その画面上の
座標点を第3視覚座標点P3として記憶する(502な
お、第3視覚座標点P3については図16参照)。
Naturally, before starting the routine shown in FIG.
The robot optical axis, the visual optical axis 30, and the base axis A coincide with each other, the hand eye 3 is located at the position Pr1, and the first visual coordinate point P1 is stored. First, as shown in FIG. 15, the hand eye 3 is moved by a distance L in the x-axis (horizontal axis) direction which is one of the orthogonal axes of the robot (500), and the calibration plate 4 is imaged to obtain an image signal. The center point of the hole 40 (the stationary reference point in the present invention) is obtained from the acquired image signal, and the coordinate point on the screen is stored as the third visual coordinate point P3 (502, the third visual coordinate point). See Figure 16 for P3).

【0036】次に、視覚座標系上の上記第1、第3視覚
座標点P1、P2間の移動ベクトル(図16参照)を算
出する(506)。次に、この移動ベクトルと視覚直交
軸としてのX軸との交差角Θを求め(508)、交差角
Θが微小値ΔΘより小いかどうかを調べ(510)。小
さければ、ロボット直交軸xと視覚直交軸Xとは合致し
ているとしてル−チンを終了する。
Next, the movement vector (see FIG. 16) between the first and third visual coordinate points P1 and P2 on the visual coordinate system is calculated (506). Next, the intersection angle Θ between this movement vector and the X axis as the visual orthogonal axis is obtained (508), and it is checked whether the intersection angle Θ is smaller than the minute value ΔΘ (510). If it is smaller, it is determined that the robot orthogonal axis x and the visual orthogonal axis X match each other, and the routine ends.

【0037】一方、交差角Θが微小値ΔΘ以上であれ
ば、交差角Θの大きさに応じて交差角Θが減少する方向
にハンドアイ3を回動させ(512)、再度、ステップ
406にリタ−ンする。もし、ロボット直交軸のx軸と
視覚直交軸のX軸(水平走査方向)とが合致していれ
ば、交差角Θは0になる筈である。
On the other hand, if the intersection angle Θ is equal to or greater than the minute value ΔΘ, the hand eye 3 is rotated in a direction in which the intersection angle Θ decreases in accordance with the size of the intersection angle Θ (512), and step 406 is performed again. Return. If the x axis of the robot orthogonal axis and the X axis of the visual orthogonal axis (horizontal scanning direction) match, the intersection angle Θ should be zero.

【0038】このようにすれば、簡単かつ自動的に視覚
直交軸とロボット直交軸とを合致させることができる。
上記した光軸整合作業及び直交軸整合作業により、ほぼ
両光軸及び各直交軸は合致する(より正確に言えば、平
行となる)。しかし、例えば図12からわかるように、
視覚光軸とロボット光軸とが平行であり、かつ、両者が
近接している場合、ハンドアイ3をロボット光軸方向に
所定距離移動しても移動ベクトルの変化は小さい。すな
わち、この方法では、互いに平行な両光軸間の光軸と直
交する方向への位置ずれを正確に補正することは容易で
はない。
By doing so, the visual orthogonal axis and the robot orthogonal axis can be simply and automatically matched.
By the optical axis alignment work and the orthogonal axis alignment work described above, the both optical axes and the respective orthogonal axes substantially match (more precisely, become parallel). However, for example, as can be seen from FIG.
When the visual optical axis and the robot optical axis are parallel to each other and both are close to each other, even if the hand eye 3 is moved in the robot optical axis direction by a predetermined distance, the change in the movement vector is small. That is, with this method, it is not easy to accurately correct the positional deviation between the optical axes that are parallel to each other in the direction orthogonal to the optical axis.

【0039】また、ハンドアイの位置すなわち視覚座標
系の原点位置とロボット座標系が算出するそれとが光軸
方向において位置ずれしている可能性があり、この位置
ずれも補正する必要がある。本発明の特徴をなすこれら
視覚座標系の原点とロボット座標系上のその位置との間
の位置ずれを補正する方法(以下、ポジション合わせと
もいう)を以下に説明する。 (光軸直交方向の位置ずれ解消)まず、光軸直交方向の
位置ずれ解消方法について、図18の模式図、図19の
静止基準点移動図、図20のフロ−チャ−トにより説明
する。
Further, there is a possibility that the position of the hand eye, that is, the origin position of the visual coordinate system and that calculated by the robot coordinate system are misaligned in the optical axis direction, and this misalignment also needs to be corrected. A method of correcting the positional deviation between the origin of these visual coordinate systems and its position on the robot coordinate system (hereinafter also referred to as position matching), which is a feature of the present invention, will be described below. (Elimination of misregistration in the direction orthogonal to the optical axis) First, a method of eliminating misregistration in the direction orthogonal to the optical axis will be described with reference to the schematic diagram of FIG. 18, the stationary reference point movement diagram of FIG. 19, and the flowchart of FIG.

【0040】この工程を実施する前に、上記した各工程
が全て実施され、視覚光軸とロボット光軸とは平行に調
整されており、互いに近接しているものとする。まずこ
の実施例では、絶対空間内の所定位置に設定される静止
基準点Phを準備する。なお、この静止基準点Phとし
ては例えば図11の基軸Aを採用すればよい。この実施
例では、この静止基準点Phをロボット座標系の原点P
r0として、この原点Pr0からロボット光軸方向に所
定距離Lだけ離れた点をロボット座標系上のカメラ位置
としてハンドアイ3をこのカメラ位置に移動させ(60
0)、次に、ハンドアイ3を光軸と直交する方向に移動
して視覚光軸(ここでは、撮像画面の中心点を視覚光軸
とする)を静止基準点Phに一致させる(602)。な
お、静止基準点Phをロボット座標系の原点としたの
は、カメラ位置(視覚座標系の原点)のロボット座標系
上の位置の算出を簡単化するためになされたものであ
り、静止基準点Ph以外のポイントをロボット座標系の
原点としても構わない。
Before carrying out this step, it is assumed that all the above-mentioned steps have been carried out, the visual optical axis and the robot optical axis have been adjusted in parallel, and they are close to each other. First, in this embodiment, a stationary reference point Ph set at a predetermined position in absolute space is prepared. Note that, as the stationary reference point Ph, for example, the base axis A of FIG. 11 may be adopted. In this embodiment, the stationary reference point Ph is set to the origin P of the robot coordinate system.
As r0, the hand eye 3 is moved to the camera position on the robot coordinate system at a point distant from the origin Pr0 by a predetermined distance L in the robot optical axis direction (60).
0) Next, the hand eye 3 is moved in a direction orthogonal to the optical axis to match the visual optical axis (here, the visual optical axis is the center point of the image pickup screen) with the stationary reference point Ph (602). . The stationary reference point Ph is used as the origin of the robot coordinate system in order to simplify the calculation of the position of the camera position (the origin of the visual coordinate system) on the robot coordinate system. A point other than Ph may be used as the origin of the robot coordinate system.

【0041】したがって、いま、視覚直交軸をx,y軸
とし、視覚光軸をz軸とし、ロボット直交軸をX、Y軸
とし、ロボット光軸をZ軸とする場合、静止基準点Ph
の視覚座標系上での座標(x,y,z)は(0,0,L
z)となり、また、ロボット座標系上での座標(X,
Y,Z)は(0,0,0)となる。Lzは視覚座標系に
おける静止基準点Phとカメラ位置との間の視覚光軸方
向の距離である。
Therefore, when the visual orthogonal axes are x and y axes, the visual optical axis is the z axis, the robot orthogonal axes are the X and Y axes, and the robot optical axis is the Z axis, the stationary reference point Ph is used.
The coordinates (x, y, z) on the visual coordinate system of are (0, 0, L
z) and the coordinates (X,
Y, Z) becomes (0, 0, 0). Lz is the distance in the visual optical axis direction between the stationary reference point Ph and the camera position in the visual coordinate system.

【0042】そして、この視覚座標系上のx−y面にお
ける静止基準点Ph=(0,0)をメモリしておく(6
04)。次に、ハンドアイをロボット光軸(Z軸)を中
心として180度回転させる。(606)。もしもロボ
ット光軸と視覚光軸とが絶対空間内において一致してお
れば、撮像画面上における静止基準点Phの位置は変位
しない。そして両者が一致していない場合、撮像画面上
で静止基準点Phは、図19に示すように静止基準点P
h’の位置(視覚座標系上で(x1,y1)の位置)に
シフトする(608)。
Then, the stationary reference point Ph = (0,0) on the xy plane on this visual coordinate system is stored in memory (6
04). Next, the hand eye is rotated 180 degrees about the robot optical axis (Z axis). (606). If the robot optical axis and the visual optical axis coincide with each other in the absolute space, the position of the stationary reference point Ph on the image pickup screen is not displaced. If they do not match, the stationary reference point Ph on the imaging screen is the stationary reference point P as shown in FIG.
It shifts to the position of h '(the position of (x1, y1) on the visual coordinate system) (608).

【0043】したがって、視覚座標系上のロボット光軸
の実際の位置は点Ph(0,0)とPh’(x1,y
1)との中点(0.5x1,0.5y1)の位置となる
(610)。図19のVが本発明でいう位置ずれベクト
ルとなり、この位置ずれベクトルVは、静止基準点Ph
とPh’とを結ぶ線分の半分の長さと、Ph’からPh
に向かう方向とを有する。
Therefore, the actual positions of the robot optical axis on the visual coordinate system are the points Ph (0,0) and Ph '(x1, y).
It becomes the position of the middle point (0.5x1, 0.5y1) with respect to 1) (610). V in FIG. 19 is the position shift vector in the present invention, and this position shift vector V is the stationary reference point Ph.
And the length of the line segment connecting Ph 'and Ph' to Ph '
With a direction towards.

【0044】次に、ロボット座標系上のカメラ位置すな
わち視覚座標系の原点を図19に示す位置ずれベクトル
Vだけ移動するように、カメラ位置をロボット座標系上
で再指定する(612)。ここでは元のカメラ位置は
(0,0,L)であるので、新しいカメラ位置は(−
0.5x1,−0.5y1,L)となる。ここにLは、
ロボット座標系が記憶するロボット座標系の原点Pr0
からカメラ位置までの距離である。
Next, the camera position is re-designated on the robot coordinate system so that the camera position on the robot coordinate system, that is, the origin of the visual coordinate system is moved by the displacement vector V shown in FIG. 19 (612). Here, the original camera position is (0,0, L), so the new camera position is (-
0.5x1, -0.5y1, L). Where L is
Origin Pr0 of the robot coordinate system stored in the robot coordinate system
To the camera position.

【0045】次に、位置ずれベクトルVの絶対値(距
離)が大きいかどうかを調べ、大きければステップ60
2にリタ−ンして再度ル−チンを行い、大きくなければ
終了する。なお、上記実施例では回転角度を180度と
したが、回転角度の設定は当然、自由である。。 (光軸方向の位置ずれ解消)次にハンドアイ3の光軸方
向における実際の位置(正確に言えば視覚座標系上の位
置)とロボット座標系上の算出位置との間の位置ずれを
解消する方法を、図21の模式図、図22の静止基準点
移動図、図23のフロ−チャ−トにより説明する。
Next, it is checked whether or not the absolute value (distance) of the displacement vector V is large, and if it is large, step 60 is executed.
Return to 2 and repeat the routine. Although the rotation angle is 180 degrees in the above embodiment, the rotation angle can be set freely. . (Elimination of misalignment in the optical axis direction) Next, elimination of misalignment between the actual position of the hand eye 3 in the optical axis direction (to be exact, the position on the visual coordinate system) and the calculated position on the robot coordinate system. A method for doing so will be described with reference to the schematic diagram of FIG. 21, the stationary reference point movement diagram of FIG. 22, and the flowchart of FIG.

【0046】この工程を実施する前に、上記した各工程
が全て実施され、視覚光軸とロボット光軸とは平行に調
整されているものとする。まずこの実施例では、静止基
準点Phをロボット座標系の原点Proとして、この原
点Pr0からロボット光軸方向に所定距離Lだけ離れた
点をロボット座標系上のカメラ位置としてハンドアイ3
を移動させ(700)、次に、ハンドアイ3を光軸と直
交する方向に移動して視覚光軸(ここでは、撮像画面の
中心点を視覚光軸とする)を静止基準点Phに一致させ
る(702)。
Before carrying out this step, it is assumed that all of the above steps have been carried out and the visual optical axis and the robot optical axis have been adjusted in parallel. First, in this embodiment, the stationary reference point Ph is set as the origin Pro of the robot coordinate system, and a point separated from the origin Pr0 by a predetermined distance L in the robot optical axis direction is set as a camera position on the robot coordinate system.
Is moved (700), and then the hand eye 3 is moved in a direction orthogonal to the optical axis to match the visual optical axis (here, the visual optical axis is the center point of the imaging screen) with the stationary reference point Ph. (702).

【0047】なお、静止基準点Phをロボット座標系の
原点としたのは、カメラ位置(視覚座標系の原点)のロ
ボット座標系上の位置の算出を簡単化するためになされ
たものであり、静止基準点Ph以外のポイントをロボッ
ト座標系の原点としても構わない。したがって、いま、
視覚直交軸をx,y軸とし、視覚光軸をz軸とし、ロボ
ット直交軸をX、Y軸とし、ロボット光軸をZ軸とする
場合、静止基準点Phの視覚座標系上での座標(x,
y,z)は(0,0,Lz)となり、また、ロボット座
標系上での座標(X,Y,Z)は(0,0,0)とな
る。Lzは視覚座標系における静止基準点Phとカメラ
位置との間の視覚光軸方向の距離である。
The stationary reference point Ph is used as the origin of the robot coordinate system in order to simplify the calculation of the position of the camera position (origin of the visual coordinate system) on the robot coordinate system. A point other than the stationary reference point Ph may be the origin of the robot coordinate system. Therefore, now
When the visual orthogonal axes are x and y axes, the visual optical axis is the z axis, the robot orthogonal axes are the X and Y axes, and the robot optical axis is the Z axis, the coordinates of the stationary reference point Ph on the visual coordinate system. (X,
y, z) becomes (0, 0, Lz), and the coordinates (X, Y, Z) on the robot coordinate system become (0, 0, 0). Lz is the distance in the visual optical axis direction between the stationary reference point Ph and the camera position in the visual coordinate system.

【0048】次に、ハンドアイ3をロボット直交軸であ
るY軸の回りにΘだけ回転する(704)。ここで、こ
のY軸は、上記したようにロボット座標系の原点として
の静止基準点Phを貫通している(図21において、Y
軸は静止基準点Phを貫通して紙面と直角に立ってい
る)。図21において、もしも静止基準点Phから回転
前のカメラ位置Pc0までの実際の距離(すなわち視覚
座標系上で視認した距離)Lzがロボット座標系が認識
する静止基準点Phから回転前のカメラ位置Pc0まで
の距離Lに等しければ、上記回転により撮像画面上で静
止基準点Phの位置は変位しない筈である。そして両者
が一致していない場合、撮像画面上で静止基準点Ph
は、図22に示すように静止基準点Ph’の位置(視覚
座標系上で(x2,y2)の位置)にシフトするので、
この位置をメモリする(706)。
Next, the hand eye 3 is rotated by Θ around the Y axis which is the robot orthogonal axis (704). Here, the Y axis passes through the stationary reference point Ph as the origin of the robot coordinate system as described above (Y in FIG. 21).
The axis passes through the stationary reference point Ph and stands at a right angle to the paper surface). In FIG. 21, if the actual distance (that is, the distance visually recognized on the visual coordinate system) Lz from the stationary reference point Ph to the camera position Pc0 before rotation is the camera position before rotation from the stationary reference point Ph recognized by the robot coordinate system. If the distance L to Pc0 is equal, the position of the stationary reference point Ph on the imaging screen should not be displaced by the above rotation. If they do not match, the stationary reference point Ph on the imaging screen
Shifts to the position of the stationary reference point Ph '(position (x2, y2) on the visual coordinate system) as shown in FIG.
This position is stored in memory (706).

【0049】次に、ロボット座標系上に算出されている
静止基準点Phと視覚座標系上で視認された静止基準点
Ph’との間の距離ΔZを求める(708)。図21か
らわかるように、回転前後の視覚座標系(撮像画面)上
の静止基準点Phの変位距離をΔLとすれば、ΔZはΔ
L/sinΘとなる。次に、本発明でいう位置ずれベク
トルである上記ΔZだけ、ロボット座標系上の静止基準
点Phの位置をロボット光軸上でシフトする。当然、カ
メラ位置すなわち、視覚座標系の原点はロボット座標系
上でΔZだけ視覚光軸方向にシフトされ、(0、0、L
z−ΔL)となる(710)。
Next, the distance ΔZ between the stationary reference point Ph calculated on the robot coordinate system and the stationary reference point Ph 'visually recognized on the visual coordinate system is obtained (708). As can be seen from FIG. 21, if the displacement distance of the stationary reference point Ph on the visual coordinate system (imaging screen) before and after rotation is ΔL, ΔZ is Δ
L / sin Θ. Next, the position of the stationary reference point Ph on the robot coordinate system is shifted on the robot optical axis by the above-mentioned ΔZ which is the position shift vector in the present invention. Naturally, the camera position, that is, the origin of the visual coordinate system is shifted by ΔZ in the visual optical axis direction on the robot coordinate system, and (0, 0, L
z-ΔL) (710).

【0050】次に、上記距離ΔLが所定距離に比べて小
さいかどうかを調べ、小さければ光軸方向の位置ずれは
解消したものとしてル−チンを終了する。一方、小さく
なければ、ステップ702にリタ−ンして再度ル−チン
を実行する。ただし、この偶数回目のル−チンではステ
ップ704で右に2Θだけ回転することにより、ハンド
アイ3の位置を振らせ,一方、三回目以降の奇数回目の
ル−チンではステップ704で再び左に2Θだけ回転す
ることにより、ハンドアイ3の位置を振らせる。
Next, it is checked whether or not the distance ΔL is smaller than the predetermined distance. If the distance ΔL is smaller than the predetermined distance, it is determined that the positional deviation in the optical axis direction has been eliminated, and the routine ends. On the other hand, if it is not smaller, the routine returns to step 702 to execute the routine again. However, in this even-numbered routine, the position of the hand eye 3 is swung by rotating 2Θ to the right in step 704, while in the odd-numbered routine after the third time, it is moved to the left again in step 704. The position of the hand eye 3 is swung by rotating by 2Θ.

【0051】このようにすれば、簡単かつ正確に光軸方
向の位置ずれを補正することができる。更にこの実施例
では、以上説明した静止基準点Phをこのロボット座標
系におけるロボット代表点としてロボット座標系上の座
標を予め記憶しておく。更にこの静止基準点Phをこの
ハンドアイ3の注視点とする。ここでいう注視点とは、
ハンドアイ3がこの注視点から所定ベクトル距離離れた
カメラ位置から所定方向に注視する点を意味する。
By doing so, the positional deviation in the optical axis direction can be corrected easily and accurately. Further, in this embodiment, the stationary reference point Ph described above is used as the robot representative point in this robot coordinate system, and the coordinates on the robot coordinate system are stored in advance. Further, the stationary reference point Ph is set as the gazing point of the hand eye 3. The point of interest here is
It means a point at which the hand eye 3 gazes in a predetermined direction from a camera position that is a predetermined vector distance away from the gazing point.

【0052】すなわち、この実施例では、ハンドアイ3
の位置(カメラ位置又は視覚座標系の原点)は、注視点
からのベクトル距離として規定され、かつ、この注視点
はロボット代表点としてロボット座標系に規定されてい
るので、カメラ位置はロボット座標系上でロボット代表
点の座標からの上記ベクトル距離だけ変位する位置とし
て簡単に表示することができる。
That is, in this embodiment, the hand eye 3
The camera position (the camera position or the origin of the visual coordinate system) is defined as the vector distance from the gazing point, and this gazing point is defined in the robot coordinate system as the robot representative point. It can be easily displayed as a position displaced by the above vector distance from the coordinates of the robot representative point.

【0053】またこのように、カメラ位置を注視点から
のベクトル距離として表示する場合、撮像画面上の静止
基準点Phすなわち注視点の変位だけ、ロボット座標系
上の注視点すなわちロボット代表点の位置をシフトすれ
ば、カメラ位置をロボット座標系上に正確に補正するこ
とができる。
In this way, when the camera position is displayed as a vector distance from the gazing point, the position of the gazing point on the robot coordinate system, that is, the robot representative point, is changed by the stationary reference point Ph on the imaging screen, that is, the displacement of the gazing point. By shifting, the camera position can be accurately corrected on the robot coordinate system.

【図面の簡単な説明】[Brief description of drawings]

【図1】第1図は本発明の設定方法を用いた多軸ロボッ
ト系の概略図、
FIG. 1 is a schematic view of a multi-axis robot system using the setting method of the present invention,

【図2】面直アタッチメントを装着した状態を示す断面
図、
FIG. 2 is a cross-sectional view showing a state in which a vertical attachment is attached,

【図3】図2の面直アタッチメントの平面図、3 is a plan view of the plane attachment of FIG. 2,

【図4】面直出しル−チンを示すフロ−チャ−ト、FIG. 4 is a flow chart showing a surface directing routine,

【図5】画面を表す説明図、FIG. 5 is an explanatory diagram showing a screen,

【図6】他の面直アタッチメントを装着した状態を示す
断面図、
FIG. 6 is a cross-sectional view showing a state in which another surface upright attachment is attached,

【図7】図6の面直アタッチメントの平面図、7 is a plan view of the surface attachment of FIG. 6,

【図8】距離アタッチメントを装着した状態を示す断面
図、
FIG. 8 is a cross-sectional view showing a state in which a distance attachment is attached,

【図9】図8の距離アタッチメントの平面図、9 is a plan view of the distance attachment of FIG.

【図10】距離出しル−チンを示すフロ−チャ−ト、FIG. 10 is a flow chart showing a distance setting routine.

【図11】光軸整合を説明するための説明図、FIG. 11 is an explanatory diagram for explaining optical axis alignment,

【図12】光軸整合を説明するための説明図、FIG. 12 is an explanatory diagram for explaining optical axis alignment,

【図13】光軸整合作業における画面図、FIG. 13 is a screen diagram in optical axis alignment work,

【図14】光軸整合ル−チンを示すフロ−チャ−ト、FIG. 14 is a flowchart showing an optical axis matching routine,

【図15】直交軸整合を説明するための説明図、FIG. 15 is an explanatory diagram for explaining orthogonal axis alignment,

【図16】直交軸整合作業における画面図、FIG. 16 is a screen diagram in the orthogonal axis alignment work,

【図17】直交軸整合ル−チンを示すフロ−チャ−ト、FIG. 17 is a flowchart showing an orthogonal alignment routine.

【図18】両光軸間の光軸と直交する方向における位置
ずれを示す説明図、
FIG. 18 is an explanatory diagram showing a positional deviation between both optical axes in a direction orthogonal to the optical axis;

【図19】図18の位置ずれを示す画面図、FIG. 19 is a screen diagram showing the positional deviation of FIG.

【図20】図18の位置ずれ解消ル−チンを示すフロ−
チャ−ト、
FIG. 20 is a flow chart showing the position deviation eliminating routine of FIG.
Chart,

【図21】両光軸間の光軸方向における位置ずれを示す
説明図、
FIG. 21 is an explanatory diagram showing a positional shift in the optical axis direction between both optical axes;

【図22】図21の位置ずれを示す画面図、FIG. 22 is a screen view showing the positional deviation of FIG. 21;

【図23】図21の位置ずれ解消ル−チンを示すフロ−
チャ−ト、
FIG. 23 is a flow chart showing the position deviation eliminating routine of FIG. 21.
Chart,

【符号の説明】[Explanation of symbols]

3はハンドアイ、4はキャリブレ−ションプレ−ト4、
5はハンドアイ、30は光軸、
3 is a hand eye, 4 is a calibration plate 4,
5 is a hand eye, 30 is an optical axis,

Claims (3)

【特許請求の範囲】[Claims] 【請求項1】3次元移動可能なハンドに固定されたハン
ドアイの視覚光軸を座標軸とし前記ハンドアイの位置を
原点とする視覚座標系と、前記ハンドアイの位置を算出
可能なロボット座標系とを有し、前記視覚光軸の前記ロ
ボット座標系上への投影すなわち前記算出結果としての
ロボット光軸と前記視覚光軸との前記視覚光軸に直交す
る面内における位置ずれを解消するハンドアイ付き多軸
ロボットの座標系整合方法であって、前記視覚光軸と前
記ロボット光軸とを平行に調整し、所定の静止基準点を
撮像しつつ前記ハンドアイを前記ロボット光軸の回りに
所定角度回転させ、該回転による前記視覚座標系上の前
記静止基準点の位置変化に基づいて前記視覚座標系上に
おける前記両光軸間の位置ずれベクトルを求め、前記位
置ずれベクトルに応じて前記両光軸の少なくとも一方の
位置を前記ロボット光軸と直角な方向に変位させること
により、前記両光軸間の位置ずれを解消することを特徴
とするハンドアイ付き多軸ロボットの座標系整合方法。
1. A visual coordinate system having a visual optical axis of a hand eye fixed to a three-dimensionally movable hand as a coordinate axis and a position of the hand eye as an origin, and a robot coordinate system capable of calculating the position of the hand eye. A hand which has a projection of the visual optical axis on the robot coordinate system, that is, a positional deviation between the robot optical axis as the calculation result and the visual optical axis in a plane orthogonal to the visual optical axis. A coordinate system matching method for a multi-axis robot with an eye, wherein the visual optical axis and the robot optical axis are adjusted in parallel, and the hand eye is moved around the robot optical axis while imaging a predetermined stationary reference point. Rotate by a predetermined angle, determine the position shift vector between the optical axes on the visual coordinate system based on the position change of the stationary reference point on the visual coordinate system due to the rotation, to the position shift vector By displacing at least one position of both the optical axes in a direction perpendicular to the robot optical axis, the coordinate of the multi-axis robot with a hand eye characterized by eliminating the positional deviation between the both optical axes. System matching method.
【請求項2】3次元移動可能なハンドに固定されたハン
ドアイの視覚光軸を座標軸とし前記ハンドアイの位置を
原点とする視覚座標系と、前記ハンドアイの位置を算出
可能なロボット座標系とを有し、前記視覚光軸の前記ロ
ボット座標系上への投影すなわち前記算出結果としての
ロボット光軸と前記視覚光軸との前記視覚光軸方向にお
ける位置ずれを解消するハンドアイ付き多軸ロボットの
座標系整合方法であって、前記視覚光軸と前記ロボット
光軸とを平行に調整し、所定の静止基準点を撮像しつつ
前記ハンドアイを静止基準点を中心として前記ロボット
光軸と直交する軸の回りに所定角度回転させ、該回転に
よる前記視覚座標系上の前記静止基準点の位置変化に基
づいて前記視覚座標系上における前記両光軸間の位置ず
れベクトルを求め、前記位置ずれベクトルに応じて前記
両光軸の少なくとも一方の位置を前記ロボット光軸の方
向に変位させることにより、前記両光軸間の位置ずれを
解消することを特徴とするハンドアイ付き多軸ロボット
の座標系整合方法。
2. A visual coordinate system having a visual optical axis of a hand eye fixed to a three-dimensionally movable hand as a coordinate axis and a position of the hand eye as an origin, and a robot coordinate system capable of calculating the position of the hand eye. And a projection of the visual optical axis onto the robot coordinate system, that is, a multi-axis with a hand eye that eliminates a positional deviation between the robot optical axis as the calculation result and the visual optical axis in the visual optical axis direction. A coordinate system matching method for a robot, wherein the visual optical axis and the robot optical axis are adjusted in parallel and the hand eye is imaged at a predetermined stationary reference point while the hand eye is centered on the stationary reference point. A predetermined angle is rotated around orthogonal axes, and a position shift vector between the two optical axes on the visual coordinate system is obtained based on a position change of the stationary reference point on the visual coordinate system due to the rotation. A multi-axis with a hand eye, wherein at least one position of the both optical axes is displaced in the direction of the robot optical axis according to the position displacement vector to eliminate the positional displacement between the both optical axes. Robot coordinate system matching method.
【請求項3】3次元移動可能なハンドに固定されたハン
ドアイの視覚光軸を座標軸とし前記ハンドアイの位置を
原点とする視覚座標系と、前記ハンドアイの位置を算出
可能なロボット座標系とを有し、前記視覚光軸の前記ロ
ボット座標系上への投影すなわち前記算出結果としての
ロボット光軸と前記視覚光軸との位置ずれを解消するハ
ンドアイ付き多軸ロボットの座標系整合方法であって、
前記ハンドアイが所定距離離れた位置から所定姿勢で
注視する所定の静止注視点をロボット座標系上の代表点
とし、前記ロボット座標系上における前記視覚座標系の
前記原点すなわちカメラ位置を前記代表点からの変位ベ
クトルとして規定することを特徴とするハンドアイ付き
多軸ロボットの座標系整合方法。
3. A visual coordinate system having a visual optical axis of a hand eye fixed to a three-dimensionally movable hand as a coordinate axis and a position of the hand eye as an origin, and a robot coordinate system capable of calculating the position of the hand eye. And a coordinate system matching method for a multi-axis robot with a hand eye that eliminates the projection of the visual optical axis onto the robot coordinate system, that is, the positional deviation between the robot optical axis as the calculation result and the visual optical axis. And
A predetermined stationary gazing point at which the hand eye gazes in a predetermined posture from a position separated by a predetermined distance is used as a representative point on the robot coordinate system, and the origin of the visual coordinate system on the robot coordinate system, that is, the camera position is the representative point. A coordinate system matching method for a multi-axis robot with a hand eye characterized in that it is defined as a displacement vector from.
JP15707291A 1991-06-27 1991-06-27 Co-ordinate system matching method for multi-axis robot with hand-eye Pending JPH054180A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP15707291A JPH054180A (en) 1991-06-27 1991-06-27 Co-ordinate system matching method for multi-axis robot with hand-eye

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP15707291A JPH054180A (en) 1991-06-27 1991-06-27 Co-ordinate system matching method for multi-axis robot with hand-eye

Publications (1)

Publication Number Publication Date
JPH054180A true JPH054180A (en) 1993-01-14

Family

ID=15641627

Family Applications (1)

Application Number Title Priority Date Filing Date
JP15707291A Pending JPH054180A (en) 1991-06-27 1991-06-27 Co-ordinate system matching method for multi-axis robot with hand-eye

Country Status (1)

Country Link
JP (1) JPH054180A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010152664A (en) * 2008-12-25 2010-07-08 Nissei Corp Sensorless motor-driven robot using image
JP2018001332A (en) * 2016-06-30 2018-01-11 セイコーエプソン株式会社 Robot, control device, and robot system
WO2021210456A1 (en) * 2020-04-13 2021-10-21 ファナック株式会社 Device for obtaining position of visual sensor in control coordinate system of robot, robot system, method, and computer program

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010152664A (en) * 2008-12-25 2010-07-08 Nissei Corp Sensorless motor-driven robot using image
JP2018001332A (en) * 2016-06-30 2018-01-11 セイコーエプソン株式会社 Robot, control device, and robot system
WO2021210456A1 (en) * 2020-04-13 2021-10-21 ファナック株式会社 Device for obtaining position of visual sensor in control coordinate system of robot, robot system, method, and computer program
JPWO2021210456A1 (en) * 2020-04-13 2021-10-21

Similar Documents

Publication Publication Date Title
US9197810B2 (en) Systems and methods for tracking location of movable target object
US4724480A (en) Method for optical alignment of one object with respect to another
CN102448679B (en) Method and system for extremely precise positioning of at least one object in the end position in space
JP7153085B2 (en) ROBOT CALIBRATION SYSTEM AND ROBOT CALIBRATION METHOD
CN114311346B (en) Wafer and workbench alignment identification method
CN111707189B (en) Laser displacement sensor light beam direction calibration method based on binocular vision
JP3442140B2 (en) Position measurement device and position deviation correction device using three-dimensional visual sensor
JPH08132373A (en) Coordinate system coupling method in robot-sensor system
JP3666108B2 (en) Appearance inspection device
CN113409406A (en) Large-range monocular tracking scanning device
JPH0755439A (en) Three-dimensional shape measuring equipment
JP6565367B2 (en) Position correction system
JPH054180A (en) Co-ordinate system matching method for multi-axis robot with hand-eye
CN112598752A (en) Calibration method based on visual identification and operation method
JP6930517B2 (en) Alignment device
JP2568005B2 (en) How to set face-eye, distance and rotation angle of hand eye
JPH0545117A (en) Optical method for measuring three-dimensional position
US10885368B2 (en) Six-dimensional smart target
JPH0675617A (en) Camera view point change system
JP2003121112A (en) Location detecting apparatus
JP2000193429A (en) Shape measuring device
JPH0283183A (en) Setting method for position of articulated robot
JPH0996506A (en) Adjusting method for position by three-dimensional visual sensor and recognition apparatus for three-dimensional image
JP2839009B2 (en) Automatic calibration method for positioning camera
JPH05337785A (en) Grinding path correcting device of grinder robot