JPS62214403A - Calibration method of robot system with visual sensor - Google Patents

Calibration method of robot system with visual sensor

Info

Publication number
JPS62214403A
JPS62214403A JP5715686A JP5715686A JPS62214403A JP S62214403 A JPS62214403 A JP S62214403A JP 5715686 A JP5715686 A JP 5715686A JP 5715686 A JP5715686 A JP 5715686A JP S62214403 A JPS62214403 A JP S62214403A
Authority
JP
Japan
Prior art keywords
camera
robot
view
field
calibration
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP5715686A
Other languages
Japanese (ja)
Inventor
Fusaaki Hatanaka
房昭 畑中
Kiyoshi Hirakawa
潔 平川
Satoshi Gondo
権藤 智
Shukaku Kura
修郭 久良
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yaskawa Electric Corp
Original Assignee
Yaskawa Electric Manufacturing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yaskawa Electric Manufacturing Co Ltd filed Critical Yaskawa Electric Manufacturing Co Ltd
Priority to JP5715686A priority Critical patent/JPS62214403A/en
Publication of JPS62214403A publication Critical patent/JPS62214403A/en
Pending legal-status Critical Current

Links

Landscapes

  • Numerical Control (AREA)
  • Manipulator (AREA)

Abstract

PURPOSE:To make the hand-eye operation possible in a wide range by using another camera and a work for calibration though a camera is not capable of calibration because of an obstacle or the like. CONSTITUTION:When a work 5 is handled with a robot 6 in the calibration method in a robot system with visual sensor, cameras 1 and 2 and their picture processing devices are used to obtain coordinates of centers of holes 41 and 43 in both ends of the work 5, and a gripping point of the robot 6 is obtained in accordance with these two coordinates to handle the work 5. With respect to a camera 3, a work 4 for calibration is so moved that holes 41 and 42 are within the visual field of the camera 2 and the hole 43 is within the visual field of the camera 3, and calibration is performed with the camera 2.

Description

【発明の詳細な説明】 〔産業上の利用分野〕 本発明は、視覚センサとして複数の工業用テレビカメラ
とその画像処理装置を備えた視覚センサ付ロボットシス
テムにおいて、複数の工業用テレビカメラとロボットと
の座標系のキヤリプレージョン方法に関する。
Detailed Description of the Invention [Field of Industrial Application] The present invention provides a robot system with a visual sensor that includes a plurality of industrial television cameras and their image processing devices as visual sensors. This paper relates to a method of calculating a coordinate system with a coordinate system.

〔従来の技術〕[Conventional technology]

従来、この種の視覚センサ付ロボットシステムにおいて
は、まずカメラ視野内に形状が円の物体を置いて画像処
理装置で円の中心座標を求め、その後、ロボットのアー
ム先端(把持中心位置)を円の真上に持って行き、ロボ
ット座標での円の中心座標を得て、2つの座標値からロ
ボットとカメラのキャリブレーションを行うのが普通で
あり、複数個の工業用テレビカメラが存在する場合、そ
の各々に対して、上記のことを行って各カメラとのキャ
リブレーションを行っていた。
Conventionally, in this type of robot system with a visual sensor, an object with a circular shape is placed within the field of view of the camera, the center coordinates of the circle are determined by an image processing device, and then the tip of the robot's arm (grip center position) is Normally, the center coordinates of the circle in the robot coordinates are obtained by calibrating the robot and camera from the two coordinate values, and when there are multiple industrial television cameras. , the above steps were performed for each camera to perform calibration with each camera.

〔発明が解決しようとする間層点〕[The interlayer point that the invention attempts to solve]

上述した従来の方法は、全カメラの視野内にロボットの
アームの先端(把持中心位置)が届く必要があり、そう
でないカメラについてはキャリブレーションできないと
いう欠点がある。
The above-described conventional method has the disadvantage that the tip of the robot's arm (grip center position) needs to reach within the field of view of all cameras, and it is not possible to calibrate cameras that do not.

〔問題点を解決するための手段〕[Means for solving problems]

本発明の視覚センサ付ロボットシステムのキャリブレー
ション方法は、アーム先端がカメラ視野に届き、キャリ
ブレーションされたカメラ、キャリブレーションを直接
的に行なうことができないカメラをそれぞれ第1、第2
のカメラとし、第1、第2の物体は第1のカメラの視野
内に入り、第3の物体は第2のカメラの視野内に入る位
置関係が既知の第1、第2、第3の物体を有するキャリ
ブレーション用ワークを、第1、第2の物体が第1のカ
メラの視野内に入り、第3の物体が第2のカメラの視野
内に入るように第1、第2のカメラの下に置き、第1、
第2のカメラおよび画像処理装置により第1、第2、第
3の物体のカメラ座標値を求め、所定の変換式より第1
、第2の物体のロボット座標値を求め、第1、第2、第
3の位置関係と求められた第1、第2の物体のロボット
座標値とから第3の物体のロボット座標値を求め、次に
キャリブレーション用ワークをわずかに移動させて同様
にして第3の物体のロボット座標値を求めることにより
第2のカメラのキャリブレーションを行なうものである
In the calibration method of the robot system with a visual sensor of the present invention, the tip of the arm reaches the field of view of the camera, and the calibrated camera and the camera that cannot be directly calibrated are placed in the first and second positions, respectively.
camera, the first and second objects are within the field of view of the first camera, and the third object is within the field of view of the second camera. A calibration work having an object is placed between the first and second cameras so that the first and second objects are within the field of view of the first camera, and the third object is within the field of view of the second camera. Place it under the first,
The camera coordinate values of the first, second, and third objects are obtained using the second camera and the image processing device, and the first
, determine the robot coordinate values of the second object, and determine the robot coordinate values of the third object from the first, second, and third positional relationships and the determined robot coordinate values of the first and second objects. Then, the second camera is calibrated by slightly moving the calibration work and similarly determining the robot coordinate values of the third object.

〔作用〕[Effect]

一般に、カメラとロボットのキャリブレーションを行な
うということは、カメラおよびその画像処理装置から得
られたカメラ座標値をロボット座標値に変換する定数を
求めることである。そのためには、カメラ視野内におい
て、ロボット座標値とカメラ座標値が同時にわかる点が
、2個所必要である。第3図において、ロボット座標値
とカメラ座標値がわかった点’I+P2が得られたとす
ると、カメラ座標値(x、 y)をロボット座標値(x
、 y)に変換する式は以下のように求められる。
Generally, calibrating a camera and a robot means finding constants for converting camera coordinate values obtained from the camera and its image processing device into robot coordinate values. To do this, there must be two points within the camera field of view where the robot coordinate values and camera coordinate values can be seen at the same time. In Figure 3, if we obtain a point 'I+P2 where the robot coordinates and camera coordinates are known, we can convert the camera coordinates (x, y) to the robot coordinates (x
, y) is obtained as follows.

第3図において、カメラ座標系上の点(x、 y)から
ロボット座標系上の点(X、 Y)への変換は平行移動
と回転移動の合成である。そこで、カメラ座標系のX軸
とロボット座標系のX軸のなす角度をTとすれば ただし、C,Dは平行移動の定数 ここで、cos(T)=A  5in(T)Jとおくと
よって 次に、上式の定数A、B、C,Dを求める。
In FIG. 3, the transformation from a point (x, y) on the camera coordinate system to a point (X, Y) on the robot coordinate system is a combination of parallel movement and rotational movement. Therefore, if the angle between the X-axis of the camera coordinate system and the X-axis of the robot coordinate system is T, then C and D are constants of parallel movement, and cos(T)=A 5in(T)J. Therefore, next, constants A, B, C, and D in the above equation are determined.

第3図において、カメラ座標系上の2点P1(XI *
yl ) * P2 (×2 + y2)が、それぞれ
ロボット座標系上の2点P+(XI、 Yl)、 P2
(X21 Y2)k:対応するとすれば、これらを (
1)式に代入して次の (2)式が得られる。
In Fig. 3, two points P1 (XI *
yl ) * P2 (×2 + y2) are the two points P+(XI, Yl) and P2 on the robot coordinate system, respectively.
(X21 Y2)k: If they correspond, these should be (
By substituting into equation 1), the following equation (2) is obtained.

Xl =Axl +Byl +  C Y2 =Bx2−Ay2 + D これより、連立方程式を解くと A ” ((XI  X2)(XI−X2)−(Y+ 
−’h)(Vt −Vz))B” ((XI  >h)
(Vt−V2)+(Xt−X2)(XI  X2))C
=  X1AxI   By+ D=  Yl −Bxl +Ay+ ただし、Z=(xI−x2)2+(yl−y2)2とな
る。
Xl =Axl +Byl + CY2 =Bx2-Ay2 + D From this, solving the simultaneous equations yields A'' ((XI X2) (XI-X2)-(Y+
−'h)(Vt −Vz))B” ((XI >h)
(Vt-V2)+(Xt-X2)(XI X2))C
= X1AxI By+ D= Yl -Bxl +Ay+ However, Z=(xI-x2)2+(yl-y2)2.

いま、第1図において、カメラ1はロボットのアームの
先端が視野内に届き、キャリブレーションされたカメラ
で、カメラ2およびカメラ3はアームが視野内に届かな
いものとする。第2図のような、位置関係が既知の3個
の穴41+ 42+ ’!を有するキャリブレーション
用ワーク4を、穴41+ ’2はカメラ1の視野内に、
穴43はカメラ2の視野に入るようにカメラ1.2の下
に置くと、カメラ1、カメラ2およびその画像処理装置
により穴’In ’2+ 43のカメラ座標値を得るこ
とができる。また、カメラ1はキャリブレーションされ
ているので、変換式(1)より、穴’++’2のロボッ
ト座標値も得ることができる。それぞれのロボット座標
値を (xrI、Yrl)、(xr2.Y「2)とすれ
ば、穴43のロボット座標値(x、 y)は、第2図よ
り X  =Xr2 −  (XrI−Xr2) ・12 
 /f)、1Y  =Yr2 −  (Yrl  −Y
r2) ・JZ2  / 421となり、穴43に対し
てもロボット座標値が得られたことになる。上記のこと
をキャリブレーション用ワーク4を少し移動させて、も
う一度行い、穴43の2点におけるカメラ座標値および
ロボット座標値を求めれば、カメラ2がキャリブレーシ
ョンできたことになる。
In FIG. 1, it is assumed that camera 1 is a calibrated camera in which the tip of the robot's arm can reach within the field of view, and cameras 2 and 3 are calibrated cameras whose arms do not reach within the field of view. Three holes 41+ 42+ ' whose positional relationship is known as shown in Figure 2! A calibration work 4 having a hole 41+'2 is within the field of view of the camera 1,
When the hole 43 is placed under the camera 1.2 so as to be within the field of view of the camera 2, the camera coordinate values of the hole 'In'2+ 43 can be obtained by the camera 1, the camera 2 and its image processing device. Furthermore, since the camera 1 has been calibrated, the robot coordinate value of the hole '++'2 can also be obtained from the conversion equation (1). If the respective robot coordinate values are (xrI, Yrl) and (xr2.Y'2), the robot coordinate values (x, y) of the hole 43 are, from Figure 2, X = Xr2 - (XrI - Xr2) ・12
/f), 1Y = Yr2 − (Yrl −Y
r2) - JZ2/421, which means that the robot coordinate values for hole 43 have also been obtained. If the above steps are repeated by moving the calibration work 4 a little, and the camera coordinate values and robot coordinate values at the two points of the hole 43 are determined, the camera 2 has been calibrated.

カメラ3については、穴’l+’2がカメラ2の視野内
に、穴43がカメラ3の視野内に入るようにキャリブレ
ーション用ワーク4を移動させ、カメラ2を使って同様
にキャリブレーションを行なうことができる。
For camera 3, move the calibration work 4 so that hole 'l+'2 is within the field of view of camera 2 and hole 43 is within the field of view of camera 3, and perform calibration in the same way using camera 2. be able to.

なお、以上の説明ではキャリブレーション用ワークに設
けた穴をカメラでとらえるようになっているが、穴の代
りに円板状のものを貼り付けたり、ペンキ等で塗ったり
してもよく、またその形状は必ずしも円でなくてもよい
In addition, in the above explanation, the hole made in the calibration work is captured with a camera, but instead of the hole, a disc-shaped object may be pasted or painted. Its shape does not necessarily have to be circular.

〔実施例〕〔Example〕

次に、本発明の実施例について図面を参照して説明する
Next, embodiments of the present invention will be described with reference to the drawings.

第4図は本発明の視覚センサ付ロボットシステムにおけ
るキャリブレーション方法の一実施例で、ワークをロボ
ットでハンドリングする例を示す図である。この場合、
ワーク5はベルトコンベアで送られてきて、カメラ1と
カメラ2およびその画像処理装置を使ってワーク5の両
端の穴の中心座標を得て、その2つの座標からロボット
6の把持点を求めワーク5をハンドリングするものとす
る。この場合、カメラ1、カメラzとも予めキャリブレ
ーションをしておく必要がある。しかし、ロボット6の
アームの先端は、カメラ1には届くが、カメラ2には届
かない。そこで、前述した方法を用いることにより、カ
メラ2もキャリブレーションできることになる。
FIG. 4 is an embodiment of a calibration method in a robot system with a visual sensor according to the present invention, and is a diagram showing an example in which a workpiece is handled by a robot. in this case,
The workpiece 5 is sent by a belt conveyor, and the center coordinates of the holes at both ends of the workpiece 5 are obtained using the cameras 1 and 2 and their image processing devices, and from these two coordinates, the gripping point of the robot 6 is determined and the workpiece is removed. 5 shall be handled. In this case, it is necessary to calibrate both camera 1 and camera z in advance. However, the tip of the arm of the robot 6 can reach the camera 1 but not the camera 2. Therefore, by using the method described above, the camera 2 can also be calibrated.

〔発明の効果) 以上説明したように本発明は、ワークが大きくて、複数
のカメラを用いてロボットでハンドリングする場合、カ
メラの位置がロボットから離れすぎたり、障害物が存在
したりして、キャリブレーションできないカメラがあっ
ても、キャリブレーションされている別のカメラとキャ
リブレーション用ワークを用いることにより、キャリブ
レーションができ、広範囲でのハンドアイ動作が可能で
あるという効果がある。
[Effects of the Invention] As explained above, the present invention has the advantage that when a large workpiece is handled by a robot using multiple cameras, the camera position may be too far from the robot or there may be obstacles. Even if there is a camera that cannot be calibrated, it can be calibrated by using another calibrated camera and a calibration work, which has the effect of making hand-eye operation possible over a wide range.

【図面の簡単な説明】[Brief explanation of drawings]

第1図は本発明のキャリブレーション方法を説明する図
、第2図は第1図中のキャリブレーション用ワーク4の
平面図、第3図は点PI+P2のカメラ座標系とロボッ
ト座標系でのそれぞれの座標値を示す図、第4図はロボ
ットとカメラを使用してワークのハンドリングを行なっ
ている例を示す図である。 1、 2. 3−軸カメラ、 4・・・キャリブレーション用ワーク、’I+ 42+
 ’3・・・穴、 ×I+ YIn ×2+ Y2 ”・ロボット座標値、
×l、yI、×2.y2・・・カメラ座標値。
Fig. 1 is a diagram explaining the calibration method of the present invention, Fig. 2 is a plan view of the calibration work 4 in Fig. 1, and Fig. 3 is a diagram showing points PI+P2 in the camera coordinate system and robot coordinate system, respectively. FIG. 4 is a diagram showing an example of handling a work using a robot and a camera. 1, 2. 3-axis camera, 4... Calibration work, 'I+ 42+
'3... Hole, ×I+ YIn ×2+ Y2''・Robot coordinate value,
×l, yI, ×2. y2...Camera coordinate value.

Claims (1)

【特許請求の範囲】 視覚センサとして複数の工業用テレビカメラとその画像
処理装置を備えた視覚センサ付ロボットシステムにおい
て、少なくとも1台のカメラの視野内にはアーム先端が
届くが、それ以外のカメラの視野内にはロボットのアー
ム先端が届かず、ロボットとのキャリブレーションを直
接的には行うことができないときのキャリブレーション
方法であって、 アーム先端がカメラ視野に届き、キャリブレーションさ
れたカメラ、キャリブレーションを直接的に行なうこと
ができないカメラをそれぞれ第1、第2のカメラとし、
第1、第2の物体は第1のカメラの視野内に入り、第3
の物体は第2のカメラの視野内に入る位置関係が既知の
第1、第2、第3の物体を有するキャリブレーション用
ワークを、第1、第2の物体が第1のカメラの視野内に
入り、第3の物体が第2のカメラの視野内に入るように
第1、第2のカメラの下に置き、第1、第2のカメラお
よび画像処理装置により第1、第2、第3の物体のカメ
ラ座標値を求め、所定の変換式より第1、第2の物体の
ロボット座標値を求め、第1、第2、第3の位置関係と
求められた第1、第2の物体のロボット座標値とから第
3の物体のロボット座標値を求め、次にキャリブレーシ
ョン用ワークをわずかに移動させて同様にして第3の物
体のロボット座標値を求めることにより第2のカメラの
キャリブレーションを行なう視覚センサ付ロボットシス
テムにおけるキャリブレーション方法。
[Claims] In a robot system with a visual sensor that includes a plurality of industrial television cameras and their image processing devices as visual sensors, the tip of the arm can reach within the field of view of at least one camera, but the other cameras This is a calibration method when the tip of the robot's arm cannot reach the field of view of the robot and calibration with the robot cannot be performed directly. Cameras that cannot be directly calibrated are respectively designated as first and second cameras,
The first and second objects are within the field of view of the first camera, and the third object is within the field of view of the first camera.
The object falls within the field of view of the second camera.The calibration work has a first, second, and third object whose positional relationship is known and the first and second objects fall within the field of view of the first camera. the third object is placed under the first and second cameras so that it is within the field of view of the second camera, and the first, second, and third objects are captured by the first and second cameras and the image processing device. The camera coordinate values of the object No. 3 are determined, the robot coordinate values of the first and second objects are determined using a predetermined conversion formula, and the positional relationships of the first, second, and third objects and the determined first and second objects are determined. The robot coordinate values of the third object are determined from the robot coordinate values of the object, and then the calibration work is moved slightly and the robot coordinate values of the third object are determined in the same manner. A calibration method for a robot system with a visual sensor that performs calibration.
JP5715686A 1986-03-17 1986-03-17 Calibration method of robot system with visual sensor Pending JPS62214403A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP5715686A JPS62214403A (en) 1986-03-17 1986-03-17 Calibration method of robot system with visual sensor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP5715686A JPS62214403A (en) 1986-03-17 1986-03-17 Calibration method of robot system with visual sensor

Publications (1)

Publication Number Publication Date
JPS62214403A true JPS62214403A (en) 1987-09-21

Family

ID=13047702

Family Applications (1)

Application Number Title Priority Date Filing Date
JP5715686A Pending JPS62214403A (en) 1986-03-17 1986-03-17 Calibration method of robot system with visual sensor

Country Status (1)

Country Link
JP (1) JPS62214403A (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1989001849A1 (en) * 1987-08-22 1989-03-09 Fanuc Ltd Calibration system for visual sensor system
WO1991019240A1 (en) * 1990-05-30 1991-12-12 Fanuc Ltd Calibration system of visual sensor
JP2007122705A (en) * 2005-09-30 2007-05-17 Nachi Fujikoshi Corp Welding teaching point correction system and calibration method
CN1330466C (en) * 2005-04-21 2007-08-08 上海交通大学 On-line robot hand and eye calibrating method based on motion selection
CN102294695A (en) * 2010-06-25 2011-12-28 鸿富锦精密工业(深圳)有限公司 Robot calibration method and calibration system
CN104864807A (en) * 2015-04-10 2015-08-26 深圳大学 Manipulator hand-eye calibration method based on active binocular vision
CN104236456B (en) * 2014-09-04 2016-10-26 中国科学院合肥物质科学研究院 A kind of Robotic Hand-Eye Calibration method based on two-freedom 3D vision sensor
CN111421528A (en) * 2020-03-24 2020-07-17 广州市轻工职业学校 Industrial robot's automated control system
CN114074321A (en) * 2020-08-10 2022-02-22 库卡机器人(广东)有限公司 Robot calibration method and device

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1989001849A1 (en) * 1987-08-22 1989-03-09 Fanuc Ltd Calibration system for visual sensor system
WO1991019240A1 (en) * 1990-05-30 1991-12-12 Fanuc Ltd Calibration system of visual sensor
CN1330466C (en) * 2005-04-21 2007-08-08 上海交通大学 On-line robot hand and eye calibrating method based on motion selection
JP2007122705A (en) * 2005-09-30 2007-05-17 Nachi Fujikoshi Corp Welding teaching point correction system and calibration method
CN102294695A (en) * 2010-06-25 2011-12-28 鸿富锦精密工业(深圳)有限公司 Robot calibration method and calibration system
CN104236456B (en) * 2014-09-04 2016-10-26 中国科学院合肥物质科学研究院 A kind of Robotic Hand-Eye Calibration method based on two-freedom 3D vision sensor
CN104864807A (en) * 2015-04-10 2015-08-26 深圳大学 Manipulator hand-eye calibration method based on active binocular vision
CN111421528A (en) * 2020-03-24 2020-07-17 广州市轻工职业学校 Industrial robot's automated control system
CN114074321A (en) * 2020-08-10 2022-02-22 库卡机器人(广东)有限公司 Robot calibration method and device

Similar Documents

Publication Publication Date Title
US5329469A (en) Calibration method for a visual sensor
JP3138080B2 (en) Automatic calibration device for vision sensor
JPS62214403A (en) Calibration method of robot system with visual sensor
WO2018043524A1 (en) Robot system, robot system control device, and robot system control method
JP2003311670A (en) Positioning control method of robot arm and robot equipment
JPH0626770B2 (en) Workpiece fitting method
Tongloy et al. An image-based visual servo control system based on an eye-in-hand monocular camera for autonomous robotic grasping
JPH04269194A (en) Plane measuring method
JPH0588721A (en) Controller for articulated robot
JPS6361903A (en) Three-dimensional coordinate converting device
JP3100233B2 (en) 3D position locating device
JPS62226308A (en) Control system for robot having visual sensor
JP3422063B2 (en) Image processing device
Nilsson et al. Combining a stable 2-D vision camera and an ultrasonic range detector for 3-D position estimation
Liang et al. A general framework for robot hand-eye coordination
JP2005186193A (en) Calibration method and three-dimensional position measuring method for robot
JP2000199704A (en) Calibration method for image processor
JP3252870B2 (en) Calibration method of image recognition robot camera
Lin et al. Dsp based uncalibrated visual servoing for a 3-dof robot manipulator
JPH04146090A (en) Article holding and moving method using robot
JP3541980B2 (en) Calibration method for robot with visual sensor
JPS62102984A (en) Method of determining attitude of wrist section of robot
JPS63104105A (en) Conversion method for robot visual coordinate system
JP2661118B2 (en) Conversion method of object coordinates and visual coordinates using image processing device
KR19990088074A (en) Method for determining the position of an object by means of digital image processing