JPH0511822A - Cooperative operation system for robot - Google Patents

Cooperative operation system for robot

Info

Publication number
JPH0511822A
JPH0511822A JP16286491A JP16286491A JPH0511822A JP H0511822 A JPH0511822 A JP H0511822A JP 16286491 A JP16286491 A JP 16286491A JP 16286491 A JP16286491 A JP 16286491A JP H0511822 A JPH0511822 A JP H0511822A
Authority
JP
Japan
Prior art keywords
robot
correction
visual sensor
conversion
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP16286491A
Other languages
Japanese (ja)
Inventor
Yoshiharu Iwata
吉晴 岩田
Toshio Nakagawa
俊男 中川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fanuc Corp
Original Assignee
Fanuc Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fanuc Corp filed Critical Fanuc Corp
Priority to JP16286491A priority Critical patent/JPH0511822A/en
Publication of JPH0511822A publication Critical patent/JPH0511822A/en
Pending legal-status Critical Current

Links

Landscapes

  • Numerical Control (AREA)
  • Manipulator (AREA)

Abstract

PURPOSE:To easily adjust settings of a robot system in a short time even if the robot or a visual sensor shifts in position. CONSTITUTION:When the robot shifts, the quantity DELTACD of deviation between the robot and visual sensor 3 is found and a correction matrix CMI is found according to the deviation quantity DELTACD, etc. A conversion matrix correcting means 33 corrects a previously set conversion matrix CM1 for calibration with the correction matrix CMI to find a corrected conversion matrix CMC; and work detection point data WD from the visual sensor 3 are converted by this corrected conversion matrix CMC and sent out to the robot side. The work detection point data WD, on the other hand, are converted by a previously set conversion matrix CM2 for calibration and sent out to the other robot side. Namely, the setting adjustments are only made between the robot which shifts and the visual sensor 3 to perform cooperative operation.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は複数のロボット及び視覚
センサから成るロボットシステムに協調作業を行わせる
ロボットの協調作業方式に関し、特にロボットまたは視
覚センサのいずれか一方の配置等にずれが生じたときの
ロボットの協調作業方式に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a robot collaborative work system that causes a robot system consisting of a plurality of robots and visual sensors to perform a collaborative work, and in particular, there is a deviation in the arrangement of either the robot or the visual sensor. On the cooperative work method of the robot at the time.

【0002】[0002]

【従来の技術】ロボットと、カメラなどの視覚センサと
を組み合わせてロボットに視覚機能を持たせ、それによ
ってワークの位置を認識し、組立作業、パレタイジング
作業等を行うロボットシステムが実用化されている。こ
のロボットシステムでは、ロボットと視覚センサとは、
各座標系間でキャリブレーションされて共通の座標系を
有しており、視覚センサが認識したワークの位置に対し
て、ロボットが正確な作業を行うことができるようにな
っている。ロボットシステムが複数台のロボット及び視
覚センサから構成される場合は、その各々の座標系間で
キャリブレーションされ、全体として共通の座標系を有
するように設定されている。これによって、ロボットシ
ステムにおける複数のロボットが、共通のワークに対し
て、協調作業を行うことができる。
2. Description of the Related Art A robot system has been put into practical use in which a robot and a visual sensor such as a camera are combined to give the robot a visual function, thereby recognizing the position of the work, and performing assembly work, palletizing work and the like. . In this robot system, the robot and the visual sensor are
The coordinate system is calibrated among the coordinate systems and has a common coordinate system, so that the robot can perform accurate work at the position of the work recognized by the visual sensor. When the robot system includes a plurality of robots and a visual sensor, the coordinate systems are calibrated so that they have a common coordinate system as a whole. This allows a plurality of robots in the robot system to perform a collaborative work on a common work.

【0003】[0003]

【発明が解決しようとする課題】しかし、従来のロボッ
トシステムでは、このような共通座標系が設定されてい
ても、そのうちの1台にでも位置ずれ等が生じると、シ
ステム全体にわたって再度キャリブレーションを行わな
ければならなかった。例えば、1台のロボットが故障し
た場合に新しいロボットに交換すると、そのロボットの
位置がずれるため、そのロボットと他のロボットとの間
で座標系を一致させるための設定調整 (キャリブレーシ
ョン) が必要となり、さらに、視覚センサとの間でも設
定調整が必要となり、結局、ロボットシステム全体にわ
たって、再度設定調整を行わなければならなかった。こ
のことは、視覚センサ側に位置ずれ等が生じた場合でも
全く同様である。
However, in the conventional robot system, even if such a common coordinate system is set, if even one of them is misaligned, the entire system is recalibrated. Had to do. For example, if one robot fails and is replaced with a new robot, the position of that robot will shift, so setting adjustment (calibration) is required to match the coordinate system between that robot and other robots. Furthermore, the setting adjustment is necessary between the visual sensor and the robot, and the setting adjustment must be performed again over the entire robot system. This is exactly the same even when a position shift or the like occurs on the visual sensor side.

【0004】このため、従来のロボットシステムでは、
一度ロボットや視覚センサの位置がずれてしまうと、そ
の設定調整作業に多大な時間を要し、その保全性が極め
て悪いという問題点があった。本発明はこのような点に
鑑みてなされたものであり、ロボットや視覚センサの位
置がずれても、ロボットシステムの設定調整を簡単にか
つ短時間で行うことができるロボットの協調作業方式を
提供することを目的とする。
Therefore, in the conventional robot system,
Once the position of the robot or the visual sensor is displaced, it takes a lot of time for the setting and adjusting work, and the maintainability thereof is extremely poor. The present invention has been made in view of the above circumstances, and provides a robot collaborative work method capable of easily performing setting adjustment of a robot system in a short time even if a position of a robot or a visual sensor is displaced. The purpose is to do.

【0005】[0005]

【課題を解決するための手段】本発明では上記課題を解
決するために、複数のロボット及び視覚センサから成る
ロボットシステムに協調作業を行わせるロボットの協調
作業方式において、一組のロボット及び視覚センサのう
ち、前記ロボットの配置等にずれが生じたときに、前記
ずれが生じる前及び生じた後の前記視覚センサからの各
撮像データを用いてずれ量を求めるずれ量演算手段と、
前記ずれ量及び前記ずれが生じた後の前記視覚センサか
らの撮像データに基づいて、補正マトリックスを求める
補正マトリックス演算手段と、前記補正マトリックスに
よって、前記一組のロボット及び視覚センサの各座標系
のキャリブレーション用変換マトリックスを補正する変
換マトリックス補正手段と、前記変換マトリックス補正
手段によって求められた補正変換マトリックスを用い
て、前記視覚センサが検出した作業対象物上の検出点デ
ータを変換する検出点補正変換手段と、前記検出点補正
変換手段から送られてきた前記検出点の補正変換データ
に基づいて、前記ロボットに補正動作を行わせるロボッ
ト制御手段と、前記ロボット以外の他のロボット及び前
記視覚センサの各座標系のキャリブレーション用変換マ
トリックスを用いて、前記検出点データを変換する検出
点変換手段と、前記検出点変換手段から送られてきた前
記検出点の変換データに基づいて、前記他のロボットの
動作を制御し、前記ロボットとの協調作業を行わせる他
のロボット制御手段と、を有することを特徴とするロボ
ットの協調作業方式が、提供される。
According to the present invention, in order to solve the above-mentioned problems, in a robot collaborative work system that causes a robot system consisting of a plurality of robots and visual sensors to perform collaborative work, a set of robot and visual sensor is used. Of these, when a displacement or the like occurs in the placement of the robot, a displacement amount calculating unit that obtains the displacement amount using each imaged data from the visual sensor before and after the displacement,
A correction matrix calculation unit that obtains a correction matrix based on the shift amount and the imaged data from the visual sensor after the shift has occurred, and the correction matrix of each coordinate system of the robot and the visual sensor. A conversion matrix correction means for correcting the calibration conversion matrix and a detection point correction for converting the detection point data on the work object detected by the visual sensor using the correction conversion matrix obtained by the conversion matrix correction means. A conversion unit, a robot control unit that causes the robot to perform a correction operation based on the detection point correction conversion data sent from the detection point correction conversion unit, a robot other than the robot, and the visual sensor. Using the conversion matrix for calibration of each coordinate system of Based on the detection point conversion means for converting the detection point data and the conversion data of the detection points sent from the detection point conversion means, the operation of the other robot is controlled, and the cooperative work with the robot is performed. There is provided another robot control means for performing the robot coordinated work method.

【0006】[0006]

【作用】一組のロボット及び視覚センサのうち、ロボッ
ト側の配置等にずれが生じたときに、視覚センサを用い
てずれ量を求める。ずれ量は、ずれが生じる前のロボッ
トハンドに取り付けられたキャリブレーション用治具の
撮像データ、及びずれが生じた後のロボットハンドに取
り付けられたキャリブレーション用治具の撮像データを
比較して求められる。
When the position of the robot and the like among the set of robot and the visual sensor is deviated, the amount of deviation is obtained by using the visual sensor. The deviation amount is obtained by comparing the imaging data of the calibration jig attached to the robot hand before the deviation occurs and the imaging data of the calibration jig attached to the robot hand after the deviation occurs. To be

【0007】補正マトリックス演算手段は、このずれ量
及びずれが生じた後の視覚センサからの撮像データに基
づいて、補正マトリックスを求める。変換マトリックス
補正手段は、その補正マトリックスによって、一組のロ
ボット及び視覚センサの各座標系のキャリブレーション
用変換マトリックスを補正し、補正変換マトリックスを
求める。検出点補正変換手段は、この補正変換マトリッ
クスを用いて、視覚センサが検出した作業対象物上の検
出点データを変換し、その検出点の補正変換データをロ
ボット側に送出する。ロボット側のロボット制御手段
は、送られてきた検出点の補正変換データに基づいて、
ロボットに補正動作を行わせる。
The correction matrix calculating means obtains the correction matrix based on the shift amount and the image data from the visual sensor after the shift has occurred. The conversion matrix correction means corrects the calibration conversion matrix of each coordinate system of the set of robot and the visual sensor by the correction matrix to obtain the corrected conversion matrix. The detection point correction conversion means uses this correction conversion matrix to convert the detection point data on the work object detected by the visual sensor, and sends the correction conversion data of the detection point to the robot side. The robot control means on the robot side, based on the correction conversion data of the sent detection points,
Make the robot perform corrective action.

【0008】一方、検出点変換手段は、上記ロボット以
外の他のロボット及び上記視覚センサの各座標系のキャ
リブレーション用変換マトリックスを用いて、検出点デ
ータを変換し、その検出点の変換データを他のロボット
側に送出する。他のロボット制御手段は、送られてきた
検出点の変換データに基づいて、他のロボットの動作を
制御し、上記ロボットとの協調作業を行わせる。
On the other hand, the detection point converting means converts the detection point data by using the calibration conversion matrix of each coordinate system of the robot other than the robot and the visual sensor, and converts the conversion data of the detection point. Send to other robot side. The other robot control means controls the operation of the other robot based on the sent conversion data of the detection points, and causes the robot to cooperate with the robot.

【0009】すなわち、ロボットの配置等にずれが生じ
た場合、ロボットは、視覚センサが検出したずれ量に応
じて動作補正を行う。一方、それ以外の他のロボット
は、その視覚センサとの間では、相互の位置関係におい
ては、全く変化を受けておらず、他のロボットと視覚セ
ンサとの間で予め設定されているキャリブレーション用
変換マトリックスもそのままの形で記憶されている。こ
のため、他のロボットは、そのキャリブレーション用変
換マトリックスを用いて従来通りの手順で動作すること
ができる。したがって、ロボット側にずれが生じた場合
でも、設定調整はそのずれが生じたロボットと視覚セン
サとの間でのみ行えばよく、他のロボットとの間では不
要となる。
That is, when a displacement or the like occurs in the arrangement of the robot, the robot corrects the operation according to the displacement detected by the visual sensor. On the other hand, the other robots do not undergo any change in their mutual positional relationship with the visual sensor, and the calibration that is preset between the other robot and the visual sensor. The conversion matrix for use is also stored as it is. Therefore, the other robot can operate in the conventional procedure using the calibration conversion matrix. Therefore, even if a deviation occurs on the robot side, the setting adjustment only needs to be performed between the robot and the visual sensor where the deviation has occurred, and is unnecessary for another robot.

【0010】また、一組のロボット及び視覚センサのう
ち、視覚センサ側の配置等にずれが生じたときは、ロボ
ット側がずれた場合と同様にして、視覚センサのずれ量
が求められる。すなわち、ずれが生じる前の視覚センサ
が所定位置のキャリブレーション用治具を撮像して得ら
れた撮像データ、及びずれが生じた後の視覚センサが所
定位置のキャリブレーション用治具を撮像して得られた
撮像データを比較して求められる。上述したロボット側
にずれが生じた場合は、そのロボットにそのずれ量に応
じた補正動作を行わせるようにしたが、視覚センサ側に
ずれが生じた場合は、そのずれはすべてのロボットに対
して生じるので、そのずれ量に応じた補正動作はすべて
のロボットに対して行われる。しかし、その場合でも、
ずれ量を求めるための設定調整は、その一組のロボット
及び視覚センサとの間でのみ行えばよく、他のロボット
は、その求められたずれ量を用いて自動的に動作が補正
されて、互いに協調作業を行うことができる。すなわ
ち、視覚センサ側にずれが生じた場合でも、設定調整は
そのずれが生じたロボットと視覚センサとの間でのみ行
えばよく、他のロボットとの間では不要となる。
Further, when there is a displacement in the arrangement of the robot and the visual sensor on the side of the visual sensor, the amount of displacement of the visual sensor is obtained in the same manner as when the side of the robot is displaced. That is, the image data obtained by capturing the calibration jig at the predetermined position by the visual sensor before the displacement occurs, and the visual sensor after the displacement image the calibration jig at the predetermined position. It is obtained by comparing the obtained imaging data. When the above-mentioned deviation occurs on the robot side, the robot is made to perform the correction operation according to the deviation amount, but when the deviation occurs on the visual sensor side, the deviation is applied to all robots. Therefore, the correction operation according to the deviation amount is performed for all the robots. But even then,
The setting adjustment for obtaining the deviation amount may be performed only between the pair of robots and the visual sensor, and the other robots have their movements automatically corrected using the obtained deviation amount, Can work together with each other. That is, even if a deviation occurs on the visual sensor side, setting adjustment may be performed only between the robot and the visual sensor where the deviation has occurred, and it is not necessary between other robots.

【0011】[0011]

【実施例】以下、本発明の一実施例を図面に基づいて説
明する。図2は本発明が適用されるロボットシステムの
全体構成を示す図である。ロボットシステムは、ロボッ
ト1,2及び視覚センサ3から構成される。このロボッ
ト1,2及び視覚センサ3は、その各座標系において互
いにキャリブレーションされており、その共通座標系に
基づいてライン上のワーク (例えば車体) 4に対して互
いに協調作業を行う。視覚センサ3はワーク4の検出点
5の検出点データを視覚センサ制御装置30に送る。視
覚センサ制御装置30は、その検出点データから、ワー
ク4の正確な位置を認識し、その位置データをロボット
制御装置10及び20に送る。ロボット制御装置10及
び20は、その位置データに応じてロボット1及び2の
位置及び姿勢を補正し、ワーク4の作業点に対して正確
な動作を行う。なお、視覚センサ3は、カメラ3A及び
レーザセンサ(測長センサ)3Bから構成され、カメラ
3Aによって検出点5の2次元位置が、レーザセンサ3
Bによって検出点5の高さ方向の位置がそれぞれ検出さ
れるため、この両者によって検出点5の3次元位置を認
識することができる。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment of the present invention will be described below with reference to the drawings. FIG. 2 is a diagram showing the overall configuration of a robot system to which the present invention is applied. The robot system includes robots 1 and 2 and a visual sensor 3. The robots 1 and 2 and the visual sensor 3 are calibrated with each other in their respective coordinate systems, and cooperate with each other on a work (for example, a vehicle body) 4 on a line based on the common coordinate system. The visual sensor 3 sends the detection point data of the detection point 5 of the work 4 to the visual sensor control device 30. The visual sensor control device 30 recognizes the accurate position of the work 4 from the detection point data, and sends the position data to the robot control devices 10 and 20. The robot control devices 10 and 20 correct the positions and orientations of the robots 1 and 2 according to the position data, and perform accurate motions with respect to the work point of the work 4. The visual sensor 3 is composed of a camera 3A and a laser sensor (length measuring sensor) 3B, and the two-dimensional position of the detection point 5 is determined by the camera 3A.
Since the position of the detection point 5 in the height direction is detected by B, respectively, the three-dimensional position of the detection point 5 can be recognized by both of them.

【0012】上述したロボット1,2と視覚センサ3の
各座標系間のキャリブレーションは、各ロボットのロボ
ットハンド6,7に取り付けられたキャリブレーション
用プレート8及び9を視覚センサ3が撮像することによ
って行われる。すなわち、視覚センサ制御装置30は、
そのキャリブレーション用プレート8,9の撮像データ
を用いて、各座標系のキャリブレーションを行う。その
キャリブレーションの結果、ロボット1と視覚センサ3
との間のキャリブレーション用変換マトリックスCM
1、及びロボット2と視覚センサ3との間のキャリブレ
ーション用変換マトリックスCM2が、視覚センサ制御
装置30のメモリ(図示せず)に格納される。
The calibration between the coordinate systems of the robots 1 and 2 and the visual sensor 3 is performed by the visual sensor 3 capturing the calibration plates 8 and 9 attached to the robot hands 6 and 7 of each robot. Done by That is, the visual sensor control device 30 is
Calibration of each coordinate system is performed using the imaged data of the calibration plates 8 and 9. As a result of the calibration, the robot 1 and the visual sensor 3
Conversion matrix CM for calibration between
1 and the calibration conversion matrix CM2 between the robot 2 and the visual sensor 3 are stored in the memory (not shown) of the visual sensor control device 30.

【0013】ここで、ロボット1が故障したために別の
ロボット1Aに交換した結果、ロボット1の位置がXか
らXAに変化してしまったとする。このような場合は、
ロボット1Aと他のロボット及び視覚センサとの間で
は、座標系が一致しなくなるため、協調作業を行うこと
ができなくなる。以下、このロボットシステムにおい
て、協調作業を復帰させるための手順を説明する。
It is assumed that the position of the robot 1 is changed from X to XA as a result of replacing the robot 1 with another robot 1A due to a failure of the robot 1. In this case,
Since the coordinate systems of the robot 1A and other robots and visual sensors do not match, it becomes impossible to perform cooperative work. Hereinafter, a procedure for returning the cooperative work in this robot system will be described.

【0014】図1は本発明のロボットの協調作業方式の
ブロック図である。視覚センサ制御装置30のずれ量演
算手段31は、視覚センサ3から送られてきた撮像デー
タSO及びSNを用いて、ロボット1のずれ量を求め
る。なお、撮像データSNは、ロボット1Aのハンド6
Aに取り付けられたキャリブレーション用プレート8A
(図2) を視覚センサ3が撮像したときの撮像データで
ある。その撮像の際のロボット1Aには、前回のキャリ
ブレーション時のロボット1と同じ姿勢をとらせること
とする。したがって、撮像データSOと撮像データSN
とから、ロボット1のずれ量ΔCDが求まる。
FIG. 1 is a block diagram of a robot cooperative work system according to the present invention. The shift amount calculation means 31 of the visual sensor control device 30 obtains the shift amount of the robot 1 using the image pickup data SO and SN sent from the visual sensor 3. The imaging data SN corresponds to the hand 6 of the robot 1A.
Calibration plate 8A attached to A
(FIG. 2) is imaging data when the visual sensor 3 images. It is assumed that the robot 1A at the time of imaging has the same posture as the robot 1 at the time of the previous calibration. Therefore, the imaging data SO and the imaging data SN
From this, the deviation amount ΔCD of the robot 1 is obtained.

【0015】補正マトリックス演算手段32は、このず
れ量ΔCD及び上記撮像データSNに基づいて、補正マ
トリックスCMIを求める。この補正マトリックスCM
Iは、ロボット1と視覚センサ3との間のキャリブレー
ション用変換マトリックスCM1を、ずれ量ΔCDに応
じて補正するためのマトリックスである。変換マトリッ
クス補正手段33は、その補正マトリックスCMIによ
って、キャリブレーション用変換マトリックスCM1を
補正し、補正変換マトリックスCMC (=[CM1]×
[CMI]) を求める。検出点補正変換手段34は、こ
の補正変換マトリックスCMCを用いて、視覚センサ3
が検出したワーク4上の検出点5の検出点データWDを
変換し、補正変換データθ1としてロボット制御装置1
0に送出する。ロボット制御装置10は、送られてきた
補正変換データθ1に基づいて、ロボット1Aに補正動
作を行わせる。
The correction matrix calculating means 32 obtains the correction matrix CMI based on the deviation amount ΔCD and the image pickup data SN. This correction matrix CM
I is a matrix for correcting the calibration conversion matrix CM1 between the robot 1 and the visual sensor 3 according to the deviation amount ΔCD. The conversion matrix correction unit 33 corrects the calibration conversion matrix CM1 by the correction matrix CMI, and the corrected conversion matrix CMC (= [CM1] ×
[CMI]). The detection point correction conversion means 34 uses the correction conversion matrix CMC to detect the visual sensor 3
The detection point data WD of the detection point 5 on the workpiece 4 detected by the robot controller 1 is converted into the corrected conversion data θ1.
Send to 0. The robot controller 10 causes the robot 1A to perform a correction operation based on the correction conversion data θ1 sent.

【0016】一方、検出点変換手段35は、ロボット2
及び視覚センサ3の各座標系のキャリブレーション用変
換マトリックスCM2を用いて、検出点データWDを変
換し、その変換データθ2をロボット制御装置20に送
出する。ロボット制御装置20は、送られてきた変換デ
ータθ2に基づいて、ロボット2の動作を制御し、ロボ
ット1Aとの協調作業を行わせる。
On the other hand, the detection point converting means 35 is the robot 2
Also, the detection point data WD is converted using the calibration conversion matrix CM2 of each coordinate system of the visual sensor 3, and the conversion data θ2 is sent to the robot controller 20. The robot control device 20 controls the operation of the robot 2 based on the transmitted conversion data θ2, and causes the robot 1A to perform a collaborative work.

【0017】すなわち、ロボット1の位置にずれが生じ
た場合、ロボット1Aは、ロボット2からは独立して、
視覚センサ3が検出したずれ量ΔCDに応じた動作補正
を行うことができる。一方、ロボット2は、その視覚セ
ンサ3との間では、相互の位置関係においては、全く変
化が生じておらず、ロボット2と視覚センサ3との間で
予め設定されているキャリブレーション用変換マトリッ
クスCM2もそのままの形で格納されている。このた
め、ロボット2は、そのキャリブレーション用変換マト
リックスCM2を用いて従来通りの手順で動作すること
ができる。したがって、ロボット1側にずれが生じた場
合でも、設定調整はそのずれが生じたロボット1Aと視
覚センサ3との間でのみ行えばよく、ロボット2との間
では不要となる。
That is, when the position of the robot 1 is displaced, the robot 1A is independent of the robot 2 and
It is possible to perform operation correction according to the shift amount ΔCD detected by the visual sensor 3. On the other hand, the robot 2 has no change in its mutual positional relationship with the visual sensor 3, and the calibration conversion matrix preset between the robot 2 and the visual sensor 3 is set. The CM2 is also stored as it is. Therefore, the robot 2 can operate in the conventional procedure using the calibration conversion matrix CM2. Therefore, even if a deviation occurs on the robot 1 side, the setting adjustment only needs to be performed between the robot 1A and the visual sensor 3 where the deviation has occurred, and is not necessary between the robot 2 and the robot.

【0018】図3は本発明の前提となるキャリブレーシ
ョンを実行するためのフローチャートを示す図である。
図において、Sに続く数値はステップ番号を示す。 〔S1〕視覚センサ3が各ロボットのハンドに取り付け
られたキャリブレーション用プレートを撮像する。 〔S2〕視覚センサ3からの撮像データを用いて、視覚
センサ3及びロボット1,2の各座標系間のキャリブレ
ーション用変換マトリックスCM1,CM2を求める。
FIG. 3 is a diagram showing a flow chart for executing the calibration which is the premise of the present invention.
In the figure, the numerical value following S indicates a step number. [S1] The visual sensor 3 images the calibration plate attached to the hand of each robot. [S2] Using the image data from the visual sensor 3, calibration conversion matrices CM1 and CM2 between the coordinate systems of the visual sensor 3 and the robots 1 and 2 are obtained.

【0019】このキャリブレーション用変換マトリック
スCM1,CM2は、視覚センサ制御装置30のメモリ
に格納される。図4は本発明のロボットの協調作業方式
を実行するためのフローチャートを示す図であり、ロボ
ット1にずれが生じた場合を示す。 〔S3〕まず、視覚センサ3からの撮像データSNを記
憶する。 〔S4〕撮像データSOと今回の撮像データSNとを比
較してずれ量ΔCDを求める。 〔S5〕撮像データSN及びずれ量ΔCDに基づいて、
補正マトリックスCMIを求める。 〔S6〕キャリブレーション用変換マトリックスCM1
を補正マトリックスCMIによって変換し、補正変換マ
トリックスCMCを求める。 〔S7〕ワーク検出点データWDを、補正変換マトリッ
クスCMCを用いて変換し、補正変換データθ1を求
め、ロボット制御装置10に送出する。 〔S8〕ワーク検出点データWDをキャリブレーション
用変換マトリックスCM2を用いて変換し、変換データ
θ2を求め、ロボット制御装置20に送出する。
The calibration conversion matrices CM1 and CM2 are stored in the memory of the visual sensor control device 30. FIG. 4 is a diagram showing a flowchart for executing the robot cooperative work system of the present invention, and shows a case where the robot 1 is displaced. [S3] First, the image pickup data SN from the visual sensor 3 is stored. [S4] The image pickup data SO and the image pickup data SN of this time are compared to obtain the deviation amount ΔCD. [S5] Based on the imaging data SN and the shift amount ΔCD,
Obtain the correction matrix CMI. [S6] Calibration conversion matrix CM1
Is converted by the correction matrix CMI to obtain a correction conversion matrix CMC. [S7] The work detection point data WD is converted using the correction conversion matrix CMC to obtain the correction conversion data θ1 and sent to the robot controller 10. [S8] The work detection point data WD is converted using the calibration conversion matrix CM2 to obtain converted data θ2, which is sent to the robot controller 20.

【0020】これにより、ロボット1Aは、ずれ量ΔC
Dに応じて動作補正を行い、ロボット2は、そのままの
形で記憶されているキャリブレーション用変換マトリッ
クスCM2を用いて従来通りの手順で動作することがで
きる。図5は本発明の第2の実施例を示すブロック図で
ある。第1の実施例と同様にロボット1にずれが生じた
場合を示す。
As a result, the robot 1A has a deviation amount ΔC.
The motion correction is performed according to D, and the robot 2 can operate in the conventional procedure using the calibration conversion matrix CM2 stored as it is. FIG. 5 is a block diagram showing a second embodiment of the present invention. Similar to the first embodiment, a case where the robot 1 is displaced will be described.

【0021】視覚センサ制御装置30のずれ量演算手段
41は、視覚センサ3から送られてきた撮像データSO
及びSNを用いて、第1の実施例と同様にして、ロボッ
ト1のずれ量ΔCDを求める。補正データ演算手段42
は、このずれ量ΔCDに応じて補正データθMを求め
る。この補正データθMは、ロボット1の位置及び姿勢
を補正して、ロボット1にずれ量ΔCDが0であるかの
ように動作させるものである。検出点変換手段44は、
ロボット1及び視覚センサ3間のキャリブレーション用
変換マトリックスCM1を用いて、検出点データWDを
変換し、変換データθDを求める。変換検出点補正手段
43は、変換データθ2を補正データθMを用いて補正
し、補正変換データθ1A (=θD+θM) を求め、ロ
ボット制御装置10に送出する。ロボット制御装置10
は、送られてきた補正変換データθ1Aに基づいて、ロ
ボット1Aに補正動作を行わせる。
The shift amount calculating means 41 of the visual sensor control device 30 is the image pickup data SO sent from the visual sensor 3.
And SN are used to find the deviation amount ΔCD of the robot 1 in the same manner as in the first embodiment. Correction data calculation means 42
Calculates the correction data θM according to this deviation amount ΔCD. This correction data θM corrects the position and orientation of the robot 1 and causes the robot 1 to operate as if the displacement amount ΔCD is zero. The detection point conversion means 44 is
Using the calibration conversion matrix CM1 between the robot 1 and the visual sensor 3, the detection point data WD is converted to obtain the conversion data θD. The conversion detection point correction means 43 corrects the conversion data θ2 using the correction data θM to obtain corrected conversion data θ1A (= θD + θM) and sends it to the robot controller 10. Robot controller 10
Causes the robot 1A to perform a correction operation based on the correction conversion data θ1A sent.

【0022】一方、検出点変換手段45は、ロボット2
及び視覚センサ3間のキャリブレーション用変換マトリ
ックスCM2を用いて、検出点データWDを変換して変
換データθ2Aを求め、その変換データθ2Aをロボッ
ト制御装置20に送出する。ロボット制御装置20は、
送られてきた変換データθ2Aに基づいて、ロボット2
の動作を制御し、ロボット1Aとの協調作業を行わせ
る。
On the other hand, the detection point converting means 45 is the robot 2
And the conversion matrix CM2 for calibration between the visual sensors 3 is used to convert the detection point data WD to obtain conversion data θ2A, and the conversion data θ2A is sent to the robot controller 20. The robot controller 20 is
Based on the conversion data θ2A sent, the robot 2
To control the operation of the robot 1 and perform a cooperative work with the robot 1A.

【0023】図6は本発明の第2の実施例を実行するた
めのフローチャートを示す図である。 〔S11〕視覚センサ3からの撮像データSNを記憶す
る。 〔S12〕撮像データSOと今回の撮像データSNとを
比較してずれ量ΔCDを求める。 〔S13〕ずれ量ΔCDに応じた補正データθMを求め
る。 〔S14〕ワーク検出点データWDをキャリブレーショ
ン用変換マトリックスCM1を用いて変換し、変換デー
タθDを求める。 〔S15〕変換データθDに補正データθMを加算し
て、補正変換データθ1Aを求め、ロボット制御装置1
0に送出する。 〔S16〕ワーク検出点データWDをキャリブレーショ
ン用変換マトリックスCM2を用いて変換して変換デー
タθ2を求め、その変換データθ2を求め、ロボット制
御装置20に送出する。
FIG. 6 is a diagram showing a flow chart for executing the second embodiment of the present invention. [S11] The image pickup data SN from the visual sensor 3 is stored. [S12] The deviation amount ΔCD is obtained by comparing the imaging data SO with the imaging data SN of this time. [S13] The correction data θM corresponding to the deviation amount ΔCD is obtained. [S14] The work detection point data WD is converted using the calibration conversion matrix CM1 to obtain conversion data θD. [S15] The correction data θM is added to the conversion data θD to obtain the correction conversion data θ1A.
Send to 0. [S16] The work detection point data WD is converted using the calibration conversion matrix CM2 to obtain conversion data θ2, and the conversion data θ2 is obtained and sent to the robot controller 20.

【0024】このように、ずれが生じたロボット1Aの
動作を、そのずれ量ΔCDに応じて補正データθMを用
いて補正するようにしたので、ロボット1Aは、第1の
実施例と同様に、ロボット2からは独立して、ずれ量Δ
CDに応じた動作補正を行うことができる。一方、ロボ
ット2は、予め設定されているキャリブレーション用変
換マトリックスCMを用いて従来通りの手順で動作する
ことができる。
As described above, since the operation of the robot 1A having the deviation is corrected by using the correction data θM according to the deviation amount ΔCD, the robot 1A can be corrected in the same manner as in the first embodiment. Independent of the robot 2, the amount of deviation Δ
It is possible to perform operation correction according to the CD. On the other hand, the robot 2 can operate in a conventional procedure by using the calibration conversion matrix CM set in advance.

【0025】図7は本発明の第3の実施例を示すブロッ
ク図である。この実施例では、視覚センサ3にずれが生
じた場合を示す。この場合の視覚センサ3のずれ量は、
ロボット側がずれた場合と同様にして求められる。すな
わち、各ロボットに、前回のキャリブレーション時と同
じ位置及び姿勢をとらせ、その各ロボットに取り付けら
れたキャリブレーション用プレートを撮像し、その前回
と今回の撮像データから求めることができる。
FIG. 7 is a block diagram showing a third embodiment of the present invention. In this embodiment, a case where the visual sensor 3 is displaced is shown. In this case, the shift amount of the visual sensor 3 is
It is obtained in the same manner as when the robot side is displaced. That is, it is possible to make each robot take the same position and posture as in the previous calibration, image the calibration plate attached to each robot, and obtain it from the previous and present imaging data.

【0026】この実施例は、第1の実施例に対して、さ
らにロボット2にも補正変換データθ2Bを送出するよ
うにしたものであり、第1の実施例との相違点は、変換
マトリックス補正手段36及び検出点補正変換手段37
を設けた点である。変換マトリックス補正手段36は、
補正マトリックス演算手段32において求められた補正
マトリックスCMIを用いて、キャリブレーション用変
換マトリックスCM2を補正し、補正変換マトリックス
CMD (=[CM2]×[CMI]) を求める。検出点
補正変換手段37は、この補正変換マトリックスCMD
を用いて、検出点データWDを変換し、補正変換データ
θ2Bとしてロボット制御装置20に送出する。
This embodiment is different from the first embodiment in that correction conversion data θ2B is also sent to the robot 2. The difference from the first embodiment is the conversion matrix correction. Means 36 and detection point correction conversion means 37
That is the point. The conversion matrix correction means 36 is
The correction matrix CMI obtained by the correction matrix calculation means 32 is used to correct the calibration conversion matrix CM2 to obtain a correction conversion matrix CMD (= [CM2] × [CMI]). The detection point correction conversion means 37 uses the correction conversion matrix CMD.
Is used to convert the detection point data WD and send it to the robot controller 20 as corrected conversion data θ2B.

【0027】このように、視覚センサ側にずれが生じた
場合は、そのずれはすべてのロボットに対して生じるの
で、そのずれ量ΔCDに応じた補正動作はすべてのロボ
ットに対して行われる。しかし、その場合でも、ずれ量
ΔCDを求めるための設定調整は、一組のロボット1及
び視覚センサ3との間でのみ行えばよく、ロボット2
は、その求められたずれ量ΔCDを用いて自動的に動作
が補正されて、互いに協調作業を行うことができる。す
なわち、視覚センサ側にずれが生じた場合でも、設定調
整は一組のロボットと視覚センサとの間でのみ行えばよ
く、他のロボットとの間では不要となる。
As described above, when a deviation occurs on the visual sensor side, the deviation occurs for all robots, and therefore the correction operation according to the deviation amount ΔCD is performed for all robots. However, even in that case, the setting adjustment for obtaining the deviation amount ΔCD may be performed only between the pair of the robot 1 and the visual sensor 3.
Are automatically corrected in operation using the calculated deviation amount ΔCD, and they can cooperate with each other. That is, even if a shift occurs on the visual sensor side, the setting adjustment only needs to be performed between the pair of robots and the visual sensor, and is unnecessary between other robots.

【0028】図8は本発明の第4の実施例を示すブロッ
ク図である。第3の実施例と同様に、視覚センサ3にず
れが生じた場合を示す。この実施例は、第2の実施例に
対して、さらにロボット2にも補正変換データθ2Cを
送出するようにしたものであり、第2の実施例との相違
点は、変換検出点補正手段46を設けた点である。変換
検出点補正手段46は、検出点変換手段45によって変
換されたワーク検出点データWDの変換データθEを補
正データθMを用いて補正し、補正変換データθ2C
(=θE+θM) を求め、ロボット制御装置20に送出
する。
FIG. 8 is a block diagram showing a fourth embodiment of the present invention. Similar to the third embodiment, a case where the visual sensor 3 is displaced will be described. In this embodiment, correction conversion data θ2C is further sent to the robot 2 as compared with the second embodiment. The difference from the second embodiment is the conversion detection point correction means 46. That is the point. The conversion detection point correction means 46 corrects the conversion data θE of the work detection point data WD converted by the detection point conversion means 45 using the correction data θM, and the corrected conversion data θ2C.
(= ΘE + θM) is calculated and sent to the robot controller 20.

【0029】このように、視覚センサ側にずれが生じた
場合でも、第3の実施例と同様に、ずれ量ΔCDに応じ
た補正動作はすべてのロボットに対して行われる。ずれ
を補正するための設定調整は、一組のロボット1及び視
覚センサ3との間でのみ行えばよく、ロボット2は、そ
の求められたずれ量ΔCDを用いて自動的に動作が補正
される。
As described above, even if a deviation occurs on the visual sensor side, as in the third embodiment, the correction operation according to the deviation amount ΔCD is performed for all robots. The setting adjustment for correcting the deviation may be performed only between the pair of the robot 1 and the visual sensor 3, and the operation of the robot 2 is automatically corrected by using the calculated deviation amount ΔCD. .

【0030】上記の説明では、ロボットシステムを1台
の視覚センサと2台のロボットとの組み合わせとした
が、視覚センサ及びロボットをそれぞれ複数台設けるよ
うに構成することもできる。
In the above description, the robot system is a combination of one visual sensor and two robots, but a plurality of visual sensors and robots may be provided.

【0031】[0031]

【発明の効果】以上説明したように本発明では、ロボッ
トまたは視覚センサにずれが生じた場合、その一組のロ
ボットと視覚センサとの間で求められたずれ量に応じ
て、各ロボットの動作を制御するように構成した。すな
わち、設定調整は、そのずれが生じた一組のロボットと
視覚センサとの間だけで行えばよく、他のロボットとの
間では不要となる。したがって、ロボットや視覚センサ
の位置がずれても、ロボットシステムの設定調整を簡単
にかつ短時間で行うことができる。その結果、ロボット
システムの保守性が大幅に改善される。
As described above, according to the present invention, when a deviation occurs in the robot or the visual sensor, the operation of each robot is performed according to the deviation amount obtained between the pair of robots and the visual sensor. Configured to control. That is, the setting adjustment only needs to be performed between the pair of robots in which the deviation has occurred and the visual sensor, and is not necessary between other robots. Therefore, even if the positions of the robot and the visual sensor are displaced, the setting adjustment of the robot system can be easily performed in a short time. As a result, the maintainability of the robot system is greatly improved.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明のロボットの協調作業方式のブロック図
である。
FIG. 1 is a block diagram of a robot cooperative work system according to the present invention.

【図2】本発明が適用されるロボットシステムの全体構
成を示す図である。
FIG. 2 is a diagram showing an overall configuration of a robot system to which the present invention is applied.

【図3】本発明の前提となるキャリブレーションを実行
するためのフローチャートを示す図である。
FIG. 3 is a diagram showing a flowchart for executing calibration, which is a premise of the present invention.

【図4】本発明のロボットの協調作業方式を実行するた
めのフローチャートを示す図である。
FIG. 4 is a diagram showing a flow chart for executing a robot cooperative work system according to the present invention.

【図5】本発明の第2の実施例を示すブロック図であ
る。
FIG. 5 is a block diagram showing a second embodiment of the present invention.

【図6】本発明の第2の実施例を実行するためのフロー
チャートを示す図である。
FIG. 6 shows a flowchart for carrying out the second embodiment of the present invention.

【図7】本発明の第3の実施例を示すブロック図であ
る。
FIG. 7 is a block diagram showing a third embodiment of the present invention.

【図8】本発明の第4の実施例を示すブロック図であ
る。
FIG. 8 is a block diagram showing a fourth embodiment of the present invention.

【符号の説明】[Explanation of symbols]

1,1A,2 ロボット 3 視覚センサ 4 ワーク 5 検出点 8,8A,9 キャリブレーション用プレート 10,20 ロボット制御装置 30 視覚センサ制御装置 31,41 ずれ量演算手段 32 補正マトリックス演算手段 33,36 変換マトリックス補正手段 34,37 検出点補正変換手段 35,44,45 検出点変換手段 42 補正データ演算手段 43,46 変換検出点補正手段 1,1A, 2 robot 3 Visual sensor 4 work 5 detection points 8,8A, 9 Calibration plate 10, 20 Robot controller 30 Visual sensor control device 31, 41 Deviation amount calculation means 32 correction matrix calculation means 33,36 conversion matrix correction means 34, 37 Detection point correction conversion means 35, 44, 45 detection point conversion means 42 Correction data calculation means 43,46 conversion detection point correction means

Claims (9)

【特許請求の範囲】[Claims] 【請求項1】 複数のロボット及び視覚センサから成る
ロボットシステムに協調作業を行わせるロボットの協調
作業方式において、 一組のロボット及び視覚センサのうち、前記ロボットの
配置等にずれが生じたときに、前記ずれが生じる前及び
生じた後の前記視覚センサからの各撮像データを用いて
ずれ量を求めるずれ量演算手段と、 前記ずれ量及び前記ずれが生じた後の前記視覚センサか
らの撮像データに基づいて、補正マトリックスを求める
補正マトリックス演算手段と、 前記補正マトリックスによって、前記一組のロボット及
び視覚センサの各座標系のキャリブレーション用変換マ
トリックスを補正する変換マトリックス補正手段と、 前記変換マトリックス補正手段によって求められた補正
変換マトリックスを用いて、前記視覚センサが検出した
作業対象物上の検出点データを変換する検出点補正変換
手段と、 前記検出点補正変換手段から送られてきた前記検出点の
補正変換データに基づいて、前記ロボットに補正動作を
行わせるロボット制御手段と、 前記ロボット以外の他のロボット及び前記視覚センサの
各座標系のキャリブレーション用変換マトリックスを用
いて、前記検出点データを変換する検出点変換手段と、 前記検出点変換手段から送られてきた前記検出点の変換
データに基づいて、前記他のロボットの動作を制御し、
前記ロボットとの協調作業を行わせる他のロボット制御
手段と、 を有することを特徴とするロボットの協調作業方式。
1. A robot collaborative work method for causing a robot system including a plurality of robots and visual sensors to perform collaborative work, when a displacement or the like occurs in the robot or the like among a set of robots and visual sensors. A deviation amount calculation means for obtaining a deviation amount by using each imaging data from the visual sensor before and after the deviation, and the deviation amount and the imaging data from the visual sensor after the deviation Correction matrix calculation means for obtaining a correction matrix based on the above, conversion matrix correction means for correcting the calibration conversion matrix of each coordinate system of the set of robot and visual sensor by the correction matrix, and the conversion matrix correction means. Using the correction transformation matrix obtained by the means, A detection point correction conversion means for converting the detection point data on the work object detected by the detection point correction processing, and a correction operation for the robot based on the correction conversion data of the detection point sent from the detection point correction conversion means. From the detection point conversion means, a robot control means for causing the detection point conversion means for converting the detection point data by using a conversion matrix for calibration of coordinate systems of robots other than the robot and the visual sensor. Based on the sent conversion data of the detection point, control the operation of the other robot,
A robot collaborative work method, comprising: another robot control means for performing a collaborative work with the robot.
【請求項2】 前記視覚センサからの各撮像データは、
前記ずれが生じる前の前記ロボットのハンドに取り付け
られたキャリブレーション用治具を前記視覚センサが撮
像して得られた撮像データ、及び前記ずれが生じた後の
前記ロボットのハンドに取り付けられた前記キャリブレ
ーション用治具を前記視覚センサが撮像して得られた撮
像データであることを特徴とする請求項1記載のロボッ
トの協調作業方式。
2. Each image pickup data from the visual sensor is
Imaging data obtained by the visual sensor imaging the calibration jig attached to the robot hand before the deviation occurs, and the calibration data attached to the robot hand after the deviation occurs 2. The robot collaborative work system according to claim 1, wherein the calibration jig is image pickup data obtained by the visual sensor taking an image of the jig.
【請求項3】 前記視覚センサは、カメラ及び測長セン
サから成ることを特徴とする請求項1記載のロボットの
協調作業方式。
3. The collaborative work system of a robot according to claim 1, wherein the visual sensor comprises a camera and a length measuring sensor.
【請求項4】 前記他のロボットは複数であることを特
徴とする請求項1記載のロボットの協調作業方式。
4. The robot collaborative work system according to claim 1, wherein the other robots are plural in number.
【請求項5】 複数のロボット及び視覚センサから成る
ロボットシステムに協調作業を行わせるロボットの協調
作業方式において、 一組のロボット及び視覚センサのうち、前記ロボットの
配置等にずれが生じたときに、前記ずれが生じる前及び
生じた後の前記視覚センサからの各撮像データを用いて
ずれ量を求めるずれ量演算手段と、 前記ずれ量に応じて前記ロボットの位置及び姿勢を補正
する補正データを求める補正データ演算手段と、 前記ロボット及び前記視覚センサの各座標系のキャリブ
レーション用変換マトリックスを用いて、前記視覚セン
サが検出した作業対象物上の検出点データを変換する第
1の検出点変換手段と、 前記第1の検出点変換手段によって変換された前記検出
点データを前記補正データを用いて補正する変換検出点
補正手段と、 前記変換検出点補正手段から送られてきた前記検出点の
補正変換データに基づいて、前記ロボットに補正動作を
行わせるロボット制御手段と、 前記ロボット以外の他のロボット及び前記視覚センサの
各座標系のキャリブレーション用変換マトリックスを用
いて、前記検出点データを変換する第2の検出点変換手
段と、 前記第2の検出点変換手段から送られてきた前記検出点
の変換データに基づいて、前記他のロボットの動作を制
御し、前記ロボットとの協調作業を行わせる他のロボッ
ト制御手段と、 を有することを特徴とするロボットの協調作業方式。
5. A robot collaborative work method for causing a robot system including a plurality of robots and a visual sensor to perform a collaborative work, when a displacement or the like occurs in the robot or the like among a set of the robot and the visual sensor. A deviation amount calculation means for obtaining a deviation amount using each imaged data from the visual sensor before and after the deviation occurs, and correction data for correcting the position and orientation of the robot according to the deviation amount. A first detection point conversion for converting the detection point data on the work object detected by the visual sensor using the correction data calculation means to be obtained and the calibration conversion matrix of each coordinate system of the robot and the visual sensor. Means and conversion detection for correcting the detection point data converted by the first detection point conversion means using the correction data Correction means, robot control means for causing the robot to perform a correction operation based on the correction conversion data of the detection points sent from the conversion detection point correction means, a robot other than the robot, and the visual sensor Second detection point conversion means for converting the detection point data by using the calibration conversion matrix of each coordinate system, and conversion data of the detection points sent from the second detection point conversion means. Based on the above, another robot control means for controlling the operation of the other robot and performing a collaborative work with the robot is provided.
【請求項6】 複数のロボット及び視覚センサから成る
ロボットシステムに協調作業を行わせるロボットの協調
作業方式において、 一組のロボット及び視覚センサのうち、前記視覚センサ
の配置等にずれが生じたときに、前記ずれが生じる前及
び生じた後の前記視覚センサからの各撮像データを用い
てずれ量を求めるずれ量演算手段と、 前記ずれ量及び前記ずれが生じた後の前記視覚センサか
らの撮像データに基づいて、補正マトリックスを求める
補正マトリックス演算手段と、 前記補正マトリックスによって、前記一組のロボット及
び視覚センサの各座標系のキャリブレーション用変換マ
トリックスを補正する第1の変換マトリックス補正手段
と、 前記変換マトリックス補正手段によって求められた第1
の補正変換マトリックスを用いて、前記視覚センサが検
出した作業対象物上の検出点データを変換する検出点補
正変換手段と、 前記検出点補正変換手段から送られてきた前記検出点の
第1の補正変換データに基づいて、前記ロボットに補正
動作を行わせるロボット制御手段と、 前記補正マトリックスによって、前ロボット以外の他の
ロボット及び前記視覚センサの各座標系のキャリブレー
ション用変換マトリックスを補正する第2の変換マトリ
ックス補正手段と、 前記変換マトリックス補正手段によって求められた第2
の補正変換マトリックスを用いて、前記検出点データを
変換する第2の検出点補正変換手段と、 前記第2の検出点補正変換手段から送られてきた前記検
出点の第2の補正変換データに基づいて、前記他のロボ
ットの補正動作を制御し、前記ロボットとの協調作業を
行わせる他のロボット制御手段と、 を有することを特徴とするロボットの協調作業方式。
6. A robot collaborative work method for causing a robot system including a plurality of robots and a visual sensor to perform a collaborative work, when a displacement or the like occurs in the arrangement of the visual sensor among a set of the robot and the visual sensor. In addition, a deviation amount calculating unit that obtains a deviation amount by using each imaging data from the visual sensor before and after the deviation occurs, and the deviation amount and the imaging from the visual sensor after the deviation occur Correction matrix calculation means for obtaining a correction matrix based on the data, and first conversion matrix correction means for correcting the calibration conversion matrix of each coordinate system of the pair of robot and visual sensor by the correction matrix, The first obtained by the conversion matrix correction means
Of the detection points on the work object detected by the visual sensor, and the first detection points sent from the detection point correction conversion means. Robot control means for causing the robot to perform a correction operation based on correction conversion data; and a correction matrix for correcting a calibration conversion matrix of each coordinate system of a robot other than the previous robot and the visual sensor. Second conversion matrix correction means, and a second conversion matrix correction means obtained by the conversion matrix correction means.
Second detection point correction conversion means for converting the detection point data by using the correction conversion matrix of and the second correction conversion data of the detection points sent from the second detection point correction conversion means. Based on the above, there is provided another robot control means for controlling the correction operation of the other robot and performing a collaborative work with the robot.
【請求項7】 前記視覚センサからの各撮像データは、
前記ずれが生じる前の前記視覚センサが所定位置のキャ
リブレーション用治具を撮像して得られた撮像データ、
及び前記ずれが生じた後の前記視覚センサが前記所定位
置のキャリブレーション用治具を撮像して得られた撮像
データであることを特徴とする請求項6記載のロボット
の協調作業方式。
7. Each image pickup data from the visual sensor comprises:
Imaging data obtained by imaging the calibration jig at a predetermined position by the visual sensor before the displacement occurs,
7. The robot collaborative work method according to claim 6, wherein the visual sensor after the deviation is imaged data obtained by imaging the calibration jig at the predetermined position.
【請求項8】 前記所定位置のキャリブレーション用治
具は、前記ロボットのハンドに取り付けられたキャリブ
レーション用治具であることを特徴とする請求項7記載
のロボットの協調作業方式。
8. The robot collaborative work system according to claim 7, wherein the calibration jig at the predetermined position is a calibration jig attached to a hand of the robot.
【請求項9】 複数のロボット及び視覚センサから成る
ロボットシステムに協調作業を行わせるロボットの協調
作業方式において、 一組のロボット及び視覚センサのうち、前記視覚センサ
の配置等にずれが生じたときに、前記ずれが生じる前及
び生じた後の前記視覚センサからの各撮像データを用い
てずれ量を求めるずれ量演算手段と、 前記ずれ量に応じて前記ロボットの位置及び姿勢を補正
する補正データを求める補正データ演算手段と、 前記ロボット及び前記視覚センサの各座標系のキャリブ
レーション用変換マトリックスを用いて、前記視覚セン
サが検出した作業対象物上の検出点データを変換する第
1の検出点変換手段と、 前記第1の検出点変換手段によって変換された前記検出
点データを前記補正データを用いて補正する第1の変換
検出点補正手段と、 前記第1の変換検出点補正手段から送られてきた前記検
出点の補正変換データに基づいて、前記ロボットに補正
動作を行わせるロボット制御手段と、 前記ロボット以外のロボット及び前記視覚センサの各座
標系のキャリブレーション用変換マトリックスを用い
て、前記検出点データを変換する第2の検出点変換手段
と、 前記第2の検出点変換手段によって変換された前記検出
点データを前記補正データを用いて補正する第2の変換
検出点補正手段と、 前記第2の変換検出点補正手段から送られてきた前記検
出点の補正変換データに基づいて、前記他のロボットの
補正動作を制御し、前記ロボットと協調作業を行わせる
他のロボット制御手段と、 を有することを特徴とするロボットの協調作業方式。
9. In a robot collaborative work method for causing a robot system including a plurality of robots and a visual sensor to perform a collaborative work, when a displacement or the like occurs in the arrangement of the visual sensor among a set of the robot and the visual sensor. In addition, a deviation amount calculation unit that obtains a deviation amount using each imaged data from the visual sensor before and after the deviation, and correction data that corrects the position and orientation of the robot according to the deviation amount. A first detection point for converting the detection point data on the work object detected by the visual sensor by using the correction data calculation unit for obtaining the coordinate value and the conversion matrix for calibration of each coordinate system of the robot and the visual sensor. Conversion means, and a first detection point conversion means for correcting the detection point data converted by the first detection point conversion means using the correction data. Replacement detection point correction means, robot control means for causing the robot to perform a correction operation based on the correction conversion data of the detection points sent from the first conversion detection point correction means, and a robot other than the robot And second detection point conversion means for converting the detection point data using a conversion matrix for calibration of each coordinate system of the visual sensor, and the detection point data converted by the second detection point conversion means. Based on the correction conversion data of the detection point sent from the second conversion detection point correction means, and a correction of the other robot. Another robot control means for controlling an operation and performing a collaborative work with the robot, a collaborative work system for a robot.
JP16286491A 1991-07-03 1991-07-03 Cooperative operation system for robot Pending JPH0511822A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP16286491A JPH0511822A (en) 1991-07-03 1991-07-03 Cooperative operation system for robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP16286491A JPH0511822A (en) 1991-07-03 1991-07-03 Cooperative operation system for robot

Publications (1)

Publication Number Publication Date
JPH0511822A true JPH0511822A (en) 1993-01-22

Family

ID=15762714

Family Applications (1)

Application Number Title Priority Date Filing Date
JP16286491A Pending JPH0511822A (en) 1991-07-03 1991-07-03 Cooperative operation system for robot

Country Status (1)

Country Link
JP (1) JPH0511822A (en)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06278063A (en) * 1993-03-31 1994-10-04 Matsushita Electric Ind Co Ltd Industrial robot system
JPH10154881A (en) * 1996-11-26 1998-06-09 Matsushita Electric Works Ltd Multilayered laminated board positioning device
KR100482562B1 (en) * 2002-06-26 2005-04-14 현대자동차주식회사 Calibration method for robot
JP2008309601A (en) * 2007-06-14 2008-12-25 Yamaha Fine Technologies Co Ltd Apparatus and method for inspecting printed board
JP2009172718A (en) * 2008-01-24 2009-08-06 Canon Inc Working device and calibration method of the same
JP2013035054A (en) * 2011-08-10 2013-02-21 Daihen Corp Welding robot control device
WO2015079740A1 (en) * 2013-11-28 2015-06-04 三菱電機株式会社 Robot system and robot system control method
JP2018176388A (en) * 2017-04-19 2018-11-15 トヨタ自動車株式会社 Calibration device
US10906184B2 (en) 2019-03-29 2021-02-02 Mujin, Inc. Method and control system for verifying and updating camera calibration for robot control
JP2021066008A (en) * 2019-10-18 2021-04-30 株式会社Mujin Method and control system for verifying and updating calibration information for robot control
US11014241B2 (en) 2019-03-29 2021-05-25 Mujin, Inc. Method and control system for verifying and updating camera calibration for robot control

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06278063A (en) * 1993-03-31 1994-10-04 Matsushita Electric Ind Co Ltd Industrial robot system
JPH10154881A (en) * 1996-11-26 1998-06-09 Matsushita Electric Works Ltd Multilayered laminated board positioning device
KR100482562B1 (en) * 2002-06-26 2005-04-14 현대자동차주식회사 Calibration method for robot
JP2008309601A (en) * 2007-06-14 2008-12-25 Yamaha Fine Technologies Co Ltd Apparatus and method for inspecting printed board
JP2009172718A (en) * 2008-01-24 2009-08-06 Canon Inc Working device and calibration method of the same
JP2013035054A (en) * 2011-08-10 2013-02-21 Daihen Corp Welding robot control device
JP6005299B2 (en) * 2013-11-28 2016-10-12 三菱電機株式会社 Robot system and control method of robot system
CN105792996A (en) * 2013-11-28 2016-07-20 三菱电机株式会社 Robot system and robot system control method
WO2015079740A1 (en) * 2013-11-28 2015-06-04 三菱電機株式会社 Robot system and robot system control method
JPWO2015079740A1 (en) * 2013-11-28 2017-03-16 三菱電機株式会社 Robot system and control method of robot system
CN105792996B (en) * 2013-11-28 2017-07-25 三菱电机株式会社 The control method of robot system and robot system
US9782896B2 (en) 2013-11-28 2017-10-10 Mitsubishi Electric Corporation Robot system and control method for robot system
JP2018176388A (en) * 2017-04-19 2018-11-15 トヨタ自動車株式会社 Calibration device
US10906184B2 (en) 2019-03-29 2021-02-02 Mujin, Inc. Method and control system for verifying and updating camera calibration for robot control
US11014241B2 (en) 2019-03-29 2021-05-25 Mujin, Inc. Method and control system for verifying and updating camera calibration for robot control
US11590656B2 (en) 2019-03-29 2023-02-28 Mujin, Inc. Method and control system for verifying and updating camera calibration for robot control
US11883964B2 (en) 2019-03-29 2024-01-30 Mujin, Inc. Method and control system for verifying and updating camera calibration for robot control
JP2021066008A (en) * 2019-10-18 2021-04-30 株式会社Mujin Method and control system for verifying and updating calibration information for robot control

Similar Documents

Publication Publication Date Title
JPH0435885A (en) Calibration method for visual sensor
JP2686351B2 (en) Vision sensor calibration method
US7899577B2 (en) Measuring system and calibration method
US5319443A (en) Detected position correcting method
CN100549890C (en) Be used to control the method for orientation/positioning system and calibrate orientation/positioning system automatically
EP0511396B1 (en) Method for setting coordinate system of robot
JP2702320B2 (en) Robot control device
JPH0511822A (en) Cooperative operation system for robot
JPWO2018043525A1 (en) Robot system, robot system control apparatus, and robot system control method
JPH04233602A (en) Deflection correcting system for robot
JPH08132373A (en) Coordinate system coupling method in robot-sensor system
JP2008183690A (en) Robot control device and system
US8761936B2 (en) Teaching line correcting apparatus, teaching line correcting method, and program thereof
JP2682763B2 (en) Automatic measurement method of operation error of robot body
JP3300477B2 (en) Compensation data communication method between robots
JPH0588721A (en) Controller for articulated robot
JPH03213244A (en) Positioning device for flat plate workpiece work machine
JP2016203282A (en) Robot with mechanism for changing end effector attitude
JPH04269194A (en) Plane measuring method
JPS62200403A (en) Method for aligning coordinate in robot control
JPH06273172A (en) Image processing device using stereo camera
CN114619233B (en) Lock positioning method, screw locking method, lock positioning device and screw machine
JP3252870B2 (en) Calibration method of image recognition robot camera
WO2021210540A1 (en) Coordinate system setting system and position/orientation measurement system
JPS63254575A (en) Calibration device for visual sensor