JP2022181810A - robot system - Google Patents
robot system Download PDFInfo
- Publication number
- JP2022181810A JP2022181810A JP2021088980A JP2021088980A JP2022181810A JP 2022181810 A JP2022181810 A JP 2022181810A JP 2021088980 A JP2021088980 A JP 2021088980A JP 2021088980 A JP2021088980 A JP 2021088980A JP 2022181810 A JP2022181810 A JP 2022181810A
- Authority
- JP
- Japan
- Prior art keywords
- robot
- slave
- master
- stereo camera
- robots
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000036544 posture Effects 0.000 claims abstract description 57
- 238000012937 correction Methods 0.000 claims abstract description 32
- 238000012545 processing Methods 0.000 claims description 55
- 238000005259 measurement Methods 0.000 claims description 21
- 238000004364 calculation method Methods 0.000 claims description 13
- 230000001131 transforming effect Effects 0.000 claims description 2
- 238000000034 method Methods 0.000 description 22
- 239000011159 matrix material Substances 0.000 description 19
- 238000003384 imaging method Methods 0.000 description 15
- 238000010586 diagram Methods 0.000 description 12
- 230000008569 process Effects 0.000 description 11
- 238000003466 welding Methods 0.000 description 11
- 239000000463 material Substances 0.000 description 8
- 230000008859 change Effects 0.000 description 5
- NQLCRNIYNCQQET-MWKIOEHESA-N methyl 1-[(2r,3r,4s,5r)-3,4-dihydroxy-5-(hydroxymethyl)oxolan-2-yl]-1,2,4-triazole-3-carboximidate Chemical compound N1=C(C(=N)OC)N=CN1[C@H]1[C@H](O)[C@H](O)[C@@H](CO)O1 NQLCRNIYNCQQET-MWKIOEHESA-N 0.000 description 5
- 238000007796 conventional method Methods 0.000 description 4
- 238000011960 computer-aided design Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 238000009434 installation Methods 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 238000005452 bending Methods 0.000 description 1
- 239000013256 coordination polymer Substances 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 239000012636 effector Substances 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000015654 memory Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Landscapes
- Manipulator (AREA)
Abstract
Description
本発明は、ワークに対して、複数のロボットを用いて所定作業を行うロボットシステムに関するものである。 The present invention relates to a robot system that uses a plurality of robots to perform predetermined work on a workpiece.
例えば車両のメインボデーに対して複数の溶接ロボットにて同時併行的に溶接を行うといった具合に、ワークに対して、複数のロボットを用いて所定作業を行うロボットシステムが従来から知られている。 2. Description of the Related Art Conventionally, there has been known a robot system in which a plurality of robots are used to perform a predetermined work on a workpiece, such as simultaneous welding of a main body of a vehicle by a plurality of welding robots.
このようなロボットシステムでは、仮に、各ロボットが設計通りの位置に配置され、且つ、ワークが設計通りに位置決めされている場合には、初期セットアップ時に登録された教示データ通りに、各ロボットを動作させることで、ワークに対して溶接や組立等の所定作業を正確に行うことが可能となる。 In such a robot system, if each robot is positioned as designed and the workpiece is positioned as designed, each robot operates according to the teaching data registered during the initial setup. By doing so, it becomes possible to accurately perform predetermined work such as welding and assembly on the work.
これに対し、各ロボットに設置誤差がある場合や、ワークが位置決めされていない場合には、各ロボットを教示データ通りに動作させるだけでは、溶接個所や組立位置が正規の位置からずれるため、ワークに対する各ロボットの姿勢を補正する必要がある。 On the other hand, if each robot has an installation error or if the workpiece is not positioned, simply operating each robot according to the teaching data will cause the welding points and assembly positions to deviate from the normal positions. It is necessary to correct the posture of each robot with respect to
例えば特許文献1には、キャリブレーション済みの第1ロボットによって正確に把持された専用の冶具を、第2ロボットで同時に把持することで、第1ロボットの座標系と第2ロボットの座標系とのズレ量を確認し、第2ロボットの座標系の原点位置および座標軸を第1ロボットの座標系に合わせるようにしたロボットシステムが開示されている。
For example, in
また、特許文献2には、先導ロボットに取り付けられた第1のカメラで検出した把持ズレを補正するための補正量TLを算出するとともに、追従ロボットに取り付けられた第2のカメラで検出した把持ズレを補正するための補正量TFを算出し、協調制御時は、補正量TLを用いて先導ロボットの位置姿勢を補正し、補正量TLおよびTFの双方を用いて追従ロボットの位置姿勢を補正するロボットシステムが開示されている。 Further, in Patent Document 2, a correction amount TL for correcting a gripping deviation detected by a first camera attached to a leading robot is calculated, and a gripping amount detected by a second camera attached to a following robot is calculated. A correction amount TF for correcting the deviation is calculated. During cooperative control, the correction amount TL is used to correct the position and orientation of the leading robot, and both the correction amounts TL and TF are used to correct the position and orientation of the following robot. is disclosed.
上記特許文献1および2のロボットシステムによれば、複数のロボットの校正を容易かつ正確に行うことができるとされているが、これら特許文献1および2のものには、以下のような問題がある。
According to the robot systems of
すなわち、特許文献1のものでは、ロボット同士の相対位置計測の際に、専用の冶具を2台のロボットで同時に把持することから、物理的に届く範囲に設置されたロボット同士にしか適用することができず、ロボットシステムにおけるレイアウトの自由度が制限されるという問題がある。
That is, in
さらに、特許文献1のものでは、ロボット同士の相対位置計測の際に物理的な接触を伴うことから、ロボットや治具のたわみの影響を受け易い上、繊細な操作が必要であり、作
業者の個人差により精度がバラつくため、ロボットの姿勢の補正を容易かつ正確に行うことが困難であるという問題もある。
Furthermore, in
また、特許文献2のものでは、ロボット毎にカメラおよび画像データを処理する処理装置(例えばパーソナルコンピュータ)が必要になることから、設備コストが増大するという問題がある。 Further, in Patent Document 2, since each robot requires a camera and a processing device (for example, a personal computer) for processing image data, there is a problem that the equipment cost increases.
さらに、特許文献2のものでは、追従ロボットの位置姿勢の補正を行う際に、先導ロボットの把持ズレを補正するための補正量TLと、追従ロボットの把持ズレを補正するための補正量TFと、を用いることから、補正の度に全ロボットの把持ズレを計測する必要があるため、位置姿勢の補正を容易に行うことが困難であるという問題もある。 Further, in Patent Document 2, when correcting the position and orientation of the following robot, a correction amount TL for correcting the gripping deviation of the leading robot and a correction amount TF for correcting the gripping deviation of the following robot are used. , it is necessary to measure the gripping deviation of all the robots each time the correction is performed. Therefore, it is difficult to easily correct the position and orientation.
本発明はかかる点に鑑みてなされたものであり、その目的とするところは、複数のロボットを用いる場合でも、設備コストの低減およびレイアウトの自由度の向上を図りつつ、ワークに対するロボットの姿勢を容易かつ正確に補正することが可能なロボットシステムを提供することにある。 The present invention has been made in view of this point, and its object is to reduce equipment costs and improve the degree of freedom in layout, even when using a plurality of robots, while adjusting the posture of the robots relative to the workpiece. To provide a robot system capable of easy and accurate correction.
前記目的を達成するため、本発明に係るロボットシステムでは、スレーブロボットに取り付けられた基準物体を、マスターロボットに取り付けられたステレオカメラによって撮像することで、1台のステレオカメラおよび1台の処理装置のみで、マスターロボットとスレーブロボットとの相対位置を算出するようにしている。 In order to achieve the above object, in the robot system according to the present invention, a reference object attached to a slave robot is imaged by a stereo camera attached to a master robot. only, the relative positions of the master robot and the slave robot are calculated.
具体的には、本発明は、ワークに対して、複数のロボットを用いて所定作業を行うロボットシステムを対象としている。 Specifically, the present invention is directed to a robot system that uses a plurality of robots to perform predetermined work on a workpiece.
そして、このロボットシステムは、ステレオカメラが取り付けられたマスターロボットと、基準物体が取り付けられたスレーブロボットと、上記マスターロボットおよびスレーブロボットを制御可能で、且つ、上記ステレオカメラによって撮像された画像を取得可能な処理装置と、を備え、上記処理装置は、上記スレーブロボットを静止させた状態で、上記マスターロボットに複数の姿勢をとらせた際に上記ステレオカメラによって撮像された上記基準物体の複数の画像に基づいて、上記マスターロボットの座標系から見た上記ステレオカメラの位置姿勢と、上記ステレオカメラの座標系から見た上記基準物体の位置姿勢と、を算出し、且つ、上記マスターロボットを静止させた状態で、上記スレーブロボットに複数の姿勢をとらせた際に上記ステレオカメラによって撮像された上記基準物体の複数の画像に基づいて、上記スレーブロボットの座標系から見た当該基準物体の位置姿勢を算出し、これらの算出結果を座標変換することで、上記マスターロボットと上記スレーブロボットとの相対位置を算出するとともに、上記ステレオカメラによって撮像された、上記ワークにおける特徴部の画像に基づき、当該ワークに対する上記マスターロボットの補正量を算出し、上記マスターロボットと上記スレーブロボットとの相対位置と、上記補正量と、に基づいて、上記マスターロボットおよびスレーブロボットの姿勢を補正するように構成されていることを特徴とするものである。 This robot system is capable of controlling a master robot to which a stereo camera is attached, a slave robot to which a reference object is attached, the master robot and the slave robot, and acquiring an image captured by the stereo camera. and a processing device capable of capturing a plurality of images of the reference object captured by the stereo camera when the master robot is caused to assume a plurality of postures while the slave robot is stationary. Based on the images, the position and orientation of the stereo camera seen from the coordinate system of the master robot and the position and orientation of the reference object seen from the coordinate system of the stereo camera are calculated, and the master robot is kept stationary. position of the reference object viewed from the coordinate system of the slave robot, based on a plurality of images of the reference object captured by the stereo camera when the slave robot is caused to assume a plurality of postures. By calculating the posture and transforming the coordinates of these calculation results, the relative position between the master robot and the slave robot is calculated, and based on the image of the characteristic part of the work captured by the stereo camera, A correction amount of the master robot for the workpiece is calculated, and the postures of the master robot and the slave robot are corrected based on the relative positions of the master robot and the slave robot and the correction amount. It is characterized by
この構成によれば、スレーブロボットを静止させた状態で、換言すると、基準物体を固定した状態で、ステレオカメラが取り付けられたマスターロボットに複数の姿勢をとらせて、奥行き方向の情報も記録可能なステレオカメラによって基準物体を複数の方向から撮像することから、マスターロボットの座標系から見たステレオカメラの位置姿勢を算出することができる。また、基準物体の大きさ・形状は既知であることから、ステレオカメラによって基準物体を複数の方向から撮像することにより、ステレオカメラの座標系から見た基準物体の位置姿勢も算出することができる。 According to this configuration, with the slave robot stationary, in other words, with the reference object fixed, the master robot attached with the stereo camera can be made to take multiple postures, and depth information can also be recorded. Since the stereo camera images the reference object from a plurality of directions, the position and orientation of the stereo camera viewed from the coordinate system of the master robot can be calculated. In addition, since the size and shape of the reference object are known, the position and orientation of the reference object viewed from the coordinate system of the stereo camera can be calculated by imaging the reference object from multiple directions with the stereo camera. .
同様に、マスターロボットを静止させた状態で、換言すると、ステレオカメラを固定した状態で、基準物体が取り付けられたスレーブロボットに複数の姿勢をとらせて、複数の位置における基準物体を静止したステレオカメラによって撮像することから、スレーブロボットの座標系から見た基準物体の位置姿勢を算出することができる。 Similarly, with the master robot stationary, in other words, with the stereo camera fixed, the slave robot to which the reference object is attached is allowed to assume a plurality of postures, and the reference object at a plurality of positions is captured in a stationary stereo camera. Since the image is captured by the camera, the position and orientation of the reference object viewed from the coordinate system of the slave robot can be calculated.
ここで、(1)マスターロボットの座標系から見たステレオカメラの位置姿勢、(2)ステレオカメラの座標系から見た基準物体の位置姿勢、および(3)スレーブロボットの座標系から見た基準物体の位置姿勢は、それぞれ行列で表せることから、(3)を表す行列の逆行列を算出することで、(3’)基準物体の座標系から見たスレーブロボットの位置姿勢を容易に算出することができる。 Here, (1) the position and orientation of the stereo camera viewed from the coordinate system of the master robot, (2) the position and orientation of the reference object viewed from the coordinate system of the stereo camera, and (3) the reference viewed from the coordinate system of the slave robot Since the position and orientation of an object can each be represented by a matrix, by calculating the inverse matrix of the matrix representing (3), (3') the position and orientation of the slave robot viewed from the coordinate system of the reference object can be easily calculated. be able to.
そうして、(1)、(2)および(3’)を表す行列の掛け合わせにより、マスターロボット→ステレオカメラ→基準物体→スレーブロボットという座標変換を行うことで、マスターロボットの座標系から見たスレーブロボットの位置姿勢、換言すると、マスターロボットとスレーブロボットとの相対位置を、1台のステレオカメラを用いて容易に算出することができる。 Then, by multiplying the matrices representing (1), (2) and (3'), the coordinate transformation of master robot→stereo camera→reference object→slave robot is performed. The position and orientation of the slave robot, in other words, the relative position between the master robot and the slave robot can be easily calculated using one stereo camera.
一方、ワークにおける特徴部をステレオカメラによって撮像し、かかる特徴部の画像から取得されるワークの位置姿勢と、例えば予め記憶された設計値とを比較することで、マスターロボットのワークに対する補正量(ズレ量)を容易に算出することができる。そうして、マスターロボットとスレーブロボットとの相対位置は既に算出(計測)されていることから、マスターロボットのワークに対する補正量に基づいて、スレーブロボットのワークに対する補正量も容易に算出することができるので、マスターロボットのみならずスレーブロボットの姿勢をも容易かつ正確に補正することが可能となる。 On the other hand, the characteristic part of the workpiece is imaged by a stereo camera, and the position and orientation of the workpiece obtained from the image of the characteristic part are compared with, for example, pre-stored design values. deviation) can be easily calculated. Since the relative positions of the master robot and the slave robot have already been calculated (measured), it is possible to easily calculate the correction amount for the work of the slave robot based on the correction amount for the work of the master robot. Therefore, it is possible to easily and accurately correct the posture of not only the master robot but also the slave robot.
つまり、本発明によれば、スレーブロボットが何台であっても、マスターロボットに取り付けられた1台のステレオカメラ、および、その画像データを処理する1台の処理装置を用いて、マスターロボットとスレーブロボットとの相対位置を取得することができるとともに、全ロボットの姿勢を容易に補正することが可能となることから、設備コストの低減を図ることができる。 In other words, according to the present invention, no matter how many slave robots there are, a single stereo camera attached to the master robot and a single processing device for processing the image data can be used together with the master robot. Since it is possible to acquire the relative position with respect to the slave robot and to easily correct the postures of all the robots, it is possible to reduce the equipment cost.
しかも、ステレオカメラが取り付けられたマスターロボットを、スレーブロボットに取り付けられた基準物体を見渡せる位置に設置さえすれば、マスターロボットとスレーブロボットとの相対位置を取得可能であることから、マスターロボットとスレーブロボットとの相対位置計測の際にロボット同士の物理的な接触を伴うロボットシステムに比して、レイアウトの自由度を高めることができる。加えて、マスターロボットとスレーブロボットとの相対位置計測の際にロボット同士の物理的な接触を伴わないことから、ワークに対するロボットの姿勢を正確に補正することができる。 Moreover, the relative positions of the master robot and the slave robot can be obtained simply by setting the master robot, which is equipped with a stereo camera, in a position where it can overlook the reference object attached to the slave robot. The degree of freedom in layout can be increased compared to a robot system that involves physical contact between robots when measuring relative positions with the robots. In addition, since there is no physical contact between the robots when measuring the relative position between the master robot and the slave robot, the posture of the robot with respect to the workpiece can be accurately corrected.
したがって、本発明によれば、複数のロボットを用いる場合でも、設備コストの低減およびレイアウトの自由度の向上を図りつつ、ワークに対するロボットの姿勢を容易かつ正確に補正することが可能となる。 Therefore, according to the present invention, even when a plurality of robots are used, it is possible to easily and accurately correct the posture of the robots with respect to the workpiece while reducing equipment costs and improving the degree of freedom in layout.
ところで、ワークにおける特徴部が立体形状であれば、かかる特徴部の画像からワークの姿勢を算出することが可能であるが、ワークにおける特徴部が例えば孔(特徴点)等であれば、ワークの姿勢を算出するには、3つ以上の特徴点が必要となる。しかも、姿勢の算出精度を高めるには、できるだけ離れた(できるだけ遠い位置にある)特徴点を撮像することが好ましい。 By the way, if the characteristic portion of the workpiece is a three-dimensional shape, it is possible to calculate the posture of the workpiece from the image of the characteristic portion. To calculate the orientation, three or more feature points are required. Moreover, in order to improve the accuracy of posture calculation, it is preferable to capture an image of a feature point that is as far away as possible (located as far away as possible).
ここで、相対的に小さなワークの場合には、マスターロボットに取り付けられた1台のステレオカメラだけで、ワークに形成された3つ以上の特徴点を撮像することが可能であるが、例えば車両のメインボデー等といった相対的に大きなワークの場合には、1台のステレオカメラだけでは、ワークに形成された、互いに離れた3つ以上の特徴点を撮像することが困難なケースも生じ得る。 Here, in the case of a relatively small work, it is possible to image three or more feature points formed on the work with only one stereo camera attached to the master robot. In the case of a relatively large work such as the main body of a , there may be cases where it is difficult to image three or more feature points separated from each other formed on the work with only one stereo camera.
そこで、上記ロボットシステムでは、上記スレーブロボットを複数備え、上記複数のスレーブロボットには、上記基準物体およびステレオカメラが取り付けられたものが含まれており、上記処理装置は、上記マスターロボットおよびスレーブロボットに取り付けられたステレオカメラによって撮像された、上記ワークにおける複数の特徴部の画像に基づき、当該ワークに対する当該マスターロボットの補正量を算出するとともに、当該マスターロボットと上記複数のスレーブロボットとの相対位置と、当該補正量とに基づいて、当該マスターロボットおよび複数のスレーブロボットの姿勢を補正するように構成されていてもよい。 Therefore, the robot system includes a plurality of slave robots, and the plurality of slave robots include those to which the reference object and the stereo camera are attached. Based on the images of the plurality of characteristic parts of the work taken by the stereo camera attached to the work, the correction amount of the master robot for the work is calculated, and the relative positions of the master robot and the plurality of slave robots and the correction amounts, the postures of the master robot and the plurality of slave robots may be corrected.
この構成によれば、マスターロボットに取り付けられたステレオカメラのみならず、スレーブロボットに取り付けられたステレオカメラをも用いることで、相対的に大きなワークに形成された、互いに離れた3つ以上の特徴点を撮像することが可能となるので、ワークの大小に左右されることなく、ワークに対するロボットの姿勢を容易かつ正確に補正することができる。 According to this configuration, by using not only the stereo camera attached to the master robot, but also the stereo camera attached to the slave robot, three or more separate features formed on a relatively large workpiece can be detected. Since it is possible to image a point, it is possible to easily and accurately correct the posture of the robot with respect to the work regardless of the size of the work.
しかも、マスターロボットと複数のスレーブロボットとの相対位置は、飽く迄マスターロボットに取り付けられた1台のステレオカメラおよび1台の処理装置を用いて算出される上、すべてのスレーブロボットにステレオカメラを取り付ける訳ではなく、特徴点を撮像するのに必要な分だけステレオカメラを増やすことから、設備コストの増大を抑えることができる。 Moreover, the relative positions of the master robot and a plurality of slave robots are calculated using one stereo camera and one processing device attached to the master robot, and stereo cameras are attached to all the slave robots. Instead, the increase in equipment cost can be suppressed by increasing the number of stereo cameras necessary to capture the feature points.
また、上記ロボットシステムでは、上記スレーブロボットのアーム先端に取り付けられるツールには、測定点が設けられており、上記処理装置は、上記マスターロボットと上記スレーブロボットとの相対位置に基づいて算出された上記測定点の位置と、上記ステレオカメラにより撮像された上記測定点の位置と、を比較することによって、上記マスターロボットと上記スレーブロボットとの相対位置の算出精度を確認するように構成されていてもよい。 Further, in the robot system, the tool attached to the tip of the arm of the slave robot is provided with a measurement point, and the processing device calculates the relative positions of the master robot and the slave robot. By comparing the position of the measurement point with the position of the measurement point captured by the stereo camera, the calculation accuracy of the relative position between the master robot and the slave robot is confirmed. good too.
この構成によれば、(A)マスターロボット→スレーブロボット→測定点、および、(B)マスターロボット→ステレオカメラ→測定点という、異なる手法で取得された測定点の位置(座標)を比較することで、マスターロボットとスレーブロボットとの相対位置の算出精度を確認することができ、これにより、ワークに対するロボットの姿勢をより一層正確に補正することが可能となる。 According to this configuration, it is possible to compare the positions (coordinates) of the measurement points obtained by different methods of (A) master robot→slave robot→measurement point and (B) master robot→stereo camera→measurement point. , it is possible to check the calculation accuracy of the relative positions of the master robot and the slave robot, thereby making it possible to more accurately correct the posture of the robot with respect to the workpiece.
以上説明したように、本発明に係るロボットシステムによれば、複数のロボットを用いる場合でも、設備コストの低減およびレイアウトの自由度の向上を図りつつ、ワークに対するロボットの姿勢を容易かつ正確に補正することができる。 As described above, according to the robot system of the present invention, even when a plurality of robots are used, it is possible to easily and accurately correct the posture of the robots with respect to the workpiece while reducing equipment costs and improving the degree of freedom in layout. can do.
以下、本発明を実施するための形態を図面に基づいて説明する。 EMBODIMENT OF THE INVENTION Hereinafter, the form for implementing this invention is demonstrated based on drawing.
-ロボットシステムの概略構成-
図1は、本実施形態に係るロボットシステム1の概要を模式的に示す図であり、図2は、ロボットシステム1を模式的に示すブロック図である。なお、図2では、4台のスレーブロボット21,22,23,24のうちの1台のスレーブロボット(以下、特に区別しない場合には「スレーブロボット20」と称する)のみを示している。
-Schematic configuration of the robot system-
FIG. 1 is a diagram schematically showing an outline of a
このロボットシステム1は、ワークW(図1の例では車両のメインボデーW1)に対して、マスターロボット10およびスレーブロボット20を含む複数台のロボットを用いて、溶接や組立等といった所定作業を行うものである。なお、マスターロボット10とスレーブロボット20とは、後述するように、ワークWに対する各ロボット10,20の姿勢を補正する際には主従関係となるが、それ以外では、マスターロボット10もスレーブロボット20と同様に、ロボットアーム10aの先端部に取り付けられたツール30(図1の例では抵抗溶接機)を用いて、所定作業を行うように構成されている。
This
ロボットシステム1は、図1および図2に示すように、1台のマスターロボット10と、4台のスレーブロボット20と、マスターロボット10を制御するためのロボット制御盤40と、各スレーブロボット20を制御するためのロボット制御盤50と、1台のステレオカメラ60と、照明63と、4枚のキャリブレーションプレート70と、HUB80と、1台の画像処理装置90と、を備えている。
As shown in FIGS. 1 and 2, the
マスターロボット10およびスレーブロボット20は、6軸多関節ロボットであり、複数のリンクとこれら複数のリンクを接続する6つの回転関節とで構成されるロボットアーム10a,20aを有している。ロボットアーム10a,20aの先端には、メインボデーW1に対して所定作業を行うためのツール(エンドエフェクタ)30が取り付けられている。各回転関節には、サーボモータ(図示せず)が設けられていて、各サーボモータが個別に角変位することによって、ロボットアーム10a,20aが駆動し、メインボデーW1に対するツール30の位置および姿勢を3次元的に変更することが可能になっている。
The
ロボット制御盤40,50は、サーボモータを駆動させるサーボドライバ(図示せず)や、各種の演算処理を実行するロボットCPU40a,50aや、プログラムやデータが記憶されたROM(Read Only Memory)や、ロボットCPU40a,50aによる演算処理の実行中に生成されたデータや情報を一時的に保持するRAM(Random Access Memory)等で構成されている。ロボット制御盤40,50は、初期セットアップ時にROMに記憶(登録)された教示データを、ロボットCPU40a,50aが演算処理し、サーボドライバ等に動作指令を出力することで、マスターロボット10およびスレーブロボット20の動作をそれぞれ制御するように構成されている。
The
ステレオカメラ60および照明63は、マスターロボット10のロボットアーム10aにおけるツール30の近傍に取り付けられている。ステレオカメラ60は、対象物を複数の異なる方向から同時に撮影することにより、その奥行き方向の情報も記録することができるように構成されたカメラである。ステレオカメラ60は、対象物における照明63に
よって照らされた部位を撮像して、画像データを画像処理装置90に送信するように構成されている。
キャリブレーションプレート(基準物体)70は、平面上に分布した教示点を有するプレートであり、スレーブロボット21,22,23,24のロボットアーム20aにそれぞれ取り付けられている。なお、キャリブレーションプレート70の形状(教示点の位置等)や寸法は、画像処理装置90のROMに記憶されている。
A calibration plate (reference object) 70 is a plate having teaching points distributed on a plane, and is attached to the
画像処理装置(処理装置)90は、パーソナルコンピュータであり、各種プログラム等に基づいて演算処理を実行するCPU(Central Processing Unit)や、各種プログラムや各種プログラムを実行する際に参照されるマップなどが記憶されているROMや、CPUによる演算結果などを一時的に記憶するメモリであるRAM等で構成されている。画像処理装置90は、ディスプレイ90aと、ROMにインストールされたアプリケーションソフト90bと、を備えている。
The image processing device (processing device) 90 is a personal computer, and includes a CPU (Central Processing Unit) that executes arithmetic processing based on various programs and the like, various programs, maps that are referred to when executing various programs, and the like. It is composed of a ROM in which data is stored, a RAM that temporarily stores calculation results and the like by the CPU, and the like. The
ディスプレイ90aは、指令を与えた際のマスターロボット10およびスレーブロボット20の動きや、マスターロボット10およびスレーブロボット20とメインボデーW1との位置関係等を表す、CAD(Computer Aided Design)等で作成されたヴァーチャルな画像を表示するように構成されている。これにより、画像処理装置90から指令を与えた場合に、マスターロボット10やスレーブロボット20がどのような動きをするかを、事前に確認することができるようになっている。
The
画像処理装置90は、PoE(Power over Ethernet)81を介して、ステレオカメラ60と接続されていて、これにより、ステレオカメラ60によって撮像された画像データがアプリケーションソフト90bに入力されるようになっている。また、画像処理装置90は、イーサネット(Ethernet-IP)83およびHUB80を介して、ロボット制御盤40,50のロボットCPU40a,50aと無線通信を行うことが可能に構成されている。これにより、画像処理装置90は、例えばキーボード(図示せず)から入力した指令や、アプリケーションソフト90bによる解析結果等をロボット制御盤40,50に送信することで、マスターロボット10およびスレーブロボット20を制御することが可能となっている。
The
-姿勢補正手順-
以上のように構成されたロボットシステム1では、仮に、各ロボット10,20が設計通りの位置に配置され、且つ、ワークWが設計通りに位置決めされている場合には、初期セットアップ時にロボット制御盤40,50のROMに記憶された教示データ通りに、各ロボット10,20を動作させることで、溶接や組立等の所定作業を正確に行うことが可能となる。
-Posture Correction Procedure-
In the
これに対し、各ロボット10,20に設置誤差がある場合や、ワークWが位置決めされていない場合には、各ロボット10,20を教示データ通りに動作させるだけでは、溶接個所や組立位置が正規の位置からずれるため、ワークWに対する各ロボット10,20の姿勢を補正する必要がある。
On the other hand, if there is an installation error in each
この点、従来のロボットシステムでは、キャリブレーション済みのマスターロボットに、スレーブロボットを物理的に接触させることで、マスターロボットの座標系とスレーブロボットの座標系とのズレ量を確認する手法(「従来1の手法」という。)や、ロボット毎に、把持ズレを検出するためのカメラおよび画像データを処理するためのパーソナルコンピュータを設ける手法(「従来2の手法」という。)が採られていた。
In this regard, in the conventional robot system, by physically bringing the slave robot into contact with the calibrated master robot, the amount of deviation between the coordinate system of the master robot and the coordinate system of the slave robot is confirmed ("
しかしながら、従来1の手法には、物理的に届く範囲に設置されたロボット同士にしか適用することができず、ロボットシステムにおけるレイアウトの自由度が制限されるという問題がある。さらに、ロボット同士の物理的な接触を伴うことから、ロボット等のたわみの影響を受け易い上、繊細な操作が必要であり、作業者の個人差により精度がバラつくため、ロボットの姿勢の補正を容易かつ正確に行うことが困難であるという問題もある。
However, the
また、従来2の手法には、ロボット毎にカメラおよびパーソナルコンピュータが必要となることから、設備コストが増大するという問題がある。 In addition, the conventional method 2 requires a camera and a personal computer for each robot, so there is a problem that the facility cost increases.
そこで、本実施形態のロボットシステム1では、スレーブロボット20に取り付けられたキャリブレーションプレート70を、マスターロボット10に取り付けられたステレオカメラ60によって撮像することで、1台のステレオカメラ60および1台の画像処理装置90のみで、マスターロボット10とスレーブロボット20との相対位置を算出(計測)するようにしている。
Therefore, in the
具体的には、本実施形態のロボットシステム1では、
(1)スレーブロボット20を静止させた状態で、マスターロボット10に複数の姿勢をとらせた際にステレオカメラ60によって撮像されたキャリブレーションプレート70の複数の画像データに基づいて、マスターロボット10の座標系(マスターロボット座標系ΣMR)から見たステレオカメラ60の位置姿勢と、ステレオカメラ60の座標系(カメラ座標系ΣC)から見たキャリブレーションプレート70の位置姿勢と、を算出し、
(2)マスターロボット10を静止させた状態で、スレーブロボット20に複数の姿勢をとらせた際にステレオカメラ60によって撮像されたキャリブレーションプレート70の複数の画像データに基づいて、スレーブロボット20の座標系(スレーブロボット座標系ΣSR)から見たキャリブレーションプレート70の位置姿勢を算出し
(3)(1)および(2)の算出結果を座標変換することで、マスターロボット10とスレーブロボット20との相対位置を算出するとともに、
(4)ステレオカメラ60によって撮像された、ワークWにおける特徴部の画像データに基づき、ワークWに対するマスターロボット10の補正量を算出し、
(5)(3)で算出したマスターロボット10とスレーブロボット20との相対位置と、(4)で算出した補正量と、に基づいて、マスターロボット10およびスレーブロボット20の姿勢を補正するように、画像処理装置90を構成している。
Specifically, in the
(1) Based on a plurality of image data of the
(2) Based on a plurality of image data of the
(4) calculating the correction amount of the
(5) Correct the postures of the
以下、このような画像処理装置90による姿勢補正手順(1)~(5)について、図3のフローチャートを参照しながら、詳細に説明する。なお、図1では、4台のスレーブロボット21,22,23,24を示しているが、以下では、ロボットシステム1が、n台(nは正の整数)のスレーブロボット20を備えている場合について説明を行う。
The posture correction procedures (1) to (5) by the
〈手順(1)について〉
先ず、ステップS1では、画像処理装置90が、スレーブロボット20の番号として、i=0を読み込む。次のステップS2では、画像処理装置90が、i=i+1を計算して、スレーブロボット20の番号として1番を設定する。なお、1番のスレーブロボット20は、例えば図1のスレーブロボット21に対応している。次のステップS3では、画像処理装置90が、スレーブロボット21に対応するロボット制御盤50に指令を出して、スレーブロボット21を静止させる。
<Regarding procedure (1)>
First, in step S<b>1 , the
ここで、スレーブロボット21を静止させた状態で、スレーブロボット21に取り付けられたキャリブレーションプレート70をステレオカメラ60によって撮像した後、マスターロボット10の姿勢を変更し、再びキャリブレーションプレート70をステレオカメラ60によって撮像すると、当然、姿勢の変更の前後で、キャリブレーションプレート7
0の画像データは異なることになる。そうして、例えばマスターロボット10のロボットアーム10a先端部の変化量に対して、キャリブレーションプレート70の画像データの変化量が小さければ、ステレオカメラ60がロボットアーム10a先端部よりも基端側に位置していることが推定される。
Here, after the
0 image data will be different. Then, for example, if the amount of change in the image data of the
それ故、マスターロボット10に複数の姿勢をとらせて、その都度、キャリブレーションプレート70を異なる方向からステレオカメラ60によって撮像して、このような推定を繰り返すことで、マスターロボット座標系ΣMRにおけるステレオカメラ60の位置姿勢が算出される(絞り込まれる)ことになる。なお、ステレオカメラ60の位置姿勢の算出精度は、マスターロボット10の姿勢を変更すれば変更するほど上がる訳ではなく、約13回の撮像により収束することが、実験等で確認されている。
Therefore, by allowing the
そこで、次のステップS4では、画像処理装置90が、撮像回数j=0を読み込む。次のステップS5では、画像処理装置90が、j=j+1を計算して、撮像回数jとして1回を設定した後、ステップS6に進む。次のステップS6では、1番のキャリブレーションプレート70(1番のスレーブロボット21に取り付けられたキャリブレーションプレート70)をステレオカメラ60で撮像した後、ステップS7に進む。
Therefore, in the next step S4, the
次のステップS7では、画像処理装置90が、撮像回数jが所定回数l(lは正の整数で、例えば13)に達したか否かを判定する。このステップS7での判定がNOの場合には、ステップS8に進む。次のステップS8では、画像処理装置90が、ロボット制御盤40に指令を出して、マスターロボット10の姿勢を変更させた後、ステップS5に進み、撮像回数jに1を加算した後、ステップS6でスレーブロボット21に取り付けられたキャリブレーションプレート70を再びステレオカメラ60で撮像するという流れを繰り返す。
In the next step S7, the
一方、ステップS7での判定がYESの場合、すなわち、撮像回数jが所定回数lに達した場合には、ステップS9に進む。次のステップS9では、画像処理装置90のアプリケーションソフト90bが、マスターロボット座標系ΣMRから見たステレオカメラ60の位置姿勢を算出する。
On the other hand, if the determination in step S7 is YES, that is, if the number of times j of imaging has reached the predetermined number of times l, the process proceeds to step S9. In the next step S9, the
ここで、「マスターロボット座標系ΣMRから見たステレオカメラ60の位置姿勢を算出する」とは、マスターロボット座標系ΣMRからカメラ座標系ΣCまでの位置・姿勢を表す行列MRTCを算出することを意味する。つまり、行列MRTCは、マスターロボット10の位置・姿勢をステレオカメラ60の位置・姿勢に変換する行列である。それ故、行列MRTCにマスターロボット10の位置・姿勢の制御量を掛ければ、ステレオカメラ60の位置・姿勢を算出することができる。逆に、行列MRTCの逆行列MRTC
-1(=CTMR)に、ステレオカメラ60の目標位置・目標姿勢を掛ければ、マスターロボット10の位置・姿勢の制御量を算出することができる。
Here, "calculating the position and orientation of the
そうして、次のステップS10では、画像処理装置90のアプリケーションソフト90bが、カメラ座標系ΣCから見た1番のキャリブレーションプレート70の位置姿勢を算出する。
Then, in the next step S10, the
上述の如く、キャリブレーションプレート70の形状(教示点の位置等)や寸法は、画像処理装置90のROMに記憶されていることから、キャリブレーションプレート70を異なる方向からステレオカメラ60によって撮像することで、アプリケーションソフト90bが、カメラ座標系ΣCから見たキャリブレーションプレート70の位置姿勢をも算出することが可能となる。なお、「カメラ座標系ΣCから見たキャリブレーションプレート70の位置姿勢を算出する」とは、カメラ座標系ΣCからプレート座標系ΣPまでの位置・
姿勢を表す行列CTPを算出することを意味する。
As described above, since the shape (positions of teaching points, etc.) and dimensions of the
This means calculating the matrix CTP that represents the orientation.
〈手順(2)について〉
上記手順(1)と同様の理屈で、マスターロボット10を静止させた状態で、スレーブロボット20に複数の姿勢をとらせて、その都度、静止したステレオカメラ60によって、キャリブレーションプレート70を異なる方向から撮像することで、スレーブロボット座標系ΣSRにおけるキャリブレーションプレート70の位置姿勢が算出される(絞り込まれる)ことになる。
<Regarding procedure (2)>
Based on the same logic as the above procedure (1), the
それ故、ステップS11では、画像処理装置90が、ロボット制御盤40に指令を出して、マスターロボット10を静止させる。次のステップS12では、画像処理装置90が、撮像回数k=0を読み込む。次のステップS13では、画像処理装置90が、k=k+1を計算して、撮像回数kとして1回を設定した後、ステップS14に進む。次のステップS14では、1番のキャリブレーションプレート70を静止したステレオカメラ60で撮像した後、ステップS15に進む。
Therefore, in step S11, the
次のステップS15では、画像処理装置90が、撮像回数kが所定回数m(mは正の整数で、例えば13)に達したか否かを判定する。このステップS15での判定がNOの場合には、ステップS16に進む。次のステップS16では、画像処理装置90が、スレーブロボット21に対応するロボット制御盤50に指令を出して、スレーブロボット21の姿勢を変更させた後、ステップS13に進み、撮像回数kに1を加算した後、ステップS14でスレーブロボット21に取り付けられたキャリブレーションプレート70を静止したステレオカメラ60で再び撮像するという流れを繰り返す。
In the next step S15, the
一方、ステップS15での判定がYESの場合、すなわち、撮像回数kが所定回数mに達した場合には、ステップS17に進む。次のステップS17では、画像処理装置90のアプリケーションソフト90bが、スレーブロボット座標系ΣSR21から見たキャリブレーションプレート70の位置姿勢を算出する。
On the other hand, if the determination in step S15 is YES, that is, if the number of imaging times k has reached the predetermined number of times m, the process proceeds to step S17. In the next step S17, the
ここで、「スレーブロボット座標系ΣSR21から見たキャリブレーションプレート70の位置姿勢を算出する」とは、スレーブロボット座標系ΣSR21からプレート座標系ΣPまでの位置・姿勢を表す行列SR21TPを算出することを意味する。それ故、行列SR21TPの逆行列SR21TP
-1(=PTSR21)も容易に算出することができる。
Here, "calculate the position and orientation of the
〈手順(3)について〉
次のステップS18では、画像処理装置90のアプリケーションソフト90bが、マスターロボット10と1番のスレーブロボット21との相対位置を算出する。具体的には、アプリケーションソフト90bは、ステップS9で算出した行列MRTCと、ステップS10で算出した行列CTPと、ステップS17で算出した行列SR21TPの逆行列(行列PTSR21)と、に基づいて、下記の式(1)により、マスターロボット座標系ΣMRからスレーブロボット座標系ΣSR21までの位置・姿勢を表す行列MRTSR21を算出して、マスターロボット10とスレーブロボット21との相対位置を算出(計測)する。
<Regarding procedure (3)>
In the next step S18, the
MRTC・CTP・PTSR21=MRTSR21・・・・式(1)
このようにして、マスターロボット10とスレーブロボット21との相対位置を算出した後、ステップS19に進む。次のステップS19では、画像処理装置90が、スレーブロボット20の番号iがnに達したか否かを判定する。このステップS19での判定がNOの場合には、ステップS2に戻り、マスターロボット10との相対位置関係が算出されたスレーブロボット20がn台に達するまで、ステップS2からステップS18の手順が繰り返される。
MR T C・C T P・P T SR21 = MR T SR21 Expression (1)
After calculating the relative positions of the
これにより、スレーブロボット座標系ΣSR22から見たキャリブレーションプレート70の位置姿勢に基づいて、マスターロボット10とスレーブロボット22との相対位置が算出され、スレーブロボット座標系ΣSR23から見たキャリブレーションプレート70の位置姿勢に基づいて、マスターロボット10とスレーブロボット23との相対位置が算出され、スレーブロボット座標系ΣSR24から見たキャリブレーションプレート70の位置姿勢に基づいて、マスターロボット10とスレーブロボット24との相対位置が算出され、といった具合に、マスターロボット10とn台のスレーブロボット20との相対位置が次々と算出されていく。一方、ステップS19での判定がYESの場合には、ステップS20へ進む。
As a result, the relative position between the
〈手順(4)について〉
次のステップS20では、ステレオカメラ60がワークWの特徴部を撮像する。なお、ワークWにおける特徴部が立体形状であれば、かかる特徴部の画像データからワークWの姿勢を算出することが可能であるが、ワークWにおける特徴部が例えば孔(特徴点)等であれば、ワークWの姿勢を算出するには、3つ以上の特徴点の画像データが必要となる。
<Regarding procedure (4)>
In the next step S20, the
次のステップS21では、画像処理装置90のアプリケーションソフト90bが、ワークWに対するマスターロボット10の補正量を算出する。具体的には、ワークWにおける特徴部をステレオカメラ60によって撮像し、かかる画像データから取得される特徴部の位置と、例えば予め記憶された設計位置とを比較することで、マスターロボット10のワークWに対する補正量(ズレ量)を算出する。
In the next step S21, the
〈手順(5)について〉
次のステップS22では、画像処理装置90のアプリケーションソフト90bが、マスターロボット10およびn台のスレーブロボット20を含む全ロボットの姿勢を補正した後、ENDする。
<Regarding procedure (5)>
In the next step S22, the
より詳しくは、ステップS18においてマスターロボット10とn台のスレーブロボット20との相対位置が算出されているとともに、ステップS21においてワークWに対するマスターロボット10の補正量が算出されていることから、マスターロボット10と各スレーブロボット20との相対位置に補正量を合算することで、ワークWに対する各スレーブロボット20の補正量を容易に算出することができる。そうして、かかる補正量を、図1の二点鎖線矢印で示すように、画像処理装置90からロボット制御盤40,50へ送信することで、各ロボット制御盤40,50のROMに記憶された教示データが修正され、修正された教示データ通りに、各ロボット10,20を動作させることで、ワークWに対して溶接や組立等の所定作業を正確に行うことが可能となる。
More specifically, since the relative positions of the
以上のように、本実施形態に係るロボットシステム1によれば、スレーブロボット20が何台であっても、マスターロボット10に取り付けられた1台のステレオカメラ60を用いて、マスターロボット10とスレーブロボット20との相対位置を取得(計測)することができるとともに、全ロボットの姿勢を容易に補正することが可能であることから、設備コストの低減を図ることができる。
As described above, according to the
しかも、1台の画像処理装置90で処理可能であることから、従来はロボット毎に必要とされたパーソナルコンピュータをHUB80で共有することができるので、従来のロボットシステムに比して、設備コストの低減をより一層図ることができる。
Moreover, since processing can be performed by one
また、ステレオカメラ60が取り付けられたマスターロボット10を、スレーブロボット20に取り付けられたキャリブレーションプレート70を見渡せる位置に設置さえすれ
ば、マスターロボット10とスレーブロボット20との相対位置を計測可能であることから、ロボット同士の物理的な接触を伴う従来のロボットシステムに比して、レイアウトの自由度を高めることができる。
In addition, the relative position between the
加えて、マスターロボット10とスレーブロボット20との相対位置計測の際にロボット同士の物理的な接触を伴わないことから、ワークWに対するロボット10,20の姿勢を正確に補正することができる。
In addition, since the relative positions of the
したがって、本実施形態によれば、複数のロボット10,20を用いる場合でも、設備コストの低減およびレイアウトの自由度の向上を図りつつ、ワークWに対するロボット10,20の姿勢を容易かつ正確に補正することが可能となる。
Therefore, according to the present embodiment, even when a plurality of
-実施形態の応用例-
〈応用例1〉
図4は、ロボットシステム1の応用例1を模式的に示す図である。この応用例1は、セル3内に収容された複数台のロボット10,20が溶接や組立等の種々の作業を行う、セル生産方式にロボットシステム1を適用したものである。図4に示すロボットシステム1は、1台のマスターロボット10と、8台のスレーブロボット21~28と、を備えている。8台のロボット制御盤51,52,53,54,55,56,57,58は、スレーブロボット21,22,23,24,25,26,27,28にそれぞれ対応している。なお、マスターロボット10およびスレーブロボット21,22,23,25,26,27,28には、ツール30として抵抗溶接機(図示せず)が取り付けられている。これに対し、クロスハッチングが施されたスレーブロボット24には、ツール30として、溶接作業の際にメインボデーW1を固定するためのマテリアルハンド31(図7参照)が取り付けられている。
- Application example of the embodiment -
<Application example 1>
FIG. 4 is a diagram schematically showing an application example 1 of the
上述の如く、ワークWにおける特徴部が例えば孔(特徴点)等であれば、ワークWの姿勢を算出するには、3つ以上の特徴点の画像データが必要となる。しかも、姿勢の算出精度を高めるには、できるだけ離れた(できるだけ遠い位置にある)特徴点を撮像することが好ましい。 As described above, if the characteristic portion of the workpiece W is, for example, a hole (characteristic point), image data of three or more characteristic points are required to calculate the posture of the workpiece W. FIG. Moreover, in order to improve the accuracy of posture calculation, it is preferable to capture an image of a feature point that is as far away as possible (located as far away as possible).
ここで、相対的に小さなワークWの場合には、例えばマスターロボット10に取り付けられた1台のステレオカメラ60だけで、ワークWに形成された3つ以上の特徴点を撮像することが可能であるが、図4に示すような、相対的に大きなメインボデーW1の場合には、1台のステレオカメラ60だけでは、メインボデーW1に形成された、互いに離れた3つ以上の特徴点P1,P2,P3を撮像することが困難となる。
Here, in the case of a relatively small work W, for example, only one
そこで、図4に示すロボットシステム1では、スレーブロボット27,28に、キャリブレーションプレート70のみならず、ステレオカメラ61,62を取り付けるようにしている。なお、請求項との関係では、本応用例のスレーブロボット27,28が、本発明でいうところの「基準物体およびステレオカメラが取り付けられたもの」に相当する。
Therefore, in the
この場合も、マスターロボット10と複数のスレーブロボット21,22,23,…との相対位置は、飽く迄マスターロボット10に取り付けられた1台のステレオカメラ60を用いて算出される。そうして、スレーブロボット座標系ΣSR27から見たステレオカメラ61の位置姿勢、および、スレーブロボット座標系ΣSR28から見たステレオカメラ62の位置姿勢は、セル3内に設置されたキャリブレーションプレート(図示せず)をステレオカメラ61,62で撮像した画像データに基づいて算出される。
Also in this case, the relative positions of the
図4に示すように、マスターロボット10に取り付けられたステレオカメラ60で特徴
点P1を撮像し、且つ、スレーブロボット27に取り付けられたステレオカメラ61で特徴点P2を撮像し、且つ、スレーブロボット28に取り付けられたステレオカメラ62で特徴点P3を撮像する。こように、マスターロボット10に取り付けられたステレオカメラ60のみならず、スレーブロボット27,28に取り付けられたステレオカメラ61,62をも用いることで、相対的に大きなメインボデーW1に形成された、互いに離れた3つの特徴点P1,P2,P3を撮像することが可能となる。
As shown in FIG. 4, the
画像処理装置90は、マスターロボット10およびスレーブロボット27,28に取り付けられたステレオカメラ60,61,62によって撮像された、メインボデーW1における3つの特徴点P1,P2,P3のデータに基づき、メインボデーW1に対するマスターロボット10の補正量を算出するとともに、マスターロボット10と複数のスレーブロボット21,22,23,…との相対位置と、当該補正量とに基づいて、マスターロボット10および複数のスレーブロボット21,22,23,…の姿勢を補正するように構成されている。これにより、ワークWの大小に左右されることなく、メインボデーW1に対するロボット10,21,22,23,…の姿勢を容易かつ正確に補正することができる。
The
なお、図4に示す相対的に小さなワークW2に対して所定作業を行う場合に、すべてのロボット10,21,22,23,…の姿勢を補正すると、無駄が多くなる。それ故、この場合には、例えば、ワークW2に一番近いスレーブロボット27に取り付けられたステレオカメラ61を用いて、ワークW2における3つの特徴点P1’,P2’,P3’を撮像し、撮像された画像データに基づいて算出された補正量をロボット制御盤55のみに送信し、スレーブロボット25のみで溶接等を行うようにしてもよい。
It should be noted that correcting the postures of all the
〈応用例2〉
図5は、ロボットシステム1の応用例2を模式的に示す図である。この応用例2は、搬送装置によって流れてくるワークWに所定作業を行うライン生産方式にロボットシステム1を適用したものである。
<Application example 2>
FIG. 5 is a diagram schematically showing an application example 2 of the
図6は、車両のメインボデーW1における特徴点P1,P2を模式的に示す図である。メインボデーW1には、図6の太枠で示すように、車幅方向左側のAピラーAPに特徴点P1としての孔が形成されているとともに、車幅方向左側のCピラーCPに特徴点P2としての孔が形成されている。なお、車幅方向右側のAピラーおよびCピラー(共に図示せず)にも同様に、特徴点P1および特徴点P2としての孔がそれぞれ形成されている。 FIG. 6 is a diagram schematically showing characteristic points P1 and P2 on the main body W1 of the vehicle. In the main body W1, as shown by the thick frame in FIG. 6, a hole as a characteristic point P1 is formed in the A-pillar AP on the left side in the vehicle width direction, and a characteristic point P2 is formed in the C-pillar CP on the left side in the vehicle width direction. A hole is formed as Similarly, the A pillar and the C pillar (both not shown) on the right side in the vehicle width direction are similarly formed with holes as characteristic points P1 and P2, respectively.
そうして、図5の太枠で示すように、メインボデーW1の左側に配置されたマスターロボット10に取り付けられたステレオカメラ60で、左側の特徴点P1および特徴点P2を撮像するとともに、メインボデーW1の右側に配置されたスレーブロボット20に取り付けられたステレオカメラ61で、右側の特徴点P1および特徴点P2を撮像することで、インラインでの、メインボデーW1に対するマスターロボット10および複数のスレーブロボット20の姿勢の補正が可能となる。
Then, as shown by the thick frame in FIG. 5, the
-実施形態の変形例-
上記実施形態では、ステレオカメラ60とキャリブレーションプレート70とを用いて、マスターロボット10とスレーブロボット20との相対位置を算出(計測)するに止めたが、本変形例では、相対位置の算出精度を確認する点が、上記実施形態と異なるものである。以下、実施形態と異なる点を中心に説明する。
-Modified example of embodiment-
In the above embodiment, the
図7は、スレーブロボット20に取り付けられるマテリアルハンド31を模式的に示す図である。スレーブロボット20のロボットアーム20a先端に取り付けられるマテリア
ルハンド31には、図7の太枠で示すように、2つの孔からなる測定点MP1,MP2が設けられている。
FIG. 7 is a diagram schematically showing the
そうして、本変形例では、マスターロボット10とスレーブロボット20との相対位置に基づいて算出された測定点MP1,MP2の位置と、ステレオカメラ60により撮像された測定点MP1,MP2の位置と、を比較することによって、マスターロボット10とスレーブロボット20との相対位置の算出精度を確認するように、画像処理装置90を構成している。
Then, in this modification, the positions of the measurement points MP1 and MP2 calculated based on the relative positions of the
具体的には、スレーブロボット座標系ΣSRから見た測定点MP1,MP2の位置姿勢は、ロボット固有値やマテリアルハンド31の諸元から既知であるとともに、マスターロボット10とスレーブロボット20との相対位置は算出済みであることから、(A)マスターロボット10→スレーブロボット20→測定点MP1,MP2というルートで、マスターロボット座標系ΣMRにおける測定点MP1,MP2の位置(座標)を算出することができる。
Specifically, the positions and orientations of the measurement points MP1 and MP2 viewed from the slave robot coordinate system Σ SR are known from the robot eigenvalues and specifications of the
一方、(B)マスターロボット10→ステレオカメラ60→測定点MP1,MP2というルートでも、マスターロボット座標系ΣMRにおける測定点MP1,MP2の位置(座標)を算出することができる。 On the other hand, the positions (coordinates) of the measurement points MP1 and MP2 in the master robot coordinate system .SIGMA.MR can also be calculated by (B) the route of master robot 10.fwdarw.stereo camera 60.fwdarw.measuring points MP1 and MP2.
このように、異なるルート(A)および(B)で取得された測定点MP1,MP2の位置(座標)を比較することで、マスターロボット10とスレーブロボット20との相対位置の算出精度を確認することができ、これにより、ワークWに対するロボット10,20の姿勢をより一層正確に補正することが可能となる。
By comparing the positions (coordinates) of the measurement points MP1 and MP2 obtained by different routes (A) and (B) in this way, the calculation accuracy of the relative position between the
(その他の実施形態)
本発明は、実施形態に限定されず、その精神又は主要な特徴から逸脱することなく他の色々な形で実施することができる。
(Other embodiments)
This invention is not limited to embodiments and can be embodied in various other forms without departing from its spirit or essential characteristics.
上記実施形態のフローチャートでは、或るスレーブロボット20におけるキャリブレーションプレート70の撮像および相対位置の算出を行った後、次のスレーブロボット20におけるキャリブレーションプレート70の撮像および相対位置の算出を行うようにしたが、これに限らず、すべてのスレーブロボット20におけるキャリブレーションプレート70の撮像を行った後、すべてのスレーブロボット20における相対位置の算出を行うようにしてもよい。
In the flowchart of the above embodiment, after imaging the
また、上記実施形態の変形例では、マテリアルハンド31に測定点MP1,MP2を設けたが、これに限らず、マテリアルハンド31以外のツール30に測定点を設けてもよい。
Further, in the modified example of the above embodiment, the measurement points MP1 and MP2 are provided on the
このように、上述の実施形態はあらゆる点で単なる例示に過ぎず、限定的に解釈してはならない。さらに、特許請求の範囲の均等範囲に属する変形や変更は、全て本発明の範囲内のものである。 Thus, the above-described embodiments are merely examples in all respects and should not be construed in a restrictive manner. Furthermore, all modifications and changes within the equivalent range of claims are within the scope of the present invention.
本発明によると、複数のロボットを用いる場合でも、設備コストの低減およびレイアウトの自由度の向上を図りつつ、ワークに対するロボットの姿勢を容易かつ正確に補正することができるので、ワークに対して、複数のロボットを用いて所定作業を行うロボットシステムに適用して極めて有益である。 According to the present invention, even when a plurality of robots are used, it is possible to easily and accurately correct the posture of the robots with respect to the work while reducing equipment costs and improving the degree of freedom in layout. It is extremely useful when applied to a robot system that uses a plurality of robots to perform a predetermined task.
1 ロボットシステム
10 マスターロボット
10a ロボットアーム
20 スレーブロボット
20a ロボットアーム
31 マテリアルハンド(ツール)
60,61,62 ステレオカメラ
70 キャリブレーションプレート(基準物体)
90 画像処理装置(処理装置)
P1,P2,P3 特徴点(特徴部)
P1’,P2’,P3’ 特徴点(特徴部)
W1 メインボデー(ワーク)
W2 ワーク
MP1,MP2 測定点
1
60, 61, 62
90 image processing device (processing device)
P1, P2, P3 feature point (feature part)
P1', P2', P3' feature point (feature part)
W1 Main body (workpiece)
W2 Workpiece MP1, MP2 Measurement point
Claims (3)
ステレオカメラが取り付けられたマスターロボットと、
基準物体が取り付けられたスレーブロボットと、
上記マスターロボットおよびスレーブロボットを制御可能で、且つ、上記ステレオカメラによって撮像された画像を取得可能な処理装置と、を備え、
上記処理装置は、
上記スレーブロボットを静止させた状態で、上記マスターロボットに複数の姿勢をとらせた際に上記ステレオカメラによって撮像された上記基準物体の複数の画像に基づいて、上記マスターロボットの座標系から見た上記ステレオカメラの位置姿勢と、上記ステレオカメラの座標系から見た上記基準物体の位置姿勢と、を算出し、且つ、
上記マスターロボットを静止させた状態で、上記スレーブロボットに複数の姿勢をとらせた際に上記ステレオカメラによって撮像された上記基準物体の複数の画像に基づいて、上記スレーブロボットの座標系から見た当該基準物体の位置姿勢を算出し、
これらの算出結果を座標変換することで、上記マスターロボットと上記スレーブロボットとの相対位置を算出するとともに、
上記ステレオカメラによって撮像された、上記ワークにおける特徴部の画像に基づき、当該ワークに対する上記マスターロボットの補正量を算出し、
上記マスターロボットと上記スレーブロボットとの相対位置と、上記補正量と、に基づいて、上記マスターロボットおよびスレーブロボットの姿勢を補正するように構成されていることを特徴とするロボットシステム。 A robot system that performs predetermined work on a workpiece using a plurality of robots,
A master robot with a stereo camera attached,
a slave robot to which a reference object is attached;
a processing device capable of controlling the master robot and the slave robot and capable of acquiring images captured by the stereo camera;
The processing device is
Based on a plurality of images of the reference object captured by the stereo camera when the master robot is caused to take a plurality of postures while the slave robot is stationary, a view from the coordinate system of the master robot is obtained. calculating the position and orientation of the stereo camera and the position and orientation of the reference object viewed from the coordinate system of the stereo camera; and
Based on a plurality of images of the reference object captured by the stereo camera when the master robot is kept stationary and the slave robot is caused to take a plurality of postures, a view from the coordinate system of the slave robot is obtained. calculating the position and orientation of the reference object;
By transforming the coordinates of these calculation results, the relative positions of the master robot and the slave robot are calculated,
calculating the correction amount of the master robot for the work based on the image of the characteristic part of the work taken by the stereo camera;
A robot system configured to correct postures of the master robot and the slave robot based on the relative positions of the master robot and the slave robot and the correction amount.
上記スレーブロボットを複数備え、
上記複数のスレーブロボットには、上記基準物体およびステレオカメラが取り付けられたものが含まれており、
上記処理装置は、上記マスターロボットおよびスレーブロボットに取り付けられたステレオカメラによって撮像された、上記ワークにおける複数の特徴部の画像に基づき、当該ワークに対する当該マスターロボットの補正量を算出するとともに、当該マスターロボットと上記複数のスレーブロボットとの相対位置と、当該補正量とに基づいて、当該マスターロボットおよび複数のスレーブロボットの姿勢を補正するように構成されていることを特徴とするロボットシステム。 In the robot system according to claim 1,
Equipped with multiple slave robots,
The plurality of slave robots include those to which the reference object and the stereo camera are attached,
The processing device calculates a correction amount of the master robot for the work based on images of a plurality of characteristic portions of the work captured by stereo cameras attached to the master robot and the slave robot, and calculates the correction amount of the master robot for the work. A robot system configured to correct postures of a master robot and a plurality of slave robots based on relative positions of the robot and the plurality of slave robots and correction amounts.
上記スレーブロボットのアーム先端に取り付けられるツールには、測定点が設けられており、
上記処理装置は、上記マスターロボットと上記スレーブロボットとの相対位置に基づいて算出された上記測定点の位置と、上記ステレオカメラにより撮像された上記測定点の位置と、を比較することによって、上記マスターロボットと上記スレーブロボットとの相対位置の算出精度を確認するように構成されていることを特徴とするロボットシステム。 In the robot system according to claim 1,
The tool attached to the tip of the arm of the slave robot is provided with a measurement point,
The processing device compares the position of the measurement point calculated based on the relative positions of the master robot and the slave robot with the position of the measurement point captured by the stereo camera, thereby A robot system configured to check the calculation accuracy of the relative positions of a master robot and the slave robot.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021088980A JP2022181810A (en) | 2021-05-27 | 2021-05-27 | robot system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021088980A JP2022181810A (en) | 2021-05-27 | 2021-05-27 | robot system |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022181810A true JP2022181810A (en) | 2022-12-08 |
Family
ID=84328074
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021088980A Pending JP2022181810A (en) | 2021-05-27 | 2021-05-27 | robot system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2022181810A (en) |
-
2021
- 2021-05-27 JP JP2021088980A patent/JP2022181810A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109227601B (en) | Control device, robot system, and correction method | |
JP4021413B2 (en) | Measuring device | |
JP3733364B2 (en) | Teaching position correction method | |
US9517563B2 (en) | Robot system using visual feedback | |
CN109227532B (en) | Robot control device and system thereof, robot and camera correction method | |
JP7035657B2 (en) | Robot control device, robot, robot system, and camera calibration method | |
JP5742862B2 (en) | Robot apparatus and workpiece manufacturing method | |
JP4191080B2 (en) | Measuring device | |
JP3665353B2 (en) | 3D position correction amount acquisition method of robot teaching position data and robot system | |
JP6429473B2 (en) | Robot system, robot system calibration method, program, and computer-readable recording medium | |
JP5365379B2 (en) | Robot system and robot system calibration method | |
KR20080088165A (en) | Robot calibration method | |
JP5618770B2 (en) | Robot calibration apparatus and calibration method | |
JP2015136770A (en) | Data creation system of visual sensor, and detection simulation system | |
US11123864B2 (en) | Motion teaching apparatus, robot system, and motion teaching method | |
JP2774939B2 (en) | Robot tool parameter derivation method and calibration method | |
US7957834B2 (en) | Method for calculating rotation center point and axis of rotation, method for generating program, method for moving manipulator and positioning device, and robotic system | |
US8761936B2 (en) | Teaching line correcting apparatus, teaching line correcting method, and program thereof | |
JPH05261682A (en) | Industrial robot calibration method | |
JP2022181810A (en) | robot system | |
CN111844017B (en) | Display method | |
CN114474069A (en) | Robot line structure optical hand-eye calibration method based on space orthogonal constraint | |
JP2021186929A (en) | Control method for multi-axis robot | |
WO2023053374A1 (en) | Control device and robot system | |
US20230031819A1 (en) | Positioning method and positioning device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20240212 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20240828 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240917 |