JP2015062991A - Coordinate system calibration method, robot system, program, and recording medium - Google Patents

Coordinate system calibration method, robot system, program, and recording medium Download PDF

Info

Publication number
JP2015062991A
JP2015062991A JP2014170040A JP2014170040A JP2015062991A JP 2015062991 A JP2015062991 A JP 2015062991A JP 2014170040 A JP2014170040 A JP 2014170040A JP 2014170040 A JP2014170040 A JP 2014170040A JP 2015062991 A JP2015062991 A JP 2015062991A
Authority
JP
Japan
Prior art keywords
robot
teaching point
obstacle
calibrator
coordinate system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014170040A
Other languages
Japanese (ja)
Other versions
JP6489776B2 (en
Inventor
新吾 天野
Shingo Amano
新吾 天野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2014170040A priority Critical patent/JP6489776B2/en
Publication of JP2015062991A publication Critical patent/JP2015062991A/en
Application granted granted Critical
Publication of JP6489776B2 publication Critical patent/JP6489776B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Manipulator (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a coordinate system calibration method for making it unnecessary for a user to search, by a trial-and-error method, the teaching point at which a robot and such one out of a calibrator and a visual sensor as is supported by the robot do not interfere with an obstacle.SOLUTION: A CAD (Computer Aided Design) data is used to perform calculation for making a robot virtually act on a teaching point, thereby to determine whether or not the robot or a calibrator interferes with an obstacle (S4). If it is determined that the robot or the calibrator interferes with the obstacle when the robot is virtually caused to act on the teaching point (S4: Yes), the position and attitude of the robot, in which the robot and the calibrator do not interfere with the obstacle, is searched (S8). Next, in the case that the position and attitude of the robot in which the robot and the calibrator do not interfere with the obstacle is found (S8: Yes), the teaching point is reset on the basis of the found position and attitude of the robot (S9).

Description

本発明は、ロボットを基準とした座標系と視覚センサを基準とした座標系との校正を行う座標系校正方法、ロボットシステム、プログラム及び記録媒体に関する。   The present invention relates to a coordinate system calibration method, a robot system, a program, and a recording medium for calibrating a coordinate system based on a robot and a coordinate system based on a visual sensor.

近年、工場の生産ラインにおいて、作業の自動化・省人化を図るために、ロボットによる自動組立が多くなってきた。そこでは、ロボットと視覚センサとを組合せたロボットシステムが利用されている。特に最近では、作業対象物となるワークを、視覚センサを用いて3次元計測する必要性が高くなっている。   In recent years, automatic assembly by robots has increased in order to automate and save labor in factory production lines. There, a robot system combining a robot and a visual sensor is used. In particular, recently, there is an increasing need to three-dimensionally measure a workpiece that is a work target using a visual sensor.

ロボットは、ロボットアームと、ロボットアームの先端に取り付けられたロボットハンドとを有している。視覚センサは、ロボットまたはロボットの周囲にある枠体に固定されている。   The robot has a robot arm and a robot hand attached to the tip of the robot arm. The visual sensor is fixed to the robot or a frame around the robot.

視覚センサを用いてワークの位置姿勢を計測し、それに基づいてロボットの動作を補正する場合、視覚センサを用いて計測した、ビジョン座標系におけるワークの位置姿勢データを、ロボットが動作する座標系のデータに変換する必要がある。ここで、ロボットの座標系には、ロボットアームを基準とするロボット座標系と、ロボットハンドを基準とするツール座標系とがある。ゆえに、ビジョン座標系と、ロボット座標系又はツール座標系との間の関係を予め求めておかなければならない。これら座標系間の校正を、一般的にはハンドアイキャリブレーションと呼ぶ。   When measuring the position and orientation of a workpiece using a visual sensor and correcting the movement of the robot based on it, the position and orientation data of the workpiece in the vision coordinate system, measured using the visual sensor, are stored in the coordinate system where the robot operates. Need to convert to data. Here, the robot coordinate system includes a robot coordinate system based on the robot arm and a tool coordinate system based on the robot hand. Therefore, the relationship between the vision coordinate system and the robot coordinate system or tool coordinate system must be obtained in advance. Calibration between these coordinate systems is generally called hand-eye calibration.

ハンドアイキャリブレーションを行う方法として、正確な設計データが明らかな特別な校正器を用いる方法がある(特許文献1参照)。校正器は、視覚センサを用いて計測可能なマーカと、マーカが固定される校正治具とを有して構成される。ここでいうマーカは、視覚センサにとって計測精度が高いワークのことである。マーカは校正治具に対して、どこに固定されているかは正確な設計データがあり、明らかなものを用いる。また、校正治具がロボットに対して、どこに固定されているかも正確な設計データがあり、明らかなものを用いる。校正器の位置姿勢を、視覚センサを用いて計測することによって、座標系間の関係が明らかとなり、ビジョン座標系とロボット座標系(又はツール座標系)との相対位置姿勢を求めることができる。   As a method for performing hand-eye calibration, there is a method using a special calibrator whose accurate design data is clear (see Patent Document 1). The calibrator includes a marker that can be measured using a visual sensor and a calibration jig to which the marker is fixed. The marker here is a work having high measurement accuracy for the visual sensor. There is accurate design data on where the marker is fixed with respect to the calibration jig, and an obvious one is used. Also, there is accurate design data on where the calibration jig is fixed with respect to the robot, and an obvious one is used. By measuring the position and orientation of the calibrator using a visual sensor, the relationship between the coordinate systems becomes clear, and the relative position and orientation between the vision coordinate system and the robot coordinate system (or tool coordinate system) can be obtained.

この特許文献1の方法では、正確な設計データが明らかな特別な校正治具を必要としており、コストアップとなるため、正確な設計データが明らかな特別な校正治具を用いない方法も提案されている(特許文献2参照)。   The method of Patent Document 1 requires a special calibration jig in which accurate design data is clear, which increases the cost. Therefore, a method not using a special calibration jig in which accurate design data is clear is also proposed. (See Patent Document 2).

特許文献2の方法では、視覚センサを用いて計測可能なマーカは必要であるが、マーカが校正治具のどこに固定されているかは明らかでなくて良い。代わりに、校正点近傍でロボットを動作させることでマーカと視覚センサとの相対位置姿勢を3点以上取得し、各点でマーカを、視覚センサを用いて計測する。各点で得られたロボット座標系とツール座標系(ハンド座標系)との相対位置姿勢と、ビジョン座標系とマーカ座標系との相対位置姿勢から連立方程式を立てる。それを最適化計算で解くことによって、ビジョン座標系とロボット座標系との相対位置姿勢を求めることができる。   In the method of Patent Document 2, a marker that can be measured using a visual sensor is necessary, but it is not necessarily clear where the marker is fixed on the calibration jig. Instead, three or more relative positions and orientations between the marker and the visual sensor are acquired by operating the robot near the calibration point, and the marker is measured at each point using the visual sensor. Simultaneous equations are established from the relative position and orientation between the robot coordinate system and the tool coordinate system (hand coordinate system) obtained at each point and the relative position and orientation between the vision coordinate system and the marker coordinate system. By solving this by optimization calculation, the relative position and orientation between the vision coordinate system and the robot coordinate system can be obtained.

特許第2700965号公報Japanese Patent No. 2700985 特許第3644991号公報Japanese Patent No. 3644991

しかしながら、特許文献1,2においては、教示点が予め教示されているのが前提であり、ロボット、或いはロボットに支持された校正器又は視覚センサが、障害物と干渉することを考慮していない。実際にはロボットの周辺には固定治具類等の障害物があり、ロボットの動作により、障害物との干渉が発生するおそれがある。そのため、ユーザは、障害物との干渉が生じない、校正に用いることができる教示点を試行錯誤で探索する必要があり、その探索作業が煩雑であったので、教示点を決定することが困難であった。   However, Patent Documents 1 and 2 are based on the premise that teaching points are taught in advance, and do not consider that the robot, or a calibrator or visual sensor supported by the robot interferes with an obstacle. . Actually, there are obstacles such as fixing jigs around the robot, and there is a possibility that interference with the obstacle occurs due to the operation of the robot. Therefore, it is necessary for the user to search for teaching points that can be used for calibration without interference with obstacles, and the search operation is complicated, so it is difficult to determine the teaching points. Met.

そこで、本発明は、ロボットと、校正器及び視覚センサのうちロボットに支持されたいずれか一方の部材とが障害物に干渉しない教示点を、ユーザが試行錯誤で探索する必要がなくなるようにすることを目的とする。   Therefore, the present invention eliminates the need for the user to search for a teaching point where the robot and any one of the calibrator and the visual sensor supported by the robot do not interfere with the obstacle by trial and error. For the purpose.

本発明は、ロボットが校正器及び視覚センサのうちいずれか一方の部材を支持し、制御部により前記ロボットを教示点で教示された位置姿勢に動作させて、前記視覚センサに前記校正器を撮像させ、撮像画像の処理結果に基づいて、前記ロボットを基準とした座標系と前記視覚センサを基準とした座標系との校正を行う座標系校正方法において、前記制御部が、前記教示点を設定する設定工程と、前記制御部が、少なくとも前記ロボット、前記一方の部材、及び前記ロボットの動作の障害となり得る障害物に関する立体形状データを取得する取得工程と、前記制御部が、前記立体形状データを用いて、前記教示点に前記ロボットを仮想的に動作させる演算を行い、前記ロボット又は前記一方の部材が前記障害物に干渉するか否かを判断する干渉判断工程と、前記制御部が、前記干渉判断工程において、前記教示点に前記ロボットを仮想的に動作させた際に前記ロボット又は前記一方の部材が前記障害物に干渉すると判断したときには、前記ロボット及び前記一方の部材が前記障害物に干渉しない前記ロボットの位置姿勢を探索する探索工程と、前記制御部が、前記探索工程において、前記ロボット及び前記一方の部材が前記障害物に干渉しない前記ロボットの位置姿勢を探し当てた場合には、探し当てた前記ロボットの位置姿勢に基づき、前記教示点を再設定する再設定工程と、を備えたことを特徴とする。   In the present invention, the robot supports one member of the calibrator and the visual sensor, and the control unit moves the robot to the position and orientation taught at the teaching point, thereby imaging the calibrator on the visual sensor. In the coordinate system calibration method for calibrating the coordinate system based on the robot and the coordinate system based on the visual sensor based on the processing result of the captured image, the control unit sets the teaching point. A setting step, an acquisition step in which the control unit acquires at least the robot, the one member, and an obstacle that may be an obstacle to the operation of the robot, and the control unit includes the solid shape data. Is used to perform an operation to virtually operate the robot at the teaching point, and to determine whether the robot or the one member interferes with the obstacle. When the determination step and the control unit determine that the robot or the one member interferes with the obstacle when the robot is virtually operated to the teaching point in the interference determination step, the robot And a search step for searching for a position and orientation of the robot in which the one member does not interfere with the obstacle, and the control unit includes the robot in which the robot and the one member do not interfere with the obstacle in the search step. And a resetting step of resetting the teaching point based on the found position and orientation of the robot.

本発明によれば、ロボットと、校正器及び視覚センサのうちロボットに支持されたいずれか一方の部材とが障害物に干渉しない教示点を、自動で探索することで、ユーザが試行錯誤で探索する必要がなくなり、ユーザの負担が軽減する。   According to the present invention, a user can search by trial and error by automatically searching for a teaching point where the robot and any one of the calibrator and the visual sensor supported by the robot do not interfere with the obstacle. This reduces the burden on the user.

第1実施形態に係るロボットシステムの概略構成を示す説明図である。It is explanatory drawing which shows schematic structure of the robot system which concerns on 1st Embodiment. 第1実施形態に係るロボットシステムの構成を示すブロック図である。It is a block diagram which shows the structure of the robot system which concerns on 1st Embodiment. マーカの表面を示す模式図である。It is a schematic diagram which shows the surface of a marker. 第1実施形態に係る座標系校正方法のフローチャートである。It is a flowchart of the coordinate system calibration method which concerns on 1st Embodiment. 第1実施形態で用いるカメラと校正器との相対位置姿勢および教示点を例示した模式図である。It is the schematic diagram which illustrated the relative position and orientation of the camera and calibrator which are used in 1st Embodiment, and a teaching point. ロボットが障害物と干渉する場合の教示点の再設定方法を例示した模式図である。It is the schematic diagram which illustrated the resetting method of the teaching point in case a robot interferes with an obstruction. 第2実施形態に係るロボットシステムの概略構成を示す説明図である。It is explanatory drawing which shows schematic structure of the robot system which concerns on 2nd Embodiment. 第2実施形態に係る座標系校正方法のフローチャートである。It is a flowchart of the coordinate system calibration method which concerns on 2nd Embodiment.

以下、本発明を実施するための形態を、図面を参照しながら詳細に説明する。   Hereinafter, embodiments for carrying out the present invention will be described in detail with reference to the drawings.

[第1実施形態]
図1は、本発明の第1実施形態に係るロボットシステムの概略構成を示す説明図である。ロボットシステム10は、ロボット300、制御装置400、視覚センサとしてのカメラ500、架台20、及び枠体30を備えている。制御装置400は、ロボット制御装置100と、画像処理装置200とで構成されている。
[First Embodiment]
FIG. 1 is an explanatory diagram showing a schematic configuration of the robot system according to the first embodiment of the present invention. The robot system 10 includes a robot 300, a control device 400, a camera 500 as a visual sensor, the gantry 20, and a frame 30. The control device 400 includes the robot control device 100 and the image processing device 200.

ロボット300は、多関節(例えば6関節)のロボットアーム301と、ロボットアーム301の先端に取り付けられたエンドエフェクタとしてのロボットハンド302とを有している。ロボットアーム301の基端は、架台20上に固定されている。   The robot 300 has a multi-joint (for example, six joints) robot arm 301 and a robot hand 302 as an end effector attached to the tip of the robot arm 301. The base end of the robot arm 301 is fixed on the gantry 20.

ロボットハンド302は、ワーク等の物体を把持することが可能に構成されており、例えば複数のフィンガーを有し、複数のフィンガーの開閉動作により、物体の把持と把持解放とが可能となっている。   The robot hand 302 is configured to be able to grip an object such as a workpiece. For example, the robot hand 302 includes a plurality of fingers, and can grip and release an object by opening and closing the plurality of fingers. .

枠体30は、例えば直方体状の骨組み構造であり、例えば架台20上に固定されている。図1では、枠体30の天部を図示している。   The frame 30 has a rectangular parallelepiped frame structure, for example, and is fixed on the gantry 20, for example. In FIG. 1, the top of the frame 30 is illustrated.

カメラ500は、枠体30の天部に固定された固定カメラである。カメラ500は、光軸が鉛直下方向を向くように固定されている。カメラ500は、例えばCMOSイメージセンサやCCDイメージセンサ等の固体撮像素子を有するデジタルカメラである。視覚センサとしてのカメラ500は、第1実施形態では単眼カメラを用いているが、視覚センサが、複眼カメラ、レーザレンジファインダ、あるいは、それらの組合せでも良い。   The camera 500 is a fixed camera that is fixed to the top of the frame 30. The camera 500 is fixed so that the optical axis is directed vertically downward. The camera 500 is a digital camera having a solid-state image sensor such as a CMOS image sensor or a CCD image sensor. The camera 500 as a visual sensor uses a monocular camera in the first embodiment, but the visual sensor may be a compound eye camera, a laser range finder, or a combination thereof.

カメラ500と画像処理装置200とは例えばケーブル等で接続されており、画像処理装置200は、ケーブルを介してカメラ500から画像信号を取得することができる。なお、カメラ500と画像処理装置200とを無線接続して、画像処理装置200が無線によりカメラ500から画像信号を取得するように構成してもよい。   The camera 500 and the image processing apparatus 200 are connected by, for example, a cable, and the image processing apparatus 200 can acquire an image signal from the camera 500 through the cable. Note that the camera 500 and the image processing apparatus 200 may be wirelessly connected so that the image processing apparatus 200 acquires an image signal from the camera 500 wirelessly.

ロボット300とロボット制御装置100とは例えばケーブル等で接続されており、ロボット制御装置100によりロボット300の動作が制御される。また、画像処理装置200とロボット制御装置100とは例えばケーブル等で接続されており、ロボット制御装置100は、画像処理装置200から処理結果を受信可能に構成されている。   The robot 300 and the robot control apparatus 100 are connected by a cable or the like, for example, and the operation of the robot 300 is controlled by the robot control apparatus 100. Further, the image processing apparatus 200 and the robot control apparatus 100 are connected by, for example, a cable or the like, and the robot control apparatus 100 is configured to receive a processing result from the image processing apparatus 200.

画像処理装置200は、カメラ500から取得した画像信号を、濃淡グレイスケールによる明暗信号に変換した上でフレームメモリに格納する。また、フレームメモリに格納された画像を処理し、対象物の識別、位置姿勢を計測する。さらに、処理した対象物の識別結果、および位置姿勢の情報をロボット制御装置100に送信する。   The image processing apparatus 200 converts the image signal acquired from the camera 500 into a light / dark signal using a grayscale gray scale, and stores the converted signal in a frame memory. In addition, the image stored in the frame memory is processed to measure the object identification, position and orientation. Further, the processed object identification result and the position and orientation information are transmitted to the robot controller 100.

なお、画像処理装置200には、照明(不図示)が接続されていても良い。そのとき、画像処理装置200は照明の制御も行う。   Note that illumination (not shown) may be connected to the image processing apparatus 200. At that time, the image processing apparatus 200 also controls illumination.

ここで、ロボット300には、ロボット300の動作に用いられる座標系が定義されている。具体的に説明すると、ロボットアーム301を基準とするロボット座標系Cと、ロボットハンド302を基準とするツール座標系Cとが定義されている。また、カメラ500には、カメラ500により撮像された撮像画像に写り込んだワークの位置姿勢を計測する際に用いられる、カメラ500を基準とするビジョン座標系Cが定義されている。 Here, a coordinate system used for the operation of the robot 300 is defined for the robot 300. More specifically, a robot coordinate system C 1 based on the robot arm 301 and a tool coordinate system C 3 based on the robot hand 302 are defined. The camera 500 defines a vision coordinate system C 2 that is used when measuring the position and orientation of a workpiece reflected in a captured image captured by the camera 500 and based on the camera 500.

ワークをロボット300のロボットハンド302に把持させる場合やワークに加工を施す場合には、ワークをカメラ500により撮像して、ビジョン座標系Cでワークの位置姿勢を計測し、計測結果に基づいて、ロボット300の動作を補正する。したがって、製造工程を開始するに先立って、ロボット座標系Cとビジョン座標系Cとの間の校正データ(相対位置姿勢のデータ)を求める必要がある。 When subjected to machining a workpiece or if the workpiece to be gripped by the robot hand 302 of the robot 300, by imaging the workpiece by the camera 500, the position and orientation of the workpiece measured by the vision coordinate system C 2, based on the measurement results The operation of the robot 300 is corrected. Therefore, prior to starting the production process, it is necessary to obtain the calibration data between the robot coordinate system C 1 and vision coordinate system C 2 (data of the relative position and orientation).

そこで、第1実施形態では、カメラ500がロボット300以外の枠体30に固定されているので、校正に用いる校正器40をロボット300に支持させている。   Therefore, in the first embodiment, since the camera 500 is fixed to the frame 30 other than the robot 300, the calibrator 40 used for calibration is supported by the robot 300.

つまり、ロボット300は、校正器40及びカメラ500のうちいずれか一方の部材として、校正器40を支持している。そして、ロボット制御装置100は、カメラ500と校正器40との相対位置姿勢に基づいて、ロボット座標系Cとビジョン座標系Cとの間の校正データを求める。 That is, the robot 300 supports the calibrator 40 as one member of the calibrator 40 and the camera 500. Then, the robot controller 100, based on the relative position and orientation of the camera 500 and the calibrator 40 obtains the calibration data between the robot coordinate system C 1 and vision coordinate system C 2.

校正器40は、平板状に形成されたマーカ41と、マーカ41が固定された校正治具42とを有している。校正治具42は、ロボットハンド302により把持可能に構成されており、校正治具42がロボットハンド302に把持されることにより、校正器40がロボット300に支持されることとなる。図1に示すように、校正器40を基準とした座標系をマーカ座標系Cとする。なお、校正器40は、ロボットハンド302又はロボットアーム301に固定してもよい。ここで、校正治具42に対して、マーカ41がどこに固定されているかは既知でなくともよい。また、校正器40が、マーカ41と、マーカ41が固定される校正治具42とからなる場合について説明したが、校正治具に直接マーカのパターンが形成されていてもよい。 The calibrator 40 has a marker 41 formed in a flat plate shape and a calibration jig 42 to which the marker 41 is fixed. The calibration jig 42 is configured to be gripped by the robot hand 302. When the calibration jig 42 is gripped by the robot hand 302, the calibrator 40 is supported by the robot 300. As shown in FIG. 1, a coordinate system based on the calibrator 40 with the marker coordinate system C 4. The calibrator 40 may be fixed to the robot hand 302 or the robot arm 301. Here, where the marker 41 is fixed to the calibration jig 42 may not be known. Moreover, although the case where the calibrator 40 includes the marker 41 and the calibration jig 42 to which the marker 41 is fixed has been described, the marker pattern may be directly formed on the calibration jig.

図2は、ロボットシステム10の構成を示すブロック図である。ここで、図1では図示を省略しているが、ロボットシステム10は、表示装置としてのモニタ600と、入力装置としてのキーボード700とを備えている。   FIG. 2 is a block diagram showing the configuration of the robot system 10. Here, although not shown in FIG. 1, the robot system 10 includes a monitor 600 as a display device and a keyboard 700 as an input device.

ロボット制御装置100は、コンピュータで構成されており、制御部(演算部)としてのCPU(Central Processing Unit)101を備えている。また、ロボット制御装置100は、記憶部として、ROM(Read Only Memory)102、RAM(Random Access Memory)103、HDD(Hard Disk Drive)104を備えている。また、ロボット制御装置100は、記録ディスクドライブ105及び各種のインタフェース107〜110を備えている。   The robot control apparatus 100 is configured by a computer and includes a CPU (Central Processing Unit) 101 as a control unit (arithmetic unit). The robot controller 100 also includes a ROM (Read Only Memory) 102, a RAM (Random Access Memory) 103, and an HDD (Hard Disk Drive) 104 as storage units. The robot control device 100 also includes a recording disk drive 105 and various interfaces 107 to 110.

CPU101には、ROM102、RAM103、HDD104、記録ディスクドライブ105及び各種のインタフェース107〜110が、バス106を介して接続されている。ROM102には、BIOS等の基本プログラムが格納されている。   A ROM 102, a RAM 103, an HDD 104, a recording disk drive 105, and various interfaces 107 to 110 are connected to the CPU 101 via a bus 106. The ROM 102 stores basic programs such as BIOS.

RAM103には、ロボット動作や画像処理装置200への指令送信、画像処理装置200からの画像処理結果の受信等を制御するプログラム、関連設定値が一時的に格納される。さらに、RAM103は、CPU101による演算実行時の一時記憶用のメモリや必要に応じて設定されるレジスタ領域としても使用される。   The RAM 103 temporarily stores a program for controlling robot operation, command transmission to the image processing apparatus 200, reception of image processing results from the image processing apparatus 200, and related setting values. Further, the RAM 103 is also used as a temporary storage memory when the CPU 101 executes operations and as a register area set as necessary.

HDD104は、CPU101の演算処理結果や外部から取得した各種データ等を記憶すると共に、CPU101に、システム全体10を制御するプログラムや、座標系校正方法の各工程を実行させるためのプログラム120を記録するものである。CPU101は、HDD104に記録(格納)されたプログラム120に基づいて各種演算処理(座標系校正方法の各工程)を実行する。   The HDD 104 stores calculation processing results of the CPU 101, various data acquired from the outside, and the like, and also records a program for controlling the entire system 10 and a program 120 for executing each step of the coordinate system calibration method. Is. The CPU 101 executes various arithmetic processes (each step of the coordinate system calibration method) based on the program 120 recorded (stored) in the HDD 104.

HDD104には、ロボット300、カメラ500、校正器40、及び固定治具などのロボット周辺に配置され、ロボット300の動作の障害となり得る障害物60(図1)を含むシステム全体の3次元形状データ(CADデータ)が格納されている。   The HDD 104 is arranged around the robot such as the robot 300, the camera 500, the calibrator 40, and the fixing jig, and the three-dimensional shape data of the entire system including the obstacle 60 (FIG. 1) that can interfere with the operation of the robot 300. (CAD data) is stored.

記録ディスクドライブ105は、記録ディスク800に記録された各種データやプログラム等を読み出すことができる。   The recording disk drive 105 can read various data and programs recorded on the recording disk 800.

インタフェース107には、画像処理装置200が接続されており、CPU101は、画像処理装置200から受信した位置姿勢の情報等を取得することができる。また、CPU101は、インタフェース107及び画像処理装置200を介してカメラ500に撮像タイミングを示すトリガ信号を出力する。   The image processing apparatus 200 is connected to the interface 107, and the CPU 101 can acquire position and orientation information received from the image processing apparatus 200. Further, the CPU 101 outputs a trigger signal indicating the imaging timing to the camera 500 via the interface 107 and the image processing device 200.

インタフェース108には、ロボット300(具体的には、ロボット300の各軸を制御するサーボ回路)が接続されており、CPU101は、教示された教示点に基づきロボット300の動作を制御することができる。インタフェース109には、モニタ600が接続されており、CPU101は、モニタ600に画像を表示させることができる。インタフェース110には、入力装置であるキーボード700が接続されており、CPU101は、キーボード700からの入力を受けることにより、各種の設定を行う。なお、ロボット制御装置100には、不図示の、書き換え可能な不揮発性メモリや外付けHDD等の外部記憶装置や、オフラインプログラミング装置、教示を行う教示装置等が接続されていてもよい。   A robot 300 (specifically, a servo circuit that controls each axis of the robot 300) is connected to the interface 108, and the CPU 101 can control the operation of the robot 300 based on the taught teaching points. . A monitor 600 is connected to the interface 109, and the CPU 101 can display an image on the monitor 600. A keyboard 700 which is an input device is connected to the interface 110, and the CPU 101 performs various settings by receiving input from the keyboard 700. The robot control device 100 may be connected to an external storage device such as a rewritable nonvolatile memory or an external HDD, an offline programming device, a teaching device for teaching, and the like (not shown).

図3は、マーカ41の表面を示す模式図である。マーカ41の表面には、複数のドット43がパターンとして付され、ドット43間の位置は予め画像処理装置200に設定値として格納されている。それにより、画像処理装置200は校正器40の位置姿勢を計測することができる。   FIG. 3 is a schematic diagram showing the surface of the marker 41. A plurality of dots 43 are attached to the surface of the marker 41 as a pattern, and positions between the dots 43 are stored in advance in the image processing apparatus 200 as set values. Thereby, the image processing apparatus 200 can measure the position and orientation of the calibrator 40.

また、マーカ41に付された三角形のマーク44により校正器40の姿勢を一意に求めることができる。なお、校正器40のマーカ41は、カメラ500により撮像された撮像画像に写り込んでいるときに、画像処理装置200にて校正器40の位置姿勢が計測できればよく、平板状でなく立体的なものであってもよい。   Further, the posture of the calibrator 40 can be uniquely obtained by the triangular mark 44 attached to the marker 41. The marker 41 of the calibrator 40 only needs to be able to measure the position and orientation of the calibrator 40 with the image processing apparatus 200 when it is reflected in the captured image captured by the camera 500, and is not a flat plate but a three-dimensional shape. It may be a thing.

校正する際のロボット300の動作は、ロボット制御装置100のメモリに格納されたプログラム120によって制御される。ロボット300を動作させることにより、校正器40をロボット300の動作範囲内の任意の位置姿勢で位置決めすることができる。   The operation of the robot 300 during calibration is controlled by the program 120 stored in the memory of the robot control apparatus 100. By operating the robot 300, the calibrator 40 can be positioned at an arbitrary position and orientation within the operation range of the robot 300.

以下、ロボットシステム10において、ハンドアイキャリブレーションを行う方法について述べる。第1実施形態では、ロボット300に校正器が支持され、カメラ500が固定されているので、ロボット座標系Cとビジョン座標系Cとを校正する必要がある。 Hereinafter, a method for performing hand eye calibration in the robot system 10 will be described. In the first embodiment, the calibrator is supported by the robot 300, the camera 500 is fixed, it is necessary to calibrate the robot coordinate system C 1 and vision coordinate system C 2.

前提条件として、校正治具42に対して、マーカ41がどこに固定されているかは既知で無い場合を考える。その場合、一般的に、カメラ500と校正器40との相対位置姿勢において、少なくとも3点以上の異なる相対位置姿勢を取らせる。それぞれの点でロボット座標系Cとツール座標系Cとの相対位置姿勢と、ビジョン座標系Cとマーカ座標系Cとの相対位置姿勢を得る必要がある。それにより、校正すべきロボット座標系Cとビジョン座標系Cと相対位置姿勢を求めることができる。 As a precondition, a case where it is not known where the marker 41 is fixed with respect to the calibration jig 42 is considered. In that case, in general, the relative position and orientation of the camera 500 and the calibrator 40 are at least three different relative positions and orientations. And the relative position and orientation of the robot coordinate system C 1 and the tool coordinate system C 3 by each point, it is necessary to obtain a relative position and orientation of the vision coordinate system C 2 and the marker coordinate system C 4. Thereby, it is possible to obtain the robot coordinate system C 1 and vision coordinate system C 2 and the relative position and orientation to be calibrated.

図4は、第1実施形態に係る座標系校正方法のフローチャートである。CPU101は、HDD104に格納されたプログラム120を読み出して実行することにより、図4に示すアルゴリズムにより、校正で用いる教示点を自動設定する。教示点は、6つのパラメータ、即ち3次元の教示位置を示す3つのパラメータと、3次元の教示姿勢を示す3つのパラメータとからなる。そして、CPU101は、ロボット300(例えばロボット300の先端、つまりロボットハンド302)を複数の教示点で教示された位置姿勢に動作させて、カメラ500に校正器40を撮像させる。次いで、CPU101は、画像処理装置200における撮像画像の処理結果に基づいて、ロボット座標系Cとビジョン座標系Cとの校正を行う。 FIG. 4 is a flowchart of the coordinate system calibration method according to the first embodiment. The CPU 101 reads and executes the program 120 stored in the HDD 104, and automatically sets the teaching points used for calibration according to the algorithm shown in FIG. The teaching point includes six parameters, that is, three parameters indicating a three-dimensional teaching position and three parameters indicating a three-dimensional teaching posture. Then, the CPU 101 causes the camera 500 to image the calibrator 40 by operating the robot 300 (for example, the tip of the robot 300, that is, the robot hand 302) to the position and orientation taught by the plurality of teaching points. Next, the CPU 101 calibrates the robot coordinate system C 1 and the vision coordinate system C 2 based on the processing result of the captured image in the image processing apparatus 200.

以下、図4のフローチャートに沿って詳細に説明する。まずCPU101は、校正する領域の最大範囲に分布する校正のための複数の教示点を生成する(S1)。即ち、ステップS1では、CPU101は、複数の教示点として、少なくとも3つの教示点を設定する(設定工程、設定処理)。このステップS1では、CPU101は、外部の教示装置(不図示)から教示点を取得して、設定(つまり後の制御で使用可能にメモリ等に格納)してもよいし、予め決められたプログラムにより自動生成して設定してもよい。ここでは、校正で用いる教示点は3点とする。その3点の教示点の設定方法を述べる。   Hereinafter, it will be described in detail along the flowchart of FIG. First, the CPU 101 generates a plurality of teaching points for calibration distributed in the maximum range of the region to be calibrated (S1). That is, in step S1, the CPU 101 sets at least three teaching points as a plurality of teaching points (setting process, setting process). In this step S1, the CPU 101 may acquire a teaching point from an external teaching device (not shown) and set it (that is, store it in a memory or the like so that it can be used in later control), or a predetermined program May be automatically generated and set. Here, three teaching points are used for calibration. A method for setting the three teaching points will be described.

図5は、第1実施形態で用いるカメラ500と校正器40との相対位置姿勢および教示点を例示した模式図である。図5(a)には、各教示点にロボット300を動作させた際の校正器40(マーカ41)の中心と校正範囲を示し、図5(b)には、カメラ500と校正器40との相対位置姿勢を示す。ここで、図5に示す平面Aは、カメラ500の画角の範囲の内側に設定されたカメラ500の光軸を法線とする平面であり、この平面はロボット座標系Cとビジョン座標系Cとの校正領域を示している。校正領域Aの範囲は、後述する校正器40上のマーカ41が計測できる範囲であり、校正器40の中心がロボット300の動作によって取り得る範囲を示している。 FIG. 5 is a schematic view illustrating the relative positions and orientations and teaching points between the camera 500 and the calibrator 40 used in the first embodiment. 5A shows the center of the calibrator 40 (marker 41) and the calibration range when the robot 300 is operated at each teaching point, and FIG. 5B shows the camera 500, the calibrator 40, and the calibration range. The relative position and orientation of are shown. Here, the plane A shown in FIG. 5, the optical axis of the camera 500 is set inside the range of the angle of view of the camera 500 a plane having a normal line, this plane robot coordinate system C 1 and vision coordinate system It shows a calibration region with C 2. The range of the calibration area A is a range in which a marker 41 on the calibrator 40 to be described later can be measured, and shows the range that the center of the calibrator 40 can take by the operation of the robot 300.

図5(b)に示すように、1点目の教示点(第1教示点)Pは、カメラ500の設計上の光軸(カメラ光軸)Lを法線とする平面M上(第1平面上)に校正器40の表面が位置するようにロボット300を動作させる教示点とする。ここで、カメラ500の設計上の光軸Lとしたのは、校正前であるため、CPU101において、カメラ500の実際の光軸が未知であるためである。 As shown in FIG. 5B, the first teaching point (first teaching point) P 1 is on the plane M 1 having the normal to the design optical axis (camera optical axis) L 0 of the camera 500. The teaching point is to operate the robot 300 so that the surface of the calibrator 40 is located on the first plane. Here, the optical axis L 0 in the design of the camera 500 is set before calibration, and thus the CPU 101 does not know the actual optical axis of the camera 500.

校正器40の表面とは、第1実施形態ではマーカ41においてドット43等のパターンが形成された表面である。なお、校正治具42の表面に直接ドット等のパターンが形成されている場合は、校正器40の表面とは、校正治具42の表面である。即ち、校正器40の表面とは、ドット等の特徴点が形成された面のことである。   The surface of the calibrator 40 is a surface on which a pattern such as a dot 43 is formed in the marker 41 in the first embodiment. When a pattern such as a dot is directly formed on the surface of the calibration jig 42, the surface of the calibrator 40 is the surface of the calibration jig 42. That is, the surface of the calibrator 40 is a surface on which feature points such as dots are formed.

2点目の教示点(第2教示点)Pは、教示点Pに対して、校正器40がカメラ光軸Lと平行な軸Lまわりに、ユーザが予め指定した相対角度αを取り、かつ平面Mの面方向(xy方向)に並進させるようロボット300を動作させる教示点である。つまり、教示点Pと教示点Pとは、校正器40の表面が平面M上に位置し、かつ校正器40の位置姿勢が互いに異なるようロボット300を動作させる教示点である。なお、上述の軸Lは、カメラ光軸Lと平行か軸の傾きが±2degの範囲であれば良い。また、上述の軸Lは、前述の相対角度αを取ったとき、校正器40の中心Oがカメラ500の画角の範囲内に入るように設定される。 Secondly taught points (second teaching point) P 2, to the teaching points P 1, an axis parallel L around 1 and calibrator 40 is the optical axis of the camera L 0, the relative angle α designated by the user in advance taken, and a teaching point for operating the robot 300 so as to translate in the plane M 1 in the plane direction (xy direction). That is, the teaching point P 1 and the teaching point P 2 are teaching points for operating the robot 300 so that the surface of the calibrator 40 is positioned on the plane M 1 and the position and orientation of the calibrator 40 are different from each other. Note that the above-described axis L 1 may be parallel to the camera optical axis L 0 or in the range of the axis tilt of ± 2 deg. The axis L 1 is set so that the center O 2 of the calibrator 40 falls within the range of the angle of view of the camera 500 when the relative angle α is taken.

相対角度αは、90degが最も適しているが、0deg<α<180degの範囲でユーザが選択可能となっているのが好ましい。ここで、相対角度αの指定は、例えばユーザがキーボード700を用いて行ってもよいし、予めプログラム120に設定されていてもよい。   The relative angle α is most preferably 90 deg, but is preferably selectable by the user in the range of 0 deg <α <180 deg. Here, the designation of the relative angle α may be performed by the user using the keyboard 700, for example, or may be set in the program 120 in advance.

3点目の教示点(第3教示点)Pは、カメラ光軸L以外の2軸、即ちビジョン座標系におけるxy軸まわりにユーザが予め指定した角度を取り、かつ、校正器40が教示点P,Pとも異なる位置姿勢を取るように設定された教示点である。具体的に説明すると、教示点Pは、平面Mに対して交差する平面M上(第2平面上)に校正器40の表面が位置するようにロボット300を動作させる教示点である。つまり、校正器40の表面が平面M上にないように教示点Pを取る。 The third teaching point (third teaching point) P 3 takes two angles other than the camera optical axis L 0 , that is, an angle designated in advance by the user around the xy axis in the vision coordinate system, and the calibrator 40 The teaching points P 1 and P 2 are teaching points set to take different positions and orientations. More specifically, the teaching point P 3 is a teaching point for operating the robot 300 so that the surface of the calibrator 40 is positioned on the plane M 2 (on the second plane) intersecting the plane M 1 . . That is, the surface of the calibrator 40 taking the teaching point P 3 as not on the plane M 1.

ここでユーザが指定する角度は5〜10deg程度でよい。また、この角度は、予めプログラム120に設定しておいてもよい。   Here, the angle specified by the user may be about 5 to 10 degrees. Further, this angle may be set in the program 120 in advance.

なお、3つの教示点P,P,Pは、それぞれの校正器40の中心O,O,Oがカメラ光軸Lを法線とする平面M上でそれぞれ異なる位置姿勢になるように配置し、かつ校正する範囲最大になるように配置することが望ましい。第1実施形態では、図5(a)に示すように、校正領域Aの隅に2点、校正領域Aの対角線上の中点に1点を配置している。 The three teaching points P 1 , P 2 , and P 3 are located at different positions on the plane M 1 where the centers O 1 , O 2 , and O 3 of the calibrators 40 are normal to the camera optical axis L 0. It is desirable to arrange so as to be in a posture and to maximize the range to be calibrated. In the first embodiment, as shown in FIG. 5A, two points are arranged at the corners of the calibration area A, and one point is arranged at the midpoint on the diagonal line of the calibration area A.

次に、CPU101は、HDD104に格納されたCADデータ(立体形状データ)を、HDD104から読み出す(S2)。つまり、CPU101は、HDD104からCADデータを取得する(取得工程、取得処理)。CADデータには、ロボット300、カメラ500、校正器40、固定治具などの障害物60の形状データが含まれる。このCADデータは、予めHDD104に格納させていたが、外部機器から取得するようにしてもよい。   Next, the CPU 101 reads out CAD data (three-dimensional shape data) stored in the HDD 104 from the HDD 104 (S2). That is, the CPU 101 acquires CAD data from the HDD 104 (acquisition process, acquisition process). The CAD data includes shape data of the obstacle 60 such as the robot 300, the camera 500, the calibrator 40, and the fixing jig. This CAD data is stored in the HDD 104 in advance, but may be acquired from an external device.

そして、CPU101は、ステップS1で設定した教示点がロボット300(具体的にはロボットアーム301の各関節)の可動範囲内にあるか否かを判断する(S3)。判断する際には、CPU101が読み出したCADデータを用いる。   Then, the CPU 101 determines whether or not the teaching point set in step S1 is within the movable range of the robot 300 (specifically, each joint of the robot arm 301) (S3). When making the determination, CAD data read by the CPU 101 is used.

CPU101は、ステップS3の判断の結果、設定した各教示点がロボット300の可動範囲内にあると判断した場合(S3:Yes)、ステップS4の干渉判断処理(干渉判断工程)を実行する。   When the CPU 101 determines that each set teaching point is within the movable range of the robot 300 as a result of the determination in step S3 (S3: Yes), the CPU 101 executes an interference determination process (interference determination process) in step S4.

CPU101は、ステップS4では、取得したCADデータを用いて、各教示点P、P,Pにロボット300を仮想的に動作させる演算を行い、ロボット300又は校正器40が障害物60に干渉するか否かを判断する。 In step S < b > 4, the CPU 101 uses the acquired CAD data to perform a calculation that causes the robot 300 to virtually operate the teaching points P 1 , P 2 , and P 3 , and the robot 300 or the calibrator 40 moves the obstacle 60. Determine whether to interfere.

CPU101は、ステップS4における判断の結果、設定した各教示点P〜Pに基づくロボット300の動作によりロボット300及び校正器40が障害物60に干渉しないと判断した場合(S4:No)、ステップS5の処理を実行する。 As a result of the determination in step S4, the CPU 101 determines that the robot 300 and the calibrator 40 do not interfere with the obstacle 60 by the operation of the robot 300 based on the set teaching points P 1 to P 3 (S4: No). The process of step S5 is executed.

CPU101は、ステップS5では、実際に校正で用いる教示点P〜Pを決定する。決定した教示点P〜Pはロボット動作プログラムとして、ロボット制御装置100の記憶部(例えばHDD104)に格納される。 CPU101, in step S5, determines the teaching point P 1 to P 3 used in the actual calibration. The determined teaching points P 1 to P 3 are stored in a storage unit (for example, HDD 104) of the robot control apparatus 100 as a robot operation program.

次に、CPU101は、ステップS5で決定した教示点P〜Pを用いてハンドアイキャリブレーションを実行する(S6)。ステップS6の処理について具体的に説明すると、まず、CPU101は、ステップS5で決定した教示点P〜Pに基づいてロボット300を動作させ、各教示点P〜Pに動作させた位置姿勢において、カメラ500に校正器40を撮像させる。画像処理装置200は、撮像画像を取り込み、撮像画像に写り込んだ校正器40の画像から、校正器40の位置姿勢を計測し、その計測結果(撮像画像の処理結果)をロボット制御装置100に送信する。 Next, the CPU 101 executes hand eye calibration using the teaching points P 1 to P 3 determined in step S5 (S6). Specifically explaining the processing of step S6, first, CPU 101 operates the robot 300 on the basis of teaching points P 1 to P 3 determined in step S5, is operated on the teaching points P 1 to P 3 position In the posture, the calibrator 40 is imaged by the camera 500. The image processing apparatus 200 captures the captured image, measures the position and orientation of the calibrator 40 from the image of the calibrator 40 captured in the captured image, and sends the measurement result (processed result of the captured image) to the robot control apparatus 100. Send.

ここで、ロボット座標系Cとツール座標系Cとの相対位置姿勢は、教示点P〜Pの位置姿勢と同義なので、ロボット制御装置100から得られる。また、ビジョン座標系Cとマーカ座標系Cと相対位置姿勢は、校正器40を計測することにより得られるので、画像処理装置200から取得される。 Here, the relative position and orientation of the robot coordinate system C 1 and the tool coordinate system C 3 is so synonymous with the position and orientation of the teaching point P 1 to P 3, obtained from the robot controller 100. The vision coordinate system C 2 , the marker coordinate system C 4, and the relative position and orientation are obtained from the image processing apparatus 200 because they are obtained by measuring the calibrator 40.

相対位置姿勢を並進成分とオイラー角で表すと、(X,Y,Z,R,R,R)となる。それを同次変換行列Hの形で次式のように定義する。 When the relative position and orientation are expressed by a translation component and Euler angle, (X, Y, Z, R x , R y , R z ) is obtained. It is defined as the following equation in the form of a homogeneous transformation matrix H.

Figure 2015062991
Figure 2015062991

ただし、Rotx,Roty,Rotzは、それぞれx,y,z軸まわりの回転を表す3×3の回転行列である。 Here, R otx , R oty , and R otz are 3 × 3 rotation matrices representing rotations about the x, y, and z axes, respectively.

ロボット座標系Cとビジョン座標系Cとの相対位置姿勢を同次変換行列Hrv,ツール座標系Cとマーカ座標系Cとの相対位置姿勢を同次変換行列Htpとする。また、3点それぞれの教示点P〜Pにおけるロボット座標系Cとツール座標系Cとの相対位置姿勢を同次変換行列Hrt1,Hrt2,Hrt3とする。また、ビジョン座標系Cとマーカ座標系Cとの相対位置姿勢を同次変換行列Hvp1,Hvp2,Hvp3とすると、次式で示す連立方程式が得られる。 Robot coordinate system C 1 and vision coordinate system C 2 and the relative position and orientation of the homogeneous transformation matrix H rv, the relative position and orientation of the tool coordinate system C 3 and the marker coordinate system C 4 and homogeneous transformation matrix H tp. Furthermore, homogeneous transformation matrix relative position and orientation of the robot coordinate system C 1 and the tool coordinate system C 3 in each three taught points P 1 to P 3 H rt1, and H rt2, H rt3. Also, the vision coordinate system C 2 and the marker coordinate system C 4 homogeneous transformation matrix relative position and orientation of the H vp1, when the H vp2, H vp3, simultaneous equations shown by the following equation is obtained.

Figure 2015062991
Figure 2015062991

式(2)をHrvとHtpについて最適化計算を解くことによって、ハンドアイキャリブレーションすべきロボット座標系Cとビジョン座標系Cとの相対位置姿勢Hrvを求めることができる。最適化計算においては、それに限らないが、最小二乗法などで解けることが知られている。 The relative position and orientation H rv between the robot coordinate system C 1 to be hand-eye calibrated and the vision coordinate system C 2 can be obtained by solving the optimization calculation for H rv and H tp of Equation (2). It is known that the optimization calculation can be solved by, for example, the least square method, although not limited thereto.

CPU101は、求めたロボット座標系Cとビジョン座標系Cとの相対位置姿勢Hrvを、ロボット制御装置100の記憶装置としてのHDD104等に出力して設定値として格納(更新)させる(S7)。これにより、校正処理は終了する。 The CPU 101 outputs the obtained relative position and orientation H rv between the robot coordinate system C 1 and the vision coordinate system C 2 to the HDD 104 or the like as a storage device of the robot control apparatus 100 and stores (updates) it as a set value (S7). ). Thereby, the calibration process is completed.

一方、CPU101は、ステップS3において、設定した教示点P〜Pがロボット300(ロボットアーム301の各関節)の可動範囲内にないと判断した場合(S3:No)、ステップS8の探索処理(探索工程)を実行する。また、CPU101は、ステップS4において、教示点P及び/又は教示点Pにロボット300を仮想的に動作させた際にロボット300又は校正器40が障害物60に干渉すると判断したときには、ステップS8の処理を実行する。更にまた、CPU101は、ステップS4において、教示点Pにロボット300を仮想的に動作させた際にロボット300又は校正器40が障害物60に干渉すると判断したときも、ステップS8の処理を実行する。つまり、CPU101は、ステップS4において、Yesと判断した場合には、ステップS8の処理を実行する。 On the other hand, if the CPU 101 determines in step S3 that the set teaching points P 1 to P 3 are not within the movable range of the robot 300 (each joint of the robot arm 301) (S3: No), the search processing in step S8 (Search process) is executed. Further, CPU 101, in step S4, when the robot 300 or the calibrator 40 determines that interferes with the obstacle 60 when the virtually operating the robot 300 to the teaching points P 1 and / or teaching point P 2, the step The process of S8 is executed. Furthermore, CPU 101 is executed in step S4, even when the robot 300 or the calibrator 40 determines that interferes with the obstacle 60 when the virtually operating the robot 300 to the teaching point P 3, the processing in step S8 To do. That is, if the CPU 101 determines Yes in step S4, it executes the process of step S8.

CPU101は、ステップS8では、ロボット300の可動範囲内に無い、或いは障害物60と干渉する教示点が、設計上のカメラ500の光軸Lと平行な第1軸まわりに回転可能か否かを判定する。 CPU101, in step S8, not within a movable range of the robot 300, or interferes teaching point and the obstacle 60, whether rotatable about a first axis parallel to the optical axis L 0 of the camera 500 of the design Determine.

判定する際には、ロボット制御装置100に予め設定された、設計上のカメラ500の光軸Lと平行な第1軸まわりの回転範囲を用いる。回転範囲は−180deg〜180degの範囲程度で所定の刻み幅(角度)で探索する。所定の刻み幅は、例えば5deg、或いは10deg程度である。また、教示点が既に取っているカメラ500の光軸と平行な軸まわりの回転角度は、この回転範囲からは除外される。 In the determination, a rotation range around the first axis parallel to the optical axis L 0 of the designed camera 500 preset in the robot controller 100 is used. The rotation range is about -180 deg to 180 deg and is searched with a predetermined step size (angle). The predetermined step size is, for example, about 5 deg or 10 deg. Further, the rotation angle around the axis parallel to the optical axis of the camera 500 already taken by the teaching point is excluded from this rotation range.

ここで、ステップS3,S4にて判定された教示点が、教示点P及び/又は教示点Pの場合は、以下のように探索する。即ちCPU101は、CADデータに基づき、教示点P,Pに基づいて動作するロボット300に位置決めされる校正器40を、カメラ500に対して第1軸まわりに仮想的に相対回転させる演算を行う。その際、CPU101は、教示点Pにロボット300を動作させた際の校正器40と、教示点Pにロボット300を動作させた際の校正器40との間の相対的な位置姿勢を維持しながら校正器40を回転させる演算を行う。つまり、CPU101は、CADデータにおいて、校正器40をカメラ500に対して相対的に所定の刻み幅(角度)で回転させて、ロボット300及び校正器40が障害物60に干渉しない第1回転角度を探索する。 Here, the teaching point is determined in steps S3, S4 is, in the case of teaching points P 1 and / or teaching point P 2, to search as follows. That is, the CPU 101 performs an operation for virtually rotating the calibrator 40 positioned on the robot 300 operating based on the teaching points P 1 and P 2 around the first axis based on the CAD data. Do. At that time, CPU 101 includes a calibrator 40 at the time of operating the robot 300 to the teaching point P 1, the relative position and orientation between the calibrator 40 at the time of operating the robot 300 to the teaching point P 2 While maintaining, the calculation for rotating the calibrator 40 is performed. That is, in the CAD data, the CPU 101 rotates the calibrator 40 relative to the camera 500 by a predetermined step size (angle) so that the robot 300 and the calibrator 40 do not interfere with the obstacle 60. Explore.

ステップS3,S4にて判定された教示点が教示点Pの場合は、以下のように探索する。即ちCPU101は、CADデータに基づき、教示点Pに基づいて動作するロボット300に位置決めされる校正器40を、カメラ500に対して第1軸まわりに仮想的に相対回転させる。その際に、CPU101は、校正器40をカメラ500に対して相対的に所定の刻み幅(角度)で回転させて、ロボット300及び校正器40が障害物60に干渉しない第1回転角度を探索する。 Taught point is determined in steps S3, S4 is the case of the teaching point P 3, to search as follows. That CPU101, based on the CAD data, the calibrator 40 that is positioned in the robot 300 operates based on the teaching point P 3, virtually rotated relative to the first axis with respect to the camera 500. At that time, the CPU 101 rotates the calibrator 40 relative to the camera 500 by a predetermined step size (angle) to search for a first rotation angle at which the robot 300 and the calibrator 40 do not interfere with the obstacle 60. To do.

なお、第1実施形態では、カメラ500が固定されているので、校正器40を回転させることとなる。このように、校正器40とカメラ500とを相対的に回転させて探索しているので、相対的に平行移動させる場合よりも、狭い範囲で探索することが可能である。   In the first embodiment, since the camera 500 is fixed, the calibrator 40 is rotated. In this way, since the search is performed by relatively rotating the calibrator 40 and the camera 500, it is possible to search in a narrower range than in the case of relatively moving in parallel.

CPU101は、ステップS8における探索の結果、教示点がカメラ光軸Lと平行な第1軸まわりに回転可能である場合(S8:Yes)、即ち第1回転角度を探し当てた場合、ステップS9の再設定処理(再設定工程)を実行する。 CPU101 as a result of the search in step S8, if the teaching point is rotatable about a first axis parallel to the camera optical axis L 0 (S8: Yes), i.e. when Locate the proper first rotation angle, in step S9 A resetting process (resetting process) is executed.

CPU101は、ステップS9では、ステップS8で判定した教示点をカメラ光軸Lと平行な第1軸まわりに回転し、再設定する。即ちCPU101は、第1回転角度を探し当てた場合には、校正器40がカメラ500に対して第1軸まわりに第1回転角度で相対的に回転するように教示点P,P又は教示点Pを再設定する。 CPU101, in step S9, by rotating the taught point determined in step S8 to the first axis parallel to the camera optical axis L 0, resets. That is, when the CPU 101 finds the first rotation angle, the CPU 101 teaches the teaching points P 1 , P 2 or the teaching so that the calibrator 40 rotates relative to the camera 500 around the first axis at the first rotation angle. to re-set the point P 3.

図6は、ロボット300が障害物60と干渉する場合の教示点の再設定方法を例示した模式図である。回転する量は、ステップS8で探索した回転範囲内の第1回転角度に従う。ただし、回転する教示点が教示点P,Pの場合、図6に示すように、校正器40の(教示点P,P)の相対角度αを維持するように回転させる。 FIG. 6 is a schematic view illustrating a method for resetting teaching points when the robot 300 interferes with the obstacle 60. The amount of rotation follows the first rotation angle within the rotation range searched in step S8. However, when the teaching points to be rotated are the teaching points P 1 and P 2 , as shown in FIG. 6, the calibrator 40 is rotated so as to maintain the relative angle α of (teaching points P 1 and P 2 ).

なお、カメラ光軸を法線とする同一平面に対して傾きを持つ教示点Pの場合、カメラ光軸を法線とする同一平面上にある2つの教示点P,Pの相対角度は特に考慮せず、カメラ光軸と平行な第1軸まわりに回転し、再設定する。回転する量は、同様にステップS8で用いた回転範囲に従う。教示点の再設定が完了すると、ステップS3に戻る。 In the case of the teaching point P 3 with an inclination with respect to the same plane of the camera optical axis and the normal line, the two relative angles of teaching points P 1, P 2 with the camera optical axis on the same plane with the normal Is not taken into consideration, and it rotates around the first axis parallel to the optical axis of the camera and resets. Similarly, the amount of rotation follows the rotation range used in step S8. When the resetting of the teaching point is completed, the process returns to step S3.

一方、CPU101は、ステップS8において、設定した教示点がカメラ光軸と平行な軸まわりに回転可能でないと判定された場合(S8:No)、ステップS10の探索処理(探索工程)を実行する。   On the other hand, if it is determined in step S8 that the set teaching point cannot be rotated about an axis parallel to the camera optical axis (S8: No), the CPU 101 executes the search process (search process) in step S10.

CPU101は、ステップS10では、ステップS8でカメラ光軸と平行な第1軸まわりに回転可能でないと判定した教示点がカメラ光軸を法線とする同一平面上にないように移動可能か否かを判断する。即ち、CPU101は、ステップS8の探索で第1回転角度がない場合には、第1軸に交差する第2軸まわりに校正器40をカメラ500に対して仮想的に相対的に回転させる。その際、第2軸として、ロボット制御装置100に予め設定されたカメラ光軸以外の2軸とし、2軸まわりの回転範囲を用いる。回転範囲は−45deg〜45degの範囲程度で決まった所定の刻み幅(角度)で探索する。所定の刻み幅(角度)は、例えば、5deg,あるいは10deg程度である。また、教示点が既に取っているカメラ光軸以外の2軸まわりの回転角度は、この回転範囲からは除外される。以上の動作で、ロボット300及び校正器40が障害物60に干渉しない第2回転角度を探索する。このステップS10においても、ステップS8と同様に、教示点P,Pの場合は、相対角度αを維持しながら探索する。 In step S10, the CPU 101 determines whether or not the teaching point determined to be unrotatable about the first axis parallel to the camera optical axis in step S8 is not on the same plane having the camera optical axis as a normal line. Judging. That is, the CPU 101 virtually rotates the calibrator 40 relative to the camera 500 around the second axis intersecting the first axis when there is no first rotation angle in the search in step S8. At that time, two axes other than the camera optical axis set in advance in the robot controller 100 are used as the second axis, and a rotation range around the two axes is used. The rotation range is searched with a predetermined step size (angle) determined in a range of about −45 deg to 45 deg. The predetermined step width (angle) is, for example, about 5 deg or 10 deg. Further, the rotation angle around two axes other than the camera optical axis already taken by the teaching point is excluded from this rotation range. With the above operation, the robot 300 and the calibrator 40 search for the second rotation angle that does not interfere with the obstacle 60. Also in step S10, as in step S8, in the case of the teaching points P 1 and P 2 , the search is performed while maintaining the relative angle α.

CPU101は、ステップS10の判定の結果、教示点がカメラ光軸を法線とする同一平面上にないように移動可能である場合(S10:Yes)、ステップS11の再設定処理(再設定工程)を実行する。   If the result of the determination in step S10 is that the teaching point is movable so that it is not on the same plane with the camera optical axis as the normal line (S10: Yes), the resetting process in step S11 (resetting process) Execute.

CPU101は、ステップS11では、ステップS10で判定した教示点についてカメラ光軸を法線とする同一平面上にないように移動し、再設定する。即ち、CPU101は、第2回転角度を探し当てた場合には、校正器40がカメラ500に対して第2軸まわりに第2回転角度で相対的に回転するように教示点P,Pを再設定する。回転する量は、ステップS10で用いた回転範囲に従う。教示点の再設定が完了すると、ステップS3に進む。 In step S11, the CPU 101 moves and resets the teaching point determined in step S10 so that it is not on the same plane with the camera optical axis as a normal. That is, when the CPU 101 finds the second rotation angle, the CPU 101 sets the teaching points P 1 and P 2 so that the calibrator 40 rotates relative to the camera 500 around the second axis at the second rotation angle. Reset it. The amount of rotation follows the rotation range used in step S10. When the resetting of the teaching point is completed, the process proceeds to step S3.

以上、ステップS8,S10にてCPU101は、教示点Pの校正器40と、教示点Pの校正器40との間の相対的な位置姿勢を維持しながら、ロボット300及び校正器40が障害物60に干渉しないロボット300の位置姿勢を探索する。そして、ステップS8,S10においてロボット300及び校正器40が障害物60に干渉しないロボット300の位置姿勢を探し当てた場合には、ステップS9,S11を実行する。即ちCPU101は、ステップS8,S10にて探し当てたロボット300の位置姿勢に基づき、教示点P,Pを再設定する。これらステップS8,S10においては、ステップS3の判定により、ロボット300の位置姿勢(つまり、ロボットアーム301の各関節)が可動範囲内となる条件の下で探索が行われる。 As described above, in steps S 8 and S 10, the CPU 101 maintains the relative position and orientation between the calibrator 40 at the teaching point P 1 and the calibrator 40 at the teaching point P 2. The position and orientation of the robot 300 that does not interfere with the obstacle 60 are searched. If the robot 300 and the calibrator 40 find the position and orientation of the robot 300 that does not interfere with the obstacle 60 in steps S8 and S10, steps S9 and S11 are executed. That is, the CPU 101 resets the teaching points P 1 and P 2 based on the position and orientation of the robot 300 found in steps S8 and S10. In these steps S8 and S10, the search is performed under the condition that the position and orientation of the robot 300 (that is, each joint of the robot arm 301) is within the movable range by the determination in step S3.

一方、CPU101は、ステップS10において、カメラ光軸を法線とする同一平面上にないように移動可能でないと判定された場合(S10:No)、所定の校正精度を満足する教示点の探索範囲がないことを、モニタ600に表示させる(S12)。これにより、教示点の探索範囲がないことが、ユーザに通知される。その後、処理を終了する。   On the other hand, if it is determined in step S10 that the camera 101 is not movable so as not to be on the same plane with the camera optical axis as a normal line (S10: No), the teaching point search range that satisfies the predetermined calibration accuracy. The fact that there is no error is displayed on the monitor 600 (S12). This notifies the user that there is no teaching point search range. Thereafter, the process ends.

以上のステップS3〜S5,S8〜S11の処理は、CPU101が、CADデータを用いて行う演算(シミュレーション)であり、実際のロボット300を動作させずに行っているものである。一方、ステップS6は、実際にロボット300を教示点P〜Pに基づいて動作させて、校正を行っている。即ち、ステップS3〜S5,S8〜S11の処理は、校正する際に用いる教示点P〜Pを求める演算処理である。 The processes in steps S3 to S5 and S8 to S11 described above are operations (simulations) performed by the CPU 101 using CAD data, and are performed without operating the actual robot 300. On the other hand, in step S6, the robot 300 is actually operated based on the teaching points P 1 to P 3 to perform calibration. That is, step S3 to S5, the process of S8~S11 is an arithmetic processing for obtaining a teaching point P 1 to P 3 to be used for calibration.

以上より、カメラ500と校正器40を用いたハンドアイキャリブレーションにおいて、正確な設計データが明らかな特別な治具を必要とせず、かつ、より狭い位置での高精度な校正が可能となる。さらに、校正用教示点について障害物60と干渉しない点を自動で探索可能となる。そして、ロボット300及び校正器40が障害物60に干渉しない教示点を、自動で探索することで、ユーザが試行錯誤で探索する必要がなくなり、ユーザの負担が軽減する。   As described above, in hand-eye calibration using the camera 500 and the calibrator 40, a special jig whose accurate design data is clear is not required, and high-precision calibration at a narrower position is possible. Furthermore, a point that does not interfere with the obstacle 60 can be automatically searched for the calibration teaching point. Then, the robot 300 and the calibrator 40 automatically search for teaching points that do not interfere with the obstacle 60, thereby eliminating the need for the user to search by trial and error and reducing the burden on the user.

特に、校正器40のマーカ41(即ち、ドット43等の特徴点)の位置がCPU101において未知の場合には、3つの教示点P〜Pが必要であり、教示点Pと教示点Pとの相対的な位置姿勢を維持しながら探索する必要がある。第1実施形態では、この探索作業が自動で行われるため、ユーザが試行錯誤で探索する煩雑な必要がなくなり、ユーザの負担が効果的に軽減する。 In particular, when the position of the marker 41 of the calibrator 40 (that is, the feature point such as the dot 43) is unknown in the CPU 101, the three teaching points P 1 to P 3 are necessary, and the teaching point P 1 and the teaching point it is necessary to search while maintaining the relative position and orientation of the P 2. In the first embodiment, since this search operation is automatically performed, there is no need for the user to perform a complicated search by trial and error, and the burden on the user is effectively reduced.

[第2実施形態]
次に、本発明の第2実施形態に係るロボットシステムについて説明する。図7は、本発明の第2実施形態に係るロボットシステムの概略構成を示す説明図である。なお、第2実施形態において、上記第1実施形態と同様の構成については、同一符号を付して説明を省略する。
[Second Embodiment]
Next, a robot system according to a second embodiment of the invention will be described. FIG. 7 is an explanatory diagram showing a schematic configuration of a robot system according to the second embodiment of the present invention. Note that in the second embodiment, identical symbols are assigned to configurations similar to those in the first embodiment and descriptions thereof are omitted.

上記第1実施形態では、校正器がロボットに支持される場合について説明したが、第2実施形態では、視覚センサがロボットに支持される場合について説明する。即ち、上記第1実施形態では、視覚センサを固定し、視覚センサに対して校正器を回転させたが、第2実施形態では、校正器を固定し、校正器に対して視覚センサを回転させている。したがって、第1,第2実施形態では、視覚センサと校正器との間で相対回転させている点では同じである。   In the first embodiment, the case where the calibrator is supported by the robot has been described. In the second embodiment, the case where the visual sensor is supported by the robot will be described. That is, in the first embodiment, the visual sensor is fixed and the calibrator is rotated with respect to the visual sensor. However, in the second embodiment, the calibrator is fixed and the visual sensor is rotated with respect to the calibrator. ing. Therefore, the first and second embodiments are the same in that they are relatively rotated between the visual sensor and the calibrator.

また、上記第1実施形態では、ロボットの座標系としてロボットアームのロボット座標系と、視覚センサのビジョン座標系との間で校正を行った。第2実施形態では、ロボットの座標系としてロボットハンドのツール座標系と、視覚センサのビジョン座標系との間で校正を行う。   In the first embodiment, calibration is performed between the robot coordinate system of the robot arm and the vision coordinate system of the visual sensor as the robot coordinate system. In the second embodiment, calibration is performed between the tool coordinate system of the robot hand and the vision coordinate system of the visual sensor as the robot coordinate system.

ロボットシステム10Aは、上記第1実施形態のカメラ500の代わりに、視覚センサとしてのカメラ500Aを備えている。カメラ500Aは、ロボット300(具体的には、ロボットアーム301の先端)に支持され、ロボット300を動作させることにより、ロボット300の動作範囲内の任意の位置姿勢で位置決めすることができる。カメラ500Aは、画像処理装置200に接続されている。また、校正器40は、ロボット300でなく架台20、即ちロボット座標系Cと固定位置にあるように設置される。 The robot system 10A includes a camera 500A as a visual sensor instead of the camera 500 of the first embodiment. The camera 500 </ b> A is supported by the robot 300 (specifically, the tip of the robot arm 301), and can be positioned at any position and orientation within the operation range of the robot 300 by operating the robot 300. The camera 500A is connected to the image processing apparatus 200. The calibrator 40 is installed so that the gantry 20 rather than the robot 300, that is, the robot coordinate system C 1 in a fixed position.

画像処理装置200は、カメラ500Aを介して取り込んだ画像信号を、濃淡グレイスケールによる明暗信号に変換した上でフレームメモリに格納する。また、フレームメモリに格納された画像を処理し、対象物の識別、位置姿勢を計測し、処理した対象物の識別結果、および位置姿勢をロボット制御装置100に送信する。この機能は、上記第1実施形態と同様である。   The image processing apparatus 200 converts an image signal captured via the camera 500A into a light / dark signal based on grayscale grayscale, and stores it in a frame memory. In addition, the image stored in the frame memory is processed, the identification of the target object, the position and orientation are measured, and the identification result and the position and orientation of the processed target object are transmitted to the robot controller 100. This function is the same as that of the first embodiment.

カメラ500Aは、校正器40等の対象物を撮像し、画像処理装置200に画像信号を送信する。カメラ500Aは、単眼カメラを用いているが、3次元の位置姿勢を計測できる視覚センサであれば良く、複眼カメラ、レーザレンジファインダ、あるいは、それらの組合せでも良い。   The camera 500 </ b> A captures an object such as the calibrator 40 and transmits an image signal to the image processing apparatus 200. The camera 500A uses a monocular camera, but may be any visual sensor that can measure a three-dimensional position and orientation, and may be a compound eye camera, a laser range finder, or a combination thereof.

以下、ロボットシステム10Aにおいて、ハンドアイキャリブレーションを行う方法について述べる。   Hereinafter, a method for performing hand eye calibration in the robot system 10A will be described.

図8は、第2実施形態に係る座標系校正方法のフローチャートである。制御部としてのCPU101(図2)は、HDD104に格納されたプログラム120を読み出して実行することにより、図8に示すアルゴリズムにより、校正で用いる教示点を自動設定する。CPU101は、ロボット300(例えばロボット300の先端、つまりロボットハンド302)を複数の教示点で教示された位置姿勢に動作させて、カメラ500Aに校正器40を撮像させる。次いで、CPU101は、画像処理装置200における撮像画像の処理結果に基づいて、ツール座標系Cとビジョン座標系Cとの校正を行う。以下、上記第1実施形態との差異について述べる。 FIG. 8 is a flowchart of the coordinate system calibration method according to the second embodiment. The CPU 101 (FIG. 2) as the control unit reads and executes the program 120 stored in the HDD 104, and automatically sets the teaching points used for calibration according to the algorithm shown in FIG. The CPU 101 operates the robot 300 (for example, the tip of the robot 300, that is, the robot hand 302) to the position and orientation taught at the plurality of teaching points, and causes the camera 500A to image the calibrator 40. Next, the CPU 101 calibrates the tool coordinate system C 3 and the vision coordinate system C 2 based on the processing result of the captured image in the image processing apparatus 200. Hereinafter, differences from the first embodiment will be described.

まず、CPU101は、校正で用いる3つの教示点を生成し、設定する(S1’)。上記第1実施形態では、ロボット300の動作により、校正器40の位置姿勢を変更させていたのに対し、第2実施形態では、カメラ500Aの位置姿勢を変更させる。そのとき、カメラ500Aと校正器40の相対位置姿勢は、図5に示すような位置関係になるように教示点P〜Pを設定する。設定の方法は上記第1実施形態と同様である。 First, the CPU 101 generates and sets three teaching points used for calibration (S1 ′). In the first embodiment, the position and orientation of the calibrator 40 is changed by the operation of the robot 300, whereas in the second embodiment, the position and orientation of the camera 500A is changed. At that time, the teaching points P 1 to P 3 are set so that the relative positions and orientations of the camera 500A and the calibrator 40 have a positional relationship as shown in FIG. The setting method is the same as in the first embodiment.

ステップS8では、CPU101は、CADデータに基づき、設計上の光軸Lと平行な第1軸まわりに校正器40をカメラ500Aに対して仮想的に相対的に回転させる。第2実施形態では、校正器40が固定されているので、カメラ500Aを仮想的に回転させている。そして、CPU101は、カメラ500Aを、所定の刻み幅(角度)で回転させて、ロボット300及びカメラ500Aが障害物60に干渉しない第1回転角度を探索する。 In step S8, CPU 101, based on the CAD data, thereby virtually relative rotation calibrator 40 to the camera 500A to the first axis parallel to the optical axis L 0 of the design. In the second embodiment, since the calibrator 40 is fixed, the camera 500A is virtually rotated. Then, the CPU 101 rotates the camera 500A by a predetermined step width (angle), and searches for a first rotation angle at which the robot 300 and the camera 500A do not interfere with the obstacle 60.

そして、第1回転角度を探し当てた場合、ステップS9では、CPU101は、校正器40がカメラ500Aに対して第1軸まわりに第1回転角度で相対的に回転するように教示点P,P又は教示点Pを再設定する。つまり、CPU101は、カメラ500Aが第1軸まわりに第1回転角度で回転するように教示点P,P又は教示点Pを再設定する。ステップS10,S11についても同様である。 When the first rotation angle is found, in step S9, the CPU 101 teaches the teaching points P 1 , P so that the calibrator 40 rotates relative to the camera 500A around the first axis at the first rotation angle. to reset the 2 or teaching point P 3. That is, the CPU 101 resets the teaching points P 1 and P 2 or the teaching point P 3 so that the camera 500A rotates around the first axis at the first rotation angle. The same applies to steps S10 and S11.

次に、CPU101は、ステップS6’において、ステップS5で決定した3つの教示点P〜Pにロボット300を動作させる。そして、CPU101は、それぞれの教示点P〜Pにおいてロボット座標系Cとツール座標系Cの相対位置姿勢と、ビジョン座標系Cとマーカ座標系Cの相対位置姿勢を得る。 Next, in step S6 ′, the CPU 101 operates the robot 300 on the three teaching points P 1 to P 3 determined in step S5. Then, CPU 101 obtains each of the relative position and orientation of the robot coordinate system C 1 and the tool coordinate system C 3 at the teaching point P 1 to P 3, the relative position and orientation of the vision coordinate system C 2 and the marker coordinate system C 4.

ここで、ツール座標系Cとビジョン座標系Cとの相対位置姿勢を同次変換行列Htv,ロボット座標系Cとマーカ座標系Cとの相対位置姿勢を同次変換行列Hrpとする。また、3点それぞれの教示点における、ロボット座標系Cとツール座標系Cと相対位置姿勢を同次変換行列Hrt1,Hrt2,Hrt3とする。また、ビジョン座標系Cとマーカ座標系Cとの相対位置姿勢を同次変換行列Hvp1,Hvp2,Hvp3とすると、次式で示す連立方程式が得られる。 Here, homogeneous transformation matrix relative position and orientation between the tool coordinate system C 3 and vision coordinate system C 2 H tv, homogeneous transformation matrix relative position and orientation of the robot coordinate system C 1 and the marker coordinate system C 4 H rp And Further, in the respective three teaching points, the robot coordinate system C 1 and the tool coordinate system C 3 and the relative position and orientation of the homogeneous transformation matrix H rt1, and H rt2, H rt3. Also, the vision coordinate system C 2 and the marker coordinate system C 4 homogeneous transformation matrix relative position and orientation of the H vp1, when the H vp2, H vp3, simultaneous equations shown by the following equation is obtained.

Figure 2015062991
Figure 2015062991

式(3)をHtvとHrpについて最適化計算を解くことによって、ハンドアイキャリブレーションすべきツール座標系Cとビジョン座標系Cとの相対位置姿勢Htvを求めることができる。そして、CPU101は、求めたツール座標系Cとビジョン座標系Cの相対位置姿勢Htvをロボット制御装置100に設定値として更新する(S7’)。これにより、処理は終了する。なお、ステップS2〜S5、S8〜S12は、上記第1実施形態と略同様の処理を実行する。 The relative position and orientation H tv between the tool coordinate system C 3 to be hand-eye calibrated and the vision coordinate system C 2 can be obtained by solving the optimization calculation for H tv and H rp in Equation (3). Then, CPU 101 is a tool coordinate system C 3 and of the relative position and orientation H tv vision coordinate system C 2 obtained updating as a set value to the robot controller 100 (S7 '). Thereby, the process ends. Note that steps S2 to S5 and S8 to S12 execute substantially the same processing as in the first embodiment.

以上より、カメラ500と校正器40を用いたハンドアイキャリブレーションにおいて、正確な設計データが明らかな特別な治具を必要とせず、かつ、より狭い位置での高精度な校正が可能となる。さらに、校正用教示点について障害物60と干渉しない点を自動で探索可能となる。そして、ロボット300及び校正器40が障害物60に干渉しない教示点を、自動で探索することで、ユーザが試行錯誤で探索する必要がなくなり、ユーザの負担が軽減する。   As described above, in hand-eye calibration using the camera 500 and the calibrator 40, a special jig whose accurate design data is clear is not required, and high-precision calibration at a narrower position is possible. Furthermore, a point that does not interfere with the obstacle 60 can be automatically searched for the calibration teaching point. Then, the robot 300 and the calibrator 40 automatically search for teaching points that do not interfere with the obstacle 60, thereby eliminating the need for the user to search by trial and error and reducing the burden on the user.

特に、校正器40のマーカ41(即ち、ドット43等の特徴点)の位置がCPU101において未知の場合には、3つの教示点P〜Pが必要であり、教示点Pと教示点Pとの相対的な位置姿勢を維持しながら探索する必要がある。第2実施形態では、この探索作業が自動で行われるため、ユーザが試行錯誤で探索する煩雑な必要がなくなり、ユーザの負担が効果的に軽減する。 In particular, when the position of the marker 41 of the calibrator 40 (that is, the feature point such as the dot 43) is unknown in the CPU 101, the three teaching points P 1 to P 3 are necessary, and the teaching point P 1 and the teaching point it is necessary to search while maintaining the relative position and orientation of the P 2. In the second embodiment, since this search operation is automatically performed, there is no need for the user to perform a complicated search by trial and error, and the burden on the user is effectively reduced.

なお、本発明は、以上説明した実施形態に限定されるものではなく、多くの変形が本発明の技術的思想内で当分野において通常の知識を有する者により可能である。   The present invention is not limited to the embodiments described above, and many modifications can be made by those having ordinary knowledge in the art within the technical idea of the present invention.

第1、第2実施形態では、校正で用いる教示点が、3つの教示点のみの場合について説明したが、これら3つの教示点以外に更に別の教示点が含まれていてもよい。即ち、上記条件を満たす3点を含んでいれば、3点に限定されるものでなく、3点以上設定してもよい。そのとき、それらの点で式(2)又は式(3)の関係を立て、その式を最小二乗法などの最適化計算を解くことで、ハンドアイキャリブレーションすべきロボット座標系又はツール座標系と、ビジョン座標系との相対位置姿勢を求めることができる。   In the first and second embodiments, the case where there are only three teaching points used for calibration has been described, but other teaching points may be included in addition to these three teaching points. That is, as long as three points satisfying the above conditions are included, the number is not limited to three, and three or more points may be set. At that time, a robot coordinate system or a tool coordinate system to be hand-eye calibrated is established by establishing the relationship of the formula (2) or the formula (3) at those points and solving the optimization calculation such as the least square method. And the relative position and orientation relative to the vision coordinate system.

また、ステップS8において、校正領域Aが長方形である場合、干渉しない教示点として校正領域Aの他の頂点が選択できる場合は、ステップS9において、教示点を再設定することも手段として取り得る。   In step S8, if the calibration area A is a rectangle, if another vertex of the calibration area A can be selected as a teaching point that does not interfere, the teaching point can be reset in step S9.

さらに、ステップS12において、ユーザの判断で校正精度を犠牲にすることで、教示点を校正領域Aの内側に再設定することも手段として取り得る。   Furthermore, in step S12, the teaching point may be reset to the inside of the calibration area A by sacrificing the calibration accuracy at the user's judgment.

また、ステップS8,S10において、CADデータに基づき校正器40(又はカメラ500A)を回転操作して教示点を探索したが、回転に限らず、並進させてもよい。その際、教示点P,Pを再設定する場合には、カメラ500,500Aから見た校正器40の相対角度αを維持しながら並進させればよい。 In steps S8 and S10, the calibrator 40 (or camera 500A) is rotated based on the CAD data to search for the teaching point. However, the teaching point is not limited to rotation, and translation may be performed. At that time, when the teaching points P 1 and P 2 are reset, the teaching points P 1 and P 2 may be translated while maintaining the relative angle α of the calibrator 40 viewed from the cameras 500 and 500A.

また、上記第1、第2実施形態では、校正器のマークの位置が未知の場合について説明したが、制御部であるCPUにおいて、校正器のマークの位置が既知の場合についても本発明は適用可能である。その際、校正に用いる教示点は1つであってもよい。   In the first and second embodiments, the case where the position of the mark of the calibrator is unknown has been described. However, the present invention is also applied to the case where the position of the mark of the calibrator is known in the CPU as the control unit. Is possible. In that case, the teaching point used for calibration may be one.

上記実施形態の各処理動作は具体的には制御部としてのCPU101により実行されるものである。従って上述した機能を実現するプログラムを記録した記録媒体を制御装置に供給し、制御装置のコンピュータ(CPUやMPU)が記録媒体に格納されたプログラムを読み出し実行することによって達成されるようにしてもよい。この場合、記録媒体から読み出されたプログラム自体が上述した実施形態の機能を実現することになり、プログラム自体及びそのプログラムを記録した記録媒体は本発明を構成することになる。   Each processing operation of the above embodiment is specifically executed by the CPU 101 as a control unit. Therefore, it may be achieved by supplying a recording medium recording a program for realizing the above-described function to the control device, and reading and executing the program stored in the recording medium by a computer (CPU or MPU) of the control device. Good. In this case, the program itself read from the recording medium realizes the functions of the above-described embodiments, and the program itself and the recording medium recording the program constitute the present invention.

また、上記実施形態では、コンピュータ読み取り可能な記録媒体がHDD104であり、HDD104にプログラム120が格納される場合について説明したが、これに限定するものではない。プログラムは、コンピュータ読み取り可能な記録媒体であれば、いかなる記録媒体に記録されていてもよい。例えば、プログラムを供給するための記録媒体としては、図2に示すROM102、記録ディスク800、不図示の外部記憶装置等を用いてもよい。具体例を挙げて説明すると、記録媒体として、フレキシブルディスク、ハードディスク、光ディスク、光磁気ディスク、CD−ROM、CD−R、磁気テープ、書き換え可能な不揮発性のメモリ(例えばUSBメモリ)、ROM等を用いることができる。   In the above embodiment, the computer-readable recording medium is the HDD 104, and the program 120 is stored in the HDD 104. However, the present invention is not limited to this. The program may be recorded on any recording medium as long as it is a computer-readable recording medium. For example, as a recording medium for supplying the program, the ROM 102, the recording disk 800, an external storage device (not shown) and the like shown in FIG. 2 may be used. As a specific example, a flexible disk, a hard disk, an optical disk, a magneto-optical disk, a CD-ROM, a CD-R, a magnetic tape, a rewritable nonvolatile memory (for example, a USB memory), a ROM, etc. Can be used.

また、上記実施形態におけるプログラムを、ネットワークを介してダウンロードしてコンピュータにより実行するようにしてもよい。   Further, the program in the above embodiment may be downloaded via a network and executed by a computer.

また、コンピュータが読み出したプログラムコードを実行することにより、上記実施形態の機能が実現されるだけに限定するものではない。そのプログラムコードの指示に基づき、コンピュータ上で稼働しているOS(オペレーティングシステム)等が実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれる。   Further, the present invention is not limited to the implementation of the functions of the above-described embodiment by executing the program code read by the computer. This includes a case where an OS (operating system) or the like running on the computer performs part or all of the actual processing based on the instruction of the program code, and the functions of the above-described embodiments are realized by the processing. .

さらに、記録媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれてもよい。そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPU等が実際の処理の一部または全部を行い、その処理によって上記実施形態の機能が実現される場合も含まれる。   Furthermore, the program code read from the recording medium may be written in a memory provided in a function expansion board inserted into the computer or a function expansion unit connected to the computer. This includes a case where the CPU of the function expansion board or function expansion unit performs part or all of the actual processing based on the instruction of the program code, and the functions of the above embodiments are realized by the processing.

また、上記実施形態では、コンピュータがHDD等の記録媒体に記録されたプログラムを実行することにより、処理を行う場合について説明したが、これに限定するものではない。プログラムに基づいて動作する演算部の一部又は全部の機能をASICやFPGA等の専用LSIで構成してもよい。なお、ASICはApplication Specific Integrated Circuit、FPGAはField-Programmable Gate Arrayの頭字語である。   Moreover, although the said embodiment demonstrated the case where a computer performs a process by running the program recorded on recording media, such as HDD, it is not limited to this. A part or all of the functions of the arithmetic unit that operates based on the program may be configured by a dedicated LSI such as an ASIC or FPGA. Note that ASIC is an acronym for Application Specific Integrated Circuit, and FPGA is an acronym for Field-Programmable Gate Array.

10…ロボットシステム、40…校正器、60…障害物、101…CPU(制御部)、120…プログラム、300…ロボット、500…カメラ(視覚センサ) DESCRIPTION OF SYMBOLS 10 ... Robot system, 40 ... Calibrator, 60 ... Obstacle, 101 ... CPU (control part), 120 ... Program, 300 ... Robot, 500 ... Camera (visual sensor)

Claims (9)

ロボットが校正器及び視覚センサのうちいずれか一方の部材を支持し、制御部により前記ロボットを教示点で教示された位置姿勢に動作させて、前記視覚センサに前記校正器を撮像させ、撮像画像の処理結果に基づいて、前記ロボットを基準とした座標系と前記視覚センサを基準とした座標系との校正を行う座標系校正方法において、
前記制御部が、前記教示点を設定する設定工程と、
前記制御部が、少なくとも前記ロボット、前記一方の部材、及び前記ロボットの動作の障害となり得る障害物に関する立体形状データを取得する取得工程と、
前記制御部が、前記立体形状データを用いて、前記教示点に前記ロボットを仮想的に動作させる演算を行い、前記ロボット又は前記一方の部材が前記障害物に干渉するか否かを判断する干渉判断工程と、
前記制御部が、前記干渉判断工程において、前記教示点に前記ロボットを仮想的に動作させた際に前記ロボット又は前記一方の部材が前記障害物に干渉すると判断したときには、前記ロボット及び前記一方の部材が前記障害物に干渉しない前記ロボットの位置姿勢を探索する探索工程と、
前記制御部が、前記探索工程において、前記ロボット及び前記一方の部材が前記障害物に干渉しない前記ロボットの位置姿勢を探し当てた場合には、探し当てた前記ロボットの位置姿勢に基づき、前記教示点を再設定する再設定工程と、を備えたことを特徴とする座標系校正方法。
The robot supports one member of the calibrator and the visual sensor, and the control unit moves the robot to the position and orientation taught at the teaching point, causing the visual sensor to image the calibrator, and the captured image. In the coordinate system calibration method for calibrating the coordinate system based on the robot and the coordinate system based on the visual sensor based on the processing result of
A setting step in which the control unit sets the teaching point;
An acquisition step in which the control unit acquires at least the robot, the one member, and three-dimensional shape data relating to an obstacle that may be an obstacle to the operation of the robot;
The control unit performs an operation for virtually operating the robot at the teaching point using the solid shape data, and determines whether the robot or the one member interferes with the obstacle. A decision process;
When the control unit determines that the robot or the one member interferes with the obstacle when the robot is virtually operated at the teaching point in the interference determination step, the robot and the one of the robot A search step for searching for a position and orientation of the robot in which a member does not interfere with the obstacle;
When the control unit finds the position and orientation of the robot in which the robot and the one member do not interfere with the obstacle in the searching step, the control unit determines the teaching point based on the found position and orientation of the robot. A coordinate system calibration method comprising: a resetting step for resetting.
前記設定工程では、前記制御部が、前記教示点として、少なくとも、前記視覚センサの設計上の光軸を法線とする第1平面上に前記校正器の表面が位置し、かつ前記校正器の位置姿勢が互いに異なるよう前記ロボットを動作させる第1教示点及び第2教示点と、前記第1平面に対して交差する第2平面上に前記校正器の表面が位置するように前記ロボットを動作させる第3教示点と、を設定し、
前記干渉判断工程では、前記制御部が、前記立体形状データを用いて、前記第1教示点及び前記第2教示点に前記ロボットを仮想的に動作させる演算を行い、前記ロボット又は前記一方の部材が前記障害物に干渉するか否かを判断し、
前記探索工程では、前記制御部が、前記干渉判断工程において、前記第1教示点及び前記第2教示点のうち少なくとも一方の教示点に前記ロボットを仮想的に動作させた際に前記ロボット又は前記一方の部材が前記障害物に干渉すると判断したときには、前記第1教示点に前記ロボットを動作させた際の前記校正器と、前記第2教示点に前記ロボットを動作させた際の前記校正器との間の相対的な位置姿勢を維持しながら、前記ロボット及び前記一方の部材が前記障害物に干渉しない前記ロボットの位置姿勢を探索し、
前記再設定工程では、前記制御部が、前記探索工程において、前記ロボット及び前記一方の部材が前記障害物に干渉しない前記ロボットの位置姿勢を探し当てた場合には、探し当てた前記ロボットの位置姿勢に基づき、前記第1教示点及び前記第2教示点を再設定することを特徴とする請求項1に記載の座標系校正方法。
In the setting step, the control unit has the surface of the calibrator positioned as a teaching point at least on a first plane whose normal is the optical axis of the visual sensor design, and Operate the robot so that the surface of the calibrator is positioned on a first plane that intersects the first plane and a first teaching point that causes the robot to move so that the position and orientation are different from each other. Set the third teaching point to be
In the interference determination step, the control unit uses the solid shape data to perform an operation for virtually operating the robot at the first teaching point and the second teaching point, and the robot or the one member Determine whether or not it interferes with the obstacle,
In the searching step, when the control unit virtually operates the robot to at least one of the first teaching point and the second teaching point in the interference determination step, the robot or the robot When it is determined that one member interferes with the obstacle, the calibrator when the robot is operated to the first teaching point and the calibrator when the robot is operated to the second teaching point And searching for the position and orientation of the robot in which the robot and the one member do not interfere with the obstacle, while maintaining the relative position and orientation between
In the resetting step, when the control unit finds the position and orientation of the robot in which the robot and the one member do not interfere with the obstacle in the searching step, the control unit sets the position and orientation of the found robot. The coordinate system calibration method according to claim 1, wherein the first teaching point and the second teaching point are reset based on the first teaching point.
前記探索工程では、前記制御部が、前記立体形状データに基づき、前記設計上の光軸と平行な第1軸まわりに前記校正器を前記視覚センサに対して仮想的に相対的に回転させた際に前記ロボット及び前記一方の部材が前記障害物に干渉しない第1回転角度を探索し、
前記再設定工程では、前記制御部が、前記第1回転角度を探し当てた場合には前記校正器が前記視覚センサに対して前記第1軸まわりに前記第1回転角度で相対的に回転するように前記第1教示点及び前記第2教示点を再設定する、
ことを特徴とする請求項2に記載の座標系校正方法。
In the searching step, the controller rotates the calibrator virtually relative to the visual sensor around a first axis parallel to the designed optical axis based on the solid shape data. And searching for a first rotation angle at which the robot and the one member do not interfere with the obstacle,
In the resetting step, when the control unit finds the first rotation angle, the calibrator rotates relative to the visual sensor around the first axis at the first rotation angle. Resetting the first teaching point and the second teaching point to
The coordinate system calibration method according to claim 2, wherein:
前記探索工程では、前記制御部が、前記第1回転角度がない場合には、前記第1軸に交差する第2軸まわりに前記校正器を前記視覚センサに対して仮想的に相対的に回転させた際に前記ロボット及び前記一方の部材が前記障害物に干渉しない第2回転角度を探索し、
前記再設定工程では、前記制御部が、前記第2回転角度を探し当てた場合には前記校正器が前記視覚センサに対して前記第2軸まわりに前記第2回転角度で相対的に回転するように前記第1教示点及び前記第2教示点を再設定する、
ことを特徴とする請求項3に記載の座標系校正方法。
In the searching step, the control unit virtually rotates the calibrator around the second axis intersecting the first axis relative to the visual sensor when there is no first rotation angle. Searching for a second rotation angle at which the robot and the one member do not interfere with the obstacle when
In the resetting step, when the control unit finds the second rotation angle, the calibrator rotates relative to the visual sensor around the second axis at the second rotation angle. Resetting the first teaching point and the second teaching point to
The coordinate system calibration method according to claim 3.
前記干渉判断工程では、前記制御部が、前記立体形状データを用いて、前記第3教示点に前記ロボットを仮想的に動作させる演算を行い、前記ロボット又は前記一方の部材が前記障害物に干渉するか否かを判断し、
前記探索工程では、前記制御部が、前記干渉判断工程において、前記第3教示点に前記ロボットを動作させた際に前記ロボット又は前記一方の部材が前記障害物に干渉すると判断したときには、前記ロボット及び前記一方の部材が前記障害物に干渉しない前記ロボットの位置姿勢を探索し、
前記再設定工程では、前記制御部が、前記探索工程により、前記ロボット及び前記一方の部材が前記障害物に干渉しない前記ロボットの位置姿勢を探し当てた場合には、探し当てた前記ロボットの位置姿勢に基づき、前記第3教示点を再設定することを特徴とする請求項2乃至4のいずれか1項に記載の座標系校正方法。
In the interference determination step, the control unit performs an operation for virtually operating the robot at the third teaching point using the solid shape data, and the robot or the one member interferes with the obstacle. Decide whether or not to
In the search step, when the control unit determines in the interference determination step that the robot or the one member interferes with the obstacle when the robot is operated at the third teaching point, the robot And searching for the position and orientation of the robot in which the one member does not interfere with the obstacle,
In the resetting step, when the control unit finds the position and orientation of the robot in which the robot and the one member do not interfere with the obstacle in the searching step, the control unit sets the position and orientation of the found robot. The coordinate system calibration method according to any one of claims 2 to 4, wherein the third teaching point is reset based on the third teaching point.
前記探索工程では、前記制御部が、前記ロボットが可動範囲内となる条件の下で、前記ロボット及び前記一方の部材が前記障害物に干渉しない前記ロボットの位置姿勢を探索することを特徴とする請求項1乃至5のいずれか1項に記載の座標系校正方法。   In the searching step, the control unit searches for a position and orientation of the robot in which the robot and the one member do not interfere with the obstacle under a condition that the robot is within a movable range. The coordinate system calibration method according to claim 1. 校正器を撮像する視覚センサと、
前記校正器及び前記視覚センサのうちいずれか一方の部材を支持するロボットと、
前記ロボットを教示点で教示された位置姿勢に動作させて、前記視覚センサに前記校正器を撮像させ、撮像画像の処理結果に基づいて前記ロボットを基準とした座標系と前記視覚センサを基準とした座標系との校正を行う制御部と、を備え、
前記制御部は、
前記教示点を設定する設定処理と、
少なくとも前記ロボット、前記一方の部材、及び前記ロボットの動作の障害となり得る障害物に関する立体形状データを取得する取得処理と、
前記立体形状データを用いて、前記教示点に前記ロボットを仮想的に動作させる演算を行い、前記ロボット又は前記一方の部材が前記障害物に干渉するか否かを判断する干渉判断処理と、
前記干渉判断処理において、前記教示点に前記ロボットを仮想的に動作させた際に前記ロボット又は前記一方の部材が前記障害物に干渉すると判断したときには、前記ロボット及び前記一方の部材が前記障害物に干渉しない前記ロボットの位置姿勢を探索する探索処理と、
前記探索処理において、前記ロボット及び前記一方の部材が前記障害物に干渉しない前記ロボットの位置姿勢を探し当てた場合には、探し当てた前記ロボットの位置姿勢に基づき、前記教示点を再設定する再設定処理と、を実行することを特徴とするロボットシステム。
A visual sensor that images the calibrator;
A robot that supports any one member of the calibrator and the visual sensor;
The robot is operated to the position and orientation taught at the teaching point, the calibrator is imaged by the visual sensor, and the coordinate system based on the robot and the visual sensor based on the processing result of the captured image are used as a reference. A control unit that calibrates the coordinate system
The controller is
A setting process for setting the teaching point;
An acquisition process for acquiring at least three-dimensional shape data related to an obstacle that may be an obstacle to the operation of the robot, the one member, and the robot;
Using the three-dimensional shape data, performing an operation for virtually operating the robot at the teaching point, and determining whether the robot or the one member interferes with the obstacle;
In the interference determination process, when it is determined that the robot or the one member interferes with the obstacle when the robot is virtually operated at the teaching point, the robot and the one member are the obstacle. A search process for searching for the position and orientation of the robot that does not interfere with
In the search process, when the robot and the one member find the position and orientation of the robot that does not interfere with the obstacle, the resetting is performed to reset the teaching point based on the position and orientation of the found robot. A robot system characterized by executing processing.
コンピュータに、請求項1乃至6のいずれか1項に記載の座標系校正方法の各工程を実行させるためのプログラム。   The program for making a computer perform each process of the coordinate system calibration method of any one of Claims 1 thru | or 6. 請求項8に記載のプログラムを記録したコンピュータ読み取り可能な記録媒体。   A computer-readable recording medium on which the program according to claim 8 is recorded.
JP2014170040A 2013-08-28 2014-08-25 Coordinate system calibration method, robot system, program, and recording medium Active JP6489776B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014170040A JP6489776B2 (en) 2013-08-28 2014-08-25 Coordinate system calibration method, robot system, program, and recording medium

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2013176979 2013-08-28
JP2013176979 2013-08-28
JP2014170040A JP6489776B2 (en) 2013-08-28 2014-08-25 Coordinate system calibration method, robot system, program, and recording medium

Publications (2)

Publication Number Publication Date
JP2015062991A true JP2015062991A (en) 2015-04-09
JP6489776B2 JP6489776B2 (en) 2019-03-27

Family

ID=52831334

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014170040A Active JP6489776B2 (en) 2013-08-28 2014-08-25 Coordinate system calibration method, robot system, program, and recording medium

Country Status (1)

Country Link
JP (1) JP6489776B2 (en)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017077614A (en) * 2015-10-22 2017-04-27 キヤノン株式会社 Teaching point correction method, program, recording medium, robot device, photographing point generation method, and photographing point generation device
JP2018034285A (en) * 2016-09-02 2018-03-08 株式会社プロドローン Robot arm and unmanned aircraft including the same
JP2018034284A (en) * 2016-09-02 2018-03-08 株式会社プロドローン Robot arm and unmanned aircraft including the same
JP2018065231A (en) * 2016-10-21 2018-04-26 株式会社アマダホールディングス Calibration jig, sheet metal carrying-in system, and calibration method
JP2018089728A (en) * 2016-12-01 2018-06-14 ファナック株式会社 Robot control device for automatically setting interference region of robot
JP2019155556A (en) * 2018-03-15 2019-09-19 セイコーエプソン株式会社 Control device of robot, robot, robot system, and calibration method for camera
JP2020066024A (en) * 2018-10-24 2020-04-30 ファナック株式会社 Calibration method for laser processing robot
US10935968B2 (en) 2017-10-27 2021-03-02 Fanuc Corporation Robot, robot system, and method for setting coordinate system of robot
JP2021058980A (en) * 2019-10-09 2021-04-15 Dmg森精機株式会社 Production system
KR20220043299A (en) * 2020-09-29 2022-04-05 (주)씨씨엘소프트 System for design optimization of midship section and method of the same
JP2022056344A (en) * 2020-09-29 2022-04-08 台達電子工業股▲ふん▼有限公司 Calibration apparatus and calibration method for coordinate system of robot arm
DE112021004632T5 (en) 2020-11-02 2023-06-29 Fanuc Corporation ROBOT CONTROL DEVICE AND ROBOT SYSTEM

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH058186A (en) * 1991-07-04 1993-01-19 Fanuc Ltd Automatic calibration method
JPH08132373A (en) * 1994-11-08 1996-05-28 Fanuc Ltd Coordinate system coupling method in robot-sensor system
JPH08328632A (en) * 1995-05-26 1996-12-13 Matsushita Electric Works Ltd Method for simulating robot operation
JP2008188705A (en) * 2007-02-05 2008-08-21 Fanuc Ltd Calibration device and method for robot mechanism
JP2012091280A (en) * 2010-10-27 2012-05-17 Mitsubishi Electric Corp Coordinate system calibration method and robot system
WO2012076038A1 (en) * 2010-12-06 2012-06-14 Abb Research Ltd. A method for calibrating a robot unit, a computer unit, a robot unit and use of a robot unit

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH058186A (en) * 1991-07-04 1993-01-19 Fanuc Ltd Automatic calibration method
JPH08132373A (en) * 1994-11-08 1996-05-28 Fanuc Ltd Coordinate system coupling method in robot-sensor system
JPH08328632A (en) * 1995-05-26 1996-12-13 Matsushita Electric Works Ltd Method for simulating robot operation
JP2008188705A (en) * 2007-02-05 2008-08-21 Fanuc Ltd Calibration device and method for robot mechanism
JP2012091280A (en) * 2010-10-27 2012-05-17 Mitsubishi Electric Corp Coordinate system calibration method and robot system
WO2012076038A1 (en) * 2010-12-06 2012-06-14 Abb Research Ltd. A method for calibrating a robot unit, a computer unit, a robot unit and use of a robot unit

Cited By (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11014233B2 (en) 2015-10-22 2021-05-25 Canon Kabushiki Kaisha Teaching point correcting method, program, recording medium, robot apparatus, imaging point creating method, and imaging point creating apparatus
JP2017077614A (en) * 2015-10-22 2017-04-27 キヤノン株式会社 Teaching point correction method, program, recording medium, robot device, photographing point generation method, and photographing point generation device
US10471596B2 (en) 2016-09-02 2019-11-12 Prodrone Co., Ltd. Robot arm and unmanned aerial vehicle equipped with the robot arm
WO2018042693A1 (en) * 2016-09-02 2018-03-08 株式会社プロドローン Robot arm and unmanned aircraft provided with same
WO2018042692A1 (en) * 2016-09-02 2018-03-08 株式会社プロドローン Robot arm and unmanned aircraft provided with same
JP2018034284A (en) * 2016-09-02 2018-03-08 株式会社プロドローン Robot arm and unmanned aircraft including the same
JP2018034285A (en) * 2016-09-02 2018-03-08 株式会社プロドローン Robot arm and unmanned aircraft including the same
JP2018065231A (en) * 2016-10-21 2018-04-26 株式会社アマダホールディングス Calibration jig, sheet metal carrying-in system, and calibration method
JP2018089728A (en) * 2016-12-01 2018-06-14 ファナック株式会社 Robot control device for automatically setting interference region of robot
DE102017127950B4 (en) * 2016-12-01 2019-11-07 Fanuc Corporation ROBOT CONTROL, WHICH AUTOMATICALLY DEFINES A STROKE ZONE FOR A ROBOT
US10481571B2 (en) 2016-12-01 2019-11-19 Fanuc Corporation Robot controller which automatically sets interference region for robot
US10935968B2 (en) 2017-10-27 2021-03-02 Fanuc Corporation Robot, robot system, and method for setting coordinate system of robot
JP2019155556A (en) * 2018-03-15 2019-09-19 セイコーエプソン株式会社 Control device of robot, robot, robot system, and calibration method for camera
JP7035657B2 (en) 2018-03-15 2022-03-15 セイコーエプソン株式会社 Robot control device, robot, robot system, and camera calibration method
CN111085775A (en) * 2018-10-24 2020-05-01 发那科株式会社 Calibration method of laser processing robot
JP2020066024A (en) * 2018-10-24 2020-04-30 ファナック株式会社 Calibration method for laser processing robot
US11597093B2 (en) 2018-10-24 2023-03-07 Fanuc Corporation Calibration method for laser processing robot
JP2021058980A (en) * 2019-10-09 2021-04-15 Dmg森精機株式会社 Production system
KR20220043299A (en) * 2020-09-29 2022-04-05 (주)씨씨엘소프트 System for design optimization of midship section and method of the same
WO2022071630A1 (en) * 2020-09-29 2022-04-07 (주)씨씨엘소프트 Vessel mid-cross-section optimization design system and method therefor
JP2022056344A (en) * 2020-09-29 2022-04-08 台達電子工業股▲ふん▼有限公司 Calibration apparatus and calibration method for coordinate system of robot arm
CN114310868A (en) * 2020-09-29 2022-04-12 台达电子工业股份有限公司 Coordinate system correction device and method for robot arm
JP7216775B2 (en) 2020-09-29 2023-02-01 台達電子工業股▲ふん▼有限公司 ROBOT ARM COORDINATE SYSTEM CALIBRATION DEVICE AND CALIBRATION METHOD
KR102498985B1 (en) 2020-09-29 2023-02-17 (주)씨씨엘소프트 System for design optimization of midship section and method of the same
CN114310868B (en) * 2020-09-29 2023-08-01 台达电子工业股份有限公司 Coordinate system correction device and method for robot arm
DE112021004632T5 (en) 2020-11-02 2023-06-29 Fanuc Corporation ROBOT CONTROL DEVICE AND ROBOT SYSTEM

Also Published As

Publication number Publication date
JP6489776B2 (en) 2019-03-27

Similar Documents

Publication Publication Date Title
JP6489776B2 (en) Coordinate system calibration method, robot system, program, and recording medium
JP6468741B2 (en) Robot system and robot system calibration method
JP7237483B2 (en) Robot system control method, control program, recording medium, control device, robot system, article manufacturing method
JP6429473B2 (en) Robot system, robot system calibration method, program, and computer-readable recording medium
JP4021413B2 (en) Measuring device
JP4191080B2 (en) Measuring device
JP6415190B2 (en) ROBOT DEVICE, ROBOT CONTROL PROGRAM, RECORDING MEDIUM, AND ROBOT DEVICE CONTROL METHOD
US9221176B2 (en) Robot system and method for controlling the same
JP4267005B2 (en) Measuring apparatus and calibration method
JP5670416B2 (en) Robot system display device
US20080252248A1 (en) Device and Method for Calibrating the Center Point of a Tool Mounted on a Robot by Means of a Camera
JP5523392B2 (en) Calibration apparatus and calibration method
KR20140008262A (en) Robot system, robot, robot control device, robot control method, and robot control program
JPWO2018043525A1 (en) Robot system, robot system control apparatus, and robot system control method
JP7102115B2 (en) Calibration method, calibration device, 3D measuring device, 3D visual measuring device, robot end effector, program, recording medium
JP6885856B2 (en) Robot system and calibration method
JP6855491B2 (en) Robot system, robot system control device, and robot system control method
JP2018202608A (en) Robot device, control method of robot device, program, and recording medium
US10569418B2 (en) Robot controller for executing calibration, measurement system and calibration method
JP5573537B2 (en) Robot teaching system
US11577400B2 (en) Method and apparatus for managing robot system
JP2001191285A (en) Robot system and its usage
WO2022124232A1 (en) Image processing system and image processing method
JP7481432B2 (en) Apparatus for correcting robot teaching position, teaching apparatus, robot system, teaching position correction method, and computer program
WO2023013739A1 (en) Robot control device, robot control system, and robot control method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170818

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180717

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180712

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180914

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190129

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190226

R151 Written notification of patent or utility model registration

Ref document number: 6489776

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151