JPH1133962A - Calibration of three-dimensional position sensor for robot - Google Patents

Calibration of three-dimensional position sensor for robot

Info

Publication number
JPH1133962A
JPH1133962A JP20994097A JP20994097A JPH1133962A JP H1133962 A JPH1133962 A JP H1133962A JP 20994097 A JP20994097 A JP 20994097A JP 20994097 A JP20994097 A JP 20994097A JP H1133962 A JPH1133962 A JP H1133962A
Authority
JP
Japan
Prior art keywords
camera
robot
manipulator
calibration
led
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP20994097A
Other languages
Japanese (ja)
Inventor
Shinichi Ishikawa
伸一 石川
Yukito Sagazaki
幸人 嵯峨崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yaskawa Electric Corp
Original Assignee
Yaskawa Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yaskawa Electric Corp filed Critical Yaskawa Electric Corp
Priority to JP20994097A priority Critical patent/JPH1133962A/en
Publication of JPH1133962A publication Critical patent/JPH1133962A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To shorten the working time, to save the labor, and to safely perform the calibration by fitting a jig having a characteristic point to a manipulator, and obtaining the combination of a three-dimensional position of the characteristic point with a position of a characteristic point of a pickup image of a camera so as to perform the calibration of the three-dimensional position of the camera. SOLUTION: A red color LED 10 is fitted to a jig so as to be lighted on the basis of a command from a robot main body 1. Position of the LED 10, which is seen from a jig fitting surface of a manipulator 3, is previously recorded in a robot system. The manipulator 3 is moved to a measurement point, and the LED 10 of a tip of the jig is lighted. Images, which are seen from an image pickup camera and a ranging camera, is taken into an image processing part, and the only part lighted by the LED 10 is drawn. An image is processed with binary so as to specify the position of the LED 10 of an image pickup surface of the camera, and the LED 10 of a coordinate system of the manipulator 3 is read from a control part of the manipulator 3. With this structure, labor is saved, and time is shortened, and calibration is safely performed.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、三次元位置センサ
のキャリブレーション(calibration異なる座標系の統合
的処理) に関し、特にマニピュレータを備えたロボット
に搭載される三次元位置センサのキャリブレーションに
係る。
The present invention relates to calibration of a three-dimensional position sensor (integrated processing of different coordinate systems), and more particularly to calibration of a three-dimensional position sensor mounted on a robot having a manipulator.

【0002】[0002]

【従来の技術】従来のロボットは工場の、生産ラインな
どに固定され、作業対象も一定のため予めプロミラミン
グされた一連の動作を繰り返すという場合が多かった。
このような場合はロボットの繰り返し位置精度が要求さ
れ、絶対的な位置精度は問題にならなかった。しかし、
最近では作業環境や作業対象の変化にも対応できる柔軟
で高度なロボットシステムの要求が高まり、視覚センサ
や位置センサなどがロボットと組み合わされて使用され
るようになった。その例として様々な環境下で対象物の
位置を位置センサにより測定し、ロボットがマニピュレ
ータでその対象物を掴む作業などが挙げられる。
2. Description of the Related Art A conventional robot is fixed to a production line or the like in a factory, and since a work target is also fixed, a series of operations that are previously programmed are often repeated.
In such a case, the repeat position accuracy of the robot was required, and the absolute position accuracy did not matter. But,
Recently, the demand for flexible and advanced robot systems that can respond to changes in work environments and work targets has increased, and visual sensors and position sensors have been used in combination with robots. As an example, there is a work in which the position of an object is measured by a position sensor under various environments, and the robot grasps the object with a manipulator.

【0003】このような場合、マニピュレータの絶対位
置精度に加えて位置センサのもつ座標系とマニピュレー
タのもつ座標系との間のキャリブレーションが重要とな
る。三次元位置センサとして図5のセンサ[従来例1]
を例にとる。図面において、同一符号は同一若しくは相
当部材を表す。図5において5はスリット状のレーザ光
6を発するレーザ投光器、7は測定対象へレーザ光6の
照準を合わせるための照準用カメラ、8は測定対象物及
びレーザスリット光6を撮像する撮像用カメラ、9は測
定対象物である。レーザ投光器5から発せられたレーザ
スリット光6を対象物9に当ててその画像を、カメラ8
で捉え、その結像面での位置から三角測量の原理で対象
物9の位置を算出する。このようなセンサの測定原理や
キャリブレーションは井口・佐藤[三次元画像計測]
(照晃堂)に詳しく述べられているが、以下測定原理を
簡単に述べる。
In such a case, calibration between the coordinate system of the position sensor and the coordinate system of the manipulator is important in addition to the absolute position accuracy of the manipulator. 5 as a three-dimensional position sensor [conventional example 1]
Take for example. In the drawings, the same reference numerals represent the same or corresponding members. In FIG. 5, reference numeral 5 denotes a laser projector for emitting a slit-shaped laser beam 6, reference numeral 7 denotes an aiming camera for aiming the laser beam 6 on an object to be measured, and reference numeral 8 denotes an imaging camera for imaging the object to be measured and the laser slit light 6. , 9 are objects to be measured. A laser slit light 6 emitted from a laser projector 5 is applied to an object 9 and an image thereof is formed by a camera 8.
And the position of the object 9 is calculated from the position on the image plane by the principle of triangulation. Iguchi and Sato [3D image measurement]
(Tokodo), the measurement principle will be briefly described below.

【0004】カメラ8の結像面の座標系をセンサ座標系
とし、対象物9のおかれた座標系を物体座標系とすると
図6のように、物体座標系の対象点P(X,Y,Z)は
センサ座標系の点P’(Xc,Yc)へと投影される。
故にセンサ座標系の点P’は物体座標系の点Pを透視変
換と座標変換することによって表現できる。図6で物体
座標系における対象点Pからセンサ座標系における点
P’への変換を行列で表すと式(1)になる。
Assuming that the coordinate system of the imaging plane of the camera 8 is a sensor coordinate system and the coordinate system of the object 9 is an object coordinate system, as shown in FIG. , Z) are projected onto a point P ′ (Xc, Yc) in the sensor coordinate system.
Therefore, the point P ′ in the sensor coordinate system can be represented by performing a perspective transformation and a coordinate transformation on the point P in the object coordinate system. In FIG. 6, the conversion from the target point P in the object coordinate system to the point P ′ in the sensor coordinate system is represented by a matrix as shown in Expression (1).

【0005】[0005]

【数1】 (Equation 1)

【0006】ただし、Hは同次変換のための変数であ
る。式(1)はカメラの視線の直線を表し、式(1)の
3×4のC行列をカメラパラメータと呼ぶ。このカメラ
パラメータに位置、姿勢、画角など、カメラに関するデ
ータが全て含まれている。また、スリット光6の平面は
物体座標系で式(2)により記述することができる。 P1 X+P2 Y+P3 Z=P4 ……………………式(2) P1 〜P4 をプロジェクトパラメータといい、直線と平
面の交点P(X,Y,Z)はこの2つの式を連立させる
ことで求められる。
Here, H is a variable for homogeneous conversion. Equation (1) represents the line of sight of the camera, and the 3 × 4 C matrix of equation (1) is called a camera parameter. The camera parameters include all data related to the camera, such as the position, posture, and angle of view. Also, the plane of the slit light 6 can be described by the equation (2) in the object coordinate system. P 1 X + P 2 Y + P 3 Z = P 4 Equation (2) P 1 to P 4 are called project parameters, and the intersection P (X, Y, Z) of the straight line and the plane is defined by these two It is obtained by simultaneous equations.

【0007】式(1)を展開して整理すると、 (C11−C31Xc)X+(C12−C32Xc)Y+(C13−C33Xc)Z =C34Xc−C14 ……………………式(3) (C21−C31Yc)X+(C22−C32Yc)Y+(C23−C33Yc)Z =C34Yc−C24 ……………………式(4)[0007] To summarize expand equation (1), (C 11 -C 31 Xc) X + (C 12 -C 32 Xc) Y + (C 13 -C 33 Xc) Z = C 34 Xc-C 14 ...... .................. formula (3) (C 21 -C 31 Yc) X + (C 22 -C 32 Yc) Y + (C 23 -C 33 Yc) Z = C 34 Yc-C 24 .................. ...... Equation (4)

【0008】[0008]

【数2】 (Equation 2)

【0009】とおくと式(2),式(3),式(4)は
まとめて F=QV ……………………式(8) と行列演算の形で表現できる。従ってQの逆行列が存在
するならば V=Q-1F ……………………式(9) から交点P(X,Y,Z)を求めることができる。つま
り対象物にスリット光6を当てたとき、そのセンサ座標
系における位置からこれらのパラメータを使って対象物
の物体座標系における位置を求めることができる。ま
た、逆に物体座標系における位置が既知である物体を計
測することでこれらのパラメータをキャリブレーション
できる。
In other words, equations (2), (3) and (4) can be expressed collectively as F = QV...... Therefore, if there is an inverse matrix of Q, the intersection P (X, Y, Z) can be obtained from V = Q −1 F... (9). That is, when the target object is irradiated with the slit light 6, the position of the target object in the object coordinate system can be obtained from these positions in the sensor coordinate system using these parameters. Conversely, these parameters can be calibrated by measuring an object whose position in the object coordinate system is known.

【0010】位置センサの各パラメータのキャリブレー
ションを行うとき、従来の具体例は図7のような三次元
測定器[従来例2]を用いていた。図7において19は
LED(発光ダイオード)であり、20,21はLED
19を撮像するカメラ、22は三次元測定器本体、23
は三次元測定器を操作するコンソールである。位置セン
サ2の測定範囲(撮像用カメラ8の視界)をカバーでき
るようカメラ20,21をロボット1の両側面に配置
し、先ず三次元測定器のキャリブレーションを行う。そ
の後、図7のようにLED19を三脚などを使って位置
センサ2のレーザスリット光6をLED19に当て、撮
像用カメラ8の撮像面上でのLED19の位置を画像処
理によって特定する。同じ位置で三次元測定器の座標系
におけるLED19の三次元位置をカメラ20,21を
用いた三角測量により測定する。
When calibrating each parameter of the position sensor, a conventional concrete example uses a three-dimensional measuring device [conventional example 2] as shown in FIG. 7, reference numeral 19 denotes an LED (light emitting diode), and reference numerals 20 and 21 denote LEDs.
A camera for imaging 19, 22 is a three-dimensional measuring device main body, 23
Is a console for operating the CMM. The cameras 20 and 21 are arranged on both sides of the robot 1 so as to cover the measurement range of the position sensor 2 (the field of view of the imaging camera 8), and first the calibration of the three-dimensional measuring device is performed. Thereafter, as shown in FIG. 7, the laser slit light 6 of the position sensor 2 is applied to the LED 19 using a tripod or the like, and the position of the LED 19 on the imaging surface of the imaging camera 8 is specified by image processing. At the same position, the three-dimensional position of the LED 19 in the coordinate system of the three-dimensional measuring device is measured by triangulation using the cameras 20 and 21.

【0011】人手によりLED19をレーザスリット光
6の平面に沿って少しづつ動かし、同様にして三次元測
定器の座標系におけるLED19の位置とセンサ座標系
における位置とを測定する。数十点で測定を行った後、
最小二乗法によりパラメータを計算する。然し、三次元
測定器の座標系を物体座標系としてパラメータを計算し
ているため、このままで測定を行うと三次元測定器の座
標系における位置が算出されてしまう。実際の作業では
さらにマニピュレータの座標系へと変換する行列を決定
するためのキャリブレーションを行っていた。
The LED 19 is manually moved little by little along the plane of the laser slit light 6, and the position of the LED 19 in the coordinate system of the three-dimensional measuring device and the position in the sensor coordinate system are measured in the same manner. After measuring at dozens of points,
Calculate the parameters by the least squares method. However, since the parameters are calculated using the coordinate system of the three-dimensional measuring device as the object coordinate system, if the measurement is performed as it is, the position of the three-dimensional measuring device in the coordinate system will be calculated. In the actual work, calibration was further performed to determine a matrix to be converted to the manipulator coordinate system.

【0012】さらに、この種の従来技術として特開平5
−8186号公報[従来例3]がある。それは画像処理
装置と自動機械間のキャリブレーションを自動的に行う
方式であり、キャリブレーション治具データ及びキャリ
ブレーション時に治具をカメラで撮影させる治具を取り
付けたロボットの位置を設定教示しておき、キャリブレ
ーション指令により、治具を取り付けたロボットは教示
点に移動し、移動後に画像処理装置は治具を撮影し画像
を取込み、撮影した画像データと、設定されている治具
データ及びロボットの位置により、キャリブレーション
処理を行い、一度、治具データ及び教示点を設定教示し
ておくだけで、以後のキャリブレーションは、ロボット
に治具を取り付けて、キャリブレーション指令を入力す
るのみで自動的にキャリブレーションが実行されるとい
う手段である。
[0012] Furthermore, Japanese Patent Application Laid-Open No.
No. -8186 [Conventional Example 3]. It is a method for automatically performing calibration between the image processing device and the automatic machine. The calibration jig data and the position of the robot equipped with the jig that allows the camera to shoot the jig during calibration are set and taught. In accordance with the calibration command, the robot with the jig moves to the teaching point, and after the movement, the image processing apparatus takes an image of the jig and captures an image. Calibration processing is performed according to the position, jig data and teaching points are set and taught once, and subsequent calibration is automatically performed only by attaching a jig to the robot and inputting a calibration command. Is a means for performing calibration.

【0013】[0013]

【発明が解決しようとする課題】しかし、従来例2の方
法では三次元測定器のセッティングや三次元測定器自身
のキャリブレーションなどで準備に時間がかかってい
た。また、三次元測定器のLEDを測定点ごとに人手で
動かさねばならず、このときレーザスリット光の平面に
沿って動かすために、レーザを照射するので作業者の目
にレーザが当たらないよう注意する必要があった。さら
に、三次元測定器とロボットが別々のシステムのため三
次元測定器の座標系とマニピュレータの座標系との間の
キャリブレーションが必要であるなど、キャリブレーシ
ョンに多くの時間と人手がかかるという問題があった。
However, in the method of the conventional example 2, it takes a long time to prepare the three-dimensional measuring device and to calibrate the three-dimensional measuring device itself. In addition, the LED of the CMM must be manually moved at each measurement point. At this time, the laser is irradiated to move the laser along the plane of the laser slit light. I needed to. In addition, the calibration takes a lot of time and labor, such as the need for calibration between the coordinate system of the coordinate system and the coordinate system of the manipulator because the coordinate system and the robot are separate systems. was there.

【0014】また、従来例3はロボット適用の自動流れ
工程において、経時的にカメラのずれ、光学的環境の変
化等の異変時に一々キャリブレーションを繰り返すこと
なく設定教示をしておけば、必要に応じてキャリブレー
ションが行えるという手段であるから、本発明の考究す
るところとは些か趣を異にする。そこで、本発明は短時
間・少人数で行うことができ、かつ安全なキャリブレー
ション法を提供することを目的とする。
Further, in the conventional example 3, in the automatic flow process of the robot application, if the setting is taught without repeating the calibration one by one at the time of an abnormal change such as a shift of the camera over time or a change in the optical environment, it becomes necessary. Since the calibration can be performed in response to this, it is slightly different from what the present invention considers. Therefore, an object of the present invention is to provide a safe calibration method that can be performed in a short time and with a small number of people.

【0015】[0015]

【課題を解決するための手段】上記問題を解決するた
め、本発明の請求項1に記載の発明は、特徴点を持つ治
具をロボットのマニピュレータに取り付け、基準座標系
における前記特徴点の三次元位置と、撮像用,照準用で
あるセンサ部の2つのカメラの撮像面における前記特徴
点の位置との組み合せを複数求め、その結果を用いて前
記センサ部の2つのカメラの三次元位置をキャリブレー
ションすることを特徴とするロボットの三次元位置セン
サのキャリブレーション方法である。
According to a first aspect of the present invention, a jig having a feature point is mounted on a manipulator of a robot, and a cubic arrangement of the feature point in a reference coordinate system is provided. A plurality of combinations of the original position and the positions of the feature points on the imaging planes of the two cameras of the sensor unit for imaging and aiming are obtained, and the three-dimensional positions of the two cameras of the sensor unit are determined using the results. A calibration method for a three-dimensional position sensor of a robot characterized by performing calibration.

【0016】このようにして、キャリブレーションの際
に三次元測定器を用いる必要がなくなり、ロボットシス
テム内のみでキャリブレーションが完了するため、短時
間化と省力化とが実現され、作業者の測定作業方向へレ
ーザを発射することがなく、安全にキャリブレーション
を行えるという特段の効果を奏することができる。
In this way, it is not necessary to use a three-dimensional measuring device at the time of calibration, and the calibration is completed only in the robot system, so that the time and labor can be saved, and the measurement of the operator can be performed. A special effect that the calibration can be performed safely without emitting the laser in the working direction can be achieved.

【0017】請求項2に記載の発明は、請求項1に記載
のロボットの三次元位置センサのキャリブレーション方
法において、レーザ投光器と、該レーザ投光器から発せ
られるレーザ光の照準を合わせるための照準用カメラ
と、該照準用カメラから一定の間隔をもって一定の角度
傾いて取り付けられ対象物及び前記レーザ光を撮像する
撮像用カメラとから構成され、それらを前記マニピュレ
ータと共に、ロボットに搭載し、前記対象物に前記レー
ザ光を当て、前記撮像用カメラの撮像面上での前記レー
ザ光の位置から三角測量の原理で前記対象物の位置を測
定することを特徴とするロボットの三次元位置センサの
キャリブレーション方法である。
According to a second aspect of the present invention, in the method for calibrating a three-dimensional position sensor of a robot according to the first aspect, a laser projector and an aiming device for aiming a laser beam emitted from the laser projector. A camera and an imaging camera attached to the aiming camera at a fixed interval at a fixed angle and imaging the object and the laser light, mounted on a robot together with the manipulator, and mounted on the robot. And irradiating the laser light on the imaging surface of the imaging camera to measure the position of the object based on the principle of triangulation from the position of the laser light. Is the way.

【0018】かくして、キャリブレーションの際に三次
元測定器を用いる必要がなくなり、ロボットシステム内
のみでキャリブレーションが完了するため、短時間化と
省力化とが実現され、さらにレーザを発射することなく
安全にキャリブレーションを行える顕著な効果がある。
Thus, it is not necessary to use a three-dimensional measuring device at the time of calibration, and the calibration is completed only in the robot system. Therefore, the time and labor can be saved, and the laser is not emitted. There is a remarkable effect that the calibration can be performed safely.

【0019】請求項3に記載の発明は、ロボットに搭載
された、レーザ投光器と、該レーザ投光器から発せられ
るレーザ光の照準を合わせるための照準用カメラと、該
照準用カメラから一定の間隔をもって一定の角度傾いて
取り付けられ、対象物及び前記レーザ光を撮像する撮像
用カメラと、キャリブレーション用治具を動かすマニピ
ュレータと、前記キャリブレーション用治具に設けられ
たLEDと、ロボット制御部に内蔵された、全ての制御
の演算を行うCPUと、データを記憶するメモリと、前
記照準用カメラと前記撮像用カメラの画像を処理する画
像処理部と、前記マニピュレータの動きを制御するマニ
ピュレータ制御部と、前記レーザ投光器と前記LEDへ
の入出力を変換するI/O部とをそれぞれ備えると共
に、オペレータからの各種指令で前記制御部を操作し、
オペレータへの画像表示とパラメータ表示を行う操作部
を具備したことを特徴とするロボットの三次元位置セン
サのキャリブレーション装置である。
According to a third aspect of the present invention, there is provided a laser projector mounted on a robot, an aiming camera for aiming a laser beam emitted from the laser emitter, and a fixed distance from the aiming camera. An imaging camera that is attached at a fixed angle and captures an object and the laser light, a manipulator that moves a calibration jig, an LED provided on the calibration jig, and a built-in robot control unit. CPU that performs all control calculations, a memory that stores data, an image processing unit that processes images of the aiming camera and the imaging camera, and a manipulator control unit that controls movement of the manipulator. , And an I / O unit for converting input and output to and from the laser projector and the LED. Operating the controller in various commands,
A calibration device for a three-dimensional position sensor of a robot, comprising an operation unit for displaying an image and displaying parameters to an operator.

【0020】従って、本発明は至って簡潔な回路構成と
安全性に優れた装置が実現され、作業効率と信頼性の向
上が得られ、三次元位置センサのキャリブレーション装
置が確立できるという格段の効果が認められる。
Therefore, according to the present invention, a very simple circuit configuration and a device excellent in safety are realized, work efficiency and reliability are improved, and a remarkable effect that a three-dimensional position sensor calibration device can be established. Is recognized.

【0021】請求項4に記載の発明は、請求項3に記載
のロボットの三次元位置センサのキャリブレーション装
置において、三次元的に位置を変化できるマニピュレー
タの先端部にLEDを搭載し、該LEDの点滅により三
次元位置センサのキャリブレーションを行うことを特徴
とするロボットの三次元位置センサのキャリブレーショ
ン装置であり、キャリブレーションを行う特徴点が明確
かつ安全に求められ、作業の普遍性に著しい貢献をなす
ことが可能である。
According to a fourth aspect of the present invention, there is provided the calibration apparatus for a three-dimensional position sensor of a robot according to the third aspect, wherein an LED is mounted on a tip of a manipulator capable of changing a position in three dimensions. Is a calibration device for a 3D position sensor of a robot, characterized in that the 3D position sensor is calibrated by blinking.The feature points to be calibrated are clearly and safely required, and the universality of work is remarkable It is possible to make a contribution.

【0022】[0022]

【発明の実施の形態】以下本発明の実施例を図に基づい
て説明する。図1は本発明の実施の形態1の主要部を表
す斜視図である。図1において、1はロボット本体、2
はロボット本体1のセンサ部、3はロボット本体1のマ
ニピュレータ、4はマニピュレータ3に取り付けられた
キャリブレーション用治具である。
DESCRIPTION OF THE PREFERRED EMBODIMENTS Embodiments of the present invention will be described below with reference to the drawings. FIG. 1 is a perspective view illustrating a main part of the first embodiment of the present invention. In FIG. 1, 1 is a robot body, 2
Denotes a sensor unit of the robot main body 1, 3 denotes a manipulator of the robot main body 1, and 4 denotes a calibration jig attached to the manipulator 3.

【0023】図2に示すように、治具の先端には赤色L
ED10が取り付けられており、ロボット本体1からの
指令により点灯する。図3は、この実施の形態1による
キャリブレーションを実行中に撮像カメラから見た画像
を示す正面図である。
As shown in FIG. 2, a red L is provided at the tip of the jig.
The ED 10 is attached, and is turned on by a command from the robot body 1. FIG. 3 is a front view showing an image viewed from the imaging camera during the execution of the calibration according to the first embodiment.

【0024】そして、図4はこのキャリブレーションを
実行する回路構成を表すブロック図であり、5はレーザ
投光器、11はロボット制御器であり、その内部にはC
PU(中央処理装置)12、情報を記憶するメモリ1
3、画像を処理する画像処理部14、マニピュレータ3
を制御するマニピュレータ制御部15、レーザ投光器5
とLED10への出力情報を変換して適切な電気信号に
して送出するI/O部16をそれぞれ備えており、この
制御器11はオペレータ18からの各種指令で操作され
る操作部17からの指令を受け、かつ画像表示,パラメ
ータ表示などを操作部17を介してオペレータ18へ帰
還させる。
FIG. 4 is a block diagram showing a circuit configuration for executing this calibration, wherein 5 is a laser projector, 11 is a robot controller, and C
PU (Central Processing Unit) 12, memory 1 for storing information
3. Image processing unit 14 for processing images, manipulator 3
Manipulator control unit 15 for controlling the laser projector 5
And an I / O unit 16 for converting output information to the LED 10 and sending it out as an appropriate electric signal, and the controller 11 is provided with a command from an operation unit 17 operated by various commands from an operator 18. In addition, the image display and the parameter display are returned to the operator 18 via the operation unit 17.

【0025】マニピュレータ3の治具取付面からみたL
ED10の中心までの位置は予めロボットシステムに記
録されている。またマニピュレータ3は既にキャリブレ
ーションが完了しているとする。マニピュレータ3を測
定点へと移動させ、オペレータ18の操作で治具先端の
LED10が点灯する。この点滅のタイミングに合わせ
て撮像用カメラ8並びに照準用カメラ7から見たLED
10点灯時、消灯時の画像を画像処理部14に取込み、
点灯画像と消灯画像との差画像からLED10の点灯部
分のみを抜き出す。
L viewed from the jig mounting surface of the manipulator 3
The position up to the center of the ED 10 is recorded in the robot system in advance. It is also assumed that the manipulator 3 has already completed calibration. The manipulator 3 is moved to the measurement point, and the operation of the operator 18 causes the LED 10 at the tip of the jig to light up. The LED viewed from the imaging camera 8 and the aiming camera 7 at the timing of this blinking
10 When the light is turned on, the image when the light is turned off is taken into the image processing unit 14,
Only the lighting portion of the LED 10 is extracted from the difference image between the lighting image and the turning-off image.

【0026】この画像を二値化して重心を求め、それぞ
れのカメラ撮像面におけるLED10の位置を特定す
る。同時にマニピュレータ3の座標系における治具先端
のLED10の三次元位置をマニピュレータ3の制御部
15から読み込む。オペレータ18の操作によりマニピ
ュレータ3を次の測定点に移動させ同様の作業を行う。
所定の点数に達するまで同じ作業を繰り返し、測定が終
了するとそれまでの測定結果を基に照準用カメラ7、撮
像用カメラ8についてそれぞれのカメラパラメータが自
動的に計算される。
The image is binarized to determine the center of gravity, and the position of the LED 10 on each camera imaging plane is specified. At the same time, the three-dimensional position of the LED 10 at the tip of the jig in the coordinate system of the manipulator 3 is read from the control unit 15 of the manipulator 3. The same operation is performed by moving the manipulator 3 to the next measurement point by the operation of the operator 18.
The same operation is repeated until a predetermined score is reached, and when the measurement is completed, the respective camera parameters of the aiming camera 7 and the imaging camera 8 are automatically calculated based on the measurement results up to that point.

【0027】ここで、照準用カメラ7から見たレーザス
リット光6が常に一定の位置にあることを利用してプロ
ジェクトパラメータを求める。照準用カメラ7のカメラ
パラメータをC’11〜C’34とすると式(3)及び式
(4)と同様に (C’11−C’31 X'c) X+(C’12−C’32 X'c) Y +(C’13−C’33 X'c) Z=C’34 X'c−C’14…………式(10) (C’21−C’31 Y'c) X+(C’22−C’32 Y'c) Y +(C’23−C’33 Y'c) Z=C’34 Y'c−C’24…………式(11) が成立する。式(10)と式(11)を連立させると、
式(5)〜式(7)は
Here, a project parameter is obtained by utilizing that the laser slit light 6 viewed from the aiming camera 7 is always at a fixed position. Assuming that the camera parameters of the aiming camera 7 are C ′ 11 to C ′ 34 , similarly to Expressions (3) and (4), (C ′ 11 −C ′ 31 X′c) X + (C ′ 12 −C ′ 32) X′c) Y + (C ′ 13 −C ′ 33 X′c) Z = C ′ 34 X′c−C ′ 14 ... Formula (10) (C ′ 21 −C ′ 31 Y′c) X + (C '22 -C' 32 Y'c) Y + (C '23 -C' 33 Y'c) Z = C '34 Y'c-C' 24 ............ formula (11) is satisfied . When equation (10) and equation (11) are combined,
Equations (5) to (7) are

【0028】[0028]

【数3】 (Equation 3)

【0029】と書き変えることができる。F及びQ行列
の3行目の成分がプロジェクトパラメータを示す。ここ
で、X'cが一定であれば、照準用カメラ7のカメラパラ
メータの一部を用いてプロジェクトパラメータを求める
ことができる。具体的にはレーザ投光器5を照準用カメ
ラ7の視線と平行な向きに配置すれば、レーザスリット
光6は照準用カメラ7からは常に一定の位置に見える。
以上の方法ではプロジェクトパラメータも自動的に計算
され、カメラパラメータとともにオペレータ18に示さ
れる。また、実際にはマニピュレータ3の各測定点の位
置をキャリブレーション用のジョブとしてティーチング
しており、再現性を持たせている。
It can be rewritten as The components in the third rows of the F and Q matrices indicate project parameters. Here, if X′c is constant, the project parameters can be obtained by using a part of the camera parameters of the aiming camera 7. Specifically, if the laser projector 5 is arranged in a direction parallel to the line of sight of the aiming camera 7, the laser slit light 6 always appears at a fixed position from the aiming camera 7.
In the above method, the project parameters are also automatically calculated and shown to the operator 18 together with the camera parameters. In addition, the positions of the respective measurement points of the manipulator 3 are actually taught as jobs for calibration, so that reproducibility is provided.

【0030】[0030]

【発明の効果】以上述べたように本発明は、マニピュレ
ータの座標系とセンサの座標系との関係を直接求めるた
めキャリブレーションが1回ですみ、三次元測定器が不
要になる。その結果キャリブレーションの省力化・短時
間化が実現する。またレーザ光を照射しないので安全に
キャリブレーションを行うことができる。かくして、キ
ャリブレーションの効率化と安全性に特段の効果を奏す
ることができ、斯界に貢献するところが大きいと言え
る。
As described above, according to the present invention, since the relationship between the coordinate system of the manipulator and the coordinate system of the sensor is directly obtained, only one calibration is required, and a three-dimensional measuring device is not required. As a result, labor saving and time reduction of the calibration are realized. Further, since laser light is not irradiated, calibration can be performed safely. In this way, it is possible to achieve a special effect on the efficiency and safety of the calibration, and it can be said that it greatly contributes to this field.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の実施の形態1を示す主要部の斜視図FIG. 1 is a perspective view of a main part showing a first embodiment of the present invention.

【図2】本発明で使用するキャリブレーション用治具を
示す側面図
FIG. 2 is a side view showing a calibration jig used in the present invention.

【図3】本発明によるキャリブレーションを実行中に撮
像用カメラから見た画像を示す正面図
FIG. 3 is a front view showing an image viewed from an imaging camera during execution of calibration according to the present invention;

【図4】本発明の実施の形態1の回路構成を示すブロッ
ク図
FIG. 4 is a block diagram illustrating a circuit configuration according to the first embodiment of the present invention;

【図5】三次元位置センサの例を示す斜視図[従来例
1]
FIG. 5 is a perspective view showing an example of a three-dimensional position sensor [conventional example 1].

【図6】センサ座標系と物体座標系の関係を斜視図で示
す説明図
FIG. 6 is an explanatory diagram showing a relationship between a sensor coordinate system and an object coordinate system in a perspective view.

【図7】従来例2の三次元測定器を使ったキャリブレー
ションの様子を示す斜視図
FIG. 7 is a perspective view showing a state of calibration using the three-dimensional measuring device of Conventional Example 2.

【符号の説明】[Explanation of symbols]

1 ロボット本体 2 三次元位置センサ部 3 マニピュレータ 4 キャリブレーション用治具 5 レーザ投光器 6 レーザスリット光 7 照準用カメラ 8 撮像用カメラ 9 測定対象物 10 赤色LED 11 ロボット制御器 12 CPU 13 メモリ 14 画像処理部 15 マニピュレータ制御部 16 I/O(入力/出力・変換)部 17 操作部 18 オペレータ 19 三次元測定器のLED 20,21 三次元測定器のカメラ 22 三次元測定器本体 23 三次元測定器コンソール DESCRIPTION OF SYMBOLS 1 Robot main body 2 3D position sensor part 3 Manipulator 4 Calibration jig 5 Laser projector 6 Laser slit light 7 Aiming camera 8 Imaging camera 9 Measurement object 10 Red LED 11 Robot controller 12 CPU 13 Memory 14 Image processing Unit 15 Manipulator control unit 16 I / O (input / output / conversion) unit 17 Operation unit 18 Operator 19 LED of 3D measuring device 20, 21 Camera of 3D measuring device 22 3D measuring device main body 23 3D measuring device console

Claims (4)

【特許請求の範囲】[Claims] 【請求項1】 特徴点を持つ治具をロボットのマニピュ
レータに取り付け、 基準座標系における前記特徴点の三次元位置と、撮像
用,照準用であるセンサ部の2つのカメラの撮像面にお
ける前記特徴点の位置との組み合せを複数求め、 その結果を用いて前記センサ部の2つのカメラの三次元
位置をキャリブレーションすることを特徴とするロボッ
トの三次元位置センサのキャリブレーション方法。
1. A jig having a feature point is attached to a manipulator of a robot, and a three-dimensional position of the feature point in a reference coordinate system, and the feature on an imaging surface of two cameras of a sensor unit for imaging and aiming. A method for calibrating a three-dimensional position sensor of a robot, wherein a plurality of combinations with point positions are obtained, and the results are used to calibrate the three-dimensional positions of the two cameras of the sensor unit.
【請求項2】 請求項1に記載のロボットの三次元位置
センサのキャリブレーション方法において、 レーザ投光器と、該レーザ投光器から発せられるレーザ
光の照準を合わせるための照準用カメラと、該照準用カ
メラから一定の間隔をもって一定の角度傾いて取り付け
られ対象物及び前記レーザ光を撮像する撮像用カメラと
から構成され、 それらを前記マニピュレータと共に、ロボットに搭載
し、 前記対象物に前記レーザ光を当て、前記撮像用カメラの
撮像面上での前記レーザ光の位置から三角測量の原理で
前記対象物の位置を測定することを特徴とするロボット
の三次元位置センサのキャリブレーション方法。
2. The method for calibrating a three-dimensional position sensor of a robot according to claim 1, wherein the laser projector, an aiming camera for aiming a laser beam emitted from the laser emitter, and the aiming camera. An imaging camera that captures the object and the laser light that is attached at a fixed angle at a constant interval from the camera and is mounted on a robot together with the manipulator, and irradiates the object with the laser light, A method for calibrating a three-dimensional position sensor of a robot, comprising: measuring a position of the object based on a principle of triangulation from a position of the laser beam on an imaging surface of the imaging camera.
【請求項3】 ロボットに搭載された、 レーザ投光器と、 該レーザ投光器から発せられるレーザ光の照準を合わせ
るための照準用カメラと、 該照準用カメラから一定の間隔をもって一定の角度傾い
て取り付けられ、対象物及び前記レーザ光を撮像する撮
像用カメラと、 キャリブレーション用治具を動かすマニピュレータと、 前記キャリブレーション用治具に設けられたLEDと、 ロボット制御部に内蔵された、 全ての制御の演算を行うCPUと、 データを記憶するメモリと、 前記照準用カメラと前記撮像用カメラの画像を処理する
画像処理部と、 前記マニピュレータの動きを制御するマニピュレータ制
御部と、 前記レーザ投光器と前記LEDへの入出力を変換するI
/O部とをそれぞれ備えると共に、 オペレータからの各種指令で前記制御部を操作し、オペ
レータへの画像表示とパラメータ表示を行う操作部を具
備したことを特徴とするロボットの三次元位置センサの
キャリブレーション装置。
3. A laser projector mounted on a robot, an aiming camera for aiming a laser beam emitted from the laser emitter, and a fixed angle inclined at a fixed interval from the aiming camera. An imaging camera for imaging the object and the laser beam; a manipulator for moving a calibration jig; an LED provided on the calibration jig; and all controls built in the robot controller. A CPU that performs calculations; a memory that stores data; an image processing unit that processes images of the aiming camera and the imaging camera; a manipulator control unit that controls movement of the manipulator; the laser projector and the LED I to convert input and output to
And a control unit for operating the control unit according to various commands from an operator, and displaying an image and displaying parameters to the operator. Device.
【請求項4】 請求項3に記載のロボットの三次元位置
センサのキャリブレーション装置において、三次元的に
位置を変化できるマニピュレータの先端部にLEDを搭
載し、該LEDの点滅により三次元位置センサのキャリ
ブレーションを行うことを特徴とするロボットの三次元
位置センサのキャリブレーション装置。
4. The three-dimensional position sensor calibration apparatus for a robot according to claim 3, wherein an LED is mounted on a tip portion of the manipulator capable of changing a position in three dimensions, and the three-dimensional position sensor is blinked by the LED. A calibration device for a three-dimensional position sensor of a robot, wherein the calibration is performed.
JP20994097A 1997-07-18 1997-07-18 Calibration of three-dimensional position sensor for robot Pending JPH1133962A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP20994097A JPH1133962A (en) 1997-07-18 1997-07-18 Calibration of three-dimensional position sensor for robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP20994097A JPH1133962A (en) 1997-07-18 1997-07-18 Calibration of three-dimensional position sensor for robot

Publications (1)

Publication Number Publication Date
JPH1133962A true JPH1133962A (en) 1999-02-09

Family

ID=16581189

Family Applications (1)

Application Number Title Priority Date Filing Date
JP20994097A Pending JPH1133962A (en) 1997-07-18 1997-07-18 Calibration of three-dimensional position sensor for robot

Country Status (1)

Country Link
JP (1) JPH1133962A (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002228442A (en) * 2000-11-30 2002-08-14 Mixed Reality Systems Laboratory Inc Positioning attitude determining method and device, and recording media
US6542840B2 (en) 2000-01-27 2003-04-01 Matsushita Electric Industrial Co., Ltd. Calibration system, target apparatus and calibration method
KR100752782B1 (en) 2006-05-26 2007-08-29 주식회사 에이티엠 System and method for three dimensional printing about work position of robot
JP2011011321A (en) * 2009-07-06 2011-01-20 Fuji Electric Holdings Co Ltd Robot system and calibration method for the same
JP2011507714A (en) * 2007-12-27 2011-03-10 ライカ ジオシステムズ アクチェンゲゼルシャフト Method and system for accurately positioning at least one object in a final pose in space
JP2011235400A (en) * 2010-05-11 2011-11-24 Daihen Corp Calibration method of manipulator and robot control system
CN103363899A (en) * 2013-07-05 2013-10-23 科瑞自动化技术(深圳)有限公司 Calibration device and calibration method for calibrating coordinate system of robot arm
JP2019014030A (en) * 2017-07-11 2019-01-31 セイコーエプソン株式会社 Control device for robot, robot, robot system, and calibration method for camera
JP2021088003A (en) * 2019-12-02 2021-06-10 ジック株式会社 Robot coordinate system alignment method, alignment system, and alignment device
CN116468797A (en) * 2023-03-09 2023-07-21 北京航天众信科技有限公司 Aiming method and device for rail-mounted robot and computer equipment

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6542840B2 (en) 2000-01-27 2003-04-01 Matsushita Electric Industrial Co., Ltd. Calibration system, target apparatus and calibration method
JP2002228442A (en) * 2000-11-30 2002-08-14 Mixed Reality Systems Laboratory Inc Positioning attitude determining method and device, and recording media
KR100752782B1 (en) 2006-05-26 2007-08-29 주식회사 에이티엠 System and method for three dimensional printing about work position of robot
JP2011507714A (en) * 2007-12-27 2011-03-10 ライカ ジオシステムズ アクチェンゲゼルシャフト Method and system for accurately positioning at least one object in a final pose in space
JP2011011321A (en) * 2009-07-06 2011-01-20 Fuji Electric Holdings Co Ltd Robot system and calibration method for the same
JP2011235400A (en) * 2010-05-11 2011-11-24 Daihen Corp Calibration method of manipulator and robot control system
CN103363899A (en) * 2013-07-05 2013-10-23 科瑞自动化技术(深圳)有限公司 Calibration device and calibration method for calibrating coordinate system of robot arm
CN103363899B (en) * 2013-07-05 2016-09-14 深圳科瑞技术股份有限公司 A kind of caliberating device for demarcating coordinate system of robot arm and scaling method
JP2019014030A (en) * 2017-07-11 2019-01-31 セイコーエプソン株式会社 Control device for robot, robot, robot system, and calibration method for camera
JP2021088003A (en) * 2019-12-02 2021-06-10 ジック株式会社 Robot coordinate system alignment method, alignment system, and alignment device
JPWO2021111868A1 (en) * 2019-12-02 2021-06-10
WO2021111868A1 (en) * 2019-12-02 2021-06-10 ジック株式会社 Coordinate system alignment method, alignment system, and alignment device for robot
CN116468797A (en) * 2023-03-09 2023-07-21 北京航天众信科技有限公司 Aiming method and device for rail-mounted robot and computer equipment
CN116468797B (en) * 2023-03-09 2023-11-24 北京航天众信科技有限公司 Aiming method and device for rail-mounted robot and computer equipment

Similar Documents

Publication Publication Date Title
KR101988083B1 (en) Systems and methods for tracking location of movable target object
JP4021413B2 (en) Measuring device
US8588974B2 (en) Work apparatus and calibration method for the same
US20050225278A1 (en) Measuring system
JP6504274B2 (en) Three-dimensional shape data and texture information generation system, imaging control program, three-dimensional shape data and texture information generation method, and information recording medium
JP2011031346A (en) Apparatus and method for measuring position of tool end point of robot
JP2002090113A (en) Position and attiude recognizing device
JP6869159B2 (en) Robot system
CN111278608B (en) Calibration article for 3D vision robot system
JP6670974B1 (en) Robot coordinate system alignment method, alignment system, and alignment device
JPH11166818A (en) Calibrating method and device for three-dimensional shape measuring device
JP2010188439A (en) Method and apparatus for calculating parameter
JPH1133962A (en) Calibration of three-dimensional position sensor for robot
JP5561109B2 (en) Apparatus and method for measuring three-dimensional dimensions
JP5427566B2 (en) Robot control method, robot control program, and robot hand used in robot control method
JPH07286820A (en) Position measuring method using three-dimensional visual sensor, and positional deviation correcting method
CN112437908A (en) Depth sensing robot hand-eye camera using structured light
US20230123629A1 (en) 3d computer-vision system with variable spatial resolution
WO2023013740A1 (en) Robot control device, robot control system, and robot control method
TWI712473B (en) Method for calibrating coordinate of robot arm
CN116194252A (en) Robot system
JPH05337785A (en) Grinding path correcting device of grinder robot
US20240066701A1 (en) Simulation device using three-dimensional position information obtained from output from vision sensor
JPH0843044A (en) Measuring apparatus for three dimensional coordinate
JPH11102209A (en) Method and device for gathering instruction point position data on work