JP4015161B2 - Industrial robot controller - Google Patents

Industrial robot controller Download PDF

Info

Publication number
JP4015161B2
JP4015161B2 JP2005172874A JP2005172874A JP4015161B2 JP 4015161 B2 JP4015161 B2 JP 4015161B2 JP 2005172874 A JP2005172874 A JP 2005172874A JP 2005172874 A JP2005172874 A JP 2005172874A JP 4015161 B2 JP4015161 B2 JP 4015161B2
Authority
JP
Japan
Prior art keywords
target
movable body
robot
tool
coordinate system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2005172874A
Other languages
Japanese (ja)
Other versions
JP2005283600A (en
Inventor
貞夫 久保
洋一 中村
隆昌 緒方
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kawasaki Motors Ltd
Original Assignee
Kawasaki Jukogyo KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kawasaki Jukogyo KK filed Critical Kawasaki Jukogyo KK
Priority to JP2005172874A priority Critical patent/JP4015161B2/en
Publication of JP2005283600A publication Critical patent/JP2005283600A/en
Application granted granted Critical
Publication of JP4015161B2 publication Critical patent/JP4015161B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Length Measuring Devices With Unspecified Measuring Means (AREA)
  • Manipulator (AREA)

Description

本発明は、産業用ロボットの手首に連結されるツールなどの可動体の先端部の位置および姿勢を検出する産業用ロボットの制御装置に関する。 The present invention relates to a control device for an industrial robot that detects the position and posture of the tip of a movable body such as a tool connected to the wrist of the industrial robot .

産業用ロボットの手首に連結されるツールなどの可動体のスライド変位および角変位を検出して制御する種々の従来技術がある。従来技術として、多関節ロボットのアームの先端にジャイロを設けた姿勢検出装置がある。この姿勢検出装置は、ジャイロによって、アーム先端の相対角変位が検出されて、この相対角変位に基づいてアーム先端に設けられるツールの姿勢を求める。   There are various conventional techniques for detecting and controlling slide displacement and angular displacement of a movable body such as a tool connected to the wrist of an industrial robot. As a conventional technique, there is an attitude detection device in which a gyro is provided at the tip of an arm of an articulated robot. In this posture detection device, the relative angular displacement of the arm tip is detected by a gyro, and the posture of the tool provided at the arm tip is obtained based on the relative angular displacement.

他の従来技術として、ロボットのアーム先端に超音波パルスを発生する超音波発信器を設け、所定位置に固定される受信器によって、超音波発信器からの超音波パルスを受信して、超音波パルスが発生してから受信されるまでの時間に基づいて、アーム先端と所定位置との距離を求めて、アーム先端に設けられるツールの位置および姿勢を計測する計測装置がある。   As another conventional technique, an ultrasonic transmitter for generating an ultrasonic pulse is provided at the tip of a robot arm, and an ultrasonic pulse is received from the ultrasonic transmitter by a receiver fixed at a predetermined position. There is a measuring device that measures the position and posture of a tool provided at the tip of an arm by determining the distance between the tip of the arm and a predetermined position based on the time from when a pulse is generated until it is received.

さらに他の従来技術として、多関節ロボットのティーチプレイバックを行う際に、多関節ロボットのアーム先端にセンサを設けて、前記センサによって多関節ロボットのアーム先端に設けられるツールと、予め定める位置に配置される較正治具の先端との距離を測定して、温度変化によるアームの長さの変化を補正して、ロボットの制御に必要な各パラメータのキャリブレーションを行う方法がある。   As another prior art, when performing teach playback of an articulated robot, a sensor is provided at the tip of the arm of the articulated robot, and a tool provided at the tip of the arm of the articulated robot by the sensor is placed at a predetermined position. There is a method of calibrating each parameter necessary for controlling the robot by measuring the distance from the tip of the calibration jig to be arranged and correcting the change in the length of the arm due to the temperature change.

産業用ロボットは、ある位置に繰り返して位置決めするときの繰り返し精度は、たとえば約50マイクロメートルのように高いけれども、ある所定の位置に位置決めするときの絶対精度が、特に大型ロボットの場合は、たとえば約3〜4ミリメートルのように低いので、ロボットを用いる前に、ティーチプレイバック方式で予め教示しておくことがほとんどである。絶対精度の低い原因は、ロボットの幾何学的な製造誤差、重量物を把持したときのアームの撓み、温度によるアームの伸縮および減速機のガタ等によって、ロボットの各関節に設けられる各エンコーダからの検出信号に基づくロボットのアーム先端に設けられるツールに設定される基準点の位置および姿勢が、指令値に対する誤差があるためである。このことが計算機によってオフラインで動作データを生成して、その動作データをロボットにダウンロードして、溶接などの作業をさせたり、センサをアーム先端に設けて、ロボットを計測装置として利用するような、今後のロボットの新しい展開に対する障害となっている。   Although the industrial robot has a high repeatability when it is repeatedly positioned at a certain position, for example, about 50 micrometers, the absolute accuracy when it is positioned at a certain predetermined position is particularly large, for example, Since it is as low as about 3 to 4 millimeters, it is almost always taught in advance by the teach playback method before using the robot. The reason for the low absolute accuracy is that each encoder provided at each joint of the robot is caused by a geometric manufacturing error of the robot, bending of the arm when holding a heavy object, expansion / contraction of the arm due to temperature, and backlash of the speed reducer. This is because the position and orientation of the reference point set in the tool provided at the tip of the robot arm based on the detected signal has an error with respect to the command value. This is because the computer generates motion data offline, downloads the motion data to the robot, performs work such as welding, or installs a sensor at the tip of the arm and uses the robot as a measurement device, This is an obstacle to the future development of robots.

このような問題に対して、前述の従来技術のように、相対角変位を検出するジャイロセンサおよび相対スライド変位を検出する加速度センサなどの慣性センサを用いて位置および姿勢を測定する方法は、慣性航法で使われる一般に知られた方法である。この方法を利用してロボットのアーム先端部の位置および姿勢を求めることができれば、短い時間間隔で順次測定が可能であり、さらにロボットから離れた位置からロボットの位置および姿勢を測定する場合に比べて、ロボットの位置および姿勢によって死角が生じても、測定に影響しない等の利点がある。 To solve this problem, as in the prior art described above, a method to measure the position and orientation by using an inertial sensor such as an acceleration sensor for detecting the gyro sensor and the relative sliding displacement detecting a relative angular displacement, It is a commonly known method used in inertial navigation. If this method can be used to determine the position and orientation of the robot's arm tip, it can be measured sequentially at short time intervals, and compared to the case where the robot's position and orientation are measured from a position away from the robot. Thus, even if a blind spot is generated depending on the position and posture of the robot, there is an advantage that the measurement is not affected.

しかしジャイロセンサは、実際には相対角変位を直接検出するのではなく、相対角速度を測定して、その相対角速度を時間に関して積分することで相対角変位を検出している。また同様に加速度センサは、相対加速度を測定して、その相対加速度を時間に関して2回積分することで相対スライド変位を検出している。したがってロボットのアーム先端の変位量が増えるにつれて、または時間が経過するにつれて、検出誤差およびドリフトが累積するので、このような慣性センサでは、ロボットのアーム先端に設けられるツールの基準点の位置および姿勢を高精度で測定することができない。たとえば市販されている汎用の光ファイバジャイロおよびリングレーザジャイロは、相対加速度の精度は、高々0.01〜0.03重力加速度程度であり、この程度の精度であると、ロボットが1秒間動作すると、最悪5〜15センチメートルもの誤差が蓄積される。   However, the gyro sensor does not actually detect the relative angular displacement directly, but detects the relative angular displacement by measuring the relative angular velocity and integrating the relative angular velocity with respect to time. Similarly, the acceleration sensor detects the relative slide displacement by measuring the relative acceleration and integrating the relative acceleration twice with respect to time. Therefore, as the displacement amount of the robot arm tip increases or as time elapses, detection errors and drifts accumulate. With such an inertial sensor, the position and orientation of the reference point of the tool provided at the robot arm tip Cannot be measured with high accuracy. For example, commercially available general-purpose optical fiber gyros and ring laser gyros have a relative acceleration accuracy of at most about 0.01 to 0.03 gravitational acceleration. In the worst case, an error of 5 to 15 centimeters is accumulated.

また前述の従来技術のように、超音波によるアーム先端に設けられるツールの位置および姿勢を計測において、超音波発信器からの超音波パルスの一部が、ロボットおよびロボットの周辺に設置されている機器などに反射し、その反射波が所定位置に固定される受信器によって受信され、アーム先端と所定位置との距離を正確に求めることができない。またロボットは、高速で動作するので、ドップラー効果によって、アーム先端と所定位置との距離を正確に求めることができない。   In addition, as in the above-described prior art, in measuring the position and posture of the tool provided at the arm tip by ultrasonic waves, a part of the ultrasonic pulse from the ultrasonic transmitter is installed around the robot and the robot. The reflected wave is received by a receiver that is reflected by a device or the like and is fixed at a predetermined position, and the distance between the arm tip and the predetermined position cannot be obtained accurately. Further, since the robot operates at a high speed, the distance between the arm tip and the predetermined position cannot be obtained accurately due to the Doppler effect.

したがって本発明の目的は、可動体の位置および可動体の姿勢を高精度で検出することができる産業用ロボットの制御装置を提供することである。 Accordingly, an object of the present invention is to provide an industrial robot control device capable of detecting the position of the movable body and the posture of the movable body with high accuracy.

本発明は、産業用ロボットに連結される可動体を変位移動させるための産業用ロボットを制御する制御装置であって、
予め定めるロボット座標系において予め把握される撮像位置にそれぞれ配置されて、可動体に設けられるターゲットを撮像する3つ以上の撮像手段と、
各撮像手段によって撮像される画像におけるターゲットの座標に基づいて、予め定めるロボット座標系におけるターゲットの位置を求める第1検出手段と、
可動体に対して予め定める軸線まわりにターゲットを角変位駆動する駆動手段と、
駆動手段によって同一直線上に並ばない互いに異なる3つの角度位置にターゲットを移動させて、第1検出手段によって求められる予め定めるロボット座標系におけるターゲットの各位置に基づいて、予め定めるロボット座標系における可動体の位置および姿勢を求める演算手段であって、移動する可動体の位置および姿勢を求める場合、駆動部によって可動体の移動速度よりも速い回転速度でターゲットを回転軸線まわりに回転させた状態で、可動体の位置および姿勢を求める演算手段と、
演算手段によって求めた演算結果に基づいて、産業用ロボットを制御する制御手段とを備えることを特徴とする産業用ロボットの制御装置である
The present invention is a control device for controlling an industrial robot for displacing a movable body connected to the industrial robot,
Three or more imaging means that are respectively arranged at imaging positions grasped in advance in a predetermined robot coordinate system and image a target provided on the movable body;
First detection means for determining the position of the target in a predetermined robot coordinate system based on the coordinates of the target in the image captured by each imaging means ;
A driving means for a target angular displacement driven about a predetermined Ru axis relative to the movable body,
The target is moved to three different angular positions that are not arranged on the same straight line by the driving means, and the movable in the predetermined robot coordinate system is based on each position of the target in the predetermined robot coordinate system obtained by the first detecting means. When calculating the position and posture of the moving movable body, the driving unit is configured to calculate the position and posture of the body while rotating the target around the rotation axis at a rotational speed faster than the moving speed of the movable body. Computing means for determining the position and orientation of the movable body;
An industrial robot control apparatus comprising: control means for controlling the industrial robot based on a calculation result obtained by the calculation means .

発明に従えば、駆動手段の駆動部によって、互いに異なる3つの角度位置にターゲットを順に移動させる。このターゲットを、3つ以上の撮像手段で撮像する。第1検出手段は、各撮像手段によって撮像される画像から、ターゲットが各角度位置に配置されるときの、ロボット座標系におけるターゲットの位置をそれぞれ求める。そして演算手段は、第1検出手段が求めたターゲットの各位置と、角度検出部によって検出されるターゲットの各角度位置とに基づいて、可動体の位置および姿勢を求める。したがってロボットの幾何学的な製造誤差、重量物を把持したときのアームの撓み、温度によるアームの伸縮および減速機のガタなどが生じる場合でも、可動体の位置および姿勢を精度よく検出することができる。 According to the present invention, the target is sequentially moved to three different angular positions by the driving unit of the driving means. This target is imaged by three or more imaging means. The first detection unit obtains the position of the target in the robot coordinate system when the target is arranged at each angular position from the image captured by each imaging unit. Then, the calculation means obtains the position and orientation of the movable body based on each position of the target obtained by the first detection means and each angle position of the target detected by the angle detection unit. Therefore, it is possible to accurately detect the position and posture of the movable body even when there are geometric manufacturing errors of the robot, arm deflection when holding a heavy object, arm expansion / contraction due to temperature, reduction gear backlash, etc. it can.

たとえば第1検出手段は、可動体に対して互いに異なる同一直線上に並ばない3つの角度位置にターゲットがあるときの、ロボット座標系におけるターゲットの位置をそれぞれ求める。3つの角度位置にターゲットがあるときの、ロボット座標系におけるターゲットの位置が求まることで、3つの角度位置を含む平面を容易に求めることができ、その平面の法線を求めることによって、ターゲットが設けられる可動体の位置および姿勢を求めることができる。
このように計測位置に配置される計測手段に計測される計測結果に基づいて、可動体の位置および姿勢を求めることによって、ジャイロセンサおよび加速度センサなどの可動体に設けられる慣性センサを用いる場合に比べて検出誤差の累積を防いで、可動体の位置および姿勢を容易かつ精度よく求めることができる。
For example, the first detection means obtains the position of the target in the robot coordinate system when the target is at three angular positions that are not arranged on the same straight line different from each other with respect to the movable body. By obtaining the target position in the robot coordinate system when the target is at three angular positions, a plane including the three angular positions can be easily obtained, and by obtaining the normal of the plane, The position and posture of the movable body provided can be obtained.
When an inertial sensor provided on a movable body such as a gyro sensor and an acceleration sensor is used by obtaining the position and orientation of the movable body based on the measurement result measured by the measurement means arranged at the measurement position in this way. In comparison, accumulation of detection errors can be prevented, and the position and orientation of the movable body can be obtained easily and accurately .

またターゲットを撮像する3つの角度位置は、同一直線上に並ばない位置であるので、この3つの角度位置を含む平面を求めるとともに、3つの角度位置およびターゲットの回転半径から回転中心を求めて、回転中心を座標原点として、可動体を基準とする座標系を求めることができる。したがって予め定められる座標系における可動体の位置および姿勢を容易かつ精度よく求めることができる。
また可動体の移動速度よりもターゲットの回転速度を高速にすることで、所定の時間間隔となる複数、たとえば3つの時刻におけるターゲットの3つの位置が、近似的に平面上に存在する。この3つの位置を含む平面を求めるとともに、その平面の法線を求めることによって、移動している可動体の位置および姿勢を求めることができる。
In addition, since the three angular positions for imaging the target are positions that are not aligned on the same straight line, a plane including these three angular positions is obtained, and a rotational center is obtained from the three angular positions and the rotation radius of the target, A coordinate system based on the movable body can be obtained with the rotation center as the coordinate origin. Therefore, the position and posture of the movable body in the predetermined coordinate system can be obtained easily and accurately.
Further, by making the rotation speed of the target higher than the moving speed of the movable body, a plurality of, for example, three positions of the target at three time points that are at a predetermined time interval approximately exist on the plane. By obtaining a plane including these three positions and obtaining the normal line of the plane, the position and orientation of the moving movable body can be obtained.

さらに3つ以上の撮像手段が設けられて、各撮像手段によってターゲットが撮像される。少なくとも2つの撮像手段によってターゲットが撮像できれば、ロボット座標系におけるターゲットの位置を求めることができる。ターゲットは、産業用ロボットに連結されて変位移動される可動体に設けられており、ターゲットが撮像手段の死角領域に入ってしまうおそれがあるが、3つ以上の撮像手段を設けることによって、ターゲットが死角領域に入ってしまわずにターゲットを撮像できる撮像手段の数が1つ以下になってしまうことを、可及的に防ぐことができる。したがって検出不可の事態に陥りにくくして、産業用ロボットによって変位移動される可動体の位置および姿勢を検出することができる。このように確実にかつ精度よく求められる可動体の位置および姿勢に基づいてロボットを制御することで、ロボットによって可動体を確実にかつ精度よく変位移動させることができる。Further, three or more imaging units are provided, and the target is imaged by each imaging unit. If the target can be imaged by at least two imaging means, the position of the target in the robot coordinate system can be obtained. The target is connected to an industrial robot and is provided on a movable body that is displaced and moved. The target may enter the blind spot area of the imaging means. However, by providing three or more imaging means, the target It is possible to prevent as much as possible that the number of imaging means capable of imaging the target without entering the blind spot area becomes one or less. Therefore, the position and posture of the movable body displaced and moved by the industrial robot can be detected without being easily detected. By controlling the robot based on the position and orientation of the movable body that is reliably and accurately obtained in this way, the movable body can be displaced and moved reliably and accurately by the robot.

また本発明は、可動体に設けられ、可動体のスライド変位および相対角変位を求める第2検出手段をさらに備え、
算手段は、第1検出手段の計算結果と、第2検出手段の計算結果とに基づいて、可動体の位置および姿勢を求めることを特徴とする。
本発明に従えば、演算手段が、第1検出手段の計算結果と、第2検出手段の計算結果とに基づいて、可動体の位置および姿勢を求める。これによってターゲットが計測手段の死角領域に入ってしまった場合や、第1検出手段が短い時間間隔で順次計算を行えない場合であっても、演算手段は、可動体の位置および姿勢を短い時間間隔で高精度に順次求めることができる。
The present invention is provided in the movable body, further comprising a second detecting means for obtaining a slide displacement and the relative angular displacement of the movable member,
Arithmetic means, the calculation result of the first detecting means, based on the calculation result of the second detecting means, and obtains the position and orientation of the movable body.
According to the present invention, the calculation means obtains the position and orientation of the movable body based on the calculation result of the first detection means and the calculation result of the second detection means. Thus, even when the target enters the blind spot area of the measuring means or when the first detecting means cannot sequentially calculate at a short time interval, the calculating means sets the position and orientation of the movable body in a short time. It can be obtained sequentially with high accuracy at intervals.

また本発明は、産業用ロボットに連結される可動体を変位移動させるための産業用ロボットを制御する制御装置であって、
め定めるロボット座標系において予め把握される計測位置に配置されて、可動体に設けられるターゲットの位置を求めるための情報を計測する計測手段と、
測手段の計測結果に基づいて、予め定めるロボット座標系におけるターゲットの位置を求める第1検出手段と、
可動体に対して予め定める回転軸線まわりにターゲットを角変位駆動する駆動手段と、
動手段によって互いに異なる複数の角度位置にターゲットを移動させて、第1検出手段によって求められる予め定めるロボット座標系におけるターゲットの各位置に基づいて、予め定めるロボット座標系における可動体の位置および姿勢を求める演算手段と、
演算手段によって求めた演算結果に基づいて、産業用ロボットを制御する制御手段とを備えることを特徴とする産業用ロボットの制御装置である。
本発明に従えば、駆動手段によってターゲットを角変位した状態で、計測手段によってターゲットの位置を計測し、その計測結果に基づいて可動体の位置および姿勢を求める。これによって慣性センサを単純に用いる場合に比べて検出誤差の累積を防いで、可動体の位置および姿勢を容易かつ精度よく求めることができる。また精度よく求められた可動体の位置および姿勢に基づいてロボットを制御することで、ロボットによって可動体を精度よく変位移動させることができる。
また本発明は、ロボットが可動体を変位移動させる間、ロボットが移動させる可動体の移動速度よりも十分に速い回転速度でターゲットを回転軸線まわりに回転させるように、駆動手段に指令を与え、
演算手段は、前記回転速度でターゲットを回転軸線まわりに回転させて得た第1検出手段の計算結果に基づいて、可動体の位置および姿勢を求めることを特徴とする。
本発明によれば、可動体の移動速度よりもターゲットの回転速度を高速にすることで、所定の時間間隔となる複数、たとえば3つの時刻におけるターゲットの3つの位置が、近似的に平面上に存在する。この3つの位置を含む平面を求めるとともに、その平面の法線を求めることによって、移動している可動体の位置および姿勢を求めることができる。
The present invention is a control apparatus for controlling an industrial robot for causing the displacement movement of the movable body which is connected to the industrial robot,
Are arranged in advance grasped the measurement position in the robot coordinate system stipulated Me pre, measuring means for measuring the information for determining the position of a target which is provided to the movable body,
Based on the measurement result of the total measurement means, a first detection means for determining the position of the target in the robot coordinate system stipulated in advance,
Driving means for angularly driving the target around a predetermined rotation axis with respect to the movable body;
The target to different angular positions to each other by driving kinematic means by moving, on the basis of the position of the target in the robot coordinate system specified in advance obtained by the first detection means, the position of the movable body in the robot coordinate system predetermined and A calculation means for obtaining the posture;
An industrial robot control apparatus comprising: control means for controlling the industrial robot based on a calculation result obtained by the calculation means.
According to the present invention, the position of the target is measured by the measuring means while the target is angularly displaced by the driving means, and the position and orientation of the movable body are obtained based on the measurement result. As a result, accumulation of detection errors can be prevented and the position and orientation of the movable body can be obtained easily and accurately compared to the case where the inertial sensor is simply used. Further, by controlling the robot based on the position and posture of the movable body obtained with high accuracy, the movable body can be displaced and moved with high accuracy by the robot.
Further, the present invention provides a command to the driving means to rotate the target around the rotation axis at a rotational speed sufficiently faster than the moving speed of the movable body moved by the robot while the robot moves the movable body.
The computing means obtains the position and orientation of the movable body based on the calculation result of the first detection means obtained by rotating the target around the rotation axis at the rotational speed.
According to the present invention, by increasing the rotational speed of the target higher than the moving speed of the movable body, three positions of the target at predetermined time intervals, for example, three positions of the target are approximately on a plane. Exists. By obtaining a plane including these three positions and obtaining the normal line of the plane, the position and orientation of the moving movable body can be obtained.

また本発明は、可動体に設けられ、可動体のスライド変位および相対角変位を求める第2検出手段をさらに備え、
算手段は、第1検出手段の計算結果と、第2検出手段の計算結果とに基づいて、可動体の位置および姿勢を求めることを特徴とする。
本発明に従えば、演算手段が、第1検出手段の計算結果と、第2検出手段の計算結果とに基づいて、可動体の位置および姿勢を求めることで、演算手段は、可動体の位置および姿勢を短い時間間隔で高精度に順次求めることができる。したがってロボットによって、可動体をさらに精度よく変位移動させることができる。
The present invention is provided in the movable body, further comprising a second detecting means for obtaining a slide displacement and the relative angular displacement of the movable member,
Arithmetic means, the calculation result of the first detecting means, based on the calculation result of the second detecting means, and obtains the position and orientation of the movable body.
According to the present invention, the calculation means obtains the position and orientation of the movable body based on the calculation result of the first detection means and the calculation result of the second detection means, so that the calculation means And the posture can be sequentially obtained with high accuracy at short time intervals. Therefore, the movable body can be displaced and moved with higher accuracy by the robot.

また本発明は、ロボットが待機する複数の待機位置が設定される場合、ロボットが各待機位置にそれぞれ達したときに、演算手段は、駆動手段によって互いに異なる複数の角度位置にターゲットを移動させて得た第1検出手段の計算結果に基づいて、可動体の位置および姿勢を求めることを特徴とする。
本発明に従えば、ロボットが待機位置に達するたびに、駆動手段によってターゲットを角変位させて、計測手段によってターゲットの各位置をそれぞれ計測し、それらの計測結果に基づいて可動体の位置および姿勢を求める。このように可動体の姿勢がほとんど変化しないロボット待機時に可動体の位置および姿勢を求めることで、可動体の位置および姿勢を精度よく求めることができる。
Further, according to the present invention, when a plurality of standby positions where the robot waits are set, the calculation means moves the target to a plurality of different angular positions by the driving means when the robot reaches each standby position. The position and posture of the movable body are obtained based on the obtained calculation result of the first detecting means .
According to the present invention, each time the robot reaches the standby position, the target is angularly displaced by the driving means, and each position of the target is measured by the measuring means, and the position and orientation of the movable body are determined based on the measurement results. Ask for. As described above, the position and posture of the movable body can be obtained with high accuracy by obtaining the position and posture of the movable body during robot standby when the posture of the movable body hardly changes.

請求項1記載の本発明によれば、駆動手段によって、互いに異なる3つの角度位置にターゲットを順に移動させて3つ以上の撮像手段で撮像し、撮像される画像から可動体の位置および姿勢を求めることで、可動体の位置および姿勢を容易かつ精度よく求めることができる。さらにターゲットがそれぞれ位置する3つの角度位置を含む平面を求めるとともに、3つの角度位置およびターゲットの回転半径から回転中心を求めることで、可動体を基準とする座標系を求めることができる。これによって予め定められる座標系における可動体の位置および姿勢を容易かつ精度よく求めることができる。さらに可動体の移動速度よりもターゲットの回転速度を高速にすることで、移動中の可動体の位置および姿勢を求めることができる。しかも3つ以上の撮像手段でターゲットを撮像するので、産業用ロボットで変位移動される可動体に設けられるターゲットであっても、ターゲットを撮像できる撮像手段の数が1つ以下になってしまうことを防ぎ、産業用ロボットによって変位移動される可動体の位置および姿勢を確実に検出することができる。さらに、万一、ターゲットの位置を検出できない位置にターゲットが配置される場合、つまりターゲットを撮像できる撮像手段の数が1つ以下になってしまう場合には、その角度位置とは異なってターゲットの位置を検出可能な角度位置にターゲットを角変位移動させることで、可動体の位置および姿勢を測定可能とすることができる。このようにして確実にかつ精度よく求められる可動体の位置および姿勢に基づいて、産業用ロボットを制御する。これによって産業用ロボットの幾何学的な製造誤差、重量物を把持したときのアームの撓み、温度によるアームの伸縮および減速機のガタなどが生じる場合でも、産業用ロボットによって可動体を確実にかつ精度よく変位移動させることができる。 According to the first aspect of the present invention, the drive unit sequentially moves the target to three different angular positions and images with three or more imaging units, and the position and orientation of the movable body are determined from the captured images. By obtaining, the position and posture of the movable body can be obtained easily and accurately. Furthermore, a coordinate system based on the movable body can be obtained by obtaining a plane including three angular positions at which the target is located and obtaining a rotation center from the three angular positions and the rotation radius of the target. As a result, the position and orientation of the movable body in a predetermined coordinate system can be obtained easily and accurately. Furthermore, the position and posture of the moving movable body can be obtained by making the rotational speed of the target higher than the moving speed of the movable body. In addition, since the target is imaged by three or more imaging means, even if the target is provided on a movable body that is displaced and moved by an industrial robot, the number of imaging means that can image the target is one or less. The position and posture of the movable body displaced and moved by the industrial robot can be reliably detected. Furthermore, if the target is arranged at a position where the target position cannot be detected, that is, if the number of imaging means capable of imaging the target is one or less, the target position differs from the angular position. By moving the target to an angular position where the position can be detected, the position and posture of the movable body can be measured. In this way, the industrial robot is controlled based on the position and orientation of the movable body that is reliably and accurately obtained. Even if this causes geometric manufacturing errors of the industrial robot, bending of the arm when holding a heavy object, expansion / contraction of the arm due to temperature, looseness of the speed reducer, etc., the industrial robot can reliably move the movable body. The displacement can be accurately moved.

求項記載の本発明によれば、演算手段が、角度検出部の検出結果と、第1検出手段の計算結果と、第2検出手段の計算結果とに基づいて、可動体の位置および姿勢を求める。これによって演算手段は、ロボットアームなどによってターゲットが死角領域に入る場合であっても、可動体の位置および姿勢を短い時間間隔で高精度に順次求めることができる。 According to the present invention Motomeko 2, wherein calculating means, and the detection result of the angle detection unit, and the calculation result of the first detecting means, based on the calculation result of the second detecting means, the position of the movable body and Ask for posture. This operation means may be a case where the target by a robot arm enters the blind area, it is possible to determine the position and orientation of the movable body sequentially with high accuracy in a short had time interval.

求項記載の本発明によれば、可動体の姿勢がほとんど変化しないロボット待機時に可動体の位置および姿勢を求めることで、可動体の位置および姿勢を精度よく求めることができる。 According to the present invention Motomeko 3 wherein, by obtaining the position and orientation of the movable body when the robot waiting posture of the movable body hardly changes, it is possible to obtain better the position and orientation of the movable body accuracy.

図1は、本発明の第1の実施形態の位置および姿勢検出装置10の構成を示すブロック図である。図2は、ロボット20および複数のカメラ13A,13B,13Cを模式的に示す図である。位置および姿勢検出装置(以後、単に「位置姿勢検出装置」と表記することがある。)10は、産業用ロボットなどのロボット20の手首24に連結されるツール30などの可動体に設定された基準点の位置およびツール30の姿勢を検出して、ツール30のスライド変位および角変位を制御する。   FIG. 1 is a block diagram showing a configuration of a position and orientation detection apparatus 10 according to the first embodiment of the present invention. FIG. 2 is a diagram schematically showing the robot 20 and the plurality of cameras 13A, 13B, and 13C. The position and orientation detection device (hereinafter simply referred to as “position and orientation detection device”) 10 is set to a movable body such as a tool 30 connected to the wrist 24 of the robot 20 such as an industrial robot. The position of the reference point and the posture of the tool 30 are detected, and the slide displacement and angular displacement of the tool 30 are controlled.

ロボット20は、たとえば6軸垂直多関節ロボットである。ロボット20は、ベース部21、下部アーム22、上部アーム23および手首24を有する。ベース部21は、鉛直方向に延びる第1軸線J1まわりに旋回可能である。下部アーム22は、水平方向に延びる第2軸線J2まわりに角変位可能にしてベース部21に連結される。上部アーム23は、その基端部が水平方向に延びる第3軸線J3まわりに角変位可能にして下部アーム22の上端部に連結される。手首24は、上部アーム23の軸線に平行に延びる第4軸線J4まわりに角変位可能、かつ前記第4軸線J4に垂直な第5軸線J5まわりに角変位可能にして上部アーム23の先端部に連結される。手首24は、第5軸線J5に垂直な第6軸線J6まわりに角変位可能なフランジ25を有する。ハンド、溶接トーチおよびセンサなどのツール30は、フランジ25に設けられるツールチェンジャー(図示せず)などを介してフランジ25に連結される。   The robot 20 is, for example, a 6-axis vertical articulated robot. The robot 20 has a base portion 21, a lower arm 22, an upper arm 23, and a wrist 24. The base portion 21 can turn around a first axis J1 extending in the vertical direction. The lower arm 22 is connected to the base portion 21 so as to be angularly displaceable about a second axis J2 extending in the horizontal direction. The upper arm 23 is connected to the upper end portion of the lower arm 22 so that the base end portion thereof can be angularly displaced about the third axis J3 extending in the horizontal direction. The wrist 24 is angularly displaceable about a fourth axis J4 extending parallel to the axis of the upper arm 23, and is angularly displaceable about a fifth axis J5 perpendicular to the fourth axis J4. Connected. The wrist 24 has a flange 25 that can be angularly displaced about a sixth axis J6 perpendicular to the fifth axis J5. Tools 30 such as a hand, a welding torch and a sensor are connected to the flange 25 via a tool changer (not shown) provided on the flange 25.

位置姿勢検出装置10は、ターゲットユニット11、LED駆動部12、カメラ13、画像処理部14、ジャイロセンサ15、加速度センサ16、信号処理部17、演算部18およびロボット制御部19を含んで構成される。   The position / orientation detection apparatus 10 includes a target unit 11, an LED drive unit 12, a camera 13, an image processing unit 14, a gyro sensor 15, an acceleration sensor 16, a signal processing unit 17, a calculation unit 18, and a robot control unit 19. The

図3は、ターゲットユニット11を示す斜視図である。ターゲットユニット11は、ツールチェンジャーおよびツール30のいずれかに設けられる。またターゲットユニット11は、ロボット20全体の誤差のうち手首部分の誤差が小さい場合、ロボット20の上部アーム23の先端部に設けてもよい。本実施の形態では、ターゲットユニット11は、ツール30に設けられ、ツール30とともにスライド変位および角変位可能である。ターゲットユニット11は、同一直線上に並ばない3個のターゲットを有する。本実施の形態では、ターゲットユニット11は、第1ターゲット31、第2ターゲット32、第3ターゲット33および第4ターゲット34の4つのターゲットを有する。   FIG. 3 is a perspective view showing the target unit 11. The target unit 11 is provided on either the tool changer or the tool 30. Further, the target unit 11 may be provided at the tip of the upper arm 23 of the robot 20 when the error of the wrist portion is small among the errors of the entire robot 20. In the present embodiment, the target unit 11 is provided on the tool 30 and can be slid and angularly displaced together with the tool 30. The target unit 11 has three targets that are not aligned on the same straight line. In the present embodiment, the target unit 11 has four targets, a first target 31, a second target 32, a third target 33, and a fourth target 34.

第1ターゲット31〜第4ターゲット34は、同形状の球状に形成され、透光性を有し、その重心に互いに異なる色で発光する発光ダイオード(Light Emitting Diode;略称:LED)を備える。第2ターゲット32は、円柱状の第1リンク35を介して第1ターゲット32に連結される。第3ターゲット33は、円柱状の第2リンク36を介して第1ターゲット32に連結される。第4ターゲット34は、円柱状の第3リンク37を介して第1ターゲット32に連結される。第1〜第3リンク35〜37は、全く同じ形状であり、第1ターゲット31の重心から第2ターゲット32の重心までの距離と、第1ターゲット31の重心から第3ターゲット33の重心までの距離と、第1ターゲット31から第4ターゲット34までの距離とは、同じである。第1リンク35、第2リンク36および第3リンク37は、それらの軸線が互いに直交するようにして配置される。ターゲットユニット11の第1ターゲット31は、第1ターゲット31の重心がツール30に設定される基準点となるようにして配置される。LED駆動部12は、演算部18からのLED制御信号に基づいて、ターゲットユニット11の各ターゲット31〜34に備えられるLEDを発光させるために必要な駆動電力の供給および非供給を行う。   The first target 31 to the fourth target 34 are formed in a spherical shape of the same shape, have translucency, and include light emitting diodes (light emitting diodes; abbreviated as LEDs) that emit light in different colors at the center of gravity. The second target 32 is connected to the first target 32 via a cylindrical first link 35. The third target 33 is connected to the first target 32 via a cylindrical second link 36. The fourth target 34 is connected to the first target 32 via a cylindrical third link 37. The first to third links 35 to 37 have exactly the same shape, the distance from the center of gravity of the first target 31 to the center of gravity of the second target 32, and the center of gravity of the first target 31 to the center of gravity of the third target 33. The distance and the distance from the first target 31 to the fourth target 34 are the same. The first link 35, the second link 36, and the third link 37 are arranged such that their axes are orthogonal to each other. The first target 31 of the target unit 11 is arranged so that the center of gravity of the first target 31 becomes a reference point set on the tool 30. Based on the LED control signal from the computing unit 18, the LED drive unit 12 supplies and does not supply drive power necessary for causing the LEDs provided in the targets 31 to 34 of the target unit 11 to emit light.

撮影手段であるカメラ13は、予め定める座標系であるロボット座標系における絶対位置が把握されている撮像位置に配置され、前記撮像位置からターゲットユニット11を撮影して、ターゲットユニット11の画像を表す画像データを生成し、複数設けられる。本実施の形態において、ロボット座標系とは、ロボット20のベース部21が固定される床に平行に延び、互いに直交するx軸およびy軸、ならびに鉛直上向きに延びるz軸で構成される直交座標系である。本実施の形態において、カメラ13は、固体撮像素子(Charge Coupled Device ;略称:CCD)を備えるCCDカメラで実現される。またカメラ13は、本実施の形態では、第1カメラ13A、第2カメラ13Bおよび第3カメラ13Cの3台のカメラで構成され、ロボット座標系における絶対位置が把握されている互いに異なる撮像位置に配置される。各カメラ13A〜13Cが配置される撮像位置は、詳細に述べると、ロボット20の動作領域外であって、全カメラ13A〜13Cによって、ロボット20の動作領域全体を撮影できる位置である。以後、第1〜第3カメラ13A〜13Cを区別しない場合には、単に、カメラ13と表記することがある。   The camera 13 as an imaging unit is arranged at an imaging position where an absolute position in a robot coordinate system, which is a predetermined coordinate system, is grasped, and images the target unit 11 from the imaging position to represent an image of the target unit 11. A plurality of image data are generated and provided. In the present embodiment, the robot coordinate system is an orthogonal coordinate composed of an x-axis and a y-axis that extend in parallel to the floor to which the base portion 21 of the robot 20 is fixed, and a z-axis that extends vertically upward. It is a system. In the present embodiment, the camera 13 is realized by a CCD camera including a solid-state imaging device (Charge Coupled Device; abbreviated as CCD). In the present embodiment, the camera 13 is composed of three cameras, a first camera 13A, a second camera 13B, and a third camera 13C. The camera 13 has different imaging positions at which absolute positions in the robot coordinate system are known. Be placed. More specifically, the imaging positions at which the cameras 13A to 13C are arranged are positions that are outside the operation area of the robot 20 and can capture the entire operation area of the robot 20 with all the cameras 13A to 13C. Hereinafter, when the first to third cameras 13 </ b> A to 13 </ b> C are not distinguished from each other, they may be simply referred to as cameras 13.

第1検出手段である画像処理部14は、たとえばマイクロコンピュータで実現され、演算部18からの計測指令信号が与えられると、カメラ13からの画像データに基づいて画像処理を行い、ロボット座標系におけるツール30に設定された基準点の絶対位置およびツール30の絶対姿勢を求め、求めたツール30の基準点の絶対位置および絶対姿勢を含む絶対位置姿勢検出信号を演算部18に与える。   The image processing unit 14 serving as the first detection means is realized by, for example, a microcomputer, and when a measurement command signal is given from the calculation unit 18, performs image processing based on image data from the camera 13 in the robot coordinate system. The absolute position of the reference point set in the tool 30 and the absolute posture of the tool 30 are obtained, and an absolute position / orientation detection signal including the absolute position and absolute posture of the obtained reference point of the tool 30 is given to the computing unit 18.

第2検出手段であるジャイロセンサ15および加速度センサ16は、ツール30およびツールチェンジャーのいずれかに設けられ、ツール30とともにスライド変位および角変位可能である。ジャイロセンサ15は、ツール30の角速度を検出することによってツール30の相対角変位を検出して、ツール30の相対角変位を含む相対角変位検出信号を信号処理部17に与える。加速度センサ16は、ツール30のスライド加速度を検出することによってツール30の相対スライド変位を検出して、ツール30の相対スライド変位を含む相対スライド変位検出信号を信号処理部17に与える。本実施の形態において、第2検出手段は、ジャイロセンサ15および加速度センサ16によって構成される。信号処理部17は、ジャイロセンサ15および加速度センサ16からの相対角変位検出信号および相対スライド変位検出信号を、演算部18によって演算処理可能な信号に変換する信号処理を行って、ツール30の相対角変位および相対スライド変位を含む相対変位検出信号を演算部18に与える。   The gyro sensor 15 and the acceleration sensor 16 as the second detection means are provided in either the tool 30 or the tool changer, and can be slid and angularly displaced together with the tool 30. The gyro sensor 15 detects the relative angular displacement of the tool 30 by detecting the angular velocity of the tool 30, and gives a relative angular displacement detection signal including the relative angular displacement of the tool 30 to the signal processing unit 17. The acceleration sensor 16 detects the relative slide displacement of the tool 30 by detecting the slide acceleration of the tool 30, and gives a relative slide displacement detection signal including the relative slide displacement of the tool 30 to the signal processing unit 17. In the present embodiment, the second detection means includes a gyro sensor 15 and an acceleration sensor 16. The signal processing unit 17 performs signal processing for converting the relative angular displacement detection signal and the relative slide displacement detection signal from the gyro sensor 15 and the acceleration sensor 16 into a signal that can be calculated by the calculation unit 18, and performs relative processing of the tool 30. A relative displacement detection signal including an angular displacement and a relative slide displacement is supplied to the calculation unit 18.

演算手段である演算部18は、たとえば中央演算処理装置(Central Processing Unit;略称:CPU)などの演算処理装置、ならびにランダムアクセスメモリ、リードオンリーメモリおよびハードディスクドライブなどの記憶装置を含んで実現され、位置姿勢検出装置10を統括的に制御する。演算部18は、ターゲットユニット11の各ターゲット31〜34への駆動電力の供給および非供給を示すLED制御信号を、LED駆動部12に与える。また演算部18は、ロボット座標系におけるツール30に設定された基準点の絶対位置およびツール30の絶対姿勢を求めることを示す計測指令信号を、画像処理部14に与える。さらに演算部18は、ロボット制御部19から指令要請信号が与えられると、画像処理部14からの絶対位置姿勢検出信号に含まれるロボット座標系におけるツール30に設定された基準点の絶対位置およびツール30の絶対姿勢と、信号処理部17からの相対変位検出信号に含まれるツール30の相対角変位およびツール30の基準点の相対スライド変位とに基づいて、ツール30の基準点の位置およびツール30の姿勢を求めて、求めた位置および姿勢に基づく修正制御指令値を含む制御信号をロボット制御部19に与える。   The arithmetic unit 18 that is an arithmetic means is realized including an arithmetic processing device such as a central processing unit (abbreviation: CPU) and a storage device such as a random access memory, a read-only memory, and a hard disk drive, for example. The position / orientation detection apparatus 10 is comprehensively controlled. The calculation unit 18 provides the LED drive unit 12 with an LED control signal indicating supply or non-supply of drive power to the targets 31 to 34 of the target unit 11. In addition, the calculation unit 18 gives the image processing unit 14 a measurement command signal indicating that the absolute position of the reference point set in the tool 30 in the robot coordinate system and the absolute posture of the tool 30 are obtained. Further, when the command request signal is given from the robot control unit 19, the calculation unit 18 receives the absolute position of the reference point set in the tool 30 in the robot coordinate system included in the absolute position / orientation detection signal from the image processing unit 14 and the tool. The position of the reference point of the tool 30 and the tool 30 based on the absolute posture of the tool 30, the relative angular displacement of the tool 30 included in the relative displacement detection signal from the signal processing unit 17, and the relative slide displacement of the reference point of the tool 30. Is obtained, and a control signal including a corrected control command value based on the obtained position and orientation is given to the robot controller 19.

制御手段であるロボット制御部(以後、単に「制御部」と表記することがある。)19は、予め設定されている制御指令値および演算部18によって求められる修正指令値を含む制御信号を与えるように要請することを示す指令要請信号を、演算部18に与える。また制御部19は、演算部18から与えられる制御信号に含まれる制御指令値および修正制御指令値に基づいて、ツール30のスライド変位および角変位を制御する。ロボット20の、下部アーム22、上部アーム23、手首24およびフランジ25は、ロボット20に搭載され、制御部19によって制御される複数のサーボモータ(図示せず)の駆動力によって、第1〜第6軸線J1〜J6まわりに角変位する。これによって制御部19は、ツール30のスライド変位および角変位を制御する。   A robot control unit (hereinafter, simply referred to as “control unit”) 19 serving as a control means provides a control signal including a control command value set in advance and a correction command value obtained by the calculation unit 18. A command request signal indicating that the request is made is given to the calculation unit 18. Further, the control unit 19 controls the slide displacement and the angular displacement of the tool 30 based on the control command value and the correction control command value included in the control signal given from the calculation unit 18. The lower arm 22, the upper arm 23, the wrist 24, and the flange 25 of the robot 20 are mounted on the robot 20 and are first to first driven by driving forces of a plurality of servo motors (not shown) controlled by the control unit 19. Angular displacement occurs around the six axes J1 to J6. Thereby, the control unit 19 controls the slide displacement and the angular displacement of the tool 30.

図4は、カメラ13を用いて、ある点Pのロボット座標系における座標(X,Y,Z)を求める方法を説明するための図である。ここでは理解を容易にするために、第1カメラ13Aおよび第2カメラ13Bを用いる場合の、ある点Pのロボット座標系における座標(X,Y,Z)を求める方法を説明する。第1カメラ13Aが撮影した点Pが、第1カメラ13Aの撮像面A1において点Q1として撮影された場合、点Q1の第1カメラ13Aの撮像面A1座標系における座標を(XC1,YC1)とする。また第2カメラ13Bが撮影した点Pが、第2カメラ13Bの撮像面A2において点Q2として撮影された場合、点Q2の第2カメラ13Bの撮像面A2座標系における座標を(XC2,YC2)とする。このとき点Pと点Q1との関係は、次式(1)で表され、点Pと点Q2との関係は、次式(2)で表される。 FIG. 4 is a diagram for explaining a method of obtaining coordinates (X, Y, Z) of a certain point P in the robot coordinate system using the camera 13. Here, in order to facilitate understanding, a method for obtaining coordinates (X, Y, Z) of a certain point P in the robot coordinate system when the first camera 13A and the second camera 13B are used will be described. When the point P photographed by the first camera 13A is photographed as a point Q1 on the imaging surface A1 of the first camera 13A, the coordinates of the point Q1 on the imaging surface A1 coordinate system of the first camera 13A are (X C1 , Y C1 ). When the point P photographed by the second camera 13B is photographed as a point Q2 on the imaging surface A2 of the second camera 13B, the coordinates of the point Q2 in the imaging surface A2 coordinate system of the second camera 13B are expressed as (X C2 , Y C2 ). At this time, the relationship between the point P and the point Q1 is expressed by the following equation (1), and the relationship between the point P and the point Q2 is expressed by the following equation (2).

Figure 0004015161
Figure 0004015161

前式(1)において、hは、同次座標表現における媒介変数であり、右辺における左側の行列は、予め定められる第1カメラ13Aのカメラパラメータ行列である。前式(2)において、hは、同次座標表現における媒介変数であり、右辺における左側の行列は、予め定められる第2カメラ13Bのカメラパラメータ行列である。 In the previous equation (1), h 1 is a parameter in the homogeneous coordinate expression, and the left matrix on the right side is a predetermined camera parameter matrix of the first camera 13A. In Equation (2), h 2 is the parametric in homogeneous coordinates representation, the left side of the matrix on the right side, a camera parameter matrix of the second camera 13B be predetermined.

画像処理部14は、第1カメラ13Aからの画像データに基づいて、点Q1の座標(XC1,YC1)、および第2カメラ13Bからの画像データに基づいて、点Q2の座標(XC2,YC2)を求めて、前式(1)および式(2)を連立させて、各媒介変数h,hを消去して、点Pのロボット座標系における座標(X,Y,Z)に関して整理すると、次式(3)が得られる。
B=A・V …(3)
Based on the image data from the first camera 13A, the image processing unit 14 coordinates the coordinates of the point Q1 (X C1 , Y C1 ), and based on the image data from the second camera 13B (X C2 , Y C2 ), the previous equations (1) and (2) are combined, the parameters h 1 and h 2 are eliminated, and the coordinates (X, Y, Z) of the point P in the robot coordinate system are obtained. ), The following equation (3) is obtained.
B = AV · (3)

前式(3)の左辺の行列Bは次式(5)で表され、右辺における左側の行列Aは次式(4)で表され、右辺における右側の行列Vは次式(6)で表される。   The matrix B on the left side of the previous equation (3) is represented by the following equation (5), the matrix A on the left side on the right side is represented by the following equation (4), and the matrix V on the right side on the right side is represented by the following equation (6). Is done.

Figure 0004015161
Figure 0004015161

したがって、点Pのロボット座標系における座標(X,Y,Z)は、次式(7)のように求められる。
V=(A・A)−1・A・B …(7)
前式(7)において、Tは行列の転置を示す。
Therefore, the coordinates (X, Y, Z) of the point P in the robot coordinate system are obtained as in the following equation (7).
V = (A T · A) −1 · A T · B (7)
In the previous equation (7), T indicates transposition of a matrix.

前述の点Pのロボット座標系における座標(X,Y,Z)の求め方は、第1カメラ13Aおよび第2カメラ13Bの2台のカメラ13を用いた場合であるが、カメラ13を3台以上用いる場合であっても同様にして点Pのロボット座標系における座標(X,Y,Z)を求めることができる。このようにしてロボット座標系におけるターゲットユニット11の第1ターゲット31の重心L1の座標(XL1,YL1,ZL1)を求めることによって、ツール30に設定された基準点の絶対位置を求めることができる。 The method of obtaining the coordinates (X, Y, Z) of the point P in the robot coordinate system is the case where the two cameras 13 of the first camera 13A and the second camera 13B are used, but three cameras 13 are used. Even in the case of using the above, the coordinates (X, Y, Z) of the point P in the robot coordinate system can be similarly obtained. In this way, the absolute position of the reference point set on the tool 30 is obtained by obtaining the coordinates (X L1 , Y L1 , Z L1 ) of the center of gravity L1 of the first target 31 of the target unit 11 in the robot coordinate system. Can do.

また、このようにして画像処理部14は、カメラ13からの画像データに基づいて、ターゲットユニット11の第1〜第4ターゲット31〜34の重心の座標が得られる。ロボット座標系における第1ターゲット31の重心L1の座標(XL1,YL1,ZL1)、第2ターゲット32の重心L2の座標(XL2,YL2,ZL2)、第3ターゲット33の重心L3の座標(XL3,YL3,ZL3)、第4ターゲット34の重心L4の座標(XL4,YL4,ZL4)とすると、第1ターゲット31から第2ターゲット32に向かう第1基底ベクトルVx、第1ターゲット31から第3ターゲット33に向かう第2基底ベクトルVyおよび第1ターゲット31から第4ターゲット34に向かう第3基底ベクトルVzは、それぞれ次式(8)、式(9)および式(10)で表される。 In this way, the image processing unit 14 can obtain the coordinates of the center of gravity of the first to fourth targets 31 to 34 of the target unit 11 based on the image data from the camera 13. The coordinates (X L1 , Y L1 , Z L1 ) of the center of gravity L1 of the first target 31 in the robot coordinate system, the coordinates (X L2 , Y L2 , Z L2 ) of the center of gravity L2 of the second target 32, and the center of gravity of the third target 33. Assuming that the coordinates of L3 (X L3 , Y L3 , Z L3 ) and the coordinates of the center of gravity L4 of the fourth target 34 (X L4 , Y L4 , Z L4 ), the first base from the first target 31 toward the second target 32 is used. The vector Vx, the second basis vector Vy from the first target 31 to the third target 33, and the third basis vector Vz from the first target 31 to the fourth target 34 are expressed by the following equations (8), (9), and It is represented by Formula (10).

Figure 0004015161
Figure 0004015161

このようにして第1ターゲット31の重心L1を座標原点とし、互いに直交する第1〜第3基底ベクトルVx,Vy,Vzによって構成されるターゲット座標系が求められる。これによってターゲット座標系のロボット座標系に対する傾斜がわかるので、ツール30の絶対姿勢を求めることができる。   In this way, a target coordinate system including the first to third base vectors Vx, Vy, and Vz orthogonal to each other with the center of gravity L1 of the first target 31 as the coordinate origin is obtained. As a result, the inclination of the target coordinate system with respect to the robot coordinate system is known, so that the absolute posture of the tool 30 can be obtained.

ここで万一、ターゲットユニット11の第2〜第4ターゲット32〜34のいずれか1つがカメラ13によって撮影できなくても、第1ターゲット31を含む3つの残余のターゲットの重心の座標を求めることによって、前記3つの残余のターゲットの重心を含む平面が求められるので、この平面の法線を求めることができる。これによってターゲット座標系を求めることができる。   Here, even if any one of the second to fourth targets 32 to 34 of the target unit 11 cannot be photographed by the camera 13, the coordinates of the center of gravity of the three remaining targets including the first target 31 are obtained. Thus, a plane including the center of gravity of the three remaining targets is obtained, and the normal line of this plane can be obtained. Thereby, the target coordinate system can be obtained.

このようなターゲットユニット11をカメラ13で撮影して、その画像データに基づいてターゲット座標系を求めて、ツール30に設定された基準点の位置およびツール30の姿勢を求めるには、多少の時間、たとえば0.1秒程度を要するので、画像処理部14によってツール30の基準点の位置および姿勢が求められてから、次に画像処理部14によってツール30の基準点の位置および姿勢が求められるまでの間は、ジャイロセンサ15および加速度センサ16によって検出される相対角変位および相対スライド変位に基づいて、演算部18は、ツール30の基準点の位置および姿勢を求める。   It takes some time to shoot such a target unit 11 with the camera 13, obtain a target coordinate system based on the image data, and obtain the position of the reference point set in the tool 30 and the posture of the tool 30. For example, since it takes about 0.1 second, the position and orientation of the reference point of the tool 30 are obtained by the image processing unit 14, and then the position and orientation of the reference point of the tool 30 are obtained by the image processing unit 14. Until this time, based on the relative angular displacement and the relative slide displacement detected by the gyro sensor 15 and the acceleration sensor 16, the calculation unit 18 obtains the position and orientation of the reference point of the tool 30.

ジャイロセンサ15および加速度センサ16によって検出される相対角変位および相対スライド変位に基づくツール30の基準点の位置および姿勢は、画像処理部14によって求められるツール30の基準点の位置および姿勢に比べて精度が低いけれども、相対角変位および相対スライド変位の誤差が蓄積されるまでには、新たに画像処理部14によってツール30の基準点の位置および姿勢が求められるので、短い時間間隔で精度の高いツール30の基準点の位置および姿勢を順次求めることができる。 The position and orientation of the reference point of the tool 30 based on the relative angular displacement and the relative slide displacement detected by the gyro sensor 15 and the acceleration sensor 16 are compared with the position and orientation of the reference point of the tool 30 obtained by the image processing unit 14. Although the accuracy is low, the position and orientation of the reference point of the tool 30 are newly determined by the image processing unit 14 until the errors of the relative angular displacement and the relative slide displacement are accumulated, so the accuracy is high in a short time interval. The position and orientation of the reference point of the tool 30 can be obtained sequentially .

図5は、ロボット制御部19によるツール30のスライド変位および角変位を制御する手順を示すフローチャートである。図6は、ロボット制御部19によるツール30のスライド変位および角変位を制御する方法を説明するための図である。ロボット制御部19がロボット20に制御信号を与える時間間隔である指令サイクルをt秒とする。ステップs0で、制御手順が開始されて、ステップs1に進む。   FIG. 5 is a flowchart showing a procedure for controlling the slide displacement and the angular displacement of the tool 30 by the robot controller 19. FIG. 6 is a diagram for explaining a method of controlling the slide displacement and the angular displacement of the tool 30 by the robot control unit 19. A command cycle that is a time interval at which the robot controller 19 gives a control signal to the robot 20 is t seconds. In step s0, the control procedure is started, and the process proceeds to step s1.

ステップs1では、演算部18は、ある時刻Tにおいて求めたツール30の基準点および姿勢を示す実測値Rと、予め設定される時刻Tにおけるツール30の基準点および姿勢を示す制御指令値Hとの誤差ベクトルΔを求めて、ステップs2に進む。ここで添字iは整数である。 In step s1, the calculation unit 18 measures the actual value R i indicating the reference point and posture of the tool 30 obtained at a certain time T i , and the control command indicating the reference point and posture of the tool 30 at the preset time T i . An error vector Δ i with respect to the value H i is obtained, and the process proceeds to step s2. Here, the subscript i is an integer.

ステップs2では、演算部18は、時刻Tからt秒後の時刻Ti+1における予め設定されているロボット20のツール30の基準点および姿勢を示す制御指令値Hi+1に、誤差ベクトルの総和ΣΔi−1と、ステップs1で求めた誤差ベクトルΔとを加算して、時刻Ti+1における修正制御指令値Ni+1を求めて、ステップs3に進む。誤差ベクトルの総和ΣΔi−1とは、時刻Tのt秒前の時刻Ti−1までに累積されている演算部18によって求められたツール30の基準点および姿勢を示す実測値と、予め設定されるロボット20のツール30の基準点および姿勢を示す制御指令値との誤差ベクトルの総和である。 In step s2, the arithmetic unit 18, the control command value H i + 1 indicating the reference point and posture of the tool 30 of the robot 20 which is set in advance at the time T i + 1 after t seconds from the time T i, the error vector summation ΣΔ a i-1, by adding the error vector delta i obtained in step s1, seeking corrective control command value N i + 1 at time T i + 1, the process proceeds to step s3. The sum Sigma] [Delta] i-1 of the error vector, the measured values representing the reference point and posture of the tool 30 determined by the time T i of t seconds before the time T i-1 arithmetic unit 18 which is accumulated up to, This is the sum of error vectors with the control command value indicating the reference point and posture of the tool 30 of the robot 20 set in advance.

ステップs3では、演算部18は、時刻Ti+1において、ステップs2で求めた修正制御指令値Ni+1を含む制御信号をロボット制御部19に与えて、ステップs4に進む。ステップs4では、添字iをi+1に置換えて、ステップs1に戻る。 In step s3, the calculation unit 18 gives a control signal including the correction control command value N i + 1 obtained in step s2 to the robot control unit 19 at time T i + 1 and proceeds to step s4. In step s4, the subscript i is replaced with i + 1, and the process returns to step s1.

このような手順で制御を行うことによって、図6に示すように、演算部18によって求められたツール30の基準点および姿勢を示す実測値の軌跡L11は、予め設定されるツール30の基準点および姿勢を示す制御指令値の軌跡L10に近づいていく。したがって演算部18からの高精度のツール30の基準点の位置および姿勢に基づく修正制御指令値を含む制御信号をロボット制御部19に与えることによって、ツール30のスライド変位および角変位を高精度に制御することができる。   By performing control in such a procedure, as shown in FIG. 6, the reference point of the tool 30 obtained by the calculation unit 18 and the actually measured value locus L11 indicating the posture are set as the reference point of the tool 30 set in advance. Then, it approaches the locus L10 of the control command value indicating the posture. Therefore, by giving the robot control unit 19 a control signal including a correction control command value based on the position and orientation of the reference point of the tool 30 with high accuracy from the arithmetic unit 18, the slide displacement and angular displacement of the tool 30 can be performed with high accuracy. Can be controlled.

以上のように本実施の形態の位置姿勢検出装置10によれば、複数のカメラ13によって、予め定めるロボット座標系における絶対位置が把握されている撮像位置から、ツール30に設けられるターゲットユニット11が撮影され、ターゲットユニット11の画像を表す画像データが生成される。カメラ13が複数、たとえば2個あれば、ターゲットユニット11を両眼立体視することができる。またカメラ13を3個以上にすることによって、ツール30のスライド変位および角変位によって、各ターゲット31〜34が各カメラ13の死角領域に入ってしまうことを可及的に防止することができる。   As described above, according to the position / orientation detection apparatus 10 of the present embodiment, the target unit 11 provided in the tool 30 is detected from the imaging position where the absolute position in the predetermined robot coordinate system is grasped by the plurality of cameras 13. Photographed and image data representing an image of the target unit 11 is generated. If there are a plurality of cameras 13, for example, two, the target unit 11 can be binocularly viewed. Further, by using three or more cameras 13, it is possible to prevent the targets 31 to 34 from entering the blind spot area of each camera 13 as much as possible due to the slide displacement and angular displacement of the tool 30 as much as possible.

画像処理部14によって、カメラ13からの画像データに基づいて、ロボット座標系におけるツール30に設定された基準点の絶対位置およびツール30の絶対姿勢が求められる。このときターゲットユニット11において、4個のターゲット31〜34のうち、いずれの3個のターゲットは同一直線上に並ばないので、3個のターゲットを含む平面を容易に求めて、その平面の法線を求めて、ターゲットを基準とするターゲット座標系を求めることができる。したがってロボット座標系とターゲット座標系とに基づいて、ロボット座標系におけるツール30に設定された基準点の絶対位置およびツール30の絶対姿勢を容易かつ正確に求めることができる。さらにツール30に設けられるジャイロセンサ15および加速度センサ16によって、ツール30の相対スライド変位および相対角変位が検出される。   Based on the image data from the camera 13, the image processing unit 14 obtains the absolute position of the reference point set in the tool 30 in the robot coordinate system and the absolute posture of the tool 30. At this time, in the target unit 11, since any three of the four targets 31 to 34 are not aligned on the same straight line, a plane including the three targets is easily obtained, and the normal of the plane is obtained. And a target coordinate system based on the target can be obtained. Therefore, based on the robot coordinate system and the target coordinate system, the absolute position of the reference point set on the tool 30 and the absolute posture of the tool 30 in the robot coordinate system can be obtained easily and accurately. Further, a relative slide displacement and a relative angular displacement of the tool 30 are detected by the gyro sensor 15 and the acceleration sensor 16 provided in the tool 30.

演算部18によって、画像処理部14からのツール30の基準点の絶対位置および絶対姿勢と、ジャイロセンサ15および加速度センサ16からのツール30の相対スライド変位および相対角変位とに基づいて、ツール30の基準点の位置および姿勢が求められる。これによって、たとえば画像処理部14によって求められるツール30の基準点の絶対位置および絶対姿勢が、ジャイロセンサ15および加速度センサ16によって検出されるツール30の相対スライド変位および相対角変位よりも高精度であるけれども、画像処理部14はツール30の基準点の絶対位置および絶対姿勢を短い時間間隔で順次求めることができない場合、または、万一、ターゲットユニット11が各カメラ13の死角に入ってしまった場合、演算部18は、画像処理部14によってツール30の基準点の絶対位置および絶対姿勢が求められるまでは、ジャイロセンサ15および加速度センサ16によって求められるツール30の相対スライド変位および相対角変位に基づいて、ツール30の基準点の位置および姿勢を求めることができる。このように演算部18は、画像処理部14ならびにジャイロセンサ15および加速度センサ16からのツール30の基準点の絶対位置および絶対姿勢、ならびに相対スライド変位および相対角変位に基づいて、極めて高精度なツール30の基準点の位置および姿勢を短い時間間隔で順次求めることができる。 Based on the absolute position and attitude of the reference point of the tool 30 from the image processing unit 14 and the relative slide displacement and relative angular displacement of the tool 30 from the gyro sensor 15 and acceleration sensor 16 by the calculation unit 18, the tool 30. The position and orientation of the reference point are obtained. Thereby, for example, the absolute position and absolute posture of the reference point of the tool 30 obtained by the image processing unit 14 are more accurate than the relative slide displacement and the relative angular displacement of the tool 30 detected by the gyro sensor 15 and the acceleration sensor 16. However, if the image processing unit 14 cannot sequentially obtain the absolute position and absolute posture of the reference point of the tool 30 at short time intervals , or the target unit 11 has entered the blind spot of each camera 13 by any chance. In this case, the calculation unit 18 determines the relative slide displacement and relative angular displacement of the tool 30 obtained by the gyro sensor 15 and the acceleration sensor 16 until the absolute position and absolute posture of the reference point of the tool 30 are obtained by the image processing unit 14. Based on this, the position and orientation of the reference point of the tool 30 are obtained. Door can be. As described above, the calculation unit 18 has extremely high accuracy based on the absolute position and absolute posture of the reference point of the tool 30 from the image processing unit 14, the gyro sensor 15 and the acceleration sensor 16, and the relative slide displacement and the relative angular displacement. The position and orientation of the reference point of the tool 30 can be obtained sequentially at short time intervals .

また本実施の形態の位置姿勢検出装置10によれば、演算部18からの高精度のツール30の基準点の位置および姿勢に基づいて、ツール30のスライド変位および角変位を高精度に制御することができる。   Further, according to the position / orientation detection apparatus 10 of the present embodiment, the slide displacement and the angular displacement of the tool 30 are controlled with high accuracy based on the position and orientation of the reference point of the tool 30 with high accuracy from the calculation unit 18. be able to.

本実施の形態の位置姿勢検出装置10において、ターゲットユニット11の各ターゲット31〜34は、同形状の球状に形成され、LEDによって互いに異なる色で発光するとしたけれども、各ターゲット31〜34は、画像処理部14が、各ターゲット31〜34を区別可能であればよい。たとえば、各ターゲット31〜34を互いに異なる形状、具体的な一例としては、互いに異なる大きさの球にしてもよい。   In the position / orientation detection apparatus 10 of the present embodiment, each of the targets 31 to 34 of the target unit 11 is formed in a spherical shape having the same shape and emits light in different colors by the LED. The process part 14 should just be able to distinguish each target 31-34. For example, the targets 31 to 34 may have different shapes, and, as a specific example, spheres having different sizes.

また本実施の形態の位置姿勢検出装置10において、ターゲットユニット11は、ツール30に設けられ、第1ターゲット31は、第1ターゲット31の重心がツール30に設定される基準点となるようにして配置されるとしたけれども、これに限ることはない。たとえば、ターゲットユニット11を2個用いてもよい。この場合、8つのターゲットは互いに異なる色で発光するようにして、各ターゲットユニット11の第1ターゲット31を、たとえば手首24の軸線に関して対称となる位置に配置して、ツール30の基準点をツール30の重心として、各第1ターゲット31とツール30の基準点との位置関係を把握しておくようにする。ターゲットユニット11を2個用いることによって、2つのターゲットユニット11がともに、全てのカメラ13の死角領域に入る可能性が極めて低くなるので、ほぼ確実にターゲット座標系を求めることができ、したがってツール30の基準点の位置および姿勢を確実に求めることができる。   Further, in the position / orientation detection apparatus 10 of the present embodiment, the target unit 11 is provided on the tool 30, and the first target 31 is set so that the center of gravity of the first target 31 becomes a reference point set in the tool 30. Although it is arranged, it is not limited to this. For example, two target units 11 may be used. In this case, the eight targets emit light in different colors, the first target 31 of each target unit 11 is arranged at a position that is symmetric with respect to the axis of the wrist 24, for example, and the reference point of the tool 30 is set as the tool. As the center of gravity of 30, the positional relationship between each first target 31 and the reference point of the tool 30 is grasped. By using two target units 11, the possibility that both of the two target units 11 enter the blind spot region of all the cameras 13 becomes extremely low, so that the target coordinate system can be obtained almost certainly, and therefore the tool 30. The position and orientation of the reference point can be reliably obtained.

また各カメラ13の視野を狭くし、かつ画像処理部14によって求められる第1ターゲット31の重心の座標に基づいて、ターゲットユニット11を自動的に追尾する機能を有する雲台に連結して、各カメラ13をスライド変位および角変位させるようにしてもよい。これによって、画像処理部14によって求められるツール30の基準点の位置および姿勢の精度を向上することができる。   In addition, each camera 13 has a narrow field of view and is connected to a pan head having a function of automatically tracking the target unit 11 based on the coordinates of the center of gravity of the first target 31 obtained by the image processing unit 14. The camera 13 may be slid and angularly displaced. Thereby, the accuracy of the position and orientation of the reference point of the tool 30 obtained by the image processing unit 14 can be improved.

図7は、ジャイロセンサ15および加速度センサ16によって検出されるツール30の相対角変位および相対スライド変位を主にして、ツール30の基準点の位置および姿勢を制御する場合の、ツール30の基準点の位置および姿勢の実測値の真値からの誤差と時間との関係を示すグラフである。前述の本実施の形態では、画像処理部14によって求められるツール30の基準点の絶対位置および絶対姿勢を主とし、ジャイロセンサ15および加速度センサ16によって検出されるツール30の相対角変位および相対スライド変位を副として、ツール30の基準点の位置および姿勢を制御したが、これとは逆に、ジャイロセンサ15および加速度センサ16によって検出されるツール30の相対角変位および相対スライド変位を主とし、画像処理部14によって求められるツール30の基準点の絶対位置および絶対姿勢を副として、ツール30の基準点の位置および姿勢を制御するようにしてもよい。   FIG. 7 shows a reference point of the tool 30 when the position and orientation of the reference point of the tool 30 are controlled mainly based on the relative angular displacement and the relative slide displacement of the tool 30 detected by the gyro sensor 15 and the acceleration sensor 16. It is a graph which shows the relationship between the difference | error from the true value of the actual value of the position and attitude | position, and time. In the above-described embodiment, the absolute position and the absolute posture of the reference point of the tool 30 obtained by the image processing unit 14 are mainly used, and the relative angular displacement and the relative slide of the tool 30 detected by the gyro sensor 15 and the acceleration sensor 16 are used. The position and orientation of the reference point of the tool 30 was controlled with the displacement as a sub. On the contrary, the relative angular displacement and the relative slide displacement of the tool 30 detected by the gyro sensor 15 and the acceleration sensor 16 are mainly used. The position and orientation of the reference point of the tool 30 may be controlled with the absolute position and absolute orientation of the reference point of the tool 30 obtained by the image processing unit 14 as a sub.

この場合、演算部18は、ジャイロセンサ15および加速度センサ16によって検出されるツール30の相対角変位および相対スライド変位に基づく修正制御指令値を含む制御信号をロボット制御部19に与え、所定の時間間隔となる時刻U1,U2,U3,…,Unにおいて、画像処理部14によって求められるツール30の基準点の絶対位置および絶対姿勢に基づく修正制御指令値を含む制御信号をロボット制御部19に与えることによって、図7の破線L12に示すように、ジャイロセンサ15および加速度センサ16によって検出される相対角変位および相対スライド変位に基づいて修正制御指令値に含まれる誤差を可及的に小さくすることができる。   In this case, the calculation unit 18 gives a control signal including a correction control command value based on the relative angular displacement and the relative slide displacement of the tool 30 detected by the gyro sensor 15 and the acceleration sensor 16 to the robot control unit 19 for a predetermined time. At the times U1, U2, U3,..., Un, which are intervals, a control signal including a correction control command value based on the absolute position and absolute posture of the reference point of the tool 30 obtained by the image processing unit 14 is given to the robot control unit 19. Accordingly, as shown by a broken line L12 in FIG. 7, the error included in the correction control command value is made as small as possible based on the relative angular displacement and the relative slide displacement detected by the gyro sensor 15 and the acceleration sensor 16. Can do.

また、たとえばロボット20の動作領域内に複数の予め定める待機点を設定しておくようにしてもよい。この場合、ロボット20が待機点に配置されたときに、画像処理部14によって求められるツール30の基準点の絶対位置および絶対姿勢に基づく修正制御指令値を含む制御信号をロボット制御部19に与えることによって、図7の実線L13に示すように、ジャイロセンサ15および加速度センサ16によって検出されるツール30の相対角変位および相対スライド変位に基づく修正制御指令値に含まれる誤差をほぼ零にすることができる。   Further, for example, a plurality of predetermined standby points may be set in the operation area of the robot 20. In this case, when the robot 20 is placed at the standby point, a control signal including a correction control command value based on the absolute position and absolute position of the reference point of the tool 30 obtained by the image processing unit 14 is given to the robot control unit 19. Thus, as indicated by a solid line L13 in FIG. 7, the error included in the correction control command value based on the relative angular displacement and the relative slide displacement of the tool 30 detected by the gyro sensor 15 and the acceleration sensor 16 is made substantially zero. Can do.

またロボット20の繰返し精度が高いことを利用して、複数の待機点におけるツール30の基準点の位置および姿勢を予め測定しておき、ツール30が待機点に配置されたときに、ジャイロセンサ15および加速度センサ16によって検出されるツール30の相対角変位および相対スライド変位に基づくツール30の基準点の位置および姿勢を、予め測定しておいた数値に置きかえてもよい。   Further, by utilizing the high repeatability of the robot 20, the positions and postures of the reference points of the tool 30 at a plurality of standby points are measured in advance, and when the tool 30 is placed at the standby point, the gyro sensor 15. The position and orientation of the reference point of the tool 30 based on the relative angular displacement and the relative slide displacement of the tool 30 detected by the acceleration sensor 16 may be replaced with numerical values measured in advance.

また本実施の形態の位置姿勢検出装置10において、カメラ13によってターゲットユニット11を撮影し、その画像データに基づいて、ロボット座標系におけるツール30の基準点の絶対位置および絶対姿勢を求め、ロボット座標系におけるツール30の基準点の絶対位置および絶対姿勢を求めるとしたけれども、これに限ることはない。たとえば前述の待機点近傍に距離計測センサを設置して、ツール30の基準点の位置および姿勢を測定するようにしてもよい。   Further, in the position / orientation detection apparatus 10 of the present embodiment, the target unit 11 is photographed by the camera 13, and based on the image data, the absolute position and orientation of the reference point of the tool 30 in the robot coordinate system are obtained, and the robot coordinates Although the absolute position and the absolute posture of the reference point of the tool 30 in the system are obtained, the present invention is not limited to this. For example, a distance measurement sensor may be installed in the vicinity of the standby point described above to measure the position and orientation of the reference point of the tool 30.

またロボット20が繰返し作業を行う場合は、ドライラン時にツール30の基準点の位置および姿勢を測定し、作業前に自動的に制御指令値を修正しておくようにしてもよい。さらにセンサをツール30として用いて、ワークの形状などを計測する計測ロボットとして利用する場合、ワークの計測終了後にツール30の基準点および姿勢の誤差による計測データへの影響を可及的に小さくすることができる。   Further, when the robot 20 repeatedly performs the work, the position and orientation of the reference point of the tool 30 may be measured during the dry run, and the control command value may be automatically corrected before the work. Further, when the sensor is used as a tool 30 and used as a measuring robot for measuring the shape of the workpiece, the influence on the measurement data due to the error of the reference point and posture of the tool 30 is made as small as possible after the measurement of the workpiece. be able to.

図8は、本発明の第2の実施形態の位置および姿勢検出装置50の構成を示すブロック図である。図9は、ロボット20およびレーザ干渉計53を模式的に示す図である。位置および姿勢検出装置(以後、単に「位置姿勢検出装置」と表記することがある。)50は、産業用ロボットなどのロボット20の手首24に連結されるツール30などの可動体に設定された基準点の位置およびツール30の姿勢を検出して、ツール30のスライド変位および角変位を制御する。ロボット20は、第1の実施形態におけるロボット20と同様の軸垂直多関節ロボットであるので、同一の参照符号を付して、詳細な説明は省略する。本実施の形態において、ロボット座標系とは、ロボット20のベース部21が固定される床に平行に延び、互いに直交するx軸およびy軸、ならびに鉛直上向きに延びるz軸で構成される直交座標系である。   FIG. 8 is a block diagram showing the configuration of the position and orientation detection device 50 according to the second embodiment of the present invention. FIG. 9 is a diagram schematically showing the robot 20 and the laser interferometer 53. The position and orientation detection device (hereinafter simply referred to as “position and orientation detection device”) 50 is set to a movable body such as a tool 30 connected to the wrist 24 of the robot 20 such as an industrial robot. The position of the reference point and the posture of the tool 30 are detected, and the slide displacement and angular displacement of the tool 30 are controlled. Since the robot 20 is an axially-vertical articulated robot similar to the robot 20 in the first embodiment, the same reference numerals are assigned and detailed description is omitted. In the present embodiment, the robot coordinate system is an orthogonal coordinate composed of an x-axis and a y-axis that extend in parallel to the floor to which the base portion 21 of the robot 20 is fixed, and a z-axis that extends vertically upward. It is a system.

位置姿勢検出装置50は、ターゲット51、回転駆動部52、レーザ干渉計53、測距処理部54、ジャイロセンサ15、加速度センサ16、信号処理部17、演算部58およびロボット制御部19を含んで構成される。   The position / orientation detection apparatus 50 includes a target 51, a rotation drive unit 52, a laser interferometer 53, a distance measurement processing unit 54, a gyro sensor 15, an acceleration sensor 16, a signal processing unit 17, a calculation unit 58, and a robot control unit 19. Composed.

ターゲット51は、ロボット20の上部アーム23の先端部、ツールチェンジャーおよびツール30のいずれかに設けられる。本実施の形態では、ターゲットユニット11は、ツール30に設けられ、ツール30とともにスライド変位および角変位可能である。ターゲット51は、たとえばコーナーキューブプリズムで実現され、レーザ干渉計53からターゲット51に入射したレーザ光を、レーザ光の入射方向とは平行な方向に反射する。駆動手段である回転駆動部52は、たとえばステッピングモータ、またはインダクションモータとエンコーダとで実現され、演算部58からの回転制御信号に基づいて、ターゲット51を予め定める軸線である付加軸線L52まわりに回転駆動するとともに、ターゲット51の角度位置を検出可能である。このとき基準点は、ターゲット51の回転中心となるように、付加軸線L52を配置する。本実施の形態において、回転とは、360度未満の角変位および360度以上の回転を含むものとする。   The target 51 is provided on any of the tip of the upper arm 23 of the robot 20, the tool changer, and the tool 30. In the present embodiment, the target unit 11 is provided on the tool 30 and can be slid and angularly displaced together with the tool 30. The target 51 is realized by, for example, a corner cube prism, and reflects the laser light incident on the target 51 from the laser interferometer 53 in a direction parallel to the incident direction of the laser light. The rotation drive unit 52 as drive means is realized by, for example, a stepping motor or an induction motor and an encoder, and rotates the target 51 around an additional axis L52 which is a predetermined axis based on a rotation control signal from the calculation unit 58. While driving, the angular position of the target 51 can be detected. At this time, the additional axis L52 is arranged so that the reference point is the rotation center of the target 51. In the present embodiment, the rotation includes an angular displacement of less than 360 degrees and a rotation of 360 degrees or more.

ターゲット距離測定手段であるレーザ干渉計53は、予め定める座標系であるロボット座標系における絶対位置が把握されている測距位置に配置され、レーザ光を射出して、ターゲット51にレーザ光を入射して、その反射光と、射出したレーザ光と同位相のレーザ光とを干渉させて、干渉強度の最大値および最小値の変化の回数を計数することによって、前記側距位置からターゲット51までの距離を測定する。レーザ干渉計53には、ターゲット51を追尾する機能を有し、ターゲット51にレーザ光を常に入射させることができるとともに、レーザ光の射出方向を検出可能である。   A laser interferometer 53 as a target distance measuring means is disposed at a distance measurement position where an absolute position in a robot coordinate system which is a predetermined coordinate system is known, emits a laser beam, and enters the laser beam on the target 51. Then, the reflected light and the laser light having the same phase as that of the emitted laser light are caused to interfere with each other, and the number of changes in the maximum value and the minimum value of the interference intensity is counted. Measure the distance. The laser interferometer 53 has a function of tracking the target 51, can always make the laser beam incident on the target 51, and can detect the emission direction of the laser beam.

第1検出手段である測距処理部54は、たとえばマイクロコンピュータで実現され、演算部58からの計測指令信号が与えられると、レーザ干渉計53によって測定された距離および検出されたレーザ光の射出方向に基づいて、ロボット座標系におけるツール30に設定された基準点の絶対位置およびツール30の絶対姿勢を求め、求めたツール30の基準点の絶対位置および絶対姿勢を含む絶対位置姿勢検出信号を演算部58に与える。測距処理部54は、詳細に述べると、レーザ干渉計53によって測定された距離および検出されたレーザ光の射出方向に基づいて、レーザ干渉計53の座標系である干渉計座標系におけるツール30の基準点の絶対位置および絶対姿勢を求めてから、ロボット座標系におけるツール30の基準点の絶対位置および絶対姿勢に変換する。   The distance measurement processing unit 54 as the first detection means is realized by, for example, a microcomputer, and when a measurement command signal is given from the calculation unit 58, the distance measured by the laser interferometer 53 and the emission of the detected laser light. Based on the direction, the absolute position of the reference point set on the tool 30 and the absolute posture of the tool 30 in the robot coordinate system are obtained, and an absolute position and posture detection signal including the absolute position and absolute posture of the obtained reference point of the tool 30 is obtained. This is given to the calculation unit 58. More specifically, the distance measurement processing unit 54, based on the distance measured by the laser interferometer 53 and the emission direction of the detected laser light, the tool 30 in the interferometer coordinate system that is the coordinate system of the laser interferometer 53. After obtaining the absolute position and absolute posture of the reference point, the absolute position and absolute posture of the reference point of the tool 30 in the robot coordinate system are converted.

第2検出手段であるジャイロセンサ15および加速度センサ16は、第1の実施形態の位置姿勢検出装置10におけるジャイロセンサ15および加速度センサ16と同様であるので、同一の参照符号を付して、詳細な説明は省略する。信号処理部17は、第1の実施形態の位置姿勢検出装置10における信号処理部17と同様であるので、同一の参照符号を付して、詳細な説明は省略する。   The gyro sensor 15 and the acceleration sensor 16 that are the second detection means are the same as the gyro sensor 15 and the acceleration sensor 16 in the position and orientation detection apparatus 10 of the first embodiment, and thus are denoted by the same reference numerals and described in detail. The detailed explanation is omitted. Since the signal processing unit 17 is the same as the signal processing unit 17 in the position and orientation detection apparatus 10 of the first embodiment, the same reference numerals are assigned and detailed description is omitted.

演算手段である演算部58は、たとえばCPUなどの演算処理装置、ならびにランダムアクセスメモリ、リードオンリーメモリおよびハードディスクドライブなどの記憶装置を含んで実現され、位置姿勢検出装置50を統括的に制御する。演算部58は、ターゲット51の付加軸線L52まわりの回転駆動を示す回転制御信号を回転駆動部52与える。また演算部18は、レーザ干渉計53によって測定された距離および検出されたレーザ光の射出方向に基づいて、ロボット座標系におけるツール30に設定されたツール30の基準点の絶対位置および絶対姿勢を求めることを示す計測指令信号を、測距処理部54に与える。さらに演算部58は、ロボット制御部19から指令要請信号が与えられると、測距処理部54からの絶対位置姿勢検出信号に含まれるロボット座標系におけるツール30の基準点の絶対位置および絶対姿勢と、信号処理部17からの相対変位検出信号に含まれるツール30の相対角変位および相対スライド変位とに基づいて、ツール30の基準点の位置および姿勢を求めて、求めた位置および姿勢に基づく修正制御指令値を含む制御信号をロボット制御部19に与える。   The computing unit 58, which is a computing means, is realized including an arithmetic processing unit such as a CPU and a storage device such as a random access memory, a read-only memory, and a hard disk drive, and comprehensively controls the position / orientation detection device 50. The calculation unit 58 provides a rotation control signal indicating rotation drive about the additional axis L52 of the target 51 to the rotation drive unit 52. In addition, the calculation unit 18 calculates the absolute position and the absolute posture of the reference point of the tool 30 set in the tool 30 in the robot coordinate system based on the distance measured by the laser interferometer 53 and the emission direction of the detected laser beam. A distance measurement processing unit 54 is provided with a measurement command signal indicating that it is to be obtained. Further, when the command request signal is given from the robot control unit 19, the calculation unit 58 receives the absolute position and absolute posture of the reference point of the tool 30 in the robot coordinate system included in the absolute position and posture detection signal from the distance measurement processing unit 54. Based on the relative angular displacement and relative slide displacement of the tool 30 included in the relative displacement detection signal from the signal processing unit 17, the position and orientation of the reference point of the tool 30 are obtained, and the correction based on the obtained position and orientation is performed. A control signal including a control command value is given to the robot controller 19.

制御手段であるロボット制御部19は、第1の実施の形態の位置姿勢検出装置10におけるロボット制御部19と同様であるので、同一の参照符号を付して、詳細な説明は省略する。   Since the robot control unit 19 which is a control means is the same as the robot control unit 19 in the position and orientation detection apparatus 10 of the first embodiment, the same reference numerals are assigned and detailed description is omitted.

図10は、レーザ干渉計53およびロボット20における干渉計座標系、付加軸座標系およびロボット座標系を模式的に示す図である。図11は、ツール30がスライド変位および角変位していない静止状態で、ツール30の基準点の位置および姿勢を検出する方法を説明するための図である。ツール30がスライド変位および角変位していない静止状態で、ツール30の基準点の位置および姿勢を検出する方法を以下に説明する。   FIG. 10 is a diagram schematically showing an interferometer coordinate system, an additional axis coordinate system, and a robot coordinate system in the laser interferometer 53 and the robot 20. FIG. 11 is a diagram for explaining a method of detecting the position and posture of the reference point of the tool 30 in a stationary state where the tool 30 is not slid and angularly displaced. A method for detecting the position and orientation of the reference point of the tool 30 in a stationary state where the tool 30 is not slid and angularly displaced will be described below.

演算部58は、予め定める第1静止角度位置M1にターゲット51を配置することを示す回転制御信号を回転駆動部52に与える。回転駆動部52は、前記回転制御信号に基づいて、ターゲット51を付加軸線L52まわりに回転させて第1静止角度位置M1に配置する。このときレーザ干渉計53は、第1静止角度位置M1に配置されるターゲット51と測距位置との距離を測定するとともに、レーザ光の射出方向を検出する。測距処理部54は、測定された距離および検出された射出方向に基づいて、第1静止角度位置M1に配置されるターゲット51の干渉計座標系の第1静止位置の干渉計座標系における座標を求める。   The calculation unit 58 gives the rotation drive unit 52 a rotation control signal indicating that the target 51 is disposed at the predetermined first stationary angle position M1. Based on the rotation control signal, the rotation driving unit 52 rotates the target 51 around the additional axis L52 and arranges it at the first stationary angle position M1. At this time, the laser interferometer 53 measures the distance between the target 51 arranged at the first stationary angle position M1 and the distance measurement position, and detects the laser light emission direction. The distance measurement processing unit 54, based on the measured distance and the detected exit direction, coordinates in the interferometer coordinate system of the first stationary position of the interferometer coordinate system of the target 51 arranged at the first stationary angle position M1. Ask for.

続いて演算部58は、第1静止角度位置M1から予め定める回転方向に90度角変位した角度位置である第2静止角度位置M2にターゲット51を配置することを示す回転制御信号を回転駆動部52に与える。回転駆動部52は、前記回転制御信号に基づいて、ターゲット51を付加軸線L52まわりに回転させて第2静止角度位置M2に配置する。このときレーザ干渉計53は、第2静止角度位置M2に配置されるターゲット51と測距位置との距離を測定するとともに、レーザ光の射出方向を検出する。測距処理部54は、測定された距離および検出された射出方向に基づいて、第2静止角度位置M2に配置されるターゲット51の干渉計座標系の第2静止位置の干渉計座標系における座標を求める。   Subsequently, the calculation unit 58 outputs a rotation control signal indicating that the target 51 is disposed at the second stationary angle position M2 that is an angular position that is 90 degrees angularly displaced in the predetermined rotational direction from the first stationary angle position M1. 52. Based on the rotation control signal, the rotation drive unit 52 rotates the target 51 around the additional axis L52 and arranges it at the second stationary angle position M2. At this time, the laser interferometer 53 measures the distance between the target 51 arranged at the second stationary angle position M2 and the distance measurement position, and detects the laser light emission direction. The distance measurement processing unit 54, based on the measured distance and the detected emission direction, coordinates in the interferometer coordinate system of the second stationary position of the interferometer coordinate system of the target 51 arranged at the second stationary angle position M2. Ask for.

さらに演算部58は、第1静止角度位置M1から前記回転方向に270度角変位した角度位置である第3静止角度位置M3にターゲット51を配置することを示す回転制御信号を回転駆動部52に与える。回転駆動部52は、前記回転制御信号に基づいて、ターゲット51を付加軸線L52まわりに回転させて第3静止角度位置M3に配置する。このときレーザ干渉計53は、第3静止角度位置M3に配置されるターゲット51と測距位置との距離を測定するとともに、レーザ光の射出方向を検出する。測距処理部54は、測定された距離および検出された射出方向に基づいて、第3静止角度位置M3に配置されるターゲット51の干渉計座標系の第3静止位置の干渉計座標系における座標を求める。   Further, the calculation unit 58 sends a rotation control signal indicating that the target 51 is disposed at the third stationary angle position M3, which is an angular position displaced by 270 degrees in the rotational direction from the first stationary angle position M1, to the rotation driving unit 52. give. Based on the rotation control signal, the rotation driving unit 52 rotates the target 51 around the additional axis L52 and arranges it at the third stationary angle position M3. At this time, the laser interferometer 53 measures the distance between the target 51 arranged at the third stationary angle position M3 and the distance measurement position, and detects the laser light emission direction. The distance measurement processing unit 54 coordinates the third stationary position in the interferometer coordinate system of the interferometer coordinate system of the target 51 arranged at the third stationary angle position M3 based on the measured distance and the detected exit direction. Ask for.

このようにターゲット51の3つの静止角度位置M1〜M3における干渉計座標系の同一直線上に並ばない3つの静止位置が求められたので、測距処理部54は、3つの第1〜第3静止位置を含む平面を求めるとともに、これら3つの静止位置およびターゲット51の回転半径から回転中心を決定して、前記回転中心から第1静止位置に向かう第1基底ベクトルVx、前記回転中心から第2静止位置に向かう第2基底ベクトルVy、および前記回転中心から前記平面に垂直な方向に向かう第3基底ベクトルVzを求める。このようにして前記回転中心すなわち基準点を座標原点とし、互いに直交する第1〜第3基底ベクトルVx,Vy,Vzによって構成されるターゲット座標系が求められる。これによってターゲット座標系の干渉計座標系に対する傾斜がわかるので、また、ロボット座標系と干渉計座標系との関係も既知であるので、ツール30の絶対姿勢を求めることができる。   As described above, since the three stationary positions that are not aligned on the same straight line of the interferometer coordinate system at the three stationary angular positions M1 to M3 of the target 51 are obtained, the distance measurement processing unit 54 includes the three first to third. A plane including a stationary position is obtained, and a rotation center is determined from the three stationary positions and the rotation radius of the target 51, and a first basis vector Vx directed from the rotation center to the first stationary position, and a second from the rotation center. A second basis vector Vy that goes to a stationary position and a third basis vector Vz that goes from the center of rotation to a direction perpendicular to the plane are obtained. In this way, a target coordinate system constituted by the first to third base vectors Vx, Vy, Vz orthogonal to each other with the rotation center, that is, the reference point as the coordinate origin is obtained. Since the inclination of the target coordinate system with respect to the interferometer coordinate system is known, and the relationship between the robot coordinate system and the interferometer coordinate system is also known, the absolute posture of the tool 30 can be obtained.

ここで万一、レーザ干渉計53が、前記第1〜第3角度位置M1〜M3に配置されるターゲット51にレーザ光を入射させることができなくても、前記第1〜第3角度位置M1〜M3以外の同一直線上に無い3つの角度位置にターゲット51を配置して、これらの角度位置に配置されるターゲット51の干渉計座標系における第1〜第3位置を求めることができる。これによって測距処理部54は、この干渉計座標系における第1〜第3位置である3つの位置を含む平面を求めるとともに、これら3つの位置およびターゲット51の回転半径から回転中心を求めて、前記回転中心を座標原点とし、互いに直交する第1〜第3基底ベクトルVx,Vy,Vzを求めて、ターゲット座標系を求めることができる。   Here, even if the laser interferometer 53 cannot make the laser light incident on the target 51 disposed at the first to third angular positions M1 to M3, the first to third angular positions M1. It is possible to determine the first to third positions in the interferometer coordinate system of the target 51 arranged at three angular positions that are not on the same straight line other than .about.M3 and are arranged at these angular positions. Thereby, the distance measurement processing unit 54 obtains a plane including the three positions which are the first to third positions in the interferometer coordinate system, and obtains the rotation center from the three positions and the rotation radius of the target 51, The target coordinate system can be obtained by obtaining the first to third basis vectors Vx, Vy, Vz orthogonal to each other with the rotation center as the coordinate origin.

図12は、ツール30がスライド変位および角変位している動作状態で、ツール30の基準点の位置および姿勢を検出する方法を説明するための図である。ツール30がスライド変位および角変位している動作状態で、ツール30の基準点の位置および姿勢を検出する方法を以下に説明する。   FIG. 12 is a diagram for explaining a method of detecting the position and posture of the reference point of the tool 30 in the operation state in which the tool 30 is slid and angularly displaced. A method for detecting the position and orientation of the reference point of the tool 30 in the operation state in which the tool 30 is slid and angularly displaced will be described below.

演算部58は、ロボット20のツール30のスライド速度よりも充分に速い回転速度でターゲット51を回転することを示す回転制御信号を回転駆動部52に与える。回転駆動部52は、前記回転制御信号に基づいて、ツール30のスライド速度よりも充分に速い回転速度でターゲット51を付加軸線L52まわりに回転させる。ターゲット51が、ツール30のスライド速度よりも充分に速い回転速度で付加軸線L52まわりに回転することによって、所定の時間間隔となる複数、本実施の形態では3つの時刻におけるターゲット51の3つの位置が、近似的に、3つの時刻のうちの最も最近の時刻における付加軸線L52に垂直な平面上に存在する。図12は、理解を容易にするために、3つの角度位置D1〜D3が重ならないように、それぞれ異なる平面(付加軸線L52に垂直な平面)上に存在しているように表記しているが、実際には、矢符Cの方向には、ほとんど間隔をあけていない。   The calculation unit 58 gives the rotation drive unit 52 a rotation control signal indicating that the target 51 is rotated at a rotation speed sufficiently faster than the slide speed of the tool 30 of the robot 20. Based on the rotation control signal, the rotation driving unit 52 rotates the target 51 around the additional axis L52 at a rotation speed sufficiently higher than the slide speed of the tool 30. By rotating the target 51 around the additional axis L52 at a rotational speed sufficiently faster than the sliding speed of the tool 30, a plurality of positions of the target 51 at a predetermined time interval, in this embodiment, at three times. Is approximately on a plane perpendicular to the additional axis L52 at the most recent of the three times. In FIG. 12, for ease of understanding, the three angular positions D1 to D3 are shown to exist on different planes (planes perpendicular to the additional axis L52) so that they do not overlap. Actually, there is almost no gap in the direction of the arrow C.

レーザ干渉計53は、前述の所定の時間間隔で、回転しているターゲット51と測距位置との距離を測定するとともに、レーザ光の射出方向を検出する。そして測距処理部54は、測定された距離および検出された射出方向に基づいて、測定された各時刻におけるターゲット51の干渉計座標系における座標を求める。   The laser interferometer 53 measures the distance between the rotating target 51 and the distance measurement position at the predetermined time interval described above and detects the laser light emission direction. Then, the distance measurement processing unit 54 obtains coordinates in the interferometer coordinate system of the target 51 at each measured time based on the measured distance and the detected emission direction.

ある測定時刻tにおけるツール30の基準点の絶対位置および絶対姿勢を求めるためには、前記測定時刻tを含む3つの時刻におけるターゲット51の干渉計座標における座標が必要である。本実施の形態では、測定時刻tと、前記測定時刻tよりも所定の時間間隔だけ過去の第1過去時刻ti−1と、前記第1過去時刻ti−1よりも所定の時間間隔だけ過去の第2過去時刻ti−2とにおけるターゲット51の干渉計座標における座標を用いる。 In order to obtain the absolute position and the absolute posture of the reference point of the tool 30 at a certain measurement time t i, the coordinates in the interferometer coordinates of the target 51 at three times including the measurement time t i are necessary. In the present embodiment, the measurement time t i , the first past time t i−1 past the predetermined time interval from the measurement time t i , and the predetermined time from the first past time t i−1. The coordinates in the interferometer coordinates of the target 51 at the second past time ti -2 that is past the interval are used.

測定時刻tにおいて、ターゲット51は、予め定める基準角度位置Wから前記回転方向に第1角度θだけ角変位した第1回転角度位置D1にあるとする。また第1過去時刻ti−1において、ターゲット51は、基準角度位置Wから前記回転方向に第2角度θi−1だけ角変位した第2回転角度位置D2にあるとする。さらに第2過去時刻ti−2において、ターゲット51は、基準角度位置Wから前記回転方向に第3角度θi−2だけ角変位した第3回転角度位置D3にあるとする。 At the measurement time t i , the target 51 is assumed to be at the first rotation angle position D1 that is angularly displaced from the predetermined reference angle position W by the first angle θ i in the rotation direction. In addition, at the first past time t i−1, it is assumed that the target 51 is at the second rotation angle position D2 that is angularly displaced from the reference angle position W by the second angle θ i−1 in the rotation direction. Furthermore, at the second past time t i−2 , the target 51 is assumed to be at the third rotation angle position D3 that is angularly displaced from the reference angle position W by the third angle θ i−2 in the rotation direction.

レーザ干渉計53および測距処理部54によって、各時刻ti−2,ti−1,tにおけるターゲット51の各回転角度位置D1〜D3の干渉計座標系における座標が求められる。前述のように、これらの3つの座標は、近似的に、測定時刻tにおける付加軸線L52に垂直な平面上に存在する。したがって、これらの3つの座標は、同一直線上に並ばないので、測距処理部54は、これら3つの座標を含む円周を有する円の中心の干渉計座標系における座標を求める。この円の中心の座標が、ターゲット51の回転中心であり、すなわちツール30の基準点の干渉計座標系の座標である。ロボット座標系と干渉計座標系との関係は既知であるので、ツール30の基準点の絶対位置を求めることができる。 The laser interferometer 53 and the distance measurement processing unit 54 obtain the coordinates in the interferometer coordinate system of the respective rotation angle positions D1 to D3 of the target 51 at the respective times t i−2 , t i−1 and t i . As described above, these three coordinates are approximately on a plane perpendicular to the additional axis L52 at the measurement time t i . Therefore, since these three coordinates are not aligned on the same straight line, the distance measurement processing unit 54 obtains coordinates in the interferometer coordinate system of the center of a circle having a circumference including these three coordinates. The coordinates of the center of this circle are the rotation center of the target 51, that is, the coordinates of the interferometer coordinate system of the reference point of the tool 30. Since the relationship between the robot coordinate system and the interferometer coordinate system is known, the absolute position of the reference point of the tool 30 can be obtained.

また測距処理部54は、前述の3つの座標を含む平面を求めるとともに、前記3つの座標と、ターゲット51の回転速度と、所定の時間間隔と、第1〜第3角度θ〜θi−2とに基づいて、基準角度位置Wの干渉計座標系における座標を求める。さらに測距処理部54は、前記回転中心から基準角度位置Wに向かう第1基底ベクトルVx、前記回転中心から前記平面に平行であって、前記第1基底ベクトルVxに回転方向に角度90度を成す第2基底ベクトルVy、および前記回転中心から前記平面に垂直な方向に向かう第3基底ベクトルVzを求める。このようにして前記回転中心すなわち基準点を座標原点とし、互いに直交する第1〜第3基底ベクトルVx,Vy,Vzによって構成されるターゲット座標系が求められる。これによってターゲット座標系の干渉計座標系に対する傾斜がわかるので、また、ロボット座標系と干渉計座標系との関係も既知であるので、ツール30の絶対姿勢を求めることができる。 The distance measuring section 54, as well as determine the plane containing the three coordinates of the foregoing, the three coordinates, and the rotational speed of the target 51, a predetermined time interval, the first to third angle theta i through? I -2 , the coordinates of the reference angular position W in the interferometer coordinate system are obtained. Further, the distance measurement processing unit 54 sets the first base vector Vx from the rotation center to the reference angular position W, and is parallel to the plane from the rotation center and has an angle of 90 degrees in the rotation direction with respect to the first base vector Vx. A second basis vector Vy formed and a third basis vector Vz extending from the rotation center in a direction perpendicular to the plane are obtained. In this way, a target coordinate system constituted by the first to third base vectors Vx, Vy, Vz orthogonal to each other with the rotation center, that is, the reference point as the coordinate origin is obtained. Since the inclination of the target coordinate system with respect to the interferometer coordinate system is known, and the relationship between the robot coordinate system and the interferometer coordinate system is also known, the absolute posture of the tool 30 can be obtained.

このようにロボット20のツール30のスライド速度よりも充分に速い回転速度でターゲット51を回転させることによって、たとえば、ターゲット51と回転中心との距離を100ミリメートルとし、ロボット20のツール30が1ミリメートルだけスライド変位する間に、ターゲット51が角度90度だけ回転するようにすれば、tan−1(1/100)≒0.5度の精度で、ツール30の絶対姿勢を求めることができる。 Thus, by rotating the target 51 at a rotational speed sufficiently higher than the sliding speed of the tool 30 of the robot 20, for example, the distance between the target 51 and the rotation center is set to 100 mm, and the tool 30 of the robot 20 is 1 mm. If the target 51 is rotated by an angle of 90 degrees during the sliding displacement, the absolute posture of the tool 30 can be obtained with an accuracy of tan −1 (1/100) ≈0.5 degrees.

以上のように本実施の形態の位置姿勢検出装置50によれば、レーザ干渉計53によって、ロボット座標系における絶対位置が把握されている測距位置から、ツール30に設けられ、回転駆動部52によって付加軸線L52まわりに回転するターゲット51までの距離が測定されるとともにレーザ光の射出方向が検出される。測距処理部54によって、レーザ干渉計53によって測定された距離および検出されたレーザ光の射出方向に基づいて、ロボット座標系におけるツール30に設定された基準点の絶対位置およびツール30の絶対姿勢が求められる。ターゲット51が角変位することによって、レーザ干渉計53は、ロボット座標系における絶対位置が把握されている測距位置から、互いに異なる3つの角度位置に配置されるターゲット51までの距離を測定するとともに、レーザ光の射出方向を検出することができる。このとき、たとえばターゲット51の互いに異なる3つの位置が同一直線上に並ばない場合、この3つの位置を含む平面を容易に求めて、その平面の法線を決定して、ターゲット51を基準とするターゲット座標系を求めることができる。したがってロボット座標系、干渉計座標系およびターゲット座標系に基づいて、ロボット座標系におけるツール30に設定された基準点の絶対位置およびツール30の絶対姿勢を容易かつ正確に求めることができる。さらにツール30に設けられるジャイロセンサ15および加速度センサ16によって、ツール30の相対スライド変位および相対角変位が検出される。   As described above, according to the position / orientation detection apparatus 50 according to the present embodiment, the laser interferometer 53 is provided on the tool 30 from the distance measurement position at which the absolute position in the robot coordinate system is grasped, and the rotation drive unit 52. Thus, the distance to the target 51 rotating around the additional axis L52 is measured, and the emission direction of the laser beam is detected. The absolute position of the reference point set in the tool 30 in the robot coordinate system and the absolute posture of the tool 30 based on the distance measured by the laser interferometer 53 and the detected emission direction of the laser light by the distance measurement processing unit 54. Is required. When the target 51 is angularly displaced, the laser interferometer 53 measures the distance from the distance measurement position at which the absolute position in the robot coordinate system is known to the target 51 arranged at three different angular positions. The laser beam emission direction can be detected. At this time, for example, when three different positions of the target 51 are not aligned on the same straight line, a plane including these three positions is easily obtained, a normal line of the plane is determined, and the target 51 is used as a reference. A target coordinate system can be determined. Therefore, based on the robot coordinate system, the interferometer coordinate system, and the target coordinate system, the absolute position of the reference point set on the tool 30 and the absolute posture of the tool 30 in the robot coordinate system can be easily and accurately obtained. Further, a relative slide displacement and a relative angular displacement of the tool 30 are detected by the gyro sensor 15 and the acceleration sensor 16 provided in the tool 30.

演算部58によって、測距処理部54からのツール30の基準点の絶対位置および絶対姿勢と、ジャイロセンサ15および加速度センサ16からのツール30の相対スライド変位および相対角変位とに基づいて、ツール30の基準点の位置および姿勢が求められる。これによって、たとえば測距処理部54によって求められるツール30の基準点の絶対位置および絶対姿勢が、ジャイロセンサ15および加速度センサ16によって検出されるツール30の相対スライド変位および相対角変位よりも高精度であるけれども、測距処理部54はツール30の基準点の絶対位置および絶対姿勢を短い時間間隔で順次求めることができない場合、または、万一、ターゲット51がレーザ干渉計53の死角領域に入ってしまった場合、演算部58は、測距処理部54によってツール30の基準点の絶対位置および絶対姿勢が求められるまでは、ジャイロセンサ15および加速度センサ16によって検出されるツール30の相対スライド変位および相対角変位に基づいて、ツール30の基準点の位置および姿勢を求めることができる。このように測距処理部54ならびにジャイロセンサ15および加速度センサ16からのツール30の基準点の絶対位置および絶対姿勢、ならびにツール30の相対スライド変位および相対角変位に基づいて、極めて高精度なツール30の基準点の位置および姿勢を短い時間間隔で順次求めることができる。 Based on the absolute position and absolute posture of the reference point of the tool 30 from the distance measurement processing unit 54 and the relative slide displacement and relative angular displacement of the tool 30 from the gyro sensor 15 and the acceleration sensor 16 by the calculation unit 58. The position and orientation of 30 reference points are determined. Accordingly, for example, the absolute position and absolute posture of the reference point of the tool 30 obtained by the distance measurement processing unit 54 are more accurate than the relative slide displacement and the relative angular displacement of the tool 30 detected by the gyro sensor 15 and the acceleration sensor 16. However, if the distance measurement processing unit 54 cannot sequentially obtain the absolute position and absolute posture of the reference point of the tool 30 at short time intervals , or the target 51 should enter the blind spot region of the laser interferometer 53. In such a case, the calculation unit 58 detects the relative slide displacement of the tool 30 detected by the gyro sensor 15 and the acceleration sensor 16 until the distance measurement processing unit 54 determines the absolute position and absolute posture of the reference point of the tool 30. And the position and orientation of the reference point of the tool 30 based on the relative angular displacement. Door can be. As described above, based on the absolute position and attitude of the reference point of the tool 30 from the distance measurement processing unit 54, the gyro sensor 15 and the acceleration sensor 16, and the relative slide displacement and relative angular displacement of the tool 30, an extremely accurate tool. The positions and orientations of the 30 reference points can be obtained sequentially at short time intervals .

また本実施の形態のロボットの位置および姿勢検出装置50によれば、演算部58からの高精度のツール30の基準点の位置および姿勢に基づいて、ツール30のスライド変位および角変位を高精度に制御することができる。   Further, according to the robot position and orientation detection device 50 of the present embodiment, the slide displacement and the angular displacement of the tool 30 are highly accurate based on the position and orientation of the reference point of the highly accurate tool 30 from the calculation unit 58. Can be controlled.

本実施の形態のロボットの位置および姿勢検出装置50において、ロボット20の動作中においてツール30の姿勢がほとんど変化しない場合、ロボット20の動作領域内に複数の予め定める待機点を設定して、各待機点においてロボット20の動作が停止しているときに、ターゲット51を回転させてツール30の姿勢を求めるようにしてもよい。   In the robot position and orientation detection device 50 according to the present embodiment, when the posture of the tool 30 hardly changes during the operation of the robot 20, a plurality of predetermined standby points are set in the operation region of the robot 20, When the operation of the robot 20 is stopped at the standby point, the target 51 may be rotated to obtain the posture of the tool 30.

本実施の形態のロボットの位置および姿勢検出装置50において、ターゲット距離測定手段はレーザ干渉計51としたけれども、これに限ることなく、たとえばCCDを有する2台のカメラでもよい。   In the robot position and orientation detection device 50 according to the present embodiment, the target distance measuring means is the laser interferometer 51. However, the present invention is not limited to this, and for example, two cameras having CCDs may be used.

本発明は、次の実施の形態が可能である。
(1)同一直線上に並ばない3個のターゲットを有し、可動体に設けられるターゲットユニットと、
予め定める座標系における絶対位置が把握されている撮像位置からターゲットユニットを撮影して、ターゲットユニットの画像を表す画像データを生成する複数の撮影手段と、
撮影手段からの画像データに基づいて、前記座標系における可動体に設定された基準点の絶対位置および可動体の絶対姿勢を求める第1検出手段と、
可動体に設けられ、可動体の相対スライド変位および相対角変位を検出する第2検出手段と、
第1検出手段からの基準点の絶対位置および絶対姿勢と、第2検出手段からの可動体の相対スライド変位および相対角変位とに基づいて、基準点の位置および可動体の姿勢を求める演算手段を備えることを特徴とする可動体の位置および姿勢検出装置。
The following embodiments are possible for the present invention.
(1) A target unit having three targets that are not arranged on the same straight line and provided on the movable body;
A plurality of photographing means for photographing a target unit from an imaging position in which an absolute position in a predetermined coordinate system is grasped and generating image data representing an image of the target unit;
First detection means for obtaining an absolute position of a reference point set on the movable body in the coordinate system and an absolute posture of the movable body based on image data from the photographing means;
A second detection means provided on the movable body for detecting relative slide displacement and relative angular displacement of the movable body;
Calculation means for obtaining the position of the reference point and the posture of the movable body based on the absolute position and absolute posture of the reference point from the first detection means and the relative slide displacement and relative angular displacement of the movable body from the second detection means. A position and orientation detection device for a movable body comprising:

複数の撮影手段によって、予め定める座標系における絶対位置が把握されている撮像位置から、同一直線上に並ばない3個のターゲットを有し、可動体に設けられるターゲットユニットが撮影され、ターゲットユニットの画像を表す画像データが生成される。撮影手段が複数、たとえば2個あれば、ターゲットユニットを両眼立体視することができる。また撮影手段を、3個以上にすることによって、可動体のスライド変位および角変位によって、各ターゲットが撮影手段の死角領域に入ってしまうことを可及的に防止することができる。   A target unit having three targets that are not aligned on the same straight line from the imaging position in which the absolute position in a predetermined coordinate system is grasped by a plurality of imaging units is imaged, and the target unit Image data representing an image is generated. If there are a plurality of imaging means, for example, two, the target unit can be binocularly viewed. Further, by using three or more photographing means, it is possible to prevent as much as possible each target from entering the blind spot area of the photographing means due to the slide displacement and the angular displacement of the movable body.

第1検出手段によって、撮影手段からの画像データに基づいて、前記座標系における可動体に設定された基準点の絶対位置および可動体の絶対姿勢が求められる。このときターゲットユニットにおいて、3個のターゲットは同一直線上に並ばないので、この3個のターゲットを含む平面を容易に求めて、その平面の法線を求めて、ターゲットを基準とするターゲット座標系を求めることができる。したがって予め定める座標系とターゲット座標系とに基づいて、前記予め定められる座標系における可動体に設定された基準点の絶対位置および可動体の絶対姿勢を容易かつ正確に求めることができる。さらに可動体に設けられる第2検出手段によって、可動体の相対スライド変位および相対角変位が検出される。   The first detection means obtains the absolute position of the reference point set on the movable body in the coordinate system and the absolute posture of the movable body based on the image data from the photographing means. At this time, in the target unit, since the three targets are not arranged on the same straight line, a plane including these three targets is easily obtained, a normal of the plane is obtained, and a target coordinate system based on the target is obtained. Can be requested. Therefore, based on the predetermined coordinate system and the target coordinate system, the absolute position of the reference point set on the movable body and the absolute posture of the movable body in the predetermined coordinate system can be easily and accurately obtained. Furthermore, relative slide displacement and relative angular displacement of the movable body are detected by the second detection means provided on the movable body.

演算手段によって、第1検出手段からの可動体の基準点の絶対位置および絶対姿勢と、第2検出手段からの可動体の相対スライド変位および相対角変位とに基づいて、可動体の基準点の位置および可動体の姿勢が求められる。これによって、たとえば第1検出手段によって求められる可動体の基準点の絶対位置および絶対姿勢が、第2検出手段によって検出される可動体の相対スライド変位および相対角変位よりも高精度であるけれども、第1検出手段は可動体の基準点の絶対位置および絶対姿勢を短い時間間隔で順次求めることができない場合、または、万一、ターゲットユニットが各撮影手段の死角領域に入ってしまった場合、演算手段は、第1検出手段によって可動体の基準点の絶対位置および絶対姿勢が求められるまでは、第2検出手段によって検出される可動体の相対スライド変位および相対角変位に基づいて、可動体の基準点の位置および姿勢を求めることができる。このように演算手段は、2つの検出手段からの可動体の基準点の絶対位置および絶対姿勢、ならびに可動体の相対スライド変位および相対角変位に基づいて、極めて高精度な可動体の基準点の位置および姿勢を短い時間間隔で順次求めることができる。 Based on the absolute position and absolute attitude of the reference point of the movable body from the first detection means and the relative slide displacement and relative angular displacement of the movable body from the second detection means, the calculation means calculates the reference point of the movable body. The position and the posture of the movable body are required. Thereby, for example, although the absolute position and absolute posture of the reference point of the movable body obtained by the first detection means are more accurate than the relative slide displacement and relative angular displacement of the movable body detected by the second detection means, The first detection means calculates if the absolute position and absolute posture of the reference point of the movable body cannot be obtained sequentially in a short time interval , or if the target unit has entered the blind spot area of each photographing means. The means is based on the relative slide displacement and the relative angular displacement of the movable body detected by the second detection means until the absolute position and absolute posture of the reference point of the movable body are obtained by the first detection means. The position and orientation of the reference point can be obtained. In this way, the calculation means can calculate the reference point of the movable body with extremely high accuracy based on the absolute position and absolute posture of the reference point of the movable body from the two detection means and the relative slide displacement and relative angular displacement of the movable body. The position and orientation can be obtained sequentially at short time intervals .

たとえば第1検出手段によって求められる可動体の基準点の絶対位置および絶対姿勢が、第2検出手段によって検出される可動体の相対スライド変位および相対角変位よりも高精度であるけれども、第1検出手段は可動体の基準点の絶対位置および絶対姿勢を短い時間間隔で順次求めることができない場合、または、万一、ターゲットユニットが各撮影手段の死角領域に入ってしまった場合、演算手段は、第1検出手段によって可動体の基準点の絶対位置および絶対姿勢が求められるまでは、第2検出手段によって検出される可動体の相対スライド変位および相対角変位に基づいて、可動体の基準点の位置および姿勢を求めることができる。このように演算手段は、2つの検出手段からの可動体の基準点の絶対位置および絶対姿勢、ならびに可動体の相対スライド変位および相対角変位に基づいて、極めて高精度な可動体の基準点の位置および姿勢を短い時間間隔で順次求めることができる。 For example, although the absolute position and the absolute posture of the reference point of the movable body obtained by the first detection means are more accurate than the relative slide displacement and the relative angular displacement of the movable body detected by the second detection means, the first detection If the means cannot sequentially determine the absolute position and absolute posture of the reference point of the movable body in a short time interval , or if the target unit has entered the blind spot area of each imaging means, the computing means, Until the absolute position and absolute posture of the reference point of the movable body are obtained by the first detection means, the reference point of the movable body is determined based on the relative slide displacement and the relative angular displacement of the movable body detected by the second detection means. The position and orientation can be determined. In this way, the calculation means can calculate the reference point of the movable body with extremely high accuracy based on the absolute position and absolute posture of the reference point of the movable body from the two detection means and the relative slide displacement and relative angular displacement of the movable body. The position and orientation can be obtained sequentially at short time intervals .

(2)可動体に設けられるターゲットと、
ターゲットを予め定める軸線まわりに角変位駆動する駆動手段と、
予め定める座標系における絶対位置が把握されている測距位置からターゲットまでの距離を測定するターゲット距離測定手段と、
ターゲット距離測定手段によって測定された距離に基づいて、前記座標系における可動体に設定された基準点の絶対位置および可動体の絶対姿勢を求める第1検出手段と、
可動体に設けられ、可動体の相対スライド変位および相対角変位を検出する第2検出手段と、
第1検出手段からの基準点の絶対位置および絶対姿勢と、第2検出手段からの可動体の相対スライド変位および相対角変位とに基づいて、基準点の位置および可動体の姿勢を求める演算手段を備えることを特徴とする可動体の位置および姿勢検出装置。
(2) a target provided on the movable body;
Driving means for driving the target to be angularly displaced about a predetermined axis;
A target distance measuring means for measuring a distance from the distance measuring position to which the absolute position in a predetermined coordinate system is known;
First detection means for determining an absolute position of a reference point and an absolute posture of the movable body set on the movable body in the coordinate system based on the distance measured by the target distance measurement means;
A second detection means provided on the movable body for detecting relative slide displacement and relative angular displacement of the movable body;
Calculation means for obtaining the position of the reference point and the posture of the movable body based on the absolute position and absolute posture of the reference point from the first detection means and the relative slide displacement and relative angular displacement of the movable body from the second detection means. A position and orientation detection device for a movable body comprising:

ターゲット距離測定手段によって、予め定める座標系における絶対位置が把握されている測距位置から、可動体に設けられ、駆動手段によって予め定める軸線まわりに角変位するターゲットまでの距離が測定される。第1検出手段によって、ターゲット距離測定手段によって測定された距離に基づいて、前記座標系における可動体に設定された基準点の絶対位置および可動体の絶対姿勢が求められる。ターゲットが角変位することによって、ターゲット距離測定手段は、予め定める座標系における絶対位置が把握されている測距位置から、互いに異なる角度位置に配置されるターゲットまでの距離を、測定することができる。このとき、たとえばターゲットの同一直線上に並ばない3つの角度位置を設定すれば、この3つの角度位置を含む平面を容易に求めて、その平面の法線を求めて、ターゲットを基準とするターゲット座標系を求めることができる。したがって予め定める座標系とターゲット座標系とに基づいて、前記予め定められる座標系における可動体に設定された基準点の絶対位置および可動体の絶対姿勢を容易かつ正確に求められる。さらに可動体に設けられる第2検出手段によって、可動体の相対スライド変位および相対角変位が検出される。   The target distance measuring means measures the distance from the distance measuring position at which the absolute position in the predetermined coordinate system is grasped to the target provided on the movable body and angularly displaced around the predetermined axis by the driving means. Based on the distance measured by the target distance measuring unit, the absolute position of the reference point set on the movable body in the coordinate system and the absolute posture of the movable body are obtained by the first detection unit. When the target is angularly displaced, the target distance measuring means can measure the distance from the distance measuring position at which the absolute position in the predetermined coordinate system is known to the target arranged at different angular positions. . At this time, for example, if three angular positions that are not aligned on the same straight line of the target are set, a plane including these three angular positions can be easily obtained, a normal line of the plane is obtained, and a target based on the target is obtained. A coordinate system can be obtained. Therefore, based on the predetermined coordinate system and the target coordinate system, the absolute position of the reference point set on the movable body and the absolute posture of the movable body in the predetermined coordinate system can be obtained easily and accurately. Furthermore, relative slide displacement and relative angular displacement of the movable body are detected by the second detection means provided on the movable body.

演算手段によって、第1検出手段からの可動体の基準点の絶対位置および絶対姿勢と、第2検出手段からの可動体の相対スライド変位および相対角変位とに基づいて、可動体の基準点の位置および可動体の姿勢が求められる。これによって、たとえば第1検出手段によって求められる可動体の基準点の絶対位置および絶対姿勢が、第2検出手段によって検出される可動体の相対スライド変位および相対角変位よりも高精度であるけれども、第1検出手段は可動体の基準点の絶対位置および絶対姿勢を短い時間間隔で順次求めることができない場合、または、万一、ターゲットがターゲット距離測定手段の死角領域に入ってしまった場合、演算手段は、第1検出手段によって可動体の基準点の絶対位置および絶対姿勢が求められるまでは、第2検出手段によって検出される可動体の相対スライド変位および相対角変位に基づいて、可動体の基準点の位置および姿勢を求めることができる。このように演算手段は、2つの検出手段からの可動体の基準点の絶対位置および絶対姿勢、ならびに可動体の相対スライド変位および相対角変位に基づいて、極めて高精度な可動体の基準点の位置および姿勢を短い時間間隔で順次求めることができる。 Based on the absolute position and absolute attitude of the reference point of the movable body from the first detection means and the relative slide displacement and relative angular displacement of the movable body from the second detection means, the calculation means calculates the reference point of the movable body. The position and the posture of the movable body are required. Thereby, for example, although the absolute position and absolute posture of the reference point of the movable body obtained by the first detection means are more accurate than the relative slide displacement and relative angular displacement of the movable body detected by the second detection means, The first detection means calculates if the absolute position and absolute posture of the reference point of the movable body cannot be obtained sequentially in a short time interval , or if the target has entered the blind spot area of the target distance measurement means. The means is based on the relative slide displacement and the relative angular displacement of the movable body detected by the second detection means until the absolute position and absolute posture of the reference point of the movable body are obtained by the first detection means. The position and orientation of the reference point can be obtained. In this way, the calculation means can calculate the reference point of the movable body with extremely high accuracy based on the absolute position and absolute posture of the reference point of the movable body from the two detection means and the relative slide displacement and relative angular displacement of the movable body. The position and orientation can be obtained sequentially at short time intervals .

たとえば第1検出手段によって求められる可動体の基準点の絶対位置および絶対姿勢が、第2検出手段によって検出される可動体の相対スライド変位および相対角変位よりも高精度であるけれども、第1検出手段は可動体の基準点の絶対位置および絶対姿勢を短い時間間隔で順次求めることができない場合、または、万一、ターゲットがターゲット距離測定手段の死角領域に入ってしまった場合、演算手段は、第1検出手段によって可動体の基準点の絶対位置および絶対姿勢が求められるまでは、第2検出手段によって検出される可動体の相対スライド変位および相対角変位に基づいて、可動体の基準点の位置および姿勢を求めることができる。このように演算手段は、2つの検出手段からの可動体の基準点の絶対位置および絶対姿勢、ならびに可動体の相対スライド変位および相対角変位に基づいて、極めて高精度な可動体の基準点の位置および姿勢を短い時間間隔で順次求めることができる。 For example, although the absolute position and the absolute posture of the reference point of the movable body obtained by the first detection means are more accurate than the relative slide displacement and the relative angular displacement of the movable body detected by the second detection means, the first detection If the means cannot sequentially determine the absolute position and absolute posture of the reference point of the movable body in a short time interval , or if the target has entered the blind spot area of the target distance measuring means, the computing means, Until the absolute position and absolute posture of the reference point of the movable body are obtained by the first detection means, the reference point of the movable body is determined based on the relative slide displacement and the relative angular displacement of the movable body detected by the second detection means. The position and orientation can be determined. In this way, the calculation means can calculate the reference point of the movable body with extremely high accuracy based on the absolute position and absolute posture of the reference point of the movable body from the two detection means and the relative slide displacement and relative angular displacement of the movable body. The position and orientation can be obtained sequentially at short time intervals .

(3)演算手段からの可動体の基準点の位置および可動体の姿勢に基づいて、可動体のスライド変位および角変位を制御する制御手段をさらに備えることを特徴とする可動体の位置および姿勢検出装置。   (3) The position and orientation of the movable body further comprising control means for controlling slide displacement and angular displacement of the movable body based on the position of the reference point of the movable body and the posture of the movable body from the calculation means. Detection device.

演算手段からの高精度の可動体の基準点の位置および可動体の姿勢に基づいて、可動体のスライド変位および角変位を高精度に制御することができる。   The slide displacement and angular displacement of the movable body can be controlled with high accuracy based on the position of the reference point of the movable body with high accuracy and the posture of the movable body from the calculation means.

本発明の第1の実施形態の位置および姿勢検出装置10の構成を示すブロック図である。1 is a block diagram illustrating a configuration of a position and orientation detection device 10 according to a first embodiment of the present invention. ロボット20および複数のカメラ13A,13B,13Cを模式的に示す図である。It is a figure which shows typically the robot 20 and several camera 13A, 13B, 13C. ターゲットユニット11を示す斜視図である。3 is a perspective view showing a target unit 11. FIG. カメラ13を用いて、ある点Pのロボット座標系における座標(X,Y,Z)を求める方法を説明するための図である。It is a figure for demonstrating the method of calculating | requiring the coordinate (X, Y, Z) in the robot coordinate system of a certain point P using the camera 13. FIG. ロボット制御部19によるツール30のスライド変位および角変位を制御する手順を示すフローチャートである。4 is a flowchart showing a procedure for controlling slide displacement and angular displacement of a tool 30 by a robot control unit 19. ロボット制御部19によるツール30のスライド変位および角変位を制御する方法を説明するための図である。It is a figure for demonstrating the method of controlling the slide displacement and angular displacement of the tool 30 by the robot control part 19. FIG. ジャイロセンサ15および加速度センサ16によって検出されるツール30の相対角変位および相対スライド変位を主にして、ツール30の基準点の位置および姿勢を制御する場合の、ツール30の基準点の位置および姿勢の実測値の真値からの誤差と時間との関係を示すグラフである。The position and orientation of the reference point of the tool 30 when controlling the position and orientation of the reference point of the tool 30 mainly based on the relative angular displacement and the relative slide displacement of the tool 30 detected by the gyro sensor 15 and the acceleration sensor 16. It is a graph which shows the relationship between the difference | error from the true value of actual value, and time. 本発明の第2の実施形態の位置および姿勢検出装置50の構成を示すブロック図である。It is a block diagram which shows the structure of the position and attitude | position detection apparatus 50 of the 2nd Embodiment of this invention. ロボット20およびレーザ干渉計53を模式的に示す図である。It is a figure which shows the robot 20 and the laser interferometer 53 typically. レーザ干渉計53およびロボット20における干渉計座標系、付加軸座標系およびロボット座標系を模式的に示す図である。It is a figure which shows typically the interferometer coordinate system in the laser interferometer 53 and the robot 20, an additional axis coordinate system, and a robot coordinate system. ツール30がスライド変位および角変位していない静止状態で、ツール30の基準点の位置および姿勢を検出する方法を説明するための図である。It is a figure for demonstrating the method to detect the position and attitude | position of the reference | standard point of the tool 30 in the stationary state where the tool 30 is not a slide displacement and an angular displacement. ツール30がスライド変位および角変位している動作状態で、ツール30の基準点の位置および姿勢を検出する方法を説明するための図である。It is a figure for demonstrating the method to detect the position and attitude | position of the reference | standard point of the tool 30 in the operation state in which the tool 30 is slid and angularly displaced.

符号の説明Explanation of symbols

10,50 位置姿勢検出装置
11 ターゲットユニット
31,32,33,34;51 ターゲット
13 カメラ
14 画像処理部
15 ジャイロセンサ
16 加速度センサ
18,58 演算部
19 ロボット制御部
30 ツール
52 回転駆動部
53 レーザ干渉計
54 測距処理部
DESCRIPTION OF SYMBOLS 10, 50 Position and orientation detection apparatus 11 Target unit 31, 32, 33, 34; 51 Target 13 Camera 14 Image processing part 15 Gyro sensor 16 Acceleration sensor 18, 58 Calculation part 19 Robot control part 30 Tool 52 Rotation drive part 53 Laser interference Total 54 Distance processing section

Claims (3)

産業用ロボットに連結される可動体を変位移動させるための産業用ロボットを制御する制御装置であって、
予め定めるロボット座標系において予め把握される撮像位置にそれぞれ配置されて、可動体に設けられるターゲットを撮像する3つ以上の撮像手段と、
各撮像手段によって撮像される画像におけるターゲットの座標に基づいて、予め定めるロボット座標系におけるターゲットの位置を求める第1検出手段と、
可動体に対して予め定める軸線まわりにターゲットを角変位駆動する駆動手段と、
駆動手段によって同一直線上に並ばない互いに異なる3つの角度位置にターゲットを移動させて、第1検出手段によって求められる予め定めるロボット座標系におけるターゲットの各位置に基づいて、予め定めるロボット座標系における可動体の位置および姿勢を求める演算手段であって、移動する可動体の位置および姿勢を求める場合、駆動部によって可動体の移動速度よりも速い回転速度でターゲットを回転軸線まわりに回転させた状態で、可動体の位置および姿勢を求める演算手段と、
演算手段によって求めた演算結果に基づいて、産業用ロボットを制御する制御手段とを備えることを特徴とする産業用ロボットの制御装置。
A control device for controlling an industrial robot for displacing and moving a movable body connected to the industrial robot,
Three or more imaging means that are respectively arranged at imaging positions grasped in advance in a predetermined robot coordinate system and image a target provided on the movable body;
First detection means for determining the position of the target in a predetermined robot coordinate system based on the coordinates of the target in the image captured by each imaging means ;
A driving means for a target angular displacement driven about a predetermined Ru axis relative to the movable body,
The target is moved to three different angular positions that are not arranged on the same straight line by the driving means, and the movable in the predetermined robot coordinate system is based on each position of the target in the predetermined robot coordinate system obtained by the first detecting means. When calculating the position and posture of the moving movable body, the driving unit is configured to calculate the position and posture of the body while rotating the target around the rotation axis at a rotational speed faster than the moving speed of the movable body. Computing means for determining the position and orientation of the movable body;
A control device for an industrial robot, comprising: control means for controlling the industrial robot based on a calculation result obtained by the calculation means .
可動体に設けられ、可動体のスライド変位および相対角変位を求める第2検出手段をさらに備え、
演算手段は、第1検出手段の計算結果と、第2検出手段の計算結果とに基づいて、可動体の位置および姿勢を求めることを特徴とする請求項1記載の産業用ロボットの制御装置。
A second detection means provided on the movable body for obtaining a slide displacement and a relative angular displacement of the movable body;
2. The industrial robot control apparatus according to claim 1, wherein the calculation means obtains the position and orientation of the movable body based on the calculation result of the first detection means and the calculation result of the second detection means .
ロボットが待機する複数の待機位置が設定される場合、ロボットが各待機位置にそれぞれ達したときに、演算手段は、駆動手段によって互いに異なる複数の角度位置にターゲットを移動させて、可動体の位置および姿勢を求めることを特徴とする請求項記載の産業用ロボットの制御装置。 When a plurality of standby positions where the robot waits are set, when the robot reaches each of the standby positions, the calculation means moves the target to a plurality of different angular positions by the driving means, and the position of the movable body The industrial robot control device according to claim 2 , wherein the control device obtains a position and a posture.
JP2005172874A 2005-06-13 2005-06-13 Industrial robot controller Expired - Fee Related JP4015161B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005172874A JP4015161B2 (en) 2005-06-13 2005-06-13 Industrial robot controller

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005172874A JP4015161B2 (en) 2005-06-13 2005-06-13 Industrial robot controller

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2002211553A Division JP3754402B2 (en) 2002-07-19 2002-07-19 Industrial robot control method and control apparatus

Publications (2)

Publication Number Publication Date
JP2005283600A JP2005283600A (en) 2005-10-13
JP4015161B2 true JP4015161B2 (en) 2007-11-28

Family

ID=35182100

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005172874A Expired - Fee Related JP4015161B2 (en) 2005-06-13 2005-06-13 Industrial robot controller

Country Status (1)

Country Link
JP (1) JP4015161B2 (en)

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102005054521A1 (en) * 2005-11-14 2007-05-24 Ersa Gmbh Soldering device with computer-based sensor system
DE102006006475A1 (en) * 2006-02-10 2007-08-16 Lkt Gmbh Device and method for tracking the movement of a tool of a handling unit
US9746329B2 (en) * 2006-11-08 2017-08-29 Caterpillar Trimble Control Technologies Llc Systems and methods for augmenting an inertial navigation system
KR100922494B1 (en) 2007-07-19 2009-10-20 삼성전자주식회사 Method for measuring pose of a mobile robot and method and apparatus for measuring position of the mobile robot using the method
JP5378908B2 (en) * 2009-08-11 2013-12-25 川崎重工業株式会社 Robot accuracy adjustment method and robot
JP6009840B2 (en) 2011-08-04 2016-10-19 オリンパス株式会社 Medical equipment
EP2740434A4 (en) 2011-08-04 2015-03-18 Olympus Corp Medical manipulator and method for controlling same
JP6021484B2 (en) 2011-08-04 2016-11-09 オリンパス株式会社 Medical manipulator
JP5936914B2 (en) 2011-08-04 2016-06-22 オリンパス株式会社 Operation input device and manipulator system including the same
US9519341B2 (en) 2011-08-04 2016-12-13 Olympus Corporation Medical manipulator and surgical support apparatus
JP6005950B2 (en) 2011-08-04 2016-10-12 オリンパス株式会社 Surgery support apparatus and control method thereof
JP5953058B2 (en) 2011-08-04 2016-07-13 オリンパス株式会社 Surgery support device and method for attaching and detaching the same
JP5855656B2 (en) * 2011-08-04 2016-02-09 オリンパス株式会社 Medical manipulator and method of operating the same
GB2540075B (en) 2012-05-18 2017-04-19 Acergy France SAS Improvements relating to pipe measurement
JP6367702B2 (en) * 2014-12-24 2018-08-01 大豊精機株式会社 Positioning system and welding system
CN109715894B (en) 2016-07-15 2021-09-03 快砖知识产权私人有限公司 A jib for material transportation
BR112019000728B1 (en) 2016-07-15 2023-03-28 Fastbrick Ip Pty Ltd VEHICLE INCORPORATING BRICK LAYING MACHINE
WO2019006511A1 (en) 2017-07-05 2019-01-10 Fastbrick Ip Pty Ltd Real time position and orientation tracker
CN111213098B (en) 2017-08-17 2024-03-15 快砖知识产权私人有限公司 Communication system for interactive system
AU2018348785B2 (en) 2017-10-11 2024-05-02 Fastbrick Ip Pty Ltd Machine for conveying objects and multi-bay carousel for use therewith
CN114459356B (en) * 2022-03-14 2023-03-24 哈尔滨工业大学 Terminal position appearance precision testing arrangement of space arm

Also Published As

Publication number Publication date
JP2005283600A (en) 2005-10-13

Similar Documents

Publication Publication Date Title
JP4015161B2 (en) Industrial robot controller
JP3754402B2 (en) Industrial robot control method and control apparatus
US9400170B2 (en) Automatic measurement of dimensional data within an acceptance region by a laser tracker
US8467071B2 (en) Automatic measurement of dimensional data with a laser tracker
US7145647B2 (en) Measurement of spatial coordinates
US10107618B2 (en) Coordinate measuring machine
JP5281898B2 (en) Method for measuring and / or calibrating the position of an object in space
EP1190818B1 (en) Position-orientation recognition device
JP2510216B2 (en) Method for calibrating sensors in industrial robots
CN111226090B (en) Laser tracker with improved roll angle measurement
US20150025683A1 (en) Robot system and calibration method of the robot system
CN101680743A (en) determining positions
JPH01255009A (en) Profile control robot
JP6622772B2 (en) Measuring system
CN112424563A (en) Multi-dimensional measurement system for accurately calculating position and orientation of dynamic object
JP2001050741A (en) Calibration method and apparatus for robot
JPH08278117A (en) Attitude control device for work apparatus relative to work object plane, crucible instrumentation device with the control device and painting device
JP6228905B2 (en) Work robot installation status detection method
Qiao Advanced sensor and target development to support robot accuracy degradation assessment
JP4284765B2 (en) Robot hand position measuring device
JP2012145550A (en) Inter-target absolute distance measurement method of tracking laser interference measuring apparatus and tracking laser interference measuring apparatus
JPH0854234A (en) Three-dimensional coordinate position measuring method
JPS5991308A (en) Method for detecting surface configuration
JPS63252204A (en) Distance and angle-of-inclination measuring device
CN117795290A (en) Position measuring device and position measuring method

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050712

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050712

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20061031

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20061225

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070206

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070409

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070911

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070912

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100921

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4015161

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110921

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110921

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120921

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120921

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130921

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140921

Year of fee payment: 7

LAPS Cancellation because of no payment of annual fees