JP4289169B2 - Relative position measurement method between multiple robots - Google Patents

Relative position measurement method between multiple robots Download PDF

Info

Publication number
JP4289169B2
JP4289169B2 JP2004027745A JP2004027745A JP4289169B2 JP 4289169 B2 JP4289169 B2 JP 4289169B2 JP 2004027745 A JP2004027745 A JP 2004027745A JP 2004027745 A JP2004027745 A JP 2004027745A JP 4289169 B2 JP4289169 B2 JP 4289169B2
Authority
JP
Japan
Prior art keywords
robot
distance
coordinate system
robots
feature points
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2004027745A
Other languages
Japanese (ja)
Other versions
JP2005125478A (en
JP2005125478A5 (en
Inventor
慎悟 安藤
康之 井上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yaskawa Electric Corp
Original Assignee
Yaskawa Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yaskawa Electric Corp filed Critical Yaskawa Electric Corp
Priority to JP2004027745A priority Critical patent/JP4289169B2/en
Publication of JP2005125478A publication Critical patent/JP2005125478A/en
Publication of JP2005125478A5 publication Critical patent/JP2005125478A5/ja
Application granted granted Critical
Publication of JP4289169B2 publication Critical patent/JP4289169B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

本発明は、複数台のロボットが協調して作業する際に、ロボット間の相対位置関係を計測する方法に関するものである。   The present invention relates to a method for measuring a relative positional relationship between robots when a plurality of robots work in cooperation.

2台のロボットを向い合せに配置して、一方のロボットでワークを把持して、他方のロボットにアーク溶接用トーチを持たせて、前記ワークに対してアーク溶接作業を行う装置が知られている。また、重量物のハンドリングや自動車ボディのスポット溶接など、複数台のロボットが協調して作業する事例も増加している。
このように複数台のロボットが協調作業する際には、ロボット間の相対位置関係(ロボットベース座標同士の位置と姿勢)を予め取得し、ロボットの制御装置にその相対位置関係を設定しておく必要がある。このための相対位置を求める方法が各種提案されている。
例えば、特許文献1には、一方のロボットの回転部上の1点に対して他方のロボットのツール先端を突き合わせ、その時の教示データを求めることを、前記回転部の角度を違えて3回繰り返して得られた、3通りの教示データに基づいて、前記他方のロボットの座標系からみた前記一方のロボットの座標系の相対位置を求める方法が開示されている。
また、特許文献2には、一方のロボットの手首フランジに力覚センサと面状ツールを取り付け、他方のロボットの手首フランジに針状ツールを取り付け、直線上にない3点において面状ツールと針状ツールを接触させて、一方のロボットのベース座標系における各接触点の位置と、他方のロボットのベース座標系における針状ツールの位置により、ロボット間の相対位置を求める方法が開示されている。
また、非特許文献1には、2台のロボットのツール先端にマーカを取り付け、適当な場所に2台のカメラを配置し、各々のロボットを動かしたときの複数の異なるマーカ位置を2台のカメラで測定することによって、ロボット間の相対位置関係を計算する方式が提案されている。この方式は、基本的にはカメラのステレオ視の原理(非特許文献2の第4章参照)を利用している。
特開平6−278063号公報(第9頁、図1、図3、図5) 特開平5−111897号公報(第6頁、図1) 菊地ほか,「“Plug & Produce”のためのロボット間キャリブレーション」,第19回日本ロボット学会学術講演会予稿集,pp.1065-1066,2001 出口光一郎,「ロボットビジョンの基礎」,コロナ社,2000年7月12日
An apparatus is known in which two robots are placed face to face, one robot holds a workpiece, the other robot has an arc welding torch, and performs an arc welding operation on the workpiece. Yes. In addition, there are an increasing number of cases where multiple robots work together, such as handling heavy objects and spot welding of automobile bodies.
When a plurality of robots collaborate in this manner, the relative positional relationship between the robots (position and posture between the robot base coordinates) is acquired in advance, and the relative positional relationship is set in the robot controller. There is a need. Various methods for obtaining the relative position for this purpose have been proposed.
For example, in Patent Document 1, the tool tip of the other robot is matched against one point on the rotating part of one robot, and the teaching data at that time is obtained three times with different angles of the rotating part. A method for obtaining the relative position of the coordinate system of the one robot as viewed from the coordinate system of the other robot based on the three types of teaching data obtained in the above manner is disclosed.
In Patent Document 2, a force sensor and a planar tool are attached to the wrist flange of one robot, a needle-like tool is attached to the wrist flange of the other robot, and the planar tool and the needle are not at a straight line. A method is disclosed in which a tool-like tool is brought into contact and the relative position between the robots is determined from the position of each contact point in the base coordinate system of one robot and the position of the needle-like tool in the base coordinate system of the other robot. .
Also, in Non-Patent Document 1, a marker is attached to the tool tip of two robots, two cameras are arranged at appropriate locations, and a plurality of different marker positions when each robot is moved are indicated by two A method of calculating the relative positional relationship between robots by measuring with a camera has been proposed. This system basically uses the principle of camera stereo viewing (see Chapter 4 of Non-Patent Document 2).
Japanese Patent Laid-Open No. 6-278063 (page 9, FIG. 1, FIG. 3, FIG. 5) Japanese Patent Laid-Open No. 5-1111897 (6th page, FIG. 1) Kikuchi et al., “Inter-Robot Calibration for“ Plug & Produce ””, Proceedings of the 19th Annual Conference of the Robotics Society of Japan, pp.1065-1066, 2001 Koichiro Deguchi, “Basics of Robot Vision”, Corona, July 12, 2000

しかしながら、特許文献1あるいは特許文献2の方法では、ロボットのツール同士を突き合わせているので、ツールやロボットを破損させる危険性があり、安全上の問題があった。また、ロボットを破損させないように動作させるため、作業者にストレスを与えるという問題もあった。
非特許文献1の方式は、カメラによりマーカを観測するのでロボットのツール先端同士を突き合わせる必要がないという利点があるが、ステレオ視の原理に基づいているので2台のカメラが必要になり、測定装置のコストが増加するという問題がある。また、カメラパラメータの同定(キャリブレーション)が必要になるという問題もある。
本発明はこのような問題点に鑑みてなされたものであり、ロボットのツール先端同士を突き合わせる必要がないとともに、測定装置のパラメータの同定が不要で、さらに測定装置のコストが小さい複数ロボット間の相対位置計測システムを提供することを目的とする。
However, in the method of Patent Document 1 or Patent Document 2, since the tools of the robot are abutted with each other, there is a risk of damaging the tool or the robot, which causes a safety problem. In addition, since the robot is operated so as not to be damaged, there is a problem in that the worker is stressed.
The method of Non-Patent Document 1 has the advantage that it is not necessary to match the robot tool tips with each other because the marker is observed by the camera. However, since it is based on the principle of stereo vision, two cameras are required. There is a problem that the cost of the measuring device increases. There is also a problem that camera parameter identification (calibration) is required.
The present invention has been made in view of such problems, and it is not necessary to abut the tool tips of the robots. It is not necessary to identify the parameters of the measuring device, and the cost of the measuring device is low. An object of the present invention is to provide a relative position measurement system.

上記問題を解決するために、請求項1の発明は、複数のロボット(101a、101b)を操作して、各ロボットの可動部に定義した特徴点(302a、302b)前記複数のロボット(101a、101b)が共に到達可能な3次元空間を通り、互いに平行でない3本以上の各直線(301)上の2点以上に位置させ、前記特徴点(302a、302b)が前記各直線(301)上に位置した状態にて各ロボット座標系に基づく前記特徴点(302a、302b)の位置を前記ロボット(101a、101b)の各関節軸のエンコーダ値から順キネマティクス演算により測定するとともに、前記ロボット座標系とは別に設けられた座標系の原点から前記特徴点(302a、302b)までの距離または前記距離と相関関係を持つ物理量を測定し、前記各ロボット座標系に基づく前記特徴点(302a、302b)の位置と前記距離または前記距離と相関関係を持つ物理量との関係を表す式を前記各直線(301)について導出して連立方程式とし、前記連立方程式を解いて前記各ロボット座標系の原点間の位置ベクトルを算出することにより前記複数ロボット(101a、101b)間の相対位置関係を求めるものである。
In order to solve the above-mentioned problem, the invention of claim 1 operates a plurality of robots (101a, 101b) so that the feature points (302a, 302b) defined in the movable parts of the robots are moved to the plurality of robots (101a, 101a). , 101b) are located at two or more points on each of three or more straight lines (301) that pass through a reachable three-dimensional space and are not parallel to each other, and the feature points (302a, 302b) are located on the straight lines (301). The position of the feature point (302a, 302b) based on each robot coordinate system in a state of being positioned above is measured by forward kinematics calculation from the encoder value of each joint axis of the robot (101a, 101b) , and the robot coordinate system the characteristic point from the origin of the coordinate system which is provided separately from the (302a, 302b) and the distance or the distance to the physical quantity having a correlation Constant, and the derived for the feature points based on the robot coordinate system (302a, 302b) said expression representing the relationship between the position and the distance or physical quantity having a correlation with the length of each straight line (301) with simultaneous and equations, and requests the plurality robots (101a, 101b) relative positional relationship between by calculating a position vector between the origin of each robot coordinate system by solving the simultaneous equations.

また、請求項2の発明は、前記特徴点(302a、302b)を撮像装置(106)で撮像して、その画像を画像表示装置(108)平面表示し、前記画像表示装置(108)上に3つ以上の基準点(206)を設け、前記ロボット(101a、101b)を操作して前記特徴点(302a、302b)の位置前記画像表示装置(108)上において前記各基準点(206)と一致させることによって前記特徴点(302a、302b)を前記各直線(301)上に位置する状態とし、前記各直線(301)上の2点以上について前記各ロボット座標系に基づく前記特徴点(302a、302b)の位置を測定するとともに、前記距離または前記距離と相関関係を持つ物理量を測定するものである。
According to a second aspect of the present invention, the feature points (302a, 302b) are picked up by the image pickup device (106) , the image is displayed on the image display device (108) in a plane, and the image display device (108) is displayed. three or more reference points (206) is provided, said robot (101a, 101b) the feature point by manipulating the (302a, 302b) each reference point position in the image display device (108) on the (206 ) So that the feature points (302a, 302b) are positioned on the straight lines (301), and the two or more points on the straight lines (301) are based on the robot coordinate systems. The position of (302a, 302b) is measured, and the physical quantity having a correlation with the distance or the distance is measured .

また、請求項3の発明は、前記ロボットの可動部にターゲット物体(105)を設け、前記ターゲット物体(105)に前記特徴点(302a、302b)を定義し、前記画像表示装置(108)上に表示された前記ターゲット物体(105)のイメージの面積または明るさを前記距離と相関関係を持つ物理量とすることを特徴とするものである。
According to a third aspect of the present invention, a target object (105) is provided on the movable part of the robot, the feature points (302a, 302b) are defined on the target object (105) , and the image display device (108) is defined. The area or brightness of the image of the target object (105) displayed on the screen is a physical quantity having a correlation with the distance.

また、請求項4の発明は、前記ロボットの可動部にターゲット物体(105)を設け、前記ターゲット物体(105)に前記特徴点(302a、302b)を定義するとともに、前記撮像装置(106)にズームレンズを取り付け、前記画像表示装置(108)に映し出された前記ターゲット物体(105)のイメージの面積が一定となるように前記ズームレンズを移動させ、そのときの前記ズームレンズの移動量を前記距離と相関関係を持つ物理量とするものである。
According to a fourth aspect of the present invention, a target object (105) is provided in the movable part of the robot, the feature points (302a, 302b) are defined in the target object (105), and the imaging device (106) is provided. A zoom lens is attached, and the zoom lens is moved so that the area of the image of the target object (105) projected on the image display device (108) is constant. The physical quantity has a correlation with the distance.

また、請求項5の発明は、前記ターゲット物体(105)を発光させるものである。
According to a fifth aspect of the present invention, the target object (105) is caused to emit light.

また、請求項6の発明は、大きさまたは明るさの異なる複数の前記ターゲット物体(105)を前記ロボットの可動部に設け、前記撮像装置(106)からの距離に応じて撮像する前記ターゲット物体(105)を切り替えるものである。
According to a sixth aspect of the present invention, a plurality of the target objects (105) having different sizes or brightness are provided in a movable part of the robot, and the target objects are picked up according to a distance from the imaging device (106). (105) is switched.

また、請求項7の発明は、前記特徴点(302a、302b)を撮像装置(106)で撮像して、その画像を画像表示装置(108)平面表示し、前記ロボット(101a、101b)を操作して前記特徴点(302a、302b)の位置を前記画像表示装置(108)上においてレーザ距離センサのレーザ発振装置(501)から発振するレーザ光と一致させることによって前記特徴点(302a、302b)を前記各直線(301)上に位置する状態として、前記各直線(301)上の2点以上について前記各ロボット座標系に基づく前記特徴点(302a、302b)の位置を測定するとともに、前記レーザ光の向きを変更することで前記レーザ光を前記3本以上の直線とするものである。
According to a seventh aspect of the present invention, the feature points (302a, 302b) are picked up by an image pickup device (106) , the image is displayed on a plane on the image display device (108) , and the robot (101a, 101b) is displayed. operation to the feature point (302a, 302b) the feature points by matching the laser beam oscillated position from the laser distance laser oscillator of the sensor (501) in said image display device (108) on the (302a, 302b ) Is positioned on each straight line (301), and the positions of the feature points (302a, 302b) based on each robot coordinate system at two or more points on each straight line (301) are measured. By changing the direction of the laser beam, the laser beam is made into the three or more straight lines .

また、請求項8の発明は、前記ロボットの可動部にターゲット物体(105)を設け、前記ターゲット物体(105)に前記特徴点(302a、302b)を定義するとともに、前記レーザ光を前記特徴点(302a、302b)に照射して、前記距離を測定するものである。
In the invention according to claim 8, a target object (105) is provided in a movable part of the robot, the feature points (302a, 302b) are defined in the target object (105), and the laser beam is used as the feature points. (302a, 302b) is irradiated to measure the distance.

また、請求項9の発明は、前記撮像装置(106)と前記レーザ発振装置(501)を一体にし、前記撮像装置(106)の光軸と前記レーザ発振装置(501)のレーザ光軸とを平行にするものである。
According to a ninth aspect of the present invention, the imaging device (106) and the laser oscillation device (501) are integrated, and the optical axis of the imaging device (106) and the laser optical axis of the laser oscillation device (501) are set. It will be parallel.

また、請求項10の発明は、前記ロボット(101a、101b)の可動部に針状ツール(705a、705b)を設け、前記針状ツール(705a、705b)の先端に前記特徴点を定義するとともに、前記ロボット(101a、101b)を操作して前記特徴点の位置を、直線をなす棒状ジグ(701)上に位置させることによって前記特徴点を前記直線上に位置する状態として、前記棒状ジグ(701)上の2点以上について前記各ロボット座標系に基づく前記特徴点の位置を測定するとともに、前記棒状ジグ(701)の配置を変更することで前記棒状ジグ(701)を前記3本以上の直線とするものである。
According to a tenth aspect of the present invention, a needle-like tool (705a, 705b) is provided on the movable part of the robot (101a, 101b) , and the feature point is defined at the tip of the needle-like tool (705a, 705b). , the position of the robot (101a, 101b) the operation to the feature point, a state of positioning the characteristic point on the straight line by located on the rod-shaped jig (701) which forms a straight line, the rod-shaped jig ( 701) Measure the positions of the feature points based on each robot coordinate system for two or more points on the above, and change the arrangement of the bar-shaped jigs (701) to change the bar-shaped jigs (701) to the three or more points. It is a straight line .

また、請求項11の発明は、前記棒状ジグ(701)に距離目盛を付し、前記距離目盛および前記ロボット座標系に基づく前記特徴点の位置を使って、前記距離を測定するものである。
According to an eleventh aspect of the present invention, a distance scale is attached to the rod-shaped jig (701) , and the distance is measured using the distance scale and the position of the feature point based on the robot coordinate system.

また、請求項12の発明は、前記複数のロボット(101a、101b)それぞれ対して、前記3本以上の直線と交わり、かつ互いに平行な2つ以上の平面(904a、904b)を定義し、前記特徴点を前記各平面(904a、904b)上に拘束させて前記各直線と前記各平面(904a、904b)との交点(905、906)に前記特徴点を位置決めし、前記各交点(905、906)における前記特徴点のロボット座標系に基づく位置を測定するものである。
The invention of claim 12, wherein the plurality of robots (101a, 101b) for each intersect with the three or more straight lines, and define the two parallel or more planes (904a, 904b), wherein said characteristic points each plane (904a, 904b) and positioning the characteristic point at the intersection (905, 906) between said by constrained on each straight line between the respective planes (904a, 904b), wherein each intersection (905 906), the position of the feature point based on the robot coordinate system is measured.

また、請求項13の発明は、前記各交点(905、906)における前記特徴点のロボット座標系に基づく位置をもとに、前記距離と相関関係を持つ物理量を測定するものである。
The invention according to claim 13 is to measure a physical quantity having a correlation with the distance based on a position of the feature point at each intersection (905, 906) based on a robot coordinate system.

また、請求項14の発明は、前記2つ以上の平行な平面(904a、904b)のうち、ある平面上の前記交点間の距離と他の平面上の前記交点間の距離の比を、前記距離と相関関係を持つ物理量とするものである。
The invention of claim 14 is characterized in that, of the two or more parallel planes (904a, 904b) , the ratio of the distance between the intersection points on a certain plane and the distance between the intersection points on another plane is calculated as follows. The physical quantity has a correlation with the distance.

請求項1〜6に記載の発明によると、カメラ1台の撮像平面の基準点にロボットツール上ターゲットの特徴点が一致するようにロボットを動かすことによって特徴点を直線上に拘束することができ、また、撮像平面上でのターゲットイメージの面積または明るさを測定することによってターゲットまでの距離を推定することができるので、低コストでロボットツールの先端同士を突き合わせることなくロボット間の相対位置関係を計測できる。さらに、カメラパラメータを同定することなくロボット間の相対位置関係を計測できる。
また、請求項7〜9に記載の発明によると、レーザ距離センサのレーザ光線がロボットツール上ターゲットの特徴点に照射されるようにロボットを動かすことによって特徴点を直線上に拘束することができ、また、レーザ距離センサを利用して直接ターゲットまでの距離を測定することができるので、ロボットツールの先端同士を突き合わせることなくロボット間の相対位置関係を正確に計測できる。
また、請求項10〜11に記載の発明によると、細長い棒状ジグを利用してロボットツールの特徴点を直線上に拘束するので、ロボットツールの先端同士を突き合わせることなくロボット間の相対位置関係を手軽に計測できる。
また、請求項12〜14に記載の発明によると、カメラ1台の撮像平面の基準点にロボットツール上マーカの特徴点が一致するようにロボットを動かし、さらに予め設定した平面上に特徴点が拘束されるようにロボットを動かすことによって、各平面と各直線との交点に特徴点を位置決めし、そこでの特徴点のロボット座標値を測定することによって、ロボット座標値だけを使ってターゲット(特徴点)までの距離を推定することができるので、低コストでロボットツールの先端同士を突き合わせることなくロボット間の相対位置関係を正確に計測できる。さらに、カメラパラメータを同定することなくロボット間の相対位置関係を計測できる。
According to the first to sixth aspects of the present invention, the feature point can be constrained on a straight line by moving the robot so that the feature point of the target on the robot tool matches the reference point of the imaging plane of one camera. In addition, since the distance to the target can be estimated by measuring the area or brightness of the target image on the imaging plane, the relative position between the robots without matching the tips of the robot tools at low cost Measure relationships. Furthermore, the relative positional relationship between robots can be measured without identifying camera parameters.
In addition, according to the seventh to ninth aspects, the feature points can be constrained on a straight line by moving the robot so that the laser beam of the laser distance sensor is irradiated to the feature points of the target on the robot tool. In addition, since the distance to the target can be directly measured using the laser distance sensor, the relative positional relationship between the robots can be accurately measured without matching the tips of the robot tools.
Further, according to the invention described in claims 10 to 11, since the feature points of the robot tool are constrained on a straight line using an elongated bar-shaped jig, the relative positional relationship between the robots without matching the tips of the robot tools Can be measured easily.
According to the invention described in claims 12 to 14, the robot is moved so that the feature point of the marker on the robot tool coincides with the reference point of the imaging plane of one camera, and the feature point is on the preset plane. By moving the robot to be constrained, the feature point is positioned at the intersection of each plane and each straight line, and by measuring the robot coordinate value of the feature point there, the target (feature Since the distance to the point) can be estimated, the relative positional relationship between the robots can be accurately measured without matching the tips of the robot tools at low cost. Furthermore, the relative positional relationship between robots can be measured without identifying camera parameters.

以下、本発明の具体的実施例を図に基づいて説明する。   Hereinafter, specific embodiments of the present invention will be described with reference to the drawings.

図1は、本発明の第1実施例を示す相対位置計測装置の構成図である。図において、101aおよび101bは相対位置計測の対象の第1のロボットおよび第2のロボットである。102a,102bは第1および第2のロボットに固定されたベース座標系である。103a,103bは第1および第2のロボットの制御装置であり、104a,104bは第1および第2のロボットの操作インターフェイスである。また、105a,105bは第1および第2のロボットのツール先端に取り付けた球状ターゲットである。ここで、球状ターゲット105a,105bの幾何学的重心(球の中心)をこのターゲットの特徴点と定義する。
106は撮像装置(CCDカメラ)である。107は撮像装置106が出力するビデオ信号を処理する画像処理装置であり、108は画像処理装置107が出力した画像データを作業者に提示(表示)する画像表示装置である。109は、第1および第2のロボットの制御装置102a,102bと画像処理装置107から得られるデータをもとにロボット間の相対位置関係(ベース座標系102aと102bの位置関係)を演算する相対位置演算装置である。また、110は撮像装置106の支持部である。
なお、撮像装置106の設置場所は、第1のロボット101aおよび第2のロボット101bの球状ターゲット105a,105bを共に撮影できる場所であれば何処でもよく、その位置を測定する必要はなく(未知でよい)、撮像装置106について予め何らかのキャリブレーションをする必要もない。
FIG. 1 is a configuration diagram of a relative position measuring apparatus showing a first embodiment of the present invention. In the figure, reference numerals 101a and 101b denote a first robot and a second robot that are targets for relative position measurement. Reference numerals 102a and 102b denote base coordinate systems fixed to the first and second robots. 103a and 103b are control devices for the first and second robots, and 104a and 104b are operation interfaces for the first and second robots. Reference numerals 105a and 105b denote spherical targets attached to the tool tips of the first and second robots. Here, the geometric gravity center (sphere center) of the spherical targets 105a and 105b is defined as a feature point of the target.
Reference numeral 106 denotes an imaging device (CCD camera). Reference numeral 107 denotes an image processing apparatus that processes a video signal output from the imaging apparatus 106. Reference numeral 108 denotes an image display apparatus that presents (displays) image data output from the image processing apparatus 107 to an operator. Reference numeral 109 denotes a relative for calculating the relative positional relationship between the robots (the positional relationship between the base coordinate systems 102a and 102b) based on data obtained from the control devices 102a and 102b and the image processing device 107 of the first and second robots. It is a position calculation device. Reference numeral 110 denotes a support unit of the imaging device 106.
The installation location of the imaging device 106 may be anywhere as long as the spherical targets 105a and 105b of the first robot 101a and the second robot 101b can be imaged together, and there is no need to measure the position (unknown It is not necessary to perform some kind of calibration on the imaging device 106 in advance.

図2は、本発明の第1実施例を示す画像表示の説明図である。図において、201は画像表示装置108に表示される撮像平面であり、202は撮像平面201の座標系ΣI(U軸、V軸、W軸)であり、203は撮像装置106のカメラ座標系Σc(Xc軸、Yc軸、Zc軸)である。カメラ座標系203のZc軸は撮像装置106の光軸に一致し、撮像面201に対して垂直になっている(W軸とZc軸は一致する)。ここで、カメラ座標系203の原点から撮像平面201までの距離fはレンズの焦点距離に一致する。204は撮像平面201に結像された球状ターゲット105aのイメージ(像)である。205はイメージ204の重心であり、画像処理装置107によってその座標値が計算され、イメージ204上にオーバレイされる。例えば、画像処理装置107は、撮像装置106からのビデオ信号を2値化処理して円状領域を抽出し、抽出された領域の重心位置を計算する。206は、作業者が指定する撮像平面上の基準点であり、画像処理装置107によって基準点206のマーカを撮像平面201上にオーバレイする。ここで、撮像平面201における基準点206の座標値を(ua,va)と表す。
作業者は、画像表示装置108により撮像平面201の様子を目視しながら、イメージ204の重心205が基準点206に一致するように、操作インターフェイス104aを用いて第1のロボット101aの球状ターゲット105aを移動させる。あるいは、画像ベースの視覚サーボ技術(非特許文献2の第6章参照)を適用し、画像処理装置107において基準点206と重心205間の撮像平面201上での位置偏差を画像ヤコビアン行列によりロボット座標系での微小位置変化量に変換し、その変化量を第1のロボット101aの制御装置103aに与えて位置フィードバックを構成することにより、基準点206と重心205が一致するように第1のロボット101aの球状ターゲット105aを自動で移動させることもできる。
FIG. 2 is an explanatory diagram of image display showing the first embodiment of the present invention. In the figure, 201 is an imaging plane displayed on the image display device 108, 202 is a coordinate system ΣI (U axis, V axis, W axis) of the imaging plane 201, and 203 is a camera coordinate system Σc of the imaging device 106. (Xc axis, Yc axis, Zc axis). The Zc axis of the camera coordinate system 203 coincides with the optical axis of the imaging device 106 and is perpendicular to the imaging surface 201 (the W axis and the Zc axis coincide). Here, the distance f from the origin of the camera coordinate system 203 to the imaging plane 201 coincides with the focal length of the lens. Reference numeral 204 denotes an image (image) of the spherical target 105 a formed on the imaging plane 201. Reference numeral 205 denotes the center of gravity of the image 204, the coordinate value of which is calculated by the image processing device 107 and overlaid on the image 204. For example, the image processing device 107 binarizes the video signal from the imaging device 106 to extract a circular region, and calculates the position of the center of gravity of the extracted region. Reference numeral 206 denotes a reference point on the imaging plane designated by the operator, and the marker of the reference point 206 is overlaid on the imaging plane 201 by the image processing apparatus 107. Here, the coordinate value of the reference point 206 on the imaging plane 201 is represented as (ua, va).
While viewing the state of the imaging plane 201 with the image display device 108, the operator uses the operation interface 104a to move the spherical target 105a of the first robot 101a so that the center of gravity 205 of the image 204 coincides with the reference point 206. Move. Alternatively, an image-based visual servo technique (see Chapter 6 of Non-Patent Document 2) is applied, and the position deviation on the imaging plane 201 between the reference point 206 and the center of gravity 205 is determined by the image processing apparatus 107 using an image Jacobian matrix. By converting the change amount into a minute position change amount in the coordinate system and providing the change amount to the control device 103a of the first robot 101a to constitute position feedback, the reference point 206 and the center of gravity 205 are made to coincide with each other. The spherical target 105a of the robot 101a can be automatically moved.

以上の操作により、撮像平面201上において重心205と基準点206が一致した状態を図3に示す。この状態では、第1のロボットの球状ターゲット105aの特徴点(球の中心)は、カメラ座標系203の原点Ocと基準点206を通る直線301上の位置302aにある(ターゲットの形状、レンズの結像原理、カメラの撮像原理から明らか)。
この状態で、作業者は、第1のロボットのベース座標系102aを基準にした特徴点302aへの位置ベクトル303a( r1 Pt1_a1 )を測定する。一般的な産業用ロボットでは、第1のロボット101aの各関節軸に組み込まれたエンコーダ(内界センサ)値から順キネマティクス演算によりTCP位置が制御装置103aで計算され、その結果を操作インターフェイス104a上で確認することができる。この一般的な機能を利用して位置ベクトル303aを測定すればよい。また、画像処理装置107と画像表示装置108を利用して、撮像平面201上のイメージ204の面積( S t1_a1 )を測定する。画像処理装置107内で抽出された円状領域の面積を自動計算しても良いし、画像平面201上に手動カーソルをオーバレイさせて画像表示装置108上でカーソルから面積を読み取っても良い。
FIG. 3 shows a state where the center of gravity 205 and the reference point 206 coincide with each other on the imaging plane 201 by the above operation. In this state, the feature point (the center of the sphere) of the spherical target 105a of the first robot is at a position 302a on the straight line 301 passing through the origin Oc of the camera coordinate system 203 and the reference point 206 (the shape of the target and the lens). It is clear from the imaging principle and the imaging principle of the camera).
In this state, the operator measures the position vector 303a to the first feature point 302a relative to the base coordinate system 102a of the robot (r1 P t1_a1). In a general industrial robot, the TCP position is calculated by the controller 103a by forward kinematics calculation from the encoder (internal sensor) value incorporated in each joint axis of the first robot 101a, and the result is obtained as the operation interface 104a. You can check above. The position vector 303a may be measured using this general function. Further, the area (S t1 — a1 ) of the image 204 on the imaging plane 201 is measured using the image processing device 107 and the image display device 108. The area of the circular region extracted in the image processing apparatus 107 may be automatically calculated, or the manual cursor may be overlaid on the image plane 201 and the area may be read from the cursor on the image display apparatus 108.

つぎに、図4に示すように、作業者は第1のロボット101aの操作インターフェイス104aを用いて球状ターゲット105aを撮像平面201に対して奥行き方向(Zc軸方向)に移動させた上で、再度、イメージ204の重心205が基準点206に一致するように球状ターゲット105aを移動させる。このとき球状ターゲット105aの特徴点は、直線301上ではあるが図3に示した302aとは異なる点にある。図4における特徴点位置を302bで表す。図3のときと同様に、作業者は、第1のロボットの座標系102aを基準にした特徴点302bへの位置ベクトル303b( r1 Pt1_a2 )とイメージ204の面積( S t1_a2 )を測定する。
つぎに、撮像平面201上で基準点206とは異なる第2の基準点および第3の基準点を定義し、基準点206の場合と同様に、カメラ座標系203の原点0cと前記第2および第3の基準点を結ぶ各直線上に球状ターゲット105aの特徴点を位置決めして、特徴点の位置ベクトルおよび球状ターゲット105aの画像の面積を求める。すなわち、前記第2の基準点について、位置ベクトル r1 Pt1_b1 および r1 Pt1_b2 、面積 St1_b1および S t1_b2 を、前記第3の基準点について、位置ベクトル r1 Pt1_c1 および r1 Pt1_c2 、面積 St1_c1 および S t1_c2 を求める。
そして、第2のロボット101bについても、同様の測定処理を行う(ロボットが3台以上ある場合についても同様)。
なお、各ロボットの各直線上に対する上述した位置ベクトルとターゲット面積の測定順序は、上記の説明にとらわれるものではなく、任意の順序で測定してもよい。
Next, as shown in FIG. 4, the operator moves the spherical target 105a in the depth direction (Zc axis direction) with respect to the imaging plane 201 using the operation interface 104a of the first robot 101a, and then again. The spherical target 105 a is moved so that the center of gravity 205 of the image 204 coincides with the reference point 206. At this time, the characteristic point of the spherical target 105a is on the straight line 301, but is different from 302a shown in FIG. The feature point position in FIG. 4 is represented by 302b. As in the case of FIG. 3, the operator measures the area of the first position vector 303b of the coordinate system 102a of the robot to the feature point 302b which is the reference (r1 P t1_a2) an image 204 (S t1_a2).
Next, a second reference point and a third reference point that are different from the reference point 206 are defined on the imaging plane 201, and the origin 0c of the camera coordinate system 203 and the second and third reference points are defined as in the case of the reference point 206. The feature point of the spherical target 105a is positioned on each straight line connecting the third reference points, and the position vector of the feature point and the area of the image of the spherical target 105a are obtained. That is, for the second reference point, position vectors r1 P t1_b1 and r1 P t1_b2 and areas S t1_b1 and S t1_b2 for the third reference point, position vectors r1 P t1_c1 and r1 P t1_c2 , area S t1_c1 and S t1_c2 is obtained.
Then, the same measurement process is performed for the second robot 101b (the same applies when there are three or more robots).
In addition, the measurement order of the position vector and the target area on each straight line of each robot is not limited to the above description, and may be measured in an arbitrary order.

次に、上述した測定データに基づいて、第1のロボット101aと第2のロボット101b間の相対位置を求める手順を説明する。
直線301(図3、図4参照)上に第1のロボット101aの球状ターゲット105aの中心(特徴点)を置いたときに、次式が成り立つ。
Next, a procedure for obtaining the relative position between the first robot 101a and the second robot 101b based on the measurement data described above will be described.
When the center (feature point) of the spherical target 105a of the first robot 101a is placed on the straight line 301 (see FIGS. 3 and 4), the following equation is established.

c POcOr1c Rr1r1 Pt1_a1= w t1_a1 ( ua, va, f )T (1) c P OcOr1 + c R r1r1 P t1_a1 = w t1_a1 (ua, va, f) T (1)

c POcOr1c R r1r1 Pt1_a2 = w t1_a2( ua, va, f ) T (2) c P OcOr1 + c R r1r1 P t1_a2 = w t1_a2 (ua, va, f) T (2)

ここで、c POcOr1 は、カメラ座標系203の原点Ocから第1のロボット101aのベース座標系102aの原点Or1までの位置ベクトル(サイズ3×1)をカメラ座標系203を基準にして表したものである(左上の添え字は基準とする座標系を表す)。c R r1 は、第1のロボット101aのベース座標系102aからカメラ座標系203への回転行列(サイズ3×3)である。( ua, va, f ) T は、カメラ座標系203の原点Ocから撮像平面201上の基準点206までの位置ベクトルである(カメラ座標系203基準)。また、wt1_a1とwt1_a2は透視変換におけるスケールファクタであり、それぞれ、カメラ座標系203の原点Ocから特徴点302a,302bまでの距離に比例する正数になる。r1 Pt1_a1 r1 Pt1_a2 は、それぞれ、第1のロボット101aのベース座標系102aの原点Or1から特徴点302a,302bまでの位置ベクトル(ベース座標系102a)であり、上述した測定プロセスで直接得られるデータである。 Here, c P OcOr1 represents a position vector (size 3 × 1) from the origin Oc of the camera coordinate system 203 to the origin Or1 of the base coordinate system 102a of the first robot 101a with reference to the camera coordinate system 203. (The subscript on the upper left indicates the reference coordinate system). c R r1 is a rotation matrix (size 3 × 3) from the base coordinate system 102a of the first robot 101a to the camera coordinate system 203. (ua, va, f) T is a position vector from the origin Oc of the camera coordinate system 203 to the reference point 206 on the imaging plane 201 (based on the camera coordinate system 203). Further, w t1 — a1 and w t1 — a2 are scale factors in the perspective transformation, and become positive numbers proportional to the distance from the origin Oc of the camera coordinate system 203 to the feature points 302a and 302b, respectively. r1 P t1_a1 and r1 P t1_a2 are position vectors (base coordinate system 102a) from the origin Or1 of the base coordinate system 102a of the first robot 101a to the feature points 302a and 302b, respectively, and are directly obtained by the measurement process described above. Data.

式(2)の両辺から式(1)の両辺を引くと次式が成り立つ。   Subtracting both sides of equation (1) from both sides of equation (2) gives the following equation.

c R r1r1 ΔPt1_a= Δw t1_a ( ua, va, f ) T (3) c R r1r1 ΔP t1_a = Δw t1_a (ua, va, f) T (3)

ただし、式(3)において、 However, in equation (3)

r1 ΔPt1_ar1 Pt1_a2r1 Pt1_a1 (4) r1 ΔP t1_a = r1 P t1_a2r1 P t1_a1 (4)

Δwt1_a = w t1_a2 − w t1_a1 (5)
Δw t1_a = w t1_a2 − w t1_a1 (5)

である。また、式(3)には、つぎの拘束条件がつく。 It is. In addition, the following constraint condition is attached to Expression (3).

|r1 ΔPt1_a| = |Δwt1_a| sqrt(ua 2 +va 2 +f 2 ) (6) r1 ΔP t1_a | = | Δw t1_a | sqrt (ua 2 + va 2 + f 2 ) (6)

第2のロボット101bについても、同様にして次式が成り立つ。   For the second robot 101b, the following equation holds in the same manner.

c R r2r2 ΔPt2_a= Δw t2_a ( ua, va, f ) T (7) c R r2r2 ΔP t2_a = Δw t2_a (ua, va, f) T (7)

|r2 ΔPt2_a| = |Δwt2_a| sqrt(ua 2 +va 2 +f 2 ) (8) r2 ΔP t2_a | = | Δw t2_a | sqrt (ua 2 + va 2 + f 2 ) (8)

なお、r2 ΔPt2_aを求めるために測定される位置ベクトルr2 Pt2_a1およびr2 Pt2_a2は、第1のロボット101aに対して測定された特徴点302a,302bの位置ベクトルr1 Pt1_a1およびr1 Pt1_a2に一致していなくても良い。
式(3)(7)より、( ua, va, f ) T を消去し、かつ式(6)(8)の拘束を利用して次式を得る。
Note that the position vectors r2 P t2_a1 and r2 P t2_a2 measured to obtain r2 ΔP t2_a are the position vectors r1 P t1_a1 and r1 P t1_a2 of the feature points 302a and 302b measured for the first robot 101a. It doesn't have to match.
From equations (3) and (7), (ua, va, f) T is eliminated, and the following equations are obtained by using the constraints of equations (6) and (8).

r1 R r2r2 ΔPt2_a= (Δw t2_a / Δwt1_a) r1 ΔPt1_a (9) r1 R r2r2 ΔP t2_a = (Δw t2_a / Δw t1_a ) r1 ΔP t1_a (9)

|Δwt2_a| / |Δw t1_a| = |r2 ΔPt2_a| / |r1 ΔPt1_a| (10) | Δw t2_a | / | Δw t1_a | = | r2 ΔP t2_a | / | r1 ΔP t1_a | (10)

ここで、Δw t2_aとΔw t1_aの符号は、直線301においてロボットのTCPを撮像装置に対して手前に動かしたか、奥に動かしたかによって(スケールファクタの大小が決まるので)判断できる。よって、式(9)右辺の(Δwt2_a/ Δw t1_a)は、式(10)とそれぞれの符号から計算できる。
カメラ座標系203の原点0cと前記第2および第3の基準点を結ぶ各直線上についても同様にして、式(9)(10)に該当する式を導出することによって、つぎの連立方程式が得られる。
Here, the signs of Δw t2_a and Δw t1_a can be determined according to whether the TCP of the robot is moved toward or away from the imaging device on the straight line 301 (because the scale factor is determined). Therefore, (Δw t2 — a / Δw t1 — a ) on the right side of Equation (9) can be calculated from Equation (10) and the respective codes.
Similarly, for each straight line connecting the origin 0c of the camera coordinate system 203 and the second and third reference points, the following simultaneous equations are derived by deriving equations corresponding to equations (9) and (10). can get.

r1 R r2・( r2 ΔPt2_a, r2 ΔPt2_b, r2 ΔPt2_c ) =
( α r1 ΔPt1_a, β r1 ΔPt1_b , γ r1 ΔPt1_c ) (11)
r1 R r2・ ( r2 ΔP t2_a , r2 ΔP t2_b , r2 ΔP t2_c ) =
r1 ΔP t1_a , β r1 ΔP t1_b , γ r1 ΔP t1_c ) (11)

ただし、係数α,β,γは

α = Δwt2_a / Δw t1_a (12a)
β = Δw t2_b / Δw t1_b (12b)
γ = Δw t2_c / Δw t1_c (12c)

である。
However, the coefficients α, β, γ are

α = Δw t2_a / Δw t1_a (12a)
β = Δw t2_b / Δw t1_b (12b)
γ = Δw t2_c / Δw t1_c (12c)

It is.

式(11)の両辺に、右から( r2 ΔPt2_a , r2 ΔPt2_b, r2 ΔPt2_c )の逆行列をかける(連立方程式を解く)ことによって、第1のロボット101aのベース座標系102aと第2のロボット101bのベース座標系102b間の姿勢を表す回転行列r1 R r2が計算できる。( r2 ΔPt2_a , r2 ΔPt2_b, r2 ΔPt2_c )の逆行列は、各直線(基準点)が独立であれば必ず存在する。また、計測を行う直線(基準点)の数を4本以上にして、連立方程式(11)を冗長にすることにより、測定誤差によるバラツキの最も小さい回転行列を求めることもできる(最小二乗法に等価)。 To both sides of the equation (11), right (r2 ΔP t2_a, r2 ΔP t2_b , r2 ΔP t2_c) by multiplying an inverse matrix of (solving the simultaneous equations), the base coordinate system 102a and a second first robot 101a A rotation matrix r1 R r2 representing the posture between the base coordinate systems 102b of the robot 101b can be calculated. The inverse matrix of ( r2 ΔP t2 — a , r2 ΔP t2 — b , r2 ΔP t2 — c ) always exists if each straight line (reference point) is independent. In addition, by making the number of straight lines (reference points) to be measured 4 or more and making the simultaneous equation (11) redundant, it is possible to obtain a rotation matrix with the smallest variation due to measurement error (to the least squares method) Equivalent).

つぎに、第1のロボット101aのベース座標系102aの原点Or1と第2のロボット101bのベース座標系102bの原点Or2間の位置ベクトルについて、その導出方法を説明する。
式(1)(2)の両辺に左からr1 R cをかけると次式が成り立つ。
Next, a method for deriving a position vector between the origin Or1 of the base coordinate system 102a of the first robot 101a and the origin Or2 of the base coordinate system 102b of the second robot 101b will be described.
When r1 R c is applied to both sides of the equations (1) and (2) from the left, the following equation is established.

r1 POcOr1r1 Pt1_a1= w t1_a1 r1 R c ( ua, va, f ) T (13) r1 P OcOr1 + r1 P t1_a1 = w t1_a1 r1 R c (ua, va, f) T (13)

r1 POcOr1r1 Pt1_a2= w t1_a2 r1 R c ( ua, va, f ) T (14) r1 P OcOr1 + r1 P t1_a2 = w t1_a2 r1 R c (ua, va, f) T (14)

式(13)(14)より、r1 R c ( ua, va, f ) Tを消去すると次式が成り立つ。 From the equations (13) and (14), when r1 R c (ua, va, f) T is eliminated, the following equation is established.

r1 POcOr1r1 Pt1_a1= (w t1_a1/ w t1_a2) ( r1 POcOr1r1 Pt1_a2) (15) r1 P OcOr1 + r1 P t1_a1 = (w t1_a1 / w t1_a2 ) ( r1 P OcOr1 + r1 P t1_a2 ) (15)

式(15)は次式のように変形できる。
r1 POcOr1 = (w t1_a1 / w t1_a2)/(1 − wt1_a1 / w t1_a2) r1 Pt1_a2
− 1 / (1 − w t1_a1/ wt1_a2) r1 Pt1_a1 (16)
Equation (15) can be transformed into the following equation.
r1 P OcOr1 = (w t1_a1 / w t1_a2 ) / (1 − w t1_a1 / w t1_a2 ) r1 P t1_a2
− 1 / (1 − w t1_a1 / w t1_a2 ) r1 P t1_a1 (16)

ここで、w t1_a1 / w t1_a2 はスケールファクタの比であるから、カメラ座標系203の原点Ocから特徴点302a(r1 Pt1_a1の終点)および302b(r1 Pt1_a2の終点)までの距離比に一致する。透視変換の幾何学から、撮像平面201上のイメージ204の面積は、カメラ座標系203の原点Ocから球状ターゲット105aの特徴点(球の中心)までの距離の二乗に反比例する。したがって、以下の近似が成り立つ。 Here, since w t1_a1 / w t1_a2 is the ratio of the scale factor, it matches the distance ratio from the origin Oc of the camera coordinate system 203 to the feature points 302a (end point of r1 P t1_a1 ) and 302b (end point of r1 P t1_a2 ). To do. From the perspective transformation geometry, the area of the image 204 on the imaging plane 201 is inversely proportional to the square of the distance from the origin Oc of the camera coordinate system 203 to the feature point (the center of the sphere) of the spherical target 105a. Therefore, the following approximation holds.

wt1_a1 / w t1_a2 ≒ sqrt( S t1_a2 / S t1_a1) (17) w t1_a1 / w t1_a2 ≒ sqrt (S t1_a2 / S t1_a1 ) (17)

第2のロボット101bについても同様にして、次式が成り立つ。 Similarly, the following equation holds for the second robot 101b.

r2 POcOr2= (w t2_a1 / w t2_a2)/(1 − w t2_a1 / wt2_a2) r2 Pt2_a2
− 1 / (1 − wt2_a1 / w t2_a2) r2 Pt2_a1 (18)
r2 P OcOr2 = (w t2_a1 / w t2_a2 ) / (1 − w t2_a1 / w t2_a2 ) r2 P t2_a2
− 1 / (1 − w t2_a1 / w t2_a2 ) r2 P t2_a1 (18)

w t2_a1 / wt2_a2 ≒ sqrt( S t2_a2 / S t2_a1 ) (19) w t2_a1 / w t2_a2 ≒ sqrt (S t2_a2 / S t2_a1 ) (19)

周囲の照明状態によっては、ターゲットイメージの面積を正確に測定できなくなる場合がある。そのような場合には、ターゲットを直接あるいは間接的に発光させ、周囲の照明状態に依存せずに面積が測定できるようにすればよい。このとき、ある特定の波長の光で発光させ、撮像装置の方でその波長の光以外をフィルタリングするようにすれば一層効果的である。
結局、式(16)(18)で計算される位置ベクトルr1 POcOr1r2 POcOr2 、および回転行列r1 Rr2から、第1のロボット101aのベース座標系102aの原点Or1と第2のロボット101bのベース座標系102bの原点Or2間の位置ベクトルは、次式により計算される。
Depending on the ambient lighting conditions, the area of the target image may not be accurately measured. In such a case, the target may emit light directly or indirectly so that the area can be measured without depending on the surrounding illumination state. At this time, it is more effective to emit light with light of a specific wavelength and filter the light other than the light of the wavelength with the image pickup apparatus.
Eventually, from the position vectors r1 P OcOr1 and r2 P OcOr2 calculated by the equations (16) and (18) and the rotation matrix r1 R r2 , the origin Or1 of the base coordinate system 102a of the first robot 101a and the second robot 101b A position vector between the origins Or2 of the base coordinate system 102b is calculated by the following equation.

r1 POr1Or2r1 Rr2r2 POcOr2r1 POcOr1 (20) r1 P Or1Or2 = r1 R r2r2 P OcOr2r1 P OcOr1 (20)

また、前記第2の基準点、第3の基準点に対しても同様の手順でr1 POr1Or2を求め、それらの平均(重心)を最終的な位置ベクトルとしても良い。
また、奥行き方向に球状ターゲット105aを移動させたときのイメージ204の面積変化を測定してターゲットまでの距離比(スケールファクタの比)を求める(式(17)(19))代わりに、撮像装置106にズームレンズを取り付け、イメージ204の面積が一定となるようにズームレンズを移動させ、その移動量からターゲットまでの距離比を求めても良い。
また、撮像平面上でターゲットイメージの面積を測定する代わりに、ターゲットイメージの明るさ(光量)を測定することによって、式(17)(19)の距離比を推定しても良い。
Further, r1 P Or1Or2 may be obtained for the second reference point and the third reference point by the same procedure, and the average (center of gravity) of them may be used as the final position vector.
Instead of measuring the area change of the image 204 when the spherical target 105a is moved in the depth direction to obtain the distance ratio to the target (ratio of scale factors) (equations (17) and (19)), the imaging device A zoom lens may be attached to 106, the zoom lens may be moved so that the area of the image 204 is constant, and the distance ratio from the movement amount to the target may be obtained.
Further, instead of measuring the area of the target image on the imaging plane, the distance ratio of equations (17) and (19) may be estimated by measuring the brightness (light quantity) of the target image.

図5は本発明の第1実施例の変形例を示すロボットの説明図である。この変形例は第1のロボット101aのツール先端に大小2個の球状ターゲット105aを取り付けたことを特徴とするものである。球状ターゲットの大きさを変える代わりに、ターゲットの発光の明るさを異ならせても良い。
図5に示すようにロボットのツール部分に大きさ(あるいは明るさ)の異なる複数のターゲット物体を取りつけると、撮像装置106からの距離が遠くなるほど大きい(明るい)ターゲットに切り替えることよって、距離比の推定精度を高めることができる。ただし、式(17)(19)によって距離比を計算する際に、ターゲットの大きさ(明るさ)の相違を考慮する必要がある。例えば、式(17)の St1_a2 を測定するときに、St1_a1 を測定するときに使用したターゲットのk倍の大きさのターゲットを使用したとすると、次式によって距離比を推定する。
FIG. 5 is an explanatory diagram of a robot showing a modification of the first embodiment of the present invention. This modification is characterized in that two large and small spherical targets 105a are attached to the tool tip of the first robot 101a. Instead of changing the size of the spherical target, the light emission brightness of the target may be varied.
As shown in FIG. 5, when a plurality of target objects having different sizes (or brightness) are attached to the tool portion of the robot, the distance ratio is increased by switching to a larger (brighter) target as the distance from the imaging device 106 increases. The estimation accuracy can be increased. However, when calculating the distance ratio using the equations (17) and (19), it is necessary to consider the difference in target size (brightness). For example, when measuring S t1 — a2 in equation (17), assuming that a target having a size k times larger than the target used when measuring S t1 — a1 is used, the distance ratio is estimated by the following equation.

w t1_a1 / wt1_a2 ≒ sqrt( S t1_a2 / k2×S t1_a1 ) (21) w t1_a1 / w t1_a2 ≒ sqrt (S t1_a2 / k 2 × S t1_a1 ) (21)

以上説明したように、第1実施例によれば、カメラ1台の撮像平面の基準点にロボットツールの特徴点が一致するようにロボットを動かすことによって特徴点を直線上に拘束することができ、また、撮像平面上でのターゲットの面積比(明るさの比)を測定することによってターゲットまでの距離比を推定することができるので、低コストでロボットツールの先端同士を突き合わせることなくロボット間の相対位置関係を計測できるのである。また、カメラパラメータを同定することなく、ロボット間の相対位置関係を計測できるのである。ターゲット物体を発光させることによってターゲット面積を周囲の照明状態に依存せずに測定でき、さらに、撮像装置からの距離が遠くなるほど大きい(明るい)ターゲットに切り替えることによって距離比の推定精度を高めることができるので、精度よくロボット間の相対位置関係を計測できるのである。   As described above, according to the first embodiment, the feature points can be constrained on a straight line by moving the robot so that the feature points of the robot tool coincide with the reference points of the imaging plane of one camera. In addition, since the distance ratio to the target can be estimated by measuring the area ratio (brightness ratio) of the target on the imaging plane, the robot can be used at low cost without matching the tips of the robot tools. The relative positional relationship between them can be measured. In addition, the relative positional relationship between the robots can be measured without identifying camera parameters. By making the target object emit light, the target area can be measured without depending on the surrounding illumination state, and further, the distance ratio can be estimated more accurately by switching to a larger (brighter) target as the distance from the imaging device increases. As a result, the relative positional relationship between the robots can be accurately measured.

図6は、本発明の第2実施例を示す相対位置計測装置の構成図である。図において、501はレーザ距離センサのレーザ発振装置である。502はレーザ発振装置の支持部であり、2自由度(パンとチルト)の回転機構を有する。503はレーザ距離センサの距離演算部である。なお、第1実施例と共通する構成要素には同一の符号を付したので説明を省略する。
前述した第1実施例では、カメラの撮像平面201においてイメージ204の重心205を撮像平面上の基準点206に一致させることによって、ターゲットの特徴点を直線上に拘束している。それに対して、第2実施例では、レーザ発振装置501から発振されるレーザ光線を利用して、ターゲットの特徴点を直線上に拘束する。すなわち、直進するレーザ光線そのものを、ターゲットの特徴点を拘束すべき直線とするものである。
第2実施例では、カメラ(撮像装置106)でロボットツール先端の球状ターゲットの近傍を撮影し、画像表示装置108に提示される撮像平面を目視しながらターゲットイメージの重心とレーザ光スポットが一致するように、作業者は操作インターフェイス104a,104bを利用してロボットのターゲットを移動させる(実施例1と同様にしてこの処理を自動化しても良い)。このようにすることによって、ターゲットの特徴点(球の中心)を直線(レーザ光線)上に拘束できる。
FIG. 6 is a configuration diagram of a relative position measuring apparatus showing a second embodiment of the present invention. In the figure, reference numeral 501 denotes a laser oscillation device of a laser distance sensor. Reference numeral 502 denotes a support portion of the laser oscillation device, which has a rotation mechanism with two degrees of freedom (pan and tilt). Reference numeral 503 denotes a distance calculation unit of the laser distance sensor. In addition, since the same code | symbol is attached | subjected to the component which is common in 1st Example, description is abbreviate | omitted.
In the first embodiment described above, the feature point of the target is constrained on a straight line by matching the center of gravity 205 of the image 204 with the reference point 206 on the imaging plane in the imaging plane 201 of the camera. On the other hand, in the second embodiment, the characteristic points of the target are constrained on a straight line by using a laser beam oscillated from the laser oscillation device 501. That is, the straight laser beam itself is a straight line that should constrain the feature points of the target.
In the second embodiment, the vicinity of the spherical target at the tip of the robot tool is photographed with a camera (imaging device 106), and the center of gravity of the target image coincides with the laser light spot while viewing the imaging plane presented on the image display device 108. As described above, the operator moves the robot target using the operation interfaces 104a and 104b (this process may be automated in the same manner as in the first embodiment). By doing so, the feature point (center of the sphere) of the target can be constrained on a straight line (laser beam).

図6では、撮像装置106(カメラ)とレーザ発振装置501を別々に設置しているが、両者をジグで一体化させても良い。図7は撮像装置とレーザ発振装置を一体にまとめた装置の説明図である。この装置は撮像装置106の光軸とレーザ発振装置501のレーザ光軸が平行になるように、上下に重ねて支持部502に固定することによって、ロボットツール先端の球状ターゲットへのレーザ光照射が容易にできる。すなわち、カメラのズームを調節しながら、撮像平面201の中心付近にターゲットが映し出されるようにロボットを移動させればよい。なお、図中の601は撮像平面201上のレーザ光の画像である。   In FIG. 6, the imaging device 106 (camera) and the laser oscillation device 501 are installed separately, but both may be integrated by a jig. FIG. 7 is an explanatory diagram of an apparatus in which an imaging apparatus and a laser oscillation apparatus are integrated. In this apparatus, the spherical target at the tip of the robot tool is irradiated with the laser beam by fixing the image pickup apparatus 106 on the support unit 502 so that the optical axis of the imaging apparatus 106 and the laser optical axis of the laser oscillation apparatus 501 are parallel. Easy to do. That is, the robot may be moved so that the target is projected near the center of the imaging plane 201 while adjusting the zoom of the camera. In the figure, reference numeral 601 denotes an image of laser light on the imaging plane 201.

第2実施例においても、第1実施例と同様に、ある直線上の2点において、ロボット座標系原点から球状ターゲットの特徴点までの位置ベクトルをロボットの内界センサにより測定する。同時にレーザ距離センサの距離演算部503により、直線に沿った特徴点までの距離を測定する(第1の実施例では、直接距離は測定せず、距離と相関を持つターゲットイメージの面積を測定した)。
3本以上の直線に対して、各ロボットについて、同様にして位置ベクトルと距離を測定する。直線の向きを変更するには、支持部502のパン軸とチルト軸を回転させればよい。
In the second embodiment, as in the first embodiment, the position vector from the origin of the robot coordinate system to the feature point of the spherical target is measured by the robot's internal sensor at two points on a certain straight line. At the same time, the distance to the feature point along the straight line is measured by the distance calculation unit 503 of the laser distance sensor (in the first embodiment, the direct distance is not measured, but the area of the target image having a correlation with the distance is measured. ).
The position vector and distance are measured in the same manner for each robot with respect to three or more straight lines. In order to change the direction of the straight line, the pan axis and tilt axis of the support portion 502 may be rotated.

以上の測定データからロボット間の相対位置関係を導出する原理は、第1の実施例とほとんど同じであるが、媒介パラメータの記述が若干異なる。
3本の直線を直線A, B, Cと表し、直線A上に拘束されたロボット1のターゲット特徴点までの位置ベクトルを同様にr1 Pt1_a1およびr1 Pt1_a2と表す。ここで、直線Aの(単位)方向ベクトルをLa、レーザ距離センサで測定したr1 Pt1_a1の終点およびr1 Pt1_a2の終点までの距離をそれぞれd t1_a1, d t1_a2と表すと、式(1)〜(21)の所々で記述されている ( ua, va, f ) T をLaに、w t1_a1をd t1_a1に、wt1_a2をdt1_a2に置き換えて同様に相対位置を導出すればよい。ただし、第2実施例では、式(6)(8)(10)(17)(19)(21)は不要になる。なぜなら、wt1_a1やwt1_a2と異なり、d t1_a1やd t1_a2はレーザ距離センサで直接正確に測定可能な物理量であるからである。
The principle of deriving the relative positional relationship between the robots from the above measurement data is almost the same as that of the first embodiment, but the description of the medium parameter is slightly different.
The three straight lines are represented as straight lines A, B, and C, and the position vectors to the target feature points of the robot 1 constrained on the straight line A are similarly represented as r1 P t1_a1 and r1 P t1_a2 . Here, the straight line A (unit) direction vector La, the distance to the end point of the end point and r1 P T1_a2 laser distance sensor r1 was measured by P T1_a1 each d T1_a1, expressed as d T1_a2, equation (1) to The relative positions may be similarly derived by replacing (ua, va, f) T described in (21) with La, w t1_a1 with d t1_a1 , and w t1_a2 with d t1_a2 . However, in the second embodiment, the equations (6), (8), (10), (17), (19), and (21) are not required. This is because, unlike w t1_a1 and w t1_a2 , d t1_a1 and d t1_a2 are physical quantities that can be directly and accurately measured by the laser distance sensor.

以上説明したように、第2実施例によれば、レーザ距離センサのレーザ光線がロボットツールの特徴点に照射されるようにロボットを動かすことによって特徴点を直線上に拘束することができ、また、レーザ距離センサを利用して直接ターゲットまでの距離を正確に測定することができるので、ロボットツールの先端同士を突き合わせることなくロボット間の相対位置関係を正確に計測できるのである。   As described above, according to the second embodiment, the feature point can be constrained on a straight line by moving the robot so that the laser beam of the laser distance sensor is applied to the feature point of the robot tool. Since the distance to the target can be accurately measured directly using the laser distance sensor, the relative positional relationship between the robots can be accurately measured without matching the tips of the robot tools.

図8は、本発明の第3実施例を示す相対位置計測装置の構成図である。図において、701は棒状ジグであり、その表面には距離目盛がつけられている。702aおよび702bは棒状ジグ701の支持部である。支持部702a,702bには、直動ジョイント703a,703bおよびユニバーサルジョイント704a,704bが付けられており、棒状ジグ701の方向を自由に変更して、任意の方向に固定できる。
この第3実施例では、ロボットツールとして球状ターゲットではなく、針状ツール705a,705bを取り付ける。そして、針状ツール705a,705bの先端を棒状ジグ701上に拘束する(突き合わせる)ことによって、ロボットツールの特徴点(先端)を直線上に拘束し、そのときのツール先端位置ベクトルをロボットの内界センサにより計測する。また、針状ツール705a,705bの先端を棒状ジグ701上に拘束した状態で距離目盛を読み取ることにより、棒状ジグ701の端点からの距離を測定する。
3本以上の直線(棒状ジグの配置を変える)に対して、各ロボットについて、同様にして位置ベクトルと距離を測定する。また、測定したデータからロボット間相対位置を導出原理は、第2実施例で説明した通りである。
以上説明したように、第3実施例では、細長い棒状ジグ701を利用してロボットツールの特徴点を直線上に拘束するので、ロボットツールの先端同士を突き合わせることなく、高価な装置を使用しなくてもロボット間の相対位置関係を手軽に計測できるのである。
FIG. 8 is a block diagram of a relative position measuring apparatus showing a third embodiment of the present invention. In the figure, reference numeral 701 denotes a rod-shaped jig, and a distance scale is provided on the surface thereof. Reference numerals 702 a and 702 b denote support portions for the rod-shaped jig 701. Linear motion joints 703a and 703b and universal joints 704a and 704b are attached to the support portions 702a and 702b, and the direction of the bar-shaped jig 701 can be freely changed and fixed in an arbitrary direction.
In the third embodiment, not the spherical target but the needle tools 705a and 705b are attached as the robot tools. Then, by constraining (matching) the tips of the needle-like tools 705a and 705b on the bar-shaped jig 701, the feature points (tips) of the robot tool are constrained on a straight line, and the tool tip position vector at that time is determined by the robot tool. Measured with an internal sensor. Further, the distance from the end point of the bar-shaped jig 701 is measured by reading the distance scale in a state where the tips of the needle-shaped tools 705a and 705b are constrained on the bar-shaped jig 701.
The position vector and distance are measured in the same manner for each robot with respect to three or more straight lines (changing the arrangement of rod-shaped jigs). Further, the principle of deriving the relative position between the robots from the measured data is as described in the second embodiment.
As described above, in the third embodiment, since the feature points of the robot tool are constrained on a straight line using the elongated rod-shaped jig 701, an expensive apparatus is used without matching the tips of the robot tools. Even without it, the relative positional relationship between robots can be easily measured.

図9は、本発明の第4実施例の相対位置計測方式の原理を示している。同図において、901は第1のロボット101aのツール先端に取り付けられたマーカ(目印)である。実施例1および実施例2では、ロボットのツール先端に球状ターゲット(105a,105b)を取り付けたが、実施例4におけるマーカ901は球状ターゲットほどの大きさを必要としない。蛍光塗料が塗られた反射型マーカ、LEDマーカ、赤外線マーカなどを使用する。実施例4において相対位置計測に用いる装置の構成は、マーカ以外は図1と同じである(図1の装置構成において球状ターゲットをマーカに置き換える)。
図9において、902はロボット101aのベース座標系102aの原点Or1,903はカメラ座標系203の原点Ocである。904a,904bはロボット101aに対して設定された平行な2つの平面であり、それぞれ平面G,平面Hと表す。206は、撮像平面201上に3つ以上設定した基準点であり、それらをI1 , I2 , …, IN と表す(Nは3以上の整数)。301は、カメラ座標原点Ocと基準点I1 , I2 , …, IN を通る直線であり、それぞれ直線1,直線2…直線Nと表す。905は、直線1,直線2…直線Nと平面Gとの交点であり、それぞれG1 , G2 , …, GN と表す。906は、直線1,直線2…直線Nと平面Hとの交点であり、それぞれH1 , H2 , …, HN と表す。907は撮像平面201に写ったマーカ901のイメージ(像)である。
FIG. 9 shows the principle of the relative position measurement method of the fourth embodiment of the present invention. In the figure, reference numeral 901 denotes a marker (mark) attached to the tool tip of the first robot 101a. In the first and second embodiments, the spherical target (105a, 105b) is attached to the tip of the robot tool. However, the marker 901 in the fourth embodiment does not need to be as large as the spherical target. A reflective marker, LED marker, infrared marker or the like coated with a fluorescent paint is used. The configuration of the apparatus used for relative position measurement in Example 4 is the same as that of FIG. 1 except for the marker (in the apparatus configuration of FIG. 1, the spherical target is replaced with a marker).
In FIG. 9, reference numeral 902 denotes the origin Or1 of the base coordinate system 102a of the robot 101a, and 903 denotes the origin Oc of the camera coordinate system 203. Reference numerals 904a and 904b denote two parallel planes set for the robot 101a, which are represented as plane G and plane H, respectively. Reference numeral 206 denotes three or more reference points set on the imaging plane 201, and these are represented as I 1 , I 2 ,..., I N (N is an integer of 3 or more). Reference numeral 301 denotes straight lines that pass through the camera coordinate origin Oc and the reference points I 1 , I 2 ,..., I N , and are represented as straight lines 1, 2,. 905, linear 1, a point of intersection between the straight line 2 ... linear N and the plane G, G 1, G 2 respectively, ..., represented as G N. 906, linear 1, a point of intersection between the straight line 2 ... linear N and the plane H, respectively H 1, H 2, ..., expressed as H N. Reference numeral 907 denotes an image (image) of the marker 901 shown on the imaging plane 201.

ここで、マーカ901の中心を特徴点とし、特徴点を平面Gに拘束する制御をロボット101aに施して、特徴点が平面G上で動作するようにする。この状態(特徴点を平面Gに拘束した状態)で、撮像平面201において、マーカイメージ907の重心が基準点I1 に一致するようにロボット101aを操作することによって、特徴点を交点G1 に位置決めすることができる。特徴点を交点G1 に位置決めした後、ロボット座標原点Or1(902)から交点G1(特徴点)までの位置ベクトル908を、ロボット101aの内界センサ(各軸のエンコーダなど)値からロボット座標値(ベース座標系102aの座標値)として計測する。同様にして、特徴点を交点G2 , …, GN に位置決めし、各交点(特徴点)までの位置ベクトルを計測する。このようにして測定した交点G1 , G2 , …, GN までの位置ベクトルをr1 Pg_1 , r1 Pg_2 , …, r1 Pg_N と表す。 Here, the center of the marker 901 is used as a feature point, and control for restricting the feature point to the plane G is applied to the robot 101a so that the feature point operates on the plane G. In this state (state where the feature point is constrained to the plane G), the feature point is set to the intersection point G 1 by operating the robot 101a on the imaging plane 201 so that the center of gravity of the marker image 907 matches the reference point I 1. Can be positioned. After positioning the feature point at the intersection point G 1 , the position vector 908 from the robot coordinate origin Or 1 (902) to the intersection point G 1 (feature point) is determined from the value of the internal sensor (eg, encoder of each axis) of the robot 101 a and the robot coordinates. It is measured as a value (coordinate value of the base coordinate system 102a). Similarly, intersection G 2 feature points, ..., positioned to G N, measures the position vector to each intersection (feature points). Intersection G 1, G 2 measured in this manner, ..., a position vector r1 P g_1 to G N, r1 P g_2, ..., expressed as r1 P G - n.

つぎに、ロボット101aの特徴点(マーカの中心)を平面Hに拘束した状態で、同様にして、マーカイメージ907の重心がI1 , I2 , …, IN に一致するようにロボット101aを操作して特徴点を平面H上の交点H1 , H2 , …, HN に位置決めし、ロボット座標原点Or1から各交点(特徴点)までの位置ベクトル909を測定する。このようにして測定した交点H1 , H2 , …, HN までの位置ベクトルをr1 Ph_1 , r1 Ph_2 , …, r1 Ph_N と表す。
撮像平面201において、マーカイメージ907の重心を基準点206に一致させるロボットの操作は、実施例1で説明したように画像ベースの視覚サーボ技術(非特許文献2の第6章参照)を適用して自動化することもできる。
また、位置ベクトルの測定順序は上記によらず任意に変更して構わない。さらには、ロボットの特徴点を直線301に拘束させた状態で、特徴点が各平面上に乗るようにロボットを動かしても良い。
以上が第1のロボット101aに対して行う測定処理である。
Next, feature points of the robot 101a (center of the marker) in a state of being constrained to a plane H, in a similar manner, the center of gravity is I 1, I 2 of the marker images 907, ..., the robot 101a to match the I N By operating, the feature points are positioned at the intersections H 1 , H 2 ,..., H N on the plane H, and the position vector 909 from the robot coordinate origin Or1 to each intersection (feature point) is measured. Intersection H 1, H 2 as measured in this manner, ..., a position vector r1 P h_1 to H N, r1 P h_2, ..., expressed as r1 P h_N.
In the imaging plane 201, the robot operation to match the center of gravity of the marker image 907 with the reference point 206 applies the image-based visual servo technology (see Chapter 6 of Non-Patent Document 2) as described in the first embodiment. Can be automated.
Further, the position vector measurement order may be arbitrarily changed regardless of the above. Furthermore, the robot may be moved so that the feature points are on each plane while the feature points of the robot are constrained to the straight line 301.
The above is the measurement process performed on the first robot 101a.

つぎに、第2のロボット101bのツール先端にも同様のマーカ(901)を取り付ける。また、ロボット101bに対しても2つの平行な平面を設定する。それらを平面Sと平面Tと表す。ここで、平面S(平面T)は平面G(平面H)と同じである必要はない(同じか異なるかについては拘らない)。直線1,直線2…直線Nと平面Sとの交点をそれぞれS1 , S2 , …, SN と表し、直線1,直線2…直線Nと平面Tとの交点をそれぞれT1 , T2 , …, TN と表す。
ロボット101aの測定処理で使用した同一の基準点I1 , I2 , …, IN を使って、ロボット101bに対しても同様の測定処理を行う。すなわち、ロボット101bのマーカ中心(特徴点)を平面S(平面T)に拘束した状態で、撮像平面201においてマーカイメージ907の重心が各基準点I1 , I2 , …, IN に一致するようにロボット101bを操作することによって、その特徴点を各交点S1 , S2 , …, SN (交点T1 , T2 , …, TN )に位置決めし、各交点までのベース座標系102bを基準にした位置ベクトルr2 Ps_1, r2 Ps_2 , …, r2 Ps_N r2 Pt_1, r2 Pt_2 , …, r2 Pt_N )を測定する。
Next, a similar marker (901) is also attached to the tool tip of the second robot 101b. Also, two parallel planes are set for the robot 101b. These are represented as plane S and plane T. Here, the plane S (plane T) need not be the same as the plane G (plane H) (regardless of whether it is the same or different). Straight line 1, straight line 2 ... The intersections of straight line N and plane S are represented as S 1 , S 2 , ..., S N , respectively, and straight lines 1, straight line 2 ... The intersections of straight line N and plane T are respectively T 1 , T 2 ,…, T N
A similar measurement process is performed on the robot 101b using the same reference points I 1 , I 2 ,..., I N used in the measurement process of the robot 101a. That is, in a state of being restrained marker center of a robot 101b (the feature points) to the plane S (plane T), the center of gravity is the reference point of the marker image 907 in imaging plane 201 I 1, I 2, ... , match the I N By operating the robot 101b as described above, the feature points are positioned at the intersections S 1 , S 2 ,..., S N (intersections T 1 , T 2 ,..., T N ), and the base coordinate system to each intersection 102b position vector r2 P s_1 referenced to, r2 P s_2, ..., r2 P s_N (r2 P t_1, r2 P t_2, ..., r2 P t_N) is measured.

つぎに、上述した測定データに基づいて第1のロボット101aと第2のロボット101b間の相対位置を求める手順を説明する。
まず、ベース座標102aとベース座標102b間の回転行列r1 R r2 を求める。
ここで、直線kの方向ベクトルをn k と表す(k=1, 2, …, N)。ただし、カメラ座標原点Ocからマーカ901に向かう方向を正とする。図9を見れば分かるように、直線kと平面Gおよび平面Hの交点Gk , Hk までの位置ベクトルr1 Pg_kr1 Ph_k の差をとって正規化することによって、ロボット101aのベース座標102aを基準にした方向ベクトルr1 n k を計算することができる。すなわち、
Next, a procedure for obtaining the relative position between the first robot 101a and the second robot 101b based on the measurement data described above will be described.
First, a rotation matrix r1 R r2 between the base coordinates 102a and the base coordinates 102b is obtained.
Here, the direction vector of the straight line k is expressed as n k (k = 1, 2,..., N). However, the direction from the camera coordinate origin Oc toward the marker 901 is positive. As can be seen from FIG. 9, the base of the robot 101a is obtained by normalizing the difference between the position vectors r1 P g_k and r1 P h_k up to the intersections G k and H k of the straight line k and the plane G and the plane H. A direction vector r1 n k based on the coordinates 102a can be calculated. That is,

r1 n k = δ(G,H)・( r1 Pg_kr1 Ph_k)/| r1 Pg_kr1 Ph_k | (22)
(k=1, 2, …, N)
r1 n k = δ (G, H) ・ ( r1 P g_kr1 P h_k ) / | r1 P g_kr1 P h_k | (22)
(k = 1, 2,…, N)

である。ここで、δ(G,H) は平面Gと平面Hの位置関係によって定まる符号係数(1または−1)である。
式(22)の方向ベクトルと、カメラ座標系203を基準にした方向ベクトルC n k はつぎのように関係付けられる。
It is. Here, δ (G, H) is a code coefficient (1 or −1) determined by the positional relationship between the plane G and the plane H.
The direction vector of Expression (22) and the direction vector C n k based on the camera coordinate system 203 are related as follows.

r1 R CC n kr1 n k , (k=1, 2, …, N) (23) r1 R CC n k = r1 n k , (k = 1, 2,…, N) (23)

ロボット101bについても、同様につぎの式が成り立つ。   The following equation holds for the robot 101b as well.

r2 n k = δ(S,T)・( r2 Ps_kr2 Pt_k)/| r2 Ps_kr2 Pt_k | (24)
r2 R CC n kr2 n k, (k=1, 2, …, N) (25)
r2 n k = δ (S, T) · (r2 P s_k - r2 P t_k) / | r2 P s_k - r2 P t_k | (24)
r2 R CC n k = r2 n k , (k = 1, 2,…, N) (25)

いま、カメラパラメータは未知なので(カメラ座標系203に対する撮像平面201の位置関係が分からないので)、方向ベクトルC n k の値(座標値)は分からないが、式(23)(25)からC n k を消去すれば、つぎのようなロボット101aとロボット101b間の直接の関係式が導出される。 Now, since the camera parameter is unknown (because the positional relationship of the imaging plane 201 with respect to the camera coordinate system 203 is not known), the value (coordinate value) of the direction vector C n k is not known, but from the equations (23) and (25), C If n k is deleted, the following direct relational expression between the robot 101a and the robot 101b is derived.

r1 R r2r2 n kr1 n k, (k=1, 2, …, N) (26) r1 R r2r2 n k = r1 n k , (k = 1, 2,…, N) (26)

式(26)の連立方程式を解くことによって、回転行列r1 R r2 が求まる。位置ベクトルの測定誤差のない理想的な状態では、N=3(つまり基準点が3個、直線が3本)であれば十分であるが、実際には測定誤差が含まれるので、Nを3以上に増やして計算結果のバラツキ(標準偏差)を小さく抑える。 The rotation matrix r1 R r2 is obtained by solving the simultaneous equations of Equation (26). In an ideal state where there is no position vector measurement error, it is sufficient if N = 3 (that is, three reference points and three straight lines). However, since measurement error is actually included, N is set to 3 Increase to the above to minimize the variation (standard deviation) in the calculation results.

つぎに、ベース座標102aとベース座標102b間の位置ベクトルr1 Por1or2 を求める。
図9において、平面Gと平面Hは平行であるから、線分G1G2と線分H1H2も平行である。したがって、三角形OcG1G2 と三角形OcH1H2 は相似になり、
Next, determine the position vectors r1 Po r1 o r2 between the base coordinate 102a and the base coordinate 102b.
In FIG. 9, since the plane G and the plane H are parallel, the line segment G 1 G 2 and the line segment H 1 H 2 are also parallel. Therefore, the triangle OcG 1 G 2 and the triangle OcH 1 H 2 are similar,

G1G2: H1H2 = OcG1 : OcH1 (27) G 1 G 2 : H 1 H 2 = OcG 1 : OcH 1 (27)

が成り立つ。さらには、平面G上の交点G1 , G2 , …, GN から任意に2つ選び出した交点Gi , Gj と、対応する平面H上の交点Hi , Hj に対して、 Holds. Furthermore, with respect to the intersection points G i , G j arbitrarily selected from the intersection points G 1 , G 2 ,..., G N on the plane G and the intersection points H i , H j on the corresponding plane H,

GiGj: HiHj = OcGk : OcHk (28)
OcGk/ OcHk = const. (GiGj / HiHj= const.) (29)
( i=1,2,…,N, j=1,2,…,N, i≠j, k=1,2, …,N )
G i G j : H i H j = OcG k : OcH k (28)
OcG k / OcH k = const. (G i G j / H i H j = const.) (29)
(i = 1,2,…, N, j = 1,2,…, N, i ≠ j, k = 1,2,…, N)

が成り立つ。OcGk /OcHk をLg /Lh とおき、測定した位置ベクトルからつぎのように平均値を求める。 Holds. OcG k / OcH k is set as L g / L h , and an average value is obtained from the measured position vector as follows.

Figure 0004289169
Figure 0004289169

ここでNC2はN個の交点から2個を選び出す場合の組み合わせである。 Here, N C 2 is a combination when two are selected from N intersections.

カメラ座標原点Ocから交点Gk および交点Hk までの距離比が式(30)により求まるので、この比と位置ベクトルr1 Pg_k およびr1 Ph_k を用いると、外分点を求める要領で、ロボット座標原点Or1からカメラ座標原点Ocまでの位置ベクトルr1 Por1oC(図9の910)をつぎのように求めることができる。 Since the distance ratio from the camera coordinate origin Oc to the intersection point G k and the intersection point H k can be obtained by Equation (30), using this ratio and the position vectors r1 P g_k and r1 P h_k , the robot can be used to obtain the outer dividing point. it can be determined the position vector from the coordinate origin Or1 to the camera coordinate origin Oc r1 Po r1 o C a (910 in FIG. 9) as follows.

r1 Por1oC= (−Lh)/(Lg−Lh)・r1 Pg_k+ Lg/(Lg−Lh)・r1 Ph_k (31)
(k=1, 2, …, N)
r1 Po r1 o C = (−L h ) / (L g −L h ) ・r1 P g_k + L g / (L g −L h ) ・r1 P h_k (31)
(k = 1, 2,…, N)

位置ベクトルには測定誤差が含まれるので、式(31)をもとにつぎのように平均値を求めればよい。   Since the position vector includes a measurement error, the average value may be obtained as follows based on Equation (31).

Figure 0004289169
Figure 0004289169

結局、位置ベクトルの測定値をもとに、式(30)(32)からr1 Por1oC が求まる。 Eventually, based on the measurement values of the position vector, from equation (30) (32) r1 Po r1 o C is obtained.

つぎに、第2のロボット101bに対しても、全く同様にして、ベース座標系102bの原点Or2からカメラ座標系203の原点Ocまでの位置ベクトルr2 Por2oCをつぎのように求める。 Next, for the second robot 101b, in the same manner to obtain the position vector r2 Po r2 o C from the origin Or2 of the base coordinate system 102b to the origin Oc of the camera coordinate system 203 as follows.

Figure 0004289169
Figure 0004289169

以上より、実施例1と同様にして、次式により位置ベクトルr1 Por1or2 が求まる。 Thus, in the same manner as in Example 1, it is obtained the position vector r1 Po r1 o r2 by the following equation.

r1 Por1or2r1 R r2r2 PoCor2r1 PoCor1
= −r1 R r2r2 Por2oCr1 Por1oC (35)
r1 Po r1 o r2 = r1 R r2r2 Po C o r2r1 Po C o r1
= -R1 R r2 · r2 Po r2 o C + r1 Po r1 o C (35)

また、式(22)(24)におけるδ(G,H)とδ(S,T)は、Lg /Lh とLs /Lt を用いてつぎのように計算できる。 Further, δ (G, H) and δ (S, T) in the equations (22) and (24) can be calculated as follows using L g / L h and L s / L t .

δ(G,H) = sgn( Lg / Lh − 1 ) (36)
δ(S,T) = sgn( Ls / Lt − 1 ) (37)
δ (G, H) = sgn (L g / L h − 1) (36)
δ (S, T) = sgn (L s / L t − 1) (37)

ここでsgn(x)は符号関数であり、x≧0のとき1、x<0のとき-1である。   Here, sgn (x) is a sign function, and is 1 when x ≧ 0 and -1 when x <0.

以上説明したように、第4実施例によれば、ロボットツールの特徴点を2つの平行な平面上で動作させ、かつ、カメラ1台の撮像平面の各基準点に特徴点が一致するようにロボットを動かすことによって、基準点を通る各直線と各平面との交点に特徴点を位置決めし、各交点における特徴点のロボット座標値を測定するので、撮像平面でのターゲットイメージの大きさや明るさを計測することなく、カメラ1台のみで奥行き方向の距離情報を正確に得ることができる。したがって、低コストでロボットツールの先端同士を突き合わせることなく、ロボット間の相対位置関係をより正確に計測できるのである。また、カメラパラメータを同定することなく、ロボット間の相対位置関係を手軽に計測できるのである。   As described above, according to the fourth embodiment, the feature points of the robot tool are operated on two parallel planes, and the feature points coincide with the reference points on the imaging plane of one camera. By moving the robot, the feature point is positioned at the intersection of each straight line passing through the reference point and each plane, and the robot coordinate value of the feature point at each intersection is measured, so the size and brightness of the target image on the imaging plane Without measuring the distance information, the distance information in the depth direction can be accurately obtained with only one camera. Therefore, the relative positional relationship between the robots can be measured more accurately without matching the tips of the robot tools at low cost. In addition, the relative positional relationship between robots can be easily measured without identifying camera parameters.

本発明は、複数台のロボットが協調して作業する際に、ロボット間の相対位置関係を計測する方法として有用である。   The present invention is useful as a method for measuring the relative positional relationship between robots when a plurality of robots work in cooperation.

本発明の第1実施例を示す相対位置計測装置の構成図である。1 is a configuration diagram of a relative position measuring apparatus showing a first embodiment of the present invention. FIG. 本発明の第1実施例を示す画像表示の説明図である。FIG. 3 is an explanatory diagram of image display showing a first embodiment of the present invention. 本発明の第1実施例を示す画像表示の説明図である。FIG. 3 is an explanatory diagram of image display showing a first embodiment of the present invention. 本発明の第1実施例を示す画像表示の説明図である。FIG. 3 is an explanatory diagram of image display showing a first embodiment of the present invention. 本発明の第1実施例の変形例を示すロボットの説明図である。It is explanatory drawing of the robot which shows the modification of 1st Example of this invention. 本発明の第2実施例を示す相対位置計測装置の構成図である。It is a block diagram of the relative position measuring apparatus which shows 2nd Example of this invention. 本発明の第2実施例で用いる撮像装置とレーザ発振装置を一体化した装置の説明図である。It is explanatory drawing of the apparatus which integrated the imaging device and laser oscillation apparatus which are used in 2nd Example of this invention. 本発明の第3実施例を示す相対位置計測装置の構成図である。It is a block diagram of the relative position measuring apparatus which shows 3rd Example of this invention. 本発明の第4実施例における計測原理の説明図である。It is explanatory drawing of the measurement principle in 4th Example of this invention.

符号の説明Explanation of symbols

101a 第1のロボット、101b 第2のロボット、102a,102b ベース座標系、103a,103b 制御装置、104a,104b 操作インターフェイス、105a,105b 球状ターゲット、106 撮像装置、107 画像処理装置、108 画像表示装置、109 相対位置演算装置、110 支持部、201 撮像平面、202 撮像平面の座標系、203 カメラ座標系、204 球状ターゲットのイメージ、205 球状ターゲットのイメージの重心、206 基準点、301 直線、302a,302b 球状ターゲットの特徴点(球の中心)の位置、303a,303b ロボット座標系原点から球状ターゲットの特徴点までの位置ベクトル、501 レーザ発振装置、502 支持部、503 距離計測装置、601 ターゲットに照射されたレーザ光線のスポット、701 棒状ジグ、702a,702b 棒状ジグの支持部、703a,703b 直動ジョイント、704a,704b ユニバーサルジョイント、705a,705b 針状ツール、901 マーカ、902 ベース座標系102aの原点、903 カメラ座標系203の原点、904a 平面G、904b 平面H、905 平面Gと直線301の交点、906 平面Hと直線301の交点、907 マーカのイメージ、908 ロボット座標原点902から交点905までの位置ベクトル、909 ロボット座標原点902から交点906までの位置ベクトル、910 ロボット座標原点902からカメラ座標原点903までの位置ベクトル 101a First robot, 101b Second robot, 102a, 102b Base coordinate system, 103a, 103b Control device, 104a, 104b Operation interface, 105a, 105b Spherical target, 106 Imaging device, 107 Image processing device, 108 Image display device , 109 relative position calculation device, 110 support unit, 201 imaging plane, 202 imaging plane coordinate system, 203 camera coordinate system, 204 spherical target image, 205 spherical target image centroid, 206 reference point, 301 straight line, 302a, 302b Position of feature point (sphere center) of spherical target, 303a, 303b Position vector from origin of robot coordinate system to feature point of spherical target, 501 Laser oscillation device, 502 Support unit, 503 Distance measurement device, 601 Spot of laser beam irradiated to target, 701 Rod-shaped jig, 702a, 702b Rod-shaped jig support, 703a, 703b Linear motion joint, 704a, 704b Universal joint, 705a, 705b Needle-shaped tool, 901 marker, 902 Base coordinate system 102a origin, 903 origin of camera coordinate system 203, 904a plane G, 904b plane H, 905 intersection of plane G and line 301, 906 intersection of plane H and line 301, 907 image of marker, 908 intersection from robot coordinate origin 902 Position vector from 905, 909 Position vector from robot coordinate origin 902 to intersection 906, 910 Position vector from robot coordinate origin 902 to camera coordinate origin 903

Claims (14)

複数のロボット(101a、101b)を操作して、各ロボットの可動部に定義した特徴点(302a、302b)を前記複数のロボット(101a、101b)が共に到達可能な3次元空間を通り、互いに平行でない3本以上の各直線(301)上の2点以上に位置させ、
前記特徴点(302a、302b)が前記各直線(301)上に位置した状態にて各ロボット座標系に基づく前記特徴点(302a、302b)の位置を前記ロボット(101a、101b)の各関節軸のエンコーダ値から順キネマティクス演算により測定するとともに、
前記ロボット座標系とは別に設けられた座標系の原点から前記特徴点(302a、302b)までの距離または前記距離と相関関係を持つ物理量を測定し、
前記各ロボット座標系に基づく前記特徴点(302a、302b)の位置と前記距離または前記距離と相関関係を持つ物理量との関係を表す式を前記各直線(301)について導出して連立方程式とし、
前記連立方程式を解いて前記各ロボット座標系の原点間の位置ベクトルを算出することにより前記複数ロボット(101a、101b)間の相対位置関係を求めることを特徴とする複数ロボット間の相対位置計測方法。
By operating a plurality of robots (101a, 101b), the feature points (302a, 302b) defined in the movable part of each robot pass through a three-dimensional space that can be reached by the plurality of robots (101a, 101b) together, and Located at two or more points on each of three or more straight lines (301) that are not parallel,
With the feature points (302a, 302b) positioned on the straight lines (301), the positions of the feature points (302a, 302b) based on the robot coordinate systems are set to the joint axes of the robot (101a, 101b). With forward kinematics calculation from the encoder value of
A distance from the origin of a coordinate system provided separately from the robot coordinate system to the feature point (302a, 302b) or a physical quantity correlated with the distance;
An equation representing the relationship between the position of the feature point (302a, 302b) based on each robot coordinate system and the distance or a physical quantity having a correlation with the distance is derived for each straight line (301) to be a simultaneous equation,
A relative position measurement method between a plurality of robots, wherein a relative positional relationship between the plurality of robots (101a, 101b) is obtained by solving the simultaneous equations and calculating a position vector between the origins of the robot coordinate systems. .
前記特徴点(302a、302b)を撮像装置(106)で撮像して、その画像を画像表示装置(108)に平面表示し、
前記画像表示装置(108)上に3つ以上の基準点(206)を設け、前記ロボット(101a、101b)を操作して前記特徴点(302a、302b)の位置を前記画像表示装置(108)上において前記各基準点(206)と一致させることによって前記特徴点(302a、302b)を前記各直線(301)上に位置する状態とし、
前記各直線(301)上の2点以上について前記各ロボット座標系に基づく前記特徴点(302a、302b)の位置を測定するとともに、前記距離または前記距離と相関関係を持つ物理量を測定することを特徴とする請求項1記載の複数ロボット間の相対位置計測方法。
The feature points (302a, 302b) are picked up by the image pickup device (106), and the image is displayed in a plane on the image display device (108).
Three or more reference points (206) are provided on the image display device (108), and the robot (101a, 101b) is operated to set the position of the feature points (302a, 302b) to the image display device (108). The feature points (302a, 302b) are positioned on the straight lines (301) by matching with the reference points (206) above,
Measuring the position of the feature point (302a, 302b) based on each robot coordinate system at two or more points on each straight line (301) and measuring a physical quantity having a correlation with the distance or the distance. The relative position measuring method between a plurality of robots according to claim 1, wherein:
前記ロボットの可動部にターゲット物体(105)を設け、前記ターゲット物体(105)に前記特徴点(302a、302b)を定義し、前記画像表示装置(108)上に表示された前記ターゲット物体(105)のイメージの面積または明るさを前記距離と相関関係を持つ物理量とすることを特徴とする請求項2記載の複数ロボット間の相対位置計測方法。   A target object (105) is provided on the movable part of the robot, the feature points (302a, 302b) are defined in the target object (105), and the target object (105) displayed on the image display device (108) is defined. 3. The relative position measuring method between a plurality of robots according to claim 2, wherein the area or brightness of the image is a physical quantity having a correlation with the distance. 前記ロボットの可動部にターゲット物体(105)を設け、前記ターゲット物体(105)に前記特徴点(302a、302b)を定義するとともに、前記撮像装置(106)にズームレンズを取り付け、前記画像表示装置(108)に映し出された前記ターゲット物体(105)のイメージの面積が一定となるように前記ズームレンズを移動させ、そのときの前記ズームレンズの移動量を前記距離と相関関係を持つ物理量とすることを特徴とする請求項2記載の複数ロボット間の相対位置計測方法。   A target object (105) is provided in the movable part of the robot, the feature points (302a, 302b) are defined in the target object (105), and a zoom lens is attached to the imaging device (106), and the image display device The zoom lens is moved so that the area of the image of the target object (105) displayed in (108) is constant, and the movement amount of the zoom lens at that time is a physical quantity having a correlation with the distance. The relative position measuring method between a plurality of robots according to claim 2. 前記ターゲット物体(105)を発光させることを特徴とする請求項3または請求項4記載の複数ロボット間の相対位置計測方法。   The relative position measuring method between a plurality of robots according to claim 3 or 4, wherein the target object (105) is caused to emit light. 大きさまたは明るさの異なる複数の前記ターゲット物体(105)を前記ロボットの可動部に設け、前記撮像装置(106)からの距離に応じて撮像する前記ターゲット物体(105)を切り替えることを特徴とする請求項3乃至5の何れか1項に記載の複数ロボット間の相対位置計測方法。 A plurality of the target objects (105) having different sizes or brightness are provided in a movable part of the robot, and the target object (105) to be imaged is switched according to the distance from the imaging device (106). The relative position measuring method between a plurality of robots according to any one of claims 3 to 5. 前記特徴点(302a、302b)を撮像装置(106)で撮像して、その画像を画像表示装置(108)に平面表示し、
前記ロボット(101a、101b)を操作して前記特徴点(302a、302b)の位置を前記画像表示装置(108)上においてレーザ距離センサのレーザ発振装置(501)から発振するレーザ光と一致させることによって前記特徴点(302a、302b)を前記各直線(301)上に位置する状態として、
前記各直線(301)上の2点以上について前記各ロボット座標系に基づく前記特徴点(302a、302b)の位置を測定するとともに、前記レーザ光の向きを変更することで前記レーザ光を前記3本以上の直線とすることを特徴とする請求項1記載の複数ロボット間の相対位置計測方法。
The feature points (302a, 302b) are picked up by the image pickup device (106), and the image is displayed in a plane on the image display device (108),
The robot (101a, 101b) is operated to make the position of the feature point (302a, 302b) coincide with the laser beam oscillated from the laser oscillation device (501) of the laser distance sensor on the image display device (108). The feature points (302a, 302b) are positioned on the straight lines (301) by
The position of the feature point (302a, 302b) based on each robot coordinate system is measured for two or more points on each straight line (301), and the laser beam is changed to 3 by changing the direction of the laser beam. The relative position measuring method between a plurality of robots according to claim 1, wherein the number of straight lines is more than one.
前記ロボットの可動部にターゲット物体(105)を設け、前記ターゲット物体(105)に前記特徴点(302a、302b)を定義するとともに、前記レーザ光を前記特徴点(302a、302b)に照射して、前記距離を測定することを特徴とする請求項7記載の複数ロボット間の相対位置計測方法。   A target object (105) is provided on the movable part of the robot, the feature points (302a, 302b) are defined on the target object (105), and the feature points (302a, 302b) are irradiated with the laser light. The method for measuring a relative position between a plurality of robots according to claim 7, wherein the distance is measured. 前記撮像装置(106)と前記レーザ発振装置(501)を一体にし、前記撮像装置(106)の光軸と前記レーザ発振装置(501)のレーザ光軸とを平行にすることを特徴とする請求項8記載の複数ロボット間の相対位置計測方法。   The imaging device (106) and the laser oscillation device (501) are integrated, and the optical axis of the imaging device (106) and the laser optical axis of the laser oscillation device (501) are parallel. Item 9. A method for measuring a relative position between a plurality of robots according to Item 8. 前記ロボット(101a、101b)の可動部に針状ツール(705a、705b)を設け、前記針状ツール(705a、705b)の先端に前記特徴点を定義するとともに、
前記ロボット(101a、101b)を操作して前記特徴点の位置を、直線をなす棒状ジグ(701)上に位置させることによって前記特徴点を前記直線上に位置する状態として、
前記棒状ジグ(701)上の2点以上について前記各ロボット座標系に基づく前記特徴点の位置を測定するとともに、前記棒状ジグ(701)の配置を変更することで前記棒状ジグ(701)を前記3本以上の直線とすることを特徴とする請求項1記載の複数ロボット間の相対位置計測方法。
A needle-like tool (705a, 705b) is provided on the movable part of the robot (101a, 101b), the feature point is defined at the tip of the needle-like tool (705a, 705b), and
By operating the robot (101a, 101b) to position the feature point on a bar-shaped jig (701) forming a straight line, the feature point is positioned on the straight line.
The position of the feature point based on each robot coordinate system is measured for two or more points on the bar-shaped jig (701), and the bar-shaped jig (701) is changed by changing the arrangement of the bar-shaped jig (701). The relative position measuring method between a plurality of robots according to claim 1, wherein there are three or more straight lines.
前記棒状ジグ(701)に距離目盛を付し、前記距離目盛および前記ロボット座標系に基づく前記特徴点の位置を使って、前記距離を測定することを特徴とする請求項10記載の複数ロボット間の相対位置計測方法。   11. A distance scale is attached to the rod-shaped jig (701), and the distance is measured using the distance scale and the position of the feature point based on the robot coordinate system. Relative position measurement method. 前記複数のロボット(101a、101b)それぞれに対して、前記3本以上の直線と交わり、かつ互いに平行な2つ以上の平面(904a、904b)を定義し、前記特徴点を前記各平面(904a、904b)上に拘束させて前記各直線と前記各平面(904a、904b)との交点(905、906)に前記特徴点を位置決めし、前記各交点(905、906)における前記特徴点のロボット座標系に基づく位置を測定することを特徴とする請求項1または請求項2記載の複数ロボット間の相対位置計測方法。   For each of the plurality of robots (101a, 101b), two or more planes (904a, 904b) intersecting with the three or more straight lines and parallel to each other are defined, and the feature points are defined as the planes (904a). 904b), the feature points are positioned at the intersections (905, 906) of the straight lines and the planes (904a, 904b), and the robot of the feature points at the intersections (905, 906). 3. A relative position measuring method between a plurality of robots according to claim 1, wherein a position based on a coordinate system is measured. 前記各交点(905、906)における前記特徴点のロボット座標系に基づく位置をもとに、前記距離と相関関係を持つ物理量を測定することを特徴とする請求項12記載の複数ロボット間の相対位置計測方法。   The physical quantity having a correlation with the distance is measured based on the position of the feature point at each intersection (905, 906) based on the robot coordinate system. Position measurement method. 前記2つ以上の平行な平面(904a、904b)のうち、ある平面上の前記交点間の距離と他の平面上の前記交点間の距離の比を、前記距離と相関関係を持つ物理量とすることを特徴とする請求項13記載の複数ロボット間の相対位置計測方法。   Of the two or more parallel planes (904a, 904b), the ratio of the distance between the intersections on one plane and the distance between the intersections on another plane is a physical quantity having a correlation with the distance. The relative position measuring method between a plurality of robots according to claim 13.
JP2004027745A 2003-09-29 2004-02-04 Relative position measurement method between multiple robots Expired - Fee Related JP4289169B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004027745A JP4289169B2 (en) 2003-09-29 2004-02-04 Relative position measurement method between multiple robots

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2003338059 2003-09-29
JP2004027745A JP4289169B2 (en) 2003-09-29 2004-02-04 Relative position measurement method between multiple robots

Publications (3)

Publication Number Publication Date
JP2005125478A JP2005125478A (en) 2005-05-19
JP2005125478A5 JP2005125478A5 (en) 2007-03-15
JP4289169B2 true JP4289169B2 (en) 2009-07-01

Family

ID=34655512

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004027745A Expired - Fee Related JP4289169B2 (en) 2003-09-29 2004-02-04 Relative position measurement method between multiple robots

Country Status (1)

Country Link
JP (1) JP4289169B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109571471A (en) * 2018-12-03 2019-04-05 宇环数控机床股份有限公司 A method of it is demarcated for dual robot relative tertiary location

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008254097A (en) * 2007-04-03 2008-10-23 Denso Wave Inc Relative position calculating method between plurality of robots
JP4982903B2 (en) * 2008-09-11 2012-07-25 コグネックス・コーポレイション Control system, control method and program
JP5272617B2 (en) * 2008-09-26 2013-08-28 株式会社Ihi Robot apparatus and control method of robot apparatus
JP5678979B2 (en) * 2013-03-15 2015-03-04 株式会社安川電機 Robot system, calibration method, and workpiece manufacturing method
KR102361641B1 (en) 2014-12-26 2022-02-10 삼성전자주식회사 Method for processing location information and method for processing measurement information including the same
JP2017077609A (en) 2015-10-21 2017-04-27 ファナック株式会社 Calibration device and calibration method for calibrating mechanism parameter of wrist part of robot
JP2017100202A (en) * 2015-11-30 2017-06-08 株式会社アイキューブテクノロジ Robot system, control device, control method, and program
CN108759672B (en) * 2018-06-16 2020-04-24 复旦大学 Industrial robot tail end position measuring and displacement error compensating method

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109571471A (en) * 2018-12-03 2019-04-05 宇环数控机床股份有限公司 A method of it is demarcated for dual robot relative tertiary location
CN109571471B (en) * 2018-12-03 2021-12-21 宇环数控机床股份有限公司 Method for calibrating relative spatial position of double robots

Also Published As

Publication number Publication date
JP2005125478A (en) 2005-05-19

Similar Documents

Publication Publication Date Title
US6044308A (en) Method and device for robot tool frame calibration
US6763284B2 (en) Robot teaching apparatus
CN101909828B (en) Method and system for the high-precision positioning of at least one object in a final location in space
JP4221768B2 (en) Method and apparatus for positioning an object in space
US20080027580A1 (en) Robot programming method and apparatus with both vision and force
US20140160115A1 (en) System And Method For Visually Displaying Information On Real Objects
CN104227722A (en) Robot system and robot control method
JP6869159B2 (en) Robot system
Kim Computer vision assisted virtual reality calibration
JP4289169B2 (en) Relative position measurement method between multiple robots
US11446822B2 (en) Simulation device that simulates operation of robot
JP2021527220A (en) Methods and equipment for identifying points on complex surfaces in space
JP2019063955A (en) Robot system, operation control method and operation control program
Ng et al. Intuitive robot tool path teaching using laser and camera in augmented reality environment
JP6973233B2 (en) Image processing system, image processing device and image processing program
JPH03213251A (en) Workpiece position detecting device
US20190145758A1 (en) System and method for verifying projection accuracy
Alzarok et al. Survey of the current practices and challenges for vision systems in industrial robotic grasping and assembly applications
Lawson et al. Augmented reality as a tool to aid the telerobotic exploration and characterization of remote environments
Tran et al. An Intelligent Path Planning of Welding Robot Based on Multi-Sensor Interaction
Kang et al. Laser vision system for automatic seam tracking of stainless steel pipe welding machine (ICCAS 2007)
Huissoon Robotic laser welding: seam sensor and laser focal frame registration
CN115972192A (en) 3D computer vision system with variable spatial resolution
Clarke et al. The control of a robot end-effector using photogrammetry
Qiao et al. Advanced sensing development to support accuracy assessment for industrial robot systems

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070126

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070126

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080724

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080819

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20081016

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090128

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090130

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090310

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090323

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120410

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees