JP4289169B2 - Relative position measurement method between multiple robots - Google Patents
Relative position measurement method between multiple robots Download PDFInfo
- Publication number
- JP4289169B2 JP4289169B2 JP2004027745A JP2004027745A JP4289169B2 JP 4289169 B2 JP4289169 B2 JP 4289169B2 JP 2004027745 A JP2004027745 A JP 2004027745A JP 2004027745 A JP2004027745 A JP 2004027745A JP 4289169 B2 JP4289169 B2 JP 4289169B2
- Authority
- JP
- Japan
- Prior art keywords
- robot
- distance
- coordinate system
- robots
- feature points
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Description
本発明は、複数台のロボットが協調して作業する際に、ロボット間の相対位置関係を計測する方法に関するものである。 The present invention relates to a method for measuring a relative positional relationship between robots when a plurality of robots work in cooperation.
2台のロボットを向い合せに配置して、一方のロボットでワークを把持して、他方のロボットにアーク溶接用トーチを持たせて、前記ワークに対してアーク溶接作業を行う装置が知られている。また、重量物のハンドリングや自動車ボディのスポット溶接など、複数台のロボットが協調して作業する事例も増加している。
このように複数台のロボットが協調作業する際には、ロボット間の相対位置関係(ロボットベース座標同士の位置と姿勢)を予め取得し、ロボットの制御装置にその相対位置関係を設定しておく必要がある。このための相対位置を求める方法が各種提案されている。
例えば、特許文献1には、一方のロボットの回転部上の1点に対して他方のロボットのツール先端を突き合わせ、その時の教示データを求めることを、前記回転部の角度を違えて3回繰り返して得られた、3通りの教示データに基づいて、前記他方のロボットの座標系からみた前記一方のロボットの座標系の相対位置を求める方法が開示されている。
また、特許文献2には、一方のロボットの手首フランジに力覚センサと面状ツールを取り付け、他方のロボットの手首フランジに針状ツールを取り付け、直線上にない3点において面状ツールと針状ツールを接触させて、一方のロボットのベース座標系における各接触点の位置と、他方のロボットのベース座標系における針状ツールの位置により、ロボット間の相対位置を求める方法が開示されている。
また、非特許文献1には、2台のロボットのツール先端にマーカを取り付け、適当な場所に2台のカメラを配置し、各々のロボットを動かしたときの複数の異なるマーカ位置を2台のカメラで測定することによって、ロボット間の相対位置関係を計算する方式が提案されている。この方式は、基本的にはカメラのステレオ視の原理(非特許文献2の第4章参照)を利用している。
When a plurality of robots collaborate in this manner, the relative positional relationship between the robots (position and posture between the robot base coordinates) is acquired in advance, and the relative positional relationship is set in the robot controller. There is a need. Various methods for obtaining the relative position for this purpose have been proposed.
For example, in
In Patent Document 2, a force sensor and a planar tool are attached to the wrist flange of one robot, a needle-like tool is attached to the wrist flange of the other robot, and the planar tool and the needle are not at a straight line. A method is disclosed in which a tool-like tool is brought into contact and the relative position between the robots is determined from the position of each contact point in the base coordinate system of one robot and the position of the needle-like tool in the base coordinate system of the other robot. .
Also, in Non-Patent
しかしながら、特許文献1あるいは特許文献2の方法では、ロボットのツール同士を突き合わせているので、ツールやロボットを破損させる危険性があり、安全上の問題があった。また、ロボットを破損させないように動作させるため、作業者にストレスを与えるという問題もあった。
非特許文献1の方式は、カメラによりマーカを観測するのでロボットのツール先端同士を突き合わせる必要がないという利点があるが、ステレオ視の原理に基づいているので2台のカメラが必要になり、測定装置のコストが増加するという問題がある。また、カメラパラメータの同定(キャリブレーション)が必要になるという問題もある。
本発明はこのような問題点に鑑みてなされたものであり、ロボットのツール先端同士を突き合わせる必要がないとともに、測定装置のパラメータの同定が不要で、さらに測定装置のコストが小さい複数ロボット間の相対位置計測システムを提供することを目的とする。
However, in the method of
The method of Non-Patent
The present invention has been made in view of such problems, and it is not necessary to abut the tool tips of the robots. It is not necessary to identify the parameters of the measuring device, and the cost of the measuring device is low. An object of the present invention is to provide a relative position measurement system.
上記問題を解決するために、請求項1の発明は、複数のロボット(101a、101b)を操作して、各ロボットの可動部に定義した特徴点(302a、302b)を前記複数のロボット(101a、101b)が共に到達可能な3次元空間を通り、互いに平行でない3本以上の各直線(301)上の2点以上に位置させ、前記特徴点(302a、302b)が前記各直線(301)上に位置した状態にて各ロボット座標系に基づく前記特徴点(302a、302b)の位置を前記ロボット(101a、101b)の各関節軸のエンコーダ値から順キネマティクス演算により測定するとともに、前記ロボット座標系とは別に設けられた座標系の原点から前記特徴点(302a、302b)までの距離または前記距離と相関関係を持つ物理量を測定し、前記各ロボット座標系に基づく前記特徴点(302a、302b)の位置と前記距離または前記距離と相関関係を持つ物理量との関係を表す式を前記各直線(301)について導出して連立方程式とし、前記連立方程式を解いて前記各ロボット座標系の原点間の位置ベクトルを算出することにより前記複数ロボット(101a、101b)間の相対位置関係を求めるものである。
In order to solve the above-mentioned problem, the invention of
また、請求項2の発明は、前記特徴点(302a、302b)を撮像装置(106)で撮像して、その画像を画像表示装置(108)に平面表示し、前記画像表示装置(108)上に3つ以上の基準点(206)を設け、前記ロボット(101a、101b)を操作して前記特徴点(302a、302b)の位置を前記画像表示装置(108)上において前記各基準点(206)と一致させることによって前記特徴点(302a、302b)を前記各直線(301)上に位置する状態とし、前記各直線(301)上の2点以上について前記各ロボット座標系に基づく前記特徴点(302a、302b)の位置を測定するとともに、前記距離または前記距離と相関関係を持つ物理量を測定するものである。
According to a second aspect of the present invention, the feature points (302a, 302b) are picked up by the image pickup device (106) , the image is displayed on the image display device (108) in a plane, and the image display device (108) is displayed. three or more reference points (206) is provided, said robot (101a, 101b) the feature point by manipulating the (302a, 302b) each reference point position in the image display device (108) on the (206 ) So that the feature points (302a, 302b) are positioned on the straight lines (301), and the two or more points on the straight lines (301) are based on the robot coordinate systems. The position of (302a, 302b) is measured, and the physical quantity having a correlation with the distance or the distance is measured .
また、請求項3の発明は、前記ロボットの可動部にターゲット物体(105)を設け、前記ターゲット物体(105)に前記特徴点(302a、302b)を定義し、前記画像表示装置(108)上に表示された前記ターゲット物体(105)のイメージの面積または明るさを前記距離と相関関係を持つ物理量とすることを特徴とするものである。
According to a third aspect of the present invention, a target object (105) is provided on the movable part of the robot, the feature points (302a, 302b) are defined on the target object (105) , and the image display device (108) is defined. The area or brightness of the image of the target object (105) displayed on the screen is a physical quantity having a correlation with the distance.
また、請求項4の発明は、前記ロボットの可動部にターゲット物体(105)を設け、前記ターゲット物体(105)に前記特徴点(302a、302b)を定義するとともに、前記撮像装置(106)にズームレンズを取り付け、前記画像表示装置(108)に映し出された前記ターゲット物体(105)のイメージの面積が一定となるように前記ズームレンズを移動させ、そのときの前記ズームレンズの移動量を前記距離と相関関係を持つ物理量とするものである。
According to a fourth aspect of the present invention, a target object (105) is provided in the movable part of the robot, the feature points (302a, 302b) are defined in the target object (105), and the imaging device (106) is provided. A zoom lens is attached, and the zoom lens is moved so that the area of the image of the target object (105) projected on the image display device (108) is constant. The physical quantity has a correlation with the distance.
また、請求項5の発明は、前記ターゲット物体(105)を発光させるものである。
According to a fifth aspect of the present invention, the target object (105) is caused to emit light.
また、請求項6の発明は、大きさまたは明るさの異なる複数の前記ターゲット物体(105)を前記ロボットの可動部に設け、前記撮像装置(106)からの距離に応じて撮像する前記ターゲット物体(105)を切り替えるものである。
According to a sixth aspect of the present invention, a plurality of the target objects (105) having different sizes or brightness are provided in a movable part of the robot, and the target objects are picked up according to a distance from the imaging device (106). (105) is switched.
また、請求項7の発明は、前記特徴点(302a、302b)を撮像装置(106)で撮像して、その画像を画像表示装置(108)に平面表示し、前記ロボット(101a、101b)を操作して前記特徴点(302a、302b)の位置を前記画像表示装置(108)上においてレーザ距離センサのレーザ発振装置(501)から発振するレーザ光と一致させることによって前記特徴点(302a、302b)を前記各直線(301)上に位置する状態として、前記各直線(301)上の2点以上について前記各ロボット座標系に基づく前記特徴点(302a、302b)の位置を測定するとともに、前記レーザ光の向きを変更することで前記レーザ光を前記3本以上の直線とするものである。
According to a seventh aspect of the present invention, the feature points (302a, 302b) are picked up by an image pickup device (106) , the image is displayed on a plane on the image display device (108) , and the robot (101a, 101b) is displayed. operation to the feature point (302a, 302b) the feature points by matching the laser beam oscillated position from the laser distance laser oscillator of the sensor (501) in said image display device (108) on the (302a, 302b ) Is positioned on each straight line (301), and the positions of the feature points (302a, 302b) based on each robot coordinate system at two or more points on each straight line (301) are measured. By changing the direction of the laser beam, the laser beam is made into the three or more straight lines .
また、請求項8の発明は、前記ロボットの可動部にターゲット物体(105)を設け、前記ターゲット物体(105)に前記特徴点(302a、302b)を定義するとともに、前記レーザ光を前記特徴点(302a、302b)に照射して、前記距離を測定するものである。
In the invention according to claim 8, a target object (105) is provided in a movable part of the robot, the feature points (302a, 302b) are defined in the target object (105), and the laser beam is used as the feature points. (302a, 302b) is irradiated to measure the distance.
また、請求項9の発明は、前記撮像装置(106)と前記レーザ発振装置(501)を一体にし、前記撮像装置(106)の光軸と前記レーザ発振装置(501)のレーザ光軸とを平行にするものである。
According to a ninth aspect of the present invention, the imaging device (106) and the laser oscillation device (501) are integrated, and the optical axis of the imaging device (106) and the laser optical axis of the laser oscillation device (501) are set. It will be parallel.
また、請求項10の発明は、前記ロボット(101a、101b)の可動部に針状ツール(705a、705b)を設け、前記針状ツール(705a、705b)の先端に前記特徴点を定義するとともに、前記ロボット(101a、101b)を操作して前記特徴点の位置を、直線をなす棒状ジグ(701)上に位置させることによって前記特徴点を前記直線上に位置する状態として、前記棒状ジグ(701)上の2点以上について前記各ロボット座標系に基づく前記特徴点の位置を測定するとともに、前記棒状ジグ(701)の配置を変更することで前記棒状ジグ(701)を前記3本以上の直線とするものである。
According to a tenth aspect of the present invention, a needle-like tool (705a, 705b) is provided on the movable part of the robot (101a, 101b) , and the feature point is defined at the tip of the needle-like tool (705a, 705b). , the position of the robot (101a, 101b) the operation to the feature point, a state of positioning the characteristic point on the straight line by located on the rod-shaped jig (701) which forms a straight line, the rod-shaped jig ( 701) Measure the positions of the feature points based on each robot coordinate system for two or more points on the above, and change the arrangement of the bar-shaped jigs (701) to change the bar-shaped jigs (701) to the three or more points. It is a straight line .
また、請求項11の発明は、前記棒状ジグ(701)に距離目盛を付し、前記距離目盛および前記ロボット座標系に基づく前記特徴点の位置を使って、前記距離を測定するものである。
According to an eleventh aspect of the present invention, a distance scale is attached to the rod-shaped jig (701) , and the distance is measured using the distance scale and the position of the feature point based on the robot coordinate system.
また、請求項12の発明は、前記複数のロボット(101a、101b)それぞれに対して、前記3本以上の直線と交わり、かつ互いに平行な2つ以上の平面(904a、904b)を定義し、前記特徴点を前記各平面(904a、904b)上に拘束させて前記各直線と前記各平面(904a、904b)との交点(905、906)に前記特徴点を位置決めし、前記各交点(905、906)における前記特徴点のロボット座標系に基づく位置を測定するものである。
The invention of
また、請求項13の発明は、前記各交点(905、906)における前記特徴点のロボット座標系に基づく位置をもとに、前記距離と相関関係を持つ物理量を測定するものである。
The invention according to claim 13 is to measure a physical quantity having a correlation with the distance based on a position of the feature point at each intersection (905, 906) based on a robot coordinate system.
また、請求項14の発明は、前記2つ以上の平行な平面(904a、904b)のうち、ある平面上の前記交点間の距離と他の平面上の前記交点間の距離の比を、前記距離と相関関係を持つ物理量とするものである。
The invention of claim 14 is characterized in that, of the two or more parallel planes (904a, 904b) , the ratio of the distance between the intersection points on a certain plane and the distance between the intersection points on another plane is calculated as follows. The physical quantity has a correlation with the distance.
請求項1〜6に記載の発明によると、カメラ1台の撮像平面の基準点にロボットツール上ターゲットの特徴点が一致するようにロボットを動かすことによって特徴点を直線上に拘束することができ、また、撮像平面上でのターゲットイメージの面積または明るさを測定することによってターゲットまでの距離を推定することができるので、低コストでロボットツールの先端同士を突き合わせることなくロボット間の相対位置関係を計測できる。さらに、カメラパラメータを同定することなくロボット間の相対位置関係を計測できる。
また、請求項7〜9に記載の発明によると、レーザ距離センサのレーザ光線がロボットツール上ターゲットの特徴点に照射されるようにロボットを動かすことによって特徴点を直線上に拘束することができ、また、レーザ距離センサを利用して直接ターゲットまでの距離を測定することができるので、ロボットツールの先端同士を突き合わせることなくロボット間の相対位置関係を正確に計測できる。
また、請求項10〜11に記載の発明によると、細長い棒状ジグを利用してロボットツールの特徴点を直線上に拘束するので、ロボットツールの先端同士を突き合わせることなくロボット間の相対位置関係を手軽に計測できる。
また、請求項12〜14に記載の発明によると、カメラ1台の撮像平面の基準点にロボットツール上マーカの特徴点が一致するようにロボットを動かし、さらに予め設定した平面上に特徴点が拘束されるようにロボットを動かすことによって、各平面と各直線との交点に特徴点を位置決めし、そこでの特徴点のロボット座標値を測定することによって、ロボット座標値だけを使ってターゲット(特徴点)までの距離を推定することができるので、低コストでロボットツールの先端同士を突き合わせることなくロボット間の相対位置関係を正確に計測できる。さらに、カメラパラメータを同定することなくロボット間の相対位置関係を計測できる。
According to the first to sixth aspects of the present invention, the feature point can be constrained on a straight line by moving the robot so that the feature point of the target on the robot tool matches the reference point of the imaging plane of one camera. In addition, since the distance to the target can be estimated by measuring the area or brightness of the target image on the imaging plane, the relative position between the robots without matching the tips of the robot tools at low cost Measure relationships. Furthermore, the relative positional relationship between robots can be measured without identifying camera parameters.
In addition, according to the seventh to ninth aspects, the feature points can be constrained on a straight line by moving the robot so that the laser beam of the laser distance sensor is irradiated to the feature points of the target on the robot tool. In addition, since the distance to the target can be directly measured using the laser distance sensor, the relative positional relationship between the robots can be accurately measured without matching the tips of the robot tools.
Further, according to the invention described in claims 10 to 11, since the feature points of the robot tool are constrained on a straight line using an elongated bar-shaped jig, the relative positional relationship between the robots without matching the tips of the robot tools Can be measured easily.
According to the invention described in
以下、本発明の具体的実施例を図に基づいて説明する。 Hereinafter, specific embodiments of the present invention will be described with reference to the drawings.
図1は、本発明の第1実施例を示す相対位置計測装置の構成図である。図において、101aおよび101bは相対位置計測の対象の第1のロボットおよび第2のロボットである。102a,102bは第1および第2のロボットに固定されたベース座標系である。103a,103bは第1および第2のロボットの制御装置であり、104a,104bは第1および第2のロボットの操作インターフェイスである。また、105a,105bは第1および第2のロボットのツール先端に取り付けた球状ターゲットである。ここで、球状ターゲット105a,105bの幾何学的重心(球の中心)をこのターゲットの特徴点と定義する。
106は撮像装置(CCDカメラ)である。107は撮像装置106が出力するビデオ信号を処理する画像処理装置であり、108は画像処理装置107が出力した画像データを作業者に提示(表示)する画像表示装置である。109は、第1および第2のロボットの制御装置102a,102bと画像処理装置107から得られるデータをもとにロボット間の相対位置関係(ベース座標系102aと102bの位置関係)を演算する相対位置演算装置である。また、110は撮像装置106の支持部である。
なお、撮像装置106の設置場所は、第1のロボット101aおよび第2のロボット101bの球状ターゲット105a,105bを共に撮影できる場所であれば何処でもよく、その位置を測定する必要はなく(未知でよい)、撮像装置106について予め何らかのキャリブレーションをする必要もない。
FIG. 1 is a configuration diagram of a relative position measuring apparatus showing a first embodiment of the present invention. In the figure,
The installation location of the
図2は、本発明の第1実施例を示す画像表示の説明図である。図において、201は画像表示装置108に表示される撮像平面であり、202は撮像平面201の座標系ΣI(U軸、V軸、W軸)であり、203は撮像装置106のカメラ座標系Σc(Xc軸、Yc軸、Zc軸)である。カメラ座標系203のZc軸は撮像装置106の光軸に一致し、撮像面201に対して垂直になっている(W軸とZc軸は一致する)。ここで、カメラ座標系203の原点から撮像平面201までの距離fはレンズの焦点距離に一致する。204は撮像平面201に結像された球状ターゲット105aのイメージ(像)である。205はイメージ204の重心であり、画像処理装置107によってその座標値が計算され、イメージ204上にオーバレイされる。例えば、画像処理装置107は、撮像装置106からのビデオ信号を2値化処理して円状領域を抽出し、抽出された領域の重心位置を計算する。206は、作業者が指定する撮像平面上の基準点であり、画像処理装置107によって基準点206のマーカを撮像平面201上にオーバレイする。ここで、撮像平面201における基準点206の座標値を(ua,va)と表す。
作業者は、画像表示装置108により撮像平面201の様子を目視しながら、イメージ204の重心205が基準点206に一致するように、操作インターフェイス104aを用いて第1のロボット101aの球状ターゲット105aを移動させる。あるいは、画像ベースの視覚サーボ技術(非特許文献2の第6章参照)を適用し、画像処理装置107において基準点206と重心205間の撮像平面201上での位置偏差を画像ヤコビアン行列によりロボット座標系での微小位置変化量に変換し、その変化量を第1のロボット101aの制御装置103aに与えて位置フィードバックを構成することにより、基準点206と重心205が一致するように第1のロボット101aの球状ターゲット105aを自動で移動させることもできる。
FIG. 2 is an explanatory diagram of image display showing the first embodiment of the present invention. In the figure, 201 is an imaging plane displayed on the
While viewing the state of the
以上の操作により、撮像平面201上において重心205と基準点206が一致した状態を図3に示す。この状態では、第1のロボットの球状ターゲット105aの特徴点(球の中心)は、カメラ座標系203の原点Ocと基準点206を通る直線301上の位置302aにある(ターゲットの形状、レンズの結像原理、カメラの撮像原理から明らか)。
この状態で、作業者は、第1のロボットのベース座標系102aを基準にした特徴点302aへの位置ベクトル303a( r1 Pt1_a1 )を測定する。一般的な産業用ロボットでは、第1のロボット101aの各関節軸に組み込まれたエンコーダ(内界センサ)値から順キネマティクス演算によりTCP位置が制御装置103aで計算され、その結果を操作インターフェイス104a上で確認することができる。この一般的な機能を利用して位置ベクトル303aを測定すればよい。また、画像処理装置107と画像表示装置108を利用して、撮像平面201上のイメージ204の面積( S t1_a1 )を測定する。画像処理装置107内で抽出された円状領域の面積を自動計算しても良いし、画像平面201上に手動カーソルをオーバレイさせて画像表示装置108上でカーソルから面積を読み取っても良い。
FIG. 3 shows a state where the center of
In this state, the operator measures the
つぎに、図4に示すように、作業者は第1のロボット101aの操作インターフェイス104aを用いて球状ターゲット105aを撮像平面201に対して奥行き方向(Zc軸方向)に移動させた上で、再度、イメージ204の重心205が基準点206に一致するように球状ターゲット105aを移動させる。このとき球状ターゲット105aの特徴点は、直線301上ではあるが図3に示した302aとは異なる点にある。図4における特徴点位置を302bで表す。図3のときと同様に、作業者は、第1のロボットの座標系102aを基準にした特徴点302bへの位置ベクトル303b( r1 Pt1_a2 )とイメージ204の面積( S t1_a2 )を測定する。
つぎに、撮像平面201上で基準点206とは異なる第2の基準点および第3の基準点を定義し、基準点206の場合と同様に、カメラ座標系203の原点0cと前記第2および第3の基準点を結ぶ各直線上に球状ターゲット105aの特徴点を位置決めして、特徴点の位置ベクトルおよび球状ターゲット105aの画像の面積を求める。すなわち、前記第2の基準点について、位置ベクトル r1 Pt1_b1 および r1 Pt1_b2 、面積 St1_b1および S t1_b2 を、前記第3の基準点について、位置ベクトル r1 Pt1_c1 および r1 Pt1_c2 、面積 St1_c1 および S t1_c2 を求める。
そして、第2のロボット101bについても、同様の測定処理を行う(ロボットが3台以上ある場合についても同様)。
なお、各ロボットの各直線上に対する上述した位置ベクトルとターゲット面積の測定順序は、上記の説明にとらわれるものではなく、任意の順序で測定してもよい。
Next, as shown in FIG. 4, the operator moves the
Next, a second reference point and a third reference point that are different from the
Then, the same measurement process is performed for the
In addition, the measurement order of the position vector and the target area on each straight line of each robot is not limited to the above description, and may be measured in an arbitrary order.
次に、上述した測定データに基づいて、第1のロボット101aと第2のロボット101b間の相対位置を求める手順を説明する。
直線301(図3、図4参照)上に第1のロボット101aの球状ターゲット105aの中心(特徴点)を置いたときに、次式が成り立つ。
Next, a procedure for obtaining the relative position between the
When the center (feature point) of the
c POcOr1 + c Rr1 ・r1 Pt1_a1= w t1_a1 ( ua, va, f )T (1) c P OcOr1 + c R r1・r1 P t1_a1 = w t1_a1 (ua, va, f) T (1)
c POcOr1+ c R r1・r1 Pt1_a2 = w t1_a2( ua, va, f ) T (2) c P OcOr1 + c R r1・r1 P t1_a2 = w t1_a2 (ua, va, f) T (2)
ここで、c POcOr1 は、カメラ座標系203の原点Ocから第1のロボット101aのベース座標系102aの原点Or1までの位置ベクトル(サイズ3×1)をカメラ座標系203を基準にして表したものである(左上の添え字は基準とする座標系を表す)。c R r1 は、第1のロボット101aのベース座標系102aからカメラ座標系203への回転行列(サイズ3×3)である。( ua, va, f ) T は、カメラ座標系203の原点Ocから撮像平面201上の基準点206までの位置ベクトルである(カメラ座標系203基準)。また、wt1_a1とwt1_a2は透視変換におけるスケールファクタであり、それぞれ、カメラ座標系203の原点Ocから特徴点302a,302bまでの距離に比例する正数になる。r1 Pt1_a1 とr1 Pt1_a2 は、それぞれ、第1のロボット101aのベース座標系102aの原点Or1から特徴点302a,302bまでの位置ベクトル(ベース座標系102a)であり、上述した測定プロセスで直接得られるデータである。
Here, c P OcOr1 represents a position vector (size 3 × 1) from the origin Oc of the camera coordinate
式(2)の両辺から式(1)の両辺を引くと次式が成り立つ。 Subtracting both sides of equation (1) from both sides of equation (2) gives the following equation.
c R r1 ・r1 ΔPt1_a= Δw t1_a ( ua, va, f ) T (3) c R r1・r1 ΔP t1_a = Δw t1_a (ua, va, f) T (3)
ただし、式(3)において、 However, in equation (3)
r1 ΔPt1_a = r1 Pt1_a2− r1 Pt1_a1 (4) r1 ΔP t1_a = r1 P t1_a2 − r1 P t1_a1 (4)
Δwt1_a = w t1_a2 − w t1_a1 (5)
Δw t1_a = w t1_a2 − w t1_a1 (5)
である。また、式(3)には、つぎの拘束条件がつく。 It is. In addition, the following constraint condition is attached to Expression (3).
|r1 ΔPt1_a| = |Δwt1_a| sqrt(ua 2 +va 2 +f 2 ) (6) r1 ΔP t1_a | = | Δw t1_a | sqrt (ua 2 + va 2 + f 2 ) (6)
第2のロボット101bについても、同様にして次式が成り立つ。
For the
c R r2 ・r2 ΔPt2_a= Δw t2_a ( ua, va, f ) T (7) c R r2・r2 ΔP t2_a = Δw t2_a (ua, va, f) T (7)
|r2 ΔPt2_a| = |Δwt2_a| sqrt(ua 2 +va 2 +f 2 ) (8) r2 ΔP t2_a | = | Δw t2_a | sqrt (ua 2 + va 2 + f 2 ) (8)
なお、r2 ΔPt2_aを求めるために測定される位置ベクトルr2 Pt2_a1およびr2 Pt2_a2は、第1のロボット101aに対して測定された特徴点302a,302bの位置ベクトルr1 Pt1_a1およびr1 Pt1_a2に一致していなくても良い。
式(3)(7)より、( ua, va, f ) T を消去し、かつ式(6)(8)の拘束を利用して次式を得る。
Note that the position vectors r2 P t2_a1 and r2 P t2_a2 measured to obtain r2 ΔP t2_a are the position vectors r1 P t1_a1 and r1 P t1_a2 of the feature points 302a and 302b measured for the
From equations (3) and (7), (ua, va, f) T is eliminated, and the following equations are obtained by using the constraints of equations (6) and (8).
r1 R r2 ・r2 ΔPt2_a= (Δw t2_a / Δwt1_a) r1 ΔPt1_a (9) r1 R r2・r2 ΔP t2_a = (Δw t2_a / Δw t1_a ) r1 ΔP t1_a (9)
|Δwt2_a| / |Δw t1_a| = |r2 ΔPt2_a| / |r1 ΔPt1_a| (10) | Δw t2_a | / | Δw t1_a | = | r2 ΔP t2_a | / | r1 ΔP t1_a | (10)
ここで、Δw t2_aとΔw t1_aの符号は、直線301においてロボットのTCPを撮像装置に対して手前に動かしたか、奥に動かしたかによって(スケールファクタの大小が決まるので)判断できる。よって、式(9)右辺の(Δwt2_a/ Δw t1_a)は、式(10)とそれぞれの符号から計算できる。
カメラ座標系203の原点0cと前記第2および第3の基準点を結ぶ各直線上についても同様にして、式(9)(10)に該当する式を導出することによって、つぎの連立方程式が得られる。
Here, the signs of Δw t2_a and Δw t1_a can be determined according to whether the TCP of the robot is moved toward or away from the imaging device on the straight line 301 (because the scale factor is determined). Therefore, (Δw t2 — a / Δw t1 — a ) on the right side of Equation (9) can be calculated from Equation (10) and the respective codes.
Similarly, for each straight line connecting the origin 0c of the camera coordinate
r1 R r2・( r2 ΔPt2_a, r2 ΔPt2_b, r2 ΔPt2_c ) =
( α r1 ΔPt1_a, β r1 ΔPt1_b , γ r1 ΔPt1_c ) (11)
r1 R r2・ ( r2 ΔP t2_a , r2 ΔP t2_b , r2 ΔP t2_c ) =
(α r1 ΔP t1_a , β r1 ΔP t1_b , γ r1 ΔP t1_c ) (11)
ただし、係数α,β,γは
α = Δwt2_a / Δw t1_a (12a)
β = Δw t2_b / Δw t1_b (12b)
γ = Δw t2_c / Δw t1_c (12c)
である。
However, the coefficients α, β, γ are
α = Δw t2_a / Δw t1_a (12a)
β = Δw t2_b / Δw t1_b (12b)
γ = Δw t2_c / Δw t1_c (12c)
It is.
式(11)の両辺に、右から( r2 ΔPt2_a , r2 ΔPt2_b, r2 ΔPt2_c )の逆行列をかける(連立方程式を解く)ことによって、第1のロボット101aのベース座標系102aと第2のロボット101bのベース座標系102b間の姿勢を表す回転行列r1 R r2が計算できる。( r2 ΔPt2_a , r2 ΔPt2_b, r2 ΔPt2_c )の逆行列は、各直線(基準点)が独立であれば必ず存在する。また、計測を行う直線(基準点)の数を4本以上にして、連立方程式(11)を冗長にすることにより、測定誤差によるバラツキの最も小さい回転行列を求めることもできる(最小二乗法に等価)。
To both sides of the equation (11), right (r2 ΔP t2_a, r2 ΔP t2_b , r2 ΔP t2_c) by multiplying an inverse matrix of (solving the simultaneous equations), the base coordinate
つぎに、第1のロボット101aのベース座標系102aの原点Or1と第2のロボット101bのベース座標系102bの原点Or2間の位置ベクトルについて、その導出方法を説明する。
式(1)(2)の両辺に左からr1 R cをかけると次式が成り立つ。
Next, a method for deriving a position vector between the origin Or1 of the base coordinate
When r1 R c is applied to both sides of the equations (1) and (2) from the left, the following equation is established.
r1 POcOr1 + r1 Pt1_a1= w t1_a1 r1 R c ( ua, va, f ) T (13) r1 P OcOr1 + r1 P t1_a1 = w t1_a1 r1 R c (ua, va, f) T (13)
r1 POcOr1 + r1 Pt1_a2= w t1_a2 r1 R c ( ua, va, f ) T (14) r1 P OcOr1 + r1 P t1_a2 = w t1_a2 r1 R c (ua, va, f) T (14)
式(13)(14)より、r1 R c ( ua, va, f ) Tを消去すると次式が成り立つ。 From the equations (13) and (14), when r1 R c (ua, va, f) T is eliminated, the following equation is established.
r1 POcOr1 + r1 Pt1_a1= (w t1_a1/ w t1_a2) ( r1 POcOr1 + r1 Pt1_a2) (15) r1 P OcOr1 + r1 P t1_a1 = (w t1_a1 / w t1_a2 ) ( r1 P OcOr1 + r1 P t1_a2 ) (15)
式(15)は次式のように変形できる。
r1 POcOr1 = (w t1_a1 / w t1_a2)/(1 − wt1_a1 / w t1_a2) r1 Pt1_a2
− 1 / (1 − w t1_a1/ wt1_a2) r1 Pt1_a1 (16)
Equation (15) can be transformed into the following equation.
r1 P OcOr1 = (w t1_a1 / w t1_a2 ) / (1 − w t1_a1 / w t1_a2 ) r1 P t1_a2
− 1 / (1 − w t1_a1 / w t1_a2 ) r1 P t1_a1 (16)
ここで、w t1_a1 / w t1_a2 はスケールファクタの比であるから、カメラ座標系203の原点Ocから特徴点302a(r1 Pt1_a1の終点)および302b(r1 Pt1_a2の終点)までの距離比に一致する。透視変換の幾何学から、撮像平面201上のイメージ204の面積は、カメラ座標系203の原点Ocから球状ターゲット105aの特徴点(球の中心)までの距離の二乗に反比例する。したがって、以下の近似が成り立つ。
Here, since w t1_a1 / w t1_a2 is the ratio of the scale factor, it matches the distance ratio from the origin Oc of the camera coordinate
wt1_a1 / w t1_a2 ≒ sqrt( S t1_a2 / S t1_a1) (17) w t1_a1 / w t1_a2 ≒ sqrt (S t1_a2 / S t1_a1 ) (17)
第2のロボット101bについても同様にして、次式が成り立つ。
Similarly, the following equation holds for the
r2 POcOr2= (w t2_a1 / w t2_a2)/(1 − w t2_a1 / wt2_a2) r2 Pt2_a2
− 1 / (1 − wt2_a1 / w t2_a2) r2 Pt2_a1 (18)
r2 P OcOr2 = (w t2_a1 / w t2_a2 ) / (1 − w t2_a1 / w t2_a2 ) r2 P t2_a2
− 1 / (1 − w t2_a1 / w t2_a2 ) r2 P t2_a1 (18)
w t2_a1 / wt2_a2 ≒ sqrt( S t2_a2 / S t2_a1 ) (19) w t2_a1 / w t2_a2 ≒ sqrt (S t2_a2 / S t2_a1 ) (19)
周囲の照明状態によっては、ターゲットイメージの面積を正確に測定できなくなる場合がある。そのような場合には、ターゲットを直接あるいは間接的に発光させ、周囲の照明状態に依存せずに面積が測定できるようにすればよい。このとき、ある特定の波長の光で発光させ、撮像装置の方でその波長の光以外をフィルタリングするようにすれば一層効果的である。
結局、式(16)(18)で計算される位置ベクトルr1 POcOr1とr2 POcOr2 、および回転行列r1 Rr2から、第1のロボット101aのベース座標系102aの原点Or1と第2のロボット101bのベース座標系102bの原点Or2間の位置ベクトルは、次式により計算される。
Depending on the ambient lighting conditions, the area of the target image may not be accurately measured. In such a case, the target may emit light directly or indirectly so that the area can be measured without depending on the surrounding illumination state. At this time, it is more effective to emit light with light of a specific wavelength and filter the light other than the light of the wavelength with the image pickup apparatus.
Eventually, from the position vectors r1 P OcOr1 and r2 P OcOr2 calculated by the equations (16) and (18) and the rotation matrix r1 R r2 , the origin Or1 of the base coordinate
r1 POr1Or2= r1 Rr2・r2 POcOr2 − r1 POcOr1 (20) r1 P Or1Or2 = r1 R r2・r2 P OcOr2 − r1 P OcOr1 (20)
また、前記第2の基準点、第3の基準点に対しても同様の手順でr1 POr1Or2を求め、それらの平均(重心)を最終的な位置ベクトルとしても良い。
また、奥行き方向に球状ターゲット105aを移動させたときのイメージ204の面積変化を測定してターゲットまでの距離比(スケールファクタの比)を求める(式(17)(19))代わりに、撮像装置106にズームレンズを取り付け、イメージ204の面積が一定となるようにズームレンズを移動させ、その移動量からターゲットまでの距離比を求めても良い。
また、撮像平面上でターゲットイメージの面積を測定する代わりに、ターゲットイメージの明るさ(光量)を測定することによって、式(17)(19)の距離比を推定しても良い。
Further, r1 P Or1Or2 may be obtained for the second reference point and the third reference point by the same procedure, and the average (center of gravity) of them may be used as the final position vector.
Instead of measuring the area change of the
Further, instead of measuring the area of the target image on the imaging plane, the distance ratio of equations (17) and (19) may be estimated by measuring the brightness (light quantity) of the target image.
図5は本発明の第1実施例の変形例を示すロボットの説明図である。この変形例は第1のロボット101aのツール先端に大小2個の球状ターゲット105aを取り付けたことを特徴とするものである。球状ターゲットの大きさを変える代わりに、ターゲットの発光の明るさを異ならせても良い。
図5に示すようにロボットのツール部分に大きさ(あるいは明るさ)の異なる複数のターゲット物体を取りつけると、撮像装置106からの距離が遠くなるほど大きい(明るい)ターゲットに切り替えることよって、距離比の推定精度を高めることができる。ただし、式(17)(19)によって距離比を計算する際に、ターゲットの大きさ(明るさ)の相違を考慮する必要がある。例えば、式(17)の St1_a2 を測定するときに、St1_a1 を測定するときに使用したターゲットのk倍の大きさのターゲットを使用したとすると、次式によって距離比を推定する。
FIG. 5 is an explanatory diagram of a robot showing a modification of the first embodiment of the present invention. This modification is characterized in that two large and small
As shown in FIG. 5, when a plurality of target objects having different sizes (or brightness) are attached to the tool portion of the robot, the distance ratio is increased by switching to a larger (brighter) target as the distance from the
w t1_a1 / wt1_a2 ≒ sqrt( S t1_a2 / k2×S t1_a1 ) (21) w t1_a1 / w t1_a2 ≒ sqrt (S t1_a2 / k 2 × S t1_a1 ) (21)
以上説明したように、第1実施例によれば、カメラ1台の撮像平面の基準点にロボットツールの特徴点が一致するようにロボットを動かすことによって特徴点を直線上に拘束することができ、また、撮像平面上でのターゲットの面積比(明るさの比)を測定することによってターゲットまでの距離比を推定することができるので、低コストでロボットツールの先端同士を突き合わせることなくロボット間の相対位置関係を計測できるのである。また、カメラパラメータを同定することなく、ロボット間の相対位置関係を計測できるのである。ターゲット物体を発光させることによってターゲット面積を周囲の照明状態に依存せずに測定でき、さらに、撮像装置からの距離が遠くなるほど大きい(明るい)ターゲットに切り替えることによって距離比の推定精度を高めることができるので、精度よくロボット間の相対位置関係を計測できるのである。 As described above, according to the first embodiment, the feature points can be constrained on a straight line by moving the robot so that the feature points of the robot tool coincide with the reference points of the imaging plane of one camera. In addition, since the distance ratio to the target can be estimated by measuring the area ratio (brightness ratio) of the target on the imaging plane, the robot can be used at low cost without matching the tips of the robot tools. The relative positional relationship between them can be measured. In addition, the relative positional relationship between the robots can be measured without identifying camera parameters. By making the target object emit light, the target area can be measured without depending on the surrounding illumination state, and further, the distance ratio can be estimated more accurately by switching to a larger (brighter) target as the distance from the imaging device increases. As a result, the relative positional relationship between the robots can be accurately measured.
図6は、本発明の第2実施例を示す相対位置計測装置の構成図である。図において、501はレーザ距離センサのレーザ発振装置である。502はレーザ発振装置の支持部であり、2自由度(パンとチルト)の回転機構を有する。503はレーザ距離センサの距離演算部である。なお、第1実施例と共通する構成要素には同一の符号を付したので説明を省略する。
前述した第1実施例では、カメラの撮像平面201においてイメージ204の重心205を撮像平面上の基準点206に一致させることによって、ターゲットの特徴点を直線上に拘束している。それに対して、第2実施例では、レーザ発振装置501から発振されるレーザ光線を利用して、ターゲットの特徴点を直線上に拘束する。すなわち、直進するレーザ光線そのものを、ターゲットの特徴点を拘束すべき直線とするものである。
第2実施例では、カメラ(撮像装置106)でロボットツール先端の球状ターゲットの近傍を撮影し、画像表示装置108に提示される撮像平面を目視しながらターゲットイメージの重心とレーザ光スポットが一致するように、作業者は操作インターフェイス104a,104bを利用してロボットのターゲットを移動させる(実施例1と同様にしてこの処理を自動化しても良い)。このようにすることによって、ターゲットの特徴点(球の中心)を直線(レーザ光線)上に拘束できる。
FIG. 6 is a configuration diagram of a relative position measuring apparatus showing a second embodiment of the present invention. In the figure,
In the first embodiment described above, the feature point of the target is constrained on a straight line by matching the center of
In the second embodiment, the vicinity of the spherical target at the tip of the robot tool is photographed with a camera (imaging device 106), and the center of gravity of the target image coincides with the laser light spot while viewing the imaging plane presented on the
図6では、撮像装置106(カメラ)とレーザ発振装置501を別々に設置しているが、両者をジグで一体化させても良い。図7は撮像装置とレーザ発振装置を一体にまとめた装置の説明図である。この装置は撮像装置106の光軸とレーザ発振装置501のレーザ光軸が平行になるように、上下に重ねて支持部502に固定することによって、ロボットツール先端の球状ターゲットへのレーザ光照射が容易にできる。すなわち、カメラのズームを調節しながら、撮像平面201の中心付近にターゲットが映し出されるようにロボットを移動させればよい。なお、図中の601は撮像平面201上のレーザ光の画像である。
In FIG. 6, the imaging device 106 (camera) and the
第2実施例においても、第1実施例と同様に、ある直線上の2点において、ロボット座標系原点から球状ターゲットの特徴点までの位置ベクトルをロボットの内界センサにより測定する。同時にレーザ距離センサの距離演算部503により、直線に沿った特徴点までの距離を測定する(第1の実施例では、直接距離は測定せず、距離と相関を持つターゲットイメージの面積を測定した)。
3本以上の直線に対して、各ロボットについて、同様にして位置ベクトルと距離を測定する。直線の向きを変更するには、支持部502のパン軸とチルト軸を回転させればよい。
In the second embodiment, as in the first embodiment, the position vector from the origin of the robot coordinate system to the feature point of the spherical target is measured by the robot's internal sensor at two points on a certain straight line. At the same time, the distance to the feature point along the straight line is measured by the
The position vector and distance are measured in the same manner for each robot with respect to three or more straight lines. In order to change the direction of the straight line, the pan axis and tilt axis of the
以上の測定データからロボット間の相対位置関係を導出する原理は、第1の実施例とほとんど同じであるが、媒介パラメータの記述が若干異なる。
3本の直線を直線A, B, Cと表し、直線A上に拘束されたロボット1のターゲット特徴点までの位置ベクトルを同様にr1 Pt1_a1およびr1 Pt1_a2と表す。ここで、直線Aの(単位)方向ベクトルをLa、レーザ距離センサで測定したr1 Pt1_a1の終点およびr1 Pt1_a2の終点までの距離をそれぞれd t1_a1, d t1_a2と表すと、式(1)〜(21)の所々で記述されている ( ua, va, f ) T をLaに、w t1_a1をd t1_a1に、wt1_a2をdt1_a2に置き換えて同様に相対位置を導出すればよい。ただし、第2実施例では、式(6)(8)(10)(17)(19)(21)は不要になる。なぜなら、wt1_a1やwt1_a2と異なり、d t1_a1やd t1_a2はレーザ距離センサで直接正確に測定可能な物理量であるからである。
The principle of deriving the relative positional relationship between the robots from the above measurement data is almost the same as that of the first embodiment, but the description of the medium parameter is slightly different.
The three straight lines are represented as straight lines A, B, and C, and the position vectors to the target feature points of the
以上説明したように、第2実施例によれば、レーザ距離センサのレーザ光線がロボットツールの特徴点に照射されるようにロボットを動かすことによって特徴点を直線上に拘束することができ、また、レーザ距離センサを利用して直接ターゲットまでの距離を正確に測定することができるので、ロボットツールの先端同士を突き合わせることなくロボット間の相対位置関係を正確に計測できるのである。 As described above, according to the second embodiment, the feature point can be constrained on a straight line by moving the robot so that the laser beam of the laser distance sensor is applied to the feature point of the robot tool. Since the distance to the target can be accurately measured directly using the laser distance sensor, the relative positional relationship between the robots can be accurately measured without matching the tips of the robot tools.
図8は、本発明の第3実施例を示す相対位置計測装置の構成図である。図において、701は棒状ジグであり、その表面には距離目盛がつけられている。702aおよび702bは棒状ジグ701の支持部である。支持部702a,702bには、直動ジョイント703a,703bおよびユニバーサルジョイント704a,704bが付けられており、棒状ジグ701の方向を自由に変更して、任意の方向に固定できる。
この第3実施例では、ロボットツールとして球状ターゲットではなく、針状ツール705a,705bを取り付ける。そして、針状ツール705a,705bの先端を棒状ジグ701上に拘束する(突き合わせる)ことによって、ロボットツールの特徴点(先端)を直線上に拘束し、そのときのツール先端位置ベクトルをロボットの内界センサにより計測する。また、針状ツール705a,705bの先端を棒状ジグ701上に拘束した状態で距離目盛を読み取ることにより、棒状ジグ701の端点からの距離を測定する。
3本以上の直線(棒状ジグの配置を変える)に対して、各ロボットについて、同様にして位置ベクトルと距離を測定する。また、測定したデータからロボット間相対位置を導出原理は、第2実施例で説明した通りである。
以上説明したように、第3実施例では、細長い棒状ジグ701を利用してロボットツールの特徴点を直線上に拘束するので、ロボットツールの先端同士を突き合わせることなく、高価な装置を使用しなくてもロボット間の相対位置関係を手軽に計測できるのである。
FIG. 8 is a block diagram of a relative position measuring apparatus showing a third embodiment of the present invention. In the figure,
In the third embodiment, not the spherical target but the
The position vector and distance are measured in the same manner for each robot with respect to three or more straight lines (changing the arrangement of rod-shaped jigs). Further, the principle of deriving the relative position between the robots from the measured data is as described in the second embodiment.
As described above, in the third embodiment, since the feature points of the robot tool are constrained on a straight line using the elongated rod-shaped
図9は、本発明の第4実施例の相対位置計測方式の原理を示している。同図において、901は第1のロボット101aのツール先端に取り付けられたマーカ(目印)である。実施例1および実施例2では、ロボットのツール先端に球状ターゲット(105a,105b)を取り付けたが、実施例4におけるマーカ901は球状ターゲットほどの大きさを必要としない。蛍光塗料が塗られた反射型マーカ、LEDマーカ、赤外線マーカなどを使用する。実施例4において相対位置計測に用いる装置の構成は、マーカ以外は図1と同じである(図1の装置構成において球状ターゲットをマーカに置き換える)。
図9において、902はロボット101aのベース座標系102aの原点Or1,903はカメラ座標系203の原点Ocである。904a,904bはロボット101aに対して設定された平行な2つの平面であり、それぞれ平面G,平面Hと表す。206は、撮像平面201上に3つ以上設定した基準点であり、それらをI1 , I2 , …, IN と表す(Nは3以上の整数)。301は、カメラ座標原点Ocと基準点I1 , I2 , …, IN を通る直線であり、それぞれ直線1,直線2…直線Nと表す。905は、直線1,直線2…直線Nと平面Gとの交点であり、それぞれG1 , G2 , …, GN と表す。906は、直線1,直線2…直線Nと平面Hとの交点であり、それぞれH1 , H2 , …, HN と表す。907は撮像平面201に写ったマーカ901のイメージ(像)である。
FIG. 9 shows the principle of the relative position measurement method of the fourth embodiment of the present invention. In the figure, reference numeral 901 denotes a marker (mark) attached to the tool tip of the
In FIG. 9, reference numeral 902 denotes the origin Or1 of the base coordinate
ここで、マーカ901の中心を特徴点とし、特徴点を平面Gに拘束する制御をロボット101aに施して、特徴点が平面G上で動作するようにする。この状態(特徴点を平面Gに拘束した状態)で、撮像平面201において、マーカイメージ907の重心が基準点I1 に一致するようにロボット101aを操作することによって、特徴点を交点G1 に位置決めすることができる。特徴点を交点G1 に位置決めした後、ロボット座標原点Or1(902)から交点G1(特徴点)までの位置ベクトル908を、ロボット101aの内界センサ(各軸のエンコーダなど)値からロボット座標値(ベース座標系102aの座標値)として計測する。同様にして、特徴点を交点G2 , …, GN に位置決めし、各交点(特徴点)までの位置ベクトルを計測する。このようにして測定した交点G1 , G2 , …, GN までの位置ベクトルをr1 Pg_1 , r1 Pg_2 , …, r1 Pg_N と表す。
Here, the center of the marker 901 is used as a feature point, and control for restricting the feature point to the plane G is applied to the
つぎに、ロボット101aの特徴点(マーカの中心)を平面Hに拘束した状態で、同様にして、マーカイメージ907の重心がI1 , I2 , …, IN に一致するようにロボット101aを操作して特徴点を平面H上の交点H1 , H2 , …, HN に位置決めし、ロボット座標原点Or1から各交点(特徴点)までの位置ベクトル909を測定する。このようにして測定した交点H1 , H2 , …, HN までの位置ベクトルをr1 Ph_1 , r1 Ph_2 , …, r1 Ph_N と表す。
撮像平面201において、マーカイメージ907の重心を基準点206に一致させるロボットの操作は、実施例1で説明したように画像ベースの視覚サーボ技術(非特許文献2の第6章参照)を適用して自動化することもできる。
また、位置ベクトルの測定順序は上記によらず任意に変更して構わない。さらには、ロボットの特徴点を直線301に拘束させた状態で、特徴点が各平面上に乗るようにロボットを動かしても良い。
以上が第1のロボット101aに対して行う測定処理である。
Next, feature points of the
In the
Further, the position vector measurement order may be arbitrarily changed regardless of the above. Furthermore, the robot may be moved so that the feature points are on each plane while the feature points of the robot are constrained to the straight line 301.
The above is the measurement process performed on the
つぎに、第2のロボット101bのツール先端にも同様のマーカ(901)を取り付ける。また、ロボット101bに対しても2つの平行な平面を設定する。それらを平面Sと平面Tと表す。ここで、平面S(平面T)は平面G(平面H)と同じである必要はない(同じか異なるかについては拘らない)。直線1,直線2…直線Nと平面Sとの交点をそれぞれS1 , S2 , …, SN と表し、直線1,直線2…直線Nと平面Tとの交点をそれぞれT1 , T2 , …, TN と表す。
ロボット101aの測定処理で使用した同一の基準点I1 , I2 , …, IN を使って、ロボット101bに対しても同様の測定処理を行う。すなわち、ロボット101bのマーカ中心(特徴点)を平面S(平面T)に拘束した状態で、撮像平面201においてマーカイメージ907の重心が各基準点I1 , I2 , …, IN に一致するようにロボット101bを操作することによって、その特徴点を各交点S1 , S2 , …, SN (交点T1 , T2 , …, TN )に位置決めし、各交点までのベース座標系102bを基準にした位置ベクトルr2 Ps_1, r2 Ps_2 , …, r2 Ps_N (r2 Pt_1, r2 Pt_2 , …, r2 Pt_N )を測定する。
Next, a similar marker (901) is also attached to the tool tip of the
A similar measurement process is performed on the
つぎに、上述した測定データに基づいて第1のロボット101aと第2のロボット101b間の相対位置を求める手順を説明する。
まず、ベース座標102aとベース座標102b間の回転行列r1 R r2 を求める。
ここで、直線kの方向ベクトルをn k と表す(k=1, 2, …, N)。ただし、カメラ座標原点Ocからマーカ901に向かう方向を正とする。図9を見れば分かるように、直線kと平面Gおよび平面Hの交点Gk , Hk までの位置ベクトルr1 Pg_k と r1 Ph_k の差をとって正規化することによって、ロボット101aのベース座標102aを基準にした方向ベクトルr1 n k を計算することができる。すなわち、
Next, a procedure for obtaining the relative position between the
First, a rotation matrix r1 R r2 between the base coordinates 102a and the base coordinates 102b is obtained.
Here, the direction vector of the straight line k is expressed as n k (k = 1, 2,..., N). However, the direction from the camera coordinate origin Oc toward the marker 901 is positive. As can be seen from FIG. 9, the base of the
r1 n k = δ(G,H)・( r1 Pg_k − r1 Ph_k)/| r1 Pg_k − r1 Ph_k | (22)
(k=1, 2, …, N)
r1 n k = δ (G, H) ・ ( r1 P g_k − r1 P h_k ) / | r1 P g_k − r1 P h_k | (22)
(k = 1, 2,…, N)
である。ここで、δ(G,H) は平面Gと平面Hの位置関係によって定まる符号係数(1または−1)である。
式(22)の方向ベクトルと、カメラ座標系203を基準にした方向ベクトルC n k はつぎのように関係付けられる。
It is. Here, δ (G, H) is a code coefficient (1 or −1) determined by the positional relationship between the plane G and the plane H.
The direction vector of Expression (22) and the direction vector C n k based on the camera coordinate
r1 R C・C n k = r1 n k , (k=1, 2, …, N) (23) r1 R C・C n k = r1 n k , (k = 1, 2,…, N) (23)
ロボット101bについても、同様につぎの式が成り立つ。
The following equation holds for the
r2 n k = δ(S,T)・( r2 Ps_k − r2 Pt_k)/| r2 Ps_k − r2 Pt_k | (24)
r2 R C・C n k = r2 n k, (k=1, 2, …, N) (25)
r2 n k = δ (S, T) · (r2 P s_k - r2 P t_k) / | r2 P s_k - r2 P t_k | (24)
r2 R C・C n k = r2 n k , (k = 1, 2,…, N) (25)
いま、カメラパラメータは未知なので(カメラ座標系203に対する撮像平面201の位置関係が分からないので)、方向ベクトルC n k の値(座標値)は分からないが、式(23)(25)からC n k を消去すれば、つぎのようなロボット101aとロボット101b間の直接の関係式が導出される。
Now, since the camera parameter is unknown (because the positional relationship of the
r1 R r2・r2 n k = r1 n k, (k=1, 2, …, N) (26) r1 R r2・r2 n k = r1 n k , (k = 1, 2,…, N) (26)
式(26)の連立方程式を解くことによって、回転行列r1 R r2 が求まる。位置ベクトルの測定誤差のない理想的な状態では、N=3(つまり基準点が3個、直線が3本)であれば十分であるが、実際には測定誤差が含まれるので、Nを3以上に増やして計算結果のバラツキ(標準偏差)を小さく抑える。 The rotation matrix r1 R r2 is obtained by solving the simultaneous equations of Equation (26). In an ideal state where there is no position vector measurement error, it is sufficient if N = 3 (that is, three reference points and three straight lines). However, since measurement error is actually included, N is set to 3 Increase to the above to minimize the variation (standard deviation) in the calculation results.
つぎに、ベース座標102aとベース座標102b間の位置ベクトルr1 Por1or2 を求める。
図9において、平面Gと平面Hは平行であるから、線分G1G2と線分H1H2も平行である。したがって、三角形OcG1G2 と三角形OcH1H2 は相似になり、
Next, determine the position vectors r1 Po r1 o r2 between the base coordinate 102a and the base coordinate 102b.
In FIG. 9, since the plane G and the plane H are parallel, the line segment G 1 G 2 and the line segment H 1 H 2 are also parallel. Therefore, the triangle OcG 1 G 2 and the triangle OcH 1 H 2 are similar,
G1G2: H1H2 = OcG1 : OcH1 (27) G 1 G 2 : H 1 H 2 = OcG 1 : OcH 1 (27)
が成り立つ。さらには、平面G上の交点G1 , G2 , …, GN から任意に2つ選び出した交点Gi , Gj と、対応する平面H上の交点Hi , Hj に対して、 Holds. Furthermore, with respect to the intersection points G i , G j arbitrarily selected from the intersection points G 1 , G 2 ,..., G N on the plane G and the intersection points H i , H j on the corresponding plane H,
GiGj: HiHj = OcGk : OcHk (28)
OcGk/ OcHk = const. (GiGj / HiHj= const.) (29)
( i=1,2,…,N, j=1,2,…,N, i≠j, k=1,2, …,N )
G i G j : H i H j = OcG k : OcH k (28)
OcG k / OcH k = const. (G i G j / H i H j = const.) (29)
(i = 1,2,…, N, j = 1,2,…, N, i ≠ j, k = 1,2,…, N)
が成り立つ。OcGk /OcHk をLg /Lh とおき、測定した位置ベクトルからつぎのように平均値を求める。 Holds. OcG k / OcH k is set as L g / L h , and an average value is obtained from the measured position vector as follows.
ここでNC2はN個の交点から2個を選び出す場合の組み合わせである。 Here, N C 2 is a combination when two are selected from N intersections.
カメラ座標原点Ocから交点Gk および交点Hk までの距離比が式(30)により求まるので、この比と位置ベクトルr1 Pg_k およびr1 Ph_k を用いると、外分点を求める要領で、ロボット座標原点Or1からカメラ座標原点Ocまでの位置ベクトルr1 Por1oC(図9の910)をつぎのように求めることができる。 Since the distance ratio from the camera coordinate origin Oc to the intersection point G k and the intersection point H k can be obtained by Equation (30), using this ratio and the position vectors r1 P g_k and r1 P h_k , the robot can be used to obtain the outer dividing point. it can be determined the position vector from the coordinate origin Or1 to the camera coordinate origin Oc r1 Po r1 o C a (910 in FIG. 9) as follows.
r1 Por1oC= (−Lh)/(Lg−Lh)・r1 Pg_k+ Lg/(Lg−Lh)・r1 Ph_k (31)
(k=1, 2, …, N)
r1 Po r1 o C = (−L h ) / (L g −L h ) ・r1 P g_k + L g / (L g −L h ) ・r1 P h_k (31)
(k = 1, 2,…, N)
位置ベクトルには測定誤差が含まれるので、式(31)をもとにつぎのように平均値を求めればよい。 Since the position vector includes a measurement error, the average value may be obtained as follows based on Equation (31).
結局、位置ベクトルの測定値をもとに、式(30)(32)からr1 Por1oC が求まる。 Eventually, based on the measurement values of the position vector, from equation (30) (32) r1 Po r1 o C is obtained.
つぎに、第2のロボット101bに対しても、全く同様にして、ベース座標系102bの原点Or2からカメラ座標系203の原点Ocまでの位置ベクトルr2 Por2oCをつぎのように求める。
Next, for the
以上より、実施例1と同様にして、次式により位置ベクトルr1 Por1or2 が求まる。 Thus, in the same manner as in Example 1, it is obtained the position vector r1 Po r1 o r2 by the following equation.
r1 Por1or2= r1 R r2・r2 PoCor2 − r1 PoCor1
= −r1 R r2・r2 Por2oC + r1 Por1oC (35)
r1 Po r1 o r2 = r1 R r2・r2 Po C o r2 − r1 Po C o r1
= -R1 R r2 · r2 Po r2 o C + r1 Po r1 o C (35)
また、式(22)(24)におけるδ(G,H)とδ(S,T)は、Lg /Lh とLs /Lt を用いてつぎのように計算できる。 Further, δ (G, H) and δ (S, T) in the equations (22) and (24) can be calculated as follows using L g / L h and L s / L t .
δ(G,H) = sgn( Lg / Lh − 1 ) (36)
δ(S,T) = sgn( Ls / Lt − 1 ) (37)
δ (G, H) = sgn (L g / L h − 1) (36)
δ (S, T) = sgn (L s / L t − 1) (37)
ここでsgn(x)は符号関数であり、x≧0のとき1、x<0のとき-1である。 Here, sgn (x) is a sign function, and is 1 when x ≧ 0 and -1 when x <0.
以上説明したように、第4実施例によれば、ロボットツールの特徴点を2つの平行な平面上で動作させ、かつ、カメラ1台の撮像平面の各基準点に特徴点が一致するようにロボットを動かすことによって、基準点を通る各直線と各平面との交点に特徴点を位置決めし、各交点における特徴点のロボット座標値を測定するので、撮像平面でのターゲットイメージの大きさや明るさを計測することなく、カメラ1台のみで奥行き方向の距離情報を正確に得ることができる。したがって、低コストでロボットツールの先端同士を突き合わせることなく、ロボット間の相対位置関係をより正確に計測できるのである。また、カメラパラメータを同定することなく、ロボット間の相対位置関係を手軽に計測できるのである。 As described above, according to the fourth embodiment, the feature points of the robot tool are operated on two parallel planes, and the feature points coincide with the reference points on the imaging plane of one camera. By moving the robot, the feature point is positioned at the intersection of each straight line passing through the reference point and each plane, and the robot coordinate value of the feature point at each intersection is measured, so the size and brightness of the target image on the imaging plane Without measuring the distance information, the distance information in the depth direction can be accurately obtained with only one camera. Therefore, the relative positional relationship between the robots can be measured more accurately without matching the tips of the robot tools at low cost. In addition, the relative positional relationship between robots can be easily measured without identifying camera parameters.
本発明は、複数台のロボットが協調して作業する際に、ロボット間の相対位置関係を計測する方法として有用である。 The present invention is useful as a method for measuring the relative positional relationship between robots when a plurality of robots work in cooperation.
101a 第1のロボット、101b 第2のロボット、102a,102b ベース座標系、103a,103b 制御装置、104a,104b 操作インターフェイス、105a,105b 球状ターゲット、106 撮像装置、107 画像処理装置、108 画像表示装置、109 相対位置演算装置、110 支持部、201 撮像平面、202 撮像平面の座標系、203 カメラ座標系、204 球状ターゲットのイメージ、205 球状ターゲットのイメージの重心、206 基準点、301 直線、302a,302b 球状ターゲットの特徴点(球の中心)の位置、303a,303b ロボット座標系原点から球状ターゲットの特徴点までの位置ベクトル、501 レーザ発振装置、502 支持部、503 距離計測装置、601 ターゲットに照射されたレーザ光線のスポット、701 棒状ジグ、702a,702b 棒状ジグの支持部、703a,703b 直動ジョイント、704a,704b ユニバーサルジョイント、705a,705b 針状ツール、901 マーカ、902 ベース座標系102aの原点、903 カメラ座標系203の原点、904a 平面G、904b 平面H、905 平面Gと直線301の交点、906 平面Hと直線301の交点、907 マーカのイメージ、908 ロボット座標原点902から交点905までの位置ベクトル、909 ロボット座標原点902から交点906までの位置ベクトル、910 ロボット座標原点902からカメラ座標原点903までの位置ベクトル 101a First robot, 101b Second robot, 102a, 102b Base coordinate system, 103a, 103b Control device, 104a, 104b Operation interface, 105a, 105b Spherical target, 106 Imaging device, 107 Image processing device, 108 Image display device , 109 relative position calculation device, 110 support unit, 201 imaging plane, 202 imaging plane coordinate system, 203 camera coordinate system, 204 spherical target image, 205 spherical target image centroid, 206 reference point, 301 straight line, 302a, 302b Position of feature point (sphere center) of spherical target, 303a, 303b Position vector from origin of robot coordinate system to feature point of spherical target, 501 Laser oscillation device, 502 Support unit, 503 Distance measurement device, 601 Spot of laser beam irradiated to target, 701 Rod-shaped jig, 702a, 702b Rod-shaped jig support, 703a, 703b Linear motion joint, 704a, 704b Universal joint, 705a, 705b Needle-shaped tool, 901 marker, 902 Base coordinate system 102a origin, 903 origin of camera coordinate system 203, 904a plane G, 904b plane H, 905 intersection of plane G and line 301, 906 intersection of plane H and line 301, 907 image of marker, 908 intersection from robot coordinate origin 902 Position vector from 905, 909 Position vector from robot coordinate origin 902 to intersection 906, 910 Position vector from robot coordinate origin 902 to camera coordinate origin 903
Claims (14)
前記特徴点(302a、302b)が前記各直線(301)上に位置した状態にて各ロボット座標系に基づく前記特徴点(302a、302b)の位置を前記ロボット(101a、101b)の各関節軸のエンコーダ値から順キネマティクス演算により測定するとともに、
前記ロボット座標系とは別に設けられた座標系の原点から前記特徴点(302a、302b)までの距離または前記距離と相関関係を持つ物理量を測定し、
前記各ロボット座標系に基づく前記特徴点(302a、302b)の位置と前記距離または前記距離と相関関係を持つ物理量との関係を表す式を前記各直線(301)について導出して連立方程式とし、
前記連立方程式を解いて前記各ロボット座標系の原点間の位置ベクトルを算出することにより前記複数ロボット(101a、101b)間の相対位置関係を求めることを特徴とする複数ロボット間の相対位置計測方法。 By operating a plurality of robots (101a, 101b), the feature points (302a, 302b) defined in the movable part of each robot pass through a three-dimensional space that can be reached by the plurality of robots (101a, 101b) together, and Located at two or more points on each of three or more straight lines (301) that are not parallel,
With the feature points (302a, 302b) positioned on the straight lines (301), the positions of the feature points (302a, 302b) based on the robot coordinate systems are set to the joint axes of the robot (101a, 101b). With forward kinematics calculation from the encoder value of
A distance from the origin of a coordinate system provided separately from the robot coordinate system to the feature point (302a, 302b) or a physical quantity correlated with the distance;
An equation representing the relationship between the position of the feature point (302a, 302b) based on each robot coordinate system and the distance or a physical quantity having a correlation with the distance is derived for each straight line (301) to be a simultaneous equation,
A relative position measurement method between a plurality of robots, wherein a relative positional relationship between the plurality of robots (101a, 101b) is obtained by solving the simultaneous equations and calculating a position vector between the origins of the robot coordinate systems. .
前記画像表示装置(108)上に3つ以上の基準点(206)を設け、前記ロボット(101a、101b)を操作して前記特徴点(302a、302b)の位置を前記画像表示装置(108)上において前記各基準点(206)と一致させることによって前記特徴点(302a、302b)を前記各直線(301)上に位置する状態とし、
前記各直線(301)上の2点以上について前記各ロボット座標系に基づく前記特徴点(302a、302b)の位置を測定するとともに、前記距離または前記距離と相関関係を持つ物理量を測定することを特徴とする請求項1記載の複数ロボット間の相対位置計測方法。 The feature points (302a, 302b) are picked up by the image pickup device (106), and the image is displayed in a plane on the image display device (108).
Three or more reference points (206) are provided on the image display device (108), and the robot (101a, 101b) is operated to set the position of the feature points (302a, 302b) to the image display device (108). The feature points (302a, 302b) are positioned on the straight lines (301) by matching with the reference points (206) above,
Measuring the position of the feature point (302a, 302b) based on each robot coordinate system at two or more points on each straight line (301) and measuring a physical quantity having a correlation with the distance or the distance. The relative position measuring method between a plurality of robots according to claim 1, wherein:
前記ロボット(101a、101b)を操作して前記特徴点(302a、302b)の位置を前記画像表示装置(108)上においてレーザ距離センサのレーザ発振装置(501)から発振するレーザ光と一致させることによって前記特徴点(302a、302b)を前記各直線(301)上に位置する状態として、
前記各直線(301)上の2点以上について前記各ロボット座標系に基づく前記特徴点(302a、302b)の位置を測定するとともに、前記レーザ光の向きを変更することで前記レーザ光を前記3本以上の直線とすることを特徴とする請求項1記載の複数ロボット間の相対位置計測方法。 The feature points (302a, 302b) are picked up by the image pickup device (106), and the image is displayed in a plane on the image display device (108),
The robot (101a, 101b) is operated to make the position of the feature point (302a, 302b) coincide with the laser beam oscillated from the laser oscillation device (501) of the laser distance sensor on the image display device (108). The feature points (302a, 302b) are positioned on the straight lines (301) by
The position of the feature point (302a, 302b) based on each robot coordinate system is measured for two or more points on each straight line (301), and the laser beam is changed to 3 by changing the direction of the laser beam. The relative position measuring method between a plurality of robots according to claim 1, wherein the number of straight lines is more than one.
前記ロボット(101a、101b)を操作して前記特徴点の位置を、直線をなす棒状ジグ(701)上に位置させることによって前記特徴点を前記直線上に位置する状態として、
前記棒状ジグ(701)上の2点以上について前記各ロボット座標系に基づく前記特徴点の位置を測定するとともに、前記棒状ジグ(701)の配置を変更することで前記棒状ジグ(701)を前記3本以上の直線とすることを特徴とする請求項1記載の複数ロボット間の相対位置計測方法。 A needle-like tool (705a, 705b) is provided on the movable part of the robot (101a, 101b), the feature point is defined at the tip of the needle-like tool (705a, 705b), and
By operating the robot (101a, 101b) to position the feature point on a bar-shaped jig (701) forming a straight line, the feature point is positioned on the straight line.
The position of the feature point based on each robot coordinate system is measured for two or more points on the bar-shaped jig (701), and the bar-shaped jig (701) is changed by changing the arrangement of the bar-shaped jig (701). The relative position measuring method between a plurality of robots according to claim 1, wherein there are three or more straight lines.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004027745A JP4289169B2 (en) | 2003-09-29 | 2004-02-04 | Relative position measurement method between multiple robots |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003338059 | 2003-09-29 | ||
JP2004027745A JP4289169B2 (en) | 2003-09-29 | 2004-02-04 | Relative position measurement method between multiple robots |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2005125478A JP2005125478A (en) | 2005-05-19 |
JP2005125478A5 JP2005125478A5 (en) | 2007-03-15 |
JP4289169B2 true JP4289169B2 (en) | 2009-07-01 |
Family
ID=34655512
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004027745A Expired - Fee Related JP4289169B2 (en) | 2003-09-29 | 2004-02-04 | Relative position measurement method between multiple robots |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4289169B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109571471A (en) * | 2018-12-03 | 2019-04-05 | 宇环数控机床股份有限公司 | A method of it is demarcated for dual robot relative tertiary location |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008254097A (en) * | 2007-04-03 | 2008-10-23 | Denso Wave Inc | Relative position calculating method between plurality of robots |
JP4982903B2 (en) * | 2008-09-11 | 2012-07-25 | コグネックス・コーポレイション | Control system, control method and program |
JP5272617B2 (en) * | 2008-09-26 | 2013-08-28 | 株式会社Ihi | Robot apparatus and control method of robot apparatus |
JP5678979B2 (en) * | 2013-03-15 | 2015-03-04 | 株式会社安川電機 | Robot system, calibration method, and workpiece manufacturing method |
KR102361641B1 (en) | 2014-12-26 | 2022-02-10 | 삼성전자주식회사 | Method for processing location information and method for processing measurement information including the same |
JP2017077609A (en) | 2015-10-21 | 2017-04-27 | ファナック株式会社 | Calibration device and calibration method for calibrating mechanism parameter of wrist part of robot |
JP2017100202A (en) * | 2015-11-30 | 2017-06-08 | 株式会社アイキューブテクノロジ | Robot system, control device, control method, and program |
CN108759672B (en) * | 2018-06-16 | 2020-04-24 | 复旦大学 | Industrial robot tail end position measuring and displacement error compensating method |
-
2004
- 2004-02-04 JP JP2004027745A patent/JP4289169B2/en not_active Expired - Fee Related
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109571471A (en) * | 2018-12-03 | 2019-04-05 | 宇环数控机床股份有限公司 | A method of it is demarcated for dual robot relative tertiary location |
CN109571471B (en) * | 2018-12-03 | 2021-12-21 | 宇环数控机床股份有限公司 | Method for calibrating relative spatial position of double robots |
Also Published As
Publication number | Publication date |
---|---|
JP2005125478A (en) | 2005-05-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US6044308A (en) | Method and device for robot tool frame calibration | |
US6763284B2 (en) | Robot teaching apparatus | |
CN101909828B (en) | Method and system for the high-precision positioning of at least one object in a final location in space | |
JP4221768B2 (en) | Method and apparatus for positioning an object in space | |
US20080027580A1 (en) | Robot programming method and apparatus with both vision and force | |
US20140160115A1 (en) | System And Method For Visually Displaying Information On Real Objects | |
CN104227722A (en) | Robot system and robot control method | |
JP6869159B2 (en) | Robot system | |
Kim | Computer vision assisted virtual reality calibration | |
JP4289169B2 (en) | Relative position measurement method between multiple robots | |
US11446822B2 (en) | Simulation device that simulates operation of robot | |
JP2021527220A (en) | Methods and equipment for identifying points on complex surfaces in space | |
JP2019063955A (en) | Robot system, operation control method and operation control program | |
Ng et al. | Intuitive robot tool path teaching using laser and camera in augmented reality environment | |
JP6973233B2 (en) | Image processing system, image processing device and image processing program | |
JPH03213251A (en) | Workpiece position detecting device | |
US20190145758A1 (en) | System and method for verifying projection accuracy | |
Alzarok et al. | Survey of the current practices and challenges for vision systems in industrial robotic grasping and assembly applications | |
Lawson et al. | Augmented reality as a tool to aid the telerobotic exploration and characterization of remote environments | |
Tran et al. | An Intelligent Path Planning of Welding Robot Based on Multi-Sensor Interaction | |
Kang et al. | Laser vision system for automatic seam tracking of stainless steel pipe welding machine (ICCAS 2007) | |
Huissoon | Robotic laser welding: seam sensor and laser focal frame registration | |
CN115972192A (en) | 3D computer vision system with variable spatial resolution | |
Clarke et al. | The control of a robot end-effector using photogrammetry | |
Qiao et al. | Advanced sensing development to support accuracy assessment for industrial robot systems |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20070126 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20070126 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20080724 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20080819 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20081016 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20090128 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20090130 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20090310 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20090323 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120410 Year of fee payment: 3 |
|
LAPS | Cancellation because of no payment of annual fees |