JPH05111897A - Finding method of relative position relationship between plurality of robots - Google Patents

Finding method of relative position relationship between plurality of robots

Info

Publication number
JPH05111897A
JPH05111897A JP29950691A JP29950691A JPH05111897A JP H05111897 A JPH05111897 A JP H05111897A JP 29950691 A JP29950691 A JP 29950691A JP 29950691 A JP29950691 A JP 29950691A JP H05111897 A JPH05111897 A JP H05111897A
Authority
JP
Japan
Prior art keywords
robot
tool
coordinate system
force
robots
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP29950691A
Other languages
Japanese (ja)
Inventor
Yoshihisa Furukawa
善久 古川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fanuc Corp
Original Assignee
Fanuc Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fanuc Corp filed Critical Fanuc Corp
Priority to JP29950691A priority Critical patent/JPH05111897A/en
Publication of JPH05111897A publication Critical patent/JPH05111897A/en
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39051Calibration cooperating manipulators, closed kinematic chain by alignment

Abstract

PURPOSE:To determine relative positions of a plurality of robots by making a needle tool of one robot into contact with a facial tool of the other robot at no less than three points by fixed level of force, to determine force component, torque component, contact point location and so on. CONSTITUTION:An inner force sensor 3 and facial tool 4 are mounted on a robot A, while a needle tool 5 is mounted on a robot B. The needle tool 5 is connected statically by a fixed force to the facial tool 4, and a force component, a torque component are determined by the sensor 3, while a base coordinate system position of the robot A of a power point is determined based on the position of the robot A. The front end position of the needle tool on the base coordinate system of the robot B is also determined. The same process is carried out at three point that are not in the same line. A 6-parameter of a homogeneous transformation matrix of the base coordinate system of the robot B displayed by the base coordinate system of the robot A is determined at the three points, to obtain position relationship between the respective robots A and B. When the process accuracy of the facial tool 4 or the mounting accuracy of the tools 4, 5 are good, the position, relationship can be easily found.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】この発明は、複数台のロボットが
協調して作業を行うときの、ロボット間の相対位置関係
の取得方式に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a method of acquiring a relative positional relationship between robots when a plurality of robots work in cooperation with each other.

【0002】[0002]

【従来の技術】1台のロボットで持つことができないよ
うな重量物を、複数のロボットでハンドリングするとき
や、ワイヤ等の柔軟物を複数のロボットでハンドリング
するとき等、1つの作業対象に対して複数台のロボット
が共動で作業する場合がある。このような場合、各ロボ
ットは他のロボットと協調作業を行わねばならないた
め、干渉をさける事や共同作業のために各ロボット間の
位置関係を知る必要がある。そのため、従来は次の方法
によって各ロボットの位置関係を知るようにしている。 (1)各ロボットを決められた位置に正確に位置決めし
配置する。 (2)各ロボットの中間に治具を固定し、該治具上の正
確に位置が分かっている数点を、各ロボットに装着した
ツール上の1点で触れるようにロボットを動かし、その
ときのロボットの位置・姿勢より、治具の座標系を介し
て各ロボットの位置関係を求める。
2. Description of the Related Art For handling a heavy object that cannot be carried by one robot with a plurality of robots, or when handling a flexible object such as a wire with a plurality of robots, one work target In some cases, multiple robots work together. In such a case, since each robot has to cooperate with other robots, it is necessary to know the positional relationship between the robots in order to avoid interference and collaborate. Therefore, conventionally, the positional relationship of each robot is known by the following method. (1) Each robot is accurately positioned and arranged at a predetermined position. (2) A jig is fixed in the middle of each robot, and the robot is moved so that several points on the jig whose positions are known are touched by one point on the tool attached to each robot. The positional relationship of each robot is obtained from the robot position / orientation via the jig coordinate system.

【0003】[0003]

【発明が解決しようとする課題】しかし、上記(1)の
方法では、各ロボットを決められた位置に正確に位置付
け配置することは非常に困難な作業である。また、上記
(2)の方法では、治具の位置の測定や、治具上の決め
られた位置に、ロボットに装着されたツールを位置決め
することが非常に難しく、煩雑な操作を必要とする。そ
こで本発明の目的は、複数のロボットの相対的位置関係
を簡単に求めることができる相対位置関係取得方式を提
供することにある。
However, in the above method (1), it is a very difficult task to accurately position and arrange each robot at a predetermined position. Further, in the above method (2), it is very difficult to measure the position of the jig and position the tool mounted on the robot at a predetermined position on the jig, which requires a complicated operation. .. Therefore, an object of the present invention is to provide a relative positional relationship acquisition method capable of easily obtaining the relative positional relationship between a plurality of robots.

【0004】[0004]

【問題を解決するための手段】本発明は、一方のロボッ
トアーム先端に力覚センサ及び形状が既知な面を有する
面状ツールを取り付け、他方のロボットアーム先端に針
状ツールを取り付け、同一直線上にない3点以上におい
て、上記針状ツール先端を上記面状ツールの面に所定力
で点接触させ、各接触時に上記力覚センサで検出される
力成分とトルク成分及びその時の一方のロボットの姿勢
より該一方のロボットのベース座標系上における各接触
点の位置を求め、また各接触時の上記他方のロボットの
針状ツール先端点の該ロボットベース座標系上の位置を
求め、対応する上記接触点の位置及び針状ツール先端の
位置よりロボット間の相対位置関係を求める複数台のロ
ボットの相対位置関係取得する。
According to the present invention, a force sensor and a planar tool having a surface whose shape is known are attached to the tip of one robot arm, and a needle-like tool is attached to the tip of the other robot arm. At three or more points that are not on the line, the tip of the needle-shaped tool is brought into point contact with the surface of the planar tool with a predetermined force, and the force component and torque component detected by the force sensor at each contact and one robot at that time The position of each contact point on the base coordinate system of the one robot is obtained from the posture of the robot, and the position of the tip end point of the needle-shaped tool of the other robot at the time of each contact is obtained on the robot base coordinate system. From the positions of the contact points and the tip of the needle-shaped tool, the relative positional relationship between the plurality of robots is obtained, which is the relative positional relationship between the robots.

【0005】[0005]

【作用】面状ツールに針状ツールの先端を所定の力で接
触させたとき、上記力覚センサで検出される力成分とト
ルク成分より面状ツールの表面における接触点の位置が
わかる。そして、一方のロボットのその時の姿勢より、
該ロボットのベース座標系上の接触点の位置が求められ
る。一方、他方のロボットの該ロボットのベース座標系
上の針状ツール先端位置はロボットの姿勢より求めら
れ、面状ツールの接触点の位置と針状ツールの先端位置
は空間上同一位置であるから、針状ツールの先端位置に
他方のロボットのベース座標系を一方のロボットのベー
ス座標系に変換する同次変換行列をかけたものが、上記
一方のロボットのベース座標系上の接触点の位置とな
る。しかし、この同次変換行列は、座標系の回転と原点
平行移動量の6つの未知のパラメータを有している。そ
のため、同一直線上にない3点以上接触させることによ
って、1点につき3つで合計9以上の方程式を得ること
ができ、この内6つを選択して連立方程式を解くことに
よって、若しくは7つ以上の方程式を最小自乗法で解き
上記6つのパラメータは求めることができる。その結
果、上記同次変換行列が求まり、2つのロボットの位置
関係が求まる。このようにして順次複数のロボット間の
位置関係を求める。
When the tip of the needle-shaped tool is brought into contact with the planar tool with a predetermined force, the position of the contact point on the surface of the planar tool can be known from the force component and torque component detected by the force sensor. And from the posture of one robot at that time,
The position of the contact point on the base coordinate system of the robot is obtained. On the other hand, the needle-shaped tool tip position of the other robot on the base coordinate system of the robot is obtained from the robot posture, and the position of the contact point of the planar tool and the tip position of the needle-shaped tool are the same in space. , The position of the contact point on the base coordinate system of one of the robots is obtained by multiplying the tip position of the needle tool by the homogenous transformation matrix that transforms the base coordinate system of the other robot to the base coordinate system of the one robot. Becomes However, this homogeneous transformation matrix has six unknown parameters, which are the rotation of the coordinate system and the amount of translation of the origin. Therefore, a total of 9 or more equations can be obtained with 3 points per point by touching 3 or more points that are not on the same straight line, and 6 of these can be selected to solve simultaneous equations, or 7 The above six parameters can be obtained by solving the above equation by the method of least squares. As a result, the homogeneous transformation matrix is obtained, and the positional relationship between the two robots is obtained. In this way, the positional relationship between the plurality of robots is sequentially obtained.

【0006】[0006]

【実施例】図は本発明の一実施例の概要図で、本実施例
では2台のロボツト(6自由度のロボット)A,Bで共
同作業を行うものとして、これら2つのロボットA,B
の相対位置関係取得方式について述べる。まず、一方の
ロボットAのアーム先端に、直交するX,Y,Z軸方向
の各力及びこれら各軸回りの力を検出できる力覚センサ
(6軸センサ)3を取り付けると共に、該力覚センサ3
上に形状が既知の面を有するツール(以下面状ツールと
いう)4を取り付ける。この実施例においては、上記面
上ツールの既知の面を平面としている。他方のロボット
Bのアーム先端には、上記面状ツール4の平面に点接触
できる針状ツール5を取り付ける。そして、針状ツール
5を面状ツール4に接触させ、接点における力が一定で
静止状態になったときの各ロボット姿勢及び力覚センサ
3で測定される測定値よりロボットA,Bの位置関係を
求めるものである。なお、図中1aはロボットAの制御
装置、1bはロボットBの制御装置、2は各制御装置1
a,1bが接続されたホストコンピュータである。
1 is a schematic view of one embodiment of the present invention. In this embodiment, two robots (robots with 6 degrees of freedom) A and B are assumed to perform joint work, and these two robots A and B are used.
The relative position relation acquisition method of is described. First, a force sensor (six-axis sensor) 3 that can detect forces in the X, Y, and Z directions orthogonal to each other and forces around these axes is attached to the arm tip of one robot A, and the force sensor is also attached. Three
A tool (hereinafter referred to as a planar tool) 4 having a surface whose shape is known is attached to the top. In this embodiment, the known surface of the above surface tool is a plane. A needle-shaped tool 5 capable of making point contact with the plane of the planar tool 4 is attached to the arm tip of the other robot B. Then, the positional relationship between the robots A and B is determined based on the postures of the robots and the measurement values measured by the force sensor 3 when the needle-shaped tool 5 is brought into contact with the planar tool 4 and the force at the contact point is constant and is in a stationary state. Is to seek. In the figure, 1a is a control device for the robot A, 1b is a control device for the robot B, and 2 is each control device 1.
It is a host computer to which a and 1b are connected.

【0007】そこで、ロボットAのベース座標系を
ΣA 、ロボットBのベース座標系をΣB 、ロボットAの
ツール取り付け面のフェースプレート座標系をΣFA、ロ
ボットBのツール取り付け面のフェースプレート座標系
をΣFB、力覚センサ座標系をΣS とするまた、ロボット
Aの関節変位を表すベクトルをθA 、ロボットBの関節
変位を表すベクトルをθB とする。本実施例ではロボッ
トを6関節としているので、各ベクトルθA ,θB は各
関節変位θ1〜θ6の6行1列の行列で表される。ま
た、ロボットAの関節変位がベクトルθAの位置のとき
のロボットAのフェースプレート座標系ΣFAをロボット
Aのベース座標系ΣA で表した4行4列の同次変換行列
AFA(θA )とする。同様に、ロボットBの関節変
位がベクトルθB の位置のときのロボットBのフェース
プレート座標系ΣFBをロボットBのベース座標系ΣB
表した4行4列の同次変換行列を BFB(θB )とす
る。さらに、力覚センサ座標系ΣS をロボットAのフェ
ースプレート座標系ΣFAで表した4行4列の同次変換行
列をFAS とする。
Therefore, the base coordinate system of the robot A is Σ A , the base coordinate system of the robot B is Σ B , the face plate coordinate system of the tool mounting surface of the robot A is Σ FA , and the face plate coordinate of the tool mounting surface of the robot B is Σ FA . Let the system be Σ FB , the force sensor coordinate system be Σ S , the vector representing the joint displacement of the robot A be θ A , and the vector representing the joint displacement of the robot B be θ B. Since the robot has six joints in the present embodiment, each vector θ A , θ B is represented by a matrix of 6 rows and 1 column of each joint displacement θ1 to θ6. The robot A of the joint displacement of the robot A when the position of the vector theta A face plate coordinate system sigma FA to A T FA of the homogeneous transformation matrix of 4 rows and 4 columns expressed in the base coordinate system sigma A robot A (Θ A ). Similarly, the face plate coordinate system sigma FB the base coordinate system sigma B T four rows and four columns of the transformation matrix expressed in B Robot B Robot B when the joint displacement position of the vector theta B of the robot B FBB ) Furthermore, the homogenous transformation matrix of 4 rows and 4 columns in which the force sensor coordinate system Σ S is represented by the face plate coordinate system Σ FA of the robot A is FA T S.

【0008】なお、行列の左上につけた添字はその変数
が表される座標系を意味する。すなわち、例えば上記同
次変換行列FAS は力覚センサ座標系ΣS で表された位
置をフェースプレート座標系ΣFAに変換する行列を意味
する。
The subscript added to the upper left of the matrix means the coordinate system in which the variable is represented. That is, for example, the homogenous conversion matrix FA T S means a matrix for converting the position represented by the force sensor coordinate system Σ S into the face plate coordinate system Σ FA .

【0009】そこで、力覚センサ座標系ΣS で表した面
状ツール4の平面の方程式を次の第1式とする。すなわ
ち、面状ツール4を作成するときに次の第1式が成立す
るように該面状ツール4を作成する。 ST Sx− S0 )=0 …(1) ただし、 Snは平面の法線ベクトルで次の第2式で表さ
れる。 Sn=[nx ,ny ,nz T …(2) なお、nx ,ny ,nz は、法線ベクトル SnのX,
Y,Z軸成分である。また、 S0 は平面上の任意の点
で次の第3式で表される。
Therefore, the equation of the plane of the planar tool 4 represented by the force sensor coordinate system Σ S is defined as the following first equation. That is, when the planar tool 4 is created, the planar tool 4 is created so that the following first expression is satisfied. S n T (S x- S x 0) = 0 ... (1) However, S n is represented by a second equation follows by the normal vector of the plane. S n = [n x , n y , n z ] T (2) Note that n x , n y , and n z are X of the normal vector S n,
These are Y and Z axis components. S x 0 is an arbitrary point on the plane and is represented by the following third equation.

【0010】 S0 =[x0 ,y0 ,z0 ]T …(3) なお、x0 ,y0 ,z0 は力覚センサ座標系ΣS におけ
る平面上の点の座標位置である。また、行列またはベク
トルの右上の添字Tは転置を表すものである。
S x 0 = [x0, y0, z0] T (3) where x0, y0, z0 are coordinate positions of points on a plane in the force sensor coordinate system Σ S. The subscript T at the upper right of the matrix or vector represents transposition.

【0011】次に、2台のロボットA,Bにより、面状
ツール4の面に針状ツール5の先端を点接触させ、一定
の力で静的な点接触状態が確立したときの力覚センサ3
で測定された力の成分が Sf(この力成分もベクトルで
ある)、トルク成分が Sτ(このトルク成分もベクトル
である)であるとすると、点接触状態では力点にトルク
は発生しないので、トルク成分 Sτは力覚センサ座標系
ΣS で表した力点を SP(ベクトル)とすると次の第
4式で表される。
Next, the two robots A and B bring the tip of the needle-shaped tool 5 into point contact with the surface of the surface-shaped tool 4, and a force sensation when a static point contact state is established with a constant force. Sensor 3
If the force component measured in S is S f (this force component is also a vector) and the torque component is S τ (this torque component is also a vector), no torque is generated at the force point in the point contact state. , And the torque component S τ is expressed by the following fourth equation, where S P (vector) is the force point expressed in the force sensor coordinate system Σ S.

【0012】 S τ= SP× Sf …(4) なお、上記第4式の右辺は外積である。 S τ = S P × S f (4) Note that the right side of the above fourth equation is an outer product.

【0013】ここで上記第4式の SPを Sxと置き換え
ると、次の第5式となり、この第5式は力点を通る直線
の方程式を意味する。
When S P in the above-mentioned fourth equation is replaced with S x, the following fifth equation is obtained, and this fifth equation means a straight line equation passing through the force point.

【0014】 S τ= Sx× Sf …(5) そこで、上記第5式と第1式を連立させて解くと力点 S
P(力覚センサ座標系ΣS 上の位置)が求まる。その結
果、この力点をロボットAのベース座標系ΣA で表した
ベクトルを APとすると、ベクトル APは次の第6式を
演算することによって求まる。
S τ = S x × S f (5) Therefore, if the above equations 5 and 1 are simultaneously solved to solve, the force point S
P (position on the force sensor coordinate system Σ S ) is obtained. As a result, if the vector representing this force point in the base coordinate system Σ A of the robot A is A P, the vector A P can be obtained by calculating the following sixth equation.

【0015】 A P= AFA(θA FAS SP …(6) 一方、針状ツール5を持つロボットBで、ツール先端を
ロボットBのフェースプレート座標系をΣFBで表した位
置(ベクトル)をFBrとすると、該位置をロボットBの
ベース座標系をΣB で表した位置(ベクトル) BPは次
の第7式によって得られる。なお、4行4列の同時変換
行列と位置ベクトルとの積を求めるときには、位置ベク
トルに「1」を第4の要素として加えて4行1列の列ベ
クトルとする。
A P = A T FAA ) FA T S S P (6) On the other hand, in the robot B having the needle-shaped tool 5, the tool tip is represented by Σ FB in the face plate coordinate system of the robot B. When the position (vector) is FB r, the position (vector) B P in which the position is represented by Σ B in the base coordinate system of the robot B is obtained by the following seventh formula. When the product of the simultaneous transformation matrix of 4 rows and 4 columns and the position vector is obtained, “1” is added to the position vector as a fourth element to form a column vector of 4 rows and 1 column.

【0016】 B P= BFB(θB FBr …(7) ロボットAで求めた力点位置 APと、ロボットBで求め
た針状ツール先端位置BPは、空間上の同一位置である
から、ロボットAのベース座標系ΣA で表したロボット
Bのベース座標系ΣB の同次変換行列を AB とする
と、次の第8式が成立する。
B P = B T FBB ) FB r (7) The force point position A P obtained by the robot A and the needle tool tip position B P obtained by the robot B are at the same position in space. Therefore, if the homogeneous transformation matrix of the base coordinate system Σ B of the robot B represented by the base coordinate system Σ A of the robot A is AT B , the following Eq. 8 is established.

【0017】 A P= AB BP …(8) ロボットAのベース座標系ΣA に対してロボットBのベ
ース座標系ΣB が、Z軸回りにφ(ロール角)、この回
転した座標系のY軸回りにθ(ピッチ角)、さらにφ,
θ回転した座標系のX軸回りにψ(ヨー角)だけ回転し
たものであり、原点平行移動量が(xo ,yo ,zo )
とすると、上記同次変換行列を AB は、次の数式1で
表され、位置・姿勢を表す6つのパラメータ(変数)
φ,θ,ψ,xo ,yo ,zo を有する非線形な式であ
る。
[0017] A P = A T B B P ... (8) base coordinate system sigma B of the robot B to the base coordinate system sigma A robot A is the Z axis phi (roll angle), coordinates the rotation Around the Y axis of the system, θ (pitch angle), φ,
It is rotated by ψ (yaw angle) around the X axis of the coordinate system rotated by θ, and the origin translation amount is (xo, yo, zo)
When, the homogeneous transformation matrix A T B is represented by Equation 1, six parameters representing the position and orientation (variable)
It is a non-linear expression having φ, θ, ψ, xo, yo and zo.

【0018】[0018]

【数1】 なお、上記同次変換行列において、 Cr =cosφ,Sr =sinφ Cp =cosθ,Sp =sinθ Cy =cosψ,Sy =sinψ である。[Equation 1] In the above homogeneous transformation matrix, Cr = cosφ, Sr = sinφCp = cosθ, Sp = sinθCy = cosφ, Sy = sinφ.

【0019】そこで、面状ツール4と針状ツール3の接
触点を移動させて、同一直線上ではないm個(m≧3)
の力点 AP、及び針状ツール先端点 BPを各々求める
と、各点i(i=1,2,…m)において上記第8式よ
り次の第9式が成立し、1つの力点に対して3つの方程
式が求まり、合計3m個の方程式が求まる。
Therefore, the contact points of the planar tool 4 and the needle-shaped tool 3 are moved so that they are not collinear (m ≧ 3).
When the force point A P and the needle-shaped tool tip point B P are obtained respectively, the following 9th equation is established from the 8th equation at each point i (i = 1, 2, ... On the other hand, three equations are obtained, and a total of 3m equations are obtained.

【0020】 A Pi= AB BPi …(9) よって、3m個の方程式より6つの方程式を適切に選び
連立方程式を解けば、、ロール角φ、ピッチ角θ、ヨー
角ψ、平行移動量の(xo ,yo ,zo )が求まり上記
同次変換行列 AB を求めることができ、ロボットAと
ロボットBの相対位置関係が求まる。
[0020] A Pi = A T B B Pi ... (9) Thus, ,, roll angle is solved properly select the system of equations six equations than 3m number of equations φ, pitch angle θ, the yaw angle ψ, parallel movement the amount of (xo, yo, zo) can be obtained is Motomari the homogeneous transformation matrix a T B, determined relative positional relationship between the robot a and the robot B is.

【0021】また、7つ以上の方程式を用いるときに
は、非線形方程式に対する最小自乗法を繰り返し計算す
ることによって最適解を数値的に求める。
When seven or more equations are used, the optimum solution is numerically obtained by repeatedly calculating the least squares method for the nonlinear equation.

【0022】図2,図4はロボットA,Bの相対位置関
係を求めるホストコンピュータの処理のフローチャート
である。図3はロボットAの制御装置1aの処理のフロ
ーチャートである。まず、ホストコンピュータ2には、
面状ツール4の平面の第1式で示す方程式、ロボットA
のフェースプレート座標系ΣFAをロボットAの各関節位
置θA の関数としてロボットAのベース座標系ΣA で表
した同次変換行列 AFA(θA )、ロボットBのフェー
スプレート座標系ΣFBをロボットBの各関節位置θB
関数としてロボットBのベース座標系ΣB で表した同次
変換行列 BFB(θB )、力覚センサ座標系ΣS をロボ
ットAのフェースプレート座標系ΣFAで表した同次変換
行列FAS 、及び針状ツール5の先端をロボットBのフ
ェースプレート座標系ΣFBで表した位置(ベクトル)FB
rを予め設定しておく。
2 and 4 are flowcharts of the processing of the host computer for obtaining the relative positional relationship between the robots A and B. FIG. 3 is a flowchart of the process of the control device 1a of the robot A. First, in the host computer 2,
The equation shown in the first equation of the plane of the planar tool 4, the robot A
Of the face plate coordinate system sigma FA a homogeneous transformation matrix A T FA expressed in the base coordinate system sigma A robot A as a function of the joints positions θA of the robot A (theta A), the face plate coordinate system of the robot B sigma FB Is a function of each joint position θ B of the robot B in the base coordinate system Σ B of the robot B, the homogeneous transformation matrix B T FBB ), and the force sensor coordinate system Σ S is the face plate coordinate system of the robot A. Homogeneous transformation matrix FA T S represented by Σ FA , and the position of the tip of needle-shaped tool 5 in robot B face plate coordinate system Σ FB (vector) FB
r is set in advance.

【0023】そこで、力覚センサ3及び面状ツール4を
装着したロボットAと針状ツール5を装着したロボット
Bを手動で移動させ、面状ツール4の中心位置近傍に針
状ツール5を位置付ける。そして、ホストコンピュータ
2に位置取得指令を入力すると、ホストコンピュータ2
は、まず、図2にフローチャートで示す処理を開始し、
ロボットA,Bに対して位置取得指令を出力し(ステッ
プ101)、ロボットBの制御装置1bから送られてく
るロボットの姿勢θB (各関節位置θ1〜θ6)を読み
取り指標iで示されるアドレスiに記憶する(ステップ
102)。なお、指標iは電源投入時の初期設定で
「0」に初めは設定されている。そして、ロボットAの
制御装置1aから位置取得完了信号と共にロボットAの
姿勢θA (各関節位置θ1〜θ6)、及び力覚センサ4
で検出した力成分f、トルク成分τが送られてくるのを
待つ(ステップ103)。
Then, the robot A equipped with the force sensor 3 and the planar tool 4 and the robot B equipped with the needle-shaped tool 5 are manually moved to position the needle-shaped tool 5 near the center position of the planar tool 4. .. When a position acquisition command is input to the host computer 2, the host computer 2
First starts the process shown in the flowchart of FIG.
A position acquisition command is output to the robots A and B (step 101), and the posture θ B (each joint position θ1 to θ6) of the robot sent from the controller 1b of the robot B is read and the address indicated by the index i is read. It is stored in i (step 102). The index i is initially set to "0" in the initial setting when the power is turned on. Then, together with the position acquisition completion signal from the control device 1a of the robot A, the posture A of the robot A (each joint position θ1 to θ6) and the force sensor 4 are detected.
It waits for the force component f and the torque component τ detected in step 3 to be sent (step 103).

【0024】一方、ロボットAの制御装置1aは、位置
取得指令を受信すると図3にフローチャートで示す処理
を実施し、まず、面状ツール4の法線方向にロボットA
を移動させ(ステップ201)、力覚センサ3で検出さ
れる力成分fが設定値以上になっているか否か判断し、
設定値以上になっていれば、ロボットAの移動を停止さ
せ、タイマをリセットしてスタートさせる(ステップ2
02〜204)。該タイマーが設定時間を計時すると
(ステップ205)、力覚センサ3で検出される力成分
fが設定値以上か否か判断しする(ステップ206)。
すなわち、ロボットA,Bが静止した状態で所定の力で
点接触しているか否かステップ202〜206の処理で
判断する。ステップ206で設定値以上の力を検出しな
ければ再びステップ201に戻り上記処理を繰り返す。
On the other hand, when the controller 1a of the robot A receives the position acquisition command, it executes the process shown in the flowchart of FIG. 3, and first, the robot A is moved in the normal direction of the planar tool 4.
Is moved (step 201), it is determined whether the force component f detected by the force sensor 3 is equal to or more than a set value,
If it is equal to or more than the set value, the movement of the robot A is stopped, the timer is reset and started (step 2).
02-204). When the timer measures the set time (step 205), it is determined whether the force component f detected by the force sensor 3 is equal to or more than the set value (step 206).
That is, it is determined in the processing of steps 202 to 206 whether or not the robots A and B are stationary and are in point contact with a predetermined force. If no force equal to or greater than the set value is detected in step 206, the process returns to step 201 and the above process is repeated.

【0025】そして、ステップ206で設定値以上の力
で、面状ツール4と針状ツール5が静的に点接触してい
ることが検出されると、位置取得完了信号と共にその時
のロボットAの姿勢θA (θ1〜θ6)、力覚センサ3
で測定された力成分fおよびトルク成分τをホストコン
ピュータ2に送信する(ステップ207)。 再び図2
に戻り、ホストコンピュータ2は位置取得完了信号と共
に、ロボットAの姿勢θA (θ1〜θ6)、力成分fお
よびトルク成分τを受信すると(ステップ103)、指
標iで示されるアドレスiにこのデータθA ,f,τを
記憶し(ステップ104)、指標iを「1」インクリメ
ントし(ステップ105)、i個の位置取得完了を表示
装置に表示する(ステップ106)。
Then, when it is detected in step 206 that the planar tool 4 and the needle-shaped tool 5 are statically in point contact with each other with a force equal to or greater than the set value, the position acquisition completion signal and the robot A at that time are detected. Posture θ A (θ1 to θ6), force sensor 3
The force component f and the torque component τ measured in 3 are transmitted to the host computer 2 (step 207). Figure 2 again
When the host computer 2 receives the position acquisition completion signal and the posture θ A (θ1 to θ6) of the robot A, the force component f and the torque component τ (step 103), the data is stored in the address i indicated by the index i. [theta] A , f, [tau] are stored (step 104), the index i is incremented by "1" (step 105), and i position acquisition completion is displayed on the display device (step 106).

【0026】こうして、面上ツール4と針状ツール5の
点接触位置が検出されると、ロボットA,Bを手動で移
動させ、前述したように、面状ツール4の中心位置近傍
に針状ツール5を位置付ける。そして、再びホストコン
ピュータ2に位置取得指令を入力し、ホストコンピュー
タ2及びロホボットAの制御装置1aに図2及び図3の
処理を実行させ、メモリのアドレスi(この場合i=
1)にデータθB ,θA ,f,τを記憶する。こうして
位置取得が終わると、再びロボットA,Bを手動で移動
させ、前述したように、面状ツール4の中心位置近傍に
針状ツール5を位置付ける。なお、この時、面状ツール
4と針状ツール5の接触点が空間上の同一線上にないよ
うにロボットA,Bを位置付ける。そして、位置取得指
令を入力し図2,図3の処理を実行させる。
In this way, when the point contact position between the planar tool 4 and the needle-shaped tool 5 is detected, the robots A and B are manually moved, and as described above, the needle-shaped tool 4 is placed near the center position of the planar tool 4. Position the tool 5. Then, the position acquisition command is input to the host computer 2 again, and the host computer 2 and the control device 1a of the Rhobotot A are caused to execute the processing of FIGS.
The data θ B , θ A , f, τ are stored in 1). When the position acquisition is completed in this way, the robots A and B are manually moved again to position the needle-shaped tool 5 in the vicinity of the central position of the planar tool 4, as described above. At this time, the robots A and B are positioned so that the contact points between the planar tool 4 and the needle tool 5 are not on the same line in space. Then, the position acquisition command is input and the processing of FIGS. 2 and 3 is executed.

【0027】指標iが「3」以上に達し、3点の接触点
が検出されたことが表示されると(なお、本実施例では
3点を求めて相対位置関係を求めるようにしている)、
オペレータはホストコンピュータ2に相対関係位置取得
指令を入力し、図4に示す処理を開始させる。ホストコ
ンピュータ2は、まず、指標iを「0」にセットし(ス
テップ301)、該指標iで示されるアドレスiに記憶
するロボットBの姿勢θB iより上記第7式の演算を行
って、針状ツール先端の位置 BPiを求める(ステップ
302)。またアドレスiに記憶する力成分f及びトル
ク成分τを読み出し、設定されている面状ツールの平面
の方程式、すなわち第1式と第5式との連立方程式を解
きi番目の力点位置 SPiを求める(ステップ30
3)。次に、この求められた力点 SPiとロボットの姿
勢θA iより第6式の演算を行ってロボットAのベース
座標系状の力点(接触点)の位置 APiを求める(ステ
ップ304)。その後、指標iを「1」インクリメント
し、が指標iが「3」に達するまでステップ302〜3
06の処理を繰り返し、3つの力点(接触点)のロボッ
トBのベース座標形状における針状ツール先端位置 B
0〜 BP2 及びロボットAのベース座標系上における位
AP0 〜 AP2 を求める。次に、求められた対応する
3つの位置 AP0 〜 AP2 , BP0 〜 BP2 より夫々第
9式の関係式を求め、得られる9つの方程式より6つを
選択して変換行列 AB のパラメータφ,θ,ψ,xo
,yo ,zo を求め変換行列 AB を求め(ステップ
S307)、この相対位置取得処理を終了する。
When it is displayed that the index i has reached "3" or more and three contact points have been detected (in this embodiment, the relative positional relationship is determined by finding three points). ,
The operator inputs a relative position acquisition command to the host computer 2 to start the processing shown in FIG. The host computer 2 first sets the index i to "0" (step 301), and calculates the above-mentioned equation 7 from the posture θ B i of the robot B stored at the address i indicated by the index i, The position B Pi of the tip of the needle-shaped tool is obtained (step 302). Further, the force component f and the torque component τ stored in the address i are read out, and the set equation of the plane of the planar tool, that is, the simultaneous equations of the first and fifth equations are solved, and the i-th force point position S Pi is determined. Ask (Step 30)
3). Next, the position A Pi of the force point (contact point) in the base coordinate system of the robot A is calculated by performing the operation of the sixth equation from the obtained force point S Pi and the posture θ A i of the robot (step 304). After that, the index i is incremented by “1”, and steps 302 to 3 are performed until the index i reaches “3”.
The processing of 06 is repeated, and the needle-shaped tool tip position B P in the base coordinate shape of the robot B at the three force points (contact points)
0 to B P2 and positions A P0 to A P2 of the robot A on the base coordinate system are obtained. Next, the relational expression of the ninth equation is obtained from the corresponding three determined positions A P0 to A P2 and B P0 to B P2, and six are selected from the obtained nine equations to select the transformation matrix A T B. Parameters φ, θ, ψ, xo
, Yo, it obtains a transformation matrix A T B seek zo (step S307), and ends the relative position acquisition process.

【0028】上記実施例では、ホストコンピュータ2に
よって相対位置関係、すなわち同次変換行列 AB を求
めるようにしたが、ロボット制御装置によって求めるよ
うにしてもよい。この場合には、ロボットA,B間を接
続し、ロボットAに位置取得指令を入力することによっ
て、ロボットAの制御装置1aのプロセッサによりステ
ップ102,及びステップ201〜207の処理をし
て、ロボットBの姿勢θB ,ロボットAの姿勢θA ,力
成分f,トルク成分τを求め、夫々記憶し、3つの接触
点を求めた後、ステップ301〜307の処理を実行す
るようにすればよい。
[0028] In the above embodiment, the relative positional relationship between the host computer 2, that is, was to obtain the homogeneous transformation matrix A T B, may be determined by the robot controller. In this case, by connecting the robots A and B and inputting a position acquisition command to the robot A, the processor of the control device 1a of the robot A performs the processes of step 102 and steps 201 to 207, The posture θ B of B , the posture θ A of robot A, the force component f, and the torque component τ are obtained and stored respectively, and three contact points are obtained, and then the processes of steps 301 to 307 may be executed. ..

【0029】また、3以上のロボットで共同作業を行う
ときも上述した方式で、各ロボット間の相対位置関係を
得るようにする。
Further, even when three or more robots perform joint work, the relative positional relationship between the robots is obtained by the above-mentioned method.

【0030】[0030]

【発明の効果】本発明は、面状のツールの加工精度、ツ
ールと力覚センサの取り付け精度さえ良くすれば、比較
的簡単な操作でロボット間の位置関係を取得することが
できる。
According to the present invention, the positional relationship between robots can be acquired by a relatively simple operation as long as the machining accuracy of the planar tool and the accuracy of mounting the tool and the force sensor are improved.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の一実施例の概要図である。FIG. 1 is a schematic diagram of an embodiment of the present invention.

【図2】同実施例におけるホストコンピュータの位置取
得処理のフローチャートである。
FIG. 2 is a flowchart of a position acquisition process of the host computer in the embodiment.

【図3】同実施例におけるロボットAの制御装置が実施
する位置取得処理のフローチャートである。
FIG. 3 is a flowchart of a position acquisition process executed by the control device of the robot A in the same embodiment.

【図4】同実施例におけるホストコンピュータの位置関
係取得処理のフローチャートである。
FIG. 4 is a flowchart of a positional relationship acquisition process of the host computer in the embodiment.

【符号の説明】[Explanation of symbols]

A,B ロボット 2 ホストコンピュータ 3 力覚センサ 4 面状ツール 5 針状ツール 1a,1b 制御装置 A, B robot 2 host computer 3 force sensor 4 planar tool 5 needle tool 1a, 1b control device

Claims (2)

【特許請求の範囲】[Claims] 【請求項1】 一方のロボットアーム先端に力覚センサ
及び形状が既知な面を有する面状ツールを取り付け、他
方のロボットアーム先端に針状ツールを取り付け、同一
直線上にない3点以上において上記針状ツール先端を上
記面状ツールの面に所定力で点接触させ、各接触時に上
記力覚センサで検出される力成分とトルク成分及びその
時の一方のロボットの姿勢より該一方のロボットのベー
ス座標系上における各接触点の位置を求め、また各接触
時の上記他方のロボットの針状ツール先端点の該ロボッ
トベース座標系上の位置を求め、対応する上記接触点の
位置及び針状ツール先端の位置よりロボット間の相対位
置関係を求める複数台のロボットの相対位置関係取得方
式。
1. A force sensor and a planar tool having a surface whose shape is known are attached to the tip of one robot arm, and a needle-like tool is attached to the tip of the other robot arm, and at three or more points that are not on the same line. The tip of the needle-shaped tool is brought into point contact with the surface of the planar tool with a predetermined force, and the force component and torque component detected by the force sensor at each contact and the posture of one robot at that time The position of each contact point on the coordinate system is obtained, and the position of the tip of the needle-shaped tool of the other robot at the time of each contact is obtained on the robot base coordinate system. A relative positional relationship acquisition method for multiple robots that determines the relative positional relationship between robots from the position of the tip.
【請求項2】 上記面上ツールの既知な面は平面である
請求項1記載の複数台のロボットの相対位置関係取得方
式。
2. The relative positional relationship acquisition method for a plurality of robots according to claim 1, wherein the known surface of the on-surface tool is a flat surface.
JP29950691A 1991-10-21 1991-10-21 Finding method of relative position relationship between plurality of robots Pending JPH05111897A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP29950691A JPH05111897A (en) 1991-10-21 1991-10-21 Finding method of relative position relationship between plurality of robots

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP29950691A JPH05111897A (en) 1991-10-21 1991-10-21 Finding method of relative position relationship between plurality of robots

Publications (1)

Publication Number Publication Date
JPH05111897A true JPH05111897A (en) 1993-05-07

Family

ID=17873468

Family Applications (1)

Application Number Title Priority Date Filing Date
JP29950691A Pending JPH05111897A (en) 1991-10-21 1991-10-21 Finding method of relative position relationship between plurality of robots

Country Status (1)

Country Link
JP (1) JPH05111897A (en)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2003039817A1 (en) * 2001-11-07 2003-05-15 Kawasaki Jukogyo Kabushiki Kaisha Robot collaboration control system
CN100415460C (en) * 2004-06-02 2008-09-03 发那科株式会社 Robot system
JP2008254097A (en) * 2007-04-03 2008-10-23 Denso Wave Inc Relative position calculating method between plurality of robots
WO2010091722A1 (en) * 2009-02-11 2010-08-19 Abb Research Ltd Dual arm robot
CN103302657A (en) * 2012-03-06 2013-09-18 株式会社捷太格特 Calibration method and calibration system for robot
JP2014012337A (en) * 2010-04-15 2014-01-23 Gm Global Technology Operations Inc Method and apparatus for calibrating multi-axis load cells in dexterous robot
JP2016103145A (en) * 2014-11-28 2016-06-02 ファナック株式会社 Numerical control machine tool capable of directly manually operating movable part
CN105729441A (en) * 2014-12-24 2016-07-06 精工爱普生株式会社 Robot, robot system, control apparatus, and control method
JP2020006445A (en) * 2018-07-02 2020-01-16 株式会社安川電機 Operation teaching device, robot system and operation teaching method
WO2022009765A1 (en) * 2020-07-08 2022-01-13 ファナック株式会社 Robot control device
WO2022071333A1 (en) * 2020-09-30 2022-04-07 ファナック株式会社 Device for acquiring positional relationship between robot and working machine, control device, system, method, and computer program

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2003039817A1 (en) * 2001-11-07 2003-05-15 Kawasaki Jukogyo Kabushiki Kaisha Robot collaboration control system
US7558646B2 (en) 2001-11-07 2009-07-07 Kawasaki Jukogyo Kabushiki Kaisha Cooperative control system of robots
CN100415460C (en) * 2004-06-02 2008-09-03 发那科株式会社 Robot system
JP2008254097A (en) * 2007-04-03 2008-10-23 Denso Wave Inc Relative position calculating method between plurality of robots
WO2010091722A1 (en) * 2009-02-11 2010-08-19 Abb Research Ltd Dual arm robot
JP2014012337A (en) * 2010-04-15 2014-01-23 Gm Global Technology Operations Inc Method and apparatus for calibrating multi-axis load cells in dexterous robot
CN103302657A (en) * 2012-03-06 2013-09-18 株式会社捷太格特 Calibration method and calibration system for robot
EP2636492A3 (en) * 2012-03-06 2014-04-02 Jtekt Corporation Calibration method and calibration system for robot
US9014853B2 (en) 2012-03-06 2015-04-21 Jtekt Corporation Calibration method and calibration system for robot
JP2016103145A (en) * 2014-11-28 2016-06-02 ファナック株式会社 Numerical control machine tool capable of directly manually operating movable part
CN105729441A (en) * 2014-12-24 2016-07-06 精工爱普生株式会社 Robot, robot system, control apparatus, and control method
JP2020006445A (en) * 2018-07-02 2020-01-16 株式会社安川電機 Operation teaching device, robot system and operation teaching method
US11123864B2 (en) 2018-07-02 2021-09-21 Kabushiki Kaisha Yaskawa Denki Motion teaching apparatus, robot system, and motion teaching method
WO2022009765A1 (en) * 2020-07-08 2022-01-13 ファナック株式会社 Robot control device
WO2022071333A1 (en) * 2020-09-30 2022-04-07 ファナック株式会社 Device for acquiring positional relationship between robot and working machine, control device, system, method, and computer program

Similar Documents

Publication Publication Date Title
Zhuang et al. Simultaneous robot/world and tool/flange calibration by solving homogeneous transformation equations of the form AX= YB
US9731419B2 (en) System and method for programming robots
US4698572A (en) Kinematic parameter identification for robotic manipulators
EP0188623B1 (en) Method for setting tool coordinate system
JP6815924B2 (en) Calibration device
EP0383944B1 (en) Action teaching method and control apparatus for a robot
JPH07311610A (en) Coordinate system setting method using visual sensor
CN106826769A (en) A kind of quick teaching apparatus of industrial robot and its implementation
JPH0553587B2 (en)
JPH05111897A (en) Finding method of relative position relationship between plurality of robots
JP6897396B2 (en) Control devices, robot systems and control methods
JP2017052015A (en) Control device, robot and robot system
JPH06131032A (en) Robot device and teaching method for robot device
JP2018043320A (en) Control device, robot, and robot system
JP2667153B2 (en) Direct teaching method for multiple arm device
CN112476435B (en) Calibration method and calibration device for gravity acceleration direction and storage medium
JPH10301609A (en) Position error detection method for robot and device therefor
CN110561387B (en) Method for determining a rotatable workpiece in an industrial robot system
JP3671694B2 (en) Robot teaching method and apparatus
JPH012104A (en) Robot positioning error correction method
JPH01121904A (en) Correcting method for positioning data
WO2023013699A1 (en) Robot control device, robot control system, and robot control method
KR100219841B1 (en) Automatic robot path generating method and apparatus thereof
JP2741518B2 (en) Work size inspection method
JPH0762613B2 (en) Object shape detection method