JP2023030396A - Direct teaching system, direct teaching program, and direct teaching method - Google Patents

Direct teaching system, direct teaching program, and direct teaching method Download PDF

Info

Publication number
JP2023030396A
JP2023030396A JP2021135497A JP2021135497A JP2023030396A JP 2023030396 A JP2023030396 A JP 2023030396A JP 2021135497 A JP2021135497 A JP 2021135497A JP 2021135497 A JP2021135497 A JP 2021135497A JP 2023030396 A JP2023030396 A JP 2023030396A
Authority
JP
Japan
Prior art keywords
work
orientation
robot
direct teaching
workpiece
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021135497A
Other languages
Japanese (ja)
Inventor
倫太郎 今井
Rintaro Imai
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tokiwa System Technologies Inc
Original Assignee
Tokiwa System Technologies Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tokiwa System Technologies Inc filed Critical Tokiwa System Technologies Inc
Priority to JP2021135497A priority Critical patent/JP2023030396A/en
Publication of JP2023030396A publication Critical patent/JP2023030396A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Numerical Control (AREA)
  • Manipulator (AREA)

Abstract

To provide a direct teaching system for directly teaching a plurality of cooperative motions, which can reduce time and labor of a teacher.SOLUTION: A direct teaching system 1 includes: a workpiece 4 supported by a plurality of robots 2; force sensors 3 attached respectively to the plurality of robots 2; and a controller 11 for cooperatively controlling the plurality of robots 2. The control unit 11 includes: a geometric constraint calculation unit 14 for calculating geometric constraint conditions 59 of the workpiece 4 and the robots 2; and a work motion/position/posture calculation unit 15 for calculating a motion 55 and a position and posture 56 of the workpiece 4 caused by an external force applied to the workpiece 4 by a teacher; and a target position/posture calculation unit 16 for calculating a target position and posture 58 of each robot 2 on the basis of the motion 55 and the position and posture 56 of the workpiece 4.SELECTED DRAWING: Figure 1

Description

本開示は、複数のロボットに協調動作を直接教示するための直接教示システム、直接教示プログラム、直接教示方法に関する。 The present disclosure relates to a direct teaching system, a direct teaching program, and a direct teaching method for directly teaching cooperative motions to a plurality of robots.

近年、教示者が産業用ロボットを手で直接動かし、ロボットに動作を教示する直接教示の技術が開発されている。 In recent years, direct teaching techniques have been developed in which a teacher directly moves an industrial robot by hand to teach the robot a motion.

ロボットに教示する動作には、単体ロボットが自由に目標位置へ移動する通常動作と、複数のロボットがツール間の位置関係を保ちつつ、つまり、幾何拘束条件下で目標位置へ移動する協調動作がある。特に、細長いワークや大きなワークを運搬する場合には、単体ロボットではワークを安定して運ぶことができないため、複数ロボットが連携しながら運ぶ協調動作が用いられる。 The motions taught to the robot include normal motions in which a single robot moves freely to a target position, and coordinated motions in which multiple robots move to a target position under geometric constraints while maintaining the positional relationship between tools. be. In particular, when transporting a long and narrow workpiece or a large workpiece, a single robot cannot stably transport the workpiece, so a coordinated movement of multiple robots is used.

一般的に、協調動作を直接教示する場合、ある特定のロボットを「リーダー」、それ以外を「フォロワー」とし、リーダーの動作に追従するようにフォロワーを動作させる方式が用いられる。例えば、特許文献1には、直接教示による外力を加えたロボットアーム10をマスター、もう一方のロボットアーム20をスレーブとし、マスター側の運動による軌道に基づいてスレーブ側の軌道を算出する直接教示方法が開示されている。 In general, when directly teaching cooperative motions, a method is used in which a specific robot is designated as a "leader" and other robots are designated as "followers", and the followers are moved so as to follow the leader's movement. For example, Patent Document 1 discloses a direct teaching method in which a robot arm 10 to which an external force is applied by direct teaching is used as a master, and the other robot arm 20 is used as a slave, and the trajectory of the slave side is calculated based on the trajectory of the movement of the master side. is disclosed.

特開2017-193011号公報JP 2017-193011 A 特開昭63-034609号公報JP-A-63-034609

しかし、引用文献1の方法によれば、リーダーに対して直接教示を行い、フォロワーを追従させているため、リーダーのセンサの測定値のみが反映されることとなり、フォロワーを細かく教示することが難しいという問題があった。特に、リーダーとフォロワーの距離が離れている場合、フォロワーのワーク位置を合わせるためにリーダーを精巧に教示する必要があり、教示者に多大な負担を強いることとなる。また、引用文献2の装置によれば、教示者がワークを移動させることにより、複腕の双方に直接教示を行うものの、ワークの重量および重力位置を推定できないため、ワークを変更する毎にワークに関する情報を設定し直さなければならず、手間がかかるという問題があった。 However, according to the method of Cited Document 1, since the leader is directly instructed and the follower follows, only the measurement value of the leader's sensor is reflected, and it is difficult to instruct the follower in detail. There was a problem. In particular, when the leader and the follower are far from each other, the leader needs to be elaborately taught in order to align the work position of the follower, which imposes a heavy burden on the instructor. Moreover, according to the apparatus of the cited document 2, the instructor moves the work to directly teach both of the multiple arms, but the weight and the gravitational position of the work cannot be estimated. There was a problem that it took time and effort to set the information related to

そこで、本開示の目的は、協調動作を直接教示する際にフォロワーを細かく教示する手間、および、ワークに関する情報を設定する手間を省き、教示者の負担を軽減できる直接教示システムを提供することにある。 Therefore, an object of the present disclosure is to provide a direct teaching system that can reduce the burden on the instructor by saving the trouble of finely instructing the follower and the trouble of setting information about the work when directly teaching the cooperative movement. be.

上記課題を解決するために、本開示の直接教示システムは、複数のロボットに直接教示を行う直接教示システムであって、複数のロボットに支持されたワークと、各々のロボットに装着された力覚センサと、複数のロボットを協調制御する制御手段と、を備え、制御手段が、力覚センサの初期測定値およびロボットの初期位置姿勢に基づいて、ワークの重量および重心位置を推定するワーク重量・重心位置推定手段と、力覚センサの測定値およびロボットの位置姿勢に基づいて、教示者がワークに付与した外力により生じたワークの運動および位置姿勢を算出するワーク運動・位置姿勢算出手段と、ワークの運動および位置姿勢に基づいて、ロボットの目標位置姿勢を算出する目標位置姿勢算出手段と、を含み、ワーク運動・位置姿勢算出手段は、推定されたワークの重量および重心位置を用いて、ワークの重力補償を行うことを特徴とする。 In order to solve the above problems, the direct teaching system of the present disclosure is a direct teaching system that directly teaches a plurality of robots. A work weight/weight system comprising sensors and control means for cooperatively controlling a plurality of robots, wherein the control means estimates the weight and center-of-gravity position of the work based on the initial measurement values of the force sensor and the initial position and orientation of the robot. center-of-gravity position estimation means; workpiece motion/position/orientation calculation means for calculating the movement and position/orientation of the workpiece caused by an external force applied to the workpiece by the instructor based on the measured values of the force sensor and the position and orientation of the robot; target position/posture calculation means for calculating a target position/posture of the robot based on the motion and position/posture of the work, wherein the work motion/position/posture calculation means uses the estimated weight and center of gravity position of the work to: It is characterized by performing gravity compensation of the work.

本開示の直接教示システムによれば、ワークの運動および位置姿勢に基づいて各々のロボットの目標位置姿勢を算出するため、教示者がワークを移動させることにより、ロボットに協調動作を教示できる。また、ワークの重量および重心位置を推定するため、ワークの重量や重心位置の実測値を設定する手間を省くことができる。このように、教示者の負担を軽減することが可能となる。 According to the direct teaching system of the present disclosure, since the target position/posture of each robot is calculated based on the motion and position/posture of the work, the instructor can teach the robot a cooperative motion by moving the work. In addition, since the weight and center-of-gravity position of the work are estimated, it is possible to save the trouble of setting actual measurement values for the weight and the center-of-gravity position of the work. In this way, it is possible to reduce the burden on the teacher.

本開示の一実施形態を示す直接教示システムの概念図である。1 is a conceptual diagram of a direct teaching system showing an embodiment of the present disclosure; FIG. 制御部の構成を示すブロック図である。3 is a block diagram showing the configuration of a control unit; FIG. 直接教示システムで用いる座標系の説明図である。FIG. 4 is an explanatory diagram of a coordinate system used in the direct teaching system; 教示者がワークに外力を加えたときのロボットの動作を示す模式図である。FIG. 5 is a schematic diagram showing the motion of the robot when the teacher applies an external force to the work; (a)幾何的な量、(b)ワークにかかる外力を示す模式図である。FIG. 4 is a schematic diagram showing (a) geometric quantity and (b) external force applied to a work. 直接教示システムの動作の流れを示すフローチャートである。4 is a flow chart showing the operation flow of the direct teaching system;

以下、本開示を直接教示システムに具体化した一実施形態を図面に基づいて説明する。以下の説明では、複数台のロボットに1~nの番号を付与し、添え字i(i:1~n)を用いて表記する。 An embodiment in which the present disclosure is embodied in a direct teaching system will be described below with reference to the drawings. In the following description, a number from 1 to n is assigned to a plurality of robots, and a suffix i (i: 1 to n) is used.

図1に示すように、本開示の直接教示システム1は、複数台のロボット2と、複数台のロボット2を協調制御するロボットコントローラ5と、ロボット2のフランジ21およびツール22の間に装着された力覚センサ3と、複数のロボット2全てにより支持された1つのワーク4と、演算処理用のPC6を備えている。ここで、ツール22とは、ワーク4等の対象物に所定の処理を行うロボット2の部品を示す。 As shown in FIG. 1, the direct teaching system 1 of the present disclosure is mounted between a plurality of robots 2, a robot controller 5 that cooperatively controls the plurality of robots 2, a flange 21 of the robot 2, and a tool 22. A force sensor 3, one workpiece 4 supported by all of the plurality of robots 2, and a PC 6 for arithmetic processing are provided. Here, the tool 22 indicates a part of the robot 2 that performs a predetermined process on an object such as the work 4 or the like.

ロボット2を協調制御する制御部11は、ロボット2のロボットコントローラ5およびPC6に、プログラムとして実装される。なお、この実施例では、制御部11の機能をロボットコントローラ5およびPC6に分散させているが、制御部11の機能をロボットコントローラ5に搭載し、PC6を不要とすることも可能である。 A control unit 11 that cooperatively controls the robot 2 is implemented as a program in the robot controller 5 and the PC 6 of the robot 2 . Although the functions of the control unit 11 are distributed to the robot controller 5 and the PC 6 in this embodiment, it is also possible to mount the functions of the control unit 11 on the robot controller 5 and eliminate the need for the PC 6 .

図2に示すように、制御部11は、キャリブレーションに基づいて、各力覚センサ3iの測定値51iを、ツール先端22aiにかかる外力を示す較正値52iに変換する測定値変換部12と、ワーク4の重量および重心位置を推定するワーク重量・重心位置推定部13と、ワーク4と各ロボット2iの各々の幾何拘束条件59iを算出する幾何拘束条件算出部14と、教示者がワーク4に付与した外力により生じたワーク4の運動55および位置姿勢56を算出するワーク運動・位置姿勢算出部15と、ロボット2の目標位置姿勢58を算出する目標位置姿勢算出部16を備える。以下、制御部11の各機能(12~16)について説明する。 As shown in FIG. 2, the control unit 11 includes a measurement value conversion unit 12 that converts a measurement value 51i of each force sensor 3i into a calibrated value 52i representing an external force applied to the tool tip 22ai based on calibration; Work weight/center of gravity position estimator 13 for estimating weight and center of gravity position of work 4; A workpiece motion/position/orientation calculator 15 for calculating a motion 55 and a position/orientation 56 of the workpiece 4 caused by the applied external force, and a target position/orientation calculator 16 for calculating a target position/orientation 58 of the robot 2 are provided. Each function (12 to 16) of the control unit 11 will be described below.

ここで、本開示における数学的準備について説明する。3次元ベクトル a とベクトル b の内積を <a, b> 、クロス積を a×b と表し、ベクトル a の反対称化行列を式1のように定義する。正方行列 X に対する行列指数関数は、式2のように定義する。 We now describe the mathematical preparations in this disclosure. Let <a, b> be the inner product of three-dimensional vector a and vector b, and a×b be the cross product. A matrix exponential function for a square matrix X is defined as Equation 2.

Figure 2023030396000002
Figure 2023030396000002

Figure 2023030396000003
Figure 2023030396000003

図3に示すように、本開示において使用する座標系Cは、フランジ21を基準とするフランジ座標系Cf(原点Of)、ツール先端位置22aを原点Oeとするツール座標系Ce、および、ロボット2全てに共通する点を原点Owとするワールド座標系Cwである。各ロボット2iについて、フランジ座標系Cfiおよびツール座標系Ceiが設けられ、全てのロボット2に共通して、ワールド座標系Cwが設けられる。また、本開示において、「ロボット2の位置姿勢57」とは、実際には、フランジ21の位置姿勢、つまり、フランジ座標系Cfの位置姿勢である。 As shown in FIG. 3, the coordinate system C used in the present disclosure includes a flange coordinate system Cf (origin Of) based on the flange 21, a tool coordinate system Ce with the tool tip position 22a as the origin Oe, and a robot 2 A world coordinate system Cw having a point common to all as an origin Ow. A flange coordinate system Cfi and a tool coordinate system Cei are provided for each robot 2i, and a world coordinate system Cw is provided for all the robots 2 in common. In addition, in the present disclosure, “the position and orientation 57 of the robot 2” is actually the position and orientation of the flange 21, that is, the position and orientation of the flange coordinate system Cf.

「位置」は、3次元空間上のある一点であり、3次元ベクトルで表される。「姿勢」は、3次元的な傾きであり、3行3列の回転行列として表される。姿勢 R と位置 t のペア (R; t) は、式3の同次変換行列を意味する。 A "position" is a point in a three-dimensional space and is represented by a three-dimensional vector. The “attitude” is a three-dimensional tilt and is represented as a rotation matrix of 3 rows and 3 columns. The pair of pose R and position t (R; t) means the homogeneous transformation matrix of Eq.

Figure 2023030396000004
Figure 2023030396000004

また、 (R; t) をアフィン変換とみなし、点 p に対する作用を式4のように表す。 Also, (R; t) is regarded as an affine transformation, and the action on the point p is expressed as Equation 4.

Figure 2023030396000005
Figure 2023030396000005

(測定値変換部)
測定値変換部12は、キャリブレーションに基づいて、各力覚センサ3iの測定値51iを、ツール先端22aiにかかる外力を示す較正値52iに変換し、さらに、較正値52iを各ツール座標系Ceiからワールド座標系Cwに座標変換した変換値53iを算出する。
(measured value converter)
Based on the calibration, the measured value conversion unit 12 converts the measured value 51i of each force sensor 3i into a calibrated value 52i representing the external force applied to the tip end 22ai of the tool, and converts the calibrated value 52i into each tool coordinate system Cei to the world coordinate system Cw to calculate a transformed value 53i.

力覚センサ3の測定値51である並進力 F(Fx, Fy, Fz) およびモーメント M(Mx, My, Mz) は、力覚センサ3の基準点Ofにおける外力(並進力およびモーメント)を測定したものであって、ツール先端位置22aにおける外力を測定したものではない。このため、キャリブレーションに基づいて、測定値51を、ツール先端22aにかかる外力を示す較正値52に変換することにより、力覚センサやツールの取り付け状態による誤差を補償し、より高精度な力制御を可能としている。以下、測定値変換部12の具体的な処理を説明する。 The translational force F(Fx, Fy, Fz) and the moment M(Mx, My, Mz), which are the measured values 51 of the force sensor 3, measure the external force (translational force and moment) at the reference point Of of the force sensor 3. However, the external force at the tool tip position 22a is not measured. Therefore, by converting the measured value 51 into a calibrated value 52 that indicates the external force applied to the tool tip 22a based on the calibration, errors caused by the force sensor and the mounting state of the tool are compensated for and a more accurate force can be obtained. It allows control. Specific processing of the measured value conversion unit 12 will be described below.

まず、フランジ座標系Cfiにおける各フランジ座標系Cfi(各ロボット2i)の位置姿勢57iを (Ri; ti) とし、フランジ座標系Cfiにおけるツール座標系Ceiの位置姿勢を (Ri;e; ti;e) とする。 First, let the position and orientation 57i of each flange coordinate system Cfi (each robot 2i) in the flange coordinate system Cfi be (R i ; t i ), and let the position and orientation of the tool coordinate system Cei in the flange coordinate system Cfi be (R i; e ; Let t i;e ).

力覚キャリブレーションで得られる重力方向の単位ベクトル ξi を平均化することで重力方向の単位ベクトル ξ を求める。つまり、式5を最大化する単位ベクトル ξ を推定すればよい。 The unit vector ξ in the direction of gravity is obtained by averaging the unit vectors ξ i in the direction of gravity obtained by haptic calibration. In other words, it suffices to estimate the unit vector ξ that maximizes Equation 5.

Figure 2023030396000006
Figure 2023030396000006

測定値変換部12は、力覚キャリブレーションに基づき、力覚センサ3iの測定値51i(並進力 Fi およびモーメント Mi )を、ツール先端22aにかかる外力を示す較正値52i(並進力Fe i およびモーメント Me i )へ変換する。測定値変換部12は、さらに、較正値52iを、ワールド座標系Cwに座標変換し、変換値53i(並進力Fw i およびモーメント Mw i )を得る(式6)。 Based on force calibration, the measurement value conversion unit 12 converts the measurement value 51i (translational force F i and moment M i ) of the force sensor 3i into a calibrated value 52i (translational force F e i and moments M e i ). The measured value conversion unit 12 further coordinates-transforms the calibrated value 52i into the world coordinate system Cw to obtain a transformed value 53i (translational force F wi and moment M wi ) (equation 6).

Figure 2023030396000007
Figure 2023030396000007

(ワーク重量・重心位置推定部)
ワーク重量・重心位置推定部13は、各力覚センサ3iの初期測定値51i0およびロボット2iの初期位置姿勢57i0に基づいて、ワーク4の重量および重心位置を推定する。
(workpiece weight/center of gravity position estimator)
The work weight/center-of-gravity position estimator 13 estimates the weight and center-of-gravity position of the work 4 based on the initial measured value 51i 0 of each force sensor 3i and the initial position/orientation 57i 0 of the robot 2i.

本開示においては、図4に示すように、ワーク4を仮想的な剛体とみなし、力覚センサ3で検知した外力は、ツール22を経由してワーク4に運動をもたらすと仮定している。そして、各ロボット2iはワーク4の運動に追従するものとする。これにより、リーダー/フォロワー型の場合と異なり、全ての力覚センサ3の測定値51iが協調動作に反映されるため、ワーク4が動かしやすくなり、直接教示の作業性が向上する。 In the present disclosure, as shown in FIG. 4, the work 4 is regarded as a virtual rigid body, and it is assumed that the external force detected by the force sensor 3 causes the work 4 to move via the tool 22. It is assumed that each robot 2i follows the movement of the workpiece 4. FIG. As a result, unlike the leader/follower type, the measured values 51i of all the force sensors 3 are reflected in the coordinated motion, making it easier to move the work 4 and improving the operability of direct teaching.

ところが、この仮定の下では、力覚センサ3iの測定値51iに、ワーク4の重量と重心位置に基づく並進力とモーメントが常に含まれるため、直接教示を開始するとワーク4が重力に沿って降下してしまうという問題がある。そこで、直接教示の開始前にワーク4の重量と重心位置を推定し、教示中は重力補償する対策を講じている。 However, under this assumption, the measured value 51i of the force sensor 3i always includes the translational force and moment based on the weight and the position of the center of gravity of the workpiece 4. Therefore, when direct teaching is started, the workpiece 4 descends along the gravity. There is a problem that Therefore, measures are taken to estimate the weight and center of gravity of the workpiece 4 before starting direct teaching, and compensate for the gravity during teaching.

図5に示すように、ワーク重量・重心位置推定13では、i番目のロボット2iについて、ワールド座標系Cwにおける各フランジ座標系Cfi(各ロボット2i)の初期位置姿勢57i0を (Ri;0; ti;0) とする。各力覚センサ3iの初期測定値51i0(並進力 Fi;0 およびモーメント Mi;0 )を取得し、測定値変換部12により、ワールド座標系Cwにおけるツール先端22aiにかかる初期外力を示す初期変換値53i0(並進力 Fw i;0 およびモーメント Mw i;0 )を求める。 As shown in FIG. 5, in the workpiece weight/center-of-gravity position estimation 13, for the i-th robot 2i, the initial position/orientation 57i 0 of each flange coordinate system Cfi (each robot 2i) in the world coordinate system Cw is set to (R i;0 ; t i;0 ). An initial measurement value 51i 0 (translational force F i;0 and moment M i;0 ) of each force sensor 3i is acquired, and the initial external force applied to the tool tip 22ai in the world coordinate system Cw is indicated by the measurement value conversion unit 12. Obtain an initial transformation value 53i 0 (translational force F w i;0 and moment M w i;0 ).

ワーク4にかかる初期外力540 (並進力 Fs 0 および重心周りのモーメント Ms 0) は、式7により与えられる。ここで、 m はワーク4の重量、th0はワールド座標系Cwにおけるワーク4の初期重心位置であり、どちらも未知数である。また、 g は重力加速度、 ui;0 は、ワールド座標系Cwにおけるツール先端22aiの初期位置である。 ui;0 は、式8のように表される。 An initial external force 54 0 (translational force F s 0 and moment M s 0 about the center of gravity) applied to the workpiece 4 is given by Equation (7). Here, m is the weight of the work 4 and th0 is the initial center of gravity position of the work 4 in the world coordinate system Cw, both of which are unknown. Also, g is the gravitational acceleration, and u i;0 is the initial position of the tool tip 22ai in the world coordinate system Cw. u i;0 is expressed as in Equation 8.

Figure 2023030396000008
Figure 2023030396000008

Figure 2023030396000009
Figure 2023030396000009

ここで、重力 m については、並進力 Fs 0 の釣り合いに関する誤差関数を式9により定義し、 E(m) を最小にする m を推定すればよい。重心位置 th0 については、モーメント Ms 0 の釣り合いに関する誤差関数を式10により定義し、 G(th0) を最小にする th0 を推定すればよい。以下、重心位置 th0 をワーク4の初期位置とし、ワーク4の初期姿勢 Rh0 は恒等行列とする。 Here, for the gravitational force m, an error function relating to the balance of the translational force F s 0 is defined by Equation 9, and m that minimizes E(m) can be estimated. For the center of gravity position t h0 , the error function for the balance of moment M s 0 is defined by Equation 10, and t h0 that minimizes G(t h0 ) can be estimated. Hereinafter, let the position of the center of gravity t h0 be the initial position of the work 4, and let the initial orientation R h0 of the work 4 be the identity matrix.

Figure 2023030396000010
Figure 2023030396000010

Figure 2023030396000011
Figure 2023030396000011

(幾何拘束条件算出部)
幾何拘束条件算出部14は、ワーク4の重心位置および各ロボット2iの初期位置姿勢58i0に基づいて、ワーク4と各ロボット2iの各々の幾何拘束条件59iを算出する。
(Geometric Constraint Calculator)
The geometric constraint condition calculator 14 calculates the geometric constraint conditions 59i of the work 4 and each robot 2i based on the position of the center of gravity of the work 4 and the initial position/orientation 58i 0 of each robot 2i.

ワーク4の位置姿勢を (Rh; th) としたとき、各フランジ座標系Cfi(各ロボット2i)の位置姿勢57i (Ri; ti) の幾何拘束条件は、式11のように表すことができる。このとき、ワーク4の速度ベクトル v および角速度ベクトル ω の初期値は 0 とする。 When the position and orientation of the workpiece 4 is (R h ; th ), the geometric constraint condition of the position and orientation 57i (R i ; t i ) of each flange coordinate system Cfi (each robot 2i) is expressed as shown in Equation 11. be able to. At this time, the initial values of the velocity vector v and the angular velocity vector ω of the workpiece 4 are set to zero.

Figure 2023030396000012
Figure 2023030396000012

(ワーク運動・位置姿勢算出部)
ワーク運動・位置姿勢算出15は、各力覚センサ3の測定値51iおよび各ロボット2iの位置姿勢57iに基づいて、教示者がワーク4に付与した外力により生じたワーク4の運動55およびワーク4の位置姿勢56を算出する。
(work motion/position/orientation calculator)
The work motion/position/orientation calculation 15 calculates the motion 55 of the work 4 caused by the external force applied to the work 4 by the teacher and the position and orientation of the work 4 based on the measured values 51i of each force sensor 3 and the position and orientation 57i of each robot 2i. is calculated.

ロボット2iについて、ワールド座標系Cwにおける各フランジ座標系Cfi(各ロボット2i)の現在の位置姿勢57iを (Ri; ti) とする。各力覚センサ3iの測定値51i(並進力 Fi とモーメント Mi )を取得し、測定値変換部12により、ワールド座標系Cwにおけるツール先端22aiにかかる外力を示す変換値53i(並進力 Fw i とモーメント Mw i )を求める。ワールド座標系Cwにおけるツール先端22aiの現在位置を ui とおく(式12)。 For the robot 2i, let (R i ; t i ) be the current position and orientation 57i of each flange coordinate system Cfi (each robot 2i) in the world coordinate system Cw. Measured values 51i (translational force F i and moment M i ) of each force sensor 3i are acquired, and the measured value conversion unit 12 converts values 53i (translational force F Find w i and moment M w i ). Let ui be the current position of the tool tip 22ai in the world coordinate system Cw (equation 12).

Figure 2023030396000013
Figure 2023030396000013

ワーク4にかかる外力54 (並進力 Fs およびモーメント Ms) は、式13により与えられる。式13では、ワーク重量 m およびワーク重心位置 th を用いた重力補償が行われている。ワーク4の加速度 α および角加速度 ψ を式14により計算する。 An external force 54 (translational force F s and moment M s ) applied to the workpiece 4 is given by Equation (13). In Equation 13, gravity compensation is performed using the workpiece weight m and the workpiece center-of-gravity position th . Acceleration α and angular acceleration ψ of workpiece 4 are calculated by equation (14).

Figure 2023030396000014
Figure 2023030396000014

Figure 2023030396000015
Figure 2023030396000015

ここで、λF と λM は、運動の鋭敏さに関する係数であり、それぞれ、仮想的な慣性質量と慣性モーメントを表している。これらの値が大きいほど、外力に対するワーク4の運動が大きくなる。また、 ρF と ρM は粘性係数であり、速度 v や角速度 ω に比例してワーク4を動きにくくすることで、外力を加えなければ徐々に減速する効果をもたらす。これらの係数は、実験的に決定される。 where λ F and λ M are the motion acuity coefficients representing the virtual inertial mass and moment of inertia, respectively. The greater these values, the greater the motion of the workpiece 4 against the external force. Also, ρ F and ρ M are viscosity coefficients, and by making it difficult to move the workpiece 4 in proportion to the velocity v and the angular velocity ω, the workpiece 4 is gradually decelerated unless an external force is applied. These coefficients are determined experimentally.

ワーク運動・位置姿勢算出部15は、ワーク4の運動55(速度 v 、角速度 ω )および位置姿勢56 (Rh; th) を、式15に基づいて算出する。 The work motion/position/orientation calculator 15 calculates the motion 55 (velocity v, angular velocity ω) and position/orientation 56 (R h ; th ) of the work 4 based on Equation (15).

Figure 2023030396000016
Figure 2023030396000016

式15において、 Δτ はサイクル処理の時間間隔である。また、 W := [ω]× である。 In Equation 15, Δτ is the time interval of the cycle process. Also, W := [ω] × .

(目標位置姿勢算出部)
目標位置姿勢算出部16は、ワーク4の運動55、ワークの位置姿勢56、各ロボット2iの位置姿勢57i、および、ワーク4と各ロボットについての幾何拘束条件59iに基づいて、各ロボット2iの目標位置姿勢58iを求める(式16)。
(Target position/orientation calculator)
The target position/orientation calculation unit 16 calculates the target of each robot 2i based on the motion 55 of the workpiece 4, the position/orientation 56 of the workpiece, the position/orientation 57i of each robot 2i, and the geometric constraint conditions 59i regarding the workpiece 4 and each robot. The position and orientation 58i are obtained (equation 16).

Figure 2023030396000017
Figure 2023030396000017

続いて、上記構成の直接教示システム1の動作、直接教示プログラムの動作、直接教示システム1を用いた直接教示方法について、図6に従って説明する。この動作および方法は、直接教示に入る前の準備として初期処理を行う初期処理S1と、教示者がワーク4を動かす間に、制御部11が、動作命令を所定の周期で発行するサイクル処理S2から構成される。 Next, the operation of the direct teaching system 1 configured as described above, the operation of the direct teaching program, and the direct teaching method using the direct teaching system 1 will be described with reference to FIG. This operation and method consist of initial processing S1 in which initial processing is performed as a preparation before starting direct teaching, and cycle processing S2 in which the control unit 11 issues an operation command at a predetermined cycle while the teacher moves the workpiece 4. consists of

初期処理S1では、まず、制御部11は、各フランジ座標系Cfi(各ロボット2i)の初期位置姿勢57i0と、各力覚センサ3iの初期測定値51i0を取得する(S11)。このとき、全てのロボット2は停止しており、全てのロボット2により把持された1つのワーク4は安定しているとする。次に、測定値変換部12は、キャリブレーションに基づいて、各力覚センサ3iの初期測定値51i0をツール先端22aiにおける初期外力を示す初期較正値52i0に変換し、初期較正値52i0をツール座標系Ceからワールド座標系Cwに座標変換して、初期変換値53i0を得る。 In the initial processing S1, the control unit 11 first acquires an initial position/orientation 57i 0 of each flange coordinate system Cfi (each robot 2i) and an initial measurement value 51i 0 of each force sensor 3i (S11). At this time, it is assumed that all the robots 2 are stopped and one workpiece 4 gripped by all the robots 2 is stable. Next, the measured value conversion unit 12 converts the initial measured value 51i 0 of each force sensor 3i into an initial calibrated value 52i 0 indicating the initial external force at the tip 22ai of the tool based on the calibration . is coordinate-transformed from the tool coordinate system Ce to the world coordinate system Cw to obtain an initial transformation value 53i 0 .

ワーク重量・重心位置推定部13は、初期変換値53i0を用いて、ワーク4の重量と重心位置を推定する(S12)。その後、幾何拘束条件算出部14は、推定したワーク4の重心位置を用いて、ワーク4と各フランジ21の幾何拘束条件59iを算出する(S13)。初期処理S1が終了した後、教示者は、ワーク4を手に持って、直接教示を開始する。 The work weight/center-of-gravity position estimation unit 13 estimates the weight and the position of the center-of-gravity position of the work 4 using the initial conversion value 53i 0 (S12). After that, the geometric constraint calculation unit 14 calculates the geometric constraint 59i between the workpiece 4 and each flange 21 using the estimated position of the center of gravity of the workpiece 4 (S13). After the initial processing S1 is finished, the teacher holds the work 4 in hand and starts direct teaching.

サイクル処理S2では、まず、制御部11は、各ロボット2iの現在の位置姿勢57iと、各力覚センサ3の現在の測定値51iを取得する(S21)。次に、測定値変換部12は、キャリブレーションに基づいて、各力覚センサ3iの測定値51iをツール先端22aiにおける較正値52iに変換し、較正値52iをツール座標系Ceからワールド座標系Cwに座標変換して、変換値53iを得る。その後、制御部11は、変換値53iを用いて、ワーク4にかかる外力54(並進力 Fs およびモーメント Ms )を算出する(S22)。 In the cycle process S2, first, the control unit 11 acquires the current position and orientation 57i of each robot 2i and the current measurement values 51i of each force sensor 3 (S21). Next, the measured value converter 12 converts the measured value 51i of each force sensor 3i into a calibrated value 52i at the tool tip 22ai based on the calibration, and converts the calibrated value 52i from the tool coordinate system Ce to the world coordinate system Cw. to obtain a transformed value 53i. After that, the control unit 11 uses the converted value 53i to calculate the external force 54 (translational force F s and moment M s ) applied to the workpiece 4 (S22).

続いて、ワーク運動・位置姿勢算出部15は、ワーク4にかかる外力54に基づいて、ワーク4の運動55およびワーク4の現在の位置姿勢56を算出する(S23)。目標位置姿勢算出部16は、ワークの運動55、ワーク4の現在の位置姿勢56、各ロボット2iの現在の位置姿勢57i、および、幾何拘束条件59iに基づいて、各ロボット2iの目標位置姿勢58iを算出する(S24)。最後に、制御部11は、目標位置姿勢58iに基づいて、各ロボット2iに動作命令を発行する(S25)。サイクル処理S2は、教示者がワーク4を移動させる間に、30Hz程度の周期で行うことが好ましい。 Subsequently, the work motion/position/orientation calculator 15 calculates the motion 55 of the work 4 and the current position/orientation 56 of the work 4 based on the external force 54 applied to the work 4 (S23). The target position/orientation calculator 16 calculates the target position/orientation 58i of each robot 2i based on the motion 55 of the work, the current position/orientation 56 of the work 4, the current position/orientation 57i of each robot 2i, and the geometric constraint conditions 59i. is calculated (S24). Finally, the control unit 11 issues an operation command to each robot 2i based on the target position/orientation 58i (S25). It is preferable that the cycle processing S2 is performed at a cycle of about 30 Hz while the teacher moves the workpiece 4 .

以上の構成の直接教示システム、該システムを用いた直接教示方法によれば、リーダー/フォロワー型を設定して直接教示した場合と異なり、全ての力覚センサが協調動作に反映されるため、ワークが動かしやすくなり、直接教示の作業性が向上する。 According to the direct teaching system configured as described above and the direct teaching method using the system, unlike the case where the leader/follower type is set and direct teaching is performed, all the force sensors are reflected in the coordinated motion. becomes easier to move, and the workability of direct teaching is improved.

また、この仮定の下では、力覚センサの測定値に、ワークの重量と重心位置に基づく並進力とモーメントが常に含まれるため、直接教示を開始するとワークが重力に沿って降下してしまうところ、直接教示の開始前にワークの重量と重心位置を推定し、教示中は重力補償する対策を講じたため、ワークの重量および重心位置を都度設定する必要がない。 In addition, under this assumption, the measured value of the force sensor always includes the translational force and moment based on the weight of the workpiece and the position of the center of gravity. , The weight and center of gravity position of the workpiece are estimated before starting direct teaching, and gravity compensation is taken during teaching, so there is no need to set the weight and center of gravity position of the workpiece each time.

その他、本開示は、上記実施形態に限定されるものではなく、発明の趣旨を逸脱しない範囲で、各部の構成を任意に変更して実施することも可能である。 In addition, the present disclosure is not limited to the above embodiments, and the configuration of each part can be arbitrarily changed without departing from the scope of the invention.

1 直接教示システム
2 ロボット
3 力覚センサ
4 ワーク
5 ロボットコントローラ
6 PC
11 制御部
12 測定値変換部
13 ワーク重量・重心位置推定部
14 幾何拘束条件算出部
15 ワーク運動・位置姿勢算出部
16 目標位置姿勢算出部
21 フランジ
22 ツール
51 測定値
52 較正値
53 変換値
54 ワーク外力
55 ワーク運動
56 ワーク位置姿勢
57 ロボット位置姿勢
58 目標位置姿勢
59 幾何拘束条件
1 direct teaching system 2 robot 3 force sensor 4 workpiece 5 robot controller 6 PC
11 Control Unit 12 Measured Value Transformation Unit 13 Work Weight/Center of Gravity Position Estimation Unit 14 Geometric Constraint Condition Calculation Unit 15 Work Motion/Position/Posture Calculation Unit 16 Target Position/Posture Calculation Unit 21 Flange 22 Tool 51 Measurement Value 52 Calibration Value 53 Conversion Value 54 Work external force 55 Work motion 56 Work position/posture 57 Robot position/posture 58 Target position/posture 59 Geometric constraints

Claims (4)

複数のロボットに直接教示を行う直接教示システムであって、
複数の前記ロボットに支持されたワークと、各々の前記ロボットに装着された力覚センサと、複数の前記ロボットを協調制御する制御手段と、を備え、
前記制御手段が、
前記力覚センサの初期測定値および前記ロボットの初期位置姿勢に基づいて、前記ワークの重量および重心位置を推定するワーク重量・重心位置推定手段と、
前記力覚センサの測定値および前記ロボットの位置姿勢に基づいて、教示者が前記ワークに付与した外力により生じた前記ワークの運動および位置姿勢を算出するワーク運動・位置姿勢算出手段と、
前記ワークの運動および位置姿勢に基づいて、前記ロボットの目標位置姿勢を算出する目標位置姿勢算出手段と、を含み、
前記ワーク運動・位置姿勢算出手段は、推定された前記ワークの重量および重心位置を用いて、前記ワークの重力補償を行うことを特徴とする直接教示システム。
A direct teaching system that directly teaches a plurality of robots,
A workpiece supported by a plurality of said robots, a force sensor attached to each of said robots, and a control means for cooperatively controlling said plurality of said robots,
The control means is
work weight and center-of-gravity position estimation means for estimating the weight and center-of-gravity position of the work based on the initial measurement values of the force sensor and the initial position and orientation of the robot;
Work motion/position/posture calculation means for calculating the motion and position/posture of the work caused by an external force applied to the work by a teacher based on the measured values of the force sensor and the position/posture of the robot;
a target position/orientation calculation means for calculating a target position/orientation of the robot based on the motion and position/orientation of the workpiece;
The direct teaching system, wherein the work motion/position/orientation calculation means performs gravity compensation of the work using the estimated weight and center of gravity position of the work.
前記制御手段が、力覚キャリブレーションに基づき、力覚センサの測定値を、ツール先端にかかる較正値へ変換する測定値変換手段を含む、請求項1に記載の直接教示システム。 2. The direct teaching system according to claim 1, wherein said control means includes measured value conversion means for converting measured values of the force sensor into calibrated values applied to the tip of the tool based on force sense calibration. コンピュータにおいて実行されることにより、当該コンピュータを、請求項1または2に記載の制御手段として機能させる直接教示プログラム。 A direct teaching program that, when executed in a computer, causes the computer to function as the control means according to claim 1 or 2. 請求項1または2に記載の直接教示システムを用いて複数のロボットに直接教示を行う方法であって、
前記制御手段が、直接教示の初期処理を行う初期処理段階と、教示者が直接教示を行う間に、前記制御手段が、前記動作命令を所定の周期で発行するサイクル処理段階と、を備え、
前記初期処理段階が、
前記ロボットの初期の位置姿勢を取得する段階と、
前記力覚センサの初期の測定値を取得する段階と、
前記ワークの重量および重心位置を推定する段階と、を含み、
前記サイクル処理段階が、
前記ロボットの現在の位置姿勢を取得する段階と、
前記力覚センサの現在の測定値を取得する段階と、
前記ロボットの現在の位置姿勢および各々の前記力覚センサの現在の測定値に基づいて、前記ワークの運動および位置姿勢を算出する段階と、
前記ワークの運動および位置姿勢に基づいて、前記ロボットの目標位置姿勢を算出する段階と、を含み、
前記ワークの運動および位置姿勢を算出する段階が、推定された前記ワークの重量および重心位置を用いて前記ワークの重力補償を行う段階を含む、直接教示方法。
A method of directly teaching a plurality of robots using the direct teaching system according to claim 1 or 2,
An initial processing stage in which the control means performs initial processing for direct teaching; and a cycle processing stage in which the control means issues the operation command at a predetermined cycle while the instructor performs the direct teaching,
The initial processing step comprises:
obtaining an initial pose of the robot;
obtaining an initial measurement of the force sensor;
estimating the weight and center-of-gravity position of the workpiece;
The cycle processing step comprises:
obtaining a current position and orientation of the robot;
obtaining a current measurement of the force sensor;
calculating the motion and position/orientation of the workpiece based on the current position/orientation of the robot and the current measurement values of each of the force sensors;
calculating a target position and orientation of the robot based on the motion and position and orientation of the workpiece;
The direct teaching method, wherein the step of calculating the motion and position/orientation of the work includes the step of performing gravity compensation of the work using the estimated weight and center-of-gravity position of the work.
JP2021135497A 2021-08-23 2021-08-23 Direct teaching system, direct teaching program, and direct teaching method Pending JP2023030396A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021135497A JP2023030396A (en) 2021-08-23 2021-08-23 Direct teaching system, direct teaching program, and direct teaching method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021135497A JP2023030396A (en) 2021-08-23 2021-08-23 Direct teaching system, direct teaching program, and direct teaching method

Publications (1)

Publication Number Publication Date
JP2023030396A true JP2023030396A (en) 2023-03-08

Family

ID=85414108

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021135497A Pending JP2023030396A (en) 2021-08-23 2021-08-23 Direct teaching system, direct teaching program, and direct teaching method

Country Status (1)

Country Link
JP (1) JP2023030396A (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6334609A (en) * 1986-07-29 1988-02-15 Matsushita Electric Ind Co Ltd Plural arms device
WO2016208467A1 (en) * 2015-06-22 2016-12-29 三菱電機株式会社 Calibration device and robot system using same

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6334609A (en) * 1986-07-29 1988-02-15 Matsushita Electric Ind Co Ltd Plural arms device
WO2016208467A1 (en) * 2015-06-22 2016-12-29 三菱電機株式会社 Calibration device and robot system using same

Similar Documents

Publication Publication Date Title
JP5528095B2 (en) Robot system, control apparatus and method thereof
JP6044511B2 (en) Robot control method and robot system
JP4202365B2 (en) Force control device
JP2007030054A (en) Robot device
JP2001157975A (en) Robot control device
KR20110004788A (en) Method and apparatus for operating a manipulator
CN111515928B (en) Mechanical arm motion control system
JP2012137421A (en) Control device of robot performing force control using triaxial sensor
JP2024512827A (en) System and method for adaptive compliance-based robot assembly
CN103507070B (en) Triaxial force sensor is used to carry out the robot controller of power control
US20230090384A1 (en) Calibrating a virtual force sensor of a robot manipulator
JP6003312B2 (en) Robot system
KR102279329B1 (en) Robot teaching system
JP2023030396A (en) Direct teaching system, direct teaching program, and direct teaching method
JP3577124B2 (en) Method of acquiring mating data using force control robot
US11613004B2 (en) Deflection amount estimating device, robot control device and method of estimating amount of deflection
US8670869B2 (en) Robot controller
JP2011255500A (en) Control device for legged mobile robot
US11738458B2 (en) Control method for robot system
JP6565622B2 (en) Robot system and robot control method
JP6896824B2 (en) Robot devices, robot systems, control methods for robot devices, manufacturing methods for articles using robot devices, information processing devices, information processing methods, control programs and recording media
JPH0639070B2 (en) Robot device force sensor calibration method
JP7318295B2 (en) Display method
KR101064516B1 (en) Method for Calibrating Force Sensor Detecting Signal to estimate Pure External Interaction Force
JPH0429518B2 (en)

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210825

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220823

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230314