JP2023030396A - Direct teaching system, direct teaching program, and direct teaching method - Google Patents
Direct teaching system, direct teaching program, and direct teaching method Download PDFInfo
- Publication number
- JP2023030396A JP2023030396A JP2021135497A JP2021135497A JP2023030396A JP 2023030396 A JP2023030396 A JP 2023030396A JP 2021135497 A JP2021135497 A JP 2021135497A JP 2021135497 A JP2021135497 A JP 2021135497A JP 2023030396 A JP2023030396 A JP 2023030396A
- Authority
- JP
- Japan
- Prior art keywords
- work
- orientation
- robot
- direct teaching
- workpiece
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims description 14
- 230000033001 locomotion Effects 0.000 claims abstract description 46
- 230000005484 gravity Effects 0.000 claims description 26
- 238000005259 measurement Methods 0.000 claims description 16
- 238000006243 chemical reaction Methods 0.000 claims description 11
- 239000013598 vector Substances 0.000 description 8
- 238000010586 diagram Methods 0.000 description 5
- 239000011159 matrix material Substances 0.000 description 5
- 230000009466 transformation Effects 0.000 description 5
- 230000001133 acceleration Effects 0.000 description 3
- 238000002360 preparation method Methods 0.000 description 2
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 1
- 238000012935 Averaging Methods 0.000 description 1
Images
Landscapes
- Numerical Control (AREA)
- Manipulator (AREA)
Abstract
Description
本開示は、複数のロボットに協調動作を直接教示するための直接教示システム、直接教示プログラム、直接教示方法に関する。 The present disclosure relates to a direct teaching system, a direct teaching program, and a direct teaching method for directly teaching cooperative motions to a plurality of robots.
近年、教示者が産業用ロボットを手で直接動かし、ロボットに動作を教示する直接教示の技術が開発されている。 In recent years, direct teaching techniques have been developed in which a teacher directly moves an industrial robot by hand to teach the robot a motion.
ロボットに教示する動作には、単体ロボットが自由に目標位置へ移動する通常動作と、複数のロボットがツール間の位置関係を保ちつつ、つまり、幾何拘束条件下で目標位置へ移動する協調動作がある。特に、細長いワークや大きなワークを運搬する場合には、単体ロボットではワークを安定して運ぶことができないため、複数ロボットが連携しながら運ぶ協調動作が用いられる。 The motions taught to the robot include normal motions in which a single robot moves freely to a target position, and coordinated motions in which multiple robots move to a target position under geometric constraints while maintaining the positional relationship between tools. be. In particular, when transporting a long and narrow workpiece or a large workpiece, a single robot cannot stably transport the workpiece, so a coordinated movement of multiple robots is used.
一般的に、協調動作を直接教示する場合、ある特定のロボットを「リーダー」、それ以外を「フォロワー」とし、リーダーの動作に追従するようにフォロワーを動作させる方式が用いられる。例えば、特許文献1には、直接教示による外力を加えたロボットアーム10をマスター、もう一方のロボットアーム20をスレーブとし、マスター側の運動による軌道に基づいてスレーブ側の軌道を算出する直接教示方法が開示されている。
In general, when directly teaching cooperative motions, a method is used in which a specific robot is designated as a "leader" and other robots are designated as "followers", and the followers are moved so as to follow the leader's movement. For example,
しかし、引用文献1の方法によれば、リーダーに対して直接教示を行い、フォロワーを追従させているため、リーダーのセンサの測定値のみが反映されることとなり、フォロワーを細かく教示することが難しいという問題があった。特に、リーダーとフォロワーの距離が離れている場合、フォロワーのワーク位置を合わせるためにリーダーを精巧に教示する必要があり、教示者に多大な負担を強いることとなる。また、引用文献2の装置によれば、教示者がワークを移動させることにより、複腕の双方に直接教示を行うものの、ワークの重量および重力位置を推定できないため、ワークを変更する毎にワークに関する情報を設定し直さなければならず、手間がかかるという問題があった。
However, according to the method of
そこで、本開示の目的は、協調動作を直接教示する際にフォロワーを細かく教示する手間、および、ワークに関する情報を設定する手間を省き、教示者の負担を軽減できる直接教示システムを提供することにある。 Therefore, an object of the present disclosure is to provide a direct teaching system that can reduce the burden on the instructor by saving the trouble of finely instructing the follower and the trouble of setting information about the work when directly teaching the cooperative movement. be.
上記課題を解決するために、本開示の直接教示システムは、複数のロボットに直接教示を行う直接教示システムであって、複数のロボットに支持されたワークと、各々のロボットに装着された力覚センサと、複数のロボットを協調制御する制御手段と、を備え、制御手段が、力覚センサの初期測定値およびロボットの初期位置姿勢に基づいて、ワークの重量および重心位置を推定するワーク重量・重心位置推定手段と、力覚センサの測定値およびロボットの位置姿勢に基づいて、教示者がワークに付与した外力により生じたワークの運動および位置姿勢を算出するワーク運動・位置姿勢算出手段と、ワークの運動および位置姿勢に基づいて、ロボットの目標位置姿勢を算出する目標位置姿勢算出手段と、を含み、ワーク運動・位置姿勢算出手段は、推定されたワークの重量および重心位置を用いて、ワークの重力補償を行うことを特徴とする。 In order to solve the above problems, the direct teaching system of the present disclosure is a direct teaching system that directly teaches a plurality of robots. A work weight/weight system comprising sensors and control means for cooperatively controlling a plurality of robots, wherein the control means estimates the weight and center-of-gravity position of the work based on the initial measurement values of the force sensor and the initial position and orientation of the robot. center-of-gravity position estimation means; workpiece motion/position/orientation calculation means for calculating the movement and position/orientation of the workpiece caused by an external force applied to the workpiece by the instructor based on the measured values of the force sensor and the position and orientation of the robot; target position/posture calculation means for calculating a target position/posture of the robot based on the motion and position/posture of the work, wherein the work motion/position/posture calculation means uses the estimated weight and center of gravity position of the work to: It is characterized by performing gravity compensation of the work.
本開示の直接教示システムによれば、ワークの運動および位置姿勢に基づいて各々のロボットの目標位置姿勢を算出するため、教示者がワークを移動させることにより、ロボットに協調動作を教示できる。また、ワークの重量および重心位置を推定するため、ワークの重量や重心位置の実測値を設定する手間を省くことができる。このように、教示者の負担を軽減することが可能となる。 According to the direct teaching system of the present disclosure, since the target position/posture of each robot is calculated based on the motion and position/posture of the work, the instructor can teach the robot a cooperative motion by moving the work. In addition, since the weight and center-of-gravity position of the work are estimated, it is possible to save the trouble of setting actual measurement values for the weight and the center-of-gravity position of the work. In this way, it is possible to reduce the burden on the teacher.
以下、本開示を直接教示システムに具体化した一実施形態を図面に基づいて説明する。以下の説明では、複数台のロボットに1~nの番号を付与し、添え字i(i:1~n)を用いて表記する。 An embodiment in which the present disclosure is embodied in a direct teaching system will be described below with reference to the drawings. In the following description, a number from 1 to n is assigned to a plurality of robots, and a suffix i (i: 1 to n) is used.
図1に示すように、本開示の直接教示システム1は、複数台のロボット2と、複数台のロボット2を協調制御するロボットコントローラ5と、ロボット2のフランジ21およびツール22の間に装着された力覚センサ3と、複数のロボット2全てにより支持された1つのワーク4と、演算処理用のPC6を備えている。ここで、ツール22とは、ワーク4等の対象物に所定の処理を行うロボット2の部品を示す。
As shown in FIG. 1, the
ロボット2を協調制御する制御部11は、ロボット2のロボットコントローラ5およびPC6に、プログラムとして実装される。なお、この実施例では、制御部11の機能をロボットコントローラ5およびPC6に分散させているが、制御部11の機能をロボットコントローラ5に搭載し、PC6を不要とすることも可能である。
A control unit 11 that cooperatively controls the
図2に示すように、制御部11は、キャリブレーションに基づいて、各力覚センサ3iの測定値51iを、ツール先端22aiにかかる外力を示す較正値52iに変換する測定値変換部12と、ワーク4の重量および重心位置を推定するワーク重量・重心位置推定部13と、ワーク4と各ロボット2iの各々の幾何拘束条件59iを算出する幾何拘束条件算出部14と、教示者がワーク4に付与した外力により生じたワーク4の運動55および位置姿勢56を算出するワーク運動・位置姿勢算出部15と、ロボット2の目標位置姿勢58を算出する目標位置姿勢算出部16を備える。以下、制御部11の各機能(12~16)について説明する。
As shown in FIG. 2, the control unit 11 includes a measurement value conversion unit 12 that converts a measurement value 51i of each force sensor 3i into a calibrated value 52i representing an external force applied to the tool tip 22ai based on calibration; Work weight/center of gravity position estimator 13 for estimating weight and center of gravity position of
ここで、本開示における数学的準備について説明する。3次元ベクトル a とベクトル b の内積を <a, b> 、クロス積を a×b と表し、ベクトル a の反対称化行列を式1のように定義する。正方行列 X に対する行列指数関数は、式2のように定義する。
We now describe the mathematical preparations in this disclosure. Let <a, b> be the inner product of three-dimensional vector a and vector b, and a×b be the cross product. A matrix exponential function for a square matrix X is defined as
図3に示すように、本開示において使用する座標系Cは、フランジ21を基準とするフランジ座標系Cf(原点Of)、ツール先端位置22aを原点Oeとするツール座標系Ce、および、ロボット2全てに共通する点を原点Owとするワールド座標系Cwである。各ロボット2iについて、フランジ座標系Cfiおよびツール座標系Ceiが設けられ、全てのロボット2に共通して、ワールド座標系Cwが設けられる。また、本開示において、「ロボット2の位置姿勢57」とは、実際には、フランジ21の位置姿勢、つまり、フランジ座標系Cfの位置姿勢である。
As shown in FIG. 3, the coordinate system C used in the present disclosure includes a flange coordinate system Cf (origin Of) based on the
「位置」は、3次元空間上のある一点であり、3次元ベクトルで表される。「姿勢」は、3次元的な傾きであり、3行3列の回転行列として表される。姿勢 R と位置 t のペア (R; t) は、式3の同次変換行列を意味する。 A "position" is a point in a three-dimensional space and is represented by a three-dimensional vector. The “attitude” is a three-dimensional tilt and is represented as a rotation matrix of 3 rows and 3 columns. The pair of pose R and position t (R; t) means the homogeneous transformation matrix of Eq.
また、 (R; t) をアフィン変換とみなし、点 p に対する作用を式4のように表す。
Also, (R; t) is regarded as an affine transformation, and the action on the point p is expressed as
(測定値変換部)
測定値変換部12は、キャリブレーションに基づいて、各力覚センサ3iの測定値51iを、ツール先端22aiにかかる外力を示す較正値52iに変換し、さらに、較正値52iを各ツール座標系Ceiからワールド座標系Cwに座標変換した変換値53iを算出する。
(measured value converter)
Based on the calibration, the measured value conversion unit 12 converts the measured value 51i of each force sensor 3i into a calibrated value 52i representing the external force applied to the tip end 22ai of the tool, and converts the calibrated value 52i into each tool coordinate system Cei to the world coordinate system Cw to calculate a transformed value 53i.
力覚センサ3の測定値51である並進力 F(Fx, Fy, Fz) およびモーメント M(Mx, My, Mz) は、力覚センサ3の基準点Ofにおける外力(並進力およびモーメント)を測定したものであって、ツール先端位置22aにおける外力を測定したものではない。このため、キャリブレーションに基づいて、測定値51を、ツール先端22aにかかる外力を示す較正値52に変換することにより、力覚センサやツールの取り付け状態による誤差を補償し、より高精度な力制御を可能としている。以下、測定値変換部12の具体的な処理を説明する。
The translational force F(Fx, Fy, Fz) and the moment M(Mx, My, Mz), which are the measured values 51 of the
まず、フランジ座標系Cfiにおける各フランジ座標系Cfi(各ロボット2i)の位置姿勢57iを (Ri; ti) とし、フランジ座標系Cfiにおけるツール座標系Ceiの位置姿勢を (Ri;e; ti;e) とする。 First, let the position and orientation 57i of each flange coordinate system Cfi (each robot 2i) in the flange coordinate system Cfi be (R i ; t i ), and let the position and orientation of the tool coordinate system Cei in the flange coordinate system Cfi be (R i; e ; Let t i;e ).
力覚キャリブレーションで得られる重力方向の単位ベクトル ξi を平均化することで重力方向の単位ベクトル ξ を求める。つまり、式5を最大化する単位ベクトル ξ を推定すればよい。
The unit vector ξ in the direction of gravity is obtained by averaging the unit vectors ξ i in the direction of gravity obtained by haptic calibration. In other words, it suffices to estimate the unit vector ξ that maximizes
測定値変換部12は、力覚キャリブレーションに基づき、力覚センサ3iの測定値51i(並進力 Fi およびモーメント Mi )を、ツール先端22aにかかる外力を示す較正値52i(並進力Fe i およびモーメント Me i )へ変換する。測定値変換部12は、さらに、較正値52iを、ワールド座標系Cwに座標変換し、変換値53i(並進力Fw i およびモーメント Mw i )を得る(式6)。 Based on force calibration, the measurement value conversion unit 12 converts the measurement value 51i (translational force F i and moment M i ) of the force sensor 3i into a calibrated value 52i (translational force F e i and moments M e i ). The measured value conversion unit 12 further coordinates-transforms the calibrated value 52i into the world coordinate system Cw to obtain a transformed value 53i (translational force F wi and moment M wi ) (equation 6).
(ワーク重量・重心位置推定部)
ワーク重量・重心位置推定部13は、各力覚センサ3iの初期測定値51i0およびロボット2iの初期位置姿勢57i0に基づいて、ワーク4の重量および重心位置を推定する。
(workpiece weight/center of gravity position estimator)
The work weight/center-of-gravity position estimator 13 estimates the weight and center-of-gravity position of the
本開示においては、図4に示すように、ワーク4を仮想的な剛体とみなし、力覚センサ3で検知した外力は、ツール22を経由してワーク4に運動をもたらすと仮定している。そして、各ロボット2iはワーク4の運動に追従するものとする。これにより、リーダー/フォロワー型の場合と異なり、全ての力覚センサ3の測定値51iが協調動作に反映されるため、ワーク4が動かしやすくなり、直接教示の作業性が向上する。
In the present disclosure, as shown in FIG. 4, the
ところが、この仮定の下では、力覚センサ3iの測定値51iに、ワーク4の重量と重心位置に基づく並進力とモーメントが常に含まれるため、直接教示を開始するとワーク4が重力に沿って降下してしまうという問題がある。そこで、直接教示の開始前にワーク4の重量と重心位置を推定し、教示中は重力補償する対策を講じている。
However, under this assumption, the measured value 51i of the force sensor 3i always includes the translational force and moment based on the weight and the position of the center of gravity of the
図5に示すように、ワーク重量・重心位置推定13では、i番目のロボット2iについて、ワールド座標系Cwにおける各フランジ座標系Cfi(各ロボット2i)の初期位置姿勢57i0を (Ri;0; ti;0) とする。各力覚センサ3iの初期測定値51i0(並進力 Fi;0 およびモーメント Mi;0 )を取得し、測定値変換部12により、ワールド座標系Cwにおけるツール先端22aiにかかる初期外力を示す初期変換値53i0(並進力 Fw i;0 およびモーメント Mw i;0 )を求める。 As shown in FIG. 5, in the workpiece weight/center-of-gravity position estimation 13, for the i-th robot 2i, the initial position/orientation 57i 0 of each flange coordinate system Cfi (each robot 2i) in the world coordinate system Cw is set to (R i;0 ; t i;0 ). An initial measurement value 51i 0 (translational force F i;0 and moment M i;0 ) of each force sensor 3i is acquired, and the initial external force applied to the tool tip 22ai in the world coordinate system Cw is indicated by the measurement value conversion unit 12. Obtain an initial transformation value 53i 0 (translational force F w i;0 and moment M w i;0 ).
ワーク4にかかる初期外力540 (並進力 Fs
0 および重心周りのモーメント Ms
0) は、式7により与えられる。ここで、 m はワーク4の重量、th0はワールド座標系Cwにおけるワーク4の初期重心位置であり、どちらも未知数である。また、 g は重力加速度、 ui;0 は、ワールド座標系Cwにおけるツール先端22aiの初期位置である。 ui;0 は、式8のように表される。
An initial external force 54 0 (translational force F s 0 and moment M s 0 about the center of gravity) applied to the
ここで、重力 m については、並進力 Fs
0 の釣り合いに関する誤差関数を式9により定義し、 E(m) を最小にする m を推定すればよい。重心位置 th0 については、モーメント Ms
0 の釣り合いに関する誤差関数を式10により定義し、 G(th0) を最小にする th0 を推定すればよい。以下、重心位置 th0 をワーク4の初期位置とし、ワーク4の初期姿勢 Rh0 は恒等行列とする。
Here, for the gravitational force m, an error function relating to the balance of the translational force F s 0 is defined by Equation 9, and m that minimizes E(m) can be estimated. For the center of gravity position t h0 , the error function for the balance of moment M s 0 is defined by Equation 10, and t h0 that minimizes G(t h0 ) can be estimated. Hereinafter, let the position of the center of gravity t h0 be the initial position of the
(幾何拘束条件算出部)
幾何拘束条件算出部14は、ワーク4の重心位置および各ロボット2iの初期位置姿勢58i0に基づいて、ワーク4と各ロボット2iの各々の幾何拘束条件59iを算出する。
(Geometric Constraint Calculator)
The geometric constraint condition calculator 14 calculates the geometric constraint conditions 59i of the
ワーク4の位置姿勢を (Rh; th) としたとき、各フランジ座標系Cfi(各ロボット2i)の位置姿勢57i (Ri; ti) の幾何拘束条件は、式11のように表すことができる。このとき、ワーク4の速度ベクトル v および角速度ベクトル ω の初期値は 0 とする。
When the position and orientation of the
(ワーク運動・位置姿勢算出部)
ワーク運動・位置姿勢算出15は、各力覚センサ3の測定値51iおよび各ロボット2iの位置姿勢57iに基づいて、教示者がワーク4に付与した外力により生じたワーク4の運動55およびワーク4の位置姿勢56を算出する。
(work motion/position/orientation calculator)
The work motion/position/orientation calculation 15 calculates the motion 55 of the
ロボット2iについて、ワールド座標系Cwにおける各フランジ座標系Cfi(各ロボット2i)の現在の位置姿勢57iを (Ri; ti) とする。各力覚センサ3iの測定値51i(並進力 Fi とモーメント Mi )を取得し、測定値変換部12により、ワールド座標系Cwにおけるツール先端22aiにかかる外力を示す変換値53i(並進力 Fw i とモーメント Mw i )を求める。ワールド座標系Cwにおけるツール先端22aiの現在位置を ui とおく(式12)。 For the robot 2i, let (R i ; t i ) be the current position and orientation 57i of each flange coordinate system Cfi (each robot 2i) in the world coordinate system Cw. Measured values 51i (translational force F i and moment M i ) of each force sensor 3i are acquired, and the measured value conversion unit 12 converts values 53i (translational force F Find w i and moment M w i ). Let ui be the current position of the tool tip 22ai in the world coordinate system Cw (equation 12).
ワーク4にかかる外力54 (並進力 Fs およびモーメント Ms) は、式13により与えられる。式13では、ワーク重量 m およびワーク重心位置 th を用いた重力補償が行われている。ワーク4の加速度 α および角加速度 ψ を式14により計算する。
An external force 54 (translational force F s and moment M s ) applied to the
ここで、λF と λM は、運動の鋭敏さに関する係数であり、それぞれ、仮想的な慣性質量と慣性モーメントを表している。これらの値が大きいほど、外力に対するワーク4の運動が大きくなる。また、 ρF と ρM は粘性係数であり、速度 v や角速度 ω に比例してワーク4を動きにくくすることで、外力を加えなければ徐々に減速する効果をもたらす。これらの係数は、実験的に決定される。
where λ F and λ M are the motion acuity coefficients representing the virtual inertial mass and moment of inertia, respectively. The greater these values, the greater the motion of the
ワーク運動・位置姿勢算出部15は、ワーク4の運動55(速度 v 、角速度 ω )および位置姿勢56 (Rh; th) を、式15に基づいて算出する。
The work motion/position/orientation calculator 15 calculates the motion 55 (velocity v, angular velocity ω) and position/orientation 56 (R h ; th ) of the
式15において、 Δτ はサイクル処理の時間間隔である。また、 W := [ω]× である。 In Equation 15, Δτ is the time interval of the cycle process. Also, W := [ω] × .
(目標位置姿勢算出部)
目標位置姿勢算出部16は、ワーク4の運動55、ワークの位置姿勢56、各ロボット2iの位置姿勢57i、および、ワーク4と各ロボットについての幾何拘束条件59iに基づいて、各ロボット2iの目標位置姿勢58iを求める(式16)。
(Target position/orientation calculator)
The target position/orientation calculation unit 16 calculates the target of each robot 2i based on the motion 55 of the
続いて、上記構成の直接教示システム1の動作、直接教示プログラムの動作、直接教示システム1を用いた直接教示方法について、図6に従って説明する。この動作および方法は、直接教示に入る前の準備として初期処理を行う初期処理S1と、教示者がワーク4を動かす間に、制御部11が、動作命令を所定の周期で発行するサイクル処理S2から構成される。
Next, the operation of the
初期処理S1では、まず、制御部11は、各フランジ座標系Cfi(各ロボット2i)の初期位置姿勢57i0と、各力覚センサ3iの初期測定値51i0を取得する(S11)。このとき、全てのロボット2は停止しており、全てのロボット2により把持された1つのワーク4は安定しているとする。次に、測定値変換部12は、キャリブレーションに基づいて、各力覚センサ3iの初期測定値51i0をツール先端22aiにおける初期外力を示す初期較正値52i0に変換し、初期較正値52i0をツール座標系Ceからワールド座標系Cwに座標変換して、初期変換値53i0を得る。
In the initial processing S1, the control unit 11 first acquires an initial position/orientation 57i 0 of each flange coordinate system Cfi (each robot 2i) and an initial measurement value 51i 0 of each force sensor 3i (S11). At this time, it is assumed that all the
ワーク重量・重心位置推定部13は、初期変換値53i0を用いて、ワーク4の重量と重心位置を推定する(S12)。その後、幾何拘束条件算出部14は、推定したワーク4の重心位置を用いて、ワーク4と各フランジ21の幾何拘束条件59iを算出する(S13)。初期処理S1が終了した後、教示者は、ワーク4を手に持って、直接教示を開始する。
The work weight/center-of-gravity position estimation unit 13 estimates the weight and the position of the center-of-gravity position of the
サイクル処理S2では、まず、制御部11は、各ロボット2iの現在の位置姿勢57iと、各力覚センサ3の現在の測定値51iを取得する(S21)。次に、測定値変換部12は、キャリブレーションに基づいて、各力覚センサ3iの測定値51iをツール先端22aiにおける較正値52iに変換し、較正値52iをツール座標系Ceからワールド座標系Cwに座標変換して、変換値53iを得る。その後、制御部11は、変換値53iを用いて、ワーク4にかかる外力54(並進力 Fs およびモーメント Ms )を算出する(S22)。 In the cycle process S2, first, the control unit 11 acquires the current position and orientation 57i of each robot 2i and the current measurement values 51i of each force sensor 3 (S21). Next, the measured value converter 12 converts the measured value 51i of each force sensor 3i into a calibrated value 52i at the tool tip 22ai based on the calibration, and converts the calibrated value 52i from the tool coordinate system Ce to the world coordinate system Cw. to obtain a transformed value 53i. After that, the control unit 11 uses the converted value 53i to calculate the external force 54 (translational force F s and moment M s ) applied to the workpiece 4 (S22).
続いて、ワーク運動・位置姿勢算出部15は、ワーク4にかかる外力54に基づいて、ワーク4の運動55およびワーク4の現在の位置姿勢56を算出する(S23)。目標位置姿勢算出部16は、ワークの運動55、ワーク4の現在の位置姿勢56、各ロボット2iの現在の位置姿勢57i、および、幾何拘束条件59iに基づいて、各ロボット2iの目標位置姿勢58iを算出する(S24)。最後に、制御部11は、目標位置姿勢58iに基づいて、各ロボット2iに動作命令を発行する(S25)。サイクル処理S2は、教示者がワーク4を移動させる間に、30Hz程度の周期で行うことが好ましい。
Subsequently, the work motion/position/orientation calculator 15 calculates the motion 55 of the
以上の構成の直接教示システム、該システムを用いた直接教示方法によれば、リーダー/フォロワー型を設定して直接教示した場合と異なり、全ての力覚センサが協調動作に反映されるため、ワークが動かしやすくなり、直接教示の作業性が向上する。 According to the direct teaching system configured as described above and the direct teaching method using the system, unlike the case where the leader/follower type is set and direct teaching is performed, all the force sensors are reflected in the coordinated motion. becomes easier to move, and the workability of direct teaching is improved.
また、この仮定の下では、力覚センサの測定値に、ワークの重量と重心位置に基づく並進力とモーメントが常に含まれるため、直接教示を開始するとワークが重力に沿って降下してしまうところ、直接教示の開始前にワークの重量と重心位置を推定し、教示中は重力補償する対策を講じたため、ワークの重量および重心位置を都度設定する必要がない。 In addition, under this assumption, the measured value of the force sensor always includes the translational force and moment based on the weight of the workpiece and the position of the center of gravity. , The weight and center of gravity position of the workpiece are estimated before starting direct teaching, and gravity compensation is taken during teaching, so there is no need to set the weight and center of gravity position of the workpiece each time.
その他、本開示は、上記実施形態に限定されるものではなく、発明の趣旨を逸脱しない範囲で、各部の構成を任意に変更して実施することも可能である。 In addition, the present disclosure is not limited to the above embodiments, and the configuration of each part can be arbitrarily changed without departing from the scope of the invention.
1 直接教示システム
2 ロボット
3 力覚センサ
4 ワーク
5 ロボットコントローラ
6 PC
11 制御部
12 測定値変換部
13 ワーク重量・重心位置推定部
14 幾何拘束条件算出部
15 ワーク運動・位置姿勢算出部
16 目標位置姿勢算出部
21 フランジ
22 ツール
51 測定値
52 較正値
53 変換値
54 ワーク外力
55 ワーク運動
56 ワーク位置姿勢
57 ロボット位置姿勢
58 目標位置姿勢
59 幾何拘束条件
1
11 Control Unit 12 Measured Value Transformation Unit 13 Work Weight/Center of Gravity Position Estimation Unit 14 Geometric Constraint Condition Calculation Unit 15 Work Motion/Position/Posture Calculation Unit 16 Target Position/
Claims (4)
複数の前記ロボットに支持されたワークと、各々の前記ロボットに装着された力覚センサと、複数の前記ロボットを協調制御する制御手段と、を備え、
前記制御手段が、
前記力覚センサの初期測定値および前記ロボットの初期位置姿勢に基づいて、前記ワークの重量および重心位置を推定するワーク重量・重心位置推定手段と、
前記力覚センサの測定値および前記ロボットの位置姿勢に基づいて、教示者が前記ワークに付与した外力により生じた前記ワークの運動および位置姿勢を算出するワーク運動・位置姿勢算出手段と、
前記ワークの運動および位置姿勢に基づいて、前記ロボットの目標位置姿勢を算出する目標位置姿勢算出手段と、を含み、
前記ワーク運動・位置姿勢算出手段は、推定された前記ワークの重量および重心位置を用いて、前記ワークの重力補償を行うことを特徴とする直接教示システム。 A direct teaching system that directly teaches a plurality of robots,
A workpiece supported by a plurality of said robots, a force sensor attached to each of said robots, and a control means for cooperatively controlling said plurality of said robots,
The control means is
work weight and center-of-gravity position estimation means for estimating the weight and center-of-gravity position of the work based on the initial measurement values of the force sensor and the initial position and orientation of the robot;
Work motion/position/posture calculation means for calculating the motion and position/posture of the work caused by an external force applied to the work by a teacher based on the measured values of the force sensor and the position/posture of the robot;
a target position/orientation calculation means for calculating a target position/orientation of the robot based on the motion and position/orientation of the workpiece;
The direct teaching system, wherein the work motion/position/orientation calculation means performs gravity compensation of the work using the estimated weight and center of gravity position of the work.
前記制御手段が、直接教示の初期処理を行う初期処理段階と、教示者が直接教示を行う間に、前記制御手段が、前記動作命令を所定の周期で発行するサイクル処理段階と、を備え、
前記初期処理段階が、
前記ロボットの初期の位置姿勢を取得する段階と、
前記力覚センサの初期の測定値を取得する段階と、
前記ワークの重量および重心位置を推定する段階と、を含み、
前記サイクル処理段階が、
前記ロボットの現在の位置姿勢を取得する段階と、
前記力覚センサの現在の測定値を取得する段階と、
前記ロボットの現在の位置姿勢および各々の前記力覚センサの現在の測定値に基づいて、前記ワークの運動および位置姿勢を算出する段階と、
前記ワークの運動および位置姿勢に基づいて、前記ロボットの目標位置姿勢を算出する段階と、を含み、
前記ワークの運動および位置姿勢を算出する段階が、推定された前記ワークの重量および重心位置を用いて前記ワークの重力補償を行う段階を含む、直接教示方法。 A method of directly teaching a plurality of robots using the direct teaching system according to claim 1 or 2,
An initial processing stage in which the control means performs initial processing for direct teaching; and a cycle processing stage in which the control means issues the operation command at a predetermined cycle while the instructor performs the direct teaching,
The initial processing step comprises:
obtaining an initial pose of the robot;
obtaining an initial measurement of the force sensor;
estimating the weight and center-of-gravity position of the workpiece;
The cycle processing step comprises:
obtaining a current position and orientation of the robot;
obtaining a current measurement of the force sensor;
calculating the motion and position/orientation of the workpiece based on the current position/orientation of the robot and the current measurement values of each of the force sensors;
calculating a target position and orientation of the robot based on the motion and position and orientation of the workpiece;
The direct teaching method, wherein the step of calculating the motion and position/orientation of the work includes the step of performing gravity compensation of the work using the estimated weight and center-of-gravity position of the work.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021135497A JP2023030396A (en) | 2021-08-23 | 2021-08-23 | Direct teaching system, direct teaching program, and direct teaching method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021135497A JP2023030396A (en) | 2021-08-23 | 2021-08-23 | Direct teaching system, direct teaching program, and direct teaching method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023030396A true JP2023030396A (en) | 2023-03-08 |
Family
ID=85414108
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021135497A Pending JP2023030396A (en) | 2021-08-23 | 2021-08-23 | Direct teaching system, direct teaching program, and direct teaching method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2023030396A (en) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS6334609A (en) * | 1986-07-29 | 1988-02-15 | Matsushita Electric Ind Co Ltd | Plural arms device |
WO2016208467A1 (en) * | 2015-06-22 | 2016-12-29 | 三菱電機株式会社 | Calibration device and robot system using same |
-
2021
- 2021-08-23 JP JP2021135497A patent/JP2023030396A/en active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS6334609A (en) * | 1986-07-29 | 1988-02-15 | Matsushita Electric Ind Co Ltd | Plural arms device |
WO2016208467A1 (en) * | 2015-06-22 | 2016-12-29 | 三菱電機株式会社 | Calibration device and robot system using same |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5528095B2 (en) | Robot system, control apparatus and method thereof | |
JP6044511B2 (en) | Robot control method and robot system | |
JP4202365B2 (en) | Force control device | |
JP2007030054A (en) | Robot device | |
JP2001157975A (en) | Robot control device | |
KR20110004788A (en) | Method and apparatus for operating a manipulator | |
CN111515928B (en) | Mechanical arm motion control system | |
JP2012137421A (en) | Control device of robot performing force control using triaxial sensor | |
JP2024512827A (en) | System and method for adaptive compliance-based robot assembly | |
CN103507070B (en) | Triaxial force sensor is used to carry out the robot controller of power control | |
US20230090384A1 (en) | Calibrating a virtual force sensor of a robot manipulator | |
JP6003312B2 (en) | Robot system | |
KR102279329B1 (en) | Robot teaching system | |
JP2023030396A (en) | Direct teaching system, direct teaching program, and direct teaching method | |
JP3577124B2 (en) | Method of acquiring mating data using force control robot | |
US11613004B2 (en) | Deflection amount estimating device, robot control device and method of estimating amount of deflection | |
US8670869B2 (en) | Robot controller | |
JP2011255500A (en) | Control device for legged mobile robot | |
US11738458B2 (en) | Control method for robot system | |
JP6565622B2 (en) | Robot system and robot control method | |
JP6896824B2 (en) | Robot devices, robot systems, control methods for robot devices, manufacturing methods for articles using robot devices, information processing devices, information processing methods, control programs and recording media | |
JPH0639070B2 (en) | Robot device force sensor calibration method | |
JP7318295B2 (en) | Display method | |
KR101064516B1 (en) | Method for Calibrating Force Sensor Detecting Signal to estimate Pure External Interaction Force | |
JPH0429518B2 (en) |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210825 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220823 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20230314 |