JP2008207262A - Manipulator system - Google Patents
Manipulator system Download PDFInfo
- Publication number
- JP2008207262A JP2008207262A JP2007044626A JP2007044626A JP2008207262A JP 2008207262 A JP2008207262 A JP 2008207262A JP 2007044626 A JP2007044626 A JP 2007044626A JP 2007044626 A JP2007044626 A JP 2007044626A JP 2008207262 A JP2008207262 A JP 2008207262A
- Authority
- JP
- Japan
- Prior art keywords
- manipulator
- teaching
- assembly
- information
- work state
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
Description
本発明は、マニピュレータシステム、殊にマニピュレータ(ロボット)への動作教示の機能を有しているマニピュレータシステムに関するものである。 The present invention relates to a manipulator system, and more particularly to a manipulator system having a function of teaching operation to a manipulator (robot).
人間が行う操作を基にしてマニピュレータに対する教示コマンドを生成するものが特開2000−308985号公報に示されている。これはロボット(マニピュレータ)が置かれた実環境を3次元的にバーチャルに提示する仮想環境の中で、操作対象の仮想物体をフォースフィードバックグローブを装着した人間の手の動きに連動する仮想ハンドによって操作し、この際の人間の手、指の3次元的な位置と速度の観測値及び仮想抗力の観測値を基に教示コマンドを生成するものである。このものは、多点を同時に教示することが求められる人間型ハンドをもつロボットに対する教示を迅速に行うことができる。 Japanese Patent Laid-Open No. 2000-308985 discloses a method for generating a teaching command for a manipulator based on an operation performed by a human. This is a virtual environment in which the real environment where the robot (manipulator) is placed is virtually presented three-dimensionally, and the virtual object to be operated is operated by a virtual hand linked to the movement of a human hand wearing a force feedback glove. The teaching command is generated based on the observed value of the three-dimensional position and velocity of the human hand and finger and the observed value of the virtual drag at this time. This can quickly teach a robot having a humanoid hand that is required to teach multiple points simultaneously.
しかし、上記のものでは、教示を行なった時の仮想環境の中での仮想ハンドの動き及び仮想ハンドで保持される被組立物の位置や姿勢と、作成された教示コマンドの再生時における実環境の中での実ハンドの動き及び実ハンドで保持される被組立物の位置や姿勢とに差異が生じることが多々あり、この差異に対応することができないものとなっている。
本発明は上記の従来の問題点に鑑みて発明したものであって、教示を行なった時と教示情報の再生時とに動きや位置に差異がある場合にこれを簡便に補正することができるマニピュレータシステムを提供することを課題とするものである。 The present invention has been invented in view of the above-described conventional problems, and when there is a difference in movement or position between teaching and reproduction of teaching information, this can be easily corrected. It is an object to provide a manipulator system.
上記課題を解決するために本発明に係るマニピュレータシステムは、人間が被組立物に対して行う操作を計測して該計測値を基に作業用のマニピュレータを動かすための教示操作情報を生成する教示操作情報生成手段と、生成された教示操作情報を基に上記被組立物を扱う上記マニピュレータの駆動制御を行う動作制御部とを備えたマニピュレータシステムであって、マニピュレータによる被組立物についての作業状態を計測する作業状態計測手段を備えているとともに、教示時における上記作業状態計測手段での計測値を基にマニピュレータと被組立物の位置・姿勢情報である教示作業状態情報を生成する教示作業状態情報生成部と、得られた教示操作情報でマニピュレータを駆動する教示再生時における上記作業状態計測手段での計測値を基にマニピュレータと被組立物の位置・姿勢情報である実作業作業状態情報を生成する実作業状態情報生成部と、上記実作業状態情報を前記教示作業状態情報生成部と比較して教示再生時の教示操作情報に基づく上記マニピュレータの動きを補正する補正手段とを備えていることに特徴を有している。補正手段によって教示操作情報に対応した教示作業状態情報と実作業状態情報とを一致させる補正制御ができるために、教示再生時の被組立物が教示時とは異なる姿勢や位置となってもこれが補正されるものである。 In order to solve the above problems, a manipulator system according to the present invention is a teaching that measures an operation performed by a human on an assembly and generates teaching operation information for moving a working manipulator based on the measured value. A manipulator system comprising operation information generating means and an operation control unit for controlling driving of the manipulator that handles the assembly based on the generated teaching operation information, wherein the work state of the assembly by the manipulator A teaching work state for generating teaching work state information which is position / posture information of the manipulator and the assembly based on the measurement values of the work state measuring means at the time of teaching Measured values by the information generation unit and the work state measuring means at the time of teaching reproduction that drives the manipulator with the obtained teaching operation information An actual work state information generation unit that generates actual work state information that is position / posture information of the manipulator and the assembly based on the actual work state information compared with the teaching work state information generation unit during teaching reproduction And correction means for correcting the movement of the manipulator based on the teaching operation information. Since the correction means can perform correction control to match the teaching work state information corresponding to the teaching operation information and the actual work state information, even if the assembly at the time of teaching reproduction has a posture or position different from that at the time of teaching. It is to be corrected.
人間が行う操作を計測するための計測手段としては、データグローブを好適に用いることができ、殊に人間が行う操作にマニピュレータを連動させるマスタースレーブ型のマニピュレータである場合、マニピュレータは被組立物との接触を検知する接触センサを備え、上記データグローブは上記接触センサの出力がフィードバックされるフォースフィードバック型とするのが好ましい。 As a measuring means for measuring an operation performed by a human, a data glove can be preferably used. In particular, in the case of a master-slave type manipulator that interlocks the manipulator with an operation performed by a human, the manipulator is connected to an assembly. It is preferable that the data glove is a force feedback type in which the output of the contact sensor is fed back.
人間が行う操作を計測するための計測手段としては、撮像手段及び画像処理手段を用いてもよく、また、操作する被組立物に設けた位置及び姿勢検出手段であってもよい。 As a measuring unit for measuring an operation performed by a human, an imaging unit and an image processing unit may be used, or a position and orientation detection unit provided in an assembly to be operated may be used.
作業状態計測手段としては、撮像手段及びまたはマニピュレータが備える接触センサであり、動作制御部は教示操作情報に基づくマニピュレータの動きを作業計測手段の出力を参照して修正するものが好ましい。より正確な教示再生を行うことができる。 The work state measuring means is preferably a contact sensor provided in the imaging means and / or the manipulator, and the operation control unit preferably corrects the movement of the manipulator based on the teaching operation information with reference to the output of the work measuring means. More accurate teaching reproduction can be performed.
人間が行う操作に対して粘性負荷を与える粘性付加手段を備えたものとしてもよい。教示中に起こる手ぶれがを防ぐことができるために、手ぶれが教示に反映されてしまうことがない。 Viscosity adding means for applying a viscous load to an operation performed by a human may be provided. Since camera shake that occurs during teaching can be prevented, camera shake is not reflected in the teaching.
マニピュレータは6軸可動テーブル上で被組立物を扱うものであり且つ前記動作制御部は該6軸可動テーブルの駆動も行うものであると、被組立物の位置・姿勢が予め記憶した教示作業状態とは異なる状態であったとしても、各自由度を独立して制御できる6軸可動テーブルで容易に補正制御を行うことができるため、被組立物の組み付けの対応性が広くなる。 The manipulator handles the assembly on the 6-axis movable table, and the operation control unit also drives the 6-axis movable table, the teaching work state in which the position and orientation of the assembly are stored in advance. Even if it is in a different state, correction control can be easily performed with a 6-axis movable table that can control each degree of freedom independently, so that the compatibility of assembly of the assembly is widened.
上記6軸可動テーブル及びまたはマニピュレータが被組立物に微振動を与える振動付加手段を備えていると、マニピュレータと被組立物の相対位置の誤差分の振幅の振動を与えながら組付け作業を行うことで倣い動作を実現できるために、位置の誤差があっても補正計算無しに組立が可能となる。 When the six-axis movable table and / or the manipulator is provided with a vibration adding means for giving a slight vibration to the assembly, the assembly operation is performed while giving an amplitude vibration corresponding to an error in the relative position between the manipulator and the assembly. Since the copying operation can be realized with this, assembly is possible without correction calculation even if there is a position error.
被組立物が備えるICタグから被組立物についての情報を読み取る読み取り装置を備えており、前記動作制御部は読み取った情報を基に複数種の教示操作情報が記憶されている記憶部から上記被組立物に対応する教示操作情報を選択して、この教示操作情報を基にマニピュレータを駆動するものであってもよい。複数種の組立に自動で応ずることができるものとなる。 A reading device that reads information about the assembly from an IC tag included in the assembly is provided, and the operation control unit is configured to store the above-described object from a storage unit that stores a plurality of types of teaching operation information based on the read information. The teaching operation information corresponding to the assembly may be selected and the manipulator may be driven based on the teaching operation information. It is possible to automatically respond to multiple types of assembly.
被組立物が備えるICタグから被組立物の寸法情報を読み取る読み取り装置を備えており、前記動作制御部は読み取った寸法情報を基に教示操作情報に基づくマニピュレータの動きを修正するものであってもよい。被組立物の寸法に応じた条件での組立を自動で行うことができる。 A reading device that reads the dimension information of the assembly from an IC tag included in the assembly; and the operation control unit corrects the movement of the manipulator based on the teaching operation information based on the read dimension information. Also good. Assembly under conditions corresponding to the dimensions of the assembly can be automatically performed.
動作制御部は教示再生時の再生速度を部分的に可変としているものが好ましい。教示時よりも高速での組立が可能となる。 It is preferable that the operation control unit has a partially variable playback speed during teaching playback. Assembly at higher speed than teaching is possible.
マニピュレータは被組立物を把持するハンドに複数の接触センサを備えており、前記動作制御部は被組立物の把持中の上記接触センサの出力変化によってハンドによる被組立物を把持する把持力を変化させるものであれば、被組立物を落下させたりすることなく組立を行うことができる。 The manipulator includes a plurality of contact sensors on a hand that grips the assembly, and the operation control unit changes a gripping force for gripping the assembly by the hand according to an output change of the contact sensor during gripping of the assembly. As long as it can be assembled, it can be assembled without dropping the assembly.
障害物検出手段を備えて、動作制御部は教示再生時の教示操作情報に基づく上記マニピュレータの動きに該障害物検出手段で検出された障害物を避けるための補正を加えるものであれば、教示時に存在しなかった障害物があっても支障なく組立を行うことができる。 Provided with an obstacle detection means, the motion control unit teaches if the movement of the manipulator based on the teaching operation information at the time of teaching reproduction is corrected to avoid the obstacle detected by the obstacle detection means. Even if there are obstacles that did not exist sometimes, it can be assembled without any problems.
本発明は、人間が行う操作を基にマニピュレータを動かすための教示操作情報を得るために、複雑な動きも容易に教示することができるものであり、しかも教示再生時の被組立物が教示時とは異なる姿勢や位置となってもこれが補正されるために、常に的確な動作を得ることができる。 According to the present invention, in order to obtain teaching operation information for moving a manipulator based on an operation performed by a human, complicated movement can be easily taught. Since this is corrected even if the posture or position is different from the above, an accurate operation can always be obtained.
以下、本発明を添付図面に示す実施形態に基いて説明すると、このマニピュレータシステムは、図1に示すように、マニピュレータ制御系1と、マニピュレータ教示系2とで構成されるもので、マニピュレータ10を動作させるためのマニピュレータ制御系1は、被組立物9を自由度の高いハンドで取り扱う上記マニピュレータ10と、この系全体を制御する中央演算部11と、中央演算部11からの指示信号に基づいてマニピュレータ10を制御駆動するマニピュレータ制御部12と、マニピュレータ10による被組立物9についての作業状態を計測する作業状態認識装置13と、作業状態認識装置13の出力から実作業状態情報を生成する実作業状態情報生成部14、そして記憶部15とから構成されている。
Hereinafter, the present invention will be described based on an embodiment shown in the accompanying drawings. As shown in FIG. 1, the manipulator system includes a
マニピュレータ教示系2は、人間が被組立物に対して行う操作を計測する教示装置20と、この教示装置20によって得られた計測値から教示操作情報を生成する操作情報生成部21と、上記マニピュレータ操作系1の作業状態認識装置13の出力から教示作業状態情報を生成する教示作業状態情報生成部24とからなる。
The
なお、上記実作業状態情報生成部14と教示作業状態情報生成部24とは、後述するように同じ教示操作情報に基づいてマニピュレータ10を動かした時の作業状態認識装置13の出力からマニピュレータと被組立物の位置・姿勢情報である作業状態情報を生成するものであるために、実体的には一つのものとして構成することができる。
The actual work state
教示操作としては、マニピュレータ10を人間が遠隔操作してマニピュレータ10に被組立物を扱わせるマスタースレーブ型と称される形式での教示であってもよいが、ここでは人間が手を使って被組立物を扱う形式での教示について図2に基づいて説明する。図2中のtは時間変数である。
The teaching operation may be a master-slave type teaching method in which a
教示に際しては、人間が被組立物を対象に一連の組立操作を行う。この時、教示装置20において上記操作を計測し、この計測値を基に操作情報生成部21がタイムスタンプ付きの教示操作情報を生成(S1)して該教示操作情報をマニピュレータ操作系1の記憶部15へ送信し、記憶部15に記憶させる(S2)。
In teaching, a human performs a series of assembling operations on an assembly target. At this time, the
この教示操作の終了後、教示再生試行(S3)を行う。これは中央演算部11が記憶部15から教示操作情報を取得(S32)して、この教示操作情報から目標運動軌跡を生成(S33)し、得られた目標運動軌跡に基づいてマニピュレータ制御部12がマニピュレータ10を制御駆動(S34)することを教示操作情報のタイムスタンプ毎に行うことで、被組立物の組立をマニピュレータ10が行えるかどうかを試行するものであり、この試行の際に教示作業状態情報生成部24は、マニピュレータ10の制御中に作業状態認識装置13から得られるマニピュレータと被組立物の位置・姿勢に関する計測値からタイムスタンプ付きの教示作業状態情報を生成(S35)する。
After this teaching operation is completed, a teaching reproduction trial (S3) is performed. The
この際のマニピュレータ10による被組立物の組立操作が人間による操作と同様に円滑になされるとともに、きちんと組み立てられた時(S4,S5)には、中央演算部11はユニークな教示情報コードを付した教示操作情報と上記教示作業状態情報とをマニピュレータ操作系1の記憶部15へ送信し、記憶部15に記憶させる(S6)。教示再生試行での組立操作がうまくいかない場合は教示操作からやり直す。
At this time, the assembling operation of the assembly by the
そして、上記教示操作情報に基づく教示再生をマニピュレータ10に行わせる際は、上記教示再生試行の場合と同様に、中央演算部11が記憶部15から取得(S72)した教示操作情報に基づいてマニピュレータ(ハンドおよびアーム)の目標運動軌跡を生成(S73)し、マニピュレータ制御部12が上記目標運動軌跡に基づいてマニピュレータ10を駆動制御(S74)するものであり、この時、実作業状態情報生成部14がマニピュレータ制御中に作業状態認識装置13から得られる計測値を基にタイムスタンプ付きの実作業状態情報を生成(S75)する。
When the
そして、教示再生時には、得られたタイムスタンプ付きの実作業状態情報と、記憶部15から取得した教示作業状態情報とを同じタイムスタンプにおいて中央演算部11が逐次比較して比較評価値V(t)を生成(S76)し、該比較評価値V(t)と許容上限値V_limitとの比較(S77)で該比較評価値V(t)が許容上限値V_limitを越えている時には中央演算部11は教示操作情報もしくは目標運動軌跡を修正(S80)することで、実作業状態情報が教示作業状態情報に一致するようにマニピュレータ10の動きを補正する。
At the time of teaching reproduction, the
この処理を新たな実作業状態情報が得られるたびに終了時刻t_endまで繰り返し行うことで、マニピュレータ10による被組立物の組立が支障なく行われた教示再生試行時と、現在行われている教示再生時とで、被組立物の位置や姿勢を同じとするのである。
This process is repeated until the end time t_end every time new actual work state information is obtained, so that the teaching regeneration trial when the assembly of the assembly by the
マニピュレータ10によって被組立物を保持した時の被組立物の位置や姿勢が教示再生試行時と異なっていても、この点が補正された上でマニピュレータ10による組立操作がなされるために、組立に支障が生じることはない。
Even if the position and posture of the assembly when the assembly is held by the
人間が被組立物に対して行う操作を計測する教示装置20としては、たとえば上記操作を行う人間の手に装着されるデータグローブを用いることができる。なお、該データグローブとしては、少なくとも手首の3次元的位置と姿勢と指の関節角度(図3参照)を出力することができるものを用いる。この場合、手先の正確な動きと手首の位置がわかり、同じ自由度・同じ形の人間型ハンドへの教示をティーチングボックスに比べて容易に行うことができるために教示時間を減らすことができる。
As the
教示装置20としては、撮像手段とこの撮像手段で得られた画像を処理する画像処理手段とからなるものを用いることもできる。この場合においても、画像処理手段は手首及び指の関節の位置を認識してその情報(図4参照)を抽出し、ここから手首の3次元的位置と姿勢と指の関節角度とを得ることができるものを用いる。この場合、データグローブを用いる場合に比して教示者への肉体的負担を小さくすることができる。
As the
人間の手の動きではなく、人間の手によって操作される被組立物の位置や姿勢をセンサーや撮像処理手段及び画像処理手段で検出してここから教示操作情報を得るようにしてもよい。被組立部品の正確な位置情報を入手することができる。なお、上記の複数種の教示装置20を組み合わせて用いてもよい。
Instead of the movement of the human hand, the position and posture of the assembly operated by the human hand may be detected by a sensor, an imaging processing unit, and an image processing unit, and teaching operation information may be obtained therefrom. Accurate position information of the parts to be assembled can be obtained. Note that a plurality of types of
マニピュレータと被組立物の位置・姿勢情報を得るための作業状態認識装置13としては、撮像手段と画像処理手段を好適に用いることができる。この場合、作業状態認識装置13による計測値から教示作業状態情報や実作業状態情報を生成するにあたっては、マニピュレータ10における被組立物を把持するハンドの基準位置(xh,yh,zh)と、ハンド基準面の法線ベクトル(xs,ys,zs)とハンドの自由度(θh1,θh2…)に加え、図5に示す被組立物の重心位置情報(xp,yp,zp)と、被組立物の最外形のエッジ角度情報(θL、θR)も生成し、実作業状態情報と教示作業状態情報との比較で比較評価値V(t)を算出する。そして比較評価値V(t)が許容値V_limを越えるために正確に再生されていないと判断される時には、タイムスタンプにそったシーケンシャルな教示操作情報による目標軌跡生成を停止し、目標軌跡補正処理を行う。
As the work
ちなみに比較評価値Vは次のように求めている。すなわち、教示作業状態情報と実作業状態情報のノルムに重みを乗じて足したものを評価関数(比較評価値)Vとすると、被組立物を掴んでいる時、
V=w1|xp_r(t)−xp_t(t)|+w2|yp_r(t)−yp_t(t)|+w3|yp_r(t)−yp_t(t)|+w4|θLp_r(t)−θLp_t(t)|+w5|θRp_r(t)−θRp_t(t)|
被組立物を掴んでいない時、
V=w6|xh_r(t)−xh_t(t)|+w7|yh_r(t)−yh_t(t)|+w8|yh_r(t)−yh_t(t)|+w9|xs_r(t)−xs_t(t)|+w10|ys_r(t)−ys_t(t)|+w11|ys_r(t)−ys_t(t)|+w12|θh1_r(t)−θh1_t(t)|+w13|θh2_r(t)−θh2_t(t)|+…
で求めている。ただし、w1〜w13は重みパラメータ、末尾_rは教示作業状態情報、末尾_tは実作業状態情報である。
Incidentally, the comparative evaluation value V is obtained as follows. That is, when an evaluation function (comparison evaluation value) V is obtained by multiplying the norm of the teaching work state information and the actual work state information by a weight, when the assembly is grasped,
V = w1 | xp_r (t) −xp_t (t) | + w2 | yp_r (t) −yp_t (t) | + w3 | yp_r (t) −yp_t (t) | + w4 | θLp_r (t) −θLp_t (t) | + W5 | θRp_r (t) −θRp_t (t) |
When you are not holding the assembly
V = w6 | xh_r (t) -xh_t (t) | + w7 | yh_r (t) -yh_t (t) | + w8 | yh_r (t) -yh_t (t) | + w9 | xs_r (t) -xs_t (t) | + W10 | ys_r (t) −ys_t (t) | + w11 | ys_r (t) −ys_t (t) | + w12 | θh1_r (t) −θh1_t (t) | + w13 | θh2_r (t) −θh2_t (t) | +
Seeking in. However, w1 to w13 are weight parameters, the end_r is teaching work state information, and the end_t is actual work state information.
作業状態認識装置13が上記ハンドに設けた複数の接触センサであり、これら接触センサーの出力情報(計測値)を基に教示作業状態情報や実作業状態情報を生成するにあたっては、ハンドの基準位置(xh,yh,zh)と、ハンド基準面の法線ベクトル(xs,ys,zs)とハンドの自由度(θh1,θh2…)に加え、図6に示すように接触部位ごとの接触力(f1,f2,…)も生成し、実作業状態情報と教示作業状態情報との比較で比較評価値V(t)を算出する。そして比較評価値V(t)が許容値V_limを越えるために正確に再生されていないと判断される時には、タイムスタンプにそったシーケンシャルな教示操作情報による目標軌跡生成を停止し、目標軌跡補正処理を行う。
The work
この場合、物を掴んでいるときの評価関数(比較評価値)Vは、
V=w1|f1_r(t)−f1_t(t)|+w2|f2_r(t)−f2_t(t)|+…
で求めている。なお、物を掴んでいない時の評価関数は、上記の撮像手段及び画像処理手段で構成した場合と同じ数式で求めている。接触センサを用いる場合、指先一つ一つの作業状態を確認することができるために、細やかな教示情報も正確に再現することができる。
In this case, the evaluation function (comparison evaluation value) V when grasping an object is
V = w1 | f1_r (t) −f1_t (t) | + w2 | f2_r (t) −f2_t (t) | +.
Seeking in. Note that the evaluation function when the object is not grasped is obtained by the same mathematical expression as that formed by the imaging means and the image processing means. When the contact sensor is used, since the work state of each fingertip can be confirmed, detailed teaching information can be accurately reproduced.
作業状態認識装置13として、上記の撮像手段及び画像認識手段と、ハンドに設けた接触センサとを併用してもよいのはもちろんである。前者は細やかな補正量が算出できず、接触センサは指先から部品が大きく離れている場合に補正量を算出できないが、両者を組み合わせることで、前者で大まかな位置・姿勢の補正量を計算し、後者の接触センサで細やかな補正量を計算することができるために、大きくずれたときも細やかなズレがあるときにも同時に対応することができる。
Of course, as the work
図7に示すように被組立物にその部品情報を記したICタグ3を付している場合(被組立物を載せたトレーにICタグを付している場合を含む)、ICタグ3の情報を読み取り装置30で読み取ることで、次のような処理を行うようにしてもよい。
As shown in FIG. 7, when the
例えば、他品種少量生産などで単一のマニピュレータ10が複数種の組立を行う場合、各種毎の教示操作情報を記憶手段15に記憶させておき、図8に示すように、ICタグ3から読み取ったユニークな教示情報コードに基づいて、上記記憶手段15から該当する教示操作情報を取得し、その教示操作情報に基づいてマニピュレータ10を動作させるのである。
For example, when a
異なる教示情報で組み立てる2つ以上の製品を自動的に判断して組み立てることができて、教示時間を減らすことが可能であり、また教示情報を未だ持っていない製品の組立は行わないことになるために、不良が減ることになる。 It is possible to automatically determine and assemble two or more products to be assembled with different teaching information, reduce the teaching time, and do not assemble products that do not yet have teaching information. As a result, defects are reduced.
また、ICタグ3に部品寸法情報を記載しておき、読み取った部品寸法情報に基づき、教示操作情報上の位置や把持の条件や嵌合力の条件を微調整するといったことも可能である。
It is also possible to describe part dimension information on the
マニピュレータ10で被組立物を把持して組立を行う場合、テーブル上で組立作業を行うが、このテーブルとして、図9に示すように6軸可動テーブル4を用いるとともに、6軸可動テーブル4の姿勢制御をマニピュレータ操作系1の中央演算部11で行うと、組立精度や組立の自由度を高くすることができる。
When the assembly is performed by holding the assembly by the
たとえば、マニピュレータ10が自由度に制限が多く、被組立物を被挿入物に対して斜め方向に組み付けを行うことが効率の良い組立であるにもかかわらず、これに応ずることができなかったとしても、6軸可動テーブル4側で被挿入物8を傾けることで、上記組み付けを行うことができることになる。また、撮像手段5で部品の位置姿勢情報を取得し、マニピュレータ10で保持されている被組立物9の位置に合わせて被挿入物8の位置を6軸可動テーブル4側で調整することで、マニピュレータ10での被組立物9の停止位置精度が十分でない時にも位置精度を向上させることができる。
For example, the
また、図10に示すように被組立物9に付した前記ICタグ3に6軸可動テーブル4のテーブル移動量(x,y,z,θ)を書き込んでおけば、被組立物9毎に6軸可動テーブル4(及び被挿入物8)を組立に適切な位置と姿勢に配置することができるために、組立の高速化を図ることができることになる。また補正時の補正時の計算量を減らすことができる。
As shown in FIG. 10, if the table movement amount (x, y, z, θ) of the 6-axis movable table 4 is written in the
テーブルは図11に示すように振動発生装置40を備えた可動テーブル4’としてもよい。マニピュレータ10で組み付けを行う時に部品停止位置精度が十分でなくても、被挿入物8が設置された可動テーブル4’に振動を発生させることで組み付け誤差を吸収して組立挿入ができるために、微小な位置の誤差であれば補正計算なしに組立が可能になる。なお、振動機能は、テーブル側にではなく、マニピュレータ10のハンド側に持たせてもよい。
The table may be a movable table 4 ′ having a
教示中には存在しなかったが、テーブル上に何らかの障害物7が存在して、教示操作情報に基づいてマニピュレータ10が最適経路イで動作した時には障害物7に当たってしまうことがある場合が考えられることから、図12に示すように障害物検出用の環境認識装置(撮像手段)70を設けて、障害物7が発見された時には、障害物7の位置情報を中央演算部11にに送り、障害物7に干渉しない経路ロを算出させるとよい。障害物7を回避しつつ、人間の動きをトレースすることが可能となる。
Although there was no obstacle during the teaching, there may be a case where there is an
図13に示すように、マニピュレータ10のハンドに複数の接触センサ6を配して、被組立物9をハンドが把持している間は、上記複数の接触センサの出力を常時監視し、複数の接触センサのうちのいずれかに変化があった場合は被組立物9に滑りが生じたとみなして、ハンドが被組立物9を把持する把持力を教示値よりも増大させるようにすることも好ましい。被組立物9がハンドから滑り落ちることを防ぐことができる。
As shown in FIG. 13, while the plurality of
このほか、人間の動きはその関節の可動枠の関係でマニピュレータ10の動きよりも制限が多いものとなっていることが通常であり、被組立物の姿勢を反転させることなどは人間が操作したのでは途中で持ちかえることが必要となるのに対して、マニピュレータ10ではハンドを180°回転させるだけで済む場合がある。従って、予め人間が操作したのでは関節などの条件のために複数の操作の連なりとなるものの、マニピュレータ10では単純な操作で済ませることができる場合の操作情報を予めデータベース化しておき、該当する教示操作があった時には、代用できる操作情報に置き換えてしまうようにしておくことが組立の高速化に有効である。
In addition, the human movement is usually more limited than the movement of the
ところで、人間が行う操作を基に教示操作情報を作成した場合、マニピュレータ10が動く速度は基本的に人間が操作する時の速度と同じになるが、マニピュレータ10ではより高速な動きを行わせることが可能であることが多い。
By the way, when teaching operation information is created on the basis of an operation performed by a human, the speed at which the
このために、図14に示すような速度の倍率を変更するための速度ゲージ25を設けて、教示中に速度ゲージ25による倍率設定を任意のタイミングで変更することで、直線移動等の特定の動きだけを速めた教示操作情報を得られるようにしておくと、生産性を高めることができる。
For this purpose, a
教示中にではなく、教示再生試行もしくは教示再生中に上記速度ゲージ25を操作することでマニピュレータ10の動作速度を変更するとともに、教示再生が終われば、速度ゲージ25による速度変更が反映された新たな教示操作情報が記憶部15に記憶されるようにしてもよい。この場合、動作の教示を、動きと速度とを別々にできるため、局所最適化しやすく、より生産性の高い教示を行うことができる。
The operation speed of the
速度ゲージ25による速度変更は、マニピュレータ10の動作中の一部だけでなく、全体に及ぶようにしてもよく、またマニピュレータ10のアーム部とハンドとにおいて異なる速度変更を行えるようにしておくことも好ましい。
The speed change by the
人間が行う操作に対して粘性負荷を与える粘性付加手段を備えたものとするのも好ましい。これは教示を行う人間に装着して人間の動きにERやMRのような機能性流体を利用粘性付加を与えるものを好適に用いることができるが、このほか、水を入れた水槽に腕を入れて組立の教示操作を行うものであってもよい。人間の動きに加わる粘性負荷が教示中に起こる手ぶれを防いで、無用な情報の無い教示操作情報を得ることができる。また、機能性流体を用いる場合、組立物に合わせて粘性を最適に変更できるために、より最適な教示を行うことができる。 It is also preferable to include a viscosity adding means for applying a viscous load to an operation performed by a human. This can be suitably used by attaching to a person who teaches and using a functional fluid such as ER or MR to add a viscosity to the human movement. The teaching operation of assembly may be performed. The viscous load applied to the movement of the human can prevent camera shake that occurs during teaching, and teaching operation information without unnecessary information can be obtained. Further, when the functional fluid is used, the viscosity can be optimally changed according to the assembly, so that more optimal teaching can be performed.
このほか、ある組立について、複数の教示操作情報を記憶部15に記憶させておき、最も生産性が高い教示操作情報で生産を行うものの、なんらかの理由でその教示操作情報に基づく組立では不良率が高くなった場合、2番目に生産性が高い教示操作情報を用いてマニピュレータ10を動作させるようにすれば組み立てを続行することができる。
In addition, for a certain assembly, a plurality of teaching operation information is stored in the
以上の各例では、前述のように、人間が手を使って被組立物を扱う形式での教示について説明したが、マニピュレータ10を人間が遠隔操作してマニピュレータ10に被組立物を扱わせるマスタースレーブ型のものにおいても適用することができる。なお、この場合の教示再生試行は、教示と同時になされているものとなる。
In each of the above examples, as described above, teaching in a form in which a human handles an assembly using a hand has been described, but a master that causes a
また、マスタースレーブ型においては、次のような構成を持つものを好適に用いることができる。 Moreover, in a master slave type, what has the following structures can be used suitably.
すなわち、教示装置20としてデータグローブを用いる時、マニピュレータ10のハンドに接触センサを設けるとともに、上記データグローブとしてフォースフィードバック型のものを用いて、上記接触センサの出力情報に基づき、データグローブに仕込んだ対応する位置のアクチュエータが反応して人間の指先を刺激するようにしておくのである。ハンドの指先の動きをよりリアルタイムに且つよりダイレクトに感じ取ることができるために、細やかな教示を短時間に行うことができる。
That is, when a data glove is used as the
データグローブに上記アクチュエータに代えてバイブレータを設け、ハンドの接触センサの情報に基づいて対応する位置のバイブレータが動作するようにしたり、データグローブにライトを設けて、接触センサの情報に基づいて対応する位置のライトを点灯させるものであってもよい。アクチュエータを備える場合よりも限定的ではあるが、安価に提供することができる。 A vibrator is provided in the data glove instead of the actuator, and the vibrator at the corresponding position is operated based on the information of the contact sensor of the hand, or a light is provided in the data glove, and the response is performed based on the information of the contact sensor. The light of the position may be turned on. Although it is more limited than the case where an actuator is provided, it can be provided at a low cost.
1 マニピュレータ操作系
2 マニピュレータ教示系
10 マニピュレータ
1
Claims (14)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007044626A JP4976883B2 (en) | 2007-02-23 | 2007-02-23 | Manipulator system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007044626A JP4976883B2 (en) | 2007-02-23 | 2007-02-23 | Manipulator system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2008207262A true JP2008207262A (en) | 2008-09-11 |
JP4976883B2 JP4976883B2 (en) | 2012-07-18 |
Family
ID=39784009
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007044626A Expired - Fee Related JP4976883B2 (en) | 2007-02-23 | 2007-02-23 | Manipulator system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4976883B2 (en) |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010142910A (en) * | 2008-12-19 | 2010-07-01 | Yaskawa Electric Corp | Robot system |
JP2015044257A (en) * | 2013-08-27 | 2015-03-12 | 株式会社デンソーアイティーラボラトリ | Robot, robot control method and robot control program |
JP2016028842A (en) * | 2014-07-17 | 2016-03-03 | 株式会社ロボテック | Actuator system |
JP2018051652A (en) * | 2016-09-27 | 2018-04-05 | 株式会社日立製作所 | Robot system |
CN110977981A (en) * | 2019-12-18 | 2020-04-10 | 中国东方电气集团有限公司 | Robot virtual reality synchronization system and synchronization method |
CN111984119A (en) * | 2020-08-18 | 2020-11-24 | 哈尔滨工业大学(深圳) | Gesture recognition model establishing method, gesture recognition method and device and data glove |
US11130236B2 (en) | 2018-04-18 | 2021-09-28 | Fanuc Corporation | Robot movement teaching apparatus, robot system, and robot controller |
EP4159381A1 (en) * | 2011-04-29 | 2023-04-05 | Sarcos LC | Teleoperated robotic system with payload stabilization |
US11794345B2 (en) | 2020-12-31 | 2023-10-24 | Sarcos Corp. | Unified robotic vehicle systems and methods of control |
WO2023211007A1 (en) * | 2022-04-25 | 2023-11-02 | 서울대학교산학협력단 | Robot for assembling furniture |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH03100808A (en) * | 1989-09-14 | 1991-04-25 | Mitsubishi Heavy Ind Ltd | Method and device for teaching/reproduction of robot system with conveyor |
JPH07171776A (en) * | 1993-12-20 | 1995-07-11 | Nec Corp | Mster-slave remote operating device |
JPH08174460A (en) * | 1994-12-27 | 1996-07-09 | Nissan Motor Co Ltd | Method and device for automatically installing work by assembling robot |
JPH09103984A (en) * | 1995-10-09 | 1997-04-22 | Nissan Motor Co Ltd | Work holding joint and its control device |
JPH09109069A (en) * | 1995-10-13 | 1997-04-28 | Gen Sugano | Powered intelligent method and unit |
JP2000308985A (en) * | 1999-04-26 | 2000-11-07 | Japan Science & Technology Corp | Robot teaching method and teaching system |
JP2003089086A (en) * | 2001-09-14 | 2003-03-25 | Yaskawa Electric Corp | Robot controller |
JP2003127081A (en) * | 2001-10-18 | 2003-05-08 | Ricoh Co Ltd | Assembly robot and part assembly method using the same |
JP2006031311A (en) * | 2004-07-15 | 2006-02-02 | Fanuc Ltd | Robot control device and robot system |
JP2006053702A (en) * | 2004-08-11 | 2006-02-23 | Ntn Corp | Ic tag utilization method for machine component with ic tag |
JP2006082089A (en) * | 2004-09-14 | 2006-03-30 | Nachi Fujikoshi Corp | Method and apparatus for robot seam welding |
-
2007
- 2007-02-23 JP JP2007044626A patent/JP4976883B2/en not_active Expired - Fee Related
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH03100808A (en) * | 1989-09-14 | 1991-04-25 | Mitsubishi Heavy Ind Ltd | Method and device for teaching/reproduction of robot system with conveyor |
JPH07171776A (en) * | 1993-12-20 | 1995-07-11 | Nec Corp | Mster-slave remote operating device |
JPH08174460A (en) * | 1994-12-27 | 1996-07-09 | Nissan Motor Co Ltd | Method and device for automatically installing work by assembling robot |
JPH09103984A (en) * | 1995-10-09 | 1997-04-22 | Nissan Motor Co Ltd | Work holding joint and its control device |
JPH09109069A (en) * | 1995-10-13 | 1997-04-28 | Gen Sugano | Powered intelligent method and unit |
JP2000308985A (en) * | 1999-04-26 | 2000-11-07 | Japan Science & Technology Corp | Robot teaching method and teaching system |
JP2003089086A (en) * | 2001-09-14 | 2003-03-25 | Yaskawa Electric Corp | Robot controller |
JP2003127081A (en) * | 2001-10-18 | 2003-05-08 | Ricoh Co Ltd | Assembly robot and part assembly method using the same |
JP2006031311A (en) * | 2004-07-15 | 2006-02-02 | Fanuc Ltd | Robot control device and robot system |
JP2006053702A (en) * | 2004-08-11 | 2006-02-23 | Ntn Corp | Ic tag utilization method for machine component with ic tag |
JP2006082089A (en) * | 2004-09-14 | 2006-03-30 | Nachi Fujikoshi Corp | Method and apparatus for robot seam welding |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010142910A (en) * | 2008-12-19 | 2010-07-01 | Yaskawa Electric Corp | Robot system |
EP4159381A1 (en) * | 2011-04-29 | 2023-04-05 | Sarcos LC | Teleoperated robotic system with payload stabilization |
US11745331B2 (en) | 2011-04-29 | 2023-09-05 | Sarcos, Lc | Teleoperated robotic system with payload stabilization |
US11738446B2 (en) | 2011-04-29 | 2023-08-29 | Sarcos, Lc | Teleoperated robotic system with impact responsive force feedback |
JP2015044257A (en) * | 2013-08-27 | 2015-03-12 | 株式会社デンソーアイティーラボラトリ | Robot, robot control method and robot control program |
JP2016028842A (en) * | 2014-07-17 | 2016-03-03 | 株式会社ロボテック | Actuator system |
JP2018051652A (en) * | 2016-09-27 | 2018-04-05 | 株式会社日立製作所 | Robot system |
US11130236B2 (en) | 2018-04-18 | 2021-09-28 | Fanuc Corporation | Robot movement teaching apparatus, robot system, and robot controller |
CN110977981A (en) * | 2019-12-18 | 2020-04-10 | 中国东方电气集团有限公司 | Robot virtual reality synchronization system and synchronization method |
CN111984119B (en) * | 2020-08-18 | 2023-03-31 | 哈尔滨工业大学(深圳) | Gesture recognition model establishing method, gesture recognition method and device and data glove |
CN111984119A (en) * | 2020-08-18 | 2020-11-24 | 哈尔滨工业大学(深圳) | Gesture recognition model establishing method, gesture recognition method and device and data glove |
US11794345B2 (en) | 2020-12-31 | 2023-10-24 | Sarcos Corp. | Unified robotic vehicle systems and methods of control |
WO2023211007A1 (en) * | 2022-04-25 | 2023-11-02 | 서울대학교산학협력단 | Robot for assembling furniture |
Also Published As
Publication number | Publication date |
---|---|
JP4976883B2 (en) | 2012-07-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4976883B2 (en) | Manipulator system | |
US11241796B2 (en) | Robot system and method for controlling robot system | |
US20080027580A1 (en) | Robot programming method and apparatus with both vision and force | |
JP6450960B2 (en) | Robot, robot system and teaching method | |
TWI630081B (en) | Direct teaching method of robot | |
Kaldestad et al. | Collision avoidance with potential fields based on parallel processing of 3D-point cloud data on the GPU | |
JP2014151427A (en) | Robot system and control method therefor | |
JP2014180705A (en) | Robot picking system and manufacturing method for workpiece | |
KR20110041950A (en) | Teaching and playback method using redundancy resolution control for manipulator | |
WO2018043525A1 (en) | Robot system, robot system control device, and robot system control method | |
JP2019018272A (en) | Motion generation method, motion generation device, system, and computer program | |
Rambow et al. | Autonomous manipulation of deformable objects based on teleoperated demonstrations | |
JP2015089575A (en) | Robot, control device, robot system and control method | |
Bonilla et al. | A vision-based, impedance control strategy for industrial robot manipulators | |
Nemec et al. | An efficient pbd framework for fast deployment of bi-manual assembly tasks | |
KR100644174B1 (en) | Method for compensating in welding robot | |
JPWO2009096408A1 (en) | Multi-joint structure teaching device | |
De Farias et al. | Dual quaternion-based visual servoing for grasping moving objects | |
JP2011104759A (en) | Teaching auxiliary tool for robot control system, teaching method using the teaching auxiliary tool, and robot control system performing teaching by the teaching method | |
JP2013158847A (en) | Robot control device, robot control method, robot control program and robot system | |
Lueth et al. | Reliability and integrated capabilities of locomotion and manipulation for autonomous robot assembly | |
Cong | Combination of two visual servoing techniques in contour following task | |
JP2020171989A (en) | Robot teaching system | |
Ott et al. | Autonomous opening of a door with a mobile manipulator: A case study | |
JP2021045810A (en) | Motion information generation device, end effector, robot and robot system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20091023 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20100922 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20110307 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110906 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20111107 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20120112 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20120321 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20120413 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20150420 Year of fee payment: 3 |
|
LAPS | Cancellation because of no payment of annual fees |