JP3884249B2 - Teaching system for humanoid hand robot - Google Patents
Teaching system for humanoid hand robot Download PDFInfo
- Publication number
- JP3884249B2 JP3884249B2 JP2001255290A JP2001255290A JP3884249B2 JP 3884249 B2 JP3884249 B2 JP 3884249B2 JP 2001255290 A JP2001255290 A JP 2001255290A JP 2001255290 A JP2001255290 A JP 2001255290A JP 3884249 B2 JP3884249 B2 JP 3884249B2
- Authority
- JP
- Japan
- Prior art keywords
- hand
- robot
- finger
- human
- teaching
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Manipulator (AREA)
Description
【0001】
【発明の属する技術分野】
本発明は、多指多関節の人間型ハンドを有するロボット(以下、人間型ハンドロボット)に関するものであり、特に、その人間型ハンドの教示システムに関するものである。
【0002】
【技術的背景】
人間型ハンドロボットの例としては、例えば、発明者たちにより開発されたGifu Hand II(図1参照)がある(H. Kawasaki, K. Tsuneo, K. Uchiyama, & T.Kurimoto, Dexterous Anthropomorphic Robot Hand with Distributed Tactile Sensor: Gifu Hand II,・Proc. of IEEE Int. Conf. on System, Man and Cybernetics pp. II-782 ・787, 1999参照)。このGifu HandIIは、形や機構の双方とも人間の手とほぼ同様となるように設計されている。即ち、この人間型ハンドロボットは、親指110と4つの指122,124,126,128とを有しており、親指110は4つの関節と4つの自由度を持ち、各指122,124,126,128も4つの関節と3つの自由度を有している。すべてのサーボモータは、手のフレーム内に搭載されている。6軸の力センサが各指先に付けられており、624個の触覚センサが、掌140や親指等の指の表面に分布している。そして、このGifu Hand IIは、人間の手の形状ばかりでなく、運動空間も同じようになるように構成されている。
このような人間型ハンドロボットの教示方式は、従来、マスターとする人間の掌と指の動き(以下、掌と指の両者を指し示すときは人間の場合は手、ロボットの場合はハンドと呼ぶ)を、直接スレーブであるロボットに目標値として伝える直接的マスター・スレーブ方式による教示が一般的である。しかし、マスターとスレーブとの掌と指の大きさが異なり、指の作業領域が一致せず運動機能も異なるため、マスターの指関節角度をスレーブで実現しても、指先の到達領域が異なるため作業が実行できないことがあり、人間はその差異を考慮してマスターである人間の手を動かす必要があり、円滑な教示が困難なことが多かった。
他の方法として、マスターである人間の掌の位置・姿勢はそのままロボット・ハンドでも実現するようにし、ロボットの指先の位置を最も位置誤差が少なくなるように指の角度を調整して指の大きさや運動機能の違いを吸収するようにしている方法もある(R. N. Rohling and J. M. Hollerbach,"Optimized FingertipMapping for Teleoperation of Dexterous Robot Hand,Proc. of IEEE International Conference on Robotics and Automation,pp.769-775,1993参照)。しかし、掌の位置・姿勢が固定されるため、人間の手とロボット・ハンドの幾何学寸法等が類似していないと、共通の作業領域が狭いため、マスターの指先位置をスレーブで実現することは困難なことが多く、さらに、スレーブでの可動範囲であっても、運動学上の特異点近傍のために所定の力や速度を指先で生じさせることが困難であったりした。
【0003】
【発明が解決しようとする課題】
本発明の目的は、マスターである人間の動作からスレーブである人間型ハンドロボットへの動作の教示方法において、両者の幾何学的な寸法の差異、指関節の可動範囲の差異、関節の自由度数の差異等により、作業領域と作業能力が異なるために円滑な教示が困難であったことを大幅に改善するロボット教示方式を提供することを目的としている。
【0004】
【課題を解決するための手段】
上記の目的を達成するために、本発明は、指及び掌を有する人間型ハンドロボットの動作の目標軌道を生成する教示システムにおいて、環境中の人間作業における掌、指、及び対象物体の3次元運動を計測する計測部と、前記計測部からのデータを用いて、ロボット・ハンドの指と対象物体との接触点を、人間の指と対象物体との接触点と一致させるように、指についての教示データを優先的に作成するとともに、ロボット・ハンドの掌の位置・姿勢について、指機構の可動範囲においてロボット・ハンドの可操作性を解析して、可操作性を最大にするように、教示データを作成する可操作性解析部とを備えることを特徴とする
前記計測部は、環境での対象物を人間が操作するときの、対象物体と人間の指との接触点を計測データとすることができる。
さらに、このシステムは、人間が作業するための仮想環境を生成するバーチャル・シミュレーション部を備え、前記環境中での人間作業は、前記バーチャル・シミュレーション部から、対象物体に対する作用を人間の手にフィードバックするためのフォース・フィードバック・グローブを付けて行うこともできる。
【0005】
【発明の実施の形態】
以下、図面を参照して、本発明の実施形態を説明する。
図2は、本発明の実施形態における人間型ハンドロボットの教示システムの構成例である。図2に示されるように、人間型ハンドロボット教示システム200は、ロボット制御系210およびロボット教示系250で構成されている。ロボット制御系210は、スーパバイザ212のもとに、アーム・コントローラ214で制御されるアーム222、ハンド・コントローラ216で制御されるハンド224、そして、ビジョン・コントローラ218で制御されるカメラ226で構成されている。また、ロボット教示系250は、データ・アクイジション・システム262、3次元位置計測装置264、フォース・フィードバック・グローブ300、バーチャル・シミュレーション・システム252、ハンド可操作性解析システム254、ロボット・シミュレーション・システム256で構成されている。
【0006】
この実施形態である人間型ハンドロボット教示システム200の動作を説明する。遠隔にあるロボットの置かれた環境は、ロボット制御系210のカメラ226で写されて、ビジョン・コントローラ218およびスーパバイザ212を介してロボット教示系250に送られる。ロボット教示系250に送られたビジョンの視覚映像と、操作対象である物体の事前情報から仮想環境をバーチャル・シミュレーション・システム252で構築する。構築された仮想環境では、少なくとも物体に対応する仮想物体と人間の手に対応する仮想ハンドが提示される。人間は、手にフォース・フィード・バックを付けて、仮想環境の中で仮想物体を対象にロボットに操作させたい一連の操作を行う。このときの、人間の手の3次元位置が、3次元計測装置264で計測され、データ・アクイジション・システム262を介してバーチャル・シミュレーション・システム252に送られる。このときに、バーチャル・シミュレーション・システム252は、仮想ハンドと仮想物体に空間的な干渉があるときには、仮想抗力を計算しフォース・フィードバック・グローブに送る。この仮想抗力は仮想物体と接触する指先、掌の各部ごとに計算される。この仮想抗力はフォース・フィードバック・グローブにおいて、指先や掌での力の目標値として制御される。このため、干渉があると、人間は接触感覚や把持感覚が得られ、実際の物体操作と同様な感覚で仮想物体が操作できる。
なお、対象のロボット・ハンドとしては、例えば、前に述べたGifu Hand IIのように、人間の手と同様に5本指あり、拇指は4関節4自由度、その他の指は4関節3自由度であるものである。
【0007】
用いられているフォース・フィードバック・グローブの構成例を図3に示す。仮想環境においては、現実世界の実際の物体を操作していると人間が感じるために、十分なもっともらしさが必要である。力の情報、特に接触に関するものは、大変重要である。力は視覚的効果とともに、人間に対して提示されるべきである。このシステムでは、仮想物体を把握している人間の手に対する力は、フォース・フィードバック・グローブを用いて、人間の手に提示されている。図3に示すように、フォース・フィードバック・グローブ300は、フォース・フィードバック機構と、人間の手の関節角度を計測するデータ・グローブ(例えば、Virtual Technologies 社のCyber Glove)とで構成されている。フォース・フィードバック機構は、腕316上に位置している10個のサーボモータ352を有している。サーボモータ352によるトルクは、ワイヤ342により各指に対して伝達される。指における力は、力センサ338,334により計測される。人間は、各指の2点で力を感じる。この例のフォース・フィードバック・グローブ300における力の分解能は、約30グラムである。この構成を用いることにより、仮想的な力が人間に対して伝えられる。フォース・フィードバック・グローブ300を用いるためには、手と仮想的な対象物体との位置関係、接触点、接触力の正確な情報が必要である。例えば、次の5つのパラメータが動きのデータとして、計測される。
refvobject:基準座標系に関する対象物体の速度
objectvhand:対象物座標系に関する手の速度
handpi-th finger:ハンド座標系に関するi番目の指の位置
handvi-th finger:ハンド座標系に関するi番目の指の速度
handfi-th finger:ハンド座標系に関するi番目の指の仮想的な力
【0008】
さて、一連の操作の観測値は、データ・アクイジション・システム262を介して、ハンド可操作性解析システム254に送られる。図4は、教示のための説明図である。図4(a)は、バーチャル・シミュレーション・システム252内の人間の手を示している。図4(b)は、制御対象である人間型ロボット・ハンドを示している。教示は、人間の手で対象物を指先で把握し、その動作を人間型ハンドロボットで実行するための目標値を定めること目的としている。図4(a)に示すように、対象物体には対象物座標系が設定され、掌にはハンド座標系が設定される。対象物体と掌の位置・姿勢はこれらの座標系の位置・姿勢として定義される。図中の丸印は、接触点を表す。このような教示システムにおいては、人間の手とロボット・ハンドとの形状と運動機能が異なるため、基準座標系で表した掌の位置・姿勢refrhandと指先位置refPfingersを、人間型ハンドロボットにより同時に実現できない場合があり、実現できても機構の可動範囲限界にあって対象物体を操作しづらいことがある。物体の把持動作を考えた場合、掌の位置・姿勢refrhandよりも把持位置−−すなわち指先位置refPfingers−−が重要であるため、それらを優先させてrefrhandを修正することが望ましい。このとき、観測データで示された指先位置refPfingersを実現できる掌の位置・姿勢refrhandは、ある領域内で無数に存在し唯一に定まらない。そこで、観測データのうち、基準座標系で表した対象物体の位置・姿勢refrobjectと指先の位置refPfingers及び力refFhandは、教示データとして用い、掌の位置・姿勢refrhandに関しては、教示データとしてその値を利用するのではなく、次のロボット・ハンドの可操作性を表す評価指標を最大もしくはほぼ最大とするように掌の位置・姿勢を解析し、その結果を教示データとしている。なお、上記の掌の位置・姿勢refrhand,指先位置refPfingers,対象物体の位置・姿勢refrobjectは、ベクトル値である。
【0009】
ロボットアームの機構評価を行なう方法にヤコビ行列Jの特性の解析がある。一般的なロボットアームについて、手先の位置・姿勢の速度rと関節速度qの関係は次式によって表される。
【数1】
このとき、手先の位置・姿勢の速度rのとりうる領域はヤコビ行列Jに依存し、その大きさはdet(JT J)にほぼ比例する。したがって、det(JT J)がロボットアーム機構の作業性能を評価する指標となりうる。しかし、この指標にはロボットの関節角度の可動範囲への考慮が含まれていない。そこで、教示コマンドを生成する際に、最適なハンドの位置・姿勢を求めるためのハンド可操作性の評価関数PIを次式のように
【数2】
と定義し、PIの値が最大となるよう掌の位置・姿勢を定めることとしている。ここで、iはハンドの指を示す添字で、拇指から小指を順番に1〜5で表している。右辺第1項は、各指の機構のヤコビ行列Jiによって評価される可操作性を示しており、wiはその重みを示している。右辺第2項は、各指の機構の可動範囲によって評価される可操作性を示しており、ρiはその重みを示している。可動範囲を評価する関数PIは次式で示される。
【数3】
PI=−Σj{(qi-j−ai-j)-2+(bi-j−qi-j)-2} (ai-j<bi-j)
ここで、qi-j は指iの j番目の関節の角度である。ai-jとbi-jは指iのj番目の関節の限界角度である。ai-j<qi-j<bi-jにおいて、qi-jが値を変化させてai-jあるいはbi-jに近づくと、PIの値は急激に変化して、大きな負の値となる。明らかに、PIは、指関節角度の関数である。
【0010】
さて、いま教示の対象として扱っているロボット・ハンドは5本指で拇指は4関節4自由度機構、その他の指は4関節3自由度機構であるため、各指の機構のヤコビ行列Jiは、次式の関係が成り立つ。
【数4】
ここで、handvi-th fingerはハンド座標で表される指先の速度である。qi-th fingerは制御可能な関節の角速度であり、拇指以外の指については、qi-th finger=[qi-1,qi-2,qi-3]T(i=2〜5)であり、拇指は4関節4自由度でq1st finger=[q1-1,q1-2,q1-3,q1-4]Tであり、handv1st fingerの自由度3に対して1自由度の冗長性を持っている。各指のqi- 1の変化は、内転、外転の動きとなり、qi-j(j>1)は前屈、後屈の動きとなる。拇指は、冗長自由度を有するため、掌と指先の姿勢を前屈、後屈に関係する指機構の根元から指先までの関節角度の合計値θ=q1-2+q1-3+q1-4と定めこれを調整可能なパラメータとして利用している。したがって、評価関数PIは、指関節ベクトルqi-th finger(i=1〜5)とθの関数として表される。一方、掌の位置・姿勢refrhand=[xhand,yhand,zhand,θhand,φhand,ψhand]Tと指先位置refPfingers及びθが与えられると、指関節ベクトルが決まる。ここで、xhand,yhand,zhandは基準座標であらわした掌の位置をしめす。θhand,φhand,ψhandは 基準座標からハンド座標への回転をあらわすz−y−zオイラー角である。指先位置refPfingersは、教示データとして与えられる。したがって、指の逆運動学から、評価関数PIはrefrhandとθの関数PI(refrhand,θ)として表せる。重みwiおよびρiは、どの指もそれぞれ1.0,10.0-10に設定した。PIを最大にするrefrhandとθは、最急降下法を用いて計算する。最急降下法の計算を行なうには、refrhandおよびθの初期値が必要であり、この初期値は指の可動範囲内に収まっていなくてはならない。そこで、初期値は人間の掌の位置・姿勢とθの値とし、これがロボット・ハンドで実現できないときは、近傍を探索して可動範囲内に収まっている初期値を求める。対象としているロボット・ハンドが人間のそれと類似していると、容易に条件を満たす初期値を見つけることができる。
ハンド可操作性解析システムで求めた掌の位置・姿勢、指先の位置、指先の力は、対象物に設定した対象物座標系で記述しなおし、ロボット・シミュレーション・システムでこれらの教示データを元に作業の実行をシミュレーションし、良好な教示データであることを確認後、ロボット制御系に教示データが送られる。
【0011】
本実施形態では、VR空間でのマスターである人間の作業に基づくロボット教示について述べているが、VR空間での作業に限定されず、実空間での人間作業においても、ロボット・ハンドの可操作性を最大もしくはその近傍とするようにロボット・ハンドの掌の位置・姿勢を調整するロボット教示も同様な教示方法であることは言うまでもない。
また、本実施形態での拇指は4関節4自由度のため、指の姿勢を表すパラメータθを導入したが、拇指が3自由度の場合にはこのようなパラメータを導入する必要はないことは言うまでもない。
さらに、本実施形態では5本指ロボット・ハンドであったが、4本以下のロボット・ハンドにおいても、人間がロボットの指数に応じて教示をおこなうことにより、同様な教示方法が実行できることは言うまでもない。
また、この上述の教示システムは、発明者の一人によるロボット教示システム(特開2000−308985号公報参照)で述べられている、動作の意図を解釈してロボットの教示コマンドを作成するときにも適用することができる。
【0012】
【発明の効果】
以上の構成により、人間の手とロボット・ハンドと作業領域が異なっていても、ハンド可操作性を最大もしくはほぼ最大にするロボット・ハンドの掌の位置・姿勢を求め、それを教示データとすることにより、人間が対象物を操作した接触点をロボット・ハンドにより実現でき、かつハンド可操作性を最大とするため、ロボット・ハンドの指先で発生できる速度や力が最大となり、物体の操作を教示したように実現することが可能になる。
【図面の簡単な説明】
【図1】人間型ハンドロボットのハンドの構成を示す図である。
【図2】本発明の一実施例の教示システムの構成例を示す図である。
【図3】本発明のフォース・フィードバック・グローブの構成例を示す図である。
【図4】本発明の実施形態の教示の説明図である。
【符号の説明】
110 親指
120 各指
122,124,126,128 指
140 掌
200 人間型ハンドロボット教示システム
210 ロボット制御系
212 スーパバイザ
214 アーム・コントローラ
216 ハンド・コントローラ
218 ビジョン・コントローラ
222 アーム
224 ハンド
226 カメラ
250 ロボット教示系
252 バーチャル・シミュレーション・システム
254 ハンド可操作性解析システム
256 ロボット・シミュレーション・システム
262 データ・アクイジション・システム
264 3次元位置計測装置
300 フォース・フィードバック・グローブ
316 腕
342 ワイヤ
352 サーボモータ
338,334 力センサ[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a robot having a multi-finger multi-joint humanoid hand (hereinafter referred to as a humanoid hand robot), and more particularly to a teaching system for the humanoid hand.
[0002]
[Technical background]
An example of a humanoid hand robot is, for example, Gifu Hand II (see FIG. 1) developed by the inventors (H. Kawasaki, K. Tsuneo, K. Uchiyama, & T. Kurimoto, Dexterous Anthropomorphic Robot Hand with Distributed Tactile Sensor: Gifu Hand II, Proc. of IEEE Int. Conf. on System, Man and Cybernetics pp. II-782, 787, 1999). The Gifu Hand II is designed so that both the shape and the mechanism are almost the same as those of a human hand. That is, this humanoid hand robot has a
The teaching method of such a humanoid hand robot has conventionally been the movement of the palm and fingers of the master human (hereinafter referred to as a hand in the case of a human and a hand in the case of a robot) Is generally taught by a direct master / slave method in which a robot that is a direct slave is transmitted as a target value. However, the palm and finger sizes of the master and slave are different, the finger work areas do not match, and the motor functions are also different. In some cases, the work cannot be performed, and humans need to move the hands of the master human being in consideration of the difference, and smooth teaching is often difficult.
As another method, the position and posture of the human palm as the master can be realized with the robot hand as it is, and the fingertip position is adjusted by adjusting the finger angle so that the position error of the robot is minimized. There are also methods that absorb the difference in sheath motor function (RN Rohling and JM Hollerbach, "Optimized Fingertip Mapping for Teleoperation of Dexterous Robot Hand, Proc. Of IEEE International Conference on Robotics and Automation, pp.769-775, 1993). However, since the palm's position and posture are fixed, if the geometrical dimensions of the human hand and the robot hand are not similar, the common work area is narrow, so the master's fingertip position is the slave. In many cases, it is difficult to realize, and even within the movable range of the slave, it is difficult to generate a predetermined force or speed at the fingertip because of the vicinity of the singular point in kinematics. It was or.
[0003]
[Problems to be solved by the invention]
It is an object of the present invention to provide a method for teaching movement from a human action as a master to a humanoid hand robot as a slave, in a geometrical dimension difference between them, a difference in a movable range of a finger joint, and a degree of freedom of a joint. It is an object of the present invention to provide a robot teaching method that greatly improves the fact that smooth teaching is difficult due to the difference in work area and work ability due to differences in the above.
[0004]
[Means for Solving the Problems]
In order to achieve the above object, the present invention provides a teaching system for generating a target trajectory of a movement of a humanoid hand robot having a finger and a palm. a measuring unit for measuring an exercise, using data from the measuring unit, the contact point between the finger and the object of the robot hand, to so that to match the point of contact with the human finger and the target object, a finger In order to maximize the maneuverability by analyzing the maneuverability of the robot hand in the movable range of the finger mechanism for the position and posture of the palm of the robot hand. The measurement unit is configured to measure a contact point between a target object and a human finger when a human operates the target object in the environment. To do Can do.
The system further includes a virtual simulation unit that generates a virtual environment for human work, and the human work in the environment feeds back the action on the target object from the virtual simulation unit to the human hand. It can also be done with a force feedback glove to do.
[0005]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
FIG. 2 is a configuration example of a teaching system for a humanoid hand robot according to an embodiment of the present invention. As shown in FIG. 2, the humanoid hand
[0006]
The operation of the humanoid hand
As the target robot hand, for example, as in the case of the Gifu Hand II described above, there are five fingers as in the human hand, the thumb is 4 joints 4 degrees of freedom, and the other fingers are 4 joints 3 freedom. Is the degree.
[0007]
A configuration example of the force feedback glove used is shown in FIG. In a virtual environment, sufficient plausibility is necessary for humans to feel that they are manipulating real objects in the real world. Force information, especially about contact, is very important. Power should be presented to humans with visual effects. In this system, force on a human hand grasping a virtual object is presented to the human hand using a force feedback glove. As shown in FIG. 3, the
ref v object : velocity of the target object with respect to the reference coordinate system
object v hand : speed of the hand with respect to the object coordinate system
hand pi -th finger : position of the i-th finger in the hand coordinate system
hand v i-th finger : speed of the i-th finger with respect to the hand coordinate system
hand f i-th finger : virtual force of the i th finger on the hand coordinate system
Now, observation values of a series of operations are sent to the hand
[0009]
An analysis of the characteristics of the Jacobian matrix J is a method for evaluating the mechanism of the robot arm. For a general robot arm, the relationship between the hand position / posture speed r and the joint speed q is expressed by the following equation.
[Expression 1]
At this time, the region where the speed r of the hand position / posture can take depends on the Jacobian matrix J, and the size thereof is substantially proportional to det (J T J). Therefore, det (J T J) can be an index for evaluating the work performance of the robot arm mechanism. However, this index does not include consideration of the movable range of the joint angle of the robot. Therefore, when generating a teaching command, an evaluation function PI of hand manipulability for obtaining an optimal hand position / posture is expressed as follows:
The position and posture of the palm are determined so that the PI value is maximized. Here, i is a subscript indicating the finger of the hand, and the first to fifth fingers are represented by 1 to 5 in order. The first term on the right side indicates the manipulability evaluated by the Jacobian matrix J i of the mechanism of each finger, and w i indicates the weight. The second term on the right side indicates the manipulability evaluated by the movable range of each finger mechanism, and ρ i indicates the weight. A function PI for evaluating the movable range is expressed by the following equation.
[Equation 3]
PI = −Σ j {(q ij −a ij ) −2 + (b ij −q ij ) −2 } (a ij <b ij )
Here, q ij is the angle of the j-th joint of the finger i. a ij and b ij are the limit angles of the j-th joint of the finger i. In a ij <q ij <b ij , when q ij changes its value and approaches a ij or b ij , the PI value changes rapidly and becomes a large negative value. Clearly, PI is a function of the finger joint angle.
[0010]
Now, since the robot hand currently handled as the object of teaching is five fingers, the thumb is a four-joint four-degree-of-freedom mechanism, and the other fingers are four-joint three-degree-of-freedom mechanisms, the Jacobian matrix J i of each finger mechanism The following relationship holds.
[Expression 4]
Here, hand v i-th finger is the speed of the fingertip expressed in hand coordinates. q i-th finger is the angular velocity of the controllable joint. For fingers other than the thumb, q i-th finger = [q i-1 , q i-2 , q i-3 ] T (i = 2 to 2) 5), and the thumb finger has 4 joints with 4 degrees of freedom and q 1st finger = [q 1-1 , q 1-2 , q 1-3 , q 1-4 ] T , and the degree of freedom of hand v 1st finger is 3 Have one degree of freedom. The change of q i- 1 of each finger is an adduction and abduction movement, and q ij (j> 1) is a forward and backward bend movement. Since the thumb finger has redundant degrees of freedom, the total value of the joint angles from the root of the finger mechanism to the fingertip related to the forward and backward bending of the palm and fingertip θ = q 1-2 + q 1-3 + q 1- 4 is used as an adjustable parameter. Therefore, the evaluation function PI is expressed as a function of the finger joint vector q i-th finger (i = 1 to 5) and θ. On the other hand, given the palm position / posture ref r hand = [x hand , y hand , z hand , θ hand , φ hand , ψ hand ] T and fingertip positions ref P fingers and θ, the finger joint vector is determined. Here, x hand , y hand , and z hand indicate the position of the palm expressed in reference coordinates. θ hand , φ hand , and ψ hand are zyz Euler angles representing rotation from the reference coordinates to the hand coordinates. The fingertip position ref P fingers is given as teaching data. Therefore, from the inverse kinematics of the finger, the evaluation function PI is ref r hand and function PI (ref r hand, θ) of θ can be expressed as. The weights w i and ρ i were set to 1.0 and 10.0 −10 for every finger, respectively. Ref r hand and θ that maximize PI are calculated using the steepest descent method. In order to calculate the steepest descent method, initial values of ref r hand and θ are required, and these initial values must be within the movable range of the finger. Therefore, the initial value is the position / posture of the human palm and the value of θ, and when this cannot be realized by the robot hand, the initial value within the movable range is obtained by searching the vicinity. If the target robot hand is similar to that of a human, an initial value that satisfies the condition can be easily found.
The palm position / posture, fingertip position, and fingertip force obtained by the hand operability analysis system are described again in the object coordinate system set for the object, and the robot simulation system is used to obtain these teaching data. After the execution of the work is simulated and it is confirmed that the teaching data is good, the teaching data is sent to the robot control system.
[0011]
In the present embodiment, robot teaching based on the work of the human being who is the master in the VR space is described. However, the present invention is not limited to the work in the VR space, and the robot hand can be operated even in the human work in the real space. Needless to say, robot teaching that adjusts the position and orientation of the palm of the robot hand to maximize or close the performance is a similar teaching method.
In addition, since the thumb in this embodiment has four joints and four degrees of freedom, a parameter θ representing the posture of the finger is introduced. However, when the thumb has three degrees of freedom, it is not necessary to introduce such a parameter. Needless to say.
Further, although the five-fingered robot hand is used in the present embodiment, it goes without saying that a similar teaching method can be executed by a human being teaching according to the index of the robot even in four or fewer robot hands. Yes.
The above teaching system is also used when creating a teaching command for a robot by interpreting the intention of the operation described in the robot teaching system by one of the inventors (see Japanese Patent Laid-Open No. 2000-308985). Can be applied.
[0012]
【The invention's effect】
With the above configuration, even if the human hand and the robot hand are in different work areas, the position and posture of the palm of the robot hand that maximizes or almost maximizes the operability of the hand is obtained and used as teaching data. This makes it possible to realize the contact point where the human has manipulated the object with the robot hand, and to maximize the maneuverability of the hand. It can be realized as taught.
[Brief description of the drawings]
FIG. 1 is a diagram showing a configuration of a hand of a humanoid hand robot.
FIG. 2 is a diagram illustrating a configuration example of a teaching system according to an embodiment of the present invention.
FIG. 3 is a diagram showing a configuration example of a force feedback glove according to the present invention.
FIG. 4 is an illustration of teachings of an embodiment of the present invention.
[Explanation of symbols]
110
Claims (3)
環境中の人間作業における掌、指、及び対象物体の3次元運動を計測する計測部と、
前記計測部からのデータを用いて、ロボット・ハンドの指と対象物体との接触点を、人間の指と対象物体との接触点と一致させるように、指についての教示データを優先的に作成するとともに、ロボット・ハンドの掌の位置・姿勢について、指機構の可動範囲においてロボット・ハンドの可操作性を解析して、可操作性を最大にするように、教示データを作成する可操作性解析部と
を備えることを特徴とする人間型ハンドロボットの教示システム。 In a teaching system for generating a target trajectory of an action of a humanoid hand robot having a finger and a palm ,
A measuring unit that measures the three-dimensional movement of the palm, fingers, and target object in human work in the environment;
Using data from the measuring unit, the contact point between the finger and the object of the robot hand, to so that to match the point of contact with the human finger and the target object, preferentially the teaching data for the finger Creates teaching data to maximize the operability by analyzing the operability of the robot hand in the movable range of the finger mechanism for the position and posture of the palm of the robot hand A humanoid hand robot teaching system comprising: a sex analysis unit.
さらに、人間が作業するための仮想環境を生成するバーチャル・シミュレーション部を備えており、前記環境中での人間作業は、前記バーチャル・シミュレーション部から、対象物体に対する作用を人間の手にフィードバックするためのフォース・フィードバック・グローブを付けて行うことを特徴とする人間型ハンドロボットの教示システム。In the teaching system of the humanoid hand robot according to claim 1 or 2,
In addition, a virtual simulation unit that generates a virtual environment for human work is provided, and the human work in the environment feeds back the action on the target object from the virtual simulation unit to the human hand. Teaching system for humanoid hand robots, characterized by attaching a force feedback glove.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001255290A JP3884249B2 (en) | 2001-08-24 | 2001-08-24 | Teaching system for humanoid hand robot |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001255290A JP3884249B2 (en) | 2001-08-24 | 2001-08-24 | Teaching system for humanoid hand robot |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2003062775A JP2003062775A (en) | 2003-03-05 |
JP3884249B2 true JP3884249B2 (en) | 2007-02-21 |
Family
ID=19083285
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2001255290A Expired - Fee Related JP3884249B2 (en) | 2001-08-24 | 2001-08-24 | Teaching system for humanoid hand robot |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3884249B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20100070987A (en) * | 2008-12-18 | 2010-06-28 | 삼성전자주식회사 | Control device for multi-finger hand and grasping method with the same |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010057863A (en) * | 2008-09-08 | 2010-03-18 | Toyomaru Industry Co Ltd | Game member, and game machine including the same |
KR101896473B1 (en) * | 2012-01-04 | 2018-10-24 | 삼성전자주식회사 | Method for controlling robot hand |
KR101941844B1 (en) * | 2012-01-10 | 2019-04-11 | 삼성전자주식회사 | Robot and Control method thereof |
EP2931485B1 (en) * | 2012-12-14 | 2023-09-13 | ABB Schweiz AG | Bare hand robot path teaching |
KR101915780B1 (en) * | 2016-12-29 | 2018-11-06 | 유한책임회사 매드제너레이터 | Vr-robot synchronize system and method for providing feedback using robot |
CN110625591A (en) * | 2019-04-09 | 2019-12-31 | 华南理工大学 | Teleoperation system and method based on exoskeleton data gloves and teleoperation rod |
CN110815258B (en) * | 2019-10-30 | 2023-03-31 | 华南理工大学 | Robot teleoperation system and method based on electromagnetic force feedback and augmented reality |
-
2001
- 2001-08-24 JP JP2001255290A patent/JP3884249B2/en not_active Expired - Fee Related
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20100070987A (en) * | 2008-12-18 | 2010-06-28 | 삼성전자주식회사 | Control device for multi-finger hand and grasping method with the same |
KR101665544B1 (en) | 2008-12-18 | 2016-10-14 | 삼성전자주식회사 | Control device for multi-finger hand and grasping method with the same |
Also Published As
Publication number | Publication date |
---|---|
JP2003062775A (en) | 2003-03-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Kofman et al. | Teleoperation of a robot manipulator using a vision-based human-robot interface | |
Zhou et al. | RML glove—An exoskeleton glove mechanism with haptics feedback | |
EP2653954B1 (en) | Side-type force sense interface | |
KR101549818B1 (en) | Robot hand and method of controlling robot hand | |
Kim et al. | A force reflected exoskeleton-type masterarm for human-robot interaction | |
JP5580850B2 (en) | Fast grip contact calculation for serial robots | |
Peer et al. | Multi-fingered telemanipulation-mapping of a human hand to a three finger gripper | |
Liarokapis et al. | Functional anthropomorphism for human to robot motion mapping | |
Su et al. | Robust grasping for an under-actuated anthropomorphic hand under object position uncertainty | |
Rohling et al. | Optimized fingertip mapping for teleoperation of dextrous robot hands | |
JP3884249B2 (en) | Teaching system for humanoid hand robot | |
JP3369351B2 (en) | Elasticity setting method and control device for articulated manipulator | |
Namiki et al. | Vision-based predictive assist control on master-slave systems | |
Kobayashi et al. | Hand/arm robot teleoperation by inertial motion capture | |
Bergamasco et al. | Exoskeletons as man-machine interface systems for teleoperation and interaction in virtual environments | |
JP4591043B2 (en) | Method of gripping an arbitrarily shaped object by a robot | |
Falck et al. | DE VITO: A dual-arm, high degree-of-freedom, lightweight, inexpensive, passive upper-limb exoskeleton for robot teleoperation | |
Liarokapis et al. | Humanlike, task-specific reaching and grasping with redundant arms and low-complexity hands | |
Kawasaki et al. | Virtual robot teaching for humanoid hand robot using muti-fingered haptic interface | |
Pereira et al. | Reconstructing human hand pose and configuration using a fixed-base exoskeleton | |
JPH05337860A (en) | Robot hand teaching device and robot hand | |
Neha et al. | Contact points determination and validation for grasping of different objects by a four-finger robotic hand | |
JP4206305B2 (en) | Control method and apparatus for multi-fingered robot hand | |
JPH1133952A (en) | Method for controlling robot, and method for correcting position and attitude of robot and held object | |
JP2005335010A (en) | Gripping control device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20031031 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20040129 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20041005 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20060720 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20060815 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20061002 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20061114 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20061116 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20101124 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20101124 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111124 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111124 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121124 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121124 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20131124 Year of fee payment: 7 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313113 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
LAPS | Cancellation because of no payment of annual fees |