JP2003062775A - Teaching system for human hand type robot - Google Patents

Teaching system for human hand type robot

Info

Publication number
JP2003062775A
JP2003062775A JP2001255290A JP2001255290A JP2003062775A JP 2003062775 A JP2003062775 A JP 2003062775A JP 2001255290 A JP2001255290 A JP 2001255290A JP 2001255290 A JP2001255290 A JP 2001255290A JP 2003062775 A JP2003062775 A JP 2003062775A
Authority
JP
Japan
Prior art keywords
hand
robot
human
finger
teaching system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2001255290A
Other languages
Japanese (ja)
Other versions
JP3884249B2 (en
Inventor
Haruhisa Kawasaki
晴久 川崎
Tetsuya Mori
哲也 毛利
Satoshi Ito
聡 伊藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Science and Technology Agency
Original Assignee
Japan Science and Technology Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Japan Science and Technology Corp filed Critical Japan Science and Technology Corp
Priority to JP2001255290A priority Critical patent/JP3884249B2/en
Publication of JP2003062775A publication Critical patent/JP2003062775A/en
Application granted granted Critical
Publication of JP3884249B2 publication Critical patent/JP3884249B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To improve substantially the difficulty of smooth teaching caused by a workspace difference based on a geometrical dimension difference between a robot hand and a human hand. SOLUTION: A distant environment where a robot is put is taken by a camera 226 of a robot control system 210, and then it is sent to a robot teaching system 250 through a vision controller 218 and a supervisor 212. A hypothesis environment is established by a virtual simulation system 252 from the visual picture sent to the robot teaching system 250 and prior information on an operated object. A human operator attaches a force feed back to the hand and he performs the series of operation that he wants to make the robot operate. During the operation the three-dimensional position of the hand of human operator is measured with a three-dimensional measurement device 264. The observed value of the series of operation is sent to a hand operability analysis system 254 and it is analyzed to maximize the robot hand operability.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、多指多関節の人間
型ハンドを有するロボット(以下、人間型ハンドロボッ
ト)に関するものであり、特に、その人間型ハンドの教
示システムに関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a robot having a humanoid hand with multiple fingers and multiple joints (hereinafter referred to as a humanoid hand robot), and more particularly to a teaching system for the humanoid hand.

【0002】[0002]

【技術的背景】人間型ハンドロボットの例としては、例
えば、発明者たちにより開発されたGifu Hand
II(図1参照)がある(H. Kawasaki, K. Tsuneo,
K. Uchiyama, & T.Kurimoto, Dexterous Anthropomorph
ic Robot Hand with Distributed Tactile Sensor: Gif
u Hand II,・Proc. of IEEE Int. Conf. on System, Ma
n and Cybernetics pp. II-782 ・787, 1999参照)。
このGifu HandIIは、形や機構の双方とも人
間の手とほぼ同様となるように設計されている。即ち、
この人間型ハンドロボットは、親指110と4つの指1
22,124,126,128とを有しており、親指1
10は4つの関節と4つの自由度を持ち、各指122,
124,126,128も4つの関節と3つの自由度を
有している。すべてのサーボモータは、手のフレーム内
に搭載されている。6軸の力センサが各指先に付けられ
ており、624個の触覚センサが、掌140や親指等の
指の表面に分布している。そして、このGifu Ha
nd IIは、人間の手の形状ばかりでなく、運動空間
も同じようになるように構成されている。このような人
間型ハンドロボットの教示方式は、従来、マスターとす
る人間の掌と指の動き(以下、掌と指の両者を指し示す
ときは人間の場合は手、ロボットの場合はハンドと呼
ぶ)を、直接スレーブであるロボットに目標値として伝
える直接的マスター・スレーブ方式による教示が一般的
である。しかし、マスターとスレーブとの掌と指の大き
さが異なり、指の作業領域が一致せず運動機能も異なる
ため、マスターの指関節角度をスレーブで実現しても、
指先の到達領域が異なるため作業が実行できないことが
あり、人間はその差異を考慮してマスターである人間の
手を動かす必要があり、円滑な教示が困難なことが多か
った。他の方法として、マスターである人間の掌の位置
・姿勢はそのままロボット・ハンドでも実現するように
し、ロボットの指先の位置を最も位置誤差が少なくなる
ように指の角度を調整して指の大きさや運動機能の違い
を吸収するようにしている方法もある(R. N. Rohling
and J. M. Hollerbach,"Optimized FingertipMapping
for Teleoperation of Dexterous Robot Hand,Proc. o
f IEEE International Conference on Robotics and Au
tomation,pp.769-775,1993参照)。しかし、掌の位置
・姿勢が固定されるため、人間の手とロボット・ハンド
の幾何学寸法等が類似していないと、共通の作業領域が
狭いため、マスターの指先位置をスレーブで実現するこ
とは困難なことが多く、さらに、スレーブでの可動範囲
であっても、運動学上の特異点近傍のために所定の力や
速度を指先で生じさせることが困難であったりした。
TECHNICAL BACKGROUND An example of a humanoid hand robot is, for example, Gifu Hand developed by the inventors.
II (see Figure 1) (H. Kawasaki, K. Tsuneo,
K. Uchiyama, & T. Kurimoto, Dexterous Anthropomorph
ic Robot Hand with Distributed Tactile Sensor: Gif
u Hand II, Proc. of IEEE Int. Conf. on System, Ma
n and Cybernetics pp. II-782 ・ See 787, 1999).
The Gifu Hand II is designed so that its shape and mechanism are almost the same as those of a human hand. That is,
This humanoid hand robot has a thumb 110 and four fingers 1.
22, 124, 126, 128 and the thumb 1
10 has four joints and four degrees of freedom, and each finger 122,
124, 126, and 128 also have four joints and three degrees of freedom. All servo motors are mounted in the frame of the hand. A 6-axis force sensor is attached to each fingertip, and 624 tactile sensors are distributed on the surface of the finger such as the palm 140 or the thumb. And this Gifu Ha
nd II is configured so that not only the shape of the human hand but also the movement space is the same. In the teaching method of such a humanoid hand robot, movements of the palm and fingers of a human being a master have been conventionally performed (hereinafter, when pointing both the palm and the finger, it is called a human hand, and in the case of a robot, a hand). Is generally taught by a direct master / slave method in which a target value is directly transmitted to a robot which is a slave. However, the sizes of the palm and fingers of the master and slave are different, the work areas of the fingers do not match, and the motor functions are also different, so even if the knuckle angle of the master is realized by the slave,
In some cases, the work cannot be performed because the reach area of the fingertip is different, and the human needs to move the hand of the human being the master in consideration of the difference, and it is often difficult to smoothly teach. As another method, the position / orientation of the palm of a human being, who is the master, can be directly realized by the robot / hand, and the position of the fingertip of the robot can be adjusted by adjusting the angle of the finger to minimize the position error. There is also a method of absorbing differences in pod motor function (RN Rohling
and JM Hollerbach, "Optimized FingertipMapping
for Teleoperation of Dexterous Robot Hand, Proc. o
f IEEE International Conference on Robotics and Au
tomation, pp.769-775, 1993). However, since the position and posture of the palm are fixed, the common work area is small unless the geometrical dimensions of the human hand and robot hand are similar, so the master's fingertip position should be realized by the slave. Is often difficult, and even in the movable range of the slave, it is difficult to generate a predetermined force or speed with the fingertip because of the vicinity of the kinematic singular point.

【0003】[0003]

【発明が解決しようとする課題】本発明の目的は、マス
ターである人間の動作からスレーブである人間型ハンド
ロボットへの動作の教示方法において、両者の幾何学的
な寸法の差異、指関節の可動範囲の差異、関節の自由度
数の差異等により、作業領域と作業能力が異なるために
円滑な教示が困難であったことを大幅に改善するロボッ
ト教示方式を提供することを目的としている。
SUMMARY OF THE INVENTION An object of the present invention is to teach a motion from a motion of a human being as a master to a humanoid hand robot as a slave, a difference in geometrical dimensions between them, and a finger joint. An object of the present invention is to provide a robot teaching method that significantly improves smooth teaching which is difficult due to a difference in work area and work ability due to a difference in movable range, a difference in the number of degrees of freedom of joints, and the like.

【0004】[0004]

【課題を解決するための手段】上記の目的を達成するた
めに、本発明は、人間型ハンドロボットの動作の目標軌
道を生成する教示システムにおいて、環境中の人間作業
における掌、指、及び対象物体の3次元運動を計測する
計測部と、前記計測部からのデータを用いて、ロボット
・ハンドの指と対象物体との接触点を、人間の指と対象
物体との接触点と一致させ、ロボット・ハンドの掌の位
置・姿勢を、指機構の可動範囲においてロボット・ハン
ドの可操作性を解析する可操作性解析部とを備えること
を特徴とする。前記計測部は、環境での対象物を人間が
操作するときの、対象物体と人間の指との接触点を計測
データとすることができる。さらに、このシステムは、
人間が作業するための仮想環境を生成するバーチャル・
シミュレーション部を備え、前記環境中での人間作業
は、前記バーチャル・シミュレーション部から、対象物
体に対する作用を人間の手にフィードバックするための
フォース・フィードバック・グローブを付けて行うこと
もできる。
In order to achieve the above object, the present invention provides a palm, a finger, and an object in human work in an environment in a teaching system for generating a target trajectory of a motion of a humanoid hand robot. A contact point between the finger of the robot hand and the target object is made to coincide with a contact point between the human finger and the target object by using a measurement unit that measures the three-dimensional movement of the object and the data from the measurement unit. It is characterized by comprising an operability analysis unit for analyzing the operability of the robot hand in the movable range of the finger mechanism for the position and orientation of the palm of the robot hand. The measurement unit may use, as measurement data, a contact point between a target object and a human finger when a human operates the target in the environment. In addition, this system
Virtual that creates a virtual environment for humans to work
It is also possible to provide a simulation unit and perform human work in the environment with a force feedback glove for feeding back the action on the target object to the human hand from the virtual simulation unit.

【0005】[0005]

【発明の実施の形態】以下、図面を参照して、本発明の
実施形態を説明する。図2は、本発明の実施形態におけ
る人間型ハンドロボットの教示システムの構成例であ
る。図2に示されるように、人間型ハンドロボット教示
システム200は、ロボット制御系210およびロボッ
ト教示系250で構成されている。ロボット制御系21
0は、スーパバイザ212のもとに、アーム・コントロ
ーラ214で制御されるアーム222、ハンド・コント
ローラ216で制御されるハンド224、そして、ビジ
ョン・コントローラ218で制御されるカメラ226で
構成されている。また、ロボット教示系250は、デー
タ・アクイジション・システム262、3次元位置計測
装置264、フォース・フィードバック・グローブ30
0、バーチャル・シミュレーション・システム252、
ハンド可操作性解析システム254、ロボット・シミュ
レーション・システム256で構成されている。
BEST MODE FOR CARRYING OUT THE INVENTION Embodiments of the present invention will be described below with reference to the drawings. FIG. 2 is a configuration example of a teaching system for a humanoid hand robot according to the embodiment of the present invention. As shown in FIG. 2, the humanoid hand robot teaching system 200 includes a robot control system 210 and a robot teaching system 250. Robot control system 21
0 is composed of an arm 222 controlled by an arm controller 214, a hand 224 controlled by a hand controller 216, and a camera 226 controlled by a vision controller 218, under a supervisor 212. In addition, the robot teaching system 250 includes a data acquisition system 262, a three-dimensional position measuring device 264, a force feedback glove 30.
0, virtual simulation system 252,
It is composed of a hand operability analysis system 254 and a robot simulation system 256.

【0006】この実施形態である人間型ハンドロボット
教示システム200の動作を説明する。遠隔にあるロボ
ットの置かれた環境は、ロボット制御系210のカメラ
226で写されて、ビジョン・コントローラ218およ
びスーパバイザ212を介してロボット教示系250に
送られる。ロボット教示系250に送られたビジョンの
視覚映像と、操作対象である物体の事前情報から仮想環
境をバーチャル・シミュレーション・システム252で
構築する。構築された仮想環境では、少なくとも物体に
対応する仮想物体と人間の手に対応する仮想ハンドが提
示される。人間は、手にフォース・フィード・バックを
付けて、仮想環境の中で仮想物体を対象にロボットに操
作させたい一連の操作を行う。このときの、人間の手の
3次元位置が、3次元計測装置264で計測され、デー
タ・アクイジション・システム262を介してバーチャ
ル・シミュレーション・システム252に送られる。こ
のときに、バーチャル・シミュレーション・システム2
52は、仮想ハンドと仮想物体に空間的な干渉があると
きには、仮想抗力を計算しフォース・フィードバック・
グローブに送る。この仮想抗力は仮想物体と接触する指
先、掌の各部ごとに計算される。この仮想抗力はフォー
ス・フィードバック・グローブにおいて、指先や掌での
力の目標値として制御される。このため、干渉がある
と、人間は接触感覚や把持感覚が得られ、実際の物体操
作と同様な感覚で仮想物体が操作できる。なお、対象の
ロボット・ハンドとしては、例えば、前に述べたGif
u Hand IIのように、人間の手と同様に5本指
あり、拇指は4関節4自由度、その他の指は4関節3自
由度であるものである。
The operation of the humanoid hand robot teaching system 200 according to this embodiment will be described. The environment in which the remote robot is placed is captured by the camera 226 of the robot control system 210 and sent to the robot teaching system 250 via the vision controller 218 and the supervisor 212. A virtual environment is constructed by the virtual simulation system 252 from the visual image of the vision sent to the robot teaching system 250 and the prior information of the object to be operated. In the constructed virtual environment, at least a virtual object corresponding to an object and a virtual hand corresponding to a human hand are presented. Humans attach a force feedback to their hands and perform a series of operations in a virtual environment that they want a robot to operate on a virtual object. The three-dimensional position of the human hand at this time is measured by the three-dimensional measuring device 264 and sent to the virtual simulation system 252 via the data acquisition system 262. At this time, the virtual simulation system 2
When the virtual hand and the virtual object are spatially interfered with each other, 52 calculates a virtual drag force and performs force feedback.
Send to gloves. The virtual drag force is calculated for each part of the fingertip and the palm that come into contact with the virtual object. This virtual drag force is controlled in the force feedback glove as the target value of the force at the fingertip or palm. For this reason, when there is interference, a person can obtain a touch feeling or a grip feeling, and can operate a virtual object with a feeling similar to an actual object operation. The target robot hand may be, for example, the previously mentioned Gif.
Like u Hand II, it has five fingers like a human hand, and the thumb has four joints and four degrees of freedom, and the other fingers have four joints and three degrees of freedom.

【0007】用いられているフォース・フィードバック
・グローブの構成例を図3に示す。仮想環境において
は、現実世界の実際の物体を操作していると人間が感じ
るために、十分なもっともらしさが必要である。力の情
報、特に接触に関するものは、大変重要である。力は視
覚的効果とともに、人間に対して提示されるべきであ
る。このシステムでは、仮想物体を把握している人間の
手に対する力は、フォース・フィードバック・グローブ
を用いて、人間の手に提示されている。図3に示すよう
に、フォース・フィードバック・グローブ300は、フ
ォース・フィードバック機構と、人間の手の関節角度を
計測するデータ・グローブ(例えば、Virtual Technolo
gies 社のCyber Glove)とで構成されている。フォース
・フィードバック機構は、腕316上に位置している1
0個のサーボモータ352を有している。サーボモータ
352によるトルクは、ワイヤ342により各指に対し
て伝達される。指における力は、力センサ338,33
4により計測される。人間は、各指の2点で力を感じ
る。この例のフォース・フィードバック・グローブ30
0における力の分解能は、約30グラムである。この構
成を用いることにより、仮想的な力が人間に対して伝え
られる。フォース・フィードバック・グローブ300を
用いるためには、手と仮想的な対象物体との位置関係、
接触点、接触力の正確な情報が必要である。例えば、次
の5つのパラメータが動きのデータとして、計測され
る。refobject:基準座標系に関する対象物体の速度objecthand:対象物座標系に関する手の速度handi-th finger:ハンド座標系に関するi番目の指
の位置handi-th finger:ハンド座標系に関するi番目の指
の速度handi-th finger:ハンド座標系に関するi番目の指
の仮想的な力
An example of the structure of the force feedback glove used is shown in FIG. In a virtual environment, human peculiarity is necessary for humans to feel that they are manipulating real objects in the real world. Force information, especially regarding contact, is very important. Forces, along with visual effects, should be presented to humans. In this system, the force on the human hand grasping a virtual object is presented to the human hand by using a force feedback glove. As shown in FIG. 3, the force feedback glove 300 includes a force feedback mechanism and a data glove (for example, Virtual Technolobe) for measuring a joint angle of a human hand.
gies Cyber Glove). Force feedback mechanism is located on arm 316 1
It has zero servo motors 352. The torque generated by the servo motor 352 is transmitted to each finger by the wire 342. The force on the finger is detected by the force sensors 338, 33.
4 is measured. Humans feel force with two points on each finger. Force Feedback Globe 30 in this example
The force resolution at 0 is about 30 grams. By using this configuration, virtual force is transmitted to humans. In order to use the force feedback glove 300, the positional relationship between the hand and the virtual target object,
Accurate information on contact point and contact force is required. For example, the following five parameters are measured as motion data. ref v object : Velocity of target object with respect to reference coordinate system object v hand : Velocity of hand with respect to target coordinate system hand p i-th finger : Position of i-th finger with respect to hand coordinate system hand v i-th finger : Hand coordinate Velocity of the i-th finger in the system hand f i-th finger : virtual force of the i-th finger in the hand coordinate system

【0008】さて、一連の操作の観測値は、データ・ア
クイジション・システム262を介して、ハンド可操作
性解析システム254に送られる。図4は、教示のため
の説明図である。図4(a)は、バーチャル・シミュレ
ーション・システム252内の人間の手を示している。
図4(b)は、制御対象である人間型ロボット・ハンド
を示している。教示は、人間の手で対象物を指先で把握
し、その動作を人間型ハンドロボットで実行するための
目標値を定めること目的としている。図4(a)に示す
ように、対象物体には対象物座標系が設定され、掌には
ハンド座標系が設定される。対象物体と掌の位置・姿勢
はこれらの座標系の位置・姿勢として定義される。図中
の丸印は、接触点を表す。このような教示システムにお
いては、人間の手とロボット・ハンドとの形状と運動機
能が異なるため、基準座標系で表した掌の位置・姿勢
refhandと指先位置reffingersを、人間型ハンドロ
ボットにより同時に実現できない場合があり、実現でき
ても機構の可動範囲限界にあって対象物体を操作しづら
いことがある。物体の把持動作を考えた場合、掌の位置
・姿勢refhandよりも把持位置−−すなわち指先位置
reffingers−−が重要であるため、それらを優先させ
refhandを修正することが望ましい。このとき、観
測データで示された指先位置reffingersを実現できる
掌の位置・姿勢 refhandは、ある領域内で無数に存在
し唯一に定まらない。そこで、観測データのうち、基準
座標系で表した対象物体の位置・姿勢refobjectと指
先の位置r effingers及び力refhandは、教示データ
として用い、掌の位置・姿勢refh andに関しては、教
示データとしてその値を利用するのではなく、次のロボ
ット・ハンドの可操作性を表す評価指標を最大もしくは
ほぼ最大とするように掌の位置・姿勢を解析し、その結
果を教示データとしている。なお、上記の掌の位置・姿
refhand,指先位置reffingers,対象物体の位置
・姿勢refobjectは、ベクトル値である。
Now, the observed values of a series of operations are
Hand-operable via the acquisition system 262
Sent to the sex analysis system 254. Figure 4 is for teaching
FIG. Figure 4 (a) shows a virtual simulation
3 illustrates a human hand within the motion system 252.
FIG. 4B shows a humanoid robot hand as a control target.
Is shown. Teaching grasps the object with the fingertips of the human hand
And to perform that action with a humanoid hand robot
The purpose is to set a target value. Shown in Figure 4 (a)
In this way, the target object coordinate system is set for the target object, and
The hand coordinate system is set. Position and orientation of target object and palm
Is defined as the position / orientation of these coordinate systems. In the figure
The circle marks indicate contact points. In such a teaching system
In other words, the shape of the human hand and the robot hand and the exercise machine
Position and posture of the palm expressed in the reference coordinate system due to different functions
refrhandAnd fingertip positionrefPfingersThe humanoid hand
Depending on the bot, it may not be possible at the same time,
However, it is difficult to operate the target object due to the limit of the movable range of the mechanism.
There are things. The position of the palm when considering the gripping action of the object
·posturerefrhandRather than the grip position--that is, the fingertip position
refPfingers--- are important, so prioritize them
handrefrhandIt is desirable to correct At this time,
Fingertip position indicated by measurement datarefPfingersCan be realized
Position / posture of palm refrhandExist innumerable in a certain area
However, it is not the only one. Therefore, of the observation data, the standard
Position / orientation of target object expressed in coordinate systemrefrobjectAnd finger
Destination positionr efPfingersAnd powerrefFhandIs teaching data
Position and posture of the palmrefrh andAbout
Instead of using that value as the indicator data,
Maximum or maximum evaluation index that represents the operability of
Analyze the position and posture of the palm to maximize the
The fruit is used as teaching data. The position and shape of the palm above
Momentumrefrhand, Fingertip positionrefPfingers, Target object position
·posturerefrobjectIs a vector value.

【0009】ロボットアームの機構評価を行なう方法に
ヤコビ行列Jの特性の解析がある。一般的なロボットア
ームについて、手先の位置・姿勢の速度rと関節速度q
の関係は次式によって表される。
As a method for evaluating the mechanism of the robot arm, there is an analysis of characteristics of the Jacobian matrix J. For a general robot arm, the speed r of the hand position / orientation and the joint speed q
The relationship is expressed by the following equation.

【数1】 このとき、手先の位置・姿勢の速度rのとりうる領域は
ヤコビ行列Jに依存し、その大きさはdet(JT J)
にほぼ比例する。したがって、det(JT J)がロボ
ットアーム機構の作業性能を評価する指標となりうる。
しかし、この指標にはロボットの関節角度の可動範囲へ
の考慮が含まれていない。そこで、教示コマンドを生成
する際に、最適なハンドの位置・姿勢を求めるためのハ
ンド可操作性の評価関数PIを次式のように
[Equation 1] At this time, the area that the velocity r of the hand position / orientation can take depends on the Jacobian matrix J, and its size is det (J T J)
Is almost proportional to. Therefore, det (J T J) can be an index for evaluating the work performance of the robot arm mechanism.
However, this index does not include consideration of the range of motion of the joint angle of the robot. Therefore, when the teaching command is generated, the hand operability evaluation function PI for obtaining the optimum hand position / orientation is given by the following equation.

【数2】 と定義し、PIの値が最大となるよう掌の位置・姿勢を
定めることとしている。ここで、iはハンドの指を示す
添字で、拇指から小指を順番に1〜5で表している。右
辺第1項は、各指の機構のヤコビ行列Jiによって評価
される可操作性を示しており、wiはその重みを示して
いる。右辺第2項は、各指の機構の可動範囲によって評
価される可操作性を示しており、ρiはその重みを示し
ている。可動範囲を評価する関数PIは次式で示され
る。
[Equation 2] And the position / posture of the palm is determined so that the value of PI becomes maximum. Here, i is a subscript indicating the finger of the hand, and is represented by 1 to 5 in order from the thumb to the little finger. The first term on the right side indicates the manipulability evaluated by the Jacobian matrix J i of the mechanism of each finger, and w i indicates its weight. The second term on the right side indicates the manipulability evaluated by the movable range of the mechanism of each finger, and ρ i indicates its weight. The function PI for evaluating the movable range is shown by the following equation.

【数3】 PI=−Σj{(qi-j−ai-j-2+(bi-j
qi-j-2} (ai-j<bi-j) ここで、qi-j は指iの j番目の関節の角度である。
i-jとbi-jは指iのj番目の関節の限界角度である。
i-j<qi-j<bi-jにおいて、qi-jが値を変化させて
i-jあるいはbi-jに近づくと、PIの値は急激に変化
して、大きな負の値となる。明らかに、PIは、指関節
角度の関数である。
## EQU3 ## PI = −Σ j {(q ij −a ij ) −2 + (b ij
q ij ) −2 } (a ij <b ij ) where q ij is the angle of the j-th joint of the finger i.
a ij and b ij are the limit angles of the j-th joint of the finger i.
In a ij <q ij <b ij , when q ij changes its value and approaches a ij or b ij , the value of PI changes rapidly and becomes a large negative value. Clearly, PI is a function of knuckle angle.

【0010】さて、いま教示の対象として扱っているロ
ボット・ハンドは5本指で拇指は4関節4自由度機構、
その他の指は4関節3自由度機構であるため、各指の機
構のヤコビ行列Jiは、次式の関係が成り立つ。
Now, the robot hand, which is currently being taught, has five fingers, and the thumb has four joints and four degrees of freedom.
Since the other fingers have a 4-joint 3-degree-of-freedom mechanism, the Jacobian matrix J i of the mechanism of each finger has the following relationship.

【数4】 ここで、handi-th fingerはハンド座標で表される指
先の速度である。qi-th fingerは制御可能な関節の角速
度であり、拇指以外の指については、qi-th fin ger
[qi-1,qi-2,qi-3T(i=2〜5)であり、拇指
は4関節4自由度でq1st finger=[q1-1,q1-2,q
1-3,q1-4]Tであり、hand1st fingerの自由度3に対
して1自由度の冗長性を持っている。各指のqi-1の変
化は、内転、外転の動きとなり、qi-j(j>1)は前
屈、後屈の動きとなる。拇指は、冗長自由度を有するた
め、掌と指先の姿勢を前屈、後屈に関係する指機構の根
元から指先までの関節角度の合計値θ=q1-2+q1-3
1-4と定めこれを調整可能なパラメータとして利用し
ている。したがって、評価関数PIは、指関節ベクトル
i-th finger(i=1〜5)とθの関数として表され
る。一方、掌の位置・姿勢refhand=[xhand,y
hand,zhand,θhand,φhand,ψhandTと指先位置
reffingers及びθが与えられると、指関節ベクトルが
決まる。ここで、x hand,yhand,zhandは基準座標で
あらわした掌の位置をしめす。θhand,φha nd,ψhand
は 基準座標からハンド座標への回転をあらわすz−y
−zオイラー角である。指先位置reffingersは、教示
データとして与えられる。したがって、指の逆運動学か
ら、評価関数PIはrefhandとθの関数PI(ref
hand,θ)として表せる。重みwiおよびρiは、どの指
もそれぞれ1.0,10.0-10に設定した。PIを最
大にするrefhandとθは、最急降下法を用いて計算す
る。最急降下法の計算を行なうには、refhandおよび
θの初期値が必要であり、この初期値は指の可動範囲内
に収まっていなくてはならない。そこで、初期値は人間
の掌の位置・姿勢とθの値とし、これがロボット・ハン
ドで実現できないときは、近傍を探索して可動範囲内に
収まっている初期値を求める。対象としているロボット
・ハンドが人間のそれと類似していると、容易に条件を
満たす初期値を見つけることができる。ハンド可操作性
解析システムで求めた掌の位置・姿勢、指先の位置、指
先の力は、対象物に設定した対象物座標系で記述しなお
し、ロボット・シミュレーション・システムでこれらの
教示データを元に作業の実行をシミュレーションし、良
好な教示データであることを確認後、ロボット制御系に
教示データが送られる。
[Equation 4] here,handvi-th fingerIs the finger in hand coordinates
It is the speed ahead. qi-th fingerIs the angular velocity of the controllable joint
Degree and q for fingers other than the thumbi-th fin ger=
[Qi-1, Qi-2, Qi-3]T(I = 2-5) and thumb
Has 4 joints and 4 degrees of freedom q1st finger= [Q1-1, Q1-2, Q
1-3, Q1-4]TAndhandv1st finger3 degrees of freedom
And has one degree of freedom redundancy. Q for each fingeri-1Strange
Is a movement of adduction and abduction, qij(J> 1) is in front
Bend and backbend. Thumbs have redundant degrees of freedom
Therefore, the posture of the palm and fingertips is the root of the finger mechanism related to forward bending and backward bending.
Total value of joint angle from original to fingertip θ = q1-2+ Q1-3+
q1-4And use this as an adjustable parameter
ing. Therefore, the evaluation function PI is the finger joint vector
qi-th fingerExpressed as a function of (i = 1-5) and θ
It On the other hand, the position and posture of the palmrefrhand= [Xhand, Y
hand, Zhand, Θhand, Φhand, Ψhand]TAnd fingertip position
refPfingersAnd θ are given, the knuckle vector is
Decided. Where x hand, Yhand, ZhandIs the reference coordinate
The position of the palm is shown. θhand, Φha nd, Ψhand
Is the rotation that represents the rotation from the reference coordinates to the hand coordinates.
-Z Euler angle. Fingertip positionrefPfingersTeach
Given as data. Therefore, the inverse kinematics of the finger
The evaluation function PI isrefrhandAnd θ function PI (refr
hand, Θ). Weight wiAnd ρiWhich finger
Are 1.0 and 10.0 respectively-TenSet to. PI up
Make bigrefrhandAnd θ are calculated using the steepest descent method
It To perform the steepest descent calculation,refrhandand
An initial value of θ is required, and this initial value is within the movable range of the finger.
Must fit in. Therefore, the initial value is human
The position and orientation of the palm of the robot and the value of θ, which is the robot hand.
When it is not possible to achieve with
Find the initial value that fits. Target robot
・ If the hand is similar to that of a human, the condition can be easily
It is possible to find an initial value to satisfy. Hand operability
Position / posture of the palm, fingertip position, finger position obtained by the analysis system
The previous force is described in the object coordinate system set for the object.
And these in the robot simulation system
Simulation of work execution based on teaching data
After confirming that the teaching data is good, enter the robot control system.
Teaching data is sent.

【0011】本実施形態では、VR空間でのマスターで
ある人間の作業に基づくロボット教示について述べてい
るが、VR空間での作業に限定されず、実空間での人間
作業においても、ロボット・ハンドの可操作性を最大も
しくはその近傍とするようにロボット・ハンドの掌の位
置・姿勢を調整するロボット教示も同様な教示方法であ
ることは言うまでもない。また、本実施形態での拇指は
4関節4自由度のため、指の姿勢を表すパラメータθを
導入したが、拇指が3自由度の場合にはこのようなパラ
メータを導入する必要はないことは言うまでもない。さ
らに、本実施形態では5本指ロボット・ハンドであった
が、4本以下のロボット・ハンドにおいても、人間がロ
ボットの指数に応じて教示をおこなうことにより、同様
な教示方法が実行できることは言うまでもない。また、
この上述の教示システムは、発明者の一人によるロボッ
ト教示システム(特開2000−308985号公報参
照)で述べられている、動作の意図を解釈してロボット
の教示コマンドを作成するときにも適用することができ
る。
In this embodiment, the robot teaching based on the work of the human being the master in the VR space is described, but the robot hand is not limited to the work in the VR space, and the robot hand can be used in the human work in the real space. Needless to say, the robot teaching for adjusting the position / posture of the palm of the robot hand so as to maximize the operability of the robot or its vicinity is also a similar teaching method. Further, since the thumb of the present embodiment has four joints and four degrees of freedom, the parameter θ representing the posture of the finger is introduced. However, when the thumb has three degrees of freedom, it is not necessary to introduce such a parameter. Needless to say. Further, although the five-finger robot hand is used in the present embodiment, it is needless to say that the same teaching method can be executed by the human teaching according to the index of the robot even with four or less robot hands. Yes. Also,
The above-described teaching system is also applied to a robot teaching system described by one of the inventors (see Japanese Patent Laid-Open No. 2000-308985) when interpreting the intention of an operation and creating a teaching command for the robot. be able to.

【0012】[0012]

【発明の効果】以上の構成により、人間の手とロボット
・ハンドと作業領域が異なっていても、ハンド可操作性
を最大もしくはほぼ最大にするロボット・ハンドの掌の
位置・姿勢を求め、それを教示データとすることによ
り、人間が対象物を操作した接触点をロボット・ハンド
により実現でき、かつハンド可操作性を最大とするた
め、ロボット・ハンドの指先で発生できる速度や力が最
大となり、物体の操作を教示したように実現することが
可能になる。
With the above configuration, even if the human hand and the robot hand have different work areas, the position / posture of the palm of the robot hand that maximizes or almost maximizes the manipulability of the hand is calculated. By using as the teaching data, the contact point where a human operates the object can be realized by the robot hand, and since the hand operability is maximized, the speed and force that can be generated at the fingertips of the robot hand are maximized. , It becomes possible to realize the operation of the object as taught.

【図面の簡単な説明】[Brief description of drawings]

【図1】人間型ハンドロボットのハンドの構成を示す図
である。
FIG. 1 is a diagram showing a configuration of a hand of a humanoid hand robot.

【図2】本発明の一実施例の教示システムの構成例を示
す図である。
FIG. 2 is a diagram showing a configuration example of a teaching system according to an embodiment of the present invention.

【図3】本発明のフォース・フィードバック・グローブ
の構成例を示す図である。
FIG. 3 is a diagram showing a configuration example of a force feedback glove of the present invention.

【図4】本発明の実施形態の教示の説明図である。FIG. 4 is an illustration of the teaching of an embodiment of the present invention.

【符号の説明】[Explanation of symbols]

110 親指 120 各指 122,124,126,128 指 140 掌 200 人間型ハンドロボット教示システム 210 ロボット制御系 212 スーパバイザ 214 アーム・コントローラ 216 ハンド・コントローラ 218 ビジョン・コントローラ 222 アーム 224 ハンド 226 カメラ 250 ロボット教示系 252 バーチャル・シミュレーション・シ
ステム 254 ハンド可操作性解析システム 256 ロボット・シミュレーション・シス
テム 262 データ・アクイジション・システム 264 3次元位置計測装置 300 フォース・フィードバック・グロー
ブ 316 腕 342 ワイヤ 352 サーボモータ 338,334 力センサ
110 thumb 120 each finger 122, 124, 126, 128 finger 140 palm 200 human type hand robot teaching system 210 robot control system 212 supervisor 214 arm controller 216 hand controller 218 vision controller 222 arm 224 hand 226 camera 250 robot teaching system 252 Virtual simulation system 254 Hand manipulability analysis system 256 Robot simulation system 262 Data acquisition system 264 Three-dimensional position measuring device 300 Force feedback glove 316 Arm 342 Wire 352 Servo motor 338, 334 Force sensor

Claims (3)

【特許請求の範囲】[Claims] 【請求項1】 人間型ハンドロボットの動作の目標軌道
を生成する教示システムにおいて、 環境中の人間作業における掌、指、及び対象物体の3次
元運動を計測する計測部と、 前記計測部からのデータを用いて、ロボット・ハンドの
指と対象物体との接触点を、人間の指と対象物体との接
触点と一致させ、ロボット・ハンドの掌の位置・姿勢
を、指機構の可動範囲においてロボット・ハンドの可操
作性を解析する可操作性解析部とを備えることを特徴と
する人間型ハンドロボットの教示システム。
1. A teaching system for generating a target trajectory of a movement of a humanoid robot, a measuring section for measuring three-dimensional movements of a palm, a finger, and a target object in human work in an environment, and a measuring section from the measuring section. Using the data, the contact point between the finger of the robot hand and the target object is made to match the contact point between the human finger and the target object, and the position and orientation of the palm of the robot hand are measured in the movable range of the finger mechanism. A human-type hand robot teaching system comprising: an operability analysis unit for analyzing operability of a robot hand.
【請求項2】 請求項1に記載の人間型ハンドロボット
の教示システムにおいて、 前記計測部は、環境での対象物を人間が操作するとき
の、対象物体と人間の指との接触点を計測データとする
ことを特徴とする人間型ハンドロボットの教示システ
ム。
2. The teaching system for a humanoid hand robot according to claim 1, wherein the measuring unit measures a contact point between a target object and a human finger when the human operates the target object in the environment. A humanoid hand robot teaching system characterized by using data.
【請求項3】 請求項1又は2に記載の人間型ハンドロ
ボットの教示システムにおいて、さらに、 人間が作業するための仮想環境を生成するバーチャル・
シミュレーション部を備えており、 前記環境中での人間作業は、前記バーチャル・シミュレ
ーション部から、対象物体に対する作用を人間の手にフ
ィードバックするためのフォース・フィードバック・グ
ローブを付けて行うことを特徴とする人間型ハンドロボ
ットの教示システム。
3. The teaching system for a humanoid hand robot according to claim 1, further comprising a virtual environment for generating a virtual environment for a human to work.
A human body working in the environment is performed by attaching a force feedback glove for feeding back the action on the target object to the human hand from the virtual simulation unit. Teaching system for humanoid hand robot.
JP2001255290A 2001-08-24 2001-08-24 Teaching system for humanoid hand robot Expired - Fee Related JP3884249B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001255290A JP3884249B2 (en) 2001-08-24 2001-08-24 Teaching system for humanoid hand robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001255290A JP3884249B2 (en) 2001-08-24 2001-08-24 Teaching system for humanoid hand robot

Publications (2)

Publication Number Publication Date
JP2003062775A true JP2003062775A (en) 2003-03-05
JP3884249B2 JP3884249B2 (en) 2007-02-21

Family

ID=19083285

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001255290A Expired - Fee Related JP3884249B2 (en) 2001-08-24 2001-08-24 Teaching system for humanoid hand robot

Country Status (1)

Country Link
JP (1) JP3884249B2 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010057863A (en) * 2008-09-08 2010-03-18 Toyomaru Industry Co Ltd Game member, and game machine including the same
KR20130081875A (en) * 2012-01-10 2013-07-18 삼성전자주식회사 Robot and control method thereof
EP2931485A1 (en) * 2012-12-14 2015-10-21 ABB Technology AG Bare hand robot path teaching
KR20180077974A (en) * 2016-12-29 2018-07-09 유한책임회사 매드제너레이터 Vr-robot synchronize system and method for providing feedback using robot
KR101896473B1 (en) * 2012-01-04 2018-10-24 삼성전자주식회사 Method for controlling robot hand
CN110625591A (en) * 2019-04-09 2019-12-31 华南理工大学 Teleoperation system and method based on exoskeleton data gloves and teleoperation rod
CN110815258A (en) * 2019-10-30 2020-02-21 华南理工大学 Robot teleoperation system and method based on electromagnetic force feedback and augmented reality

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101665544B1 (en) * 2008-12-18 2016-10-14 삼성전자주식회사 Control device for multi-finger hand and grasping method with the same

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010057863A (en) * 2008-09-08 2010-03-18 Toyomaru Industry Co Ltd Game member, and game machine including the same
KR101896473B1 (en) * 2012-01-04 2018-10-24 삼성전자주식회사 Method for controlling robot hand
KR20130081875A (en) * 2012-01-10 2013-07-18 삼성전자주식회사 Robot and control method thereof
KR101941844B1 (en) * 2012-01-10 2019-04-11 삼성전자주식회사 Robot and Control method thereof
EP2931485A1 (en) * 2012-12-14 2015-10-21 ABB Technology AG Bare hand robot path teaching
US10406686B2 (en) 2012-12-14 2019-09-10 Abb Schweiz Ag Bare hand robot path teaching
EP2931485B1 (en) * 2012-12-14 2023-09-13 ABB Schweiz AG Bare hand robot path teaching
KR20180077974A (en) * 2016-12-29 2018-07-09 유한책임회사 매드제너레이터 Vr-robot synchronize system and method for providing feedback using robot
KR101915780B1 (en) * 2016-12-29 2018-11-06 유한책임회사 매드제너레이터 Vr-robot synchronize system and method for providing feedback using robot
CN110625591A (en) * 2019-04-09 2019-12-31 华南理工大学 Teleoperation system and method based on exoskeleton data gloves and teleoperation rod
CN110815258A (en) * 2019-10-30 2020-02-21 华南理工大学 Robot teleoperation system and method based on electromagnetic force feedback and augmented reality

Also Published As

Publication number Publication date
JP3884249B2 (en) 2007-02-21

Similar Documents

Publication Publication Date Title
Kofman et al. Teleoperation of a robot manipulator using a vision-based human-robot interface
Zhou et al. RML glove—An exoskeleton glove mechanism with haptics feedback
EP2653954B1 (en) Side-type force sense interface
US9122275B2 (en) Robot and control method thereof
JP5580850B2 (en) Fast grip contact calculation for serial robots
KR20130005586A (en) Manipulator and path generation method thereof
Rhee et al. Door opening control using the multi-fingered robotic hand for the indoor service robot
Rohling et al. Optimized fingertip mapping for teleoperation of dextrous robot hands
JP2009172685A (en) Manipulator system and its control method
Hu et al. Calibrating human hand for teleoperating the HIT/DLR hand
Namiki et al. Vision-based predictive assist control on master-slave systems
JP4591043B2 (en) Method of gripping an arbitrarily shaped object by a robot
JP3884249B2 (en) Teaching system for humanoid hand robot
Zhao et al. An intuitive human robot interface for tele-operation
Kobayashi et al. Hand/arm robot teleoperation by inertial motion capture
Falck et al. DE VITO: A dual-arm, high degree-of-freedom, lightweight, inexpensive, passive upper-limb exoskeleton for robot teleoperation
Ott et al. Autonomous opening of a door with a mobile manipulator: A case study
Negishi et al. Operation assistance using visual feedback with considering human intention on master-slave systems
Kawasaki et al. Virtual robot teaching for humanoid hand robot using muti-fingered haptic interface
Pereira et al. Reconstructing human hand pose and configuration using a fixed-base exoskeleton
CN111002295A (en) Teaching glove and teaching system of two-finger grabbing robot
Kawasaki et al. Virtual robot teaching based on motion analysis and hand manipulability for multi-fingered robot
CN110877335A (en) Self-adaptive unmarked mechanical arm track tracking method based on hybrid filter
Garg et al. Handaid: A seven dof semi-autonomous robotic manipulator
CN212352006U (en) Teaching glove and teaching system of two-finger grabbing robot

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20031031

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20040129

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20041005

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20060720

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060815

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20061002

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20061114

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20061116

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101124

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101124

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111124

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111124

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121124

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121124

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131124

Year of fee payment: 7

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees