JP2006130580A - Method for gripping arbitrarily-shaped object by robot - Google Patents

Method for gripping arbitrarily-shaped object by robot Download PDF

Info

Publication number
JP2006130580A
JP2006130580A JP2004319642A JP2004319642A JP2006130580A JP 2006130580 A JP2006130580 A JP 2006130580A JP 2004319642 A JP2004319642 A JP 2004319642A JP 2004319642 A JP2004319642 A JP 2004319642A JP 2006130580 A JP2006130580 A JP 2006130580A
Authority
JP
Japan
Prior art keywords
gripping
robot
hand
posture
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2004319642A
Other languages
Japanese (ja)
Other versions
JP4591043B2 (en
Inventor
Yutaka Hirano
豊 平野
Eikiyo Ryu
栄強 劉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2004319642A priority Critical patent/JP4591043B2/en
Publication of JP2006130580A publication Critical patent/JP2006130580A/en
Application granted granted Critical
Publication of JP4591043B2 publication Critical patent/JP4591043B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Toys (AREA)
  • Manipulator (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a method for gripping an arbitrarily-shaped object by a robot having a visual sensor and capable of properly gripping the arbitrarily-shaped object by a robot hand. <P>SOLUTION: An object to be gripped is allocated to a prescribed simple shape on the basis of image information acquired with the visual sensor (a step S1). The size and direction of the simple shape are calculated (a step S3). A gripping posture of the robot hand is set from the direction and size of the simple shape corresponding to a type of shape (steps S11, 21, and 31). A wrist position of the robot hand is calculated from the calculated gripping posture (a step S13). A target posture of an arm and that of a body are calculated by inverse kinetic analysis (a step S15). The target postures are obtained by controlling a motor (a step S17). Then, the gripping operation is executed (a step S19). <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明はロボットによって任意の形状の物体を把持する方法に関し、特に、視覚センサによって対象物の形状を認識して物体を把持する方法に関する。   The present invention relates to a method of gripping an object having an arbitrary shape by a robot, and more particularly to a method of gripping an object by recognizing the shape of an object using a visual sensor.

産業用ロボットなどでは、通常、把持対象物・処理内容が限定されており、対象物に応じたロボットハンドの形状や把持制御が行われている。さらに、把持対象物を単品から複数に拡大し、それぞれに応じた処理を行わせる技術として視覚センサを用いたロボットハンドがある(例えば、特許文献1、2参照。)   In an industrial robot or the like, usually, the object to be grasped and the processing content are limited, and the shape of the robot hand and the grasping control according to the object are performed. Furthermore, there is a robot hand using a visual sensor as a technique for enlarging a gripping object from a single item to a plurality of items and performing processing corresponding to each (see, for example, Patent Documents 1 and 2).

特許文献1の技術は、ハンドの指中心軸と、光学式の距離センサ、視覚センサの光軸を一致させることで、座標変換演算を不要としてハンドの動作速度の向上を図ったものである。特許文献2の技術は、ロボットハンドに対象物であるワークを撮像する撮像手段を配置し、撮像した画像を基にしてワークの位置、形状を算出してハンドの把持姿勢制御を行うものである。
特開平6−31666号公報 特開2003−94367号公報
The technique of Patent Document 1 aims to improve the operation speed of the hand by making the finger center axis of the hand coincide with the optical axis of the optical distance sensor and the visual sensor so that the coordinate conversion calculation is unnecessary. The technique of Patent Document 2 is to place an imaging means for imaging a workpiece, which is an object, on a robot hand, calculate the position and shape of the workpiece based on the captured image, and control the gripping posture of the hand. .
JP-A-6-31666 JP 2003-94367 A

これらの技術では、把持対象物がロボットハンドによる把持を想定した把持部を持っていたり、ロボットハンドでの把持に適した形態をとっていることが前提となっている。しかしながら、ロボットハンドの適用範囲をさらに拡大していく場合、任意の形状を有する多様な物体を適切に把持する動作を行う必要が出てくる。   These techniques are based on the premise that the object to be grasped has a grasping portion that is assumed to be grasped by the robot hand, or has a form suitable for grasping by the robot hand. However, when the application range of the robot hand is further expanded, it is necessary to perform an operation of appropriately grasping various objects having arbitrary shapes.

そこで本発明は、視覚センサを有し、ロボットハンドによって任意形状物体を適切に把持することを可能とするロボットによる任意形状物体の把持方法を提供することを課題とする。   Therefore, an object of the present invention is to provide a method for gripping an arbitrarily shaped object by a robot that has a visual sensor and can appropriately grasp an arbitrarily shaped object by a robot hand.

上記課題を解決するため、本発明に係るロボットによる任意形状物体の把持方法は、視覚センサと、多指・多関節を有するロボットハンドとを有するロボットによる任意形状物体の把持方法であって、(1)視覚センサで取得した対象物体の画像から画像認識により、対象物体の主軸方位と大きさ、位置、姿勢情報を得る工程と、(2)求めた主軸方位、大きさ、位置、姿勢情報に基づいて把持開始時点のロボットハンドの目標姿勢を設定する工程と、(3)物体の大きさに応じてこの目標姿勢を調整する工程と、(4)物体中心位置に基づいてハンドの手首位置を計算する工程と、(5)逆運動学手法によりロボットのアーム、胴体の目標姿勢を計算する工程と、(6)求めた目標姿勢に基づいてロボットの各関節を動作させる工程とを備えていることを特徴とする。   In order to solve the above problems, a method for gripping an arbitrarily shaped object by a robot according to the present invention is a method for grasping an arbitrarily shaped object by a robot having a visual sensor and a robot hand having multiple fingers and multiple joints, 1) a step of obtaining main axis direction, size, position, and posture information of the target object by image recognition from the image of the target object acquired by the visual sensor; and (2) the obtained main axis direction, size, position, and posture information. A step of setting a target posture of the robot hand based on the start of gripping, (3) a step of adjusting the target posture according to the size of the object, and (4) a wrist position of the hand based on the center position of the object. A step of calculating, (5) a step of calculating a target posture of the robot arm and body by an inverse kinematics method, and (6) a step of operating each joint of the robot based on the obtained target posture. And wherein the are.

物体の主軸方位に応じてロボットのハンドの目標姿勢を設定し、この目標姿勢が得られるように、アーム、胴体の目標姿勢を逆運動学手法によって逆算し、各目標姿勢が得られるよう各関節を動作させることで把持開始点にロボットの各指を移動させて把持動作を行わせる。   The target posture of the robot's hand is set according to the principal axis direction of the object, and the target posture of the arm and body is calculated back by the inverse kinematics method so that this target posture can be obtained. To move each finger of the robot to the grip start point to perform the grip operation.

本発明によれば、視覚センサで取得した対象物体の画像を基にしてハンドの目標姿勢を設定し、その目標姿勢が得られるよう制御を行うので、適切な姿勢で対象物を包み込んで把持することができる。このため、視覚センサによる対象物体の位置測定に誤差がある場合や、対象物体を単純形状に当てはめた場合の当てはめた形状と本来の形状との相違が大きな場合であっても、物体を適切に把持することができ、任意形状物体を適切に把持することが可能となる。   According to the present invention, the target posture of the hand is set based on the image of the target object acquired by the visual sensor, and control is performed so as to obtain the target posture. Therefore, the target object is wrapped and held in an appropriate posture. be able to. For this reason, even if there is an error in the position measurement of the target object by the visual sensor, or when the target object is applied to a simple shape and there is a large difference between the fitted shape and the original shape, It can be gripped, and an arbitrarily shaped object can be gripped appropriately.

以下、添付図面を参照して本発明の好適な実施の形態について詳細に説明する。説明の理解を容易にするため、各図面において同一の構成要素に対しては可能な限り同一の参照番号を附し、重複する説明は省略する。   DESCRIPTION OF EXEMPLARY EMBODIMENTS Hereinafter, preferred embodiments of the invention will be described in detail with reference to the accompanying drawings. In order to facilitate the understanding of the description, the same reference numerals are given to the same components in the drawings as much as possible, and duplicate descriptions are omitted.

図1は本発明に係るロボットによる任意形状物体の把持方法が適用されるロボットハンド1の構成を示す図であり、図2は、その制御系、つまり、本発明に係るロボットによる任意形状物体の把持方法を実行する制御系を示すブロック構成図である。そして、図3は、このロボットハンド1を備えるロボット100の概略構成図である。   FIG. 1 is a diagram showing a configuration of a robot hand 1 to which a method of gripping an arbitrarily shaped object by a robot according to the present invention is applied. FIG. 2 shows a control system thereof, that is, an arbitrary shaped object by a robot according to the present invention. It is a block block diagram which shows the control system which performs the holding | grip method. FIG. 3 is a schematic configuration diagram of the robot 100 including the robot hand 1.

本実施形態のロボットハンド1は、母指10、示指11、中指12、薬指13の4指からなる。母指10は、4つの関節ごとにそれぞれモータ14が配置された4自由度のリンク系であり、根元に6軸力センサ15が配置されている。この6軸力センサ15は、互いに直交する3軸方向のそれぞれに沿う方向の力と、各軸方向回りの力を独立に検出可能なセンサである。他の3指11〜13は、最先端の関節を除く3つの関節ごとにそれぞれモータ14が配置され、最先端の関節は、隣接する関節と連動する構成とされている(連動関節17)。したがって、4関節でそれぞれ3自由度のリンク系を構成する。ロボットハンド1全体の自由度は13となる。各指11〜13の根元にはそれぞれ母指10と同様に6軸力センサ15が配置されている。これらの各指の先端10t〜13tは、曲面形状の弾性体で構成されている。さらに、各関節には、関節の曲げ角度を検出するためのエンコーダポテンションメータ16が配置されている。   The robot hand 1 according to the present embodiment includes four fingers: a thumb 10, an index finger 11, a middle finger 12, and a ring finger 13. The thumb 10 is a four-degree-of-freedom link system in which a motor 14 is arranged for each of four joints, and a six-axis force sensor 15 is arranged at the root. The six-axis force sensor 15 is a sensor that can independently detect a force in a direction along each of the three axial directions orthogonal to each other and a force around each axial direction. The other three fingers 11 to 13 are configured such that the motor 14 is arranged for each of the three joints excluding the most advanced joint, and the most advanced joint is configured to interlock with an adjacent joint (interlocking joint 17). Therefore, each of the four joints constitutes a link system having three degrees of freedom. The degree of freedom of the entire robot hand 1 is 13. A 6-axis force sensor 15 is arranged at the base of each finger 11 to 13 like the thumb 10. The tips 10t to 13t of these fingers are composed of curved elastic bodies. Further, an encoder potentiometer 16 for detecting the bending angle of the joint is disposed at each joint.

このロボットハンド1は、図3に示されるように、アーム7によって、ロボット100の胴体8に取り付けられている。胴体8は、左右にアーム7を有し、頭部に視覚センサであるカメラアイ3を備えている。アーム7にもモータとエンコーダポテンションメータが配置され、ロボットハンド1を所望の位置に移動させることが可能な構成となっている。   As shown in FIG. 3, the robot hand 1 is attached to the body 8 of the robot 100 by an arm 7. The body 8 has arms 7 on the left and right, and a camera eye 3 as a visual sensor on the head. The arm 7 is also provided with a motor and an encoder potentiometer so that the robot hand 1 can be moved to a desired position.

制御系は、RAM、ROM、CPU等で構成される制御ECU2を中心に構成されており、把持対象物の画像を撮影するカメラアイ3の出力画像から画像認識によって対象物の形状・位置を認識する画像認識部20と、認識結果を基にして把持位置・把持姿勢を計算する把持姿勢演算部21と、ロボットハンド1の動きを制御するハンド制御部22とを有している。ハンド制御部22には、上述した各6軸力センサ15と、エンコーダポテンションメータ16の各出力信号が入力され、モータドライバ4により、各モータ14の動きを制御する。   The control system is mainly configured by a control ECU 2 including a RAM, a ROM, a CPU, and the like, and recognizes the shape and position of an object by image recognition from an output image of a camera eye 3 that captures an image of the grasped object. An image recognizing unit 20, a gripping posture calculating unit 21 that calculates a gripping position / griping posture based on the recognition result, and a hand control unit 22 that controls the movement of the robot hand 1. The 6-axis force sensor 15 and the output signals of the encoder potentiometer 16 are input to the hand control unit 22, and the movement of each motor 14 is controlled by the motor driver 4.

制御系は、このような構成に限られるものではなく、指示された姿勢となるようロボットハンド1の動きを制御する制御部と、画像認識装置や把持姿勢の演算部を、別体としてもよい。また、ハードウェア的に区分されていてもソフトウェア的に区分されていてもよい。   The control system is not limited to such a configuration, and the control unit that controls the movement of the robot hand 1 so as to have the instructed posture, and the image recognition device and the gripping posture calculation unit may be separated. . Further, it may be divided by hardware or software.

続いて、このロボットハンド1によって把持対象物を把持する際の制御方法を具体的に説明する。図4は、制御処理のメインフローチャートである。   Next, a control method for gripping a gripping object by the robot hand 1 will be specifically described. FIG. 4 is a main flowchart of the control process.

最初に、カメラアイ3から入力された画像情報を基にして、画像認識部20が画像認識により、把持対象物を所定の単純形状のいずれかに当てはめる(ステップS1)。例えば、直方体(立方体を含む)、円柱、楕円球(真円球を含む)のうちいずれかの単純形状への当てはめ(近似)を行う。この当てはめは、テンプレートマッチング、特徴抽出、相関演算等によって行うことができる。単純形状に当てはめたら、当てはめた単純形状の大きさと向きを求める(ステップS3)。   First, based on the image information input from the camera eye 3, the image recognition unit 20 applies the gripping object to one of the predetermined simple shapes by image recognition (step S1). For example, fitting (approximation) to any one of a rectangular parallelepiped (including a cube), a cylinder, and an ellipsoid (including a perfect sphere) is performed. This fitting can be performed by template matching, feature extraction, correlation calculation, or the like. If it is applied to the simple shape, the size and orientation of the applied simple shape are obtained (step S3).

ステップS5では、当てはめた単純形状の種別を判別し、判別した単純形状に応じてステップS11、S21、S31へと分岐させる。   In step S5, the type of the applied simple shape is determined, and the process branches to steps S11, S21, and S31 according to the determined simple shape.

ステップS11では、当てはめた単純形状が直方体の場合のハンド1の目標姿勢の決定処理を行う。具体的な処理のフローチャートを図5に示す。図6に示すようにロボット座標系(ロボット100の胴体8に固定された座標系である。)をΣr、ロボットハンド1の局部座標系をΣhで表すものとする。また、当てはめた直方体90の互いに隣接する三面の法線方向をV1、V2、V3とする。   In step S11, the target posture determination process of the hand 1 is performed when the fitted simple shape is a rectangular parallelepiped. A flowchart of specific processing is shown in FIG. As shown in FIG. 6, a robot coordinate system (a coordinate system fixed to the body 8 of the robot 100) is represented by Σr, and a local coordinate system of the robot hand 1 is represented by Σh. Further, the normal directions of three adjacent surfaces of the fitted rectangular parallelepiped 90 are V1, V2, and V3.

対向する2面の組み合わせのうちその距離が最も長い2面の法線方向が主軸とされ(ステップS110)、この主軸方向から把持方向を決める(ステップS111)。具体的には、主軸方向がZr方向に略一致する場合には、横からの把持を選択し、水平面内に位置する場合には、上からの把持を選択する。   The normal direction of the two surfaces having the longest distance among the two opposing surfaces is the main axis (step S110), and the gripping direction is determined from the main axis direction (step S111). Specifically, gripping from the side is selected when the main axis direction substantially coincides with the Zr direction, and gripping from above is selected when positioned in the horizontal plane.

把持方向が決定したら、把持方向に応じて分岐する(ステップS112)。上方からの把持の場合には、ステップS113に移行して、ハンド姿勢を決定する。ハンド姿勢を表す行列をRhとすると、この場合の姿勢は次式(1)により表される。

Figure 2006130580
ここで、(Xhx,Xhy,Xhz)はロボット座標系から見たロボットハンド1の局部座標系のX軸方向ベクトルXhであり、(V1x,V1y,V1z)はロボット座標系から見た法線ベクトルV1を示す。Yh、Zh、V2、V3についても同様である。 When the gripping direction is determined, the process branches according to the gripping direction (step S112). In the case of gripping from above, the process moves to step S113 to determine the hand posture. If the matrix representing the hand posture is Rh, the posture in this case is represented by the following equation (1).
Figure 2006130580
Here, (X hx , X hy , X hz ) is the X-axis direction vector Xh of the local coordinate system of the robot hand 1 viewed from the robot coordinate system, and (V 1x , V 1y , V 1z ) is the robot coordinate system. The normal vector V1 seen from FIG. The same applies to Yh, Zh, V2, and V3.

すなわち、上方把持の場合には、図6(a)に示されるように、鉛直上向きの法線ベクトルV1とハンド座標系のY軸(ハンド1の手のひらに垂直な方向)とを逆向きで平行に位置させる。そして、ハンド座標系のZ軸(ハンド1をのばした際の示指11、中指12、薬指13の延長方向)を法線ベクトルV3に、残るX軸を法線ベクトルV2に一致させる。   That is, in the case of upward gripping, as shown in FIG. 6A, the vertically upward normal vector V1 and the Y axis of the hand coordinate system (direction perpendicular to the palm of the hand 1) are parallel in opposite directions. To be located. Then, the Z axis of the hand coordinate system (the extending direction of the indicating finger 11, the middle finger 12, and the ring finger 13 when the hand 1 is extended) is made to coincide with the normal vector V3, and the remaining X axis is made to coincide with the normal vector V2.

一方、側方からの把持の場合には、ステップS114に移行して、ハンド姿勢を決定する。この場合の姿勢は次式(2)により表される。

Figure 2006130580
On the other hand, in the case of gripping from the side, the process proceeds to step S114 to determine the hand posture. The posture in this case is expressed by the following equation (2).
Figure 2006130580

すなわち、側方把持の場合には、図6(b)に示されるように、主軸方向に一致する法線ベクトルV1(鉛直上向き)とハンド座標系のX軸とを一致させる。そして、ハンド座標系のY軸を法線ベクトルV2に、残るZ軸を法線ベクトルV3に一致させる。以上により、当てはめた単純形状が直方体のときの把持時のロボットハンド1の姿勢が求まる。   That is, in the case of side gripping, as shown in FIG. 6B, the normal vector V1 (vertically upward) that coincides with the principal axis direction and the X axis of the hand coordinate system are matched. Then, the Y axis of the hand coordinate system is matched with the normal vector V2, and the remaining Z axis is matched with the normal vector V3. As described above, the posture of the robot hand 1 when grasping when the fitted simple shape is a rectangular parallelepiped is obtained.

ステップS21では、当てはめた単純形状が円柱の場合のハンド1の目標姿勢の決定処理を行う。具体的な処理のフローチャートを図7に示す。ここで、円柱91の主軸方向を図8に示されるようにV0とする。ロボット座標系、ハンド座標系は、図6に示される直方体把持の場合と同様である。   In step S21, the target posture determination process of the hand 1 is performed when the fitted simple shape is a cylinder. A flowchart of specific processing is shown in FIG. Here, the principal axis direction of the cylinder 91 is set to V0 as shown in FIG. The robot coordinate system and the hand coordinate system are the same as in the case of the rectangular parallelepiped grip shown in FIG.

まず、円柱91の主軸方向と直径の長さの比を基にして把持方向を決定する(ステップS211)。例えば、円柱91の主軸方向の長さが十分に長く、その太さが一定の範囲にあり、円柱91の側壁を把持できる条件にあるときは円柱91の側方からの把持とし、それ以外の場合には、円柱91の端面からの把持を選択する。   First, the gripping direction is determined based on the ratio of the main axis direction of the cylinder 91 to the length of the diameter (step S211). For example, when the length of the cylinder 91 in the main axis direction is sufficiently long and the thickness is in a certain range and the side wall of the cylinder 91 can be gripped, gripping from the side of the cylinder 91 is performed. In this case, gripping from the end surface of the cylinder 91 is selected.

把持方向が決定したら、把持方向に応じて分岐する(ステップS212)。端面からの把持の場合には、ステップS213に移行して、まず、図8(a)に示されるように、ハンド座標系のYh軸方向を主軸方向V0に一致させる。

Figure 2006130580
ここで、(V0x,V0y,V0z)はロボット座標系から見た主軸ベクトルV0を表している。次に、指先方向つまりZ軸方向ベクトルzhを求める(ステップS214)。図9(a)に示されるように、まず、円柱91の上端面を含む平面Pを規定すると、この平面は、この上端面の中心Cの座標を(x,y,z)とすると、次式(4)で表せる。
Figure 2006130580
ロボットの肩の中心Aから鉛直線を下ろし、その線が平面Pと交わる点をB点とすると、ロボット座標系におけるA点とB点のx、y座標は一致する(x=x、y=y)。一方、B点は平面P上に存在するから、そのz座標zは、(4)式より
Figure 2006130580
で表せる。このB点とC点を結ぶ方向の単位ベクトルをzhに設定する。このzhの座標は、以下の(6)式から算出される。
Figure 2006130580
When the gripping direction is determined, the process branches according to the gripping direction (step S212). In the case of gripping from the end face, the process proceeds to step S213, and first, as shown in FIG. 8A, the Yh-axis direction of the hand coordinate system is made to coincide with the principal axis direction V0.
Figure 2006130580
Here, (V 0x , V 0y , V 0z ) represents the principal axis vector V 0 viewed from the robot coordinate system. Next, the fingertip direction, that is, the Z-axis direction vector zh is obtained (step S214). As shown in FIG. 9A, first, when a plane P including the upper end surface of the cylinder 91 is defined, the plane has coordinates (x c , y c , z c ) of the center C of the upper end surface. Then, it can be expressed by the following formula (4).
Figure 2006130580
If a vertical line is dropped from the center A of the robot's shoulder and the point where the line intersects the plane P is B point, the x and y coordinates of point A and point B in the robot coordinate system match (x A = x B , y A = y B ). On the other hand, since the point B exists on the plane P, the z coordinate z B is obtained from the equation (4).
Figure 2006130580
It can be expressed as A unit vector in the direction connecting the points B and C is set to zh. The coordinates of zh are calculated from the following equation (6).
Figure 2006130580

残る、X軸方向の単位ベクトルxhは、ベクトルyhとベクトルzhの外積として以下の(7)式により計算される(ステップS215)。これにより、ハンド1の姿勢が求まる。

Figure 2006130580
The remaining unit vector xh in the X-axis direction is calculated by the following equation (7) as an outer product of the vector yh and the vector zh (step S215). Thereby, the posture of the hand 1 is obtained.
Figure 2006130580

円柱91の直径が小さい場合には、上述の手法により求めたハンド1の姿勢により、図10(a)に示されるように、物体に接触する際の母指10と対向する中指12の高さが略一致するため、確実に把持を行うことができる。しかし、円柱91の直径が大きい場合には、上述の手法により求めたハンド1の姿勢では、物体を挟み込めるぐらいにハンド1の母指10と中指12の間隔を開くと、円柱91に母指10が接触した時点では、母指10の高さと中指12の高さとの差が大きくなり、中指12が円柱91に接触しない。このため、把持に失敗してしまう。   When the diameter of the cylinder 91 is small, the height of the middle finger 12 facing the thumb 10 when contacting the object, as shown in FIG. 10A, according to the posture of the hand 1 obtained by the above-described method. Since they substantially coincide with each other, the gripping can be surely performed. However, when the diameter of the cylinder 91 is large, when the distance between the thumb 10 and the middle finger 12 of the hand 1 is widened so that an object can be sandwiched in the posture of the hand 1 obtained by the above-described method, At the time when 10 contacts, the difference between the height of the thumb 10 and the height of the middle finger 12 becomes large, and the middle finger 12 does not contact the cylinder 91. For this reason, gripping fails.

そこで円柱の直径dを所定のしきい値dthと比較する(ステップS216)。円柱の直径dがしきい値dth未満の場合には、求めた姿勢で把持を行うことができると判定して姿勢設定処理を終了する。一方、円柱の直径dがしきい値dth以上の場合には、ハンド姿勢の調整処理を行う。これは、母指10、中指12を結ぶ線分が円柱91の頂面と平行になるようハンド1の手首を回転させることで行う(図11参照)。具体的には、まず、順運動学的な手法によって母指10先端の位置Eと、中指12先端の位置Fとを算出する(ステップS217)。ここでは、中指12の場合を例にとって説明するが、母指10の場合も同様である。図12に示されるように中指12の各関節のリンク座標系を設定する。指の各関節角度がわかれば、順運動学的手法によって以下の式(8)によって指先jの位置が算出できる。

Figure 2006130580
ここで、は、ハンド座標系Σsから指先の座標系Σ4への4×4斉次変換行列であり、関節角度θ〜θの関数である。これを母指10についても行う。 Therefore, the diameter d of the cylinder is compared with a predetermined threshold value dth (step S216). When the diameter d of the cylinder is less than the threshold value dth, it is determined that the grip can be performed in the obtained posture, and the posture setting process is terminated. On the other hand, when the diameter d of the cylinder is equal to or larger than the threshold value dth, the hand posture adjustment process is performed. This is performed by rotating the wrist of the hand 1 so that the line segment connecting the thumb 10 and the middle finger 12 is parallel to the top surface of the cylinder 91 (see FIG. 11). Specifically, first, the position E of the tip of the thumb 10 and the position F of the tip of the middle finger 12 are calculated by a forward kinematic method (step S217). Here, the case of the middle finger 12 will be described as an example, but the same applies to the case of the thumb 10. As shown in FIG. 12, the link coordinate system of each joint of the middle finger 12 is set. If each joint angle of the finger is known, the position of the fingertip j can be calculated by the following equation (8) by the forward kinematic method.
Figure 2006130580
Here, s T 4 is a 4 × 4 homogeneous transformation matrix from the hand coordinate system Σs to the fingertip coordinate system Σ4, and is a function of the joint angles θ 1 to θ 4 . This is also performed for the thumb 10.

母指10先端の位置Eと、中指12先端の位置Fから調整角θadjを求める(ステップS218)。ここで、母指10の先端位置Eのロボット座標系における位置座標を(x,y,z)とし、中指12の先端位置Fのロボット座標系における位置座標を(x,y,z)とすると、図11に示される調整角θadjは、次式(9)により算出される。

Figure 2006130580
An adjustment angle θadj is obtained from the position E of the tip of the thumb 10 and the position F of the tip of the middle finger 12 (step S218). Here, the position coordinate of the tip position E of the thumb 10 in the robot coordinate system is (x E , y E , z E ), and the position coordinate of the tip position F of the middle finger 12 in the robot coordinate system is (x F , y F , Z F ), the adjustment angle θadj shown in FIG. 11 is calculated by the following equation (9).
Figure 2006130580

得られた調整角θadjだけロボットハンド1をxh軸回りで点Cを中心に回転させて新しいハンド位置を求める(ステップS219)。新しいハンド位置Rhnewは次式(10.1)(10.2)により算出される。

Figure 2006130580
The robot hand 1 is rotated around the xh axis about the point C by the obtained adjustment angle θadj to obtain a new hand position (step S219). The new hand position Rh new is calculated by the following equations (10.1) (10.2).
Figure 2006130580

一方、側方からの把持の場合には、ステップS221に移行して、まず、図8(b)に示されるように、ハンド座標系のXh軸方向を主軸方向V0に一致させる。

Figure 2006130580
次に、指先方向つまりZ軸方向ベクトルzhを求める(ステップS222)。まず、円柱91の中心C点を含む平面Pを図9(b)に示されるように、規定する。この平面は、上述の式(4)で表せる。 On the other hand, in the case of gripping from the side, the process proceeds to step S221, and first, as shown in FIG. 8B, the Xh-axis direction of the hand coordinate system is matched with the main-axis direction V0.
Figure 2006130580
Next, the fingertip direction, that is, the Z-axis direction vector zh is obtained (step S222). First, a plane P including the center C point of the cylinder 91 is defined as shown in FIG. This plane can be expressed by equation (4) above.

一方、横からの把持の場合には、物体の中心よりハンド1を外側に配置する必要があることから、ロボット100の肩の中心からA点を胴体8方向へ距離Dだけシフトさせる。そして、シフトさせたA点から鉛直線を下ろし、その線が平面Pと交わる点をB点とする。このb点とC点を結ぶ方向の単位ベクトルをzhに設定する。このzhは、(5)(6)式から求めることができる。   On the other hand, in the case of gripping from the side, it is necessary to dispose the hand 1 outside the center of the object. Therefore, the point A is shifted by the distance D from the center of the shoulder of the robot 100 toward the body 8. Then, a vertical line is dropped from the shifted point A, and a point where the line intersects the plane P is defined as a point B. A unit vector in the direction connecting the points b and C is set to zh. This zh can be obtained from equations (5) and (6).

残る、Y軸方向の単位ベクトルyhは、ベクトルzhとベクトルxhとの外積として以下の(12)式により計算される(ステップS223)。これにより、ハンド1の姿勢が求まる。

Figure 2006130580
The remaining unit vector yh in the Y-axis direction is calculated by the following equation (12) as an outer product of the vector zh and the vector xh (step S223). Thereby, the posture of the hand 1 is obtained.
Figure 2006130580

ステップS31では、当てはめた単純形状が楕円球の場合のハンド1の目標姿勢の決定処理を行う。具体的な処理のフローチャートを図13に示す。まず、図14に示されるように、yh軸を鉛直下向き、つまり、yr軸と逆向きに設定する(ステップS311)。次に、zhを設定する(ステップS312)。このzhの設定手法は、上述した円柱の端面指示の場合と同様に(4)〜(6)式による。この場合のC点は、楕円球の頂点である。X軸方向の単位ベクトルxhは、ベクトルyhとベクトルzhの外積として上述の(7)式により計算される(ステップS313)。これにより、ハンド1の姿勢が求まる。   In step S31, the target posture of the hand 1 is determined when the fitted simple shape is an elliptical sphere. A flowchart of specific processing is shown in FIG. First, as shown in FIG. 14, the yh axis is set vertically downward, that is, opposite to the yr axis (step S311). Next, zh is set (step S312). The setting method of zh is based on the equations (4) to (6) as in the case of the cylinder end face instruction described above. In this case, point C is the vertex of an elliptic sphere. The unit vector xh in the X-axis direction is calculated by the above equation (7) as an outer product of the vector yh and the vector zh (step S313). Thereby, the posture of the hand 1 is obtained.

楕円球の場合もその直径が大きい場合には、ここで求めたハンド1の姿勢では把持がうまく行えない可能性がある。そこで、ステップS314〜S317では、上述のステップS216〜S219と同様の手法によってハンド姿勢の調整を行う。ここで、ステップS317においては、ステップS219と異なり、ロボットハンド1をxh軸回りで球の中心を中心に回転させる点のみが相違する。これにより、楕円球の場合にも適切な把持姿勢が求まる。   In the case of an elliptical sphere, if the diameter is large, there is a possibility that the hand 1 cannot be grasped well with the posture of the hand 1 obtained here. Therefore, in steps S314 to S317, the hand posture is adjusted by the same method as in steps S216 to S219 described above. Here, step S317 differs from step S219 only in that the robot hand 1 is rotated about the center of the sphere around the xh axis. Accordingly, an appropriate gripping posture can be obtained even in the case of an elliptical sphere.

ステップS11、31、41により、ロボットハンド1の姿勢を設定したら、ステップS13へと移行して、ロボットハンド1の手首位置を算出する。包み込み把持における中心座標点をC(x,y,z)とする。これは、直方体を把持する場合には、ロボットハンド1に対向する面の中心点であり、円柱を端面把持する場合はその端面の中心であり、円柱を側方把持する場合と楕円球を把持する場合は、その中心である。手首位置wのロボット座標系Σrにおける位置座標をw(x,y,z)とすると、手首位置座標wは式(13)から求まる。

Figure 2006130580
When the posture of the robot hand 1 is set in steps S11, 31, 41, the process proceeds to step S13, and the wrist position of the robot hand 1 is calculated. The center coordinate point in the enveloping grip is C (x C , y C , z C ). This is the center point of the surface facing the robot hand 1 when gripping the cuboid, the center of the end surface when gripping the cylinder, and the elliptical sphere when gripping the cylinder laterally. If you want to be at the center. If the position coordinate of the wrist position w in the robot coordinate system Σr is w (x w , y w , z w ), the wrist position coordinate w is obtained from Expression (13).
Figure 2006130580

求めた手首位置座標wとハンド姿勢から逆運動学解析により、アーム7、胴体8の目標姿勢を求める(ステップS15)。求めた目標姿勢に応じて各モータ14を制御することで目標把持姿勢を得る(ステップS17)。そして、6軸力センサ15の出力から算出した把持力が目標値となるようモータ14の動作を制御することで把持を行う(ステップS19)。把持後は、別のプログラムに移行し、対象物の移動や姿勢変更等所定の動作を実行する。   From the obtained wrist position coordinates w and the hand posture, the target postures of the arm 7 and the trunk 8 are obtained by inverse kinematic analysis (step S15). A target gripping posture is obtained by controlling each motor 14 according to the obtained target posture (step S17). Then, gripping is performed by controlling the operation of the motor 14 so that the gripping force calculated from the output of the six-axis force sensor 15 becomes a target value (step S19). After gripping, the program shifts to another program, and a predetermined operation such as movement of the object and posture change is executed.

このように物体(対象物)の主軸方位を求めて、そこから直接ロボットハンド1の目標姿勢を決定しているため、物体上における把持点を予め規定する必要がない。そして、物体の大きさに応じてハンド1姿勢の微調整を行っているため、物体を確実、かつ、対称的に把持することができる。また、適切な姿勢を設定することで、物体と指とを多点で接触させる包み込み把持を行うことができ、より確実な把持が可能となる。   Thus, since the principal axis direction of the object (target object) is obtained and the target posture of the robot hand 1 is directly determined therefrom, it is not necessary to preliminarily define a gripping point on the object. Since the hand 1 posture is finely adjusted according to the size of the object, the object can be reliably and symmetrically gripped. In addition, by setting an appropriate posture, it is possible to perform enveloping and gripping in which an object and a finger are brought into contact with each other at multiple points, thereby enabling more reliable gripping.

また、当てはめる単純形状と物体の実際の形状とが相違している場合でも、物体表面に把持点を配置しておらず、これを包み込む位置にロボットハンド1を配置しているため、確実に把持を行うことができ、把持に失敗するケースが少なくなる。したがって、比較的複雑な形状を有する物体の場合でも確実に把持を行うことができるという利点がある。また、把持点を設定する必要がないため、姿勢設定を行うプログラムサイズを小さくし、かつ、高速で設定を行うことができる。このため、ロボットハンド1の応答性も向上する。   Even when the applied simple shape is different from the actual shape of the object, the gripping point is not disposed on the object surface, and the robot hand 1 is disposed at a position for wrapping the gripping point. The number of cases in which gripping fails is reduced. Therefore, there is an advantage that even an object having a relatively complicated shape can be reliably gripped. In addition, since it is not necessary to set a gripping point, it is possible to reduce the size of the program for performing posture setting and to perform setting at high speed. For this reason, the responsiveness of the robot hand 1 is also improved.

さらに、当てはめた形状と実際の形状とに多少の差異があっても、把持力が目標値となるよう制御して把持を行うことで、その差異を吸収することができるため、当てはめの精度を高精度とする必要がなく、物体を適切に把持することができる。   Furthermore, even if there is a slight difference between the fitted shape and the actual shape, the gripping force can be absorbed by controlling the gripping force so that it becomes the target value, so the accuracy of the fitting is improved. It is not necessary to have high accuracy, and the object can be gripped appropriately.

ここでは、対象物を直方体、楕円球、円柱のいずれかに当てはめたうえで把持点を決定する手法を説明したが、当てはめる単純形状はこの3つに限られるものではなく、また、この3つが必須となるものでもない。   Here, the method of determining the gripping point after applying the object to any one of a rectangular parallelepiped, an elliptical sphere, and a cylinder has been described, but the simple shape to apply is not limited to these three, and these three are It is not essential.

また、指は4指に限られず、対向する2指以上があれば、2指、3指あるいは5指以上であってもよい。また、対向する指の組み合わせは、上述したように1指−多指の組み合わせに限られるものではなく、2指−2指や2指−3指等の組み合わせとしてもよい。   Also, the number of fingers is not limited to four, and may be two, three, or five or more if there are two or more opposing fingers. Further, the combination of opposing fingers is not limited to the one-finger-finger combination as described above, and may be a combination of two fingers-2 fingers, two fingers-3 fingers, or the like.

把持姿勢の設定方法は、上述した処理ルーチンに限られるものではなく、ロボットハンドの指の配置、その可動範囲に応じて適宜設定すればよい。   The gripping posture setting method is not limited to the above-described processing routine, and may be set as appropriate according to the arrangement of the fingers of the robot hand and the movable range thereof.

本発明に係るロボットによる任意形状物体の把持方法が適用されるロボットハンドの構成を示す図である。It is a figure which shows the structure of the robot hand to which the holding method of the arbitrarily-shaped object by the robot which concerns on this invention is applied. 本発明に係るロボットによる任意形状物体の把持方法を実行する制御系を示すブロック構成図である。It is a block block diagram which shows the control system which performs the holding | grip method of the arbitrarily-shaped object by the robot which concerns on this invention. 図1のロボットハンドを有するロボット100の概略構成図である。It is a schematic block diagram of the robot 100 which has the robot hand of FIG. 本発明に係る把持方法の制御処理のメインフローチャートである。It is a main flowchart of the control processing of the holding | grip method which concerns on this invention. 直方体の場合のハンド姿勢決定処理を示すフローチャートである。It is a flowchart which shows the hand attitude | position determination process in the case of a rectangular parallelepiped. 直方体を把持する場合のハンド姿勢を示す図である。It is a figure which shows the hand attitude | position in the case of holding | griping a rectangular parallelepiped. 円柱の場合のハンド姿勢決定処理を示すフローチャートである。It is a flowchart which shows the hand attitude | position determination process in the case of a cylinder. 円柱を把持する場合のハンド姿勢を示す図である。It is a figure which shows the hand attitude | position in the case of hold | gripping a cylinder. 円柱を把持する場合のz軸方向ベクトルzhの設定手法を説明する図である。It is a figure explaining the setting method of the z-axis direction vector zh in the case of hold | gripping a cylinder. 円柱を上から把持した場合の直径による把持点の相違を説明する図である。It is a figure explaining the difference in the gripping point by the diameter at the time of gripping a cylinder from the top. ハンドの傾きの調整手法を説明する図である。It is a figure explaining the adjustment method of the inclination of a hand. 指のリンク座標系を説明する図である。It is a figure explaining the link coordinate system of a finger. 楕円球の場合のハンド姿勢決定処理を示すフローチャートである。It is a flowchart which shows the hand posture determination process in the case of an elliptical sphere. 楕円球を把持する場合のハンド姿勢を示す図である。It is a figure which shows the hand attitude | position in the case of holding | gripping an elliptical sphere.

符号の説明Explanation of symbols

1…ロボットハンド、3…カメラアイ、4…モータドライバ、7…アーム、8…胴体、9…対象物、10…母指、11…示指、12…中指、13…薬指、14…モータ、15…6軸力センサ、16…エンコーダポテンションメータ、17…連動関節、20…画像認識部、21…把持姿勢演算部、22…ハンド制御部、100…ロボット、Σr…ロボット座標系、Σs…ハンド座標系。   DESCRIPTION OF SYMBOLS 1 ... Robot hand, 3 ... Camera eye, 4 ... Motor driver, 7 ... Arm, 8 ... Torso, 9 ... Target object, 10 ... Thumb, 11 ... Index finger, 12 ... Middle finger, 13 ... Ring finger, 14 ... Motor, 15 ... 6-axis force sensor, 16 ... Encoder potentiometer, 17 ... Interlocking joint, 20 ... Image recognition unit, 21 ... Grasping posture calculation unit, 22 ... Hand control unit, 100 ... Robot, Σr ... Robot coordinate system, Σs ... Hand Coordinate system.

Claims (1)

視覚センサと、多指・多関節を有するロボットハンドとを有するロボットによる任意形状物体の把持方法であって、
視覚センサで取得した対象物体の画像から画像認識により、対象物体の主軸方位と大きさ、位置、姿勢情報を得る工程と、
求めた主軸方位、大きさ、位置、姿勢情報に基づいて把持開始時点の前記ロボットハンドの目標姿勢を設定する工程と、
物体の大きさに応じて前記目標姿勢を調整する工程と、
物体中心位置に基づいてハンドの手首位置を計算する工程と、
逆運動学手法によりロボットのアーム、胴体の目標姿勢を計算する工程と、
求めた目標姿勢に基づいてロボットの各関節を動作させる工程とを備えていることを特徴とするロボットによる任意形状物体の把持方法。
A method of gripping an arbitrarily shaped object by a robot having a visual sensor and a robot hand having multiple fingers and multiple joints,
Obtaining the principal axis direction and size, position, and orientation information of the target object by image recognition from the image of the target object acquired by the visual sensor;
Setting a target posture of the robot hand at the start of gripping based on the obtained spindle orientation, size, position, and posture information;
Adjusting the target posture according to the size of the object;
Calculating the wrist position of the hand based on the object center position;
A process of calculating the target posture of the robot arm and body using the inverse kinematics method;
And a step of operating each joint of the robot on the basis of the obtained target posture.
JP2004319642A 2004-11-02 2004-11-02 Method of gripping an arbitrarily shaped object by a robot Expired - Fee Related JP4591043B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004319642A JP4591043B2 (en) 2004-11-02 2004-11-02 Method of gripping an arbitrarily shaped object by a robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004319642A JP4591043B2 (en) 2004-11-02 2004-11-02 Method of gripping an arbitrarily shaped object by a robot

Publications (2)

Publication Number Publication Date
JP2006130580A true JP2006130580A (en) 2006-05-25
JP4591043B2 JP4591043B2 (en) 2010-12-01

Family

ID=36724564

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004319642A Expired - Fee Related JP4591043B2 (en) 2004-11-02 2004-11-02 Method of gripping an arbitrarily shaped object by a robot

Country Status (1)

Country Link
JP (1) JP4591043B2 (en)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006334774A (en) * 2005-05-31 2006-12-14 Honda Research Inst Europe Gmbh Method for controlling track of effector
JP2007125653A (en) * 2005-11-04 2007-05-24 Toyota Motor Corp Gripping control device of robot hand
JP2009172685A (en) * 2008-01-22 2009-08-06 Yaskawa Electric Corp Manipulator system and its control method
JP2012006097A (en) * 2010-06-23 2012-01-12 Yaskawa Electric Corp Robot device
CN102509025A (en) * 2011-11-25 2012-06-20 苏州大学 Method for quick solution of six-degree-of-freedom humanoid dexterous arm inverse kinematics
EP2868444A1 (en) 2013-10-31 2015-05-06 Canon Kabushiki Kaisha Singulation processing apparatus and method
JP2015136769A (en) * 2014-01-23 2015-07-30 財團法人精密機械研究發展中心 End effector control method
JP2017010447A (en) * 2015-06-25 2017-01-12 富士通株式会社 Finger model verification program, finger model verification method, and information processing device
KR101743926B1 (en) * 2010-09-20 2017-06-08 삼성전자주식회사 Robot and control method thereof
JP2019032830A (en) * 2017-07-20 2019-02-28 タタ コンサルタンシー サービシズ リミテッドTATA Consultancy Services Limited Systems and methods for detecting grasp poses for handling target objects
JP2020032523A (en) * 2018-08-28 2020-03-05 株式会社東芝 Handling device, control device and program
WO2022085560A1 (en) * 2020-10-20 2022-04-28 株式会社ソニー・インタラクティブエンタテインメント Robot hand control device, and method for controlling robot hand

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP4197717A4 (en) * 2020-10-22 2024-03-13 Samsung Electronics Co., Ltd. Grip apparatus and robot apparatus comprising same

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61182786A (en) * 1985-02-08 1986-08-15 株式会社日立製作所 Body automatic gripping system by parallel gripper
WO2004052598A1 (en) * 2002-12-12 2004-06-24 Matsushita Electric Industrial Co., Ltd. Robot control device
JP2004188533A (en) * 2002-12-10 2004-07-08 Toyota Motor Corp Object handling estimating method and object handling estimating device
JP2004284001A (en) * 2003-01-27 2004-10-14 Sharp Corp Robot hand

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61182786A (en) * 1985-02-08 1986-08-15 株式会社日立製作所 Body automatic gripping system by parallel gripper
JP2004188533A (en) * 2002-12-10 2004-07-08 Toyota Motor Corp Object handling estimating method and object handling estimating device
WO2004052598A1 (en) * 2002-12-12 2004-06-24 Matsushita Electric Industrial Co., Ltd. Robot control device
JP2004284001A (en) * 2003-01-27 2004-10-14 Sharp Corp Robot hand

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006334774A (en) * 2005-05-31 2006-12-14 Honda Research Inst Europe Gmbh Method for controlling track of effector
JP2007125653A (en) * 2005-11-04 2007-05-24 Toyota Motor Corp Gripping control device of robot hand
JP2009172685A (en) * 2008-01-22 2009-08-06 Yaskawa Electric Corp Manipulator system and its control method
JP2012006097A (en) * 2010-06-23 2012-01-12 Yaskawa Electric Corp Robot device
KR101743926B1 (en) * 2010-09-20 2017-06-08 삼성전자주식회사 Robot and control method thereof
CN102509025A (en) * 2011-11-25 2012-06-20 苏州大学 Method for quick solution of six-degree-of-freedom humanoid dexterous arm inverse kinematics
EP2868444A1 (en) 2013-10-31 2015-05-06 Canon Kabushiki Kaisha Singulation processing apparatus and method
JP2015085475A (en) * 2013-10-31 2015-05-07 キヤノン株式会社 Information processing unit, and information processing method
US9862091B2 (en) 2013-10-31 2018-01-09 Canon Kabushiki Kaisha Information processing apparatus and information processing method
JP2015136769A (en) * 2014-01-23 2015-07-30 財團法人精密機械研究發展中心 End effector control method
JP2017010447A (en) * 2015-06-25 2017-01-12 富士通株式会社 Finger model verification program, finger model verification method, and information processing device
JP2019032830A (en) * 2017-07-20 2019-02-28 タタ コンサルタンシー サービシズ リミテッドTATA Consultancy Services Limited Systems and methods for detecting grasp poses for handling target objects
JP2020032523A (en) * 2018-08-28 2020-03-05 株式会社東芝 Handling device, control device and program
JP7166206B2 (en) 2018-08-28 2022-11-07 株式会社東芝 Handling devices, controls and programs
WO2022085560A1 (en) * 2020-10-20 2022-04-28 株式会社ソニー・インタラクティブエンタテインメント Robot hand control device, and method for controlling robot hand

Also Published As

Publication number Publication date
JP4591043B2 (en) 2010-12-01

Similar Documents

Publication Publication Date Title
JP4001105B2 (en) Grasping method of arbitrarily shaped object by robot
JP5606241B2 (en) Visual cognitive system and method for humanoid robot
Kofman et al. Teleoperation of a robot manipulator using a vision-based human-robot interface
JP4591043B2 (en) Method of gripping an arbitrarily shaped object by a robot
JP2007229890A (en) Hand controlling system
JP2015112654A (en) Control apparatus, robot, teaching data generation method, and robot system
JPS60263681A (en) Instruction method of robot
JP2009172685A (en) Manipulator system and its control method
Lin et al. Grasp planning based on strategy extracted from demonstration
Wang 3D object pose estimation using stereo vision for object manipulation system
Hu et al. Calibrating human hand for teleoperating the HIT/DLR hand
JP4211701B2 (en) Robot hand gripping control device
JPH0780790A (en) Three-dimensional object grasping system
JP2008168372A (en) Robot device and shape recognition method
JPWO2019065427A1 (en) Robot hand system control method and robot hand system
JP2005007486A (en) Gripping control device of robot hand
Romero et al. Modeling and evaluation of human-to-robot mapping of grasps
JP2008183629A (en) Robot and its control device and control method
JP3884249B2 (en) Teaching system for humanoid hand robot
JP4715296B2 (en) Robot hand holding and gripping control method.
Kawasaki et al. Virtual robot teaching for humanoid hand robot using muti-fingered haptic interface
JP2021045810A (en) Motion information generation device, end effector, robot and robot system
CN211806133U (en) Two fingers grab demonstrator and teaching system of robot
CN116038666A (en) Double-arm robot device integrated with multiple sensors and cooperative compliant operation method thereof
CN212352006U (en) Teaching glove and teaching system of two-finger grabbing robot

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070718

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090311

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090317

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090513

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20100126

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100303

A911 Transfer of reconsideration by examiner before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20100510

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100720

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100729

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100817

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100830

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130924

Year of fee payment: 3

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130924

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees