JP2015071207A - Robot hand and control method thereof - Google Patents
Robot hand and control method thereof Download PDFInfo
- Publication number
- JP2015071207A JP2015071207A JP2013208475A JP2013208475A JP2015071207A JP 2015071207 A JP2015071207 A JP 2015071207A JP 2013208475 A JP2013208475 A JP 2013208475A JP 2013208475 A JP2013208475 A JP 2013208475A JP 2015071207 A JP2015071207 A JP 2015071207A
- Authority
- JP
- Japan
- Prior art keywords
- finger
- robot hand
- gripping
- fingers
- contact
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Manipulator (AREA)
Abstract
Description
この発明は、ロボットハンドおよびその制御方法に関し、特に、ロボットハンドにより対象物を把持する際の制御技術に関する。 The present invention relates to a robot hand and a control method therefor, and more particularly to a control technique for gripping an object by a robot hand.
特開平4−343691号公報(特許文献1)は、把持対象物の位置・姿勢・形状等にフレキシブルに対応可能なロボットハンドの制御方法を開示する。この制御方法が適用されるロボットハンドは、把持対象物の位置・姿勢・形状を検出する3本の指を備える。中央の探索指を中心に左右の開閉指が開閉可能に構成され、各指の先端には距離センサが配置される。ロボットハンドは、開閉指を閉状態にして対象物に接近し、探索指の対象物への近接と同時に開閉指が開いて対象物表面をなぞることによって対象物のエッジを検出する。これにより、把持対象物の位置・姿勢・形状を推定することができるとされる(特許文献1参照)。 Japanese Patent Laid-Open No. 4-343691 (Patent Document 1) discloses a robot hand control method that can flexibly cope with the position, posture, shape, etc. of a grasped object. A robot hand to which this control method is applied includes three fingers for detecting the position / posture / shape of the grasped object. The left and right open / close fingers are configured to be openable / closable around the center search finger, and a distance sensor is disposed at the tip of each finger. The robot hand approaches the object with the open / close finger closed, and detects the edge of the object by opening the open / close finger and tracing the surface of the object simultaneously with the proximity of the search finger to the object. Thereby, it is supposed that the position / posture / shape of the grasped object can be estimated (see Patent Document 1).
ロボットハンドによる対象物の把持位置が正確に把握できていないと、把持後の作業(対象物の移動や組立て等)を正確に実施することができない。上記特許文献1に記載の制御方法は、開閉指によって対象物のエッジを検出するものであり、対象物の幅を検知することにより対象物の姿勢は推定可能であっても、開閉指による対象物の把持位置を正確に検知することはできない。
If the gripping position of the target object by the robot hand is not accurately grasped, the work after gripping (such as movement and assembly of the target object) cannot be performed accurately. The control method described in
ロボットハンドによる対象物の把持位置を正確に把握するためにカメラを用いることが考えられる。しかしながら、カメラでは、黒色の部品等を十分に認識できなかったり、カメラが1台の場合には、対象物の把持位置が十分に見えない場合もある。カメラを用いて対象物の把持位置を正確に把握するには、高精度のカメラを複数台設ける必要があり、設備コストが増大する。 It is conceivable to use a camera in order to accurately grasp the gripping position of the object by the robot hand. However, the camera may not be able to fully recognize black parts or the like, or if there is only one camera, the gripping position of the object may not be fully visible. In order to accurately grasp the gripping position of the object using the camera, it is necessary to provide a plurality of high-accuracy cameras, which increases the equipment cost.
この発明は、かかる問題点を解決するためになされたものであり、その目的は、ロボットハンドによる対象物の把持位置を低コストで正確に推定することである。 The present invention has been made to solve such a problem, and an object thereof is to accurately estimate a gripping position of an object by a robot hand at a low cost.
この発明によれば、ロボットハンドは、少なくとも3本の指を有するロボットハンドであって、対象物を把持する複数の指(以下では、纏めて「把持指」とも称する。)と、把持指とは異なる少なくとも1本の指(以下「第三指」とも称する。)と、制御装置とを備える。制御装置は、把持指による対象物の把持後に、第三指を対象物に接触させるように第三指の動作を制御する。そして、制御装置は、把持対象物の形状データと、第三指を対象物に接触させたときの第三指の位置情報とに基づいて、把持指による対象物の把持位置を推定する。 According to this invention, the robot hand is a robot hand having at least three fingers, and a plurality of fingers (hereinafter, collectively referred to as “gripping fingers”) for gripping an object, and gripping fingers. Comprises at least one different finger (hereinafter also referred to as “third finger”) and a control device. The control device controls the operation of the third finger so that the third finger is brought into contact with the target object after the target object is gripped by the gripping finger. Then, the control device estimates the gripping position of the target object by the gripping finger based on the shape data of the gripping target object and the position information of the third finger when the third finger is brought into contact with the target object.
好ましくは、制御装置は、第三指を対象物に複数点で接触させるように第三指の動作を制御する。 Preferably, the control device controls the operation of the third finger so that the third finger is brought into contact with the object at a plurality of points.
さらに好ましくは、制御装置は、第三指を対象物の表面に沿って移動させるように第三指の動作を制御する。 More preferably, the control device controls the movement of the third finger so as to move the third finger along the surface of the object.
好ましくは、制御装置は、把持指による対象物の把持位置の推定後、把持指および第三指によって対象物を把持するように把持指および第三指の動作を制御する。 Preferably, the control device controls the operations of the gripping finger and the third finger so that the gripping finger and the third finger grip the target object after estimating the gripping position of the object by the gripping finger.
また、この発明によれば、ロボットハンドの制御方法は、少なくとも3本の指を有するロボットハンドの制御方法であって、少なくとも1本の指(第三指)を残して複数の指(把持指)で対象物を把持するステップと、把持指による対象物の把持後に第三指を対象物に接触させるステップと、対象物の形状データと、第三指を対象物に接触させたときの第三指の位置情報とに基づいて、把持指による対象物の把持位置を推定するステップとを含む。 According to the present invention, the control method of the robot hand is a control method of the robot hand having at least three fingers, and a plurality of fingers (gripping fingers) with at least one finger (third finger) left. ) The step of gripping the object, the step of bringing the third finger into contact with the object after gripping the object by the gripping finger, the shape data of the object, and the step when the third finger is brought into contact with the object And a step of estimating a grasping position of the object by the grasping finger based on the position information of the three fingers.
このロボットハンドにおいては、把持指とは異なる第三指を対象物に接触させることによって、把持指による対象物の把持位置を推定するので、複数台のカメラを用いることなく対象物の把持位置を正確に推定可能である。したがって、このロボットハンドによれば、対象物の把持位置を低コストで正確に推定することができる。 In this robot hand, the gripping position of the target object is estimated by bringing the third finger different from the gripping finger into contact with the target object, so that the gripping position of the target object can be determined without using a plurality of cameras. Accurate estimation is possible. Therefore, according to this robot hand, the gripping position of the object can be accurately estimated at low cost.
以下、本発明の実施の形態について、図面を参照しながら詳細に説明する。なお、図中同一または相当部分には同一符号を付してその説明は繰返さない。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. In the drawings, the same or corresponding parts are denoted by the same reference numerals and description thereof will not be repeated.
図1は、この発明の実施の形態によるロボットハンドにより対象物を把持する際の概略図である。図2から図4は、図1に示したロボットハンドの構成を詳細に示した図である。なお、図1から図4中に示したX軸、Y軸およびZ軸は、互いに直交する軸であり、図2は、ロボットハンドをY軸正方向から見たときのロボットハンドの側面図である。図3は、ロボットハンドをX軸正方向から見たときのロボットハンドの側面図であり、図4は、ロボットハンドをZ軸正方向すなわち指先方向から見た図である。 FIG. 1 is a schematic view when an object is gripped by a robot hand according to an embodiment of the present invention. 2 to 4 are diagrams showing the configuration of the robot hand shown in FIG. 1 in detail. 1 to 4, the X axis, the Y axis, and the Z axis are orthogonal to each other, and FIG. 2 is a side view of the robot hand when the robot hand is viewed from the positive direction of the Y axis. is there. FIG. 3 is a side view of the robot hand when the robot hand is viewed from the X-axis positive direction, and FIG. 4 is a view of the robot hand viewed from the Z-axis positive direction, that is, the fingertip direction.
図1から図4を参照して、ロボットハンド1は、ベース10と、指部20−1〜20−3と、カメラ30と、制御装置40とを備える。この実施の形態では、ロボットハンド1は3本の指を有するものとして代表的に説明されるが、指の数は3本以上であってもよい。たとえば、人間の手と同様に指を5本とし、ベース10を掌のように形成してもよい。そして、この実施の形態では、ロボットハンド1によって対象物50を把持する場合について説明する。
1 to 4, the
なお、以下では、指部20−1〜20−3の各々について重複説明を避けるために、指部20−1〜20−3を互いに区別することなく、指部20−1〜20−3の各々を単に指部20とも称する場合がある。
In addition, below, in order to avoid duplication description about each of finger part 20-1 to 20-3, without distinguishing finger part 20-1 to 20-3 from each other, finger part 20-1 to 20-3. Each may be simply referred to as a
指部20は、第1リンク22と、第2リンク24と、第1関節部26と、第2関節部28とを含む。この実施の形態では、指部20は、2つのリンクと2つの関節部とを有するものとして代表的に説明されるが、リンクの数および関節部の数は3つ以上であってもよい。
The
第2関節部28は、ベース10に設けられる。第2リンク24の一端は、第2関節部28に連結され、第2リンク24の他端は、第1関節部26に連結される。第1リンク22の一端は、第1関節部26に連結され、第1リンク22の他端は指先となる。
The second joint portion 28 is provided on the
第1関節部26は、第1リンク22と第2リンク24との間に設けられ、回転関節を含んで構成される。第2関節部28も、回転関節を含んで構成される。この実施の形態では、第2関節部28は、前後/左右に作動可能に構成される。第1関節部26および第2関節部28の各々には、回転関節を駆動する図示しないアクチュエータが設けられ、制御装置40からの制御信号に従って回転関節が所望の角度に制御される。アクチュエータとしては、超音波モータや電動モータ等の種々のモータを採用し得る。
The 1st joint part 26 is provided between the 1st link 22 and the 2nd link 24, and is comprised including a rotation joint. The 2nd joint part 28 is also comprised including a rotation joint. In this embodiment, the second joint portion 28 is configured to be operable in the front-rear / left-right direction. Each of the first joint part 26 and the second joint part 28 is provided with an actuator (not shown) that drives the rotary joint, and the rotary joint is controlled to a desired angle according to a control signal from the
一例として、第1関節部26は、Y軸方向を回転軸とする回転関節を含む。第2関節部28は、X軸方向を回転軸とする回転関節と、Y軸方向を回転軸とする回転関節とを含む。なお、ベース10は、図示しないロボットアームに接続されており、把持対象物に対してZ軸回り方向に任意に回転可能に構成される。上記のような回転関節を有する指部20−1,20−2によって、対象物50を挟むようにして把持することができる。この実施の形態では、指部20−1,20−2は、対象物50を把持するための「把持指」である。
As an example, the 1st joint part 26 contains the rotation joint which makes a Y-axis direction a rotating shaft. The second joint portion 28 includes a rotary joint whose rotational axis is in the X-axis direction and a rotary joint whose rotational axis is in the Y-axis direction. The
指部20−3については、指先を構成する第1リンク22−3の把持面が対象物50の様々な位置に接触可能なように、指部20−3がさらにZ軸方向に回転可能に構成される(図4)。すなわち、この実施の形態では、第2関節部28−3は、前後方向/左右方向/回転が可能な3自由度に構成される。なお、指部20−1,20−2についても、Z軸方向に回転可能に構成してもよい。
As for the finger 20-3, the finger 20-3 can be further rotated in the Z-axis direction so that the gripping surface of the first link 22-3 constituting the fingertip can come into contact with various positions of the
この指部20−3は、把持指である指部20−1,20−2による対象物50の把持位置を推定するための「第三指」である。すなわち、この実施の形態では、指部20−1,20−2により対象物50を把持した後、指部20−1,20−2による対象物50の把持位置を正確に把握するために、指部20−1,20−2とは異なる指部20−3を対象物50に接触させる。そして、指部20−3を対象物50に接触させたときの指部20−3の位置情報と、予め入手される対象物50の形状データとに基づいて、指部20−1,20−2による対象物50の把持位置が推定される。この推定方法については、後ほど詳しく説明する。
This finger part 20-3 is a “third finger” for estimating the gripping position of the
第1関節部26および第2関節部28の各々には、関節角度を検出するための角度センサが設けられる(図示せず)。指部20−1〜20−3の各々について、第1関節部26および第2関節部28の各々の関節角度に基づいて、指先である第1リンク22の位置を算出することができる。なお、第1リンク22の把持面と把持対象物との接触状態を検知する接触センサを設けてもよい。 Each of the first joint part 26 and the second joint part 28 is provided with an angle sensor for detecting a joint angle (not shown). For each of the finger portions 20-1 to 20-3, the position of the first link 22 that is the fingertip can be calculated based on the joint angles of the first joint portion 26 and the second joint portion 28. In addition, you may provide the contact sensor which detects the contact state of the holding surface of the 1st link 22, and a holding object.
カメラ30は、ベース10の指部20−1〜20−3側に設けられ、たとえば、指部20−1〜20−3の略中央においてベース10に設置される。カメラ30は、ロボットハンド1の把持対象物を認識するためのものであり、ロボットハンド1は、カメラ30からの画像に基づいて対象物50を認識して対象物50を掴む。なお、このカメラ30は、対象物50の認識および最初の把持動作に用いられ、指部20−1,20−2による対象物50の把持位置の正確な推定には用いられない。カメラ30では、把持対象物によっては指部20−1,20−2の把持位置が見えない場合もあり、カメラ30は、対象物を掴む程度の精度は有するものの、対象物の把持位置を正確に検知するだけの精度(確実に検知することを含む。)を有していないからである。
The
なお、カメラ30の設置場所は、図示した場所に限定されるものではなく、その他の場所に設置してもよい。たとえば、カメラは、ロボットハンド1とは独立して設けられた、ロボットハンド1の可動範囲を撮影する固定方式のものとしてもよい。
The installation location of the
制御装置40は、CPU(Central Processing Unit)、記憶装置、入出力バッファ等を含み(いずれも図示せず)、各種センサからの信号の入力や関節部のアクチュエータへの制御信号の出力等によるロボットハンド1の制御を行なう。具体的には、制御装置40は、カメラ30の画像に基づいて対象物50を認識し、対象物50を掴むように指部20−1,20−2の動作を制御する。指部20−1,20−2により対象物50が把持されると、制御装置40は、指部20−3を対象物50に接触させるように指部20−3の動作を制御する。そして、制御装置40は、指部20−3が対象物50に接触したときの指部20−3の位置情報と、予め入手される対象物50の形状データとに基づいて、指部20−1,20−2による対象物50の把持位置を推定する。
The
なお、これらの制御については、ソフトウェアによる処理に限られず、専用のハードウェア(電子回路)で処理することも可能である。なお、制御装置40の設置場所については、ロボットハンド1に付随して設けてもよいし(図2)、ロボットハンド1から離れた位置に設けてもよい。
Note that these controls are not limited to processing by software, and can be processed by dedicated hardware (electronic circuit). In addition, about the installation place of the
図5から図7は、ロボットハンド1により対象物50を把持する際の指部20−1〜20−3の動作例を説明するための図である。なお、これらの図は、対象物50、および対象物50に接触する指部20−1〜20−3の先端部を模式的に示した平面図である。
FIGS. 5 to 7 are diagrams for explaining an operation example of the finger units 20-1 to 20-3 when the
図5を参照して、図示しないカメラ30の画像に基づいて、指部20−1,20−2によって対象物50が把持される。そして、指部20−1,20−2の各関節部の角度検出値に基づいて指部20−1,20−2の指先位置が求められ、指部20−1,20−2の指先位置の相対関係と対象物50の形状データとから、対象物50のどの面において指部20−1,20−2により対象物50が把持されているかが推定される。
Referring to FIG. 5, object 50 is grasped by fingers 20-1 and 20-2 based on an image of camera 30 (not shown). Then, the fingertip positions of the finger portions 20-1 and 20-2 are obtained based on the detected angle values of the joint portions of the finger portions 20-1 and 20-2, and the fingertip positions of the finger portions 20-1 and 20-2 are obtained. From which relative relationship and the shape data of the
なお、この時点では、指部20−1,20−2により対象物50のどの面を把持しているかは推定できても、指部20−1,20−2による正確な把持位置までは特定できない。すなわち、指部20−1,20−2が接触している面のどの位置において把持されているかまでは特定することはできない。
At this time, even if it can be estimated which surface of the
図6を参照して、指部20−1,20−2による対象物50の把持後、第三指の指部20−3が対象物50に接触させられる。そして、指部20−3の各関節部の角度検出値に基づいて、指部20−3の指先位置が求められる。この図6では、指部20−3が対象物50の幅狭部分に接触したことが分かる。これにより、対象物50の姿勢が推定される。なお、指部20−3は、指部20−1の近傍から動かすとよい。既に対象物50に接触している指部20−1を動作の起点にすることで、指部20−3を対象物50に速やかに接触させることができるからである。
Referring to FIG. 6, after gripping
図7を参照して、第三指の指部20−3が移動し、図6に示した接触位置とは別の位置において第三指の指部20−3が対象物50に接触させられる。この図7では、最初の接触位置とは異なる面において、第三指の指部20−3を対象物50に接触させている。そして、指部20−3の各関節部の角度検出値に基づいて、指部20−3の指先位置が求められる。これにより、対象物50の姿勢が絞り込まれ、指部20−1〜20−3の指先位置の相対関係から、指部20−1,20−2による対象物50の把持位置が推定される。
Referring to FIG. 7, finger part 20-3 of the third finger moves and third finger part 20-3 is brought into contact with
図8は、図1に示した制御装置40の機能ブロック図である。図8を参照して、制御装置40は、動作制御部42と、把持位置推定部44とを含む。動作制御部42は、カメラ30(図2,4)によって撮影される画像をカメラ30から受ける。また、動作制御部42は、指部20−1〜20−3の各関節部に設けられる角度センサから各関節部の角度検出値を受ける。さらに、動作制御部42は、把持対象である対象物50の形状データを受ける。
FIG. 8 is a functional block diagram of the
そして、動作制御部42は、上記の情報に基づいて、指部20−1,20−2によって対象物50を把持するように指部20−1,20−2の各関節のアクチュエータを制御する。さらに、指部20−1,20−2によって対象物50が把持されると、動作制御部42は、指部20−3を対象物50に接触させるように指部20−3の各関節のアクチュエータを制御する。
And based on said information, the
指部20−3が対象物50に接触すると、把持位置推定部44は、指部20−3の各関節部の角度情報に基づいて指部20−3の位置情報を算出し、その算出された指部20−3の位置情報と対象物50の形状データとに基づいて、指部20−1,20−2による対象物50の把持位置を推定する。より詳しくは、把持位置推定部44は、指部20−3の各関節部の角度情報に基づいて、指部20−3が対象物50に接触したときの指部20−3の対象物50との接触位置を算出する。そして、把持位置推定部44は、指部20−3の対象物50との接触位置に基づいて、指部20−3と指部20−1,20−2との相対位置関係を算出するとともにその算出結果を対象物50の形状データと対比することによって、指部20−1,20−2による対象物50の把持位置を推定する。
When the finger part 20-3 comes into contact with the
なお、指部20−3の対象物50との接触は、図6,7に示したように複数点であることが好ましい。但し、把持対象物の形状が単純な場合には(たとえば単純な直方体など)、指部20−3と対象物50との接触が1点であっても指部20−1,20−2による対象物50の把持位置を推定できる場合もあり、指部20−3の対象物50との接触は、必ずしも複数点に限定されるものではない。
In addition, it is preferable that the contact with the
図9は、制御装置40により実行される制御を説明するためのフローチャートである。このフローチャートは、制御装置40に予め格納されたプログラムを所定周期で実行することによって実現される。あるいは、一部のステップについては、専用のハードウェア(電子回路)を構築して処理を実現することも可能である。
FIG. 9 is a flowchart for explaining the control executed by the
図9を参照して、制御装置40は、把持対象物(対象物50)の形状データが入力されているか否かを判定する(ステップS10)。把持対象物の形状データがない場合には(ステップS10においてNO)、以降の一連の処理が実行されることなくステップS60へ処理が移行される。
Referring to FIG. 9,
ステップS10において対象物50の形状データが存在するものと判定されると(ステップS10においてYES)、制御装置40は、カメラ30の画像に基づいて、指部20−1,20−2の各関節部のアクチュエータを制御することによって、指部20−1,20−2により対象物50を把持する(ステップS20)。
When it is determined in step S10 that the shape data of the
指部20−1,20−2により対象物50が把持されると(ステップS30においてYES)、制御装置40は、指部20−3の各関節部のアクチュエータを制御することによって、第三指の指部20−3を対象物50に接触させる(ステップS40)。そして、制御装置40は、予め入手される対象物50の形状データと、指部20−3が対象物50に接触したときの指部20−3の位置情報とに基づいて、指部20−1,20−2による対象物50の把持位置を推定する(ステップS50)。
When the
なお、特に図示しないが、指部20−1,20−2による対象物50の把持位置が推定された後、指部20−3をさらに用いて対象物50をより安定的に把持する場合の指部20−3の把持位置を対象物50の形状データに基づいて決定してもよい。
Although not particularly illustrated, after the grasping position of the
あるいは、指部20−1,20−2による対象物50の把持位置が推定された後、指部20−1,20−2により対象物50を安定的に把持可能か否かを判定し、対象物50を安定的に把持できないと判定された場合には、対象物50の掴み直しを行なったり、指部20−3を用いて対象物50の掴み変えを行なうようにしてもよい。
Alternatively, after the grasping position of the
以上のように、この実施の形態においては、対象物50を把持する指部20−1,20−2とは異なる指部20−3を対象物50に接触させることによって、指部20−1,20−2による対象物50の把持位置を推定するので、カメラを用いることなく対象物50の把持位置を正確に推定可能である。したがって、この実施の形態によれば、対象物の把持位置を低コストで正確に推定することができる。
As described above, in this embodiment, the finger part 20-1 is brought into contact with the
また、この実施の形態によれば、指部20−3を対象物50と複数点で接触させることによって、対象物50の形状が複雑な場合でも指部20−1,20−2による対象物50の把持位置を推定することができる。
Moreover, according to this embodiment, even if the shape of the
また、この実施の形態によれば、指部20−3は対象物50の把持に用いることも可能であるので、指部20−3を用いて指部20−1,20−2による対象物50の把持位置を推定した後、対象物50の把持に指部20−3をさらに用いることによって対象物50をより安定的に把持することができる。
Moreover, according to this embodiment, since the finger part 20-3 can also be used for gripping the
[変形例]
図10や図11に示すように、第三指の指部20−3を対象物50の表面に沿って移動させることによって、対象物50の姿勢をより正確に推定することが可能である。その結果、指部20−1,20−2による対象物50の把持位置をより正確に推定することが可能となる。
[Modification]
As shown in FIGS. 10 and 11, the posture of the
図12は、この変形例における制御装置40により実行される制御を説明するためのフローチャートである。図11を参照して、このフローチャートは、図9に示したフローチャートにおいてステップS45をさらに含む。すなわち、ステップS40において第三指の指部20−3が対象物50に接触すると、制御装置40は、指部20−3の各関節部のアクチュエータを制御することによって、対象物50の表面に沿って指部20−3を移動させる(ステップS45)。なお、対象物50の表面に沿って指部20−3を滑らかに移動させるには、指部20−3と把持対象物との接触状態を検知する接触センサを指部20−3に設けることが好ましい。
FIG. 12 is a flowchart for explaining the control executed by the
そして、制御装置40は、ステップS50へ処理を進め、ステップS50において、対象物50の表面に沿って指部20−3を移動させたときの指部20−3の位置情報(指部20−3の対象物50との接触位置)と対象物50の形状データとに基づいて、指部20−1,20−2による対象物50の把持位置が推定される。
And the
以上のように、この変形例によれば、指部20−3を対象物50の表面に沿って移動させるので、対象物50の姿勢をより正確に推定することができる。その結果、指部20−1,20−2による対象物50の把持位置をより正確に推定することができる。
As described above, according to this modification, the finger 20-3 is moved along the surface of the
なお、上記の各実施の形態においては、ロボットハンド1は3本の指を有し、指部20−1,20−2を把持指とし、指部20−3を第三指としたが、4本以上の指を備えるロボットハンドにおいて、把持指は3本以上であってもよいし、第三指は複数であってもよい。
In each of the above embodiments, the
なお、この発明によるロボットハンドの大きさは限定されない。この発明は、指部20−1〜20−3の各々が「アーム」と呼べるような大きさのロボットハンドも含むものである。 The size of the robot hand according to the present invention is not limited. The present invention also includes a robot hand having a size such that each of the finger portions 20-1 to 20-3 can be called an "arm".
なお、上記において、指部20−1,20−2は、この発明における「複数の指」の一実施例に対応し、指部20−3は、この発明における「少なくとも1本の指」の一実施例に対応する。 In the above description, the finger portions 20-1 and 20-2 correspond to an example of “a plurality of fingers” in the present invention, and the finger portion 20-3 corresponds to “at least one finger” in the present invention. This corresponds to one embodiment.
今回開示された実施の形態は、すべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は、上記した実施の形態の説明ではなくて特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。 The embodiment disclosed this time should be considered as illustrative in all points and not restrictive. The scope of the present invention is shown not by the above description of the embodiments but by the scope of claims for patent, and is intended to include meanings equivalent to the scope of claims for patent and all modifications within the scope.
1 ロボットハンド、10 ベース、20−1〜20−3 指部、22−1〜22−3 第1リンク、24−1〜24−3 第2リンク、26−1〜26−3 第1関節部、28−1〜28−3 第2関節部、30 カメラ、40 制御装置、42 動作制御部、44 把持位置推定部、50 対象物。
DESCRIPTION OF
Claims (5)
対象物を把持する複数の指と、
前記複数の指とは異なる少なくとも1本の指と、
前記複数の指による前記対象物の把持後に、前記少なくとも1本の指を前記対象物に接触させるように前記少なくとも1本の指の動作を制御する制御装置とを備え、
制御装置は、前記対象物の形状データと、前記少なくとも1本の指を前記対象物に接触させたときの前記少なくとも1本の指の位置情報とに基づいて、前記複数の指による前記対象物の把持位置を推定する、ロボットハンド。 A robot hand having at least three fingers,
A plurality of fingers holding the object;
At least one finger different from the plurality of fingers;
A control device for controlling an operation of the at least one finger so that the at least one finger is brought into contact with the object after the object is grasped by the plurality of fingers;
The control device, based on the shape data of the object and the position information of the at least one finger when the at least one finger is brought into contact with the object, the object by the plurality of fingers A robot hand that estimates the grip position of the robot.
少なくとも1本の指を残して複数の指で対象物を把持するステップと、
前記複数の指による前記対象物の把持後に前記少なくとも1本の指を前記対象物に接触させるステップと、
前記対象物の形状データと、前記少なくとも1本の指を前記対象物に接触させたときの前記少なくとも1本の指の位置情報とに基づいて、前記複数の指による前記対象物の把持位置を推定するステップとを含む、ロボットハンドの制御方法。 A method for controlling a robot hand having at least three fingers,
Gripping an object with a plurality of fingers, leaving at least one finger;
Contacting the object with the at least one finger after gripping the object with the plurality of fingers;
Based on the shape data of the object and the position information of the at least one finger when the at least one finger is brought into contact with the object, a gripping position of the object by the plurality of fingers is determined. And a step of estimating the robot hand.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013208475A JP2015071207A (en) | 2013-10-03 | 2013-10-03 | Robot hand and control method thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013208475A JP2015071207A (en) | 2013-10-03 | 2013-10-03 | Robot hand and control method thereof |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2015071207A true JP2015071207A (en) | 2015-04-16 |
Family
ID=53013999
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013208475A Pending JP2015071207A (en) | 2013-10-03 | 2013-10-03 | Robot hand and control method thereof |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2015071207A (en) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018212205A1 (en) * | 2017-05-15 | 2018-11-22 | Thk株式会社 | Hand mechanism, gripping system, and gripping program |
JP2018192612A (en) * | 2017-05-15 | 2018-12-06 | Thk株式会社 | Hand mechanism, gripping system, and gripping program |
WO2019073778A1 (en) * | 2017-10-12 | 2019-04-18 | Thk株式会社 | Gripping system |
WO2022114042A1 (en) * | 2020-11-30 | 2022-06-02 | 住友重機械工業株式会社 | Information processing device, and picking device |
US11400589B2 (en) * | 2019-03-15 | 2022-08-02 | Thk Co., Ltd. | Gripping system and gripping method |
WO2023032621A1 (en) * | 2021-08-31 | 2023-03-09 | 株式会社アマダ | Workpiece supply robot and workpiece supply system |
WO2024185301A1 (en) * | 2023-03-09 | 2024-09-12 | ソニーグループ株式会社 | Robot hand |
-
2013
- 2013-10-03 JP JP2013208475A patent/JP2015071207A/en active Pending
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018212205A1 (en) * | 2017-05-15 | 2018-11-22 | Thk株式会社 | Hand mechanism, gripping system, and gripping program |
JP2018192612A (en) * | 2017-05-15 | 2018-12-06 | Thk株式会社 | Hand mechanism, gripping system, and gripping program |
JP7155479B2 (en) | 2017-05-15 | 2022-10-19 | Thk株式会社 | Hand Mechanism, Grasping System, and Grasping Program |
WO2019073778A1 (en) * | 2017-10-12 | 2019-04-18 | Thk株式会社 | Gripping system |
JP2019072781A (en) * | 2017-10-12 | 2019-05-16 | Thk株式会社 | Holding system |
JP7014497B2 (en) | 2017-10-12 | 2022-02-01 | Thk株式会社 | Gripping system |
US11400589B2 (en) * | 2019-03-15 | 2022-08-02 | Thk Co., Ltd. | Gripping system and gripping method |
WO2022114042A1 (en) * | 2020-11-30 | 2022-06-02 | 住友重機械工業株式会社 | Information processing device, and picking device |
WO2023032621A1 (en) * | 2021-08-31 | 2023-03-09 | 株式会社アマダ | Workpiece supply robot and workpiece supply system |
WO2024185301A1 (en) * | 2023-03-09 | 2024-09-12 | ソニーグループ株式会社 | Robot hand |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2015071207A (en) | Robot hand and control method thereof | |
US11090814B2 (en) | Robot control method | |
JP5685027B2 (en) | Information processing apparatus, object gripping system, robot system, information processing method, object gripping method, and program | |
JP6450960B2 (en) | Robot, robot system and teaching method | |
WO2011065035A1 (en) | Method of creating teaching data for robot, and teaching system for robot | |
US20150273689A1 (en) | Robot control device, robot, robotic system, teaching method, and program | |
JP6663978B2 (en) | System and method for determining tool offset | |
JP2002018754A (en) | Robot device and its control method | |
JP2012011531A (en) | Robot apparatus and gripping method for use in robot apparatus | |
JP4578438B2 (en) | Robot device | |
JP5593899B2 (en) | Deburring method by robot | |
CN111037553B (en) | Control device | |
JP2008168372A (en) | Robot device and shape recognition method | |
JP6322949B2 (en) | Robot control apparatus, robot system, robot, robot control method, and robot control program | |
CN113165187A (en) | Image information processing device, gripping system, and image information processing method | |
JP2014240106A (en) | Robot, robot control device, and driving method of robot | |
US20160306340A1 (en) | Robot and control device | |
EP4400274A1 (en) | Command value generating device, method, and program | |
JP2021000694A (en) | Device for teaching robot and robot system | |
Lopez et al. | Taichi algorithm: Human-like arm data generation applied on non-anthropomorphic robotic manipulators for demonstration | |
Schiebener et al. | Discovery, segmentation and reactive grasping of unknown objects | |
Guanglong et al. | Human–manipulator interface using hybrid sensors with Kalman filters and adaptive multi-space transformation | |
TW201914782A (en) | Holding position and posture instruction apparatus, holding position and posture instruction method, and robot system | |
JP2021045810A (en) | Motion information generation device, end effector, robot and robot system | |
WO2021250923A1 (en) | Robot system, control device, and control method |