JP2015071207A - Robot hand and control method thereof - Google Patents

Robot hand and control method thereof Download PDF

Info

Publication number
JP2015071207A
JP2015071207A JP2013208475A JP2013208475A JP2015071207A JP 2015071207 A JP2015071207 A JP 2015071207A JP 2013208475 A JP2013208475 A JP 2013208475A JP 2013208475 A JP2013208475 A JP 2013208475A JP 2015071207 A JP2015071207 A JP 2015071207A
Authority
JP
Japan
Prior art keywords
finger
robot hand
gripping
fingers
contact
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013208475A
Other languages
Japanese (ja)
Inventor
康寿 松浦
Yasuhisa Matsuura
康寿 松浦
真也 浅井
Shinya Asai
真也 浅井
亮介 小関
Ryosuke Koseki
亮介 小関
村田 卓也
Takuya Murata
卓也 村田
合田 泰之
Yasuyuki Aida
泰之 合田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Industries Corp
Original Assignee
Toyota Industries Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Industries Corp filed Critical Toyota Industries Corp
Priority to JP2013208475A priority Critical patent/JP2015071207A/en
Publication of JP2015071207A publication Critical patent/JP2015071207A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Manipulator (AREA)

Abstract

PROBLEM TO BE SOLVED: To allow a robot hand to estimate a position to grip an object accurately at a low cost.SOLUTION: A robot hand comprises: finger parts 20-1, 20-2 to grip an object 50; a finger part 20-3 as a third finger; and a control unit. The control unit controls an operation of the finger part 20-3 to direct the finger part 20-3 to touch the object 50 after the finger parts 20-1, 20-2 grip the object 50. Then, the control unit estimates the position where the finger parts 20-1, 20-2 grip the object 50 according to shape data of the object 50 obtained in advance and positional information of the finger part 20-3 at the time when the finger part 20-3 touches the object 50.

Description

この発明は、ロボットハンドおよびその制御方法に関し、特に、ロボットハンドにより対象物を把持する際の制御技術に関する。   The present invention relates to a robot hand and a control method therefor, and more particularly to a control technique for gripping an object by a robot hand.

特開平4−343691号公報(特許文献1)は、把持対象物の位置・姿勢・形状等にフレキシブルに対応可能なロボットハンドの制御方法を開示する。この制御方法が適用されるロボットハンドは、把持対象物の位置・姿勢・形状を検出する3本の指を備える。中央の探索指を中心に左右の開閉指が開閉可能に構成され、各指の先端には距離センサが配置される。ロボットハンドは、開閉指を閉状態にして対象物に接近し、探索指の対象物への近接と同時に開閉指が開いて対象物表面をなぞることによって対象物のエッジを検出する。これにより、把持対象物の位置・姿勢・形状を推定することができるとされる(特許文献1参照)。   Japanese Patent Laid-Open No. 4-343691 (Patent Document 1) discloses a robot hand control method that can flexibly cope with the position, posture, shape, etc. of a grasped object. A robot hand to which this control method is applied includes three fingers for detecting the position / posture / shape of the grasped object. The left and right open / close fingers are configured to be openable / closable around the center search finger, and a distance sensor is disposed at the tip of each finger. The robot hand approaches the object with the open / close finger closed, and detects the edge of the object by opening the open / close finger and tracing the surface of the object simultaneously with the proximity of the search finger to the object. Thereby, it is supposed that the position / posture / shape of the grasped object can be estimated (see Patent Document 1).

特開平4−343691号公報JP-A-4-343691 特開平11−28692号公報JP 11-28692 A

ロボットハンドによる対象物の把持位置が正確に把握できていないと、把持後の作業(対象物の移動や組立て等)を正確に実施することができない。上記特許文献1に記載の制御方法は、開閉指によって対象物のエッジを検出するものであり、対象物の幅を検知することにより対象物の姿勢は推定可能であっても、開閉指による対象物の把持位置を正確に検知することはできない。   If the gripping position of the target object by the robot hand is not accurately grasped, the work after gripping (such as movement and assembly of the target object) cannot be performed accurately. The control method described in Patent Document 1 detects an edge of an object with an open / close finger, and even if the posture of the object can be estimated by detecting the width of the object, The gripping position of the object cannot be detected accurately.

ロボットハンドによる対象物の把持位置を正確に把握するためにカメラを用いることが考えられる。しかしながら、カメラでは、黒色の部品等を十分に認識できなかったり、カメラが1台の場合には、対象物の把持位置が十分に見えない場合もある。カメラを用いて対象物の把持位置を正確に把握するには、高精度のカメラを複数台設ける必要があり、設備コストが増大する。   It is conceivable to use a camera in order to accurately grasp the gripping position of the object by the robot hand. However, the camera may not be able to fully recognize black parts or the like, or if there is only one camera, the gripping position of the object may not be fully visible. In order to accurately grasp the gripping position of the object using the camera, it is necessary to provide a plurality of high-accuracy cameras, which increases the equipment cost.

この発明は、かかる問題点を解決するためになされたものであり、その目的は、ロボットハンドによる対象物の把持位置を低コストで正確に推定することである。   The present invention has been made to solve such a problem, and an object thereof is to accurately estimate a gripping position of an object by a robot hand at a low cost.

この発明によれば、ロボットハンドは、少なくとも3本の指を有するロボットハンドであって、対象物を把持する複数の指(以下では、纏めて「把持指」とも称する。)と、把持指とは異なる少なくとも1本の指(以下「第三指」とも称する。)と、制御装置とを備える。制御装置は、把持指による対象物の把持後に、第三指を対象物に接触させるように第三指の動作を制御する。そして、制御装置は、把持対象物の形状データと、第三指を対象物に接触させたときの第三指の位置情報とに基づいて、把持指による対象物の把持位置を推定する。   According to this invention, the robot hand is a robot hand having at least three fingers, and a plurality of fingers (hereinafter, collectively referred to as “gripping fingers”) for gripping an object, and gripping fingers. Comprises at least one different finger (hereinafter also referred to as “third finger”) and a control device. The control device controls the operation of the third finger so that the third finger is brought into contact with the target object after the target object is gripped by the gripping finger. Then, the control device estimates the gripping position of the target object by the gripping finger based on the shape data of the gripping target object and the position information of the third finger when the third finger is brought into contact with the target object.

好ましくは、制御装置は、第三指を対象物に複数点で接触させるように第三指の動作を制御する。   Preferably, the control device controls the operation of the third finger so that the third finger is brought into contact with the object at a plurality of points.

さらに好ましくは、制御装置は、第三指を対象物の表面に沿って移動させるように第三指の動作を制御する。   More preferably, the control device controls the movement of the third finger so as to move the third finger along the surface of the object.

好ましくは、制御装置は、把持指による対象物の把持位置の推定後、把持指および第三指によって対象物を把持するように把持指および第三指の動作を制御する。   Preferably, the control device controls the operations of the gripping finger and the third finger so that the gripping finger and the third finger grip the target object after estimating the gripping position of the object by the gripping finger.

また、この発明によれば、ロボットハンドの制御方法は、少なくとも3本の指を有するロボットハンドの制御方法であって、少なくとも1本の指(第三指)を残して複数の指(把持指)で対象物を把持するステップと、把持指による対象物の把持後に第三指を対象物に接触させるステップと、対象物の形状データと、第三指を対象物に接触させたときの第三指の位置情報とに基づいて、把持指による対象物の把持位置を推定するステップとを含む。   According to the present invention, the control method of the robot hand is a control method of the robot hand having at least three fingers, and a plurality of fingers (gripping fingers) with at least one finger (third finger) left. ) The step of gripping the object, the step of bringing the third finger into contact with the object after gripping the object by the gripping finger, the shape data of the object, and the step when the third finger is brought into contact with the object And a step of estimating a grasping position of the object by the grasping finger based on the position information of the three fingers.

このロボットハンドにおいては、把持指とは異なる第三指を対象物に接触させることによって、把持指による対象物の把持位置を推定するので、複数台のカメラを用いることなく対象物の把持位置を正確に推定可能である。したがって、このロボットハンドによれば、対象物の把持位置を低コストで正確に推定することができる。   In this robot hand, the gripping position of the target object is estimated by bringing the third finger different from the gripping finger into contact with the target object, so that the gripping position of the target object can be determined without using a plurality of cameras. Accurate estimation is possible. Therefore, according to this robot hand, the gripping position of the object can be accurately estimated at low cost.

この発明の実施の形態によるロボットハンドにより対象物を把持する際の概略図である。It is the schematic at the time of hold | gripping a target object with the robot hand by embodiment of this invention. ロボットハンドをY軸正方向から見たときのロボットハンドの側面図である。It is a side view of a robot hand when the robot hand is viewed from the Y axis positive direction. ロボットハンドをX軸正方向から見たときのロボットハンドの側面図である。It is a side view of a robot hand when the robot hand is viewed from the X-axis positive direction. ロボットハンドをZ軸正方向すなわち指先方向から見た図である。It is the figure which looked at the robot hand from the Z-axis positive direction, ie, the fingertip direction. ロボットハンドにより対象物を把持する際の指部の動作例を説明する第1の図である。It is a 1st figure explaining the operation example of the finger | toe part at the time of hold | gripping a target object with a robot hand. ロボットハンドにより対象物を把持する際の指部の動作例を説明する第2の図である。It is a 2nd figure explaining the operation example of the finger | toe part at the time of hold | gripping a target object with a robot hand. ロボットハンドにより対象物を把持する際の指部の動作例を説明する第3の図である。It is a 3rd figure explaining the operation example of the finger | toe part at the time of hold | gripping a target object with a robot hand. 図1に示す制御装置の機能ブロック図である。It is a functional block diagram of the control apparatus shown in FIG. 制御装置により実行される制御を説明するためのフローチャートである。It is a flowchart for demonstrating the control performed by a control apparatus. 第三指を対象物の表面に沿って移動させる場合の動作例を説明する第1の図である。It is a 1st figure explaining the operation example in the case of moving a 3rd finger along the surface of a target object. 第三指を対象物の表面に沿って移動させる場合の動作例を説明する第2の図である。It is a 2nd figure explaining the operation example in the case of moving a 3rd finger along the surface of a target object. 変形例における制御装置により実行される制御を説明するためのフローチャートである。It is a flowchart for demonstrating the control performed by the control apparatus in a modification.

以下、本発明の実施の形態について、図面を参照しながら詳細に説明する。なお、図中同一または相当部分には同一符号を付してその説明は繰返さない。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. In the drawings, the same or corresponding parts are denoted by the same reference numerals and description thereof will not be repeated.

図1は、この発明の実施の形態によるロボットハンドにより対象物を把持する際の概略図である。図2から図4は、図1に示したロボットハンドの構成を詳細に示した図である。なお、図1から図4中に示したX軸、Y軸およびZ軸は、互いに直交する軸であり、図2は、ロボットハンドをY軸正方向から見たときのロボットハンドの側面図である。図3は、ロボットハンドをX軸正方向から見たときのロボットハンドの側面図であり、図4は、ロボットハンドをZ軸正方向すなわち指先方向から見た図である。   FIG. 1 is a schematic view when an object is gripped by a robot hand according to an embodiment of the present invention. 2 to 4 are diagrams showing the configuration of the robot hand shown in FIG. 1 in detail. 1 to 4, the X axis, the Y axis, and the Z axis are orthogonal to each other, and FIG. 2 is a side view of the robot hand when the robot hand is viewed from the positive direction of the Y axis. is there. FIG. 3 is a side view of the robot hand when the robot hand is viewed from the X-axis positive direction, and FIG. 4 is a view of the robot hand viewed from the Z-axis positive direction, that is, the fingertip direction.

図1から図4を参照して、ロボットハンド1は、ベース10と、指部20−1〜20−3と、カメラ30と、制御装置40とを備える。この実施の形態では、ロボットハンド1は3本の指を有するものとして代表的に説明されるが、指の数は3本以上であってもよい。たとえば、人間の手と同様に指を5本とし、ベース10を掌のように形成してもよい。そして、この実施の形態では、ロボットハンド1によって対象物50を把持する場合について説明する。   1 to 4, the robot hand 1 includes a base 10, finger units 20-1 to 20-3, a camera 30, and a control device 40. In this embodiment, the robot hand 1 is typically described as having three fingers, but the number of fingers may be three or more. For example, the number of fingers may be five as in the case of a human hand, and the base 10 may be formed like a palm. In this embodiment, a case where the object 50 is gripped by the robot hand 1 will be described.

なお、以下では、指部20−1〜20−3の各々について重複説明を避けるために、指部20−1〜20−3を互いに区別することなく、指部20−1〜20−3の各々を単に指部20とも称する場合がある。   In addition, below, in order to avoid duplication description about each of finger part 20-1 to 20-3, without distinguishing finger part 20-1 to 20-3 from each other, finger part 20-1 to 20-3. Each may be simply referred to as a finger 20.

指部20は、第1リンク22と、第2リンク24と、第1関節部26と、第2関節部28とを含む。この実施の形態では、指部20は、2つのリンクと2つの関節部とを有するものとして代表的に説明されるが、リンクの数および関節部の数は3つ以上であってもよい。   The finger part 20 includes a first link 22, a second link 24, a first joint part 26, and a second joint part 28. In this embodiment, the finger 20 is typically described as having two links and two joints, but the number of links and the number of joints may be three or more.

第2関節部28は、ベース10に設けられる。第2リンク24の一端は、第2関節部28に連結され、第2リンク24の他端は、第1関節部26に連結される。第1リンク22の一端は、第1関節部26に連結され、第1リンク22の他端は指先となる。   The second joint portion 28 is provided on the base 10. One end of the second link 24 is connected to the second joint portion 28, and the other end of the second link 24 is connected to the first joint portion 26. One end of the first link 22 is connected to the first joint portion 26, and the other end of the first link 22 is a fingertip.

第1関節部26は、第1リンク22と第2リンク24との間に設けられ、回転関節を含んで構成される。第2関節部28も、回転関節を含んで構成される。この実施の形態では、第2関節部28は、前後/左右に作動可能に構成される。第1関節部26および第2関節部28の各々には、回転関節を駆動する図示しないアクチュエータが設けられ、制御装置40からの制御信号に従って回転関節が所望の角度に制御される。アクチュエータとしては、超音波モータや電動モータ等の種々のモータを採用し得る。   The 1st joint part 26 is provided between the 1st link 22 and the 2nd link 24, and is comprised including a rotation joint. The 2nd joint part 28 is also comprised including a rotation joint. In this embodiment, the second joint portion 28 is configured to be operable in the front-rear / left-right direction. Each of the first joint part 26 and the second joint part 28 is provided with an actuator (not shown) that drives the rotary joint, and the rotary joint is controlled to a desired angle according to a control signal from the control device 40. As the actuator, various motors such as an ultrasonic motor and an electric motor can be adopted.

一例として、第1関節部26は、Y軸方向を回転軸とする回転関節を含む。第2関節部28は、X軸方向を回転軸とする回転関節と、Y軸方向を回転軸とする回転関節とを含む。なお、ベース10は、図示しないロボットアームに接続されており、把持対象物に対してZ軸回り方向に任意に回転可能に構成される。上記のような回転関節を有する指部20−1,20−2によって、対象物50を挟むようにして把持することができる。この実施の形態では、指部20−1,20−2は、対象物50を把持するための「把持指」である。   As an example, the 1st joint part 26 contains the rotation joint which makes a Y-axis direction a rotating shaft. The second joint portion 28 includes a rotary joint whose rotational axis is in the X-axis direction and a rotary joint whose rotational axis is in the Y-axis direction. The base 10 is connected to a robot arm (not shown), and is configured to be arbitrarily rotatable around the Z axis with respect to the grasped object. The fingers 50-1 and 20-2 having the rotary joints as described above can be gripped so as to sandwich the object 50. In this embodiment, the finger portions 20-1 and 20-2 are “gripping fingers” for gripping the object 50.

指部20−3については、指先を構成する第1リンク22−3の把持面が対象物50の様々な位置に接触可能なように、指部20−3がさらにZ軸方向に回転可能に構成される(図4)。すなわち、この実施の形態では、第2関節部28−3は、前後方向/左右方向/回転が可能な3自由度に構成される。なお、指部20−1,20−2についても、Z軸方向に回転可能に構成してもよい。   As for the finger 20-3, the finger 20-3 can be further rotated in the Z-axis direction so that the gripping surface of the first link 22-3 constituting the fingertip can come into contact with various positions of the object 50. Configured (FIG. 4). In other words, in this embodiment, the second joint portion 28-3 is configured with three degrees of freedom capable of front-rear direction / left-right direction / rotation. Note that the finger portions 20-1 and 20-2 may also be configured to be rotatable in the Z-axis direction.

この指部20−3は、把持指である指部20−1,20−2による対象物50の把持位置を推定するための「第三指」である。すなわち、この実施の形態では、指部20−1,20−2により対象物50を把持した後、指部20−1,20−2による対象物50の把持位置を正確に把握するために、指部20−1,20−2とは異なる指部20−3を対象物50に接触させる。そして、指部20−3を対象物50に接触させたときの指部20−3の位置情報と、予め入手される対象物50の形状データとに基づいて、指部20−1,20−2による対象物50の把持位置が推定される。この推定方法については、後ほど詳しく説明する。   This finger part 20-3 is a “third finger” for estimating the gripping position of the object 50 by the finger parts 20-1 and 20-2 that are gripping fingers. That is, in this embodiment, after grasping the object 50 by the finger parts 20-1 and 20-2, in order to accurately grasp the grasping position of the object 50 by the finger parts 20-1 and 20-2, A finger part 20-3 different from the finger parts 20-1 and 20-2 is brought into contact with the object 50. Then, based on the positional information of the finger 20-3 when the finger 20-3 is brought into contact with the object 50 and the shape data of the object 50 obtained in advance, the fingers 20-1, 20- 2 is estimated. This estimation method will be described in detail later.

第1関節部26および第2関節部28の各々には、関節角度を検出するための角度センサが設けられる(図示せず)。指部20−1〜20−3の各々について、第1関節部26および第2関節部28の各々の関節角度に基づいて、指先である第1リンク22の位置を算出することができる。なお、第1リンク22の把持面と把持対象物との接触状態を検知する接触センサを設けてもよい。   Each of the first joint part 26 and the second joint part 28 is provided with an angle sensor for detecting a joint angle (not shown). For each of the finger portions 20-1 to 20-3, the position of the first link 22 that is the fingertip can be calculated based on the joint angles of the first joint portion 26 and the second joint portion 28. In addition, you may provide the contact sensor which detects the contact state of the holding surface of the 1st link 22, and a holding object.

カメラ30は、ベース10の指部20−1〜20−3側に設けられ、たとえば、指部20−1〜20−3の略中央においてベース10に設置される。カメラ30は、ロボットハンド1の把持対象物を認識するためのものであり、ロボットハンド1は、カメラ30からの画像に基づいて対象物50を認識して対象物50を掴む。なお、このカメラ30は、対象物50の認識および最初の把持動作に用いられ、指部20−1,20−2による対象物50の把持位置の正確な推定には用いられない。カメラ30では、把持対象物によっては指部20−1,20−2の把持位置が見えない場合もあり、カメラ30は、対象物を掴む程度の精度は有するものの、対象物の把持位置を正確に検知するだけの精度(確実に検知することを含む。)を有していないからである。   The camera 30 is provided on the finger portions 20-1 to 20-3 side of the base 10, and is installed on the base 10 at the approximate center of the finger portions 20-1 to 20-3, for example. The camera 30 is for recognizing the object to be grasped by the robot hand 1, and the robot hand 1 recognizes the object 50 based on the image from the camera 30 and grasps the object 50. The camera 30 is used for recognition of the object 50 and the first gripping operation, and is not used for accurate estimation of the gripping position of the object 50 by the finger portions 20-1 and 20-2. The camera 30 may not be able to see the gripping positions of the finger portions 20-1 and 20-2 depending on the gripping object, and the camera 30 has the accuracy of gripping the target object, but the gripping position of the target object is accurate. This is because it does not have accuracy (including reliable detection) enough to detect.

なお、カメラ30の設置場所は、図示した場所に限定されるものではなく、その他の場所に設置してもよい。たとえば、カメラは、ロボットハンド1とは独立して設けられた、ロボットハンド1の可動範囲を撮影する固定方式のものとしてもよい。   The installation location of the camera 30 is not limited to the illustrated location, and may be installed in other locations. For example, the camera may be of a fixed type that is provided independently of the robot hand 1 and photographs the movable range of the robot hand 1.

制御装置40は、CPU(Central Processing Unit)、記憶装置、入出力バッファ等を含み(いずれも図示せず)、各種センサからの信号の入力や関節部のアクチュエータへの制御信号の出力等によるロボットハンド1の制御を行なう。具体的には、制御装置40は、カメラ30の画像に基づいて対象物50を認識し、対象物50を掴むように指部20−1,20−2の動作を制御する。指部20−1,20−2により対象物50が把持されると、制御装置40は、指部20−3を対象物50に接触させるように指部20−3の動作を制御する。そして、制御装置40は、指部20−3が対象物50に接触したときの指部20−3の位置情報と、予め入手される対象物50の形状データとに基づいて、指部20−1,20−2による対象物50の把持位置を推定する。   The control device 40 includes a CPU (Central Processing Unit), a storage device, an input / output buffer, and the like (none of which are shown), and is a robot that receives signals from various sensors, outputs control signals to actuators at joints, and the like. The hand 1 is controlled. Specifically, the control device 40 recognizes the object 50 based on the image of the camera 30 and controls the operations of the finger units 20-1 and 20-2 so as to grasp the object 50. When the object 50 is gripped by the finger parts 20-1 and 20-2, the control device 40 controls the operation of the finger part 20-3 so that the finger part 20-3 is brought into contact with the object 50. And the control apparatus 40 is based on the positional information on the finger | toe part 20-3 when the finger | toe part 20-3 contacts the target object 50, and the shape data of the target object 50 acquired previously, finger-part 20- The gripping position of the object 50 by 1 and 20-2 is estimated.

なお、これらの制御については、ソフトウェアによる処理に限られず、専用のハードウェア(電子回路)で処理することも可能である。なお、制御装置40の設置場所については、ロボットハンド1に付随して設けてもよいし(図2)、ロボットハンド1から離れた位置に設けてもよい。   Note that these controls are not limited to processing by software, and can be processed by dedicated hardware (electronic circuit). In addition, about the installation place of the control apparatus 40, you may provide with the robot hand 1 (FIG. 2), and you may provide in the position away from the robot hand 1. FIG.

図5から図7は、ロボットハンド1により対象物50を把持する際の指部20−1〜20−3の動作例を説明するための図である。なお、これらの図は、対象物50、および対象物50に接触する指部20−1〜20−3の先端部を模式的に示した平面図である。   FIGS. 5 to 7 are diagrams for explaining an operation example of the finger units 20-1 to 20-3 when the object 50 is held by the robot hand 1. In addition, these figures are the top views which showed typically the front-end | tip part of the target object 50 and the finger parts 20-1 to 20-3 which contact the target object 50. FIG.

図5を参照して、図示しないカメラ30の画像に基づいて、指部20−1,20−2によって対象物50が把持される。そして、指部20−1,20−2の各関節部の角度検出値に基づいて指部20−1,20−2の指先位置が求められ、指部20−1,20−2の指先位置の相対関係と対象物50の形状データとから、対象物50のどの面において指部20−1,20−2により対象物50が把持されているかが推定される。   Referring to FIG. 5, object 50 is grasped by fingers 20-1 and 20-2 based on an image of camera 30 (not shown). Then, the fingertip positions of the finger portions 20-1 and 20-2 are obtained based on the detected angle values of the joint portions of the finger portions 20-1 and 20-2, and the fingertip positions of the finger portions 20-1 and 20-2 are obtained. From which relative relationship and the shape data of the target object 50, it is estimated which surface of the target object 50 is gripped by the finger portions 20-1 and 20-2.

なお、この時点では、指部20−1,20−2により対象物50のどの面を把持しているかは推定できても、指部20−1,20−2による正確な把持位置までは特定できない。すなわち、指部20−1,20−2が接触している面のどの位置において把持されているかまでは特定することはできない。   At this time, even if it can be estimated which surface of the object 50 is gripped by the finger portions 20-1 and 20-2, the exact gripping position by the finger portions 20-1 and 20-2 is specified. Can not. That is, it cannot be specified at which position on the surface that the finger portions 20-1 and 20-2 are in contact with.

図6を参照して、指部20−1,20−2による対象物50の把持後、第三指の指部20−3が対象物50に接触させられる。そして、指部20−3の各関節部の角度検出値に基づいて、指部20−3の指先位置が求められる。この図6では、指部20−3が対象物50の幅狭部分に接触したことが分かる。これにより、対象物50の姿勢が推定される。なお、指部20−3は、指部20−1の近傍から動かすとよい。既に対象物50に接触している指部20−1を動作の起点にすることで、指部20−3を対象物50に速やかに接触させることができるからである。   Referring to FIG. 6, after gripping object 50 by finger parts 20-1 and 20-2, finger part 20-3 of the third finger is brought into contact with object 50. And the fingertip position of the finger part 20-3 is calculated | required based on the angle detection value of each joint part of the finger part 20-3. In FIG. 6, it can be seen that the finger part 20-3 is in contact with the narrow part of the object 50. Thereby, the posture of the object 50 is estimated. In addition, it is good to move the finger part 20-3 from the vicinity of the finger part 20-1. This is because the finger part 20-3 can be brought into rapid contact with the object 50 by using the finger part 20-1 already in contact with the object 50 as a starting point of the operation.

図7を参照して、第三指の指部20−3が移動し、図6に示した接触位置とは別の位置において第三指の指部20−3が対象物50に接触させられる。この図7では、最初の接触位置とは異なる面において、第三指の指部20−3を対象物50に接触させている。そして、指部20−3の各関節部の角度検出値に基づいて、指部20−3の指先位置が求められる。これにより、対象物50の姿勢が絞り込まれ、指部20−1〜20−3の指先位置の相対関係から、指部20−1,20−2による対象物50の把持位置が推定される。   Referring to FIG. 7, finger part 20-3 of the third finger moves and third finger part 20-3 is brought into contact with object 50 at a position different from the contact position shown in FIG. . In FIG. 7, the finger part 20-3 of the third finger is brought into contact with the object 50 on a surface different from the initial contact position. And the fingertip position of the finger part 20-3 is calculated | required based on the angle detection value of each joint part of the finger part 20-3. Thereby, the posture of the target object 50 is narrowed down, and the gripping position of the target object 50 by the finger parts 20-1 and 20-2 is estimated from the relative relationship of the fingertip positions of the finger parts 20-1 to 20-3.

図8は、図1に示した制御装置40の機能ブロック図である。図8を参照して、制御装置40は、動作制御部42と、把持位置推定部44とを含む。動作制御部42は、カメラ30(図2,4)によって撮影される画像をカメラ30から受ける。また、動作制御部42は、指部20−1〜20−3の各関節部に設けられる角度センサから各関節部の角度検出値を受ける。さらに、動作制御部42は、把持対象である対象物50の形状データを受ける。   FIG. 8 is a functional block diagram of the control device 40 shown in FIG. Referring to FIG. 8, control device 40 includes an operation control unit 42 and a grip position estimation unit 44. The operation control unit 42 receives images captured by the camera 30 (FIGS. 2 and 4) from the camera 30. In addition, the operation control unit 42 receives the angle detection value of each joint from an angle sensor provided in each joint of the finger units 20-1 to 20-3. Further, the motion control unit 42 receives the shape data of the target object 50 that is the gripping target.

そして、動作制御部42は、上記の情報に基づいて、指部20−1,20−2によって対象物50を把持するように指部20−1,20−2の各関節のアクチュエータを制御する。さらに、指部20−1,20−2によって対象物50が把持されると、動作制御部42は、指部20−3を対象物50に接触させるように指部20−3の各関節のアクチュエータを制御する。   And based on said information, the operation control part 42 controls the actuator of each joint of finger part 20-1, 20-2 so that the target object 50 may be hold | gripped by finger part 20-1, 20-2. . Furthermore, when the object 50 is gripped by the finger parts 20-1 and 20-2, the motion control unit 42 causes each joint of the finger part 20-3 to contact the object 50 with the finger part 20-3. Control the actuator.

指部20−3が対象物50に接触すると、把持位置推定部44は、指部20−3の各関節部の角度情報に基づいて指部20−3の位置情報を算出し、その算出された指部20−3の位置情報と対象物50の形状データとに基づいて、指部20−1,20−2による対象物50の把持位置を推定する。より詳しくは、把持位置推定部44は、指部20−3の各関節部の角度情報に基づいて、指部20−3が対象物50に接触したときの指部20−3の対象物50との接触位置を算出する。そして、把持位置推定部44は、指部20−3の対象物50との接触位置に基づいて、指部20−3と指部20−1,20−2との相対位置関係を算出するとともにその算出結果を対象物50の形状データと対比することによって、指部20−1,20−2による対象物50の把持位置を推定する。   When the finger part 20-3 comes into contact with the object 50, the grip position estimation part 44 calculates the position information of the finger part 20-3 based on the angle information of each joint part of the finger part 20-3, and the calculation is performed. Based on the position information of the finger part 20-3 and the shape data of the object 50, the grip position of the object 50 by the finger parts 20-1 and 20-2 is estimated. More specifically, the gripping position estimation unit 44, based on the angle information of each joint part of the finger part 20-3, the object 50 of the finger part 20-3 when the finger part 20-3 contacts the object 50. The contact position with is calculated. The grip position estimation unit 44 calculates the relative positional relationship between the finger unit 20-3 and the finger units 20-1 and 20-2 based on the contact position of the finger unit 20-3 with the object 50. By comparing the calculation result with the shape data of the target object 50, the grip position of the target object 50 by the finger portions 20-1 and 20-2 is estimated.

なお、指部20−3の対象物50との接触は、図6,7に示したように複数点であることが好ましい。但し、把持対象物の形状が単純な場合には(たとえば単純な直方体など)、指部20−3と対象物50との接触が1点であっても指部20−1,20−2による対象物50の把持位置を推定できる場合もあり、指部20−3の対象物50との接触は、必ずしも複数点に限定されるものではない。   In addition, it is preferable that the contact with the target object 50 of the finger part 20-3 is a plurality of points as shown in FIGS. However, when the shape of the grasped object is simple (for example, a simple rectangular parallelepiped), even if the contact between the finger part 20-3 and the object 50 is one point, the finger parts 20-1 and 20-2 are used. In some cases, the grip position of the object 50 can be estimated, and the contact of the finger 20-3 with the object 50 is not necessarily limited to a plurality of points.

図9は、制御装置40により実行される制御を説明するためのフローチャートである。このフローチャートは、制御装置40に予め格納されたプログラムを所定周期で実行することによって実現される。あるいは、一部のステップについては、専用のハードウェア(電子回路)を構築して処理を実現することも可能である。   FIG. 9 is a flowchart for explaining the control executed by the control device 40. This flowchart is realized by executing a program stored in advance in the control device 40 at a predetermined cycle. Alternatively, for some steps, it is also possible to construct dedicated hardware (electronic circuit) and realize processing.

図9を参照して、制御装置40は、把持対象物(対象物50)の形状データが入力されているか否かを判定する(ステップS10)。把持対象物の形状データがない場合には(ステップS10においてNO)、以降の一連の処理が実行されることなくステップS60へ処理が移行される。   Referring to FIG. 9, control device 40 determines whether or not shape data of the grasped object (object 50) is input (step S10). If there is no shape data of the grasped object (NO in step S10), the process proceeds to step S60 without executing a series of subsequent processes.

ステップS10において対象物50の形状データが存在するものと判定されると(ステップS10においてYES)、制御装置40は、カメラ30の画像に基づいて、指部20−1,20−2の各関節部のアクチュエータを制御することによって、指部20−1,20−2により対象物50を把持する(ステップS20)。   When it is determined in step S10 that the shape data of the object 50 exists (YES in step S10), the control device 40 determines each joint of the finger portions 20-1 and 20-2 based on the image of the camera 30. The object 50 is gripped by the finger parts 20-1 and 20-2 by controlling the actuator of the part (step S20).

指部20−1,20−2により対象物50が把持されると(ステップS30においてYES)、制御装置40は、指部20−3の各関節部のアクチュエータを制御することによって、第三指の指部20−3を対象物50に接触させる(ステップS40)。そして、制御装置40は、予め入手される対象物50の形状データと、指部20−3が対象物50に接触したときの指部20−3の位置情報とに基づいて、指部20−1,20−2による対象物50の把持位置を推定する(ステップS50)。   When the object 50 is gripped by the finger parts 20-1 and 20-2 (YES in step S30), the control device 40 controls the actuator of each joint part of the finger part 20-3 to thereby control the third finger. The finger 20-3 is brought into contact with the object 50 (step S40). And the control apparatus 40 is based on the shape data of the target object 50 acquired previously, and the positional information on the finger part 20-3 when the finger part 20-3 contacts the target object 50-. The grip position of the object 50 by 1, 20-2 is estimated (step S50).

なお、特に図示しないが、指部20−1,20−2による対象物50の把持位置が推定された後、指部20−3をさらに用いて対象物50をより安定的に把持する場合の指部20−3の把持位置を対象物50の形状データに基づいて決定してもよい。   Although not particularly illustrated, after the grasping position of the object 50 by the finger parts 20-1 and 20-2 is estimated, the finger part 20-3 is further used to more stably grasp the object 50. You may determine the holding position of the finger | toe part 20-3 based on the shape data of the target object 50. FIG.

あるいは、指部20−1,20−2による対象物50の把持位置が推定された後、指部20−1,20−2により対象物50を安定的に把持可能か否かを判定し、対象物50を安定的に把持できないと判定された場合には、対象物50の掴み直しを行なったり、指部20−3を用いて対象物50の掴み変えを行なうようにしてもよい。   Alternatively, after the grasping position of the object 50 by the finger parts 20-1 and 20-2 is estimated, it is determined whether or not the object 50 can be stably grasped by the finger parts 20-1 and 20-2. When it is determined that the object 50 cannot be stably grasped, the object 50 may be re-gripped or the object 50 may be grasped and changed using the finger 20-3.

以上のように、この実施の形態においては、対象物50を把持する指部20−1,20−2とは異なる指部20−3を対象物50に接触させることによって、指部20−1,20−2による対象物50の把持位置を推定するので、カメラを用いることなく対象物50の把持位置を正確に推定可能である。したがって、この実施の形態によれば、対象物の把持位置を低コストで正確に推定することができる。   As described above, in this embodiment, the finger part 20-1 is brought into contact with the object 50 by bringing the finger part 20-3 different from the finger parts 20-1 and 20-2 holding the object 50 into contact with the object 50. , 20-2, the gripping position of the target object 50 can be accurately estimated without using a camera. Therefore, according to this embodiment, it is possible to accurately estimate the grip position of the object at low cost.

また、この実施の形態によれば、指部20−3を対象物50と複数点で接触させることによって、対象物50の形状が複雑な場合でも指部20−1,20−2による対象物50の把持位置を推定することができる。   Moreover, according to this embodiment, even if the shape of the target object 50 is complicated by making the finger part 20-3 contact the target object 50 at a plurality of points, the target object by the finger parts 20-1 and 20-2. 50 gripping positions can be estimated.

また、この実施の形態によれば、指部20−3は対象物50の把持に用いることも可能であるので、指部20−3を用いて指部20−1,20−2による対象物50の把持位置を推定した後、対象物50の把持に指部20−3をさらに用いることによって対象物50をより安定的に把持することができる。   Moreover, according to this embodiment, since the finger part 20-3 can also be used for gripping the object 50, the object by the finger parts 20-1 and 20-2 using the finger part 20-3. After estimating the gripping position of 50, the object 50 can be gripped more stably by further using the finger portion 20-3 for gripping the target object 50.

[変形例]
図10や図11に示すように、第三指の指部20−3を対象物50の表面に沿って移動させることによって、対象物50の姿勢をより正確に推定することが可能である。その結果、指部20−1,20−2による対象物50の把持位置をより正確に推定することが可能となる。
[Modification]
As shown in FIGS. 10 and 11, the posture of the object 50 can be estimated more accurately by moving the finger part 20-3 of the third finger along the surface of the object 50. As a result, it is possible to more accurately estimate the gripping position of the object 50 by the finger parts 20-1 and 20-2.

図12は、この変形例における制御装置40により実行される制御を説明するためのフローチャートである。図11を参照して、このフローチャートは、図9に示したフローチャートにおいてステップS45をさらに含む。すなわち、ステップS40において第三指の指部20−3が対象物50に接触すると、制御装置40は、指部20−3の各関節部のアクチュエータを制御することによって、対象物50の表面に沿って指部20−3を移動させる(ステップS45)。なお、対象物50の表面に沿って指部20−3を滑らかに移動させるには、指部20−3と把持対象物との接触状態を検知する接触センサを指部20−3に設けることが好ましい。   FIG. 12 is a flowchart for explaining the control executed by the control device 40 in this modification. Referring to FIG. 11, this flowchart further includes step S45 in the flowchart shown in FIG. That is, when the finger part 20-3 of the third finger comes into contact with the object 50 in step S40, the control device 40 controls the actuator of each joint part of the finger part 20-3, so that the surface of the object 50 is controlled. The finger part 20-3 is moved along (step S45). In addition, in order to smoothly move the finger part 20-3 along the surface of the object 50, a contact sensor that detects a contact state between the finger part 20-3 and the grasped object is provided in the finger part 20-3. Is preferred.

そして、制御装置40は、ステップS50へ処理を進め、ステップS50において、対象物50の表面に沿って指部20−3を移動させたときの指部20−3の位置情報(指部20−3の対象物50との接触位置)と対象物50の形状データとに基づいて、指部20−1,20−2による対象物50の把持位置が推定される。   And the control apparatus 40 advances a process to step S50, and the positional information (finger part 20-) of the finger part 20-3 when moving the finger part 20-3 along the surface of the target object 50 in step S50. 3 and the shape data of the target object 50, the grip position of the target object 50 by the finger portions 20-1 and 20-2 is estimated.

以上のように、この変形例によれば、指部20−3を対象物50の表面に沿って移動させるので、対象物50の姿勢をより正確に推定することができる。その結果、指部20−1,20−2による対象物50の把持位置をより正確に推定することができる。   As described above, according to this modification, the finger 20-3 is moved along the surface of the object 50, so that the posture of the object 50 can be estimated more accurately. As a result, the grip position of the object 50 by the finger parts 20-1 and 20-2 can be estimated more accurately.

なお、上記の各実施の形態においては、ロボットハンド1は3本の指を有し、指部20−1,20−2を把持指とし、指部20−3を第三指としたが、4本以上の指を備えるロボットハンドにおいて、把持指は3本以上であってもよいし、第三指は複数であってもよい。   In each of the above embodiments, the robot hand 1 has three fingers, the finger parts 20-1 and 20-2 are gripping fingers, and the finger part 20-3 is a third finger. In a robot hand having four or more fingers, there may be three or more gripping fingers and a plurality of third fingers.

なお、この発明によるロボットハンドの大きさは限定されない。この発明は、指部20−1〜20−3の各々が「アーム」と呼べるような大きさのロボットハンドも含むものである。   The size of the robot hand according to the present invention is not limited. The present invention also includes a robot hand having a size such that each of the finger portions 20-1 to 20-3 can be called an "arm".

なお、上記において、指部20−1,20−2は、この発明における「複数の指」の一実施例に対応し、指部20−3は、この発明における「少なくとも1本の指」の一実施例に対応する。   In the above description, the finger portions 20-1 and 20-2 correspond to an example of “a plurality of fingers” in the present invention, and the finger portion 20-3 corresponds to “at least one finger” in the present invention. This corresponds to one embodiment.

今回開示された実施の形態は、すべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は、上記した実施の形態の説明ではなくて特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。   The embodiment disclosed this time should be considered as illustrative in all points and not restrictive. The scope of the present invention is shown not by the above description of the embodiments but by the scope of claims for patent, and is intended to include meanings equivalent to the scope of claims for patent and all modifications within the scope.

1 ロボットハンド、10 ベース、20−1〜20−3 指部、22−1〜22−3 第1リンク、24−1〜24−3 第2リンク、26−1〜26−3 第1関節部、28−1〜28−3 第2関節部、30 カメラ、40 制御装置、42 動作制御部、44 把持位置推定部、50 対象物。   DESCRIPTION OF SYMBOLS 1 Robot hand, 10 base, 20-1 to 20-3 finger part, 22-1 to 22-3 1st link, 24-1 to 24-3 2nd link, 26-1 to 26-3 1st joint part , 28-1 to 28-3 2nd joint part, 30 camera, 40 control device, 42 motion control part, 44 gripping position estimation part, 50 object.

Claims (5)

少なくとも3本の指を有するロボットハンドであって、
対象物を把持する複数の指と、
前記複数の指とは異なる少なくとも1本の指と、
前記複数の指による前記対象物の把持後に、前記少なくとも1本の指を前記対象物に接触させるように前記少なくとも1本の指の動作を制御する制御装置とを備え、
制御装置は、前記対象物の形状データと、前記少なくとも1本の指を前記対象物に接触させたときの前記少なくとも1本の指の位置情報とに基づいて、前記複数の指による前記対象物の把持位置を推定する、ロボットハンド。
A robot hand having at least three fingers,
A plurality of fingers holding the object;
At least one finger different from the plurality of fingers;
A control device for controlling an operation of the at least one finger so that the at least one finger is brought into contact with the object after the object is grasped by the plurality of fingers;
The control device, based on the shape data of the object and the position information of the at least one finger when the at least one finger is brought into contact with the object, the object by the plurality of fingers A robot hand that estimates the grip position of the robot.
前記制御装置は、前記少なくとも1本の指を前記対象物に複数点で接触させるように前記少なくとも1本の指の動作を制御する、請求項1に記載のロボットハンド。   The robot hand according to claim 1, wherein the control device controls an operation of the at least one finger so that the at least one finger is brought into contact with the object at a plurality of points. 前記制御装置は、前記少なくとも1本の指を前記対象物の表面に沿って移動させるように前記少なくとも1本の指の動作を制御する、請求項2に記載のロボットハンド。   The robot hand according to claim 2, wherein the control device controls the movement of the at least one finger so as to move the at least one finger along the surface of the object. 前記制御装置は、前記複数の指による前記対象物の把持位置の推定後、前記複数の指および前記少なくとも1本の指によって前記対象物を把持するように前記複数の指および前記少なくとも1本の指の動作を制御する、請求項1から3のいずれか1項に記載のロボットハンド。   The control device, after estimating the holding position of the object by the plurality of fingers, holds the object by the plurality of fingers and the at least one finger, and the at least one finger. The robot hand according to any one of claims 1 to 3, which controls the operation of a finger. 少なくとも3本の指を有するロボットハンドの制御方法であって、
少なくとも1本の指を残して複数の指で対象物を把持するステップと、
前記複数の指による前記対象物の把持後に前記少なくとも1本の指を前記対象物に接触させるステップと、
前記対象物の形状データと、前記少なくとも1本の指を前記対象物に接触させたときの前記少なくとも1本の指の位置情報とに基づいて、前記複数の指による前記対象物の把持位置を推定するステップとを含む、ロボットハンドの制御方法。
A method for controlling a robot hand having at least three fingers,
Gripping an object with a plurality of fingers, leaving at least one finger;
Contacting the object with the at least one finger after gripping the object with the plurality of fingers;
Based on the shape data of the object and the position information of the at least one finger when the at least one finger is brought into contact with the object, a gripping position of the object by the plurality of fingers is determined. And a step of estimating the robot hand.
JP2013208475A 2013-10-03 2013-10-03 Robot hand and control method thereof Pending JP2015071207A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013208475A JP2015071207A (en) 2013-10-03 2013-10-03 Robot hand and control method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013208475A JP2015071207A (en) 2013-10-03 2013-10-03 Robot hand and control method thereof

Publications (1)

Publication Number Publication Date
JP2015071207A true JP2015071207A (en) 2015-04-16

Family

ID=53013999

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013208475A Pending JP2015071207A (en) 2013-10-03 2013-10-03 Robot hand and control method thereof

Country Status (1)

Country Link
JP (1) JP2015071207A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018212205A1 (en) * 2017-05-15 2018-11-22 Thk株式会社 Hand mechanism, gripping system, and gripping program
JP2018192612A (en) * 2017-05-15 2018-12-06 Thk株式会社 Hand mechanism, gripping system, and gripping program
WO2019073778A1 (en) * 2017-10-12 2019-04-18 Thk株式会社 Gripping system
WO2022114042A1 (en) * 2020-11-30 2022-06-02 住友重機械工業株式会社 Information processing device, and picking device
US11400589B2 (en) * 2019-03-15 2022-08-02 Thk Co., Ltd. Gripping system and gripping method
WO2023032621A1 (en) * 2021-08-31 2023-03-09 株式会社アマダ Workpiece supply robot and workpiece supply system
WO2024185301A1 (en) * 2023-03-09 2024-09-12 ソニーグループ株式会社 Robot hand

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018212205A1 (en) * 2017-05-15 2018-11-22 Thk株式会社 Hand mechanism, gripping system, and gripping program
JP2018192612A (en) * 2017-05-15 2018-12-06 Thk株式会社 Hand mechanism, gripping system, and gripping program
JP7155479B2 (en) 2017-05-15 2022-10-19 Thk株式会社 Hand Mechanism, Grasping System, and Grasping Program
WO2019073778A1 (en) * 2017-10-12 2019-04-18 Thk株式会社 Gripping system
JP2019072781A (en) * 2017-10-12 2019-05-16 Thk株式会社 Holding system
JP7014497B2 (en) 2017-10-12 2022-02-01 Thk株式会社 Gripping system
US11400589B2 (en) * 2019-03-15 2022-08-02 Thk Co., Ltd. Gripping system and gripping method
WO2022114042A1 (en) * 2020-11-30 2022-06-02 住友重機械工業株式会社 Information processing device, and picking device
WO2023032621A1 (en) * 2021-08-31 2023-03-09 株式会社アマダ Workpiece supply robot and workpiece supply system
WO2024185301A1 (en) * 2023-03-09 2024-09-12 ソニーグループ株式会社 Robot hand

Similar Documents

Publication Publication Date Title
JP2015071207A (en) Robot hand and control method thereof
US11090814B2 (en) Robot control method
JP5685027B2 (en) Information processing apparatus, object gripping system, robot system, information processing method, object gripping method, and program
JP6450960B2 (en) Robot, robot system and teaching method
WO2011065035A1 (en) Method of creating teaching data for robot, and teaching system for robot
US20150273689A1 (en) Robot control device, robot, robotic system, teaching method, and program
JP6663978B2 (en) System and method for determining tool offset
JP2002018754A (en) Robot device and its control method
JP2012011531A (en) Robot apparatus and gripping method for use in robot apparatus
JP4578438B2 (en) Robot device
JP5593899B2 (en) Deburring method by robot
CN111037553B (en) Control device
JP2008168372A (en) Robot device and shape recognition method
JP6322949B2 (en) Robot control apparatus, robot system, robot, robot control method, and robot control program
CN113165187A (en) Image information processing device, gripping system, and image information processing method
JP2014240106A (en) Robot, robot control device, and driving method of robot
US20160306340A1 (en) Robot and control device
EP4400274A1 (en) Command value generating device, method, and program
JP2021000694A (en) Device for teaching robot and robot system
Lopez et al. Taichi algorithm: Human-like arm data generation applied on non-anthropomorphic robotic manipulators for demonstration
Schiebener et al. Discovery, segmentation and reactive grasping of unknown objects
Guanglong et al. Human–manipulator interface using hybrid sensors with Kalman filters and adaptive multi-space transformation
TW201914782A (en) Holding position and posture instruction apparatus, holding position and posture instruction method, and robot system
JP2021045810A (en) Motion information generation device, end effector, robot and robot system
WO2021250923A1 (en) Robot system, control device, and control method