JP2007216367A - Device and method for holding object - Google Patents

Device and method for holding object Download PDF

Info

Publication number
JP2007216367A
JP2007216367A JP2006042948A JP2006042948A JP2007216367A JP 2007216367 A JP2007216367 A JP 2007216367A JP 2006042948 A JP2006042948 A JP 2006042948A JP 2006042948 A JP2006042948 A JP 2006042948A JP 2007216367 A JP2007216367 A JP 2007216367A
Authority
JP
Japan
Prior art keywords
finger
gripping
joint
joint angle
fingers
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006042948A
Other languages
Japanese (ja)
Inventor
Masayuki Takashima
雅之 高島
Yasuhiro Ota
康裕 太田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2006042948A priority Critical patent/JP2007216367A/en
Publication of JP2007216367A publication Critical patent/JP2007216367A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J15/00Gripping heads and other end effectors
    • B25J15/0009Gripping heads and other end effectors comprising multi-articulated fingers, e.g. resembling a human hand

Abstract

<P>PROBLEM TO BE SOLVED: To provide a technology capable of holding an object of an arbitrary shape by a natural operation of a person by using a robot hand having a plurality of fingers capable of changing the posture when turning a joint. <P>SOLUTION: A device is a device for holding an object by using a robot hand having a plurality of fingers capable of changing the posture when turning a joint. The device comprises a means for acquiring shape information on the object, a means for selecting fingers used for holding the object from shape information on the object, a means for calculating the position of a holding point on the object of the fingers to be used for holding the object from shape information on the object, a means for calculating the target joint angle of each joint, and a means for turning each joint according to the calculated target joint angle. In the device, the means for calculating the target joint angle calculates the target joint angle from the position of the holding point for the fingers used for holding the object; and sets the target joint angle for realizing the finger-gripping posture for the fingers not used for holding the object. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、関節が回転すると姿勢が変化する複数の指を備えるロボットハンドを用いて、任意の形状の物体を把持する装置および方法に関する。   The present invention relates to an apparatus and a method for gripping an object of an arbitrary shape using a robot hand including a plurality of fingers whose postures change when a joint rotates.

現在、ヒューマノイド型ロボットの開発が盛んに行われている。これらのロボットには、家庭やオフィスなどで人間の代わりに作業をさせたり、人間が行う作業の補助をさせたりすることが期待されている。家庭やオフィスなどでロボットを実用するには、ロボットに道具を扱う作業を行わせることが必要となる。家庭やオフィスで扱われている道具は、人間が扱うのに適した仕様とされており、5指を備える人間の手で扱うのに適したものが多い。従って、上記のようなヒューマノイド型ロボットは、人間と同じ様に、手に5指を備えていることが好ましい。   Currently, humanoid robots are actively developed. These robots are expected to work on behalf of humans at home or office, or to assist humans in their work. In order to put the robot into practical use at home or in the office, it is necessary to let the robot perform the work of handling the tool. Tools used in homes and offices have specifications suitable for human handling, and many are suitable for handling with human hands having five fingers. Therefore, it is preferable that the humanoid robot as described above has five fingers in the hand, like a human being.

人間の手と同じ様に5指を備えるロボットハンドが、従来から開発されている。従来から開発されている5指を備えるロボットハンドの例が、特許文献1乃至5に記載されている。   Conventionally, a robot hand having five fingers like a human hand has been developed. Patent Documents 1 to 5 describe examples of robot hands having five fingers that have been conventionally developed.

特開2001−351057号公報Japanese Patent Laid-Open No. 2001-351057 特開2004−355295号公報JP 2004-355295 A 特開平7−28891号公報JP-A-7-28891 特開平4−358277号公報JP-A-4-358277 特開2003−228593号公報JP 2003-228593 A

人間が行っている様な自然な動作を実現するためには、特許文献1に開示されているように、指の関節それぞれについて目標とする関節角度を指定して、その目標関節角度を実現するように関節を回転する構成とすることが好ましい。指の関節それぞれについて、自然な動作を実現するような目標関節角度を指定して、その目標関節角度を実現するように関節を回転することで、自然な動作で物体を把持することができる。   In order to realize a natural motion like that performed by a human, as disclosed in Patent Document 1, a target joint angle is specified for each of the finger joints, and the target joint angle is realized. It is preferable that the joint be rotated as described above. For each finger joint, a target joint angle that realizes a natural motion is designated, and the joint is rotated to realize the target joint angle, whereby an object can be gripped with a natural motion.

しかしながら、物体の形状によっては、物体を把持する際にロボットハンドの全ての指を用いることができない場合がある。例えばロボットハンドに比べて小さな物体を把持させたい場合、全ての指を用いて把持しようとすると、指同士が干渉してしまい、その物体を把持することができない場合がある。
また、指同士を干渉させることなく全ての指を用いて物体を把持しようとすると、指の姿勢が不自然な姿勢となり、人間が把持するような自然な動作を実現することができない場合がある。
However, depending on the shape of the object, not all fingers of the robot hand may be used when gripping the object. For example, when it is desired to grip a small object compared to a robot hand, if all the fingers are used for gripping, the fingers may interfere with each other and the object may not be gripped.
Also, if you try to grip an object using all your fingers without causing your fingers to interfere with each other, the posture of your fingers may be unnatural, and you may not be able to achieve natural movements that humans hold. .

任意の形状の物体を人間が行っている様な自然な動作で把持させることが可能な技術が待望されている。   There is a need for a technology that can grip an object of an arbitrary shape with a natural motion like a human being.

本発明は上記課題を解決する。本発明は、関節を回転すると姿勢が変化する複数の指を備えるロボットハンドを用いて、任意の形状の物体を人間が行うような自然な動作で把持することが可能な技術を提供する。   The present invention solves the above problems. The present invention provides a technique capable of gripping an object of an arbitrary shape with a natural motion such as that performed by a human using a robot hand including a plurality of fingers whose postures change when a joint is rotated.

本発明は装置として具現化される。本発明の装置は、関節が回転すると姿勢が変化する複数の指を備えるロボットハンドを用いて物体を把持する装置である。その装置は、物体の形状情報を取得する手段と、物体の形状情報から物体の把持に用いる指を選択する手段と、物体の形状情報から物体の把持に用いる指の物体上の把持点の位置を計算する手段と、各関節の目標関節角度を計算する手段と、計算された目標関節角度に応じて各関節を回転させる手段を備えている。その装置は、前記目標関節角度を計算する手段が、物体の把持に用いる指については前記把持点の位置から目標関節角度を計算し、物体の把持に用いない指については指を握り込む姿勢を実現する目標関節角度を設定することを特徴とする。   The present invention is embodied as a device. The apparatus of the present invention is an apparatus for gripping an object using a robot hand including a plurality of fingers whose postures change when a joint rotates. The apparatus includes means for acquiring shape information of an object, means for selecting a finger to be used for gripping an object from the shape information of the object, and a position of a grip point on the object of the finger to be used for gripping the object from the shape information of the object. , A means for calculating a target joint angle of each joint, and a means for rotating each joint in accordance with the calculated target joint angle. In the apparatus, the means for calculating the target joint angle calculates the target joint angle from the position of the grip point for a finger used for gripping an object, and holds the finger for a finger not used for gripping the object. A target joint angle to be realized is set.

上記の装置は、物体の形状情報を取得して、取得された物体の形状情報に基づいて、その物体を把持する際に用いる指を選択し、その指を物体と接触させる点(把持点)の位置を計算する。物体の形状情報は、例えばカメラやセンサなどを用いて取得することができる。物体の把持に用いる指が選択され、選択された指のそれぞれについて把持点が計算されると、上記の装置は各関節の目標関節角度を計算する。物体の把持に用いる指については、計算された把持点の位置に基づいて、その指の関節の目標関節角度が算出される。物体の把持に用いない指については、その指を握り込む姿勢を実現するように、その指の関節の目標関節角度が設定される。各関節の目標関節角度が算出されると、算出された目標関節角度に応じて、上記の装置は各関節を回転させる。   The above device acquires shape information of an object, selects a finger to be used for gripping the object based on the acquired shape information of the object, and makes the finger contact the object (gripping point) Calculate the position of. The shape information of the object can be acquired using, for example, a camera or a sensor. When a finger to be used for gripping an object is selected and a gripping point is calculated for each of the selected fingers, the above device calculates a target joint angle of each joint. For a finger used for gripping an object, a target joint angle of the joint of the finger is calculated based on the calculated position of the gripping point. For a finger that is not used for gripping an object, a target joint angle of the joint of the finger is set so as to realize a posture for gripping the finger. When the target joint angle of each joint is calculated, the above device rotates each joint according to the calculated target joint angle.

上記の装置は、物体の形状に応じて把持に用いる指が選択され、物体の形状に応じて把持に用いる指の把持点が計算される。物体の把持に用いる指については、計算された把持点で物体と接触するように関節を回転し、物体の把持に用いない指については、その指を握り込む姿勢を実現するように関節を回転する。これによって、人間が行っているような自然な動作で、任意の形状の物体を把持することができる。   In the above apparatus, a finger used for gripping is selected according to the shape of the object, and a gripping point of the finger used for gripping is calculated according to the shape of the object. For fingers used for gripping an object, rotate the joint so that it comes into contact with the object at the calculated gripping point, and for fingers not used for gripping the object, rotate the joint so as to realize a posture to grip the finger. To do. As a result, an object having an arbitrary shape can be gripped by a natural motion that is performed by a human.

上記した装置では、前記ロボットハンドが、1本の指と、その1本の指に向けて屈曲可能であるとともに各々が固有の可能範囲を有する4本の指を備えており、前記選択する手段が、各指の可能範囲と物体が重複するか否かによって、物体の把持に用いる指を選択することが好ましい。   In the apparatus described above, the robot hand includes one finger and four fingers that can be bent toward the one finger and each has a unique possible range, and the means for selecting However, it is preferable to select a finger to be used for gripping an object depending on whether or not the possible range of each finger and the object overlap.

人間の手は、親指と、親指に向けて屈曲可能であるとともに各々が固有の可動範囲を有する人差し指、中指、薬指および小指を備えている。上記のロボットハンドは、人間の手に近い構造を備えており、物体を把持する際により人間の動作に近い自然な動作を実現することができる。
上記のようなロボットハンドを用いて物体を把持する場合、各々の指は固有の可動範囲を備えている。物体の位置や形状によって、可動範囲と物体が重複する指もあるし、可動範囲と物体が重複しない指もある。上記の装置では、指の可動範囲が物体と重複する指については、物体の把持に用いる指として選択し、指の可動範囲が物体と重複しない指については、物体の把持に用いない指として選択する。このような指の選択は人間が物体を把持する際に自然に行っていることであるから、上記の装置によればより人間の動作に近い自然な動作で物体を把持することができる。
The human hand includes a thumb, an index finger, a middle finger, a ring finger, and a little finger that can be bent toward the thumb and each has a unique range of motion. The robot hand described above has a structure close to that of a human hand, and can realize a natural motion closer to that of a human when gripping an object.
When gripping an object using the robot hand as described above, each finger has a unique movable range. Depending on the position and shape of the object, some fingers overlap the movable range, and some fingers do not overlap the movable range. In the above device, a finger whose finger movable range overlaps with the object is selected as a finger used for gripping the object, and a finger whose finger movable range does not overlap with the object is selected as a finger not used for gripping the object. To do. Since such a finger selection is naturally performed when a human grips an object, according to the above-described apparatus, an object can be gripped by a natural motion closer to that of a human.

本発明は方法としても具現化される。本発明の方法は、関節が回転すると姿勢が変化する複数の指を備えるロボットハンドを用いて物体を把持する方法である。その方法は、物体の形状情報を取得する工程と、物体の形状情報から物体の把持に用いる指を選択する工程と、物体の形状情報から物体の把持に用いる指の物体上の把持点の位置を計算する工程と、各関節の目標関節角度を計算する工程と、計算された目標関節角度に応じて各関節を回転させる工程を備えている。その方法は、前記目標関節角度を計算する工程において、物体の把持に用いる指については前記把持点の位置から目標関節角度を計算し、物体の把持に用いない指については指を握り込む姿勢を実現する目標関節角度を設定することを特徴とする。   The present invention is also embodied as a method. The method of the present invention is a method of gripping an object using a robot hand including a plurality of fingers whose postures change when a joint rotates. The method includes the steps of obtaining object shape information, selecting a finger to be used for gripping the object from the object shape information, and the position of the grip point on the object of the finger to be used for gripping the object from the object shape information. , Calculating a target joint angle of each joint, and rotating each joint according to the calculated target joint angle. In the method of calculating the target joint angle, the target joint angle is calculated from the position of the gripping point for a finger used for gripping an object, and the posture of grasping the finger for a finger not used for gripping the object is calculated. A target joint angle to be realized is set.

本発明の装置と方法によれば、関節の駆動によって姿勢が変化する複数の指を備えるロボットハンドを用いて、任意の形状の物体を人間が行うような自然な動作で把持することが可能となる。   According to the apparatus and method of the present invention, it is possible to grip an object of an arbitrary shape with a natural motion that a human performs, using a robot hand including a plurality of fingers whose postures are changed by driving a joint. Become.

以下に発明を実施するための最良の形態を列記する。
(形態1)
物体の形状情報から物体の形状中心位置を計算する手段と、
ロボットハンドの位置を調整する手段をさらに備え、
幾つかの指の可動範囲が互いに重複する領域に物体の形状中心位置が入るように、ロボットハンドの位置を調整することを特徴とする。
The best mode for carrying out the invention is listed below.
(Form 1)
Means for calculating the shape center position of the object from the shape information of the object;
It further comprises means for adjusting the position of the robot hand,
The position of the robot hand is adjusted so that the center position of the shape of the object enters a region where the movable ranges of some fingers overlap each other.

本実施例の把持装置100は、ロボットハンド102、カメラ104a、104b、制御装置106を備えている。本実施例の把持装置100は、ロボットハンド102を用いて物体Pを把持する。   The gripping device 100 according to the present embodiment includes a robot hand 102, cameras 104a and 104b, and a control device 106. The gripping device 100 according to the present embodiment grips the object P using the robot hand 102.

ロボットハンド102は、掌部108と、掌部108から伸びる親指110、人差し指124a、中指124b、薬指124cおよび小指124dの5指を備えている。   The robot hand 102 includes a palm part 108 and five fingers: a thumb 110 extending from the palm part 108, an index finger 124a, a middle finger 124b, a ring finger 124c, and a little finger 124d.

親指110は掌部108に支持された4自由度のリンク系である。親指110は4つの関節112、114、116および118を備えており、それぞれの関節ごとにモータ152、154、156および158が配置されている。関節112は人間の親指でいう指節間関節(IP関節)に相当し、関節114は中手指関節(MP関節)に相当し、関節116および118は大菱中手関節(TM関節)に相当する。親指110の先端部122は、曲面形状の弾性体で形成されている。親指110の根元には6軸力センサ120が配置されている。6軸力センサ120は、互いに直交する3軸方向のそれぞれに沿う方向の力と、各軸方向まわりのモーメントを独立に検出可能なセンサである。6軸力センサ120は、親指110に作用する把持反力を検出する。それぞれの関節112、114、116および118には、関節の曲げ角度を検出するためのエンコーダ172、174、176および178が配置されている。   The thumb 110 is a four-degree-of-freedom link system supported by the palm 108. The thumb 110 includes four joints 112, 114, 116, and 118, and a motor 152, 154, 156, and 158 is disposed for each joint. The joint 112 corresponds to an interphalangeal joint (IP joint) referred to as a human thumb, the joint 114 corresponds to a metacarpal joint (MP joint), and the joints 116 and 118 correspond to Ohishi metacarpal joint (TM joint). To do. The tip portion 122 of the thumb 110 is formed of a curved elastic body. A six-axis force sensor 120 is disposed at the base of the thumb 110. The six-axis force sensor 120 is a sensor that can independently detect forces in directions along three axis directions orthogonal to each other and moments around the respective axis directions. The six-axis force sensor 120 detects a gripping reaction force acting on the thumb 110. Encoders 172, 174, 176, and 178 for detecting the bending angles of the joints are arranged at the joints 112, 114, 116, and 118, respectively.

人差し指124a、中指124b、薬指124cおよび小指124dは掌部108に支持された3自由度のリンク系である。人差し指124aは4つの関節126a、128a、130aおよび132aを備えており、最も先端側にある関節126aを除く3つの関節128a、130aおよび132aのそれぞれに、モータ160a、162aおよび164aが配置されている。最も先端側にある関節126aは、隣接する関節128aと連動する連動関節である。関節126aは人間の人差し指でいう遠位指節間関節(DIP関節)に相当し、関節128aは近位指節間関節(PIP関節)に相当し、関節130aおよび132aは中手指関節(MP関節)に相当する。人差し指124aの先端部136aは、曲面形状の弾性体で形成されている。人差し指124aの根元には6軸力センサ134aが配置されている。6軸力センサ134aは、人差し指124aに作用する把持反力を検出する。それぞれの関節126a、128a、130aおよび132aには、関節の曲げ角度を検出するためのエンコーダ170a、172a、174aおよび176aが配置されている。   The index finger 124a, the middle finger 124b, the ring finger 124c, and the little finger 124d are a three-degree-of-freedom link system supported by the palm portion 108. The index finger 124a includes four joints 126a, 128a, 130a, and 132a, and motors 160a, 162a, and 164a are disposed at the three joints 128a, 130a, and 132a, respectively, excluding the joint 126a at the most distal end side. . The joint 126a on the most distal side is an interlocking joint that interlocks with the adjacent joint 128a. The joint 126a corresponds to a distal interphalangeal joint (DIP joint) as a human index finger, the joint 128a corresponds to a proximal interphalangeal joint (PIP joint), and the joints 130a and 132a are metacarpal joints (MP joint). ). The tip portion 136a of the index finger 124a is formed of a curved elastic body. A six-axis force sensor 134a is disposed at the base of the index finger 124a. The six-axis force sensor 134a detects a gripping reaction force acting on the index finger 124a. In each of the joints 126a, 128a, 130a, and 132a, encoders 170a, 172a, 174a, and 176a for detecting the bending angle of the joint are arranged.

中指124b、薬指124cおよび小指124dは、人差し指124aと同様の構成を備えている。以下では中指124b、薬指124cおよび小指124dの構成要素については、人差し指124aの対応する構成要素と、数字は同じで添え字のアルファベットのみが異なる参照符合を付して、詳細な説明を省略する。   The middle finger 124b, ring finger 124c, and little finger 124d have the same configuration as the index finger 124a. Hereinafter, the constituent elements of the middle finger 124b, the ring finger 124c, and the little finger 124d are given the same reference numerals as those of the corresponding constituent elements of the index finger 124a, but are different only in the subscript alphabet, and detailed description thereof will be omitted.

親指110、人差し指124a、中指124b、薬指124cおよび小指124dは、それぞれ関節を折り曲げることにより、掌部108に握り込ませる姿勢をとることができる。図5には一例として、人差し指124aを掌部108に握り込ませる姿勢を示している。人差し指124aは、関節128aおよび130aをそれぞれ90度回転させることにより、掌部108に握り込ませる姿勢を実現することができる。他の指も同様に、関節を回転することにより、掌部108に握り込ませる姿勢を実現することができる。後に詳述するが、本実施例の把持装置100では、物体Pの把持に用いない指については、その指に上記したような掌部108に握り込ませる姿勢を実現させる。   The thumb 110, the index finger 124a, the middle finger 124b, the ring finger 124c, and the little finger 124d can each take a posture of being gripped by the palm 108 by bending the joint. As an example, FIG. 5 shows a posture in which the index finger 124a is gripped by the palm portion 108. The index finger 124a can realize a posture in which the index finger 124a is gripped by the palm 108 by rotating the joints 128a and 130a by 90 degrees. Similarly, by rotating the joints of the other fingers, it is possible to realize a posture of grasping the palm part 108. As will be described in detail later, in the gripping device 100 according to the present embodiment, a finger that is not used for gripping the object P realizes a posture in which the finger is gripped by the palm portion 108 as described above.

ロボットハンド102の掌部108は、図示されないロボットアームに取り付けられている。ロボットアームを駆動することによって、ロボットハンド102を所望の位置へ移動させることができる。   The palm part 108 of the robot hand 102 is attached to a robot arm (not shown). By driving the robot arm, the robot hand 102 can be moved to a desired position.

カメラ104aおよび104bは、一般的に用いられているCCDカメラである。カメラ104aおよび104bは、物体Pを撮像し、得られた画像データを制御装置106へ送信する。   The cameras 104a and 104b are commonly used CCD cameras. The cameras 104 a and 104 b image the object P and transmit the obtained image data to the control device 106.

制御装置106は、CPU、ROM、RAM等で構成されている。図2に制御装置106の機能ブロック図を示す。制御装置106は、カメラ104aおよび104bの画像データから画像認識によって物体Pの位置と形状を認識する画像認識部202と、認識結果に基づいてロボットハンド102による物体Pの把持の態様を演算する把持姿勢演算部204と、ロボットハンド102の動きを制御するハンド制御部206と、モータ群を駆動するモータドライバ208を備えている。   The control device 106 includes a CPU, a ROM, a RAM, and the like. FIG. 2 shows a functional block diagram of the control device 106. The control device 106 recognizes the position and shape of the object P by image recognition from the image data of the cameras 104a and 104b, and grasps that calculate how the object P is grasped by the robot hand 102 based on the recognition result. A posture calculation unit 204, a hand control unit 206 that controls the movement of the robot hand 102, and a motor driver 208 that drives a motor group are provided.

なお制御装置106は、このような構成に限られるものではなく、画像認識部202、把持姿勢演算部204、ハンド制御部206およびモータドライバ208は、ハードウェアとして別体の装置となっていてもよい。あるいは、画像認識部202、把持姿勢演算部204、ハンド制御部206およびモータドライバ208が、同一のハードウェア上で動作するソフトウェア・モジュールとして区分されていてもよい。   The control device 106 is not limited to such a configuration, and the image recognition unit 202, the gripping posture calculation unit 204, the hand control unit 206, and the motor driver 208 may be separate devices as hardware. Good. Alternatively, the image recognition unit 202, the gripping posture calculation unit 204, the hand control unit 206, and the motor driver 208 may be classified as software modules that operate on the same hardware.

画像認識部202は、カメラ104aおよび104bから送信された画像データを受信し、画像認識処理によって物体Pの位置および形状を特定する。物体Pの位置および形状は、カメラ104aおよび104bのそれぞれの画像データにおいて物体Pの像を抽出し、抽出された物体Pの像からステレオ視の原理によって特定することができる。画像認識部202は、認識結果を把持姿勢演算部204へ送信する。   The image recognition unit 202 receives the image data transmitted from the cameras 104a and 104b, and specifies the position and shape of the object P through image recognition processing. The position and shape of the object P can be specified by extracting the image of the object P from the respective image data of the cameras 104a and 104b and using the principle of stereo vision from the extracted image of the object P. The image recognition unit 202 transmits the recognition result to the gripping posture calculation unit 204.

把持姿勢演算部204は、画像認識部202から送信される物体Pの位置および形状から、物体Pを把持する際のロボットハンド102の位置と、物体Pの把持に用いる指と、把持に用いる指を物体Pと接触させる際の物体P上の接触点(以下では把持点という)の位置を設定し、物体Pを把持する際の各指の各関節の目標角度(目標関節角度)を計算する。把持姿勢演算部204による処理の詳細については、後に詳述する。   The gripping posture calculation unit 204 determines the position of the robot hand 102 when gripping the object P, the finger used to grip the object P, and the finger used for gripping from the position and shape of the object P transmitted from the image recognition unit 202. The position of a contact point on the object P (hereinafter referred to as a gripping point) when the object P is brought into contact with the object P is set, and a target angle (target joint angle) of each joint of each finger when the object P is gripped is calculated. . Details of the processing by the gripping posture calculation unit 204 will be described later.

ハンド制御部206は、把持姿勢演算部204で得られた親指110、人差し指124a、中指124b、薬指124cおよび小指124dのそれぞれの目標関節角度に応じた時系列の関節角度指令値を生成し、この指令値をモータドライバ208へ送信する。このとき、ハンド制御部206は、エンコーダ群の検出信号を入力し、それぞれの関節の角度(関節角度)をフィードバック制御する。また、6軸力センサ群の検出信号を入力し、各指による把持力をフィードバック制御してもよい。   The hand control unit 206 generates time-series joint angle command values corresponding to the target joint angles of the thumb 110, the index finger 124a, the middle finger 124b, the ring finger 124c, and the little finger 124d obtained by the grasping posture calculation unit 204. The command value is transmitted to the motor driver 208. At this time, the hand control unit 206 inputs the detection signal of the encoder group, and feedback-controls the angle of each joint (joint angle). Alternatively, a detection signal of the six-axis force sensor group may be input, and the gripping force by each finger may be feedback controlled.

モータドライバ208は、ハンド制御部206で生成された関節角度指令値に応じた駆動電流を各モータに供給して、各モータを回転駆動させる。各モータが回転駆動することにより、各関節は関節角度指令値に応じた関節角度を実現し、ロボットハンド102の姿勢が変化する。   The motor driver 208 supplies a drive current corresponding to the joint angle command value generated by the hand control unit 206 to each motor, and rotates each motor. As each motor rotates, each joint realizes a joint angle corresponding to the joint angle command value, and the posture of the robot hand 102 changes.

以下では図3のフローチャートを参照しながら、把持姿勢演算部204による各指の目標関節角度の計算処理について説明する。   Hereinafter, the calculation processing of the target joint angle of each finger by the gripping posture calculation unit 204 will be described with reference to the flowchart of FIG.

ステップS302では、画像認識部202から物体Pの位置および形状を取得する。   In step S <b> 302, the position and shape of the object P are acquired from the image recognition unit 202.

ステップS304では、物体Pの位置と形状から、物体Pの形状中心位置PGを計算する。物体Pが均質な材料から構成されている場合には、物体Pの形状中心位置PGは物体Pの重心位置に相当する。本実施例の把持装置100では、物体Pの形状中心位置PGが物体Pの重心位置とほぼ等しい位置にあると想定して、物体Pの把持に用いる指の選択や、物体P上の把持点の位置の計算をする。   In step S304, the shape center position PG of the object P is calculated from the position and shape of the object P. When the object P is made of a homogeneous material, the shape center position PG of the object P corresponds to the center of gravity position of the object P. In the gripping apparatus 100 of the present embodiment, assuming that the shape center position PG of the object P is substantially equal to the position of the center of gravity of the object P, selection of a finger used for gripping the object P and a gripping point on the object P Calculate the position of.

ステップS306では、物体Pの形状中心位置PGに基づいて、ロボットハンド102の掌部108の目標位置を設定する。ロボットハンド102の掌部108の目標位置は、それぞれの指の指先の可動範囲に基づいて、物体Pの形状中心位置PGがより多くの指の指先の可動範囲が重複する領域に入るように設定される。   In step S306, the target position of the palm part 108 of the robot hand 102 is set based on the shape center position PG of the object P. The target position of the palm part 108 of the robot hand 102 is set so that the shape center position PG of the object P falls within a region where the movable range of more fingertips overlaps based on the movable range of the fingertip of each finger. Is done.

例えば親指110と人差し指124aの指先の可動範囲が重複する領域に物体Pの形状中心位置PGが入っていれば、親指110と人差し指124aを用いて物体Pを把持する際に、それぞれの指の指先から物体Pの形状中心位置PGに向けた把持力を作用させることができる。このように把持することによって、安定して物体Pを把持することが可能となる。親指110と人差し指124aに加えて、さらに中指124bの指先の可動範囲が重複する領域に物体Pの形状中心位置PGが入っていれば、親指110、人差し指124aおよび中指124bを用いて物体Pを把持する際に、それぞれの指先から物体Pの形状中心位置PGに向けた把持力を作用させることができる。このように、より多くの指の指先の可動範囲が重複する領域に物体Pの形状中心位置PGが入るようにすると、より多くの指の指先から物体Pの形状中心位置PGに向けた把持力を作用させることが可能となり、物体Pを安定して把持することが可能となる。   For example, if the shape center position PG of the object P is in an area where the movable ranges of the thumb 110 and the index finger 124a overlap, the fingertip of each finger is used when the object P is gripped using the thumb 110 and the index finger 124a. A gripping force toward the shape center position PG of the object P can be applied. By gripping in this way, the object P can be stably gripped. If the center position PG of the shape of the object P is in an area where the movable range of the fingertip of the middle finger 124b overlaps in addition to the thumb 110 and the index finger 124a, the object P is grasped using the thumb 110, the index finger 124a and the middle finger 124b. In doing so, it is possible to apply a gripping force from the respective fingertips toward the shape center position PG of the object P. As described above, when the shape center position PG of the object P enters the region where the movable ranges of the fingertips of more fingers overlap, the gripping force toward the shape center position PG of the object P from more fingertips. The object P can be stably gripped.

本実施例の把持装置110では、把持姿勢演算部204は、掌部108に対する各指の指先の可動範囲を予め記憶している。そして把持姿勢演算部204は、掌部108を移動させることによって、5指全ての指先の可動範囲が重複する領域に物体Pの形状中心位置PGを入れることが可能であるかを判断する。5指全ての指先の可動範囲が重複する領域に物体Pの形状中心位置PGを入れることが可能であれば、把持姿勢演算部204はそのときの掌部108の位置を目標位置として設定する。5指全ての指先の可動範囲が重複する領域に物体Pの形状中心位置PGを入れることができない場合は、親指110を含む4指の指先の可動範囲が重複する領域に物体Pの形状中心位置PGを入れることができるか否かを判断する。親指110を含む4指の指先の可動範囲が重複する領域に物体Pの形状中心位置PGを入れることが可能であれば、把持姿勢演算部204はそのときの掌部108の位置を目標位置として設定する。親指110を含む4指の指先の可動範囲が重複する領域にも物体Pの形状中心位置PGを入れることができない場合は、親指110を含む3指の指先の可動範囲が重複する領域に物体Pの形状中心位置PGを入れることができるか否かを判断する。親指110を含む3指の指先の可動範囲が重複する領域にも物体Pの形状中心位置PGを入れることができない場合は、親指110を含む2指の指先の可動範囲が重複する領域に物体Pの形状中心位置PGを入れることができるか否かを判断する。親指110を含む2指の指先の可動範囲が重複する領域にも物体Pの形状中心位置PGを入れることができない場合、ロボットハンド102で物体Pを把持することはできないと判断して、例外処理へ以降する。指先の可動範囲が重複する領域に物体Pの形状中心位置PGを入れることができれば、把持姿勢演算部204はそのときの掌部108の位置を目標位置として設定する。
把持姿勢演算部204によって掌部108の目標位置が設定されると、掌部108は図示されないロボットアームの駆動によって、設定された目標位置まで移動する。
In the gripping device 110 of the present embodiment, the gripping posture calculation unit 204 stores in advance the movable range of the fingertip of each finger relative to the palm unit 108. Then, the gripping posture calculation unit 204 determines whether or not the shape center position PG of the object P can be placed in an area where the movable ranges of all five fingertips overlap by moving the palm unit 108. If it is possible to put the shape center position PG of the object P in a region where the movable ranges of all five fingers overlap, the gripping posture calculation unit 204 sets the position of the palm unit 108 at that time as the target position. If the shape center position PG of the object P cannot be put in an area where the movable ranges of all five fingertips overlap, the shape center position of the object P in an area where the movable ranges of the four fingertips including the thumb 110 overlap. It is determined whether or not PG can be inserted. If it is possible to put the shape center position PG of the object P in a region where the movable ranges of the four fingertips including the thumb 110 overlap, the gripping posture calculation unit 204 sets the position of the palm unit 108 at that time as the target position. Set. If the shape center position PG of the object P cannot be entered even in the region where the movable ranges of the four fingertips including the thumb 110 overlap, the object P is in the region where the movable ranges of the three fingertips including the thumb 110 overlap. It is determined whether or not the shape center position PG can be entered. If the shape center position PG of the object P cannot be entered even in the region where the movable ranges of the three fingertips including the thumb 110 overlap, the object P is in the region where the movable ranges of the two fingertips including the thumb 110 overlap. It is determined whether or not the shape center position PG can be entered. If the shape center position PG of the object P cannot be entered even in an area where the movable ranges of two fingertips including the thumb 110 overlap, it is determined that the object P cannot be gripped by the robot hand 102, and exception processing is performed. After that. If the shape center position PG of the object P can be put in a region where the movable range of the fingertip overlaps, the gripping posture calculation unit 204 sets the position of the palm unit 108 at that time as the target position.
When the target position of the palm unit 108 is set by the gripping posture calculation unit 204, the palm unit 108 moves to the set target position by driving a robot arm (not shown).

ステップS308では、親指110、人差し指124a、中指124b、薬指124cおよび小指124dのうちから、物体Pの把持に用いる指を選択する。本実施例では、関節を回転させることによって指先を物体Pの表面と接触させることが可能な指を、物体Pの把持に用いる指として選択する。
把持姿勢演算部204は、それぞれの指について、その指の指先の可動範囲が物体Pの表面と交差するか否かを評価する。それぞれの指の指先の可動範囲は、予め記憶されている。物体Pの表面は、物体Pの位置と形状から得ることができる。指先の可動範囲が物体Pの表面と交差する場合(すなわち指先の可動範囲と物体が重複する場合)、把持姿勢演算部204はその指を物体Pの把持に用いる指として選択する。指先の可動範囲が物体Pの表面と交差しない場合(すなわち指先の可動範囲と物体が重複しない場合)、把持姿勢演算部204はその指を物体Pの把持に用いない指として選択する。
In step S308, a finger used to hold the object P is selected from the thumb 110, the index finger 124a, the middle finger 124b, the ring finger 124c, and the little finger 124d. In the present embodiment, a finger that can bring the fingertip into contact with the surface of the object P by rotating the joint is selected as a finger used for gripping the object P.
The gripping posture calculation unit 204 evaluates for each finger whether or not the movable range of the fingertip of the finger intersects the surface of the object P. The movable range of the fingertip of each finger is stored in advance. The surface of the object P can be obtained from the position and shape of the object P. When the movable range of the fingertip intersects the surface of the object P (that is, when the movable range of the fingertip and the object overlap), the gripping posture calculation unit 204 selects the finger as a finger used for gripping the object P. When the movable range of the fingertip does not intersect the surface of the object P (that is, when the movable range of the fingertip and the object do not overlap), the gripping posture calculation unit 204 selects the finger as a finger that is not used for gripping the object P.

ステップS310では、物体Pの把持に用いる指のそれぞれについて、物体P上の把持点の位置を計算する。それぞれの指の物体P上の把持点の位置は、指先の可動範囲と物体Pの表面が交差する領域の範囲内で、安定して物体Pを把持することができる位置として計算される。図4には一例として、親指110と、人差し指124aと、中指124bが物体Pの把持に用いる指として選択されている場合の、把持点の位置の計算手法を模式的に示している。図4では、親指110の指先部122の可動範囲の境界を符号402で示し、人差し指124aの指先部136aの可動範囲の境界を符号404で示し、中指124bの指先部136bの可動範囲の境界を符号406で示している。図4では、物体Pの形状中心位置PGは、親指110の指先部122の可動範囲と、人差し指124aの指先部136aの可動範囲と、中指124bの指先部136bの可動範囲が重複する領域に入っている。この場合、親指110の指先部122については、物体Pの表面と可動範囲が交差する領域の範囲内で把持点を設定することができる。人差し指124a、中指124bについても同様である。把持姿勢演算部204は、親指110の指先部122と、人差し指124aの指先部136aと、中指124bの指先部136bが互いに干渉しないという条件の下で、それぞれの指の把持点を計算する。把持姿勢演算部204は、親指110の指先部122の把持点410と、人差し指124aの指先部136aの把持点412と、中指124bの指先部136bの把持点414の位置平均が、物体Pの形状中心位置PGに最も近いものとなるように、それぞれの指の指先の把持点を計算する。   In step S310, the position of the grip point on the object P is calculated for each finger used to grip the object P. The position of the grip point on the object P of each finger is calculated as a position where the object P can be stably gripped within the range of the region where the movable range of the fingertip and the surface of the object P intersect. As an example, FIG. 4 schematically illustrates a method of calculating the position of the gripping point when the thumb 110, the index finger 124a, and the middle finger 124b are selected as the fingers used for gripping the object P. 4, the boundary of the movable range of the fingertip part 122 of the thumb 110 is indicated by reference numeral 402, the boundary of the movable range of the fingertip part 136a of the index finger 124a is indicated by reference numeral 404, and the boundary of the movable range of the fingertip part 136b of the middle finger 124b is indicated. This is indicated by reference numeral 406. In FIG. 4, the shape center position PG of the object P is in an area where the movable range of the fingertip portion 122 of the thumb 110, the movable range of the fingertip portion 136a of the index finger 124a, and the movable range of the fingertip portion 136b of the middle finger 124b overlap. ing. In this case, with respect to the fingertip portion 122 of the thumb 110, the gripping point can be set within the range of the region where the surface of the object P and the movable range intersect. The same applies to the index finger 124a and the middle finger 124b. The gripping posture calculation unit 204 calculates the gripping point of each finger under the condition that the fingertip part 122 of the thumb 110, the fingertip part 136a of the index finger 124a, and the fingertip part 136b of the middle finger 124b do not interfere with each other. The gripping posture calculation unit 204 is configured such that the average position of the gripping point 410 of the fingertip part 122 of the thumb 110, the gripping point 412 of the fingertip part 136a of the index finger 124a, and the gripping point 414 of the fingertip part 136b of the middle finger 124b is the shape of the object P. The gripping point of the fingertip of each finger is calculated so as to be closest to the center position PG.

ステップS312では、物体Pの把持に用いる指のそれぞれについて、把持点を計算することができたか否かを判断する。物体Pの把持に用いる指の何れか1指でも把持点を計算することができなかった場合(ステップS312でYESの場合)、把持点を計算できなかった指については、物体Pの把持に用いない指として選択し直し、ステップS312の把持点の位置の計算を再度行う。物体Pの把持に用いる指の全てについて把持点を計算できた場合(ステップS312でNOの場合)、処理はステップS314へ移行し、目標関節角度の計算を行う。   In step S312, it is determined whether or not the gripping point has been calculated for each finger used to grip the object P. If the gripping point cannot be calculated with any one of the fingers used to grip the object P (YES in step S312), the finger whose gripping point cannot be calculated is used for gripping the object P. The finger is selected again, and the position of the gripping point is calculated again in step S312. When the gripping points can be calculated for all the fingers used for gripping the object P (NO in step S312), the process proceeds to step S314, and the target joint angle is calculated.

ステップS314では、物体Pの把持に用いる指であって、物体P上に把持点が計算された指について、目標関節角度を計算する。把持姿勢演算部204は、物体P上の把持点に指先が位置するような関節角度を逆運動力学の手法によって計算して、計算された関節角度を目標関節角度とする。   In step S314, a target joint angle is calculated for a finger that is used to grip the object P and for which the grip point is calculated on the object P. The gripping posture calculation unit 204 calculates a joint angle such that the fingertip is located at the gripping point on the object P by the inverse kinematics method, and sets the calculated joint angle as the target joint angle.

ステップS316では、物体Pの把持に用いる指のそれぞれについて、目標関節角度が計算できたか否かを判断する。物体Pの把持に用いる指の何れか1指でも目標関節角度を計算することができなかった場合(ステップS316でYESの場合)、目標関節角度を計算できなかった指については、物体Pの把持に用いない指として選択し直し、ステップS312の把持点の位置の計算と、ステップS314の目標関節角度の計算を再度行う。物体Pの把持に用いる指の全てについて目標関節角度を計算できた場合(ステップs316でNOの場合)、処理はステップS318へ移行し、物体Pの把持に用いない指の目標関節角度の設定を行う。   In step S316, it is determined whether or not the target joint angle has been calculated for each finger used to grip the object P. If the target joint angle cannot be calculated by any one of the fingers used to grip the object P (YES in step S316), the finger that cannot calculate the target joint angle is gripped by the object P. The finger is not selected for use again, and the calculation of the position of the gripping point in step S312 and the calculation of the target joint angle in step S314 are performed again. When the target joint angle can be calculated for all the fingers used for gripping the object P (NO in step s316), the process proceeds to step S318, and the target joint angle of the finger not used for gripping the object P is set. Do.

ステップS318では、物体Pの把持に用いない指について、目標関節角度の設定を行う。本実施例の把持装置100では、物体Pの把持に用いない指については、その指を掌部108に握り込む姿勢となるように、目標関節角度が設定される。例えば小指124dが物体Pの把持に用いない指である場合には、関節130dと関節128dについて、それぞれの目標関節角度が90度に設定される。また関節132dについては、目標関節角度が0度に設定される。これによって、ロボットハンド102が物体Pを把持した際に、小指124dについては指を折り曲げて握り込む動作が実現される。   In step S318, a target joint angle is set for a finger that is not used to hold the object P. In the gripping device 100 of the present embodiment, for a finger that is not used for gripping the object P, the target joint angle is set so that the finger is held in the palm portion 108. For example, when the little finger 124d is a finger that is not used for gripping the object P, the target joint angle of each of the joint 130d and the joint 128d is set to 90 degrees. For the joint 132d, the target joint angle is set to 0 degree. As a result, when the robot hand 102 grips the object P, an operation of bending and gripping the little finger 124d is realized.

上記のようにして、物体Pの把持に用いる指と、物体Pの把持に用いない指のそれぞれについて目標関節角度が計算されると、ステップS320で把持姿勢演算部204は計算された目標関節角度をハンド制御部206へ出力し、処理を終了する。   As described above, when the target joint angle is calculated for each of the finger used for gripping the object P and the finger not used for gripping the object P, the gripping posture calculation unit 204 calculates the calculated target joint angle in step S320. Is output to the hand control unit 206, and the process ends.

把持姿勢演算部204によってそれぞれの指について目標関節角度が設定されると、ハンド制御部206が時系列の関節角度指令値を生成し、モータドライバ208によってモータが駆動される。それぞれの指の関節が目標関節角度まで回転し、把持に用いる指が物体P上の把持点に接触する姿勢が実現され、物体Pが把持される。   When the target joint angle is set for each finger by the gripping posture calculation unit 204, the hand control unit 206 generates a time-series joint angle command value, and the motor is driven by the motor driver 208. The joint of each finger rotates to the target joint angle, and the posture in which the finger used for gripping contacts the gripping point on the object P is realized, and the object P is gripped.

本実施例では、親指110、人差し指124a、中指124b、薬指124cおよび小指124dを備えるロボットハンド102を用いて物体Pを把持する例を説明したが、把持装置100が扱うことができるロボットハンド102の構造はこれに限らない。ロボットハンド102は、より少ない本数の指を備えていてもよいし、より多くの本数の指を備えていてもよい。また、ロボットハンド102の親指110、人差し指124a、中指124b、薬指124cおよび小指124dは、より多くの関節を備えていてもよいし、より少ない関節を備えていてもよい。   In this embodiment, an example in which the object P is gripped using the robot hand 102 including the thumb 110, the index finger 124a, the middle finger 124b, the ring finger 124c, and the little finger 124d has been described. However, the robot hand 102 that can be handled by the gripping device 100 is described. The structure is not limited to this. The robot hand 102 may have a smaller number of fingers or a larger number of fingers. Further, the thumb 110, the index finger 124a, the middle finger 124b, the ring finger 124c, and the little finger 124d of the robot hand 102 may have more joints or fewer joints.

以上、本発明の具体例を詳細に説明したが、これらは例示にすぎず、特許請求の範囲を限定するものではない。特許請求の範囲に記載の技術には、以上に例示した具体例を様々に変形、変更したものが含まれる。
また、本明細書または図面に説明した技術要素は、単独であるいは各種の組み合わせによって技術的有用性を発揮するものであり、出願時請求項記載の組み合わせに限定されるものではない。また、本明細書または図面に例示した技術は複数目的を同時に達成するものであり、そのうちの一つの目的を達成すること自体で技術的有用性を持つものである。
Specific examples of the present invention have been described in detail above, but these are merely examples and do not limit the scope of the claims. The technology described in the claims includes various modifications and changes of the specific examples illustrated above.
In addition, the technical elements described in the present specification or the drawings exhibit technical usefulness alone or in various combinations, and are not limited to the combinations described in the claims at the time of filing. In addition, the technology illustrated in the present specification or the drawings achieves a plurality of objects at the same time, and has technical utility by achieving one of the objects.

図1は把持装置100の概観を模式的に示す図である。FIG. 1 is a diagram schematically showing an overview of the gripping device 100. 図2は制御装置106の構成を模式的に示す図である。FIG. 2 is a diagram schematically showing the configuration of the control device 106. 図3は把持姿勢演算部204が行う処理を説明するフローチャートである。FIG. 3 is a flowchart for explaining processing performed by the gripping posture calculation unit 204. 図4は把持点の位置の計算手法を模式的に示す図である。FIG. 4 is a diagram schematically showing a method for calculating the position of the gripping point. 図5は人差し指124aを握り込む姿勢を模式的に示す図である。FIG. 5 is a diagram schematically showing a posture in which the index finger 124a is grasped.

符号の説明Explanation of symbols

100:把持装置
102:ロボットハンド
104a、104b:カメラ
106:制御装置
108:掌部
110:親指
112、114、116、118:親指の関節
120、134a、134b、134c、134d:6軸力センサ
122:親指の先端部
124a:人差し指
124b:中指
124c:薬指
124d:小指
126a、128a、130a、132a:人差し指の関節
136a:人差し指の先端部
126b、128b、130b、132b:中指の関節
136b:中指の先端部
126c、128c、130c、132c:薬指の関節
136c:薬指の先端部
126d、128d、130d、132d:小指の関節
136d:小指の先端部
202:画像認識部
204:把持姿勢演算部
206:ハンド制御部
208:モータドライバ
402、404、406:境界
410、412、414:把持点
100: gripping device 102: robot hand 104a, 104b: camera 106: control device 108: palm 110: thumbs 112, 114, 116, 118: thumb joints 120, 134a, 134b, 134c, 134d: 6-axis force sensor 122 : Thumb tip 124a: index finger 124b: middle finger 124c: ring finger 124d: little finger 126a, 128a, 130a, 132a: index finger joint 136a: index finger tip 126b, 128b, 130b, 132b: middle finger joint 136b: middle finger tip Parts 126c, 128c, 130c, 132c: ring finger joint 136c: ring finger tip 126d, 128d, 130d, 132d: little finger joint 136d: little finger tip 202: image recognition unit 204: gripping posture calculation unit 206: hand control Part 208: Motor driver 4 2,404,406: the boundary 410, 412, 414: Gripping point

Claims (3)

関節が回転すると姿勢が変化する複数の指を備えるロボットハンドを用いて物体を把持する装置であって、
物体の形状情報を取得する手段と、
物体の形状情報から物体の把持に用いる指を選択する手段と、
物体の形状情報から物体の把持に用いる指の物体上の把持点の位置を計算する手段と、
各関節の目標関節角度を計算する手段と、
計算された目標関節角度に応じて各関節を回転させる手段を備えており、
前記目標関節角度を計算する手段は、物体の把持に用いる指については前記把持点の位置から目標関節角度を計算し、物体の把持に用いない指については指を握り込む姿勢を実現する目標関節角度を設定することを特徴とするロボットハンドを用いて物体を把持する装置。
An apparatus for gripping an object using a robot hand having a plurality of fingers whose posture changes when a joint rotates,
Means for obtaining shape information of the object;
Means for selecting a finger to be used for gripping the object from the shape information of the object;
Means for calculating the position of the gripping point on the object of the finger used for gripping the object from the shape information of the object;
Means for calculating a target joint angle of each joint;
Means for rotating each joint according to the calculated target joint angle;
The means for calculating the target joint angle calculates a target joint angle from the position of the grip point for a finger used for gripping an object, and realizes a posture for gripping the finger for a finger not used for gripping an object. An apparatus for gripping an object using a robot hand characterized by setting an angle.
前記ロボットハンドは、1本の指と、その1本の指に向けて屈曲可能であるとともに各々が固有の可能範囲を有する4本の指を備えており、
前記選択する手段は、各指の可能範囲と物体が重複するか否かによって、物体の把持に用いる指を選択することを特徴とする請求項1の装置。
The robot hand includes one finger and four fingers that can be bent toward the one finger and each has a unique possible range;
2. The apparatus according to claim 1, wherein the selecting means selects a finger to be used for gripping an object depending on whether or not an object overlaps a possible range of each finger.
関節が回転すると姿勢が変化する複数の指を備えるロボットハンドを用いて物体を把持する方法であって、
物体の形状情報を取得する工程と、
物体の形状情報から物体の把持に用いる指を選択する工程と、
物体の形状情報から物体の把持に用いる指の物体上の把持点の位置を計算する工程と、
各関節の目標関節角度を計算する工程と、
計算された目標関節角度に応じて各関節を回転させる工程を備えており、
前記目標関節角度を計算する工程において、物体の把持に用いる指については前記把持点の位置から目標関節角度を計算し、物体の把持に用いない指については指を握り込む姿勢を実現する目標関節角度を設定することを特徴とするロボットハンドを用いて物体を把持する方法。
A method of gripping an object using a robot hand having a plurality of fingers whose posture changes when a joint rotates,
Obtaining object shape information;
Selecting a finger to be used for gripping the object from the shape information of the object;
Calculating the position of the gripping point on the object of the finger used for gripping the object from the shape information of the object;
Calculating a target joint angle for each joint;
A step of rotating each joint according to the calculated target joint angle,
In the step of calculating the target joint angle, for a finger used for gripping an object, the target joint angle is calculated from the position of the grip point, and for a finger not used for gripping the object, a target joint that realizes a posture for gripping the finger A method of gripping an object using a robot hand characterized by setting an angle.
JP2006042948A 2006-02-20 2006-02-20 Device and method for holding object Pending JP2007216367A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006042948A JP2007216367A (en) 2006-02-20 2006-02-20 Device and method for holding object

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006042948A JP2007216367A (en) 2006-02-20 2006-02-20 Device and method for holding object

Publications (1)

Publication Number Publication Date
JP2007216367A true JP2007216367A (en) 2007-08-30

Family

ID=38494158

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006042948A Pending JP2007216367A (en) 2006-02-20 2006-02-20 Device and method for holding object

Country Status (1)

Country Link
JP (1) JP2007216367A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101228279B1 (en) * 2011-03-31 2013-01-30 성균관대학교산학협력단 finger gait planning method of robotic hands and finger gait planning apparatus of robotic hands
JP2013505147A (en) * 2009-09-22 2013-02-14 ジーエム・グローバル・テクノロジー・オペレーションズ・インコーポレーテッド Humanoid robot
JP2013146853A (en) * 2012-01-13 2013-08-01 Toyota Motor Engineering & Manufacturing North America Inc Method and computer-program product for evaluating grasp pattern, and robot incorporating the same
JP2019185565A (en) * 2018-04-13 2019-10-24 東芝テック株式会社 Commodity reading system
CN111872962A (en) * 2020-08-07 2020-11-03 中山大学 Full-drive humanoid hand device with multipoint array pressure sensor
WO2022085560A1 (en) * 2020-10-20 2022-04-28 株式会社ソニー・インタラクティブエンタテインメント Robot hand control device, and method for controlling robot hand

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013505147A (en) * 2009-09-22 2013-02-14 ジーエム・グローバル・テクノロジー・オペレーションズ・インコーポレーテッド Humanoid robot
JP2014159078A (en) * 2009-09-22 2014-09-04 Gm Global Technology Operations Inc Humanoid robot
KR101228279B1 (en) * 2011-03-31 2013-01-30 성균관대학교산학협력단 finger gait planning method of robotic hands and finger gait planning apparatus of robotic hands
JP2013146853A (en) * 2012-01-13 2013-08-01 Toyota Motor Engineering & Manufacturing North America Inc Method and computer-program product for evaluating grasp pattern, and robot incorporating the same
JP2019185565A (en) * 2018-04-13 2019-10-24 東芝テック株式会社 Commodity reading system
JP7009291B2 (en) 2018-04-13 2022-01-25 東芝テック株式会社 Product reading system
CN111872962A (en) * 2020-08-07 2020-11-03 中山大学 Full-drive humanoid hand device with multipoint array pressure sensor
CN111872962B (en) * 2020-08-07 2022-07-12 中山大学 Full-drive humanoid hand device with multipoint array pressure sensor
WO2022085560A1 (en) * 2020-10-20 2022-04-28 株式会社ソニー・インタラクティブエンタテインメント Robot hand control device, and method for controlling robot hand

Similar Documents

Publication Publication Date Title
US8424941B2 (en) Robotic thumb assembly
JP5580850B2 (en) Fast grip contact calculation for serial robots
JP2008119770A (en) Robot hand and robot
JP2007229890A (en) Hand controlling system
JP2007216367A (en) Device and method for holding object
KR20130081875A (en) Robot and control method thereof
Yang et al. Real-time human-robot interaction in complex environment using kinect v2 image recognition
JP4591043B2 (en) Method of gripping an arbitrarily shaped object by a robot
Morales et al. An experiment in constraining vision-based finger contact selection with gripper geometry
JP4033050B2 (en) Robot hand gripping control device
JP4737099B2 (en) Robot and robot control apparatus and control method
Osswald et al. Mechanical system and control system of a dexterous robot hand
JPWO2019065427A1 (en) Robot hand system control method and robot hand system
JP3742876B2 (en) Robot hand, gripping control method of robot hand, robot and robot control method
JP3884249B2 (en) Teaching system for humanoid hand robot
JP2005144573A (en) Gripping force control method of robot hand
JP4715296B2 (en) Robot hand holding and gripping control method.
JP4640499B2 (en) Grip control device
Kiguchi et al. A study of a 4DOF upper-limb power-assist intelligent exoskeleton with visual information for perception-assist
KR101665544B1 (en) Control device for multi-finger hand and grasping method with the same
Sarakoglou et al. Integration of a tactile display in teleoperation of a soft robotic finger using model based tactile feedback
CN111002295A (en) Teaching glove and teaching system of two-finger grabbing robot
JP2004284001A (en) Robot hand
JP2005335010A (en) Gripping control device
Cannella et al. Design of an industrial robotic gripper for precise twisting and positioning in high-speed assembly