JP2014097572A - Gripping robot and method for gripping - Google Patents

Gripping robot and method for gripping Download PDF

Info

Publication number
JP2014097572A
JP2014097572A JP2014038169A JP2014038169A JP2014097572A JP 2014097572 A JP2014097572 A JP 2014097572A JP 2014038169 A JP2014038169 A JP 2014038169A JP 2014038169 A JP2014038169 A JP 2014038169A JP 2014097572 A JP2014097572 A JP 2014097572A
Authority
JP
Japan
Prior art keywords
gripping
unit
captured image
pair
section
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2014038169A
Other languages
Japanese (ja)
Inventor
Tatsuya Matsudo
達哉 松土
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2014038169A priority Critical patent/JP2014097572A/en
Publication of JP2014097572A publication Critical patent/JP2014097572A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Manipulator (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a technique for gripping an object reliably and completely at a low calculation cost.SOLUTION: A gripping robot comprises: a gripping section comprising an arm section, a pair of hand sections provided in the arm section, and finger sections provided in each of the pair of hand sections, for gripping an object on a workbench; a camera section provided in the gripping section for capturing an image of the object; and a controlling section for controlling the gripping section and the camera section. The controlling section: specifies a direction of gravitational force in a captured image captured by the camera section; detects, on the basis of the direction of gravitational force in the captured image, a boundary section between the object and the workbench in the captured image; and controls the gripping section on the basis of a position of the boundary section so as to insert each finger section of the pair of hand sections into between the workbench and the object.

Description

本発明は、把持ロボットおよび把持方法に関するものである。   The present invention relates to a gripping robot and a gripping method.

従来、ロボットによる対象物(ワーク)の把持方法は、ロボットの指先または手首などに力覚センサ、触覚センサなどのセンサ部を配置し、センサ部からの出力情報に基づいて、対象物を把持するという方法である(例えば、特許文献1参照)。   Conventionally, a method of gripping an object (work) by a robot is to place a sensor unit such as a force sensor or a tactile sensor on the fingertip or wrist of the robot, and grip the object based on output information from the sensor unit. (For example, refer to Patent Document 1).

特開2010−5732号公報JP 2010-5732 A

しかしながら、従来の把持方法は、特許文献1にもあるように、種々のセンサ部からの出力情報に加え、対象物と指先との間の摩擦力、対象物の重量、ハンドの移動速度などを考慮した複雑な運動方程式を解く必要がある。つまり、一般に、従来の把持方法は、例えば、インピーダンス制御、位置制御、力制御などの複雑な制御を必要とするため、計算コスト(計算リソース、計算時間)が膨大であるという問題がある。
また、計算時間が長いために、把持制御に遅れが生じて対象物の把持が不確実になるなどした場合、対象物(特に重たい対象物)が落下してしまうというリスクもある。
However, the conventional gripping method includes, as described in Patent Document 1, the frictional force between the object and the fingertip, the weight of the object, the moving speed of the hand, etc. in addition to the output information from various sensor units. It is necessary to solve complex equations of motion that take into account. That is, in general, the conventional gripping method requires complicated control such as impedance control, position control, and force control, and thus has a problem that calculation cost (calculation resource, calculation time) is enormous.
In addition, since the calculation time is long, there is a risk that the object (particularly a heavy object) may fall if the object is uncertainly grasped due to a delay in grasping control.

また、従来の把持態様は、対象物の側面を把持する方法であるが、対象物が滑り落ちない程度の強い力で側面を把持する必要があるため、安全に対象物を把持できないという心配もある。例えば、アルミニウム製の筒状の対象物などのような滑り易く柔らかい対象物は、側面の把持によって、変形してしまう恐れやキズなどがついてしまう恐れがある。   In addition, the conventional gripping mode is a method of gripping the side surface of the object, but there is a concern that the object cannot be safely gripped because it is necessary to grip the side surface with a strong force that does not cause the object to slide down. is there. For example, a slippery and soft object such as a cylindrical object made of aluminum may be deformed or scratched by gripping the side surface.

本発明はこのような事情に鑑みてなされたものであって、少ない計算コストで、確実かつ完全に、対象物を把持する技術を提供することを目的とする。   The present invention has been made in view of such circumstances, and an object of the present invention is to provide a technique for securely and completely grasping an object with low calculation cost.

上記問題を解決するために、本発明の一態様である把持ロボットは、アーム部と前記アーム部に設けられた1対のハンド部と前記1対のハンド部のそれぞれに設けられた指部とを有し、台上の対象物を把持する把持部と、前記把持部に設けられ、前記対象物を撮像するカメラ部と、前記把持部および前記カメラ部を制御する制御部とを備え、前記制御部は、前記カメラ部によって撮像された撮像画像内における重力方向を特定し、前記撮像画像内における重力方向に基づいて前記撮像画像内において前記対象物と前記台との境界部を検出し、前記境界部の位置に基づいて前記台と前記対象物との間に前記1対のハンド部のそれぞれの指部を挿入するように前記把持部を制御することを特徴とする。
上記構成によれば、複雑な運動方程式(対象物と指部との間の摩擦力、対象物の重量、ハンド部の移動速度などを考慮した運動方程式)を解く必要がないため、計算コストを削減できる。従って、少ない計算コストで対象物を把持することができる。更に、計算コストが少ないため、把持制御に遅れが生じる可能性も低く、対象物を確実に把持することができる。また、台と前記対象物との間に指部を挿入し、対象物を下から支えて把持する把持態様であるため、対象物を確実に把持することができる。従って、例えば、対象物が落下するリスクなどが低減する。更に、対象物を下から支えて把持する把持態様であって、対象物の側面を強い力で把持する把持態様でないため、安全に対象物を把持することができる。
つまり、上記構成によれば、力覚センサからの出力情報などを利用した複雑な計算を極力減らすとともに、対象物を下から支えて把持する把持態様としているため、少ない計算コストで、確実かつ完全に、対象物を把持することができる。
In order to solve the above problem, a gripping robot according to an aspect of the present invention includes an arm unit, a pair of hand units provided on the arm unit, and finger units provided on each of the pair of hand units. A gripping part that grips an object on a table, a camera part that is provided in the gripping part and images the object, and a control part that controls the gripping part and the camera part, The control unit identifies a gravitational direction in the captured image captured by the camera unit, detects a boundary between the object and the platform in the captured image based on the gravitational direction in the captured image, The gripping portion is controlled so that each finger portion of the pair of hand portions is inserted between the table and the object based on the position of the boundary portion.
According to the above configuration, it is not necessary to solve a complicated equation of motion (the equation of motion taking into account the frictional force between the object and the finger, the weight of the object, the moving speed of the hand portion, etc.). Can be reduced. Therefore, the object can be gripped with a low calculation cost. Furthermore, since the calculation cost is low, there is little possibility of delay in gripping control, and the object can be gripped reliably. In addition, since the gripping mode is such that a finger part is inserted between the base and the object and the object is supported and grasped from below, the object can be reliably grasped. Therefore, for example, the risk of the object falling is reduced. Furthermore, since it is not a gripping mode in which the object is supported and gripped from below and the side surface of the object is gripped with a strong force, the object can be safely gripped.
In other words, according to the above configuration, the complicated calculation using the output information from the force sensor is reduced as much as possible, and the gripping mode for supporting and gripping the object from the bottom is ensured. In addition, the object can be gripped.

上記把持ロボットにおいて、前記制御部は、前記撮像画像の撮像時における前記把持部の制御情報に基づいて前記撮像画像内における重力方向を特定するようにしてもよい。
上記構成によれば、元々備える情報に基づいて、簡便に、重力方向を特定することができる。
In the gripping robot, the control unit may specify a direction of gravity in the captured image based on control information of the gripping unit at the time of capturing the captured image.
According to the above configuration, the direction of gravity can be easily specified based on the information originally provided.

上記把持ロボットは、前記把持部または前記カメラ部に重力の方向を測定または算出できるセンサ部を更に備え、前記制御部は、前記撮像画像の撮像時における前記センサ部からの出力情報に基づいて前記撮像画像内における重力方向を特定するようにしてもよい。
上記構成によれば、把持部またはカメラ部に重力の方向を測定または算出できるセンサ部として、例えば、ジャイロセンサ、磁気センサを用いても、重力方向を特定することができる。
The gripping robot further includes a sensor unit capable of measuring or calculating a direction of gravity in the gripping unit or the camera unit, and the control unit is configured to output the captured image based on output information from the sensor unit. The direction of gravity in the captured image may be specified.
According to the above configuration, the direction of gravity can be specified even when, for example, a gyro sensor or a magnetic sensor is used as a sensor unit that can measure or calculate the direction of gravity in the gripping unit or the camera unit.

上記把持ロボットにおいて、前記制御部は、前記境界部の位置に基づいて、前記台と前記対象物との間に前記1対のハンド部のそれぞれの指部を挿入するとともに、前記対象物の側面に前記1対のハンド部のそれぞれを押し当てるように前記把持部を制御するようにしてもよい。
上記構成によれば、より確実かつより完全に対象物を把持することができる。
In the gripping robot, the control unit inserts each finger portion of the pair of hand portions between the table and the target object based on the position of the boundary portion, and the side surface of the target object. The grip portion may be controlled so as to press each of the pair of hand portions.
According to the said structure, a target object can be hold | gripped more reliably and more completely.

上記問題を解決するために、本発明の他の態様である把持方法は、アーム部と前記アーム部に設けられた1対のハンド部と前記1対のハンド部のそれぞれに設けられた指部とを用いて、台上の対象物を把持する把持方法であって、前記対象物を撮像する手段と、前記撮像手段によって撮像された撮像画像内における重力方向を特定する手段と、前記撮像画像内における重力方向に基づいて前記撮像画像内において前記対象物と前記台との境界部を検出する手段と、前記境界部の位置に基づいて前記台と前記対象物との間に前記1対のハンド部のそれぞれの指部を挿入するように前記把持手段を制御する手段とを有することを特徴とする。
上記構成によれば、上記把持ロボットと同様、力覚センサからの出力情報などを利用した複雑な計算を極力減らすとともに、対象物を下から支えて把持する把持態様としているため、少ない計算コストで、確実かつ完全に、対象物を把持することができる。
In order to solve the above problem, a gripping method according to another aspect of the present invention includes an arm part, a pair of hand parts provided on the arm part, and finger parts provided on each of the pair of hand parts. A gripping method for gripping an object on a table, means for capturing the object, means for specifying a gravitational direction in a captured image captured by the imaging means, and the captured image Means for detecting a boundary portion between the object and the platform in the captured image based on a gravitational direction in the image, and the pair of the space between the table and the object based on a position of the boundary portion. And means for controlling the gripping means so as to insert each finger part of the hand part.
According to the above configuration, as with the above-described gripping robot, complicated calculation using output information from the force sensor is reduced as much as possible, and the gripping mode in which the object is supported and gripped from below is reduced, so the calculation cost is low The object can be gripped reliably and completely.

本発明の実施形態に係る把持ロボットの概略斜視図である。1 is a schematic perspective view of a gripping robot according to an embodiment of the present invention. 制御部の機能を示す機能ブロック図の一例である。It is an example of the functional block diagram which shows the function of a control part. 把持ロボットの把持動作を説明するための説明図である。It is explanatory drawing for demonstrating the holding | grip operation | movement of a holding robot. 把持ロボットの把持動作を説明するための説明図である。It is explanatory drawing for demonstrating the holding | grip operation | movement of a holding robot. 把持ロボットの動作の一例を示すフローチャートである。It is a flowchart which shows an example of operation | movement of a holding robot.

以下、本発明の実施形態について図面を参照して詳細に説明する。図1は、本発明の実施形態に係る把持ロボット1の概略斜視図である。把持ロボット1は、図1に示すように、固定部10、アーム部20、ハンド部30、指部40およびカメラ部50を備える。アーム部20、ハンド部30および指部40は把持部を構成する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. FIG. 1 is a schematic perspective view of a gripping robot 1 according to an embodiment of the present invention. As shown in FIG. 1, the gripping robot 1 includes a fixing unit 10, an arm unit 20, a hand unit 30, a finger unit 40, and a camera unit 50. The arm part 20, the hand part 30, and the finger part 40 constitute a grip part.

固定部10は、例えば床、壁、天井、移動可能な台車の上などに固定される。固定部10は、内部に、制御部11(破線にて図示)を備える。制御部11は、把持部(アーム部20、ハンド部30、指部40)およびカメラ部50を制御する。制御部11の詳細は後述する。   The fixing unit 10 is fixed on, for example, a floor, a wall, a ceiling, or a movable carriage. The fixing unit 10 includes a control unit 11 (illustrated by a broken line) inside. The control unit 11 controls the grip unit (arm unit 20, hand unit 30, finger unit 40) and camera unit 50. Details of the control unit 11 will be described later.

アーム部20は、第1フレーム21、第2フレーム22、第3フレーム23、第4フレーム24および第5フレーム25から構成される。
第1フレーム21は、回転軸を介して、固定部10に接続する。第2フレーム22は、回転軸を介して、第1フレーム21および第3フレーム23に接続する。第3フレーム23は、回転軸を介して、第2フレーム22および第4フレーム24に接続する。第4フレーム24は、回転軸を介して、第3フレーム23および第5フレーム25に接続する。第5フレーム25は、回転軸を介して、第4フレーム24に接続する。アーム部20は、制御部11の制御によって、各フレーム21〜25が各回転軸を中心に複合的に回転し、動く。
The arm unit 20 includes a first frame 21, a second frame 22, a third frame 23, a fourth frame 24, and a fifth frame 25.
The first frame 21 is connected to the fixed part 10 via a rotating shaft. The second frame 22 is connected to the first frame 21 and the third frame 23 via a rotation shaft. The third frame 23 is connected to the second frame 22 and the fourth frame 24 via a rotation shaft. The fourth frame 24 is connected to the third frame 23 and the fifth frame 25 via a rotation shaft. The fifth frame 25 is connected to the fourth frame 24 via a rotation shaft. Under the control of the control unit 11, the arm unit 20 moves while the frames 21 to 25 rotate in a complex manner around the rotation axes.

アーム部20の第5フレーム25には、1対のハンド部30が設けられている。ハンド部30は、第1フレーム31、第2フレーム32、第3フレーム33および押し当て部34から構成される。第1フレーム31は、回転軸を介して、アーム部20の第5フレーム25に接続する。第2フレーム32は、回転軸を介して、第1フレーム31および第3フレーム33に接続する。第3フレーム33は、回転軸を介して、第2フレーム32に接続する。押し当て部34は、第3フレーム33の先端に接続する。ハンド部30は、制御部11の制御によって、各フレーム31〜33が各回転軸を中心に複合的に回転し、動く。   A pair of hand portions 30 is provided on the fifth frame 25 of the arm portion 20. The hand unit 30 includes a first frame 31, a second frame 32, a third frame 33, and a pressing unit 34. The first frame 31 is connected to the fifth frame 25 of the arm unit 20 via a rotation shaft. The second frame 32 is connected to the first frame 31 and the third frame 33 via a rotation shaft. The third frame 33 is connected to the second frame 32 via a rotating shaft. The pressing part 34 is connected to the tip of the third frame 33. In the hand unit 30, the frames 31 to 33 are complexly rotated around the rotation axes and moved under the control of the control unit 11.

それぞれのハンド部30の押し当て部34には、指部40が設けられている。指部40は、第1フレーム41、第2フレーム42および第3フレーム43から構成される。第1フレーム41は、回転軸を介して、ハンド部30の押し当て部34に接続する。第2フレーム42は、回転軸を介して、第1フレーム41および第3フレーム43に接続する。第3フレーム43は、回転軸を介して、第2フレーム42に接続する。指部40は、制御部11の制御によって、各フレーム41〜43が各回転軸を中心に複合的に回転し、動く。なお、指部40は、直接的に、対象物を把持する部材である。   A finger part 40 is provided on the pressing part 34 of each hand part 30. The finger unit 40 includes a first frame 41, a second frame 42, and a third frame 43. The first frame 41 is connected to the pressing unit 34 of the hand unit 30 via a rotation shaft. The second frame 42 is connected to the first frame 41 and the third frame 43 via a rotation shaft. The third frame 43 is connected to the second frame 42 via a rotation shaft. Under the control of the control unit 11, the fingers 40 move by moving the frames 41 to 43 around the rotation axes in a complex manner. The finger part 40 is a member that directly grips the object.

また、アーム部20の第5フレーム25には、カメラ部50が設けられている。カメラ部50は、制御部11の制御によって、対象物を撮像する。   A camera unit 50 is provided on the fifth frame 25 of the arm unit 20. The camera unit 50 images the object under the control of the control unit 11.

続いて、制御部11について説明する。図2(a)は、制御部11の機能を示す機能ブロック図の一例である。図3および図4は、把持ロボット1の把持動作を説明するための説明図である。なお、図2(b)については後述する。   Next, the control unit 11 will be described. FIG. 2A is an example of a functional block diagram illustrating functions of the control unit 11. 3 and 4 are explanatory diagrams for explaining the gripping operation of the gripping robot 1. Note that FIG. 2B will be described later.

制御部11は、図2(a)に示すように、カメラ部制御部100、撮像画像取得部110、重力方向特定部120、境界部検出部130および把持部制御部140を有する。   As illustrated in FIG. 2A, the control unit 11 includes a camera unit control unit 100, a captured image acquisition unit 110, a gravity direction identification unit 120, a boundary detection unit 130, and a gripping unit control unit 140.

カメラ部制御部100は、カメラ部50による撮像を制御する。撮像画像取得部110は、カメラ部50によって撮像された撮像画像を取得する。例えば、撮像画像取得部110は、図3(a)に示すように、台D上の対象物Wが撮像された撮像画像Pを取得する。   The camera unit control unit 100 controls imaging by the camera unit 50. The captured image acquisition unit 110 acquires a captured image captured by the camera unit 50. For example, the captured image acquisition unit 110 acquires a captured image P obtained by capturing an object W on the table D as illustrated in FIG.

重力方向特定部120は、撮像画像取得部110によって取得された撮像画像内における重力方向を特定する。具体的には、重力方向特定部120は、撮像画像の撮像時における把持部制御部140の制御情報(把持部の位置および姿勢を規定している情報)に基づいて、撮像画像内における重力方向を特定する。より詳細には、重力方向特定部120は、第1フレーム21、第2フレーム22、第3フレーム23、第4フレーム24および第5フレーム25の制御情報を元に、同次変換行列を用いて、カメラ部50を設けている第5フレーム25の位置および姿勢、即ち、カメラ部50自身の位置および姿勢を求め、カメラ部50の位置および姿勢から、撮像画像内における重力方向を特定する。例えば、撮像画像取得部110は、図3(b)に示すように、撮像画像P内における重力方向Gを特定する。なお、説明の便宜上、図3(b)および図3(c)では、重力方向Pが真下になるように、撮像画像Pを回転させている。   The gravity direction identification unit 120 identifies the gravity direction in the captured image acquired by the captured image acquisition unit 110. Specifically, the gravitational direction specifying unit 120 is based on the control information of the gripping unit control unit 140 (information defining the position and orientation of the gripping unit) at the time of capturing the captured image. Is identified. More specifically, the gravity direction specifying unit 120 uses a homogeneous transformation matrix based on the control information of the first frame 21, the second frame 22, the third frame 23, the fourth frame 24, and the fifth frame 25. The position and orientation of the fifth frame 25 provided with the camera unit 50, that is, the position and orientation of the camera unit 50 itself are obtained, and the direction of gravity in the captured image is specified from the position and orientation of the camera unit 50. For example, the captured image acquisition unit 110 specifies the gravity direction G in the captured image P as illustrated in FIG. For convenience of explanation, in FIGS. 3B and 3C, the captured image P is rotated so that the gravity direction P is directly below.

境界部検出部130は、撮像画像取得部110によって特定された撮像画像内における重力方向に基づいて当該撮像画像内において対象物と台との境界部を検出する。例えば、境界部検出部130は、重力方向Gに基づいて、図3(c)に示すように、対象物Wと台Dとの境界部である破線部分Cを検出する。なお、図3(c)に示す各点線部分は、対象物Wと背景との境界部であるが、境界部検出部130は、重力方向Gから、対象物Wと台Dとの境界部としては検出しない。   The boundary detection unit 130 detects the boundary between the object and the base in the captured image based on the direction of gravity in the captured image specified by the captured image acquisition unit 110. For example, the boundary detection unit 130 detects a broken line portion C, which is a boundary between the object W and the table D, as shown in FIG. In addition, although each dotted line part shown in FIG.3 (c) is a boundary part of the target object W and a background, the boundary part detection part 130 is the boundary part of the target object W and the stand D from the gravity direction G. Is not detected.

把持部制御部140は、把持部(アーム部20、ハンド部30、指部40)を制御する。例えば、把持部制御部140は、対象物の撮像位置にカメラ部50を移動させるべく、把持部を移動させる。   The gripping unit control unit 140 controls the gripping units (arm unit 20, hand unit 30, finger unit 40). For example, the gripping unit control unit 140 moves the gripping unit to move the camera unit 50 to the imaging position of the object.

また、把持部制御部140は、対象物を把持すべく、把持部を移動させる。具体的には、把持部制御部140は、境界部検出部130によって検出された境界部の位置に基づいて、台と対象物との間に1対のハンド部30のそれぞれの指部40を挿入するように把持部を制御する。より詳細には、把持部制御部140は、まず、図3(c)に示すように、対象物Wと台Dとの境界部である破線C上の点であって点A(図中で4角形にて示す点)の真下にある点B(図中で三角形にて示す点)を把持点として抽出する。点Aは、把持点Bを抽出するための基準点であって、予め登録したマークまたはパターン、または、画像処理により得られる特徴量から求められる点である。把持点Bを抽出した把持部制御部140は、把持点Bに指部40を挿入するように把持部を制御する。   In addition, the gripping unit control unit 140 moves the gripping unit to grip the object. Specifically, the gripping unit control unit 140 moves each finger unit 40 of the pair of hand units 30 between the platform and the object based on the position of the boundary unit detected by the boundary unit detection unit 130. Control the gripping part to insert. More specifically, as shown in FIG. 3 (c), the gripper control unit 140 is a point on a broken line C that is a boundary between the object W and the table D, and a point A (in the drawing). A point B (point indicated by a triangle in the figure) immediately below a point indicated by a quadrangle is extracted as a gripping point. The point A is a reference point for extracting the gripping point B, and is a point obtained from a mark or pattern registered in advance or a feature amount obtained by image processing. The gripping unit control unit 140 that has extracted the gripping point B controls the gripping unit so that the finger unit 40 is inserted into the gripping point B.

これにより、把持ロボット1は、例えば、図4(a)に示すように、対象物Wを下から支える。図4(a)に示す例では、把持ロボット1は、対象物Wの底面を指部40の第2フレーム42および第3フレーム43で支える。なお、図4では、説明の便宜上、対象物の断面図を用いている。例えば、図4(a)(b)における面Sは、図3(c)の基準点Aおよび把持点Bを通る切断面(一点鎖線にて示す面)にて対象物Wを切断した断面である。また、図4(c)は、比較の為に図示した従来の把持態様である。従来の把持態様では、図4(c)に示すように、対象物Wが滑り落ちない程度の強い力で対象物Wの側面を把持する方法であるため、対象物Wが変形などする恐れがあったが、図4(a)に示す把持態様では、重量の負荷のほとんどが、底面を支える第2フレーム42および第3フレーム43にかかるため、側面からの力は対象物Wに接触する程度でよく、対象物Wが変形などする恐れがない。   Thereby, the grasping robot 1 supports the object W from below, for example, as shown in FIG. In the example shown in FIG. 4A, the gripping robot 1 supports the bottom surface of the object W with the second frame 42 and the third frame 43 of the finger unit 40. In FIG. 4, a cross-sectional view of the object is used for convenience of explanation. For example, the surface S in FIGS. 4A and 4B is a cross section obtained by cutting the object W along a cut surface (a surface indicated by a one-dot chain line) passing through the reference point A and the gripping point B in FIG. is there. FIG. 4C shows a conventional gripping mode shown for comparison. In the conventional gripping mode, as shown in FIG. 4 (c), the side of the object W is gripped with a strong force that does not cause the object W to slide down, and therefore the object W may be deformed. However, in the gripping mode shown in FIG. 4A, most of the load on the weight is applied to the second frame 42 and the third frame 43 that support the bottom surface, so that the force from the side is in contact with the object W. There is no fear that the object W is deformed.

また、把持部制御部140は、境界部検出部130によって検出された境界部の位置に基づいて、台と対象物との間に1対のハンド部30のそれぞれの指部40を挿入するとともに、対象物の側面に1対のハンド部30のそれぞれを押し当てるように把持部を制御してもよい。   In addition, the gripping unit control unit 140 inserts each finger unit 40 of the pair of hand units 30 between the base and the object based on the position of the boundary detected by the boundary detection unit 130. The grip portion may be controlled so as to press each of the pair of hand portions 30 against the side surface of the object.

これにより、把持ロボット1は、例えば、図4(b)に示すように、対象物Wを下から支えつつ、側面を軽く押さえつけて把持する。図4(b)に示す例では、把持ロボット1は、対象物Wの底面を指部40の第2フレーム42および第3フレーム43で支えつつ、対象物Wの側面をハンド部30の押し当て部34で支持している。なお、押し当て部34が支持する点は、例えば、図4(b)に示すように、側面上の基準点Aであってもよい。   Thereby, for example, as shown in FIG. 4 (b), the gripping robot 1 grips the object W while gently pressing the side surface while supporting the object W from below. In the example shown in FIG. 4B, the gripping robot 1 presses the side surface of the object W against the hand unit 30 while supporting the bottom surface of the object W with the second frame 42 and the third frame 43 of the finger unit 40. It is supported by the part 34. Note that the point supported by the pressing unit 34 may be a reference point A on the side surface as shown in FIG. 4B, for example.

続いて、フローチャートを用いて把持ロボット1の動作を説明する。図5は、把持ロボット1の動作の一例を示すフローチャートである。なお、把持ロボット1は、対象物の把持点を抽出するための、当該対象物の基準点に係る情報(例えば、登録マーク、テンプレート画像など)を保持しているものとする。   Next, the operation of the gripping robot 1 will be described using a flowchart. FIG. 5 is a flowchart showing an example of the operation of the gripping robot 1. Note that it is assumed that the gripping robot 1 holds information (for example, a registration mark, a template image, and the like) related to a reference point of the target object for extracting a gripping point of the target object.

把持部制御部140は、対象物を撮像する撮像位置にカメラ部50を移動させる(ステップS10)。カメラ部制御部100は、カメラ部50に対象物を撮像させる。撮像画像取得部110は、カメラ部50によって撮像された撮像画像を取得する(ステップS12)。   The gripping unit control unit 140 moves the camera unit 50 to the imaging position where the object is imaged (step S10). The camera part control part 100 makes the camera part 50 image an object. The captured image acquisition unit 110 acquires a captured image captured by the camera unit 50 (step S12).

把持部制御部140は、当該対象物の基準点に係る情報(例えば、登録マーク、テンプレート画像など)を読み出して、画像処理(例えば、パターンマッチング)によって、対象物の基準点の検出を試みる、即ち、基準点をサーチする(ステップS14)。   The gripping unit control unit 140 reads information (for example, a registration mark, a template image, etc.) related to the reference point of the target object, and tries to detect the reference point of the target object by image processing (for example, pattern matching). That is, the reference point is searched (step S14).

把持部制御部140によって基準点が検出されなかった場合(ステップS16:No)、対象物を他の撮像位置から撮像し、再度、基準点を検出する(ステップS10〜ステップS16)。   When the reference point is not detected by the grip control unit 140 (step S16: No), the object is imaged from another imaging position, and the reference point is detected again (step S10 to step S16).

把持部制御部140によって基準点が検出された場合(ステップS16:Yes)、重力方向特定部120は、同次変換行列を用いて、カメラ部50の位置および姿勢を算出する(ステップS18)。カメラ部50の位置および姿勢を算出した重力方向特定部120は、撮像画像内における重力方向を特定する(ステップS20)。   When the reference point is detected by the grip control unit 140 (step S16: Yes), the gravity direction specifying unit 120 calculates the position and orientation of the camera unit 50 using the homogeneous transformation matrix (step S18). The gravity direction specifying unit 120 that has calculated the position and orientation of the camera unit 50 specifies the gravity direction in the captured image (step S20).

境界部検出部130は、特定された撮像画像内における重力方向に基づいて当該撮像画像内において対象物と台との境界部を検出する(ステップS22)。把持部制御部140は、境界部上の点であって基準点の真下の点である把持点の抽出を試みる、即ち、把持点をサーチする(ステップS24)。   The boundary detection unit 130 detects the boundary between the object and the base in the captured image based on the gravity direction in the specified captured image (step S22). The gripping unit control unit 140 attempts to extract a gripping point that is a point on the boundary and immediately below the reference point, that is, searches for the gripping point (step S24).

把持部制御部140によって把持点が抽出されなかった場合(ステップS26:No)、対象物を他の撮像位置から撮像し、再度、把持点を抽出する(ステップS10〜ステップS26)。   When a gripping point is not extracted by the gripping part control unit 140 (step S26: No), the object is imaged from another imaging position, and the gripping point is extracted again (steps S10 to S26).

把持部制御部140によって把持点が抽出された場合(ステップS16:Yes)、把持部制御部140は、対象物の底面に指部を挿入し、側面にアーム部を添えるように把持部を移動し(ステップS28)、対象物を持ち上げるように把持部を制御する(ステップS30)。そして、本フローチャートは終了する。   When the gripping point is extracted by the gripping unit control unit 140 (step S16: Yes), the gripping unit control unit 140 moves the gripping unit so that the finger unit is inserted into the bottom surface of the object and the arm unit is attached to the side surface. (Step S28), and the gripping unit is controlled to lift the object (Step S30). Then, this flowchart ends.

以上、本発明の実施形態に係る把持ロボットによれば、複雑な運動方程式(対象物と指部との間の摩擦力、対象物の重量、ハンド部の移動速度などを考慮した運動方程式)を解く必要がないため、計算コストを削減できる。従って、少ない計算コストで対象物を把持することができる。更に、計算コストが少ないため、把持制御に遅れが生じる可能性も低く、対象物を確実に把持することができる。また、台と前記対象物との間に指部を挿入し、対象物を下から支えて把持する把持態様であるため、対象物を確実に把持することができる。従って、例えば、対象物が落下するリスクなどが低減する。更に、対象物を下から支えて把持する把持態様であって、対象物の側面を強い力で把持する把持態様でないため、安全に対象物を把持することができる。つまり、上記構成によれば、力覚センサからの出力情報などを利用した複雑な計算を極力減らすとともに、対象物を下から支えて把持する把持態様としているため、少ない計算コストで、確実かつ完全に、対象物を把持することができる。   As described above, according to the gripping robot according to the embodiment of the present invention, the complicated motion equation (the motion equation considering the frictional force between the object and the finger part, the weight of the object, the moving speed of the hand part, etc.) Since there is no need to solve, calculation cost can be reduced. Therefore, the object can be gripped with a low calculation cost. Furthermore, since the calculation cost is low, there is little possibility of delay in gripping control, and the object can be gripped reliably. In addition, since the gripping mode is such that a finger part is inserted between the base and the object and the object is supported and grasped from below, the object can be reliably grasped. Therefore, for example, the risk of the object falling is reduced. Furthermore, since it is not a gripping mode in which the object is supported and gripped from below and the side surface of the object is gripped with a strong force, the object can be safely gripped. In other words, according to the above configuration, the complicated calculation using the output information from the force sensor is reduced as much as possible, and the gripping mode in which the object is supported and gripped from the bottom is ensured. In addition, the object can be gripped.

上記実施形態においては、図4(a)に示すように対象物の底面を指部40で支える把持態様と、図4(b)に示すように対象物の底面を指部40で支えつつ、対象物の側面をハンド部30で押さえる把持態様について説明したが、把持態様はこれに限定されず他の把持態様であってもよい。例えば、対象物の底面をある指部で支えつつ、対象物の側面を他の指部で押さえる把持態様としてもよい。   In the above-described embodiment, as shown in FIG. 4 (a), the gripping mode in which the bottom surface of the object is supported by the finger part 40, and the bottom surface of the object is supported by the finger part 40 as shown in FIG. 4 (b). Although the grip mode in which the side surface of the object is pressed by the hand unit 30 has been described, the grip mode is not limited to this and may be other grip modes. For example, it is good also as a holding | grip aspect which hold | suppresses the side surface of a target object with another finger part, supporting the bottom face of a target object with a certain finger part.

また、上記実施形態においては、撮像画像内における重力方向を特定する手法として、撮像画像の撮像時における把持部の制御情報に基づいて重力方向を特定する手法を説明したが、重力方向を特定する手法はこれに限定されず他の手法であってもよい。例えば、重力の方向を測定または算出できるセンサ部からの出力情報に基づいて撮像画像内における重力方向を特定してもよい。   In the above-described embodiment, the method of specifying the gravitational direction based on the control information of the gripping unit at the time of capturing the captured image has been described as the method of identifying the gravitational direction in the captured image. The method is not limited to this and may be another method. For example, the gravity direction in the captured image may be specified based on output information from a sensor unit that can measure or calculate the direction of gravity.

センサ部からの出力情報に基づいて撮像画像内における重力方向を特定する場合、把持ロボット1は、把持部またはカメラ部50に重力の方向を測定または算出できるセンサ部(例えば、ジャイロセンサ、磁気センサ)を更に備える。また、把持ロボット1の固定部10は、内部に、制御部11と異なる制御部12を備える。図2(b)は、制御部12の機能を示す機能ブロック図の一例である。   When the gravitational direction in the captured image is specified based on the output information from the sensor unit, the gripping robot 1 can measure or calculate the direction of gravity in the gripping unit or the camera unit 50 (for example, a gyro sensor or a magnetic sensor). ). The fixing unit 10 of the gripping robot 1 includes a control unit 12 that is different from the control unit 11 inside. FIG. 2B is an example of a functional block diagram illustrating functions of the control unit 12.

図2(b)において、重力方法特定部122は、撮像画像の撮像時におけるセンサ部(例えば、ジャイロセンサ、磁気センサ)からの出力情報に基づいて撮像画像内における重力方向を特定する。つまり、図5に示すフローチャートのステップS18およびステップS20に代えて、重力方向特定部122は、センサ部(例えば、ジャイロセンサ、磁気センサ)からの出力情報に基づいて撮像画像内における重力方向を特定する。なお、図2(b)において、図2(a)内の部材と同一符号を付した部材は、図2(a)内の各同一符号の部材と同一であるため、説明を省略する。   2B, the gravity method specifying unit 122 specifies the direction of gravity in the captured image based on output information from a sensor unit (for example, a gyro sensor or a magnetic sensor) at the time of capturing the captured image. That is, instead of step S18 and step S20 in the flowchart shown in FIG. 5, the gravity direction specifying unit 122 specifies the gravity direction in the captured image based on the output information from the sensor unit (eg, gyro sensor, magnetic sensor). To do. In FIG. 2B, members denoted by the same reference numerals as the members in FIG. 2A are the same as the members having the same reference numerals in FIG.

以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。   The embodiment of the present invention has been described in detail with reference to the drawings. However, the specific configuration is not limited to this embodiment, and includes designs and the like that do not depart from the gist of the present invention.

例えば、アーム部20、ハンド部30、指部40のフレームの数は、図1に示す数に限られるものではない。また、カメラ部50は、アーム部20ではなく、ハンド部30、指部40に設けてもよい。   For example, the number of frames of the arm unit 20, the hand unit 30, and the finger unit 40 is not limited to the number shown in FIG. The camera unit 50 may be provided not on the arm unit 20 but on the hand unit 30 and the finger unit 40.

1…把持ロボット 10…固定部 11、12…制御部 20…アーム部 30…ハンド部 40…指部 50…カメラ部 100…カメラ部制御部 110…撮像画像取得部 120、122…重力方向特定部 130…境界部検出部 140…把持部制御部。   DESCRIPTION OF SYMBOLS 1 ... Gripping robot 10 ... Fixed part 11, 12 ... Control part 20 ... Arm part 30 ... Hand part 40 ... Finger part 50 ... Camera part 100 ... Camera part control part 110 ... Captured image acquisition part 120, 122 ... Gravity direction specific | specification part 130: boundary detection unit 140: gripping unit control unit

Claims (5)

アーム部と前記アーム部に設けられた1対のハンド部と前記1対のハンド部のそれぞれに設けられた指部とを有し、台上の対象物を把持する把持部と、
前記把持部に設けられ、前記対象物を撮像するカメラ部と、
前記把持部および前記カメラ部を制御する制御部とを備え、
前記制御部は、
前記カメラ部によって撮像された撮像画像内における重力方向を特定し、
前記撮像画像内における重力方向に基づいて前記撮像画像内において前記対象物と前記台との境界部を検出し、 前記境界部の位置に基づいて前記台と前記対象物との間に前記1対のハンド部のそれぞれの指部を挿入するように前記把持部を制御することを特徴とする把持ロボット。
A gripping part that has an arm part, a pair of hand parts provided on the arm part, and a finger part provided on each of the pair of hand parts;
A camera unit that is provided in the gripping unit and images the object;
A control unit for controlling the gripping unit and the camera unit,
The controller is
Identify the direction of gravity in the captured image captured by the camera unit,
A boundary portion between the object and the platform is detected in the captured image based on a gravitational direction in the captured image, and the pair between the platform and the object is detected based on a position of the boundary portion. A gripping robot that controls the gripping part to insert each finger part of the hand part.
前記制御部は、
前記撮像画像の撮像時における前記把持部の制御情報に基づいて前記撮像画像内における重力方向を特定することを特徴とする請求項1に記載の把持ロボット。
The controller is
The gripping robot according to claim 1, wherein a gravitational direction in the captured image is specified based on control information of the gripping unit at the time of capturing the captured image.
前記把持ロボットは、
前記把持部または前記カメラ部に重力の方向を測定または算出できるセンサ部を更に備え、
前記制御部は、
前記撮像画像の撮像時における前記センサ部からの出力情報に基づいて前記撮像画像内における重力方向を特定することを特徴とする請求項1に記載の把持ロボット。
The gripping robot is
A sensor unit capable of measuring or calculating the direction of gravity in the gripping unit or the camera unit;
The controller is
The gripping robot according to claim 1, wherein a gravitational direction in the captured image is specified based on output information from the sensor unit at the time of capturing the captured image.
前記制御部は、 前記境界部の位置に基づいて、前記台と前記対象物との間に前記1対のハンド部のそれぞれの指部を挿入するとともに、前記対象物の側面に前記1対のハンド部のそれぞれを押し当てるように前記把持部を制御することを特徴とする請求項1から請求項3の何れかに記載の把持ロボット。   The control unit inserts each finger part of the pair of hand parts between the table and the object based on the position of the boundary part, and the pair of hand parts on a side surface of the object. The gripping robot according to any one of claims 1 to 3, wherein the gripping unit is controlled to press each of the hand units. アーム部と前記アーム部に設けられた1対のハンド部と前記1対のハンド部のそれぞれに設けられた指部とを用いて、台上の対象物を把持する把持方法であって、
前記対象物を撮像する手段と、
前記撮像手段によって撮像された撮像画像内における重力方向を特定する手段と、
前記撮像画像内における重力方向に基づいて前記撮像画像内において前記対象物と前記台との境界部を検出する手段と、 前記境界部の位置に基づいて前記台と前記対象物との間に前記1対のハンド部のそれぞれの指部を挿入するように前記把持手段を制御する手段とを有することを特徴とする把持方法。
A gripping method for gripping an object on a table using an arm part, a pair of hand parts provided on the arm part, and a finger part provided on each of the pair of hand parts,
Means for imaging the object;
Means for specifying the direction of gravity in the captured image captured by the imaging means;
Means for detecting a boundary portion between the object and the base in the captured image based on a direction of gravity in the captured image; and between the base and the object based on a position of the boundary portion. And a means for controlling the gripping means so as to insert each finger part of the pair of hand parts.
JP2014038169A 2014-02-28 2014-02-28 Gripping robot and method for gripping Withdrawn JP2014097572A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014038169A JP2014097572A (en) 2014-02-28 2014-02-28 Gripping robot and method for gripping

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014038169A JP2014097572A (en) 2014-02-28 2014-02-28 Gripping robot and method for gripping

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2010104911A Division JP5494193B2 (en) 2010-04-30 2010-04-30 Gripping robot and gripping method

Publications (1)

Publication Number Publication Date
JP2014097572A true JP2014097572A (en) 2014-05-29

Family

ID=50940028

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014038169A Withdrawn JP2014097572A (en) 2014-02-28 2014-02-28 Gripping robot and method for gripping

Country Status (1)

Country Link
JP (1) JP2014097572A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3476552A4 (en) * 2016-06-27 2020-03-04 Kawasaki Jukogyo Kabushiki Kaisha Workpiece retaining mechanism
WO2020153299A1 (en) * 2019-01-25 2020-07-30 株式会社ソニー・インタラクティブエンタテインメント Robot control system
WO2022249410A1 (en) * 2021-05-27 2022-12-01 ファナック株式会社 Imaging device for calculating three-dimensional position on the basis of image captured by visual sensor

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0930649A (en) * 1995-07-13 1997-02-04 Mitsubishi Electric Corp Pickup device
JP2001225952A (en) * 2000-02-10 2001-08-21 Murata Mach Ltd Picking device
JP2009241247A (en) * 2008-03-10 2009-10-22 Kyokko Denki Kk Stereo-image type detection movement device
JP2010036328A (en) * 2008-08-07 2010-02-18 Toyota Motor Corp Robot hand
JP2010071743A (en) * 2008-09-17 2010-04-02 Yaskawa Electric Corp Method of detecting object, object detection device and robot system

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0930649A (en) * 1995-07-13 1997-02-04 Mitsubishi Electric Corp Pickup device
JP2001225952A (en) * 2000-02-10 2001-08-21 Murata Mach Ltd Picking device
JP2009241247A (en) * 2008-03-10 2009-10-22 Kyokko Denki Kk Stereo-image type detection movement device
JP2010036328A (en) * 2008-08-07 2010-02-18 Toyota Motor Corp Robot hand
JP2010071743A (en) * 2008-09-17 2010-04-02 Yaskawa Electric Corp Method of detecting object, object detection device and robot system

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3476552A4 (en) * 2016-06-27 2020-03-04 Kawasaki Jukogyo Kabushiki Kaisha Workpiece retaining mechanism
WO2020153299A1 (en) * 2019-01-25 2020-07-30 株式会社ソニー・インタラクティブエンタテインメント Robot control system
JP2020116711A (en) * 2019-01-25 2020-08-06 株式会社ソニー・インタラクティブエンタテインメント Robot control system
JP7309371B2 (en) 2019-01-25 2023-07-18 株式会社ソニー・インタラクティブエンタテインメント robot control system
WO2022249410A1 (en) * 2021-05-27 2022-12-01 ファナック株式会社 Imaging device for calculating three-dimensional position on the basis of image captured by visual sensor

Similar Documents

Publication Publication Date Title
JP6632106B1 (en) Control device, transfer device, program, and control method
JP2019063984A5 (en) Information processing device and information processing method
US10350768B2 (en) Control device, robot, and robot system
JP2018161692A (en) Information processing system, information processing method and program
WO2012147595A1 (en) Manipulator device
JP6357785B2 (en) Robot, robot system, control apparatus and control method
JP2019181622A (en) Hand control device and hand control system
JP2017177294A (en) Robot control device, robot control method, robot system and computer program
JP2012206206A (en) Method for controlling robot, and robot
JP2013184279A5 (en)
JP2007098501A (en) Robot system
JP6662836B2 (en) Work placement system for placing work in the accommodation area or jig
CN111721391B (en) Apparatus, method and computer readable recording medium for estimating weight and center of gravity position of load by robot
JP2013146813A (en) Robot apparatus, and position and orientation detecting method
JP2014097572A (en) Gripping robot and method for gripping
JP2013132726A (en) Method for controlling robot, and robot
US20160306340A1 (en) Robot and control device
JP2022066611A (en) Information processing device, information processing method, program, and unloading system
JP2015160257A (en) Robot, robot system, control device and control method
JP6387599B2 (en) Robot, robot system, control apparatus and control method
US11141866B2 (en) Grasping apparatus, grasping determination method and grasping determination program
JP2010058243A (en) Picking device
JP5494193B2 (en) Gripping robot and gripping method
JP2017047479A5 (en)
CN111037553B (en) Control device

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140325

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140325

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20150108

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150127

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150129

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150327

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150818

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20151008