JP6632224B2 - Holding control device, holding control method and program - Google Patents

Holding control device, holding control method and program Download PDF

Info

Publication number
JP6632224B2
JP6632224B2 JP2015112033A JP2015112033A JP6632224B2 JP 6632224 B2 JP6632224 B2 JP 6632224B2 JP 2015112033 A JP2015112033 A JP 2015112033A JP 2015112033 A JP2015112033 A JP 2015112033A JP 6632224 B2 JP6632224 B2 JP 6632224B2
Authority
JP
Japan
Prior art keywords
information
gripping
work
workpiece
gripped
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015112033A
Other languages
Japanese (ja)
Other versions
JP2016221647A (en
Inventor
伸明 ▲桑▼原
伸明 ▲桑▼原
小林 一彦
一彦 小林
片山 昭宏
昭宏 片山
鈴木 雅博
雅博 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2015112033A priority Critical patent/JP6632224B2/en
Publication of JP2016221647A publication Critical patent/JP2016221647A/en
Application granted granted Critical
Publication of JP6632224B2 publication Critical patent/JP6632224B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は、複数のワークの中からロボットのハンドで把持対象のワークを把持して取り出す際に、ロボットのハンドによる把持の制御を行う把持制御装置及び把持制御方法、並びに、当該把持制御方法をコンピュータに実行させるためのプログラムに関する。   The present invention provides a gripping control device and a gripping control method for controlling gripping by a robotic hand when gripping and removing a workpiece to be gripped from a plurality of workpieces with a robotic hand, and the gripping control method. It relates to a program to be executed by a computer.

従来から、ロボットに取り付けられたハンドでワークを把持する場合に、安定した状態で把持を行えるようにロボットを制御する技術が提案されている(例えば、下記の特許文献1参照)。具体的に、下記の特許文献1には、ワークとロボットのハンドとの接触点がより多くなるように、ロボットのハンドを制御する技術が記載されている。   2. Description of the Related Art Conventionally, when a workpiece attached to a robot is gripped by a hand, a technique for controlling the robot so that the workpiece can be held in a stable state has been proposed (for example, see Patent Document 1 below). Specifically, Patent Literature 1 below describes a technique for controlling a robot hand so that the number of contact points between the workpiece and the robot hand increases.

特開2007−125653号公報JP 2007-125653 A 特開2011−22991号公報JP 2011-22991 A

しかしながら、特許文献1に記載の技術では、例えば、バラ積み状態で供給されるワークにおいて把持対象のワークが他のワークと干渉した状況になっている場合でも、ロボットのハンドとの接触点がより多くなるように把持対象のワークを把持することになる。そのため、把持したワークを箱等から取り出す動作をした場合、その取り出し動作に基づく力が他のワークに作用して干渉してしまい、当該把持したワーク及び他のワークの脱落や破損といった不具合が生じる可能性がある。   However, in the technique described in Patent Document 1, for example, even when a workpiece to be gripped interferes with another workpiece in a workpiece supplied in a bulk state, the point of contact with the robot hand is increased. The workpiece to be gripped is gripped so as to increase the number. Therefore, when an operation of removing the gripped work from the box or the like is performed, a force based on the removal operation acts on another work and interferes with the work, causing a problem such as dropping or breakage of the gripped work and the other work. there is a possibility.

本発明は、このような問題点に鑑みてなされたものであり、把持したワークを箱等から取り出す際に、当該把持したワーク及び他のワークの脱落や破損といった不具合が生じる可能性を低減させる仕組みを提供することを目的とする。   The present invention has been made in view of such a problem, and when taking out a gripped work from a box or the like, it is possible to reduce a possibility that a problem such as dropping or breakage of the gripped work and another work occurs. The purpose is to provide a mechanism.

本発明の把持制御装置は、複数のワークの中からロボットのハンドで把持対象のワークを把持して取り出す際に、前記ロボットのハンドによる把持の制御を行う把持制御装置であって、前記把持対象のワークに係るワーク情報を保持するワーク情報保持手段と、前記ロボットのハンドにおける把持形態に係る把持形態情報を保持する把持形態情報保持手段と、撮像装置により得られた、前記複数のワークにおけるワーク画像と、前記ワーク情報とに基づいて、前記把持対象のワークにおける把持位置に係る把持位置情報および前記把持対象のワークにおける周囲状況に係る周囲情報を認識する認識手段と、前記把持位置情報、前記周囲情報および前記把持形態情報におけるワークの可動方向に基づいて、複数の把持方法における各把持方法を評価する把持方法評価手段と、前記把持方法評価手段で評価された前記各把持方法の評価値に応じて、前記把持対象のワークを把持する際の把持方法を決定する把持方法決定手段と、前記把持方法決定手段で決定された把持方法に基づいて、前記把持対象のワークに対する前記ロボットのハンドによる把持の制御を行う制御手段とを有する。
また、本発明は、上述した把持制御装置による把持制御方法、及び、当該把持制御方法をコンピュータに実行させるためのプログラムを含む。
The gripping control device of the present invention is a gripping control device that controls gripping by the robot hand when gripping and taking out a workpiece to be gripped by a robot hand from a plurality of workpieces, Work information holding means for holding work information relating to a given work, holding form information holding means for holding holding form information relating to a holding form of the robot hand, and a work in the plurality of works obtained by an imaging device Based on the image and the work information, a recognition unit for recognizing grip position information on a grip position on the grip target work and surrounding information on a surrounding situation on the grip target work, and the grip position information, Based on the surrounding information and the movable direction of the work in the gripping form information, each gripping method in a plurality of gripping methods is And worth holding method evaluation unit, in accordance with the evaluation value of each of the gripping method is evaluated by the holding method evaluation unit, the holding method determining means for determining the holding method at the time of gripping a workpiece of the gripping target, the Control means for controlling gripping of the workpiece to be gripped by the robot hand based on the gripping method determined by the gripping method determining means .
The present invention also includes a grip control method by the grip control device described above, and a program for causing a computer to execute the grip control method.

本発明によれば、把持したワークを箱等から取り出す際に、当該把持したワーク及び他のワークの脱落や破損といった不具合が生じる可能性を低減させることができる。   According to the present invention, when taking out a gripped work from a box or the like, it is possible to reduce the possibility that a problem such as dropping or breakage of the gripped work and other works occurs.

本発明の第1の実施形態に係る把持制御システムの概略構成の一例を示す模式図である。FIG. 1 is a schematic diagram illustrating an example of a schematic configuration of a grip control system according to a first embodiment of the present invention. 本発明の第1の実施形態を示し、図1に示す把持制御装置で決定された把持方法に基づきロボットのハンドが把持対象のワークを箱から取り出す事例を示す模式図である。FIG. 2 is a schematic diagram illustrating the first embodiment of the present invention and illustrating a case where a robot hand takes out a workpiece to be gripped from a box based on a gripping method determined by a gripping control device illustrated in FIG. 1. 本発明の第1の実施形態に係る把持制御装置の内部構成の一例を示すブロック図である。It is a block diagram showing an example of an internal configuration of a grasp control device concerning a 1st embodiment of the present invention. 本発明の第1の実施形態を示し、図3に示すワーク情報保持部に保持されるワーク情報の保持方法、及び、ワーク情報に含まれる項目の一例を示す図である。FIG. 4 illustrates the first embodiment of the present invention, and illustrates an example of a method of holding work information held in a work information holding unit illustrated in FIG. 3 and an example of items included in the work information. 図3に示す把持形態情報保持部に保持される把持形態情報の保持方法、及び、把持形態情報に含まれる項目の一例を示す図である。FIG. 4 is a diagram illustrating a holding method of holding form information held in a holding state information holding unit illustrated in FIG. 3, and an example of items included in the holding form information. 図3に示す把持形態情報保持部に保持される把持形態情報を説明するための図である。FIG. 4 is a diagram for describing grip form information held by a grip form information holding unit illustrated in FIG. 3. 図3に示す把持位置認識部による把持位置情報の認識処理を説明するための模式図である。FIG. 4 is a schematic diagram for describing a recognition process of grip position information by a grip position recognition unit illustrated in FIG. 3. 図3に示す環境認識部による周囲情報の認識処理を説明するための模式図である。FIG. 4 is a schematic diagram for explaining a surrounding information recognition process performed by an environment recognition unit illustrated in FIG. 3. 図3に示す把持方法評価部による各把持方法の評価処理を説明するための模式図である。FIG. 4 is a schematic diagram for explaining an evaluation process of each gripping method by a gripping method evaluation unit illustrated in FIG. 3. 本発明の第1の実施形態に係る把持制御装置による把持制御方法の処理手順の一例を示すフローチャートである。5 is a flowchart illustrating an example of a processing procedure of a grip control method by the grip control device according to the first embodiment of the present invention. 本発明の第2の実施形態を示し、図3に示すワーク情報保持部に保持されるワーク情報の保持方法、及び、ワーク情報に含まれる項目の一例を示す図である。FIG. 5 is a diagram illustrating a method of holding work information held in a work information holding unit illustrated in FIG. 3 and an example of items included in the work information according to the second embodiment of this invention. 図11に示すワーク情報を説明するための模式図である。FIG. 12 is a schematic diagram for explaining the work information shown in FIG. 11. 本発明の第3の実施形態を示し、図3に示す環境認識部の処理内容及び把持方法評価部の処理内容を説明するための模式図である。FIG. 14 is a schematic diagram illustrating a third embodiment of the present invention and illustrating the processing content of an environment recognition unit and the processing content of a gripping method evaluation unit illustrated in FIG. 3. 本発明の第4の実施形態を示し、図3に示すワーク情報保持部に保持されるワーク情報の保持方法、及び、ワーク情報に含まれる項目の一例を示す図である。FIG. 14 is a diagram illustrating the fourth embodiment of the present invention, illustrating a method of holding work information held in the work information holding unit illustrated in FIG. 3, and an example of items included in the work information. 本発明の第4の実施形態を示し、図3に示す把持方法評価部の処理内容を説明するための模式図である。FIG. 14 is a schematic diagram illustrating a fourth embodiment of the present invention and illustrating processing contents of a gripping method evaluation unit illustrated in FIG. 3. 本発明の第5の実施形態を示し、図3に示す環境認識部の処理内容及び把持方法評価部の処理内容を説明するための模式図である。FIG. 14 is a schematic diagram illustrating a fifth embodiment of the present invention and illustrating processing contents of an environment recognition unit and processing contents of a gripping method evaluation unit illustrated in FIG. 3. 本発明の第5の実施形態を示し、周囲の障害物である他のワークが把持対象のワークに作用する力を時系列に記録した特性図である。FIG. 14 is a characteristic diagram illustrating a fifth embodiment of the present invention, in which forces acting on a workpiece to be grasped by another workpiece, which is a surrounding obstacle, are recorded in time series.

以下に、図面を参照しながら、本発明を実施するための形態(実施形態)について説明する。   Hereinafter, an embodiment (embodiment) for carrying out the present invention will be described with reference to the drawings.

(第1の実施形態)
まず、本発明の第1の実施形態について説明する。
(First embodiment)
First, a first embodiment of the present invention will be described.

本実施形態では、把持対象のワークにおける把持位置に係る把持位置情報、把持対象のワークにおける周囲状況に係る周囲情報、及び、ロボットのハンドにおける把持形態に係る把持形態情報に基づいて、把持対象のワークを把持する際の把持方法を決定する。これにより、把持したワークを箱等から取り出す際に、当該把持したワークが他のワークに与える影響を減少させることができるため、当該把持したワーク及び他のワークの脱落や破損といった不具合が生じる可能性を低減させることができる。   In the present embodiment, based on the gripping position information on the gripping position on the workpiece to be gripped, the surrounding information on the surrounding state of the workpiece to be gripped, and the gripping form information on the gripping form of the robot hand, Determine the gripping method when gripping the work. Thus, when the gripped work is taken out of the box or the like, the influence of the gripped work on other works can be reduced, so that a problem such as dropping or breakage of the gripped work and other works may occur. Properties can be reduced.

図1は、本発明の第1の実施形態に係る把持制御システム100の概略構成の一例を示す模式図である。把持制御システム100は、図1に示すように、把持制御装置110、ロボット120、及び、撮像装置130を有して構成されている。   FIG. 1 is a schematic diagram illustrating an example of a schematic configuration of a grip control system 100 according to the first embodiment of the present invention. The grip control system 100 includes a grip control device 110, a robot 120, and an imaging device 130, as shown in FIG.

把持制御装置110は、バラ積みされたワーク200の中からロボット120のハンド121で把持対象のワーク201を把持して箱210から取り出す際に、ロボット120のハンド121による把持の制御を行う装置である。   The gripping control device 110 is a device that controls the gripping by the hand 121 of the robot 120 when the workpiece 201 to be gripped is gripped by the hand 121 of the robot 120 and taken out of the box 210 from the piled works 200. is there.

ロボット120は、把持制御装置110の制御に基づいて、そのハンド121で、バラ積みされたワーク200の中から把持対象のワーク201を把持して箱210から取り出す作業を行う装置である。なお、ロボット120の作業領域には、バラ積みされたワーク200と、当該ワーク200を収納する箱210が存在している。   The robot 120 is a device that, based on the control of the grip control device 110, performs an operation of gripping the workpiece 201 to be gripped from the piled workpieces 200 and taking it out of the box 210 with the hand 121. In the work area of the robot 120, there are works 200 stacked in bulk and a box 210 for storing the works 200.

撮像装置130は、把持制御装置110の制御に基づいて、箱210の中にバラ積みされたワーク200を撮像して、バラ積みワーク画像を生成する装置である。   The imaging device 130 is a device that, based on the control of the grip control device 110, captures images of the works 200 stacked in the box 210 and generates a work image of the stacked works.

次いで、図1に示す把持制御システム100における動作の流れを説明する。
まず、把持制御装置110は、撮像装置130で撮像されたバラ積みワーク画像と、把持対象のワーク201に係るワーク情報とに基づいて、把持対象のワーク201における把持位置に係る把持位置情報、及び、把持対象のワーク201における周囲状況に係る周囲情報を認識する。
Next, an operation flow in the grip control system 100 shown in FIG. 1 will be described.
First, the grip control device 110, based on the bulk-stacked work image captured by the imaging device 130 and the workpiece information on the workpiece 201 to be gripped, based on gripping position information on a gripping position on the workpiece 201 to be gripped, and Then, the surrounding information on the surrounding state of the workpiece 201 to be grasped is recognized.

その後、把持制御装置110は、上述した把持位置情報、上述した周囲情報、及び、ロボット120のハンド121における把持形態に係る把持形態情報に基づいて、把持対象のワーク201を把持する際の把持方法を決定する。   Thereafter, the gripping control device 110 performs a gripping method when gripping the workpiece 201 to be gripped based on the gripping position information described above, the surrounding information described above, and the gripping form information on the gripping form of the hand 121 of the robot 120. To determine.

その後、把持制御装置110は、決定した把持対象のワーク201の把持方法に基づいて、ロボット120とハンド121を制御し、把持対象のワーク201に対するロボット120のハンド121による把持の制御を行う。これを受けて、ロボット120は、ハンド121で把持対象のワーク201を把持し、把持対象のワーク201を箱210から取り出す。
本実施形態では、バラ積みされたワークの中から、把持対象のワークを取り出す事例について説明するが、本発明においては、整列された複数のワークにおいても把持対象のワークを取り出す時にワーク同士が干渉する可能性があれば、適用可能である。
Thereafter, the grip control device 110 controls the robot 120 and the hand 121 based on the determined gripping method of the workpiece 201 to be gripped, and controls gripping of the robot 201 by the hand 121 with respect to the workpiece 201 to be gripped. In response to this, the robot 120 grips the workpiece 201 to be gripped by the hand 121 and takes out the workpiece 201 to be gripped from the box 210.
In the present embodiment, a case will be described in which a workpiece to be grasped is taken out of a pile of workpieces. However, in the present invention, even when a plurality of aligned workpieces are taken out of the workpiece to be grasped, interference occurs between the workpieces. If applicable, it is applicable.

次に、図2を用いて、決定された把持方法により、把持対象のワーク201を箱210から取り出す事例を説明する。
図2は、本発明の第1の実施形態を示し、図1に示す把持制御装置110で決定された把持方法に基づきロボットのハンド121が把持対象のワーク201を箱210から取り出す事例を示す模式図である。図2において、図2(a)、図2(b)及び図2(c)は、ロボットのハンド121が時系列に把持対象のワーク201を箱210から取り出す工程を示している。
Next, an example in which the work 201 to be gripped is taken out of the box 210 by the determined gripping method will be described with reference to FIG.
FIG. 2 is a schematic diagram illustrating a first embodiment of the present invention, in which a robot hand 121 takes out a workpiece 201 to be gripped from a box 210 based on a gripping method determined by a gripping control device 110 illustrated in FIG. FIG. 2A, 2B, and 2C show a process in which the robot hand 121 takes out the workpiece 201 to be grasped from the box 210 in time series.

図2(a)の時点で、バラ積みされたワーク200のうち、把持対象のワーク201は、ハンド121で把持されている。また、バラ積みされたワーク200のうち、把持対象のワーク201に対して周囲のワークである他のワーク301は、把持対象のワーク201と干渉した状態で箱210に納められている。   At the time of FIG. 2A, the workpiece 201 to be gripped among the workpieces 200 stacked in bulk is gripped by the hand 121. Further, of the workpieces 200 stacked in bulk, another work 301 which is a work around the work 201 to be grasped is placed in the box 210 in a state where the work 301 interferes with the work 201 to be grasped.

続いて、ハンド121は、座標系302のZ方向に移動し、把持した把持対象のワーク201を箱210から取り出そうとする。ここで、ハンド121に対して、相対的に把持対象のワーク201が可動しない状態で、ハンド121をZ方向に移動させた場合、把持対象のワーク201により、他のワーク301は持ち上げられ、箱210から脱落してしまう。しかしながら、図2に示す事例では、把持制御装置110により、ハンド121に対して、相対的に把持対象のワーク201が可動するような把持方法を選択している。   Subsequently, the hand 121 moves in the Z direction of the coordinate system 302 and attempts to take out the grasped work 201 to be grasped from the box 210. Here, when the hand 121 is moved in the Z direction in a state where the work 201 to be grasped is not relatively movable with respect to the hand 121, the other work 301 is lifted by the work 201 to be grasped, and It drops off from 210. However, in the example illustrated in FIG. 2, the gripping control device 110 selects a gripping method that allows the workpiece 201 to be gripped to move relative to the hand 121.

よって、図2(b)の時点で、他のワーク301の重みにより、ハンド121に対して、相対的に把持対象のワーク201が可動する。   Therefore, at the time of FIG. 2B, the work 201 to be grasped is relatively movable with respect to the hand 121 due to the weight of the other work 301.

その結果、図2(c)の時点で、他のワーク301を箱210から脱落させずに、把持対象のワーク201を箱210から取り出せている。   As a result, the work 201 to be gripped can be taken out of the box 210 without dropping the other work 301 from the box 210 at the time of FIG.

次に、図3を用いて、把持制御装置110の内部構成について説明する。
図3は、本発明の第1の実施形態に係る把持制御装置110の内部構成の一例を示すブロック図である。なお、図3には、把持制御装置110以外に、図1に示すロボット120及びそのハンド121、並びに、撮像装置130を図示している。また、図3には、図1に示すバラ積みされたワーク200及び箱210は図示していない。
Next, an internal configuration of the grip control device 110 will be described with reference to FIG.
FIG. 3 is a block diagram illustrating an example of an internal configuration of the grip control device 110 according to the first embodiment of the present invention. FIG. 3 shows the robot 120 and its hand 121 and the imaging device 130 shown in FIG. 1 in addition to the grip control device 110. In addition, FIG. 3 does not illustrate the work 200 and the box 210 that are stacked in bulk as illustrated in FIG.

把持制御装置110は、図3に示すように、制御部111と、保持部117とを有して構成されている。そして、制御部111には、図3に示すように、把持位置認識部112、環境認識部113、把持方法評価部114、把持方法決定部115、及び、ロボット制御部116が含まれている。また、保持部117には、図3に示すように、ワーク情報保持部118、及び、把持形態情報保持部119が含まれている。   As shown in FIG. 3, the grip control device 110 includes a control unit 111 and a holding unit 117. As shown in FIG. 3, the control unit 111 includes a grip position recognition unit 112, an environment recognition unit 113, a grip method evaluation unit 114, a grip method determination unit 115, and a robot control unit 116. As shown in FIG. 3, the holding unit 117 includes a work information holding unit 118 and a gripping form information holding unit 119.

ワーク情報保持部118は、バラ積みされたワーク200(把持対象のワーク201を含む)に係るワーク情報を保持する。把持形態情報保持部119は、ロボット120のハンド121における把持時の把持形態に係る把持形態情報を保持する。   The work information holding unit 118 holds work information relating to the work 200 (including the work 201 to be gripped) that has been piled up in bulk. The grip mode information holding unit 119 holds grip mode information relating to the grip mode when the robot 120 grips the hand 121.

把持位置認識部112は、撮像装置130で撮像されたバラ積みワーク画像と、ワーク情報保持部118に保持されているワーク情報とに基づいて、把持対象のワーク201における把持位置に係る把持位置情報を認識する。環境認識部113は、撮像装置130で撮像されたバラ積みワーク画像、把持位置認識部112で認識された把持位置情報及びワーク情報保持部118に保持されているワーク情報に基づいて、把持対象のワーク201における周囲状況に係る周囲情報を認識する。この把持位置認識部112及び環境認識部113は、本発明における認識部を構成する。   The gripping position recognition unit 112 obtains gripping position information on a gripping position of the workpiece 201 to be gripped based on the bulk-stacked work image captured by the imaging device 130 and the work information held in the work information holding unit 118. Recognize. The environment recognizing unit 113 is configured to generate a bulk object image captured by the imaging device 130, the grip position information recognized by the grip position recognizing unit 112, and the work information held in the work information holding unit 118. Recognize surrounding information relating to the surrounding situation in the work 201. The grip position recognition unit 112 and the environment recognition unit 113 constitute a recognition unit in the present invention.

把持方法評価部114は、把持位置認識部112で認識された把持位置情報、環境認識部113で認識された周囲情報及び把持形態情報保持部119に保持されている把持形態情報に基づいて、複数の把持方法における各把持方法の評価を行う。具体的に、本実施形態においては、把持方法評価部114は、上述の把持位置情報、上述の周囲情報及び上述の把持形態情報におけるワークの可動方向に基づいて、複数の把持方法における各把持方法の評価を行う。   The gripping method evaluation unit 114 is configured to generate a plurality of pieces of information based on the gripping position information recognized by the gripping position recognition unit 112, the surrounding information recognized by the environment recognition unit 113, and the gripping shape information held by the gripping shape information holding unit 119. The evaluation of each gripping method in the gripping method is performed. Specifically, in the present embodiment, the gripping method evaluation unit 114 determines each of the gripping methods in a plurality of gripping methods based on the gripping position information, the surrounding information, and the movable direction of the work in the gripping form information. Is evaluated.

把持方法決定部115は、把持位置認識部112で認識された把持位置情報、環境認識部113で認識された周囲情報及び把持形態情報保持部119に保持されている把持形態情報に基づいて、把持対象のワーク201を把持する際の把持方法を決定する。具体的に、把持方法決定部115は、把持方法評価部114で評価された各把持方法の評価値に応じて、把持対象のワーク201を把持する際の把持方法を決定する。   The gripping method determination unit 115 performs gripping based on the gripping position information recognized by the gripping position recognition unit 112, the surrounding information recognized by the environment recognition unit 113, and the gripping shape information held by the gripping shape information holding unit 119. A gripping method for gripping the target work 201 is determined. Specifically, the gripping method determination unit 115 determines a gripping method when gripping the workpiece 201 to be gripped, according to the evaluation value of each gripping method evaluated by the gripping method evaluation unit 114.

ロボット制御部116は、把持方法決定部115で決定された把持方法に基づいて、ロボット120及びハンド121を制御し、把持対象のワーク201に対するロボット120のハンド121による把持の制御を行う。   The robot control unit 116 controls the robot 120 and the hand 121 based on the gripping method determined by the gripping method determination unit 115, and controls gripping of the robot 120 by the hand 121 on the workpiece 201 to be gripped.

次に、図3に示す把持制御装置110の各内部構成について詳細に説明する。   Next, each internal configuration of the grip control device 110 shown in FIG. 3 will be described in detail.

最初に、図4を用いて、ワーク情報保持部118に保持されるワーク情報の保持方法、及び、ワーク情報に含まれる項目について説明する。
図4は、本発明の第1の実施形態を示し、図3に示すワーク情報保持部118に保持されるワーク情報の保持方法、及び、ワーク情報に含まれる項目の一例を示す図である。
First, a method of holding work information held in the work information holding unit 118 and items included in the work information will be described with reference to FIG.
FIG. 4 illustrates the first embodiment of the present invention, and illustrates an example of a method of holding work information held in the work information holding unit 118 illustrated in FIG. 3 and an example of items included in the work information.

ワーク情報保持部118によるワーク情報の保持方法の一例としては、図4に示すようなXML(Extensible Markup Language)形式で保持される。この図4は、把持対象のワーク201のワーク情報を示している。   As an example of a method of holding work information by the work information holding unit 118, the work information is held in an XML (Extensible Markup Language) format as shown in FIG. FIG. 4 shows work information of the work 201 to be grasped.

ワーク情報保持部118に保持されるワーク情報において、1つのワークのワーク情報は、タグ<object>で囲われた項目に記載される。さらに、タグ<object>に含まれる項目としては、タグ<name>、タグ<shape>、タグ<size>が示されている。   In the work information held in the work information holding unit 118, the work information of one work is described in an item surrounded by a tag <object>. Further, as items included in the tag <object>, a tag <name>, a tag <shape>, and a tag <size> are shown.

タグ<name>には、ワークにおける名前の情報が記載される。   The tag <name> describes information on the name of the work.

また、タグ<shape>には、ワークにおける形状の情報が記載される。即ち、ワーク情報のタグ<shape>には、把持対象のワーク201における形状の情報が記載されている。本実施形態においては、把持対象のワーク201は、直方体であるため、その形状の情報はboxとなる。   The tag <shape> describes information on the shape of the workpiece. That is, the shape information of the workpiece 201 to be grasped is described in the tag <shape> of the workpiece information. In the present embodiment, since the work 201 to be grasped is a rectangular parallelepiped, the shape information is a box.

また、タグ<size>には、ワークにおける寸法の情報が記載される。具体的に、タグ<size>に含まれるタグ<xyz>において、上述した直方体の各辺の寸法が記載されている。   The tag <size> describes dimension information of the work. Specifically, in the tag <xyz> included in the tag <size>, the dimensions of each side of the above-described rectangular parallelepiped are described.

次に、図5及び図6を用いて、把持形態情報保持部119に保持される把持形態情報の保持方法、及び、把持形態情報に含まれる項目について説明する。
図5は、図3に示す把持形態情報保持部119に保持される把持形態情報の保持方法、及び、把持形態情報に含まれる項目の一例を示す図である。また、図6は、図3に示す把持形態情報保持部119に保持される把持形態情報を説明するための図である。
Next, with reference to FIGS. 5 and 6, a description will be given of a holding method of holding form information held in the holding form information holding unit 119 and items included in the holding form information.
FIG. 5 is a diagram illustrating an example of a holding method of holding form information held in the holding state information holding unit 119 illustrated in FIG. 3 and an example of items included in the holding form information. FIG. 6 is a diagram for describing gripping form information held in the gripping form information holding unit 119 shown in FIG.

まず、本発明における把持形態の定義について説明する。
把持形態とは、ロボット120のハンド121で把持対象のワーク201を把持した際の把持対象のワーク201に対するロボット120のハンド121の位置・姿勢と、ロボット120のハンド121の可動方向である。
First, the definition of the holding form in the present invention will be described.
The holding form is the position and posture of the hand 121 of the robot 120 with respect to the work 201 to be held when the hand 121 of the robot 120 holds the work 201 to be held, and the movable direction of the hand 121 of the robot 120.

把持形態情報保持部119に保持される把持形態情報の保持方法の一例としては、図5に示すようなXML形式で保持される。   As an example of a holding method of the holding form information held in the holding state information holding unit 119, the holding form information is held in an XML format as shown in FIG.

把持形態情報保持部119に保持される把持形態情報において、1つの把持形態は、タグ<grasp>で囲われた項目に記載される。さらに、タグ<grasp>に含まれる項目としては、タグ<name>、タグ<object name>、タグ<xyz>、タグ<rpy>、タグ<move xyz>が示されている。   In the holding form information held in the holding state information holding unit 119, one holding form is described in an item surrounded by a tag <grasp>. Further, as the items included in the tag <grasp>, a tag <name>, a tag <object name>, a tag <xyz>, a tag <rpy>, and a tag <move xyz> are shown.

タグ<name>には、把持形態における名前の情報が記載される。   In the tag <name>, information on the name in the gripping form is described.

タグ<object name>には、把持対象のワーク201における名前の情報が記載される。図5に示す例では、把持対象のワーク201を表わすwork1が記載されている。   The tag <object name> describes information on the name of the workpiece 201 to be grasped. In the example shown in FIG. 5, a work 1 representing the work 201 to be grasped is described.

タグ<xyz>、及び、タグ<rpy>には、<object name>に記載された把持対象のワーク201におけるワーク座標系(右手系)を基準としたハンド座標系(右手系)の位置・姿勢の情報が記載される。具体的に、タグ<xyz>は、ワーク座標系を基準としたハンド座標系の位置を表しており、タグ<rpy>は、ワーク座標系を基準としたハンド座標系の姿勢を表している。図5に示す例では、タグ<xyz>には、スペースで区切られた3つの数字が記載されており、それぞれがワーク座標系のXYZに対応しており、単位はmである。また、図5に示す例では、タグ<rpy>にも、スペースで区切られた3つの数字が記載されており、それぞれ、ロール、ピッチ、ヨーを表わしており、単位はラジアンである。   In the tag <xyz> and the tag <rpy>, the position / posture of the hand coordinate system (right hand system) based on the work coordinate system (right hand system) of the work 201 to be gripped described in <object name>. Information is described. Specifically, the tag <xyz> represents the position of the hand coordinate system based on the work coordinate system, and the tag <rpy> represents the posture of the hand coordinate system based on the work coordinate system. In the example shown in FIG. 5, three numbers separated by spaces are described in the tag <xyz>, each corresponding to XYZ in the work coordinate system, and the unit is m. Further, in the example shown in FIG. 5, three numbers separated by spaces are also described in the tag <rpy>, which represent roll, pitch, and yaw, respectively, and have units of radians.

また、タグ<move xyz>には、<object name>に記載された把持対象のワーク201におけるワーク座標系を基準としたワークの可動方向の情報が記載される。図5に示す例では、grasp1のワークの可動方向はY軸方向であり、grasp2のワークの可動方向はX軸方向である。   In the tag <move xyz>, information on the movable direction of the workpiece 201 described in <object name> with respect to the workpiece coordinate system of the workpiece 201 to be grasped is described. In the example shown in FIG. 5, the movable direction of the work of grasp1 is the Y-axis direction, and the movable direction of the work of grasp2 is the X-axis direction.

ここで、図6(a)は、図5のgrasp1の情報を示した図であり、図6(b)は、図5のgrasp2の情報を示した図である。図6には、ワーク座標系601及びハンド座標系602が定義されており、また、矢印603及び矢印604は、それぞれ、ワークの可動方向を表わしている。   Here, FIG. 6A is a diagram showing the information of grasp1 in FIG. 5, and FIG. 6B is a diagram showing the information of grasp2 in FIG. In FIG. 6, a work coordinate system 601 and a hand coordinate system 602 are defined, and arrows 603 and 604 indicate the movable directions of the work, respectively.

次に、図7を用いて、図3に示す把持位置認識部112について説明する。
図7は、図3に示す把持位置認識部112による把持位置情報の認識処理を説明するための模式図である。
Next, the grip position recognition unit 112 shown in FIG. 3 will be described with reference to FIG.
FIG. 7 is a schematic diagram for explaining the recognition processing of the grip position information by the grip position recognition unit 112 shown in FIG.

図7に示す把持制御装置110(図3の把持位置認識部112)は、撮像装置130で撮像されたバラ積みワーク画像と、ワーク情報保持部118に保持されているワーク情報とに基づいて、把持対象のワーク201における把持位置に係る把持位置情報を認識する。ここで、物体の位置・姿勢の認識方法については、従来から多数の手法が提案されており、例えば、上記の特許文献2に記載の手法を用いてもよい。   The grip control device 110 illustrated in FIG. 7 (the grip position recognition unit 112 in FIG. 3) performs, based on the bulk-stacked work image captured by the imaging device 130 and the work information stored in the work information storage unit 118, The grip position information relating to the grip position of the workpiece 201 to be gripped is recognized. Here, as a method of recognizing the position / posture of an object, many methods have been conventionally proposed, and for example, the method described in Patent Document 2 described above may be used.

続いて、図3に示す把持位置認識部112は、ロボット120がハンド121を把持対象のワーク201に設定された把持可能な位置まで移動する経路を生成できるか否かを判定する。ここで、経路を計算する方法としては、ロボットの経路探索の手法として一般的なRRT(Rapidly exploring Random Trees)を用いることができる。この際、RRTを用いる理由は、複雑な経路であっても短時間で経路を探索可能であるためである。そして、ロボット120がハンド121を把持対象のワーク201に設定された把持可能な位置まで移動する経路が生成できる場合、把持位置認識部112は、その位置を把持対象のワーク201の把持可能な位置701とし、これを把持位置情報として認識する。そして、把持位置認識部112は、把持位置情報を環境認識部113と把持方法評価部114に出力する。   Subsequently, the grip position recognition unit 112 illustrated in FIG. 3 determines whether or not the robot 120 can generate a path for moving the hand 121 to a grippable position set on the workpiece 201 to be gripped. Here, as a method of calculating the route, a general RRT (Rapidly exploring Random Tree) can be used as a route searching method of the robot. In this case, the reason why the RRT is used is that even a complicated route can be searched for in a short time. Then, when a path for the robot 120 to move the hand 121 to a grippable position set on the workpiece 201 to be gripped can be generated, the gripping position recognition unit 112 determines the position at which the workpiece 201 to be gripped can be gripped. 701 is recognized as grip position information. Then, the grip position recognition unit 112 outputs the grip position information to the environment recognition unit 113 and the grip method evaluation unit 114.

次に、図8を用いて、図3に示す環境認識部113について説明する。
図8は、図3に示す環境認識部113による周囲情報の認識処理を説明するための模式図である。
Next, the environment recognition unit 113 shown in FIG. 3 will be described with reference to FIG.
FIG. 8 is a schematic diagram for explaining the surrounding information recognition process performed by the environment recognition unit 113 illustrated in FIG.

環境認識部113は、把持位置認識部112で認識された把持対象のワーク201を取り出す場合に、把持対象のワーク201が置かれている周囲の障害物(周囲のワーク等)を認識する。以下、図8を用いて、把持対象のワーク201が置かれている周囲の障害物(周囲のワーク等)の認識方法について説明する。   When taking out the work 201 to be grasped recognized by the grasp position recognizing unit 112, the environment recognizing unit 113 recognizes an obstacle (a surrounding work or the like) around which the work 201 to be grasped is placed. Hereinafter, a method of recognizing a surrounding obstacle (surrounding work or the like) on which the work 201 to be grasped is placed will be described with reference to FIG.

図8は、撮像装置130により、箱210の内部にバラ積みされたワーク200を撮像して得られたバラ積みワーク画像の一例を示している。本実施形態では、環境認識部113は、事前に、箱210の底面801を、把持対象のワーク201及び他のワーク802、803、804及び805を箱210に納める前に撮像した底面画像を保持する。そして、環境認識部113は、バラ積みワーク画像と底面画像との差分を計算する。そして、環境認識部113は、その差分画像に基づいて、把持位置認識部112で位置姿勢が認識されている把持対象のワーク201の部分をマスクすることで、把持対象のワーク201の周囲の障害物である他のワーク802〜805の配置情報を認識する。即ち、本実施形態においては、環境認識部113は、把持対象のワーク201における周囲状況に係る周囲情報として、把持対象のワーク201における周囲のワーク等の配置情報を認識する。   FIG. 8 illustrates an example of a bulk-stacked work image obtained by capturing images of the workpieces 200 stacked in the box 210 by the imaging device 130. In the present embodiment, the environment recognizing unit 113 holds the bottom surface 801 of the box 210 in advance before capturing the work 201 to be gripped and the other works 802, 803, 804, and 805 in the box 210. I do. Then, the environment recognition unit 113 calculates a difference between the bulk-stacked work image and the bottom surface image. Then, based on the difference image, the environment recognizing unit 113 masks a part of the work 201 to be grasped, the position and orientation of which is recognized by the grasping position recognizing unit 112. The arrangement information of the other works 802 to 805 as objects is recognized. That is, in the present embodiment, the environment recognizing unit 113 recognizes, as the surrounding information relating to the surrounding state of the work 201 to be grasped, the arrangement information of the surrounding work and the like in the work 201 to be grasped.

次いで、環境認識部113は、把持対象のワーク201と周囲の障害物である他のワーク802、803、804及び805との接触点806を算出する。ここで、図8中の把持対象のワーク201と周囲の障害物である他のワーク802〜805との接触点806は、代表点であり、図8に示されている同様の形状の点は、把持対象のワーク201と周囲の障害物である他のワーク802〜805との接触点である。なお、本実施形態においては、環境認識部113は、把持対象のワーク201における周囲状況に係る周囲情報として、持対象のワーク201と周囲の障害物である他のワーク802〜805との接触点806の情報を認識する態様を適用することも可能である。   Next, the environment recognition unit 113 calculates a contact point 806 between the workpiece 201 to be grasped and other workpieces 802, 803, 804, and 805 as surrounding obstacles. Here, the contact point 806 between the workpiece 201 to be gripped and the other workpieces 802 to 805 as surrounding obstacles in FIG. 8 is a representative point, and a point having a similar shape shown in FIG. Contact points between the work 201 to be grasped and other works 802 to 805 which are obstacles around the work 201. In the present embodiment, the environment recognition unit 113 determines, as surrounding information relating to the surrounding state of the work 201 to be grasped, contact points between the work 201 to be held and the other works 802 to 805 as surrounding obstacles. It is also possible to apply a mode of recognizing the information of 806.

次に、図9を用いて、図3に示す把持方法評価部114について説明する。
図9は、図3に示す把持方法評価部114による各把持方法の評価処理を説明するための模式図である。
Next, the gripping method evaluation unit 114 shown in FIG. 3 will be described with reference to FIG.
FIG. 9 is a schematic diagram for explaining an evaluation process of each gripping method by the gripping method evaluation unit 114 shown in FIG.

上述したように、把持方法評価部114は、把持位置認識部112で認識された把持位置情報、環境認識部113で認識された周囲情報及び把持形態情報保持部119に保持されている把持形態情報に基づいて、複数の把持方法における各把持方法の評価を行う。ここで、本発明において、把持方法とは、把持位置と把持形態との組み合わせを意味するものとする。   As described above, the gripping method evaluation unit 114 includes the gripping position information recognized by the gripping position recognition unit 112, the surrounding information recognized by the environment recognition unit 113, and the gripping shape information held by the gripping shape information holding unit 119. Based on the above, each gripping method in a plurality of gripping methods is evaluated. Here, in the present invention, the gripping method means a combination of a gripping position and a gripping form.

図9(a)及び図9(b)は、それぞれ、撮像装置130を用いて、箱210の中にバラ積みされたワーク200を撮像して得られたバラ積みワーク画像である。そして、図9(a)及び図9(b)は、それぞれ、把持位置認識部112で認識された把持位置情報に対して、把持形態情報保持部119から入力した2つの把持形態を適用した状態を示している。   FIGS. 9A and 9B are images of a work piece pile obtained by imaging the work pieces 200 stacked in the box 210 by using the imaging device 130, respectively. FIGS. 9A and 9B show states in which two gripping forms input from the gripping form information holding unit 119 are applied to the gripping position information recognized by the gripping position recognizing unit 112, respectively. Is shown.

また、図9(c)及び図9(d)は、それぞれ、図9(a)及び図9(b)における把持方法の評価方法を示す図である。図9(c)及び図9(d)において、接触点806は、上述した環境認識部113で算出された把持対象のワーク201と周囲の障害物である他のワークとの接触点である。また、図9(c)及び図9(d)には、それぞれ、把持方法評価部114による評価を行う際に設定される評価範囲901及び評価範囲902が示されており、これらの評価範囲は、把持方法ごとに定義される。加えて、図9(c)及び図9(d)に示す例の場合、評価範囲901及び評価範囲902は、把持方法ごとの、把持対象のワーク201の可動方向に存在する把持対象のワーク201の面に設定される。   9 (c) and 9 (d) are diagrams showing the evaluation method of the gripping method in FIGS. 9 (a) and 9 (b), respectively. 9C and 9D, a contact point 806 is a contact point between the work 201 to be grasped and another work which is a surrounding obstacle, calculated by the environment recognition unit 113 described above. 9 (c) and 9 (d) show an evaluation range 901 and an evaluation range 902 which are set when the evaluation is performed by the gripping method evaluation unit 114, respectively. Is defined for each gripping method. In addition, in the case of the examples illustrated in FIGS. 9C and 9D, the evaluation range 901 and the evaluation range 902 are, for each gripping method, the work 201 to be gripped that exists in the movable direction of the work 201 to be gripped. Is set on the surface.

次いで、把持方法評価部114は、それぞれ、評価範囲901及び評価範囲902に属する接触点806の数を合計した値の逆数を、当該評価範囲に係る把持方法の評価値とする。具体的に、評価値Vは、以下の(1)式で示される。この以下の(1)式において、「p」は、評価範囲における接触点806の数である。   Next, the gripping method evaluation unit 114 sets the reciprocal of the sum of the numbers of the contact points 806 belonging to the evaluation range 901 and the evaluation range 902 as the evaluation value of the gripping method related to the evaluation range. Specifically, the evaluation value V is represented by the following equation (1). In the following equation (1), “p” is the number of contact points 806 in the evaluation range.

ここで、図9(c)の場合の評価値は、V=1/2となり、また、図9(d)の場合の評価値は、V=1/5となる。つまり、評価範囲901及び評価範囲902に存在する接触点806の少ない方が、評価値が高くなる。   Here, the evaluation value in the case of FIG. 9C is V = 1 /, and the evaluation value in the case of FIG. 9D is V = 1 /. That is, the smaller the number of contact points 806 existing in the evaluation range 901 and the evaluation range 902, the higher the evaluation value.

そして、把持方法評価部114は、算出した各把持方法の評価値を把持方法決定部115に出力する。   Then, the gripping method evaluation unit 114 outputs the calculated evaluation value of each gripping method to the gripping method determination unit 115.

そして、把持方法決定部115は、把持方法評価部114から入力された評価値に基づいて、把持方法を決定する。具体的に、本実施形態においては、把持方法決定部115は、把持方法評価部114から入力された評価値の高い把持方法を、実際に把持対象のワーク201を把持する際の把持方法として決定する。図9に示す例では、図9(a)の把持方法が、実際に把持対象のワーク201を把持する際の把持方法として決定される。   Then, the gripping method determination unit 115 determines a gripping method based on the evaluation value input from the gripping method evaluation unit 114. Specifically, in the present embodiment, the gripping method determination unit 115 determines a gripping method having a high evaluation value input from the gripping method evaluation unit 114 as a gripping method when actually gripping the workpiece 201 to be gripped. I do. In the example illustrated in FIG. 9, the gripping method in FIG. 9A is determined as a gripping method when the workpiece 201 to be gripped is actually gripped.

そして、把持方法決定部115は、決定した把持方法の情報をロボット制御部116に出力する。   Then, the gripping method determination unit 115 outputs information on the determined gripping method to the robot control unit 116.

そして、ロボット制御部116は、把持方法決定部115から入力された把持方法に基づいて、ロボット120とハンド121を制御し、把持対象のワーク201に対するロボット120のハンド121による把持の制御を行う。   Then, the robot control unit 116 controls the robot 120 and the hand 121 based on the gripping method input from the gripping method determination unit 115, and controls the robot 120 to grip the workpiece 201 to be gripped by the hand 121.

次に、図10を用いて、本実施形態に係る把持制御装置110による把持制御方法の処理手順について説明する。
図10は、本発明の第1の実施形態に係る把持制御装置110による把持制御方法の処理手順の一例を示すフローチャートである。
Next, a processing procedure of a grip control method by the grip control device 110 according to the present embodiment will be described with reference to FIG.
FIG. 10 is a flowchart illustrating an example of a processing procedure of a grip control method by the grip control device 110 according to the first embodiment of the present invention.

まず、ステップS1001において、把持位置認識部112は、撮像装置130から入力されるバラ積みワーク画像と、ワーク情報保持部118に保持されているワーク情報とに基づいて、把持対象のワーク201を認識する。   First, in step S <b> 1001, the gripping position recognition unit 112 recognizes the work 201 to be gripped based on the bulky work image input from the imaging device 130 and the work information held in the work information holding unit 118. I do.

続いて、ステップS1002において、把持位置認識部112は、撮像装置130から入力されるバラ積みワーク画像と、ワーク情報保持部118に保持されているワーク情報とに基づいて、ハンド121が把持対象のワーク201を把持可能な位置を認識する。即ち、把持位置認識部112は、把持対象のワーク201における把持位置に係る把持位置情報を認識する。   Subsequently, in step S1002, the gripping position recognition unit 112 sets the hand 121 to the gripping target based on the bulk work image input from the imaging device 130 and the work information held in the work information holding unit 118. The position where the work 201 can be gripped is recognized. That is, the grip position recognition unit 112 recognizes grip position information on the grip position of the workpiece 201 to be gripped.

続いて、ステップS1003において、環境認識部113は、撮像装置130から入力されるバラ積みワーク画像、ステップS1002で認識された把持位置情報及びワーク情報保持部118に保持されているワーク情報に基づいて、把持対象のワーク201における周囲状況に係る周囲情報を認識する。   Subsequently, in step S1003, the environment recognizing unit 113 based on the bulky work image input from the imaging device 130, the grip position information recognized in step S1002, and the work information held in the work information holding unit 118. Then, the surrounding information on the surrounding state of the workpiece 201 to be grasped is recognized.

続いて、ステップS1004において、把持方法評価部114は、ステップS1002で認識された把持位置情報、ステップS1003で認識された周囲情報及び把持形態情報保持部119に保持されている把持形態情報に基づいて、複数の把持方法における各把持方法の評価を行って、各把持方法ごとに、上述した評価値を算出する。   Subsequently, in step S1004, the gripping method evaluation unit 114 determines the gripping position information recognized in step S1002, the surrounding information recognized in step S1003, and the gripping form information held in the gripping form information holding unit 119. The evaluation of each gripping method among a plurality of gripping methods is performed, and the above-described evaluation value is calculated for each gripping method.

ステップS1005において、まず、把持方法決定部115は、ステップS114で評価された把持方法のうち、評価値が最も高い把持方法を、実際に把持対象のワーク201を把持する際の把持方法として決定する(把持方法決定ステップ)。次いで、ロボット制御部116は、把持方法決定部115から入力された把持方法に基づいて、ロボット120とハンド121を制御し、ロボット120のハンド121に、把持方法決定部115から入力された把持方法で把持対象のワーク201を把持させる。   In step S1005, first, the gripping method determination unit 115 determines a gripping method having the highest evaluation value among the gripping methods evaluated in step S114 as a gripping method when the workpiece 201 to be gripped is actually gripped. (Gripping method determination step). Next, the robot control unit 116 controls the robot 120 and the hand 121 based on the gripping method input from the gripping method determining unit 115, and the gripping method input from the gripping method determining unit 115 to the hand 121 of the robot 120. The workpiece 201 to be gripped is gripped with.

続いて、ステップS1006において、制御部111は、ロボット120のハンド121による把持対象のワーク201の搬送を完了したか否かを判断する。   Subsequently, in step S1006, the control unit 111 determines whether or not the transfer of the workpiece 201 to be grasped by the hand 121 of the robot 120 has been completed.

ステップS1006の判断の結果、ロボット120のハンド121による把持対象のワーク201の搬送が完了していない場合には(S1006/NO)、ステップS1007に進む。
ステップS1007に進むと、ロボット制御部116は、ロボット120とハンド121を制御し、把持対象のワーク201の搬送処理を行う。その後、ステップS1006に戻る。
As a result of the determination in step S1006, when the transfer of the workpiece 201 to be grasped by the hand 121 of the robot 120 is not completed (S1006 / NO), the process proceeds to step S1007.
In step S1007, the robot control unit 116 controls the robot 120 and the hand 121 to perform a process of transporting the workpiece 201 to be grasped. Thereafter, the process returns to step S1006.

一方、ステップS1006の判断の結果、ロボット120のハンド121による把持対象のワーク201の搬送が完了した場合には(S1006/YES)、図10のフローチャートの処理を終了する。   On the other hand, as a result of the determination in step S1006, when the transfer of the workpiece 201 to be grasped by the hand 121 of the robot 120 is completed (S1006 / YES), the processing of the flowchart in FIG. 10 ends.

本実施形態では、把持対象のワーク201における把持位置に係る把持位置情報、把持対象のワーク201における周囲状況に係る周囲情報、及び、ロボット120のハンド121における把持形態に係る把持形態情報(例えば、ハンド121の把持形態における把持対象のワーク201の可動方向の情報)に基づいて、把持対象のワーク201を把持する際の把持方法を決定するようにしている。
かかる構成によれば、把持したワークを箱等から取り出す際に、当該把持したワークが他のワークに与える影響を減少させることができる。その結果、当該把持したワーク及び他のワークの脱落や破損といった不具合が生じる可能性を低減させることができる。
In the present embodiment, grip position information regarding a grip position on the workpiece 201 to be gripped, surrounding information regarding a surrounding state of the workpiece 201 to be gripped, and grip mode information regarding a grip mode of the hand 121 of the robot 120 (for example, The gripping method when gripping the workpiece 201 to be gripped is determined based on the information on the movable direction of the workpiece 201 to be gripped in the gripping mode of the hand 121).
According to this configuration, when removing the gripped work from the box or the like, the influence of the gripped work on other works can be reduced. As a result, it is possible to reduce the possibility that a problem such as dropping or breakage of the gripped work and other works occurs.

(第2の実施形態)
次に、本発明の第2の実施形態について説明する。
(Second embodiment)
Next, a second embodiment of the present invention will be described.

上述した第1の実施形態では、ワーク情報保持部118に保持されるワーク情報として、バラ積みされたワーク200(把持対象のワーク201を含む)における形状の情報を含む形態について説明を行った。第2の実施形態では、ワーク情報保持部118に保持されるワーク情報として、上述した形状の情報に加えて、把持対象のワーク201等における、滑りやすさの情報、壊れやすさの情報、絡まりやすさの情報、及び、柔軟性の情報を含むものとする。そして、ワーク情報保持部118に保持される上述のワーク情報を用いて、把持対象のワーク201を把持する際の把持方法を決定することで、当該把持したワーク及び他のワークの脱落や破損といった不具合が生じる可能性を低減させることができる。   In the first embodiment described above, the form in which the work information held in the work information holding unit 118 includes the shape information of the work 200 (including the work 201 to be gripped) that has been piled up is described. In the second embodiment, as the work information held in the work information holding unit 118, in addition to the above-described shape information, information on slipperiness, information on fragility, and entanglement in the work 201 to be gripped and the like are included. It shall include information on ease and information on flexibility. Then, by using the above-described work information held in the work information holding unit 118 to determine a gripping method when gripping the work 201 to be gripped, it is possible to determine whether the gripped work or another work is dropped or damaged. It is possible to reduce the possibility that a failure occurs.

第2の実施形態に係る把持制御システムの概略構成は、図1に示す第1の実施形態に係る把持制御システム100の概略構成と同様である。また、第2の実施形態に係る把持制御装置の内部構成は、図3に示す第1の実施形態に係る把持制御装置110の内部構成と同様である。   The schematic configuration of the grip control system according to the second embodiment is the same as the schematic configuration of the grip control system 100 according to the first embodiment shown in FIG. The internal configuration of the grip control device according to the second embodiment is the same as the internal configuration of the grip control device 110 according to the first embodiment shown in FIG.

第2の実施形態に係る把持制御装置110の内部構成は、図3に示すものとなるが、第1の実施形態とは、ワーク情報保持部118に保持されるワーク情報の内容、及び、把持方法評価部114の処理内容が異なるため、以下、この異なる部分について説明する。また、この異なる部分以外の他の部分については、説明を省略する。   Although the internal configuration of the grip control device 110 according to the second embodiment is as shown in FIG. 3, the first embodiment differs from the first embodiment in the content of the work information held in the work information holding unit 118 and the grip. Since the processing contents of the method evaluation unit 114 are different, the different parts will be described below. The description of the other parts other than the different part is omitted.

図11及び図12を用いて、本実施形態のワーク情報保持部118に保持されるワーク情報の保持方法、及び、ワーク情報に含まれる項目について説明する。
図11は、本発明の第2の実施形態を示し、図3に示すワーク情報保持部118に保持されるワーク情報の保持方法、及び、ワーク情報に含まれる項目の一例を示す図である。また、図12は、図11に示すワーク情報を説明するための模式図である。
A method of holding work information held in the work information holding unit 118 according to the present embodiment and items included in the work information will be described with reference to FIGS.
FIG. 11 illustrates the second embodiment of the present invention, and is a diagram illustrating an example of a method of holding work information held in the work information holding unit 118 illustrated in FIG. 3 and an example of items included in the work information. FIG. 12 is a schematic diagram for explaining the work information shown in FIG.

本実施形態のワーク情報保持部118には、図11に示すように、図4を用いて説明した第1の実施形態におけるワーク情報の項目に加えて、タグ<plane>、タグ<slipperiness>、タグ<flimsiness>、タグ<complicateness>、及び、タグ<flexibleness>の項目を含むワーク情報が保持されている。   As shown in FIG. 11, in addition to the work information items in the first embodiment described with reference to FIG. 4, the work information holding unit 118 of the present embodiment includes a tag <plane>, a tag <slipperiness>, Work information including items of a tag <flimness>, a tag <complicateness>, and a tag <flexibleness> is held.

タグ<plane>は、把持対象のワーク201の形状を構成する1つの面を表わすタグである。このタグ<plane>について、図12を用いて説明する。
図12に示す面1201、1202、1203及び1204は、それぞれ、把持対象のワーク201を構成している面である。図12に示す面1201、1202、1203及び1204は、それぞれ、図11に示すタグ<plane>のplane_1、plane_2、plane_3及びplane_4に対応している。また、タグ<plane>は、図11に示すように、把持対象のワーク201の表面の状態を表わすタグを有している。各タグが意味するワーク表面の状態について以下に説明する。
The tag <plane> is a tag representing one surface constituting the shape of the workpiece 201 to be grasped. The tag <plane> will be described with reference to FIG.
Surfaces 1201, 1202, 1203 and 1204 shown in FIG. 12 are surfaces constituting the work 201 to be grasped, respectively. The planes 1201, 1202, 1203, and 1204 shown in FIG. 12 correspond to the plane <-1, plane_2, plane_3, and plane_4 of the tag <plane> shown in FIG. 11, respectively. The tag <plane> has a tag indicating the state of the surface of the workpiece 201 to be grasped, as shown in FIG. The state of the work surface indicated by each tag will be described below.

タグ<slipperiness>は滑りやすさの情報を示し、タグ<flimsiness>は壊れやすさの情報を示し、タグ<complicateness>は絡まりやすさの情報を示し、タグ<flexibleness>は柔軟性の情報を示す。この各タグに設定されている値については、把持方法評価部114の説明で後述する。   The tag <slippersines> indicates information on slipperiness, the tag <flimscenes> indicates information on breakability, the tag <complicateness> indicates information on ease of entanglement, and the tag <flexibleness> indicates information on flexibility. . The values set for these tags will be described later in the description of the gripping method evaluation unit 114.

次に、本実施形態における把持方法評価部114について説明する。
本実施形態の把持方法評価部114は、第1の実施形態の把持方法評価部114における評価値の算出に対して、把持対象のワーク201における、滑りやすさの情報、壊れやすさの情報、絡まりやすさの情報及び柔軟性の情報を更に考慮したものである。具体的に、評価値Vは、以下の(2)式で示される。
Next, the gripping method evaluation unit 114 according to the present embodiment will be described.
The gripping method evaluation unit 114 according to the present embodiment is configured to calculate the evaluation value in the gripping method evaluation unit 114 according to the first embodiment. This further considers the information of entanglement easiness and the information of flexibility. Specifically, the evaluation value V is represented by the following equation (2).

この評価値Vは、各把持方法ごとに算出される。この(2)式において、「slp」は滑りやすさを表わす係数、「flm」は壊れやすさを表わす係数、「com」は絡まりやすさを表わす係数、「flx」は柔軟性を表わす係数である。また、この(2)式において、各係数名の後にvが続いている変数は、図11のタグ<slipperiness>、タグ<flimsiness>、タグ<complicateness>、タグ<flexibleness>に付与されている値である。これは、把持対象のワーク201の面ごとに、滑りやすさ、壊れやすさ、絡まりやすさ、柔軟性を設定できる。また、この(2)式において、各係数名の後にnが続いている変数は、図8で説明した接触点の数である。また、この(2)式において、「other」は、表面の状態を表わすタグが存在しない面に対する接触点の数である。   This evaluation value V is calculated for each gripping method. In this equation (2), “slp” is a coefficient representing slipperiness, “flm” is a coefficient representing fragility, “com” is a coefficient representing entanglement, and “flx” is a coefficient representing flexibility. is there. In the equation (2), the variable in which “v” follows each coefficient name is a value assigned to the tag <slippersines>, the tag <flimness>, the tag <complicateness>, and the tag <flexibleness> in FIG. It is. With this, for each surface of the workpiece 201 to be gripped, slipperiness, fragility, entanglement, and flexibility can be set. In the equation (2), the variable in which n follows each coefficient name is the number of contact points described with reference to FIG. In the equation (2), “other” is the number of contact points on a surface on which no tag indicating the surface state exists.

本実施形態では、ワーク情報保持部118に保持されるワーク情報として、第1の実施形態で説明した形状の情報に加えて、滑りやすさの情報、壊れやすさの情報、絡まりやすさの情報、及び、柔軟性の情報を含むものとしている。そして、ワーク情報保持部118に保持される上述のワーク情報を用いて、把持対象のワークを把持する際の把持方法を決定することで、当該把持したワーク及び他のワークの脱落や破損といった不具合が生じる可能性を低減させることができる。   In the present embodiment, as the work information held in the work information holding unit 118, in addition to the shape information described in the first embodiment, information on slipperiness, information on breakability, information on ease of entanglement. , And flexibility information. Then, by using the above-described work information held in the work information holding unit 118 to determine a gripping method when gripping the work to be gripped, a problem such as dropping or breakage of the gripped work and another work is determined. Can be reduced.

(第3の実施形態)
次に、本発明の第3の実施形態について説明する。
(Third embodiment)
Next, a third embodiment of the present invention will be described.

上述した第1の実施形態では、環境認識部113で認識する周囲情報として、把持対象のワーク201における周囲のワーク等の配置情報や持対象のワーク201と周囲のワーク等との接触点の情報を適用する形態であった。第3の実施形態では、環境認識部113で認識する周囲情報として、把持対象のワーク201に対して周囲のワークから作用する力の情報やロボット120のハンド121を用いて把持対象のワーク201を移動させることで生じる力の情報を適用する形態である。そして、環境認識部113で認識される上述の周囲情報を用いて、把持対象のワーク201を把持する際の把持方法を決定することで、把持対象のワーク201を取り出す際に把持したワークが可動することにより把持したワークが他のワークに与える影響を減少させることができる。その結果、把持したワーク及び他のワークの脱落や破損といった不具合が生じる可能性を低減させることができる。   In the above-described first embodiment, as the surrounding information recognized by the environment recognition unit 113, the arrangement information of the surrounding work and the like of the holding target work 201 and the information of the contact point between the holding target work 201 and the surrounding work and the like are included. Was applied. In the third embodiment, as the surrounding information recognized by the environment recognizing unit 113, information on the force acting on the work 201 to be grasped from the surrounding work or the work 201 to be grasped using the hand 121 of the robot 120 is used. This is a form in which information on force generated by moving is applied. Then, by using the above-described surrounding information recognized by the environment recognition unit 113 to determine a gripping method when gripping the workpiece 201 to be gripped, the workpiece gripped when the workpiece 201 to be gripped is taken out is movable. By doing so, the influence of the gripped work on other works can be reduced. As a result, it is possible to reduce the possibility that a problem such as dropping or breakage of the gripped work or another work occurs.

第3の実施形態に係る把持制御システムの概略構成は、図1に示す第1の実施形態に係る把持制御システム100の概略構成と同様である。また、第3の実施形態に係る把持制御装置の内部構成は、図3に示す第1の実施形態に係る把持制御装置110の内部構成と同様である。   The schematic configuration of the grip control system according to the third embodiment is the same as the schematic configuration of the grip control system 100 according to the first embodiment shown in FIG. The internal configuration of the grip control device according to the third embodiment is the same as the internal configuration of the grip control device 110 according to the first embodiment shown in FIG.

第3の実施形態に係る把持制御装置110の内部構成は、図3に示すものとなるが、第1の実施形態とは、環境認識部113の処理内容、及び、把持方法評価部114の処理内容が異なるため、以下、この異なる部分について説明する。また、この異なる部分以外の他の部分については、説明を省略する。   Although the internal configuration of the grip control device 110 according to the third embodiment is as shown in FIG. 3, the first embodiment differs from the first embodiment in the processing contents of the environment recognition unit 113 and the processing contents of the grip method evaluation unit 114. Since the contents are different, the different parts will be described below. The description of the other parts other than the different part is omitted.

図13を用いて、本実施形態の、環境認識部113の処理内容、及び、把持方法評価部114の処理内容について説明する。
図13は、本発明の第3の実施形態を示し、図3に示す環境認識部113の処理内容及び把持方法評価部114の処理内容を説明するための模式図である。ここで、図13(a)及び図13(b)は、それぞれ、ロボット120のハンド121が把持対象のワーク201を異なる把持方法で把持している様子を示している。
The processing content of the environment recognition unit 113 and the processing content of the gripping method evaluation unit 114 according to the present embodiment will be described with reference to FIG.
FIG. 13 shows the third embodiment of the present invention, and is a schematic diagram for explaining the processing content of the environment recognition unit 113 and the processing content of the gripping method evaluation unit 114 shown in FIG. Here, FIGS. 13A and 13B show a state in which the hand 121 of the robot 120 is gripping the workpiece 201 to be gripped by different gripping methods, respectively.

図13(a)及び図13(b)において、本実施形態の環境認識部113は、把持対象のワーク201の周囲の障害物である他のワーク804を認識する。さらに、本実施形態の環境認識部113は、接触点806に生じる力1301の情報を周囲情報として算出して認識する。   13A and 13B, the environment recognition unit 113 of the present embodiment recognizes another work 804 that is an obstacle around the work 201 to be grasped. Further, the environment recognition unit 113 of the present embodiment calculates and recognizes information on the force 1301 generated at the contact point 806 as surrounding information.

次に、本実施形態の把持方法評価部114による評価値の算出方法について説明する。具体的に、本実施形態では、把持方法評価部114は、評価値Vを、以下の(3)式を用いて算出する。この(3)式で表す評価値Vは、把持対象のワーク201に対して周囲のワークから作用する力によってハンド121に生じる力の逆数を示している。   Next, a method of calculating an evaluation value by the gripping method evaluation unit 114 of the present embodiment will be described. Specifically, in the present embodiment, the gripping method evaluation unit 114 calculates the evaluation value V using the following equation (3). The evaluation value V expressed by the expression (3) indicates the reciprocal of the force generated in the hand 121 by the force acting on the work 201 to be grasped from the surrounding work.

この(3)式において、「free」は、図13(a)及び図13(b)における各把持方法の自由度で決まる係数である。図13(a)では、把持対象のワーク201が可動する方向に力が加わるので、freeの値は1よりも低い数値になる。例えば、図13(a)の把持方法では、freeの値を0.4に設定する。また、図13(b)では、把持対象のワーク201が可動する方向と異なる方向に力が加わるので、freeの値は1となる。また、この(3)式において、「r」は、図13(a)及び図13(b)のそれぞれのハンド121の把持方法における、ハンド121との接触点1304及び1305から、接触点806までの長さである。また、この(3)式において、「F」は、接触点806に生じる力Fである。また、この(3)式において、「θ」は、力Fの方向の垂直方向とrとがなす角度である。   In the expression (3), “free” is a coefficient determined by the degree of freedom of each gripping method in FIGS. 13A and 13B. In FIG. 13A, a force is applied in a direction in which the workpiece 201 to be grasped moves, so that the value of free is lower than 1. For example, in the gripping method of FIG. 13A, the value of free is set to 0.4. In FIG. 13B, a force is applied in a direction different from the direction in which the workpiece 201 to be grasped moves, and thus the value of free is 1. Further, in this equation (3), “r” is from the contact points 1304 and 1305 with the hand 121 to the contact point 806 in the gripping method of the hand 121 in each of FIGS. 13A and 13B. Is the length of In the equation (3), “F” is a force F generated at the contact point 806. Further, in the equation (3), “θ” is an angle formed between a direction perpendicular to the direction of the force F and r.

また、本実施形態においては、実際に把持対象のワーク201をハンド121を把持した状態で、図13に示す方向1306及び1307のように、ハンド121を微小に動作させることにより、実際に把持対象のワーク201に力を作用させて、生じた力を計測して評価してもよい。即ち、この場合、環境認識部113は、ロボット120のハンド121を用いて把持対象のワーク201を移動させることで生じる力の情報を周囲情報として認識する態様となる。この態様を採用する場合、ハンド121を微小に動作させた際に生じた力をFとすると、把持方法評価部114は、評価値Vを、以下の(4)式を用いて算出する。   Further, in the present embodiment, while the hand 121 is actually being gripped by the hand 121, the hand 121 is slightly moved as shown in directions 1306 and 1307 shown in FIG. A force may be applied to the work 201 to measure and evaluate the generated force. That is, in this case, the environment recognizing unit 113 recognizes information on force generated by moving the workpiece 201 to be grasped using the hand 121 of the robot 120 as surrounding information. When this mode is adopted, assuming that a force generated when the hand 121 is minutely moved is F, the gripping method evaluation unit 114 calculates the evaluation value V using the following equation (4).

本実施形態では、環境認識部113で認識する周囲情報として、把持対象のワーク201に対して周囲のワークから作用する力の情報やロボット120のハンド121を用いて把持対象のワーク201を移動させることで生じる力の情報を適用している。そして、この周囲情報を用いて、把持対象のワーク201を把持する際の把持方法を決定することで、把持対象のワーク201を取り出す際に把持したワークが可動することにより把持したワークが他のワークに与える影響を減少させることができる。その結果、把持したワーク及び他のワークの脱落や破損といった不具合が生じる可能性を低減させることができる。   In the present embodiment, as the surrounding information recognized by the environment recognizing unit 113, information on force acting on the work 201 to be grasped from the surrounding work or the hand 121 of the robot 120 is used to move the work 201 to be grasped. We apply the information of the force that arises. Then, by using this surrounding information to determine a gripping method when gripping the workpiece 201 to be gripped, the workpiece that is gripped when the workpiece 201 to be gripped is taken out is moved so that the workpiece that is gripped can be moved to another location. The effect on the work can be reduced. As a result, it is possible to reduce the possibility that a problem such as dropping or breakage of the gripped work or another work occurs.

(第4の実施形態)
次に、本発明の第4の実施形態について説明する。
(Fourth embodiment)
Next, a fourth embodiment of the present invention will be described.

上述した第1の実施形態では、ワーク情報保持部118に保持されるワーク情報として、バラ積みされたワーク200(把持対象のワーク201を含む)における形状の情報を含む形態について説明を行った。第4の実施形態では、ワーク情報保持部118に保持されるワーク情報として、把持対象のワーク201等における把持方法の優先度の情報を含むものとする。そして、ワーク情報保持部118に保持される上述のワーク情報を用いて、把持対象のワーク201を把持する際の把持方法を決定する。これにより、把持したワークを取り出す際に把持したワークが可動することで、把持したワークが他のワークに与える影響を減少させることができる。その結果、把持したワーク及び他のワークの脱落や破損といった不具合が生じる可能性を低減させることができる。   In the first embodiment described above, the form in which the work information held in the work information holding unit 118 includes the shape information of the work 200 (including the work 201 to be gripped) that has been piled up is described. In the fourth embodiment, it is assumed that the work information held in the work information holding unit 118 includes information on the priority of the gripping method in the work 201 to be gripped. Then, using the above-described work information held in the work information holding unit 118, a gripping method when gripping the work 201 to be gripped is determined. Accordingly, when the gripped work is taken out, the gripped work moves, so that the influence of the gripped work on other works can be reduced. As a result, it is possible to reduce the possibility that a problem such as dropping or breakage of the gripped work or another work occurs.

第4の実施形態に係る把持制御システムの概略構成は、図1に示す第1の実施形態に係る把持制御システム100の概略構成と同様である。また、第4の実施形態に係る把持制御装置の内部構成は、図3に示す第1の実施形態に係る把持制御装置110の内部構成と同様である。   The schematic configuration of the grip control system according to the fourth embodiment is the same as the schematic configuration of the grip control system 100 according to the first embodiment shown in FIG. The internal configuration of the grip control device according to the fourth embodiment is the same as the internal configuration of the grip control device 110 according to the first embodiment shown in FIG.

第4の実施形態に係る把持制御装置110の内部構成は、図3に示すものとなるが、第1の実施形態とは、ワーク情報保持部118に保持されるワーク情報の内容、及び、把持方法評価部114の処理内容が異なるため、以下、この異なる部分について説明する。また、この異なる部分以外の他の部分については、説明を省略する。   Although the internal configuration of the grip control device 110 according to the fourth embodiment is as shown in FIG. 3, the first embodiment differs from the first embodiment in the content of the work information held in the work information holding unit 118 and the grip. Since the processing contents of the method evaluation unit 114 are different, the different parts will be described below. The description of the other parts other than the different part is omitted.

まず、図14を用いて、本実施形態のワーク情報保持部118に保持されるワーク情報の保持方法、及び、ワーク情報に含まれる項目について説明する。
図14は、本発明の第4の実施形態を示し、図3に示すワーク情報保持部118に保持されるワーク情報の保持方法、及び、ワーク情報に含まれる項目の一例を示す図である。
First, a method of holding work information held in the work information holding unit 118 of the present embodiment and items included in the work information will be described with reference to FIG.
FIG. 14 illustrates the fourth embodiment of the present invention, and illustrates an example of a method of holding work information held in the work information holding unit 118 illustrated in FIG. 3 and an example of items included in the work information.

本実施形態のワーク情報保持部118のワーク情報は、図4を用いて説明した第1の実施形態におけるワーク情報とは異なり、図14に示すタグ<shape>には、3次元形状を表現するデータフォーマットで保存されたファイルのファイル名が指定されている。このようにワークの形状を指定することで、任意形状のワークのワーク情報を保持することができる。   The work information of the work information holding unit 118 according to the present embodiment is different from the work information according to the first embodiment described with reference to FIG. 4, and a tag <shape> illustrated in FIG. 14 expresses a three-dimensional shape. The file name of the file saved in the data format is specified. By specifying the shape of the work in this way, work information of a work having an arbitrary shape can be held.

また、本実施形態のワーク情報保持部118には、図14に示すように、タグ<priority>の項目を含むワーク情報が保持されている。このタグ<priority>は、把持方法の優先度の情報を示している。この図14に示す例では、記載されている値の小さい方が把持方法の優先度が高いことを示している。   Further, as shown in FIG. 14, the work information holding unit 118 of the present embodiment holds work information including an item of a tag <priority>. This tag <priority> indicates information on the priority of the gripping method. In the example shown in FIG. 14, the smaller the value described, the higher the priority of the gripping method.

また、タグ<priority>には、図14に示すように、把持可能な位置情報を示すタグ<xyz>と、把持形態情報を示すタグ<grasp_name>が含まれている。この際、タグ<xyz>にはワーク座標系の位置が記載され、タグ<grasp_name>には把持形態情報保持部119で保持している把持形態情報に付与された名前が記載される。   As shown in FIG. 14, the tag <priority> includes a tag <xyz> indicating position information that can be held, and a tag <grasp_name> indicating grip mode information. At this time, the position of the workpiece coordinate system is described in the tag <xyz>, and the name given to the gripping form information held in the gripping form information holding unit 119 is described in the tag <grasp_name>.

次に、図15を用いて、本実施形態の把持方法評価部114について説明する。
図15は、本発明の第4の実施形態を示し、図3に示す把持方法評価部114の処理内容を説明するための模式図である。ここで、図15(a)及び図15(b)は、それぞれ、ロボット120のハンド121が把持対象のワーク1501を異なる把持方法で把持している様子を示している。
Next, the gripping method evaluation unit 114 of the present embodiment will be described with reference to FIG.
FIG. 15 is a schematic diagram illustrating the fourth embodiment of the present invention and illustrating the processing contents of the gripping method evaluation unit 114 illustrated in FIG. 3. Here, FIGS. 15A and 15B show a state in which the hand 121 of the robot 120 grips the workpiece 1501 to be gripped by different gripping methods, respectively.

また、図15(a)及び図15(b)の把持方法は、それぞれ、ワーク情報保持部118によってその優先度の情報が保持されている。ワーク情報保持部118は、図14に示すワーク情報において、図15(b)に示す把持方法の優先度を2とし、図15(a)に示す把持方法の優先度を1としている。つまり、本例では、図15(a)に示す把持方法の方が、図15(b)に示す把持方法よりも優先度が高く設定されている。   In the gripping methods in FIGS. 15A and 15B, information on the priority is held by the work information holding unit 118. The work information holding unit 118 sets the priority of the gripping method illustrated in FIG. 15B to 2 and the priority of the gripping method illustrated in FIG. That is, in this example, the gripping method shown in FIG. 15A is set to have a higher priority than the gripping method shown in FIG.

ここで、図15(a)に示す把持方法の方が、図15(b)に示す把持方法よりも、優先度が高い理由について説明する。
把持対象のワーク1501は、図15に示すように、L字形状である。そして、この把持対象のワーク1501におけるL字の突起部分1502に他のワークにより力が生じた場合、図15(a)に示す把持方法では、把持対象のワーク1501が可動することができる。これに対して、図15(b)に示す把持方法では、把持対象のワーク1501が可動することができない。即ち、把持対象のワーク1501に対して、ある方向に力が加わったときに、その力の方向に把持対象のワーク1501が稼働できるように、ロボット120のハンド121が把持対象のワーク1501を把持する。このように把持することで、把持対象のワーク1501に対して加えられた力を逃がすことができるようになり、周囲の物体(周囲のワークを含む)に与える影響を軽減することができる。
Here, the reason why the gripping method shown in FIG. 15A has a higher priority than the gripping method shown in FIG. 15B will be described.
The work 1501 to be grasped is L-shaped as shown in FIG. Then, when a force is generated by another work on the L-shaped projection 1502 of the work 1501 to be grasped, the work 1501 to be grasped can be moved by the grasping method shown in FIG. On the other hand, in the gripping method shown in FIG. 15B, the workpiece 1501 to be gripped cannot move. That is, the hand 121 of the robot 120 grips the workpiece 1501 to be gripped so that when a force is applied to the workpiece 1501 to be gripped in a certain direction, the workpiece 1501 to be gripped can operate in the direction of the force. I do. By gripping in this manner, the force applied to the workpiece 1501 to be gripped can be released, and the influence on surrounding objects (including surrounding workpieces) can be reduced.

そして、本実施形態では、把持方法評価部114では、優先度が高い把持方法に高い評価値を付与して、把持方法決定部115に出力する。   Then, in the present embodiment, the gripping method evaluation unit 114 assigns a high evaluation value to the gripping method with a high priority and outputs the evaluation method to the gripping method determination unit 115.

本実施形態では、ワーク情報保持部118に保持されるワーク情報として、把持対象のワーク201等における把持方法の優先度の情報を含むものとしている。そして、ワーク情報保持部118に保持される上述のワーク情報を用いて、把持方法評価部114で把持方法を評価し、当該評価結果に基づいて把持対象のワークを把持する際の把持方法を決定するようにしている。これにより、把持対象のワーク1501を取り出す際に把持したワークが可動することにより把持したワークが他のワークに与える影響を減少させることができる。その結果、把持したワーク及び他のワークの脱落や破損といった不具合が生じる可能性を低減させることができる。   In the present embodiment, the work information held in the work information holding unit 118 includes information on the priority of the gripping method in the work 201 to be gripped. Then, using the above-described work information held in the work information holding unit 118, the holding method evaluation unit 114 evaluates the holding method, and determines the holding method when holding the work to be held based on the evaluation result. I am trying to do it. Accordingly, when the workpiece 1501 to be gripped is taken out, the gripped workpiece moves, and thus the influence of the gripped workpiece on other workpieces can be reduced. As a result, it is possible to reduce the possibility that a problem such as dropping or breakage of the gripped work or another work occurs.

(第5の実施形態)
次に、本発明の第5の実施形態について説明する。
(Fifth embodiment)
Next, a fifth embodiment of the present invention will be described.

上述した第1の実施形態では、環境認識部113で認識する周囲情報として、把持対象のワーク201における周囲のワーク等の配置情報や持対象のワーク201と周囲のワーク等との接触点の情報を適用する形態であった。第5の実施形態では、環境認識部113で認識する周囲情報として、把持対象のワーク201における把持後の取り出し時に、把持対象のワーク201に対して周囲のワークから作用する力の情報を適用する形態である。そして、把持方法決定部115は、環境認識部113で認識される上述の周囲情報を用いて、把持対象のワーク201を把持する際の把持方法を決定する。そして、ロボット制御部116は、ハンド121が把持対象のワーク201を把持した後にハンド121が把持対象のワーク201に加える力の方向に対して最も抵抗が小さくなるように、ハンド121の位置と姿勢を制御する。これにより、把持対象のワーク201を取り出す時に、把持対象のワーク201が他のワークに与える影響を減少させることができる。その結果、把持したワーク及び他のワークの脱落や破損といった不具合が生じる可能性を低減させることができる。   In the above-described first embodiment, as the surrounding information recognized by the environment recognition unit 113, the arrangement information of the surrounding work and the like of the grasping target work 201 and the information of the contact point between the holding target work 201 and the surrounding work and the like are included. Was applied. In the fifth embodiment, information on the force acting on the work 201 to be grasped from the surrounding work is applied as the surrounding information recognized by the environment recognition unit 113 when the work 201 to be grasped is taken out after being grasped. It is a form. The gripping method determination unit 115 determines a gripping method when gripping the workpiece 201 to be gripped, using the above-described surrounding information recognized by the environment recognition unit 113. Then, the robot control unit 116 determines the position and posture of the hand 121 so that the resistance against the direction of the force applied to the workpiece 201 by the hand 121 after the hand 121 grips the workpiece 201 is minimized. Control. Thereby, when taking out the work 201 to be grasped, the influence of the work 201 to be grasped on other works can be reduced. As a result, it is possible to reduce the possibility that a problem such as dropping or breakage of the gripped work or another work occurs.

第5の実施形態に係る把持制御システムの概略構成は、図1に示す第1の実施形態に係る把持制御システム100の概略構成と同様である。また、第5の実施形態に係る把持制御装置の内部構成は、図3に示す第1の実施形態に係る把持制御装置110の内部構成と同様である。   The schematic configuration of the grip control system according to the fifth embodiment is the same as the schematic configuration of the grip control system 100 according to the first embodiment shown in FIG. The internal configuration of the grip control device according to the fifth embodiment is the same as the internal configuration of the grip control device 110 according to the first embodiment shown in FIG.

第5の実施形態に係る把持制御装置110の内部構成は、図3に示すものとなるが、第1の実施形態とは、環境認識部113の処理内容、及び、把持方法評価部114の処理内容が異なるため、以下、この異なる部分について説明する。また、この異なる部分以外の他の部分については、説明を省略する。   Although the internal configuration of the grip control device 110 according to the fifth embodiment is as shown in FIG. 3, the first embodiment differs from the grip control device 110 in the processing content of the environment recognition unit 113 and the processing content of the grip method evaluation unit 114. Since the contents are different, the different parts will be described below. The description of the other parts other than the different part is omitted.

図16を用いて、本実施形態の、環境認識部113の処理内容、及び、把持方法評価部114の処理内容について説明する。
図16は、本発明の第5の実施形態を示し、図3に示す環境認識部113の処理内容及び把持方法評価部114の処理内容を説明するための模式図である。ここで、図16(a)及び図16(b)は、それぞれ、ロボット120のハンド121が把持対象のワーク201を異なる把持方法で把持している様子を示している。
The processing contents of the environment recognition unit 113 and the processing contents of the gripping method evaluation unit 114 according to the present embodiment will be described with reference to FIG.
FIG. 16 shows the fifth embodiment of the present invention, and is a schematic diagram for explaining the processing content of the environment recognition unit 113 and the processing content of the gripping method evaluation unit 114 shown in FIG. Here, FIGS. 16A and 16B show a state in which the hand 121 of the robot 120 is gripping the workpiece 201 to be gripped by different gripping methods, respectively.

図16(a)及び図16(b)において、本実施形態の環境認識部113は、把持対象のワーク201の周囲の障害物である他のワーク1605を認識する。さらに、本実施形態の環境認識部113は、把持対象のワーク201における把持後の取り出し時に、把持対象のワーク201に対して周囲の障害物である他のワーク1605から作用する力の情報を周囲情報として算出して認識する。   16A and 16B, the environment recognition unit 113 of the present embodiment recognizes another work 1605 which is an obstacle around the work 201 to be grasped. Further, the environment recognizing unit 113 of the present embodiment transmits information on the force acting on the work 201 to be grasped from another work 1605 which is a surrounding obstacle when the work 201 to be grasped is taken out after being grasped. Calculate and recognize as information.

本実施形態の処理内容について具体的に説明する。
図16(a)の搬送経路1601及び搬送経路1602、並びに、図16(b)の搬送経路1603及び搬送経路1604は、それぞれ、図16(a)の把持方法、並びに、図16(b)の把持方法に対して、予め設定されたハンド121による搬送経路である。
The processing content of the present embodiment will be specifically described.
The transport path 1601 and the transport path 1602 in FIG. 16A and the transport path 1603 and the transport path 1604 in FIG. 16B respectively correspond to the gripping method in FIG. 16A and the gripping method in FIG. This is a transport path by the hand 121 set in advance for the gripping method.

ここで、環境認識部113は、搬送経路1601、搬送経路1602、搬送経路1603、搬送経路1604の動作をシミュレーションし、その時に生じる周囲の障害物が把持対象のワーク201に作用する力を時系列に算出する。なお、本実施形態においては、環境認識部113が、周囲の障害物が把持対象のワーク201に作用する力を時系列に算出するものとするが、例えば、把持方法評価部114が算出する形態であってもよい。   Here, the environment recognizing unit 113 simulates the operations of the transport path 1601, the transport path 1602, the transport path 1603, and the transport path 1604, and generates a time series of a force generated by a nearby obstacle acting on the workpiece 201 to be grasped. Is calculated. In the present embodiment, the environment recognizing unit 113 calculates the force of the surrounding obstacle acting on the work 201 to be grasped in a time-series manner. It may be.

図17は、本発明の第5の実施形態を示し、周囲の障害物である他のワーク1605が把持対象のワーク201に作用する力を時系列に記録した特性図である。ここで、図17において、横軸は時間(秒)を示し、縦軸は力(ニュートン)を示している。また、図17において、グラフ1701は図16(a)の搬送経路1601の特性を示し、グラフ1702は図16(a)の搬送経路1602の特性を示し、グラフ1703は図16(b)の搬送経路1603の特性を示し、グラフ1704は図16(b)の搬送経路1604の特性を示す。   FIG. 17 shows a fifth embodiment of the present invention, and is a characteristic diagram in which forces acting on a work 201 to be grasped by another work 1605 as a surrounding obstacle are recorded in chronological order. Here, in FIG. 17, the horizontal axis indicates time (seconds), and the vertical axis indicates force (Newton). Also, in FIG. 17, a graph 1701 shows the characteristics of the transport route 1601 in FIG. 16A, a graph 1702 shows the characteristics of the transport route 1602 in FIG. 16A, and a graph 1703 shows the transport in FIG. The characteristic of the path 1603 is shown, and the graph 1704 shows the characteristic of the transport path 1604 in FIG.

そして、本実施形態の把持方法評価部114は、評価値Vを、以下の(5)式を用いて算出する。即ち、評価値Vは、時系列の力の値xの最大値の逆数である。   Then, the gripping method evaluation unit 114 of the present embodiment calculates the evaluation value V using the following equation (5). That is, the evaluation value V is the reciprocal of the maximum value of the time-series force value x.

図17に示す例においては、グラフ1704における力の最大値1705が最小であり、最も評価値が高くなる。即ち、本実施形態では、把持対象のワーク201を把持した後の搬送経路において、ある方向に力が加わったときに、その力の方向に把持対象のワーク201が可動できるように、把持対象のワーク201を把持する。また、このように把持することで、把持対象のワーク201を把持した後の搬送経路において、把持対象のワーク201に対して加えられた力を逃がすことができるようになり、他のワーク1605に与える影響を軽減することができる。   In the example shown in FIG. 17, the maximum value 1705 of the force in the graph 1704 is the minimum, and the evaluation value is the highest. That is, in the present embodiment, when a force is applied in a certain direction on the transport path after the work 201 to be grasped is gripped, the work 201 to be gripped is movable in the direction of the force. The work 201 is gripped. Further, by gripping in this manner, the force applied to the workpiece 201 to be gripped can be released on the transport path after gripping the workpiece 201 to be gripped, and the force applied to the other workpiece 1605 can be released. The effect can be reduced.

本実施形態では、環境認識部113で認識する周囲情報として、把持対象のワーク201における把持後の取り出し時に、把持対象のワーク201に対して周囲のワークから作用する力の情報を適用している。そして、この周囲情報を用いて、把持対象のワーク201を把持する際の把持方法を決定するようにしている。そして、把持した後にハンド121が把持対象のワーク201に加える力の方向に対して最も抵抗が小さくなるように、ハンドの位置と姿勢を制御することで、把持したワーク及び他のワークの脱落や破損といった不具合が生じる可能性を低減させることができる。   In the present embodiment, information on the force acting on the work 201 to be grasped from the surrounding work when the work 201 to be grasped is taken out after grasping is applied as the surrounding information recognized by the environment recognition unit 113. . Then, using the surrounding information, a gripping method when gripping the workpiece 201 to be gripped is determined. Then, by controlling the position and posture of the hand so that the resistance against the direction of the force applied by the hand 121 to the work 201 to be gripped after the grip is performed, the gripped work and other works may be dropped. It is possible to reduce the possibility that a problem such as breakage occurs.

(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
このプログラム及び当該プログラムを記憶したコンピュータ読み取り可能な記憶媒体は、本発明に含まれる。
(Other embodiments)
The present invention supplies a program for realizing one or more functions of the above-described embodiments to a system or an apparatus via a network or a storage medium, and one or more processors in a computer of the system or the apparatus read and execute the program. This processing can be realized. Further, it can also be realized by a circuit (for example, an ASIC) that realizes one or more functions.
This program and a computer-readable storage medium storing the program are included in the present invention.

なお、上述した本発明の実施形態は、いずれも本発明を実施するにあたっての具体化の例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。即ち、本発明はその技術思想、又はその主要な特徴から逸脱することなく、様々な形で実施することができる。   It should be noted that the above-described embodiments of the present invention are merely examples of specific embodiments for carrying out the present invention, and the technical scope of the present invention should not be interpreted in a limited manner. It is. That is, the present invention can be implemented in various forms without departing from the technical idea or the main features.

100 把持制御装置110、111 制御部、112 把持位置認識部、113 環境認識部、114 把持方法評価部、115 把持方法決定部、116 ロボット制御部、117 保持部、118 ワーク情報保持部、119 把持形態情報保持部 Reference Signs List 100 grip control devices 110, 111 control unit, 112 grip position recognition unit, 113 environment recognition unit, 114 grip method evaluation unit, 115 grip method determination unit, 116 robot control unit, 117 holding unit, 118 work information storage unit, 119 grip Form information storage

Claims (15)

複数のワークの中からロボットのハンドで把持対象のワークを把持して取り出す際に、前記ロボットのハンドによる把持の制御を行う把持制御装置であって、
前記把持対象のワークに係るワーク情報を保持するワーク情報保持手段と、
前記ロボットのハンドにおける把持形態に係る把持形態情報を保持する把持形態情報保持手段と、
撮像装置により得られた、前記複数のワークにおけるワーク画像と、前記ワーク情報とに基づいて、前記把持対象のワークにおける把持位置に係る把持位置情報および前記把持対象のワークにおける周囲状況に係る周囲情報を認識する認識手段と、
前記把持位置情報、前記周囲情報および前記把持形態情報におけるワークの可動方向に基づいて、複数の把持方法における各把持方法を評価する把持方法評価手段と、
前記把持方法評価手段で評価された前記各把持方法の評価値に応じて、前記把持対象のワークを把持する際の把持方法を決定する把持方法決定手段と、
前記把持方法決定手段で決定された把持方法に基づいて、前記把持対象のワークに対する前記ロボットのハンドによる把持の制御を行う制御手段
を有することを特徴とする把持制御装置。
A gripping control device that controls gripping by the robot hand when gripping and extracting a workpiece to be gripped by a robot hand from a plurality of workpieces,
Work information holding means for holding work information related to the work to be gripped,
Gripping form information holding means for holding gripping form information relating to a gripping form in the robot hand,
Based on the work images of the plurality of works and the work information obtained by the imaging device, based on the work information, grasp position information on a grasp position on the work to be grasped and surrounding information on a surrounding situation in the work on the grasp target. Recognition means for recognizing
Gripping method evaluation means for evaluating each gripping method in a plurality of gripping methods, based on the movable direction of the workpiece in the gripping position information, the surrounding information and the gripping form information,
A gripping method determining unit that determines a gripping method when gripping the workpiece to be gripped , according to the evaluation value of each gripping method evaluated by the gripping method evaluating unit ,
A control unit that controls gripping of the workpiece to be gripped by the hand of the robot based on the gripping method determined by the gripping method determination unit .
前記認識手段は、
前記ワーク画像と前記ワーク情報とに基づいて、前記把持位置情報を認識する把持位置認識手段と、
前記ワーク画像と、前記把持位置認識手段で認識された前記把持位置情報と、前記ワーク情報とに基づいて、前記周囲情報を認識する環境認識手段
を含み構成されていることを特徴とする請求項1に記載の把持制御装置。
The recognition means ,
A grip position recognition unit that recognizes the grip position information based on the work image and the work information;
An environment recognizing means for recognizing the surrounding information based on the work image, the grip position information recognized by the grip position recognizing means , and the work information. Item 2. The grip control device according to Item 1.
前記ワーク情報は、前記把持対象のワークにおける形状の情報を含む情報であることを特徴とする請求項1または2に記載の把持制御装置。 The work information, the gripping control device according to claim 1 or 2, characterized in that the information containing information of the shape of the gripping target work. 前記ワーク情報は、前記把持対象のワークにおける滑りやすさの情報を含む情報であることを特徴とする請求項1または2に記載の把持制御装置。 The work information, the gripping control device according to claim 1 or 2, characterized in that the information including information on slipperiness of the gripping target work. 前記ワーク情報は、前記把持対象のワークにおける壊れやすさの情報を含む情報であることを特徴とする請求項1または2に記載の把持制御装置。 The work information, the gripping control device according to claim 1 or 2, characterized in that the information including information of fragility in the gripping target work. 前記ワーク情報は、前記把持対象のワークにおける絡まりやすさの情報を含む情報であることを特徴とする請求項1または2に記載の把持制御装置。 The work information, the gripping control device according to claim 1 or 2, characterized in that the information including information of tangling ease in the gripping target work. 前記ワーク情報は、前記把持対象のワークにおける柔軟性の情報を含む情報であることを特徴とする請求項1または2に記載の把持制御装置。 The work information, the gripping control device according to claim 1 or 2, characterized in that the information including information of flexibility in the gripping target work. 前記ワーク情報は、前記把持対象のワークにおける把持方法の優先度の情報を含む情報であることを特徴とする請求項1または2に記載の把持制御装置。 3. The grip control device according to claim 1, wherein the work information is information including priority information of a gripping method of the grip target work. 4. 前記周囲情報は、前記把持対象のワークにおける周囲のワークの配置情報であることを特徴とする請求項1乃至のいずれか1項に記載の把持制御装置。 The grip control device according to any one of claims 1 to 8 , wherein the surrounding information is arrangement information of a surrounding work in the work to be gripped. 前記周囲情報は、前記把持対象のワークにおける周囲のワークと接触している点の情報であることを特徴とする請求項1乃至のいずれか1項に記載の把持制御装置。 The grip control device according to any one of claims 1 to 8 , wherein the surrounding information is information on a point of the work to be gripped that is in contact with a surrounding work. 前記周囲情報は、前記把持対象のワークに対して周囲のワークから作用する力の情報であることを特徴とする請求項1乃至のいずれか1項に記載の把持制御装置。 The grip control device according to any one of claims 1 to 8 , wherein the surrounding information is information on a force acting on the work to be gripped from a surrounding work. 前記周囲情報は、前記ロボットのハンドを用いて前記把持対象のワークを移動させることで生じる力の情報であることを特徴とする請求項1乃至のいずれか1項に記載の把持制御装置。 Said peripheral information, the gripping control system according to any one of claims 1 to 8, characterized in that the information of the force caused by moving the workpiece of the gripping target using a hand of the robot. 前記周囲情報は、前記把持対象のワークにおける把持後の取り出し時に、前記把持対象のワークに対して周囲のワークから作用する力の情報であることを特徴とする請求項1乃至のいずれか1項に記載の把持制御装置。 The said surrounding information is the information of the force which acts on the said to-be-held-object workpiece | work from the surrounding workpiece | work at the time of taking-out after the said to-be-held-target workpiece | work, The one of Claim 1 thru | or 8 characterized by the above-mentioned. A gripping control device according to Item. 複数のワークの中からロボットのハンドで把持対象のワークを把持して取り出す際に、前記ロボットのハンドによる把持の制御を行うものであり、前記把持対象のワークに係るワーク情報を保持するワーク情報保持手段と、前記ロボットのハンドにおける把持形態に係る把持形態情報を保持する把持形態情報保持手段とを備えた把持制御装置による把持制御方法であって、
撮像装置により得られた、前記複数のワークにおけるワーク画像と、前記ワーク情報とに基づいて、前記把持対象のワークにおける把持位置に係る把持位置情報および前記把持対象のワークにおける周囲状況に係る周囲情報を認識する認識ステップと、
前記把持位置情報、前記周囲情報および前記把持形態情報におけるワークの可動方向に基づいて、複数の把持方法における各把持方法を評価する把持方法評価ステップと、
前記把持方法評価ステップで評価された前記各把持方法の評価値に応じて、前記把持対象のワークを把持する際の把持方法を決定する把持方法決定ステップと、
前記把持方法決定ステップで決定された把持方法に基づいて、前記把持対象のワークに対する前記ロボットのハンドによる把持の制御を行う制御ステップと
を有することを特徴とする把持制御方法。
When grasping and taking out a workpiece to be grasped by a robot hand from a plurality of workpieces, the robot performs grasping control by the hand of the robot, and workpiece information holding workpiece information on the workpiece to be grasped. a holding unit, a holding pattern information holding means and the grasping control method by the gripping controller having a holding the holding pattern information according to the holding pattern in a hand of the robot,
Based on the work images of the plurality of works and the work information obtained by the imaging device, based on the work information, grasp position information on a grasp position on the work to be grasped and surrounding information on a surrounding situation in the work on the grasp target. A recognition step of recognizing
A gripping method evaluation step of evaluating each gripping method in a plurality of gripping methods based on the movable direction of the workpiece in the gripping position information, the surrounding information and the gripping form information,
According to the evaluation value of each gripping method evaluated in the gripping method evaluation step, a gripping method determining step of determining a gripping method when gripping the workpiece to be gripped,
A control step of controlling the gripping of the workpiece to be gripped by the hand of the robot based on the gripping method determined in the gripping method determining step.
複数のワークの中からロボットのハンドで把持対象のワークを把持して取り出す際に、前記ロボットのハンドによる把持の制御を行うものであり、前記把持対象のワークに係るワーク情報を保持するワーク情報保持手段と、前記ロボットのハンドにおける把持形態に係る把持形態情報を保持する把持形態情報保持手段とを備えた把持制御装置による把持制御方法をコンピュータに実行させるためのプログラムであって、
撮像装置により得られた、前記複数のワークにおけるワーク画像と、前記ワーク情報とに基づいて、前記把持対象のワークにおける把持位置に係る把持位置情報および前記把持対象のワークにおける周囲状況に係る周囲情報を認識する認識ステップと、
前記把持位置情報、前記周囲情報および前記把持形態情報におけるワークの可動方向に基づいて、複数の把持方法における各把持方法を評価する把持方法評価ステップと、
前記把持方法評価ステップで評価された前記各把持方法の評価値に応じて、前記把持対象のワークを把持する際の把持方法を決定する把持方法決定ステップと、
前記把持方法決定ステップで決定された把持方法に基づいて、前記把持対象のワークに対する前記ロボットのハンドによる把持の制御を行う制御ステップと
をコンピュータに実行させるためのプログラム。
When grasping and taking out a workpiece to be grasped by a robot hand from a plurality of workpieces, the robot performs grasping control by the hand of the robot, and workpiece information holding work information relating to the workpiece to be grasped. a holding unit, a program for executing a gripping control method by grasping the control device provided with a gripping configuration information holding means for holding the holding pattern information according to the holding pattern in a hand of the robot into the computer,
Based on the work images of the plurality of works and the work information obtained by the imaging device, based on the work information, grasp position information on a grasp position on the work to be grasped and surrounding information on a surrounding situation in the work on the grasp target. A recognition step of recognizing
A gripping method evaluation step of evaluating each gripping method in a plurality of gripping methods based on the movable direction of the workpiece in the gripping position information, the surrounding information and the gripping form information,
According to the evaluation value of each gripping method evaluated in the gripping method evaluation step, a gripping method determining step of determining a gripping method when gripping the workpiece to be gripped,
And a control step of controlling the gripping of the workpiece to be gripped by the hand of the robot based on the gripping method determined in the gripping method determining step.
JP2015112033A 2015-06-02 2015-06-02 Holding control device, holding control method and program Active JP6632224B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015112033A JP6632224B2 (en) 2015-06-02 2015-06-02 Holding control device, holding control method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015112033A JP6632224B2 (en) 2015-06-02 2015-06-02 Holding control device, holding control method and program

Publications (2)

Publication Number Publication Date
JP2016221647A JP2016221647A (en) 2016-12-28
JP6632224B2 true JP6632224B2 (en) 2020-01-22

Family

ID=57746801

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015112033A Active JP6632224B2 (en) 2015-06-02 2015-06-02 Holding control device, holding control method and program

Country Status (1)

Country Link
JP (1) JP6632224B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018163242A1 (en) * 2017-03-06 2018-09-13 株式会社Fuji Data structure for creating image-processing data and method for creating image-processing data
JP7097799B2 (en) 2018-11-21 2022-07-08 Thk株式会社 Image information processing device, gripping system, and image information processing method

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3930490B2 (en) * 2004-04-23 2007-06-13 ファナック株式会社 Article take-out device
JP5265296B2 (en) * 2008-10-10 2013-08-14 本田技研工業株式会社 Work removal method
DE112011103794B4 (en) * 2010-11-17 2019-01-24 Mitsubishi Electric Corporation Pick-up device for workpieces
JP2014161965A (en) * 2013-02-26 2014-09-08 Toyota Industries Corp Article takeout device
JP6415026B2 (en) * 2013-06-28 2018-10-31 キヤノン株式会社 Interference determination apparatus, interference determination method, and computer program

Also Published As

Publication number Publication date
JP2016221647A (en) 2016-12-28

Similar Documents

Publication Publication Date Title
US9957120B2 (en) Stowage pattern calculation device and stowage device for stowing plurality types of objects
KR102408914B1 (en) A robotic system with error detection and dynamic packing mechanism
CN105415370B (en) Article Pickup Apparatus For Picking Up Randomly Piled Articles
CN109483554B (en) Robot dynamic grabbing method and system based on global and local visual semantics
JP2019217632A (en) Deep machine learning method and apparatus for robotic grasping
JP5265296B2 (en) Work removal method
US11794343B2 (en) System and method for height-map-based grasp execution
JP5295828B2 (en) Object gripping system and interference detection method in the system
JP6810173B2 (en) Object grasping system
JP5088278B2 (en) Object detection method, object detection apparatus, and robot system
CN105598987B (en) Determination of a gripping space for an object by means of a robot
Spenrath et al. Gripping point determination for bin picking using heuristic search
JP6541397B2 (en) INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING METHOD, AND PROGRAM
JP6632224B2 (en) Holding control device, holding control method and program
JP5544464B2 (en) 3D position / posture recognition apparatus and method for an object
CN113858188A (en) Industrial robot gripping method and apparatus, computer storage medium, and industrial robot
Moosmann et al. Using deep neural networks to separate entangled workpieces in random bin picking
CN115703232A (en) Robot system with image-based sizing mechanism and method of operating the same
JP2022187983A (en) Network modularization to learn high dimensional robot tasks
CN112338922B (en) Five-axis mechanical arm grabbing and placing method and related device
CN113269112A (en) Method and device for identifying capture area, electronic equipment and storage medium
CN114310892B (en) Object grabbing method, device and equipment based on point cloud data collision detection
Viturino et al. 6D robotic grasping system using convolutional neural networks and adaptive artificial potential fields with orientation control
Dirr et al. Localization and grasp planning for bin picking of deformable linear objects
JP2019153309A (en) Image processing device, bin picking system, image processing method, and image processing program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180523

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190408

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190604

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190705

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191112

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191210

R151 Written notification of patent or utility model registration

Ref document number: 6632224

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151