JP2016221647A - Grip control device, grip control method, and program - Google Patents

Grip control device, grip control method, and program Download PDF

Info

Publication number
JP2016221647A
JP2016221647A JP2015112033A JP2015112033A JP2016221647A JP 2016221647 A JP2016221647 A JP 2016221647A JP 2015112033 A JP2015112033 A JP 2015112033A JP 2015112033 A JP2015112033 A JP 2015112033A JP 2016221647 A JP2016221647 A JP 2016221647A
Authority
JP
Japan
Prior art keywords
gripping
workpiece
information
gripped
surrounding
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015112033A
Other languages
Japanese (ja)
Other versions
JP6632224B2 (en
Inventor
伸明 ▲桑▼原
伸明 ▲桑▼原
Nobuaki Kuwahara
小林 一彦
Kazuhiko Kobayashi
一彦 小林
片山 昭宏
Akihiro Katayama
昭宏 片山
鈴木 雅博
Masahiro Suzuki
雅博 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2015112033A priority Critical patent/JP6632224B2/en
Publication of JP2016221647A publication Critical patent/JP2016221647A/en
Application granted granted Critical
Publication of JP6632224B2 publication Critical patent/JP6632224B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Manipulator (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a mechanism for reducing the possibility of the occurrence of a failure such as falling or breaking of a gripped workpiece and another workpiece when the gripped workpiece is taken out from a box or the like.SOLUTION: A grip control device comprises: recognition units 112, 113 each recognizing grip position information on a workpiece to be gripped and surrounding information on the workpiece to be gripped on the basis of workpiece images of a plurality of workpieces obtained by an imaging device 130 and workpiece information which is held in a workpiece information holding unit 118 and which is about the workpiece to be gripped; a grip method determination unit 115 determining a grip method for gripping the workpiece to be gripped on the basis of the grip position information, the surrounding information, and grip form information which is held in a grip-form-information holding unit 119 and which is about a grip form of a hand 121; and a robot control unit 116 controlling the hand 121 of a robot 120 to grip the workpiece to be gripped on the basis of the grip method determined by the grip method determination unit 115.SELECTED DRAWING: Figure 3

Description

本発明は、複数のワークの中からロボットのハンドで把持対象のワークを把持して取り出す際に、ロボットのハンドによる把持の制御を行う把持制御装置及び把持制御方法、並びに、当該把持制御方法をコンピュータに実行させるためのプログラムに関する。   The present invention relates to a gripping control device and a gripping control method for controlling gripping by a robot hand when gripping and taking out a workpiece to be gripped by a robot hand from a plurality of workpieces, and the gripping control method. The present invention relates to a program for causing a computer to execute.

従来から、ロボットに取り付けられたハンドでワークを把持する場合に、安定した状態で把持を行えるようにロボットを制御する技術が提案されている(例えば、下記の特許文献1参照)。具体的に、下記の特許文献1には、ワークとロボットのハンドとの接触点がより多くなるように、ロボットのハンドを制御する技術が記載されている。   2. Description of the Related Art Conventionally, there has been proposed a technique for controlling a robot so that the workpiece can be held in a stable state when holding a workpiece with a hand attached to the robot (for example, see Patent Document 1 below). Specifically, Patent Document 1 below describes a technique for controlling a robot hand so that the number of contact points between the workpiece and the robot hand increases.

特開2007−125653号公報JP 2007-125653 A 特開2011−22991号公報JP2011-22991A

しかしながら、特許文献1に記載の技術では、例えば、バラ積み状態で供給されるワークにおいて把持対象のワークが他のワークと干渉した状況になっている場合でも、ロボットのハンドとの接触点がより多くなるように把持対象のワークを把持することになる。そのため、把持したワークを箱等から取り出す動作をした場合、その取り出し動作に基づく力が他のワークに作用して干渉してしまい、当該把持したワーク及び他のワークの脱落や破損といった不具合が生じる可能性がある。   However, in the technique described in Patent Document 1, for example, even when a workpiece to be grasped interferes with another workpiece in a workpiece supplied in a stacked state, the contact point with the robot hand is more The workpiece to be grasped is grasped so as to increase. Therefore, when the gripped work is taken out from the box or the like, the force based on the pick-up operation acts on and interferes with the other work, resulting in problems such as dropping or breakage of the gripped work and the other work. there is a possibility.

本発明は、このような問題点に鑑みてなされたものであり、把持したワークを箱等から取り出す際に、当該把持したワーク及び他のワークの脱落や破損といった不具合が生じる可能性を低減させる仕組みを提供することを目的とする。   The present invention has been made in view of such problems, and reduces the possibility of problems such as dropping or breakage of the gripped workpiece and other workpieces when taking out the gripped workpiece from a box or the like. The purpose is to provide a mechanism.

本発明の把持制御装置は、複数のワークの中からロボットのハンドで把持対象のワークを把持して取り出す際に、前記ロボットのハンドによる把持の制御を行う把持制御装置であって、前記把持対象のワークに係るワーク情報を保持するワーク情報保持部と、前記ロボットのハンドにおける把持形態に係る把持形態情報を保持する把持形態情報保持部と、撮像装置により得られた、前記複数のワークにおけるワーク画像と、前記ワーク情報とに基づいて、前記把持対象のワークにおける把持位置に係る把持位置情報および前記把持対象のワークにおける周囲状況に係る周囲情報を認識する認識部と、前記把持位置情報、前記周囲情報および前記把持形態情報に基づいて、前記把持対象のワークを把持する際の把持方法を決定する把持方法決定部と、前記把持方法決定部で決定された把持方法に基づいて、前記把持対象のワークに対する前記ロボットのハンドによる把持の制御を行う制御部とを有する。
また、本発明は、上述した把持制御装置による把持制御方法、及び、当該把持制御方法をコンピュータに実行させるためのプログラムを含む。
The gripping control device of the present invention is a gripping control device that controls gripping by the robot hand when gripping and taking out the workpiece to be gripped by a robot hand from a plurality of workpieces. A workpiece information holding unit that holds workpiece information related to the workpiece, a gripping mode information holding unit that holds gripping mode information related to a gripping mode in the robot hand, and workpieces in the plurality of workpieces obtained by the imaging device Based on the image and the workpiece information, a recognition unit that recognizes gripping position information related to a gripping position in the gripping target workpiece and surrounding information related to a surrounding situation in the gripping target workpiece, the gripping position information, Determination of a gripping method for determining a gripping method when gripping the workpiece to be gripped based on surrounding information and the gripping form information When, and a on the basis of the holding method holding method determined by the determination unit, a control unit for controlling the grasping by the hand of the robot with respect to the gripping target work.
The present invention also includes a grip control method using the above-described grip control device, and a program for causing a computer to execute the grip control method.

本発明によれば、把持したワークを箱等から取り出す際に、当該把持したワーク及び他のワークの脱落や破損といった不具合が生じる可能性を低減させることができる。   According to the present invention, when a gripped work is taken out from a box or the like, it is possible to reduce a possibility that a problem such as dropping or breakage of the gripped work and another work occurs.

本発明の第1の実施形態に係る把持制御システムの概略構成の一例を示す模式図である。It is a schematic diagram which shows an example of schematic structure of the holding | grip control system which concerns on the 1st Embodiment of this invention. 本発明の第1の実施形態を示し、図1に示す把持制御装置で決定された把持方法に基づきロボットのハンドが把持対象のワークを箱から取り出す事例を示す模式図である。FIG. 2 is a schematic diagram illustrating an example in which the robot hand takes out a workpiece to be grasped from a box based on a grasping method determined by the grasping control device illustrated in FIG. 1 according to the first embodiment of the present invention. 本発明の第1の実施形態に係る把持制御装置の内部構成の一例を示すブロック図である。It is a block diagram which shows an example of an internal structure of the holding | grip control apparatus which concerns on the 1st Embodiment of this invention. 本発明の第1の実施形態を示し、図3に示すワーク情報保持部に保持されるワーク情報の保持方法、及び、ワーク情報に含まれる項目の一例を示す図である。It is a figure which shows the 1st Embodiment of this invention and shows an example of the item contained in the holding | maintenance method of the workpiece | work information hold | maintained at the workpiece | work information holding | maintenance part shown in FIG. 3, and workpiece | work information. 図3に示す把持形態情報保持部に保持される把持形態情報の保持方法、及び、把持形態情報に含まれる項目の一例を示す図である。It is a figure which shows an example of the holding method of the holding | grip form information hold | maintained at the holding | grip form information holding part shown in FIG. 3, and the item contained in holding | grip form information. 図3に示す把持形態情報保持部に保持される把持形態情報を説明するための図である。It is a figure for demonstrating the grip form information hold | maintained at the grip form information holding part shown in FIG. 図3に示す把持位置認識部による把持位置情報の認識処理を説明するための模式図である。It is a schematic diagram for demonstrating the recognition process of the holding position information by the holding position recognition part shown in FIG. 図3に示す環境認識部による周囲情報の認識処理を説明するための模式図である。It is a schematic diagram for demonstrating the recognition process of the surrounding information by the environment recognition part shown in FIG. 図3に示す把持方法評価部による各把持方法の評価処理を説明するための模式図である。It is a schematic diagram for demonstrating the evaluation process of each holding method by the holding method evaluation part shown in FIG. 本発明の第1の実施形態に係る把持制御装置による把持制御方法の処理手順の一例を示すフローチャートである。It is a flowchart which shows an example of the process sequence of the grip control method by the grip control apparatus which concerns on the 1st Embodiment of this invention. 本発明の第2の実施形態を示し、図3に示すワーク情報保持部に保持されるワーク情報の保持方法、及び、ワーク情報に含まれる項目の一例を示す図である。It is a figure which shows the 2nd Embodiment of this invention and shows an example of the item contained in the holding | maintenance method of the workpiece | work information hold | maintained at the workpiece | work information holding | maintenance part shown in FIG. 3, and workpiece | work information. 図11に示すワーク情報を説明するための模式図である。It is a schematic diagram for demonstrating the workpiece | work information shown in FIG. 本発明の第3の実施形態を示し、図3に示す環境認識部の処理内容及び把持方法評価部の処理内容を説明するための模式図である。FIG. 10 is a schematic diagram for explaining a processing content of an environment recognition unit and a processing method of a gripping method evaluation unit shown in FIG. 3 according to a third embodiment of the present invention. 本発明の第4の実施形態を示し、図3に示すワーク情報保持部に保持されるワーク情報の保持方法、及び、ワーク情報に含まれる項目の一例を示す図である。It is a figure which shows the 4th Embodiment of this invention and shows an example of the holding | maintenance method of the workpiece | work information hold | maintained at the workpiece | work information holding | maintenance part shown in FIG. 3, and the item contained in workpiece | work information. 本発明の第4の実施形態を示し、図3に示す把持方法評価部の処理内容を説明するための模式図である。FIG. 10 is a schematic diagram for explaining a processing content of a gripping method evaluation unit shown in FIG. 3 according to a fourth embodiment of the present invention. 本発明の第5の実施形態を示し、図3に示す環境認識部の処理内容及び把持方法評価部の処理内容を説明するための模式図である。FIG. 10 is a schematic diagram for explaining a processing content of an environment recognition unit and a processing method of a gripping method evaluation unit shown in FIG. 3 according to a fifth embodiment of the present invention. 本発明の第5の実施形態を示し、周囲の障害物である他のワークが把持対象のワークに作用する力を時系列に記録した特性図である。It is the characteristic view which showed the 5th Embodiment of this invention and recorded the force which the other workpiece | work which is a surrounding obstruction acts on the workpiece | work of a holding | grip object in time series.

以下に、図面を参照しながら、本発明を実施するための形態(実施形態)について説明する。   Hereinafter, embodiments (embodiments) for carrying out the present invention will be described with reference to the drawings.

(第1の実施形態)
まず、本発明の第1の実施形態について説明する。
(First embodiment)
First, a first embodiment of the present invention will be described.

本実施形態では、把持対象のワークにおける把持位置に係る把持位置情報、把持対象のワークにおける周囲状況に係る周囲情報、及び、ロボットのハンドにおける把持形態に係る把持形態情報に基づいて、把持対象のワークを把持する際の把持方法を決定する。これにより、把持したワークを箱等から取り出す際に、当該把持したワークが他のワークに与える影響を減少させることができるため、当該把持したワーク及び他のワークの脱落や破損といった不具合が生じる可能性を低減させることができる。   In the present embodiment, based on the grip position information related to the grip position of the grip target work, the peripheral information related to the surrounding condition of the grip target work, and the grip form information related to the grip form of the robot hand, Determine the gripping method for gripping the workpiece. As a result, when the gripped work is taken out from the box or the like, the influence of the gripped work on other workpieces can be reduced, so that a problem such as dropping or breakage of the gripped workpiece and other workpieces may occur. Can be reduced.

図1は、本発明の第1の実施形態に係る把持制御システム100の概略構成の一例を示す模式図である。把持制御システム100は、図1に示すように、把持制御装置110、ロボット120、及び、撮像装置130を有して構成されている。   FIG. 1 is a schematic diagram illustrating an example of a schematic configuration of a grip control system 100 according to the first embodiment of the present invention. As shown in FIG. 1, the grip control system 100 includes a grip control device 110, a robot 120, and an imaging device 130.

把持制御装置110は、バラ積みされたワーク200の中からロボット120のハンド121で把持対象のワーク201を把持して箱210から取り出す際に、ロボット120のハンド121による把持の制御を行う装置である。   The gripping control device 110 is a device for controlling gripping by the hand 121 of the robot 120 when gripping the workpiece 201 to be gripped by the hand 121 of the robot 120 from the bulky workpiece 200 and taking it out of the box 210. is there.

ロボット120は、把持制御装置110の制御に基づいて、そのハンド121で、バラ積みされたワーク200の中から把持対象のワーク201を把持して箱210から取り出す作業を行う装置である。なお、ロボット120の作業領域には、バラ積みされたワーク200と、当該ワーク200を収納する箱210が存在している。   The robot 120 is a device that performs a work of gripping the workpiece 201 to be gripped from the separated workpieces 200 and taking it out of the box 210 with the hand 121 based on the control of the grip control device 110. In the work area of the robot 120, there are a work 200 stacked in bulk and a box 210 for storing the work 200.

撮像装置130は、把持制御装置110の制御に基づいて、箱210の中にバラ積みされたワーク200を撮像して、バラ積みワーク画像を生成する装置である。   The imaging device 130 is a device that takes an image of the workpiece 200 stacked in the box 210 based on the control of the grip control device 110 and generates a stacked workpiece image.

次いで、図1に示す把持制御システム100における動作の流れを説明する。
まず、把持制御装置110は、撮像装置130で撮像されたバラ積みワーク画像と、把持対象のワーク201に係るワーク情報とに基づいて、把持対象のワーク201における把持位置に係る把持位置情報、及び、把持対象のワーク201における周囲状況に係る周囲情報を認識する。
Next, an operation flow in the grip control system 100 shown in FIG. 1 will be described.
First, the grip control device 110, based on the loosely stacked workpiece image captured by the imaging device 130 and the workpiece information regarding the grip target workpiece 201, grip position information regarding the grip position on the grip target workpiece 201, and Then, the surrounding information related to the surrounding state of the workpiece 201 to be grasped is recognized.

その後、把持制御装置110は、上述した把持位置情報、上述した周囲情報、及び、ロボット120のハンド121における把持形態に係る把持形態情報に基づいて、把持対象のワーク201を把持する際の把持方法を決定する。   Thereafter, the grip control device 110 grips the gripping target workpiece 201 based on the grip position information described above, the surrounding information described above, and the grip pattern information related to the grip pattern in the hand 121 of the robot 120. To decide.

その後、把持制御装置110は、決定した把持対象のワーク201の把持方法に基づいて、ロボット120とハンド121を制御し、把持対象のワーク201に対するロボット120のハンド121による把持の制御を行う。これを受けて、ロボット120は、ハンド121で把持対象のワーク201を把持し、把持対象のワーク201を箱210から取り出す。
本実施形態では、バラ積みされたワークの中から、把持対象のワークを取り出す事例について説明するが、本発明においては、整列された複数のワークにおいても把持対象のワークを取り出す時にワーク同士が干渉する可能性があれば、適用可能である。
Thereafter, the grip control device 110 controls the robot 120 and the hand 121 based on the determined gripping method of the workpiece 201 to be gripped, and controls gripping of the gripped workpiece 201 by the hand 121 of the robot 120. In response to this, the robot 120 grips the workpiece 201 to be gripped with the hand 121 and takes out the workpiece 201 to be gripped from the box 210.
In this embodiment, an example in which a workpiece to be grasped is taken out from the workpieces stacked in bulk will be described. However, in the present invention, even when a plurality of aligned workpieces are taken out, the workpieces interfere with each other. If there is a possibility to do, it is applicable.

次に、図2を用いて、決定された把持方法により、把持対象のワーク201を箱210から取り出す事例を説明する。
図2は、本発明の第1の実施形態を示し、図1に示す把持制御装置110で決定された把持方法に基づきロボットのハンド121が把持対象のワーク201を箱210から取り出す事例を示す模式図である。図2において、図2(a)、図2(b)及び図2(c)は、ロボットのハンド121が時系列に把持対象のワーク201を箱210から取り出す工程を示している。
Next, an example in which the workpiece 201 to be gripped is taken out from the box 210 by the determined gripping method will be described with reference to FIG.
FIG. 2 shows a first embodiment of the present invention, and is a schematic diagram showing an example in which the robot hand 121 takes out the workpiece 201 to be gripped from the box 210 based on the gripping method determined by the gripping control device 110 shown in FIG. FIG. 2A, 2 </ b> B, and 2 </ b> C illustrate a process in which the robot hand 121 takes out the workpiece 201 to be grasped from the box 210 in time series.

図2(a)の時点で、バラ積みされたワーク200のうち、把持対象のワーク201は、ハンド121で把持されている。また、バラ積みされたワーク200のうち、把持対象のワーク201に対して周囲のワークである他のワーク301は、把持対象のワーク201と干渉した状態で箱210に納められている。   As shown in FIG. 2A, the workpiece 201 to be gripped among the stacked workpieces 200 is gripped by the hand 121. In addition, among the stacked workpieces 200, another workpiece 301 that is a peripheral workpiece with respect to the workpiece 201 to be gripped is stored in the box 210 in a state of interfering with the workpiece 201 to be gripped.

続いて、ハンド121は、座標系302のZ方向に移動し、把持した把持対象のワーク201を箱210から取り出そうとする。ここで、ハンド121に対して、相対的に把持対象のワーク201が可動しない状態で、ハンド121をZ方向に移動させた場合、把持対象のワーク201により、他のワーク301は持ち上げられ、箱210から脱落してしまう。しかしながら、図2に示す事例では、把持制御装置110により、ハンド121に対して、相対的に把持対象のワーク201が可動するような把持方法を選択している。   Subsequently, the hand 121 moves in the Z direction of the coordinate system 302 and tries to take out the gripped workpiece 201 to be gripped from the box 210. Here, when the hand 121 is moved in the Z direction in a state where the gripping target workpiece 201 is not relatively movable with respect to the hand 121, the other workpiece 301 is lifted by the gripping target workpiece 201, and the box Drop off from 210. However, in the example illustrated in FIG. 2, the gripping control device 110 selects a gripping method that allows the workpiece 201 to be gripped to move relative to the hand 121.

よって、図2(b)の時点で、他のワーク301の重みにより、ハンド121に対して、相対的に把持対象のワーク201が可動する。   Therefore, at the time of FIG. 2B, the workpiece 201 to be gripped moves relative to the hand 121 by the weight of the other workpiece 301.

その結果、図2(c)の時点で、他のワーク301を箱210から脱落させずに、把持対象のワーク201を箱210から取り出せている。   As a result, the workpiece 201 to be grasped can be taken out of the box 210 without dropping the other workpiece 301 from the box 210 at the time of FIG.

次に、図3を用いて、把持制御装置110の内部構成について説明する。
図3は、本発明の第1の実施形態に係る把持制御装置110の内部構成の一例を示すブロック図である。なお、図3には、把持制御装置110以外に、図1に示すロボット120及びそのハンド121、並びに、撮像装置130を図示している。また、図3には、図1に示すバラ積みされたワーク200及び箱210は図示していない。
Next, the internal configuration of the grip control device 110 will be described with reference to FIG.
FIG. 3 is a block diagram illustrating an example of an internal configuration of the grip control device 110 according to the first embodiment of the present invention. In addition to the grip control device 110, FIG. 3 illustrates the robot 120, its hand 121, and the imaging device 130 shown in FIG. Further, FIG. 3 does not show the workpiece 200 and the box 210 stacked in bulk shown in FIG.

把持制御装置110は、図3に示すように、制御部111と、保持部117とを有して構成されている。そして、制御部111には、図3に示すように、把持位置認識部112、環境認識部113、把持方法評価部114、把持方法決定部115、及び、ロボット制御部116が含まれている。また、保持部117には、図3に示すように、ワーク情報保持部118、及び、把持形態情報保持部119が含まれている。   As illustrated in FIG. 3, the grip control device 110 includes a control unit 111 and a holding unit 117. As shown in FIG. 3, the control unit 111 includes a gripping position recognition unit 112, an environment recognition unit 113, a gripping method evaluation unit 114, a gripping method determination unit 115, and a robot control unit 116. Further, as shown in FIG. 3, the holding unit 117 includes a work information holding unit 118 and a gripping form information holding unit 119.

ワーク情報保持部118は、バラ積みされたワーク200(把持対象のワーク201を含む)に係るワーク情報を保持する。把持形態情報保持部119は、ロボット120のハンド121における把持時の把持形態に係る把持形態情報を保持する。   The workpiece information holding unit 118 holds workpiece information related to the stacked workpieces 200 (including the workpiece 201 to be grasped). The grip form information holding unit 119 holds grip form information related to the grip form when the hand 121 of the robot 120 is gripped.

把持位置認識部112は、撮像装置130で撮像されたバラ積みワーク画像と、ワーク情報保持部118に保持されているワーク情報とに基づいて、把持対象のワーク201における把持位置に係る把持位置情報を認識する。環境認識部113は、撮像装置130で撮像されたバラ積みワーク画像、把持位置認識部112で認識された把持位置情報及びワーク情報保持部118に保持されているワーク情報に基づいて、把持対象のワーク201における周囲状況に係る周囲情報を認識する。この把持位置認識部112及び環境認識部113は、本発明における認識部を構成する。   The gripping position recognition unit 112 is based on the loosely stacked workpiece image captured by the imaging device 130 and the workpiece information held in the workpiece information holding unit 118, and the gripping position information related to the gripping position of the workpiece 201 to be gripped. Recognize The environment recognizing unit 113 recognizes the gripping target based on the stacked workpiece image captured by the imaging device 130, the gripping position information recognized by the gripping position recognizing unit 112, and the work information held in the work information holding unit 118. Recognize surrounding information related to the surrounding situation of the work 201. The gripping position recognition unit 112 and the environment recognition unit 113 constitute a recognition unit in the present invention.

把持方法評価部114は、把持位置認識部112で認識された把持位置情報、環境認識部113で認識された周囲情報及び把持形態情報保持部119に保持されている把持形態情報に基づいて、複数の把持方法における各把持方法の評価を行う。具体的に、本実施形態においては、把持方法評価部114は、上述の把持位置情報、上述の周囲情報及び上述の把持形態情報におけるワークの可動方向に基づいて、複数の把持方法における各把持方法の評価を行う。   The gripping method evaluation unit 114 includes a plurality of gripping position information recognized by the gripping position recognition unit 112, surrounding information recognized by the environment recognition unit 113, and gripping form information held in the gripping form information holding unit 119. Each gripping method in the gripping method is evaluated. Specifically, in the present embodiment, the gripping method evaluation unit 114 determines each gripping method in a plurality of gripping methods based on the above-described gripping position information, the above-described surrounding information, and the moving direction of the workpiece in the above-described gripping form information. Perform an evaluation.

把持方法決定部115は、把持位置認識部112で認識された把持位置情報、環境認識部113で認識された周囲情報及び把持形態情報保持部119に保持されている把持形態情報に基づいて、把持対象のワーク201を把持する際の把持方法を決定する。具体的に、把持方法決定部115は、把持方法評価部114で評価された各把持方法の評価値に応じて、把持対象のワーク201を把持する際の把持方法を決定する。   The gripping method determination unit 115 performs gripping based on gripping position information recognized by the gripping position recognition unit 112, surrounding information recognized by the environment recognition unit 113, and gripping form information held in the gripping form information holding unit 119. A gripping method for gripping the target workpiece 201 is determined. Specifically, the gripping method determination unit 115 determines a gripping method for gripping the workpiece 201 to be gripped, according to the evaluation value of each gripping method evaluated by the gripping method evaluation unit 114.

ロボット制御部116は、把持方法決定部115で決定された把持方法に基づいて、ロボット120及びハンド121を制御し、把持対象のワーク201に対するロボット120のハンド121による把持の制御を行う。   The robot control unit 116 controls the robot 120 and the hand 121 based on the gripping method determined by the gripping method determination unit 115, and controls gripping of the workpiece 201 to be gripped by the hand 121 of the robot 120.

次に、図3に示す把持制御装置110の各内部構成について詳細に説明する。   Next, each internal configuration of the grip control device 110 shown in FIG. 3 will be described in detail.

最初に、図4を用いて、ワーク情報保持部118に保持されるワーク情報の保持方法、及び、ワーク情報に含まれる項目について説明する。
図4は、本発明の第1の実施形態を示し、図3に示すワーク情報保持部118に保持されるワーク情報の保持方法、及び、ワーク情報に含まれる項目の一例を示す図である。
First, with reference to FIG. 4, a work information holding method held in the work information holding unit 118 and items included in the work information will be described.
FIG. 4 is a diagram illustrating an example of items included in the work information and the work information holding method held in the work information holding unit 118 shown in FIG. 3 according to the first embodiment of this invention.

ワーク情報保持部118によるワーク情報の保持方法の一例としては、図4に示すようなXML(Extensible Markup Language)形式で保持される。この図4は、把持対象のワーク201のワーク情報を示している。   As an example of a work information holding method by the work information holding unit 118, the work information is held in an XML (Extensible Markup Language) format as shown in FIG. FIG. 4 shows the workpiece information of the workpiece 201 to be grasped.

ワーク情報保持部118に保持されるワーク情報において、1つのワークのワーク情報は、タグ<object>で囲われた項目に記載される。さらに、タグ<object>に含まれる項目としては、タグ<name>、タグ<shape>、タグ<size>が示されている。   In the work information held in the work information holding unit 118, the work information of one work is described in an item enclosed by a tag <object>. Further, as items included in the tag <object>, a tag <name>, a tag <shape>, and a tag <size> are shown.

タグ<name>には、ワークにおける名前の情報が記載される。   The tag <name> describes name information in the work.

また、タグ<shape>には、ワークにおける形状の情報が記載される。即ち、ワーク情報のタグ<shape>には、把持対象のワーク201における形状の情報が記載されている。本実施形態においては、把持対象のワーク201は、直方体であるため、その形状の情報はboxとなる。   Also, the tag <shape> describes information on the shape of the workpiece. That is, information on the shape of the work 201 to be grasped is described in the work information tag <shape>. In this embodiment, since the workpiece 201 to be grasped is a rectangular parallelepiped, the shape information is box.

また、タグ<size>には、ワークにおける寸法の情報が記載される。具体的に、タグ<size>に含まれるタグ<xyz>において、上述した直方体の各辺の寸法が記載されている。   The tag <size> describes dimension information on the workpiece. Specifically, in the tag <xyz> included in the tag <size>, the dimensions of each side of the rectangular parallelepiped described above are described.

次に、図5及び図6を用いて、把持形態情報保持部119に保持される把持形態情報の保持方法、及び、把持形態情報に含まれる項目について説明する。
図5は、図3に示す把持形態情報保持部119に保持される把持形態情報の保持方法、及び、把持形態情報に含まれる項目の一例を示す図である。また、図6は、図3に示す把持形態情報保持部119に保持される把持形態情報を説明するための図である。
Next, with reference to FIG. 5 and FIG. 6, a holding method of holding form information held by the holding form information holding unit 119 and items included in the holding form information will be described.
FIG. 5 is a diagram illustrating an example of a holding method of holding form information held in the holding form information holding unit 119 shown in FIG. 3 and items included in the holding form information. FIG. 6 is a diagram for explaining the grip form information held in the grip form information holding unit 119 shown in FIG.

まず、本発明における把持形態の定義について説明する。
把持形態とは、ロボット120のハンド121で把持対象のワーク201を把持した際の把持対象のワーク201に対するロボット120のハンド121の位置・姿勢と、ロボット120のハンド121の可動方向である。
First, the definition of the grip form in the present invention will be described.
The gripping form refers to the position / posture of the hand 121 of the robot 120 with respect to the work 201 to be gripped when the hand 201 of the robot 120 is gripped, and the moving direction of the hand 121 of the robot 120.

把持形態情報保持部119に保持される把持形態情報の保持方法の一例としては、図5に示すようなXML形式で保持される。   As an example of a holding method of holding form information held by the holding form information holding unit 119, the holding form information is held in an XML format as shown in FIG.

把持形態情報保持部119に保持される把持形態情報において、1つの把持形態は、タグ<grasp>で囲われた項目に記載される。さらに、タグ<grasp>に含まれる項目としては、タグ<name>、タグ<object name>、タグ<xyz>、タグ<rpy>、タグ<move xyz>が示されている。   In the grip form information held in the grip form information holding unit 119, one grip form is described in an item enclosed by a tag <grasp>. Furthermore, items included in the tag <grasp> include a tag <name>, a tag <object name>, a tag <xyz>, a tag <rpy>, and a tag <move xyz>.

タグ<name>には、把持形態における名前の情報が記載される。   The tag <name> describes name information in the gripping form.

タグ<object name>には、把持対象のワーク201における名前の情報が記載される。図5に示す例では、把持対象のワーク201を表わすwork1が記載されている。   The tag <object name> describes name information in the workpiece 201 to be grasped. In the example illustrated in FIG. 5, work 1 representing the workpiece 201 to be grasped is described.

タグ<xyz>、及び、タグ<rpy>には、<object name>に記載された把持対象のワーク201におけるワーク座標系(右手系)を基準としたハンド座標系(右手系)の位置・姿勢の情報が記載される。具体的に、タグ<xyz>は、ワーク座標系を基準としたハンド座標系の位置を表しており、タグ<rpy>は、ワーク座標系を基準としたハンド座標系の姿勢を表している。図5に示す例では、タグ<xyz>には、スペースで区切られた3つの数字が記載されており、それぞれがワーク座標系のXYZに対応しており、単位はmである。また、図5に示す例では、タグ<rpy>にも、スペースで区切られた3つの数字が記載されており、それぞれ、ロール、ピッチ、ヨーを表わしており、単位はラジアンである。   The tag <xyz> and the tag <rpy> include the position / posture of the hand coordinate system (right hand system) based on the work coordinate system (right hand system) of the workpiece 201 to be grasped described in <object name>. Information is described. Specifically, the tag <xyz> represents the position of the hand coordinate system based on the work coordinate system, and the tag <rpy> represents the posture of the hand coordinate system based on the work coordinate system. In the example shown in FIG. 5, the tag <xyz> describes three numbers separated by spaces, each corresponding to XYZ of the work coordinate system, and the unit is m. In the example illustrated in FIG. 5, the tag <rpy> also includes three numbers separated by spaces, each representing roll, pitch, and yaw, and the unit is radians.

また、タグ<move xyz>には、<object name>に記載された把持対象のワーク201におけるワーク座標系を基準としたワークの可動方向の情報が記載される。図5に示す例では、grasp1のワークの可動方向はY軸方向であり、grasp2のワークの可動方向はX軸方向である。   Also, in the tag <move xyz>, information on the moving direction of the workpiece with respect to the workpiece coordinate system in the workpiece 201 to be grasped described in <object name> is described. In the example shown in FIG. 5, the movable direction of the workpiece of grasp1 is the Y-axis direction, and the movable direction of the workpiece of grasp2 is the X-axis direction.

ここで、図6(a)は、図5のgrasp1の情報を示した図であり、図6(b)は、図5のgrasp2の情報を示した図である。図6には、ワーク座標系601及びハンド座標系602が定義されており、また、矢印603及び矢印604は、それぞれ、ワークの可動方向を表わしている。   Here, FIG. 6A is a diagram showing the information on the grace1 in FIG. 5, and FIG. 6B is a diagram showing the information on the grace2 in FIG. 5. In FIG. 6, a work coordinate system 601 and a hand coordinate system 602 are defined, and an arrow 603 and an arrow 604 indicate the movable direction of the work, respectively.

次に、図7を用いて、図3に示す把持位置認識部112について説明する。
図7は、図3に示す把持位置認識部112による把持位置情報の認識処理を説明するための模式図である。
Next, the gripping position recognition unit 112 shown in FIG. 3 will be described with reference to FIG.
FIG. 7 is a schematic diagram for explaining recognition processing of gripping position information by the gripping position recognition unit 112 shown in FIG.

図7に示す把持制御装置110(図3の把持位置認識部112)は、撮像装置130で撮像されたバラ積みワーク画像と、ワーク情報保持部118に保持されているワーク情報とに基づいて、把持対象のワーク201における把持位置に係る把持位置情報を認識する。ここで、物体の位置・姿勢の認識方法については、従来から多数の手法が提案されており、例えば、上記の特許文献2に記載の手法を用いてもよい。   The gripping control device 110 shown in FIG. 7 (the gripping position recognition unit 112 in FIG. 3) is based on the stacked workpiece image captured by the imaging device 130 and the workpiece information held in the workpiece information holding unit 118. The gripping position information related to the gripping position of the workpiece 201 to be gripped is recognized. Here, as a method for recognizing the position / orientation of an object, many methods have been conventionally proposed. For example, the method described in Patent Document 2 may be used.

続いて、図3に示す把持位置認識部112は、ロボット120がハンド121を把持対象のワーク201に設定された把持可能な位置まで移動する経路を生成できるか否かを判定する。ここで、経路を計算する方法としては、ロボットの経路探索の手法として一般的なRRT(Rapidly exploring Random Trees)を用いることができる。この際、RRTを用いる理由は、複雑な経路であっても短時間で経路を探索可能であるためである。そして、ロボット120がハンド121を把持対象のワーク201に設定された把持可能な位置まで移動する経路が生成できる場合、把持位置認識部112は、その位置を把持対象のワーク201の把持可能な位置701とし、これを把持位置情報として認識する。そして、把持位置認識部112は、把持位置情報を環境認識部113と把持方法評価部114に出力する。   Subsequently, the gripping position recognition unit 112 illustrated in FIG. 3 determines whether the robot 120 can generate a path for moving the hand 121 to a grippable position set on the workpiece 201 to be gripped. Here, as a method for calculating a route, RRT (Rapidly expanding Random Trees), which is a general method for searching for a route of a robot, can be used. At this time, the reason for using RRT is that even a complicated route can be searched for in a short time. When the robot 120 can generate a path for moving the hand 121 to the grippable position set for the workpiece 201 to be gripped, the gripping position recognition unit 112 determines the position where the gripperable workpiece 201 can be gripped. 701 is recognized as gripping position information. Then, the grip position recognition unit 112 outputs the grip position information to the environment recognition unit 113 and the grip method evaluation unit 114.

次に、図8を用いて、図3に示す環境認識部113について説明する。
図8は、図3に示す環境認識部113による周囲情報の認識処理を説明するための模式図である。
Next, the environment recognition unit 113 shown in FIG. 3 will be described with reference to FIG.
FIG. 8 is a schematic diagram for explaining surrounding information recognition processing by the environment recognition unit 113 shown in FIG. 3.

環境認識部113は、把持位置認識部112で認識された把持対象のワーク201を取り出す場合に、把持対象のワーク201が置かれている周囲の障害物(周囲のワーク等)を認識する。以下、図8を用いて、把持対象のワーク201が置かれている周囲の障害物(周囲のワーク等)の認識方法について説明する。   When the environment recognition unit 113 takes out the workpiece 201 to be gripped recognized by the gripping position recognition unit 112, the environment recognition unit 113 recognizes an obstacle (such as a surrounding workpiece) around which the workpiece 201 to be gripped is placed. Hereinafter, a method for recognizing surrounding obstacles (such as surrounding workpieces) on which the workpiece 201 to be grasped is placed will be described with reference to FIG.

図8は、撮像装置130により、箱210の内部にバラ積みされたワーク200を撮像して得られたバラ積みワーク画像の一例を示している。本実施形態では、環境認識部113は、事前に、箱210の底面801を、把持対象のワーク201及び他のワーク802、803、804及び805を箱210に納める前に撮像した底面画像を保持する。そして、環境認識部113は、バラ積みワーク画像と底面画像との差分を計算する。そして、環境認識部113は、その差分画像に基づいて、把持位置認識部112で位置姿勢が認識されている把持対象のワーク201の部分をマスクすることで、把持対象のワーク201の周囲の障害物である他のワーク802〜805の配置情報を認識する。即ち、本実施形態においては、環境認識部113は、把持対象のワーク201における周囲状況に係る周囲情報として、把持対象のワーク201における周囲のワーク等の配置情報を認識する。   FIG. 8 shows an example of a loosely stacked workpiece image obtained by imaging the workpieces 200 stacked in the box 210 by the imaging device 130. In this embodiment, the environment recognition unit 113 holds a bottom surface 801 of the box 210 in advance and captures a bottom image captured before the work 201 to be grasped and the other works 802, 803, 804, and 805 are placed in the box 210. To do. Then, the environment recognition unit 113 calculates the difference between the bulkwork workpiece image and the bottom image. Then, the environment recognition unit 113 masks the part of the workpiece 201 to be gripped whose position and orientation are recognized by the gripping position recognition unit 112 on the basis of the difference image, so that the obstacle around the workpiece 201 to be gripped Recognize arrangement information of other works 802 to 805 which are objects. That is, in the present embodiment, the environment recognition unit 113 recognizes arrangement information such as surrounding workpieces in the workpiece 201 to be grasped as surrounding information related to the surrounding situation of the workpiece 201 to be grasped.

次いで、環境認識部113は、把持対象のワーク201と周囲の障害物である他のワーク802、803、804及び805との接触点806を算出する。ここで、図8中の把持対象のワーク201と周囲の障害物である他のワーク802〜805との接触点806は、代表点であり、図8に示されている同様の形状の点は、把持対象のワーク201と周囲の障害物である他のワーク802〜805との接触点である。なお、本実施形態においては、環境認識部113は、把持対象のワーク201における周囲状況に係る周囲情報として、持対象のワーク201と周囲の障害物である他のワーク802〜805との接触点806の情報を認識する態様を適用することも可能である。   Next, the environment recognition unit 113 calculates a contact point 806 between the workpiece 201 to be grasped and other workpieces 802, 803, 804, and 805 that are surrounding obstacles. Here, the contact point 806 between the workpiece 201 to be gripped in FIG. 8 and the other workpieces 802 to 805 which are obstacles in the vicinity is a representative point, and the point of the same shape shown in FIG. This is a contact point between the workpiece 201 to be gripped and other workpieces 802 to 805 as surrounding obstacles. In the present embodiment, the environment recognition unit 113 is a contact point between the workpiece 201 to be held and other workpieces 802 to 805 that are surrounding obstacles as the surrounding information regarding the surrounding situation of the workpiece 201 to be grasped. It is also possible to apply a mode for recognizing information 806.

次に、図9を用いて、図3に示す把持方法評価部114について説明する。
図9は、図3に示す把持方法評価部114による各把持方法の評価処理を説明するための模式図である。
Next, the gripping method evaluation unit 114 shown in FIG. 3 will be described with reference to FIG.
FIG. 9 is a schematic diagram for explaining evaluation processing of each gripping method by the gripping method evaluation unit 114 shown in FIG.

上述したように、把持方法評価部114は、把持位置認識部112で認識された把持位置情報、環境認識部113で認識された周囲情報及び把持形態情報保持部119に保持されている把持形態情報に基づいて、複数の把持方法における各把持方法の評価を行う。ここで、本発明において、把持方法とは、把持位置と把持形態との組み合わせを意味するものとする。   As described above, the gripping method evaluation unit 114 includes the gripping position information recognized by the gripping position recognition unit 112, the surrounding information recognized by the environment recognition unit 113, and the gripping form information held in the gripping form information holding unit 119. Based on the above, each gripping method in a plurality of gripping methods is evaluated. Here, in the present invention, the gripping method means a combination of a gripping position and a gripping form.

図9(a)及び図9(b)は、それぞれ、撮像装置130を用いて、箱210の中にバラ積みされたワーク200を撮像して得られたバラ積みワーク画像である。そして、図9(a)及び図9(b)は、それぞれ、把持位置認識部112で認識された把持位置情報に対して、把持形態情報保持部119から入力した2つの把持形態を適用した状態を示している。   FIG. 9A and FIG. 9B are each a stacked workpiece image obtained by imaging the workpiece 200 stacked in the box 210 using the imaging device 130. 9A and 9B show a state in which the two grip forms input from the grip form information holding unit 119 are applied to the grip position information recognized by the grip position recognition unit 112, respectively. Is shown.

また、図9(c)及び図9(d)は、それぞれ、図9(a)及び図9(b)における把持方法の評価方法を示す図である。図9(c)及び図9(d)において、接触点806は、上述した環境認識部113で算出された把持対象のワーク201と周囲の障害物である他のワークとの接触点である。また、図9(c)及び図9(d)には、それぞれ、把持方法評価部114による評価を行う際に設定される評価範囲901及び評価範囲902が示されており、これらの評価範囲は、把持方法ごとに定義される。加えて、図9(c)及び図9(d)に示す例の場合、評価範囲901及び評価範囲902は、把持方法ごとの、把持対象のワーク201の可動方向に存在する把持対象のワーク201の面に設定される。   Moreover, FIG.9 (c) and FIG.9 (d) are the figures which show the evaluation method of the holding | grip method in FIG.9 (a) and FIG.9 (b), respectively. In FIG. 9C and FIG. 9D, a contact point 806 is a contact point between the workpiece 201 to be gripped calculated by the environment recognition unit 113 and another workpiece that is an obstacle around. 9C and 9D show an evaluation range 901 and an evaluation range 902 that are set when an evaluation is performed by the grasping method evaluation unit 114, respectively. , Defined for each gripping method. In addition, in the example shown in FIGS. 9C and 9D, the evaluation range 901 and the evaluation range 902 are the gripping target workpiece 201 that exists in the movable direction of the gripping target workpiece 201 for each gripping method. Is set to the face.

次いで、把持方法評価部114は、それぞれ、評価範囲901及び評価範囲902に属する接触点806の数を合計した値の逆数を、当該評価範囲に係る把持方法の評価値とする。具体的に、評価値Vは、以下の(1)式で示される。この以下の(1)式において、「p」は、評価範囲における接触点806の数である。   Next, the gripping method evaluation unit 114 sets the reciprocal of the sum of the numbers of contact points 806 belonging to the evaluation range 901 and the evaluation range 902 as the evaluation value of the gripping method related to the evaluation range. Specifically, the evaluation value V is expressed by the following equation (1). In the following equation (1), “p” is the number of contact points 806 in the evaluation range.

ここで、図9(c)の場合の評価値は、V=1/2となり、また、図9(d)の場合の評価値は、V=1/5となる。つまり、評価範囲901及び評価範囲902に存在する接触点806の少ない方が、評価値が高くなる。   Here, the evaluation value in the case of FIG. 9C is V = 1/2, and the evaluation value in the case of FIG. 9D is V = 1/5. That is, the evaluation value is higher when the number of contact points 806 existing in the evaluation range 901 and the evaluation range 902 is smaller.

そして、把持方法評価部114は、算出した各把持方法の評価値を把持方法決定部115に出力する。   Then, the gripping method evaluation unit 114 outputs the calculated evaluation value of each gripping method to the gripping method determination unit 115.

そして、把持方法決定部115は、把持方法評価部114から入力された評価値に基づいて、把持方法を決定する。具体的に、本実施形態においては、把持方法決定部115は、把持方法評価部114から入力された評価値の高い把持方法を、実際に把持対象のワーク201を把持する際の把持方法として決定する。図9に示す例では、図9(a)の把持方法が、実際に把持対象のワーク201を把持する際の把持方法として決定される。   Then, the gripping method determination unit 115 determines a gripping method based on the evaluation value input from the gripping method evaluation unit 114. Specifically, in the present embodiment, the gripping method determination unit 115 determines the gripping method having a high evaluation value input from the gripping method evaluation unit 114 as the gripping method when actually gripping the workpiece 201 to be gripped. To do. In the example shown in FIG. 9, the gripping method of FIG. 9A is determined as a gripping method when actually gripping the workpiece 201 to be gripped.

そして、把持方法決定部115は、決定した把持方法の情報をロボット制御部116に出力する。   Then, the gripping method determination unit 115 outputs information on the determined gripping method to the robot control unit 116.

そして、ロボット制御部116は、把持方法決定部115から入力された把持方法に基づいて、ロボット120とハンド121を制御し、把持対象のワーク201に対するロボット120のハンド121による把持の制御を行う。   Then, the robot control unit 116 controls the robot 120 and the hand 121 based on the gripping method input from the gripping method determination unit 115, and controls gripping of the workpiece 201 to be gripped by the hand 121 of the robot 120.

次に、図10を用いて、本実施形態に係る把持制御装置110による把持制御方法の処理手順について説明する。
図10は、本発明の第1の実施形態に係る把持制御装置110による把持制御方法の処理手順の一例を示すフローチャートである。
Next, the processing procedure of the grip control method by the grip control device 110 according to the present embodiment will be described with reference to FIG.
FIG. 10 is a flowchart illustrating an example of a processing procedure of a grip control method by the grip control device 110 according to the first embodiment of the present invention.

まず、ステップS1001において、把持位置認識部112は、撮像装置130から入力されるバラ積みワーク画像と、ワーク情報保持部118に保持されているワーク情報とに基づいて、把持対象のワーク201を認識する。   First, in step S <b> 1001, the gripping position recognition unit 112 recognizes the workpiece 201 to be gripped based on the stacked workpiece image input from the imaging device 130 and the workpiece information held in the workpiece information holding unit 118. To do.

続いて、ステップS1002において、把持位置認識部112は、撮像装置130から入力されるバラ積みワーク画像と、ワーク情報保持部118に保持されているワーク情報とに基づいて、ハンド121が把持対象のワーク201を把持可能な位置を認識する。即ち、把持位置認識部112は、把持対象のワーク201における把持位置に係る把持位置情報を認識する。   Subsequently, in step S <b> 1002, the gripping position recognition unit 112 determines that the hand 121 is a gripping target based on the stacked workpiece image input from the imaging device 130 and the workpiece information held in the workpiece information holding unit 118. A position where the workpiece 201 can be gripped is recognized. In other words, the gripping position recognition unit 112 recognizes gripping position information related to the gripping position of the workpiece 201 to be gripped.

続いて、ステップS1003において、環境認識部113は、撮像装置130から入力されるバラ積みワーク画像、ステップS1002で認識された把持位置情報及びワーク情報保持部118に保持されているワーク情報に基づいて、把持対象のワーク201における周囲状況に係る周囲情報を認識する。   Subsequently, in step S <b> 1003, the environment recognition unit 113 is based on the stacked workpiece image input from the imaging device 130, the grip position information recognized in step S <b> 1002, and the workpiece information held in the workpiece information holding unit 118. Then, the surrounding information related to the surrounding state of the workpiece 201 to be grasped is recognized.

続いて、ステップS1004において、把持方法評価部114は、ステップS1002で認識された把持位置情報、ステップS1003で認識された周囲情報及び把持形態情報保持部119に保持されている把持形態情報に基づいて、複数の把持方法における各把持方法の評価を行って、各把持方法ごとに、上述した評価値を算出する。   Subsequently, in step S1004, the gripping method evaluation unit 114 is based on the gripping position information recognized in step S1002, the surrounding information recognized in step S1003, and the gripping form information held in the gripping form information holding part 119. Evaluation of each gripping method in a plurality of gripping methods is performed, and the above-described evaluation value is calculated for each gripping method.

ステップS1005において、まず、把持方法決定部115は、ステップS114で評価された把持方法のうち、評価値が最も高い把持方法を、実際に把持対象のワーク201を把持する際の把持方法として決定する(把持方法決定ステップ)。次いで、ロボット制御部116は、把持方法決定部115から入力された把持方法に基づいて、ロボット120とハンド121を制御し、ロボット120のハンド121に、把持方法決定部115から入力された把持方法で把持対象のワーク201を把持させる。   In step S1005, the gripping method determination unit 115 first determines the gripping method having the highest evaluation value among the gripping methods evaluated in step S114 as the gripping method when actually gripping the workpiece 201 to be gripped. (Gripping method determination step). Next, the robot control unit 116 controls the robot 120 and the hand 121 based on the gripping method input from the gripping method determination unit 115, and the gripping method input from the gripping method determination unit 115 to the hand 121 of the robot 120. To grip the workpiece 201 to be gripped.

続いて、ステップS1006において、制御部111は、ロボット120のハンド121による把持対象のワーク201の搬送を完了したか否かを判断する。   Subsequently, in step S <b> 1006, the control unit 111 determines whether or not the conveyance of the workpiece 201 to be grasped by the hand 121 of the robot 120 has been completed.

ステップS1006の判断の結果、ロボット120のハンド121による把持対象のワーク201の搬送が完了していない場合には(S1006/NO)、ステップS1007に進む。
ステップS1007に進むと、ロボット制御部116は、ロボット120とハンド121を制御し、把持対象のワーク201の搬送処理を行う。その後、ステップS1006に戻る。
As a result of the determination in step S1006, when the conveyance of the workpiece 201 to be grasped by the hand 121 of the robot 120 is not completed (S1006 / NO), the process proceeds to step S1007.
In step S1007, the robot control unit 116 controls the robot 120 and the hand 121, and performs a transfer process of the workpiece 201 to be grasped. Thereafter, the process returns to step S1006.

一方、ステップS1006の判断の結果、ロボット120のハンド121による把持対象のワーク201の搬送が完了した場合には(S1006/YES)、図10のフローチャートの処理を終了する。   On the other hand, as a result of the determination in step S1006, when the conveyance of the workpiece 201 to be grasped by the hand 121 of the robot 120 is completed (S1006 / YES), the processing of the flowchart in FIG.

本実施形態では、把持対象のワーク201における把持位置に係る把持位置情報、把持対象のワーク201における周囲状況に係る周囲情報、及び、ロボット120のハンド121における把持形態に係る把持形態情報(例えば、ハンド121の把持形態における把持対象のワーク201の可動方向の情報)に基づいて、把持対象のワーク201を把持する際の把持方法を決定するようにしている。
かかる構成によれば、把持したワークを箱等から取り出す際に、当該把持したワークが他のワークに与える影響を減少させることができる。その結果、当該把持したワーク及び他のワークの脱落や破損といった不具合が生じる可能性を低減させることができる。
In this embodiment, gripping position information related to the gripping position of the workpiece 201 to be gripped, surrounding information related to the surrounding state of the workpiece 201 to be gripped, and gripping mode information related to the gripping form of the hand 121 of the robot 120 (for example, The gripping method for gripping the workpiece 201 to be gripped is determined based on the information on the moving direction of the workpiece 201 to be gripped in the gripping form of the hand 121.
According to this configuration, when the gripped work is taken out from the box or the like, the influence of the gripped work on other workpieces can be reduced. As a result, it is possible to reduce the possibility of problems such as dropping or breakage of the gripped workpiece and other workpieces.

(第2の実施形態)
次に、本発明の第2の実施形態について説明する。
(Second Embodiment)
Next, a second embodiment of the present invention will be described.

上述した第1の実施形態では、ワーク情報保持部118に保持されるワーク情報として、バラ積みされたワーク200(把持対象のワーク201を含む)における形状の情報を含む形態について説明を行った。第2の実施形態では、ワーク情報保持部118に保持されるワーク情報として、上述した形状の情報に加えて、把持対象のワーク201等における、滑りやすさの情報、壊れやすさの情報、絡まりやすさの情報、及び、柔軟性の情報を含むものとする。そして、ワーク情報保持部118に保持される上述のワーク情報を用いて、把持対象のワーク201を把持する際の把持方法を決定することで、当該把持したワーク及び他のワークの脱落や破損といった不具合が生じる可能性を低減させることができる。   In the above-described first embodiment, the description has been given of the form including the information on the shape of the stacked workpiece 200 (including the workpiece 201 to be grasped) as the workpiece information held in the workpiece information holding unit 118. In the second embodiment, as the work information held in the work information holding unit 118, in addition to the shape information described above, the slipperiness information, the breakability information, the entanglement in the workpiece 201 to be gripped, and the like. Information on ease and information on flexibility are included. Then, by using the above-described workpiece information held in the workpiece information holding unit 118, a gripping method for gripping the workpiece 201 to be gripped is determined, so that the gripped workpiece and other workpieces are dropped or damaged. It is possible to reduce the possibility of occurrence of defects.

第2の実施形態に係る把持制御システムの概略構成は、図1に示す第1の実施形態に係る把持制御システム100の概略構成と同様である。また、第2の実施形態に係る把持制御装置の内部構成は、図3に示す第1の実施形態に係る把持制御装置110の内部構成と同様である。   The schematic configuration of the grip control system according to the second embodiment is the same as the schematic configuration of the grip control system 100 according to the first embodiment shown in FIG. The internal configuration of the grip control device according to the second embodiment is the same as the internal configuration of the grip control device 110 according to the first embodiment shown in FIG.

第2の実施形態に係る把持制御装置110の内部構成は、図3に示すものとなるが、第1の実施形態とは、ワーク情報保持部118に保持されるワーク情報の内容、及び、把持方法評価部114の処理内容が異なるため、以下、この異なる部分について説明する。また、この異なる部分以外の他の部分については、説明を省略する。   The internal configuration of the grip control device 110 according to the second embodiment is as shown in FIG. 3, but the first embodiment differs from the content of the work information held in the work information holding unit 118 and the gripping. Since the processing contents of the method evaluation unit 114 are different, the different parts will be described below. Further, description of other parts other than the different parts will be omitted.

図11及び図12を用いて、本実施形態のワーク情報保持部118に保持されるワーク情報の保持方法、及び、ワーク情報に含まれる項目について説明する。
図11は、本発明の第2の実施形態を示し、図3に示すワーク情報保持部118に保持されるワーク情報の保持方法、及び、ワーク情報に含まれる項目の一例を示す図である。また、図12は、図11に示すワーク情報を説明するための模式図である。
The work information holding method held in the work information holding unit 118 according to the present embodiment and items included in the work information will be described with reference to FIGS. 11 and 12.
FIG. 11 is a diagram illustrating an example of items included in the work information and the work information holding method held in the work information holding unit 118 shown in FIG. 3 according to the second embodiment of this invention. FIG. 12 is a schematic diagram for explaining the work information shown in FIG.

本実施形態のワーク情報保持部118には、図11に示すように、図4を用いて説明した第1の実施形態におけるワーク情報の項目に加えて、タグ<plane>、タグ<slipperiness>、タグ<flimsiness>、タグ<complicateness>、及び、タグ<flexibleness>の項目を含むワーク情報が保持されている。   As shown in FIG. 11, the work information holding unit 118 of the present embodiment includes a tag <plane>, a tag <slippersiness>, in addition to the work information items in the first embodiment described with reference to FIG. Work information including items of a tag <flimcesses>, a tag <complementess>, and a tag <flexibleness> is held.

タグ<plane>は、把持対象のワーク201の形状を構成する1つの面を表わすタグである。このタグ<plane>について、図12を用いて説明する。
図12に示す面1201、1202、1203及び1204は、それぞれ、把持対象のワーク201を構成している面である。図12に示す面1201、1202、1203及び1204は、それぞれ、図11に示すタグ<plane>のplane_1、plane_2、plane_3及びplane_4に対応している。また、タグ<plane>は、図11に示すように、把持対象のワーク201の表面の状態を表わすタグを有している。各タグが意味するワーク表面の状態について以下に説明する。
The tag <plane> is a tag representing one surface constituting the shape of the workpiece 201 to be grasped. This tag <plane> will be described with reference to FIG.
Surfaces 1201, 1202, 1203, and 1204 illustrated in FIG. 12 are surfaces constituting the workpiece 201 to be grasped, respectively. The planes 1201, 1202, 1203, and 1204 illustrated in FIG. 12 correspond to the plane_1, plane_2, plane_3, and plane_4 of the tag <plane> illustrated in FIG. 11, respectively. Further, the tag <plane> has a tag representing the state of the surface of the workpiece 201 to be grasped, as shown in FIG. The state of the workpiece surface that each tag means will be described below.

タグ<slipperiness>は滑りやすさの情報を示し、タグ<flimsiness>は壊れやすさの情報を示し、タグ<complicateness>は絡まりやすさの情報を示し、タグ<flexibleness>は柔軟性の情報を示す。この各タグに設定されている値については、把持方法評価部114の説明で後述する。   The tag <slippersiness> indicates slipperiness information, the tag <flimsiness> indicates fragility information, the tag <complementess> indicates entanglement information, and the tag <flexibleness> indicates flexibility information . The value set for each tag will be described later in the description of the gripping method evaluation unit 114.

次に、本実施形態における把持方法評価部114について説明する。
本実施形態の把持方法評価部114は、第1の実施形態の把持方法評価部114における評価値の算出に対して、把持対象のワーク201における、滑りやすさの情報、壊れやすさの情報、絡まりやすさの情報及び柔軟性の情報を更に考慮したものである。具体的に、評価値Vは、以下の(2)式で示される。
Next, the gripping method evaluation unit 114 in this embodiment will be described.
The gripping method evaluation unit 114 of the present embodiment, for the evaluation value calculation in the gripping method evaluation unit 114 of the first embodiment, information on the ease of slipping, information on the fragility of the workpiece 201 to be gripped, It further takes into account the information on the ease of entanglement and the information on flexibility. Specifically, the evaluation value V is expressed by the following equation (2).

この評価値Vは、各把持方法ごとに算出される。この(2)式において、「slp」は滑りやすさを表わす係数、「flm」は壊れやすさを表わす係数、「com」は絡まりやすさを表わす係数、「flx」は柔軟性を表わす係数である。また、この(2)式において、各係数名の後にvが続いている変数は、図11のタグ<slipperiness>、タグ<flimsiness>、タグ<complicateness>、タグ<flexibleness>に付与されている値である。これは、把持対象のワーク201の面ごとに、滑りやすさ、壊れやすさ、絡まりやすさ、柔軟性を設定できる。また、この(2)式において、各係数名の後にnが続いている変数は、図8で説明した接触点の数である。また、この(2)式において、「other」は、表面の状態を表わすタグが存在しない面に対する接触点の数である。   This evaluation value V is calculated for each gripping method. In this equation (2), “slp” is a coefficient representing slipperiness, “flm” is a coefficient representing breakability, “com” is a coefficient representing ease of entanglement, and “flx” is a coefficient representing flexibility. is there. Also, in this equation (2), the variable followed by v after each coefficient name is the value given to the tag <slippersiness>, tag <flimnessness>, tag <complementess>, and tag <flexibleness> in FIG. It is. This can set slipperiness, fragility, entanglement, and flexibility for each surface of the workpiece 201 to be gripped. In the equation (2), the variable in which n follows each coefficient name is the number of contact points described with reference to FIG. In the equation (2), “other” is the number of contact points with respect to a surface where no tag representing the surface state exists.

本実施形態では、ワーク情報保持部118に保持されるワーク情報として、第1の実施形態で説明した形状の情報に加えて、滑りやすさの情報、壊れやすさの情報、絡まりやすさの情報、及び、柔軟性の情報を含むものとしている。そして、ワーク情報保持部118に保持される上述のワーク情報を用いて、把持対象のワークを把持する際の把持方法を決定することで、当該把持したワーク及び他のワークの脱落や破損といった不具合が生じる可能性を低減させることができる。   In the present embodiment, as the work information held in the work information holding unit 118, in addition to the shape information described in the first embodiment, the slipperiness information, the breakability information, and the entanglement information And information on flexibility. Then, by using the above-described work information held in the work information holding unit 118 to determine a gripping method when gripping the work to be gripped, a problem such as dropping or breakage of the gripped work and other work Can reduce the possibility of occurrence.

(第3の実施形態)
次に、本発明の第3の実施形態について説明する。
(Third embodiment)
Next, a third embodiment of the present invention will be described.

上述した第1の実施形態では、環境認識部113で認識する周囲情報として、把持対象のワーク201における周囲のワーク等の配置情報や持対象のワーク201と周囲のワーク等との接触点の情報を適用する形態であった。第3の実施形態では、環境認識部113で認識する周囲情報として、把持対象のワーク201に対して周囲のワークから作用する力の情報やロボット120のハンド121を用いて把持対象のワーク201を移動させることで生じる力の情報を適用する形態である。そして、環境認識部113で認識される上述の周囲情報を用いて、把持対象のワーク201を把持する際の把持方法を決定することで、把持対象のワーク201を取り出す際に把持したワークが可動することにより把持したワークが他のワークに与える影響を減少させることができる。その結果、把持したワーク及び他のワークの脱落や破損といった不具合が生じる可能性を低減させることができる。   In the first embodiment described above, as the surrounding information recognized by the environment recognition unit 113, the arrangement information of the surrounding workpieces in the workpiece 201 to be grasped and the information on the contact points between the holding workpiece 201 and the surrounding workpieces, etc. It was a form to apply. In the third embodiment, as the surrounding information recognized by the environment recognition unit 113, the gripping target work 201 is detected using information on the force acting on the gripping target work 201 from the surrounding work or the hand 121 of the robot 120. This is a form in which information on force generated by movement is applied. Then, by using the above-described surrounding information recognized by the environment recognition unit 113, a gripping method for gripping the gripping workpiece 201 is determined, so that the gripped workpiece can be moved when the gripping target workpiece 201 is taken out. By doing so, the influence of the gripped workpiece on other workpieces can be reduced. As a result, it is possible to reduce the possibility of problems such as dropping or breakage of the gripped workpiece and other workpieces.

第3の実施形態に係る把持制御システムの概略構成は、図1に示す第1の実施形態に係る把持制御システム100の概略構成と同様である。また、第3の実施形態に係る把持制御装置の内部構成は、図3に示す第1の実施形態に係る把持制御装置110の内部構成と同様である。   The schematic configuration of the grip control system according to the third embodiment is the same as the schematic configuration of the grip control system 100 according to the first embodiment shown in FIG. The internal configuration of the grip control device according to the third embodiment is the same as the internal configuration of the grip control device 110 according to the first embodiment shown in FIG.

第3の実施形態に係る把持制御装置110の内部構成は、図3に示すものとなるが、第1の実施形態とは、環境認識部113の処理内容、及び、把持方法評価部114の処理内容が異なるため、以下、この異なる部分について説明する。また、この異なる部分以外の他の部分については、説明を省略する。   The internal configuration of the grip control device 110 according to the third embodiment is as shown in FIG. 3, but the first embodiment differs from the processing content of the environment recognition unit 113 and the processing of the gripping method evaluation unit 114. Since the contents are different, the different parts will be described below. Further, description of other parts other than the different parts will be omitted.

図13を用いて、本実施形態の、環境認識部113の処理内容、及び、把持方法評価部114の処理内容について説明する。
図13は、本発明の第3の実施形態を示し、図3に示す環境認識部113の処理内容及び把持方法評価部114の処理内容を説明するための模式図である。ここで、図13(a)及び図13(b)は、それぞれ、ロボット120のハンド121が把持対象のワーク201を異なる把持方法で把持している様子を示している。
The processing content of the environment recognition unit 113 and the processing content of the gripping method evaluation unit 114 according to this embodiment will be described with reference to FIG.
FIG. 13 is a schematic diagram for explaining the processing content of the environment recognition unit 113 and the processing content of the grasping method evaluation unit 114 shown in FIG. 3 according to the third embodiment of the present invention. Here, FIG. 13A and FIG. 13B each show a state where the hand 121 of the robot 120 is gripping the workpiece 201 to be gripped by different gripping methods.

図13(a)及び図13(b)において、本実施形態の環境認識部113は、把持対象のワーク201の周囲の障害物である他のワーク804を認識する。さらに、本実施形態の環境認識部113は、接触点806に生じる力1301の情報を周囲情報として算出して認識する。   13A and 13B, the environment recognition unit 113 of this embodiment recognizes another workpiece 804 that is an obstacle around the workpiece 201 to be grasped. Furthermore, the environment recognition unit 113 of this embodiment calculates and recognizes information on the force 1301 generated at the contact point 806 as ambient information.

次に、本実施形態の把持方法評価部114による評価値の算出方法について説明する。具体的に、本実施形態では、把持方法評価部114は、評価値Vを、以下の(3)式を用いて算出する。この(3)式で表す評価値Vは、把持対象のワーク201に対して周囲のワークから作用する力によってハンド121に生じる力の逆数を示している。   Next, a method for calculating an evaluation value by the gripping method evaluation unit 114 of this embodiment will be described. Specifically, in the present embodiment, the gripping method evaluation unit 114 calculates the evaluation value V using the following expression (3). The evaluation value V expressed by the equation (3) indicates the reciprocal of the force generated in the hand 121 by the force acting on the workpiece 201 to be grasped from the surrounding workpiece.

この(3)式において、「free」は、図13(a)及び図13(b)における各把持方法の自由度で決まる係数である。図13(a)では、把持対象のワーク201が可動する方向に力が加わるので、freeの値は1よりも低い数値になる。例えば、図13(a)の把持方法では、freeの値を0.4に設定する。また、図13(b)では、把持対象のワーク201が可動する方向と異なる方向に力が加わるので、freeの値は1となる。また、この(3)式において、「r」は、図13(a)及び図13(b)のそれぞれのハンド121の把持方法における、ハンド121との接触点1304及び1305から、接触点806までの長さである。また、この(3)式において、「F」は、接触点806に生じる力Fである。また、この(3)式において、「θ」は、力Fの方向の垂直方向とrとがなす角度である。   In this equation (3), “free” is a coefficient determined by the degree of freedom of each gripping method in FIGS. 13 (a) and 13 (b). In FIG. 13A, a force is applied in the direction in which the workpiece 201 to be gripped moves, so the value of free is a value lower than 1. For example, in the gripping method of FIG. 13A, the value of free is set to 0.4. In FIG. 13B, the force is applied in a direction different from the direction in which the workpiece 201 to be gripped moves, so the value of free is 1. In the equation (3), “r” is from contact points 1304 and 1305 to the hand 121 to the contact point 806 in the gripping method of the hand 121 in FIGS. 13A and 13B. Is the length of In the formula (3), “F” is a force F generated at the contact point 806. In the equation (3), “θ” is an angle formed by r and a direction perpendicular to the direction of the force F.

また、本実施形態においては、実際に把持対象のワーク201をハンド121を把持した状態で、図13に示す方向1306及び1307のように、ハンド121を微小に動作させることにより、実際に把持対象のワーク201に力を作用させて、生じた力を計測して評価してもよい。即ち、この場合、環境認識部113は、ロボット120のハンド121を用いて把持対象のワーク201を移動させることで生じる力の情報を周囲情報として認識する態様となる。この態様を採用する場合、ハンド121を微小に動作させた際に生じた力をFとすると、把持方法評価部114は、評価値Vを、以下の(4)式を用いて算出する。   Further, in the present embodiment, by actually moving the hand 121 minutely as in the directions 1306 and 1307 shown in FIG. A force may be applied to the workpiece 201 and the generated force may be measured and evaluated. That is, in this case, the environment recognizing unit 113 recognizes force information generated by moving the workpiece 201 to be grasped using the hand 121 of the robot 120 as surrounding information. When this mode is adopted, assuming that the force generated when the hand 121 is slightly operated is F, the gripping method evaluation unit 114 calculates the evaluation value V using the following equation (4).

本実施形態では、環境認識部113で認識する周囲情報として、把持対象のワーク201に対して周囲のワークから作用する力の情報やロボット120のハンド121を用いて把持対象のワーク201を移動させることで生じる力の情報を適用している。そして、この周囲情報を用いて、把持対象のワーク201を把持する際の把持方法を決定することで、把持対象のワーク201を取り出す際に把持したワークが可動することにより把持したワークが他のワークに与える影響を減少させることができる。その結果、把持したワーク及び他のワークの脱落や破損といった不具合が生じる可能性を低減させることができる。   In this embodiment, as the surrounding information recognized by the environment recognition unit 113, the gripping target workpiece 201 is moved using the information on the force acting on the gripping target workpiece 201 from the surrounding workpiece or the hand 121 of the robot 120. The information on the force generated by this is applied. Then, by determining the gripping method when gripping the workpiece 201 to be gripped using this surrounding information, the gripped workpiece is moved when the gripped workpiece 201 is taken out, so that the gripped workpiece can be The influence on the workpiece can be reduced. As a result, it is possible to reduce the possibility of problems such as dropping or breakage of the gripped workpiece and other workpieces.

(第4の実施形態)
次に、本発明の第4の実施形態について説明する。
(Fourth embodiment)
Next, a fourth embodiment of the present invention will be described.

上述した第1の実施形態では、ワーク情報保持部118に保持されるワーク情報として、バラ積みされたワーク200(把持対象のワーク201を含む)における形状の情報を含む形態について説明を行った。第4の実施形態では、ワーク情報保持部118に保持されるワーク情報として、把持対象のワーク201等における把持方法の優先度の情報を含むものとする。そして、ワーク情報保持部118に保持される上述のワーク情報を用いて、把持対象のワーク201を把持する際の把持方法を決定する。これにより、把持したワークを取り出す際に把持したワークが可動することで、把持したワークが他のワークに与える影響を減少させることができる。その結果、把持したワーク及び他のワークの脱落や破損といった不具合が生じる可能性を低減させることができる。   In the above-described first embodiment, the description has been given of the form including the information on the shape of the stacked workpiece 200 (including the workpiece 201 to be grasped) as the workpiece information held in the workpiece information holding unit 118. In the fourth embodiment, the workpiece information held in the workpiece information holding unit 118 includes information on the priority of the gripping method in the workpiece 201 to be gripped. Then, a gripping method for gripping the workpiece 201 to be gripped is determined using the above-described workpiece information held in the workpiece information holding unit 118. As a result, the gripped work moves when the gripped work is taken out, so that the influence of the gripped work on other works can be reduced. As a result, it is possible to reduce the possibility of problems such as dropping or breakage of the gripped workpiece and other workpieces.

第4の実施形態に係る把持制御システムの概略構成は、図1に示す第1の実施形態に係る把持制御システム100の概略構成と同様である。また、第4の実施形態に係る把持制御装置の内部構成は、図3に示す第1の実施形態に係る把持制御装置110の内部構成と同様である。   The schematic configuration of the grip control system according to the fourth embodiment is the same as the schematic configuration of the grip control system 100 according to the first embodiment shown in FIG. The internal configuration of the grip control device according to the fourth embodiment is the same as the internal configuration of the grip control device 110 according to the first embodiment shown in FIG.

第4の実施形態に係る把持制御装置110の内部構成は、図3に示すものとなるが、第1の実施形態とは、ワーク情報保持部118に保持されるワーク情報の内容、及び、把持方法評価部114の処理内容が異なるため、以下、この異なる部分について説明する。また、この異なる部分以外の他の部分については、説明を省略する。   The internal configuration of the grip control device 110 according to the fourth embodiment is as shown in FIG. 3. The first embodiment is different from the first embodiment in the contents of work information held in the work information holding unit 118 and gripping. Since the processing contents of the method evaluation unit 114 are different, the different parts will be described below. Further, description of other parts other than the different parts will be omitted.

まず、図14を用いて、本実施形態のワーク情報保持部118に保持されるワーク情報の保持方法、及び、ワーク情報に含まれる項目について説明する。
図14は、本発明の第4の実施形態を示し、図3に示すワーク情報保持部118に保持されるワーク情報の保持方法、及び、ワーク情報に含まれる項目の一例を示す図である。
First, the work information holding method held in the work information holding unit 118 of this embodiment and items included in the work information will be described with reference to FIG.
FIG. 14 shows a fourth embodiment of the present invention, and is a diagram showing an example of a work information holding method held in the work information holding unit 118 shown in FIG. 3 and items included in the work information.

本実施形態のワーク情報保持部118のワーク情報は、図4を用いて説明した第1の実施形態におけるワーク情報とは異なり、図14に示すタグ<shape>には、3次元形状を表現するデータフォーマットで保存されたファイルのファイル名が指定されている。このようにワークの形状を指定することで、任意形状のワークのワーク情報を保持することができる。   Unlike the work information in the first embodiment described with reference to FIG. 4, the work information in the work information holding unit 118 of the present embodiment represents a three-dimensional shape in the tag <shape> illustrated in FIG. 14. The file name of the file saved in the data format is specified. By specifying the shape of the workpiece in this way, the workpiece information of the workpiece having an arbitrary shape can be held.

また、本実施形態のワーク情報保持部118には、図14に示すように、タグ<priority>の項目を含むワーク情報が保持されている。このタグ<priority>は、把持方法の優先度の情報を示している。この図14に示す例では、記載されている値の小さい方が把持方法の優先度が高いことを示している。   In addition, as shown in FIG. 14, the work information holding unit 118 of this embodiment holds work information including an item of the tag <priority>. This tag <priority> indicates the priority information of the gripping method. In the example shown in FIG. 14, the smaller the value indicated, the higher the priority of the gripping method.

また、タグ<priority>には、図14に示すように、把持可能な位置情報を示すタグ<xyz>と、把持形態情報を示すタグ<grasp_name>が含まれている。この際、タグ<xyz>にはワーク座標系の位置が記載され、タグ<grasp_name>には把持形態情報保持部119で保持している把持形態情報に付与された名前が記載される。   Further, as shown in FIG. 14, the tag <priority> includes a tag <xyz> indicating position information that can be gripped and a tag <grasp_name> indicating gripping form information. At this time, the position of the work coordinate system is described in the tag <xyz>, and the name given to the gripping form information held by the gripping form information holding unit 119 is written in the tag <grasp_name>.

次に、図15を用いて、本実施形態の把持方法評価部114について説明する。
図15は、本発明の第4の実施形態を示し、図3に示す把持方法評価部114の処理内容を説明するための模式図である。ここで、図15(a)及び図15(b)は、それぞれ、ロボット120のハンド121が把持対象のワーク1501を異なる把持方法で把持している様子を示している。
Next, the gripping method evaluation unit 114 of this embodiment will be described with reference to FIG.
FIG. 15 is a schematic diagram for explaining the processing content of the grasping method evaluation unit 114 shown in FIG. 3 according to the fourth embodiment of the present invention. Here, FIGS. 15A and 15B show a state in which the hand 121 of the robot 120 is gripping the workpiece 1501 to be gripped by different gripping methods.

また、図15(a)及び図15(b)の把持方法は、それぞれ、ワーク情報保持部118によってその優先度の情報が保持されている。ワーク情報保持部118は、図14に示すワーク情報において、図15(b)に示す把持方法の優先度を2とし、図15(a)に示す把持方法の優先度を1としている。つまり、本例では、図15(a)に示す把持方法の方が、図15(b)に示す把持方法よりも優先度が高く設定されている。   In addition, in the gripping methods of FIGS. 15A and 15B, the priority information is held by the work information holding unit 118, respectively. In the work information shown in FIG. 14, the work information holding unit 118 sets the priority of the gripping method shown in FIG. 15B to 2 and sets the priority of the gripping method shown in FIG. That is, in this example, the gripping method shown in FIG. 15A is set to have a higher priority than the gripping method shown in FIG.

ここで、図15(a)に示す把持方法の方が、図15(b)に示す把持方法よりも、優先度が高い理由について説明する。
把持対象のワーク1501は、図15に示すように、L字形状である。そして、この把持対象のワーク1501におけるL字の突起部分1502に他のワークにより力が生じた場合、図15(a)に示す把持方法では、把持対象のワーク1501が可動することができる。これに対して、図15(b)に示す把持方法では、把持対象のワーク1501が可動することができない。即ち、把持対象のワーク1501に対して、ある方向に力が加わったときに、その力の方向に把持対象のワーク1501が稼働できるように、ロボット120のハンド121が把持対象のワーク1501を把持する。このように把持することで、把持対象のワーク1501に対して加えられた力を逃がすことができるようになり、周囲の物体(周囲のワークを含む)に与える影響を軽減することができる。
Here, the reason why the holding method shown in FIG. 15A has higher priority than the holding method shown in FIG.
The workpiece 1501 to be grasped is L-shaped as shown in FIG. When a force is generated by another workpiece on the L-shaped protrusion 1502 of the workpiece 1501 to be grasped, the workpiece 1501 to be grasped can be moved by the grasping method shown in FIG. On the other hand, with the gripping method shown in FIG. 15B, the workpiece 1501 to be gripped cannot be moved. That is, when a force is applied to a gripping target workpiece 1501 in a certain direction, the hand 121 of the robot 120 grips the gripping target workpiece 1501 so that the gripping target workpiece 1501 can operate in the direction of the force. To do. By gripping in this way, a force applied to the workpiece 1501 to be gripped can be released, and the influence on surrounding objects (including surrounding workpieces) can be reduced.

そして、本実施形態では、把持方法評価部114では、優先度が高い把持方法に高い評価値を付与して、把持方法決定部115に出力する。   In the present embodiment, the gripping method evaluation unit 114 assigns a high evaluation value to the gripping method having a high priority and outputs it to the gripping method determination unit 115.

本実施形態では、ワーク情報保持部118に保持されるワーク情報として、把持対象のワーク201等における把持方法の優先度の情報を含むものとしている。そして、ワーク情報保持部118に保持される上述のワーク情報を用いて、把持方法評価部114で把持方法を評価し、当該評価結果に基づいて把持対象のワークを把持する際の把持方法を決定するようにしている。これにより、把持対象のワーク1501を取り出す際に把持したワークが可動することにより把持したワークが他のワークに与える影響を減少させることができる。その結果、把持したワーク及び他のワークの脱落や破損といった不具合が生じる可能性を低減させることができる。   In the present embodiment, the workpiece information held in the workpiece information holding unit 118 includes information on the priority of the gripping method in the workpiece 201 to be gripped. Then, using the above-described work information held in the work information holding unit 118, the gripping method evaluation unit 114 evaluates the gripping method, and determines the gripping method when gripping the workpiece to be gripped based on the evaluation result. Like to do. Thereby, when the workpiece gripped when the workpiece 1501 to be gripped is taken out, the influence of the gripped workpiece on other workpieces can be reduced. As a result, it is possible to reduce the possibility of problems such as dropping or breakage of the gripped workpiece and other workpieces.

(第5の実施形態)
次に、本発明の第5の実施形態について説明する。
(Fifth embodiment)
Next, a fifth embodiment of the present invention will be described.

上述した第1の実施形態では、環境認識部113で認識する周囲情報として、把持対象のワーク201における周囲のワーク等の配置情報や持対象のワーク201と周囲のワーク等との接触点の情報を適用する形態であった。第5の実施形態では、環境認識部113で認識する周囲情報として、把持対象のワーク201における把持後の取り出し時に、把持対象のワーク201に対して周囲のワークから作用する力の情報を適用する形態である。そして、把持方法決定部115は、環境認識部113で認識される上述の周囲情報を用いて、把持対象のワーク201を把持する際の把持方法を決定する。そして、ロボット制御部116は、ハンド121が把持対象のワーク201を把持した後にハンド121が把持対象のワーク201に加える力の方向に対して最も抵抗が小さくなるように、ハンド121の位置と姿勢を制御する。これにより、把持対象のワーク201を取り出す時に、把持対象のワーク201が他のワークに与える影響を減少させることができる。その結果、把持したワーク及び他のワークの脱落や破損といった不具合が生じる可能性を低減させることができる。   In the first embodiment described above, as the surrounding information recognized by the environment recognition unit 113, the arrangement information of the surrounding workpieces in the workpiece 201 to be grasped and the information on the contact points between the holding workpiece 201 and the surrounding workpieces, etc. It was a form to apply. In the fifth embodiment, as the surrounding information recognized by the environment recognition unit 113, information on the force acting on the gripping target workpiece 201 from the surrounding workpiece is applied to the gripping target workpiece 201 when the gripping target workpiece 201 is taken out after gripping. It is a form. Then, the gripping method determination unit 115 determines a gripping method when gripping the workpiece 201 to be gripped, using the above-described surrounding information recognized by the environment recognition unit 113. Then, the robot controller 116 determines the position and orientation of the hand 121 so that the resistance becomes the smallest with respect to the direction of the force applied by the hand 121 to the gripping work 201 after the hand 121 grips the gripping work 201. To control. Thereby, when taking out the workpiece 201 to be gripped, the influence of the workpiece 201 to be gripped on other workpieces can be reduced. As a result, it is possible to reduce the possibility of problems such as dropping or breakage of the gripped workpiece and other workpieces.

第5の実施形態に係る把持制御システムの概略構成は、図1に示す第1の実施形態に係る把持制御システム100の概略構成と同様である。また、第5の実施形態に係る把持制御装置の内部構成は、図3に示す第1の実施形態に係る把持制御装置110の内部構成と同様である。   The schematic configuration of the grip control system according to the fifth embodiment is the same as the schematic configuration of the grip control system 100 according to the first embodiment shown in FIG. Further, the internal configuration of the grip control device according to the fifth embodiment is the same as the internal configuration of the grip control device 110 according to the first embodiment shown in FIG.

第5の実施形態に係る把持制御装置110の内部構成は、図3に示すものとなるが、第1の実施形態とは、環境認識部113の処理内容、及び、把持方法評価部114の処理内容が異なるため、以下、この異なる部分について説明する。また、この異なる部分以外の他の部分については、説明を省略する。   The internal configuration of the grip control device 110 according to the fifth embodiment is as shown in FIG. 3, but the first embodiment differs from the processing content of the environment recognition unit 113 and the processing of the gripping method evaluation unit 114. Since the contents are different, the different parts will be described below. Further, description of other parts other than the different parts will be omitted.

図16を用いて、本実施形態の、環境認識部113の処理内容、及び、把持方法評価部114の処理内容について説明する。
図16は、本発明の第5の実施形態を示し、図3に示す環境認識部113の処理内容及び把持方法評価部114の処理内容を説明するための模式図である。ここで、図16(a)及び図16(b)は、それぞれ、ロボット120のハンド121が把持対象のワーク201を異なる把持方法で把持している様子を示している。
The processing content of the environment recognition unit 113 and the processing content of the gripping method evaluation unit 114 according to the present embodiment will be described with reference to FIG.
FIG. 16 is a schematic diagram for explaining the processing content of the environment recognition unit 113 and the processing content of the gripping method evaluation unit 114 shown in FIG. 3 according to the fifth embodiment of the present invention. Here, FIG. 16A and FIG. 16B each show a state in which the hand 121 of the robot 120 is gripping the workpiece 201 to be gripped by different gripping methods.

図16(a)及び図16(b)において、本実施形態の環境認識部113は、把持対象のワーク201の周囲の障害物である他のワーク1605を認識する。さらに、本実施形態の環境認識部113は、把持対象のワーク201における把持後の取り出し時に、把持対象のワーク201に対して周囲の障害物である他のワーク1605から作用する力の情報を周囲情報として算出して認識する。   In FIG. 16A and FIG. 16B, the environment recognition unit 113 according to the present embodiment recognizes another workpiece 1605 that is an obstacle around the workpiece 201 to be grasped. Furthermore, the environment recognition unit 113 according to the present embodiment outputs information on the force acting from another work 1605 that is an obstacle around the work 201 to be grasped when the work 201 to be grasped is taken out after grasping. Calculate and recognize as information.

本実施形態の処理内容について具体的に説明する。
図16(a)の搬送経路1601及び搬送経路1602、並びに、図16(b)の搬送経路1603及び搬送経路1604は、それぞれ、図16(a)の把持方法、並びに、図16(b)の把持方法に対して、予め設定されたハンド121による搬送経路である。
The processing content of this embodiment is demonstrated concretely.
The transport path 1601 and the transport path 1602 in FIG. 16A and the transport path 1603 and the transport path 1604 in FIG. 16B are respectively the gripping method in FIG. 16A and the transport path in FIG. This is a conveyance path by the hand 121 set in advance for the gripping method.

ここで、環境認識部113は、搬送経路1601、搬送経路1602、搬送経路1603、搬送経路1604の動作をシミュレーションし、その時に生じる周囲の障害物が把持対象のワーク201に作用する力を時系列に算出する。なお、本実施形態においては、環境認識部113が、周囲の障害物が把持対象のワーク201に作用する力を時系列に算出するものとするが、例えば、把持方法評価部114が算出する形態であってもよい。   Here, the environment recognizing unit 113 simulates the operations of the transport path 1601, the transport path 1602, the transport path 1603, and the transport path 1604, and chronologically represents the force that the surrounding obstacles generated at that time act on the workpiece 201 to be gripped. To calculate. In the present embodiment, the environment recognition unit 113 calculates the force that the surrounding obstacles act on the workpiece 201 to be gripped in time series. For example, the gripping method evaluation unit 114 calculates the force. It may be.

図17は、本発明の第5の実施形態を示し、周囲の障害物である他のワーク1605が把持対象のワーク201に作用する力を時系列に記録した特性図である。ここで、図17において、横軸は時間(秒)を示し、縦軸は力(ニュートン)を示している。また、図17において、グラフ1701は図16(a)の搬送経路1601の特性を示し、グラフ1702は図16(a)の搬送経路1602の特性を示し、グラフ1703は図16(b)の搬送経路1603の特性を示し、グラフ1704は図16(b)の搬送経路1604の特性を示す。   FIG. 17 shows a fifth embodiment of the present invention, and is a characteristic diagram in which forces acting on a workpiece 201 to be grasped by other workpieces 1605 as surrounding obstacles are recorded in time series. Here, in FIG. 17, the horizontal axis indicates time (seconds), and the vertical axis indicates force (Newton). In FIG. 17, a graph 1701 shows the characteristics of the transport path 1601 in FIG. 16A, a graph 1702 shows the characteristics of the transport path 1602 in FIG. 16A, and a graph 1703 shows the transport of FIG. The characteristic of the path 1603 is shown, and the graph 1704 shows the characteristic of the transport path 1604 in FIG.

そして、本実施形態の把持方法評価部114は、評価値Vを、以下の(5)式を用いて算出する。即ち、評価値Vは、時系列の力の値xの最大値の逆数である。   And the grasping method evaluation part 114 of this embodiment calculates the evaluation value V using the following (5) Formula. That is, the evaluation value V is the reciprocal of the maximum value of the time-series force value x.

図17に示す例においては、グラフ1704における力の最大値1705が最小であり、最も評価値が高くなる。即ち、本実施形態では、把持対象のワーク201を把持した後の搬送経路において、ある方向に力が加わったときに、その力の方向に把持対象のワーク201が可動できるように、把持対象のワーク201を把持する。また、このように把持することで、把持対象のワーク201を把持した後の搬送経路において、把持対象のワーク201に対して加えられた力を逃がすことができるようになり、他のワーク1605に与える影響を軽減することができる。   In the example illustrated in FIG. 17, the maximum force value 1705 in the graph 1704 is the minimum, and the evaluation value is the highest. That is, in this embodiment, when a force is applied in a certain direction in the transport path after gripping the workpiece 201 to be gripped, the gripping target workpiece 201 can be moved in the direction of the force. The work 201 is gripped. In addition, by gripping in this way, the force applied to the gripping workpiece 201 can be released in the transport path after gripping the gripping workpiece 201, and other workpieces 1605 can be released. The effect on it can be reduced.

本実施形態では、環境認識部113で認識する周囲情報として、把持対象のワーク201における把持後の取り出し時に、把持対象のワーク201に対して周囲のワークから作用する力の情報を適用している。そして、この周囲情報を用いて、把持対象のワーク201を把持する際の把持方法を決定するようにしている。そして、把持した後にハンド121が把持対象のワーク201に加える力の方向に対して最も抵抗が小さくなるように、ハンドの位置と姿勢を制御することで、把持したワーク及び他のワークの脱落や破損といった不具合が生じる可能性を低減させることができる。   In the present embodiment, as the surrounding information recognized by the environment recognition unit 113, information on the force acting from the surrounding workpiece on the gripping workpiece 201 is applied when the gripping workpiece 201 is taken out after gripping. . The surrounding information is used to determine a gripping method for gripping the workpiece 201 to be gripped. Then, by controlling the position and posture of the hand so that the resistance is the smallest with respect to the direction of the force applied to the workpiece 201 to be gripped after gripping, the gripped workpiece and other workpieces can be removed. It is possible to reduce the possibility of a problem such as breakage.

(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
このプログラム及び当該プログラムを記憶したコンピュータ読み取り可能な記憶媒体は、本発明に含まれる。
(Other embodiments)
The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read and execute the program This process can be realized. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.
This program and a computer-readable storage medium storing the program are included in the present invention.

なお、上述した本発明の実施形態は、いずれも本発明を実施するにあたっての具体化の例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。即ち、本発明はその技術思想、又はその主要な特徴から逸脱することなく、様々な形で実施することができる。   Note that the above-described embodiments of the present invention are merely examples of implementation in practicing the present invention, and the technical scope of the present invention should not be construed as being limited thereto. It is. That is, the present invention can be implemented in various forms without departing from the technical idea or the main features thereof.

100 把持制御装置110、111 制御部、112 把持位置認識部、113 環境認識部、114 把持方法評価部、115 把持方法決定部、116 ロボット制御部、117 保持部、118 ワーク情報保持部、119 把持形態情報保持部 DESCRIPTION OF SYMBOLS 100 Grasping control apparatus 110, 111 Control part, 112 Grasping position recognition part, 113 Environment recognition part, 114 Grasping method evaluation part, 115 Grasping method determination part, 116 Robot control part, 117 Holding part, 118 Work information holding part, 119 Gripping Form information holding unit

Claims (17)

複数のワークの中からロボットのハンドで把持対象のワークを把持して取り出す際に、前記ロボットのハンドによる把持の制御を行う把持制御装置であって、
前記把持対象のワークに係るワーク情報を保持するワーク情報保持部と、
前記ロボットのハンドにおける把持形態に係る把持形態情報を保持する把持形態情報保持部と、
撮像装置により得られた、前記複数のワークにおけるワーク画像と、前記ワーク情報とに基づいて、前記把持対象のワークにおける把持位置に係る把持位置情報および前記把持対象のワークにおける周囲状況に係る周囲情報を認識する認識部と、
前記把持位置情報、前記周囲情報および前記把持形態情報に基づいて、前記把持対象のワークを把持する際の把持方法を決定する把持方法決定部と、
前記把持方法決定部で決定された把持方法に基づいて、前記把持対象のワークに対する前記ロボットのハンドによる把持の制御を行う制御部と
を有することを特徴とする把持制御装置。
A gripping control device for controlling gripping by the robot hand when gripping and taking out a workpiece to be gripped by a robot hand from a plurality of workpieces,
A workpiece information holding unit that holds workpiece information related to the workpiece to be grasped;
A gripping form information holding unit for holding gripping form information related to a gripping form in the robot hand;
Based on the workpiece images of the plurality of workpieces and the workpiece information obtained by the imaging device, the gripping position information related to the gripping position of the gripping target workpiece and the surrounding information related to the surrounding situation of the gripping target workpiece A recognition unit that recognizes
A gripping method determination unit that determines a gripping method when gripping the workpiece to be gripped based on the gripping position information, the surrounding information, and the gripping form information;
A gripping control apparatus comprising: a control unit configured to control gripping of the workpiece to be gripped by the robot hand based on the gripping method determined by the gripping method determination unit.
前記認識部は、
前記ワーク画像と前記ワーク情報とに基づいて、前記把持位置情報を認識する把持位置認識部と、
前記ワーク画像と、前記把持位置認識部で認識された前記把持位置情報と、前記ワーク情報とに基づいて、前記周囲情報を認識する環境認識部と
を含み構成されていることを特徴とする請求項1に記載の把持制御装置。
The recognition unit
A gripping position recognition unit that recognizes the gripping position information based on the workpiece image and the workpiece information;
The environment recognition unit for recognizing the surrounding information based on the work image, the grip position information recognized by the grip position recognition unit, and the work information. Item 2. The grip control device according to Item 1.
前記把持位置情報、前記周囲情報および前記把持形態情報に基づいて、複数の把持方法における各把持方法を評価する把持方法評価部を更に有し、
前記把持方法決定部は、前記把持方法評価部で評価された前記各把持方法の評価値に応じて、前記把持対象のワークを把持する際の把持方法を決定することを特徴とする請求項1または2に記載の把持制御装置。
A gripping method evaluation unit that evaluates each gripping method in a plurality of gripping methods based on the gripping position information, the surrounding information, and the gripping form information;
The gripping method determination unit determines a gripping method for gripping the workpiece to be gripped according to an evaluation value of each gripping method evaluated by the gripping method evaluation unit. Or the holding | grip control apparatus of 2.
前記把持方法評価部は、前記把持位置情報、前記周囲情報および前記把持形態情報におけるワークの可動方向に基づいて、前記各把持方法を評価することを特徴とする請求項3に記載の把持制御装置。   The grip control apparatus according to claim 3, wherein the gripping method evaluation unit evaluates each gripping method based on a moving direction of a workpiece in the gripping position information, the surrounding information, and the gripping form information. . 前記ワーク情報は、前記把持対象のワークにおける形状の情報を含む情報であることを特徴とする請求項1乃至4のいずれか1項に記載の把持制御装置。   The grip control apparatus according to claim 1, wherein the workpiece information is information including information on a shape of the workpiece to be gripped. 前記ワーク情報は、前記把持対象のワークにおける滑りやすさの情報を含む情報であることを特徴とする請求項1乃至4のいずれか1項に記載の把持制御装置。   The grip control device according to claim 1, wherein the workpiece information is information including information on ease of slipping in the workpiece to be gripped. 前記ワーク情報は、前記把持対象のワークにおける壊れやすさの情報を含む情報であることを特徴とする請求項1乃至4のいずれか1項に記載の把持制御装置。   The grip control apparatus according to claim 1, wherein the workpiece information is information including information on fragility of the workpiece to be gripped. 前記ワーク情報は、前記把持対象のワークにおける絡まりやすさの情報を含む情報であることを特徴とする請求項1乃至4のいずれか1項に記載の把持制御装置。   The grip control apparatus according to claim 1, wherein the workpiece information is information including information on the ease of entanglement in the workpiece to be gripped. 前記ワーク情報は、前記把持対象のワークにおける柔軟性の情報を含む情報であることを特徴とする請求項1乃至4のいずれか1項に記載の把持制御装置。   The grip control apparatus according to claim 1, wherein the workpiece information is information including information on flexibility of the workpiece to be gripped. 前記ワーク情報は、前記把持対象のワークにおける把持方法の優先度の情報を含む情報であることを特徴とする請求項1乃至4のいずれか1項に記載の把持制御装置。   The grip control apparatus according to claim 1, wherein the workpiece information is information including information on a priority of a gripping method in the workpiece to be gripped. 前記周囲情報は、前記把持対象のワークにおける周囲のワークの配置情報であることを特徴とする請求項1乃至10のいずれか1項に記載の把持制御装置。   The gripping control apparatus according to any one of claims 1 to 10, wherein the surrounding information is arrangement information of surrounding workpieces in the workpiece to be gripped. 前記周囲情報は、前記把持対象のワークにおける周囲のワークと接触している点の情報であることを特徴とする請求項1乃至10のいずれか1項に記載の把持制御装置。   The gripping control apparatus according to any one of claims 1 to 10, wherein the surrounding information is information on a point in contact with a surrounding workpiece in the workpiece to be gripped. 前記周囲情報は、前記把持対象のワークに対して周囲のワークから作用する力の情報であることを特徴とする請求項1乃至10のいずれか1項に記載の把持制御装置。   The gripping control apparatus according to any one of claims 1 to 10, wherein the surrounding information is information on a force acting from a surrounding workpiece on the workpiece to be gripped. 前記周囲情報は、前記ロボットのハンドを用いて前記把持対象のワークを移動させることで生じる力の情報であることを特徴とする請求項1乃至10のいずれか1項に記載の把持制御装置。   The grip control apparatus according to claim 1, wherein the surrounding information is information on a force generated by moving the workpiece to be gripped using a hand of the robot. 前記周囲情報は、前記把持対象のワークにおける把持後の取り出し時に、前記把持対象のワークに対して周囲のワークから作用する力の情報であることを特徴とする請求項1乃至10のいずれか1項に記載の把持制御装置。   11. The surrounding information is information on a force acting on the workpiece to be gripped from the surrounding workpiece when the workpiece to be gripped is taken out after gripping. The grip control device according to the item. 複数のワークの中からロボットのハンドで把持対象のワークを把持して取り出す際に、前記ロボットのハンドによる把持の制御を行うものであり、前記把持対象のワークに係るワーク情報を保持するワーク情報保持部と、前記ロボットのハンドにおける把持形態に係る把持形態情報を保持する把持形態情報保持部とを備えた把持制御装置による把持制御方法であって、
撮像装置により得られた、前記複数のワークにおけるワーク画像と、前記ワーク情報とに基づいて、前記把持対象のワークにおける把持位置に係る把持位置情報および前記把持対象のワークにおける周囲状況に係る周囲情報を認識する認識ステップと、
前記把持位置情報、前記周囲情報および前記把持形態情報に基づいて、前記把持対象のワークを把持する際の把持方法を決定する把持方法決定ステップと、
前記把持方法決定ステップで決定された把持方法に基づいて、前記把持対象のワークに対する前記ロボットのハンドによる把持の制御を行う制御ステップと
を有することを特徴とする把持制御方法。
Work information for controlling gripping by the robot hand when gripping and taking out the work to be gripped by a robot hand from a plurality of workpieces, and holding work information related to the gripped work A gripping control method by a gripping control device including a holding part and a gripping form information holding part that holds gripping form information related to a gripping form in the robot hand,
Based on the workpiece images of the plurality of workpieces and the workpiece information obtained by the imaging device, the gripping position information related to the gripping position of the gripping target workpiece and the surrounding information related to the surrounding situation of the gripping target workpiece A recognition step for recognizing
A gripping method determination step of determining a gripping method when gripping the workpiece to be gripped based on the gripping position information, the surrounding information, and the gripping form information;
And a control step of controlling gripping of the workpiece to be gripped by the robot hand based on the gripping method determined in the gripping method determination step.
複数のワークの中からロボットのハンドで把持対象のワークを把持して取り出す際に、前記ロボットのハンドによる把持の制御を行うものであり、前記把持対象のワークに係るワーク情報を保持するワーク情報保持部と、前記ロボットのハンドにおける把持形態に係る把持形態情報を保持する把持形態情報保持部とを備えた把持制御装置による把持制御方法をコンピュータに実行させるためのプログラムであって、
撮像装置により得られた、前記複数のワークにおけるワーク画像と、前記ワーク情報とに基づいて、前記把持対象のワークにおける把持位置に係る把持位置情報および前記把持対象のワークにおける周囲状況に係る周囲情報を認識する認識ステップと、
前記把持位置情報、前記周囲情報および前記把持形態情報に基づいて、前記把持対象のワークを把持する際の把持方法を決定する把持方法決定ステップと、
前記把持方法決定ステップで決定された把持方法に基づいて、前記把持対象のワークに対する前記ロボットのハンドによる把持の制御を行う制御ステップと
をコンピュータに実行させるためのプログラム。
Work information for controlling gripping by the robot hand when gripping and taking out the work to be gripped by a robot hand from a plurality of workpieces, and holding work information related to the gripped work A program for causing a computer to execute a gripping control method by a gripping control device including a holding part and a gripping form information holding part that holds gripping form information related to a gripping form in the hand of the robot,
Based on the workpiece images of the plurality of workpieces and the workpiece information obtained by the imaging device, the gripping position information related to the gripping position of the gripping target workpiece and the surrounding information related to the surrounding situation of the gripping target workpiece A recognition step for recognizing
A gripping method determination step of determining a gripping method when gripping the workpiece to be gripped based on the gripping position information, the surrounding information, and the gripping form information;
A program for causing a computer to execute a control step of controlling gripping of the workpiece to be gripped by the robot hand based on the gripping method determined in the gripping method determination step.
JP2015112033A 2015-06-02 2015-06-02 Holding control device, holding control method and program Active JP6632224B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015112033A JP6632224B2 (en) 2015-06-02 2015-06-02 Holding control device, holding control method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015112033A JP6632224B2 (en) 2015-06-02 2015-06-02 Holding control device, holding control method and program

Publications (2)

Publication Number Publication Date
JP2016221647A true JP2016221647A (en) 2016-12-28
JP6632224B2 JP6632224B2 (en) 2020-01-22

Family

ID=57746801

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015112033A Active JP6632224B2 (en) 2015-06-02 2015-06-02 Holding control device, holding control method and program

Country Status (1)

Country Link
JP (1) JP6632224B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018163242A1 (en) * 2017-03-06 2018-09-13 株式会社Fuji Data structure for creating image-processing data and method for creating image-processing data
US11607803B2 (en) 2018-11-21 2023-03-21 Thk Co., Ltd. Image information processing device, gripping system, and image information processing method

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005305613A (en) * 2004-04-23 2005-11-04 Fanuc Ltd Article taking-out device
JP2010089238A (en) * 2008-10-10 2010-04-22 Honda Motor Co Ltd Method for taking out workpiece
WO2012066819A1 (en) * 2010-11-17 2012-05-24 三菱電機株式会社 Work pick-up apparatus
JP2014161965A (en) * 2013-02-26 2014-09-08 Toyota Industries Corp Article takeout device
JP2015009314A (en) * 2013-06-28 2015-01-19 キヤノン株式会社 Interference determination apparatus, interference determination method, and computer program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005305613A (en) * 2004-04-23 2005-11-04 Fanuc Ltd Article taking-out device
JP2010089238A (en) * 2008-10-10 2010-04-22 Honda Motor Co Ltd Method for taking out workpiece
WO2012066819A1 (en) * 2010-11-17 2012-05-24 三菱電機株式会社 Work pick-up apparatus
JP2014161965A (en) * 2013-02-26 2014-09-08 Toyota Industries Corp Article takeout device
JP2015009314A (en) * 2013-06-28 2015-01-19 キヤノン株式会社 Interference determination apparatus, interference determination method, and computer program

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018163242A1 (en) * 2017-03-06 2018-09-13 株式会社Fuji Data structure for creating image-processing data and method for creating image-processing data
JPWO2018163242A1 (en) * 2017-03-06 2019-11-21 株式会社Fuji Data structure for creating image processing data and image processing data creation method
US11607803B2 (en) 2018-11-21 2023-03-21 Thk Co., Ltd. Image information processing device, gripping system, and image information processing method
DE112019005825B4 (en) 2018-11-21 2023-07-27 Thk Co., Ltd. Image information processing device, gripping system and image information processing method

Also Published As

Publication number Publication date
JP6632224B2 (en) 2020-01-22

Similar Documents

Publication Publication Date Title
CN105415370B (en) Article Pickup Apparatus For Picking Up Randomly Piled Articles
JP7491971B2 (en) OBJECT GRASPING METHOD, OBJECT GRASPING PROGRAM, OBJECT GRASPING DEVICE, LEARNING METHOD, LEARNING PROGRAM, AND LEARNING DEVICE
US12064876B2 (en) Determining and utilizing corrections to robot actions
JP2019217632A (en) Deep machine learning method and apparatus for robotic grasping
CN109070365B (en) Object operating device and object operating method
US20190061151A1 (en) Article stacking apparatus and machine learning apparatus
US11794343B2 (en) System and method for height-map-based grasp execution
JP6810173B2 (en) Object grasping system
JP6541397B2 (en) INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING METHOD, AND PROGRAM
JP2009269127A (en) Holding device and method of controlling the same
WO2020022302A1 (en) Grasping device
CN114670189B (en) Storage medium, and method and system for generating control program of robot
JP2022187983A (en) Network modularization to learn high dimensional robot tasks
JP7028092B2 (en) Gripping posture evaluation device and gripping posture evaluation program
JP6632224B2 (en) Holding control device, holding control method and program
JP5544464B2 (en) 3D position / posture recognition apparatus and method for an object
CN114310892B (en) Object grabbing method, device and equipment based on point cloud data collision detection
Moosmann et al. Using deep neural networks to separate entangled workpieces in random bin picking
CN112338922B (en) Five-axis mechanical arm grabbing and placing method and related device
Viturino et al. 6D robotic grasping system using convolutional neural networks and adaptive artificial potential fields with orientation control
CN112171664B (en) Production line robot track compensation method, device and system based on visual identification
Ivanov et al. Bin Picking Pneumatic-Mechanical Gripper for Industrial Manipulators
WO2018161305A1 (en) Grasp quality detection method, and method and system employing same
WO2024053150A1 (en) Picking system
TW202432319A (en) Robot control device, robot system and robot control program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180523

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190408

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190604

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190705

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191112

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191210

R151 Written notification of patent or utility model registration

Ref document number: 6632224

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151