JP2016185573A - Robot system having function to correct target unloading passage - Google Patents

Robot system having function to correct target unloading passage Download PDF

Info

Publication number
JP2016185573A
JP2016185573A JP2015066029A JP2015066029A JP2016185573A JP 2016185573 A JP2016185573 A JP 2016185573A JP 2015066029 A JP2015066029 A JP 2015066029A JP 2015066029 A JP2015066029 A JP 2015066029A JP 2016185573 A JP2016185573 A JP 2016185573A
Authority
JP
Japan
Prior art keywords
target object
determination unit
state determination
proximity state
avoidance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015066029A
Other languages
Japanese (ja)
Other versions
JP6489894B2 (en
Inventor
文和 藁科
Fumikazu Warashina
文和 藁科
順一郎 吉田
Junichiro Yoshida
順一郎 吉田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fanuc Corp
Original Assignee
Fanuc Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fanuc Corp filed Critical Fanuc Corp
Priority to JP2015066029A priority Critical patent/JP6489894B2/en
Publication of JP2016185573A publication Critical patent/JP2016185573A/en
Application granted granted Critical
Publication of JP6489894B2 publication Critical patent/JP6489894B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Manipulator (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a robot system capable of unloading objects one by one without interference with the objects surrounding each target object.SOLUTION: A robot system 10 comprises: a target-object selection unit 21 selecting a target object 31; a proximity state determination unit 22 determining whether another object 32 is disposed proximate to the target object 31; an avoidance vector determination unit 23 determining an avoidance vector to avoid interference with the object 32; an unloading passage correction unit 24 creating a corrected passage by correcting an unloading passage on the basis of the avoidance vector V; and an unloading operation execution unit 25 which, when it is determined that there is no object 32 disposed proximate to the target object 31, unloads the target object 31 in accordance with the unloading passage, and which, when it is determined that the object 32 is disposed proximate to the target object 31, unloads the target object 31 in accordance with the corrected passage.SELECTED DRAWING: Figure 4

Description

本発明は、対象物を1つずつ取出すように構成されたロボットシステムに関する。   The present invention relates to a robot system configured to take out objects one by one.

対象物の位置を表す情報を視覚センサで検出し、検出された情報に基づいてロボットを制御して対象物を取出すように構成されたロボットシステムが公知である。また、複数の対象物の中から対象物を1つずつ取出す場合に、取出工程の効率を向上させるために、対象物を取出す順番を決定することが公知である。   A robot system configured to detect information representing the position of an object with a visual sensor and control the robot based on the detected information to take out the object is known. Moreover, when taking out one object from a plurality of objects one by one, it is known to determine the order in which the objects are taken out in order to improve the efficiency of the taking-out process.

特許文献1には、コンベアによって搬送されるワークの位置情報を取得する視覚センサと、視覚センサから送信されたワークの位置情報に基づいて、複数のワークに対してロボットが作業を行う順番を並び替えるように構成された制御手段と、を備えたハンドリング装置が開示されている。   In Patent Document 1, a visual sensor that acquires position information of a work conveyed by a conveyor, and an order in which a robot performs work on a plurality of works are arranged based on the position information of the work transmitted from the visual sensor. A handling device comprising a control means configured to be replaced is disclosed.

特許文献2には、コンベアによって搬送される対象物の種類、位置、方向などを表す情報を視覚センサによって検出し、検出された情報に基づいて、各々の対象物の移送方向及び通過経路を決定するとともに、他の対象物に接触せずに移送できる対象物を選択する機能を有するシステムが開示されている。   In Patent Document 2, information indicating the type, position, direction, and the like of an object conveyed by a conveyor is detected by a visual sensor, and the transfer direction and passage route of each object are determined based on the detected information. In addition, a system having a function of selecting an object that can be transferred without touching another object is disclosed.

特許文献3には、上下方向に重なり合って置かれた複数のワークをロボットによって取出す際に、ワークが重なり合っている箇所の情報を視覚センサによって取得するとともに、取得された情報に基づいてワークの取出方法を変更する機能を有するロボットシステムが開示されている。   In Patent Document 3, when a plurality of workpieces placed in the vertical direction are picked up by a robot, information on a portion where the workpieces are overlapped is acquired by a visual sensor, and the workpiece is picked up based on the acquired information. A robot system having the function of changing the method is disclosed.

特開2009−297881号公報JP 2009-297881 A 特表2005−536417号公報JP 2005-536417 A 特開2005−305613号公報JP 2005-305613 A 特開昭60−193013号公報Japanese Patent Laid-Open No. 60-193013 特開平8−063214号公報JP-A-8-062214

ところで、対象物をロボットによって順次取出す場合、対象物同士が接触したり、対象物を把持する把持装置が周囲の対象物に接触したりして、周囲の対象物の位置が変化することがある。そのような場合、視覚センサによって対象物を再度撮像して移動後の対象物の位置情報を取得する必要があり、サイクルタイムが増大する。   By the way, when the objects are sequentially taken out by the robot, the positions of the surrounding objects may change due to the objects coming into contact with each other or the gripping device that grips the objects coming into contact with the surrounding objects. . In such a case, it is necessary to capture an image of the object again with a visual sensor and acquire the position information of the object after movement, which increases the cycle time.

コンベアによって対象物が搬送される場合、視覚センサは、ロボットよりも上流に設置されていることがある。そのような場合において、ロボットによる対象物の取出工程において対象物の位置が不意に変化すれば、移動後の対象物の位置情報を視覚センサによって取得できなくなり、対象物の取出しに失敗する虞がある。   When an object is conveyed by a conveyor, the visual sensor may be installed upstream from the robot. In such a case, if the position of the object changes unexpectedly in the object extraction process by the robot, the position information of the object after movement cannot be obtained by the visual sensor, and there is a possibility that the object extraction may fail. is there.

したがって、周囲の対象物と干渉することなく対象物を1つずつ取出すことができるロボットシステムが求められている。   Therefore, there is a need for a robot system that can take out objects one by one without interfering with surrounding objects.

本願の1番目の発明によれば、平面に置かれた複数の対象物の位置を表す情報を視覚センサによって検出し、検出された情報に基づいて前記複数の対象物をロボットによって1つずつ取出経路に従って取出すロボットシステムであって、前記視覚センサによって検出される情報に基づいて、前記ロボットによって取出される目標対象物を選択する目標対象物選択部と、前記視覚センサによって検出される情報に基づいて、前記目標対象物以外の他の対象物が、該目標対象物に近接して配置されているか否かを判定する近接状態判定部と、前記近接状態判定部によって、少なくとも1つの対象物が前記目標対象物に近接して配置されていると判定された場合に、前記視覚センサによって検出される情報に基づいて、前記ロボットによって前記目標対象物を取出す際に、前記少なくとも1つの対象物との干渉が起きないように、前記平面に対して平行な回避方向及び回避量を回避ベクトルとして決定する回避ベクトル決定部と、前記回避ベクトル決定部によって決定される前記回避ベクトルに基づいて、他の対象物との干渉が起きないように前記取出経路を補正した補正経路を作成する取出経路補正部と、前記近接状態判定部によって前記目標対象物に近接して配置されている対象物がないと判定された場合に、前記取出経路に従って前記ロボットを制御して前記目標対象物を取出すとともに、前記近接状態判定部によって少なくとも1つの対象物が前記目標対象物に近接して配置されていると判定された場合に、前記取出経路補正部によって作成された前記補正経路に従って前記目標対象物を取出す取出動作実行部と、を備える、ロボットシステムが提供される。
2番目の発明によれば、1番目の発明に係るロボットシステムにおいて、前記回避ベクトル決定部が、他の対象物との干渉を防止する回避ベクトルを決定できなかった場合に、前記目標対象物選択部は、前記目標対象物以外の別の対象物を新たに目標対象物として選択するように構成される。
3番目の発明によれば、1番目又は2番目の発明に係るロボットシステムにおいて、前記近接状態判定部は、前記目標対象物の周囲に複数の近接状態判定領域を設定するとともに、前記目標対象物以外の対象物が前記近接状態判定領域のうちの少なくとも1つに重なっている場合に、該対象物が、前記目標対象物に近接して配置されていると判定するように構成される。
4番目の発明によれば、1番目又は2番目の発明に係るロボットシステムにおいて、前記近接状態判定部は、前記目標対象物以外の対象物の周囲に複数の近接状態判定領域をそれぞれ設定するとともに、予め定められる前記目標対象物の外形が、前記対象物の近接状態判定領域に重なり合う場合に、前記対象物が前記目標対象物に近接して配置されていると判定するように構成される。
5番目の発明によれば、1番目又は2番目の発明に係るロボットシステムにおいて、前記近接状態判定部は、前記目標対象物と、該目標対象物以外の対象物との間の距離が予め定められる閾値よりも小さい場合に、前記対象物が前記目標対象物に近接して配置されていると判定するように構成される。
6番目の発明によれば、1番目又は2番目の発明に係るロボットシステムにおいて、
前記近接状態判定部は、各々の対象物の外形に対応する多角形を生成するとともに、
前記目標対象物の外形に対応する多角形の辺と、前記目標対象物以外の対象物の外形に対応する多角形の頂点との間の距離、又は前記目標対象物の外形に対応する多角形の頂点と、前記目標対象物以外の対象物の外形に対応する多角形の辺との間の距離が予め定められる閾値よりも小さい場合に、前記対象物が前記目標対象物に近接して配置されていると判定するように構成される。
7番目の発明によれば、3番目又は4番目の発明に係るロボットシステムにおいて、前記回避ベクトル決定部は、前記近接状態判定部によって、対象物が前記目標対象物に近接していると判定された前記近接状態判定領域から前記目標対象物に向かって定められる方向を前記回避方向として決定するように構成される。
8番目の発明によれば、5番目又は6番目の発明に係るロボットシステムにおいて、前記回避ベクトル決定部は、前記近接状態判定部によって、前記目標対象物に近接していると判定された対象物から前記目標対象物に向かう方向を前記回避方向として決定するように構成される。
9番目の発明によれば、7番目の発明に係るロボットシステムにおいて、前記回避ベクトル決定部は、前記近接状態判定部によって、対象物が複数の近接状態判定領域において前記目標対象物に近接していると判定された場合に、前記複数の近接状態判定領域のそれぞれに対して仮の回避ベクトルを決定するとともに、前記仮の回避ベクトルに基づいて前記回避ベクトルを決定するように構成される。
10番目の発明によれば、8番目の発明に係るロボットシステムにおいて、前記回避ベクトル決定部は、前記近接状態判定部によって、複数の対象物が前記目標対象物に近接して配置されていると判定された場合に、前記複数の対象物のそれぞれに対して仮の回避ベクトルを決定するとともに、前記仮の回避ベクトルに基づいて前記回避ベクトルを決定するように構成される。
11番目の発明によれば、1番目又は2番目の発明に係るロボットシステムにおいて、前記取出経路補正部は、前記補正経路の少なくとも最初の通過点の位置を、前記回避ベクトル決定部によって決定される前記回避ベクトルを用いて決定するように構成される。
12番目の発明によれば、1番目又は2番目の発明に係るロボットシステムにおいて、前記取出経路補正部は、前記取出経路の始点の位置を前記回避ベクトル決定部によって決定される前記回避ベクトルに従って移動し、さらに前記平面から離間する方向に予め定められる距離だけ移動した位置を前記補正経路の最初の通過点の位置として決定するように構成される。
According to the first invention of the present application, information representing the positions of a plurality of objects placed on a plane is detected by a visual sensor, and the plurality of objects are taken out one by one by a robot based on the detected information. A robot system for taking out according to a path, based on information detected by the visual sensor, a target object selecting unit for selecting a target object to be taken out by the robot, and information detected by the visual sensor The proximity state determination unit that determines whether other objects other than the target object are arranged in proximity to the target object, and the proximity state determination unit determines that at least one object is Based on information detected by the visual sensor when it is determined that the target object is disposed in proximity to the target object, the robot performs the eye detection. An avoidance vector determination unit that determines an avoidance direction and an avoidance amount parallel to the plane as an avoidance vector so that interference with the at least one object does not occur when the object is taken out; and the avoidance vector determination Based on the avoidance vector determined by the unit, an extraction path correction unit that generates a correction path that corrects the extraction path so that interference with other objects does not occur, and the target state target by the proximity state determination unit When it is determined that there is no object arranged close to the object, the robot is controlled according to the extraction route to take out the target object, and at least one object is detected by the proximity state determination unit. When it is determined that the target object is arranged close to the target object, the target is determined according to the correction path created by the take-out path correction unit. Comprising a take-out operation execution section for taking out the elephant was a robotic system is provided.
According to a second invention, in the robot system according to the first invention, when the avoidance vector determination unit cannot determine an avoidance vector that prevents interference with another object, the target object selection is performed. The unit is configured to newly select another target other than the target target as the target target.
According to a third aspect, in the robot system according to the first or second aspect, the proximity state determination unit sets a plurality of proximity state determination regions around the target object, and the target object When the target object other than is overlapped with at least one of the proximity state determination regions, it is determined that the target object is disposed close to the target target object.
According to a fourth invention, in the robot system according to the first or second invention, the proximity state determination unit sets a plurality of proximity state determination regions around objects other than the target object, respectively. When the predetermined outer shape of the target object overlaps the proximity state determination region of the target object, it is configured to determine that the target object is arranged close to the target object.
According to a fifth aspect, in the robot system according to the first or second aspect, the proximity state determination unit determines in advance a distance between the target object and an object other than the target object. It is configured to determine that the object is disposed in proximity to the target object when the threshold value is smaller than the threshold value.
According to a sixth invention, in the robot system according to the first or second invention,
The proximity state determination unit generates a polygon corresponding to the outer shape of each object,
The distance between the side of the polygon corresponding to the outer shape of the target object and the vertex of the polygon corresponding to the outer shape of the object other than the target object, or the polygon corresponding to the outer shape of the target object And when the distance between the vertex of the polygon and the side of the polygon corresponding to the outer shape of the object other than the target object is smaller than a predetermined threshold, the object is arranged close to the target object Configured to be determined.
According to a seventh aspect, in the robot system according to the third or fourth aspect, the avoidance vector determination unit is determined by the proximity state determination unit that the target object is close to the target target object. In addition, the direction determined from the proximity state determination area toward the target object is determined as the avoidance direction.
According to an eighth aspect, in the robot system according to the fifth or sixth aspect, the avoidance vector determination unit is an object that is determined to be close to the target object by the proximity state determination unit. The direction from the target toward the target object is determined as the avoidance direction.
According to a ninth invention, in the robot system according to the seventh invention, the avoidance vector determination unit causes the proximity state determination unit to cause the target object to approach the target object in a plurality of proximity state determination regions. When it is determined that there is a temporary avoidance vector for each of the plurality of proximity state determination regions, the avoidance vector is determined based on the temporary avoidance vector.
According to a tenth aspect, in the robot system according to the eighth aspect, the avoidance vector determination unit is configured such that a plurality of objects are arranged close to the target object by the proximity state determination unit. When the determination is made, a temporary avoidance vector is determined for each of the plurality of objects, and the avoidance vector is determined based on the temporary avoidance vector.
According to an eleventh aspect, in the robot system according to the first or second aspect, the take-out path correction unit determines the position of at least the first passing point of the correction path by the avoidance vector determination unit. A determination is made using the avoidance vector.
According to a twelfth aspect, in the robot system according to the first or second aspect, the take-out path correction unit moves the position of the start point of the take-out path according to the avoidance vector determined by the avoidance vector determination section. Further, the position moved by a predetermined distance in the direction away from the plane is determined as the position of the first passing point of the correction path.

これら及び他の本発明の目的、特徴及び利点は、添付図面に示される本発明の例示的な実施形態に係る詳細な説明を参照することによって、より明らかになるであろう。   These and other objects, features and advantages of the present invention will become more apparent by referring to the detailed description of the exemplary embodiments of the present invention shown in the accompanying drawings.

本発明に係るロボットシステムによれば、ロボットによって取出される目標対象物に対して近接して配置される対象物が存在する場合に、目標対象物を取出す際の取出経路を回避ベクトルによって補正する。それにより、周囲の対象物に干渉することなく目標対象物を取出せるようになる。   According to the robot system of the present invention, when there is an object arranged close to the target object to be picked up by the robot, the take-out path for picking up the target object is corrected by the avoidance vector. . Thereby, the target object can be taken out without interfering with surrounding objects.

一実施形態に係るロボットシステムの全体構成図である。1 is an overall configuration diagram of a robot system according to an embodiment. ロボットの制御に利用される座標系を示す図である。It is a figure which shows the coordinate system utilized for control of a robot. ロボットの制御に利用される座標系を示す図である。It is a figure which shows the coordinate system utilized for control of a robot. ロボット制御装置の機能ブロック図である。It is a functional block diagram of a robot control device. 一実施形態に係るロボットシステムにおいて実行される処理を示すフローチャートである。It is a flowchart which shows the process performed in the robot system which concerns on one Embodiment. 目標対象物及びその周囲の対象物を示す平面図である。It is a top view which shows a target object and the surrounding object. 目標対象物の周囲に設定される近接状態判定領域の例を示す図である。It is a figure which shows the example of the proximity | contact state determination area | region set around a target target object. 目標対象物及びその周囲の対象物を示す平面図である。It is a top view which shows a target object and the surrounding object. 目標対象物に対応する長方形及び周囲の対象物に対応する長方形を示す図である。It is a figure which shows the rectangle corresponding to the rectangle corresponding to a target object, and the surrounding object. 目標対象物及びその周囲の対象物を示す平面図である。It is a top view which shows a target object and the surrounding object. 目標対象物及びその周囲の対象物を示す平面図である。It is a top view which shows a target object and the surrounding object. 目標対象物及びその周囲の対象物を示す平面図である。It is a top view which shows a target object and the surrounding object. 目標対象物及びその周囲の対象物を示す平面図である。It is a top view which shows a target object and the surrounding object. 目標対象物及びその周囲の対象物を示す平面図である。It is a top view which shows a target object and the surrounding object. 目標対象物及びその周囲の対象物を示す平面図である。It is a top view which shows a target object and the surrounding object. 目標対象物及びその周囲の対象物を示す平面図である。It is a top view which shows a target object and the surrounding object. 回避ベクトルに従って作成される補正経路を示す図である。It is a figure which shows the correction | amendment path | route created according to an avoidance vector. 回避ベクトルに従って作成される補正経路を示す図である。It is a figure which shows the correction | amendment path | route created according to an avoidance vector. 回避ベクトルに従って作成される補正経路を示す図である。It is a figure which shows the correction | amendment path | route created according to an avoidance vector. 回避ベクトルに従って作成される補正経路を示す図である。It is a figure which shows the correction | amendment path | route created according to an avoidance vector. 別の実施形態に係るロボットシステムの全体構成図である。It is a whole block diagram of the robot system which concerns on another embodiment. ロボットの制御に利用される座標系を示す図である。It is a figure which shows the coordinate system utilized for control of a robot.

以下、添付図面を参照して本発明の実施形態を説明する。図示される実施形態の構成要素は、本発明の理解を助けるために寸法が適宜変更されている。また、同一又は対応する構成要素には、同一の参照符号が使用される。   Embodiments of the present invention will be described below with reference to the accompanying drawings. The components of the illustrated embodiment have been appropriately dimensioned to aid in understanding the present invention. The same reference numerals are used for the same or corresponding components.

図1は、一実施形態に係るロボットシステム10の全体構成図である。ロボットシステム10は、ロボット1と、ロボット1を制御するロボット制御装置2と、ロボット1によって順次取出される対象物3の上方に設置された視覚センサ4と、を備えている。ロボットシステム10は、複数の対象物3の位置を表す情報を視覚センサ4によって検出し、検出された情報に基づいて、ロボット1によって対象物3を1つずつ取出経路に従って取出すように構成されている。   FIG. 1 is an overall configuration diagram of a robot system 10 according to an embodiment. The robot system 10 includes a robot 1, a robot control device 2 that controls the robot 1, and a visual sensor 4 that is installed above an object 3 that is sequentially taken out by the robot 1. The robot system 10 is configured to detect information representing the positions of a plurality of objects 3 by the visual sensor 4 and to extract the objects 3 one by one according to the extraction path by the robot 1 based on the detected information. Yes.

ロボット1は、複数の関節軸をそれぞれ駆動するモータ13と、アーム12の末端に装着された把持装置11と、を備えている。図1においては、幾つかのモータ13のみが視認可能である。各々のモータ13は、把持装置11が所望の位置及び姿勢を有するように、ロボット制御装置2から送信される制御指令に従って駆動される。把持装置11は、ロボット制御装置2から送信される制御指令に従って開閉する爪14を有しており、それら爪14によって対象物3を開放可能に把持できる。   The robot 1 includes a motor 13 that drives each of a plurality of joint axes, and a gripping device 11 that is attached to the end of the arm 12. In FIG. 1, only some motors 13 are visible. Each motor 13 is driven in accordance with a control command transmitted from the robot control device 2 so that the gripping device 11 has a desired position and posture. The gripping device 11 has a claw 14 that opens and closes in accordance with a control command transmitted from the robot control device 2, and the object 3 can be gripped by the claw 14 so as to be openable.

図示されるロボット1は垂直多関節ロボットであるものの、対象物の搬送を実行できる他の任意の構成を有するロボットが用いられてもよい。例えば、ロボットシステム10は、移動機構、平行リンク機構又は直動機構を有するロボットを備えていてもよい。   Although the illustrated robot 1 is a vertical articulated robot, a robot having any other configuration that can execute transfer of an object may be used. For example, the robot system 10 may include a robot having a moving mechanism, a parallel link mechanism, or a linear motion mechanism.

図2A及び図2Bを参照して、ロボット1の制御に利用される座標系について説明する。ロボット1には、ロボット1の動作及び視覚センサ4の計測の基準になるロボット座標系R0が予め定義されている。また、ロボット1のアーム12の先端点、すなわち把持装置の取付箇所には、アーム座標系T0が定義される。ロボット1の機構パラメータに基づいて、アーム座標系T0とロボット座標系R0との間の位置関係が求められることは公知である。   A coordinate system used for controlling the robot 1 will be described with reference to FIGS. 2A and 2B. In the robot 1, a robot coordinate system R0 that is a reference for the operation of the robot 1 and the measurement of the visual sensor 4 is defined in advance. In addition, an arm coordinate system T0 is defined at the distal end point of the arm 12 of the robot 1, that is, the attachment position of the gripping device. It is known that the positional relationship between the arm coordinate system T0 and the robot coordinate system R0 is obtained based on the mechanism parameters of the robot 1.

本明細書において、「ロボットの位置」とは、アーム12に取付けられるツール(把持装置11)の先端に設定されるツール先端点(TCP)RPの位置を意味する。前述したように、アーム座標系T0とロボット座標系R0との間の位置関係は既知である。したがって、アーム座標系T0におけるツール先端点RPの位置が分かれば、ロボット座標系R0におけるツール先端点RPの位置は計算により求められる。アーム座標系T0におけるツール先端点RPの位置は、把持装置11のCADデータから計算により求められてもよいし、又は3次元測定器によって計測して求められてもよい。ツール先端点RPは、必要に応じて把持装置11の先端から離間した位置に設定されてもよい。   In this specification, the “robot position” means the position of the tool tip point (TCP) RP set at the tip of the tool (gripping device 11) attached to the arm 12. As described above, the positional relationship between the arm coordinate system T0 and the robot coordinate system R0 is known. Therefore, if the position of the tool tip point RP in the arm coordinate system T0 is known, the position of the tool tip point RP in the robot coordinate system R0 can be obtained by calculation. The position of the tool tip point RP in the arm coordinate system T0 may be obtained by calculation from CAD data of the gripping device 11, or may be obtained by measurement with a three-dimensional measuring instrument. The tool tip point RP may be set at a position separated from the tip of the gripping device 11 as necessary.

再び図1を参照すれば、視覚センサ4は、台座5の平坦な上面に載置されている複数の対象物3を検出可能な位置において、架台41によって固定されている。破線43は、視覚センサ4のカメラの視野を表している。本実施形態において、対象物3は、ロボット1の可動範囲内において、互いに重なり合わないように配置されている。視覚センサ4は、対象物3を検出可能であれば任意の位置に設けられていてもよい。視覚センサ4を固定する固定手段も図示された例に限定されない。一実施形態において、視覚センサ4は、ロボット1のアーム12の末端に取付けられていてもよい。   Referring to FIG. 1 again, the visual sensor 4 is fixed by a gantry 41 at a position where a plurality of objects 3 placed on the flat upper surface of the pedestal 5 can be detected. A broken line 43 represents the visual field of the camera of the visual sensor 4. In the present embodiment, the objects 3 are arranged so as not to overlap each other within the movable range of the robot 1. The visual sensor 4 may be provided at any position as long as the object 3 can be detected. The fixing means for fixing the visual sensor 4 is not limited to the illustrated example. In one embodiment, the visual sensor 4 may be attached to the end of the arm 12 of the robot 1.

視覚センサ4は、ロボット座標系R0に対して予めキャリブレーションされている。したがって、視覚センサ4によって取得された画像における任意の部位の位置は、画像処理装置42の不揮発性メモリに記憶されたキャリブレーションデータに基づいて、ロボット座標系R0における位置に変換可能である。キャリブレーション方法は特に限定されないものの、例えば特許文献4に記載された公知技術を用いることができる。   The visual sensor 4 is calibrated in advance with respect to the robot coordinate system R0. Therefore, the position of an arbitrary part in the image acquired by the visual sensor 4 can be converted into a position in the robot coordinate system R0 based on the calibration data stored in the nonvolatile memory of the image processing device 42. Although the calibration method is not particularly limited, for example, a known technique described in Patent Document 4 can be used.

視覚センサ4によって取得された画像データは、画像処理装置42に入力される。画像処理装置42は、画像データを処理し、各々の対象物3の位置を検出する。画像データから対象物3の二次元位置情報を検出できれば、対象物3の位置を検出するための画像処理方法は特定の方法に限定されない。例えば、画像処理装置42は、正規化相関を利用したテンプレートマッチングによって対象物3の位置を検出できる。   The image data acquired by the visual sensor 4 is input to the image processing device 42. The image processing device 42 processes the image data and detects the position of each object 3. As long as the two-dimensional position information of the target 3 can be detected from the image data, the image processing method for detecting the position of the target 3 is not limited to a specific method. For example, the image processing device 42 can detect the position of the object 3 by template matching using normalized correlation.

また、画像処理装置42は、視覚センサ4によって取得された画像データに複数の対象物3が含まれる場合、各々の対象物3の取出順序を決定する。一実施形態において、画像処理装置42は、テンプレートマッチングにおける相関値が高い順番に対象物3が取出されるように取出順序を決定する。   Further, when a plurality of objects 3 are included in the image data acquired by the visual sensor 4, the image processing device 42 determines an extraction order of each object 3. In one embodiment, the image processing device 42 determines the extraction order so that the objects 3 are extracted in the order in which the correlation value in template matching is high.

別の実施形態において、画像処理装置42は、画像上の対象物3の位置又はロボット座標系R0における対象物3の位置に応じて、対象物3の取出順序を決定する。例えば、ロボット座標系R0におけるX軸の値が大きい順番に対象物3が取出されるように取出順序が決定されてもよい。   In another embodiment, the image processing device 42 determines the extraction order of the objects 3 according to the position of the object 3 on the image or the position of the object 3 in the robot coordinate system R0. For example, the extraction order may be determined so that the objects 3 are extracted in descending order of the X-axis value in the robot coordinate system R0.

画像処理装置42による画像処理の結果はロボット制御装置2に送信される。画像処理装置42は、汎用のコンピュータであってもよいし、専ら画像処理のために構成されたデバイスであってもよい。或いは、画像処理装置42は、ロボット制御装置2に内蔵されていてもよい。   The result of the image processing by the image processing device 42 is transmitted to the robot control device 2. The image processing apparatus 42 may be a general-purpose computer or a device configured exclusively for image processing. Alternatively, the image processing device 42 may be built in the robot control device 2.

ロボット制御装置2は、CPU、ROM、RAM、揮発性メモリなどの公知のハードウェア構成を有するデジタルコンピュータである。ロボット制御装置2は、外部機器との間でデータ及び信号を送受信するためのインターフェイスを備えており、入力デバイス又は表示デバイス、外部記憶装置などと必要に応じて接続される。   The robot control device 2 is a digital computer having a known hardware configuration such as a CPU, ROM, RAM, and volatile memory. The robot control device 2 includes an interface for transmitting and receiving data and signals to and from an external device, and is connected to an input device or a display device, an external storage device, or the like as necessary.

図3は、ロボット制御装置2の機能ブロック図である。ロボット制御装置2は、取出順序に従ってロボット1によって取出されるべき目標対象物31(図5参照)を選択するとともに、他の対象物32に干渉することなく目標対象物31を取出すようにロボット1を制御する。図示された実施形態に係るロボット制御装置2は、目標対象物選択部21と、近接状態判定部22と、回避ベクトル決定部23と、取出経路補正部24と、取出動作実行部25と、を備えている。   FIG. 3 is a functional block diagram of the robot control device 2. The robot controller 2 selects the target object 31 (see FIG. 5) to be taken out by the robot 1 in accordance with the take-out order, and takes out the target object 31 without interfering with other objects 32. To control. The robot control apparatus 2 according to the illustrated embodiment includes a target object selection unit 21, a proximity state determination unit 22, an avoidance vector determination unit 23, an extraction path correction unit 24, and an extraction operation execution unit 25. I have.

目標対象物選択部21は、視覚センサ4によって検出される情報に基づいて、ロボット1によって取出される目標対象物31を選択する。目標対象物31は、対象物3のうち、ロボット1によって取出されるべき対象物である。目標対象物31は、所定の取出順序に従って順次選択される。従って、目標対象物選択部21は、視覚センサ4によって取得された画像データの画像処理の結果として画像処理装置42から出力される信号に従って目標対象物31を選択する。   The target object selection unit 21 selects a target object 31 to be taken out by the robot 1 based on information detected by the visual sensor 4. The target object 31 is an object to be taken out by the robot 1 among the objects 3. The target objects 31 are sequentially selected according to a predetermined extraction order. Therefore, the target object selection unit 21 selects the target object 31 according to the signal output from the image processing device 42 as a result of the image processing of the image data acquired by the visual sensor 4.

近接状態判定部22は、視覚センサ4によって検出される情報に基づいて、目標対象物31以外の対象物32が、目標対象物31に近接して配置されているか否かを判定する。   Based on the information detected by the visual sensor 4, the proximity state determination unit 22 determines whether or not an object 32 other than the target object 31 is disposed in proximity to the target object 31.

回避ベクトル決定部23は、近接状態判定部22によって、少なくとも1つの対象物32が目標対象物31に近接して配置されていると判定された場合に、視覚センサ4によって検出される情報に基づいて、回避ベクトルを決定する。回避ベクトルは、ロボット1によって目標対象物31を取出す際に、目標対象物31に近接する対象物32との干渉が起きないように決定される。回避ベクトルは、目標対象物31及び他の対象物32が載置された平面に対して平行な回避方向と、回避量と、によって定められる。   The avoidance vector determination unit 23 is based on information detected by the visual sensor 4 when the proximity state determination unit 22 determines that at least one object 32 is disposed in proximity to the target object 31. The avoidance vector is determined. The avoidance vector is determined so that interference with the object 32 adjacent to the target object 31 does not occur when the target object 31 is taken out by the robot 1. The avoidance vector is determined by the avoidance direction parallel to the plane on which the target object 31 and the other object 32 are placed, and the avoidance amount.

取出経路補正部24は、回避ベクトル決定部23によって決定される回避ベクトルに基づいて、他の対象物32との干渉が起きないように、目標対象物31を取出す際の取出経路を補正した補正経路を作成する。   Based on the avoidance vector determined by the avoidance vector determination unit 23, the extraction path correction unit 24 corrects the extraction path when the target object 31 is extracted so that interference with the other object 32 does not occur. Create a route.

取出動作実行部25は、ロボット1を制御して、目標対象物31を所定の経路に従って取出す。本実施形態によれば、取出動作実行部25は、近接状態判定部22によって目標対象物31に近接して配置されている他の対象物32がないと判定された場合、プログラムによって指定される取出経路に従って目標対象物31を取出す。取出経路を指定するプログラムは、ロボット制御装置2の不揮発性メモリ又は外部記憶装置に記憶されている。   The take-out operation execution unit 25 controls the robot 1 to take out the target object 31 according to a predetermined route. According to the present embodiment, the take-out operation execution unit 25 is designated by a program when it is determined by the proximity state determination unit 22 that there is no other object 32 arranged close to the target object 31. The target object 31 is taken out according to the take-out route. A program for designating the take-out path is stored in the nonvolatile memory or the external storage device of the robot control device 2.

他方、近接状態判定部22によって少なくとも1つの対象物32が目標対象物31に近接して配置されていると判定された場合には、取出動作実行部25は、取出経路補正部24によって作成された補正経路に従って目標対象物31を取出す。   On the other hand, when it is determined by the proximity state determination unit 22 that at least one object 32 is arranged close to the target object 31, the extraction operation execution unit 25 is created by the extraction path correction unit 24. The target object 31 is taken out according to the corrected path.

図4は、一実施形態に係るロボットシステム10において実行される処理を示すフローチャートである。ロボット制御装置2が、対象物3の取出工程を開始する開始信号を受信すると、ステップS401〜S410の処理が開始される。ステップS401において、視覚センサ4によって、台座5に載置されている複数の対象物3の画像データを取得する。1つの対象物3のみが検出された場合、後述するステップS402〜S410の処理を実行する必要はない。したがって、その場合、ロボットシステム10は、予め定められるプログラムに従って、ロボット1によって対象物3を取出す。   FIG. 4 is a flowchart illustrating processing executed in the robot system 10 according to an embodiment. When the robot control device 2 receives a start signal for starting the process of taking out the object 3, the processes in steps S401 to S410 are started. In step S <b> 401, image data of a plurality of objects 3 placed on the pedestal 5 is acquired by the visual sensor 4. When only one object 3 is detected, it is not necessary to execute the processes of steps S402 to S410 described later. Therefore, in that case, the robot system 10 takes out the object 3 by the robot 1 in accordance with a predetermined program.

複数の対象物3が検出された場合、ステップS402に進み、視覚センサ4によって取得された画像データを画像処理装置42によって処理し、対象物3の取出順序を決定する。   When a plurality of objects 3 are detected, the process proceeds to step S402, and the image data acquired by the visual sensor 4 is processed by the image processing device 42, and the extraction order of the objects 3 is determined.

ステップS403では、目標対象物選択部21が、ステップS402において決定された取出順序に従って、複数の対象物3のうち、ロボット10によって取出されるべき目標対象物31を選択する。   In step S403, the target object selection unit 21 selects the target object 31 to be extracted by the robot 10 from the plurality of objects 3 according to the extraction order determined in step S402.

ステップS404では、近接状態判定部22が、目標対象物31に近接する他の対象物32が存在するか否かを判定する。ステップS404の判定が否定された場合、ロボット1は、周囲の対象物に干渉することなく目標対象物31を取出すことができる。したがって、その場合、ステップS405に進み、取出動作実行部25が、予め定められる動作プログラムによって規定される取出経路に従ってロボット1を移動させて、目標対象物31を取出す。   In step S <b> 404, the proximity state determination unit 22 determines whether there is another object 32 that is close to the target object 31. If the determination in step S404 is negative, the robot 1 can take out the target object 31 without interfering with surrounding objects. Accordingly, in this case, the process proceeds to step S405, and the take-out operation execution unit 25 moves the robot 1 according to the take-out path defined by the predetermined operation program, and takes out the target object 31.

それに対し、ステップS404での判定が肯定された場合、ステップS406に進み、回避ベクトル決定部23が回避ベクトルを決定する。   On the other hand, when the determination in step S404 is affirmed, the process proceeds to step S406, and the avoidance vector determination unit 23 determines an avoidance vector.

ステップS407では、回避ベクトルがステップS406において決定されたか否かを判定する。ステップS407での判定が肯定された場合、ステップS408に進み、取出経路補正部24が、ステップS406で決定された回避ベクトルに従って取出経路を補正し、補正経路を作成する。次いで、ステップS409に進み、取出動作実行部25が、取出経路補正部24によって作成された補正経路に従ってロボット1を移動させて目標対象物31を取出す。   In step S407, it is determined whether an avoidance vector has been determined in step S406. When the determination in step S407 is affirmed, the process proceeds to step S408, and the extraction path correction unit 24 corrects the extraction path according to the avoidance vector determined in step S406, and creates a correction path. Next, the process proceeds to step S409, where the take-out operation execution unit 25 moves the robot 1 according to the correction path created by the take-out path correction unit 24 and takes out the target object 31.

ステップS407の判定が否定された場合、すなわち回避ベクトル決定部23が回避ベクトルを求めることができなかった場合、ステップS410に進む。ステップS410では、目標対象物選択部21が、回避ベクトルを求められなかった目標対象物31とは異なる別の対象物3の中から目標対象物31を新たに選択する。そして、新たに選択された目標対象物31について、ステップS404以降の処理が実行される。   If the determination in step S407 is negative, that is, if the avoidance vector determination unit 23 cannot obtain an avoidance vector, the process proceeds to step S410. In step S410, the target object selection unit 21 newly selects the target object 31 from other objects 3 different from the target object 31 for which the avoidance vector has not been obtained. And the process after step S404 is performed about the newly selected target object 31. FIG.

本実施形態に係るロボットシステムによれば、次のような効果が得られる。
目標対象物31に近接して配置される対象物32が存在する場合に、対象物32との干渉が起こらないように、目標対象物31の取出経路が補正される。したがって、目標対象物31を取出す際に、目標対象物31の周囲の対象物32の位置が不意に変化するのを防止できる。それにより、視覚センサ4による対象物3の撮像、及び画像処理装置42による画像処理を再実行する必要がなくなり、サイクルタイムを短縮できる。
According to the robot system according to the present embodiment, the following effects can be obtained.
When there is an object 32 arranged close to the target object 31, the take-out path of the target object 31 is corrected so that interference with the object 32 does not occur. Therefore, when the target object 31 is taken out, it is possible to prevent the position of the object 32 around the target object 31 from changing unexpectedly. Thereby, it is not necessary to re-execute the imaging of the object 3 by the visual sensor 4 and the image processing by the image processing device 42, and the cycle time can be shortened.

また、目標対象物31に対して回避ベクトルが決定できない場合、すなわち周囲の対象物32との干渉を確実に避けられない場合には、その目標対象物31を取出すことなく、別の対象物が目標対象物31として新たに選択される。このように、対象物3の配置状態に応じて目標対象物31が自動的に切替えられるので、操作者の負担が軽減される。さらに、対象物3の初期配置に対する要求が緩和されるので、作業効率を向上させられる。   If an avoidance vector cannot be determined for the target object 31, that is, if interference with the surrounding object 32 cannot be avoided with certainty, another target object is not taken out without taking out the target object 31. A new target object 31 is selected. Thus, since the target object 31 is automatically switched according to the arrangement state of the object 3, the burden on the operator is reduced. Furthermore, since the request | requirement with respect to the initial stage arrangement | positioning of the target object 3 is eased, work efficiency can be improved.

次に、近接状態判定部22の機能についてより詳細に説明する。一実施形態において、近接状態判定部22は、目標対象物31を含む二次元の画像上において、目標対象物31の位置情報に基づいて、目標対象物31の周囲に複数の近接状態判定領域33a〜33dを設定する。図5は、目標対象物31及び目標対象物31の周囲に位置する対象物32を示す平面図である。   Next, the function of the proximity state determination unit 22 will be described in more detail. In one embodiment, the proximity state determination unit 22 includes a plurality of proximity state determination regions 33a around the target object 31 based on the position information of the target object 31 on a two-dimensional image including the target object 31. Set ~ 33d. FIG. 5 is a plan view showing the target object 31 and the object 32 positioned around the target object 31.

図示される実施形態では、目標対象物31の各辺31a〜31dの周囲に長方形の近接状態判定領域33a〜33dが設定される。近接状態判定領域33a〜33dの幅W1,W2は、目標対象物31を取出す際に確保されるべき間隙に応じて適宜定められる。近接状態判定領域は、目標対象物31の周囲に設定されれば、その個数、形状は特に限定されない。例えば、近接状態判定領域33dが2つに分割されていてもよい。   In the illustrated embodiment, rectangular proximity state determination regions 33 a to 33 d are set around the sides 31 a to 31 d of the target object 31. The widths W1 and W2 of the proximity state determination regions 33a to 33d are appropriately determined according to the gap to be secured when the target object 31 is taken out. As long as the proximity determination region is set around the target object 31, the number and shape thereof are not particularly limited. For example, the proximity state determination area 33d may be divided into two.

近接状態判定部22は、対象物32が近接状態判定領域33a〜33dのうちの少なくとも1つ(図5の場合、近接状態判定領域33d)に重なり合っている場合、対象物32が目標対象物31に近接して配置されていると判定する。具体的には、近接状態判定領域33a〜33d内の画素の明るさ又は色を計測する。そして、対象物32が存在しない場合に想定される画素の明るさ又は色と異なる場合、対象物32が近接状態判定領域33a〜33dに重なり合っていると判定する。   When the object 32 overlaps at least one of the proximity state determination areas 33a to 33d (in the case of FIG. 5, the proximity state determination area 33d), the proximity state determination unit 22 determines that the target object 32 is the target object 31. It is determined that they are arranged close to each other. Specifically, the brightness or color of the pixels in the proximity state determination areas 33a to 33d is measured. And when it differs from the brightness or color of the pixel assumed when the target object 32 does not exist, it determines with the target object 32 overlapping the proximity | contact state determination area | region 33a-33d.

画素の明るさ又は色の違いが、実際には対象物32の存在に起因するものでない場合であっても、同様に回避動作を実行するのが好ましい。なぜなら、他の対象物32ではなくても異物が混入している可能性があるためである。   Even when the difference in pixel brightness or color is not actually caused by the presence of the object 32, it is preferable to perform the avoidance operation in the same manner. This is because there is a possibility that a foreign object is mixed even if it is not another object 32.

図6は、円形の目標対象物31について設定される近接状態判定領域33a〜33hの例を示している。図示された例では、45度ごとに分割された近接状態判定領域33a〜33hが目標対象物31の周囲に設定されている。しかしながら、任意の間隔で任意の個数に分割された近接状態判定領域が用いられてもよい。   FIG. 6 shows an example of the proximity state determination areas 33 a to 33 h set for the circular target object 31. In the illustrated example, proximity state determination areas 33 a to 33 h divided every 45 degrees are set around the target object 31. However, the proximity state determination area divided into an arbitrary number at an arbitrary interval may be used.

図示されない別の実施形態において、目標対象物31の外形が曲線によって形成される場合、目標対象物31の外形に外接する長方形を求め、その長方形の周囲に近接状態判定領域を設定するようにしてもよい。   In another embodiment (not shown), when the outer shape of the target object 31 is formed by a curve, a rectangle circumscribing the outer shape of the target object 31 is obtained, and a proximity state determination region is set around the rectangle. Also good.

一実施形態において、近接状態判定部22は、数値計算により近接状態を判定するように構成されてもよい。その場合、対象物3の外形及び対象物3の周囲に設けられる近接状態判定領域の外形をそれぞれ予め設定しておく。そして、目標対象物31の外形と、周囲の対象物32の周囲に設定された近接状態判定領域の外形とが重なり合っているか否かを計算する。目標対象物31が近接状態判定領域と重なり合っている場合、近接状態判定部22は、対象物32が目標対象物31に近接して配置されていると判定する。   In one embodiment, the proximity state determination unit 22 may be configured to determine the proximity state by numerical calculation. In that case, the outer shape of the object 3 and the outer shape of the proximity state determination area provided around the object 3 are set in advance. Then, it is calculated whether or not the outer shape of the target object 31 and the outer shape of the proximity state determination area set around the surrounding object 32 overlap. When the target object 31 overlaps with the proximity state determination region, the proximity state determination unit 22 determines that the object 32 is disposed in proximity to the target object 31.

これら実施形態の変形例において、近接状態判定部22は、目標対象物31の外縁から離間されるべき距離に応じて、計算により、目標対象物31又は対象物32の周囲に自動生成される近接状態判定領域を利用してもよい。   In the modified examples of these embodiments, the proximity state determination unit 22 is automatically generated around the target object 31 or the object 32 by calculation according to the distance to be separated from the outer edge of the target object 31. A state determination area may be used.

対象物が円形である一実施形態において、近接状態判定部22は、目標対象物31の中心と、周囲の対象物32の中心との間の距離が予め定められる閾値を下回った場合に、周囲の対象物32が目標対象物31に近接して配置されていると判定するように構成されてもよい。   In one embodiment in which the object is circular, the proximity state determination unit 22 determines that the surrounding state is determined when the distance between the center of the target object 31 and the center of the surrounding object 32 falls below a predetermined threshold. It may be configured to determine that the target object 32 is arranged close to the target target object 31.

図7には、目標対象物31とともに、目標対象物31の周囲に位置する2つの対象物32、すなわち第1の対象物321、第2の対象物322が示されている。破線で示されている目標対象物31と同心の円34は、目標対象物31の直径(=対象物32の直径)と、目標対象物31を取出す際に確保されるべき間隙の大きさGとの合計に等しい大きさの半径D1を有している。近接状態判定部22は、第1及び第2の対象物321,322の中心321c,322cが円34の範囲内に入っている場合、それら対象物321,322が目標対象物31に近接して配置されていると判定する。   In FIG. 7, two target objects 32 located around the target object 31, that is, a first object 321 and a second object 322 are shown together with the target object 31. A circle 34 concentric with the target object 31 indicated by a broken line indicates the diameter of the target object 31 (= the diameter of the object 32) and the size G of the gap to be secured when the target object 31 is taken out. And a radius D1 having a size equal to the sum of. When the centers 321 c and 322 c of the first and second objects 321 and 322 are within the range of the circle 34, the proximity state determination unit 22 moves the objects 321 and 322 closer to the target object 31. It is determined that it is arranged.

図7に示される例の場合、第1の対象物321の中心321cが円34の範囲内に入っているので、第1の対象物321は、目標対象物31に近接して配置されていると判定される。他方、第2の対象物322の中心322cは、円34の範囲外に位置しているので、第2の対象物322は、目標対象物31に近接して配置されていないと判定される。   In the case of the example shown in FIG. 7, since the center 321 c of the first object 321 is within the range of the circle 34, the first object 321 is arranged close to the target object 31. It is determined. On the other hand, since the center 322 c of the second object 322 is located outside the range of the circle 34, it is determined that the second object 322 is not arranged close to the target object 31.

対象物が円形ではない一実施形態において、近接状態判定部22は、対象物の輪郭に外接する凸多角形に基づいて、対象物の近接状態を判定してもよい。その場合、目標対象物31に対応する多角形の各辺と、周囲の対象物32に対応する多角形の各頂点との間の距離が、予め定められる閾値を下回った場合に、それら目標対象物31と対象物32とが近接していると判定される。   In an embodiment in which the object is not circular, the proximity state determination unit 22 may determine the proximity state of the object based on a convex polygon circumscribing the outline of the object. In that case, when the distance between each side of the polygon corresponding to the target object 31 and each vertex of the polygon corresponding to the surrounding object 32 falls below a predetermined threshold, these target objects It is determined that the object 31 and the object 32 are close to each other.

図8は、目標対象物31に対応する、すなわち目標対象物31の輪郭に外接していて辺131a〜131dを有する長方形(以下、「目標対象物形状131」と称する。)と、周囲の対象物32に対応する、すなわち対象物32の輪郭に外接する長方形(以下、「対象物形状132」と称する。)とを示している。   FIG. 8 shows a rectangle corresponding to the target object 31, that is, circumscribing the outline of the target object 31 and having sides 131a to 131d (hereinafter referred to as “target object shape 131”) and surrounding objects. A rectangle corresponding to the object 32, that is, a rectangle circumscribing the outline of the object 32 (hereinafter referred to as “object shape 132”) is shown.

本実施形態によれば、対象物形状132の頂点P22から目標対象物形状131の辺131cに下ろした垂線L1の足P1の位置を計算によって求める。また、目標対象物形状の辺131cの中点P2から垂線L1の足P1までの距離D2を計算によって求める。近接状態判定部22は、垂線L1の長さ(頂点P22から垂線L1の足P1までの距離)及び距離D2の両方が、予め定められるそれぞれ対応した閾値を下回る場合、対象物32が目標対象物31に近接して配置されていると判定する。なお、垂線L1の長さに対する閾値は、目標対象物31を取出す際に周囲の対象物32との間に確保されるべき間隙に応じて定められる。また、距離D2に対する閾値は、少なくとも目標対象物形状の辺131cの半分の長さ以上になるように設定される。   According to the present embodiment, the position of the foot P1 of the perpendicular L1 dropped from the vertex P22 of the object shape 132 to the side 131c of the target object shape 131 is obtained by calculation. Further, a distance D2 from the midpoint P2 of the side 131c of the target object shape to the foot P1 of the perpendicular L1 is obtained by calculation. When both the length of the perpendicular line L1 (the distance from the vertex P22 to the foot P1 of the perpendicular line L1) and the distance D2 are lower than the corresponding threshold values, the proximity state determination unit 22 determines that the object 32 is the target object. It is determined that it is arranged close to 31. Note that the threshold for the length of the perpendicular line L1 is determined according to the gap to be secured between the target object 31 and the surrounding object 32. The threshold for the distance D2 is set to be at least half the length of the side 131c of the target object shape.

別の実施形態において、対象物形状132の頂点P22から目標対象物形状131の辺131cに下ろした垂線L1の足P1が、辺131cの線分上に位置していない場合、対象物形状132の頂点P22と、頂点P22に近い131cの端点P14(図8参照)との間の距離を予め定められる閾値と比較することによって、近接状態が判定されてもよい。その場合、垂線L1の足P1が辺131cの線分上に位置している場合には、垂線L1の長さと対応する閾値とを比較することによって、近接状態が判定される。   In another embodiment, when the foot P1 of the perpendicular L1 dropped from the vertex P22 of the object shape 132 to the side 131c of the target object shape 131 is not located on the line segment of the side 131c, The proximity state may be determined by comparing the distance between the vertex P22 and the end point P14 of 131c close to the vertex P22 (see FIG. 8) with a predetermined threshold value. In this case, when the foot P1 of the vertical line L1 is located on the line segment of the side 131c, the proximity state is determined by comparing the length of the vertical line L1 with the corresponding threshold value.

近接状態判定部22は、目標対象物形状131のすべての辺131a〜131d、及び対象物形状132のすべての頂点P21〜P24について前述した処理を実行する。さらに、近接状態判定部22は、対象物形状132のすべての辺132a〜132d、及び目標対象物形状131のすべての頂点P11〜P14について前述した処理を実行する。   The proximity state determination unit 22 performs the above-described processing on all sides 131a to 131d of the target object shape 131 and all vertices P21 to P24 of the object shape 132. Further, the proximity state determination unit 22 performs the above-described processing for all the sides 132 a to 132 d of the object shape 132 and all the vertices P <b> 11 to P <b> 14 of the target object shape 131.

次に、回避ベクトル決定部23の機能について詳細に説明する。図5に示される例においては、目標対象物31の辺31dに沿って設定される近接状態判定領域33dと、対象物32が重なり合っている。回避ベクトル決定部23は、目標対象物31の辺31dに対して垂直な方向であって、目標対象物31の内側に向かう方向を回避方向として決定する。また、回避ベクトル決定部23は、近接状態判定領域33dの幅W1を回避量として決定する。こうして求められた回避方向及び回避量に従って、回避ベクトルVが求められる。   Next, the function of the avoidance vector determination unit 23 will be described in detail. In the example shown in FIG. 5, the proximity state determination area 33 d set along the side 31 d of the target object 31 and the object 32 overlap. The avoidance vector determination unit 23 determines a direction perpendicular to the side 31d of the target object 31 and toward the inside of the target object 31 as an avoidance direction. The avoidance vector determination unit 23 determines the width W1 of the proximity state determination region 33d as an avoidance amount. The avoidance vector V is determined according to the avoidance direction and the avoidance amount thus determined.

図9を参照して、目標対象物31に近接して配置される複数の対象物32が存在する実施形態において、回避ベクトルVを決定する態様について説明する。本実施形態において、辺31a〜31fを有する六角形の目標対象物31の周囲に近接状態判定領域33a〜33fがそれぞれ設定される。近接状態判定領域33a〜33fの幅は、目標対象物31を取出す際に、周囲の対象物32との間に確保されるべき間隙に応じて定められる。   With reference to FIG. 9, the aspect which determines the avoidance vector V in embodiment with the some target object 32 arrange | positioned in proximity to the target target object 31 is demonstrated. In the present embodiment, proximity state determination areas 33a to 33f are set around the hexagonal target object 31 having sides 31a to 31f, respectively. The widths of the proximity state determination areas 33a to 33f are determined according to a gap to be secured between the target object 31 and the surrounding object 32 when the target object 31 is taken out.

図9に示される例では、第1の対象物321、第2の対象物322及び第3の対象物323が、近接状態判定領域33c,33d,33eにそれぞれ重なり合っている。したがって、3つの対象物321,322,323が目標対象物31に近接して配置されている。   In the example shown in FIG. 9, the first object 321, the second object 322, and the third object 323 overlap with the proximity state determination areas 33 c, 33 d, and 33 e, respectively. Therefore, the three objects 321, 322, and 323 are arranged close to the target object 31.

回避ベクトル決定部23は、目標対象物31の3つの辺31c,31d,31eに対して垂直であって、目標対象物31の内側に向かう方向を回避ベクトルVc,Vd,Veの回避方向として決定する。また、回避ベクトル決定部23は、近接状態判定領域33c,33d,33eのそれぞれの幅を回避ベクトルVc,Vd,Veの回避量として決定する。   The avoidance vector determination unit 23 determines a direction that is perpendicular to the three sides 31c, 31d, and 31e of the target object 31 and that faces the inside of the target object 31 as an avoidance direction of the avoidance vectors Vc, Vd, and Ve. To do. Further, the avoidance vector determination unit 23 determines the respective widths of the proximity state determination regions 33c, 33d, and 33e as the avoidance amounts of the avoidance vectors Vc, Vd, and Ve.

このように3つの回避ベクトルVc,Vd,Veが求められた場合、各々の回避ベクトルVc,Vd,Ve同士の間に形成される角度を計算し、角度が最大になる2本のベクトルVc,Veを抽出する。   When three avoidance vectors Vc, Vd, Ve are obtained in this way, the angle formed between each avoidance vector Vc, Vd, Ve is calculated, and two vectors Vc, Extract Ve.

一実施形態によれば、ベクトルVc,Veの始点が目標対象物31の重心CGに一致するように移動し、ベクトルVcの終点を通過し、ベクトルVcに対して垂直な直線L2を求める。また、ベクトルVeの終点を通過し、ベクトルVeに対して垂直な直線L3を求める。そして、目標対象物31の重心CGを始点とし、それら直線L2,L3の交点を終点とするベクトルVを求める。回避ベクトル決定部23は、このようにして求められたベクトルVを回避ベクトルとして決定する。   According to one embodiment, the starting points of the vectors Vc and Ve move so as to coincide with the center of gravity CG of the target object 31, pass through the end point of the vector Vc, and obtain a straight line L2 perpendicular to the vector Vc. Further, a straight line L3 that passes through the end point of the vector Ve and is perpendicular to the vector Ve is obtained. Then, a vector V starting from the center of gravity CG of the target object 31 and ending at the intersection of the straight lines L2 and L3 is obtained. The avoidance vector determination unit 23 determines the vector V thus obtained as an avoidance vector.

別の実施形態において、回避ベクトル決定部23は、回避量が十分である場合には、ベクトルVc,Veの合成ベクトルを回避ベクトルとして単に決定してもよい。   In another embodiment, the avoidance vector determination unit 23 may simply determine the combined vector of the vectors Vc and Ve as the avoidance vector when the avoidance amount is sufficient.

一実施形態において、回避ベクトル決定部23は、回避ベクトル決定部23によって決定された回避ベクトルが適切であるか否かを確認する機能を有していてもよい。回避ベクトルVは、目標対象物31に近接して配置された対象物32との接触を回避するために取出経路を補正するのに使用される。しかしながら、目標対象物31の取出経路を補正した結果として、目標対象物31の周囲にある別の対象物に接近し、場合によっては接触する可能性がある。   In one embodiment, the avoidance vector determination unit 23 may have a function of confirming whether or not the avoidance vector determined by the avoidance vector determination unit 23 is appropriate. The avoidance vector V is used to correct the take-out path in order to avoid contact with the object 32 arranged close to the target object 31. However, as a result of correcting the take-out route of the target object 31, there is a possibility of approaching another object around the target object 31 and possibly contacting.

一実施形態によれば、回避ベクトルの大きさ、すなわち回避量が予め定められる閾値を超える場合、補正経路に従って取出動作を実行すれば、別の対象物に接触する可能性があるとみなし、対象物との干渉が回避不能であるとみなしてもよい。この場合、回避ベクトルが決定されなかったものと判定され、目標対象物31は、ロボット1によって取出されることなく、別の対象物3が目標対象物31として選択される。   According to one embodiment, if the size of the avoidance vector, i.e., the avoidance amount exceeds a predetermined threshold, it is considered that there is a possibility of contact with another object if the take-out operation is performed according to the correction path. It may be considered that interference with an object is unavoidable. In this case, it is determined that the avoidance vector has not been determined, and the target object 31 is not taken out by the robot 1, and another object 3 is selected as the target object 31.

或いは、回避ベクトルに従って目標対象物31を移動させたと仮定して、移動後の目標対象物31に近接する対象物32が存在するか否かを判定してもよい。移動後の目標対象物31に近接する対象物32が存在する場合は、対象物32との干渉が回避不能であるとみなし、別の対象物3が目標対象物31として選択される。   Alternatively, assuming that the target object 31 is moved according to the avoidance vector, it may be determined whether or not there is an object 32 close to the target object 31 after the movement. When there is an object 32 that is close to the target object 31 after movement, it is considered that interference with the object 32 cannot be avoided, and another object 3 is selected as the target object 31.

一実施形態において、複数の回避ベクトルVc,Vd,Veによって形成される角度が概ね180度である場合、対象物32との干渉が回避不能であるとみなしてもよい。2つの回避ベクトルの間に形成される角度が概ね180度である場合、2つの回避ベクトルが互いに対して平行に近いことを意味する。そのため、2つの回避ベクトルから求められる回避ベクトルV(図参照)の終点を決定する直線L2,L3の交点を計算できない。   In one embodiment, when the angle formed by the plurality of avoidance vectors Vc, Vd, and Ve is approximately 180 degrees, the interference with the object 32 may be regarded as unavoidable. If the angle formed between the two avoidance vectors is approximately 180 degrees, it means that the two avoidance vectors are nearly parallel to each other. Therefore, the intersection of the straight lines L2 and L3 that determine the end point of the avoidance vector V (see the figure) obtained from the two avoidance vectors cannot be calculated.

2つのベクトルが概ね180度である場合、2つの対象物の間に目標対象物が存在することを意味する。図10は、目標対象物31の対向する2つの辺31a,31dに沿って設定される近接状態判定領域33a,33dに重なり合う対象物321,322が存在する状態を示している。   If the two vectors are approximately 180 degrees, it means that the target object exists between the two objects. FIG. 10 shows a state in which there are objects 321 and 322 that overlap the proximity state determination areas 33a and 33d set along two opposing sides 31a and 31d of the target object 31.

この場合、矢印A1,A2で示されるように、回避ベクトルVa,Vdに対して垂直な方向に目標対象物31を移動させたとしても、目標対象物31を真上に持ち上げて取出す場合と同様に、対象物321,322に干渉する可能性がある。そのため、目標対象物31及び対象物321,322が図に示されるような位置関係にある場合、目標対象物31と対象物321,322との干渉が回避不能であると決定されるべきである。   In this case, as indicated by arrows A1 and A2, even if the target object 31 is moved in a direction perpendicular to the avoidance vectors Va and Vd, the same as when the target object 31 is lifted straight up and taken out. Furthermore, there is a possibility of interfering with the objects 321 and 322. Therefore, when the target object 31 and the objects 321 and 322 are in a positional relationship as shown in the figure, it should be determined that interference between the target object 31 and the objects 321 and 322 is unavoidable. .

図に示されていない別の対象物が目標対象物31に近接して配置されている場合も、最大角を形成する2つのベクトルは同じベクトルVa,Vdになるので、同様に対象物321,322との干渉が回避不能であると判定される。目標対象物31の周囲の近接状態判定領域33a〜33fのすべての範囲内に対象物が存在する場合、目標対象物31は当然に対象物との干渉が回避不能であると決定される。   Even when another object not shown in the figure is arranged close to the target object 31, the two vectors forming the maximum angle are the same vectors Va and Vd. It is determined that the interference with 322 cannot be avoided. When the target object exists in the entire range of the proximity state determination areas 33a to 33f around the target target object 31, it is naturally determined that the target target object 31 cannot avoid interference with the target object.

図11を参照して、複数のベクトルから回避ベクトルを決定する別の実施形態について説明する。図に示される例では、3つの対象物321,322,323が目標対象物31の近接状態判定領域33c,33d,33eと重なり合っており、3つのベクトルを用いて回避ベクトルを決定する。先ず、3つのベクトルVc,Vd,Veの始点がそれぞれ目標対象物31の重心CGに一致するように、ベクトルVc,Vd,Veを移動させる。次いで、各々のベクトルVc,Vd,Veの終点を通り、それらベクトルVc,Vd,Veの方向に垂直な方向に延びる直線L2〜L4を求める。   With reference to FIG. 11, another embodiment for determining an avoidance vector from a plurality of vectors will be described. In the example shown in the figure, the three objects 321, 322, and 323 overlap the proximity state determination areas 33 c, 33 d, and 33 e of the target object 31, and the avoidance vector is determined using the three vectors. First, the vectors Vc, Vd, and Ve are moved so that the start points of the three vectors Vc, Vd, and Ve coincide with the center of gravity CG of the target object 31, respectively. Next, straight lines L2 to L4 that pass through the end points of the vectors Vc, Vd, and Ve and extend in a direction perpendicular to the directions of the vectors Vc, Vd, and Ve are obtained.

次いで、重心CGに対してそれら直線L2〜L4の外側に形成される領域どうしが重なり合う共通領域Rを求める。さらに、共通領域Rのうち重心CGに最も近い点P5を求める。回避ベクトル決定部23は、目標対象物31の重心CGを始点とし、共通領域Rにおける点P5を終点とするベクトルを回避ベクトルVとして決定する。本実施形態において、共通領域Rが存在しない場合は、目標対象物31と対象物321,322,323との干渉を回避できないと判定する。前述した実施形態と同様に、回避ベクトル決定部23は、求められた回避ベクトルVが適切であるか否かを判定する機能を有していてもよい。   Next, a common region R in which regions formed outside the straight lines L2 to L4 overlap with respect to the center of gravity CG is obtained. Further, a point P5 closest to the center of gravity CG in the common region R is obtained. The avoidance vector determination unit 23 determines a vector starting from the center of gravity CG of the target object 31 and having the point P5 in the common region R as an end point as the avoidance vector V. In the present embodiment, when the common region R does not exist, it is determined that interference between the target object 31 and the objects 321, 322, and 323 cannot be avoided. Similar to the embodiment described above, the avoidance vector determination unit 23 may have a function of determining whether or not the obtained avoidance vector V is appropriate.

図12は、1つの対象物32が2つの近接状態判定領域33g,33hにわたって重なり合っている状態を示している。このような場合、各々の近接状態判定領域33g,33hの重心CGh,CGgから目標対象物31の重心CGに向かう方向にベクトルVg,Vhをそれぞれ求める。ベクトルVg,Vhの大きさは、近接状態判定領域33g,33hの幅に等しい。回避ベクトル決定部23は、このようにして求められた複数のベクトルから、図9を参照して前述した方法に従って、回避ベクトルVを決定する。   FIG. 12 shows a state in which one object 32 overlaps over two proximity state determination regions 33g and 33h. In such a case, the vectors Vg and Vh are obtained in the direction from the centroids CGh and CGg of the proximity state determination areas 33g and 33h toward the centroid CG of the target object 31, respectively. The sizes of the vectors Vg and Vh are equal to the widths of the proximity state determination areas 33g and 33h. The avoidance vector determination unit 23 determines the avoidance vector V from the plurality of vectors thus obtained according to the method described above with reference to FIG.

図7を参照して説明したように、目標対象物31と対象物32との間の距離を利用して対象物32の近接状態を判定した場合における回避ベクトルVの決定方法について説明する。この場合、回避ベクトル決定部23は、目標対象物31と対象物32との間の距離を利用して回避ベクトルVを決定する。   As described with reference to FIG. 7, a method for determining the avoidance vector V when the proximity state of the object 32 is determined using the distance between the target object 31 and the object 32 will be described. In this case, the avoidance vector determination unit 23 determines the avoidance vector V using the distance between the target object 31 and the object 32.

図13に示されるように、3つの対象物321,322,323が目標対象物31に近接して配置されている。ベクトルV1,V2,V3は、対象物321,322,323の中心C1,C2,C3を始点として目標対象物31の中心Cに向けられている。各々のベクトルV1,V2,V3の大きさは、目標対象物31を取出す際に周囲の対象物との間に確保されるべき間隙の大きさに等しい。それらベクトルV1,V2,V3のうち、互いの間に形成される角度が最大になるような2つのベクトルを抽出する。図示された例においては、ベクトルV1,V3が抽出される。   As shown in FIG. 13, three objects 321, 322, and 323 are arranged close to the target object 31. The vectors V1, V2, and V3 are directed to the center C of the target object 31 with the centers C1, C2, and C3 of the objects 321, 322, and 323 as starting points. The size of each vector V1, V2, V3 is equal to the size of the gap to be secured between the target object 31 and the surrounding objects. Of these vectors V1, V2 and V3, two vectors are extracted such that the angle formed between them is maximized. In the illustrated example, vectors V1 and V3 are extracted.

一実施形態において、図9に関連して説明したように、ベクトルV1,V3の終点を通り、かつベクトルV1,V3に垂直な方向に延びる直線に基づいて回避ベクトルを決定してもよい。   In one embodiment, as described in connection with FIG. 9, the avoidance vector may be determined based on a straight line that passes through the end points of the vectors V1 and V3 and extends in a direction perpendicular to the vectors V1 and V3.

別の実施形態において、互いの間に形成される角度が最大になるベクトルV1,V3の合成ベクトルを利用して回避ベクトルVを決定してもよい。   In another embodiment, the avoidance vector V may be determined using a combined vector of the vectors V1 and V3 that maximize the angle formed between them.

具体的には、ベクトルV1,V3の合成ベクトルに従って目標対象物31を移動させ、移動後の目標対象物31の中心を計算する。次いで、新たに取得された移動後の目標対象物31の中心と、周囲の対象物321,322,323の中心C1,C2,C3との間の距離を計算する。次いで、対象物321,322,323が目標対象物31に近接しているか否かを判定する。移動後の目標対象物31と対象物321,322,323とが互いに近接していないと判定された場合は、ベクトルV1,V3の合成ベクトルを回避ベクトルVとして決定する。   Specifically, the target object 31 is moved according to the combined vector of the vectors V1 and V3, and the center of the target object 31 after the movement is calculated. Next, the distance between the center of the newly acquired target object 31 after movement and the centers C1, C2, C3 of the surrounding objects 321, 322, 323 is calculated. Next, it is determined whether or not the objects 321, 322 and 323 are close to the target object 31. When it is determined that the target object 31 and the objects 321, 322, and 323 after moving are not close to each other, the combined vector of the vectors V 1 and V 3 is determined as the avoidance vector V.

他方、移動後の目標対象物31と対象物321,322,323とのいずれかが依然として互いに近接していると判定された場合、合成ベクトルに所定の係数を乗算して合成ベクトルの大きさを変更する。係数には上限値が定められていてもよく、上限値以下の係数で適切な回避ベクトルVを決定できなかった場合、目標対象物31と対象物321,322,323との干渉が回避不能であるとみなし、別の目標対象物31を選択する。   On the other hand, when it is determined that any one of the target object 31 and the objects 321, 322, and 323 after moving is still close to each other, the composite vector is multiplied by a predetermined coefficient to increase the size of the composite vector. change. An upper limit value may be set for the coefficient, and when an appropriate avoidance vector V cannot be determined with a coefficient equal to or less than the upper limit value, interference between the target object 31 and the objects 321, 322, and 323 cannot be avoided. Assuming that there is another target object 31 is selected.

図14を参照して、ベクトルV1,V3を合成して得られる合成ベクトルVRを利用する別の実施形態について説明する。本実施形態において、合成ベクトルVRの方向を回避方向として決定する。他方、回避ベクトルの大きさは次のような処理に従って決定される。   With reference to FIG. 14, another embodiment using a combined vector VR obtained by combining vectors V1 and V3 will be described. In the present embodiment, the direction of the composite vector VR is determined as the avoidance direction. On the other hand, the size of the avoidance vector is determined according to the following process.

先ず、合成ベクトルVRに対して平行で、かつ目標対象物31の中心Cを通る直線L5を計算する。次いで、周囲の対象物、例えば対象物323の中心C3を中心とする円35を求める。円35は、対象物323の直径と、目標対象物31を取出す際に周囲の対象物との間に確保されるべき間隙と、の合計に等しい半径D3を有する。   First, a straight line L5 that is parallel to the composite vector VR and passes through the center C of the target object 31 is calculated. Next, a circle 35 centering on the center C3 of the surrounding object, for example, the object 323 is obtained. The circle 35 has a radius D3 equal to the sum of the diameter of the object 323 and the gap to be secured with the surrounding objects when the target object 31 is removed.

次いで、直線L5と円35との交点P6,P7を求める。それら交点P6,P7のうち、目標対象物31の中心Cにより近い交点(図示された例では交点P6)を求める。次いで、目標対象物31の中心Cから交点P6までの距離を計算する。こうして求められた距離が、目標対象物31を取出す際に対象物323との接触を確実に回避できる最小限の回避量である。目標対象物31に近接する他の対象物321,322それぞれに対して前述した処理と同様の処理を実行し、各々の対象物321,322,323を回避するのに必要な最小限の回避量を求める。それら最小限の回避量のうちの最大値を、回避ベクトルVの大きさ(回避量)として設定する。   Next, intersections P6 and P7 between the straight line L5 and the circle 35 are obtained. Among these intersection points P6 and P7, an intersection point (intersection point P6 in the illustrated example) that is closer to the center C of the target object 31 is obtained. Next, the distance from the center C of the target object 31 to the intersection P6 is calculated. The distance thus obtained is the minimum avoidance amount that can reliably avoid contact with the object 323 when the target object 31 is taken out. The minimum amount of avoidance required to avoid the objects 321, 322, and 323 by executing the same process as described above for each of the other objects 321 and 322 that are close to the target object 31. Ask for. The maximum value among the minimum avoidance amounts is set as the size of the avoidance vector V (avoidance amount).

図15を参照して、ベクトルV1,V3を利用せずに回避ベクトルVを決定する実施形態について説明する。円36,37,38は、対象物321,322,323の中心C1,C2,C3を中心とし、対象物321,322,323の直径と、目標対象物31を取出す際に周囲の対象物321,322,323との間に確保されるべき間隙と、の合計に等しい半径を有している。   With reference to FIG. 15, an embodiment in which the avoidance vector V is determined without using the vectors V1 and V3 will be described. The circles 36, 37, and 38 are centered on the centers C1, C2, and C3 of the objects 321, 322, and 323, and the diameters of the objects 321, 322, and 323 and the surrounding objects 321 when the target object 31 is taken out. , 322, 323 and a radius equal to the sum of the gaps to be secured.

次いで、対象物321,322,323の周りに形成される円36,37,38の外側の領域のうち互いに重なり合う領域のうち、目標対象物31の中心Cから最も小さい距離に位置する点P8を計算する。回避ベクトル決定部23は、目標対象物31の中心Cを始点とし、点P8を終点とするベクトルを回避ベクトルVとして決定する。   Next, the point P8 located at the smallest distance from the center C of the target object 31 among the areas overlapping each other among the areas outside the circles 36, 37, and 38 formed around the objects 321, 322, and 323. calculate. The avoidance vector determination unit 23 determines a vector having the center C of the target object 31 as a start point and the point P8 as an end point as an avoidance vector V.

次に、取出経路補正部24及び取出動作実行部25の機能について詳細に説明する。図16は、取出経路補正部24によって、回避ベクトルVに従って補正される取出経路を示す図である。図16には、プログラムされた取出経路の通過点P31,P32、及び取出経路補正部24によって作成された補正経路の通過点P41,P42がそれぞれ示されている。各々の通過点は、ロボット1の把持装置11のツール先端点RPが通過する位置を表している。点P10は、ロボット1の把持装置11が目標対象物31を把持するときのツール先端点RPの位置(把持位置)を表している。   Next, functions of the extraction path correction unit 24 and the extraction operation execution unit 25 will be described in detail. FIG. 16 is a diagram illustrating the extraction path corrected by the extraction path correction unit 24 according to the avoidance vector V. In FIG. 16, the passage points P31 and P32 of the take-out route programmed, and the passage points P41 and P42 of the correction route created by the take-out route correction unit 24 are shown. Each passing point represents a position through which the tool tip point RP of the gripping device 11 of the robot 1 passes. A point P10 represents the position (gripping position) of the tool tip point RP when the gripping device 11 of the robot 1 grips the target object 31.

目標対象物31に近接して配置される対象物が存在しない場合、ロボット1は、把持装置11で目標対象物31を把持した後、通過点P31,P32を通過して目標対象物31を取出す。それに対し、対象物32が目標対象物31に近接して配置されている場合、プログラムされた取出経路に従って目標対象物31を取出すと、目標対象物31又はロボット1が対象物32に接触して対象物32の位置を変更してしまう虞がある。   When there is no target object arranged close to the target target object 31, the robot 1 grips the target target object 31 with the gripping device 11, and then passes through the passing points P <b> 31 and P <b> 32 to take out the target target object 31. . On the other hand, when the target object 32 is arranged close to the target target object 31, when the target target object 31 is taken out according to the programmed extraction route, the target target object 31 or the robot 1 comes into contact with the target object 32. There is a risk of changing the position of the object 32.

そこで、対象物32が目標対象物31に近接して配置されている場合、ロボット1は、回避ベクトルVによって補正された通過点P41,P42を通過する補正経路に従って目標対象物31を取出す。なお、把持位置P10は変更されていない。補正経路の第1の通過点P41は、プログラムされた取出経路の第1の通過点P31を始点とする回避ベクトルVの終点に等しい。同様に、補正経路の第2の通過点P42は、プログラムされた取出経路の第2の通過点P32を始点とする回避ベクトルVの終点に等しい。   Therefore, when the target object 32 is arranged close to the target target object 31, the robot 1 takes out the target target object 31 according to the correction path passing through the passing points P 41 and P 42 corrected by the avoidance vector V. Note that the gripping position P10 is not changed. The first passing point P41 of the correction path is equal to the end point of the avoidance vector V starting from the first passing point P31 of the programmed take-out path. Similarly, the second passing point P42 of the correction path is equal to the end point of the avoidance vector V starting from the second passing point P32 of the programmed take-out path.

図17は、別の実施形態に従って作成される補正経路を示している。目標対象物31を取出す際に、周囲の対象物32と接触する可能性が最も高いのは、最初の通過点に向かって移動するときである。したがって、本実施形態によれば、回避ベクトルVに従って最初の通過点である取出経路の第1の通過点P31をP41に変更するものの、第2の通過点P32以降は変更しない。それにより、本実施形態によれば、図7に示されるように、補正経路の第2の通過点P42は、プログラムされた取出経路P32と一致するようになる。   FIG. 17 shows a correction path created according to another embodiment. When the target object 31 is taken out, it is most likely that the target object 31 contacts the surrounding object 32 when moving toward the first passing point. Therefore, according to the present embodiment, the first passing point P31 of the take-out route that is the first passing point is changed to P41 according to the avoidance vector V, but the second passing point P32 and the subsequent points are not changed. Thereby, according to the present embodiment, as shown in FIG. 7, the second passing point P42 of the correction path coincides with the programmed extraction path P32.

図18は、また別の実施形態に従って作成される補正経路を示している。本実施形態においては、把持位置P10及び目標点P11のみがプログラムによって指定される。すなわち、図16及び図17を参照して説明した実施形態とは異なり、第1の通過点P31,P32は、プログラムによって指定されていない。そのような場合、把持位置P10を始点とする回避ベクトルVの終点によって指定される位置に通過点P41を追加するように取出経路を補正してもよい。さらに、図18に示されるように、第2の通過点P42を追加するように取出経路を補正してもよい。   FIG. 18 shows a correction path created according to yet another embodiment. In the present embodiment, only the grip position P10 and the target point P11 are specified by the program. That is, unlike the embodiment described with reference to FIGS. 16 and 17, the first passing points P31 and P32 are not specified by the program. In such a case, the extraction path may be corrected so that the passing point P41 is added to the position specified by the end point of the avoidance vector V starting from the gripping position P10. Furthermore, as shown in FIG. 18, the take-out path may be corrected so as to add the second passing point P42.

図19は、さらに別の実施形態に従って補正された取出経路を示している。本実施形態は、図18の実施形態と同様に、把持位置P10及び目標点P11のみがプログラムによって指定されている。また、取出経路補正部24によって補正経路の通過点P41,P42が追加される。しかしながら、本実施形態において、補正によって追加される第1の通過点P41は、把持位置P10から回避ベクトルVに上向きのベクトルV’’を加算して得られるベクトルV’に従って計算される。   FIG. 19 shows the extraction path corrected according to yet another embodiment. In the present embodiment, only the gripping position P10 and the target point P11 are designated by the program, as in the embodiment of FIG. In addition, correction route passing points P41 and P42 are added by the extraction route correction unit 24. However, in the present embodiment, the first passing point P41 added by the correction is calculated according to the vector V ′ obtained by adding the upward vector V ″ to the avoidance vector V from the gripping position P10.

上向きのベクトルV’’を加算したベクトルV’に従って、補正経路の第1の通過点P41を指定すれば、目標対象物31を床面から持ち上げられるように目標対象物31が移動するので、目標対象物31を床面に擦らせることなく取出せる。   If the first passing point P41 of the correction path is designated according to the vector V ′ obtained by adding the upward vector V ″, the target object 31 moves so that the target object 31 can be lifted from the floor surface. The object 31 can be taken out without being rubbed against the floor surface.

図20は、図1を参照して説明された実施形態とは異なる実施形態に係るロボットシステム10の全体構成図である。本実施形態に係るロボットシステム10は、概ね平坦な載置面を有するコンベア51によって搬送される対象物3を、ロボット1の把持装置11によって1つずつ順次取出すように構成されている。本実施形態に係るロボットシステム10は、ビジュアルトラッキング技術を利用して、コンベア51によって搬送される対象物3の動きに追従して対象物3の取出工程を実行できるように構成される。搬送方向におけるロボット1の上流側には、検出領域52の範囲内に含まれる対象物3を撮像する視覚センサ4が設置されている。視覚センサ4によって取得される画像データは、画像処理装置42に入力され、対象物3の位置などの情報が計算される。   FIG. 20 is an overall configuration diagram of a robot system 10 according to an embodiment different from the embodiment described with reference to FIG. The robot system 10 according to the present embodiment is configured to sequentially take out the objects 3 conveyed by the conveyor 51 having a substantially flat placement surface one by one by the gripping device 11 of the robot 1. The robot system 10 according to the present embodiment is configured to be able to execute a process of taking out the object 3 following the movement of the object 3 conveyed by the conveyor 51 using visual tracking technology. On the upstream side of the robot 1 in the transport direction, a visual sensor 4 that captures an image of the object 3 included in the detection area 52 is installed. Image data acquired by the visual sensor 4 is input to the image processing device 42, and information such as the position of the object 3 is calculated.

コンベア51には、エンコーダ54が取付けられており、エンコーダ54の検出情報に基づいて、コンベア51の移動量、すなわち対象物3の移動量が計算されるようになっている。ロボット制御装置2は、視覚センサ4の検出情報から求められる対象物3の位置情報、及びエンコーダ54の検出情報から求められる対象物3の移動量に基づいて、コンベア51と一緒に移動する対象物3の位置を追跡できるようになっている。ロボット1は、対象物3が作業領域53に到達したことを検出したときに、対象物3を順次取出すように構成されている。このようなビジュアルトラッキングは周知の技術であるので、本明細書では詳細な説明を省略する。例えば、特許文献5に記載された技術を利用してもよい。   An encoder 54 is attached to the conveyor 51, and the movement amount of the conveyor 51, that is, the movement amount of the object 3 is calculated based on the detection information of the encoder 54. The robot controller 2 moves the object 3 together with the conveyor 51 based on the position information of the object 3 obtained from the detection information of the visual sensor 4 and the amount of movement of the object 3 obtained from the detection information of the encoder 54. The position of 3 can be tracked. The robot 1 is configured to sequentially take out the objects 3 when it is detected that the object 3 has reached the work area 53. Since such visual tracking is a well-known technique, detailed description thereof is omitted in this specification. For example, the technique described in Patent Document 5 may be used.

ロボット1の上流に視覚センサ4が設けられたロボットシステム10において、対象物3が視覚センサ4の検出領域52の外部に移動した後は、対象物3の位置情報を視覚センサ4で取得することはできない。したがって、或る対象物3を取出す際に、別の対象物3に接触して該対象物3の位置を変更してしまうと、視覚センサ4によって取得された位置情報がもはや正確ではなくなる。そのため、周囲の対象物3の位置を変更しないように対象物3を正確に取出すことがとりわけ重要である。   In the robot system 10 in which the visual sensor 4 is provided upstream of the robot 1, the position information of the target 3 is acquired by the visual sensor 4 after the target 3 has moved outside the detection area 52 of the visual sensor 4. I can't. Therefore, when a certain object 3 is taken out and the position of the object 3 is changed by contacting another object 3, the position information acquired by the visual sensor 4 is no longer accurate. Therefore, it is particularly important to accurately take out the object 3 so as not to change the position of the surrounding object 3.

本実施形態において、コンベア51は、図20に矢印で示される方向(右側から左側)に一定の速度で移動する。対象物3は、コンベア51上で不規則に配置されていてよいものの、対象物3同士が上下に重なり合うことはないものとする。また、対象物3に対してロボット1又は他の対象物3が接触しない限り、対象物3はコンベア51に対してスライドすることなく一体的に移動するものとする。   In the present embodiment, the conveyor 51 moves at a constant speed in the direction indicated by the arrow in FIG. 20 (from the right side to the left side). Although the target object 3 may be arrange | positioned irregularly on the conveyor 51, the target objects 3 shall not overlap up and down. Further, unless the robot 1 or another object 3 is in contact with the object 3, the object 3 is integrally moved without sliding with respect to the conveyor 51.

本実施形態において、近接状態判定部22及び回避ベクトル決定部23は、前述した実施形態と同様の機能を有する。しかしながら、取出経路補正部24及び取出動作実行部25は、対象物3の位置が常時移動する点を考慮して設定を必要しておくのが好ましい。具体的には、特許文献5にも記載されているように、コンベア51とともに移動するトラッキング座標系を設定し、対象物3の取出経路及び補正経路をトラッキング座標系において定義するのが便利である。   In the present embodiment, the proximity state determination unit 22 and the avoidance vector determination unit 23 have the same functions as in the above-described embodiment. However, it is preferable that the take-out path correction unit 24 and the take-out operation execution unit 25 need to be set in consideration of the fact that the position of the object 3 constantly moves. Specifically, as described in Patent Document 5, it is convenient to set a tracking coordinate system that moves together with the conveyor 51 and to define the take-out path and the correction path of the object 3 in the tracking coordinate system. .

図21は、トラッキング座標系T1において表現した取出経路の通過点P31を示している。前述したように、トラッキング座標系T1は、コンベア51の動作に追従して移動する動的な座標系である。コンベア51の位置はエンコーダ54によって検出され、ロボット制御装置2はエンコーダ54の検出情報に基づいて、トラッキング座標系T1の位置を取得できるように構成されている。   FIG. 21 shows the passing point P31 of the extraction path expressed in the tracking coordinate system T1. As described above, the tracking coordinate system T1 is a dynamic coordinate system that moves following the operation of the conveyor 51. The position of the conveyor 51 is detected by the encoder 54, and the robot control device 2 is configured to be able to acquire the position of the tracking coordinate system T1 based on the detection information of the encoder 54.

図21には、或る時点におけるトラッキング座標系T1及び取出経路の通過点P31が、別の時点におけるトラッキング座標系T1における通過点P31とともに示されている。このように、ロボット座標系R0又はツール座標系T0における通過点P31の位置が常時変化する一方で、トラッキング座標系T1における通過点P31は一定である。   In FIG. 21, the tracking coordinate system T1 and the passing point P31 of the take-out path at a certain time are shown together with the passing point P31 in the tracking coordinate system T1 at another time. Thus, the position of the passing point P31 in the robot coordinate system R0 or the tool coordinate system T0 constantly changes, while the passing point P31 in the tracking coordinate system T1 is constant.

したがって、本実施形態において、固定された座標系、例えばロボット座標系R0の代わりに、コンベア51とともに移動するトラッキング座標系T1を基準にしてロボット1に取出動作を実行させれば、前述した実施形態と同様の処理を容易に実行可能である。すなわち、動的なトラッキング座標系T1に対して、ロボット1が相対的に移動することによって、対象物3の取出工程が実行されるようになる。   Therefore, in the present embodiment, if the robot 1 performs the take-out operation based on the tracking coordinate system T1 that moves together with the conveyor 51 instead of the fixed coordinate system, for example, the robot coordinate system R0, the above-described embodiment. It is possible to easily execute the same process. That is, when the robot 1 moves relative to the dynamic tracking coordinate system T1, the step of taking out the object 3 is executed.

このように、ビジュアルトラッキングを利用した本発明に係るロボットシステムによれば、目標対象物の取出工程において、周囲の対象物の位置が不意に変化するのを防止できる。それにより、取出工程を安定して実行できるようになる。   As described above, according to the robot system according to the present invention using the visual tracking, it is possible to prevent the positions of the surrounding objects from being unexpectedly changed in the target object extraction process. Thereby, the extraction process can be executed stably.

以上、本発明の種々の実施形態について説明したが、当業者であれば、他の実施形態によっても本発明の意図する作用効果を実現できることを認識するであろう。特に、本発明の範囲を逸脱することなく、前述した実施形態の構成要素を削除又は置換することができるし、或いは公知の手段をさらに付加することができる。また、本明細書において明示的又は暗示的に開示される複数の実施形態の特徴を任意に組合せることによっても本発明を実施できることは当業者に自明である。   Although various embodiments of the present invention have been described above, those skilled in the art will recognize that the functions and effects intended by the present invention can be realized by other embodiments. In particular, the components of the above-described embodiments can be deleted or replaced without departing from the scope of the present invention, or known means can be further added. It is obvious to those skilled in the art that the present invention can be implemented by arbitrarily combining features of a plurality of embodiments explicitly or implicitly disclosed in the present specification.

1 ロボット
11 把持装置
12 アーム
13 モータ
14 爪
2 ロボット制御装置
21 目標対象物選択部
22 近接状態判定部
23 回避ベクトル決定部
24 取出経路補正部
25 取出動作実行部
3 対象物
31 目標対象物
32,321,322,323 (目標対象物以外の)対象物
33a〜33h 近接状態判定領域
4 視覚センサ
42 画像処理装置
5 台座(平面)
51 コンベア
R0 ロボット座標系
T0 ツール座標系
T1 トラッキング座標系
DESCRIPTION OF SYMBOLS 1 Robot 11 Grasp apparatus 12 Arm 13 Motor 14 Claw 2 Robot control apparatus 21 Target object selection part 22 Proximity state determination part 23 Avoidance vector determination part 24 Extraction path | route correction | amendment part 25 Extraction operation execution part 3 Target object 31 Target object 32, 321, 322, 323 Objects 33 a-33 h (proximity state determination area) 4 Visual sensor 42 Image processing device 5 Base (plane)
51 Conveyor R0 Robot coordinate system T0 Tool coordinate system T1 Tracking coordinate system

Claims (12)

平面に置かれた複数の対象物の位置を表す情報を視覚センサによって検出し、検出された情報に基づいて前記複数の対象物をロボットによって1つずつ取出経路に従って取出すロボットシステムであって、
前記視覚センサによって検出される情報に基づいて、前記ロボットによって取出される目標対象物を選択する目標対象物選択部と、
前記視覚センサによって検出される情報に基づいて、前記目標対象物以外の他の対象物が、該目標対象物に近接して配置されているか否かを判定する近接状態判定部と、
前記近接状態判定部によって、少なくとも1つの対象物が前記目標対象物に近接して配置されていると判定された場合に、前記視覚センサによって検出される情報に基づいて、前記ロボットによって前記目標対象物を取出す際に、前記少なくとも1つの対象物との干渉が起きないように、前記平面に対して平行な回避方向及び回避量を回避ベクトルとして決定する回避ベクトル決定部と、
前記回避ベクトル決定部によって決定される前記回避ベクトルに基づいて、他の対象物との干渉が起きないように前記取出経路を補正した補正経路を作成する取出経路補正部と、
前記近接状態判定部によって前記目標対象物に近接して配置されている対象物がないと判定された場合に、前記取出経路に従って前記ロボットを制御して前記目標対象物を取出すとともに、前記近接状態判定部によって少なくとも1つの対象物が前記目標対象物に近接して配置されていると判定された場合に、前記取出経路補正部によって作成された前記補正経路に従って前記目標対象物を取出す取出動作実行部と、
を備える、ロボットシステム。
A robot system that detects information representing positions of a plurality of objects placed on a plane by a visual sensor, and extracts the plurality of objects one by one according to an extraction path based on the detected information,
A target object selection unit that selects a target object to be taken out by the robot based on information detected by the visual sensor;
Based on information detected by the visual sensor, a proximity state determination unit that determines whether other objects other than the target object are arranged in proximity to the target object;
When the proximity state determination unit determines that at least one object is disposed in proximity to the target object, the target object is detected by the robot based on information detected by the visual sensor. An avoidance vector determination unit that determines an avoidance direction and an avoidance amount parallel to the plane as an avoidance vector so that interference with the at least one object does not occur when taking out an object;
Based on the avoidance vector determined by the avoidance vector determination unit, an extraction path correction unit that creates a correction path that corrects the extraction path so that interference with other objects does not occur;
When the proximity state determination unit determines that there is no object arranged in proximity to the target object, the robot is controlled according to the take-out route to take out the target object, and the proximity state When the determination unit determines that at least one object is arranged close to the target object, execution of an extraction operation to extract the target object according to the correction path created by the extraction path correction unit And
A robot system comprising:
前記回避ベクトル決定部が、他の対象物との干渉を防止する回避ベクトルを決定できなかった場合に、前記目標対象物選択部は、前記目標対象物以外の別の対象物を新たに目標対象物として選択するように構成される、請求項1に記載のロボットシステム。   When the avoidance vector determination unit cannot determine an avoidance vector that prevents interference with other objects, the target object selection unit newly sets another object other than the target object as a target object. The robotic system of claim 1, configured to select as an object. 前記近接状態判定部は、前記目標対象物の周囲に複数の近接状態判定領域を設定するとともに、
前記目標対象物以外の対象物が前記近接状態判定領域のうちの少なくとも1つに重なっている場合に、該対象物が、前記目標対象物に近接して配置されていると判定するように構成される、請求項1又は2に記載のロボットシステム。
The proximity state determination unit sets a plurality of proximity state determination regions around the target object,
When an object other than the target object overlaps at least one of the proximity state determination regions, the object is determined to be disposed in proximity to the target object The robot system according to claim 1 or 2, wherein:
前記近接状態判定部は、前記目標対象物以外の対象物の周囲に複数の近接状態判定領域をそれぞれ設定するとともに、
予め定められる前記目標対象物の外形が、前記対象物の近接状態判定領域に重なり合う場合に、前記対象物が前記目標対象物に近接して配置されていると判定するように構成される、請求項1又は2に記載のロボットシステム。
The proximity state determination unit sets a plurality of proximity state determination regions around an object other than the target object,
The device is configured to determine that the object is disposed in proximity to the target object when a predetermined outer shape of the target object overlaps a proximity state determination region of the object. Item 3. The robot system according to Item 1 or 2.
前記近接状態判定部は、前記目標対象物と、該目標対象物以外の対象物との間の距離が予め定められる閾値よりも小さい場合に、前記対象物が前記目標対象物に近接して配置されていると判定するように構成される、請求項1又は2に記載のロボットシステム。   When the distance between the target object and an object other than the target object is smaller than a predetermined threshold, the proximity state determination unit is arranged close to the target object The robot system according to claim 1, wherein the robot system is configured to determine that the operation has been performed. 前記近接状態判定部は、各々の対象物の外形に対応する多角形を生成するとともに、
前記目標対象物の外形に対応する多角形の辺と、前記目標対象物以外の対象物の外形に対応する多角形の頂点との間の距離、又は前記目標対象物の外形に対応する多角形の頂点と、前記目標対象物以外の対象物の外形に対応する多角形の辺との間の距離が予め定められる閾値よりも小さい場合に、前記対象物が前記目標対象物に近接して配置されていると判定するように構成される、請求項1又は2に記載のロボットシステム。
The proximity state determination unit generates a polygon corresponding to the outer shape of each object,
The distance between the side of the polygon corresponding to the outer shape of the target object and the vertex of the polygon corresponding to the outer shape of the object other than the target object, or the polygon corresponding to the outer shape of the target object And when the distance between the vertex of the polygon and the side of the polygon corresponding to the outer shape of the object other than the target object is smaller than a predetermined threshold, the object is arranged close to the target object The robot system according to claim 1, wherein the robot system is configured to determine that the operation has been performed.
前記回避ベクトル決定部は、前記近接状態判定部によって、対象物が前記目標対象物に近接していると判定された前記近接状態判定領域から前記目標対象物に向かって定められる方向を前記回避方向として決定するように構成される、請求項3又は4に記載のロボットシステム。   The avoidance vector determining unit determines a direction determined from the proximity state determination region determined by the proximity state determination unit to be close to the target object toward the target object. A robotic system according to claim 3 or 4, wherein the robotic system is configured to determine as follows. 前記回避ベクトル決定部は、前記近接状態判定部によって、前記目標対象物に近接していると判定された対象物から前記目標対象物に向かう方向を前記回避方向として決定するように構成される、請求項5又は6に記載のロボットシステム。   The avoidance vector determination unit is configured to determine, as the avoidance direction, a direction from the object determined to be close to the target object by the proximity state determination unit toward the target object. The robot system according to claim 5 or 6. 前記回避ベクトル決定部は、前記近接状態判定部によって、対象物が複数の近接状態判定領域において前記目標対象物に近接していると判定された場合に、前記複数の近接状態判定領域のそれぞれに対して仮の回避ベクトルを決定するとともに、前記仮の回避ベクトルに基づいて前記回避ベクトルを決定するように構成される、請求項7に記載のロボットシステム。   When the proximity state determination unit determines that the target object is close to the target object in a plurality of proximity state determination regions, the avoidance vector determination unit applies each of the plurality of proximity state determination regions. The robot system according to claim 7, wherein the robot system is configured to determine a temporary avoidance vector for the temporary avoidance vector based on the temporary avoidance vector. 前記回避ベクトル決定部は、前記近接状態判定部によって、複数の対象物が前記目標対象物に近接して配置されていると判定された場合に、前記複数の対象物のそれぞれに対して仮の回避ベクトルを決定するとともに、前記仮の回避ベクトルに基づいて前記回避ベクトルを決定するように構成される、請求項8に記載のロボットシステム。   When the proximity state determination unit determines that the plurality of objects are arranged in proximity to the target object, the avoidance vector determination unit is provisional for each of the plurality of objects. The robot system of claim 8, configured to determine an avoidance vector and to determine the avoidance vector based on the temporary avoidance vector. 前記取出経路補正部は、前記補正経路の少なくとも最初の通過点の位置を、前記回避ベクトル決定部によって決定される前記回避ベクトルを用いて決定するように構成される、請求項1又は2に記載のロボットシステム。   The extraction route correction unit is configured to determine a position of at least the first passing point of the correction route using the avoidance vector determined by the avoidance vector determination unit. Robot system. 前記取出経路補正部は、前記取出経路の始点の位置を前記回避ベクトル決定部によって決定される前記回避ベクトルに従って移動し、さらに前記平面から離間する方向に予め定められる距離だけ移動した位置を前記補正経路の最初の通過点の位置として決定するように構成される、請求項1又は2に記載のロボットシステム。   The extraction path correction unit moves the position of the start point of the extraction path according to the avoidance vector determined by the avoidance vector determination unit, and further corrects a position moved by a predetermined distance in a direction away from the plane. The robot system according to claim 1, wherein the robot system is configured to determine the position of the first passing point of the path.
JP2015066029A 2015-03-27 2015-03-27 A robot system having a function of correcting the take-out path of an object Active JP6489894B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015066029A JP6489894B2 (en) 2015-03-27 2015-03-27 A robot system having a function of correcting the take-out path of an object

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015066029A JP6489894B2 (en) 2015-03-27 2015-03-27 A robot system having a function of correcting the take-out path of an object

Publications (2)

Publication Number Publication Date
JP2016185573A true JP2016185573A (en) 2016-10-27
JP6489894B2 JP6489894B2 (en) 2019-03-27

Family

ID=57202857

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015066029A Active JP6489894B2 (en) 2015-03-27 2015-03-27 A robot system having a function of correcting the take-out path of an object

Country Status (1)

Country Link
JP (1) JP6489894B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018144165A (en) * 2017-03-03 2018-09-20 株式会社キーエンス Image processing system, image processing method, image processing program and computer-readable recording medium, and recorded equipment
DE102018212531A1 (en) 2017-08-03 2019-02-21 Fanuc Corporation Article transfer device
JP2019209459A (en) * 2018-06-08 2019-12-12 ファナック株式会社 Robot system and control method of robot system
WO2020012565A1 (en) * 2018-07-10 2020-01-16 三菱電機株式会社 Robot control device
US11138684B2 (en) 2019-04-25 2021-10-05 Fanuc Corporation Image processing apparatus, image processing method, and robot system

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023188407A1 (en) * 2022-03-31 2023-10-05 ファナック株式会社 Robot system

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6134675A (en) * 1984-07-27 1986-02-18 Hitachi Ltd Image recognizing method and its device
JPH0991441A (en) * 1995-09-26 1997-04-04 Matsushita Electric Works Ltd Method for detecting interference of objects
JP2012055995A (en) * 2010-09-07 2012-03-22 Fuji Electric Co Ltd Robot control device, article picking up system, program, and robot control method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6134675A (en) * 1984-07-27 1986-02-18 Hitachi Ltd Image recognizing method and its device
JPH0991441A (en) * 1995-09-26 1997-04-04 Matsushita Electric Works Ltd Method for detecting interference of objects
JP2012055995A (en) * 2010-09-07 2012-03-22 Fuji Electric Co Ltd Robot control device, article picking up system, program, and robot control method

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018144165A (en) * 2017-03-03 2018-09-20 株式会社キーエンス Image processing system, image processing method, image processing program and computer-readable recording medium, and recorded equipment
DE102018212531B4 (en) * 2017-08-03 2020-09-10 Fanuc Corporation Article transfer device
US10596707B2 (en) 2017-08-03 2020-03-24 Fanuc Corporation Article transfer device
CN109384039A (en) * 2017-08-03 2019-02-26 发那科株式会社 Apparatus for handling goods
DE102018212531A1 (en) 2017-08-03 2019-02-21 Fanuc Corporation Article transfer device
JP2019025634A (en) * 2017-08-03 2019-02-21 ファナック株式会社 Article conveyance device
DE102019208187A1 (en) 2018-06-08 2019-12-12 Fanuc Corporation Robot system and control method for a robot system
JP2019209459A (en) * 2018-06-08 2019-12-12 ファナック株式会社 Robot system and control method of robot system
US11084173B2 (en) 2018-06-08 2021-08-10 Fanuc Corporation Robot system and control method for robot system
DE102019208187B4 (en) 2018-06-08 2022-05-19 Fanuc Corporation Robot system and control method for a robot system
JP6632783B1 (en) * 2018-07-10 2020-01-22 三菱電機株式会社 Robot controller
WO2020012565A1 (en) * 2018-07-10 2020-01-16 三菱電機株式会社 Robot control device
DE112018007703B4 (en) 2018-07-10 2022-03-03 Mitsubishi Electric Corporation robot controller
DE112018007703C5 (en) 2018-07-10 2023-01-05 Mitsubishi Electric Corporation robot controller
US11138684B2 (en) 2019-04-25 2021-10-05 Fanuc Corporation Image processing apparatus, image processing method, and robot system

Also Published As

Publication number Publication date
JP6489894B2 (en) 2019-03-27

Similar Documents

Publication Publication Date Title
CN111776762B (en) Robotic system with automated package scanning and registration mechanism and method of operation thereof
JP6489894B2 (en) A robot system having a function of correcting the take-out path of an object
CN112091970B (en) Robotic system with enhanced scanning mechanism
US9415511B2 (en) Apparatus and method for picking up article randomly piled using robot
US20190193947A1 (en) Article transfer apparatus, robot system, and article transfer method
US20130238124A1 (en) Information processing apparatus and information processing method
EP2921267A2 (en) Robot system, calibration method in robot system, and position correcting method in robot system
CN112307870A (en) Post-detection improvement based on edges and multi-dimensional corners
WO2020157875A1 (en) Work coordinate generation device
WO2023013740A1 (en) Robot control device, robot control system, and robot control method
CN111783529B (en) Post-detection improvement based on edges and multi-dimensional corners
CN115258510A (en) Robot system with object update mechanism and method for operating the robot system
TW202316213A (en) Control device and robot system
CN115676223A (en) Robot system with object update mechanism and method for operating the same
CN116194256A (en) Robot system with overlapping processing mechanism and method of operation thereof

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170825

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180718

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180731

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180925

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190205

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190226

R150 Certificate of patent or registration of utility model

Ref document number: 6489894

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150