JP7143410B2 - robot system - Google Patents

robot system Download PDF

Info

Publication number
JP7143410B2
JP7143410B2 JP2020525044A JP2020525044A JP7143410B2 JP 7143410 B2 JP7143410 B2 JP 7143410B2 JP 2020525044 A JP2020525044 A JP 2020525044A JP 2020525044 A JP2020525044 A JP 2020525044A JP 7143410 B2 JP7143410 B2 JP 7143410B2
Authority
JP
Japan
Prior art keywords
work
unit
robot system
robot
workpiece
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020525044A
Other languages
Japanese (ja)
Other versions
JPWO2019239563A1 (en
Inventor
洸太 山口
聡浩 道添
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Motor Co Ltd
Original Assignee
Yamaha Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Motor Co Ltd filed Critical Yamaha Motor Co Ltd
Publication of JPWO2019239563A1 publication Critical patent/JPWO2019239563A1/en
Application granted granted Critical
Publication of JP7143410B2 publication Critical patent/JP7143410B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1669Programme controls characterised by programming, planning systems for manipulators characterised by special application, e.g. multi-arm co-operation, assembly, grasping
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1674Programme controls characterised by safety, monitoring, diagnostic
    • B25J9/1676Avoiding collision or forbidden zones
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39484Locate, reach and grasp, visual guided grasping
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40053Pick 3-D object from pile of objects
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/45Nc applications
    • G05B2219/45063Pick and place manipulator

Description

本発明は、複数のワークが収容された容器等から前記ワークを取り出して搬送するロボットを備えるロボットシステムに関するものである。 The present invention relates to a robot system having a robot that picks up and transports a plurality of works from a container or the like containing the works.

複数のワークがバラ積みされた状態で収容された容器からワークを取り出すシステムとして、例えば特許文献1に開示されるように、ハンド部を備えたロボットによってワークを取り出すロボットシステムが知られている。このロボットシステムは、三次元測定装置で測定された、バラ積みされたワークの表面位置に基づいて最上位にあるワークを特定し、このワークを取り出し可能なハンド部の目標位置およびハンド部の目標姿勢を設定するとともに、当該目標位置および目標姿勢に基づきハンド部を制御するものでる。 As a system for picking up workpieces from a container in which a plurality of workpieces are stored in a randomly stacked state, there is known a robot system for picking up workpieces by a robot having a hand unit, as disclosed in Patent Document 1, for example. This robot system identifies the uppermost workpiece based on the surface position of the randomly stacked workpieces measured by the three-dimensional measuring device, and determines the target position of the hand section from which this workpiece can be picked up and the target position of the hand section. The posture is set, and the hand unit is controlled based on the target position and target posture.

特許文献1に開示されるような従来のロボットシステムでは、容器からのワークの取り出しが成功した場合でも、ワークの運搬中に、ハンド部の把持部分が傷つき、或いは変形するおそれがある。そのため、ワークの品質を含めた意味で適切なワークの取り出しや運搬が行われているとは言えず、この点に改善の余地がある。 In the conventional robot system disclosed in Patent Document 1, even if the work is successfully taken out of the container, there is a possibility that the grasped portion of the hand portion may be damaged or deformed during the work being transported. For this reason, it cannot be said that the workpieces are picked up or transported appropriately in terms of the quality of the workpieces, and there is room for improvement in this respect.

特許第5642738号公報Japanese Patent No. 5642738

本発明は、上記のような事情に鑑みてなされたものであり、その目的とするところは、複数のワークが収容された容器からより良好に品質を保ちつつワークを取り出して所定位置まで運搬することができるロボットシステムを提供することにある。 The present invention has been made in view of the circumstances as described above, and its object is to take out a plurality of workpieces from a container in which the workpieces are stored and transport them to a predetermined position while maintaining better quality. To provide a robot system capable of

そして、本発明の一の局面に係るロボットシステムは、複数のワークが収容された収容部から前記ワークを把持して取り出し、所定位置に運搬するハンド部を備えたロボットと、前記収容部から前記ワークを取り出して前記所定位置に運搬する、前記ロボットの搬送動作を制御するロボット制御部と、前記搬送動作に関する条件であって、前記ワークのうち、前記ハンド部により把持することを禁止する把持禁止領域を少なくとも含む搬送条件を設定する搬送条件設定部と、を備え、前記ロボット制御部は、前記搬送条件設定部により設定された搬送条件に基づき前記ロボットを制御するものである。 A robot system according to one aspect of the present invention includes a robot equipped with a hand unit for grasping and taking out a plurality of works from a storage unit in which the works are stored and transporting the works to a predetermined position; A robot control unit for controlling a transfer operation of the robot that picks up a work and carries it to the predetermined position; a transport condition setting unit that sets transport conditions including at least an area, wherein the robot control unit controls the robot based on the transport conditions set by the transport condition setting unit.

図1は、本発明の一実施形態に係るロボットシステムの構成を示すブロック図である。FIG. 1 is a block diagram showing the configuration of a robot system according to one embodiment of the present invention. 図2は、ロボットシステムに備えられるロボットの一例を示す側面図である。FIG. 2 is a side view showing an example of a robot provided in the robot system. 図3は、ロボットシステムの基本動作を説明するためのフローチャートである。FIG. 3 is a flow chart for explaining the basic operation of the robot system. 図4Aは、ワークの平面図である。FIG. 4A is a plan view of the work. 図4Bは、ワークの断面図(図4AのIV-IV線断面図)である。FIG. 4B is a cross-sectional view of the workpiece (cross-sectional view taken along line IV-IV in FIG. 4A). 図5は、第1容器内に収容されたワークの一例を示す平面略図である。FIG. 5 is a schematic plan view showing an example of the work accommodated in the first container. 図6は、第1容器内に収容されたワークの一例を示す平面略図である。FIG. 6 is a schematic plan view showing an example of the work accommodated in the first container. 図7は、第1容器内に収容されたワークの一例を示す平面略図である。FIG. 7 is a schematic plan view showing an example of the work accommodated in the first container. 図8は、報酬表の一例を示す表図である。FIG. 8 is a table diagram showing an example of a remuneration table. 図9Aは、図8の報酬表における具体的な報酬の一例を示す表図である。FIG. 9A is a table diagram showing an example of specific rewards in the reward table of FIG. 図9Bは、図8の報酬表における具体的な報酬の一例を示す表図である。9B is a table diagram showing an example of specific rewards in the reward table of FIG. 8. FIG. 図10Aは、図8の報酬表における具体的な報酬の一例を示す表図である。FIG. 10A is a table diagram showing an example of specific rewards in the reward table of FIG. 図10Bは、図8の報酬表における具体的な報酬の一例を示す表図である。FIG. 10B is a table diagram showing an example of specific rewards in the reward table of FIG. 図11は、搬送条件の学習動作の一例を示すフローチャートである。FIG. 11 is a flow chart showing an example of the learning operation of the transport condition. 図12は、搬送条件の学習動作の一例を示すフローチャート(図11の続き)である。FIG. 12 is a flowchart (a continuation of FIG. 11) showing an example of the learning operation of the transport condition. 図13は、変形例に係るロボットシステムの構成を示す図である。FIG. 13 is a diagram showing the configuration of a robot system according to a modification. 図14は、変形例に係るロボットシステムの構成を示す図である。FIG. 14 is a diagram showing the configuration of a robot system according to a modification.

以下、本発明の実施形態に係るロボットシステムについて図面に基づいて説明する。 A robot system according to an embodiment of the present invention will be described below with reference to the drawings.

[ロボットシステムの全体構成]
図1は、本発明の一実施形態に係るロボットシステム1の構成を示すブロック図である。ロボットシステム1は、ロボット2と、第1カメラ3A(第1、第3撮像部)と、第2カメラ3B(第2撮像部)と、ロボット2および各カメラ3A、3Bを制御する制御部4とを備える。このロボットシステム1は、複数のワークがバラ積みされた状態で収容された容器からワークを取り出し、所望の目的位置(所定位置)まで搬送するためのシステムである。
[Overall configuration of robot system]
FIG. 1 is a block diagram showing the configuration of a robot system 1 according to one embodiment of the present invention. The robot system 1 includes a robot 2, a first camera 3A (first and third imaging units), a second camera 3B (second imaging unit), and a control unit 4 that controls the robot 2 and the cameras 3A and 3B. and This robot system 1 is a system for taking out a plurality of workpieces from a container in which a plurality of workpieces are stored in a bulk state and transporting the workpieces to a desired target position (predetermined position).

図2は、ロボットシステム1に備えられるロボット2の一例を示す側面図である。ロボット2は、複数のワークWがバラ積みされた状態で収容された第1容器30(収容部)から当該ワークWを取り出して(ピッキング)、別の第2容器32に運搬するロボットである。各容器30、32は、上方側が開口した平面視矩形の有底容器である。第2容器32は内部が複数の収納エリア33に区画された皿形容器である。ロボット2は、第1容器30の開口を介してワークWを取り出し、第2容器32の開口を介して、何れかの収納エリア33内にワークWを載置する。このように第1容器30からワークWを取り出して第2容器32の各収納エリア33に運搬する場面としては、例えば機械製造の現場で、複数の部品がバラ積みされた容器から部品を取り出してキッティングトレイに配膳する場面が想定される。 FIG. 2 is a side view showing an example of the robot 2 provided in the robot system 1. As shown in FIG. The robot 2 is a robot that takes out (picks) a plurality of workpieces W from a first container 30 (storage unit) in which a plurality of workpieces W are stored in a bulk state, and transports the workpieces W to another second container 32 . Each of the containers 30 and 32 is a bottomed container that is rectangular in plan view and has an open upper side. The second container 32 is a dish-shaped container whose interior is partitioned into a plurality of storage areas 33 . The robot 2 takes out the work W through the opening of the first container 30 and places the work W in one of the storage areas 33 through the opening of the second container 32 . As a scene where the workpiece W is taken out from the first container 30 and transported to each storage area 33 of the second container 32 in this way, for example, at a machine manufacturing site, parts are taken out of a container in which a plurality of parts are randomly stacked. It is assumed that the food will be served on the kitting tray.

ロボット2は、ベース部21と、胴部22と、第1アーム23と、第2アーム24と、手首部25と、ハンド部26とを備えた6軸垂直多関節ロボットである。ベース部21は、床や台等に固定設置されている。胴部22は、ベース部21の上面において、鉛直方向(上下方向)に延びる第1軸2A回りに、正逆両方向に回転可能に配置される。第1アーム23は、所定の長さを有するアーム部材であり、その長手方向の一端部が水平方向に延びる第2軸2Bを介して胴部22に取り付けられている。第1アーム23は、第2軸2B回りに、正逆両方向に回転可能である。 The robot 2 is a 6-axis vertical articulated robot including a base portion 21 , a body portion 22 , a first arm 23 , a second arm 24 , a wrist portion 25 and a hand portion 26 . The base portion 21 is fixedly installed on a floor, a stand, or the like. The body portion 22 is arranged on the upper surface of the base portion 21 so as to be rotatable in both forward and reverse directions around a first axis 2A extending in the vertical direction (vertical direction). The first arm 23 is an arm member having a predetermined length, and one longitudinal end of the first arm 23 is attached to the body 22 via a horizontally extending second shaft 2B. The first arm 23 is rotatable about the second shaft 2B in forward and reverse directions.

第2アーム24は、アームベース24aとアーム部24bとを含む。アームベース24aは、第2アーム24のベース部分であり、第2軸2Bに対して平行且つ水平方向に延びる第3軸2Cを介して、第1アーム23の長手方向他端部に取り付けられている。アームベース24aは、第3軸2C回りに、正逆両方向に回転可能である。アーム部24bは、所定の長さを有するアーム部材であり、その長手方向の一端部が第3軸2Cに対して垂直な第4軸2Dを介してアームベース24aに取り付けられている。アーム部24bは、第4軸2D回りに、正逆両方向に回転可能である。 The second arm 24 includes an arm base 24a and an arm portion 24b. The arm base 24a is a base portion of the second arm 24, and is attached to the other longitudinal end of the first arm 23 via a third shaft 2C extending horizontally and parallel to the second shaft 2B. there is The arm base 24a is rotatable in forward and reverse directions around the third axis 2C. The arm portion 24b is an arm member having a predetermined length, and one longitudinal end thereof is attached to the arm base 24a via a fourth shaft 2D perpendicular to the third shaft 2C. The arm portion 24b is rotatable in forward and reverse directions around the fourth axis 2D.

手首部25は、第2軸2B及び第3軸2Cに対して平行且つ水平方向に延びる第5軸2Eを介して、アーム部24bの長手方向他端部に取り付けられている。手首部25は、第5軸2E回りに、正逆両方向に回転可能である。 The wrist portion 25 is attached to the other longitudinal end portion of the arm portion 24b via a fifth shaft 2E extending horizontally and parallel to the second shaft 2B and the third shaft 2C. The wrist portion 25 is rotatable in forward and reverse directions around the fifth axis 2E.

ハンド部26は、ロボット2において第1容器30からワークWを取り出す部分であり、第5軸2Eに対して垂直な第6軸2Fを介して手首部25に取り付けられている。ハンド部26は、第6軸2F回りに、正逆両方向に回転可能である。ハンド部26は、第1容器30内のワークWを保持可能な構造であれば特に限定されるものではなく、例えば、ワークWを把持して保持する複数の爪部を備えた構造であってもよいし、ワークWに対して吸引力を発生する電磁石又は負圧発生装置を備えた構造であってもよい。本実施形態では、ハンド部26は、接離可能な一対の爪部を備えた構造を有し、第1容器30内のワークWを一対の爪部で把持(挟持)することによって当該ワークWを取り出す。 The hand part 26 is a part of the robot 2 that takes out the work W from the first container 30, and is attached to the wrist part 25 via a sixth axis 2F perpendicular to the fifth axis 2E. The hand part 26 is rotatable in both forward and reverse directions around the sixth axis 2F. The hand part 26 is not particularly limited as long as it has a structure capable of holding the work W in the first container 30. For example, the hand part 26 has a structure including a plurality of claws for gripping and holding the work W. Alternatively, a structure including an electromagnet or a negative pressure generating device that generates an attractive force to the work W may be used. In the present embodiment, the hand section 26 has a structure including a pair of claws that can be brought into contact with each other, and grips (sandwiches) the work W in the first container 30 with the pair of claws to hold the work W. take out.

ロボット2の胴部22、第1アーム23、第2アーム24(アームベース24a、アーム部24b)、手首部25及びハンド部26は、各々図外の駆動モータにより駆動されて作動する。 The torso 22, first arm 23, second arm 24 (arm base 24a, arm portion 24b), wrist portion 25 and hand portion 26 of the robot 2 are driven by driving motors (not shown).

なお、ロボット2の軸の数は6軸に限定されるものでなく、それ以外の軸数であってもよい。また、ロボット2は、第1容器30からワークWを取り出し可能なハンド部を備えたロボットであれば特に限定されるものではなく、例えば、垂直多関節ロボットや水平多関節ロボット、或いは双腕型の多関節ロボットを採用することができる。 The number of axes of the robot 2 is not limited to six, and may be any other number. Further, the robot 2 is not particularly limited as long as it has a hand portion capable of taking out the workpiece W from the first container 30. For example, the robot 2 is a vertical multi-joint robot, a horizontal multi-joint robot, or a dual-arm robot. multi-joint robot can be adopted.

第1カメラ3Aは、第1容器30に収容されたワークWを含む画像を撮像するものであり、第1容器30の上方に配置されている。また、第1カメラ3Aは、第1容器30からのワークWの取り出しの成否を確認するために、ワークWの取り出し動作後のハンド部26を含む画像を撮像するものでもある。第2カメラ3Bは、第2容器32に収容されたワークWを含む画像を撮像するものであり、第2容器32の上方に配置されている。これら第1、第2のカメラ3A、3Bは、後記カメラ制御部41と共に三次元計測器を構成する。 The first camera 3</b>A captures an image including the works W accommodated in the first container 30 and is arranged above the first container 30 . Also, the first camera 3A captures an image including the hand section 26 after the work W has been taken out in order to confirm whether the work W has been taken out from the first container 30 successfully. The second camera 3B captures an image including the works W accommodated in the second container 32 and is arranged above the second container 32 . These first and second cameras 3A and 3B constitute a three-dimensional measuring instrument together with a camera control section 41 which will be described later.

制御部4は、上記の通り、ロボット2及び各カメラ3A、3Bを統括的に制御するものである。制御部4は、カメラ制御部41、ロボット制御部42、搬送条件設定部43、記憶部44、及び学習部45を備えている。 As described above, the control section 4 comprehensively controls the robot 2 and the cameras 3A and 3B. The control unit 4 includes a camera control unit 41 , a robot control unit 42 , a transport condition setting unit 43 , a storage unit 44 and a learning unit 45 .

カメラ制御部41は、第1カメラ3Aおよび第2カメラ3Bによる撮像動作を実行させるもので、撮像制御部41aと画像処理部41bとを備えている。撮像制御部41aは、ハンド部26によるワークWの取り出しの際に、第1カメラ3Aに、第1容器30内を撮像する動作を実行させるとともに、ワークWの取り出し動作後のハンド部26を含む画像を撮像する動作を実行させる。また、撮像制御部41aは、第2容器32へ搬送されたワークWを確認する際に、第2カメラ3Bに第2容器32内を撮像する動作を実行させる。 The camera control section 41 executes imaging operations by the first camera 3A and the second camera 3B, and includes an imaging control section 41a and an image processing section 41b. The imaging control unit 41a causes the first camera 3A to perform an operation of imaging the inside of the first container 30 when the work W is taken out by the hand unit 26, and includes the hand unit 26 after the work W is taken out. Execute the operation of capturing an image. Further, the imaging control unit 41a causes the second camera 3B to perform an operation of imaging the inside of the second container 32 when confirming the work W conveyed to the second container 32 .

画像処理部41bは、各カメラ3A、3Bが撮像した画像を画像処理することによって、ワークWの三次元位置情報を含む画像データを生成する。ワークWの三次元位置情報は、例えばXYZ直交座標系を用いた座標値(X,Y,Z)で表される。 The image processing unit 41b generates image data including three-dimensional position information of the workpiece W by performing image processing on the images captured by the cameras 3A and 3B. The three-dimensional positional information of the workpiece W is represented by coordinate values (X, Y, Z) using an XYZ orthogonal coordinate system, for example.

ロボット制御部42は、搬送条件設定部43が設定する搬送条件に基づいて、ロボット2(ハンド部26)にワークWの搬送動作を実行させるものである。ロボット制御部42は、前記搬送条件に従ってワークWの搬送動作を実行するように、すなわち、ワークWの取り出し(ピッキング)動作と、当該ワークWの運搬及び載置動作(運搬動作と載置動作をまとめてプレイス動作と称する場合がある)とを実行するよう、ロボット2の前記駆動モータを制御する。また、学習部45において、ワークWの搬送動作に関する機械学習が実行される場合には、ロボット制御部42がどのようにロボット2を作動させたかに関する情報が学習部45に出力される。 The robot control section 42 causes the robot 2 (hand section 26 ) to carry out the work W transfer operation based on the transfer conditions set by the transfer condition setting section 43 . The robot control unit 42 performs the transport operation of the work W in accordance with the transport conditions, that is, the picking operation of the work W, the transport and placement operation of the work W (transport operation and placement operation). may be collectively referred to as a place operation). Further, when the learning section 45 performs machine learning regarding the transport operation of the workpiece W, information regarding how the robot control section 42 operates the robot 2 is output to the learning section 45 .

搬送条件設定部43は、ワークWに応じて、ワークWを搬送する際のロボット2の動作や、禁止すべき事項などの搬送条件を設定するものである。例えばワークWにおいてハンド部26が把持することを禁止すべき領域などについての取り決めである。この点については後に詳述する。この搬送条件は、図外の入力部を介してオペレータにより教示されたものであってもよいし、後述する機械学習の結果として取得されるものであってもよい。 The transfer condition setting unit 43 sets transfer conditions, such as the operation of the robot 2 when transferring the work W and items to be prohibited, according to the work W. For example, it is an agreement about a region of the workpiece W that should be prohibited from being gripped by the hand unit 26 . This point will be described in detail later. The transport conditions may be instructed by the operator via an input unit (not shown), or may be obtained as a result of machine learning, which will be described later.

記憶部44は、搬送条件設定部43が設定した搬送条件を更新的に記憶するものである。記憶部44には、複数(種類)のワークWについて、後記基本情報と搬送条件とを対応づけたテーブルデータが記憶されている。 The storage unit 44 updates and stores the transport conditions set by the transport condition setting unit 43 . The storage unit 44 stores table data in which basic information (to be described later) and transport conditions are associated with each other for a plurality of (types) of works W. As shown in FIG.

学習部45は、ロボット2の動作を学習する学習処理を実行するものである。機械学習によって前記搬送条件を設定する場合、学習部45は、ロボット制御部42によるロボット2の制御情報と、カメラ制御部41から入力される画像データとを、学習サイクル毎に取得する。そして、学習部45は、これらの情報から、ワークWを搬送する場合における最適なロボット2の行動パターンや搬送条件を学習させる。前記行動パターンは、例えば、ワークWのピッキング動作の際にハンド部26によりワークWのどの位置をどの程度の力で把持するか(把持力)、また、ワークWのピッキング、運搬及びプレイス動作の際にハンド部26をどの程度の速度で移動させるか(運搬速度)、などに関するロボット2の行動である。なお、後述する通り、搬送条件にはこれらの行動要素も含まれている。学習部45は、品質観測部46、報酬設定部47及び価値関数更新部48を含む。これらについては、後に詳細に説明する。 The learning unit 45 executes learning processing for learning the motion of the robot 2 . When setting the transport conditions by machine learning, the learning unit 45 acquires the control information of the robot 2 by the robot control unit 42 and the image data input from the camera control unit 41 for each learning cycle. Then, the learning unit 45 learns the optimum action pattern and transfer conditions of the robot 2 when transferring the work W from these pieces of information. The action pattern includes, for example, which position of the workpiece W is gripped by the hand unit 26 during the picking operation of the workpiece W (gripping force), and how the workpiece W is picked, transported, and placed. It is the action of the robot 2 related to how fast the hand part 26 is moved (carrying speed). As will be described later, the transport conditions also include these action elements. The learning unit 45 includes a quality observing unit 46 , a reward setting unit 47 and a value function updating unit 48 . These will be described in detail later.

[ワークWの搬送動作]
図3は、ロボットシステム1の基本動作を説明するためのフローチャートである。先ず、制御部4が、ワークWの形状等の基本情報を取得する(ステップS1)。この基本情報は、ワークWの種別、形状、サイズ、表面状態等の情報であり、制御部4は、図外の入力部を介したオペレータによる入力操作、若しくは、第1カメラ3Aによる撮像結果に基づきこの基本情報を取得する。前記表面状態とは、ワークWに施された表面処理などである。
[Conveyance operation of work W]
FIG. 3 is a flow chart for explaining the basic operation of the robot system 1. As shown in FIG. First, the control unit 4 acquires basic information such as the shape of the workpiece W (step S1). This basic information is information such as the type, shape, size, and surface condition of the workpiece W. Get this basic information based on The surface condition is the surface treatment applied to the workpiece W or the like.

次に、搬送条件設定部43が、前記基本情報に基づいて、ワークWの搬送条件を設定する(ステップS3)。この搬送条件は、上述の通り、図外の入力部を介してオペレータにより教示されたもの、或いは機械学習の結果として取得されたものであってもよい。 Next, the transfer condition setting unit 43 sets transfer conditions for the work W based on the basic information (step S3). As described above, the transport conditions may be taught by the operator via an input unit (not shown) or obtained as a result of machine learning.

続いて、カメラ制御部41が、第1カメラ3Aに第1容器30内を撮像させることにより、その画像データに基づきロボット制御部42が取り出し対象となるワークW(適宜、対象ワークWと称す)を特定する(ステップS5)。 Subsequently, the camera control unit 41 causes the first camera 3A to image the inside of the first container 30, and based on the image data, the robot control unit 42 picks up a work W to be taken out (hereinafter referred to as a target work W). is specified (step S5).

そして、ロボット制御部42がロボット2を駆動し、対象ワークWを第1容器30から取り出して第2容器32に搬送する搬送動作を実行させる(ステップS7)。ロボット制御部42は、ステップS5、S7において、搬送条件設定部43が設定した搬送条件に基づき、取り出し対象となるワークWを特定するとともに前記搬送動作を実行する。 Then, the robot control unit 42 drives the robot 2 to perform the transfer operation of taking out the target work W from the first container 30 and transferring it to the second container 32 (step S7). In steps S5 and S7, the robot control unit 42 specifies the workpiece W to be taken out based on the transport conditions set by the transport condition setting unit 43, and executes the transport operation.

搬送動作が完了すると、カメラ制御部41が、第2カメラ3Bに第2容器32内を撮像させることにより、その画像データに基づきワークWの状態が認識される(ステップS9)。この際、ワークWが収納エリア33に収容されていない場合等、搬送動作が不適切と認められる場合には、ロボット制御部42は、図外の報知部を制御し、オペレータに対して異常を報知させる動作を実行させる。 When the conveying operation is completed, the camera control section 41 causes the second camera 3B to image the inside of the second container 32, thereby recognizing the state of the work W based on the image data (step S9). At this time, if the transport operation is found to be inappropriate, such as when the work W is not stored in the storage area 33, the robot control unit 42 controls a notification unit (not shown) to notify the operator of the abnormality. Execute the action to be notified.

次に、ロボット制御部42が、所定数NのワークWを第1容器30から第2容器32に搬送したかを判断し(ステップS11)、搬送していない場合には、処理をステップS5に移行し、次のワークWについて搬送動作をロボット2に実行させる。一方、所定数NのワークWが第1容器30から第2容器32に搬送された場合には、ロボット制御部42は、本フローチャートを終了する。 Next, the robot control unit 42 determines whether or not the predetermined number N of works W have been transferred from the first container 30 to the second container 32 (step S11). Then, the robot 2 is caused to carry out the transfer operation for the next workpiece W. On the other hand, when the predetermined number N of works W have been transferred from the first container 30 to the second container 32, the robot control section 42 terminates this flowchart.

[搬送条件の具体例]
図4A、4Bに基づいて、搬送条件設定部43が設定する搬送条件の具体例を説明する。図4A、4Bは、搬送条件の一例を説明するための図であり、図4AはワークWの平面図であり、図4BはワークWの断面図(図4AのIV-IV線断面図)である。
[Concrete examples of transport conditions]
Specific examples of the transport conditions set by the transport condition setting unit 43 will be described with reference to FIGS. 4A and 4B. 4A and 4B are diagrams for explaining an example of transfer conditions. FIG. 4A is a plan view of the work W, and FIG. 4B is a cross-sectional view of the work W (cross-sectional view taken along line IV-IV in FIG. 4A). be.

図4Aに示すワークWは、例えば6角穴付きボルト(キャップボルト)である。このワークW(適宜ボルトWと称す)は、レンチ挿入用の孔部を備えた頭部50と、軸部52とを備える。軸部52は、先端側のネジ部52aと、頭部側の非ねじ部(円筒部52bと称する)とを含む。搬送条件設定部43は、ボルトWの品質を確保しつつボルトWをハンド部26で把持して搬送させるための搬送条件を設定する。 A workpiece W shown in FIG. 4A is, for example, a hexagon socket bolt (cap bolt). This workpiece W (arbitrarily called a bolt W) includes a head portion 50 having a hole for inserting a wrench, and a shaft portion 52 . The shaft portion 52 includes a tip-side threaded portion 52a and a head-side non-threaded portion (referred to as a cylindrical portion 52b). The transport condition setting unit 43 sets transport conditions for gripping and transporting the bolt W with the hand unit 26 while ensuring the quality of the bolt W. FIG.

具体的には、ボルトWのうち、ネジ部52aを、ハンド部26により把持することを禁止する把持禁止領域Aaに設定し、それ以外の部分を、ハンド部26により把持することを許容する把持可能領域Abに設定する。すなわち、ワークWの搬送の際にはハンド部26により把持可能領域Abを把持させるのである。これにより、ネジ部52aをハンド部26で把持することによってそのねじ山が潰れるといった不都合が防止される。 Specifically, the threaded portion 52a of the bolt W is set as a grasping prohibition area Aa in which grasping by the hand portion 26 is prohibited, and the other portions are grasped by the hand portion 26. Set to possible area Ab. That is, when the workpiece W is transported, the grippable area Ab is gripped by the hand portion 26 . As a result, it is possible to prevent the screw thread from being crushed when the screw portion 52a is gripped by the hand portion 26. FIG.

搬送条件設定部43は、さらに把持可能領域Abのうち、円筒部52bに対応する部分を、条件付きで把持することを許容する条件付き領域Ab1に設定する。すなわち、頭部50を優先的に把持させ、所定条件が満たされた場合にのみ円筒部52bをハンド部26により把持させるのである。所定条件とは、例えば第1容器30の角部に頭部50が位置するためにハンド部26により把持できない場合などであり、この場合には、円筒部52bをハンド部26により把持させるようにする。これは、円筒部52bはネジ部52aに隣接するため、頭部50と同等に把持することを許容すると、ロボット2の作動誤差等に起因してネジ部52aの一部がハンド部26により把持されてねじ山が傷付けられることが考えらえられることによる。また、軸部52に特殊な表面処理が施されているような場合、ハンド部26により円筒部52bの表面処理が傷つけられるといった不都合を出来るだけ抑制するためでもある。 Further, the transport condition setting unit 43 sets a portion of the grippable area Ab corresponding to the cylindrical portion 52b as a conditional area Ab1 in which gripping is conditionally permitted. That is, the head 50 is preferentially gripped, and the cylindrical portion 52b is gripped by the hand portion 26 only when a predetermined condition is satisfied. The predetermined condition is, for example, the case where the hand portion 26 cannot grip the first container 30 because the head portion 50 is positioned at the corner of the first container 30. In this case, the cylindrical portion 52b is gripped by the hand portion 26. do. This is because, since the cylindrical portion 52b is adjacent to the threaded portion 52a, if it is allowed to be gripped in the same manner as the head portion 50, a part of the threaded portion 52a may be gripped by the hand portion 26 due to an operating error of the robot 2 or the like. This is due to the fact that it is conceivable that the threads may be damaged by being Further, when the shaft portion 52 is subjected to a special surface treatment, the hand portion 26 may damage the surface treatment of the cylindrical portion 52b as much as possible.

なお、ネジ部52aは、把持禁止領域Aaであると同時に接触禁止領域Baでもある。また、頭部50及び円筒部52bは、把持可能領域Abであると同時に接触可能領域Bbでもある。すなわち、一のボルトWが搬送対象物である場合、当該一のボルトWのネジ部52aは把持禁止領域Aaであり、それ以外の部分は把持可能領域Abである。一方、搬送対象物である当該一のボルトW以外のボルトWについては、ネジ部52aは、ハンド部26が接触することを禁止する接触禁止領域Baであり、それ以外の部分は、ハンド部26が接触することを許容する接触可能領域Bbである。つまり、ハンド部26によるボルトWの取り出しの際には、当該ボルトWの把持可能領域Abのうち、周辺に位置するボルトWのネジ部52a(接触禁止領域Ba)に接触しない位置をハンド部26に把持させるのである。これにより、ボルトWの取り出しの際に、取り出し対象のボルトWの周辺にあるボルトWのネジ部52aがハンド部26により傷つけられることが抑制される。従って、搬送条件設定部43は、把持禁止領域Aa及び把持可能領域Abを設定するとともに、接触禁止領域Ba及び接触可能領域Bbを設定すると言える。 The threaded portion 52a serves as both the grip prohibited area Aa and the contact prohibited area Ba. In addition, the head 50 and the cylindrical portion 52b are the grippable area Ab and the contactable area Bb. That is, when one bolt W is an object to be conveyed, the threaded portion 52a of the one bolt W is the grip prohibited area Aa, and the other portion is the grippable area Ab. On the other hand, for the bolts W other than the one bolt W, which is the object to be transported , the threaded portion 52a is a contact prohibition area Ba that prohibits the hand portion 26 from contacting the other bolts W, and the other portion is the contact prohibition area Ba. is a contactable area Bb that allows the contact of . In other words, when the bolt W is taken out by the hand portion 26, the hand portion 26 moves the grippable area Ab of the bolt W so that it does not come into contact with the threaded portion 52a (contact prohibition area Ba) of the bolt W located in the periphery. is grasped. As a result, the threaded portion 52a of the bolt W around the bolt W to be removed is prevented from being damaged by the hand portion 26 when the bolt W is removed. Therefore, it can be said that the transport condition setting unit 43 sets the prohibited gripping area Aa and the grippable area Ab, and also sets the prohibited contact area Ba and the permitted contact area Bb .

搬送条件設定部43は、さらに、円筒部52bの先端部分からネジ部52aの先端を含むボルトW周辺の一定の空間(円筒状の空間)を侵入禁止領域Bcと設定する(図4A、4B参照)。この領域Bcは、ハンド部26が侵入することを禁止する領域である。つまり、取り出し対象となるボルトWの周辺にあるボルトWのネジ部52aにハンド部26が接近することを禁止するのである。これによりネジ部52aがハンド部26によって傷つけられることがより高度に抑制される。 The transfer condition setting unit 43 further sets a certain space (cylindrical space) around the bolt W including the tip of the cylindrical part 52b to the tip of the threaded part 52a as an intrusion prohibited area Bc (see FIGS. 4A and 4B). ). This area Bc is an area into which the hand unit 26 is prohibited from entering. In other words, the hand part 26 is prohibited from approaching the screw part 52a of the bolt W around the bolt W to be taken out. As a result, damage to the screw portion 52a by the hand portion 26 is highly suppressed.

上述した搬送条件に加えて、搬送条件設定部43は、複数のボルトWが重なり合っている場合には、最上位に位置するボルトWから優先的に取り出させるという搬送条件を設定する。また、搬送条件設定部43は、搬送条件として、ボルトWを確実に把持して搬送することが可能となる把持位置、把持力及び運搬速度を、当該ボルトWの形状や表面処理の状態に応じて設定する。この際、特に円筒部52b(条件付き領域Ab1)を把持する場合の把持力及び運搬速度は、それ以外の部分(頭部50)を把持する場合の把持力及び運搬速度よりも低くなるように搬送条件を設定する。 In addition to the conveying conditions described above, the conveying condition setting unit 43 sets a conveying condition that, when a plurality of bolts W are overlapped, the bolt W positioned at the top is preferentially removed. In addition, the conveying condition setting unit 43 sets, as conveying conditions, a gripping position, a gripping force, and a conveying speed at which the bolt W can be securely gripped and conveyed according to the shape of the bolt W and the state of the surface treatment. to set. At this time, the gripping force and the transporting speed when gripping the cylindrical portion 52b (conditional region Ab1) are particularly lower than the gripping force and the transporting speed when gripping the other portion (head 50). Set transport conditions.

ここで、上記搬送条件に基づいたロボット2によるボルト(ワーク)Wの取り出し動作の例について図5~図7を用いて説明する。図5~図7は、第1容器30内に収容されたボルトWを示す平面略図である。 Here, an example of the operation of taking out the bolt (work) W by the robot 2 based on the transport conditions will be described with reference to FIGS. 5 to 7. FIG. 5 to 7 are schematic plan views showing the bolt W housed in the first container 30. FIG.

図5の例では、複数のボルトW1~W3は、互いに離間して配置されている。詳しくは、各ボルトW1~W3は、何れも、ハンド部26により頭部50を把持されることが可能で、かつボルトW1~W3の何れのボルトWの頭部50が把持される場合も、当該ハンド部26が他のボルトWの侵入禁止領域Bcに浸入することがないような距離を隔てて互いに離間している。従って、このような場合には、ロボット2は、ボルトW1~W3のうちの何れか一つを、その頭部50をハンド部26で把持して第1容器30から取り出す。 In the example of FIG. 5, the plurality of bolts W1-W3 are arranged apart from each other. Specifically, the head 50 of each of the bolts W1 to W3 can be gripped by the hand portion 26, and even if the head 50 of any one of the bolts W1 to W3 is gripped, The hand parts 26 are separated from each other by a distance that prevents the hand part 26 from entering the intrusion prohibited area Bc of the other bolt W. As shown in FIG. Therefore, in such a case, the robot 2 grasps the head 50 of any one of the bolts W1 to W3 with the hand portion 26 and takes it out of the first container 30 .

図6の例では、ボルトW1、W2は互いに重なった状態で配置されている。具体的には、一方のボルトW2のネジ部52aの上に、他方のボルトW1の頭部50が重なっている。この場合、上位のボルトW1の頭部50をハンド部26で把持しようとすると、下位のボルトW2の侵入禁止領域Bcにハンド部26が浸入してそのネジ部52a(接触禁止領域Ba)に接触するおそれがある。従って、このような場合には、ロボット2は、ボルトW1の円筒部52b(把持可能領域Ab1)をハンド部26で把持して第1容器30から取り出す。この際、ロボット2は、搬送条件において設定された把持力であって、頭部50を把持する場合の把持力よりも低い把持力で円筒部52bを把持する。 In the example of FIG. 6, the bolts W1 and W2 are arranged in an overlapping state. Specifically, the head 50 of the bolt W1 overlaps the threaded portion 52a of the bolt W2. In this case, when the head portion 50 of the upper bolt W1 is to be gripped by the hand portion 26, the hand portion 26 enters the intrusion prohibited area Bc of the lower bolt W2 and comes into contact with the screw portion 52a (contact prohibited area Ba). There is a risk of Therefore, in such a case, the robot 2 grips the cylindrical portion 52b (grippable area Ab1) of the bolt W1 with the hand portion 26 and takes it out of the first container 30. FIG. At this time, the robot 2 grips the cylindrical portion 52b with a gripping force set in the transport conditions, which is lower than the gripping force when gripping the head 50 .

図7の例では、ボルトW1、W2は重なってはいないが、一方のボルトW1の頭部50及び円筒部52bが、他方のボルトW2の円筒部52b及びネジ部52aに接触している。この場合、一方のボルトW1の頭部50や円筒部52b(条件付き領域Ab1)をハンド部26で把持しようとすると、当該ハンド部26が他方のボルトW2の侵入禁止領域Bcに侵入するおそれがある。その一方で、他方のボルトW2の頭部50は、その周囲が広く開放されている。従って、このような場合には、ロボット2は、ボルトW2の頭部50をハンド部26で把持して第1容器30を取り出す。 In the example of FIG. 7, the bolts W1 and W2 do not overlap, but the head 50 and cylindrical portion 52b of one bolt W1 are in contact with the cylindrical portion 52b and threaded portion 52a of the other bolt W2. In this case, if the head 50 or the cylindrical portion 52b (conditional region Ab1) of one bolt W1 is gripped by the hand portion 26, the hand portion 26 may enter the entry prohibited region Bc of the other bolt W2. be. On the other hand, the head 50 of the other bolt W2 has a wide open periphery. Therefore, in such a case, the robot 2 picks up the head 50 of the bolt W2 with the hand part 26 and takes out the first container 30 .

なお、図4A~図7は、ワークWが六角穴付きボルトである場合の把持禁止領域Aa(接触禁止領域Ba)、把持可能領域Ab、Ab1(接触可能領域Bb)及び侵入禁止領域Bcの例示である。従って、ワークWの種類やサイズが異なれば、これらの領域の位置や広さが異なることは言うまでもない。また、例えば鏡面処理等の表面処理が施されているワークWについては、搬送条件設定部43は、当該表面処理の種類や位置等に応じて把持禁止領域Aa(接触禁止領域Ba)や侵入禁止領域Bcを設定する。 FIGS. 4A to 7 show examples of the grip prohibited area Aa (contact prohibited area Ba), the grippable areas Ab and Ab1 (contactable area Bb), and the intrusion prohibited area Bc when the workpiece W is a hexagon socket head bolt. is. Therefore, it goes without saying that if the type and size of the work W are different, the positions and sizes of these regions will be different. For workpieces W that have been subjected to surface treatment such as mirror finishing, the transport condition setting unit 43 sets the grip prohibition area Aa (contact prohibition area Ba) or entry prohibition area according to the type and position of the surface treatment. A region Bc is set.

[機械学習について]
次に、前記学習部45の構成について説明するとともに、搬送条件設定部43が、学習部45による機械学習によって搬送条件を設定する例について説明する。
[About machine learning]
Next, the configuration of the learning unit 45 will be described, and an example in which the transport condition setting unit 43 sets transport conditions by machine learning by the learning unit 45 will be described.

<学習部の構成>
学習部45は、ある搬送動作が実行されたときのロボット2の制御情報と、その搬送動作が実行されたワークWの品質情報とから、ワークWを搬送する場合の最適なロボット2の行動パターン及び搬送条件を学習する。ここで、「品質情報」とは、主に搬送後のワークWの表面(外観)の状態を表す情報である。学習部45により取得された学習結果は、搬送条件設定部43が設定する搬送条件に反映される。
<Configuration of the learning section>
The learning unit 45 determines the optimum action pattern of the robot 2 when transporting the work W based on the control information of the robot 2 when a certain transport operation is performed and the quality information of the work W on which the transport operation is performed. and learn the transport conditions. Here, the "quality information" is information mainly representing the state of the surface (appearance) of the work W after transportation. The learning result acquired by the learning unit 45 is reflected in the transport conditions set by the transport condition setting unit 43 .

なお、学習の手法としては、特に限定されるものではなく、例えば、「教師あり学習」、「教師なし学習」及び「強化学習」等を採用することができる。本実施形態では、学習部45における学習の手法として、強化学習としてのQ学習の手法が採用されている。Q学習は、ロボット2の連続的な動作を複数の状態に区分し、状態が順次移行されるときのロボット2の行動について、報酬が得られるような価値の高い行動を学習する手法である。また、学習部45が実行する強化学習としてのQ学習は、例えば、ニューラルネットワーク(Neural Network)を使用して実現することが可能である。ニューラルネットワークは、人間の脳の構造を模した構成となっており、人間の脳におけるニューロン(神経細胞)の機能を模した論理回路を多層に積層して構成されたものである。 Note that the learning method is not particularly limited, and for example, "supervised learning", "unsupervised learning", and "reinforcement learning" can be adopted. In this embodiment, a Q-learning method as reinforcement learning is adopted as a learning method in the learning unit 45 . Q-learning is a method of classifying continuous motions of the robot 2 into a plurality of states, and learning high-value actions such as rewards for actions of the robot 2 when the states are sequentially changed. Further, Q learning as reinforcement learning executed by the learning unit 45 can be realized using, for example, a neural network. A neural network has a configuration that imitates the structure of the human brain, and is configured by stacking multiple layers of logic circuits that imitate the functions of neurons (nerve cells) in the human brain.

学習部45は、上述した通り(図1)、品質観測部46、報酬設定部47及び価値関数更新部48を含む。 The learning unit 45 includes a quality observing unit 46, a reward setting unit 47, and a value function updating unit 48, as described above (FIG. 1).

品質観測部46は、搬送前のワークWの画像データ(以下、搬送前画像データという)と、搬送後のワークWの画像データ(以下、搬送後画像データという)とを比較し、ワークWの品質を評価する(以下、ワーク品質評価という)。搬送前画像データは、対象となるワークWの三次元位置情報(X、Y、Z座標値)を含む画像データであり、このロボットシステム1とは別に事前にワークWを撮像して取得されたもの、或いは第1カメラ3Aにより第1容器30内を撮像させることにより取得されたものが用いられる。 The quality observation unit 46 compares the image data of the workpiece W before transportation (hereinafter referred to as pre-transportation image data) and the image data of the workpiece W after transportation (hereinafter referred to as post-transportation image data) to determine the quality of the work W. Evaluate the quality (hereinafter referred to as work quality evaluation). The pre-transport image data is image data including three-dimensional position information (X, Y, Z coordinate values) of the target work W, and is obtained by imaging the work W in advance separately from the robot system 1. , or the one obtained by imaging the inside of the first container 30 with the first camera 3A.

品質観測部46は、具体的には、搬送前後の画像データを対比し、搬送中に形成された把持痕や傷(以下、単に傷という)の有無、傷の位置、傷の大きさ等を特定し、傷の状態に基づき3段階の評価(A~C評価)を行う(図8参照)。例えば、搬送中に傷が形成されていない場合には、ワーク品質評価を「A」とし、大きい傷が形成されている場合には、ワーク品質評価を「C」とする。また、小さい傷であってもその位置がワークWのネジ部52a(把持禁止領域Aa)であるような場合には、ワーク品質評価を「C」とする。 Specifically, the quality observation unit 46 compares the image data before and after transportation, and checks the presence or absence of gripping marks and scratches (hereinafter simply referred to as scratches) formed during transportation, the location of the scratches, the size of the scratches, and the like. The scratch is identified and evaluated in three stages (A to C evaluation) based on the state of the scratch (see FIG. 8). For example, if no scratches are formed during transportation, the work quality evaluation is "A", and if large scratches are formed, the work quality evaluation is "C". Further, even if the damage is small, if the position of the damage is in the threaded portion 52a of the work W (grip prohibited area Aa), the work quality evaluation is set to "C".

また、品質観測部46は、第1容器30からのワーク取り出し直後のハンド部26を含む画像データ(以下、取り出し後画像データという)に基づき、ハンド部26によるピッキング動作の良否を評価するとともに(以下、ピッキング評価という)、前記搬送後画像データに基づき、ワークWのプレイス動作の良否を評価する(以下、プレイス評価という)。取り出し後画像データとしては、ハンド部26によるワークWの取り出し動作後、第1カメラ3Aによりハンド部26を含む領域を撮像させることにより取得されたものが用いられる。 In addition, the quality observation unit 46 evaluates the quality of the picking operation by the hand unit 26 based on the image data including the hand unit 26 immediately after picking up the workpiece from the first container 30 (hereinafter referred to as image data after picking). hereinafter referred to as picking evaluation), and the quality of the placement operation of the workpiece W is evaluated based on the post-conveyance image data (hereinafter referred to as ``place evaluation''). As the post-pickup image data, data acquired by capturing an image of an area including the hand portion 26 with the first camera 3A after the work W is picked out by the hand portion 26 is used.

品質観測部46は、具体的には、取り出し後画像データに基づき、ハンド部26によるワークWの把持位置や把持姿勢を特定し、ピッキング評価として3段階の評価(A~C評価)を行う(図8参照)。例えば、ハンド部26が把持可能領域AbのみでワークWを適切に把持している場合には、ピンキング評価を「A」とし、ハンド部26が把持禁止領域Aaに侵入した状態でワークWを把持しているような場合には、その侵入度合に応じてピッキング評価を「B」又は「C」とする。 Specifically, the quality observation unit 46 identifies the gripping position and gripping posture of the workpiece W by the hand unit 26 based on the post-pickup image data, and performs three-level evaluation (A to C evaluation) as picking evaluation ( See Figure 8). For example, when the hand unit 26 is properly gripping the workpiece W only in the grippable area Ab, the pinking evaluation is set to "A", and the workpiece W is gripped while the hand unit 26 has entered the grip prohibited area Aa. If it does, the picking evaluation will be "B" or "C" depending on the degree of intrusion.

また、品質観測部46は、搬送後画像データに基づき、搬送後のワークWの位置や姿勢を特定し、プレイス評価として3段階の評価(A~C評価)を行う(図8参照)。例えば、品質観測部46は、第2容器32の収納エリア33内に定められた姿勢で載置されている場合には、プレイス評価を「A」とし、ワークWが定められた姿勢とは異なる姿勢で配置され、或いは収納エリア33からはみ出している場合等には、プレイス評価を「B」又は「C」とする。 The quality observation unit 46 also identifies the position and orientation of the work W after transportation based on the post-transportation image data, and performs three-level evaluation (A to C evaluation) as place evaluation (see FIG. 8). For example, when the second container 32 is placed in the storage area 33 in a predetermined posture, the quality observation unit 46 sets the place evaluation to "A", and the work W is in a different posture from the predetermined posture. If it is arranged in a posture or protrudes from the storage area 33, the place evaluation is "B" or "C".

なお、当実施形態では、品質観測部46は、ピッキング評価、プレイス評価、ワーク品質評価として各々3段階の評価を行うが、各評価は3段階に限定されるものではない。 In this embodiment, the quality observation unit 46 performs picking evaluation, place evaluation, and work quality evaluation in three stages, but each evaluation is not limited to three stages.

報酬設定部47は、ロボット2が実行した搬送動作(行動パターン)と、その行動パターンによって搬送されたワークWの品質とを関連付けて、当該行動パターンに対して報酬Rを与える処理を実行する。具体的には報酬設定部47は、ロボット制御部42から、あるワークWの搬送の際にロボット2に実行させた行動パターンの制御データを取得する。また、報酬設定部47は、当該行動パターンによって搬送されたワークWについて品質観測部46が導出した評価結果のデータを取得する。前記行動パターンの制御データと、前記評価結果のデータとに基づいて、当該行動パターンに対して報酬Rが与えられる。詳しくは、当該行動パターンを構成する行動要素毎に報酬Rが与えられる。行動要素には「把持位置」、「把持力」及び「運搬速度」が含まれる。「把持位置」は、ハンド部26がワークWを把持する際の当該ワークWに対するハンド部26の位置であり、「把持力」は、ハンド部26がワークWを把持する際の力の大きさであり、「運搬速度」は、取り出されたワークWを運搬する際のハンド部26の移動速度である。これらの行動要素は、上述した通り搬送条件でもある。 The reward setting unit 47 associates the transport operation (behavior pattern) performed by the robot 2 with the quality of the workpiece W transported according to the behavior pattern, and executes a process of giving a reward R for the behavior pattern. Specifically, the reward setting unit 47 acquires from the robot control unit 42 the control data of the action pattern that the robot 2 is caused to execute when a work W is transported. Further, the remuneration setting unit 47 acquires the evaluation result data derived by the quality observation unit 46 for the work W transported according to the action pattern. A reward R is given to the action pattern based on the control data of the action pattern and the evaluation result data. Specifically, a reward R is given for each behavioral element that constitutes the behavioral pattern. Behavioral elements include "gripping position", "gripping force" and "carrying speed". The “gripping position” is the position of the hand portion 26 with respect to the work W when the hand portion 26 grips the work W, and the “gripping force” is the magnitude of the force when the hand portion 26 grips the work W. , and the “carrying speed” is the moving speed of the hand unit 26 when carrying the work W that has been taken out. These action elements are also transport conditions as described above.

報酬Rは、ピッキング評価、プレイス評価、及びワーク品質評価が高いほど、大きい値が付与されるように設定されている。当例では、報酬Rは、例えば図8に示す報酬表に基づいて与えられる。ピッキング評価、プレイス評価、及びワーク品質評価は、上述の通り各々3段階の評価(A評価~C評価)とされ、報酬表は、ピッキング評価及びプレイス評価を縦項目、ワーク品質評価を横項目としたマトリクス表で規定されている。つまり、ピッキング評価及びプレイス評価と、ワーク品質評価との組合せで報酬Rが決定される。 The reward R is set such that the higher the picking evaluation, the place evaluation, and the work quality evaluation, the greater the value given. In this example, the reward R is given based on the reward table shown in FIG. 8, for example. Picking evaluation, place evaluation, and work quality evaluation are each evaluated in three stages (A to C) as described above, and the remuneration table has vertical items for picking evaluation and place evaluation, and horizontal items for work quality evaluation. specified in the matrix table. That is, the reward R is determined by combining the picking evaluation, the place evaluation, and the work quality evaluation.

より詳しくは、図8に示すように、ピッキング評価と、ワーク品質評価との組み合わせにより、ハンド部26によるピッキング動作におけるロボット2の行動パターンに対する報酬(Ra11~Ra33)が決定され、プレイス評価と、ワークWの品質の評価との組み合わせにより、プレイス動作におけるロボット2の行動パターンに対する報酬(Rb11~Rb33)が決定される。More specifically, as shown in FIG. 8, a combination of the picking evaluation and the work quality evaluation determines the rewards (Ra 11 to Ra 33 ) for the action pattern of the robot 2 in the picking operation by the hand unit 26, and the place evaluation. , and the evaluation of the quality of the work W, rewards (Rb 11 to Rb 33 ) for the action pattern of the robot 2 in the place motion are determined.

ピッキング動作の行動パターンに対する報酬(Ra11~Ra33)は、例えば図9A、9Bに示すように、当該行動パターンを構成する行動要素毎、すなわち「把持力」及び「把持位置」の各々について設定されている。図9Aは、ピッキング評価及びワーク品質評価が共にA評価の場合の各行動要素の報酬Rの例示であり、図9Bは、ピッキング評価がA評価で、ワーク品質評価がC評価の場合の各行動要素の報酬Rの例示である。The rewards (Ra 11 to Ra 33 ) for the action pattern of the picking action are set for each action element that constitutes the action pattern, that is, for each of "gripping force" and "grasping position", as shown in FIGS. 9A and 9B, for example. It is FIG. 9A is an example of the reward R for each action element when both the picking evaluation and work quality evaluation are A evaluation, and FIG. 9B is each action when the picking evaluation is A evaluation and the work quality evaluation is C evaluation. FIG. 10 is an illustration of elemental reward R; FIG.

プレイス動作の行動パターンに対する報酬(Rb11~Rb33)は、例えば図10A、10Bに示すように、当該行動パターンを構成する行動要素毎、すなわち「把持力」、「把持位置」及び「搬送速度」の各々について設定されている。図10Aは、プレイス評価及びワーク品質評価が共にA評価の場合の各行動要素の報酬Rの例示であり、図10Bは、プレイス評価がA評価で、ワーク品質評価がC評価の場合の各行動要素の報酬Rの例示である。As shown in FIGS. 10A and 10B, the rewards (Rb 11 to Rb 33 ) for the action pattern of the place action are determined for each action element constituting the action pattern, that is, "grip force", "grip position" and "conveyance speed ” is set for each. FIG. 10A is an example of the reward R for each action element when both the place evaluation and work quality evaluation are A evaluation, and FIG. 10B is each action when the place evaluation is A evaluation and the work quality evaluation is C evaluation. FIG. 10 is an illustration of elemental reward R; FIG.

各行動要素の報酬Rは、上記の通り、ピッキング評価、プレイス評価、及びワーク品質評価が高いほど、大きい値が付与されるように設定されているが、さらに、ワークWの運搬速度が速いほど、大きい値が付与されるように設定されている。これにより、学習部45は、可及的に運搬速度が速くなるような、ロボット2の搬送動作の行動パターンを学習するようになっている。 As described above, the reward R for each action element is set so that the higher the picking evaluation, the place evaluation, and the work quality evaluation, the larger the value given. , is set to be given a large value. As a result, the learning unit 45 learns the action pattern of the transport operation of the robot 2 so as to increase the transport speed as much as possible.

価値関数更新部48は、ロボット2の行動パターンの価値Q(s,a)を規定する価値関数を、報酬設定部47により設定された報酬Rに応じて更新する。価値関数更新部48は、下記式(1)で示される価値Q(s,a)の更新式を用いて価値関数を更新する。 The value function updating unit 48 updates the value function that defines the value Q(s, a) of the action pattern of the robot 2 according to the reward R set by the reward setting unit 47 . The value function update unit 48 updates the value function using the value Q(s, a) update formula given by the following formula (1).

Figure 0007143410000001
Figure 0007143410000001

上記式(1)において、「s」は、ロボット2の状態を表し、「a」は、行動パターンに従ったロボット2の行動を表す。行動「a」によってロボット2の状態が、状態「s」から状態「s’」へ移行する。R(s,a)は、その状態の移行により得られた報酬Rを表している。「max」が付された項は、状態「s’」において最も価値の高い行動「a’」を選択した場合の価値Q(s’,a’)に「γ」を乗算したものになる。「γ」は、減衰率と呼ばれるパラメータであり、0<γ≦1の範囲(例えば0.9)とされる。また、「α」は、学習率と呼ばれるパラメータであり、0<α≦1の範囲(例えば0.1)とされる。 In the above formula (1), "s" represents the state of the robot 2, and "a" represents the action of the robot 2 according to the action pattern. Action "a" causes the state of the robot 2 to shift from state "s" to state "s'". R(s,a) represents the reward R obtained by the state transition. The term labeled 'max' is the value Q(s',a') for selecting the highest value action 'a'' in state 's'' multiplied by 'γ'. “γ” is a parameter called an attenuation rate, and is in the range of 0<γ≦1 (for example, 0.9). Also, “α” is a parameter called a learning rate, and is in the range of 0<α≦1 (for example, 0.1).

上記式(1)は、行動「a」に対して報酬設定部47により設定された報酬R(s,a)に基づいて、状態「s」における行動「a」の価値Q(s,a)を更新する更新式を表している。すなわち、上記式(1)は、状態「s」における行動「a」の価値Q(s,a)よりも、状態「s’」における行動「a’」の価値Q(s’,a’)と報酬R(s,a)との合計値の方が大きければ、価値Q(s,a)を大きくし、反対に小さければ、価値Q(s,a)を小さくすることを示している。つまり、価値関数更新部48は、上記式(1)で示される更新式を用いて価値関数を更新することによって、或る状態「s」における或る行動「a」の価値Q(s,a)を、その行動「a」に対して設定される報酬Rと、その行動「a」による次の状態「s’」における最良の行動「a’」の価値Q(s’,a’)に近付けるようにしている。 The above formula (1) is based on the reward R (s, a) set by the reward setting unit 47 for the action "a", the value Q (s, a) of the action "a" in the state "s" represents an update formula for updating . In other words, the above equation (1) is the value Q(s', a') of action "a'" in state "s'" rather than the value Q(s, a) of action "a" in state "s". and the reward R(s, a) is larger, the value Q(s, a) is increased, and conversely, if it is smaller, the value Q(s, a) is decreased. In other words, the value function updating unit 48 updates the value function using the update formula shown in the above formula (1), so that the value Q(s, a ) to the reward R set for that action 'a' and the value Q(s',a') of the best action 'a'' in the next state 's'' by that action 'a'. I am trying to get closer.

<機械学習処理>
図11及び図12は、搬送条件の学習動作の一例を示すフローチャートである。先ず、制御部4の搬送条件設定部43が、対象ワークWに関する搬送条件のデータが既に記憶部44に格納されているか否かを判定する(ステップS21)。格納されている場合、搬送条件設定部43は、格納されている既存のデータを搬送条件として初期設定する(ステップS49)。このようなケースとしては、以前の学習により得られた対象ワークWの既存の搬送条件を学習し直す場合や、元々記憶部44に記憶されている搬送条件のデフォルトデータを利用して初期設定し学習を行う場合等が想定される。
<Machine learning processing>
11 and 12 are flowcharts showing an example of the learning operation of the transport condition. First, the transfer condition setting unit 43 of the control unit 4 determines whether or not transfer condition data regarding the target work W is already stored in the storage unit 44 (step S21). If it is stored, the transport condition setting unit 43 initializes the stored existing data as the transport condition (step S49 ). Examples of such a case include re-learning the existing transfer conditions for the target work W obtained by previous learning, or initial setting using the default transfer condition data originally stored in the storage unit 44 . A case of learning is assumed.

既存のデータが記憶部44に格納されていない場合(ステップS21でNo)、搬送条件設定部43は、類似ワークに関する搬送条件のデータが記憶部44に格納されているか否かを判定する(ステップS23)。格納されている場合、搬送条件設定部43は、類似ワークWに関する搬送条件のデータに基づき、対象ワークWの搬送条件を初期設定する。類似ワークWとは、対象ワークWと形状が共通するワークWである。搬送条件設定部43は、対象ワークの上記基本情報と、記憶部44に格納されているワークWの基本情報とを対比し、双方の形状について予め設定された共通点を満たすワークWを類似ワークWと特定し、当該類似ワークの搬送条件に基づき、対象ワークWの搬送条件を推定する。例えば対象ワークWが、上述した六角穴付きボルトである場合には、当該ボルトと長さが異なるボルト、或いは径が異なるボルトなどが類似ワークとされる。このロボットシステム1では、このように類似ワークWの既存の搬送条件を利用して、対象ワークWの搬送条件が初期設定されるので、一から搬送条件をプログラミングするといった手間が省けるのである。 If existing data is not stored in the storage unit 44 (No in step S21), the transfer condition setting unit 43 determines whether or not transfer condition data related to similar works is stored in the storage unit 44 (step S23). When stored, the transfer condition setting unit 43 initially sets the transfer condition of the target work W based on the transfer condition data regarding the similar work W. FIG. A similar work W is a work W having the same shape as the target work W. The transfer condition setting unit 43 compares the basic information of the target work with the basic information of the work W stored in the storage unit 44, and selects a work W that satisfies a preset common point for both shapes as a similar work. W is identified, and the transfer conditions for the target work W are estimated based on the transfer conditions for the similar work. For example, when the target work W is the above-described hexagon socket bolt, a bolt having a different length or a different diameter from the bolt is regarded as a similar work. In this robot system 1, the transfer conditions of the target work W are initially set by using the existing transfer conditions of the similar works W, so that the trouble of programming the transfer conditions from scratch can be saved.

類似ワークに関する搬送条件のデータが記憶部44に格納されていない場合(ステップS23でNo)、搬送条件設定部43は、対象ワークWの画像データを取得し(ステップS51)、その画像データに基づき、対象ワークWの搬送条件を初期設定する(ステップS55)。例えば搬送条件設定部43は、画像データ(三次元位置情報を含む画像データ)の点群密度等からワークWの形状を特定し、その形状に基づき把持禁止領域Aa、接触可能領域Bb及び侵入禁止領域Bcを推測するとともに、ハンド部26による当該ワークWの「把持位置」、「把持力」、「運搬速度」を推測する。これにより搬送条件を初期設定する。なお、画像データは、図外の入力部を介してオペレータにより事前に与えられている場合には当該画像データが用いられ、与えられていない場合には、カメラ制御部41を介して第1容器30内部を第1カメラ3Aに撮像させることにより取得される。 If no transfer condition data related to similar works is stored in the storage unit 44 (No in step S23), the transfer condition setting unit 43 acquires image data of the target work W (step S51), and based on the image data , the transport conditions for the target work W are initialized (step S55). For example, the transport condition setting unit 43 identifies the shape of the work W from the point cloud density of the image data (image data including three-dimensional position information), etc. Along with estimating the area Bc, the "gripping position", "gripping force", and "conveyance speed" of the workpiece W by the hand unit 26 are also estimated. This initializes the conveying conditions. If the image data is given in advance by the operator via an input unit (not shown), the image data is used. It is acquired by causing the first camera 3A to image the inside of 30 .

このようにステップS25、S49、S55の何れかの処理により対象ワークWの搬送条件が初期設定される。すなわち、対象ワークWの把持禁止領域Aa(接触禁止領域Ba)、把持可能領域Ab(接触可能領域Bb)及び侵入禁止領域Bcが決定されるとともに、ハンド部26による当該ワークWの「把持位置」、「把持力」、「運搬速度」が決定される。以上のステップS21~S25、S49~S55の処理が、学習処理に際しての事前準備であり、ステップS25、S49、S55で初期設定された搬送条件が、ステップS27以降の学習処理による学習結果に応じて修正されるのである。 In this manner, the transfer conditions for the target work W are initialized by any of steps S25, S49 , and S55. That is, the grip prohibited area Aa (contact prohibited area Ba), the grippable area Ab (contactable area Bb), and the intrusion prohibited area Bc of the target work W are determined, and the "gripping position" of the work W by the hand unit 26 is determined. , “grip force” and “conveyance speed” are determined. The processes in steps S21 to S25 and S49 to S55 are preparations for the learning process, and the transport conditions initially set in steps S25, S49 , and S55 are changed according to the learning results of the learning process after step S27. It will be corrected.

学習処理では、先ず、第1カメラ3Aにより第1容器30内の画像データが取得され、画像処理部41bの物体認識処理によりワークWの三次元位置情報が取得される(ステップS27)。これにより、これから取り出されるワークWの、前記第1容器30内における位置情報(座標値)が取得され、この位置情報がロボット制御部42に与えられる。なお、学習部45の品質観測部46は、このようなワークWの三次元位置情報を含む画像データを、カメラ制御部41から上述の搬送前画像データとして取得する。 In the learning process, first, the image data inside the first container 30 is acquired by the first camera 3A, and the three-dimensional position information of the work W is acquired by the object recognition process of the image processing section 41b (step S27). As a result, position information (coordinate values) within the first container 30 of the work W to be taken out is obtained, and this position information is given to the robot control section 42 . Note that the quality observation unit 46 of the learning unit 45 acquires image data including such three-dimensional position information of the work W from the camera control unit 41 as the above-described pre-transport image data.

ロボット制御部42は、搬送条件設定部43が設定した搬送条件及び前記物体認識により取得されたワークWの位置情報に基づきロボット2を動作させ、また、各禁止領域Aa、Ba、Bc等の搬送条件を加味して第1容器30からワークWを取り出させる(ステップS29)。ワそして、カメラ制御部41が、ロボット2のハンド部26に把持されたワークWを第1カメラ3Aにより撮像させ、その画像データに基づき、制御部4がハンド部26にワークWが把持されているか否かを判定する(ステップS31、S33)。なお、学習部45の品質観測部46は、このようにワークWが把持された画像データを、カメラ制御部41から上述の取り出し後画像データとして取得する。 The robot control unit 42 operates the robot 2 based on the transfer conditions set by the transfer condition setting unit 43 and the position information of the work W obtained by the object recognition, and also controls the transfer of the prohibited areas Aa, Ba , Bc, etc. The workpiece W is taken out from the first container 30 under certain conditions (step S29). Then, the camera control unit 41 causes the first camera 3A to image the work W gripped by the hand unit 26 of the robot 2, and based on the image data, the control unit 4 detects when the work W is gripped by the hand unit 26 . It is determined whether or not there is (steps S31, S33). The quality observation unit 46 of the learning unit 45 acquires the image data in which the workpiece W is gripped in this way from the camera control unit 41 as the image data after extraction described above.

ワークWが把持されている場合(ステップS33でYes)、ロボット制御部42は、ロボット2を駆動させて、取り出したワークWを第2容器32まで運搬させると共に、所定のXYZ位置でワークWをリリース(把持解除)させる(ステップS35)。これにより、第1容器30から第2容器32へのワークWの搬送が完了する。 When the workpiece W is gripped (Yes in step S33), the robot control unit 42 drives the robot 2 to transport the taken-out workpiece W to the second container 32, and moves the workpiece W at a predetermined XYZ position. Release (grip release) (step S35). Thus, the transfer of the work W from the first container 30 to the second container 32 is completed.

ワークWの搬送が完了すると、第2カメラ3Bにより第2容器32内の画像データが取得され、画像処理部41bの物体認識処理によりワークWの三次元位置情報を含む画像データが取得される(ステップS37)。学習部45の品質観測部46は、このようなワークWの三次元位置情報を含む画像データを、カメラ制御部41から上述の搬送後画像データとして取得する。なお、ワークWが把持されていない場合には(ステップS33でNo)、後記ステップS41に移行される。 When the conveyance of the work W is completed, the image data in the second container 32 is acquired by the second camera 3B, and the image data including the three-dimensional position information of the work W is acquired by the object recognition processing of the image processing unit 41b ( step S37). The quality observation unit 46 of the learning unit 45 acquires the image data including the three-dimensional position information of the work W from the camera control unit 41 as the post-transport image data described above. If the workpiece W is not gripped (No in step S33), the process proceeds to step S41 described later.

次に、品質観測部46は、ステップS31で取得した取り出し後画像データに基づき、上述のピッキング評価を行うとともに、ステップS37で取得した搬送後画像データに基づき、上述のプレイス評価を行い、さらに、ステップS37で取得した搬送後画像データと、ステップS27で取得した搬送前画像データとを比較することにより、上述のワーク品質評価を行う(ステップS39)。 Next, the quality observation unit 46 performs the above-described picking evaluation based on the post-extraction image data acquired in step S31, performs the above-described placement evaluation based on the post-conveyance image data acquired in step S37, and further, By comparing the post-conveyance image data acquired in step S37 and the pre-conveyance image data acquired in step S27, the work quality evaluation described above is performed (step S39).

続いて、報酬設定部47が、ピッキング動作の成否及び品質観測部46の評価結果に基づき、今回のロボット2の行動パターンに基づき報酬Rを与える。報酬Rは、上述の図8の報酬表に基づき決定される。その場合、ピッキング動作の行動パターンに対する報酬(Ra11~Ra33)は、当該行動パターンを構成する行動要素毎に与えられる。具体的には、図9A、9Bを参照して、ピッキング評価及びワーク品質評価が共にA評価の場合には、報酬設定部47は、当該行動パターンの「把持力」及び「把持位置」に対して報酬「100」を与える。また、ピッキング評価がA評価で、ワーク品質評価がC評価の場合には、報酬設定部47は、当該行動パターンの「把持力」に対して報酬「0;ゼロ」を与え、「把持位置」に対して報酬「60」を与える。Subsequently, the reward setting unit 47 gives a reward R based on the current action pattern of the robot 2 based on the success or failure of the picking operation and the evaluation result of the quality observation unit 46 . The reward R is determined based on the reward table of FIG. 8 described above. In that case, the rewards (Ra 11 to Ra 33 ) for the action pattern of the picking action are given for each action element forming the action pattern. Specifically, with reference to FIGS. 9A and 9B, when both the picking evaluation and the work quality evaluation are A evaluation, the reward setting unit 47 sets to give a reward of "100". If the picking evaluation is A and the workpiece quality evaluation is C, the reward setting unit 47 gives a reward of “0; to give a reward of "60".

同様に、プレイス動作の行動パターンに対する報酬(Rb11~Rb33)は、当該行動パターンを構成する行動要素毎に与えられる。具体的には、図10A、図10Bを参照して、プレイス評価及びワーク品質評価が共にA評価の場合には、報酬設定部47は、当該行動パターンの「把持力」、「運搬速度」及び「把持位置」に対してそれぞれ報酬「100」を与える。また、プレイス評価がA評価で、ワーク品質評価がC評価の場合には、報酬設定部47は、当該行動パターンの「把持力」及び「運搬速度」に対してそれぞれ報酬「0」を与え、「把持位置」に対して報酬「60」を与える。 Similarly, the rewards (Rb11 to Rb33) for the action pattern of the place action are given for each action element forming the action pattern. Specifically, with reference to FIGS. 10A and 10B, when both the place evaluation and the work quality evaluation are A evaluations, the reward setting unit 47 sets the “grasping force”, “carrying speed”, and A reward of "100" is given to each "holding position". In addition, when the place evaluation is A evaluation and the work quality evaluation is C evaluation, the reward setting unit 47 gives a reward of "0" for each of the "holding power" and "carrying speed" of the action pattern, A reward of "60" is given to the "grasping position".

なお、ステップS33において、ワークWが把持されていない場合には、図8の報酬表に拘わらず、報酬設定部47は、ピッキング動作の行動パターンの「把持力」及び「把持位置」に対して各々報酬「0」を与え、プレイス動作の行動パターン「把持力」、「運搬速度」及び「把持位置」に対して各々報酬「0」の報酬を与える。 In step S33, if the workpiece W is not gripped, regardless of the reward table of FIG. 8, the reward setting unit 47 sets A reward of "0" is given to each of them, and a reward of "0" is given to each of the action patterns of the place motion, "grasping force", "carrying speed" and "grasping position".

その後、価値関数更新部48が、ロボット2の行動パターンの価値Q(s,a)を規定する価値関数を、上記式(1)の更新式を用いて更新する(ステップS43)。詳しくは、ピッキング動作の行動パターンの各行動要素の価値Q(s,a)を規定する価値関数を、ピッキング動作の行動パターンの各行動要素に対する報酬(Ra11~Ra33)に基づき更新するとともに、プレイス動作の行動パターンの各行動要素の価値Q(s,a)を規定する価値関数を、プレイス動作の行動パターンの各行動要素に対する報酬(Rb11~Rb33)に基づき更新する。After that, the value function update unit 48 updates the value function that defines the value Q(s, a) of the action pattern of the robot 2 using the above update formula (1) (step S43). Specifically, the value function that defines the value Q(s, a) of each action element of the picking action pattern is updated based on the rewards (Ra 11 to Ra 33 ) for each action element of the picking action pattern. , the value function defining the value Q(s, a) of each action element of the action pattern of the place action is updated based on the rewards (Rb 11 to Rb 33 ) for each action element of the action pattern of the place action.

上記のステップS27~S43で示される各処理が、学習部45による学習処理の1サイクルにおいて実行される処理である。学習部45は、学習回数が所定回数Nに達したか否かを判定する(ステップS45)。所定回数Nに達していない場合は(ステップS45でNo)、学習部45は、ステップS27に処理を移行し、第1容器30からの次のワークWの取り出しを実行させ、学習処理を繰り返す。一方、所定回数Nに達した場合は(ステップS45でYes)、学習部45が学習処理を終了し、搬送条件設定部43が学習結果、すなわち最終的に得られた搬送条件のデータを記憶部44に格納し(ステップS47)、本フローチャートを終了する。この場合、対象ワークWの搬送条件のデータが記憶部44に格納されていない場合には、搬送条件設定部43は、初期設定された搬送条件を学習結果に基づき修正した上で、当該搬送条件を対象ワークWの上記基本情報と共に記憶部44に新規に格納し、対象ワークWの搬送条件のデータが記憶部44に既に格納されている場合には、既存のデータを、修正後の搬送条件のデータによって上書きする。
The processes shown in steps S27 to S43 are executed in one cycle of the learning process by the learning section 45. FIG. The learning unit 45 determines whether or not the number of times of learning has reached a predetermined number of times N (step S45). If the predetermined number of times N has not been reached (No in step S45), the learning unit 45 shifts the process to step S27, causes the next workpiece W to be taken out from the first container 30, and repeats the learning process. On the other hand, when the predetermined number of times N has been reached (Yes in step S45), the learning unit 45 ends the learning process, and the transfer condition setting unit 43 stores the learning result, that is, the finally obtained transfer condition data, in the storage unit. 44 (step S47), and this flow chart ends. In this case, if the transfer condition data for the target work W is not stored in the storage unit 44, the transfer condition setting unit 43 corrects the initially set transfer conditions based on the learning result, and then corrects the transfer conditions. is newly stored in the storage unit 44 together with the basic information of the target work W, and when the data of the transfer conditions of the target work W is already stored in the storage unit 44, the existing data is replaced with the corrected transfer conditions overwrite with data from

<学習による作用効果>
以上のように、学習部45による学習処理が実行されることにより、より理想的なワークの搬送動作が実行されるような搬送条件が探知されて、ステップS49、S25、S55で初期設定された搬送条件が、搬送条件設定部43により修正されることとなる。例えば、初期設定された「把持位置」では、ハンド部26がワークWの取り出しに繰り返し失敗し、高いピキング評価やプレイス評価が得られないような場合には、学習処理によって、より高いピキング評価が得られる「把持位置」が探知されることとなる。この場合、搬送条件設定部43は、初期設定された「把持位置」が把持禁止領域Aaに含まれるように、例えば、初期設定された「把持禁止領域Aa」を拡大修正する。これにより、ワークWの取り出しに失敗し難い、より理想的な搬送条件が設定されることとなる。
<Effects of learning>
As described above, by executing the learning process by the learning unit 45, the conveying conditions for executing a more ideal work conveying operation are detected, and the initial settings are made in steps S49, S25, and S55. The transport condition is corrected by the transport condition setting unit 43 . For example, when the hand unit 26 repeatedly fails to pick up the workpiece W at the initially set “gripping position” and a high picking evaluation or place evaluation cannot be obtained, a higher picking evaluation is obtained by learning processing. The resulting "gripping position" will be tracked. In this case, the transport condition setting unit 43 enlarges and corrects, for example, the initially set “grip prohibition area Aa” so that the initially set “grip position” is included in the grip prohibition area Aa. As a result, a more ideal transfer condition is set so that the work W is less likely to fail to be picked up.

また、上述の通り、価値関数更新部48は、ワークWの運搬速度が速いほど大きい値の報酬Rを付与する。つまり、学習部45は、可及的に運搬速度が速くなるような把持力や把持位置を把持可能領域Ab内において学習することとなる。従って、第1容器30から第2容器32へ、より速やかにワークWを搬送し得るような搬送条件が設定されることとなる。例えば、ある学習サイクルにおいて、プレイス動作の行動パターンの行動要素である「把持力」及び「運搬速度」が各々最大値に設定されていたが、ワークWに強い把持痕が見られワーク品質評価が低かった場合には、学習部45は、次の学習サイクルでは、前回よりも「把持力」を低く設定する。その結果、ワークWの把持痕は見られなくなったが、例えば第2容器32内でワークWの位置ずれが発生しているような場合、つまり「把持力」との関係で「運搬速度」が速すぎた場合には、学習部45は、さらに次の学習サイクルでは「運搬速度」を前回よりも低く設定する。ここでは、「把持力」と「運搬速度」との関係について述べたが、学習部45は、「把持位置」についても同様に学習する。その結果、学習部45は、ワークWを適切に搬送できる範囲内で、可及的に運搬速度が速くなるような把持力及び把持位置を把持可能領域Ab内において学習することとなる。 Further, as described above, the value function updating unit 48 gives a larger value of the reward R as the transport speed of the work W is faster. In other words, the learning unit 45 learns the gripping force and gripping position within the grippable region Ab that increase the transportation speed as much as possible. Therefore, the transfer conditions are set so that the workpieces W can be transferred more quickly from the first container 30 to the second container 32 . For example, in a certain learning cycle, although the "gripping force" and "carrying speed", which are the behavioral elements of the action pattern of the place motion, were each set to the maximum value, a strong gripping mark was observed on the work W, and the work quality evaluation was not performed. If it is low, the learning unit 45 sets the "gripping force" lower than the previous one in the next learning cycle. As a result, the grip marks of the work W were no longer seen, but in the case where the position of the work W is shifted in the second container 32, in other words, the "transportation speed" is reduced in relation to the "grip force". If it is too fast, the learning unit 45 further sets the "conveying speed" lower than the previous time in the next learning cycle. Although the relationship between the "gripping force" and the "conveying speed" has been described here, the learning unit 45 similarly learns the "gripping position". As a result, the learning unit 45 learns, within the grippable region Ab, the gripping force and the gripping position that increase the transportation speed as much as possible within a range in which the workpiece W can be transported appropriately.

[変形例等]
上述したロボットシステム1は、本発明に係るロボットシステムの好ましい実施形態の例示であり、その具体的な構成は、本発明の要旨を逸脱しない範囲で変更が可能である。例えば、以下のような態様を採ることもできる。
[Modifications, etc.]
The robot system 1 described above is an example of a preferred embodiment of the robot system according to the present invention, and its specific configuration can be changed without departing from the gist of the present invention. For example, the following aspects can also be adopted.

(1)ロボット2は、ワークWを把持するためのハンド部26のツール(実施形態では一対の爪部)を複数のツールの中から選択的に自動交換できるものであってもよい。この場合には、搬送条件設定部43が、搬送条件として何れのツールを使用するかを設定し、学習部45による機械学習に基づき最適なツールを学習するようにすることができる。このような構成によれば、最適なツールによりワークWの搬送動作が実行されることにより、当該ワークWの品質をより高度に確保しつつ当該ワークWを搬送することが可能となる。 (1) The robot 2 may be capable of selectively and automatically exchanging the tools (a pair of claws in the embodiment) of the hand portion 26 for gripping the workpiece W from among a plurality of tools. In this case, the transfer condition setting unit 43 can set which tool is to be used as the transfer condition, and the learning unit 45 can learn the optimum tool based on machine learning. According to such a configuration, it is possible to transport the work W while ensuring the quality of the work W at a higher level by carrying out the work W carrying operation with an optimum tool.

(2)上記実施形態では、搬送条件設定部43は、ワークWの既存データ、類似ワークWの既存データ、および第1カメラ3Aを介して取得したワークWの画像データの何れかに基づき搬送条件の初期設定を行う(図11のステップS49、S25、S55)。しかし、それ以外の情報に基づき搬送条件を設定するようにしてもよい。例えば図外の入力部を介してワークWの上記基本情報がオペレータによって教示されて制御部に記憶されている場合など、搬送条件設定部43が当該基本情報を取得可能な場合には、当該基本情報に基づき搬送条件を設定するようにしてもよい。特に、前記基本情報のうち、ワークWに施された表面処理等の表面状態に関する情報は、画像データから認識し難い。そのため、当該表面状態に関する情報は事前に制御部に記憶され、搬送条件設定部43が当該表面状態に関する情報に基づき把持禁止領域Aa(接触禁止領域Ba)や侵入禁止領域Bcを設定する。 (2) In the above embodiment, the transfer condition setting unit 43 sets the transfer condition based on any of the existing data of the work W, the existing data of the similar work W, and the image data of the work W acquired via the first camera 3A. is initialized (steps S49, S25 and S55 in FIG. 11). However, the transport conditions may be set based on other information. For example, when the basic information of the work W is taught by the operator via an input unit (not shown) and stored in the control unit 4 , the transfer condition setting unit 43 can acquire the basic information. The transport conditions may be set based on the basic information. In particular, among the basic information, it is difficult to recognize from the image data the information regarding the surface condition such as the surface treatment applied to the workpiece W. Therefore, information about the surface state is stored in the control unit 4 in advance, and the transport condition setting unit 43 sets the prohibited gripping area Aa (the prohibited contact area Ba) and the prohibited entry area Bc based on the information regarding the surface state.

(3)上記実施形態では、ピッキング動作およびプレイス動作の各行動パターンに対する報酬(Ra11~Ra33)は、当該行動パターンを構成する行動要素毎に与えられる。しかし、各行動パターンに対する報酬(Ra11~Ra33)は、当該行動パターンを構成する行動要素毎の報酬を合計したものとしてもよい。具体的には、図9A、9Bを参照して、ピッキング評価及びワーク品質評価が共にA評価の場合には、報酬設定部47は当該行動パターンに対して報酬「200」を与え、ピッキング評価がA評価で、ワーク品質評価がC評価の場合には、報酬設定部47は当該行動パターンに対して報酬「60」を与えるようにしてもよい。同様に、プレイス動作の行動パターンに対する報酬(Rb11~Rb33)は、当該行動パターンを構成する行動要素毎の報酬を合計したものとしてもよい。具体的には、図10A、図10Bを参照して、プレイス評価及びワーク品質評価が共にA評価の場合には、報酬設定部47は報酬「300」を与え、プレイス評価がA評価で、ワーク品質評価がC評価の場合には、報酬設定部47は報酬「60」を与えるようにしてもよい。(3) In the above embodiment, the rewards (Ra 11 to Ra 33 ) for each action pattern of the picking action and the placing action are given for each action element forming the action pattern. However, the rewards (Ra 11 to Ra 33 ) for each action pattern may be the sum of the rewards for each action element forming the action pattern. Specifically, with reference to FIGS. 9A and 9B, when both the picking evaluation and the work quality evaluation are A evaluation, the reward setting unit 47 gives the reward “200” to the action pattern, and the picking evaluation is When the work quality evaluation is C evaluation, the reward setting unit 47 may give a reward “60” to the action pattern. Similarly, the reward (Rb 11 to Rb 33 ) for the action pattern of the place action may be the sum of the rewards for each action element forming the action pattern. Specifically, with reference to FIGS. 10A and 10B, when both the place evaluation and the work quality evaluation are A evaluation, the reward setting unit 47 gives a reward of “300”, the place evaluation is A evaluation, and the work quality evaluation is A. If the quality evaluation is C evaluation, the reward setting unit 47 may give a reward of "60".

(4)上記実施形態では、搬送条件の初期設定のためにワークWの画像データを取得する撮像部として、すなわち本発明の第1撮像部として、第1容器30の上方に配置(固定)された第1カメラ3Aが適用されている。しかし、図14に示すように、第1撮像部として、ハンド部26などロボット2の可動部分にカメラ3Cを設け、当該カメラ3Cで搬送動作が実行される前の第1容器30内のワークWを撮像するようにしてもよい。また、図14に示すように、第1撮像部として、第1容器30と第2容器32との間の位置に上向きにカメラ3Dを配置(固定)し、第1容器30から取り出されて、ハンド部26により把持された状態のワークWをこのカメラ3Dで撮像するようにしてもよい。 (4) In the above-described embodiment, the imaging unit that acquires the image data of the workpiece W for the initial setting of the transport conditions, that is, the first imaging unit of the present invention, is arranged (fixed) above the first container 30 . A first camera 3A is applied. However, as shown in FIG. 14, a camera 3C is provided in a movable portion of the robot 2 such as the hand section 26 as a first imaging section, and the workpiece W in the first container 30 before the carrying operation is executed by the camera 3C. may be imaged. Further, as shown in FIG. 14, as a first imaging unit, a camera 3D is arranged (fixed) facing upward at a position between the first container 30 and the second container 32, is taken out from the first container 30, The camera 3D may take an image of the work W gripped by the hand unit 26 .

また、上記実施形態では、第2容器32への搬送後のワークWを撮像する撮像部、すなわち本発明の第2撮像部として、第2容器32の上方に配置(固定)された第2カメラ3Bが適用されている。しかし、第2撮像部として、図14に示したようなカメラ3Cで、搬送動作が実行された後の第2容器32内のワークWを撮像するようにしてもよい。 Further, in the above-described embodiment, the second camera arranged (fixed) above the second container 32 serves as the imaging unit for imaging the workpiece W after being transported to the second container 32, that is, as the second imaging unit of the present invention. 3B has been applied. However, a camera 3C as shown in FIG. 14 may be used as the second imaging unit to capture an image of the work W in the second container 32 after the carrying operation has been performed.

(5)ハンド部26によるワーク取り出し後の第1容器30内を第1カメラ3A(第3撮像部)で撮像し、上記取り出し後画像データに加え(又は取り出し後画像データとは別に)、当該画像データ(他ワーク画像データという)に基づき、ハンド部26によるピッキング動作の良否を評価するようにしてもよい。つまり、対象となるワークWをハンド部26が取り出す際に、当該対象ワークWの周辺にある他のワークに与える影響を加味するようにしてもよい。この場合には、第1カメラ3Aにより第1容器30内を撮像させることにより取得された上記搬送前画像データと、他ワーク画像データとに基づき、品質観測部46が、ハンド部26による他のワークWへの影響、具体的には、他のワークWの変位や、当該他のワークWに形成された傷等を特定してピッキング評価を行うようにする。このような構成によれば、取り出し対象となるワークWの品質のみならず、当該取り出しの際の他のワークWの品質をも保ち得るような搬送条件を探知させることが可能となる。 (5) The inside of the first container 30 after the work is taken out by the hand part 26 is imaged by the first camera 3A (third imaging part), and in addition to the image data after taking out (or separately from the image data after taking out), The quality of the picking operation by the hand unit 26 may be evaluated based on the image data (referred to as image data of another work). That is, when the hand unit 26 picks up the target work W, the influence of the target work W on other works around the target work W may be taken into account. In this case, based on the pre-transport image data acquired by imaging the inside of the first container 30 with the first camera 3A and the other workpiece image data, the quality observation unit 46 detects other workpieces by the hand unit 26. Picking evaluation is performed by specifying the influence on the work W, specifically, the displacement of another work W, the damage formed on the other work W, and the like. According to such a configuration, it is possible to detect a transfer condition that can maintain not only the quality of the work W to be taken out but also the quality of other works W at the time of taking out.

この構成では、ハンド部26によるワーク取り出し後の第1容器30内を撮像する撮像部、すなわち本発明の第3撮像部として、第1容器30の上方に配置(固定)された第1カメラ3Aが適用されている。第1カメラ3Aが本発明の第1撮像部と第3撮像部との機能を兼ねている。しかし、第3撮像部として、図14に示すようなカメラ3Cで第1容器30内のワークWを撮像するようにしてもよい。この場合、カメラ3Cは、本発明の第1撮像部と第3撮像部との機能を兼ねるものであってもよい。 In this configuration, the first camera 3A is arranged (fixed) above the first container 30 as an imaging section for imaging the inside of the first container 30 after the workpiece is taken out by the hand section 26, that is, as a third imaging section of the present invention. is applied. The first camera 3A also functions as the first imaging section and the third imaging section of the present invention. However, as the third imaging unit, a camera 3C as shown in FIG. 14 may be used to image the work W in the first container 30. In this case, the camera 3C may have the functions of the first imaging section and the third imaging section of the present invention.

この変形例(5)においては、さらに、搬送条件設定部43が、搬送条件として、第1容器30からワークWを取り出す際の当該ワークWに対するハンド部26の接近・離間等のアプローチ方法を設定するようにし、記憶部44が、他ワーク画像データとピッキング動作の成否及びピッキング評価と(以下、ピッキング動作結果という)を記憶し、学習部45が、第1カメラ3Aが撮像する第1容器30内の画像(取り出し対象となる対象ワークWを含む画像)と、過去のピッキング動作結果とに基づき最適なアプローチ方法を学習させるようにしてもよい。アプローチ方法とは、取り出し対象である対象ワークWに対してハンド部26を接近・離間等させる際の移動速度や、XYZ直交座標系で特定される移動方向などである。つまり、第1カメラ3Aが撮像した画像データが、記憶部44に格納された過去のピッキング動作結果の画像データであってかつ搬送動作に失敗したと認定される画像データと類似する場合に、前記アプローチ方法を変更するようにしてもよい。搬送動作に失敗したとは、例えばピッキング動作に失敗した場合(ワークWを把持できなかった場合や取り出し中にワークWを脱落させた場合等、図11のステップS33の処理でNoと判定されるような場合)や、ピッキング評価について低評価(C評価)とされるような場合が考えられる。このような構成によれば、ワークWの取り出しの際に、他のワークWの品質をより高度に保ち得るようなアプローチ方法を探知させることが可能となる。なお、この構成では、記憶部44が本発明の第1、第2記憶部として機能し、第1カメラ3Aが本発明の第1、第3撮像部として機能する。第1、第3撮像部は、第1カメラ3Aに限らず、図14に示すようなカメラ3Cであってもよい。また、当例では、本発明に係る「ワーク配置情報」として画像データが用いられているが、ワーク配置情報は、画像データに限定されるものではなく、第1容器30内の各ワークWの配置を特定できる情報であれば画像データ以外の情報であってもよい。例えば、ワーク配置情報は、第1容器30内の各ワークWの三次元位置情報であってもよい。つまり、第1カメラ3Aが撮像した画像データから取得される各ワークWの三次元位置情報が、記憶部44に格納された過去の各ワークWの三次元位置情報であってかつ搬送動作に失敗したと認定される各ワークWの三次元位置情報と類似する場合に、前記アプローチ方法を変更するようにしてもよい。勿論、三次元位置情報の代わりに、二次元位置情報をワーク配置情報として用いてもよい。 In this modified example (5) , the transfer condition setting unit 43 further sets, as the transfer condition, an approach method such as approaching/separating the hand unit 26 to/from the work W when taking out the work W from the first container 30. The storage unit 44 stores the other workpiece image data, the success or failure of the picking operation, and the picking evaluation (hereinafter referred to as the picking operation result), and the learning unit 45 stores the first container 30 captured by the first camera 3A. The optimum approach method may be learned based on the inner image (image including the target work W to be picked up) and the past picking operation results. The approach method includes the moving speed at which the hand unit 26 is moved toward or away from the target workpiece W to be picked up, the moving direction specified by the XYZ orthogonal coordinate system, and the like. That is, when the image data captured by the first camera 3A is similar to the image data of the past picking operation result stored in the storage unit 44 and the image data recognized as having failed in the transport operation, the You may make it change the approach method. Failure in the transport operation means, for example, failure in the picking operation (when the workpiece W could not be gripped, or when the workpiece W was dropped during picking, etc.), and when the processing in step S33 of FIG. case), and a case where the picking evaluation is given a low evaluation (C evaluation). According to such a configuration, when picking up a work W, it is possible to detect an approach method that can keep the quality of another work W at a higher level. In this configuration, the storage section 44 functions as the first and second storage sections of the invention, and the first camera 3A functions as the first and third imaging sections of the invention. The first and third imaging units are not limited to the first camera 3A, and may be a camera 3C as shown in FIG. Also, in this example, image data is used as the "work placement information" according to the present invention, but the work placement information is not limited to image data. Information other than image data may be used as long as the information can specify the arrangement. For example, the work placement information may be three-dimensional position information of each work W in the first container 30 . That is, the three-dimensional position information of each work W acquired from the image data captured by the first camera 3A is the past three-dimensional position information of each work W stored in the storage unit 44, and the transport operation fails. The approach method may be changed if the three-dimensional position information of each work W recognized as having been recognized is similar to the three-dimensional position information. Of course, two-dimensional position information may be used as work placement information instead of three-dimensional position information.

(6)上記実施形態のロボットシステム1では、前記搬送後画像データを取得するための撮像部として専用の撮像部(第2カメラ3B)が備えられている。しかし、例えば図13に示すように、ロボットシステム1が、ワーク収納後の第2容器32を撮像する三次元測定装置5aを具備する検査装置5を含む場合には、前記搬送後画像データを取得するための撮像部として当該検査装置5(三次元測定装置5a)を兼用し、当該検査装置から前記搬送後画像データを取得するようにしてもよい。 (6) In the robot system 1 of the above-described embodiment, a dedicated imaging section (second camera 3B) is provided as an imaging section for acquiring the post-transfer image data. However, for example, as shown in FIG. 13, when the robot system 1 includes an inspection device 5 having a three-dimensional measuring device 5a that captures an image of the second container 32 after storing the workpiece, the post-transport image data is acquired. The inspection device 5 (three-dimensional measuring device 5a) may also be used as an image pickup unit for the measurement, and the post-transport image data may be acquired from the inspection device.

[上記実施形態に包含される発明]
上述した実施形態には、以下の構成を有する発明が主に含まれる。
[Inventions included in the above embodiments]
The above-described embodiments mainly include inventions having the following configurations.

本発明の一の局面に係るロボットシステムは、複数のワークが収容された収容部から前記ワークを把持して取り出し、所定位置に運搬するハンド部を備えたロボットと、前記収容部から前記ワークを取り出して前記所定位置に運搬する、前記ロボットの搬送動作を制御するロボット制御部と、前記搬送動作に関する条件であって、前記ワークのうち、前記ハンド部により把持することを禁止する把持禁止領域を少なくとも含む搬送条件を設定する搬送条件設定部と、を備え、前記ロボット制御部は、前記搬送条件設定部により設定された搬送条件に基づき前記ロボットを制御するものである。 A robot system according to one aspect of the present invention includes a robot equipped with a hand unit that grasps and takes out a plurality of works from a storage unit in which the works are stored and transports the works to a predetermined position, and removes the works from the storage unit. A robot control unit that controls the transport operation of the robot that takes out and transports the work to the predetermined position; a transfer condition setting unit that sets at least a transfer condition, wherein the robot control unit controls the robot based on the transfer condition set by the transfer condition setting unit.

このロボットシステムによれば、ワークに応じて、ハンド部により把持することを禁止する把持禁止領域が設定される。つまり、ハンド部によるワークの搬送動作に際しては、把持禁止領域以外の部分がハンド部により把持されることとなる。従って、ワークのうち形状的に変形し易い部分や傷つき易い部分が予め把持禁止領域として設定されることで、ワークの搬送の際に、当該ワークの品質が損なわれることが抑制される。 According to this robot system, a gripping prohibition area is set for prohibiting gripping by the hand unit according to the workpiece. In other words, when the hand portion conveys the workpiece, the portion other than the grip prohibited area is gripped by the hand portion. Therefore, by preliminarily setting a portion of the work that is easily deformed in shape or easily damaged as a grip-prohibited area, it is possible to prevent the quality of the work from being impaired when the work is conveyed.

このロボットシステムにおいて、前記搬送条件設定部は、前記把持禁止領域に加えて、前記ワーク周辺の空間であって前記ワークに対して前記ハンド部が接近することを禁止する侵入禁止領域を少なくとも含む前記搬送条件を設定するのが好適である。 In this robot system, the transfer condition setting unit includes at least an intrusion prohibition region, which is a space around the work and prohibits the hand from approaching the work, in addition to the grip prohibition region. It is preferable to set transport conditions.

このロボットシステムによれば、ハンド部によるワークの取り出しの際に、取り出し対象となる対象ワークの周辺にある他のワークの侵入禁止領域にハンド部が侵入することが禁止される。換言すれば、他のワークの侵入禁止領域にハンド部が侵入しないように、ハンド部による対象ワークの取り出しが行われることとなる。従って、ワークのうち形状的に変形し易い部分や傷つき易い部分を含む一定の領域が予め侵入禁止領域として設定されることで、収容部からのワークの取り出しの際に、対象となるワークの周辺にある他のワークの品質が損なわれることが抑制される。 According to this robot system, when a work is taken out by the hand part, the hand part is prohibited from entering the intrusion prohibited area for other works around the target work to be taken out. In other words, the hand unit picks up the target work so that the hand unit does not enter the intrusion prohibited area for other works. Therefore, by preliminarily setting a certain area including a part that is easily deformed in shape and a part that is easily damaged in the work as an intrusion prohibition area, when the work is taken out from the storage unit, the surrounding area of the target work can be prevented. It is suppressed that the quality of other workpieces located in is impaired.

前記ロボットシステムにおいては、ワークの前記搬送条件を記憶する記憶部をさらに備え、前記搬送条件設定部は、新たに搬送条件を設定すべき対象ワークと形状が類似する類似ワークについてその搬送条件が前記記憶部に既に記憶されている場合に、当該類似ワークの搬送条件に基づき前記対象ワークの搬送条件を設定するものであるのが好適である。 The robot system further includes a storage unit for storing the transfer conditions of the work, and the transfer condition setting unit sets the transfer conditions for similar works similar in shape to the target work for which the transfer conditions are to be newly set. It is preferable that the transfer condition of the target work is set based on the transfer condition of the similar work when it is already stored in the storage unit.

このロボットシステムによれば、類似ワークの既存の搬送条件を利用して、対象ワークの搬送条件が設定されるので、ワーク毎に一から搬送条件をプログラミングするといった手間が省ける。 According to this robot system, since the transfer conditions for the target work are set using the existing transfer conditions for similar works, the trouble of programming the transfer conditions from scratch for each work can be saved.

前記一の局面に係るロボットシステムにおいて、前記搬送条件設定部は、前記ワークの画像に基づき前記搬送条件を設定するのが好適である。 In the robot system according to the one aspect, it is preferable that the transfer condition setting unit sets the transfer condition based on an image of the workpiece.

このロボットシステムによれば、ワークの画像データから前記搬送条件が設定されるので、ワークの形状を特定する個々の数値等のデータを入力しながら搬送条件をプログラミングするといった手間が省ける。 According to this robot system, since the transfer conditions are set from the image data of the workpiece, it is possible to save the trouble of programming the transfer conditions while inputting data such as individual numerical values that specify the shape of the workpiece.

この場合、前記ロボットシステムは、前記搬送動作が実行される前の前記収容部内のワーク、又は前記収容部から取り出された、前記ハンド部により把持された状態のワークを撮像可能な第1撮像部をさらに備え、前記搬送条件設定部は、前記第1撮像部が撮像した前記ワークの画像に基づき前記搬送条件を設定するのが好適である。 In this case, the robot system includes a first imaging unit capable of imaging the workpiece in the storage unit before the carrying operation is executed, or the workpiece taken out from the storage unit and held by the hand unit. Preferably, the transfer condition setting section sets the transfer condition based on the image of the workpiece captured by the first imaging section.

このロボットシステムによれば、当該システムにおいてワークの画像データを取得し、その画像データを用いて搬送条件を設定することができる。そのため、別途、ワークの画像データを準備すること無く、搬送条件を設定することが可能となる。 According to this robot system, it is possible to acquire image data of a work in the system and set the transport conditions using the image data. Therefore, it is possible to set the transport conditions without separately preparing the image data of the work.

なお、上記各ロボットシステムにおいては、前記搬送動作が実行された後の前記所定位置のワークを撮像可能な第2撮像部と、前記搬送動作が実行されたときの前記ロボット制御部による制御情報と、前記第2撮像部が撮像した画像に基づく前記ワークの外観的な品質情報とを取得して、これらの情報に基づき前記搬送条件を学習する学習部と、をさらに備え、前記搬送条件設定部は、前記搬送条件を初期設定するとともに、前記学習部の学習結果に基づき前記搬送条件を修正するのが好適である。 In each of the above robot systems, a second imaging unit capable of capturing an image of the workpiece at the predetermined position after the transport operation is performed, and control information from the robot control unit when the transport operation is performed. a learning unit that acquires external quality information of the workpiece based on the image captured by the second imaging unit, and learns the transport condition based on the information; and the transport condition setting unit Preferably, the conveying conditions are initially set, and the conveying conditions are corrected based on the learning result of the learning section.

このロボットシステムによれば、搬送条件設定部により搬送条件が初期設定され、当該搬送条件が、学習部による機械学習に基づき修正される。従って、理想的なワークの搬送動作が実行される搬送条件を初期設定せずとも、機械学習によって、理想的なワークの搬送動作が実行される搬送条件を探知させることが可能となる。 According to this robot system, the transport conditions are initially set by the transport condition setting unit, and the transport conditions are corrected based on machine learning by the learning unit. Therefore, it is possible to detect the transfer conditions for ideal workpiece transfer operation by machine learning without initial setting of transfer conditions for ideal workpiece transfer operation.

このロボットシステムにおいては、前記搬送動作が実行された後の前記収容部内のワークを撮像可能な撮像する第3撮像部をさらに備え、前記学習部は、前記制御情報及び前記所定位置におけるワークの品質情報に加え、前記第3撮像部が撮像した画像に基づく前記収容部内のワークの外観的な品質情報をさらに取得し、これらの情報に基づき前記搬送条件を学習するのが好適である。 This robot system further includes a third imaging unit capable of imaging the work in the storage unit after the carrying operation has been performed, and the learning unit receives the control information and the quality of the work at the predetermined position. In addition to the information, it is preferable to further acquire the appearance quality information of the work in the storage section based on the image captured by the third imaging section, and to learn the conveying condition based on this information.

このロボットシステムによれば、搬送条件の機械学習において、ワーク取り出し後の収容部内のワークの品質情報が加味される。つまり、ハンド部が取り出し対象となるワークの周辺にあるワークに与える影響を加味することが可能となる。そのため、取り出し対象となるワークの品質のみならず、当該取り出しの際の他のワークの品質をも保ち得るような搬送条件を探知させることが可能となる。 According to this robot system, in the machine learning of the transfer conditions, the quality information of the work in the storage section after picking up the work is taken into account. In other words, it is possible to take into consideration the influence of the hand unit on the workpieces around the workpiece to be taken out. Therefore, it is possible to detect a transfer condition that can maintain not only the quality of the work to be taken out but also the quality of other works at the time of taking out the work.

上記ロボットシステムにおいて、前記搬送条件は、前記ハンド部によるワークの把持力、ワークの運搬速度及び前記ハンド部によるワークの把持位置の少なくとも一つをさらに含むのが好適である。 In the robot system described above, it is preferable that the transfer conditions further include at least one of a gripping force of the work by the hand unit, a work transport speed, and a gripping position of the work by the hand unit.

このロボットシステムによれば、機械学習によって、ワークの品質を保ちつつ、当該ワークの取り出しの際、或いは運搬途中に当該ワークを脱落させるような事がない、理想的なワークの搬送動作が実行される搬送条件を探知させることが可能となる。 According to this robot system, by machine learning, an ideal workpiece transfer operation is executed in which the quality of the workpiece is maintained and the workpiece does not fall off when the workpiece is taken out or during transportation. Therefore, it is possible to detect the transport conditions.

このロボットシステムにおいては、前記搬送条件は、ワークの運搬速度及び前記ハンド部によるワークの把持位置を含み、前記学習部は、前記ワークにおける前記把持禁止領域以外の領域内において可及的に運搬速度が速くなる前記把持位置を学習するのが好適である。 In this robot system, the transfer conditions include a work transfer speed and a gripping position of the work by the hand unit, and the learning unit adjusts the transfer speed as much as possible within an area other than the grip prohibited area of the work. It is preferable to learn the gripping position at which the

このロボットシステムによれば、機械学習により、ワークの品質を保ちつつ、より高速でワークを運搬できるような搬送条件を探知させることが可能となる。 According to this robot system, by machine learning, it is possible to detect transport conditions that allow the work to be transported at a higher speed while maintaining the quality of the work.

上記ロボットシステムにおいて、前記記憶部を第1記憶部と定義したときに、過去の前記収容部内のワーク配置情報及び過去の前記収納部内のワークの品質情報とを記憶する第2記憶部をさらに含み、前記第1撮像部は、前記搬送動作が実行される前の前記収容部内のワークを撮像可能なものであり、前記搬送条件は、前記収容部から前記ワークを取り出す際の当該ワークに対する前記ハンド部のアプローチ方法を含み、前記学習部は、前記第1撮像部が撮像した画像データから取得されるワーク配置情報が、前記過去のワーク配置情報であってかつ前記収容部内のワークの品質情報に基づき搬送動作に失敗したと認定されたワーク配置情報と類似する場合に、前記搬送条件とは異なるアプローチ方法をとるように学習するのが好適である。 In the above robot system, when the storage unit is defined as a first storage unit, the robot system further includes a second storage unit that stores past workpiece placement information in the storage unit and past workpiece quality information in the storage unit. , the first imaging section is capable of imaging the work in the storage section before the carrying operation is executed, and the carrying condition is the hand for the work when the work is taken out from the storage section. and the learning unit determines that the work placement information acquired from the image data captured by the first imaging unit is the past work placement information and the quality information of the work in the storage unit. It is preferable to learn so as to adopt an approach method different from the above-described transfer conditions when similar to work placement information recognized as having failed in the transfer operation based on the above.

このロボットシステムによれば、機械学習により、特にワーク取り出しの際に、より高度にワークの品質を保ち得るような搬送条件(アプローチ方法)を探知させることが可能となる。 According to this robot system, by machine learning, it is possible to detect transfer conditions (approach method) that can maintain the quality of the work at a higher level, especially when picking up the work.

上記ロボットシステムにおいて、前記搬送条件設定部は、ワークの表面状態に関する情報を取得し、当該表面状態に関する情報に基づき前記禁止領域を設定するのが好適である。 In the robot system described above, it is preferable that the transfer condition setting section acquires information regarding the surface state of the workpiece and sets the prohibited area based on the information regarding the surface state.

このロボットシステムによれば、ワークの表面処理などの表面状態を加味した、より最適な搬送条件を探知させることが可能となる。 According to this robot system, it is possible to detect more optimal transfer conditions, taking into consideration the surface conditions such as the surface treatment of the workpiece.

なお、上記のロボットシステムにおいては、複数の前記撮像部の機能を兼用する少なくとも1つの撮像部を備えているのが好適である。 It should be noted that the robot system described above preferably includes at least one imaging section that also functions as the plurality of imaging sections.

このロボットシステムによれば、複数の撮像部の一部を兼用してワークを撮像する合理的な構成が達成される。 According to this robot system, a rational configuration is achieved in which a part of the plurality of imaging units is also used to image the work.

この場合、前記1つの撮像部は、前記ロボットの可動部分に設けられているのが好適である。 In this case, it is preferable that the one imaging section is provided in a movable portion of the robot.

このロボットシステムによれば、搬送動作が実行される前の収容部内、搬送動作が実行された後の収容部内、および搬送動作が実行された後の所定位置に有るワークを共通の撮像部で良好に撮像することが可能となる。 According to this robot system, the workpieces in the storage unit before the carrying operation, the inside of the storage unit after the carrying operation, and the workpiece at the predetermined position after the carrying operation are captured by the common imaging unit. It is possible to take an image in

Claims (13)

複数のワークが収容された収容部から前記ワークを把持して取り出し、所定位置に運搬するハンド部を備えたロボットと、
前記収容部から前記ワークを取り出して前記所定位置に運搬する、前記ロボットの搬送動作を制御するロボット制御部と、
前記搬送動作に関する条件であって、前記ワークのうち、前記ハンド部により把持することを禁止する把持禁止領域を少なくとも含む搬送条件を設定する搬送条件設定部と、
前記搬送動作が実行された後の前記所定位置のワークを撮像可能な撮像部と、
前記搬送動作が実行されたときの前記ロボット制御部による制御情報と、前記撮像部が撮像した画像に基づく前記ワークの外観的な品質情報とを取得して、これらの情報に基づき前記搬送条件を学習する学習部と、を備え、
前記ロボット制御部は、前記搬送条件設定部により設定された搬送条件に基づき前記ロボットを制御し、
前記搬送条件設定部は、前記学習部の学習結果に基づき前記搬送条件を修正する、ロボットシステム。
a robot equipped with a hand unit that grips and takes out a plurality of workpieces from a storage unit in which the workpieces are stored and transports the workpieces to a predetermined position;
a robot control unit that controls a transport operation of the robot that takes out the work from the storage unit and transports it to the predetermined position;
a transport condition setting unit that sets a transport condition, which is a condition related to the transport operation and includes at least a gripping prohibited area that prohibits gripping of the work by the hand unit;
an imaging unit capable of imaging the workpiece at the predetermined position after the carrying operation has been performed;
Obtaining control information from the robot control unit when the conveying operation is performed and external quality information of the workpiece based on the image captured by the imaging unit, and determining the conveying condition based on these pieces of information a learning unit that learns ,
The robot control unit controls the robot based on the transport conditions set by the transport condition setting unit,
The robot system , wherein the transfer condition setting unit corrects the transfer condition based on a learning result of the learning unit .
請求項1に記載のロボットシステムにおいて、
前記搬送条件設定部は、前記把持禁止領域に加えて、前記ワーク周辺の空間であって前記ワークに対して前記ハンド部が接近することを禁止する侵入禁止領域を少なくとも含む前記搬送条件を設定する、ロボットシステム。
The robot system according to claim 1,
The transfer condition setting unit sets the transfer condition including, in addition to the grip prohibited area, at least an intrusion prohibited area, which is a space around the workpiece and prohibits the hand unit from approaching the workpiece. , robotic system.
請求項1又は2に記載のロボットシステムにおいて、
ワークの前記搬送条件を記憶する第1記憶部をさらに備え、
前記搬送条件設定部は、新たに搬送条件を設定すべき対象ワークと形状が類似する類似ワークについてその搬送条件が前記第1記憶部に既に記憶されている場合に、当該類似ワークの搬送条件に基づき前記対象ワークの搬送条件を設定する、ロボットシステム。
In the robot system according to claim 1 or 2,
further comprising a first storage unit that stores the transfer conditions for the work,
The transfer condition setting unit sets the transfer condition of the similar work to the transfer condition of the similar work when the transfer condition of the similar work similar in shape to the target work for which the transfer condition is to be newly set is already stored in the first storage unit. a robot system that sets transport conditions for the target work based on the
請求項1又は2に記載のロボットシステムにおいて、
前記搬送条件設定部は、前記ワークの画像に基づき前記搬送条件を設定する、ロボットシステム。
In the robot system according to claim 1 or 2,
The robot system, wherein the transfer condition setting unit sets the transfer condition based on an image of the workpiece.
請求項4に記載のロボットシステムにおいて、
前記撮像部を第2撮像部と定義したときに、
前記搬送動作が実行される前の前記収容部内のワーク、又は前記収容部から取り出された、前記ハンド部により把持された状態のワークを撮像可能な第1撮像部をさらに備え、
前記搬送条件設定部は、前記第1撮像部が撮像した前記ワークの画像に基づき前記搬送条件を設定する、ロボットシステム。
In the robot system according to claim 4,
When the imaging unit is defined as a second imaging unit,
further comprising a first imaging unit capable of imaging the workpiece in the storage unit before the carrying operation is performed or the workpiece taken out from the storage unit and held by the hand unit;
The robot system, wherein the transfer condition setting unit sets the transfer condition based on the image of the workpiece captured by the first imaging unit.
請求項1乃至5の何れか一項に記載のロボットシステムにおいて、
前記搬送動作が実行された後の前記収容部内のワークを撮像可能な第3撮像部をさらに備え、
前記学習部は、前記制御情報及び前記所定位置におけるワークの品質情報に加え、前記第3撮像部が撮像した画像に基づく前記収容部内のワークの外観的な品質情報をさらに取得し、これらの情報に基づき前記搬送条件を学習する、ロボットシステム。
In the robot system according to any one of claims 1 to 5 ,
further comprising a third imaging unit capable of imaging the workpiece in the storage unit after the carrying operation has been performed;
In addition to the control information and the quality information of the work at the predetermined position, the learning unit further acquires external quality information of the work in the storage unit based on the image captured by the third imaging unit, and acquires this information. a robot system that learns the transport conditions based on
請求項1乃至6の何れか一項に記載のロボットシステムにおいて、
前記搬送条件は、前記ハンド部によるワークの把持力、ワークの運搬速度及び前記ハンド部によるワークの把持位置の少なくとも一つをさらに含む、ロボットシステム。
In the robot system according to any one of claims 1 to 6 ,
The robot system, wherein the transport condition further includes at least one of a work gripping force by the hand unit, a work transport speed, and a work gripping position by the hand unit.
請求項に記載のロボットシステムにおいて、
前記搬送条件は、ワークの運搬速度及び前記ハンド部によるワークの把持位置を含み、
前記学習部は、前記ワークにおける前記把持禁止領域以外の領域内において可及的に運搬速度が速くなる前記把持位置を学習する、ロボットシステム。
In the robot system according to claim 7 ,
The transport conditions include a work transport speed and a grip position of the work by the hand unit,
The robot system, wherein the learning unit learns the gripping position at which the transportation speed becomes as fast as possible within a region other than the gripping prohibited region of the workpiece.
請求項5に記載のロボットシステムにおいて、
前記搬送動作が実行された後の前記収容部内のワークを撮像可能な第3撮像部と、
過去の前記収容部内のワーク配置情報及び過去の前記収容部内のワークの品質情報を記憶する第2記憶部と、をさらに含み、
前記第1撮像部は、前記搬送動作が実行される前の前記収容部内のワークを撮像可能なものであり、
前記搬送条件は、前記収容部から前記ワークを取り出す際の当該ワークに対する前記ハンド部のアプローチ方法を含み、
前記学習部は、前記制御情報及び前記所定位置におけるワークの品質情報に加え、前記第3撮像部が撮像した画像に基づく前記収容部内のワークの外観的な品質情報をさらに取得し、これらの情報に基づき前記搬送条件を学習するとともに、前記第1撮像部が撮像した画像から取得されるワーク配置情報が、前記過去のワーク配置情報であってかつ前記収容部内のワークの品質情報に基づき搬送動作に失敗したと認定されたワーク配置情報と類似する場合に、前記搬送条件とは異なるアプローチ方法をとるように学習する、ロボットシステム。
In the robot system according to claim 5,
a third imaging unit capable of imaging the work in the storage unit after the carrying operation has been performed;
a second storage unit that stores past workpiece placement information in the storage unit and past workpiece quality information in the storage unit,
The first imaging section is capable of imaging the work in the storage section before the carrying operation is performed,
The transport condition includes an approach method of the hand unit to the work when the work is taken out from the storage unit,
In addition to the control information and the quality information of the work at the predetermined position, the learning unit further acquires external quality information of the work in the storage unit based on the image captured by the third imaging unit, and acquires this information. and the work placement information obtained from the image captured by the first imaging unit is the past work placement information and the quality information of the work in the storage unit. a robot system that learns to adopt an approach method different from the transfer conditions when similar to work placement information recognized as having failed the above.
請求項1乃至の何れか一項に記載のロボットシステムにおいて、
前記搬送条件設定部は、ワークの表面状態に関する情報を取得し、当該表面状態に関する情報に基づき前記把持禁止領域を設定する、ロボットシステム。
In the robot system according to any one of claims 1 to 9 ,
The robot system, wherein the transfer condition setting unit acquires information about the surface state of the workpiece, and sets the gripping prohibited area based on the information about the surface state.
請求項5、6又は9に記載のロボットシステムにおいて、
複数の前記撮像部の機能を兼用する少なくとも1つの撮像部を備えている、ロボットシステム。
In the robot system according to claim 5, 6 or 9 ,
A robot system comprising at least one imaging unit that also functions as a plurality of imaging units.
請求項11に記載のロボットシステムにおいて、
前記1つの撮像部は、前記ロボットの可動部分に設けられている、ロボットシステム。
The robot system according to claim 11 , wherein
The robot system, wherein the one imaging unit is provided in a movable portion of the robot.
請求項1乃至12に記載のロボットシステムにおいて、In the robot system according to any one of claims 1 to 12,
前記搬送条件設定部は、前記搬送条件を初期設定する、ロボットシステム。The robot system, wherein the transfer condition setting unit initially sets the transfer condition.
JP2020525044A 2018-06-14 2018-06-14 robot system Active JP7143410B2 (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2018/022809 WO2019239563A1 (en) 2018-06-14 2018-06-14 Robot system

Publications (2)

Publication Number Publication Date
JPWO2019239563A1 JPWO2019239563A1 (en) 2021-03-11
JP7143410B2 true JP7143410B2 (en) 2022-09-28

Family

ID=68843115

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020525044A Active JP7143410B2 (en) 2018-06-14 2018-06-14 robot system

Country Status (5)

Country Link
US (1) US11926057B2 (en)
JP (1) JP7143410B2 (en)
CN (1) CN112218748B (en)
DE (1) DE112018007727B4 (en)
WO (1) WO2019239563A1 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6918756B2 (en) * 2018-08-31 2021-08-11 ファナック株式会社 Detection system
JP7467041B2 (en) * 2018-09-27 2024-04-15 キヤノン株式会社 Information processing device, information processing method and system
JP7192748B2 (en) * 2019-11-25 2022-12-20 トヨタ自動車株式会社 Conveyance system, learned model generation method, learned model, control method and program
DE112020006594B4 (en) 2020-04-28 2024-02-29 Yamaha Hatsudoki Kabushiki Kaisha Machine learning methods and robotic system

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001095348A (en) 1999-10-01 2001-04-10 Masateru Nagata Plucking hard for harvesting fruit vegetable and method for harvesting fruit vegetable with the same
JP2002200588A (en) 2000-12-28 2002-07-16 Denso Corp Device and method for detecting holding position of component holdable by robot
JP2011073066A (en) 2009-09-29 2011-04-14 Canon Inc Object grasping control method and apparatus
JP2013184273A (en) 2012-03-09 2013-09-19 Sony Corp Robot apparatus, method of controlling robot apparatus, and computer program
JP2015085488A (en) 2013-11-01 2015-05-07 トヨタ自動車株式会社 Robot
JP2016197393A (en) 2015-04-03 2016-11-24 キヤノン株式会社 Information processor, information processing method and program
JP2017030135A (en) 2015-07-31 2017-02-09 ファナック株式会社 Machine learning apparatus, robot system, and machine learning method for learning workpiece take-out motion
US20170080571A1 (en) 2015-09-01 2017-03-23 Berkshire Grey Inc. Systems and methods for providing dynamic robotic control systems
US20170136632A1 (en) 2015-11-13 2017-05-18 Berkshire Grey Inc. Sortation systems and methods for providing sortation of a variety of objects

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4835616B2 (en) 2008-03-10 2011-12-14 トヨタ自動車株式会社 Motion teaching system and motion teaching method
JP2010264559A (en) * 2009-05-15 2010-11-25 Seiko Epson Corp Method of controlling robot
JP5402697B2 (en) 2009-10-26 2014-01-29 株式会社安川電機 Robot apparatus, work picking system and work picking method
JP5685027B2 (en) 2010-09-07 2015-03-18 キヤノン株式会社 Information processing apparatus, object gripping system, robot system, information processing method, object gripping method, and program
CN103687702B (en) 2011-06-29 2016-08-24 三菱电机株式会社 Assembly supply device
JP2013132707A (en) * 2011-12-26 2013-07-08 Seiko Epson Corp Robot installation position determination device and robot installation position determination method
JP5642738B2 (en) 2012-07-26 2014-12-17 ファナック株式会社 Apparatus and method for picking up loosely stacked articles by robot
US9227323B1 (en) * 2013-03-15 2016-01-05 Google Inc. Methods and systems for recognizing machine-readable information on three-dimensional objects
JP6415026B2 (en) 2013-06-28 2018-10-31 キヤノン株式会社 Interference determination apparatus, interference determination method, and computer program
JP5788460B2 (en) 2013-11-05 2015-09-30 ファナック株式会社 Apparatus and method for picking up loosely stacked articles by robot
JP2016020011A (en) * 2014-07-11 2016-02-04 キヤノン株式会社 Robot device and control method of robot device
US9561587B2 (en) 2014-12-16 2017-02-07 Amazon Technologies, Inc. Robotic grasping of items in inventory system
CN105983965A (en) * 2015-02-09 2016-10-05 高振钊 Mutual inductance recognition method for manipulator arm grasping in specific space
US10076840B2 (en) 2015-04-03 2018-09-18 Canon Kabushiki Kaisha Information processing apparatus, information processing method, and program
US9802317B1 (en) 2015-04-24 2017-10-31 X Development Llc Methods and systems for remote perception assistance to facilitate robotic object manipulation
DE102016009030B4 (en) 2015-07-31 2019-05-09 Fanuc Corporation Machine learning device, robot system and machine learning system for learning a workpiece receiving operation
JP2018034242A (en) 2016-08-31 2018-03-08 セイコーエプソン株式会社 Robot control device, robot, and robot system
CN206501118U (en) * 2017-02-23 2017-09-19 武汉库柏特科技有限公司 A kind of robotic gripping device
CN108029340A (en) * 2017-12-05 2018-05-15 江苏科技大学 A kind of picking robot arm and its control method based on adaptive neural network
JP6725587B2 (en) * 2018-05-18 2020-07-22 ファナック株式会社 Robot system for taking out workpieces stacked in bulk and control method for robot system

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001095348A (en) 1999-10-01 2001-04-10 Masateru Nagata Plucking hard for harvesting fruit vegetable and method for harvesting fruit vegetable with the same
JP2002200588A (en) 2000-12-28 2002-07-16 Denso Corp Device and method for detecting holding position of component holdable by robot
JP2011073066A (en) 2009-09-29 2011-04-14 Canon Inc Object grasping control method and apparatus
JP2013184273A (en) 2012-03-09 2013-09-19 Sony Corp Robot apparatus, method of controlling robot apparatus, and computer program
JP2015085488A (en) 2013-11-01 2015-05-07 トヨタ自動車株式会社 Robot
JP2016197393A (en) 2015-04-03 2016-11-24 キヤノン株式会社 Information processor, information processing method and program
JP2017030135A (en) 2015-07-31 2017-02-09 ファナック株式会社 Machine learning apparatus, robot system, and machine learning method for learning workpiece take-out motion
US20170080571A1 (en) 2015-09-01 2017-03-23 Berkshire Grey Inc. Systems and methods for providing dynamic robotic control systems
US20170136632A1 (en) 2015-11-13 2017-05-18 Berkshire Grey Inc. Sortation systems and methods for providing sortation of a variety of objects

Also Published As

Publication number Publication date
CN112218748B (en) 2023-09-05
US20210233228A1 (en) 2021-07-29
DE112018007727T5 (en) 2021-02-25
WO2019239563A1 (en) 2019-12-19
DE112018007727B4 (en) 2022-10-06
JPWO2019239563A1 (en) 2021-03-11
US11926057B2 (en) 2024-03-12
CN112218748A (en) 2021-01-12

Similar Documents

Publication Publication Date Title
JP7143410B2 (en) robot system
CN109483573B (en) Machine learning device, robot system, and machine learning method
CN109483554B (en) Robot dynamic grabbing method and system based on global and local visual semantics
JP6983524B2 (en) Information processing equipment, information processing methods and programs
JP6771744B2 (en) Handling system and controller
EP2783810A2 (en) Robot system and method for producing to-be-processed material
US9008841B2 (en) Robotic picking of parts from a parts holding bin
EP1589483B1 (en) Object picking system
JP5837065B2 (en) Parts supply device
JP6734402B2 (en) Work machine
US11213954B2 (en) Workpiece identification method
JP7191569B2 (en) gripping device
JP7163506B2 (en) Work robots and work systems
JP2019057250A (en) Work-piece information processing system and work-piece recognition method
JP7183941B2 (en) Work identification method
WO2022138234A1 (en) Tool checking device, tool checking program, and tool checking method for robot arm
JPWO2019239565A1 (en) Parts serving device for kitting tray
JP6176091B2 (en) Grasping method, carrying method and robot
CN116604594A (en) Region-based grabbing generation
CN116175540B (en) Grabbing control method, device, equipment and medium based on position and orientation
WO2022114042A1 (en) Information processing device, and picking device
JP6915085B2 (en) Working machine and gripping position search method
Tudorie Different approaches in feeding of a flexible manufacturing cell
JP6842753B2 (en) Work grip position indication system and picking device
CN115837985A (en) Disordered grabbing method based on machine vision

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200918

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211130

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220120

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220614

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220704

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220913

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220914

R150 Certificate of patent or registration of utility model

Ref document number: 7143410

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150