JP6771744B2 - Handling system and controller - Google Patents

Handling system and controller Download PDF

Info

Publication number
JP6771744B2
JP6771744B2 JP2017011017A JP2017011017A JP6771744B2 JP 6771744 B2 JP6771744 B2 JP 6771744B2 JP 2017011017 A JP2017011017 A JP 2017011017A JP 2017011017 A JP2017011017 A JP 2017011017A JP 6771744 B2 JP6771744 B2 JP 6771744B2
Authority
JP
Japan
Prior art keywords
handling
end effector
machine learning
learning process
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017011017A
Other languages
Japanese (ja)
Other versions
JP2018118343A (en
Inventor
啓介 中村
啓介 中村
勝 足立
勝 足立
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yaskawa Electric Corp
Original Assignee
Yaskawa Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yaskawa Electric Corp filed Critical Yaskawa Electric Corp
Priority to JP2017011017A priority Critical patent/JP6771744B2/en
Publication of JP2018118343A publication Critical patent/JP2018118343A/en
Application granted granted Critical
Publication of JP6771744B2 publication Critical patent/JP6771744B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

開示の実施形態は、ハンドリングシステム及びコントローラに関する。 Disclosure embodiments relate to handling systems and controllers.

特許文献1には、部品の3次元モデルに基づいてロボットハンドが当該部品を把持する把持面の抽出と把持位置の算出を行う手法が記載されている。 Patent Document 1 describes a method of extracting a gripping surface on which a robot hand grips a part and calculating a gripping position based on a three-dimensional model of the part.

特開2016−093879号公報Japanese Unexamined Patent Publication No. 2016-03879

しかしながら、上記従来技術では把持面と把持位置をユーザが人為的に設計していたため、多様な形状と姿勢にある部品に対しては確実な把持計画が困難となり、把持性能が低かった。 However, in the above-mentioned conventional technique, since the gripping surface and the gripping position are artificially designed by the user, it is difficult to perform a reliable gripping plan for parts having various shapes and postures, and the gripping performance is low.

本発明はこのような問題点に鑑みてなされたものであり、機械によるハンドリング性能を向上できるハンドリングシステム及びコントローラを提供することを目的とする。 The present invention has been made in view of such problems, and an object of the present invention is to provide a handling system and a controller capable of improving the handling performance by a machine.

上記課題を解決するため、本発明の一の観点によれば、対象物の形状情報を取得する形状取得部と、前記対象物に直接接触してハンドリング動作を行う複数種類のエンドエフェクタと、機械学習プロセスでの学習内容に基づき、前記形状情報に対応して、前記対象物側の接触位置であるハンドリング位置の推定と、前記対象物に対してハンドリング動作させるエンドエフェクタの選択を行うハンドリング設定部と、を有するハンドリングシステムが適用される。 In order to solve the above problems, according to one viewpoint of the present invention, a shape acquisition unit that acquires shape information of an object, a plurality of types of end effectors that directly contact the object and perform a handling operation, and a machine. A handling setting unit that estimates the handling position, which is the contact position on the object side, and selects the end effector to be operated with respect to the object, based on the learning content in the learning process. A handling system with and is applied.

また、本発明の別の観点によれば、機械学習プロセスでの学習内容に基づき、対象物の形状に対応して、前記対象物側の接触位置であるハンドリング位置の推定と、前記対象物に対してハンドリング動作させるエンドエフェクタの選択を行うハンドリング設定部、を有するコントローラが適用される。 Further, according to another aspect of the present invention, based on the learning content in the machine learning process, the handling position, which is the contact position on the object side, is estimated according to the shape of the object, and the object is subjected to the estimation. On the other hand, a controller having a handling setting unit for selecting an end effector to be operated is applied.

本発明によれば、機械によるハンドリング性能を向上できる。 According to the present invention, the handling performance by a machine can be improved.

実施形態のハンドリングシステムの概略的なシステムブロック構成の一例を表す図である。It is a figure which shows an example of the schematic system block composition of the handling system of embodiment. 3種類のエンドエフェクタの構成を表す正面図である。It is a front view which shows the structure of three kinds of end effectors. 略卵型形状の工業部品に対するハンドリング位置の例を表す図である。It is a figure which shows the example of the handling position with respect to the industrial part of a substantially egg shape. ボルト型形状の工業部品に対するハンドリング位置の例を表す図である。It is a figure which shows the example of the handling position with respect to the bolt type industrial part. 平板形状の工業部品に対するハンドリング位置の例を表す図である。It is a figure which shows the example of the handling position with respect to the flat plate-shaped industrial part. 2円錐結合型形状の工業部品に対するハンドリング位置の例を表す図である。It is a figure which shows the example of the handling position with respect to the industrial part of 2 cone type shape. ハンドリング位置推定部のニューラルネットワークモデル概要構成の一例を表す図である。It is a figure which shows an example of the neural network model outline structure of the handling position estimation part. エンドエフェクタ選択部のニューラルネットワークモデル概要構成の一例を表す図である。It is a figure which shows an example of the neural network model outline structure of the end effector selection part. データ学習処理を実現するために、ロボットコントローラのCPUが実行する制御手順を表すフローチャートである。It is a flowchart which shows the control procedure which CPU of a robot controller executes in order to realize data learning processing. 強化学習処理を実現するために、ロボットコントローラのCPUが実行する制御手順を表すフローチャートである。It is a flowchart which shows the control procedure which the CPU of a robot controller executes in order to realize the reinforcement learning process. ハンドリング位置推定部とエンドエフェクタ選択部の順番を入れ替えたロボットコントローラのシステムブロック構成の一例を表す図である。It is a figure which shows an example of the system block composition of the robot controller which exchanged the order of a handling position estimation part and an end effector selection part. ハンドリング位置推定部とエンドエフェクタ選択部を並列かつ同一に構成したニューラルネットワークモデル概要構成の一例を表す図である。It is a figure which shows an example of the neural network model outline composition which configured the handling position estimation part and the end effector selection part in parallel and the same. 3次元カメラで食品の形状情報を取得する構成例を表す図である。It is a figure which shows the structural example which acquires the shape information of food with a 3D camera. 2つの形状情報に基づいてハンドリング位置情報とエンドエフェクタ選択情報を出力する場合のニューラルネットワークのモデル概略構成の一例を表す図である。It is a figure which shows an example of the model schematic structure of the neural network at the time of outputting the handling position information and end effector selection information based on two shape information. ロボットコントローラのハードウェア構成を表すシステムブロック図である。It is a system block diagram which shows the hardware configuration of a robot controller.

以下、実施の形態について図面を参照しつつ説明する。 Hereinafter, embodiments will be described with reference to the drawings.

<ハンドリングシステムの概略構成>
図1は、本実施形態のハンドリングシステムの概略的なシステムブロック構成の一例を表している。このハンドリングシステムは、コンテナ7内に乱雑に配置された複数種類で多数個の工業部品を対象物とし、これらを種類別に分類して複数の目標容器に取り分けるようハンドリングして移送するシステムである。図1においてハンドリングシステム1は、カメラ2と、ロボットコントローラ3と、サーボアンプ4と、ハンドリングロボット5と、エンドエフェクタ交換部6とを有している。なお、本実施形態の例では、工業部品10をハンドリングの対象物とした場合を示しているが、生産ラインで取り扱われるものであれば、工業部品10の代わりに食品や化粧品、文房具などであってもよい。
<Outline configuration of handling system>
FIG. 1 shows an example of a schematic system block configuration of the handling system of the present embodiment. This handling system is a system for handling and transporting a large number of industrial parts of a plurality of types randomly arranged in a container 7 so as to classify them according to the type and divide them into a plurality of target containers. In FIG. 1, the handling system 1 includes a camera 2, a robot controller 3, a servo amplifier 4, a handling robot 5, and an end effector exchange unit 6. In the example of this embodiment, the case where the industrial part 10 is the object of handling is shown, but if it is handled on the production line, it may be food, cosmetics, stationery, etc. instead of the industrial part 10. You may.

カメラ2は、この例では光学的に2次元ピクセル列の画像データを撮像する撮像機器である。このカメラ2は、コンテナ7の上方に配置されており、そのコンテナ7の内部にそれぞれ乱雑な姿勢で配置されている複数種類で多数個の工業部品10の全体を撮像可能となっている。 In this example, the camera 2 is an imaging device that optically captures image data of a two-dimensional pixel sequence. The camera 2 is arranged above the container 7, and is capable of capturing the entire image of a large number of industrial parts 10 of a plurality of types arranged in a messy posture inside the container 7.

ロボットコントローラ3(コントローラ)は、上記カメラ2で撮像した画像データに基づいて、ハンドリングロボット5のハンドリング作業と移送作業に関する処理を行いサーボアンプ4に駆動指令を出力する。このロボットコントローラ3は、画像認識部11と、ハンドリング設定部12と、作業計画部13と、逆キネマティクス演算部14とを有している。 The robot controller 3 (controller) performs processing related to the handling work and the transfer work of the handling robot 5 based on the image data captured by the camera 2, and outputs a drive command to the servo amplifier 4. The robot controller 3 has an image recognition unit 11, a handling setting unit 12, a work planning unit 13, and an inverse kinematics calculation unit 14.

画像認識部11は、上記のカメラ2で撮像した画像データを画像認識することで、その時点でコンテナ7内に配置されている複数個の工業部品10それぞれの個体を認識し、当該画像データ中における各個体単独の外観部分画像(後述の図3〜6参照)をそれぞれ形状情報として抽出し出力する。なお画像認識部11は、各形状情報(外観部分画像)それぞれの画像データ全体における配置位置情報も検出して、後述の作業計画部13に別途出力しているが、図中では略記している。このような画像認識部11の内部処理は、ニューラルネットワークなどでの機械学習を利用した公知の画像認識手法を用いればよく、ここでは詳細な説明を省略する。なお、上記カメラ2とこの画像認識部11が、各請求項記載の形状取得部に相当する。 The image recognition unit 11 recognizes the individual of each of the plurality of industrial parts 10 arranged in the container 7 at that time by recognizing the image data captured by the camera 2 in the image data. The appearance partial image (see FIGS. 3 to 6 described later) of each individual in the above is extracted and output as shape information. The image recognition unit 11 also detects the arrangement position information in the entire image data of each shape information (appearance partial image) and outputs it separately to the work planning unit 13 described later, but it is omitted in the drawing. .. For such internal processing of the image recognition unit 11, a known image recognition method using machine learning in a neural network or the like may be used, and detailed description thereof will be omitted here. The camera 2 and the image recognition unit 11 correspond to the shape acquisition unit described in each claim.

ハンドリング設定部12は、上記画像認識部11から入力された形状情報に基づいて、当該形状情報に対応する工業部品10の個体を適切にハンドリングするための情報、すなわちハンドリング位置情報(図中では「HDL位置情報」と略記)及びエンドエフェクタ選択情報(図中では「EE選択情報」と略記)を設定し、出力する。ここで本実施形態におけるハンドリングとは、対象となる工業部品10の個体を安定的に移送できるよう、ハンドリングロボット5に装着した後述のエンドエフェクタで当該工業部品10に接触し、固定させる動作そのものを意味している。本実施形態の例では、具体的に、後述する多指ハンド又はグリッパによる把持動作と、後述する吸着ノズルによる吸着動作がハンドリング動作に含まれる。このハンドリング設定部12は、ハンドリング位置推定部21と、エンドエフェクタ選択部22とを有している。 The handling setting unit 12 is based on the shape information input from the image recognition unit 11, and is information for appropriately handling the individual of the industrial part 10 corresponding to the shape information, that is, handling position information (in the figure, "" HDL position information (abbreviated as "HDL position information") and end effector selection information (abbreviated as "EE selection information" in the figure) are set and output. Here, the handling in the present embodiment refers to the operation itself of contacting and fixing the industrial part 10 with the end effector described later attached to the handling robot 5 so that the individual target industrial part 10 can be stably transferred. Means. In the example of the present embodiment, specifically, the handling operation includes a gripping operation by a multi-finger hand or a gripper described later and a suction operation by a suction nozzle described later. The handling setting unit 12 has a handling position estimation unit 21 and an end effector selection unit 22.

ハンドリング位置推定部21は、上記画像認識部11から入力された形状情報に基づいて、当該形状情報に対応する工業部品10の個体に対してハンドリング動作を行う際に適切と推定される工業部品10側の接触位置をハンドリング位置情報として出力する。 The handling position estimation unit 21 is estimated to be appropriate when performing a handling operation on an individual of the industrial parts 10 corresponding to the shape information based on the shape information input from the image recognition unit 11. The contact position on the side is output as handling position information.

エンドエフェクタ選択部22は、上記ハンドリング位置推定部21から入力されたハンドリング位置情報に基づいて、当該ハンドリング位置情報で示される接触位置で工業部品10をハンドリングする際に適切なエンドエフェクタの種類を選択し、この種類をエンドエフェクタ選択情報として出力する。 The end effector selection unit 22 selects an appropriate type of end effector when handling the industrial component 10 at the contact position indicated by the handling position information, based on the handling position information input from the handling position estimation unit 21. Then, this type is output as end effector selection information.

なお本実施形態の例におけるこのハンドリング設定部12の内部処理は、機械学習プロセスで学習したニューラルネットワークによって行うものであり、その処理内容や手法については後に詳述する。 The internal processing of the handling setting unit 12 in the example of the present embodiment is performed by the neural network learned in the machine learning process, and the processing content and method will be described in detail later.

作業計画部13は、上記ハンドリング設定部12から入力されたハンドリング位置情報とエンドエフェクタ選択情報、及び特に図示しない上記画像認識部11から入力された配置位置情報に基づいて、ハンドリングロボット5に行わせる具体的なハンドリング動作及び移送動作の作業内容(後述するエンドエフェクタの軌道や動作など)を計画し、それにより生成した作業指令を逆キネマティクス演算部14に出力する。 The work planning unit 13 causes the handling robot 5 to perform the operation based on the handling position information and the end effector selection information input from the handling setting unit 12, and the arrangement position information input from the image recognition unit 11 (not shown). The work contents of the specific handling operation and the transfer operation (such as the trajectory and operation of the end effector described later) are planned, and the work command generated thereby is output to the inverse kinematics calculation unit 14.

逆キネマティクス演算部14は、上記作業計画部13から入力された作業指令に基づいて、当該作業指令の作業内容(計画した軌道上でのエンドエフェクタの移動や動作など)を実現するために必要となるハンドリングロボット5の各駆動軸モータ(図示省略)の目標回転角度やエンドエフェクタ駆動用補器(図示省略)の動作値を演算し、対応する駆動指令を出力する。なお、上記作業計画部13とこの逆キネマティクス演算部14が、各請求項記載のハンドリング制御部に相当する。 The inverse kinematics calculation unit 14 is necessary to realize the work content (movement and operation of the end effector on the planned trajectory, etc.) of the work command based on the work command input from the work planning unit 13. The target rotation angle of each drive shaft motor (not shown) of the handling robot 5 and the operation value of the end effector drive auxiliary device (not shown) are calculated, and the corresponding drive command is output. The work planning unit 13 and the inverse kinematics calculation unit 14 correspond to the handling control unit described in each claim.

なお、上述した画像認識部11、ハンドリング設定部12(ハンドリング位置推定部21、エンドエフェクタ選択部22)、作業計画部13、逆キネマティクス演算部14等における処理等は、これらの処理の分担の例に限定されるものではなく、例えば、更に少ない数の処理部(例えば1つの処理部)で処理されてもよく、また、更に細分化された処理部により処理されてもよい。また、ロボットコントローラ3は、後述するCPU901(図15参照)が実行するプログラムによりソフトウェア的に実装されてもよいし、その一部又は全部がASICやFPGA、その他の電気回路等(ニューロモーフィックチップ等)の実際の装置によりハードウェア的に実装されてもよい。 The processing and the like in the image recognition unit 11, the handling setting unit 12 (handling position estimation unit 21, end effector selection unit 22), work planning unit 13, inverse kinematics calculation unit 14, and the like described above are shared among these processes. The present invention is not limited to the examples, and for example, the processing may be performed by a smaller number of processing units (for example, one processing unit), or may be processed by a further subdivided processing unit. Further, the robot controller 3 may be implemented in software by a program executed by the CPU 901 (see FIG. 15) described later, and a part or all of the robot controller 3 may be an ASIC, an FPGA, other electric circuits, or the like (neuromorphic chip). Etc.) may be implemented in hardware by the actual device.

サーボアンプ4は、上記ロボットコントローラ3の逆キネマティクス演算部14から入力された駆動指令に基づいて、ハンドリングロボット5の各駆動軸モータ(図示省略)やエンドエフェクタ駆動用補器(図示省略)を駆動制御する駆動電力の給電制御を行う。 The servo amplifier 4 uses each drive shaft motor (not shown) and end effector drive auxiliary device (not shown) of the handling robot 5 based on the drive command input from the inverse kinematics calculation unit 14 of the robot controller 3. Drive control Performs power supply control of drive power.

ハンドリングロボット5は、図示する本実施形態の例では6つの関節軸を備えたマニプレータアーム(6軸ロボット)である。そのアーム先端部5aは、工業部品10をハンドリング可能な各種のエンドエフェクタ8が着脱交換可能となっており、装着したエンドエフェクタ8によってコンテナ7内の工業部品10を1つずつハンドリングし、近傍の目標容器9へ移送できる機能を有している。また図示する例では、各種のエンドエフェクタ8を個別に保持可能なホルダとして機能するエンドエフェクタ交換部6がテーブルの一端に設けられており、ハンドリングロボット5はこのエンドエフェクタ交換部6で所望のエンドエフェクタ8をアーム先端部5aに着脱交換可能となっている。 The handling robot 5 is a manipulator arm (six-axis robot) having six joint axes in the illustrated example of the present embodiment. Various end effectors 8 capable of handling the industrial parts 10 can be attached to and detached from the arm tip portion 5a, and the attached end effectors 8 handle the industrial parts 10 in the container 7 one by one and are in the vicinity. It has a function of being able to be transferred to the target container 9. Further, in the illustrated example, an end effector replacement unit 6 that functions as a holder capable of individually holding various end effectors 8 is provided at one end of the table, and the handling robot 5 is a desired end in the end effector replacement unit 6. The effector 8 can be attached to and detached from the arm tip 5a.

本実施形態のハンドリングシステム1の例では、図2に示すような多指ハンド8A、グリッパ8B、及び吸着ノズル8Cの3種類のエンドエフェクタが使用可能となっている。なお、この図2中に示すハンドリング基準点Pと把持方向ベクトルVについては、後に詳述する。 In the example of the handling system 1 of the present embodiment, three types of end effectors, a multi-finger hand 8A, a gripper 8B, and a suction nozzle 8C, as shown in FIG. 2, can be used. The handling reference point P and the gripping direction vector V shown in FIG. 2 will be described in detail later.

図2(a)に示す例の多指ハンド8Aは、上記アーム先端部5aに直接装着可能な基部8Aaにおいて、平行に配置された2本の指部8Ab,8Acと、これら2本に対向するよう配置された1本の指部8Adの合計3本の指部8Ab〜8Adが設けられている。各指部8Ab〜8Adは、それぞれの基部8Aaに対する根元位置、及び長手方向の中間位置に関節を有しており、これらの関節が指間中央方向への屈曲動作と伸長動作を切り替えることで、その指間中央に位置する対象物(本実施形態の例の工業部品10)に対して把持とリリースを切り替えて行うことが可能となっている。 The multi-finger hand 8A of the example shown in FIG. 2A faces two finger portions 8Ab and 8Ac arranged in parallel in the base portion 8Aa that can be directly attached to the arm tip portion 5a. A total of three finger portions 8Ab to 8Ad are provided, one finger portion 8Ad arranged in such a manner. Each finger portion 8Ab to 8Ad has a joint at a root position with respect to the respective base portion 8Aa and an intermediate position in the longitudinal direction, and these joints switch between a flexion motion and an extension motion in the interfinger center direction. It is possible to switch between gripping and releasing the object (industrial part 10 of the example of the present embodiment) located at the center between the fingers.

図2(b)に示す例のグリッパ8Bは、上記アーム先端部5aに直接装着可能な基部8Baにおいて、平行に配置された2つの爪部8Bb,8Bcが設けられている。これら2つの爪部8Bb,8Bcが相互に対向する方向での近接動作と離間動作を切り替えることで、爪部間中央に位置する対象物に対して把持とリリースを切り替えて行うことが可能となっている。なお、図示する2爪型以外にも、3つ以上の爪部を上記爪部間中央の中心軸周りに等間隔な配置で設けた構成としてもよい(図示省略)。 The gripper 8B of the example shown in FIG. 2B is provided with two claw portions 8Bb and 8Bc arranged in parallel in the base portion 8Ba that can be directly attached to the arm tip portion 5a. By switching between the proximity operation and the separation operation in the direction in which these two claw portions 8Bb and 8Bc face each other, it is possible to switch between gripping and releasing the object located in the center between the claw portions. ing. In addition to the two-claw type shown in the figure, three or more claws may be provided around the central axis between the claws at equal intervals (not shown).

図2(c)に示す吸着ノズル8Cは、上記アーム先端部5aに直接装着可能な基部8Caから中空管8Cbが突設しており、この中空管8Cbの先端に樹脂などの弾性材料で構成される吸着口8Ccが設けられている。図示しない吸引ポンプによる空気吸引力が、基部8Ca及び中空管8Cbを介して吸着口8Ccの開口部に付加されることで、当該吸着口8Ccは対象物の表面を吸着して固定できる。 In the suction nozzle 8C shown in FIG. 2C, a hollow tube 8Cb protrudes from a base portion 8Ca that can be directly attached to the arm tip portion 5a, and an elastic material such as resin is used at the tip of the hollow tube 8Cb. A suction port 8Cc is provided. By applying an air suction force by a suction pump (not shown) to the opening of the suction port 8Cc via the base 8Ca and the hollow tube 8Cb, the suction port 8Cc can suck and fix the surface of the object.

<本実施形態の特徴>
例えば規定の形状と大きさにある対象物(本実施形態の例の工業部品10)が規定の位置と姿勢で配置されている場合には、接触するハンドリング位置や使用するエンドエフェクタ8についてユーザが人為的に設定、選択することでも機械による適切なハンドリング動作は容易に行える。
<Characteristics of this embodiment>
For example, when an object having a specified shape and size (industrial part 10 in the example of the present embodiment) is arranged in a specified position and posture, the user may determine the contact handling position and the end effector 8 to be used. Appropriate handling operation by the machine can be easily performed by artificially setting and selecting.

しかし、形状が異なる複数種類の対象物が混在している場合には、それら種類ごとにユーザが人為的にハンドリング位置の設定とエンドエフェクタ8の選択を行う必要があるためそれらの設定作業が増大してしまう。そして、そのような人為的な設定と選択の作業はユーザの経験や技量に依存するところが大きく、またそれが必ずしも最適である保証がないため、ハンドリング動作の確実性を確保できない。さらに、規定の形状にある対象物であっても配置される姿勢が不定である場合には、その姿勢に対応して確実にハンドリング動作を行うために設定すべきハンドリング位置と選択すべきエンドエフェクタ8が多様に変化するため、それらの組み合わせを逐一人為的に設定することは困難であった。そして以上により、不定形状、不定姿勢にある対象物をカメラ2で撮像しても、その撮像画像に基づいて機械が対象物を確実にハンドリング動作することはさらに困難とされていた。 However, when a plurality of types of objects having different shapes are mixed, the user needs to artificially set the handling position and select the end effector 8 for each type, which increases the setting work. Resulting in. Further, such artificial setting and selection work largely depends on the user's experience and skill, and there is no guarantee that it is optimal, so that the certainty of the handling operation cannot be ensured. Furthermore, even if the object has a specified shape, if the posture to be placed is indefinite, the handling position to be set and the end effector to be selected in order to reliably perform the handling operation corresponding to the posture. Since 8 changes in various ways, it was difficult to set those combinations one by one. As described above, even if an object having an indefinite shape and an indefinite posture is imaged by the camera 2, it is further difficult for the machine to reliably handle the object based on the captured image.

これに対し本実施形態のハンドリングシステム1では、機械学習プロセスでの学習内容に基づき、対象物の形状情報に対応して、対象物側の接触位置であるハンドリング位置の推定と、対象物に対してハンドリング動作させるエンドエフェクタ8の選択を行うハンドリング設定部12を有している。そして機械学習プロセスにおいて、形状と配置姿勢が多様に異なる対象物の形状情報に対し、それぞれ多様なハンドリング位置とエンドエフェクタ8の組み合わせで繰り返しハンドリング動作を試行した結果を学習する。この機械学習プロセスは、機械自身によって自動的に行うことができ、その試行回数(成否データ)が多いほどハンドリング動作の精度や確度が向上する。これにより人為的な設定作業によらず、ハンドリング設定部12は対象物の形状と姿勢の組み合わせを表す形状情報に対応して、その対象物に対するハンドリング動作に最適なハンドリング位置の推定とエンドエフェクタ8の選択が可能となる。 On the other hand, in the handling system 1 of the present embodiment, based on the learning content in the machine learning process, the handling position, which is the contact position on the object side, is estimated according to the shape information of the object, and the object is It has a handling setting unit 12 for selecting an end effector 8 to be operated. Then, in the machine learning process, the result of repeatedly trying the handling operation with various combinations of handling positions and end effectors 8 is learned for the shape information of the objects having various shapes and arrangement postures. This machine learning process can be automatically performed by the machine itself, and the greater the number of trials (success / failure data), the higher the accuracy and accuracy of the handling operation. As a result, the handling setting unit 12 estimates the optimum handling position and the end effector 8 for the handling operation for the object in response to the shape information indicating the combination of the shape and the posture of the object, regardless of the artificial setting work. Can be selected.

<ハンドリング動作の機械学習プロセスについて>
図3〜図6には、多様な配置姿勢にある多様な形状の工業部品10の外観形状を示す形状情報の例が示されている。これらの形状情報は、ハンドリングロボット5の作業空間中に設定された作業座標(図中のXYZ座標)を基準として一律に同じ方向からの定点撮影により取得されている(なお、図示の理解が容易なように図1中に示すカメラ2の撮像方向とは相違している)。つまり、外観部分画像であるこの形状情報には、1つの工業部品10の個体についてその配置姿勢と当該配置姿勢に対応する当該工業部品10の外観形状の2つの情報が含まれている。また、上記コンテナ7中に乱雑に配置(又はバラ積み)された状態の多数の工業部品10は、図示する以外にも多様な配置姿勢で形状情報が取得される。
<About the machine learning process of handling operation>
3 to 6 show examples of shape information showing the appearance shapes of industrial parts 10 having various shapes in various arrangement postures. These shape information are uniformly acquired by fixed-point photography from the same direction with reference to the work coordinates (XYZ coordinates in the figure) set in the work space of the handling robot 5 (note that the illustration is easy to understand). As described above, the imaging direction of the camera 2 shown in FIG. 1 is different). That is, this shape information, which is an external partial image, includes two pieces of information, that is, the arrangement posture of one individual industrial part 10 and the appearance shape of the industrial part 10 corresponding to the arrangement posture. Further, the shape information of a large number of industrial parts 10 in a state of being randomly arranged (or stacked separately) in the container 7 is acquired in various arrangement postures other than those shown in the drawing.

そして上記ハンドリング設定部12の機械学習プロセスでは、ある形状情報に含まれる外観形状と配置姿勢に対して、多様なハンドリング位置とエンドエフェクタ8の組み合わせでハンドリング動作を繰り返し試行する。例えば、図3(a)に示すように全体形状が卵型形状であってその長軸がY軸方向に略平行な配置姿勢にある工業部品10Aの形状情報に対し、多指ハンド8Aにより多様な把持位置で把持したり、グリッパ8Bにより多様な把持位置で把持したり、吸着ノズル8Cにより多様な吸着位置で吸着するなどによりハンドリング動作を繰り返し試行する。 Then, in the machine learning process of the handling setting unit 12, the handling operation is repeatedly tried with various combinations of handling positions and end effectors 8 for the appearance shape and the arrangement posture included in the certain shape information. For example, as shown in FIG. 3A, the shape information of the industrial part 10A having an oval shape as a whole and its long axis being substantially parallel to the Y-axis direction is diversified by the multi-finger hand 8A. The handling operation is repeatedly tried by gripping at various gripping positions, gripping at various gripping positions with the gripper 8B, sucking at various suction positions with the suction nozzle 8C, and the like.

そして本実施形態の例における機械学習プロセスでは、これらのハンドリング動作の試行に基づくデータ学習によって、形状情報に対応する適切なハンドリング位置とエンドエフェクタ8を学習する。例えば、ある形状情報に対応して行われたハンドリング動作の試行においてそのハンドリングの成否(例えば工業部品10を持ち上げることができたか否か)や確度(例えば安定性や信頼性)を試行結果として検出し、これらを元の形状情報及び試行したハンドリング位置とエンドエフェクタ8に対応付けてハンドリング成否データとして記録、保存する。そしてこのようなハンドリング成否データを大量に用いて機械学習(後述の図9参照)することにより、ハンドリング設定部12は形状情報に対応した適切なハンドリング位置の推定とエンドエフェクタ8の選択が可能となる。 Then, in the machine learning process in the example of the present embodiment, the appropriate handling position and the end effector 8 corresponding to the shape information are learned by data learning based on the trial of these handling operations. For example, in a trial of a handling operation performed in response to a certain shape information, the success or failure of the handling (for example, whether or not the industrial part 10 could be lifted) and the accuracy (for example, stability and reliability) are detected as trial results. Then, these are recorded and saved as handling success / failure data in association with the original shape information, the tried handling position, and the end effector 8. Then, by performing machine learning (see FIG. 9 described later) using a large amount of such handling success / failure data, the handling setting unit 12 can estimate an appropriate handling position corresponding to the shape information and select the end effector 8. Become.

例えば、上記構成の多指ハンド8Aの場合には、特に全体が略球体形状にある対象物に対してその外周側面を各指部8Ab〜8Adで包むような把持に有効である。このため上記機械学習プロセスによりハンドリング設定部12は、図3に示すように略卵型の外観形状にある工業部品10Aに対しては、その短軸方向を挟む3点をハンドリング位置(接触位置;図中の破線部分の位置)として多指ハンド8Aで把持することが適切であると学習することが想定される。 For example, in the case of the multi-finger hand 8A having the above configuration, it is particularly effective for gripping an object having a substantially spherical shape as a whole so as to wrap the outer peripheral side surface with each finger portion 8Ab to 8Ad. Therefore, according to the machine learning process, the handling setting unit 12 sets three points sandwiching the short axis direction with respect to the industrial part 10A having a substantially egg-shaped external shape as shown in FIG. It is assumed that it is appropriate to learn that it is appropriate to grip with the multi-finger hand 8A as the position of the broken line portion in the figure).

また例えば、上記構成の2爪グリッパ8Bの場合には、特に略平行に対向する配置の2つの平面(又は曲面)を有する対象物に対してその対向方向に各爪部8Bb,8Bcで挟持するような把持に有効である。このため、上記機械学習プロセスによりハンドリング設定部12は、図4に示すようにボルト型の外観形状にある工業部品10Bに対しては、その配置姿勢に応じてボルト軸やボルト頭の軸径方向(対向側面)を挟む2点をハンドリング位置(接触位置;図中の破線部分の位置)として2爪グリッパ8Bで把持することが適切であると学習することが想定される。 Further, for example, in the case of the two-claw gripper 8B having the above configuration, the two claw portions 8Bb and 8Bc sandwich the object having two planes (or curved surfaces) arranged so as to face substantially parallel to each other in the opposite direction. It is effective for such gripping. Therefore, according to the machine learning process, the handling setting unit 12 refers to the industrial part 10B having a bolt-shaped external shape as shown in FIG. 4 in the axial radial direction of the bolt shaft and the bolt head according to the arrangement posture. It is assumed that it is appropriate to learn that it is appropriate to grip the two points sandwiching (opposing side surfaces) with the two-claw gripper 8B as the handling position (contact position; the position of the broken line portion in the drawing).

また例えば、上記構成の吸着ノズル8Cの場合には、特に上方に平面を有する対象物に対してその平面を吸着口8Ccで吸着して引き上げるのに有効である。このため上記機械学習プロセスによりハンドリング設定部12は、図5に示すように略平板型の外観形状にある工業部品10Cに対しては、その平面上の1点をハンドリング位置(吸着位置;図中の破線部分の位置)として吸着ノズル8Cで吸着することが適切であると学習することが想定される。 Further, for example, in the case of the suction nozzle 8C having the above configuration, it is particularly effective to suck the flat surface of the object having a flat surface upward by the suction port 8Cc and pull it up. Therefore, according to the machine learning process, the handling setting unit 12 sets one point on the plane as the handling position (adsorption position; in the drawing) for the industrial part 10C having a substantially flat plate-shaped appearance shape as shown in FIG. It is assumed that it is learned that it is appropriate to suck with the suction nozzle 8C as the position of the broken line portion of.

また同じ形状の対象物であっても、その配置姿勢によっては有効なハンドリング位置やエンドエフェクタ8が変化する場合がある。例えば、図6に示すように2つの円錐形状の各頂点部分を結合した形状の工業部品10Dに対して、上記機械学習プロセスによりハンドリング設定部12は、工業部品10Dの軸方向が略水平方向にある配置姿勢(図6(a)、図6(b)参照)では、結合部分を軸径方向に挟む2点をハンドリング位置(接触位置;図中の破線部分の位置)として2爪グリッパ8Bで把持することが適切であると学習することが想定される。また、同じ工業部品10Dの軸方向が略垂直方向にある配置姿勢(図6(c)参照)では、上方に位置する円錐部分の底面(上方に位置する平面)上の1点をハンドリング位置(吸着位置;図中の破線部分の位置)として吸着ノズル8Cで吸着することが適切であると学習することが想定される。 Further, even if the objects have the same shape, the effective handling position and the end effector 8 may change depending on the arrangement posture. For example, as shown in FIG. 6, with respect to the industrial part 10D having a shape in which the apex portions of the two conical shapes are connected, the handling setting unit 12 is set so that the axial direction of the industrial part 10D is substantially horizontal by the machine learning process. In a certain arrangement posture (see FIGS. 6A and 6B), the two-claw gripper 8B uses two points sandwiching the joint portion in the axial direction as a handling position (contact position; the position of the broken line portion in the drawing). It is assumed that learning is appropriate to grasp. Further, in the arrangement posture (see FIG. 6C) in which the axial direction of the same industrial component 10D is substantially vertical, one point on the bottom surface (plane located above) of the conical portion located above is the handling position (see FIG. 6C). It is assumed that it is learned that it is appropriate to suck with the suction nozzle 8C as the suction position (the position of the broken line portion in the figure).

なお上記のいずれの場合もハンドリング動作の確度を考慮すると、上記機械学習プロセスによりハンドリング設定部12は、各工業部品10の重心に近い位置にハンドリング位置を設定することが適切であると学習することが期待される。また上述した各学習例におけるハンドリング位置とエンドエフェクタ8の組み合わせは、あくまで想定される例示であり、工業部品10やエンドエフェクタ8等の詳細な構成や他の要因によっては、他のハンドリング位置とエンドエフェクタ8の組み合わせが適切であると学習する可能性もある。 In any of the above cases, considering the accuracy of the handling operation, the handling setting unit 12 learns that it is appropriate to set the handling position close to the center of gravity of each industrial part 10 by the machine learning process. There is expected. Further, the combination of the handling position and the end effector 8 in each of the above-mentioned learning examples is merely an assumed example, and depending on the detailed configuration of the industrial parts 10 and the end effector 8 and other factors, other handling positions and the end There is also the possibility of learning that the combination of effectors 8 is appropriate.

<ハンドリング設定部におけるニューラルネットワークの構成について>
ハンドリング設定部12は、上述したように、ニューラルネットワークを用いた深層学習の機械学習によってハンドリング位置の推定とエンドエフェクタ8の選択を行う。そして本実施形態の例では、まず先にハンドリング位置推定部21が形状情報に基づいて先にハンドリング位置の推定し、次にエンドエフェクタ選択部22がハンドリング位置情報に基づいてエンドエフェクタ8を選択する。以上から、ハンドリング設定部12は、例えば図7のニューラルネットワークモデル概略図で示すようなハンドリング位置推定部21と、図8のニューラルネットワークモデル概略図で示すようなエンドエフェクタ選択部22とを組み合わせることで構成できる。
<About the configuration of the neural network in the handling setting section>
As described above, the handling setting unit 12 estimates the handling position and selects the end effector 8 by machine learning of deep learning using a neural network. Then, in the example of the present embodiment, the handling position estimation unit 21 first estimates the handling position based on the shape information, and then the end effector selection unit 22 selects the end effector 8 based on the handling position information. .. From the above, the handling setting unit 12 combines, for example, the handling position estimation unit 21 as shown in the schematic diagram of the neural network model of FIG. 7 and the end effector selection unit 22 as shown in the schematic diagram of the neural network model of FIG. Can be configured with.

図7に示すハンドリング位置推定部21のモデル概略図では、画像認識部11から入力された2次元ピクセル列の画像データである形状情報に対して、推定したハンドリング位置を示すマーキング(図中の破線部分)を当該画像データ中に記入するよう画像の加工処理を行い、これをハンドリング位置情報として出力するよう設計されている。そのマーキングの記入位置は、上述した機械学習プロセスでの学習内容に基づくものであり、当該形状情報の画像データ中に含まれている工業部品10の外観(形状、姿勢)に対応して適切にハンドリングできると推定した工業部品10側の接触位置である。すなわち、このハンドリング位置推定部21のニューラルネットワークは、形状情報に含まれる工業部品10の外観形状パターンとハンドリング位置との相関を表す特徴量を学習している。 In the model schematic diagram of the handling position estimation unit 21 shown in FIG. 7, markings (broken lines in the figure) indicating the estimated handling position with respect to the shape information which is the image data of the two-dimensional pixel sequence input from the image recognition unit 11 It is designed to process the image so that the part) is entered in the image data and output it as handling position information. The entry position of the marking is based on the learning content in the machine learning process described above, and is appropriately corresponding to the appearance (shape, posture) of the industrial part 10 included in the image data of the shape information. This is the contact position on the industrial component 10 side estimated to be handleable. That is, the neural network of the handling position estimation unit 21 learns the feature amount representing the correlation between the appearance shape pattern of the industrial component 10 included in the shape information and the handling position.

また図8に示すエンドエフェクタ選択部22のモデル概要図では、ハンドリング位置推定部21から入力された2次元ピクセル列の画像データであるハンドリング位置情報に基づいて、選択したエンドエフェクタ8の種類をクラスタリングして出力するよう設計されている。その選択したエンドエフェクタ8の種類は、上述した機械学習プロセスでの学習内容に基づくものであり、当該ハンドリング位置情報の画像データ中に含まれるマーキングの数や工業部品10との配置関係に対応して適切にハンドリングできるよう選択したエンドエフェクタ8の種類である。すなわち、このエンドエフェクタ選択部22のニューラルネットワークは、ハンドリング位置情報に含まれる工業部品10の外観形状パターン及びマーキングの配置パターンと、エンドエフェクタ8の種類との相関を表す特徴量を学習している。 Further, in the model schematic diagram of the end effector selection unit 22 shown in FIG. 8, the types of the selected end effector 8 are clustered based on the handling position information which is the image data of the two-dimensional pixel sequence input from the handling position estimation unit 21. It is designed to output. The type of the selected end effector 8 is based on the learning content in the machine learning process described above, and corresponds to the number of markings included in the image data of the handling position information and the arrangement relationship with the industrial parts 10. This is the type of end effector 8 selected so that it can be handled appropriately. That is, the neural network of the end effector selection unit 22 learns the feature amount representing the correlation between the appearance shape pattern of the industrial component 10 and the marking arrangement pattern included in the handling position information and the type of the end effector 8. ..

以上それぞれの基本仕様にあるニューラルネットワークにおいては、例えば入力層の直近をいわゆる畳み込み層とプーリング層の組み合わせである畳み込みニューラルネットワーク(特に図示せず)で構成することで柔軟なパターンの認識が可能となる。また例えば、出力層の直近をいわゆるパターン認識や最適値演算に適した全結合層(特に図示せず)で構成することも好適である。 In the neural networks in each of the above basic specifications, for example, flexible pattern recognition is possible by configuring the nearest input layer with a convolutional neural network (not shown in particular), which is a combination of a so-called convolutional layer and a pooling layer. Become. Further, for example, it is also preferable to configure the immediate vicinity of the output layer with a fully connected layer (not particularly shown) suitable for so-called pattern recognition and optimum value calculation.

<機械学習プロセスのデータ学習について>
上記ハンドリング位置推定部21及びエンドエフェクタ選択部22のそれぞれのニューラルネットワークに対する機械学習プロセスの具体的な手順について、以下に説明する。図9は、ロボットコントローラ3のCPU901(後述の図15参照)が、本実施形態の例におけるデータ学習により機械学習プロセスを実行する場合の処理手順のフローチャートを示している。このフローに示すデータ学習処理は、例えば図示しない操作部から機械学習プロセスを実行するよう指令入力されることで開始する。
<About data learning of machine learning process>
The specific procedure of the machine learning process for each neural network of the handling position estimation unit 21 and the end effector selection unit 22 will be described below. FIG. 9 shows a flowchart of a processing procedure when the CPU 901 of the robot controller 3 (see FIG. 15 described later) executes a machine learning process by data learning in the example of the present embodiment. The data learning process shown in this flow starts, for example, when a command is input from an operation unit (not shown) to execute a machine learning process.

まずステップS5で、CPU901は、カメラ2から画像データを取得する。 First, in step S5, the CPU 901 acquires image data from the camera 2.

次にステップS10へ移り、CPU901は、上記ステップS5で取得した画像データに基づく上記画像認識部11の画像認識処理により、独立した個々の工業部品10の個体を認識し、その外観部分画像を形状情報として抽出し取得する。 Next, the process proceeds to step S10, and the CPU 901 recognizes an individual individual industrial component 10 independently by the image recognition process of the image recognition unit 11 based on the image data acquired in step S5, and shapes the appearance partial image thereof. Extract and acquire as information.

次にステップS15へ移り、CPU901は、上記ステップS10で取得した形状情報に含まれる所定の工業部品10の個体の外観パターンに対して接触位置であるハンドリング位置をランダムに設定し、対応するハンドリング位置情報(マーキングが記入された画像情報)を生成する。 Next, in step S15, the CPU 901 randomly sets a handling position, which is a contact position, with respect to the appearance pattern of an individual of a predetermined industrial part 10 included in the shape information acquired in step S10, and the corresponding handling position. Generate information (image information with markings).

次にステップS20へ移り、CPU901は、上記ステップS15で設定したハンドリング位置に対してハンドリングさせるエンドエフェクタ8の種類をランダムに選択する。このとき、ハンドリングロボット5は、選択したエンドエフェクタ8を実際にアーム先端部5aに装着するようエンドエフェクタ交換部6での着脱交換作業を行う。 Next, the process proceeds to step S20, and the CPU 901 randomly selects the type of end effector 8 to be handled with respect to the handling position set in step S15. At this time, the handling robot 5 performs attachment / detachment / replacement work at the end effector replacement section 6 so that the selected end effector 8 is actually mounted on the arm tip portion 5a.

次にステップS25へ移り、CPU901は、上記ステップS15で設定したハンドリング位置と、上記ステップS20で選択したエンドエフェクタ8の種類の組み合わせで、上記所定の工業部品10の個体に対するハンドリング動作と移送動作(目標容器への取り分け)をハンドリングロボット5に行わせる。このハンドリング動作は、上記作業計画部13及び逆キネマティクス演算部14での処理により制御する。 Next, the process proceeds to step S25, in which the CPU 901 uses a combination of the handling position set in step S15 and the type of end effector 8 selected in step S20 to handle and transfer the predetermined industrial component 10 to an individual. Let the handling robot 5 perform the sorting to the target container). This handling operation is controlled by processing in the work planning unit 13 and the inverse kinematics calculation unit 14.

次にステップS30へ移り、CPU901は、特に図示しない別途の検出装置によって、上記ステップS25でのハンドリング動作が成功したか否か、つまり工業部品10の把持や吸着の試行結果としての成否を判定する。なお上記検出装置としては、例えばカメラやレーザースキャナなどの光学機器を用いた画像認識装置や、工業部品10の重量を計測する重量センサ等を別途用いればよい。またここで、単にハンドリング動作の成否を判定するだけでなく、ハンドリングした後での高速な移送動作や、特定駆動軸での回転動作や、特定のアーム節の揺動動作などを実行し、その前後でのエンドエフェクタ8における工業部品10のハンドリング状態の変化を検出することで、当該ハンドリングの確度(安定性、信頼性)を検出してもよい。 Next, the process proceeds to step S30, and the CPU 901 determines whether or not the handling operation in step S25 is successful, that is, the success or failure as a trial result of gripping or suction of the industrial component 10, by a separate detection device (not shown). .. As the detection device, for example, an image recognition device using an optical device such as a camera or a laser scanner, a weight sensor for measuring the weight of the industrial component 10, or the like may be separately used. Further, here, not only the success or failure of the handling operation is determined, but also a high-speed transfer operation after handling, a rotation operation on a specific drive shaft, a swing operation of a specific arm node, and the like are executed. The accuracy (stability, reliability) of the handling may be detected by detecting the change in the handling state of the industrial component 10 in the end effector 8 before and after.

次にステップS35へ移り、CPU901は、上記ステップS10で取得した形状情報と、上記ステップS15で設定したハンドリング位置情報と、上記ステップS20で選択したエンドエフェクタ8の種類と、上記ステップS30で判定したハンドリング動作の試行結果とを対応付けて1つのハンドリング成否データを生成し、記録する。 Next, the process proceeds to step S35, and the CPU 901 determines the shape information acquired in step S10, the handling position information set in step S15, the type of end effector 8 selected in step S20, and the type of end effector 8 selected in step S30. One handling success / failure data is generated and recorded in association with the trial result of the handling operation.

次にステップS40へ移り、CPU901は、例えば上記コンテナ7内に配置された全ての工業部品10の個体についてハンドリング動作の試行を行ったか否かを判定する。まだコンテナ7内にハンドリング(目標容器への取り分け)されていない工業部品10がある場合には、判定は満たされず、上記ステップS5に戻って同様の手順を繰り返す。 Next, the process proceeds to step S40, and the CPU 901 determines whether or not the handling operation has been tried for all the individual industrial parts 10 arranged in the container 7, for example. If there is an industrial part 10 in the container 7 that has not been handled (sorted to the target container), the determination is not satisfied, and the process returns to step S5 and the same procedure is repeated.

一方、コンテナ7内の全ての工業部品10がハンドリングされていた場合、判定が満たされ、ステップS45へ移る。 On the other hand, when all the industrial parts 10 in the container 7 have been handled, the determination is satisfied and the process proceeds to step S45.

ステップS45では、CPU901は、上記ステップS5〜ステップS35の試行で生成されたハンドリング成否データに基づいて、ハンドリング位置推定部21及びエンドエフェクタ選択部22のそれぞれのニューラルネットワークに対するデータ学習を行う。例えばこのデータ学習では、取得した形状情報を入力データとし、設定したハンドリング位置情報や選択したエンドエフェクタ8を出力データとした組み合わせの教師データを用いて、各ニューラルネットワークの入力層と出力層の間の関係性が成立するよう各ノードどうしをつなぐ各エッジの重み係数を調整するいわゆるバックプロパゲーション処理により学習を行う。このバックプロパゲーション処理では、多数のハンドリング成否データのうち特にハンドリング動作が成功して確度の高いデータのみを抽出し、これだけを教師データに用いて各エッジの重み係数を強めるよう調整してもよい。または、全てのハンドリング成否データを教師データとし、それぞれの成否や確度に応じて各エッジの重み係数を強めたり弱めたりするよう調整してもよい。なお、このようなバックプロパゲーションの他にも、いわゆるオートエンコーダ、ドロップアウト、ノイズ付加、及びスパース正則化などの公知の多様な学習手法を併用して処理精度を向上させてもよい。その後、このフローを終了する。 In step S45, the CPU 901 learns data for each neural network of the handling position estimation unit 21 and the end effector selection unit 22 based on the handling success / failure data generated in the trials of steps S5 to S35. For example, in this data learning, between the input layer and the output layer of each neural network, the acquired shape information is used as input data, and the set handling position information and the teacher data of the combination using the selected end effector 8 as output data are used. Learning is performed by so-called backpropagation processing that adjusts the weighting coefficient of each edge connecting each node so that the relationship of is established. In this backpropagation processing, only the data having a particularly successful handling operation and high accuracy may be extracted from a large number of handling success / failure data, and only this may be used as the teacher data to adjust the weighting coefficient of each edge. .. Alternatively, all handling success / failure data may be used as teacher data, and the weighting coefficient of each edge may be adjusted to be strengthened or weakened according to the success / failure and accuracy of each. In addition to such backpropagation, various known learning methods such as so-called autoencoder, dropout, noise addition, and sparse regularization may be used in combination to improve processing accuracy. After that, this flow ends.

なお、以上のデータ学習処理による機械学習プロセスは、当該ハンドリングシステム1の稼働開始前にハンドリング対象の工業部品10に対して行ってもよいし、または工業部品10の変更時や動作精度の向上を目的として稼働中の必要時に行ってもよい。 The machine learning process by the above data learning process may be performed on the industrial part 10 to be handled before the operation of the handling system 1 starts, or when the industrial part 10 is changed or the operation accuracy is improved. It may be done when necessary during operation as a purpose.

<本実施形態による効果>
以上説明したように、本実施形態のハンドリングシステム1は、機械学習プロセスでの学習内容に基づき、工業部品10の個体の形状情報に対応して、ハンドリング位置を推定するハンドリング位置推定部21と、ハンドリング動作させるエンドエフェクタ8の選択を行うエンドエフェクタ選択部22とを備えたハンドリング設定部12を有している。そして機械学習プロセスにおいて、形状と配置姿勢が多様に異なる工業部品10の個体の形状情報に対し、それぞれ多様なハンドリング位置とエンドエフェクタ8の組み合わせで繰り返しハンドリング動作を試行した結果を学習する。この機械学習プロセスは、機械自身によって自動的に行うことができ、その試行回数(ハンドリング成否データ)が多いほどハンドリング動作の精度や確度が向上する。これにより人為的な設定作業によらず、ハンドリング設定部12は工業部品10の個体の形状と姿勢の組み合わせを表す形状情報に対応して、その工業部品10に対するハンドリング動作に最適なハンドリング位置の推定とエンドエフェクタ8の選択が可能となる。この結果、機械によるハンドリング性能を向上できる。
<Effect of this embodiment>
As described above, the handling system 1 of the present embodiment includes a handling position estimation unit 21 that estimates the handling position according to the shape information of the individual of the industrial part 10 based on the learning content in the machine learning process. It has a handling setting unit 12 including an end effector selection unit 22 that selects an end effector 8 to be operated. Then, in the machine learning process, the results of repeated trials of handling operations with various combinations of handling positions and end effectors 8 are learned for the shape information of individual industrial parts 10 having various shapes and arrangement postures. This machine learning process can be automatically performed by the machine itself, and the greater the number of trials (handling success / failure data), the higher the accuracy and accuracy of the handling operation. As a result, the handling setting unit 12 estimates the optimum handling position for the handling operation of the industrial part 10 in response to the shape information representing the combination of the individual shape and the posture of the industrial part 10, regardless of the artificial setting work. And the end effector 8 can be selected. As a result, the handling performance by the machine can be improved.

また、本実施形態では特に、ハンドリングロボット5と、当該ハンドリングロボット5のハンドリング動作を制御する作業計画部13及び逆キネマティクス演算部14とを有している。これにより、多様な位置と姿勢に配置された工業部品10に対してハンドリングロボット5を利用した確実なハンドリング動作と移送動作を実現できる。なお、本実施形態の例のように、1台のハンドリングロボット5に複数種類のエンドエフェクタ8を着脱交換可能とする構成に限られない。他にも、1台のハンドリングロボットに1種類のエンドエフェクタ8を装着してエンドエフェクタ8の種類と同数のハンドリングロボットを併設してもよいし、又は1台のハンドリングロボットに複数種類のエンドエフェクタ8を装着してそれらを切り替えて利用してもよい(以上、図示省略)。また、使用するハンドリングロボット自体についても、本実施形態の例の6軸ロボットのマニプレータアームに限られない。他にも、いわゆるスカラロボット、パラレルロボット、又は直交軸ロボット等(以上、図示省略)を適用してもよい。 Further, in the present embodiment, in particular, it has a handling robot 5, a work planning unit 13 for controlling the handling operation of the handling robot 5, and an inverse kinematics calculation unit 14. As a result, it is possible to realize a reliable handling operation and transfer operation using the handling robot 5 for the industrial parts 10 arranged in various positions and postures. It should be noted that the configuration is not limited to the configuration in which a plurality of types of end effectors 8 can be attached to and detached from one handling robot 5 as in the example of the present embodiment. Alternatively, one handling robot may be equipped with one type of end effector 8 and the same number of handling robots as the types of end effectors 8 may be provided side by side, or one handling robot may be equipped with a plurality of types of end effectors. 8 may be attached and used by switching between them (above, not shown). Further, the handling robot itself to be used is not limited to the manipulator arm of the 6-axis robot of the example of this embodiment. In addition, so-called SCARA robots, parallel robots, orthogonal axis robots and the like (above, not shown) may be applied.

また、本実施形態では特に、ハンドリング設定部12は、ハンドリング位置を推定してから、当該ハンドリング位置に対応するエンドエフェクタ8を選択する。これにより、ハンドリング位置を基準としたエンドエフェクタ8の選択が可能となり、特に工業部品10の姿勢に対応した柔軟なハンドリング動作が可能となる。 Further, in the present embodiment, in particular, the handling setting unit 12 estimates the handling position and then selects the end effector 8 corresponding to the handling position. As a result, the end effector 8 can be selected based on the handling position, and a flexible handling operation corresponding to the posture of the industrial component 10 becomes possible.

また、本実施形態では特に、機械学習プロセスでは、ハンドリング動作を繰り返した際に得られたハンドリング成否データに基づくデータ学習により実行される。これにより、機械学習プロセスにおいて、多様な形状と姿勢にある工業部品10に対応した汎用性の高いハンドリング動作を学習できる。 Further, in the present embodiment, particularly in the machine learning process, the machine learning process is executed by data learning based on the handling success / failure data obtained when the handling operation is repeated. As a result, in the machine learning process, it is possible to learn highly versatile handling operations corresponding to the industrial parts 10 having various shapes and postures.

また、本実施形態では特に、機械学習プロセスは、コンテナ7内に配置された限られた所定形状の工業部品10に対して実行される。これにより、機械学習プロセスにおいて、所定の形状にある工業部品10に限定した確度の高いハンドリング動作を迅速に学習できる。なお、このように限られた所定形状の工業部品10だけでなく、多種多様な大きさと形状にある多くの工業部品10に対して機械学習プロセスを実行してもよい。その場合には、同一のニューラルネットワークで学習した内容が、多様な形状の対象物に対して柔軟に対応可能な汎用性を向上することができ、それまでに学習対象としていなかった未知の形状(不定形状)にある対象物に対しても汎用性の高いハンドリング動作を学習できる。 Further, in this embodiment, in particular, the machine learning process is executed for the limited industrial parts 10 having a predetermined shape arranged in the container 7. As a result, in the machine learning process, it is possible to quickly learn a highly accurate handling operation limited to the industrial component 10 having a predetermined shape. It should be noted that the machine learning process may be executed not only for the industrial parts 10 having such a limited predetermined shape but also for many industrial parts 10 having a wide variety of sizes and shapes. In that case, the content learned by the same neural network can improve the versatility that can flexibly deal with objects of various shapes, and unknown shapes that have not been learned until then. It is possible to learn highly versatile handling operations even for objects in (indefinite shape).

また、本実施形態では特に、エンドエフェクタ8の種類は、多指ハンド8A、グリッパ8B、及び吸着ノズル8Cのうち少なくとも1つを含んでいる。上述したように、多指ハンド8Aでは特に工業部品10の外周側面を包むような把持に有効であり、グリッパ8Bでは特に対向する2方向(又は3方向以上)で挟持する把持に有効であり、吸着ノズル8Cでは特に平面の引き上げに有効である。本実施形態では、これらのうちから選択可能としていることで多様な形状と姿勢にある国行部品に対応して汎用性の高いハンドリング動作が可能となる。なお、ハンドリングシステム1で用いるエンドエフェクタ8はこれら3種に限られず、特に図示しない他の種類のエンドエフェクタを適用してもよい。 Further, in the present embodiment, in particular, the type of the end effector 8 includes at least one of the multi-finger hand 8A, the gripper 8B, and the suction nozzle 8C. As described above, the multi-finger hand 8A is particularly effective for gripping the outer peripheral side surface of the industrial part 10, and the gripper 8B is particularly effective for gripping in two opposite directions (or three or more directions). The suction nozzle 8C is particularly effective for pulling up a flat surface. In the present embodiment, by making it possible to select from these, highly versatile handling operation can be performed corresponding to the national parts having various shapes and postures. The end effector 8 used in the handling system 1 is not limited to these three types, and other types of end effectors (not shown) may be applied.

<変形例>
なお、以上説明した実施形態は、その趣旨及び技術的思想を逸脱しない範囲内で種々の変形が可能である。
<Modification example>
It should be noted that the embodiments described above can be variously modified within a range that does not deviate from the purpose and technical idea.

<変形例1:機械学習プロセスを強化学習で行う場合>
上記実施形態では、形状情報に対応する適切なハンドリング位置とエンドエフェクタ8の機械学習プロセスをデータ学習により行っていたが、これに限られない。他にも、図10に例示するような強化学習処理の機械学習プロセスにより、ハンドリング位置推定部21及びエンドエフェクタ選択部22のそれぞれのニューラルネットワークの学習を行ってもよい。なお、図示する本変形例の強化学習処理では、いわゆるQ学習の手法に基づいて行う。
<Transformation example 1: When the machine learning process is performed by reinforcement learning>
In the above embodiment, the appropriate handling position corresponding to the shape information and the machine learning process of the end effector 8 are performed by data learning, but the present invention is not limited to this. In addition, the neural networks of the handling position estimation unit 21 and the end effector selection unit 22 may be learned by the machine learning process of the reinforcement learning process as illustrated in FIG. The reinforcement learning process of this modified example shown in the figure is performed based on the so-called Q-learning method.

まずステップS105で、CPU901は、カメラ2から画像データを取得する。 First, in step S105, the CPU 901 acquires image data from the camera 2.

次にステップS110へ移り、CPU901は、上記ステップS105で取得した画像データに基づく上記画像認識部11の画像認識処理により、独立した個々の工業部品10の個体を認識し、その外観部分画像を形状情報として抽出し取得する。 Next, the process proceeds to step S110, and the CPU 901 recognizes an individual individual industrial component 10 independently by the image recognition process of the image recognition unit 11 based on the image data acquired in step S105, and shapes the appearance partial image thereof. Extract and acquire as information.

次にステップS115へ移り、CPU901は、上記ステップS10で取得した形状情報に含まれる所定の工業部品10の個体の外観パターンに対して新たな接触位置を探索する。この新たな接触位置の探索については、その時点まで適切(後述のいわゆるQ値が最大)であるとして設定される接触位置から、小さな確率でランダムな方向に修正した接触位置を設定するか、もしくはそれ以外のほとんどの確率ではその適切であるとされる接触位置そのままとする。このように新たに探索した接触位置を今回のハンドリング位置として設定し、対応するハンドリング位置情報(マーキングが記入された画像情報)を生成する。 Next, the process proceeds to step S115, and the CPU 901 searches for a new contact position with respect to the appearance pattern of the individual of the predetermined industrial component 10 included in the shape information acquired in step S10. Regarding the search for this new contact position, a contact position corrected in a random direction with a small probability is set from the contact position set as appropriate (the so-called Q value described later is the maximum) up to that point, or In most other cases, the contact position that is considered appropriate is left as it is. The newly searched contact position is set as the current handling position, and the corresponding handling position information (image information with markings) is generated.

次にステップS120へ移り、CPU901は、上記ステップS115で設定したハンドリング位置に対して新たなエンドエフェクタ8を探索する。この新たなエンドエフェクタ8の探索については、その時点まで適切(後述のいわゆるQ値が最大)であるとして選択されたエンドエフェクタ8から、小さな確率でランダムに変更したエンドエフェクタ8を選択するか、もしくはそれ以外のほとんどの確率ではその適切であるとされるエンドエフェクタ8そのままとする。このように新たに探索したエンドエフェクタ8を今回使用するエンドエフェクタ8として選択し、対応するエンドエフェクタ選択情報を生成する。このとき、ハンドリングロボット5は、選択したエンドエフェクタ8を実際にアーム先端部5aに装着するようエンドエフェクタ交換部6での着脱交換作業を行う。 Next, the process proceeds to step S120, and the CPU 901 searches for a new end effector 8 with respect to the handling position set in step S115. Regarding the search for this new end effector 8, the end effector 8 randomly changed with a small probability is selected from the end effectors 8 selected as being appropriate (the so-called Q value described later is the maximum) up to that point. Or, in most other cases, the end effector 8 which is considered to be appropriate is left as it is. The end effector 8 newly searched in this way is selected as the end effector 8 to be used this time, and the corresponding end effector selection information is generated. At this time, the handling robot 5 performs attachment / detachment / replacement work at the end effector replacement section 6 so that the selected end effector 8 is actually mounted on the arm tip portion 5a.

次にステップS125へ移り、CPU901は、上記ステップS115で探索設定したハンドリング位置と、上記ステップS120で探索選択したエンドエフェクタ8の種類の組み合わせで、上記所定の工業部品10の個体に対するハンドリング動作と移送動作(目標容器への取り分け)をハンドリングロボット5に行わせる。このハンドリング動作は、上記作業計画部13及び逆キネマティクス演算部14での処理により制御する。 Next, the process proceeds to step S125, and the CPU 901 handles and transfers the predetermined industrial component 10 to an individual by combining the handling position searched and set in step S115 and the type of end effector 8 searched and selected in step S120. Let the handling robot 5 perform the operation (partitioning to the target container). This handling operation is controlled by processing in the work planning unit 13 and the inverse kinematics calculation unit 14.

次にステップS130へ移り、CPU901は、特に図示しない別途の検出装置によって、上記ステップS25でのハンドリング動作が成功したか否か、つまり工業部品10の把持や吸着の試行結果としての成否を判定する。なお上記検出装置としては、例えばカメラやレーザースキャナなどの光学機器を用いた画像認識装置や、工業部品10の重量を計測する重量センサ等を別途用いればよい。またここで、単にハンドリング動作の成否を判定するだけでなく、ハンドリングした後での高速な移送動作や、特定駆動軸での回転動作や、特定のアーム節の揺動動作などを実行し、その前後でのエンドエフェクタ8における工業部品10のハンドリング状態の変化を検出することで、当該ハンドリングの確度(安定性、信頼性)を検出してもよい。以上のような成否判定及び確度の検出によって今回のハンドリング動作に対する評価を行い、この評価に応じた報酬を算出する。 Next, the process proceeds to step S130, and the CPU 901 determines whether or not the handling operation in step S25 is successful, that is, the success or failure as a trial result of gripping or suction of the industrial component 10, by a separate detection device (not shown). .. As the detection device, for example, an image recognition device using an optical device such as a camera or a laser scanner, a weight sensor for measuring the weight of the industrial component 10, or the like may be separately used. Further, here, not only the success or failure of the handling operation is determined, but also a high-speed transfer operation after handling, a rotation operation on a specific drive shaft, a swing operation of a specific arm node, and the like are executed. The accuracy (stability, reliability) of the handling may be detected by detecting the change in the handling state of the industrial component 10 in the end effector 8 before and after. The handling operation this time is evaluated by the success / failure judgment and the detection of the accuracy as described above, and the reward according to this evaluation is calculated.

次にステップS135へ移り、CPU901は、上記ステップS110で取得した形状情報と、上記ステップS115で探索設定したハンドリング位置情報と、上記ステップS120で探索選択したエンドエフェクタ8の種類と、上記ステップS130で算出したハンドリング動作の報酬に基づくいわゆるQ学習により、ハンドリング位置推定部21及びエンドエフェクタ選択部22のそれぞれのニューラルネットワークに対する強化学習を行う。上記ステップS105〜ステップS135でのハンドリング動作の試行に対してその有効性を示すQ値がより最大化するようハンドリング位置とエンドエフェクタ8を学習する。このQ学習による強化学習については、公知の手法を用いればよくここでは詳細な説明を省略する。 Next, the process proceeds to step S135, where the CPU 901 includes the shape information acquired in step S110, the handling position information searched and set in step S115, the type of end effector 8 searched and selected in step S120, and the end effector 8 searched and selected in step S130. Reinforcement learning for each neural network of the handling position estimation unit 21 and the end effector selection unit 22 is performed by so-called Q-learning based on the calculated handling operation reward. The handling position and the end effector 8 are learned so that the Q value indicating the effectiveness of the handling operation is further maximized with respect to the trial of the handling operation in steps S105 to S135. For the reinforcement learning by Q-learning, a known method may be used, and detailed description thereof will be omitted here.

次にステップS140へ移り、CPU901は、ハンドリング位置推定部21及びエンドエフェクタ選択部22のそれぞれのニューラルネットワークに対し、十分な試行回数で機械学習が行われたか否かを判定する。機械学習が不十分であって当該強化学習処理を終了しない場合には、判定は満たされず、上記ステップS105に戻って同様の手順を繰り返す。 Next, the process proceeds to step S140, and the CPU 901 determines whether or not machine learning has been performed on the neural networks of the handling position estimation unit 21 and the end effector selection unit 22 with a sufficient number of trials. If the machine learning is insufficient and the reinforcement learning process is not completed, the determination is not satisfied, and the process returns to step S105 to repeat the same procedure.

一方、機械学習が十分であって当該強化学習処理を終了する場合には、判定が満たされ、このフローを終了する。 On the other hand, when the machine learning is sufficient and the reinforcement learning process is terminated, the determination is satisfied and this flow is terminated.

以上説明したように、本変形例のハンドリングシステム1は、機械学習プロセスが、ハンドリング動作を繰り返した際のそれぞれのハンドリング結果に基づく強化学習により実行される。これにより、機械学習プロセスにおいて、特定の形状にある工業部品10に限定した精度の高いハンドリング動作を迅速に学習できる。 As described above, the handling system 1 of this modified example is executed by reinforcement learning based on the respective handling results when the machine learning process is repeated. As a result, in the machine learning process, it is possible to quickly learn a highly accurate handling operation limited to the industrial component 10 having a specific shape.

<変形例2:エンドエフェクタを選択してからハンドリング位置を推定する場合>
上記実施形態では、ハンドリング設定部12において、ハンドリング位置推定部21が形状情報に対応したハンドリング位置情報を推定してから、エンドエフェクタ選択部22がそのハンドリング位置情報に基づいてエンドエフェクタ8を選択していたが、これに限られない。他にも、図11に示すようにロボットコントローラ3A内のハンドリング設定部12Aにおいて、エンドエフェクタ選択部22Aが形状情報に対応したエンドエフェクタ8を選択してから、ハンドリング位置推定部21Aがそのエンドエフェクタ選択情報と形状情報に対応したハンドリング位置情報を推定してもよい。
<Modification example 2: When estimating the handling position after selecting the end effector>
In the above embodiment, in the handling setting unit 12, the handling position estimation unit 21 estimates the handling position information corresponding to the shape information, and then the end effector selection unit 22 selects the end effector 8 based on the handling position information. It was, but it is not limited to this. In addition, as shown in FIG. 11, in the handling setting unit 12A in the robot controller 3A, the end effector selection unit 22A selects the end effector 8 corresponding to the shape information, and then the handling position estimation unit 21A selects the end effector. The handling position information corresponding to the selection information and the shape information may be estimated.

この場合には、エンドエフェクタ選択部22Aのニューラルネットワークが、形状情報に含まれる工業部品10の外観形状パターンと、それに対応してハンドリング動作に適切なエンドエフェクタ8の種類との相関を表す特徴量を学習する。またハンドリング位置推定部21Aのニューラルネットワークは、形状情報に含まれる工業部品10の外観形状パターン及びエンドエフェクタ選択情報と、それらに対応してハンドリング動作に適切なハンドリング位置との相関を表す特徴量を学習する。 In this case, the neural network of the end effector selection unit 22A is a feature quantity that represents a correlation between the appearance shape pattern of the industrial component 10 included in the shape information and the type of end effector 8 corresponding to the appropriate handling operation. To learn. Further, the neural network of the handling position estimation unit 21A provides a feature amount that represents the correlation between the appearance shape pattern and end effector selection information of the industrial component 10 included in the shape information and the corresponding handling position appropriate for the handling operation. learn.

以上説明したように、本変形例のハンドリングシステム1は、ハンドリング設定部12が、エンドエフェクタ8を選択してから、当該エンドエフェクタ8に対応するハンドリング位置を推定する。これにより、エンドエフェクタ8を基準としたハンドリング位置の推定が可能となり、特に工業部品10の形状に対応した柔軟なハンドリング動作が可能となる。 As described above, in the handling system 1 of the present modification, after the handling setting unit 12 selects the end effector 8, the handling position corresponding to the end effector 8 is estimated. As a result, the handling position can be estimated with reference to the end effector 8, and a flexible handling operation corresponding to the shape of the industrial part 10 becomes possible.

また、ハンドリング位置推定部21とエンドエフェクタ選択部22は個別に構成せずに、図12に示すように同一のニューラルネットワークで並列に処理するよう構成してもよい。この図示する構成では、選択するエンドエフェクタ8の種類をクラスタリングしてエンドエフェクタ選択情報を出力するとともに、ハンドリング基準目標点P′(Xp′,Yp′,Zp′)と把持方向目標ベクトルV′をハンドリング位置情報として出力するよう設計されている。なおハンドリング位置情報の出力は、いわゆる回帰問題により整数値の座標位置やベクトル値を出力するようニューラルネットワークを設計する。 Further, the handling position estimation unit 21 and the end effector selection unit 22 may not be individually configured, but may be configured to be processed in parallel by the same neural network as shown in FIG. In this illustrated configuration, the types of end effectors 8 to be selected are clustered to output end effector selection information, and the handling reference target points P'(Xp', Yp', Zp') and the gripping direction target vector V'are set. It is designed to be output as handling position information. For the output of handling position information, a neural network is designed so that the coordinate position of an integer value and the vector value are output by a so-called regression problem.

ここでハンドリング基準目標点P′とは、各エンドエフェクタ8上に設定されたハンドリング基準点Pをハンドリング動作時に位置させる目標位置である。また把持方向目標ベクトルV′とは、各エンドエフェクタ8(多指ハンド8A及びグリッパ8Bのみ)に設定された把持方向ベクトルVをハンドリング動作時に一致させる目標方向である(以上、図3〜図6参照)。各エンドエフェクタ8のハンドリング基準点Pは、図2に示すように、例えば多指ハンド8Aやグリッパ8Bの場合には各指部8Ab〜8Ad間又は各爪部8Bb,8Bc間の中央位置に設定され、吸着ノズル8Cの場合には吸着口8Ccの端部中央位置に設定される。また、把持方向ベクトルVは、多指ハンド8A及びグリッパ8Bの場合における各指部8Ab〜8Ad又は各爪部8Bb,8Bcの把持方向を示す方向ベクトルである。このように、ハンドリング動作時において適切と推定されるエンドエフェクタ8の位置と姿勢をハンドリング基準目標点P′及び把持方向目標ベクトルV′で示し、これらの数値情報をハンドリング位置情報として生成してもよい。 Here, the handling reference target point P'is a target position for positioning the handling reference point P set on each end effector 8 during the handling operation. Further, the gripping direction target vector V'is a target direction in which the gripping direction vector V set in each end effector 8 (only for the multi-finger hand 8A and the gripper 8B) is matched during the handling operation (the above are FIGS. 3 to 6). reference). As shown in FIG. 2, the handling reference point P of each end effector 8 is set at the center position between the finger portions 8Ab to 8Ad or between the claw portions 8Bb and 8Bc in the case of the multi-finger hand 8A and the gripper 8B, for example. In the case of the suction nozzle 8C, it is set at the center position of the end of the suction port 8Cc. Further, the gripping direction vector V is a direction vector indicating the gripping direction of each finger portion 8Ab to 8Ad or each claw portion 8Bb, 8Bc in the case of the multi-finger hand 8A and the gripper 8B. In this way, even if the position and orientation of the end effector 8 estimated to be appropriate during the handling operation are indicated by the handling reference target point P'and the gripping direction target vector V', and these numerical information are generated as the handling position information. Good.

<変形例3:複数のカメラで撮像した複数の画像データで個体認識する場合>
図13に示す例では、それぞれの撮像領域が重複する2台のカメラ41,42で構成されたいわゆる3次元カメラ43を用いて1つの食品F(図示する例では鳥唐揚げ)をそれぞれ異なる撮像方向から撮像している。これにより、図14の左側に示すように、1つの食品Fに対して相互に視差を有する2つの画像データ(2つの形状情報;それぞれ2次元ピクセル列)を取得することができる。
<Modification 3: When recognizing an individual with multiple image data captured by multiple cameras>
In the example shown in FIG. 13, one food F (fried chicken in the illustrated example) is imaged differently by using a so-called three-dimensional camera 43 composed of two cameras 41 and 42 having overlapping imaging regions. The image is taken from the direction. As a result, as shown on the left side of FIG. 14, it is possible to acquire two image data (two shape information; each two-dimensional pixel sequence) having parallax with respect to one food F.

図14に示す例では、同一のニューラルネットワークで並列に構成されたハンドリング位置推定部21とエンドエフェクタ選択部22が上記2つの形状情報をそのまま個別に入力され、それら2つの形状方向に基づいてエンドエフェクタ選択情報とハンドリング位置情報を出力するよう設計されている。このように3次元の画像データを用いることで、特に形状や大きさが不定である食品Fに対して立体形状の空間認識精度が向上する。なお、カメラは撮像領域が重複すれば3つ以上用いてもよいし、ニューラルネットワークにおいてそれぞれの形状情報の画像データを個別の畳み込みニューラルネットワークで処理してから同一の全結合層でパターン認識してもよい。 In the example shown in FIG. 14, the handling position estimation unit 21 and the end effector selection unit 22 configured in parallel by the same neural network input the above two shape information as they are, and end based on the two shape directions. It is designed to output effector selection information and handling position information. By using the three-dimensional image data in this way, the spatial recognition accuracy of the three-dimensional shape is improved especially for the food F whose shape and size are indefinite. Three or more cameras may be used as long as the imaging regions overlap, and the image data of each shape information is processed by an individual convolutional neural network in the neural network, and then pattern recognition is performed by the same fully connected layer. May be good.

<その他の変形例>
また特に図示しないが、対象物の画像データを取得する光学的センシング手段としてレーザースキャナ等をカメラ2(および3次元センサ8)の代わりに用いてもよい。この場合には、例えばレーザースキャナから投光された走査線で対象物の表面上における各点との距離を計測し、これらの距離データの集合で画像データを取得する。また、画像認識部11は、外観部分画像の画像データではなく、例えば3D立体モデルを形状情報として取得してもよい。
<Other variants>
Further, although not particularly shown, a laser scanner or the like may be used instead of the camera 2 (and the three-dimensional sensor 8) as an optical sensing means for acquiring image data of an object. In this case, for example, the distance to each point on the surface of the object is measured by a scanning line projected from a laser scanner, and image data is acquired as a set of these distance data. Further, the image recognition unit 11 may acquire, for example, a 3D stereoscopic model as shape information instead of the image data of the appearance partial image.

また、カメラ2は固定的に配置される以外にも、例えばハンドリングロボット5のアーム先端部5aやエンドエフェクタ8にカメラを設置してもよい。 In addition to the fixed arrangement of the camera 2, the camera may be installed on, for example, the arm tip 5a of the handling robot 5 or the end effector 8.

また、ハンドリング位置推定部21やエンドエフェクタ選択部22の処理アルゴリズムは、図示したニューラルネットワークを用いた深層学習(ディープラーニング)によるもの以外にも、例えばサポートベクトルマシンやベイジアンネットワーク等を利用した他の処理アルゴリズム(特に図示せず)を適用してもよい。 Further, the processing algorithms of the handling position estimation unit 21 and the end effector selection unit 22 are not only those based on deep learning using the illustrated neural network, but also other algorithms using, for example, a support vector machine or a Bayesian network. A processing algorithm (not shown) may be applied.

また、ハンドリングロボット5がエンドエフェクタ8を切り換えずに単一のものだけを装着してハンドリングする場合には、エンドエフェクタ選択部22を省略してハンドリング位置推定部21が当該エンドエフェクタ8に対応するハンドリング位置情報だけを学習し、出力させてもよい。また、装着するエンドエフェクタ8の種類は、上記図2に例示した3種類以外の他の種類のエンドエフェクタ(特に図示せず)を装着してもよく、それらのハンドリング態様に対応してハンドリング位置推定部21がハンドリング位置情報を学習すればよい。 Further, when the handling robot 5 mounts and handles only a single robot without switching the end effector 8, the handling position estimation unit 21 corresponds to the end effector 8 by omitting the end effector selection unit 22. Only the handling position information may be learned and output. Further, as the type of the end effector 8 to be mounted, other types of end effectors (not particularly shown) other than the three types illustrated in FIG. 2 may be mounted, and the handling position corresponds to their handling mode. The estimation unit 21 may learn the handling position information.

<ロボットコントローラのハードウェア構成例>
次に、図15を参照しつつ、上記で説明したCPU901が実行するプログラムによりソフトウェア的に実装された画像認識部11、ハンドリング設定部12(ハンドリング位置推定部21、エンドエフェクタ選択部22)、作業計画部13、逆キネマティクス演算部14等による処理を実現するロボットコントローラ3のハードウェア構成例について説明する。
<Hardware configuration example of robot controller>
Next, with reference to FIG. 15, the image recognition unit 11, the handling setting unit 12 (handling position estimation unit 21, end effector selection unit 22), and the work, which are implemented by software by the program executed by the CPU 901 described above. A hardware configuration example of the robot controller 3 that realizes processing by the planning unit 13, the inverse kinematics calculation unit 14, and the like will be described.

図15に示すように、ロボットコントローラ3は、例えば、CPU901と、ROM903と、RAM905と、ASIC又はFPGA等の特定の用途向けに構築された専用集積回路907と、入力装置913と、出力装置915と、記録装置917と、ドライブ919と、接続ポート921と、通信装置923とを有する。これらの構成は、バス909や入出力インターフェース911を介し相互に信号を伝達可能に接続されている。 As shown in FIG. 15, the robot controller 3 includes, for example, a CPU 901, a ROM 903, a RAM 905, a dedicated integrated circuit 907 constructed for a specific application such as an ASIC or an FPGA, an input device 913, and an output device 915. It has a recording device 917, a drive 919, a connection port 921, and a communication device 923. These configurations are connected so that signals can be transmitted to each other via the bus 909 and the input / output interface 911.

プログラムは、例えば、ROM903やRAM905、記録装置917等に記録しておくことができる。 The program can be recorded in, for example, a ROM 903, a RAM 905, a recording device 917, or the like.

また、プログラムは、例えば、フレキシブルディスクなどの磁気ディスク、各種のCD・MOディスク・DVD等の光ディスク、半導体メモリ等のリムーバブルな記録媒体925に、一時的又は永続的に記録しておくこともできる。このような記録媒体925は、いわゆるパッケージソフトウエアとして提供することもできる。この場合、これらの記録媒体925に記録されたプログラムは、ドライブ919により読み出されて、入出力インターフェース911やバス909等を介し上記記録装置917に記録されてもよい。 Further, the program can be temporarily or permanently recorded on, for example, a magnetic disk such as a flexible disk, an optical disk such as various CDs, MO disks, or DVDs, or a removable recording medium 925 such as a semiconductor memory. .. Such a recording medium 925 can also be provided as so-called package software. In this case, the program recorded on these recording media 925 may be read by the drive 919 and recorded on the recording device 917 via the input / output interface 911, the bus 909, or the like.

また、プログラムは、例えば、ダウンロードサイト・他のコンピュータ・他の記録装置等(図示せず)に記録しておくこともできる。この場合、プログラムは、LANやインターネット等のネットワークNWを介し転送され、通信装置923がこのプログラムを受信する。そして、通信装置923が受信したプログラムは、入出力インターフェース911やバス909等を介し上記記録装置917に記録されてもよい。 The program can also be recorded on, for example, a download site, another computer, another recording device, or the like (not shown). In this case, the program is transferred via a network NW such as LAN or the Internet, and the communication device 923 receives the program. Then, the program received by the communication device 923 may be recorded in the recording device 917 via the input / output interface 911, the bus 909, or the like.

また、プログラムは、例えば、適宜の外部接続機器927に記録しておくこともできる。この場合、プログラムは、適宜の接続ポート921を介し転送され、入出力インターフェース911やバス909等を介し上記記録装置917に記録されてもよい。 Further, the program can be recorded in an appropriate externally connected device 927, for example. In this case, the program may be transferred via the appropriate connection port 921 and recorded in the recording device 917 via the input / output interface 911, the bus 909, or the like.

そして、CPU901が、上記記録装置917に記録されたプログラムに従い各種の処理を実行することにより、上記の画像認識部11、ハンドリング設定部12(ハンドリング位置推定部21、エンドエフェクタ選択部22)、作業計画部13、及び逆キネマティクス演算部14等による処理が実現される。この際、CPU901は、例えば、上記記録装置917からプログラムを直接読み出して実行してもよいし、RAM905に一旦ロードした上で実行してもよい。更にCPU901は、例えば、プログラムを通信装置923やドライブ919、接続ポート921を介し受信する場合、受信したプログラムを記録装置917に記録せずに直接実行してもよい。 Then, the CPU 901 executes various processes according to the program recorded in the recording device 917, so that the image recognition unit 11, the handling setting unit 12 (handling position estimation unit 21, end effector selection unit 22), and the work Processing by the planning unit 13, the inverse kinematics calculation unit 14, and the like is realized. At this time, for example, the CPU 901 may directly read the program from the recording device 917 and execute it, or may execute it after loading it into the RAM 905 once. Further, for example, when the CPU 901 receives the program via the communication device 923, the drive 919, or the connection port 921, the CPU 901 may directly execute the received program without recording it in the recording device 917.

また、CPU901は、必要に応じて、例えばマウス・キーボード・マイク(図示せず)等の入力装置913から入力する信号や情報に基づいて各種の処理を行ってもよい。 Further, the CPU 901 may perform various processes based on signals and information input from an input device 913 such as a mouse, keyboard, microphone (not shown), if necessary.

そして、CPU901は、上記の処理を実行した結果を、例えば表示装置や音声出力装置等の出力装置915から出力してもよく、さらにCPU901は、必要に応じてこの処理結果を通信装置923や接続ポート921を介し送信してもよく、上記記録装置917や記録媒体925に記録させてもよい。 Then, the CPU 901 may output the result of executing the above processing from an output device 915 such as a display device or an audio output device, and the CPU 901 may connect the processing result to the communication device 923 or the communication device 923 as needed. It may be transmitted via the port 921, or may be recorded on the recording device 917 or the recording medium 925.

なお、以上の説明において、「垂直」「平行」「平面」等の記載がある場合には、当該記載は厳密な意味ではない。すなわち、それら「垂直」「平行」「平面」とは、設計上、製造上の公差、誤差が許容され、「実質的に垂直」「実質的に平行」「実質的に平面」という意味である。 In the above description, when there is a description such as "vertical", "parallel", "plane", etc., the description does not have a strict meaning. That is, these "vertical", "parallel", and "planar" mean "substantially vertical", "substantially parallel", and "substantially flat", with design and manufacturing tolerances and errors allowed. ..

また、以上の説明において、外観上の寸法や大きさ、形状、位置等が「同一」「同じ」「等しい」「異なる」等の記載がある場合は、当該記載は厳密な意味ではない。すなわち、それら「同一」「等しい」「異なる」とは、設計上、製造上の公差、誤差が許容され、「実質的に同一」「実質的に同じ」「実質的に等しい」「実質的に異なる」という意味である。 Further, in the above description, when there is a description such as "same", "same", "equal", "different", etc. in the external dimensions, size, shape, position, etc., the description is not a strict meaning. That is, those "same", "equal", and "different" are allowed for design and manufacturing tolerances and errors, and are "substantially the same", "substantially the same", "substantially equal", and "substantially equal". It means "different".

また、以上既に述べた以外にも、上記実施形態や各変形例による手法を適宜組み合わせて利用しても良い。その他、一々例示はしないが、上記実施形態や各変形例は、その趣旨を逸脱しない範囲内において、種々の変更が加えられて実施されるものである。 In addition to the above, the methods according to the above-described embodiment and each modification may be appropriately combined and used. In addition, although not illustrated one by one, the above-described embodiment and each modification are implemented with various modifications within a range that does not deviate from the purpose.

1 ハンドリングシステム
2 カメラ(形状取得部)
3,3A ロボットコントローラ(コントローラ)
4 サーボアンプ
5 ハンドリングロボット
6 エンドエフェクタ交換部
8 エンドエフェクタ
8A 多指ハンド
8B グリッパ
8C 吸着ノズル
10 工業部品(対象物)
11 画像認識部(形状取得部)
12,12A ハンドリング設定部
13 作業計画部(ハンドリング制御部)
14 逆キネマティクス演算部(ハンドリング制御部)
21,21A ハンドリング位置推定部
22,22A エンドエフェクタ選択部

1 Handling system 2 Camera (shape acquisition unit)
3,3A robot controller (controller)
4 Servo amplifier 5 Handling robot 6 End effector replacement part 8 End effector 8A Multi-finger hand 8B Gripper 8C Suction nozzle 10 Industrial parts (object)
11 Image recognition unit (shape acquisition unit)
12, 12A Handling setting unit 13 Work planning unit (Handling control unit)
14 Inverse kinematics calculation unit (handling control unit)
21,21A Handling position estimation unit 22,22A End effector selection unit

Claims (8)

対象物の形状情報を取得する形状取得部と、
前記対象物に直接接触してハンドリング動作を行う複数種類のエンドエフェクタと、
機械学習プロセスでの学習内容に基づき、前記形状情報に対応して前記対象物側の接触位置であるハンドリング位置を推定してから、前記対象物に対してハンドリング動作させるエンドエフェクタを前記ハンドリング位置に対応して選択するハンドリング設定部と、
を有することを特徴とするハンドリングシステム。
A shape acquisition unit that acquires shape information of an object,
Multiple types of end effectors that perform handling operations in direct contact with the object,
Based on the learning content in the machine learning process, the handling position, which is the contact position on the object side, is estimated in response to the shape information, and then the end effector that performs the handling operation on the object is set to the handling position. The handling setting unit to be selected correspondingly,
A handling system characterized by having.
前記エンドエフェクタを装着して当該エンドエフェクタと前記対象物の移送動作を行うハンドリングロボットと、
推定されたハンドリング位置に選択されたエンドエフェクタを接触させるよう前記ハンドリングロボットのハンドリング動作を制御するハンドリング制御部と、
を有することを特徴とする請求項1記載のハンドリングシステム。
A handling robot that mounts the end effector and transfers the end effector and the object,
A handling control unit that controls the handling operation of the handling robot so that the selected end effector is brought into contact with the estimated handling position.
The handling system according to claim 1, wherein the handling system comprises.
前記機械学習プロセスは、ハンドリング動作を繰り返した際のそれぞれのハンドリング結果に基づく強化学習により実行されることを特徴とする請求項1又は2に記載のハンドリングシステム。 The handling system according to claim 1 or 2 , wherein the machine learning process is executed by reinforcement learning based on each handling result when the handling operation is repeated. 前記機械学習プロセスは、ハンドリング動作を繰り返した際に得られたハンドリング成否データに基づくデータ学習により実行されることを特徴とする請求項1乃至のいずれか1項に記載のハンドリングシステム。 The handling system according to any one of claims 1 to 3 , wherein the machine learning process is executed by data learning based on handling success / failure data obtained when the handling operation is repeated. 前記機械学習プロセスは、所定の形状の対象物に対して実行されることを特徴とする請求項1乃至のいずれか1項に記載のハンドリングシステム。 The handling system according to any one of claims 1 to 4 , wherein the machine learning process is performed on an object having a predetermined shape. 前記機械学習プロセスは、多様な形状の対象物に対して実行されていることを特徴とする請求項1乃至のいずれか1項に記載のハンドリングシステム。 The handling system according to any one of claims 1 to 4 , wherein the machine learning process is performed on objects having various shapes. 前記エンドエフェクタの種類は、多指ハンド、グリッパ、及び吸着ノズルのうち少なくとも1つを含むことを特徴とする請求項1乃至のいずれか1項に記載のハンドリングシステム。 The handling system according to any one of claims 1 to 6 , wherein the type of the end effector includes at least one of a multi-finger hand, a gripper, and a suction nozzle. 機械学習プロセスでの学習内容に基づき、対象物の形状に対応して前記対象物側の接触位置であるハンドリング位置を推定してから、前記対象物に対してハンドリング動作させるエンドエフェクタを前記ハンドリング位置に対応して選択するハンドリング設定部、
を有することを特徴とするコントローラ。
Based on the learning content in the machine learning process, the handling position, which is the contact position on the object side, is estimated according to the shape of the object, and then the end effector that handles the object is moved to the handling position. Handling setting section to select according to
A controller characterized by having.
JP2017011017A 2017-01-25 2017-01-25 Handling system and controller Active JP6771744B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017011017A JP6771744B2 (en) 2017-01-25 2017-01-25 Handling system and controller

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017011017A JP6771744B2 (en) 2017-01-25 2017-01-25 Handling system and controller

Publications (2)

Publication Number Publication Date
JP2018118343A JP2018118343A (en) 2018-08-02
JP6771744B2 true JP6771744B2 (en) 2020-10-21

Family

ID=63044214

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017011017A Active JP6771744B2 (en) 2017-01-25 2017-01-25 Handling system and controller

Country Status (1)

Country Link
JP (1) JP6771744B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP4094906A1 (en) * 2021-05-26 2022-11-30 AyTec Automation GmbH Gripping arrangement

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7163116B2 (en) * 2018-09-14 2022-10-31 株式会社東芝 Information processing equipment and picking system
WO2020075423A1 (en) * 2018-10-10 2020-04-16 ソニー株式会社 Robot control device, robot control method and robot control program
JP7205752B2 (en) * 2018-11-09 2023-01-17 オムロン株式会社 ROBOT CONTROL DEVICE, ROBOT CONTROL METHOD, AND ROBOT CONTROL PROGRAM
JP7047726B2 (en) * 2018-11-27 2022-04-05 トヨタ自動車株式会社 Gripping robot and control program for gripping robot
JP6671694B1 (en) * 2018-11-30 2020-03-25 株式会社クロスコンパス Machine learning device, machine learning system, data processing system, and machine learning method
KR102619004B1 (en) * 2018-12-14 2023-12-29 삼성전자 주식회사 Robot control apparatus and method for learning task skill of the robot
JP7044047B2 (en) * 2018-12-14 2022-03-30 トヨタ自動車株式会社 robot
JP7342676B2 (en) * 2019-12-13 2023-09-12 トヨタ自動車株式会社 Remote control system and remote control method
JP2021146452A (en) * 2020-03-19 2021-09-27 株式会社東芝 Handling device, control device, and control program
DE112020007557T5 (en) 2020-10-28 2023-08-10 Yamaha Hatsudoki Kabushiki Kaisha Apparatus for searching a workpiece holding shape for a robot hand and method therefor

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1015865A (en) * 1996-07-06 1998-01-20 Ricoh Co Ltd Feeding device of assembly parts
JP4646943B2 (en) * 2004-07-13 2011-03-09 パナソニック株式会社 robot
JP2007245326A (en) * 2006-02-17 2007-09-27 Toyota Motor Corp Robot, and robot control method
JP2016093879A (en) * 2014-11-17 2016-05-26 富士通株式会社 Gripping plan decision program, gripping plan determination method, and engineering support device
JP6522488B2 (en) * 2015-07-31 2019-05-29 ファナック株式会社 Machine learning apparatus, robot system and machine learning method for learning work taking-out operation

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP4094906A1 (en) * 2021-05-26 2022-11-30 AyTec Automation GmbH Gripping arrangement

Also Published As

Publication number Publication date
JP2018118343A (en) 2018-08-02

Similar Documents

Publication Publication Date Title
JP6771744B2 (en) Handling system and controller
EP3284563B1 (en) Picking system
US10870204B2 (en) Robotic system control method and controller
JP6983524B2 (en) Information processing equipment, information processing methods and programs
JP5685027B2 (en) Information processing apparatus, object gripping system, robot system, information processing method, object gripping method, and program
JP6931457B2 (en) Motion generation method, motion generator, system and computer program
JP7191569B2 (en) gripping device
JP2019084601A (en) Information processor, gripping system and information processing method
JP6697204B1 (en) Robot system control method, non-transitory computer-readable recording medium, and robot system control device
CN110909644A (en) Method and system for adjusting grabbing posture of mechanical arm end effector based on reinforcement learning
CN113858188A (en) Industrial robot gripping method and apparatus, computer storage medium, and industrial robot
CN114025928A (en) End effector control system and end effector control method
WO2019239563A1 (en) Robot system
Zhu et al. Robot performing peg-in-hole operations by learning from human demonstration
JP2022187983A (en) Network modularization to learn high dimensional robot tasks
JP7353948B2 (en) Robot system and robot system control method
JP7051751B2 (en) Learning device, learning method, learning model, detection device and gripping system
JP2015182212A (en) Robot system, robot, control device, and control method
CN116175542B (en) Method, device, electronic equipment and storage medium for determining clamp grabbing sequence
JP4715296B2 (en) Robot hand holding and gripping control method.
CN111470244B (en) Control method and control device for robot system
JP2021061014A (en) Learning device, learning method, learning model, detector, and gripping system
US20230098284A1 (en) Method for generating training data for supervised learning for training a neural network
US20230415349A1 (en) Method for controlling a robot for manipulating, in particular picking up, an object
JP7415013B2 (en) Robotic device that detects interference between robot components

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190613

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20200227

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20200227

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200421

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200501

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200522

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200624

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200720

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200831

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200913

R150 Certificate of patent or registration of utility model

Ref document number: 6771744

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150