JP6671694B1 - Machine learning device, machine learning system, data processing system, and machine learning method - Google Patents

Machine learning device, machine learning system, data processing system, and machine learning method Download PDF

Info

Publication number
JP6671694B1
JP6671694B1 JP2018225088A JP2018225088A JP6671694B1 JP 6671694 B1 JP6671694 B1 JP 6671694B1 JP 2018225088 A JP2018225088 A JP 2018225088A JP 2018225088 A JP2018225088 A JP 2018225088A JP 6671694 B1 JP6671694 B1 JP 6671694B1
Authority
JP
Japan
Prior art keywords
dimensional
learning
robot hand
data
machine learning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018225088A
Other languages
Japanese (ja)
Other versions
JP2020082322A (en
Inventor
アントワーヌ パスクアリ
アントワーヌ パスクアリ
大樹 参納
大樹 参納
ロマン アンジェニュー
ロマン アンジェニュー
コランタン リセラン
コランタン リセラン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Cross Compass Ltd
Original Assignee
Cross Compass Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Cross Compass Ltd filed Critical Cross Compass Ltd
Priority to JP2018225088A priority Critical patent/JP6671694B1/en
Application granted granted Critical
Publication of JP6671694B1 publication Critical patent/JP6671694B1/en
Publication of JP2020082322A publication Critical patent/JP2020082322A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Manipulator (AREA)

Abstract

【課題】ロボットハンドによるワークの把持・運搬動作の自動化を簡略な構成で実現すること。【解決手段】1又は複数のワークWのうちいずれかを把持するシミュレータ2上のロボットハンドが把持動作を経て把持を成功させるときのロボットハンドの1又は複数の3次元座標データと、1又は複数のワークWをシミュレータ2上の2次元撮像装置IDによって所定画角から撮像した2次元撮像画像データと、を備える学習用データセットをシミュレータ2から取得して複数組記憶するデータセット記憶部32と、1又は複数のワークWを2次元撮像装置IDによって所定画角と同じ画角から撮像した2次元撮像画像から、現実世界におけるロボットハンドの3次元座標を推論する学習モデルを学習する学習部33と、学習部33によって学習された学習モデルを記憶する学習済モデル記憶部34と、を備える。【選択図】図1PROBLEM TO BE SOLVED: To realize automation of gripping / transporting work by a robot hand with a simple configuration. SOLUTION: One or more three-dimensional coordinate data of a robot hand when a robot hand on a simulator 2 that grips any one or a plurality of works W undergoes a gripping operation and succeeds in gripping; And a data set storage unit 32 for acquiring a learning data set from the simulator 2 and storing a plurality of learning data sets including the two-dimensional imaged image data of the work W captured by the two-dimensional image pickup device ID on the simulator 2 from a predetermined angle of view. A learning unit 33 that learns a learning model that infers the three-dimensional coordinates of the robot hand in the real world from a two-dimensional captured image in which one or a plurality of works W are captured by the two-dimensional imaging device ID from the same angle of view as the predetermined angle of view. And a learned model storage unit 34 that stores the learning model learned by the learning unit 33. [Selection diagram] Fig. 1

Description

本発明は、乱雑に配置された1又は複数のワークの取り出し動作を学習する機械学習装置、機械学習システム及び機械学習方法と、これらの機械学習装置、機械学習システム及び機械学習方法によって得られた学習済モデルを利用した、データ処理システムに関するものである。   The present invention is obtained by a machine learning device, a machine learning system, and a machine learning method for learning an operation of taking out one or a plurality of randomly arranged works, and the machine learning device, the machine learning system, and the machine learning method. The present invention relates to a data processing system using a learned model.

従来から、箱型のトレー内に乱雑に配置(いわゆる「バラ積み」を含む)された所定形状のワークを、ロボットハンド(マニプレータ)を用いて把持し運搬する試みが行われている。そして、例えば特許文献1のように、このような動作を人の手(例えば制御情報の入力動作)を介在することなく自動で実行するべく、機械学習装置を用いる試みも行われている。特許文献1に記載された機械学習装置は、複数台のカメラ等からなる3次元計測器を用いてワークの3次元マップを形成し、この3次元マップと、ロボットによるワークの取り出し動作結果と、ロボットに対する指令データとを用いて機械学習を行うものである。   2. Description of the Related Art Conventionally, attempts have been made to use a robot hand (manipulator) to hold and transport a work of a predetermined shape that is randomly arranged in a box-shaped tray (including so-called “bulk stacking”). Then, as in Patent Document 1, for example, an attempt is made to use a machine learning device to automatically execute such an operation without human hands (for example, an operation of inputting control information). The machine learning device described in Patent Literature 1 forms a three-dimensional map of a workpiece using a three-dimensional measuring device including a plurality of cameras and the like. Machine learning is performed using command data for the robot.

特開2017−030135号公報JP 2017-030135 A

上述したとおり、特許文献1に記載された機械学習装置は、機械学習に際し複数台のカメラ等からなる3次元計測器を用いてワークの3次元マップを取得することを必須の要件としている。しかし、3次元計測器は複数台のカメラを要する等、一般的な2次元撮像装置(カメラ)に比べて部品点数が多く複雑な装置であり、ひいては当該機械学習装置を実現することはコスト面において課題がある。   As described above, the machine learning device described in Patent Literature 1 has an essential requirement to acquire a three-dimensional map of a workpiece using a three-dimensional measuring device including a plurality of cameras and the like during machine learning. However, a three-dimensional measuring device is a complicated device having a large number of components compared to a general two-dimensional imaging device (camera), such as requiring a plurality of cameras, and realizing the machine learning device is costly. There is a problem in.

本発明は上述の点に鑑み、ロボットハンドによるワークの把持・運搬動作の自動化を簡略な構成で実現し、ひいては当該実現に要するコストを抑えることを目的とする。   In view of the above, it is an object of the present invention to realize automation of a gripping / transporting operation of a work by a robot hand with a simple configuration, and to reduce costs required for the realization.

上記目的を達成するために、本発明の第1の態様に係る機械学習装置3は、例えば図1及び図5に示すように、シミュレータ2の所定領域VWA内に配置された1又は複数のワークWのうちいずれかを把持する前記シミュレータ2上のロボットハンドRが把持動作を経て把持を成功させるときの前記ロボットハンドRの1又は複数の3次元座標データと、前記ロボットハンドRが把持を成功させるときの前記把持動作の前に前記所定領域内に配置された前記1又は複数のワークWを前記シミュレータ上の2次元撮像装置IDによって所定画角から撮像した2次元撮像画像データと、を含む学習用データセットを前記シミュレータから取得して複数組記憶するデータセット記憶部32と;前記学習用データセットを複数組入力することで、現実世界における所定領域RWA内に配置された1又は複数のワークWを2次元撮像装置IDによって前記所定画角と同じ画角から撮像した2次元撮像画像から、現実世界におけるロボットハンドRの3次元座標を推論する学習モデルを学習する学習部33と;前記学習部33によって学習された前記学習モデルを記憶する学習済モデル記憶部34と;を含む。   In order to achieve the above object, the machine learning device 3 according to the first aspect of the present invention includes, as shown in FIGS. 1 and 5, one or a plurality of workpieces arranged in a predetermined area VWA of the simulator 2. One or a plurality of three-dimensional coordinate data of the robot hand R when the robot hand R on the simulator 2 gripping any one of the W through the gripping operation succeeds, and the robot hand R successfully grips Two-dimensional captured image data obtained by capturing the one or a plurality of works W arranged in the predetermined area from a predetermined angle of view using a two-dimensional imaging device ID on the simulator before the gripping operation when performing the holding operation. A data set storage unit 32 for acquiring a plurality of sets of learning data sets from the simulator and storing a plurality of sets of learning data sets; Three-dimensional coordinates of the robot hand R in the real world from a two-dimensional captured image obtained by capturing one or a plurality of works W arranged in a predetermined area RWA in the field from the same angle of view as the predetermined angle of view using a two-dimensional imaging device ID. And a learned model storage unit 34 that stores the learning model learned by the learning unit 33.

このように構成すると、この機械学習装置により得られる学習済モデルをバラ積みピッキングにおけるデータ処理に適用することにより、3次元計測器等の複雑な装置を要することなく、バラ積みピッキング作業の自動化を実現することができる。また、この機械学習に際してはシミュレータを用いるため、機械学習のための学習用データセットの収集を短期間で且つ安定して実現できる。   With this configuration, by applying the learned model obtained by the machine learning device to data processing in bulk picking, it is possible to automate bulk picking work without requiring a complicated device such as a three-dimensional measuring device. Can be realized. In addition, since a simulator is used for this machine learning, collection of a learning data set for machine learning can be realized in a short time and stably.

本発明の第2の態様に係る機械学習システム3は、例えば図1及び図5に示すように、シミュレータ2と、機械学習装置3とを含み:前記シミュレータ2が、所定領域VWA内に配置された1又は複数のワークWのうちいずれかを把持する前記シミュレータ上のロボットハンドRが把持動作を経て把持を成功させるときの前記ロボットハンドRの1又は複数の3次元座標データと、前記ロボットハンドRが把持を成功させるときの前記把持動作の前に前記所定領域内に配置された1又は複数のワークWを前記シミュレータ2上の2次元撮像装置IDによって所定画角から撮像した2次元撮像画像データとを備える学習用データセットを生成する機能を有し、前記機械学習装置3が、前記シミュレータ2から前記学習用データセットを複数組取得して記憶するデータセット記憶部32と;前記学習用データセットを複数組入力することで、現実世界における所定領域RWA内に配置された1又は複数のワークWを2次元撮像装置IDによって前記所定画角と同じ画角から撮像した2次元撮像画像から、現実世界におけるロボットハンドRの3次元座標を推論する学習モデルを学習する学習部33と;前記学習部33によって学習された前記学習モデルを記憶する学習済モデル記憶部34と;を含む。   A machine learning system 3 according to a second embodiment of the present invention includes a simulator 2 and a machine learning device 3, as shown in FIGS. 1 and 5, for example: the simulator 2 is arranged in a predetermined area VWA. One or a plurality of three-dimensional coordinate data of the robot hand R when the robot hand R on the simulator holding one of the one or a plurality of works W succeeds in holding through a holding operation; A two-dimensional captured image obtained by capturing one or a plurality of works W arranged in the predetermined region from a predetermined angle of view using a two-dimensional imaging device ID on the simulator 2 before the gripping operation when R successfully grips. A function of generating a learning data set including data and a plurality of learning data sets from the simulator 2 A plurality of sets of the learning data sets, whereby one or a plurality of workpieces W arranged in a predetermined area RWA in the real world are input to the predetermined set by the two-dimensional imaging device ID. A learning unit 33 for learning a learning model for inferring the three-dimensional coordinates of the robot hand R in the real world from a two-dimensional captured image captured from the same angle of view as the angle of view; And a learned model storage unit 34 for storing.

このように構成すると、この機械学習システムにより得られる学習済モデルをバラ積みピッキングにおけるデータ処理に適用することにより、3次元計測器等の複雑な装置を要することなく、バラ積みピッキング作業の自動化を実現することができる。また、この機械学習に際してはシミュレータを用いるため、機械学習のための学習用データセットの収集を短期間で且つ安定して実現できる。   With this configuration, by applying the learned model obtained by this machine learning system to data processing in bulk picking, automation of bulk picking work can be automated without the need for a complicated device such as a three-dimensional measuring device. Can be realized. In addition, since a simulator is used for this machine learning, collection of a learning data set for machine learning can be realized in a short time and stably.

本発明の第3の態様に係る機械学習装置は、例えば図1及び図5に示すように、所定領域RWA内に配置された1又は複数のワークのうちいずれかを把持するロボットハンドRが把持動作を経て把持を成功させるときの前記ロボットハンドRの3次元座標データと、前記ロボットハンドRが把持を成功させるときの前記把持動作の前に前記所定領域RWA内に配置された1又は複数のワークWを2次元撮像装置IDによって所定画角から撮像した2次元撮像画像データと、を備える学習用データセットを複数組記憶するデータセット記憶部32と;前記学習用データセットを複数組入力することで、前記2次元撮像画像から、前記3次元座標を推論する学習モデルを学習する学習部33と;前記学習部33によって学習された前記学習モデルを記憶する学習済モデル記憶部34と;を含む。   The machine learning device according to the third aspect of the present invention is configured such that, as shown in FIGS. 1 and 5, for example, a robot hand R that grips one or a plurality of workpieces arranged in a predetermined area RWA is gripped. Three-dimensional coordinate data of the robot hand R when the gripping is successful through the operation, and one or a plurality of the plurality of the robot hands R arranged in the predetermined area RWA before the gripping operation when the robot hand R successfully grips. A data set storage unit 32 that stores a plurality of learning data sets each including two-dimensional captured image data obtained by capturing the work W from a predetermined angle of view using a two-dimensional imaging device ID; and inputs a plurality of the learning data sets. A learning unit 33 for learning a learning model for inferring the three-dimensional coordinates from the two-dimensional captured image; and the learning model learned by the learning unit 33. Including; a learned model storage unit 34 for storing.

このように構成すると、この機械学習装置により得られる学習済モデルをバラ積みピッキングにおけるデータ処理に適用することにより、3次元計測器等の複雑な装置を要することなく、バラ積みピッキング作業の自動化を実現することができる。   With this configuration, by applying the learned model obtained by the machine learning device to data processing in bulk picking, it is possible to automate bulk picking work without requiring a complicated device such as a three-dimensional measuring device. Can be realized.

本発明の第4の態様に係るデータ処理システム100は、例えば図5に示すように、所定領域RWA内に配置された1又は複数のワークWを2次元撮像装置IDによって所定画角から撮像した2次元撮像画像を取得する取得部110と;上記第1乃至3の態様の機械学習装置3によって生成された学習済モデルに、前記取得部が取得した前記2次元撮像画像を入力することで、ロボットハンドの3次元座標を推論する推論部140と;を含む。   The data processing system 100 according to the fourth aspect of the present invention captures one or a plurality of works W arranged in a predetermined area RWA from a predetermined angle of view using a two-dimensional imaging device ID, for example, as shown in FIG. An acquisition unit 110 for acquiring a two-dimensional captured image; and inputting the two-dimensional captured image acquired by the acquisition unit to a learned model generated by the machine learning device 3 of the first to third aspects. An inference unit 140 for inferring three-dimensional coordinates of the robot hand.

このように構成すると、構造が単純で比較的安価な2次元撮像装置が撮像した画像データのみからワークを把持可能なロボットハンドの3次元座標を推論することができるため、人手を要することのないバラ積みピッキングを簡略な構成で、ひいては低コストで実現することができる。   With this configuration, the three-dimensional coordinates of the robot hand capable of holding the workpiece can be inferred from only the image data captured by the relatively inexpensive two-dimensional imaging device having a simple structure. Bulk picking can be realized with a simple configuration and at low cost.

本発明の第5の態様に係るデータ処理システム100Bは、例えば図13に示すように、推論部140において、3次元座標が複数推論された場合に、複数の3次元座標のうちの所定の一の3次元座標を特定する特定部150を更に含む。   The data processing system 100B according to the fifth aspect of the present invention, when the inference unit 140 infers a plurality of three-dimensional coordinates as shown in FIG. Further includes a specifying unit 150 for specifying the three-dimensional coordinates of.

このように構成すると、推論部140により推論された複数の3次元座標の中から一の3次元座標を選定することができ、より精度の高い把持動作を実行することができる。   With this configuration, one three-dimensional coordinate can be selected from the plurality of three-dimensional coordinates inferred by the inference unit 140, and a more accurate gripping operation can be performed.

本発明の第6の態様に係る機械学習方法は、例えば図4に示すように、コンピュータを用い:所定領域VWA内に配置された1又は複数のワークWのうちいずれかを把持するロボットハンドRが把持動作を経て把持を成功させるときの前記ロボットハンドRの3次元座標データと、前記ロボットハンドRが把持を成功させるときの前記把持動作の前に前記所定領域VWA内に配置された1又は複数のワークWを2次元撮像装置IDによって所定画角から撮像した2次元撮像画像データとを備える学習用データセットを複数組記憶するステップと;前記学習用データセットを複数組入力することで、前記2次元撮像画像から、前記3次元座標を推論する学習モデルを学習するステップS24と;学習された前記学習モデルを記憶するステップS26と;を含む。   A machine learning method according to a sixth aspect of the present invention uses, for example, a computer as shown in FIG. 4: a robot hand R holding one of a plurality of works W arranged in a predetermined area VWA. 3D coordinate data of the robot hand R when the robot hand R succeeds in grasping via the grasping operation, and 1 or 3 arranged in the predetermined area VWA before the grasping operation when the robot hand R succeeds in grasping. Storing a plurality of sets of learning data sets each including two-dimensional captured image data obtained by capturing a plurality of works W from a predetermined angle of view using a two-dimensional imaging device ID; by inputting a plurality of sets of the learning data sets, Learning a learning model for inferring the three-dimensional coordinates from the two-dimensional captured image; step S24; storing the learned learning model; Including; 6 and.

このように構成すると、この機械学習方法により得られる学習済モデルをバラ積みピッキングにおけるデータ処理に適用することにより、3次元計測器等の複雑な装置を要することなく、バラ積みピッキング作業の自動化を実現することができる。   With this configuration, by applying the learned model obtained by this machine learning method to data processing in bulk picking, it is possible to automate the bulk picking work without requiring a complicated device such as a three-dimensional measuring device. Can be realized.

本発明の第7の態様に係る機械学習装置3Aは、例えば図7及び図5に示すように、シミュレータ2Aの所定領域VWA内に配置された1又は複数のワークWのうちいずれかを把持する前記シミュレータ2A上のロボットハンドRが把持動作を経て把持を成功させるときの前記ロボットハンドRの1又は複数の3次元座標データ及び角度データと、前記ロボットハンドRが把持を成功させるときの前記把持動作の前に前記所定領域VWA内に配置された1又は複数のワークWを前記シミュレータ上の2次元撮像装置IDによって所定画角から撮像した2次元撮像画像データと、を備える学習用データセットを前記シミュレータ2Aから取得して複数組記憶するデータセット記憶部32と;前記学習用データセットを複数組入力することで、現実世界における所定領域RWA内に配置された1又は複数のワークWを2次元撮像装置IDによって前記所定画角と同じ画角から撮像した2次元撮像画像から、現実世界におけるロボットハンドRの3次元座標及び角度を推論する学習モデルを学習する学習部33と;前記学習部33によって学習された前記学習モデルを記憶する学習済モデル記憶部34と;を含む。   The machine learning device 3A according to the seventh aspect of the present invention grasps one of one or a plurality of works W arranged in a predetermined area VWA of the simulator 2A, for example, as shown in FIGS. One or a plurality of three-dimensional coordinate data and angle data of the robot hand R when the robot hand R on the simulator 2A succeeds in grasping through the grasping operation, and the grasp when the robot hand R succeeds in grasping. A learning data set including two-dimensional captured image data obtained by capturing one or a plurality of workpieces W arranged in the predetermined region VWA from a predetermined angle of view using a two-dimensional imaging device ID on the simulator before the operation. A data set storage unit 32 that acquires from the simulator 2A and stores a plurality of sets; Three-dimensional coordinates of the robot hand R in the real world from a two-dimensional captured image obtained by capturing one or a plurality of workpieces W arranged in a predetermined region RWA in the world from the same angle of view as the predetermined angle of view using a two-dimensional imaging device ID. And a learning unit 33 that learns a learning model that infers angles and angles; and a learned model storage unit 34 that stores the learning model learned by the learning unit 33.

このように構成すると、この機械学習装置により得られる学習済モデルをバラ積みピッキングにおけるデータ処理に適用することにより、3次元計測器等の複雑な装置を要することなく、バラ積みピッキング作業の自動化を実現することができる。また、この機械学習に際してはシミュレータを用いるため、機械学習のための学習用データセットの収集を短期間で且つ安定して実現できる。さらに、学習済モデルが3次元座標データのみならず角度データをも出力するため、ロボットハンドの形状に関わらず常に高精度にワークの把持を実現することができる。   With this configuration, by applying the learned model obtained by the machine learning device to data processing in bulk picking, it is possible to automate bulk picking work without requiring a complicated device such as a three-dimensional measuring device. Can be realized. In addition, since a simulator is used for this machine learning, collection of a learning data set for machine learning can be realized in a short time and stably. Further, since the learned model outputs not only the three-dimensional coordinate data but also the angle data, it is possible to always accurately grasp the workpiece regardless of the shape of the robot hand.

本発明の第8の態様に係る機械学習システム1Aは、例えば図7及び図5に示すように、シミュレータ2Aと、機械学習装置3Aとを備え:前記シミュレータ2Aが、所定領域VWA内に配置された1又は複数のワークWのうちいずれかを把持する前記シミュレータ2A上のロボットハンドRが把持動作を経て把持を成功させるときの前記ロボットハンドRの1又は複数の3次元座標データ及び角度データと、前記ロボットハンドRが把持を成功させるときの前記把持動作の前に前記所定領域VWA内に配置された1又は複数のワークWを前記シミュレータ2A上の2次元撮像装置IDによって所定画角から撮像した2次元撮像画像データとを備える学習用データセットを生成する機能を有し、前記機械学習装置3Aが、前記シミュレータ2Aから前記学習用データセットを複数組取得して記憶するデータセット記憶部32と;前記学習用データセットを複数組入力することで、現実世界における所定領域RWA内に配置された1又は複数のワークWを2次元撮像装置IDによって前記所定画角と同じ画角から撮像した2次元撮像画像から、現実世界におけるロボットハンドRの3次元座標及び角度を推論する学習モデルを学習する学習部33と;前記学習部33によって学習された前記学習モデルを記憶する学習済モデル記憶部34と;を含む。   A machine learning system 1A according to an eighth aspect of the present invention includes a simulator 2A and a machine learning device 3A, for example, as shown in FIGS. 7 and 5: the simulator 2A is arranged in a predetermined area VWA. One or a plurality of three-dimensional coordinate data and angle data of the robot hand R when the robot hand R on the simulator 2A gripping any one or a plurality of workpieces W succeeds in gripping through a gripping operation. Before the gripping operation when the robot hand R successfully grips, one or a plurality of works W arranged in the predetermined area VWA are imaged from a predetermined angle of view by a two-dimensional imaging device ID on the simulator 2A. And a function for generating a learning data set including the obtained two-dimensional captured image data. A data set storage unit 32 for acquiring and storing a plurality of sets of the learning data sets from a plurality of learning data sets; and inputting a plurality of sets of the learning data sets to one or more workpieces arranged in a predetermined area RWA in the real world. A learning unit 33 that learns a learning model that infers three-dimensional coordinates and angles of the robot hand R in the real world from a two-dimensional captured image obtained by capturing W from the same angle of view as the predetermined angle of view using the two-dimensional imaging device ID; A learned model storage unit 34 for storing the learning model learned by the learning unit 33.

このように構成すると、この機械学習システムにより得られる学習済モデルをバラ積みピッキングにおけるデータ処理に適用することにより、3次元計測器等の複雑な装置を要することなく、バラ積みピッキング作業の自動化を実現することができる。また、この機械学習に際してはシミュレータを用いるため、機械学習のための学習用データセットの収集を短期間で且つ安定して実現できる。さらに、学習済モデルが3次元座標データのみならず角度データをも出力するため、ロボットハンドの形状に関わらず常に高精度にワークの把持を実現することができる。   With this configuration, by applying the learned model obtained by this machine learning system to data processing in bulk picking, automation of bulk picking work can be automated without the need for a complicated device such as a three-dimensional measuring device. Can be realized. In addition, since a simulator is used for this machine learning, collection of a learning data set for machine learning can be realized in a short time and stably. Further, since the learned model outputs not only the three-dimensional coordinate data but also the angle data, it is possible to always accurately grasp the workpiece regardless of the shape of the robot hand.

本発明の第9の態様に係る機械学習装置は、例えば図7及び図5に示すように、所定領域RWA内に配置された1又は複数のワークWのうちいずれかを把持するロボットハンドRが把持動作を経て把持を成功させるときの前記ロボットハンドRの3次元座標データ及び角度データと、前記ロボットハンドRが把持を成功させるときの前記把持動作の前に前記所定領域RWA内に配置された1又は複数のワークWを2次元撮像装置IDによって所定画角から撮像した2次元撮像画像データと、を備える学習用データセットを複数組記憶するデータセット記憶部31と;前記学習用データセットを複数組入力することで、前記2次元撮像画像から、前記3次元座標及び角度を推論する学習モデルを学習する学習部33と;前記学習部33によって学習された前記学習モデルを記憶する学習済モデル記憶部34と;を含む。   The machine learning device according to the ninth aspect of the present invention includes, as shown in FIGS. 7 and 5, for example, a robot hand R that grasps one or a plurality of works W arranged in a predetermined area RWA. The three-dimensional coordinate data and the angle data of the robot hand R when the grip is successful after the grip operation, and the robot hand R are arranged in the predetermined area RWA before the grip operation when the robot hand R successfully grips. A data set storage unit 31 that stores a plurality of learning data sets each including two-dimensional captured image data obtained by capturing one or a plurality of works W from a predetermined angle of view using a two-dimensional imaging device ID; A learning unit 33 for learning a learning model for inferring the three-dimensional coordinates and angles from the two-dimensional captured image by inputting a plurality of sets; Including; a learned model storage unit 34 for storing the learning has been said learning model.

このように構成すると、この機械学習装置により得られる学習済モデルをバラ積みピッキングにおけるデータ処理に適用することにより、3次元計測器等の複雑な装置を要することなく、バラ積みピッキング作業の自動化を実現することができる。また、学習済モデルが3次元座標データのみならず角度データをも出力するため、ロボットハンドの形状に関わらず常に高精度にワークの把持を実現することができる。   With this configuration, by applying the learned model obtained by the machine learning device to data processing in bulk picking, it is possible to automate bulk picking work without requiring a complicated device such as a three-dimensional measuring device. Can be realized. Further, since the learned model outputs not only the three-dimensional coordinate data but also the angle data, it is possible to always accurately grasp the workpiece regardless of the shape of the robot hand.

本発明の第10の態様に係るデータ処理システムは、例えば図7及び図5に示すように、所定領域RWA内に配置された1又は複数のワークWを2次元撮像装置によって所定画角から撮像した2次元撮像画像データを取得する取得部110と;上記第7乃至9の態様の機械学習装置によって生成された学習済モデルに、前記取得部が取得した前記2次元撮像画像データを入力することで、ロボットハンドの3次元座標及び角度を推論する推論部140と;を含む。   The data processing system according to the tenth aspect of the present invention captures one or a plurality of works W arranged in a predetermined area RWA from a predetermined angle of view by a two-dimensional imaging device as shown in FIGS. 7 and 5, for example. An acquisition unit 110 for acquiring the obtained two-dimensional captured image data; and inputting the two-dimensional captured image data acquired by the acquisition unit to a learned model generated by the machine learning device according to the seventh to ninth aspects. And an inference unit 140 for inferring three-dimensional coordinates and angles of the robot hand.

このように構成すると、構造が単純で比較的安価な2次元撮像装置が撮像した画像データのみからワークを把持可能なロボットハンドの3次元座標及び角度を推論することができるため、簡略な構成で且つ高精度に人手を要することのないバラ積みピッキングを実現することができる。   With this configuration, the three-dimensional coordinates and angle of the robot hand capable of holding the workpiece can be inferred only from image data captured by a relatively inexpensive two-dimensional imaging device having a simple structure. In addition, bulk picking can be realized with high precision and without requiring human labor.

本発明の第11の態様に係るデータ処理システム100Bは、例えば図13に示すように、推論部140において、3次元座標及び角度が複数推論された場合に、複数の3次元座標及び角度のうちの所定の一の3次元座標及び角度を特定する特定部150を更に含む。   The data processing system 100B according to the eleventh aspect of the present invention is configured such that, when the inference unit 140 infers a plurality of three-dimensional coordinates and angles, for example, as illustrated in FIG. And a specifying unit 150 for specifying one predetermined three-dimensional coordinate and angle.

このように構成すると、推論部140により推論された複数の3次元座標の中から一の3次元座標を選定することができ、より精度の高い把持動作を実行することができる。   With this configuration, one three-dimensional coordinate can be selected from the plurality of three-dimensional coordinates inferred by the inference unit 140, and a more accurate gripping operation can be performed.

本発明の第12の態様に係る機械学習方法は、例えば図9に示すように、コンピュータを用い:所定領域VWA内に配置された1又は複数のワークWのうちいずれかを把持するロボットハンドRが把持動作を経て把持を成功させるときの前記ロボットハンドRの3次元座標データ及び角度と、前記ロボットハンドRが把持を成功させるときの前記把持動作の前に前記所定領域VWA内に配置された1又は複数のワークWを2次元撮像装置IDによって所定画角から撮像した2次元撮像画像データと、を備える学習用データセットを複数組記憶するステップと;前記学習用データセットを複数組入力することで、前記2次元撮像画像から、前記3次元座標及び前記角度を推論する学習モデルを学習するステップS54と;学習された前記学習モデルを記憶するステップS56と;を含む。   The machine learning method according to the twelfth aspect of the present invention uses, for example, a computer as shown in FIG. 9: a robot hand R holding one of a plurality of works W arranged in a predetermined area VWA. The three-dimensional coordinate data and the angle of the robot hand R when gripping succeeds through the gripping operation, and the robot hand R is arranged in the predetermined area VWA before the gripping operation when the robot hand R successfully grips. Storing a plurality of learning data sets each including two-dimensional captured image data obtained by capturing one or a plurality of works W from a predetermined angle of view using a two-dimensional imaging device ID; and inputting a plurality of the learning data sets. Learning a learning model for inferring the three-dimensional coordinates and the angles from the two-dimensional captured image; and learning the learning model. Including; a step S56 of storing the LE.

このように構成すると、この機械学習方法により得られる学習(済)モデルをバラ積みピッキングにおけるデータ処理に適用することにより、3次元計測器等の複雑な装置を要することなく、バラ積みピッキング作業の自動化を実現することができる。また、学習(済)モデルが3次元座標データのみならず角度データをも出力するため、ロボットハンドの形状に関わらず常に高精度にワークの把持を実現することができる。   With this configuration, the learning (existing) model obtained by this machine learning method is applied to data processing in bulk picking, thereby eliminating the need for a complicated device such as a three-dimensional measuring device and performing bulk picking work. Automation can be realized. Further, since the learning (completed) model outputs not only the three-dimensional coordinate data but also the angle data, it is possible to always hold the workpiece with high accuracy regardless of the shape of the robot hand.

本発明によれば、機械学習によって得られる学習済モデルは、その入力層に対応付けられる(入力される)状態変数が2次元撮像画像データのみであるから、3次元計測器等の複雑な装置を要することなく、簡略な構成によってバラ積みピッキング作業の自動化を実現することができる。これにより、本発明を適用する際のコストを抑えることができる。また、本発明の機械学習に際してシミュレータを利用すれば、機械学習のための学習用データセットの収集を短期間で且つ安定して実現できる。さらに、機械学習を経て生成された学習済モデルが出力するデータを、3次元座標データに加えて角度データを含むものとすれば、ロボットハンドの形状に関わらず常に高精度にワークの把持が実現可能な学習済みモデルを提供することができるようになる。さらにまた、機械学習に際し、1つの2次元撮像画像データに対して複数の3次元座標データ(及び角度データ)を関連付けてデータセットを作成すれば、把持動作の成功が最も期待できる3次元座標を選択することが可能となり、高精度で且つ自由度の高いデータ処理を実現することができるようになる。   According to the present invention, since a learned model obtained by machine learning has only two-dimensional captured image data as a state variable associated with (input to) its input layer, a complicated device such as a three-dimensional measuring device is used. , And automation of bulk picking work can be realized with a simple configuration. Thereby, the cost when applying the present invention can be suppressed. Further, if a simulator is used for machine learning according to the present invention, collection of a learning data set for machine learning can be realized in a short period of time and stably. Furthermore, if the data output from the trained model generated through machine learning includes angle data in addition to the three-dimensional coordinate data, the workpiece can be always grasped with high accuracy regardless of the shape of the robot hand. A possible trained model can be provided. Furthermore, at the time of machine learning, if a data set is created by associating a plurality of three-dimensional coordinate data (and angle data) with one two-dimensional captured image data, the three-dimensional coordinates at which the success of the gripping operation is most expected can be obtained. This makes it possible to select, and realize data processing with high accuracy and high degree of freedom.

図1は、本発明の第1の実施の形態に係る機械学習システムを示す概略図である。FIG. 1 is a schematic diagram illustrating a machine learning system according to a first embodiment of the present invention. 図2は、本発明の第1の実施の形態に係るシミュレータのシミュレート演算工程を示すフローチャートである。FIG. 2 is a flowchart showing a simulated calculation process of the simulator according to the first embodiment of the present invention. 図3は、本発明の第1の実施の形態に係る機械学習装置において実施される教師あり学習のためのニューラルネットワークモデルの例を示す図である。FIG. 3 is a diagram illustrating an example of a neural network model for supervised learning performed in the machine learning device according to the first embodiment of the present invention. 図4は、本発明の第1の実施の形態に係る機械学習方法を示すフローチャートである。FIG. 4 is a flowchart illustrating the machine learning method according to the first embodiment of the present invention. 図5は、本発明の第1の実施の形態に係るデータ処理システムが適用される現実の作業領域を示した概略図である。FIG. 5 is a schematic diagram showing an actual work area to which the data processing system according to the first embodiment of the present invention is applied. 図6は、本発明の第1の実施の形態に係る現実の作業領域におけるバラ積みピッキング工程を示すフローチャートである。FIG. 6 is a flowchart illustrating the bulk picking process in the actual work area according to the first embodiment of the present invention. 図7は、本発明の第2の実施の形態に係る機械学習システムを示す概略図である。FIG. 7 is a schematic diagram showing a machine learning system according to the second embodiment of the present invention. 図8は、本発明の第2の実施の形態に係るシミュレータのシミュレート演算工程を示すフローチャートである。FIG. 8 is a flowchart showing a simulated calculation process of the simulator according to the second embodiment of the present invention. 図9は、本発明の第2の実施の形態に係る機械学習方法を示すフローチャートである。FIG. 9 is a flowchart illustrating a machine learning method according to the second embodiment of the present invention. 図10は、本発明の第3の実施の形態に係る機械学習システムを示す概略図である。FIG. 10 is a schematic diagram illustrating a machine learning system according to a third embodiment of the present invention. 図11は、本発明の第3の実施の形態に係るシミュレータで生成された2次元撮像画像データの一例を示す概略図である。FIG. 11 is a schematic diagram illustrating an example of two-dimensional captured image data generated by the simulator according to the third embodiment of the present invention. 図12は、本発明の第3の実施の形態に係るシミュレータのシミュレート演算工程を示すフローチャートである。FIG. 12 is a flowchart showing a simulated calculation process of the simulator according to the third embodiment of the present invention. 図13は、本発明の第3の実施の形態に係るデータ処理システムが適用される現実の作業領域を示した概略図である。FIG. 13 is a schematic diagram showing an actual work area to which the data processing system according to the third embodiment of the present invention is applied. 図14は、本発明の第3の実施の形態に係る現実の作業領域におけるバラ積みピッキング工程を示すフローチャートである。FIG. 14 is a flowchart showing a bulk picking process in an actual work area according to the third embodiment of the present invention.

以下、図面を参照して本発明を実施するための各実施の形態について説明する。なお、以下では本発明の目的を達成するための説明に必要な範囲を模式的に示し、本発明の該当部分の説明に必要な範囲を主に説明することとし、説明を省略する箇所については公知技術によるものとする。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. In the following, the range necessary for the description for achieving the object of the present invention is schematically shown, and the range necessary for the description of the relevant part of the present invention will be mainly described. It shall be based on a known technique.

初めに、本発明の実施の形態に係る学習対象としての、いわゆるバラ積みピッキングについて簡単に説明を行う。バラ済みピッキングとは、例えば図5に記載されているように、箱状のトレーTR内に複数のワークWが乱雑に積み重ねられ(バラ積みされ)、これを2次元撮像装置IDからの情報等に基づいてロボットハンドRによって1個(場合によっては複数個)ずつ把持・運搬するものである。このバラ積みピッキングに際しては、ロボットハンドRによってどのワークWのどの位置を把持するのかが、ピッキング作業を成功させるための極めて重要な要素である。そのため、当該位置を特定するために、従来から、例えば特許文献1に記載されたような3次元計測器を利用する等、様々な手法が検討されている。   First, a so-called bulk picking as a learning target according to the embodiment of the present invention will be briefly described. For example, as illustrated in FIG. 5, the separated picking includes a plurality of works W randomly stacked in a box-shaped tray TR (separated stacking), and this information is obtained from the two-dimensional imaging device ID. Is carried and carried one by one (or a plurality in some cases) by the robot hand R based on. At the time of this bulk picking, the position of which work W is gripped by the robot hand R is a very important factor for a successful picking operation. Therefore, in order to identify the position, various methods such as using a three-dimensional measuring device described in Patent Document 1 have been studied.

本発明者らは、上記バラ積みピッキングを、人手を要することなく実現するに際し、複雑で高コストな設備を新たに要することなく機械学習を実行する方法を種々検討した結果、構造が単純で安価な2次元撮像装置で取得可能な2次元撮像画像データを利用した機械学習に想到し、本発明に至ったものである。   The present inventors have studied various methods for performing machine learning without newly requiring complicated and expensive equipment in realizing the bulk picking without requiring any manpower, and as a result, the structure is simple and inexpensive. The present invention has conceived of machine learning using two-dimensional captured image data that can be acquired by a simple two-dimensional imaging device, and has led to the present invention.

ところで、例えば特許文献1に記載された機械学習装置は、ワークの配置やロボットの動作を実際に行うことで機械学習のための学習用データセット(以下、単に「データセット」ともいう。)を収集している。しかし、この方法では1つのデータセットを得るために、その都度一連の準備を必要とし、またロボットアームRの動作時間も必要であることから、比較的多くの時間を要する。データセットは複数個準備する必要があることから、結果として、十分な機械学習を実行するための準備に要する時間が長期となる傾向にある。本発明においても、既存の機械学習装置と同様、一般に学習用データセットの量に比例して高い精度の推論が可能な学習モデルが得られることから、このような高精度の推論が可能な学習モデルを得るためには学習用データセットはできるだけ多い方が好ましい。そこで、本発明の第1の実施の形態においては、この課題を解決する手段として、機械学習に際してシミュレータを用いる構成をさらに採用している。ただし、下記本発明の実施の形態において用いられるシミュレータを使用することなく、実際にワークの配置やロボットハンドの動作を実行することで複数のデータセットを取得するようにしても、本発明の主たる課題(ロボットハンドによるワークの把持・運搬動作の自動化を簡略な構成で実現すること)を解決できることは、当業者であれば容易に理解できることである。したがって、本発明においてはシミュレータの使用は任意である。   By the way, for example, the machine learning device described in Patent Literature 1 actually performs a work arrangement and a robot operation to generate a learning data set for machine learning (hereinafter, also simply referred to as a “data set”). Collecting. However, in this method, a series of preparations is required each time one data set is obtained, and the operation time of the robot arm R is also required, so that a relatively large amount of time is required. Since a plurality of data sets need to be prepared, as a result, the time required for preparation for executing sufficient machine learning tends to be long. In the present invention, as in the case of the existing machine learning device, a learning model capable of inferring with high accuracy is generally obtained in proportion to the amount of the learning data set. In order to obtain a model, it is preferable that the number of training data sets be as large as possible. Therefore, in the first embodiment of the present invention, as a means for solving this problem, a configuration using a simulator for machine learning is further adopted. However, even if a plurality of data sets are obtained by actually arranging the work and operating the robot hand without using the simulator used in the embodiment of the present invention described below, the main feature of the present invention is as follows. It can be easily understood by those skilled in the art that it is possible to solve the problem (realizing the automation of the gripping / transporting operation of the work by the robot hand with a simple configuration). Therefore, the use of a simulator is optional in the present invention.

<機械学習システム>
図1は、本発明の第1の実施の形態に係る機械学習システムを示す概略図である。この機械学習システム1は、シミュレータ2と、機械学習装置3とを含む。なお、シミュレータ2と機械学習装置3とは別々のコンピュータ等に内蔵されていても良いし、異なるコンピュータ等に内蔵されていても良い。
<Machine learning system>
FIG. 1 is a schematic diagram illustrating a machine learning system according to a first embodiment of the present invention. The machine learning system 1 includes a simulator 2 and a machine learning device 3. The simulator 2 and the machine learning device 3 may be built in separate computers or the like, or may be built in different computers or the like.

<シミュレータ>
シミュレータ2は、ユーザ等により予め指定された所定の条件の下でバラ積みピッキングを実施した場合の各種情報を得るための装置である。このシミュレータ2は、情報処理部21と、条件記憶部22と、二次元撮像画像データ取得部23と、3次元座標データ取得部24と、データセット生成部25と、送信部26とを含む。
<Simulator>
The simulator 2 is a device for obtaining various types of information when performing bulk picking under predetermined conditions specified in advance by a user or the like. The simulator 2 includes an information processing unit 21, a condition storage unit 22, a two-dimensional captured image data acquisition unit 23, a three-dimensional coordinate data acquisition unit 24, a data set generation unit 25, and a transmission unit 26.

情報処理部21は、後述する条件記憶部22に記憶された各種条件に基づいて3次元で構成される仮想の作業領域VWAを生成し、この仮想の作業領域VWA内に形成されたワークW及びロボットハンドR等の3次元のグラフィックモデルを内部で動作させることにより、バラ積みピッキングのシミュレート演算を実行するものである。仮想の作業領域VWAの設定条件は、この仮想の作業領域VWAが、後述する機械学習装置3により生成される学習済モデルが実際に適用される作業環境、例えば図5に示すような現実の作業領域RWAと同様の領域となるよう、設定されている。なお、具体的な演算手法自体についてはシミュレータの技術分野において実施されている周知の方法を用いることができるので、ここでは詳細な説明を省略する。また、図1においては、理解を容易にする目的で、情報処理部21において仮想される仮想の作業領域VWAを示している。このような仮想の作業領域VWAの3次元モデルは、必要に応じ、図示しない表示手段等を介してユーザに対して視認可能とすることができる。なお、シミュレーションの具体的な方法については上記の方法に限らず、シミュレータの技術分野において周知である他の方法を採用することも可能である。   The information processing unit 21 generates a three-dimensional virtual work area VWA based on various conditions stored in a condition storage unit 22, which will be described later, and generates a work W and a work W formed in the virtual work area VWA. By operating a three-dimensional graphic model of the robot hand R or the like inside, a simulation calculation of picking in bulk is executed. The setting condition of the virtual work area VWA is that the virtual work area VWA is a work environment in which a learned model generated by the machine learning device 3 described later is actually applied, for example, an actual work as shown in FIG. The area is set to be the same as the area RWA. It should be noted that a well-known method implemented in the technical field of a simulator can be used for a specific calculation method itself, and thus detailed description is omitted here. FIG. 1 shows a virtual work area VWA virtualized in the information processing unit 21 for the purpose of facilitating understanding. Such a three-dimensional model of the virtual work area VWA can be made visible to the user via display means (not shown) as necessary. Note that the specific method of the simulation is not limited to the above method, and it is also possible to adopt another method known in the technical field of the simulator.

条件記憶部22は、仮想の作業領域VWAを構築するための各種条件、例えばロボットハンドRの構造やワークWの形状、2次元撮像装置IDの画角等の情報を記憶するための記憶領域である。この条件記憶部22に記憶された各種条件は、ユーザ(オペレータ)により図示しない入力手段等を介して任意に設定されるものである。   The condition storage unit 22 is a storage area for storing various conditions for constructing the virtual work area VWA, for example, information such as the structure of the robot hand R, the shape of the work W, and the angle of view of the two-dimensional imaging device ID. is there. Various conditions stored in the condition storage unit 22 are arbitrarily set by a user (operator) via input means (not shown) or the like.

2次元撮像画像データ取得部23は、仮想の作業領域VWA内に設置された2次元撮像装置IDの3次元モデルによって撮像される2次元撮像画像データを取得するものである。ここで、2次元撮像装置IDの3次元モデルは、条件記憶部22に記憶された条件に基づいて配置や画角が定められており、例えば図1に示されているように、仮想の作業領域VWAの上方に、複数のワークWがバラ積みされたトレーTRの内部全体が漏れなく視認可能な画角で支持されている。本発明においては、2次元撮像装置ID(の3次元モデル)により取得されるデータが、特許文献1に記載されているような3次元計測器を用いた3次元データ等ではなく、構造が単純で比較的安価な1つのカメラ等でも取得可能な2次元撮像画像データである点が特徴的な構成の1つである。このように構造が単純で比較的安価なカメラ等からなる2次元撮像装置IDを1つのみ用いることで、簡単な構成によりバラ積みピッキングを実現でき、また、このような2次元撮像装置IDであれば既存の作業領域においても通常備えていることが多いため、これらを流用することが可能となり、結果、ほとんどの場合において、既存の作業領域内に本発明の技術を導入しようとする際には別途の設備投資を伴うことがない。   The two-dimensional captured image data acquisition unit 23 acquires two-dimensional captured image data captured by the three-dimensional model of the two-dimensional imaging device ID installed in the virtual work area VWA. Here, the arrangement and the angle of view of the three-dimensional model of the two-dimensional imaging device ID are determined based on the conditions stored in the condition storage unit 22. For example, as shown in FIG. Above the region VWA, the entire inside of the tray TR on which the plurality of works W are stacked in a bulk is supported at an angle of view that allows the tray TR to be visually recognized without leakage. In the present invention, the data acquired by (the three-dimensional model of) the two-dimensional imaging device ID is not three-dimensional data or the like using a three-dimensional measuring device as described in Patent Document 1, but has a simple structure. Is one of the characteristic configurations in that it is two-dimensional captured image data that can be acquired by a relatively inexpensive camera or the like. By using only one two-dimensional imaging device ID composed of a relatively inexpensive camera or the like, bulk picking can be realized with a simple configuration, and such a two-dimensional imaging device ID can be used. If there is, it is possible to divert these because it is often provided in the existing work area, and as a result, in most cases, when trying to introduce the technology of the present invention into the existing work area, Does not involve a separate capital investment.

3次元座標データ取得部24は、仮想の作業領域VWA内のロボットハンドRの3次元モデルが、同じく仮想の作業領域VWA内のワークWの1つ(場合によっては複数)の把持に成功したときのロボットハンドRの把持位置を表す3次元の座標データを取得するものである。ここで、3次元座標データとは、図1等に示すように、ロボットハンドRの前後方向をx、左右方向をy、上下方向をzとした場合の(x、y、z)座標を示すものである。なお、この座標表記の基準となる座標系としてはどのようなものを採用しても良く、例えばベース座標系や、ワールド座標系、カメラ座標系等を採用することができる。   The three-dimensional coordinate data acquisition unit 24 determines that the three-dimensional model of the robot hand R in the virtual work area VWA has successfully grasped one (or a plurality of) works W in the virtual work area VWA. 3D coordinate data representing the gripping position of the robot hand R of FIG. Here, the three-dimensional coordinate data indicates (x, y, z) coordinates when the front-back direction of the robot hand R is x, the left-right direction is y, and the up-down direction is z, as shown in FIG. Things. It should be noted that any reference coordinate system may be used, and a base coordinate system, a world coordinate system, a camera coordinate system, or the like may be employed.

データセット生成部25は、2次元撮像画像データ取得部23及び3次元座標データ取得部24がそれぞれ取得した2次元撮像画像データ及び3次元座標データを、共通するシミュレート演算結果として出力されたもの同士を1つのデータセットとして関連付けるためのものである。このデータセット生成部25は、データセットの生成のみならず、生成したデータセットの一時的な記憶等を行えるものとしても良い。   The data set generation unit 25 outputs the two-dimensional captured image data and the three-dimensional coordinate data acquired by the two-dimensional captured image data acquisition unit 23 and the three-dimensional coordinate data acquisition unit 24 as a common simulation calculation result. This is for associating each other as one data set. The data set generation unit 25 may perform not only generation of a data set but also temporary storage of the generated data set.

送信部26は、データセット生成部25によって生成されたデータセットを、後述する機械学習装置3のデータセット取得部31へ送信するためのものである。この送信の具体的な方法は、シミュレータ2と機械学習装置3との接続状態に合わせて適宜調整することができる。また、送信のタイミングについても、随時あるいは生成されたデータセットの数が所定数に達した時等、適宜設定することが可能である。   The transmission unit 26 is for transmitting the data set generated by the data set generation unit 25 to a data set acquisition unit 31 of the machine learning device 3 described below. The specific method of this transmission can be appropriately adjusted according to the connection state between the simulator 2 and the machine learning device 3. The transmission timing can also be set as appropriate, such as at any time or when the number of generated data sets reaches a predetermined number.

次に、図2を参照し、上述したシミュレータ2による一連のシミュレート演算の工程について以下に説明する。図2は、本発明の第1の実施の形態に係るシミュレータ2のシミュレート演算工程を示すフローチャートである。図2に示す通り、本発明の第1の実施の形態に係るシミュレータ2は、以下の工程を実行する。   Next, with reference to FIG. 2, a series of simulated calculation steps performed by the simulator 2 will be described below. FIG. 2 is a flowchart showing a simulated calculation process of the simulator 2 according to the first embodiment of the present invention. As shown in FIG. 2, the simulator 2 according to the first embodiment of the present invention executes the following steps.

シミュレータ2が起動しシミュレート演算の動作が開始すると、先ず、条件記憶部22に記憶された条件に基づいて、情報処理部21にてロボットハンドRの3次元グラフィックモデル等を含む仮想の作業領域VWAを生成する。そして、仮想の作業領域VWA内に予め定められた位置及び画角で設置された2次元撮像装置IDから撮像した2次元撮像画像データを生成する(ステップS11)。ここで生成された2次元撮像画像データは撮像データ取得部23で取得され(一時的に)格納される。2次元撮像画像データが生成されると、次に、この撮像されたトレーTR内のワークWに対してロボットハンドRの3次元モデルを動作させて、ワークWの把持動作に係るシミュレート演算を実行する(ステップS12)。ここで行われるシミュレート演算に際しては、バラ積みピッキングの技術分野において採用されている種々の方法を適用することが可能であることは特に留意すべき点である。詳しく言えば、例えば仮想の作業領域VWA内に特許文献1に記載されたような3次元計測器を配置し、当該3次元計測器の3次元データを利用したり、図示しない入力手段を利用したオペレータによるティーチングを部分的に利用したり、あるいは種々のセンサを利用したりすることが許容される。要するに、このシミュレータ2によるシミュレート演算工程において重要なことは、撮像されたトレーTR内にバラ積みされたワークWの把持に成功した際の各種データを取得することであるため、その手法は何ら限定されない。   When the simulator 2 is activated and the operation of the simulated calculation starts, first, based on the conditions stored in the condition storage unit 22, a virtual work area including a three-dimensional graphic model or the like of the robot hand R is processed by the information processing unit 21. Generate VWA. Then, two-dimensional captured image data captured from the two-dimensional imaging device ID installed at a predetermined position and angle of view in the virtual work area VWA is generated (step S11). The two-dimensional captured image data generated here is obtained (temporarily) stored in the captured data obtaining unit 23. When the two-dimensional captured image data is generated, next, the three-dimensional model of the robot hand R is operated on the workpiece W in the captured tray TR to perform a simulation operation related to the gripping operation of the workpiece W. Execute (step S12). It should be particularly noted that various methods adopted in the technical field of bulk picking can be applied to the simulation operation performed here. More specifically, for example, a three-dimensional measuring device as described in Patent Document 1 is arranged in a virtual working area VWA, and three-dimensional data of the three-dimensional measuring device is used, or input means (not shown) is used. Partial use of teaching by the operator or use of various sensors is permitted. In short, what is important in the simulation calculation process by the simulator 2 is to acquire various data when the workpieces W stacked in the imaged tray TR are successfully grasped. Not limited.

上述した把持動作の結果、把持が失敗した場合(ステップS13でNo)には、当該2次元撮像画像データは消去され(ステップS14)、再び2次元撮像画像データが生成し直される(ステップS11)。ステップS14において2次元撮像画像データが消去されるのと同じタイミングで、バラ積みされたワークWの配置をランダムに変更することができる。これにより、種々の配置のワークWに対するデータを取得することができる。なお、本実施例においては把持が失敗する毎に直近の2次元撮像画像データを削除した上、2次元撮像画像データを生成し直すこととしたが、2次元撮像画像データを削除及び生成し直すことなく(つまり、ステップS14及びその後のステップS11に示す処理を実行することなく)、シミュレート演算(ステップS12)を繰り返し実行しても良い。すなわち、把持動作が失敗した場合に、仮想の作業領域VWAにおけるワークWの配置を、直近に生成された2次元撮像画像データで撮像されたワークWの配置に戻したのち、引き続き把持動作を実行しても良い。   If the gripping operation fails as a result of the gripping operation described above (No in step S13), the two-dimensional captured image data is deleted (step S14), and two-dimensional captured image data is generated again (step S11). . At the same timing as when the two-dimensional captured image data is erased in step S14, the arrangement of the stacked works W can be changed at random. Thereby, data for the workpieces W in various arrangements can be obtained. In this embodiment, each time the gripping fails, the latest two-dimensional captured image data is deleted and the two-dimensional captured image data is regenerated. However, the two-dimensional captured image data is deleted and regenerated. The simulation calculation (step S12) may be repeatedly performed without performing (that is, without performing the processing shown in step S14 and the subsequent step S11). That is, when the gripping operation has failed, the gripping operation is continuously performed after the arrangement of the work W in the virtual work area VWA is returned to the arrangement of the work W captured by the two-dimensional captured image data generated most recently. You may.

上述した把持動作の結果、把持が成功した場合(ステップS13でYes)には、次に、把持した時点のロボットハンドRの3次元座標データを取得する(ステップS15)。3次元座標データを取得するロボットハンドRの具体的な部位は、任意に決定することが可能であるが、例えばロボットハンドRのエンドエフェクタ54(図5参照。)の重心位置P(図5参照。)の位置座標を、この3次元座標データとして取得することが可能である。   As a result of the gripping operation described above, when gripping is successful (Yes in step S13), next, three-dimensional coordinate data of the robot hand R at the time of gripping is acquired (step S15). The specific part of the robot hand R for acquiring the three-dimensional coordinate data can be arbitrarily determined. For example, the center of gravity position P (see FIG. 5) of the end effector 54 (see FIG. 5) of the robot hand R can be determined. ) Can be obtained as the three-dimensional coordinate data.

次に、データセット生成部25により、ステップS15で取得した3次元座標データと、ステップS11において2次元撮像画像データ取得部23で取得され格納された直近の2次元撮像画像データとを、1つのデータセットとして特定する(ステップS16)。これにより、ワークWの把持動作が成功した際のロボットハンドRの3次元座標データと、この把持動作が成功した際の把持動作開始前のワークWの状態を示す2次元撮像画像データとが1対1の関係で関連付けられ、データセットが生成される。そして、特定されたデータセットは、送信部26により機械学習装置3へ送信される(ステップS17)。   Next, the data set generation unit 25 converts the three-dimensional coordinate data acquired in step S15 and the latest two-dimensional captured image data acquired and stored in the two-dimensional captured image data acquisition unit 23 in step S11 into one It is specified as a data set (step S16). Thereby, the three-dimensional coordinate data of the robot hand R when the gripping operation of the workpiece W is successful and the two-dimensional captured image data indicating the state of the workpiece W before the start of the gripping operation when the gripping operation is successful are one. The data sets are generated in a one-to-one relationship. Then, the specified data set is transmitted to the machine learning device 3 by the transmission unit 26 (Step S17).

上述した一連のシミュレート演算工程は、後述する機械学習装置3において必要とされるデータセットの量に至るまで繰り返し実行される。しかし、一連のシミュレート演算工程はシミュレータ2内で実行される工程であるため、実際にロボットハンドRを動作させてデータセットを収集する場合に比べて極めて短時間で所望の数のデータセットの収集が可能である。また、シミュレータ2内のロボットハンドR等の3次元モデルは当然ながら経年劣化しないため、安定した環境でデータの収集を実施することができる。   The above-described series of simulation calculation steps is repeatedly executed until the amount of data sets required in the machine learning device 3 described later. However, since a series of simulation operation steps are executed in the simulator 2, a desired number of data sets can be obtained in an extremely short time as compared with a case where the robot hand R is actually operated to collect data sets. Collection is possible. Since the three-dimensional model of the robot hand R and the like in the simulator 2 does not deteriorate over time, data collection can be performed in a stable environment.

<機械学習装置>
次に、シミュレータ2により生成されたデータセットを用いて機械学習を行う機械学習装置3について、以下説明を行う。機械学習装置3は、図1に示すように、データセット取得部31と、データセット記憶部32と、学習部33と、学習済モデル記憶部34とを含む。
<Machine learning device>
Next, a machine learning device 3 that performs machine learning using a data set generated by the simulator 2 will be described below. The machine learning device 3 includes a data set acquisition unit 31, a data set storage unit 32, a learning unit 33, and a learned model storage unit 34, as shown in FIG.

データセット取得部31は、シミュレータ2の送信部26から送信されたデータセットを取得するものである。送信部26とデータセット取得部31との接続関係については適宜変更可能であり、有線又は無線通信を介してローカルに、あるいはインターネットを介して接続していても良いし、携帯可能な記憶媒体を介してデータ送信が行われるものであってもよい。   The data set acquisition unit 31 acquires a data set transmitted from the transmission unit 26 of the simulator 2. The connection relationship between the transmission unit 26 and the data set acquisition unit 31 can be changed as appropriate, and may be connected locally via wired or wireless communication or via the Internet. Data transmission may be performed via the Internet.

データセット記憶部32は、データセット取得部31で取得したデータセットを記憶するための記憶領域である。   The data set storage unit 32 is a storage area for storing the data sets acquired by the data set acquisition unit 31.

学習部33は、データセット記憶部32に記憶された複数組のデータセットを教師データとして機械学習を実行するものである。また、学習済モデル記憶部34は、学習部33で生成された学習済モデルを記憶するための記憶領域である。学習部33で実行される機械学習について、以下に説明する。   The learning section 33 executes machine learning using a plurality of data sets stored in the data set storage section 32 as teacher data. The learned model storage unit 34 is a storage area for storing the learned model generated by the learning unit 33. The machine learning executed by the learning unit 33 will be described below.

図3は、本発明の第1の実施の形態に係る機械学習装置において実施される教師あり学習のためのニューラルネットワークモデルの例を示す図である。図3に示すニューラルネットワークモデルにおけるニューラルネットワークは、入力層にあるl個のニューロン(x1〜xl)、第1中間層にあるm個のニューロン(y11〜y1m)、第2中間層にあるn個のニューロン(y21〜y2n)、及び出力層にある3個のニューロン(z1〜z3)から構成されている。第1中間層及び第2中間層は、隠れ層とも呼ばれており、ニューラルネットワークとしては、第1中間層及び第2中間層の他に、さらに複数の隠れ層を有するものであってもよく、あるいは第1中間層のみを隠れ層とするものであってもよい。   FIG. 3 is a diagram illustrating an example of a neural network model for supervised learning performed in the machine learning device according to the first embodiment of the present invention. The neural network in the neural network model shown in FIG. 3 includes l neurons (x1 to xl) in an input layer, m neurons (y11 to y1m) in a first intermediate layer, and n neurons in a second intermediate layer. , And three neurons (z1 to z3) in the output layer. The first intermediate layer and the second intermediate layer are also called hidden layers, and the neural network may have a plurality of hidden layers in addition to the first intermediate layer and the second intermediate layer. Alternatively, only the first intermediate layer may be used as the hidden layer.

また、入力層と第1中間層との間、第1中間層と第2中間層との間、第2中間層と出力層との間には、層間のニューロンを接続するノードが張られており、それぞれのノードには、重みwi(iは自然数)が対応づけられている。   Nodes connecting neurons between the layers are provided between the input layer and the first intermediate layer, between the first intermediate layer and the second intermediate layer, and between the second intermediate layer and the output layer. Each node is associated with a weight wi (i is a natural number).

本実施の形態に係るニューラルネットワークモデルにおけるニューラルネットワークは、データセット記憶部32内に記憶された複数組のデータセットを用いて、2次元撮像画像データと3次元座標データとの相関関係を学習する。具体的には、2次元撮像画像データを複数のデータに分割し、分割した複数のデータを状態変数として、各状態変数と入力層のニューロンを対応付け、出力層にあるニューロンの値を、一般的なニューラルネットワークの出力値の算出方法、つまり、出力側のニューロンの値を、当該ニューロンに接続される入力側のニューロンの値と、出力側のニューロンと入力側のニューロンとを接続するノードに対応づけられた重みwiとの乗算値の数列の和として算出することを、入力層にあるニューロン以外の全てのニューロンに対して行う方法を用いることで、算出する。なお、状態変数を入力層のニューロンに対応付けるに際し、状態変数として取得した情報をどのような形式として対応付けるかは、生成される学習済モデルの精度等を考慮して適宜設定することができる。例えば、2次元撮像画像データを状態変数として入力層に対応付けるに際し、画像データをビット単位で分割した上で、分割された各ビットの色値(例えばRGB値)情報を入力層にそれぞれ対応付けることができる。   The neural network in the neural network model according to the present embodiment learns the correlation between two-dimensional captured image data and three-dimensional coordinate data using a plurality of data sets stored in the data set storage unit 32. . Specifically, the two-dimensional captured image data is divided into a plurality of data, and the plurality of divided data are used as state variables, each state variable is associated with a neuron in an input layer, and a value of a neuron in an output layer is generally used. Method of calculating the output value of a typical neural network, that is, the value of the output side neuron is connected to the value of the input side neuron connected to the neuron and the node connecting the output side neuron and the input side neuron. The calculation as the sum of the sequence of the multiplied values with the associated weights wi is performed by using a method for all the neurons other than the neurons in the input layer. When associating the state variables with the neurons in the input layer, the form in which the information acquired as the state variables is associated can be appropriately set in consideration of the accuracy of the generated learned model and the like. For example, when associating the two-dimensional captured image data with the input layer as a state variable, it is possible to divide the image data in bit units and associate the color value (eg, RGB value) information of each divided bit with the input layer. it can.

そして、算出された出力層にある3つのニューロンz1〜z3の値、すなわち本実施の形態においてはロボットハンドRの3次元座標データと、データセット内の、同じくロボットハンドRの3次元座標データからなる教師データt1〜t3とを、それぞれ比較して誤差を求め、求められた誤差が小さくなるように、各ノードに対応づけられた重みwiを調整する(バックプロバケーション)ことを反復する。   Then, from the calculated values of the three neurons z1 to z3 in the output layer, that is, in this embodiment, the three-dimensional coordinate data of the robot hand R and the three-dimensional coordinate data of the robot hand R in the data set. The teacher data t1 to t3 are compared with each other to determine an error, and the adjustment of the weight wi associated with each node (back pro vacation) is repeated so that the obtained error is reduced.

そして、上述した一連の工程を所定回数反復実施すること、あるいは前記誤差が許容値より小さくなること等の所定の条件が満たされた場合には、学習を終了して、そのニューラルネットワークモデル(のノードのそれぞれに対応づけられた全ての重みwi)を学習済モデルとして学習済モデル記憶部34に記憶する。   Then, when a predetermined condition such as repeating the series of steps described above a predetermined number of times or that the error is smaller than an allowable value is satisfied, the learning is terminated and the neural network model (of the All weights wi) associated with each of the nodes are stored in the learned model storage unit 34 as a learned model.

学習済モデル記憶部34に記憶された学習済モデルは、要求に応じて、インターネット等の通信手段や記憶媒体を介して実システムへ適用される。実システム(データ処理システム)に対する学習済モデルの具体的な適用態様については、後に詳述する。   The learned model stored in the learned model storage unit 34 is applied to an actual system via a communication means such as the Internet or a storage medium as required. A specific application mode of the learned model to an actual system (data processing system) will be described later in detail.

<機械学習方法>
上述の機械学習装置3に関連して、本発明は、機械学習方法をも提供する。図4は、本発明の第1の実施の形態に係る機械学習方法を示すフローチャートである。この機械学習方法はコンピュータを用いることで実現されるものであるが、コンピュータとしてはパーソナルコンピュータやサーバ装置等、種々のものが適用可能である。
<Machine learning method>
In relation to the machine learning device 3 described above, the present invention also provides a machine learning method. FIG. 4 is a flowchart illustrating the machine learning method according to the first embodiment of the present invention. This machine learning method is realized by using a computer, but various types of computers such as a personal computer and a server device can be applied.

本発明に係る機械学習方法としての教師あり学習を実行する場合には、先ず、任意の初期値の重みを備えた学習前モデルを準備する(ステップS21)。次いで、データセット記憶部32に記憶された複数組のデータセットのうちの1つを取得し(ステップS22)、取得したデータセットのうちの2次元撮像画像データを学習前モデルの入力層x1〜xl(図3参照。)に対応付けて出力層z1〜z3(図3参照。)を生成する(ステップS23)。   When performing supervised learning as a machine learning method according to the present invention, first, a pre-learning model having an arbitrary initial value weight is prepared (step S21). Next, one of the plurality of data sets stored in the data set storage unit 32 is acquired (step S22), and the two-dimensional captured image data of the acquired data sets is input to the input layers x1 to x1 of the pre-learning model. xl (see FIG. 3) and output layers z1 to z3 (see FIG. 3) are generated (step S23).

ここで、ステップS23において生成された出力層を構成する3次元座標データは、学習前モデルによって生成されたものであるため、ほとんどの場合、ユーザの要求を満たす、すなわちワークWを把持できるような座標データではない。そこで、次に、ステップS22において取得された1つのデータセットのうちの3次元座標データとステップS23において生成された出力層を構成する3次元座標データとを用いて、機械学習を実施する(ステップS24)。ここで行う機械学習とは、データセットのうちの3次元座標データと出力層を構成する3次元座標データとを比較し、両者の誤差を検出し、この誤差が小さくなるような出力層が得られるよう、学習前モデル内の各ノードに対応付けられた重みを調整することによる機械学習(バックプロバケーション)を実施するものである。   Here, since the three-dimensional coordinate data constituting the output layer generated in step S23 is generated by the pre-learning model, the three-dimensional coordinate data almost always satisfies the user's request, that is, can grasp the work W. Not coordinate data. Therefore, next, machine learning is performed using the three-dimensional coordinate data of the one data set acquired in step S22 and the three-dimensional coordinate data constituting the output layer generated in step S23 (step S23). S24). The machine learning performed here means comparing the three-dimensional coordinate data of the data set with the three-dimensional coordinate data constituting the output layer, detecting an error between the two, and obtaining an output layer in which the error is reduced. For example, machine learning (back pro vacation) is performed by adjusting weights associated with each node in the pre-learning model.

ステップS24において機械学習が実施されると、さらに機械学習を継続する必要があるか否かを特定し(ステップS25)、機械学習を継続する場合(ステップS25でNo)にはステップS22に戻り、機械学習を終了する場合(ステップS25でYes)には、ステップS26に移る。機械学習を継続する場合(ステップS25でNo)には、上述したステップS22〜S24の工程を複数回、例えばデータセット記憶部32内に記憶された全てのデータセットの数と同じ回数実施することとなる。通常は、その回数に比例して、最終的に生成される学習済モデルの精度は高くなる。   When machine learning is performed in step S24, it is determined whether or not it is necessary to continue machine learning (step S25). If machine learning is to be continued (No in step S25), the process returns to step S22. When ending the machine learning (Yes in step S25), the process proceeds to step S26. If machine learning is to be continued (No in step S25), the above-described steps S22 to S24 are performed a plurality of times, for example, the same number of times as the number of all data sets stored in the data set storage unit 32. Becomes Usually, the accuracy of the finally generated learned model increases in proportion to the number of times.

機械学習を終了する場合(ステップS25でYes)には、学習モデルの各ノードに対応付けられた重みが一連の工程によって調整され生成されたニューラルネットワークを学習済モデルとして学習済モデル記憶部34に記憶し(ステップS26)、一連の学習プロセスを終了する。ここで記憶された学習済モデルが、後述する種々のデータ処理システムに適用され使用される。   If the machine learning is to be ended (Yes in step S25), the neural network generated by adjusting the weight associated with each node of the learning model through a series of steps is stored in the learned model storage unit 34 as a learned model. This is memorized (step S26), and the series of learning processes ends. The learned model stored here is applied to and used in various data processing systems described later.

上述した機械学習装置の学習プロセス及び機械学習方法においては、1つの学習済モデルを生成するために、1つのニューラルネットワーク(学習前モデル)に対して複数回の機械学習処理を繰り返し実行することで学習モデルを学習し、データ処理システムに適用可能な程度までその精度を向上させた学習済モデルを生成するものを説示しているが、本発明はこのような取得方法に限定されない。例えば、所定回数の機械学習を実施した学習済モデルを一候補として複数個学習済モデル記憶部34に格納しておき、この複数個の学習済モデル群に、妥当性判断用のデータセットを入力して(対応付けて)出力層(のニューロンの値)を生成し、出力層で特定された3次元座標データとデータセット内の3次元座標データとを比較検討して、データ処理システムに適用する最良の学習済モデルを1つ選定するようにしてもよい。なお、ここで用いられる妥当性判断用のデータセットは、学習に用いたデータセットと同様に2次元撮像画像データと3次元座標データを有し、且つ異なるデータからなるものであればよい。   In the learning process and the machine learning method of the machine learning device described above, in order to generate one learned model, a plurality of machine learning processes are repeatedly performed on one neural network (model before learning). Although a learning model is learned and a learned model whose accuracy is improved to an extent applicable to the data processing system is generated, the present invention is not limited to such an acquisition method. For example, a plurality of trained models that have undergone machine learning for a predetermined number of times are stored as one candidate in the trained model storage unit 34, and a data set for validity determination is input to the plurality of trained model groups. Generate (in association with) the output layer (the value of the neuron), compare the three-dimensional coordinate data specified in the output layer with the three-dimensional coordinate data in the data set, and apply the data processing system. The best learned model to be performed may be selected. Note that the data set for determining validity used here may have two-dimensional captured image data and three-dimensional coordinate data and be different data, similarly to the data set used for learning.

以上説明した通り、上述した機械学習装置3の学習プロセス及び機械学習方法により生成された学習済モデルは、一連の工程から理解できるとおり、2次元撮像装置IDにより撮像された2次元撮像画像データが入力されると、ロボットハンドRの1つの3次元座標データを出力することができる。つまり、この学習済モデルを用いて、バラ積みピッキングを人手を要することなく実現可能なデータ処理システムを提供する際には、入力層への入力データは2次元撮像画像データのみでよい。したがって、この学習済モデルを用いたデータ処理システムにあっては、3次元計測器等の複雑な装置を要しないため、バラ積みピッキングを簡略な構成で実現でき、ひいては低コストで技術導入を実現できる。また、機械学習に用いるデータセットの生成にシミュレータ2を用いることで、大量のデータセットを短期間で収集することが可能となり、所望の学習済モデルを短時間で生成することができる。   As described above, the learned model generated by the learning process and the machine learning method of the machine learning device 3 described above includes two-dimensional captured image data captured by the two-dimensional imaging device ID as can be understood from a series of steps. When input, one three-dimensional coordinate data of the robot hand R can be output. In other words, when providing a data processing system capable of realizing bulk picking without requiring any human hands using this trained model, the input data to the input layer may be only two-dimensional captured image data. Therefore, in the data processing system using the trained model, since a complicated device such as a three-dimensional measuring device is not required, bulk picking can be realized with a simple configuration, and the technology can be introduced at low cost. it can. Further, by using the simulator 2 to generate a data set used for machine learning, a large amount of data set can be collected in a short period of time, and a desired learned model can be generated in a short time.

なお、学習済モデルの入力層に対応付ける状態変数を2次元撮像画像データのみと述べたが、この2次元撮像画像データをどのような形式で入力層に対応付けるかについては適宜調整が可能である。例えば2次元撮像装置IDによる撮像された2次元撮像画像データの原データを、入力層に対応付けるために所定の前処理を実行して適宜調整することが可能である。また、本発明の機械学習装置における状態変数は、生成される学習済モデルに直接影響する重要な要素であるが、本発明の機械学習装置等における状態変数を、上述の2次元撮像画像データのみに特定し、他のデータの利用を完全に排除することを意図しているわけではない。例えば、生成される学習済モデルへの影響が、上述の実施の形態において採用したデータに比して十分に小さいデータが状態変数として追加された機械学習装置等は、実質的に本発明の技術思想を逸脱するものではないから、本発明の技術的範囲に包含されるといえる。   Although the state variables associated with the input layer of the trained model are described as only the two-dimensional captured image data, the form in which the two-dimensional captured image data is associated with the input layer can be appropriately adjusted. For example, it is possible to appropriately adjust the original data of the two-dimensional captured image data captured by the two-dimensional imaging device ID by executing a predetermined preprocessing in order to associate the data with the input layer. The state variable in the machine learning device of the present invention is an important factor that directly affects the generated learned model. However, the state variable in the machine learning device or the like of the present invention is changed only by the above-described two-dimensional captured image data. And is not intended to completely exclude the use of other data. For example, a machine learning apparatus or the like in which data that has a sufficiently small effect on the generated learned model compared to the data used in the above-described embodiment is added as a state variable is substantially equivalent to the technology of the present invention. Since it does not deviate from the idea, it can be said that it is included in the technical scope of the present invention.

さらに、本実施の形態に係る機械学習方法は、当該機械学習方法により得られる学習済モデルを適用する現実の作業領域の変更に伴って逐次実行することが好ましい。バラ積みピッキングの把持成功率はワークの形状や2次元撮像装置の画角、ロボットハンドの機能等に大きく依存するものであり、例えばワークの形状のみが変更した場合でも変更前後で学習済モデルを変更しないと把持成功率は著しく低下する場合が多いためである。この場合においても、本発明の第1の実施の形態に係る機械学習システムはシミュレータを用いるため、新たな学習済モデルを生成する際にはシミュレータ及び機械学習装置を再度動作させるだけでよい。したがって、ユーザは新たな学習済モデルを得るための時間やコストを気にすることなく機械学習による学習済モデルの生成を実施することができ、最適な学習済モデルを常に短時間且つ低コストで利用することが可能となる。   Further, it is preferable that the machine learning method according to the present embodiment be sequentially executed in accordance with a change in an actual work area to which a learned model obtained by the machine learning method is applied. The gripping success rate of bulk picking largely depends on the shape of the work, the angle of view of the two-dimensional imaging device, the function of the robot hand, etc. For example, even if only the shape of the work is changed, the learned model before and after the change If not changed, the success rate of grasping often decreases significantly. Also in this case, since the machine learning system according to the first embodiment of the present invention uses a simulator, it is only necessary to operate the simulator and the machine learning device again when generating a new learned model. Therefore, the user can execute the generation of the learned model by machine learning without worrying about the time and cost for obtaining a new learned model, and can always obtain the optimal learned model in a short time and at low cost. It can be used.

<データ処理システム>
次に、本発明の第1の実施の形態に係るデータ処理システムについて説明を行う。このデータ処理システムは、上述した機械学習システム、機械学習装置あるいは機械学習方法により生成された学習済モデルを用いて、現実の作業領域におけるバラ積みピッキングを、人手を要することなく実現するためのシステムを構成している。当該データ処理システムは、具体的には、図5に記載されているようなロボットハンドR等を制御するためのロボットコントローラ100に適用される。
<Data processing system>
Next, a data processing system according to the first embodiment of the present invention will be described. This data processing system uses a machine learning system, a machine learning device or a learned model generated by a machine learning method described above to realize bulk picking in a real work area without human intervention. Is composed. The data processing system is specifically applied to a robot controller 100 for controlling a robot hand R and the like as shown in FIG.

図5は、本発明の第1の実施の形態に係るデータ処理システムが適用される現実の作業領域を示した概略図である。図5に示す通り、現実の作業領域RWAにおける各種構成の構造及び配置については、上述したシミュレータ内で生成される仮想の作業領域VWAで規定されている構造及び配置と同一であることは特に留意すべきである。これらが同一であることは、機械学習システム1を用いて機械学習を行う際に、現実の作業領域RWAに関する情報を収集し、この情報をシミュレータ2における条件として取得し、条件記憶部22内に記憶して、仮想の作業領域VWAを生成する際に参照したことに起因する。このように現実の作業領域RWAと仮想の作業領域VWAとを同一とすることによって、仮想の作業領域RWAを基準として機械学習が行われて生成された学習済モデルが、現実の作業領域RWAにおいて極めて有効に動作できるものとなる。   FIG. 5 is a schematic diagram showing an actual work area to which the data processing system according to the first embodiment of the present invention is applied. As shown in FIG. 5, it is particularly noted that the structures and arrangements of various components in the actual work area RWA are the same as the structures and arrangements defined in the virtual work area VWA generated in the simulator described above. Should. The fact that these are the same means that when performing machine learning using the machine learning system 1, information about the actual work area RWA is collected, this information is acquired as a condition in the simulator 2, and the information is stored in the condition storage unit 22. This is caused by storing and referencing when generating the virtual work area VWA. In this way, by making the real work area RWA and the virtual work area VWA the same, the learned model generated by performing the machine learning based on the virtual work area RWA can be used in the real work area RWA. It can operate very effectively.

現実の作業領域RWAには、主に、トレーTRと、複数個のワークWと、2次元撮像装置IDと、ロボットハンドRと、ロボットコントローラ100とが配されている。   In the actual work area RWA, a tray TR, a plurality of works W, a two-dimensional imaging device ID, a robot hand R, and a robot controller 100 are mainly arranged.

トレーTRは、箱型の形状からなり、内部に複数個のワークWを収容し、上部に形成された開口からワークWへのアクセスが可能となったものである。なお、トレーTRの形状については何ら限定されるものではなく、例えば周壁が上方に向かって広がるテーパ形状となっているものや、周壁がワークWと比較して十分に低いもの等が採用できる。   The tray TR has a box shape, accommodates a plurality of works W therein, and allows access to the works W from an opening formed at an upper portion. The shape of the tray TR is not limited at all. For example, a shape in which the peripheral wall has a tapered shape spreading upward and a shape in which the peripheral wall is sufficiently lower than the work W can be adopted.

複数個のワークWは、所定の形状を備え、トレーTR内に乱雑に配置されている。ワークWとしては、種々の機械部品等が適用できるため、その形状についても種々の形状が想定できるが、図5においては直方体形状を備えたワークWを例示している。   The plurality of works W have a predetermined shape and are randomly arranged in the tray TR. Since various mechanical parts and the like can be applied to the work W, various shapes can be assumed for the shape. FIG. 5 illustrates the work W having a rectangular parallelepiped shape.

2次元撮像装置IDは、2次元撮像画像データで取得可能な撮像装置であって、例えばネットワークに接続して撮影した2次元撮像画像データを当該ネットワークへ送出することができる1台のWEBカメラによって実現されるものである。この2次元撮像装置IDは、トレーTRの斜め上方位置に固定され且つトレーTRの内部全体が漏れなく撮像できる画角に設定されている。   The two-dimensional imaging device ID is an imaging device that can be acquired as two-dimensional imaging image data. For example, the two-dimensional imaging device ID is connected to a network by one WEB camera that can transmit two-dimensional imaging image data to the network. It is realized. The two-dimensional imaging device ID is fixed at a position obliquely above the tray TR and is set to an angle of view that allows the entire inside of the tray TR to be imaged without leakage.

ロボットハンドRは、トレーTRの近傍に配置され、トレーTR内のワークWを把持するものである。本実施の形態においてはロボットハンドRの一例として垂直多関節ロボットについて説明を行うが、ロボットの種類については何ら限定されるものではない。例えば水平多関節ロボットやパラレルリンクロボット、直交座標ロボット、円筒座標ロボット等、バラ積みピッキングに適用可能なロボットであれば適宜採用することができる。   The robot hand R is disposed near the tray TR, and holds the work W in the tray TR. In the present embodiment, a vertical articulated robot will be described as an example of the robot hand R, but the type of the robot is not limited at all. For example, any robot applicable to picking in bulk, such as a horizontal articulated robot, a parallel link robot, a rectangular coordinate robot, or a cylindrical coordinate robot, can be adopted as appropriate.

このロボットハンドRは、ベース51と、下リンクアーム52と、上リンクアーム53と、エンドエフェクタ54と、複数のジョイント55〜57とから構成される。これらで構成されるロボットハンドRは、軸数が6(ベース部51の旋回θ、各ジョイント55〜57の回転θ〜θ、上リンクアームの旋回θ及びエンドエフェクタ54の旋回θ)である。また、エンドエフェクタ54には、例えばグリッパを適用することが可能であるが、ワークWの形状等を考慮して適宜変更することができ、例えば多指ハンドや吸着タイプのもの等を採用することも可能である。その他、ロボットハンドRの詳細な構成については、周知の垂直多関節ロボットの構成を採用可能であるので、ここでは説明を省略する。 The robot hand R includes a base 51, a lower link arm 52, an upper link arm 53, an end effector 54, and a plurality of joints 55 to 57. The robot hand R composed of these components has six axes (the rotation θ 1 of the base portion 51, the rotations θ 2 to θ 4 of the joints 55 to 57, the rotation θ 5 of the upper link arm, and the rotation θ of the end effector 54). 6 ). Further, for example, a gripper can be applied to the end effector 54, but the end effector 54 can be appropriately changed in consideration of the shape of the work W, and for example, a multi-finger hand, a suction type, or the like may be used. Is also possible. In addition, as for the detailed configuration of the robot hand R, since the configuration of a well-known vertical articulated robot can be adopted, the description is omitted here.

ロボットコントローラ100は、ロボットハンドR及び2次元撮像装置IDに接続されてこれらを制御するためのものである。このロボットコントローラ100は、2次元撮像装置制御部110と、ロボットハンド制御部120と、主記憶部130と、推論部140とを含む。   The robot controller 100 is connected to and controls the robot hand R and the two-dimensional imaging device ID. The robot controller 100 includes a two-dimensional imaging device control unit 110, a robot hand control unit 120, a main storage unit 130, and an inference unit 140.

2次元撮像装置制御部110は、本発明のデータ処理システムにおける取得部に対応する構成であって、2次元撮像装置IDを制御して所望のタイミングで2次元撮像画像データを取得するためのものである。この2次元撮像装置制御部110により取得された2次元撮像画像データは、後述する推論部120に送られて学習済モデルの入力層に対応付けられる。   The two-dimensional imaging device control unit 110 has a configuration corresponding to the acquisition unit in the data processing system of the present invention, and controls the two-dimensional imaging device ID to acquire two-dimensional imaging image data at a desired timing. It is. The two-dimensional captured image data acquired by the two-dimensional imaging device control unit 110 is sent to the inference unit 120 described below, and is associated with the input layer of the learned model.

ロボットハンド制御部120は、後述する推論部140により特定された3次元座標データに基づいてロボットハンドRの各軸を動作させることで、ワークWの把持を行うべくロボットハンドRを制御するためのものである。   The robot hand control unit 120 controls the robot hand R to grip the work W by operating each axis of the robot hand R based on three-dimensional coordinate data specified by the inference unit 140 described below. Things.

主記憶部130は、現実の作業領域RWAにおいてワークWのピッキング作業を実現するための種々のデータを格納しておくための記憶領域であり、その内部には少なくとも学習済モデル格納部131を備えている。学習済モデル格納部131は、上述した本発明の第1の実施の形態に係る機械学習システム、機械学習装置及び機械学習方法を経て生成された学習済モデルを格納するための記憶領域である。この学習済モデル格納部131内には、現実の作業領域RWAの環境変化に合わせて逐次作成された複数の学習済モデルが格納されていることが好ましく、この場合には、後述する推論部140においては、現実の作業領域RWAの状況に合わせてこれら複数の学習済モデルから適当なものを選択・使用することができる。   The main storage unit 130 is a storage area for storing various data for realizing the picking work of the work W in the actual work area RWA, and includes at least a learned model storage unit 131 therein. ing. The trained model storage unit 131 is a storage area for storing a trained model generated through the machine learning system, the machine learning device, and the machine learning method according to the above-described first embodiment of the present invention. It is preferable that the learned model storage unit 131 stores a plurality of learned models sequentially created in accordance with a change in the environment of the actual work area RWA. In this case, an inference unit 140 described later is used. In, an appropriate model can be selected and used from the plurality of learned models according to the actual situation of the work area RWA.

推論部140は、2次元撮像装置制御部110により取得された2次元撮像画像データと、学習済モデル格納部131内の1つの学習済モデルとを用いて、ロボットハンドRの所望の3次元座標データを推論するものである。詳しくは、現実の作業領域RWAの状況に則した学習済モデルを学習済モデル格納部131内から参照し、2次元撮像装置制御部110により取得された2次元撮像画像データを、この参照した1つの学習済モデルの入力層に対応付けることで、出力層にワークWを把持可能なロボットハンドRの3次元座標データを出力するものである。   The inference unit 140 uses the two-dimensional captured image data acquired by the two-dimensional imaging device control unit 110 and one learned model in the learned model storage unit 131 to obtain desired three-dimensional coordinates of the robot hand R. Infer data. In detail, the learned model according to the situation of the actual work area RWA is referred to from the learned model storage unit 131, and the two-dimensional captured image data acquired by the two-dimensional imaging device control unit 110 is referred to by the reference 1 The three-dimensional coordinate data of the robot hand R capable of gripping the workpiece W is output to the output layer by associating the three hands with the input layer of the learned models.

以上の構成を備えるロボットコントローラ100を制御してワークWのピッキングを行う場合の一連の工程について、図5及び図6を参照して以下に説明する。図6は、本発明の第1の実施の形態に係る現実の作業領域におけるバラ積みピッキング工程を示すフローチャートである。   A series of steps when picking the work W by controlling the robot controller 100 having the above configuration will be described below with reference to FIGS. FIG. 6 is a flowchart illustrating the bulk picking process in the actual work area according to the first embodiment of the present invention.

図5に示す現実の作業領域RWAにおいて、バラ積みピッキング動作が開始されると、初めに、2次元撮像装置制御部110により撮像装置IDが動作されてトレーTR内を撮像した2次元撮像画像データが取得される(ステップS31)。次いで、推論部140が、図示しない入力手段からのオペレータによる入力情報や、主記憶部130に格納された2次元撮像装置ID及びロボットハンドRに関する機能情報等に基づいて、学習済モデル格納部131に格納された1乃至複数の学習済モデルから1つの学習済モデルを特定する(ステップS32)。   In the actual work area RWA shown in FIG. 5, when the bulk picking operation is started, first, the imaging device ID is operated by the two-dimensional imaging device control unit 110, and two-dimensional image data obtained by imaging the inside of the tray TR. Is obtained (step S31). Next, the inference unit 140 uses the learned model storage unit 131 based on the input information from the operator from the input unit (not shown), the two-dimensional imaging device ID stored in the main storage unit 130, and the function information on the robot hand R. One learned model is specified from one or a plurality of learned models stored in (step S32).

学習済モデルが特定されると、推論部140はこの特定された学習済モデルを参照し、当該学習済モデルの入力層に、ステップS31において2次元撮像装置制御部110が取得した2次元撮像画像データを対応付け、学習済モデルを用いた推論(データ処理)を実行し、出力層としてワークWを把持可能なロボットハンドRの一の3次元座標データを出力する(ステップS33)。この出力された3次元座標データはロボットハンド制御部120に送られ、ロボットハンド制御部120はこの3次元座標データが示す位置にロボットハンドRの所定部位(例えばエンドエフェクタ54の重心位置P)を位置させるべく、ロボットハンドの6つの軸を駆動させてワークWの把持を試みる(ステップS34)。なお、ワークWを把持した後にどのような動作(運搬等)を行うかについては、その制御自体は比較的簡単なものであるため、ロボットハンド制御部120に適宜設定しておけば機械学習等を要することなく実現できる。よって本発明においてはワークWを把持した後の作業については説明を省略する。   When the learned model is specified, the inference unit 140 refers to the specified learned model, and in the input layer of the learned model, the two-dimensional captured image acquired by the two-dimensional imaging device control unit 110 in step S31. The data is correlated, inference (data processing) using the learned model is executed, and three-dimensional coordinate data of one of the robot hands R capable of holding the work W is output as an output layer (step S33). The output three-dimensional coordinate data is sent to the robot hand control unit 120, and the robot hand control unit 120 places a predetermined part of the robot hand R (for example, the center of gravity P of the end effector 54) at the position indicated by the three-dimensional coordinate data. The six axes of the robot hand are driven to try to grip the workpiece W (step S34). It should be noted that since what kind of operation (transportation, etc.) is performed after gripping the work W is relatively simple, if it is appropriately set in the robot hand control unit 120, machine learning or the like can be performed. It can be realized without requiring. Therefore, in the present invention, the description of the work after gripping the work W is omitted.

以上説明した通り、本発明の第1の実施の形態に係るデータ処理システムを適用したバラ積みピッキングにおいては、単純な構造のカメラ等からなる2次元撮像装置IDが撮像した画像データのみからワークWを把持可能なロボットハンドRの3次元座標データを推論することができるため、人手を要することのないバラ積みピッキングを簡略な構成で実現することができる。なお、上記第1の実施の態様において、ステップS34において把持を試みた結果を認識し、当該結果とその時に推論部140において用いた2次元撮像画像データと推論部140が出力した3次元座標データとを、学習用データセットとして活用すると更に好ましい。この場合は、ロボットコントローラ100の内部あるいは外部に上述した機械学習装置3を設け、この機械学習装置3で前記学習用データセットを用いて機械学習を実行し、結果として得られた学習済モデルに学習済モデル格納部131内のデータを更新すればよい。このようにすれば、仮想の作業領域VWAを用いた把持結果のみならず、現実の作業領域RWAでの把持結果をも学習に用いることができ、学習済モデルの精度をさらに向上させることができる。   As described above, in the bulk picking to which the data processing system according to the first embodiment of the present invention is applied, the work W is performed only from the image data captured by the two-dimensional imaging device ID including a camera having a simple structure. Since it is possible to infer the three-dimensional coordinate data of the robot hand R capable of holding the object, it is possible to realize the bulk picking that does not require human labor with a simple configuration. In the first embodiment, the result of the gripping attempt in step S34 is recognized, and the result, the two-dimensional captured image data used by the inference unit 140 at that time, and the three-dimensional coordinate data output by the inference unit 140 are recognized. Is more preferably used as a learning data set. In this case, the above-described machine learning device 3 is provided inside or outside the robot controller 100, and the machine learning device 3 executes machine learning using the learning data set. Data in the learned model storage unit 131 may be updated. In this way, not only the gripping result using the virtual working area VWA but also the gripping result in the real working area RWA can be used for learning, and the accuracy of the learned model can be further improved. .

<第2の実施の形態>
上述した第1の実施の形態においては、学習済モデルの出力層は3次元座標データを出力するものについて説明を行った。しかし、ロボットハンドRの形状(特にエンドエフェクタ54の形状)によっては、3次元座標データのみではワークWの把持に失敗する場合がある。すなわち、例えばロボットハンドRが図5に例示された垂直多関節ロボットのように自由度の高いロボットであって、且つエンドエフェクタ54の横方向あるいは上下方向の長さが(上リンクアーム52の横方向あるいは上下方向に比して)長尺な外形形状をしている場合等には、ロボットハンドRが学習済モデルが出力した3次元座標データへ移動する途中で、この長尺なエンドエフェクタ54の一部がワークWに接触してワークWの配置が変化し、結果、ワークWの把持が失敗するという状況が起こることが想定できる。
<Second embodiment>
In the first embodiment described above, the output layer of the learned model outputs three-dimensional coordinate data. However, depending on the shape of the robot hand R (particularly, the shape of the end effector 54), the gripping of the workpiece W may fail with only the three-dimensional coordinate data. That is, for example, the robot hand R is a robot having a high degree of freedom, such as the vertical articulated robot illustrated in FIG. 5, and the length of the end effector 54 in the horizontal direction or the vertical direction (side of the upper link arm 52). When the robot hand R moves to the three-dimensional coordinate data output by the trained model, for example, when the robot hand R has a long external shape (compared to the vertical or vertical direction), the long end effector 54 May be in contact with the work W, the arrangement of the work W may be changed, and as a result, a situation in which the grip of the work W fails may occur.

以上の点に鑑み、以下には、エンドエフェクタの形状等に関わらずワークの把持を実現するべく、本発明の第2の実施の形態として、その出力層が出力するデータとして、3次元座標データに加えてロボットハンドRの角度データをも出力できるようにした、機械学習システム、機械学習装置、機械学習方法及びデータ処理システムについて、説明を行う。図7は、本発明の第2の実施の形態に係る機械学習システムを示す概略図である。なお、以下に示す第2の実施の形態に係る機械学習システム、機械学習装置、機械学習方法及びデータ処理システムについては、上述した第1の実施の形態と異なる点を中心に説明し、第1の実施の形態と共通する構成等については同一の符号を付してその説明を省略するものとする。   In view of the above, in order to realize the gripping of the workpiece regardless of the shape of the end effector, the following describes, as a second embodiment of the present invention, three-dimensional coordinate data as data output by the output layer. A machine learning system, a machine learning device, a machine learning method, and a data processing system capable of outputting angle data of the robot hand R in addition to the above will be described. FIG. 7 is a schematic diagram showing a machine learning system according to the second embodiment of the present invention. Note that a machine learning system, a machine learning device, a machine learning method, and a data processing system according to a second embodiment described below will be described focusing on the differences from the first embodiment described above. The same reference numerals are given to configurations and the like that are common to the first embodiment, and description thereof will be omitted.

本願の第2の実施の形態に係る機械学習システム1Aは、図7に示すように、シミュレータ2Aと、機械学習装置3Aとを含む。そして、シミュレータ2Aは、第1の実施の形態に係るシミュレータ2が備える一連の構成に加えて、さらに角度データ取得部27を備えている。   As shown in FIG. 7, the machine learning system 1A according to the second embodiment of the present application includes a simulator 2A and a machine learning device 3A. The simulator 2A further includes an angle data acquisition unit 27 in addition to the series of components included in the simulator 2 according to the first embodiment.

角度データ取得部27は、仮想の作業領域VWA内のロボットハンドRの3次元モデルが、同じく仮想の作業領域VWA内のワークWの1つ(場合によっては複数)の把持に成功したときのロボットハンドRの手元部分(エンドエフェクタ54と場合によっては上リンクアーム52で構成される部分)の角度(姿勢)データを取得するためのものである。ここで、角度データとは、図7に示すx軸に対するロボットハンドRの手元部分のなす角度RX、以下同様に、y軸に対するロボットハンドRの手元部分のなす角度RY、z軸に対するロボットハンドRの手元部分のなす角度RZとした場合の(RX、RY、RZ)からなるものである。なお、本実施の形態においては角度データを(RX、RY、RZ)からなるものとして説明するが、このような3次元の角度データに代えて、2次元(例えば、RX、RYのみ)、あるいは1次元(例えば、RXのみ)の角度データを採用することも可能である。角度データとして規定する数値の数を減らすと、後述する機械学習において、十分な精度を有する学習済モデルを得るために必要なデータセット数を減らすことができる。また、本実施の形態においては角度データを(RX、RY、RZ)と規定しているが、当該データはロボットの各軸(θ〜θ)のなす角度によって特定されるものであるため、この(RX、RY、RZ)で表記される角度データに代えて、ロボットハンドRの所定数の軸のなす角度を用いることも可能である。 The angle data acquisition unit 27 determines the robot when the three-dimensional model of the robot hand R in the virtual work area VWA has successfully gripped one (or a plurality of works W) of the works W in the virtual work area VWA as well. This is for acquiring angle (posture) data of a hand portion (a portion formed by the end effector 54 and the upper link arm 52 in some cases) of the hand R. Here, the angle data is the angle RX formed by the hand of the robot hand R with respect to the x-axis shown in FIG. 7, similarly, the angle RY formed by the hand of the robot hand R with respect to the y-axis, and the robot hand R with respect to the z-axis. (RX, RY, RZ) when the angle RZ formed by the hand portion is In the present embodiment, the angle data is described as being composed of (RX, RY, RZ), but instead of such three-dimensional angle data, two-dimensional (for example, only RX and RY) or It is also possible to adopt one-dimensional (for example, RX only) angle data. By reducing the number of numerical values defined as the angle data, it is possible to reduce the number of data sets necessary to obtain a learned model having sufficient accuracy in machine learning described later. Further, in the present embodiment, the angle data is defined as (RX, RY, RZ), but the data is specified by the angle formed by each axis (θ 1 to θ 6 ) of the robot. Instead of the angle data represented by (RX, RY, RZ), an angle formed by a predetermined number of axes of the robot hand R can be used.

次に、図8を参照し、上述したシミュレータ2Aによる一連のシミュレート演算の工程について以下に説明する。図8は、本発明の第2の実施の形態に係るシミュレータ2Aのシミュレート演算工程を示すフローチャートである。図8に示す通り、本発明の第2の実施の形態に係るシミュレータ2Aは、以下の工程を実行する。   Next, with reference to FIG. 8, a series of simulated calculation steps by the simulator 2A will be described below. FIG. 8 is a flowchart showing a simulated calculation process of the simulator 2A according to the second embodiment of the present invention. As shown in FIG. 8, the simulator 2A according to the second embodiment of the present invention executes the following steps.

シミュレータ2Aが起動しシミュレート演算の動作が開始すると、先ず、条件記憶部22に記憶された条件に基づいて、情報処理部21にてロボットハンドRの3次元グラフィックモデル等を含む仮想の作業領域VWAを生成する。そして、仮想の作業領域VWA内に予め定められた位置及び画角で設置された2次元撮像装置IDから撮像した2次元撮像画像データを生成する(ステップS41)。ここで生成された2次元撮像画像データは撮像データ取得部23で取得され(一時的に)格納される。2次元撮像画像データが生成されると、次に、この撮像されたトレーTR内のワークWに対してロボットハンドRの3次元モデルを動作させて、ワークWの把持動作に係るシミュレート演算を実行する(ステップS42)。   When the simulator 2A is activated and the operation of the simulated operation starts, first, based on the conditions stored in the condition storage unit 22, the information processing unit 21 generates a virtual work area including a three-dimensional graphic model of the robot hand R and the like. Generate VWA. Then, two-dimensional captured image data captured from the two-dimensional imaging device ID installed at a predetermined position and angle of view in the virtual work area VWA is generated (step S41). The two-dimensional captured image data generated here is obtained (temporarily) stored in the captured data obtaining unit 23. When the two-dimensional captured image data is generated, next, the three-dimensional model of the robot hand R is operated on the workpiece W in the captured tray TR to perform a simulation operation related to the gripping operation of the workpiece W. Execute (Step S42).

上述した把持動作の結果、把持が失敗した場合(ステップS43でNo)には、直近に生成された2次元撮像画像データは消去され(ステップS44)、ステップS41において再び2次元撮像画像データが生成し直される。また、上述した把持動作の結果、把持が成功した場合(ステップS43でYes)には、次に、把持した時点のロボットハンドRの3次元座標データと角度データとを取得する(ステップS45及びS46)。なおステップS45とステップS46の実行タイミングについては、何れが先でも、あるいは同時であっても良い。また、3次元座標データ及び角度データを取得するロボットハンドRの具体的な部位は、エンドエフェクタ54の任意の位置(例えば図5に示すエンドエフェクタ54の重心位置P)とすると良い。さらに、上記第1の実施の形態と同様、ステップS44及びその後のステップS41については、省略することが可能である。   As a result of the gripping operation described above, when gripping has failed (No in step S43), the two-dimensional captured image data generated most recently is deleted (step S44), and two-dimensional captured image data is generated again in step S41. Will be reworked. Further, as a result of the gripping operation described above, when gripping is successful (Yes in step S43), next, three-dimensional coordinate data and angle data of the robot hand R at the time of gripping are acquired (steps S45 and S46). ). Note that the execution timing of step S45 and step S46 may be either earlier or simultaneously. Further, the specific part of the robot hand R that acquires the three-dimensional coordinate data and the angle data may be an arbitrary position of the end effector 54 (for example, the center of gravity P of the end effector 54 shown in FIG. 5). Further, as in the first embodiment, step S44 and the subsequent step S41 can be omitted.

ワークWを把持した時点のロボットハンドRの3次元座標データ及び角度データを取得すると、データセット生成部25が、ステップS45で取得した3次元座標データ及びステップS46で取得した角度データと、ステップS41において2次元撮像画像データ取得部23で取得され格納された直近の2次元撮像画像データとを、1つのデータセットとして特定する(ステップS47)。これにより、ワークWの把持動作が成功した際のロボットハンドRの3次元座標データ及び角度データと、この把持動作が成功した際の把持動作開始前のワークWの状態を示す2次元撮像画像データとが1対1対1の関係で関連付けられ、データセットが生成される。そして、特定されたデータセットは、送信部26により機械学習装置3Aへ送信される(ステップS48)。   When the three-dimensional coordinate data and the angle data of the robot hand R at the time when the workpiece W is gripped are acquired, the data set generation unit 25 outputs the three-dimensional coordinate data acquired in step S45, the angle data acquired in step S46, and step S41. Then, the latest two-dimensional captured image data acquired and stored by the two-dimensional captured image data acquisition unit 23 is specified as one data set (step S47). Thereby, the three-dimensional coordinate data and the angle data of the robot hand R when the gripping operation of the workpiece W is successful, and the two-dimensional captured image data indicating the state of the workpiece W before the start of the gripping operation when the gripping operation is successful. Are associated in a one-to-one relationship, and a data set is generated. Then, the specified data set is transmitted to the machine learning device 3A by the transmission unit 26 (Step S48).

次に、シミュレータ2Aにより生成されたデータセットを用いて機械学習を行う機械学習装置3Aについて、以下説明を行う。機械学習装置3Aが備える構成については、図7を見ればわかるとおり、上述した第1の実施の形態に係る機械学習装置3と同様であり、機械学習の内容及びそれに関連するデータの内容のみが第1の実施の形態とは異なっている。   Next, a machine learning device 3A that performs machine learning using a data set generated by the simulator 2A will be described below. As can be seen from FIG. 7, the configuration of the machine learning device 3A is the same as that of the machine learning device 3 according to the above-described first embodiment, and only the content of the machine learning and the content of the data related thereto are different. This is different from the first embodiment.

図9は、本発明の第2の実施の形態に係る機械学習方法を示すフローチャートである。ここに示す機械学習方法はコンピュータを用いることで実現されるものであり、また、上述した第2の実施の形態に係る機械学習装置3Aによって実施されるものでもある。   FIG. 9 is a flowchart illustrating a machine learning method according to the second embodiment of the present invention. The machine learning method shown here is realized by using a computer, and is also executed by the machine learning device 3A according to the above-described second embodiment.

第2の実施の形態に係る機械学習方法は、図9に示すように、先ず、任意の初期値の重みを備えた学習前モデルを準備する(ステップS51)。次いで、データセット記憶部32に記憶された複数組のデータセットのうちの1つを取得し(ステップS52)、取得したデータセットのうちの2次元撮像画像データを学習前モデルの入力層に対応付けて出力層を生成する(ステップS53)。   In the machine learning method according to the second embodiment, as shown in FIG. 9, first, a pre-learning model having an arbitrary initial value weight is prepared (step S51). Next, one of the plurality of data sets stored in the data set storage unit 32 is obtained (step S52), and the two-dimensional captured image data of the obtained data set corresponds to the input layer of the pre-learning model. Then, an output layer is generated (step S53).

次に、ステップS52において取得された1つのデータセットのうちの3次元座標データ及び角度データとステップS53において生成された出力層を構成する3次元座標データ及び角度データとを用いて、機械学習を実施する(ステップS54)。ステップS54において機械学習が実施されると、さらに機械学習を継続する必要があるか否かを特定する(ステップS55)。特定の結果、機械学習を継続する場合(ステップS55でNo)には、上述したステップS52〜S54の工程を複数回実施する。また、機械学習を終了する場合(ステップS55でYes)には、学習モデルの各ノードに対応付けられた重みが一連の工程によって調整され生成されたニューラルネットワークモデルを学習済モデルとして学習済モデル記憶部34に記憶し(ステップS56)、一連の学習プロセスを終了する。   Next, machine learning is performed using the three-dimensional coordinate data and the angle data of the one data set acquired in step S52 and the three-dimensional coordinate data and the angle data constituting the output layer generated in step S53. Perform (Step S54). When the machine learning is performed in step S54, it is determined whether or not it is necessary to continue the machine learning (step S55). When the machine learning is continued as a specific result (No in step S55), the above-described steps S52 to S54 are performed a plurality of times. If the machine learning is to be terminated (Yes in step S55), the neural network model generated by adjusting the weights associated with each node of the learning model through a series of steps is stored as a learned model as a learned model. This is stored in the unit 34 (step S56), and a series of learning processes ends.

以上説明した通り、本発明の第2の実施の形態に係る機械学習システム、機械学習装置及び機械学習方法においては、上記第1の実施の形態に係る機械学習システム、機械学習装置及び機械学習方法が奏する効果に加えて、以下の効果をさらに奏する。すなわち、これらの機械学習システム、機械学習装置及び機械学習方法は、3次元座標データに加えて角度データをも出力することが可能な学習済モデルを生成することができるため。ロボットハンドの形状を問わずに精度の高い把持動作を実現することができ、広範な種類の作業領域に適応可能な機械学習システム、機械学習装置及び機械学習方法を提供することができる。   As described above, in the machine learning system, the machine learning device, and the machine learning method according to the second embodiment of the present invention, the machine learning system, the machine learning device, and the machine learning method according to the first embodiment are used. In addition to the effects of the above, the following effects are further exhibited. That is, these machine learning systems, machine learning devices, and machine learning methods can generate a learned model that can output angle data in addition to three-dimensional coordinate data. It is possible to provide a machine learning system, a machine learning device, and a machine learning method that can realize a highly accurate gripping operation regardless of the shape of the robot hand and can be applied to a wide variety of work areas.

最後に、上述した第2の実施の形態に係る機械学習システム、機械学習装置あるいは機械学習方法により生成された学習済モデルを用いるデータ処理システムによって実現されるバラ積みピッキングについて、簡単に説明を行う。本実施の形態に係るデータ処理システムによるバラ積みピッキングの一連のデータ処理の流れについては、図6に示す工程と同様であるが、図6のステップS33において推論部140により出力されるデータが3次元座標データのみならず角度データをも出力する点が、第1の実施の形態に係るデータ処理システムとは異なる。そして、これに付随して、図6のステップS34に示すロボットハンドRの制御プロセスに際しても、3次元座標データに加えて角度データも参照され、当該3次元座標データが示す位置に、当該角度データが示す角度(姿勢)で位置するよう、ロボットハンドRの6つの軸を駆動させてワークWの把持を試みる。   Lastly, a brief description will be given of the bulk picking realized by the machine learning system, the machine learning device, or the data processing system using the learned model generated by the machine learning method according to the above-described second embodiment. . The flow of a series of data processing of bulk picking by the data processing system according to the present embodiment is the same as the process shown in FIG. 6, but the data output by the inference unit 140 in step S33 in FIG. It differs from the data processing system according to the first embodiment in that not only dimensional coordinate data but also angle data is output. In addition to this, in the control process of the robot hand R shown in step S34 of FIG. 6, the angle data is also referred to in addition to the three-dimensional coordinate data, and the angle data is stored at the position indicated by the three-dimensional coordinate data. Are driven by driving the six axes of the robot hand R so that the workpiece W is positioned at the angle (posture) indicated by.

以上説明した通り、本発明の第2の実施の形態に係るデータ処理システムを適用したバラ積みピッキングにおいては、複雑な構成を有しない2次元撮像装置IDが撮像した画像データのみからワークWを把持可能なロボットハンドRの3次元座標データ及び角度データを推論することができるため、上述した第1の実施の形態に係るデータ処理システムと同様に、人手を要することのないバラ積みピッキングを簡単な構成を用いて実現することができる。さらに、これに加えて、ロボットハンドRの角度データをも参照することにより、ロボットハンドRの形状、特にエンドエフェクタ54の形状に関わらず常に高精度にワークWの把持が実現できる。   As described above, in the bulk picking to which the data processing system according to the second embodiment of the present invention is applied, the workpiece W is gripped only from the image data captured by the two-dimensional imaging device ID having no complicated configuration. Since it is possible to infer the three-dimensional coordinate data and the angle data of the possible robot hand R, similar to the data processing system according to the above-described first embodiment, it is possible to easily perform the bulk picking without requiring any human labor. It can be realized using a configuration. In addition to this, by referring to the angle data of the robot hand R, the workpiece W can always be gripped with high accuracy regardless of the shape of the robot hand R, particularly the shape of the end effector 54.

<第3の実施の形態>
上記第1及び第2の実施の形態においては、シミュレータ2、2Aで生成されるデータセットとして、3次元座標データと2次元撮像画像データを1対1の関係で関連付けたもの、あるいは3次元座標データと角度データと2次元撮像画像データを1対1対1の関係で関連付けたものについて説示を行った。しかし、バラ積みピッキングは、ワークがトレー内に複数配されているのが前提であるため、トレー内のワークのうちのいくつかが把持可能な状態である場合や、単一のワークに対しても複数把持可能なポイントが存在する場合が生じ得る。したがって、一の2次元撮像画像データに関連付けられる3次元座標データは1つではなく複数存在する場合が多い。そこで、以下には、本発明の第3の実施の態様として、データセットが一の2次元撮像画像データと複数の3次元座標データ(あるいは複数の3次元座標データ及び角度データのセット)とにより生成される機械学習システム、機械学習装置、機械学習方法及びデータ処理システムについて、説明を行う。
<Third embodiment>
In the first and second embodiments, as a data set generated by the simulators 2 and 2A, three-dimensional coordinate data and two-dimensional captured image data are associated in a one-to-one relationship, or three-dimensional coordinate data. An explanation was given on the data, the angle data, and the two-dimensional captured image data associated with each other in a one-to-one relation. However, since bulk picking is based on the premise that a plurality of workpieces are arranged in a tray, some of the workpieces in the tray can be gripped, In some cases, there may be a plurality of points that can be gripped. Therefore, in many cases, there is not one piece of three-dimensional coordinate data but a plurality of pieces of three-dimensional coordinate data associated with one piece of two-dimensional captured image data. Therefore, hereinafter, as a third embodiment of the present invention, a data set is composed of two-dimensional captured image data and a plurality of three-dimensional coordinate data (or a set of a plurality of three-dimensional coordinate data and angle data). The generated machine learning system, machine learning device, machine learning method, and data processing system will be described.

図10は、本発明の第3の実施の形態に係る機械学習システムを示す概略図である。なお、以下に示す第3の実施の形態に係る機械学習システム、機械学習装置、機械学習方法及びデータ処理システムについては、上述した第1の実施の形態と異なる点を中心に説明し、第1の実施の形態と共通する構成等については同一の符号を付してその説明を省略するものとする。   FIG. 10 is a schematic diagram illustrating a machine learning system according to a third embodiment of the present invention. Note that a machine learning system, a machine learning device, a machine learning method, and a data processing system according to a third embodiment described below will be described focusing on differences from the first embodiment described above. The same reference numerals are given to configurations and the like that are common to the first embodiment, and description thereof will be omitted.

本願の第3の実施の形態に係る機械学習システム1Bは、図10に示すように、シミュレータ2Bと、機械学習装置3Bとを含む。そして、シミュレータ2Bは、第1の実施の形態に係るシミュレータ2が備える一連の構成に加えて、更に2次元撮像画像データ分割部28を備えている。   As shown in FIG. 10, the machine learning system 1B according to the third embodiment of the present application includes a simulator 2B and a machine learning device 3B. The simulator 2B further includes a two-dimensional captured image data dividing unit 28 in addition to the series of components included in the simulator 2 according to the first embodiment.

2次元撮像画像データ分割部28は、情報処理部21の一部を構成しており、2次元撮像画像データ取得部23が取得した2次元撮像画像データを、複数の領域に分割するものである。図11は、本発明の第3の実施の形態に係るシミュレータで生成された2次元撮像画像データの一例を示す概略図である。なお、図11では、説明を容易にするため、2次元撮像画像データ内にワークWが2つのみ配されているものを示している。   The two-dimensional captured image data division unit 28 constitutes a part of the information processing unit 21 and divides the two-dimensional captured image data acquired by the two-dimensional captured image data acquisition unit 23 into a plurality of regions. . FIG. 11 is a schematic diagram illustrating an example of two-dimensional captured image data generated by the simulator according to the third embodiment of the present invention. Note that FIG. 11 shows an example in which only two works W are arranged in the two-dimensional captured image data for ease of explanation.

図11に示す2次元撮像画像データに対し、2次元撮像画像データ分割部28は、ワークWが配されるトレーTR内の領域を所定の分割領域に区画する。図11においては、4行×4列で格子状に分割し、均等な大きさの計16個の分割領域DA1〜DA16を区画形成した場合を例示している。なお、この分割領域の大きさや数については適宜調整可能である。   With respect to the two-dimensional captured image data shown in FIG. 11, the two-dimensional captured image data dividing unit 28 partitions an area in the tray TR where the work W is arranged into a predetermined divided area. FIG. 11 illustrates an example in which a total of 16 divided areas DA1 to DA16 having a uniform size are divided and formed in a grid shape with 4 rows × 4 columns. Note that the size and number of the divided areas can be adjusted as appropriate.

次に、図12を参照し、上述したシミュレータ2Bによる一連のシミュレート演算の工程について以下に説明する。図12は、本発明の第3の実施の形態に係るシミュレータ2Bのシミュレート演算工程を示すフローチャートである。図12に示す通り、本発明の第3の実施の形態に係るシミュレータ2Bは、以下の工程を実行する。   Next, with reference to FIG. 12, a series of simulated calculation steps by the simulator 2B will be described below. FIG. 12 is a flowchart showing a simulated calculation process of the simulator 2B according to the third embodiment of the present invention. As shown in FIG. 12, the simulator 2B according to the third embodiment of the present invention executes the following steps.

シミュレータ2Bが起動しシミュレート演算の動作が開始すると、先ず、条件記憶部22に記憶された条件に基づいて、情報処理部21にてロボットハンドRの3次元グラフィックモデル等を含む仮想の作業領域VWAを生成する。そして、仮想の作業領域VWA内に予め定められた位置及び画角で設置された2次元撮像装置IDから撮像した2次元撮像画像データを生成する(ステップS61)。ここで生成された2次元撮像画像データは撮像データ取得部23で取得され(一時的に)格納される。2次元撮像画像データが生成されると、この生成された2次元撮像画像データを、2次元撮像画像データ分割部28により、図11に示すように、所定の領域に分割して複数の分割領域DA1〜DA16を形成する(ステップS62)。   When the simulator 2B is activated and the operation of the simulation operation is started, first, based on the conditions stored in the condition storage unit 22, the information processing unit 21 generates a virtual work area including a three-dimensional graphic model of the robot hand R. Generate VWA. Then, two-dimensional captured image data captured from the two-dimensional imaging device ID installed at a predetermined position and angle of view in the virtual work area VWA is generated (step S61). The two-dimensional captured image data generated here is obtained (temporarily) stored in the captured data obtaining unit 23. When the two-dimensional captured image data is generated, the generated two-dimensional captured image data is divided into predetermined regions by the two-dimensional captured image data dividing unit 28 as shown in FIG. DA1 to DA16 are formed (Step S62).

次に、この撮像されたトレーTR内のワークWに対してロボットハンドRの3次元モデルを動作させて、ワークWの把持動作に係るシミュレート演算を実行するのであるが、本実施の形態において、このシミュレート演算の実行は、形成された分割領域DA1〜DA16のうちの一の分割領域についてのみ実行する(ステップS63)。具体的に言えば、前記一の分割領域として、分割領域DA1が選定された場合は、分割領域DA1内の領域に対してのみロボットハンドRの3次元モデルによるワークWの把持動作が実行され、当該分割領域DA1以外の領域に対してはワークWの把持動作を行わない。   Next, a three-dimensional model of the robot hand R is operated on the imaged work W in the tray TR to execute a simulation calculation relating to a gripping operation of the work W. In the present embodiment, The execution of the simulated calculation is performed only for one of the formed divided areas DA1 to DA16 (step S63). More specifically, when the divided area DA1 is selected as the one divided area, the gripping operation of the work W by the three-dimensional model of the robot hand R is performed only on the area within the divided area DA1. The gripping operation of the work W is not performed on an area other than the divided area DA1.

上述した把持動作は、種々の方法を用いて複数回行われる。その上で、把持が成功した場合(ステップS64でYes)には、把持した時点のロボットハンドRの3次元座標データを取得する(ステップS65)。また、把持が失敗した場合(ステップS64でNo)には、ここでシミュレート演算の対象とした分割領域には把持できる箇所がないと判断し、3次元座標データは取得しない。上記の例に示した一の分割領域として分割領域DA1が選定された場合は、図11を見ると分かるとおり、分割領域DA1にはそもそもワークWが存在していないから、ステップS64においては把持が失敗したと判断され(ステップS64でNo)、分割領域DA1内にはワークを把持できる3次元座標が存在しないと特定されることとなる。なお、シミュレート演算において実行される把持動作は複数回実行されるが、ワークWの配置は常に同一である。したがって、把持動作の度にシミュレータ2B内でワークWを元の配置に戻す制御が実行される必要があるが、2次元撮像画像データを生成し直す必要はない。   The above-described gripping operation is performed a plurality of times using various methods. Then, when the grip is successful (Yes in step S64), the three-dimensional coordinate data of the robot hand R at the time of the grip is obtained (step S65). If the gripping has failed (No in step S64), it is determined that there is no grippable portion in the divided region subjected to the simulation calculation, and the three-dimensional coordinate data is not obtained. When the divided area DA1 is selected as one of the divided areas shown in the above example, as can be seen from FIG. 11, since the work W does not exist in the divided area DA1 in the first place, the gripping is not performed in step S64. It is determined that the operation has failed (No in step S64), and it is specified that there is no three-dimensional coordinate that can grip the work in the divided area DA1. Note that the gripping operation performed in the simulation calculation is performed a plurality of times, but the arrangement of the work W is always the same. Therefore, it is necessary to execute control to return the work W to the original arrangement in the simulator 2B every time the gripping operation is performed, but it is not necessary to regenerate the two-dimensional captured image data.

上述した把持動作が完了すると、シミュレート動作が終了できるかどうかが特定される(ステップS66)。詳しくは、ステップS62において分割された複数の分割領域DA1〜16の全てがシミュレート演算の対象として選定されたか否かを特定する。その結果、シミュレート演算の対象となっていない分割領域が存在する場合(ステップS66でNo)には、ステップS67に移行し、シミュレート演算の対象となっていない分割領域が存在しない場合(ステップS66でYes)には、ステップS68に移行する。ステップS67では、シミュレート演算の対象となっていない分割領域のうちの1つが選定され且つ当該選定された分割領域が次のシミュレート演算の対象と特定された後、ステップS63に戻る。   When the above-described gripping operation is completed, it is specified whether or not the simulation operation can be ended (step S66). Specifically, it is determined whether or not all of the plurality of divided areas DA1 to DA16 divided in step S62 have been selected as the targets of the simulation calculation. As a result, if there is a divided area that is not the target of the simulation operation (No in step S66), the process proceeds to step S67, and if there is no divided area that is not the target of the simulation operation (step S66). If “Yes” in S66, the process moves to step S68. In step S67, one of the divided regions not subjected to the simulation operation is selected, and the selected divided region is specified as the target of the next simulation operation, and then the process returns to step S63.

複数の分割領域に対するシミュレート演算が全て完了すると、ステップS68において、データセット生成部25により、ステップS65で取得した3次元座標データと、ステップS61において2次元撮像画像データ取得部23で取得され格納された2次元撮像画像データとが、1つのデータセットとして特定される。ここで、図11に示す2次元撮像画像データのものを例にとると、複数の分割領域DA1〜DA16のうち、その領域内にワークWが存在しているのは分割領域DA6、DA7、DA10、DA11の4つのみであり、他の分割領域を対象としたシミュレート演算では把持が成功しないことは明らかである。そして、この4つの分割領域DA6、DA7、DA10、DA11に対して把持動作のシミュレート演算を実行した結果、把持が成功した領域が領域DA7、DA10、DA11の3つであったと仮定する。この場合、ステップS63〜S67の各工程を経て得られた3次元座標データは、この3つの領域DA7、DA10、DA11においてそれぞれ取得された3つの3次元座標データとなる。よって、この3つの3次元座標データとステップS61において取得され格納された2次元撮像画像データとが、データセット生成部25において関連付けられ、1つのデータセットとして特定される。そして、特定されたデータセットは、送信部26により機械学習装置3Bへ送信される(ステップS69)。   When all the simulation calculations for the plurality of divided regions are completed, in step S68, the data set generation unit 25 obtains the three-dimensional coordinate data obtained in step S65, and in step S61 obtains and stores the two-dimensional captured image data acquisition unit 23. The obtained two-dimensional captured image data is specified as one data set. Here, taking the two-dimensional captured image data shown in FIG. 11 as an example, among the plurality of divided areas DA1 to DA16, the work W exists in the divided areas DA6, DA7, and DA10. , DA11, and it is apparent that the gripping is not successful in the simulation calculation for the other divided areas. It is assumed that as a result of executing the gripping operation simulation operation on the four divided areas DA6, DA7, DA10, and DA11, three areas DA7, DA10, and DA11 have been successfully gripped. In this case, the three-dimensional coordinate data obtained through each of the steps S63 to S67 is three three-dimensional coordinate data obtained in each of the three areas DA7, DA10, and DA11. Therefore, the three three-dimensional coordinate data and the two-dimensional captured image data acquired and stored in step S61 are associated in the data set generation unit 25, and are specified as one data set. Then, the specified data set is transmitted to the machine learning device 3B by the transmission unit 26 (Step S69).

上述した一連のシミュレート演算は、ワークWの配置を変更する毎に複数回、具体的には機械学習装置3Bにおいて必要とされるデータセットの量に至るまで実行される。上述した方法によるシミュレート演算によれば、データセットとして一の2次元撮像画像データと関連付けられる3次元座標データは、最大で(分割領域の数と同数の)16個である。そして、機械学習装置3Bに送信され格納されたデータセットが含む3次元座標データの数は、1〜16個の範囲内で種々存在し得ることとなる。   The above-described series of simulation calculations is executed a plurality of times each time the arrangement of the work W is changed, specifically, up to the amount of data set required in the machine learning device 3B. According to the simulated calculation according to the above-described method, the maximum number of three-dimensional coordinate data (same as the number of divided areas) is 16 as three-dimensional coordinate data associated with one two-dimensional captured image data as a data set. Then, the number of three-dimensional coordinate data included in the data set transmitted to and stored in the machine learning device 3B can be variously within the range of 1 to 16.

次に、シミュレータ2Bにより生成されたデータセットを用いて機械学習を行う機械学習装置3B及びこの機械学習装置3Bにより実施される機械学習方法について、以下説明を行う。先ず、機械学習装置3Bが備える構成については、図10を見ればわかるとおり、上述した第1の実施の形態に係る機械学習装置3と同様である。   Next, a machine learning device 3B that performs machine learning using a data set generated by the simulator 2B and a machine learning method performed by the machine learning device 3B will be described below. First, the configuration of the machine learning device 3B is the same as that of the machine learning device 3 according to the above-described first embodiment, as can be seen from FIG.

機械学習装置3Bにより実施される機械学習方法についても、基本的な工程は図4に示す工程と同様である。しかし、本実施の形態に係る機械学習方法においては、学習部33内の学習モデルが出力する3次元座標データの数も、データセット記憶部32内に記憶されたデータセット同様、1つに限られない。ただし、単に出力する3次元座標データの数を制限しなければ、特に学習初期の学習モデルにあっては多量の3次元座標データを出力する可能性があるため、学習モデルが出力できる3次元座標データの最大値を事前に定めておくことが好ましい。この最大値としては、シミュレータ2Bの2次元撮像画像データ分割部28にて規定される2次元撮像画像データの分割数と同数とすることが好ましいが、例えば2次元撮像画像データを分析することによって更にその数値を限定する等、種々の方法により特定でき、本発明はその特定方法については限定されない。   The basic steps of the machine learning method performed by the machine learning device 3B are the same as the steps shown in FIG. However, in the machine learning method according to the present embodiment, the number of three-dimensional coordinate data output by the learning model in the learning unit 33 is limited to one as in the case of the data sets stored in the data set storage unit 32. I can't. However, unless the number of three-dimensional coordinate data to be output is simply limited, there is a possibility that a large amount of three-dimensional coordinate data is output, particularly in a learning model at the beginning of learning. It is preferable to determine the maximum value of the data in advance. The maximum value is preferably the same as the number of divisions of the two-dimensional captured image data defined by the two-dimensional captured image data division unit 28 of the simulator 2B. For example, by analyzing the two-dimensional captured image data, Further, it can be specified by various methods such as limiting the numerical value, and the present invention is not limited to the specifying method.

また、学習モデルが出力する3次元座標データが複数存在する場合、データ毎の正確性(把持が成功する確率)は一様でないのが通常である。また、機械学習装置3Bによって生成された学習済モデルをデータ処理システムに適用した場合、実際にロボットハンドRを制御する際には、出力された複数の3次元座標データの中から最適な一の3次元座標データを選定する必要がある。そこで、本実施の形態に係る学習モデルにあっては、3次元座標データを出力する際、この3次元座標データの確からしさ、すなわちデータの信用度(comfidence)を合わせて出力するように設定される。この信用度は、例えば割合(%)や0〜1の間で示される数値データである。そして、この信用度は、例えば、入力層に対応付けられた2次元画像撮像データを含むデータセット内の、教師データとしての3次元座標データの座標やデータ数に加えて、2次元撮像画像データ分割部28における分割数、及び3次元座標データが取得されなかった分割領域の情報等を総合的に考慮して学習を行った学習済みモデルを用いて推論を行うことで推定することができ、当該推定結果に基づいて特定される。なお、信用度の詳細な数値の特定方法については把持が成功する確率が推定できる方法であれば任意であるため、ここでは詳細な説明は省略する。   Further, when there are a plurality of three-dimensional coordinate data output by the learning model, the accuracy (probability of successful grasping) for each data is usually not uniform. Further, when the learned model generated by the machine learning device 3B is applied to the data processing system, when actually controlling the robot hand R, an optimal one out of the plurality of output three-dimensional coordinate data is used. It is necessary to select three-dimensional coordinate data. Therefore, in the learning model according to the present embodiment, when outputting the three-dimensional coordinate data, it is set so that the certainty of the three-dimensional coordinate data, that is, the reliability of the data is also output. . This credit is numerical data represented by, for example, a ratio (%) or 0 to 1. The trustworthiness is determined, for example, in addition to the coordinates and the number of the three-dimensional coordinate data as the teacher data in the data set including the two-dimensional image capturing data associated with the input layer, as well as the two-dimensional captured image data division. The estimation can be performed by performing inference using a trained model that has been learned by comprehensively considering the number of divisions in the unit 28 and information on the divided regions for which the three-dimensional coordinate data has not been acquired. It is specified based on the estimation result. Note that the method of specifying the detailed numerical value of the credit is arbitrary as long as the probability of successful grasping can be estimated, and thus the detailed description is omitted here.

次に、本発明の第3の実施の形態に係るデータ処理システムについて説明を行う。このデータ処理システムは、上述した機械学習システム1B、機械学習装置3Bあるいは機械学習方法により生成された学習済モデルを用いて、現実の作業領域におけるバラ積みピッキングを人手を要することなく実現するためのシステムを構成している。当該データ処理システムは、具体的には、図13に記載されているようなロボットハンドR等を制御するためのロボットコントローラ100Bに適用される。   Next, a data processing system according to a third embodiment of the present invention will be described. This data processing system is for realizing bulk stacking picking in a real work area without using a human, using a machine learning system 1B, a machine learning device 3B, or a learned model generated by a machine learning method. Make up the system. The data processing system is specifically applied to a robot controller 100B for controlling a robot hand R and the like as shown in FIG.

図13は、本発明の第3の実施の形態に係るデータ処理システムが適用される現実の作業領域を示した概略図である。図13に示す通り、本実施の形態に係る現実の作業領域RWAにおける各種構成の構造及び配置については、図5に示すものと同様である。また、ロボットコントローラ100Bは、第1の実施の形態に係るロボットコントローラ100が備える一連の構成に加えて、更に特定部150を備えている。   FIG. 13 is a schematic diagram showing an actual work area to which the data processing system according to the third embodiment of the present invention is applied. As shown in FIG. 13, the structure and arrangement of various components in the actual work area RWA according to the present embodiment are the same as those shown in FIG. The robot controller 100B further includes a specifying unit 150 in addition to a series of components included in the robot controller 100 according to the first embodiment.

特定部150は、推論部140で出力された3次元座標データが複数個存在している場合に、出力された複数個の3次元座標データの中から最適な一の3次元座標データを特定するものである。この特定に際しては、出力された3次元座標データ毎に関連付けられた信用度の数値を参酌し、例えば、この信用度の数値が最も大きい3次元座標データを最適な一の3次元座標データと特定する。   When there are a plurality of three-dimensional coordinate data output by the inference unit 140, the specifying unit 150 specifies one optimal three-dimensional coordinate data from the plurality of output three-dimensional coordinate data. Things. In this specification, the numerical value of the degree of trust associated with each output three-dimensional coordinate data is taken into consideration, and for example, the three-dimensional coordinate data having the highest numerical value of the degree of trust is specified as one optimal three-dimensional coordinate data.

以上の構成を備えるロボットコントローラ100Bを制御してワークWのピッキングを行う場合の一連の工程について、図13及び図14を参照して以下に説明する。図14は、本発明の第3の実施の形態に係る現実の作業領域におけるバラ積みピッキング工程を示すフローチャートである。   A series of steps when picking the workpiece W by controlling the robot controller 100B having the above configuration will be described below with reference to FIGS. FIG. 14 is a flowchart showing a bulk picking process in an actual work area according to the third embodiment of the present invention.

図13に示す現実の作業領域RWAにおいて、バラ積みピッキング動作が開始されると、初めに、2次元撮像装置制御部110により撮像装置IDが動作されてトレーTR内を撮像した2次元撮像画像データが取得される(ステップS71)。次いで、推論部140が、図示しない入力手段からのオペレータによる入力情報や、主記憶部130に格納された2次元撮像装置ID及びロボットハンドRに関する機能情報等に基づいて、学習済モデル格納部131に格納された1乃至複数の学習済モデルから1つの学習済モデルを特定する(ステップS72)。   In the actual work area RWA shown in FIG. 13, when the bulk picking operation is started, first, the imaging device ID is operated by the two-dimensional imaging device control unit 110, and two-dimensional image data obtained by imaging the inside of the tray TR. Is obtained (step S71). Next, the inference unit 140 uses the learned model storage unit 131 based on the input information from the operator from the input unit (not shown), the two-dimensional imaging device ID stored in the main storage unit 130, and the function information on the robot hand R. One learned model is specified from one or a plurality of learned models stored in (step S72).

学習済モデルが特定されると、推論部140はこの特定された学習済モデルを参照し、当該学習済モデルの入力層に、ステップS71において2次元撮像装置制御部110が取得した2次元撮像画像データを対応付け、学習済モデルを用いた推論(データ処理)を実行し、出力層としてワークWを把持可能なロボットハンドRの3次元座標データを出力する(ステップS73)。このとき、第3の実施の形態に係る機械学習システム1B、機械学習装置3B及び機械学習方法によって生成された学習済モデルにおいては、ほとんどの場合、3次元座標データは複数個出力される。そこで、推論部140が複数の3次元座標データを出力した後、特定部150により、複数の3次元座標データそれぞれに関連付けられた信用度の数値を参酌し、例えば最も高い信用度に関連付けられた3次元座標データを、実際にロボットハンドRの制御に使用する一の3次元座標データとして特定する(ステップS74)。そして、この特定された一の3次元座標データがロボットハンド制御部120に送られ、ロボットハンド制御部120はこの3次元座標データが示す位置にロボットハンドRの所定部位(例えばエンドエフェクタ54の重心位置P)を位置させるべく、ロボットハンドRの6つの軸を駆動させてワークWの把持を試みる(ステップS75)。なお、ステップS73において出力された3次元座標データが1つのみであった場合には、特定部150で特定する必要はないから、出力された3次元座標データをロボットハンド制御部120にそのまま送ればよい。   When the learned model is specified, the inference unit 140 refers to the specified learned model, and in the input layer of the learned model, the two-dimensional captured image acquired by the two-dimensional imaging device control unit 110 in step S71. The data is associated, inference (data processing) using the learned model is performed, and three-dimensional coordinate data of the robot hand R capable of holding the workpiece W is output as an output layer (step S73). At this time, in the machine-learned system generated by the machine learning system 1B, the machine learning device 3B, and the machine learning method according to the third embodiment, in most cases, a plurality of three-dimensional coordinate data are output. Then, after the inference unit 140 outputs the plurality of three-dimensional coordinate data, the identifying unit 150 considers the numerical value of the credit associated with each of the plurality of three-dimensional coordinate data, and for example, determines the three-dimensional coordinate associated with the highest credit. The coordinate data is specified as one three-dimensional coordinate data actually used for controlling the robot hand R (step S74). Then, the one specified three-dimensional coordinate data is sent to the robot hand control unit 120, and the robot hand control unit 120 places a predetermined portion of the robot hand R (for example, the center of gravity of the end effector 54) at the position indicated by the three-dimensional coordinate data. The six axes of the robot hand R are driven to try to grip the workpiece W to position the position P) (step S75). If there is only one piece of three-dimensional coordinate data output in step S73, it is not necessary to specify the three-dimensional coordinate data by the specifying unit 150, so the output three-dimensional coordinate data can be directly sent to the robot hand control unit 120. I just need.

以上説明した通り、本発明の第3の実施の形態に係るデータ処理システムを適用したバラ積みピッキングにおいては、単純な構造のカメラ等からなる2次元撮像装置IDが撮像した画像データのみからワークWを把持可能なロボットハンドRの3次元座標データを推論することができ、人手を要することのないバラ積みピッキングを簡略な構成で実現することができる。また、2次元撮像画像データから複数の3次元座標データを推論した上で、最適な一の3次元座標データを特定し、ロボットハンドRの制御に採用するため、信頼度の高い、言い換えればより把持が成功する可能性の高い3次元座標データを用いることができ、より精度の高い把持動作を実現できるようになる。   As described above, in the bulk picking to which the data processing system according to the third embodiment of the present invention is applied, the work W is performed only from image data captured by the two-dimensional imaging device ID including a camera having a simple structure. Can be inferred from the three-dimensional coordinate data of the robot hand R capable of gripping, and bulk picking without requiring any manpower can be realized with a simple configuration. Further, after inferring a plurality of three-dimensional coordinate data from the two-dimensional captured image data, the most suitable three-dimensional coordinate data is specified and adopted for the control of the robot hand R, so that the reliability is high, in other words, It is possible to use three-dimensional coordinate data that has a high possibility of successful gripping, thereby realizing a more accurate gripping operation.

なお、上記第3の実施の形態に係るデータ処理システムにおいて、上記第2の実施の形態に示したような、学習済モデルの出力層が、3次元座標データに加えてロボットハンドRの角度データをも出力できるようにすることが可能である。なお、その場合、角度データは3次元座標データと1対1の関係で特定されるものであるから、シミュレータ3Bで生成されるデータセットにおいては3次元座標データと角度データとは常に同数であり、また、特定部150においては、3次元座標データを特定することで対応する角度データをも特定されることは、当業者であれば容易に理解できるであろう。   In the data processing system according to the third embodiment, as shown in the second embodiment, the output layer of the trained model includes the three-dimensional coordinate data and the angle data of the robot hand R. Can also be output. In this case, since the angle data is specified in a one-to-one relationship with the three-dimensional coordinate data, the three-dimensional coordinate data and the angle data are always the same in the data set generated by the simulator 3B. It will be easily understood by those skilled in the art that the specifying unit 150 specifies the corresponding angle data by specifying the three-dimensional coordinate data.

本発明は上述した実施の形態に限定されるものではなく、本発明の主旨を逸脱しない範囲内で種々変更して実施することが可能である。そして、それらはすべて、本発明の技術思想に含まれるものである。   The present invention is not limited to the above-described embodiment, and can be implemented with various modifications without departing from the gist of the present invention. And, they are all included in the technical idea of the present invention.

1、1A、1B 機械学習システム
2、2A、2B シミュレータ
3、3A、3B 機械学習装置
21 情報処理部
23 2次元撮像画像データ取得部
24 3次元座標データ取得部
25 データセット生成部
27 角度データ取得部
28 2次元撮像画像データ分割部
31 データセット取得部
32 データセット記憶部
33 学習部
34 学習済モデル記憶部
100、100B ロボットコントローラ(データ処理システム)
110 2次元撮像装置制御部(取得部)
120 ロボットハンド制御部
130 主記憶部
131 学習済モデル格納部
140 推論部
150 特定部
R ロボットハンド
W ワーク
ID 2次元撮像装置
TR トレー
RWA 現実の作業領域(現実世界における所定領域)
VWA 仮想の作業領域(シミュレータの所定領域)
1, 1A, 1B Machine learning system 2, 2A, 2B Simulator 3, 3A, 3B Machine learning device 21 Information processing unit 23 Two-dimensional captured image data acquisition unit 24 Three-dimensional coordinate data acquisition unit 25 Data set generation unit 27 Angle data acquisition Unit 28 two-dimensional captured image data division unit 31 data set acquisition unit 32 data set storage unit 33 learning unit 34 learned model storage unit 100, 100B robot controller (data processing system)
110 Two-dimensional imaging device control unit (acquisition unit)
120 Robot hand control unit 130 Main storage unit 131 Learned model storage unit 140 Inference unit 150 Specific unit R Robot hand W Work ID 2D imaging device TR Tray RWA Real work area (predetermined area in the real world)
VWA virtual work area (predetermined area of simulator)

Claims (14)

シミュレータの所定領域内に配置された1又は複数のワークのうちいずれかを把持する前記シミュレータ上のロボットハンドが把持動作を経て把持を成功させるときの前記ロボットハンドの1又は複数の3次元座標データと、前記ロボットハンドが把持を成功させるときの前記把持動作の前に前記所定領域内に配置された前記1又は複数のワークを前記シミュレータ上の2次元撮像装置によって所定画角から撮像した2次元撮像画像データと、を備える学習用データセットを前記シミュレータから取得して複数組記憶するデータセット記憶部と;
前記学習用データセットを複数組入力することで、現実世界における所定領域内に配置された1又は複数のワークを2次元撮像装置によって前記所定画角と同じ画角から撮像した2次元撮像画像から、現実世界におけるロボットハンドの3次元座標を推論する学習モデルを学習する学習部と;
前記学習部によって学習された前記学習モデルを記憶する学習済モデル記憶部と;を備える、
機械学習装置。
One or more three-dimensional coordinate data of the robot hand when the robot hand on the simulator grips any one or a plurality of workpieces arranged in a predetermined area of the simulator through gripping operation and succeeds in gripping. And a two-dimensional image of the one or more works arranged in the predetermined area from a predetermined angle of view by a two-dimensional imaging device on the simulator before the gripping operation when the robot hand succeeds in gripping. A data set storage unit for acquiring a learning data set including captured image data from the simulator and storing a plurality of sets;
By inputting a plurality of sets of the learning data sets, one or a plurality of workpieces arranged in a predetermined area in the real world are captured by a two-dimensional imaging apparatus from a two-dimensional captured image captured from the same angle of view as the predetermined angle of view. A learning unit for learning a learning model for inferring three-dimensional coordinates of the robot hand in the real world;
A learned model storage unit that stores the learning model learned by the learning unit.
Machine learning device.
シミュレータと、機械学習装置とを備える機械学習システムであって:
前記シミュレータが、所定領域内に配置された1又は複数のワークのうちいずれかを把持する前記シミュレータ上のロボットハンドが把持動作を経て把持を成功させるときの前記ロボットハンドの1又は複数の3次元座標データと、前記ロボットハンドが把持を成功させるときの前記把持動作の前に前記所定領域内に配置された1又は複数のワークを前記シミュレータ上の2次元撮像装置によって所定画角から撮像した2次元撮像画像データとを備える学習用データセットを生成する機能を有し、
前記機械学習装置が、前記シミュレータから前記学習用データセットを複数組取得して記憶するデータセット記憶部と;前記学習用データセットを複数組入力することで、現実世界における所定領域内に配置された1又は複数のワークを2次元撮像装置によって前記所定画角と同じ画角から撮像した2次元撮像画像から、現実世界におけるロボットハンドの3次元座標を推論する学習モデルを学習する学習部と;前記学習部によって学習された前記学習モデルを記憶する学習済モデル記憶部と;を備える、
機械学習システム。
A machine learning system comprising a simulator and a machine learning device, wherein:
One or a plurality of three-dimensional robot hands when the simulator succeeds in grasping through a grasping operation by a robot hand on the simulator that grasps one or a plurality of works arranged in a predetermined area. Coordinate data and one or a plurality of workpieces arranged in the predetermined area are captured from a predetermined angle of view by a two-dimensional imaging device on the simulator before the gripping operation when the robot hand succeeds in gripping. A function of generating a learning data set including three-dimensional captured image data,
A data set storage unit for acquiring and storing a plurality of sets of the learning data sets from the simulator; and inputting a plurality of sets of the learning data sets to be arranged in a predetermined area in the real world. A learning unit that learns a learning model that infers three-dimensional coordinates of the robot hand in the real world from a two-dimensional captured image obtained by capturing one or more workpieces from the same angle of view as the predetermined angle of view using a two-dimensional imaging device; A learned model storage unit that stores the learning model learned by the learning unit.
Machine learning system.
所定領域内に配置された複数のワークのうちいずれかを把持するロボットハンドが把持動作を経て把持を成功させるときの前記ロボットハンドの3次元座標データと、前記ロボットハンドが把持を成功させるときの前記把持動作の前に前記所定領域内に配置された複数のワークを2次元撮像装置によって所定画角から撮像した2次元撮像画像データと、を備える学習用データセットを複数組記憶するデータセット記憶部と;
前記学習用データセットを複数組入力することで、複数のワークを含む2次元撮像画像から、前記ロボットハンドの前記2次元撮像画像中の複数のワークのうちのいずれかを把持するための1又は複数の3次元座標を推論する学習モデルを学習する学習部と;
前記学習部によって学習された前記学習モデルを記憶する学習済モデル記憶部と;を備える、
機械学習装置。
A three-dimensional coordinate data of the robot hand when the robot hand for gripping either one of the deployed multiple workpieces in a predetermined region is to successfully grip through the gripping operation, when the robot hand is to be successful gripping data a plurality of sets stored training data set and a 2-dimensional sensed image data captured from a predetermined angle in the predetermined area two-dimensional imaging device arranged multiple workpieces in front of the gripping operation Set storage unit;
By inputting a plurality of sets of the learning data sets, one or two of a plurality of workpieces in the two-dimensional captured image of the robot hand are grasped from a two-dimensional captured image including a plurality of workpieces. A learning unit for learning a learning model for inferring a plurality of three-dimensional coordinates;
A learned model storage unit that stores the learning model learned by the learning unit.
Machine learning device.
所定領域内に配置された1又は複数のワークを2次元撮像装置によって所定画角から撮像した2次元撮像画像を取得する取得部と;
請求項1乃至請求項3のいずれか1項に記載の機械学習装置によって生成された学習済モデルに、前記取得部が取得した前記2次元撮像画像を入力することで、ロボットハンドの3次元座標を推論する推論部と;を備える、
データ処理システム。
An acquisition unit configured to acquire a two-dimensional captured image of one or a plurality of workpieces arranged in a predetermined area, which is captured from a predetermined angle of view by a two-dimensional imaging device;
The three-dimensional coordinates of the robot hand by inputting the two-dimensional captured image acquired by the acquiring unit into a learned model generated by the machine learning device according to any one of claims 1 to 3. And an inference unit for inferring
Data processing system.
前記推論部において、3次元座標が複数推論された場合に、前記複数の3次元座標のうちの所定の一の3次元座標を特定する特定部を更に備える、
請求項4に記載のデータ処理システム。
The inference unit further includes a specifying unit that specifies a predetermined one of the plurality of three-dimensional coordinates when a plurality of three-dimensional coordinates are inferred,
The data processing system according to claim 4.
コンピュータを用いた機械学習方法であって:
シミュレータの所定領域内に配置された1又は複数のワークのうちいずれかを把持する前記シミュレータ上のロボットハンドが把持動作を経て把持を成功させるときの前記ロボットハンドの1又は複数の3次元座標データと、前記ロボットハンドが把持を成功させるときの前記把持動作の前に前記所定領域内に配置された1又は複数のワークを前記シミュレータ上の2次元撮像装置によって所定画角から撮像した2次元撮像画像データとを備える学習用データセットを前記シミュレータから取得して複数組記憶するステップと;
前記学習用データセットを複数組入力することで、現実世界における所定領域内に配置された1又は複数のワークを2次元撮像装置によって前記所定画角と同じ画角から撮像した2次元撮像画像から、現実世界におけるロボットハンドの3次元座標を推論する学習モデルを学習するステップと;
学習された前記学習モデルを記憶するステップと;を備える、
機械学習方法。
A computer-based machine learning method that:
One or more three-dimensional coordinate data of the robot hand when the robot hand on the simulator grips any of one or a plurality of works arranged in a predetermined area of the simulator and succeeds in gripping through a gripping operation. And a two-dimensional imaging in which one or a plurality of works arranged in the predetermined area is imaged from a predetermined angle of view by a two-dimensional imaging device on the simulator before the gripping operation when the robot hand succeeds in gripping. Acquiring a learning data set including image data from the simulator and storing a plurality of sets;
By inputting a plurality of sets of the learning data sets, one or a plurality of workpieces arranged in a predetermined area in the real world are captured by a two-dimensional imaging apparatus from a two-dimensional captured image captured from the same angle of view as the predetermined angle of view. Learning a learning model for inferring the three-dimensional coordinates of the robot hand in the real world ;
Storing the learned learning model.
Machine learning method.
コンピュータを用いた機械学習方法であって:
所定領域内に配置された複数のワークのうちいずれかを把持するロボットハンドが把持動作を経て把持を成功させるときの前記ロボットハンドの3次元座標データと、前記ロボットハンドが把持を成功させるときの前記把持動作の前に前記所定領域内に配置された複数のワークを2次元撮像装置によって所定画角から撮像した2次元撮像画像データとを備える学習用データセットを複数組記憶するステップと;
前記学習用データセットを複数組入力することで、複数のワークを含む2次元撮像画像から、前記ロボットハンドの前記2次元撮像画像中の複数のワークのうちのいずれかを把持するための1又は複数の3次元座標を推論する学習モデルを学習するステップと;
学習された前記学習モデルを記憶するステップと;を備える、
機械学習方法。
A computer-based machine learning method that:
A three-dimensional coordinate data of the robot hand when the robot hand for gripping either one of the deployed multiple workpieces in a predetermined region is to successfully grip through the gripping operation, when the robot hand is to be successful gripping a step of plural sets stored training data set and a 2-dimensional sensed image data captured from a predetermined angle in the predetermined area two-dimensional imaging device arranged multiple workpieces in front of the gripping operation ;
By inputting a plurality of sets of the learning data sets, one or two of a plurality of workpieces in the two-dimensional captured image of the robot hand are grasped from a two-dimensional captured image including a plurality of workpieces. Learning a learning model for inferring a plurality of three-dimensional coordinates;
Storing the learned learning model.
Machine learning method.
シミュレータの所定領域内に配置された1又は複数のワークのうちいずれかを把持する前記シミュレータ上のロボットハンドが把持動作を経て把持を成功させるときの前記ロボットハンドの1又は複数の3次元座標データ及び角度データと、前記ロボットハンドが把持を成功させるときの前記把持動作の前に前記所定領域内に配置された1又は複数のワークを前記シミュレータ上の2次元撮像装置によって所定画角から撮像した2次元撮像画像データと、を備える学習用データセットを前記シミュレータから取得して複数組記憶するデータセット記憶部と;
前記学習用データセットを複数組入力することで、現実世界における所定領域内に配置された1又は複数のワークを2次元撮像装置によって前記所定画角と同じ画角から撮像した2次元撮像画像から、現実世界におけるロボットハンドの3次元座標及び角度を推論する学習モデルを学習する学習部と;
前記学習部によって学習された前記学習モデルを記憶する学習済モデル記憶部と;を備える、
機械学習装置。
One or more three-dimensional coordinate data of the robot hand when the robot hand on the simulator grips any one or a plurality of workpieces arranged in a predetermined area of the simulator through gripping operation and succeeds in gripping. And one or a plurality of workpieces arranged in the predetermined area were imaged from a predetermined angle of view by the two-dimensional imaging device on the simulator before the gripping operation when the robot hand succeeded in gripping. A data set storage unit for acquiring a learning data set including two-dimensional captured image data from the simulator and storing a plurality of sets;
By inputting a plurality of sets of the learning data sets, one or a plurality of workpieces arranged in a predetermined area in the real world are captured by a two-dimensional imaging apparatus from a two-dimensional captured image captured from the same angle of view as the predetermined angle of view. A learning unit for learning a learning model for inferring three-dimensional coordinates and angles of the robot hand in the real world;
A learned model storage unit that stores the learning model learned by the learning unit.
Machine learning device.
シミュレータと、機械学習装置とを備える機械学習システムであって:
前記シミュレータが、所定領域内に配置された1又は複数のワークのうちいずれかを把持する前記シミュレータ上のロボットハンドが把持動作を経て把持を成功させるときの前記ロボットハンドの1又は複数の3次元座標データ及び角度データと、前記ロボットハンドが把持を成功させるときの前記把持動作の前に前記所定領域内に配置された1又は複数のワークを前記シミュレータ上の2次元撮像装置によって所定画角から撮像した2次元撮像画像データとを備える学習用データセットを生成する機能を有し、
前記機械学習装置が、前記シミュレータから前記学習用データセットを複数組取得して記憶するデータセット記憶部と;前記学習用データセットを複数組入力することで、現実世界における所定領域内に配置された1又は複数のワークを2次元撮像装置によって前記所定画角と同じ画角から撮像した2次元撮像画像から、現実世界におけるロボットハンドの3次元座標及び角度を推論する学習モデルを学習する学習部と;前記学習部によって学習された前記学習モデルを記憶する学習済モデル記憶部と;を備える、
機械学習システム。
A machine learning system comprising a simulator and a machine learning device, wherein:
One or a plurality of three-dimensional robot hands when the simulator succeeds in grasping through a grasping operation by a robot hand on the simulator that grasps one or a plurality of works arranged in a predetermined area. Coordinate data and angle data, and one or a plurality of works arranged in the predetermined area before the gripping operation when the robot hand succeeds in gripping the robot hand from a predetermined angle of view by a two-dimensional imaging device on the simulator. A function of generating a learning data set including captured two-dimensional captured image data,
A data set storage unit for acquiring and storing a plurality of sets of the learning data sets from the simulator; and inputting a plurality of sets of the learning data sets to be arranged in a predetermined area in the real world. A learning unit that learns a learning model that infers three-dimensional coordinates and angles of the robot hand in the real world from a two-dimensional captured image obtained by capturing one or more workpieces from the same angle of view as the predetermined angle of view using a two-dimensional imaging device. And a learned model storage unit that stores the learning model learned by the learning unit.
Machine learning system.
所定領域内に配置された複数のワークのうちいずれかを把持するロボットハンドが把持動作を経て把持を成功させるときの前記ロボットハンドの3次元座標データ及び角度データと、前記ロボットハンドが把持を成功させるときの前記把持動作の前に前記所定領域内に配置された複数のワークを2次元撮像装置によって所定画角から撮像した2次元撮像画像データと、を備える学習用データセットを複数組記憶するデータセット記憶部と;
前記学習用データセットを複数組入力することで、複数のワークを含む2次元撮像画像から、前記ロボットハンドの前記2次元撮像画像中の複数のワークのうちのいずれかを把持するための1又は複数の3次元座標及び角度を推論する学習モデルを学習する学習部と;
前記学習部によって学習された前記学習モデルを記憶する学習済モデル記憶部と;を備える、
機械学習装置。
And the three-dimensional coordinate data and the angle data of the robot hand when the robot hand for gripping either one of the deployed multiple workpieces in a predetermined region is to successfully grip through the gripping operation, the robot hand to grip a plurality of sets of training data set and a 2-dimensional sensed image data captured from a predetermined angle by said gripping the predetermined area two-dimensional imaging device arranged with multiple work in before the operation when a successful A data set storage unit for storing;
By inputting a plurality of sets of the learning data sets, one or two of a plurality of workpieces in the two-dimensional captured image of the robot hand are grasped from a two-dimensional captured image including a plurality of workpieces. A learning unit for learning a learning model for inferring a plurality of three-dimensional coordinates and angles;
A learned model storage unit that stores the learning model learned by the learning unit.
Machine learning device.
所定領域内に配置された1又は複数のワークを2次元撮像装置によって所定画角から撮像した2次元撮像画像データを取得する取得部と;
請求項乃至請求項10のいずれか1項に記載の機械学習装置によって生成された学習済モデルに、前記取得部が取得した前記2次元撮像画像データを入力することで、ロボットハンドの3次元座標及び角度を推論する推論部と;を備える、
データ処理システム。
An acquisition unit configured to acquire two-dimensional captured image data obtained by capturing one or a plurality of works arranged in a predetermined region from a predetermined angle of view by a two-dimensional imaging device;
A three-dimensional robot hand by inputting the two-dimensional captured image data acquired by the acquisition unit to a learned model generated by the machine learning device according to any one of claims 8 to 10. An inference unit that infers coordinates and angles.
Data processing system.
前記推論部において、3次元座標及び角度が複数推論された場合に、前記複数の3次元座標及び角度のうちの所定の一の3次元座標及び角度を特定する特定部を更に備える、
請求項11に記載のデータ処理システム。
The inference unit further includes, when a plurality of three-dimensional coordinates and angles are inferred, a specifying unit that specifies a predetermined one of the plurality of three-dimensional coordinates and angles.
The data processing system according to claim 11 .
コンピュータを用いた機械学習方法であって:
シミュレータの所定領域内に配置された1又は複数のワークのうちいずれかを把持する前記シミュレータ上のロボットハンドが把持動作を経て把持を成功させるときの前記ロボットハンドの1又は複数の3次元座標データ及び角度と、前記ロボットハンドが把持を成功させるときの前記把持動作の前に前記所定領域内に配置された1又は複数のワークを前記シミュレータ上の2次元撮像装置によって所定画角から撮像した2次元撮像画像データと、を備える学習用データセットを前記シミュレータから取得して複数組記憶するステップと;
前記学習用データセットを複数組入力することで、現実世界における所定領域内に配置された1又は複数のワークを2次元撮像装置によって前記所定画角と同じ画角から撮像した2次元撮像画像から、現実世界におけるロボットハンドの3次元座標及び角度を推論する学習モデルを学習するステップと;
学習された前記学習モデルを記憶するステップと;を備える、
機械学習方法。
A computer-based machine learning method that:
One or more three-dimensional coordinate data of the robot hand when the robot hand on the simulator grips any of one or a plurality of works arranged in a predetermined area of the simulator and succeeds in gripping through a gripping operation. 1 and a plurality of workpieces arranged in the predetermined area are imaged from a predetermined angle of view by the two-dimensional imaging device on the simulator before the gripping operation when the robot hand succeeds in gripping. Acquiring from the simulator a learning data set including three-dimensional captured image data, and storing a plurality of learning data sets;
By inputting a plurality of sets of the learning data sets, one or a plurality of workpieces arranged in a predetermined area in the real world are captured by a two- dimensional imaging apparatus from a two-dimensional captured image captured from the same angle of view as the predetermined angle of view. a step of learning a learning model for inferring the three-dimensional coordinates及beauty angles of the robot hand in the real world;
Storing the learned learning model.
Machine learning method.
コンピュータを用いた機械学習方法であって:
所定領域内に配置された複数のワークのうちいずれかを把持するロボットハンドが把持動作を経て把持を成功させるときの前記ロボットハンドの3次元座標データ及び角度と、前記ロボットハンドが把持を成功させるときの前記把持動作の前に前記所定領域内に配置された複数のワークを2次元撮像装置によって所定画角から撮像した2次元撮像画像データと、を備える学習用データセットを複数組記憶するステップと;
前記学習用データセットを複数組入力することで、複数のワークを含む2次元撮像画像から、前記ロボットハンドの前記2次元撮像画像中の複数のワークのうちのいずれかを把持するための1又は複数の3次元座標及び角度を推論する学習モデルを学習するステップと;
学習された前記学習モデルを記憶するステップと;を備える、
機械学習方法。
A computer-based machine learning method that:
And the three-dimensional coordinate data and the angle of the robot hand when the robot hand for gripping either one of the deployed multiple workpieces in a predetermined region is to successfully grip through the gripping operation, the robot hand successful gripping wherein the 2-dimensional sensed image data captured from a predetermined angle by the gripping said predetermined area two-dimensional imaging device arranged with multiple work in the previous operation, a plurality of sets stored training data set comprising a time to Performing the steps;
By inputting a plurality of sets of the learning data sets, one or two of a plurality of workpieces in the two-dimensional captured image of the robot hand are grasped from a two-dimensional captured image including a plurality of workpieces. a step of learning a learning model for inferring a plurality of three-dimensional coordinates及beauty angles;
Storing the learned learning model.
Machine learning method.
JP2018225088A 2018-11-30 2018-11-30 Machine learning device, machine learning system, data processing system, and machine learning method Active JP6671694B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018225088A JP6671694B1 (en) 2018-11-30 2018-11-30 Machine learning device, machine learning system, data processing system, and machine learning method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018225088A JP6671694B1 (en) 2018-11-30 2018-11-30 Machine learning device, machine learning system, data processing system, and machine learning method

Publications (2)

Publication Number Publication Date
JP6671694B1 true JP6671694B1 (en) 2020-03-25
JP2020082322A JP2020082322A (en) 2020-06-04

Family

ID=70000905

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018225088A Active JP6671694B1 (en) 2018-11-30 2018-11-30 Machine learning device, machine learning system, data processing system, and machine learning method

Country Status (1)

Country Link
JP (1) JP6671694B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021200438A1 (en) * 2020-03-31 2021-10-07 ミネベアミツミ株式会社 Calibration system, information processing system, robot control system, calibration method, information processing method, robot control method, calibration program, information processing program, calibration device, information processing device, and robot control device
JP7357225B2 (en) 2020-03-27 2023-10-06 パナソニックIpマネジメント株式会社 How to perform inference

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7537192B2 (en) * 2020-09-09 2024-08-21 オムロン株式会社 Robot system and picking method
JP7531196B2 (en) * 2020-09-09 2024-08-09 オムロン株式会社 Robot system and picking method
EP4044125A4 (en) * 2020-10-20 2023-08-02 Samsung Electronics Co., Ltd. Electronic apparatus and control method thereof
EP4252975A4 (en) 2020-11-30 2024-08-28 Sumitomo Heavy Industries Information processing device, and picking device
JP7538756B2 (en) * 2021-03-18 2024-08-22 株式会社東芝 Data generation device, data generation method, control device, control method, and program
WO2023073780A1 (en) * 2021-10-25 2023-05-04 ファナック株式会社 Device for generating learning data, method for generating learning data, and machine learning device and machine learning method using learning data

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6771744B2 (en) * 2017-01-25 2020-10-21 株式会社安川電機 Handling system and controller

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7357225B2 (en) 2020-03-27 2023-10-06 パナソニックIpマネジメント株式会社 How to perform inference
WO2021200438A1 (en) * 2020-03-31 2021-10-07 ミネベアミツミ株式会社 Calibration system, information processing system, robot control system, calibration method, information processing method, robot control method, calibration program, information processing program, calibration device, information processing device, and robot control device
JP2021160037A (en) * 2020-03-31 2021-10-11 ミネベアミツミ株式会社 Calibration system, information processing system, robot control system, calibration method, information processing method, robot control method, calibration program, information processing program, calibration device, information processing device, and robot control device
JP7423387B2 (en) 2020-03-31 2024-01-29 ミネベアミツミ株式会社 Calibration system, information processing system, robot control system, calibration method, information processing method, robot control method, calibration program, information processing program, calibration device, information processing device, and robot control device

Also Published As

Publication number Publication date
JP2020082322A (en) 2020-06-04

Similar Documents

Publication Publication Date Title
JP6671694B1 (en) Machine learning device, machine learning system, data processing system, and machine learning method
CN110000785B (en) Agricultural scene calibration-free robot motion vision cooperative servo control method and equipment
US20230330848A1 (en) Reinforcement and imitation learning for a task
JP6873941B2 (en) Robot work system and control method of robot work system
CN112297013B (en) Robot intelligent grabbing method based on digital twin and deep neural network
JP2019093461A (en) Holding system, learning device, holding method and model manufacturing method
JP2018202550A (en) Machine learning device, machine learning method, and machine learning program
CN114599488B (en) Machine learning data generation device, machine learning device, work system, computer program, machine learning data generation method, and work machine manufacturing method
US20210129319A1 (en) Controller, control method, and computer program product
CN110385694A (en) Action teaching device, robot system and the robot controller of robot
Rahman Cognitive cyber-physical system (C-CPS) for human-robot collaborative manufacturing
JP2022187984A (en) Grasping device using modularized neural network
JP2020082315A (en) Image generating device, robot training system, image generating method, and image generating program
JP2021065955A (en) Robot control system, control method for the same, and program
CN110216671A (en) A kind of mechanical gripper training method and system based on Computer Simulation
JP2022187983A (en) Network modularization to learn high dimensional robot tasks
JP7008136B2 (en) Machine learning device and robot system equipped with it
JP2024528419A (en) Method and apparatus for updating an object detection model
CN116460843A (en) Multi-robot collaborative grabbing method and system based on meta heuristic algorithm
Zakaria et al. Robotic control of the deformation of soft linear objects using deep reinforcement learning
Kumra et al. Learning robotic manipulation tasks via task progress based Gaussian reward and loss adjusted exploration
CN114131603A (en) Deep reinforcement learning robot grabbing method based on perception enhancement and scene migration
WO2023273179A1 (en) Method and system for training grabbing network, and electronic device and storage medium
EP4175795B1 (en) Transfer between tasks in different domains
CN113436293B (en) Intelligent captured image generation method based on condition generation type countermeasure network

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190530

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20190626

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20190819

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191112

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191119

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191223

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200128

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200220

R150 Certificate of patent or registration of utility model

Ref document number: 6671694

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250