JP7005388B2 - Information processing equipment and sorting system - Google Patents
Information processing equipment and sorting system Download PDFInfo
- Publication number
- JP7005388B2 JP7005388B2 JP2018036578A JP2018036578A JP7005388B2 JP 7005388 B2 JP7005388 B2 JP 7005388B2 JP 2018036578 A JP2018036578 A JP 2018036578A JP 2018036578 A JP2018036578 A JP 2018036578A JP 7005388 B2 JP7005388 B2 JP 7005388B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- article
- control unit
- car
- picking position
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Description
本発明の実施形態は、情報処理装置及び仕分システムに関する。 Embodiments of the present invention relate to an information processing apparatus and a sorting system.
小包などの物品(荷物)を配送する仕分システムでは、収集した荷物を配送先ごとに仕分ける作業が必要となる。例えば、物品を把持する把持機構と、把持機構を移動させるアーム機構とを有するロボットアームと、ロボットアームに動作を指示する情報処理装置とを備える仕分システムが実用化されている。 In a sorting system that delivers goods (luggage) such as parcels, it is necessary to sort the collected packages by delivery destination. For example, a sorting system including a robot arm having a gripping mechanism for gripping an article, an arm mechanism for moving the gripping mechanism, and an information processing device for instructing the robot arm to operate has been put into practical use.
情報処理装置は、かご車に搭載された物品の画像(かご車画像)を取得する。情報処理装置は、画像に写った物品を認識する為のパラメータ(画像認識パラメータ)を用いて、かご車画像に対して画像認識を行い、かご車画像において物品が存在する領域(物品領域)を認識する。情報処理装置は、物品領域の認識結果に基づき、ロボットアームにより物品を把持させる位置(ピッキング位置)を決定する。情報処理装置は、ピッキング位置と把持機構の移動経路とを示す動作計画を生成し、ロボットアームに動作計画を供給する。 The information processing device acquires an image of an article mounted on the car (car image). The information processing device performs image recognition on the car vehicle image using a parameter (image recognition parameter) for recognizing the article in the image, and determines the area (article area) in which the article exists in the car car image. recognize. The information processing apparatus determines a position (picking position) for gripping the article by the robot arm based on the recognition result of the article area. The information processing device generates an motion plan indicating the picking position and the movement path of the gripping mechanism, and supplies the motion plan to the robot arm.
ロボットアームは、情報処置装置から供給された動作計画に基づいて、アーム機構により把持機構を移動させる。ロボットアームは、ピッキング位置において、把持機構により物品を把持し、物品を仕分先まで移動させる。 The robot arm moves the gripping mechanism by the arm mechanism based on the motion plan supplied from the information processing device. At the picking position, the robot arm grips the article by the gripping mechanism and moves the article to the supplier.
仕分システムで仕分される物品は、寸法及び外観などが一様ではない。情報処理装置による画像認識の精度を向上させる為に、機械学習を行い、画像認識パラメータを調整することが有効である。しかしながら、機械学習には、大量の学習用データが必要になる。学習用データは、問題と答えとを有するものである。上記の情報処理装置では、かご車画像が問題に相当し、かご車画像上における物品領域の位置が答えに相当する。即ち、機械学習を行う為に、物品領域が予め特定されたかご車画像が大量に必要になるという課題がある。 The articles sorted by the sorting system are not uniform in size and appearance. In order to improve the accuracy of image recognition by the information processing device, it is effective to perform machine learning and adjust the image recognition parameters. However, machine learning requires a large amount of learning data. The learning data has a question and an answer. In the above information processing device, the car car image corresponds to the problem, and the position of the article area on the car car image corresponds to the answer. That is, there is a problem that a large number of car vehicle images in which the article area is specified in advance are required for machine learning.
本発明が解決しようとする課題は、容易に学習用データを収集可能な情報処理装置及び仕分システムを提供することである。 An object to be solved by the present invention is to provide an information processing device and a sorting system capable of easily collecting learning data.
実施形態によれば、所定範囲に置かれた物品を把持する把持機構と、前記把持機構を移動させるアーム機構とを具備するロボットアームに前記物品を把持させるピッキング位置を示すピッキング位置データを供給するとともに、前記所定範囲の画像から前記物品が存在する物品領域を認識する為の画像認識パラメータを調整する学習装置に、学習用データを供給する情報処理装置は、制御部を具備する。制御部は、操作インタフェースへの入力操作に基づいて、前記ロボットアームに前記ピッキング位置データを供給することにより前記物品を移動させ、前記物品が移動する前の前記所定範囲の画像である第1画像と、前記物品が移動した後の前記所定範囲の画像である第2画像とに基づいて、学習用データを生成し、生成した前記学習用データを前記学習装置に供給し、前記第1画像と前記第2画像との差分に基づいて、前記第1画像上の前記物品が存在する物品領域を示すマスク画像を生成し、前記第1画像を問題とし前記マスク画像を答えとする前記学習用データを前記学習装置に供給し、前記物品領域と、前記ピッキング位置データとに基づいて、前記学習装置に前記学習用データを供給するか否か判断する。 According to the embodiment, picking position data indicating a picking position for gripping the article is supplied to a robot arm including a gripping mechanism for gripping the article placed in a predetermined range and an arm mechanism for moving the gripping mechanism. At the same time, the information processing device that supplies the learning data to the learning device that adjusts the image recognition parameter for recognizing the article region in which the article exists from the image in the predetermined range includes a control unit. The control unit moves the article by supplying the picking position data to the robot arm based on an input operation to the operation interface, and the first image which is an image of the predetermined range before the article moves. And the second image which is the image of the predetermined range after the article has moved, the training data is generated, and the generated learning data is supplied to the learning device, and the first image and the image are used. Based on the difference from the second image, a mask image showing an article region in which the article exists on the first image is generated, and the learning data in which the first image is a problem and the mask image is the answer. Is supplied to the learning device, and it is determined whether or not to supply the learning data to the learning device based on the article region and the picking position data.
以下、実施形態について、図面を参照して説明する。
(第1の実施形態)
図1は、第1の実施形態に係る仕分システム1の概略的な構成例について説明する為の説明図である。
Hereinafter, embodiments will be described with reference to the drawings.
(First Embodiment)
FIG. 1 is an explanatory diagram for explaining a schematic configuration example of the
仕分システム1は、かご車2に積載された仕分対象である物品3を所定の仕分先に仕分けるシステムである。
The
かご車2は、物品3を収容する収容部とキャスターとが組み合わされた容器である。なお、かご車2は、仕分対象の物品3が積載される容器の一例であり、荷台、またはパレットなど、物品3を積載することができるものであれば如何なるものであってもよい。
The
物品3の仕分先は、例えばベルトコンベア4である。なお、仕分先は、ベルトコンベア4に限定されるものではなく、仕分用のカゴであっても良いし、作業台などであっても良い。
The supplier of the
仕分システム1は、ロボットアーム11、情報処理装置12、及び操作端末13を備える。また、仕分システム1は、距離センサ14をさらに備える。また、仕分システム1は、ストレージ15、及び学習装置16をさらに備える。ロボットアーム11、情報処理装置12、操作端末13、距離センサ14、ストレージ15、及び学習装置16は、ネットワーク17を介して互いに通信可能に構成されている。
The
まず、ロボットアーム11の構成について説明する。
ロボットアーム11は、かご車2に積載された物品を把持し、把持した物品3を持ち上げ、物品3を仕分先に供給する装置である。ロボットアーム11は、把持機構21、アーム機構22、接触センサ23、及びコントローラ24を備える。
First, the configuration of the
The
把持機構21は、物品3を把持する機構である。把持機構21は、例えば、物品3に吸着する吸着パッドを備える。吸着パッドは、物品3の表面に接し、且つコントローラ24の制御によりパッド内が負圧になることにより、物品3の表面に吸着し、物品3を把持する。また、把持機構21は、2点以上の接点で物品3を挟むことにより物品3を把持する複数の指部を備えるグリッパとして構成されていてもよい。
The gripping mechanism 21 is a mechanism for gripping the
アーム機構22は、把持機構21を移動させる機構である。アーム機構22は、複数のアームと、複数のアームを連結する関節機構とを備える。関節機構は、コントローラ24により制御されるアクチュエータ(図示せず)により可動することにより、アームを駆動する。
The
接触センサ23は、把持機構21に対して加えられる応力を検知するセンサである。接触センサ23は、例えば、把持機構21に対して鉛直方向から加わる応力を検知する。接触センサ23は、検知結果をコントローラ24に送信する。具体的には、接触センサ23は、把持機構21に対して鉛直方向から加わる応力を検知した場合、オン信号をコントローラ24に供給する。なお、接触センサ23は、アーム機構22に対して加えられる応力も検知する構成であってもよい。
The
コントローラ24は、情報処理装置12から供給される動作計画に基づいて、把持機構21及びアーム機構22の動作を制御する。コントローラ24は、例えば、メモリ(図示せず)と、メモリに記憶されたプログラムを実行することにより把持機構21及びアーム機構22の動作を制御する演算素子(図示せず)とを備える。また、コントローラ24は、シーケンサとして構成されていてもよい。
The
動作計画は、ピッキング位置を示すピッキング位置データと、軌跡とを含む情報である。コントローラ24は、動作計画が示す軌跡を通り、動作計画のピッキング位置データが示すピッキング位置まで把持機構21を移動させる。
The motion plan is information including picking position data indicating a picking position and a locus. The
ピッキング位置データは、把持機構21により物品3を把持させる位置を示す情報である。例えば、ピッキング位置データは、把持機構21により物品3を把持させる場合に把持機構21を移動させる位置を示す。より具体的には、ピッキング位置データは、把持機構21の基準点の移動先の3次元空間上の座標である。なお、以下ピッキング位置データが示すピッキング位置を、単にピッキング位置と称する。
The picking position data is information indicating a position where the
軌跡は、ロボットアーム11の把持機構21をピッキング位置まで移動させる際の経路を示す。より具体的には、軌跡は、把持機構21の基準点の移動経路を示す3次元空間上の複数の座標である。なお、ピッキング位置は、軌跡に含まれていてもよい。
The locus shows a path when the gripping mechanism 21 of the
把持機構21が吸着パッドとして構成されている場合、把持機構21の基準点は、例えば、吸着パッドの中心(重心)であってもよいし、吸着パッドにおける任意の点であってもよい。また、把持機構21がグリッパとして構成されている場合、把持機構21の基準点は、例えば、グリッパを構成する複数の指部の中心であってもよい。 When the gripping mechanism 21 is configured as a suction pad, the reference point of the gripping mechanism 21 may be, for example, the center (center of gravity) of the suction pad or any point on the suction pad. When the gripping mechanism 21 is configured as a gripper, the reference point of the gripping mechanism 21 may be, for example, the center of a plurality of fingers constituting the gripper.
次に、距離センサ14の構成について説明する。
距離センサ14は、対象物までの距離を計測するセンサである。距離センサ14は、対象物と距離センサ14との距離を示す点が配列された点群により構成された距離画像を取得する。即ち、距離画像は、互いに直交するx方向、y方向、z方向からなる空間における点の集合である。または、距離画像は、画素の配列上に並んだ距離値の集合である。距離センサ14は、距離画像を、ネットワーク17を介して情報処理装置12に供給する。
Next, the configuration of the
The
距離センサ14は、例えば異なる2点(瞳位置)から対象物を撮像した際の視差に基づいて対象物までの距離を計測するステレオカメラである。即ち、距離センサ14は、レンズと、レンズにより結像された光を画像に変換する撮像素子とが組み合わされた2つ以上のカメラを備える。このような構成により、距離センサ14は、上記の距離画像と同時に、色情報を有する座標(画素)が二次元的に配列されたラスタ画像を取得する。なお、ラスタ画像は、カラー画像であっても単色画像であってもよい。距離センサ14は、ラスタ画像を、ネットワーク17を介して情報処理装置12に供給する。
The
距離センサ14のレンズは、ロボットアーム11により持ち上げられる物品3が積載されたかご車2を含む領域を撮影することができるように画角が調整されている。例えば、距離センサ14のレンズは、光軸がかご車2の底面に対向するように調整される。例えば、距離センサ14のレンズは、距離センサ14のレンズの光軸と、上記のz方向(鉛直方向)が平行になるように調整される。即ち、距離センサ14は、かご車2の底面に対向する方向からかご車2を含む所定範囲を撮像し、距離画像、及びラスタ画像を取得する。なお、かご車2を含む所定範囲の画像をかご車画像と称する。かご車画像は、距離画像とラスタ画像とのいずれであってもよいが、本実施形態では、かご車画像は距離画像であると仮定して説明する。
The angle of view of the lens of the
なお、距離センサ14は、対象物からの光を分光し、撮像素子の異なる位置に入射させる構成であってもよい。また、距離センサ14は、レーザによる1次元スキャナであってもよい。
The
次に、操作端末13について説明する。
図2は、操作端末13の構成例について説明する為の説明図である。
Next, the
FIG. 2 is an explanatory diagram for explaining a configuration example of the
操作端末13は、操作に基づく情報を情報処理装置12に供給する装置である。即ち、操作端末13は、情報処理装置12の操作インタフェースとして機能する。操作端末13は、通信インタフェース31、制御部32、及びタッチパネル33を備える。
The
通信インタフェース31は、操作端末13以外の他の機器と通信する為のインタフェースである。通信インタフェース31は、ネットワーク17を介してロボットアーム11、情報処理装置12、及び距離センサ14と通信する為の通信規格などに対応した端子及び回路を備える。通信インタフェース31は、制御部32の制御に基づいて、ロボットアーム11、情報処理装置12、及び距離センサ14などと通信する。
The
制御部32は、種々の処理を実行する処理部である。制御部32は、プロセッサ34及びメモリ35を備える。
The
プロセッサ34は、演算処理を実行する演算素子である。プロセッサ34は、例えばCPUとして構成される。プロセッサ34は、メモリ35に記憶されているプログラムに基づいて種々の処理を行う。
The
メモリ35は、プログラム及びデータを記憶する記憶装置である。メモリ35は、例えば、読み出し専用の不揮発性メモリであるROM、データを一時的に記憶するRAM、及びデータを記憶するストレージのいずれか、または複数を備える。
The
タッチパネル33は、画面の表示と、操作に基づく操作信号の生成とを行う装置である。タッチパネル33は、一体に構成されたディスプレイ36及びタッチセンサ37を備える。操作端末13は、タッチパネル33の代わりに画面を表示するディスプレイと、操作に基づき操作信号を生成する操作部とを備える構成であってもよい。操作部は、マウス、トラックボール、キーボード、トラックパッドなど如何なるものであってもよい。
The
ディスプレイ36は、制御部32または図示されないグラフィックコントローラから供給される表示用のデータ(画面データ)に基づいて画面を表示する。
The
タッチセンサ37は、ディスプレイ36に表示された画面上において操作端末13を操作するオペレータがタッチした位置を示す操作信号を生成する。
The
次に、情報処理装置12の構成について説明する。
図3は、情報処理装置12の構成例について説明する為の説明図である。
Next, the configuration of the
FIG. 3 is an explanatory diagram for explaining a configuration example of the
情報処理装置12は、ロボットアーム11に動作計画を供給する装置である。情報処理装置12は、かご車2に搭載された物品3の画像であるかご車画像を取得する。情報処理装置12は、かご車画像に写った物品3を認識する為のパラメータである画像認識パラメータを用いて、かご車画像に対して画像認識を行い、かご車画像において物品3が写った領域である物品領域を認識する。情報処理装置12は、物品領域の認識結果に基づき、ロボットアーム11により物品3を把持させる位置であるピッキング位置を決定する。情報処理装置12は、ピッキング位置と把持機構21の移動経路である軌跡とを示す動作計画を生成し、ロボットアーム11に動作計画を供給する。
The
また、情報処理装置12は、後述する方法によって、学習装置16に機械学習を行わせる為の学習用データを生成する。情報処理装置12は、生成した学習用データをストレージ15に供給する。
Further, the
情報処理装置12は、パーソナルコンピュータ(PC)などの、データの処理及びデータの保存を行うことができる装置により構成される。情報処理装置12は、通信インタフェース41及び制御部42を備える。
The
通信インタフェース41は、情報処理装置12以外の他の機器と通信する為のインタフェースである。通信インタフェース41は、ネットワーク17を介してロボットアーム11、操作端末13、及び距離センサ14と通信する為の通信規格などに対応した端子及び回路を備える。通信インタフェース41は、制御部42の制御に基づいて、ロボットアーム11、操作端末13、距離センサ14、ストレージ15、及び学習装置16などと通信する。
The
制御部42は、種々の処理を実行する処理部である。制御部42は、プロセッサ43及びメモリ44を備える。
The
プロセッサ43は、演算処理を実行する演算素子である。プロセッサ43は、例えばCPUとして構成される。プロセッサ43は、メモリ44に記憶されているプログラムに基づいて種々の処理を行う。
The
メモリ44は、プログラム及びデータを記憶する記憶装置である。メモリ44は、例えば、読み出し専用の不揮発性メモリであるROM、データを一時的に記憶するRAM、及びデータを記憶するストレージのいずれか、または複数を備える。例えば、メモリ44は、画像認識パラメータを記憶する。
The
次に、ストレージ15及び学習装置16について説明する。
ストレージ15は、学習用データを記憶する記憶装置である。ストレージ15は、情報処理装置12から供給された学習用データを記憶する。ストレージ15は、学習装置16からの要求に応じて、学習用データを学習装置16に供給する。
Next, the
The
学習装置16は、ストレージ15から学習用データを取得し、学習用データに基づいて機械学習を行うことにより画像認識パラメータを生成し、情報処理装置12に画像認識パラメータを供給する。学習装置16は、学習装置16以外の機器と通信する為の通信インタフェース、種々の処理を実行する制御部、及びメモリなどを備える。
The
学習装置16で用いられる学習用データは、問題と答えとを有するデータである。例えば、学習用データは、仕分対象の物品3が写ったかご車画像と、このかご車画像において仕分対象の物品が写った領域である物品領域を示す情報とを有する。かご車画像が問題に相当し、かご車画像における物品領域が答えに相当する。学習装置16は、このような学習用データに基づいて、例えばセグメーテーション用のニューラルネットワークなどにより機械学習を行うことにより、情報処理装置12がかご車画像から物体領域を認識する際に用いられる画像認識パラメータを生成する。画像認識パラメータは、セグメーテーション用のニューラルネットワークにおける重み計数である。なお、学習装置16は、学習用データを取得する毎に画像認識パラメータを生成する構成であってもよいし、取得した学習用データに基づいて生成された画像認識パラメータを用いて、既に生成した画像認識パラメータを調整(更新)する構成であってもよい。また、学習装置16は、既に生成した画像認識パラメータを調整(変更)する場合、1度に調整することができる値を制限する構成であってもよい。
The learning data used in the
次に、ロボットアーム11の動作について説明する。
図4は、ロボットアーム11の動作について説明する為のフローチャートである。
Next, the operation of the
FIG. 4 is a flowchart for explaining the operation of the
ロボットアーム11のコントローラ24は、アーム機構22及び把持機構21を距離センサ14の画角外の初期位置に移動させる(ステップS11)。例えば、コントローラ24は、アーム機構22の関節機構をアクチュエータにより可動させることにより、アーム機構22を駆動し、アーム機構22及び把持機構21を撮影範囲外に移動させる。なお、距離センサ14は、アーム機構22及び把持機構21を撮影範囲外に移動したタイミングでかご車画像を取得し、情報処理装置12に送信する。
The
コントローラ24は、アーム機構22及び把持機構21を撮影範囲外に移動させると、情報処理装置12から動作計画が供給されるのを待つ(ステップS12)。
When the
コントローラ24は、情報処理装置12から動作計画が供給された場合(ステップS12、YES)、動作計画に基づき把持機構21を移動させる(ステップS13)。例えば、コントローラ24は、動作計画が示す軌跡に基づき、動作計画が示すピッキング位置まで把持機構21を移動させるように、アーム機構22を制御する。
When the operation plan is supplied from the information processing apparatus 12 (step S12, YES), the
コントローラ24は、把持機構21の位置を逐次確認し、動作計画が示すピッキング位置に到達したか否か判断する。コントローラ24は、把持機構21がピッキング位置に到達した場合、次のステップS14の処理に移行する。また、コントローラ24は、接触センサ23の検知結果(接触検知結果)を逐次確認し、把持機構21がピッキング位置に到達し、且つ接触検知結果がオンである場合に、次のステップS14の処理に移行する構成であってもよい。
The
コントローラ24は、把持機構21がピッキング位置に到達したと判断した場合、把持機構21により物品3を把持させる(ステップS14)。例えば把持機構21が吸着パッドとして構成されている場合、コントローラ24は、吸着パッド内を図示されない真空ポンプなどにより負圧にさせることにより、把持機構21に物品を把持させる。また例えば、把持機構21がグリッパとして構成されている場合、コントローラ24は、グリッパの指部により物品を挟ませることにより、把持機構21に物品を把持させる。
When the
コントローラ24は、把持機構21により物品3を把持させる動作を行わせた後、物品3の把持が正常に行われたか否か判断する(ステップS15)。即ち、コントローラ24は、把持機構21により物品3を把持することができたか否か判断する。例えば、把持機構21が吸着パッドとして構成されている場合、コントローラ24は、吸着パッド内が負圧にならない場合、把持機構21により物品3を把持できていないと判断する。また、例えば、把持機構21がグリッパとして構成されている場合、コントローラ24は、グリッパにより物品3を挟むことにより、グリッパの指部に加わることが推定される応力が生じない場合、把持機構21により物品3を把持できていないと判断する。
The
コントローラ24は、把持機構21による物品3の把持が正常に行われたと判断した場合(ステップS15、YES)、物品3を把持した把持機構21を仕分先に応じたベルトコンベア4に対応した位置まで移動させるように、アーム機構22を制御する(ステップS16)。
When the
コントローラ24は、把持機構21を仕分先に応じたベルトコンベア4に対応した位置まで移動させると、把持機構21による物品3の把持を解除するように把持機構21を制御し(ステップS17)、1つの物品の仕分が完了したことを示す完了通知を情報処理装置12に送信し、ステップS11の処理に移行する。これにより、把持機構21から離れた物品3が、仕分先のベルトコンベア4に投入される。さらに、コントローラ24は、アーム機構22及び把持機構21を距離センサ14の画角外に移動させ、次の動作計画の受信を待つ状態になる。
When the gripping mechanism 21 is moved to a position corresponding to the
また、コントローラ24は、把持機構21による物品3の把持が正常に行われなかったと判断した場合(ステップS15、NO)、把持が正常に行われなかったことを示すエラーを情報処理装置12に送信し(ステップS18)、ステップS11の処理に移行する。
Further, when the
なお、ロボットアーム11のコントローラ24は、情報処理装置12から終了指示が供給された場合、アーム機構22及び把持機構21を所定の位置に移動させ、図4の処理を終了する。
When the end instruction is supplied from the
次に、情報処理装置12の動作について説明する。
図5は、情報処理装置12の動作について説明する為のフローチャートである。
Next, the operation of the
FIG. 5 is a flowchart for explaining the operation of the
情報処理装置12の制御部42は、画像認識モード、手動入力モード、及び併用モードなどのモードで動作する。自身のモードは、例えばメモリ44の所定の領域の情報によって示される。自身のモードは、通信インタフェースを介して入力される情報により切り替えられる。
The
画像認識モードは、画像認識によってかご車画像から物品領域を認識し、ピッキング位置を決定するモードである。 The image recognition mode is a mode in which an article area is recognized from a car vehicle image by image recognition and a picking position is determined.
手動入力モードは、操作端末13のオペレータが、操作端末13に対して入力した操作に基づいて、ピッキング位置を決定するモードである。
The manual input mode is a mode in which the operator of the
併用モードは、画像認識によってかご車画像から物品領域を認識し、ピッキング位置を決定し、画像認識によってかご車画像から物品領域を認識することができなかった場合、操作端末13のオペレータが操作端末13に対して入力した操作に基づいて、ピッキング位置を決定するモードである。
In the combined mode, the article area is recognized from the car car image by image recognition, the picking position is determined, and when the article area cannot be recognized from the car car image by image recognition, the operator of the
まず、情報処理装置12の制御部42は、自身がどのモードで動作しているのか判断する。例えば、制御部42は、自身が画像認識モードで動作しているか否か判断する(ステップS21)。また、制御部42は、自身が手動入力モードで動作しているか否か判断する(ステップS22)。また、制御部42は、自身が併用モードで動作しているか否か判断する(ステップS23)。制御部42は、画像認識モード、手動入力モード、及び併用モードのいずれでもないと判断した場合(ステップS21乃至S23、NO)、エラーであると判断し、処理を終了する。
First, the
制御部42は、自身が画像認識モードで動作していると判断した場合(ステップS21、YES)、画像認識モードに応じた処理を行い(ステップS24)、ステップS27の処理に移行する。
When the
また、制御部42は、自身が手動入力モードで動作していると判断した場合(ステップS22、YES)、手動入力モードに応じた処理を行い(ステップS25)、ステップS27の処理に移行する。
Further, when the
また、制御部42は、併用モードで動作していると判断した場合(ステップS23、YES)、併用モードに応じた処理を行い(ステップS26)、ステップS27の処理に移行する。
Further, when it is determined that the
制御部42は、かご車2が空になったか否か判断する(ステップS27)。制御部42は、画像に基づいて、かご車2が空になったか否か判断する構成であってもよいし、他の情報に基づいて、かご車2が空になったか否か判断する構成であってもよい。例えば、制御部42は、かご車画像を取得し、かご車画像に対して画像認識を行い、物品領域の検出結果に基づいて、仕分が可能な物品が存在するか否か判断する。
The
図6は、画像認識モードにおける情報処理装置12の動作について説明する為のフローチャートである。即ち、図6は、図5におけるステップS24に対応するフローチャートである。
FIG. 6 is a flowchart for explaining the operation of the
画像認識モードでは、制御部42は、まず距離センサ14からかご車画像が供給されるのを待つ(ステップS31)。上記したように、距離センサ14は、ロボットアーム11により持ち上げられる物品3が搭載されたかご車2内を、ステレオカメラにより撮像して1対の画像データを取得する。さらに、距離センサ14は、1対の画像データに基づき、画像データ上の所定の領域(点)毎に距離センサ14との距離を算出し、点群データとしてのかご車画像51を生成する。距離センサ14は、生成したかご車画像51を情報処理装置12に供給する。
In the image recognition mode, the
図7は、かご車画像51の例について説明する為の説明図である。図7に示されるように、距離センサ14は、かご車2が設置される領域を含む所定範囲が画角として設定されている。この為、かご車画像51には、かご車2及び複数の物品3が写り込んでいる。
FIG. 7 is an explanatory diagram for explaining an example of the
かご車画像51には、かご車2及びかご車2内に積載された複数の物品3の面と距離センサ14との距離を示す情報が含まれている。即ち、距離センサ14が設置されている高さ、距離センサ14に用いられているレンズの焦点距離、及び距離センサ14に用いられている撮像素子の寸法が既知である場合、かご車画像51に基づき、かご車2が設置される床から複数の物品3の面までの高さが算出可能である。
The
情報処理装置12の制御部42は、距離センサ14からかご車画像51を取得すると、メモリ44に記憶された画像認識パラメータを用いてかご車画像51に対して画像認識を行う。これにより、制御部42は、かご車画像51内において物品3が存在する領域である物品領域を認識する(ステップS32)。具体的には、制御部42は、かご車画像51に対して、メモリ44に記憶された画像認識パラメータを用いて、物体検出またはセグメンテーション用のニューラルネットワークなどの手法を用いることにより、物品領域を認識する。例えば、制御部42は、かご車画像51において最も高い位置に存在する面に対応する領域を、物品領域として認識する。
When the
図8は、かご車画像51内の物品領域の認識結果の例について説明する為の説明図である。図8に示されるように、かご車画像51において、最も高い位置に存在する物品3の面が物品領域52として認識されている。これにより、制御部42は、仕分対象の物品3の形状を認識する。
FIG. 8 is an explanatory diagram for explaining an example of the recognition result of the article region in the
制御部42は、かご車画像51における物品領域52の認識結果に基づいて、ピッキング位置を決定する(ステップS33)。例えば、制御部42は、物品領域の重心(若しくは中心)の座標をピッキング位置として決定する。
The
図9は、かご車画像51の物品領域52の認識結果に基づいて決定されたピッキング位置53の例について説明する為の説明図である。図9に示されるように、制御部42は、物品領域52の重心をピッキング位置53として決定する。
FIG. 9 is an explanatory diagram for explaining an example of the picking
制御部42は、決定したピッキング位置53に基づいて、動作計画を生成する(ステップS34)。例えば、制御部42は、ロボットアーム11の把持機構21を、初期位置からピッキング位置53まで他の物品3またはかご車2などに接触しないように軌跡を生成し、ピッキング位置と軌跡とを示す動作計画を生成する。さらに、制御部42は、生成した動作計画をロボットアーム11のコントローラ24に送信し(ステップS35)、処理を終了する。これにより、制御部42は、図5のステップS27の処理に移行する。
The
図10は、手動入力モードにおける情報処理装置12の動作について説明する為のフローチャートである。即ち、図10は、図5におけるステップS25に対応するフローチャートである。
FIG. 10 is a flowchart for explaining the operation of the
手動入力モードでは、制御部42は、まず距離センサ14からかご車画像が供給されるのを待つ(ステップS41)。なお、手動入力モードでは、仕分対象の物品3を把持する前の状態のかご車画像を第1かご車画像と称する。即ち、制御部42は、ステップS41において、距離センサ14から第1かご車画像を取得する。なお、第1かご車画像は、図7に示すかご車画像51と同様である。
In the manual input mode, the
制御部42は、第1かご車画像を取得すると、ピッキング位置の入力を促す案内を出力する(ステップS42)。図11は、ピッキング位置の入力を促す入力画面61の例を示す。制御部42は、ピッキング位置の入力を促す文字列と、第1かご車画像とを入力画面61に描画する。例えば、制御部42は、入力画面61を操作端末13に送信する。これにより、制御部42は、操作端末13のオペレータに、ピッキング位置を入力することを促す。
When the
操作端末13の制御部32は、情報処理装置12から入力画面61を受信すると、タッチパネル33のディスプレイ36に入力画面61を表示させる。さらに、制御部32は、入力画面61の表示中のタッチセンサ37による操作入力に基づいて、ピッキング位置を示す座標情報を生成する。制御部32は、ピッキング位置の座標情報を情報処理装置12に供給する。
When the
情報処理装置12の制御部42は、操作端末13においてピッキング位置が入力されたか否か判断する(ステップS43)。制御部42は、操作端末13からピッキング位置の座標情報を受信した場合、操作端末13においてピッキング位置が入力されたと判断する。制御部42は、操作端末13からピッキング位置の座標情報を受信するまでステップS43の判断を繰り返し行う。
The
制御部42は、操作端末13においてピッキング位置が入力されたと判断した場合(ステップS43、YES)、操作端末13から供給されたピッキング位置の座標情報に基づいて、動作計画を生成する(ステップS44)。さらに、制御部42は、生成した動作計画をロボットアーム11のコントローラ24に送信する(ステップS45)。
When the
制御部42は、動作計画をロボットアーム11に送信すると、ロボットアーム11の把持機構21により、物品3の把持が正常に行われたか否か判断する(ステップS46)。例えば、制御部42は、ロボットアーム11から、1つの物品の仕分が完了したことを示す完了通知を受信した場合、物品3の把持が正常に行われたと判断する。また、例えば、制御部42は、ロボットアーム11から、把持機構21による物品3の把持が正常に行われなかったことを示すエラーを受信した場合、物品3の把持が正常に行われなかったと判断する。制御部42は、物品3の把持が正常に行われなかったと判断した場合(ステップS46、NO)、ステップS41に移行し、再度第1かご車画像を取得し、ピッキング位置の入力を促す。
When the operation plan is transmitted to the
制御部42は、物品3の把持が正常に行われたと判断した場合(ステップS46、YES)、距離センサ14から再度かご車画像を取得する(ステップS47)。なお、物品3の把持が正常に行われたということは、第1かご車画像に写っていた仕分対象の物品3が移動されたということを示す。このように、仕分対象の物品3が移動された後のかご車画像を第2かご車画像と称する。即ち、制御部42は、ステップS47において、第2かご車画像を取得する。
When the
次に、制御部42は、第1かご車画像と第2かご車画像との差分を検出する(ステップS48)。例えば、制御部42は、第1かご車画像と第2かご車画像との差分に基づいて、第1かご車画像と第2かご車画像との差分が存在する領域を示すマスク画像を生成する。即ち、制御部42は、ロボットアーム11により物品3を移動させる前のかご車画像と、移動させた後のかご車画像との差分に基づいて、マスク画像を生成する。
Next, the
図12は、第2かご車画像55の例について説明する為の説明図である。上記したように、第2かご車画像55の撮像時には、第1かご車画像に写っていた仕分対象の物品3がかご車2から除かれている。この為、仕分対象の物品3で隠れていた箇所が第2かご車画像55に映り込む。このように、仕分対象の物品3が除かれることにより、第1かご車画像と第2かご車画像55とで差分が生じた領域を差分領域54と称する。
FIG. 12 is an explanatory diagram for explaining an example of the second
図13は、マスク画像71の例について説明する為の説明図である。図13の例では、マスク画像71は、差分領域54の画素値が「1」であり、その他の領域の画素値が「0」である二値画像として構成されている。なお、マスク画像71は、このような構成に限定されるものではなく、第1かご車画像と第2かご車画像とで差分が有る領域とその他の領域とを区別可能な構成であれば如何なる構成であってもよい。また、制御部42は、第1かご車画像と第2かご車画像とで差分が有る領域の輪郭を補正してマスク画像を生成する構成であってもよい。
FIG. 13 is an explanatory diagram for explaining an example of the
差分領域54は、図6のステップS32の画像認識において、物品領域52として検出すべき領域に相当する。即ち、マスク画像71は、学習用データにおいて、第1かご車画像に対する答えに相当する。
The
制御部42は、第1のかご車画像と、マスク画像とに基づいて学習用データを生成する(ステップS49)。即ち、制御部42は、第1のかご車画像を問題とし、第1のかご車画像における仕分対象の物品3が取り除かれた後に撮像された第2のかご車画像と、第1のかご車画像との差分を示すマスク画像を答えとして、学習用データを生成する。制御部42は、生成した学習用データをストレージ15に送信し(ステップS50)、処理を終了する。これにより、制御部42は、図5のステップS27の処理に移行する。なお、制御部42は、再度ステップS25の処理を実行する場合、前回の処理において取得した第2かご車画像を第1かご車画像として用いてもよい。
The
図14は、併用モードにおける情報処理装置12の動作について説明する為のフローチャートである。即ち、図14は、図5におけるステップS26に対応するフローチャートである。
FIG. 14 is a flowchart for explaining the operation of the
併用モードでは、制御部42は、まず画像認識による動作計画の生成を試み、生成した動作計画により物品3の把持が正常に行われなかった場合、手動入力に基づく動作計画の生成を行う。
In the combined mode, the
まず、制御部42は、距離センサ14からかご車画像が供給されるのを待つ(ステップS61)。なお、仕分対象の物品3を把持する前の状態のかご車画像を第1かご車画像と称する。
First, the
制御部42は、距離センサ14から第1かご車画像を取得すると、メモリ44に記憶された画像認識パラメータを用いて、第1かご車画像に対して画像認識を行う。これにより、制御部42は、第1かご車画像内において、仕分対象の物品3が存在する領域である物品領域を認識する。制御部42は、この際、物品領域を認識可能か否か判断する(ステップS62)。制御部42は、物品領域を認識不可であると判断した場合(ステップS62、NO)、後述するステップS67の処理に移行する。
When the
制御部42は、物品領域を認識可であると判断した場合(ステップS62、YES)、第1かご車画像における物品領域の認識結果に基づいて、ピッキング位置を決定する(ステップS63)。
When the
制御部42は、決定したピッキング位置53に基づいて、動作計画を生成する。制御部42は、この際、動作計画を生成可能か否か判断する(ステップS64)。例えば、制御部42は、ロボットアーム11の把持機構21を、初期位置からピッキング位置53まで他の物品3またはかご車2などに接触しないように軌跡を生成し、ピッキング位置と軌跡とを示す動作計画を生成する。制御部42は、このような動作計画を生成することができない場合、動作計画が生成不可であると判断する。制御部42は、動作計画が生成不可であると判断した場合(ステップS64、NO)、後述するステップS67の処理に移行する。
The
制御部42は、動作計画が生成可であると判断した場合(ステップS64、YES)、生成した動作計画をロボットアーム11のコントローラ24に送信する(ステップS65)。
When the
制御部42は、動作計画をロボットアーム11に送信すると、ロボットアーム11の把持機構21により、物品3の把持が正常に行われたか否か判断する(ステップS66)。制御部42は、物品3の把持が正常に行われたと判断した場合(ステップS66、YES)、処理を終了する。これにより、制御部42は、図5のステップS27の処理に移行する。
When the operation plan is transmitted to the
また、制御部42は、物品3の把持が正常に行われなかったと判断した場合(ステップS66、NO)、ピッキング位置の入力を促す案内を出力する(ステップS67)。例えば、制御部42は、図11で示したピッキング位置の入力を促す入力画面61を操作端末13に送信することにより、操作端末13のオペレータに、ピッキング位置を入力することを促す。
Further, when it is determined that the
情報処理装置12の制御部42は、操作端末13においてピッキング位置が入力されたか否か判断する(ステップS68)。制御部42は、操作端末13からピッキング位置の座標情報を受信した場合、操作端末13においてピッキング位置が入力されたと判断する。制御部42は、操作端末13からピッキング位置の座標情報を受信するまでステップS68の判断を繰り返し行う。
The
制御部42は、操作端末13においてピッキング位置が入力されたと判断した場合(ステップS68、YES)、操作端末13から供給されたピッキング位置の座標情報に基づいて、動作計画を生成する(ステップS69)。さらに、制御部42は、生成した動作計画をロボットアーム11のコントローラ24に送信する(ステップS70)。
When the
制御部42は、動作計画をロボットアーム11に送信すると、ロボットアーム11の把持機構21により、物品3の把持が正常に行われたか否か判断する(ステップS71)。制御部42は、物品3の把持が正常に行われなかったと判断した場合(ステップS71、NO)、ステップS67に移行し、再度ピッキング位置の入力を促す。なお、制御部42は、ステップS67に移行する際に、再度距離センサ14から第1かご車画像を取得し、取得した第1かご車画像により入力画面61の表示を更新してもよい。
When the operation plan is transmitted to the
制御部42は、物品3の把持が正常に行われたと判断した場合(ステップS71、YES)、距離センサ14から再度かご車画像を取得する(ステップS72)。なお、物品3の把持が正常に行われたということは、第1かご車画像に写っていた仕分対象の物品3が移動されたということを示す。このように、仕分対象の物品3が移動された後のかご車画像を第2かご車画像と称する。即ち、制御部42は、ステップS72において、第2かご車画像を取得する。
When the
次に、制御部42は、第1かご車画像と第2かご車画像との差分を検出する(ステップS73)。例えば、制御部42は、第1かご車画像と第2かご車画像との差分に基づいて、第1かご車画像と第2かご車画像との差分が存在する領域を示すマスク画像を生成する。なお、マスク画像の生成方法は、図10の説明と同様である。
Next, the
制御部42は、第1のかご車画像と、マスク画像とに基づいて学習用データを生成する(ステップS74)。即ち、制御部42は、第1のかご車画像を問題とし、第1のかご車画像における仕分対象の物品3が取り除かれた後に撮像された第2のかご車画像と、第1のかご車画像との差分を示すマスク画像を答えとして、学習用データを生成する。制御部42は、生成した学習用データをストレージ15に送信し(ステップS75)、処理を終了する。これにより、制御部42は、図5のステップS27の処理に移行する。なお、制御部42は、再度ステップS26の処理を実行する場合、前回の処理において取得した第2かご車画像を第1かご車画像として用いてもよい。
The
上記の様に、仕分システム1は、ロボットアーム11と情報処理装置12とを備える。ロボットアーム11は、所定範囲に置かれた物品3を把持する把持機構21と、把持機構21を移動させるアーム機構22とを有する。情報処理装置12は、ロボットアーム11にピッキング位置を供給するとともに、所定範囲の画像から物品3を認識する為の画像認識パラメータを調整する学習装置16に、学習用データを供給する。
As described above, the
さらに、情報処理装置12の制御部42は、操作端末13などの操作インタフェースへの入力操作に基づいて、ロボットアーム11にピッキング位置を供給することにより、所定範囲の物品3を移動させる。さらに、制御部42は、物品3が移動する前の所定範囲の画像である第1画像(第1かご車画像)と、物品3が移動した後の所定範囲の画像である第2画像(第2かご車画像)とに基づいて、学習用データを生成する。
Further, the
また、制御部42は、第1かご車画像と第2かご車画像との差分に基づいて、第1かご車画像上の物品3が存在する物品領域を示すマスク画像を生成し、第1かご車画像とマスク画像とを学習用データとして生成する。
Further, the
このような構成によると、ピッキング位置を操作入力で指示することにより、確実に物品3をロボットアーム11により移動させつつ、学習用データの問題と答えとを取得することができる。即ち、実際に仕分システム1を運用しつつ、少ない労力で学習用データを収集することができる。この結果、容易に学習用データを収集可能な情報処理装置12及び仕分システム1を提供することができる。また、ピッキング位置を操作入力で指示している為、ロボットアーム11による正確な処理が行われた結果を、学習用データの生成に用いることができる。この結果、正確な収容データを収集することが容易になる。
According to such a configuration, by instructing the picking position by the operation input, it is possible to acquire the problem and the answer of the learning data while surely moving the
(第2の実施形態)
次に、第2の実施形態について説明する。第2の実施形態に係る仕分システム1の情報処理装置12は、手動入力モードにおける動作が第1の実施形態と異なる。第2の実施形態に係る仕分システム1の各構成は、第1の実施形態と同様である為、構成についての詳細な説明を省略する。
(Second embodiment)
Next, the second embodiment will be described. The
第2の実施形態に係る仕分システム1の情報処理装置12の制御部42は、物品を移動させる前のかご車画像において、物品3が存在する物品領域を入力させる。制御部42は、入力された物品領域に基づいて、ピッキング位置を決定する。さらに、制御部42は、かご車画像を問題とし、入力された物品領域を答えとして学習用データを生成し、生成した学習用データをストレージ15に供給する。
The
図15は、手動入力モードにおける情報処理装置12の動作について説明する為のフローチャートである。即ち、図15は、図5におけるステップS25に対応するフローチャートである。
FIG. 15 is a flowchart for explaining the operation of the
手動入力モードでは、制御部42は、まず距離センサ14からかご車画像が供給されるのを待つ(ステップS81)。
In the manual input mode, the
制御部42は、かご車画像を取得すると、かご車画像上で、仕分対象の物品3が存在している物品領域の入力を促す案内を出力する(ステップS82)。図16は、物品領域の入力を促す入力画面81の例を示す。制御部42は、物品領域の入力を促す文字列と、かご車画像とを入力画面81に描画する。例えば、制御部42は、入力画面81を操作端末13に送信する。これにより、制御部42は、操作端末13のオペレータに、物品領域を入力することを促す。
When the
操作端末13の制御部32は、情報処理装置12から入力画面81を受信すると、タッチパネル33のディスプレイ36に入力画面81を表示させる。さらに、制御部32は、入力画面81の表示中のタッチセンサ37による操作入力に基づいて、物品領域を示す情報を生成する。物品領域の情報は、上記のマスク画像であってもよいし、かご車画像上における座標の軌跡であってもよい。制御部32は、物品領域の情報を情報処理装置12に供給する。
When the
情報処理装置12の制御部42は、操作端末13において物品領域が入力されたか否か判断する(ステップS83)。制御部42は、操作端末13から物品領域を示す情報を受信した場合、操作端末13において物品領域が入力されたと判断する。制御部42は、操作端末13から物品領域の情報を受信するまでステップS83の判断を繰り返し行う。
The
制御部42は、操作端末13において物品領域が入力されたと判断した場合(ステップS83、YES)、入力された物品領域に基づいて、ピッキング位置を決定する(ステップS84)。例えば、制御部42は、物品領域の重心(若しくは中心)をピッキング位置として決定する。
When the
制御部42は、決定したピッキング位置に基づいて、動作計画を生成する(ステップS85)。さらに、制御部42は、生成した動作計画をロボットアーム11のコントローラ24に送信する(ステップS86)。
The
制御部42は、動作計画をロボットアーム11に送信すると、ロボットアーム11の把持機構21により、物品3の把持が正常に行われたか否か判断する(ステップS87)。例えば、制御部42は、ロボットアーム11から、1つの物品の仕分が完了したことを示す完了通知を受信した場合、物品3の把持が正常に行われたと判断する。また、例えば、制御部42は、ロボットアーム11から、把持機構21による物品3の把持が正常に行われなかったことを示すエラーを受信した場合、物品3の把持が正常に行われなかったと判断する。制御部42は、物品3の把持が正常に行われなかったと判断した場合(ステップS87、NO)、ステップS83に移行し、再度かご車画像を取得し、物品領域の入力を促す。
When the operation plan is transmitted to the
制御部42は、物品3の把持が正常に行われたと判断した場合(ステップS87、YES)、かご車画像と、物品領域の情報(即ちマスク画像)とに基づいて学習用データを生成する(ステップS88)。即ち、制御部42は、仕分対象の物品3が移動される前のかご車画像を問題とし、このかご車画像において仕分対象の物品3が存在する領域である物品領域を答えとして学習用データを生成する。制御部42は、生成した学習用データをストレージ15に送信し(ステップS89)、処理を終了する。これにより、制御部42は、図5のステップS27の処理に移行する。
When the
なお、制御部42は、上記の図10または図14の処理において、第1かご車画像と第2かご車画像との差分に基づき、マスク画像を生成し、マスク画像と第1かご車画像とに基づいて、学習用データを生成すると説明したが、この構成に限定されない。制御部42は、生成したマスク画像が信頼できるものか否かに基づいて、学習用データを生成するか否か判断する構成であってもよい。
In the process of FIG. 10 or FIG. 14, the
例えば、制御部42は、第1かご車画像と第2かご車画像とに基づいて推定した差分領域(物品領域)と、操作端末13への操作入力により決定したピッキング位置とに基づいて、学習用データを生成するか否か、即ち学習装置16に学習用データを供給するか否かを判断する。より具体的には、制御部42は、物品領域の重心(若しくは中心)と、ピッキング位置との差が予め設定された閾値未満である場合、第1かご車画像とマスク画像とに基づき学習用データを生成する。また、制御部42は、物品領域の略中心(若しくは重心)と、ピッキング位置との差が予め設定された閾値以上である場合、第1かご車画像とマスク画像とに基づく学習用データの生成を行わない。
For example, the
例えば、図17に示されるように、ロボットアーム11により物品3が移動されず、物品3がかご車2内に落下し、物品3の位置がずれた場合、第1かご車画像と第2かご車画像との差分が、物品領域に対応しなくなる。また、ロボットアーム11により物品3が移動されたものの、他の物品3が荷崩れを起こした場合も、第1かご車画像と第2かご車画像との差分が、物品領域に対応しなくなる。このような場合、図17で示されるように、差分領域の重心91と、入力に基づき決定されたピッキング位置53とが乖離する。制御部42は、差分領域の重心91と、入力に基づき決定されたピッキング位置53との差が予め設定された閾値以上であった場合、学習装置16における機械学習の対象から外すことにより、機械学習に用いる学習用データの正確性を担保することができる。
For example, as shown in FIG. 17, when the
また、制御部42は、第1かご車画像と第2かご車画像との差分に基づいて、第1かご車画像上の仕分対象の物品3が存在する物品領域を認識し、認識した物品領域に基づいて、移動させた物品3の寸法を推定し、推定結果をメモリ44に保存する構成であってもよい。このような構成によると、ロボットアーム11毎に仕分を行った物品3の寸法の統計を取ることができる。制御部42は、物品領域の輪郭と、かご車画像の画素値を利用して寸法を算出する。例えば、制御部42は、物品領域の輪郭により、物品3の縦横サイズを推定する。また、制御部42は、第1かご車画像と第2かご車画像との物品領域における画素値の差に基づき、物品3の奥行サイズを推定する。
Further, the
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
なお、以下に本願の出願当初の特許請求の範囲の記載を付記する。
[C1]
所定範囲に置かれた物品を把持する把持機構と、前記把持機構を移動させるアーム機構とを具備するロボットアームに前記物品を把持させるピッキング位置を示すピッキング位置データを供給するとともに、前記所定範囲の画像から前記物品を認識する為の画像認識パラメータを調整する学習装置に、学習用データを供給する情報処理装置であって、
操作インタフェースへの入力操作に基づいて、前記ロボットアームに前記ピッキング位置データを供給することにより前記物品を移動させ、前記物品が移動する前の前記所定範囲の画像である第1画像と、前記物品が移動した後の前記所定範囲の画像である第2画像とに基づいて、学習用データを生成し、生成した前記学習用データを前記学習装置に供給する制御部を具備する情報処理装置。
[C2]
前記制御部は、
前記第1画像と前記第2画像との差分に基づいて、前記第1画像上の前記物品が存在する物品領域を示すマスク画像を生成し、
前記第1画像と前記マスク画像とを前記学習用データとして前記学習装置に供給する請求項1に記載の情報処理装置。
[C3]
前記制御部は、前記物品領域と、前記ピッキング位置データとに基づいて、前記学習装置に前記学習用データを供給するか否か判断する請求項2に記載の情報処理装置。
[C4]
前記制御部は、
前記物品領域の略中心と、前記ピッキング位置データとの差が予め設定された閾値未満である場合、前記学習装置に前記学習用データを供給し、
前記差が予め設定された閾値以上である場合、前記学習装置に前記学習用データを供給しない請求項3に記載の情報処理装置。
[C5]
前記制御部は、
前記画像認識パラメータを用いて前記第1画像に対して画像認識を行い、
前記第1画像上の前記物品が存在する物品領域を認識し、
前記物品領域に基づいて前記ピッキング位置データを決定し、
前記ロボットアームに前記ピッキング位置データを供給することにより前記物品を移動させ、
前記物品の移動が正常に行われなかった場合、操作インタフェースへの入力操作に基づいて、前記ロボットアームに前記ピッキング位置データを供給することにより前記物品を移動させ、
前記第1画像と、前記第2画像とに基づいて、学習用データを生成し、
生成した前記学習用データを前記学習装置に供給する請求項1に記載の情報処理装置。
[C6]
前記制御部は、
前記第1画像と前記第2画像との差分に基づいて、前記第1画像上の前記物品が存在する物品領域を認識し、
前記物品領域に基づいて前記物品の寸法を推定し、推定結果をメモリに保存する請求項1乃至5のいずれか1項に記載の情報処理装置。
[C7]
所定範囲に置かれた物品を把持する把持機構と、前記把持機構を移動させるアーム機構とを具備するロボットアームに情報を供給するとともに、前記所定範囲の画像から前記物品を認識する為の画像認識パラメータを調整する学習装置に、学習用データを供給する情報処理装置であって、
前記物品が移動する前の前記所定範囲の画像である第1画像において、前記物品が存在する物品領域を、操作インタフェースへの入力操作に基づいて特定し、前記第1画像と前記物品領域とに基づいて、学習用データを生成し、生成した前記学習用データを前記学習装置に供給する制御部を具備する情報処理装置。
[C8]
所定範囲に置かれた物品を移動させるロボットアームと、前記ロボットアームに前記物品を把持させるピッキング位置を示すピッキング位置データを供給するとともに、前記所定範囲の画像から前記物品を認識する為の画像認識パラメータを調整する学習装置に学習用データを供給する情報処理装置とを具備する仕分システムであって、
前記ロボットアームは、
前記所定範囲に置かれた前記物品を把持する把持機構と、
前記ピッキング位置データに基づいて、前記把持機構を移動させるアーム機構と、
を具備し、
前記情報処理装置は、
操作インタフェースへの入力操作に基づいて、前記ロボットアームに前記ピッキング位置データを供給することにより前記物品を移動させ、前記物品が移動する前の前記所定範囲の画像である第1画像と、前記物品が移動した後の前記所定範囲の画像である第2画像とに基づいて、学習用データを生成し、生成した前記学習用データを前記学習装置に供給する制御部を具備する仕分システム。
Although some embodiments of the present invention have been described, these embodiments are presented as examples and are not intended to limit the scope of the invention. These novel embodiments can be implemented in various other embodiments, and various omissions, replacements, and changes can be made without departing from the gist of the invention. These embodiments and variations thereof are included in the scope and gist of the invention, and are also included in the scope of the invention described in the claims and the equivalent scope thereof.
The following is a description of the scope of claims at the time of filing the application.
[C1]
A robot arm including a gripping mechanism for gripping an article placed in a predetermined range and an arm mechanism for moving the gripping mechanism is supplied with picking position data indicating a picking position for gripping the article, and is in the predetermined range. An information processing device that supplies learning data to a learning device that adjusts image recognition parameters for recognizing the article from an image.
Based on the input operation to the operation interface, the article is moved by supplying the picking position data to the robot arm, and the first image which is an image of the predetermined range before the article moves and the article. An information processing device including a control unit that generates learning data based on a second image that is an image in the predetermined range after the movement of the image, and supplies the generated learning data to the learning device.
[C2]
The control unit
Based on the difference between the first image and the second image, a mask image showing an article region in which the article is present on the first image is generated.
The information processing device according to
[C3]
The information processing device according to
[C4]
The control unit
When the difference between the substantially center of the article region and the picking position data is less than a preset threshold value, the learning data is supplied to the learning device.
The information processing device according to
[C5]
The control unit
Image recognition is performed on the first image using the image recognition parameter, and the image recognition is performed.
Recognizing the article area where the article is located on the first image,
The picking position data is determined based on the article area, and the picking position data is determined.
By supplying the picking position data to the robot arm, the article is moved.
When the article is not moved normally, the article is moved by supplying the picking position data to the robot arm based on the input operation to the operation interface.
Based on the first image and the second image, learning data is generated.
The information processing device according to
[C6]
The control unit
Based on the difference between the first image and the second image, the article region in which the article exists on the first image is recognized.
The information processing apparatus according to any one of
[C7]
Information is supplied to a robot arm provided with a gripping mechanism for gripping an article placed in a predetermined range and an arm mechanism for moving the gripping mechanism, and image recognition for recognizing the article from an image in the predetermined range is performed. An information processing device that supplies learning data to a learning device that adjusts parameters.
In the first image, which is an image of the predetermined range before the article moves, the article area in which the article exists is specified based on an input operation to the operation interface, and the first image and the article area are designated. An information processing device including a control unit that generates learning data based on the learning data and supplies the generated learning data to the learning device.
[C8]
A robot arm for moving an article placed in a predetermined range and picking position data indicating a picking position for gripping the article are supplied to the robot arm, and image recognition for recognizing the article from an image in the predetermined range is provided. It is a sorting system equipped with an information processing device that supplies learning data to a learning device that adjusts parameters.
The robot arm
A gripping mechanism for gripping the article placed in the predetermined range,
An arm mechanism that moves the gripping mechanism based on the picking position data, and
Equipped with
The information processing device is
Based on the input operation to the operation interface, the article is moved by supplying the picking position data to the robot arm, and the first image which is an image of the predetermined range before the article moves and the article. A sorting system including a control unit that generates learning data based on a second image that is an image in the predetermined range after the robot has moved, and supplies the generated learning data to the learning device.
1…仕分システム、2…車、3…物品、4…ベルトコンベア、11…ロボットアーム、12…情報処理装置、13…操作端末、14…距離センサ、15…ストレージ、16…学習装置、17…ネットワーク、21…把持機構、22…アーム機構、23…接触センサ、24…コントローラ、31…通信インタフェース、32…制御部、33…タッチパネル、34…プロセッサ、35…メモリ、36…ディスプレイ、37…タッチセンサ、41…通信インタフェース、42…制御部、43…プロセッサ、44…メモリ。 1 ... Sorting system, 2 ... Car, 3 ... Article, 4 ... Belt conveyor, 11 ... Robot arm, 12 ... Information processing device, 13 ... Operation terminal, 14 ... Distance sensor, 15 ... Storage, 16 ... Learning device, 17 ... Network, 21 ... Grip mechanism, 22 ... Arm mechanism, 23 ... Contact sensor, 24 ... Controller, 31 ... Communication interface, 32 ... Control unit, 33 ... Touch panel, 34 ... Processor, 35 ... Memory, 36 ... Display, 37 ... Touch Sensor, 41 ... communication interface, 42 ... control unit, 43 ... processor, 44 ... memory.
Claims (5)
操作インタフェースへの入力操作に基づいて、前記ロボットアームに前記ピッキング位置データを供給することにより前記物品を移動させ、前記物品が移動する前の前記所定範囲の画像である第1画像と、前記物品が移動した後の前記所定範囲の画像である第2画像とに基づいて、学習用データを生成し、生成した前記学習用データを前記学習装置に供給する制御部を具備し、
前記制御部は、
前記第1画像と前記第2画像との差分に基づいて、前記第1画像上の前記物品が存在する前記物品領域を示すマスク画像を生成し、
前記第1画像を問題とし前記マスク画像を答えとする前記学習用データを前記学習装置に供給し、
前記物品領域と、前記ピッキング位置データとに基づいて、前記学習装置に前記学習用データを供給するか否か判断する情報処理装置。 A robot arm including a gripping mechanism for gripping an article placed in a predetermined range and an arm mechanism for moving the gripping mechanism is supplied with picking position data indicating a picking position for gripping the article, and is in the predetermined range. An information processing device that supplies learning data to a learning device that adjusts image recognition parameters for recognizing an article region in which the article exists from an image.
Based on the input operation to the operation interface, the article is moved by supplying the picking position data to the robot arm, and the first image which is an image of the predetermined range before the article moves and the article. A control unit is provided which generates training data based on a second image which is an image in the predetermined range after the robot has moved, and supplies the generated training data to the learning device .
The control unit
Based on the difference between the first image and the second image, a mask image showing the article region in which the article is present on the first image is generated.
The learning data having the first image as a problem and the mask image as the answer is supplied to the learning device.
An information processing device that determines whether or not to supply the learning data to the learning device based on the article area and the picking position data .
前記物品領域の略中心と、前記ピッキング位置データとの差が予め設定された閾値未満である場合、前記学習装置に前記学習用データを供給し、
前記差が予め設定された閾値以上である場合、前記学習装置に前記学習用データを供給しない請求項1に記載の情報処理装置。 The control unit
When the difference between the substantially center of the article region and the picking position data is less than a preset threshold value, the learning data is supplied to the learning device.
The information processing device according to claim 1 , wherein the learning data is not supplied to the learning device when the difference is equal to or larger than a preset threshold value.
前記画像認識パラメータを用いて前記第1画像に対して画像認識を行い、
前記第1画像上の前記物品が存在する物品領域を認識し、
前記物品領域に基づいて前記ピッキング位置データを決定し、
前記ロボットアームに前記ピッキング位置データを供給することにより前記物品を移動させ、
前記物品の移動が正常に行われなかった場合、操作インタフェースへの入力操作に基づいて、前記ロボットアームに前記ピッキング位置データを供給することにより前記物品を移動させ、
前記第1画像と、前記第2画像とに基づいて、学習用データを生成し、
生成した前記学習用データを前記学習装置に供給する請求項1に記載の情報処理装置。 The control unit
Image recognition is performed on the first image using the image recognition parameter, and the image recognition is performed.
Recognizing the article area where the article is located on the first image,
The picking position data is determined based on the article area, and the picking position data is determined.
By supplying the picking position data to the robot arm, the article is moved.
When the article is not moved normally, the article is moved by supplying the picking position data to the robot arm based on the input operation to the operation interface.
Based on the first image and the second image, learning data is generated.
The information processing device according to claim 1, wherein the generated learning data is supplied to the learning device.
前記第1画像と前記第2画像との差分に基づいて、前記第1画像上の前記物品が存在する物品領域を認識し、
前記物品領域に基づいて前記物品の寸法を推定し、推定結果をメモリに保存する請求項1乃至3のいずれか1項に記載の情報処理装置。 The control unit
Based on the difference between the first image and the second image, the article region in which the article exists on the first image is recognized.
The information processing apparatus according to any one of claims 1 to 3 , which estimates the dimensions of the article based on the article area and stores the estimation result in a memory.
前記ロボットアームは、
前記所定範囲に置かれた前記物品を把持する把持機構と、
前記ピッキング位置データに基づいて、前記把持機構を移動させるアーム機構と、
を具備し、
前記情報処理装置は、
操作インタフェースへの入力操作に基づいて、前記ロボットアームに前記ピッキング位置データを供給することにより前記物品を移動させ、前記物品が移動する前の前記所定範囲の画像である第1画像と、前記物品が移動した後の前記所定範囲の画像である第2画像とに基づいて、学習用データを生成し、生成した前記学習用データを前記学習装置に供給する制御部を具備し、
前記制御部は、
前記第1画像と前記第2画像との差分に基づいて、前記第1画像上の前記物品が存在する前記物品領域を示すマスク画像を生成し、
前記第1画像を問題とし前記マスク画像を答えとする前記学習用データを前記学習装置に供給し、
前記物品領域と、前記ピッキング位置データとに基づいて、前記学習装置に前記学習用データを供給するか否か判断する仕分システム。 A robot arm for moving an article placed in a predetermined range and picking position data indicating a picking position for gripping the article are supplied to the robot arm, and an article region in which the article exists is recognized from an image of the predetermined range. It is a sorting system equipped with an information processing device that supplies learning data to a learning device that adjusts image recognition parameters for performing.
The robot arm
A gripping mechanism for gripping the article placed in the predetermined range,
An arm mechanism that moves the gripping mechanism based on the picking position data, and
Equipped with
The information processing device is
Based on the input operation to the operation interface, the article is moved by supplying the picking position data to the robot arm, and the first image which is an image of the predetermined range before the article moves and the article. A control unit is provided which generates training data based on a second image which is an image in the predetermined range after the robot has moved, and supplies the generated training data to the learning device .
The control unit
Based on the difference between the first image and the second image, a mask image showing the article region in which the article is present on the first image is generated.
The learning data having the first image as a problem and the mask image as the answer is supplied to the learning device.
A sorting system that determines whether or not to supply the learning data to the learning device based on the article area and the picking position data .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018036578A JP7005388B2 (en) | 2018-03-01 | 2018-03-01 | Information processing equipment and sorting system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018036578A JP7005388B2 (en) | 2018-03-01 | 2018-03-01 | Information processing equipment and sorting system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019150904A JP2019150904A (en) | 2019-09-12 |
JP7005388B2 true JP7005388B2 (en) | 2022-01-21 |
Family
ID=67947728
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018036578A Active JP7005388B2 (en) | 2018-03-01 | 2018-03-01 | Information processing equipment and sorting system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7005388B2 (en) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7434000B2 (en) | 2020-03-13 | 2024-02-20 | 株式会社東芝 | Article processing management device, article processing control system, and program |
JP2022011111A (en) | 2020-06-29 | 2022-01-17 | 株式会社東芝 | Information processing device, sorting system, and program |
CN113600499A (en) * | 2021-07-14 | 2021-11-05 | 中北大学 | Siraitia grosvenorii sorting robot |
WO2023085463A1 (en) * | 2021-11-12 | 2023-05-19 | 한국전자기술연구원 | Method and device for processing data for smart logistics control |
WO2023157964A1 (en) * | 2022-02-21 | 2023-08-24 | 興和株式会社 | Picking device, and picking control program |
CN116899915B (en) * | 2023-07-19 | 2024-01-09 | 华至云链科技(苏州)有限公司 | Real-time synchronization method and device for equipment data |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013541775A (en) | 2010-10-21 | 2013-11-14 | ゼンロボティクス オイ | Filtering method of target object image in robot system |
JP2016091053A (en) | 2014-10-29 | 2016-05-23 | キヤノン株式会社 | Information processing apparatus, container shape estimation method, work-piece picking system, and program |
JP2016132521A (en) | 2015-01-16 | 2016-07-25 | 株式会社東芝 | Cargo handling device |
JP2016203293A (en) | 2015-04-21 | 2016-12-08 | 株式会社豊田自動織機 | Picking device and picking method |
JP2017064910A (en) | 2015-07-31 | 2017-04-06 | ファナック株式会社 | Machine learning device for learning taking-out operation of workpiece, robot system, and machine learning method |
US20170368687A1 (en) | 2016-06-22 | 2017-12-28 | Quanta Storage Inc. | Method for teaching a robotic arm to pick or place an object |
-
2018
- 2018-03-01 JP JP2018036578A patent/JP7005388B2/en active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013541775A (en) | 2010-10-21 | 2013-11-14 | ゼンロボティクス オイ | Filtering method of target object image in robot system |
JP2016091053A (en) | 2014-10-29 | 2016-05-23 | キヤノン株式会社 | Information processing apparatus, container shape estimation method, work-piece picking system, and program |
JP2016132521A (en) | 2015-01-16 | 2016-07-25 | 株式会社東芝 | Cargo handling device |
JP2016203293A (en) | 2015-04-21 | 2016-12-08 | 株式会社豊田自動織機 | Picking device and picking method |
JP2017064910A (en) | 2015-07-31 | 2017-04-06 | ファナック株式会社 | Machine learning device for learning taking-out operation of workpiece, robot system, and machine learning method |
US20170368687A1 (en) | 2016-06-22 | 2017-12-28 | Quanta Storage Inc. | Method for teaching a robotic arm to pick or place an object |
Also Published As
Publication number | Publication date |
---|---|
JP2019150904A (en) | 2019-09-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7005388B2 (en) | Information processing equipment and sorting system | |
JP5806301B2 (en) | Method for physical object selection in robotic systems | |
JP6983524B2 (en) | Information processing equipment, information processing methods and programs | |
CN109483573B (en) | Machine learning device, robot system, and machine learning method | |
CN111776759B (en) | Robotic system with automated package registration mechanism and method of operation thereof | |
JP2017177294A (en) | Robot control device, robot control method, robot system and computer program | |
JP2019217608A (en) | Information processing device, information processing method and program | |
JP2019063984A (en) | Information processor, method, and robot system | |
JP2019181687A (en) | Information processing device, information processing method and program | |
WO2020022302A1 (en) | Grasping device | |
JP7062406B2 (en) | Information processing equipment and robot arm control system | |
JP6541397B2 (en) | INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING METHOD, AND PROGRAM | |
WO2019207979A1 (en) | Article gripping device and control device for article gripping device | |
JP2019188516A (en) | Information processor, information processing method, and program | |
CN111906773A (en) | Robot system with coordinated transfer mechanism | |
CN111483750A (en) | Control method and control device for robot system | |
JP2017061025A (en) | Robot control device, robot control method and computer program | |
JP7042703B2 (en) | Information processing equipment, unloading system equipped with information processing equipment, and information processing program | |
JP7062418B2 (en) | Information processing equipment and sorting system | |
JP2020021212A (en) | Information processing device, information processing method, and program | |
CN113269112A (en) | Method and device for identifying capture area, electronic equipment and storage medium | |
JP7163116B2 (en) | Information processing equipment and picking system | |
JP2017170567A (en) | Workpiece recognition method and random picking method | |
JP2019199335A (en) | Information processing device, information processing program, and sorting system | |
JP2020062707A (en) | Information processing device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200924 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210630 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210831 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211029 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20211207 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220105 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7005388 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |