JP7005388B2 - Information processing equipment and sorting system - Google Patents

Information processing equipment and sorting system Download PDF

Info

Publication number
JP7005388B2
JP7005388B2 JP2018036578A JP2018036578A JP7005388B2 JP 7005388 B2 JP7005388 B2 JP 7005388B2 JP 2018036578 A JP2018036578 A JP 2018036578A JP 2018036578 A JP2018036578 A JP 2018036578A JP 7005388 B2 JP7005388 B2 JP 7005388B2
Authority
JP
Japan
Prior art keywords
image
article
control unit
car
picking position
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018036578A
Other languages
Japanese (ja)
Other versions
JP2019150904A (en
Inventor
優香 渡辺
健一 関谷
昌孝 佐藤
琢磨 赤木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Toshiba Infrastructure Systems and Solutions Corp
Original Assignee
Toshiba Corp
Toshiba Infrastructure Systems and Solutions Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp, Toshiba Infrastructure Systems and Solutions Corp filed Critical Toshiba Corp
Priority to JP2018036578A priority Critical patent/JP7005388B2/en
Publication of JP2019150904A publication Critical patent/JP2019150904A/en
Application granted granted Critical
Publication of JP7005388B2 publication Critical patent/JP7005388B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明の実施形態は、情報処理装置及び仕分システムに関する。 Embodiments of the present invention relate to an information processing apparatus and a sorting system.

小包などの物品(荷物)を配送する仕分システムでは、収集した荷物を配送先ごとに仕分ける作業が必要となる。例えば、物品を把持する把持機構と、把持機構を移動させるアーム機構とを有するロボットアームと、ロボットアームに動作を指示する情報処理装置とを備える仕分システムが実用化されている。 In a sorting system that delivers goods (luggage) such as parcels, it is necessary to sort the collected packages by delivery destination. For example, a sorting system including a robot arm having a gripping mechanism for gripping an article, an arm mechanism for moving the gripping mechanism, and an information processing device for instructing the robot arm to operate has been put into practical use.

情報処理装置は、かご車に搭載された物品の画像(かご車画像)を取得する。情報処理装置は、画像に写った物品を認識する為のパラメータ(画像認識パラメータ)を用いて、かご車画像に対して画像認識を行い、かご車画像において物品が存在する領域(物品領域)を認識する。情報処理装置は、物品領域の認識結果に基づき、ロボットアームにより物品を把持させる位置(ピッキング位置)を決定する。情報処理装置は、ピッキング位置と把持機構の移動経路とを示す動作計画を生成し、ロボットアームに動作計画を供給する。 The information processing device acquires an image of an article mounted on the car (car image). The information processing device performs image recognition on the car vehicle image using a parameter (image recognition parameter) for recognizing the article in the image, and determines the area (article area) in which the article exists in the car car image. recognize. The information processing apparatus determines a position (picking position) for gripping the article by the robot arm based on the recognition result of the article area. The information processing device generates an motion plan indicating the picking position and the movement path of the gripping mechanism, and supplies the motion plan to the robot arm.

ロボットアームは、情報処置装置から供給された動作計画に基づいて、アーム機構により把持機構を移動させる。ロボットアームは、ピッキング位置において、把持機構により物品を把持し、物品を仕分先まで移動させる。 The robot arm moves the gripping mechanism by the arm mechanism based on the motion plan supplied from the information processing device. At the picking position, the robot arm grips the article by the gripping mechanism and moves the article to the supplier.

仕分システムで仕分される物品は、寸法及び外観などが一様ではない。情報処理装置による画像認識の精度を向上させる為に、機械学習を行い、画像認識パラメータを調整することが有効である。しかしながら、機械学習には、大量の学習用データが必要になる。学習用データは、問題と答えとを有するものである。上記の情報処理装置では、かご車画像が問題に相当し、かご車画像上における物品領域の位置が答えに相当する。即ち、機械学習を行う為に、物品領域が予め特定されたかご車画像が大量に必要になるという課題がある。 The articles sorted by the sorting system are not uniform in size and appearance. In order to improve the accuracy of image recognition by the information processing device, it is effective to perform machine learning and adjust the image recognition parameters. However, machine learning requires a large amount of learning data. The learning data has a question and an answer. In the above information processing device, the car car image corresponds to the problem, and the position of the article area on the car car image corresponds to the answer. That is, there is a problem that a large number of car vehicle images in which the article area is specified in advance are required for machine learning.

特開2017-64910号公報Japanese Unexamined Patent Publication No. 2017-64910

本発明が解決しようとする課題は、容易に学習用データを収集可能な情報処理装置及び仕分システムを提供することである。 An object to be solved by the present invention is to provide an information processing device and a sorting system capable of easily collecting learning data.

実施形態によれば、所定範囲に置かれた物品を把持する把持機構と、前記把持機構を移動させるアーム機構とを具備するロボットアームに前記物品を把持させるピッキング位置を示すピッキング位置データを供給するとともに、前記所定範囲の画像から前記物品が存在する物品領域を認識する為の画像認識パラメータを調整する学習装置に、学習用データを供給する情報処理装置は、制御部を具備する。制御部は、操作インタフェースへの入力操作に基づいて、前記ロボットアームに前記ピッキング位置データを供給することにより前記物品を移動させ、前記物品が移動する前の前記所定範囲の画像である第1画像と、前記物品が移動した後の前記所定範囲の画像である第2画像とに基づいて、学習用データを生成し、生成した前記学習用データを前記学習装置に供給し、前記第1画像と前記第2画像との差分に基づいて、前記第1画像上の前記物品が存在する物品領域を示すマスク画像を生成し、前記第1画像を問題とし前記マスク画像を答えとする前記学習用データを前記学習装置に供給し、前記物品領域と、前記ピッキング位置データとに基づいて、前記学習装置に前記学習用データを供給するか否か判断する。 According to the embodiment, picking position data indicating a picking position for gripping the article is supplied to a robot arm including a gripping mechanism for gripping the article placed in a predetermined range and an arm mechanism for moving the gripping mechanism. At the same time, the information processing device that supplies the learning data to the learning device that adjusts the image recognition parameter for recognizing the article region in which the article exists from the image in the predetermined range includes a control unit. The control unit moves the article by supplying the picking position data to the robot arm based on an input operation to the operation interface, and the first image which is an image of the predetermined range before the article moves. And the second image which is the image of the predetermined range after the article has moved, the training data is generated, and the generated learning data is supplied to the learning device, and the first image and the image are used. Based on the difference from the second image, a mask image showing an article region in which the article exists on the first image is generated, and the learning data in which the first image is a problem and the mask image is the answer. Is supplied to the learning device, and it is determined whether or not to supply the learning data to the learning device based on the article region and the picking position data.

図1は、第1の実施形態に係る仕分システムの概略的な構成例について説明する為の説明図である。FIG. 1 is an explanatory diagram for explaining a schematic configuration example of the sorting system according to the first embodiment. 図2は、第1の実施形態に係る操作端末の構成例について説明する為の説明図である。FIG. 2 is an explanatory diagram for explaining a configuration example of the operation terminal according to the first embodiment. 図3は、第1の実施形態に係る情報処理装置の構成例について説明する為の説明図である。FIG. 3 is an explanatory diagram for explaining a configuration example of the information processing apparatus according to the first embodiment. 図4は、第1の実施形態に係るロボットアームの動作の例について説明する為のフローチャートである。FIG. 4 is a flowchart for explaining an example of the operation of the robot arm according to the first embodiment. 図5は、第1の実施形態に係る情報処理装置の動作の例について説明する為のフローチャートである。FIG. 5 is a flowchart for explaining an example of the operation of the information processing apparatus according to the first embodiment. 図6は、画像認識モードにおける情報処理装置の動作の例について説明する為の説明図である。FIG. 6 is an explanatory diagram for explaining an example of the operation of the information processing apparatus in the image recognition mode. 図7は、距離センサにより生成されたかご車画像の例について説明する為の説明図である。FIG. 7 is an explanatory diagram for explaining an example of a car vehicle image generated by the distance sensor. 図8は、かご車画像における物品領域の認識結果について説明する為の説明図である。FIG. 8 is an explanatory diagram for explaining the recognition result of the article region in the car car image. 図9は、かご車画像における物品領域の認識結果に基づき決定されたピッキング位置について説明する為の説明図である。FIG. 9 is an explanatory diagram for explaining the picking position determined based on the recognition result of the article region in the car vehicle image. 図10は、第1の実施形態に係る手動入力モードにおける情報処理装置の動作の例について説明する為の説明図である。FIG. 10 is an explanatory diagram for explaining an example of the operation of the information processing apparatus in the manual input mode according to the first embodiment. 図11は、ピッキング位置の入力を促す入力画面の例について説明する為の説明図である。FIG. 11 is an explanatory diagram for explaining an example of an input screen for prompting input of a picking position. 図12は、物品が移動された後のかご車画像の例について説明する為の説明図である。FIG. 12 is an explanatory diagram for explaining an example of a car car image after the article has been moved. 図13は、マスク画像の例について説明する為の説明図である。FIG. 13 is an explanatory diagram for explaining an example of a mask image. 図14は、併用モードにおける情報処理装置の動作の例について説明する為の説明図である。FIG. 14 is an explanatory diagram for explaining an example of the operation of the information processing apparatus in the combined mode. 図15は、第2の実施形態に係る手動入力モードにおける情報処理装置の動作の例について説明する為の説明図である。FIG. 15 is an explanatory diagram for explaining an example of the operation of the information processing apparatus in the manual input mode according to the second embodiment. 図16は、物品領域の入力を促す入力画面の例について説明する為の説明図である。FIG. 16 is an explanatory diagram for explaining an example of an input screen for prompting input of an article area. 図17は、物品領域とピッキング位置との関係について説明する為の説明図である。FIG. 17 is an explanatory diagram for explaining the relationship between the article area and the picking position.

以下、実施形態について、図面を参照して説明する。
(第1の実施形態)
図1は、第1の実施形態に係る仕分システム1の概略的な構成例について説明する為の説明図である。
Hereinafter, embodiments will be described with reference to the drawings.
(First Embodiment)
FIG. 1 is an explanatory diagram for explaining a schematic configuration example of the sorting system 1 according to the first embodiment.

仕分システム1は、かご車2に積載された仕分対象である物品3を所定の仕分先に仕分けるシステムである。 The sorting system 1 is a system for sorting the articles 3 loaded on the car 2 to a predetermined sorting destination.

かご車2は、物品3を収容する収容部とキャスターとが組み合わされた容器である。なお、かご車2は、仕分対象の物品3が積載される容器の一例であり、荷台、またはパレットなど、物品3を積載することができるものであれば如何なるものであってもよい。 The car 2 is a container in which a storage unit for accommodating the article 3 and casters are combined. The car 2 is an example of a container on which the article 3 to be sorted is loaded, and may be any container such as a loading platform or a pallet that can load the article 3.

物品3の仕分先は、例えばベルトコンベア4である。なお、仕分先は、ベルトコンベア4に限定されるものではなく、仕分用のカゴであっても良いし、作業台などであっても良い。 The supplier of the article 3 is, for example, a belt conveyor 4. The sorting destination is not limited to the belt conveyor 4, and may be a basket for sorting, a workbench, or the like.

仕分システム1は、ロボットアーム11、情報処理装置12、及び操作端末13を備える。また、仕分システム1は、距離センサ14をさらに備える。また、仕分システム1は、ストレージ15、及び学習装置16をさらに備える。ロボットアーム11、情報処理装置12、操作端末13、距離センサ14、ストレージ15、及び学習装置16は、ネットワーク17を介して互いに通信可能に構成されている。 The sorting system 1 includes a robot arm 11, an information processing device 12, and an operation terminal 13. Further, the sorting system 1 further includes a distance sensor 14. Further, the sorting system 1 further includes a storage 15 and a learning device 16. The robot arm 11, the information processing device 12, the operation terminal 13, the distance sensor 14, the storage 15, and the learning device 16 are configured to be able to communicate with each other via the network 17.

まず、ロボットアーム11の構成について説明する。
ロボットアーム11は、かご車2に積載された物品を把持し、把持した物品3を持ち上げ、物品3を仕分先に供給する装置である。ロボットアーム11は、把持機構21、アーム機構22、接触センサ23、及びコントローラ24を備える。
First, the configuration of the robot arm 11 will be described.
The robot arm 11 is a device that grips an article loaded on a car 2, lifts the gripped article 3, and supplies the article 3 to a supplier. The robot arm 11 includes a gripping mechanism 21, an arm mechanism 22, a contact sensor 23, and a controller 24.

把持機構21は、物品3を把持する機構である。把持機構21は、例えば、物品3に吸着する吸着パッドを備える。吸着パッドは、物品3の表面に接し、且つコントローラ24の制御によりパッド内が負圧になることにより、物品3の表面に吸着し、物品3を把持する。また、把持機構21は、2点以上の接点で物品3を挟むことにより物品3を把持する複数の指部を備えるグリッパとして構成されていてもよい。 The gripping mechanism 21 is a mechanism for gripping the article 3. The gripping mechanism 21 includes, for example, a suction pad that sticks to the article 3. The suction pad is in contact with the surface of the article 3 and the inside of the pad becomes a negative pressure under the control of the controller 24, so that the suction pad is attracted to the surface of the article 3 and grips the article 3. Further, the gripping mechanism 21 may be configured as a gripper including a plurality of fingers for gripping the article 3 by sandwiching the article 3 with two or more points of contact.

アーム機構22は、把持機構21を移動させる機構である。アーム機構22は、複数のアームと、複数のアームを連結する関節機構とを備える。関節機構は、コントローラ24により制御されるアクチュエータ(図示せず)により可動することにより、アームを駆動する。 The arm mechanism 22 is a mechanism for moving the gripping mechanism 21. The arm mechanism 22 includes a plurality of arms and a joint mechanism for connecting the plurality of arms. The joint mechanism drives the arm by being moved by an actuator (not shown) controlled by the controller 24.

接触センサ23は、把持機構21に対して加えられる応力を検知するセンサである。接触センサ23は、例えば、把持機構21に対して鉛直方向から加わる応力を検知する。接触センサ23は、検知結果をコントローラ24に送信する。具体的には、接触センサ23は、把持機構21に対して鉛直方向から加わる応力を検知した場合、オン信号をコントローラ24に供給する。なお、接触センサ23は、アーム機構22に対して加えられる応力も検知する構成であってもよい。 The contact sensor 23 is a sensor that detects the stress applied to the gripping mechanism 21. The contact sensor 23 detects, for example, the stress applied to the gripping mechanism 21 from the vertical direction. The contact sensor 23 transmits the detection result to the controller 24. Specifically, when the contact sensor 23 detects the stress applied to the gripping mechanism 21 from the vertical direction, the contact sensor 23 supplies an on signal to the controller 24. The contact sensor 23 may also be configured to detect the stress applied to the arm mechanism 22.

コントローラ24は、情報処理装置12から供給される動作計画に基づいて、把持機構21及びアーム機構22の動作を制御する。コントローラ24は、例えば、メモリ(図示せず)と、メモリに記憶されたプログラムを実行することにより把持機構21及びアーム機構22の動作を制御する演算素子(図示せず)とを備える。また、コントローラ24は、シーケンサとして構成されていてもよい。 The controller 24 controls the operations of the gripping mechanism 21 and the arm mechanism 22 based on the operation plan supplied from the information processing apparatus 12. The controller 24 includes, for example, a memory (not shown) and an arithmetic element (not shown) that controls the operation of the gripping mechanism 21 and the arm mechanism 22 by executing a program stored in the memory. Further, the controller 24 may be configured as a sequencer.

動作計画は、ピッキング位置を示すピッキング位置データと、軌跡とを含む情報である。コントローラ24は、動作計画が示す軌跡を通り、動作計画のピッキング位置データが示すピッキング位置まで把持機構21を移動させる。 The motion plan is information including picking position data indicating a picking position and a locus. The controller 24 moves the gripping mechanism 21 to the picking position indicated by the picking position data of the operation plan through the locus indicated by the operation plan.

ピッキング位置データは、把持機構21により物品3を把持させる位置を示す情報である。例えば、ピッキング位置データは、把持機構21により物品3を把持させる場合に把持機構21を移動させる位置を示す。より具体的には、ピッキング位置データは、把持機構21の基準点の移動先の3次元空間上の座標である。なお、以下ピッキング位置データが示すピッキング位置を、単にピッキング位置と称する。 The picking position data is information indicating a position where the article 3 is gripped by the gripping mechanism 21. For example, the picking position data indicates a position where the gripping mechanism 21 is moved when the article 3 is gripped by the gripping mechanism 21. More specifically, the picking position data is the coordinates on the three-dimensional space of the movement destination of the reference point of the gripping mechanism 21. The picking position indicated by the picking position data is simply referred to as a picking position.

軌跡は、ロボットアーム11の把持機構21をピッキング位置まで移動させる際の経路を示す。より具体的には、軌跡は、把持機構21の基準点の移動経路を示す3次元空間上の複数の座標である。なお、ピッキング位置は、軌跡に含まれていてもよい。 The locus shows a path when the gripping mechanism 21 of the robot arm 11 is moved to the picking position. More specifically, the locus is a plurality of coordinates on the three-dimensional space indicating the movement path of the reference point of the gripping mechanism 21. The picking position may be included in the locus.

把持機構21が吸着パッドとして構成されている場合、把持機構21の基準点は、例えば、吸着パッドの中心(重心)であってもよいし、吸着パッドにおける任意の点であってもよい。また、把持機構21がグリッパとして構成されている場合、把持機構21の基準点は、例えば、グリッパを構成する複数の指部の中心であってもよい。 When the gripping mechanism 21 is configured as a suction pad, the reference point of the gripping mechanism 21 may be, for example, the center (center of gravity) of the suction pad or any point on the suction pad. When the gripping mechanism 21 is configured as a gripper, the reference point of the gripping mechanism 21 may be, for example, the center of a plurality of fingers constituting the gripper.

次に、距離センサ14の構成について説明する。
距離センサ14は、対象物までの距離を計測するセンサである。距離センサ14は、対象物と距離センサ14との距離を示す点が配列された点群により構成された距離画像を取得する。即ち、距離画像は、互いに直交するx方向、y方向、z方向からなる空間における点の集合である。または、距離画像は、画素の配列上に並んだ距離値の集合である。距離センサ14は、距離画像を、ネットワーク17を介して情報処理装置12に供給する。
Next, the configuration of the distance sensor 14 will be described.
The distance sensor 14 is a sensor that measures the distance to an object. The distance sensor 14 acquires a distance image composed of a point cloud in which points indicating the distance between the object and the distance sensor 14 are arranged. That is, the distance image is a set of points in a space consisting of x-direction, y-direction, and z-direction orthogonal to each other. Alternatively, a distance image is a set of distance values arranged on an array of pixels. The distance sensor 14 supplies the distance image to the information processing apparatus 12 via the network 17.

距離センサ14は、例えば異なる2点(瞳位置)から対象物を撮像した際の視差に基づいて対象物までの距離を計測するステレオカメラである。即ち、距離センサ14は、レンズと、レンズにより結像された光を画像に変換する撮像素子とが組み合わされた2つ以上のカメラを備える。このような構成により、距離センサ14は、上記の距離画像と同時に、色情報を有する座標(画素)が二次元的に配列されたラスタ画像を取得する。なお、ラスタ画像は、カラー画像であっても単色画像であってもよい。距離センサ14は、ラスタ画像を、ネットワーク17を介して情報処理装置12に供給する。 The distance sensor 14 is a stereo camera that measures the distance to the object based on the parallax when the object is imaged from two different points (pupil positions), for example. That is, the distance sensor 14 includes two or more cameras in which a lens and an image pickup element that converts the light imaged by the lens into an image are combined. With such a configuration, the distance sensor 14 acquires a raster image in which coordinates (pixels) having color information are two-dimensionally arranged at the same time as the above distance image. The raster image may be a color image or a monochromatic image. The distance sensor 14 supplies the raster image to the information processing apparatus 12 via the network 17.

距離センサ14のレンズは、ロボットアーム11により持ち上げられる物品3が積載されたかご車2を含む領域を撮影することができるように画角が調整されている。例えば、距離センサ14のレンズは、光軸がかご車2の底面に対向するように調整される。例えば、距離センサ14のレンズは、距離センサ14のレンズの光軸と、上記のz方向(鉛直方向)が平行になるように調整される。即ち、距離センサ14は、かご車2の底面に対向する方向からかご車2を含む所定範囲を撮像し、距離画像、及びラスタ画像を取得する。なお、かご車2を含む所定範囲の画像をかご車画像と称する。かご車画像は、距離画像とラスタ画像とのいずれであってもよいが、本実施形態では、かご車画像は距離画像であると仮定して説明する。 The angle of view of the lens of the distance sensor 14 is adjusted so that the area including the car 2 on which the article 3 lifted by the robot arm 11 is loaded can be photographed. For example, the lens of the distance sensor 14 is adjusted so that the optical axis faces the bottom surface of the car 2. For example, the lens of the distance sensor 14 is adjusted so that the optical axis of the lens of the distance sensor 14 is parallel to the z direction (vertical direction). That is, the distance sensor 14 captures a predetermined range including the car 2 from the direction facing the bottom surface of the car 2 and acquires a distance image and a raster image. An image in a predetermined range including the car 2 is referred to as a car image. The car car image may be either a distance image or a raster image, but in the present embodiment, it is assumed that the car car image is a distance image.

なお、距離センサ14は、対象物からの光を分光し、撮像素子の異なる位置に入射させる構成であってもよい。また、距離センサ14は、レーザによる1次元スキャナであってもよい。 The distance sensor 14 may have a configuration in which light from an object is separated and incident on different positions of the image pickup device. Further, the distance sensor 14 may be a one-dimensional scanner using a laser.

次に、操作端末13について説明する。
図2は、操作端末13の構成例について説明する為の説明図である。
Next, the operation terminal 13 will be described.
FIG. 2 is an explanatory diagram for explaining a configuration example of the operation terminal 13.

操作端末13は、操作に基づく情報を情報処理装置12に供給する装置である。即ち、操作端末13は、情報処理装置12の操作インタフェースとして機能する。操作端末13は、通信インタフェース31、制御部32、及びタッチパネル33を備える。 The operation terminal 13 is a device that supplies information based on the operation to the information processing device 12. That is, the operation terminal 13 functions as an operation interface of the information processing device 12. The operation terminal 13 includes a communication interface 31, a control unit 32, and a touch panel 33.

通信インタフェース31は、操作端末13以外の他の機器と通信する為のインタフェースである。通信インタフェース31は、ネットワーク17を介してロボットアーム11、情報処理装置12、及び距離センサ14と通信する為の通信規格などに対応した端子及び回路を備える。通信インタフェース31は、制御部32の制御に基づいて、ロボットアーム11、情報処理装置12、及び距離センサ14などと通信する。 The communication interface 31 is an interface for communicating with a device other than the operation terminal 13. The communication interface 31 includes terminals and circuits corresponding to communication standards for communicating with the robot arm 11, the information processing device 12, and the distance sensor 14 via the network 17. The communication interface 31 communicates with the robot arm 11, the information processing device 12, the distance sensor 14, and the like based on the control of the control unit 32.

制御部32は、種々の処理を実行する処理部である。制御部32は、プロセッサ34及びメモリ35を備える。 The control unit 32 is a processing unit that executes various processes. The control unit 32 includes a processor 34 and a memory 35.

プロセッサ34は、演算処理を実行する演算素子である。プロセッサ34は、例えばCPUとして構成される。プロセッサ34は、メモリ35に記憶されているプログラムに基づいて種々の処理を行う。 The processor 34 is an arithmetic element that executes arithmetic processing. The processor 34 is configured as, for example, a CPU. The processor 34 performs various processes based on the program stored in the memory 35.

メモリ35は、プログラム及びデータを記憶する記憶装置である。メモリ35は、例えば、読み出し専用の不揮発性メモリであるROM、データを一時的に記憶するRAM、及びデータを記憶するストレージのいずれか、または複数を備える。 The memory 35 is a storage device for storing programs and data. The memory 35 includes, for example, one or more of a ROM, which is a read-only non-volatile memory, a RAM for temporarily storing data, and a storage for storing data.

タッチパネル33は、画面の表示と、操作に基づく操作信号の生成とを行う装置である。タッチパネル33は、一体に構成されたディスプレイ36及びタッチセンサ37を備える。操作端末13は、タッチパネル33の代わりに画面を表示するディスプレイと、操作に基づき操作信号を生成する操作部とを備える構成であってもよい。操作部は、マウス、トラックボール、キーボード、トラックパッドなど如何なるものであってもよい。 The touch panel 33 is a device that displays a screen and generates an operation signal based on the operation. The touch panel 33 includes an integrally configured display 36 and a touch sensor 37. The operation terminal 13 may be configured to include a display that displays a screen instead of the touch panel 33, and an operation unit that generates an operation signal based on the operation. The operation unit may be any mouse, trackball, keyboard, trackpad, or the like.

ディスプレイ36は、制御部32または図示されないグラフィックコントローラから供給される表示用のデータ(画面データ)に基づいて画面を表示する。 The display 36 displays a screen based on display data (screen data) supplied from the control unit 32 or a graphic controller (not shown).

タッチセンサ37は、ディスプレイ36に表示された画面上において操作端末13を操作するオペレータがタッチした位置を示す操作信号を生成する。 The touch sensor 37 generates an operation signal indicating the position touched by the operator who operates the operation terminal 13 on the screen displayed on the display 36.

次に、情報処理装置12の構成について説明する。
図3は、情報処理装置12の構成例について説明する為の説明図である。
Next, the configuration of the information processing apparatus 12 will be described.
FIG. 3 is an explanatory diagram for explaining a configuration example of the information processing apparatus 12.

情報処理装置12は、ロボットアーム11に動作計画を供給する装置である。情報処理装置12は、かご車2に搭載された物品3の画像であるかご車画像を取得する。情報処理装置12は、かご車画像に写った物品3を認識する為のパラメータである画像認識パラメータを用いて、かご車画像に対して画像認識を行い、かご車画像において物品3が写った領域である物品領域を認識する。情報処理装置12は、物品領域の認識結果に基づき、ロボットアーム11により物品3を把持させる位置であるピッキング位置を決定する。情報処理装置12は、ピッキング位置と把持機構21の移動経路である軌跡とを示す動作計画を生成し、ロボットアーム11に動作計画を供給する。 The information processing device 12 is a device that supplies an operation plan to the robot arm 11. The information processing device 12 acquires a car car image, which is an image of the article 3 mounted on the car car 2. The information processing device 12 performs image recognition on the car vehicle image by using the image recognition parameter which is a parameter for recognizing the article 3 reflected in the car vehicle image, and the area in which the article 3 is shown in the car vehicle image. Recognize the article area that is. The information processing apparatus 12 determines the picking position, which is the position where the article 3 is gripped by the robot arm 11, based on the recognition result of the article area. The information processing apparatus 12 generates an operation plan showing a picking position and a locus which is a movement path of the gripping mechanism 21, and supplies the operation plan to the robot arm 11.

また、情報処理装置12は、後述する方法によって、学習装置16に機械学習を行わせる為の学習用データを生成する。情報処理装置12は、生成した学習用データをストレージ15に供給する。 Further, the information processing apparatus 12 generates learning data for causing the learning apparatus 16 to perform machine learning by a method described later. The information processing device 12 supplies the generated learning data to the storage 15.

情報処理装置12は、パーソナルコンピュータ(PC)などの、データの処理及びデータの保存を行うことができる装置により構成される。情報処理装置12は、通信インタフェース41及び制御部42を備える。 The information processing device 12 is composed of a device such as a personal computer (PC) capable of processing data and storing data. The information processing device 12 includes a communication interface 41 and a control unit 42.

通信インタフェース41は、情報処理装置12以外の他の機器と通信する為のインタフェースである。通信インタフェース41は、ネットワーク17を介してロボットアーム11、操作端末13、及び距離センサ14と通信する為の通信規格などに対応した端子及び回路を備える。通信インタフェース41は、制御部42の制御に基づいて、ロボットアーム11、操作端末13、距離センサ14、ストレージ15、及び学習装置16などと通信する。 The communication interface 41 is an interface for communicating with a device other than the information processing device 12. The communication interface 41 includes terminals and circuits corresponding to communication standards for communicating with the robot arm 11, the operation terminal 13, and the distance sensor 14 via the network 17. The communication interface 41 communicates with the robot arm 11, the operation terminal 13, the distance sensor 14, the storage 15, the learning device 16, and the like based on the control of the control unit 42.

制御部42は、種々の処理を実行する処理部である。制御部42は、プロセッサ43及びメモリ44を備える。 The control unit 42 is a processing unit that executes various processes. The control unit 42 includes a processor 43 and a memory 44.

プロセッサ43は、演算処理を実行する演算素子である。プロセッサ43は、例えばCPUとして構成される。プロセッサ43は、メモリ44に記憶されているプログラムに基づいて種々の処理を行う。 The processor 43 is an arithmetic element that executes arithmetic processing. The processor 43 is configured as, for example, a CPU. The processor 43 performs various processes based on the program stored in the memory 44.

メモリ44は、プログラム及びデータを記憶する記憶装置である。メモリ44は、例えば、読み出し専用の不揮発性メモリであるROM、データを一時的に記憶するRAM、及びデータを記憶するストレージのいずれか、または複数を備える。例えば、メモリ44は、画像認識パラメータを記憶する。 The memory 44 is a storage device for storing programs and data. The memory 44 includes, for example, one or more of a ROM, which is a read-only non-volatile memory, a RAM for temporarily storing data, and a storage for storing data. For example, the memory 44 stores image recognition parameters.

次に、ストレージ15及び学習装置16について説明する。
ストレージ15は、学習用データを記憶する記憶装置である。ストレージ15は、情報処理装置12から供給された学習用データを記憶する。ストレージ15は、学習装置16からの要求に応じて、学習用データを学習装置16に供給する。
Next, the storage 15 and the learning device 16 will be described.
The storage 15 is a storage device for storing learning data. The storage 15 stores learning data supplied from the information processing device 12. The storage 15 supplies learning data to the learning device 16 in response to a request from the learning device 16.

学習装置16は、ストレージ15から学習用データを取得し、学習用データに基づいて機械学習を行うことにより画像認識パラメータを生成し、情報処理装置12に画像認識パラメータを供給する。学習装置16は、学習装置16以外の機器と通信する為の通信インタフェース、種々の処理を実行する制御部、及びメモリなどを備える。 The learning device 16 acquires learning data from the storage 15, performs machine learning based on the learning data, generates an image recognition parameter, and supplies the image recognition parameter to the information processing device 12. The learning device 16 includes a communication interface for communicating with devices other than the learning device 16, a control unit for executing various processes, a memory, and the like.

学習装置16で用いられる学習用データは、問題と答えとを有するデータである。例えば、学習用データは、仕分対象の物品3が写ったかご車画像と、このかご車画像において仕分対象の物品が写った領域である物品領域を示す情報とを有する。かご車画像が問題に相当し、かご車画像における物品領域が答えに相当する。学習装置16は、このような学習用データに基づいて、例えばセグメーテーション用のニューラルネットワークなどにより機械学習を行うことにより、情報処理装置12がかご車画像から物体領域を認識する際に用いられる画像認識パラメータを生成する。画像認識パラメータは、セグメーテーション用のニューラルネットワークにおける重み計数である。なお、学習装置16は、学習用データを取得する毎に画像認識パラメータを生成する構成であってもよいし、取得した学習用データに基づいて生成された画像認識パラメータを用いて、既に生成した画像認識パラメータを調整(更新)する構成であってもよい。また、学習装置16は、既に生成した画像認識パラメータを調整(変更)する場合、1度に調整することができる値を制限する構成であってもよい。 The learning data used in the learning device 16 is data having a problem and an answer. For example, the learning data has a car car image in which the article 3 to be sorted is shown, and information indicating an article area which is a region in which the article to be sorted is shown in the car car image. The car image corresponds to the problem, and the article area in the car image corresponds to the answer. The learning device 16 is used when the information processing device 12 recognizes an object region from a car vehicle image by performing machine learning based on such learning data, for example, by using a neural network for segmentation or the like. Generate image recognition parameters. The image recognition parameter is a weight count in a neural network for segmentation. The learning device 16 may be configured to generate an image recognition parameter each time the learning data is acquired, or has already been generated by using the image recognition parameter generated based on the acquired learning data. The configuration may be such that the image recognition parameters are adjusted (updated). Further, the learning device 16 may be configured to limit the values that can be adjusted at one time when the already generated image recognition parameter is adjusted (changed).

次に、ロボットアーム11の動作について説明する。
図4は、ロボットアーム11の動作について説明する為のフローチャートである。
Next, the operation of the robot arm 11 will be described.
FIG. 4 is a flowchart for explaining the operation of the robot arm 11.

ロボットアーム11のコントローラ24は、アーム機構22及び把持機構21を距離センサ14の画角外の初期位置に移動させる(ステップS11)。例えば、コントローラ24は、アーム機構22の関節機構をアクチュエータにより可動させることにより、アーム機構22を駆動し、アーム機構22及び把持機構21を撮影範囲外に移動させる。なお、距離センサ14は、アーム機構22及び把持機構21を撮影範囲外に移動したタイミングでかご車画像を取得し、情報処理装置12に送信する。 The controller 24 of the robot arm 11 moves the arm mechanism 22 and the gripping mechanism 21 to an initial position outside the angle of view of the distance sensor 14 (step S11). For example, the controller 24 drives the arm mechanism 22 by moving the joint mechanism of the arm mechanism 22 by an actuator, and moves the arm mechanism 22 and the gripping mechanism 21 out of the photographing range. The distance sensor 14 acquires a car vehicle image at the timing when the arm mechanism 22 and the gripping mechanism 21 move out of the shooting range, and transmits the image to the information processing device 12.

コントローラ24は、アーム機構22及び把持機構21を撮影範囲外に移動させると、情報処理装置12から動作計画が供給されるのを待つ(ステップS12)。 When the controller 24 moves the arm mechanism 22 and the gripping mechanism 21 out of the shooting range, the controller 24 waits for the operation plan to be supplied from the information processing device 12 (step S12).

コントローラ24は、情報処理装置12から動作計画が供給された場合(ステップS12、YES)、動作計画に基づき把持機構21を移動させる(ステップS13)。例えば、コントローラ24は、動作計画が示す軌跡に基づき、動作計画が示すピッキング位置まで把持機構21を移動させるように、アーム機構22を制御する。 When the operation plan is supplied from the information processing apparatus 12 (step S12, YES), the controller 24 moves the gripping mechanism 21 based on the operation plan (step S13). For example, the controller 24 controls the arm mechanism 22 so as to move the gripping mechanism 21 to the picking position indicated by the motion plan based on the locus indicated by the motion plan.

コントローラ24は、把持機構21の位置を逐次確認し、動作計画が示すピッキング位置に到達したか否か判断する。コントローラ24は、把持機構21がピッキング位置に到達した場合、次のステップS14の処理に移行する。また、コントローラ24は、接触センサ23の検知結果(接触検知結果)を逐次確認し、把持機構21がピッキング位置に到達し、且つ接触検知結果がオンである場合に、次のステップS14の処理に移行する構成であってもよい。 The controller 24 sequentially confirms the position of the gripping mechanism 21 and determines whether or not the picking position indicated by the operation plan has been reached. When the gripping mechanism 21 reaches the picking position, the controller 24 shifts to the process of the next step S14. Further, the controller 24 sequentially confirms the detection result (contact detection result) of the contact sensor 23, and when the gripping mechanism 21 reaches the picking position and the contact detection result is ON, the process of the next step S14 is performed. It may be a configuration to be migrated.

コントローラ24は、把持機構21がピッキング位置に到達したと判断した場合、把持機構21により物品3を把持させる(ステップS14)。例えば把持機構21が吸着パッドとして構成されている場合、コントローラ24は、吸着パッド内を図示されない真空ポンプなどにより負圧にさせることにより、把持機構21に物品を把持させる。また例えば、把持機構21がグリッパとして構成されている場合、コントローラ24は、グリッパの指部により物品を挟ませることにより、把持機構21に物品を把持させる。 When the controller 24 determines that the gripping mechanism 21 has reached the picking position, the gripping mechanism 21 grips the article 3 (step S14). For example, when the gripping mechanism 21 is configured as a suction pad, the controller 24 causes the gripping mechanism 21 to grip the article by making the inside of the suction pad a negative pressure by a vacuum pump or the like (not shown). Further, for example, when the gripping mechanism 21 is configured as a gripper, the controller 24 causes the gripping mechanism 21 to grip the article by pinching the article with the fingers of the gripper.

コントローラ24は、把持機構21により物品3を把持させる動作を行わせた後、物品3の把持が正常に行われたか否か判断する(ステップS15)。即ち、コントローラ24は、把持機構21により物品3を把持することができたか否か判断する。例えば、把持機構21が吸着パッドとして構成されている場合、コントローラ24は、吸着パッド内が負圧にならない場合、把持機構21により物品3を把持できていないと判断する。また、例えば、把持機構21がグリッパとして構成されている場合、コントローラ24は、グリッパにより物品3を挟むことにより、グリッパの指部に加わることが推定される応力が生じない場合、把持機構21により物品3を把持できていないと判断する。 The controller 24 determines whether or not the article 3 has been normally gripped after the gripping mechanism 21 has performed the operation of gripping the article 3 (step S15). That is, the controller 24 determines whether or not the article 3 could be gripped by the gripping mechanism 21. For example, when the gripping mechanism 21 is configured as a suction pad, the controller 24 determines that the article 3 cannot be gripped by the gripping mechanism 21 when the inside of the suction pad does not have a negative pressure. Further, for example, when the gripping mechanism 21 is configured as a gripper, the controller 24 uses the gripping mechanism 21 when the stress presumed to be applied to the finger portion of the gripper does not occur by sandwiching the article 3 with the gripper. It is determined that the article 3 cannot be grasped.

コントローラ24は、把持機構21による物品3の把持が正常に行われたと判断した場合(ステップS15、YES)、物品3を把持した把持機構21を仕分先に応じたベルトコンベア4に対応した位置まで移動させるように、アーム機構22を制御する(ステップS16)。 When the controller 24 determines that the article 3 has been normally gripped by the gripping mechanism 21 (step S15, YES), the controller 24 moves the gripping mechanism 21 gripping the article 3 to a position corresponding to the belt conveyor 4 according to the supplier. The arm mechanism 22 is controlled so as to be moved (step S16).

コントローラ24は、把持機構21を仕分先に応じたベルトコンベア4に対応した位置まで移動させると、把持機構21による物品3の把持を解除するように把持機構21を制御し(ステップS17)、1つの物品の仕分が完了したことを示す完了通知を情報処理装置12に送信し、ステップS11の処理に移行する。これにより、把持機構21から離れた物品3が、仕分先のベルトコンベア4に投入される。さらに、コントローラ24は、アーム機構22及び把持機構21を距離センサ14の画角外に移動させ、次の動作計画の受信を待つ状態になる。 When the gripping mechanism 21 is moved to a position corresponding to the belt conveyor 4 according to the supplier, the controller 24 controls the gripping mechanism 21 so as to release the gripping of the article 3 by the gripping mechanism 21 (step S17), 1 A completion notification indicating that the sorting of the two articles has been completed is transmitted to the information processing apparatus 12, and the process proceeds to step S11. As a result, the article 3 separated from the gripping mechanism 21 is put into the belt conveyor 4 of the supplier. Further, the controller 24 moves the arm mechanism 22 and the gripping mechanism 21 out of the angle of view of the distance sensor 14, and waits for the reception of the next motion plan.

また、コントローラ24は、把持機構21による物品3の把持が正常に行われなかったと判断した場合(ステップS15、NO)、把持が正常に行われなかったことを示すエラーを情報処理装置12に送信し(ステップS18)、ステップS11の処理に移行する。 Further, when the controller 24 determines that the gripping mechanism 21 has not normally gripped the article 3 (step S15, NO), the controller 24 transmits an error indicating that the gripping has not been normally performed to the information processing apparatus 12. (Step S18), the process proceeds to step S11.

なお、ロボットアーム11のコントローラ24は、情報処理装置12から終了指示が供給された場合、アーム機構22及び把持機構21を所定の位置に移動させ、図4の処理を終了する。 When the end instruction is supplied from the information processing device 12, the controller 24 of the robot arm 11 moves the arm mechanism 22 and the gripping mechanism 21 to predetermined positions, and ends the process of FIG.

次に、情報処理装置12の動作について説明する。
図5は、情報処理装置12の動作について説明する為のフローチャートである。
Next, the operation of the information processing apparatus 12 will be described.
FIG. 5 is a flowchart for explaining the operation of the information processing apparatus 12.

情報処理装置12の制御部42は、画像認識モード、手動入力モード、及び併用モードなどのモードで動作する。自身のモードは、例えばメモリ44の所定の領域の情報によって示される。自身のモードは、通信インタフェースを介して入力される情報により切り替えられる。 The control unit 42 of the information processing apparatus 12 operates in modes such as an image recognition mode, a manual input mode, and a combined mode. Its mode is indicated, for example, by information in a predetermined area of memory 44. Its own mode is switched by the information input via the communication interface.

画像認識モードは、画像認識によってかご車画像から物品領域を認識し、ピッキング位置を決定するモードである。 The image recognition mode is a mode in which an article area is recognized from a car vehicle image by image recognition and a picking position is determined.

手動入力モードは、操作端末13のオペレータが、操作端末13に対して入力した操作に基づいて、ピッキング位置を決定するモードである。 The manual input mode is a mode in which the operator of the operation terminal 13 determines the picking position based on the operation input to the operation terminal 13.

併用モードは、画像認識によってかご車画像から物品領域を認識し、ピッキング位置を決定し、画像認識によってかご車画像から物品領域を認識することができなかった場合、操作端末13のオペレータが操作端末13に対して入力した操作に基づいて、ピッキング位置を決定するモードである。 In the combined mode, the article area is recognized from the car car image by image recognition, the picking position is determined, and when the article area cannot be recognized from the car car image by image recognition, the operator of the operation terminal 13 operates the operation terminal. In this mode, the picking position is determined based on the operation input to 13.

まず、情報処理装置12の制御部42は、自身がどのモードで動作しているのか判断する。例えば、制御部42は、自身が画像認識モードで動作しているか否か判断する(ステップS21)。また、制御部42は、自身が手動入力モードで動作しているか否か判断する(ステップS22)。また、制御部42は、自身が併用モードで動作しているか否か判断する(ステップS23)。制御部42は、画像認識モード、手動入力モード、及び併用モードのいずれでもないと判断した場合(ステップS21乃至S23、NO)、エラーであると判断し、処理を終了する。 First, the control unit 42 of the information processing apparatus 12 determines in which mode it is operating. For example, the control unit 42 determines whether or not it is operating in the image recognition mode (step S21). Further, the control unit 42 determines whether or not it is operating in the manual input mode (step S22). Further, the control unit 42 determines whether or not it is operating in the combined mode (step S23). When the control unit 42 determines that it is not any of the image recognition mode, the manual input mode, and the combined mode (steps S21 to S23, NO), it determines that an error occurs and ends the process.

制御部42は、自身が画像認識モードで動作していると判断した場合(ステップS21、YES)、画像認識モードに応じた処理を行い(ステップS24)、ステップS27の処理に移行する。 When the control unit 42 determines that it is operating in the image recognition mode (step S21, YES), the control unit 42 performs processing according to the image recognition mode (step S24), and proceeds to the processing of step S27.

また、制御部42は、自身が手動入力モードで動作していると判断した場合(ステップS22、YES)、手動入力モードに応じた処理を行い(ステップS25)、ステップS27の処理に移行する。 Further, when the control unit 42 determines that it is operating in the manual input mode (step S22, YES), the control unit 42 performs processing according to the manual input mode (step S25), and proceeds to the processing of step S27.

また、制御部42は、併用モードで動作していると判断した場合(ステップS23、YES)、併用モードに応じた処理を行い(ステップS26)、ステップS27の処理に移行する。 Further, when it is determined that the control unit 42 is operating in the combined mode (step S23, YES), the control unit 42 performs processing according to the combined mode (step S26), and proceeds to the process of step S27.

制御部42は、かご車2が空になったか否か判断する(ステップS27)。制御部42は、画像に基づいて、かご車2が空になったか否か判断する構成であってもよいし、他の情報に基づいて、かご車2が空になったか否か判断する構成であってもよい。例えば、制御部42は、かご車画像を取得し、かご車画像に対して画像認識を行い、物品領域の検出結果に基づいて、仕分が可能な物品が存在するか否か判断する。 The control unit 42 determines whether or not the car 2 is empty (step S27). The control unit 42 may be configured to determine whether or not the car 2 has been emptied based on the image, or may be configured to determine whether or not the car 2 has been emptied based on other information. May be. For example, the control unit 42 acquires a car vehicle image, performs image recognition on the car vehicle image, and determines whether or not there is an article that can be sorted based on the detection result of the article area.

図6は、画像認識モードにおける情報処理装置12の動作について説明する為のフローチャートである。即ち、図6は、図5におけるステップS24に対応するフローチャートである。 FIG. 6 is a flowchart for explaining the operation of the information processing apparatus 12 in the image recognition mode. That is, FIG. 6 is a flowchart corresponding to step S24 in FIG.

画像認識モードでは、制御部42は、まず距離センサ14からかご車画像が供給されるのを待つ(ステップS31)。上記したように、距離センサ14は、ロボットアーム11により持ち上げられる物品3が搭載されたかご車2内を、ステレオカメラにより撮像して1対の画像データを取得する。さらに、距離センサ14は、1対の画像データに基づき、画像データ上の所定の領域(点)毎に距離センサ14との距離を算出し、点群データとしてのかご車画像51を生成する。距離センサ14は、生成したかご車画像51を情報処理装置12に供給する。 In the image recognition mode, the control unit 42 first waits for the car vehicle image to be supplied from the distance sensor 14 (step S31). As described above, the distance sensor 14 acquires a pair of image data by taking an image of the inside of the car 2 on which the article 3 lifted by the robot arm 11 is mounted by a stereo camera. Further, the distance sensor 14 calculates the distance from the distance sensor 14 for each predetermined area (point) on the image data based on the pair of image data, and generates the car vehicle image 51 as the point group data. The distance sensor 14 supplies the generated car vehicle image 51 to the information processing device 12.

図7は、かご車画像51の例について説明する為の説明図である。図7に示されるように、距離センサ14は、かご車2が設置される領域を含む所定範囲が画角として設定されている。この為、かご車画像51には、かご車2及び複数の物品3が写り込んでいる。 FIG. 7 is an explanatory diagram for explaining an example of the car car image 51. As shown in FIG. 7, the distance sensor 14 has a predetermined range including the area where the car 2 is installed as the angle of view. Therefore, the car car 2 and the plurality of articles 3 are reflected in the car car image 51.

かご車画像51には、かご車2及びかご車2内に積載された複数の物品3の面と距離センサ14との距離を示す情報が含まれている。即ち、距離センサ14が設置されている高さ、距離センサ14に用いられているレンズの焦点距離、及び距離センサ14に用いられている撮像素子の寸法が既知である場合、かご車画像51に基づき、かご車2が設置される床から複数の物品3の面までの高さが算出可能である。 The car vehicle image 51 includes information indicating the distance between the surface of the car vehicle 2 and the plurality of articles 3 loaded in the car vehicle 2 and the distance sensor 14. That is, when the height at which the distance sensor 14 is installed, the focal length of the lens used for the distance sensor 14, and the dimensions of the image sensor used for the distance sensor 14 are known, the car vehicle image 51 shows. Based on this, the height from the floor on which the car car 2 is installed to the surface of the plurality of articles 3 can be calculated.

情報処理装置12の制御部42は、距離センサ14からかご車画像51を取得すると、メモリ44に記憶された画像認識パラメータを用いてかご車画像51に対して画像認識を行う。これにより、制御部42は、かご車画像51内において物品3が存在する領域である物品領域を認識する(ステップS32)。具体的には、制御部42は、かご車画像51に対して、メモリ44に記憶された画像認識パラメータを用いて、物体検出またはセグメンテーション用のニューラルネットワークなどの手法を用いることにより、物品領域を認識する。例えば、制御部42は、かご車画像51において最も高い位置に存在する面に対応する領域を、物品領域として認識する。 When the control unit 42 of the information processing apparatus 12 acquires the car vehicle image 51 from the distance sensor 14, the control unit 42 performs image recognition on the car vehicle image 51 using the image recognition parameters stored in the memory 44. As a result, the control unit 42 recognizes the article region, which is the region where the article 3 exists in the car vehicle image 51 (step S32). Specifically, the control unit 42 uses an image recognition parameter stored in the memory 44 for the car vehicle image 51 to create an article region by using a technique such as a neural network for object detection or segmentation. recognize. For example, the control unit 42 recognizes a region corresponding to the surface existing at the highest position in the car vehicle image 51 as an article region.

図8は、かご車画像51内の物品領域の認識結果の例について説明する為の説明図である。図8に示されるように、かご車画像51において、最も高い位置に存在する物品3の面が物品領域52として認識されている。これにより、制御部42は、仕分対象の物品3の形状を認識する。 FIG. 8 is an explanatory diagram for explaining an example of the recognition result of the article region in the car car image 51. As shown in FIG. 8, in the car car image 51, the surface of the article 3 existing at the highest position is recognized as the article region 52. As a result, the control unit 42 recognizes the shape of the article 3 to be sorted.

制御部42は、かご車画像51における物品領域52の認識結果に基づいて、ピッキング位置を決定する(ステップS33)。例えば、制御部42は、物品領域の重心(若しくは中心)の座標をピッキング位置として決定する。 The control unit 42 determines the picking position based on the recognition result of the article region 52 in the car vehicle image 51 (step S33). For example, the control unit 42 determines the coordinates of the center of gravity (or center) of the article region as the picking position.

図9は、かご車画像51の物品領域52の認識結果に基づいて決定されたピッキング位置53の例について説明する為の説明図である。図9に示されるように、制御部42は、物品領域52の重心をピッキング位置53として決定する。 FIG. 9 is an explanatory diagram for explaining an example of the picking position 53 determined based on the recognition result of the article region 52 of the car vehicle image 51. As shown in FIG. 9, the control unit 42 determines the center of gravity of the article region 52 as the picking position 53.

制御部42は、決定したピッキング位置53に基づいて、動作計画を生成する(ステップS34)。例えば、制御部42は、ロボットアーム11の把持機構21を、初期位置からピッキング位置53まで他の物品3またはかご車2などに接触しないように軌跡を生成し、ピッキング位置と軌跡とを示す動作計画を生成する。さらに、制御部42は、生成した動作計画をロボットアーム11のコントローラ24に送信し(ステップS35)、処理を終了する。これにより、制御部42は、図5のステップS27の処理に移行する。 The control unit 42 generates an operation plan based on the determined picking position 53 (step S34). For example, the control unit 42 generates a locus of the gripping mechanism 21 of the robot arm 11 so as not to come into contact with another article 3 or a car 2 from the initial position to the picking position 53, and indicates an operation of showing the picking position and the locus. Generate a plan. Further, the control unit 42 transmits the generated motion plan to the controller 24 of the robot arm 11 (step S35), and ends the process. As a result, the control unit 42 shifts to the process of step S27 in FIG.

図10は、手動入力モードにおける情報処理装置12の動作について説明する為のフローチャートである。即ち、図10は、図5におけるステップS25に対応するフローチャートである。 FIG. 10 is a flowchart for explaining the operation of the information processing apparatus 12 in the manual input mode. That is, FIG. 10 is a flowchart corresponding to step S25 in FIG.

手動入力モードでは、制御部42は、まず距離センサ14からかご車画像が供給されるのを待つ(ステップS41)。なお、手動入力モードでは、仕分対象の物品3を把持する前の状態のかご車画像を第1かご車画像と称する。即ち、制御部42は、ステップS41において、距離センサ14から第1かご車画像を取得する。なお、第1かご車画像は、図7に示すかご車画像51と同様である。 In the manual input mode, the control unit 42 first waits for the car vehicle image to be supplied from the distance sensor 14 (step S41). In the manual input mode, the image of the car car in the state before grasping the article 3 to be sorted is referred to as the first car car image. That is, the control unit 42 acquires the first car vehicle image from the distance sensor 14 in step S41. The first car car image is the same as the car car image 51 shown in FIG. 7.

制御部42は、第1かご車画像を取得すると、ピッキング位置の入力を促す案内を出力する(ステップS42)。図11は、ピッキング位置の入力を促す入力画面61の例を示す。制御部42は、ピッキング位置の入力を促す文字列と、第1かご車画像とを入力画面61に描画する。例えば、制御部42は、入力画面61を操作端末13に送信する。これにより、制御部42は、操作端末13のオペレータに、ピッキング位置を入力することを促す。 When the control unit 42 acquires the image of the first car, it outputs a guide prompting the input of the picking position (step S42). FIG. 11 shows an example of an input screen 61 for prompting input of a picking position. The control unit 42 draws a character string for prompting input of the picking position and a first car vehicle image on the input screen 61. For example, the control unit 42 transmits the input screen 61 to the operation terminal 13. As a result, the control unit 42 prompts the operator of the operation terminal 13 to input the picking position.

操作端末13の制御部32は、情報処理装置12から入力画面61を受信すると、タッチパネル33のディスプレイ36に入力画面61を表示させる。さらに、制御部32は、入力画面61の表示中のタッチセンサ37による操作入力に基づいて、ピッキング位置を示す座標情報を生成する。制御部32は、ピッキング位置の座標情報を情報処理装置12に供給する。 When the control unit 32 of the operation terminal 13 receives the input screen 61 from the information processing device 12, the control unit 32 displays the input screen 61 on the display 36 of the touch panel 33. Further, the control unit 32 generates coordinate information indicating the picking position based on the operation input by the touch sensor 37 being displayed on the input screen 61. The control unit 32 supplies the coordinate information of the picking position to the information processing device 12.

情報処理装置12の制御部42は、操作端末13においてピッキング位置が入力されたか否か判断する(ステップS43)。制御部42は、操作端末13からピッキング位置の座標情報を受信した場合、操作端末13においてピッキング位置が入力されたと判断する。制御部42は、操作端末13からピッキング位置の座標情報を受信するまでステップS43の判断を繰り返し行う。 The control unit 42 of the information processing apparatus 12 determines whether or not the picking position has been input in the operation terminal 13 (step S43). When the control unit 42 receives the coordinate information of the picking position from the operation terminal 13, it determines that the picking position has been input in the operation terminal 13. The control unit 42 repeats the determination in step S43 until the coordinate information of the picking position is received from the operation terminal 13.

制御部42は、操作端末13においてピッキング位置が入力されたと判断した場合(ステップS43、YES)、操作端末13から供給されたピッキング位置の座標情報に基づいて、動作計画を生成する(ステップS44)。さらに、制御部42は、生成した動作計画をロボットアーム11のコントローラ24に送信する(ステップS45)。 When the control unit 42 determines that the picking position has been input in the operation terminal 13 (step S43, YES), the control unit 42 generates an operation plan based on the coordinate information of the picking position supplied from the operation terminal 13 (step S44). .. Further, the control unit 42 transmits the generated motion plan to the controller 24 of the robot arm 11 (step S45).

制御部42は、動作計画をロボットアーム11に送信すると、ロボットアーム11の把持機構21により、物品3の把持が正常に行われたか否か判断する(ステップS46)。例えば、制御部42は、ロボットアーム11から、1つの物品の仕分が完了したことを示す完了通知を受信した場合、物品3の把持が正常に行われたと判断する。また、例えば、制御部42は、ロボットアーム11から、把持機構21による物品3の把持が正常に行われなかったことを示すエラーを受信した場合、物品3の把持が正常に行われなかったと判断する。制御部42は、物品3の把持が正常に行われなかったと判断した場合(ステップS46、NO)、ステップS41に移行し、再度第1かご車画像を取得し、ピッキング位置の入力を促す。 When the operation plan is transmitted to the robot arm 11, the control unit 42 determines whether or not the article 3 is normally gripped by the gripping mechanism 21 of the robot arm 11 (step S46). For example, when the control unit 42 receives a completion notification from the robot arm 11 indicating that the sorting of one article has been completed, the control unit 42 determines that the article 3 has been gripped normally. Further, for example, when the control unit 42 receives an error from the robot arm 11 indicating that the article 3 was not normally gripped by the gripping mechanism 21, it is determined that the article 3 was not normally gripped. do. When the control unit 42 determines that the article 3 has not been gripped normally (step S46, NO), the control unit 42 proceeds to step S41, acquires the first car vehicle image again, and prompts the input of the picking position.

制御部42は、物品3の把持が正常に行われたと判断した場合(ステップS46、YES)、距離センサ14から再度かご車画像を取得する(ステップS47)。なお、物品3の把持が正常に行われたということは、第1かご車画像に写っていた仕分対象の物品3が移動されたということを示す。このように、仕分対象の物品3が移動された後のかご車画像を第2かご車画像と称する。即ち、制御部42は、ステップS47において、第2かご車画像を取得する。 When the control unit 42 determines that the article 3 has been gripped normally (step S46, YES), the control unit 42 acquires the car vehicle image again from the distance sensor 14 (step S47). The fact that the article 3 was normally gripped indicates that the article 3 to be sorted, which was shown in the image of the first car, was moved. The car car image after the article 3 to be sorted is moved in this way is referred to as a second car car image. That is, the control unit 42 acquires the second car vehicle image in step S47.

次に、制御部42は、第1かご車画像と第2かご車画像との差分を検出する(ステップS48)。例えば、制御部42は、第1かご車画像と第2かご車画像との差分に基づいて、第1かご車画像と第2かご車画像との差分が存在する領域を示すマスク画像を生成する。即ち、制御部42は、ロボットアーム11により物品3を移動させる前のかご車画像と、移動させた後のかご車画像との差分に基づいて、マスク画像を生成する。 Next, the control unit 42 detects the difference between the first car vehicle image and the second car vehicle image (step S48). For example, the control unit 42 generates a mask image showing a region where the difference between the first car image and the second car image exists, based on the difference between the first car image and the second car image. .. That is, the control unit 42 generates a mask image based on the difference between the car car image before the article 3 is moved by the robot arm 11 and the car car image after the article 3 is moved.

図12は、第2かご車画像55の例について説明する為の説明図である。上記したように、第2かご車画像55の撮像時には、第1かご車画像に写っていた仕分対象の物品3がかご車2から除かれている。この為、仕分対象の物品3で隠れていた箇所が第2かご車画像55に映り込む。このように、仕分対象の物品3が除かれることにより、第1かご車画像と第2かご車画像55とで差分が生じた領域を差分領域54と称する。 FIG. 12 is an explanatory diagram for explaining an example of the second car vehicle image 55. As described above, at the time of capturing the second car car image 55, the article 3 to be sorted shown in the first car car image is removed from the car car 2. Therefore, the portion hidden by the article 3 to be sorted is reflected in the second car car image 55. The region where the difference is generated between the first car vehicle image and the second car vehicle image 55 by removing the article 3 to be sorted in this way is referred to as a difference region 54.

図13は、マスク画像71の例について説明する為の説明図である。図13の例では、マスク画像71は、差分領域54の画素値が「1」であり、その他の領域の画素値が「0」である二値画像として構成されている。なお、マスク画像71は、このような構成に限定されるものではなく、第1かご車画像と第2かご車画像とで差分が有る領域とその他の領域とを区別可能な構成であれば如何なる構成であってもよい。また、制御部42は、第1かご車画像と第2かご車画像とで差分が有る領域の輪郭を補正してマスク画像を生成する構成であってもよい。 FIG. 13 is an explanatory diagram for explaining an example of the mask image 71. In the example of FIG. 13, the mask image 71 is configured as a binary image in which the pixel value of the difference region 54 is “1” and the pixel value of the other region is “0”. The mask image 71 is not limited to such a configuration, and any configuration can be used as long as the region where there is a difference between the first car image and the second car image and the other regions can be distinguished. It may be a configuration. Further, the control unit 42 may be configured to generate a mask image by correcting the contour of a region where there is a difference between the first car vehicle image and the second car vehicle image.

差分領域54は、図6のステップS32の画像認識において、物品領域52として検出すべき領域に相当する。即ち、マスク画像71は、学習用データにおいて、第1かご車画像に対する答えに相当する。 The difference region 54 corresponds to a region to be detected as the article region 52 in the image recognition in step S32 of FIG. That is, the mask image 71 corresponds to the answer to the first car vehicle image in the learning data.

制御部42は、第1のかご車画像と、マスク画像とに基づいて学習用データを生成する(ステップS49)。即ち、制御部42は、第1のかご車画像を問題とし、第1のかご車画像における仕分対象の物品3が取り除かれた後に撮像された第2のかご車画像と、第1のかご車画像との差分を示すマスク画像を答えとして、学習用データを生成する。制御部42は、生成した学習用データをストレージ15に送信し(ステップS50)、処理を終了する。これにより、制御部42は、図5のステップS27の処理に移行する。なお、制御部42は、再度ステップS25の処理を実行する場合、前回の処理において取得した第2かご車画像を第1かご車画像として用いてもよい。 The control unit 42 generates learning data based on the first car vehicle image and the mask image (step S49). That is, the control unit 42 has a problem of the first car car image, and the second car car image and the first car car image taken after the article 3 to be sorted in the first car car image is removed. The training data is generated using the mask image showing the difference from the image as the answer. The control unit 42 transmits the generated learning data to the storage 15 (step S50), and ends the process. As a result, the control unit 42 shifts to the process of step S27 in FIG. When the process of step S25 is executed again, the control unit 42 may use the second car vehicle image acquired in the previous process as the first car vehicle image.

図14は、併用モードにおける情報処理装置12の動作について説明する為のフローチャートである。即ち、図14は、図5におけるステップS26に対応するフローチャートである。 FIG. 14 is a flowchart for explaining the operation of the information processing apparatus 12 in the combined mode. That is, FIG. 14 is a flowchart corresponding to step S26 in FIG.

併用モードでは、制御部42は、まず画像認識による動作計画の生成を試み、生成した動作計画により物品3の把持が正常に行われなかった場合、手動入力に基づく動作計画の生成を行う。 In the combined mode, the control unit 42 first tries to generate a motion plan by image recognition, and when the motion plan generated does not normally grip the article 3, the control unit 42 generates a motion plan based on manual input.

まず、制御部42は、距離センサ14からかご車画像が供給されるのを待つ(ステップS61)。なお、仕分対象の物品3を把持する前の状態のかご車画像を第1かご車画像と称する。 First, the control unit 42 waits for the car vehicle image to be supplied from the distance sensor 14 (step S61). The car car image in the state before gripping the article 3 to be sorted is referred to as a first car car image.

制御部42は、距離センサ14から第1かご車画像を取得すると、メモリ44に記憶された画像認識パラメータを用いて、第1かご車画像に対して画像認識を行う。これにより、制御部42は、第1かご車画像内において、仕分対象の物品3が存在する領域である物品領域を認識する。制御部42は、この際、物品領域を認識可能か否か判断する(ステップS62)。制御部42は、物品領域を認識不可であると判断した場合(ステップS62、NO)、後述するステップS67の処理に移行する。 When the control unit 42 acquires the first car vehicle image from the distance sensor 14, the control unit 42 performs image recognition on the first car vehicle image using the image recognition parameter stored in the memory 44. As a result, the control unit 42 recognizes the article region, which is the region in which the article 3 to be sorted exists, in the first car vehicle image. At this time, the control unit 42 determines whether or not the article area can be recognized (step S62). When the control unit 42 determines that the article area cannot be recognized (step S62, NO), the control unit 42 shifts to the process of step S67 described later.

制御部42は、物品領域を認識可であると判断した場合(ステップS62、YES)、第1かご車画像における物品領域の認識結果に基づいて、ピッキング位置を決定する(ステップS63)。 When the control unit 42 determines that the article region can be recognized (step S62, YES), the control unit 42 determines the picking position based on the recognition result of the article region in the first car vehicle image (step S63).

制御部42は、決定したピッキング位置53に基づいて、動作計画を生成する。制御部42は、この際、動作計画を生成可能か否か判断する(ステップS64)。例えば、制御部42は、ロボットアーム11の把持機構21を、初期位置からピッキング位置53まで他の物品3またはかご車2などに接触しないように軌跡を生成し、ピッキング位置と軌跡とを示す動作計画を生成する。制御部42は、このような動作計画を生成することができない場合、動作計画が生成不可であると判断する。制御部42は、動作計画が生成不可であると判断した場合(ステップS64、NO)、後述するステップS67の処理に移行する。 The control unit 42 generates an operation plan based on the determined picking position 53. At this time, the control unit 42 determines whether or not an operation plan can be generated (step S64). For example, the control unit 42 generates a locus of the gripping mechanism 21 of the robot arm 11 so as not to come into contact with another article 3 or a car 2 from the initial position to the picking position 53, and indicates an operation of showing the picking position and the locus. Generate a plan. If the control unit 42 cannot generate such an operation plan, the control unit 42 determines that the operation plan cannot be generated. When the control unit 42 determines that the motion plan cannot be generated (step S64, NO), the control unit 42 shifts to the process of step S67 described later.

制御部42は、動作計画が生成可であると判断した場合(ステップS64、YES)、生成した動作計画をロボットアーム11のコントローラ24に送信する(ステップS65)。 When the control unit 42 determines that the motion plan can be generated (step S64, YES), the control unit 42 transmits the generated motion plan to the controller 24 of the robot arm 11 (step S65).

制御部42は、動作計画をロボットアーム11に送信すると、ロボットアーム11の把持機構21により、物品3の把持が正常に行われたか否か判断する(ステップS66)。制御部42は、物品3の把持が正常に行われたと判断した場合(ステップS66、YES)、処理を終了する。これにより、制御部42は、図5のステップS27の処理に移行する。 When the operation plan is transmitted to the robot arm 11, the control unit 42 determines whether or not the article 3 is normally gripped by the gripping mechanism 21 of the robot arm 11 (step S66). When the control unit 42 determines that the article 3 has been gripped normally (step S66, YES), the control unit 42 ends the process. As a result, the control unit 42 shifts to the process of step S27 in FIG.

また、制御部42は、物品3の把持が正常に行われなかったと判断した場合(ステップS66、NO)、ピッキング位置の入力を促す案内を出力する(ステップS67)。例えば、制御部42は、図11で示したピッキング位置の入力を促す入力画面61を操作端末13に送信することにより、操作端末13のオペレータに、ピッキング位置を入力することを促す。 Further, when it is determined that the article 3 has not been gripped normally (step S66, NO), the control unit 42 outputs a guide prompting the input of the picking position (step S67). For example, the control unit 42 prompts the operator of the operation terminal 13 to input the picking position by transmitting the input screen 61 for prompting the input of the picking position shown in FIG. 11 to the operation terminal 13.

情報処理装置12の制御部42は、操作端末13においてピッキング位置が入力されたか否か判断する(ステップS68)。制御部42は、操作端末13からピッキング位置の座標情報を受信した場合、操作端末13においてピッキング位置が入力されたと判断する。制御部42は、操作端末13からピッキング位置の座標情報を受信するまでステップS68の判断を繰り返し行う。 The control unit 42 of the information processing apparatus 12 determines whether or not the picking position has been input in the operation terminal 13 (step S68). When the control unit 42 receives the coordinate information of the picking position from the operation terminal 13, it determines that the picking position has been input in the operation terminal 13. The control unit 42 repeats the determination in step S68 until the coordinate information of the picking position is received from the operation terminal 13.

制御部42は、操作端末13においてピッキング位置が入力されたと判断した場合(ステップS68、YES)、操作端末13から供給されたピッキング位置の座標情報に基づいて、動作計画を生成する(ステップS69)。さらに、制御部42は、生成した動作計画をロボットアーム11のコントローラ24に送信する(ステップS70)。 When the control unit 42 determines that the picking position has been input in the operation terminal 13 (step S68, YES), the control unit 42 generates an operation plan based on the coordinate information of the picking position supplied from the operation terminal 13 (step S69). .. Further, the control unit 42 transmits the generated motion plan to the controller 24 of the robot arm 11 (step S70).

制御部42は、動作計画をロボットアーム11に送信すると、ロボットアーム11の把持機構21により、物品3の把持が正常に行われたか否か判断する(ステップS71)。制御部42は、物品3の把持が正常に行われなかったと判断した場合(ステップS71、NO)、ステップS67に移行し、再度ピッキング位置の入力を促す。なお、制御部42は、ステップS67に移行する際に、再度距離センサ14から第1かご車画像を取得し、取得した第1かご車画像により入力画面61の表示を更新してもよい。 When the operation plan is transmitted to the robot arm 11, the control unit 42 determines whether or not the article 3 is normally gripped by the gripping mechanism 21 of the robot arm 11 (step S71). When the control unit 42 determines that the article 3 has not been gripped normally (step S71, NO), the control unit 42 proceeds to step S67 and prompts the input of the picking position again. The control unit 42 may acquire the first car vehicle image from the distance sensor 14 again when shifting to step S67, and may update the display on the input screen 61 with the acquired first car vehicle image.

制御部42は、物品3の把持が正常に行われたと判断した場合(ステップS71、YES)、距離センサ14から再度かご車画像を取得する(ステップS72)。なお、物品3の把持が正常に行われたということは、第1かご車画像に写っていた仕分対象の物品3が移動されたということを示す。このように、仕分対象の物品3が移動された後のかご車画像を第2かご車画像と称する。即ち、制御部42は、ステップS72において、第2かご車画像を取得する。 When the control unit 42 determines that the article 3 has been gripped normally (step S71, YES), the control unit 42 acquires the car vehicle image again from the distance sensor 14 (step S72). The fact that the article 3 was normally gripped indicates that the article 3 to be sorted, which was shown in the image of the first car, was moved. The car car image after the article 3 to be sorted is moved in this way is referred to as a second car car image. That is, the control unit 42 acquires the second car vehicle image in step S72.

次に、制御部42は、第1かご車画像と第2かご車画像との差分を検出する(ステップS73)。例えば、制御部42は、第1かご車画像と第2かご車画像との差分に基づいて、第1かご車画像と第2かご車画像との差分が存在する領域を示すマスク画像を生成する。なお、マスク画像の生成方法は、図10の説明と同様である。 Next, the control unit 42 detects the difference between the first car vehicle image and the second car vehicle image (step S73). For example, the control unit 42 generates a mask image showing a region where the difference between the first car image and the second car image exists, based on the difference between the first car image and the second car image. .. The method of generating the mask image is the same as that described in FIG.

制御部42は、第1のかご車画像と、マスク画像とに基づいて学習用データを生成する(ステップS74)。即ち、制御部42は、第1のかご車画像を問題とし、第1のかご車画像における仕分対象の物品3が取り除かれた後に撮像された第2のかご車画像と、第1のかご車画像との差分を示すマスク画像を答えとして、学習用データを生成する。制御部42は、生成した学習用データをストレージ15に送信し(ステップS75)、処理を終了する。これにより、制御部42は、図5のステップS27の処理に移行する。なお、制御部42は、再度ステップS26の処理を実行する場合、前回の処理において取得した第2かご車画像を第1かご車画像として用いてもよい。 The control unit 42 generates learning data based on the first car vehicle image and the mask image (step S74). That is, the control unit 42 has a problem of the first car car image, and the second car car image and the first car car image taken after the article 3 to be sorted in the first car car image is removed. The training data is generated using the mask image showing the difference from the image as the answer. The control unit 42 transmits the generated learning data to the storage 15 (step S75), and ends the process. As a result, the control unit 42 shifts to the process of step S27 in FIG. When the process of step S26 is executed again, the control unit 42 may use the second car vehicle image acquired in the previous process as the first car vehicle image.

上記の様に、仕分システム1は、ロボットアーム11と情報処理装置12とを備える。ロボットアーム11は、所定範囲に置かれた物品3を把持する把持機構21と、把持機構21を移動させるアーム機構22とを有する。情報処理装置12は、ロボットアーム11にピッキング位置を供給するとともに、所定範囲の画像から物品3を認識する為の画像認識パラメータを調整する学習装置16に、学習用データを供給する。 As described above, the sorting system 1 includes a robot arm 11 and an information processing device 12. The robot arm 11 has a gripping mechanism 21 for gripping an article 3 placed in a predetermined range, and an arm mechanism 22 for moving the gripping mechanism 21. The information processing device 12 supplies the picking position to the robot arm 11 and supplies learning data to the learning device 16 that adjusts the image recognition parameters for recognizing the article 3 from the images in a predetermined range.

さらに、情報処理装置12の制御部42は、操作端末13などの操作インタフェースへの入力操作に基づいて、ロボットアーム11にピッキング位置を供給することにより、所定範囲の物品3を移動させる。さらに、制御部42は、物品3が移動する前の所定範囲の画像である第1画像(第1かご車画像)と、物品3が移動した後の所定範囲の画像である第2画像(第2かご車画像)とに基づいて、学習用データを生成する。 Further, the control unit 42 of the information processing apparatus 12 moves the article 3 in a predetermined range by supplying the picking position to the robot arm 11 based on the input operation to the operation interface such as the operation terminal 13. Further, the control unit 42 has a first image (first car car image) which is an image of a predetermined range before the article 3 moves, and a second image (a second image) which is an image of a predetermined range after the article 3 moves. 2 The learning data is generated based on the car car image).

また、制御部42は、第1かご車画像と第2かご車画像との差分に基づいて、第1かご車画像上の物品3が存在する物品領域を示すマスク画像を生成し、第1かご車画像とマスク画像とを学習用データとして生成する。 Further, the control unit 42 generates a mask image showing an article region in which the article 3 exists on the first car image based on the difference between the first car image and the second car image, and the first car. A car image and a mask image are generated as training data.

このような構成によると、ピッキング位置を操作入力で指示することにより、確実に物品3をロボットアーム11により移動させつつ、学習用データの問題と答えとを取得することができる。即ち、実際に仕分システム1を運用しつつ、少ない労力で学習用データを収集することができる。この結果、容易に学習用データを収集可能な情報処理装置12及び仕分システム1を提供することができる。また、ピッキング位置を操作入力で指示している為、ロボットアーム11による正確な処理が行われた結果を、学習用データの生成に用いることができる。この結果、正確な収容データを収集することが容易になる。 According to such a configuration, by instructing the picking position by the operation input, it is possible to acquire the problem and the answer of the learning data while surely moving the article 3 by the robot arm 11. That is, it is possible to collect learning data with little effort while actually operating the sorting system 1. As a result, it is possible to provide the information processing device 12 and the sorting system 1 that can easily collect learning data. Further, since the picking position is instructed by the operation input, the result of accurate processing by the robot arm 11 can be used to generate learning data. This facilitates the collection of accurate containment data.

(第2の実施形態)
次に、第2の実施形態について説明する。第2の実施形態に係る仕分システム1の情報処理装置12は、手動入力モードにおける動作が第1の実施形態と異なる。第2の実施形態に係る仕分システム1の各構成は、第1の実施形態と同様である為、構成についての詳細な説明を省略する。
(Second embodiment)
Next, the second embodiment will be described. The information processing device 12 of the sorting system 1 according to the second embodiment operates in the manual input mode differently from that of the first embodiment. Since each configuration of the sorting system 1 according to the second embodiment is the same as that of the first embodiment, detailed description of the configuration will be omitted.

第2の実施形態に係る仕分システム1の情報処理装置12の制御部42は、物品を移動させる前のかご車画像において、物品3が存在する物品領域を入力させる。制御部42は、入力された物品領域に基づいて、ピッキング位置を決定する。さらに、制御部42は、かご車画像を問題とし、入力された物品領域を答えとして学習用データを生成し、生成した学習用データをストレージ15に供給する。 The control unit 42 of the information processing device 12 of the sorting system 1 according to the second embodiment inputs the article area in which the article 3 exists in the car car image before moving the article. The control unit 42 determines the picking position based on the input article area. Further, the control unit 42 generates learning data using the input article area as an answer with the car vehicle image as a problem, and supplies the generated learning data to the storage 15.

図15は、手動入力モードにおける情報処理装置12の動作について説明する為のフローチャートである。即ち、図15は、図5におけるステップS25に対応するフローチャートである。 FIG. 15 is a flowchart for explaining the operation of the information processing apparatus 12 in the manual input mode. That is, FIG. 15 is a flowchart corresponding to step S25 in FIG.

手動入力モードでは、制御部42は、まず距離センサ14からかご車画像が供給されるのを待つ(ステップS81)。 In the manual input mode, the control unit 42 first waits for the car vehicle image to be supplied from the distance sensor 14 (step S81).

制御部42は、かご車画像を取得すると、かご車画像上で、仕分対象の物品3が存在している物品領域の入力を促す案内を出力する(ステップS82)。図16は、物品領域の入力を促す入力画面81の例を示す。制御部42は、物品領域の入力を促す文字列と、かご車画像とを入力画面81に描画する。例えば、制御部42は、入力画面81を操作端末13に送信する。これにより、制御部42は、操作端末13のオペレータに、物品領域を入力することを促す。 When the control unit 42 acquires the car vehicle image, the control unit 42 outputs a guide prompting the input of the article area in which the article 3 to be sorted exists on the car vehicle image (step S82). FIG. 16 shows an example of an input screen 81 that prompts input of an article area. The control unit 42 draws a character string prompting the input of the article area and a car car image on the input screen 81. For example, the control unit 42 transmits the input screen 81 to the operation terminal 13. As a result, the control unit 42 prompts the operator of the operation terminal 13 to input the article area.

操作端末13の制御部32は、情報処理装置12から入力画面81を受信すると、タッチパネル33のディスプレイ36に入力画面81を表示させる。さらに、制御部32は、入力画面81の表示中のタッチセンサ37による操作入力に基づいて、物品領域を示す情報を生成する。物品領域の情報は、上記のマスク画像であってもよいし、かご車画像上における座標の軌跡であってもよい。制御部32は、物品領域の情報を情報処理装置12に供給する。 When the control unit 32 of the operation terminal 13 receives the input screen 81 from the information processing device 12, the control unit 32 displays the input screen 81 on the display 36 of the touch panel 33. Further, the control unit 32 generates information indicating the article area based on the operation input by the touch sensor 37 during the display of the input screen 81. The information of the article area may be the above-mentioned mask image or the locus of coordinates on the car car image. The control unit 32 supplies the information of the article area to the information processing device 12.

情報処理装置12の制御部42は、操作端末13において物品領域が入力されたか否か判断する(ステップS83)。制御部42は、操作端末13から物品領域を示す情報を受信した場合、操作端末13において物品領域が入力されたと判断する。制御部42は、操作端末13から物品領域の情報を受信するまでステップS83の判断を繰り返し行う。 The control unit 42 of the information processing apparatus 12 determines whether or not the article area has been input in the operation terminal 13 (step S83). When the control unit 42 receives the information indicating the article area from the operation terminal 13, it determines that the article area has been input in the operation terminal 13. The control unit 42 repeats the determination in step S83 until the information on the article area is received from the operation terminal 13.

制御部42は、操作端末13において物品領域が入力されたと判断した場合(ステップS83、YES)、入力された物品領域に基づいて、ピッキング位置を決定する(ステップS84)。例えば、制御部42は、物品領域の重心(若しくは中心)をピッキング位置として決定する。 When the control unit 42 determines that the article area has been input in the operation terminal 13 (step S83, YES), the control unit 42 determines the picking position based on the input article area (step S84). For example, the control unit 42 determines the center of gravity (or center) of the article region as the picking position.

制御部42は、決定したピッキング位置に基づいて、動作計画を生成する(ステップS85)。さらに、制御部42は、生成した動作計画をロボットアーム11のコントローラ24に送信する(ステップS86)。 The control unit 42 generates an operation plan based on the determined picking position (step S85). Further, the control unit 42 transmits the generated motion plan to the controller 24 of the robot arm 11 (step S86).

制御部42は、動作計画をロボットアーム11に送信すると、ロボットアーム11の把持機構21により、物品3の把持が正常に行われたか否か判断する(ステップS87)。例えば、制御部42は、ロボットアーム11から、1つの物品の仕分が完了したことを示す完了通知を受信した場合、物品3の把持が正常に行われたと判断する。また、例えば、制御部42は、ロボットアーム11から、把持機構21による物品3の把持が正常に行われなかったことを示すエラーを受信した場合、物品3の把持が正常に行われなかったと判断する。制御部42は、物品3の把持が正常に行われなかったと判断した場合(ステップS87、NO)、ステップS83に移行し、再度かご車画像を取得し、物品領域の入力を促す。 When the operation plan is transmitted to the robot arm 11, the control unit 42 determines whether or not the article 3 is normally gripped by the gripping mechanism 21 of the robot arm 11 (step S87). For example, when the control unit 42 receives a completion notification from the robot arm 11 indicating that the sorting of one article has been completed, the control unit 42 determines that the article 3 has been gripped normally. Further, for example, when the control unit 42 receives an error from the robot arm 11 indicating that the article 3 was not normally gripped by the gripping mechanism 21, it is determined that the article 3 was not normally gripped. do. When the control unit 42 determines that the article 3 has not been gripped normally (step S87, NO), the control unit 42 proceeds to step S83, acquires the car vehicle image again, and prompts the input of the article area.

制御部42は、物品3の把持が正常に行われたと判断した場合(ステップS87、YES)、かご車画像と、物品領域の情報(即ちマスク画像)とに基づいて学習用データを生成する(ステップS88)。即ち、制御部42は、仕分対象の物品3が移動される前のかご車画像を問題とし、このかご車画像において仕分対象の物品3が存在する領域である物品領域を答えとして学習用データを生成する。制御部42は、生成した学習用データをストレージ15に送信し(ステップS89)、処理を終了する。これにより、制御部42は、図5のステップS27の処理に移行する。 When the control unit 42 determines that the article 3 has been gripped normally (step S87, YES), the control unit 42 generates learning data based on the car car image and the information of the article area (that is, the mask image) (step S87, YES). Step S88). That is, the control unit 42 has a problem of the car car image before the article 3 to be sorted is moved, and uses the article area, which is the area where the article 3 to be sorted exists in the car car image, as an answer, and uses the learning data as an answer. Generate. The control unit 42 transmits the generated learning data to the storage 15 (step S89), and ends the process. As a result, the control unit 42 shifts to the process of step S27 in FIG.

なお、制御部42は、上記の図10または図14の処理において、第1かご車画像と第2かご車画像との差分に基づき、マスク画像を生成し、マスク画像と第1かご車画像とに基づいて、学習用データを生成すると説明したが、この構成に限定されない。制御部42は、生成したマスク画像が信頼できるものか否かに基づいて、学習用データを生成するか否か判断する構成であってもよい。 In the process of FIG. 10 or FIG. 14, the control unit 42 generates a mask image based on the difference between the first car vehicle image and the second car vehicle image, and the mask image and the first car vehicle image are used. Although it was explained that the training data is generated based on the above, the present invention is not limited to this configuration. The control unit 42 may be configured to determine whether or not to generate learning data based on whether or not the generated mask image is reliable.

例えば、制御部42は、第1かご車画像と第2かご車画像とに基づいて推定した差分領域(物品領域)と、操作端末13への操作入力により決定したピッキング位置とに基づいて、学習用データを生成するか否か、即ち学習装置16に学習用データを供給するか否かを判断する。より具体的には、制御部42は、物品領域の重心(若しくは中心)と、ピッキング位置との差が予め設定された閾値未満である場合、第1かご車画像とマスク画像とに基づき学習用データを生成する。また、制御部42は、物品領域の略中心(若しくは重心)と、ピッキング位置との差が予め設定された閾値以上である場合、第1かご車画像とマスク画像とに基づく学習用データの生成を行わない。 For example, the control unit 42 learns based on the difference area (article area) estimated based on the first car vehicle image and the second car vehicle image and the picking position determined by the operation input to the operation terminal 13. It is determined whether or not to generate the learning data, that is, whether or not to supply the learning data to the learning device 16. More specifically, when the difference between the center of gravity (or the center) of the article region and the picking position is less than a preset threshold value, the control unit 42 is for learning based on the first car vehicle image and the mask image. Generate data. Further, when the difference between the substantially center (or the center of gravity) of the article region and the picking position is equal to or more than a preset threshold value, the control unit 42 generates learning data based on the first car vehicle image and the mask image. Do not do.

例えば、図17に示されるように、ロボットアーム11により物品3が移動されず、物品3がかご車2内に落下し、物品3の位置がずれた場合、第1かご車画像と第2かご車画像との差分が、物品領域に対応しなくなる。また、ロボットアーム11により物品3が移動されたものの、他の物品3が荷崩れを起こした場合も、第1かご車画像と第2かご車画像との差分が、物品領域に対応しなくなる。このような場合、図17で示されるように、差分領域の重心91と、入力に基づき決定されたピッキング位置53とが乖離する。制御部42は、差分領域の重心91と、入力に基づき決定されたピッキング位置53との差が予め設定された閾値以上であった場合、学習装置16における機械学習の対象から外すことにより、機械学習に用いる学習用データの正確性を担保することができる。 For example, as shown in FIG. 17, when the article 3 is not moved by the robot arm 11, the article 3 falls into the car 2, and the position of the article 3 is displaced, the image of the first car and the second car The difference from the car image does not correspond to the article area. Further, even when the article 3 is moved by the robot arm 11 but the other article 3 collapses, the difference between the image of the first car and the image of the second car does not correspond to the article area. In such a case, as shown in FIG. 17, the center of gravity 91 of the difference region and the picking position 53 determined based on the input deviate from each other. When the difference between the center of gravity 91 of the difference region and the picking position 53 determined based on the input is equal to or greater than a preset threshold value, the control unit 42 removes the machine from the target of machine learning in the learning device 16. The accuracy of the learning data used for learning can be guaranteed.

また、制御部42は、第1かご車画像と第2かご車画像との差分に基づいて、第1かご車画像上の仕分対象の物品3が存在する物品領域を認識し、認識した物品領域に基づいて、移動させた物品3の寸法を推定し、推定結果をメモリ44に保存する構成であってもよい。このような構成によると、ロボットアーム11毎に仕分を行った物品3の寸法の統計を取ることができる。制御部42は、物品領域の輪郭と、かご車画像の画素値を利用して寸法を算出する。例えば、制御部42は、物品領域の輪郭により、物品3の縦横サイズを推定する。また、制御部42は、第1かご車画像と第2かご車画像との物品領域における画素値の差に基づき、物品3の奥行サイズを推定する。 Further, the control unit 42 recognizes the article area in which the article 3 to be sorted exists on the first car image based on the difference between the first car image and the second car image, and recognizes the article area. Based on the above, the dimensions of the moved article 3 may be estimated, and the estimation result may be stored in the memory 44. According to such a configuration, it is possible to obtain statistics on the dimensions of the article 3 sorted for each robot arm 11. The control unit 42 calculates the dimension by using the contour of the article area and the pixel value of the car car image. For example, the control unit 42 estimates the vertical and horizontal size of the article 3 from the contour of the article region. Further, the control unit 42 estimates the depth size of the article 3 based on the difference in the pixel values in the article region between the first car image and the second car image.

本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
なお、以下に本願の出願当初の特許請求の範囲の記載を付記する。
[C1]
所定範囲に置かれた物品を把持する把持機構と、前記把持機構を移動させるアーム機構とを具備するロボットアームに前記物品を把持させるピッキング位置を示すピッキング位置データを供給するとともに、前記所定範囲の画像から前記物品を認識する為の画像認識パラメータを調整する学習装置に、学習用データを供給する情報処理装置であって、
操作インタフェースへの入力操作に基づいて、前記ロボットアームに前記ピッキング位置データを供給することにより前記物品を移動させ、前記物品が移動する前の前記所定範囲の画像である第1画像と、前記物品が移動した後の前記所定範囲の画像である第2画像とに基づいて、学習用データを生成し、生成した前記学習用データを前記学習装置に供給する制御部を具備する情報処理装置。
[C2]
前記制御部は、
前記第1画像と前記第2画像との差分に基づいて、前記第1画像上の前記物品が存在する物品領域を示すマスク画像を生成し、
前記第1画像と前記マスク画像とを前記学習用データとして前記学習装置に供給する請求項1に記載の情報処理装置。
[C3]
前記制御部は、前記物品領域と、前記ピッキング位置データとに基づいて、前記学習装置に前記学習用データを供給するか否か判断する請求項2に記載の情報処理装置。
[C4]
前記制御部は、
前記物品領域の略中心と、前記ピッキング位置データとの差が予め設定された閾値未満である場合、前記学習装置に前記学習用データを供給し、
前記差が予め設定された閾値以上である場合、前記学習装置に前記学習用データを供給しない請求項3に記載の情報処理装置。
[C5]
前記制御部は、
前記画像認識パラメータを用いて前記第1画像に対して画像認識を行い、
前記第1画像上の前記物品が存在する物品領域を認識し、
前記物品領域に基づいて前記ピッキング位置データを決定し、
前記ロボットアームに前記ピッキング位置データを供給することにより前記物品を移動させ、
前記物品の移動が正常に行われなかった場合、操作インタフェースへの入力操作に基づいて、前記ロボットアームに前記ピッキング位置データを供給することにより前記物品を移動させ、
前記第1画像と、前記第2画像とに基づいて、学習用データを生成し、
生成した前記学習用データを前記学習装置に供給する請求項1に記載の情報処理装置。
[C6]
前記制御部は、
前記第1画像と前記第2画像との差分に基づいて、前記第1画像上の前記物品が存在する物品領域を認識し、
前記物品領域に基づいて前記物品の寸法を推定し、推定結果をメモリに保存する請求項1乃至5のいずれか1項に記載の情報処理装置。
[C7]
所定範囲に置かれた物品を把持する把持機構と、前記把持機構を移動させるアーム機構とを具備するロボットアームに情報を供給するとともに、前記所定範囲の画像から前記物品を認識する為の画像認識パラメータを調整する学習装置に、学習用データを供給する情報処理装置であって、
前記物品が移動する前の前記所定範囲の画像である第1画像において、前記物品が存在する物品領域を、操作インタフェースへの入力操作に基づいて特定し、前記第1画像と前記物品領域とに基づいて、学習用データを生成し、生成した前記学習用データを前記学習装置に供給する制御部を具備する情報処理装置。
[C8]
所定範囲に置かれた物品を移動させるロボットアームと、前記ロボットアームに前記物品を把持させるピッキング位置を示すピッキング位置データを供給するとともに、前記所定範囲の画像から前記物品を認識する為の画像認識パラメータを調整する学習装置に学習用データを供給する情報処理装置とを具備する仕分システムであって、
前記ロボットアームは、
前記所定範囲に置かれた前記物品を把持する把持機構と、
前記ピッキング位置データに基づいて、前記把持機構を移動させるアーム機構と、
を具備し、
前記情報処理装置は、
操作インタフェースへの入力操作に基づいて、前記ロボットアームに前記ピッキング位置データを供給することにより前記物品を移動させ、前記物品が移動する前の前記所定範囲の画像である第1画像と、前記物品が移動した後の前記所定範囲の画像である第2画像とに基づいて、学習用データを生成し、生成した前記学習用データを前記学習装置に供給する制御部を具備する仕分システム。
Although some embodiments of the present invention have been described, these embodiments are presented as examples and are not intended to limit the scope of the invention. These novel embodiments can be implemented in various other embodiments, and various omissions, replacements, and changes can be made without departing from the gist of the invention. These embodiments and variations thereof are included in the scope and gist of the invention, and are also included in the scope of the invention described in the claims and the equivalent scope thereof.
The following is a description of the scope of claims at the time of filing the application.
[C1]
A robot arm including a gripping mechanism for gripping an article placed in a predetermined range and an arm mechanism for moving the gripping mechanism is supplied with picking position data indicating a picking position for gripping the article, and is in the predetermined range. An information processing device that supplies learning data to a learning device that adjusts image recognition parameters for recognizing the article from an image.
Based on the input operation to the operation interface, the article is moved by supplying the picking position data to the robot arm, and the first image which is an image of the predetermined range before the article moves and the article. An information processing device including a control unit that generates learning data based on a second image that is an image in the predetermined range after the movement of the image, and supplies the generated learning data to the learning device.
[C2]
The control unit
Based on the difference between the first image and the second image, a mask image showing an article region in which the article is present on the first image is generated.
The information processing device according to claim 1, wherein the first image and the mask image are supplied to the learning device as the learning data.
[C3]
The information processing device according to claim 2, wherein the control unit determines whether or not to supply the learning data to the learning device based on the article area and the picking position data.
[C4]
The control unit
When the difference between the substantially center of the article region and the picking position data is less than a preset threshold value, the learning data is supplied to the learning device.
The information processing device according to claim 3, wherein when the difference is equal to or larger than a preset threshold value, the learning data is not supplied to the learning device.
[C5]
The control unit
Image recognition is performed on the first image using the image recognition parameter, and the image recognition is performed.
Recognizing the article area where the article is located on the first image,
The picking position data is determined based on the article area, and the picking position data is determined.
By supplying the picking position data to the robot arm, the article is moved.
When the article is not moved normally, the article is moved by supplying the picking position data to the robot arm based on the input operation to the operation interface.
Based on the first image and the second image, learning data is generated.
The information processing device according to claim 1, wherein the generated learning data is supplied to the learning device.
[C6]
The control unit
Based on the difference between the first image and the second image, the article region in which the article exists on the first image is recognized.
The information processing apparatus according to any one of claims 1 to 5, which estimates the dimensions of the article based on the article area and stores the estimation result in a memory.
[C7]
Information is supplied to a robot arm provided with a gripping mechanism for gripping an article placed in a predetermined range and an arm mechanism for moving the gripping mechanism, and image recognition for recognizing the article from an image in the predetermined range is performed. An information processing device that supplies learning data to a learning device that adjusts parameters.
In the first image, which is an image of the predetermined range before the article moves, the article area in which the article exists is specified based on an input operation to the operation interface, and the first image and the article area are designated. An information processing device including a control unit that generates learning data based on the learning data and supplies the generated learning data to the learning device.
[C8]
A robot arm for moving an article placed in a predetermined range and picking position data indicating a picking position for gripping the article are supplied to the robot arm, and image recognition for recognizing the article from an image in the predetermined range is provided. It is a sorting system equipped with an information processing device that supplies learning data to a learning device that adjusts parameters.
The robot arm
A gripping mechanism for gripping the article placed in the predetermined range,
An arm mechanism that moves the gripping mechanism based on the picking position data, and
Equipped with
The information processing device is
Based on the input operation to the operation interface, the article is moved by supplying the picking position data to the robot arm, and the first image which is an image of the predetermined range before the article moves and the article. A sorting system including a control unit that generates learning data based on a second image that is an image in the predetermined range after the robot has moved, and supplies the generated learning data to the learning device.

1…仕分システム、2…車、3…物品、4…ベルトコンベア、11…ロボットアーム、12…情報処理装置、13…操作端末、14…距離センサ、15…ストレージ、16…学習装置、17…ネットワーク、21…把持機構、22…アーム機構、23…接触センサ、24…コントローラ、31…通信インタフェース、32…制御部、33…タッチパネル、34…プロセッサ、35…メモリ、36…ディスプレイ、37…タッチセンサ、41…通信インタフェース、42…制御部、43…プロセッサ、44…メモリ。 1 ... Sorting system, 2 ... Car, 3 ... Article, 4 ... Belt conveyor, 11 ... Robot arm, 12 ... Information processing device, 13 ... Operation terminal, 14 ... Distance sensor, 15 ... Storage, 16 ... Learning device, 17 ... Network, 21 ... Grip mechanism, 22 ... Arm mechanism, 23 ... Contact sensor, 24 ... Controller, 31 ... Communication interface, 32 ... Control unit, 33 ... Touch panel, 34 ... Processor, 35 ... Memory, 36 ... Display, 37 ... Touch Sensor, 41 ... communication interface, 42 ... control unit, 43 ... processor, 44 ... memory.

Claims (5)

所定範囲に置かれた物品を把持する把持機構と、前記把持機構を移動させるアーム機構とを具備するロボットアームに前記物品を把持させるピッキング位置を示すピッキング位置データを供給するとともに、前記所定範囲の画像から前記物品が存在する物品領域を認識する為の画像認識パラメータを調整する学習装置に、学習用データを供給する情報処理装置であって、
操作インタフェースへの入力操作に基づいて、前記ロボットアームに前記ピッキング位置データを供給することにより前記物品を移動させ、前記物品が移動する前の前記所定範囲の画像である第1画像と、前記物品が移動した後の前記所定範囲の画像である第2画像とに基づいて、学習用データを生成し、生成した前記学習用データを前記学習装置に供給する制御部を具備し、
前記制御部は、
前記第1画像と前記第2画像との差分に基づいて、前記第1画像上の前記物品が存在する前記物品領域を示すマスク画像を生成し、
前記第1画像を問題とし前記マスク画像を答えとする前記学習用データを前記学習装置に供給し、
前記物品領域と、前記ピッキング位置データとに基づいて、前記学習装置に前記学習用データを供給するか否か判断する情報処理装置。
A robot arm including a gripping mechanism for gripping an article placed in a predetermined range and an arm mechanism for moving the gripping mechanism is supplied with picking position data indicating a picking position for gripping the article, and is in the predetermined range. An information processing device that supplies learning data to a learning device that adjusts image recognition parameters for recognizing an article region in which the article exists from an image.
Based on the input operation to the operation interface, the article is moved by supplying the picking position data to the robot arm, and the first image which is an image of the predetermined range before the article moves and the article. A control unit is provided which generates training data based on a second image which is an image in the predetermined range after the robot has moved, and supplies the generated training data to the learning device .
The control unit
Based on the difference between the first image and the second image, a mask image showing the article region in which the article is present on the first image is generated.
The learning data having the first image as a problem and the mask image as the answer is supplied to the learning device.
An information processing device that determines whether or not to supply the learning data to the learning device based on the article area and the picking position data .
前記制御部は、
前記物品領域の略中心と、前記ピッキング位置データとの差が予め設定された閾値未満である場合、前記学習装置に前記学習用データを供給し、
前記差が予め設定された閾値以上である場合、前記学習装置に前記学習用データを供給しない請求項に記載の情報処理装置。
The control unit
When the difference between the substantially center of the article region and the picking position data is less than a preset threshold value, the learning data is supplied to the learning device.
The information processing device according to claim 1 , wherein the learning data is not supplied to the learning device when the difference is equal to or larger than a preset threshold value.
前記制御部は、
前記画像認識パラメータを用いて前記第1画像に対して画像認識を行い、
前記第1画像上の前記物品が存在する物品領域を認識し、
前記物品領域に基づいて前記ピッキング位置データを決定し、
前記ロボットアームに前記ピッキング位置データを供給することにより前記物品を移動させ、
前記物品の移動が正常に行われなかった場合、操作インタフェースへの入力操作に基づいて、前記ロボットアームに前記ピッキング位置データを供給することにより前記物品を移動させ、
前記第1画像と、前記第2画像とに基づいて、学習用データを生成し、
生成した前記学習用データを前記学習装置に供給する請求項1に記載の情報処理装置。
The control unit
Image recognition is performed on the first image using the image recognition parameter, and the image recognition is performed.
Recognizing the article area where the article is located on the first image,
The picking position data is determined based on the article area, and the picking position data is determined.
By supplying the picking position data to the robot arm, the article is moved.
When the article is not moved normally, the article is moved by supplying the picking position data to the robot arm based on the input operation to the operation interface.
Based on the first image and the second image, learning data is generated.
The information processing device according to claim 1, wherein the generated learning data is supplied to the learning device.
前記制御部は、
前記第1画像と前記第2画像との差分に基づいて、前記第1画像上の前記物品が存在する物品領域を認識し、
前記物品領域に基づいて前記物品の寸法を推定し、推定結果をメモリに保存する請求項1乃至のいずれか1項に記載の情報処理装置。
The control unit
Based on the difference between the first image and the second image, the article region in which the article exists on the first image is recognized.
The information processing apparatus according to any one of claims 1 to 3 , which estimates the dimensions of the article based on the article area and stores the estimation result in a memory.
所定範囲に置かれた物品を移動させるロボットアームと、前記ロボットアームに前記物品を把持させるピッキング位置を示すピッキング位置データを供給するとともに、前記所定範囲の画像から前記物品が存在する物品領域を認識する為の画像認識パラメータを調整する学習装置に学習用データを供給する情報処理装置とを具備する仕分システムであって、
前記ロボットアームは、
前記所定範囲に置かれた前記物品を把持する把持機構と、
前記ピッキング位置データに基づいて、前記把持機構を移動させるアーム機構と、
を具備し、
前記情報処理装置は、
操作インタフェースへの入力操作に基づいて、前記ロボットアームに前記ピッキング位置データを供給することにより前記物品を移動させ、前記物品が移動する前の前記所定範囲の画像である第1画像と、前記物品が移動した後の前記所定範囲の画像である第2画像とに基づいて、学習用データを生成し、生成した前記学習用データを前記学習装置に供給する制御部を具備し、
前記制御部は、
前記第1画像と前記第2画像との差分に基づいて、前記第1画像上の前記物品が存在する前記物品領域を示すマスク画像を生成し、
前記第1画像を問題とし前記マスク画像を答えとする前記学習用データを前記学習装置に供給し、
前記物品領域と、前記ピッキング位置データとに基づいて、前記学習装置に前記学習用データを供給するか否か判断する仕分システム。
A robot arm for moving an article placed in a predetermined range and picking position data indicating a picking position for gripping the article are supplied to the robot arm, and an article region in which the article exists is recognized from an image of the predetermined range. It is a sorting system equipped with an information processing device that supplies learning data to a learning device that adjusts image recognition parameters for performing.
The robot arm
A gripping mechanism for gripping the article placed in the predetermined range,
An arm mechanism that moves the gripping mechanism based on the picking position data, and
Equipped with
The information processing device is
Based on the input operation to the operation interface, the article is moved by supplying the picking position data to the robot arm, and the first image which is an image of the predetermined range before the article moves and the article. A control unit is provided which generates training data based on a second image which is an image in the predetermined range after the robot has moved, and supplies the generated training data to the learning device .
The control unit
Based on the difference between the first image and the second image, a mask image showing the article region in which the article is present on the first image is generated.
The learning data having the first image as a problem and the mask image as the answer is supplied to the learning device.
A sorting system that determines whether or not to supply the learning data to the learning device based on the article area and the picking position data .
JP2018036578A 2018-03-01 2018-03-01 Information processing equipment and sorting system Active JP7005388B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018036578A JP7005388B2 (en) 2018-03-01 2018-03-01 Information processing equipment and sorting system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018036578A JP7005388B2 (en) 2018-03-01 2018-03-01 Information processing equipment and sorting system

Publications (2)

Publication Number Publication Date
JP2019150904A JP2019150904A (en) 2019-09-12
JP7005388B2 true JP7005388B2 (en) 2022-01-21

Family

ID=67947728

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018036578A Active JP7005388B2 (en) 2018-03-01 2018-03-01 Information processing equipment and sorting system

Country Status (1)

Country Link
JP (1) JP7005388B2 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7434000B2 (en) 2020-03-13 2024-02-20 株式会社東芝 Article processing management device, article processing control system, and program
JP2022011111A (en) 2020-06-29 2022-01-17 株式会社東芝 Information processing device, sorting system, and program
CN113600499A (en) * 2021-07-14 2021-11-05 中北大学 Siraitia grosvenorii sorting robot
WO2023085463A1 (en) * 2021-11-12 2023-05-19 한국전자기술연구원 Method and device for processing data for smart logistics control
WO2023157964A1 (en) * 2022-02-21 2023-08-24 興和株式会社 Picking device, and picking control program
CN116899915B (en) * 2023-07-19 2024-01-09 华至云链科技(苏州)有限公司 Real-time synchronization method and device for equipment data

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013541775A (en) 2010-10-21 2013-11-14 ゼンロボティクス オイ Filtering method of target object image in robot system
JP2016091053A (en) 2014-10-29 2016-05-23 キヤノン株式会社 Information processing apparatus, container shape estimation method, work-piece picking system, and program
JP2016132521A (en) 2015-01-16 2016-07-25 株式会社東芝 Cargo handling device
JP2016203293A (en) 2015-04-21 2016-12-08 株式会社豊田自動織機 Picking device and picking method
JP2017064910A (en) 2015-07-31 2017-04-06 ファナック株式会社 Machine learning device for learning taking-out operation of workpiece, robot system, and machine learning method
US20170368687A1 (en) 2016-06-22 2017-12-28 Quanta Storage Inc. Method for teaching a robotic arm to pick or place an object

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013541775A (en) 2010-10-21 2013-11-14 ゼンロボティクス オイ Filtering method of target object image in robot system
JP2016091053A (en) 2014-10-29 2016-05-23 キヤノン株式会社 Information processing apparatus, container shape estimation method, work-piece picking system, and program
JP2016132521A (en) 2015-01-16 2016-07-25 株式会社東芝 Cargo handling device
JP2016203293A (en) 2015-04-21 2016-12-08 株式会社豊田自動織機 Picking device and picking method
JP2017064910A (en) 2015-07-31 2017-04-06 ファナック株式会社 Machine learning device for learning taking-out operation of workpiece, robot system, and machine learning method
US20170368687A1 (en) 2016-06-22 2017-12-28 Quanta Storage Inc. Method for teaching a robotic arm to pick or place an object

Also Published As

Publication number Publication date
JP2019150904A (en) 2019-09-12

Similar Documents

Publication Publication Date Title
JP7005388B2 (en) Information processing equipment and sorting system
JP5806301B2 (en) Method for physical object selection in robotic systems
JP6983524B2 (en) Information processing equipment, information processing methods and programs
CN109483573B (en) Machine learning device, robot system, and machine learning method
CN111776759B (en) Robotic system with automated package registration mechanism and method of operation thereof
JP2017177294A (en) Robot control device, robot control method, robot system and computer program
JP2019217608A (en) Information processing device, information processing method and program
JP2019063984A (en) Information processor, method, and robot system
JP2019181687A (en) Information processing device, information processing method and program
WO2020022302A1 (en) Grasping device
JP7062406B2 (en) Information processing equipment and robot arm control system
JP6541397B2 (en) INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING METHOD, AND PROGRAM
WO2019207979A1 (en) Article gripping device and control device for article gripping device
JP2019188516A (en) Information processor, information processing method, and program
CN111906773A (en) Robot system with coordinated transfer mechanism
CN111483750A (en) Control method and control device for robot system
JP2017061025A (en) Robot control device, robot control method and computer program
JP7042703B2 (en) Information processing equipment, unloading system equipped with information processing equipment, and information processing program
JP7062418B2 (en) Information processing equipment and sorting system
JP2020021212A (en) Information processing device, information processing method, and program
CN113269112A (en) Method and device for identifying capture area, electronic equipment and storage medium
JP7163116B2 (en) Information processing equipment and picking system
JP2017170567A (en) Workpiece recognition method and random picking method
JP2019199335A (en) Information processing device, information processing program, and sorting system
JP2020062707A (en) Information processing device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200924

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210630

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210831

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211029

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211207

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220105

R150 Certificate of patent or registration of utility model

Ref document number: 7005388

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150