JP7163116B2 - Information processing equipment and picking system - Google Patents

Information processing equipment and picking system Download PDF

Info

Publication number
JP7163116B2
JP7163116B2 JP2018171990A JP2018171990A JP7163116B2 JP 7163116 B2 JP7163116 B2 JP 7163116B2 JP 2018171990 A JP2018171990 A JP 2018171990A JP 2018171990 A JP2018171990 A JP 2018171990A JP 7163116 B2 JP7163116 B2 JP 7163116B2
Authority
JP
Japan
Prior art keywords
article
image
distance
processor
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018171990A
Other languages
Japanese (ja)
Other versions
JP2020040193A (en
Inventor
健一 関谷
賢一 下山
優香 渡辺
昌孝 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Toshiba Infrastructure Systems and Solutions Corp
Original Assignee
Toshiba Corp
Toshiba Infrastructure Systems and Solutions Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp, Toshiba Infrastructure Systems and Solutions Corp filed Critical Toshiba Corp
Priority to JP2018171990A priority Critical patent/JP7163116B2/en
Publication of JP2020040193A publication Critical patent/JP2020040193A/en
Application granted granted Critical
Publication of JP7163116B2 publication Critical patent/JP7163116B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明の実施形態は、情報処理装置及びピッキングシステムに関する。 TECHNICAL FIELD Embodiments of the present invention relate to an information processing device and a picking system.

物品(荷物)を仕分するロボットアームを有するピッキングシステムが実用化されている。ピッキングシステムは、ロボットアーム、ロボットアーム制御装置、情報処理装置などを備える。情報処理装置は、物品の画像(物品画像)に基づいて、動作計画を生成する。ロボットアーム制御装置は、情報処理装置から供給される動作計画に基づいて、ロボットアームを制御する。ロボットアームは、ロボットアーム制御装置の制御に基づいて、物品を把持し、移動させる。 A picking system having a robot arm for sorting articles (packages) has been put into practical use. The picking system includes a robot arm, a robot arm control device, an information processing device, and the like. The information processing device generates an action plan based on the image of the article (article image). The robot arm control device controls the robot arm based on the motion plan supplied from the information processing device. The robot arm grips and moves the article under the control of the robot arm controller.

情報処理装置は、物品画像に対して画像認識を行い、画像中の物品が存在する領域(物品領域)を認識する。情報処理装置は、物品領域に基づき、ロボットアームにより物品を把持させる位置(ピッキング位置)を決定する。情報処理装置は、ピッキング位置に基づき、ピッキング位置と把持機構の移動経路とを示す動作計画を生成する。 The information processing device performs image recognition on the article image, and recognizes an area (article area) in the image where the article exists. The information processing device determines the position (picking position) at which the robot arm picks up the article based on the article area. Based on the picking position, the information processing device generates a motion plan indicating the picking position and the movement route of the gripping mechanism.

ピッキングシステムで仕分される物品は、寸法及び外観などが一様ではない。情報処理装置による画像認識の精度を向上させる為に、機械学習を行い、画像認識パラメータを調整することが有効である。しかしながら、機械学習には、物品領域が特定されている物品画像が大量に必要になるという課題がある。 Items sorted by a picking system vary in size, appearance, and the like. In order to improve the accuracy of image recognition by an information processing apparatus, it is effective to perform machine learning and adjust image recognition parameters. However, machine learning has the problem of requiring a large number of article images in which article regions are specified.

特開2017-64910号公報JP 2017-64910 A

本発明が解決しようとする課題は、容易に学習用データを収集可能な情報処理装置及びピッキングシステムを提供することである。 A problem to be solved by the present invention is to provide an information processing apparatus and a picking system that can easily collect learning data.

一実施形態に係る情報処理装置は、所定範囲に置かれた物品を把持するロボットアームに、ピッキング位置を供給する情報処理装置であって、通信インタフェースと、プロセッサとを具備する。通信インタフェースは、前記所定範囲に置かれた前記物品の画像である物品画像と、前記ロボットアームにより把持され持ち上げられた前記物品との距離を示す距離情報と、を取得する。プロセッサは、前記距離情報に基づいて、前記物品画像上における前記物品の位置を示すマスク画像を生成する。プロセッサは、前記物品画像と、予め設定された画像認識パラメータとに基づいて、前記物品画像上において、前記物品が存在する物品領域を認識し、前記物品領域に基づいて、前記ピッキング位置を生成し、前記物品画像と前記マスク画像とを対応付けて、前記画像認識パラメータを更新する為の学習用データを生成する。
An information processing apparatus according to one embodiment is an information processing apparatus that supplies a picking position to a robot arm that grips an article placed in a predetermined range, and includes a communication interface and a processor. The communication interface acquires an article image, which is an image of the article placed in the predetermined range, and distance information indicating the distance from the article gripped and lifted by the robot arm. A processor generates a mask image indicating the position of the article on the article image based on the distance information. The processor recognizes an article area in which the article exists on the article image based on the article image and preset image recognition parameters, and generates the picking position based on the article area. and generating learning data for updating the image recognition parameters by associating the article image with the mask image.

図1は、一実施形態に係るピッキングシステムの概略的な構成例について説明する為の説明図である。FIG. 1 is an explanatory diagram for explaining a schematic configuration example of a picking system according to an embodiment. 図2は、一実施形態に係る距離センサの構成例について説明する為の説明図である。FIG. 2 is an explanatory diagram for explaining a configuration example of a distance sensor according to one embodiment. 図3は、一実施形態に係る情報処理装置及び操作端末について説明する為の説明図である。FIG. 3 is an explanatory diagram for explaining an information processing device and an operation terminal according to one embodiment. 図4は、一実施形態に係る情報処理装置の動作の例について説明する為の説明図である。FIG. 4 is an explanatory diagram for explaining an example of the operation of the information processing apparatus according to one embodiment. 図5は、一実施形態に係る物品画像の例について説明する為の説明図である。FIG. 5 is an explanatory diagram for explaining an example of an article image according to one embodiment. 図6は、一実施形態に係る物品画像の例について説明する為の説明図である。FIG. 6 is an explanatory diagram for explaining an example of an article image according to one embodiment. 図7は、一実施形態に係るロボットアームの動作の例について説明する為の説明図である。FIG. 7 is an explanatory diagram for explaining an example of the motion of the robot arm according to one embodiment. 図8は、一実施形態に係る情報処理装置の動作の例について説明する為の説明図である。FIG. 8 is an explanatory diagram for explaining an example of the operation of the information processing apparatus according to one embodiment. 図9は、一実施形態に係る情報処理装置の動作の例について説明する為の説明図である。FIG. 9 is an explanatory diagram for explaining an example of the operation of the information processing apparatus according to one embodiment. 図10は、一実施形態に係る情報処理装置の動作の例について説明する為の説明図である。FIG. 10 is an explanatory diagram for explaining an example of the operation of the information processing apparatus according to one embodiment. 図11は、一実施形態に係るマスク画像の例について説明する為の説明図である。FIG. 11 is an explanatory diagram for explaining an example of a mask image according to one embodiment. 図12は、一実施形態に係る情報処理装置の動作の他の例について説明する為の説明図である。FIG. 12 is an explanatory diagram for explaining another example of the operation of the information processing apparatus according to one embodiment. 図13は、一実施形態に係る確認画面の例について説明する為の説明図である。FIG. 13 is an explanatory diagram for explaining an example of a confirmation screen according to one embodiment.

以下、実施形態について、図面を参照して説明する。
図1は、第1の実施形態に係るピッキングシステム1の概略的な構成例について説明する為の説明図である。
Hereinafter, embodiments will be described with reference to the drawings.
FIG. 1 is an explanatory diagram for explaining a schematic configuration example of a picking system 1 according to the first embodiment.

ピッキングシステム1は、かご車2に積載された仕分対象である物品3を所定の仕分先に仕分けるシステムである。 The picking system 1 is a system that sorts the articles 3 to be sorted loaded on the car 2 to predetermined sorting destinations.

かご車2は、物品3を収容する収容部とキャスターとが組み合わされた容器である。なお、かご車2は、仕分対象の物品3が積載される容器の一例であり、荷台、またはパレットなど、物品3を積載することができるものであれば如何なるものであってもよい。 The car 2 is a container in which a storage portion for storing the articles 3 and casters are combined. The car 2 is an example of a container in which the articles 3 to be sorted are loaded, and may be any type such as a loading platform or a pallet as long as the articles 3 can be loaded.

物品3の仕分先は、例えばベルトコンベア、他のカゴ車、仕分用のカゴ、作業台など、如何なるものであってもよい。 The sorting destination of the articles 3 may be, for example, a belt conveyor, another basket car, a basket for sorting, a workbench, or the like.

ピッキングシステム1は、ロボットアーム11、情報処理装置12、及び操作端末13を備える。また、ピッキングシステム1は、第1の距離センサ14及び第2の距離センサ15をさらに備える。また、ピッキングシステム1は、ストレージ装置16及び学習装置17をさらに備える。ロボットアーム11、情報処理装置12、操作端末13、第1の距離センサ14、第2の距離センサ15、ストレージ装置16、及び学習装置17は、ネットワーク18を介して互いに通信可能に構成されている。 The picking system 1 includes a robot arm 11 , an information processing device 12 and an operation terminal 13 . Also, the picking system 1 further comprises a first distance sensor 14 and a second distance sensor 15 . Also, the picking system 1 further includes a storage device 16 and a learning device 17 . The robot arm 11, the information processing device 12, the operation terminal 13, the first distance sensor 14, the second distance sensor 15, the storage device 16, and the learning device 17 are configured to communicate with each other via a network 18. .

まず、ロボットアーム11の構成について説明する。
ロボットアーム11は、かご車2に積載された物品3を把持し、把持した物品3を持ち上げ、物品3を仕分先に供給する装置である。ロボットアーム11は、把持機構21、アーム機構22、力覚センサ23、及びコントローラ24を備える。
First, the configuration of the robot arm 11 will be described.
The robot arm 11 is a device that grips the articles 3 loaded on the car 2, lifts the gripped articles 3, and supplies the articles 3 to the sorting destination. The robot arm 11 includes a grasping mechanism 21 , an arm mechanism 22 , a force sensor 23 and a controller 24 .

把持機構21は、物品3を把持する機構である。把持機構21は、例えば、物品3に吸着する吸着パッドを備える。吸着パッドは、物品3の表面に接し、且つコントローラ24の制御によりパッド内が負圧になることにより、物品3の表面に吸着し、物品3を把持する。また、把持機構21は、2点以上の接点で物品3を挟むことにより物品3を把持する複数の指部を備えるグリッパとして構成されていてもよい。 The gripping mechanism 21 is a mechanism that grips the article 3 . The gripping mechanism 21 includes, for example, a suction pad that adheres to the article 3 . The suction pad is in contact with the surface of the article 3 , and the suction pad adheres to the surface of the article 3 and grips the article 3 by creating a negative pressure inside the pad under the control of the controller 24 . Alternatively, the gripping mechanism 21 may be configured as a gripper having a plurality of fingers that grip the article 3 by sandwiching the article 3 between two or more points of contact.

アーム機構22は、把持機構21を移動させる機構である。アーム機構22は、複数のアームと、複数のアームを連結する関節機構とを備える。関節機構は、コントローラ24により制御されるアクチュエータ(図示せず)により可動することにより、アームを駆動する。 The arm mechanism 22 is a mechanism that moves the gripping mechanism 21 . The arm mechanism 22 includes a plurality of arms and joint mechanisms that connect the plurality of arms. The joint mechanism drives the arm by being moved by an actuator (not shown) controlled by the controller 24 .

力覚センサ23は、把持機構21に対して加えられる応力を検知するセンサである。力覚センサ23は、例えば、把持機構21に対して鉛直方向に加わる応力を検知する。力覚センサ23は、検知結果をコントローラ24に送信する。なお、力覚センサ23は、アーム機構22に対して加えられる応力も検知する構成であってもよい。 The force sensor 23 is a sensor that detects stress applied to the gripping mechanism 21 . The force sensor 23 detects, for example, stress applied to the gripping mechanism 21 in the vertical direction. The force sensor 23 transmits the detection result to the controller 24 . Note that the force sensor 23 may be configured to detect the stress applied to the arm mechanism 22 as well.

コントローラ24は、情報処理装置12から供給される動作計画に基づいて、把持機構21及びアーム機構22の動作を制御する。コントローラ24は、例えば、メモリ(図示せず)と、メモリに記憶されたプログラムを実行することにより把持機構21及びアーム機構22の動作を制御する演算素子(図示せず)とを備える。また、コントローラ24は、シーケンサとして構成されていてもよい。 The controller 24 controls operations of the grasping mechanism 21 and the arm mechanism 22 based on the operation plan supplied from the information processing device 12 . The controller 24 includes, for example, a memory (not shown) and an arithmetic element (not shown) that controls the operation of the grasping mechanism 21 and the arm mechanism 22 by executing a program stored in the memory. Also, the controller 24 may be configured as a sequencer.

動作計画は、ピッキング位置を示すピッキング位置データと、軌跡とを含む情報である。コントローラ24は、動作計画が示す軌跡を通り、動作計画のピッキング位置データが示すピッキング位置まで把持機構21が移動するように、アーム機構22を制御する。 The motion plan is information including picking position data indicating picking positions and a trajectory. The controller 24 controls the arm mechanism 22 so that the gripping mechanism 21 moves to the picking position indicated by the picking position data of the action plan along the trajectory indicated by the action plan.

ピッキング位置データは、把持機構21により物品3を把持させる位置を示す情報である。例えば、ピッキング位置データは、把持機構21により物品3を把持させる場合に把持機構21を移動させる位置を示す。より具体的には、ピッキング位置データは、把持機構21の基準点の移動先の3次元空間上の座標である。なお、以下ピッキング位置データが示すピッキング位置を、単にピッキング位置と称する。 The picking position data is information indicating the position at which the gripping mechanism 21 grips the article 3 . For example, the picking position data indicates the position to move the gripping mechanism 21 when gripping the article 3 by the gripping mechanism 21 . More specifically, the picking position data are the coordinates in the three-dimensional space of the movement destination of the reference point of the gripping mechanism 21 . The picking position indicated by the picking position data is hereinafter simply referred to as the picking position.

軌跡は、ロボットアーム11の把持機構21をピッキング位置まで移動させる際の経路を示す。より具体的には、軌跡は、把持機構21の基準点の移動経路を示す3次元空間上の複数の座標である。また、軌跡は、把持機構21の基準点の移動経路を示す3次元空間上の複数の座標とベクトルとの組み合わせであってもよい。なお、ピッキング位置は、軌跡に含まれていてもよい。 The trajectory indicates the path along which the grasping mechanism 21 of the robot arm 11 is moved to the picking position. More specifically, the trajectory is a plurality of coordinates in three-dimensional space that indicate the movement path of the reference point of the gripping mechanism 21 . Also, the trajectory may be a combination of a plurality of coordinates and vectors in a three-dimensional space indicating the moving path of the reference point of the gripping mechanism 21 . Note that the picking position may be included in the trajectory.

把持機構21が吸着パッドとして構成されている場合、把持機構21の基準点は、例えば、吸着パッドの中心(重心)であってもよいし、吸着パッドにおける任意の点であってもよい。また、把持機構21がグリッパとして構成されている場合、把持機構21の基準点は、例えば、グリッパを構成する複数の指部の中心であってもよい。 When the gripping mechanism 21 is configured as a suction pad, the reference point of the gripping mechanism 21 may be, for example, the center (center of gravity) of the suction pad or any point on the suction pad. Moreover, when the gripping mechanism 21 is configured as a gripper, the reference point of the gripping mechanism 21 may be, for example, the center of a plurality of fingers that constitute the gripper.

次に、第1の距離センサ14及び第2の距離センサ15の構成について説明する。
第1の距離センサ14及び第2の距離センサ15は、対象物までの距離を計測するセンサである。第1の距離センサ14及び第2の距離センサ15は、対象物との距離を示す距離情報を取得する。第1の距離センサ14及び第2の距離センサ15は、距離情報を、ネットワーク18を介して情報処理装置12に供給する。
Next, configurations of the first distance sensor 14 and the second distance sensor 15 will be described.
The first distance sensor 14 and the second distance sensor 15 are sensors that measure the distance to an object. The first distance sensor 14 and the second distance sensor 15 acquire distance information indicating the distance to the object. The first distance sensor 14 and the second distance sensor 15 supply distance information to the information processing device 12 via the network 18 .

第1の距離センサ14は、対象物との距離を示す点が、三次元空間に配列された第1の距離情報を取得する。即ち、第1の距離情報は、互いに直交するx方向、y方向、z方向からなる空間における点の集合(点群)を有する距離画像である。第1の距離情報は、二次元状に配列された複数の点毎に、第1の距離センサ14との距離を示す距離値を有するデータであると、言い換えることもできる。 The first distance sensor 14 acquires first distance information in which points indicating the distance to the object are arranged in a three-dimensional space. That is, the first distance information is a distance image having a set of points (point group) in a space composed of mutually orthogonal x-, y-, and z-directions. In other words, the first distance information is data having a distance value indicating the distance from the first distance sensor 14 for each of a plurality of two-dimensionally arranged points.

第1の距離センサ14は、例えば異なる2点(瞳位置)から対象物を撮像した際の視差に基づいて対象物までの距離を計測するステレオカメラとして構成される。即ち、第1の距離センサ14は、レンズと、レンズにより結像された光を画像に変換する撮像素子とが組み合わされたカメラを2つ以上備える。このような構成によると、第1の距離センサ14は、第1の距離情報と同時に、色情報を有する座標(画素)が二次元的に配列されたラスタ画像を取得することができる。なお、ラスタ画像は、カラー画像であっても単色画像であってもよい。 The first distance sensor 14 is configured as, for example, a stereo camera that measures the distance to an object based on parallax when the object is imaged from two different points (pupil positions). That is, the first distance sensor 14 includes two or more cameras each having a combination of a lens and an imaging device that converts light imaged by the lens into an image. According to such a configuration, the first distance sensor 14 can acquire a raster image in which coordinates (pixels) having color information are arranged two-dimensionally at the same time as the first distance information. Note that the raster image may be a color image or a monochrome image.

第1の距離センサ14のレンズは、ロボットアーム11により持ち上げられる物品3が積載されたかご車2を含む領域を撮影することができるように画角及び光軸の向きが調整されている。例えば、第1の距離センサ14のレンズは、光軸がかご車2の底面に対向するように調整される。例えば、第1の距離センサ14のレンズは、第1の距離センサ14のレンズの光軸と、上記のz方向(鉛直方向)とが平行になるように調整される。即ち、第1の距離センサ14は、かご車2の底面に対向する方向から、かご車2を含む所定範囲を撮像し、第1の距離情報及びラスタ画像を取得する。 The angle of view and the direction of the optical axis of the lens of the first distance sensor 14 are adjusted so that the area including the car 2 loaded with the article 3 lifted by the robot arm 11 can be photographed. For example, the lens of the first distance sensor 14 is adjusted so that the optical axis faces the bottom surface of the car 2 . For example, the lens of the first distance sensor 14 is adjusted so that the optical axis of the lens of the first distance sensor 14 and the z direction (vertical direction) are parallel. That is, the first distance sensor 14 captures an image of a predetermined range including the car 2 from the direction facing the bottom surface of the car 2, and acquires first distance information and a raster image.

第1の距離センサ14は、第1の距離情報及びラスタ画像を、ネットワーク18を介して情報処理装置12に供給する。なお、物品3を含む所定範囲の画像を物品画像と称する。物品画像は、第1の距離情報とラスタ画像とのいずれであってもよいが、本実施形態では、物品画像は第1の距離情報であると仮定して説明する。 The first distance sensor 14 supplies the first distance information and the raster image to the information processing device 12 via the network 18 . An image of a predetermined range including the article 3 is called an article image. An article image may be either the first distance information or a raster image, but in this embodiment, the article image is assumed to be the first distance information.

図2は、第2の距離センサ15の構成について説明する為の説明図である。第2の距離センサ15は、対象物との距離を示す点が、2次元空間に配列された第2の距離情報を取得する。例えば、第2の距離情報は、互いに直交するx方向、y方向からなる空間における点の集合(点群)を有する距離画像である。第2の距離情報は、1次元状に配列された複数の点毎に、第2の距離センサ15との距離を示す距離値を有するデータであると、言い換えることもできる。 FIG. 2 is an explanatory diagram for explaining the configuration of the second distance sensor 15. As shown in FIG. The second distance sensor 15 acquires second distance information in which points indicating the distance to the object are arranged in a two-dimensional space. For example, the second distance information is a distance image having a set of points (point group) in a space consisting of mutually orthogonal x and y directions. It can also be said that the second distance information is data having a distance value indicating the distance from the second distance sensor 15 for each of a plurality of one-dimensionally arranged points.

第2の距離センサ15は、ある一点と測定対象との距離、即ち2点間の距離を測定する装置である。具体的には、第2の距離センサ15は、自身と、測定対象である点(測距点)とを結ぶ測距方向における距離を測定する装置である。第2の距離センサ15の測距方向は、x方向及びy方向と平行に調整される。即ち、第2の距離センサ15の測距方向は、水平方向と平行である。言い換えると、第2の距離センサ15の測距方向は、第1の距離センサ14のレンズの光軸と交差する方向である。即ち、第2の距離センサ15の測距方向は、第1の距離センサ14のレンズの光軸と角度を成す方向である。例えば、第2の距離センサ15の測距方向は、第1の距離センサ14のレンズの光軸と直交する方向である。第2の距離センサ15は、測距点(または測距方向)を水平方向に走査させつつ距離を測定する。 The second distance sensor 15 is a device that measures the distance between a certain point and an object to be measured, that is, the distance between two points. Specifically, the second distance sensor 15 is a device that measures the distance in the ranging direction connecting itself and a point (range-finding point) to be measured. The ranging direction of the second distance sensor 15 is adjusted parallel to the x-direction and the y-direction. That is, the ranging direction of the second distance sensor 15 is parallel to the horizontal direction. In other words, the distance measurement direction of the second distance sensor 15 is a direction that intersects the optical axis of the lens of the first distance sensor 14 . That is, the range-finding direction of the second distance sensor 15 forms an angle with the optical axis of the lens of the first distance sensor 14 . For example, the ranging direction of the second distance sensor 15 is a direction perpendicular to the optical axis of the lens of the first distance sensor 14 . The second distance sensor 15 measures the distance while scanning the distance measuring point (or distance measuring direction) in the horizontal direction.

第2の距離センサ15は、例えばレーザーレンジファインダーである。第2の距離センサ15は、測定対象にレーザを照射し、反射光が入射するまでの時間に基づいて、測定対象までの距離を測定する。この場合、第2の距離センサ15は、レーザが照射された点を測距点として、レーザの反射光を受光するセンサと測距点との距離を測定する。第2の距離センサ15は、ロボットアーム11により、物品3が持ち上げられる高さで測定を行う。 The second distance sensor 15 is, for example, a laser range finder. The second distance sensor 15 irradiates the object to be measured with a laser and measures the distance to the object based on the time until the reflected light is incident. In this case, the second distance sensor 15 uses the laser-irradiated point as a range-finding point and measures the distance between the sensor that receives the reflected light of the laser and the range-finding point. A second distance sensor 15 measures at the height at which the article 3 is lifted by the robot arm 11 .

上記の構成により、第2の距離センサ15は、ロボットアーム11により持ち上げられた物品3と、自身との距離を示す情報を、第2の距離情報として取得する。即ち、第2の距離センサ15は、測距点を水平方向に走査させつつ、ロボットアーム11により持ち上げられた物品3との距離を測定し、第2の距離情報を取得する。第2の距離センサ15は、取得した第2の距離情報を、ネットワーク18を介して情報処理装置12に供給する。 With the above configuration, the second distance sensor 15 acquires information indicating the distance between itself and the article 3 lifted by the robot arm 11 as second distance information. That is, the second distance sensor 15 measures the distance to the article 3 lifted by the robot arm 11 while scanning the distance measuring point in the horizontal direction, and acquires the second distance information. The second distance sensor 15 supplies the obtained second distance information to the information processing device 12 via the network 18 .

次に、操作端末13について説明する。
図3は、操作端末13及び情報処理装置の構成例について説明する為の説明図である。
Next, the operation terminal 13 will be explained.
FIG. 3 is an explanatory diagram for explaining a configuration example of the operation terminal 13 and the information processing device.

操作端末13は、オペレータによる操作入力に基づいて、処理を行い、処理結果を情報処理装置12に供給する装置である。即ち、操作端末13は、情報処理装置12の操作インタフェースとして機能する。操作端末13は、通信インタフェース31、制御部32、及びタッチパネル33を備える。 The operation terminal 13 is a device that performs processing based on an operation input by an operator and supplies processing results to the information processing device 12 . That is, the operation terminal 13 functions as an operation interface for the information processing device 12 . The operation terminal 13 includes a communication interface 31 , a control section 32 and a touch panel 33 .

通信インタフェース31は、他の機器と通信する為のインタフェースである。通信インタフェース31は、ネットワーク18を介してロボットアーム11、情報処理装置12、第1の距離センサ14、第2の距離センサ15、ストレージ装置16、及び学習装置17と通信する。 The communication interface 31 is an interface for communicating with other devices. The communication interface 31 communicates with the robot arm 11 , the information processing device 12 , the first distance sensor 14 , the second distance sensor 15 , the storage device 16 and the learning device 17 via the network 18 .

制御部32は、種々の処理を実行する処理部である。制御部32は、プロセッサ34及びメモリ35を備える。 The control unit 32 is a processing unit that executes various processes. The control unit 32 has a processor 34 and a memory 35 .

プロセッサ34は、演算処理を実行する演算素子である。プロセッサ34は、例えばCPUとして構成される。プロセッサ34は、メモリ35に記憶されているプログラムに基づいて種々の処理を行う。 The processor 34 is an arithmetic element that executes arithmetic processing. The processor 34 is configured as, for example, a CPU. Processor 34 performs various processes based on programs stored in memory 35 .

メモリ35は、プログラム及びデータを記憶する記憶装置である。メモリ35は、例えば、読み出し専用の不揮発性メモリであるROM、データを一時的に記憶するRAM、及びデータを記憶するストレージのいずれか、または複数を備える。 The memory 35 is a storage device that stores programs and data. The memory 35 includes, for example, one or more of a ROM that is a read-only nonvolatile memory, a RAM that temporarily stores data, and a storage that stores data.

タッチパネル33は、画面の表示と、操作に基づく操作信号の生成とを行う装置である。タッチパネル33は、一体に構成されたディスプレイ36及びタッチセンサ37を備える。操作端末13は、タッチパネル33の代わりに画面を表示するディスプレイと、操作に基づき操作信号を生成する操作部とを備える構成であってもよい。操作部は、マウス、トラックボール、キーボード、トラックパッドなど如何なるものであってもよい。 The touch panel 33 is a device that displays a screen and generates an operation signal based on an operation. The touch panel 33 includes a display 36 and a touch sensor 37 that are integrated. The operation terminal 13 may be configured to include a display that displays a screen instead of the touch panel 33 and an operation unit that generates an operation signal based on an operation. The operating unit may be any device such as a mouse, trackball, keyboard, or trackpad.

ディスプレイ36は、制御部32または図示されないグラフィックコントローラから供給される表示用のデータ(画面データ)に基づいて画面を表示する。 The display 36 displays a screen based on display data (screen data) supplied from the control unit 32 or a graphic controller (not shown).

タッチセンサ37は、ディスプレイ36に表示された画面上において操作端末13を操作するオペレータがタッチした位置を示す操作信号を生成する。 The touch sensor 37 generates an operation signal indicating the position touched by the operator who operates the operation terminal 13 on the screen displayed on the display 36 .

次に、情報処理装置12の構成について説明する。
情報処理装置12は、ロボットアーム11に動作計画を供給する装置である。情報処理装置12は、かご車2に搭載された物品3の画像である物品画像を取得する。情報処理装置12は、物品画像に写った物品3を認識する為のパラメータである画像認識パラメータを用いて、物品画像に対して画像認識を行い、物品画像において物品3が写った領域である物品領域を認識する。情報処理装置12は、物品領域の認識結果に基づき、ロボットアーム11により物品3を把持させる位置であるピッキング位置を決定する。情報処理装置12は、ピッキング位置と把持機構21の移動経路である軌跡とを示す動作計画を生成し、ロボットアーム11に動作計画を供給する。
Next, the configuration of the information processing device 12 will be described.
The information processing device 12 is a device that supplies a motion plan to the robot arm 11 . The information processing device 12 acquires an article image that is an image of the article 3 mounted on the car 2 . The information processing device 12 performs image recognition on the article image using an image recognition parameter, which is a parameter for recognizing the article 3 shown in the article image, and recognizes the article, which is the area where the article 3 is shown in the article image. Recognize the area. The information processing device 12 determines the picking position, which is the position where the robot arm 11 picks up the article 3, based on the recognition result of the article area. The information processing device 12 generates a motion plan indicating the picking position and the trajectory of the movement path of the gripping mechanism 21 and supplies the motion plan to the robot arm 11 .

また、情報処理装置12は、後述する方法によって、学習装置17に機械学習を行わせる為の学習用データを生成する。情報処理装置12は、生成した学習用データをストレージ装置16に供給する。 The information processing device 12 also generates learning data for causing the learning device 17 to perform machine learning by a method described later. The information processing device 12 supplies the generated learning data to the storage device 16 .

情報処理装置12は、パーソナルコンピュータ(PC)などの、データの処理及びデータの保存を行うことができる装置により構成される。情報処理装置12は、通信インタフェース41及び制御部42を備える。 The information processing device 12 is configured by a device such as a personal computer (PC) capable of processing and storing data. The information processing device 12 includes a communication interface 41 and a control section 42 .

通信インタフェース41は、情報処理装置12以外の他の機器と通信する為のインタフェースである。通信インタフェース41は、ネットワーク18を介してロボットアーム11、第1の距離センサ14、第2の距離センサ15、操作端末13、ストレージ装置16、及び学習装置17と通信する。 The communication interface 41 is an interface for communicating with devices other than the information processing device 12 . Communication interface 41 communicates with robot arm 11 , first distance sensor 14 , second distance sensor 15 , operation terminal 13 , storage device 16 , and learning device 17 via network 18 .

制御部42は、種々の処理を実行する処理部である。制御部42は、プロセッサ43及びメモリ44を備える。 The control unit 42 is a processing unit that executes various processes. The control unit 42 has a processor 43 and a memory 44 .

プロセッサ43は、演算処理を実行する演算素子である。プロセッサ43は、例えばCPUとして構成される。プロセッサ43は、メモリ44に記憶されているプログラムに基づいて種々の処理を行う。 The processor 43 is an arithmetic element that executes arithmetic processing. The processor 43 is configured as, for example, a CPU. The processor 43 performs various processes based on programs stored in the memory 44 .

メモリ44は、プログラム及びデータを記憶する記憶装置である。メモリ44は、例えば、読み出し専用の不揮発性メモリであるROM、データを一時的に記憶するRAM、及びデータを記憶するストレージのいずれか、または複数を備える。例えば、メモリ44は、学習装置17から供給された画像認識パラメータを記憶する。 The memory 44 is a storage device that stores programs and data. The memory 44 includes, for example, one or more of a ROM that is a read-only nonvolatile memory, a RAM that temporarily stores data, and a storage that stores data. For example, memory 44 stores image recognition parameters supplied from learning device 17 .

次に、ストレージ装置16及び学習装置17について説明する。
ストレージ装置16は、学習用データを記憶する記憶装置である。ストレージ装置16は、情報処理装置12から供給された学習用データを記憶する。ストレージ装置16は、学習装置17からの要求に応じて、学習用データを学習装置17に供給する。
Next, the storage device 16 and the learning device 17 will be explained.
The storage device 16 is a storage device that stores learning data. The storage device 16 stores learning data supplied from the information processing device 12 . The storage device 16 supplies learning data to the learning device 17 in response to a request from the learning device 17 .

学習装置17は、ストレージ装置16から学習用データを取得し、学習用データに基づいて機械学習を行うことにより画像認識パラメータを生成し、情報処理装置12に画像認識パラメータを供給する。学習装置17は、学習装置17以外の機器と通信する為の通信インタフェース、種々の処理を実行する制御部、及びメモリなどを備える。 The learning device 17 acquires data for learning from the storage device 16 , generates image recognition parameters by performing machine learning based on the data for learning, and supplies the image recognition parameters to the information processing device 12 . The learning device 17 includes a communication interface for communicating with devices other than the learning device 17, a control section for executing various processes, a memory, and the like.

学習装置17で用いられる学習用データは、問題と答えとを有するデータである。例えば、学習用データは、仕分対象の物品3が写った物品画像と、この物品画像において仕分対象の物品が存在する領域である物品領域を示す情報とを有する。この例では、物品画像が問題に相当し、物品画像における物品領域が答えに相当する。学習装置17は、このような学習用データに基づいて、例えばセグメーテーション用のニューラルネットワークなどにより機械学習を行うことにより、情報処理装置12が物品画像から物体領域を認識する際に用いられる画像認識パラメータを生成する。画像認識パラメータは、セグメーテーション用のニューラルネットワークにおける重み計数である。なお、学習装置17は、学習用データを取得する毎に画像認識パラメータを生成する構成であってもよいし、取得した学習用データに基づいて生成された画像認識パラメータを用いて、既に生成した画像認識パラメータを調整(更新)する構成であってもよい。また、学習装置17は、既に生成した画像認識パラメータを調整(変更)する場合、一度に調整することができる値を制限する構成であってもよい。 The learning data used by the learning device 17 is data having questions and answers. For example, the learning data includes an article image showing the articles 3 to be sorted, and information indicating an article area in which the article to be sorted exists in the article image. In this example, the item image corresponds to the question and the item area in the item image corresponds to the answer. Based on such learning data, the learning device 17 performs machine learning using, for example, a neural network for segmentation. Generate recognition parameters. Image recognition parameters are weight coefficients in a neural network for segmentation. Note that the learning device 17 may be configured to generate image recognition parameters each time learning data is acquired, or may use image recognition parameters generated based on acquired learning data to The configuration may be such that the image recognition parameters are adjusted (updated). Further, the learning device 17 may be configured to limit the values that can be adjusted at one time when adjusting (changing) already generated image recognition parameters.

次に、ピッキングシステム1における各構成の動作について説明する。
まず情報処理装置12による動作計画の供給について説明する。
図4は、動作計画の生成に関する情報処理装置12の動作について説明する為のフローチャートである。
Next, the operation of each component in the picking system 1 will be described.
First, the operation plan supply by the information processing device 12 will be described.
FIG. 4 is a flowchart for explaining the operation of the information processing device 12 regarding generation of an operation plan.

制御部42のプロセッサ43は、まず第1の距離センサ14から、図5に示される物品画像を取得する(ステップS11)。上記したように、第1の距離センサ14は、ロボットアーム11により持ち上げられる物品3が搭載されたかご車2内を、ステレオカメラにより撮像して1対の画像データを取得する。さらに、第1の距離センサ14は、1対の画像データに基づき、画像データ上の所定の領域(点)毎に第1の距離センサ14との距離を算出し、点群データとしての物品画像を生成する。第1の距離センサ14は、生成した物品画像を情報処理装置12に供給する。 The processor 43 of the control unit 42 first acquires the article image shown in FIG. 5 from the first distance sensor 14 (step S11). As described above, the first distance sensor 14 acquires a pair of image data by imaging the inside of the car 2 loaded with the article 3 lifted by the robot arm 11 with the stereo camera. Furthermore, the first distance sensor 14 calculates the distance from the first distance sensor 14 for each predetermined area (point) on the image data based on the pair of image data, and the article image as point cloud data. to generate The first distance sensor 14 supplies the generated article image to the information processing device 12 .

図5は、物品画像51の例について説明する為の説明図である。上記したように、第1の距離センサ14は、かご車2が設置される領域を含む所定範囲が画角として設定されている。この為、物品画像51には、かご車2及び複数の物品3が写り込んでいる。物品画像51は、第1の距離センサ14との距離を示す情報を含む。即ち、第1の距離センサ14が設置されている位置、第1の距離センサ14に用いられているレンズの焦点距離、及び第1の距離センサ14に用いられている撮像素子の寸法が既知である場合、物品画像51に基づき、物品3の位置及び物品3の寸法などを算出することができる。 FIG. 5 is an explanatory diagram for explaining an example of the article image 51. As shown in FIG. As described above, the angle of view of the first distance sensor 14 is set to a predetermined range including the area where the car 2 is installed. Therefore, the car 2 and the plurality of articles 3 are reflected in the article image 51 . Article image 51 includes information indicating the distance to first distance sensor 14 . That is, the position where the first distance sensor 14 is installed, the focal length of the lens used in the first distance sensor 14, and the dimensions of the imaging element used in the first distance sensor 14 are known. In some cases, based on the article image 51, the position of the article 3, the dimensions of the article 3, etc. can be calculated.

情報処理装置12のプロセッサ43は、物品画像51と、メモリ44に記憶された画像認識パラメータとに基づいて、画像認識を行う。これにより、プロセッサ43は、物品画像51内において物品3が存在する領域である物品領域を認識する(ステップS12)。具体的には、プロセッサ43は、物品画像51に対して、メモリ44に記憶された画像認識パラメータを用いて、物体検出またはセグメンテーション用のニューラルネットワークなどの手法を用いることにより、物品領域を認識する。例えば、プロセッサ43は、物品画像51において最も高い位置に存在する面に対応する領域を、物品領域として認識する。 The processor 43 of the information processing device 12 performs image recognition based on the article image 51 and the image recognition parameters stored in the memory 44 . As a result, the processor 43 recognizes an article area in which the article 3 exists in the article image 51 (step S12). Specifically, the processor 43 uses the image recognition parameters stored in the memory 44 for the article image 51 to recognize the article area by using a technique such as a neural network for object detection or segmentation. . For example, the processor 43 recognizes the area corresponding to the highest plane in the article image 51 as the article area.

図6は、物品画像51内の物品領域の認識結果の例について説明する為の説明図である。図6に示されるように、物品画像51において、最も高い位置に存在する物品3の面が物品領域52として認識されている。 FIG. 6 is an explanatory diagram for explaining an example of the recognition result of the article area in the article image 51. As shown in FIG. As shown in FIG. 6 , in the article image 51 , the surface of the article 3 present at the highest position is recognized as the article area 52 .

プロセッサ43は、物品画像51における物品領域52の認識結果に基づいて、ピッキング位置を決定する(ステップS13)。例えば、プロセッサ43は、物品領域52の重心(若しくは中心)の座標をピッキング位置として決定する。 The processor 43 determines the picking position based on the recognition result of the article area 52 in the article image 51 (step S13). For example, processor 43 determines the coordinates of the center of gravity (or center) of item area 52 as the picking position.

プロセッサ43は、決定したピッキング位置に基づいて、動作計画を生成する(ステップS14)。例えば、プロセッサ43は、ロボットアーム11の把持機構21を、初期位置からピッキング位置まで移動させる場合の把持機構21の軌跡を生成する。プロセッサ43は、生成した軌跡と、ピッキング位置とを示す動作計画を生成する。さらに、プロセッサ43は、生成した動作計画をロボットアーム11のコントローラ24に送信し(ステップS15)、処理を終了する。 The processor 43 generates a motion plan based on the determined picking positions (step S14). For example, the processor 43 generates a trajectory of the gripping mechanism 21 when moving the gripping mechanism 21 of the robot arm 11 from the initial position to the picking position. The processor 43 generates a motion plan indicating the generated trajectory and picking positions. Furthermore, the processor 43 transmits the generated motion plan to the controller 24 of the robot arm 11 (step S15), and ends the process.

次に、ロボットアーム11の動作について説明する。
図7は、ロボットアーム11の動作について説明する為のフローチャートである。
Next, operation of the robot arm 11 will be described.
FIG. 7 is a flow chart for explaining the operation of the robot arm 11. FIG.

ロボットアーム11のコントローラ24は、アーム機構22及び把持機構21を第1の距離センサ14の画角外の初期位置に移動させる(ステップS21)。例えば、コントローラ24は、アーム機構22の関節機構をアクチュエータにより可動させることにより、アーム機構22を駆動し、アーム機構22及び把持機構21を撮影範囲外に移動させる。なお、第1の距離センサ14は、アーム機構22及び把持機構21を撮影範囲外に移動したタイミングで物品画像51を取得し、情報処理装置12に送信する。 The controller 24 of the robot arm 11 moves the arm mechanism 22 and the gripping mechanism 21 to initial positions outside the angle of view of the first distance sensor 14 (step S21). For example, the controller 24 drives the arm mechanism 22 by moving the joint mechanism of the arm mechanism 22 with an actuator, and moves the arm mechanism 22 and the grasping mechanism 21 out of the imaging range. Note that the first distance sensor 14 acquires the article image 51 at the timing when the arm mechanism 22 and the gripping mechanism 21 are moved out of the imaging range, and transmits the acquired article image 51 to the information processing device 12 .

コントローラ24は、アーム機構22及び把持機構21を撮影範囲外に移動させると、情報処理装置12から動作計画が供給されるのを待つ(ステップS22)。 After moving the arm mechanism 22 and the gripping mechanism 21 out of the imaging range, the controller 24 waits for the operation plan to be supplied from the information processing device 12 (step S22).

コントローラ24は、情報処理装置12から動作計画が供給された場合(ステップS22、YES)、動作計画に基づき把持機構21を移動させる(ステップS23)。例えば、コントローラ24は、動作計画が示す軌跡に基づき、動作計画が示すピッキング位置まで把持機構21を移動させるように、アーム機構22を制御する。 When the operation plan is supplied from the information processing device 12 (step S22, YES), the controller 24 moves the grasping mechanism 21 based on the operation plan (step S23). For example, the controller 24 controls the arm mechanism 22 to move the gripping mechanism 21 to the picking position indicated by the action plan based on the trajectory indicated by the action plan.

コントローラ24は、把持機構21の位置を逐次確認し、動作計画が示すピッキング位置に到達したか否か判断する。コントローラ24は、把持機構21がピッキング位置に到達した場合、次のステップS24の処理に移行する。また、コントローラ24は、力覚センサ23の検知結果を逐次確認し、把持機構21がピッキング位置に到達し、且つ物品3に接触したことを検知結果が示す場合に、次のステップS24の処理に移行する構成であってもよい。 The controller 24 sequentially confirms the position of the gripping mechanism 21 and determines whether or not the picking position indicated by the operation plan has been reached. When the gripping mechanism 21 reaches the picking position, the controller 24 proceeds to the next step S24. Further, the controller 24 sequentially confirms the detection results of the force sensor 23, and when the detection results indicate that the gripping mechanism 21 has reached the picking position and has come into contact with the article 3, the process proceeds to the next step S24. It may be a configuration to migrate.

コントローラ24は、把持機構21がピッキング位置に到達したと判断した場合、把持機構21により物品3を把持させる(ステップS24)。例えば把持機構21が吸着パッドとして構成されている場合、コントローラ24は、吸着パッド内を図示されない真空ポンプなどにより負圧にさせることにより、把持機構21に物品を把持させる。また例えば、把持機構21がグリッパとして構成されている場合、コントローラ24は、グリッパの指部により物品3を挟ませることにより、把持機構21に物品3を把持させる。 When the controller 24 determines that the gripping mechanism 21 has reached the picking position, the gripping mechanism 21 grips the article 3 (step S24). For example, if the gripping mechanism 21 is configured as a suction pad, the controller 24 causes the gripping mechanism 21 to grip the article by creating a negative pressure inside the suction pad using a vacuum pump (not shown) or the like. Further, for example, when the gripping mechanism 21 is configured as a gripper, the controller 24 causes the gripping mechanism 21 to grip the article 3 by pinching the article 3 between the fingers of the gripper.

コントローラ24は、把持機構21により物品3を把持させる動作を行わせた後、物品3の把持が正常に行われたか否か判断する(ステップS25)。即ち、コントローラ24は、把持機構21により物品3を把持することができたか否か判断する。例えば、把持機構21が吸着パッドとして構成されている場合、コントローラ24は、吸着パッド内が負圧にならない場合、把持機構21により物品3を把持できていないと判断する。また、例えば、把持機構21がグリッパとして構成されている場合、コントローラ24は、グリッパにより物品3を挟むことにより、グリッパの指部に加わることが推定される応力が生じない場合、把持機構21により物品3を把持できていないと判断する。 After causing the gripping mechanism 21 to grip the article 3, the controller 24 determines whether the gripping of the article 3 has been performed normally (step S25). That is, the controller 24 determines whether or not the article 3 has been gripped by the gripping mechanism 21 . For example, when the gripping mechanism 21 is configured as a suction pad, the controller 24 determines that the article 3 is not gripped by the gripping mechanism 21 when the inside of the suction pad does not become negative pressure. Further, for example, when the gripping mechanism 21 is configured as a gripper, the controller 24 causes the gripping mechanism 21 to grip the object 3 when the gripper grips the article 3 and does not generate stress that is estimated to be applied to the fingers of the gripper. It is determined that the article 3 has not been grasped.

コントローラ24は、把持機構21による物品3の把持が正常に行われたと判断した場合(ステップS25、YES)、物品3を把持した把持機構21を、所定距離上昇させるように、アーム機構22を制御する(ステップS26)。コントローラ24は、第2の距離センサ15の走査位置に到達するように、物品3を把持した把持機構21を上昇させる。これにより、第2の距離センサ15は、第2の距離情報を取得することができる。第2の距離センサ15は、取得した第2の距離情報を、情報処理装置12に供給する。 When the controller 24 determines that the article 3 has been properly gripped by the gripping mechanism 21 (step S25, YES), the controller 24 controls the arm mechanism 22 to raise the gripping mechanism 21 gripping the article 3 by a predetermined distance. (step S26). The controller 24 raises the gripping mechanism 21 gripping the article 3 so as to reach the scanning position of the second distance sensor 15 . Thereby, the second distance sensor 15 can acquire the second distance information. The second distance sensor 15 supplies the acquired second distance information to the information processing device 12 .

また、コントローラ24は、第2の距離センサ15による第2の距離情報の取得が完了すると、把持機構21の移動を再開させる。コントローラ24は、把持機構21を仕分先に対応する位置まで移動させ、把持機構21による物品3の把持を解除するように把持機構21を制御することにより、物品3を仕分先に降ろす(ステップS27)。また、コントローラ24は、1つの物品の仕分が完了したことを示す完了通知を情報処理装置12に送信する。さらに、コントローラ24は、ステップS21の処理に移行し、アーム機構22及び把持機構21を第1の距離センサ14の画角外に移動させ、次の動作計画の受信を待つ状態になる。 Further, the controller 24 restarts the movement of the gripping mechanism 21 when acquisition of the second distance information by the second distance sensor 15 is completed. The controller 24 moves the gripping mechanism 21 to a position corresponding to the sorting destination, and controls the gripping mechanism 21 to release the gripping of the article 3 by the gripping mechanism 21, thereby unloading the article 3 to the sorting destination (step S27). ). In addition, the controller 24 transmits a completion notification to the information processing device 12 indicating that the sorting of one article has been completed. Further, the controller 24 proceeds to the process of step S21, moves the arm mechanism 22 and the gripping mechanism 21 out of the angle of view of the first distance sensor 14, and waits for reception of the next motion plan.

また、コントローラ24は、把持機構21による物品3の把持が正常に行われなかったと判断した場合(ステップS25、NO)、把持が正常に行われなかったことを示すエラーを情報処理装置12に送信し(ステップS28)、ステップS21の処理に移行する。 Further, when the controller 24 determines that the gripping mechanism 21 has not properly gripped the article 3 (step S25, NO), the controller 24 transmits an error indicating that the gripping has not been performed normally to the information processing device 12. (step S28), and the process proceeds to step S21.

なお、ロボットアーム11のコントローラ24は、情報処理装置12から終了指示が供給された場合、アーム機構22及び把持機構21を所定の位置に移動させ、図7の処理を終了する。 When the information processing device 12 supplies an end instruction, the controller 24 of the robot arm 11 moves the arm mechanism 22 and the gripping mechanism 21 to predetermined positions, and ends the processing in FIG.

次に、情報処理装置12による学習用データの生成について説明する。
図8は、学習用データの生成に関する情報処理装置12の動作について説明する為のフローチャートである。例えば、プロセッサ43は、学習用データの生成に関する図8の処理を、図4のステップS15の後段の処理として実行する。
Next, generation of learning data by the information processing device 12 will be described.
FIG. 8 is a flowchart for explaining the operation of the information processing device 12 regarding generation of learning data. For example, the processor 43 executes the process of FIG. 8 regarding the generation of learning data as the process after step S15 of FIG.

プロセッサ43は、第2の距離情報を第2の距離センサ15から受信したか否か判断する(ステップS31)。プロセッサ43は、第2の距離情報を第2の距離センサ15から受信したと判断した場合(ステップS31、YES)、ロボットアーム11により把持した物品3が落下したか否か判断する(ステップS32)。即ち、プロセッサ43は、第2の距離センサ15により第2の距離情報を取得した対象の物品3が、ロボットアーム11によって仕分先に降ろされたか否か判断する。例えば、プロセッサ43は、ロボットアーム11のコントローラ24から、完了通知を受信した場合、物品3が、ロボットアーム11によって仕分先に降ろされたと判断する。また、プロセッサ43は、ロボットアーム11のコントローラ24から、エラーを受信した場合、物品3が、ロボットアーム11によって仕分先に降ろされず、途中で落下したと判断する。プロセッサ43は、ロボットアーム11により把持した物品3が落下したと判断した場合(ステップS32、YES)、図8の処理を終了する。 The processor 43 determines whether or not the second distance information has been received from the second distance sensor 15 (step S31). When the processor 43 determines that the second distance information has been received from the second distance sensor 15 (step S31, YES), it determines whether the article 3 gripped by the robot arm 11 has fallen (step S32). . That is, the processor 43 determines whether or not the target article 3 for which the second distance information has been acquired by the second distance sensor 15 has been unloaded by the robot arm 11 to the sorting destination. For example, when the processor 43 receives a completion notification from the controller 24 of the robot arm 11, it determines that the robot arm 11 has unloaded the article 3 to the sorting destination. Further, when the processor 43 receives an error from the controller 24 of the robot arm 11, the processor 43 determines that the robot arm 11 did not unload the article 3 to the sorting destination, and dropped on the way. When the processor 43 determines that the article 3 gripped by the robot arm 11 has fallen (step S32, YES), the process of FIG. 8 ends.

プロセッサ43は、ロボットアーム11により把持した物品3が落下していないと判断した場合(ステップS32、NO)、第2の距離情報に基づいて、マスク画像を生成する(ステップS33)。 When the processor 43 determines that the article 3 gripped by the robot arm 11 has not fallen (step S32, NO), it generates a mask image based on the second distance information (step S33).

図9乃至図11は、第2の距離情報に基づいて、マスク画像を生成する処理について説明する為の説明図である。図9は、第2の距離情報61の例を示す。図10は、物品画像51上における物品領域の例を示す。第2の距離情報61の例を示す。図11は、第2の距離情報に基づいて生成されたマスク画像の例を示す。 9 to 11 are explanatory diagrams for explaining the process of generating the mask image based on the second distance information. FIG. 9 shows an example of the second distance information 61. As shown in FIG. FIG. 10 shows an example of an article area on an article image 51. FIG. An example of second distance information 61 is shown. FIG. 11 shows an example of a mask image generated based on the second distance information.

図9における太線は、第2の距離センサ15により測距された物品3の表面形状に相当する。第2の距離センサ15は、第2の距離センサ15が配置されている基準点O(x=0,y=0)を固定し、測距方向を水平方向に走査させる。これにより、第2の距離センサ15は、対象物である物品3の二辺と第2の距離センサ15との距離を測定し、測定結果を生成する。測定結果は、二次元状に配列された座標毎の基準点O(x=0,y=0)との距離を示す情報である。 A thick line in FIG. 9 corresponds to the surface shape of the article 3 measured by the second distance sensor 15 . The second distance sensor 15 fixes the reference point O (x=0, y=0) where the second distance sensor 15 is arranged, and scans the distance measuring direction in the horizontal direction. Thereby, the second distance sensor 15 measures the distance between the two sides of the article 3, which is the object, and the second distance sensor 15, and generates a measurement result. The measurement result is information indicating the distance from the reference point O (x=0, y=0) for each coordinate arranged two-dimensionally.

図9の例によると、第2の距離センサ15は、点P(x=sx1,y=sy1)から、点Q(x=ex1,y=ey1)に亘って、基準点O(x=0,y=0)との距離を測定する。また、第2の距離センサ15は、点R(x=sx2,y=sy2)から、点Q(x=ex1,y=ey1)に亘って、基準点O(x=0,y=0)との距離を測定する。これにより、第2の距離センサ15は、物品3の第2の距離センサ15と対向する面の表面と、第2の距離センサ15との距離を測定し、第2の距離情報61を生成することができる。 According to the example of FIG. 9, the second distance sensor 15 extends from the point P (x=sx1, y=sy1) to the point Q (x=ex1, y=ey1) to the reference point O (x=0 , y=0). Further, the second distance sensor 15 moves from the point R (x=sx2, y=sy2) to the point Q (x=ex1, y=ey1) to the reference point O (x=0, y=0). Measure the distance to Thereby, the second distance sensor 15 measures the distance between the surface of the article 3 facing the second distance sensor 15 and the second distance sensor 15, and generates the second distance information 61. be able to.

プロセッサ43は、第2の距離情報61に基づき、物品3の第2の距離センサ15と対向する面の表面形状を推定する。推定結果は、図9における太線に相当する。さらに、プロセッサ43は、物品3の第2の距離センサ15と対向する面の表面形状の推定結果に基づいて、物品3の第2の距離センサ15と対向していない面の表面形状を推定する。即ち、プロセッサ43は、第2の距離情報61に基づいて、物品3の外形寸法を算出することができる。 The processor 43 estimates the surface shape of the surface of the article 3 facing the second distance sensor 15 based on the second distance information 61 . The estimation result corresponds to the thick line in FIG. Further, the processor 43 estimates the surface shape of the surface of the article 3 not facing the second distance sensor 15 based on the result of estimating the surface shape of the surface of the article 3 facing the second distance sensor 15. . That is, the processor 43 can calculate the outer dimensions of the article 3 based on the second distance information 61 .

プロセッサ43は、点Pと点Qとの差分に基づいて、物品3の水平方向と平行なある方向(ここでは幅方向と称する)の寸法を算出する。また、プロセッサ43は、点Rと点Qとの差分に基づいて、物品3の水平方向と平行である、幅方向と直交する方向(ここでは奥行方向と称する)の寸法を算出する。プロセッサ43は、物品3の幅方向及び奥行方向の寸法と、点P及び点Qの座標とに基づいて、物品3の第2の距離センサ15と対向していない2つの面が切り替わる点である点S(x=ex2,y=ey2)の座標を算出する。 Based on the difference between the points P and Q, the processor 43 calculates the dimension of the article 3 in a direction parallel to the horizontal direction (herein referred to as the width direction). Based on the difference between the points R and Q, the processor 43 also calculates the dimension of the article 3 in the direction perpendicular to the width direction (herein referred to as the depth direction), which is parallel to the horizontal direction. The processor 43 switches between the two surfaces of the article 3 that are not facing the second distance sensor 15 based on the width and depth dimensions of the article 3 and the coordinates of the point P and the point Q. Calculate the coordinates of the point S (x=ex2, y=ey2).

プロセッサ43は、点P、点Q、点R、及び点Sの座標に基づいて、図10に示される物品画像51上における物品領域71の位置を算出する。具体的には、プロセッサ43は、第1の距離センサ14の位置及び第2の距離センサ15の位置に基づいて、第2の距離センサ15に対する位置を示す点P、点Q、点R、及び点Sを、第1の距離センサ14により取得した物品画像51上の座標にそれぞれ変換する。プロセッサ43は、点Pを物品画像51上の座標である点P´に変換する。プロセッサ43は、点Qを物品画像51上の座標である点Q´に変換する。プロセッサ43は、点Rを物品画像51上の座標である点R´に変換する。プロセッサ43は、点Sを物品画像51上の座標である点S´に変換する。 Based on the coordinates of point P, point Q, point R, and point S, processor 43 calculates the position of article area 71 on article image 51 shown in FIG. Specifically, based on the position of the first range sensor 14 and the position of the second range sensor 15, the processor 43 determines points P, Q, R, and Points S are converted to coordinates on the article image 51 acquired by the first distance sensor 14 . The processor 43 transforms the point P into a point P′ having coordinates on the article image 51 . The processor 43 transforms the point Q into a point Q' having coordinates on the article image 51 . The processor 43 transforms the point R into a point R′ having coordinates on the article image 51 . The processor 43 transforms the point S into a point S′ having coordinates on the article image 51 .

プロセッサ43は、点P´、点Q´、点R´、及び点S´の座標に基づいて、図11に示されるマスク画像81を生成する。マスク画像81は、物品画像51における物品領域71の位置を示す画像である。即ち、マスク画像81は、物品画像51を問題とする学習用データの答えに相当する情報である。たとえば、マスク画像は、物品領域71に相当する座標の画素値が「1」であり、その他の領域の画素値が「0」である二値画像として構成されている。即ち、プロセッサ43は、第2の距離情報61に基づいて、物品3の外形寸法を算出し、算出した外形寸法に基づいて、マスク画像81を生成することができる。なお、マスク画像81は、このような構成に限定されるものではなく、物品領域71とその他の領域とを区別可能な構成であれば如何なる構成であってもよい。 Processor 43 generates mask image 81 shown in FIG. 11 based on the coordinates of point P', point Q', point R', and point S'. The mask image 81 is an image that indicates the position of the article area 71 in the article image 51 . In other words, the mask image 81 is information corresponding to the answer of the learning data regarding the article image 51 as a question. For example, the mask image is configured as a binary image in which the pixel value of the coordinates corresponding to the article area 71 is "1" and the pixel value of the other areas is "0". That is, the processor 43 can calculate the outer dimensions of the article 3 based on the second distance information 61 and generate the mask image 81 based on the calculated outer dimensions. Note that the mask image 81 is not limited to such a configuration, and may have any configuration as long as it can distinguish between the product area 71 and other areas.

プロセッサ43は、図4のステップS11で取得した物品画像51と、図8のステップS33で生成したマスク画像81とに基づいて学習用データを生成する(ステップS34)。即ち、プロセッサ43は、物品画像51を問題とし、マスク画像81を答えとした学習用データを生成する。制御部42は、生成した学習用データをストレージ装置16に送信して保存させ(ステップS35)、処理を終了する。これにより、学習装置17は、ストレージ装置16に記憶された学習用データを用いて、機械学習を行い、画像認識パラメータを更新することができる。 The processor 43 generates learning data based on the article image 51 acquired in step S11 of FIG. 4 and the mask image 81 generated in step S33 of FIG. 8 (step S34). That is, the processor 43 generates learning data with the article image 51 as the question and the mask image 81 as the answer. The control unit 42 transmits the generated learning data to the storage device 16 for storage (step S35), and terminates the process. As a result, the learning device 17 can perform machine learning using the learning data stored in the storage device 16 and update the image recognition parameters.

上記したように、情報処理装置12は、所定範囲に置かれた物品3を把持するロボットアーム11に、ピッキング位置を供給する装置であり、通信インタフェース41と、プロセッサ43とを備える。通信インタフェース41は、所定範囲に置かれた物品3の画像である物品画像と、ロボットアーム11により把持され持ち上げられた物品3との距離を示す距離情報(第2の距離情報)と、を取得する。プロセッサ43は、距離情報に基づいて、物品画像上における物品3の位置を示すマスク画像を生成する。これにより、物品画像を問題とし、マスク画像を答えとした学習用データを、人手を介さず容易に生成することができる。これにより、大量の学習用データを生成することができる。 As described above, the information processing device 12 is a device that supplies a picking position to the robot arm 11 that grips the article 3 placed in a predetermined range, and includes the communication interface 41 and the processor 43 . The communication interface 41 acquires an article image, which is an image of the article 3 placed in a predetermined range, and distance information (second distance information) indicating the distance to the article 3 gripped and lifted by the robot arm 11. do. Processor 43 generates a mask image indicating the position of article 3 on the article image based on the distance information. As a result, it is possible to easily generate learning data using article images as questions and mask images as answers without human intervention. Thereby, a large amount of learning data can be generated.

また、プロセッサ43は、物品画像と、予め設定された画像認識パラメータとに基づいて、物品画像上において、物品3が存在する物品領域を認識し、物品領域に基づいて、ピッキング位置を生成し、ロボットアーム11にピッキング位置を動作計画として供給する。ロボットアーム11は、供給された動作計画に基づいて、物品3の把持及び持ち上げを行う。距離情報は、この時の物品3との距離を示す情報である。プロセッサ43は、この距離情報に基づいて、物品画像上における物品3の位置を示すマスク画像し、物品画像とマスク画像とを対応付けて、画像認識パラメータを更新する為の学習用データを生成する。これにより、画像認識パラメータを更新する為の大量の学習用データを生成することができる。 Further, the processor 43 recognizes an article area in which the article 3 exists on the article image based on the article image and preset image recognition parameters, generates a picking position based on the article area, The robot arm 11 is supplied with the picking positions as a motion plan. The robot arm 11 grips and lifts the article 3 based on the supplied motion plan. The distance information is information indicating the distance to the article 3 at this time. Based on this distance information, the processor 43 creates a mask image indicating the position of the article 3 on the article image, associates the article image with the mask image, and generates learning data for updating the image recognition parameters. . Thereby, a large amount of learning data for updating the image recognition parameters can be generated.

また、距離情報は、第2の距離センサ15が取得するものである。第2の距離センサ15は、物品画像を取得したカメラ(第1の距離センサ14)のレンズの光軸と直交する方向における、自身と物品3との距離を測定する。即ち、距離情報は、第1の距離センサ14のレンズの光軸と直交する方向における、第2の距離センサ15と物品3との距離を示す情報である。この構成によると、第2の距離センサ15は、ロボットアーム11により持ち上げられた物品3との距離を、第1の距離センサ14のレンズの光軸と直交する方向から測定することができる。これにより、マスク画像の精度を向上させることができる。 Further, the distance information is acquired by the second distance sensor 15 . The second distance sensor 15 measures the distance between itself and the article 3 in the direction perpendicular to the optical axis of the lens of the camera (first distance sensor 14) that acquired the article image. That is, the distance information is information indicating the distance between the second distance sensor 15 and the article 3 in the direction perpendicular to the optical axis of the lens of the first distance sensor 14 . According to this configuration, the second distance sensor 15 can measure the distance to the article 3 lifted by the robot arm 11 from the direction perpendicular to the optical axis of the lens of the first distance sensor 14 . Thereby, the accuracy of the mask image can be improved.

また、第2の距離センサ15は、ロボットアーム11により、物品3が、第2の距離センサ15の測距方向と角度を成す方向に移動した際に、自身と物品3との距離を測定する。具体的には、第2の距離センサ15は、ロボットアーム11により、物品3が、第1の距離センサ14のレンズの光軸と略平行な方向に持ち上げられた際に、自身と物品3との距離を測定する。これにより、距離情報に基づき、物品画像上における物品3の位置を特定することが容易になる。 Further, the second distance sensor 15 measures the distance between itself and the article 3 when the robot arm 11 moves the article 3 in a direction forming an angle with the distance measuring direction of the second distance sensor 15. . Specifically, when the robot arm 11 lifts the article 3 in a direction substantially parallel to the optical axis of the lens of the first distance sensor 14, the second distance sensor 15 and the article 3 are separated from each other. measure the distance between This makes it easier to specify the position of the article 3 on the article image based on the distance information.

また、第1の距離センサ14のレンズの光軸は、鉛直方向と平行であり、距離情報は、第2の距離センサ15と物品との水平方向における距離を示す情報である。この構成により、距離情報に基づき、物品画像上における物品3の位置を特定することが容易になる。 The optical axis of the lens of the first distance sensor 14 is parallel to the vertical direction, and the distance information is information indicating the distance in the horizontal direction between the second distance sensor 15 and the article. This configuration facilitates specifying the position of the article 3 on the article image based on the distance information.

なお、上記の実施形態では、プロセッサ43は、物品3の第2の距離センサ15と対向する面の表面形状の推定結果に基づいて、物品3の第2の距離センサ15と対向していない面の表面形状を推定すると説明したが、この構成に限定されない。ピッキングシステム1は、第2の距離センサ15を2つ以上備える構成であってもよい。2つ以上の第2の距離センサ15は、例えば、かご車2が配置される位置を挟むように配置される。これにより、死角がなくなり、容易に物品3の表面形状及び位置を測定することができる。また、ロボットアーム11は、物品3を鉛直方向に持ち上げた後、鉛直方向を回転軸とする方向に360度把持機構21を回転させつつ、第2の距離センサ15により第2の距離情報を取得してもよい。この構成によると、1つの第2の距離センサ15によって、物品3の外周の表面形状及び位置を算出することができる。 Note that, in the above embodiment, the processor 43 determines the surface of the article 3 not facing the second distance sensor 15 based on the estimation result of the surface shape of the surface of the article 3 facing the second distance sensor 15 . is described as estimating the surface shape of , it is not limited to this configuration. The picking system 1 may be configured to include two or more second distance sensors 15 . The two or more second distance sensors 15 are arranged, for example, so as to sandwich the position where the car 2 is arranged. As a result, blind spots are eliminated, and the surface shape and position of the article 3 can be easily measured. Further, after lifting the article 3 in the vertical direction, the robot arm 11 rotates the gripping mechanism 21 360 degrees in the direction with the vertical direction as the rotation axis, and acquires second distance information by the second distance sensor 15. You may According to this configuration, one second distance sensor 15 can calculate the surface shape and position of the outer periphery of the article 3 .

また、上記の実施形態では、プロセッサ43は、第2の距離センサ15により取得した第2の距離情報に基づいて生成したマスク画像を、物品画像と対応付けて学習用データを生成すると説明した。しかし、プロセッサ43は、マスク画像を学習用データの生成に採用するか否かを判断してもよい。 Further, in the above embodiment, the processor 43 has explained that the mask image generated based on the second distance information acquired by the second distance sensor 15 is associated with the article image to generate learning data. However, the processor 43 may determine whether or not to employ the mask image for generating learning data.

図12は、学習用データの生成に関する情報処理装置12の動作の他の例について説明する為のフローチャートである。例えば、プロセッサ43は、学習用データの生成に関する図12の処理を、図4のステップS15の後段の処理として実行する。 FIG. 12 is a flowchart for explaining another example of the operation of the information processing device 12 regarding generation of learning data. For example, the processor 43 executes the process of FIG. 12 regarding generation of learning data as the process after step S15 of FIG.

プロセッサ43は、第2の距離情報を第2の距離センサ15から受信したか否か判断する(ステップS41)。プロセッサ43は、第2の距離情報を第2の距離センサ15から受信したと判断した場合(ステップS41、YES)、ロボットアーム11により把持した物品3が落下したか否か判断する(ステップS42)。即ち、プロセッサ43は、第2の距離センサ15により第2の距離情報を取得した対象の物品3が、ロボットアーム11によって仕分先に降ろされたか否か判断する。例えば、プロセッサ43は、ロボットアーム11のコントローラ24から、完了通知を受信した場合、物品3が、ロボットアーム11によって仕分先に降ろされたと判断する。また、プロセッサ43は、ロボットアーム11のコントローラ24から、エラーを受信した場合、物品3が、ロボットアーム11によって仕分先に降ろされず、途中で落下したと判断する。プロセッサ43は、ロボットアーム11により把持した物品3が落下したと判断した場合(ステップS42、YES)、図12の処理を終了する。 The processor 43 determines whether or not the second distance information has been received from the second distance sensor 15 (step S41). When the processor 43 determines that the second distance information has been received from the second distance sensor 15 (step S41, YES), it determines whether the article 3 gripped by the robot arm 11 has fallen (step S42). . That is, the processor 43 determines whether or not the target article 3 for which the second distance information has been acquired by the second distance sensor 15 has been unloaded by the robot arm 11 to the sorting destination. For example, when the processor 43 receives a completion notification from the controller 24 of the robot arm 11, it determines that the robot arm 11 has unloaded the article 3 to the sorting destination. Further, when the processor 43 receives an error from the controller 24 of the robot arm 11, the processor 43 determines that the robot arm 11 did not unload the article 3 to the sorting destination, and dropped on the way. When the processor 43 determines that the article 3 gripped by the robot arm 11 has fallen (step S42, YES), the process of FIG. 12 ends.

プロセッサ43は、ロボットアーム11により把持した物品3が落下していないと判断した場合(ステップS42、NO)、第2の距離情報に基づいて、マスク画像を生成する(ステップS43)。マスク画像の生成方法は、図9乃至図11で説明した方法と同様であるため、説明を省略する。 When the processor 43 determines that the article 3 gripped by the robot arm 11 has not fallen (step S42, NO), it generates a mask image based on the second distance information (step S43). Since the mask image generation method is the same as the method described with reference to FIGS. 9 to 11, the description thereof is omitted.

プロセッサ43は、図4のステップS11で取得した物品画像51と、図12のステップS43で生成したマスク画像81とに基づいて、図13に示す確認画面91を生成し、出力する(ステップS44)。 The processor 43 generates and outputs the confirmation screen 91 shown in FIG. 13 based on the product image 51 acquired in step S11 of FIG. 4 and the mask image 81 generated in step S43 of FIG. 12 (step S44). .

確認画面91は、操作端末13のディスプレイ36に表示される画面である。確認画面91には、マスク画像81を学習用データの生成に採用するか否かを、オペレータが判断する際に用いられる情報が表示される。即ち、確認画面91に表示される情報は、オペレータの判断の参考に用いられる参考情報である。確認画面91は、物品画像51、マスク画像81、採用ボタン92、及び不採用ボタン93などの表示を有する。 A confirmation screen 91 is a screen displayed on the display 36 of the operation terminal 13 . The confirmation screen 91 displays information used when the operator determines whether or not the mask image 81 is to be used for generating learning data. That is, the information displayed on the confirmation screen 91 is reference information that is used as a reference for the operator's judgment. The confirmation screen 91 has displays such as an article image 51, a mask image 81, an adoption button 92, a rejection button 93, and the like.

物品画像51は、図4のステップS11で取得した物品画像51である。マスク画像81は、図12のステップS43で生成したマスク画像81である。 The article image 51 is the article image 51 acquired in step S11 of FIG. The mask image 81 is the mask image 81 generated in step S43 of FIG.

採用ボタン92及び不採用ボタン93は、タッチセンサ37により選択可能なボタンである。オペレータは、確認画面91の参考情報を確認し、マスク画像81を採用するか否か判断し、採用ボタン92と不採用ボタン93とのいずれかを選択する。 The adoption button 92 and the rejection button 93 are buttons selectable by the touch sensor 37 . The operator confirms the reference information on the confirmation screen 91 , determines whether or not to adopt the mask image 81 , and selects either the adoption button 92 or the rejection button 93 .

プロセッサ43は、採用ボタン92と不採用ボタン93との選択結果に基づいて、マスク画像81を採用するか否か判断する(ステップS45)。 The processor 43 determines whether or not to adopt the mask image 81 based on the selection result of the adoption button 92 and the rejection button 93 (step S45).

プロセッサ43は、オペレータにより不採用ボタン93が選択された場合(ステップS45、NO)、図12の処理を終了する。 When the operator selects the rejection button 93 (step S45, NO), the processor 43 ends the processing of FIG.

また、プロセッサ43は、オペレータにより採用ボタン92が選択された場合(ステップS45、YES)、図4のステップS11で取得した物品画像51と、図12のステップS43で生成したマスク画像81とに基づいて学習用データを生成する(ステップS46)。即ち、プロセッサ43は、物品画像51を問題とし、マスク画像81を答えとした学習用データを生成する。制御部42は、生成した学習用データをストレージ装置16に送信して保存させ(ステップS47)、処理を終了する。 Further, when the operator selects the adoption button 92 (step S45, YES), the processor 43 selects an image based on the article image 51 acquired in step S11 of FIG. to generate learning data (step S46). That is, the processor 43 generates learning data with the article image 51 as the question and the mask image 81 as the answer. The control unit 42 transmits the generated learning data to the storage device 16 for storage (step S47), and terminates the process.

上記したように、プロセッサ43は、物品画像51とマスク画像81とを確認したオペレータによる操作入力に基づいて、マスク画像81を学習用データの生成に採用するか否か判断する。これにより、学習用データの答えとして適していないマスク画像が採用されることを防ぐことができる。 As described above, the processor 43 determines whether or not to adopt the mask image 81 for generating the learning data based on the operation input by the operator who has confirmed the article image 51 and the mask image 81 . Thereby, it is possible to prevent a mask image that is not suitable as an answer of the learning data from being adopted.

なお、上記の例では、プロセッサ43は、物品画像51とマスク画像81とをそれぞれ確認画面91に表示させると説明したが、この構成に限定されない。プロセッサ43は、物品画像51にマスク画像81を重ねた確認用の画像を生成し、確認画面91に表示させてもよい。 In the above example, the processor 43 has explained that the article image 51 and the mask image 81 are each displayed on the confirmation screen 91, but the configuration is not limited to this. The processor 43 may generate a confirmation image in which the mask image 81 is superimposed on the article image 51 and display it on the confirmation screen 91 .

また、例えば、プロセッサ43は、図4のステップS12で、物品画像51に基づいて認識した物品領域の位置と、マスク画像81における物品領域の位置とを比較し、比較結果に基づく情報を確認画面91に表示させてもよい。例えば、プロセッサ43は、物品画像51に基づいて認識した物品領域の位置と、マスク画像81における物品領域の位置との差が、予め設定された閾値以上である場合、アラートを確認画面91に表示させてもよい。 Further, for example, in step S12 of FIG. 4, the processor 43 compares the position of the article area recognized based on the article image 51 and the position of the article area in the mask image 81, and displays information based on the comparison result on the confirmation screen. 91 may be displayed. For example, the processor 43 displays an alert on the confirmation screen 91 when the difference between the position of the article area recognized based on the article image 51 and the position of the article area in the mask image 81 is equal to or greater than a preset threshold. You may let

本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
以下に、本願の出願当初の特許請求の範囲に記載された発明を付記する。
[C1]
所定範囲に置かれた物品を把持するロボットアームに、ピッキング位置を供給する情報処理装置であって、
前記所定範囲に置かれた前記物品の画像である物品画像と、前記ロボットアームにより把持され持ち上げられた前記物品との距離を示す距離情報と、を取得する通信インタフェースと、
前記距離情報に基づいて、前記物品画像上における前記物品の位置を示すマスク画像を生成するプロセッサと、
を具備する情報処理装置。
[C2]
前記プロセッサは、
前記物品画像と、予め設定された画像認識パラメータとに基づいて、前記物品画像上において、前記物品が存在する物品領域を認識し、前記物品領域に基づいて、前記ピッキング位置を生成し、
前記物品画像と前記マスク画像とを対応付けて、前記画像認識パラメータを更新する為の学習用データを生成するC1に記載の情報処理装置。
[C3]
前記プロセッサは、前記物品画像と、前記マスク画像とを表示させた確認画面を出力し、前記確認画面に対するオペレータの操作入力に基づいて、前記マスク画像を用いた前記学習用データの生成を行うか否か判断するC2に記載の情報処理装置。
[C4]
前記距離情報は、前記物品画像を取得したカメラのレンズの光軸と交差する方向における、前記距離情報を取得する距離センサと、前記物品との距離を示す情報であるC1に記載の情報処理装置。
[C5]
前記距離情報は、前記ロボットアームにより、前記物品が、前記光軸と略平行な方向に移動した際の、前記距離センサと前記物品との距離を示す情報であるC4に記載の情報処理装置。
[C6]
前記プロセッサは、前記距離情報に基づいて、前記物品の外形寸法を算出し、算出した前記外形寸法に基づいて、前記マスク画像を生成するC1に記載の情報処理装置。
[C7]
ロボットアームと、前記ロボットアームにピッキング位置を供給する情報処理装置とを有するピッキングシステムであって、
前記ロボットアームは、
所定範囲に置かれた物品を把持する把持機構と、
前記把持機構を前記ピッキング位置から仕分先に移動させるアーム機構と、
を具備し、
前記情報処理装置は、
前記所定範囲に置かれた前記物品の画像である物品画像と、前記ロボットアームにより把持され持ち上げられた前記物品との距離を示す距離情報と、を取得する通信インタフェースと、
前記距離情報に基づいて、前記物品画像上における前記物品の位置を示すマスク画像を生成するプロセッサと、
を具備するピッキングシステム。
While several embodiments of the invention have been described, these embodiments have been presented by way of example and are not intended to limit the scope of the invention. These novel embodiments can be implemented in various other forms, and various omissions, replacements, and modifications can be made without departing from the scope of the invention. These embodiments and modifications thereof are included in the scope and gist of the invention, and are included in the scope of the invention described in the claims and equivalents thereof.
The invention described in the scope of claims at the time of filing of the present application will be additionally described below.
[C1]
An information processing device that supplies a picking position to a robot arm that grips an article placed in a predetermined range,
a communication interface for acquiring an article image, which is an image of the article placed in the predetermined range, and distance information indicating a distance from the article gripped and lifted by the robot arm;
a processor that generates a mask image indicating the position of the article on the article image based on the distance information;
An information processing device comprising:
[C2]
The processor
recognizing an article area in which the article exists on the article image based on the article image and preset image recognition parameters, and generating the picking position based on the article area;
The information processing apparatus according to C1, which associates the article image and the mask image to generate learning data for updating the image recognition parameter.
[C3]
The processor outputs a confirmation screen displaying the article image and the mask image, and generates the learning data using the mask image based on an operator's operation input on the confirmation screen. The information processing device according to C2, which determines whether or not.
[C4]
The information processing apparatus according to C1, wherein the distance information is information indicating a distance between a distance sensor that acquires the distance information and the article in a direction that intersects an optical axis of a lens of a camera that acquires the article image. .
[C5]
The information processing apparatus according to C4, wherein the distance information is information indicating a distance between the distance sensor and the article when the article is moved in a direction substantially parallel to the optical axis by the robot arm.
[C6]
The information processing apparatus according to C1, wherein the processor calculates outer dimensions of the article based on the distance information, and generates the mask image based on the calculated outer dimensions.
[C7]
A picking system having a robot arm and an information processing device that supplies a picking position to the robot arm,
The robot arm is
a gripping mechanism for gripping an article placed in a predetermined range;
an arm mechanism that moves the gripping mechanism from the picking position to a sorting destination;
and
The information processing device is
a communication interface for acquiring an article image, which is an image of the article placed in the predetermined range, and distance information indicating a distance from the article gripped and lifted by the robot arm;
a processor that generates a mask image indicating the position of the article on the article image based on the distance information;
A picking system comprising:

1…ピッキングシステム、11…ロボットアーム、12…情報処理装置、13…操作端末、14…第1の距離センサ、15…第2の距離センサ、16…ストレージ装置、17…学習装置、18…ネットワーク、21…把持機構、22…アーム機構、23…力覚センサ、24…コントローラ、31…通信インタフェース、32…制御部、33…タッチパネル、34…プロセッサ、35…メモリ、36…ディスプレイ、37…タッチセンサ、41…通信インタフェース、42…制御部、43…プロセッサ、44…メモリ。 REFERENCE SIGNS LIST 1 Picking system 11 Robot arm 12 Information processing device 13 Operation terminal 14 First distance sensor 15 Second distance sensor 16 Storage device 17 Learning device 18 Network , 21... Grasping mechanism, 22... Arm mechanism, 23... Force sensor, 24... Controller, 31... Communication interface, 32... Control unit, 33... Touch panel, 34... Processor, 35... Memory, 36... Display, 37... Touch Sensor 41 Communication interface 42 Control unit 43 Processor 44 Memory.

Claims (6)

所定範囲に置かれた物品を把持するロボットアームに、ピッキング位置を供給する情報処理装置であって、
前記所定範囲に置かれた前記物品の画像である物品画像と、前記ロボットアームにより把持され持ち上げられた前記物品との距離を示す距離情報と、を取得する通信インタフェースと、
前記距離情報に基づいて、前記物品画像上における前記物品の位置を示すマスク画像を生成するプロセッサと、
を具備し、
前記プロセッサは、
前記物品画像と、予め設定された画像認識パラメータとに基づいて、前記物品画像上において、前記物品が存在する物品領域を認識し、前記物品領域に基づいて、前記ピッキング位置を生成し、
前記物品画像と前記マスク画像とを対応付けて、前記画像認識パラメータを更新する為の学習用データを生成する、情報処理装置。
An information processing device that supplies a picking position to a robot arm that grips an article placed in a predetermined range,
a communication interface for acquiring an article image, which is an image of the article placed in the predetermined range, and distance information indicating a distance from the article gripped and lifted by the robot arm;
a processor that generates a mask image indicating the position of the article on the article image based on the distance information;
and
The processor
recognizing an article area in which the article exists on the article image based on the article image and preset image recognition parameters, and generating the picking position based on the article area;
An information processing apparatus that associates the article image and the mask image to generate learning data for updating the image recognition parameter .
前記プロセッサは、前記物品画像と、前記マスク画像とを表示させた確認画面を出力し、前記確認画面に対するオペレータの操作入力に基づいて、前記マスク画像を用いた前記学習用データの生成を行うか否か判断する請求項に記載の情報処理装置。 The processor outputs a confirmation screen displaying the article image and the mask image, and generates the learning data using the mask image based on an operator's operation input on the confirmation screen. 2. The information processing apparatus according to claim 1 , which determines whether or not. 前記距離情報は、前記物品画像を取得したカメラのレンズの光軸と交差する方向における、前記距離情報を取得する距離センサと、前記物品との距離を示す情報である請求項1に記載の情報処理装置。 2. The information according to claim 1, wherein the distance information is information indicating the distance between a distance sensor that acquires the distance information and the article in a direction that intersects the optical axis of a lens of a camera that acquires the article image. processing equipment. 前記距離情報は、前記ロボットアームにより、前記物品が、前記光軸と略平行な方向に移動した際の、前記距離センサと前記物品との距離を示す情報である請求項に記載の情報処理装置。 4. The information processing according to claim 3 , wherein the distance information is information indicating the distance between the distance sensor and the article when the article is moved in a direction substantially parallel to the optical axis by the robot arm. Device. 前記プロセッサは、前記距離情報に基づいて、前記物品の外形寸法を算出し、算出した前記外形寸法に基づいて、前記マスク画像を生成する請求項1に記載の情報処理装置。 2. The information processing apparatus according to claim 1, wherein the processor calculates the outer dimensions of the article based on the distance information, and generates the mask image based on the calculated outer dimensions. ロボットアームと、前記ロボットアームにピッキング位置を供給する情報処理装置とを有するピッキングシステムであって、
前記ロボットアームは、
所定範囲に置かれた物品を把持する把持機構と、
前記把持機構を前記ピッキング位置から仕分先に移動させるアーム機構と、
を具備し、
前記情報処理装置は、
前記所定範囲に置かれた前記物品の画像である物品画像と、前記ロボットアームにより把持され持ち上げられた前記物品との距離を示す距離情報と、を取得する通信インタフェースと、
前記距離情報に基づいて、前記物品画像上における前記物品の位置を示すマスク画像を生成するプロセッサと、
を具備し、
前記プロセッサは、
前記物品画像と、予め設定された画像認識パラメータとに基づいて、前記物品画像上において、前記物品が存在する物品領域を認識し、前記物品領域に基づいて、前記ピッキング位置を生成し、
前記物品画像と前記マスク画像とを対応付けて、前記画像認識パラメータを更新する為の学習用データを生成する、ピッキングシステム。
A picking system having a robot arm and an information processing device that supplies a picking position to the robot arm,
The robot arm is
a gripping mechanism for gripping an article placed in a predetermined range;
an arm mechanism that moves the gripping mechanism from the picking position to a sorting destination;
and
The information processing device is
a communication interface for acquiring an article image, which is an image of the article placed in the predetermined range, and distance information indicating a distance from the article gripped and lifted by the robot arm;
a processor that generates a mask image indicating the position of the article on the article image based on the distance information;
and
The processor
recognizing an article area in which the article exists on the article image based on the article image and preset image recognition parameters, and generating the picking position based on the article area;
A picking system that associates the article image with the mask image to generate learning data for updating the image recognition parameter .
JP2018171990A 2018-09-14 2018-09-14 Information processing equipment and picking system Active JP7163116B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018171990A JP7163116B2 (en) 2018-09-14 2018-09-14 Information processing equipment and picking system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018171990A JP7163116B2 (en) 2018-09-14 2018-09-14 Information processing equipment and picking system

Publications (2)

Publication Number Publication Date
JP2020040193A JP2020040193A (en) 2020-03-19
JP7163116B2 true JP7163116B2 (en) 2022-10-31

Family

ID=69797121

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018171990A Active JP7163116B2 (en) 2018-09-14 2018-09-14 Information processing equipment and picking system

Country Status (1)

Country Link
JP (1) JP7163116B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023228810A1 (en) * 2022-05-24 2023-11-30 村田機械株式会社 Article recognition system and article recognition device

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010217126A (en) 2009-03-19 2010-09-30 Teraoka Seiko Co Ltd Dimension measuring apparatus
JP2013541775A (en) 2010-10-21 2013-11-14 ゼンロボティクス オイ Filtering method of target object image in robot system
JP2015160256A (en) 2014-02-26 2015-09-07 セイコーエプソン株式会社 Robot system, processor and control method
JP2016109630A (en) 2014-12-09 2016-06-20 キヤノン株式会社 Information processing apparatus, information processing method, and program
JP2017170560A (en) 2016-03-23 2017-09-28 日産自動車株式会社 Work-piece transfer method and work-piece transfer device using robot
JP2018040760A (en) 2016-09-09 2018-03-15 株式会社鈴木エンタープライズ Structure dimension measuring system and measuring method
JP2018074757A (en) 2016-10-28 2018-05-10 株式会社東芝 Patrol inspection system, information processing apparatus, and patrol inspection control program
JP2018118343A (en) 2017-01-25 2018-08-02 株式会社安川電機 Handling system and controller

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04148205A (en) * 1990-10-08 1992-05-21 Matsushita Electric Ind Co Ltd Positioning device

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010217126A (en) 2009-03-19 2010-09-30 Teraoka Seiko Co Ltd Dimension measuring apparatus
JP2013541775A (en) 2010-10-21 2013-11-14 ゼンロボティクス オイ Filtering method of target object image in robot system
JP2015160256A (en) 2014-02-26 2015-09-07 セイコーエプソン株式会社 Robot system, processor and control method
JP2016109630A (en) 2014-12-09 2016-06-20 キヤノン株式会社 Information processing apparatus, information processing method, and program
JP2017170560A (en) 2016-03-23 2017-09-28 日産自動車株式会社 Work-piece transfer method and work-piece transfer device using robot
JP2018040760A (en) 2016-09-09 2018-03-15 株式会社鈴木エンタープライズ Structure dimension measuring system and measuring method
JP2018074757A (en) 2016-10-28 2018-05-10 株式会社東芝 Patrol inspection system, information processing apparatus, and patrol inspection control program
JP2018118343A (en) 2017-01-25 2018-08-02 株式会社安川電機 Handling system and controller

Also Published As

Publication number Publication date
JP2020040193A (en) 2020-03-19

Similar Documents

Publication Publication Date Title
JP7340203B2 (en) Robotic system with automatic package scanning and registration mechanism and how it works
JP7005388B2 (en) Information processing equipment and sorting system
JP7286272B2 (en) Information processing device, information processing method and program
US8098928B2 (en) Apparatus for picking up objects
JP7154815B2 (en) Information processing device, control method, robot system, computer program, and storage medium
JP5806301B2 (en) Method for physical object selection in robotic systems
JP2019063984A (en) Information processor, method, and robot system
WO2020022302A1 (en) Grasping device
JP2019188516A (en) Information processor, information processing method, and program
JP2019181687A (en) Information processing device, information processing method and program
US20190126473A1 (en) Information processing apparatus and robot arm control system
JP2016196077A (en) Information processor, information processing method, and program
JP2019188561A (en) Article gripping device and control device of article gripping device
JP2022066611A (en) Information processing device, information processing method, program, and unloading system
JP7163116B2 (en) Information processing equipment and picking system
JP7062418B2 (en) Information processing equipment and sorting system
JP2019199335A (en) Information processing device, information processing program, and sorting system
US20230030852A1 (en) Control apparatus for robotic system, control method for robotic system, computer-readable storage medium storing a computer control program, and robotic system
JP7408107B2 (en) Systems and methods for robotic systems with object handling
JP2020062707A (en) Information processing device
US20230071488A1 (en) Robotic system with overlap processing mechanism and methods for operating the same
CN116551672A (en) System and method for a robotic system with object handling capability
TW202319946A (en) Device for generating learning data, method for generating learning data, and machine learning device and machine learning method using learning data

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210806

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220428

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220510

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220701

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220920

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221019

R150 Certificate of patent or registration of utility model

Ref document number: 7163116

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150