JP2020001127A - Picking system, picking processing equipment, and program - Google Patents

Picking system, picking processing equipment, and program Download PDF

Info

Publication number
JP2020001127A
JP2020001127A JP2018123227A JP2018123227A JP2020001127A JP 2020001127 A JP2020001127 A JP 2020001127A JP 2018123227 A JP2018123227 A JP 2018123227A JP 2018123227 A JP2018123227 A JP 2018123227A JP 2020001127 A JP2020001127 A JP 2020001127A
Authority
JP
Japan
Prior art keywords
picking
machine learning
points
image
distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018123227A
Other languages
Japanese (ja)
Inventor
勇貴 高橋
Yuki Takahashi
勇貴 高橋
雅海 新井
Masaumi Arai
雅海 新井
薫 河北
Kaoru Kawakita
薫 河北
龍一 平野
Ryuichi Hirano
龍一 平野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to JP2018123227A priority Critical patent/JP2020001127A/en
Publication of JP2020001127A publication Critical patent/JP2020001127A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Manipulator (AREA)
  • Image Analysis (AREA)

Abstract

To provide a picking system that makes an installation cost low and that is operated at high speed.SOLUTION: A picking system includes: a camera 21 for photographing an object that is a picking target; a distance sensor 22 for measuring a distance between it and the object; a first measurement part 112 for measuring either or both of coordinates of one or more points of the object photographed by the camera 21 and an attitude of the object at the one or more points; and a second measurement part 113 for measuring a distance in a depth direction, in terms of the one or more points of the object, on the basis of the result of measurement by the distance sensor 22.SELECTED DRAWING: Figure 6

Description

本発明は、ピッキングシステム,ピッキング処理装置及びプログラムに関する。   The present invention relates to a picking system, a picking processing device, and a program.

乱雑に積まれた物体を拾い上げるピッキング作業は、人が行なう場合には、過酷な肉体労働にもかかわらず、低賃金なことがある。   Picking operations to pick up cluttered objects can be low-wage when performed by humans, despite severe physical labor.

そのため、ロボットアーム(単に「ロボット」と称してもよい。)を利用して、ピッキング作業が自動化されることがある。   Therefore, the picking operation may be automated using a robot arm (which may be simply referred to as a “robot”).

ロボットを利用するピッキング作業としては、例えば、3次元ビジョンセンサを使用する方法と、ロボットの先端に搭載した2次元ビジョンセンサを使用する方法とが、存在する。   As a picking operation using a robot, there are, for example, a method using a three-dimensional vision sensor and a method using a two-dimensional vision sensor mounted on the tip of the robot.

特開2013−043271号公報JP 2013-043271 A 特開2013−101045号公報JP 2013-101045 A

しかしながら、3次元ビジョンセンサは高価であるため、設置コストが増加するという課題がある。   However, since the three-dimensional vision sensor is expensive, there is a problem that the installation cost increases.

また、2次元ビジョンセンサは、奥行き方向の距離を高精度で推定することができないため、繰り返し奥行き方向の距離を推定しながらピッキング対象の物体に接近することになるため、動作速度が遅いという課題がある。また、実測値ではなく推定値によって奥行き方向の距離を取得するため、特殊なソフトウェアを利用する必要がある。   In addition, since the two-dimensional vision sensor cannot estimate the distance in the depth direction with high accuracy, the two-dimensional vision sensor approaches the object to be picked while repeatedly estimating the distance in the depth direction. There is. In addition, in order to obtain the distance in the depth direction based on an estimated value instead of an actually measured value, it is necessary to use special software.

1つの側面では、本明細書に記載する技術は、設置コストが低く、高速で動作するピッキングシステムを提供することを目的とする。   In one aspect, the techniques described herein are directed to providing a picking system that operates at high speed with low installation costs.

1つの側面において、ピッキングシステムは、物体をピッキングするためのハンド機構を有するロボットを備えるピッキングシステムであって、ピッキング対象の物体を撮影するカメラと、前記物体との間の距離を計測する距離センサと、前記カメラによって撮影された前記物体における一以上の点の座標と、当該一以上の点における前記物体の姿勢との、いずれか又は両方を計測する第1計測部と、前記距離センサによる測定結果に基づき、前記物体における前記一以上の点について、奥行き方向の距離を計測する第2計測部と、を備える。   In one aspect, a picking system includes a robot having a hand mechanism for picking an object, wherein the picking system includes a camera that photographs an object to be picked, and a distance sensor that measures a distance between the object and the camera. A first measurement unit that measures one or both of coordinates of one or more points on the object captured by the camera and an orientation of the object at the one or more points, and measurement by the distance sensor. A second measuring unit that measures a distance in the depth direction for the one or more points on the object based on the result.

開示のピッキングシステムによれば、設置コストが低く、高速で動作するピッキングシステムを提供することができる。   According to the disclosed picking system, it is possible to provide a picking system that operates at high speed with low installation cost.

実施例におけるピッキング対象の物体の一例を示す図である。FIG. 4 is a diagram illustrating an example of an object to be picked in the embodiment. 実施例におけるピッキングシステムのシステム構成の第1の例を示す図である。FIG. 1 is a diagram illustrating a first example of a system configuration of a picking system according to an embodiment. 実施例におけるピッキングシステムのシステム構成の第2の例を示す図である。FIG. 4 is a diagram illustrating a second example of the system configuration of the picking system according to the embodiment. 実施例におけるピッキングシステムのシステム構成の第3の例を示す図である。It is a figure showing the 3rd example of the system configuration of the picking system in an example. 実施例におけるピッキングシステムのシステム構成の第4の例を示す図である。It is a figure showing the 4th example of the system configuration of the picking system in an example. 図2〜図5に示したピッキング処理装置のハードウェア構成例及び機能構成例を模式的に示すブロック図である。FIG. 6 is a block diagram schematically illustrating a hardware configuration example and a functional configuration example of the picking processing device illustrated in FIGS. 2 to 5. 図6に示したピッキング処理装置におけるピッキング対象の物体の座標及び姿勢の推定処理を説明するフローチャートである。7 is a flowchart illustrating a process of estimating the coordinates and posture of a picking target object in the picking processing device illustrated in FIG. 6. 図6に示したピッキング処理装置における実際のばら積み画像を用いた学習モデルの学習処理を説明するフローチャートである。7 is a flowchart illustrating a learning process of a learning model using an actual bulk image in the picking processing device illustrated in FIG. 6. 図6に示したピッキング処理装置におけるレンダリング画像を用いた学習モデルの学習処理を説明するフローチャートである。7 is a flowchart illustrating a learning process of a learning model using a rendering image in the picking processing device illustrated in FIG. 6. 図6に示したピッキング処理装置における実際のばら積み画像及びレンダリング画像を用いた学習モデルの学習処理を説明するフローチャートである。7 is a flowchart illustrating a learning process of a learning model using an actual bulk image and a rendered image in the picking processing apparatus illustrated in FIG. 6. 図6に示したピッキング処理装置におけるノイズ付加処理を説明するフローチャートである。7 is a flowchart illustrating noise addition processing in the picking processing device illustrated in FIG. 6. 第1変形例としてのピッキング処理装置におけるピッキング対象の物体の座標及び姿勢の推定処理を説明するフローチャートである。It is a flowchart explaining the estimation process of the coordinate and attitude | position of the picking target object in the picking processing apparatus as a 1st modification. (A)〜(C)は第2変形例としてのピッキング処理装置における表面テクスチャの生成処理を説明する図である。(A)-(C) is a figure explaining the generation processing of the surface texture in the picking processing apparatus as a 2nd modification. 第2変形例としてのピッキング処理装置における表面テクスチャの生成処理を説明するフローチャートである。It is a flowchart explaining the production | generation process of the surface texture in the picking processing apparatus as a 2nd modification.

以下、図面を参照して一実施の形態を説明する。ただし、以下に示す実施形態はあくまでも例示に過ぎず、実施形態で明示しない種々の変形例や技術の適用を排除する意図はない。本実施形態は、その趣旨を逸脱しない範囲で種々変形して実施することができる。   Hereinafter, an embodiment will be described with reference to the drawings. However, the embodiment described below is merely an example, and there is no intention to exclude various modified examples and applications of technology not explicitly described in the embodiment. This embodiment can be implemented with various modifications without departing from the spirit thereof.

また、各図は、図中に示す構成要素のみを備えるという趣旨ではなく、他の機能等を含むことができる。   In addition, each drawing is not intended to include only the components illustrated in the drawings, but may include other functions and the like.

以下、図中において、同一の符号を付した部分は同様の部分を示している。   Hereinafter, in the drawings, portions denoted by the same reference numerals indicate similar portions.

〔A〕実施形態の一例
〔A−1〕システム構成例
図1は、実施例におけるピッキング対象の物体32の一例を示す図である。
[A] Example of Embodiment [A-1] Example of System Configuration FIG. 1 is a diagram illustrating an example of an object 32 to be picked in the example.

図1に示すように、ピッキング対象の物体32(「ワーク」と称してもよい。)は、パレット31(「容器」と称してもよい。)の中に、乱雑に多数収容されている。なお、図1においては、複数の物体のうち、1つの物体に限って符号「32」を図示し、その他の物体についての符号の図示は省略している。   As shown in FIG. 1, a large number of objects 32 to be picked (may be referred to as “work”) are randomly stored in a pallet 31 (may be referred to as “container”). In FIG. 1, reference numeral “32” is shown only for one of a plurality of objects, and reference numerals for other objects are omitted.

図1に示す例において、物体32は円柱形であるが、これに限定されるものではない。ピッキング対象の物体32は、種々の形状を有してよい。また、ピッキング対象の物体32は、パレット31に収容されていなくてもよく、例えば、ベルトコンベア(不図示)の上に置かれていてもよい。   In the example shown in FIG. 1, the object 32 has a cylindrical shape, but is not limited to this. The object 32 to be picked may have various shapes. The object 32 to be picked may not be accommodated in the pallet 31, and may be placed on, for example, a belt conveyor (not shown).

以下、図2〜図5を用いて、ピッキングシステム100の具体例であるピッキングシステム100a〜100dについて説明する。   Hereinafter, picking systems 100a to 100d, which are specific examples of the picking system 100, will be described with reference to FIGS.

図2は、実施例におけるピッキングシステム100のシステム構成の第1の例を示す図である。   FIG. 2 is a diagram illustrating a first example of a system configuration of the picking system 100 according to the embodiment.

図2に示す例において、ピッキングシステム100aは、ピッキング処理装置1,カメラ21(「2次元ビジョンセンサ」と称してもよい。),距離センサ22,ロボット23,フレーム24,レール25及びパレット31を備える。   In the example shown in FIG. 2, the picking system 100a includes a picking processing device 1, a camera 21 (may be referred to as a "two-dimensional vision sensor"), a distance sensor 22, a robot 23, a frame 24, a rail 25, and a pallet 31. Prepare.

ピッキング処理装置1は、カメラ21及び距離センサ22による計測結果に基づき、ロボット23を制御する。なお、ピッキング処理装置1の詳細については、図6等を用いて後述する。   The picking processing device 1 controls the robot 23 based on the measurement results obtained by the camera 21 and the distance sensor 22. The details of the picking processing device 1 will be described later with reference to FIG.

カメラ21は、物体32の一以上の点におけるx軸及びy軸方向についての位置を測定する。また、カメラ21は、物体32のx軸及びy軸方向についての姿勢を測定する。ピッキングシステム100において、複数のカメラ21が備えられてもよい。   The camera 21 measures a position in one or more points of the object 32 in the x-axis and y-axis directions. The camera 21 measures the attitude of the object 32 in the x-axis and y-axis directions. In the picking system 100, a plurality of cameras 21 may be provided.

距離センサ22は、例えば、超音波センサやTime of Flight(TOF)センサ,電磁波センサであってよい。距離センサ22は、物体32の一以上の点におけるz軸方向についての距離を測定する。ピッキングシステム100において、複数の距離センサ22が備えられてもよい。   The distance sensor 22 may be, for example, an ultrasonic sensor, a time of flight (TOF) sensor, or an electromagnetic wave sensor. The distance sensor 22 measures a distance in one or more points of the object 32 in the z-axis direction. In the picking system 100, a plurality of distance sensors 22 may be provided.

ロボット23は、ピッキング処理装置1による制御に基づき、パレット31内に収納されている物体32をハンド機構により把持する。ハンド機構は、吸引やグリッパー,電磁気等によって物体32をピッキングする種々の機構であってもよい。ロボット23は、例えば、垂直多関節型ロボットであってもよいし、水平多関節型ロボットであってもよいし、直交ロボットであってもよい。   The robot 23 grips the object 32 stored in the pallet 31 by the hand mechanism based on the control by the picking processing device 1. The hand mechanism may be any of various mechanisms for picking the object 32 by suction, a gripper, electromagnetism, or the like. The robot 23 may be, for example, a vertical articulated robot, a horizontal articulated robot, or an orthogonal robot.

図示する例において、ロボット23は床面上に置かれている土台に取り付けられているが、これに限定されるものではない。ロボット23は、フレーム24の天面や側面等の種々の場所に取り付けられてよい。   In the illustrated example, the robot 23 is attached to a base placed on the floor, but is not limited to this. The robot 23 may be attached to various places such as a top surface and a side surface of the frame 24.

フレーム24は、パレット31の上方において、カメラ21や距離センサ22を固定する。なお、カメラ21や距離センサ22をフレーム24に固定する位置は、図示する例に限定されるものではなく、パレット31に対して斜め上方向や、パレット31に対して横方向であってもよい。   The frame 24 fixes the camera 21 and the distance sensor 22 above the pallet 31. The position at which the camera 21 and the distance sensor 22 are fixed to the frame 24 is not limited to the illustrated example, and may be obliquely upward with respect to the pallet 31 or laterally with respect to the pallet 31. .

レール25は、距離センサ22をx軸方向及びy軸方向について移動可能にさせる。   The rail 25 allows the distance sensor 22 to move in the x-axis direction and the y-axis direction.

図3は、実施例におけるピッキングシステム100のシステム構成の第2の例を示す図である。   FIG. 3 is a diagram illustrating a second example of the system configuration of the picking system 100 according to the embodiment.

図3に示す例において、ピッキングシステム100bは、ピッキング処理装置1,カメラ21,距離センサ22,ロボット23,フレーム24及びパレット31を備える。   In the example shown in FIG. 3, the picking system 100b includes a picking processing device 1, a camera 21, a distance sensor 22, a robot 23, a frame 24, and a pallet 31.

図3において、カメラ21は、図2に示した例と同様に、フレーム24に固定される。一方、距離センサ22は、ロボット23のハンド機構の付近に取り付けられる。   3, the camera 21 is fixed to a frame 24, as in the example shown in FIG. On the other hand, the distance sensor 22 is attached near the hand mechanism of the robot 23.

図4は、実施例におけるピッキングシステム100のシステム構成の第3の例を示す図である。   FIG. 4 is a diagram illustrating a third example of the system configuration of the picking system 100 according to the embodiment.

図4に示す例において、ピッキングシステム100cは、ピッキング処理装置1,カメラ21,距離センサ22,ロボット23及びパレット31を備える。   In the example shown in FIG. 4, the picking system 100c includes a picking processing device 1, a camera 21, a distance sensor 22, a robot 23, and a pallet 31.

図4において、カメラ21及び距離センサ22は、ロボット23のハンド機構の付近に取り付けられる。   In FIG. 4, the camera 21 and the distance sensor 22 are attached near the hand mechanism of the robot 23.

図5は、実施例におけるピッキングシステム100のシステム構成の第4の例を示す図である。   FIG. 5 is a diagram illustrating a fourth example of the system configuration of the picking system 100 according to the embodiment.

図5に示す例において、ピッキングシステム100dは、ピッキング処理装置1,カメラ21,距離センサ22,ロボット23,フレーム24,パン・チルト台26及びパレット31を備える。   In the example shown in FIG. 5, the picking system 100d includes a picking processing device 1, a camera 21, a distance sensor 22, a robot 23, a frame 24, a pan / tilt table 26, and a pallet 31.

パン・チルト台26は、取り付けられている距離センサ22をx軸方向及びy軸方向に傾けることができる。   The pan / tilt base 26 can tilt the attached distance sensor 22 in the x-axis direction and the y-axis direction.

図5において、カメラ21は、図2に示した例と同様に、フレーム24に直接に固定される。一方、距離センサ22は、フレーム24にパン・チルト台26を介して固定されることにより、z軸と平行な方向に限らず、z軸と平行な方向以外の方向についても距離を計測できる。   5, the camera 21 is directly fixed to the frame 24 as in the example shown in FIG. On the other hand, since the distance sensor 22 is fixed to the frame 24 via the pan / tilt table 26, the distance sensor 22 can measure a distance not only in a direction parallel to the z-axis but also in a direction other than the direction parallel to the z-axis.

なお、フレーム24の形状は、街路灯のような逆L字型等の他の形状であってもよい。   The shape of the frame 24 may be another shape such as an inverted L-shape such as a street light.

図6は、図2〜図5に示したピッキング処理装置1のハードウェア構成例及び機能構成例を模式的に示すブロック図である。   FIG. 6 is a block diagram schematically illustrating a hardware configuration example and a functional configuration example of the picking processing device 1 illustrated in FIGS. 2 to 5.

ピッキング処理装置1は、Central Processing Unit(CPU)11,メモリ12及び記憶装置13を備える。また、ピッキング処理装置1は、カメラ21,距離センサ22及びロボット23と通信可能に接続される。   The picking processing device 1 includes a Central Processing Unit (CPU) 11, a memory 12, and a storage device 13. Further, the picking processing device 1 is communicably connected to the camera 21, the distance sensor 22, and the robot 23.

メモリ12は、Read Only Memory(ROM)及びRandom Access Memory(RAM)を含む記憶装置である。   The memory 12 is a storage device including a Read Only Memory (ROM) and a Random Access Memory (RAM).

記憶装置13は、データを読み書き可能に記憶する装置であり、例えば、Hard Disk Drive(HDD)やSolid State Drive(SSD),Storage Class Memory(SCM)が用いられてよい。記憶装置13は、生成した教師データや学習モデル等を記憶する。   The storage device 13 is a device that stores data in a readable and writable manner. For example, a hard disk drive (HDD), a solid state drive (SSD), and a storage class memory (SCM) may be used. The storage device 13 stores the generated teacher data, learning model, and the like.

CPU11は、種々の制御や演算を行なう処理装置であり、メモリ12に格納されたOperating System(OS)やプログラムを実行することにより、種々の機能を実現する。すなわち、CPU11は、図6に示すように、学習モデル取得部111,第1計測部112,第2計測部113及び機械学習処理部114として機能してよい。   The CPU 11 is a processing device that performs various controls and calculations, and realizes various functions by executing an Operating System (OS) or a program stored in the memory 12. That is, the CPU 11 may function as a learning model acquisition unit 111, a first measurement unit 112, a second measurement unit 113, and a machine learning processing unit 114, as shown in FIG.

CPU11は、コンピュータの一例であり、例示的に、ピッキング処理装置1全体の動作を制御する。ピッキング処理装置1全体の動作を制御するための装置は、CPU11に限定されず、例えば、MPUやDSP,ASIC,PLD,FPGA,専用プロセッサのいずれか1つであってもよい。また、ピッキング処理装置1全体の動作を制御するための装置は、CPU,MPU,DSP,ASIC,PLD,FPGA及び専用プロセッサのうちの2種類以上の組み合わせであってもよい。なお、MPUはMicro Processing Unitの略称であり、DSPはDigital Signal Processorの略称であり、ASICはApplication Specific Integrated Circuitの略称である。また、PLDはProgrammable Logic Deviceの略称であり、FPGAはField Programmable Gate Arrayの略称である。   The CPU 11 is an example of a computer, and exemplarily controls the operation of the entire picking processing device 1. A device for controlling the entire operation of the picking processing device 1 is not limited to the CPU 11, and may be, for example, any one of an MPU, a DSP, an ASIC, a PLD, an FPGA, and a dedicated processor. Further, a device for controlling the operation of the entire picking processing device 1 may be a combination of two or more of a CPU, an MPU, a DSP, an ASIC, a PLD, an FPGA, and a dedicated processor. Note that MPU is an abbreviation for Micro Processing Unit, DSP is an abbreviation for Digital Signal Processor, and ASIC is an abbreviation for Application Specific Integrated Circuit. PLD is an abbreviation for Programmable Logic Device, and FPGA is an abbreviation for Field Programmable Gate Array.

学習モデル取得部111は、記憶装置13に記憶されているピッキング対象の物体32についての学習モデルを取得する。   The learning model acquisition unit 111 acquires a learning model for the picking target object 32 stored in the storage device 13.

第1計測部112は、カメラ21によって撮影された画像と、学習モデル取得部111によって取得された学習モデルとに基づき、ピッキング対象の物体32におけるxy平面上の座標位置や姿勢を計測する。なお、ピッキング対象の物体32としては、例えば、パレット31内に存在する複数の物体32のうち、他の物体32が上方に存在しない物体32が選択されてよい。   The first measuring unit 112 measures a coordinate position and a posture on the xy plane of the object 32 to be picked based on the image captured by the camera 21 and the learning model acquired by the learning model acquiring unit 111. As the object 32 to be picked, for example, an object 32 in which no other object 32 exists above the plurality of objects 32 existing in the pallet 31 may be selected.

別言すれば、第1計測部112は、カメラ21によって撮影された物体32における一以上の点の座標と、当該一以上の点における物体32の姿勢との、いずれか又は両方を計測する。また、第1計測部112は、学習モデル取得部111によって取得された学習モデルに基づき、座標と姿勢とのいずれか又は両方について、計測を実行してよい。   In other words, the first measurement unit 112 measures one or both of the coordinates of one or more points on the object 32 captured by the camera 21 and the posture of the object 32 at the one or more points. In addition, the first measuring unit 112 may execute measurement on one or both of the coordinates and the posture based on the learning model acquired by the learning model acquiring unit 111.

第2計測部113は、距離センサ22から取得した情報に基づき、第1計測部112によって計測された物体32における点について、ロボット23のハンドと物体32との間におけるz軸方向の距離を測定する。   The second measuring unit 113 measures the distance in the z-axis direction between the hand of the robot 23 and the object 32 for the point on the object 32 measured by the first measuring unit 112 based on the information acquired from the distance sensor 22. I do.

別言すれば、第2計測部113は、距離センサ22による測定結果に基づき、物体32における一以上の点について、奥行き方向の距離を計測する。   In other words, the second measuring unit 113 measures the distance in the depth direction at one or more points on the object 32 based on the measurement result by the distance sensor 22.

機械学習処理部114は、カメラ21によって撮影された画像と物体32の座標や姿勢とに基づいて教師データを作成し、機械学習を実行して、学習モデルを生成する。   The machine learning processing unit 114 creates teacher data based on the image captured by the camera 21 and the coordinates and orientation of the object 32, executes machine learning, and generates a learning model.

別言すれば、機械学習処理部114は、物体32の所定の点の座標と、当該所定の点における物体32の姿勢との、いずれか又は両方を、カメラ21で撮影された画像と組み合わせることにより、教師データを生成して機械学習を実行する第1機械学習処理部として機能する。   In other words, the machine learning processing unit 114 combines one or both of the coordinates of a predetermined point of the object 32 and the posture of the object 32 at the predetermined point with an image captured by the camera 21. Thereby, it functions as a first machine learning processing unit that generates teacher data and executes machine learning.

また、機械学習処理部114は、レンダリングによって生成した3D画像に基づき、教師データを生成し、機械学習を実行して、学習モデルを生成してもよい。この際に、機械学習処理部114は、物体32に実際に生じている傷やへこみ等のノイズを3D画像に付加して教師データを生成してよい。   Further, the machine learning processing unit 114 may generate teacher data based on the 3D image generated by rendering, execute machine learning, and generate a learning model. At this time, the machine learning processing unit 114 may generate teacher data by adding noises such as scratches and dents actually occurring in the object 32 to the 3D image.

別言すれば、機械学習処理部114は、レンダリングによって生成した画像に対してノイズを付加することにより、教師データを生成して機械学習を実行する第2機械学習処理部として機能する。   In other words, the machine learning processing unit 114 functions as a second machine learning processing unit that generates teacher data and performs machine learning by adding noise to an image generated by rendering.

更に、機械学習処理部114は、カメラ21によって撮影された画像と、レンダリングによって生成された3D画像との両方に基づき、教師データを生成してもよい。   Further, the machine learning processing unit 114 may generate teacher data based on both the image captured by the camera 21 and the 3D image generated by the rendering.

〔A−2〕動作例
図6に示したピッキング処理装置1におけるピッキング対象の物体32の座標及び姿勢の推定処理を、図7に示すフローチャート(ステップS1〜S4)に従って説明する。
[A-2] Operation Example The process of estimating the coordinates and posture of the picking target object 32 in the picking processing apparatus 1 shown in FIG. 6 will be described with reference to the flowchart (steps S1 to S4) shown in FIG.

カメラ21により、ピッキング対象の物体32を撮影する(ステップS1)。   The picking target object 32 is photographed by the camera 21 (step S1).

第1計測部112は、カメラ21による撮影結果に基づき、奥行きを計測したい位置の(x,y)座標と、ピッキング対象の物体32の(x,y)座標及び姿勢とを、機械学習によって推定する(ステップS2)。   The first measuring unit 112 estimates the (x, y) coordinates of the position at which the depth is to be measured, the (x, y) coordinates and the posture of the object 32 to be picked, by machine learning, based on the imaging result of the camera 21. (Step S2).

第2計測部113は、距離センサ22を適切な位置に移動させて、物体32との距離を測定する(ステップS3)。   The second measuring unit 113 moves the distance sensor 22 to an appropriate position and measures the distance to the object 32 (Step S3).

第1計測部112及び第2計測部113は、ピッキング対象の物体32の(x,y,z)座標及び姿勢を確定させて、ロボット23を制御する(ステップS4)。そして、ピッキング対象の物体32の座標及び姿勢の推定処理は、終了する。   The first measuring unit 112 and the second measuring unit 113 determine the (x, y, z) coordinates and posture of the object 32 to be picked, and control the robot 23 (step S4). Then, the process of estimating the coordinates and the posture of the object 32 to be picked ends.

次に、図6に示したピッキング処理装置1における実際のばら積み画像を用いた学習モデルの学習処理を、図8に示すフローチャート(ステップS11〜S15)に従って説明する。   Next, the learning process of the learning model using the actual bulk image in the picking processing device 1 shown in FIG. 6 will be described with reference to the flowchart (steps S11 to S15) shown in FIG.

パレット31内において、ばら積み環境を物体32によって再現する(ステップS11)。   The bulk environment is reproduced by the object 32 in the pallet 31 (step S11).

カメラ21によって、ばら積みされた物体32を撮影する(ステップS12)。   The camera 21 captures images of the objects 32 stacked in bulk (step S12).

機械学習処理部114は、撮影された画像が十分なデータ数に達したかを判定する(ステップS13)。なお、撮影された画像が十分なデータ数に達したかの判断は、データ数が閾値を超えたかを判断することによって行なわれてもよいし、人や人工知能が撮影された画像のばらつき具合を参照することによって行なわれてもよい。   The machine learning processing unit 114 determines whether the number of captured images has reached a sufficient number of data (step S13). The determination as to whether the captured image has reached a sufficient number of data may be made by determining whether the number of data has exceeded a threshold value, or may refer to the degree of variation in the captured image by humans or artificial intelligence. May be performed.

十分なデータ数に達していない場合には(ステップS13のNoルート参照)、処理はステップS11へ戻る。   If the number of data has not reached the sufficient number (see No route in step S13), the process returns to step S11.

一方、十分なデータ数に達した場合には(ステップS13のYesルート参照)、機械学習処理部114は、撮影された画像のデータに対する前処理を実施する(ステップS14)。   On the other hand, when the number of data has reached a sufficient number (see the Yes route in step S13), the machine learning processing unit 114 performs preprocessing on the data of the captured image (step S14).

機械学習処理部114は、前処理を実施したデータを利用して、学習モデルを学習する(ステップS15)。そして、実際のばら積み画像を用いた学習モデルの学習処理は、終了する。   The machine learning processing unit 114 learns a learning model using the data on which the pre-processing has been performed (step S15). Then, the learning process of the learning model using the actual bulk image ends.

次に、図6に示したピッキング処理装置1におけるレンダリング画像を用いた学習モデルの学習処理を、図9に示すフローチャート(ステップS21〜S26)に従って説明する。   Next, the learning process of the learning model using the rendered image in the picking processing device 1 shown in FIG. 6 will be described with reference to the flowchart (steps S21 to S26) shown in FIG.

機械学習処理部114は、ピッキング対象の物体32の3Dモデルを設計する(ステップS21)。   The machine learning processing unit 114 designs a 3D model of the picking target object 32 (step S21).

機械学習処理部114は、ばら積み環境を3Dモデルを使って再現する(ステップS22)。   The machine learning processing unit 114 reproduces the bulk environment using the 3D model (step S22).

機械学習処理部114は、ばら積み環境をレンダリングして、画像及びピッキングすべき点の位置や姿勢等のデータを保存する(ステップS23)。   The machine learning processing unit 114 renders the bulk environment and stores the image and data such as the position and orientation of the point to be picked (step S23).

機械学習処理部114は、レンダリング画像が十分なデータ数に達したかを判定する(ステップS24)。なお、レンダリング画像が十分なデータ数に達したかの判断は、データ数が閾値を超えたかを判断することによって行なわれてもよいし、人や人工知能がレンダリング画像のばらつき具合を参照することによって行なわれてもよい。   The machine learning processing unit 114 determines whether the rendering image has reached a sufficient number of data (step S24). The determination as to whether the number of data in the rendering image has reached a sufficient number of data may be made by determining whether the number of data has exceeded a threshold value, or by human or artificial intelligence referring to the degree of dispersion of the rendering image. It may be.

十分なデータ数に達していない場合には(ステップS24のNoルート参照)、処理はステップS22へ戻る。   If the number of data has not reached the sufficient number (see the No route in step S24), the process returns to step S22.

一方、十分なデータ数に達した場合には(ステップS24のYesルート参照)、機械学習処理部114は、レンダリング画像のデータに対する前処理を実施する(ステップS25)。   On the other hand, when the number of data reaches a sufficient number (see the Yes route in step S24), the machine learning processing unit 114 performs preprocessing on the data of the rendering image (step S25).

機械学習処理部114は、前処理を実施したデータを利用して学習モデルを学習する(ステップS26)。そして、レンダリング画像を用いた学習モデルの学習処理は、終了する。   The machine learning processing unit 114 learns a learning model using the data on which the pre-processing has been performed (step S26). Then, the learning process of the learning model using the rendering image ends.

次に、図6に示したピッキング処理装置1における実際のばら積み画像及びレンダリング画像を用いた学習モデルの学習処理を、図10に示すフローチャート(ステップS31〜S40)に従って説明する。   Next, the learning process of the learning model using the actual bulk image and the rendered image in the picking processing device 1 shown in FIG. 6 will be described with reference to the flowchart (steps S31 to S40) shown in FIG.

機械学習処理部114は、ピッキング対象の物体32の3Dモデルを設計する(ステップS31)。   The machine learning processing unit 114 designs a 3D model of the picking target object 32 (step S31).

機械学習処理部114は、ばら積み環境を3Dモデルを使って再現する(ステップS32)。   The machine learning processing unit 114 reproduces the bulk environment using the 3D model (step S32).

機械学習処理部114は、ばら積み環境をレンダリングして、画像及びピッキングすべき点の位置や姿勢等のデータを保存する(ステップS33)。   The machine learning processing unit 114 renders the bulk environment and stores the image and data such as the position and orientation of the point to be picked (step S33).

機械学習処理部114は、レンダリング画像が十分なデータ数に達したかを判定する(ステップS34)。なお、レンダリング画像が十分なデータ数に達したかの判断は、データ数が閾値を超えたかを判断することによって行なわれてもよいし、人や人工知能がレンダリング画像のばらつき具合を参照することによって行なわれてもよい。   The machine learning processing unit 114 determines whether the rendering image has reached a sufficient number of data (step S34). The determination as to whether the number of data in the rendering image has reached a sufficient number of data may be made by determining whether the number of data has exceeded a threshold value, or by human or artificial intelligence referring to the degree of dispersion of the rendering image. It may be.

十分なデータ数に達していない場合には(ステップS34のNoルート参照)、処理はステップS32へ戻る。   If the number of data has not reached the sufficient number (see the No route of step S34), the process returns to step S32.

一方、十分なデータ数に達した場合には(ステップS34のYesルート参照)、機械学習処理部114は、レンダリング画像のデータに対する前処理を実施する(ステップS35)。   On the other hand, when the number of data has reached a sufficient number (see the Yes route in step S34), the machine learning processing unit 114 performs preprocessing on the data of the rendering image (step S35).

パレット31内において、ばら積み環境を物体32によって再現する(ステップS36)。   The bulk environment is reproduced by the object 32 in the pallet 31 (step S36).

カメラ21によって、ばら積みされた物体32を撮影する(ステップS37)。   The objects 21 stacked in bulk are photographed by the camera 21 (step S37).

機械学習処理部114は、撮影された画像が十分なデータ数に達したかを判定する(ステップS38)。なお、撮影された画像が十分なデータ数に達したかの判断は、データ数が閾値を超えたかを判断することによって行なわれてもよいし、人や人工知能が撮影された画像のばらつき具合を参照することによって行なわれてもよい。   The machine learning processing unit 114 determines whether the number of captured images has reached a sufficient number of data (step S38). The determination as to whether the captured image has reached a sufficient number of data may be made by determining whether the number of data has exceeded a threshold value, or may refer to the degree of variation in the captured image by humans or artificial intelligence. May be performed.

十分なデータ数に達していない場合には(ステップS38のNoルート参照)、処理はステップS36へ戻る。   If the number of data has not reached the sufficient number (see No route in step S38), the process returns to step S36.

一方、十分なデータ数に達した場合には(ステップS38のYesルート参照)、機械学習処理部114は、撮影された画像のデータに対する前処理を実施する(ステップS39)。   On the other hand, when the number of data has reached a sufficient number (see the Yes route in step S38), the machine learning processing unit 114 performs preprocessing on the data of the captured image (step S39).

機械学習処理部114は、前処理を実施したデータを利用して、学習モデルを学習する(ステップS40)。そして、実際のばら積み画像及びレンダリング画像を用いた学習モデルの学習処理は、終了する。   The machine learning processing unit 114 learns a learning model using the data on which the preprocessing has been performed (step S40). Then, the learning process of the learning model using the actual bulk image and the rendered image ends.

次に、図6に示したピッキング処理装置1におけるノイズ付加処理を、図11に示すフローチャート(ステップS41〜S43)に従って説明する。   Next, the noise addition processing in the picking processing apparatus 1 shown in FIG. 6 will be described with reference to the flowchart (steps S41 to S43) shown in FIG.

機械学習処理部114は、3Dレンダリングソフトによって、ばら積み環境を再現する(ステップS41)。   The machine learning processing unit 114 reproduces the bulk environment using the 3D rendering software (step S41).

機械学習処理部114は、レンダリングした画像に対して、傷やへこみ等のノイズを付加した機械学習モデルを適用する(ステップS42)。   The machine learning processing unit 114 applies a machine learning model to which noise such as a scratch or dent is added to the rendered image (step S42).

機械学習処理部114は、ピッキング用の機械学習モデルを学習する(ステップS43)。そして、ノイズ付加処理は終了する。   The machine learning processing unit 114 learns a machine learning model for picking (step S43). Then, the noise addition processing ends.

〔A−3〕効果
上述した実施形態の一例におけるピッキングシステム100によれば、例えば、以下の作用効果を奏することができる。
[A-3] Effects According to the picking system 100 in the example of the above-described embodiment, for example, the following effects can be obtained.

カメラ21は、ピッキング対象の物体32を撮影する。距離センサ22は、物体32との間の距離を計測する。第1計測部112は、カメラ21によって撮影された物体32における一以上の点の座標と、当該一以上の点における物体32の姿勢との、いずれか又は両方を計測する。第2計測部113は、距離センサ22による測定結果に基づき物体32における一以上の点について、奥行き方向の距離を計測する。   The camera 21 photographs the object 32 to be picked. The distance sensor 22 measures the distance to the object 32. The first measurement unit 112 measures one or both of the coordinates of one or more points on the object 32 captured by the camera 21 and the posture of the object 32 at the one or more points. The second measuring unit 113 measures the distance in the depth direction at one or more points on the object 32 based on the measurement result by the distance sensor 22.

これにより、設置コストが低く、高速で動作するピッキングシステム100を提供することができる。また、ロボット23にカメラ21及び距離センサ22を取り付ける場合には、ピッキングシステム100においてフレーム24が不要になり、ピッキングシステム100の設置スペースを小さくできる。   This makes it possible to provide the picking system 100 that operates at high speed with low installation costs. When the camera 21 and the distance sensor 22 are attached to the robot 23, the frame 24 is unnecessary in the picking system 100, and the installation space of the picking system 100 can be reduced.

機械学習処理部114は、物体32の所定の点の座標と、当該所定の点における物体32の姿勢との、いずれか又は両方を、カメラ21で撮影された画像と組み合わせることにより、教師データを生成して機械学習を実行する。第1計測部112は、機械学習処理部114による機械学習によって生成された学習モデルに基づき、座標と姿勢とのいずれか又は両方について、計測を実行する。   The machine learning processing unit 114 combines the one or both of the coordinates of the predetermined point of the object 32 and the posture of the object 32 at the predetermined point with the image captured by the camera 21 to convert the teacher data. Generate and perform machine learning. The first measuring unit 112 measures one or both of the coordinates and the posture based on the learning model generated by the machine learning by the machine learning processing unit 114.

これにより、最終的なピッキングの際と等価な画像を教師データとして使用できるため、評価結果の信頼性を向上できる。また、物体32に形成されている傷等のランダムに発生するノイズも学習できるため、堅牢性を向上できる。   As a result, an image equivalent to the final picking can be used as teacher data, so that the reliability of the evaluation result can be improved. In addition, since randomly generated noise such as a scratch formed in the object 32 can be learned, the robustness can be improved.

機械学習処理部114は、レンダリングによって生成した画像に対してノイズを付加することにより、教師データを生成して機械学習を実行する。第1計測部112は、機械学習処理部114による機械学習によって生成された学習モデルに基づき、座標と姿勢とのいずれか又は両方について、計測を実行する。   The machine learning processing unit 114 generates teacher data by adding noise to the image generated by the rendering, and executes the machine learning. The first measuring unit 112 measures one or both of the coordinates and the posture based on the learning model generated by the machine learning by the machine learning processing unit 114.

これにより、撮影環境を用意したり、実際の物体32を用意したりする必要がないため、ばら積み環境を無限に低コストで再現できる。また、現実には確率的にほとんど発生しないような位置や姿勢の物体32を再現でき、物体32の特定の部位の正確な位置や姿勢等を誤差なく取得できる。更に、物体32に形成されている傷等のランダムに発生するノイズも学習できるため、堅牢性を向上できる。   Thus, since it is not necessary to prepare a shooting environment or an actual object 32, a bulk environment can be reproduced indefinitely at low cost. In addition, it is possible to reproduce the object 32 having a position or orientation that hardly occurs in probability in reality, and to obtain an accurate position or orientation of a specific portion of the object 32 without error. Furthermore, since randomly generated noise such as a scratch formed on the object 32 can be learned, the robustness can be improved.

機械学習処理部114は、カメラ21で撮影された画像と、レンダリングによって生成した画像との両方に基づいて、教師データを生成してもよい。   The machine learning processing unit 114 may generate the teacher data based on both the image captured by the camera 21 and the image generated by the rendering.

これにより、3Dモデルのデータを活用できるため大量のデータを安価に作成できると共に、実際の物体32におけるランダムなノイズも学習できる。また、高精度で人間が設定することが困難な姿勢等を、3Dモデルから学習できる。   Thus, since the data of the 3D model can be utilized, a large amount of data can be created at low cost, and random noise in the actual object 32 can be learned. Further, it is possible to learn from the 3D model a posture or the like that is difficult for a human to set with high accuracy.

〔B〕第1変形例
上述した実施例においては、物体32の姿勢の推定をカメラ21(別言すれば、「2次元ビジョンセンサ」)を用いて実行していたが、これに限定されるものではない。距離センサ22によって、物体32における三つ以上の点を計測することにより、物体32における面を計測して、物体32の姿勢を推定してもよい。
[B] First Modification In the above-described embodiment, the posture of the object 32 is estimated using the camera 21 (in other words, a “two-dimensional vision sensor”). However, the present invention is not limited to this. Not something. The orientation of the object 32 may be estimated by measuring the surface of the object 32 by measuring three or more points on the object 32 with the distance sensor 22.

別言すれば、第2計測部113は、距離センサ22による測定結果に基づき、物体32における三以上の点について、奥行き方向の距離を計測する。そして、第2計測部113は、測定した三以上の点についての奥行き方向の距離に基づき、物体32の姿勢を推定する。   In other words, the second measuring unit 113 measures the distance in the depth direction for three or more points on the object 32 based on the measurement result by the distance sensor 22. Then, the second measuring unit 113 estimates the posture of the object 32 based on the measured distance in the depth direction for three or more points.

第1変形例としてのピッキング処理装置1におけるピッキング対象の物体32の座標及び姿勢の推定処理を、図12に示すフローチャート(ステップS51〜S55)に従って説明する。   The process of estimating the coordinates and orientation of the picking target object 32 in the picking processing apparatus 1 as a first modification will be described with reference to the flowchart (steps S51 to S55) shown in FIG.

カメラ21によって、ピッキング対象の物体32を撮影する(ステップS51)。   The object 32 to be picked is photographed by the camera 21 (step S51).

第1計測部112は、奥行きを測定したい複数点(別言すれば、「三つ以上の点」)の位置と、ピッキング対象の物体32の(x,y)座標とを、機械学習で推定する(ステップS52)。   The first measuring unit 112 estimates the positions of a plurality of points (in other words, “three or more points”) whose depths are to be measured and the (x, y) coordinates of the picking target object 32 by machine learning. (Step S52).

第2計測部113は、第1計測部112による計測結果に基づき、距離センサ22を適切な位置に移動して、複数点の距離を計測する(ステップS53)。   The second measuring unit 113 moves the distance sensor 22 to an appropriate position based on the measurement result by the first measuring unit 112, and measures the distance of a plurality of points (Step S53).

第2計測部113は、距離を計測した複数点の情報を使って、物体32の姿勢を推定する(ステップS54)。   The second measuring unit 113 estimates the posture of the object 32 using the information on the plurality of points whose distance has been measured (step S54).

第1計測部112及び第2計測部113は、ピッキング対象の物体32の(x,y,z)座標及び姿勢を確定して、ロボット23を制御する(ステップS55)。そして、第1変形例におけるピッキング対象の物体32の座標及び姿勢の推定処理は、終了する。   The first measuring unit 112 and the second measuring unit 113 determine the (x, y, z) coordinates and posture of the object 32 to be picked, and control the robot 23 (step S55). Then, the process of estimating the coordinates and the posture of the object 32 to be picked in the first modified example ends.

第1変形例におけるピッキング対象の物体32の座標及び姿勢の推定処理によっても、上述した実施例と同様の効果を奏することができる。   The same effect as in the above-described embodiment can be obtained by the estimation processing of the coordinates and the posture of the picking target object 32 in the first modification.

〔C〕第2変形例
レンダリングした画像に対しての傷やへこみ等のノイズの付加は、現実の物体32の表面テクスチャを撮影することによって実施してもよい。
[C] Second Modification The addition of noise such as a scratch or a dent to the rendered image may be performed by photographing the surface texture of the real object 32.

図13の(A)〜(C)は、第2変形例としてのピッキング処理装置1における表面テクスチャの生成処理を説明する図である。   (A) to (C) of FIG. 13 are diagrams illustrating a process of generating a surface texture in the picking processing device 1 according to the second modification.

図13の(A)には人の笑顔が示されており、図13の(C)には人の無表情の顔が示されている。図13の(A)及び(C)に示されている表情の画像データが取得されることにより、図13の(B)に示されている中間の表情の画像データが生成されてよい。   FIG. 13A shows a person's smiling face, and FIG. 13C shows a person's expressionless face. By acquiring the image data of the facial expressions shown in FIGS. 13A and 13C, the image data of the intermediate facial expression shown in FIG. 13B may be generated.

また、図13の(B)に示されている中間の表情の画像データは1つに限らず、複数が生成されてよい。   The image data of the intermediate expression shown in FIG. 13B is not limited to one, and a plurality of image data may be generated.

第2変形例において、機械学習処理部114は、複数の物体32における傷の形状や反射具合等を学習する。そして、機械学習処理部114は、学習した複数の物体32における傷の形状や反射具合等に基づき、無数のパターンの形状の傷や反射具合等を有する物体32の3D画像を生成する。   In the second modification, the machine learning processing unit 114 learns the shape of the flaws, the degree of reflection, and the like in the plurality of objects 32. Then, the machine learning processing unit 114 generates a 3D image of the object 32 having a myriad of pattern-shaped flaws, reflection conditions, and the like based on the learned wound shapes, reflection conditions, and the like of the plurality of objects 32.

別言すれば、機械学習処理部114は、物体32に対してノイズが付加された第1の画像と、物体32に対して第1の画像とは異なるノイズが付加された第2の画像とを取得する。そして、機械学習処理部114は、取得した第1及び第2の画像に基づき、第1の画像におけるノイズの特徴と第2の画像におけるノイズの特徴との間の特徴のノイズを含む第3の画像を生成する第2機械学習処理部の一例として機能する。   In other words, the machine learning processing unit 114 generates a first image in which noise is added to the object 32, and a second image in which noise different from the first image is added to the object 32. To get. Then, based on the acquired first and second images, the machine learning processing unit 114 includes a third noise including a noise of a characteristic between the noise characteristic of the first image and the noise characteristic of the second image. It functions as an example of a second machine learning processing unit that generates an image.

第2変形例としてのピッキング処理装置1における表面テクスチャの生成処理を、図14に示すフローチャート(ステップS61〜S66)に従って説明する。   The generation processing of the surface texture in the picking processing apparatus 1 as the second modification will be described with reference to the flowchart (steps S61 to S66) shown in FIG.

カメラ21によって、現実の物体32の表面テクスチャを撮影する(ステップS61)。ここでは、例えば、2つの物体32の表面テクスチャが撮影される。   The surface texture of the real object 32 is photographed by the camera 21 (step S61). Here, for example, the surface textures of the two objects 32 are photographed.

機械学習処理部114は、撮影された表面テクスチャのデータに対して前処理を実施する(ステップS62)。   The machine learning processing unit 114 performs pre-processing on the data of the photographed surface texture (step S62).

機械学習処理部114は、表面テクスチャを表現する潜在変数を学習する(ステップS63)。   The machine learning processing unit 114 learns a latent variable representing the surface texture (Step S63).

機械学習処理部114は、学習した潜在変数を変化させた表面テクスチャを無数に生成する(ステップS64)。   The machine learning processing unit 114 generates a myriad of surface textures with the learned latent variables changed (step S64).

機械学習処理部114は、生成した表面テクスチャを利用して、ユニークな3Dモデルを無数に生成する(ステップS65)。   The machine learning processing unit 114 generates an infinite number of unique 3D models using the generated surface texture (step S65).

機械学習処理部114は、図9に示したレンダリング画像を用いた学習モデルの学習処理を実施する(ステップS66)。そして、表面テクスチャの生成処理は終了する。   The machine learning processing unit 114 performs a learning process of a learning model using the rendering image illustrated in FIG. 9 (Step S66). Then, the surface texture generation processing ends.

第2変形例における表面テクスチャの生成処理によれば、複数の本物の物体32における表面テクスチャの特徴を学習することにより、複数の本物の物体32における表面テクスチャを合成した中間の表面テクスチャを無数に生成することができる。また、生成した表面テクスチャを3Dモデルに適用することによって、現実の物体32に発生するランダムな傷等のノイズについても、3Dモデルのみを用いて学習できる。   According to the surface texture generation processing in the second modified example, by learning the features of the surface texture in the plurality of real objects 32, an infinite number of intermediate surface textures obtained by combining the surface textures in the plurality of real objects 32 are obtained. Can be generated. In addition, by applying the generated surface texture to the 3D model, noise such as random scratches generated in the real object 32 can be learned using only the 3D model.

〔D〕その他
開示の技術は上述した実施形態に限定されるものではなく、本実施形態の趣旨を逸脱しない範囲で種々変形して実施することができる。本実施形態の各構成及び各処理は、必要に応じて取捨選択することができ、あるいは適宜組み合わせてもよい。
[D] Others The disclosed technology is not limited to the embodiments described above, and can be implemented with various modifications without departing from the spirit of the present embodiment. Each configuration and each process of the present embodiment can be selected as needed, or can be appropriately combined.

100 :ピッキングシステム
1 :ピッキング処理装置
11 :CPU
111 :学習モデル取得部
112 :第1計測部
113 :第2計測部
114 :機械学習処理部
12 :メモリ
13 :記憶装置
21 :カメラ
22 :距離センサ
23 :ロボット
24 :フレーム
25 :レール
26 :パン・チルト台
31 :パレット
32 :物体
100: Picking system 1: Picking processing device 11: CPU
111: learning model acquisition unit 112: first measurement unit 113: second measurement unit 114: machine learning processing unit 12: memory 13: storage device 21: camera 22: distance sensor 23: robot 24: frame 25: rail 26: pan・ Tilt table 31: Pallet 32: Object

1つの側面において、ピッキングシステムは、物体をピッキングするためのハンド機構を有するロボットを備えるピッキングシステムであって、ピッキング対象の物体を撮影するカメラと、前記物体における一以上の点との間の距離を計測する距離センサと、レンダリングによって生成した画像に対してノイズを付加することにより、教師データを生成して機械学習を実行するノイズ学習処理部と、前記ノイズ学習処理部による機械学習によって生成された学習モデルに基づき、前記カメラによって撮影された前記物体における前記一以上の点の座標と、当該一以上の点における前記物体の姿勢との、いずれか又は両方を計測する第1計測部と、前記距離センサによる測定結果に基づき、前記物体における前記一以上の点について、奥行き方向の距離を計測する第2計測部と、を備える。 In one aspect, a picking system comprises a robot having a hand mechanism for picking an object, the picking system comprising: a camera for photographing an object to be picked; and a distance between one or more points on the object . , A noise learning processing unit that generates teacher data by performing noise learning by adding noise to the image generated by the rendering, and a noise learning processing unit that generates the noise learning processing unit by the noise learning processing unit. based on the learning model, and the coordinates of the one or more points in the object captured by the camera, and the attitude of the object in the one or more points, a first measuring unit for measuring either or both, Based on the measurement result by the distance sensor, the depth of the one or more points on the object is And a second measuring unit for measuring a distance.

Claims (7)

物体をピッキングするためのハンド機構を有するロボットを備えるピッキングシステムであって、
ピッキング対象の物体を撮影するカメラと、
前記物体との間の距離を計測する距離センサと、
前記カメラによって撮影された前記物体における一以上の点の座標と、当該一以上の点における前記物体の姿勢との、いずれか又は両方を計測する第1計測部と、
前記距離センサによる測定結果に基づき、前記物体における前記一以上の点について、奥行き方向の距離を計測する第2計測部と、
を備える、ピッキングシステム。
A picking system comprising a robot having a hand mechanism for picking an object,
A camera for shooting the object to be picked,
A distance sensor for measuring the distance between the object,
A first measurement unit that measures one or both of the coordinates of one or more points on the object captured by the camera and the orientation of the object at the one or more points,
Based on the measurement result by the distance sensor, for the one or more points on the object, a second measurement unit that measures the distance in the depth direction,
A picking system comprising:
前記物体の所定の点の座標と、当該所定の点における前記物体の姿勢との、いずれか又は両方を、前記カメラで撮影された画像と組み合わせることにより、教師データを生成して機械学習を実行する第1機械学習処理部を更に備え、
前記第1計測部は、前記第1機械学習処理部による機械学習によって生成された学習モデルに基づき、前記座標と前記姿勢とのいずれか又は両方について、前記計測を実行する、
請求項1に記載のピッキングシステム。
By combining one or both of the coordinates of a predetermined point of the object and the posture of the object at the predetermined point with an image captured by the camera, generate teacher data and execute machine learning. Further comprising a first machine learning processing unit that performs
The first measurement unit performs the measurement on one or both of the coordinates and the posture based on a learning model generated by machine learning by the first machine learning processing unit.
The picking system according to claim 1.
レンダリングによって生成した画像に対してノイズを付加することにより、教師データを生成して機械学習を実行する第2機械学習処理部を更に備え、
前記第1計測部は、前記第2機械学習処理部による機械学習によって生成された学習モデルに基づき、前記座標と前記姿勢とのいずれか又は両方について、前記計測を実行する、
請求項1又は2に記載のピッキングシステム。
The image processing apparatus further includes a second machine learning processing unit that generates teacher data and performs machine learning by adding noise to the image generated by the rendering,
The first measurement unit performs the measurement on one or both of the coordinates and the posture based on a learning model generated by machine learning by the second machine learning processing unit.
The picking system according to claim 1.
前記第2機械学習処理部は、前記物体に対してノイズが付加された第1の画像と、前記物体に対して前記第1の画像とは異なるノイズが付加された第2の画像とを取得し、取得した前記第1及び第2の画像に基づき、前記第1の画像におけるノイズの特徴と前記第2の画像におけるノイズの特徴との間の特徴のノイズを含む第3の画像を生成する、
請求項3に記載のピッキングシステム。
The second machine learning processing unit acquires a first image to which noise is added to the object and a second image to which noise different from the first image is added to the object. Then, based on the acquired first and second images, a third image including noise of a characteristic between the noise characteristic of the first image and the noise characteristic of the second image is generated. ,
The picking system according to claim 3.
前記第2計測部は、
前記距離センサによる測定結果に基づき、前記物体における三以上の点について、奥行き方向の距離を計測し、
測定した前記三以上の点についての奥行き方向の距離に基づき、前記物体の姿勢を推定する、
請求項1〜4のいずれか一項に記載のピッキングシステム。
The second measuring unit includes:
Based on the measurement result by the distance sensor, for three or more points on the object, measure the distance in the depth direction,
Based on the measured distance in the depth direction for the three or more points, to estimate the posture of the object,
The picking system according to claim 1.
ピッキング対象の物体を撮影するカメラによって撮影された前記物体における一以上の点の座標と、当該一以上の点における前記物体の姿勢との、いずれか又は両方を計測する第1計測部と、
距離センサによる測定結果に基づき、前記物体における前記一以上の点について、奥行き方向の距離を計測する第2計測部と、
を備える、ピッキング処理装置。
A first measurement unit that measures one or both of the coordinates of one or more points on the object captured by the camera that captures the object to be picked, and the orientation of the object at the one or more points,
Based on the measurement result by the distance sensor, for the one or more points on the object, a second measurement unit that measures the distance in the depth direction,
A picking processing device comprising:
コンピュータに、
ピッキング対象の物体を撮影するカメラによって撮影された前記物体における一以上の点の座標と、当該一以上の点における前記物体の姿勢との、いずれか又は両方を計測し、
距離センサによる測定結果に基づき、前記物体における前記一以上の点について、奥行き方向の距離を計測する、
処理を実行させる、プログラム。
On the computer,
Coordinates of one or more points on the object photographed by a camera that photographs the object to be picked, and one or both of the posture of the object at the one or more points,
Based on the measurement result by the distance sensor, for the one or more points on the object, measure the distance in the depth direction,
A program that executes a process.
JP2018123227A 2018-06-28 2018-06-28 Picking system, picking processing equipment, and program Pending JP2020001127A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018123227A JP2020001127A (en) 2018-06-28 2018-06-28 Picking system, picking processing equipment, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018123227A JP2020001127A (en) 2018-06-28 2018-06-28 Picking system, picking processing equipment, and program

Publications (1)

Publication Number Publication Date
JP2020001127A true JP2020001127A (en) 2020-01-09

Family

ID=69098061

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018123227A Pending JP2020001127A (en) 2018-06-28 2018-06-28 Picking system, picking processing equipment, and program

Country Status (1)

Country Link
JP (1) JP2020001127A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102220304B1 (en) * 2020-02-28 2021-02-25 주식회사 두산 Apparatus and method for controlling robot
WO2021153228A1 (en) * 2020-01-28 2021-08-05 株式会社Screenホールディングス Stage orientation estimation device, conveyance device, and stage orientation estimation method
JP2021528782A (en) * 2018-06-28 2021-10-21 テトラ ラバル ホールディングス アンド ファイナンス エス エイ Systems and methods for detecting packaging deviations
JP6964827B1 (en) * 2021-01-12 2021-11-10 三菱電機株式会社 Control devices, robot systems and control methods
JP7009676B1 (en) * 2021-01-29 2022-01-26 東京貿易テクノシステム株式会社 Training data generation method, training data generation program, training data generation device, and machine learning model generation method

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010120141A (en) * 2008-11-21 2010-06-03 Ihi Corp Picking device for workpieces loaded in bulk and method for controlling the same
JP2012101320A (en) * 2010-11-10 2012-05-31 Canon Inc Image generation apparatus, image generation method and program
JP2017064910A (en) * 2015-07-31 2017-04-06 ファナック株式会社 Machine learning device for learning taking-out operation of workpiece, robot system, and machine learning method
JP6330092B1 (en) * 2017-08-02 2018-05-23 株式会社ディジタルメディアプロフェッショナル Machine learning teacher data generation apparatus and generation method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010120141A (en) * 2008-11-21 2010-06-03 Ihi Corp Picking device for workpieces loaded in bulk and method for controlling the same
JP2012101320A (en) * 2010-11-10 2012-05-31 Canon Inc Image generation apparatus, image generation method and program
JP2017064910A (en) * 2015-07-31 2017-04-06 ファナック株式会社 Machine learning device for learning taking-out operation of workpiece, robot system, and machine learning method
JP6330092B1 (en) * 2017-08-02 2018-05-23 株式会社ディジタルメディアプロフェッショナル Machine learning teacher data generation apparatus and generation method

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021528782A (en) * 2018-06-28 2021-10-21 テトラ ラバル ホールディングス アンド ファイナンス エス エイ Systems and methods for detecting packaging deviations
JP7228603B2 (en) 2018-06-28 2023-02-24 テトラ ラバル ホールディングス アンド ファイナンス エス エイ Systems and methods for detecting deviations in packaging containers
WO2021153228A1 (en) * 2020-01-28 2021-08-05 株式会社Screenホールディングス Stage orientation estimation device, conveyance device, and stage orientation estimation method
JP7379183B2 (en) 2020-01-28 2023-11-14 株式会社Screenホールディングス Stage posture estimation device, transport device, and stage posture estimation method
KR102220304B1 (en) * 2020-02-28 2021-02-25 주식회사 두산 Apparatus and method for controlling robot
JP6964827B1 (en) * 2021-01-12 2021-11-10 三菱電機株式会社 Control devices, robot systems and control methods
WO2022153345A1 (en) * 2021-01-12 2022-07-21 三菱電機株式会社 Control device, robot system, and control method
JP7009676B1 (en) * 2021-01-29 2022-01-26 東京貿易テクノシステム株式会社 Training data generation method, training data generation program, training data generation device, and machine learning model generation method
WO2022162883A1 (en) * 2021-01-29 2022-08-04 東京貿易テクノシステム株式会社 Training data generation method, training data generation program, training data generation device, and machine-learning model generation method

Similar Documents

Publication Publication Date Title
JP2020001127A (en) Picking system, picking processing equipment, and program
JP5746477B2 (en) Model generation device, three-dimensional measurement device, control method thereof, and program
US10189162B2 (en) Model generation apparatus, information processing apparatus, model generation method, and information processing method
JP6271953B2 (en) Image processing apparatus and image processing method
JP5548482B2 (en) Position / orientation measuring apparatus, position / orientation measuring method, program, and storage medium
JP5297403B2 (en) Position / orientation measuring apparatus, position / orientation measuring method, program, and storage medium
JP5612916B2 (en) Position / orientation measuring apparatus, processing method thereof, program, robot system
CN109598264B (en) Object grabbing method and device
US20150134303A1 (en) Three-dimensional scanning system and method with hole-filling function for point cloud using contact probe
JP2015147256A (en) Robot, robot system, control device, and control method
KR20140008262A (en) Robot system, robot, robot control device, robot control method, and robot control program
JP2012042396A (en) Position attitude measurement device, position attitude measurement method, and program
WO2012081687A1 (en) Information processing apparatus, information processing method, and program
US10957067B2 (en) Control apparatus, object detection system, object detection method and program
CN109213202A (en) Cargo arrangement method, device, equipment and storage medium based on optical servo
JP6922605B2 (en) 3D object detectors, robots, and programs
JP2015111128A (en) Position attitude measurement device, position attitude measurement method, and program
JP6489243B2 (en) Object recognition device, object recognition method, object recognition program, robot system, and robot
JP6237122B2 (en) Robot, image processing method and robot system
Dyrstad et al. Bin picking of reflective steel parts using a dual-resolution convolutional neural network trained in a simulated environment
US20220143836A1 (en) Computer-readable recording medium storing operation control program, operation control method, and operation control apparatus
JP7249221B2 (en) SENSOR POSITION AND POSTURE CALIBRATION DEVICE AND SENSOR POSITION AND POSTURE CALIBRATION METHOD
CN115082550A (en) Apparatus and method for locating position of object from camera image of object
JP2015079374A (en) Object recognition device, object recognition method, object recognition program, robot system, and robot
US10379620B2 (en) Finger model verification method and information processing apparatus

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180712

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180719

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20180719

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190527

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190604

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190802

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20200114