JP2020110851A - Picking system - Google Patents
Picking system Download PDFInfo
- Publication number
- JP2020110851A JP2020110851A JP2019001394A JP2019001394A JP2020110851A JP 2020110851 A JP2020110851 A JP 2020110851A JP 2019001394 A JP2019001394 A JP 2019001394A JP 2019001394 A JP2019001394 A JP 2019001394A JP 2020110851 A JP2020110851 A JP 2020110851A
- Authority
- JP
- Japan
- Prior art keywords
- read image
- robot
- picking system
- target
- tray
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000003287 optical effect Effects 0.000 claims description 10
- 238000000034 method Methods 0.000 claims description 8
- 238000013135 deep learning Methods 0.000 claims description 6
- 230000004044 response Effects 0.000 claims description 2
- 230000036544 posture Effects 0.000 description 24
- 238000013527 convolutional neural network Methods 0.000 description 5
- 230000006870 function Effects 0.000 description 4
- 230000007723 transport mechanism Effects 0.000 description 4
- 238000010801 machine learning Methods 0.000 description 3
- 238000004891 communication Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 239000011521 glass Substances 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- NIXOWILDQLNWCW-UHFFFAOYSA-N acrylic acid group Chemical group C(C=C)(=O)O NIXOWILDQLNWCW-UHFFFAOYSA-N 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 238000007664 blowing Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 238000004806 packaging method and process Methods 0.000 description 1
- 238000012856 packing Methods 0.000 description 1
- 230000000737 periodic effect Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 239000006187 pill Substances 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 238000003756 stirring Methods 0.000 description 1
Images
Abstract
Description
本発明は、ピッキングシステムに関する。 The present invention relates to a picking system.
従来、ロボットアームが商品や製造部品、機械部品などの対象物をピッキングするピッキングシステムにおいて、対象物を3Dカメラで撮影した画像を用いて認識する技術が知られている(例えば、特許文献1参照、及び特許文献2参照)。対象物を3Dカメラで撮影することで収差が抑えられ、対象物の厚みに起因する画像のボケが抑えられる。 BACKGROUND ART Conventionally, in a picking system in which a robot arm picks an object such as a product, a manufacturing part, or a mechanical part, a technique of recognizing the object using an image captured by a 3D camera is known (for example, see Patent Document 1). , And Patent Document 2). Aberrations are suppressed by shooting the target object with a 3D camera, and blurring of the image due to the thickness of the target object is suppressed.
しかしながら、3Dカメラは一般的なカメラに比べて高価である、という問題がある。
本発明は、3Dカメラを用いることなく安価なピッキングシステムを提供することを目的とする。
However, there is a problem that a 3D camera is more expensive than a general camera.
It is an object of the present invention to provide an inexpensive picking system without using a 3D camera.
第1の発明は、対象物を収めた容器から当該対象物を取り出すロボットと、前記容器の中の対象物が写った画像に基づいて、前記対象物の位置、及び姿勢を特定する対象物特定部と、前記対象物の位置、及び姿勢に基づいて、前記ロボットに前記対象物を取り出す動作をさせる制御信号を生成するロボット制御部と、読取面に載置された前記容器の中を光学的に読み取り読取画像を出力するスキャナ装置と、を備え、前記対象物特定部は、前記読取画像に基づいて前記対象物の位置、及び姿勢を特定することを特徴とするピッキングシステムである。 A first invention is a robot for taking out a target object from a container containing the target object, and a target object specifying a position and a posture of the target object based on an image showing the target object in the container. Section, a robot control section for generating a control signal for causing the robot to take out the target object based on the position and orientation of the target object, and an optical path inside the container placed on the reading surface. And a scanner device that outputs a read and read image, and the object specifying unit specifies a position and a posture of the object based on the read image.
第2の発明は、第1の発明において、前記スキャナ装置は、前記光学的な読み取りをCCD方式により行う装置である、ことを特徴とする。 In a second aspect based on the first aspect, the scanner device is a device for performing the optical reading by a CCD system.
第3の発明は、第1または第2の発明において、前記対象物特定部は、物体認識アルゴリズムを用いたディープラーニングによって機械学習された学習済モデルを備え、前記学習済モデルは、前記読取画像の入力に応じて、当該読取画像に写っている対象物の位置、及び姿勢を出力することを特徴とする。 In a third aspect based on the first or second aspect, the object specifying unit includes a learned model machine-learned by deep learning using an object recognition algorithm, and the learned model is the read image. It is characterized in that the position and the posture of the object shown in the read image are output according to the input of.
第4の発明は、第3の発明において、前記物体認識アルゴリズムは、Faster R−CNN、またはSSDである、ことを特徴とする。 In a fourth aspect based on the third aspect, the object recognition algorithm is Faster R-CNN or SSD.
第5の発明は、第1の発明から第4の発明のいずれかにおいて、前記容器の中の対象物を動かす装置を備える、ことを特徴とする。 A fifth invention is characterized in that, in any one of the first invention to the fourth invention, a device for moving an object in the container is provided.
第1の発明によれば、3Dカメラを用いない安価なピッキングシステムが得られる。
第2の発明によれば、対象物に厚みがある場合でもブレを抑えた鮮明な読取画像が得られる。
第3の発明によれば、複雑なプログラムを準備せずとも、各対象物の位置、及び姿勢を得ることができる。
第4の発明によれば、読取画像に写った対象物を正確、かつ高速に特定できる。
第5の発明によれば、対象物が動かされることで、対象物同士の重なりや接触状態が解消され、読取画像において各対象物を特定し易くできる。
According to the first invention, an inexpensive picking system that does not use a 3D camera can be obtained.
According to the second aspect of the present invention, a clear read image in which blurring is suppressed can be obtained even when the object is thick.
According to the third invention, it is possible to obtain the position and orientation of each object without preparing a complicated program.
According to the fourth aspect of the present invention, it is possible to accurately and quickly identify the object shown in the read image.
According to the fifth aspect of the present invention, by moving the objects, the overlapping of the objects and the contact state are eliminated, and it is possible to easily identify each object in the read image.
以下、図面を参照して本発明の実施形態について説明する。
図1は、本実施形態に係る部品ピッキングシステム1の構成を示す図である。
部品ピッキングシステム1は、作業者に代わりロボット2が対象物Pを取り出し(ピックアップし)、所定位置に所定姿勢で配置するシステムであり、多数の対象物Pをバッチ処理する用途に好適に用いられる。このような用途としては、部品や装置を組み立てる生産ライン、商品や丸薬などを梱包する梱包ライン、部品や部材を次々に検査する検査処理などが挙げられる。
Embodiments of the present invention will be described below with reference to the drawings.
FIG. 1 is a diagram showing a configuration of a
The
図1に示すように、部品ピッキングシステム1は、上記ロボット2と、ロボットコントローラ4と、制御コンピュータ6と、スキャナ装置8と、を備え、対象物Pが収められたトレー10から対象物Pをピックアップし、目的の作業位置に所定の姿勢で対象物Pを配置する。
トレー10、及び作業位置は、ロボット2の作業範囲内で適宜に設定された位置に設けられる。トレー10は、ピックアップ対象の対象物Pを収める容器であり、このトレー10には、対象物Pの残数に基づいて(例えば残数が所定値を下回った場合など)、供給装置や作業員などによって対象物Pが供給される。作業位置は、部品ピッキングシステム1によってピックアップされた対象物Pを、それを利用する利用側に引き渡す場所に用いられる。
As shown in FIG. 1, a
The
ロボット2は、対象物Pの把持、3次元方向の移動、及び、姿勢変更を実行可能に構成された装置であり、ロボットアーム14を備える。ロボットアーム14は、可動部である複数の関節を有し、サーボモーターによって動作し、その先端には、対象物Pを把持するハンドピース16が取り付けられている。
ロボットコントローラ4は、制御コンピュータ6の制御信号Kにしたがってロボットアーム14をサーボ制御する装置である。
The
The robot controller 4 is a device that servo-controls the
スキャナ装置8は、トレー10の中を光学的に読み取り、読取画像Mを制御コンピュータ6に出力する、いわゆるイメージスキャナと呼ばれる装置である。
具体的には、スキャナ装置8は、箱型の筐体22を備え、筐体22の上面22Aには読取面24が設けられている。読取面24は、筐体22に設けた開口23に平板状の透過ガラス28を嵌めて構成されており、この読取面24に上記トレー10が載置される。トレー10の底面10Aは、その全面が読取面24に面接触する平面形状を成し、またトレー10の内部をスキャナ装置8が光学的に読み取り可能にするために、光学的に透明な材料(例えばアクリル板やガラス板など)で形成される。
The
Specifically, the
スキャナ装置8の筐体22の内部には、スキャナヘッド25と、搬送機構26と、スキャナ制御部27と、が設けられる。
スキャナヘッド25は、CCDやCMOSセンサなどの光学的読取素子25Aが直線状に配列されて構成されたラインヘッドであり、搬送機構26は、読取面24の下方で当該読取面24に平行にスキャナヘッド25を移動させる機構である。スキャナ制御部27は、スキャナヘッド25、及び搬送機構26などの各部を制御する装置であり、CPUやMPUなどのプロセッサ、RAMやROMなどのメモリデバイス、及び、外部機器(例えば制御コンピュータ6)とデータを送受する接続インターフェースなどを備えたコンピュータを有する。
A
The
スキャナ制御部27は、搬送機構26を制御してスキャナヘッド25を読取面24の下方を移動させ、この移動の間、スキャナヘッド25の個々の光学的読取素子25A的に検出した検出信号を所定周期で取り込む。そしてスキャナ制御部27は、スキャナヘッド25が読取面24の全面に亘って移動した際に得られた検出信号に基づいて読取画像Mを生成し、制御コンピュータ6に出力する。
スキャナ制御部27は、スキャナヘッド25による読取面24の光学的読取動作を、制御コンピュータ6の要求にしたがって、或いは、周期的又は非周期の所定のタイミングで実行し、その都度、制御コンピュータ6に出力する。
The
The
本実施形態のスキャナ装置8は、スキャナヘッド25が、いわゆる「CIS方式」ではなく「CCD方式」で構成されている。「CCD方式」では、読取面24に白色の光が当てられ、スキャナヘッド25には、白色の光の照射によって反射してきた光を光学的読取素子25Aに結像させるミラー、及びレンズを有した光学系25Bが設けられる。この光学系25Bのレンズに、一般的なカメラなどでも使われるレンズと同等の特性を有したレンズを使うことで、深い被写界深度が得られる。このため、トレー10の中の対象物Pに厚みがある場合でも対象物Pのボケを抑え、その輪郭がクリアに写った読取画像Mが得られることとなる。
In the
図2は、制御コンピュータ6の機能的構成を示す図である。
制御コンピュータ6は、スキャナ装置8の読取画像Mに基づいて、トレー10内の対象物Pを認識し、ロボット2を制御することで、これらの中から1つの対象物Pをトレー10から取り出させ(ピックアップさせ)、目的の作業位置に所定の姿勢で対象物Pを配置させる制御装置である。
FIG. 2 is a diagram showing a functional configuration of the
The
制御コンピュータ6は、CPUやMPUなどのプロセッサと、ROMやRAMなどのメモリデバイスと、HDDやSSDなどのストレージ装置と、各種の周辺機器(ディスプレイや入力装置、スキャナ装置8など)を接続するインターフェース装置と、を備え、プロセッサがメモリデバイス又はストレージ装置に記憶されているプログラムを実行することで、図2に示す各種の機能を実現する。このプログラムは、例えばCDやDVD、半導体メモリデバイスなどのコンピュータ読取可能な記録媒体に記録し、或いは、インターネットなどの電気通信回線を通じて配布等できる。
なお、図2に示す機能の一部を、別のコンピュータが実行してもよい。また図2に示す機能の一部又は全部がASICやシステムLSI、SoC(system on a chip)などの半導体集積型の電子回路によってハードウェア的に実現されてもよい。
The
Note that another computer may execute part of the functions shown in FIG. Further, some or all of the functions shown in FIG. 2 may be realized by hardware by a semiconductor integrated electronic circuit such as an ASIC, a system LSI, and a SoC (system on a chip).
図2に示すように、制御コンピュータ6は、画像処理部30と、ロボット制御部32と、を備える。
画像処理部30は、スキャナ装置8の読取画像Mに基づいて、トレー10における各対象物Pの位置、及び姿勢を特定する。ロボット制御部32は、画像処理部30による対象物Pの特定結果に基づいて、これらの中から1つの対象物Pをロボット2にピックアップさせ作業位置に所定の姿勢で対象物Pを配置させる制御信号Kを生成し、ロボットコントローラ4に出力する。そして、ロボットコントローラ4が制御信号Kにしたがってロボット2を制御することで、対象物Pのピックアップ動作が行われる。
As shown in FIG. 2, the
The
画像処理部30の機能的構成について更に詳述する。
画像処理部30は、画像取得部40と、対象物特定部42と、ピックアップ対象情報出力部44と、を備える。
画像取得部40は、上記インターフェースを通じてスキャナ装置8の読取画像Mを取得し、対象物特定部42に入力する。
The functional configuration of the
The
The
対象物特定部42は、読取画像Mに写っている各対象物Pの位置、及び姿勢を特定し、ピックアップ対象情報出力部44に出力する。本実施形態では、トレー10には、図3に示すように、複数の対象物Pが平面視において互いに重なることなくランダムな方向を向いた状態(いわゆる、バラ置き状態)で置かれている。そして対象物Pに設定した所定ポイントの位置Qを対象物Pの位置とし、また対象物Pの基準姿勢Rに対する対象物Pの角度θを対象物Pの姿勢としている。この場合において、所定ポイントには、例えばロボット2がピックアップの際に把持する箇所を設定してもよい。なお、対象物Pの位置Qと姿勢の設定は、あくまでも例示である。例えば対象物Pを包囲する所定形状(例えば矩形)の最小の領域が存在する箇所を対象物Pの位置に設定してもよい。
The
本実施形態では、上述の通り、「CCD方式」のスキャナ装置8が用いられているため、対象物Pが厚みを有する場合でも、対象物Pの輪郭がクリアに写った読取画像Mが得られているので、対象物特定部42は、この読取画像Mに基づいて、対象物Pの位置Q、及び角度θ(姿勢)の誤差を抑えて精度良く求めることができる。
In the present embodiment, as described above, since the “CCD type”
ここで、対象物特定部42が読取画像Mから対象物Pを特定する手法には、読取画像Mに写った物体を対象物Pと見做す各種の条件を記述した判定プログラム(いわゆる、ルールベースプログラム)を用いることができる。この種の判定プログラムとしては、例えば、読取画像Mに写った物体の輪郭と対象物Pの輪郭との一致度を条件に用いて読取画像Mから対象物Pを特定するプログラムなどが考え得る。
ただし、トレー10には多数の対象物Pがランダムな姿勢で存在するため、判定プログラムでは、各姿勢に対応可能に一致度の条件を設定する必要がある。また複数の対象物Pが接触し合って1つの大きな塊の物体として読取画像Mに写ることがあり、このような場合でも当該物体から個々の対象物Pを特定可能にする判定条件を記述したプログラムを作成することは非常に労力が要るものとなる。
Here, in the method for the
However, since a large number of objects P are present in the
そこで本実施形態では、対象物特定部42は、従前のルールベースプログラムを用いて対象物Pを特定するのではなく、人工知能の機械学習技術を用いて対象物Pを特定している。
具体的には、対象物特定部42は、読取画像Mの入力に対し、読取画像Mに写っている対象物Pごとに位置Q及び角度θ(姿勢)を出力する物体認識学習済モデル48を備える。物体認識学習済モデル48は、ディープラーニング(深層学習)を用いた機械学習によって得られた学習済モデルである。すなわち、未学習状態のニュールネットワークモデルを有した学習前モデルに、不定個数の対象物Pがバラ置きされている多数の読取画像Mを入力データとして与え、読取画像Mに写っている対象物Pごとに位置Q及び角度θを出力するように当該学習前モデルを、物体認識アルゴリズムを用いたディープラーニングにより機械学習させることで、物体認識学習済モデル48が得られている。かかる物体認識アルゴリズムには、Faster R―CNN(R−CNN:Regions with CNN features)、或いは、SSD(Single Shot MultiBox Detector)が用いられており、対象物Pが高精度に特定(認識)されるようになっている。
Therefore, in the present embodiment, the target
Specifically, the target
ピックアップ対象情報出力部44は、対象物特定部42によって特定された対象物Pの中から1つを選択し、ターゲットの対象物Ptの位置Qt、及び角度θtをロボット制御部32に出力する。ターゲットの対象物Ptの選択基準は適宜に設定できる。
The pickup target
ロボット制御部32は、ピックアップ対象情報出力部44からターゲットの対象物Ptの位置Qt、及び角度θtが入力された場合、ロボット2に当該位置Qtで当該角度θtに応じた方向からターゲットの対象物Ptを把持させ、当該対象物Ptをトレー10から取り出させ、上記作業位置に所定の姿勢で配置させるための(すなわち、対象物Pのピッキング動作のための)制御信号Kを生成し、ロボットコントローラ4に出力する。この制御信号Kの生成手法については公知の適宜の技術を利用できる。
When the position Qt of the target object Pt and the angle θt are input from the pickup target
図4は、部品ピッキングシステム1のピッキング動作を示すフローチャートである。
制御コンピュータ6では、先ず、画像取得部40がスキャナ装置8の読取画像Mを取得し(ステップS1)、この読取画像Mを対象物特定部42が読取画像Mを物体認識学習済モデル48に入力することで、読取画像Mに写っている各対象物Pの位置Q、及び角度θ(姿勢)を取得する。これにより、各対象物Pの位置Q、及び角度θが検出される(ステップS2)。次いで、ピックアップ対象情報出力部44は、各対象物Pのいずれか1つをターゲットに選択し、ターゲットの対象物Ptの位置Qt、及び角度θtをロボット制御部32に出力する(ステップS3)。ロボット制御部32は、ターゲットの対象物Ptの位置Qt、及び角度θtに基づいて、当該対象物Ptのピッキング動作のための制御信号Kを生成して、ロボットコントローラ4に出力する(ステップS4)。ロボットコントローラ4が当該制御信号Kにしたがってロボット2を駆動することで(ステップS5)、ターゲットの対象物Ptがロボット2によってトレー10から取り出され、目的の作業位置に所定の姿勢で配置される。
そして制御コンピュータ6は、かかるピッキング動作を順次繰り返し実行し、トレー10の中の対象物Pを目的の作業位置に順次配置する。
FIG. 4 is a flowchart showing the picking operation of the
In the
Then, the
ここで、読取画像Mは、スキャナ装置8の読取面24の直下からトレー10内を光学的に読み取って得られた画像であるので、読取面24のXY平面座標(図3)の値が、そのまま読取画像Mの各画素の位置を示している。また各対象物PのZ軸方向(読取面24に垂直な高さ方向)の位置は、読取面24のZ軸座標(図1)の値(例えばZ=0)に、トレー10の底面10Aの厚み(固定値)を加えた値で求められる。各対象物Pが重なるなどして底面10Aから浮いていない場合には、各対象物PのZ軸座標の値は固定値となる。
したがって、読取画像Mにおいて対象物Pが写っている画素の位置から、読取面24を基準としたXYZ3次元空間における対象物Pの座標値が簡単に特定される。これにより、ロボット2の位置制御に用いる座標空間を、読取面24を基準としたXYZ3次元空間と対応させることで、上記ステップS4において、ロボット制御部32が制御信号Kを生成する際に、ロボット2に対し、簡単かつ正確に、対象物Pの位置を指示できる。
Here, since the read image M is an image obtained by optically reading the inside of the
Therefore, the coordinate value of the object P in the XYZ three-dimensional space with the reading
上述した実施形態によれば、次の効果を奏する。 According to the above-mentioned embodiment, the following effects are produced.
本実施形態の部品ピッキングシステム1は、読取面24に載置されたトレー10の中を光学的に読み取り読取画像Mを出力するスキャナ装置8、を備え、対象物特定部42は、読取画像Mに基づいて対象物Pの位置Q、及び角度θ(姿勢)を特定する。
これにより、従前のように3Dカメラを用いる必要がないため、安価なピッキングシステムが得られる。
また、スキャナ装置8の読取面24を基準とした3次元空間座標を用いて対象物Pの位置Q、及び角度θを表せるので、この3次元空間座標の値を用いて、簡単かつ正確にロボット2に位置を指示できる。
The
This makes it possible to obtain an inexpensive picking system because it is not necessary to use a 3D camera as before.
Further, since the position Q and the angle θ of the object P can be expressed using the three-dimensional space coordinates with the reading
本実施形態の部品ピッキングシステム1では、スキャナ装置8が光学的な読み取りをCCD方式により行う装置なので、対象物Pに厚みがある場合でも、ボケのない鮮明な読取画像Mが得られる。これにより、各対象物Pの位置Q、及び角度θを正確に求めることができる。
In the
本実施形態の部品ピッキングシステム1では、対象物特定部42は、物体認識アルゴリズムを用いたディープラーニングによって機械学習された物体認識学習済モデル48を備え、この物体認識学習済モデル48が読取画像Mの入力に応じて、当該読取画像Mに写っている対象物Pの位置Q、及び角度θ(姿勢)を出力する。
これにより、ランダムな姿勢で存在する対象物Pを読取画像Mに基づいて特定するための複雑なプログラムを準備せずとも、各対象物Pの位置Q、及び角度θ(姿勢)を得ることができる。
In the
Accordingly, the position Q and the angle θ (posture) of each object P can be obtained without preparing a complicated program for specifying the object P existing in a random attitude based on the read image M. it can.
本実施形態の部品ピッキングシステム1では、ディープラーニングに用いる物体認識アルゴリズムには、Faster R−CNN、またはSSDが用いられているので、読取画像Mに写った対象物Pを正確、かつ高速に特定できる。
In the
上述した実施形態は、あくまでも本発明の一態様を例示したものであって、本発明の趣旨を逸脱しない範囲において任意に変形、及び応用が可能である。 The above-described embodiment is merely an example of one aspect of the present invention, and can be arbitrarily modified and applied without departing from the spirit of the present invention.
上述した実施形態において、読取画像Mに基づいて特定される対象物Pの数が少ない場合、すなわち、トレー10の中の対象物Pの残存数と、対象物特定部42によって特定された対象物Pの数との差が所定数を超えている場合、トレー10の中の対象物Pを動かす装置を別途に設けてもよい。
対象物Pが動かされることで、例えば対象物P同士の重なりや、接触状態が解消され、各対象物Pが特定され易くなる。この場合において、読取面24とトレー10との位置ズレを防止するために、対象物Pを動かす装置は、例えばトレー10の中をかき混ぜたり、圧縮空気を吹き付けるなどして、トレー10を動かさずに対象物Pのみを動かす装置であることが好ましい。
In the above-described embodiment, when the number of the objects P specified based on the read image M is small, that is, the remaining number of the objects P in the
By moving the objects P, for example, the overlapping of the objects P and the contact state are eliminated, and each object P is easily identified. In this case, in order to prevent the positional deviation between the reading
また例えば、上述した実施形態において、この物体認識学習済モデル48が、互いに重なった対象物Pが写った読取画像Mから各対象物Pの位置Q、及び角度θ(姿勢)を出力するように学習されていてもよい。
これにより、対象物Pが重なっていても、各対象物Pの位置Q、及び角度θ(姿勢)を得ることができる。
Further, for example, in the above-described embodiment, the object recognition learned
Thereby, even if the objects P overlap, the position Q and the angle θ (posture) of each object P can be obtained.
また例えば、上述した実施形態において、インターネットなどの電子通信回線を通じて制御コンピュータ6と通信可能に接続されたコンピュータ(例えばクラウドサーバ)に、対象物特定部42の機能を実行させる構成であってもよい。
Further, for example, in the above-described embodiment, it may be configured to cause a computer (for example, a cloud server) communicatively connected to the
1 ピッキングシステム(ピッキングシステム)
2 ロボット
4 ロボットコントローラ
6 制御コンピュータ
8 スキャナ装置
10 トレー(容器)
24 読取面
25 スキャナヘッド
30 画像処理部
32 ロボット制御部
42 対象物特定部
48 物体認識学習済モデル
K 制御信号
M 読取画像
P、Pt 対象物
Q、Qt 位置
θ、θt 角度(姿勢)
1 Picking system (picking system)
2 robot 4
24
Claims (5)
前記容器の中の対象物が写った画像に基づいて、前記対象物の位置、及び姿勢を特定する対象物特定部と、
前記対象物の位置、及び姿勢に基づいて、前記ロボットに前記対象物を取り出す動作をさせる制御信号を生成するロボット制御部と、
読取面に載置された前記容器の中を光学的に読み取り読取画像を出力するスキャナ装置と、を備え、
前記対象物特定部は、前記読取画像に基づいて前記対象物の位置、及び姿勢を特定する
ことを特徴とするピッキングシステム。 A robot that takes out the target object from a container containing the target object,
Based on the image of the object in the container, the position of the object, and an object specifying unit for specifying the posture,
A robot control unit that generates a control signal that causes the robot to take out the target object based on the position and orientation of the target object;
A scanner device that optically reads the inside of the container placed on the reading surface and outputs a read image,
The picking system, wherein the object specifying unit specifies a position and a posture of the object based on the read image.
物体認識アルゴリズムを用いたディープラーニングによって機械学習された学習済モデルを備え、
前記学習済モデルは、前記読取画像の入力に応じて、当該読取画像に写っている対象物の位置、及び姿勢を出力する
ことを特徴とする請求項1または2に記載のピッキングシステム。 The object specifying unit,
Equipped with a trained model machine-learned by deep learning using an object recognition algorithm,
The picking system according to claim 1 or 2, wherein the learned model outputs the position and orientation of an object shown in the read image in response to the input of the read image.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019001394A JP2020110851A (en) | 2019-01-08 | 2019-01-08 | Picking system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019001394A JP2020110851A (en) | 2019-01-08 | 2019-01-08 | Picking system |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2020110851A true JP2020110851A (en) | 2020-07-27 |
Family
ID=71667822
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019001394A Pending JP2020110851A (en) | 2019-01-08 | 2019-01-08 | Picking system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2020110851A (en) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001300877A (en) * | 2000-04-19 | 2001-10-30 | Daihatsu Motor Co Ltd | Method for detecting completion of taking-out of bulk work in pallet |
JP2010207989A (en) * | 2009-03-11 | 2010-09-24 | Honda Motor Co Ltd | Holding system of object and method of detecting interference in the same system |
JP2012135820A (en) * | 2010-12-24 | 2012-07-19 | Ihi Corp | Automatic picking device and automatic picking method |
JP2018128897A (en) * | 2017-02-09 | 2018-08-16 | 国立大学法人名古屋大学 | Detection method and detection program for detecting attitude and the like of object |
US20180250810A1 (en) * | 2015-09-17 | 2018-09-06 | Abb Schweiz Ag | Component Feeder And A System For Picking Components Comprising The Component Feeder |
-
2019
- 2019-01-08 JP JP2019001394A patent/JP2020110851A/en active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001300877A (en) * | 2000-04-19 | 2001-10-30 | Daihatsu Motor Co Ltd | Method for detecting completion of taking-out of bulk work in pallet |
JP2010207989A (en) * | 2009-03-11 | 2010-09-24 | Honda Motor Co Ltd | Holding system of object and method of detecting interference in the same system |
JP2012135820A (en) * | 2010-12-24 | 2012-07-19 | Ihi Corp | Automatic picking device and automatic picking method |
US20180250810A1 (en) * | 2015-09-17 | 2018-09-06 | Abb Schweiz Ag | Component Feeder And A System For Picking Components Comprising The Component Feeder |
JP2018128897A (en) * | 2017-02-09 | 2018-08-16 | 国立大学法人名古屋大学 | Detection method and detection program for detecting attitude and the like of object |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106945035B (en) | Robot control apparatus, robot system, and control method for robot control apparatus | |
US11117262B2 (en) | Intelligent robots | |
JP6878781B2 (en) | Inspection system | |
CN108965690B (en) | Image processing system, image processing apparatus, and computer-readable storage medium | |
JP2018176334A (en) | Information processing device, measurement device, system, interference determination method and article manufacturing method | |
JP7253731B2 (en) | Recognition method, recognition system, robot control method, robot control system, robot system, recognition program, and robot control program | |
JP2012002761A (en) | Position attitude measurement instrument, processing method thereof, and program | |
JP2012101320A (en) | Image generation apparatus, image generation method and program | |
US11590657B2 (en) | Image processing device, control method thereof, and program storage medium | |
CN108025432A (en) | Component feeder and the system for pick-up part including component feeder | |
JP2022160363A (en) | Robot system, control method, image processing apparatus, image processing method, method of manufacturing products, program, and recording medium | |
JP2021033712A (en) | Image processing device, imaging apparatus, robot and robot system | |
JP2020110851A (en) | Picking system | |
CN110596115B (en) | Image inspection system and control method thereof | |
JP6337445B2 (en) | Robot, processing apparatus, and inspection method | |
JP2020071034A (en) | Three-dimensional measurement method, three-dimensional measurement device, and robot system | |
Lin et al. | Image-sensor-based fast industrial-robot positioning system for assembly implementation | |
JP2018017610A (en) | Three-dimensional measuring device, robot, robot controlling device, and robot system | |
JP2018077089A (en) | Recognition device, determination method, and article manufacturing method | |
JP2021074799A (en) | Control device, its control method, and control system | |
CN110271001A (en) | Robot recognition methods, control method, device, storage medium and main control device | |
US20230364798A1 (en) | Information processing method, image processing method, robot control method, product manufacturing method, information processing apparatus, image processing apparatus, robot system, and recording medium | |
TW202021754A (en) | Automatic positioning method and automatic control apparatus | |
TWI734237B (en) | Automatic control method and automatic control device | |
CN115194751A (en) | Robot system, control method, image processing apparatus and method, and product manufacturing method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210525 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220328 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220419 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220606 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221018 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20230418 |