JP2015114292A - ワークの位置情報特定装置および方法 - Google Patents
ワークの位置情報特定装置および方法 Download PDFInfo
- Publication number
- JP2015114292A JP2015114292A JP2013258772A JP2013258772A JP2015114292A JP 2015114292 A JP2015114292 A JP 2015114292A JP 2013258772 A JP2013258772 A JP 2013258772A JP 2013258772 A JP2013258772 A JP 2013258772A JP 2015114292 A JP2015114292 A JP 2015114292A
- Authority
- JP
- Japan
- Prior art keywords
- image
- workpiece
- position information
- camera
- work
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Length Measuring Devices By Optical Means (AREA)
- Image Analysis (AREA)
Abstract
【課題】ワークの位置情報を高精度に特定することができるワークの位置情報特定装置および方法を提供する。【解決手段】ワーク配置領域A1の上方に設置されたカメラ10と撮像物との間の距離に応じた明度を有する第1画像を生成する第1撮像システム11から第1画像を取得する第1画像取得部14と、カメラ10における撮像物からの受光光量に応じた明度を有する第2画像を生成する第2撮像システム12から第2画像を取得する第2画像取得部15と、第1画像と第2画像とを合成し、第2画像から第1画像における所定のしきい値以下の距離にある領域に対応する領域を抽出してなる第3画像を生成する第3画像生成部16と、記憶部13からワークWの上面形状のデータを読み出し、当該データにおけるワークWの上面形状を第3画像にマッチングさせるパターンマッチング処理を行って、ワークWの位置情報を特定するマッチング処理部17と、を備える。【選択図】図1
Description
本発明は、所定のワーク配置領域に配置されたワークの位置情報を特定するためのワークの位置情報特定装置および方法に関する。
パレット上に段ボールで梱包された商品などのワークを積載しておき、当該積載されたワークを多軸のロボットにより1つずつ取り出す自動化工程においては、複数段に積層されたワークのうち、取り出すべきワーク(例えば最上段のワーク)の位置情報(ワーク単体の位置および姿勢)を特定することが重要である。このように、ワークの位置情報を特定するための方法として、例えばワークと測定装置との距離を把握するために距離画像を撮像する態様が知られている(例えば特許文献1等参照)。また、カメラの受光光量に応じた濃淡画像を用いてワークの位置情報を特定する態様も知られている(例えば特許文献2等参照)。
しかし、距離画像を撮像する態様は、複数のワークの上面が平面で同じ高さである場合、複数のワーク間の境界線があいまいになり易い。これに対し、濃淡画像を用いる態様は、境界線が明確に撮像される。しかし、ワークの表面に商品説明などの印刷がある場合には、このような印刷が濃淡画像に含まれてしまうため、印刷によるノイズを境界線と誤認識してしまうおそれがある。
本発明は、以上のような課題を解決すべくなされたものであり、ワークの位置情報を高精度に特定することができるワークの位置情報特定装置および方法を提供することを目的とする。
本発明の一態様に係るワークの位置情報特定装置は、平面視において略多角形の形状かつ上面が平面状である1以上のワークが所定のワーク配置領域に配置された状態における前記ワークの位置情報を特定するためのワークの位置情報特定装置であって、前記ワークの上面形状のデータを記憶する記憶部と、前記ワーク配置領域の上方に設置されたカメラを用いて前記ワーク配置領域にある物を撮像した画像であって撮像された物(以下、撮像物)が当該カメラと当該撮像物との間の距離に応じた明度を有する第1画像を生成する第1撮像システムと、前記ワーク配置領域の上方に設置されたカメラによって前記ワーク配置領域にある物を撮像した画像であって前記撮像物が当該カメラにおける当該撮像物からの受光光量に応じた明度を有する第2画像を生成する第2撮像システムと、前記第1撮像システムから前記第1画像を取得する第1画像取得部と、前記第2撮像システムから前記第2画像を取得する第2画像取得部と、前記第1画像と前記第2画像とを合成し、前記第2画像から前記第1画像における所定のしきい値以下の距離にある領域に対応する領域を抽出してなる第3画像を生成する第3画像生成部と、前記記憶部から前記ワークの上面形状のデータを読み出し、当該データにおける前記ワークの上面形状を前記第3画像にマッチングさせるパターンマッチング処理を行って、前記ワークの位置情報を特定するマッチング処理部と、を備えたものである。
上記構成によれば、距離情報を含む第1画像をフィルタとして用いて第2画像から所定のしきい値以下の距離にある領域を抽出することにより、第3画像が生成される。当該第3画像に基づいてパターンマッチング処理を行うことにより、印刷等によるノイズの影響を低減させることができる。したがって、ワークの位置情報を高精度に特定することができる。
前記第1撮像システムは、レーザスリット光を走査しながら前記ワーク配置領域に照射する照射部と、当該照射部から離間して前記ワーク配置領域の上方に配置された前記カメラと、当該カメラにおける前記ワーク配置領域にある物により反射された前記レーザスリット光の受光位置に基づいて前記第1画像を生成する第1画像生成部と、を備えてもよい。これにより、距離情報を含む第1画像を高精度に取得できる。
前記第1撮像システムのカメラは、前記第2撮像システムのカメラとして用いられるように構成されてもよい。これにより、システムを簡単な構成で実現できる。
前記第3画像生成部は、前記第1画像を前記しきい値以下か否かに基づいて2値化し、前記第2画像を当該2値化された第1画像でフィルタリングすることにより第3画像を生成してもよい。第1画像を2値化することにより、所定のしきい値以下の距離にある領域を簡単かつ明確に抽出することができる。
前記マッチング処理部は、前記パターンマッチング処理を行う前に、前記第3画像生成部で生成された前記第3画像を二値化し、当該二値化された画像を収縮および膨張させるオープニング処理を行い、前記二値化された画像から前記オープニング処理後の画像を差し引くことで前記第3画像の角部を抽出する角部抽出処理を行ってもよい。これにより、パターンマッチング処理を行い易くすることができる。
前記マッチング処理部は、前記パターンマッチング処理を行う前に、前記第3画像の角部を抽出する角部抽出処理と、前記第3画像の角部と、前記ワークの上面形状のデータに基づく仮想ワークの角部とを位置合わせする位置合わせ処理と、前記位置合わせ処理において、前記第3画像の1つの角部において前記仮想ワークの配置方向が異なる複数の位置情報が存在する場合、前記第3画像において当該複数の位置情報が重複する前記仮想ワークの領域をぼかして第4画像を生成するぼかし処理とを行ってもよい。これにより、位置情報を特定すべきワークの上面の印刷によるノイズを少なくすることができ、特定精度をより高くすることができる。
また、本発明の他の態様に係るワークの位置情報特定方法は、平面視において略多角形の形状かつ上面が平面状である1以上のワークが所定のワーク配置領域に配置された状態における前記ワークの位置情報を特定するためのワークの位置情報特定方法であって、前記ワーク配置領域の上方に設置されたカメラを用いて前記ワーク配置領域にある物を撮像した画像であって撮像された物(以下、撮像物)が当該カメラと当該撮像物との間の距離に応じた明度を有する第1画像を生成し、前記ワーク配置領域の上方に設置されたカメラによって前記ワーク配置領域にある物を撮像した画像であって前記撮像物が当該カメラにおける当該撮像物からの受光光量に応じた明度を有する第2画像を生成し、前記第1画像と前記第2画像とを合成し、前記第2画像から前記第1画像における所定のしきい値以下の距離にある領域に対応する領域を抽出してなる第3画像を生成し、前記記憶部から前記ワークの上面形状のデータを読み出し、当該データにおける前記ワークの上面形状を前記第3画像にマッチングさせるパターンマッチング処理を行って、前記ワークの位置情報を特定するものである。
上記方法によれば、距離情報を含む第1画像をフィルタとして用いて第2画像から所定のしきい値以下の距離にある領域を抽出することにより、第3画像が生成される。当該第3画像に基づいてパターンマッチング処理を行うことにより、印刷等によるノイズの影響を低減させることができる。したがって、ワークの位置情報を高精度に特定することができる。
本発明は以上に説明したように構成され、ワークの位置情報を高精度に特定することができるという効果を奏する。
以下、本発明の実施の形態を、図面を参照しながら説明する。なお、以下では全ての図を通じて同一又は相当する要素には同一の参照符号を付して、その重複する説明を省略する。
図1は本発明の一実施形態に係るワークの位置情報特定装置が適用されたロボット制御システムの概略構成を示す図である。図1に示すように、本実施形態のロボット制御システム1は、所定のワーク配置領域(以下、第1のワーク配置領域)A1に配置された1以上のワークWから1つのワークWを取り出し、第1のワーク配置領域A1とは異なる第2のワーク配置領域A2に載置するロボット2と、ロボット2を制御するロボットコントローラ3とを備えている。ロボット2は、基部と先端部との間に複数の可動軸が設けられる。ロボット2の先端部には、ワークWを把持するハンドツール2aが設けられる。
ワークWは、平面視において略多角形の形状かつ平面状の上面を有している。例えば、ワークWは、直方体状、立方体状、多角柱の形状を有している。具体的には、ワークWは、例えば缶ビール等を梱包する段ボールケース等の箱体である。なお、本明細書において、多角形とは三角形、四角形、五角形等、頂点が3つ以上の形状を含む。また、多角形の形状には、角部に曲線形状が形成された形状(アールが存在する形状)も含まれる。直方体状および立方体状についても同様である。
本実施形態において、第1のワーク配置領域A1は、第1の搬送装置5の搬送経路の終端部上に設定される。なお、第1の搬送装置5の搬送経路の途中に第1のワーク配置領域A1を設定してもよい。第1の搬送装置5は、例えばベルトコンベア等で構成される。第1の搬送装置5上には、パレット4が載置され、パレット4上に複数のワークWが積み重ねられるように配置される。また、平面視においては、パレット4上に複数のワークWが所定のパターンで配置される。つまり、平面視において、パレット4上の複数のワークWは、複数の姿勢で配置される。第1のワーク配置領域A1は、パレット4が第1の搬送装置5の所定位置(例えば終端部)に位置したときのパレット4の表面内として定義される。
本実施形態において、第2のワーク配置領域A2は、第2の搬送装置6の搬送経路の始端部上に設定される。なお、第2搬送装置6の搬送経路の途中に第2のワーク配置領域A2を設定してもよい。第2の搬送装置6は、例えばベルトコンベア等で構成される。ロボット2は、取り出したワークWを1つずつ第2の搬送装置6上に設定された第2のワーク配置領域A2に載置し、第2の搬送装置6が載置されたワークWを搬送する。
以上のように、ロボット2は、第1のワーク配置領域A1に複数の平面位置、複数の姿勢(ワークWの平面視における長手方向の向き)、複数の高さ(上面位置)等の位置情報を有し得るワークWを1つずつ認識してハンドツール2aにより把持する必要がある。
このために、ロボット制御システム1は、ワークWの位置情報を特定するための位置情報特定装置7を備えている。位置情報特定装置7は、第1のワーク配置領域A1の上方に設置され、第1のワーク配置領域A1の平面視における画像を生成するための撮像システム8と、撮像システム8で生成された画像に基づいてワークWの位置情報を特定する処理装置9とを備えている。
撮像システム8は、第1撮像システム11と、第2撮像システム12とを備えている。第1撮像システム11は、第1のワーク配置領域A1の上方に設置されたカメラ10を用いて第1のワーク配置領域A1にある物を撮像した画像であって撮像された物(以下、撮像物)が当該カメラ10と当該撮像物との間の距離に応じた明度を有する第1画像を生成するよう構成される。第2撮像システム12は、第1のワーク配置領域A1の上方に設置されたカメラ10によって第1のワーク配置領域A1にある物を撮像した画像であって撮像物が当該カメラ10における当該撮像物からの受光光量に応じた明度を有する第2画像を生成するよう構成される。なお、第1画像および第2画像は、カメラ10の視野内にある物(被写体および背景)を撮像(take out)した画像(picture)を意味する。
処理装置9は、例えばパーソナルコンピュータおよびマイクロコントローラ等のコンピュータであり、各種情報を記憶するハードディスクまたは外部記憶装置等の記憶装置と、各種演算を行うCPU等の演算装置とを備えている。なお、図1において、処理装置9は、ロボットコントローラ3とは別のコンピュータとして例示されているが、ロボットコントローラ3内のマイクロコントローラが処理装置9として機能するように構成されてもよい。
処理装置9は、ワークWの位置情報を特定するために、記憶部13、第1画像取得部14、第2画像取得部15、第3画像生成部16、およびマッチング処理部17として機能する。これらの機能は、ソフトウェアモジュールとして構成されてもよいし、ハードウェアモジュールとして構成されてもよい。
記憶部13は、ワークWの上面形状のデータを記憶する。ワークWの上面形状のデータは、予め処理装置9に入力される。第1画像取得部14は、第1撮像システム11から第1画像を取得する。第2画像取得部15は、第2撮像システム11から第2画像を取得する。第3画像生成部16は、第1画像と第2画像とを合成し、第2画像から第1画像における所定のしきい値以下の距離にある領域に対応する領域を抽出してなる第3画像を生成する。マッチング処理部17は、記憶部13からワークWの上面形状のデータを読み出し、当該データにおけるワークWの上面形状を第3画像にマッチングさせるパターンマッチング処理を行って、ワークWの位置情報を特定する。
このような構成によれば、距離情報を含む第1画像をフィルタとして用いて第1のワーク配置領域A1において撮像された撮像物についての第2画像から所定のしきい値以下の距離にある領域を抽出することにより、第3画像が生成される。当該第3画像に基づいてパターンマッチング処理を行うことにより、印刷等によるノイズの影響を低減させることができる。したがって、ワークの位置情報を高精度に特定することができる。
以下、具体的に説明する。
まず、第1撮像システム11について説明する。第1撮像システム11は、レーザスリット光を走査しながら第1のワーク配置領域A1に照射する照射部18と、当該照射部18から離間して第1のワーク配置領域A1の上方に配置されたカメラ10と、当該カメラ10における第1のワーク配置領域A1にある物により反射されたレーザスリット光の受光位置に基づいて第1画像を生成する第1画像生成部として機能するマイクロコントローラ等の画像処理部19と、を備えている。第1撮像システム11は、例えばレーザスリットスキャン(LSC)装置が適用される。
第1撮像システム11は、照射部18からレーザスリット光を第1のワーク配置領域A1に照射し、その反射光をカメラ10で受光する。第1撮像システム11は、照射部18とカメラ10との間の長さ、レーザスリット光の照射角、および、カメラ10のイメージセンサ面に入射された反射光の位置に基づく反射光の入射角から三角測距を行い、カメラ10と当該撮像物との間の距離を算出する。そして、第1撮像システム11は、算出された距離に応じた明度を有する第1画像を生成する。このようにして、距離情報を含む第1画像を高精度に取得できる。
また、第1撮像システム11のカメラ10は、第2撮像システム12のカメラとしても用いられる。これにより、システムを簡単な構成で実現できる。本実施形態における第2撮像システム12は、第1のワーク配置領域A1にある物を撮像するカメラ10と、カメラ10によって撮像された撮像物からの受光光量に応じた明度(または濃度といってもよい)を有する第2画像を生成する画像処理部19と、を備えている。さらに、第2撮像システム12は、カメラ10による撮像の際に第1のワーク配置領域A1を照らす照明部20を備えている。例えば、照明部20は、第1のワーク配置領域A1を過不足なく照らすような構成であれば特に限定されないが、例えば、複数のLED光源が平面内に配列された平面照明器具として構成されてもよい。また、照明器具を複数用いて、複数の照明器具を互いに異なる角度から光を照射可能なように配置してもよい。
以下、上記ロボット制御システムを用いたワークWの位置情報特定方法についてより詳しく説明する。図2は図1に示すワークの位置情報特定装置を用いた位置情報特定方法を示すフローチャートである。また、図3Aは図1に示すワークの位置情報特定装置により得られた第1画像を示す図であり、図3Bは図1に示すワークの位置情報特定装置により得られた第2画像を示す図であり、図3Cは図1に示すワークの位置情報特定装置により得られた第3画像を示す図である。図3A〜図3Cには、第1のワーク配置領域A1に同じ形状(直方体形状)を有する4つのワークW(段ボール箱)が配置されている。図3A〜図3Cの例において、4つのワークWの上面位置はすべて等しいとする。なお、ワークWの上面には、図3Bに示すように、テープが、幅方向中央部において長手方向に平行に貼り付けられるとともに、長手方向両端部において幅方向に平行に貼り付けられている。また、ワークWの上面には文字や図柄などが印刷されている場合もある。
まず、前述したように、第1画像取得部14は、第1撮像システム11により生成された第1画像を取得する(ステップS1)。取得された第1画像は、記憶部13に記憶される。図3Aに示すように、第1画像は、第1撮像システム11のカメラ10からの距離に応じた明度を有する。具体的には、第1画像は、所定距離以下に存在する物は、明るく(淡く)、所定距離(しきい値)より遠くに存在する物は、暗い(濃い)画像となる。図3Aに示す例では、4つのワークWの上面が明るい画像となっている。言い換えると、第1のワーク配置領域A1に配置されたワークWのうち、カメラ10からの距離が最も近い(最上段の)ワークWの上面位置または当該上面位置より所定距離遠い位置がしきい値として設定される。なお、第1画像は、図3Aに示すように、撮像物がしきい値以下の距離にあるか否かで2値化した画像として生成されてもよいし、距離に応じて複数の階調を有する画像として生成されてもよい。第1画像には、ワークWに貼られたテープや印刷物による影響はないが、隣り合うワークW同士の境界線が分かり難い。
続いて、第2画像取得部15は、第2撮像システム12により生成された第2画像を取得する(ステップS2)。取得した第2画像は、記憶部13に記憶される。図3Bに示すように、第2画像は、第2撮像システム12のカメラ10により撮像された撮像物からの受光光量に応じた明度を有する。このため、第2画像は、ワークWに貼られたテープや印刷物により明るさが異なる。また、第1のワーク配置領域A1に配置された最上段のワークW以外のワークWまたはその他の物も第2画像に含まれる。
そこで、第3画像生成部16は、第1画像と第2画像とを合成し、第2画像から第1画像におけるしきい値以下の距離にある領域に対応する領域を抽出してなる第3画像を生成する(ステップS3)。具体的には、第3画像生成部16は、第1画像をしきい値以下か否かに基づいて2値化し、第2画像を当該2値化された第1画像でフィルタリングする。すなわち、2値化された第1画像と第2画像とが重ね合わせられ、第2画像のうち2値化された第1画像におけるしきい値以下の領域を残してその他の領域が削除される。これにより、第3画像が生成される。この結果、第3画像は、図3Cに示すように、第2画像のうち、しきい値以下の距離に位置する最上段のワークWの上面のみが含まれる画像となる。第1画像を2値化することにより、しきい値以下の距離にある領域を簡単かつ明確に抽出することができる。生成された第3画像は、記憶部13に記憶される。
マッチング処理部17は、記憶部13からワークWの上面形状のデータを読み出し、当該データにおけるワークWの上面形状を第3画像にマッチングさせるパターンマッチング処理を行って、ワークWの位置情報を特定する(ステップS4)。
上記のように、第3画像には、第2画像のうち、第1のワーク配置領域A1に配置されたワークWのうち、カメラ10からの距離が最も近い(最上段の)ワークWの上面のみが含まれる。したがって、当該第3画像に基づいてパターンマッチング処理を行うことにより、ワークW以外の物や最上段以外のワークWの印刷物等によるノイズの影響を低減させることができる。これにより、パターンマッチング処理の精度を高くすることができ、ワークの位置情報を高精度に特定することができる。
次に、パターンマッチング処理をより高精度に行うための方法について説明する。本実施形態においては、図2に示すように、パターンマッチング処理を行う前に、第3画像生成部16で生成された第3画像におけるワークWの角部が抽出される角部抽出処理が行われる(ステップSO1)。図4A〜図4Dは、第3画像に対して行われる角部抽出処理を例示するための図である。
マッチング処理部17は、図4Aに示すような、第3画像生成部16で生成され、記憶部13に記憶された第3画像を読み出し、二値化する。この二値化処理においては、第2画像から削除された領域(以下、削除領域)か否かに基づいて二値化される。例えば、第3画像において削除領域を0とし、ワークWの上面領域を印刷やテープの有無に拘わらず1とする。0と1とは反対でもよい。これにより、図4Bに示すような最上段のワークWの上面領域とそれ以外との領域(削除領域)とで分けられた2階調の画像が得られる。二値化された画像は、記憶部13に記憶される。
さらに、マッチング処理部17は、二値化された画像を収縮および膨張させるオープニング処理を行う。オープニング処理を行うことにより、図4Cに示すような、最上段のワークWの上面領域における角部が丸められた画像が得られる。オープニング処理には、第3画像のうち削除領域に接する境界部分の画素を除去する(1→0にする)収縮処理と、第3画像に接する削除領域の画素を第3画像に加える(0→1にする)膨張処理とが含まれる。オープニング処理においては、収縮処理および膨張処理を複数回繰り返す。このようなオープニング処理の特性により、処理後の画像は、角部が丸められる。言い換えると、オープニング処理後の画像は、角部が誤差として除去される。オープニング処理後の画像は、記憶部13に記憶される。
その後、マッチング処理部17は、二値化された画像(図4B)およびオープニング処理後の画像(図4C)を記憶部13からそれぞれ読み出し、第3画像の角部を抽出する。具体的には、マッチング処理部17は、二値化された画像からオープニング処理後の画像を差し引く処理を行う。これにより、図4Dに示すような、二値化された画像からオープニング処理で除去された角部のみの画像が得られる。図4Dにおいては、4つの角部が抽出されている。なお、二値化された画像からオープニング処理後の画像を差し引く処理の後、細かいノイズを除去する処理を行ってもよい。マッチング処理部17は、角部のみの画像を用いて、第3画像における各角部の位置座標を特定する。特定された角部の位置座標は、記憶部13に記憶される。このような角部のみの画像を用いて、第3画像の角部の位置を抽出することにより、パターンマッチング処理を行い易くすることができる。
さらに、マッチング処理部17は、図2に示すように、パターンマッチング処理を行う前に、第3画像の角部と、ワークWの上面形状のデータに基づく仮想ワークの角部とを位置合わせする位置合わせ処理を行う(ステップSO2)。図5A〜図5Cは、第3画像に対して行われる位置合わせ処理を例示するための図である。
マッチング処理部17は、図4Dに示される角部のみの画像から抽出された第3画像の角部の位置座標の1つを記憶部13から読み出す。マッチング処理部17は、読み出した位置座標に対応する第3画像上の点を基準点Pに設定する。図5Aにおいては、第3画像における4つの角部のうち左上の角部が基準点Pとして設定されていることが示されている。なお、基準点Pの設定は、図4Dに示される角部のみの画像と第3画像とを実際に重ねることによって設定することとしてもよい。
マッチング処理部17は、記憶部13に予め記憶されたワークWの上面形状のデータを読み出し、基準点Pとして設定された角部にワークWの上面形状のデータに基づく仮想ワークVの角部を位置合わせする。この際、マッチング処理部17は、仮想ワークVが第3画像においてワークWが存在する領域からはみ出ないような仮想ワークVの配置態様を抽出する。例えば、マッチング処理部17は、第3画像における削除利用域に接する境界部のうち、基準点Pである角部を含む2つの線分の両方に重なるような仮想ワークVの配置態様を抽出する。抽出された仮想ワークVの位置情報は記憶部13に記憶される。
図5Bにおいては、第1の位置合わせ態様として、仮想ワークVが縦向きに配置された態様が示され、図5Cにおいては、第2の位置合わせ態様として、仮想ワークVが横向きに配置された態様が示されている。本実施形態の例では、これら2つの配置態様が考えられ、これらの態様の位置情報が記憶部13に記憶される。
なお、位置情報は、ワークW単体の位置情報(所定の座標系における絶対位置)および複数のワークWの配置態様(他のワークWとの相対位置)の何れをも含み得る。また、一情報は、例えば、ワークWの各角部の座標、ワークWの境界部の座標、ワークWの中心点の座標、所定の基準位置からの回転角度等を含み得る。
このような位置合わせ処理において、上記のように、第3画像の1つの角部(基準点P)において仮想ワークVの配置方向が異なる複数の位置情報が存在する場合、マッチング処理部17は、ぼかし処理を行う(ステップSO3)。ぼかし処理において、マッチング処理部17は、第3画像において当該複数の位置情報が重複する仮想ワークVの領域をぼかして第4画像を生成する。
図6A〜図6Cを用いてより詳しく説明する。図6A〜図6Cは、第3画像に対して行われるぼかし処理を例示するための図である。まず、マッチング処理部17は、第3画像および一の基準点Pに基づく複数の仮想ワークVの位置情報を読み出し、第3画像上に、複数の仮想ワークVを配置する。次に、マッチング処理部17は、複数の仮想ワークVのうち、重複している領域を重複部Qとして抽出する。図6Aに示すように、複数の仮想ワークVは、重複部Qと、重複していない領域Rとに区画される。
マッチング処理部17は、区画された各領域Q,Rに対して相似形を保ったまま縮小する収縮(erosion)処理を行い、図6Bに示すような、重複部Qが第3画像の境界上に存在しないようなぼかし領域Sを生成する。マッチング処理部17は、第3画像におけるぼかし領域Sをぼかす処理を行い、図6Cに示すような、基準点Pに基づくぼかし領域Sがぼけた第4画像を生成する。
同様に、マッチング処理部17は、第3画像における他の角部においても、位置合わせ処理およびぼかし処理を行うことにより、すべての角部に基づいて生成されたぼかし領域Sがぼけた第4画像が生成される。生成された第4画像は、記憶部13に記憶される。ぼかし領域Sは、領域内にワークWの境界が位置することがない領域として定義される。言い換えると、第3画像におけるぼかし領域S内に生じる明度差は、すべてノイズとして扱うことができる。
なお、ぼかし領域Sをぼかす代わりに、ぼかし領域Sのノイズを除去する処理を行う(例えばぼかし領域S内の明度を最大にする)こととしてもよい。ただし、ぼかし領域Sのノイズを除去する処理を行うと、ぼかし領域Sの境界線がノイズとして現れる可能性がある。一方、上述したように、ぼかし領域S内の画像をぼかすことにより、新たなノイズを生成することなく、ぼかし領域Sのノイズを低減させることができる。
これにより、位置情報を特定すべきワークWの上面のテープおよび印刷等によるノイズを少なくすることができ、特定精度をより高くすることができる。
なお、ぼかし処理を行う際には、予め上記角部抽出処理を行うことが好ましい。しかし、本発明はこれに限られず、別途何らかの方法で角部を特定する(例えばオペレータが第3画像を目視して角部を指定する等)ことによってもぼかし処理を行うことができる。また、上記角部抽出処理を行わない場合等、角部の正確な座標が特定されない場合であっても、ある程度角部が存在する領域が特定した上で、当該領域に含まれる第3画像の境界の交点を求めることで角部の位置座標を特定することとしてもよい。
次に、本実施形態におけるパターンマッチング処理について説明する。図7A〜図7Cは、第3画像に対して行われるパターンマッチング処理を例示するための図である。マッチング処理部17は、第3画像、角部の位置情報、角部に対する仮想ワークVの位置情報を読み出し、第3画像における一の角部(基準点P)に対応する仮想ワークVの位置情報から各仮想ワークVにおけるワークWの予想中心領域Tを生成する。図7Aに示すように、本実施形態における例では、1つの角部に対して2つの予想中心領域Tが生成される。
さらに、マッチング処理部17は、生成された1以上の予想中心領域Tに対応する第3画像上の位置に、仮想ワークVを配置することにより、第3画像と仮想ワークVとのパターンマッチングを行う。その結果、マッチング処理部17は、図7Bに示すように、ワークWの配置態様の検出結果を検出ワーク領域Zとして設定し、検出ワーク領域Zの位置情報を記憶部13に記憶する。その後、マッチング処理部17は、検出ワーク領域Zの検出に用いた角部を削除する処理を行う。削除された角部は、図7Cにおいて符号Uで示される。
マッチング処理部17は、削除されていない角部があるか否かを検索し、削除されていない角部があれば、当該角部を基準点Pとして、上記と同様にパターンマッチング処理を行う。この際、マッチング処理部17は、検出ワーク領域Zに他の角部に基づく仮想ワークVが重ならないように条件付けされる。このようにして、削除されていない角部が存在しなくなるまで上記パターンマッチング処理を繰り返す。
この結果、記憶部13に記憶された検出ワーク領域Zの位置情報がワークWの位置情報として特定される。特定されたワークWの位置情報は、ロボットコントローラ3に送られる。ロボットコントローラ3は、ワークWの位置情報に基づいて、ロボット2を制御する。
以上、本発明の実施形態について説明したが、本発明は上記実施形態に限定されるものではなく、その趣旨を逸脱しない範囲内で種々の改良、変更、修正が可能である。
例えば、上記実施形態においてはパターンマッチング処理の前処理として、角部抽出処理、位置合わせ処理およびぼかし処理を行っているが、これらの前処理を行わずにパターンマッチング処理を行うこととしてもよい。また、上記パターンマッチング処理の前処理のうち、少なくとも1つを選択的に行うこととしてもよい。
本発明のワークの位置情報特定装置および方法は、ワークの位置情報を高精度に特定するために有用である。
1 ロボット制御システム
2 ロボット
2a ハンドツール
3 ロボットコントローラ
4 パレット
5 第1の搬送装置
6 第2の搬送装置
7 位置情報特定装置
8 撮像システム
9 処理装置
10 カメラ
11 第1撮像システム
12 第2撮像システム
13 記憶部
14 第1画像取得部
15 第2画像取得部
16 第3画像生成部
17 マッチング処理部
18 照射部
19 画像処理部
20 照明部
A1 第1のワーク配置領域
A2 第2のワーク配置領域
W ワーク
2 ロボット
2a ハンドツール
3 ロボットコントローラ
4 パレット
5 第1の搬送装置
6 第2の搬送装置
7 位置情報特定装置
8 撮像システム
9 処理装置
10 カメラ
11 第1撮像システム
12 第2撮像システム
13 記憶部
14 第1画像取得部
15 第2画像取得部
16 第3画像生成部
17 マッチング処理部
18 照射部
19 画像処理部
20 照明部
A1 第1のワーク配置領域
A2 第2のワーク配置領域
W ワーク
Claims (7)
- 平面視において略多角形の形状かつ上面が平面状である1以上のワークが所定のワーク配置領域に配置された状態における前記ワークの位置情報を特定するためのワークの位置情報特定装置であって、
前記ワークの上面形状のデータを記憶する記憶部と、
前記ワーク配置領域の上方に設置されたカメラを用いて前記ワーク配置領域にある物を撮像した画像であって撮像された物(以下、撮像物)が当該カメラと当該撮像物との間の距離に応じた明度を有する第1画像を生成する第1撮像システムと、
前記ワーク配置領域の上方に設置されたカメラによって前記ワーク配置領域にある物を撮像した画像であって前記撮像物が当該カメラにおける当該撮像物からの受光光量に応じた明度を有する第2画像を生成する第2撮像システムと、
前記第1撮像システムから前記第1画像を取得する第1画像取得部と、
前記第2撮像システムから前記第2画像を取得する第2画像取得部と、
前記第1画像と前記第2画像とを合成し、前記第2画像から前記第1画像における所定のしきい値以下の距離にある領域に対応する領域を抽出してなる第3画像を生成する第3画像生成部と、
前記記憶部から前記ワークの上面形状のデータを読み出し、当該データにおける前記ワークの上面形状を前記第3画像にマッチングさせるパターンマッチング処理を行って、前記ワークの位置情報を特定するマッチング処理部と、を備えた、ワークの位置情報特定装置。 - 前記第1撮像システムは、レーザスリット光を走査しながら前記ワーク配置領域に照射する照射部と、当該照射部から離間して前記ワーク配置領域の上方に配置された前記カメラと、当該カメラにおける前記ワーク配置領域にある物により反射された前記レーザスリット光の受光位置に基づいて前記第1画像を生成する第1画像生成部と、を備えている、請求項1に記載のワークの位置情報特定装置。
- 前記第1撮像システムのカメラは、前記第2撮像システムのカメラとして用いられるように構成される、請求項1または2に記載のワークの位置情報特定装置。
- 前記第3画像生成部は、前記第1画像を前記しきい値以下か否かに基づいて2値化し、前記第2画像を当該2値化された第1画像でフィルタリングすることにより第3画像を生成する、請求項1から3の何れかに記載のワークの位置情報特定装置。
- 前記マッチング処理部は、前記パターンマッチング処理を行う前に、前記第3画像生成部で生成された前記第3画像を二値化し、当該二値化された画像を収縮および膨張させるオープニング処理を行い、前記二値化された画像から前記オープニング処理後の画像を差し引くことで前記第3画像の角部を抽出する角部抽出処理を行う、請求項1から4の何れかに記載のワークの位置情報特定装置。
- 前記マッチング処理部は、前記パターンマッチング処理を行う前に、
前記第3画像の角部を抽出する角部抽出処理と、
前記第3画像の角部と、前記ワークの上面形状のデータに基づく仮想ワークの角部とを位置合わせする位置合わせ処理と、
前記位置合わせ処理において、前記第3画像の1つの角部において前記仮想ワークの配置方向が異なる複数の位置情報が存在する場合、前記第3画像において当該複数の位置情報が重複する前記仮想ワークの領域をぼかして第4画像を生成するぼかし処理とを行う、請求項1から5の何れかに記載のワークの位置情報特定装置。 - 平面視において略多角形の形状かつ上面が平面状である1以上のワークが所定のワーク配置領域に配置された状態における前記ワークの位置情報を特定するためのワークの位置情報特定方法であって、
前記ワーク配置領域の上方に設置されたカメラを用いて前記ワーク配置領域にある物を撮像した画像であって撮像された物(以下、撮像物)が当該カメラと当該撮像物との間の距離に応じた明度を有する第1画像を生成し、
前記ワーク配置領域の上方に設置されたカメラによって前記ワーク配置領域にある物を撮像した画像であって前記撮像物が当該カメラにおける当該撮像物からの受光光量に応じた明度を有する第2画像を生成し、
前記第1画像と前記第2画像とを合成し、前記第2画像から前記第1画像における所定のしきい値以下の距離にある領域に対応する領域を抽出してなる第3画像を生成し、
前記記憶部から前記ワークの上面形状のデータを読み出し、当該データにおける前記ワークの上面形状を前記第3画像にマッチングさせるパターンマッチング処理を行って、前記ワークの位置情報を特定する、ワークの位置情報特定方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013258772A JP2015114292A (ja) | 2013-12-16 | 2013-12-16 | ワークの位置情報特定装置および方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013258772A JP2015114292A (ja) | 2013-12-16 | 2013-12-16 | ワークの位置情報特定装置および方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2015114292A true JP2015114292A (ja) | 2015-06-22 |
Family
ID=53528200
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013258772A Pending JP2015114292A (ja) | 2013-12-16 | 2013-12-16 | ワークの位置情報特定装置および方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2015114292A (ja) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019136828A (ja) * | 2018-02-13 | 2019-08-22 | Kyoto Robotics株式会社 | 箱状物ピッキング装置及びその方法 |
JP2020035383A (ja) * | 2018-08-31 | 2020-03-05 | ファナック株式会社 | 情報処理装置および情報処理方法 |
JP2020181391A (ja) * | 2019-04-25 | 2020-11-05 | ファナック株式会社 | 画像処理装置、画像処理方法、及びロボットシステム |
JP2021122879A (ja) * | 2020-02-04 | 2021-08-30 | 株式会社メイキコウ | 画像処理装置及び画像処理装置を備えた搬送装置 |
WO2022162978A1 (ja) * | 2021-01-27 | 2022-08-04 | 株式会社Pfu | 物体認識装置および物体処理装置 |
WO2022168350A1 (ja) * | 2021-02-03 | 2022-08-11 | 株式会社Pfu | 物体認識装置および物体処理装置 |
WO2023042307A1 (ja) * | 2021-09-15 | 2023-03-23 | ヤマハ発動機株式会社 | 画像処理装置、部品把持システム、画像処理方法および部品把持方法 |
WO2023140266A1 (ja) * | 2022-01-19 | 2023-07-27 | 興和株式会社 | ピッキング装置及び画像生成プログラム |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4402053A (en) * | 1980-09-25 | 1983-08-30 | Board Of Regents For Education For The State Of Rhode Island | Estimating workpiece pose using the feature points method |
JPS6472283A (en) * | 1987-09-12 | 1989-03-17 | Seiko Instr & Electronics | Position recognizing method |
JPH09105608A (ja) * | 1995-10-09 | 1997-04-22 | Nippon Steel Corp | 荷物の位置計測方法 |
JP2001285762A (ja) * | 2000-03-30 | 2001-10-12 | Fuji Xerox Co Ltd | 画像印刷装置 |
JP2007171018A (ja) * | 2005-12-22 | 2007-07-05 | Nachi Fujikoshi Corp | 物体位置認識方法及び物体位置認識装置 |
JP2008151606A (ja) * | 2006-12-15 | 2008-07-03 | Juki Corp | 画像処理方法および画像処理装置 |
JP2008249413A (ja) * | 2007-03-29 | 2008-10-16 | Fujinon Corp | 欠陥検出方法および装置 |
JP2009245363A (ja) * | 2008-03-31 | 2009-10-22 | Mitsubishi Heavy Ind Ltd | 行動認識システム及びその方法 |
JP2010032258A (ja) * | 2008-07-25 | 2010-02-12 | Ihi Corp | デパレタイズ用のワーク位置認識装置および方法 |
JP2010064202A (ja) * | 2008-09-11 | 2010-03-25 | Ihi Corp | ピッキング装置と方法 |
JP2012127819A (ja) * | 2010-12-15 | 2012-07-05 | Canon Inc | 距離画像生成装置、位置姿勢計測装置、距離画像処理装置、距離画像生成装置の制御方法、およびプログラム |
-
2013
- 2013-12-16 JP JP2013258772A patent/JP2015114292A/ja active Pending
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4402053A (en) * | 1980-09-25 | 1983-08-30 | Board Of Regents For Education For The State Of Rhode Island | Estimating workpiece pose using the feature points method |
JPS6472283A (en) * | 1987-09-12 | 1989-03-17 | Seiko Instr & Electronics | Position recognizing method |
JPH09105608A (ja) * | 1995-10-09 | 1997-04-22 | Nippon Steel Corp | 荷物の位置計測方法 |
JP2001285762A (ja) * | 2000-03-30 | 2001-10-12 | Fuji Xerox Co Ltd | 画像印刷装置 |
JP2007171018A (ja) * | 2005-12-22 | 2007-07-05 | Nachi Fujikoshi Corp | 物体位置認識方法及び物体位置認識装置 |
JP2008151606A (ja) * | 2006-12-15 | 2008-07-03 | Juki Corp | 画像処理方法および画像処理装置 |
JP2008249413A (ja) * | 2007-03-29 | 2008-10-16 | Fujinon Corp | 欠陥検出方法および装置 |
JP2009245363A (ja) * | 2008-03-31 | 2009-10-22 | Mitsubishi Heavy Ind Ltd | 行動認識システム及びその方法 |
JP2010032258A (ja) * | 2008-07-25 | 2010-02-12 | Ihi Corp | デパレタイズ用のワーク位置認識装置および方法 |
JP2010064202A (ja) * | 2008-09-11 | 2010-03-25 | Ihi Corp | ピッキング装置と方法 |
JP2012127819A (ja) * | 2010-12-15 | 2012-07-05 | Canon Inc | 距離画像生成装置、位置姿勢計測装置、距離画像処理装置、距離画像生成装置の制御方法、およびプログラム |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7065632B2 (ja) | 2018-02-13 | 2022-05-12 | Kyoto Robotics株式会社 | 箱状物ピッキング装置及びその方法 |
JP2019136828A (ja) * | 2018-02-13 | 2019-08-22 | Kyoto Robotics株式会社 | 箱状物ピッキング装置及びその方法 |
JP2020035383A (ja) * | 2018-08-31 | 2020-03-05 | ファナック株式会社 | 情報処理装置および情報処理方法 |
JP2020181391A (ja) * | 2019-04-25 | 2020-11-05 | ファナック株式会社 | 画像処理装置、画像処理方法、及びロボットシステム |
JP7007324B2 (ja) | 2019-04-25 | 2022-01-24 | ファナック株式会社 | 画像処理装置、画像処理方法、及びロボットシステム |
JP7146829B2 (ja) | 2020-02-04 | 2022-10-04 | 株式会社メイキコウ | 画像処理装置及び画像処理装置を備えた搬送装置 |
JP2021122879A (ja) * | 2020-02-04 | 2021-08-30 | 株式会社メイキコウ | 画像処理装置及び画像処理装置を備えた搬送装置 |
WO2022162978A1 (ja) * | 2021-01-27 | 2022-08-04 | 株式会社Pfu | 物体認識装置および物体処理装置 |
JP7441338B2 (ja) | 2021-01-27 | 2024-02-29 | 株式会社Pfu | 物体認識装置および物体処理装置 |
WO2022168350A1 (ja) * | 2021-02-03 | 2022-08-11 | 株式会社Pfu | 物体認識装置および物体処理装置 |
JP7442697B2 (ja) | 2021-02-03 | 2024-03-04 | 株式会社Pfu | 物体認識装置および物体処理装置 |
WO2023042307A1 (ja) * | 2021-09-15 | 2023-03-23 | ヤマハ発動機株式会社 | 画像処理装置、部品把持システム、画像処理方法および部品把持方法 |
WO2023140266A1 (ja) * | 2022-01-19 | 2023-07-27 | 興和株式会社 | ピッキング装置及び画像生成プログラム |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2015114292A (ja) | ワークの位置情報特定装置および方法 | |
CN109785317B (zh) | 自动码垛桁架机器人的视觉系统 | |
JP5429614B2 (ja) | 箱状ワーク認識装置および方法 | |
JP6466297B2 (ja) | 対象物検出装置、方法及びデパレタイズ自動化装置並びに梱包箱 | |
JP2007090448A (ja) | 二次元コード検出装置及びそのプログラム、並びに、ロボット制御情報生成装置及びロボット | |
TWI608422B (zh) | Optical character recognition device, optical character recognition method, and recording medium | |
JP2014108868A (ja) | 移載装置および該移載装置を備えた箱詰めシステム | |
JP5360369B2 (ja) | ピッキング装置と方法 | |
KR101441277B1 (ko) | 제품 식별 시스템 및 제품 식별 방법 | |
CN114092428A (zh) | 图像数据处理方法、装置、电子设备和存储介质 | |
JP5263501B2 (ja) | デパレタイズ用のワーク位置認識装置および方法 | |
JP6714477B2 (ja) | 基板角位置特定方法 | |
JP6845768B2 (ja) | エッジ検出装置、エッジ検出方法、及び物品保持装置 | |
JP5160366B2 (ja) | 電子部品のパターンマッチング方法 | |
JPH06241719A (ja) | 物品位置検出装置 | |
WO2022004525A1 (ja) | 情報処理装置、仕分システム、及びプログラム | |
JP7424800B2 (ja) | 制御装置、その制御方法、及び制御システム | |
JPH10118975A (ja) | ハンドリング位置認識方法および認識装置 | |
CN114037595A (zh) | 图像数据处理方法、装置、电子设备和存储介质 | |
US10872418B2 (en) | Edge detection device, an edge detection method, and an object holding device | |
CN114022341A (zh) | 抓取点信息获取方法、装置、电子设备和存储介质 | |
CN114022342A (zh) | 抓取点信息获取方法、装置、电子设备和存储介质 | |
WO2011087454A1 (en) | Apparatus and methods for manipulating and acquiring images of a pallet load | |
JPH1196378A (ja) | 積荷位置姿勢認識装置 | |
WO2011123057A1 (en) | Apparatus and methods for acquiring and analysing images of a pallet load |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20161110 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20170809 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170905 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20180313 |