JP2010243317A - 物体認識方法 - Google Patents
物体認識方法 Download PDFInfo
- Publication number
- JP2010243317A JP2010243317A JP2009091840A JP2009091840A JP2010243317A JP 2010243317 A JP2010243317 A JP 2010243317A JP 2009091840 A JP2009091840 A JP 2009091840A JP 2009091840 A JP2009091840 A JP 2009091840A JP 2010243317 A JP2010243317 A JP 2010243317A
- Authority
- JP
- Japan
- Prior art keywords
- pattern
- workpiece
- image
- square plate
- recognition method
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Landscapes
- Length Measuring Devices By Optical Means (AREA)
- Manipulator (AREA)
- Image Analysis (AREA)
Abstract
【課題】精度良くワークの位置を検出する方法を提供する。
【解決手段】第1パターンが形成された容器上に第1パターンの内側を目標にして四角板を配置するワーク配置工程と、第1パターンと四角板とを撮像して画像データ47を取得する撮像工程と、画像データ47における第1パターン像49と四角板像48との相対位置を分析して四角板の姿勢を認識するワーク認識工程と、を有する。そして、第1パターンは四角板の外形形状を囲むパターンに形成されている。
【選択図】図5
【解決手段】第1パターンが形成された容器上に第1パターンの内側を目標にして四角板を配置するワーク配置工程と、第1パターンと四角板とを撮像して画像データ47を取得する撮像工程と、画像データ47における第1パターン像49と四角板像48との相対位置を分析して四角板の姿勢を認識するワーク認識工程と、を有する。そして、第1パターンは四角板の外形形状を囲むパターンに形成されている。
【選択図】図5
Description
本発明は、物体認識方法にかかわり、特に物体の姿勢を検出する方法に関するものである。
ロボットを用いてワークをピッキングするとき、撮像装置を用いてワークを撮像する。そして、撮像した画像を分析してワークの位置や姿勢を検出する方法が広く用いられている。ワークの位置を検出する方法が特許文献1に開示されている。それによると、ワークを撮像装置の視野の中心付近に移動して、ワークを撮像する。次に、撮像した画像におけるワークの中心と視野の中心との差を検出する。そして、撮像装置の位置情報と撮像した画像におけるワークの位置情報とを用いてワークの位置を検出していた。
さらに、ワークを撮像した画像を用いて寸法計測を行い、ワークの良否判断を行っていた。
撮像装置の位置情報と画像処理したワークの位置情報とを組み合わせてワークの位置を認識していた。このとき、ワークの位置の検出誤差には、撮像装置の位置情報の誤差と、ワークの位置検出誤差とが含まれる。そして、誤差が大きいときにはワークをピッキングするときにピッキングに失敗することがある。ピッキングの失敗をなくすために、精度良くワークの位置を検出する方法が望まれていた。
本発明は、上述の課題の少なくとも一部を解決するためになされたものであり、以下の形態または適用例として実現することが可能である。
[適用例1]
本適用例にかかる物体認識方法であって、第1パターンが形成された載置部上に前記第1パターンの近くにワークを配置するワーク配置工程と、前記第1パターンと前記ワークとを撮像して画像データを取得する撮像工程と、前記画像データにおける前記第1パターンの画像と前記ワークの画像との相対位置を分析して前記ワークの姿勢を検出するワーク認識工程と、を有することを特徴とする。
本適用例にかかる物体認識方法であって、第1パターンが形成された載置部上に前記第1パターンの近くにワークを配置するワーク配置工程と、前記第1パターンと前記ワークとを撮像して画像データを取得する撮像工程と、前記画像データにおける前記第1パターンの画像と前記ワークの画像との相対位置を分析して前記ワークの姿勢を検出するワーク認識工程と、を有することを特徴とする。
この物体認識方法によれば、載置部上に第1パターンが形成され、ワークが載置部上に配置される。このとき、ワークは第1パターンの近くに配置される。そして、ワーク認識工程では第1パターンに対するワークの姿勢を認識する。このとき、第1パターンとワークとは近い場所に位置する為、第1パターンに対するワークの姿勢を精度良く検出することができる。
[適用例2]
上記適用例にかかる物体認識方法において、前記第1パターンは前記ワークの外形形状を囲むパターンに形成されていることを特徴とする。
上記適用例にかかる物体認識方法において、前記第1パターンは前記ワークの外形形状を囲むパターンに形成されていることを特徴とする。
この物体認識方法によれば、第1パターンはワークを囲むパターンに形成されている。従って、ワークの外周の各場所と第1パターンとが近い場所に位置している。その結果、第1パターンの形状とワークの形状とを容易に比較することができる。
[適用例3]
上記適用例にかかる物体認識方法において、前記ワークが所定の範囲内に位置しているかを判断する姿勢判断工程を有することを特徴とする。
上記適用例にかかる物体認識方法において、前記ワークが所定の範囲内に位置しているかを判断する姿勢判断工程を有することを特徴とする。
この物体認識方法によれば、ワークの姿勢が所定の範囲内にあるか否かが判る為、後工程にてワークを操作することが可能か、ワークの姿勢を修正する必要があるかの判断をすることができる。
[適用例4]
上記適用例にかかる物体認識方法において、前記第1パターンを用いて前記ワークの画像を含む部分画像データを抽出する画像抽出工程と、前記部分画像データを用いて前記ワークの画像を分析するワーク分析工程とを有することを特徴とする。
上記適用例にかかる物体認識方法において、前記第1パターンを用いて前記ワークの画像を含む部分画像データを抽出する画像抽出工程と、前記部分画像データを用いて前記ワークの画像を分析するワーク分析工程とを有することを特徴とする。
この物体認識方法によれば、撮像した画像データから部分画像データを抽出している。そして、部分画像データを用いてワークの画像を分析している。部分画像データは撮像した画像データの一部なので、部分画像データのデータ量は撮像した画像データのデータ量より小さい量となっている。従って、ワークの画像の分析するとき、撮像した画像データを分析するより部分画像データを用いる方が生産性良く分析することができる。
[適用例5]
上記適用例にかかる物体認識方法において、前記ワーク分析工程における分析結果を用いて、前記ワークの特性が所定の判定値の範囲内にあるかを判断するワーク特性判断工程を有することを特徴とする。
上記適用例にかかる物体認識方法において、前記ワーク分析工程における分析結果を用いて、前記ワークの特性が所定の判定値の範囲内にあるかを判断するワーク特性判断工程を有することを特徴とする。
この物体認識方法によれば、ワークの特性が所定の判定値の範囲内にあるかどうかを判断している。つまり、ワークが正常の範囲にあるのか異常の範囲にあるのかを判定値を用いて判定している。従って、正常なワークと異常なワークとを分類することができる。
[適用例6]
上記適用例にかかる物体認識方法において、前記載置部上には前記第1パターンと対応する第2パターンが配置され、前記撮像工程では前記第2パターンを撮像し、前記画像データにおける前記第2パターンの画像を分析して前記第1パターンの場所を認識するパターン位置検出工程を有することを特徴とする。
上記適用例にかかる物体認識方法において、前記載置部上には前記第1パターンと対応する第2パターンが配置され、前記撮像工程では前記第2パターンを撮像し、前記画像データにおける前記第2パターンの画像を分析して前記第1パターンの場所を認識するパターン位置検出工程を有することを特徴とする。
この物体認識方法によれば、載置部上に第1パターンと第2パターンとが配置されている。そして、第1パターンと第2パターンとの位置関係が設定されている。そして、撮像した第2パターンの画像を分析して第1パターンの場所を認識している。従って、第1パターンが配置された場所を検出し易くすることができる。
[適用例7]
上記適用例にかかる物体認識方法において、前記第1パターンは前記所定の範囲を示す線であり、前記姿勢判断工程では、前記ワークが前記第1パターンと接触するか否かを分析して判断することを特徴とする。
上記適用例にかかる物体認識方法において、前記第1パターンは前記所定の範囲を示す線であり、前記姿勢判断工程では、前記ワークが前記第1パターンと接触するか否かを分析して判断することを特徴とする。
この物体認識方法によれば、ワークが第1パターンと接しているかどうかで判断している。従って、ワークの画像と第1パターンの画像とが一体化しているかどうかにて判断可能な為、容易にワークの姿勢を分析することができる。
以下、実施形態について図面に従って説明する。尚、各図面における各部材は、各図面上で認識可能な程度の大きさとするため、各部材毎に縮尺を異ならせて図示している。
(第1の実施形態)
本実施形態におけるピッキング装置と特徴的なワーク認識方法と認識したワークをピッキングする方法とについて図1〜図7に従って説明する。ピッキングはワークを把持して移動して離すことにより、ワークを移動させる動作を示す。
(第1の実施形態)
本実施形態におけるピッキング装置と特徴的なワーク認識方法と認識したワークをピッキングする方法とについて図1〜図7に従って説明する。ピッキングはワークを把持して移動して離すことにより、ワークを移動させる動作を示す。
(ピッキング装置)
図1は、ピッキング装置の構成を示す概略斜視図である。図1に示すように、ピッキング装置1は主にワーク供給装置2、可動部としてのロボット3及びワーク収納装置4から構成されている。ワーク供給装置2はワークを供給する装置である。ワークの形状や材質は特に限定されない。ロボット3がピッキング可能であれば良い。例えば、ワークの形状は直方体、円錐、円柱、等やこれらの形状を組み合わせた形状を用いることができる。実施形態においてはワークとして四角板5を用いて説明する。
図1は、ピッキング装置の構成を示す概略斜視図である。図1に示すように、ピッキング装置1は主にワーク供給装置2、可動部としてのロボット3及びワーク収納装置4から構成されている。ワーク供給装置2はワークを供給する装置である。ワークの形状や材質は特に限定されない。ロボット3がピッキング可能であれば良い。例えば、ワークの形状は直方体、円錐、円柱、等やこれらの形状を組み合わせた形状を用いることができる。実施形態においてはワークとして四角板5を用いて説明する。
ワーク供給装置2には複数の載置部としての容器6が配置されている。容器6は外形が直方体であり、深さが浅く形成されている。そして、容器6内には四角板5が4枚配置されている。ワーク供給装置2は内部に供給用昇降装置7、除材用昇降装置8とが並んで配置されている。供給用昇降装置7と除材用昇降装置8とが並んでいる方向をY方向とする。そして水平方向においてY方向と直交する方向をX方向とし、鉛直方向をZ方向とする。供給用昇降装置7及び除材用昇降装置8の上側には容器6が重ねて配置されている。そして、供給用昇降装置7及び除材用昇降装置8は上下方向に移動する直動機構を備え、容器6を上昇及び下降することが可能になっている。この直動機構は、例えば、ボールネジとパルスモーターとのを組み合わせたユニットまたはリニアモーター等により構成することができる。
ワーク供給装置2において図中左側の側面には押出装置9が配置されている。押出装置9は直動機構を備え、この直動機構は、例えば、エアーシリンダーまたはリニアモーター等により構成することができる。押出装置9は、供給用昇降装置7の上側に重ねて配置された容器6の内最上段の容器6を図中右下方向に押し出す。そして、押出装置9は容器6を供給用昇降装置7の上側から除材用昇降装置8の上側へ移動させる。
ロボット3が除材用昇降装置8の上側に位置する容器6内の四角板5を移動することにより、容器6が空になる。その後、除材用昇降装置8が空の容器6を下降させる。次に、四角板5が配置された容器6を供給用昇降装置7が上昇させる。続いて、上昇された容器6を押出装置9がロボット3の方向に移動する。その結果、四角板5が配置された容器6がワーク供給装置2のロボット3側の場所に配置される。
ワーク供給装置2の図中右側にはロボット3が配置されている。ロボット3は基台10を備え、基台10上には回転台11が配置されている。回転台11は固定台11aと回転軸11bとを備えている。回転台11は内部にサーボモーターと減速機構とを備え、回転軸11bを角度精度良く回転及び停止することができる。サーボモーターは回転軸11bの回転角度を検出するエンコーダーを備えている。そして、エンコーダーの出力を用いて固定台11aに対する回転軸11bの相対角度を検出することが可能になっている。
回転台11の回転軸11bと接続して第1関節12が配置され、第1関節12と接続して第1腕13が配置されている。第1腕13と接続して第2関節14が配置され、第2関節14と接続して第2腕15が配置されている。第2腕15は固定軸15aと回転軸15bとを備え、第2腕15は第2腕15の長手方向を軸にして回転軸15bを回転することができる。第2腕15の回転軸15bと接続して第3関節16が配置され、第3関節16と接続して第3腕17が配置されている。第3腕17は固定軸17aと回転軸17bとを備え、第3腕17は第3腕17の長手方向を回転軸にして回転軸17bを回転することができる。第3腕17の回転軸17bと接続して可動要素及び把持部としての手部18が配置され、手部18には吸着装置が配置されている。手部18の図中下側の面には四角錐状に凹部が形成されている。そして、この凹部の斜面を四角板5の外周に接触させて、吸着装置が凹部の空気を吸引することにより、手部18は四角板5を吸着させることができる。
回転軸15bと接続して第1支持腕19が配置されている。第1支持腕19は第2腕15の図中上側に突出して配置されている。第1支持腕19と接続して支持部関節20が配置され、支持部関節20と接続して第2支持腕21が配置されている。第2支持腕21には撮像装置22が配置されている。撮像装置22は、例えば、図示しない同軸落射型光源とCCD(Charge Coupled Device)が組み込まれたものである。同軸落射型光源から出射した光は四角板5を照射する。撮像装置22は、四角板5にて反射する光を用いて四角板5を撮像することが可能となっている。そして、ロボット3に配置された各関節、腕、支持部が可動要素となっている。
第1関節12、第2関節14、第2腕15、第3関節16、第3腕17、支持部関節20はそれぞれ内部にサーボモーター及び減速機構等からなる回転機構を備えている。そして、第1関節12、第2関節14、第2腕15、第3関節16、第3腕17、支持部関節20は角度精度良く回転及び停止することができる。各サーボモーターは回転軸の回転角度を検出するエンコーダーを備えている。上述のようにロボット3は多くの関節と回転機構を備えている。そして、これらの各腕及び回転軸の位置や角度を検出することによりロボット3の姿勢を検出することが可能になっている。
また、これらの関節及び回転機構に加えて手部18の吸着機構を制御することにより四角板5を把持することが可能になっている。同様に、第2腕15の角度と対応して第2支持腕21の角度を制御することにより、撮像装置22における光軸の方向をZ方向にすることができる。
ロボット3の図中右上にはワーク収納装置4が配置されている。ワーク収納装置4は第1室4a〜第5室4eの5つの室に分離されている。そして、各室には四角板5が区分して配置されている。ロボット3は容器6内に配置された各四角板5の形状を認識した後、ワーク収納装置4に分類して配置する。従って、ワーク収納装置4では各室毎に四角板5が分類して配置される。
ワーク収納装置4の各室は図中上側が開放して形成されることにより、ロボット3が上側から各室に四角板5を入れることができる。各室には各室の底面を昇降する昇降装置が配置されている。そして、各室に配置された四角板5の量に応じて各室の底面を下降することにより、ロボット3が四角板5をワーク収納装置4に移動し易くなっている。
ロボット3の図中左下側には制御装置23が配置されている。制御装置23はワーク供給装置2、ロボット3、ワーク収納装置4等を含むピッキング装置1を制御する装置である。
図2は、ピッキング装置の電気制御ブロック図である。図2において、ピッキング装置1の制御部としての制御装置23はプロセッサーとして各種の演算処理を行うCPU(中央処理装置)26と各種情報を記憶する記憶部としてのメモリー27とを有する。
ロボット駆動装置28、撮像装置22、ワーク供給装置2、ワーク収納装置4は、入出力インターフェース29及びデータバス30を介してCPU26に接続されている。さらに、入力装置31、表示装置32も入出力インターフェース29及びデータバス30を介してCPU26に接続されている。
ロボット駆動装置28はロボット3と接続されロボット3を駆動する装置である。ロボット駆動装置28は、ロボット3の姿勢に関する情報をCPU26に出力する。そして、CPU26が指示する場所にロボット駆動装置28がロボット3を駆動して撮像装置22を移動させる。そして、撮像装置22は所望の場所を撮像できる。さらに、CPU26が指示する場所にロボット駆動装置28が手部18を移動させる。その後、ロボット駆動装置28が手部18の吸着装置を駆動することにより、ロボット3は四角板5を把持できる。
撮像装置22は四角板5を撮像する装置である。CPU26の指示する信号に従って撮像した後、撮像した画像のデータをメモリー27に出力する。
ワーク供給装置2はCPU26の指示により供給用昇降装置7、除材用昇降装置8、押出装置9を駆動する。そして、ロボット3の手部18が到達可能な範囲にワーク供給装置2は四角板5を供給する。ワーク収納装置4はCPU26の指示により昇降装置を駆動する。そして、ロボット3が四角板5を置く高さを制御する。
入力装置31は四角板5の位置認識をする条件やピッキング動作の動作条件等の諸情報を入力する装置である。例えば、四角板5の形状を示す座標を図示しない外部装置から受信し、入力する装置である。表示装置32はワークやロボット3に関するデータや作業状況を表示する装置である。表示装置32に表示される情報を基に入力装置31を用いて操作者が入力操作を行う。
メモリー27は、RAM、ROM等といった半導体メモリーや、ハードディスク、DVD−ROMといった外部記憶装置を含む概念である。機能的には、ピッキング装置1における動作の制御手順が記述されたプログラムソフト33を記憶する記憶領域がメモリー27に設定される。さらに、四角板5の形状や寸法等の情報であるワーク関連データ34を記憶するための記憶領域もメモリー27に設定される。さらに、ロボット3を構成する要素の情報や、ワーク供給装置2及びワーク収納装置4とロボット3との相対位置等の情報であるロボット関連データ35を記憶するための記憶領域もメモリー27に設定される。さらに、撮像装置22が撮像した画像のデータや画像処理後の画像のデータである画像データ36を記憶するための記憶領域もメモリー27に設定される。他にも、CPU26のためのワークエリアやテンポラリーファイル等として機能する記憶領域やその他各種の記憶領域がメモリー27に設定される。
CPU26はメモリー27内に記憶されたプログラムソフト33に従って、ワークの位置及び姿勢を検出した後、ワークを移動させるための制御を行うものである。具体的な機能実現部として、ロボット3を駆動してワークや撮像装置22を移動させるための制御を行うロボット制御部37を有する。ロボット制御部37は撮像装置22を駆動する制御も行う。他にも、撮像装置22が撮像する画像を用いて特徴量を演算する画像演算部38を有する。画像演算部38は撮像した画像において特定の図形を抽出する。他にも画像演算部38は図形の位置や寸法を画素単位で計測する。他にも、撮像装置22が撮像する画像を用いて容器6に形成された特定のパターンの位置を演算するパターン位置演算部39を有する。他にも、撮像装置22が撮像する画像を用いて容器6に形成された特定のパターンの位置に対する四角板5の位置を演算するワーク位置演算部40を有する。さらに、四角板5の外形寸法や特定の場所の寸法を演算するワーク特性演算部41を有する。他にも、ロボット3の動作と連携してワーク供給装置2及びワーク収納装置4の動作を制御する除給材制御部42等を有する。
(撮像方法及びピッキング方法)
次に、上述したピッキング装置1を用いてワークを移動する作業における撮像方法及びピッキング方法について図3〜図7にて説明する。図3は、ワークのピッキング工程を示すフローチャートである。図4〜図7は、ピッキング作業の作業方法を説明するための模式図である。
次に、上述したピッキング装置1を用いてワークを移動する作業における撮像方法及びピッキング方法について図3〜図7にて説明する。図3は、ワークのピッキング工程を示すフローチャートである。図4〜図7は、ピッキング作業の作業方法を説明するための模式図である。
図3に示すフローチャートにおいて、ステップS1は、ワーク配置工程に相当する。ロボットの可動範囲内に配置された容器上に四角板がないとき、除給材制御部がワーク供給装置を駆動する。そして、四角板が配置された容器を除給材制御部が供給させることにより、除給材制御部が四角板を配置させる工程である。ステップS2は撮像工程に相当する。ロボット制御部がロボットを駆動して撮像装置を移動させる。そして、四角板が配置された容器を撮像装置が撮像する工程である。次にステップS3に移行する。ステップS3は、パターン位置検出工程に相当し、撮像した画像内において容器に形成されたパターンの位置を検出する工程である。次にステップS4に移行する。
ステップS4は、ワーク認識工程に相当し、四角板の位置及び姿勢を算出する工程である。次に、ステップS5に移行する。ステップS5は、姿勢判断工程に相当し、ワークの位置及び傾きが所定の範囲内にあるか否かを判断する工程である。ワークの位置及び傾きが所定の範囲内にあるとき、次にステップS6に移行する。ワークの位置及び傾きが所定の範囲内にないとき、ステップS10に移行する。ステップS6は、画像抽出工程に相当し、撮像装置が撮像した画像から四角板の画像を抽出する工程である。
次にステップS7に移行する。ステップS7は、ワーク分析工程に相当し、四角板における寸法等の特性を分析する工程である。次にステップS8に移行する。ステップS8は、ワーク特性判断工程に相当し、四角板の特性が所定の範囲内にあるか否かを判断する工程である。次にステップS9に移行する。ステップS9は、ワーク移動工程に相当し、四角板の特性に応じて四角板をワーク収納装置における所定の場所に移動する工程である。ステップS10は作業終了判断工程に相当し、四角板を分類する作業を継続するか終了するかを判断する工程である。作業を継続するとき、ステップS1に移行する。作業を終了するとき、ワークのピッキング工程を終了する。
次に、図4〜図7を用いて、図3に示したステップと対応させて、ピッキング工程における撮像方法及びピッキング方法を詳細に説明する。図4(a)はステップS1のワーク配置工程に対応する図である。図4(a)に示すように、ステップS1において、ワーク供給装置2には容器6が配置される。そして、ロボット3側の容器6には四角板5が4枚配置されている。
1個の四角板5の周囲には8個の円マークから構成された第1パターン45が容器6上に形成されている。そして、第1パターン45の内図中左上に位置する1つの円マークが第2パターン46となっている。第1パターン45と第2パターン46とは同じ形状であるが、色が異なって形成されている。例えば、第2パターン46は赤色に形成され、第1パターン45において第2パターン46以外の円マークは青色に形成されている。第1パターン45と第2パターン46とにおける形状や色は特に限定されない。第1パターン45と第2パターン46とが識別可能であれば良い。
容器6に四角板5を配置するとき、第1パターン45の内側を目標にして四角板5が配置される。従って、四角板5は第1パターン45と近い場所に配置される。容器6に四角板5を配置する工程や容器6を運搬する工程において、四角板5が目標とする場所から移動する場合がある。従って、ある確率にて四角板5が第1パターン45の内側から移動した場所に位置することがある。
図4(b)はステップS2の撮像工程に対応する図であり、撮像装置22が撮像した画像データ47を示している。図4(b)に示すように、ステップS2において、撮像装置22が容器6を撮像し、CPU26は画像データ47をメモリー27に格納する。画像データ47には四角板5に対応する4個のワークの画像としての四角板像48が表示される。他にも、第1パターン45に対応する第1パターン像49、第2パターン46に対応する第2パターン像50が表示される。従って、第1パターン像49は1つの四角板像48に対して8個表示され、第2パターン像50は1つの四角板像48に対して1個表示される。
図5(a)はステップS3のパターン位置検出工程に対応する図である。図5(a)に示すように、ステップS3において、画像演算部38は画像データ47から第2パターン像50を抽出する。第2パターン像50は赤色に撮像される。そして、画像データ47の中から赤色の像を抽出することにより、第2パターン像50を抽出することができる。
制御装置23はメモリー27のワーク関連データ34に第1パターン45及び第2パターン46の位置に関するデータを記憶している。そして、メモリー27には第2パターン46におけるインデックス番号と座標とのデータ表を備えている。データ表のインデックス番号は1番から4番までの通し番号である。そして、データ表の座標は容器6上において、図中左下の隅を原点としたときの座標となっている。
画像演算部38は画像データ47における第2パターン像50の場所とワーク関連データ34とを用いて第2パターン像50のインデックス番号を検出する。例えば、画像データ47において図中左上を1番像50aとする。そして、第2パターン像50において1番像50aから右回りに順に2番像50b、3番像50c、4番像50dとなっている。インデックス番号は四角板5を移動する順番に設定されており、1番像50a〜4番像50dの順番にてロボット3は四角板5を移動する。
図5(b)及び図5(c)はステップS4のワーク認識工程に対応する図である。図5(b)に示すように、ステップS4において、パターン位置演算部39が1番像50aを検出する。次に、パターン位置演算部39は1番像50aが属する第1パターン像49を検出する。第1パターン像49は8個の円マークにより構成されており、1番像50aは第1パターン像49を構成する円マークの1個となっている。そして、第1パターン像49に囲まれた場所に四角板像48が撮像されている。
図5(c)に示すように、ワーク位置演算部40が第1パターン像49に対する四角板像48の位置を演算する。まず、ワーク位置演算部40は第1パターン像49の各円マークの中心を通る4本の中心線49aを算出する。4本の中心線49aは四角を形成する。次に、この四角の辺である中心線49aから四角の内側に間隔51の距離離れた場所に平行な線を配置し、この線を判定線52とする。判定線52は4本配置され、4本の判定線52は四角を形成する。次に、ワーク位置演算部40は四角板像48の総ての外周において、判定線52と四角板像48とが接触する場所または重なる場所がないかを確認する。さらに、ワーク位置演算部40は判定線52と四角板像48との距離53を演算する。このとき、四角板像48の外周上に等間隔の演算点を設定し、その演算点における距離53を演算する。
ステップS5の姿勢判断工程において、ワーク位置演算部40は四角板像48が所定の範囲内にあるか否かを判断する。判定線52と四角板像48とが接触しないとき、距離53の値と予め設定した判定値とを比較する。そして、距離53の値が判定値の間にあるときには次のステップS6に移行する。距離53の値が判定値の間にないときには四角板5の移動を止めてステップS10に移行する。図6(a)に示すように、四角板像48が判定線52と接触するとき、距離53の値が判定値の間にないときにはステップS10に移行する。このとき、ワーク位置演算部40は手部18が四角板5を吸着できない可能性が大きいと判断して、四角板5を移動することを断念する。
図6(b)はステップS6の画像抽出工程に対応する図である。図6(b)に示すように、ステップS6において、ワーク特性演算部41は、画像データ47から中心線49aによって四角に囲まれた範囲を切り取って部分画像データ54とする。そして、ワーク特性演算部41は部分画像データ54をメモリー27の画像データ36に記憶する。
図6(c)はステップS7のワーク分析工程に対応する図である。図6(c)に示すように、ステップS7において、ワーク特性演算部41は四角板像48の形状を測定して四角板5の寸法を算出する。このとき、ワーク特性演算部41は部分画像データ54を用いて演算を行う。まず、ワーク特性演算部41は四角板像48の長手方向の長さである第1長さ48aを算出する。部分画像データ54はXY方向に配列した複数の画素から構成されている。そして、ワーク特性演算部41は四角板像48がX方向に占める画素数を算出することにより第1長さ48aを算出する。次に、同様の方法を用いてワーク特性演算部41は四角板像48の短手方向の長さである第2長さ48bを算出する。
四角板像48には3つの孔の像が撮像されている。これを第1孔像48c、第2孔像48d、第3孔像48eとする。次に、ワーク特性演算部41は、第1孔像48c〜第3孔像48eの直径である第1直径48f〜第3直径48hを算出する。まず、ワーク特性演算部41は第1直径48fを算出する。ワーク特性演算部41は第1孔像48cが占める画素数を計測する。次に、計測した画素数を円周率にて除算することにより、第1直径48fを算出する。第2直径48g及び第3直径48hにおいても同様の方法にて算出する。四角板5と四角板像48との倍率を予め測定しておく。そして、この倍率と算出したデータとを用いて四角板5の各寸法を演算する。
ステップS8のワーク特性判断工程では、第1長さ48a、第2長さ48b、第1直径48f、第2直径48g、第3直径48hの値を用いて、四角板5の移動場所を判断する。例えば、第1直径48fが所定の判定値より大きいとき、四角板5を第1室4aに移動する。第1直径48fが所定の判定値より小さいとき、四角板5を第2室4b〜第5室4eのいずれかに移動する。第2直径48gが所定の判定値より大きいとき、四角板5を第2室4bに移動する。第2直径48gが所定の判定値より小さいとき、四角板5を第3室4c〜第5室4eのいずれかに移動する。さらに、第3直径48hが所定の判定値より大きいとき、四角板5を第3室4cに移動する。第3直径48hが所定の判定値より小さいとき、四角板5を第4室4d〜第5室4eのいずれかに移動する。さらに、第1長さ48aが所定の判定値より大きいとき、四角板5を第4室4dに移動する。第1長さ48aが所定の判定値より小さいとき、四角板5を第5室4eに移動する。尚、この例に限らず、所望の規定にて分類することができる。さらに、四角板5の各寸法を判定値と比較した後、四角板5の良否判定を行っても良い。
図7はステップS9のワーク移動工程に対応する図である。図7に示すように、ステップS9において、ロボット3は四角板5をピッキングして移動する。ロボット制御部37はロボット3を駆動して、手部18を四角板5と対向する場所に移動させる。そして、手部18を四角板5に接触させて、四角板5を手部18に吸着させる。次に、ロボット制御部37はロボット3を駆動して、手部18をワーク収納装置4と対向する場所に移動させる。このとき、ロボット制御部37はステップS8にて選択した室と対向する場所に手部18を移動させる。次に、ロボット制御部37は手部18から四角板5を離させることにより、四角板5をワーク収納装置4に載置する。ステップS10の作業終了判断工程において、作業を終了する判断をするとき、ワークのピッキング工程を終了する。
上述したように、本実施形態によれば、以下の効果を有する。
(1)本実施形態によれば、容器6上に第1パターン45が形成され、四角板5が容器6上に配置される。このとき、第1パターン45の内側を目標にして四角板5を配置するので、四角板5は第1パターン45の近くに配置される。そして、ステップS4のワーク認識工程では第1パターン45に対する四角板5の相対位置と相対角度とを検出する。従って、第1パターン45と四角板5とは近い場所に位置する為、第1パターン45に対する四角板5の姿勢を精度良く検出することができる。
(1)本実施形態によれば、容器6上に第1パターン45が形成され、四角板5が容器6上に配置される。このとき、第1パターン45の内側を目標にして四角板5を配置するので、四角板5は第1パターン45の近くに配置される。そして、ステップS4のワーク認識工程では第1パターン45に対する四角板5の相対位置と相対角度とを検出する。従って、第1パターン45と四角板5とは近い場所に位置する為、第1パターン45に対する四角板5の姿勢を精度良く検出することができる。
(2)本実施形態によれば、第1パターン45は四角板5を囲むパターンに形成されている。従って、四角板5の外周形状の各場所と第1パターン45とが近い場所に位置している。その結果、第1パターン45の形状と四角板5の形状とを容易に比較することができる。
(3)本実施形態によれば、四角板5の姿勢が所定の範囲内にあるか否かが判る為、ステップS9のワーク移動工程にて手部18が四角板5を吸着することが可能か、四角板5の姿勢を修正する必要があるかの判断をすることができる。
(4)本実施形態によれば、撮像した画像データ47から部分画像データ54を抽出している。そして、部分画像データ54を用いて四角板像48を分析している。部分画像データ54は撮像した画像データ47の一部なので、部分画像データ54のデータ量は撮像した画像データ47のデータ量より小さい量となっている。従って、四角板像48の分析をするとき、撮像した画像データ47を分析するより部分画像データ54を用いる方が生産性良く分析することができる。
(5)本実施形態によれば、四角板5の寸法が所定の判定値の範囲内にあるかどうかを判断している。つまり、四角板5の寸法が正常の範囲にあるのか異常の範囲にあるのかを判定値をもちいて判定している。従って、正常な四角板5と異常な四角板5とを分類することができる。
(6)本実施形態によれば、容器6上に第1パターン45と第2パターン46とが配置されている。そして、第1パターン45と第2パターン46との位置関係が設定されている。そして、撮像した第2パターン像50を分析して第1パターン像49の場所を認識している。従って、第1パターン像49が配置された場所を検出し易くすることができる。
(7)本実施形態によれば、ステップS6の画像抽出工程において、第1パターン像49を用いて部分画像データ54を抽出している。四角板像48は第1パターン像49の内側に配置されている。従って、確実に四角板像48が含まれる画像を抽出することができる。
(第2の実施形態)
次に、ワーク認識方法の一実施形態について図8のワーク認識方法を説明するための模式図を用いて説明する。本実施形態が第1の実施形態と異なるところは、第1パターンの形状が異なる点にある。尚、第1の実施形態と同じ点については説明を省略する。
次に、ワーク認識方法の一実施形態について図8のワーク認識方法を説明するための模式図を用いて説明する。本実施形態が第1の実施形態と異なるところは、第1パターンの形状が異なる点にある。尚、第1の実施形態と同じ点については説明を省略する。
すなわち、本実施形態では、図8(a)に示したように容器6上に第1パターン55と第2パターン46が形成されている。そして、第1パターン55の内側を目標にして四角板5が配置されている。
第1パターン55の内側の形状は、四角板5の外周形状と略同じ形状に形成されている。そして、第1パターン55の内側の形状は、第1の実施形態における判定線52により形成された形状と同じ形状となっている。
従って、図8(b)に示すように、第1パターン55に対して四角板5の角度が傾くとき、四角板5が第1パターン55と接触する。そして、ステップS5の姿勢判断工程では、四角板5が第1パターン55と接触する否か分析して判断することにより良否判定することができる。
上述したように、本実施形態によれば、以下の効果を有する。
(1)本実施形態によれば、四角板5が第1パターン55と接しているかどうかで判断している。従って、四角板5の画像と第1パターン55の画像とが一体化しているかどうかにて判断可能な為、容易に四角板5の姿勢を分析することができる。
(1)本実施形態によれば、四角板5が第1パターン55と接しているかどうかで判断している。従って、四角板5の画像と第1パターン55の画像とが一体化しているかどうかにて判断可能な為、容易に四角板5の姿勢を分析することができる。
(2)本実施形態によれば、第1パターン55の内側の形状は、第1の実施形態における判定線52により形成された形状と同じ形状となっている。従って、ワーク位置演算部40は判定線52を演算する必要がない為、生産性良く四角板5の姿勢を分析することができる。
尚、本実施形態は上述した実施形態に限定されるものではなく、種々の変更や改良を加えることも可能である。変形例を以下に述べる。
(変形例1)
前記第1の実施形態では、第2パターン46は1個の四角板5に対して1個配置された。これに限らず、第2パターン46は1個の四角板5に対して2個以上配置しても良い。例えば、大きさの異なる円マークを2個配置して方向を検出可能にしても良い。方向がわかるので、容器6を配置する方向の間違いを検出することができる。
(変形例1)
前記第1の実施形態では、第2パターン46は1個の四角板5に対して1個配置された。これに限らず、第2パターン46は1個の四角板5に対して2個以上配置しても良い。例えば、大きさの異なる円マークを2個配置して方向を検出可能にしても良い。方向がわかるので、容器6を配置する方向の間違いを検出することができる。
(変形例2)
前記第1の実施形態では、四角板5の寸法を検出して特徴量としたが、他にも、四角板5が反射する輝度を特徴量にしても良い。光学的に検出可能な特性を特徴量にすることができる。
前記第1の実施形態では、四角板5の寸法を検出して特徴量としたが、他にも、四角板5が反射する輝度を特徴量にしても良い。光学的に検出可能な特性を特徴量にすることができる。
(変形例3)
前記第1の実施形態では、四角板5を容器6上に配置したが、これに限らない。ピッキング装置の構成に合わせて四角板5を配置する場所を設定しても良い。そして、四角板5を配置する場所に第1パターン45及び第2パターン46を配置することにより同様の効果を得ることができる。
前記第1の実施形態では、四角板5を容器6上に配置したが、これに限らない。ピッキング装置の構成に合わせて四角板5を配置する場所を設定しても良い。そして、四角板5を配置する場所に第1パターン45及び第2パターン46を配置することにより同様の効果を得ることができる。
(変形例4)
前記第1の実施形態では、第1パターン45と第2パターン46とは同じ形状で色が異なっていた。第1パターン45と第2パターン46を区別する方法はこれに限らない。例えば、形状を異ならせても良い。このとき、色は同じでも良い。この場合にも同様の効果を得ることができる。
前記第1の実施形態では、第1パターン45と第2パターン46とは同じ形状で色が異なっていた。第1パターン45と第2パターン46を区別する方法はこれに限らない。例えば、形状を異ならせても良い。このとき、色は同じでも良い。この場合にも同様の効果を得ることができる。
5…ワークとしての四角板、6…載置部としての容器、45,55…第1パターン、46…第2パターン、48…ワークの画像としての四角板像、54…部分画像データ。
Claims (7)
- 第1パターンが形成された載置部上に前記第1パターンの近くにワークを配置するワーク配置工程と、
前記第1パターンと前記ワークとを撮像して画像データを取得する撮像工程と、
前記画像データにおける前記第1パターンの画像と前記ワークの画像との相対位置を分析して前記ワークの姿勢を検出するワーク認識工程と、を有することを特徴とする物体認識方法。 - 請求項1に記載の物体認識方法であって、
前記第1パターンは前記ワークの外形形状を囲むパターンに形成されていることを特徴とする物体認識方法。 - 請求項2に記載の物体認識方法であって、
前記ワークが所定の範囲内に位置しているかを判断する姿勢判断工程を有することを特徴とする物体認識方法。 - 請求項3に記載の物体認識方法であって、
前記第1パターンを用いて前記ワークの画像を含む部分画像データを抽出する画像抽出工程と、前記部分画像データを用いて前記ワークの画像を分析するワーク分析工程とを有することを特徴とする物体認識方法。 - 請求項4に記載の物体認識方法であって、
前記ワーク分析工程における分析結果を用いて、前記ワークの特性が所定の判定値の範囲内にあるかを判断するワーク特性判断工程を有することを特徴とする物体認識方法。 - 請求項5に記載の物体認識方法であって、
前記載置部上には前記第1パターンと対応する第2パターンが配置され、
前記撮像工程では前記第2パターンを撮像し、
前記画像データにおける前記第2パターンの画像を分析して前記第1パターンの場所を認識するパターン位置検出工程を有することを特徴とする物体認識方法。 - 請求項3に記載の物体認識方法であって、
前記第1パターンは前記所定の範囲を示す線であり、前記姿勢判断工程では、前記ワークが前記第1パターンと接触するか否かを分析して判断することを特徴とする物体認識方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009091840A JP2010243317A (ja) | 2009-04-06 | 2009-04-06 | 物体認識方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009091840A JP2010243317A (ja) | 2009-04-06 | 2009-04-06 | 物体認識方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2010243317A true JP2010243317A (ja) | 2010-10-28 |
Family
ID=43096483
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009091840A Withdrawn JP2010243317A (ja) | 2009-04-06 | 2009-04-06 | 物体認識方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2010243317A (ja) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013086184A (ja) * | 2011-10-13 | 2013-05-13 | Yaskawa Electric Corp | ワーク取出システム、ロボット装置および被加工物の製造方法 |
CN104057455A (zh) * | 2013-03-19 | 2014-09-24 | 株式会社安川电机 | 机器人系统 |
EP2783814A2 (en) | 2013-03-19 | 2014-10-01 | Kabushiki Kaisha Yaskawa Denki | Robot system and calibration method |
JP2016070693A (ja) * | 2014-09-26 | 2016-05-09 | 株式会社Screenホールディングス | 位置検出装置、基板処理装置、位置検出方法および基板処理方法 |
JP2016078180A (ja) * | 2014-10-17 | 2016-05-16 | 株式会社リコー | 異常原因推定装置、ピッキング装置及びピッキング装置における異常原因推定方法 |
WO2016174887A1 (ja) * | 2015-04-28 | 2016-11-03 | 日本電気硝子株式会社 | ガラス板トレイ |
JP2016219474A (ja) * | 2015-05-15 | 2016-12-22 | パナソニックIpマネジメント株式会社 | 部品取出し装置および部品取出し方法ならびに部品実装装置 |
JP2020116717A (ja) * | 2019-01-28 | 2020-08-06 | 株式会社Fuji | ロボット制御システム |
KR102436141B1 (ko) * | 2021-04-14 | 2022-08-25 | 에이치에스소프트 주식회사 | 영상을 이용하여 제품의 고정상태 확인이 가능한 취출제어방법 |
-
2009
- 2009-04-06 JP JP2009091840A patent/JP2010243317A/ja not_active Withdrawn
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013086184A (ja) * | 2011-10-13 | 2013-05-13 | Yaskawa Electric Corp | ワーク取出システム、ロボット装置および被加工物の製造方法 |
US9205563B2 (en) | 2011-10-13 | 2015-12-08 | Kabushiki Kaisha Yaskawa Denki | Workpiece takeout system, robot apparatus, and method for producing a to-be-processed material |
CN104057455A (zh) * | 2013-03-19 | 2014-09-24 | 株式会社安川电机 | 机器人系统 |
JP2014180722A (ja) * | 2013-03-19 | 2014-09-29 | Yaskawa Electric Corp | ロボットシステム |
EP2783814A2 (en) | 2013-03-19 | 2014-10-01 | Kabushiki Kaisha Yaskawa Denki | Robot system and calibration method |
JP2016070693A (ja) * | 2014-09-26 | 2016-05-09 | 株式会社Screenホールディングス | 位置検出装置、基板処理装置、位置検出方法および基板処理方法 |
JP2016078180A (ja) * | 2014-10-17 | 2016-05-16 | 株式会社リコー | 異常原因推定装置、ピッキング装置及びピッキング装置における異常原因推定方法 |
WO2016174887A1 (ja) * | 2015-04-28 | 2016-11-03 | 日本電気硝子株式会社 | ガラス板トレイ |
JP2016204044A (ja) * | 2015-04-28 | 2016-12-08 | 日本電気硝子株式会社 | ガラス板トレイ |
CN107207152A (zh) * | 2015-04-28 | 2017-09-26 | 日本电气硝子株式会社 | 玻璃板托盘 |
JP2016219474A (ja) * | 2015-05-15 | 2016-12-22 | パナソニックIpマネジメント株式会社 | 部品取出し装置および部品取出し方法ならびに部品実装装置 |
JP2020116717A (ja) * | 2019-01-28 | 2020-08-06 | 株式会社Fuji | ロボット制御システム |
JP7281910B2 (ja) | 2019-01-28 | 2023-05-26 | 株式会社Fuji | ロボット制御システム |
KR102436141B1 (ko) * | 2021-04-14 | 2022-08-25 | 에이치에스소프트 주식회사 | 영상을 이용하여 제품의 고정상태 확인이 가능한 취출제어방법 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2010243317A (ja) | 物体認識方法 | |
US11034025B2 (en) | Automated package registration systems, devices, and methods | |
JP4190819B2 (ja) | 電子部品実装装置及び画像認識方法の選択方法 | |
JP4776034B2 (ja) | 自動切断装置及び開先加工品の製造方法 | |
JP3877501B2 (ja) | 部品認識データ作成方法及び作成装置並びに電子部品実装装置及び記録媒体 | |
JP6088563B2 (ja) | 位置及び姿勢の変換演算機能を備えたワーク取出しロボットシステム、及びワーク取出し方法 | |
US20170151673A1 (en) | Manipulator system, and image capturing system | |
KR20060052609A (ko) | 레이저 가공기 및 레이저 가공 방법 | |
JP5861462B2 (ja) | はんだ検査のための検査基準登録方法およびその方法を用いた基板検査装置 | |
JP2013154457A (ja) | ワーク移載システム、ワーク移載方法及びプログラム | |
TW200821156A (en) | Screen printing equipment, and method for image recognition and alignment | |
JP2007254128A (ja) | 物品移載装置 | |
JPH03228591A (ja) | ワーク把持装置、ワーク及びその収納ケース | |
JP6684684B2 (ja) | 試料容器の位置ずれ検出方法およびそれを用いた撮像方法、ならびに試料容器の位置ずれ検出装置 | |
US20220092330A1 (en) | Image processing device, work robot, substrate inspection device, and specimen inspection device | |
WO2022257618A1 (zh) | 一种晶圆表面缺陷检测装置及晶圆表面缺陷检测方法 | |
CN111477558B (zh) | 一种产品的视觉检测设备 | |
JP2012230041A (ja) | 位置検出方法、位置検出装置、ロボットシステム | |
CN114088738A (zh) | 一种环状焊缝的高精度缺陷检测方法和装置 | |
JP3887807B2 (ja) | 画像計測装置 | |
JP2010161243A (ja) | 部品認識装置および部品移載装置 | |
JP2008294065A (ja) | 電子部品の実装方法及び装置 | |
CN116175542B (zh) | 确定夹具抓取顺序的方法、装置、电子设备和存储介质 | |
WO2018173365A1 (ja) | 画像処理方法および画像処理装置 | |
CN114782535A (zh) | 工件位姿识别方法、装置、计算机设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Withdrawal of application because of no request for examination |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20120703 |