JP2013010157A - ロボット制御システム、ロボットシステム及びマーカー処理方法 - Google Patents
ロボット制御システム、ロボットシステム及びマーカー処理方法 Download PDFInfo
- Publication number
- JP2013010157A JP2013010157A JP2011143715A JP2011143715A JP2013010157A JP 2013010157 A JP2013010157 A JP 2013010157A JP 2011143715 A JP2011143715 A JP 2011143715A JP 2011143715 A JP2011143715 A JP 2011143715A JP 2013010157 A JP2013010157 A JP 2013010157A
- Authority
- JP
- Japan
- Prior art keywords
- marker
- robot
- information
- image
- centroid
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Abstract
【課題】 操作対象物に設定された第1のマーカーの面積重心に基づき、マーカー向き情報を特定できるロボット制御システム等の提供。
【解決手段】 ロボット制御システム10は、撮像部20から得られる画像情報に基づいて画像処理を行う処理部110と、処理部110の処理結果に基づいてロボット30の制御を行う制御部120と、を含む。そして、処理部110は、画像情報に基づいて、ロボット30の操作対象物に設定された第1のマーカーの認識処理を行い、第1のマーカーの認識処理の結果に基づいて、第1のマーカーに設定された第1の画像構成要素の面積重心を求め、面積重心に基づいて、第1のマーカーが示す向きを表すマーカー向き情報を求める。さらに、制御部120は、マーカー向き情報に応じてロボット30を制御する。
【選択図】 図2
【解決手段】 ロボット制御システム10は、撮像部20から得られる画像情報に基づいて画像処理を行う処理部110と、処理部110の処理結果に基づいてロボット30の制御を行う制御部120と、を含む。そして、処理部110は、画像情報に基づいて、ロボット30の操作対象物に設定された第1のマーカーの認識処理を行い、第1のマーカーの認識処理の結果に基づいて、第1のマーカーに設定された第1の画像構成要素の面積重心を求め、面積重心に基づいて、第1のマーカーが示す向きを表すマーカー向き情報を求める。さらに、制御部120は、マーカー向き情報に応じてロボット30を制御する。
【選択図】 図2
Description
本発明は、ロボット制御システム、ロボットシステム及びマーカー処理方法等に関係する。
近年、生産現場において、作業の自動化を図るために、産業用ロボットを用いてワークをピッキングしたり、パレタイズをする手法が用いられている。産業用ロボットを用いてパレタイズ等を行う場合には、産業用ロボットがパレットの位置や向きを認識する必要がある。そのための手法として、パレットやパレットの区画内に設けられた突起や切り欠けなどの物理的形状や、パレットに貼付したマーカーなどを認識して、物理的形状やマーカーの認識処理結果に基づいて、パレットの位置や向きを特定する手法がある。他にも、ワークそのものをマーカーとして用いて、ワークやパレットの区画の位置や向きを認識する手法が考案されており、特許文献1に記載されている。
前述した手法には以下のような問題点がある。
まず、パレットやパレットの区画内に設けられた突起や切り欠けなどの物理的形状の認識処理を行うことにより、パレットの位置や向きを判別する手法は、あらかじめパレット毎に突起や切り欠けなどの物理的な形状を設ける必要があり、準備コストが大きいという問題点がある。さらに、あらかじめ設けられた物理的形状からは、あらかじめ決められた情報しか読み取ることができないという問題点もある。パレットにマーカーをあらかじめ貼付しておく場合も同様である。
また、特許文献1に記載されているワーク自体をマーカーとして用いる手法には、ワークが例えば3次元形状のような複雑な形状である場合に、マーカーとしてのワークの検出が難しくなるという問題点がある。
本発明の幾つかの態様によれば、操作対象物に設定された第1のマーカーの面積重心に基づき、マーカー向き情報を特定できるロボット制御システム、ロボットシステム及びマーカー処理方法等を提供できる。
また、本発明の幾つかの態様によれば、非回転対称な第1のマーカーの設定位置や向きのずれを許容して、マーカー向き情報を特定できるロボット制御システム、ロボットシステム及びマーカー処理方法等を提供できる。
本発明の一態様は、撮像部から得られる画像情報に基づいて画像処理を行う処理部と、前記処理部の処理結果に基づいてロボットの制御を行う制御部と、を含み、前記処理部は、前記画像情報に基づいて、前記ロボットの操作対象物に設定された第1のマーカーの認識処理を行い、前記第1のマーカーの前記認識処理の結果に基づいて、前記第1のマーカーに設定された第1の画像構成要素の面積重心を求め、前記面積重心に基づいて、前記第1のマーカーが示す向きを表すマーカー向き情報を求め、前記制御部は、前記マーカー向き情報に応じて前記ロボットを制御することを特徴とするロボット制御システムに関係する。
本発明の一態様では、撮像部から得られる画像情報に基づいて、ロボットの操作対象物に設定された第1のマーカーの認識処理を行う。そして、第1のマーカーの認識処理の結果に基づいて、第1のマーカーに設定された第1の画像構成要素の面積重心を求める。さらに、面積重心に基づいて、マーカー向き情報を求める。その結果として、マーカー向き情報に応じてロボットを制御することが可能となる。
また、本発明の一態様では、前記処理部は、前記第1のマーカーの前記認識処理の結果に基づいて、非回転対称である前記第1の画像構成要素の前記面積重心を求め、前記面積重心に基づいて前記マーカー向き情報を求めてもよい。
これにより、第1のマーカーに設定された非回転対称である第1の画像構成要素の面積重心を求め、面積重心に基づいてマーカー向き情報を求めること等が可能になる。第1の画像構成要素は非回転対称であるため、第1の画像構成要素の面積重心からマーカー向き情報を一つに特定すること等が可能となる。
また、本発明の一態様では、前記処理部は、前記第1のマーカーの前記認識処理の結果に基づいて、前記第1のマーカーにおける前記第1の画像構成要素の外形重心を求め、前記面積重心と前記外形重心とに基づいて、前記マーカー向き情報を求めてもよい。
これにより、第1の画像構成要素の面積重心と外形重心とに基づいて、マーカー向き情報を求めること等が可能になる。また、面積重心と外形重心とが一致していない場合には、面積重心の位置と外形重心の位置との差に基づいて、マーカー向き情報を求めること等が可能になる。
また、本発明の一態様では、前記処理部は、前記画像情報に基づいて、前記第1の画像構成要素の内側に第2の画像構成要素が設定された前記第1のマーカーの前記認識処理を行い、前記第1のマーカーの前記認識処理の結果に基づいて、前記第1の画像構成要素の前記面積重心と前記外形重心とを求め、前記面積重心と前記外形重心とに基づいて、前記マーカー向き情報を求めてもよい。
これにより、第1のマーカーにおいて、第1の画像構成要素の内側に第2の画像構成要素を設定して、面積重心の位置と外形重心の位置とをずらすこと等が可能となる。その結果、面積重心の位置と外形重心の位置との差に基づいて、マーカー向き情報を求めること等が可能になる。
また、本発明の一態様では、前記処理部は、前記第1のマーカーの前記第1の画像構成要素の内側に設定され、前記ロボットの制御情報が埋め込まれた第2のマーカーの認識処理を、前記画像情報に基づいて行い、前記制御部は、前記第1のマーカーと前記第2のマーカーの前記認識処理の結果に基づいて、前記ロボットを制御してもよい。
これにより、第1のマーカーの認識処理の結果に基づき求められたマーカー向き情報と、第2のマーカーの認識処理の結果に基づき求められた制御情報とに基づいて、ロボットを制御すること等が可能になる。
また、本発明の一態様では、前記処理部は、前記画像情報に基づいて、前記第1の画像構成要素の内側に第2の画像構成要素が設定された前記第1のマーカーの前記認識処理と、前記第1のマーカーの前記第2の画像構成要素の内側に設定された前記第2のマーカーの前記認識処理を行い、前記制御部は、前記第1のマーカーと前記第2のマーカーとの前記認識処理の結果に基づいて、前記ロボットを制御してもよい。
これにより、第1の画像構成要素の内側に第2の画像構成要素が設定された第1のマーカーの認識処理と、第1のマーカーの第2の画像構成要素の内側に設定された第2のマーカーの認識処理を行うこと等が可能になる。この時、第2のマーカーは、第1のマーカーの第1の画像構成要素と第2の画像構成要素の内側に設定されている。その結果、第2のマーカーの探索範囲を第2の画像構成要素の内側に絞り込むこと等が可能になる。
また、本発明の一態様では、前記処理部は、前記第1の画像構成要素の画素の位置情報に基づいて、前記面積重心を求めてもよい。
これにより、第1の画像構成要素の画素の位置情報に基づいて、面積重心を求めること等が可能になり、面積重心を求める処理を簡易化すること等が可能となる。
また、本発明の一態様では、前記操作対象物は、ワークが配置される複数の区画を有するパレットであり、前記処理部は、前記パレットに設定された前記マーカー向き情報に基づいて、前記パレットの区画位置情報を求め、前記制御部は、前記区画位置情報に基づいて、前記ロボットの制御を行ってもよい。
これにより、マーカー向き情報に基づいて、パレットの区画位置情報を求め、区画位置情報に基づいて、ロボットの制御を行うこと等が可能になる。その結果、ロボットの各部をパレットの区画位置に対してより正確に移動させること等が可能になる。
また、本発明の一態様では、前記処理部は、前記第1のマーカーの前記第1の画像構成要素の内側に設定され、前記ロボットの制御情報が埋め込まれたマーカーである第2のマーカーの認識処理を、前記画像情報に基づいて行い、前記第2のマーカーの前記認識処理の結果に基づいて、前記制御情報に含まれる前記区画位置情報を求めてもよい。
これにより、第2のマーカーの認識処理に基づいて、第2のマーカーに埋め込まれたロボットの制御情報を取得すること等が可能となり、制御情報に含まれるパレットの区画位置情報を求め、区画位置情報に基づいて、ロボットの制御を行うこと等が可能になる。
また、本発明の他の態様は、前記ロボット制御システムを含むロボットシステムに関係する。
また、本発明の他の態様では、撮像部からの画像情報を取得し、取得された画像情報に基づいて、前記第1の画像構成要素が設定された前記第1のマーカーの認識処理を行い、前記第1のマーカーの前記認識処理の結果に基づいて、前記第1の画像構成要素の前記面積重心と前記外形重心とを求め、求められた前記面積重心と前記外形重心とに基づいて、前記第1のマーカーが示す向きを表すマーカー向き情報を求めることを特徴とするマーカー処理方法に関係する。
これにより、第1のマーカーの第1の画像構成要素の面積重心と外形重心とを求め、求められた面積重心と外形重心とに基づいて、マーカー向き情報を求めることが可能になる。
また、本発明の他の態様では、取得された画像情報に基づいて、前記第1の画像構成要素の内側に第2の画像構成要素が設定された前記第1のマーカーの認識処理を行ってもよい。
これにより、第1の画像構成要素の内側に第2の画像構成要素が設定された第1のマーカーの認識処理を行うこと等が可能になり、第1のマーカーの認識処理の結果に基づいて、異なる位置に存在する第1のマーカーの第1の画像構成要素の面積重心と外形重心とを求めること等が可能になる。
また、本発明の他の態様では、取得された画像情報に基づいて、前記第1のマーカーの前記第1の画像構成要素の内側に設定された第2のマーカーの認識処理を行い、前記第2のマーカーに埋め込まれた情報を取得してもよい。
これにより、第2のマーカーに埋め込まれた情報を取得すること等が可能になる。
以下、本実施形態について説明する。まず、本実施形態の概要を説明し、次にシステム構成例を説明する。その後に、本実施形態の特徴について説明する。そして最後に、フローチャートを用いて本実施形態の処理の流れについて説明する。なお、以下に説明する本実施形態は、特許請求の範囲に記載された本発明の内容を不当に限定するものではない。また本実施形態で説明される構成の全てが、本発明の必須構成要件であるとは限らない。
1.概要
近年、生産現場において、作業の自動化を図るために、産業用ロボットを用いてワークをピッキングしたり、パレタイズをする手法が用いられている。本実施形態では、図1のように作業者70とロボット30が協業するような場合を想定している。作業者70の作業が完了すると、作業者70はロボット30にパレット50やワーク40を渡して、ロボット30が次の作業を実施する。
近年、生産現場において、作業の自動化を図るために、産業用ロボットを用いてワークをピッキングしたり、パレタイズをする手法が用いられている。本実施形態では、図1のように作業者70とロボット30が協業するような場合を想定している。作業者70の作業が完了すると、作業者70はロボット30にパレット50やワーク40を渡して、ロボット30が次の作業を実施する。
このように産業用ロボットを用いてパレタイズ等を行う場合には、産業用ロボットがパレットの位置や向き(またはこれらと代替できるような情報)を認識する必要がある。そのための手法として、パレットやパレットの区画内に設けられた突起や切り欠けなどの物理的形状や、パレットに貼付したマーカーなどを認識し、その認識結果に基づいて、パレットの位置や向きを特定する手法がある。
しかし、このような手法は、あらかじめパレット毎に突起や切り欠けなどの物理的な形状を設ける必要があり、準備コストが大きいという問題点がある。さらに、あらかじめ設けられた物理的形状からは、あらかじめ決められた情報しか読み取ることができないという問題点もある。パレットにマーカーをあらかじめ貼付しておく場合も同様である。
上記の手法の他にも、ワークそのものをマーカーとして用いて、ワークやパレットの区画の位置や向きを認識する手法が考案されている。現実的にはワークによってロボットの作業が変わったり、使用するパレットやパレットの区画が変わることが多いため、この手法はワークに対応する情報を得られる点において有効である。
しかし、この手法には、ワークが例えば3次元形状のような複雑な形状である場合に、マーカーとしてのワークの検出が難しくなるという問題点がある。
以上より、ロボットを制御してパレタイズ等を行う場合には、以下のような2つの課題の克服が期待されている。第1の課題は、ワークやパレットの種類若しくは作業状況等に応じて、操作対象物に関する情報をロボット制御システムが取得することができるようになることである。そして、第2の課題は、3次元形状のような複雑な形状のワークを用いる場合であっても、操作対象物の位置や向きに関する情報をロボット制御システムが検出することができるようになることである。
第1の課題については、状況に応じたマーカーを作業者が逐一パレットに貼付する手法が考えられる。また、第2の課題については、ワークをマーカーとしては用いず、2次元形状として認識することができる他のマーカーを用いる手法が考えられる。
すなわち、あらかじめマーカー等をパレットに設定しておくのではなく、作業者が逐一パレットにマーカーを貼付して、作業者がマーカーを貼る位置や向きを調整したり、異なる情報が埋め込まれた複数種類のマーカーを用いることにより、ワークやパレットの種類または作業状況等に応じた情報をパレットに付与することが可能となる。
このようにして操作対象物にマーカーを設定してロボットを制御する場合には、操作対象物に設定されたマーカーの位置と向きを判別する必要がある。マーカーがあらかじめ決まった位置や向きに設定されているのではないという点が従来と異なる。そこで、本実施形態では、後述する手法により、ロボットの操作対象物に設定されたマーカーの認識処理を行い、マーカーが示す向きを表すマーカー向き情報を特定し、マーカー向き情報に基づき、ロボットを制御する。これにより、第1の課題と第2の課題を解決することが可能となる。
2.システム構成例
2.1 ロボットシステムの構成例
本実施形態に係るロボットシステムの構成例を図1に示す。ロボットシステムは、ロボット制御システム10と、撮像部20と、ロボット30とを含む。ただし、ロボットシステムは図1の構成に限定されず、これらの一部の構成要素を省略したり、他の構成要素を追加するなどの種々の変形実施が可能である。また、本実施形態では、作業者70とロボット30とが協業するような場面を想定している。
2.1 ロボットシステムの構成例
本実施形態に係るロボットシステムの構成例を図1に示す。ロボットシステムは、ロボット制御システム10と、撮像部20と、ロボット30とを含む。ただし、ロボットシステムは図1の構成に限定されず、これらの一部の構成要素を省略したり、他の構成要素を追加するなどの種々の変形実施が可能である。また、本実施形態では、作業者70とロボット30とが協業するような場面を想定している。
ロボット制御システム10は、撮像部20により得られる撮像画像に基づいて、制御信号を生成し、制御信号に基づいてロボット30を制御する。ロボット制御システムの詳細は後述する。なお、本実施形態のロボット制御システム10の一部又は全部の機能は、例えばPC等の情報処理装置などにより実現される。但し、ロボット制御システム10の一部又は全部の機能を、撮像部20やロボット30により実現したり、情報処理装置とは異なる電子機器により実現してもよい。また、本実施形態のロボット制御システム10の一部又は全部の機能は、情報処理装置もしくは撮像部20、ロボット30と通信により接続されたサーバにより実現してもよい。
撮像部(カメラ)20は、作業スペースを撮影する。この撮像部20は、例えばCCD、CMOSセンサー等の撮像素子と光学系を含む。また画像処理用等に用いられるデバイス(プロセッサー)を含むことができる。撮像部20は、ロボット30やワーク40、パレット50が位置し得る作業スペースを撮影することができる位置に配置される。例えば、撮像部20は、ワーク40やパレット50の直上に配置されてもよいし(固定カメラ)、ロボット30のアーム320やハンド330もしくは図1に示すようにロボット30の胴体正面等に取り付けられてもよい(可動カメラ)。また、撮像部20は、一台で作業スペース全体又は一部を撮影してもよいし、複数台によって、作業スペースの全体又は一部を撮影してもよい。そして、撮像部20は、撮像された画像情報をロボット制御システム10等に出力する。また、撮像部20を用いることにより、ワーク40やパレット50、マーカー60の位置や姿勢等に関する情報を検出できればよいため、撮像部20による撮像画像の取得以外の手法、例えばレーザー等を用いた3次元スキャン等を用いてもよい。
なお、本実施形態においては、撮像された画像情報をそのままロボット制御システム10に出力するものとするが、これに限定されるものではない。例えば、ロボット制御システム10の処理部の一部を撮像部20に持たせてもよい。その場合、撮像画像に対して画像処理が施された後の情報が出力されることになる。
ロボット30は、アーム320及びハンド330を有し、ロボット制御システム10からの制御信号に従い処理を行う。ロボット30は、例えばワーク40のピッキングやパレタイズなどの処理を行う。図1においては、ロボット30は双腕であるが、これに限定されない。
ここで、アーム320とは、ロボット30のパーツであって、一つ以上の関節を含む可動パーツのことをいう。また、アーム320のエンドポイントとは、アーム320の先端部分のポイントであって、ロボット30のハンド330以外の他の部分と接続されていない部分のことをいう。さらに、ハンド330とは、ワーク40を把持したり、ワーク40に加工を施すためにアーム320のエンドポイントに取り付ける部品のことをいう。なお、アームのエンドポイントの位置は、ハンドの位置としてもよい。
また、ロボット30の操作対象物としては、ワーク40やパレット50などを想定できる。本実施形態においては、作業者70によってパレット50にマーカー60が貼付(広義には設定)されている。ただし、マーカー60はあらかじめパレット50に設定されていてもよい。
ここで、マーカー60とは、目印として利用することができる文字、図形、記号、模様もしくは立体的形状もしくはこれらの結合又はこれらと色彩との結合を形成する有体物で、物体に固定可能なものである。例えば、シールやステッカー、ラベル等である。なお、マーカーの形状や、色彩、模様等がどのようなものであるかは問わないが、他の領域と区別しやすいもの、例えば赤色一色からなる画像やシールなどが望ましい。
2.2 ロボット制御システムの構成例
次に、本実施形態のロボット制御システム及びこれを含むロボットシステムの詳細な構成例を図2に示す。
次に、本実施形態のロボット制御システム及びこれを含むロボットシステムの詳細な構成例を図2に示す。
ロボット制御システム10は、処理部110と、制御部120と、記憶部130と、I/F部(入力部)140と、を含む。なお、ロボット制御システム10は、図2の構成に限定されず、これらの一部の構成要素を省略したり、他の構成要素を追加するなどの種々の変形実施が可能である。
次に各部で行われる処理について説明する。
処理部110は、記憶部130からのデータや、I/F部140において受信した撮像部20或いはロボット30からの情報等に基づいて種々の処理を行う。この処理部110の機能は、各種プロセッサー(CPU等)、ASIC(ゲートアレイ等)などのハードウェアや、プログラムなどにより実現できる。
さらに、処理部110は、マーカー向き情報特定部112と、区画位置情報特定部114と、を含む。なお、処理部110は図2の構成に限定されず、これらの一部の構成要素を省略したり、他の構成要素を追加するなどの種々の変形実施が可能である。
マーカー向き情報特定部112は、第1のマーカーが示す向きを表すマーカー向き情報を特定する。区画位置情報特定部114は、パレットの区画位置情報を特定する。なお、ここではマーカー向き情報特定部112と区画位置情報特定部114は、ロボット制御システム10の処理部110に設けられるものとしたがこれに限定されるものではない。マーカー向き情報特定部112と区画位置情報特定部114は、撮像部20やロボット30等に内蔵されてもよい。
制御部120は、処理部110の処理結果に基づいて、ロボット30を制御する。
記憶部130は、データベースを記憶したり、処理部110等のワーク領域となるもので、その機能はRAM等のメモリーやHDD(ハードディスクドライブ)などにより実現できる。
I/F部140は、ロボット制御システム10に対して作業者70からの入力等を行ったり、撮像部20やロボット30からの情報を受け付けるためのインターフェースである。I/F部140は、作業者70からの入力を受け付ける入力部として、スイッチやボタン、キーボード或いはマウス等から構成されてもよい。
また、ロボット制御システム10を含むロボットシステムの例としては、撮像部20や、ロボット30等を含むロボットシステム等が挙げられる。
撮像部20については上述の通りである。ロボット30は、アーム320及びハンド330の他に制御部310を含む。制御部310は、ロボット制御システム10からの情報を受け付けロボット30の各部(アーム320及びハンド330等)の制御を行う。
3.本実施形態の手法
以上の本実施形態では、撮像部20から得られる画像情報に基づいて画像処理を行う処理部110と、処理部110の処理結果に基づいてロボット30の制御を行う制御部120と、を含む。そして、処理部110は、画像情報に基づいて、ロボットの操作対象物に設定された第1のマーカーの認識処理を行い、第1のマーカーが示す向きを表すマーカー向き情報を特定する。さらに、制御部120は、マーカー向き情報に応じてロボット30を制御する。
以上の本実施形態では、撮像部20から得られる画像情報に基づいて画像処理を行う処理部110と、処理部110の処理結果に基づいてロボット30の制御を行う制御部120と、を含む。そして、処理部110は、画像情報に基づいて、ロボットの操作対象物に設定された第1のマーカーの認識処理を行い、第1のマーカーが示す向きを表すマーカー向き情報を特定する。さらに、制御部120は、マーカー向き情報に応じてロボット30を制御する。
また、処理部110は、第1のマーカーの認識処理の結果に基づいて、第1のマーカーに設定された第1の画像構成要素の面積重心を求め、面積重心に基づいて、第1のマーカーが示す向きを表すマーカー向き情報を求めてもよい。
本実施形態では、撮像部20から得られる画像情報に基づいて、ロボット30の操作対象物に設定された第1のマーカーの認識処理を行う。
ここで、撮像部20から得られる画像情報とは、撮像部20により作業スペースを撮像した際に得られる画像である撮像画像を表す情報、又は撮像画像から求めることができる情報のことをいう。画像情報は、撮像画像そのものであってもよい。
また、認識処理とは、画像情報により表される撮像画像内に映る第1のマーカーやパレット等の認識対象物を、認識対象物以外の環境物と区別して、特定することをいう。言い換えると、認識処理とは、画像情報により表される撮像画像内に映る認識対象物を判別し、ラベリングすることをいう。また、認識処理において、認識対象物の撮像画像内での位置を特定してもよい。
さらに、第1のマーカーとは、前述したマーカーの一つであり、ロボットを制御する際に用いられるマーカー向き情報を示すマーカーのことをいう。
次に本実施形態では、第1のマーカーの認識処理の結果に基づいて、第1のマーカーに設定された第1の画像構成要素の面積重心を求める。
ここで、第1の画像構成要素とは、第1のマーカーにあらかじめ設定された所定の領域であり、第1のマーカーの一部分であってもよく、第1のマーカーの全ての領域であってもよい。
例えば、図3(A)と図3(B)に第1のマーカーと第1の画像構成要素の一例を示す。図3(A)は、第1のマーカーMK1と第1の画像構成要素IMF1が一致している例を示している。また、図3(B)は、第1のマーカーMK2と第1の画像構成要素IMF2が一致しておらず、第1の画像構成要素IMF2が第1のマーカーMK2の一部の領域として設定されている例を示している。
また、面積重心とは、物体の所定の領域において、単位面積当たりの質量が均一である場合に、各単位面積領域にはたらく重力の合力の作用点、言い換えれば質量の中心点のことをいう。例えば、三角形の場合には、2つの中線の交点が面積重心となる。具体的には、図3(A)の場合にはACP1が面積重心であり、図3(B)の場合にはACP2が面積重心である。
そして、面積重心に基づいて、第1のマーカーが示す向きを表すマーカー向き情報を求める。
ここで、マーカー向き情報とは、撮像画像の縦軸と横軸を基準として、第1のマーカーが示す向きを表す情報のことをいう。本実施形態では、マーカー向き情報により表される向きをパレットの向きとみなして、ロボットを制御する。
具体例として、図4(A)、図4(B)に、面積重心に基づき求めたマーカー向き情報の一例を示す。図4(A)において、第1のマーカーMK1の第1の画像構成要素IMF1の面積重心はACP1として求められている。この場合に、例えば第1の画像構成要素の中線の中点へ面積重心から向かう方向が、第1のマーカーが示す向きであると判断する。すると、図4(A)では、第1の画像構成要素IMF1の中線ML1の中点MP1へ面積重心ACP1から向かう方向DRM1が、第1のマーカーが示す向きである。同様に、中線ML2、ML3の中点MP2、MP3について考えた場合には、第1のマーカーが示す向きとしてDRM2、DRM3が求められる。これらの向きDRM1、DRM2、DRM3を表す情報がマーカー向き情報となる。
同様に、図4(B)の場合にも、第1のマーカーMK2の第1の画像構成要素IMF2における面積重心ACP2を求め、第1の画像構成要素IMF2の中線ML4、ML5、ML6の中点MP4、MP5、MP6へ面積重心ACP2から向かう方向を、それぞれDRM4、DRM5、DRM6として求める。これらの向きDRM4、DRM5、DRM6を表す情報がマーカー向き情報となる。
以上のようにして、マーカー向き情報を求め、マーカー向き情報に応じてロボット30を制御することが可能となる。本実施形態によれば、回転させた画像構成要素と回転前の画像構成要素と画像比較処理を行わず、マーカー向き情報を求めること等が可能となるため、処理部への処理負荷を軽減することが可能となる。また、操作対象物の製造時等にあらかじめ操作対象物に物理的な形状やマーカー等を設定しておく必要がないため、準備コストを削減することが可能となる。
また、撮像部により作業スペースを撮像した結果、操作対象物の撮像画像においてオクルージョンが発生している場合がある。
ここで、オクルージョンとは、ロボットのアーム等の手前にある障害物に遮られて、本来の撮像対象である奥の物体が見えなくなっている状態のことをいう。また、本実施形態では、撮像部の視野範囲の外に物体が存在しているため、物体が見えなくなっている状態も同様に、オクルージョンとして扱う。
オクルージョンが発生している場合には、撮像画像に操作対象物の一部の領域しか映されておらず、場合によっては操作対象物のほとんどの部分が映されていないこともある。このような場合には、撮像画像のみに基づいて、操作対象物の位置や向きを特定することはできない。
しかし、本実施形態では、オクルージョンが発生している場合であっても、第1のマーカーを認識することさえできれば、第1のマーカーの認識処理の結果に基づいて、マーカー向き情報を特定することが可能となる。そして、このような場合であっても、マーカー向き情報に基づいて、ロボットを制御することが可能となる。
上記のように、マーカー向き情報を求める場合、設定された第1の画像構成要素によっては、マーカーが示す向きが複数、マーカー向き情報に含まれる場合がある。
そこで、処理部110は、第1のマーカーの認識処理の結果に基づいて、非回転対称である第1の画像構成要素の面積重心を求め、面積重心に基づいてマーカー向き情報を求めてもよい。
非回転対称である第1の画像構成要素とは、2次元座標上において面積重心を中心に第1の画像構成要素を回転させる場合に、一回転させて初めて回転前の第1の画像構成要素と一致する第1の画像構成要素のことをいう。言い換えれば、非回転対称である第1の画像構成要素とは、面積重心を中心に360°回転させるまでに、回転前の第1の画像構成要素と一致しない第1の画像構成要素のことである。
具体例を図5に示す。図5では、第1のマーカーMKの第1の画像構成要素はIMFであり、MKとIMFは一致している。この時、第1の画像構成要素IMFは、面積重心ACPを中心に一回転させて初めて回転前のIMFと一致するため、非回転対称である第1の画像構成要素である。また、この例では、例えば第1のマーカーMKが形成する矢印の底辺からの高さLMを第1のマーカーMKの高さとして求める。そして、LMの半分の高さを表す点線CLを基準として、面積重心ACPが位置する方向と逆の方向DRが、第1のマーカーが示す向きであると判断し、マーカー向き情報を求める。ただし、マーカー向き情報を求める方法はこれに限定されない。
また、ここでは、非回転対称であり、撮像画像に対する向きを一方向に特定することができる性質のことを指向性と呼ぶ。したがって、図5に示す第1のマーカーMKなどは指向性を有するマーカーとも呼ぶことができる。
これにより、第1のマーカーに設定された非回転対称である第1の画像構成要素の面積重心を求め、面積重心に基づいてマーカー向き情報を求めること等が可能になる。第1の画像構成要素は非回転対称であるため、第1の画像構成要素の面積重心からマーカー向き情報を一つに特定すること等が可能となる。本実施形態は、マーカーが示す向きが複数含まれるマーカー向き情報が求められる場合に比べて、マーカーが示す向きを一方向に特定する処理が不要である点が優位である。さらに、上述した手法と同様に、オクルージョンの影響を受けにくいという点が優位である。
また、処理部110は、第1のマーカーの認識処理の結果に基づいて、第1のマーカーにおける第1の画像構成要素の外形重心を求め、面積重心と外形重心とに基づいて、マーカー向き情報を求めてもよい。
ここで、外形重心とは、物体の中心位置から最も外側に位置する輪郭線によって囲まれる領域の重心のことをいう。具体例は後述する。
これにより、第1の画像構成要素の面積重心と外形重心とに基づいて、マーカー向き情報を求めること等が可能になる。また、面積重心と外形重心とが一致していない場合には、面積重心の位置と外形重心の位置との差に基づいて、マーカー向き情報を求めること等が可能になる。
上記のように面積重心と外形重心とに基づきマーカー向き情報を求める場合に、面積重心と外形重心が一致してしまい、結果的に1点から求める場合と同じ結果となることがある。面積重心と外形重心がずれていれば、2点間の位置の差に基づきマーカー向き情報を求めることが可能であるため、面積重心と外形重心はずれていることが望ましい。
そこで、処理部110は、画像情報に基づいて、第1の画像構成要素の内側に第2の画像構成要素が設定された第1のマーカーの認識処理を行い、第1のマーカーの認識処理の結果に基づいて、第1の画像構成要素の面積重心と外形重心とを求め、面積重心と外形重心とに基づいて、マーカー向き情報を求めてもよい。
ここで、第1の画像構成要素の内側とは、第1の画像構成要素の最も外側の輪郭線により囲まれた範囲の内側を指す。
また、第2の画像構成要素とは、第1のマーカーの最も外側の輪郭線により囲まれた範囲内にあらかじめ設定された所定の領域であり、第1のマーカーの一部分であってもよく、第1のマーカー内に存在する空間であってもよい。
例えば、具体例として、第2の画像構成要素が設定された第1のマーカーの外形重心と面積重心とに基づき、マーカー向き情報を求める一例を、図6(A)、図6(B)に示す。図6(A)において、第1のマーカーMK1の第1の画像構成要素IMF1の面積重心はACP1であり、IMF1の外形重心はOCP1として求められる。本例でIMF1の面積重心ACP1を求める場合には、IMF1の輪郭線により囲まれる範囲で、かつIMF1の内部に設けられた第2の画像構成要素IMF2の輪郭線の外側の範囲において、面積重心を求め、ACP1とする。一方で、本例でIMF1の外形重心OCP1を求める場合には、IMF2もIMF1の一部として扱い、第1の画像構成要素IMF1の輪郭線により囲まれる範囲の面積重心を求め、求めた面積重心を外形重心OCP1とする。
このように、第1の画像構成要素の内側に第2の画像構成要素を設定したことにより、第1の画像構成要素の面積重心の位置と外形重心の位置とをずらすこと等が可能となる。その結果、面積重心の位置と外形重心の位置との差に基づいて、マーカー向き情報を求めること等が可能になる。
例えば、図6(A)では、面積重心ACP1から外形重心OCP1へ向かう方向DRM1を第1のマーカーが示す向きとして、マーカー向き情報を求める。
同様にして、図6(B)では、第1の画像構成要素IMF3の内側に第2の画像構成要素IMF4が設定され、IMF3の面積重心ACP2と外形重心OCP2と求めることにより、第1のマーカーMK2が示す向きDRM2を求めることができる。
以上のように、本実施形態によれば、画像比較処理等を行わず、第1のマーカーが示す向きを一方向に特定して、マーカー向き情報を求めること等が可能となる。
極めて正確にロボットを制御する必要がある場合などにおいては、第1のマーカーから得られるマーカー向き情報だけでは、ロボットを制御する情報として不足であることがある。
そこで、処理部110は、第1のマーカーの第1の画像構成要素の内側に設定され、ロボット30の制御情報が埋め込まれた第2のマーカーの認識処理を、画像情報に基づいて行ってもよい。そして、制御部120は、第1のマーカーと第2のマーカーの認識処理の結果に基づいて、ロボット30を制御してもよい。
ここで、第2のマーカーとは、前述したマーカーの一つであり、第2のマーカーを構成する文字、図形、記号、模様もしくは立体的形状もしくはこれらの結合又はこれらと色彩との結合が、ロボットを制御する際に用いられる制御情報を表しているマーカーのことをいう。
例えば、図7(A)は、第1のマーカーMK1と一致する第1の画像構成要素IMF1の内側に設定された第2のマーカーMK2を示している。本例では、第2のマーカーMK2の白色と黒色の配色パターンによって、制御情報を表しており、MK2の配色パターンの認識処理を行うことにより、制御情報を取得することが可能である。配色パターンと制御情報の対応関係はあらかじめ定めておく。
これにより、第1のマーカーの認識処理の結果に基づき求められたマーカー向き情報と、第2のマーカーの認識処理の結果に基づき求められた制御情報とに基づいて、ロボット30を制御すること等が可能になる。
第2のマーカーが埋め込まれていることが分かっていたとしても、第2のマーカーの探索範囲が広い場合には、第2のマーカーの探索処理の負荷が大きくなってしまう場合がある。
そこで、処理部110は、画像情報に基づいて、第1の画像構成要素の内側に第2の画像構成要素が設定された第1のマーカーの認識処理と、第1のマーカーの第2の画像構成要素の内側に設定された第2のマーカーの認識処理を行ってもよい。そして、制御部120は、第1のマーカーと第2のマーカーとの認識処理の結果に基づいて、ロボット30を制御してもよい。
例えば、図7(B)は、第1の画像構成要素IMF2の内側に第2の画像構成要素IMF3が設定された第1のマーカーMK2と、IMF3の内側に設定された第2のマーカーMK3を示している。
これにより、第1の画像構成要素の内側に第2の画像構成要素が設定された第1のマーカーの認識処理と、第1のマーカーの第2の画像構成要素の内側に設定された第2のマーカーの認識処理を行うこと等が可能になる。この時、第2のマーカーは、第1のマーカーの第1の画像構成要素と第2の画像構成要素の内側に設定されている。その結果、第2のマーカーの探索範囲を第2の画像構成要素の内側に絞り込むこと等が可能になる。
また、処理部110は、第1の画像構成要素の画素の位置情報に基づいて、面積重心を求めてもよい。
ここで、画素の位置情報とは、撮像画像内における各画素が存在する座標を表す情報のことをいう。
例えば、画像構成要素の画素の位置情報に基づき面積重心を求める具体例を図8に示す。図8では、撮像画像PIM内で、第1のマーカーMKが画素PXの集合により表されている。また、撮像画像の右下の点を原点(0、0)とする座標位置を画素の位置情報として用いる。本例では、各画素PXに均一に重み付けを行う。例えば、全ての画素の重みが1であるとする。そして、各画素に割り当てた重みと座標位置とに基づいて、面積重心ACPを求めると、座標(12、10)が面積重心ACPとして求められる。
これにより、第1の画像構成要素の画素の位置情報に基づいて、面積重心を求めること等が可能になり、面積重心を求める処理を簡易化すること等が可能となる。
また、ワークが配置される複数の区画を有するパレットが操作対象物である場合に、処理部110は、パレットに設定されたマーカー向き情報に基づいて、パレットの区画位置情報を求めてもよい。そして、制御部120は、区画位置情報に基づいて、ロボット30の制御を行ってもよい。
ここで、区画位置情報とは、パレットの区画に関する情報であり、例えば、パレットの外枠に対する各区画の位置を表す情報などを指す。具体例については後述する。
具体例として、マーカー向き情報に基づいて、パレットの区画位置情報を求める様子を図9(A)〜図9(C)に示す。まず、第1のマーカーMKが図9(A)のような位置にある場合には、パレットの候補位置としてPC1〜PC3などが考えられる。次に、図9(B)のように、第1のマーカーMKの認識処理を行い、マーカーが示す向きDRMを表すマーカー向き情報を求める。そして、制御部は、マーカー向き情報に基づき、パレットの候補位置の中からPC1が正しいパレットの位置であるとみなして、ロボットを制御する。なお、パレットの正しい位置を推定するには、第1のマーカーMKの貼付位置と向きをあらかじめ定めておく必要があり、本例においては第1のマーカーMKはパレットの右上の所定位置に、パレットの上向きに貼付すると定めておく。そのような場合に、マーカーが示す向きがDRMと分かれば、パレットの位置はPC1と推定できる。最後に、正しいと推定したパレットの位置PC1内において、区画DVの探索処理を行い、パレットの区画位置情報を求める。
これにより、マーカー向き情報に基づいて、パレットの区画位置情報を求め、区画位置情報に基づいて、ロボット30の制御を行うこと等が可能になる。その結果、ロボット30の各部をパレットの区画位置に対してより正確に移動させること等が可能になる。
また、処理部110は、第1のマーカーの第1の画像構成要素の内側に設定され、ロボット30の制御情報が埋め込まれたマーカーである第2のマーカーの認識処理を、画像情報に基づいて行い、第2のマーカーの認識処理の結果に基づいて、制御情報に含まれる区画位置情報を求めてもよい。
具体的に、図10(A)と図10(B)は、第2のマーカーに埋め込まれた制御情報に含まれる区画位置情報の一例である。図10(A)は、制御情報に含まれる区画位置情報の一例をまとめた表である。なお、図10(A)の表に記載された未使用区画とは、区画の形状等に起因して使用することができない区画を表す。また、図10(B)は、図10(A)に記載した区画位置情報を撮像画像内のパレットに照らし合わせた様子である。
これにより、第2のマーカーの認識処理に基づいて、第2のマーカーに埋め込まれたロボット30の制御情報を取得すること等が可能となり、制御情報に含まれるパレットの区画位置情報を求め、区画位置情報に基づいて、ロボット30の制御を行うこと等が可能になる。
4.処理の詳細
以下では、図11〜図13のフローチャートを用いて、本実施形態の処理の流れについて説明する。
以下では、図11〜図13のフローチャートを用いて、本実施形態の処理の流れについて説明する。
4.1 パレタイズ処理の詳細
初めに、図11を用いて、パレタイズ処理の流れについて説明する。まず、作業者がパレットにマーカーを貼付する(S1)。この際、作業者はパレットの向きと、パレット内の所定の位置に合わせて、マーカーを貼付する。例えば、パレットの上方向とマーカーの所定の方向とが一致するようにマーカーを貼ることを定めておく。同様に、パレット内の所定の位置をマーカー貼付位置としてあらかじめ定めておく。但し、作業者がマーカーを所定の位置と向きに誤差なく貼付することは不可能であるため、マーカーが貼付されている位置と向きに誤差があっても問題はない。
初めに、図11を用いて、パレタイズ処理の流れについて説明する。まず、作業者がパレットにマーカーを貼付する(S1)。この際、作業者はパレットの向きと、パレット内の所定の位置に合わせて、マーカーを貼付する。例えば、パレットの上方向とマーカーの所定の方向とが一致するようにマーカーを貼ることを定めておく。同様に、パレット内の所定の位置をマーカー貼付位置としてあらかじめ定めておく。但し、作業者がマーカーを所定の位置と向きに誤差なく貼付することは不可能であるため、マーカーが貼付されている位置と向きに誤差があっても問題はない。
次に、マーカーが貼付されたパレットを作業者が作業スペースに配置する(S2)。本実施形態では、図1のように作業者とロボットが協業するような場合を想定しているため、作業者の作業が完了した段階で、ロボットの作業スペース内にパレットを配置する。この時、作業者はパレットの位置や向きに注意を払う必要はない。
そして、ロボット制御システムは、撮像部から得られた画像情報に基づいて、マーカーを検出し(S3)、マーカーが見つかったか否かを判断する(S4)。マーカーが見つかった場合には、パレット位置算出処理を行う(S5)。パレット位置算出の詳細については後述する。一方、マーカーが見つからなかった場合には、全ての処理を終了する。
次に、パレット位置算出処理の結果に基づき、パレット内の区画[1、1]に対応する位置へロボットのハンドを移動させ、区画[1、1]をロボットの処理対象とする(S6)。そして、ロボットの処理対象となる区画内に既にワークが存在するか否かを判断する(S7)。ロボットの処理対象となる区画内にワークが存在しない場合には、ワークのパレタイズ処理を行う(S8)。そして、パレタイズ処理を実施した後、またはロボットの処理対象となる区画内に既にワークが存在する場合には、全区画についてパレタイズ処理を行ったか否かを判断する(S9)。全区画についてパレタイズ処理を行っていないと判断する場合には、次の区画に対応する位置にロボットのハンドを移動させる(S10)。一方、全区画についてパレタイズ処理を行ったと判断する場合には、全ての処理を終了する。
4.1.1 パレットの位置算出処理の詳細
次に、図12を用いて、図11におけるパレット位置算出処理(S5)の詳細について説明する。
次に、図12を用いて、図11におけるパレット位置算出処理(S5)の詳細について説明する。
まず、撮像部から得られた画像情報に基づき、画像情報により表される第1のマーカーを二値化する(S20)。次に、二値化した第1のマーカーの情報に基づいて、第1のマーカーの面積重心を算出し(S21)、第1のマーカーの輪郭線を抽出する(S22)。そして、抽出した第1のマーカーの輪郭線に基づいて、第1のマーカーの外形重心を算出する(S23)。
次に、面積重心と外形重心とが所定の距離以上離れているかを判断する(S24)。面積重心と外形重心とが所定の距離以上離れていると判断する場合には、マーカー向き情報を算出する(S25)。例えば、面積重心から外形重心へ向かう方向をマーカーが示す向きとするようにして、マーカー向き情報を算出する。一方、面積重心と外形重心とが所定の距離以上離れていないと判断する場合には、パレタイズ処理(またはデパレタイズ処理)に関する全ての処理を終了する。
そして、算出したマーカー向き情報と画像情報から得られるパレットの位置とに基づいて、パレットの位置情報を特定する(S26)。
また、第1のマーカーから特定したパレットの位置情報をさらに補完するために、第2のマーカーから制御情報を読み取る(S27)。そして、制御情報に含まれるパレットの区画に関する情報である区画位置情報を特定する(S28)。以上が、パレットの位置算出処理である。
4.2 デパレタイズ処理の詳細
最後に、図13を用いて、デパレタイズ処理の流れについて説明する。デパレタイズ処理の流れはパレタイズ処理の流れとほぼ同様である(S41~S46、S49、S50)。また、パレット位置算出処理も、図12と同様である。
最後に、図13を用いて、デパレタイズ処理の流れについて説明する。デパレタイズ処理の流れはパレタイズ処理の流れとほぼ同様である(S41~S46、S49、S50)。また、パレット位置算出処理も、図12と同様である。
デパレタイズ処理は、パレタイズ処理とS47、S48の処理が異なっている。区画[1、1]にロボットのハンドを移動させ、ロボットの処理対象となる区画を認識した後は、処理対象である区画内にワークが存在している否かを判断する(S47)。処理対象である区画内にワークが存在していると判断する場合には、デパレタイズ処理を行い、区画内からワークを取り出す(S48)。一方、処理対象である区画内にワークが存在していないと判断する場合には、デパレタイズ処理は行わない。以降は、図11の場合と同様である。
以上のように本実施形態について詳細に説明したが、本発明の新規事項および効果から実体的に逸脱しない多くの変形が可能であることは当業者には容易に理解できるであろう。従って、このような変形例はすべて本発明の範囲に含まれるものとする。例えば、明細書又は図面において、少なくとも一度、より広義または同義な異なる用語と共に記載された用語は、明細書又は図面のいかなる箇所においても、その異なる用語に置き換えることができる。またロボット制御システムの構成、動作も本実施形態で説明したものに限定されず、種々の変形実施が可能である。
10 ロボット制御システム、20 撮像部、30 ロボット、40 ワーク、
50 パレット、60 マーカー、70 作業者、
110 処理部、112 マーカー向き情報特定部、114 区画位置情報特定部、
120 制御部、130 記憶部、140 I/F部(入力部)、
310 制御部、320 アーム、330 ハンド
50 パレット、60 マーカー、70 作業者、
110 処理部、112 マーカー向き情報特定部、114 区画位置情報特定部、
120 制御部、130 記憶部、140 I/F部(入力部)、
310 制御部、320 アーム、330 ハンド
Claims (13)
- 撮像部から得られる画像情報に基づいて画像処理を行う処理部と、
前記処理部の処理結果に基づいてロボットの制御を行う制御部と、
を含み、
前記処理部は、
前記画像情報に基づいて、前記ロボットの操作対象物に設定された第1のマーカーの認識処理を行い、前記第1のマーカーの前記認識処理の結果に基づいて、前記第1のマーカーに設定された第1の画像構成要素の面積重心を求め、前記面積重心に基づいて、前記第1のマーカーが示す向きを表すマーカー向き情報を求め、
前記制御部は、
前記マーカー向き情報に応じて前記ロボットを制御することを特徴とするロボット制御システム。 - 請求項1において、
前記処理部は、
前記第1のマーカーの前記認識処理の結果に基づいて、非回転対称である前記第1の画像構成要素の前記面積重心を求め、前記面積重心に基づいて前記マーカー向き情報を求めることを特徴とするロボット制御システム。 - 請求項1又は2において、
前記処理部は、
前記第1のマーカーの前記認識処理の結果に基づいて、前記第1のマーカーにおける前記第1の画像構成要素の外形重心を求め、前記面積重心と前記外形重心とに基づいて、前記マーカー向き情報を求めることを特徴とするロボット制御システム。 - 請求項3において、
前記処理部は、
前記画像情報に基づいて、前記第1の画像構成要素の内側に第2の画像構成要素が設定された前記第1のマーカーの前記認識処理を行い、前記第1のマーカーの前記認識処理の結果に基づいて、前記第1の画像構成要素の前記面積重心と前記外形重心とを求め、前記面積重心と前記外形重心とに基づいて、前記マーカー向き情報を求めることを特徴とするロボット制御システム。 - 請求項1乃至4のいずれかにおいて、
前記処理部は、
前記第1のマーカーの前記第1の画像構成要素の内側に設定され、前記ロボットの制御情報が埋め込まれた第2のマーカーの認識処理を、前記画像情報に基づいて行い、
前記制御部は、
前記第1のマーカーと前記第2のマーカーの前記認識処理の結果に基づいて、前記ロボットを制御することを特徴とするロボット制御システム。 - 請求項5において、
前記処理部は、
前記画像情報に基づいて、前記第1の画像構成要素の内側に第2の画像構成要素が設定された前記第1のマーカーの前記認識処理と、前記第1のマーカーの前記第2の画像構成要素の内側に設定された前記第2のマーカーの前記認識処理を行い、
前記制御部は、
前記第1のマーカーと前記第2のマーカーとの前記認識処理の結果に基づいて、前記ロボットを制御することを特徴とするロボット制御システム。 - 請求項1乃至6のいずれかにおいて、
前記処理部は、
前記第1の画像構成要素の画素の位置情報に基づいて、前記面積重心を求めることを特徴とするロボット制御システム。 - 請求項1乃至7のいずれかにおいて、
前記操作対象物は、
ワークが配置される複数の区画を有するパレットであり、
前記処理部は、
前記パレットに設定された前記マーカー向き情報に基づいて、前記パレットの区画位置情報を求め、
前記制御部は、
前記区画位置情報に基づいて、前記ロボットの制御を行うことを特徴とするロボット制御システム。 - 請求項8において、
前記処理部は、
前記第1のマーカーの前記第1の画像構成要素の内側に設定され、前記ロボットの制御情報が埋め込まれたマーカーである第2のマーカーの認識処理を、前記画像情報に基づいて行い、前記第2のマーカーの前記認識処理の結果に基づいて、前記制御情報に含まれる前記区画位置情報を求めることを特徴とするロボット制御システム。 - 請求項1乃至9のいずれかに記載のロボット制御システムを含むことを特徴とするロボットシステム。
- 撮像部からの画像情報を取得し、
取得された画像情報に基づいて、前記第1の画像構成要素が設定された前記第1のマーカーの認識処理を行い、
前記第1のマーカーの前記認識処理の結果に基づいて、前記第1の画像構成要素の前記面積重心と前記外形重心とを求め、
求められた前記面積重心と前記外形重心とに基づいて、前記第1のマーカーが示す向きを表すマーカー向き情報を求めることを特徴とするマーカー処理方法。 - 請求項11において、
取得された画像情報に基づいて、前記第1の画像構成要素の内側に第2の画像構成要素が設定された前記第1のマーカーの認識処理を行うことを特徴とするマーカー処理方法。 - 請求項11又は12において、
取得された画像情報に基づいて、前記第1のマーカーの前記第1の画像構成要素の内側に設定された第2のマーカーの認識処理を行い、
前記第2のマーカーに埋め込まれた情報を取得することを特徴とするマーカー処理方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011143715A JP2013010157A (ja) | 2011-06-29 | 2011-06-29 | ロボット制御システム、ロボットシステム及びマーカー処理方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011143715A JP2013010157A (ja) | 2011-06-29 | 2011-06-29 | ロボット制御システム、ロボットシステム及びマーカー処理方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2013010157A true JP2013010157A (ja) | 2013-01-17 |
Family
ID=47684514
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011143715A Withdrawn JP2013010157A (ja) | 2011-06-29 | 2011-06-29 | ロボット制御システム、ロボットシステム及びマーカー処理方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2013010157A (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104626169A (zh) * | 2014-12-24 | 2015-05-20 | 四川长虹电器股份有限公司 | 基于视觉与机械综合定位的机器人抓取零件的方法 |
JP2019104582A (ja) * | 2017-12-12 | 2019-06-27 | 株式会社北川鉄工所 | 吊荷の旋回角度検出方法 |
-
2011
- 2011-06-29 JP JP2011143715A patent/JP2013010157A/ja not_active Withdrawn
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104626169A (zh) * | 2014-12-24 | 2015-05-20 | 四川长虹电器股份有限公司 | 基于视觉与机械综合定位的机器人抓取零件的方法 |
JP2019104582A (ja) * | 2017-12-12 | 2019-06-27 | 株式会社北川鉄工所 | 吊荷の旋回角度検出方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110116406B (zh) | 具有增强的扫描机制的机器人系统 | |
US10857673B2 (en) | Device, method, program and recording medium, for simulation of article arraying operation performed by robot | |
JP2012254518A (ja) | ロボット制御システム、ロボットシステム及びプログラム | |
KR102056664B1 (ko) | 센서를 이용한 작업 방법 및 이를 수행하는 작업 시스템 | |
US11654571B2 (en) | Three-dimensional data generation device and robot control system | |
JP5339065B2 (ja) | 対象物追跡装置 | |
JP2018055429A (ja) | 物体認識装置および物体認識方法 | |
JP2018136896A (ja) | 情報処理装置、システム、情報処理方法、および物品の製造方法 | |
JPH0798208A (ja) | 視覚に基く三次元位置および姿勢の認識方法ならびに視覚に基く三次元位置および姿勢の認識装置 | |
JP2011112401A (ja) | 3次元計測のためのキャリブレーション方法および3次元視覚センサ | |
JP2017111638A (ja) | 画像処理方法、画像処理装置、画像処理システム、生産装置、プログラム及び記録媒体 | |
KR102618285B1 (ko) | 카메라 자세 결정 방법 및 시스템 | |
JP6424432B2 (ja) | 制御装置、ロボットシステム、ロボット及びロボット制御方法 | |
JP5674933B2 (ja) | 倉庫内の物体の位置を特定するための方法及び装置 | |
JP2013010157A (ja) | ロボット制御システム、ロボットシステム及びマーカー処理方法 | |
CN111199533B (zh) | 图像处理装置 | |
KR101850118B1 (ko) | 이동 로봇과 카메라의 캘리브레이션 방법 및 시스템 | |
Xu et al. | Industrial robot base assembly based on improved Hough transform of circle detection algorithm | |
JP2020194594A (ja) | コード認識装置 | |
JP4982754B2 (ja) | 物体検出方法 | |
JP2013010160A (ja) | ロボット制御システム、ロボットシステム及びマーカー処理方法 | |
JP6783618B2 (ja) | 情報表示装置、及びその処理制御方法 | |
JP6480575B2 (ja) | 部品向き判定データ作成装置及び部品向き判定データ作成方法 | |
CN113302027B (zh) | 作业坐标生成装置 | |
CN114902281A (zh) | 图像处理系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Withdrawal of application because of no request for examination |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20140902 |