JP2015003348A - ロボット制御システム、制御装置、ロボット、ロボット制御システムの制御方法及びロボットの制御方法 - Google Patents

ロボット制御システム、制御装置、ロボット、ロボット制御システムの制御方法及びロボットの制御方法 Download PDF

Info

Publication number
JP2015003348A
JP2015003348A JP2013128244A JP2013128244A JP2015003348A JP 2015003348 A JP2015003348 A JP 2015003348A JP 2013128244 A JP2013128244 A JP 2013128244A JP 2013128244 A JP2013128244 A JP 2013128244A JP 2015003348 A JP2015003348 A JP 2015003348A
Authority
JP
Japan
Prior art keywords
processing
robot
visual servo
image
imaging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013128244A
Other languages
English (en)
Inventor
政司 相磯
Masashi Aiiso
政司 相磯
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2013128244A priority Critical patent/JP2015003348A/ja
Publication of JP2015003348A publication Critical patent/JP2015003348A/ja
Pending legal-status Critical Current

Links

Images

Abstract

【課題】 ビジュアルサーボによる作業の誤りの検出率を向上させることができるロボット制御システム、制御装置、ロボット、ロボット制御システムの制御方法及びロボットの制御方法等の提供。【解決手段】 ロボット制御システム10は、ビジュアルサーボ処理によりロボットの制御を行うロボット制御部110と、ビジュアルサーボ処理後の作業対象に対して、撮像部による検査処理を行う検査処理部121と、ビジュアルサーボ処理と検査処理とで、撮像部により撮像された撮像画像の撮像条件と、撮像画像に対する画像処理のうち、少なくとも一方を異ならせる指示処理を行う指示処理部122と、を含む。【選択図】 図1

Description

本発明は、ロボット制御システム、制御装置、ロボット、ロボット制御システムの制御方法及びロボットの制御方法等に関係する。
近年、生産現場において、人が行ってきた作業を機械化・自動化するために、産業用ロボットを導入することが多くなってきた。しかし、ロボットのアームやハンド等の位置決めを行うにあたっては、精密なキャリブレーションが前提となり、ロボット導入の障壁となっている。
ここで、ロボットのアームやハンド等の位置決めを行う手法の一つとしてビジュアルサーボがある。ある種のビジュアルサーボは、キャリブレーションに精密さを求めない点で有用であり、ロボット導入障壁を下げる技術として注目されている。
これらのビジュアルサーボに関する発明としては特許文献1に記載される従来技術がある。
特開2003−311674号公報 特開平8−313225号公報 特開平8−249026号公報
ビジュアルサーボによりロボットを動作させた後には、実際にロボットが意図した通りに動作したか否かを検査することが望ましい。
ここで、ビジュアルサーボにおいて行われる画像処理と、検査において行われる画像処理は、非常に良く似ており、どちらの画像処理においても、撮像画像と参照画像の比較処理を行って、撮像画像に映る作業対象の位置姿勢を検出する。
そのため、ビジュアルサーボにおける画像処理で作業対象の位置姿勢を誤検出した際に、検査においても同様に、作業対象の位置姿勢を誤検出してしまった場合には、ビジュアルサーボによる作業の誤りを検出することができない。
本発明の幾つかの態様によれば、ビジュアルサーボによる作業の誤りの検出率を向上させることができるロボット制御システム、制御装置、ロボット、ロボット制御システムの制御方法及びロボットの制御方法等を提供することができる。
本発明の一態様は、ビジュアルサーボ処理によりロボットの制御を行うロボット制御部と、前記ビジュアルサーボ処理後の作業対象に対して、撮像部による検査処理を行う検査処理部と、前記ビジュアルサーボ処理と前記検査処理とで、前記撮像部により撮像された撮像画像の撮像条件と、前記撮像画像に対する画像処理のうち、少なくとも一方を異ならせる指示処理を行う指示処理部と、を含むロボット制御システムに関係する。
本発明の一態様では、ビジュアルサーボ処理と検査処理とで、撮像画像の撮像条件と、撮像画像に対する画像処理のうち、少なくとも一方を異ならせる指示処理を行う。そして、指示処理により指示された撮像条件で撮像された撮像画像に対して、指示処理により指示された画像処理を行うことで、ビジュアルサーボ処理を行う。さらに、指示処理により指示された撮像条件で撮像された撮像画像に対して、指示処理により指示された画像処理を行うことで、検査処理を行う。
よって、ビジュアルサーボによる作業の誤りの検出率を向上させることが可能となる。
また、本発明の一態様では、前記ロボット又は前記ロボット制御システムの処理を規定するシナリオデータを記憶する記憶部を含み、前記指示処理部は、前記シナリオデータに基づいて前記指示処理を行い、前記シナリオデータでは、前記ビジュアルサーボ処理に対してはビジュアルサーボ用パラメーターが関連付けられ、前記検査処理に対しては検査処理用パラメーターが関連付けられており、前記ビジュアルサーボ用パラメーターと前記検査処理用パラメーターとでは、前記撮像画像の撮像条件パラメーター及び前記画像処理の画像処理パラメーターの少なくとも一方のパラメーターが異なってもよい。
これにより、シナリオデータを予め生成して記憶しておけば、作業者が、ビジュアルサーボ等に関する知識をほとんど有していない場合であっても、ビジュアルサーボによる作業の誤りの検出率を向上させること等が可能となる。
また、本発明の一態様では、前記シナリオデータの受け付け処理を行うインターフェース部を含んでもよい。
これにより、サーバー等の外部機器に記憶されたシナリオデータを取得して、利用すること等が可能になる。
また、本発明の一態様では、前記撮像条件は、複数の前記撮像部のうち、いずれの前記撮像部により撮像された前記撮像画像を用いるかを示す条件であり、前記指示処理部は、前記ビジュアルサーボ処理に対しては、第1の撮像部により撮像された前記撮像画像を用いることを指示し、前記検査処理に対しては、前記第1の撮像部とは設置位置が異なる第2の撮像部により撮像された前記撮像画像を用いることを指示する前記指示処理を行ってもよい。
これにより、ビジュアルサーボ処理において用いた撮像画像とは異なるアングルの撮像画像を用いて検査処理を行うこと等が可能になる。
また、本発明の一態様では、前記第1の撮像部は、前記ロボットと離れた位置に設けられており、前記第2の撮像部は、前記ロボットのアームに設けられていてもよい。
これにより、第2の撮像部の位置を変更して、様々なアングルで撮像された複数の撮像画像を用いて検査処理を行って、作業対象の位置姿勢の検出精度をより向上させること等が可能になる。
また、本発明の一態様では、前記撮像条件は、複数の撮像方向のうち、いずれの撮像方向から撮像された前記撮像画像を用いるかを示す条件であり、前記指示処理部は、前記ビジュアルサーボ処理に対しては、第1の撮像方向から撮像された前記撮像画像を用いることを指示し、前記検査処理に対しては、前記第1の撮像方向とは異なる第2の撮像方向から撮像された前記撮像画像を用いることを指示する前記指示処理を行ってもよい。
これにより、ビジュアルサーボ処理において用いた撮像画像とは異なる撮像方向から撮像された撮像画像を用いて検査処理を行うこと等が可能になる。
また、本発明の一態様では、前記指示処理部は、前記ビジュアルサーボ処理に対しては、前記画像処理として3D位置姿勢推定処理を行うことを指示し、前記検査処理に対しては、前記画像処理として2D位置姿勢推定処理を行うことを指示する前記指示処理を行ってもよい。
これにより、ビジュアルサーボ処理での位置合わせ精度を向上させること等が可能になる。
また、本発明の一態様では、前記ロボット制御部は、前記ビジュアルサーボ処理として、前記撮像画像が参照画像に一致又は近づくように前記ロボットを制御する処理を行ってもよい。
これにより、参照画像により表される姿勢をロボットに取らせること等が可能になる。
また、本発明の他の態様では、ロボットの制御のシナリオデータの生成処理を行う処理部と、前記シナリオデータを前記ロボット制御システムに転送する転送部と、前記シナリオデータを記憶する記憶部と、を含み、前記処理部は、ビジュアルサーボ処理に対してはビジュアルサーボ用パラメーターが関連付けられ、前記ロボットの作業対象の検査処理に対しては検査処理用パラメーターが関連付けられた前記シナリオデータの前記生成処理を行い、前記ビジュアルサーボ用パラメーターと前記検査処理用パラメーターとでは、撮像画像の撮像条件パラメーター及び画像処理の画像処理パラメーターの少なくとも一方のパラメーターが異なる制御装置に関係する。
これにより、例えば制御装置がシナリオデータを生成し、複数のロボット制御システムが同一のシナリオデータに従って、ロボットを制御すること等が可能になる。
また、本発明の他の態様では、前記ビジュアルサーボ用パラメーターと前記検査処理用パラメーターを表示する表示部を含んでもよい。
これにより、ビジュアルサーボ等に関する知識が豊富な作業者でなくても、ビジュアルサーボによる作業の誤りの検出精度が高いシナリオデータを生成すること等が可能になる。
また、本発明の他の態様では、ロボットのビジュアルサーボ処理と、前記ビジュアルサーボ処理後の作業対象に対する撮像部による検査処理とで、撮像画像の撮像条件と、前記撮像画像に対する画像処理のうち、少なくとも一方を異ならせる指示処理を行う指示処理部からの指示を受け、前記指示処理部から指示された前記撮像条件で撮像された前記撮像画像に対して、前記指示処理部から指示された前記画像処理を行うことで、前記ビジュアルサーボ処理を行い、前記指示処理部から指示された前記撮像条件で撮像された前記撮像画像に対して、前記指示処理部から指示された前記画像処理を行うことで、前記検査処理を行うロボットに関係する。
また、本発明の他の態様では、ビジュアルサーボ処理によりロボットの制御を行い、前記ビジュアルサーボ処理後の作業対象に対して、撮像部による検査処理を行い、前記ビジュアルサーボ処理と前記検査処理とで、前記撮像部により撮像された撮像画像の撮像条件と、前記撮像画像に対する画像処理のうち、少なくとも一方を異ならせる指示処理を行うロボット制御システムの制御方法に関係する。
また、本発明の他の態様では、ロボットのビジュアルサーボ処理と、前記ビジュアルサーボ処理後の作業対象に対する撮像部による検査処理とで、撮像画像の撮像条件と、前記撮像画像に対する画像処理のうち、少なくとも一方を異ならせる指示処理を行う指示処理部からの指示を受け、前記指示処理部から指示された前記撮像条件で撮像された前記撮像画像に対して、前記指示処理部から指示された前記画像処理を行うことで、前記ビジュアルサーボ処理を行い、前記指示処理部から指示された前記撮像条件で撮像された前記撮像画像に対して、前記指示処理部から指示された前記画像処理を行うことで、前記検査処理を行うロボットの制御方法に関係する。
本実施形態のシステム構成例。 図2(A)、図2(B)は、本実施形態のロボットの構成例。 位置ベースビジュアルサーボの処理の流れを説明するフローチャート。 図4(A)、図4(B)は参照画像と撮像画像の説明図。 特徴ベースビジュアルサーボの処理の流れを説明するフローチャート。 本実施形態の処理の流れを説明するフローチャート。 図7(A)、図7(B)は、ビジュアルサーボ処理と検査処理の説明図。 図8(A)〜図8(D)は、撮像画像と参照画像の説明図。 幾何サーチ処理の説明図。 相関サーチ処理の説明図。 3D位置姿勢推定処理の説明図。 2D位置姿勢推定処理の説明図。 図13(A)〜図13(C)は、シナリオデータの説明図。
以下、本実施形態について説明する。まず、本実施形態の概要を説明し、次に本実施形態のシステム構成例について説明する。そして、ビジュアルサーボの概要について説明した後に、本実施形態の手法について具体例を交えつつ詳細に説明する。なお、以下に説明する本実施形態は、特許請求の範囲に記載された本発明の内容を不当に限定するものではない。また、本実施形態で説明される構成の全てが、本発明の必須構成要件であるとは限らない。
1.概要
近年、生産現場において、人が行ってきた作業を機械化・自動化するために、産業用ロボットを導入することが多くなってきた。しかし、ロボットのアームやハンド等の位置決めを行うためには、精密なキャリブレーションが前提となり、ロボット導入の障壁となっている。
ここで、ロボットのアームやハンド等の位置決めを行う手法の一つとしてビジュアルサーボがある。ビジュアルサーボは、参照画像(ゴール画像、目標画像)と撮像画像(現在の画像)との差に基づいて、ロボットを制御する技術である。ある種のビジュアルサーボは、キャリブレーションに精密さを求めない点で有用であり、ロボット導入障壁を下げる技術として注目されている。
そして、ビジュアルサーボによりロボットを動作させた後には、実際にロボットが意図した通りに動作したか否かを検査することが望ましい。このような検査も、参照画像と撮像画像とを比較することにより行われる。
例えば、特許文献2には、ロボットアームの先端に取り付けられたカメラによりワークの検査を行う発明が開示されている。特許文献2の発明では、ワークに対して最適な位置にカメラを動かし、検査を行う。
また、ビジュアルサーボを行った後に検査を行う等の一連の工程は、あらかじめ作業者等により決定されるものである。
例えば、特許文献3には、このような作業工程(処理順序)を決定する際に用いるグラフィカルなロボット教示ツールの発明が開示されている。特許文献3の発明では、「ピックアップ」や「組み付け」などのロボットが行う作業を示すアイコンが準備されており、これらのアイコンの順列を編集することにより、一連の工程を組み立てることができる。
ところで、ビジュアルサーボにおいて行われる画像処理と、検査において行われる画像処理は、非常に良く似ている。どちらの画像処理においても、撮像画像と参照画像の比較処理を行って、撮像画像に映る作業対象の位置姿勢を検出する。さらに、同一のアルゴリズムに従って画像処理を行う場合もある。
また、これらの画像処理では、例えばワークの個体差、位置ずれ及び環境の変化などをある程度吸収できるように、作業対象の位置姿勢の検出において所定の誤差が許容されている。しかし、その許容誤差が原因で、作業対象の位置姿勢を誤って検出してしまうことがある。
例えば、ビジュアルサーボにより、ワークAをワークBに組み付ける作業を行う際に、ワークBの位置姿勢を誤って検出してしまうことがあり、このような場合には、誤った位置にワークAを組み付けてしまうことがある。
本来であれば、このような組み付け誤りを検出するために検査を行うが、ビジュアルサーボにおける画像処理と同様に、検査においても、ワークBの位置姿勢を誤って検出してしまった場合には、ワークAが正しい位置に組み付けられていると判断してしまい、組み付け誤りを検出することができない。これでは、実質的に検査を行う意味がない。
また、ビジュアルサーボにおける画像処理と検査における画像処理とで、用いられる撮像画像と参照画像の組が同じだったり、同じ画像処理アルゴリズムを用いたりする場合には、作業対象の位置姿勢について、ビジュアルサーボと検査とで同じ誤検出をしてしまう可能性が高くなる。
そこで、以下で説明する本実施形態では、ビジュアルサーボにおける画像処理と検査における画像処理とで、作業対象の位置姿勢を同じように誤検出してしまうことを抑制して、ビジュアルサーボによる作業の誤りの検出率を向上させる。
具体的には、ビジュアルサーボと検査とで、撮像条件や画像処理の内容を自動的に変更する。これにより、例えば組み付け作業時に、ワークの向きが逆向きに検出されているにも関わらず、組み付け作業が継続されているような場合に、検査において組み付け誤りの検出ミスを防ぐことができる。
また、前述した特許文献3の発明では、作業の順番については作業者が簡単に変更することができるが、ビジュアルサーボや検査などの各処理のパラメーター等は作業者が個別に判断して、修正しなければならなかった。しかし、作業者が、ビジュアルサーボ等に関する知識をほとんど有していない場合には、作業者が各処理のパラメーターを作業現場で修正することは困難であった。また、各処理のパラメーターの修正が出来たとしても、このような作業は非常に手間のかかる作業であった。
そこで、本実施形態では、作業の順番を作業者が自由に変更可能なだけでなく、ビジュアルサーボと検査とにおける撮像条件と画像処理の内容の少なくとも一方が異なるパラメーターセットを、デフォルトパラメーターとして事前に用意しておく。
これにより、作業者が、ビジュアルサーボ等に関する知識をほとんど有していない場合であっても、ビジュアルサーボによる作業の誤りの検出率を向上させることが可能となる。
2.システム構成例
次に、本実施形態のロボット制御システム10、制御装置(教示装置)20、ロボット機構50及びロボットの構成例を図1に示す。
ロボット制御システム10は、ロボット制御部110と、処理部120と、記憶部130と、インターフェース部(I/F部)140と、を含む。
また、制御装置20は、処理部210と、転送部220と、記憶部230と、表示部240と、を含む。制御装置20の例としては、PC(personal computer)や携帯電子機器等が挙げられる。
そして、ロボット機構50は、第1のアーム510と、第2のアーム520と、エンドエフェクター530と、第2の撮像部40と、を含む。
さらに、ロボットは、ロボット制御システム10と、ロボット機構50と、を含む。
なお、ロボット制御システム10、制御装置20、ロボット機構50及びロボットは、図1の構成に限定されず、これらの一部の構成要素を省略したり、他の構成要素を追加したりするなどの種々の変形実施が可能である。
例えば、第1の撮像部30もロボット機構50に設けられていてもよい。また他にも、例えばロボット制御システム10は、有線及び無線の少なくとも一方を含むネットワークにより、制御装置20及びロボット機構50と通信接続されたサーバーにより実現されてもよい。
次に、ロボット制御システム10の各部で行われる処理について説明する。
まず、ロボット制御部110は、ビジュアルサーボ処理によりロボットの制御を行う。
次に、処理部120は、検査処理部121と、指示処理部122と、を含む。そして、検査処理部121は、ビジュアルサーボ処理後の作業対象に対して、撮像部による検査処理を行う。指示処理部122は、ビジュアルサーボ処理の内容及び検査処理の内容の指示処理を行う。なお、ロボット制御部110及び処理部120の機能は、各種プロセッサー(CPU等)、ASIC(ゲートアレイ等)などのハードウェアや、プログラムなどにより実現できる。
そして、記憶部130は、ロボット制御のシナリオデータを記憶したり、ロボット制御部110及び処理部120のワーク領域となったりするもので、その機能はRAM等のメモリーやHDD(ハードディスクドライブ)などにより実現できる。
さらに、インターフェース部(I/F部)140は、ロボット制御のシナリオデータや、ロボット制御システム10に対する作業者からの入力等の受け付け処理を行う。インターフェース部140は、有線又は無線の少なくとも一方を含むネットワークを介して、制御装置20と通信を行う通信部であってもよい。また、作業者からの入力等の受け付け処理を行う場合には、インターフェース部140は、スイッチやボタン、キーボード或いはマウス等から構成されてもよい。
次に、制御装置20の各部で行われる処理について説明する。
まず、処理部210は、ロボット制御のシナリオデータの生成処理を行う。なお、処理部210の機能は、各種プロセッサー(CPU等)、ASIC(ゲートアレイ等)などのハードウェアや、プログラムなどにより実現できる。
次に、転送部220は、シナリオデータをロボット制御システム10に転送する。転送部220は、有線又は無線の少なくとも一方を含むネットワークを介して、ロボット制御システム10と通信を行う通信部であってもよい。
そして、記憶部230は、シナリオデータを記憶したり、処理部210のワーク領域となったりするもので、その機能はRAM等のメモリーやHDD(ハードディスクドライブ)などにより実現できる。
さらに、表示部240は、シナリオデータの各処理に関連付けられるパラメーターを表示する。表示部240は、例えば液晶である。その他にも表示部240は、有機ELパネルや、電子ペーパーなどであってもよい。
次に、ロボット制御システム10とロボット機構50の一例を図2(A)及び図2(B)に示す。例えば図2(A)のロボットは、ロボット機構50とロボット制御システム10とが一体に構成されている。但し、本実施形態のロボット制御システム10及びロボット機構50は図2(A)の構成に限定されず、図2(B)のようにロボット機構50とロボット制御システム10とが別体に構成されていてもよい。
具体的には図2(A)に示すロボットは、ロボット機構50(第1のアーム510、第2のアーム520、エンドエフェクター530及び第2の撮像部40を有する)及びロボット機構50を支えるベースユニット部を有し、当該ベースユニット部にロボット制御システム10が格納されるものであってもよい。図2(A)のロボットでは、ベースユニット部に車輪等が設けられ、ロボット全体が移動可能な構成となっている。なお、図2(A)のロボットは双腕型の例であるが、ロボットは単腕型や多腕型であってもよい。なお、ロボットは、人手により移動させられるものであってもよいし、車輪を駆動するモーターを設け、当該モーターをロボット制御システム10により制御することにより、移動させられるものであってもよい。また、ロボット制御システム10は、図2(A)のようにロボット機構50の下に設けられたベースユニット部に設けられるとは限られない。
また、図2(A)に示すように、ロボット制御システム10と制御装置20は、異なる装置により実現されてもよい。図2(A)の例では、制御装置20はPCであり、ロボット制御システム10と通信により接続されている。一方で、図2(B)の例のように、制御装置20は、ロボット制御システム10と同一の装置により実現されてもよい。
次に、ロボット機構50の各部について、図2(A)及び図2(B)を用いて説明する。
図2(A)及び図2(B)に示すように、ロボット機構50は、第1のアーム510と、第2のアーム520の2本のアームを有する。ここで、アームとは、ロボットのパーツであって、一つ以上の関節を含む可動パーツのことをいう。
そして、第1のアーム510のエンドポイントには、エンドエフェクター530が取り付けられており、第2のアーム520のエンドポイントには、第2の撮像部40が取り付けられている。
ここで、エンドエフェクター530は、アームのエンドポイントに設けられる把持部(ハンド)又はツールである。また、アームのエンドポイントとは、アームの先端部分のポイントであって、エンドエフェクター以外の他の部分と接続されていない部分のことをいう。なお、アームのエンドポイントは、ロボットのエンドポイントのうちの一つであり、ロボットのエンドポイントとは、ロボットの先端部のことをいう。
そして、把持部(ハンド)とは、ワークを把持したり、持ち上げたり、吊り上げたり、吸着させたりするために用いる部品のことをいう。把持部は、ハンドであってもよいし、フックであってもよいし、吸盤等であってもよい。なお、1本のアームに対して、複数のハンドを設けても良い。
さらに、ツールとは、ワークや作業対象に対して加工等の作業を行うための道具であって、例えばドリルやドライバーなどの工具を指す。なお、ツールは、ハンドにより把持されるものであってもよいし、アームのエンドポイントに直接設けられるものであってもよい。
次に、第1の撮像部30は、第2の撮像部40とは異なる位置に設けられたカメラであって、ロボットと離れた位置に設けられたカメラである。ここで、ロボットと離れた位置とは、ロボット又はロボット制御システム10の外部の位置のことをいう。例えば第1の撮像部30は、図2(A)及び図2(B)に示すように、作業台の上に設けられていてもよいし、ロボット機構50の前面部に設けられていても良い。
一方、第2の撮像部40は、ロボットのアーム(第2のアーム520)に設けられたカメラである。
また、第1の撮像部30及び第2の撮像部40は、ロボットの作業現場等を撮像し、処理部120に撮像画像を出力する。例えば第1の撮像部30及び第2の撮像部40は、可視カメラであってもよいし、赤外線カメラであってもよい。さらに、例えば可視カメラは、撮像素子としてCCDやCMOSを用いるカメラであっても良く、また、白黒カメラであっても、カラーカメラであっても良い。白黒カメラを使う場合には、撮像画像として濃淡画像が撮像され、カラーカメラを使う場合には、撮像画像として色画像が撮像される。なお、可視カメラ及び赤外線カメラは、画像処理用等に用いられるデバイス(プロセッサー)を含んでもよい。本実施形態においては、第1の撮像部30及び第2の撮像部40は撮像画像そのものを出力するが、これに限定されるものではない。例えば、処理部120において行う画像処理の一部を、第1の撮像部30及び第2の撮像部40が行っても良い。その場合、撮像画像に対して、画像処理が施された後の撮像情報が処理部120に出力されることになる。
3.ビジュアルサーボの概要
本実施形態の特徴を説明する前に、ビジュアルサーボの概要と、位置ベースビジュアルサーボの流れと特徴ベースビジュアルサーボの流れについて説明する。
ビジュアルサーボとは、目標物の位置の変化を視覚情報として計測し、それをフィードバック情報として用いることによって目標物を追跡するサーボ系の一種である。ビジュアルサーボは、サーボ系への入力情報(制御量)によって、位置ベースビジュアルサーボと特徴ベースビジュアルサーボの二つに大別される。位置ベースビジュアルサーボは、物体の位置情報や姿勢情報がサーボ系への入力情報となり、特徴ベースビジュアルサーボは、画像の特徴量がサーボ系への入力情報となる。他にも、位置ベースと特徴ベースをハイブリッドした手法もある。本実施形態で扱うビジュアルサーボは、これら全ての手法を対象とする。
これらのビジュアルサーボにおける共通点は、参照画像と撮像画像を元にサーボ系への入力情報を求める点である。本実施形態は、この参照画像と撮像画像とを二値化することにより、サーボ系への入力情報の算出処理の容易化を図る。
3.1 位置ベースビジュアルサーボの流れ
まず、図3において、位置ベースビジュアルサーボの流れを示す。位置ベースビジュアルサーボでは、まず参照画像を設定する(S1)。ここで、参照画像とは、目標画像やゴール画像とも呼ばれ、ビジュアルサーボの制御目標となる画像であり、ロボットの目標状態を表す画像をいう。すなわち、参照画像とは、ロボットの目標位置や目標姿勢を表す画像、もしくはロボットが目標位置に位置する状態を表す画像である。また、参照画像はあらかじめ用意しておき、記憶部に記憶しておく必要がある。
次に、撮像部によって作業スペースを撮像し、撮像画像を取得する(S2)。撮像画像とは、撮像部によって撮像された画像である。撮像画像は、作業スペースの現在の状態を表しており、撮像画像内にロボットやワークが映りこんでいる場合には、ロボットやワークの現在の状態を表している。なお、撮像部の性能によっては処理遅延が生じるが、ここでは、処理遅延が生じている場合でも、撮像画像には現在の状態が映されているものとして扱う。
例えば、図4(A)に参照画像RIMの具体例を、図4(B)に撮像画像PIMの具体例を示す。撮像画像PIMにおいて、ロボットRBはアームAMとハンドHD(もしくはエンドポイントEP)を上方へ向けているが、参照画像RIMでは、ロボットRBはアームAMを折り曲げて、ハンドHDをワークWKに近づけている。したがって、この具体例においては、ロボットRBのアームAMを折り曲げ、ハンドHDをワークWKに近づけるようにロボットRBを制御することになる。
次に、制御指令を生成する(S3)。例えば、制御指令生成は、参照画像と撮像画像に基づいて、座標変換の一つであるホモグラフィー等を用いることにより行われる。この場合には、ホモグラフィー行列を求め、ホモグラフィー行列からロボットの制御信号として速度指令を生成する。
ここで、制御信号(制御指令、ロボットの制御パラメーター)とは、ロボットを制御するための情報を含む信号のことをいう。また、速度指令とは、ロボットの各部を制御するための情報として、ロボットのアームのエンドポイント等の移動速度や回転速度を与える指令の方法を指す。
そして、生成された制御信号に基づいて、制御量(ここではロボットの位置や姿勢)が目標値に収束したか否かを判断する(S4)。例えば、ホモグラフィーを用いる場合において、速度指令により表される速度ベクトルが0である場合には、制御量である位置や姿勢が目標状態に到達したとみなすことができるため、制御量が目標値に収束したと判断し、速度ベクトルが0でない場合には、制御量が目標値に収束していないと判断する。
制御量が目標値に収束したと判断する場合にはビジュアルサーボを終了する。一方、制御量が目標値に収束していないと判断する場合には、新たな制御指令を送出する(S5)。
位置ベースビジュアルサーボでは、制御量が目標値に収束するまで以上の処理を繰り返す。
3.2 特徴ベースビジュアルサーボの流れ
次に、図5において、特徴ベースビジュアルサーボの流れを示す。位置ベースビジュアルサーボと同様に、まず参照画像を設定し(S10)、次に、撮像部によって作業スペースを撮像し、撮像画像を取得する(S11)。なお、特徴ベースビジュアルサーボを用いる場合には、参照画像を設定する際に参照画像の特徴抽出を行い、特徴量を算出しておくことが望ましい。または、参照画像の特徴を抽出した参照画像情報を記憶部に記憶しておいてもよい。画像の特徴抽出については、例えば、コーナー検出(Corner detection)やガウスフィルタ等を用いて行なう。
次に、撮像画像の特徴を抽出する(S12)。なお、参照画像の特徴抽出は、参照画像設定の際に行っておくことが望ましいが、ここで行ってもよい。特徴抽出では、ビジュアルサーボ系への入力情報(制御量)として、画像の特徴量を求める。
そして、画像の特徴量に基づいて、参照画像と撮像画像が一致するか否かを比較する(S13)。画像が一致すると判断する場合(S14)には、ビジュアルサーボを終了する。一方、画像が一致しないと判断する場合(S14)には、制御指令を生成し(S15)、新たな制御指令を送出する(S16)。
特徴ベースビジュアルサーボでは、制御量が目標値に収束するまで以上の処理を繰り返す。
4.処理の詳細
本実施形態では図6のフローチャートに示すように、まず、シナリオデータの生成処理を行う(S101)。
次に、生成されたシナリオデータに基づいて、ビジュアルサーボ処理を行う(S102)。ここで、具体例を図7(A)及び図7(B)に示す。図7(A)では、ビジュアルサーボにより、第1のアームAM1を制御して、ハンドHDにより把持されたワークWKを作業対象物OBの隣に置く作業を行っている。このビジュアルサーボは、第1の撮像部CM1により撮像された撮像画像に基づいて行う。
そして、シナリオデータに基づいて、ビジュアルサーボによる作業が正しく行われたか否かの検査処理を行う(S103)。例えば図7(B)の例では、ビジュアルサーボ後に、第2の撮像部CM2により撮像された撮像画像に基づいて、検査処理を行っている。本例において、第2の撮像部CM2は、第2のアームAM2に取り付けられているため、第2のアームAM2を動作させることにより、第2の撮像部CM2の撮像位置及び撮像方向を変更することが可能であり、検査処理において有用である。
そして、検査処理においてビジュアルサーボによる作業が正しく行われたと判断された場合には(S104)、処理を終了する。図7(B)の例では、ワークWKが作業対象物OBの隣に正しく置かれていることが確認できた場合には、正常に処理を終了する。
一方で、検査処理においてビジュアルサーボによる作業が正しく行われていないと判断された場合には(S104)、ステップS101へ戻る。そして、前回のシナリオデータとは各処理のパラメーターが異なるシナリオデータの作成処理を行い(S101)、新たに作成したシナリオデータに基づいて、ステップS102以降の処理を行う。なお、シナリオデータにおける各処理のパラメーターとは、後述するビジュアルサーボ用パラメーターや検査処理用パラメーター等のことを指す。
次に、本実施形態の手法について詳しく説明する。
本実施形態のロボット制御システム10は、ビジュアルサーボ処理によりロボットの制御を行うロボット制御部110と、ビジュアルサーボ処理後の作業対象に対して、撮像部による検査処理を行う検査処理部121と、ビジュアルサーボ処理と検査処理とで、撮像部により撮像された撮像画像の撮像条件と、撮像画像に対する画像処理のうち、少なくとも一方を異ならせる指示処理を行う指示処理部122と、を含む。
ここで、作業対象とは、ロボットの作業対象物、作業場所及びマーカーのうちの少なくとも一つである。そして、作業対象物とは、例えばワーク、パレット、ロボットのアーム及びエンドエフェクター等を指す。一方で、作業場所とは、机や穴や壁などを指す。
また、ビジュアルサーボ処理の内容とは、例えばビジュアルサーボ処理において用いる撮像画像の撮像条件や、ビジュアルサーボ処理内で行う画像処理の内容等を指す。検査処理の内容も同様である。
本実施形態では、ビジュアルサーボ処理と検査処理とで、撮像画像の撮像条件と、撮像画像に対する画像処理のうち、少なくとも一方を異ならせる指示処理を行う。なお、撮像画像の撮像条件及び画像処理の内容の具体例は後述する。
そして、指示処理により指示された撮像条件で撮像された撮像画像に対して、指示処理により指示された画像処理を行うことで、ビジュアルサーボ処理を行う。さらに、指示処理により指示された撮像条件で撮像された撮像画像に対して、指示処理により指示された画像処理を行うことで、検査処理を行う。
すなわち、撮像条件と画像処理のうちの少なくとも一方が異なるビジュアルサーボ処理と検査処理とを行うことができる。
そのため、ビジュアルサーボにおける画像処理と検査における画像処理とで、作業対象の位置姿勢を同じように誤検出してしまうことを抑制することが可能となる。その結果として、ビジュアルサーボによる作業の誤りの検出率を向上させることが可能となる。
また、ロボット制御部110は、ビジュアルサーボ処理として、撮像画像が参照画像に一致又は近づくようにロボットを制御する処理を行ってもよい。
これにより、参照画像により表される姿勢をロボットに取らせること等が可能になる。
次に、撮像画像の撮像条件の具体例について説明する。
例えば、撮像条件は、複数の撮像部のうち、いずれの撮像部により撮像された撮像画像を用いるかを示す条件であってもよい。そして、指示処理部122は、ビジュアルサーボ処理に対しては、第1の撮像部30により撮像された撮像画像を用いることを指示し、検査処理に対しては、第1の撮像部30とは設置位置が異なる第2の撮像部40により撮像された撮像画像を用いることを指示する指示処理を行ってもよい。
これにより、ビジュアルサーボ処理において用いた撮像画像とは異なる撮像画像を用いて検査処理を行うこと等が可能になる。撮像部が異なれば、作業対象に対するアングルが変わるため、ビジュアルサーボ処理において用いた撮像画像では確認できない部分も確認することができる。そのため、ビジュアルサーボ処理において、作業対象の位置姿勢を誤検出してしまった場合でも、検査処理において、作業対象の正しい位置姿勢を検出すること等が可能になる。
さらに、第1の撮像部30は、ロボットと離れた位置に設けられてもよい。そして、第2の撮像部40は、ロボットのアームに設けられてもよい。
これにより、ロボットのアームを移動させて、第2の撮像部40の位置を変更して、様々なアングルで撮像された複数の撮像画像を用いて検査処理を行うこと等が可能になる。検査処理において、様々なアングルで撮像された複数の撮像画像を用いれば、作業対象の位置姿勢の検出精度をより向上させること等が可能になる。
ビジュアルサーボと検査処理とにおいて撮像部を変える例は、図7(A)及び図7(B)を用いて前述したが、撮像部を変更した時の撮像画像と参照画像の一例を図8(A)〜図8(D)に示す。図8(A)〜図8(D)の画像は、ロボットのエンドエフェクターEFが、吸着しているネジSCをネジ穴HLに入れる作業を行っている時の画像である。
まず、ビジュアルサーボにおける撮像画像PIM1を図8(A)に示し、参照画像RIM1を図8(B)に示す。撮像画像PIM1と参照画像RIM1は、作業対象を斜め上方から撮像した画像である。前述したようにビジュアルサーボでは、この撮像画像PIM1が参照画像RIM1に近付くようにロボットを制御する。
一方で、検査において用いる撮像画像PIM2を図8(C)に示し、参照画像RIM2を図8(D)に示す。撮像部の位置が異なるため、撮像画像PIM2及び参照画像RIM2は、撮像画像PIM1及び参照画像RIM1とは、アングルが異なる。撮像画像PIM2及び参照画像RIM2は、作業対象を真横から撮像した画像である。このように、アングルが異なる画像を用いて検査を行うため、ビジュアルサーボで作業対象の位置姿勢を間違って検出してしまった場合でも、正しい位置姿勢を検出することができる。
また他にも、撮像条件は、複数の撮像方向のうち、いずれの撮像方向から撮像された撮像画像を用いるかを示す条件であってもよい。そして、指示処理部122は、ビジュアルサーボ処理に対しては、第1の撮像方向から撮像された撮像画像を用いることを指示し、検査処理に対しては、第1の撮像方向とは異なる第2の撮像方向から撮像された撮像画像を用いることを指示する指示処理を行ってもよい。
ここで、撮像方向とは、カメラが撮像する方向を意味し、例えば、カメラの撮像レンズの中心点を通る光軸の方向のことをいう。
これにより、ビジュアルサーボ処理において用いた撮像画像とは異なる撮像方向から撮像された撮像画像を用いて検査処理を行うこと等が可能になる。このように撮像条件として撮像方向を変更する場合も、撮像部を変更する場合と同様に、ビジュアルサーボ処理で用いた撮像画像には映っていない部分を確認すること等が可能になる。そのため、ビジュアルサーボにより作業の誤りの検出率を向上させること等が可能になる。なお、この場合には、一つの撮像部を回動させる等して撮像方向を変更して撮像された撮像画像を用いてもよいし、撮像方向が異なる複数の撮像部によりそれぞれ撮像された撮像画像を用いてもよい。
次に、画像処理の内容を変更する場合の具体例について説明する。
指示処理部122は、ビジュアルサーボ処理については、画像処理として幾何サーチ処理を行うことを指示し、検査処理については、画像処理として相関サーチ処理を行うことを指示する指示処理を行ってもよい。また逆に、指示処理部122は、ビジュアルサーボ処理については、画像処理として相関サーチ処理を行うことを指示し、検査処理については、画像処理として幾何サーチ処理を行うことを指示する指示処理を行ってもよい。
ここで、幾何サーチでは、図9に示すように、参照画像に映る作業対象のモデルCGに対して、輪郭抽出を行い、輪郭抽出後のモデルOCGを生成する。そして、撮像画像に映る作業対象IMも同様に、輪郭抽出を行う。そして、輪郭抽出後のモデルOCGを並進かつ回転させながら、輪郭抽出後の作業対象OIMと比較して、輪郭が最も近似できるような並進回転パターンを探索し、撮像画像に映る作業対象IMの位置姿勢を特定する。
一方、相関サーチでは、図10に示すように、参照画像に映る作業対象のモデルCGを並進かつ回転させながら、撮像画像に映る作業対象IMと重複する画素(対応画素)の比較を行う。そして、対応画素の画素値が最も近似できる並進回転パターンを探索し、撮像画像に映る作業対象IMの位置姿勢を特定する。
また、指示処理部122は、ビジュアルサーボ処理に対しては、画像処理として3D位置姿勢推定処理を行うことを指示し、検査処理に対しては、画像処理として2D位置姿勢推定処理を行うことを指示する指示処理を行ってもよい。
ここで、3D位置姿勢推定処理(three-dimensional pose estimation)とは、撮像画像から3Dモデルを生成し、参照用の3Dモデルと、3次元オブジェクト空間上で比較処理を行って、3Dモデルが表す物体の位置姿勢を推定する処理のことをいう。
具体的には、3D位置姿勢推定処理では、図11に示すように、まず参照用3Dモデルから比較用3Dモデルを生成する。また、撮像方向Aから撮像された撮像画像と、撮像方向Bから撮像された撮像画像とに基づいて、3D再構築モデルを生成する。そして、比較用3Dモデルと3D再構築モデルとを比較し、その比較結果に基づいて、参照用3Dモデルから比較用3Dモデルを再生成し、3D再構築モデルと比較用3Dモデルを再度比較する。このような処理を繰り返し、3D再構築モデルと最も近似できる比較用3Dモデルの位置姿勢を、3D再構築モデルが表す物体の位置姿勢と推定する。
このような3D位置姿勢推定処理は、複数の方向からの位置合わせが一度にできる点において有用である。そのため、ビジュアルサーボ処理には、3D位置姿勢推定処理を用いることが望ましい。なお、ビジュアルサーボにおける3D位置姿勢推定処理では、参照用3Dモデル及び比較用3Dモデルが参照画像に相当し、3D再構築モデルが撮像画像に相当する。
一方で、2D位置姿勢推定処理(two-dimensional pose estimation)とは、2次元空間上で検査画像(撮像画像)と参照画像との比較処理を行って、検査画像に映る物体の位置姿勢を推定する処理のことをいう。
具体的には、2D位置姿勢推定処理では、図12に示すように、参照用3Dモデルから2D変換画像を生成し、生成した2D変換画像と検査画像との比較処理を行う。そして、比較処理結果に基づいて、並進、回転及びスケールを表す2D変換パラメーターを決定し、決定した2D変換パラメーターに従って、参照用3Dモデルから2D変換画像を再生成する。さらに、再生成した2D変換画像と検査画像とを再度比較し、検査画像と最も近似できる2D変換画像の位置姿勢を、検査画像に映る物体の位置姿勢と推定する。
このような2D位置姿勢推定処理は、一度の処理では一方向からしか位置合わせを行うことができないが、3D位置姿勢推定処理よりも処理量が小さいというメリットがある。ただし、2D位置姿勢推定処理を複数回行えば、3D位置姿勢推定処理と同様に、複数方向からの位置合わせを行うことも可能である。
これにより、ビジュアルサーボ処理での位置合わせ精度を向上させること等が可能になる。
また、本実施形態のロボット制御システム10は、ロボット又はロボット制御システム10の処理を規定するシナリオデータを記憶する記憶部130を含んでいてもよい。そして、指示処理部122は、シナリオデータに基づいて指示処理を行ってもよい。さらに、シナリオデータでは、ビジュアルサーボ処理に対してはビジュアルサーボ用パラメーターが関連付けられ、検査処理に対しては検査処理用パラメーターが関連付けられていてもよい。そして、ビジュアルサーボ用パラメーターと検査処理用パラメーターとでは、撮像画像の撮像条件パラメーター及び画像処理の画像処理パラメーターの少なくとも一方のパラメーターが異なっていてもよい。
ここで、シナリオデータとは、ロボット又はロボット制御システムが行う処理を規定するデータであり、さらに言うと、ロボット又はロボット制御システムが行う処理が時系列順に記述されたデータのことをいい、例えばシナリオデータは図13(A)に示すSDのようなものである。図13(A)のシナリオデータSDでは、ロボット又はロボット制御システムが実行する処理が昇順に記述されている。
また具体的に、ビジュアルサーボでは、図13(A)のシナリオデータSDにも記述されている「アプローチ」、「ピックアップ」及び「組み付け」の他にも、「把持」、「圧入」、「軸通し」、「ネジ締め」、「爪曲げ」及び「シール貼り」等の作業が行われる。
そして、これらのビジュアルサーボによる作業に対しては、ビジュアルサーボ用パラメーターが関連付けられている。ビジュアルサーボ用パラメーターの一例を図13(B)に示す。図13(B)のビジュアルサーボ用パラメーターUPは、図13(A)のシナリオデータSDに記述される組み付け作業に関連付けられたものであり、作業内容を表すパラメーターとして「組み付け」が選択されており、撮像画像を撮像するカメラのパラメーターとして「カメラV」が選択されており、撮像方向を表すパラメーターとして「右から」が選択されている。
同様に、図13(A)のシナリオデータSDに記述される検査に対しては、図13(C)に示す検査処理用パラメーターDPが関連付けられている。図13(C)の検査処理用パラメーターDPでは、撮像画像を撮像するカメラのパラメーターとして「カメラH」が選択されており、撮像方向を表すパラメーターとして「手前から」が選択されている。
ここで、撮像条件パラメーターとは、撮像画像の撮像条件を表すパラメーターのことをいう。例えば図13(A)〜図13(C)の例では、カメラを表すパラメーターと撮像方向を表すパラメーターが、撮像条件パラメーターに相当する。
また、画像処理パラメーターとは、画像処理の内容を表すパラメーターのことであって、例えば幾何サーチ処理、相関サーチ処理、3D位置姿勢推定処理及び2D位置姿勢推定処理などを示すパラメーターである。
これにより、前述したようなシナリオデータを予め生成して記憶しておけば、作業者が、ビジュアルサーボ等に関する知識をほとんど有していない場合であっても、ビジュアルサーボによる作業の誤りの検出率を向上させることが可能となる。
また、本実施形態のロボット制御システム10は、シナリオデータの受け付け処理を行うインターフェース部140を含んでもよい。
これにより、サーバー等の外部機器に記憶されたシナリオデータを取得して、利用すること等が可能になる。
また、本実施形態の制御装置20は、ロボットの制御のシナリオデータの生成処理を行う処理部210と、シナリオデータをロボット制御システム10に転送する転送部220と、シナリオデータを記憶する記憶部230と、を含む。そして、処理部210は、ビジュアルサーボ処理に対してはビジュアルサーボ用パラメーターが関連付けられ、ロボットの作業対象の検査処理に対しては検査処理用パラメーターが関連付けられたシナリオデータの生成処理を行う。さらに、ビジュアルサーボ用パラメーターと検査処理用パラメーターとでは、撮像画像の撮像条件パラメーター及び画像処理の画像処理パラメーターの少なくとも一方のパラメーターが異なる。
これにより、例えば制御装置20がシナリオデータを生成し、複数のロボット制御システム10が同一のシナリオデータに従って、ロボットを制御すること等が可能になる。すなわち、制御装置20でシナリオデータをまとめて生成すればよく、各ロボット制御システム10が個別にシナリオデータを生成しなくても済むようになる。
また、本実施形態の制御装置20は、ビジュアルサーボ用パラメーターと検査処理用パラメーターを表示する表示部240を含んでもよい。
これにより、ビジュアルサーボ等に関する知識が豊富な作業者でなくても、ビジュアルサーボによる作業の誤りの検出精度が高いシナリオデータを生成すること等が可能になる。
なお、本実施形態のロボット制御システム10、制御装置20及びロボット等は、その処理の一部または大部分をプログラムにより実現してもよい。この場合には、CPU等のプロセッサーがプログラムを実行することで、本実施形態のロボット制御システム10、制御装置20及びロボット等が実現される。具体的には、情報記憶媒体に記憶されたプログラムが読み出され、読み出されたプログラムをCPU等のプロセッサーが実行する。ここで、情報記憶媒体(コンピューターにより読み取り可能な媒体)は、プログラムやデータなどを格納するものであり、その機能は、光ディスク(DVD、CD等)、HDD(ハードディスクドライブ)、或いはメモリー(カード型メモリー、ROM等)などにより実現できる。そして、CPU等のプロセッサーは、情報記憶媒体に格納されるプログラム(データ)に基づいて本実施形態の種々の処理を行う。即ち、情報記憶媒体には、本実施形態の各部としてコンピューター(操作部、処理部、記憶部、出力部を備える装置)を機能させるためのプログラム(各部の処理をコンピューターに実行させるためのプログラム)が記憶される。
以上のように本実施形態について詳細に説明したが、本発明の新規事項および効果から実体的に逸脱しない多くの変形が可能であることは当業者には容易に理解できるであろう。従って、このような変形例はすべて本発明の範囲に含まれるものとする。例えば、明細書又は図面において、少なくとも一度、より広義または同義な異なる用語と共に記載された用語は、明細書又は図面のいかなる箇所においても、その異なる用語に置き換えることができる。また、ロボット制御システム、制御装置及びロボットの構成、動作も本実施形態で説明したものに限定されず、種々の変形実施が可能である。
10 ロボット制御システム、20 制御装置(教示装置)、30 第1の撮像部、
40 第2の撮像部、50 ロボット機構、110 ロボット制御部、120 処理部、
121 検査処理部、122 指示処理部、130 記憶部、
140 インターフェース部、210 処理部、220 転送部、230 記憶部、
240 表示部、510 第1のアーム、520 第2のアーム、
530 エンドエフェクター

Claims (13)

  1. ビジュアルサーボ処理によりロボットの制御を行うロボット制御部と、
    前記ビジュアルサーボ処理後の作業対象に対して、撮像部による検査処理を行う検査処理部と、
    前記ビジュアルサーボ処理と前記検査処理とで、前記撮像部により撮像された撮像画像の撮像条件と、前記撮像画像に対する画像処理のうち、少なくとも一方を異ならせる指示処理を行う指示処理部と、
    を含むことを特徴とするロボット制御システム。
  2. 請求項1において、
    前記ロボット又は前記ロボット制御システムの処理を規定するシナリオデータを記憶する記憶部を含み、
    前記指示処理部は、
    前記シナリオデータに基づいて前記指示処理を行い、
    前記シナリオデータでは、
    前記ビジュアルサーボ処理に対してはビジュアルサーボ用パラメーターが関連付けられ、前記検査処理に対しては検査処理用パラメーターが関連付けられており、
    前記ビジュアルサーボ用パラメーターと前記検査処理用パラメーターとでは、
    前記撮像画像の撮像条件パラメーター及び前記画像処理の画像処理パラメーターの少なくとも一方のパラメーターが異なることを特徴とするロボット制御システム。
  3. 請求項2において、
    前記シナリオデータの受け付け処理を行うインターフェース部を含むことを特徴とするロボット制御システム。
  4. 請求項1乃至3のいずれかにおいて、
    前記撮像条件は、
    複数の前記撮像部のうち、いずれの前記撮像部により撮像された前記撮像画像を用いるかを示す条件であり、
    前記指示処理部は、
    前記ビジュアルサーボ処理に対しては、第1の撮像部により撮像された前記撮像画像を用いることを指示し、
    前記検査処理に対しては、前記第1の撮像部とは設置位置が異なる第2の撮像部により撮像された前記撮像画像を用いることを指示する前記指示処理を行うことを特徴とするロボット制御システム。
  5. 請求項4において、
    前記第1の撮像部は、
    前記ロボットと離れた位置に設けられており、
    前記第2の撮像部は、
    前記ロボットのアームに設けられていることを特徴とするロボット制御システム。
  6. 請求項1乃至5のいずれかにおいて、
    前記撮像条件は、
    複数の撮像方向のうち、いずれの撮像方向から撮像された前記撮像画像を用いるかを示す条件であり、
    前記指示処理部は、
    前記ビジュアルサーボ処理に対しては、第1の撮像方向から撮像された前記撮像画像を用いることを指示し、
    前記検査処理に対しては、前記第1の撮像方向とは異なる第2の撮像方向から撮像された前記撮像画像を用いることを指示する前記指示処理を行うことを特徴とするロボット制御システム。
  7. 請求項1乃至6のいずれかにおいて、
    前記指示処理部は、
    前記ビジュアルサーボ処理に対しては、前記画像処理として3D位置姿勢推定処理を行うことを指示し、
    前記検査処理に対しては、前記画像処理として2D位置姿勢推定処理を行うことを指示する前記指示処理を行うことを特徴とするロボット制御システム。
  8. 請求項1乃至7のいずれかにおいて、
    前記ロボット制御部は、
    前記ビジュアルサーボ処理として、前記撮像画像が参照画像に一致又は近づくように前記ロボットを制御する処理を行うことを特徴とするロボット制御システム。
  9. ロボットの制御のシナリオデータの生成処理を行う処理部と、
    前記シナリオデータを前記ロボット制御システムに転送する転送部と、
    前記シナリオデータを記憶する記憶部と、
    を含み、
    前記処理部は、
    ビジュアルサーボ処理に対してはビジュアルサーボ用パラメーターが関連付けられ、前記ロボットの作業対象の検査処理に対しては検査処理用パラメーターが関連付けられた前記シナリオデータの前記生成処理を行い、
    前記ビジュアルサーボ用パラメーターと前記検査処理用パラメーターとでは、
    撮像画像の撮像条件パラメーター及び画像処理の画像処理パラメーターの少なくとも一方のパラメーターが異なることを特徴とする制御装置。
  10. 請求項9において、
    前記ビジュアルサーボ用パラメーターと前記検査処理用パラメーターを表示する表示部を含むことを特徴とする制御装置。
  11. ロボットのビジュアルサーボ処理と、前記ビジュアルサーボ処理後の作業対象に対する撮像部による検査処理とで、撮像画像の撮像条件と、前記撮像画像に対する画像処理のうち、少なくとも一方を異ならせる指示処理を行う指示処理部からの指示を受け、
    前記指示処理部から指示された前記撮像条件で撮像された前記撮像画像に対して、前記指示処理部から指示された前記画像処理を行うことで、前記ビジュアルサーボ処理を行い、
    前記指示処理部から指示された前記撮像条件で撮像された前記撮像画像に対して、前記指示処理部から指示された前記画像処理を行うことで、前記検査処理を行うことを特徴とするロボット。
  12. ビジュアルサーボ処理によりロボットの制御を行い、
    前記ビジュアルサーボ処理後の作業対象に対して、撮像部による検査処理を行い、
    前記ビジュアルサーボ処理と前記検査処理とで、前記撮像部により撮像された撮像画像の撮像条件と、前記撮像画像に対する画像処理のうち、少なくとも一方を異ならせる指示処理を行うことを特徴とするロボット制御システムの制御方法。
  13. ロボットのビジュアルサーボ処理と、前記ビジュアルサーボ処理後の作業対象に対する撮像部による検査処理とで、撮像画像の撮像条件と、前記撮像画像に対する画像処理のうち、少なくとも一方を異ならせる指示処理を行う指示処理部からの指示を受け、
    前記指示処理部から指示された前記撮像条件で撮像された前記撮像画像に対して、前記指示処理部から指示された前記画像処理を行うことで、前記ビジュアルサーボ処理を行い、
    前記指示処理部から指示された前記撮像条件で撮像された前記撮像画像に対して、前記指示処理部から指示された前記画像処理を行うことで、前記検査処理を行うことを特徴とするロボットの制御方法。
JP2013128244A 2013-06-19 2013-06-19 ロボット制御システム、制御装置、ロボット、ロボット制御システムの制御方法及びロボットの制御方法 Pending JP2015003348A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013128244A JP2015003348A (ja) 2013-06-19 2013-06-19 ロボット制御システム、制御装置、ロボット、ロボット制御システムの制御方法及びロボットの制御方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013128244A JP2015003348A (ja) 2013-06-19 2013-06-19 ロボット制御システム、制御装置、ロボット、ロボット制御システムの制御方法及びロボットの制御方法

Publications (1)

Publication Number Publication Date
JP2015003348A true JP2015003348A (ja) 2015-01-08

Family

ID=52299685

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013128244A Pending JP2015003348A (ja) 2013-06-19 2013-06-19 ロボット制御システム、制御装置、ロボット、ロボット制御システムの制御方法及びロボットの制御方法

Country Status (1)

Country Link
JP (1) JP2015003348A (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018153910A (ja) * 2016-12-22 2018-10-04 セイコーエプソン株式会社 制御装置、ロボット、およびロボットシステム
JP2018169275A (ja) * 2017-03-29 2018-11-01 グローリー株式会社 検査システム並びにそのシステムの制御用のコントローラおよびプログラム
US10695912B2 (en) 2017-11-16 2020-06-30 Kabushiki Kaisha Toshiba Actuation system and computer program product utilizing visual servo control based on images from multiple cameras
WO2022091895A1 (ja) * 2020-10-30 2022-05-05 パナソニックIpマネジメント株式会社 ロボット制御方法

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018153910A (ja) * 2016-12-22 2018-10-04 セイコーエプソン株式会社 制御装置、ロボット、およびロボットシステム
JP7067017B2 (ja) 2016-12-22 2022-05-16 セイコーエプソン株式会社 制御装置およびロボットシステム
JP2018169275A (ja) * 2017-03-29 2018-11-01 グローリー株式会社 検査システム並びにそのシステムの制御用のコントローラおよびプログラム
US10695912B2 (en) 2017-11-16 2020-06-30 Kabushiki Kaisha Toshiba Actuation system and computer program product utilizing visual servo control based on images from multiple cameras
WO2022091895A1 (ja) * 2020-10-30 2022-05-05 パナソニックIpマネジメント株式会社 ロボット制御方法

Similar Documents

Publication Publication Date Title
JP6484213B2 (ja) 複数のロボットを含むロボットシステム、ロボット制御装置、及びロボット制御方法
JP4940715B2 (ja) ピッキングシステム
JP2012254518A (ja) ロボット制御システム、ロボットシステム及びプログラム
US9884425B2 (en) Robot, robot control device, and robotic system
JP2015071206A (ja) 制御装置、ロボット、教示データ生成方法及びプログラム
JP2016078195A (ja) ロボットシステム、ロボット、制御装置及びロボットの制御方法
CN110303474B (zh) 使用图像处理修正机器人的示教的机器人系统
JP2014188617A (ja) ロボット制御システム、ロボット、ロボット制御方法及びプログラム
CN113379849A (zh) 基于深度相机的机器人自主识别智能抓取方法及系统
CN114080590A (zh) 使用先进扫描技术的机器人料箱拾取系统和方法
JP2015003348A (ja) ロボット制御システム、制御装置、ロボット、ロボット制御システムの制御方法及びロボットの制御方法
JP6390088B2 (ja) ロボット制御システム、ロボット、プログラム及びロボット制御方法
JP6424432B2 (ja) 制御装置、ロボットシステム、ロボット及びロボット制御方法
JP6023251B2 (ja) ロボットシステム
EP3602214B1 (en) Method and apparatus for estimating system error of commissioning tool of industrial robot
JP6488571B2 (ja) 教示装置、及びロボットシステム
US20210197391A1 (en) Robot control device, robot control method, and robot control non-transitory computer readable medium
CN108711174B (zh) 一种机械臂近似平行视觉定位系统
JP6123364B2 (ja) ロボット制御システム、ロボット、プログラム及びロボット制御方法
JP7112528B2 (ja) 作業座標作成装置
JP2015136763A (ja) 制御装置、ロボットシステム、ロボット及びロボット制御方法
WO2014091897A1 (ja) ロボット制御システム
JP2012236266A (ja) ロボット制御システム、ロボットシステム及びプログラム
JP2015160256A (ja) ロボットシステム、処理装置及び制御方法
JP2015157339A (ja) ロボット、ロボットシステム、制御装置、及び制御方法

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20150113