JP2015182186A - ロボット、ロボットシステム、制御装置及び制御方法 - Google Patents

ロボット、ロボットシステム、制御装置及び制御方法 Download PDF

Info

Publication number
JP2015182186A
JP2015182186A JP2014061548A JP2014061548A JP2015182186A JP 2015182186 A JP2015182186 A JP 2015182186A JP 2014061548 A JP2014061548 A JP 2014061548A JP 2014061548 A JP2014061548 A JP 2014061548A JP 2015182186 A JP2015182186 A JP 2015182186A
Authority
JP
Japan
Prior art keywords
robot
image
captured image
assembly
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014061548A
Other languages
English (en)
Inventor
如洋 山口
Yukihiro Yamaguchi
如洋 山口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2014061548A priority Critical patent/JP2015182186A/ja
Publication of JP2015182186A publication Critical patent/JP2015182186A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Manipulator (AREA)

Abstract

【課題】 撮像画像に目標位置の画像が含まれない場合であっても、目標位置へ物体を移動させることができるロボット、ロボットシステム、制御装置及び制御方法等の提供。
【解決手段】 ロボット10は、作業台に配置される第1物体を撮像部200により撮像した撮像画像を受け付ける画像受付部110と、目標位置へ向けて第2物体を移動させるロボット10を動作させる処理部120と、を含む。そして、処理部120は、撮像画像に目標位置の画像が含まれない場合に、ロボット10に第1物体の位置姿勢を変更させる。
【選択図】 図1

Description

本発明は、ロボット、ロボットシステム、制御装置及び制御方法等に関係する。
近年、生産現場において、人が行っていた作業を機械化・自動化するために、産業用ロボットを導入することが多くなってきた。しかし、ロボットの位置決めを行うにあたっては、精密なキャリブレーションが前提となり、ロボット導入の障壁となっている。
ここで、ロボットの位置決めを行う手法の一つとしてビジュアルサーボがある。従来のビジュアルサーボは、参照画像(ゴール画像、目標画像)と撮像画像(現在の画像)との差に基づいて、ロボットをフィードバック制御する技術である。ある種のビジュアルサーボは、キャリブレーションに精密さを求めない点で有用であり、ロボット導入障壁を下げる技術として注目されている。
このビジュアルサーボに関する技術としては、例えば特許文献1に記載される従来技術がある。
特開2011−143494号公報
例えば、ビジュアルサーボ等によりロボットに行わせる作業の一つとして、被組付け対象物(第1物体)に組付け対象物(第2物体)を組み付ける組付け作業がある。ビジュアルサーボにより組付け作業を行う場合には、撮像部により撮像された撮像画像に基づいて、被組付け対象物上の目標位置を特定し、特定した目標位置に向かって、組付け対象物を移動させる。
しかし、様々な事情により、撮像画像に被組付け対象物上の目標位置が映っていないことがある。例えば、組付け作業を行う前には、被組付け対象物を所与の設置位置に設置させる作業をロボットに行わせるが、被組付け対象物を設置した後に、被組付け対象物が転がるなどして、所与の設置位置からずれてしまうことがある。このような事態は、特に被組付け対象物が極小の部品である場合などに起こり得る。
また他にも、被組付け対象物を所与の設置位置に設置する際に、被組付け対象物をロボットが正しく把持できていなかったり、撮像部の設置位置や設定等に誤りがあったりして、そもそも被組付け対象物を所与の設置位置に正しく設置できていない場合がある。
以上のような場合には、撮像画像に目標位置が映っていない事態が起こり得る。そして、撮像画像に目標位置が映っていない場合には、ビジュアルサーボ等により、組付け作業を行うことができなかった。
本発明の一態様は、作業台に配置される第1物体を撮像部により撮像した撮像画像を受け付ける画像受付部と、目標位置へ向けて第2物体を移動させるロボットを動作させる処理部と、を含み、前記処理部は、前記撮像画像に前記目標位置の画像が含まれない場合に、前記ロボットに前記第1物体の位置姿勢を変更させるロボットに関係する。
本発明の一態様では、画像受付部が、作業台に配置される第1物体を撮像した撮像画像を受け付ける。そして、処理部が、第2物体の目標位置の画像が撮像画像に含まれない場合に、ロボットに第1物体の位置姿勢を変更させて、目標位置の画像が撮像画像に含まれるようにして、ロボットに第2物体を目標位置へ向けて移動させる。
よって、撮像画像に目標位置の画像が含まれない場合であっても、目標位置へ物体(第2物体)を移動させること等が可能となる。
また、本発明の一態様では、前記処理部は、前記位置姿勢が変更された前記第1物体を複数回撮像した前記撮像画像を用いて、前記ロボットを動作させてもよい。
これにより、複数の撮像画像に基づいて、第1物体上の目標位置を特定し、特定した目標位置へ第2物体を移動させること等が可能となる。
また、本発明の一態様では、前記目標位置は、前記第1物体に前記第2物体を組み付ける前記第1物体上の組み付け位置であってもよい。
これにより、第1物体の位置姿勢を変更することで、第1物体上に位置する第2物体の目標位置が撮像画像に映るようにすること等が可能となる。
また、本発明の一態様では、前記画像受付部は、前記第1物体及び前記第2物体のうち、少なくとも前記第1物体が映る前記撮像画像を受け付け、前記処理部は、前記撮像画像に基づいて、前記第1物体の特徴量検出処理を行い、前記第1物体の特徴量に基づいて、前記ロボットに前記第2物体を移動させてもよい。
これにより、参照画像を準備しなくても、第1物体と第2物体の組付け作業を行うこと等が可能となる。また、第1物体上の目標位置が撮像画像には映っているが、組付け作業を行う度に、目標位置がずれてしまう場合であっても、第2物体を第1物体に正確に組付けること等が可能になる。
また、本発明の一態様では、前記画像受付部は、前記撮像部とは異なる第2の撮像部により前記第1物体を撮像した第2の撮像画像を受け付け、前記処理部は、前記第2の撮像画像に基づいて、前記ロボットに前記第1物体の前記位置姿勢を変更させてもよい。
これにより、現在の第1物体の位置姿勢を特定した上で、第1物体の位置姿勢を変更すること等が可能となる。そのため、例えば第1物体の把持を失敗したり、第1物体を逆向きに把持したりすることを抑制すること等が可能になる。
また、本発明の一態様では、前記処理部は、前記撮像部に対する前記第1物体の前記位置姿勢が、所与の位置姿勢でない場合に、前記第2の撮像画像に基づいて、前記ロボットに前記第1物体の前記位置姿勢を変更させてもよい。
これにより、第1物体の位置姿勢が正しい場合に、第1物体を再度設置するといった無駄な処理を行わないようにすること等が可能になる。
また、本発明の一態様では、前記第2の撮像部は、前記ロボットの頭部カメラ又はハンドアイカメラであってもよい。
これにより、作業台や天井に設置するよりも、撮像範囲(又は撮像方向)を変更する際の自由度が高くなり、柔軟に撮像範囲等を変更することが可能になる。
また、本発明の一態様では、前記処理部は、前記ロボットのアームにより前記第1物体を把持して、前記作業台の所与の位置に設置させ、前記画像受付部は、前記所与の位置に設置後の前記第1物体を前記撮像部により撮像した前記撮像画像を受け付け、前記処理部は、前記目標位置の画像又は前記第1物体の作業面の画像が、前記撮像画像に含まれない場合に、前記ロボットに前記第1物体の前記位置姿勢を変更させてもよい。
これにより、ロボットに、第1物体を所与の位置に設置させた後に、第1物体上の目標位置が撮像画像に映らなくなった時に、ロボットに、第1物体を所与の位置に再設置させること等が可能となる。
また、本発明の他の態様は、アームを有するロボット機構と、作業台に配置される第1物体を撮像する撮像部と、前記撮像部により撮像した撮像画像を受け付ける画像受付部と、目標位置へ向けて第2物体を移動させるロボットを動作させる処理部と、を含み、前記処理部は、前記撮像画像に前記目標位置の画像が含まれない場合に、前記ロボットに前記第1物体の位置姿勢を変更させるロボットシステムに関係する。
また、本発明の他の態様は、作業台に配置される第1物体を撮像部により撮像した撮像画像を受け付ける画像受付部と、目標位置へ向けて第2物体を移動させるロボットを動作させる処理部と、を含み、前記処理部は、前記撮像画像に前記目標位置の画像が含まれない場合に、前記ロボットに前記第1物体の位置姿勢を変更させる制御装置に関係する。
また、本発明の他の態様は、作業台に配置される第1物体を撮像した撮像画像を受け付け、第2物体の目標位置の画像が前記撮像画像に含まれない場合に、ロボットに前記第1物体の位置姿勢を変更させ、前記ロボットに前記第2物体を前記目標位置へ向けて移動させる制御方法に関係する。
本発明の幾つかの態様によれば、撮像画像に目標位置の画像が含まれない場合であっても、目標位置へ物体を移動させることができるロボット、ロボットシステム、制御装置及び制御方法等を提供することができる。
本実施形態のシステム構成例。 図2(A)〜図2(C)は、組付け作業と撮像画像の説明図。 図3(A)〜図3(C)は、目標位置が撮像画像に映っていない例の説明図。 図4(A)〜図4(C)は、目標位置が撮像画像に映っていない他の例の説明図。 図5(A)、図5(B)は、ロボットに第1物体を再設置させる処理の説明図。 本実施形態の処理の流れを説明するフローチャート。 ビジュアルサーボによる組付け作業の説明図。 図8(A)、図8(B)は、被組付け対象物の位置ずれの説明図。 被組付け対象物の特徴量に基づくビジュアルサーボによる組付け作業の説明図。 被組付け対象物の特徴量に基づくビジュアルサーボで用いる撮像画像の一例。 組付け状態の説明図。 被組付け対象物の特徴量に基づくビジュアルサーボのフローチャート。 被組付け対象物の特徴量に基づくビジュアルサーボの他のフローチャート。 被組付け対象物の真上に組付け対象物を移動させる処理の説明図。 図15(A)、図15(B)は、ロボットの構成例。 ネットワークを介してロボットを制御するロボット制御システムの構成例。
以下、本実施形態について説明する。なお、以下で説明する本実施形態は、特許請求の範囲に記載された本発明の内容を不当に限定するものではない。また、本実施形態で説明される構成の全てが、本発明の必須構成要件であるとは限らない。さらに、以下の説明では、主にビジュアルサーボを行う場合について説明するが、本発明で行うロボット制御は、ビジュアルサーボに限定されない。
1.システム構成例
本実施形態のロボット10及びロボット10を含むロボットシステムの構成例を図1に示す。本実施形態のロボット10は、制御部(制御装置)100と、ロボット機構300とを含む。そして、制御部100は、画像受付部110と、処理部120と、を含む。また、ロボット機構300は、エンドエフェクター(ハンド)310と、アーム320と、を有する。なお、ロボット機構300の詳細な構成については詳述する。
画像受付部110は、作業台に配置される第1物体を撮像部200により撮像した撮像画像を受け付ける。また後述するように、画像受付部110は、第2の撮像部250により撮像された第2の撮像画像を受け付けても良い。
そして、処理部120は、目標位置へ向けて第2物体を移動させるロボット10(ロボット機構300)を動作させる。処理部120(制御部100)の機能は、各種プロセッサー(CPU等)、ASIC(ゲートアレイ等)などのハードウェアや、プログラムなどにより実現できる。
なお、ロボット10は、図1の構成に限定されず、これらの一部の構成要素を省略したり、他の構成要素を追加したりするなどの種々の変形実施が可能である。また、本実施形態のロボット10は、後述する図15(B)に示すように、ロボット機構300と制御装置100とが一体に構成されていてもよいし、後述する図15(A)に示すように、ロボット機構300と制御装置100とが別体に構成されていてもよい。さらに、後述する図16に示すように、ロボット10の制御装置100の機能は、サーバー500と、各ロボット機構300が有する端末装置330とにより実現されてもよい。
また、例えばロボット10と撮像部200(又は第2の撮像部250)が、有線及び無線の少なくとも一方を含むネットワークにより接続されている場合には、画像受付部110は、撮像部200(又は第2の撮像部250)と通信を行う通信部(インターフェース部)であってもよい。さらに、ロボット10が撮像部200(又は第2の撮像部250)を含む場合には、画像受付部110は、撮像部200(又は第2の撮像部250)そのものであってもよい。
また、以上の本実施形態で用いる撮像部(カメラ)200及び第2の撮像部250は、例えばCCD(charge-coupled device)等の撮像素子と光学系とを含む。撮像部200は、例えば天井や作業台の上などに、ビジュアルサーボ等における検出対象(組付け対象物、被組付け対象物又はロボット機構300のエンドエフェクター310等)が、撮像部200の画角内に入るような角度で配置される。そして、撮像部200は、撮像画像の情報をロボット10等に出力する。ただし、本実施形態においては、撮像画像の情報をそのままロボット10に出力するものとするが、これに限定されるものではない。例えば、撮像部200は、画像処理用等に用いられるデバイス(プロセッサー)を含むことができる。
ここで、撮像画像とは、撮像部200によって撮像することにより得られる画像のことをいう。また、撮像画像は、外部の記憶部に記憶された画像や、ネットワークを介して取得される画像であってもよい。撮像画像は、例えば後述する図2(B)に示す画像PIM1などである。なお、本実施形態の処理を行うにあたって、撮像画像には、第1物体と第2物体のうち、少なくとも第1物体が映っている必要があるが、第1物体の他にも、第2物体やロボットの各部等が映っていても良い。
2.本実施形態の手法
本実施形態では、例えば図2(A)〜図2(C)に示すように、ビジュアルサーボ等により、被組付け対象物(第1物体)に組付け対象物(第2物体)を組付ける組付け作業をロボットに行わせる。組付け作業とは、複数の作業対象物(物体)を組み付ける作業のことである。
ここで、被組付け対象物とは、組付け作業において、組付け対象物を組み付けられる物である。以下では組付け対象物のことを第1物体とも呼ぶ。被組付け対象物は、例えば後述する図2(A)の例では、ナットWK2である。
一方、組付け対象物とは、組付け作業において、被組付け対象物に対して組み付けを行う物である。以下では組付け対象物のことを第2物体とも呼ぶ。組付け対象物は、例えば後述する図2(A)の例では、ボルトWK1である。
具体例として、作業台の上に設置されたナットWK2に、ボルトWK1を組み付ける組付け作業の例を、図2(A)〜図2(C)に示す。図2(A)の例では、ロボットのアームAMの先端に、エンドエフェクターとしてドライバーEFが取り付けられており、このドライバーEFが磁力によりボルトWK1を吸着している。そして、ナットWK2の開口部GPを目標位置として、矢印YJで示すようにロボットがボルトWK1を移動させて、作業台の上に置かれたナットWK2の開口部GPにボルトWK1を差し込む。つまり、ボルトWK1がWK1Rの点線で示す位置姿勢になるように、ロボットがボルトWK1を移動させる。
ここで、図2(A)の例では、作業台の上に前述した撮像部200としてカメラCM1を設置している。そして、カメラCM1により撮像された撮像画像PIM1の一例を、図2(B)に示す。
また、図2(A)の例では、ロボット10に、前述した第2の撮像部250として頭部カメラCM2が設置されている。そして、頭部カメラCM2により、図2(C)に示すような第2の撮像画像PIM2が得られる。頭部カメラCM2は、第2の撮像画像PIM2に作業台の全領域が映るように、撮像方向が調整されて設置されている。なお、第2の撮像画像PIM2の使用方法については後述する。また、図2(A)では、簡略化のため、ロボットの頭部や胴体部等を省略して図示しているが、頭部カメラCM2は、ロボットの頭部に設置されているものとする。
本実施形態では、図2(A)を用いて前述した組付け作業を、カメラCM1により撮像された撮像画像PIM1に基づいて行う。図2(B)の撮像画像PIM1には、ボルトWK1を移動させる際の目標位置GP(ナットWK2の開口部)が映っている。そして、処理部120が撮像画像PIM1に基づいて、目標位置GPを特定し、特定した目標位置GPへ向けてボルトWK1を、ロボットにより移動させる。
しかし、前述したように、様々な事情により、撮像画像PIM1にナットWK2上の目標位置GPが映っていないことがある。
例えば、組付け作業を行う前には、ナットWK2を所与の設置位置に設置させる作業をロボットに行わせるが、図3(A)〜図3(C)に示すように、ナットWK2を設置した後に、ナットWK2が転がるなどして、所与の設置位置からずれてしまうことがある。
図3(A)の例では、WK2’の点線で示す所与の設置位置に、ナットWK2を一度設置したものの、何らかの原因でナットWK2が転がってしまい、図3(B)に示す撮像画像PIM1にナットWK2上の目標位置GPが映っていない状態になっている。なお、この際にも、図3(C)の第2の撮像画像PIM2には、転がったナットWK2が映っている。
また他にも、ナットWK2を所与の設置位置に設置する際に、ナットWK2をロボットが正しく把持できていなかったり、カメラCM1や頭部カメラCM2の設置位置や設定等に誤りがあったりして、そもそもナットWK2を所与の設置位置に正しく設置できていない場合がある。
例えば、図4(A)〜図4(C)の例では、ナットWK2が逆向きに置かれている。ここで、本例のナットWK2は、片面に開口部GPがあるが、逆の面(裏面)には開口部GPがないものとする。そのため、図4(A)の例では、ナットWK2が所与の設置位置には置かれているものの、逆向きで置かれているため、図4(B)に示すように、ナットWK2の開口部GPが撮像画像PIM1には映らない。また、図4(C)に示す第2の撮像画像PIM2にも、ナットWK2の開口部GPは当然映っていない。
以上の図3(B)や図4(B)のように、撮像画像PIM1に目標位置(開口部GP)が映っていない場合には、これまでのビジュアルサーボ等では、目標位置を特定することができないため、組付け作業を行うことができなかった。
そこで、本実施形態のロボット10等は、撮像画像に目標位置が映っていない場合であっても、目標位置へ物体(組付け対象物)を移動させることを可能にする。
具体的には、本実施形態の処理部120は、撮像画像に目標位置の画像が含まれない場合に、ロボット10に第1物体の位置姿勢を変更させる。つまり、本実施形態の処理部120は、ロボット10に、第1物体を元の正しい設置位置に、正しい姿勢で設置し直させる。
ここで、目標位置は、第1物体に第2物体を組み付ける第1物体上の組み付け位置である。言い換えれば、目標位置は、ビジュアルサーボにより第1物体と第2物体の組付け作業を行うにあたり、第2物体を移動させる際に目標とする、第1物体上の所与の位置である。前述した図2(A)の例では、目標位置は、ナットWK2の開口部GPである。
そして、ビジュアルサーボにより第1物体と第2物体の組付け作業を行う場合には、処理部120が、撮像画像に基づいて、目標位置を特定し、特定した目標位置に向けて、第2物体を移動させる。したがって、目標位置が特定できないと、第2物体を移動させることもできない。
前述してきたように、撮像画像に基づいて、目標位置が特定できない原因は、図3(A)の例のように、第1物体が所与の位置からずれて設置されていたり、図4(A)の例のように、逆向きに設置されていたりすること等である。そのため、第1物体上の目標位置が撮像画像に映るように、第1物体の位置姿勢を変更すればよい。これにより、撮像画像に基づいて、第1物体上の目標位置を特定すること等が可能になり、その結果、第2物体を目標位置に移動させることが可能になる。
その場合には、まず画像受付部110が、撮像部200とは異なる第2の撮像部250により第1物体を撮像した第2の撮像画像を受け付ける。そして、処理部120は、第2の撮像画像に基づいて、ロボット10に第1物体の位置姿勢を変更させる。
ここで、第2の撮像部250は、ロボット10の頭部カメラ又はハンドアイカメラである。
第2の撮像画像は、ビジュアルサーボ等を行う際に直接参照される画像ではない。そのため、第2の撮像部250は、必ずしも第2物体やロボット10のエンドエフェクター310等を映す必要はない(但しこれらを映してもよい)。よって、例えば第1物体が設置後に転がったり、誤って設置されたりする可能性のある領域を映すように、第2の撮像部250を設置すること等が可能になる。例えば、第2の撮像部250を、第1物体が設置された作業台の全領域を撮像可能なように設置しておく。この際には、作業台や天井に設置するよりも、ロボット10の頭部やハンド310に設置した方が、撮像範囲(又は撮像方向)を変更する際の自由度が高くなり、柔軟に撮像範囲等を変更することが可能になる。よって、第1物体が設置された後に転がったり、作業台の誤った位置に設置されたりした場合でも、第1物体が映っている第2の撮像画像を取得すること等が可能になる。
そして、処理部120は、少なくとも第1物体の画像を含む第2の撮像画像に基づいて、ロボット10に第1物体の位置姿勢を変更させる。
より具体的には、処理部120は、撮像部200に対する第1物体の位置姿勢が、所与の位置姿勢でない場合に、第2の撮像画像に基づいて、ロボット10に第1物体の位置姿勢を変更させる。
具体例を図5(A)及び図5(B)を用いて説明する。図5(A)及び図5(B)は、前述した第1物体(ナットWK2)の位置姿勢が所与の位置姿勢でない図3(A)〜図3(C)の例において、ナットWK2の位置姿勢を変更する処理の様子を図示している。また、図5(A)及び図5(B)の例では、ロボットは、第1のアームAM1の他に、第2のアームAM2を有している。
まず、前述した図3(C)に示す第2の撮像画像PIM2から、ナットWK2の現在の位置姿勢を特定する。そして、図5(A)に示すように、特定したナットWK2の位置姿勢に基づいて、ロボットのハンドHDにナットWK2を把持させる。なお、ハンドHDは、エンドエフェクターとして、ロボットの第2のアームAM2の先端に設けられている。
次に、図5(B)に示すように、ロボットのハンドHDで把持したナットWK2を、元の設置位置WK2’に移動させる。この際には、ナットWK2の開口部GPが天井方向(作業台と逆方向)を向くように設置する。
このようにして、カメラCM1によりナットWK2の開口部GPを撮像可能な状態にして、処理部120が、カメラCM1から得られる撮像画像に基づいて、ナットWK2の開口部GPの位置を特定することを可能にする。ナットWK2の開口部GPの位置が特定できれば、ボルトWK1を開口部GPに向けて、移動させることも可能である。
これにより、撮像画像に目標位置の画像が含まれない場合であっても、目標位置へ物体を移動させること等が可能となる。
また、第2の撮像画像を受け付けることによって、第2の撮像画像に基づいて、現在の第1物体の位置姿勢を特定した上で、第1物体の位置姿勢を変更すること等が可能となる。これにより、第1物体の把持を失敗したり、逆向きに把持したりすることを抑制すること等が可能になる。そのため、再度、第1物体を所与の設置位置に設置する際に、誤った位置姿勢で設置することを抑制すること等が可能になる。
さらに、撮像部200に対する第1物体の位置姿勢が、所与の位置姿勢でない場合に、第2の撮像画像に基づいて、ロボット10に第1物体の位置姿勢を変更させることにより、第1物体の位置姿勢を変える必要がある場合にのみ、上記の処理を行うこと等が可能となる。すなわち、第1物体の位置姿勢が正しい場合に、第1物体を再度設置するといった無駄な処理を行わないようにすること等が可能になる。
そして、第1物体の再設置後に第2物体を移動させる際には、処理部120は、ロボット10が第1の姿勢から、第1の姿勢とは異なる第2の姿勢へと移る間に、位置姿勢が変更された第1物体を複数回撮像した撮像画像を用いて、ロボット10を動作させる。
これにより、複数の撮像画像に基づいて、第1物体上の目標位置を特定し、特定した目標位置へ第2物体を移動させること等が可能となる。つまり、ロボット10がビジュアルサーボを行なって、目標位置へ第2物体を移動させること等が可能となる。
この際には、画像受付部110は、第1物体及び第2物体のうち、少なくとも第1物体が映る撮像画像を受け付ける。そして、処理部120は、撮像画像に基づいて、第1物体の特徴量検出処理を行い、第1物体の特徴量に基づいて、ロボット10に第2物体を移動させる。なお、本処理の詳細については、図7〜図14を用いて後述する。
これにより、参照画像を準備しなくても、第1物体と第2物体の組付け作業を行うこと等が可能となる。また、第1物体上の目標位置が撮像画像には映っているが、組付け作業を行う度に、目標位置がずれてしまう場合であっても、第2物体を第1物体に正確に組付けること等が可能になる。ただし、本実施形態では、参照画像を用いるビジュアルサーボにより、再設置後の第1物体と第2物体との組付け作業を行ってもよい。
次に、図6のフローチャートを用いて本実施形態の処理の流れについて説明する。まず、画像受付部110が、第2の撮像部250により第1物体を撮像した第2の撮像画像を受け付ける(S1)。前述したように、第2の撮像部250は、例えば作業台の全領域を撮像可能なようにロボット10の頭部に設置されており、作業台の所与の部品供給位置に置かれた第1物体を撮像する。
次に、処理部120が、第2の撮像画像に基づいて、ロボット10のアーム320(の先端に設けられたハンド310)により第1物体を把持して、作業台の所与の位置(前述した所与の設置位置又は作業位置)に第1物体を設置させる(S2)。例えば、前述した図2(A)の例のように、第1物体であるナットWK2を同図に示す位置に設置する。
そして、所与の位置に設置した後の第1物体を撮像部200により撮像した撮像画像を、画像受付部110が受け付ける(S3)。例えば画像受付部110は、前述した図2(B)に示すような撮像画像PIM1をカメラCM1から受け付ける。
次に、処理部120が、取得した撮像画像に第1物体上の目標位置が映っているか否かを判定する(S4)。取得した撮像画像に第1物体上の目標位置が映っていないと判定した場合には、画像受付部110が、第2の撮像部250により第1物体を撮像した第2の撮像画像を受け付ける(S5)。この場合には、例えば前述した図3(A)のように、ナットWK2が転がってしまったり、前述した図4(A)のように、第1物体であるナットWK2が裏返しになっていたりして、図3(B)及び図4(B)に示す撮像画像PIM2に目標位置GPが映らない状態になっている。そのため、ナットWK2の現在位置を特定するために、画像受付部110が、前述した図3(C)及び図4(C)に示すような第2の撮像画像PIM2を頭部カメラCM2から受け付ける。
そして、処理部120が、目標位置の画像又は第1物体の作業面の画像が、撮像画像に含まれない場合に、ロボット10に第1物体の位置姿勢を変更させる。つまり、処理部120が、第2の撮像画像に基づいて、ロボット10に第1物体を所与の位置に再設置させ(S6)、ステップS3の処理に戻る。例えば、前述した図5(A)に示すように、ロボット10にナットWK2を把持させて、図5(B)に示すように、ナットWK2を元の設置位置に再設置させる。なお、第1物体の作業面とは、例えば第2物体を移動させる際の第1物体上の目標位置が存在する面である。具体的に、図2(A)の例では、ナットWK2の開口部GPがある面である。ただし、第1物体の作業面は、必ずしも第1物体において第2物体の目標位置が存在する面とは限らない。
また、ステップS6の処理は、参照画像と撮像画像を用いたビジュアルサーボにより行っても良いし、図7〜図14を用いて後述する方法のビジュアルサーボにより行っても良いし、ビジュアルサーボ以外の方法で行っても良い。例えば、ビジュアルサーボ以外の方法には、ロボットに第1物体を撮像画像に基づいて把持させた後に、ロボットの各関節角の角度をあらかじめ決められた所与の角度にする方法等がある。
また、ステップS4において、処理部120が、撮像画像に目標位置が映っていると判定した場合には、処理部120は、撮像画像に基づいて、第2物体を目標位置に移動させる(S7)。つまり、処理部120がロボット10に、図2(A)の矢印YJで示すように、目標位置であるナットWK2の開口部GPに向けて、ボルトWK1を移動させる。以上が本実施形態の処理の流れである。
これにより、ロボット10に、第1物体を所与の位置に設置させた後に、第1物体上の目標位置が撮像画像に映らなくなった時に、ロボット10に、第1物体を所与の位置に再設置させること等が可能となる。
また前述してきた組付け作業は、前述した例の他にも、例えば第1のワークを第2のワークの上又は隣に置く作業であったり、第1のワークを第2のワークに嵌め込む(嵌め合わせる)作業(嵌入作業、嵌合作業)であったり、第1のワークと第2のワークを接着したり、接続したり、組み立てたり、融着したりする作業(接着作業、接続作業、組立作業、融着作業)などであってもよい。さらに、本実施形態において、ロボットがビジュアルサーボにより行う作業は、組付け作業に限定されず、その他の作業を行っても良い。
3.被組付け対象物の特徴量に基づくビジュアルサーボ
次に、図6のステップS7において行うビジュアルサーボについて説明する。また、前述したように、図6のステップS6の処理も、以下で説明するビジュアルサーボにより行っても良い。但し、前述したように、本実施形態で行うロボット制御はビジュアルサーボには限定されない。
組付け対象物を被組付け対象物に組み付ける組付け作業を、ビジュアルサーボによりロボットに行わせる場合に、被組付け対象物の位置姿勢が組付け作業を行う度に変わってしまうことがある。被組付け対象物の位置姿勢が変わった場合には、被組付け対象物と組付け状態となる組付け対象物の位置姿勢も変わることになる。
この時に、毎回、同じ参照画像を用いてビジュアルサーボを行うと、正確な組付け作業ができないことがある。これは、組付け状態となる組付け対象物の位置姿勢が変わったにも関わらず、参照画像に映る組付け対象物の位置姿勢に向かって、組付け対象物を移動させてしまうためである。
また、実際の被組付け対象物の位置が変わる度に異なる参照画像を用いれば、参照画像を用いたビジュアルサーボにより組付け作業を行うことが原理的には可能であるが、この場合には大量の参照画像を用意する必要があり、現実的ではない。
ここでは、具体例として図7に示すように、ロボットのハンドHDにより把持された組付け対象物WK1を、被組付け対象物WK2に組み付ける組付け作業を行う場合について説明する。なお、ロボットのハンドHDは、ロボットのアームAMの先端に設けられている。
まず、本実施形態の比較例である、前述した参照画像を用いたビジュアルサーボにより、図7に示すような組付け作業を行う場合には、カメラ(撮像部)CMにより撮像された撮像画像と、あらかじめ用意しておいた参照画像とに基づいて、ロボットを制御する。具体的には、参照画像に映る組付け対象物WK1Rの位置に向かって、組付け対象物WK1を、矢印YJで示すように移動させて、被組付け対象物WK2に組み付ける。
ここで、この時に用いる参照画像RIMを図8(A)に、参照画像RIMに映る被組付け対象物WK2の実空間(3次元空間)上での位置を図8(B)に示す。図8(A)の参照画像RIMには、被組付け対象物WK2と組付け状態(又は組み付けられる直前の状態)の組付け対象物WK1R(図7のWK1Rに相当する)が映っている。前述した参照画像RIMを用いたビジュアルサーボでは、参照画像RIMに映る組付け状態の組付け対象物WK1Rの位置姿勢に、撮像画像に映る組付け対象物WK1の位置姿勢が一致するように、組付け対象物WK1を移動させる。
しかし、前述したように、実際に組付け作業を行う場合には、被組付け対象物WK2の位置姿勢が変わることがある。例えば、図8(B)に示すように、図8(A)の参照画像RIMに映る被組付け対象物WK2の重心位置が、実空間上ではGC1であるとする。これに対し、実際の被組付け対象物WK2がずれて置かれており、実際の被組付け対象物WK2の重心位置はGC2であることがある。この場合には、参照画像RIMに映る組付け対象物WK1Rの位置姿勢と一致するように、実際の組付け対象物WK1を移動させても、実際の被組付け対象物WK2との組付け状態にはならないため、正確に組付け作業を行うことができない。被組付け対象物WK2の位置姿勢が変わった場合には、被組付け対象物WK2と組付け状態となる組付け対象物WK1の位置姿勢も変わるためである。
そこで、本実施形態のロボット10等は、被組付け対象物の位置姿勢が変わる場合でも、正確に組付け作業を行うことができるようにする。
まず、画像受付部110は、組付け作業における組付け対象物と被組付け対象物のうち、少なくとも被組付け対象物が映る撮像画像を受け付ける。
そして、処理部120は、撮像画像に基づいて、被組付け対象物の特徴量検出処理を行い、被組付け対象物の特徴量に基づいて、組付け対象物を移動させる。なお、組付け対象物を移動させることには、ロボット機構300の制御情報(制御信号)を出力する処理なども含むものとする。
このように、前述した参照画像を用いたビジュアルサーボ(比較例)では、参照画像の組付け対象物の特徴量に基づいて、組付け対象物を移動させるのに対して、本実施形態では、撮像画像に映る被組付け対象物の特徴量に基づいて、組付け対象物を移動させる。例えば図9に示すように、カメラCMにより撮像された撮像画像において、被組付け対象物であるワークWK2の特徴量を検出し、検出したワークWK2の特徴量に基づいて、矢印YJで示すように組付け対象物であるワークWK1を移動させる。
ここで、カメラCMにより撮像された撮像画像には、現時点(撮像した時点)での被組付け対象物WK2が映っている。そのため、現時点での被組付け対象物WK2の位置に向かって、組付け対象物WK1を移動させることができる。よって、前述した参照画像を用いたビジュアルサーボの失敗例(図7で説明した比較例の問題点)のように、現時点では組付け状態にすることができない位置に向かって、組付け対象物WK1を移動させてしまうことを防ぐことができる。また、組付け作業を行う度に、撮像画像からビジュアルサーボの新しい目標位置を設定するため、被組付け対象物WK2の位置姿勢が変わった場合でも、正しい目標位置を設定することができる。
以上のように、被組付け対象物の位置姿勢が変わる場合でも、正確に組付け作業を行うことが可能となる。さらに、本実施形態では、あらかじめ参照画像を用意しておく必要もなく、ビジュアルサーボの準備コストを低減することが可能となる。
このように、処理部120は、撮像画像に基づくビジュアルサーボを行うことにより、ロボットを制御する。
これにより、現在の作業状況に基づいて、ロボットをフィードバック制御すること等が可能となる。
4.処理の詳細
次に、被組付け対象物の特徴量に基づくビジュアルサーボにおける処理の詳細について説明する。
本実施形態の画像受付部110は、組付け対象物及び被組付け対象物が映る1又は複数の撮像画像を受け付ける。そして、処理部120は、取得された1又は複数の撮像画像に基づいて、組付け対象物及び被組付け対象物の特徴量検出処理を行う。さらに、処理部120は、組付け対象物の特徴量及び被組付け対象物の特徴量に基づいて、組付け対象物と被組付け対象物との相対位置姿勢関係が、目標相対位置姿勢関係になるように、組付け対象物を移動させる。
ここで、目標相対位置姿勢関係とは、ビジュアルサーボ等により組付け作業を行う際に目標とする、組付け対象物と被組付け対象物との相対位置姿勢関係のことをいう。例えば、図9の例では、ワークWK2の三角形の開口部HLに、ワークWK1が接触(隣接)した時の相対位置姿勢関係が、目標相対位置姿勢となる。
これにより、撮像画像から検出した組付け対象物の特徴量と、被組付け対象物の特徴量とに基づいて、組付け作業を行うこと等が可能となる。なお、画像受付部110が受け付ける1又は複数の撮像画像については、後段にて詳細に説明する。
また、多くの組付け作業では、組付け対象物のうち、被組付け対象物に組付ける部分(組付け部分)と、被組付け対象物のうち、組付け対象物が組み付けられる部分(被組付け部分)が決まっていることが多い。例えば、図9の例において、組付け対象物のうちの組付け部分とは、ワークWK1の底面BAであり、被組付け対象物の被組付け部分とは、ワークWK2の三角形の開口部HLである。図9の組付け作業の例では、被組付け部分の開口部HLに組付け部分BAをはめ込むのであって、例えば開口部HLにワークWK1の側面SAを組み付けても意味がない。したがって、組付け対象物における組付け部分と、被組付け対象物における被組付け部分とを設定しておくことが望ましい。
そこで、処理部120は、被組付け対象物の特徴量のうち、ゴール特徴量として設定された特徴量と、組付け対象物の特徴量のうち、注目特徴量として設定された特徴量とに基づいて、組付け対象物と被組付け対象物との相対位置姿勢関係が、目標相対位置姿勢関係になるように、組付け対象物を移動させる。
ここで、特徴量とは、例えば画像の特徴点や、画像中に映る検出対象物(組付け対象物及び被組付け対象物など)の輪郭線などのことを指す。そして、特徴量検出処理とは、画像中の特徴量を検出する処理のことであり、例えば特徴点検出処理や、輪郭線検出処理などのことを指す。
以下では、特徴量として特徴点を検出する場合について説明する。特徴点とは、画像中から際立って観測できる点のことをいう。例えば、図10に示す撮像画像PIM11では、被組付け対象物であるワークWK2の特徴点として、特徴点P1〜特徴点P10が検出されており、組付け対象物であるワークWK1の特徴点として、特徴点Q1〜特徴点Q5が検出されている。なお、図10の例では、図示及び説明の都合上、P1〜P10及びQ1〜Q5の特徴点だけが検出された様子を図示しているが、実際の撮像画像ではより多数の特徴点が検出される。しかし、より多数の特徴点が検出される場合でも、以下で説明する処理の内容に変わりはない。
また、本実施形態では、特徴点の検出方法(特徴点検出処理)として、コーナー検出法等を用いるが、その他の一般的なコーナー部検出方法(固有値、FAST特徴検出)を用いても良いし、SIFT(Scale Invariant Feature Transform)に代表される局所特徴量記述子やSURF(Speeded Up Robust Feature)等を用いても良い。
そして、本実施形態では、被組付け対象物の特徴量のうち、ゴール特徴量として設定された特徴量と、組付け対象物の特徴量のうち、注目特徴量として設定された特徴量とに基づいて、ビジュアルサーボ等を行う。
具体的に図10の例では、ワークWK2の特徴点P1〜特徴点P10のうち、ゴール特徴量としてゴール特徴点P9及びゴール特徴点P10が設定されているものとする。一方で、ワークWK1の特徴点Q1〜特徴点Q5のうち、注目特徴量として注目特徴点Q4及び注目特徴点Q5が設定されているものとする。
そして、処理部120は、被組付け対象物のゴール特徴点と組付け対象物の注目特徴点とが一致するように又は近付くように、組付け対象物を移動させる。
すなわち、注目特徴点Q4がゴール特徴点P9に近付き、注目特徴点Q5がゴール特徴点P10に近付くように、組付け対象物WK1を矢印YJで示すように移動させる。
ここで、ゴール特徴量とは、被組付け対象物を表す特徴量のうち、ビジュアルサーボにより組付け対象物を移動させる際に、目標とする特徴量のことをいう。言い換えれば、ゴール特徴量は、被組付け対象物の被組付け部分の特徴量である。さらに、前述した組付け対象物(第2物体)の目標位置は、ゴール特徴量により表される。
また、ゴール特徴点とは、特徴点検出処理が行われる場合に、ゴール特徴量として設定される特徴点のことをいう。前述したように図10の例では、ワークWK2の三角形の開口部HLに対応する特徴点P9及び特徴点P10が、ゴール特徴点として設定されている。
一方、注目特徴量とは、組付け対象物又は被組付け対象物を表す特徴量のうち、ゴール特徴量に対応する実空間上のポイント(図10の例では、ワークWK2の三角形の開口部HL)に向かって移動させる、実空間上のポイント(図10の例では、ワークWK1の底面)を表す特徴量のことをいう。言い換えれば、注目特徴量は、組付け対象物の組付け部分の特徴量である。また、注目特徴点とは、特徴点検出処理が行われる場合に、注目特徴量として設定される特徴点のことをいう。前述したように図10の例では、ワークWK1の底面に対応する特徴点Q4及び特徴点Q5が、注目特徴点として設定されている。
また、ゴール特徴量(ゴール特徴点)及び注目特徴量(注目特徴点)は、予め教示者(ユーザー)が設定しておくものであってもよいし、所与のアルゴリズムに従って設定される特徴量(特徴点)であってもよい。例えば、検出される特徴点のバラつきとゴール特徴点との相対位置関係に基づいて、ゴール特徴点を設定してもよい。具体的に図10の例では、撮像画像PIM11において、ワークWK2を表す特徴点P1〜特徴点P10のバラつきの中心付近に位置する特徴点P9及び特徴点P10を、ゴール特徴点として設定してもよい。また、他にも被組付け対象物を表すCAD(Computer Aided Design)データにおいて、ゴール特徴点に対応するポイントを予め設定しておき、撮像画像においてCADデータとCADマッチングを行い、被組付け対象物の特徴点の中から、ゴール特徴点として設定された特徴点を、CADマッチングの結果に基づき特定(検出)してもよい。注目特徴量(注目特徴点)についても、同様である。
なお、本実施形態では、処理部120は、被組付け対象物のゴール特徴点と、組付け対象物の注目特徴点とが、一致するように又は近付くように、組付け対象物を移動させるが、被組付け対象物と組付け対象物は有体物であるため、実際にゴール特徴点と注目特徴点とが同じポイントにおいて検出されることはない。つまり、一致するように組付け対象物を移動させる、とは、あくまで注目特徴点が検出されるポイントを、ゴール特徴点が検出されるポイントに向かって移動させることを意味する。
これにより、設定された組付け対象物の組付け部分と、設定された被組付け対象物の被組付け部分の相対位置姿勢関係が、目標相対位置姿勢関係となるように、組付け対象物を移動させること等が可能になる。
そして、組付け対象物の組付け部分を、被組付け対象物の被組付け部分に組付けること等が可能になる。例えば、図11に示すように、ワークWK1の組付け部分である底面BAを、ワークWK2の被組付け部分である開口部HLに嵌め込むことができる。
次に、本実施形態の処理の流れを図12のフローチャートを用いて説明する。
まず、画像受付部110が、例えば図10に示すような撮像画像PIM11を受け付ける(S101)。この撮像画像PIM11には、組付け対象物WK1と被組付け対象物WK2の両方が映っている。
次に、処理部120が、取得した撮像画像PIM11に基づいて、特徴量検出処理を行って、被組付け対象物WK2のゴール特徴量FBと、組付け対象物WK1の注目特徴量FAを検出する(S102、S103)。
そして、前述したように、処理部120が、検出した注目特徴量FAとゴール特徴量FBとに基づいて、組付け対象物WK1を移動させ(S104)、組付け対象物WK1と被組付け対象物WK2との相対位置姿勢関係が、目標相対位置姿勢関係になったか否かを判定する(S105)。
最後に、組付け対象物WK1と被組付け対象物WK2との相対位置姿勢関係が、図11のように、目標相対位置姿勢関係になったと判定した場合には、処理を終了し、組付け対象物WK1と被組付け対象物WK2との相対位置姿勢関係が、目標相対位置姿勢関係になっていないと判定した場合には、ステップS101に戻り、処理を繰り返す。以上が、本実施形態の処理の流れである。
また、画像受付部110は、複数枚の撮像画像を受け付けてもよい。この場合には、画像受付部110は、組付け対象物と被組付け対象物の両方が映っている撮像画像を複数枚受け付けてもよいし、組付け対象物だけが映っている撮像画像と、被組付け対象物だけが映っている撮像画像とを受け付けてもよい。
ここで、後者の組付け対象物と被組付け対象物とが別々に映っている複数の撮像画像を取得する場合の処理の流れを、図13のフローチャートに示す。
まず、画像受付部110が、少なくとも被組付け対象物WK2が映っている撮像画像PIM11を受け付ける(S201)。なお、この撮像画像PIM11には、組付け対象物WK1が映っていてもよい。そして、処理部120が、撮像画像PIM11から被組付け対象物WK2のゴール特徴量FBを検出する(S202)。
次に、画像受付部110が、少なくとも組付け対象物WK1が映っている撮像画像PIM12を受け付ける(S203)。なお、ステップS201と同様に、この撮像画像PIM12には、被組付け対象物WK2が映っていてもよい。そして、処理部120が、撮像画像PIM12に基づいて、組付け対象物WK1の注目特徴量FAを検出する(S204)。
そして、以降は図12で説明した処理の流れと同様に、処理部120が、検出した注目特徴量FAとゴール特徴量FBとに基づいて、組付け対象物WK1を移動させ(S205)、組付け対象物WK1と被組付け対象物WK2との相対位置姿勢関係が、目標相対位置姿勢関係になったか否かを判定する(S206)。
最後に、組付け対象物WK1と被組付け対象物WK2との相対位置姿勢関係が、図11のように、目標相対位置姿勢関係になったと判定した場合には、処理を終了し、組付け対象物WK1と被組付け対象物WK2との相対位置姿勢関係が、目標相対位置姿勢関係になっていないと判定した場合には、ステップS203に戻り、処理を繰り返す。以上が、組付け対象物と被組付け対象物とが別々に映っている複数の撮像画像を取得する場合の処理の流れである。
また、前述した例では、ビジュアルサーボにより、組付け対象物を被組付け対象物に実際に組付けていたが、本発明はそれに限定されず、ビジュアルサーボにより、組付け対象物を被組付け対象物に組付ける直前の状態にしてもよい。
すなわち、処理部120は、被組付け対象物の特徴量(特徴点)に基づいて、被組付け対象物と所与の位置関係にある画像領域を特定し、特定した画像領域と、組付け対象物の注目特徴点とが、一致するように又は近付くように、組付け対象物を移動させてもよい。言い換えれば、処理部120は、被組付け対象物の特徴量に基づいて、被組付け対象物と所与の位置関係にある実空間上のポイントを特定し、特定したポイントに向かって、組付け対象物を移動させてもよい。
例えば、図14に示す撮像画像PIMにおいて、被組付け対象物WK2の被組付け部分である三角形の開口部HLを表す特徴点として、特徴点P8〜特徴点P10が検出されているとする。この場合に、撮像画像PIMにおいて、特徴点P8〜特徴点P10と所与の位置関係にある画像領域R1〜画像領域R3を特定する。そして、組付け対象物WK1の注目特徴点Q4を、画像領域R2に一致させ(近付け)、組付け対象物の注目特徴点Q5を、画像領域R3に一致させ(近付け)るように、組付け対象物WK1を移動させる。
これにより、例えば組付け作業の直前の状態にすること等が可能になる。
また、前述した例のように組付け対象物の特徴量を検出する処理は、必ずしも必要ではない。例えば、被組付け対象物の特徴量を検出し、検出した被組付け対象物の特徴量に基づいて、ロボットとの相対的な被組付け対象物の位置姿勢を推定し、推定した被組付け対象物の位置に、組付け対象物を把持したハンドを近付けるように、ロボットを制御する等してもよい。
5.ロボット
次に、図15(A)及び図15(B)に、本実施形態のロボット10の構成例を示す。図15(A)及び図15(B)のどちらの場合にも、ロボット機構300は、エンドエフェクター(ハンド)310と、アーム320と、を有する。なお、図15(A)のロボット10は単腕型の例であるが、図15(B)に示すようにロボット10は、双腕型等の多腕型のロボットであってもよい。
ここで、エンドエフェクター310とは、ワーク(作業対象物)を把持したり、持ち上げたり、吊り上げたり、吸着させたり、ワークに加工を施したりするために、アームのエンドポイントに取り付ける部品のことをいう。エンドエフェクター310は、例えばハンド(把持部)であってもよいし、フックであってもよいし、吸盤であってもよいし、ドライバー等であってもよい。さらに、1本のアームに対して、複数のエンドエフェクターを設けても良い。
また、アーム320とは、ロボット機構300のパーツであって、一つ以上の関節を含む可動パーツのことをいう。
さらに、ロボット機構300には、外付けの第2の撮像部250が取り付けられている。例えば、第2の撮像部250は、図15(A)の場合には、ロボット10のハンドアイカメラであり、図15(B)の場合には、ロボット10の頭部カメラである。
そして、本実施形態のロボット10は、図15(A)に示すように、ロボット機構300と制御装置100とが別体に構成されている。この場合には、制御装置100の一部又は全部の機能は、例えばPC(Personal Computer)により実現される。
また、本実施形態のロボットは図15(A)の構成に限定されず、図15(B)のようにロボット機構300と制御装置100とが一体に構成されていてもよい。具体的には図15(B)に示したように、ロボット10は、ロボット機構300及びロボット機構300を支えるベースユニット部350を有し、当該ベースユニット部350に制御装置100が格納されるものであってもよい。図15(B)に示すロボット10のベースユニット部350には、車輪370等が設けられ、ロボット全体が移動可能な構成となっている。また、ロボット10は、人手により移動させられるものであってもよいし、車輪370を駆動させるモーターを設け、当該モーターを制御装置100により制御することにより、移動させられるものであってもよい。また、制御装置100は、図15(B)のようにロボット機構300の下に設けられたベースユニット部350に設けられるとは限られない。
また、図16に示すように、制御装置100の機能は、有線及び無線の少なくとも一方を含むネットワーク400を介して、ロボット機構300と通信接続されたサーバー500により実現されてもよい。
或いは本実施形態では、本発明の制御装置の処理の一部を、サーバー500の制御装置が行ってもよい。この場合には、ロボット機構300に設けられた制御装置との分散処理により、当該処理を実現する。なお、ロボット機構300の制御装置は、例えばロボット機構300に設置される端末装置330(制御部)により実現される。
そして、この場合に、サーバー500の制御装置は、本発明の制御装置における各処理のうち、サーバー500の制御装置に割り当てられた処理を行う。一方、ロボット機構300に設けられた制御装置は、本発明の制御装置の各処理のうち、ロボット機構300の制御装置に割り当てられた処理を行う。なお、本発明の制御装置の各処理は、サーバー500に割り当てられた処理であってもよいし、ロボット機構300に割り当てられた処理であってもよい。
これにより、例えば端末装置330よりも処理能力の高いサーバー500が、処理量の多い処理を行うこと等が可能になる。さらに、例えばサーバー500が各ロボット10の動作を一括して制御することができ、複数のロボット10に協調動作をさせること等が容易になる。
また近年は、多品種少数の部品を製造することが増えてきている。そして、製造する部品の種類を変更する場合には、ロボット10が行う動作を変更する必要がある。図16に示すような構成であれば、複数のロボット10の各ロボットへ教示作業をし直さなくても、サーバー500が一括して、各ロボットが行う動作を変更すること等が可能になる。
さらに、図16に示すような構成であれば、各ロボット10に対して一つの制御装置100を設ける場合に比べて、制御装置100のソフトウェアアップデートを行う際の手間を大幅に減らすこと等が可能になる。
なお、本実施形態のロボット、ロボットシステム、制御装置及び制御方法等は、その処理の一部または大部分をプログラムにより実現してもよい。この場合には、CPU等のプロセッサーがプログラムを実行することで、本実施形態のロボット、ロボットシステム、制御装置及び制御方法等が実現される。具体的には、情報記憶媒体に記憶されたプログラムが読み出され、読み出されたプログラムをCPU等のプロセッサーが実行する。ここで、情報記憶媒体(コンピューターにより読み取り可能な媒体)は、プログラムやデータなどを格納するものであり、その機能は、光ディスク(DVD、CD等)、HDD(ハードディスクドライブ)、或いはメモリー(カード型メモリー、ROM等)などにより実現できる。そして、CPU等のプロセッサーは、情報記憶媒体に格納されるプログラム(データ)に基づいて本実施形態の種々の処理を行う。即ち、情報記憶媒体には、本実施形態の各部としてコンピューター(操作部、処理部、記憶部、出力部を備える装置)を機能させるためのプログラム(各部の処理をコンピューターに実行させるためのプログラム)が記憶される。
以上のように本実施形態について詳細に説明したが、本発明の新規事項および効果から実体的に逸脱しない多くの変形が可能であることは当業者には容易に理解できるであろう。従って、このような変形例はすべて本発明の範囲に含まれるものとする。例えば、明細書又は図面において、少なくとも一度、より広義または同義な異なる用語と共に記載された用語は、明細書又は図面のいかなる箇所においても、その異なる用語に置き換えることができる。また、ロボット、ロボットシステム、制御装置及び制御方法の構成、動作も本実施形態で説明したものに限定されず、種々の変形実施が可能である。
10 ロボット、100 制御装置(制御部)、110 画像受付部、120 処理部、
200 撮像部、250 第2の撮像部、300 ロボット機構、
310 エンドエフェクター(ハンド)、320 アーム、330 端末装置、
350 ベースユニット部、370 車輪、400 ネットワーク、500 サーバー

Claims (11)

  1. 作業台に配置される第1物体を撮像部により撮像した撮像画像を受け付ける画像受付部と、
    目標位置へ向けて第2物体を移動させるロボットを動作させる処理部と、
    を含み、
    前記処理部は、
    前記撮像画像に前記目標位置の画像が含まれない場合に、前記ロボットに前記第1物体の位置姿勢を変更させることを特徴とするロボット。
  2. 請求項1において、
    前記処理部は、
    前記位置姿勢が変更された前記第1物体を複数回撮像した前記撮像画像を用いて、前記ロボットを動作させることを特徴とするロボット。
  3. 請求項1又は2において、
    前記目標位置は、
    前記第1物体に前記第2物体を組み付ける前記第1物体上の組み付け位置であることを特徴とするロボット。
  4. 請求項1乃至3のいずれかにおいて、
    前記画像受付部は、
    前記第1物体及び前記第2物体のうち、少なくとも前記第1物体が映る前記撮像画像を受け付け、
    前記処理部は、
    前記撮像画像に基づいて、前記第1物体の特徴量検出処理を行い、前記第1物体の特徴量に基づいて、前記ロボットに前記第2物体を移動させることを特徴とするロボット。
  5. 請求項1乃至4のいずれかにおいて、
    前記画像受付部は、
    前記撮像部とは異なる第2の撮像部により前記第1物体を撮像した第2の撮像画像を受け付け、
    前記処理部は、
    前記第2の撮像画像に基づいて、前記ロボットに前記第1物体の前記位置姿勢を変更させることを特徴とするロボット。
  6. 請求項5において、
    前記処理部は、
    前記撮像部に対する前記第1物体の前記位置姿勢が、所与の位置姿勢でない場合に、前記第2の撮像画像に基づいて、前記ロボットに前記第1物体の前記位置姿勢を変更させることを特徴とするロボット。
  7. 請求項5又は6において、
    前記第2の撮像部は、
    前記ロボットの頭部カメラ又はハンドアイカメラであることを特徴とするロボット。
  8. 請求項1乃至7のいずれかにおいて、
    前記処理部は、
    前記ロボットのアームにより前記第1物体を把持して、前記作業台の所与の位置に設置させ、
    前記画像受付部は、
    前記所与の位置に設置後の前記第1物体を前記撮像部により撮像した前記撮像画像を受け付け、
    前記処理部は、
    前記目標位置の画像又は前記第1物体の作業面の画像が、前記撮像画像に含まれない場合に、前記ロボットに前記第1物体の前記位置姿勢を変更させることを特徴とするロボット。
  9. アームを有するロボット機構と、
    作業台に配置される第1物体を撮像する撮像部と、
    前記撮像部により撮像した撮像画像を受け付ける画像受付部と、
    目標位置へ向けて第2物体を移動させるロボットを動作させる処理部と、
    を含み、
    前記処理部は、
    前記撮像画像に前記目標位置の画像が含まれない場合に、前記ロボットに前記第1物体の位置姿勢を変更させることを特徴とするロボットシステム。
  10. 作業台に配置される第1物体を撮像部により撮像した撮像画像を受け付ける画像受付部と、
    目標位置へ向けて第2物体を移動させるロボットを動作させる処理部と、
    を含み、
    前記処理部は、
    前記撮像画像に前記目標位置の画像が含まれない場合に、前記ロボットに前記第1物体の位置姿勢を変更させることを特徴とする制御装置。
  11. 作業台に配置される第1物体を撮像した撮像画像を受け付け、
    第2物体の目標位置の画像が前記撮像画像に含まれない場合に、ロボットに前記第1物体の位置姿勢を変更させ、
    前記ロボットに前記第2物体を前記目標位置へ向けて移動させることを特徴とする制御方法。
JP2014061548A 2014-03-25 2014-03-25 ロボット、ロボットシステム、制御装置及び制御方法 Pending JP2015182186A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014061548A JP2015182186A (ja) 2014-03-25 2014-03-25 ロボット、ロボットシステム、制御装置及び制御方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014061548A JP2015182186A (ja) 2014-03-25 2014-03-25 ロボット、ロボットシステム、制御装置及び制御方法

Publications (1)

Publication Number Publication Date
JP2015182186A true JP2015182186A (ja) 2015-10-22

Family

ID=54349333

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014061548A Pending JP2015182186A (ja) 2014-03-25 2014-03-25 ロボット、ロボットシステム、制御装置及び制御方法

Country Status (1)

Country Link
JP (1) JP2015182186A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109211222A (zh) * 2018-08-22 2019-01-15 扬州大学 基于机器视觉的高精度定位系统及方法
JP2019089188A (ja) * 2017-11-16 2019-06-13 株式会社東芝 作動システムおよびプログラム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019089188A (ja) * 2017-11-16 2019-06-13 株式会社東芝 作動システムおよびプログラム
CN109211222A (zh) * 2018-08-22 2019-01-15 扬州大学 基于机器视觉的高精度定位系统及方法

Similar Documents

Publication Publication Date Title
CN108453701B (zh) 控制机器人的方法、示教机器人的方法和机器人系统
JP6964989B2 (ja) 制御方法、ロボットシステム、物品の製造方法、プログラム、及び記録媒体
CN109313417B (zh) 帮助机器人定位
JP6427972B2 (ja) ロボット、ロボットシステム及び制御装置
CN111452040B (zh) 在引导装配环境中将机器视觉坐标空间关联的系统和方法
US20160184996A1 (en) Robot, robot system, control apparatus, and control method
US10532461B2 (en) Robot and robot system
JP6429473B2 (ja) ロボットシステム、ロボットシステムの校正方法、プログラム、およびコンピュータ読み取り可能な記録媒体
US9884425B2 (en) Robot, robot control device, and robotic system
JP4940715B2 (ja) ピッキングシステム
US20200298411A1 (en) Method for the orientation of an industrial robot, and industrial robot
JP6390088B2 (ja) ロボット制御システム、ロボット、プログラム及びロボット制御方法
US20150343637A1 (en) Robot, robot system, and control method
US20170203434A1 (en) Robot and robot system
JP2019107704A (ja) ロボットシステム及びロボット制御方法
JP2016078195A (ja) ロボットシステム、ロボット、制御装置及びロボットの制御方法
KR20180017074A (ko) 카메라를 이용한 로봇 축각도들의 검출 및 로봇의 선택
JP2015182186A (ja) ロボット、ロボットシステム、制御装置及び制御方法
JP2021016937A (ja) グリッパ装置のツールを変更するシステム
JP2015136742A (ja) 制御装置、ロボットシステム、ロボット及びキャリブレーション方法
JP2015003348A (ja) ロボット制御システム、制御装置、ロボット、ロボット制御システムの制御方法及びロボットの制御方法
CN109311163B (zh) 校正机器人的运动控制命令的方法及其相关设备
CN111571596B (zh) 利用视觉修正冶金接插装配作业机器人误差的方法及系统
US20180056517A1 (en) Robot, robot control device, and robot system
JP7260002B2 (ja) 制御装置、制御方法、及び制御プログラム

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20160617

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20160627