JP2015123560A - ロボットシステム、ロボット制御装置、及びロボット制御方法 - Google Patents

ロボットシステム、ロボット制御装置、及びロボット制御方法 Download PDF

Info

Publication number
JP2015123560A
JP2015123560A JP2013270759A JP2013270759A JP2015123560A JP 2015123560 A JP2015123560 A JP 2015123560A JP 2013270759 A JP2013270759 A JP 2013270759A JP 2013270759 A JP2013270759 A JP 2013270759A JP 2015123560 A JP2015123560 A JP 2015123560A
Authority
JP
Japan
Prior art keywords
robot
image
unit
target
target object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013270759A
Other languages
English (en)
Other versions
JP6343930B2 (ja
Inventor
健至 恩田
Kenji Onda
健至 恩田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2013270759A priority Critical patent/JP6343930B2/ja
Publication of JP2015123560A publication Critical patent/JP2015123560A/ja
Application granted granted Critical
Publication of JP6343930B2 publication Critical patent/JP6343930B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Manipulator (AREA)

Abstract

【課題】作業現場の環境によらず対象物の位置を制御する。【解決手段】第1の物体と所定の位置関係となる位置に第2の物体を動かすロボットと、前記第1の物体の画像を投影する投影部と、前記第1の物体の画像と前記第2の物体の画像を撮影する撮影部と、を含み、前記ロボットは、前記撮影部が撮影した前記画像に基づいて、前記第2の物体を動かして、前記第1の物体と前記第2の物体を前記所定の位置関係にする。これにより、作業現場の環境によらず対象物の位置を制御する。【選択図】図1

Description

本発明は、ロボットシステム、ロボット制御装置、及びロボット制御方法に関する。
製造等の作業現場では、製品の組み立てや検査等の作業に多軸ロボットが用いられることがある。作業を行う際に用いられるロボットの制御方法として、ビジュアルサーボ(ビジュアルフィードバックともいう)がある。ビジュアルサーボは、作業の対象となる対象物との相対的な位置の変化を視覚情報として計測し、計測した視覚情報をフィードバック情報として用いることによって対象物を追跡するサーボシステムの一種である。
ビジュアルサーボでは、予め取得した複数枚の参照画像を順次用いて、対象物を目標位置に誘導することがある。参照画像は、移動の目標とする目標位置に、目標とする目標姿勢(向き)に向くように配置された対象物を示す画像である。参照画像は、教示画像と呼ばれることがある。このとき、ビジュアルサーボでは、参照画像とその時点で撮影された画像(以下、現在画像と呼ぶ)に基づいて、対象物の位置の差分と姿勢の差分を推定する。
例えば、特許文献1には、あらかじめ参照画像として基準位置からワークWを撮影したデータを記憶させ、制御装置がカメラで撮影した画像と参照画像のデータとに基づいてビジュアルサーボにより位置、姿勢の制御を行う方法について記載されている。特許文献1には、収束した段階で、カメラを、姿勢角を所定以上傾けて画像データを取得する。このとき、各画像での姿勢角と参照画像のデータとの誤差値を演算し、誤差値が最も小さくなる時の姿勢角を推定し、補正量として求める。
特開2003−117867号公報 特開2007−206588号公報
しかしながら、作業現場でビジュアルサーボが用いられる工程毎に参照画像を撮影することは現実的ではない。他方、事前に対象物を用いて模擬的な参照画像を撮影することも考えられるが、現場の環境が変化すると実際の対象物の位置や姿勢が撮影された時点から変化する。そのため対象物の位置や姿勢が推定できずに、ロボットの動作の制御に失敗するという問題が生じることがあった。
そこで、本発明は、上記問題に鑑みてなされたものであり、作業現場の環境によらず対象物の位置を制御することができるロボットシステム、ロボット制御装置、及びロボット制御方法、を提供することを課題とする。
(1)本発明の一態様は、第1の物体と所定の位置関係となる位置に第2の物体を動かすロボットと、前記第1の物体の画像を投影する投影部と、 前記第1の物体の画像と前記第2の物体の画像を撮影する撮影部と、を含み、前記ロボットは、前記撮影部が撮影した前記画像に基づいて、前記第2の物体を動かして、前記第1の物体と前記第2の物体を前記所定の位置関係にする、ロボットシステムである。
この構成によれば、第1の物体の画像を事前に作業現場の環境毎に撮影しなくても、その画像を投影することで第1の物体の位置に関する情報が与えられる。そのため、作業現場の環境によらず第1の物体と第2の物体とが所定の位置関係を有するように制御することができる。
(2)本発明の他の態様は、上記のロボットシステムにおいて、前記撮影部が撮影した前記第1の物体の画像の特徴量と前記第2の物体の画像の特徴量との差分を算出する差分算出部を備え、前記差分算出部が算出した差分に基づいて、前記第2の物体の位置を制御する。
この構成によれば、撮影された画像に基づいて得られた第1の物体と第2の物体の特徴量の差分が、対象物の状態の制御に用いられる。そのため、第2の物体が第1の物体の位置に近づくように制御することができる。
(3)本発明の他の態様は、上記のロボットシステムにおいて、前記投影部が前記第1の物体の画像を投影する画像表示部を備える。
この構成によれば、画像表示部に投影された第1の物体の画像と第2の物体の画像とを用いて、第2の物体の位置を制御することができる。
(4)本発明の他の態様は、上記のロボットシステムにおいて、前記投影部は、前記第1の物体の画像を前記画像表示部の一方の面に投影し、前記撮影部は前記画像表示部の他方の面に表示された第1の物体の画像と前記第2の物体の画像を撮影する。
この構成によれば、投影部と撮影部とを画像表示部を挟んで相対して配置することができるので、投影部が配置されることによりロボットの作業空間が制約されることや、撮影部により撮影される画像が遮蔽されることを防止することができる。
(5)本発明の他の態様は、上記のロボットシステムにおいて、前記投影部は、前記ロボットが前記第2の物体を操作することができる操作範囲の空間内に前記第1の物体の画像を投影する。
この構成によれば、画像表示部を用いなくても第1の物体の画像が表示されるので、ロボットによる作業空間への影響を与えずに第1の物体の画像と第2の物体の画像とを取得することができる。
(6)本発明の他の態様は、第1の物体と所定の位置関係となる位置に第2の物体を動かすロボットを動作させるロボット制御装置であって、投影部により投影された前記第1の物体の画像を撮影した撮影画像を受け付ける画像受付部と、前記撮影画像に基づいて、前記ロボットに前記第2の物体を動かさせ、前記第1の物体と前記第2の物体を前記所定の位置関係にするロボット制御部と、を備えるロボット制御装置である。
この構成によれば、第1の物体の画像を事前に作業現場の環境毎に撮影しなくても、その画像を投影することで第1の物体の位置に関する情報が与えられる。そのため、作業現場の環境によらず第1の物体と第2の物体とが所定の位置関係を有するように制御することができる。
(7)本発明の他の態様は、第1の物体と所定の位置関係となる位置に第2の物体を動かすロボットを動作させるロボット制御方法であって、前記第1の物体の画像を投影することと、前記第1の物体の画像と前記第2の物体の画像を撮影することと、撮影した画像に基づいて、前記ロボットに前記第2の物体を動かさせ、前記第1の物体と前記第2の物体を前記所定の位置関係にすることと、を含むロボット制御方法である。
この構成によれば、第1の物体の画像を事前に作業現場の環境毎に撮影しなくても、その画像を投影することで第1の物体の位置に関する情報が与えられる。そのため、作業現場の環境によらず第1の物体と第2の物体とが所定の位置関係を有するように制御することができる。
本実施形態に係るロボットシステムの概略図である。 参照画像の例を示す図である。 取得された画像情報の例を示す図である。 本実施形態に係るロボットシステムの他の配置例を示す図である。 本実施形態に係るロボットシステムの他の構成例を示す図である。 本実施形態に係るロボットシステムのさらに他の構成例を示す概略図である。 本実施形態に係るロボットシステムのまたさらに他の構成例を示す概略図である。
以下、本発明の実施形態について、図面を参照して詳細に説明する。
図1は、本実施形態に係るロボットシステム1の概略図である。
ロボットシステム1は、ロボット制御装置10と、投影部13と、ロボット20と、撮影部204と、回線30とを備える。
ロボット制御装置10と、ロボット20とは、回線30を介して、互いに通信することができる。回線30は、有線の回線であってもよいし、無線の回線であってもよい。
ロボット制御装置10は、制御部11と、記憶部12と、入力部14と、出力部15と、を備える。
投影部13は、ロボット制御装置10と一体に備えられてもよく、又は、他の構成例として、ロボット制御装置10とは別体で備えられてもよい。
図1の例では、ロボット20により作業が行われる対象となる対象物(ワークとも呼ばれる、第2の物体)Wk1と、その下方に他の対象物Wk2が置かれている。対象物Wk1は、ロボット20の把持部(ハンド)203−1に把持され、対象物Wk2は、作業台(図示せず)の上面に置かれている。ロボット20が動作を行う作業領域(対象物Wk1、Wk2が配置されている領域を含む)の背面の側には、スクリーン(画像表示部)31が設置されている。ロボット20に備えられている撮影部204の光学軸は、スクリーン31の表面上の一点(例えば、中心)に向けられ、スクリーン31の表面の一部又は全部は、撮影部204が画像を撮影することができる撮影範囲(視野)内に含まれる。撮影部204は、例えば、CCD(Charge Coupled Device)カメラである。
スクリーン31は、例えば、透過型スクリーン(半透過スクリーン、リアスクリーンとも呼ばれる)である。透過型スクリーンは、透明な平板(例えば、ガラス板、アクリル板)の表面が半透過フィルムで覆われ、一体化されたスクリーンである。半透過フィルムは、表面から入射された表面入射光の一部を表面上で反射し、かつ、裏面から入射された裏面入射光の一部を表面に透過させる膜である。半透過フィルムは、例えば、銀、等の金属材料の薄膜である。
投影部13は、スクリーン31の背面側に配置され、その光学軸がスクリーン31の裏面上の一点(例えば、中心)に向けられ、予め取得した参照画像をスクリーン31の裏面に投影する。参照画像は、例えば、2個の目標物(第1の物体)Ob1、Ob2を示す画像である。これにより、目標物Ob1、Ob2の画像が、それぞれスクリーン31の表面に表示され、後述するように、対象物Wk1、Wk2との位置関係を合わせるために用いられる。目標物Ob1、Ob2は、それぞれ対象物Wk1、Wk2と同じ種類の物体である。撮影部204は、スクリーン31の表面に表示された目標物Ob1、Ob2の画像と、対象物Wk1、Wk2とが予め定めた位置関係で配置された画像を撮影する。その位置関係は、例えば、撮影部204を視点として目標物Ob2の画像の外縁と対象物Wk2の外縁とが重なり合う位置である。ここで、投影部13により投影された参照画像が表示された範囲が撮影部204の視野内に含まれていればよく、投影部13の光学軸の方向は必ずしも撮影部204の光学軸の方向と同一でなくてもよい。
投影部13は、2次元の参照画像をスクリーン31に投影するプロジェクターであってもよいが、これには限られない。投影部13は、3次元の画像をスクリーン31に投影する3次元プロジェクターであってもよい。3次元プロジェクターは、所定の視点からの距離に応じた視差を有する2つの画像をスクリーン31に投影し、スクリーン31は、それぞれの画像を示す画像光を放射する。その画像の視点の位置を撮影部204の光学系の焦点に配置することで、撮影部204は投影部13が投影した3次元の参照画像を撮影することができる。
なお、投影部13の位置は、参照画像がスクリーン31に投影されることができれば、スクリーン31の背面に限らず、任意の位置であってもよい。投影部13の位置は、スクリーン31の前面であってもよい。投影部13がスクリーン31の前面に配置される場合には、スクリーン31は、透過型スクリーンに限らず、非透過型スクリーンであってもよい。
次に、本実施形態に係るロボットシステムにおいて行われる処理の概要を説明する。
本実施形態では、図1に示される作業の環境において、投影部13がスクリーン31に投影した画像を参照画像として、撮影部204は、少なくとも参照画像と対象物Wk1を示す画像が重畳した重畳画像を撮影する。ロボット制御装置10は、撮影した重畳画像を用いてビジュアルフィードバック制御により、対象物Wk1を目標の位置(目標位置)に移動させるようにロボット20の動作を制御する。
図1に示される例では、ロボット20が対象物Wk1を把持し、当該対象物Wk1を、参照画像が示す目標物Ob1の位置を目標位置(ゴール)として移動させる。但し、この例では、対象物Wk2の位置と目標物Ob2の位置は、撮影部204を基準とするカメラ座標系上では同一である。ここで、目標物Ob2の真上に目標物Ob1が配置されていることを示す参照画像を投影することで、対象物Wk1を移動すべき目標位置が対象物Wk2の直上であることがロボット制御装置10に教示される。
スクリーン31に投影される参照画像は、最終的な目標位置に配置された目標物Ob1,Ob2を示す画像1個のみでもよいが、これには限られない。投影される参照画像は、各時刻でそれぞれ異なる位置に配置された目標物Ob1,Ob2を示す複数の画像であってもよい。つまり、ある目標位置に存在する目標物Ob1,Ob2を示す参照画像を異なる目標位置に存在する目標物Ob1,Ob2を示す参照画像に代えることで、対象物Wk1を移動させるべき目標位置を変更することができる。その場合には、複数の画像のそれぞれが時刻順に投影される。
これにより、ロボット20は、目標物Ob1が最終的な目標位置(終点)に至るまでの軌道に沿って対象物Wk1を移動させることができる。目標物Ob1の軌道は、投影される画像を予め生成する過程で任意に設定することができる。例えば、対象物Wk1が組み付けようとする製品の他の構成物、その他の作業上の障害物との接触を回避して移動されるように、目標物Ob1の軌道を設定してもよい。
ここで、ロボット制御装置10は、ロボット20に対象物Wk1を把持させながら、その時点での位置から、投影された参照画像が示す目標物Ob1の位置に移動させるタスクを逐次に行う。これにより、対象物Wk1を最終的な目標位置に到達させる。
入力部14は、例えば、ユーザーにより操作された操作入力を受け付けるキーボードやマウスなどのポインティングデバイスを含んで構成される。
出力部15は、例えば、情報を画像で表示する液晶ディスプレイなどを用いて構成され、ユーザーに対して各種の情報を画像で表示する。
記憶部12は、各種の情報を記憶する記憶媒体を含んで構成される。
記憶部12は、例えば、制御部11で使用されるプログラムの情報や、各種の処理で使用される数値などの情報を記憶する。
本実施形態では、記憶部12は、スクリーン31に表示させる参照画像を示す画像データを含む教示情報を記憶する。
本実施形態では、それぞれ目標物の画像を示す画像データを予め生成しておき、生成した画像データを教示情報として記憶部12に記憶しておいてもよい。例えば、記憶部12には、最終的な目標位置に至るまでの複数(例えば、5個)の目標位置のそれぞれに配置された目標物Ob1を示す参照画像の画像データが記憶されてもよい。それぞれの目標位置の教示情報には、その目標位置に存在する目標物Ob1の画像(参照画像)の画像データの他、さらにその目標位置に対象物Wk1を移動させる場合に用いられるパラメーター(差分算出パラメーター)を特定する情報、対象物Wk1の姿勢の制御方法(姿勢制御処理)を規定する情報、又はそれらの両者が含まれていてもよい。
ここで、差分算出パラメーターは、例えば、3次元直交座標系(XYZ座標系)において、目標物Ob1の3次元の位置を表す座標値[X,Y,Z]を指定する3個のパラメーターX,Y,Zと、目標物Ob1の3次元の姿勢を表す回転量[θ,θ,θ]を指定する3個のパラメーターθ,θ,θである。つまり、差分算出パラメーターは、目標物Ob1の位置、又はその位置と姿勢との組を示すパラメーターである。
そして、本実施形態では、3次元の位置を表す座標値[X,Y,Z]を指定する3個のパラメーターX,Y,Zを差分算出パラメーターとして用いる制御モード(位置制御モード)と、3次元の位置を表す座標値[X,Y,Z]を指定する3個のパラメーターX,Y,Z及び3次元の姿勢を表す回転量[θ,θ,θ]を指定する3個のパラメーターθ,θ,θを差分算出パラメーターとして用いる制御モード(位置姿勢制御モード)といった2つの制御モードをタスクごと(目標位置ごと)に使い分けられてもよい。
本実施形態では、例えば、差分算出パラメーターを特定する情報として、初期の目標位置から最後から2番目の目標位置までは、位置制御モードを使用することが設定され、また、最終的な目標位置については、位置姿勢制御モードを使用することが設定されてもよい。本実施形態では、このような各目標位置(各タスク)において使用する制御モードは、あらかじめ設定されて記憶部12に記憶されるが、他の構成例として、入力部14においてユーザーが受け付けた操作入力に基づいて制御モードが可変に設定されてもよい。
なお、制御モードで指定される差分算出パラメーターの種類や数は、上述の例に限られない。例えば、制御モードは、3次元の位置を表す座標値[X,Y,Z]を指定する3個のパラメーターX,Y,Zのうちで、Z方向の制御が不要である場合には、2個のパラメーターX,Yを差分算出パラメーターとして使用されてもよい。
また、差分算出パラメーターのうち、3次元の位置を表す座標値[X,Y,Z]が省略され、回転量[θ,θ,θ]のみが用いられ、制御モードとして位置姿勢制御モードのみが設定され、位置制御モードが設定されなくてもよい。
規定された姿勢制御処理は、姿勢に関する差分算出パラメーターが用いられない場合(本実施形態では、位置制御モードの場合)に実行されるようにしてもよい。
他方、姿勢に関する差分算出パラメーターが用いられる場合(本実施形態では、位置姿勢制御モードの場合)には、対象物を目標位置に移動させるタスク(本実施形態では、ビジュアルフィードバック制御)において当該差分算出パラメーターを用いて姿勢が制御され、姿勢制御処理は用いられないため、姿勢制御処理は規定されなくてもよい。
姿勢制御処理としては、公知の方式が用いられてもよい。例えば、そのような姿勢制御処理では、対象物Wk1を目標位置に移動させるタスク(本実施形態では、ビジュアルフィードバック制御)の途中で、対象物Wk1の姿勢を変化させずに同じまま(不変)として、当該タスクの初期状態のまま固定しておいてもよい。
姿勢制御処理の他の一例として、2つの異なる位置における対象物Wk1の姿勢の違いをスプライン関数などの連続関数を用いて補間し、この補間結果に従うように、2つの位置の一方から他方までに移動させるタスク(本実施形態では、ビジュアルフィードバック制御)の途中で対象物Wk1の姿勢を変化させてもよい。
具体的には、ロボット制御装置10は、ロボット20により対象物Wk1を把持した初期の状態(第1のタスクの初期状態)における当該対象物Wk1の実際の姿勢から、最終的な目標位置である第N番目の目標位置(第Nのタスク)における対象物Wk1の目標となる姿勢へと、スプライン関数などにより補間する。その補間された対象物Wk1の姿勢が第1のタスク〜第Nのタスクが順次実行されるときに実現されるように、ロボット20の動作を制御する。
また、姿勢に関する差分算出パラメーターが用いられない場合(本実施形態では、位置制御モードの場合)には、ロボット制御装置10は、位置に関する差分算出パラメーターを用いて、ロボット20により対象物Wk1の位置を変化させるように制御する。この場合における実際の対象物Wk1及び参照画像中の目標物Ob1の位置(両者の対象物を比較するときに、比較する位置)としては、様々な位置が用いられてもよい。
一例として、実際の対象物Wk1及び参照画像中の当該目標物Ob1の位置(両者の対象物を比較するときに、比較する位置)としては、ロボット制御装置10は、対象物Wk1,目標物Ob1それぞれの重心の位置、又は、対象物Wk1,目標物Ob1それぞれの所定の特徴点の位置などを用いることができる。
具体的な例として、ロボット制御装置10は、実際の対象物Wk1及び参照画像中の目標物Ob1のそれぞれについて、対象物が表示されている表示領域を検出し、当該領域の重心位置を算出する。ロボット制御装置10は、算出した両者の重心位置を比較して差分算出処理を行い、これら両者の重心位置が一致するように、ロボット20の位置、姿勢、又はその両者を制御する。
本実施形態では、このように差分算出処理において比較に用いる目標物Ob1の位置は、あらかじめ設定されて記憶部12に記憶されるが、他の構成例として、ユーザーが入力部14を操作することなどにより可変に設定されてもよい。
また、各目標位置における参照画像は、一例として、撮影部204又は他のカメラにより、予め撮影され、その参照画像の情報が記憶部12に記憶させておいてもよい。他の構成例として、CAD(Computer Aided Design)システムを適用し、各目標位置における参照画像としてCG(Computer Graphics、コンピュータグラフィックス)などを用いて生成された目標物Ob1の画像が用いられてもよい。
なお、姿勢に関する差分算出パラメーターが用いられる場合(本実施形態では、位置姿勢制御モードの場合)のタスクについては、対象物Wk1の位置ばかりでなく姿勢も目標の状態にある参照画像を予め生成しておく。
一方、姿勢に関する差分算出パラメーターが用いられない場合(本実施形態では、位置制御モードの場合)のタスクについては、対象物Wk1の位置が目標の状態にある参照画像を予め生成しておき、参照画像中における対象物Wk1の姿勢については一定であってもよい。
制御部11は、例えば、CPU(Central Processing Unit)で構成され、ロボット制御装置10における各種の処理を制御する。機能面から考察すると、制御部11は、ロボット制御部111、教示情報処理部(参照画像取得部)112、画像取得部113及び差分算出部(画像誤差算出部)114を含んで構成される。
制御部11は、例えば、入力部14により受け付けられたユーザーによる操作入力に応じた処理を実行する機能、各種の情報を出力部15に画像として表示させる機能、記憶部12に記憶された情報を読み取る機能及び記憶部12に情報を書き込む(記憶させる)機能を有する。
教示情報処理部112は、記憶部12に記憶される教示情報を読み取る。教示情報処理部112は、読み取った教示情報に含まれる画像データを投影部13に出力して、スクリーン31にその参照画像を表示させる。
記憶部12は、対象物Wk1の位置又はさらに姿勢に関して順次達成されるべき複数の目標があり、それぞれの目標ごとに教示情報を記憶する。このため、教示情報処理部112は、記憶部12に記憶された複数の教示情報の中から、その時点での対象物Wk1の状態において使用されるべき教示情報を選択して読み取る。つまり、教示情報処理部112は、ロボット20が対象物Wk1を把持している状態で、対象物Wk1をそれぞれの目標位置(目標物Ob1に対応した位置)に移動させるための教示情報を記憶部12から読み取り、ロボット制御部111が読み取った教示情報に基づいて対象物Wk1を移動させる、という処理を繰り返す。
なお、教示情報処理部112は、各目標位置における参照画像を、CGを用いて生成し、生成した参照画像を教示情報として生成してもよい。その場合には、教示情報処理部112は、参照画像とその目標位置とを対応付けて教示情報を生成してもよい。CGを用いて参照画像を生成する際には、教示情報処理部112は、更に目標物Ob1の方向を目標姿勢として用い、その目標姿勢をとる参照画像を生成してもよい。その場合には、教示情報処理部112は、参照画像とその目標位置とその目標姿勢とを対応付けて教示情報を生成してもよい。教示情報処理部112が教示情報を生成する場合には、記憶部12において予め教示情報を記憶させておく必要はない。また、入力部14がユーザーの操作によって受け付けた操作入力によって目標位置、目標姿勢、又はその両者が設定可能であってもよい。
画像取得部113は、撮影部204から入力された画像の情報を取得する。
ここで、撮影部204は、例えば、ロボット20に設置されたカメラを用いて構成される。撮影部204は、ロボット20による作業(例えば、把持や移動などの作業)が行われる対象となる対象物Wk1とスクリーン31に表された目標物Ob1の画像を撮影する。そして、撮影部204は、撮影した画像の情報(画像データ)を画像取得部113に出力する。画像取得部113は、取得した画像データを差分算出部114に出力する。
差分算出部114は、画像取得部113から入力される画像の情報に基づいて、差分算出の処理を行う。ここで、差分算出部114は、画像取得部113から入力される画像情報が示す対象物(例えば、対象物Wk1)と目標物(例えば、目標物Ob1)のそれぞれの差分算出パラメーターを比較してその差分を算出する。読み取った教示情報に差分算出パラメーターを特定する情報が含まれている場合には、差分算出部114は、その情報で特定される差分算出パラメーターに応じた制御モード(例えば、位置制御モード、又は、位置姿勢制御モード)を使用して、差分算出パラメーターの差分を算出する。位置制御モードが使用される場合には、差分算出部114は、対象物の位置と目標物の位置との差分を算出する。位置姿勢制御モードが使用される場合には、差分算出部114は、対象物の位置ならびに姿勢の組と、対象物の位置ならびに姿勢の組との差分を算出する。
これに先立ち、差分算出部114は、例えば、入力された画像の情報について既知の物体検出処理(例えば、エッジ抽出、等)を行って対象物と目標物の形態の特徴を示す特徴点(例えば、エッジ)を抽出して、それぞれが表示されている領域(表示領域)を抽出する。差分算出部114は、それぞれ抽出した表示領域の代表点(例えば、重心点)を対象物Wk1の位置、目標物Ob1の位置と定める。入力された画像が2次元の画像の情報である場合には、差分算出部114は、例えば、対象物Wk1、目標物Ob1それぞれのエッジで囲まれる部分の大きさに基づいて、対象物Wk1、目標物Ob1までの距離を推定する。他方、入力された画像が3次元の画像の情報である場合には、差分算出部114は、画像情報が示す視差と画像情報の生成時に予め設定された基線長に基づいて対象物Wk1及び目標物Ob1までの距離をそれぞれ検出する。3次元の画像の情報を用いることで、対象物Wk1と目標物Ob1との位置の差分を精度よく算出することができる。
また、対象物Wk1の姿勢、目標物Ob1の姿勢を検出する場合には、差分算出部114は、既知の姿勢検出処理を対象物Wk1及び目標物Ob1の表示領域について実行して、それぞれの姿勢を検出してもよい。例えば、差分算出部114は、対象物Wk1及び目標物Ob1の表示領域のそれぞれについて、形態の特徴を示す複数の特徴点(例えば、頂点、交点、斑点、等)を検出し、特徴間の距離が予め与えられた特徴点間の距離と等しくなる姿勢を探索する。
このような差分算出部114における差分算出の処理の算出結果により、使用する制御モードに従って、ロボット20により作業が行われる対象となる対象物Wk1の実際の状態が、目標物Ob1の状態に対応(例えば、一致)するか否かを撮影した画像に基づいて判定することができる。判定に用いられる状態は、位置制御モードにおいては位置、位置姿勢制御モードにおいては位置及び姿勢である。
本実施形態では、ロボット制御部111が、このような判定を行ってもよいし、差分算出部114が、このような判定を行ってもよい。
ロボット制御部111又は差分算出部114は、このような判定を行う際、上述した他、例えば、対象物Wk1の表示領域と、目標物Ob1の表示領域との間の各画素の階調差を最小にする非線形最小化問題を解くことで、これら2枚の画像間における物体(対象物、目標物)の位置や姿勢の誤差(差分)を算出してもよい。
ロボット制御部111は、回線30を介して、制御のための信号(制御信号)をロボット20に送信することで、ロボット20の動作を制御する機能を有する。本実施形態では、ロボット制御部111は、ロボット20により行われる物体(例えば、対象物Wk1)の把持や移動(位置や姿勢の変化)を制御する。
また、ロボット制御部111は、ロボット20が送信する信号を、回線30を介して、受信することも可能である。
教示情報に差分算出パラメーターを特定する情報、又は、使用する制御モードを特定することができる他の情報が含まれている場合には、差分算出部114は、その情報をロボット制御部111に出力する。
ロボット制御部111は、この情報を入力することにより、使用する制御モード(本実施形態では、位置制御モード、又は、位置姿勢制御モード)を検出することができる。
また、姿勢に関する差分算出パラメーターが用いられない場合(本実施形態では、位置制御モードが用いられる場合)には、差分算出部114は、教示情報に含まれる姿勢制御処理を規定する情報をロボット制御部111に出力する。
ロボット制御部111は、この情報を入力することにより、姿勢に関する差分算出パラメーターが用いられない場合(本実施形態では、位置制御モードが用いられる場合)に、使用する姿勢制御処理を検出することができる。
なお、姿勢に関する差分算出パラメーターが用いられる場合(本実施形態では、位置姿勢制御モードが用いられる場合)には、差分算出部114は、教示情報に含まれる姿勢制御方法を規定する情報をロボット制御部111に出力してもよいが、出力する必要はないため出力しなくてもよい。
具体的には、位置姿勢制御モードが用いられるときには、ビジュアルフィードバック制御として、差分算出部114は、撮影された画像に基づいて対象物Wk1の実際の位置及び姿勢の状態が目標物Ob1の位置及び姿勢の状態に対応しないと判定する場合がある。その場合には、ロボット制御部111は、ロボット20を制御して、これらの状態を互いに近づけるように、当該対象物Wk1の位置や姿勢を変化させる。
その後、ロボット制御部111は、再び、上述したように、撮影部204、画像取得部113、差分算出部114の順で処理された結果(差分算出部114による差分算出の結果)を検出して、当該検出結果に応じた制御を行う。
ここで、本実施形態では、ロボット制御部111は、ロボット20の動作を制御して対象物Wk1の位置や姿勢を変化させる場合には、1回の制御で、予め定められた変化量だけ対象物Wk1の位置や姿勢を変化させてもよい。ロボット制御部111は、ロボット20の動作を制御する代わりに、又はロボット20の動作の制御とともに撮影部204の撮影方向を変化させてもよい。
そして、ロボット制御部111は、各セットでこのような制御を繰り返して行うことにより、対象物Wk1の位置及び姿勢の状態を、目標物Ob1の位置及び姿勢の状態に近づける。各セット内での繰り返し毎に撮影部204を基準とする対象物Wk1を移動させる方向(移動方向)、姿勢を変化させる方向(回転方向)は異なっている。ロボット制御部111は、対象物Wk1の実際の位置及び姿勢の状態と、目標物Ob1の位置及び姿勢の状態との間の差分(画像ヤコビアン)を差分算出部114から取得する。ロボット制御部111は、対象物Wk1の実際の位置及び姿勢の状態と、目標物Ob1の位置及び姿勢の状態との間の差分が最も小さい対象物のWk1の移動方向、回転方向を選択する。
このようなセットを繰り返すことで、ロボット制御部111は、撮影した画像上で、対象物Wk1の位置及び姿勢を目標物Ob1の画像が示す目標物Ob1の位置及び姿勢に対応した位置及び姿勢にそれぞれ近づけることができる。最終的には、対象物Wk1の実際の位置及び姿勢が、目標物の位置及び姿勢に対応づけられる。
なお、ロボット制御部111は、例えば、同一の目標物Ob1について、制御の回数が増加することに応じて、又は、対象物Wk1の位置及び姿勢の状態が目標物Ob1の位置及び姿勢の状態に近づくほど、前記した変化量(対象物Wk1の位置や姿勢を変化させる変化量)を、連続的又は段階的に小さくするようにしてもよい。
ロボット制御部111は、対象物Wk1の位置及び姿勢の状態が目標物Ob1の位置及び姿勢の状態に対応すると差分算出部114の算出結果により判定された場合には、この目標位置(タスク)に関しては、ロボット20の制御を終了し、それ以降はロボット20を制御しない。
なお、位置及び姿勢の状態が対応するか否かを判定する処理においては、ロボット制御部111は、例えば、予め任意に設定された誤差の分だけ完全に一致する状態からずれていても、対象物Wk1の位置及び姿勢の状態が目標物Ob1の位置及び姿勢の状態に対応するとみなす判定を行ってもよい。つまり、実用上で支障とならない程度で、任意の誤差が許容されてもよい。
また、位置姿勢制御モードが用いられるときには、差分算出部114は、対象物Wk1の位置及び姿勢の状態が目標物Ob1の位置及び姿勢の状態に対応(例えば、一致)すると判定する場合がある。その場合において、次の目標位置(タスク)があるときには、ロボット制御部111は、当該次の目標位置に関しても差分算出の処理を用いたビジュアルフィードバック制御を行う。
また、位置制御モードが用いられるときには、具体的には、差分算出部114は、ビジュアルフィードバック制御として、対象物Wk1の実際の位置の状態が目標物Ob1の位置の状態に対応しないと判定する場合がある。その場合、ロボット制御部111は、ロボット20を制御して、撮影された画像上でこれらの状態を互いに近づけるように、当該対象物Wk1の位置を変化させる。また、ロボット制御部111は、使用する姿勢制御処理が対象物Wk1の姿勢を変化させるものであるときには、その姿勢制御処理に従って、当該対象物Wk1の姿勢も変化させてもよい。
その後、ロボット制御部111は、以上に説明したように、再び撮影部204、画像取得部113、差分算出部114の順で処理された結果(差分算出部114による差分算出の結果)を検出して、当該検出結果に応じた制御を行う。
ここで、本実施形態では、ロボット制御部111は、ロボット20を制御する際、1回の制御で、あらかじめ定められた変化量だけ対象物Wk1の位置を変化させてもよい。ロボット制御部111は、ロボット20の動作を制御する代わりに、又はロボット20の動作の制御とともに撮影部204の撮影方向を変化させてもよい。
そして、ロボット制御部111は、各セットでこのような制御を繰り返して行うことにより、対象物Wk1の位置の状態を、目標物Ob1の位置の状態に最も近づける。ここで、各セット内での繰り返し毎に撮影部204を基準とする対象物Wk1を移動させる方向(移動方向)は異なっており、ロボット制御部111は、対象物Wk1の実際の位置の状態と、目標物Ob1の位置の状態との間の差分を差分算出部114から取得する。ロボット制御部111は、差分が最も小さい対象物のWk1の移動方向を選択する。このようなセットを繰り返すことで、ロボット制御部111は、撮影された画像上で対象物Wk1の画像が示す対象物Wk1の位置を、参照画像が示す目標物Ob1の位置に近づけることができる。これにより、対象物Wk1の実際の位置が目標物の位置に対応した位置に合わせられる。
なお、ロボット制御部111は、例えば、同一の目標物Ob1について、制御の回数が増加するに応じて、又は、対象物Wk1の位置の状態が目標物Ob1の位置の状態に近づくに応じて、前記した変化量(対象物Wk1の位置を変化させる変化量)を連続的又は段階的に小さくするようにしてもよい。
ロボット制御部111は、対象物Wk1の位置の状態が目標物Ob1の位置の状態に対応すると差分算出部114の算出結果により判定された場合には、この目標位置(タスク)に関しては、ロボット20の制御を終了として、それ以降はロボット20を制御しない。
なお、位置の状態が対応するか否かを判定する処理においては、ロボット制御部111は、例えば、予め任意に設定された誤差の分だけ一致する状態からずれていても対象物Wk1の位置の状態が目標物Ob1の位置の状態に対応するとみなす判定を行ってもよい。つまり、実用上で支障とならない程度で、任意の誤差が許容されてもよい。
また、位置制御モードが用いられるときには、差分算出部114が、対象物Wk1の位置の状態が目標物Ob1の位置の状態に対応すると判定する場合がある。その場合、次の目標位置(タスク)があるとき、ロボット制御部111は、当該次の目標位置に関して、同様に、テンプレート情報に基づく差分算出の処理を用いたビジュアルフィードバック制御を行う。
なお、テンプレート情報に基づく差分算出の処理における一般的な技術や、ビジュアルフィードバック制御における一般的な技術については、上述した以外にも、例えば、公知の様々な手法を用いることが可能である。
以上のように、ビジュアルフィードバック制御では、参照画像と現在撮影した画像とが撮影した画像上で対応するまで(つまり、参照画像に写る対象物の位置又はさらに姿勢と現在撮影した画像に写る対象物の位置又はさらに姿勢とが一致するまで)、ビジュアルフィードバックが繰り返されて、対象物Wk1の移動が継続される。
ここで、位置姿勢制御モードでは、例えば、位置(3次元)及び姿勢(3次元)の6自由度を最適化する必要があるが、最適化に時間がかかる場合がある。
そこで、本実施形態では、対象物Wk1を複数の目標位置に順に移動させるビジュアルフィードバック制御において、複数(N個)の目標位置のうちの一部(1つ以上)については、位置制御モードを使用する構成としてもよい。
具体的には、本実施形態の例では、ロボット制御部111は、第1番目の目標位置〜第N番目の目標位置において、画像上で第1番目の目標位置〜第N−1番目の目標位置については、対象物Wk1の位置のみを目標物Ob1の位置と対応させるように制御する位置制御モードを使用してビジュアルフィードバック制御を行う。そして、ロボット制御部111は、最終的な目標位置である第N番目の目標位置のみについて、対象物Wk1の位置及び姿勢の両方を、目標物の位置及び姿勢の両方と対応させるように制御する位置姿勢制御モードを使用してビジュアルフィードバック制御を行う。
このような構成では、第1番目の目標位置〜第N−1番目の目標位置についてのビジュアルフィードバック制御においては、位置(本実施形態では、3次元)だけの最適化が行われる。そのため、位置(本実施形態では、3次元)及び姿勢(本実施形態では、3次元)の両方を最適化する場合(本実施系形態では、6自由度)よりも少ない自由度(本実施形態では、3自由度)の最適化でよいため、計算時間を短縮させることができる。このように計算時間を短縮させることができることにより、ビジュアルフィードバック制御において対象物の位置を目標位置から予め定めた範囲に収束させるまでの収束時間を短縮させることができ、結果として、対象物の目標位置までの移動時間を短縮させることができる。
本実施形態では、ビジュアルフィードバック制御を行う一連のタスク(本実施形態では、第1のタスク〜第Nのタスク)がユーザーによりあらかじめ把握されており、ユーザーは、対象物Wk1の位置及び姿勢の情報を目標物Ob1の位置及び姿勢の情報と比較して求めた差分に基づいてビジュアルフィードバック制御を行う期間(本実施形態では、第Nのタスク)と、対象物Wk1の位置のみの情報を目標物Ob1の位置のみの情報と比較して求めた差分に基づいてビジュアルフィードバック制御を行う期間(本実施形態では、第1のタスク〜第N−1のタスク)を設定する。
この設定は、任意に行われてもよい。具体例として、部品など(例えば、対象物Wk1)の組み付けを行う期間(本実施形態では、第Nのタスク)だけ対象物Wk1の位置及び姿勢の情報を目標物Ob1の位置及び姿勢の情報と比較して求めた差分に基づいてビジュアルフィードバック制御を行い、その他の期間(本実施形態では、第1のタスク〜第N−1のタスク)では対象物Wk1の位置のみの情報を目標物Ob1の位置のみの情報と比較して求めた差分に基づいてビジュアルフィードバック制御を行うように設定されてもよい。
次に、参照画像の例について説明する。
図2は、参照画像の例を示す図である。
図2は、3つの参照画像を示す。3つの参照画像は、3回に分けて対象物Wk1の目標位置を教示するために用いられる。図2は、左側から右側に向かって、順に1回目、2回目、3回目の参照画像を示す。この例では、3回目の参照画像が最終的な目標位置を示す。本実施形態では、例えば、1回目の参照画像を用いることで、対象物Wk1の位置を、目標物Ob1−1の位置に移動させることができる。2回目の参照画像を用いることで、対象物Wk1の位置を、目標物Ob1−2の位置に移動させることができる。3回目の参照画像を用いることで、対象物Wk1の位置を、目標物Ob1−3の位置に移動させ、対象物Wk1を移動させる制御を終了する。
次に、撮影部204で撮影され、画像取得部113で取得された画像情報の例について説明する。
図3は、取得された画像情報の例を示す図である。
図3に示す画像情報は、図2の3回目の参照画像がスクリーン31に表示され、時刻t,t,tのそれぞれにおいて対象物Wk1の位置が制御されているときに撮影部204が撮影した画像を示す。
図3に示す例では、時刻t,t,tのそれぞれにおいて対象物Wk2の位置と目標物Ob2の位置がほぼ同一となるように固定されている。また、目標物Ob1の位置も、目標物Ob2の真上に固定されている。これに対して、対象物Wk1の位置は、時間経過に伴い目標物Ob1の位置に近づくように制御され、対象物Wk1の位置が目標物Ob1の位置に一致した時点で制御が終了する。
図2、3では、参照画像は2つの目標物を示すが、これには限られない。参照画像に操作対象の対象物Wk1に対応する目標物の画像が含まれていれば、その他の対象物についての目標物の個数は任意である。また、操作対象の対象物は、対象物Wk1に限られず、作業によって対象物やその種別、大きさが異なっていてもよい。例えば、対象物Wk2がロボット20の操作対象になってもよい。対象物Wk1,Wk2の両者が操作対象となる場合、対象物Wk1、Wk2のいずれが先に操作されてもよい。ロボット20が2つの把持部(ハンド)203−1,203−2(後述)を備える場合には、対象物Wk1,Wk2は、把持部203−1,203−2のいずれで把持されてもよい。また、対象物Wk1,Wk2が、それぞれ把持部203−1,203−2のいずれか一方、又は他方で把持されてもよい。
本実施形態では、撮影部204が少なくともロボット20の動作の対象となる対象物Wk1と目標物Ob1を撮影し、ロボット制御装置10が撮影した画像を示す画像情報を用いてロボット20の動作を制御することができれば、ロボット制御装置10、投影部13、ロボット20、撮影部204、及びスクリーン31の位置関係は、図1に示した位置関係に限られない。
図4は、ロボットシステム1の他の配置例を示す図である。
図4には、説明を簡潔にするためロボット20のうちマニピュレーター202−1(後述)と把持部203−1のみが示されている。図4に示すように撮影部204は、ロボット20及びスクリーン31に向かって左方に配置されていてよい。ロボットシステム1の動作環境として、このような配置に変更して参照画像を取得し直さなくても、ロボット制御装置10は、ロボット20が把持する対象物Wk1の位置を、参照画像が示す目標物Ob1の位置に応じて撮影した画像上で制御することができる。
次に、本実施形態に係るロボットシステムの他の構成例(ロボットシステム2)について説明する。
図5は、本実施形態に係るロボットシステムの他の構成例を示す図である。
図5は、ロボットシステム2をその前方から見た外観を示す。図5の右側が図1の左側に相当し、図5の左側が図1の右側に相当する。
ロボットシステム2は、ロボット制御装置10と、ロボット20と、を含んで構成される。
ロボット20は、腕(アーム)をそれぞれ構成する2本のマニピュレーター202−1、202−2を備える双腕ロボットである。ロボット20は、ロボット制御装置10と一体に構成され、ロボット制御装置10のロボット制御部111(図1)から入力された制御信号により動作が制御される。また、ロボット20は、自己の状態等を示す信号を、ロボット制御部111に出力してもよい。
ロボット20は、制御装置を格納する格納部201と、マニピュレーター202−1,202−2と、把持部(ハンド)203−1,203−2と、撮影部204と、車輪205−1,205−2と、胴体を構成する胴体部材206,207,208と、を備える。
格納部201には、ロボット制御装置10(図1)が格納され、ロボット制御部111は、左腕のマニピュレーター202−2と右腕のマニピュレーター202−1を制御する。ロボット制御部111は、例えば、左腕のマニピュレーター202−2と右腕のマニピュレーター202−1とを同時に関連付けて制御してもよく、又は、左腕のマニピュレーター202−2と右腕のマニピュレーター202−1とをそれぞれ別個に制御してもよい。
マニピュレーター202−1,202−2は、それぞれ垂直多関節ロボットの一種であり、例えば、ロボットアームとして機能する。マニピュレーター202−1,202−2は、それぞれその先端に把持部203−1,203−2を備える。把持部203−1,203−2は、物体(例えば、対象物Wk1)を把持して、当該物体を移動させること、つまり位置や姿勢を変化させることが可能である。
マニピュレーター202−1,202−2の自由度は、それぞれ、3軸に限らず、任意の自由度(例えば、7軸)であってもよい。
格納部201の主面(上面)には、胴体部材206、胴体部材207、胴体部材208が順に積み重ねて取り付けられ、最上部の胴体部材208の左側に左腕を構成するマニピュレーター202−2が取り付けられ、胴体部材208の右側に右腕を構成するマニピュレーター202−1が取り付けられ、格納部201の底面の右側に車輪205−1が取り付けられ、格納部201の底面の左側に車輪205−2が取り付けられ、格納部201の上面に撮影部204が取り付けられている。
撮影部204は、対象物Wk1、目標物Ob1の画像を撮影することができれば格納部201の上面に限らず、ロボット20における任意の場所、例えば、胴体部材208の上面に備えられてもよい。また、撮影部204は、ロボット20と別体であってもよく、少なくとも動作対象の対象物Wk1の画像と目標物Ob1の画像を撮影することができれば、任意の場所、例えば、床面、天井、壁面、等に固定されていてもよい。
また、本実施形態に係るロボット20は、右側の車輪205−1と、左側の車輪205−2とを備えることで、人手により外力を加えることで車輪205−1、205−2を回転させて、容易に移動させることが可能にある。
なお、上述したロボット制御装置10(図1)に備えられる機能の一部を、ロボット20とは別体のコントローラーに備えることも可能である。具体的には、ロボット制御装置10(図1)に備えられる入力部14と出力部15の機能と同様な機能を、ロボット20とは別体のコントローラーに備え、ロボット制御装置10と当該コントローラーとの間で互いに無線により通信する機能を備えてもよい。その場合、入力部14と出力部15(図1)の機能と同様な機能をリモートのコントローラーで実現することが可能になる。
このように、本実施形態に係るロボットシステム2は、ロボット制御部111と2つのマニピュレーター202−1、202−2とが、ロボット20と一体化して構成可能である。ロボット20は、様々な用途に利用されてもよい。例えば、ロボット20として、産業用のロボットとして構成することができるばかりでなく、宇宙用途や遊具など、様々な分野のロボットに適用することが可能である。
なお、本実施形態では、2つのマニピュレーター202−1、202−2のうち、いずれか一方のみ、その2つのマニピュレーター202−1、202−2のそれぞれ、又はその両者がロボット20(図1)として用いられてもよい。ここで、格納部201に備えられるロボット制御部111と各マニピュレーター202−1、202−2とは、例えば、有線又は無線の回線を介して、制御信号等を伝送できるように接続される。
図1、5に示すロボット20は、2本のマニピュレーター202−1、202−2を備える双腕ロボットであるが、これには限られない。ロボット20が備えるマニピュレーターの数は、1個又は2個よりも多くてもよい。
例えば、ロボットシステム1aは、ロボットシステム1(図1)においてロボット20に代えて、ロボット20aを備えて構成してもよい。
図6は、本実施形態に係るロボットシステムのさらに他の構成例(ロボットシステム1a)を示す概略図である。
ロボットシステム1aは、ロボット制御装置10と、投影部13と、ロボット20aと、撮影部204と、回線30とを含んで構成される。撮影部204は、ロボット20aとは別体で、床面上に設置されている。
ロボット20aは、腕(アーム)を構成する1本のマニピュレーター202aを備える単腕ロボットである。ロボット20aは、ロボット制御装置10のロボット制御部111から送信される制御信号を、回線30を介して受信し、受信した制御信号により動作が制御される。また、ロボット20aは、自己の状態などを示す信号を、回線30を介して、ロボット制御装置10のロボット制御部111に送信してもよい。
ロボット20aは、マニピュレーター202aと、把持部(ハンド)203aと、胴体部材206aと、を備える。
マニピュレーター202aは、マニピュレーター202−1、202−2と同様な構成を有し、その先端に把持部203aを備える。把持部203aは、把持部203−1、203−2と同様に、物体(例えば、対象物Wk1)を把持して、当該物体を移動させることができる。
胴体部材206aは、ロボット20aの基台(下部)を形成し、ロボット20aの全体を支持している。胴体部材206aの主面(上面)にはマニピュレーター202aが取り付けられている。
このように、本実施形態は、単腕のロボット20aを用いた場合でも、物体(例えば、対象物Wk1)の位置をスクリーン31に投影した参照画像に表示される目標物Ob1の位置に応じて制御することができる。
そのため、本実施形態は、ロボットの種別、対象物との位置関係等、作業環境の差異に適応して対象物の位置を制御することができる。
上述では、投影部13がスクリーン31に参照画像を表示する場合を例にとって説明したが、これには限られない。
ロボットシステム1bは、ロボットシステム1(図1)において投影部13に代えて投影部13bを備えて構成してもよい。
図7は、本実施形態に係るロボットシステムのまたさらに他の構成例を示す概略図である。
本構成例に係るロボットシステム1bは、ロボット制御装置10と、投影部13bと、ロボット20と、撮影部204と、回線30とを含んで構成される。
投影部13bは、レーザー光源(図示せず)と、レーザー光源が発したレーザービームを集光するレンズ(図示せず)を備える。集光された空間からは、プラズマが発生し、発生したプラズマが発する光を画像光として放射する。この画像光が、参照画像を示す。レーザー光源は、不可視域の波長を有するレーザービームを発する光源であればよい。そのような光源には、例えば、YAG(Yttrium Aluminum Garnet)レーザー、炭酸ガスレーザ、等がある。投影部13bは、例えば、特許文献2に記載の空中可視像形成装置と同様の構成を備えてもよい。
レーザービームが集光される位置の範囲、つまり、参照画像が表される範囲(表示範囲)は、ロボット20が対象物を操作することができる操作範囲に含まれる。ここで、投影部13bが備えるレンズの数や作業環境に応じて予め表示範囲を定めておく。
撮影部204は、入射された画像光が示す参照画像を撮影し、ロボット制御装置10は、撮影部204が撮影した参照画像に基づいて、ロボット20が把持する対象物(例えば、Wk1)の位置を目標物(例えば、目標物Ob1)の位置と所定の関係になるように制御する。
このように、投影部13bは、所望の空間に参照画像を表示することができるため、スクリーン31を省略することができ、ひいては作業空間を有効に活用することができる。
なお、ロボットシステム1bは、ロボット20に代えてロボット20aを備え、ロボット制御装置10は、ロボット20aの動作を制御するようにしてもよい。
以上のように、本実施形態に係るロボットシステム(例えば、ロボットシステム1,1a,1b,2)は、第1の物体(例えば、目標物Ob1)と所定の位置関係となる位置に第2の物体(例えば、対象物Wk1)を動かすロボット(例えば、ロボット20,20a)と、第1の物体の画像(例えば、参照画像)を投影する投影部(例えば、投影部13,13b)と、前記第1の物体の画像と前記第2の物体の画像を撮影する撮影部(例えば、撮影部204)とを含む。また、ロボットは、撮影部が撮影した画像に基づいて第2の物体を動かして第1の物体と第2の物体を所定の位置関係にする。
そのため、第1の物体の画像を事前に作業現場の環境毎に撮影しなくても、その画像を投影することで第1の物体の位置に関する情報が与えられる。そのため、作業現場の環境によらず第1の物体と第2の物体とが所定の位置関係を有するように制御することができる。即ち、作業現場の環境によらず第1の物体の位置に関する情報が与えられ、第2の物体の位置を制御することができる。例えば、試作、少量生産、設計変更のように、作業現場の環境が比較的頻繁に変化する場合でも、第1の物体を示す画像を作業環境の変化に応じて取得しなくても、その画像を投影することで制御の手がかりが得られ、ひいては、作業工数を低減することができる。
なお、対象物の位置と目標物の位置が一致又は近似していると、目標物を示す画像が対象物やその他の物体(例えば、マニピュレーター202−1、把持部203−1、等)に遮蔽されることがある。そのため、撮影部204が撮影した画像から対象物及び目標物の両者が検知されなくなることがある。
そこで、ロボット制御部111又は差分算出部114は、目標物の位置[X’,Y’,Z’]と対象物の位置[X,Y,Z]との差分を算出する際、その差分から更に予め定めた変位量[ΔX,ΔY,ΔZ]を減算して差分を補正してもよい。そして、ロボット制御部111は、補正した差分を用いて対象物の位置を制御する。これにより、対象物の位置が目標物から当該変位量だけ離れた位置に制御される。その場合、参照画像として実際に制御しようとする対象物の位置から、その変位量だけ加算した位置(目標位置)に配置された目標物を示す画像を予め生成しておく。そのため、差分算出部114は、撮影部204が撮影した画像から対象物及び目標物の両者を検知して、確実に補正した差分を算出することによって対象物の位置を制御することができる。
ロボット制御装置10とロボット20,20aとは、ロボットシステム1,1a,1bのように別体で構成されてもよく、又は、ロボットシステム2のように一体でロボットシステムとして構成されてもよい。
ロボットによる作業の対象となる対象物としては、様々なものが用いられてもよく、例えば、ギア(対象物となる物品)を組み付けるギア装置、部品(対象物となる物品)を組み付ける組み付け装置などに適用することができる。また、例えば、ラックアンドピニオン、チェーン、ベルトなどに適用することもできる。
また、ロボットによる作業の対象となるものとしては、例えば、平面での位置合わせが必要な部品の組み付けばかりでなく、空間での位置合わせが必要な部品の組み付けに適用することも可能である。例えば、ウォームギア、傘歯車などに適用することができる。
また、ロボットによる作業としては、ギア装置あるいは組み付け装置などのような装置の組み立て作業ばかりでなく、例えば、部品同士の位置及び姿勢を合わせることが必要となる作業に適用することも可能である。
また、本実施形態では、ロボットの一例として、マニピュレーターを示したが、ロボットとしては、様々なものが用いられてもよい。
具体的には、ロボットとしては、例えば、様々なスカラロボットが用いられてもよく、又は、様々な垂直多関節ロボットが用いられてもよい。
また、上述した単腕ロボット(又は、ロボットシステム)や双腕ロボット(又は、ロボットシステム)ばかりでなく、3本以上の腕を持つロボット(又は、ロボットシステム)が用いられてもよい。また、ロボット(又は、ロボットシステム)の移動を可能にする部材(移動部)としては、例えば、車輪を用いるロボット(又は、ロボットシステム)ばかりでなく、歩行を用いるロボット(又は、ロボットシステム)などが用いられてもよい。
以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。
なお、以上に説明したロボットシステム1,1a,1b,2を構成する構成部、例えば、ロボット制御部111、教示情報処理部112、画像取得部113、又は差分算出部114の機能を実現するためのプログラムを、コンピューター読み取り可能な記録媒体に記録し、そのプログラムをコンピューターシステムに読み込ませて実行するようにしてもよい。なお、「コンピューターシステム」とは、OS(Operating System)や周辺機器等のハードウェアを含むものとする。また、「コンピューター読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM(Read Only Memory)、CD(Compact Disk)−ROM等の可搬媒体、コンピューターシステムに内蔵されるハードディスク等の記憶装置のことを言う。さらに「コンピューター読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバーやクライアントとなるコンピューターシステム内部の揮発性メモリー(RAM:Random Access Memory)のように、一定時間プログラムを保持しているものも含むものとする。
また、上記のプログラムは、このプログラムを記憶装置等に格納したコンピューターシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピューターシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。
また、上記のプログラムは、前述した機能の一部を実現するためのものであってもよい。さらに、上記のプログラムは、前述した機能をコンピューターシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であってもよい。
1,1a,1b,2…ロボットシステム、10…ロボット制御装置、11…制御部、
111…ロボット制御部、112…教示情報処理部、113…画像取得部、
114…差分算出部、
12…記憶部、13,13b…投影部、14…入力部、15…出力部、
20,20a…ロボット、201…格納部、
202−1,202−2,202a…マニピュレーター、
203−1,203−2,203a…把持部、204…撮影部、
205−1,205−2…車輪、
206,206a,207,208…胴体部材、30…回線、31…スクリーン

Claims (7)

  1. 第1の物体と所定の位置関係となる位置に第2の物体を動かすロボットと、
    前記第1の物体の画像を投影する投影部と、
    前記第1の物体の画像と前記第2の物体の画像を撮影する撮影部と、を含み、
    前記ロボットは、
    前記撮影部が撮影した前記画像に基づいて、前記第2の物体を動かして、前記第1の物体と前記第2の物体を前記所定の位置関係にする、
    ロボットシステム。
  2. 前記撮影部が撮影した前記第1の物体の画像の特徴量と前記第2の物体の画像の特徴量との差分を算出する差分算出部を備え、
    前記差分算出部が算出した差分に基づいて、前記第2の物体の位置を制御する請求項1に記載のロボットシステム。
  3. 前記投影部が前記第1の物体の画像を投影する画像表示部を備える請求項1又は請求項2に記載のロボットシステム。
  4. 前記投影部は、前記第1の物体の画像を前記画像表示部の一方の面に投影し、
    前記撮影部は前記画像表示部の他方の面に表示された第1の物体の画像と前記第2の物体の画像を撮影する請求項3に記載のロボットシステム。
  5. 前記投影部は、前記ロボットが前記第2の物体を操作することができる操作範囲の空間内に前記第1の物体の画像を投影する請求項1又は請求項2に記載のロボットシステム。
  6. 第1の物体と所定の位置関係となる位置に第2の物体を動かすロボットを動作させるロボット制御装置であって、
    投影部により投影された前記第1の物体の画像を撮影した撮影画像を受け付ける画像受付部と、
    前記撮影画像に基づいて、前記ロボットに前記第2の物体を動かさせ、前記第1の物体と前記第2の物体を前記所定の位置関係にするロボット制御部と、
    を備えるロボット制御装置。
  7. 第1の物体と所定の位置関係となる位置に第2の物体を動かすロボットを動作させるロボット制御方法であって、
    前記第1の物体の画像を投影することと、
    前記第1の物体の画像と前記第2の物体の画像を撮影することと、
    撮影した画像に基づいて、前記ロボットに前記第2の物体を動かさせ、前記第1の物体と前記第2の物体を前記所定の位置関係にすることと、
    を含むロボット制御方法。
JP2013270759A 2013-12-27 2013-12-27 ロボットシステム、ロボット制御装置、及びロボット制御方法 Expired - Fee Related JP6343930B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013270759A JP6343930B2 (ja) 2013-12-27 2013-12-27 ロボットシステム、ロボット制御装置、及びロボット制御方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013270759A JP6343930B2 (ja) 2013-12-27 2013-12-27 ロボットシステム、ロボット制御装置、及びロボット制御方法

Publications (2)

Publication Number Publication Date
JP2015123560A true JP2015123560A (ja) 2015-07-06
JP6343930B2 JP6343930B2 (ja) 2018-06-20

Family

ID=53534663

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013270759A Expired - Fee Related JP6343930B2 (ja) 2013-12-27 2013-12-27 ロボットシステム、ロボット制御装置、及びロボット制御方法

Country Status (1)

Country Link
JP (1) JP6343930B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020055096A (ja) * 2018-09-27 2020-04-09 キヤノン株式会社 情報処理装置、情報処理方法及びシステム
US11548154B2 (en) 2018-10-12 2023-01-10 Toyota Research Institute, Inc. Systems and methods for dimensionally-restricted robotic teleoperation

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06218684A (ja) * 1993-01-22 1994-08-09 Mitsui Eng & Shipbuild Co Ltd 操作型マニピュレータの教示装置および操作型マニピュレータによる自動作業方法
JPH09272081A (ja) * 1996-04-05 1997-10-21 Nippon Steel Corp 遠隔操作入力装置及び遠隔操作入力方法
JP2001252883A (ja) * 2000-03-09 2001-09-18 Denso Corp 移動ロボットシステム
JP2003311670A (ja) * 2002-04-17 2003-11-05 Denso Wave Inc ロボットアームの位置制御方法およびロボット装置
JP2012066345A (ja) * 2010-09-24 2012-04-05 Ihi Corp 投影面情報提示装置と方法
JP2013047760A (ja) * 2011-08-29 2013-03-07 Institute Of National Colleges Of Technology Japan 指示位置表示装置および指示位置表示システム
US8606404B1 (en) * 2009-06-19 2013-12-10 Bissell Homecare, Inc. System and method for controlling a cleaning apparatus

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06218684A (ja) * 1993-01-22 1994-08-09 Mitsui Eng & Shipbuild Co Ltd 操作型マニピュレータの教示装置および操作型マニピュレータによる自動作業方法
JPH09272081A (ja) * 1996-04-05 1997-10-21 Nippon Steel Corp 遠隔操作入力装置及び遠隔操作入力方法
JP2001252883A (ja) * 2000-03-09 2001-09-18 Denso Corp 移動ロボットシステム
JP2003311670A (ja) * 2002-04-17 2003-11-05 Denso Wave Inc ロボットアームの位置制御方法およびロボット装置
US8606404B1 (en) * 2009-06-19 2013-12-10 Bissell Homecare, Inc. System and method for controlling a cleaning apparatus
JP2012066345A (ja) * 2010-09-24 2012-04-05 Ihi Corp 投影面情報提示装置と方法
JP2013047760A (ja) * 2011-08-29 2013-03-07 Institute Of National Colleges Of Technology Japan 指示位置表示装置および指示位置表示システム

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020055096A (ja) * 2018-09-27 2020-04-09 キヤノン株式会社 情報処理装置、情報処理方法及びシステム
JP7467041B2 (ja) 2018-09-27 2024-04-15 キヤノン株式会社 情報処理装置、情報処理方法及びシステム
US11548154B2 (en) 2018-10-12 2023-01-10 Toyota Research Institute, Inc. Systems and methods for dimensionally-restricted robotic teleoperation

Also Published As

Publication number Publication date
JP6343930B2 (ja) 2018-06-20

Similar Documents

Publication Publication Date Title
Ong et al. Augmented reality-assisted robot programming system for industrial applications
US11911914B2 (en) System and method for automatic hand-eye calibration of vision system for robot motion
US10585167B2 (en) Relative object localization process for local positioning system
US11197730B2 (en) Manipulator system
JP4167954B2 (ja) ロボット及びロボット移動方法
US9679385B2 (en) Three-dimensional measurement apparatus and robot system
JP5257335B2 (ja) 3次元視覚センサにおける計測有効領域の表示方法および3次元視覚センサ
JP4844453B2 (ja) ロボットの教示装置及び教示方法
CN111801198B (zh) 一种手眼标定方法、系统及计算机存储介质
US20150202776A1 (en) Data generation device for vision sensor and detection simulation system
JP2016099257A (ja) 情報処理装置及び情報処理方法
WO2018043525A1 (ja) ロボットシステム、ロボットシステム制御装置、およびロボットシステム制御方法
JP2024009106A (ja) ツールの作業位置のずれ量を取得する装置、及び方法
US11833697B2 (en) Method of programming an industrial robot
JP5899958B2 (ja) ロボット制御装置、ロボット、ロボットシステムおよびロボット制御方法
US20190030722A1 (en) Control device, robot system, and control method
JP5948914B2 (ja) ロボット制御装置、ロボット制御方法、ロボット制御プログラムおよびロボットシステム
JP2009269134A (ja) 視覚検査装置のシミュレーション装置
JP2017006990A (ja) ロボット、制御装置、及び制御方法
JP6343930B2 (ja) ロボットシステム、ロボット制御装置、及びロボット制御方法
US20220097234A1 (en) Calibration apparatus and calibration method for coordinate system of robotic arm
JP7487118B2 (ja) 1つ以上のロボット相互参照パラグラフの自然ロボットタスクのためのシステム及び方法
JP7224559B2 (ja) 遠隔制御マニピュレータシステムおよび遠隔制御支援システム
US20230123629A1 (en) 3d computer-vision system with variable spatial resolution
JP2020142323A (ja) ロボット制御装置、ロボット制御方法、及びロボット制御プログラム

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20160617

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20160624

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161124

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170927

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171003

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171129

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180424

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180507

R150 Certificate of patent or registration of utility model

Ref document number: 6343930

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees