JP2010188439A - パラメータ算出方法及びパラメータ算出装置 - Google Patents
パラメータ算出方法及びパラメータ算出装置 Download PDFInfo
- Publication number
- JP2010188439A JP2010188439A JP2009032623A JP2009032623A JP2010188439A JP 2010188439 A JP2010188439 A JP 2010188439A JP 2009032623 A JP2009032623 A JP 2009032623A JP 2009032623 A JP2009032623 A JP 2009032623A JP 2010188439 A JP2010188439 A JP 2010188439A
- Authority
- JP
- Japan
- Prior art keywords
- coordinate system
- mark
- recognition
- information
- robot
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Manipulator (AREA)
Abstract
【課題】2つの異なる座標系の関係を正確かつ容易に校正できる方法及びその装置を提供する。
【解決手段】異なる2つの3次元座標系を対応付けるためのパラメータを算出するパラメータ算出方法であって、ロボット座標系42における移動が制御されるフランジ36に、フランジ座標系44において固定姿勢でマーク40を取り付けるステップ(S11)と、フランジ36を移動させることによって、マーク40を認識位置24a〜24eに移動させるステップ(S13)と、認識位置24a〜24eにおいて、フランジ36のロボット座標系42における姿勢を示す姿勢情報と、カメラ座標系26におけるマーク40の位置を示す座標情報とを取得するステップ(S14)と、認識位置24a〜24eごとの上記姿勢情報と上記座標情報とに基づいて、両座標系を対応付けるためのパラメータを算出するステップ(S16)とを含む。
【選択図】図1
【解決手段】異なる2つの3次元座標系を対応付けるためのパラメータを算出するパラメータ算出方法であって、ロボット座標系42における移動が制御されるフランジ36に、フランジ座標系44において固定姿勢でマーク40を取り付けるステップ(S11)と、フランジ36を移動させることによって、マーク40を認識位置24a〜24eに移動させるステップ(S13)と、認識位置24a〜24eにおいて、フランジ36のロボット座標系42における姿勢を示す姿勢情報と、カメラ座標系26におけるマーク40の位置を示す座標情報とを取得するステップ(S14)と、認識位置24a〜24eごとの上記姿勢情報と上記座標情報とに基づいて、両座標系を対応付けるためのパラメータを算出するステップ(S16)とを含む。
【選択図】図1
Description
本発明は、パラメータ算出方法及びパラメータ算出装置に関し、特に、異なる2つの3次元座標系を対応付けるためのパラメータを算出するパラメータ算出方法及びパラメータ算出装置に関する。
視覚センサでの認識結果に基づいて動作が制御されるロボットが増えている。このようなロボットでは、視覚センサに基づく画像情報は、センサ座標系によって表現される一方で、ロボットの動作は、ロボット座標系を用いて制御される。このような場合、異なる座標系を対応付けるために、パラメータの校正が必要になる。
例えば、視覚センサがロボットに対して独立して固定されている場合、センサ座標系とロボット座標系とを対応付けるためのパラメータを校正する。例えば、特許文献1には、視覚センサが検出可能なマークを同一平面上に4つ以上設け、ロボットの制御点をマークに位置決めすることによりロボット座標系におけるマークの座標値を取得する一方で、視覚センサでマークを検出することによりセンサ座標系におけるマークの座標値を取得する。その後、一定の評価により3つのマークを選択し、3つのマークのそれぞれに関するロボット座標系の座標値とセンサ座標系の座標値とに基づいて、両座標系の関係を対応付けるためのパラメータを校正する。
また例えば、多関節ロボットの先端部に視覚センサが固定されている場合、その先端部を基準とする先端部座標系と視覚センサが用いるセンサ座標系とを対応付けるためのパラメータを校正する。
非特許文献1には、多関節ロボットの先端部に視覚センサが固定されている場合に、先端部座標系とセンサ座標系とを対応付けるためのパラメータを求めるための解法が記載されている。具体的には、視覚センサの姿勢を変えて2方向から校正用マークを認識し、2つの視覚センサの姿勢に対応する先端部の姿勢に関する行列Aと、2つの姿勢でのセンサ座標系における座標値に関する行列Bと、センサ座標系を先端部座標系に変換するパラメータとしての行列Xとを用いて表される方程式AX=XBを解くことによって、行列Xを算出する。ここで、行列A,B,Xはいずれも、4×4行列である。
Y. Shiu and S. Ahmad:"Calibration of Wrist-Mounted Robotic Sensors by Solving Homogeneous Transform Equations of the Form AX = XB",IEEE Trans. on Robotics and Automation,August 1989,vol. 5,no. 1,pp.16-29.
特許文献1に記載の技術の場合、ロボット座標系におけるマークの座標値は、例えば、ロボットアームの先端に針状ツールを固定して、針状ツールの先端がマークの所定位置にタッチした時のロボットの状態に基づいて針状ツールの先端位置を算出することによって取得される。そのため、針状ツールは、ロボットアームの先端に長さと方向とが予め決めたものとなるように、正確に取り付けられる。
また、針状ツールがマークの所定位置にタッチするように、針状ツールの動作が制御されるが、針状ツールが勢いよくマークにあたると、マークの位置がずれてしまう。そのため、正確にかつ静かにマークの所定位置にタッチするように、針状ツールを動作させる必要があり、その操作は、極めて困難である。
次に、非特許文献1に記載の技術の場合、校正用マークは、少なくとも4点に、それらすべてが同一平面上に位置することにならないように、配置される。このような配置を実現するには、手間と時間が掛かる。
本発明は、上記の問題を解決するために、2つの異なる座標系の関係を正確かつ容易に校正できる方法及びその装置を提供することを目的とする。
本発明に係るパラメータ算出方法は、異なる2つの3次元座標系を対応付けるためのパラメータを算出するパラメータ算出方法であって、
第1座標系における並進及び回転を含む移動を制御可能な移動部を移動させることによって、上記移動部を基準とする座標系において位置及び方向を含む姿勢が固定されたマークを認識位置に移動させる移動ステップと、
上記認識位置において、上記移動部の第1座標系における姿勢を示す第1情報を取得し、かつ、第2座標系における上記マークの位置を示す第2情報を取得する第1及び第2情報取得ステップと、
少なくとも4つの上記認識位置について上記移動ステップと上記第1及び第2情報取得ステップとを繰り返すことによって取得される、上記認識位置ごとに対応付けられた上記第1情報と上記第2情報とに基づいて、上記第1座標系と上記第2座標系とを対応付けるためのパラメータを算出するパラメータ算出ステップとを含む。
第1座標系における並進及び回転を含む移動を制御可能な移動部を移動させることによって、上記移動部を基準とする座標系において位置及び方向を含む姿勢が固定されたマークを認識位置に移動させる移動ステップと、
上記認識位置において、上記移動部の第1座標系における姿勢を示す第1情報を取得し、かつ、第2座標系における上記マークの位置を示す第2情報を取得する第1及び第2情報取得ステップと、
少なくとも4つの上記認識位置について上記移動ステップと上記第1及び第2情報取得ステップとを繰り返すことによって取得される、上記認識位置ごとに対応付けられた上記第1情報と上記第2情報とに基づいて、上記第1座標系と上記第2座標系とを対応付けるためのパラメータを算出するパラメータ算出ステップとを含む。
また、本発明に係るパラメータ算出方法は、異なる2つの3次元座標系を対応付けるためのパラメータを算出するパラメータ算出方法であって、
並進及び回転を含む移動を制御可能な移動部とともに移動させることによって、上記移動部を基準とする第3座標系における位置及び方向を含む姿勢が固定された視点を、予め設けられたマークを認識できる認識位置へ移動させる移動ステップと、
上記認識位置において、上記第3座標系の姿勢を示す第3情報を取得し、かつ、上記視点を基準とする第4座標系における上記マークの位置を示す第4情報を取得する第3及び第4情報取得ステップと、
少なくとも4つの上記認識位置について上記移動ステップと上記第3及び第4情報取得ステップとを繰り返すことによって取得される、上記認識位置ごとに対応付けられた上記第3情報と第4情報とに基づいて、上記第3座標系と上記第4座標系とを対応付けるためのパラメータを算出するパラメータ算出ステップとを含む。
並進及び回転を含む移動を制御可能な移動部とともに移動させることによって、上記移動部を基準とする第3座標系における位置及び方向を含む姿勢が固定された視点を、予め設けられたマークを認識できる認識位置へ移動させる移動ステップと、
上記認識位置において、上記第3座標系の姿勢を示す第3情報を取得し、かつ、上記視点を基準とする第4座標系における上記マークの位置を示す第4情報を取得する第3及び第4情報取得ステップと、
少なくとも4つの上記認識位置について上記移動ステップと上記第3及び第4情報取得ステップとを繰り返すことによって取得される、上記認識位置ごとに対応付けられた上記第3情報と第4情報とに基づいて、上記第3座標系と上記第4座標系とを対応付けるためのパラメータを算出するパラメータ算出ステップとを含む。
本発明によると、マークは、移動部に相対的に固定されている。そのため、マークの第1座標系における座標値は、移動部の座標系におけるマークの座標値を変換することによって取得でき、また、第2座標系におけるマークの座標値を変換することによって取得できる。従って、移動部の座標系におけるマークの座標値と、第2座標系におけるマークの座標値とは、第1座標系における座標値を介して、対応付けることができる。
そのため、第1座標系におけるマークの座標値、移動部の座標系におけるマークの座標値が、未知のままであっても、第1座標系における座標値と第2座標系における座標値とを対応付けるパラメータを含む方程式を立てることができる。そして、その方程式を解くことによって、両座標系の関係を対応付けるためのパラメータを校正することが可能になる。
また、本発明によると、視点は、移動部に相対的に固定されている。そのため、複数の視点から取得した第4座標系におけるマークの座標値を対応付けることによって、視点の座標値がいずれの座標系においても未知のままであっても、第3座標系における座標値と第4座標系における座標値とを対応付けるパラメータを含む方程式を立てることができる。そして、その方程式を解くことによって、両座標系の関係を対応付けるためのパラメータを校正することが可能になる。
このように、これらの発明はいずれも、マーク又は視点を移動部に固定すれだけでよく、その固定する位置や方向を正確に予め定めたものに合わせる必要がない。また、マークも視野に配置されればよく、いずれかの座標において予め定めた位置に正確に合わせる必要はない。
そのため、極めて容易に手間をかけることなく、第1座標系及び第2座標系の関係を対応付けるためのパラメータを正確に校正することが可能である。
(実施の形態1)
図1は、本発明の実施の形態1に係るロボットシステムの概略図である。本実施の形態のロボットシステム10は、カメラで認識した情報に基づいてロボットを自動制御するシステムであって、カメラ20と、ロボット30とを含む。
カメラ20は、レンズ等の光学系部材、イメージセンサ等を備える装置であり、空間内に固定されている。カメラ20は、視野22の中にある認識位置24a〜24eに移動したマーク40を含む画像を示す画像情報を生成する。
認識位置24a〜24eは、図2に示すようにカメラ20の視野22の中に含まれる空間内の固定位置であり、校正のためにマーク40が配置される位置である。好ましくは、認識位置24a〜24eは、視野22の中央近傍(24a)、左上部分(24b)、左下部分(24c)、右下部分(24d)、右上部分(24e)というように、視野22の全体に散らばっている。
画像情報は、ケーブル29を介してカメラ20から画像処理装置28に送出される情報であって、例えば視野22に含まれる各画素について、カメラ座標系26における座標値と輝度値とを示す情報を含む。
カメラ座標系(第2座標系)26は、カメラ20に対して固定された座標系であって、好ましくはカメラ20が備えるレンズの中心を原点とし、光軸方向をz軸とする直交座標系である。
ここで、図1に示す視野22は、カメラ20のレンズからほぼ放射状に広がる視界の中で光軸(図1に示すカメラ座標系26のz軸)に垂直な一断面を表す。また、図1に示す認識位置24a〜24eは、すべて視野22に配置されているが、認識位置24a〜24eは、視界の中の異なる位置に配置されていればよい。
ロボット30は、3次元の所定の範囲内における任意の位置に物を移動させる多関節ロボットであり、空間内に固定された基部32と、互いに傾動可能に接続されたアーム部34a〜34dと、物を取り付けることができるフランジ36とを備える。
アーム部34aの基端は、基部32に固定される。アーム部34a(34b,34c)の先端とアーム部34b(34c,34d)の基端とは、それぞれ、先端側のアーム部34b(34c,34d)が基端側のアーム部34a(34b,34c)に対して所定の範囲内の任意の方向へ自由に傾動できるように、ジョイント部38aを介して接続される。各アーム部34a〜34dは、それぞれの軸を中心に所定の角度で旋回可能にする旋回機構部38bを有する。
このようなジョイント部38aと旋回機構部38bとによって、アーム部34a〜34dは、一定の範囲内で自由に動作することができる。
フランジ36(移動部)は、アーム部34dの先端に備えられており、アーム部34a〜34dが動作することによって、移動する。フランジ36が移動することによって、ロボット座標系42におけるフランジ36の姿勢が変化する。
ここで、「姿勢」は、位置及び方向を含む。また、「移動する」又は「姿勢が変化する」とは、位置及び方向の少なくとも一方が変化することをいう。以下、同様の意味で用いる。
フランジ36には、ロボットハンド等を取り付けることができ、本実施の形態では、校正用のマーク40が、支持棒を介して固定的に取り付けられる。マーク40の片面には、その位置を示す代表点をカメラ20が識別できる所定の標識が描かれている。
本実施の形態の標識は、正方形の外枠と、その外枠の2本の対角線によって画成される4つの三角形とを含む模様であり、4つの三角形は、対向する三角形の一方の組みと他方の組みとで色分けされている。色分けには、好ましくは、カメラ20が生成する画像情報に基づいて識別可能な異なる色が使用され。これによって、正方形の中央を代表点として使用可能になる。
なお、マーク40は、その位置をカメラ20によって認識できるものであればよく、例えば、LED(発光ダイオード)による発光点等であってもよい。
ロボット制御装置(パラメータ算出装置)50は、ケーブル54を介して接続された画像処理装置28から取得する画像情報に基づいて、ケーブル53を介して接続されたコントローラ52から取得する情報に基づいて、及び/又は、予め決定された処理群を含むプログラムを実行することによって行われる判断に基づいて、ジョイント部38aでの傾動及び旋回機構部38bでの旋回を制御し、それによって、アーム部34a〜34dの動作を制御するとともに、フランジ36の移動を制御する。また、ロボット制御装置50は、フランジ36の姿勢を示す情報をリアルタイムで更新して保持し、その情報を出力することができる。
コントローラ52は、利用者がロボット30の動作を指示するための入力装置である。
ロボット制御装置50は、フランジ36を移動させる際、具体的には、ロボット座標系42を使用して、フランジ座標系44の姿勢を制御する。ロボット座標系42(第1座標系)は、空間内に固定された座標系であって、好ましくは、基部32の底部中心を原点とし、鉛直方向を軸の1つの方向とした直交座標系である。
フランジ座標系44は、フランジ36に対して固定された座標系であり、好ましくは、ランジ36の先端の中心の位置を原点とする直交座標系である。そのため、フランジ36の姿勢の変化に従って、フランジ座標系44の原点の位置及び/又は各軸の方向も、変化する。
マーク40は、上述のようにフランジ36に固定される。そのため、フランジ座標系44におけるマーク40の座標値は、一定となる。また、フランジ36が移動すると、マーク40は、フランジ36との相対的な位置関係を維持しながら移動する。
このように、ロボットシステム10は、カメラ座標系26と、ロボット座標系42と、フランジ座標系44という3つの異なる座標系を使用する。ロボット30をカメラ20によって取得される画像情報に基づいて正確に制御するには、互いに独立した座標系であるロボット座標系42とカメラ座標系26とを対応付けるパラメータが正確である必要がある。両座標系42,26の対応付けに関して、本実施の形態における基本的な考え方について説明する。
まず、フランジ座標系44の固定位置に取り付けられたマーク40の座標値について、ロボット座標系42において(X,Y,Z)とし、カメラ座標系26において(x,y,z)とすると、両座標値の関係は、両座標系を対応付けるパラメータRvとtvとを用いて式(1)で表される。Rvは3×3の回転行列であり、tvは並進ベクトルである。ロボット座標系42とカメラ座標系26とを対応付けるために、Rvとtvとを正確に求める必要がある。
ロボット座標系42又はカメラ座標系26におけるマーク40の位置は、フランジ36の姿勢と、フランジ36に対する相対的な姿勢に依存して決定される。ロボット30は、フランジ36の姿勢を正確に制御できる。しかし、マーク40は、フランジ36に単に固定されるだけであって、フランジ36に対する姿勢を予め決めたものに合わせて固定されるわけではない。そのため、ロボット座標系42におけるマーク40の正確な位置(X,Y,Z)を直ちに取得することはできない。
次に、フランジ座標系44の固定位置に取り付けられたマーク40の座標値について、ロボット座標系42において(X,Y,Z)とし、フランジ座標系44においてtb(一定の位置ベクトル)とすると、両座標値の関係は、両座標系を対応付けるパラメータRfとtfとを用いて式(2)で表される。Rfは3×3の回転行列であり、tfは並進ベクトルである。回転行列Rfと並進ベクトルtfとの組み合わせによって、ロボット座標系42におけるフランジの姿勢が表される。また、
ロボット30は、上述のように、ロボット制御装置50による制御の下で各アーム部34a〜34dを動作させることにより、フランジ36の姿勢を正確に制御する。そのため、回転行列Rfと並進ベクトルtfとは、例えば両座標系42,44の初期状態における回転行列Rf0と並進ベクトルtf0とをロボット制御装置50が記憶しておくことによって、各アーム部34a〜34dの動作に応じてロボット制御装置50の内部で生成できる。
マーク40を認識位置24a〜24eの1つに移動させた場合、式(1)の右辺と式(2)の右辺とが等しいことから、式(3)が導かれる。認識位置24a〜24eのいずれかにあるカメラ座標系26におけるマーク40の座標値を(xi,yi,zi)とし、そのときのフランジ36の姿勢をRfi,tfiとする。
式(3)において、未知数は、tbの3成分、Rvの9成分及びtvの3成分であって、全部で15個ある。また、式(3)は、すべての未知数について一次式である。他方、1つの認識位置から式(3)のx成分,y成分及びz成分の合計3つの一次方程式が得られる。従って、5つの認識位置について、式(3)に相当する方程式を取得することによって、両座標系を対応付けるパラメータRvとtvとを含む全ての未知数を決定することが可能になる。
このような考え方に基づいて、ロボットシステム10は、カメラ座標系26とロボット座標系42という異なる2つの3次元座標系を対応付けるためのパラメータを算出する。
本実施の形態において、カメラ座標系26とロボット座標系42とを対応付けるパラメータを算出するために、操作者が実行する操作及びロボットシステム10が実行する処理について、図3に示すフローチャートを参照して説明する。
利用者は、マーク40をフランジ36に取り付ける(S11)。この時、利用者は、マーク40をフランジ36に固定するだけでよく、フランジ36に対するマーク40の位置や方向を特に意識する必要はない。そのため、この作業に関する利用者の負担は、極めて小さい。
ロボット制御装置50は、以下に詳述する、移動ステップ(S13)と、姿勢及び座標情報取得ステップ(第1及び第2情報取得ステップ;S14)と、記憶ステップ(S15)とを、全ての認識位置24a〜24eの各々について順に繰り返すループAを実行する(S12)。
ロボット制御装置50は、コントローラ52から取得する利用者の指示に従って、ロボット30を制御し、マーク40を認識位置24a〜24eの1つに移動させる(S13)。利用者は、例えばカメラ20から得られる画像をモニタ(図示せず)で観察しながら、コントローラ52を介してロボット30を操作する。
この時、マーク40は認識位置24a〜24eの近傍で視野22の中にあればよく、正確に位置あわせをする必要はない。そのため、移動ステップ(S13)における利用者の負担は、極めて小さい。
ロボット制御装置50は、ロボット座標系42におけるフランジ36(フランジ座標系44)の姿勢を示す姿勢情報(第1情報)、及びセンサ座標系20におけるマーク40の位置を示す座標情報(第2情報)を取得する(S14)。
なお、ロボット制御装置50が姿勢情報及び座標情報を取得する順序は、いかなるものでもよい。すなわち、姿勢情報及び座標情報は、例えば、同時並行で取得されてもよく、又は姿勢情報、座標情報の順で若しくはその逆順で取得されてもよい。
姿勢情報は、例えばロボット制御装置50が行った各アーム部34a〜34dの動作の履歴に基づいて、ロボット制御装置50が算出することによって生成される。座標情報は、カメラ20が生成した画像情報に基づいて、画像処理装置が所定の処理を実行することによって生成される。
画像処理装置が実行する座標情報を生成するための処理は、従来の方法でよく、ここではその一例を説明する。
上記処理は、例えば、標識を示す画像情報(以下、「標識画像情報」という。)を予め記憶し、その標識画像情報を参照するステップと、カメラ20から取得した画像情報と標識画像情報とに基づいてマッピングをするステップと、カメラ20から取得した画像情報が示す画像の中に標識画像情報が示す画像(以下、「標識画像」という。)と一致する部分があると判断した場合に、その一致する部分の中心(重心)の座標を算出するステップと、その座標を示す情報を含む座標情報を生成するステップとを含む。
マッピングは、例えば、カメラ20から取得した画像情報が示す画像について、標識画像と同一の又は相似形の領域に含まれる画素値を取得し、領域と標識画像とで対応付けられる画素の画素値の差の絶対値を合計した値が閾値以下であるか否かににより行われ、合計した値が閾値以下である場合、カメラ20から取得した画像情報が示す画像の中に認識位置画像と一致する部分があると判断し、合計した値が閾値より大きい場合、カメラ20から取得した画像情報が示す画像の中に認識位置画像と一致する部分がないと判断する。
ここから再び、図3を参照する。
ロボット制御装置50は、姿勢及び座標情報取得ステップ(S14)において取得した姿勢情報及び座標情報を、認識位置24a〜24eの1つから取得されたものとして対応付けて、ロボット制御装置50が備える記憶媒体に記憶させる(S15)。
このような、移動ステップ(S13)と姿勢情報及び座標情報取得ステップ(S14)と記憶ステップ(S15)とが、全ての認識位置24a〜24eの各々について終了すると、ロボット制御装置50は、取得した5組(i=1〜5)の姿勢情報Rfi,tfi及び座標情報(xi,yi,zi)を上述の式(3)に適用することによって得られる方程式を解くことにより、カメラ座標系26とロボット座標系42とを対応付けるためのパラメータを算出する(S16)。
以上、本発明の実施の形態1について説明した。本実施の形態によると、マーク40がフランジ36に固定されるだけであり、その固定位置を調整する必要がない。また、マークが移動する位置を正確に操作する必要がない。そのため、利用者の作業負担を軽減することができ、従って、ロボット座標系42とカメラ座標系26という2つの異なる座標系の関係を正確かつ容易に校正することが可能になる。
(実施の形態2)
実施の形態2に係るロボットシステムは、実施の形態1より少ない認識位置にマーク40を移動させることによって、ロボット座標系42とカメラ座標系26との関係を校正する。実施の形態2に係るロボットシステムの構成は、実施の形態1に係るロボットシステムと概ね同じであり、本実施の形態では、マーク40の移動を説明し易くするために、マーク40に描かれる標識を実施の形態1とは異なるものにしている。本実施の形態では、実施の形態1に係るロボットシステム10と同じ構成に関する説明は省略する。
図4は、実施の形態2に係る認識位置の例を示す図である。実施の形態2に係る認識位置の例を示す図である。本実施の形態の認識位置124a〜124dは、実施の形態1と同様に、カメラ20の視野22の中に含まれる空間内の固定位置であり、本実施の形態では図4に示すように4つあり、実施の形態1よりも1つ少ない。本実施の形態においても、認識位置124a〜124dは、好ましくは、視野22の全体に散らばっている。
マーク40の片面には、実施の形態1と同様に所定の標識が描かれている。本実施の形態の標識は、実施の形態1とは異なり、マーク40の位置だけでなく、カメラ20から見た回転方向をも認識できる模様を含む。マーク40の方向を示すための模様は、種々考えられるが、図4には、当該部分として小さい四角形の突起が正方形の一辺の中央に接して配置されている例を示す。
なお、本実施の形態では、説明を容易にするため、小さい四角形の突起を付した標識が描かれたマーク40を用いるが、マーク40は、実施の形態1と同様に、その位置をカメラ20によって認識できるものであればよい。
また、本実施の形態の認識位置124a〜124dは、図2に示すように、空間内の互いに異なる4箇所であればよい。そして、4つの認識位置124a〜124dのうち、3つの認識位置124a〜124cは、ロボット座標系42においてフランジ36が互いに異なる3つの位置で互いに同一の方向を向いた場合に、マーク40が位置付けられる位置である。また、残り1つの認識位置124dは、認識位置124a〜124cにマーク40を位置付ける場合とは、フランジ36が異なる位置で異なる方向を向いた場合に、マーク40が位置付けられる位置である。
マーク40の方向は、フランジ座標系44の方向によって決まる。そのため、認識位置124a〜124cにマーク40が位置付けられる場合、フランジ座標系44の姿勢は、ロボット座標系42において、互いに異なる位置にあり、かつ、互いに同じ方向を向いている。また、認識位置124dにマーク40が位置付けられる場合、フランジ座標系44の姿勢は、ロボット座標系42において、認識位置124a〜124cとは異なる位置にあり、かつ、認識位置124a〜124cにマーク40が位置付けられる場合のフランジ座標系44の方向とは異なる方向を向いている。
なお、認識位置124dにマーク40が位置付けられる場合のフランジ36の方向は、認識位置124a〜124cにマーク40が位置付けられる場合のフランジ36の方向と異なっており、かつ、マーク40の位置をカメラ20から認識できれば、任意の方向でよい。
このように、フランジ36が同じ方向を向いた3つの認識位置124a〜124cとそれとは異なる方向を向いた1つの認識位置124dとを用いることによって、実施の形態1に係る認識位置24a〜24eよりも1つ少ない認識位置124a〜124dを用いてロボット座標系42とカメラ座標系26とを対応付けるためのパラメータを算出することが可能になる。両座標系42,26の対応付けに関して、本実施の形態における基本的な考え方について説明する。
各パラメータと関係式は、実施の形態1に係る式(1)〜式(3)と同様であるが、本実施の形態では、認識位置124a〜124cに移動した場合のマーク40の、カメラ座標系26における座標値を(xi,yi,zi)(i=1〜3)とし、ロボット座標系42におけるフランジ36の姿勢をRfi及びtfi(i=1〜3)とする。認識位置124aに係る座標値及び姿勢は、i=1に対応し、認識位置124bに係る座標値及び姿勢は、i=2に対応し、認識位置124cに係る座標値及び姿勢は、i=3に対応する。
認識位置124dに移動した場合のマークの、カメラ座標系26における座標値を(x4,y4,z4)とし、ロボット座標系42におけるフランジ36の姿勢をRf4及びtf4とする。
ここで、認識位置124aと認識位置124bとは方向が同じである。そのため、フランジ36の方向を変えずに並進するだけで、認識位置124aと認識位置124bとに移動することができ、Rf1=Rf2となり、式(5)が導かれる。
認識位置124aに移動した場合に成立する式(3)と、認識位置124cに移動した場合に成立する式(3)とについても同様に、両辺をそれぞれ引き、更にフランジ36の方向を変えずに移動できることを考慮すると、式(6)が導かれる。
Rvは回転行列であるため、回転行列から選択される任意の1つの行(列)ベクトルについて、大きさが1であり、他の1つの行(列)ベクトルとの内積が0である。このようなRvの性質から導かれる式と、式(5)と、式(6)とから、9つの未知数を含むRvを算出することができる。
Rvを算出されたため、未知数は、tbの各成分の値であって、3つである。従って、式(7)から得られる方程式を解くことによって、tbを算出することができる。
このような考え方に基づいて、図3を参照して説明した、実施の形態1と同様の操作及び処理を実行することによって、カメラ座標系26とロボット座標系42とを対応付けるパラメータは算出される。そのため、本実施の形態では、操作者が実行する操作及びロボットシステム10が実行する処理に関する説明は、省略する。
本実施の形態では、実施の形態1よりも少ない認識位置124a〜124cを使用する。それによって、図3のループA(S12)において繰り返す処理を少なくすることができる。従って、精度を維持しながら、ロボットシステムが実行する処理を減らすことができるため、ロボット座標系42とカメラ座標系26という2つの異なる座標系の関係を正確に、かつより容易に校正することが可能になる。
(実施の形態3)
図5は、実施の形態3に係るロボットシステムの概略図である。実施の形態3に係るロボットシステム310は、実施の形態1に係るロボットシステム10の構成に加えて、ロボット誘導装置354を備える。本実施の形態では、実施の形態1に係るロボットシステム10と同じ構成に関する説明は省略する。
ロボット誘導装置354は、ケーブル353を介して画像処理装置28に、ケーブル354を介してロボット制御装置50に、相互に通信可能に接続されており、画像処理装置28から取得した画像情報に基づいて、マーク40が認識位置24a〜24eに移動するように、ロボット制御装置50を介してフランジ36を誘導する。
具体的には、ロボット誘導装置354は、実施の形態1では利用者の操作に基づいて行われていた移動ステップ(図3のS13)を自動的に実行する。
カメラ座標系26とロボット座標系42とを対応付けるパラメータを算出するために、操作者が実行する操作及びロボットシステム310が実行する処理は、移動ステップ(図3のS13)の詳細を除いて、実施の形態1と概ね同様である。そのため、本実施の形態では、ロボット誘導装置354が実行する移動ステップの詳細についてのみ説明し、その他の実施の形態1と同様の操作及び処理に関する説明は省略する。
図6は、実施の形態3に係るパラメータ算出方法における処理の手順を示すフローチャートである。
ロボット制御装置50は、コントローラ52から取得する利用者の指示に従って、ロボット30を制御し、マーク40を視野22の中に移動させて、マーク40の位置を設定する(S21)。
ロボット30は、視野22の画像情報に基づいてマーク40の移動を制御するため、このステップは、ロボット誘導装置354が自動的に実行するのではなく、利用者の指示に従う。このとき、好ましくは、マーク40のマークが描かれた面は視覚センサで検出しやすいようにカメラ20の光軸と平行な方向(図5では、カメラ座標系26のz軸方向)に向けられている。
ロボットシステム10は、ロボット座標系42の全ての軸方向(x方向,y方向,z方向)について、以下に詳述する、一定量移動ステップ(S23)と、座標値変化取得ステップ(S24)と、記憶ステップ(S25)とを繰り返すループBを実行する(S22)。
ロボット制御装置50は、ロボット座標系42の一軸の方向、例えばx軸方向に(D,0,0)だけ、マーク40を移動させる(S23)。画像処理装置28は、一定量移動ステップ(S23)においてマーク40が移動した場合、カメラ座標系26でのマーク40の座標値の変化(dx1,dy1,dz1)を示す変化情報を取得する(S24)。ロボット制御装置50は、その変化情報を画像処理装置28から取得し、自身が備える記憶手段に記憶させる(S25)。
ロボットシステム10は、ロボット座標系42の他の一軸の方向、例えばy軸方向についても同様の処理を実行する。すなわち、ロボット制御装置50が、ロボット座標系42のy軸方向に(0,D,0)だけ、マーク40を移動させ(S23)、画像処理装置28が、その移動の前後における、カメラ座標系26でのマーク40の座標値の変化(dx2,dy2,dz2)を示す変化情報を取得し(S24)、ロボット制御装置50が、その変化情報を自身が備える記憶手段に記憶させる(S25)。
ロボットシステム10は、ロボット座標系42の残る一軸の方向、例えばz軸方向についても同様の処理を実行する。すなわち、ロボット制御装置50が、ロボット座標系42のz軸方向に(0,0,D)だけ、マーク40を移動させ(S23)、画像処理装置28が、その移動の前後における、カメラ座標系26でのマーク40の座標値の変化(dx3,dy3,dz3)を示す変化情報を取得し(S24)、ロボット制御装置50が、その変化情報を自身が備える記憶手段に記憶させる(S25)。
ここで、一定量移動ステップ(S23)においてマーク40を移動させる距離Dは、予め定められる距離であって、マーク設定ステップ(S21)において設定されるマーク40の位置との関係で、移動後に視野22から外れない程度の距離である。例えば、マーク設定ステップ(S21)において視野22のほぼ中央にマーク40が設定される場合、移動距離Dは、視野22の中の最短移動距離の半分より短い距離、例えば視野22の中の最短移動距離の1/4〜1/3程度に予め決められ、ロボット制御装置50が記憶している。
このように、ロボット座標系42の全ての軸についてループB(S22)を繰り返すことによって、視野22の中でマーク40を任意の姿勢で任意の位置に移動させることが可能になる。その基礎となる考え方をここで説明する。
まず、マーク40の並進移動については、次のように考える。センサ座標系26におけるマーク40の相対移動量(dx,dy,dz)と、ロボット座標系42におけるフランジ36(フランジ座標系44)の相対移動量(dX,dY,dZ)との一般的な関係式(8)を導くことができる。
フランジ座標系44の方向を変えることなく、カメラ座標系26においてマーク40を(dx、dy,dz)だけ相対移動させる場合のロボット座標系42におけるフランジ36の相対移動量(dX,dY,dZ)は、式(8)をもとに、式(9)として導かれる。式(9)を利用することによって、マーク40を視野22の中の任意の位置に並進移動させることができる。
次に、マーク40の、カメラ座標系26の1軸を中心とした回転移動については、次のように考える。カメラ座標系26でのマーク40の相対移動量(1,0,0)がロボット座標系42でのフランジ36の相対移動量(dX1dY1,dZ1)に対応し、カメラ座標系26でのマーク40の相対移動量(0,1,0)がロボット座標系42でのフランジ36の相対移動量(dX2,dY2,dZ2)に対応するとした場合、ロボット座標系42での相対移動量(dX1,dY1,dZ1)及び(dX2,dY2,dZ2)は、式(9)から決定できる。
このとき、(dX1dY1,dZ1)及び(dX2,dY2,dZ2)は、直交しており、かつ、これらを含む面は、カメラ座標系26のz軸に直交する。そのため、その面に垂直な軸を中心にフランジ座標系44を回転させれば、マーク40のマークが描かれた面は、カメラ26の方向を向いたまま方向を変える。従って、(dX1dY1,dZ1)及び(dX2,dY2,dZ2)に垂直な軸を中心とする回転行列に応じてフランジ36の姿勢を変化させることによって、マーク40を回転移動させることができる。
このように、カメラ座標系26で直交する同じ距離の1組の相対移動量に対するロボット座標系42での1組の相対移動量を算出し、算出された1組みの相対移動量を示すベクトルに垂直な軸を中心とする回転行列を利用することによって、カメラ座標系26の1軸を中心にマーク40を回転移動させることができる。
ここで、フランジ36の姿勢を大きく変化させると、マーク40が視野22の外に出てしまうことがある。これを防ぐために、ロボット制御装置50は、画像処理装置28から随時画像情報を取得しながらフランジ36の姿勢を変化させ、マーク40が視野22の外側に近づくと、式(9)に従って並進によってマーク40を視野22の中心近傍に戻した後に、再び画像情報を取得しながらフランジ36の姿勢を変化させる。これを繰り返すことによって、マーク40が視野22から外れることなく、マーク40の方向を任意の方向に変えることができる。
ロボット制御装置50は、画像処理装置28から取得する画像情報に基づいて、マーク40と認識位置24a〜24eのうち目標となるものとの位置(中心)の違いを算出し、当該位置の違いを式(9)に適用することによって、両マークの位置を移動させるために必要なフランジ36の第1動作量を算出する(S26)。ロボット制御装置50は、算出した第1動作量だけフランジ36が移動するようにロボット30を制御することによって、マーク40を並進させる(S27)。
また、ロボット制御装置50は、画像処理装置28から取得する画像情報に基づいて、マーク40と認識位置24a〜24eのうち目標となるものとの方向の違いを算出し、マーク40を回転移動させるための上述の回転行列を当該方向の違いに適用することによって、両マークの方向を移動させるために必要なフランジ36の第2動作量を算出する(S28)。ロボット制御装置50は、算出した第2動作量だけフランジ36が移動するようにロボット30を制御することによって、マーク40を回転させる(S29)。
以上、本発明の実施の形態3について説明した。本実施の形態によると、カメラ20を自動的に移動させることができるため、ロボット座標系42とカメラ座標系26という2つの異なる座標系を対応付けるパラメータをより容易に校正することが可能になる。
なお、本実施の形態では、実施の形態1に係るロボットシステム10を参照して説明したが、実施の形態2に係るロボットシステムについても同様にロボット誘導装置354を適用することができる。実施の形態2では、認識位置124a〜124dが4つだけであり、しかも、そのうち3つの認識位置124a〜124cが同じ方向を向いているため、これらの認識位置124a〜124cの間の移動では、回転が不要になり、計算及び移動に関する処理を低減することができる。
また、実施の形態1のように5つの認識位置を使用する場合、認識位置は、カメラ20の視界内の任意の位置でよく、従って、自動的にマーク40を移動させる場合には、本実施の形態によらず、例えば、ロボット誘導装置354が生成する乱数に従って認識位置を決定して、その認識位置へマーク40を移動させてもよい。
(実施の形態4)
図7は、実施の形態4に係るロボットシステムの概略図である。実施の形態4に係るロボットシステム410は、カメラ20がフランジ36に固定的に取り付けられており、またマークが空間内に配置されていることとを除いて、実施の形態1に係るロボットシステム10と同様の構成を備える。本実施の形態では、実施の形態1に係るロボットシステム10と同じ構成に関する説明は省略する。
カメラ(視点)20は、実施の形態1と同様の構成を有し、画像情報を生成する。フランジ36には、実施の形態1のマーク40に代えて、カメラ20が固定的に取り付けられており、カメラ座標系26とフランジ座標系44とは、互いに固定した位置関係にある。
本実施の形態のマーク424は、1つだけ空間内の固定位置に配置されている。
本実施の形態のマーク424は、1つだけ空間内の固定位置に配置されている。
本実施の形態では、カメラ20を移動させることによって、図8に模式的に示すように、異なる視線方向458a〜458eに適合する認識位置からマーク424を認識する。カメラ座標系26とフランジ座標系44とは、上述のように互いに固定した位置関係にあるが、その正確な関係は不明である。そのため、カメラ20から取得する画像情報に基づいてロボット30を制御するためには、カメラ座標系26とフランジ座標系44とを対応付けるパラメータを校正する必要がある。カメラ座標系26とフランジ座標系44との対応付けに関して、本実施の形態における基本的な考え方について説明する。
まず、フランジ座標系(第3座標系)44での座標値を(XF,YF,ZF)とし、カメラ座標系(第4座標系)26での座標値を(x,y,z)とすると、両座標値は、両座標系を対応付けるパラメータRhとthとを用いて式(10)で表される。Rhは3×3の回転行列であり、thは並進ベクトルである。
フランジ座標は、式(11)によってロボット座標に変換される。Rfは3×3の回転行列であり、tfは並進ベクトルであって、Rfとtfとによって、フランジ36の位置及び方向を含む姿勢が表される。Rfとtfとは、ロボット制御装置50によって制御され、保持されている。
マーク424のロボット座標系42における座標値を(Xm,Ym,Zm)として、ある認識位置に位置付けられた視点からマーク424を認識した時のフランジ36(フランジ座標系44)の姿勢をRfi,tfiとし、その時のマーク424のカメラ座標系26における座標値を(xi,yi,zi)とする。また、他の認識位置に位置付けられた視点からマーク424を認識した時のフランジ36の姿勢をRfj,tfjとし、その時のマーク424のカメラ座標系26における座標値を(xj,yj,zj)とする。これらの変数には、式(12)の関係が成立し、そこから式(13)が導かれる。
式(13)において、未知数は、Rhの9成分及びthの3成分であって、全部で12個ある。また、式(13)は、すべての未知数について一次式である。他方、1つの視点からの認識に基づいて式(13)のx成分,y成分及びz成分の合計3つの一次方程式が得られる。従って、認識位置を5つの視点から認識して、式(13)に相当する式を4つ取得することによって、両座標系を対応付けるパラメータRhとthの全ての未知数を決定することが可能になる。
このような考え方に基づいて、ロボットシステム10は、カメラ座標系26とフランジ座標系44という異なる2つの3次元座標系を対応付けるためのパラメータを算出し、それによって、正確なロボットの制御を実現する。
本実施の形態において、カメラ座標系26とフランジ座標系44とを対応付けるパラメータを算出するために、操作者が実行する操作及びロボットシステム410が実行する処理について、図9に示すフローチャートを参照して説明する。
ロボット制御装置50は、以下に詳述する、カメラ移動ステップ(移動ステップ;S32)と、認識ステップ(S33)と、座標情報取得ステップ(S34)と、姿勢情報取得ステップ(S35)と、記憶ステップ(S36)とを、全ての認識位置458a〜458eについて繰り返すループCを実行する(S31)。
ロボット制御装置50は、コントローラ52から取得する利用者の指示に従って、ロボット30を制御してフランジ36を移動させることによって、カメラ20を視線458aに適合する認識位置に移動させる(S32)。利用者は、実施の形態1と同様に、例えばカメラ20から得られる画像をモニタ(図示せず)で観察しながら、コントローラ52を介してロボット30を操作する。
画像処理装置28は、マーク424を認識し(S33)、これによって、ロボット制御装置50は、カメラ座標系(第4座標系)26におけるマーク424の座標値を示す座標情報(第4情報)を取得する(S34)。
ロボット制御装置50は、ロボット座標系42におけるフランジ36(フランジ座標系44)の姿勢を示す姿勢情報(第3情報)を取得する(S35)。
なお、ロボット制御装置50が座標情報及び姿勢情報を取得する順序は、いかなるものでもよい。すなわち、姿勢情報及び座標情報は、例えば、同時並行で取得されてもよく、又は姿勢情報、座標情報の順で若しくはその逆順で取得されてもよい。
姿勢情報及び座標情報を生成するための処理は、実施の形態1と同様であるため、ここでの詳細な説明は省略する。
ロボット制御装置50は、座標情報取得ステップ(S34)及び姿勢情報取得ステップ(S35)において取得した座標情報及び姿勢情報を、同一の視線(視線458a〜458eの1つ)に適応する認識位置について取得されたものとして対応付けて、ロボット制御装置50が備える記憶媒体に記憶させる(S36)。
このような、カメラ移動ステップ(S32)と、認識ステップ(S33)と、座標情報取得ステップ(S34)と、姿勢情報取得ステップ(S35)と、記憶ステップ(S36)とを、全ての視線458a〜458eの各々について終了すると、ロボット制御装置50は、取得した5組(i=1〜5)の姿勢情報Rfi,tfi及び座標情報(xi,yi,zi)を上述の式(13)に適用することによって得られる方程式を解くことにより、カメラ座標系26とフランジ座標系44とを対応付けるためのパラメータを算出する(S37)。
以上、本発明の実施の形態4について説明した。本実施の形態によると、カメラ20がフランジ36に固定されるだけであり、その固定位置を調整する必要がない。そのため、利用者の作業負担を軽減することができ、従って、カメラ座標系26とフランジ座標系44という2つの異なる座標系の関係を正確かつ容易に校正することが可能になる。
(実施の形態5)
実施の形態5に係るロボットシステムは、実施の形態4に係るロボットシステム410と同様の構成を備えており、実施の形態4に係るロボットシステム410との違いは、マーク424を認識するカメラ(視点)20の認識位置にある。そのため、本実施の形態では、実施の形態4と同様のロボットシステム410に関する説明は省略し、認識位置についてのみ説明する。
図10は、実施の形態5に係るマーク424を認識するための視線方向の例を示す図である。本実施の形態では、4つの異なる認識位置に位置付けたカメラ20から、マーク424を認識する。
第1認識位置と第2認識位置とは、視線460a,460bが平行(第1方向)になる位置であり、マーク424が視野に収まる位置である。視線460a,460bは、同一平面462上にある。
また、第3認識位置と第4認識位置とは、視線460c,460dが平行(第2方向)になる位置であり、マーク424が視野に収まる位置である。視線460c,460dは、同一平面464上にある。視線460a,460bと、視線460c,460dとは、平行ではない。
このような位置にカメラ20を配置することによって、例えば、第1認識位置と第2認識位置とでは、フランジ36の姿勢のうち、方向が同じであるため、Rf1=Rf2、かつ、tf1≠tf2となり、式(13)から、式(14)が導かれる。
式(14)及び式(15)は、式(5)及び式(6)と同様に、回転行列Rhの性質を利用して、これら2つの式からRhを求めることができる。Rhが求まると、第1認識位置及び第3認識位置でのフランジ36の姿勢及びセンサ座標系26での座標値を、式(13)に適用することによって、thを求めることができる。
このような考え方に基づいて、図9を参照して説明した、実施の形態4と同様の操作及び処理を実行することによって、カメラ座標系26とフランジ座標系44とを対応付けるためのパラメータは算出される。そのため、本実施の形態では、操作者が実行する操作及びロボットシステム410が実行する処理に関する説明は、省略する。
本実施の形態では、実施の形態4よりも1つ少ない認識位置からマーク424を認識することによって、カメラ座標系26とフランジ座標系44とを対応付けるためのパラメータを算出する。それによって、図9のループC(S31)において繰り返す処理を少なくすることができるとともに、計算量を少なくすることができる。従って、精度を維持しながら、ロボットシステムが実行する処理を減らすことができるため、カメラ座標系26とフランジ座標系44という2つの異なる座標系の関係を正確に、かつより容易に校正することが可能になる。
(実施の形態6)
図11は、実施の形態6に係るロボットシステムの概略図である。実施の形態6に係るロボットシステム610は、実施の形態4に係るロボットシステム410の構成に加えて、ロボット誘導装置654を備える。本実施の形態では、実施の形態4に係るロボットシステム410と同じ構成に関する説明は省略する。
ロボット誘導装置654は、ケーブル655を介して画像処理装置28に、ケーブル356を介してロボット制御装置50に、相互に通信可能に接続されており、画像処理装置28から取得した画像情報に基づいて、カメラ20が所定の位置に配置されるように、ロボット制御装置50を介してフランジ36とともにカメラ20を誘導する。
具体的には、ロボット誘導装置654は、実施の形態4では利用者の操作に基づいて行われていたカメラ40の移動(S32)を自動的に実行する。本実施の形態では、実施の形態5において説明した4つの視線方向460a〜460dを実現する認識位置にカメラ20を配置するための自動実行の一例について、図12及び図13のフローチャートを参照して説明する。
図12は、実施の形態6に係るパラメータ算出方法における処理の手順を示すフローチャートである。
ロボット制御装置50は、カメラ20を予め決めた第1認識位置へ移動させる(S41)。第1認識位置を示す情報は、例えばロボット制御装置50が記憶している。なお、このステップは、操作者の手動操作によって実行されてもよい。
ロボットシステム610は、第1認識位置において、マークを認識し、座標情報及び姿勢情報を取得し、取得した情報を記憶する(S42)。これらの一連の処理は、図9の認識ステップ(S33)から記憶ステップ(S36)までの一連の処理と同様であるため、ここでの詳細な説明は省略する。
ロボット誘導装置354は、センサ座標系26における並進をさせることによって、カメラ20を第2認識位置に移動させる(S43)。
ここで、センサ座標系26において視線方向を平行移動する方法は、実施の形態3で説明した方法と同様であり、ロボット座標系42の各軸方向に一定量移動させることによって得られるカメラ座標系42における移動量に基づく式(9)を利用して、任意の移動量だけ視線を平行移動させることができる。この移動時に、ロボット誘導装置354は、画像情報を参照することにより、マーク424が視野から外れないように、カメラ20の並進移動を制御する。
ロボットシステム610は、第2認識位置において、マーク424を認識し、座標情報及び姿勢情報を取得し、取得した情報を記憶する(S44)。このステップ(S44)は、第1認識位置におけるステップ(S42)と同様であるため、詳細な説明は省略する。
ロボット誘導装置354は、第3認識位置からマーク424への視線460cに合致する角度にまで、カメラ20を回転移動させる(S45)。
ここで、図13は、カメラ20の角度設定のための移動ステップ(S45)の詳細を示すフローチャートである。
ロボット誘導装置354は、センサ座標系26での回転により、マーク424が視野22の端部になるまでカメラ20を移動させ(S51)、センサ座標系26での並進により認識位置が視野端部22になるまでカメラ20を移動させる(S52)。これらの動きによって、1つの軸を中心にカメラ20を回転させて視線を変えることができる。
ここでの、回転は、実施の形態3と同様に、カメラ座標系26で直交する同じ距離の1組の相対移動量に対するロボット座標系42での1組の相対移動量を算出し、算出された1組みの相対移動量を示すベクトルに垂直な軸を中心とする回転行列を利用することによって、マーク40を回転移動させることができる。
ロボット誘導装置354は、センサ座標系26で第3認識位置の視線460cに合致する角度であるか否かを判定する(S53)。第3認識位置の視線460cに合致する角度でない場合(S53でNO)、カメラ20の並進移動ステップ(S51)及び回転移動ステップ(S52)を繰り返す。第3認識位置の視線460cに合致する角度である場合(S53でYES)、角度設定処理を終了する。
ここから、再び図12を参照する。
ロボット誘導装置354は、センサ座標系26における並進をさせることによって、カメラ20を第3認識位置に移動させる(S46)。角度設定処理(S45)ではカメラ20の角度を設定したため、このステップ(S46)において、位置を調整する。
ロボットシステム610は、第3認識位置において、マーク424を認識し、座標情報及び姿勢情報を取得し、取得した情報を記憶する(S47)。このステップ(S47)は、第1認識位置におけるステップ(S42)と同様であるため、詳細な説明は省略する。
ロボット誘導装置354は、センサ座標系26における並進をさせることによって、カメラ20を第4認識位置に移動させる(S48)。
ロボットシステム610は、第4認識位置において、マーク424を認識し、座標情報及び姿勢情報を取得し、取得した情報を記憶する(S49)。このステップ(S49)は、第1認識位置におけるステップ(S42)と同様であるため、詳細な説明は省略する。
ロボット制御装置50は、第1認識位置から第4認識位置までについて取得した4組(i=1〜4)の姿勢情報Rfi,tfi及び座標情報(xi,yi,zi)座標情報及び姿勢情報を上述の式(13)に適用することによって得られる方程式を解くことにより、カメラ座標系26とフランジ座標系44とを対応付けるためのパラメータを算出する(S50)。
以上、本発明の実施の形態6について説明した。本実施の形態によると、カメラ20を自動的に移動させることができるため、カメラ座標系26とフランジ座標系44という2つの異なる座標系を対応付けるパラメータをより容易に校正することが可能になる。
以上、本発明の実施の形態について説明したが、本発明は、これらの実施の形態に限定されるものではない。
例えば、カメラ20は、一定の範囲内の状態を視覚的に感知して、画像情報を生成する視覚センサの一例であって、実施の形態では、1台のカメラのみを設置しているが、例えば2眼ステレオカメラのように複数の視覚センサを有するカメラ、複数台のカメラ等であってもよい。
例えば、実施の形態では、多関節ロボットを例に説明したが、本発明は、視覚センサを備え、その認識結果に基づいて動作が自動制御されるロボットに適用できる。
例えば、実施の形態では、マーク40の位置を示す代表点をマーク40の中心としたが、代表点は、マーク40に含まれる点のうち、カメラ30から取得される画像情報に基づいて特定可能な任意の点であってよい。
例えば、図6において、並進量算出ステップ(S26)及び回転量算出ステップ(S28)を実行した後に、並進ステップ(S27)及び回転ステップ(S29)を実行する等のように、各ステップが実行される順序は、矛盾しない範囲で変更されてもよい。
本発明は、異なる2つの3次元座標系を対応付けるためのパラメータを校正する装置等に適用でき、例えば、視覚センサで対象物を認識し、その対象物に対して自動的に所定の処理を実行するロボット等の装置に適用できる。
10,310、410、610 ロボットシステム、20 カメラ、24a,24b,24c,24d,24e,124a,124b,124c,124d,424 認識位置、26 カメラ座標系、28 画像処理装置、30 ロボット、32 基部、34 アーム部、36 フランジ、38a ジョイント部、38b 旋回機構部、40 マーク、42 ロボット座標系、44 フランジ座標系、50 ロボット制御装置、52 コントローラ、354,654 ロボット誘導装置、458a,458b,458c,458d,458e,460a,460b,460c,460d 視線方向
Claims (8)
- 異なる2つの3次元座標系を対応付けるためのパラメータを算出するパラメータ算出方法であって、
第1座標系における並進及び回転を含む移動を制御可能な移動部を移動させることによって、上記移動部を基準とする座標系において位置及び方向を含む姿勢が固定されたマークを認識位置に移動させる移動ステップと、
上記認識位置において、上記移動部の第1座標系における姿勢を示す第1情報を取得し、かつ、第2座標系における上記マークの位置を示す第2情報を取得する第1及び第2情報取得ステップと、
少なくとも4つの上記認識位置について上記移動ステップと上記第1及び第2情報取得ステップとを繰り返すことによって取得される、上記認識位置ごとに対応付けられた上記第1情報と上記第2情報とに基づいて、上記第1座標系と上記第2座標系とを対応付けるためのパラメータを算出するパラメータ算出ステップとを含む
ことを特徴とするパラメータ算出方法。 - 上記移動ステップでは、上記第1座標系において上記移動部が互いに異なる3つの位置で同一の方向を向いた場合に上記マークが位置付けられる3つの認識位置と、上記第1座標系において上記移動部が上記3つの認識位置における場合と異なる1つの位置で異なる方向を向いた場合に上記マークが位置付けられる1つの認識位置とを含む4つの認識位置に上記マークを移動させ、
上記パラメータ算出ステップでは、上記4つの認識位置について上記移動ステップと上記第1及び第2情報取得ステップとを繰り返すことによって取得される、上記認識位置ごとに対応付けられた4組の上記第1情報と上記第2情報とに基づいて、上記第1座標系と上記第2座標系とを対応付けるためのパラメータを算出する
ことを特徴とする請求項1に記載のパラメータ算出方法。 - 上記移動ステップでは、上記マークを自動的に認識位置へ移動させる
ことを特徴とする請求項1又は請求項2に記載のパラメータ算出方法。 - 異なる2つの3次元座標系を対応付けるためのパラメータを算出するパラメータ算出方法であって、
並進及び回転を含む移動を制御可能な移動部とともに移動させることによって、上記移動部を基準とする第3座標系における位置及び方向を含む姿勢が固定された視点を、予め設けられたマークを認識できる認識位置へ移動させる移動ステップと、
上記認識位置において、上記第3座標系の姿勢を示す第3情報を取得し、かつ、上記視点を基準とする第4座標系における上記マークの位置を示す第4情報を取得する第3及び第4情報取得ステップと、
少なくとも4つの上記認識位置について上記移動ステップと上記第3及び第4情報取得ステップとを繰り返すことによって取得される、上記認識位置ごとに対応付けられた上記第3情報と上記第4情報とに基づいて、上記第3座標系と上記第4座標系とを対応付けるためのパラメータを算出するパラメータ算出ステップとを含む
ことを特徴とするパラメータ算出方法。 - 上記移動ステップでは、上記視点から上記マークに向けた視線が第1方向となる第1認識位置と、視線が上記第1方向と平行な第2方向となる第2認識位置と、視線が上記第1方向と平行でない第3方向となるとなる第3認識位置と、視線が上記第3方向と平行な第4方向となる第4認識位置とを含む4つの認識位置へ上記視点を移動させ、
上記パラメータ算出ステップでは、上記4つの認識位置について上記移動ステップと上記第3及び第4情報取得ステップとを繰り返すことによって取得される、上記認識位置ごとに対応付けられた4組の上記第3情報と第4情報とに基づいて、上記第3座標系と上記第4座標系とを対応付けるためのパラメータを算出する
ことを特徴とする請求項4に記載のパラメータ算出方法。 - 上記移動ステップでは、上記マークを自動的に認識位置へ移動させる
ことを特徴とする請求項4又は請求項5に記載のパラメータ算出方法。 - 異なる2つの3次元座標系を対応付けるためのパラメータを算出するパラメータ算出装置であって、
第1座標系における並進及び回転を含む移動を制御可能な移動部を移動させることによって、上記移動部を基準とする座標系において位置及び方向を含む姿勢が固定されたマークを予め決めた認識位置に移動させる移動制御手段と、
上記認識位置において、上記移動部の第1座標系における姿勢を示す第1情報を取得し、かつ、第2座標系における上記マークの位置を示す第2情報を取得する第1及び第2情報取得手段と、
少なくとも4つの上記認識位置について上記移動制御手段と上記第1及び第2情報取得手段とによって取得される、上記認識位置ごとに対応付けられた上記第1情報と上記第2情報とに基づいて、上記第1座標系と上記第2座標系とを対応付けるためのパラメータを算出するパラメータ算出手段とを備える
ことを特徴とするパラメータ算出装置。 - 異なる2つの3次元座標系を対応付けるためのパラメータを算出するパラメータ算出装置であって、
並進及び回転を含む移動を制御可能な移動部を移動させることによって、上記移動部を基準とする第3座標系における位置及び方向を含む姿勢が固定された視点を、予め設けられたマークを認識できる認識位置へ移動させる移動制御手段と、
上記認識位置において、上記第3座標系の姿勢を示す第3情報を取得し、かつ、上記視点を基準とする第4座標系における上記マークの位置を示す第4情報を取得する第3及び第4情報取得手段と、
少なくとも4つの上記認識位置について上記移動制御手段と上記第3及び第4情報取得手段とによって取得される、上記認識位置ごとに対応付けられた上記第3情報と上記第4情報とに基づいて、上記第3座標系と上記第4座標系とを対応付けるためのパラメータを算出するパラメータ算出手段とを備える
ことを特徴とするパラメータ算出装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009032623A JP2010188439A (ja) | 2009-02-16 | 2009-02-16 | パラメータ算出方法及びパラメータ算出装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009032623A JP2010188439A (ja) | 2009-02-16 | 2009-02-16 | パラメータ算出方法及びパラメータ算出装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2010188439A true JP2010188439A (ja) | 2010-09-02 |
Family
ID=42815059
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009032623A Pending JP2010188439A (ja) | 2009-02-16 | 2009-02-16 | パラメータ算出方法及びパラメータ算出装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2010188439A (ja) |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012091280A (ja) * | 2010-10-27 | 2012-05-17 | Mitsubishi Electric Corp | 座標系校正方法及びロボットシステム |
JP2014070978A (ja) * | 2012-09-28 | 2014-04-21 | Denso Wave Inc | キャリブレーション装置、および撮像装置のキャリブレーション方法 |
JP2014069272A (ja) * | 2012-09-28 | 2014-04-21 | Denso Wave Inc | キャリブレーション装置、および撮像装置のキャリブレーション方法 |
JP2014180720A (ja) * | 2013-03-19 | 2014-09-29 | Yaskawa Electric Corp | ロボットシステム及びキャリブレーション方法 |
JP2015042437A (ja) * | 2013-07-22 | 2015-03-05 | キヤノン株式会社 | ロボットシステム及びロボットシステムの校正方法 |
JP2016052695A (ja) * | 2014-09-03 | 2016-04-14 | キヤノン株式会社 | ロボット装置、およびロボット装置の制御方法 |
JP2018111166A (ja) * | 2017-01-12 | 2018-07-19 | ファナック株式会社 | 視覚センサのキャリブレーション装置、方法及びプログラム |
JP2018202608A (ja) * | 2018-09-28 | 2018-12-27 | キヤノン株式会社 | ロボット装置、ロボット装置の制御方法、プログラムおよび記録媒体 |
JP2019014031A (ja) * | 2017-07-11 | 2019-01-31 | セイコーエプソン株式会社 | ロボットの制御装置、ロボット、ロボットシステム、並びに、ロボット用カメラの校正方法 |
WO2019239848A1 (ja) * | 2018-06-15 | 2019-12-19 | オムロン株式会社 | ロボット制御システム |
US11707842B2 (en) | 2018-11-27 | 2023-07-25 | Fanuc Corporation | Robot system and coordinate conversion method |
-
2009
- 2009-02-16 JP JP2009032623A patent/JP2010188439A/ja active Pending
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012091280A (ja) * | 2010-10-27 | 2012-05-17 | Mitsubishi Electric Corp | 座標系校正方法及びロボットシステム |
JP2014070978A (ja) * | 2012-09-28 | 2014-04-21 | Denso Wave Inc | キャリブレーション装置、および撮像装置のキャリブレーション方法 |
JP2014069272A (ja) * | 2012-09-28 | 2014-04-21 | Denso Wave Inc | キャリブレーション装置、および撮像装置のキャリブレーション方法 |
JP2014180720A (ja) * | 2013-03-19 | 2014-09-29 | Yaskawa Electric Corp | ロボットシステム及びキャリブレーション方法 |
JP2015042437A (ja) * | 2013-07-22 | 2015-03-05 | キヤノン株式会社 | ロボットシステム及びロボットシステムの校正方法 |
JP2016052695A (ja) * | 2014-09-03 | 2016-04-14 | キヤノン株式会社 | ロボット装置、およびロボット装置の制御方法 |
JP2018111166A (ja) * | 2017-01-12 | 2018-07-19 | ファナック株式会社 | 視覚センサのキャリブレーション装置、方法及びプログラム |
US10647001B2 (en) | 2017-01-12 | 2020-05-12 | Fanuc Corporation | Calibration device, calibration method, and computer readable medium for visual sensor |
JP2019014031A (ja) * | 2017-07-11 | 2019-01-31 | セイコーエプソン株式会社 | ロボットの制御装置、ロボット、ロボットシステム、並びに、ロボット用カメラの校正方法 |
WO2019239848A1 (ja) * | 2018-06-15 | 2019-12-19 | オムロン株式会社 | ロボット制御システム |
JP2019217571A (ja) * | 2018-06-15 | 2019-12-26 | オムロン株式会社 | ロボット制御システム |
JP7070127B2 (ja) | 2018-06-15 | 2022-05-18 | オムロン株式会社 | ロボット制御システム |
JP2018202608A (ja) * | 2018-09-28 | 2018-12-27 | キヤノン株式会社 | ロボット装置、ロボット装置の制御方法、プログラムおよび記録媒体 |
US11707842B2 (en) | 2018-11-27 | 2023-07-25 | Fanuc Corporation | Robot system and coordinate conversion method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2010188439A (ja) | パラメータ算出方法及びパラメータ算出装置 | |
JP6966582B2 (ja) | ロボットモーション用のビジョンシステムの自動ハンドアイ校正のためのシステム及び方法 | |
JP5371927B2 (ja) | 座標系校正方法及びロボットシステム | |
JP7237483B2 (ja) | ロボットシステムの制御方法、制御プログラム、記録媒体、制御装置、ロボットシステム、物品の製造方法 | |
JP6429473B2 (ja) | ロボットシステム、ロボットシステムの校正方法、プログラム、およびコンピュータ読み取り可能な記録媒体 | |
US9517560B2 (en) | Robot system and calibration method of the robot system | |
JP6657469B2 (ja) | ロボットシステムの自動較正方法 | |
JP6108860B2 (ja) | ロボットシステム及びロボットシステムの制御方法 | |
JP5670416B2 (ja) | ロボットシステム表示装置 | |
WO2018043525A1 (ja) | ロボットシステム、ロボットシステム制御装置、およびロボットシステム制御方法 | |
JP6235664B2 (ja) | ロボットの機構パラメータを校正するために使用される計測装置 | |
JP2016221645A (ja) | ロボット、ロボット制御装置およびロボットシステム | |
JP2018528084A (ja) | ロボットシステムの自動較正方法 | |
JP2016185572A (ja) | ロボット、ロボット制御装置およびロボットシステム | |
JP2017077609A (ja) | ロボットの手首部の機構パラメータを校正する校正装置および校正方法 | |
JP6869159B2 (ja) | ロボットシステム | |
JP2019063955A (ja) | ロボットシステム、動作制御方法及び動作制御プログラム | |
JP7502003B2 (ja) | 移動機械の移動軌跡のずれを取得する装置、及び方法 | |
JP2020069549A (ja) | キャリブレーション方法および把持システム | |
KR20130075712A (ko) | 레이저비전 센서 및 그 보정방법 | |
KR102400965B1 (ko) | 로봇 시스템 및 그 보정 방법 | |
CN115397634A (zh) | 取得机器人的控制坐标系中的视觉传感器的位置的装置、机器人系统、方法以及计算机程序 | |
JP2019055469A (ja) | キャリブレーションを行うロボット制御装置、計測システム及びキャリブレーション方法 | |
US20230053168A1 (en) | Control device for robot, robot system, control method, and program | |
KR20130104284A (ko) | 센서 캘리브레이션 장치 |