JP2006110705A - ロボットのキャリブレーション方法 - Google Patents

ロボットのキャリブレーション方法 Download PDF

Info

Publication number
JP2006110705A
JP2006110705A JP2005032684A JP2005032684A JP2006110705A JP 2006110705 A JP2006110705 A JP 2006110705A JP 2005032684 A JP2005032684 A JP 2005032684A JP 2005032684 A JP2005032684 A JP 2005032684A JP 2006110705 A JP2006110705 A JP 2006110705A
Authority
JP
Japan
Prior art keywords
robot
camera
marker
reference point
imaging surface
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Abandoned
Application number
JP2005032684A
Other languages
English (en)
Other versions
JP2006110705A5 (ja
Inventor
Shingo Ando
慎悟 安藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yaskawa Electric Corp
Original Assignee
Yaskawa Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yaskawa Electric Corp filed Critical Yaskawa Electric Corp
Priority to JP2005032684A priority Critical patent/JP2006110705A/ja
Publication of JP2006110705A publication Critical patent/JP2006110705A/ja
Publication of JP2006110705A5 publication Critical patent/JP2006110705A5/ja
Abandoned legal-status Critical Current

Links

Images

Landscapes

  • Numerical Control (AREA)
  • Manipulator (AREA)

Abstract

【課題】作業者に負担を強いたり、事前の煩わしい設定・調整をしたりせずに、低コスト・短時間で自動的にロボットの機械パラメータ誤差を校正できる方法を提供する。
【解決手段】
1台のカメラの撮像面に設定された仮想基準点とロボットの先端に取り付けたマーカのイメージとが重なるようにロボットを位置決めし、そのときのロボット各軸の動作量と仮想基準点のイメージ座標系での位置とをもとにカメラパラメータの同定精度に関する評価値を計算し、その評価値が最小となるようにする。
【選択図】図2

Description

本発明は、ロボットの各関節軸原点やリンク寸法、ツール寸法など、キネマティクス演算に必要な機械パラメータの誤差を校正するキャリブレーション方法に関するものである。
ロボットのキャリブレーションは、
[1]ロボット内部の機械パラメータ(各間接軸原点パルスやリンク寸法、ツール寸法など)誤差の校正
[2]ロボットのベース座標系とカメラなどセンサ座標系間の相対位置(姿勢を含む)誤差の校正
[3]移動するロボットと作業ステーションとの相対位置(自己位置)誤差の校正
などに大別できる。
上記[1]はロボット先端のツールの絶対位置決め精度を高めるためのものであり、例えば特許文献1の方式がある。上記[2]はカメラなどの視覚センサで計測した物体位置情報をもとにロボットの動作に補正をかけるシステムに関するものであり、特許文献2および特許文献3の方式がある。また、上記[3]を移動するロボットに拡張した上記[3]に関して、特許文献4の方式がある。また、上記[1]に関して、非特許文献1にて従来技術の概要が解説されている。
本発明は特許文献1や非特許文献1と同様に上述した[1]に関するものである。本発明と従来技術の差異を明確に示すため、特許文献1と非特許文献1について、以下により詳細に説明する。
特許文献1では、その第8頁の第3図に示すように3次元空間上の一点(同図の4:教示点)に対して、ツール先端をその姿勢を変えながら複数回位置決めし、そのときの各関節軸の回転角度θをもとに、同文献の式(1)〜(5)にしたがって機械パラメータ誤差(ツールオフセットも含む)を求めている。式(1)は各軸の回転角度θからツール先端の直交座標値を求める順キネマティクス演算式である。この式を(1次の項まで)テーラー展開することによって、機械パラメータ誤差がある場合の直交座標値 ( xi, yi, zi ) が式(3)のように求まる。その座標値と基準点(教示点)座標値 ( X, Y, Z ) との偏差(式(2))の二乗和を最小とする条件を最小二乗法の原理にしたがって式(4)のように導出し、それを整理して式(5)の連立方程式を得ている。
一方、非特許文献1では、ロボットの機械パラメータのキャリブレーション原理が、同文献の式(1)と図3に基づいて説明されている。ここで説明されているキャリブレーション原理と、特許文献1の式(1)〜(5)のキャリブレーション原理は、一見、異なるように見えるが、本質的には等価である。特許文献1に示された式(1)〜(5)を一般化すると、非特許文献1の式(1)に基づいたキャリブレーション原理に集約される。そこで、非特許文献1の式(1)に基づいて、従来のキャリブレーション原理について詳述する。
ロボットの各関節軸の回転角度(ベクトル)をθ、各軸原点やリンク寸法など機械パラメータ(ベクトル)の公称値をqと表す。ロボット座標(直交座標XYZ)から見た計算上のツール先端の位置ベクトルをφとすると、
φ = f(θ, q) (1)
が成り立つ。これは順キネマティクスの演算式に相当する。ここで機械パラメータqは公称値であり、その値には誤差△qが含まれるため、計算上のツール先端位置φと実際のツール先端位置(絶対位置)p間には誤差が含まれる。φとpの関係式は、
p = φ + Jq(θ, q) △q (2)
となる。ここで、Jq(θ,q) は f(θ,q) をqに関して偏微分したものであり、拡張ヤコビ行列と呼ばれる。また、上記の式(2)は非特許文献1の式(1)に相当する。
ロボットの機械パラメータ誤差のキャリブレーションとは、△qを求めることに他ならない。複数の教示点でθとφとpの組を複数計測し、式(2)に代入して整理すると、以下に示す形式の連立方程式が得られる。
A △q = b (3)
ここで、Aは行列、bはベクトルである。計測(教示)回数をN(N:自然数)、ベクトル△qの要素数をM(M:自然数)とすると、AのサイズはN×Mであり、bのサイズはN×1となる。式(3)の連立方程式は、
△q = (AT A)-1T b (4)
の行列演算によって解くことができる。ただし、N≧Mである必要がある。
特許文献1では、3次元空間上の同一の基準点pに対してツール先端をその姿勢を変えながら複数回教示(位置決め)し、そのときのθとφを計測している。ツール先端位置は同一(p)であるが、その姿勢を変えているので計測したθとφは姿勢毎に異なる値となる。また、基準点pの絶対座標値は未知であるが、pは固定なので複数の式(2)からpを消去することによって連立方程式(3)を導出できる。
ツール先端を同一の基準点に位置決めする際、位置決め誤差が発生する。また、θを計測する際にも量子化などの誤差が発生する。このように計測値には必ず誤差が含まれるので、厳密な意味で式(3)の連立方程式を満足する△qは求められない。式(4)に基づいて△qを求めることは、
G = (A △q − b)T (A △q − b) (5)
を最小とする△qを求めることに等価であり、これは最小二乗法に他ならない。したがって、特許文献1のキャリブレーション原理は、上述したキャリブレーション原理(非特許文献1)と本質的に等価となる。また、測定点数Nを大きくすることによって、測定誤差が△qに与える影響を小さくすることができる。
第2640339号公報(式(1)〜(5)、第3図) 第2700965号公報(請求項1、第3頁(ハ)) 特開平10−340112号公報(請求項1) 特開平10−11146号公報(請求項1、請求項2、第1図) 中村,「ロボットの機械誤差キャリブレーション技術と生産ラインにおける現状」、日本ロボット学会誌 Vol.15, No.2, pp.178-182, 1997(式(1)、図3)
しかしながら、特許文献1の方法では、その第8頁の第3図に示すようにツール先端を手動で基準点(3次元空間上の任意の一点)に何回も位置合わせしなければならず、時間がかかる上、目視でツール先端を基準点(通常は機械的なピン)にぎりぎりまで近づけた状態にするので、作業者に負担を強いるという問題がある。
また、特許文献2および特許文献3は、ロボットの基準動作を予め登録しておくことにより、キャリブレーションの自動化と時間短縮を目的としたものであるが、エンドエフェクタの絶対位置決め精度が保証されている(上記[1]のキャリブレーションは済んでいる)ことを前提としている。しかし、エンドエフェクタの絶対値決め精度保証方法については何ら言及しておらず、特許文献2および3の方式によってロボット内部の機械パラメータ誤差を自動的に短時間でキャリブレーションすることはできないという問題がある。
さらに特許文献2および3の方式には、予め教示したロボットの基準動作がカメラの視野内に収まるようにカメラの設置位置を調整するか、ロボットの動作を教示するといった煩わしい設定が必要という問題もある。
さらに、特許文献2では、3次元のキャリブレーションのためには3台のカメラを必要としており、コストがかかる上、カメラの台数分だけ作業時間が長くなるという問題もある。
特許文献4でも1台のカメラに2軸の傾斜角センサ(ジャイロセンサ)を併用して3次元に対応しており同様の問題を抱えている。特許文献3に至っては平面内の動作に限定しており、3次元のキャリブレーションには対応できない。
本発明は、このような問題点に鑑みてなされたものであり、作業者に負担を強いたり、事前の煩わしい設定・調整をしたりせずに、低コスト・短時間で自動的にロボットの機械パラメータ誤差を校正できる方法を提供することを目的としている。
上記問題を解決するため、本発明は、次のようにしたのである。
請求項1に記載の発明は、ロボットの機械パラメータの誤差を校正するキャリブレーション方法において、前記ロボットにマーカを取り付け、前記マーカが撮像できる位置にカメラを1台設置する第1のステップと、前記マーカの移動範囲かつ前記カメラの撮像範囲である3次元空間上に複数の基準点を設定する第2のステップと、前記ロボットを操作して前記マーカを各々の前記基準点に位置決めする第3のステップと、位置決め時の前記ロボットの各関節軸の動作量(以降、各軸動作量という)と前記カメラの撮像面における前記マーカのイメージの位置(以降、撮像面座標値という)とを取得する第4のステップと、
前記各軸動作量と前記撮像面座標値とをもとに前記ロボットの機械パラメータの誤差を校正する第5のステップからなることを特徴とする。
請求項2に記載の発明は、前記第3のステップにおいて、前記カメラの撮像面に前記基準点を仮想的に投影した仮想基準点を表示し、前記カメラの撮像面において前記仮想基準点と前記マーカイメージとが重なるように前記ロボットを操作して、前記マーカを前記基準点に位置決めすることを特徴とする。
請求項3に記載の発明は、前記第3のステップにおいて、前記カメラの撮像面に仮想基準点を表示し、前記カメラの撮像面において前記仮想基準点と前記マーカイメージとが重なるように前記ロボットを位置決めし、その時の前記マーカの3次元空間上の位置を前記第2のステップにおける基準点とすることを特徴とする。
請求項4に記載の発明は、前記第5のステップにおいて、前記各軸動作量と前記撮像面座標値とをもとに前記カメラのカメラパラメータの同定精度に関する評価値を計算し、前記評価値が最小となるように前記ロボットの機械パラメータの誤差を校正することを特徴とする。
請求項5に記載の発明は、前記各軸動作量と前記機械パラメータとをもとに前記マーカの直交座標値を計算し、前記マーカの直交座標値と前記仮想基準点の位置の設定値をもとに前記カメラパラメータを同定し、前記同定されたカメラパラメータと前記マーカの直交座標値とをもとに前記カメラの撮像面における前記仮想基準点の位置を計算し、前記カメラの撮像面における前記仮想基準点の設定値と計算値との偏差に基づいて前記評価値を計算することを特徴とする。
請求項6に記載の発明は、前記第3のステップにおいて、前記機械パラメータの誤差による前記マーカの直交座標値の微小変化が前記撮像面座標値の変化に反映されるように前記ツールの姿勢を制御することを特徴とする。
請求項7に記載の発明は、前記第3のステップにおいて、前記ロボットの運動自由度のうち、1つ以上を所定範囲に拘束し、前記仮想基準点と前記撮像面座標値との偏差をもとに、他の運動自由度の動作を制御することによってロボットの前記位置決め処理を自動化することを特徴とする。
請求項8に記載の発明は、前記第3のステップにおいて、前記カメラの撮像面における前記マーカイメージの面積に応じて、前記ロボットの運動自由度のうち、1つ以上を所定範囲に拘束することを特徴とする。
請求項9に記載の発明は、前記第1のステップまたは前記第2のステップにおいて、前記カメラの撮像面における前記マーカイメージの面積に応じて、前記カメラと前記基準点との距離を調整することを特徴とする。
請求項10に記載の発明は、適当な順序で3次元空間上の前記複数の基準点に位置決めするロボットの動作プログラムを予め作成し、前記第3のステップにおいて、前記動作プログラムをプレイバックし、前記第4のステップにおいて、前記カメラの撮像範囲に前記マーカが写った場合に、前記ロボットの各軸動作量と前記マーカイメージの撮像面座標値とを取得することを特徴とする。
請求項1乃至6に記載の発明によると、ロボットのツールに取り付けたマーカの撮像イメージと1台のカメラの撮像面に仮想的に投影された仮想基準点とが重なるように、ツール姿勢を変えながらロボットを位置決めすることによって、ロボットの機械パラメータを修正できるので、キャリブレーション用装置のコスト増加や作業者への負担を強いることなく、また事前の煩わしい設定・調整をせずとも、ロボットの機械パラメータ誤差を校正できる。
また、請求項7に記載の発明によると、ロボットの運動自由度のうち、1つ以上を所定範囲に拘束し、カメラの撮像面における仮想基準点とマーカとの偏差をもとに、他の運動自由度の動作を制御することによって上記のロボットの位置決め処理を自動化できるので、ロボットの機械パラメータ誤差の校正の作業を短時間化かつ省力化できる。
また、請求項8乃至9に記載の発明によると、カメラの撮像面におけるマーカイメージの面積を利用することによって、カメラからマーカまでの距離を所定範囲に拘束することができるので、キャリブレーション精度を一定に保つことができる。
また、請求項10に記載の発明によると、適当な順序で3次元空間上の複数の基準点に位置決めするロボットの動作プログラムを予め作成し、動作プログラムをプレイバックすることによって第3のステップの処理を自動化できるので、少ない情報通信量でロボットの機械パラメータ誤差の校正作業を短時間化かつ省力化できる。
以下、本発明の方法の具体的実施例について、図に基づいて説明する。
図1は、本発明のキャリブレーション方法を適用する装置の構成図である。
図1において、101はキャリブレーション対象となる多関節ロボットである。102は多関節ロボット101の先端に取り付けられたキャリブレーション用ツールである。ツール102の先端にはマーカ103を取り付ける。マーカとしては、LEDを使用したLEDマーカや、反射テープや反射塗料を使用した反射マーカなどが利用できる。多関節ロボット101本体はロボット制御装置104に接続されており、ツール102に取り付けられたマーカ103の位置を操作端末105を介して操作することができる。ロボット制御装置104内には動作指令生成部104aとサーボ処理部104bが含まれ、主にこれらの働きにより多関節ロボット101の動作制御が実現される。また、106は多関節ロボット101のベース座標系Σrである。
続いて多関節ロボット101の近傍にカメラ107を1台設置する。カメラの設置位置についてはツール102の動作に伴い移動するマーカ103が撮像できる場所であればよく、精度管理することなく適当に設置してよい。また、カメラ107としては、具体的にはCCDカメラが最も一般的であるがマーカ103を撮像できる装置であればよく、これに限ったものではない。また、109はカメラ座標系である。
カメラ107が撮影した画像信号は画像処理装置108に送られ、その画像表示部108aに表示される。画像処理装置108内の校正演算部108bは、本発明のキャリブレーション方法をプログラムとして実装したものである。画像処理装置108としてはパソコンやワークステーション等が適当である。ただし、本実施例では校正演算部を画像処理装置108内に実装したが、本発明は校正演算部の実装個所に囚われるものではなく、校正演算部はロボット制御装置104内に実装してもよい。
図2は、本発明のキャリブレーション方法の処理手順を示したフローチャートである。
フローチャートに従い、キャリブレーション方法の手順を述べる。図2において、S201の初期設定処理では、まず校正するロボットの機械パラメータqの初期値qoの設定や、後述する仮想基準点の個数N(N:2以上の自然数)の設定を行う。機械パラメータとは、具体的には各関節軸の原点位置や関節間のリンク寸法などである。
S202の仮想基準点設定処理では、図3に示すようにカメラ107の撮像面302上に仮想基準点301をN個設定し、カメラ107の撮影した画像と併せ画像表示部108aに表示する。図3はN=8の例であり、仮想基準点を“+”で表示している。
以降、k番目の仮想基準点を仮想基準点kとし、その座標値を ( Uk, Vk ) と表す (k=1,2, …, N)。この座標値は、カメラの撮像面302上のイメージ座標系303を基準に設定する。また、イメージ座標系303とカメラ座標系109は、理想的には図3に示すような位置関係にあり、両座標系の原点間の距離はカメラ107のレンズの焦点距離fとなる。
続いてS203のロボット関節角取得処理では、図4に示すように、カメラの撮像面302上に写るマーカ103のイメージ401の重心402が仮想基準点kと重なるよう、作業者が多関節ロボット101を操作し、そのときの各関節角度(関節角ベクトル)θkを取得する。N個の各仮想基準点に対し同様にしてθkを取得する。ここで仮想基準点について説明する。仮想基準点とは、3次元空間上の基準点(実際に目に見えなくてもよい)を撮像面302上に仮想的に投影したイメージであり、上述したように、マーカイメージ401が仮想基準点301に重なるようロボットを操作することによって、マーカ103は3次元空間上の基準点に位置決めされる。
重心402は画像処理装置108によって求める。画像処理装置108は、イメージ401を2値化処理してその重心座標を計算し、画像表示部108aに重心402をスーパーインポーズする。作業者は図4のように画像表示部108aに表示された画像データを見ながら操作端末105を使って多関節ロボット101を操作すればよい。図4では重心402を“+”で表示している。
S204は、評価値に基づいた停止判断処理である。評価値の詳細については後述する。
S205の機械パラメータ修正候補生成処理では、機械パラメータの現在値qc(最初に処理されるときは初期値qo)を基準にその修正候補値をL個作成する(L:自然数)。ここではその候補値をqr_j ( j=1,2, …, L ) と表す。2次元の機械パラメータの空間Σqを例にとると、図5に示すように、機械パラメータの現在値qc(501)の近傍502に修正候補値503a〜503hを生成する。
例えば、修正量をε(近傍502の半径)とし、各パラメータについて、−ε,0,+εのように3通りの修正の仕方を考えると、機械パラメータの要素数がM(機械パラメータの空間の次元)の場合は、L=3−1通りの修正候補値が得られる。2次元の機械パラメータの空間(M=2)の場合はL=8、3次元の機械パラメータ空間(M=3)の場合はL=26となる(4次元以上の機械パラメータ空間に対しても同様にできるが修正候補値を図示できない)。図5はこの例に基づき修正候補値を8個生成した例であるが、これに囚われることなく任意個数生成することができる。例えば、半径εの近傍(球)の表面上に適当な間隔で修正候補値を設定すればよい。
S206-1からS206-7は、S205で複数生成した機械パラメータ修正候補値qr_jそれぞれに対する繰り返し処理であり、j=1からLまでの繰り返し処理を行う。
S206-2のマーカ直交座標値計算処理では、機械パラメータ修正候補値qr_jを使用し、S203で取得したロボットの関節角ベクトルθk (k=1,2, …, N) に対して次式のように順キネマティクス演算し、多関節ロボット101のベース座標系106におけるツール102先端のマーカ103の計算上の直交座標値φk = ( Xk, Yk, Zk ) を求める。
φk = f( θk, qr_j ) (ただしk=1,2,・・・,N) (6)
S206-3のカメラパラメータ同定処理では、S202で設定した仮想基準点kの座標値 ( Uk, Vk ) とS206-2で求めたマーカ103の直交座標値φk = ( Xk, Yk, Zk ) (k=1,2, …, N) とをもとに、次の式(7)に示すカメラパラメータc1〜c11を同定する。式(7)は理想的なカメラ(ピンホールカメラ)モデルに関する直交座標系からイメージ座標系303への座標変換式であり、透視変換と呼ばれる。また、mはスケールファクタである(m:実数)。
Figure 2006110705
具体的にカメラパラメータc1〜c11を同定するには、c1からc11を未知数とし、Uk, Vk, Xk, Yk, Zkを既知としたk=1からNまでの連立方程式を解く。式(7)からスケールファクタmを消去して整理すると次式が得られる。
Figure 2006110705
式(8)に示すように、一つの仮想基準点kから連立方程式が2本得られる。未知数の数は11個(c1〜c11)であるから、Nが6以上であれば連立方程式の本数が未知数以上となり、全てのカメラパラメータを同定できる。なお、同定したカメラパラメータをc1〜c11と表す。
続いてS206-4の仮想基準点座標値計算処理では、S206-3で同定したカメラパラメータc1〜c11とS206-2で求めたマーカ103の直交座標値φk = ( Xk, Yk, Zk ) を使用して、仮想基準点kの座標値を次式に基づいてk=1からNについて計算(逆算)する。このようにして計算した仮想基準点kのイメージ座標系303に基づく座標値を ( Uk, Vk ) と表す。
Figure 2006110705
S206-5の評価値計算処理では、S202で設定した仮想基準点kの座標値 ( Uk, Vk ) と、S206-4にて計算した仮想基準点kの座標値 ( Uk, Vk ) との偏差の二乗和を次式のように計算し、その値を評価値Eとする。
Figure 2006110705
S206-6の候補値・評価値保存処理では、機械パラメータ修正候補値qr_jと評価値Eを画像処理装置108内のバッファ(図示せず)に保存する。
S206-7はループ処理の終端であり、jに1を加算してS206-1に戻る。jがLに達してS206-1〜S206-7のループが終了すると、S205で生成した機械パラメータの修正候補値に対するそれぞれの評価値Eがバッファに保存された状態になる。
S207の機械パラメータ修正処理では、バッファに保存されたそれぞれの評価値Eを比較し、図6に示すように評価値Eが最小となる修正候補値qr_min(図6の例では503b)を検索し、現在値qc(図6の例では501)をqr_minに置き換える。また、その評価値を現在値Ecとして保存する。
S207の機械パラメータの修正(現在値qcの更新)が終了すると、S204の停止判断処理に戻る。
S204では、S207で保存したEcとその前回値Ep(S207でEcを保存する前に、その前回値をEpとして保存しておく)とを比較し、その偏差Ep−Ecが予め定めた値以下の場合にはS204 以降の処理をせず、S208にて現在の機械パラメータqcを校正完了値として取得して全ての処理を終了する。偏差Ep−Ecが予め定めた値以上の場合には再びS205を実行し、更新された機械パラメータ現在値qcに対して、上述したS206 およびS207の処理を繰り返す。
なおS207では、バッファに保存された評価値Eの最小値が現在値Ecより大きくなる場合は、機械パラメータ現在値qcを更新せず、図5および6に示した近傍502の半径εを小さくする。
図9は、バッファに保存された評価値Eの最小値が現在値Ecより大きくなった状況を、1次元の機械パラメータ空間について示している。同図に示すように、機械パラメータの修正候補値503aと503bで評価値が最小となるものは503bであるが、その評価値(15)は現在値(10)より大きくなってしまっている。これは、近傍502の半径εを大きく設定しすぎたため、半径εの内側にEが最小となる最適値901が存在するからである。このような場合には、例えばεを半分にして、修正候補値503aと503bを再生成することによって、機械パラメータの現在値は次第にその最適値901に近づいていく。
以上、本発明の処理を説明したが、以下では本発明の校正の原理について説明する。
S206-2において式(6)に基づいて計算したマーカの直交座標値φkは、与えた機械パラメータqr_jが適切でなく、真値から大きくずれている場合、マーカの直交座標値の絶対位置pkから大きくずれることになる。そのため、S206-3において誤差の大きなφkに基づいて同定したカメラパラメータc1〜c11にも誤差が含まれることになる。したがって、S206-4で式(9)に基づいて計算した仮想基準点の座標値 ( Uk, Vk ) とその設定値 ( Uk, Vk ) には偏差が生じる。式(10)に示した仮想基準点の偏差の二乗和Eは、カメラパラメータの同定精度に関する評価指標となるが、これは同時に、計算上のマーカの直交座標値φkとその絶対位置pkとの誤差の大きさを間接的に示している。すなわち、式(10)の評価値Eが小さいほど、φkとpkの誤差は平均的に(二乗平均の意味で)小さくなる。
本発明は、この知見に基づき、評価値Eが小さくなる方向にロボットの機械パラメータqの値を修正することを繰り返し、Eを最小化することによって最適な機械パラメータqを求めるものであり、従来技術のように式(2)に基づく連立方程式を解かずに△qを求めるという方法である。
ただし、校正しようとする機械パラメータの微小変化によるマーカの直交座標値の微小変化が、イメージ座標系303でのマーカイメージ401の位置変化に反映されないと最適化できない。そこで、S203にて多関節ロボット101を操作してマーカイメージ重心402を仮想基準点に位置決めする際には、仮想基準点ごとにツール102の姿勢角を適切に変更する。
また、式(7)のカメラパラメータを同定するためには、上述のようにNは6以上である必要があり、さらにマーカの直交座標値φkが全て同一平面上にあってはならない。したがって、カメラ107からマーカ103までの距離も仮想基準点ごとに適切に変更する。
なお、ツール102の姿勢角やカメラ107との距離は適切に制御する必要があるが、カメラ107自体の設置位置に関しては適当でよく、精度管理する必要はない。したがってカメラの設置や調整に時間を要することはない。さらに必要なカメラは1台のみのため装置のコストも低く抑えられる。また、マーカ103を3次元空間上の基準点に位置決めする際に、基準点に位置決めされているかどうかを3方向から確認する必要は無く、カメラ撮像面302上でマーカイメージ重心402を仮想基準点に重ね合わせる平面的な確認だけで済むので作業者の負担を軽減できる。
以上説明したように、第1実施例によれば、カメラ1台の撮像面に設定された仮想基準点にツール102に取り付けたマーカ103のイメージが重なるように、多関節ロボット101をそのツール姿勢を変えながら位置決めし、そのときのロボット各軸の動作量と仮想基準点のイメージ座標系での位置とをもとにカメラパラメータの同定精度に関する評価値を計算し、その評価値が最小となるようにすることで機械パラメータが修正できるので、装置のコストや作業者への負担をかけず、事前の煩わしい設定・調整なしに多関節ロボットの機械パラメータ誤差を校正できるのである。
ここでは、仮想基準点を先に定めてカメラ撮像面302に表示し、マーカイメージ重心402が仮想基準点に重なるようにロボット101を操作したときの3次元空間上のマーカ103の座標値を基準点としたが、3次元空間上の基準点の座標値を先に定め、基準点にマーカ103を位置決めしたときのカメラ撮像面302におけるマーカイメージ重心402の座標値を仮想基準点としてよい。すなわち本発明においては基準点と仮想基準点の設定順序に囚われずどちらから先に設定してもよい。
図4に示したようにカメラの撮像面302上でマーカイメージ重心402を仮想基準点301に重ね合わせる際、マーカ103の3次元空間における絶対位置はカメラ107の撮像面の分解能とカメラ107からマーカ103までの距離に応じてばらつくことになる。ばらつき量が大きいと、機械パラメータの校正精度が悪化してしまう。
校正精度の悪化を防ぐためには、カメラ107からマーカ103までの距離を十分小さくしてバラツキ量を小さくするとともに、仮想基準点の数Nを大きくする必要がある。
一方、仮想基準点数が増えると、図1に示す操作端末105を介して手動で多関節ロボット101を操作していたのでは、全ての仮想基準点に対してマーカを位置決めするための時間が増大する。
そこで、第2実施例として上記の多関節ロボット101の操作(図2のS203に対応)を自動化した実施形態を示す。
図7は、図2のS203のロボット関節角取得処理を自動化した処理手順のフローチャートである。同図において、S701からS706までは画像処理装置108内での処理、S708-1からS708-7まではロボット制御装置104内での処理である。
S701の変換行列設定処理では、多関節ロボット101のベース座標系106とイメージ座標系303間の座標変換行列を設定する。ただし、厳密な変換行列を導出して設定する必要はなく、座標軸の方向の対応関係を±1および0で表現したもので構わない。
例えば、両座標系が図8に示すような位置関係にある場合、変換行列を次式のように設定する。式(11)は、Uiの正方向がYrの正方向にほぼ一致し、Viの負方向がZrの正方向にほぼ一致し、Xr軸はカメラの撮像面に対してほぼ垂直であることを示している。
Figure 2006110705
S702の仮想基準点選択処理では、N個の仮想基準点の中から1つの仮想基準点kを選択する。
S703の拘束座標値・ツール姿勢設定処理では、マーカ103の直交座標値 (Xr, Yr, Zr ) の内、拘束する自由度を式(11)の変換行列から決定しその値を設定する。
また、ツール102の姿勢角についても設定する。式(11)の変換行列の例では、ロボットがXr軸方向に動作しても( Ui, Vi ) の値はほとんど変化しないので、Xrを拘束自由度とする。
S704の拘束座標値・ツール姿勢送信処理では、S703で設定した拘束自由度座標値とツール姿勢角が画像処理装置108からロボット制御装置104に送信される。ロボット制御装置104側では、受信した拘束座標値とツール姿勢角に基づき動作制御がなされる。
Xrの拘束座標値は、カメラ107からマーカ103までの距離を基準に設定する。例えば、カメラ107からマーカ103までの距離を200mm程度にしたいとする(この値はカメラ撮像面の分解能、使用しているレンズ、マーカの大きさ、周囲の照明状態により異なってくる)。このマーカまでの距離が200mm程度になるようにXrを例えば400mmという具合に決定する。
このようにXrの拘束座標値を適当に設定すればよいのでカメラ設定位置の精度管理が不要になる。また、マーカ103の3次元座標値のうちXrを400mmに拘束したとき、マーカ103はYr-Zr平面上を動作することになる。図10に示すように、以降、Xr = 400mmとしたYr-Zr平面を平面A(1001)と表す。
S705-1からS705-7は画像処理のループである。一般的なCCDカメラによる画像処理装置の場合、ビデオレート(33ms周期)でループが動作する。
S705-2のマーカイメージ重心計算処理では、図4に示したようにマーカイメージ401の重心402の(イメージ座標303から見た)座標値を画像処理によって取得し、カメラ107の撮影した画像と併せ画像表示部108aに表示する。
S705-3のイメージ座標偏差計算処理では、図8に示すように、S702で選択した仮想基準点301の座標値とマーカイメージ重心402の(イメージ座標系303から見た)偏差ベクトル801を計算する。イメージ座標での偏差ベクトル801を Ierr = ( Uerr, Verr ) と表す。
S705-4のロボット速度指令計算処理では、S705-3で計算したイメージ座標偏差IerrとS701で設定した変換行列をもとに次式のように多関節ロボット101への速度指令ベクトル Vref = ( Vref_x, Vref_y, Vref_z ) を計算する。ここで、αはゲインを表す正数である。また、式(12)の例では、Xr方向の速度指令Vref_xは常にゼロとなる。したがって、マーカ103はYr-Zr平面上で動作する。
Figure 2006110705
S705-5のロボット速度指令送信処理では、S705-4で計算した速度指令ベクトルVrefが画像処理装置108からロボット制御装置104に送信される。ロボット制御装置104側では、受信した速度指令に基づき動作制御がなされる。
S705-6の整定確認処理では、イメージ座標偏差Ierrを監視し、偏差がゼロになったら整定完了と判断し、S706にて整定時の多関節ロボット101の関節角ベクトルθkを取得し、S702の仮想基準点選択処理に戻る。偏差Ierrがゼロでない場合は、画像処理ループの先頭(S705-1)に戻って同様の処理を繰り返す。
一方、ロボット制御装置104の動作指令生成部104aでは、S708-1からS708-7の動作指令生成ループが動作している。S708-2の軌道生成処理では、S704から送信された拘束自由度座標値とツール姿勢角やS705-5から送信された速度指令Vrefをもとにロボットの動作軌道を生成する。
S708-3の動作範囲チェック処理では、多関節ロボット101のツール先端や各関節角度が動作範囲リミットに達したかどうかを監視し、リミットに達した場合は、S703に戻り拘束自由度の座標値やツール姿勢角を修正する。リミットに達していない場合は、S708-4にてS708-2で生成された軌道データをサーボ処理部104bに払い出す。
S708-5の整定確認処理では、S705-5から送信された速度指令Vrefと実機ロボットの速度フィードバックを監視し、その両者ともゼロになった場合に整定完了と判断し、S708-6にて整定時の多関節ロボット101の関節角ベクトルθkを画像処理装置108に送信する。画像処理装置108側では、上述したようにS706で送信されたθkを取得する。整定が完了しない場合は、動作指令生成ループの先頭(S708-1)に戻って同様の処理を繰り返す。
図7に示したフィードバック処理を繰り返すと、ロボット101のマーカ103は、図10に示すように、カメラ座標系109の原点とカメラ撮像面302上の仮想基準点301を通る直線1002が平面A(1001)と交わる点1003に整定する。交点1003は、マーカ103が実際に位置決めされる点なので基準点ということができる。これは、いわゆるビジュアルサーボ技術(公知の技術)であり、カメラ撮像面上の偏差情報を変換してロボットの動作にフィードバックする処理を十分短い周期で繰り返し、かつαを十分小さい値に設定することによって、式(12)の変換行列が座標軸の方向のみを反映した±1や0のような大まかな値であっても、マーカ103は平面A上の基準点1003に整定するのである。
以上説明したように、第2実施例によれば、校正対象となる多関節ロボットの運動自由度のうち、1つ以上を所定値に拘束して、カメラの撮像面における仮想基準点とマーカイメージとの偏差をもとに、その他の運動自由度の動作を制御することによってロボットの位置決め処理を自動化できるので、短時間で多関節ロボットの機械パラメータ誤差を校正できる。
上記の第2実施例ではロボットの位置決め処理を自動化した実施例を示した。第2実施例には、カメラを適当に設置してもキャリブレーションができるのでカメラ配置の精度管理が不要となり手軽に作業ができるというメリットがある。しかし、その反面カメラの奥行き(光軸)方向に最も沿うロボットの自由度(Xr座標値)を一定値に拘束していたので、図11に示すように、カメラ光軸(Zc)とロボットの拘束座標(Xr)軸のズレが大きくなると、基準点によってカメラからの距離が大きく異なり、校正演算精度を保証することが難しくなるというデメリットもある。
そこで、第3の実施例では、カメラと基準点(マーカ)間の距離を精度よく管理できる実施の形態を示す。
まず、ロボットに球状のマーカを取り付ける。マーカに対して照明を多方向から均一に照射すると、カメラが撮像したマーカイメージは円形となる。球状マーカの直径や断面積、レンズ焦点距離は既知であるから、マーカイメージの面積を制御することによって、カメラとマーカとの距離を間接的に制御できる。
図8に示したイメージ座標303の座標軸UiからViへの外積方向に3つめの座標軸Wi(光軸)を設ける。これに伴い、式(11)に示した変換行列を下記の式(13)ように拡張する。
Figure 2006110705
また、式(12)に示した速度指令の演算式も下記の式(14)のように拡張する。
Figure 2006110705
ここで、マーカイメージの面積をScurとし、マーカイメージの面積の目標値をStgtとする。これら面積情報をもとに、式(14)に示したWi方向の偏差を下記の式(15)のように計算する。
Werr = Stgt − Scur (15)
上記の拡張以外は、第2実施例と同様に図7に示したフローチャートにしたがって、多関節ロボット101を位置決め処理すればよい。ただし、図7に示したイメージ座標偏差計算処理(S705-3)では、式(15)に示した面積偏差も併せて計算する。また、マーカイメージ重心計算処理(S705-2)の前あるいは後でマーカイメージの面積Scurを計算する。
式(14)(15)に示した処理を追加することによって、マーカイメージ重心402を仮想基準点に自動で合わせることができるだけでなく、マーカイメージの面積も所定値に自動で合わせることができる。それによって、図12に示すように、カメラ107とマーカ103との距離を一定に保ち基準点を球面に拘束することができる。同図の1201は基準点が拘束される球面の例を示している。
以上説明したように、第3実施例によれば、カメラ撮像面上でのマーカイメージ位置の偏差情報に加えて、マーカイメージの面積偏差情報に基づいてロボットの運動自由度を制御するので、カメラ光軸の方向がロボット座標系の座標軸から大きくずれている場合でも、カメラ107とマーカ(基準点1003)との距離を正確に指定することができ、校正演算精度を保証することができるという効果がある。
第2実施例および第3実施例では、画像処理装置からロボット制御装置にビデオレート(33ms周期)で速度指令を送信している。しかしながら、産業用のロボット制御装置の中には、速度指令を周期的に受信できるインターフェイスを備えていないものもあり、上記の実施例を簡単に実現できない場合がある。
そこで、第4実施例では、ビデオレートで速度指令を送受信するような密な情報通信をすることなく、キャリブレーションを自動化する実施の形態を示す。
図13は本発明の第4実施例の処理手順の一部を示したフローチャートである。同図のフローチャートに従い、第4実施例のキャリブレーション手順と方法を説明する。
S1301の初期設定処理では、ロボット101を予め設定した初期位置に位置決めし、マーカ103の近傍にカメラ107を設置する。その際、図14に示すように、マーカイメージが撮像面上にスーパーインポーズされた円1401に重なるよう、すなわち位置と面積が所望の値になるようにカメラ107の設置位置を調整するか、あるいはロボット101を操作してマーカ位置を調整する。また、カメラ光軸方向(図14のZc)とロボット座標系106のいずれかの座標軸(図14の例ではXr軸)の方向がほぼ一致するようにカメラ設置位置を調整する。
S1302の基準点設定処理では、図15に示すようにS1301後のマーカ位置を基準にして、基準点を複数設定する。図15において、P1、P2、・・・P9は設定した基準点の例を示している。
S1303のロボット動作プログラム作成処理では、S1302で設定した基準点情報をもとに多関節ロボット101のマーカ103を各基準点に適当な順序で位置決めさせる動作プログラムを生成する。
図16に動作プログラムの一部を示す。各行の左端の2桁の数字は行番号を表し、その右側の文言は命令を表す。01行目の「NOP」は動作プログラムの最初の行に付けられる命令で、「NO Operation」を意味し何の動作もしない命令である。続く01行目の「DOUT ALL OFF」はIO出力に関する命令であり、IO出力のすべてのチャンネルからLow信号を出力する。
02行目、05行目、08行目は移動命令であり、多関節ロボット101をそれぞれP1、P2、P3にて指定された位置へと移動させる。本実施例だと、図15に示す基準点P1、P2、P3に移動する。03行目、06行目、09行目は01行目と同様のIO出力命令であり、それぞれ出力チャンネル01、02、03からHigh信号を出力する。04行目、07行目、10行目は待機命令であり、指定されたIO入力から入力があるまで動作プログラムの進行を一時停止させる。本実施例では、04行目、07行目、10行目の各行にてそれぞれIO入力のチャンネル01、チャンネル02、チャンネル03からの入力を待つ。
S1304のロボット動作プログラム設定処理では、S1303で作成した多関節ロボット101の動作プログラムをロボット制御装置104にロードし、S1305の動作プログラム開始処理で動作プログラムが実行に移される。詳細には、動作プログラムに従って図13のS1305-1からS1305-6までの処理がロボット制御装置104内で実行される。
一方、S1303の後、画像処理装置108側では、S1306の計測開始処理で基準点などの計測処理に移る。詳細には、S1306-1からS1306-5までの処理が画像処理装置内で実行される。以降、S1305-1からS1305-6までの処理と、S1306-1からS1306-5までの処理を対比させながら、処理手順を説明する。
S1305-1とS1305-2では、まず図16に示す動作プログラムの02行目の移動命令「MOV P1 PL=0」が実行され、マーカ103が基準点P1に位置決めを完了するまで多関節ロボット101が動作する。位置決め完了後、S1305-3のOUT TRG処理では、図16の動作プログラムの03行目のIO命令「DOUT OT#01 ON」が実行され、IO出力のチャンネル01からHigh信号が出力される。
ロボット制御装置から出力されたIO出力信号は画像処理装置側に入力され、S1306-1のWAIT TRG処理で検出される。ロボット制御装置からのHigh信号がS1306-1で検出されると、S1306-2に移り、カメラ撮像面302に写ったマーカイメージ401の重心位置が計測される。マーカイメージ重心402が正しく計測された場合は、S1306-3に移り、そのときの多関節ロボット101の各関節角度を取得する。マーカ103がカメラ視野内から外れて重心位置が計測できなかった場合は、S1306-3の処理はスキップされ、その基準点は校正演算の対象から除外される。
S1306-4のOUT TRG処理では、画像処理装置108からロボット制御装置にIO信号が出力され、ロボット制御装置のS1305-4で検出される。これは、図16の動作プログラム内のIO命令「WAIT IN#01 = ON」に相当する。
S1306-5で、画像処理装置108からのIO信号が検出されると、S1305-5の移動継続判断処理に移り、動作プログラムの実行を継続するか終了するか(動作プログラムの最後まできたか、上位からの割り込みがないか、など)が判断される。実行を継続する場合は、S1305-6で次の基準点P2が目標位置に設定され、同様の処理が繰り返される。
以上説明したロボット制御装置104内での動作プログラム実行と画像処理装置108内での計測処理が終了すると、図2のS204以降の校正演算処理に移る。これについては、第1実施例と同様である。
以上説明したように、第4実施例によれば、ロボット制御装置と画像処理装置間でIO信号の送受信によるインタロックを行う疎な情報通信だけでキャリブレーション作業を自動化できるという効果がある。
本発明は、産業用ロボットだけでなく、ロボット一般の機械パラメータを簡便に校正する方法として広く適用できる。
本発明のキャリブレーション方法を適用する装置の構成図 本発明のキャリブレーション方法の処理手順を示したフローチャート 撮像面上の仮想基準点を示した図 撮像面上でマーカイメージ重心を仮想基準点へ位置合わせする様子を示した図 機械パラメータ現在値とその修正候補値の位置関係を示す図 機械パラメータ現在値の更新の様子を示す図 第2実施例におけるロボット関節角取得処理の手順を示したフローチャート イメージ座標偏差ベクトルを示した図 近傍の半径εが適切でない状況を示した図 仮想基準点と基準点の関係を示した図 カメラから基準点までの距離が異なる様子を示した図 カメラから基準点までの距離を一定に保った様子を示した図 第4実施例における計測処理の手順を示したフローチャート カメラとマーカの位置関係の調整方法を示した図 基準点の設定例を示した図 ロボットの動作プログラムの例を示した図
符号の説明
101 ロボット
102 ツール
103 マーカ
104 ロボット制御装置
104a 動作指令生成部
104b サーボ処理部
105 操作端末
106 ロボット座標系
107 カメラ
108 画像処理装置
108a 画像表示部
108b 校正演算部
109 カメラ座標系
301 仮想基準点
302 カメラ撮像面
303 イメージ座標系
401 マーカイメージ
402 マーカイメージ重心
501 機械パラメータ現在値
502 近傍
503a〜503h 機械パラメータ修正候補値
801 イメージ座標偏差ベクトル
901 機械パラメータの最適値
1001 平面A
1002 基準線(カメラ座標系原点と仮想基準点を通る直線)
1003 基準点
1201 球面A
1401 撮像平面上にスーパーインポーズされた円

Claims (10)

  1. ロボットの機械パラメータの誤差を校正するキャリブレーション方法において、
    前記ロボットにマーカを取り付け、前記マーカが撮像できる位置にカメラを1台設置する第1のステップと、
    前記マーカの移動範囲かつ前記カメラの撮像範囲である3次元空間上に複数の基準点を設定する第2のステップと、
    前記ロボットを操作して前記マーカを各々の前記基準点に位置決めする第3のステップと、
    位置決め時の前記ロボットの各関節軸の動作量(以降、各軸動作量という)と前記カメラの撮像面における前記マーカのイメージの位置(以降、撮像面座標値という)とを取得する第4のステップと、
    前記各軸動作量と前記撮像面座標値とをもとに前記ロボットの機械パラメータの誤差を校正する第5のステップからなることを特徴とするロボットのキャリブレーション方法。
  2. 前記第3のステップにおいて、
    前記カメラの撮像面に前記基準点を仮想的に投影した仮想基準点を表示し、
    前記カメラの撮像面において前記仮想基準点と前記マーカイメージとが重なるように前記ロボットを操作して、前記マーカを前記基準点に位置決めすることを特徴とする請求項1に記載のロボットのキャリブレーション方法。
  3. 前記第3のステップにおいて、
    前記カメラの撮像面に仮想基準点を表示し、
    前記カメラの撮像面において前記仮想基準点と前記マーカイメージとが重なるように前記ロボットを位置決めし、その時の前記マーカの3次元空間上の位置を前記第2のステップにおける基準点とすることを特徴とする請求項1に記載のロボットのキャリブレーション方法。
  4. 前記第5のステップにおいて、
    前記各軸動作量と前記撮像面座標値とをもとに前記カメラのカメラパラメータの同定精度に関する評価値を計算し、前記評価値が最小となるように
    前記ロボットの機械パラメータの誤差を校正することを特徴とする請求項1乃至3に記載のロボットのキャリブレーション方法。
  5. 前記各軸動作量と前記機械パラメータとをもとに前記マーカの直交座標値を計算し、
    前記マーカの直交座標値と前記仮想基準点の位置の設定値をもとに前記カメラパラメータを同定し、
    前記同定されたカメラパラメータと前記マーカの直交座標値とをもとに
    前記カメラの撮像面における前記仮想基準点の位置を計算し、
    前記カメラの撮像面における前記仮想基準点の設定値と計算値との偏差に基づいて前記評価値を計算することを特徴とする請求項4に記載のロボットのキャリブレーション方法。
  6. 前記第3のステップにおいて、
    前記機械パラメータの誤差による前記マーカの直交座標値の微小変化が前記撮像面座標値の変化に反映されるように前記ツールの姿勢を制御することを特徴とする請求項1乃至5に記載のロボットのキャリブレーション方法。
  7. 前記第3のステップにおいて、
    前記ロボットの運動自由度のうち、1つ以上を所定範囲に拘束し、前記仮想基準点と前記撮像面座標値との偏差をもとに、他の運動自由度の動作を制御することによってロボットの前記位置決め処理を自動化することを特徴とする請求項2乃至6に記載のロボットのキャリブレーション方法。
  8. 前記第3のステップにおいて、
    前記カメラの撮像面における前記マーカイメージの面積に応じて、前記ロボットの運動自由度のうち、1つ以上を所定範囲に拘束することを特徴とする請求項7に記載のロボットのキャリブレーション方法。
  9. 前記第1のステップまたは前記第2のステップにおいて、
    前記カメラの撮像面における前記マーカイメージの面積に応じて、前記カメラと前記基準点との距離を調整することを特徴とする請求項1乃至8に記載のロボットのキャリブレーション方法。
  10. 適当な順序で3次元空間上の前記複数の基準点に位置決めするロボットの動作プログラムを予め作成し、
    前記第3のステップにおいて、前記動作プログラムをプレイバックし、
    前記第4のステップにおいて、
    前記カメラの撮像範囲に前記マーカが写った場合に、前記ロボットの各軸動作量と前記マーカイメージの撮像面座標値とを取得することを特徴とする請求項1、4、5、6、8または9のいずれかに記載のロボットのキャリブレーション方法。
JP2005032684A 2004-09-15 2005-02-09 ロボットのキャリブレーション方法 Abandoned JP2006110705A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005032684A JP2006110705A (ja) 2004-09-15 2005-02-09 ロボットのキャリブレーション方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2004268324 2004-09-15
JP2005032684A JP2006110705A (ja) 2004-09-15 2005-02-09 ロボットのキャリブレーション方法

Publications (2)

Publication Number Publication Date
JP2006110705A true JP2006110705A (ja) 2006-04-27
JP2006110705A5 JP2006110705A5 (ja) 2008-03-06

Family

ID=36379633

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005032684A Abandoned JP2006110705A (ja) 2004-09-15 2005-02-09 ロボットのキャリブレーション方法

Country Status (1)

Country Link
JP (1) JP2006110705A (ja)

Cited By (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1875991A2 (en) 2006-07-03 2008-01-09 Fanuc Ltd Measuring system and calibration method
JP2009125857A (ja) * 2007-11-22 2009-06-11 Mitsubishi Electric Corp ロボットのキャリブレーション装置及び方法
EP1953496A3 (en) * 2007-02-05 2010-04-07 Fanuc Ltd Calibration device and method for robot mechanism
JP2010142901A (ja) * 2008-12-18 2010-07-01 Denso Wave Inc ロボットのキャリブレーション方法及びロボットの制御装置
JP2010172986A (ja) * 2009-01-28 2010-08-12 Fuji Electric Holdings Co Ltd ロボットビジョンシステムおよび自動キャリブレーション方法
JP2010179328A (ja) * 2009-02-04 2010-08-19 Kobe Steel Ltd 位置補正装置、位置補正方法、位置補正プログラム及び位置補正システム
JP2011235400A (ja) * 2010-05-11 2011-11-24 Daihen Corp マニピュレータのキャリブレーション方法及びロボット制御システム
JP2013526423A (ja) * 2010-05-14 2013-06-24 コグネックス・テクノロジー・アンド・インベストメント・コーポレーション マシンビジョンシステムおよびロボットの間のロバストな較正の装置および方法
JP2013215867A (ja) * 2012-04-12 2013-10-24 Seiko Epson Corp ロボット制御装置、ロボット制御方法、ロボット制御プログラム、ロボット
JP2013215866A (ja) * 2012-04-12 2013-10-24 Seiko Epson Corp ロボットシステム、ロボットシステムのキャリブレーション方法、キャリブレーション装置およびデジタルカメラ
CN104131686A (zh) * 2014-07-21 2014-11-05 昆山华恒焊接股份有限公司 一种机器人与平面非接触式角度校正寻位方法
JP2015024480A (ja) * 2013-07-29 2015-02-05 富士通株式会社 情報処理装置、制御方法、及びプログラム
JP2015131375A (ja) * 2014-01-15 2015-07-23 セイコーエプソン株式会社 ロボット、ロボットシステム、ロボット制御装置、およびロボット制御方法
JP2017100240A (ja) * 2015-12-01 2017-06-08 セイコーエプソン株式会社 制御装置、ロボットおよびロボットシステム
US10133256B2 (en) 2013-07-19 2018-11-20 Fujitsu Limited Information processing apparatus and method for calculating inspection ranges
KR20190110438A (ko) 2018-03-20 2019-09-30 니혼 덴산 산쿄 가부시키가이샤 로봇의 위치 정보 복원 방법
CN110682289A (zh) * 2019-10-08 2020-01-14 华中科技大学 基于工业机器人的曲面工件坐标系自动标定方法
TWI694238B (zh) * 2018-12-28 2020-05-21 國立中正大學 應用於多軸工具機的幾何誤差量測方法
JP2020183035A (ja) * 2019-04-12 2020-11-12 株式会社Mujin ロボット制御のためのカメラキャリブレーションを更新する方法及び制御システム
JP2021010994A (ja) * 2019-07-09 2021-02-04 株式会社日立製作所 センサ位置姿勢キャリブレーション装置及びセンサ位置姿勢キャリブレーション方法
WO2021158773A1 (en) * 2020-02-06 2021-08-12 Berkshire Grey, Inc. Systems and methods for camera calibration with a fiducial of unknown position on an articulated arm of a programmable motion device
CN114286075A (zh) * 2021-12-01 2022-04-05 北京新奥特图腾科技有限公司 校正参数调整方法、装置、电子设备及可读介质
JP2022069698A (ja) * 2019-04-01 2022-05-11 ファナック株式会社 ロボットを制御するための機構誤差パラメータを較正するロボットの制御装置および教示操作盤
WO2022181688A1 (ja) * 2021-02-26 2022-09-01 ファナック株式会社 ロボットの設置位置測定装置、設置位置測定方法、ロボット制御装置、教示システムおよびシミュレーション装置
WO2022195944A1 (ja) * 2021-03-16 2022-09-22 株式会社日立製作所 ロボットシステム、およびロボットシステムの制御方法
CN115816833A (zh) * 2023-01-07 2023-03-21 深圳市创想三维科技股份有限公司 图像校正数据的确定方法、装置、电子设备及存储介质
US11712806B2 (en) 2019-04-01 2023-08-01 Fanuc Corporation Calibration apparatus for calibrating mechanism error parameter for controlling robot
CN117047789A (zh) * 2023-10-13 2023-11-14 北京壹点灵动科技有限公司 机器人参数的标定方法、装置、电子设备及存储介质

Cited By (42)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1875991A3 (en) * 2006-07-03 2009-12-23 Fanuc Ltd Measuring system and calibration method
EP1875991A2 (en) 2006-07-03 2008-01-09 Fanuc Ltd Measuring system and calibration method
US7899577B2 (en) 2006-07-03 2011-03-01 Fanuc Ltd Measuring system and calibration method
US7853359B2 (en) 2007-02-05 2010-12-14 Fanuc Ltd Calibration device and method for robot mechanism
EP1953496A3 (en) * 2007-02-05 2010-04-07 Fanuc Ltd Calibration device and method for robot mechanism
JP2009125857A (ja) * 2007-11-22 2009-06-11 Mitsubishi Electric Corp ロボットのキャリブレーション装置及び方法
JP2010142901A (ja) * 2008-12-18 2010-07-01 Denso Wave Inc ロボットのキャリブレーション方法及びロボットの制御装置
US8369993B2 (en) 2008-12-18 2013-02-05 Denso Wave Incorporated Method and apparatus for calibrating position and attitude of arm tip of robot
JP2010172986A (ja) * 2009-01-28 2010-08-12 Fuji Electric Holdings Co Ltd ロボットビジョンシステムおよび自動キャリブレーション方法
JP2010179328A (ja) * 2009-02-04 2010-08-19 Kobe Steel Ltd 位置補正装置、位置補正方法、位置補正プログラム及び位置補正システム
JP2011235400A (ja) * 2010-05-11 2011-11-24 Daihen Corp マニピュレータのキャリブレーション方法及びロボット制御システム
JP2013526423A (ja) * 2010-05-14 2013-06-24 コグネックス・テクノロジー・アンド・インベストメント・コーポレーション マシンビジョンシステムおよびロボットの間のロバストな較正の装置および方法
US11077557B2 (en) 2010-05-14 2021-08-03 Cognex Corporation System and method for robust calibration between a machine vision system and a robot
US10421189B2 (en) 2010-05-14 2019-09-24 Cognex Corporation System and method for robust calibration between a machine vision system and a robot
US9393694B2 (en) 2010-05-14 2016-07-19 Cognex Corporation System and method for robust calibration between a machine vision system and a robot
JP2013215867A (ja) * 2012-04-12 2013-10-24 Seiko Epson Corp ロボット制御装置、ロボット制御方法、ロボット制御プログラム、ロボット
JP2013215866A (ja) * 2012-04-12 2013-10-24 Seiko Epson Corp ロボットシステム、ロボットシステムのキャリブレーション方法、キャリブレーション装置およびデジタルカメラ
US10133256B2 (en) 2013-07-19 2018-11-20 Fujitsu Limited Information processing apparatus and method for calculating inspection ranges
JP2015024480A (ja) * 2013-07-29 2015-02-05 富士通株式会社 情報処理装置、制御方法、及びプログラム
JP2015131375A (ja) * 2014-01-15 2015-07-23 セイコーエプソン株式会社 ロボット、ロボットシステム、ロボット制御装置、およびロボット制御方法
CN104131686A (zh) * 2014-07-21 2014-11-05 昆山华恒焊接股份有限公司 一种机器人与平面非接触式角度校正寻位方法
CN107053167A (zh) * 2015-12-01 2017-08-18 精工爱普生株式会社 控制装置、机器人以及机器人系统
JP2017100240A (ja) * 2015-12-01 2017-06-08 セイコーエプソン株式会社 制御装置、ロボットおよびロボットシステム
KR20190110438A (ko) 2018-03-20 2019-09-30 니혼 덴산 산쿄 가부시키가이샤 로봇의 위치 정보 복원 방법
TWI694238B (zh) * 2018-12-28 2020-05-21 國立中正大學 應用於多軸工具機的幾何誤差量測方法
JP7295302B2 (ja) 2019-04-01 2023-06-20 ファナック株式会社 ロボットを制御するための機構誤差パラメータを較正するロボットの制御装置および教示操作盤
US11712806B2 (en) 2019-04-01 2023-08-01 Fanuc Corporation Calibration apparatus for calibrating mechanism error parameter for controlling robot
JP2022069698A (ja) * 2019-04-01 2022-05-11 ファナック株式会社 ロボットを制御するための機構誤差パラメータを較正するロボットの制御装置および教示操作盤
JP2020183035A (ja) * 2019-04-12 2020-11-12 株式会社Mujin ロボット制御のためのカメラキャリブレーションを更新する方法及び制御システム
JP2021010994A (ja) * 2019-07-09 2021-02-04 株式会社日立製作所 センサ位置姿勢キャリブレーション装置及びセンサ位置姿勢キャリブレーション方法
JP7249221B2 (ja) 2019-07-09 2023-03-30 株式会社日立製作所 センサ位置姿勢キャリブレーション装置及びセンサ位置姿勢キャリブレーション方法
CN110682289B (zh) * 2019-10-08 2021-01-12 华中科技大学 基于工业机器人的曲面工件坐标系自动标定方法
CN110682289A (zh) * 2019-10-08 2020-01-14 华中科技大学 基于工业机器人的曲面工件坐标系自动标定方法
WO2021158773A1 (en) * 2020-02-06 2021-08-12 Berkshire Grey, Inc. Systems and methods for camera calibration with a fiducial of unknown position on an articulated arm of a programmable motion device
US11826918B2 (en) 2020-02-06 2023-11-28 Berkshire Grey Operating Company, Inc. Systems and methods for camera calibration with a fiducial of unknown position on an articulated arm of a programmable motion device
WO2022181688A1 (ja) * 2021-02-26 2022-09-01 ファナック株式会社 ロボットの設置位置測定装置、設置位置測定方法、ロボット制御装置、教示システムおよびシミュレーション装置
WO2022195944A1 (ja) * 2021-03-16 2022-09-22 株式会社日立製作所 ロボットシステム、およびロボットシステムの制御方法
CN114286075A (zh) * 2021-12-01 2022-04-05 北京新奥特图腾科技有限公司 校正参数调整方法、装置、电子设备及可读介质
CN115816833B (zh) * 2023-01-07 2023-06-30 深圳市创想三维科技股份有限公司 图像校正数据的确定方法、装置、电子设备及存储介质
CN115816833A (zh) * 2023-01-07 2023-03-21 深圳市创想三维科技股份有限公司 图像校正数据的确定方法、装置、电子设备及存储介质
CN117047789A (zh) * 2023-10-13 2023-11-14 北京壹点灵动科技有限公司 机器人参数的标定方法、装置、电子设备及存储介质
CN117047789B (zh) * 2023-10-13 2024-01-23 北京壹点灵动科技有限公司 机器人参数的标定方法、装置、电子设备及存储介质

Similar Documents

Publication Publication Date Title
JP2006110705A (ja) ロボットのキャリブレーション方法
US9197810B2 (en) Systems and methods for tracking location of movable target object
CN102448679B (zh) 至少一个物体以高精度定位到空间最终位置的方法和系统
US9889565B2 (en) Method for calibrating a robot and a robot system
US9517560B2 (en) Robot system and calibration method of the robot system
JP6430986B2 (ja) ロボットを用いた位置決め装置
CN108789404B (zh) 一种基于视觉的串联机器人运动学参数标定方法
US20200298411A1 (en) Method for the orientation of an industrial robot, and industrial robot
JP6429473B2 (ja) ロボットシステム、ロボットシステムの校正方法、プログラム、およびコンピュータ読み取り可能な記録媒体
US8457786B2 (en) Method and an apparatus for calibration of an industrial robot system
US20050273202A1 (en) Method and device for improving the positioning accuracy of a manipulator
CN107175660B (zh) 一种基于单目视觉的六自由度机器人运动学标定方法
US20160039094A1 (en) Robot System And Method For Calibration
KR20140008262A (ko) 로봇 시스템, 로봇, 로봇 제어 장치, 로봇 제어 방법 및 로봇 제어 프로그램
JP2004508954A (ja) 位置決め装置およびシステム
CN109764805B (zh) 一种基于激光扫描的机械臂定位装置与方法
CN113001535A (zh) 机器人工件坐标系自动校正系统与方法
WO2018043525A1 (ja) ロボットシステム、ロボットシステム制御装置、およびロボットシステム制御方法
JP2005342832A (ja) ロボットシステム
US11338441B2 (en) Calibration system for robot tool and calibration method for the same
CN101261118A (zh) 基于机器人的快速自动化三维形貌在线测量方法和系统
CN107953333B (zh) 一种机械手末端工具标定的控制方法及系统
TWI701123B (zh) 機器人工件座標系自動校正系統與方法
JP6855491B2 (ja) ロボットシステム、ロボットシステム制御装置、およびロボットシステム制御方法
CN110695982A (zh) 一种基于三维视觉的机械臂手眼标定方法和装置

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080116

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080116

A762 Written abandonment of application

Free format text: JAPANESE INTERMEDIATE CODE: A762

Effective date: 20090714