JP2008012604A - 計測装置及びキャリブレーション方法 - Google Patents

計測装置及びキャリブレーション方法 Download PDF

Info

Publication number
JP2008012604A
JP2008012604A JP2006183375A JP2006183375A JP2008012604A JP 2008012604 A JP2008012604 A JP 2008012604A JP 2006183375 A JP2006183375 A JP 2006183375A JP 2006183375 A JP2006183375 A JP 2006183375A JP 2008012604 A JP2008012604 A JP 2008012604A
Authority
JP
Japan
Prior art keywords
robot
light receiving
target
measurement
receiving device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006183375A
Other languages
English (en)
Other versions
JP4267005B2 (ja
Inventor
Kazukuni Ban
一訓 伴
Katsutoshi Takizawa
克俊 滝澤
Oka Chin
崗 沈
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fanuc Corp
Original Assignee
Fanuc Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fanuc Corp filed Critical Fanuc Corp
Priority to JP2006183375A priority Critical patent/JP4267005B2/ja
Priority to EP07012599.2A priority patent/EP1875991B1/en
Priority to CN200710126944.3A priority patent/CN101100061B/zh
Priority to US11/822,093 priority patent/US7899577B2/en
Publication of JP2008012604A publication Critical patent/JP2008012604A/ja
Application granted granted Critical
Publication of JP4267005B2 publication Critical patent/JP4267005B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1692Calibration of manipulator
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B21/00Measuring arrangements or details thereof, where the measuring technique is not covered by the other groups of this subclass, unspecified or not relevant
    • G01B21/02Measuring arrangements or details thereof, where the measuring technique is not covered by the other groups of this subclass, unspecified or not relevant for measuring length, width, or thickness
    • G01B21/04Measuring arrangements or details thereof, where the measuring technique is not covered by the other groups of this subclass, unspecified or not relevant for measuring length, width, or thickness by measuring coordinates of points
    • G01B21/042Calibration or calibration artifacts
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/37Measurements
    • G05B2219/37555Camera detects orientation, position workpiece, points of workpiece
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39008Fixed camera detects reference pattern held by end effector
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39045Camera on end effector detects reference pattern

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Manipulator (AREA)
  • Numerical Control (AREA)
  • Image Processing (AREA)

Abstract

【課題】比較的小型かつ安価な測定装置を使用し、高精度かつ自動的に機構パラメータの誤差を求めて機構パラメータを補正するための計測装置及びキャリブレーション方法を提供する。
【解決手段】カメラ4の受光面上において、ターゲット6のマーク画像7aを表す楕円とマーク7の形状を表す円との中心位置の差及び長軸長と直径との差が所定の誤差以内となるようにロボットを移動させる処理が、複数の計測位置について自動的に実行される。
【選択図】図8

Description

本発明は、産業用の多関節ロボットの機構パラメータのキャリブレーション方法及び該方法を自動的に行うための計測装置に関し、特には、被計測対象物すなわちターゲットを認識する受光デバイスを用いてロボットの先端位置と制御可能な駆動軸の変位との関係を自動的に測定し、さらに機構部の寸法誤差とその弾性変形量等の定式化可能な誤差を求める装置及び方法に関する。
ロボットの先端を所望の位置に位置決めするためには、各ロボット軸の角変位とロボットの手先の位置及び姿勢(ハンド基準点、例えばフェイスプレートに設定されたフェイスプレート座標の位置及び姿勢)との関係を規定する諸パラメータの値を知る必要がある。しかし、加工時又は組立時に、これらのパラメータに誤差が生じることは避けられず、さらに組立てられたロボットにおけるこれらのパラメータを直接計測することも困難である。このため、産業界では、ロボットの入力変位と出力変位との関係を測定して、その測定結果に基づいてパラメータの最適値を推定しかつ補正する方法、すなわちいわゆるキャリブレーションがよく用いられる。
キャリブレーションに関しては種々の装置又は方法が知られている。例えば特許文献1には、3次元測定機を静止座標系に固定してロボット先端の位置を測定する校正方法が開示されている。また特許文献2には、ロボットのツール先端を3次元空間の任意の1点に教示する自動補正方法が開示されている。また特許文献3には、ロボットの先端に3次元測定装置を取付け、3次元空間での任意の1点との距離を測定する補正方法が開示されている。さらに特許文献4には、複数のカメラ位置・姿勢で、ある点をカメラの視野の中心で捕らえるように教示するロボットカメラのキャリブレーション方法が開示されている。またさらに特許文献5には、ロボットの先端に撮像装置を取付け、複数の異なる姿勢で、ある固定点を撮像し、画像上の撮像結果が理論値との差に基づいて、ロボット機構部すべてのリンク要素の誤差を求める自動測定方法が開示されている。
特開2001−38662号公報 特許第2640339号公報 特開平4−259007号公報 特許第3252870号公報 特許第2682763号公報
従来のキャリブレーションにおいて高精度な結果を得るためには高い計測精度が必要とされるが、一方でキャリブレーション作業の容易性も要求される。特許文献1の測定装置は、一般的に大型であるために、狭い作業環境での適用が困難である。また特許文献2の場合は測定装置を使わず手動操作で教示を行うために、教示誤差が生じる虞がある。
一方特許文献3及び4の装置は小型ではあるが、計測時のロボット姿勢の教示は手動で行われる。さらに特許文献4の場合ではカメラの2次元の視線方向のみを合わせるため、1回の計測で得られるデータが3次元測定機を使用した場合より少なく、故により多い計測姿勢が必要となる。また特許文献2及び4では作業者による計測姿勢の教示が必要となるため、計測結果が作業者の技量に依存することになり、さらに教示誤差の影響を低減するためには、多く教示点が必要となってしまい、作業者の負担が重くなってしまう。
さらに、特許文献5の計測精度は、撮像装置の誤差、例えばレンズ歪等に依存する。また自動計測を実現するためには計測する固定点の位置は既知でなければならないが、そのための治具作成や取付け作業が必要となる。
そこで本発明は、上記課題を解決するために、比較的小型かつ安価な測定装置を使用し、高精度かつ自動的に機構パラメータの誤差を求めて機構パラメータを補正するための計測装置及びキャリブレーション方法を提供することを目的とする。
上記目的を達成するために、請求項1に記載の発明は、受光デバイスと、計測すべきターゲット及び前記受光デバイスが相対移動可能となるように構成された多関節ロボットとを有する計測装置であって、前記ターゲットが前記受光デバイスの視野内に含まれる、前記ロボットの複数の計測位置及び姿勢を規定する計測位置姿勢規定手段と、前記ロボットを前記計測位置姿勢規定手段で規定された複数の計測位置姿勢に順次位置決めする手段と、前記受光デバイスの受光面上に結像した前記ターゲットの形状の幾何学的特徴値を検出するターゲット検出手段と、前記複数の計測位置姿勢の各々を起点として、前記ターゲットの形状の幾何学的特徴値が前記受光デバイスの受光面上で所定の条件を満足するように前記ロボットを移動するロボット移動手段と、前記ロボット移動手段によって移動した前記ロボットの位置及び姿勢を、前記起点の各々に関連付けられた終点として記憶するロボット終点記憶手段と、前記ロボット終点記憶手段に記憶された複数の前記終点での前記ロボットの位置及び姿勢に基づいて、前記ロボットの機構パラメータの誤差を求める計算手段と、を備えることを特徴とする計測装置を提供する。
請求項2に記載の発明は、請求項1に記載の計測装置において、前記計測位置姿勢規定手段は、前記受光デバイスと前記ターゲットの所定点との距離が一定でかつ該所定点を通る前記受光デバイスの視線の傾きが異なる複数の計測位置姿勢を規定する、計測装置を提供する。
請求項3に記載の発明は、請求項1に記載の計測装置において、前記計測位置姿勢規定手段は、前記ターゲットの所定点を通る前記受光デバイスの視線の姿勢が一定でかつ前記受光デバイスと前記ターゲットの該所定点との距離が異なる複数の計測位置姿勢を規定する、計測装置を提供する。
請求項4に記載の発明は、請求項1に記載の計測装置において、前記計測位置姿勢規定手段は、前記複数の計測位置及び姿勢を自動的に生成する、計測装置を提供する。
請求項5に記載の発明は、請求項1〜4のいずれか1項に記載の計測装置において、前記ターゲットが複数配置される、計測装置を提供する。
請求項6に記載の発明は、請求項1〜5のいずれか1項に記載の計測装置において、前記受光デバイスを複数有する、計測装置を提供する。
請求項7に記載の発明は、請求項1〜6のいずれか1項に記載の計測装置において、前記計算手段は、ニュートンラプソン法、遺伝的アルゴリズム及びニューラルネットワークを含む非線形問題の最適化法を用いて前記ロボットの機構パラメータの誤差を求める、計測装置を提供する。
請求項8に記載の発明は、請求項1〜7のいずれか1項に記載の計測装置において、前記受光デバイスは2次元画像を撮像するCCDカメラである、計測装置を提供する。
請求項9に記載の発明は、請求項8に記載の計測装置において、前記受光デバイスの受光面上に結像した前記ターゲットの形状の幾何学的特徴値は、前記受光面上での前記形状の位置及び前記受光デバイスと前記ターゲットとの相対距離を表す情報を含む、計測装置を提供する。
請求項10に記載の発明は、請求項9に記載の計測装置において、前記ターゲットは円形形状を有し、前記情報は前記受光デバイスの受光面に結像した楕円の長軸長を含む、計測装置を提供する。
請求項11に記載の発明は、請求項1〜7のいずれか1項に記載の計測装置において、前記受光デバイスは受光量分布の重心を求めるPSDである、計測装置を提供する。
請求項12に記載の発明は、請求項11に記載の計測装置において、前記ターゲットは発光体である、計測装置を提供する。
請求項13に記載の発明は、受光デバイスと、計測すべきターゲット及び前記受光デバイスが相対移動可能となるように構成された多関節ロボットとを有する計測装置を用いた該多関節ロボットのキャリブレーション方法であって、前記ターゲットが前記受光デバイスの視野内に含まれる、前記ロボットの複数の計測位置姿勢を規定するステップと、前記ロボットを前記複数の計測位置姿勢に順次位置決めするステップと、前記受光デバイスの受光面上に結像した前記ターゲットの形状の幾何学的特徴値を検出するステップと、前記複数の計測位置姿勢の各々を起点として、前記ターゲットの形状の幾何学的特徴値が前記受光デバイスの受光面上で所定の条件を満足するように前記ロボットを移動するステップと、移動した前記ロボットの位置及び姿勢を、前記起点の各々に関連付けられた終点として記憶するステップと、記憶された複数の前記終点での前記ロボットの位置及び姿勢に基づいて、前記ロボットの機構パラメータの誤差を求めるステップと、を備えることを特徴とするキャリブレーション方法を提供する。
本発明によれば、ロボットによるキャリブレーションを実行する際に、計測動作がカメラ等の非接触式の受光デバイスによって自動的に行われるので、より多い計測位置姿勢での高精度な計測が作業者の負担を減らしつつ可能になる。さらに、2次元の計測装置で3次元の計測を可能にし、1回の計測での計測情報がより多くなる。結果的に作業者の技量に依存せず広い作業領域で精度の高い計測ができるようになる。
以下、図面を参照して本発明の実施形態について説明する。先ず図1は、本発明の一実施形態に係る計測装置の概略構成を示す図である。図1に示すように、ロボット1は、公知の典型的なロボットでよく、ロボット1を制御するロボット制御装置5に接続され、アーム部1a及びベース部1bを有する。アーム1aの先端部すなわちツール取付面32には、カメラ4が取り付けられる。ロボット1には、ロボットのベース部1bに固定されたロボット座標系Σbと、ツール取付面32に固定されたメカニカルインターフェイス座標系Σfとが設定される。ロボット制御装置5は、随時、メカニカルインターフェイス座標系Σfの原点の位置及び姿勢(現在位置)を知ることができる。また、周知の手動操作キーを備えた教示操作盤18がロボット制御装置5に接続され、作業者はその手動操作キーを操作することにより、ロボット1を操作することができる。
カメラ4は例えばCCDカメラであり、撮像により2次元画像を受光面(CCDアレイ面上)で検出する機能を持つ周知の受光デバイスである。カメラ4は、LCD、CRT等からなるモニタ3を備えた画像処理装置2に接続される。本実施形態では、カメラ4はロボット座標系Σbで表わされる空間内に固定されているターゲット6上のマーク7を撮像する。
また他の好適な実施形態として、図2に示すように、ターゲット6をツール取付面32すなわちメカニカルインターフェイス座標系Σfに固定し、カメラ4をロボット座標系Σbで表される空間内に固定することも可能である。このように受光デバイス及びターゲットの設置は自由度が高く、また両者の相対位置関係は後述するように自動的かつ高精度に修正されるので、受光デバイスやターゲットの設置に関する精度管理は不要である。図2の構成による計測手順は図1のものと同様に考えられるので、以降の説明は図1の形態について行う。
ロボット制御装置5は図3に示した周知のブロック構成を有する。すなわち、メインCPU(以下、単にCPUと称する)11に接続されたバス17に、RAM、ROM、不揮発性メモリ等からなるメモリ12、教示操作盤用インターフェイス13、外部装置用の入出力インターフェイス16、サーボ制御部15及び通信インターフェイス14が並列に接続されている。
教示操作盤用インターフェイス13に接続される教示操作盤18は、通常のディスプレイ機能付のものであり、作業者は、この教示操作盤18のマニュアル操作を通して、ロボットの動作プログラムの作成、修正、登録、あるいは各種パラメータの設定の他、教示された動作プログラムの再生運転、ジョグ送り等を実行する。ロボット及びロボット制御装置の基本機能を支えるシステムプログラムは、メモリ12のROMに格納される。また、アプリケーションに応じて教示されるロボットの動作プログラム及び関連する設定データは、メモリ12の不揮発性メモリに格納される。また、後述する諸処理(機構パラメータを求めることに関連したロボット移動及びそのための画像処理装置との通信等のための処理)のためのプログラム、パラメータ等のデータもメモリ12の不揮発性メモリに格納される。
メモリ12のRAMは、CPU11が行なう各種演算処理におけるデータの一時記憶の記憶領域に使用される。サーボ制御部15はサーボ制御器#1〜#n(nはロボットの総軸数であり、ここではn=6とする)を備え、ロボット制御のための演算処理(軌道計画作成とそれに基づく補間、逆変換など)によって作成された移動指令を受け、各軸に付属したパルスコーダ(図示省略)から受け取るフィードバック信号と併せてサーボアンプA1〜Anにトルク指令を出力する。各サーボアンプA1〜Anは、各トルク指令に基づいて各軸のサーボモータに電流を供給してそれらを駆動する。通信インターフェイス14は、画像処理装置2(図1参照)に接続されており、この通信インターフェイス14を介して、後述する計測に関連する指令、計測結果データ等の授受がロボット制御装置との間で行なわれる。
画像処理装置2は、図4に示した周知のブロック構成を有する。すなわち、画像処理装置2はマイクロプロセッサからなるCPU20を有し、CPU20には、バスライン30を介してROM21、画像処理プロセッサ22、カメラインターフェイス23、モニタインターフェイス24、入出力機器(I/O)25、フレームメモリ(画像メモリ)26、不揮発性メモリ27、RAM28及び通信インターフェイス29が各々接続される。
カメラインターフェイス23には、撮像手段であるカメラ(ここではCCDカメラ)が接続される。カメラインターフェイス23を介して撮影指令が送られたときに、カメラに設定された電子シャッタ機能により撮影が実行され、カメラインターフェイス23を介して映像信号がグレイスケール信号の形でフレームメモリ26に格納される。モニタインターフェイス24にはモニタ(図1参照)としてCRT、LCD等のディスプレイが接続され、カメラが撮影中の画像、フレームメモリ26に格納された過去の画像、画像処理プロセッサ22による処理を受けた画像等が必要に応じて表示される。
図1に示すように、カメラ4はロボット座標系Σbで表わされる空間内に固定されているターゲット6上のマーク7を撮像する。フレームメモリ26に格納されたマーク7の映像信号は、画像処理プロセッサ22を利用して解析され、その2次元位置及び大きさ等が求められる(詳細は後述)。なお、そのためのプログラム、パラメータ等は不揮発性メモリ27に格納されている。また、RAM28はCPU20が実行する各種処理に必要なデータの一時記憶に利用される。通信インターフェイス29は、前述したロボット制御装置側の通信インターフェイス14を介してロボット制御装置に接続される。
また図1に示すカメラ4の視線40は、カメラ4の代表点(例えばカメラレンズの中心)からターゲット6に向かう直線である。視線40に関連して、図1に示す座標系Σvは、カメラ4の代表点(例えばカメラレンズの中心)からターゲット6に向かう視線40を表わす座標系であり、その原点は視線40上に位置し、1つの座標軸(例えばZ軸)が視線40に一致しているものとする。なおメカニカルインターフェイス座標系Σfは、既述の通りツール取付面32の位置及び姿勢を代表する座標系であるが、同時にここでは、「ロボット1の位置及び姿勢を代表する座標系」でもある。すなわち、特に断わりのない限り、「ロボット位置」とは「ロボット座標系Σb上での、メカニカルインターフェイス座標系Σfの原点の位置」であり、姿勢を含めて考える時には、「ロボット座標系Σb上での、メカニカルインターフェイス座標系Σfの原点の位置及び姿勢」を指すものとする。
次に、図1の構成による本発明のキャリブレーションの手順を、図5のフローチャートを参照しつつ説明する。但し通常、一連の処理を開始する前はロボット、ターゲット及びカメラ間の相対位置関係は未知であるので、画像上のターゲットを意図する方向に意図する距離だけ移動させるためにはロボットをどう動かせばよいかという、画像上の移動方向及び移動距離とロボットの移動方向及び移動距離との関係を事前に求めておく必要がある。例えば、図1におけるΣfのXYZの任意方向にロボットを複数回動かし、その都度、受光面上に結像したマーク7の図形の特徴値を検出し、ロボットの各軸の移動方向及び移動距離と前記特徴値の変化との関係を求める方法が可能である。このような手法により移動方向及び移動距離の関係を求めること自体は周知であるから、詳細な説明は省略する。ここまでの準備は、以下に述べるステップの前に済んでいるものとする。
ステップT1
本発明では、ターゲット及びカメラを正確な位置に設置する必要はなく、カメラ4の視野内にマーク7が入っていればよい。ステップT1では、カメラ4の視野内にマーク7が入る(具体的には例えば画像処理装置2のモニタ3にマーク7が映る)ように作業者がロボットを移動させる。
ステップT2
ステップT2では、カメラを使用して、メカニカルインターフェイス座標系Σfでのカメラの注視点31の位置、及びロボット座標系Σbでのマーク7の所定点の位置を自動的に算出する。このための方法としては、例えば本願出願人による特開2005−201824号公報に記載されているものが好適である。この方法では、カメラの注視点をロボット座標系Σbでのマーク7の所定点に複数の方向から(複数のロボット姿勢で)計測を行い、Σfでのカメラの注視点31の位置と、ロボット座標系Σbでのマーク7の所定点の位置とを算出する。これは従来、ロボットのメカニカルインターフェイス座標系Σfに装着されたツールの先端点(TCP;Tool Center Point)を、ロボット座標系Σbの所定点に複数方向から機械的にタッチアップして、TCP及び該所定点の位置を算出していた方法と類似であるので、詳細な説明は省略する。なおこの段階では、カメラ及びターゲットの位置は高精度に計算する必要はない。すなわち、注視点をターゲットの所定点に一致させた状態で注視点周りにロボットの姿勢を変化させたときに、ターゲットがカメラの視野から外れない程度であれば十分である。
ステップT3
ステップT3では、算出されたメカニカルインターフェイス座標系Σfでのカメラの注視点31の位置とロボット座標系Σbでのマーク7の所定点の位置とに基づいて、ロボットの動作範囲内に含まれる複数の計測位置及び姿勢を規定すなわち自動算出してメモリ装置に記録する。複数の計測位置姿勢の具体例としては、カメラ4とマーク7上の所定点(例えば中心)との距離が一定でかつその所定点を通る視線の傾きが異なる複数の計測位置姿勢、或いは、マーク7上の所定点を通る視線の姿勢が一定でかつカメラ4とその所定点との距離が異なる複数の計測位置姿勢等がある。図6は、前者すなわちカメラ4とマーク7上の所定点との距離が一定かつ所定点を通る視線の傾きが異なる3つの計測位置姿勢を規定した例を示している。
ここで、計測位置姿勢の自動算出の具体的方法としては、先ずステップT2でカメラの注視点31とマーク7上の所定点の位置とを合わせて得られたロボットの位置姿勢を基本位置姿勢とし、次にカメラの注視点の位置を一定とした上でカメラの姿勢角に規定値を加えて、ロボットの動作範囲内に含まれる複数の計測位置姿勢を自動的に生成する方法がある。或いは、カメラの注視点の位置を一定とした上でロボットの動作範囲内でとり得るカメラの姿勢角の範囲を算出し、その姿勢角の範囲に含まれるいくつかの角度について(例えば等角度間隔に分割して)、複数の計測位置姿勢を生成する方法も可能である。
ステップT4、T5
ステップT4では、T3で規定し記録された各計測位置姿勢を起点として以下に述べる「自動タッチアップ処理」を行い、受光面上に結像したマーク7の図形の幾何学的特徴値が所定条件を満足するようにロボットを移動させ、ロボットの移動が終了した時点のロボット位置をメモリに記憶させる(ステップT5)。つまり複数の計測位置姿勢の起点に対応した、複数のロボット位置及び姿勢が終点としてメモリに記憶される。
ここで図7〜図9を参照して、ステップT4の自動タッチアップ処理の詳細を説明する。本発明におけるキャリブレーションは、複数の異なるロボット位置について、受光面上に結像したマーク7の形状の幾何学的特徴を示す値又はパラメータが所定の条件を満足するように、ロボットを移動させることが基本となる。一般に、カメラによる計測を行うときは、カメラキャリブレーションと呼ばれる事前作業が行われ、カメラの計測精度はカメラキャリブレーションの精度に依存する。本発明では、マーク7を受光面上に比較的小さく結像させ、その受光面上でのマーク7の幾何学的特徴値が所定の状態を満足するようにロボットを移動させることによってカメラキャリブレーションを不要とする。後述する実施形態では、マーク7として中心を示す十字線を有する円形状を使用し、その場合の幾何学的特徴値は円の中心位置及び直径とする。
まず1つの計測位置姿勢について、カメラ4の受光面上に結像したマーク7の形状の幾何学的特徴値が所定の条件を満足するようにロボットを移動させる処理を説明する。ここでは、マーク7の形状は図1に示す円とその中心を指す十字線とから構成されたものとする。受光面上に結像されたマーク7の画像7aの幾何学的特徴値は、図7及び図8に示すような楕円(一般にカメラ4の受光面とマーク7とは正対しないので、受光面上のマーク形状すなわち画像7aは楕円形状となる)の中心位置及び長軸長とする。図7及び図8は、画像上の楕円の中心を所定点(ここでは受光面の中心M)に移動させ、さらに楕円の長軸長を所定値(ここではマーク7の直径)に一致させる作業を、カメラ4及びターゲット6の相対位置関係の変化と併せて示している。図7では、結像された画像すなわち楕円7aが所定点Mからずれている上に、楕円の長軸長もマーク7の直径より短い。ここで図8に示すように、ロボット1を移動させることによってカメラ4とターゲット6との相対位置関係を変化させ、結果として楕円の中心が所定点Mと一致し、かつその長軸長がマーク7の直径と一致するようにする。具体的には、受光面上において楕円と円との中心位置の差及び長軸長と直径との差が所定の誤差以内となるような処理を自動的に実行する。受光面上では画像処理(周知の様々な方法が利用できるため、ここではその詳細は省略する)によって楕円の特徴値が検出でき、それと所定値との差が計算できる。
図9は、ステップT4すなわちカメラ4によって撮像されたマーク7の画像7aを画像上の所定点Mに移動させかつ所定の大きさに合わせる処理の詳細を示すフローチャートである。各ステップの要点を以下に説明する。
ステップS1
マーク7の撮像を行なう。これにより、例えば図7に示すような像7aが得られる。
ステップS2
画像上でのマーク7の図形の位置及び大きさ(例えば図7に示す画像7aの中心の画面上での位置、及び像7aの長軸長)を画像処理装置2によって検出する。
ステップS3
ステップS2で求めた位置及び大きさが、画像上での所定点(ここでは受光面の中心点M)及び所定長(ここではマーク7の直径)にそれぞれ一致しているか否かを判断する。具体的には、画像上での誤差すなわち閾距離δimageを予め設定しておき、点Mと像7aの中心との距離、及び像7aの長軸長とマーク7の直径との差がいずれもδimage以下であれば「一致」と判断し、処理を終了する。上記差が一方でもδimageを上回っていれば「不一致」と判断し、ステップS4へ進む。なお、画像上での距離は、例えばその距離が正方形の「画素」の何個分に相当するか等の基準により測ることができる。
ステップS4
マーク7の画像7aを画像上で所定点Mに移動させ、さらに像7aの長軸長が所定値に一致するようなロボット並進指令を作成する。ここで、ロボット並進指令とは、ロボットの姿勢、すなわち座標系Σfの姿勢をロボット座標系Σb(空間内に固定)上で一定に保つような移動指令を意味する。
ステップS5
ステップS4で算出したロボット並進指令に基づいてロボット1を移動させる。移動が完了したらステップS1へ戻る。以下、同様に、ステップS2で「一致」の判断が出されるまで、上述の処理サイクルを繰り返す。
以上が、結像された像7aの幾何学的特徴値が所定の条件を満足するようにロボットを移動させる処理である。図8に示すように、結像された図形の幾何学的特徴値が所定の条件を満足したときは、円の中心は必ず受光面中心を通過する視線40上に位置し、またそのときの円の中心に対するカメラの相対位置は常に一定値となる。但し、ターゲットに対するカメラの異なる相対姿勢によって、結像された楕円の長短軸の方向及び比は異なる。この受光面中心と交わる視線40上の点を注視点31とする。
ここでカメラ4はメカニカルインターフェイスΣfに固定されているので、注視点31もメカニカルインターフェイスΣfに固定されている。すなわち、結像された楕円の中心を受光面の中心に移動させ、さらに楕円の長軸長を所定値に合わせた結果と、注視点31をマーク7の所定点に合わせた結果は等しくなる。この注視点を実際のピン等に置き換えれば、この位置合わせ処理は、従来、ロボットの先端にピンを取付けて人手でロボットの位置を合わせる作業(タッチアップ)と同等と言える。以下、この処理を「自動タッチアップ処理」を呼ぶことにする。本実施形態では、受光面上に結像したマーク7の図形の幾何学的特徴値は楕円の中心位置及び長軸長であるが、十字を構成する2本の直線の角度や円形の長短軸の比なども所定図形の幾何学的特徴値とすることができる。ただしこの場合、ステップS4で算出される移動指令には、並進だけでなく姿勢の変化も含まれることになる。また注視点は特定の一点ではなく、特定視線上の任意点とすることもできる。
ステップT6
ステップT5で記憶された「自動タッチアップ処理」終了時点の複数ロボット位置を用いて、ロボットの機構パラメータを同定計算する。本発明で補正しようとするロボットの機構パラメータとは、ロボット制御時に使用するロボットの各駆動軸の変位(入力)とロボットの先端位置(出力)との相関関係を定める関係式の中で用いられるパラメータを指す。このパラメータの代表例は、リンク長さや各駆動軸の原点位置である。また軸の回転方向によって生じるバックラッシや、リンクの弾性変形、減速機の弾性変形量等も挙げられる。本発明では、同定計算する機構パラメータの種類は特に限定されるものではなく、定式化が可能でかつ互いに従属でないものであればよい。
次に、全ての計測位置姿勢においてカメラ4の注視点31とマーク7上の所定点とが一致していることを前提として、ロボットの機構パラメータを計算する方法について説明する。ここではnp個の機構パラメータPk,0=[Pk,0,1,Pk,0,2,...,Pk,0,np]の誤差と、Σfでの注視点31の位置Ps=[Xs,Ys,Zs]の誤差と、Σbでのマーク7上の所定点の位置Pm=[Xm,Ym,Zm]の誤差とを同定計算する機構パラメータの誤差をPID=[ΔPk,ΔPs,ΔPm]とする。理想状態、すなわちPIDの全ての成分がゼロの場合は、記録されたi番目の計測位置姿勢に対応する「自動タッチアップ処理」終了時のロボット位置及びΣfでの注視点31の位置Psの双方を使用して算出するΣbにおける注視点31の位置Piと、Σbでのマーク7上の所定点の位置Pmとが完全に一致するはずである。しかし通常は、機構パラメータの誤差を含むPIDの誤差によってPiとPmとの間に式(1)で表す位置誤差eiが生じる。
Figure 2008012604
幾何学的関係から分かるように、ロボットの各駆動軸の値を一定値に固定して考えた場合は、PiはPIDの関数となる。従ってeiもPIDの関数となる。
本実施例では、ニュートンラプソン法を用いて、ns個の計測位置姿勢におけるΣbでの注視点31の位置PiとΣbでのマーク7上の所定点の位置Pmとの誤差E=[e1,e2,...,ens]が最小になるようなPIDを求める。この計算では、先ず次式のようにeiのJ番目の同定パラメータPID,Jに対する微分値gi,jを求める。
Figure 2008012604
ここでe'i,jは、PID,jに微小誤差量ΔPID,jを加えたときの、i番目の計測位置姿勢におけるΣbでの注視点31の位置P'iと、Σbでのマーク7上の所定点の位置Pmとの誤差である。
上記の式(2)を使用して、求められたgi,jを以下の式(3)のように行列[G]で表すことができる。
Figure 2008012604
上記行列[G]を用いることにより、誤差関係は以下の線形式(4)で表すことができる。
Figure 2008012604
従ってPIDは、以下の式(5)から求めることができる。
Figure 2008012604
ただし[G]+は[G]の擬似逆行列であり、以下の式(6)により求められる。
Figure 2008012604
以上から、機構パラメータPk,lは次の式(7)により求められる。
Figure 2008012604
IDとPiとの関係には非線形性が存在しているため、式(7)で求めたPk,lはまだ誤差を含む。そこでニュートンラプソン法に基づき、Pk,lをPk,0の代わりに使用して、PIDの全ての成分が微小になるまで、式(1)から式(7)の計算を繰り返して行う。実際には、PIDの各成分が所定の閾値以下になるまで上記計算を繰り返して行う。キャリブレーションに使用される他の計算方法としては、遺伝的アルゴリズム、ニューラルネットワーク等の非線形問題の最適化法があるが、いずれも周知の方法であるので説明は省略する。
ステップT7
ステップT7では、ロボットの制御に反映させるため、求められたロボットの機構パラメータをロボットコントローラに記憶されている従来のものに上書きする。
なお本実施形態ではターゲットのマーク形状を円形としたが、他の文字や図形等も無論使用可能である。但し円形を利用した場合は、カメラによるマーク画像は視線の方向に関わらず楕円となるため、演算処理がいくらか単純にできるという利点がある。また本実施形態では受光デバイスは2次元画像を撮影するCCDカメラであるが、同等の機能を持つ別のデバイス(CMOSカメラなど)であってもよい。
またターゲット6は発光体等の点光源とみなせるものに置換してもよく、その場合には受光デバイスとして受光量の重心位置(2次元位置)を求める2次元PSD(Position Sensitive Detector)を用いることができる。但し、PSDを使用する場合は、画像処理装置2もそれに応じて適合する装置に置き換えられることは言うまでもない。例えばPSDを採用する場合、その出力信号を処理して受光量の重心位置(2次元位置)を求める機能を備えた処理装置が使用される。
本発明に係る上述のキャリブレーション手順は一例であり、計測システムの構成によっては手順の変形もあり得る。例えば、実際のロボットの誤差については、一様な定式化、すなわちロボットの全動作領域に対して有効な定式化を行うことは困難な場合もある。そこで、ロボットの全動作範囲での精度向上を実現するために、複数のターゲットを設置して複数回の計測を行うことが考えられる。一例として、図10に示すような複数のターゲットについて計測を行うことが挙げられる。図10では、ロボットの座標系内に2つのターゲット6a及び6bが配置されている。この場合の計測手順では、先ず図5のステップT1で作業者によってそれぞれのターゲットをカメラ視野に入れる教示を行い、次にステップT2からT5までの一連の作業を2回繰り返して、その後T6及びT7を実行することになる。また1つのターゲットに対し複数のカメラを設置することにより、1回の計測での精度を向上させることもできる。
本発明の一実施形態の全体構成の概略を示した図である。 本発明の他の実施形態の全体構成の概略を示した図である。 実施形態で用いるロボット制御装置のブロック構成を示した図である。 実施形態で用いる画像処理装置のブロック構成を示した図である。 本実施形態で実行される処理全体の概略を示すフローチャートである。 図5のフローチャートのステップT3の処理に関連する説明図である。 カメラ及びターゲットの相対位置関係並びにモニタ画面を示す図である。 図7の状態からターゲットを所定位置に合わせた状態を示す図である。 図5のフローチャートのステップT4に関する手順を示すフローチャートである。 本発明の他の実施形態の全体構成の概略を示した図である。
符号の説明
1 ロボット
2 画像処理装置
3 モニタ
4 カメラ
5 ロボット制御装置
6 ターゲット
7 マーク
7a マーク画像
11 メインCPU
12 メモリ
13 教示操作盤用インターフェイス
14 通信インターフェイス(ロボット制御装置側)
15 サーボ制御部
16 外部装置用インターフェイス
17 バス
18 教示操作盤
20 CPU
21 ROM
22 画像処理プロセッサ
23 カメラインターフェイス
24 モニタインターフェイス
25 入力機器
26 フレームメモリ
27 不揮発性メモリ
28 RAM
29 通信インターフェイス(画像処理装置側)
30 ツール
31 カメラ注視点
32 ツール取付面
40 視線

Claims (13)

  1. 受光デバイスと、計測すべきターゲット及び前記受光デバイスが相対移動可能となるように構成された多関節ロボットとを有する計測装置であって、
    前記ターゲットが前記受光デバイスの視野内に含まれる、前記ロボットの複数の計測位置及び姿勢を規定する計測位置姿勢規定手段と、
    前記ロボットを前記計測位置姿勢規定手段で規定された複数の計測位置姿勢に順次位置決めする手段と、
    前記受光デバイスの受光面上に結像した前記ターゲットの形状の幾何学的特徴値を検出するターゲット検出手段と、
    前記複数の計測位置姿勢の各々を起点として、前記ターゲットの形状の幾何学的特徴値が前記受光デバイスの受光面上で所定の条件を満足するように前記ロボットを移動するロボット移動手段と、
    前記ロボット移動手段によって移動した前記ロボットの位置及び姿勢を、前記起点の各々に関連付けられた終点として記憶するロボット終点記憶手段と、
    前記ロボット終点記憶手段に記憶された複数の前記終点での前記ロボットの位置及び姿勢に基づいて、前記ロボットの機構パラメータの誤差を求める計算手段と、を備えることを特徴とする計測装置。
  2. 前記計測位置姿勢規定手段は、前記受光デバイスと前記ターゲットの所定点との距離が一定でかつ該所定点を通る前記受光デバイスの視線の傾きが異なる複数の計測位置姿勢を規定する、請求項1に記載の計測装置。
  3. 前記計測位置姿勢規定手段は、前記ターゲットの所定点を通る前記受光デバイスの視線の姿勢が一定でかつ前記受光デバイスと前記ターゲットの該所定点との距離が異なる複数の計測位置姿勢を規定する、請求項1に記載の計測装置。
  4. 前記計測位置姿勢規定手段は、前記複数の計測位置及び姿勢を自動的に生成する、請求項1に記載の計測装置。
  5. 前記ターゲットが複数配置される、請求項1〜4のいずれか1項に記載の計測装置。
  6. 前記受光デバイスを複数有する、請求項1〜5のいずれか1項に記載の計測装置。
  7. 前記計算手段は、ニュートンラプソン法、遺伝的アルゴリズム及びニューラルネットワークを含む非線形問題の最適化法を用いて前記ロボットの機構パラメータの誤差を求める、請求項1〜6のいずれか1項に記載の計測装置。
  8. 前記受光デバイスは2次元画像を撮像するCCDカメラである、請求項1〜7のいずれか1項に記載の計測装置。
  9. 前記受光デバイスの受光面上に結像した前記ターゲットの形状の幾何学的特徴値は、前記受光面上での前記形状の位置及び前記受光デバイスと前記ターゲットとの相対距離を表す情報を含む、請求項8に記載の計測装置。
  10. 前記ターゲットは円形形状を有し、前記情報は前記受光デバイスの受光面に結像した楕円の長軸長を含む、請求項9に記載の計測装置。
  11. 前記受光デバイスは受光量分布の重心を求めるPSDである、請求項1〜7のいずれか1項に記載の計測装置。
  12. 前記ターゲットは発光体である、請求項11に記載の計測装置。
  13. 受光デバイスと、計測すべきターゲット及び前記受光デバイスが相対移動可能となるように構成された多関節ロボットとを有する計測装置を用いた該多関節ロボットのキャリブレーション方法であって、
    前記ターゲットが前記受光デバイスの視野内に含まれる、前記ロボットの複数の計測位置姿勢を規定するステップと、
    前記ロボットを前記複数の計測姿勢に順次位置決めするステップと、
    前記受光デバイスの受光面上に結像した前記ターゲットの形状の幾何学的特徴値を検出するステップと、
    前記複数の計測姿勢の各々を起点として、前記ターゲットの形状の幾何学的特徴値が前記受光デバイスの受光面上で所定の条件を満足するように前記ロボットを移動するステップと、
    移動した前記ロボットの位置及び姿勢を、前記起点の各々に関連付けられた終点として記憶するステップと、
    記憶された複数の前記終点での前記ロボットの位置及び姿勢に基づいて、前記ロボットの機構パラメータの誤差を求めるステップと、を備えることを特徴とするキャリブレーション方法。
JP2006183375A 2006-07-03 2006-07-03 計測装置及びキャリブレーション方法 Active JP4267005B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2006183375A JP4267005B2 (ja) 2006-07-03 2006-07-03 計測装置及びキャリブレーション方法
EP07012599.2A EP1875991B1 (en) 2006-07-03 2007-06-27 Measuring system and calibration method
CN200710126944.3A CN101100061B (zh) 2006-07-03 2007-07-02 测量装置以及校准方法
US11/822,093 US7899577B2 (en) 2006-07-03 2007-07-02 Measuring system and calibration method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006183375A JP4267005B2 (ja) 2006-07-03 2006-07-03 計測装置及びキャリブレーション方法

Publications (2)

Publication Number Publication Date
JP2008012604A true JP2008012604A (ja) 2008-01-24
JP4267005B2 JP4267005B2 (ja) 2009-05-27

Family

ID=38611034

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006183375A Active JP4267005B2 (ja) 2006-07-03 2006-07-03 計測装置及びキャリブレーション方法

Country Status (4)

Country Link
US (1) US7899577B2 (ja)
EP (1) EP1875991B1 (ja)
JP (1) JP4267005B2 (ja)
CN (1) CN101100061B (ja)

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009083095A (ja) * 2007-09-29 2009-04-23 Ihi Corp ロボット装置の制御方法及びロボット装置
JP2010064200A (ja) * 2008-09-11 2010-03-25 Cognex Corp 制御システム、制御方法およびプログラム
DE102009057816A1 (de) 2008-12-10 2010-08-12 Fanuc Ltd Kalibriervorrichtung zum Kalibrieren und Bildmesssystem mit einer Kalibriervorrichtung
JP2014151427A (ja) * 2013-02-14 2014-08-25 Canon Inc ロボットシステム及びロボットシステムの制御方法
JP2016187846A (ja) * 2015-03-30 2016-11-04 セイコーエプソン株式会社 ロボット、ロボット制御装置およびロボットシステム
DE102016116702A1 (de) 2015-09-14 2017-03-16 Fanuc Corporation Messsystem zum Kalibrieren der mechanischen Parameter eines Roboters
JP2017056546A (ja) * 2015-09-14 2017-03-23 ファナック株式会社 ロボットの機構パラメータを校正するために使用される計測装置
DE102016119605A1 (de) 2015-10-21 2017-04-27 Fanuc Corporation Kalibrierungssystem und Kalibrierungsverfahren zur Kalibrierung der mechanischen Parameter des Handgelenksteils eines Roboters
CN106671118A (zh) * 2016-12-24 2017-05-17 合肥知常光电科技有限公司 一种光学滤光片的抓取装置、抓取方法及定位工装
DE102017111543A1 (de) 2016-05-31 2017-11-30 Fanuc Corporation Robotersteuerungsvorrichtung und verfahren zur steuerung eines roboters
JP2017213668A (ja) * 2016-05-31 2017-12-07 ファナック株式会社 ロボット制御装置およびロボット制御方法
JP2019014410A (ja) * 2017-07-10 2019-01-31 新明工業株式会社 トー調整ロボット
DE102018007287A1 (de) 2017-09-22 2019-03-28 Fanuc Corporation Roboter-Controller zum Durchführen einer Kalibrierung, Messsystem und Kalibrierverfahren
US10293499B2 (en) 2017-02-06 2019-05-21 Fanuc Corporation Movable robot
CN110154017A (zh) * 2018-02-16 2019-08-23 欧姆龙株式会社 输送机跟踪系统以及校准方法
US10513035B2 (en) 2016-07-12 2019-12-24 Fanuc Corporation Robot-defective-part diagnosing device and method
CN110834322A (zh) * 2018-08-16 2020-02-25 株式会社三丰 具有辅助测量位置坐标确定系统的机器人系统
CN110834320A (zh) * 2018-08-16 2020-02-25 株式会社三丰 与机器人一起使用的辅助测量位置坐标确定系统
CN110936373A (zh) * 2018-09-24 2020-03-31 株式会社三丰 具有端部工具计量位置坐标确定系统的机器人系统
US11712806B2 (en) 2019-04-01 2023-08-01 Fanuc Corporation Calibration apparatus for calibrating mechanism error parameter for controlling robot
US11745354B2 (en) 2018-08-16 2023-09-05 Mitutoyo Corporation Supplementary metrology position coordinates determination system including an alignment sensor for use with a robot

Families Citing this family (64)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4930853B2 (ja) * 2005-07-15 2012-05-16 株式会社安川電機 ウェハ搬送装置
US8356704B2 (en) * 2006-01-31 2013-01-22 Andrew Flessas Robotically controlled entertainment elements
US11284048B2 (en) 2006-01-31 2022-03-22 Andrew Flessas Robotically controlled display
JP4298757B2 (ja) * 2007-02-05 2009-07-22 ファナック株式会社 ロボット機構のキャリブレーション装置及び方法
SG152090A1 (en) * 2007-10-23 2009-05-29 Hypertronics Pte Ltd Scan head calibration system and method
DE102008021624A1 (de) * 2008-04-30 2008-12-18 Daimler Ag Verfahren zum Einrichten eines Messpunktes für einen Sensor
JP2010052067A (ja) * 2008-08-27 2010-03-11 Kawasaki Heavy Ind Ltd 自動仕上げ装置とその制御方法
CN101604167B (zh) * 2009-07-15 2011-05-25 南京航空航天大学 一种基于几何特征辅助和混沌感知的机器人自主定向方法
JP4763074B2 (ja) * 2009-08-03 2011-08-31 ファナック株式会社 ロボットのツール先端点の位置の計測装置および計測方法
NO331345B1 (no) * 2010-02-05 2011-12-05 Esben Beck Anordning og fremgangsmate for a uskadeliggjore parasitter pa fisk
US9393694B2 (en) * 2010-05-14 2016-07-19 Cognex Corporation System and method for robust calibration between a machine vision system and a robot
JP4819957B1 (ja) * 2010-06-01 2011-11-24 ファナック株式会社 ロボットの位置情報復元装置および位置情報復元方法
JP5573537B2 (ja) * 2010-09-17 2014-08-20 株式会社デンソーウェーブ ロボットのティーチングシステム
TWI404609B (zh) * 2010-10-21 2013-08-11 Ind Tech Res Inst 機械手臂系統參數的校正方法與校正裝置
DE102011086941B4 (de) * 2011-11-23 2016-01-21 Kuka Roboter Gmbh Industrieroboter
JP6025386B2 (ja) 2012-05-02 2016-11-16 キヤノン株式会社 画像計測装置、画像計測方法及び画像計測プログラム
KR20140083753A (ko) * 2012-12-26 2014-07-04 현대모비스 주식회사 제약조건을 반영한 표적추적방법
JP2014180720A (ja) * 2013-03-19 2014-09-29 Yaskawa Electric Corp ロボットシステム及びキャリブレーション方法
US9457470B2 (en) * 2013-04-05 2016-10-04 Abb Technology Ltd Robot system and method for calibration
DE102014100538B4 (de) * 2014-01-17 2022-09-08 Pi4_Robotics Gmbh Verfahren zum Kalibrieren eines Roboters und einer Kamera und System zum Durchführen des Verfahrens
US10735902B1 (en) * 2014-04-09 2020-08-04 Accuware, Inc. Method and computer program for taking action based on determined movement path of mobile devices
US9889565B2 (en) 2014-06-23 2018-02-13 Abb Schweiz Ag Method for calibrating a robot and a robot system
CN104385270B (zh) * 2014-09-25 2016-09-07 国家电网公司 一种智能表库的激光感应智能定位系统和方法
WO2016151360A1 (en) 2015-03-23 2016-09-29 National Research Council Of Canada Multi-jointed robot deviation under load determination
DE102015104587B4 (de) * 2015-03-26 2022-04-28 Pi4_Robotics Gmbh Verfahren zum Kalibrieren eines Roboters an einem Arbeitsbereich und System zum Durchführen des Verfahrens
CN104827474B (zh) * 2015-05-04 2017-06-27 南京理工大学 学习人的虚拟示教机器人智能编程方法及辅助装置
CN106276285B (zh) * 2015-05-29 2018-07-06 宝山钢铁股份有限公司 组料垛位自动检测方法
JP2016221645A (ja) * 2015-06-02 2016-12-28 セイコーエプソン株式会社 ロボット、ロボット制御装置およびロボットシステム
US9718192B2 (en) * 2015-06-24 2017-08-01 National Taipei University Of Technology System for automatically and precisely positioning robotic arm and method thereof
US10547796B2 (en) 2015-07-14 2020-01-28 Industrial Technology Research Institute Calibration equipment and calibration method of a mechanical system
KR101962889B1 (ko) * 2015-07-27 2019-03-28 한국전자통신연구원 작업환경 변화에 적응적인 로봇 동작 데이터 제공장치 및 그 방법
KR20180015774A (ko) * 2015-09-25 2018-02-14 두산로보틱스 주식회사 로봇 제어 방법 및 장치
CN106610279A (zh) * 2015-10-27 2017-05-03 中国飞行试验研究院 一种大倾斜角下数字摄影测量方法
US9815204B2 (en) * 2016-01-22 2017-11-14 The Boeing Company Apparatus and method to optically locate workpiece for robotic operations
WO2017128284A1 (en) * 2016-01-29 2017-08-03 Abb Schweiz Ag Method for calibrating touchscreen panel with industrial robot and system, industrial robot and touchscreen using the same
CN105773613B (zh) * 2016-03-30 2017-09-19 东莞市速美达自动化有限公司 一种水平机器人相机坐标系校定方法
CN105773661B (zh) * 2016-03-30 2018-08-21 广东速美达自动化股份有限公司 水平机器人固定相机下工件平移旋转标定方法
TWI601611B (zh) * 2016-04-08 2017-10-11 台達電子工業股份有限公司 用於機器手臂系統之機構參數校正方法
JP6487385B2 (ja) * 2016-07-20 2019-03-20 ファナック株式会社 ロボットの原点位置較正装置および方法
TWI614103B (zh) * 2016-10-21 2018-02-11 和碩聯合科技股份有限公司 機械手臂定位方法及應用其的系統
CN106546190B (zh) * 2016-11-30 2019-04-16 山西省交通科学研究院 一种用于表面缺陷检测的机械手装置及方法
JP6396516B2 (ja) * 2017-01-12 2018-09-26 ファナック株式会社 視覚センサのキャリブレーション装置、方法及びプログラム
JP6527178B2 (ja) * 2017-01-12 2019-06-05 ファナック株式会社 視覚センサのキャリブレーション装置、方法及びプログラム
JP6964989B2 (ja) * 2017-02-09 2021-11-10 キヤノン株式会社 制御方法、ロボットシステム、物品の製造方法、プログラム、及び記録媒体
JP6860843B2 (ja) 2017-02-20 2021-04-21 株式会社安川電機 ロボットシステム、ロボット制御装置、及びロボット制御方法
JP6484287B2 (ja) * 2017-05-19 2019-03-13 ファナック株式会社 リニアガイドの損傷検知装置及び損傷検知方法
US10415967B2 (en) 2017-10-16 2019-09-17 Electronic Theatre Controls, Inc. System and method for determining a position of a light fixture
CN109866220B (zh) 2017-12-05 2021-07-23 财团法人工业技术研究院 机械手臂的校正装置及其校正方法
CN109895121A (zh) * 2017-12-07 2019-06-18 泰科电子(上海)有限公司 机械臂控制系统和方法
CN108257186B (zh) * 2018-01-18 2021-03-23 广州视源电子科技股份有限公司 标定图像的确定方法及装置、摄像机及存储介质
CN112584984A (zh) * 2018-08-16 2021-03-30 株式会社三丰 用于机器人的包括对准传感器的辅助度量位置坐标确定系统
KR102561103B1 (ko) * 2018-11-16 2023-07-31 삼성전자주식회사 로봇 보정 시스템 및 그것의 보정 방법
CN109605344B (zh) * 2019-01-09 2021-02-09 北京精密机电控制设备研究所 一种多自由度开环步进串联机械臂及其控制方法
US10369698B1 (en) * 2019-03-07 2019-08-06 Mujin, Inc. Method and system for performing automatic camera calibration for robot control
CN111716346B (zh) * 2019-03-20 2021-09-17 台达电子工业股份有限公司 机械手臂工具校正方法及其校正装置
US10399227B1 (en) 2019-03-29 2019-09-03 Mujin, Inc. Method and control system for verifying and updating camera calibration for robot control
US10906184B2 (en) 2019-03-29 2021-02-02 Mujin, Inc. Method and control system for verifying and updating camera calibration for robot control
CN110065072B (zh) * 2019-05-21 2021-04-20 西南交通大学 机器人重复定位精度的验证方法
WO2021040714A1 (en) 2019-08-29 2021-03-04 Flessas Andrew Method and system for moving cameras using robotic mounts
WO2022075159A1 (ja) 2020-10-06 2022-04-14 ファナック株式会社 ロボットのツール変形量算出装置、ロボットのツール変形量算出システム、及びロボットのツール変形量算出方法
US11425308B2 (en) 2020-12-02 2022-08-23 Andrew Flessas Robotically movable display synchronously movable with robotically movable camera for displaying captured images in identical orientation
JP2023175167A (ja) * 2022-05-30 2023-12-12 セイコーエプソン株式会社 キャリブレーション方法およびロボットシステム
EP4335599A1 (en) * 2022-09-12 2024-03-13 fruitcore robotics GmbH Robot cell calibration
CN116295127B (zh) * 2023-05-22 2023-08-08 四川蜀旺新能源股份有限公司 一种测量光线长度确定热电联供受光面方位的方法

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4456961A (en) * 1982-03-05 1984-06-26 Texas Instruments Incorporated Apparatus for teaching and transforming noncoincident coordinate systems
US4481592A (en) * 1982-03-05 1984-11-06 Texas Instruments Incorporated Calibration system for a programmable manipulator
JPS6125207A (ja) * 1984-07-12 1986-02-04 Fanuc Ltd ツ−ル座標系の設定方式
JP2640339B2 (ja) 1984-12-03 1997-08-13 株式会社不二越 ロボット定数の自動補正方法
JPH08384B2 (ja) * 1987-09-16 1996-01-10 ファナック株式会社 ツール先端点の自動設定方式
JPH04259007A (ja) 1991-02-13 1992-09-14 Nachi Fujikoshi Corp ロボットの機差補正方法
JP2682763B2 (ja) 1991-06-29 1997-11-26 ファナック株式会社 ロボット機体の作動誤差の自動測定方法
JP3252870B2 (ja) 1993-02-19 2002-02-04 株式会社安川電機 画像認識用ロボットカメラのキャリブレーシヨン方法
US6070109A (en) * 1998-03-10 2000-05-30 Fanuc Robotics North America, Inc. Robot calibration system
JP3421608B2 (ja) * 1999-04-08 2003-06-30 ファナック株式会社 教示モデル生成装置
JP2001038662A (ja) 1999-08-04 2001-02-13 Honda Motor Co Ltd 作業ロボットの校正方法
SE0001312D0 (sv) * 2000-04-10 2000-04-10 Abb Ab Industrirobot
JP2003230959A (ja) 2002-02-06 2003-08-19 Toshiba Corp 遠隔操作型溶接ロボットシステム
KR100493159B1 (ko) * 2002-10-01 2005-06-02 삼성전자주식회사 이동체의 효율적 자기 위치 인식을 위한 랜드마크 및 이를이용한 자기 위치 인식 장치 및 방법
JP3733364B2 (ja) * 2003-11-18 2006-01-11 ファナック株式会社 教示位置修正方法
JP4021413B2 (ja) 2004-01-16 2007-12-12 ファナック株式会社 計測装置
JP4191080B2 (ja) * 2004-04-07 2008-12-03 ファナック株式会社 計測装置
JP3946711B2 (ja) * 2004-06-02 2007-07-18 ファナック株式会社 ロボットシステム
JP3946716B2 (ja) * 2004-07-28 2007-07-18 ファナック株式会社 ロボットシステムにおける3次元視覚センサの再校正方法及び装置
JP2006110705A (ja) 2004-09-15 2006-04-27 Yaskawa Electric Corp ロボットのキャリブレーション方法
US7536242B2 (en) * 2004-11-12 2009-05-19 The Boeing Company Optical laser guidance system apparatus and method
US20070106307A1 (en) * 2005-09-30 2007-05-10 Restoration Robotics, Inc. Methods for implanting follicular units using an automated system

Cited By (38)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009083095A (ja) * 2007-09-29 2009-04-23 Ihi Corp ロボット装置の制御方法及びロボット装置
JP2010064200A (ja) * 2008-09-11 2010-03-25 Cognex Corp 制御システム、制御方法およびプログラム
DE102009057816A1 (de) 2008-12-10 2010-08-12 Fanuc Ltd Kalibriervorrichtung zum Kalibrieren und Bildmesssystem mit einer Kalibriervorrichtung
US8350913B2 (en) 2008-12-10 2013-01-08 Fanuc Ltd Calibrating device for calibration and image measurement system comprising calibrating device
JP2014151427A (ja) * 2013-02-14 2014-08-25 Canon Inc ロボットシステム及びロボットシステムの制御方法
JP2016187846A (ja) * 2015-03-30 2016-11-04 セイコーエプソン株式会社 ロボット、ロボット制御装置およびロボットシステム
US10035268B2 (en) 2015-09-14 2018-07-31 Fanuc Corporation Measurement system used for calibrating mechanical parameters of robot
DE102016116702A1 (de) 2015-09-14 2017-03-16 Fanuc Corporation Messsystem zum Kalibrieren der mechanischen Parameter eines Roboters
JP2017056546A (ja) * 2015-09-14 2017-03-23 ファナック株式会社 ロボットの機構パラメータを校正するために使用される計測装置
DE102016116702B4 (de) 2015-09-14 2019-01-24 Fanuc Corporation Messsystem zum Kalibrieren der mechanischen Parameter eines Roboters
US10189161B2 (en) 2015-10-21 2019-01-29 Fanuc Corporation Calibration system and calibration method calibrating mechanical parameters of wrist part of robot
JP2017077609A (ja) * 2015-10-21 2017-04-27 ファナック株式会社 ロボットの手首部の機構パラメータを校正する校正装置および校正方法
DE102016119605A1 (de) 2015-10-21 2017-04-27 Fanuc Corporation Kalibrierungssystem und Kalibrierungsverfahren zur Kalibrierung der mechanischen Parameter des Handgelenksteils eines Roboters
DE102017111543A1 (de) 2016-05-31 2017-11-30 Fanuc Corporation Robotersteuerungsvorrichtung und verfahren zur steuerung eines roboters
JP2017213668A (ja) * 2016-05-31 2017-12-07 ファナック株式会社 ロボット制御装置およびロボット制御方法
DE102017111543B4 (de) * 2016-05-31 2019-11-07 Fanuc Corporation Robotersteuerungsvorrichtung und ein Verfahren zur Steuerung eines Roboters
US10335950B2 (en) 2016-05-31 2019-07-02 Fanuc Corporation Robot control apparatus and robot control method
US10513035B2 (en) 2016-07-12 2019-12-24 Fanuc Corporation Robot-defective-part diagnosing device and method
CN106671118A (zh) * 2016-12-24 2017-05-17 合肥知常光电科技有限公司 一种光学滤光片的抓取装置、抓取方法及定位工装
CN106671118B (zh) * 2016-12-24 2023-11-17 合肥知常光电科技有限公司 一种光学滤光片的抓取装置、抓取方法及定位工装
US10293499B2 (en) 2017-02-06 2019-05-21 Fanuc Corporation Movable robot
JP2019014410A (ja) * 2017-07-10 2019-01-31 新明工業株式会社 トー調整ロボット
JP2019055469A (ja) * 2017-09-22 2019-04-11 ファナック株式会社 キャリブレーションを行うロボット制御装置、計測システム及びキャリブレーション方法
DE102018007287A1 (de) 2017-09-22 2019-03-28 Fanuc Corporation Roboter-Controller zum Durchführen einer Kalibrierung, Messsystem und Kalibrierverfahren
US10569418B2 (en) 2017-09-22 2020-02-25 Fanuc Corporation Robot controller for executing calibration, measurement system and calibration method
DE102018007287B4 (de) * 2017-09-22 2020-10-01 Fanuc Corporation Roboter-Controller zum Durchführen einer Kalibrierung, Messsystem und Kalibrierverfahren
US11021333B2 (en) 2018-02-16 2021-06-01 Omron Corporation Conveyor tracking system and calibration method
CN110154017A (zh) * 2018-02-16 2019-08-23 欧姆龙株式会社 输送机跟踪系统以及校准方法
JP2019141935A (ja) * 2018-02-16 2019-08-29 オムロン株式会社 コンベアトラッキングシステムおよびキャリブレーション方法
CN110154017B (zh) * 2018-02-16 2022-07-26 欧姆龙株式会社 输送机跟踪系统以及校准方法
CN110834320A (zh) * 2018-08-16 2020-02-25 株式会社三丰 与机器人一起使用的辅助测量位置坐标确定系统
CN110834320B (zh) * 2018-08-16 2023-02-24 株式会社三丰 与机器人一起使用的辅助测量位置坐标确定系统
CN110834322B (zh) * 2018-08-16 2023-02-28 株式会社三丰 具有辅助测量位置坐标确定系统的机器人系统
US11745354B2 (en) 2018-08-16 2023-09-05 Mitutoyo Corporation Supplementary metrology position coordinates determination system including an alignment sensor for use with a robot
CN110834322A (zh) * 2018-08-16 2020-02-25 株式会社三丰 具有辅助测量位置坐标确定系统的机器人系统
CN110936373A (zh) * 2018-09-24 2020-03-31 株式会社三丰 具有端部工具计量位置坐标确定系统的机器人系统
CN110936373B (zh) * 2018-09-24 2023-02-28 株式会社三丰 具有端部工具计量位置坐标确定系统的机器人系统
US11712806B2 (en) 2019-04-01 2023-08-01 Fanuc Corporation Calibration apparatus for calibrating mechanism error parameter for controlling robot

Also Published As

Publication number Publication date
US20080004750A1 (en) 2008-01-03
EP1875991B1 (en) 2014-03-26
EP1875991A3 (en) 2009-12-23
CN101100061A (zh) 2008-01-09
JP4267005B2 (ja) 2009-05-27
US7899577B2 (en) 2011-03-01
CN101100061B (zh) 2012-10-10
EP1875991A2 (en) 2008-01-09

Similar Documents

Publication Publication Date Title
JP4267005B2 (ja) 計測装置及びキャリブレーション方法
JP4298757B2 (ja) ロボット機構のキャリブレーション装置及び方法
US10035268B2 (en) Measurement system used for calibrating mechanical parameters of robot
US9050728B2 (en) Apparatus and method for measuring tool center point position of robot
JP4191080B2 (ja) 計測装置
US10618166B2 (en) Teaching position correction device and teaching position correction method
JP6235664B2 (ja) ロボットの機構パラメータを校正するために使用される計測装置
US9517560B2 (en) Robot system and calibration method of the robot system
JP3733364B2 (ja) 教示位置修正方法
US7532949B2 (en) Measuring system
EP1607194B1 (en) Robot system comprising a plurality of robots provided with means for calibrating their relative position
US8306660B2 (en) Device and a method for restoring positional information of robot
US20060023938A1 (en) Method of and device for re-calibrating three-dimensional visual sensor in robot system
JP6298026B2 (ja) 多関節ロボットのたわみを計測するたわみ計測システム
CN109531604B (zh) 进行校准的机器人控制装置、测量系统以及校准方法
KR20080088165A (ko) 로봇 캘리브레이션 방법

Legal Events

Date Code Title Description
A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20080129

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20080229

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080304

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080428

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20080715

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080910

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20080918

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20081128

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090217

R150 Certificate of patent or registration of utility model

Ref document number: 4267005

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120227

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120227

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130227

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140227

Year of fee payment: 5