JP6335460B2 - ロボットシステムの制御装置及び指令値生成方法、並びにロボットシステムの制御方法 - Google Patents

ロボットシステムの制御装置及び指令値生成方法、並びにロボットシステムの制御方法 Download PDF

Info

Publication number
JP6335460B2
JP6335460B2 JP2013200202A JP2013200202A JP6335460B2 JP 6335460 B2 JP6335460 B2 JP 6335460B2 JP 2013200202 A JP2013200202 A JP 2013200202A JP 2013200202 A JP2013200202 A JP 2013200202A JP 6335460 B2 JP6335460 B2 JP 6335460B2
Authority
JP
Japan
Prior art keywords
calibration
value
robot body
robot
orientation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013200202A
Other languages
English (en)
Other versions
JP2015066603A5 (ja
JP2015066603A (ja
Inventor
鈴木 秀明
秀明 鈴木
新吾 天野
新吾 天野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2013200202A priority Critical patent/JP6335460B2/ja
Priority to US14/488,078 priority patent/US9669545B2/en
Priority to EP14185885.2A priority patent/EP2853356A1/en
Priority to CN201410504893.3A priority patent/CN104511900B/zh
Publication of JP2015066603A publication Critical patent/JP2015066603A/ja
Publication of JP2015066603A5 publication Critical patent/JP2015066603A5/ja
Priority to US15/490,638 priority patent/US10279479B2/en
Application granted granted Critical
Publication of JP6335460B2 publication Critical patent/JP6335460B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1692Calibration of manipulator
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39008Fixed camera detects reference pattern held by end effector
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39044Estimate error model from error at different attitudes and points
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39045Camera on end effector detects reference pattern

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Manipulator (AREA)

Description

本発明は、複数の関節が制御されることにより駆動する多関節アーム及び視覚センサを利用するロボット装置におけるロボット校正装置及びロボット校正方法、並びにロボット装置及びロボット装置の制御方法に関する。
従来、垂直多関節アーム及びエンドエフェクタ(以下、ロボット本体という)と、これらを制御する制御装置とを備え、アームの先端部に視覚センサ(以下、カメラともいう)を取り付けたロボット装置が普及している。このロボット装置では、カメラによりワーク等の対象物を計測し、計測結果から制御装置が対象物の位置姿勢を演算し、演算して得られた対象物の位置姿勢に基づいてロボット本体の位置姿勢を制御するようになっている。
一般に、カメラが基準とする計測座標系と、ロボット本体が基準とする動作座標系とは異なっているので、カメラの計測値からロボット本体の動作目標値(指令値)を得るためには、カメラの計測値を計測座標系から動作座標系に座標変換する必要がある。この座標変換を行うためには、事前に計測座標系と動作座標系との校正作業を行い、校正値(座標変換式)を求めておく必要がある。
この校正作業の例としては、例えば、ロボット本体に複数の位置姿勢を順次取らせながら、各々の位置姿勢においてカメラにより校正用基準物を計測する所謂ハンドアイキャリブレーション方法が知られている(特許文献1及び非特許文献1参照)。この方法では、ロボット本体の各位置姿勢におけるロボット本体の先端部への指令値と、カメラからの校正用基準物の計測値との関係から、残差が最小となるように動作座標系と計測座標系との関係を求め、校正値を得ている。
特開平10−063317号公報
Hand-Eye Calibration (Radu Horaud and Fadi Dornaika, 1995)
特許文献1に記載された座標校正方法はロボット本体の動作誤差を考慮したものではなかったが、実際にはアームでの機械誤差や撓み等に起因して動作誤差が発生する。また、動作誤差以外にも、組立誤差やレンズ歪みといったロボット本体ごとに異なる固有の誤差もある。これらの誤差は、従来の座標校正方法では十分に抑制することができず、ロボット本体の位置姿勢の制御において精度向上の妨げとなっていた。
本発明は、動作誤差等を含めたロボット本体の位置姿勢を演算することで、ロボット本体の位置姿勢の制御の精度を向上できるロボット校正装置及びロボット校正方法、並びにロボット装置及びロボット装置の制御方法を提供することを目的とする。
本発明は、複数の関節を備えるロボット本体と、前記ロボット本体の先端部に固定された視覚センサと、を有するロボットシステムの制御装置において、複数の校正用指令値に基づいて前記ロボット本体を複数の位置姿勢に制御しながら、前記視覚センサにて校正用基準物が備える複数のマーカを撮像することにより、前記校正用基準物について複数の計測値を取得する処理と、前記複数の校正用指令値と、前記校正用基準物の複数の計測値とから、前記視覚センサの座標系と前記ロボット本体の手先座標系の位置姿勢関係を表す第一校正値と、前記ロボット本体の基端部の座標系と前記校正用基準物の座標系の位置姿勢関係をあらわす第二校正値と、を求める処理と、前記複数の校正用指令値に基づく前記ロボット本体の複数の位置姿勢と、前記複数の計測値と前記第一校正値と前記第二校正値を用いて演算された前記ロボット本体の実際の位置姿勢の推定値と、の差分に基づいて、前記ロボット本体に対する指令値と実際の位置姿勢の推定値との関係を表す校正関数を求める処理と、前記視覚センサにて対象物を撮像することにより前記対象物の計測値を取得する処理と、前記対象物の計測値と前記第一校正値と前記校正関数とを用いて、前記対象物に対して前記ロボット本体を動作させる際の前記ロボット本体の位置姿勢の制御に用いる指令値を校正する処理と、を行う処理装置を備える、ことを特徴とするロボットシステムの制御装置である
また、本発明は、複数の関節を備えるロボット本体と、前記ロボット本体の基端部に固定された架台と相対的に位置決めされた視覚センサと、を有するロボットシステムの制御装置において、複数の校正用指令値に基づいて、校正用基準物を支持する前記ロボット本体を複数の位置姿勢に制御しながら、前記視覚センサにて前記校正用基準物が備える複数のマーカを撮像することにより、前記校正用基準物について複数の計測値を取得する処理と、前記複数の校正用指令値と、前記校正用基準物の複数の計測値とから、前記視覚センサの座標系と前記ロボット本体の基端部の座標系の位置姿勢関係を表す第三校正値と、前記ロボット本体の先端部の座標系と前記校正用基準物の座標系の位置姿勢関係をあらわす第四校正値と、を求める処理と、前記複数の校正用指令値に基づく前記ロボット本体の複数の位置姿勢と、前記複数の計測値と前記第三校正値と前記第四校正値を用いて演算された前記ロボット本体の実際の位置姿勢の推定値と、の差分に基づいて、前記ロボット本体に対する指令値と実際の位置姿勢の推定値との関係を表す校正関数を求める処理と、前記視覚センサにて対象物を撮像することにより前記対象物の計測値を取得する処理と、前記対象物の計測値と前記第三校正値と前記校正関数とを用いて、前記対象物に対して前記ロボット本体を動作させる際の前記ロボット本体の位置姿勢の制御に用いる指令値を校正する処理と、を行う処理装置を備える、ことを特徴とするロボットシステムの制御装置である。
また、本発明は、複数の関節を備えるロボット本体と、前記ロボット本体の先端部に固定された視覚センサと、を備えるロボットシステムに対する指令値を生成する指令値生成方法であって、制御装置が、複数の校正用指令値に基づいて前記ロボット本体を複数の位置姿勢に制御しながら、前記視覚センサにて校正用基準物が備える複数のマーカを撮像することにより、前記校正用基準物について複数の計測値を取得する処理と、前記複数の校正用指令値と、前記校正用基準物の複数の計測値とから、前記視覚センサの座標系と前記ロボット本体の手先座標系の位置姿勢関係を表す第一校正値と、前記ロボット本体の基端部の座標系と前記校正用基準物の座標系の位置姿勢関係をあらわす第二校正値と、を求める処理と、前記複数の校正用指令値に基づく前記ロボット本体の複数の位置姿勢と、前記複数の計測値と前記第一校正値と前記第二校正値を用いて演算された前記ロボット本体の実際の位置姿勢の推定値と、の差分に基づいて、前記ロボット本体に対する指令値と実際の位置姿勢の推定値との関係を表す校正関数を求める処理と、前記視覚センサにて対象物を撮像することにより前記対象物の計測値を取得する処理と、前記対象物の計測値と前記第一校正値と前記校正関数とを用いて、前記対象物に対して前記ロボット本体を動作させる際の前記ロボット本体の位置姿勢の制御に用いる指令値を校正する処理と、を行う、ことを特徴とする指令値生成方法である
また、本発明は、複数の関節を備えるロボット本体と、前記ロボット本体の基端部に固定された架台と相対的に位置決めされた視覚センサと、を備えるロボットシステムに対する指令値を生成する指令値生成方法であって、制御装置が、複数の校正用指令値に基づいて、校正用基準物を支持する前記ロボット本体を複数の位置姿勢に制御しながら、前記視覚センサにて前記校正用基準物が備える複数のマーカを撮像することにより、前記校正用基準物について複数の計測値を取得する処理と、前記複数の校正用指令値と、前記校正用基準物の複数の計測値とから、前記視覚センサの座標系と前記ロボット本体の基端部の座標系の位置姿勢関係を表す第三校正値と、前記ロボット本体の先端部の座標系と前記校正用基準物の座標系の位置姿勢関係をあらわす第四校正値と、を求める処理と、前記複数の校正用指令値に基づく前記ロボット本体の複数の位置姿勢と、前記複数の計測値と前記第三校正値と前記第四校正値を用いて演算された前記ロボット本体の実際の位置姿勢の推定値と、の差分に基づいて、前記ロボット本体に対する指令値と実際の位置姿勢の推定値との関係を表す校正関数を求める処理と、前記視覚センサにて対象物を撮像することにより前記対象物の計測値を取得する処理と、前記対象物の計測値と前記第三校正値と前記校正関数とを用いて、前記対象物に対して前記ロボット本体を動作させる際の前記ロボット本体の位置姿勢の制御に用いる指令値を校正する処理と、を行う、ことを特徴とする指令値生成方法である。
また、本発明は、複数の関節を備えるロボット本体と、前記ロボット本体の先端部に固定された視覚センサと、を備えるロボットシステムの制御方法であって、制御装置が、複数の校正用指令値に基づいて前記ロボット本体を複数の位置姿勢に制御しながら、前記視覚センサにて校正用基準物が備える複数のマーカを撮像することにより、前記校正用基準物について複数の計測値を取得する処理と、前記複数の校正用指令値と、前記校正用基準物の複数の計測値とから、前記視覚センサの座標系と前記ロボット本体の手先座標系の位置姿勢関係を表す第一校正値と、前記ロボット本体の基端部の座標系と前記校正用基準物の座標系の位置姿勢関係をあらわす第二校正値と、を求める処理と、前記複数の校正用指令値に基づく前記ロボット本体の複数の位置姿勢と、前記複数の計測値と前記第一校正値と前記第二校正値を用いて演算された前記ロボット本体の実際の位置姿勢の推定値と、の差分に基づいて、前記ロボット本体に対する指令値と実際の位置姿勢の推定値との関係を表す校正関数を求める処理と、前記視覚センサにて対象物を撮像することにより前記対象物の計測値を取得する処理と、前記対象物の計測値と前記第一校正値と前記校正関数とを用いて、前記対象物に対して前記ロボット本体を動作させる際の前記ロボット本体の位置姿勢の制御に用いる指令値を校正する処理と、を行う、ことを特徴とするロボットシステムの制御方法である。
また、本発明は、複数の関節を備えるロボット本体と、前記ロボット本体の基端部に固定された架台と相対的に位置決めされた視覚センサと、を備えるロボットシステムの制御方法であって、制御装置が、複数の校正用指令値に基づいて、校正用基準物を支持する前記ロボット本体を複数の位置姿勢に制御しながら、前記視覚センサにて前記校正用基準物が備える複数のマーカを撮像することにより、前記校正用基準物について複数の計測値を取得する処理と、前記複数の校正用指令値と、前記校正用基準物の複数の計測値とから、前記視覚センサの座標系と前記ロボット本体の基端部の座標系の位置姿勢関係を表す第三校正値と、前記ロボット本体の先端部の座標系と前記校正用基準物の座標系の位置姿勢関係をあらわす第四校正値と、を求める処理と、前記複数の校正用指令値に基づく前記ロボット本体の位置姿勢と、前記計測値と前記第三校正値と前記第四校正値を用いて演算された前記ロボット本体の実際の位置姿勢の推定値と、の差分に基づいて、前記ロボット本体に対する指令値と実際の位置姿勢の推定値との関係を表す校正関数を求める処理と、前記視覚センサにて対象物を撮像することにより前記対象物の計測値を取得する処理と、前記対象物の計測値と前記第三校正値と前記校正関数とを用いて、前記対象物に対して前記ロボット本体を動作させる際の前記ロボット本体の位置姿勢の制御に用いる指令値を校正する処理と、を行う、ことを特徴とするロボットシステムの制御方法である。
本発明では、校正用の指令値又は該指令値に基づいて制御された結果の制御結果値に基づくロボット本体の第一の位置姿勢と、その指令値に対応するロボット本体の第二の位置姿勢との差分に基づいて、校正関数を算出する。そして、本発明では、校正関数に基づいて仮の指令値を校正し、得られた校正後指令値によりロボット本体の位置姿勢を制御している。従って、本発明によれば、従来のハンドアイキャリブレーション方法と異なり、ロボット本体の動作誤差や固有の誤差を打ち消すことができるので、ロボット本体の位置姿勢の制御において精度向上を図ることができる。
本発明の第1実施形態に係るロボットシステムの概略構成を示す説明図である。 本発明の第1実施形態に係るロボットシステムで座標校正を行い、ロボット本体を制御する際の処理手順を示すフローチャートである。 本発明の第1実施形態に係るロボットシステムで校正用データを取得する際の処理手順を示すフローチャートである。 本発明の第1実施形態に係るロボットシステムで校正関数を算出する際の処理手順を示すフローチャートである。 本発明の第1実施形態に係るロボットシステムにより校正値を算出する際のロボット本体の位置姿勢を示す説明図である。 本発明の第1実施形態に係るロボットシステムにより動作誤差を算出する際のロボット本体の位置姿勢を示す説明図である。 本発明の第2実施形態に係るロボットシステムの概略構成を示す説明図である。 本発明の第2実施形態に係るロボットシステムにより校正値を算出する際のロボット本体の位置姿勢を示す説明図である。 本発明の第1実施形態に係るロボットシステムの制御装置とロボット校正装置とが別個に構成される変形例の概略構成を示す説明図である。
以下、本発明を実施するための形態を、図面を参照しながら詳細に説明する。
[第1実施形態]
本実施形態のロボットシステム1の説明に先立って、本明細書中での数式表現の定義について説明する。本明細書中では、ロボットシステム1を構成する多関節アーム20、ハンド21、カメラ3、ワーク6等について、6自由度の位置姿勢を3次元の座標系により表すと共に、任意の2つの座標系の相対位置姿勢を座標変換行列(同次変換行列)によって表現する。
まず、任意の座標系Aから任意の座標系Bに向かう相対位置姿勢を表す座標変換行列をと記述し、その座標変換行列が示す相対位置姿勢を相対位置姿勢とも記述する。例えば、本実施形態では、図1に示すように、後述するロボット座標系Rを基準とする手先座標系Tの相対位置姿勢をで示し、また後述するカメラ座標系Vを基準とするワーク座標系Wの相対位置姿勢をで示す。
相対位置姿勢は、回転行列Rot及び並進ベクトルtを用いて、数式1のように定義される。
Figure 0006335460
数式1において、回転行列Rotは3次元の回転を表す3×3の行列であり、並進ベクトルtは3×1の3次元ベクトルである。並進の移動量のX,Y,Z成分をそれぞれt,t,tと表し、XYZ各軸回りの回転成分をθ,θ,θで表すと、回転行列Rotは数式2のように定義されると共に、並進ベクトルtは数式3のように定義される。
Figure 0006335460
Figure 0006335460
なお、数式2では、XYZ各軸回りの回転成分を表す回転行列を、それぞれRotx,Roty,Rotzとしている。
次に、座標変換行列の性質として、任意の座標系A,B,Cに対して、数式4が成立する。
Figure 0006335460
即ち、座標系Aに対する座標系Bの相対位置姿勢と座標系Bに対する座標系Cの相対位置姿勢とを乗算することにより、座標系Aに対する座標系Cの相対位置姿勢を求めることができる。
また、座標系Bに対する座標系Aの相対位置姿勢を求めるためには、数式5のように逆行列を算出する。
Figure 0006335460
また、並進の移動量及び各軸回りの回転成分からなるベクトル(t,t,t,θ,θ,θ)から座標変換行列を求めるには、本来は数式1〜数式3を用いて表示する必要がある。これに対し、本明細書中では、簡易にH(t,t,t,θ,θ,θ)を用いて数式6に表すようにする。
Figure 0006335460
同様に、座標変換行列から並進の移動量及び各軸回りの回転成分からなるベクトル(t,t,t,θ,θ,θ)を求める逆変換式についても、数式1〜数式3を用いた表示にせずに、pose()として数式7に表すようにする。
Figure 0006335460
(但し、−180[deg]<θ,θ,θ<180[deg])
pose()の変換において、θ=±90[deg]の場合は解が一意に求まらないが、その場合には複数存在する解のうち1つが算出されるものとする。尚、本実施形態では、座標変換行列の対象範囲はロボット本体2の動作誤差程度の小さい角度範囲であるので、θ=±90[deg]になる場合は稀であり、上述した解が一意に求まらない場合の影響は極めて小さい。
次に、本実施形態に係るロボットシステム1について説明する。
図1に示すように、ロボットシステム1は、ロボット装置1aと、ロボット校正部(制御部)47とを備えている。ロボット装置1aは、多関節アーム20及びハンド21を有するロボット本体2と、該ロボット本体2に設けられた単眼のカメラ(視覚センサ)3と、ロボット本体2の位置姿勢を制御する制御装置(ロボット校正装置)4と、を備えている。
多関節アーム20(以下、アームという)は、ロボット本体2の基端部に固定された架台5に固定されており、架台5には該架台5を基準にしてアーム20の位置姿勢を表すロボット座標系Rが設定されている。また、架台5には、ワーク(対象物)6が載置されるようになっており、ワーク6には該ワーク6を基準にしてワーク座標系Wが設定されている。
アーム20としては、7つのリンクと、各リンクを揺動又は回動可能に連結する6つの関節とを備える6軸の垂直多関節アーム20を適用している。本実施形態では6軸の垂直多関節アーム20を適用しているが、これに限らず、軸数は用途や目的に応じて適宜変更してもよい。
各関節には、各関節を各々駆動するモータあるいは必要に応じて直動アクチュエータが、出力機器として設けられている。各関節には、モータの回転角度を検知するエンコーダと、各モータに供給する電流を検知する電流センサと、各関節のトルクを検知するトルクセンサとが、入力機器として設けられている。
アーム20は、制御装置4のロボット制御部(制御部)44から出力される指令値により各関節を駆動して、ハンド21の位置姿勢を調整するようになっている。ロボット制御部44は、ロボット座標系Rを基準とする後述する手先座標系Tの相対位置姿勢(指令値)の目標値に対して、アーム20の各関節の取るべき角度を計算し、各関節に対して指令値を出力するようになっている。また、ロボット制御部44は、各エンコーダから各関節の現在角度情報を取得し、後述する現在の手先座標系Tの相対位置姿勢の指令値に基づいて制御された結果の制御結果値を算出可能になっている。そして、後述するロボット校正部47は、ロボット制御部44で得られた制御結果値を、後述する校正用データを取得する際に、指令値の代わりに利用可能になっている。
アーム20の先端部にはハンド21が支持されており、該ハンド21は、アーム20の動作により位置姿勢が調整されると共に、ワーク6を把持可能な例えば3本の指を備えている。ハンド21には、該ハンド21を基準にして手先座標系Tが設定されている。本実施形態では、アーム20にはワーク6を把持可能なハンド21が取り付けられている。しかしながら、これには限られず、例えば把持以外の手段でワーク6を保持する機構や、ワーク6に加工を施す工具等、ワーク6に対して作業可能なエンドエフェクタの全般が取り付けられるようにしてもよい。
また、アーム20の先端部あるいはハンド21にはカメラ3が支持されており、該カメラ3は制御装置4のカメラ制御部45からの指令を受けて撮像(計測)し、画像データをカメラ制御部45に送信するようになっている。カメラ3には、光軸方向及び撮像視野の縦横方向を基準にしてカメラ座標系Vが設定されている。本実施形態では、カメラ3は、ロボット本体2に対する所定の位置姿勢関係として、光軸がハンド21の長軸方向に対して約45度を形成してハンド21の先端を向くように設けられている。
ロボット本体2に接続された制御装置4は、コンピュータにより構成され、ロボット本体2を制御するようになっている。制御装置4を構成するコンピュータは、例えばCPU40と、各部を制御するためのプログラムを記憶するROM41と、データを一時的に記憶するRAM42と、ロボット本体2に通信可能にする入出力インターフェース回路(I/F)43とを備えている。
CPU40は、上述のロボット制御部44と、カメラ制御部45と、ワーク位置姿勢計算部46とを備えている。尚、本実施形態では、制御装置4はロボット校正装置と共用されており、制御装置4のCPU40はロボット校正装置の制御部であるロボット校正部47を含んで構成されている。
カメラ制御部45は、カメラ3が取得した画像データを制御装置4のワーク位置姿勢計算部46に送信し、該ワーク位置姿勢計算部46は、受信した画像データに基づき画像処理を行ってワーク6の位置姿勢を算出するようになっている。ここで算出される出力値は、カメラ座標系Vを基準とするワーク座標系Wの位置姿勢に相当するデータである。ワーク位置姿勢計算部46は、処理結果をロボット校正部47に送信する。
本発明の特徴部であるロボット校正部47は、本発明のロボット校正装置及びその制御部に相当する。ロボット校正部47は、ロボット制御部40から取得した手先座標系Tにおけるハンド21の位置姿勢の指令値と、ワーク位置姿勢計算部46から取得したワーク座標系Wにおけるワーク6の位置姿勢とに基づき、校正値を算出する。更に、ロボット校正部47は、校正用の指令値 comに基づくロボット本体2の第一の位置姿勢(以下、理想位置姿勢という)と、それに相当する校正用の計測値T’ measに基づくロボット本体2の第二の位置姿勢(以下、実位置姿勢という)と、の差分に基づいて、指令値を校正する校正関数Fを算出する。
上述したロボットシステム1のロボット校正部47により校正値を算出し校正関数Fを求める手順を、図2に示すフローチャートのステップS1〜S3により説明する。尚、図2に示すフローチャートでは、ステップS1〜S3はロボットシステム1の立上時又はメンテナンス時等に行う校正作業の手順を示し、ステップS4〜S7は生産ラインで順次供給されたワーク6に対して繰返し行う位置姿勢制御の手順を示す。
まず、ロボット校正部47は、ロボット制御部44によりロボット本体2を複数の位置姿勢に位置決めしながら、図5及び図6に示すように、カメラ制御部45によりカメラ3で校正プレート(校正用基準物)10を順次計測する。これにより、ロボット校正部47は、校正に必要な複数のデータを取得して記憶する(ステップS1)。
校正プレート10は、例えば平板状で、表面に所定の寸法の円形パターン10a,10bが複数(3個以上)配置されて表示されており、カメラ3により6自由度の位置姿勢を計測できるようになっている。また、校正プレート10は、カメラ3から計測できる視野内に設置されていると共に、ロボット本体2が移動した時でも移動しないように架台5に対して相対的に固定されて配置されている。
校正プレート10の複数の円形パターン10a,10bのうち角部の1つだけは中空円形パターン10aとし、他は塗りつぶされた中実円形パターン10bとしている。複数の円形パターン10a,10bは、中空円形パターン10aの存在により全体として非点対称の配置になっており、校正プレート10の6自由度の位置姿勢を一意に特定できるようになっている。また、校正プレート10には、該校正プレート10を基準にして校正プレート座標系Pが設定されている。
校正プレート10の有するパターンとしては、円形パターンには限らず、例えば直線的な格子パターン等を用いてもよい。また、例えばステレオカメラ等、カメラ3により3次元の計測を行うことができる場合は、平板状の校正プレート10に限らず、立体形状を有する物体を校正用の基準部材としてもよい。更には、例えば作業の対象とする実際のワーク6を校正用基準物として用いることもできる。
また、校正用データを取得する際の前提として、予め校正用のN個の位置姿勢を制御装置4のROM41又はRAM42に記憶させておく。ここでの校正用の位置姿勢の決め方としては、ロボット本体2が作業時に必要とし得る動作範囲の中で、なるべく多様な姿勢を取らせることが好ましい。後述する校正関数Fの種類にもよるが、一般的には姿勢の数が多いほど精度が向上するため、例えば10〜数10以上の位置姿勢を利用することが好ましい。また、ワーク6を設置する位置姿勢に実際にはばらつきが想定されるので、ばらつきを含むようにロボット本体2の可動範囲を広めに設定することが精度向上のために好ましい。
ここで、ステップS1の校正用データを取得する手順を、図3に示すフローチャートに沿って詳細に説明する。
まず、ロボット校正部47は、繰返し処理のカウンタiを1に初期化し(ステップS11)、ロボット制御部44によりロボット本体2を最初の校正位置姿勢(i=1)に位置決めする(ステップS12)。そして、ロボット校正部47は、カメラ制御部45によりカメラ3で校正プレート10を計測する(ステップS13)。更に、ロボット校正部47は、ワーク位置姿勢計算部46によりカメラ3から取得したデータに基づいて校正プレート10の位置姿勢を計算する。即ち、ワーク位置姿勢計算部46は、カメラ座標系Vを基準とした校正プレート座標系Pの位置姿勢[i]を算出する。
ロボット校正部47は、ロボット本体2を位置決めした際のハンド21の先端部の理想位置姿勢に対応する指令値[i]を取得して、RAM42に保存し(ステップS14)、また、その計測値[i]をRAM42に記憶する(ステップS15)。ハンド21の先端部の位置姿勢の指令値[i]としては、予め校正用の位置姿勢として保存されていたデータを用いるようにできる。あるいは、ロボット制御部44により、指令値[i]に基づいてロボット本体2の位置姿勢を決定した後に、各関節のエンコーダから現在角度情報の値を取得して、指令値[i]に基づいて制御された結果の制御結果値を算出してもよい。この場合、ロボット校正部47は、得られた制御結果値を指令値[i]の代わりに用いることができる。尚、一般にはロボット本体2の動作においては、制御の目標値に対して少量の偏差が残るため、校正用データとして指令値[i]よりも制御結果値を用いた方がより高精度になりやすい。
そして、ロボット校正部47は、カウンタiを1つ進め(ステップS16)、カウンタiが校正位置姿勢の個数Nを超えているか否かを判断する(ステップS17)。ロボット校正部47が、カウンタiはNを超えていないと判断した場合は、ロボット本体2を次の校正位置姿勢に位置決めし、上述と同様の処理を実行する(ステップS12〜S16)。
ロボット校正部47が、カウンタiはNを超えていると判断した場合は、校正用データの取得の処理を終了し、元の処理に戻る。このため、校正用データの取得処理(図2のステップS1)が終了した時には、ロボット本体2のN個の位置姿勢の指令値 com[i](i=1,2,…,N)がRAM42に記憶される。同様に、校正プレート10のN個の計測値 meas[i](i=1,2,…,N)も、RAM42に記憶される。
次に、図5に示すように、ロボット校正部47は、カメラ座標系Vと手先座標系Tの位置姿勢関係(第1の校正値)と、ロボット座標系Rと校正プレート座標系Pの位置姿勢関係(第2の校正値)とを演算して取得する(図2のステップS2)。ここでは、ロボット校正部47は、先に取得した指令値[i]と、計測値[i]とに基づき、例えば公知のハンドアイキャリブレーション手法(非特許文献1参照)を用いて、及びを演算して取得する。
以下に、具体的な手順を示す。カメラ3及びハンド21の間と、ロボット本体2及び校正プレート10の間とは、それぞれ固定されているため、及びは、ロボット本体2の位置姿勢によらず一定である。カメラ3の計測誤差とロボット本体2の動作誤差が無い場合、各校正位置姿勢について数式8が成り立つ。
Figure 0006335460
(i=1,2,…,N)
校正用の位置姿勢はN個あるので、それぞれについて各値を取得すると、数式8をN本連立することができる。実際に得られるデータには誤差があるため、誤差最小化計算によりN組のデータに対する誤差(残差)が最小となる及びの値を算出し、校正値とする。ここでの算出方法については、公知のハンドアイキャリブレーション手法と同様であるため、詳細な説明は省略する。以降、このステップS2で算出した校正値を、 cal及び calと表示する(図6参照)。
尚、予め各座標系の関係が設計値として既知である場合は、ステップS1で取得したデータを用いずに設計値を用いるようにしてもよい。また、カメラ座標系Vと手先座標系Tとの関係に関しては、カメラ3からハンド21等を直接計測することによって取得することも可能である。
次に、本実施形態の特徴である校正関数Fのパラメータを算出する処理(ステップS3、校正関数算出工程)について説明する。ここでの校正関数Fとは、ロボット本体2に対する指令値と、その指令値におけるロボット本体2の実際の位置姿勢との関係を表す関数である。これは、校正時にステップS1で取得した校正用データの実績値から指令値と実際の位置姿勢との関係を求め、実作業時にはその関係を用いて指令値を与えた時のハンド21の実際の位置姿勢を推定する。このように、誤差分を補正することによって、ロボット本体2を高精度に動作させることができる。
そこで、手先位置指令値を comとし、その指令値 comをロボット本体2に与えることにより実現する手先位置姿勢の推定値を predとした場合に、校正関数Fを数式9のように定める。
Figure 0006335460
このステップS3では、数式9に示す校正関数Fを近似的に同定するためのパラメータを算出する。校正関数Fとしては様々な関数を用いることができるが、本実施形態においては多項式を用いる場合について説明する。
以下、多項式である校正関数Fのパラメータを算出する手順について、図4に示すフローチャートに沿って説明する。
まず、ロボット校正部47は、繰返し処理のカウンタiを1に初期化する(ステップS31)。このカウンタiは、ステップS1で取得したN個の校正位置姿勢に対応させる。そして、ロボット校正部47は、i番目の計測値 meas[i]に対して、手先実現位置姿勢の計測値T’ meas[i]を数式10により算出する(ステップS32)。
Figure 0006335460
(i=1,2,…,N)
計測値T’ meas[i]は、i番目の校正位置姿勢に対して、カメラ3による計測値 meas[i]を反映して、ロボット座標系R及び実現された手先座標系T’の関係を求めた指標である。カメラ3の計測精度がロボット本体2の動作精度よりも高い場合、計測値T’ meas[i]は、ロボット本体2の理想位置姿勢の指令値 com[i]に対して、現実世界で実際にロボット本体2の位置決めされた位置姿勢を反映したものとなる。即ち、手先実現位置姿勢の計測値T’ meas[i]は、理想位置姿勢の指令値 com[i]に対して、差分(動作誤差)T’ err[i]が乗った値と考えることができる。
次に、ロボット校正部47は、校正関数Fのパラメータ計算の前処理として、i番目の校正位置姿勢に対する指令値 com[i]及び計測値T’ meas[i]について、基準位置姿勢の指令値T0で相対化する(ステップS33、相対化工程)。即ち、ロボット校正部47は、i番目の校正位置姿勢における理想位置姿勢及び実位置姿勢を、基準位置姿勢で相対化する。i番目の校正位置姿勢に対する手先位置姿勢の指令値 com[i]については、数式11のように、予め定めたロボット本体2の基準位置姿勢の指令値(基準指令値)T0によって相対化する。
Figure 0006335460
(i=1,2,…,N)
ここでの相対化とは、指令値 com[i]及び計測値T’ meas[i]を、基準位置姿勢の指令値T0との相対的な位置姿勢の値に変換することを意味する。尚、基準位置姿勢の指令値T0としては、校正位置姿勢を取得した際の代表的な位置姿勢の指令値を用いることができる。
i番目の校正位置姿勢に対する手先実現位置姿勢の計測値T’ meas[i]については、数式12のように、基準位置姿勢の指令値T0によって相対化する。
Figure 0006335460
(i=1,2,…,N)
このステップS33の処理により、後述する処理で6自由度の各成分(x,y,z,α,β,γ)を入力する多項式関数fを定義する際に、回転の成分が大きいと±180°付近で関数が不連続となり近似の精度が低下することを抑制できる。尚、このステップS33は近似の精度の低下を抑制するための処理であるので、校正する位置姿勢の条件等によっては省略してもよい。
そして、ロボット校正部47は、カウンタiを1つ進め(ステップS34)、カウンタiが校正位置姿勢の個数Nを超えているか否かを判断する(ステップS35)。ロボット校正部47が、カウンタiはNを超えていないと判断した場合は、次の校正位置姿勢について上述と同様の処理を実行する(ステップS32〜S34)。
ロボット校正部47が、カウンタiはNを超えていると判断した場合は、多項式のパラメータを演算する処理に入る(ステップS36)。この時点で、各校正位置姿勢について、相対化した手先位置姿勢の指令値T0 com[i]と相対化した手先実現位置姿勢計測値T0T’ meas[i]との組が、合計N組算出されている。
ステップS36では、前提として、数式9の校正関数Fを求めるにあたって、以下の2点の変換を行う。第1に、前述したように回転成分の不連続性を回避するために、基準位置姿勢の指令値T0によって相対化する。第2に、数式9における手先位置指令値 com及び手先位置姿勢の推定値 predは4×4の同次変換行列であるが、自由度は6であり、そのままの形式だと多項式で扱い難いため、6成分の形式に変換する。即ち、校正関数Fを数式13に示す多項式関数fに置き換える。
Figure 0006335460
ここで、相対化した手先位置姿勢の推定値T0 predと、相対化した手先位置姿勢の指令値T0 comとは、数式14により算出される。
Figure 0006335460
数式13に数式14を代入して式変形すると、数式15で表される。
Figure 0006335460
従って、校正関数Fと多項式関数fとの関係は、数式16で表される。
Figure 0006335460
数式16において、基準位置姿勢の指令値T0は既知であるので、多項式関数fのパラメータを求めることにより、校正関数Fを定めることができる。このため、まず多項式関数fへの入力値となる相対化した手先位置姿勢の指令値T0 comを6自由度に変換し、変換後の各成分を数式17のように(x,y,z,α,β,γ)とする。
Figure 0006335460
そして、多項式関数fの出力値となる相対化した手先位置姿勢の推定値T0 predを6自由度に変換し、変換後の各成分を数式18のように(x’,y’,z’,α’,β’,γ’)とする。
Figure 0006335460
更に、多項式関数fの各成分をfx,fy,fz,fα,fβ,fγとすると、数式19で表される。
Figure 0006335460
本実施形態では、多項式関数fを6変数の多項式としている。これにより、多項式関数fのx’,y’,z’の各成分は、一般的に数式20のように表される。
Figure 0006335460
同様に、多項式関数fのα’,β’,γ’の各成分は、一般的に数式21のように表される。
Figure 0006335460
数式20及び数式21において、Dは多項式関数fの次数である。また、ax_lmnpqr,ay_lmnpqr,az_lmnpqr,aα_lmnpqr,aβ_lmnpqr,aγ_lmnpqrは多項式関数fの係数であり、添字l,m,n,o,p,qは0以上の整数である。N個の校正位置姿勢により、これらの多項式関数fを算出することで、校正関数Fを定めることができる。本実施形態においては、説明を簡単にするために次数D=1の場合について説明する。
数20のx’の式について、次数D=1の場合は数式22となる。
Figure 0006335460
ここで、記述を簡略化するため、数式23のように文字を置き換えるものとする。
Figure 0006335460
同様に、y’,z’,α’,β’,γ’の各成分についても、D=1として文字を置き換えると、数式20及び数式21は数式24のようになる。
Figure 0006335460
次に、先に算出した相対化した手先位置姿勢の指令値T0 com[i]と、相対化した手先実現位置姿勢の計測値T0T’ meas[i]とを、数式24に代入可能とするために6自由度の形式に変換する。即ち、相対化した手先位置姿勢の指令値T0 com[i]の変換結果の6成分を、(x[i],y[i],z[i],α[i],β[i],γ[i])とする。また、相対化した手先実現位置姿勢の計測値T0T’ meas[i]の変換結果の6成分を、(x’[i],y’[i],z’[i],α’[i],β’[i],γ’[i])とする。その結果、数式25が得られる。
Figure 0006335460
(i=1,2,…,N)
数式25を数式24に代入すると、数式26が得られる。
Figure 0006335460
(i=1,2,…,N)
ここで、例えばx’の式に注目して、N組のデータ(i=1,2,…,N)を代入すると、数式27のようにN個の連立方程式を立てることができる。
Figure 0006335460
数式27の連立方程式を行列の形で整理すると、数式28が得られる。
Figure 0006335460
数式28において、x’[i]と、x[i],y[i],z[i],α[i],β[i],γ[i]とは既知であり、ax0〜ax6は未知である。N組のデータのうち、線形独立なものが7組以上存在すれば、公知の最小二乗法によって係数の組ax0〜ax6を求めることができる。
同様に、y’,z’,α’,β’,γ’の各成分についても、最小二乗解を求めることで、数式20、数式21、数式24の定義によって多項式関数fを求めることができる。即ち、数式16の関係によって校正関数Fを求めることができる。以上、図2に示すステップS1〜S3が終了することにより、校正関数Fを算出する処理が完了する。即ち、ロボット校正部47は、校正時に用いられる校正用の指令値 com[i]に基づいて演算されるロボット本体2の理想位置姿勢を算出する。また、ロボット校正部47は、ロボット本体2を校正用の指令値 com[i]に基づき制御した際にカメラ3により得られた校正用の計測値 meas[i]に基づいて演算されるロボット本体2の実位置姿勢を算出する。そして、ロボット校正部47は、ロボット本体2の理想位置姿勢と、実位置姿勢との差分に基づいて校正関数Fを算出している。
次に、上述したロボットシステム1により、得られた校正関数Fを利用して、ロボット本体2に指令値を出力してハンド21をワーク6に移動させ把持させる手順を、図2に示すフローチャートのステップS4〜S7により説明する。
まず、ロボット制御部44は、ロボット本体2を計測用の位置姿勢に位置決めし、カメラ制御部45によりワーク6をカメラ3で計測する(ステップS4、計測値取得工程)。ここで、ロボット本体2への計測用位置姿勢の指令値をT1とし、その指令値T1においてカメラ3により計測したワーク6の位置姿勢の計測値を measとする。
次に、ロボット制御部44は、計測したワーク6の位置姿勢の計測値 measに基づいて、仮の手先指令値(仮の指令値) tempを演算して生成する(ステップS5、仮の指令値生成工程)。ロボット制御部44は、仮の手先指令値 tempを、公知の剛体の座標変換モデルを利用して、校正値を用いる数式29により演算する。
Figure 0006335460
ロボット制御部44は、数式29により、ワーク6の位置姿勢の計測値 measをロボット座標系Rに座標変換し、ロボット本体2の位置姿勢指令値として使用できる値に変換する。但し、数式29では、ロボット本体2の動作誤差の影響が大きく位置決めの精度は低い。
次に、ロボット制御部44は、仮の手先指令値 tempを校正関数Fに入力し、数式30により演算して、手先位置姿勢の推定値T’ predを生成する。
Figure 0006335460
ここで、相対化した仮の手先指令値T0 tempからベクトルを算出すると、数式31で表される。
Figure 0006335460
更に、数式20、数式21、数式24により、数式32が導かれる。
Figure 0006335460
ロボット制御部44は、先に算出した多項式関数fを用いることで、手先位置姿勢の推定値T’ predを算出する。即ち、仮の手先指令値 tempを使用してロボット本体2を位置決めした場合、ロボット本体2の動作誤差が加わった実際の手先位置姿勢は手先位置姿勢の推定値T’ predになるであろうことが推定される。そこで、ロボット制御部44は、仮の手先指令値 tempと手先位置姿勢の推定値T’ predとの差分T’ errを数式33のように算出する。
Figure 0006335460
ロボット制御部44は、差分T’ errを打ち消すように、当該差分T’ errの逆行列によって仮の手先指令値 tempを補正する。ここで、補正後の最終的な手先指令値(校正後指令値)を compとすると、数式34で表される。
Figure 0006335460
上述した処理により、ロボット制御部44は、仮の手先指令値 tempを校正関数Fにより校正し、最終的な手先指令値 compを得ることができる(ステップS6、校正工程)。
そして、ロボット制御部44は、最終的な手先指令値 compをロボット本体2に送信し、ロボット本体2を位置決めして作業を行わせる(ステップS7、位置姿勢制御工程)。ロボット本体2への指令値は校正処理により動作誤差分が補正されているので、ハンド21にワーク6へのアプローチを高精度に行わせ、手先座標系Tとワーク座標系Wとを高精度に一致させ、ハンド21によるワーク6の把持を高精度に実現することができる。
上述したように本実施形態のロボットシステム1によれば、ロボット本体2の理想位置姿勢と実位置姿勢との差分に基づいて算出した校正関数Fを利用して、仮の手先指令値 tempを最終的な手先指令値 compに校正することができる。このため、従来のハンドアイキャリブレーション方法と異なり、ロボット本体2の動作誤差や固有の誤差を打ち消すことができるので、ロボット本体2の位置姿勢の制御において精度向上を図ることができる。
また、本実施形態のロボットシステム1によれば、カメラ3の計測値を校正関数Fに直接入力するのでなく、算出した仮の手先指令値 tempを校正関数Fに入力する構成としている。これにより、校正時の計測値と実際のワーク6の計測値とに差異があっても好適に誤差を低減できるため、校正プレート10の計測点を実際のワーク6に対して厳密に対応させる必要はなく、作業性を向上することができる。
また、本実施形態のロボットシステム1によれば、カメラ3がハンド21に設けられているので、カメラ座標系Vと手先座標系Tとの誤差が小さく、ロボット本体2の制御を高精度にすることができる。
また、本実施形態のロボットシステム1によれば、校正位置姿勢に対する指令値 com及び計測値T’ measについて、基準の位置姿勢の指令値T0で相対化している。このため、6自由度の各成分を入力する多項式関数fを定義する際に、回転の成分が大きいと±180°付近の特異点等で関数が不連続となり近似の精度が低下することを抑制でき、ロボット本体2の制御をより高精度にすることができる。
[第2実施形態]
次に、本発明の第2実施形態に係るロボットシステム101について説明する。このロボットシステム101は、図7及び図8に示すように、ロボット装置101aとロボット校正部47とを備えている。このロボット装置101aでは、第1実施形態と異なり、カメラ103がロボット本体102ではなく、ロボット本体2の基端部に固定された架台5と相対的に位置決めされた上側支持台50により固定されて支持されている。また、このロボット装置101aでは、第1実施形態と異なり、校正プレート10が架台5に支持されるのではなく、ハンド21に相対的に位置決めされた支持部材22により支持されている。それ以外のハード構成については第1実施形態と同様であるので、第1実施形態と同一符号を付して説明を省略する。
上述したロボットシステム101により校正値を算出し校正関数Fを求め、該校正関数Fを利用してロボット本体102を制御する手順を、図2に示すフローチャートにより説明する。尚、図2に示すフローチャートは第1実施形態の処理手順を示すものであるが、本実施形態でも同様の順序で処理を実行するため、援用するものとしている。但し、各手順において第1実施形態と異なる部分があるので、以下、その異なる部分を中心に説明する。
まず、カメラ制御部45は、ロボット本体102を複数の位置姿勢に位置決めしながら、図8に示すように、カメラ103で校正プレート10を順次計測することにより、校正に必要な複数のデータを取得して記憶する(ステップS1)。処理の詳細は、図3に示すステップS11〜S17と同様であり、カメラ制御部45は、ロボット本体102が動作し得る範囲、かつ校正プレート10がカメラ103の視野に収まる範囲でロボット本体102を順次位置決めし、校正プレート10を計測する。カメラ制御部45は、N個の校正位置姿勢の指令値 com[i]及びN個の計測値 meas[i]をRAM42に記憶する。
次に、ロボット校正部47は、第1実施形態とは異なる校正値を演算して取得する。具体的には、ロボット校正部47は、ロボット座標系Rとカメラ座標系Vとの位置姿勢関係(第3の校正値)と、手先座標系Tと校正プレート座標系Pとの位置姿勢関係(第4の校正値)とを演算して取得する(ステップS2)。カメラ103の計測誤差とロボット本体102の動作誤差が無い場合、各校正位置姿勢について数式35が成り立つ。
Figure 0006335460
(i=1,2,…,N)
そして、第1実施形態と同様に、校正用の位置姿勢はN個あるので、それぞれについて各値を取得すると、数式35をN個連立することができる。実際に得られるデータには誤差があるため、誤差最小化計算によりN組のデータに対する誤差(残差)が最小となる及びの値を算出し、校正値とする。以降、このステップS2で算出した校正値を、 cal及び calと表示する。
次に、ロボット校正部47は、校正関数Fのパラメータを算出する(ステップS3、校正関数算出工程)。ここでは、ロボット校正部47は、i番目の計測値 meas[i]に対して、手先実現位置姿勢の計測値T’ meas[i]を数式36(第1実施形態の数式10に相当)により算出する。この数式36により、計測値T’ meas[i]を算出した後の処理は、第1実施形態と同様に進めることができ、校正関数Fを特定するためのパラメータを算出することができる。
Figure 0006335460
(i=1,2,…,N)
次に、ロボット制御部44は、ロボット本体102を計測用の位置姿勢に位置決めし、カメラ制御部45がワーク6をカメラ103によって計測し、計測値 measを得る(ステップS4、計測値取得工程)。
次に、ロボット制御部44は、計測したワーク6の位置姿勢の計測値 measに基づいて、仮の手先指令値 tempを演算して生成する(ステップS5、仮の指令値生成工程)。本実施形態では、ロボット制御部44は、仮の手先指令値 tempを数式37(第1実施形態の数式29に相当)により算出する。
Figure 0006335460
仮の手先指令値 tempを得た後は、第1実施形態と同様に、ロボット制御部44は、仮の手先指令値 tempを校正関数Fにより校正し、最終的な手先指令値 compを得る(ステップS6、校正工程)。
そして、ロボット制御部44は、第1実施形態と同様に、最終的な手先指令値 compをロボット本体2に送信し、ロボット本体102を位置決めして作業を行わせる(ステップS7、位置姿勢制御工程)。
上述したように本実施形態のロボットシステム101によれば、第1実施形態と同様に、ロボット本体102の理想位置姿勢と実位置姿勢との差分に基づいて算出した校正関数Fを利用する。このため、仮の手先指令値 tempを最終的な手先指令値 compに校正することができるので、ロボット本体2の動作誤差や固有の誤差を打ち消すことができるので、ロボット本体2の位置姿勢の制御において精度向上を図ることができる。
また、本実施形態のロボットシステム1によれば、カメラ3が上側支持台50に設けられているので、カメラ座標系Vとロボット座標系Rとの誤差が小さく、ロボット本体2の制御を高精度にすることができる。
尚、上述した第1実施形態及び第2実施形態のロボットシステム1,101では、多項式の次数D=1の場合のみについて説明したが、これには限られない。例えば、次数が2次以上の多項式であっても、上述の実施形態と同様にして校正関数Fとして使用することができる。ここで、数式20及び数式21に2次以上の次数のDを代入して展開すると項の個数が多くなるが、多項式係数(ax_lmnpqr等)については1次である。このため、校正動作データとして取得した(x[i],y[i],z[i],α[i],β[i],γ[i])の値を代入することで多項式係数に関する一次式となり、線形の最小二乗法で係数を特定することができる。
また、上述した第1実施形態及び第2実施形態のロボットシステム1,101では、校正関数Fとして多項式のみを説明したが、これには限られず、例えば、スプライン関数等、単純な多項式以外の関数を校正関数Fとして用いてもよい。
また、上述した第1実施形態及び第2実施形態のロボットシステム1,101では、校正関数Fを、手先位置指令値 comを入力とし、手先位置姿勢の推定値 predを出力する関数として説明したが、これには限られない。例えば、校正関数Gをその逆関数として定義しても、同様の効果を得ることができる。即ち、校正関数Gを、目標とする手先位置姿勢の推定値 predを入力し、その位置姿勢を取るための手先位置指令値 comを出力する関数として定義してもよい。
この場合、数式9の代わりに数式38を定義し、校正関数Gのパラメータを同定する処理を実行する。
Figure 0006335460
この場合は、校正関数Gによる仮の指令値補正(ステップS6)の処理において、数式33及び数式34のように差分を求めて適用する処理は不要である。そして、校正関数Gに目標位置姿勢の指令値 tempを入力して得た結果を、最終的な手先指令値 compとして用いることができる。
また、上述した第1実施形態及び第2実施形態のロボットシステム1,101では、6自由度の全てを補正する場合について説明したが、これには限られない。即ち、用途によって6自由度の全てを補正する必要がない場合、校正関数Fとして算出する係数を適宜制限して使用してもよい。例えば、z方向の補正が不要である場合は、az_lmnpqrを0に固定して、zの項に係る係数az_001000のみ1に固定し、その他の成分を補正するようにしてもよい。
また、第1実施形態及び第2実施形態のロボットシステム1,101では、ロボット校正装置はロボット校正部47として制御装置4のCPU40により実現された場合について説明したが、これには限られない。例えば、図9に示すように、ロボット校正装置104を制御装置4とは別個に設けるようにしてもよい。この場合、ロボット校正装置104は、内蔵のCPU等にロボット校正部(制御部)147を備えており、制御装置4の入出力インターフェース回路43を介してCPU40に接続されている。そして、ロボット校正装置104において生成された校正値及び校正関数Fは、ロボット制御部44に入力され、ロボット本体2の制御に利用される。これによれば、制御装置4にロボット校正装置104を外付けすることができるので、ロボット校正部47を有しない既存の制御装置4であっても、第1実施形態及び第2実施形態と同様に校正関数Fを利用することができる。
また、第1実施形態及び第2実施形態のロボットシステム1,101では、視覚センサとして単眼のカメラ3,103を使用した場合について説明した。しかしながら、これには限らず、例えば、ステレオカメラを利用したり、あるいはレーザスキャナを利用してもよい。レーザスキャナを使用した場合は、例えば、レーザスキャナによりワーク6を計測し、計測結果をカメラ制御部45にて3次元の計測点群データとして取得する。そして、ワーク位置姿勢計算部46において、3次元の計測点群データと3次元CADモデルとのマッチングを行い、ワーク6の位置姿勢を算出するような構成にする。
尚、以上述べた第1実施形態及び第2実施形態の各処理動作は具体的には制御装置4及びロボット校正装置104により実行されるものである。従って、上述した機能を実現するソフトウェアのプログラムを記録した記録媒体を制御装置4等に供給し、制御装置4のCPU40等が記録媒体に格納されたプログラムを読み出し実行することによって達成されるようにしてもよい。この場合、記録媒体から読み出されたプログラム自体が上述した各実施の形態の機能を実現することになり、プログラム自体及びそのプログラムを記録した記録媒体は本発明を構成することになる。具体的には、ロボット校正部47,147におけるロボット校正プログラムと、ロボット制御部44におけるロボット装置の制御プログラムと、ロボットシステム1,101におけるロボットシステムの制御プログラムとがある。
また、各実施の形態では、コンピュータ読み取り可能な記録媒体がROM41であり、ROM41にプログラムが格納される場合について説明したが、これに限定するものではない。プログラムは、コンピュータ読み取り可能な記録媒体であれば、いかなる記録媒体に記録されていてもよい。例えば、プログラムを供給するための記録媒体としては、HDD、外部記憶装置、記録ディスク等を用いてもよい。
1,101…ロボットシステム、1a,101a…ロボット装置、2,102…ロボット本体、3,103…カメラ(視覚センサ)、4…制御装置(ロボット校正装置)、5…架台(ロボット本体の基端部)、10…校正プレート(校正用基準物)、20…多関節アーム、21…ハンド(ロボット本体の先端部)、41…ROM(記憶媒体)、44…ロボット制御部(制御部)、47,147…ロボット校正部(制御部)、50…上側支持台(ロボット本体の基端部)、104…ロボット校正装置


Claims (20)

  1. 複数の関節を備えるロボット本体と、前記ロボット本体の先端部に固定された視覚センサと、を有するロボットシステムの制御装置において、
    複数の校正用指令値に基づいて前記ロボット本体を複数の位置姿勢に制御しながら、前記視覚センサにて校正用基準物が備える複数のマーカを撮像することにより、前記校正用基準物について複数の計測値を取得する処理と、
    前記複数の校正用指令値と、前記校正用基準物の複数の計測値とから、前記視覚センサの座標系と前記ロボット本体の手先座標系の位置姿勢関係を表す第一校正値と、前記ロボット本体の基端部の座標系と前記校正用基準物の座標系の位置姿勢関係をあらわす第二校正値と、を求める処理と、
    前記複数の校正用指令値に基づく前記ロボット本体の複数の位置姿勢と、前記複数の計測値と前記第一校正値と前記第二校正値を用いて演算された前記ロボット本体の実際の位置姿勢の推定値と、の差分に基づいて、前記ロボット本体に対する指令値と実際の位置姿勢の推定値との関係を表す校正関数を求める処理と、
    前記視覚センサにて対象物を撮像することにより前記対象物の計測値を取得する処理と、
    前記対象物の計測値と前記第一校正値と前記校正関数とを用いて、前記対象物に対して前記ロボット本体を動作させる際の前記ロボット本体の位置姿勢の制御に用いる指令値を校正する処理と、
    を行う処理装置を備える、
    ことを特徴とするロボットシステムの制御装置。
  2. 前記校正関数が、回転成分を含む、
    ことを特徴とする請求項1に記載のロボットシステムの制御装置。
  3. 複数の関節を備えるロボット本体と、
    前記ロボット本体の先端部に固定された視覚センサと、
    請求項1に記載のロボットシステムの制御装置と、を備える、
    ことを特徴とするロボットシステム。
  4. 前記ロボットシステムの制御装置が、前記校正した指令値に基づいて前記ロボット本体を制御する、
    ことを特徴とする請求項3に記載のロボットシステム
  5. 複数の関節を備えるロボット本体と、前記ロボット本体の基端部に固定された架台と相対的に位置決めされた視覚センサと、を有するロボットシステムの制御装置において、
    複数の校正用指令値に基づいて、校正用基準物を支持する前記ロボット本体を複数の位置姿勢に制御しながら、前記視覚センサにて前記校正用基準物が備える複数のマーカを撮像することにより、前記校正用基準物について複数の計測値を取得する処理と、
    前記複数の校正用指令値と、前記校正用基準物の複数の計測値とから、前記視覚センサの座標系と前記ロボット本体の基端部の座標系の位置姿勢関係を表す第三校正値と、前記ロボット本体の先端部の座標系と前記校正用基準物の座標系の位置姿勢関係をあらわす第四校正値と、を求める処理と、
    前記複数の校正用指令値に基づく前記ロボット本体の複数の位置姿勢と、前記複数の計測値と前記第三校正値と前記第四校正値を用いて演算された前記ロボット本体の実際の位置姿勢の推定値と、の差分に基づいて、前記ロボット本体に対する指令値と実際の位置姿勢の推定値との関係を表す校正関数を求める処理と、
    前記視覚センサにて対象物を撮像することにより前記対象物の計測値を取得する処理と、
    前記対象物の計測値と前記第三校正値と前記校正関数とを用いて、前記対象物に対して前記ロボット本体を動作させる際の前記ロボット本体の位置姿勢の制御に用いる指令値を校正する処理と、
    を行う処理装置を備える、
    ことを特徴とするロボットシステムの制御装置
  6. 前記校正関数が、回転成分を含む、
    ことを特徴とする請求項5に記載のロボットシステムの制御装置。
  7. 複数の関節を備えるロボット本体と、
    前記ロボット本体の基端部に固定された架台と相対的に位置決めされた視覚センサと、請求項5に記載のロボットシステムの制御装置と、
    を備えることを特徴とするロボットシステム。
  8. 前記ロボットシステムの制御装置が、前記校正した指令値に基づいて前記ロボット本体を制御する、
    ことを特徴とする請求項7に記載のロボットシステム。
  9. 複数の関節を備えるロボット本体と、前記ロボット本体の先端部に固定された視覚センサと、を備えるロボットシステムに対する指令値を生成する指令値生成方法であって、
    制御装置が、複数の校正用指令値に基づいて前記ロボット本体を複数の位置姿勢に制御しながら、前記視覚センサにて校正用基準物が備える複数のマーカを撮像することにより、前記校正用基準物について複数の計測値を取得する処理と、
    前記複数の校正用指令値と、前記校正用基準物の複数の計測値とから、前記視覚センサの座標系と前記ロボット本体の手先座標系の位置姿勢関係を表す第一校正値と、前記ロボット本体の基端部の座標系と前記校正用基準物の座標系の位置姿勢関係をあらわす第二校正値と、を求める処理と、
    前記複数の校正用指令値に基づく前記ロボット本体の複数の位置姿勢と、前記複数の計測値と前記第一校正値と前記第二校正値を用いて演算された前記ロボット本体の実際の位置姿勢の推定値と、の差分に基づいて、前記ロボット本体に対する指令値と実際の位置姿勢の推定値との関係を表す校正関数を求める処理と、
    前記視覚センサにて対象物を撮像することにより前記対象物の計測値を取得する処理と、
    前記対象物の計測値と前記第一校正値と前記校正関数とを用いて、前記対象物に対して前記ロボット本体を動作させる際の前記ロボット本体の位置姿勢の制御に用いる指令値を校正する処理と、
    を行う、
    ことを特徴とする指令値生成方法。
  10. 前記校正関数が、回転成分を含む、
    ことを特徴とする請求項9記載の指令値生成方法。
  11. 複数の関節を備えるロボット本体と、前記ロボット本体の基端部に固定された架台と相対的に位置決めされた視覚センサと、を備えるロボットシステムに対する指令値を生成する指令値生成方法であって、
    制御装置が、複数の校正用指令値に基づいて、校正用基準物を支持する前記ロボット本体を複数の位置姿勢に制御しながら、前記視覚センサにて前記校正用基準物が備える複数のマーカを撮像することにより、前記校正用基準物について複数の計測値を取得する処理と、
    前記複数の校正用指令値と、前記校正用基準物の複数の計測値とから、前記視覚センサの座標系と前記ロボット本体の基端部の座標系の位置姿勢関係を表す第三校正値と、前記ロボット本体の先端部の座標系と前記校正用基準物の座標系の位置姿勢関係をあらわす第四校正値と、を求める処理と、
    前記複数の校正用指令値に基づく前記ロボット本体の複数の位置姿勢と、前記複数の計測値と前記第三校正値と前記第四校正値を用いて演算された前記ロボット本体の実際の位置姿勢の推定値と、の差分に基づいて、前記ロボット本体に対する指令値と実際の位置姿勢の推定値との関係を表す校正関数を求める処理と、
    前記視覚センサにて対象物を撮像することにより前記対象物の計測値を取得する処理と、
    前記対象物の計測値と前記第三校正値と前記校正関数とを用いて、前記対象物に対して前記ロボット本体を動作させる際の前記ロボット本体の位置姿勢の制御に用いる指令値を校正する処理と、を行う、
    ことを特徴とする指令値生成方法。
  12. 前記校正関数が、回転成分を含む、
    ことを特徴とする請求項11に記載の指令値生成方法
  13. 請求項9から12のいずれか1項に記載の指令値生成方法の各処理をコンピュータに実行させるためのプログラム。
  14. 請求項13に記載のプログラムが記録された、コンピュータが読み取り可能な記録媒体。
  15. 複数の関節を備えるロボット本体と、前記ロボット本体の先端部に固定された視覚センサと、を備えるロボットシステムの制御方法であって、
    制御装置が、複数の校正用指令値に基づいて前記ロボット本体を複数の位置姿勢に制御しながら、前記視覚センサにて校正用基準物が備える複数のマーカを撮像することにより、前記校正用基準物について複数の計測値を取得する処理と、
    前記複数の校正用指令値と、前記校正用基準物の複数の計測値とから、前記視覚センサの座標系と前記ロボット本体の手先座標系の位置姿勢関係を表す第一校正値と、前記ロボット本体の基端部の座標系と前記校正用基準物の座標系の位置姿勢関係をあらわす第二校正値と、を求める処理と、
    前記複数の校正用指令値に基づく前記ロボット本体の複数の位置姿勢と、前記複数の計測値と前記第一校正値と前記第二校正値を用いて演算された前記ロボット本体の実際の位置姿勢の推定値と、の差分に基づいて、前記ロボット本体に対する指令値と実際の位置姿勢の推定値との関係を表す校正関数を求める処理と、
    前記視覚センサにて対象物を撮像することにより前記対象物の計測値を取得する処理と、
    前記対象物の計測値と前記第一校正値と前記校正関数とを用いて、前記対象物に対して前記ロボット本体を動作させる際の前記ロボット本体の位置姿勢の制御に用いる指令値を校正する処理と、
    を行う、
    ことを特徴とするロボットシステムの制御方法。
  16. 前記校正関数が、回転成分を含む、
    ことを特徴とする請求項15に記載のロボットシステムの制御方法。
  17. 複数の関節を備えるロボット本体と、前記ロボット本体の基端部に固定された架台と相対的に位置決めされた視覚センサと、を備えるロボットシステムの制御方法であって、
    制御装置が、複数の校正用指令値に基づいて、校正用基準物を支持する前記ロボット本体を複数の位置姿勢に制御しながら、前記視覚センサにて前記校正用基準物が備える複数のマーカを撮像することにより、前記校正用基準物について複数の計測値を取得する処理と、
    前記複数の校正用指令値と、前記校正用基準物の複数の計測値とから、前記視覚センサの座標系と前記ロボット本体の基端部の座標系の位置姿勢関係を表す第三校正値と、前記ロボット本体の先端部の座標系と前記校正用基準物の座標系の位置姿勢関係をあらわす第四校正値と、を求める処理と、
    前記複数の校正用指令値に基づく前記ロボット本体の位置姿勢と、前記計測値と前記第三校正値と前記第四校正値を用いて演算された前記ロボット本体の実際の位置姿勢の推定値と、の差分に基づいて、前記ロボット本体に対する指令値と実際の位置姿勢の推定値との関係を表す校正関数を求める処理と、
    前記視覚センサにて対象物を撮像することにより前記対象物の計測値を取得する処理と、
    前記対象物の計測値と前記第三校正値と前記校正関数とを用いて、前記対象物に対して前記ロボット本体を動作させる際の前記ロボット本体の位置姿勢の制御に用いる指令値を校正する処理と、
    を行う、
    ことを特徴とするロボットシステムの制御方法。
  18. 前記校正関数が、回転成分を含む、
    ことを特徴とする請求項17に記載のロボットシステムの制御方法。
  19. 請求項15から18のいずれか1項に記載のロボットシステムの制御方法の各処理をコンピュータに実行させるためのプログラム。
  20. 請求項19に記載のプログラムが記録された、コンピュータが読み取り可能な記録媒体。
JP2013200202A 2013-09-26 2013-09-26 ロボットシステムの制御装置及び指令値生成方法、並びにロボットシステムの制御方法 Active JP6335460B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2013200202A JP6335460B2 (ja) 2013-09-26 2013-09-26 ロボットシステムの制御装置及び指令値生成方法、並びにロボットシステムの制御方法
US14/488,078 US9669545B2 (en) 2013-09-26 2014-09-16 Robot calibrating apparatus and robot calibrating method, and robot apparatus and method of controlling robot apparatus
EP14185885.2A EP2853356A1 (en) 2013-09-26 2014-09-23 Robot calibrating apparatus and robot calibrating method, and robot apparatus and method of controlling robot apparatus
CN201410504893.3A CN104511900B (zh) 2013-09-26 2014-09-26 机器人校准装置及校准方法、机器人装置及其控制方法
US15/490,638 US10279479B2 (en) 2013-09-26 2017-04-18 Robot calibrating apparatus and robot calibrating method, and robot apparatus and method of controlling robot apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013200202A JP6335460B2 (ja) 2013-09-26 2013-09-26 ロボットシステムの制御装置及び指令値生成方法、並びにロボットシステムの制御方法

Publications (3)

Publication Number Publication Date
JP2015066603A JP2015066603A (ja) 2015-04-13
JP2015066603A5 JP2015066603A5 (ja) 2016-11-04
JP6335460B2 true JP6335460B2 (ja) 2018-05-30

Family

ID=51655545

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013200202A Active JP6335460B2 (ja) 2013-09-26 2013-09-26 ロボットシステムの制御装置及び指令値生成方法、並びにロボットシステムの制御方法

Country Status (4)

Country Link
US (2) US9669545B2 (ja)
EP (1) EP2853356A1 (ja)
JP (1) JP6335460B2 (ja)
CN (1) CN104511900B (ja)

Families Citing this family (44)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6468741B2 (ja) * 2013-07-22 2019-02-13 キヤノン株式会社 ロボットシステム及びロボットシステムの校正方法
JP6335460B2 (ja) * 2013-09-26 2018-05-30 キヤノン株式会社 ロボットシステムの制御装置及び指令値生成方法、並びにロボットシステムの制御方法
EP3221095B1 (en) * 2014-11-21 2020-08-19 Seiko Epson Corporation Robot and robot system
EP3243038B8 (en) * 2015-01-05 2018-12-19 BAE Systems PLC System and method for assessing a calibration of a multi-axis ultrasonic scanner
JP2016187844A (ja) * 2015-03-30 2016-11-04 セイコーエプソン株式会社 ロボット、ロボット制御装置およびロボットシステム
JP6812095B2 (ja) 2015-10-22 2021-01-13 キヤノン株式会社 制御方法、プログラム、記録媒体、ロボット装置、及び物品の製造方法
FR3043004B1 (fr) * 2015-10-29 2017-12-22 Airbus Group Sas Procede d'orientation d'un effecteur portant un outil d'assemblage par rapport a une surface
CN106112505B (zh) * 2016-07-04 2018-07-24 清华大学 双轴孔装配系统及其控制方法
JP6487385B2 (ja) * 2016-07-20 2019-03-20 ファナック株式会社 ロボットの原点位置較正装置および方法
JP6490032B2 (ja) * 2016-08-10 2019-03-27 ファナック株式会社 組立ロボットのロボット制御装置
JP2018051692A (ja) * 2016-09-29 2018-04-05 ファナック株式会社 オフラインプログラミング用ジョグ支援装置、ジョグ支援方法及びジョグ支援プログラム
CN106546170B (zh) * 2016-10-13 2019-05-14 同济大学 一种机器人运动轨迹关键点误差测量方法
EP3321043A3 (en) 2016-11-10 2018-10-10 Canon Kabushiki Kaisha Method of controlling holding apparatus, holding apparatus, and robot apparatus
CN106553195B (zh) * 2016-11-25 2018-11-27 中国科学技术大学 工业机器人抓取过程中的物体6自由度定位方法及系统
JP2018094654A (ja) * 2016-12-09 2018-06-21 セイコーエプソン株式会社 制御装置、ロボットおよびロボットシステム
WO2018109828A1 (ja) * 2016-12-13 2018-06-21 株式会社Fuji 作業ロボットの目的位置補正方法
JP6527178B2 (ja) 2017-01-12 2019-06-05 ファナック株式会社 視覚センサのキャリブレーション装置、方法及びプログラム
JP6396516B2 (ja) 2017-01-12 2018-09-26 ファナック株式会社 視覚センサのキャリブレーション装置、方法及びプログラム
CN107256567B (zh) * 2017-01-22 2020-08-07 梅卡曼德(北京)机器人科技有限公司 一种用于工业机器人手眼相机的自动标定装置及标定方法
EP3366433B1 (en) 2017-02-09 2022-03-09 Canon Kabushiki Kaisha Method of controlling robot, method of teaching robot, and robot system
JP6964989B2 (ja) * 2017-02-09 2021-11-10 キヤノン株式会社 制御方法、ロボットシステム、物品の製造方法、プログラム、及び記録媒体
US20200016757A1 (en) * 2017-03-09 2020-01-16 Mitsubishi Electric Corporation Robot control apparatus and calibration method
US11679507B2 (en) * 2017-04-26 2023-06-20 Hewlett-Packard Development Company, L.P. Robotic structure calibrations
JP7003462B2 (ja) * 2017-07-11 2022-01-20 セイコーエプソン株式会社 ロボットの制御装置、ロボットシステム、並びに、カメラの校正方法
US11338441B2 (en) * 2017-12-01 2022-05-24 Delta Electronics, Inc. Calibration system for robot tool and calibration method for the same
CN108068115B (zh) * 2017-12-30 2021-01-12 福建铂格智能科技股份公司 一种基于视觉反馈的并联机器人位置闭环校准算法
MX2020010650A (es) * 2018-04-18 2021-01-15 Pirelli Metodo para elaborar neumaticos verdes.
JP7199903B2 (ja) 2018-10-12 2023-01-06 キヤノン株式会社 制御方法、物品の製造方法、ロボットシステム、プログラム、及び記録媒体
JP6871220B2 (ja) * 2018-11-08 2021-05-12 ファナック株式会社 制御システム
TWI696529B (zh) 2018-11-30 2020-06-21 財團法人金屬工業研究發展中心 自動定位方法以及自動控制裝置
CN109571477B (zh) * 2018-12-17 2020-09-22 西安工程大学 一种改进的机器人视觉与传送带综合标定方法
CN109636859B (zh) * 2018-12-24 2022-05-10 武汉大音科技有限责任公司 一种基于单相机的三维视觉检测的标定方法
US10576636B1 (en) * 2019-04-12 2020-03-03 Mujin, Inc. Method and control system for and updating camera calibration for robot control
CN114174006B (zh) * 2019-07-19 2024-03-05 西门子(中国)有限公司 机器人手眼标定方法、装置、计算设备、介质以及产品
CN110497386B (zh) * 2019-08-26 2021-03-30 中科新松有限公司 一种协作机器人手眼关系自动标定方法
US11584013B2 (en) 2020-03-31 2023-02-21 Wipro Limited System, device and method for determining error in robotic manipulator-to-camera calibration
JP7481432B2 (ja) * 2020-04-02 2024-05-10 ファナック株式会社 ロボットの教示位置を修正するための装置、教示装置、ロボットシステム、教示位置修正方法、及びコンピュータプログラム
CN111203892B (zh) * 2020-04-20 2020-07-21 上海交通大学烟台信息技术研究院 一种用于工业机器人精度标定的辅助工具
CN112719583A (zh) * 2020-12-10 2021-04-30 广东科学技术职业学院 激光传感智能焊接机器人及其焊枪归零计算方法
CN114161411B (zh) * 2021-11-18 2023-09-01 浙江大学 一种基于视觉的多足机器人运动学参数标定方法
CN114905511B (zh) * 2022-05-12 2023-08-11 南京航空航天大学 一种工业机器人装配误差检测与精度补偿系统标定方法
TWI799310B (zh) * 2022-06-30 2023-04-11 國立清華大學 機器人及機器人手眼校正方法
CN114862955B (zh) * 2022-07-07 2022-09-02 诺伯特智能装备(山东)有限公司 一种工业机器人快速视觉定位方法
WO2024101265A1 (ja) * 2022-11-07 2024-05-16 Dmg森精機株式会社 ロボット搭載移動装置

Family Cites Families (40)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4362977A (en) 1980-06-30 1982-12-07 International Business Machines Corporation Method and apparatus for calibrating a robot to compensate for inaccuracy of the robot
SE8400287D0 (sv) 1984-01-20 1984-01-20 Grundstenen 17356 Ab Anordning/metod for kalibrering av monteringsmaskiner mm
US4956578A (en) 1987-07-28 1990-09-11 Canon Kabushiki Kaisha Surface conduction electron-emitting device
US4831549A (en) 1987-07-28 1989-05-16 Brigham Young University Device and method for correction of robot inaccuracy
JP2622842B2 (ja) 1987-10-12 1997-06-25 キヤノン株式会社 電子線画像表示装置および電子線画像表示装置の偏向方法
JP2630988B2 (ja) 1988-05-26 1997-07-16 キヤノン株式会社 電子線発生装置
JP2518699B2 (ja) * 1989-09-27 1996-07-24 三菱電機株式会社 ロボット制御装置
JPH04211807A (ja) * 1990-04-20 1992-08-03 Hitachi Ltd ロボットの設置誤差の推定方法及びその装置並びにロボット駆動制御方法及び基準付き作業台及び基準
US5083073A (en) * 1990-09-20 1992-01-21 Mazada Motor Manufacturing U.S.A. Corp. Method and apparatus for calibrating a vision guided robot
JP2612980B2 (ja) * 1991-08-22 1997-05-21 山武ハネウエル株式会社 表面実装機におけるキャリブレーション方法
JP3072795B2 (ja) 1991-10-08 2000-08-07 キヤノン株式会社 電子放出素子と該素子を用いた電子線発生装置及び画像形成装置
KR940006570B1 (ko) * 1992-01-14 1994-07-22 한국과학기술원연구원 온도변화에 의한 로보트 팔길이 보정용 캘리브레이션 시스템(calibration system)
CA2112180C (en) 1992-12-28 1999-06-01 Yoshikazu Banno Electron source and manufacture method of same, and image forming device and manufacture method of same
US6157137A (en) 1993-01-28 2000-12-05 Canon Kabushiki Kaisha Multi-electron beam source with driving circuit for preventing voltage spikes
JPH06278064A (ja) * 1993-03-31 1994-10-04 Citizen Watch Co Ltd 視覚センサの座標変換方法
ATE165187T1 (de) 1993-11-09 1998-05-15 Canon Kk Bildanzeigegerät
JP3394322B2 (ja) * 1994-05-19 2003-04-07 ファナック株式会社 視覚センサを用いた座標系設定方法
JPH1063317A (ja) * 1996-08-13 1998-03-06 Fanuc Ltd ロボット−視覚センサシステムにおける座標系結合方法
JP3025249B2 (ja) 1997-12-03 2000-03-27 キヤノン株式会社 素子の駆動装置及び素子の駆動方法及び画像形成装置
JPH11184526A (ja) * 1997-12-19 1999-07-09 Toshiba Corp 3次元位置補正方法ならびに同方法を用いたリモートマニピュレータシステム
DE10155430B4 (de) 2001-11-12 2006-12-14 Siemens Ag Adaption von Kompensationsdaten zur Verringerung von Stellungsfehlern bei Werkzeugmaschinen und Robotern
JP4021413B2 (ja) * 2004-01-16 2007-12-12 ファナック株式会社 計測装置
JP4960589B2 (ja) 2004-12-08 2012-06-27 川崎重工業株式会社 ロボット制御装置およびロボット制御方法
JP2006289531A (ja) 2005-04-07 2006-10-26 Seiko Epson Corp ロボット位置教示のための移動制御装置、ロボットの位置教示装置、ロボット位置教示のための移動制御方法、ロボットの位置教示方法及びロボット位置教示のための移動制御プログラム
US8108072B2 (en) * 2007-09-30 2012-01-31 Intuitive Surgical Operations, Inc. Methods and systems for robotic instrument tool tracking with adaptive fusion of kinematics information and image information
US8073528B2 (en) * 2007-09-30 2011-12-06 Intuitive Surgical Operations, Inc. Tool tracking systems, methods and computer products for image guided surgery
JP4443497B2 (ja) * 2005-11-02 2010-03-31 パルステック工業株式会社 多自由度ロボットの位置決め誤差補正装置および同位置決め誤差補正方法
JP4298757B2 (ja) * 2007-02-05 2009-07-22 ファナック株式会社 ロボット機構のキャリブレーション装置及び方法
US8805110B2 (en) * 2008-08-19 2014-08-12 Digimarc Corporation Methods and systems for content processing
US8929877B2 (en) * 2008-09-12 2015-01-06 Digimarc Corporation Methods and systems for content processing
JP4763074B2 (ja) * 2009-08-03 2011-08-31 ファナック株式会社 ロボットのツール先端点の位置の計測装置および計測方法
US8768313B2 (en) * 2009-08-17 2014-07-01 Digimarc Corporation Methods and systems for image or audio recognition processing
US20110043537A1 (en) * 2009-08-20 2011-02-24 University Of Washington Visual distortion in a virtual environment to alter or guide path movement
US9393694B2 (en) 2010-05-14 2016-07-19 Cognex Corporation System and method for robust calibration between a machine vision system and a robot
JP5618770B2 (ja) * 2010-11-09 2014-11-05 三菱電機株式会社 ロボットの校正装置および校正方法
JP5936374B2 (ja) 2011-02-15 2016-06-22 キヤノン株式会社 圧電振動型力センサ及びロボットハンド並びにロボットアーム
JP6039382B2 (ja) * 2012-11-27 2016-12-07 キヤノン株式会社 ロボットシステム及びロボットシステムの制御方法
JP6108860B2 (ja) * 2013-02-14 2017-04-05 キヤノン株式会社 ロボットシステム及びロボットシステムの制御方法
JP6468741B2 (ja) * 2013-07-22 2019-02-13 キヤノン株式会社 ロボットシステム及びロボットシステムの校正方法
JP6335460B2 (ja) * 2013-09-26 2018-05-30 キヤノン株式会社 ロボットシステムの制御装置及び指令値生成方法、並びにロボットシステムの制御方法

Also Published As

Publication number Publication date
CN104511900B (zh) 2017-12-15
JP2015066603A (ja) 2015-04-13
US20150088311A1 (en) 2015-03-26
US20170217020A1 (en) 2017-08-03
EP2853356A1 (en) 2015-04-01
CN104511900A (zh) 2015-04-15
US10279479B2 (en) 2019-05-07
US9669545B2 (en) 2017-06-06

Similar Documents

Publication Publication Date Title
JP6335460B2 (ja) ロボットシステムの制御装置及び指令値生成方法、並びにロボットシステムの制御方法
JP6108860B2 (ja) ロボットシステム及びロボットシステムの制御方法
JP6468741B2 (ja) ロボットシステム及びロボットシステムの校正方法
JP6429473B2 (ja) ロボットシステム、ロボットシステムの校正方法、プログラム、およびコンピュータ読み取り可能な記録媒体
JP5928114B2 (ja) ロボットシステム、ロボットシステムのキャリブレーション方法、ロボット
CN106457562B (zh) 用于校准机器人的方法和机器人系统
JP5850962B2 (ja) ビジュアルフィードバックを利用したロボットシステム
JP6700669B2 (ja) 制御方法、ロボット装置、プログラム、記録媒体、及び物品の製造方法
JP6489776B2 (ja) 座標系校正方法、ロボットシステム、プログラム及び記録媒体
JP5550468B2 (ja) 力覚センサの校正方法
CN113386136B (zh) 一种基于标准球阵目标估计的机器人位姿矫正方法及系统
JP4302830B2 (ja) ロボットのキャリブレーション方法及び装置
JP2005149299A (ja) 教示位置修正装置
JP5618770B2 (ja) ロボットの校正装置および校正方法
JP2014128845A (ja) ロボットシステム表示装置
JP2018001393A (ja) ロボット装置、ロボット制御方法、プログラム及び記録媒体
JP7258516B2 (ja) キャリブレーション方法および把持システム
CN109531604B (zh) 进行校准的机器人控制装置、测量系统以及校准方法
JP2010188439A (ja) パラメータ算出方法及びパラメータ算出装置
JP2013013950A (ja) ロボット、ロボット制御装置、ロボット制御方法、およびロボット制御プログラム
JP6039382B2 (ja) ロボットシステム及びロボットシステムの制御方法
JP5531182B2 (ja) 位置決め装置のキャリブレーション方法、位置決め装置、およびこれらのためのコンピュータプログラム
KR102269776B1 (ko) 중재시술 로봇의 캘리브레이션 방법
JP6091272B2 (ja) 多関節ロボットのバネ定数補正装置
JP6267086B2 (ja) 伝達角度算出方法、伝達角度補正装置、ロボットの制御方法およびロボットの制御装置

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160915

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160915

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170608

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170620

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170817

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180123

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180326

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180403

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180501

R151 Written notification of patent or utility model registration

Ref document number: 6335460

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151