JP6108860B2 - ロボットシステム及びロボットシステムの制御方法 - Google Patents

ロボットシステム及びロボットシステムの制御方法 Download PDF

Info

Publication number
JP6108860B2
JP6108860B2 JP2013026158A JP2013026158A JP6108860B2 JP 6108860 B2 JP6108860 B2 JP 6108860B2 JP 2013026158 A JP2013026158 A JP 2013026158A JP 2013026158 A JP2013026158 A JP 2013026158A JP 6108860 B2 JP6108860 B2 JP 6108860B2
Authority
JP
Japan
Prior art keywords
orientation
posture
value
visual sensor
robot
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013026158A
Other languages
English (en)
Other versions
JP2014151427A (ja
Inventor
鈴木 秀明
秀明 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2013026158A priority Critical patent/JP6108860B2/ja
Priority to EP14153271.3A priority patent/EP2767370A3/en
Priority to US14/178,167 priority patent/US9221176B2/en
Priority to CN201410050567.XA priority patent/CN103991078B/zh
Publication of JP2014151427A publication Critical patent/JP2014151427A/ja
Application granted granted Critical
Publication of JP6108860B2 publication Critical patent/JP6108860B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1692Calibration of manipulator
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39045Camera on end effector detects reference pattern
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39057Hand eye calibration, eye, camera on hand, end effector
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/45Nc applications
    • G05B2219/45064Assembly robot
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/02Arm motion controller
    • Y10S901/09Closed loop, sensor feedback controls arm movement
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/46Sensing device
    • Y10S901/47Optical

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Manipulator (AREA)
  • Numerical Control (AREA)

Description

本発明は、複数の関節が制御されることにより駆動する多関節アーム及び視覚センサを利用するロボットシステム及びロボットシステムの制御方法に関する。
従来、垂直多関節アーム及びエンドエフェクタ(以下、ロボット本体という)と、これらを制御する制御装置とを備え、アームの先端部に視覚センサ(以下、カメラともいう)を取り付けたロボット装置が普及している。このロボット装置では、カメラによりワーク等の対象物を計測し、計測結果から制御装置が対象物の位置姿勢を演算し、演算して得られた対象物の位置姿勢に基づいてロボット本体の位置姿勢を制御するようになっている。
一般に、カメラが基準とする計測座標系と、ロボット本体が基準とする動作座標系とは異なっているので、カメラの計測値からロボット本体の動作目標値(指令値)を得るためには、カメラの計測値を計測座標系から動作座標系に座標変換する必要がある。この座標変換を行うためには、事前に計測座標系と動作座標系との校正作業を行い、校正値(座標変換式)を求めておく必要がある。
この校正作業の例としては、例えば、ロボット本体に複数の位置姿勢を順次取らせながら、各々の位置姿勢においてカメラにより校正用基準部材を計測する所謂ハンドアイキャリブレーション方法が知られている(特許文献1及び非特許文献1参照)。この方法では、ロボット本体の各位置姿勢におけるロボット本体の先端部への指令値と、カメラからの校正用基準部材の計測値との関係から、残差が最小となるように動作座標系と計測座標系との関係を求め、校正値を得ている。
また、校正作業の他の例として、例えば、カメラが基準ワークを計測し、この基準ワークに対して作業者がティーチングペンダント等を用いてロボット本体をアプローチさせる方法が知られている(特許文献2参照)。この方法では、カメラによる基準ワークの計測後、ロボット本体を基準ワークにアプローチさせ、カメラで得られた計測値とロボット本体への指令値との関係を求め、計測座標系と動作座標系との校正値を得ている。
特開平10−063317号公報 特開平6−206186号公報
Hand-Eye Calibration (Radu Horaud and FadiDornaika, 1995)
特許文献1に記載された座標校正方法はロボット本体の動作誤差を考慮したものではなかったが、実際にはアームでの機械誤差や撓み等に起因して動作誤差が発生する。一方で、実際の使用時にはワークを計測する際の計測精度を重視したロボット本体の計測位置姿勢と、ロボット本体の実際の作業時の作業位置姿勢とが、大きく異なっている場合がある。前述したロボット本体の動作誤差はロボット本体の位置姿勢に大きく依存するため、このような場合は、特に座標校正を行っても精度を十分に向上することは困難であった。
このようなロボット本体の位置姿勢誤差は、特許文献2に記載された座標校正方法のように、作業者がロボット本体に実際の作業位置姿勢を教示する方法によれば、ある程度は抑制することができる。しかしながら、特許文献2に記載された座標校正方法では、作業者による教示作業を要するため、自動化された作業に比べ座標合わせのための作業時間が長く必要であり、また校正値の精度が作業者の熟練度合いに依存してばらつく虞があった。
本発明は、視覚センサを有するロボットにおいて座標変換の校正値を求める際に、人手による教示作業を不要にし、かつ座標校正の精度を向上できるロボットシステム及びロボットシステムの制御方法を提供することを目的とする。
本発明のロボットシステムは、多関節アームと、前記多関節アームに支持されたエンドエフェクタと、を有するロボット本体と、前記ロボット本体に設けられた視覚センサと、前記ロボット本体の位置姿勢を制御し、前記視覚センサによる計測値を利用してワークの位置姿勢を算出する制御装置と、を備え、前記制御装置は、前記ロボット本体の第1の基準位置姿勢と、前記第1の基準位置姿勢を囲む第1のオフセット範囲内にある前記ロボット本体の位置姿勢と、を含む第1の位置姿勢グループの各位置姿勢で、前記視覚センサにより基準部材を計測させ、前記第1の位置姿勢グループの各位置姿勢における前記視覚センサによる前記基準部材の計測値を利用して第1の校正値を算出し、前記第1の基準位置姿勢とは異なる前記ロボット本体の第2の基準位置姿勢と、前記第2の基準位置姿勢を囲むと共に、前記第1のオフセット範囲とは離隔する又は一部が前記第1のオフセット範囲に重なり別の一部が前記第1のオフセット範囲に重ならない第2のオフセット範囲内にある前記ロボット本体の位置姿勢と、を含む第2の位置姿勢グループの各位置姿勢で、前記視覚センサにより前記基準部材を計測させ、前記第2の位置姿勢グループの各位置姿勢における前記視覚センサによる前記基準部材の計測値を利用して第2の校正値を算出し、前記視覚センサにより前記ワークを計測させ、前記第1の校正値及び前記第2の校正値を利用して、前記ロボット本体を動作させ、前記第1の基準位置姿勢は、前記第2の基準位置姿勢よりも前記視覚センサが前記ワークに正対する位置姿勢であることを特徴とする。
また、本発明のロボットシステムは、多関節アームと、前記多関節アームに支持されたエンドエフェクタと、を有するロボット本体と、前記ロボット本体に設けられた視覚センサと、前記ロボット本体の位置姿勢を制御し、前記視覚センサによる計測値を利用してワークの位置姿勢を算出する制御装置と、を備え、前記制御装置は、前記ロボット本体の第1の基準位置姿勢と、前記第1の基準位置姿勢を囲む第1のオフセット範囲内にある前記ロボット本体の位置姿勢と、を含む第1の位置姿勢グループの各位置姿勢で、前記視覚センサにより基準部材を計測させ、前記第1の位置姿勢グループの各位置姿勢における前記視覚センサによる前記基準部材の計測値を利用して第1の校正値を算出し、前記第1の基準位置姿勢とは異なる前記ロボット本体の第2の基準位置姿勢と、前記第2の基準位置姿勢を囲むと共に、前記第1のオフセット範囲とは離隔する又は一部が前記第1のオフセット範囲に重なり別の一部が前記第1のオフセット範囲に重ならない第2のオフセット範囲内にある前記ロボット本体の位置姿勢と、を含む第2の位置姿勢グループの各位置姿勢で、前記視覚センサにより前記基準部材を計測させ、前記第2の位置姿勢グループの各位置姿勢における前記視覚センサによる前記基準部材の計測値を利用して第2の校正値を算出し、前記視覚センサにより前記ワークを計測させ、前記第1の校正値及び前記第2の校正値を利用して、前記ロボット本体を動作させ、前記第2の基準位置姿勢は、前記第1の基準位置姿勢よりも前記エンドエフェクタが前記ワークに正対する位置姿勢であることを特徴とする。
また、本発明は、多関節アームと、前記多関節アームに支持されたエンドエフェクタと、を有するロボット本体と、前記ロボット本体に設けられた視覚センサと、前記ロボット本体の位置姿勢を制御し、前記視覚センサによる計測値を利用してワークの位置姿勢を算出する制御装置と、を備えたロボットシステムの制御方法において、前記制御装置が、前記ロボット本体の第1の基準位置姿勢と、前記第1の基準位置姿勢を囲む第1のオフセット範囲内にある前記ロボット本体の位置姿勢と、を含む第1の位置姿勢グループの各位置姿勢で、前記視覚センサにより基準部材を計測させる第1の計測工程と、前記制御装置が、前記第1の位置姿勢グループの各位置姿勢における前記視覚センサによる前記基準部材の計測値を利用して第1の校正値を算出する第1の校正値算出工程と、前記制御装置が、前記第1の基準位置姿勢とは異なる前記ロボット本体の第2の基準位置姿勢と、前記第2の基準位置姿勢を囲むと共に、前記第1のオフセット範囲とは離隔する又は一部が前記第1のオフセット範囲に重なり別の一部が前記第1のオフセット範囲に重ならない第2のオフセット範囲内にある前記ロボット本体の位置姿勢と、を含む第2の位置姿勢グループの各位置姿勢で、前記視覚センサにより前記基準部材を計測させる第2の計測工程と、前記制御装置が、前記第2の位置姿勢グループの各位置姿勢における前記視覚センサによる前記基準部材の計測値を利用して第2の校正値を算出する第2の校正値算出工程と、前記制御装置が、前記視覚センサにより前記ワークを計測させるワーク計測工程と、前記制御装置が、前記第1の校正値及び前記第2の校正値を利用して、前記ロボット本体を動作させる動作工程と、を備え、前記第1の基準位置姿勢は、前記第2の基準位置姿勢よりも前記視覚センサが前記ワークに正対する位置姿勢であることを特徴とする。
また、本発明は、多関節アームと、前記多関節アームに支持されたエンドエフェクタと、を有するロボット本体と、前記ロボット本体に設けられた視覚センサと、前記ロボット本体の位置姿勢を制御し、前記視覚センサによる計測値を利用してワークの位置姿勢を算出する制御装置と、を備えたロボットシステムの制御方法において、前記制御装置が、前記ロボット本体の第1の基準位置姿勢と、前記第1の基準位置姿勢を囲む第1のオフセット範囲内にある前記ロボット本体の位置姿勢と、を含む第1の位置姿勢グループの各位置姿勢で、前記視覚センサにより基準部材を計測させる第1の計測工程と、前記制御装置が、前記第1の位置姿勢グループの各位置姿勢における前記視覚センサによる前記基準部材の計測値を利用して第1の校正値を算出する第1の校正値算出工程と、前記制御装置が、前記第1の基準位置姿勢とは異なる前記ロボット本体の第2の基準位置姿勢と、前記第2の基準位置姿勢を囲むと共に、前記第1のオフセット範囲とは離隔する又は一部が前記第1のオフセット範囲に重なり別の一部が前記第1のオフセット範囲に重ならない第2のオフセット範囲内にある前記ロボット本体の位置姿勢と、を含む第2の位置姿勢グループの各位置姿勢で、前記視覚センサにより前記基準部材を計測させる第2の計測工程と、前記制御装置が、前記第2の位置姿勢グループの各位置姿勢における前記視覚センサによる前記基準部材の計測値を利用して第2の校正値を算出する第2の校正値算出工程と、前記制御装置が、前記視覚センサにより前記ワークを計測させるワーク計測工程と、前記制御装置が、前記第1の校正値及び前記第2の校正値を利用して、前記ロボット本体を動作させる動作工程と、を備え、前記第2の基準位置姿勢は、前記第1の基準位置姿勢よりも前記エンドエフェクタが前記ワークに正対する位置姿勢であることを特徴とする。
本発明によれば、少なくとも2つの位置姿勢グループの各位置姿勢からそれぞれ校正値を算出し、これら少なくとも2つの校正値を利用してロボット本体を動作させるようにしている。複数の位置姿勢グループから算出される複数の校正値を用いることができるので、ワークの計測位置姿勢を中心に算出される1つの校正値を用いる場合に比べ、座標校正の精度を向上することができ、ロボット本体の動作における位置姿勢の制御の精度を向上できる。また、人手による教示作業は不要であるので、校正作業の長時間化や作業者の熟練度による精度のばらつきを抑制することができる。
本発明の第1実施形態に係るロボットシステムの概略構成を示す説明図である。 本発明の第1実施形態に係るロボットシステムで座標校正を行う際の処理手順を示すフローチャートである。 本発明の第1実施形態に係るロボットシステムの計測位置姿勢グループと作業位置姿勢グループとの各位置姿勢を示す説明図である。 本発明の第1実施形態に係るロボットシステムの説明図であり、(a)は基準計測位置姿勢、(b)は基準作業位置姿勢を示す。 各位置姿勢グループでの位置姿勢オフセットの例を示す表である。 本発明の第1実施形態に係るロボットシステムにより基本校正値を算出する際のロボット本体の位置姿勢を示す説明図である。 本発明の第1実施形態に係るロボットシステムにより基本校正値の残差を算出する際のロボット本体の位置姿勢を示す説明図である。 本発明の第1実施形態に係るロボットシステムによりワークを把持する際のロボット本体の位置姿勢を示す説明図であり、(a)はカメラによる計測時、(b)は補正無でのロボット本体の移動時、(c)は補正有りでのロボット本体の移動時である。 本発明の第2実施形態に係るロボットシステムに用いられる組付け用ワーク及びワークを示す説明図である。 本発明の第2実施形態に係るロボットシステムで座標校正を行う際の処理手順を示すフローチャートである。
以下、本発明を実施するための形態を、図面を参照しながら詳細に説明する。
[第1実施形態]
本実施形態のロボットシステム1の説明に先立って、本明細書中での数式表現の定義について説明する。本明細書中では、ロボットシステム1を構成する多関節アーム20、ハンド21、カメラ3、ワーク6等について、6自由度の位置姿勢を3次元の座標系により表すと共に、任意の2つの座標系の相対位置姿勢を座標変換行列(同次変換行列)によって表現する。
まず、任意の座標系Aから任意の座標系Bに向かう相対位置姿勢を表す座標変換行列をと記述し、その座標変換行列が示す相対位置姿勢を相対位置姿勢とも記述する。例えば、本実施形態では、図1に示すように、後述するロボット座標系Rを基準とする手先座標系Tの相対位置姿勢をで示し、また後述するカメラ座標系Vを基準とするワーク座標系Wの相対位置姿勢をで示す。
相対位置姿勢は、回転行列Rot及び並進ベクトルtを用いて、数式1のように定義される。
Figure 0006108860
数式1において、回転行列Rotは3次元の回転を表す3×3の行列であり、並進ベクトルtは3×1の3次元ベクトルである。並進の移動量のX,Y,Z成分をそれぞれt,t,tと表し、XYZ各軸回りの回転成分をθ, θ, θで表すと、回転行列Rotは数式2のように定義されると共に、並進ベクトルtは数式3のように定義される。
Figure 0006108860
Figure 0006108860
なお、数式2では、XYZ各軸回りの回転成分を表す回転行列を、それぞれRotx,Roty,Rotzとしている。
次に、座標変換行列の性質として、任意の座標系A,B,Cに対して、数式4が成立する。
Figure 0006108860
即ち、座標系Aに対する座標系Bの相対位置姿勢と座標系Bに対する座標系Cの相対位置姿勢とを乗算することにより、座標系Aに対する座標系Cの相対位置姿勢を求めることができる。
また、座標系Bに対する座標系Aの相対位置姿勢を求めるためには、数式5のように逆行列を算出する。
Figure 0006108860
また、並進の移動量及び各軸回りの回転成分からなるベクトル(t,t,t,θ,θ,θ)から座標変換行列を求めるには、本来は数式1〜数式3を用いて表示する必要がある。これに対し、本明細書中では、簡易にH(t,t,t,θ,θ,θ)を用いて数式6に表すようにする。
Figure 0006108860
同様に、座標変換行列から並進の移動量及び各軸回りの回転成分からなるベクトル(t,t,t,θ,θ,θ)を求める逆変換式についても、数式1〜数式3を用いた表示にせずに、pose()として数式7に表すようにする。
Figure 0006108860
(但し、−180[deg]<θ,θ,θ<180[deg])
pose()の変換において、θ=±90[deg]の場合は解が一意に求まらないが、その場合には複数存在する解のうち1つが算出されるものとする。尚、本実施形態では、座標変換行列の対象範囲はロボット本体2の動作誤差程度の小さい角度範囲であるので、θ=±90[deg]になる場合は稀であり、上述した解が一意に求まらない場合の影響は極めて小さい。
次に、本実施形態に係るロボットシステム1について説明する。
図1に示すように、ロボットシステム1は、多関節アーム20及びハンド(エンドエフェクタ)21を有するロボット本体2と、該ロボット本体2に設けられた単眼のカメラ(視覚センサ)3と、ロボット本体2の位置姿勢を制御する制御装置4と、を備えている。
多関節アーム20(以下、アームという)は、基台5に固定されており、基台5には該基台5を基準にしてアーム20の位置姿勢を表すロボット座標系Rが設定されている。また、基台5には、ワーク6が載置されるようになっており、ワーク6には該ワーク6を基準にしてワーク座標系Wが設定されている。
アーム20としては、7つのリンクと、各リンクを揺動又は回動可能に連結する6つの関節とを備える6軸の垂直多関節アーム20を適用している。本実施形態では6軸の垂直多関節アーム20を適用しているが、これに限らず、軸数は用途や目的に応じて適宜変更してもよい。
各関節には、各関節を各々駆動するモータあるいは必要に応じて直動アクチュエータが、出力機器として設けられている。各関節には、モータの回転角度を検知するエンコーダと、各モータに供給する電流を検知する電流センサと、各関節のトルクを検知するトルクセンサとが、入力機器として設けられている。
アーム20は、制御装置4のロボット制御部44から出力される指令値により各関節を駆動して、ハンド21の位置姿勢を調整するようになっている。ロボット制御部44は、ロボット座標系Rを基準とする後述する手先座標系Tの相対位置姿勢の目標値に対して、アーム20の各関節の取るべき角度を計算し、各関節に対して指令値を出力するようになっている。また、ロボット制御部44は、エンコーダから各関節の現在角度情報を取得し、後述する現在の手先座標系Tの相対位置姿勢を算出可能になっている。
アーム20の先端部にはハンド21が支持されており、該ハンド21は、アーム20の動作により位置姿勢が調整されると共に、ワーク6を把持可能な例えば3本の指を備えている。ハンド21には、該ハンド21を基準にして手先座標系Tが設定されている。本実施形態では、エンドエフェクタとしてワーク6を把持可能なハンド21が適用されている。しかしながら、これには限らず、例えば把持以外の手段でワーク6を保持する機構や、ワーク6に加工を施す工具等、ワーク6に対して作業可能なエンドエフェクタの全般を含めることができる。
また、アーム20の先端部あるいはハンド21にはカメラ3が支持されており、該カメラ3は制御装置4のカメラ制御部45からの指令を受けて撮像し、画像データをカメラ制御部45に送信するようになっている。カメラ3には、光軸方向及び撮像視野の縦横方向を基準にしてカメラ座標系(視覚センサの座標系)Vが設定されている。本実施形態では、カメラ3は、光軸がハンド21の長軸方向に対して約45度を形成してハンド21の先端を向くように設けられている。
ロボット本体2に接続された制御装置4は、コンピュータにより構成され、ロボット本体2を制御するようになっている。制御装置4を構成するコンピュータは、例えばCPU40と、各部を制御するためのプログラムを記憶するROM41と、データを一時的に記憶するRAM42と、ロボット本体2に通信可能にする入出力インターフェース回路(I/F)43とを備えている。
CPU40は、上述のロボット制御部44と、カメラ制御部45と、ワーク位置姿勢計算部46と、校正値算出部47とを備えている。
カメラ制御部45は、カメラ3が取得した画像データを制御装置4のワーク位置姿勢計算部46に送信し、該ワーク位置姿勢計算部46は、受信した画像データに基づき画像処理を行ってワーク6の位置姿勢を算出するようになっている。ここで算出される出力値は、カメラ座標系Vを基準とするワーク座標系Wの位置姿勢に相当するデータである。
ワーク位置姿勢計算部46は、処理結果を校正値算出部47に送信する。校正値算出部47は、ロボット制御部40から取得した手先座標系Tにおけるハンド21の位置姿勢と、ワーク位置姿勢計算部46から取得したワーク座標系Wにおけるワーク6の位置姿勢とに基づき、校正値を算出するようになっている。
上述したロボットシステム1により校正値を算出し、該校正値に基づき座標変換を行ってロボット本体2への指令値を算出し、ロボット本体2に指令値を出力してハンド21をワーク6に移動させ把持させる手順を、図2に示すフローチャートに沿って説明する。
実際のワーク6により作業を行う前に校正値を得るために、ロボット本体2に複数の位置姿勢を取らせるよう、複数の位置姿勢グループの各位置姿勢(指令値)を、制御装置4に設定する(ステップS1〜S3)。ここでの各位置姿勢グループは、ロボット本体2の手先座標系Tの複数の位置姿勢を表す指令値の集合であり、i番目に設定する位置姿勢を[i]と表すようにする。本実施形態では、複数の位置姿勢グループは、図3に示すように、計測位置姿勢グループ7及び作業位置姿勢グループ8と、その他1つの位置姿勢グループとしている。尚、ステップS6以降の処理において各校正値を得るために、ステップS1〜S3では位置姿勢グループの数によらず合計で少なくとも3つの位置姿勢が設定されることが必要である。
まず、使用者は、i=1〜N(Nは1以上)のN個のロボット本体2の位置姿勢を、計測位置姿勢グループ(第1の位置姿勢グループ)7として任意に設定する(ステップS1)。計測位置姿勢グループ7は、基準計測位置姿勢(第1の基準位置姿勢)7aと、該基準計測位置姿勢7aを囲む所定の第1のオフセット範囲内にある周囲計測位置姿勢7bと、の各位置姿勢の集合とされている。
基準計測位置姿勢7aは、後述する基準作業位置姿勢8aよりもカメラ3がワーク6に正対する位置姿勢であり、カメラ3によりワーク6を計測する際の計測位置姿勢に近い任意の位置姿勢とする。具体的には、例えば、ロボット本体2を使用する制御プログラム等において設定された計測位置姿勢や、ワーク6の計測を行うように実際にロボット本体2を教示した計測位置姿勢を利用することができる。
カメラ3によりワーク6を計測する際の計測位置姿勢は、例えば、カメラ3がワーク6に正対して、ワーク6の特徴的な形状やマークに対して小さい誤差で計測可能な位置姿勢である。例えば、図4(a)に示すように、ワーク6が、矩形状の本体部6aと円筒状の突起部6bとを有するとする。この場合は、計測位置姿勢は、例えば、突起部6bの突出方向とカメラ3の光軸とを一致させることにより、本体部6aの回転方向の向きと突起部6bの位置とを同時に計測可能にする位置姿勢であることが好ましい。
周囲計測位置姿勢7bの基準計測位置姿勢7aに対する第1のオフセット範囲は、基準計測位置姿勢7aに対してロボット本体2を微調整し得る幅等を考慮して設定することが望ましい。例えば、図5に示す表のように、基準計測位置姿勢7aの位置姿勢に対し、6自由度のそれぞれについてオフセット値を定め、周囲計測位置姿勢7bとして設定する。そして、各オフセット値を、制御装置4のRAM42等に制御プログラム等として記述することにより、制御装置4に計測位置姿勢グループ7の各位置姿勢を設定するようにし、その範囲が第1のオフセット範囲となる。
この場合、例えば、実際にカメラ3からワーク6を計測しやすいように、ロボット本体2を動かして教示した基準計測位置姿勢7aを MPoseとする。ここで、基準計測位置姿勢7aである MPoseからロボット本体2の位置姿勢を調整し得る調整幅が±2[mm]、±5[deg]程度であるとする。この場合は、所定の第1のオフセット範囲として、 MPoseに±2[mm]、±5[deg]の範囲でオフセットを加えた複数の位置姿勢を、周囲計測位置姿勢7bとして設定する。
基準計測位置姿勢7aである MPoseに対してオフセット値(dx[i],dy[i],dz[i],dθ[i],dθ[i],dθ[i])を加えた場合のi番目の位置姿勢[i]は、数式8のように示される。
Figure 0006108860
(i=1,2,…,N)
尚、上述のように予め設定した第1のオフセット範囲を制御装置4に制御プログラム等として記憶させることには限らず、例えば、ティーチングペンダント等により実際にロボット本体2を動かして各位置姿勢をロボット制御部40に教示するようにしてもよい。
次に、使用者は、i=N+1〜MのM−N(M−Nは2以上)個のロボット本体2の位置姿勢を、作業位置姿勢グループ(第2の位置姿勢グループ)8として任意に設定する(ステップS2)。図3に示すように、作業位置姿勢グループ8は、基準作業位置姿勢(第2の基準位置姿勢)8aと、該基準作業位置姿勢8aを囲む所定の第2のオフセット範囲内にある周囲作業位置姿勢8bと、の各位置姿勢の集合とされている。
基準作業位置姿勢8aは、基準計測位置姿勢7aとは異なる位置姿勢であり、ここでは、基準計測位置姿勢7aよりもハンド21がワーク6に正対する位置姿勢で、ワーク6に作業を施す際の作業位置姿勢に近い任意の位置姿勢とする。具体的には、例えば、ロボット本体2を使用する制御プログラム等において設定されたロボット本体2の作業位置姿勢や、ワーク6に作業を施すよう実際にロボット本体2を教示した作業位置姿勢を利用することができる。
カメラ3によりワーク6に作業を施す際の作業位置姿勢は、例えば、ハンド21がワーク6を把持する部位に正対して、ワーク6を把持可能になる位置姿勢である。例えば、図4(b)に示すように、ワーク6が本体部6a及び突起部6bを有する場合は、作業位置姿勢は、ハンド21が突起部6bを把持する位置姿勢とする。ここで、ハンド21がワーク6の突起部6bを把持した際に、ハンド21の手先座標系Tとワーク6のワーク座標系Wとが一致するように、手先座標系T及びワーク座標系Wを設定するようにする。
周囲作業位置姿勢8bの基準作業位置姿勢8aに対する第2のオフセット範囲は、第1のオフセット範囲とは離隔する範囲、又は一部が第1のオフセット範囲に重なり別の一部が第1のオフセット範囲に重ならない範囲である。換言すると、第1のオフセット範囲と第2のオフセット範囲とは、重ならなくてもよく、あるいは一部重なっていてもよいが、お互い全て一致する関係ではなく、また一方が他方に全て含まれる関係でもない。
第2のオフセット範囲は、基台5に載置されたワーク6の取り得る位置姿勢誤差の範囲等を考慮して設定することが望ましい。例えば、図5に示す表のように、基準作業位置姿勢8aの位置姿勢に対し、6自由度のそれぞれについてオフセット値を定め、周囲作業位置姿勢8bとして設定する。そして、各オフセット値を、制御装置4のRAM42等に制御プログラム等として記述することにより、制御装置4に作業位置姿勢グループ8の各位置姿勢を設定するようにし、その範囲が第2のオフセット範囲となる。
この場合、例えば、設計上の理想位置にワーク6があるときのロボット本体2の基準作業位置姿勢8aを WPoseとする。ここで、基準作業位置姿勢8aの周囲でのワーク6の位置姿勢誤差に応じてロボット本体2の動きを補正した際の手先座標系Tの変動幅が±5[mm]、±10[deg]程度であるとする。この場合は、所定の第2のオフセット範囲として、 WPoseに±5[mm]、±10[deg]の範囲でオフセットを加えた複数の位置姿勢を、作業位置姿勢グループ8として設定する。
このように、第1のオフセット範囲及び第2のオフセット範囲は、例えば数[mm]及び数[deg]程度である。このため、各オフセット範囲は、計測位置姿勢グループ7及び作業位置姿勢グループ8同士の位置姿勢の差(数[cm]〜数十[cm]、数[deg]〜数十[deg])に比べ、小さい変動範囲としている。
上述のように、第1のオフセット範囲及び第2のオフセット範囲は、基準計測位置姿勢7a及び基準作業位置姿勢8aの位置姿勢の差に比べて狭く設定されている。即ち、高いに大きく離れた計測位置姿勢グループ7及び作業位置姿勢グループ8において、それぞれ狭い範囲で動作することで各々の補正値を演算している。これにより、例えば、計測位置姿勢グループ7の位置姿勢のみを利用して座標校正を行う場合に比べて、座標校正の精度を向上することができる。
基準作業位置姿勢8aである WPoseに対してオフセット値(dx[i],dy[i],dz[i],dθ[i],dθ[i],dθ[i])を加えた場合のi番目の位置姿勢[i]は、数式9のように示される。
Figure 0006108860
(i=N+1,N+2,…,M)
次に、使用者は、i=M+1〜LのL−M(L−Mは1以上)個のロボット本体2の位置姿勢を、他の位置姿勢グループとして任意に設定する(ステップS3)。位置姿勢グループとして上述した計測位置姿勢グループ7及び作業位置姿勢グループ8の他にも位置姿勢グループを設定することにより、後述する基本校正値をより高精度に算出できるようになる。但し、計測位置姿勢グループ7及び作業位置姿勢グループ8の他にも位置姿勢グループを設定することには限らず、少なくとも2つの位置姿勢グループがあればよい。そのため、計測位置姿勢グループ7及び作業位置姿勢グループ8のみを設定してもよく、あるいは4つ以上の位置姿勢グループを設定してもよく、更には計測位置姿勢グループ7及び作業位置姿勢グループ8以外の2グループであってもよい。
次に、図3に示すように、各位置姿勢グループで設定した複数の位置姿勢をロボット本体2に取らせた際に、カメラ3から共通して計測できる共通の視野内に、校正プレート(基準部材)10を設置する(ステップS4)。校正プレート10は、例えば平板状で、表面に所定の寸法の円形パターン10a,10bが複数(3個以上)配置されて表示されており、カメラ3により6自由度の位置姿勢を計測できるようになっている。
校正プレート10の複数の円形パターンのうち角部の1つだけは中空円形パターン10aであり、他は塗りつぶされた中実円形パターン10bとしている。中空円形パターン10aの存在により全体として非点対称の配置になっており、校正プレート10の6自由度の位置姿勢を一意に特定できるようになっている。また、校正プレート10には、該校正プレート10を基準にして校正プレート座標系Pが設定されている。
校正プレート10の有するパターンとしては、円形パターンには限らず、例えば直線的な格子パターン等を用いてもよい。また、例えばステレオカメラ等、カメラ3により3次元の計測を行うことができる場合は、平板状の校正プレート10に限らず、立体形状を有する物体を校正用の基準部材としてもよい。更には、例えば作業の対象とする実際のワーク6を基準部材として用いることもできる。
次に、各位置姿勢グループに設定した合計L個の位置姿勢について、ロボット制御部44から指令値としてロボット本体2に出力し、図6に示すようにロボット本体2を順次位置決めする。そして、各位置姿勢においてカメラ3により校正プレート10を計測し、その計測値をRAM42に保存することを繰り返す(ステップS5、第1の計測工程、第2の計測工程)。この作業により得られる計測値は、ロボット本体2をi番目の位置姿勢に位置決めした際のカメラ座標系Vを基準とした校正プレート座標系Pの位置姿勢情報であり、その計測値を[i]と表す。
位置姿勢[i]及び計測値[i]に基づいて、基本校正値として、カメラ座標系V及び手先座標系Tの関係と、ロボット座標系R及び校正プレート座標系Pの関係とを算出する(ステップS6、基本校正値算出工程)。カメラ3及びハンド21の相対位置と、ロボット本体2及び校正プレート10の相対位置とは各々固定されているため、上記及びは、ロボット本体2の位置姿勢によらず一定である。このため、カメラ3の計測誤差とロボット本体2の動作誤差とが無い場合、各位置姿勢について数式10が成り立つ。
Figure 0006108860
(i=1,2,…,L)
全L個の位置姿勢についてデータを取得すると、数式10をL本連立することができる。実際に得られるデータには計測誤差及び動作誤差があるため、誤差最小化計算によりL組のデータに対する誤差(残差)が最小となる及びの値を算出し、これを基本校正値として得ることができる。ここで算出した基本校正値を cal及び calと示す。尚、基本校正値 cal及び calの算出方法については、公知のハンドアイキャリブレーション方法(例えば、非特許文献1参照)と同様であるため、詳細な説明は省略する。
ステップS6で求めた基本校正値 cal calは、L個の位置姿勢の全体に対する誤差評価値が最小になるように求めているが、一般的にロボット本体2の動作には少なくとも1自由度の誤差が加わっているため、位置姿勢誤差は0にはならない。そこで、計測位置姿勢グループ7及び作業位置姿勢グループ8に属するM個の位置姿勢について、基本校正値に残存する誤差である残差を算出する(ステップS7)。
図7に示す誤差を考慮した各座標系の配置を参照しつつ、残差の算出手順を説明する。空間(基台5)に対して固定された校正プレート座標系Pを基準にすると、ロボット本体2に指令値[i]を与えた際、基本校正値 calから予測される校正プレート座標系P及び手先座標系Tの関係 predict[i]は数式11で示される。
Figure 0006108860
(i=1,2,…,M)
また、カメラ3により計測される校正プレート座標系P及び手先座標系Tの関係 measure[i]は数式12により示される。
Figure 0006108860
(i=1,2,…,M)
ロボット本体2の動作には少なくとも1自由度の誤差が存在するため、 predict[i]及び measure[i]は厳密には一致しない。予測に対して誤差を持って移動した手先座標系をT’と記述すると、基本校正値の残差は手先誤差T’ err[i]として数式13のように算出される。
Figure 0006108860
(i=1,2,…,M)
手先誤差T’ err[i]はロボット本体2の位置姿勢に対して連続的に変化するので、ロボット本体2の位置姿勢が近ければ、比較的近い手先誤差T’ err[i]になると考えられる。そこで、各位置姿勢グループ7,8における代表的な手先誤差T’ err[i]を求めるようにする。
まず、計測位置姿勢グループ7における代表的な手先誤差T’ MPoseを、基本校正値に対する計測補正値(第1の補正値)として算出する(ステップS8、第1の補正値算出工程)。計測補正値T’ MPoseの算出方法としては、手先誤差T’ err[i]及び計測補正値T’ MPoseの差が大きくなるほど大きくなる残差評価値Fを設定し、その残差評価値Fが最小となるように計測補正値T’ MPoseを定める。残差評価値Fの定義方法は限定されない。具体的には、例えば残差評価値Fとして、数式14の定義を用いることができる。
Figure 0006108860
また、数式14に限らず、例えば数式15の定義を用いてもよい。
Figure 0006108860
数式15の場合、pose(T’ MPose)の各成分がpose(T’ err[i])の各成分の平均値となるように計測補正値T’ MPoseを決定することになるため、残差評価値Fの算出は容易である。
数式14及び数式15のいずれの場合も、数式16のように、残差評価値Fが最小となる時の計測補正値T’ MPoseを、計測位置姿勢グループ7の代表的な計測補正値(誤差値)として用いるようにする。
Figure 0006108860
次に、作業位置姿勢グループ8における代表的な誤差値T’ WPoseを、基本校正値に対する作業補正値(第2の補正値)として算出する(ステップS9、第2の補正値算出工程)。作業補正値T’ WPoseの算出方法としては、手先誤差T’ err[i]及び作業補正値T’ WPoseの差が大きくなるほど大きくなる残差評価値Gを設定し、残差評価値Gが最小となるように作業補正値T’ WPoseを定める。残差評価値Gの定義方法は限定されない。具体的には、例えば残差評価値Gとして、数式17の定義を用いることができる。
Figure 0006108860
この場合、pose(T’ WPose)の各成分がpose(T’ err[i])の各成分の平均値となるように作業補正値T’ WPoseを決定することとなるため、残差評価値Gの算出は容易である。そして、数式18のように、残差評価値Gが最小となる時の作業補正値T’ WPoseを、作業位置姿勢グループ8の代表的な作業補正値(誤差値)として用いるようにする。
Figure 0006108860
制御装置4は、校正パラメータとして基本校正値と、計測補正値と、作業補正値とを上述のように取得した後、実際のワーク6を計測する。図8に示すように、ロボット本体2を計測位置姿勢 MPoseに位置させてワーク6をカメラ3により計測し、ロボット本体2の移動によりワーク座標系Wに手先座標系Tを一致させてハンド21にワーク6を把持させる場合について説明する。
まず、図8(a)に示すように、ロボット制御部44がロボット本体2を計測位置姿勢 MPoseに移動させる。そして、カメラ制御部45がカメラ3にワーク6を計測させ、ワーク位置姿勢計算部46が計測値 measureを得る(ステップS10、ワーク計測工程)。
そして、ロボット制御部40は、基本校正値と、計測補正値と、作業補正値とを利用して、計測値 measureをカメラ座標系Vからロボット座標系Rに座標変換すると共に、指令値を算出する(ステップS11)。ここでは、以下の手順により実行する。
まず、ロボット本体2に誤差が無ければ、ロボット座標系Rにおけるワーク6の位置姿勢は、 MPose・( cal−1 measureとなる。しかしながら、ロボット本体2の実際の位置姿勢には、計測位置姿勢グループ7の計測補正値T’ MPoseが誤差として乗っているので、ロボット座標系Rにおけるワーク6の位置姿勢 measureは、数式19で示すようになる。
Figure 0006108860
次に、ロボット座標系Rにおけるワーク6の位置姿勢 measureに基づいて、ハンド21をワーク6に接近させるようにする。図8(b)に示すように、 measureをそのまま指令値としてロボット本体2を制御した場合、ロボット本体2には作業位置姿勢グループ8の作業補正値T’ WPoseが誤差として乗っている。このため、ロボット本体2は作業補正値T’ WPoseが誤差として乗った位置(図中、実線で示す)に移動する。そこで、ロボット制御部40は、手先座標系Tをワーク座標系Wに高精度に一致させるために、ワーク6の位置姿勢 measureに作業補正値T’ WPoseの逆変換を乗算する。そして、ロボット制御部40は、ロボット本体2に送信するべき指令値 WCorrectを数式20のように求める。
Figure 0006108860
数式20に数式19を代入することで、数式21に示すように各校正パラメータを含んだ最終的な指令値 WCorrectを得ることができる。尚、本実施形態では、座標変換工程と、指令値算出工程と、計測校正値を算出する第1の演算工程と、作業校正値を算出する第2の演算工程とを数式21の演算により実行するようにしている。
Figure 0006108860
尚、数式21では、基本校正値と、計測補正値と、作業補正値とをそのまま利用して指令値を算出している。ここで、基本校正値及び計測補正値から計測校正値(第1の校正値)を算出すると共に、基本校正値及び作業補正値から作業校正値(第2の校正値)を算出するように置き換えることもできる。即ち、数式21は、計測校正値及び作業校正値の2つの校正値を利用して指令値を算出するものと置き換えることができる。
そして、ワーク6に対して作業を行う際には、計測値 measureと各校正パラメータとに基づいて、ロボット制御部44がロボット本体2に新たな指令値を算出し、ロボット本体2を作動させる。図8(c)に示すように、ロボット制御部40は、数式21により演算を行って指令値 WCorrectを算出し、該指令値 WCorrectをロボット本体2に出力しワーク6へのアプローチを実行させる(ステップS12、動作工程)。これにより、各位置姿勢グループにおける誤差を打ち消して、ハンド21にワーク6へのアプローチを高精度に行わせ、手先座標系Tとワーク座標系Wとを高精度に一致させ、ハンド21によるワーク6の把持を高精度に実現することができる。
上述したように本実施形態のロボットシステム1によれば、3つの位置姿勢グループの全位置姿勢から基本校正値を算出し、そのうち計測位置姿勢グループ7及び作業位置姿勢グループ8からそれぞれ補正値を算出する。そして、基本校正値、計測補正値、作業補正値を利用して、座標校正を行って指令値を算出しているので、計測位置姿勢グループ7の位置姿勢のみを利用して座標校正を行う場合に比べて、座標校正の精度を向上することができる。これにより、ロボット本体2の動作における位置姿勢の制御の精度を向上できる。
また、計測校正値及び作業校正値の2つの校正値を利用して指令値を算出するよう置き換えた場合でも、複数の校正値を用いて校正できるので、例えば計測位置姿勢を中心に算出される1つの校正値を用いる場合に比べて、座標校正の精度を向上することができる。
また、本実施形態のロボットシステム1によれば、図5に示す表のように予めオフセット値を定めて制御装置4に設定しておき、その全位置姿勢についてカメラ3により校正プレート10を撮影している。このため、校正プレート10の撮影から校正値の算出までの作業を自動化することができるので、ロボット本体2を計測位置姿勢から作業位置姿勢まで作業者が教示させる場合に比べて、作業時間を短縮でき、得られる校正値の精度のばらつきを抑制できる。
尚、上述した数式21では、基本校正値と、計測補正値と、作業補正値とをそのまま利用して指令値を算出している。但し、これに限らず、基本校正値及び計測補正値から計測校正値(第1の校正値)を算出すると共に、基本校正値及び作業補正値から作業校正値(第2の校正値)を算出し、これら計測校正値及び作業校正値の2つの校正値を利用して指令値を算出することもできる。
この場合、基本校正値を算出するステップS6と、残差計算を行うステップS7と、計測補正値を算出するステップS8と、計測校正値を算出するステップS11とが、第1の校正値算出工程となる。また、基本校正値を算出するステップS6と、残差計算を行うステップS7と、作業補正値を算出するステップS9と、作業校正値を算出するステップS11とが、第2の校正値算出工程となる。2つの位置姿勢グループ7,8から算出される複数の校正値を用いて校正することができるので、例えば計測位置姿勢を中心に算出される1つの校正値を用いる場合に比べて、座標校正の精度を向上することができる。
[第2実施形態]
次に、本発明の第2実施形態に係るロボットシステム1について説明する。このロボットシステム1のハード構成については第1実施形態と同様であるので、第1実施形態と同一符号を付して説明を省略する。
本実施形態では、図9に示すように、第1実施形態で使用したワーク6に対して組み付けられる組付け用ワーク16を使用する。組付け用ワーク16には、該組付け用ワーク16を基準にして把持物座標系Sが設定されている。
上述した第2実施形態のロボットシステム1で、組付け用ワーク16をワーク6に嵌合するようロボット本体2を移動させるため、把持物座標系Sをワーク座標系Wに一致させる手順を、図10に示すフローチャートに沿って説明する。尚、基本校正値と、計測補正値と、作業補正値とは、第1実施形態と同様の手順により取得しているものとする。
まず、ハンド21に組付け用ワーク16を把持させ、カメラ制御部45がカメラ3により組付け用ワーク16を計測する(ステップS21、組付け用ワーク計測工程)。ハンド21による組付け用ワーク16の把持状態が一定であれば、手先座標系Tと把持物座標系Sは一体に移動するため、カメラ3による組付け用ワーク16の計測はロボット本体2の任意の位置姿勢で行うことができる。
この計測により、ワーク位置姿勢計算部46がカメラ座標系Vにおける組付け用ワーク16の位置姿勢 measureを求め、基本校正値 calを用いて手先座標系Tと把持物座標系Sとの相対姿勢 measureを数式22により求める。
Figure 0006108860
次に、ロボット本体2を計測位置姿勢まで移動してカメラ3によりワーク6を計測し(ステップS22、ワーク計測工程)、ロボット座標系Rにおけるワーク6の位置姿勢 measureを求める。ここでの計測は第1実施形態のステップS10と同様であり、また位置姿勢 measureは、数式19と同様に計測補正値T’ MPoseを考慮して、数式23により算出される。
Figure 0006108860
そして、ロボット制御部40は、基本校正値と、計測補正値と、作業補正値とを利用して、計測値 measure及び計測値 measureをカメラ座標系Vからロボット座標系Rに座標変換すると共に、指令値を算出する(ステップS23)。ここでは、以下の手順により実行する。
まず、手先座標系Tと把持物座標系Sとの関係を考慮して、把持物座標系Sをワーク座標系Wに重ねるために、手先座標系Tを移動させるべき目標位置姿勢 targetを数式24により求める。
Figure 0006108860
数式24に数式22及び数式23を代入することで、数式25に示すように目標位置姿勢 targetを得ることができる。
Figure 0006108860
ただし、実際に手先座標系Tを持っていくべき目標位置姿勢 targetを指令値にすると、作業補正値T’ WPoseが誤差として乗る。このため、ロボット本体2の手先座標系Tを targetに移動させるために、ロボット本体2に送信すべき指令値 WCorrect2は、誤差である作業補正値T’ WPoseを打ち消すよう数式26で示されるようになる。
Figure 0006108860
数式26に数式25を代入することで、数式27に示すように校正値を含んだ最終的な指令値 targetを得ることができる。尚、本実施形態では、組付け座標変換工程と、組付け指令値算出工程と、第1の演算工程と、第2の演算工程とを数式27の演算により実行するようにしている。
Figure 0006108860
尚、数式27では、基本校正値と、計測補正値と、作業補正値とをそのまま利用して指令値を算出している。ここで、第1実施形態と同様に、基本校正値及び計測補正値から計測校正値を算出すると共に、基本校正値及び作業補正値から作業校正値を算出するように置き換えることもできる。即ち、数式27は、計測校正値及び作業校正値の2つの校正値を利用して指令値を算出するものと置き換えることができる。
そして、組付け用ワーク16をワーク6に組み付ける際には、計測値 measure及び計測値 measureと各校正パラメータとに基づいて、ロボット制御部44がロボット本体2に新たな指令値を算出し、ロボット本体2を作動させる。ロボット制御部40は、数式27により演算を行って指令値 WCorrect2を算出し、該指令値 WCorrect2をロボット本体2に出力し組付け用ワーク16をワーク6に移動させる(ステップS24、動作工程)。これにより、各位置姿勢グループにおける誤差を打ち消して、組付け用ワーク16にワーク6へのアプローチを高精度に行わせ、把持物座標系Sとワーク座標系Wとを高精度に一致させ、組付け用ワーク16のワーク6への組付作業を高精度に実現することができる。
上述したように本実施形態のロボットシステム1によれば、組付け用ワーク16及びワーク6の両方に対して計測を行っている。そのため、組付け用ワーク16及びワーク6の両方の位置姿勢が高頻度にばらつく場合であっても、人手による調整を行わずに高精度な組付けを行うことができる。
ここで、本実施形態のロボットシステム1では、ハンド21に把持させた組付け用ワーク16をワーク6にアプローチさせる場合について説明した。しかしながら、これに限らず、エンドエフェクタとしてアーム20の先端に取り付けられたドリル等の工具をワーク6にアプローチさせるようにしてもよい。
また、第1実施形態及び第2実施形態のロボットシステム1では、視覚センサとして単眼のカメラ3を使用した場合について説明した。しかしながら、これには限らず、例えば、ステレオカメラを利用したり、あるいはレーザスキャナを利用してもよい。レーザスキャナを使用した場合は、例えば、レーザスキャナによりワーク6を計測し、計測結果をカメラ制御部45にて3次元の計測点群データとして取得する。そして、ワーク位置姿勢計算部46において、3次元の計測点群データと3次元CADモデルとのマッチングを行い、ワーク6の位置姿勢を算出するような構成にする。
尚、以上述べた第1実施形態及び第2実施形態の各処理動作は具体的には制御装置4により実行されるものである。従って上述した機能を実現するソフトウェアのプログラムを記録した記録媒体を制御装置4に供給し、制御装置4のCPU40が記録媒体に格納されたプログラムを読み出し実行することによって達成されるようにしてもよい。この場合、記録媒体から読み出されたプログラム自体が上述した各実施の形態の機能を実現することになり、プログラム自体及びそのプログラムを記録した記録媒体は本発明を構成することになる。
また、各実施の形態では、コンピュータ読み取り可能な記録媒体がROM41であり、ROM41にプログラムが格納される場合について説明したが、これに限定するものではない。プログラムは、コンピュータ読み取り可能な記録媒体であれば、いかなる記録媒体に記録されていてもよい。例えば、プログラムを供給するための記録媒体としては、HDD、外部記憶装置、記録ディスク等を用いてもよい。
1…ロボットシステム、2…ロボット本体、3…視覚センサ(カメラ)、4…制御装置、5…基台、6…ワーク、7…第1の位置姿勢グループ(計測位置姿勢グループ)、7a…第1の基準位置姿勢(基準計測位置姿勢)、8…第2の位置姿勢グループ(作業位置姿勢グループ)、8a…第2の基準位置姿勢(基準作業位置姿勢)、10…基準部材(校正プレート)、16…組付け用ワーク、20…多関節アーム(アーム)、21…エンドエフェクタ(ハンド)、41…ROM(記憶媒体)、R…ロボット本体の座標系(ロボット座標系)、V…視覚センサの座標系(カメラ座標系)

Claims (10)

  1. 多関節アームと、前記多関節アームに支持されたエンドエフェクタと、を有するロボット本体と、
    前記ロボット本体に設けられた視覚センサと、
    前記ロボット本体の位置姿勢を制御し、前記視覚センサによる計測値を利用してワークの位置姿勢を算出する制御装置と、を備え、
    前記制御装置は、
    前記ロボット本体の第1の基準位置姿勢と、前記第1の基準位置姿勢を囲む第1のオフセット範囲内にある前記ロボット本体の位置姿勢と、を含む第1の位置姿勢グループの各位置姿勢で、前記視覚センサにより基準部材を計測させ、
    前記第1の位置姿勢グループの各位置姿勢における前記視覚センサによる前記基準部材の計測値を利用して第1の校正値を算出し、
    前記第1の基準位置姿勢とは異なる前記ロボット本体の第2の基準位置姿勢と、前記第2の基準位置姿勢を囲むと共に、前記第1のオフセット範囲とは離隔する又は一部が前記第1のオフセット範囲に重なり別の一部が前記第1のオフセット範囲に重ならない第2のオフセット範囲内にある前記ロボット本体の位置姿勢と、を含む第2の位置姿勢グループの各位置姿勢で、前記視覚センサにより前記基準部材を計測させ、
    前記第2の位置姿勢グループの各位置姿勢における前記視覚センサによる前記基準部材の計測値を利用して第2の校正値を算出し、
    前記視覚センサにより前記ワークを計測させ、前記第1の校正値及び前記第2の校正値を利用して、前記ロボット本体を動作させ、
    前記第1の基準位置姿勢は、前記第2の基準位置姿勢よりも前記視覚センサが前記ワークに正対する位置姿勢である、
    ことを特徴とするロボットシステム。
  2. 多関節アームと、前記多関節アームに支持されたエンドエフェクタと、を有するロボット本体と、
    前記ロボット本体に設けられた視覚センサと、
    前記ロボット本体の位置姿勢を制御し、前記視覚センサによる計測値を利用してワークの位置姿勢を算出する制御装置と、を備え、
    前記制御装置は、
    前記ロボット本体の第1の基準位置姿勢と、前記第1の基準位置姿勢を囲む第1のオフセット範囲内にある前記ロボット本体の位置姿勢と、を含む第1の位置姿勢グループの各位置姿勢で、前記視覚センサにより基準部材を計測させ、
    前記第1の位置姿勢グループの各位置姿勢における前記視覚センサによる前記基準部材の計測値を利用して第1の校正値を算出し、
    前記第1の基準位置姿勢とは異なる前記ロボット本体の第2の基準位置姿勢と、前記第2の基準位置姿勢を囲むと共に、前記第1のオフセット範囲とは離隔する又は一部が前記第1のオフセット範囲に重なり別の一部が前記第1のオフセット範囲に重ならない第2のオフセット範囲内にある前記ロボット本体の位置姿勢と、を含む第2の位置姿勢グループの各位置姿勢で、前記視覚センサにより前記基準部材を計測させ、
    前記第2の位置姿勢グループの各位置姿勢における前記視覚センサによる前記基準部材の計測値を利用して第2の校正値を算出し、
    前記視覚センサにより前記ワークを計測させ、前記第1の校正値及び前記第2の校正値を利用して、前記ロボット本体を動作させ、
    前記第2の基準位置姿勢は、前記第1の基準位置姿勢よりも前記エンドエフェクタが前記ワークに正対する位置姿勢である、
    ことを特徴とするロボットシステム。
  3. 前記制御装置は、
    前記第1の位置姿勢グループ及び前記第2の位置姿勢グループの全位置姿勢における前記視覚センサによる前記基準部材の計測値を利用して基本校正値を算出し、
    前記第1の位置姿勢グループの各位置姿勢における前記視覚センサによる前記基準部材の計測値を利用して前記基本校正値に対する第1の補正値を算出し、
    前記第1の補正値及び前記基本校正値から前記第1の校正値を算出し、
    前記第2の位置姿勢グループの全位置姿勢における前記視覚センサによる前記基準部材の計測値を利用して前記基本校正値に対する第2の補正値を算出し、
    前記第2の補正値及び前記基本校正値から前記第2の校正値を算出する、
    ことを特徴とする請求項1又は2に記載のロボットシステム。
  4. 前記ワークに組み付け可能な組付け用ワークが前記エンドエフェクタに把持されると共に、前記多関節アームを支持する基台に前記ワークが支持され、
    前記制御装置は、
    前記組付け用ワークを前記視覚センサに計測させ、
    前記組付け用ワークの計測値及び前記ワークの計測値を、前記第1の校正値及び前記第2の校正値を利用して、前記視覚センサの座標系から前記ロボット本体の座標系に座標変換し、
    座標変換した前記組付け用ワークの計測値及び前記ワークの計測値を利用して、前記組付け用ワークを前記ワークに対して組み付けるように前記ロボット本体を移動させる指令値を算出する、
    ことを特徴とする請求項1乃至3のいずれか1項に記載のロボットシステム。
  5. 多関節アームと、前記多関節アームに支持されたエンドエフェクタと、を有するロボット本体と、
    前記ロボット本体に設けられた視覚センサと、
    前記ロボット本体の位置姿勢を制御し、前記視覚センサによる計測値を利用してワークの位置姿勢を算出する制御装置と、を備えたロボットシステムの制御方法において、
    前記制御装置が、前記ロボット本体の第1の基準位置姿勢と、前記第1の基準位置姿勢を囲む第1のオフセット範囲内にある前記ロボット本体の位置姿勢と、を含む第1の位置姿勢グループの各位置姿勢で、前記視覚センサにより基準部材を計測させる第1の計測工程と、
    前記制御装置が、前記第1の位置姿勢グループの各位置姿勢における前記視覚センサによる前記基準部材の計測値を利用して第1の校正値を算出する第1の校正値算出工程と、
    前記制御装置が、前記第1の基準位置姿勢とは異なる前記ロボット本体の第2の基準位置姿勢と、前記第2の基準位置姿勢を囲むと共に、前記第1のオフセット範囲とは離隔する又は一部が前記第1のオフセット範囲に重なり別の一部が前記第1のオフセット範囲に重ならない第2のオフセット範囲内にある前記ロボット本体の位置姿勢と、を含む第2の位置姿勢グループの各位置姿勢で、前記視覚センサにより前記基準部材を計測させる第2の計測工程と、
    前記制御装置が、前記第2の位置姿勢グループの各位置姿勢における前記視覚センサによる前記基準部材の計測値を利用して第2の校正値を算出する第2の校正値算出工程と、
    前記制御装置が、前記視覚センサにより前記ワークを計測させるワーク計測工程と、
    前記制御装置が、前記第1の校正値及び前記第2の校正値を利用して、前記ロボット本体を動作させる動作工程と、を備え、
    前記第1の基準位置姿勢は、前記第2の基準位置姿勢よりも前記視覚センサが前記ワークに正対する位置姿勢である、
    ことを特徴とするロボットシステムの制御方法。
  6. 多関節アームと、前記多関節アームに支持されたエンドエフェクタと、を有するロボット本体と、
    前記ロボット本体に設けられた視覚センサと、
    前記ロボット本体の位置姿勢を制御し、前記視覚センサによる計測値を利用してワークの位置姿勢を算出する制御装置と、を備えたロボットシステムの制御方法において、
    前記制御装置が、前記ロボット本体の第1の基準位置姿勢と、前記第1の基準位置姿勢を囲む第1のオフセット範囲内にある前記ロボット本体の位置姿勢と、を含む第1の位置姿勢グループの各位置姿勢で、前記視覚センサにより基準部材を計測させる第1の計測工程と、
    前記制御装置が、前記第1の位置姿勢グループの各位置姿勢における前記視覚センサによる前記基準部材の計測値を利用して第1の校正値を算出する第1の校正値算出工程と、
    前記制御装置が、前記第1の基準位置姿勢とは異なる前記ロボット本体の第2の基準位置姿勢と、前記第2の基準位置姿勢を囲むと共に、前記第1のオフセット範囲とは離隔する又は一部が前記第1のオフセット範囲に重なり別の一部が前記第1のオフセット範囲に重ならない第2のオフセット範囲内にある前記ロボット本体の位置姿勢と、を含む第2の位置姿勢グループの各位置姿勢で、前記視覚センサにより前記基準部材を計測させる第2の計測工程と、
    前記制御装置が、前記第2の位置姿勢グループの各位置姿勢における前記視覚センサによる前記基準部材の計測値を利用して第2の校正値を算出する第2の校正値算出工程と、
    前記制御装置が、前記視覚センサにより前記ワークを計測させるワーク計測工程と、
    前記制御装置が、前記第1の校正値及び前記第2の校正値を利用して、前記ロボット本体を動作させる動作工程と、を備え、
    前記第2の基準位置姿勢は、前記第1の基準位置姿勢よりも前記エンドエフェクタが前記ワークに正対する位置姿勢である、
    ことを特徴とするロボットシステムの制御方法。
  7. 前記制御装置が、前記第1の位置姿勢グループ及び前記第2の位置姿勢グループの全位置姿勢における前記視覚センサによる前記基準部材の計測値を利用して基本校正値を算出する基本校正値算出工程を備え、
    前記第1の校正値算出工程は、
    前記制御装置が、前記第1の位置姿勢グループの各位置姿勢における前記視覚センサによる前記基準部材の計測値を利用して前記基本校正値に対する第1の補正値を算出する第1の補正値算出工程と、
    前記制御装置が、前記第1の補正値及び前記基本校正値から前記第1の校正値を算出する第1の演算工程と、を備え、
    前記第2の校正値算出工程は、
    前記制御装置が、前記第2の位置姿勢グループの全位置姿勢における前記視覚センサによる前記基準部材の計測値を利用して前記基本校正値に対する第2の補正値を算出する第2の補正値算出工程と、
    前記制御装置が、前記第2の補正値及び前記基本校正値から前記第2の校正値を算出する第2の演算工程と、を備える、
    ことを特徴とする請求項5又は6に記載のロボットシステムの制御方法。
  8. 前記ワークに組み付け可能な組付け用ワークが前記エンドエフェクタに把持されると共に、前記多関節アームを支持する基台に前記ワークが支持され、
    前記制御装置が、前記組付け用ワークを前記視覚センサに計測させる組付け用ワーク計測工程と、
    前記制御装置が、前記組付け用ワークの計測値及び前記ワークの計測値を、前記第1の校正値及び前記第2の校正値を利用して、前記視覚センサの座標系から前記ロボット本体の座標系に座標変換する組付け座標変換工程と、
    前記制御装置が、座標変換した前記組付け用ワークの計測値及び前記ワークの計測値を利用して、前記組付け用ワークを前記ワークに対して組み付けるように前記ロボット本体を移動させる指令値を算出する組付け指令値算出工程と、を備える、
    ことを特徴とする請求項5乃至7のいずれか1項に記載のロボットシステムの制御方法。
  9. 請求項5乃至8のいずれか1項に記載のロボットシステムの制御方法の各工程をコンピュータに実行させるためのプログラム。
  10. 請求項9に記載のロボットシステムの制御方法の各工程をコンピュータに実行させるためのプログラムが記録されたコンピュータが読み取り可能な記録媒体。
JP2013026158A 2013-02-14 2013-02-14 ロボットシステム及びロボットシステムの制御方法 Active JP6108860B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2013026158A JP6108860B2 (ja) 2013-02-14 2013-02-14 ロボットシステム及びロボットシステムの制御方法
EP14153271.3A EP2767370A3 (en) 2013-02-14 2014-01-30 Robot system and method for controlling the same
US14/178,167 US9221176B2 (en) 2013-02-14 2014-02-11 Robot system and method for controlling the same
CN201410050567.XA CN103991078B (zh) 2013-02-14 2014-02-14 机器人系统和用于控制该机器人系统的方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013026158A JP6108860B2 (ja) 2013-02-14 2013-02-14 ロボットシステム及びロボットシステムの制御方法

Publications (2)

Publication Number Publication Date
JP2014151427A JP2014151427A (ja) 2014-08-25
JP6108860B2 true JP6108860B2 (ja) 2017-04-05

Family

ID=50033357

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013026158A Active JP6108860B2 (ja) 2013-02-14 2013-02-14 ロボットシステム及びロボットシステムの制御方法

Country Status (4)

Country Link
US (1) US9221176B2 (ja)
EP (1) EP2767370A3 (ja)
JP (1) JP6108860B2 (ja)
CN (1) CN103991078B (ja)

Families Citing this family (61)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9393694B2 (en) * 2010-05-14 2016-07-19 Cognex Corporation System and method for robust calibration between a machine vision system and a robot
KR101634463B1 (ko) * 2011-06-29 2016-06-28 미쓰비시덴키 가부시키가이샤 부품 공급 장치
JP6309220B2 (ja) * 2013-08-12 2018-04-11 株式会社ダイヘン 搬送システム
JP6335460B2 (ja) * 2013-09-26 2018-05-30 キヤノン株式会社 ロボットシステムの制御装置及び指令値生成方法、並びにロボットシステムの制御方法
CN104827480A (zh) * 2014-02-11 2015-08-12 泰科电子(上海)有限公司 机器人系统的自动标定方法
CN105091807B (zh) * 2014-04-30 2017-12-01 鸿富锦精密工业(深圳)有限公司 机器人工具坐标系的校正方法
JP6416560B2 (ja) * 2014-09-11 2018-10-31 株式会社デンソー 位置決め制御装置
DE102014115748A1 (de) * 2014-10-29 2016-05-04 Tutech Innovation Gmbh System und Verfahren zur Bearbeitung von Bauteilen
US10525597B2 (en) * 2014-11-21 2020-01-07 Seiko Epson Corporation Robot and robot system
JP6507792B2 (ja) * 2015-03-30 2019-05-08 セイコーエプソン株式会社 ロボットおよびロボットシステム
JP6565175B2 (ja) * 2014-11-21 2019-08-28 セイコーエプソン株式会社 ロボットおよびロボットシステム
JP6126067B2 (ja) * 2014-11-28 2017-05-10 ファナック株式会社 工作機械及びロボットを備えた協働システム
JP6486679B2 (ja) * 2014-12-25 2019-03-20 株式会社キーエンス 画像処理装置、画像処理システム、画像処理方法及びコンピュータプログラム
EP3277468A4 (en) * 2015-04-02 2019-10-16 ABB Schweiz AG METHOD FOR COMMISSIONING AN INDUSTRIAL ROBOT, INDUSTRIAL ROBOT SYSTEM AND CONTROL SYSTEM USING THE SAME
JP6700669B2 (ja) * 2015-04-07 2020-05-27 キヤノン株式会社 制御方法、ロボット装置、プログラム、記録媒体、及び物品の製造方法
WO2017015105A1 (en) * 2015-07-17 2017-01-26 Apex Brands, Inc. Vision system with automatic calibration
US10335951B2 (en) * 2015-07-29 2019-07-02 Canon Kabushiki Kaisha Information processing apparatus, information processing method, robot control apparatus, and robot system
JP6812095B2 (ja) * 2015-10-22 2021-01-13 キヤノン株式会社 制御方法、プログラム、記録媒体、ロボット装置、及び物品の製造方法
CN106607874A (zh) * 2015-10-26 2017-05-03 广明光电股份有限公司 机器手臂撷取影像的装置及方法
FR3043004B1 (fr) * 2015-10-29 2017-12-22 Airbus Group Sas Procede d'orientation d'un effecteur portant un outil d'assemblage par rapport a une surface
CN107443389B (zh) * 2016-05-31 2019-12-31 发那科株式会社 机器人控制装置及机器人控制方法
US10427305B2 (en) * 2016-07-21 2019-10-01 Autodesk, Inc. Robotic camera control via motion capture
US10076842B2 (en) * 2016-09-28 2018-09-18 Cognex Corporation Simultaneous kinematic and hand-eye calibration
CN109996653B (zh) * 2016-11-17 2022-09-02 株式会社富士 作业位置校正方法及作业机器人
US11173608B2 (en) * 2016-11-17 2021-11-16 Fuji Corporation Work robot and work position correction method
JP6922204B2 (ja) * 2016-12-09 2021-08-18 セイコーエプソン株式会社 制御装置、ロボットおよびロボットシステム
CN110072675B (zh) * 2016-12-13 2022-04-19 株式会社富士 作业机器人的目的位置校正方法
JP6275345B1 (ja) * 2017-02-03 2018-02-07 三菱電機株式会社 変換係数算出装置、変換係数算出方法及び変換係数算出プログラム
EP3603904B1 (en) * 2017-03-23 2024-01-24 Fuji Corporation Robot system
DE102017107593B4 (de) * 2017-04-07 2023-04-27 Deutsches Zentrum für Luft- und Raumfahrt e.V. Verfahren zum Bestimmen unbekannter Transformationen
JP6880982B2 (ja) * 2017-04-21 2021-06-02 セイコーエプソン株式会社 制御装置およびロボットシステム
WO2018199947A1 (en) * 2017-04-26 2018-11-01 Hewlett-Packard Development Company, L.P. Robotic structure calibrations
CN111032294B (zh) * 2017-08-08 2022-11-04 松下知识产权经营株式会社 控制器的信息发送方法以及编码器的异常检测方法
JP6886620B2 (ja) * 2017-08-09 2021-06-16 オムロン株式会社 キャリブレーション方法、キャリブレーションシステム及びプログラム
JP6568172B2 (ja) 2017-09-22 2019-08-28 ファナック株式会社 キャリブレーションを行うロボット制御装置、計測システム及びキャリブレーション方法
US11088004B2 (en) * 2018-01-30 2021-08-10 Brooks Automation, Inc. Automatic wafer centering method and apparatus
JP6888580B2 (ja) * 2018-04-05 2021-06-16 オムロン株式会社 情報処理装置、情報処理方法、及びプログラム
US10589423B2 (en) * 2018-06-18 2020-03-17 Shambhu Nath Roy Robot vision super visor for hybrid homing, positioning and workspace UFO detection enabling industrial robot use for consumer applications
CN108942929B (zh) * 2018-07-10 2020-11-27 广东电网有限责任公司广州供电局 基于双目立体视觉的机械臂定位抓取的方法及装置
JP7131162B2 (ja) * 2018-07-20 2022-09-06 オムロン株式会社 制御システム、制御システムの制御方法、および制御システムのプログラム
CN111971529A (zh) 2018-09-03 2020-11-20 Abb瑞士股份有限公司 用于管理机器人系统的方法和装置
EP3620270A1 (en) * 2018-09-04 2020-03-11 Bayerische Motoren Werke Aktiengesellschaft Method and control unit for controlling an assembly robot
JP6611888B2 (ja) * 2018-09-28 2019-11-27 キヤノン株式会社 ロボット装置、ロボット装置の制御方法、プログラムおよび記録媒体
KR102561103B1 (ko) * 2018-11-16 2023-07-31 삼성전자주식회사 로봇 보정 시스템 및 그것의 보정 방법
JP7153085B2 (ja) * 2018-12-11 2022-10-13 株式会社Fuji ロボットキャリブレーションシステム及びロボットキャリブレーション方法
CN113905859B (zh) * 2019-07-12 2024-03-08 株式会社富士 机器人控制系统及机器人控制方法
WO2021012122A1 (zh) * 2019-07-19 2021-01-28 西门子(中国)有限公司 机器人手眼标定方法、装置、计算设备、介质以及产品
CN110421562B (zh) * 2019-07-24 2024-01-30 中国地质大学(武汉) 基于四目立体视觉的机械臂标定系统和标定方法
CN111267092B (zh) * 2019-08-27 2022-09-02 上海飞机制造有限公司 标定机器人工具坐标系的方法和系统
US11478936B2 (en) * 2019-10-09 2022-10-25 Canon Kabushiki Kaisha Image processing apparatus that processes image picked up by image pickup apparatus attached to robot, control method therefor, and storage medium storing control program therefor
CN110480642A (zh) * 2019-10-16 2019-11-22 遨博(江苏)机器人有限公司 工业机器人及其利用视觉标定用户坐标系的方法
JP2021079507A (ja) * 2019-11-21 2021-05-27 パナソニックi−PROセンシングソリューションズ株式会社 マーカおよびロボットシステム
CN111037551B (zh) * 2019-12-05 2022-10-11 上海新时达机器人有限公司 机器人测试空间的获取方法、装置及机器人系统
CN111591474B (zh) * 2020-02-28 2021-12-07 上海航天控制技术研究所 一种航天器在轨操作系统对准式手眼标定方法
CN111741199B (zh) * 2020-06-30 2022-02-01 北京飞影科技有限公司 一种摄像画面保持方法及装置
CN112428264B (zh) * 2020-10-26 2021-12-07 中国计量大学 一种机器人臂的矫正方法及系统
CN113634635B (zh) * 2021-07-26 2023-05-05 上海发那科机器人有限公司 一种机器人弯管坐标系标定方法、计算机设备及存储介质
CN115890638A (zh) * 2021-09-30 2023-04-04 台达电子工业股份有限公司 自动化机械手臂系统
WO2023102647A1 (en) * 2021-12-06 2023-06-15 University Of Manitoba Method for automated 3d part localization and adjustment of robot end-effectors
CN114310881A (zh) * 2021-12-23 2022-04-12 中国科学院自动化研究所 一种机械臂快换装置的标定方法、系统及电子设备
EP4272906A1 (en) * 2022-05-06 2023-11-08 Bayerische Motoren Werke Aktiengesellschaft Method for operating a manufacturing robot and manufacturing robot

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4831549A (en) 1987-07-28 1989-05-16 Brigham Young University Device and method for correction of robot inaccuracy
US5319443A (en) * 1991-03-07 1994-06-07 Fanuc Ltd Detected position correcting method
US5297238A (en) * 1991-08-30 1994-03-22 Cimetrix Incorporated Robot end-effector terminal control frame (TCF) calibration method and device
JPH05138559A (ja) * 1991-11-20 1993-06-01 Mitsubishi Electric Corp 視覚センサ付きロボツト装置
JPH06187021A (ja) * 1992-12-15 1994-07-08 Citizen Watch Co Ltd 視覚付きロボットの座標補正方法
JPH06206186A (ja) * 1993-01-12 1994-07-26 Citizen Watch Co Ltd 視覚センサ付き水平多関節型ロボットのハンドリング精度校正法
JPH1063317A (ja) * 1996-08-13 1998-03-06 Fanuc Ltd ロボット−視覚センサシステムにおける座標系結合方法
GB9803364D0 (en) * 1998-02-18 1998-04-15 Armstrong Healthcare Ltd Improvements in or relating to a method of an apparatus for registering a robot
US6070109A (en) * 1998-03-10 2000-05-30 Fanuc Robotics North America, Inc. Robot calibration system
JP3421608B2 (ja) * 1999-04-08 2003-06-30 ファナック株式会社 教示モデル生成装置
JP4021413B2 (ja) * 2004-01-16 2007-12-12 ファナック株式会社 計測装置
JP4191080B2 (ja) * 2004-04-07 2008-12-03 ファナック株式会社 計測装置
JP3946711B2 (ja) * 2004-06-02 2007-07-18 ファナック株式会社 ロボットシステム
JP3946716B2 (ja) 2004-07-28 2007-07-18 ファナック株式会社 ロボットシステムにおける3次元視覚センサの再校正方法及び装置
JP4267005B2 (ja) * 2006-07-03 2009-05-27 ファナック株式会社 計測装置及びキャリブレーション方法
JP4298757B2 (ja) * 2007-02-05 2009-07-22 ファナック株式会社 ロボット機構のキャリブレーション装置及び方法
JP4967858B2 (ja) * 2007-06-29 2012-07-04 日産自動車株式会社 カメラとロボット間のキャリブレーション方法及びその装置
US8180487B1 (en) * 2008-09-30 2012-05-15 Western Digital Technologies, Inc. Calibrated vision based robotic system
JP2010139329A (ja) * 2008-12-10 2010-06-24 Fanuc Ltd キャリブレーション用の校正治具および校正治具を備えた画像計測システム
US8135208B1 (en) * 2009-01-15 2012-03-13 Western Digital Technologies, Inc. Calibrated vision based robotic system utilizing upward and downward looking cameras
DE102009005495A1 (de) * 2009-01-21 2010-07-22 Kuka Roboter Gmbh Manipulatorsystem und Verfahren zur Kompensation einer kinematischen Abweichung eines Manipulatorsystems
JP5343609B2 (ja) * 2009-02-19 2013-11-13 富士電機株式会社 動作軌道生成装置、動作軌道生成方法、ロボット制御装置及びロボット制御方法
JP2011067889A (ja) 2009-09-25 2011-04-07 Ihi Corp キャリブレーション装置及びキャリブレーション方法
US9393694B2 (en) 2010-05-14 2016-07-19 Cognex Corporation System and method for robust calibration between a machine vision system and a robot
TWI408037B (zh) * 2010-12-03 2013-09-11 Ind Tech Res Inst 機械手臂的定位方法及校正方法

Also Published As

Publication number Publication date
US20140229005A1 (en) 2014-08-14
CN103991078B (zh) 2017-03-01
EP2767370A2 (en) 2014-08-20
US9221176B2 (en) 2015-12-29
JP2014151427A (ja) 2014-08-25
CN103991078A (zh) 2014-08-20
EP2767370A3 (en) 2014-12-17

Similar Documents

Publication Publication Date Title
JP6108860B2 (ja) ロボットシステム及びロボットシステムの制御方法
JP6335460B2 (ja) ロボットシステムの制御装置及び指令値生成方法、並びにロボットシステムの制御方法
JP6429473B2 (ja) ロボットシステム、ロボットシステムの校正方法、プログラム、およびコンピュータ読み取り可能な記録媒体
JP6468741B2 (ja) ロボットシステム及びロボットシステムの校正方法
JP7207851B2 (ja) 制御方法、ロボットシステム、物品の製造方法、プログラム及び記録媒体
JP6415190B2 (ja) ロボット装置、ロボット制御プログラム、記録媒体、およびロボット装置の制御方法
JP5670416B2 (ja) ロボットシステム表示装置
JP3733364B2 (ja) 教示位置修正方法
JP6572262B2 (ja) 教示位置修正装置および教示位置修正方法
US20140288710A1 (en) Robot system and calibration method
JP6611888B2 (ja) ロボット装置、ロボット装置の制御方法、プログラムおよび記録媒体
WO2018043525A1 (ja) ロボットシステム、ロボットシステム制御装置、およびロボットシステム制御方法
JP5618770B2 (ja) ロボットの校正装置および校正方法
JP6153316B2 (ja) ロボットシステム及びロボットシステムの制御方法
JP2014161950A (ja) ロボットシステム、ロボット制御方法、ロボット較正方法
JP2018001393A (ja) ロボット装置、ロボット制御方法、プログラム及び記録媒体
KR100644174B1 (ko) 로봇 용접의 보정방법
JP6039382B2 (ja) ロボットシステム及びロボットシステムの制御方法
JP5531182B2 (ja) 位置決め装置のキャリブレーション方法、位置決め装置、およびこれらのためのコンピュータプログラム
EP4101604A1 (en) System and method for improving accuracy of 3d eye-to-hand coordination of a robotic system
JP2014180726A (ja) 多関節ロボットのバネ定数補正装置
JP2004351450A (ja) 回転機構付きレーザ加工ヘッドのキャリブレーション装置およびその方法
JP2018015834A (ja) ロボットアームの移動方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160210

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161122

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161124

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170118

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170207

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170307

R151 Written notification of patent or utility model registration

Ref document number: 6108860

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151