JP2018528084A - ロボットシステムの自動較正方法 - Google Patents

ロボットシステムの自動較正方法 Download PDF

Info

Publication number
JP2018528084A
JP2018528084A JP2018509582A JP2018509582A JP2018528084A JP 2018528084 A JP2018528084 A JP 2018528084A JP 2018509582 A JP2018509582 A JP 2018509582A JP 2018509582 A JP2018509582 A JP 2018509582A JP 2018528084 A JP2018528084 A JP 2018528084A
Authority
JP
Japan
Prior art keywords
center
robot
sphere
target point
visual sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018509582A
Other languages
English (en)
Other versions
JP6623286B2 (ja
Inventor
デン,インコン
チャン,ダンダン
フランシスコ−イー ルー,ロベルト
フランシスコ−イー ルー,ロベルト
リウ,ユン
フー,リュハイ
ジョー,レイ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
TE Connectivity Corp
Original Assignee
TE Connectivity Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by TE Connectivity Corp filed Critical TE Connectivity Corp
Publication of JP2018528084A publication Critical patent/JP2018528084A/ja
Application granted granted Critical
Publication of JP6623286B2 publication Critical patent/JP6623286B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1692Calibration of manipulator
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39008Fixed camera detects reference pattern held by end effector
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39026Calibration of manipulator while tool is mounted
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39054From teached different attitudes for same point calculate tool tip position
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39398Convert hand to tool coordinates, derive transform matrix
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40607Fixed camera to observe workspace, object, workpiece, global
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/02Arm motion controller
    • Y10S901/09Closed loop, sensor feedback controls arm movement
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/46Sensing device
    • Y10S901/47Optical

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Manipulator (AREA)

Abstract

以下のステップを含む、ロボットシステムの自動較正方法。・連結ロッドと連結ロッドの一端に連結された球体とを含むボールロッド部材を提供するステップ。・連結ロッドの他端を、ロボットのフランジに取り付けられた端部実行ツールに固定するステップ。・ロボットを制御して、視覚センサの案内により球体の中心を様々な異なるポーズで同一の1つの目標点に動かし、同一の目標点におけるロボットのポーズデータに基づいて、フランジの中心に対する球体の中心の変換行列Tsを計算するステップ。・式(1) Tt=Ts*Tc に従って、フランジの中心に対する、端部実行ツールの中心の変換行列Ttを計算するステップ。ここで、Tcは球体の中心に対する、端部実行ツールの中心の変換行列であり、Tcは既知で一定である。ボールロッド部材の球体の中心を視覚センサにより特定するだけでよく、端部実行ツールの中心を特定する必要はない。球体は規則的な幾何形状を有するため、球体の中心を特定することは容易であり、ロボットシステムの較正精度および効率が向上する。【選択図】図1

Description

関連出願の相互参照
本出願は、2015年8月26日に中国国家知識産権局に出願された中国特許出願第CN201510530295.8号の優先権を主張し、その全開示が参照により本明細書に組み込まれる。
本発明は、ロボットシステムの自動較正方法に関する。
先行技術において、ロボットシステムの較正は、一般に、人工教示方法(artificial teaching method)によって行われている。例えば、オペレータがロボットを手動で制御して、ロボットのフランジに取り付けられた端部実行ツール(end execution tool)(またはエンドエフェクタと呼ばれる)を動かすことにより、複数の異なるポーズ(6軸ロボットの場合、一般に4つ以上の異なるポーズ)で同一の1つの目標点に到達させる。しかしながら、上記の方法では、端部実行ツールが同一の目標点に動いたかどうかをオペレータの目によって判定する必要がある。したがって、人工教示方法では誤差が避けられず、ロボットのフランジの中心に対する端部実行ツールの中心の変換行列(transformation matrix)が不正確になる。さらに、ロボットを手動で制御して異なるポーズで同一の目標点に到達させ、かつロボットが同一の目標点に到達したかどうかを目で判定するには非常に時間がかかるため、作業効率が大幅に低下する。さらに、ロボットシステムの端部実行ツールを頻繁に交換する必要がある場合、端部実行ツールを新しい端部実行ツールに交換する度にロボットシステムを再較正しなければならず、これは非常に面倒で時間がかかる。
先行技術において、較正された視覚センサに基づくロボットシステムの自動較正方法も提供されている。自動較正方法では、ロボットを制御して、ロボットのフランジに取り付けられた端部実行ツールの中心を様々な異なるポーズで同一の1つの目標点に動かす。
自動較正方法により、端部実行ツールが目標点に動いたかどうかを目で判断する方法と比べて時間と労力が大幅に節約される。しかしながら、上記の自動較正方法では、視覚センサを用いて端部実行ツールの中心を特定する必要がある。一般に、端部実行ツールは非常に複雑な幾何学的構造を有しており、端部実行ツールの中心を特定することは困難である。より詳細には、端部実行ツールを頻繁に交換する必要がある場合、端部実行ツールを新しい端部実行ツールに交換する度に端部実行ツールの中心を再特定する必要があり、これは非常に面倒で時間がかかる。
本発明は、上記の欠点のうちの少なくとも1つの局面を克服または軽減するためになされたものである。
本発明の目的によれば、ロボットシステムの較正を高精度かつ高効率で達成するためのロボットシステムの自動較正方法が提供される。
本発明の態様によれば、以下のステップS100、ステップS200、ステップS300、およびステップS400を含むロボットシステムの自動較正方法が提供される。
ステップS100:
連結ロッドと連結ロッドの一端に連結された球体とを含むボールロッド部材(ball−rod member)を提供するステップ。
ステップS200:
連結ロッドの他端を、ロボットのフランジに取り付けられた端部実行ツールに固定するステップ。
ステップS300:
ロボットを制御して、視覚センサの案内により球体の中心を様々な異なるポーズで同一の1つの目標点に動かし、同一の目標点におけるロボットのポーズデータに基づいて、フランジの中心に対する球体の中心の変換行列Tsを計算するステップ。
ステップS400:
式(1) Tt=Ts*Tc に従って、フランジの中心に対する、端部実行ツールの中心の変換行列Ttを計算するステップ。ここで、Tcは球体の中心に対する端部実行ツールの中心の変換行列であり、Tcは既知で一定である。
本発明の例示的実施形態において、ステップS300で、視覚センサにより検知された、視覚センサ座標系における球体の中心の実際の位置と、視覚センサ座標系における目標点の位置との位置誤差に基づいて、位置誤差がゼロになるまでロボットに対する閉ループフィードバック制御を実行する。
本発明の別の例示的実施形態において、視覚センサは、1つまたは複数のカメラを含み、1つまたは複数のカメラにより取り込まれたボールの画像に従って球体の中心を特定するように構成されている。
本発明の別の例示的実施形態において、ステップS300で、ロボットを制御して、球体の中心を少なくとも2つの異なるポーズで同一の1つの目標点に正確に動かす。
本発明の別の例示的実施形態において、ステップS300は、以下のステップS310、ステップS320、ステップS330、ステップS340、およびステップS350を含む。
ステップS310:
ロボットを制御して、視覚センサの案内により球体の中心を第1のポーズで視覚センサの視野内の目標点に動かし、目標点でロボットの第1のポーズデータを取得するステップ。
ステップS320:
ロボットを制御して、視覚センサの案内により球体の中心を第2のポーズで目標点に動かし、目標点でロボットの第2のポーズデータを取得するステップ。
ステップS330:
ロボットを制御して、視覚センサの案内により球体の中心を第3のポーズで目標点に動かし、目標点でロボットの第3のポーズデータを取得するステップ。
ステップS340:
ロボットを制御して、視覚センサの案内により球体の中心を第4のポーズで目標点に動かし、目標点でロボットの第4のポーズデータを取得するステップ。
ステップS350:
取得したロボットの第1のポーズデータ、第2のポーズデータ、第3のポーズデータ、および第4のポーズデータに基づいて、フランジの中心に対する球体の中心の変換行列Tsを計算するステップ。
本発明の別の例示的実施形態において、視覚センサにより検知された、視覚センサ座標系における球体の中心の実際の位置と、視覚センサ座標系における目標点の位置との位置誤差に基づいて、ステップS320〜S340では、位置誤差がゼロになるまで、すなわち、球体の中心が目標点に正確に動くまでロボットに対する閉ループフィードバック制御を実行する。
本発明の別の例示的実施形態において、ロボットは多軸ロボットを含む。
本発明の別の例示的実施形態において、ロボットは4軸ロボットまたは6軸ロボットを含む。
本発明の上記の様々な例示的実施形態において、ボールロッド部材がロボットのフランジに取り付けられているため、ボールロッド部材の球体の中心を視覚センサにより特定するだけでよく、端部実行ツールの中心を特定する必要はない。球体は規則的な幾何形状を有するため、球体の中心を特定することは容易であり、ロボットシステムの較正精度および効率が向上する。
添付図面を参照しながら例示的実施形態を詳細に説明することにより、本発明の上記およびその他の特徴がより明らかになろう。
本発明の例示的実施形態によるロボットシステムの例示的な原理図である。
以下で、添付図面を参照しながら本開示の例示的実施形態について説明する。図中、同一の参照符号は同一の要素を示す。しかしながら、本開示を多くの異なる形態で具体化することができ、本開示を本明細書に記載された実施形態に限定されるものと解釈すべきではない。むしろ、これらの実施形態は、本開示が網羅的かつ完全であり、本開示の概念を当業者に十分に伝えるように提示される。
以下の詳細な説明において、説明の目的で、開示された実施形態の完全な理解をもたらすために多くの具体的詳細について述べる。しかしながら、1つまたは複数の実施形態をこれらの具体的詳細なしで実施してもよいことが明らかであろう。他の例では、図面を簡略化するために周知の構造およびデバイスが概略的に示される。
本発明の一般的な概念によれば、連結ロッドと連結ロッドの一端に連結された球体とを含むボールロッド部材を提供するステップと、連結ロッドの他端をロボットのフランジに取り付けられた端部実行ツールに固定するステップと、ロボットを制御して、視覚センサの案内により球体の中心を様々な異なるポーズで同一の1つの目標点に動かし、同一の目標点における様々な異なるポーズのロボットのポーズデータに基づいて、フランジの中心に対する球体の中心の変換行列Tsを計算するステップと、式(1) Tt=Ts*Tc に従ってフランジの中心に対する端部実行ツールの中心の変換行列Ttを計算するステップと、を含むロボットシステムの自動較正方法が提供される。
ここで、Tcは球体の中心に対する端部実行ツールの中心の変換行列であり、Tcは既知で一定である。
図1は、本発明の例示的実施形態によるロボットシステムの例示的な原理図である。
図1に示すように、ロボットシステムは6軸ロボットシステムであってよい。しかしながら、本発明はこれに限定されず、ロボットシステムは任意の適切な多自由度ロボットシステム、例えば4軸ロボットシステムまたは5軸ロボットシステムであってよい。
図1に示すように、ロボットシステムは主に、カメラ(視覚センサ)10と、フランジ21を含む6軸ロボット20と、ロボット20のフランジ21に取り付けられた実行ツール(またはエンドエフェクタと呼ばれる)30とを含む。
本発明の例示的実施形態において、図1に示すように、ロボットシステムを較正するためにボールロッド部材41、42が端部実行ツール30に固定される。
図示した実施形態において、ボールロッド部材41、42は、連結ロッド41と連結ロッド41の一端に連結された球体42とを含む。連結ロッド41の他端は、ロボット20のフランジ21に取り付けられた端部実行ツール30に固定される。図1に示すように、連結ロッド41の中心軸は球体42の中心を通る。
実施形態において、ボールロッド部材の連結ロッド41および球体42の幾何形状パラメータは既知で一定である。これにより、ボールロッド部材41、42が端部実行ツール30に固定された後、球体42の中心に対する端部実行ツール30の中心Toolの変換行列Tcを予め取得することができる。ボールロッド部材の連結ロッド41および球体42の幾何形状パラメータが既知で一定であるため、変換行列Tcも既知で一定である。
実施形態において、カメラ10は視覚センサとして使用される。カメラ10は、ボールロッド部材41、42の球体42の画像を取り込むように構成されている。その後、カメラ10は、例えば視覚センサ座標系または世界座標系における球体42の中心の実際の位置を特定することができる。
実施形態において、視覚センサは1つまたは複数のカメラ10を含むことができる。図示しないが、ロボットシステムは、予め記憶されたプログラムに基づいてロボットシステムを制御するように構成されたコントローラと、カメラにより取得した画像データを、球体42の中心の実際の位置を特定できるよう処理するように構成されたプロセッサとをさらに含む。
以下で、図1を参照しながらロボットシステムの較正プロセスについて説明する。較正プロセスは、以下のステップS100、ステップS200、ステップS300、およびステップS400を含むことができる。
ステップS100:
連結ロッド41と連結ロッド41の一端に連結された球体42とを含むボールロッド部材41、42を提供するステップ。
ステップS200:
連結ロッド41の他端を、ロボット20のフランジ21に取り付けられた端部実行ツール30に固定するステップ。
ステップS300:
ロボット20を制御して、視覚センサ10の案内により球体42の中心を様々な異なるポーズpose#1、pose#2、pose#3、pose#4で同一の1つの目標点に動かし、同一の目標点におけるロボット20のポーズデータに基づいて、フランジ21の中心Toolに対する球体42の中心の変換行列Tsを計算するステップ。
ステップS400:
式(1) Tt=Ts*Tc に従ってフランジ21の中心Toolに対する端部実行ツール30の中心Toolの変換行列Ttを計算するステップ。ここで、Tcは球体42の中心に対する端部実行ツール30の中心Toolの変換行列であり、変換行列Tcは既知で一定である。
上記ステップS300で、視覚センサ10により検知された、視覚センサ座標系における球体42の中心の実際の位置と、視覚センサ座標系における目標点の位置との位置誤差に基づいて、位置誤差がゼロになるまで、すなわち、球体42の中心が目標点に正確に動くまでロボット20に対する閉ループフィードバック制御を実行する。
上記実施形態において、視覚センサ10を、視覚センサ座標系における球体42の中心の実際の位置を直接特定するように構成してもよい。知られているように、世界座標系における球体42の中心の実際の位置はX値、Y値、およびZ値により示されることが多い。但し、視覚センサ座標系における球体42の中心の実際の位置はU値、V値、およびZ値により示されることが多く、UおよびVは画素点の位置を示し、Zは球体の直径を示す。これにより、視覚センサ座標系において、球体の直径が大きくなるにつれてZ値は増加し、球体の直径が小さくなるにつれてZ値は減少する。
本発明の例示的実施形態において、上記ステップS300は、以下のステップS310と、ステップS320と、ステップS330と、ステップS340と、ステップS350とを主に含む。
ステップS310:
ロボット20を制御して、視覚センサ10の案内により球体42の中心を第1のポーズpose#1で視覚センサ10の視野内の目標点に動かし、目標点でロボット20の第1のポーズデータを取得するステップ。
ステップS320:
ロボット20を制御して、視覚センサ10の案内により球体42の中心を第2のポーズpose#2で目標点に動かし、目標点でロボット20の第2のポーズデータを取得するステップ。
ステップS330:
ロボット20を制御して、視覚センサ10の案内により球体42の中心を第3のポーズpose#3で目標点に動かし、目標点でロボット20の第3のポーズデータを取得するステップ。
ステップS340:
ロボット20を制御して、視覚センサ10の案内により球体42の中心を第4のポーズpose#4で目標点に動かし、目標点でロボット20の第4のポーズデータを取得するステップ。
ステップS350:
取得したロボット20の第1のポーズデータ、第2のポーズデータ、第3のポーズデータ、および第4のポーズデータに基づいて、フランジ21の中心Toolに対する球体42の中心の変換行列Tsを計算するステップ。
本発明の例示的実施形態において、視覚センサ10により検知された、視覚センサ座標系における球体42の中心の実際の位置と、視覚センサ座標系における目標点の位置との位置誤差に基づいて、上記ステップS320〜S340では、位置誤差がゼロになるまで、すなわち、球体42の中心が目標点に正確に動くまでロボット20に対する閉ループフィードバック制御を実行する。
上記実施形態において、ロボット20は、球体42の中心を4つの異なるポーズpose#1、pose#2、pose#3、pose#4で同一の1つの目標点に正確に動かすように構成されるが、本発明はこれに限定されず、ロボット20は、球体42の中心を2つ、3つ、5つ以上の異なるポーズで同一の1つの目標点に正確に動かすことができる。
本発明の上記の様々な例示的実施形態において、ボールロッド部材41、42がロボット20のフランジ21に取り付けられているため、ボールロッド部材41、42の球体42の中心を視覚センサ10により特定するだけでよく、端部実行ツール30の中心を特定する必要はない。球体42は規則的な幾何形状を有するため、球体の中心を特定することは容易である。これにより、ロボットシステムの較正精度および効率が向上する。
上記の実施形態は例示のためのものであり限定的なものではないことを当業者は理解すべきである。例えば、当業者が上記実施形態に多くの修正を行うことができ、異なる実施形態に記載された様々な特徴を、構成または原理の矛盾なく互いに自由に組み合わせることができる。
いくつかの例示的実施形態について図示し説明したが、特許請求の範囲およびその均等物においてその範囲が定義される本開示の原理および精神から逸脱することなく、これらの実施形態に様々な変更または修正を行うことができることを当業者は理解するだろう。
本明細書で使用されるとき、単数形で記載され、用語「a」または「an」で始まる要素は、特に明記されない限り、複数の前記要素またはステップを排除しないものと理解されるべきである。さらに、本発明の「一実施形態」への言及は、記載された特徴も組み込んださらなる実施形態の存在を排除するものと解釈されるものではない。さらに、特に明記されない限り、特定の特性を有する1つまたは複数の要素を「含む(comprising)」または「有する(having)」実施形態は、その特性を有していない、さらなるそのような要素を含んでもよい。

Claims (8)

  1. 連結ロッド(41)と前記連結ロッド(41)の一端に連結された球体(42)とを含むボールロッド部材(41、42)を提供するステップS100と、
    前記連結ロッド(41)の他端を、ロボット(20)のフランジ(21)に取り付けられた端部実行ツール(30)に固定するステップS200と、
    前記ロボット(20)を制御して、視覚センサ(10)の案内により前記球体(42)の中心を様々な異なるポーズ(pose#1、pose#2、pose#3、pose#4)で同一の1つの目標点に動かし、前記同一の目標点における前記ロボット(20)のポーズデータに基づいて、前記フランジ(21)の中心(Tool)に対する前記球体(42)の前記中心の変換行列Tsを計算するステップS300と、
    式(1) Tt=Ts*Tc に従って前記フランジ(21)の前記中心(Tool)に対する前記端部実行ツール(30)の中心(Tool)の変換行列Ttを計算するステップS400と、を含み、
    ここで、Tcは前記球体(42)の前記中心に対する、前記端部実行ツール(30)の前記中心(Tool)の変換行列であり、Tcは既知で一定である、
    ロボットシステムの自動較正方法。
  2. 前記ステップS300で、前記視覚センサ(10)により検知された、視覚センサ座標系における前記球体(42)の前記中心の実際の位置と、視覚センサ座標系における前記目標点の位置との位置誤差に基づいて、前記位置誤差がゼロになるまで前記ロボット(20)に対する閉ループフィードバック制御を実行する、
    請求項1に記載の方法。
  3. 前記視覚センサ(10)は、1つまたは複数のカメラを含み、前記1つまたは複数のカメラにより取り込まれた前記ボール(42)の画像に従って前記球体(42)の前記中心を特定するように構成されている、
    請求項2に記載の方法。
  4. 前記ステップS300で、前記ロボット(20)を制御して、前記球体(42)の前記中心を少なくとも2つの異なるポーズ(pose#1、pose#2、pose#3、pose#4)で前記同一の1つの目標点に正確に動かす、
    請求項3に記載の方法。
  5. 前記ステップS300は、
    前記ロボット(20)を制御して、前記視覚センサ(10)の案内により前記球体(42)の前記中心を第1のポーズ(pose#1)で前記視覚センサ(10)の視野内の前記目標点に動かし、前記目標点で前記ロボット(20)の第1のポーズデータを取得するステップS310と、
    前記ロボット(20)を制御して、前記視覚センサ(10)の案内により前記球体(42)の前記中心を第2のポーズ(pose#2)で前記目標点に動かし、前記目標点で前記ロボット(20)の第2のポーズデータを取得するステップS320と、
    前記ロボット(20)を制御して、前記視覚センサ(10)の案内により前記球体(42)の前記中心を第3のポーズ(pose#3)で前記目標点に動かし、前記目標点で前記ロボット(20)の第3のポーズデータを取得するステップS330と、
    前記ロボット(20)を制御して、前記視覚センサ(10)の案内により前記球体(42)の前記中心を第4のポーズ(pose#4)で前記目標点に動かし、前記目標点で前記ロボット(20)の第4のポーズデータを取得するステップS340と、
    取得した前記ロボット(20)の前記第1のポーズデータ、前記第2のポーズデータ、前記第3のポーズデータ、および前記第4のポーズデータに基づいて、前記フランジ(21)の前記中心(Tool)に対する、前記球体(42)の前記中心の前記変換行列Tsを計算するステップS350と、を含む、
    請求項3に記載の方法。
  6. 前記視覚センサ(10)により検知された、前記視覚センサ座標系における前記球体(42)の前記中心の実際の位置と、前記視覚センサ座標系における前記目標点の位置との位置誤差に基づいて、
    前記ステップS320〜S340では、前記位置誤差がゼロになるまで、すなわち、前記球体(42)の前記中心が前記目標点に正確に動くまで前記ロボット(20)に対する閉ループフィードバック制御を実行する、
    請求項5に記載の方法。
  7. 前記ロボット(20)は多軸ロボットを含む、
    請求項1に記載の方法。
  8. 前記ロボット(20)は4軸ロボットまたは6軸ロボットを含む、
    請求項7に記載の方法。
JP2018509582A 2015-08-26 2016-08-18 ロボットシステムの自動較正方法 Active JP6623286B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201510530295.8A CN106483963B (zh) 2015-08-26 2015-08-26 机器人系统的自动标定方法
CN201510530295.8 2015-08-26
PCT/IB2016/054946 WO2017033100A1 (en) 2015-08-26 2016-08-18 Automatic calibration method for robot system

Publications (2)

Publication Number Publication Date
JP2018528084A true JP2018528084A (ja) 2018-09-27
JP6623286B2 JP6623286B2 (ja) 2019-12-18

Family

ID=56943883

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018509582A Active JP6623286B2 (ja) 2015-08-26 2016-08-18 ロボットシステムの自動較正方法

Country Status (6)

Country Link
US (1) US10695910B2 (ja)
EP (1) EP3341161A1 (ja)
JP (1) JP6623286B2 (ja)
KR (1) KR102081743B1 (ja)
CN (1) CN106483963B (ja)
WO (1) WO2017033100A1 (ja)

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106483963B (zh) * 2015-08-26 2020-02-11 泰科电子(上海)有限公司 机器人系统的自动标定方法
JP6815924B2 (ja) * 2017-04-19 2021-01-20 トヨタ自動車株式会社 キャリブレーション装置
CN108927801B (zh) * 2018-03-21 2021-04-13 北京猎户星空科技有限公司 一种机械臂末端姿态调整方法及装置
CN110349218A (zh) * 2018-04-03 2019-10-18 泰科电子(上海)有限公司 摄像机的标定方法和标定系统
CN108582076A (zh) * 2018-05-10 2018-09-28 武汉库柏特科技有限公司 一种基于标准球的机器人手眼标定方法及装置
CN109443200B (zh) * 2018-10-18 2020-12-01 广东电科院能源技术有限责任公司 一种全局视觉坐标系和机械臂坐标系的映射方法及装置
US11254019B2 (en) * 2019-03-05 2022-02-22 The Boeing Company Automatic calibration for a robot optical sensor
CN110238845B (zh) * 2019-05-22 2021-12-10 湖南视比特机器人有限公司 最优标定点选取和误差自测量的自动手眼标定方法及装置
CN110231036B (zh) * 2019-07-19 2020-11-24 广东博智林机器人有限公司 一种基于十字激光和机器视觉的机器人定位装置及方法
CN110722558B (zh) * 2019-10-24 2021-09-03 广东拓斯达科技股份有限公司 机器人的原点校正方法、装置、控制器和存储介质
CN111002312A (zh) * 2019-12-18 2020-04-14 江苏集萃微纳自动化系统与装备技术研究所有限公司 基于标定球的工业机器人手眼标定方法
CN111127568B (zh) * 2019-12-31 2023-07-04 南京埃克里得视觉技术有限公司 一种基于空间点位信息的相机位姿标定方法
CN111633651B (zh) * 2020-05-28 2021-01-29 杭州键嘉机器人有限公司 一种中空管状工具的tcp标定方法
CN111823233B (zh) * 2020-06-30 2022-11-29 浙江德尚韵兴医疗科技有限公司 基于高精度立体光学定位的机械臂手眼标定系统及方法
CN112045684B (zh) * 2020-09-05 2021-07-06 杭州键嘉机器人有限公司 一种自动辅助标定装置及其方法
CN112847341B (zh) * 2020-12-25 2024-02-02 中国科学院宁波材料技术与工程研究所 工业机器人分步式标定系统及方法
US11429112B2 (en) * 2020-12-31 2022-08-30 Ubtech North America Research And Development Center Corp Mobile robot control method, computer-implemented storage medium and mobile robot
CN113459094B (zh) * 2021-06-23 2022-06-14 佛山智能装备技术研究院 一种工业机器人工具坐标系及零点自标定方法
TWI762371B (zh) * 2021-07-06 2022-04-21 財團法人工業技術研究院 機械手臂與輪廓感測器座標系相對關係之自動校正方法與系統
CN114012719B (zh) * 2021-10-22 2024-04-16 上海发那科机器人有限公司 一种六轴机器人的零点标定方法及系统
CN114536324B (zh) * 2022-01-11 2023-11-07 重庆智能机器人研究院 一种工业机器人自动工具工件标定方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005300230A (ja) * 2004-04-07 2005-10-27 Fanuc Ltd 計測装置
JP2012020347A (ja) * 2010-07-12 2012-02-02 Kobe Steel Ltd ロボットのツールベクトルの導出に用いる治具

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
SE501867C2 (sv) * 1993-11-15 1995-06-12 Asea Brown Boveri Förfarande och system för kalibrering av en industrirobot utnyttjande en sfärisk kalibreringskropp
US6434449B1 (en) * 2000-08-03 2002-08-13 Pierre De Smet Method and device for automated robot-cell calibration
CN100547614C (zh) * 2007-12-20 2009-10-07 昆山华恒工程技术中心有限公司 一种工业机器人的标定方法
WO2009132703A1 (en) * 2008-04-30 2009-11-05 Abb Technology Ab A method and a system for determining the relation between a robot coordinate system and a local coordinate system located in the working range of the robot
CN102566577B (zh) * 2010-12-29 2014-01-29 沈阳新松机器人自动化股份有限公司 一种工业机器人简易标定方法
CN104827480A (zh) * 2014-02-11 2015-08-12 泰科电子(上海)有限公司 机器人系统的自动标定方法
CN104330025B (zh) * 2014-10-22 2016-12-07 中国计量学院 工业机器人位姿检测装置
CN104786226A (zh) * 2015-03-26 2015-07-22 华南理工大学 抓取在线工件的机器人位姿及运动轨迹定位系统与方法
CN106483963B (zh) * 2015-08-26 2020-02-11 泰科电子(上海)有限公司 机器人系统的自动标定方法
CN107214692B (zh) * 2016-03-22 2020-04-03 泰科电子(上海)有限公司 机器人系统的自动标定方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005300230A (ja) * 2004-04-07 2005-10-27 Fanuc Ltd 計測装置
JP2012020347A (ja) * 2010-07-12 2012-02-02 Kobe Steel Ltd ロボットのツールベクトルの導出に用いる治具

Also Published As

Publication number Publication date
US10695910B2 (en) 2020-06-30
CN106483963A (zh) 2017-03-08
CN106483963B (zh) 2020-02-11
EP3341161A1 (en) 2018-07-04
KR102081743B1 (ko) 2020-02-26
KR20180044970A (ko) 2018-05-03
JP6623286B2 (ja) 2019-12-18
WO2017033100A1 (en) 2017-03-02
US20180243912A1 (en) 2018-08-30

Similar Documents

Publication Publication Date Title
JP6623286B2 (ja) ロボットシステムの自動較正方法
JP6657469B2 (ja) ロボットシステムの自動較正方法
JP6505729B2 (ja) 視覚センサを用いるロボットシステムのための自動較正方法
JP6966582B2 (ja) ロボットモーション用のビジョンシステムの自動ハンドアイ校正のためのシステム及び方法
TWI672206B (zh) 機械手臂非接觸式工具中心點校正裝置及其方法以及具有校正功能的機械手臂系統
JP5371927B2 (ja) 座標系校正方法及びロボットシステム
JP6429473B2 (ja) ロボットシステム、ロボットシステムの校正方法、プログラム、およびコンピュータ読み取り可能な記録媒体
US9517560B2 (en) Robot system and calibration method of the robot system
JP6108860B2 (ja) ロボットシステム及びロボットシステムの制御方法
JP4021413B2 (ja) 計測装置
JP3946711B2 (ja) ロボットシステム
JP2016185572A (ja) ロボット、ロボット制御装置およびロボットシステム
JP6235664B2 (ja) ロボットの機構パラメータを校正するために使用される計測装置
JP5523392B2 (ja) キャリブレーション装置及びキャリブレーション方法
JP2005300230A (ja) 計測装置
JP2008188705A (ja) ロボット機構のキャリブレーション装置及び方法
JP6670974B1 (ja) ロボット用の座標系アライメント方法及びアライメントシステム並びにアライメント装置
JP2010188439A (ja) パラメータ算出方法及びパラメータ算出装置
JP2015062991A (ja) 座標系校正方法、ロボットシステム、プログラム及び記録媒体
JP2014144516A (ja) ロボット制御装置、ロボットシステム、ロボット、制御方法及びプログラム
JP2024017442A (ja) 自律ロボットとそのキャリブレーション方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180219

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190305

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20190603

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190711

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191029

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191125

R150 Certificate of patent or registration of utility model

Ref document number: 6623286

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250