JP7214861B2 - ツールオフセットを有するカメラ-ロボットシステムの自動較正 - Google Patents

ツールオフセットを有するカメラ-ロボットシステムの自動較正 Download PDF

Info

Publication number
JP7214861B2
JP7214861B2 JP2021523262A JP2021523262A JP7214861B2 JP 7214861 B2 JP7214861 B2 JP 7214861B2 JP 2021523262 A JP2021523262 A JP 2021523262A JP 2021523262 A JP2021523262 A JP 2021523262A JP 7214861 B2 JP7214861 B2 JP 7214861B2
Authority
JP
Japan
Prior art keywords
robot
camera
tool
coordinates
calibration
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021523262A
Other languages
English (en)
Other versions
JP2022506099A (ja
Inventor
パートゥレ,パラグ
ソランキ,スワプニルシン
Original Assignee
ティーイー コネクティビティ サービシーズ ゲーエムベーハー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ティーイー コネクティビティ サービシーズ ゲーエムベーハー filed Critical ティーイー コネクティビティ サービシーズ ゲーエムベーハー
Publication of JP2022506099A publication Critical patent/JP2022506099A/ja
Application granted granted Critical
Publication of JP7214861B2 publication Critical patent/JP7214861B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1692Calibration of manipulator
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39016Simultaneous calibration of manipulator and camera

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Manipulator (AREA)

Description

本発明は、カメラ-ロボットシステムを対象とする。詳細には、本発明は、視覚に基づく案内システムを較正することを対象とする。
視覚に基づく案内システムまたはカメラ-ロボットシステムは、業界で一般に利用されている。カメラは、ロボットに対するセンサとして作用し、関心の物体を「見る」。しかし、視覚システムによって検出されるこれらの物体の場所はカメラ画素座標の状態であり、ピックアンドプレースなどのタスクを実行することができるように、カメラ画素座標をロボット座標にマッピングする必要がある。カメラ画素座標をロボット座標(実世界のミリメートル)にマッピングするこのプロセスは、一般にハンドアイ較正またはカメラ-ロボット較正と呼ばれる。
さらに、図1に示すように、選択的コンプライアンスアセンブリロボットアームもしくは選択的コンプライアンス関節ロボットアーム(「SCARA」)またはヒューマンアームロボット10にアーム端ツール12が取り付けられている場合は通常、ツール12のツール中心16とロボットのZ軸18の中心線との間に、X、Yオフセット14(説明の目的で強調されている)が存在する。ロボットを正確に位置決めするために、このツールオフセットもロボットコントローラによって測定し、ロボットのインバースキネマティクスに組み込まなければならない。これらのプロセス(較正およびツールオフセット測定)はどちらも、典型的には手動の観察を使用して行われ、それにはロボットを既知の基準点へ揺動または移動させ、目で可能な限り精密に位置合わせすることを伴う。行われる測定の数に応じて、この手動プロセスは、訓練を受けた操作者でも約60~100分を要する可能性がある。
手動の観察は、較正に誤差をもたらす可能性があり、実現される位置精度は最善でも±0.2mmであり、ロボット作業空間における較正誤差の分布に関する知識はない。誤差の他の原因は、ツール中心点、すなわちすべてのロボット位置決めが画定される対象となる点に対する未知のオフセットであり、これはロボットグリッパ要素の設計における機械公差によって生じる。
これらの欠点を最小化するカメラ-ロボットシステムに対する改善が、当技術分野で必要とされている。
目的は、カメラ画素をロボット座標にマッピングするとともに未知のツールオフセットを計算するための自動較正プロセスを提供することである。
本発明の他の特徴および利点は、本発明の原理を例として示す添付の図面と併せて、好ましい実施形態の以下のより詳細な説明から明らかになる。
取り付けられたツールを含む従来技術のアームロボットの図である。 例示的な較正対象を把持するように準備されている例示的なツールの上面斜視図である。 図2の線3-3に沿って切り取ったツール/較正対象の断面図である。 例示的な較正対象を把持するように準備されている例示的なツールの平面図である。 較正動作のための較正対象測定点の例示的な配置を示す図である。 ツールオフセットを有するカメラ-ロボットシステムを較正する動作の順次ステップを示す図である。 ツールオフセットを有するカメラ-ロボットシステムを較正する動作の順次ステップを示す図である。 ツールオフセットを有するカメラ-ロボットシステムを較正する動作の順次ステップを示す図である。 較正対象の例示的なカメラ取込み画像を示す図である。 ツールオフセットを有するカメラ-ロボットシステムを較正する動作の順次ステップを示す図である。 ツールオフセットを有するカメラ-ロボットシステムを較正する例示的なプロセスの図である。 X座標およびY座標を示し、単位はmmである、実際のロボット座標値と計算されたロボット座標値との差を表すグラフである。 X座標およびY座標を示し、単位はmmである、値の線形性を判定するための実際のロボット座標値と計算されたロボット座標値との差を表すグラフである。 ツールオフセットを有するカメラ-ロボットシステムを較正する例示的なプロセスの図である。
本発明の原理による例示的な実施形態の説明は、添付の図面に関連して理解されることが意図され、添付の図面は、記載の説明全体の一部であると見なされる。本明細書に開示する本発明の実施形態の説明において、方向または向きに関する言及は、説明の便宜のみを意図したものであり、本発明の範囲を限定することを何ら意図したものではない。「下(lower)」、「上(upper)」、「水平」、「垂直」、「上(above)」、「下(below)」、「上(up)」、「下(down)」、「頂部(top)」、および「底部(bottom)」などの相対的な用語、ならびにこれらの派生語(たとえば、「水平に」、「下方へ」、「上方へ」など)は、そのとき説明されるまたは議論中の図面に示される向きを指すと解釈されるべきである。これらの相対的な用語は、説明を簡単にすることだけを目的とし、そのように明示的に指示されない限り、その装置が特定の向きで構築または動作されることを必要とするものではない。
「取り付けられる」、「固定される」、「接続される」、「結合される」、「相互接続される」などの用語、および類似語は、別途明示的に記載されない限り、構造が互いに直接または介在する構造を介して間接的に固定されまたは取り付けられる関係、ならびに可動または固定両方の取付けまたは関係を指す。さらに、本発明の特徴および利益は、好ましい実施形態を参照することによって説明される。したがって、本発明は明示的に、そのような好ましい実施形態に限定されるべきではなく、そのような好ましい実施形態は、特徴のいくつかの可能な非限定的な組合せを示し、これらの特徴は単独で、または複数の特徴の他の組合せで存在することができ、本発明の範囲は、本明細書に添付の特許請求の範囲によって定義される。
図5~図11を参照すると、本発明は、アーム端ツールまたはツールオフセットを有するカメラ-ロボットシステムを自動的に較正するプロセスを含む。たとえば、X軸およびY軸ならびにヨー(XY平面における回転成分、Z軸の周りの回転)という3自由度を有するカメラ-ロボットシステムの場合、自動較正プロセスは、ロボットツール点画定X、Yオフセットを較正し、カメラ座標をロボット座標X、Y、およびヨーにさらに較正する。この自動較正プロセスの場合、ツール中心点(「TCP」)の知識は必要とされない。すなわち、TCPは、特定のXおよびYオフセットに対応することができ、このオフセットは既知である必要はない。ツールX、Yオフセットに対する機械的な設計寸法を提供することができるが、機械公差のため、これらのX、Yオフセットは「設計」オフセットとは異なる。この較正プロセスは、実際のX、Yオフセットを自動的に計算する。
ほとんどの従来のロボットカメラ較正の場合、1つの点が操作者によって正確に与えられ、すなわち何らかの特別な基準を使用して、視覚システムから見ることができる既知の場所とツール中心点を位置合わせする。次に、従来の較正が機能するためには、1)1mm当たりの画素の値(カメラ分解能に基づく)、および2)1mm当たりの画素値が、関心領域全体にわたって一定であること、という2つの追加の条件が必要とされる。実際には、カメラ較正後でもカメラレンズの歪みが存在すること、および/またはロボット自体が線形運動を有しないことがある。その結果、1mm当たりの画素は、関心領域のどこでも一定の数であるとは限らず、適切に機能することができない。本発明の自動較正プロセスは、これらの条件のいずれも満たす必要がない。
要約すると、提案される自動較正プロセスは、精密な較正を必要とする応用例に最も好適である。
「アーム端ツール」、「ツール」、「グリッパ」などの用語は、置き換えて使用することができる。
「較正対象」という用語は、ロボットツールによって拾い上げられて格子上の様々な点に配置され、次いで視覚システムによって検出される部品を指す。較正対象は、典型的に、特別に設計された部品ではないが、特別に設計された部品とすることもできる。唯一の要件は、この「較正対象」が、その部品の真上の位置からなどの所定の視点から見たとき、曖昧でない固有の向きを有するべきであるということである。すなわち、視覚システムがこの部品を検出したとき、この部品は明確な向きを有するべきである。一例は、1つの面取りした隅部を有する矩形の物体である。典型的には、較正対象は、ロボットピックアンドプレースシステムがそのために配備されている部品のいずれかである。多くの場合、アーム端ツールまたはツールは、この部品のために特別に設計される。
「較正対象」、「較正部品」、「部品」などの用語は、置き換えて使用することができる。
「データ点」、「測定点」、「観察点」などの用語は、置き換えて使用することができる。
較正プロセスは、較正対象がツールによってきれいに解放される(cleanly released)と「仮定」する。すなわち、ロボットがある点または位置へ動き、グリッパが開いた場合、グリッパが開いている間、その部品は動かず、厳密な点または位置に置かれる。実際には、この「きれいな解放(clean release)」は、空気圧を調整することなど(空気力学を使用するシステムの場合)、ツール締付け力を減少させることによって実現することができる。加えて、「きれいな解放」は、それらの部品を把持しながら機械的調心を提供する適切に設計されたグリッパによって実現することができる。たとえば、図2および図3に示すように、グリッパ20は、部品26のために特別に設計されたグリッパ部分22、24を含み、部品26は、ロボットによって拾い上げられて配置される他の部品と同じである。
X、Y、およびヨー(「u」とする)に所定の相対オフセットが存在する場合、グリッパが閉位置へ動くと、その部品は、グリッパの掴み具同士の間でまっすぐにそろえられて調心される。したがって、把持される前のその部品の向きにかかわらず、その部品が把持されると、その部品の姿勢が常に固定される。「姿勢」という用語は、ある部品の座標系に対する位置および向きであると定義される。この事例では、グリッパ部分24の位置決めピンが、部品26の対応する形状部28に接触し、反対の位置にあるグリッパ部分22のフィンガが、部品26の平坦な形状部30に接触して、支持を提供する。図2および図3は、調心を提供するようにグリッパが部品用に特別に設計された事例を表す。しかし、図4に示すように、平行な掴み具を有する汎用のグリッパ32が使用される場合は、特別な較正対象34を設計することができる。
この場合、グリッパが閉位置へ動くと、較正対象は常に同じ姿勢を有する。視覚システムは、それぞれ図3の部品26および図4の較正対象34に対するTCP36など、ツール中心点(「TCP」)に対応する点を識別する。
分かりやすくする目的で、図1にさらに示すように、ロボットの中心線Z軸18は、「ツール0」または「デフォルトツール」に対応する。すなわち、デフォルトツールのロボット座標を参照するとき、それらの座標はこの点に対応し、これらのロボット座標は常に、ロボットソフトウェアによって空間内の任意の点で使用されることが知られている。これは、ツールが位置するとロボットが考える場所である。実際の有用なツールは、オフセットTx、Tyに取り付けられている可能性があり(オフセットは未知であるまたは正確に知られていないと仮定される)、これを「ツール1」と呼ぶ。較正パラメータに加えて、これらの未知のツールオフセットもまた、この自動較正方法またはプロセスから計算される。いくつかの部品が視覚システムによって検出された場合、ツール1を使用してこれらの部品を拾い上げる必要がある。
自動較正の基礎的数学
視覚座標と、ロボット座標と、ツールオフセットとの関係について、次に式1で説明する。
Poly(Cx,Cy)=[Rx;Ry]+Rot(Ru)*[Tx;Ty] [1]
以下は、既知数である。
Cx、Cy=カメラのx軸およびy軸に沿ったカメラ画素の場所
Rx、Ry=ツール0(ツールフランジまたはデフォルトツールの中心線)におけるロボットのX座標およびY座標
Ru=度単位のロボットヨー(u)(ツール0)
以下は、未知数である。
Tx、Ty=Z軸の中心線に対する未知のツール点オフセット。
Poly=所望の次数の多項式適合である。
Rot(Ru)は、所与の角度Ruに対するZ軸の周りの回転行列を表す。
多項式適合「Poly」は、応用例の性質ならびにマニピュレータおよびセンサに存在する非線形性に応じて、任意の所望の次数とすることができる。典型的には、1~5のモデル次数を好適な適合に対して試験することができる。CxおよびCyにおける次数1の多項式は、(mx*Cx+ny*Cy+o)の形であり、係数m、n、oは、判定すべき未知数である。最小二乗を使用して上記の式を解くために必要とされる測定数は、考慮されている多項式適合のモデル次数に基づいて計算することができる。たとえば、モデル次数1の場合、2つのツールオフセットパラメータを含めて、計8つの未知数が存在する。各測定が2つの式(Xに対する1つの式およびYに対する1つの式)を提供するため、少なくとも4つの測定が必要とされる。
上記の式は、X、Y画素の場所を、ロボット座標における対応する場所にマッピングする。同様に、カメラ座標における物体の向きも、ロボット座標における対応する向きに関連付けることができる。
較正:線形の場合(n=1)
第1の観察点または測定点に対して、以下が得られる。
Figure 0007214861000001
CxおよびCyは、カメラ空間における視覚座標に対応し、RxおよびRyは、ロボットのツール0またはデフォルトツールにおける同じ物理的な場所のロボット座標に対応し、これらは既知値である。式1を利用した結果、「線形適合」式2が得られる。
Figure 0007214861000002
ここで、式の右側は、ロボットのTCPの物理的な位置に対応する。式2には、8つの未知数m、n、o、m、n、o、Tx、Tyが存在する。したがって、線形の場合、各観察結果が2つの式を与えるため、少なくとも4つの観察点が必要とされる。ここで、線形適合式2を次の式3に並べ替える。
Figure 0007214861000003
追加の観察点を取得し、行列の積として分離することで、式4が得られる。
Figure 0007214861000004
上式は、最小二乗標準アルゴリズムを使用して解くことができる。前述のように、これは線形適合の例にすぎない。より高次の適合式も同様に考案される。
たとえば、各次数の適合に対して、特定の未知係数ならびに未知のツールオフセットTx、Tyが存在する。2次適合(n=2)の場合、Tx、Tyを含めて、14個の未知数が存在する。次数n=3の場合、22個の未知変数が存在する。対応する次数(「N」)の各式について解く必要のある未知変数の数は、次のとおりである。
点の数=(N)+(3*N)+4
ここで、観察点または測定点の数は、変数の数を2で割った値に等しい。
較正プロセスのための例示的な設定
図5~図10は、本発明の較正プロセスを実施するための例示的な設定を対象とし、図5~図8および図10は、ツールオフセットを有するカメラ-ロボットシステムを較正する動作の順次ステップを示す。図11は、本発明の較正プロセスの動作に対応するプロセス図を示す。図5(および図11のステップ60)に示すように、較正プロセスのための設定は、測定点48、52、54、56、58、60、62、64、66、68、70、72、74、76、78などの複数の観察点またはデータ点または測定点に、較正対象44の格子またはアレイ45を設定または作成することを含む。収集すべき測定点の数、測定点同士の間の間隔(均一の間隔または不均一の間隔)、および作業面42上などの測定点の領域は、画定されている、またはロボットの「設定」モード中に操作者によって最初に判定される。
作業面42は、図5に、2次元のたとえばX、Y座標などに略平面として示されている。すなわち、測定位置は同じ平面(固定のZ平面)に位置する必要があるが、互いに不均一に隔置することができ、カメラの視野(「FOV」)内に位置するべきである。表面直し、仕上げなどによるZ座標のわずかな変動は許容される。この較正方法が拡大され、3次元(「3D」)カメラが使用される場合、測定点は、3D空間内の任意の場所に位置することができる。すなわち、3Dカメラを使用するとき、測定点に対する唯一の要件は、これらの測定点がカメラ40(図6)の所定の領域または視野の範囲内に位置しなければならないことである。
測定点の位置決めは設定モード中にのみ行われるため、正常動作中、これらの観察点または測定点が画定された後、操作者はこれらの点を再び画定する必要はない。矩形の格子内でデータ点または測定点を収集する必要はない。たとえば、関心領域が扇形(パイ形)である場合、それに応じて観察結果が収集される。観察結果が収集される方法(場所および数)は概して、以下にさらに詳細に論じるように、1)関心領域の形状、および2)ロボット座標における測定点の実際の場所である「実データ」と、適合からまたは較正式からの値の計算によって推定されたデータとの間の平均二乗(「RMS」)誤差に依存する。
図6に示すように、較正プロセスのための設定は、アーム端ツールまたはツール12を有するロボット10と、照明源38と、カメラ40と、作業面42とを含む。図6は、ツール12がネスト46から較正対象44を拾い上げていることをさらに示す。ネスト46の場所は、ロボットには知られている画定された場所であり、画定された場所に較正対象44を位置決めするように手動で教示しなければならない(図11のステップ62)。一実施形態では、ネストは、デフォルトツール位置における画定された場所である。ロボットは、ロボットが「教示」モードにある間にネスト46へ揺動または移動され、その点が操作者によってカメラ-ロボットシステムのメモリに保存される。ただし、この手動で教示された点は単なる近似である。しかしロボットがそこへ進んだとき、物体がツールによって適切に把持されるには十分に正確である。
この点において、すでに論じたように、グリッパまたはツールの機械的調心特性が適用される。ネストにおいてツールが最初に把持する場所は近似であるが、グリッパまたはツールは、把持した際、部品がツールに対して自己調心することを確実にする。厳密なツール中心は未知であるが、ツールはロボットに取り付けられるため、操作者は、物体を把持するのに十分な近接性または精度でツールを見て位置決めすることができる。ロボット教示モードおよびツールに対する較正対象の自己調心はどちらも当業者にはよく知られているため、追加の議論は提供しない。
図7(および図11のステップ64)に示すように、ロボット10のツール12は、較正対象44をネスト46の画定された場所から測定点48へ動かす。測定点48は、ロボットベース座標系において、デフォルトTCPのロボット座標に対応し、これは既知の場所である。
図8に示すように、較正対象44が測定点48に配置された後、ロボット10は、較正対象44から離れる。より具体的には、ロボット10は、照明源38によって照明が提供された状態で、視覚システムの一部であるカメラ40が較正対象44の画像を取り込むように、較正対象44から十分に離れる(図11のステップ66)。図9は、較正対象44の例示的なカメラ取込み画像50を示す。加えて、視覚システムは、カメラ座標における較正対象44の場所を検出または識別する(同じく、図11のステップ66の一部)。その場所は、較正対象の位置だけでなく、すでに論じたように、角度方向、ヨー(Z軸の周りの回転)など、画定された場所に対する向きパラメータも識別する。3D空間では、ロールおよび/またはピッチなどの追加の回転方向を測定することも必要になる可能性があり、これには追加の感知機器が必要となるはずであることを理解されたい。
このシナリオでは、6自由度以上のロボットマニピュレータを使用することができる。ロボットに関する視覚システムの動作はよく知られており、本明細書ではこれ以上論じない。
図9(および図11のステップ66)に関して論じたように、カメラ40が画像を取り込み、較正対象44の場所を識別した後、ロボット座標およびカメラ座標は、よく知られている方法で、カメラ-ロボットシステム内のメモリに保存される(図11のステップ68)。図10に示すように、座標がメモリに保存された後、ロボット10のツール12は、較正対象44を測定点48から測定点52へ動かす。図10に示すように、較正対象44が測定点52に配置された後、すでに論じたように、ロボット10は較正対象44から離れ、較正対象に対する画像が取り込まれ、場所が識別される。較正対象44は次いで、図5に示すように、格子またはアレイの残りの各測定点に配置され、視覚システムは画像を取り込み、それらの測定点に対する較正対象44の場所を識別することが理解されよう。
言い換えれば、図11のステップ68が実行された後、図11のステップ70を実行することは、残りの各測定点に対してステップ64、66、および68を繰り返すことを伴う。
すべてのロボット座標およびカメラ座標がメモリに保存された後、図11のステップ72に示すように、次の式に従って、すでに論じた1次方程式の場合のように、カメラ-ロボット較正値およびツールオフセットが計算される。
Poly(Cx,Cy)=[Rx;Ry]+Rot(Ru)*[Tx;Ty]
カメラ-ロボット較正値およびツールオフセットが計算された後、図11のステップ74で、ツールオフセットに対する計算値がロボットに設定または入力され、図11のステップ76で、カメラ-ロボット較正値がメモリに保存される。
本発明の自動較正プロセスは、手動較正に比べていくつかの注目すべき利点を提供する。たとえば、熟練した操作者でも、ロボットツールを手動で位置決めするのに180~300秒を必要とし得るのに対して、自動較正プロセスの場合は2~3秒である。これは、約100倍の時間の改善度に相当する。同様に、熟練した操作者の手動動作の精度は、±0.2mmに制限されるのに対して、自動較正プロセスの場合は±0.05mmである。これは、約4倍の精度の改善度に相当する。ロボットの再現性が±0.01mmであり、5メガピクセル(「MP」)のカメラが使用されたとき、±0.05mmの較正誤差が実現される。加えて、手動較正には熟練した操作者が必要とされるが、自動較正プロセスの場合は押しボタン動作しか必要とされない。
自動較正プロセスの精度の向上が実現されることを確実にするのを助けるために、図12に示すように、実際のデータ、すなわちロボット座標が、計算されたデータ、すなわちすでに論じたように較正式から得られた計算された座標と比較される。加えて、実際のデータの線形性が、計算されたデータと比較されることが好ましい。非線形性が存在する場合、より多くのデータ点または測定点を取得し、較正式を解いて、追加の測定点を組み込むことが必要になるはずである。図13に、非線形適合に対する例示的なXYプロットに関して、計算されたデータと実際のデータとの間の誤差分布が示されている。
線形性、非線形性、または追加の測定点の必要は、次のように確立することができる。
線形適合に対する較正誤差を示すX、Yプロット(たとえば、図12)に関して、実際のデータおよび計算されたデータのすべての示されている点が互いに概ね等しく近接しており、ならびにRMS較正誤差が「許容可能」な範囲内にある場合、その応用例にとって線形適合が十分であると結論付けることができる。「許容可能」な誤差範囲は、たとえば典型的には0.2mm未満など、応用例に依存する。しかし、観察点の1つまたは複数が、プロット上の残りの点と比較すると、実際のデータと計算されたデータとの間でより大きいずれを示すことが観察され、ならびに較正誤差が許容可能な範囲を上回る場合、これは、ロボットまたはカメラのいずれかにおける非線形性を示す。いくつかの点で、他の点と比較すると、他のずれより大きいずれが観察されたが、較正RMS誤差が依然として許容可能な範囲内である場合、線形適合をなお使用することができる。
上記から、より高次の適合(モデル次数2以上)が必要とされることが判定された場合、より高次の適合に関して図12に類似のプロットを観察することができる。この場合も、実際のデータと計算されたデータとを比較したとき、これらのデータ点が比較的等しく近い場合、すべてのデータ点を検査することができる。そうでない場合、実際のデータと計算されたデータとが「適合」するまで、さらに高次の適合式を選択することができる。
図12に類似している図14に示すように、ステップ72Aは、1~5などの式の多数の次数Nに対して、または十分な数の観察点もしくは測定点が得られた第Nの次数まで、ツールオフセットにおけるカメラ-ロボット較正値を計算することを含む。たとえば、上述したように、式の第1の次数について、少なくとも4つ、好ましくはそれ以上のデータ点または測定点が必要とされる。図14のステップ74で、式の各次数について実際の値と計算値との差が比較され、図14のステップ76で、ロボット座標の実際の値と計算値との差が最も小さい式次数の数式解が選択される。図14のステップ78で、選択された式次数の数式解の値がメモリに保存される。一実施形態では、ステップ74で、1次方程式について実際の値と計算値との差のみが比較され、これらの差が所定の数より小さいとき、1次方程式の数式解が使用されてメモリに保存され、式の他の次数のさらなる計算は行わない。
一実施形態では、ステップ74で、1次方程式および2次方程式について実際の値と計算値との差のみが比較され、ステップ76で、1次方程式および2次方程式の数式解はより小さい差の値を有し、ステップ78で、選択された次数の数式解の値がメモリに保存される。一実施形態では、2つ以上の式次数の解が、所定の値より小さい実際の値と計算値との差をもたらすとき、選択された式次数は、最も低い数を有する式次数である。
本発明について、好ましい実施形態を参照して説明したが、添付の特許請求の範囲に定義される本発明の精神および範囲から逸脱することなく、様々な変更を加えることができ、本発明の要素を均等物に置き換えることができることが、当業者には理解されよう。特に、本発明の精神または本質的な特徴から逸脱することなく、本発明を他の特有の形態、構造、配置、割合、サイズで、他の要素、材料、および構成要素とともに実施することができることが、当業者には明らかである。本発明は、本発明の原理から逸脱することなく、特有の環境および動作要件に特に適合された、構造、配置、割合、サイズ、材料、および構成要素の多くの修正とともに使用することができ、そうでない場合、本発明の慣行で使用することができることが、当業者には理解されよう。
したがって、本明細書に開示する実施形態は、すべての点で、限定的ではなく例示的であると見なされ、本発明の範囲は、添付の特許請求の範囲によって定義され、上記の説明または実施形態に限定されるものではない。

Claims (10)

  1. ツールオフセットを有するカメラ-ロボットシステムを自動的に較正する方法であって、
    ロボット作業空間およびカメラの所定の領域内で観察結果を収集するために複数の測定点を有するアレイを作成することと、
    画定された場所で較正対象を位置決めすることと、
    ロボットベース座標系におけるデフォルトツール中心点の第1のロボット座標に対応する第1の測定点へ、ロボットが前記較正対象を前記画定された場所から動かすことと、
    カメラが前記較正対象の画像を取り込み、前記第1の測定点における前記較正対象の場所であって、第1のカメラ座標に対応する場所を、前記カメラが識別することと、
    前記較正対象の前記第1のロボット座標および前記第1のカメラ座標をメモリに保存することと、
    前記ロボットベース座標系における前記デフォルトツール中心点の第2のロボット座標に対応する第2の測定点へ、前記ロボットが前記較正対象を前記第1の測定点から動かすことと、
    前記カメラが前記較正対象の画像を取り込み、第2のカメラ座標に対応する前記第2の測定点における前記較正対象の場所を前記カメラが識別することと
    前記較正対象の前記第2のロボット座標および前記第2のカメラ座標を前記メモリに保存することと、
    前記ロボットが前記較正対象を前記複数の測定点のうちの残りの測定点のそれぞれへ動かし、前記カメラが残りの各測定点で前記較正対象の画像を取り込み、前記カメラが残りの各測定点に対応する前記較正対象の場所を識別し、対応するロボット座標およびカメラ座標を前記メモリに保存することを繰り返すことと、
    下記の[1]に従って、カメラ-ロボット較正値および前記ツールオフセットを計算することと、
    計算されたツールオフセットを設定することと、
    前記カメラ-ロボット較正値を前記メモリに保存することとを含む方法。
    Poly(Cx,Cy)=[Rx;Ry]+Rot(Ru)*[Tx,Ty]… 式[1]
    Cx、Cy:カメラのx軸およびy軸に沿ったカメラ画素の場所
    Rx、Ry:ツール0(ツールフランジまたはデフォルトツールの中心線)におけるロボットのX座標およびY座標
    Ru:度単位のロボットヨー(u)(ツール0)
    Tx、Ty:Z軸の中心線に対する未知のツール点オフセット
    Poly:所望の次数の多項式適合
    Rot(Ru):所与の角度Ruに対するZ軸の周りの回転行列
    ここで、Tx、Ty、Poly、およびRot(Ru)は、未知数である。
  2. 画定された場所で較正対象を位置決めすることが、前記ロボットがデフォルトツール位置における画定された場所から前記較正対象を動かすことを含む、請求項1に記載の方法。
  3. アレイを作成することが、均一のアレイを作成することを含む、請求項1に記載の方法。
  4. アレイを作成することが、不均一のアレイを作成することを含む、請求項1に記載の方法。
  5. 各測定点で前記較正対象の場所を識別することが、前記画定された場所に対する向きパラメータを識別することを含む、請求項1に記載の方法。
  6. 前記ツールオフセットを計算した後、前記方法は、
    前記式の少なくとも2つの異なる次数について前記ロボット座標の実際の値と計算値との差を比較することと、
    前記ロボット座標の前記実際の値と前記計算値との間でより小さい差を有する前記式次数の数式解を選択することとをさらに含む、請求項1に記載の方法。
  7. 前記ツールオフセットを計算することが、前記式の第1の次数の前記ツールオフセットおよび前記カメラ-ロボット較正値を計算することを含み、
    前記式の前記第1の次数について前記ロボット座標の実際の値と計算値との差を比較することと、
    前記差が事前選択された範囲内にあるとき、前記式の前記第1の次数の前記カメラ-ロボット較正値を前記メモリに保存することとをさらに含む、請求項1に記載の方法。
  8. 前記ツールオフセットを計算した後、前記方法は、
    前記式の第1の次数について前記ロボット座標の実際の値と計算値との差と、事前選択された範囲を比較することと、
    前記差が前記式の前記第1の次数について前記事前選択された範囲内にないとき、前記式の第2の次数の前記ツールオフセットおよび前記カメラ-ロボット較正値を計算することと、
    前記式の前記第2の次数について前記ロボット座標の実際の値と計算値との差と、前記事前選択された範囲を比較することと、
    前記差が前記事前選択された範囲内にあるとき、前記式の前記第2の次数の前記カメラ-ロボット較正値を前記メモリに保存することとをさらに含む、請求項1に記載の方法。
  9. 前記メモリに保存した後、
    前記式の増分的により大きい次数について前記ロボット座標の実際の値と計算値との差が前記事前選択された範囲内になるまで、前記式の前記増分的により大きい次数について計算/比較ステップを繰り返すことと、
    前記式の前記増分的により大きい次数の前記カメラ-ロボット較正値を前記メモリに保存することとをさらに含む、請求項8に記載の方法。
  10. 前記Z軸の前記中心線に対する前記未知のツール点オフセットは、前記ロボットのツールのツール中心と、前記ロボットの前記Z軸の前記中心線との間に存在するツールオフセットである、請求項1に記載の方法。
JP2021523262A 2018-11-01 2019-10-31 ツールオフセットを有するカメラ-ロボットシステムの自動較正 Active JP7214861B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US16/178,420 2018-11-01
US16/178,420 US11065768B2 (en) 2018-11-01 2018-11-01 Automatic calibration for camera-robot system with tool offsets
PCT/IB2019/059376 WO2020089839A1 (en) 2018-11-01 2019-10-31 Automatic calibration for camera-robot system with tool offsets

Publications (2)

Publication Number Publication Date
JP2022506099A JP2022506099A (ja) 2022-01-17
JP7214861B2 true JP7214861B2 (ja) 2023-01-30

Family

ID=68542673

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021523262A Active JP7214861B2 (ja) 2018-11-01 2019-10-31 ツールオフセットを有するカメラ-ロボットシステムの自動較正

Country Status (5)

Country Link
US (1) US11065768B2 (ja)
JP (1) JP7214861B2 (ja)
CN (1) CN113195171B (ja)
DE (1) DE112019005484T5 (ja)
WO (1) WO2020089839A1 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10859997B1 (en) * 2017-12-04 2020-12-08 Omax Corporation Numerically controlled machining
US11072074B2 (en) * 2017-12-13 2021-07-27 Cognex Corporation Calibration and operation of vision-based manipulation systems
US12051316B2 (en) 2019-12-18 2024-07-30 Hypertherm, Inc. Liquid jet cutting head sensor systems and methods
CN114147727B (zh) * 2022-02-07 2022-05-20 杭州灵西机器人智能科技有限公司 一种机器人位姿校正的方法、装置和系统
CN115194773B (zh) * 2022-08-22 2024-01-05 苏州佳祺仕科技股份有限公司 一种视觉引导组装方法及装置
DE102022213568B3 (de) 2022-12-13 2024-02-29 Kuka Deutschland Gmbh Kalibrieren einer Steuerung

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108122257A (zh) 2016-11-28 2018-06-05 沈阳新松机器人自动化股份有限公司 一种机器人手眼标定方法及装置
US20180186004A1 (en) 2017-01-04 2018-07-05 Samsung Electronics Co., Ltd. Robot and electronic device for performing hand-eye calibration
US20180243911A1 (en) 2014-11-21 2018-08-30 Seiko Epson Corporation Robot and robot system

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002307346A (ja) * 2001-04-18 2002-10-23 Mitsubishi Electric Corp ロボットの視覚座標校正方法および装置
US9188973B2 (en) * 2011-07-08 2015-11-17 Restoration Robotics, Inc. Calibration and transformation of a camera system's coordinate system
BR112015007050A2 (pt) * 2012-10-05 2017-07-04 Beckman Coulter Inc sistema e método para autoalinhamento baseado em câmera
US9457470B2 (en) * 2013-04-05 2016-10-04 Abb Technology Ltd Robot system and method for calibration
JP2016221645A (ja) * 2015-06-02 2016-12-28 セイコーエプソン株式会社 ロボット、ロボット制御装置およびロボットシステム
US10551821B2 (en) * 2016-06-30 2020-02-04 Seiko Epson Corporation Robot, robot control apparatus and robot system
JP6527178B2 (ja) * 2017-01-12 2019-06-05 ファナック株式会社 視覚センサのキャリブレーション装置、方法及びプログラム
EP3602214B1 (en) * 2017-03-27 2022-01-26 ABB Schweiz AG Method and apparatus for estimating system error of commissioning tool of industrial robot
CN107053216A (zh) * 2017-04-25 2017-08-18 苏州蓝斯视觉系统股份有限公司 机器人和末端执行器的自动标定方法及系统

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180243911A1 (en) 2014-11-21 2018-08-30 Seiko Epson Corporation Robot and robot system
CN108122257A (zh) 2016-11-28 2018-06-05 沈阳新松机器人自动化股份有限公司 一种机器人手眼标定方法及装置
US20180186004A1 (en) 2017-01-04 2018-07-05 Samsung Electronics Co., Ltd. Robot and electronic device for performing hand-eye calibration

Also Published As

Publication number Publication date
JP2022506099A (ja) 2022-01-17
US20200139550A1 (en) 2020-05-07
DE112019005484T5 (de) 2021-08-19
CN113195171A (zh) 2021-07-30
CN113195171B (zh) 2024-03-08
US11065768B2 (en) 2021-07-20
WO2020089839A1 (en) 2020-05-07

Similar Documents

Publication Publication Date Title
JP7214861B2 (ja) ツールオフセットを有するカメラ-ロボットシステムの自動較正
JP6966582B2 (ja) ロボットモーション用のビジョンシステムの自動ハンドアイ校正のためのシステム及び方法
JP7237483B2 (ja) ロボットシステムの制御方法、制御プログラム、記録媒体、制御装置、ロボットシステム、物品の製造方法
US10618166B2 (en) Teaching position correction device and teaching position correction method
JP6415190B2 (ja) ロボット装置、ロボット制御プログラム、記録媒体、およびロボット装置の制御方法
JP6611888B2 (ja) ロボット装置、ロボット装置の制御方法、プログラムおよび記録媒体
JP7027299B2 (ja) ビジョンベース操作システムのキャリブレーション及びオペレーション
US20200298411A1 (en) Method for the orientation of an industrial robot, and industrial robot
EP3542969B1 (en) Working-position correcting method and working robot
US10889003B2 (en) Robot system, robot controller, and method for controlling robot
CN111278608B (zh) 用于3d视觉机器人系统的校准物品
CN106003021A (zh) 机器人、机器人控制装置以及机器人系统
JP5618770B2 (ja) ロボットの校正装置および校正方法
JP6900290B2 (ja) ロボットシステム
US7551979B2 (en) Robot calibration system and method
JP5450242B2 (ja) マニピュレータのキャリブレーション方法及びロボット制御システム
EP3411194A1 (en) Robot system calibration
CN107053216A (zh) 机器人和末端执行器的自动标定方法及系统
CN115519536A (zh) 用于3d眼手协调的误差校正和补偿的系统和方法
CN111344119B (zh) 用于机器人的装置和方法
Fontana et al. Unconventional calibration strategies for micromanipulation work-cells
JP5574805B2 (ja) 視覚センサを有するマニピュレータのセンサキャリブレーション方法及びロボット制御システム
JP4212783B2 (ja) ロボット座標校正システム
WO2022195944A1 (ja) ロボットシステム、およびロボットシステムの制御方法
Joochim et al. The 9 points calibration using SCARA robot

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210624

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220726

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221020

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221220

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230118

R150 Certificate of patent or registration of utility model

Ref document number: 7214861

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150