JP6017213B2 - 光学式センサ付きロボットのキャリブレーション方法 - Google Patents

光学式センサ付きロボットのキャリブレーション方法 Download PDF

Info

Publication number
JP6017213B2
JP6017213B2 JP2012161745A JP2012161745A JP6017213B2 JP 6017213 B2 JP6017213 B2 JP 6017213B2 JP 2012161745 A JP2012161745 A JP 2012161745A JP 2012161745 A JP2012161745 A JP 2012161745A JP 6017213 B2 JP6017213 B2 JP 6017213B2
Authority
JP
Japan
Prior art keywords
robot
calibration target
tool
vertex
optical sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012161745A
Other languages
English (en)
Other versions
JP2014018932A (ja
Inventor
陽 岡本
陽 岡本
正俊 飛田
正俊 飛田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kobelco Construction Machinery Co Ltd
Kobe Steel Ltd
Original Assignee
Kobelco Construction Machinery Co Ltd
Kobe Steel Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kobelco Construction Machinery Co Ltd, Kobe Steel Ltd filed Critical Kobelco Construction Machinery Co Ltd
Priority to JP2012161745A priority Critical patent/JP6017213B2/ja
Publication of JP2014018932A publication Critical patent/JP2014018932A/ja
Application granted granted Critical
Publication of JP6017213B2 publication Critical patent/JP6017213B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Manipulator (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

本発明は、たとえば溶接に用いられる多関節ロボットの制御に関し、特に、ツール(溶接トーチ)付近に搭載した光学式センサにより部材の溶接線を検出してこの溶接線に倣いながら溶接する光学式センサ付きロボットにおいて座標変換マトリクスを求めるキャリブレーションに関する。
たとえば、多関節ロボットを用いて倣い溶接を行なう場合、ロボットアームにより溶接トーチを移動させるとともに、溶接トーチに光学式センサ(レーザセンサ)を取り付けておいて光学式センサにより検出された溶接線に倣って溶接トーチを移動させる。
このようなロボットを用いた溶接装置は、ロボットアームによって移動される溶接トーチ、溶接トーチの先端部において母材に向け送給される溶接ワイヤ、溶接トーチに取り付けて設けられたレーザセンサ、ロボットアーム、エンコーダなどを備えた溶接制御部、レーザセンサの検出結果を加工して出力するセンサコントローラ、および、溶接制御部を制御するコントローラなどを備えて構成される。
このような溶接装置においては、レーザセンサを溶接トーチに取り付けて設けているので、レーザセンサ用としての特別の駆動機構は不要となり、簡素な構成によってアーク溶接の倣い制御を行うことができる。その一方で、溶接線上の目標点の位置をセンサ座標上からロボット座標上へと座標変換しなければならない。このとき溶接トーチとレーザセンサとの幾何的な関係から決定される変換マトリクス(変換行列)が必要となるが、この変換マトリクスを求める操作をキャリブレーションと呼んでいる。
特許第3000162号公報(特許文献1)は、このようなキャリブレーションを実行するアーク溶接装置を開示する。このアーク溶接装置は、溶接線上に基準点Pを設定し、これを溶接トーチの先端部で教示してロボット座標上の基準点Pの位置Aを検出して、レーザセンサからレーザシート光(スリット光、光切断線)を照射して基準点Pを検出してそのセンサ座標上の位置Siを検出するとともに、そのときの溶接トーチの先端部の位置Riをロボット座標上で検出して、位置A、位置Si、位置Riに基づいて変換マトリクスCを算出する。この変換マトリクスCを用いて、センサ座標からロボット座標への座標変換を行い、これによって倣い制御を行う。
このアーク溶接装置によると、センサ座標からロボット座標への座標変換を行うための両者の相対位置関係を随時かつ容易に求めることができ、これによって常に高精度な倣い制御をすることが可能となる。
特許第3000162号公報(特開平10−085937号公報)
上述した特許文献1を含めてキャリブレーション方法においては、レーザシート光の3次元空間上の1点への位置決め精度が、キャリブレーション精度に大きく影響する。キャリブレーション後のアプリケーションによって要求精度は異なるが、たとえば溶接ロボットの溶接倣い用センサの場合または溶接ワーク位置ずれ検出用センサの場合には、キャリブレーション精度は0.1mm程度の精度が要求される。このため、レーザシート光の位置決め精度も0.1mm程度の精度が必要となる。
ところで、レーザシート光を0.1mm精度で位置決めするには、以下の問題がある。
・レーザシート光はシート状の光(ライン状の光)とはいえ、0.2〜0.3mm程度の幅があるので、0.1mm程度の精度で、オペレータが目視で位置決めすることは困難である。
・不可視光レーザの場合は目視することができず、オペレータが目視で位置決めすることは不可能である。
・レーザパワーが強い場合には安全上レーザ保護めがねを装着して位置決めすることになる。また、不可視光レーザの場合にはレーザ光を可視化するスコープなどを装着して位置決めすることになる。このようなレーザ保護めがねまたはスコープを装着すると、レーザ光が視認しづらく、オペレータが目視で位置決めすることは困難である。
以上のことから、オペレータが目視で位置決めすることは非常に難しく、自動化が望まれる。
しかしながら、特許文献1に開示されたアーク溶接装置においてキャリブレーションに用いられる基準点Pは、母材にマーキングしているだけであり、基準点P付近に形状変化があるわけではないので形状を計測する光切断法を適用して、基準点Pを自動で位置決めすることができない。
本発明は、上述の問題点に鑑みてなされたものであり、シート光を照射して形状計測する光学式センサをロボットのツール先端付近に取り付けた、光学式センサ付きロボットシステムにおいて、精度高くキャリブレーションを行うことのできる方法を提供することを目的とする。
上記課題を解決するため、本発明に係る光学式センサ付きロボットのキャリブレーション方法は、以下の技術的手段を講じている。
即ち、本発明のある局面に係る光学式センサ付きロボットのキャリブレーション方法は、
シート光を照射して形状計測する光学式センサをロボットのツール先端付近に取り付けた、光学式センサ付きロボットシステムにて、複数の稜線が1の頂点で交わる立体形状で構成されるキャリブレーションターゲットを対象にして、以下に示すステップを実施することで、前記ロボットのキャリブレーションを行うことを特徴とする。
・第1のステップ; 前記キャリブレーションターゲット上を前記シート光が移動するようにロボットのツール姿勢を変化させずにツール先端位置を直線で動かしながら、前記キャリブレーションターゲットの頂点付近の形状を計測し、順に取得したキャリブレーションターゲットの立体形状に起因する屈曲点変化に基づいて、シート光が前記頂点位置に照射されたときの、センサ座標におけるキャリブレーションターゲットの頂点位置を算出するとともに、そのときのロボット座標におけるツール位置を算出する。
・第2のステップ; 前記キャリブレーションターゲットの頂点位置が異なる値となるよ
うに検出位置を変えて前記第1のステップを少なくとも3回行う。
・第3のステップ; 前記第1のステップおよび前記第2のステップにて得られた、前記キャリブレーションターゲットの頂点位置が異なる値となった少なくとも3つ以上のデータセットを基に、センサとツールとの位置関係を算出する。
また、本発明の別の局面に係る光学式センサ付きロボットのキャリブレーション方法は、シート光を照射して形状計測する光学式センサがロボットのツール軸周りに回転可能となるように回転軸に取り付けられ、前記回転軸はツール付近に固定されて取り付けられた、光学式センサ付きロボットシステムにて、複数の稜線が1の頂点で交わる立体形状で構成されるキャリブレーションターゲットを対象にして、以下に示すステップを実施することで、前記ロボットのキャリブレーションを行うことを特徴とする。
・第1のステップ; 回転軸角度を所定の角度にセットし、且つ前記キャリブレーションターゲット上を前記シート光が移動するようにロボットのツール姿勢を変化させずにツール先端位置を直線で動かしながら、キャリブレーションターゲット頂点付近の形状を計測し、順に取得したキャリブレーションターゲットの立体形状に起因する屈曲点変化に基づいて、シート光が前記頂点位置に照射されたときの、センサ座標におけるキャリブレーションターゲットの頂点位置を算出するとともに、そのときのロボット座標におけるツール位置を算出する。
・第2のステップ; 前記キャリブレーションターゲットの頂点位置が異なる値となるように検出位置を変えて前記第1のステップを少なくとも3回行う。
・第3のステップ; 回転軸の回転角度を変えて、前記第1のステップおよび前記第2のステップを少なくとも3回行う。
・第4のステップ; 前記第1のステップ〜前記第3のステップにて得られた、前記キャリブレーションターゲットの頂点位置が異なる値となった少なくとも9つ以上のデータセットを基に、センサとツールとの位置関係を算出する。
好ましくは、前記第1のステップでは、前記立体形状の頂点から前記立体形状の辺に沿って少しずらした位置を走査開始位置とし、前記頂点を通り越した位置を走査終了位置として設定した上で前記キャリブレーションターゲット上を前記シート光が移動するようにロボットのツール姿勢を変化させずにツール先端位置を直線で動かしながら、前記キャリブレーションターゲットの頂点付近の形状を計測し、順に取得したキャリブレーションターゲットの立体形状に起因する屈曲点変化に基づいて、複数の直線を算出し、前記算出した複数の直線に基づいて、シート光が前記頂点位置に照射されたときの、センサ座標におけるキャリブレーションターゲットの頂点位置を算出するとともに、前記頂点位置を算出した時点におけるロボット座標におけるツール位置を算出するとよい。
好ましくは、前記キャリブレーションターゲットが、三角錐で構成することができる。
さらに好ましくは、前記キャリブレーションターゲットが、上に凸の三角錐で構成することができる。
本発明に係る光学式センサ付きロボットのキャリブレーション方法を用いることにより、シート光を照射して形状計測する光学式センサをロボットのツール先端付近に取り付けた、光学式センサ付きロボットシステムにおいて、精度高くキャリブレーションを行うことができる。
本発明の第1の実施の形態に係るキャリブレーション方法が適用される光学式センサ付きロボットの全体構成を示す概略図である。 本発明の第1の実施の形態に係るキャリブレーション方法のフローチャートである。 キャリブレーションターゲットの斜視図である。 キャリブレーションターゲット(その1)を示す上面図および側面図である。 キャリブレーションターゲット(その2)を示す上面図および側面図である。 キャリブレーションターゲット(その3)を示す上面図および側面図である。 キャリブレーションターゲット(その4)を示す上面図および側面図である。 図2の三角錐頂点検出ステップを説明するための図である。 三角錐頂点にシート光を照射したときの三角錐頂点座標(センサ座標)を算出する手順を説明するための図である。 三角錐頂点にシート光を照射したときのツール先端位置を算出する手順を説明するための図である。 三角錐頂点位置が異なる値になるように計測位置を変更する手順を説明するための図である。 本発明の第2の実施の形態に係るキャリブレーション方法が適用される光学式センサ付きロボットの全体構成を示す概略図である。 本発明の第2の実施の形態に係るキャリブレーション方法のフローチャートである。 キャリブレーションターゲットと回転軸の角度とを示す斜視図である。 キャリブレーションターゲットと回転軸の角度との関係を説明するための図である。
以下、本発明の実施の形態に係る光学式センサ付きロボットのキャリブレーション方法を、図面に基づき詳しく説明する。なお、以下の説明では、同一の部品には同一の符号を付してある。それらの名称および機能も同じである。したがって、それらについての詳細な説明は繰り返さない。
<第1の実施の形態>
まず、第1の実施の形態に係るキャリブレーション方法が適用される光学式センサ付きロボット(以下、溶接ロボットまたはロボットと記載する場合がある)の概要について説明する。図1(A)にこの溶接ロボット100の全体図を、図1(B)に溶接トーチ先端部の拡大図を、それぞれ示す。
図1(A)および図1(B)に示すように、この溶接ロボット100は、ロボットアームによって移動される溶接トーチ140、溶接トーチ140の先端部において母材に向け送給される溶接ワイヤ(図示しない)、溶接トーチ140に取り付けて設けられた光学式センサ(レーザセンサ)130、光学式センサ130の検出結果を加工してセンサ座標をロボットコントローラ120へ出力するセンサコントローラ110、および、この溶接ロ
ボット100を制御するロボットコントローラ120などを備えて構成される。ロボットコントローラ120は、後述するセンサ座標からロボット座標へ座標変換する座標変換部122および倣い制御部124とを備えている。
図1(B)に示すように、溶接ロボット100のツール(溶接トーチ140)付近に光学式センサ130が搭載されている。本実施の形態においては、本発明に係るキャリブレーション方法が適用される光学式センサ付きロボットは、溶接ロボットとして説明するが、溶接ロボットに限定する必要はなく、塗装ロボットまたはハンドリングロボットなどであっても構わない。
光学式センサ130は、レーザ光などのシート光を、対象物である溶接部材に照射し、その反射光をCCD受光素子などで撮像することにより、溶接部材の2次元断面形状を測定する。この測定原理は、一般には、光切断法と呼ばれている。なお、別の方法として、レーザスポット光をセンサ内部のスキャニング機構によりスキャニングして、2次元断面形状を測定するセンサでも構わない。
光学式センサ130は、センサコントローラ110からの指令により、対象物の形状を測定し、形状解析により溶接線位置を検出し、検出された溶接線位置(センサ座標)を、ロボットコントローラ120へ出力する。
次に、座標系について説明する。光学式センサ130は、光学式センサ130に固定された座標系を持っており、これをセンサ座標と呼ぶ。一方、溶接ロボット100は、自分自身の座標系を2つ持っており、一つ目の座標系は、地面に固定された座標系であって、これをロボット座標と呼ぶ。溶接ロボット100は、ツールである溶接トーチ140の位置と姿勢とを変化させながら溶接作業を行う。二つ目の座標系は、このツールに張り付いた座標系であって、これをツール座標と呼ぶ。溶接ロボット100は、ツールの位置姿勢を制御しているので、ロボット座標からツール座標への変換パラメータ(変換マトリクス)は既知である。
実際の倣い溶接作業するときには、
(手順1)光学式センサ130で溶接部材の溶接線を検出する。このとき、センサ座標の溶接線位置が検出される。これをPと記載する。
(手順2)上記(手順1)で検出した位置を、ツール座標に変換して、さらにロボット座標へ変換して、ロボット座標の溶接線位置が算出される。これをPと記載する。このときの変換は下記の式(1)のように表現できる。
(手順3)上記(手順2)で算出されたロボット座標の溶接線位置Pを使って、溶接ロボット100は溶接線に倣って動作するように制御される。
これを実現するためにはロボット設置時または溶接前に、センサ座標とツール座標との位置関係(センサ座標からツール座標への座標変換行列Σ)を算出する必要がある。これを、センサとロボットのキャリブレーションと呼ぶ。
次に、上記したようなキャリブレーションの方法について説明する。
第1の実施の形態に係るキャリブレーション方法においては、複数の稜線が1の頂点で交わる立体形状で構成されるキャリブレーションターゲットを用いる。このキャリブレー
ションターゲットの詳細については後述する。なお、このキャリブレーション方法の説明においては、キャリブレーションターゲットは三角錐とする。
図2に示すように、このキャリブレーション方法は、ステップ(以下、ステップをSと記載する)100にて、ロボットコントローラ120は、キャリブレーションターゲットである三角錐の頂点位置をツール先端で指し示す。これにより、ロボット座標での三角錐頂点座標を取得することができる。このように、三角錐の頂点位置はロボット座標で既知となる。
S110にて、ロボットコントローラ120は、変数iに1を代入して、S120にて三角錐の頂点位置を算出する。このS120において、三角錐の頂点に光学式センサ130からシート光を照射したときの三角錐頂点座標(センサ座標)=()を算出して、三角錐の頂点に光学式センサ130からシート光を照射したときのツール先端位置=(i,,)を算出して、ある位置における、三角錐頂点座標(センサ座標)=()と、ツール座標からロボット座標への座標変換行列Σ(i)とを取得する。このS120における処理の詳細については後述する。
S130にて、ロボットコントローラ120は、変数iが3であるか否かを判定する。変数iが3であると判定されると(S120にてYES)処理はS150へ移され、変数iが3であると判定されないと(S120にてNO)処理はS140へ移される。
S140にて、ロボットコントローラ120は、変数iに1を加算して、S120の処理を行う。すなわち、三角錐の頂点位置を算出処理を3回繰り返す。このように三角錐の頂点位置を算出処理を(少なくとも)3回行なうのは、シート光の平面を特定するためには最低限3点が必要だからである。3回以上行うと、最小二乗効果で計測ばらつきが低減され、計測精度が向上する。
三角錐の頂点位置を算出処理を3回繰り返すと(S120にてYES)、S150にて、ロボットコントローラ120は、キャリブレーション演算を行う。このS150における処理の詳細については後述する。
上述したキャリブレーション方法を行う場合に用いられるキャリブレーションターゲットについて説明する。
キャリブレーションターゲット150の一例である三角錐の斜視図を図3に、その上面図および側面図を図4にそれぞれ示す。
三角錐の頂点角度θは、90度以上開いている。三角錐の頂点角度θについては90°(いわゆる立方体や直方体の角)でも構わないが、90°以上開いていた方が、頂点上部付近からシート光を照射したときに、正反射に近くなり、形状計測しやすい。このため、三角錐の頂点角度θは、90°〜150°程度開いていることが好ましい。
三角錐の表面はレーザ光を散乱しやすいような色を塗布しておくことが好ましい。三角錐の頂点位置を、ツール先端で指し示せば、ロボット座標での三角錐頂点座標を取得することができる
キャリブレーションターゲットとしては、このような上に凸の三角錐以外にも、図5に示すような下に凸の三角錐であっても構わない。さらに、図6に示すような上に凸の四角錐であっても構わないし、図7に示すような下に凸の四角錐であっても構わない。ただし、下に凸の場合は、レーザシート光を頂点付近に照射したとき、表面状態によっては多重反射が発生し、安定してレーザを検出できない場合も想定されるので、上に凸の形状の方が好ましい。
以下に、図2のS120における三角錐の頂点位置の算出処理について、図8を参照して詳しく説明する。
図8(A)に示すように、まず、事前準備として、三角錐頂点から三角錐の辺に沿って少しずらした位置を、「走査開始位置」として設定する(このときの変数Jを1とする)。この位置は、三角錐を形状計測したときの屈曲点が1個になるような位置である。
そして、図8(D)に示すように、三角錐頂点を通り越し、屈曲点が2個になる位置を、「走査終了位置」として設定する(このときの変数jをjmax(図8(D)ではjm
ax=4)とする)。
次に下記のS121〜S125を実行する。
S121にて、ツール先端位置を「走査開始位置」へ移動させる。このとき、図8(A)に示すように、変数jは1である。
S122にて、光学式センサ130により三角錐の形状を計測し、屈曲点ij=(ijij)を検出する。屈曲点は1個の場合(図8(B)参照)と2個の場合(図8(C)参照)とが存在する。このときのツール先端位置ij=(ijijij)を登録する。
S123にて、「走査終了位置」に向かって、ツール先端位置をツール姿勢を変えず(姿勢パラメータは既知)に微小量(たとえば約0.2mm程度)だけ直線移動させる。
S124にて、ツール先端位置が「走査終了位置」であるか否かを判定する。ツール先端位置が「走査終了位置」であると判定されないと、変数jに1を加算してS122へ戻る。ツール先端位置が「走査終了位置」であると判定されると、S125へ移る。
S125にて、S122の処理を3回繰り返すことにより、以下の式(2)に示すように、三角錐形状の屈曲点ij=(ijij)およびそのときのツール先端位置ij=(ijijij)が取得されているので、下記に示す「三角錐頂点にシート光照射したときの三角錐頂点座標(センサ座標)=()の算出」と「三角錐頂点にシート光照射したときのツール先端位置=()の算出」を行う。
図9を参照して、三角錐頂点にシート光を照射したときの三角錐頂点座標(センサ座標)=()の算出手順を詳しく説明する。
三角錐形状の屈曲点のデータセットi1=(i1i1)、…、i(jmax) =(i(jmax)i(jmax))は、図9(A)に示すように、3直線にグルーピングされるので、データ点を使って直線フィッティングすることで、直線1、直線2、直線3の3本の直線を算出する(図9(B))。
次にこれらの3直線の交点を算出する。ただし、キャリブレーションターゲットである三角錐の表面凹凸、レーザシート光のリップルによる明暗変化などの計測ばらつきなどの影響で現実には、これらの3直線が1点で交わらない。そこで、直線1と直線2との交点12を算出し、直線2と直線3との交点23を算出し、直線3と直線1との交点31を算出する。最後に、交点12、交点23、交点31の重心位置を算出し、これを=()として算出する(図9(C))。
図10を参照して、三角錐頂点にシート光を照射したときのツール先端位置=()の算出手順を詳しく説明する。
S125にて取得されたデータセットを、横軸に三角錐形状のセンサ座標Ys、縦軸にツール先端位置のロボット座標Xrをとると、図10(A)に示すようになる。すると、上述した「三角錐頂点にシート光を照射したときの三角錐頂点座標(センサ座標)=()の算出手順」と同じように、3直線にグルーピングできるので、3直線の交点P0を計算する。このP0のXr座標値が、「三角錐頂点にシート光を照射し
たときのツール先端位置=()」のとなる(図10(C))。
ツール先端位置の移動軌跡は直線であるので、が算出できれば、他軸のも算出できる。これにより、「三角錐頂点にシート光を照射したときのツール先端位置=()」が算出できる。ツール姿勢(αβγ)が固定であり、かつ、既知であるので、ある位置における、ツール座標からロボット座標への座標変換行列であるΣ(i)が算出できる。
以上の演算により、光学式センサ130により、ある位置における=()とΣ(i)とが取得できた。
図11に示すように、この演算処理を異なる計測位置で少なくとも3回行う。図2を参照して説明したように、このように三角錐の頂点位置を算出処理を(少なくとも)3回行なうのは、シート光の平面を特定するためには最低限3点が必要だからである。3回以上行うと、最小二乗効果で計測ばらつきが低減され、計測精度が向上する。
このように上述した演算処理を3回行なうと、以下の式(3)に示すデータセットが取得できる。
このデータセットと既知であるPとをあわせて、「回転軸がない場合のキャリブレーション方法」に示す手順で、センサとロボットとの位置関係(センサ座標からツール座標への座標変換行列Σ)を導出することができる。
光学式センサ130により計測されたセンサ座標での座標値は、式(1)にてロボット座標の座標値へ座標変換される。
キャリブレーション時において取得された計測データは、上述したように、キャリブレーションターゲットである三角錐の計測点を、光学式センサ130により計測したときのセンサ座標値=()と、キャリブレーションターゲットである三角錐の計測点を、ロボット先端でタッチしたときのロボット先端座標値Pとである。
ここで、センサ座標からツール座標への座標変換行列Σは、以下の式(4)で表現される。式(4)に示すように、この座標変換行列Σは、位置XYZ、姿勢αβγの6個パラメータで構成される4×4行列である。
ここで、Pの位置を光学式センサ130により計測し、そのときのセンサの計測点=()とツール位置Σ(i)とが取得できている。これを異なる計測位置で、少なくとも3回((imax−1)回とする)実行すると、以下の式(5)で表される、i=0、…、imaxまでのデータセットが取得できる。
次に、キャリブレーションパラメータであるΣ(←(xα β γ)の6個のパラメータから構成される)を導出する方法を以下に詳しく説明する。
算出する6個のパラメータp=(xα β γ−1の微小変化Δeを考える。微小変化Δeは、Δe=JΔpで与えられ、式(1)の右辺のXYZ3要素をf,f,fとし、光学式センサ130により計測したk個目の点=()は、ロボット座標値=()に変換できるので、式(1)は、以下の式(6)および式(7)で表される。
次に、以下の手順で、pからスタートして反復計算によりpを算出する。まず、
STEP1:収束条件εと初期値p=pとを与える。初期値pは以下の式(8)で表される。
STEP2:6個のパラメータp=(xα β γ−1の微小変化ΔeをΔe=JΔpにて計算し、このΔeが収束条件ε以下の場合には、収束計算を終わる。
ここで、xおよびxは、以下の式(9)で与えられる。
STEP3:STEP2において計算した微小変化Δeを基に、Δp=-(JJ)−1Δe・pを計算する。
STEP4:Δp=p+Δpとし、STEP2へ戻る。
このように反復計算を行うことにより、6個のパラメータp=(xα β γ−1が算出でき、その結果、センサ座標からツール座標への座標変換行列Σを求めることができる。
以上のようにして、第1の実施の形態に係るキャリブレーション方法によると、複数の稜線が1の頂点で交わる立体形状である三角錐形状を備えたキャリブレーションターゲットを対象にして、ロボットのツール姿勢を変化させずにツール先端位置を直線で動かしながら、キャリブレーションターゲットの頂点付近の形状を計測し、順に取得したキャリブレーションターゲットの立体形状に起因する屈曲点変化に基づいて、シート光が頂点位置に照射されたときの、センサ座標におけるキャリブレーションターゲットの頂点位置を算出するとともに、そのときのロボット座標におけるツール位置を算出する第1のステップ、キャリブレーションターゲットの頂点位置が異なる値となるように検出位置を変えて第1のステップを少なくとも3回行う第2のステップ、第1のステップおよび第2のステップにて集計したデータを演算して、センサとツールとの位置関係を算出する第3のステップを実行した。このようにキャリブレーションすることにより、オペレータが目視しながら手動でシート光を位置決めする必要がなく、自動でキャリブレーションすることができる。
特に、三角錐は、最小稜線で構成された幾何学的形状で3面で構成されるので、3面の交点として1点が形成され、キャリブレーションターゲットとしても精度が良く、検出も最小限の3回の検出で済むので効率が良い。その結果、シート光を照射して形状計測する光学式センサをロボットのツール先端付近に取り付けた、光学式センサ付きロボットシステムにおいて、精度高くキャリブレーションを行い、センサ座標からロボット座標への変換行列(式(1)におけるΣ)を的確に算出することができ、倣い溶接の精度を高めることができる。
<第2の実施の形態>
以下、本発明の第2の実施の形態に係る光学式センサ付きロボットのキャリブレーション方法について説明する。なお、第2の実施の形態に係るキャリブレーション方法およびそのキャリブレーション方法が適用される光学式センサ付きロボット200において、上述した第1の実施の形態に係る光学式センサ付きロボット100と同じ構成については同じ参照符号を付してある。それらの機能も同じである。そのため、それらについての詳細な説明は、ここでは繰り返さない。
第2の実施の形態に係るキャリブレーション方法が適用される光学式センサ付きロボット(以下、溶接ロボットまたはロボットと記載する場合がある)の概要について説明する。図12(A)にこの溶接ロボット200の全体図を、図12(B)に溶接トーチ先端部
の拡大図を、それぞれ示す。
図12(A)および図12(B)に示すように、この溶接ロボット200は、上述した溶接ロボット100の構成に加えて、溶接トーチ140後方に取り付けられたサーボモータ250を備える。このサーボモータ250の回転軸に光学式センサ130が取り付けられている。ロボットコントローラ220がサーボモータ250を制御し、光学式センサ130を溶接トーチ140周りに回転させ、溶接トーチ140周りに形状を計測することができる。これにより、光学式センサ130を溶接進行方向に向けることができ、溶接するときのロボット姿勢の自由度が広がる利点を備える。
このような構成を備える溶接ロボット200の座標系としては、第1の実施の形態において説明したロボット座標、ツール座標およびセンサ座標に加えて、サーボモータ250の回転軸に張り付いた回転軸座標が存在する。
なお、ロボットコントローラ220は、ハードウェア構成としてはロボットコントローラ120と同様であるが、以下に説明するようにソフトウェア構成が異なるので、座標変換部222および倣い制御部224とともに別の参照符号を付している。
上述したキャリブレーションターゲット150を用いたキャリブレーション方法について、図2に対応する図13を参照して説明する。なお、図2と同じステップについては同じステップ番号を付してあり、その処理も同じである。そのため、ここでは、異なるステップのみについて説明する。
S200にて、ロボットコントローラ220は、与えられた回転軸θに基づいてサーボモータ250を回転させて、光学式センサ130を回転させる。
S210にて、ロボットコントローラ220は、設定された全ての回転角度での処理が終了したか否かを判定する。
全ての回転角度での処理が終了したと判定されると(S210にてYES)処理はS150へ移され、全ての回転角度での処理が終了したと判定されないと(S210にてNO)処理はS220へ移される。
S220にて、ロボットコントローラ220は、次の回転角度を取得する。なお、設定されている回転角度θは、θ1として−120°、θ2として0°、θ3として+120°である。その後、処理はS200へ移される。
このような処理についてさらに詳しく説明する。
光学式センサ130が図14に示す状態であるときの回転角度θを0°とすると、回転角度θ1(−120°)、回転角度θ2(0°)、回転角度θ3(+120°)3つの回転角度で、図13のS110〜S130の三角錐頂点の位置算出処理を行う。具体的には以下の手順で行う。
(手順A)図15(A)に示すように、サーボモータ250の回転軸を回転させて、回転角度θ1(−120°)に設定する。A面とC面との頂点から、B面に向かう方向に走査するように、三角錐頂点の位置算出処理を実行する。この処理を少なくとも3回実行する(図15(A)の丸数字1〜3)。
(手順B)図15(B)に示すように、サーボモータ250の回転軸を回転させて、回転角度θ2(0°)に設定する。B面とC面との頂点から、A面に向かう方向に走査するように、三角錐頂点の位置算出処理を実行する。この処理を少なくとも3回実行する(図15(B)の丸数字4〜6)。
(手順C)図15(C)に示すように、サーボモータ250の回転軸を回転させて、回転角度θ2(+120°)に設定する。A面とB面との頂点から、C面に向かう方向に走査するように、三角錐頂点の位置算出処理を実行する。この処理を少なくとも3回実行する(図15(C)の丸数字7〜9)。
これらの三角錐頂点の位置算出処理により、少なくとも9回のデータセットを取得することができる(後述の式(13)で表されるデータセット)。
このデータセットと既知であるPとをあわせて、「回転軸がある場合のキャリブレーション方法」に示す手順で、センサとロボットとの位置関係(センサ座標からツール座標への座標変換行列Σ)を導出することができる。
光学式センサ130により計測されたセンサ座標での座標値は、以下の式(10)にてロボット座標の座標値へ座標変換される。
ここで、既知であるのは、以下の2つである。
Σ:ツール座標からロボット座標への座標変換行列
θ :サーボモータ回転角度
算出するのは、以下の2つである。
Σ:回転軸座標からツール座標への座標変換行列
Σ:センサ座標から回転軸座標への座標変換行列
ここで、 Σおよび Σは、以下の式(11)および式(12)で表される。
上述したように、Pの位置を光学式センサ130により計測して、そのときの光学式センサ130の計測点=()と、回転軸角度θ(i)と、ツール位置Σ(i)とが取得できている。これを異なる計測位置で、少なくとも9回以上((imax−1)回とする)行うことにより、さらに異なる角度θで行うことにより、以下の式(13)に示すデータセットが取得できる。
次に、キャリブレーションパラメータであるΣΣ(←(x α β γ α β γ)の10個のパラメータから構成される)を導出する方法を以下に詳しく説明する。
算出する10個のパラメータp=(x α β γ α
β γ−1の微小変化Δeを考える。微小変化Δeは、Δe=JΔpで与えられ、式(10)の右辺のXYZ3要素をf,f,fとし、光学式センサ130により計測したk個目の点=()は、回転角度θを使って、ロボット座標値=()に変換できるので、式(10)は、以下の式(14)および式(15)で表される。
次に、以下の手順で、pからスタートして反復計算によりpを算出する。まず、
STEP1:収束条件εと初期値p=pとを与える。初期値pは以下の式(16)で表される。
STEP2:10個のパラメータp=(x α β γ α β γ−1の微小変化ΔeをΔe=JΔpにて計算し、このΔeが収束条件ε以下の場合には、収束計算を終わる。
ここで、xおよびxは、以下の式(17)で与えられる。
STEP3:STEP2において計算した微小変化Δeを基に、Δp=−(JJ)−1Δe・pを計算する。
STEP4:Δp=p+Δpとし、STEP2へ戻る。
このように反復計算を行うことにより、10個のパラメータp=(x α β γ α β γ−1が算出でき、その結果、センサ座標からツール座標への座標変換行列ΣおよびΣを求めることができる。
以上のようにして、第2の実施の形態に係るキャリブレーション方法によると、第1の実施の形態において光学式センサがサーボモータにより回転されるために回転軸座標を有する場合であっても、オペレータが目視しながら手動でシート光を位置決めする必要がなく、自動でキャリブレーションすることができる。その結果、シート光を照射して形状計測する光学式センサをロボットのツール先端付近に回転可能に取り付けた、光学式センサ付きロボットシステムにおいて、精度高くキャリブレーションを行い、センサ座標からロボット座標への変換行列(式(10)におけるΣ)を的確に算出することができ、倣い溶接の精度を高めることができる。
なお、今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は上記した説明ではなくて特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。
100 光学式センサ付きロボット(溶接ロボット)
110 センサコントローラ
120、220 ロボットコントローラ
122、222 座標変換部
124、224 倣い制御部
130 光学式センサ
140 溶接トーチ
250 サーボモータ

Claims (5)

  1. シート光を照射して形状計測する光学式センサをロボットのツール先端付近に取り付けた、光学式センサ付きロボットシステムにて、複数の稜線が1の頂点で交わる立体形状で構成されるキャリブレーションターゲットを対象にして、以下に示すステップを実施することで、前記ロボットのキャリブレーションを行うことを特徴とする光学式センサ付きロボットのキャリブレーション方法。
    ・第1のステップ; 前記キャリブレーションターゲット上を前記シート光が移動するようにロボットのツール姿勢を変化させずにツール先端位置を直線で動かしながら、前記キャリブレーションターゲットの頂点付近の形状を計測し、順に取得したキャリブレーションターゲットの立体形状に起因する屈曲点変化に基づいて、シート光が前記頂点位置に照射されたときの、センサ座標におけるキャリブレーションターゲットの頂点位置を算出するとともに、そのときのロボット座標におけるツール位置を算出する。
    ・第2のステップ; 前記キャリブレーションターゲットの頂点位置が異なる値となるように検出位置を変えて前記第1のステップを少なくとも3回行う。
    ・第3のステップ; 前記第1のステップおよび前記第2のステップにて得られた、前記キャリブレーションターゲットの頂点位置が異なる値となった少なくとも3つ以上のデータセットを基に、センサとツールとの位置関係を算出する。
  2. シート光を照射して形状計測する光学式センサがロボットのツール軸周りに回転可能となるように回転軸に取り付けられ、前記回転軸はツール付近に固定されて取り付けられた、光学式センサ付きロボットシステムにて、複数の稜線が1の頂点で交わる立体形状で構成されるキャリブレーションターゲットを対象にして、以下に示すステップを実施することで、前記ロボットのキャリブレーションを行うことを特徴とする光学式センサ付きロボットのキャリブレーション方法。
    ・第1のステップ; 回転軸角度を所定の角度にセットし、且つ前記キャリブレーションターゲット上を前記シート光が移動するようにロボットのツール姿勢を変化させずにツール先端位置を直線で動かしながら、キャリブレーションターゲット頂点付近の形状を計測し、順に取得したキャリブレーションターゲットの立体形状に起因する屈曲点変化に基づいて、シート光が前記頂点位置に照射されたときの、センサ座標におけるキャリブレーションターゲットの頂点位置を算出するとともに、そのときのロボット座標におけるツール位置を算出する。
    ・第2のステップ; 前記キャリブレーションターゲットの頂点位置が異なる値となるように検出位置を変えて前記第1のステップを少なくとも3回行う。
    ・第3のステップ; 回転軸の回転角度を変えて、前記第1のステップおよび前記第2のステップを少なくとも3回行う。
    ・第4のステップ; 前記第1のステップ〜前記第3のステップにて得られた、前記キャリブレーションターゲットの頂点位置が異なる値となった少なくとも9つ以上のデータセットを基に、センサとツールとの位置関係を算出する。
  3. 前記第1のステップでは、前記立体形状の頂点から前記立体形状の辺に沿って少しずらした位置を走査開始位置とし、前記頂点を通り越した位置を走査終了位置として設定した上で前記キャリブレーションターゲット上を前記シート光が移動するようにロボットのツール姿勢を変化させずにツール先端位置を直線で動かしながら、前記キャリブレーションターゲットの頂点付近の形状を計測し、
    順に取得したキャリブレーションターゲットの立体形状に起因する屈曲点変化に基づいて、複数の直線を算出し、
    前記算出した複数の直線に基づいて、シート光が前記頂点位置に照射されたときの、センサ座標におけるキャリブレーションターゲットの頂点位置を算出するとともに、前記頂点位置を算出した時点におけるロボット座標におけるツール位置を算出する、請求項1または2に記載の光学式センサ付きロボットのキャリブレーション方法。
  4. 前記キャリブレーションターゲットが、三角錐で構成されていることを特徴とする請求項1〜3のいずれかに記載の光学式センサ付きロボットのキャリブレーション方法。
  5. 前記キャリブレーションターゲットが、上に凸の三角錐で構成されていることを特徴とする請求項に記載の光学式センサ付きロボットのキャリブレーション方法。
JP2012161745A 2012-07-20 2012-07-20 光学式センサ付きロボットのキャリブレーション方法 Active JP6017213B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012161745A JP6017213B2 (ja) 2012-07-20 2012-07-20 光学式センサ付きロボットのキャリブレーション方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012161745A JP6017213B2 (ja) 2012-07-20 2012-07-20 光学式センサ付きロボットのキャリブレーション方法

Publications (2)

Publication Number Publication Date
JP2014018932A JP2014018932A (ja) 2014-02-03
JP6017213B2 true JP6017213B2 (ja) 2016-10-26

Family

ID=50194399

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012161745A Active JP6017213B2 (ja) 2012-07-20 2012-07-20 光学式センサ付きロボットのキャリブレーション方法

Country Status (1)

Country Link
JP (1) JP6017213B2 (ja)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106610267B (zh) * 2015-10-27 2019-09-17 柯昆(昆山)自动化有限公司 机器人关节零点自动校准末端执行装置及其方法
JP6472472B2 (ja) * 2017-03-08 2019-02-20 本田技研工業株式会社 位置姿勢調整方法
CN109262659B (zh) * 2018-12-20 2019-04-02 中国铁建重工集团有限公司 一种机械臂关节传感器的零位校准方法和设备
CN110806571B (zh) * 2019-11-09 2023-11-17 北京工业大学 一种多结构光传感器空间姿态标定件及其标定方法
DE112021000503T5 (de) 2020-01-10 2022-11-17 Fanuc Corporation Steuerungssystem
EP3851789B1 (en) * 2020-01-15 2021-12-01 Sick IVP AB Method for calibrating an imaging system with a calibration target object
CN111735390B (zh) * 2020-08-28 2020-12-11 中国计量大学 一种用于线激光传感器的标定块及手眼标定方法
CN112692833B (zh) * 2020-12-31 2022-04-15 广东美的白色家电技术创新中心有限公司 一种标定块、机器人标定方法、标定装置以及存储介质
CN113427160A (zh) * 2021-06-29 2021-09-24 西安交通大学 一种焊接机械臂自适应焊接方法、系统、设备及存储介质
WO2023032054A1 (ja) * 2021-08-31 2023-03-09 株式会社ニコン 移動誤差算出システム、工作機械、算出装置、較正方法、光計測装置
IT202100028412A1 (it) * 2021-11-09 2023-05-09 Marposs Spa Calibro per apparecchiatura di controllo e metodo di messa a punto del calibro
CN117359644B (zh) * 2023-12-04 2024-02-27 四川福莫斯工业技术有限公司 一种基于机器人的点激光发射点位姿标定方法及系统

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63102881A (ja) * 1986-10-17 1988-05-07 株式会社日立製作所 自動作業装置の教示方式
JPH0813433B2 (ja) * 1989-12-22 1996-02-14 株式会社日立製作所 自動加工装置
JPH04100117A (ja) * 1990-06-27 1992-04-02 Yaskawa Electric Corp 視覚センサ付き産業用ロボットにおけるエッジの3次元位置ズレ検出方法
JPH04269194A (ja) * 1991-02-25 1992-09-25 Fujitsu Ltd 平面計測方法
JP3644991B2 (ja) * 1994-11-08 2005-05-11 ファナック株式会社 ロボット−センサシステムにおける座標系結合方法
JP3000162B2 (ja) * 1996-09-09 2000-01-17 川崎重工業株式会社 アーク溶接装置
JP4020994B2 (ja) * 1996-09-24 2007-12-12 ファナック株式会社 ロボットのツール座標系補正設定方法並びに該方法に使用するエンドエフェクタ
JP5164811B2 (ja) * 2008-11-26 2013-03-21 キヤノン株式会社 作業システム及び情報処理方法

Also Published As

Publication number Publication date
JP2014018932A (ja) 2014-02-03

Similar Documents

Publication Publication Date Title
JP6017213B2 (ja) 光学式センサ付きロボットのキャリブレーション方法
US9061421B2 (en) Robotic work object cell calibration method
CN106994684B (zh) 控制机器人工具的方法
EP2002206B1 (en) Apparatus and method of measuring workpieces
EP2140318B1 (en) Apparatus and method for controlling or programming a measurement path
US8401692B2 (en) System and method for tool testing and alignment
US20170016712A1 (en) Position measurement system
US8485017B1 (en) Robotic work object cell calibration system
JP4682947B2 (ja) 三次元形状測定方法、三次元形状測定装置および校正用物体
JP6869159B2 (ja) ロボットシステム
JP6622772B2 (ja) 計測システム
US9669546B2 (en) Robotic work object cell calibration method
JP6603289B2 (ja) ロボット、ロボットシステム、およびロボットの座標系設定方法
CN107234634B (zh) 机器人制造环境中的碰撞防护
US9713869B2 (en) Calibration of robot work paths
TW201616256A (zh) 工具機之虛擬工具機模型之至少一模型參數的決定方法及裝置
KR100644174B1 (ko) 로봇 용접의 보정방법
CN112424564A (zh) 用于生成用于测试测量对象的测试计划的方法和装置、用于测试测量对象的方法和装置以及计算机程序产品
US11828711B2 (en) Method and system for inspecting repair or assembly operations
Shen et al. Measurement and evaluation of laser-scanned 3D profiles in wire arc hybrid manufacturing processes
WO2015162334A1 (en) A method and a system for generating data for calibrating a robot
JP5629883B2 (ja) 形状測定装置、形状測定方法及び形状測定プログラム
JP6503278B2 (ja) 形状測定装置および形状測定方法
JP2013148375A (ja) 三次元形状測定装置に用いられる校正方法、校正器およびプログラムならびに三次元形状測定装置
JP5351083B2 (ja) 教示点補正装置及び教示点補正方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150420

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160315

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160316

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160513

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20160530

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160920

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160928

R150 Certificate of patent or registration of utility model

Ref document number: 6017213

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250