JP6017213B2 - 光学式センサ付きロボットのキャリブレーション方法 - Google Patents
光学式センサ付きロボットのキャリブレーション方法 Download PDFInfo
- Publication number
- JP6017213B2 JP6017213B2 JP2012161745A JP2012161745A JP6017213B2 JP 6017213 B2 JP6017213 B2 JP 6017213B2 JP 2012161745 A JP2012161745 A JP 2012161745A JP 2012161745 A JP2012161745 A JP 2012161745A JP 6017213 B2 JP6017213 B2 JP 6017213B2
- Authority
- JP
- Japan
- Prior art keywords
- robot
- calibration target
- tool
- vertex
- optical sensor
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Landscapes
- Length Measuring Devices By Optical Means (AREA)
- Manipulator (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Description
このようなロボットを用いた溶接装置は、ロボットアームによって移動される溶接トーチ、溶接トーチの先端部において母材に向け送給される溶接ワイヤ、溶接トーチに取り付けて設けられたレーザセンサ、ロボットアーム、エンコーダなどを備えた溶接制御部、レーザセンサの検出結果を加工して出力するセンサコントローラ、および、溶接制御部を制御するコントローラなどを備えて構成される。
・レーザシート光はシート状の光(ライン状の光)とはいえ、0.2〜0.3mm程度の幅があるので、0.1mm程度の精度で、オペレータが目視で位置決めすることは困難である。
・不可視光レーザの場合は目視することができず、オペレータが目視で位置決めすることは不可能である。
以上のことから、オペレータが目視で位置決めすることは非常に難しく、自動化が望まれる。
本発明は、上述の問題点に鑑みてなされたものであり、シート光を照射して形状計測する光学式センサをロボットのツール先端付近に取り付けた、光学式センサ付きロボットシステムにおいて、精度高くキャリブレーションを行うことのできる方法を提供することを目的とする。
即ち、本発明のある局面に係る光学式センサ付きロボットのキャリブレーション方法は、
シート光を照射して形状計測する光学式センサをロボットのツール先端付近に取り付けた、光学式センサ付きロボットシステムにて、複数の稜線が1の頂点で交わる立体形状で構成されるキャリブレーションターゲットを対象にして、以下に示すステップを実施することで、前記ロボットのキャリブレーションを行うことを特徴とする。
・第1のステップ; 前記キャリブレーションターゲット上を前記シート光が移動するようにロボットのツール姿勢を変化させずにツール先端位置を直線で動かしながら、前記キャリブレーションターゲットの頂点付近の形状を計測し、順に取得したキャリブレーションターゲットの立体形状に起因する屈曲点変化に基づいて、シート光が前記頂点位置に照射されたときの、センサ座標におけるキャリブレーションターゲットの頂点位置を算出するとともに、そのときのロボット座標におけるツール位置を算出する。
・第2のステップ; 前記キャリブレーションターゲットの頂点位置が異なる値となるよ
うに検出位置を変えて前記第1のステップを少なくとも3回行う。
・第3のステップ; 前記第1のステップおよび前記第2のステップにて得られた、前記キャリブレーションターゲットの頂点位置が異なる値となった少なくとも3つ以上のデータセットを基に、センサとツールとの位置関係を算出する。
・第1のステップ; 回転軸角度を所定の角度にセットし、且つ前記キャリブレーションターゲット上を前記シート光が移動するようにロボットのツール姿勢を変化させずにツール先端位置を直線で動かしながら、キャリブレーションターゲット頂点付近の形状を計測し、順に取得したキャリブレーションターゲットの立体形状に起因する屈曲点変化に基づいて、シート光が前記頂点位置に照射されたときの、センサ座標におけるキャリブレーションターゲットの頂点位置を算出するとともに、そのときのロボット座標におけるツール位置を算出する。
・第2のステップ; 前記キャリブレーションターゲットの頂点位置が異なる値となるように検出位置を変えて前記第1のステップを少なくとも3回行う。
・第3のステップ; 回転軸の回転角度を変えて、前記第1のステップおよび前記第2のステップを少なくとも3回行う。
・第4のステップ; 前記第1のステップ〜前記第3のステップにて得られた、前記キャリブレーションターゲットの頂点位置が異なる値となった少なくとも9つ以上のデータセットを基に、センサとツールとの位置関係を算出する。
好ましくは、前記キャリブレーションターゲットが、三角錐で構成することができる。
さらに好ましくは、前記キャリブレーションターゲットが、上に凸の三角錐で構成することができる。
<第1の実施の形態>
まず、第1の実施の形態に係るキャリブレーション方法が適用される光学式センサ付きロボット(以下、溶接ロボットまたはロボットと記載する場合がある)の概要について説明する。図1(A)にこの溶接ロボット100の全体図を、図1(B)に溶接トーチ先端部の拡大図を、それぞれ示す。
ボット100を制御するロボットコントローラ120などを備えて構成される。ロボットコントローラ120は、後述するセンサ座標からロボット座標へ座標変換する座標変換部122および倣い制御部124とを備えている。
次に、座標系について説明する。光学式センサ130は、光学式センサ130に固定された座標系を持っており、これをセンサ座標と呼ぶ。一方、溶接ロボット100は、自分自身の座標系を2つ持っており、一つ目の座標系は、地面に固定された座標系であって、これをロボット座標と呼ぶ。溶接ロボット100は、ツールである溶接トーチ140の位置と姿勢とを変化させながら溶接作業を行う。二つ目の座標系は、このツールに張り付いた座標系であって、これをツール座標と呼ぶ。溶接ロボット100は、ツールの位置姿勢を制御しているので、ロボット座標からツール座標への変換パラメータ(変換マトリクス)は既知である。
(手順1)光学式センサ130で溶接部材の溶接線を検出する。このとき、センサ座標の溶接線位置が検出される。これをSPと記載する。
(手順2)上記(手順1)で検出した位置を、ツール座標に変換して、さらにロボット座標へ変換して、ロボット座標の溶接線位置が算出される。これをRPと記載する。このときの変換は下記の式(1)のように表現できる。
(手順3)上記(手順2)で算出されたロボット座標の溶接線位置RPを使って、溶接ロボット100は溶接線に倣って動作するように制御される。
第1の実施の形態に係るキャリブレーション方法においては、複数の稜線が1の頂点で交わる立体形状で構成されるキャリブレーションターゲットを用いる。このキャリブレー
ションターゲットの詳細については後述する。なお、このキャリブレーション方法の説明においては、キャリブレーションターゲットは三角錐とする。
S140にて、ロボットコントローラ120は、変数iに1を加算して、S120の処理を行う。すなわち、三角錐の頂点位置を算出処理を3回繰り返す。このように三角錐の頂点位置を算出処理を(少なくとも)3回行なうのは、シート光の平面を特定するためには最低限3点が必要だからである。3回以上行うと、最小二乗効果で計測ばらつきが低減され、計測精度が向上する。
上述したキャリブレーション方法を行う場合に用いられるキャリブレーションターゲットについて説明する。
三角錐の頂点角度θは、90度以上開いている。三角錐の頂点角度θについては90°(いわゆる立方体や直方体の角)でも構わないが、90°以上開いていた方が、頂点上部付近からシート光を照射したときに、正反射に近くなり、形状計測しやすい。このため、三角錐の頂点角度θは、90°〜150°程度開いていることが好ましい。
キャリブレーションターゲットとしては、このような上に凸の三角錐以外にも、図5に示すような下に凸の三角錐であっても構わない。さらに、図6に示すような上に凸の四角錐であっても構わないし、図7に示すような下に凸の四角錐であっても構わない。ただし、下に凸の場合は、レーザシート光を頂点付近に照射したとき、表面状態によっては多重反射が発生し、安定してレーザを検出できない場合も想定されるので、上に凸の形状の方が好ましい。
図8(A)に示すように、まず、事前準備として、三角錐頂点から三角錐の辺に沿って少しずらした位置を、「走査開始位置」として設定する(このときの変数Jを1とする)。この位置は、三角錐を形状計測したときの屈曲点が1個になるような位置である。
ax=4)とする)。
次に下記のS121〜S125を実行する。
S121にて、ツール先端位置を「走査開始位置」へ移動させる。このとき、図8(A)に示すように、変数jは1である。
S123にて、「走査終了位置」に向かって、ツール先端位置をツール姿勢を変えず(姿勢パラメータは既知)に微小量(たとえば約0.2mm程度)だけ直線移動させる。
S125にて、S122の処理を3回繰り返すことにより、以下の式(2)に示すように、三角錐形状の屈曲点sKij=(syij,szij)およびそのときのツール先端位置rTij=(rxij,ryij,rzij)が取得されているので、下記に示す「三角錐頂点にシート光照射したときの三角錐頂点座標(センサ座標)sPi=(syi,szi)の算出」と「三角錐頂点にシート光照射したときのツール先端位置rTi=(rxi,ryi,rzi)の算出」を行う。
三角錐形状の屈曲点のデータセットsKi1=(syi1,szi1)、…、sKi(jmax) =(syi(jmax),szi(jmax))は、図9(A)に示すように、3直線にグルーピングされるので、データ点を使って直線フィッティングすることで、直線1、直線2、直線3の3本の直線を算出する(図9(B))。
S125にて取得されたデータセットを、横軸に三角錐形状のセンサ座標Ys、縦軸にツール先端位置のロボット座標Xrをとると、図10(A)に示すようになる。すると、上述した「三角錐頂点にシート光を照射したときの三角錐頂点座標(センサ座標)sPi=(syi,szi)の算出手順」と同じように、3直線にグルーピングできるので、3直線の交点P0を計算する。このP0のXr座標値が、「三角錐頂点にシート光を照射し
たときのツール先端位置rTi=(rxi,ryi,rzi)」のrxiとなる(図10(C))。
図11に示すように、この演算処理を異なる計測位置で少なくとも3回行う。図2を参照して説明したように、このように三角錐の頂点位置を算出処理を(少なくとも)3回行なうのは、シート光の平面を特定するためには最低限3点が必要だからである。3回以上行うと、最小二乗効果で計測ばらつきが低減され、計測精度が向上する。
光学式センサ130により計測されたセンサ座標での座標値は、式(1)にてロボット座標の座標値へ座標変換される。
ここで、センサ座標からツール座標への座標変換行列TΣSは、以下の式(4)で表現される。式(4)に示すように、この座標変換行列TΣSは、位置XYZ、姿勢αβγの6個パラメータで構成される4×4行列である。
算出する6個のパラメータp=(xS yS zs αS βS γS)−1の微小変化Δeを考える。微小変化Δeは、Δe=JΔpで与えられ、式(1)の右辺のXYZ3要素をfx,fy,fzとし、光学式センサ130により計測したk個目の点SPk=(Syk,Szk)は、ロボット座標値RPk=(Rxk,Ryk,Rzk)に変換できるので、式(1)は、以下の式(6)および式(7)で表される。
STEP1:収束条件εと初期値p=p0とを与える。初期値p0は以下の式(8)で表される。
ここで、xMおよびxDは、以下の式(9)で与えられる。
STEP4:Δp=p+Δpとし、STEP2へ戻る。
このように反復計算を行うことにより、6個のパラメータp=(xS yS zs αS βS γS)−1が算出でき、その結果、センサ座標からツール座標への座標変換行列TΣSを求めることができる。
以下、本発明の第2の実施の形態に係る光学式センサ付きロボットのキャリブレーション方法について説明する。なお、第2の実施の形態に係るキャリブレーション方法およびそのキャリブレーション方法が適用される光学式センサ付きロボット200において、上述した第1の実施の形態に係る光学式センサ付きロボット100と同じ構成については同じ参照符号を付してある。それらの機能も同じである。そのため、それらについての詳細な説明は、ここでは繰り返さない。
の拡大図を、それぞれ示す。
図12(A)および図12(B)に示すように、この溶接ロボット200は、上述した溶接ロボット100の構成に加えて、溶接トーチ140後方に取り付けられたサーボモータ250を備える。このサーボモータ250の回転軸に光学式センサ130が取り付けられている。ロボットコントローラ220がサーボモータ250を制御し、光学式センサ130を溶接トーチ140周りに回転させ、溶接トーチ140周りに形状を計測することができる。これにより、光学式センサ130を溶接進行方向に向けることができ、溶接するときのロボット姿勢の自由度が広がる利点を備える。
なお、ロボットコントローラ220は、ハードウェア構成としてはロボットコントローラ120と同様であるが、以下に説明するようにソフトウェア構成が異なるので、座標変換部222および倣い制御部224とともに別の参照符号を付している。
S200にて、ロボットコントローラ220は、与えられた回転軸θに基づいてサーボモータ250を回転させて、光学式センサ130を回転させる。
全ての回転角度での処理が終了したと判定されると(S210にてYES)処理はS150へ移され、全ての回転角度での処理が終了したと判定されないと(S210にてNO)処理はS220へ移される。
このような処理についてさらに詳しく説明する。
光学式センサ130が図14に示す状態であるときの回転角度θを0°とすると、回転角度θ1(−120°)、回転角度θ2(0°)、回転角度θ3(+120°)3つの回転角度で、図13のS110〜S130の三角錐頂点の位置算出処理を行う。具体的には以下の手順で行う。
(手順B)図15(B)に示すように、サーボモータ250の回転軸を回転させて、回転角度θ2(0°)に設定する。B面とC面との頂点から、A面に向かう方向に走査するように、三角錐頂点の位置算出処理を実行する。この処理を少なくとも3回実行する(図15(B)の丸数字4〜6)。
これらの三角錐頂点の位置算出処理により、少なくとも9回のデータセットを取得することができる(後述の式(13)で表されるデータセット)。
光学式センサ130により計測されたセンサ座標での座標値は、以下の式(10)にてロボット座標の座標値へ座標変換される。
RΣT:ツール座標からロボット座標への座標変換行列
θ :サーボモータ回転角度
算出するのは、以下の2つである。
TΣJ:回転軸座標からツール座標への座標変換行列
JΣS:センサ座標から回転軸座標への座標変換行列
ここで、 TΣJおよび JΣSは、以下の式(11)および式(12)で表される。
算出する10個のパラメータp=(xj yj zj αj βj γj xs αs
βs γs)−1の微小変化Δeを考える。微小変化Δeは、Δe=JΔpで与えられ、式(10)の右辺のXYZ3要素をfx,fy,fxとし、光学式センサ130により計測したk個目の点SPk=(Syk,Szk)は、回転角度θkを使って、ロボット座標値RPk=(Rxk,Ryk,Rzk)に変換できるので、式(10)は、以下の式(14)および式(15)で表される。
STEP1:収束条件εと初期値p=p0とを与える。初期値p0は以下の式(16)で表される。
ここで、xMおよびxDは、以下の式(17)で与えられる。
STEP4:Δp=p+Δpとし、STEP2へ戻る。
このように反復計算を行うことにより、10個のパラメータp=(xj yj zj αj βj γj xs αs βs γs)−1が算出でき、その結果、センサ座標からツール座標への座標変換行列TΣJおよびJΣSを求めることができる。
110 センサコントローラ
120、220 ロボットコントローラ
122、222 座標変換部
124、224 倣い制御部
130 光学式センサ
140 溶接トーチ
250 サーボモータ
Claims (5)
- シート光を照射して形状計測する光学式センサをロボットのツール先端付近に取り付けた、光学式センサ付きロボットシステムにて、複数の稜線が1の頂点で交わる立体形状で構成されるキャリブレーションターゲットを対象にして、以下に示すステップを実施することで、前記ロボットのキャリブレーションを行うことを特徴とする光学式センサ付きロボットのキャリブレーション方法。
・第1のステップ; 前記キャリブレーションターゲット上を前記シート光が移動するようにロボットのツール姿勢を変化させずにツール先端位置を直線で動かしながら、前記キャリブレーションターゲットの頂点付近の形状を計測し、順に取得したキャリブレーションターゲットの立体形状に起因する屈曲点変化に基づいて、シート光が前記頂点位置に照射されたときの、センサ座標におけるキャリブレーションターゲットの頂点位置を算出するとともに、そのときのロボット座標におけるツール位置を算出する。
・第2のステップ; 前記キャリブレーションターゲットの頂点位置が異なる値となるように検出位置を変えて前記第1のステップを少なくとも3回行う。
・第3のステップ; 前記第1のステップおよび前記第2のステップにて得られた、前記キャリブレーションターゲットの頂点位置が異なる値となった少なくとも3つ以上のデータセットを基に、センサとツールとの位置関係を算出する。 - シート光を照射して形状計測する光学式センサがロボットのツール軸周りに回転可能となるように回転軸に取り付けられ、前記回転軸はツール付近に固定されて取り付けられた、光学式センサ付きロボットシステムにて、複数の稜線が1の頂点で交わる立体形状で構成されるキャリブレーションターゲットを対象にして、以下に示すステップを実施することで、前記ロボットのキャリブレーションを行うことを特徴とする光学式センサ付きロボットのキャリブレーション方法。
・第1のステップ; 回転軸角度を所定の角度にセットし、且つ前記キャリブレーションターゲット上を前記シート光が移動するようにロボットのツール姿勢を変化させずにツール先端位置を直線で動かしながら、キャリブレーションターゲット頂点付近の形状を計測し、順に取得したキャリブレーションターゲットの立体形状に起因する屈曲点変化に基づいて、シート光が前記頂点位置に照射されたときの、センサ座標におけるキャリブレーションターゲットの頂点位置を算出するとともに、そのときのロボット座標におけるツール位置を算出する。
・第2のステップ; 前記キャリブレーションターゲットの頂点位置が異なる値となるように検出位置を変えて前記第1のステップを少なくとも3回行う。
・第3のステップ; 回転軸の回転角度を変えて、前記第1のステップおよび前記第2のステップを少なくとも3回行う。
・第4のステップ; 前記第1のステップ〜前記第3のステップにて得られた、前記キャリブレーションターゲットの頂点位置が異なる値となった少なくとも9つ以上のデータセットを基に、センサとツールとの位置関係を算出する。 - 前記第1のステップでは、前記立体形状の頂点から前記立体形状の辺に沿って少しずらした位置を走査開始位置とし、前記頂点を通り越した位置を走査終了位置として設定した上で前記キャリブレーションターゲット上を前記シート光が移動するようにロボットのツール姿勢を変化させずにツール先端位置を直線で動かしながら、前記キャリブレーションターゲットの頂点付近の形状を計測し、
順に取得したキャリブレーションターゲットの立体形状に起因する屈曲点変化に基づいて、複数の直線を算出し、
前記算出した複数の直線に基づいて、シート光が前記頂点位置に照射されたときの、センサ座標におけるキャリブレーションターゲットの頂点位置を算出するとともに、前記頂点位置を算出した時点におけるロボット座標におけるツール位置を算出する、請求項1または2に記載の光学式センサ付きロボットのキャリブレーション方法。 - 前記キャリブレーションターゲットが、三角錐で構成されていることを特徴とする請求項1〜3のいずれかに記載の光学式センサ付きロボットのキャリブレーション方法。
- 前記キャリブレーションターゲットが、上に凸の三角錐で構成されていることを特徴とする請求項4に記載の光学式センサ付きロボットのキャリブレーション方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012161745A JP6017213B2 (ja) | 2012-07-20 | 2012-07-20 | 光学式センサ付きロボットのキャリブレーション方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012161745A JP6017213B2 (ja) | 2012-07-20 | 2012-07-20 | 光学式センサ付きロボットのキャリブレーション方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2014018932A JP2014018932A (ja) | 2014-02-03 |
JP6017213B2 true JP6017213B2 (ja) | 2016-10-26 |
Family
ID=50194399
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012161745A Active JP6017213B2 (ja) | 2012-07-20 | 2012-07-20 | 光学式センサ付きロボットのキャリブレーション方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6017213B2 (ja) |
Families Citing this family (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106610267B (zh) * | 2015-10-27 | 2019-09-17 | 柯昆(昆山)自动化有限公司 | 机器人关节零点自动校准末端执行装置及其方法 |
JP6472472B2 (ja) * | 2017-03-08 | 2019-02-20 | 本田技研工業株式会社 | 位置姿勢調整方法 |
CN109262659B (zh) * | 2018-12-20 | 2019-04-02 | 中国铁建重工集团有限公司 | 一种机械臂关节传感器的零位校准方法和设备 |
CN110806571B (zh) * | 2019-11-09 | 2023-11-17 | 北京工业大学 | 一种多结构光传感器空间姿态标定件及其标定方法 |
DE112021000503T5 (de) | 2020-01-10 | 2022-11-17 | Fanuc Corporation | Steuerungssystem |
EP3851789B1 (en) * | 2020-01-15 | 2021-12-01 | Sick IVP AB | Method for calibrating an imaging system with a calibration target object |
CN111735390B (zh) * | 2020-08-28 | 2020-12-11 | 中国计量大学 | 一种用于线激光传感器的标定块及手眼标定方法 |
CN112692833B (zh) * | 2020-12-31 | 2022-04-15 | 广东美的白色家电技术创新中心有限公司 | 一种标定块、机器人标定方法、标定装置以及存储介质 |
CN113427160A (zh) * | 2021-06-29 | 2021-09-24 | 西安交通大学 | 一种焊接机械臂自适应焊接方法、系统、设备及存储介质 |
WO2023032054A1 (ja) * | 2021-08-31 | 2023-03-09 | 株式会社ニコン | 移動誤差算出システム、工作機械、算出装置、較正方法、光計測装置 |
IT202100028412A1 (it) * | 2021-11-09 | 2023-05-09 | Marposs Spa | Calibro per apparecchiatura di controllo e metodo di messa a punto del calibro |
CN117359644B (zh) * | 2023-12-04 | 2024-02-27 | 四川福莫斯工业技术有限公司 | 一种基于机器人的点激光发射点位姿标定方法及系统 |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS63102881A (ja) * | 1986-10-17 | 1988-05-07 | 株式会社日立製作所 | 自動作業装置の教示方式 |
JPH0813433B2 (ja) * | 1989-12-22 | 1996-02-14 | 株式会社日立製作所 | 自動加工装置 |
JPH04100117A (ja) * | 1990-06-27 | 1992-04-02 | Yaskawa Electric Corp | 視覚センサ付き産業用ロボットにおけるエッジの3次元位置ズレ検出方法 |
JPH04269194A (ja) * | 1991-02-25 | 1992-09-25 | Fujitsu Ltd | 平面計測方法 |
JP3644991B2 (ja) * | 1994-11-08 | 2005-05-11 | ファナック株式会社 | ロボット−センサシステムにおける座標系結合方法 |
JP3000162B2 (ja) * | 1996-09-09 | 2000-01-17 | 川崎重工業株式会社 | アーク溶接装置 |
JP4020994B2 (ja) * | 1996-09-24 | 2007-12-12 | ファナック株式会社 | ロボットのツール座標系補正設定方法並びに該方法に使用するエンドエフェクタ |
JP5164811B2 (ja) * | 2008-11-26 | 2013-03-21 | キヤノン株式会社 | 作業システム及び情報処理方法 |
-
2012
- 2012-07-20 JP JP2012161745A patent/JP6017213B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
JP2014018932A (ja) | 2014-02-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6017213B2 (ja) | 光学式センサ付きロボットのキャリブレーション方法 | |
US9061421B2 (en) | Robotic work object cell calibration method | |
CN106994684B (zh) | 控制机器人工具的方法 | |
EP2002206B1 (en) | Apparatus and method of measuring workpieces | |
EP2140318B1 (en) | Apparatus and method for controlling or programming a measurement path | |
US8401692B2 (en) | System and method for tool testing and alignment | |
US20170016712A1 (en) | Position measurement system | |
US8485017B1 (en) | Robotic work object cell calibration system | |
JP4682947B2 (ja) | 三次元形状測定方法、三次元形状測定装置および校正用物体 | |
JP6869159B2 (ja) | ロボットシステム | |
JP6622772B2 (ja) | 計測システム | |
US9669546B2 (en) | Robotic work object cell calibration method | |
JP6603289B2 (ja) | ロボット、ロボットシステム、およびロボットの座標系設定方法 | |
CN107234634B (zh) | 机器人制造环境中的碰撞防护 | |
US9713869B2 (en) | Calibration of robot work paths | |
TW201616256A (zh) | 工具機之虛擬工具機模型之至少一模型參數的決定方法及裝置 | |
KR100644174B1 (ko) | 로봇 용접의 보정방법 | |
CN112424564A (zh) | 用于生成用于测试测量对象的测试计划的方法和装置、用于测试测量对象的方法和装置以及计算机程序产品 | |
US11828711B2 (en) | Method and system for inspecting repair or assembly operations | |
Shen et al. | Measurement and evaluation of laser-scanned 3D profiles in wire arc hybrid manufacturing processes | |
WO2015162334A1 (en) | A method and a system for generating data for calibrating a robot | |
JP5629883B2 (ja) | 形状測定装置、形状測定方法及び形状測定プログラム | |
JP6503278B2 (ja) | 形状測定装置および形状測定方法 | |
JP2013148375A (ja) | 三次元形状測定装置に用いられる校正方法、校正器およびプログラムならびに三次元形状測定装置 | |
JP5351083B2 (ja) | 教示点補正装置及び教示点補正方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20150420 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160315 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20160316 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160513 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20160530 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20160920 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20160928 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6017213 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |