JP3665353B2 - ロボットの教示位置データの3次元位置補正量取得方法及びロボットシステム - Google Patents

ロボットの教示位置データの3次元位置補正量取得方法及びロボットシステム Download PDF

Info

Publication number
JP3665353B2
JP3665353B2 JP25098593A JP25098593A JP3665353B2 JP 3665353 B2 JP3665353 B2 JP 3665353B2 JP 25098593 A JP25098593 A JP 25098593A JP 25098593 A JP25098593 A JP 25098593A JP 3665353 B2 JP3665353 B2 JP 3665353B2
Authority
JP
Japan
Prior art keywords
robot
teaching
data
program
dimensional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP25098593A
Other languages
English (en)
Other versions
JPH0784631A (ja
Inventor
知之 寺田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
FANUC Corp
Original Assignee
FANUC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by FANUC Corp filed Critical FANUC Corp
Priority to JP25098593A priority Critical patent/JP3665353B2/ja
Priority to PCT/JP1994/001509 priority patent/WO1995008143A1/ja
Priority to US08/428,221 priority patent/US5572103A/en
Publication of JPH0784631A publication Critical patent/JPH0784631A/ja
Application granted granted Critical
Publication of JP3665353B2 publication Critical patent/JP3665353B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/36Nc in input of data, input key till input tape
    • G05B2219/36407Follow path with probe, store deviations for correction during normal operation
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/37Measurements
    • G05B2219/375673-D vision, stereo vision, with two cameras

Description

【0001】
【産業上の利用分野】
本願発明は、ロボット教示プログラムで指定されているロボットの教示位置データについて、必要な3次元補正量を取得する方法、及び、同補正量を取得するロボットシステムに関し、更に詳しく言えば、教示プログラムで指定されている教示点位置と現実の作業対象物上の教示点対応位置のずれを解消させるに必要な、教示位置データの3次元補正量を3次元視覚センサを利用して取得する方法及びロボットシステムに関する。本願発明は産業用ロボット一般に適用可能であるが、代表的なアプリケーションとしては、アーク溶接あるいはスポット溶接を行なう溶接ロボットが考えられる。
【0002】
【従来の技術】
ワーク等の作業対象物(以下、「ワーク」で代表させる。)に対してロボットを移動させながら、溶接等各種作業を行なう場合のロボット教示プログラムの作成プロセスを合理化する為に、オフラインプログラミングシステムを利用する方法が採用されている。オフラインで教示プログラムを作成する際に利用されるのは、作業対象物の設計データ、ロボットとワークの配置関係を表わすデータ、ロボットに設定された座標系の関係を表わすデータ(同次変換行列データ)等であるから、種々の誤差要因によって、再生運転時に実際に実現されるロボット位置(姿勢を含む。以下、同様。)が現実のワーク上で教示点として指定乃至予定された位置と一致しない現象が発生する。
【0003】
即ち、再生運転時にプログラム上で教示点に対応して実現されるロボット位置が、現実のワーク上でn番目の教示点として指定された位置と正確には一致しないのが一般的である。このような教示点の位置ずれをもたらす誤差要因には、次のようなものが考えられる。
【0004】
1.ロボットとワークの位置関係を表わすデータの誤差。換言すれば、デ ータ通りのワーク・ロボット間位置関係が実現されないこと。
2.ロボットの加工・組み立て誤差(例えば、リンク長誤差)。
3.自重あるいはエンドエフェクタ重量によるロボットの撓みによる誤差。
【0005】
4.エンドエフェクタの加工・組み立て誤差。
5.エンドエフェクタの撓みに起因する誤差。
6.ワークの形状誤差。
これら誤差を予め正確に評価してオフラインプログラムを作成することは困難であり、特に、上記4.〜6.の要因について事前に正しく評価することは不可能に近いと言っても過言ではない。
【0006】
このように、プログラム再生時に教示点に対応して実現される位置と実際のワークに対して指定された教示点位置の不一致は、オフラインでプログラムを作成した場合に典型的に発生する現象であるが、必ずしもオフラインプログラムに限らず、上記誤差要因が入り込む余地があるケースにおいては、いかなる作成済みプログラムについても常に発生し得るものである。例えば、ワークの製造ロット番号が変わった場合には上記要因6.が作用し、エンドエフェクタを交換した場合等においては上記要因3.〜5.の要因が作用することによって、任意の方式に作成された教示プログラムについて、上記説明した教示点ずれの現象が発生する可能性がある。
【0007】
従来、作成プログラムに上記事態が発生した場合、あるいは発生が予測される場合には、エンドエフェクタをロボットに装着してロボットを手動操作し、実際のワーク(代表ワーク)上の各教示点位置にツールポイントを合致させる補正作業を行なうことが通常であった。このようなオペレータの手作業によるプログラム補正作業は作業負担が大きく、特に、ワークが多品種化し、作成・使用するプログラム数が増えた場合などには、ロボット作業全体の生産性を低下させる大きな原因となっている。
【0008】
【発明が解決しようとする課題】
本願発明の目的は、作成済みの教示プログラムに発生する上記教示点ずれ現象を解消させるようなプログラムデータ補正を効率的に実行出来るようなロボットの教示位置データの3次元補正量取得方法とシステムを提供することによって、上記従来技術の問題点を解決することにある。また、本願発明は上記補正方法とシステムを提供することを通して、オフラインプログラミングシステムで作成されたプログラムの有用性を向上させることを企図するものでもある。
【0009】
【課題を解決するための手段】
本願発明は、上記技術課題の解決手段として、「教示プログラム上で位置データが与えられている教示点の内少なくとも1個の教示点に対応する作業対象物上の部位に3次元視覚センサ手段により識別が可能なマークを施す段階と;該ロボットに搭載された3次元視覚センサ手段によって前記マークの位置を計測する段階と;該マーク位置の計測結果に基づいて、前記少なくとも1つの教示点の位置データの3次元の要補正量を求める段階とを含むことを特徴とするロボットの3次元位置補正量取得方法」、並びに、「教示プログラム上で位置データが与えられている教示点の内少なくとも1個の教示点に対応する作業対象物上の部位に3次元視覚センサ手段により識別が可能なマークが施された対象物に対し、該ロボットに搭載された3次元視覚センサ手段により前記マークの位置を計測する手段と;該マーク位置の計測結果に基づいて、前記少なくとも1個の教示点に対する3次元の要補正量を求める手段とを含むことを特徴とするロボットの3次元位置補正量を取得するロボットシステム」を提案するものである。
【0010】
【作用】
本願発明では、ワーク上の教示点対応部位に施されたマークの位置をロボットに搭載された3次元視覚センサ手段によって計測し、その計測結果に基づき、その計測された教示点について、教示位置データの3次元要補正量を取得する。以下、視覚センサ手段をロボットの手首フランジ(一般には、メカニカルインタフェース、以下同様。)にエンドエフェクタの代わりに装着した場合とエンドエフェクタを介して装着した場合について、教示プログラム中の教示点データの要補正量を求める原理について説明する。なお、説明の便宜上、視覚センサ手段が2次元視覚センサ手段である場合についても原理を述べておく。
【0011】
[1]手首フランジに視覚センサ手段をエンドエフェクタ(溶接トーチ)に代えて装着した場合
先ず、適当なキャリブレーション操作によって、3次元または2次元の視覚センサのセンサ座標系とロボットの手首フランジの位置を表わす手首フランジ座標系(一般には、メカニカルインタフェース座標系、以下同様。)との位置関係を表わすデータを取得する。手首フランジ座標系に対するセンサ座標系の相対位置関係を表わす行列(同次変換行列、以下同様。)をCとする。キャリブレーションの手法については、幾つかの方法が一般的に知られているのでここでは省略する。
【0012】
また、手首フランジに対するツール先端点位置が設定済みであることを仮定する。手首フランジ座標系に対するツール座標系の相対位置関係を表わす行列をTとする。更に、作業空間内に固定された1つワーク座標系上で見た手首フランジ位置を表わす行列を教示プログラムデータに基づいて計算したものをR、実際の(真の)手首フランジ位置を表わす行列をR’とし、教示点位置をPで表わすことにする。
【0013】
[1−1]視覚センサ手段が3次元視覚センサシステムである場合
視覚センサがワーク上に施された教示点マークの3次元位置を計測出来る場合のセンサ座標系上における実測位置をV’、プログラムデータから計算される教示点位置をVとすると、
RCV=P ・・・(1)
R’CV’=P ・・・(2)
と表わすことが出来る。
【0014】
R’のRに対する誤差が平行移動成分だけであると仮定すると、次式(3)が成立する。
R’=R+Er ・・・(3)
但し、Er は次式(4)で表わされる行列である。
【0015】
【数1】
Figure 0003665353
上記(1)式〜(4)式から、次式(5)が成立する。
(R+Er )CV’=RCV ・・・(5)
これを整理すると、
Er CV’=RC(V−V’) ・・・(6)
これより、R’のRに対する誤差のワーク座標系上の各成分ex ,ey ,ez が次の形で求められる。
【0016】
【数2】
Figure 0003665353
以上のことから、ロボットの手首フランジ座標系の誤差は、上記(7)式で示されるRC(V−V’)であると推定されることになる。従って、各教示点毎に教示点データ(ワーク座標系上)を、−RC(V−V’)だけシフト補正することにより、手首フランジ座標系の誤差を補償した教示点データを含む教示プログラムを獲得することが出来る。
【0017】
これにより、前記した誤差要因の内、エンドエフェクタに関連したものを除く相当部分を吸収して、プログラム再生時のロボット軌道とワーク上に予定された教示ラインとの一致度を向上させることが出来る。
【0018】
[1−2]視覚センサ手段が2次元視覚センサシステムである場合
2次元位置計測型の視覚センサによってワーク上に施された教示点マークの実測位置をセンサ座標系上で表わしたものをV’、プログラムデータから計算される教示点位置をセンサ座標系上で表わしたものをVとすると、3次元型視覚センサの場合と同様に、
RCV=P ・・・(8)
R’CV’=P ・・・(9)
と表わすことが出来る。
但し、V’は、本質的には2次元情報なので、媒介変数tを含む下記(10)式で表現される。
【0019】
【数3】
Figure 0003665353
媒介変数tは、センサ座標系上の原点から教示点までの距離に相当する量を表わしているから、上記(8式)RCV=PからVのZ座標値を求め、tの値とする。u'*及びv'*は、2次元視覚センサシステムから得られる数値である。これは、視覚センサシステムで得られる情報を表現するセンサ座標系として、視覚系の光軸方向と一致したZ軸を有する3次元座標系を設定したことに相当する。これにより、V’を3次元データとして扱うことが可能になる。従って、以後は上記3次元視覚センサシステムの場合と同様の手続きによって、教示点データの要補正量を求めることが出来る。
【0020】
[2]エンドエフェクタ(溶接トーチ)と共に視覚センサ手段を装着した場合
予め、手首フランジに対するツール先端点の位置(姿勢を含む)が設定済みであることを仮定する。プログラムが仮定しているデータに基づいて計算される手首フランジ座標系に対するツール座標系の相対位置関係を表わす行列をTとし、実際に両者の相対位置関係を表わす行列をT’とする。
【0021】
また、適当なキャリブレーション操作によって、3次元または2次元の視覚センサのセンサ座標系とツール座標系との位置関係を表わすデータを取得する。ツール座標系に対するセンサ座標系の相対位置関係を表わす行列をKとする。キャリブレーションの手法については、幾つかの方法が一般的に知られているのでここでは省略する。
【0022】
更に、作業空間内に固定された1つワーク座標系上で見た手首フランジ位置を表わす行列を教示プログラムデータに基づいて計算したものをR、実際の(真の)手首フランジ位置を表わす行列をR’とし、教示点位置をPで表わすことにする。
【0023】
[2−1]視覚センサ手段が3次元視覚センサシステムである場合
視覚センサがワーク上に施された教示点マークの3次元位置を計測出来る場合のセンサ座標系上における実測位置をV’、プログラムデータから計算される教示点位置をVとすると、
RTKV=P ・・・(11)
R’T’KV’=P ・・・(12)
と表わすことが出来る。
【0024】
上記式(11),(12)は、式(1),(2)において、R,R’の代わりにRT,R’T’、Cの代わりにKを各々入れたものに他ならないから、前記[1−1]のケースにおける要補正量の計算式RC(V−V’)の代えて、下記(13)式を計算すれば、本ケースにおける要補正量が求められることになる。
RTK(V−V’) ・・・(13)
[2−2]視覚センサ手段が2次元視覚センサシステムである場合
上記[2−1]のケースと同じく、R,R’をRT,R’T’、CをKと各々入れ換えて計算を行なうことにすれば、上記[1−2]のケースに帰着させることが出来る。
[2−1]及び[2−2]のケースで、もし、視覚センサ手段がエンドエフェクタ自体の加工誤差や撓みを反映し得る位置に装着されているとみなすことが出来れば、これら誤差の補償効果をも期待することが出来る。また、視覚センサ手段がエンドエフェクタの加工・組み立て誤差や負荷による変形誤差を反映しない位置に装着された場合(並列的な同時装着)でも、エンドエフェクタの重量によるロボットアームの撓みはマーク位置の計測結果に反映されるから、このエンドエフェクタの重量によるロボットアームの撓みに起因した誤差の補償作用は確保される。
【0025】
以上説明した各ケースに応じた補正計算の処理は、視覚センサ手段と結合された通常のロボットコントローラ内で実行することが出来るが、視覚センサ手段を用いて得られた計測結果をロボットコントローラの以外の外部装置(例えば、オフラインプログラミング装置)へ転送した上で実行することも可能である。
【0026】
【実施例】
図1は、溶接作業用の教示プログラムに対して本願発明を適用する際の教示点位置計測の様子を例示した模式図である。また、図2は本願発明を実施する際に使用されるシステム構成の概略を例示した要部ブロック図である。
【0027】
図1において、1は図示しない固定手段によって作業空間内に固定配置された教示点位置計測対象ワークで、溶接線6を有している。この教示点位置計測ワークには、通常、同種同寸で同位置に溶接線を有しているとみなすことが出来る多数のワークを代表するものが選ばれる。2はロボット本体で、手首フランジ部には溶接トーチ3と共に3次元視覚センサ手段を構成する2台のカメラ4,5が装着されている。
P0 〜P3 は、溶接線6に沿って設定された教示点で、オフラインで作成される教示プログラムには、これら教示点の位置を表わす教示点データ(一般には、誤差を含んでいる。)が与えられている。
【0028】
本実施例においては教示点P1 を代表教示点として選択し、教示点P1 に対応するワーク上の部位に+マークが施されている。このマークは、視覚センサによって視認可能であればいかなる形態のものであっても構わない。典型的には、インクによる書き込み、シールの貼付等が考えられるが、ワークが元来備えているいる特徴点をマークとして利用することも有り得る。図1では、教示プログラムで教示点P1 位置として指定されているロボット位置をロボットにとらせた状態で、このマークをカメラ4,5で撮像している様子が描かれている。もし、プログラムデータが補正不要な状態であれば、ロボットに設定されたツール先端点の位置はマーク位置と正確に一致する筈であるが、一般には種々の誤差要因によって両者は一致していない。即ち、プログラムデータが要補正の状態にある。
【0029】
次に、図2を参照すると、システム全体はロボット本体2、カメラ4,5(2台)、画像処理装置10、ロボットコントローラ20、溶接トーチ制御器30、オフラインプログラミング装置40から構成されている。
【0030】
画像処理装置10は中央演算処理装置(以下、CPUという。)11を有し、該CPU11には、フレームメモリ(画像メモリ)12、ROMで構成されたコントロールソフト用メモリ13、RAM等で構成されたプログラムメモリ14、不揮発性RAMで構成されたデータメモリ15、カメラインタフェース16、画像処理プロセッサ17及び通信インタフェース18がバス19を介して接続されている。
【0031】
カメラインタフェース16には、カメラ4,5が接続されている。2台のカメラ4,5からの映像信号は、CPU11がカメラインタフェース16内のコネクタ番号を指定することにより、順次取り込まれるようになっている。通信インタフェース18は、ロボットコントローラ20側の通信インタフェース27に接続されており、両者を介して相互にデータや指令を表す信号が送受信される。
【0032】
カメラ4,5の視野で捉えられた画像は、グレイスケールによる濃淡画像に変換されてフレームメモリ12に格納される。画像処理プロセッサ17はフレームメモリ12に格納された画像をCPU11の指令に従って処理する機能を有している。コントロールソフト用メモリ13には、CPU11が視覚センサを制御する為のコントロールプログラム、治具を用いてセンサ座標系を設定する為のキャリブレーション用プログラム、画像処理プロセッサ17を用いて溶接線位置を検出する為の画像解析プログラム、適正なタイミングでロボット側への計測データ送信を指令する為のプログラム等が格納される。
【0033】
なお、カメラ30の捉えた画像やフレームメモリ12から呼び出された画像を視認する為のTVモニタを図示を省略したモニタインタフェースを介して接続することも出来る。
【0034】
一方、ロボットコントローラ20は、中央演算処理装置(CPU)21を有し、該CPU21には、制御プログラムを格納したROM22、計算データの一時記憶等の為に利用されるRAM23、教示データやキャリブレーション用治具データ等各種設定値が格納される不揮発性RAMで構成されたメモリ24、ロボット本体40の各軸を制御する軸制御器25(サーボ回路を含む)、ロボットの手動操作、座標系設定、位置教示、自動運転(再生動作)指令、センサ起動指令等の画像処理装置との交信を行う為の教示操作盤26及び画像処理装置10側の通信インタフェース18に接続された通信インタフェース27がバス28を介して接続されている。
【0035】
通信インタフェース27は、溶接トーチ3(図1参照)をON/OFFし、溶接電圧、溶接電流を制御する溶接トーチ制御器30及びオフラインプログラミング装置40にも接続されており、これらに対する入出力装置を兼ねている。
【0036】
以上のシステム構成及び機能は、従来の溶接ロボット―3次元視覚センサセンサシステムと基本的に変わるところはないが、本願発明を実施する為に次の特徴を有している。
<1>画像処理装置10のコントロールソフト用メモリ13に、図1に示した教示点マークの位置データ(センサ座標系上)を獲得する為のプログラム及び所要データが格納されていること。
【0037】
<2>上記獲得された教示点マーク位置データを用い、前記作用の説明の欄で述べた方法に従って、教示プログラムに含まれている教示点データの要補正量を計算する為のプログラム、該計算結果に基づいて各教示点P0 〜P3 の位置データを補正する為のプログラム及び関連所要データがロボットコントローラ20の不揮発性メモリ24内に格納されていること。
【0038】
以下、図2に示されたシステムを用いて、本願発明を図1に示された事例に適用する場合の手順と処理について説明する。
【0039】
先ず、オフラインプログラミング装置40で作成されたプログラムをロボットコントローラ20へ通信インタフェース27を介して転送し、不揮発性メモリ24へ格納する(ステップS1)。次いで、ロボットを操作して、プログラム上で教示点P1 に指定されている位置へ移動させる(ステップS2)。
【0040】
この状態で視覚センサ(カメラ4,5)を起動させ、教示点P1 に対応して設定されたマークの撮像を行い、センサ座標系上のマーク位置データV’を獲得する(ステップS3)。このデータは直ちに両通信インタフェース18,27を介してロボットコントローラ10へ転送され、不揮発性メモリ24に格納される(ステップS4)。
【0041】
ロボットコントローラ20側のCPU21により、作用の説明の欄で述べた計算法に従ってプログラム上の教示点位置データの要補正量を計算する(ステップS5)。ここで想定している図1の事例は、ケース[2−1]に該当するから、前記(13)式を計算することにより、要補正量を求めることが出来る。なお、R,T,K,及びVの値は、現在データあるいは設定済みデータとしてロボットに既に与えられているから、(13)式の計算に際してはこれらデータを用いれば良い。
【0042】
要補正量の計算が終了したら、その要補正量を教示点P 0 の位置データから差し引く形で補正を行なう。また、本実施形態では、教示点P 1 〜P 3 の各位置データについても、同じ補正量を各々差し引く形で補正を行なう(ステップS6)
【0043】
本実施例におけるプログラム補正により、前述した誤差要因1.〜6.の内の相当部分の除去が期待できる。即ち、ロボット手首位置の誤差には、1.ロボットとワークの位置関係を表わすデータの誤差、2.ロボットの加工・組み立て誤差、3.自重あるいはエンドエフェクタ重量によるロボットの撓みによる誤差、及び6.ワークの形状誤差の少なくとも一部が反映していると考えられるから、ロボット手首位置の誤差を補償することによって、これら誤差要因が相当程度補償されると期待される。もし、カメラ4,5が溶接トーチ(エンドエフェクタ)自体の加工誤差や撓みを包含し得る位置に装着されているとみなすことが出来れば、これら誤差の補償効果をも期待することが出来る。
【0044】
上記例においては、計測対象は1個の教示点であり、そこに付したマークの位置データに基づいて同教示点の位置データを補正した。また、他の残りの教示点のデータも併せて補正した。しかし、計測対象とする教示点の数に原理的な制限は無い。一般には、1個叉は複数の教示点に対応して付されたマークの位置を順次計測し、それら選択された教示点に対する要補正量を計算する。また、同要補正量を他の教示点に対する要補正量とすることも考えられる。なお、エアカット点などさほどの精度を必要としない教示点については、補正を省略して差し支えないこと勿論である。
【0045】
【発明の効果】
本願発明によれば、3次元視覚センサ手段を利用して、オフラインプログラミング装置等で作成されたロボット教示プログラムの少なくとも1つの教示位置データについて、実際の作業対象物上での教示点対応位置とのずれを、従来のように、ロボットの手動操作でエンドエフェクタを作業対象物上の教示位置に一致させるという作業を要することなく減殺出来るようになる。その結果、煩雑で熟練を要する手作業に頼って行なわれていた教示プログラムデータ補正作業の少なくとも一部を省くことが可能になり、同時に、プログラムデータの精度の信頼性も向上することになる。
【0046】
その結果、煩雑で熟練を要する手作業に頼って行なわれていた教示プログラムデータ補正作業を省くことが可能になり、同時に、プログラムデータの精度の信頼性も向上することになる。
【図面の簡単な説明】
【図1】溶接作業用の教示プログラムに対して本願発明を適用する際の教示点位置計測の様子を例示した模式図である。
【図2】本願発明を実施する際に採用されるシステム構成の概略を例示した要部ブロック図である。
【図3】図1に示された事例に関し、本願発明を図2に示したシステムを利用して実施する際の作業/処理プロセスの概要を記したフローチャートである。
【符号の説明】
1 ワーク
2 ロボット本体
3 溶接トーチ
4,5 カメラ
6 溶接線
10 画像処理装置
11 CPU(画像処理装置)
12 フレームメモリ
13 コントロールソフトメモリ
14 プログラムメモリ
15 データメモリ
16 カメラインターフェース
17 画像処理プロセッサ
18 通信インターフェース(画像処理装置)
19 バス(画像処理装置)
20 ロボットコントローラ
21 CPU(ロボットコントローラ)
22 メモリ(ROM)
23 メモリ(RAM)
24 不揮発性メモリ
25 軸制御器
26 教示操作盤
27 通信インターフェース(ロボットコントローラ)
28 バス(ロボットコントローラ)
30 溶接トーチ制御奇
40 オフラインプログラミング装置

Claims (2)

  1. 教示プログラム上で位置データが与えられている教示点の内少なくとも1個の教示点に対応する作業対象物上の部位に3次元視覚センサ手段により識別が可能なマークを施す段階と;
    該ロボットに搭載された3次元視覚センサ手段によって前記マークの位置を計測する段階と;
    該マーク位置の計測結果に基づいて、前記少なくとも1個の教示点の位置データの3次元の要補正量を求める段階とを含むことを特徴とするロボットの教示位置データの3次元位置補正量取得方法。
  2. 教示プログラム上で位置データが与えられている教示点の内少なくとも1個の教示点に対応する作業対象物上の部位に3次元視覚センサ手段により識別が可能なマークが施された対象物に対し、該ロボットに搭載された3次元視覚センサ手段により前記マークの位置を計測する手段と;
    該マーク位置の計測結果に基づいて、前記少なくとも1個の教示点の教示位置データに対する3次元の要補正量を求める手段とを含むことを特徴とするロボットの3次元位置補正量を取得するロボットシステム。
JP25098593A 1993-09-14 1993-09-14 ロボットの教示位置データの3次元位置補正量取得方法及びロボットシステム Expired - Fee Related JP3665353B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP25098593A JP3665353B2 (ja) 1993-09-14 1993-09-14 ロボットの教示位置データの3次元位置補正量取得方法及びロボットシステム
PCT/JP1994/001509 WO1995008143A1 (fr) 1993-09-14 1994-09-12 Procede de correction de programmes d'apprentissage pour robots
US08/428,221 US5572103A (en) 1993-09-14 1994-09-12 Robot teaching program correction method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP25098593A JP3665353B2 (ja) 1993-09-14 1993-09-14 ロボットの教示位置データの3次元位置補正量取得方法及びロボットシステム

Publications (2)

Publication Number Publication Date
JPH0784631A JPH0784631A (ja) 1995-03-31
JP3665353B2 true JP3665353B2 (ja) 2005-06-29

Family

ID=17215962

Family Applications (1)

Application Number Title Priority Date Filing Date
JP25098593A Expired - Fee Related JP3665353B2 (ja) 1993-09-14 1993-09-14 ロボットの教示位置データの3次元位置補正量取得方法及びロボットシステム

Country Status (3)

Country Link
US (1) US5572103A (ja)
JP (1) JP3665353B2 (ja)
WO (1) WO1995008143A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009220248A (ja) * 2008-03-18 2009-10-01 Ihi Corp ロボット設置方法及びロボット生産システム

Families Citing this family (53)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0970780A (ja) * 1995-09-06 1997-03-18 Fanuc Ltd ロボットのツール形状補正方式
US6064168A (en) * 1998-03-13 2000-05-16 Fanuc Robotics North America, Inc. Method of controlling robot movement
JP4413291B2 (ja) * 1998-08-18 2010-02-10 株式会社明電舎 位置データ較正機能付きビンピッキング装置
US5959425A (en) * 1998-10-15 1999-09-28 Fanuc Robotics North America, Inc. Vision guided automatic robotic path teaching method
JP4461203B2 (ja) * 1999-09-21 2010-05-12 ムラテックオートメーション株式会社 ストッカ用ロボットの教示方法、ストッカ用ロボットの教示装置及び記録媒体
DE20009543U1 (de) * 2000-05-27 2001-08-02 Kuka Roboter Gmbh Handflansch einer Roboterhand
JP3950805B2 (ja) 2003-02-27 2007-08-01 ファナック株式会社 教示位置修正装置
US6836702B1 (en) 2003-06-11 2004-12-28 Abb Ab Method for fine tuning of a robot program
EP1658579B1 (en) * 2003-08-15 2016-09-28 Scape A/S Method for for classification and spatial localization of bounded 3d-objects
JP3819883B2 (ja) * 2003-08-27 2006-09-13 ファナック株式会社 ロボットプログラム位置修正装置
JP3905073B2 (ja) * 2003-10-31 2007-04-18 ファナック株式会社 アーク溶接ロボット
US7131372B2 (en) * 2003-12-01 2006-11-07 Lockheed Martin Corporation Miniature fluid dispensing end-effector for geometrically constrained areas
DE10361018C9 (de) * 2003-12-23 2021-03-04 QUISS Qualitäts-Inspektionssysteme und Service GmbH Verfahren zum Erkennen einer auf einem Substrat aufzubringenden Struktur mit mehreren Kameras sowie eine Vorrichtung hierfür
US20050246064A1 (en) * 2004-04-29 2005-11-03 Smith Gregory C Method for detecting position errors using a motion detector
JP2006048244A (ja) * 2004-08-02 2006-02-16 Fanuc Ltd 加工プログラム作成装置
US20060047363A1 (en) * 2004-08-31 2006-03-02 Farrelly Philip J Machine vision system for lab workcells
DE102005047204A1 (de) * 2005-10-01 2007-04-05 Daimlerchrysler Ag Verfahren zur Programmierung eines Industrieroboters
CA2533219A1 (en) * 2005-12-02 2007-06-02 Hudson Control Group, Inc. Systems and methods for automated proteomics research
JP4171488B2 (ja) * 2005-12-16 2008-10-22 ファナック株式会社 オフラインプログラミング装置
US7430456B2 (en) * 2006-02-08 2008-09-30 Seagate Technology Llc Reference point teaching using an end effector to form a witness mark
US20080027580A1 (en) * 2006-07-28 2008-01-31 Hui Zhang Robot programming method and apparatus with both vision and force
WO2009102767A2 (en) * 2008-02-11 2009-08-20 Fanuc Robotics America, Inc. Method of controlling a robot for small shape generation
JP5204575B2 (ja) * 2008-07-29 2013-06-05 川崎重工業株式会社 位置測定方法及び位置測定装置
DE102008062624A1 (de) * 2008-12-17 2010-06-24 Kuka Roboter Gmbh Handgerät und Verfahren zur Erfassung der Raumposition eines Arbeitspunktes eines Manipulators
CN106994684B (zh) * 2009-02-03 2021-04-09 范努克机器人技术美国有限公司 控制机器人工具的方法
US8457791B2 (en) * 2009-03-10 2013-06-04 GM Global Technology Operations LLC Method for dynamically controlling a robotic arm
KR100986669B1 (ko) * 2009-06-08 2010-10-08 (주)이지로보틱스 로봇 캘리브레이션 장치 및 그 방법
DE102010002816B4 (de) * 2010-03-12 2014-05-15 Siemens Aktiengesellschaft Werkzeugmaschine und Verfahren zur Ermittlung der Position eines in eine Werkstückeinspannvorrichtung eingespannten Werkstücks bei einer Werkzeugmaschine
DE102010028135A1 (de) * 2010-04-22 2011-10-27 Trumpf Werkzeugmaschinen Gmbh + Co. Kg NC-Programm und Verfahren zur vereinfachten Nachproduktion an einer Werkzeugmaschine
JP2012223839A (ja) * 2011-04-15 2012-11-15 Yaskawa Electric Corp ロボットシステムおよびロボットシステムの駆動方法
JP5523392B2 (ja) * 2011-05-23 2014-06-18 三菱電機株式会社 キャリブレーション装置及びキャリブレーション方法
US9573215B2 (en) * 2012-02-10 2017-02-21 Illinois Tool Works Inc. Sound-based weld travel speed sensing system and method
JP5713047B2 (ja) * 2013-04-18 2015-05-07 株式会社安川電機 移動ロボット、移動ロボットの位置決めシステム、及び、移動ロボットの位置決め方法
KR101490921B1 (ko) * 2013-07-11 2015-02-06 현대자동차 주식회사 자동차 부품의 품질 검사 장치 및 그 방법
JP5942938B2 (ja) * 2013-07-26 2016-06-29 株式会社安川電機 ロボットシステム
KR101490938B1 (ko) 2013-12-20 2015-02-06 기아자동차 주식회사 용접 설비 검사장치
JP6812095B2 (ja) * 2015-10-22 2021-01-13 キヤノン株式会社 制御方法、プログラム、記録媒体、ロボット装置、及び物品の製造方法
JP6490112B2 (ja) * 2017-01-17 2019-03-27 ファナック株式会社 ロボット制御装置
JP6964989B2 (ja) 2017-02-09 2021-11-10 キヤノン株式会社 制御方法、ロボットシステム、物品の製造方法、プログラム、及び記録媒体
JP6469159B2 (ja) * 2017-04-10 2019-02-13 ファナック株式会社 接触センサによるワーク位置検出プログラム生成機能を備えたオフラインプログラミング装置及び方法
JP6538751B2 (ja) 2017-05-18 2019-07-03 ファナック株式会社 プログラミング装置及びロボット制御方法
JP6572262B2 (ja) * 2017-06-06 2019-09-04 ファナック株式会社 教示位置修正装置および教示位置修正方法
JP6693939B2 (ja) * 2017-12-14 2020-05-13 ファナック株式会社 ロボットシステム
JP6740288B2 (ja) * 2018-07-13 2020-08-12 ファナック株式会社 物体検査装置、物体検査システム、及び検査位置を調整する方法
JP7337495B2 (ja) * 2018-11-26 2023-09-04 キヤノン株式会社 画像処理装置およびその制御方法、プログラム
CN111571596B (zh) * 2020-05-26 2022-11-11 上海交通大学 利用视觉修正冶金接插装配作业机器人误差的方法及系统
CN112454354B (zh) * 2020-11-10 2022-05-03 中国电子工程设计院有限公司 一种工业机器人的工作方法、装置及存储介质
CN112958959A (zh) * 2021-02-08 2021-06-15 西安知象光电科技有限公司 一种基于三维视觉的自动化焊接和检测方法
TW202234184A (zh) 2021-02-25 2022-09-01 日商發那科股份有限公司 使用從視覺感測器的輸出得到之三維位置資訊的模擬裝置
EP4360794A1 (en) * 2021-06-23 2024-05-01 Panasonic Intellectual Property Management Co., Ltd. Offline teaching device and offline teaching method
CN114227706A (zh) * 2021-12-15 2022-03-25 熵智科技(深圳)有限公司 基于3d视觉的切坡口方法、装置、设备、系统及介质
WO2023189086A1 (ja) * 2022-03-31 2023-10-05 パナソニックIpマネジメント株式会社 オフライン教示装置およびオフライン教示方法
CN115157272B (zh) * 2022-09-08 2022-11-22 山东芯合机器人科技有限公司 一种基于视觉扫描的自动化编程系统

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3277087D1 (en) * 1981-09-24 1987-10-01 Hitachi Ltd Control system for robot hand
JPS5927307A (ja) * 1982-08-04 1984-02-13 Hitachi Ltd 経路制御方法及び装置
US4590577A (en) * 1982-12-01 1986-05-20 Yaskawa Electric Mfg. Co., Ltd. Welding robot controlling method
JPS6020209A (ja) * 1983-07-14 1985-02-01 Matsushita Electric Ind Co Ltd ロボツトの補間制御方法
JPS60151711A (ja) * 1984-01-19 1985-08-09 Hitachi Ltd ロボツト手先視覚座標系較正方式
JPS60174274A (ja) * 1984-02-20 1985-09-07 Fanuc Ltd 三次元曲面におけるスケ−リング方法
US4689756A (en) * 1984-06-29 1987-08-25 Shin Meiwa Industry Co., Ltd. Robot interpolation control method
JPS61270090A (ja) * 1985-05-27 1986-11-29 松下電器産業株式会社 視覚認識用カメラ付きロボツトの制御方法
US4685067A (en) * 1986-02-20 1987-08-04 Cincinnati Milacron Inc. Control system for program controlled manipulator having multiple triggered functions between programmed points
US4835710A (en) * 1987-07-17 1989-05-30 Cincinnati Milacron Inc. Method of moving and orienting a tool along a curved path
US4831549A (en) * 1987-07-28 1989-05-16 Brigham Young University Device and method for correction of robot inaccuracy
JP2708458B2 (ja) * 1988-04-01 1998-02-04 株式会社豊田中央研究所 倣い制御ロボット
US5053976A (en) * 1989-05-22 1991-10-01 Honda Giken Kogyo Kabushiki Kaisha Method of teaching a robot
JPH0736989B2 (ja) * 1990-01-19 1995-04-26 トキコ株式会社 工業用ロボットの制御方法
US5380978A (en) * 1991-07-12 1995-01-10 Pryor; Timothy R. Method and apparatus for assembly of car bodies and other 3-dimensional objects
JP3230826B2 (ja) * 1991-10-16 2001-11-19 ファナック株式会社 スポット溶接ガンの位置補正方法及びロボット溶接装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009220248A (ja) * 2008-03-18 2009-10-01 Ihi Corp ロボット設置方法及びロボット生産システム

Also Published As

Publication number Publication date
US5572103A (en) 1996-11-05
WO1995008143A1 (fr) 1995-03-23
JPH0784631A (ja) 1995-03-31

Similar Documents

Publication Publication Date Title
JP3665353B2 (ja) ロボットの教示位置データの3次元位置補正量取得方法及びロボットシステム
JP3733364B2 (ja) 教示位置修正方法
US10695910B2 (en) Automatic calibration method for robot system
JP7207851B2 (ja) 制御方法、ロボットシステム、物品の製造方法、プログラム及び記録媒体
JP6468741B2 (ja) ロボットシステム及びロボットシステムの校正方法
US10618166B2 (en) Teaching position correction device and teaching position correction method
EP1607194B1 (en) Robot system comprising a plurality of robots provided with means for calibrating their relative position
JP6661028B2 (ja) 作業位置補正方法
JP4021413B2 (ja) 計測装置
US9050728B2 (en) Apparatus and method for measuring tool center point position of robot
JP5366018B2 (ja) ロボットの教示手順校正装置および方法
JP5978941B2 (ja) 接合体の製造方法およびその製造装置
CN107214692B (zh) 机器人系统的自动标定方法
JP5715809B2 (ja) ロボットの作業プログラム作成方法、ロボットの作業プログラム作成装置、及びロボット制御システム
JP6466661B2 (ja) ロボットの教示点変換方法、装置、及びロボットセル
JP2015182144A (ja) ロボットシステムおよびロボットシステムの校正方法
JPH08377B2 (ja) ロボット不正確度修正方法
KR20080088165A (ko) 로봇 캘리브레이션 방법
JPWO2018043525A1 (ja) ロボットシステム、ロボットシステム制御装置、およびロボットシステム制御方法
US7925382B2 (en) Robot controller and robot control method
JP6912529B2 (ja) 視覚誘導ロボットアームの補正方法
JPH09222913A (ja) ロボットの教示位置補正装置
WO2024062535A1 (ja) ロボット制御装置
JP2022181810A (ja) ロボットシステム
JP2022048096A (ja) 位置決め方法及び位置決め装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20041108

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20050401

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080408

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090408

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100408

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100408

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110408

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees