JP4257468B2 - Painting robot - Google Patents

Painting robot Download PDF

Info

Publication number
JP4257468B2
JP4257468B2 JP09439699A JP9439699A JP4257468B2 JP 4257468 B2 JP4257468 B2 JP 4257468B2 JP 09439699 A JP09439699 A JP 09439699A JP 9439699 A JP9439699 A JP 9439699A JP 4257468 B2 JP4257468 B2 JP 4257468B2
Authority
JP
Japan
Prior art keywords
image
teaching
gun
coordinate system
painting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP09439699A
Other languages
Japanese (ja)
Other versions
JP2000288432A (en
Inventor
典之 内海
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yaskawa Electric Corp
Original Assignee
Yaskawa Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yaskawa Electric Corp filed Critical Yaskawa Electric Corp
Priority to JP09439699A priority Critical patent/JP4257468B2/en
Publication of JP2000288432A publication Critical patent/JP2000288432A/en
Application granted granted Critical
Publication of JP4257468B2 publication Critical patent/JP4257468B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Manipulator (AREA)
  • Spray Control Apparatus (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、教示・再生型の塗装ロボットに関する。
【0002】
【従来の技術】
教示・再生型の塗装ロボットにおいては、移動軌跡上の複数の教示点を教示する、いわゆるPTP(Point to Point)方式で塗装ガンの移動軌跡が教示されることになり、再生時は、このように教示された教示点を直線や円弧で補間することにより、連続する移動軌跡に変換して動作するようになっている。
そして、教示中に移動軌跡を確認したい場合には、最後に教示した教示点から数ポイント前の教示点に戻して、再生を行って、教示点間を連続動作させることになる。
【0003】
【発明が解決しようとする課題】
従来の塗装ロボットにおいては、教示中は塗装ガンの現在までの教示点の位置が分からないため、塗装ガンの教示点を結ぶ移動軌跡にうねりを生じやすい。このように塗装ガンの移動軌跡にうねりがあると塗装の「たれ」や「すけ」等、塗装品質の低下を生じてしまうことになる。このため、教示したデータが塗装ガンの移動軌跡にうねりを生じさせるものであるかどうかを、上記のように再生を行って確認しなければならず、また、塗装ガンの移動軌跡のうねりがあった場合には、教示点を修正する必要がある。よって、教示・再生・修正を繰り返し行わなければならず、教示終了までに多くの時間を要し、特に生産ライン上で教示を行っている場合、ライン停止時間が長くなり生産性が低下してしまうという問題があった。
本発明は、教示中において塗装ガンに関わる位置の移動軌跡を容易かつ速やかに確認可能とすることにより、教示終了までに必要な時間を短縮することができる塗装ロボットの提供を目的とする。
【0004】
【課題を解決するための手段】
上記目的を達成するため、本発明の請求項1記載の塗装ロボットは、塗料を噴出させる塗装ガンと、該塗装ガンを移動させるマニピュレータと、操作入力がなされる操作手段とを有する塗装ロボットにおいて、ワーク及びワーク周辺に画像を投影する画像出力装置及び画像投影手段と、教示データに基づく前記塗装ガンの塗装の狙い先である狙い点の位置を表す像および前記塗装ガンの塗装の狙い先である狙い点の移動軌跡を表す像を前記画像投影手段に対応する像に変換する変換手段と、を備え、前記画像出力装置は前記変換手段で変換された像を、前記画像投影手段から投影させる投影制御手段を具備することを特徴としている。このように、変換手段が、教示データに基づく塗装ガンの位置情報に基づく該塗装ガンに関わる位置を表す像(塗装ガンの塗装の狙い先である狙い点の移動軌跡を表す像)を、画像投影手段に対応した像に変換するとともに、投影制御手段が、変換手段で変換された塗装ガンに関わる位置を表す像を、画像投影手段で例えばワーク上に表示させることになる。
【0008】
【発明の実施の形態】
本発明の塗装ロボットの実施の参考例を図1〜図5を参照して以下に説明する。この塗装ロボット10は、図1に示すように、多軸のマニピュレータ11と、該マニピュレータ11にケーブル12を介して接続されて該マニピュレータ11の各軸の作動等を制御するコントローラ13と、該コントローラ13にケーブル14を介して接続されるとともにマニピュレータ11に対する動作教示や塗装作業に伴う塗料吐出量の設定などのデータ作成の操作入力がオペレータによりなされるティーチングペンダント(操作手段)15とを有している。
【0009】
マニピュレータ11は、塗装ブースの床面等に設置固定される固定ベース17と、この固定ベース17上に鉛直軸回りに図示せぬサーボモータの駆動で回転するように設けられた旋回ベース18と、該旋回ベース18に一端側が水平軸回りに回転自在に支持されるとともに旋回ベース18に設けられた図示せぬサーボモータの駆動で回転する第1アーム20と、該第1アーム20の他端側に一端側が水平軸回りに回転自在に支持されるとともに第1アーム20の他端側に設けられた図示せぬサーボモータの駆動で回転する第2アーム22とを有している。これにより第2アーム22は3自由度を有している。
【0010】
また、マニピュレータ11は、第2アーム22の他端側に取り付けられる3自由度の回転運動が可能な手首部23と、手首部23の先端側に取り付けられる、塗料をワークWに向け噴出させる塗装ガン25とを有している。
以上のマニピュレータ11は、合計6自由度を持つことになる。また、マニピュレータ11の先端に取り付けられた塗装ガン25は、マニピュレータ11の動作範囲内であれば任意の位置および姿勢をとることが可能となる。
【0011】
マニピュレータ11の前方には、該マニピュレータ11の塗装ガン25で塗装作業が行われる作業対象物であるワークWが配置されることになる。
該ワークWの上方には、塗装ブースに位置固定で配置された雲台27が設けられており、この雲台27の上には、撮影対象としてのワークWを撮影しその像を捉えて画像として入力させるカメラ(画像入力手段)28が設けられている。雲台27は、コントローラ13にケーブル29を介して接続されており、該コントローラ13により制御されてカメラ28を鉛直軸回りおよび水平軸回りに回転させるようになっている。
ここで、カメラ28は、ワークWの塗装対象部分(この場合上面)の全体像およびその周囲を撮影範囲に含むように配置されている。
【0012】
カメラ28は、コントローラ13にケーブル29を介して接続されており、撮影した像のビデオ信号をコントローラ13に導入させるようになっている。
コントローラ13の上にはモニタ(画像表示手段)30が載置されており、コントローラ13は、このモニタ30の画面に、カメラ28で撮影した画像やコントローラ13で生成した像を表示させる。
【0013】
コントローラ13には、上記したように、マニピュレータ11、ティーチングペンダント15、カメラ28、雲台27およびモニタ30が接続されており、これらに対し情報や電力の伝達を行うようになっている。
すなわち、コントローラ13は、マニピュレータ11内のモータを駆動することによりマニピュレータ11の姿勢を変化させたり、雲台27内のモータを駆動することにより雲台27すなわちカメラ28の水平に対する角度および鉛直に対する角度を変化させたり、ティーチングペンダント15を介してのオペレータからの入力を受け取って処理したり、必要な情報をティーチングペンダント15の表示部に表示させたり、カメラ28からの画像を取り込んで処理し記憶したり、モニタ30に画像を出力し表示させたり等を行うことになる。
【0014】
ここで、固定ベース17の座標系であるベース座標系と、塗装ガン25の座標系となるガン座標系と、カメラ28の座標系であるカメラ座標系とが塗装ロボット10の制御に用いられる主要な座標系となっている。
ベース座標系は、塗装ガン25やカメラ28の位置および姿勢を表す基準となる座標系であり、塗装ブースに固定された静座標系である。
ガン座標系は、塗装ガン25に固定され塗装ガン25とともに動く動座標系である。
カメラ座標系は、カメラ28に固定された座標系であり、雲台27の動作に伴って動く動座標系である。
【0015】
コントローラ13は、図2に示すように、制御装置(変換手段、表示制御手段)32と、画像入力装置(画像入力手段)33と、画像出力装置(画像表示手段)34と、雲台ドライバ35と、サーボドライバ36と、記憶装置37とから構成されている。
【0016】
制御装置32には、ティーチングペンダント15、画像入力装置33、画像出力装置34、雲台ドライバ35、サーボドライバ36および記憶装置37が接続されており、これらは制御装置32によりそれぞれの動作が制御される。
画像入力装置33は、カメラ28から出力されるビデオ信号をディジタル化した画像データに変換し制御装置32に出力する。
画像出力装置34は、制御装置32から画像データが送られてくると、該画像データに基づく画像をモニタ30に表示させる。
【0017】
雲台ドライバ35は、制御装置32からの駆動指令によって雲台27のモータを駆動する。
サーボドライバ36は、制御装置32から送られるマニピュレータ11への位置指令信号に基づいて該マニピュレータ11を位置指令に追従するように各モータをサーボ制御する。
記憶装置37は、画像データおよび教示データを記憶させる。
【0018】
そして、実施の参考例の制御装置32は、ティーチングペンダント15で入力された塗装ガン25の教示データ(位置情報)に基づく該塗装ガン25に関わる位置を表す像を、カメラ28および画像入力装置33に対応した像に変換する。具体的には、ティーチングペンダント15で入力された塗装ガン25の教示データ(位置情報)に基づく該塗装ガン25自体の位置を表す像、塗装ガン25自体の姿勢を表す像、塗装ガン25自体の移動軌跡を表す像および作業情報を表す像を、カメラ28および画像入力装置33に対応した像(カメラ28で見たと仮定した場合の像)に変換する。
【0019】
また、制御装置32は、このように変換された塗装ガン25に関わる位置を表す像を、カメラ28および画像入力装置33で入力させた画像に重ね、画像出力装置34を介してモニタ30に表示させる。具体的には、変換した塗装ガン25自体の位置を表す像、塗装ガン25自体の姿勢を表す像、塗装ガン25自体の移動軌跡を表す像および作業情報を表す像を、カメラ28および画像入力装置33で入力させた画像に重ね、画像出力装置34を介してモニタ30に表示させる。なお、塗装ガン25の位置および移動軌跡は、その先点の位置および移動軌跡とされる。
【0020】
図3は、教示作業中におけるモニタ30の画面表示例を示すものである。
モニタ30の画面には、ワークWと、塗装ガン25のすでに教示された各教示点の位置および姿勢を示す各教示点におけるガン座標系40と、各教示点の教示点番号41と、各教示点から補間により生成された教示軌跡のうち塗装ガン25をON状態とする教示軌跡42と、各教示点から補間により生成された教示軌跡のうち塗装ガン25をOFF状態とする教示軌跡43と、現在の塗装ガンの位置および姿勢を示すガン座標系44と、教示中の塗装ガン25のガン先点の移動軌跡45とが表示されている。ここで、教示軌跡のうち塗装ガン25をON状態とする教示軌跡42と、塗装ガン25をOFF状態とする教示軌跡43とは、線種を異ならせることで区別されている。
【0021】
次に、上記のような画面表示を行わせる制御装置32の制御内容を説明するが、その前に、3つの座標系であるベース座標系、ガン座標系、カメラ座標系の関係について説明する。
ベース座標系から見たガン座標系は、以下の4行4列の行列で表される。
【0022】
【数1】

Figure 0004257468
【0023】
ここで、BGBGBGは、ベース座標系から見たガン座標系のx,y,z軸方向の単位ベクトル、BGは、ベース座標系から見たガン座標系の原点位置を表す変位ベクトルである。これらの各ベクトルは、3行1列の縦ベクトルである。行列およびベクトルの左上に付されている添字は見ている座標系を、右下に付されている添字は対象とする座標系を表している。すなわち、添字のBはベース座標系を、添字のGはガン座標系を、添字のCはカメラ座標系をそれぞれ表している。
【0024】
この行列BGは、マニピュレータ11の関節角度から演算できる。マニピュレータ11の6つの関節角度θ1〜θ6を、
θ=[θ1 θ2 θ3 θ4 θ5 θ6T
とベクトルで表すと、
BG=f(θ)
の関係が成り立つ。ここで、添字Tは転置を表す。
関数f(θ)は運動学関数でありマニピュレータ11の自由度構成に基づき誘導される。この関数の誘導法ならびに具体的な式は既知であるのでここでは省略する。
ベース座標系から見たカメラ座標系は、以下で表される。
【0025】
【数2】
Figure 0004257468
【0026】
ここで、BCBCBCは、ベース座標系から見たカメラ座標系のx,y,z軸方向の単位ベクトル、BCは、ベース座標系から見たカメラ座標系の原点位置を表す変位ベクトルである。
この行列BCは、雲台27の設置位置と雲台27の鉛直軸回りと水平軸回りの回転角の関数である。この関数は容易に誘導できるので具体的な式の形は省略する。
このとき、カメラ座標系から見たガン座標系は、以下で表される。
【0027】
【数3】
Figure 0004257468
【0028】
カメラ座標系から見たガン座標系は、行列BGBCから次のように誘導される。
CG=(BC-1BG
カメラ座標系から見たガン座標系の原点位置CGは、
G=fPCG
という透視変換によってカメラ28の画像面上の位置pGに変換される。透視変換の関数fP(p)は既知であるので省略する。
【0029】
カメラ28が捉えた画像は、カメラ28の画像面上の像になっているので、この像に上記の方法で求めたガン座標系の原点位置の像pGを重ね合わせ、モニタ30に出力するとカメラ28が捉えた画像上にガン座標系の原点位置が表示されることになる。
同様に、カメラ座標系から見たガン座標系のx,y,z軸方向の単位ベクトルの先端位置ベクトルCGCGCGCGCGCGを透視変換してカメラ28の画像面上の像を求めることによりモニタ30にガン座標系を表示させることができる。
【0030】
次に、上記のような画面表示を行わせる制御装置32の制御内容を、図4に示すPAD図に基づき、ステップ毎に説明する。なお、図4にPAD図で示される処理は一定サンプリング周期毎に実行される。
【0031】
{ステップSA1}
マニピュレータ11を与えられた位置指令値に移動させるようにサーボドライバ36に信号を出力する。
{ステップSA2}
記憶装置37にある1サンプリング前のガン座標系の画像を消去する。
{ステップSA3}
現在のガン座標系のカメラ座標系から見た像を生成し記憶装置37に記憶する。
【0032】
{ステップSA4}
現在と1サンプリング前のガン座標系原点とを結ぶ像(すなわち塗装ガン25自体の移動軌跡)を生成し記憶装置37に記憶する。
{ステップSA5}
記憶装置37にあるカメラ28が捉えた画像に、現在のガン座標系の画像と、ガン座標系原点を結ぶ像とを重ね、画像出力装置34を介してモニタ30に出力する。
【0033】
以上のような処理を行うことにより、マニピュレータ11を動かすとそれに伴ってモニタ30上に現在のガン座標系44と教示中の塗装ガン25の先点の移動軌跡45がリアルタイムで表示される。
【0034】
カメラ28が捉える画像は、ティーチングペンダント15の「画像入力キー」を押下することにより画像入力装置33でディジタル化され記憶装置37に記憶される(後述する)。このとき、マニピュレータ11をカメラ28の視野の外に移動させておけば、ワークWだけの像を記憶させることができる。このようにワークWだけの像を記憶させておくと、マニピュレータ11のアーム20,22や手首部23により塗装ガン25が隠れて見にくくなるような教示位置においても、モニタ30ではワークWに対するガン座標系の関係が、マニピュレータ11のアーム20,22や手首部23等の障害物に遮られることなく確認できることになる。
【0035】
教示時にティーチングペンダント15からのキー入力があった場合、制御装置32は、図5のPAD図に示す制御内容を実行する。この制御内容をステップ毎に説明する。
{ステップSB1}
操作入力されたキーが「画像入力キー」、「カメラ移動キー」、「マニピュレータ移動キー」および「教示点キー」のいずれであるかを判定し、「画像入力キー」が操作入力された場合はステップSB2を、「カメラ移動キー」が操作入力された場合はステップSB3を、「マニピュレータ移動キー」が操作入力された場合はステップSB8を、「教示点キー」が操作入力された場合はステップSB9を、それぞれ実行する。
【0036】
{ステップSB2}
カメラ28が捉えている画像を画像入力装置33によりディジタル化して記憶装置37に記憶し、処理を終える。
【0037】
{ステップSB3}
押下されたキーに対応させて移動指令を雲台ドライバ35に出力する。
{ステップSB4}
新しいカメラ姿勢に対応させてベース座標系から見たカメラ座標系を表す行列であるBCを算出する。
{ステップSB5}
カメラ28が捉えている画像を画像入力装置33によりディジタル化して記憶装置37に記憶する。
【0038】
{ステップSB6}
記憶装置37に記憶されている教示点および教示軌跡の画像を新しいカメラ座標系に対する画像に変換する。
{ステップSB7}
記憶装置37にあるカメラ28が捉えた画像に、新しいカメラ座標系に対する教示点および教示軌跡の画像を重ね画像出力装置34に出力しモニタ30に表示させて、処理を終える。
【0039】
以上のステップSB3〜SB7により、カメラ座標系が変更されても、ティーチングペンダント15で入力された塗装ガン25の教示データに基づく該塗装ガン25自体の位置および姿勢を表す像および塗装ガン25自体の移動軌跡を表す像を、カメラ座標系と対応するカメラ28および画像入力装置33に対応した像に変換する。
【0040】
{ステップSB8}
押下されたマニピュレータ移動キーに対応させて位置指定値を生成し、処理を終える。
{ステップSB9}
現在のガン座標系、動作情報(教示点間の補間方法、移動速度、塗装ガン25のON/OFF情報等)および教示点番号を教示点情報として記憶装置37に記憶する。
【0041】
{ステップSB10}
現在と1つ前の教示点情報から教示点間を結ぶ教示軌跡を生成する。
{ステップSB11}
生成した教示軌跡をカメラ座標系から見た画像に変換し記憶装置37に記憶する。
{ステップSB12}
記憶装置37にあるカメラ28が捉えた画像に、生成した教示軌跡の画像を重ね画像出力装置34に出力しモニタ30に表示させて、処理を終える。
【0042】
以上のステップSB9〜SB12により、上記のようにカメラ28および画像入力装置33に対応した像に変換され記憶装置37に記憶された塗装ガン25自体の位置および姿勢を表す像および塗装ガン25自体の移動軌跡を表す像を、カメラ28および画像入力装置33で入力させた画像に重ねて画像出力装置34を介してモニタ30に表示させる。
【0043】
そして、再生時にはすべての教示点と教示点間を結ぶ教示軌跡が確定しているので、これらの教示点および教示軌跡と、現在のガン座標系とをモニタ30に表示することができる。
【0044】
以上に述べた塗装ロボット10によれば、制御装置32が、ティーチングペンダント15で入力された塗装ガン25の位置情報に基づく該塗装ガン25自体の位置および姿勢を表す像と塗装ガン25の移動軌跡を表す像とを、カメラ28および画像入力装置33に対応した像に変換するとともに、このように変換された塗装ガン25自体の位置および姿勢を表す像と塗装ガン25の移動軌跡を表す像とを、カメラ28および画像入力装置33で入力させた画像に重ねて画像出力装置34を介してモニタ30の画面上に表示させることになる。
【0045】
したがって、教示中において塗装ガン25自体の移動軌跡を表示することになり、よって、教示中において塗装ガン25自体の移動軌跡を容易かつ速やかに確認可能となり、よって、移動軌跡にうねりがあるかどうかを容易かつ速やかに確認できるため、塗装ガン25を滑らかに移動させる教示データを作成するのに必要な時間を短縮することができる。これにより、教示のためのライン停止時間が短くなり生産性を向上させることができる。
【0046】
また、塗装ガン25の無駄な動作をなくし、塗装ピッチを一定間隔にし易いので、「たれ」や「すけ」の少ない高品質な塗装が簡単に実現できる。
さらに、教示後に何度も試し塗りと修正をする必要がないので、試し塗りの塗料の使用量を減らすことができる。
【0047】
なお、以上においては、カメラ28とモニタ30とを各1台ずつとしているが、それぞれ複数台設けてもよい。この場合、ベース座標系から見たカメラ座標系を表す行列BCをカメラ28の台数分計算し、ガン座標系をそれぞれのカメラ座標系から見た像に変換して対応するモニタ30に出力することになる。複数台のカメラ28を設けることによっていろいろな角度から塗装ガン25の位置や塗装ガン25の姿勢が確認できるようになる。
【0048】
また、以上においては、画像を表示するために専用のモニタ30を設けたが、この画像をティーチングペンダント15の表示部に表示してもよい。この場合、操作部と画像表示部とが一体となって持ち運べるので、マニピュレータ11を操作しながら教示軌跡を確認できる。
【0049】
次に、本発明の塗装ロボットの第1の実施の形態を図6〜図12を参照して実施の参考例との相違部分を中心に以下に説明する。なお、実施の参考例と同様の部分には同一の符号を付しその説明は略す。第1の実施の形態において、図6に示すように、ワークWの上方には、塗装ブースの壁面等に固定されてプロジェクタ(画像投影手段)50が設けられている。このプロジェクタ50は、液晶やレーザを用いて画像を外部に投影する装置である。なお、プロジェクタ50は、ワークWの塗装対象部分(この場合上面)の全体およびその周囲を画像投影範囲に含み、かつ投影した画像がワークWの塗装対象部分で最も鮮明となるように位置や焦点距離が調整されている。
【0050】
コントローラ13には、マニピュレータ11、ティーチングペンダント15およびプロジェクタ50が接続されており、これらに対し情報や電力の伝達を行うようになっている。
すなわち、コントローラ13は、マニピュレータ11内のモータを駆動することによりマニピュレータの姿勢を変化させたり、ティーチングペンダント15を介してのオペレータからの入力を受け取って処理したり、必要な情報をティーチングペンダント15の表示部に表示させたり、プロジェクタ50への画像を出力したり等を行うことになる。
【0051】
ここで、固定ベース17の座標系であるベース座標系と、塗装ガン25の座標系となるガン座標系と、プロジェクタ50の座標系であるプロジェクタ座標系とが塗装ロボット10の制御に用いられる主要な座標系となっている。
ベース座標系は、塗装ガン25やプロジェクタ50の位置および姿勢を表す基準となる座標系であり、塗装ブースに固定された静座標系である。
ガン座標系は、塗装ガン25に固定され塗装ガン25とともに動く動座標系である。
プロジェクタ座標系は、プロジェクタ50に固定された座標系であり、塗装ブースに固定された静座標系である。
【0052】
コントローラ13は、図7に示すように、制御装置(変換手段、投影制御手段)51と、画像出力装置(画像投影手段)52と、サーボドライバ53と、記憶装置54とから構成されている。
制御装置51には、ティーチングペンダント15、画像出力装置52、サーボドライバ53および記憶装置54が接続されており、これらは制御装置51によりそれぞれの動作が制御される。
【0053】
画像出力装置52は、制御装置51から画像データが送られてくると、該画像データに基づく画像をプロジェクタ50から投影させる。
サーボドライバ53は、制御装置51から送られるマニピュレータ11への位置指令信号に基づいてマニピュレータ11を位置指令に追従するようにマニピュレータ11の各モータをサーボ制御する。
記憶装置54は、投影画像データおよび教示データを記憶させる。
【0054】
そして、第1の実施の形態の制御装置51は、ティーチングペンダント15で入力された塗装ガン25の教示データ(位置情報)に基づく該塗装ガン25に関わる位置を表す像を、画像出力装置52およびプロジェクタ50に対応する像に変換する。具体的には、ティーチングペンダント15で入力された塗装ガン25の教示データ(位置情報)に基づく該塗装ガン25の塗装の狙い先である狙い点の位置を表す像および塗装ガン25の塗装の狙い先である狙い点の移動軌跡を表す像を、プロジェクタ50および画像出力装置52に対応した像(プロジェクタ50から見たと仮定した場合の像)に変換する。
【0055】
また、制御装置51は、このように変換された塗装ガン25に関わる位置を表す像を、画像出力装置52を介してプロジェクタ50から投影させる。具体的には、変換した塗装ガン25の狙い先である狙い点の位置を表す像および塗装ガン25の狙い先である狙い点の移動軌跡を表す像を表す像を、画像出力装置52を介してプロジェクタ50から位置既定のワークWに投影させる。
【0056】
図8は、教示作業中におけるプロジェクタ50の画像投影例を示すものである。
ここで、塗装ガン25の狙い先である狙い点60は塗装ガン25のガン先から一定の距離進んだ位置にあるものとする。この距離は塗装ガン25を用いて最適な塗装ができるガン先からワークWまでの距離Lに相当する。教示中にこの距離を正確に保つのが難しい場合には教示用治具(後述する)を用いてもよい。
【0057】
塗装ガン25の狙い点60は、ティーチングペンダント15上の各種のマニピュレータ移動キーを押下することにより移動する。最新の狙い点60に対応したガン座標系を現在のガン座標系61とする。狙い点60を移動させると狙い点の移動軌跡62がワークWの外面に投影される。この狙い点の移動軌跡62は制御装置51で計算され画像出力装置52を通してプロジェクタ50から投影された像である。狙い点60が教示位置63であるならば、ティーチングペンダント15上の教示点キーを押下することにより、この位置を記憶装置54に記憶させる。また、一点前の教示点から現在の教示点までの移動速度や塗装ガン25の動作情報(塗料のON・OFF等)をティーチングペンダント15から入力し、記憶装置54に記憶させる。制御装置51は教示点間の情報を基に教示点間の軌道を生成する。その軌道が塗料を出す軌道であるならば、制御装置51は狙い点の教示軌跡64を生成し、画像出力装置52を通してプロジェクタ50から像をワークWの塗装対象部分である上面に投影する。狙い点の教示軌跡64には一定時間毎の速度ベクトルが分かるように矢印が付加してある。
【0058】
図9は、プロジェクタ50から投影される像のキャリブレーション方法を説明する図である。
塗装ガン25の先には、ガン先から狙い位置までの距離に相当する長さを持った棒状の教示用治具55が設けられている。この教示用治具55の先端点をワークWの特徴点に持って行き、ワークW上の複数の特徴点を教示する。図9のような箱型のワークWならばそれぞれの頂点位置を特徴点の教示位置66として教示する。この教示位置66を結ぶ軌道の狙い点軌跡は狙い点の教示軌跡67のように生成される。狙い点の教示軌跡67は必ずしも教示位置66を結ぶ軌道の狙い点軌跡と一致しない。図9に示すようにずれる場合がある。このような場合、ティーチングペンダント15上の拡大・縮小、平行移動、回転移動に関するそれぞれのキーを押下することにより、プロジェクタ50から投影される狙い点の教示軌跡67を教示位置66を結ぶ軌道の狙い点軌跡に近づけることができる(後述する)。
【0059】
次に、上記のような画面表示を行わせる制御装置51の制御内容を説明するが、その前に、3つの座標系であるベース座標系、ガン座標系、プロジェクタ座標系の関係について説明する。
ベース座標系から見たガン座標系は、以下の4行4列の行列で表される。
【0060】
【数4】
Figure 0004257468
…(1)
【0061】
ここで、BGBGBGは、ベース座標系から見たガン座標系のx,y,z軸方向の単位ベクトル、BGは、ベース座標系から見たガン座標系の原点位置を表す変位ベクトルである。これらの各ベクトルは、3行1列の縦ベクトルである。行列およびベクトルの左上に付されている添字は見ている座標系を、右下に付されている添字は対象とする座標系を表している。すなわち、添字のBはベース座標系を、添字のGはガン座標系を、添字のPはプロジェクタ座標系をそれぞれ表している。
【0062】
この行列BGは、マニピュレータ11の関節角度から演算できる。マニピュレータ11の6つの関節角度θ1〜θ6を、
θ=[θ1 θ2 θ3 θ4 θ5 θ6T
とベクトルで表すと、
BG=f(θ)
…(2)
の関係が成り立つ。ここで、添字Tは転置を表す。
【0063】
関数f(θ)は運動学関数でありマニピュレータ11の自由度構成に基づき誘導される。この関数の誘導法ならびに具体的な式は既知であるのでここでは省略する。
ベース座標系から見たプロジェクタ座標系は、
【0064】
【数5】
Figure 0004257468
…(3)
【0065】
で表される。ここで、BPBPBPは、ベース座標系から見たプロジェクタ座標系のx,y,z軸方向の単位ベクトル、BPは、ベース座標系から見たプロジェクタ座標系の原点位置を表す変位ベクトルである。プロジェクタ50は塗装ブースに固定されているので、BPBPBPBPは、定数ベクトルであり、プロジェクタ50の設置条件より決定される。この値は記憶装置54内に記憶されている。
このとき、プロジェクタ座標系から見たガン座標系は、
【0066】
【数6】
Figure 0004257468
【0067】
で表され、行列BGBPから次のように誘導される。
PG=(BP-1BG
…(4)
【0068】
すなわち、プロジェクタ座標系から見た塗装ガン25の位置・姿勢は、マニピュレータ11の6つの関節角度θ1〜θ6の関数として求められる。
マニピュレータ11のアーム20,22の長さ等のパラメータは、運動学関数f(θ)に含まれ、プロジェクタ50に関するパラメータは、4つの定数ベクトルBPBPBPBPになっている。一般に運動学関数に含まれるパラメータは正確に測定され誤差は少ないが、プロジェクタ50の設置条件より決定されるパラメータにはある程度の誤差が含まれる場合が多い。
【0069】
これより、プロジェクタ座標系から見た塗装ガン25の狙い点をPWとすると、
PWPG+L・PG
…(5)
で与えられる。
【0070】
塗装ガン25の狙い点PWに対応したプロジェクタ50の画像面上の平面位置pWは、透視変換の関数fP(p)を用いて、
W=fPPW
…(6)
と求めることができる。透視変換の関数fP(p)には、パラメータとして、プロジェクタ50の焦点距離λが含まれる。この関数の形は既知であるので省略する。
【0071】
次に、上記のような画面投影を行わせる制御装置51の制御内容を、図10に示すPAD図に基づき、ステップ毎に説明する。なお、図10にPAD図で示される処理は一定サンプリング周期毎に実行される。
【0072】
{ステップSC1}
マニピュレータ11を与えられた位置指令値に移動させるようにサーボドライバ53に信号を出力する。
{ステップSC2}
現在の狙い点を式(2)から式(5)を用いプロジェクタ座標系から見た位置に変換し記憶装置54に記憶する。
【0073】
{ステップSC3}
1サンプリング前の狙い点を記憶装置54から読み出し、現在の狙い点と結ぶ線分(すなわち塗装ガン25の狙い点の移動軌跡)を生成する。
{ステップSC4}
生成された線分を式(6)により透視変換し、画像出力装置52に出力し、プロジェクタ50から投影させる。
【0074】
以上のような処理を行うことにより、マニピュレータ11を動かすとそれに伴ってワークWの上面上に現在の塗装ガン25の狙い点60と塗装ガン25の狙い点の移動軌跡62とがリアルタイムで表示される。
【0075】
教示時にティーチングペンダント15からのキー入力があった場合、制御装置51は、図11のPAD図に示す制御内容を実行する。この制御内容をステップ毎に説明する。
{ステップSD1}
操作入力されたキーが「マニピュレータ移動キー」、「教示点キー」、「拡大・縮小キー」、「平行移動キー」および「回転移動キー」のいずれであるかを判定し、「マニピュレータ移動キー」が操作入力された場合はステップSD2を、「教示点キー」が操作入力された場合はステップSD3を、「拡大・縮小キー」が操作入力された場合はステップSD7を、「平行移動キー」が操作入力された場合はステップSD9を、「回転移動キー」が操作入力された場合はステップSD11を、それぞれ実行する。
【0076】
{ステップSD2}
押下されたマニピュレータ移動キーに対応させて位置指定値を生成し、処理を終える。
【0077】
{ステップSD3}
現在のガン座標系、動作情報(教示点間の補間方法、移動速度、塗装ガン25のON/OFF情報等)および教示点番号を教示点情報として記憶装置54に記憶する。
{ステップSD4}
記憶装置54から現在と1つ前の教示点情報を読み出し、これら教示点間を結ぶ軌跡を生成し、記憶装置54に記憶する。
【0078】
{ステップSD5}
生成した教示軌跡上で塗装ガン25をONするか否かを判定し、塗装ガン25がONのときステップSD6へ移動し、塗装ガン25がONでないときは処理を終える。
{ステップSD6}
記憶装置54にある教示軌道から狙い点軌跡を生成し、プロジェクタ50を用いて像を投影し(具体的な処理手順は後述する)、処理を終える。
【0079】
{ステップSD7}
押下されているキーに応じてプロジェクタ50の焦点距離λを変更する。すなわち、拡大のときは焦点距離λを小さくし、縮小のときは焦点距離λを大きくする。
{ステップSD8}
記憶装置54にある教示軌道から狙い点軌跡を生成し、プロジェクタ50を用いて像を投影し、処理を終える。
【0080】
{ステップSD9}
押下されているキーに応じてプロジェクタ50の原点位置ベクトルBPを以下の式(7)により変更する。
【0081】
【数7】
Figure 0004257468
…(7)
【0082】
ただし、Δx,Δy,Δzは、ティーチングペンダント15から入力されたx方向,y方向,z方向の平行移動量である。
{ステップSD10}
記憶装置54にある教示軌道から狙い点軌跡を生成し、プロジェクタ50を用いて像を投影し、処理を終える。
{ステップSD11}
押下されているキーに応じて、プロジェクタ50の姿勢を表す3つの単位ベクトルBPBPBPを以下の式(8)により変更する。
【0083】
【数8】
Figure 0004257468
…(8)
【0084】
ただし、α,β,γは、ティーチングペンダント15から入力されたx軸,y軸,z軸回りの回転移動量である。
{ステップSD12}
記憶装置54にある教示軌道から狙い点軌跡を生成し、プロジェクタ50を用いて像を投影し、処理を終える。
【0085】
次に、制御装置51が記憶装置54にある教示軌跡から狙い点軌跡を生成し、プロジェクタ50を用いて像を投影する具体的な処理手順について図12のPAD図を参照してステップ毎に説明する。
{ステップSE1}
記憶装置54から教示軌跡を読み出し、式(4)および式(5)を用いプロジェクタ座標系から見た狙い点の軌跡に変換する。
【0086】
{ステップSE2}
狙い点軌跡上に一定時間毎の移動量に対して矢印を付加し、記憶装置54に記憶する。
{ステップSE3}
記憶装置54から狙い点軌跡を読み出し、式(6)により透視変換して、画像出力装置52に出力し、プロジェクタ50により投影させる。
【0087】
以上に述べた塗装ロボット10によれば、制御装置51が、ティーチングペンダント15で入力された塗装ガン25の位置情報に基づく該塗装ガン25の狙い先である狙い点の位置を表す像および塗装ガン25の狙い先である狙い点の移動軌跡を表す像を、プロジェクタ50および画像出力装置52に対応した像に変換するとともに、このように変換された塗装ガン25の狙い先である狙い点の位置を表す像および塗装ガン25の狙い先である狙い点の移動軌跡を表す像を、画像出力装置52を介してプロジェクタ50でワークWに投影させワークW上に表示させることになる。
【0088】
したがって、教示中において塗装ガン25の狙い先である狙い点の移動軌跡を表示することになり、よって、教示中において塗装ガン25の狙い先である狙い点の移動軌跡を容易かつ速やかに確認可能となり、よって、移動軌跡にうねりがあるかどうかを容易かつ速やかに確認できるため、塗装ガン25を滑らかに移動させる教示データを作成するのに必要な時間を短縮することができる。これにより、教示のためのライン停止時間が短くなり生産性を向上させることができる。
【0089】
また、塗装ガン25の無駄な動作をなくし、塗装ピッチを一定間隔にし易いので、「たれ」や「すけ」の少ない高品質な塗装が簡単に実現できる。
さらに、教示後に何度も試し塗りと修正をする必要がないので、試し塗りの塗料の使用量を減らすことができる。
加えて、教示中に移動軌跡を確認するためワークWの狙い位置から目を離す必要がないので、教示作業が中断されず、作業効率が上がる。
【0090】
なお、以上においては、プロジェクタ50を1台としているが、複数台設けてもよい。この場合、ベース座標系から見たプロジェクタ座標系を表す行列BPをプロジェクタ50の台数分計算し、ガン座標系をそれぞれのプロジェクタ座標系から見た像に変換して対応するプロジェクタ50から出力することになる。複数台のプロジェクタ50を設けることによって立体的なワークWに対しても塗装ガン25の狙い点軌跡を表示させることができるようになる。
【0091】
【発明の効果】
以上詳述したように、本発明の請求項1記載の塗装ロボットによれば、変換手段が、教示データによる塗装ガンの位置情報に基づく該塗装ガンに関わる位置を表す像を、画像入力手段に対応した像に変換するとともに、表示制御手段が、変換手段で変換された塗装ガンに関わる位置を表す像を、画像入力手段で入力させた画像に重ねて画像表示手段に表示させることになる。したがって、教示中において塗装ガン位置の移動軌跡を表示可能となり、よって、教示中において塗装ガンに関わる位置の移動軌跡を容易かつ速やかに確認可能となり、教示終了までに必要な時間を短縮することができる。
【0092】
本発明の請求項2記載の塗装ロボットによれば、変換手段が、教示データによる塗装ガンの位置情報に基づく該塗装ガンに関わる位置を表す像を、画像投影手段に対応した像に変換するとともに、投影制御手段が、変換手段で変換された塗装ガンに関わる位置を表す像を、画像投影手段で例えばワーク上に表示させることになる。したがって、教示中において塗装ガンの塗装の狙い先の移動軌跡を表示可能となり、よって、教示中において塗装ガン位置の移動軌跡を容易かつ速やかに確認可能となり、教示終了までに必要な時間を短縮することができる。
【図面の簡単な説明】
【図1】 本発明の塗装ロボットの実施の参考例を示す側面図である。
【図2】 本発明の塗装ロボットの実施の参考例の制御系を示すブロック図である。
【図3】 本発明の塗装ロボットの実施の参考例の教示作業中におけるモニタの画面表示例を示す図である。
【図4】 本発明の塗装ロボットの実施の参考例の教示時に一定サンプリング間隔毎に実行される制御装置の制御内容を示すPAD図である。
【図5】 本発明の塗装ロボットの実施の参考例の教示時にティーチングペンダントからのキー入力があった場合の制御装置の制御内容を示すPAD図である。
【図6】 本発明の塗装ロボットの第1の実施の形態を示す側面図である。
【図7】 本発明の塗装ロボットの第1の実施の形態の制御系を示すブロック図である。
【図8】 本発明の塗装ロボットの第1の実施の形態の教示作業中におけるモニタの画面表示例を示す図である。
【図9】 本発明の塗装ロボットの第1の実施の形態のプロジェクタから投影される像のキャリブレーション方法を示す図である。
【図10】 本発明の塗装ロボットの第1の実施の形態の教示時に一定サンプリング間隔毎に実行される制御装置の制御内容を示すPAD図である。
【図11】 本発明の塗装ロボットの第1の実施の形態の教示時にティーチングペンダントからのキー入力があった場合の制御装置の制御内容を示すPAD図である。
【図12】 本発明の塗装ロボットの第1の実施の形態の教示時に制御装置が教示軌跡から狙い点軌跡を生成し像を投影する制御内容を示すPAD図である。
【符号の説明】
10 塗装ロボット
11 マニピュレータ
15 ティーチングペンダント(操作手段)
25 塗装ガン
28 カメラ(画像入力手段)
30 モニタ(画像表示手段)
32 制御装置(変換手段,表示制御手段)
33 画像入力装置(画像入力手段)
34 画像出力装置(画像表示手段)
50 プロジェクタ(画像投影手段)
51 制御装置(変換手段,投影制御手段)
52 画像出力装置(画像投影手段)[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a teaching / reproducing type painting robot.
[0002]
[Prior art]
In the teaching / reproduction type painting robot, the movement trajectory of the painting gun is taught by a so-called PTP (Point to Point) method that teaches a plurality of teaching points on the movement trajectory. By interpolating the teaching points taught in (1) with straight lines or arcs, the teaching points are converted into continuous movement trajectories.
When it is desired to confirm the movement locus during teaching, the teaching point several points before the last taught point is returned to and reproduced, and the teaching points are continuously operated.
[0003]
[Problems to be solved by the invention]
In the conventional painting robot, since the position of the teaching point of the painting gun up to now is not known during teaching, the movement locus connecting the teaching points of the painting gun is likely to swell. If the movement trajectory of the coating gun is swelled in this way, the coating quality will be degraded, such as “sag” and “skein” of the coating. For this reason, it is necessary to check whether the taught data causes undulations in the movement trajectory of the paint gun by replaying as described above, and there are undulations in the movement trajectory of the paint gun. If this happens, it is necessary to correct the teaching point. Therefore, teaching, playback, and correction must be repeated, and it takes a lot of time to complete teaching. Especially when teaching is performed on the production line, the line stop time becomes long and the productivity decreases. There was a problem that.
An object of the present invention is to provide a painting robot capable of shortening the time required for the completion of teaching by making it possible to easily and quickly confirm the movement locus of the position related to the painting gun during teaching.
[0004]
[Means for Solving the Problems]
In order to achieve the above object, a painting robot according to claim 1 of the present invention is a painting robot having a painting gun for ejecting paint, a manipulator for moving the painting gun, and an operation means for performing an operation input. Image output apparatus and image projecting means for projecting an image around a workpiece and the workpiece, and the painting gun based on teaching dataConversion means for converting an image representing a position of a target point that is the target of painting and a moving locus of the target point that is the target of painting of the paint gun into an image corresponding to the image projecting means;The image output apparatus includes a projection control unit that projects the image converted by the conversion unit from the image projection unit. In this way, the conversion means converts the image representing the position related to the paint gun based on the position information of the paint gun based on the teaching data (the image representing the movement locus of the target point that is the target of painting of the paint gun) to the image The image is converted into an image corresponding to the projection unit, and the projection control unit displays an image representing the position relating to the coating gun converted by the conversion unit on the work, for example, on the image projection unit.
[0008]
DETAILED DESCRIPTION OF THE INVENTION
The painting robot of the present inventionReference example of implementationIs described below with reference to FIGS. As shown in FIG. 1, the painting robot 10 includes a multi-axis manipulator 11, a controller 13 connected to the manipulator 11 via a cable 12 to control the operation of each axis of the manipulator 11, and the controller 13 and a teaching pendant (operation means) 15 for inputting data creation operation inputs such as operation teaching to the manipulator 11 and setting of a paint discharge amount accompanying painting work. Yes.
[0009]
The manipulator 11 includes a fixed base 17 installed and fixed on the floor surface of the painting booth, a turning base 18 provided on the fixed base 17 so as to rotate around a vertical axis by driving a servo motor (not shown), A first arm 20 that is supported by the turning base 18 so as to be rotatable about a horizontal axis and that is rotated by a servo motor (not shown) provided on the turning base 18, and the other end side of the first arm 20. One end side is rotatably supported around a horizontal axis, and has a second arm 22 that is rotated by driving a servo motor (not shown) provided on the other end side of the first arm 20. As a result, the second arm 22 has three degrees of freedom.
[0010]
The manipulator 11 is attached to the other end side of the second arm 22 and has a wrist portion 23 capable of rotational movement with three degrees of freedom, and a paint attached to the tip end side of the wrist portion 23 for spraying paint toward the workpiece W. And a gun 25.
The above manipulator 11 has a total of 6 degrees of freedom. Further, the coating gun 25 attached to the tip of the manipulator 11 can take an arbitrary position and posture as long as it is within the operating range of the manipulator 11.
[0011]
In front of the manipulator 11, a work W, which is a work object to be painted with the painting gun 25 of the manipulator 11, is arranged.
Above the workpiece W, there is provided a pan head 27 that is fixedly positioned in the painting booth. On the pan head 27, a picture of the workpiece W as a subject to be photographed is captured and an image is captured. A camera (image input means) 28 is provided. The pan head 27 is connected to the controller 13 via a cable 29, and is controlled by the controller 13 to rotate the camera 28 about the vertical axis and the horizontal axis.
Here, the camera 28 is arranged so as to include the entire image of the portion to be painted (in this case, the upper surface) of the workpiece W and the periphery thereof in the shooting range.
[0012]
The camera 28 is connected to the controller 13 via a cable 29 so that a video signal of a photographed image is introduced into the controller 13.
A monitor (image display means) 30 is placed on the controller 13, and the controller 13 displays an image captured by the camera 28 or an image generated by the controller 13 on the screen of the monitor 30.
[0013]
As described above, the manipulator 11, the teaching pendant 15, the camera 28, the pan head 27, and the monitor 30 are connected to the controller 13, and information and electric power are transmitted to these.
That is, the controller 13 changes the attitude of the manipulator 11 by driving the motor in the manipulator 11, or the angle with respect to the horizontal and vertical of the camera platform 27, that is, the camera 28, by driving the motor in the camera platform 27. , Receiving and processing input from the operator via the teaching pendant 15, displaying necessary information on the display of the teaching pendant 15, and capturing and processing images stored from the camera 28. Or an image is output and displayed on the monitor 30.
[0014]
Here, the base coordinate system that is the coordinate system of the fixed base 17, the gun coordinate system that is the coordinate system of the painting gun 25, and the camera coordinate system that is the coordinate system of the camera 28 are used for controlling the painting robot 10. Coordinate system.
The base coordinate system is a reference coordinate system that represents the position and orientation of the painting gun 25 and the camera 28, and is a static coordinate system fixed to the painting booth.
The gun coordinate system is a moving coordinate system that is fixed to the paint gun 25 and moves together with the paint gun 25.
The camera coordinate system is a coordinate system fixed to the camera 28 and is a moving coordinate system that moves in accordance with the operation of the camera platform 27.
[0015]
As shown in FIG. 2, the controller 13 includes a control device (conversion means, display control means) 32, an image input device (image input means) 33, an image output device (image display means) 34, and a pan head driver 35. And a servo driver 36 and a storage device 37.
[0016]
A teaching pendant 15, an image input device 33, an image output device 34, a pan head driver 35, a servo driver 36 and a storage device 37 are connected to the control device 32, and these operations are controlled by the control device 32. The
The image input device 33 converts the video signal output from the camera 28 into digitized image data and outputs it to the control device 32.
When image data is sent from the control device 32, the image output device 34 causes the monitor 30 to display an image based on the image data.
[0017]
The pan head driver 35 drives the motor of the pan head 27 according to a drive command from the control device 32.
The servo driver 36 servo-controls each motor so that the manipulator 11 follows the position command based on the position command signal sent from the control device 32 to the manipulator 11.
The storage device 37 stores image data and teaching data.
[0018]
AndReference example of implementationThe control device 32 converts the image representing the position related to the paint gun 25 based on the teaching data (position information) of the paint gun 25 input by the teaching pendant 15 into an image corresponding to the camera 28 and the image input device 33. To do. Specifically, an image representing the position of the painting gun 25 itself based on the teaching data (position information) of the painting gun 25 input by the teaching pendant 15, an image representing the attitude of the painting gun 25 itself, and the painting gun 25 itself. The image representing the movement trajectory and the image representing the work information are converted into an image corresponding to the camera 28 and the image input device 33 (an image assumed when viewed with the camera 28).
[0019]
Further, the control device 32 superimposes the image representing the position relating to the coating gun 25 thus converted on the image input by the camera 28 and the image input device 33, and displays it on the monitor 30 via the image output device 34. Let Specifically, an image representing the converted position of the painting gun 25 itself, an image representing the attitude of the painting gun 25 itself, an image representing the movement trajectory of the painting gun 25 itself, and an image representing work information are input to the camera 28 and the image. It is superimposed on the image input by the device 33 and displayed on the monitor 30 via the image output device 34. Note that the position and movement locus of the coating gun 25 are the position and movement locus of its point.
[0020]
FIG. 3 shows a screen display example of the monitor 30 during teaching work.
The screen of the monitor 30 includes a workpiece W, a gun coordinate system 40 at each teaching point indicating the position and orientation of each teaching point already taught in the paint gun 25, a teaching point number 41 at each teaching point, and each teaching. Of the teaching trajectories generated by interpolation from the points, the teaching trajectory 42 for turning on the painting gun 25; Of the teaching trajectories generated by interpolation from the teaching points, the teaching trajectory 43 for turning off the painting gun 25; A gun coordinate system 44 indicating the current position and orientation of the painting gun and a movement locus 45 of the gun tip point of the painting gun 25 being taught are displayed. Here, of the teaching trajectories, the teaching trajectory 42 for turning the painting gun 25 on and the teaching trajectory 43 for turning the painting gun 25 OFF are distinguished by different line types.
[0021]
Next, the control contents of the control device 32 that performs the screen display as described above will be described. Before that, the relationship among the three coordinate systems, the base coordinate system, the gun coordinate system, and the camera coordinate system will be described.
The gun coordinate system viewed from the base coordinate system is represented by the following 4 × 4 matrix.
[0022]
[Expression 1]
Figure 0004257468
[0023]
here,BxG,ByG,BzGIs a unit vector in the x, y, z axis direction of the gun coordinate system as seen from the base coordinate system,BpGIs a displacement vector representing the origin position of the gun coordinate system as viewed from the base coordinate system. Each of these vectors is a vertical vector of 3 rows and 1 column. The subscripts attached to the upper left of the matrix and vector represent the coordinate system being viewed, and the subscripts attached to the lower right represent the target coordinate system. That is, the subscript B represents the base coordinate system, the subscript G represents the gun coordinate system, and the subscript C represents the camera coordinate system.
[0024]
This matrixBTGCan be calculated from the joint angle of the manipulator 11. 6 joint angles θ of the manipulator 111~ Θ6The
θ = [θ1 θ2 θThree θFour θFive θ6]T
And a vector,
BTG= F (θ)
The relationship holds. Here, the subscript T represents transposition.
The function f (θ) is a kinematic function and is derived based on the degree of freedom configuration of the manipulator 11. Since the derivation method of this function and a specific expression are known, they are omitted here.
The camera coordinate system viewed from the base coordinate system is expressed as follows.
[0025]
[Expression 2]
Figure 0004257468
[0026]
here,BxC,ByC,BzCIs a unit vector in the x, y, z axis direction of the camera coordinate system viewed from the base coordinate system,BpCIs a displacement vector representing the origin position of the camera coordinate system viewed from the base coordinate system.
This matrixBTCIs a function of the installation position of the pan head 27 and the rotation angle of the pan head 27 about the vertical axis and the horizontal axis. Since this function can be easily derived, the specific formula form is omitted.
At this time, the gun coordinate system viewed from the camera coordinate system is expressed as follows.
[0027]
[Equation 3]
Figure 0004257468
[0028]
The gun coordinate system seen from the camera coordinate system is a matrixBTG,BTCIs derived as follows.
CTG= (BTC)-1BTG
Origin position of gun coordinate system viewed from camera coordinate systemCpGIs
pG= FP(CpG)
The position p on the image plane of the camera 28 by the perspective transformationGIs converted to Perspective transformation function fPSince (p) is known, it is omitted.
[0029]
Since the image captured by the camera 28 is an image on the image plane of the camera 28, the image p of the origin position of the gun coordinate system obtained by the above method is added to this image.GAre output to the monitor 30, the origin position of the gun coordinate system is displayed on the image captured by the camera 28.
Similarly, the tip position vector of the unit vector in the x, y, and z axis directions of the gun coordinate system viewed from the camera coordinate systemCpG+CxG,CpG+CyG,CpG+CzGThe gun coordinate system can be displayed on the monitor 30 by obtaining an image on the image plane of the camera 28 through perspective transformation.
[0030]
Next, the control contents of the control device 32 that performs the screen display as described above will be described step by step based on the PAD diagram shown in FIG. Note that the processing shown in the PAD diagram in FIG. 4 is executed at regular sampling intervals.
[0031]
{Step SA1}
A signal is output to the servo driver 36 so as to move the manipulator 11 to the given position command value.
{Step SA2}
The image of the gun coordinate system before one sampling in the storage device 37 is erased.
{Step SA3}
An image viewed from the camera coordinate system of the current gun coordinate system is generated and stored in the storage device 37.
[0032]
{Step SA4}
An image (that is, the movement trajectory of the coating gun 25 itself) connecting the current and the gun coordinate system origin one sampling before is generated and stored in the storage device 37.
{Step SA5}
An image of the current gun coordinate system and an image connecting the origins of the gun coordinate system are superimposed on the image captured by the camera 28 in the storage device 37 and output to the monitor 30 via the image output device 34.
[0033]
By performing the above processing, when the manipulator 11 is moved, the current gun coordinate system 44 and the movement locus 45 of the tip of the painting gun 25 being taught are displayed on the monitor 30 in real time.
[0034]
The image captured by the camera 28 is digitized by the image input device 33 when the “image input key” of the teaching pendant 15 is pressed and stored in the storage device 37 (described later). At this time, if the manipulator 11 is moved out of the field of view of the camera 28, an image of only the workpiece W can be stored. If an image of only the workpiece W is stored in this way, the gun coordinates for the workpiece W are displayed on the monitor 30 even at a teaching position where the coating gun 25 is hidden by the arms 20 and 22 and the wrist 23 of the manipulator 11 and is difficult to see. The system relationship can be confirmed without being obstructed by obstacles such as the arms 20 and 22 of the manipulator 11 and the wrist 23.
[0035]
When there is a key input from the teaching pendant 15 during teaching, the control device 32 executes the control contents shown in the PAD diagram of FIG. This control content will be described step by step.
{Step SB1}
When the operation input key is “Image input key”, “Camera movement key”, “Manipulator movement key” or “Teach point key”, and “Image input key” is input Step SB2, step SB3 when the “camera movement key” is operated, step SB8 when the “manipulator movement key” is input, and step SB9 when the “teaching point key” is input Are executed respectively.
[0036]
{Step SB2}
The image captured by the camera 28 is digitized by the image input device 33 and stored in the storage device 37, and the process ends.
[0037]
{Step SB3}
A movement command is output to the camera platform driver 35 in correspondence with the pressed key.
{Step SB4}
A matrix representing the camera coordinate system as seen from the base coordinate system, corresponding to the new camera poseBTCIs calculated.
{Step SB5}
The image captured by the camera 28 is digitized by the image input device 33 and stored in the storage device 37.
[0038]
{Step SB6}
The teaching point and teaching trajectory images stored in the storage device 37 are converted into images for the new camera coordinate system.
{Step SB7}
Images of teaching points and teaching trajectories for the new camera coordinate system are output to the image output device 34 and displayed on the monitor 30 on the image captured by the camera 28 in the storage device 37, and the processing is completed.
[0039]
Even if the camera coordinate system is changed by the above steps SB3 to SB7, an image representing the position and posture of the painting gun 25 itself and the painting gun 25 itself based on the teaching data of the painting gun 25 input by the teaching pendant 15 is displayed. An image representing the movement locus is converted into an image corresponding to the camera 28 and the image input device 33 corresponding to the camera coordinate system.
[0040]
{Step SB8}
A position designation value is generated corresponding to the pressed manipulator movement key, and the process ends.
{Step SB9}
The current gun coordinate system, operation information (interpolation method between teaching points, moving speed, ON / OFF information of coating gun 25, etc.) and teaching point number are stored in the storage device 37 as teaching point information.
[0041]
{Step SB10}
A teaching locus connecting the teaching points is generated from the current teaching information and the previous teaching point information.
{Step SB11}
The generated teaching locus is converted into an image viewed from the camera coordinate system and stored in the storage device 37.
{Step SB12}
The generated teaching locus image is output to the image output device 34 on the image captured by the camera 28 in the storage device 37 and displayed on the monitor 30 to complete the processing.
[0042]
Through the above steps SB9 to SB12, the image representing the position and orientation of the coating gun 25 itself converted into an image corresponding to the camera 28 and the image input device 33 and stored in the storage device 37 as described above, and the coating gun 25 itself. An image representing the movement trajectory is displayed on the monitor 30 via the image output device 34 while being superimposed on the image input by the camera 28 and the image input device 33.
[0043]
At the time of reproduction, since all the teaching points and the teaching trajectory connecting the teaching points are determined, these teaching points, the teaching trajectory, and the current gun coordinate system can be displayed on the monitor 30.
[0044]
According to the painting robot 10 described above, the control device 32 has an image representing the position and orientation of the painting gun 25 itself based on the positional information of the painting gun 25 input by the teaching pendant 15 and the movement trajectory of the painting gun 25. Is converted into an image corresponding to the camera 28 and the image input device 33, and the image representing the position and orientation of the coating gun 25 itself thus converted and the image representing the movement trajectory of the coating gun 25 are converted. Are displayed on the screen of the monitor 30 via the image output device 34 by being superimposed on the image input by the camera 28 and the image input device 33.
[0045]
Therefore, during the teaching, the movement trajectory of the coating gun 25 itself is displayed. Therefore, during the teaching, the movement trajectory of the painting gun 25 itself can be easily and quickly confirmed. Can be confirmed easily and promptly, the time required for creating teaching data for smoothly moving the coating gun 25 can be shortened. Thereby, the line stop time for teaching is shortened, and the productivity can be improved.
[0046]
Further, since the useless operation of the coating gun 25 is eliminated and the coating pitch is easily set at a constant interval, high-quality coating with less “sag” and “smooth” can be easily realized.
Furthermore, since it is not necessary to perform trial coating and correction many times after teaching, the amount of paint used for trial coating can be reduced.
[0047]
In the above description, one camera 28 and one monitor 30 are provided, but a plurality of cameras 28 and monitors 30 may be provided. In this case, a matrix representing the camera coordinate system viewed from the base coordinate systemBTCIs calculated for the number of cameras 28, and the gun coordinate system is converted into an image viewed from each camera coordinate system and output to the corresponding monitor 30. By providing a plurality of cameras 28, the position of the painting gun 25 and the posture of the painting gun 25 can be confirmed from various angles.
[0048]
In the above description, the dedicated monitor 30 is provided to display an image. However, this image may be displayed on the display unit of the teaching pendant 15. In this case, since the operation unit and the image display unit can be carried together, the teaching locus can be confirmed while operating the manipulator 11.
[0049]
Next, the painting robot of the present inventionFirstEmbodiments will be described with reference to FIGS.Reference example of implementationA description will be given below with a focus on the differences. In addition,Reference example of implementationThe same reference numerals are given to the same parts as in FIG.FirstIn this embodiment, as shown in FIG. 6, a projector (image projection means) 50 is provided above the workpiece W and fixed to the wall surface of the painting booth. The projector 50 is a device that projects an image to the outside using a liquid crystal or a laser. Note that the projector 50 includes the entire coating target portion (in this case, the upper surface) of the workpiece W and the periphery thereof in the image projection range, and the position and focus so that the projected image is clearest in the coating target portion of the workpiece W. The distance has been adjusted.
[0050]
The controller 13 is connected to a manipulator 11, a teaching pendant 15, and a projector 50, and transmits information and power to these.
That is, the controller 13 drives the motor in the manipulator 11 to change the posture of the manipulator, receives and processes input from the operator via the teaching pendant 15, and processes necessary information on the teaching pendant 15. For example, the image is displayed on the display unit or an image is output to the projector 50.
[0051]
Here, the base coordinate system that is the coordinate system of the fixed base 17, the gun coordinate system that is the coordinate system of the painting gun 25, and the projector coordinate system that is the coordinate system of the projector 50 are used for controlling the painting robot 10. Coordinate system.
The base coordinate system is a reference coordinate system that represents the position and orientation of the painting gun 25 and the projector 50, and is a static coordinate system fixed to the painting booth.
The gun coordinate system is a moving coordinate system that is fixed to the paint gun 25 and moves together with the paint gun 25.
The projector coordinate system is a coordinate system fixed to the projector 50, and is a static coordinate system fixed to the painting booth.
[0052]
As shown in FIG. 7, the controller 13 includes a control device (conversion means, projection control means) 51, an image output device (image projection means) 52, a servo driver 53, and a storage device 54.
A teaching pendant 15, an image output device 52, a servo driver 53, and a storage device 54 are connected to the control device 51, and these operations are controlled by the control device 51.
[0053]
When image data is sent from the control device 51, the image output device 52 causes the projector 50 to project an image based on the image data.
The servo driver 53 servo-controls each motor of the manipulator 11 so that the manipulator 11 follows the position command based on the position command signal sent from the control device 51 to the manipulator 11.
The storage device 54 stores projection image data and teaching data.
[0054]
AndFirstThe control device 51 of the embodiment corresponds to the image output device 52 and the projector 50 with an image representing the position related to the painting gun 25 based on the teaching data (position information) of the painting gun 25 input by the teaching pendant 15. Convert to an image. Specifically, based on the teaching data (position information) of the painting gun 25 input by the teaching pendant 15, an image representing the position of the aiming point that is the painting destination of the painting gun 25 and the painting aim of the painting gun 25. An image representing the movement locus of the target point is converted into an image corresponding to the projector 50 and the image output device 52 (an image when viewed from the projector 50).
[0055]
Further, the control device 51 causes the projector 50 to project an image representing the position related to the coating gun 25 converted in this way via the image output device 52. Specifically, an image that represents the position of the target point that is the target of the paint gun 25 and an image that represents the movement locus of the target point that is the target of the paint gun 25 are converted via the image output device 52. Then, the image is projected from the projector 50 onto the workpiece W having a predetermined position.
[0056]
FIG. 8 shows an image projection example of the projector 50 during the teaching work.
Here, it is assumed that the target point 60 that is the target of the painting gun 25 is at a position that is a certain distance away from the tip of the coating gun 25. This distance corresponds to the distance L from the tip of the gun that can be optimally painted using the coating gun 25 to the workpiece W. If it is difficult to accurately maintain this distance during teaching, a teaching jig (described later) may be used.
[0057]
The target point 60 of the painting gun 25 moves by pressing various manipulator movement keys on the teaching pendant 15. The gun coordinate system corresponding to the latest target point 60 is defined as the current gun coordinate system 61. When the target point 60 is moved, the movement locus 62 of the target point is projected on the outer surface of the workpiece W. The movement locus 62 of the target point is an image calculated by the control device 51 and projected from the projector 50 through the image output device 52. If the target point 60 is the teaching position 63, the teaching point key on the teaching pendant 15 is pressed to store this position in the storage device 54. Further, the moving speed from the previous teaching point to the current teaching point and the operation information of the coating gun 25 (paint ON / OFF, etc.) are input from the teaching pendant 15 and stored in the storage device 54. The control device 51 generates a trajectory between the teaching points based on the information between the teaching points. If the trajectory is a trajectory for applying paint, the control device 51 generates a teaching trajectory 64 for the target point, and projects an image from the projector 50 onto the upper surface, which is a portion to be painted, of the workpiece W through the image output device 52. An arrow is added to the teaching locus 64 of the target point so that the velocity vector for every fixed time can be seen.
[0058]
FIG. 9 is a diagram for explaining a calibration method for an image projected from the projector 50.
A stick-shaped teaching jig 55 having a length corresponding to the distance from the gun tip to the target position is provided at the tip of the coating gun 25. The tip point of the teaching jig 55 is brought to the feature point of the workpiece W, and a plurality of feature points on the workpiece W are taught. In the case of a box-shaped workpiece W as shown in FIG. 9, each vertex position is taught as a feature point teaching position 66. The target point locus of the trajectory connecting the teaching positions 66 is generated like the target point teaching locus 67. The target point teaching locus 67 does not necessarily coincide with the target point locus of the trajectory connecting the teaching positions 66. As shown in FIG. In such a case, by depressing the keys relating to enlargement / reduction, parallel movement, and rotational movement on the teaching pendant 15, the aim of the trajectory connecting the teaching locus 67 of the aim point projected from the projector 50 to the teaching position 66 is aimed. The point locus can be approached (described later).
[0059]
Next, the control content of the control device 51 that performs the screen display as described above will be described. Before that, the relationship among the three coordinate systems, the base coordinate system, the gun coordinate system, and the projector coordinate system will be described.
The gun coordinate system viewed from the base coordinate system is represented by the following 4 × 4 matrix.
[0060]
[Expression 4]
Figure 0004257468
... (1)
[0061]
here,BxG,ByG,BzGIs a unit vector in the x, y, z axis direction of the gun coordinate system as seen from the base coordinate system,BpGIs a displacement vector representing the origin position of the gun coordinate system as viewed from the base coordinate system. Each of these vectors is a vertical vector of 3 rows and 1 column. The subscripts attached to the upper left of the matrix and vector represent the coordinate system being viewed, and the subscripts attached to the lower right represent the target coordinate system. That is, the subscript B represents the base coordinate system, the subscript G represents the gun coordinate system, and the subscript P represents the projector coordinate system.
[0062]
This matrixBTGCan be calculated from the joint angle of the manipulator 11. 6 joint angles θ of the manipulator 111~ Θ6The
θ = [θ1 θ2 θThree θFour θFive θ6]T
And a vector,
BTG= F (θ)
... (2)
The relationship holds. Here, the subscript T represents transposition.
[0063]
The function f (θ) is a kinematic function and is derived based on the degree of freedom configuration of the manipulator 11. Since the derivation method of this function and a specific expression are known, they are omitted here.
The projector coordinate system seen from the base coordinate system is
[0064]
[Equation 5]
Figure 0004257468
... (3)
[0065]
It is represented by here,BxP,ByP,BzPIs a unit vector in the x, y, z axis direction of the projector coordinate system as seen from the base coordinate system,BpPIs a displacement vector representing the origin position of the projector coordinate system viewed from the base coordinate system. Since the projector 50 is fixed to the painting booth,BxP,ByP,BzP,BpPIs a constant vector and is determined from the installation conditions of the projector 50. This value is stored in the storage device 54.
At this time, the gun coordinate system seen from the projector coordinate system is
[0066]
[Formula 6]
Figure 0004257468
[0067]
And the matrixBTG,BTPIs derived as follows.
PTG= (BTP)-1BTG
(4)
[0068]
That is, the position / posture of the paint gun 25 as viewed from the projector coordinate system is determined by the six joint angles θ of the manipulator 11.1~ Θ6As a function of
Parameters such as the lengths of the arms 20 and 22 of the manipulator 11 are included in the kinematic function f (θ), and parameters relating to the projector 50 are four constant vectors.BxP,ByP,BzP,BpPIt has become. In general, the parameters included in the kinematic function are accurately measured and have few errors, but the parameters determined by the installation conditions of the projector 50 often include a certain amount of error.
[0069]
From this, the aim point of the paint gun 25 as seen from the projector coordinate systemPpWThen,
PpW=PpG+ L ・PxG
... (5)
Given in.
[0070]
Aim of painting gun 25PpWThe plane position p on the image plane of the projector 50 corresponding toWIs the perspective transformation function fPUsing (p)
pW= FP(PpW)
... (6)
It can be asked. Perspective transformation function fP(P) includes the focal length λ of the projector 50 as a parameter. Since the form of this function is known, it is omitted.
[0071]
Next, the control content of the control device 51 that performs the screen projection as described above will be described step by step based on the PAD diagram shown in FIG. Note that the processing shown in the PAD diagram in FIG. 10 is executed at regular sampling intervals.
[0072]
{Step SC1}
A signal is output to the servo driver 53 so that the manipulator 11 is moved to the given position command value.
{Step SC2}
The current target point is converted into a position seen from the projector coordinate system using equations (2) to (5) and stored in the storage device 54.
[0073]
{Step SC3}
The target point before one sampling is read from the storage device 54, and a line segment connecting to the current target point (that is, the movement locus of the target point of the coating gun 25) is generated.
{Step SC4}
The generated line segment is perspective-transformed by Expression (6), output to the image output device 52, and projected from the projector 50.
[0074]
By performing the processing as described above, when the manipulator 11 is moved, the current aim point 60 of the painting gun 25 and the movement locus 62 of the aim point of the painting gun 25 are displayed on the upper surface of the workpiece W in real time. The
[0075]
When there is a key input from the teaching pendant 15 during teaching, the control device 51 executes the control contents shown in the PAD diagram of FIG. This control content will be described step by step.
{Step SD1}
Determines whether the operation input key is "manipulator move key", "teach point key", "enlarge / reduce key", "parallel move key" or "rotate move key", and "manipulator move key" Is input, step SD2 is input when the “teach point key” is input, step SD7 is input when the “enlarge / reduce key” is input, and the “translation key” is input. Step SD9 is executed when an operation is input, and step SD11 is executed when a “rotation movement key” is input.
[0076]
{Step SD2}
A position designation value is generated corresponding to the pressed manipulator movement key, and the process ends.
[0077]
{Step SD3}
The current gun coordinate system, operation information (interpolation method between teaching points, moving speed, ON / OFF information of the coating gun 25, etc.) and teaching point number are stored in the storage device 54 as teaching point information.
{Step SD4}
The current and previous teaching point information is read from the storage device 54, a trajectory connecting these teaching points is generated, and stored in the storage device 54.
[0078]
{Step SD5}
It is determined whether or not the painting gun 25 is to be turned on on the generated teaching trajectory. When the painting gun 25 is on, the process moves to step SD6. When the painting gun 25 is not on, the process is terminated.
{Step SD6}
A target point trajectory is generated from the teaching trajectory in the storage device 54, an image is projected using the projector 50 (the specific processing procedure will be described later), and the processing ends.
[0079]
{Step SD7}
The focal length λ of the projector 50 is changed according to the pressed key. That is, the focal length λ is reduced during enlargement, and the focal length λ is increased during reduction.
{Step SD8}
A target point trajectory is generated from the teaching trajectory stored in the storage device 54, an image is projected using the projector 50, and the process ends.
[0080]
{Step SD9}
The origin position vector of the projector 50 according to the pressed keyBpPIs changed by the following equation (7).
[0081]
[Expression 7]
Figure 0004257468
... (7)
[0082]
However, Δx, Δy, Δz are parallel movement amounts in the x, y, and z directions input from the teaching pendant 15.
{Step SD10}
A target point trajectory is generated from the teaching trajectory stored in the storage device 54, an image is projected using the projector 50, and the process ends.
{Step SD11}
Three unit vectors representing the attitude of the projector 50 according to the pressed keyBxP,ByP,BzPIs changed by the following equation (8).
[0083]
[Equation 8]
Figure 0004257468
(8)
[0084]
Here, α, β, and γ are rotational movement amounts around the x, y, and z axes input from the teaching pendant 15.
{Step SD12}
A target point trajectory is generated from the teaching trajectory stored in the storage device 54, an image is projected using the projector 50, and the process ends.
[0085]
Next, a specific processing procedure in which the control device 51 generates a target point locus from the teaching locus in the storage device 54 and projects an image using the projector 50 will be described step by step with reference to the PAD diagram of FIG. To do.
{Step SE1}
The teaching trajectory is read from the storage device 54 and converted into the trajectory of the target point viewed from the projector coordinate system using Expressions (4) and (5).
[0086]
{Step SE2}
An arrow is added to the amount of movement every fixed time on the target point locus and stored in the storage device 54.
{Step SE3}
The target point locus is read from the storage device 54, is perspective-transformed by Expression (6), is output to the image output device 52, and is projected by the projector 50.
[0087]
According to the coating robot 10 described above, the control device 51 includes an image representing the position of the target point that is the target of the coating gun 25 based on the position information of the coating gun 25 input by the teaching pendant 15 and the coating gun. The image representing the movement locus of the target point that is the target of 25 is converted into an image corresponding to the projector 50 and the image output device 52, and the position of the target point that is the target of the coating gun 25 converted in this way And an image representing the movement locus of the target point that is the target of the painting gun 25 are projected onto the work W by the projector 50 via the image output device 52 and displayed on the work W.
[0088]
Accordingly, the movement locus of the target point that is the target of the coating gun 25 is displayed during teaching, and therefore the movement locus of the target point that is the target of the painting gun 25 can be easily and quickly confirmed during teaching. Therefore, it is possible to easily and quickly confirm whether or not the movement trajectory has undulations, so that the time required to create teaching data for smoothly moving the painting gun 25 can be shortened. Thereby, the line stop time for teaching is shortened, and the productivity can be improved.
[0089]
Further, since the useless operation of the coating gun 25 is eliminated and the coating pitch is easily set at a constant interval, high-quality coating with less “sag” and “smooth” can be easily realized.
Furthermore, since it is not necessary to perform trial coating and correction many times after teaching, the amount of paint used for trial coating can be reduced.
In addition, since it is not necessary to look away from the target position of the workpiece W in order to confirm the movement trajectory during teaching, the teaching operation is not interrupted and the working efficiency is improved.
[0090]
In the above description, one projector 50 is provided, but a plurality of projectors may be provided. In this case, a matrix representing the projector coordinate system viewed from the base coordinate systemBTPIs calculated for the number of projectors 50, the gun coordinate system is converted into an image viewed from each projector coordinate system, and output from the corresponding projector 50. By providing a plurality of projectors 50, it is possible to display the target point locus of the painting gun 25 even for the three-dimensional workpiece W.
[0091]
【The invention's effect】
As described in detail above, according to the painting robot of the first aspect of the present invention, the conversion means is:According to teaching dataThe image representing the position related to the paint gun based on the position information of the paint gun is converted into an image corresponding to the image input means, and the display control means converts the image representing the position related to the paint gun converted by the conversion means. Then, the image is displayed on the image display unit so as to be superimposed on the image input by the image input unit. Therefore, during the teaching, paint gunofThe position movement trajectory can be displayed. Therefore, the position movement trajectory related to the coating gun can be easily and quickly confirmed during teaching, and the time required for completion of teaching can be shortened.
[0092]
According to the painting robot according to claim 2 of the present invention, the conversion means is:According to teaching dataThe image representing the position related to the paint gun based on the position information of the paint gun is converted into an image corresponding to the image projection means, and the projection control means converts the image representing the position related to the paint gun converted by the conversion means. For example, the image is displayed on the workpiece by the image projection means. Therefore, during the teaching, paint gunThe aim of paintingThe movement trajectory of the paint gun can be displayed.ofThe movement locus of the position can be easily and quickly confirmed, and the time required until the end of teaching can be shortened.
[Brief description of the drawings]
FIG. 1 shows a painting robot according to the present invention.Reference example of implementationFIG.
FIG. 2 shows the painting robot of the present invention.Reference example of implementationIt is a block diagram which shows the control system of.
FIG. 3 shows the painting robot of the present invention.Reference example of implementationIt is a figure which shows the example of a screen display of the monitor during the teaching work of.
FIG. 4 shows the painting robot of the present invention.Reference example of implementationIt is a PAD figure which shows the control content of the control apparatus performed for every fixed sampling interval at the time of teaching.
FIG. 5 shows the painting robot of the present invention.Reference example of implementationIt is a PAD diagram showing the control contents of the control device when there is a key input from the teaching pendant during teaching of
FIG. 6 shows the painting robot of the present invention.FirstIt is a side view which shows this embodiment.
FIG. 7 shows the painting robot of the present invention.FirstIt is a block diagram which shows the control system of the embodiment.
FIG. 8 shows a painting robot according to the present invention.FirstIt is a figure which shows the example of a screen display of the monitor during the teaching operation | work of embodiment of this.
FIG. 9 shows the painting robot of the present invention.FirstIt is a figure which shows the calibration method of the image projected from the projector of an embodiment.
FIG. 10 shows a painting robot according to the present invention.FirstIt is a PAD figure which shows the control content of the control apparatus performed for every fixed sampling interval at the time of teaching of this embodiment.
FIG. 11 shows the painting robot of the present invention.FirstIt is a PAD figure which shows the control content of a control apparatus when there exists key input from a teaching pendant at the time of teaching of this embodiment.
FIG. 12 shows the painting robot of the present invention.FirstIt is a PAD figure which shows the control content which a control apparatus produces | generates a target point locus | trajectory from a teaching locus | trajectory, and projects an image at the time of the teaching of this embodiment.
[Explanation of symbols]
10 Painting robot
11 Manipulator
15 Teaching pendant (operation means)
25 painting gun
28 Camera (image input means)
30 monitor (image display means)
32 Control device (conversion means, display control means)
33 Image input device (image input means)
34 Image output device (image display means)
50 Projector (image projection means)
51 Control device (conversion means, projection control means)
52 Image output device (image projection means)

Claims (1)

塗料を噴出させる塗装ガンと、該塗装ガンを移動させるマニピュレータと、操作入力がなされる操作手段とを有する塗装ロボットにおいて、
ワーク及びワーク周辺に画像を投影する画像出力装置及び画像投影手段と、
教示データに基づく前記塗装ガンの塗装の狙い先である狙い点の位置を表す像および前記塗装ガンの塗装の狙い先である狙い点の移動軌跡を表す像を前記画像投影手段に対応する像に変換する変換手段と、を備え、
前記画像出力装置は前記変換手段で変換された像を、前記画像投影手段から投影させる投影制御手段を具備することを特徴とする塗装ロボット。
In a painting robot having a painting gun for ejecting paint, a manipulator for moving the painting gun, and an operation means for performing an operation input,
An image output device and an image projecting means for projecting an image on a workpiece and the periphery of the workpiece;
Based on the teaching data, an image representing the position of the target point that is the target of painting of the paint gun and an image representing the movement locus of the target point that is the target of painting of the paint gun are images corresponding to the image projecting means. Conversion means for converting ,
The painting robot according to claim 1, wherein the image output device includes a projection control unit that projects the image converted by the conversion unit from the image projection unit.
JP09439699A 1999-03-31 1999-03-31 Painting robot Expired - Fee Related JP4257468B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP09439699A JP4257468B2 (en) 1999-03-31 1999-03-31 Painting robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP09439699A JP4257468B2 (en) 1999-03-31 1999-03-31 Painting robot

Publications (2)

Publication Number Publication Date
JP2000288432A JP2000288432A (en) 2000-10-17
JP4257468B2 true JP4257468B2 (en) 2009-04-22

Family

ID=14109116

Family Applications (1)

Application Number Title Priority Date Filing Date
JP09439699A Expired - Fee Related JP4257468B2 (en) 1999-03-31 1999-03-31 Painting robot

Country Status (1)

Country Link
JP (1) JP4257468B2 (en)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7887190B2 (en) * 2008-02-01 2011-02-15 The Boeing Company Method and system for an enclosed, portable, volatile environment laser projector
JP2017222001A (en) * 2016-06-15 2017-12-21 セイコーエプソン株式会社 Robot, control device, and robot system
WO2018185890A1 (en) * 2017-04-05 2018-10-11 株式会社ニコン Coating assistance device, coating device, coating work assistance method, production method for coated article, and coating assistance program
JP6909632B2 (en) * 2017-05-16 2021-07-28 タクボエンジニアリング株式会社 Teaching method for painting robots
JP6974044B2 (en) * 2017-06-16 2021-12-01 タクボエンジニアリング株式会社 Simulation method of trajectory data in a painting robot
JP6763846B2 (en) * 2017-11-24 2020-09-30 ファナック株式会社 Teaching device and teaching method for teaching robots
JP6958294B2 (en) * 2017-11-28 2021-11-02 株式会社デンソーウェーブ Teaching data display device, teaching data display method
JP7035555B2 (en) * 2018-01-23 2022-03-15 セイコーエプソン株式会社 Teaching device and system
JP6823018B2 (en) 2018-08-03 2021-01-27 ファナック株式会社 Coordination support device
JP7201168B2 (en) * 2019-01-23 2023-01-10 旭サナック株式会社 PAINTING PROGRAM CREATION DEVICE, PAINTING PROGRAM CREATION METHOD
CN110665707B (en) * 2019-10-18 2021-12-14 马鞍山远荣机器人智能装备有限公司 Automatic spraying robot
CN114227677B (en) * 2021-12-15 2024-02-20 成都飞机工业(集团)有限责任公司 Industrial robot spraying operation planning method, device, equipment and storage medium

Also Published As

Publication number Publication date
JP2000288432A (en) 2000-10-17

Similar Documents

Publication Publication Date Title
US11345042B2 (en) Robot system equipped with video display apparatus that displays image of virtual object in superimposed fashion on real image of robot
JP6843050B2 (en) Robot system
JP4257468B2 (en) Painting robot
US20080316368A1 (en) Method and Device For Moving a Camera Disposed on a Pan/Tilt Head Long a Given Trajectory
JPH0212504A (en) Vision seam tracking method and apparatus for manipulator
JP4167954B2 (en) Robot and robot moving method
JP2005106825A (en) Method and apparatus for determining position and orientation of image receiving device
JPH0431836B2 (en)
JPH08505091A (en) System and method for tracking features on an object using redundant axes
JP2007523757A (en) Tracking and mirroring of multiple robot arms
JP2018202514A (en) Robot system representing information for learning of robot
JP2013049102A (en) Robot control device and method of determining robot attitude
JP3207409B2 (en) Robot tool attitude control method
JP5729226B2 (en) Robot position and orientation interpolation method and robot control apparatus
JPH08154321A (en) Remote control robot
JPH10264060A (en) Teaching device of painting robot
JP3543329B2 (en) Robot teaching device
JP2654899B2 (en) Teaching device for operation type manipulator and automatic operation method using operation type manipulator
JP2019150930A (en) Welding robot operation teaching system, welding robot operation teaching method and program
JP2000042960A (en) Remote control device for manipulator
US7764386B2 (en) Method and system for three-dimensional measurement and method and device for controlling manipulator
JPS6218316B2 (en)
JP3175623B2 (en) Robot control device
JPH05197416A (en) Teaching device for robot operation point
JP2572093B2 (en) Robot teaching method

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20041004

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050811

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080401

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080711

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080903

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20081113

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20081209

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090107

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090120

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120213

Year of fee payment: 3

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20081209

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120213

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130213

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140213

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150213

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees