JP2007061940A - ロボットおよびロボットの情報表示方法 - Google Patents

ロボットおよびロボットの情報表示方法 Download PDF

Info

Publication number
JP2007061940A
JP2007061940A JP2005249828A JP2005249828A JP2007061940A JP 2007061940 A JP2007061940 A JP 2007061940A JP 2005249828 A JP2005249828 A JP 2005249828A JP 2005249828 A JP2005249828 A JP 2005249828A JP 2007061940 A JP2007061940 A JP 2007061940A
Authority
JP
Japan
Prior art keywords
robot arm
position information
robot
workpiece
displayed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005249828A
Other languages
English (en)
Other versions
JP4613752B2 (ja
Inventor
Yuichi Ota
裕一 太田
Morihiko Okura
守彦 大倉
Kazuki Yokouchi
一樹 横内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2005249828A priority Critical patent/JP4613752B2/ja
Publication of JP2007061940A publication Critical patent/JP2007061940A/ja
Application granted granted Critical
Publication of JP4613752B2 publication Critical patent/JP4613752B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Manipulator (AREA)

Abstract

【課題】ロボットの動作状況(より厳密には、ロボットアームおよび視覚認識装置の動作状況)の把握が容易で、かつ教示作業時の作業性に優れたロボットおよびロボットの情報表示方法を提供する。
【解決手段】ロボット1に、複数の関節を有し、先端部にハンド28が設けられたロボットアーム2と、視覚認識処理を行う視覚認識装置3と、予め設定されたロボットアーム2の動作に係るプログラムおよび視覚認識装置3から取得したワーク11の位置情報に基づいてロボットアーム2の動作を制御するコントローラ4と、ロボットアーム2の位置情報71・72・73・74・75・76を時系列的に表示し、かつ、視覚認識装置3がワーク11の位置情報を取得するためのパラメータ81をロボットアーム2の位置情報71に付帯して表示するティーチペンダント5(表示部53)と、を具備した。
【選択図】図2

Description

本発明は、産業ロボット等のロボット、およびロボットの動作に係る情報の表示方法に関する。
従来、複数の関節を有するロボットアームの先端部にエンドエフェクタが設けられたロボットは公知となっている。このようなロボットは、いわゆる産業用ロボットとして広く生産現場等で用いられている。
上記ロボットの多くは、作業者がロボットに所定の作業に係る動作を教示し、ロボットが当該作業に係る動作を再生する、いわゆる教示再生型のロボットであるが、近年は作業の対象であるワークの姿勢や形状等を視覚認識して動作の補正を行うロボット(視覚認識機能を有するロボット)も用いられている。例えば、特許文献1に記載の如くである。
特許文献1に記載のロボットは、視覚認識機能を有しないロボットと比較すると、(1)ロボットがワークの位置および姿勢を認識し、適宜その動作を補正して作業を行うため、作業者が作業の都度ワークを所定の位置に所定の姿勢で精度良くセットする必要が無く、作業工数および労力の軽減が可能であること、(2)ワークが所定の形状を成していない(ワークが変形あるいは破損している、あるいは異なる種類のワークがセットされている)等の異常を視覚認識機能により検知することが可能であり、種々のトラブルを防止することが可能である、といった点で優れている。
特開2004−351570号公報
しかし、特許文献1に記載のロボットには、以下の問題があった。
一般に、制御装置に格納されているロボットの動作、より厳密にはロボットアームの動作に係るプログラムは、所定の言語(以下、「プログラム言語」という)により作成されるため、複雑かつ長大なものとなる。そして、視覚認識機能を有するロボットの場合には、視覚認識に係る内容を組み合わせたものとなるため、ロボットアームの動作に係るプログラムは更に複雑なものとなる。
従来のロボットの場合、作業者は制御装置に有線または無線で接続されたティーチペンダントと呼ばれる端末に設けられた表示装置(液晶パネル等)に上記プログラム(プログラム言語で表現されたもの)を表示し、当該プログラムに直接的に修正を加えることによりロボットの教示を行うが、ティーチペンダントは一般にロボットアームの近傍に位置する作業者が手で持って使用するものであるため、その大きさや重量は作業者の労力軽減の観点から制限され、当該表示装置の表示画面の面積も限られたものとなる。
よって、通常は上記プログラムの全てを表示画面に同時に表示することができず、表示装置の表示画面にプログラムの一部を表示し、他の部分を表示したい場合には表示画面を上下または左右にスクロールする構成となっている。
従って、作業者は表示装置に表示されたプログラムのどの部分がロボットの動作に対応し、どの部分が視覚認識に対応しているのかを把握することが困難であり、教示作業に係る工数の増加、教示作業の煩雑化の要因となっていた。
また、上記プログラムのうち、ロボットアームの動作に係る部分と視覚認識に係る部分とが上記プログラムの複数の箇所に離れて存在している場合には、表示装置の画面上に両者を同時に表示することができないために作業者が両者の関係を把握することが困難であり、教示作業がますます煩雑なものとなっていた。
さらに、従来のロボットの場合には表示装置に表示されたプログラムに直接的に新たなプログラムをプログラム言語で書き込むことによりロボットアームの動作に係るプログラムを修正するため、上記プログラムを一度修正してロボットを動作させたものの、種々の理由(例えば、周囲の構造体とロボットアームとが干渉する等)により当該プログラムを元の状態に復元したい場合に、先に修正した箇所が当該プログラムのどの部分であったかを把握することが困難であり、これも教示作業に係る工数の増加、教示作業の煩雑化の要因となっていた。
さらにまた、ロボットアームの動作に係るプログラムは所定の言語からなる複雑かつ長大なものであるため、ロボットの動作が複数のステップを有し、当該複数のステップの途中で何らかのトラブルによりロボットの動作が停止した場合に、作業者がどのステップでロボットの動作が停止したのかを把握することが困難であり、教示作業に係る工数の増加、教示作業の煩雑化の要因となっていた。
本発明は以上の如き状況に鑑み、ロボットの動作状況(より厳密には、ロボットアームおよび視覚認識装置の動作状況)の把握が容易で、かつ教示作業時の作業性に優れたロボットおよびロボットの情報表示方法を提供するものである。
本発明の解決しようとする課題は以上の如くであり、次にこの課題を解決するための手段を説明する。
即ち、請求項1においては、
複数の関節を有し、先端部にエンドエフェクタが設けられたロボットアームと、
ワークを撮像する撮像手段および該撮像手段により撮像されたワークの画像に基づいてワークの位置情報を算出するワーク位置情報算出手段を具備する視覚認識装置と、
予め設定されたロボットアームの動作に係るプログラムおよび視覚認識装置から取得したワークの位置情報に基づいてロボットアームの動作を制御する制御装置と、
ロボットアームの位置情報を時系列的に表示し、かつ、視覚認識装置がワークの位置情報を取得するためのパラメータを前記ロボットアームの位置情報に付帯して表示する表示装置と、
を具備するものである。
請求項2においては、
前記表示装置に時系列的に表示されたロボットアームの位置情報の所定の範囲を画面上で指定することにより、当該指定されたロボットアームの位置情報に対応するロボットアームの動作の再生時に補正処理を適用するものである。
請求項3においては、
前記制御装置は、
該制御装置の所定の格納領域に格納された教示時のロボットアームの位置情報、再生時のロボットアームの位置情報、教示時のワークの位置情報、再生時のワークの位置情報および再生時の補正処理を適用するロボットアームの位置情報に基づいて再生時のロボットアームの動作の補正量を算出するものである。
請求項4においては、
前記表示装置が表示するロボットアームの位置情報は、
ロボットアームの動作区分、ロボットアームの動作精度、ロボットアームの動作速度、ロボットアームの動作時の出力信号およびロボットアームの動作時の入力信号、に係る情報のうちの少なくとも一つを含むものである。
請求項5においては、
前記表示装置が表示する前記視覚認識装置がワークの位置情報を取得するためのパラメータは、
視覚認識方法の区分、撮像手段の区分、ワーク番号、ワークにおける撮像部位、に係る情報のうちの少なくとも一つを含むものである。
請求項6においては、
前記表示装置は、
再生時のロボットアームの動作に対応するロボットアームの位置情報を、反転して表示する、点滅して表示する、色を変えて表示する、または、所定のマークを付して表示するものである。
請求項7においては、
複数の関節を有し、先端部にエンドエフェクタが設けられたロボットアームと、
ワークを撮像する撮像手段および該撮像手段により撮像されたワークの画像に基づいてワークの位置情報を算出するワーク位置情報算出手段を具備する視覚認識装置と、
予め設定されたロボットアームの動作に係るプログラムおよび視覚認識装置から取得したワークの位置情報に基づいてロボットアームの動作を制御する制御装置と、
ロボットアームの動作に係る情報を表示する表示装置と、
を具備するロボットの情報表示方法であって、
前記表示装置に、ロボットアームの位置情報を時系列的に表示し、かつ、視覚認識装置がワークの位置情報を取得するためのパラメータを前記ロボットアームの位置情報に付帯して表示するものである。
請求項8においては、
前記表示装置に時系列的に表示されたロボットアームの位置情報の所定の範囲を画面上で指定することにより、当該指定されたロボットアームの位置情報に対応するロボットアームの動作の再生時に補正処理を適用するものである。
請求項9においては、
前記制御装置は、
該制御装置の所定の格納領域に格納された教示時のロボットアームの位置情報、再生時のロボットアームの位置情報、教示時のワークの位置情報、再生時のワークの位置情報および再生時の補正処理を適用するロボットアームの位置情報に基づいて再生時のロボットアームの動作の補正量を算出するものである。
請求項10においては、
前記表示装置が表示するロボットアームの位置情報は、
ロボットアームの動作区分、ロボットアームの動作精度、ロボットアームの動作速度、ロボットアームの動作時の出力信号およびロボットアームの動作時の入力信号、に係る情報のうちの少なくとも一つを含むものである。
請求項11においては、
前記表示装置が表示する前記視覚認識装置がワークの位置情報を取得するためのパラメータは、
視覚認識方法の区分、撮像手段の区分、ワーク番号、ワークにおける撮像部位、に係る情報のうちの少なくとも一つを含むものである。
請求項12においては、
前記表示装置は、
再生時のロボットアームの動作に対応するロボットアームの位置情報を、反転して表示する、点滅して表示する、色を変えて表示する、または、所定のマークを付して表示するものである。
本発明の効果として、以下に示すような効果を奏する。
請求項1においては、ロボットの動作状況の把握が容易であり、教示作業時の作業性に優れる。
請求項2においては、ロボットアームの教示作業時に、所定のプログラム言語により作成されているロボットアームの動作に係るプログラムを直接的に修正せずとも、表示装置に表示されたロボットアームの位置情報の一部を画面上で指定するだけで、ロボットアームの一連の動作のうち、前記指定された一部に対応する動作に補正処理を適用することを容易に指定することが可能であり、教示作業時の作業性に優れる。
また、作業者は、ロボットアームの一連の動作のうち、どの動作が補正処理の適用範囲となるかを容易に把握することが可能であり、このことも教示作業時の作業性の向上に寄与する。
請求項3においては、容易に再生時のロボットアームの補正量を算出することが可能である。また、所定の格納領域にロボットアームの補正量を算出するための情報を格納しておくことにより、ロボットアームの動作に係るプログラムの再度の修正や復元にも柔軟に対応することが可能であり、作業性に優れる。
請求項4においては、ロボットアームの動作状況や内容を容易に把握することが可能である。
請求項5においては、視覚認識処理が行われるタイミングや内容を容易に把握することが可能である。
請求項6においては、ロボットアームの再生時の動作時点を容易に把握することが可能である。
また、ロボットに何らかのトラブルが発生してロボットアームが所定の静止位置以外の位置で停止した場合、常時装置に表示されたどの位置情報が反転等して表示されているかを見ることにより、ロボットアームの一連の動作のどの過程において停止したのかを容易に把握することが可能であり、教示作業の作業性が向上する。
請求項7においては、ロボットの動作状況の把握が容易であり、教示作業時の作業性に優れる。
請求項8においては、ロボットアームの教示作業時に、所定のプログラム言語により作成されているロボットアームの動作に係るプログラムを直接的に修正せずとも、表示装置に表示されたロボットアームの位置情報の一部を画面上で指定するだけで、ロボットアームの一連の動作のうち、前記指定された一部に対応する動作に補正処理を適用することを容易に指定することが可能であり、教示作業時の作業性に優れる。
また、作業者は、ロボットアームの一連の動作のうち、どの動作が補正処理の適用範囲となるかを容易に把握することが可能であり、このことも教示作業時の作業性の向上に寄与する。
請求項9においては、容易に再生時のロボットアームの補正量を算出することが可能である。また、所定の格納領域にロボットアームの補正量を算出するための情報を格納しておくことにより、ロボットアームの動作に係るプログラムの再度の修正や復元にも柔軟に対応することが可能であり、作業性に優れる。
請求項10においては、ロボットアームの動作状況や内容を容易に把握することが可能である。
請求項11においては、視覚認識処理が行われるタイミングや内容を容易に把握することが可能である。
請求項12においては、ロボットアームの再生時の動作時点を容易に把握することが可能である。
また、ロボットに何らかのトラブルが発生してロボットアームが所定の静止位置以外の位置で停止した場合、常時装置に表示されたどの位置情報が反転等して表示されているかを見ることにより、ロボットアームの一連の動作のどの過程において停止したのかを容易に把握することが可能であり、教示作業の作業性が向上する。
以下では、図1を用いて本発明に係るロボットの実施の一形態であるロボット1について説明する。
本実施例のロボット1は取り出し側作業台12に載置されたワーク11を把持して移送し、取り付け側作業台13に載置する作業を行うものである。
ここで、本出願における「ロボット」は、JIS B0134に定義される産業用ロボット(シーケンスロボット、プレイバックロボット、数値制御ロボット、知能ロボット等)を広く含み、さらに、ワークを取り扱うロボットを広く含む。
ここで、本出願における「ワーク」は、ロボットが取り扱う対象となるものを指し、「ワークを取り扱う」とは、ワークを把持する、移送する、加工する、溶接する、塗装する等、ワークに何らかの作用を及ぼすことを広く含む。
ロボット1は、主としてロボットアーム2、視覚認識装置3、コントローラ4、ティーチペンダント5等を具備する。
以下では、図1を用いてロボットアーム2について説明する。
ロボットアーム2は本発明に係るロボットアームの実施の一形態であり、主として固定部材21、本体22、第一アーム部材23、第二アーム部材24、第三アーム部材25、第四アーム部材26、第五アーム部材27等を具備する。
固定部材21はロボットアーム2の最下部を成す構造体であり、地面に固定される。
なお、本実施例のロボットアーム2は地面に固定されるが、本発明に係るロボットアームはこれに限定されず、地面に対して移動可能な構成としても良い。
本体22はロボットアーム2の主たる構造体であり、その基部が固定部材21の上面に旋回可能に接続される。
第一アーム部材23は棒状の部材であり、その一端(基部)が本体22に回動可能に枢着される。
第二アーム部材24は棒状の部材であり、その一端(基部)が第一アーム部材23の他端(先端部)に回動可能に枢着される。
第三アーム部材25は棒状の部材であり、その一端(基部)が、第二アーム部材24の他端(先端部)に旋回可能に接続される。すなわち、第三アーム部材25の長手方向および第二アーム部材24の長手方向が略一直線となり、第三アーム部材25は第二アーム部材24に対してこれらの長手方向に略一致する回転軸を中心として回転可能である。
第四アーム部材26は短い棒状の部材であり、その一端(基部)が、第三アーム部材25の他端(先端部)に回動可能に枢着される。
第五アーム部材27は短い棒状の部材であり、その一端(基部)が、第四アーム部材26の他端(先端部)に旋回可能に接続される。すなわち、第五アーム部材27の長手方向および第四アーム部材26の長手方向が略一直線となり、第五アーム部材27は第四アーム部材26に対してこれらの長手方向に略一致する回転軸を中心として回転可能である。
このように、ロボットアーム2は、固定部材21と本体22との接続部、本体22と第一アーム部材23との枢着部、第一アーム部材23と第二アーム部材24との枢着部、第二アーム部材24と第三アーム部材25との接続部、第三アーム部材25と第四アーム部材26との枢着部、および第四アーム部材26と第五アーム部材27との接続部に計六箇所の関節を有する。
また、ロボットアーム2は、各関節においてロボットアーム2を構成する部材を回動または旋回させるためのアクチュエータ(モータ、油圧シリンダ等)を具備するとともに、各関節の回動角または旋回角を検出するための角度検出手段(ロータリーエンコーダ等の角度センサ)を具備する。
なお、本実施例のロボットアーム2は計六箇所の関節を有するが、本発明に係るロボットアームは二箇所以上、すなわち複数の関節を有するロボットアームに広く適用可能である。
ロボットアーム2の先端部、すなわち第五アーム部材27の先端部にはハンド28が設けられる。ハンド28は本出願に係るエンドエフェクタの実施の一形態であり、ロボットアーム2が取り扱う対象であるワークを把持するものである。
ここで、本発明に係る「エンドエフェクタ(手先作用器)」は、ワークに何らかの作用(把持、移送、加工、溶接、塗装等)を与えるものである。本発明に係るエンドエフェクタの別実施例としては、ワークの表面を研磨するグラインダ、ワークを溶接するトーチ、ワークに塗料を吹き付ける塗装ガン等が挙げられる。
なお、本実施例のロボットアーム2は第五アーム部材27の先端部にハンド28を固定する構成であるが、本発明に係るロボットアームはこれに限定されず、複数種類のエンドエフェクタを着脱可能とすることにより使い分ける構成としても良い。
以下では、図1を用いて視覚認識装置3について説明する。
視覚認識装置3は本発明に係る視覚認識装置の実施の一形態であり、視覚認識処理を行うものである。
ここで、本出願における「視覚認識処理を行う」とは、視覚的な情報に基づいてワークの位置、あるいはロボットアームとワークとの相対的な位置関係を認識することを広く指すものとする。
視覚認識装置3は主として第一固定カメラ31、第二固定カメラ32、ロボットアーム側カメラ33、視覚情報処理装置34等を具備する。
第一固定カメラ31、第二固定カメラ32およびロボットアーム側カメラ33は、いずれも本発明に係る撮像手段の実施の一形態であり、ワーク11を撮像することによりワーク11の視覚的な情報を取得するものである。
第一固定カメラ31は所定の位置に固定されており、取り出し側作業台12に載置されたワーク11を撮像する。第二固定カメラ32は所定の位置に固定されており、ロボット1により移送されて取り付け側作業台13に載置されたワーク11を撮像する。ロボットアーム側カメラ33はロボットアーム2の第五アーム部材27に固定され、ワーク11を撮像する。なお、ロボットアーム側カメラ33が撮像するワーク11は、(1)ハンド28により把持されているか否か、あるいは(2)ワーク11が取り出し側作業台12または取り付け側作業台13に載置されている状態かロボットアーム2により移送されている状態か、を問わない。
本発明に係る撮像手段の具体例としては、一般的にはCCDカメラやCMOSカメラ等の可視光を利用するカメラが挙げられるが、可視光を利用するものに限定されず、赤外線カメラ等の可視光と異なる波長の光を利用するカメラでも良い。
さらに、本実施例の撮像手段は第一固定カメラ31、第二固定カメラ32およびロボットアーム側カメラ33の計三個であるがこれに限定されず、本発明に係る撮像手段の取り付け位置および個数はロボットアームが行う動作や作業の内容に応じて適宜選択されるものである。
視覚情報処理装置34は本発明に係るワーク位置情報算出手段の実施の一形態であり、第一固定カメラ31、第二固定カメラ32およびロボットアーム側カメラ33により撮像されたワーク11の画像に基づいてワーク11の位置情報を算出することにより、ワーク11の位置、あるいはロボットアーム2とワーク11との相対的な位置関係を認識するものである。視覚情報処理装置34は、第一固定カメラ31、第二固定カメラ32およびロボットアーム側カメラ33に接続される。
ここで、本出願における「ワークの位置情報」には、三次元空間における存在位置、すなわちワークの三次元座標に係る情報だけでなく、ワークの姿勢に係る情報、あるいはワークの特定部位(例えば、ワークに形成された孔)の位置に係る情報等を含んでも良い。
従って、本出願における「ワークの位置情報を算出すること」には、ワークの姿勢を計測すること、ワークの種類を確認(認識)すること、所定の位置にワークが存在するか否かを確認(認識)すること、ワークの精度を確認すること、等が含まれる。また、「ワークの精度」にはワーク自体の寸法精度(形状)やワークを所望の位置に載置する際の位置精度が含まれる。
以下では、図1を用いてコントローラ4について説明する。
コントローラ4は本発明に係る制御装置の実施の一形態であり、予め設定されたロボットアーム2の動作に係るプログラムおよび視覚認識装置3から取得したワーク11の位置情報に基づいてロボットアーム2の動作を制御するものである。
コントローラ4は、ロボットアーム2の動作に係るプログラム等を格納する格納手段、該プログラム等を展開する展開手段、該プログラム等に従って所定の演算を行う演算手段、演算結果等を記憶する記憶手段等を具備する。
コントローラ4は、より具体的にはCPU、ROM、RAM、HDD等がバスで接続される構成であっても良く、あるいはワンチップのLSI等からなる構成であっても良い。
なお、本実施例のコントローラ4は専用品であるが、市販のパソコンやワークステーション等を用いて達成することも可能である。
コントローラ4はロボットアーム2が具備する角度検出手段(図示せず)に接続され、当該角度検出手段が検出したロボットアーム2の各関節の回動角または旋回角に係る情報を取得することが可能である。
コントローラ4はロボットアーム2が具備するアクチュエータ群(モータ等)に接続され、当該アクチュエータ群を駆動することによりロボットアーム2に種々の動作を行わせることが可能である。また、コントローラ4は、ロボットアーム2の動作の種類を、作業の内容に応じて適宜選択することが可能である。ここで、ロボットアーム2の動作の種類としては、直線動作、各軸動作、円弧補間動作、曲線補間動作、相対値移動動作等が挙げられる。
なお、「直線動作」は、ロボットアーム2の先端部(ハンド28)を異なる二点間で直線的に(移動経路が直線状となるように)移動させる動作であり、「各軸動作」はロボットアーム2の先端部(ハンド28)を異なる二点間で移動させる場合に最も所要時間が短くなるように移動させる動作である。
コントローラ4はハンド28が具備するアクチュエータ群(モータ等)に接続され、当該アクチュエータ群を駆動することによりハンド28に種々の動作を行わせることが可能である。
コントローラ4は視覚認識装置3の視覚情報処理装置34に接続され、視覚情報処理装置34が算出したワーク11の位置情報を取得することが可能である。
なお、本実施例のロボット1は、一台のコントローラ4に対して一基のロボットアーム2が接続される構成であるが、一台のコントローラに複数のロボットアームを接続し、一台のコントローラで複数のロボットアームの動作をそれぞれ制御する構成としても良い。
また、本実施例のロボット1はコントローラ4と視覚認識装置3の視覚情報処理装置34とが別体となっているが、これらを一体とする構成(コントローラ4に視覚情報処理装置34が行う視覚認識に係るプログラムを格納する構成)としても良い。
以下では、図1を用いてティーチペンダント5について説明する。
ティーチペンダント5は本発明に係る表示装置の実施の一形態である。本実施例の場合、ティーチペンダント5はコントローラ4に対する種々の指令、あるいはコントローラ4に格納されているプログラム等の修正(追加、削除、書き換え等)を行う入力装置としての機能と、コントローラ4に格納されているプログラムやその他の情報を表示する表示装置としての機能と、を兼ねる装置であり、教示作業等で用いられる。
ここで、本出願における「教示」は、作業者がロボットアームを所定の姿勢にして当該姿勢を制御装置に記憶させ、さらにある姿勢から次の姿勢に移行するときのロボットアームの動作内容(直線動作や各軸動作等の動作方法、動作速度、動作精度等)を指定することを繰り返すことにより、ロボットアームの一連の動作を形成することを指す。
また、本出願における「再生」は、教示作業により形成された一連の動作をロボットアームが再現することを指す。なお、「再生」には、教示作業により形成された一連の動作を忠実に再現する場合だけでなく、視覚認識装置により算出されたワークの位置情報等に基づいて教示作業により形成された一連の動作の一部または全部を適宜補正した上で再現することも含まれる。
ティーチペンダント5はケーブルによりコントローラ4に接続され、コントローラ4との間で種々の情報を双方向に通信可能である。また、作業者がティーチペンダント5を手に持ってロボットアーム2の近傍で教示作業を行うことが前提となっているため、ティーチペンダント5の大きさおよび重量は一定の範囲に定められる。
なお、本実施例のティーチペンダント5はケーブルにより(有線で)コントローラ4と接続されるが、無線で接続する(無線で種々の情報を双方向に通信する)構成としても良い。
ティーチペンダント5は、主として本体51、入力部52、表示部53を具備する。
本体51はティーチペンダント5の主たる構造体であり、その前面下部には入力部52が設けられ、前面上部には表示部53が設けられる。
入力部52はティーチペンダント5の入力装置としての機能を達成するものであり、本実施例の場合は複数の押しボタンで構成される。これらの押しボタンを操作することにより、コントローラ4に対して種々の指令を行ったり、あるいはコントローラ4に格納されているプログラム等の修正(追加、削除、書き換え等)を行ったりすることが可能である。
表示部53はティーチペンダント5の表示装置としての機能を達成するものであり、本実施例の場合は液晶画面で構成される。
なお、タッチパネルを用いることにより、入力部と表示部を一体としても良い。
なお、本実施例ではティーチペンダント5にのみ表示装置を設ける構成としたが、コントローラ4にも表示装置を設ける構成としても良い。
以下では、図1、図2および図3を用いて、ティーチペンダント5の表示部53におけるロボット1の動作に係る情報、より厳密には、ロボットアーム2の動作に係る情報および視覚認識装置3による視覚認識処理に係る情報、の表示方法について説明する。
<ロボットアームの位置情報の表示方法>
本実施例のロボット1は、従来のロボットと同様にティーチペンダント5の表示部53にコントローラ4に格納されているロボットアーム2の動作に係るプログラムを所定のプログラム言語の状態で表示するだけでなく、上記プログラムに基づいて行われるロボットアーム2の一連の動作を、図2に示す如く、時系列的に並べられたロボットの位置情報71・72・73・74・75・76として表示することが可能である。
通常、ロボットアームの一連の動作は、(1)ロボットアームの静止位置(または通過位置)、および、(2)ある静止位置(または通過位置)から次の静止位置(または通過位置)に移行するときのロボットアームの動作内容(直線動作や各軸動作等の動作方法、動作速度、動作精度等)、を組み合わせることにより形成される。
ここで、「ロボットアームの静止位置」は、厳密にはロボットアームの先端部(エンドエフェクタが設けられる部分)が静止したときの位置(三次元座標)を指し、「ロボットアームの通過位置」は、厳密にはロボットアームの先端部が通過したときの位置(三次元座標)を指すものであり、実体的には、ロボットアームの各関節の回動角および旋回角を特定することにより特定される。
すなわち、ロボットアームの静止位置および通過位置は、通常はロボットアームの各関節の回動角や旋回角、およびロボットアームを構成する各部材の形状等のパラメータを用いて算出された三次元座標の形で表現される。
なお、ロボットアームの各関節の回動角および旋回角を特定することにより、ロボットアームの先端部の位置が求められるだけでなく、ロボットアームの姿勢(ロボットアームを構成する各部材およびエンドエフェクタの向き)も特定される。
本実施例の場合、ティーチペンダント5の表示部53に表示されるロボットの位置情報71・72・73・74・75・76が時系列的に表示される。
本実施例の位置情報71・72・73・74・75・76はそれぞれ、表示部53に表示する項目として(a)位置番号、(b)動作区分、(c)動作精度、(d)動作速度、(e)出力信号、(f)入力信号、を含み、ロボットアーム2の動作状況や内容を容易に把握可能なレイアウトとなっている。
(a)位置番号は、ロボットアーム2が一連の動作を開始してから終了するまでの間に、ロボットアーム2が一時的に静止する静止位置またはロボットアーム2が通過する通過位置が複数ある場合に、当該複数の静止位置または通過位置にロボットアーム2が到達する順に、すなわち時系列的に付した番号である。
本実施例の場合、ロボットアーム2の動作の開始から終了までの間に静止位置または通過位置が計六箇所あり、これら六箇所の静止位置または通過位置にそれぞれ位置番号(1〜6)が付されている。
ロボットアーム2の静止位置または通過位置をロボットアーム2の各関節の回動角や旋回角の形で表示せず、ロボットアーム2がその位置に到達する順に番号を付して時系列的に並べて表示するのは、作業者は教示作業時において、ロボットアーム2の動作をロボットアーム2の各関節の回動角や旋回角の形で認識するよりも、むしろ実際に作業者の目で見たロボットアーム2の先端部(あるいはハンド28)の位置や姿勢により「今何番目の静止位置または通過位置にいる」という形で認識するからである。
従って、ティーチペンダント5の表示部53に静止位置または通過位置が時系列的に表示されていれば作業者は当該静止位置または通過位置および目で見たロボットアーム2の姿勢からロボットアーム2の動作状況を十分に把握することが可能である。
なお、操作部52を操作することにより、ある静止位置または通過位置におけるロボットアーム2の各関節の回動角や旋回角を表示することも可能である。
(b)動作区分は、対象となる静止位置または通過位置に到達するまでのロボットアーム2の動作方法の区分を指すものである。本実施例の場合、ロボットアーム2の動作方法として、直線動作、各軸動作、円弧補間動作、曲線補間動作、相対値移動動作等の中からいずれか一つが選択される。
なお、ロボットアームの動作方法がいずれか一つに固定されているロボットの場合には当該動作区分を表示する必要がないので、これを表示項目の対象から外すことが可能である。
(c)動作精度は、対象となる静止位置または通過位置に静止した時のロボットアーム2の各関節の回動角または旋回角の精度(すなわち、対象となる静止位置または通過位置に到達した時の各関節の回動角または旋回角の設定値と、角度検出手段による各関節の回動角または旋回角の検出値と、の差の許容範囲)を指すものである。本実施例の場合、動作精度として精度が高いものから順に3つのランク(1〜3)が予め設定されており、その中からいずれか一つが選択される。
なお、ロボットアームの動作精度のランクがいずれか一つに固定されているロボットの場合には当該動作精度を表示する必要がないので、これを表示項目の対象から外すことが可能である。
(d)動作速度は、ロボットアーム2の動作速度、すなわち各関節の回動角速度または旋回角速度を指すものである。本実施例の場合、動作速度として速度が低いものから高いものまで9つのランク(1〜9)が予め設定されており、その中からいずれか一つが選択される。
なお、ロボットアームの動作速度のランクがいずれか一つに固定されているロボットの場合には当該動作速度を表示する必要がないので、これを表示項目の対象から外すことが可能である。
(e)出力信号は、ロボットアーム2が対象となる静止位置または通過位置に到達したことを示す信号を、他のどの機器(例えば、ロボットアーム2に隣接して設けられている別のロボットアームや、ワーク11を搬送して取り出し側作業台12に載置する搬送装置等)に対して出力するかを表すものである。
なお、ロボットの使用条件等によっては他の機器に信号を出力する必要がない場合もあるので、そのような場合には出力信号を表示項目の対象から外すことが可能である。
(f)入力信号は、他のどの機器からの入力信号を取得してから動作を開始し、対象となる静止位置または通過位置に到達するかを表すものである。
なお、ロボットの使用条件等によっては他の機器からの入力信号を必要としない場合もあるので、そのような場合には入力信号を表示項目の対象から外すことが可能である。
本実施例の場合、ティーチペンダント5の表示部53に時系列的に表示されたロボットアーム2の位置情報71・72・73・74・75・76を、表示部53の画面上で修正(追加、削除、書き換え等)することが可能である。
また、ロボット1のコントローラ4は、表示部53に時系列的に表示されたロボットアーム2の位置情報71・72・73・74・75・76を表示部53の画面上で修正した結果を再生時のロボットアーム2の動作に反映させるためのプログラムを格納しており、当該プログラムが作動することにより、所定のプログラム言語により作成されているロボットアーム2の動作に係るプログラムを修正(追加、削除、書き換え等)したのと同様の効果を得ることが可能である。
従って、作業者は、ロボットアーム2の教示作業時に、所定のプログラム言語により作成されているロボットアーム2の動作に係るプログラムを直接的に修正せずとも、表示部53に表示されたロボットアーム2の位置情報71・72・73・74・75・76を適宜修正するだけでロボットアーム2の動作を修正することが可能であり、教示作業時の作業性に優れる(教示作業の省力化、教示作業に係る作業時間の短縮に寄与する)。
<視覚認識装置による視覚認識処理のパラメータの表示方法>
図2に示す如く、視覚認識装置3がワーク11の位置情報を取得するためのパラメータ81、言い換えれば、視覚認識装置3による視覚認識処理のパラメータ81は、位置情報71に付帯して表示される。
ここで、本出願における「視覚認識処理のパラメータをロボットアームの位置情報に付帯して表示する」とは、視覚認識処理のパラメータと、当該視覚認識処理を行う静止位置または通過位置との関係が表示画面上で明確となる態様で表示することを指す。
本実施例の場合、パラメータ81を、視覚認識処理を行う静止位置または通過位置(位置番号が「1」の静止位置または通過位置)に対応するロボットアーム2の位置情報71と、次の静止位置または通過位置に対応するロボットアーム2の位置情報72との間(言い換えれば、位置情報71の直下)に表示することにより、ロボットアーム2の位置情報71に付帯して表示する。
図2および図3に示す如く、本実施例のパラメータ81は、表示部53に表示する項目として(i)視覚認識方法の区分、(ii)撮像手段の区分、(iii)ワーク番号、(iv)ワークにおける撮像部位、を含み、視覚認識処理が行われるタイミングや内容を容易に把握可能なレイアウトとなっている。
本実施例の場合、表示部53には、視覚認識装置3がワーク11の位置情報を取得する位置である位置番号が「1」の静止位置または通過位置に係る位置情報71と、次の静止位置または通過位置である位置番号が「2」の静止位置または通過位置に係る位置情報72との間に、「FN(視覚認識方法の区分(大分類))[(撮像手段の区分),(視覚認識方法の区分(小分類)),(ワーク番号),(ワークにおける撮像部位(その1)),(ワークにおける撮像部位(その2)),(ワークにおける撮像部位(その3))]」の形で表示される。
(i)視覚認識方法の区分は、視覚認識装置3が行う作業の区分を指すものである。
本実施例の場合、視覚認識方法の区分を更に大分類と小分類に分けている。視覚認識方法の区分の大分類としては、ワークの姿勢の計測、およびワークの検査・確認が予め設定されている。また、視覚認識方法の区分の小分類としては、姿勢の詳細な計測、ワークの種類の確認、ワークが所定の位置に存在するか否かの確認、およびワークの精度の確認が予め設定されている。なお、本実施例の視覚認識方法の区分の小分類は、さらに撮像時にワーク11をハンド28で把持しているか否かで細分されている。
なお、ロボットの使用条件等によっては特定の視覚認識方法しか使用せず、視覚認識方法の区分を選択する必要が無い場合もあるので、そのような場合には視覚認識方法の区分を表示項目の対象から外すことが可能である。
(ii)撮像手段の区分は、視覚認識装置3が視覚認識処理を行う際に使用する撮像手段を指すものである。本実施例の場合、第一固定カメラ31、第二固定カメラ32およびロボットアーム側カメラ33にそれぞれ番号が付され、いずれかが選択される。
なお、視覚認識装置が撮像手段を一つだけ具備する構成である場合には使用する撮像手段を選択する必要がないので、そのような場合には、撮像手段の区分を表示項目の対象から外すことが可能である。
(iii)ワーク番号は、ロボット1が異なる複数種類のワークを取り扱う場合に、視覚認識の対象となるワークの種類を指すものである。本実施例の場合、ロボット1が取り扱うワークの種類毎に異なるワーク番号が予め設定されており、そのいずれかが選択される。
なお、ロボット1が一種類のワーク11を取り扱う場合にはワークの種類を選択する必要がないので、そのような場合には、ワーク番号を表示項目の対象から外すことが可能である。
(iv)ワークにおける撮像部位は、視覚認識装置3が撮像手段により撮像されたワークのどの部分を用いてワークの位置情報の算出を行うかを指すものである。本実施例の場合、視覚認識装置3を用いてワークの姿勢を計測するためには少なくともワークの異なる三箇所についての位置情報が必要であるため、ワークにおける撮像部位を三箇所選択可能としている。
なお、視覚認識装置が行う作業の内容やワークの形状によって、視覚認識装置が行う作業に必要なワークにおける撮像部位の数は変動する。また、ワークのある一箇所のみを計測すれば良い場合にはワークにおける撮像部位を選択する必要がないので、そのような場合には、ワークにおける撮像部位を表示項目の対象から外すことが可能である。
本実施例のロボット1のコントローラ4は、ティーチペンダント5の表示部53に表示されたパラメータ81の表示画面上の修正(追加、削除、書き換え等)を再生時の視覚認識装置3による視覚認識に反映させるためのプログラムを格納しており、当該プログラムが作動することにより、所定のプログラム言語により作成されているロボットアーム2の動作に係るプログラムのうち視覚認識処理に係る部分を修正(追加、削除、書き換え等)したのと同様の効果を得ることが可能である。
従って、作業者は、ロボットアーム2の教示作業時に、視覚認識処理の内容を修正するために所定のプログラム言語により作成されているロボットアーム2の動作に係るプログラムを直接的に修正せずとも、ティーチペンダント5の表示部53に表示されたパラメータ81を表示画面上で修正するだけで視覚認識装置3による視覚認識処理の内容を修正することが可能であり、作業性に優れる(作業の省力化、作業時間の短縮に寄与する)。
<補正処理の適用範囲の指定方法・表示方法>
本実施例のロボット1は、ティーチペンダント5の表示部53に時系列的に表示されたロボットアーム2の位置情報の所定の範囲の直上に補正処理開始マーカー82を表示し、所定の範囲の直下に補正処理終了マーカー83を表示することにより、ロボットアーム2の位置情報の所定の範囲を画面上で指定することができる。
図2に示す如く、本実施例の場合には、位置情報72と位置情報73の間に補正処理開始マーカー82を表示し、位置情報75と位置情報76の間に補正処理終了マーカー83が表示されているが、これは、位置情報73・74・75が「所定の範囲」として指定されていることを示す。
なお、補正処理開始マーカー82および補正処理終了マーカー83は、操作部52を操作することにより表示部53に表示される。
補正処理開始マーカー82は補正処理が開始される時点(静止位置または通過位置)を指定するものであり、補正処理終了マーカー83は補正処理が終了される時点(静止位置または通過位置)を指定するものである。
ここで、本出願における「補正処理」は、視覚認識装置により取得されたワークの位置情報に基づいて、予め設定されたロボットアームの一連の動作の全部または一部を、ワークの姿勢や位置に応じて適宜補正することを指す。
ロボット1のコントローラ4は、表示部53に時系列的に表示されたロボットアーム2の位置情報71・72・73・74・75・76の所定の範囲を表示部53の画面上で指定した結果を、再生時のロボットアーム2の補正処理に反映させるためのプログラムを格納しており、当該プログラムが作動することにより、当該所定の範囲(より厳密には、所定の範囲に含まれるロボットアームの位置情報にそれぞれ対応する静止位置の間のロボットアーム2の動作)について補正処理を行うように所定のプログラム言語により作成されているロボットアーム2の動作に係るプログラムを修正したのと同様の効果を得ることが可能である。
従って、作業者は、ロボットアーム2の教示作業時に、所定のプログラム言語により作成されているロボットアーム2の動作に係るプログラムを直接的に修正せずとも、表示部53に表示されたロボットアーム2の位置情報の一部である位置情報73・74・75を補正処理開始マーカー82および補正処理終了マーカー83で挟むことにより画面上で指定するだけで、ロボットアーム2の一連の動作のうち、位置情報73・74・75に対応する動作に補正処理を適用することを容易に指定することが可能であり、教示作業時の作業性に優れる(教示作業の省力化、教示作業に係る作業時間の短縮に寄与する)。
また、作業者は、補正処理開始マーカー82および補正処理終了マーカー83の位置を見ればロボットアーム2の一連の動作のうち、どの動作が補正処理の適用範囲となるかを容易に把握することが可能であり、このことも教示作業時の作業性の向上に寄与する。
<補正処理に係るデータ格納構造>
ロボット1のコントローラ4は、表示部53に表示されたロボットアーム2の位置情報の所定の範囲を画面上で指定することにより再生時のロボットアーム2の動作の補正量を容易に算出可能とするために、図4の如きデータ格納構造を有する。
図4に示す如く、ロボット1のコントローラ4は、格納手段の所定の格納領域に、教示時における視覚認識処理を行う静止位置または通過位置(本実施例の場合、教示時における位置番号が「1」の静止位置または通過位置)を示すロボットアーム2の位置ベクトルA、教示時における視覚認識処理により算出されるワーク11の位置(本実施例の場合、教示時においてロボットアーム2が位置番号が「1」の静止位置または通過位置にあるときにロボットアーム側カメラ33により撮像された画像に基づいて算出されたワーク11の位置)を示す位置ベクトルB、教示時の補正処理適用範囲であるロボットアームの位置(本実施例の場合、教示時における補正処理の適用範囲のうち、最後の静止位置または通過位置である位置番号が「5」の静止位置または通過位置)を示す位置ベクトルC、再生時における視覚認識処理を行う静止位置または通過位置を示すロボットアームの位置ベクトルD、再生時における視覚認識処理により算出されるワークの位置ベクトルEが格納される。
そして、ロボット1のコントローラ4は、再生時のロボットアームの補正量を示す位置ベクトルFを、以下の数1を用いて算出する。
Figure 2007061940
本実施例のロボット1のコントローラ4は、表示部53に時系列的に表示されたロボットアーム2の位置情報71・72・73・74・75・76、ロボットアーム2の位置情報71に付帯して表示された視覚認識処理に係るパラメータ81、あるいは補正処理の適用範囲を指定する補正処理開始マーカー82および補正処理終了マーカー83を適宜表示部53の画面上で修正した内容をロボットアーム2の再生時の動作に反映するためのプログラムを格納しているが、修正後の再生時におけるロボットアーム2の動作の補正量を算出するために必要な情報(位置ベクトルA・B・C・D・E)をコントローラ4の格納手段の所定の格納領域に格納することにより、これらから容易に再生時のロボットアームの補正量を示す位置ベクトルFを算出することが可能である。
また、表示部53に時系列的に表示されたロボットアーム2の位置情報71・72・73・74・75・76、ロボットアーム2の位置情報71に付帯して表示された視覚認識処理に係るパラメータ81、あるいは補正処理の適用範囲を指定する補正処理開始マーカー82および補正処理終了マーカー83を表示部53の画面上で修正した時点で、当該修正を反映して位置ベクトルA・B・C・D・Eは適宜修正されて格納されるので、所定のプログラム言語で作成されたロボットアーム2の動作に係るプログラムを直接的に修正せずとも同様の効果を得ることが可能であるとともに、再度の修正や復元にも柔軟に対応することが可能であり、作業性に優れる。
<再生時の動作時点の表示方法>
本実施例のロボット1は、再生時において、ティーチペンダント5のロボットアーム2が行っている動作に対応する位置情報を反転して(白黒を逆にして)表示する。図2の場合、位置情報74が反転して表示されているが、これはロボットアーム2が位置番号が「3」の静止位置または通過位置で静止した状態から位置番号が「4」の静止位置または通過位置で静止した状態に移行する途中であることを示している。
このように構成することにより、作業者はロボットアーム2の再生時の動作時点、すなわちロボットアーム2の動作の再生時においてロボットアーム2が一連の動作のどの部分を再生しているのか、を容易に把握することが可能である。
また、ロボット1に何らかのトラブルが発生してロボットアーム2が所定の静止位置または通過位置以外の位置で停止した場合、表示部53に表示されたどの位置情報が反転して表示されているかを見ることにより、ロボットアーム2の一連の動作のどの過程において停止したのかを容易に把握することが可能であり、ロボットアーム2の動作の教示作業の作業性が向上する(作業の省力化、作業時間の短縮に寄与する)。
なお、本実施例のロボット1の場合は、再生時のロボットアーム2の動作に対応するロボットアーム2の位置情報を反転して表示する構成としたが、再生時のロボットアーム2の動作に対応するロボットアーム2の位置情報を点滅して表示する構成としても、色を変えて表示する構成としても、所定のマークを付して表示する(例えば、位置番号の横に黒丸を表示する等)構成としても、略同様の効果を奏する。
以上の如く、本実施例のロボット1は、
複数の関節を有し、先端部にハンド28が設けられたロボットアーム2と、
ワーク11を撮像する第一固定カメラ31、第二固定カメラ32、ロボットアーム側カメラ33、および第一固定カメラ31、第二固定カメラ32、ロボットアーム側カメラ33により撮像されたワーク11の画像に基づいてワーク11の位置情報を算出する視覚情報処理装置34を具備する視覚認識装置3と、
予め設定されたロボットアーム2の動作に係るプログラムおよび視覚認識装置3から取得したワーク11の位置情報に基づいてロボットアーム2の動作を制御するコントローラ4と、
ロボットアーム2の位置情報71・72・73・74・75・76を時系列的に表示し、かつ、視覚認識装置3がワーク11の位置情報を取得するためのパラメータ81をロボットアーム2の位置情報71に付帯して表示するティーチペンダント5(より厳密には、ティーチペンダント5の表示部53)と、
を具備するものである。
このように構成することにより、ロボット1の動作状況(より厳密には、ロボットアーム2および視覚認識装置3の動作状況)の把握が容易であり、教示作業時の作業性に優れる(作業の省力化、作業時間の短縮に寄与する)。
また、ロボット1は、
ティーチペンダント5の表示部53に時系列的に表示されたロボットアーム2の位置情報の所定の範囲(位置情報73・74・75)を、画面上で補正処理開始マーカー82および補正処理終了マーカー83で挟んで指定することにより、当該指定されたロボットアーム2の位置情報に対応するロボットアーム2の動作の再生時に補正処理を適用するものである。
このように構成することにより、ロボットアーム2の教示作業時に、所定のプログラム言語により作成されているロボットアーム2の動作に係るプログラムを直接的に修正せずとも、表示部53に表示されたロボットアーム2の位置情報の一部である位置情報73・74・75を補正処理開始マーカー82および補正処理終了マーカー83で挟むことにより画面上で指定するだけで、ロボットアーム2の一連の動作のうち、位置情報73・74・75に対応する動作に補正処理を適用することを容易に指定することが可能であり、教示作業時の作業性に優れる(教示作業の省力化、教示作業に係る作業時間の短縮に寄与する)。
また、作業者は、補正処理開始マーカー82および補正処理終了マーカー83の位置を見ればロボットアーム2の一連の動作のうち、どの動作が補正処理の適用範囲となるかを容易に把握することが可能であり、このことも教示作業時の作業性の向上に寄与する。
また、ロボット1のコントローラ4は、
コントローラ4の所定の格納領域に格納された教示時のロボットアーム2の位置情報(位置ベクトルA)、再生時のロボットアーム2の位置情報(位置ベクトルD)、教示時のワーク11の位置情報(位置ベクトルB)、再生時のワーク11の位置情報(位置ベクトルE)および再生時の補正処理を適用するロボットアーム2の位置情報(位置ベクトルC)に基づいて再生時のロボットアーム2の動作の補正量(位置ベクトルF)を算出するものである。
このように構成することにより、容易に再生時のロボットアーム2の補正量を算出することが可能である。また、所定の格納領域にロボットアーム2の補正量を算出するための情報を格納しておくことにより、ロボットアーム2の動作に係るプログラムの再度の修正や復元にも柔軟に対応することが可能であり、作業性に優れる。
また、ロボット1のティーチペンダント5の表示部53が表示するロボットアーム2の位置情報71・72・73・74・75・76は、
ロボットアーム2の動作区分、ロボットアーム2の動作精度、ロボットアーム2の動作速度、ロボットアーム2の動作時の出力信号およびロボットアーム2の動作時の入力信号、に係る情報のうちの少なくとも一つを含むものである。
このように構成することにより、ロボットアーム2の動作状況や内容を容易に把握することが可能である。
また、ロボット1のティーチペンダント5の表示部53が表示するワーク11の位置情報を取得するためのパラメータ81は、
視覚認識方法の区分、撮像手段の区分、ワーク番号、ワークにおける撮像部位、に係る情報のうちの少なくとも一つを含むものである。
このように構成することにより、視覚認識処理が行われるタイミングや内容を容易に把握することが可能である。
また、ロボット1のティーチペンダント5の表示部53は、
再生時のロボットアーム2の動作に対応するロボットアーム2の位置情報を、反転して表示する、点滅して表示する、色を変えて表示する、または、所定のマークを付して表示するものである。
このように構成することにより、ロボットアーム2の再生時の動作時点を容易に把握することが可能である。
また、ロボット1に何らかのトラブルが発生してロボットアーム2が所定の静止位置以外の位置で停止した場合、表示部53に表示されたどの位置情報が反転等して表示されているかを見ることにより、ロボットアーム2の一連の動作のどの過程において停止したのかを容易に把握することが可能であり、教示作業の作業性が向上する(作業の省力化、作業時間の短縮に寄与する)。
また、本実施例のロボットの情報表示方法は、
複数の関節を有し、先端部にハンド28が設けられたロボットアーム2と、
ワーク11を撮像する第一固定カメラ31、第二固定カメラ32、ロボットアーム側カメラ33、および第一固定カメラ31、第二固定カメラ32、ロボットアーム側カメラ33により撮像されたワーク11の画像に基づいてワーク11の位置情報を算出する視覚情報処理装置34を具備する視覚認識装置3と、
予め設定されたロボットアーム2の動作に係るプログラムおよび視覚認識装置3から取得したワーク11の位置情報に基づいてロボットアーム2の動作を制御するコントローラ4と、
ロボットアーム2の動作に係る情報を表示するティーチペンダント5(より厳密には、ティーチペンダント5の表示部53)と、
を具備するロボット1の情報表示方法であって、
ティーチペンダント5(より厳密には、ティーチペンダント5の表示部53)に、ロボットアーム2の位置情報71・72・73・74・75・76を時系列的に表示し、かつ、視覚認識装置3がワーク11の位置情報を取得するためのパラメータ81をロボットアーム2の位置情報71に付帯して表示するものである。
このように構成することにより、ロボット1の動作状況(より厳密には、ロボットアーム2および視覚認識装置3の動作状況)の把握が容易であり、教示作業時の作業性に優れる(作業の省力化、作業時間の短縮に寄与する)。
また、本実施例のロボットの情報表示方法は、
ティーチペンダント5の表示部53に時系列的に表示されたロボットアーム2の位置情報の所定の範囲(位置情報73・74・75)を、画面上で補正処理開始マーカー82および補正処理終了マーカー83で挟んで指定することにより、当該指定されたロボットアーム2の位置情報に対応するロボットアーム2の動作の再生時に補正処理を適用するものである。
このように構成することにより、ロボットアーム2の教示作業時に、所定のプログラム言語により作成されているロボットアーム2の動作に係るプログラムを直接的に修正せずとも、表示部53に表示されたロボットアーム2の位置情報の一部である位置情報73・74・75を補正処理開始マーカー82および補正処理終了マーカー83で挟むことにより画面上で指定するだけで、ロボットアーム2の一連の動作のうち、位置情報73・74・75に対応する動作に補正処理を適用することを容易に指定することが可能であり、教示作業時の作業性に優れる(教示作業の省力化、教示作業に係る作業時間の短縮に寄与する)。
また、作業者は、補正処理開始マーカー82および補正処理終了マーカー83の位置を見ればロボットアーム2の一連の動作のうち、どの動作が補正処理の適用範囲となるかを容易に把握することが可能であり、このことも教示作業時の作業性の向上に寄与する。
また、本実施例のロボットの情報表示方法の場合、
ロボット1のコントローラ4は、
コントローラ4の所定の格納領域に格納された教示時のロボットアーム2の位置情報(位置ベクトルA)、再生時のロボットアーム2の位置情報(位置ベクトルD)、教示時のワーク11の位置情報(位置ベクトルB)、再生時のワーク11の位置情報(位置ベクトルE)および再生時の補正処理を適用するロボットアーム2の位置情報(位置ベクトルC)に基づいて再生時のロボットアーム2の動作の補正量(位置ベクトルF)を算出するものである。
このように構成することにより、容易に再生時のロボットアーム2の補正量を算出することが可能である。また、所定の格納領域にロボットアーム2の補正量を算出するための情報を格納しておくことにより、ロボットアーム2の動作に係るプログラムの再度の修正や復元にも柔軟に対応することが可能であり、作業性に優れる。
また、本実施例のロボットの情報表示方法の場合、
また、ロボット1のティーチペンダント5の表示部53が表示するロボットアーム2の位置情報71・72・73・74・75・76は、
ロボットアーム2の動作区分、ロボットアーム2の動作精度、ロボットアーム2の動作速度、ロボットアーム2の動作時の出力信号およびロボットアーム2の動作時の入力信号、に係る情報のうちの少なくとも一つを含むものである。
このように構成することにより、ロボットアーム2の動作状況や内容を容易に把握することが可能である。
また、本実施例のロボットの情報表示方法の場合、
ロボット1のティーチペンダント5の表示部53が表示するワーク11の位置情報を取得するためのパラメータ81は、
視覚認識方法の区分、撮像手段の区分、ワーク番号、ワークにおける撮像部位、に係る情報のうちの少なくとも一つを含むものである。
このように構成することにより、視覚認識処理が行われるタイミングや内容を容易に把握することが可能である。
また、本実施例のロボットの情報表示方法の場合、
ロボット1のティーチペンダント5の表示部53は、
再生時のロボットアーム2の動作に対応するロボットアーム2の位置情報を、反転して表示する、点滅して表示する、色を変えて表示する、または、所定のマークを付して表示するものである。
このように構成することにより、ロボットアーム2の再生時の動作時点を容易に把握することが可能である。
また、ロボット1に何らかのトラブルが発生してロボットアーム2が所定の静止位置以外の位置で停止した場合、表示部53に表示されたどの位置情報が反転等して表示されているかを見ることにより、ロボットアーム2の一連の動作のどの過程において停止したのかを容易に把握することが可能であり、教示作業の作業性が向上する(作業の省力化、作業時間の短縮に寄与する)。
本発明に係るロボットの実施の一形態の全体模式図。 ティーチペンダントの表示部の表示画面を示す図。 表示部に表示される視覚認識処理に係るパラメータを示す図。 コントローラの補正処理に係る情報の格納構造を示す図。
符号の説明
1 ロボット
2 ロボットアーム
3 視覚認識装置
4 コントローラ(制御装置)
5 ティーチペンダント
11 ワーク
28 ハンド(エンドエフェクタ)
31 第一固定カメラ(撮像手段)
32 第二固定カメラ(撮像手段)
33 ロボットアーム側カメラ(撮像手段)
34 視覚情報処理装置(ワーク位置情報算出手段)
53 表示部(表示装置)

Claims (12)

  1. 複数の関節を有し、先端部にエンドエフェクタが設けられたロボットアームと、
    ワークを撮像する撮像手段および該撮像手段により撮像されたワークの画像に基づいてワークの位置情報を算出するワーク位置情報算出手段を具備する視覚認識装置と、
    予め設定されたロボットアームの動作に係るプログラムおよび視覚認識装置から取得したワークの位置情報に基づいてロボットアームの動作を制御する制御装置と、
    ロボットアームの位置情報を時系列的に表示し、かつ、視覚認識装置がワークの位置情報を取得するためのパラメータを前記ロボットアームの位置情報に付帯して表示する表示装置と、
    を具備するロボット。
  2. 前記表示装置に時系列的に表示されたロボットアームの位置情報の所定の範囲を画面上で指定することにより、当該指定されたロボットアームの位置情報に対応するロボットアームの動作の再生時に補正処理を適用する請求項1に記載のロボット。
  3. 前記制御装置は、
    該制御装置の所定の格納領域に格納された教示時のロボットアームの位置情報、再生時のロボットアームの位置情報、教示時のワークの位置情報、再生時のワークの位置情報および再生時の補正処理を適用するロボットアームの位置情報に基づいて再生時のロボットアームの動作の補正量を算出する請求項1または請求項2に記載のロボット。
  4. 前記表示装置が表示するロボットアームの位置情報は、
    ロボットアームの動作区分、ロボットアームの動作精度、ロボットアームの動作速度、ロボットアームの動作時の出力信号およびロボットアームの動作時の入力信号、に係る情報のうちの少なくとも一つを含む請求項1から請求項3までのいずれか一項に記載のロボット。
  5. 前記表示装置が表示する前記視覚認識装置がワークの位置情報を取得するためのパラメータは、
    視覚認識方法の区分、撮像手段の区分、ワーク番号、ワークにおける撮像部位、に係る情報のうちの少なくとも一つを含む請求項1から請求項4までのいずれか一項に記載のロボット。
  6. 前記表示装置は、
    再生時のロボットアームの動作に対応するロボットアームの位置情報を、反転して表示する、点滅して表示する、色を変えて表示する、または、所定のマークを付して表示する請求項1から請求項5までのいずれか一項に記載のロボット。
  7. 複数の関節を有し、先端部にエンドエフェクタが設けられたロボットアームと、
    ワークを撮像する撮像手段および該撮像手段により撮像されたワークの画像に基づいてワークの位置情報を算出するワーク位置情報算出手段を具備する視覚認識装置と、
    予め設定されたロボットアームの動作に係るプログラムおよび視覚認識装置から取得したワークの位置情報に基づいてロボットアームの動作を制御する制御装置と、
    ロボットアームの動作に係る情報を表示する表示装置と、
    を具備するロボットの情報表示方法であって、
    前記表示装置に、ロボットアームの位置情報を時系列的に表示し、かつ、視覚認識装置がワークの位置情報を取得するためのパラメータを前記ロボットアームの位置情報に付帯して表示するロボットの情報表示方法。
  8. 前記表示装置に時系列的に表示されたロボットアームの位置情報の所定の範囲を画面上で指定することにより、当該指定されたロボットアームの位置情報に対応するロボットアームの動作の再生時に補正処理を適用する請求項7に記載のロボットの情報表示方法。
  9. 前記制御装置は、
    該制御装置の所定の格納領域に格納された教示時のロボットアームの位置情報、再生時のロボットアームの位置情報、教示時のワークの位置情報、再生時のワークの位置情報および再生時の補正処理を適用するロボットアームの位置情報に基づいて再生時のロボットアームの動作の補正量を算出する請求項7または請求項8に記載のロボットの情報表示方法。
  10. 前記表示装置が表示するロボットアームの位置情報は、
    ロボットアームの動作区分、ロボットアームの動作精度、ロボットアームの動作速度、ロボットアームの動作時の出力信号およびロボットアームの動作時の入力信号、に係る情報のうちの少なくとも一つを含む請求項7から請求項9までのいずれか一項に記載のロボットの情報表示方法。
  11. 前記表示装置が表示する前記視覚認識装置がワークの位置情報を取得するためのパラメータは、
    視覚認識方法の区分、撮像手段の区分、ワーク番号、ワークにおける撮像部位、に係る情報のうちの少なくとも一つを含む請求項7から請求項10までのいずれか一項に記載のロボットの情報表示方法。
  12. 前記表示装置は、
    再生時のロボットアームの動作に対応するロボットアームの位置情報を、反転して表示する、点滅して表示する、色を変えて表示する、または、所定のマークを付して表示する請求項7から請求項11までのいずれか一項に記載のロボットの情報表示方法。
JP2005249828A 2005-08-30 2005-08-30 ロボットおよびロボットの情報表示方法 Expired - Fee Related JP4613752B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005249828A JP4613752B2 (ja) 2005-08-30 2005-08-30 ロボットおよびロボットの情報表示方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005249828A JP4613752B2 (ja) 2005-08-30 2005-08-30 ロボットおよびロボットの情報表示方法

Publications (2)

Publication Number Publication Date
JP2007061940A true JP2007061940A (ja) 2007-03-15
JP4613752B2 JP4613752B2 (ja) 2011-01-19

Family

ID=37924740

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005249828A Expired - Fee Related JP4613752B2 (ja) 2005-08-30 2005-08-30 ロボットおよびロボットの情報表示方法

Country Status (1)

Country Link
JP (1) JP4613752B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016021130A1 (ja) * 2014-08-05 2016-02-11 パナソニックIpマネジメント株式会社 オフラインティーチング装置
CN110315504A (zh) * 2018-03-29 2019-10-11 发那科株式会社 机器人系统

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS58114892A (ja) * 1981-12-26 1983-07-08 日産自動車株式会社 ロボツトの視覚装置
JPS6353610A (ja) * 1986-08-22 1988-03-07 Fanuc Ltd オフライン制御実行方法
JPH027108A (ja) * 1988-06-27 1990-01-11 Hitachi Ltd 手先視覚付きロボット・自動機械の教示および制御方法
JPH05265527A (ja) * 1992-03-16 1993-10-15 Fanuc Ltd 動作プログラム作成方法及び実行方法
JPH0619522A (ja) * 1992-06-29 1994-01-28 Hitachi Constr Mach Co Ltd ロボット制御装置
JPH06288731A (ja) * 1993-04-01 1994-10-18 Komatsu Ltd 視覚センサ
JPH1148178A (ja) * 1997-08-08 1999-02-23 Yaskawa Electric Corp 複数のロボット動作プログラムの表示装置
JP2001222309A (ja) * 2000-02-10 2001-08-17 Yaskawa Electric Corp ロボット制御装置
JP2001236244A (ja) * 2000-02-23 2001-08-31 Mitsubishi Electric Corp ロボットプログラムのデバッグシステム
JP2002301673A (ja) * 2000-08-25 2002-10-15 Janome Sewing Mach Co Ltd ロボット
JP2005066797A (ja) * 2003-08-27 2005-03-17 Fanuc Ltd ロボットプログラム位置修正装置

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS58114892A (ja) * 1981-12-26 1983-07-08 日産自動車株式会社 ロボツトの視覚装置
JPS6353610A (ja) * 1986-08-22 1988-03-07 Fanuc Ltd オフライン制御実行方法
JPH027108A (ja) * 1988-06-27 1990-01-11 Hitachi Ltd 手先視覚付きロボット・自動機械の教示および制御方法
JPH05265527A (ja) * 1992-03-16 1993-10-15 Fanuc Ltd 動作プログラム作成方法及び実行方法
JPH0619522A (ja) * 1992-06-29 1994-01-28 Hitachi Constr Mach Co Ltd ロボット制御装置
JPH06288731A (ja) * 1993-04-01 1994-10-18 Komatsu Ltd 視覚センサ
JPH1148178A (ja) * 1997-08-08 1999-02-23 Yaskawa Electric Corp 複数のロボット動作プログラムの表示装置
JP2001222309A (ja) * 2000-02-10 2001-08-17 Yaskawa Electric Corp ロボット制御装置
JP2001236244A (ja) * 2000-02-23 2001-08-31 Mitsubishi Electric Corp ロボットプログラムのデバッグシステム
JP2002301673A (ja) * 2000-08-25 2002-10-15 Janome Sewing Mach Co Ltd ロボット
JP2005066797A (ja) * 2003-08-27 2005-03-17 Fanuc Ltd ロボットプログラム位置修正装置

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016021130A1 (ja) * 2014-08-05 2016-02-11 パナソニックIpマネジメント株式会社 オフラインティーチング装置
CN106457571A (zh) * 2014-08-05 2017-02-22 松下知识产权经营株式会社 离线示教装置
JPWO2016021130A1 (ja) * 2014-08-05 2017-04-27 パナソニックIpマネジメント株式会社 オフラインティーチング装置
CN110315504A (zh) * 2018-03-29 2019-10-11 发那科株式会社 机器人系统
US11590664B2 (en) 2018-03-29 2023-02-28 Fanuc Corporation Robot system
CN110315504B (zh) * 2018-03-29 2023-04-07 发那科株式会社 机器人系统

Also Published As

Publication number Publication date
JP4613752B2 (ja) 2011-01-19

Similar Documents

Publication Publication Date Title
JP4167940B2 (ja) ロボットシステム
US10052765B2 (en) Robot system having augmented reality-compatible display
WO2020090809A1 (ja) 外部入力装置、ロボットシステム、ロボットシステムの制御方法、制御プログラム、及び記録媒体
US11173601B2 (en) Teaching device for performing robot teaching operations and teaching method
CN110977931A (zh) 使用了增强现实和混合现实的机器人控制装置及显示装置
JP2006048244A (ja) 加工プログラム作成装置
CN108235696B (zh) 机器人控制方法和设备
JP2010142910A (ja) ロボットシステム
JP2004261878A (ja) 作業ロボットを用いた制御システムおよびこの制御システムによるワーク加工方法
WO2018092243A1 (ja) 作業位置補正方法および作業ロボット
JP2019018272A (ja) モーション生成方法、モーション生成装置、システム及びコンピュータプログラム
JP2013049102A (ja) ロボットの制御装置及びロボットの姿勢決定方法
JP2018167334A (ja) 教示装置および教示方法
CN111093911B (zh) 机器人系统及其运行方法
JP5729226B2 (ja) ロボットの位置姿勢補間方法及びロボットの制御装置
JP2009190113A (ja) ロボットシミュレーション装置
CN114714029A (zh) 铝合金自动弧焊方法及装置
JP2008168372A (ja) ロボット装置及び形状認識方法
CN114055460B (zh) 示教方法及机器人系统
JP4613752B2 (ja) ロボットおよびロボットの情報表示方法
JP2010172969A (ja) ロボットシステムおよびロボットの制御方法
JP7190552B1 (ja) ロボット教示システム
WO2021261411A1 (ja) ロボット教示方法及びロボット作業方法
JP2010162630A (ja) 撮像方法、ピッキング方法及びピッキング装置
JP3218553B2 (ja) ロボットのシステム制御方法及び装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080506

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100121

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100126

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100326

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100921

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20101004

R151 Written notification of patent or utility model registration

Ref document number: 4613752

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131029

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees