JP5445191B2 - ロボットの動作軌跡表示装置 - Google Patents

ロボットの動作軌跡表示装置 Download PDF

Info

Publication number
JP5445191B2
JP5445191B2 JP2010025366A JP2010025366A JP5445191B2 JP 5445191 B2 JP5445191 B2 JP 5445191B2 JP 2010025366 A JP2010025366 A JP 2010025366A JP 2010025366 A JP2010025366 A JP 2010025366A JP 5445191 B2 JP5445191 B2 JP 5445191B2
Authority
JP
Japan
Prior art keywords
approach
robot
point
object surface
points
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2010025366A
Other languages
English (en)
Other versions
JP2011161549A (ja
Inventor
智哉 山本
重徳 小塚
稔 高橋
慎二 飯田
昇吾 壁谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Wave Inc
Original Assignee
Denso Wave Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Wave Inc filed Critical Denso Wave Inc
Priority to JP2010025366A priority Critical patent/JP5445191B2/ja
Publication of JP2011161549A publication Critical patent/JP2011161549A/ja
Application granted granted Critical
Publication of JP5445191B2 publication Critical patent/JP5445191B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Manipulator (AREA)

Description

本発明は、ロボットの周囲に存在する例えば設備機器やワーク等の物体の物体表面図形と、ロボットの例えば手先等の特定箇所の動作軌跡とを同一画面上で表示するロボットの動作軌跡表示装置に関する。
従来より、ロボットの例えば手先等の特定箇所の動作軌跡を表示する構成がある。ところで、従来は単にロボットの特定箇所の動作軌跡を表示するだけである。そのため、例えばロボットの動作領域の周囲に設備機器が固定的に設置されていたりロボットの動作によりワークが移動されたりする構成では、それら設備機器やワーク(以下、物体と称する)がロボットの動作を妨げ得る位置に存在していたとしても、ロボットの特定箇所の動作軌跡と物体との相対的な位置関係を報知することはなかった。そのため、ロボットの特定箇所が物体に接触するトラブルを回避するための安全管理は作業者の判断に委ねられていた。このよう事情から、ロボットの特定箇所の動作軌跡と物体との相対的な位置関係を報知し、作業者が安全管理を容易に行う構成が望まれている。
一方、動作軌跡と物体との相対的な位置関係を報知する技術として、車両の任意の高さ(例えばバンパーの高さ)の動作軌跡を車載カメラにて撮影された画像に重畳表示することで、車両の任意の高さの動作軌跡と物体(例えば他の車両や壁等)との相対的な位置関係を報知する構成が開示されている(例えば特許文献1参照)。
特開2002−314991公報
ロボットの特定箇所の動作軌跡を表示する構成に、特許文献1に開示されている車両の任意の高さの動作軌跡と物体との相対的な位置関係を報知する技術を適用すれば、ロボットの特定箇所の動作軌跡と物体との相対的な位置関係を報知することが可能になると考えられる。
この場合、ロボットの特定箇所の動作軌跡が物体に接近する箇所を作業者が容易に判別可能となるようにロボットの特定箇所の動作軌跡を太くすることが想定される。ところが、ロボットの特定箇所の動作軌跡が1箇所だけでなく複数箇所で物体に接近したり、ロボットの特定箇所の動作軌跡が物体に接近する箇所が重複したりすること等が十分に予想されることから、そのような場合にロボットの特定箇所の動作軌跡が太く表示されていると、作業者が確認したい動作軌跡が物体に接近する箇所だけでなく接近しない箇所までも太く表示され、しかも、どの方向から見ても一様に太く表示されるので、動作軌跡が重複することで見難くなる。
又、ロボットの特定箇所の動作軌跡を幾つかの区間に区切って色を変えることが想定されるが、見易い色で表示される区間が増えると、当然色数には限界があるので、類似した色(同系色)で表示せざるを得ず、区間を区別し難くなる。即ち、ロボットの特定箇所の動作軌跡が車両の動作軌跡に比べて極めて複雑であるという事情から、ロボットの特定箇所の動作軌跡を太くしたり色を変えたりしたとしても、ロボットの特定箇所の動作軌跡が物体の何れの箇所に接近するかが判然としない画面を表示し得るに過ぎない。又、動作軌跡を太くしたり色を変えたりすることで本来の動作軌跡が見難くなってしまう虞もある。
本発明は、上記した事情に鑑みてなされたものであり、その目的は、作業者がロボットの特定箇所の動作軌跡を把握することができながら、しかも、ロボットの特定箇所の動作軌跡がロボットの動作を妨げ得る物体表面に接近する箇所を把握することができ、安全管理を容易に行うことを可能とするロボットの動作軌跡表示装置を提供することにある。
請求項1に記載した発明によれば、表示制御手段は、動作軌跡データ記憶手段に記憶されている動作軌跡データにより特定されるロボットの特定箇所の動作軌跡と、物体表面図形データ記憶手段に記憶されている物体表面図形データにより特定される物体表面図形とを同一画面上に含む動作軌跡表示画面を表示手段に表示させる。ベクトル生成手段は、ロボットの特定箇所の動作軌跡上において一定時間間隔で取得されるサンプリング点毎に、各サンプリング点を基点として当該サンプリング点から当該動作軌跡と直交する面方向に一定距離に延びるベクトルを周方向に一定角度で段階的に進めて放射状に複数生成し、接近判定手段は、ベクトル生成手段により生成されたベクトルと、物体表面図形データ記憶手段に記憶されている物体表面図形データとを照合し、ベクトルと物体表面とが交差するか否かを判定し、ロボットの特定箇所の動作軌跡が物体表面まで一定距離以下に接近するか否かを判定する。接近点特定手段は、ロボットの特定箇所の動作軌跡が物体表面まで一定距離以下に接近すると接近判定手段により判定されると、ロボットの特定箇所の動作軌跡からの距離が一定距離以下である物体表面上の点を接近点として特定し、接近サンプリング点特定手段は、接近点特定手段により接近点が特定されたサンプリング点を接近サンプリング点として特定する。そして、表示制御手段は、物体表面図形にて接近点特定手段により特定された接近点が含まれる領域である接近領域と当該接近点が含まれない領域である非接近領域とを区分して動作軌跡表示画面に表示させる。
これにより、ロボットの特定箇所の動作軌跡については、従来から何ら変更することなく従来通りの表示態様で表示することで、作業者はロボットの特定箇所の動作軌跡を従来と同様の感覚で把握することができる。又、物体表面図形については、ロボットの特定箇所の動作軌跡から一定距離以下である接近点が存在すると、接近点が含まれる接近領域と接近点が含まれない非接近領域とを区分して表示することで、作業者はロボットの特定箇所の動作軌跡が物体表面まで一定距離以下に接近する箇所を把握することができる。
この場合、物体表面図形を面として表示するのに対し、ロボットの特定箇所の動作軌跡を線として表示し、即ち、物体表面図形をロボットの特定箇所の動作軌跡よりも十分に大きな領域で表示するので、作業者はロボットの特定箇所の動作軌跡が物体表面に接近する領域を線ではなく面として把握することができ、ロボットの特定箇所の動作軌跡が物体表面まで一定距離以下に接近する箇所をより確実に把握することができる。その結果、作業者は安全管理を容易に行うことができる。
請求項2に記載した発明によれば、最接近点特定手段は、接近点特定手段により複数の接近点が特定されると、複数の接近点のうち接近サンプリング点からの距離が最短である接近点を最接近点として特定し、最接近サンプリング点特定手段は、最接近点特定手段により最接近点が特定された接近サンプリング点を最接近サンプリング点として特定する。そして、表示制御手段は、物体表面図形にて最接近サンプリング点特定手段により特定された最接近サンプリング点から最接近点特定手段により特定された最接近点までの距離及び方向を特定する指標を動作軌跡表示画面に表示させる。
これにより、作業者はロボットの特定箇所の動作軌跡が物体表面に最接近している距離及び方向をも把握することができる。即ち、最接近サンプリング点から最接近点までの距離及び方向を特定する指標は1箇所だけで表示することになるので、視点変更することでロボットの特定箇所の動作軌跡と指標とが重ならない視点方向(角度)を得ることで、作業者はロボットの特定箇所の動作軌跡が物体表面に最接近している箇所を直感的に把握することができる。
請求項3に記載した発明によれば、グループ化手段は、接近点特定手段により複数の接近点が特定されると、複数の接近点のうち隣り合う接近点同士を同一グループとする一方で隣り合わない接近点同士を別グループとするようにグループ化する。そして、表示制御手段は、複数の接近点のうち隣り合う接近点同士が同一グループとされる一方で隣り合わない接近点同士が別グループとされるようにグループ化手段によりグループ化されて複数のグループが生成されると、物体表面図形にて複数のグループのうち一のグループに属する接近点が含まれる領域である一の接近領域と他のグループに属する接近点が含まれる領域である他の接近領域とを区分して動作軌跡表示画面に表示させる。
これにより、例えばロボットの特定箇所の動作軌跡が物体表面まで一定距離以下に近づく区間と物体から遠ざかる区間とを交互に繰り返す波形状であり、ロボットの特定箇所の動作軌跡が物体表面まで断続的に接近するような場合であっても、作業者はロボットの特定箇所の動作軌跡が物体表面まで一定距離以下に接近する箇所を区間毎に区別した上で把握することができる。
請求項4に記載した発明によれば、重複判定手段は、複数の接近点のうち隣り合う接近点同士が同一グループとされる一方で隣り合わない接近点同士が同一グループとされないようにグループ化手段によりグループ化されて複数のグループが生成されると、複数のグループに跨って重複する接近点が存在するか否かを判定する。そして、表示制御手段は、複数のグループに跨って重複する接近点が存在すると重複判定手段により判定されると、重複する接近点が含まれる領域と重複する接近点が含まれない領域とを区分して動作軌跡表示画面に表示させる。
これにより、例えばロボットの特定箇所の動作軌跡がループする等して重複する(一度通過した地点を再度通過して交差する)ような場合であっても、作業者はロボットの特定箇所の動作軌跡が物体表面まで一定距離以下に接近する箇所が重複しているか否かを把握することができる。
請求項5に記載した発明によれば、跨り判定手段は、接近点特定手段により特定された隣り合う接近点同士が同一の物体表面図形にて一の表面上と他の表面上とに跨って存在するか否かを判定する。そして、表示制御手段は、隣り合う接近点同士が同一の物体表面図形にて一の表面上と他の表面上とに跨って存在すると跨り判定手段により判定されると、隣り合う接近点同士が含まれる領域を一の表面上と他の表面上とに跨って動作軌跡表示画面に表示させる。
これにより、ロボットの特定箇所の動作軌跡が複数の表面上に跨って接近するような場合であっても、作業者はロボットの特定箇所の動作軌跡が物体表面まで一定距離以下に接近する箇所を複数の表面上に跨って把握することができる。
請求項6に記載した発明によれば、表示手段は、ロボットの特定箇所の動作軌跡と物体表面図形とを同一画面上に含む動作軌跡表示画面と、ロボットの特定箇所の動作軌跡を動画再生する動画再生表示画面とを同時に表示可能に構成され、再生区間設定手段は、接近点特定手段により特定された接近点が含まれる領域である接近領域のうち動作軌跡表示画面の最も中央側で且つ光軸の最も手前側に表示されている接近領域に対応するロボットの特定箇所の動作軌跡を再生区間として設定する。動画拡縮率設定手段は、動画再生表示画面に表示されている動画の拡縮率を設定し、再生速度設定手段は、動画拡縮率設定手段により設定された拡縮率に反比例するように動画の再生速度を設定する。そして、表示制御手段は、再生区間設定手段により再生区間として設定されたロボットの特定箇所の動作軌跡の動画を、動画拡縮率設定手段により設定された拡縮率に反比例するように再生速度設定手段により設定された再生速度で動画再生表示画面に表示させる。
これにより、動作軌跡表示画面の最も中央側で且つ光軸の最も手前側に表示されている接近領域に対応するロボットの特定箇所の動作軌跡を動画により表示することで、作業者はロボットの特定箇所の動作軌跡が動作軌跡表示画面の最も中央側で且つ光軸の最も手前側の接近領域にどのように接近するかを一連の動作により把握することができる。すなわち、動作軌跡表示画面に複数の接近領域が表示されている状況では、作業者は動画を表示させたい接近領域を動作軌跡表示画面の中央側で且つ光軸の手前側(物体の表面側)に表示させるように視点を変更するのが一般的である(わざわざ動作軌跡表示画面の端側や光軸の奥側(物体の裏面側)に表示させるように視点を変更することはない)ことを鑑みると、作業者は所望とする接近領域にどのように接近するかを容易に把握することができる。又、この場合、作業者がロボットの特定箇所の動作軌跡がどのように接近するかを確実に把握するために動画を拡大することを想定すると、その動画を拡大したことと反比例して動画の再生速度を遅くすることで、ロボットの特定箇所の動作軌跡が接近する箇所を精密に視認したいという作業者の意思に沿った再生速度で動画を表示することができ、作業者は精密に視認したい箇所を意思通りに精密に視認することができる。
請求項7に記載した発明によれば、表示制御手段は、再生区間設定手段により再生区間として設定されたロボットの特定箇所の動作軌跡の動画を、動作軌跡表示画面の光軸と同一の光軸を有する視点、接近領域と直交する光軸を有する視点、接近領域と平行で且つ動作軌跡と当該接近領域との中間に位置する光軸を有する視点の順序にしたがって動画再生表示画面に表示させる。
これにより、作業者は最初にロボットの特定箇所の動作を大まかに把握することができ、続いてロボットの特定箇所がどのように接近するかを接近領域からの視点で把握することができ、続いてロボットの特定箇所と接近領域との距離感を把握することができ、このように視点を順次切替えても違和感を生じることなく、ロボットの特定箇所がどのように接近するかを容易に把握することができる。
本発明の第1の実施形態を示す全体構成図 機能ブロック図 XY平面からの方向に視点変更した図 ZX平面からの方向に視点変更した図 YZ平面からの方向に視点変更した図 図3相当図 図4相当図 図5相当図 フローチャート 図9相当図 図9相当図 図9相当図 接近点のグループを特定する態様を示す図 ロボットの手先の動作軌跡及び接近判定領域を示す図 接近領域が表示される態様を示す図 接近領域及び矢印が表示される態様を示す斜視図 図16相当図 図16相当図 サンプリング時間と角度との関係を示す図 ロボットの手先の動作軌跡と物体との関係を示す図 図20相当図 図20相当図 接近領域及び矢印が表示される態様を示す平面図 図3相当図 図4相当図 図5相当図 本発明の第2の実施形態を示す機能ブロック図 全体ビューウィンドウ及び動画ビューウィンドウが表示される態様を示す図 図9相当図 動画が表示される態様を示す図 図30相当図 図30相当図 図30相当図
(第1の実施形態)
以下、本発明の第1の実施形態について図1乃至図26を参照して説明する。尚、本実施形態では特定箇所の動作軌跡を表示する対象を例えば6軸の垂直多関節型ロボットとして説明するが、別型のロボットであっても良い。ロボットの動作軌跡表示装置としてのシミュレータは、図1に示すように、パーソナルコンピュータ(以下、パソコンと称する)1を主体として構成されている。パソコン1は、パソコン本体2に、出力装置としての例えば3次元のグラフィック表示が可能な液晶ディスプレイ装置からなる表示装置3(本発明でいう表示手段)が接続されていると共に、入力装置としての例えばキーボード4及びマウス5が接続されて構成されている。
パソコン本体2は、図2に示すように、CPU6(本発明でいう表示制御手段、ベクトル生成手段、接近判定手段、接近点特定手段、接近サンプリング点特定手段、最接近点特定手段、最接近サンプリング点特定手段、グループ化手段、重複判定手段、跨り判定手段)、ROM7、RAM8、大容量記憶装置としてのハードディスク(HDD:Hard Disk Drive)9(本発明でいう動作軌跡データ記憶手段、物体表面図形データ記憶手段)及びインタフェース(I/F)10等を備えて構成され、インタフェース10に上記した表示装置3、キーボード4及びマウス5が接続されている。尚、入力装置としてキーボード4やマウス5に代えてタッチパネルやタッチペンが採用されても良い。
ハードディスク9には各種データを記憶するデータ記憶領域9aと各種プログラムを記憶するプログラム記憶領域9bとが設けられている。データ記憶領域9aには、動作軌跡の表示対象であるロボットの位置及び形状を特定するロボット図形データ10aと、ロボットの手先(本発明でいう特定箇所)の動作軌跡を特定する動作軌跡データ10bと、物体表面の位置及び形状を特定する物体表面図形データ10cとが記憶されている。ここでいう物体とはロボットの動作領域の周囲に固定的に設置されている設備機器やロボットの動作により移動されるワーク等である。
プログラム記憶領域9bには、ロボットの位置及び形状を特定するロボット図形を表示(描画)するためのロボット図形表示プログラム11aと、ロボットの手先の動作軌跡を表示するための動作軌跡表示プログラム11bと、物体表面の位置及び形状を特定する物体表面図形を表示するための物体表面図形表示プログラム11cとが記憶されており、更に本発明の特徴であるロボットの手先の動作軌跡が物体表面まで一定距離以下に接近するか否かを判定するための接近判定プログラム11dが記憶されている。尚、プログラム記憶領域9bには、上記したプログラムの他に、ティーチングを行うためのティーチングプログラムや、ロボットを設計するための3次元CADプログラム等が記憶されていても良い。
CPU6は、作業者がキーボード4やマウス5にて表示指令操作を行ったと判定すると、データ記憶領域9aからロボット図形データ10aを読出し、プログラム記憶領域9bに記憶されているロボット図形表示プログラム11aを実行することでロボットの位置及び形状を特定するロボット図形を含む表示画面を表示させ、データ記憶領域9aから動作軌跡データ10bを読出し、プログラム記憶領域9bに記憶されている動作軌跡表示プログラム11bを実行することでロボットの手先の動作軌跡を含む表示画面を表示させ、データ記憶領域9aから物体表面図形データ10cを読出し、プログラム記憶領域9bに記憶されている物体表面図形表示プログラム11cを実行することで物体表面の位置及び形状を特定する物体表面図形を含む表示画面を表示させる。
CPU6は、初期状態(作業者がキーボード4やマウス5にて表示指令操作を行った直後の状態)では上記したロボット図形と物体表面図形とを適当な視点から見た3次元画像として斜視図的に表示させる。ここで、CPU6は、作業者がキーボード4やマウス5にてXY平面で表示するように視点を変更する視点変更操作を行ったと判定すると、図3に示すようにロボット図形21と物体表面図形22、23とをXY平面からの方向に視点変更して表示させ、作業者がキーボード4やマウス5にて例えばZX平面で表示するように視点を変更する視点変更操作を行ったと判定すると、図4に示すようにロボット図形21と物体表面図形22、23とをZX平面からの方向に視点変更して表示させ、作業者がキーボード4やマウス5にて例えばYZ平面で表示するように視点を変更する視点変更操作を行ったと判定すると、図5に示すようにロボット図形21と物体表面図形22、23とをYZ平面からの方向に視点変更して表示させる。
尚、上記した図3乃至図5はロボットが動作開始時の姿勢であり、ロボットの手先の動作軌跡が表示されていない状態を示しているが、CPU6は、ロボットが動作中の姿勢であれば動作開始時からの動作軌跡が存在することになるので、図6乃至図8に示すようにロボット図形21と物体表面図形22、23とに加えてロボットの手先の動作軌跡24をも表示させる。尚、ロボットの手先の動作軌跡24の表示態様(線の太さ、色、種別等)は作業者が任意に設定可能(選択可能)となっている。尚、物体表面図形22、23とロボットの手先の動作軌跡24とが同一画面上で表示される画面が動作軌跡表示画面である。
次に、上記した構成の作用として、CPU6が上記した接近判定プログラムを実行することで本発明の特徴である接近判定処理を行う場合について、図9乃至図26を参照して説明する。図9乃至図12はCPU6が行う接近判定処理をフローチャートにより示している。
CPU6は、例えば作業者がキーボード4やマウス5にて接近判定指令操作を行ったと判定すると、接近判定プログラム11dを実行して接近判定処理を開始する。尚、本実施形態のように作業者が接近判定指令操作を行ったことを契機として接近判定プログラム11dを実行しても良いし、上記したように動作軌跡表示プログラムを実行する同時に接近判定プログラム11dを自動的に実行しても良く、即ち、ロボットの手先の動作軌跡を表示させると同時に接近判定処理を必然的に実行しても良い。
CPU6は、接近判定処理を開始すると、最初に物体表面上にロボットの手先の動作軌跡からの距離が一定距離以下である接近点が存在するか否かを判定する接近点存在判定処理を実行する(ステップS1)。ここで、CPU6は、接近点存在判定処理を実行したことで物体表面上に接近点が存在すると判定すると(ステップS2にて「YES」)、物体表面図形に当該接近点が含まれる接近領域を表示させる接近領域表示処理を実行し(ステップS3)、更にロボットの手先の動作軌跡からの距離が最短である最接近点まで矢印(本発明でいう指標)を接近領域上に重畳表示させる矢印表示処理を実行し(ステップS4)、接近判定処理を終了する。一方、CPU6は、接近点存在判定処理を実行したが、物体表面上に接近点が存在しないと判定すると(ステップS2にて「NO」)、接近領域表示処理及び矢印表示処理を実行することなく接近判定処理を終了する。以下、これら接近点存在判定処理、接近領域表示処理及び矢印表示処理について順次説明する。
(1)接近点存在判定処理
CPU6は、接近判定処理から移行して接近点存在判定処理を開始すると、ロボットの動作開始から動作終了までに追従したロボットの手先の動作軌跡の始点から終点までを接近判定対象区間として設定し、一定時間間隔(サンプリング間隔)であるサンプリング点毎に物体表面までの距離が一定距離以下である接近点が存在するか否かを判定する処理を開始する(ステップS11)。尚、サンプリング間隔は作業者が任意に設定可能(選択可能)となっている。
CPU6は、最初にロボットの動作開始位置(始点)側のサンプリング点を判定対象として設定し(ステップS12)、その判定対象として設定したサンプリング点の位置を特定する動作軌跡データをデータ記憶領域9aから読出して取得すると共に、その時点での物体表面の位置及び形状を特定する物体表面図形データをデータ記憶領域9aから読出して取得する(ステップS13)。この場合、CPU6は、ロボットの周囲に複数の物体が存在する場合であれば、それら複数の物体の全てについて物体表面図形データをデータ記憶領域9aから読出して取得する。
次いで、CPU6は、判定対象として設定したサンプリング点にロボットの手先の動作軌跡と直交する面方向に角度を設定し、角度毎に接近点が存在するか否かを判定する処理を開始する(ステップS14)。CPU6は、ロボットの手先の動作軌跡と直交する面方向のうち何れかの角度を判定対象として設定し(ステップS15)、その判定対象として設定した角度の方向に一定距離に延びるベクトルを生成し、その生成したベクトルと物体表面図形データとを照合する(ステップS16)。ベクトルの一定距離も作業者が任意に設定可能(選択可能)となっている。即ち、作業者は、ロボットの手先の動作軌跡から近い位置で接近判定を実施したい場合であれば、ベクトルの一定距離として短い距離を設定すれば良く、一方、ロボットの手先の動作軌跡から遠い位置で接近判定を実施したい場合であれば、ベクトルの一定距離として長い距離を設定すれば良い。次いで、CPU6は、ベクトルと物体表面とが交差するか否かを判定し、物体表面上にロボットの特定箇所の動作軌跡からの距離が一定距離以下である点(領域)が存在するか否かを判定する(ステップS17)。
ここで、CPU6は、ベクトルと物体表面とが交差すると判定し、物体表面上にロボットの特定箇所の動作軌跡からの距離が一定距離以下である点が存在すると判定すると(ステップS17にて「YES」)、物体表面上にロボットの特定箇所の動作軌跡からの距離が一定距離以下である点を接近点として特定し、その時点で判定対象として設定しているサンプリング点を接近サンプリング点として特定する(ステップS18)。次いで、CPU6は、その接近点が存在する物体を特定可能な物体情報、その時点で判定対象として設定しているサンプリング点、その時点で判定対象として設定している角度、その時点で判定対象として設定しているサンプリング点から接近点までの距離を含むデータを接近点データとして保存し、その時点でのサンプリング点を接近サンプリング点として特定する(ステップS19)。
次いで、CPU6は、判定対象とする角度を予め設定されている設定角度分だけ進め(ステップS20)、次の角度を新たな判定対象として設定し、上記したステップS16〜S19までの処理を繰返して実行する。設定角度も作業者が任意に設定可能(選択可能)となっている。即ち、作業者は、1つのサンプリング点で細かく(密に)接近判定を実施したい場合であれば、設定角度を狭く設定すれば良く、一方、例えば処理負荷に考慮した上で1つのサンプリング点で粗く(疎に)接近判定を実施したい場合であれば、設定角度を広く設定すれば良い。
次いで、CPU6は、判定対象として設定したサンプリング点について全ての角度を対象として接近点が存在するか否かを判定する処理を終了したと判定すると(ステップS21)、判定対象とするサンプリング点を進め(ステップS22)、次のサンプリング点を新たな判定対象として設定し、上記したステップS13〜S21までの処理を繰返して実行する。
そして、CPU6は、全てのサンプリング点を判定対象として接近点が存在するか否かを判定する処理を終了したと判定すると(ステップS23)、接近点存在判定処理を終了して接近判定処理に戻る。即ち、CPU6は、接近点存在判定処理を実行することにより、ロボットの手先の動作軌跡の始点から終点までの全てのサンプリング点のうち接近点が存在すると判定した接近サンプリング毎に何れの角度が接近しているかを示す接近点データを保存する。
(2)接近領域表示処理
CPU6は、接近点存在判定処理を実行したことで物体表面上に接近点が存在すると判定し、接近判定処理から移行して接近領域表示処理を開始すると、接近点存在判定処理にて保存した接近点データに基づいて物体表面図形に接近領域を表示させる処理を開始する(ステップS31)。CPU6は、最初に接近点存在判定処理にて特定した接近サンプリング点のうちロボットの動作開始位置(始点)側の接近サンプリング点を判定対象として設定し(ステップS32)、その判定対象として設定した接近サンプリング点にて保存されている接近点データを取得する(ステップS33)。
次いで、CPU6は、今回(図13では「n」にて示す)の判定対象とした接近サンプリング点で形成された全ての接近点のうち1つ前(図13では「n−1」にて示す)の判定対象とした接近サンプリング点で形成された何れかの接近点と隣り合う接近点が存在するか否かを判定する(ステップS34)。
ここで、CPU6は、今回の判定対象とした接近サンプリング点で形成された全ての接近点のうち1つ前の判定対象とした接近サンプリング点で形成された何れかの接近点と隣り合う接近点が存在すると判定すると(ステップS34にて「YES」)、その該当する接近点(今回の判定対象とした接近サンプリング点で形成された全ての接近点のうち1つ前の判定対象とした接近サンプリング点で形成された何れかの接近点と隣り合う接近点)と連続する接近点が存在するか否かを判定する(ステップS35)。
CPU6は、その該当する接近点と連続する接近点が存在すると判定すると(ステップS35にて「YES」)、連続する接近点も含めて該当する接近点を1つ前の判定対象とした接近サンプリング点で形成された接近点と同一グループ(同一領域)として特定する(ステップS36)(図13では接近点a、b、c、dが対応する)。そして、CPU6は、物体表面図形に、連続する接近点も含めて該当する接近点が含まれる領域の色を1つ前の判定対象とした接近サンプリング点で形成された接近点が含まれる領域の色と同じとした上で、それら接近点が含まれない領域の色と異ならせることで、それらを区分して表示させる。
又、CPU6は、その該当する接近点と連続する接近点が存在しないと判定すると(ステップS35にて「NO」)、該当する接近点のみを1つ前の判定対象とした接近サンプリング点で形成された接近点と同一グループ(同一領域)として特定する(ステップS37)(図13では接近点eが対応する)。そして、CPU6は、この場合も、物体表面図形に、該当する接近点が含まれる領域の色を1つ前の判定対象とした接近サンプリング点で形成された接近点が含まれる領域の色と同じとした上で、それら接近点が含まれない領域の色と異ならせることで、それらを区分して表示させる。
一方、CPU6は、今回の判定対象とした接近サンプリング点で形成された全ての接近点のうち1つ前の判定対象とした接近サンプリング点で形成された何れかの接近点と隣り合う接近点が存在しないと判定すると(ステップS34にて「NO」)、今回の判定対象とした接近サンプリング点で形成された全ての接近点のうち隣り合う接近点が存在するか否かを判定する(ステップS38)。CPU6は、今回の判定対象とした接近サンプリング点で形成された全ての接近点のうち隣り合う接近点が存在すると判定すると(ステップS38にて「YES」)、それら隣り合う接近点を同一グループ(同一領域)として特定する(ステップS39)(図13では接近点f、g、hが対応する)。そして、CPU6は、物体表面図形に、隣り合う接近点が含まれる領域の色を、それら接近点が含まれない領域の色と異ならせることで、それらを区分して表示させる。
又、CPU6は、今回の判定対象とした接近サンプリング点で形成された全ての接近点のうち隣り合う接近点が存在しないと判定すると(ステップS38にて「NO」)、今回の判定対象とした接近サンプリング点で形成された全ての接近点のうち隣り合わない接近点を別々のグループとして特定する(ステップS40)(図13では接近点iが対応する)。そして、CPU6は、物体表面図形に、隣り合わない接近点が含まれる領域の色を、それら接近点が含まれない領域の色と異ならせることで、それらを区分して表示させる。
CPU6は、上記した手順にしたがって接近点が属するグループを特定すると、グループを特定した接近点を判定対象から除外し(ステップS41)、今回の判定対象とした接近サンプリング点で形成された全ての接近点についてグループを特定したか否かを判定する(ステップS42)。CPU6は、今回の判定対象とした接近サンプリング点で形成された全ての接近点についてグループを特定していない、即ち、グループを特定していない接近点が存在すると判定すると(ステップS42にて「NO」)、上記したステップS34に戻り、上記したステップS34〜S41までの処理を繰返して実行する。
一方、CPU6は、今回の判定対象とした接近サンプリング点で形成された全ての接近点についてグループを特定したと判定すると(ステップS42にて「YES」)、判定対象とする接近サンプリング点を進め(ステップS43)、次の接近サンプリング点を新たな判定対象として設定し、上記したステップS33〜S42までの処理を繰返して実行する。そして、CPU6は、全ての接近サンプリング点を判定対象として接近点存在判定処理にて保存した接近点データに基づいて接近領域を表示させる処理を終了したと判定すると(ステップS44)、接近領域表示処理を終了して接近判定処理に戻る。
(3)矢印表示処理
CPU6は、接近判定処理から移行して矢印表示処理を開始すると、物体表面図形に矢印を表示させる処理を開始する(ステップS51)。CPU6は、接近領域表示処理にて特定した何れかのグループを判定対象として設定し(ステップS52)、判定対象として設定したグループに存在する接近点のうちサンプリング点からの距離が最短である接近点を最接近点として特定し、その特定した最接近点に対応するサンプリング点を最接近サンプリングとして特定する(ステップS53)。次いで、CPU6は、物体表面図形に最接近サンプリングから最接近点まで矢印を表示させる。次いで、CPU6は、今回の判定対象としたグループで形成された接近領域が他のグループで形成された接近領域と重複するか否かを判定する(ステップS54)。
ここで、CPU6は、今回の判定対象としたグループで形成された接近領域が他のグループで形成された接近領域と重複すると判定すると(ステップS54にて「YES」)、接近領域が重複する領域の色を変更する(ステップS55)。次いで、CPU6は、判定対象とするグループを進め(ステップS56)、次のグループを新たな判定対象として設定し、上記したステップS53〜S55までの処理を繰返して実行する。そして、CPU6は、全てのグループを判定対象として矢印を表示させる処理を終了したと判定すると(ステップS57)、矢印表示処理を終了して接近判定処理に戻る。
図14乃至図23はCPU6が上記した接近点判定処理を実行することで物体表面図形に接近領域及び矢印を表示させる形態を概略的に示している。CPU6は、図14に示すように、ロボットの手先の動作軌跡において例えばサンプリング点1〜4毎に当該動作軌跡と直交する面方向に一定距離に延びるベクトルを周方向に一定角度で段階的に進めて放射状に複数生成することで接近判定領域を形成する。
ここで、CPU6は、図15に示すように、例えばサンプリング点1及びサンプリング点2では接近点が存在しないと判定したが、サンプリング点3及びサンプリング点4では接近点が存在し、それら接近サンプリング点4により形成された接近点と1つ前である接近サンプリング点3により形成された接近点とが隣り合うと判定すると、接近サンプリング点4により形成された接近点と1つ前である接近サンプリング点3により形成された接近点とを同一グループ(同一領域)として特定し、それらサンプリング点4により形成された接近点とサンプリング点3により形成された接近点とが含まれる領域の色を、それら接近点が含まれない領域の色と異ならせて表示させる。例えば接近点が含まれる領域を赤色で表示させ、接近点が含まれない領域を緑色(元々の物体表面図形の色)で表示させる。即ち、作業者は、緑色で表示されている領域はロボットの手先の動作軌跡から一定距離を越えて離れている領域であり、赤色で表示されている領域はロボットの手先の動作軌跡から一定距離以下に接近している領域であると把握することが可能である。
又、CPU6は、図16に示すように、例えばサンプリング点3及びサンプリング点4のうちサンプリング点4を最接近サンプリング点として特定すると、それらサンプリング点4により形成された接近点とサンプリング点3により形成された接近点とが含まれる領域の色を、それら接近点が含まれない領域の色と異ならせて表示させると共に、最接近サンプリング点として特定したサンプリング点4から最接近点まで矢印を表示させる。尚、矢印の表示態様(線の太さ、色、種別等)も作業者が任意に設定可能(選択可能)となっている。この場合、矢印の色として進出色や膨張色を設定することで接近領域から際立つ色を設定することが望ましい。又、矢印も線であることから、ロボットの手先の動作軌跡との混同を避けるために、ロボットの手先の動作軌跡で設定した色とは異なる色を設定することが望ましい。
又、CPU6は、図17に示すように、例えばサンプリング点3及びサンプリング点4の双方を最接近サンプリング点として特定すると、それらサンプリング点4により形成された接近点とサンプリング点3により形成された接近点とが含まれる領域の色を、それら接近点が含まれない領域の色と異ならせて表示させると共に、最接近サンプリング点として特定したサンプリング点3及びサンプリング点4のうちサンプリング時間が早い(始点に近い)方のサンプリング点3から最接近点まで矢印を表示させる。更に、CPU6は、図18に示すように、例えば1つのサンプリング点3で2つの最接近点が形成されたと判定すると、サンプリング点3から2つの最接近点の中間に位置する接近点まで矢印を表示させる。
図19はCPU6が接近点の存在を判定する場合のサンプリング時間と角度との関係を示しており、サンプリング時間を横軸として進め、角度を縦軸として進めることで、接近点の存在を判定する。尚、図19ではサンプリング間隔を一定として示しているが、動作軌跡が直線となる箇所では動作速度が速くなるのでサンプリング間隔は長くなり、動作軌跡が曲線となる箇所では動作速度が遅くなるのでサンプリング間隔は短くなる。
図20はロボットの手先の動作軌跡が物体表面まで一定距離以下に近づく区間と物体から遠ざかる区間とを交互に繰り返す波形状である場合を示しており、この場合、CPU6は、接近点が含まれる領域が隣り合わないと判定し、複数のグループとしてグループ1とグループ2とを特定し、グループ1に属する接近点が含まれる領域とグループ2に属する接近点が含まれる領域とを区分した上で、それら接近点が含まれない領域と区分して表示させる。尚、グループ1に属する接近点が含まれる領域の色とグループ2に属する接近点が含まれる領域の色とを同じとしても良いし異ならせても良い。
図21はロボットの手先の動作軌跡がループする場合を示しており、この場合、CPU6は、グループ1とグループ2とが重複する領域を特定し、グループ1に属する接近点が含まれる領域とグループ2に属する接近点が含まれる領域とを区分した上で、それら接近点が含まれない領域と区分して表示させるだけでなく、グループ1だけに属する接近点が含まれる領域、グループ2だけに属する接近点が含まれる領域、グループ1及びグループ2の双方に属する接近点が含まれる領域とを区分して表示させる。
図22は、ロボットの手先の動作軌跡が複数の表面上に跨って物体表面まで一定距離以下に近づく場合を示しており、この場合、CPU6は、グループを複数の表面のうち表面1上と表面2上とに跨って特定し、その表面1上と表面2上とに跨ったグループに属する接近点が含まれる領域を、それら接近点が含まれない領域と区分して表示させる。
CPU6は、以上に説明した処理を行うことで、図23に示すように、物体表面図形にロボットの手先の動作軌跡から一定距離以下に接近する領域を接近領域として表示させると共に、ロボットの手先の動作軌跡から最接近する距離及び方向を示す矢印を表示させる。即ち、本実施形態によれば、CPU6は、図24乃至図26に示すように、物体表面図形22については接近領域31を表示させると共に矢印32を表示させ、物体表面図形23については接近領域33を表示させると共に矢印34を表示させる。これにより、上記した図6乃至図8に示した従来とは異なり、ロボットの手先の動作軌跡から一定距離以下に接近する領域を作業者に提示することが可能となり、ロボットの手先の動作軌跡から最接近する距離及び方向を作業者に提示することが可能となる。
以上に説明したように第1の実施形態によれば、ロボットの手先の動作軌跡24については、従来から何ら変更することなく従来通りの表示態様で表示するように構成したので、作業者はロボットの手先の動作軌跡24を従来と同様の感覚で把握することができ、又、物体表面図形22、23については、ロボットの手先の動作軌跡24から一定距離以下である接近点が存在すると、接近点が含まれる領域を接近領域31、33とし、それら接近領域31、33を接近点が含まれない領域と区分して表示するように構成したので、作業者はロボットの手先の動作軌跡24が物体表面に接近する箇所を把握することができる。
即ち、3次元的に形成された動作軌跡を2次元平面で表示させざるを得ない、ロボットの動作開始から動作終了までの一連の動作に追従して始点から終点までの動作軌跡の全てをロボットの動作領域である狭くて限られた空間内に表示させざるを得ない、という課題を解決した上で、作業者はロボットの手先の動作軌跡24が物体表面に接近する箇所を把握することができる。
この場合、物体表面図形22、23を面として表示するのに対し、ロボットの手先の動作軌跡24を線として表示し、即ち、物体表面図形22、23をロボットの手先の動作軌跡24よりも十分に大きな領域で表示するので、作業者はロボットの手先の動作軌跡24が物体表面まで一定距離以下に接近する領域を線ではなく面として把握することができ、ロボットの手先の動作軌跡24が物体表面まで一定距離以下に接近する箇所をより確実に把握することができる。
又、ロボットの手先の動作軌跡24から最接近点までの距離及び方向を特定する矢印32、34を表示するように構成したので、作業者はロボットの手先の動作軌跡24が物体表面まで最接近している距離及び方向をも把握することができる。即ち、ロボットの手先の動作軌跡24から最接近点までの距離及び方向を特定する矢印32、34は接近領域毎に1箇所だけで表示することになるので、視点変更することでロボットの手先の動作軌跡24と矢印とが重ならない視点方向(角度)を得ることができ、作業者はロボットの手先の動作軌跡24が物体表面まで最接近している箇所を直感的に把握することができる。
(第2の実施形態)
次に、本発明の第2の実施形態について、図27乃至図33を参照して説明する。尚、第1の実施形態と同一部分については説明を省略して異なる部分について説明する。第2の実施形態はロボットの手先の動作軌跡を動画により表示することを特徴とする。
ロボットの動作軌跡表示装置としてのシミュレータであるパソコンのパソコン本体41は、図27に示すように、CPU42(本発明でいう表示制御手段、ベクトル生成手段、接近判定手段、接近点特定手段、接近サンプリング点特定手段、最接近点特定手段、最接近サンプリング点特定手段、グループ化手段、重複判定手段、跨り判定手段、再生区間設定手段、動画拡縮率設定手段、再生速度設定手段)、ROM7、RAM8、大容量記憶装置としてのハードディスク43(本発明でいう動作軌跡データ記憶手段、物体表面図形データ記憶手段)及びインタフェース(I/F)10等を備えて構成され、インタフェース10に上記した表示装置3、キーボード4及びマウス5が接続されている。
ハードディスク43には各種データを記憶するデータ記憶領域43aと各種プログラムを記憶するプログラム記憶領域43bとが設けられ、プログラム記憶領域43bには、第1の実施形態で説明したロボット図形表示プログラム11aと動作軌跡表示プログラム11bと物体表面図形表示プログラム11cと接近判定プログラム11dとが記憶されていることに加えて、ロボットの手先の動作軌跡を動画により表示するための動画再生表示プログラム44が記憶されている。
CPU42は、図28に示すように、全体ビューウィンドウ45(本発明でいう動作軌跡表示画面)と動画ビューウィンドウ46(本発明でいう動画再生表示画面)とを並べて表示装置3に表示可能である。全体ビューウィンドウ45はロボットの手先の動作軌跡47と物体表面図形48、49とを静止画により表示するウィンドウであり、動画ビューウィンドウ46はロボット図形50を表示すると共にロボットの手先の動作軌跡47を動画により表示するウィンドウである。作業者はキーボード4やマウス5を操作することで全体ビューウィンドウ45の視点を変更することが可能である。尚、CPU42は、第1の実施形態で説明した接近判定プログラムを実行したことで、物体表面図形48に接近領域51を表示させ、物体表面図形49に接近領域52を表示させている。
次に、CPU42が上記した動画再生表示プログラム44を実行することで本発明の特徴である動画再生表示処理を行う場合について、図29乃至図33を参照して説明する。図29はCPU42が行う動画再生表示処理をフローチャートにより示している。この場合、作業者は、動画を表示させたい接近領域を動作軌跡表示画面45の中央側で且つ光軸の手前側(物体の表面側)に表示させるように視点を変更する視点変更操作をキーボード4やマウス5にて行い、続いて動画を表示させる動画表示指令操作をキーボード4やマウス5にて行う。図28では作業者が動画を表示させたい接近領域は物体表面図形49に表示されている接近領域52である。
CPU42は、作業者がキーボード4やマウス5にて動画表示指令操作を行ったと判定すると、動画再生表示プログラム44を実行して動画再生表示処理を開始する。尚、本実施形態のように作業者が動画表示指令操作を行ったことを契機として動画再生表示プログラム44を実行しても良いし、上記した接近判定プログラム11dを実行した後に自動的に動画再生表示プログラム44を実行しても良い。
CPU42は、動画再生表示処理を開始すると、全体ビューウィンドウ45で表示されている接近領域のうち最も中央側で且つ光軸の最も手前側に表示されている接近領域を特定し(ステップS61)、その特定した接近領域に対応するロボットの手先の動作軌跡47を再生区間として設定する(ステップS62)。図28に示す場合であれば、CPU42は、物体表面図形48に表示されている接近領域51を特定し、その特定した接近領域51に対応するロボットの手先の動作軌跡47を再生区間として設定する。
次いで、CPU42は、図30に示すように、ロボットの手先の動作軌跡47の動画を全体ビューウィンドウ45の光軸(現在の光軸)と同一の光軸を有する視点で動画再生して動画ビューウィンドウ46に表示させる(ステップS63)。図30(a)〜(c)はロボットの手先の動作軌跡47が時間経過にしたがって接近領域51に接近して離間していく態様を、全体ビューウィンドウ45の光軸と同一の光軸を有する視点で表している。尚、図30に示すロボットの手先の動作軌跡47の動画を動画ビューウィンドウ46に表示させるタイミングでの全体ビューウィンドウ45の光軸は、図28に示した全体ビューウィンドウ45の光軸から変更されている。
次いで、CPU42は、全体ビューウィンドウ45の光軸と同一の光軸を有する視点での動画再生を終了すると、続いて、図31に示すように、ロボットの手先の動作軌跡47の動画を接近領域51と直交する光軸を有する視点で動画再生することで動画ビューウィンドウ46に表示させる(ステップS64)。図31(a)〜(c)はロボットの手先の動作軌跡47が時間経過にしたがって接近領域51に接近して離間していく態様を、接近領域51と直交する光軸を有する視点で表している。
次いで、CPU42は、接近領域51と直交する光軸を有する視点での動画再生を終了すると、続いて、図32に示すように、ロボットの手先の動作軌跡47の動画を接近領域51と平行で且つ動作軌跡47と接近領域51との中間に位置する光軸を有する視点で動画再生することで動画ビューウィンドウ46に表示させる(ステップS65)。図32(a)〜(c)はロボットの手先の動作軌跡47が時間経過にしたがって接近領域51に接近して離間していく態様を、接近領域51と平行で且つ動作軌跡47と接近領域51との中間に位置する光軸を有する視点で表している。
そして、CPU42は、このようにロボットの手先の動作軌跡47の動画を再生している途中で作業者がキーボード4やマウス5にて再生停止指令操作を行ったか否かを判定し(ステップS66)、作業者がキーボード4やマウス5にて再生停止指令操作を行っていないと判定すると(ステップS66にて「NO」)、上記したステップS63に戻り、ステップS63以降の処理を繰返して実行する。即ち、CPU42は、作業者がキーボード4やマウス5にて再生停止指令操作を行わない間は、全体ビューウィンドウ45の光軸と同一の光軸を有する視点での動画再生、接近領域51と直交する光軸を有する視点での動画再生、接近領域51と平行で且つ動作軌跡47と接近領域51との中間に位置する光軸を有する視点での動画再生を繰返して実行する。一方、CPU42は、作業者がキーボード4やマウス5にて再生停止指令操作を行ったと判定すると(ステップS66にて「NO」)、動画再生を終了して動画再生表示処理を終了する。
又、CPU42は、作業者がキーボード4やマウス5にて拡縮率変更指令操作を行ったと判定すると、図33に示すように、動画ビューウィンドウ46に表示させているロボットの手先の動作軌跡47の動画を作業者が指定した拡縮率に変更する。即ち、CPU42は、ロボットの手先の動作軌跡47の動画を図33(a)に示すような基準倍率(表示倍率=100%)で表示させている状態から作業者がキーボード4やマウス5にて倍率を2倍(表示倍率=200%)に変更する拡縮率変更指令操作を行ったと判定すると、図33(b)に示すように、基準倍率である動画を4倍(縦横それぞれ2倍)に拡大して表示させる。この場合、CPU42は、再生速度を基準倍率のときの再生速度である基準再生速度の1/2倍に変更する。
又、CPU42は、ロボットの手先の動作軌跡47の動画を図33(a)に示すような基準倍率で表示させている状態から作業者がキーボード4やマウス5にて倍率を4倍(表示倍率=400%)に変更する拡縮率変更指令操作を行ったと判定すると、図33(c)に示すように、基準倍率である動画を16倍(縦横それぞれ4倍)に拡大して表示させる。この場合、CPU42は、再生速度を基準倍率のときの再生速度である基準再生速度の1/4倍に変更する。尚、CPU42は、動画を拡大して表示させたことに応じて動画ビューウィンドウ46から外れた部分を再生することなく、即ち、作業者が精密に確認したいという意思をもって拡大させた部分だけを再生することになる。
上記した再生速度と表示倍率との関係を演算式として表記すると、
再生速度=基準再生速度/(表示倍率/100)
となり、このように再生速度と表示倍率とが反比例する演算式によれば、拡縮率を変更する前でのロボットが画面に現れてから消えるまでの時間と、拡縮率を変更した後でのロボットが画面に現れてから消えるまでの時間とが略同じになるので、拡縮率を変更したとしても作業者が確認に要する時間が変わることがなく、作業性を高めることができる。
以上に説明したように第2の実施形態によれば全体ビューウィンドウ45の最も中央側で且つ光軸の最も手前側に表示されている接近領域51に対応するロボットの手先の動作軌跡47を動画により表示するように構成したので、作業者はロボットの手先の動作軌跡47が接近領域51にどのように接近するかを一連の動作により把握することができる。又、この場合、作業者がロボットの手先の動作軌跡47がどのように接近するかを確実に把握するために動画を拡大した場合であっても、その動画を拡大したことと反比例して動画の再生速度を遅くするように構成したので、ロボットの手先の動作軌跡47が接近する箇所を精密に視認したいという作業者の意思に沿った再生速度で動画を表示することができ、作業者は精密に視認したい箇所を意思通りに精密に視認することができる。
更に、ロボットの手先の動作軌跡47の動画を、全体ビューウィンドウ45の光軸と同一の光軸を有する視点、接近領域51と直交する光軸を有する視点、接近領域51と平行で且つ動作軌跡47と接近領域51との中間に位置する光軸を有する視点の順序にしたがって表示するように構成したので、作業者は最初にロボットの手先の動作を大まかに把握することができ、続いてロボットの手先がどのように接近するかを接近領域51からの視点で把握することができ、続いてロボットの手先と接近領域51との距離感を把握することができ、このように視点を順次切替えても違和感を生じることなく、ロボットの手先がどのように接近するかを容易に把握することができる。
(その他の実施形態)
本発明は、上記した実施形態にのみ限定されるものではなく、以下のように変形又は拡張することができる。
動作軌跡を表示する部位はロボットの手先に限らず関節等であっても良い。
最接近サンプリング点から最接近点まで矢印を表示させる処理は必要に応じて実行しても良い。
物体表面図形に接近点が含まれる領域と接近点が含まれない領域とを区分する方法として、両者の色を異ならせることに限らず、接近点が含まれる領域だけを例えば点滅表示させる等しても良く、別の方法を用いても良い。
接近判定処理プログラムをCD−ROM、DVD−ROM、DVD−RAM、USBメモリ等の記録媒体に記録させ、それらの記録媒体からパソコン1が接近判定処理プログラムを読出して実行するようにしても良い。
図面中、1はパソコン(ロボットの動作軌跡表示装置)、3は表示装置(表示手段)、
6はCPU(表示制御手段、ベクトル生成手段、接近判定手段、接近点特定手段、接近サンプリング点特定手段、最接近点特定手段、最接近サンプリング点特定手段、グループ化手段、重複判定手段、跨り判定手段)、9はハードディスク(動作軌跡データ記憶手段、物体表面図形データ記憶手段)、42はCPU(表示制御手段、ベクトル生成手段、接近判定手段、接近点特定手段、接近サンプリング点特定手段、最接近点特定手段、最接近サンプリング点特定手段、グループ化手段、重複判定手段、跨り判定手段、再生区間設定手段、動画拡縮率設定手段、再生速度設定手段)、43はハードディスク(動作軌跡データ記憶手段、物体表面図形データ記憶手段)、45は全体ビューウィンドウ(動作軌跡表示画面)、46は動画ビューウィンドウ(動画再生表示画面)である。

Claims (7)

  1. ロボットの特定箇所の動作軌跡を特定可能な動作軌跡データを記憶可能な動作軌跡データ記憶手段と、
    ロボットの動作を妨げ得る物体表面の位置及び形状を特定する物体表面図形を特定可能な物体表面図形データを記憶可能な物体表面図形データ記憶手段と、
    前記動作軌跡データ記憶手段に記憶されている動作軌跡データにより特定されるロボットの特定箇所の動作軌跡と、前記物体表面図形データ記憶手段に記憶されている物体表面図形データにより特定される物体表面図形とを同一画面上に含む動作軌跡表示画面を表示手段に表示させる表示制御手段と、
    ロボットの特定箇所の動作軌跡上において一定時間間隔で取得されるサンプリング点毎に、各サンプリング点を基点として当該サンプリング点から当該動作軌跡と直交する面方向に一定距離に延びるベクトルを周方向に一定角度で段階的に進めて放射状に複数生成するベクトル生成手段と、
    前記ベクトル生成手段により生成されたベクトルと、前記物体表面図形データ記憶手段に記憶されている物体表面図形データとを照合し、ベクトルと物体表面とが交差するか否かを判定し、ロボットの特定箇所の動作軌跡が物体表面まで一定距離以下に接近するか否かを判定する接近判定手段と、
    ロボットの特定箇所の動作軌跡が物体表面まで一定距離以下に接近すると前記接近判定手段により判定された場合に、ロボットの特定箇所の動作軌跡からの距離が一定距離以下である物体表面上の点を接近点として特定する接近点特定手段と、
    前記接近点特定手段により接近点が特定されたサンプリング点を接近サンプリング点として特定する接近サンプリング点特定手段と、を備え、
    前記表示制御手段は、物体表面図形にて前記接近点特定手段により特定された接近点が含まれる領域である接近領域と当該接近点が含まれない領域である非接近領域とを区分して前記動作軌跡表示画面に表示させることを特徴とするロボットの動作軌跡表示装置。
  2. 請求項1に記載したロボットの動作軌跡表示装置において、
    前記接近点特定手段により複数の接近点が特定された場合に、複数の接近点のうち接近サンプリング点からの距離が最短である接近点を最接近点として特定する最接近点特定手段と、
    前記最接近点特定手段により最接近点が特定された接近サンプリング点を最接近サンプリング点として特定する最接近サンプリング点特定手段と、を備え、
    前記表示制御手段は、物体表面図形にて前記最接近サンプリング点特定手段により特定された最接近サンプリング点から前記最接近点特定手段により特定された最接近点までの距離及び方向を特定する指標を前記動作軌跡表示画面に表示させることを特徴とするロボットの動作軌跡表示装置。
  3. 請求項1又は2に記載したロボットの動作軌跡表示装置において、
    前記接近点特定手段により複数の接近点が特定された場合に、複数の接近点のうち隣り合う接近点同士を同一グループとする一方で隣り合わない接近点同士を別グループとするようにグループ化するグループ化手段を備え、
    前記表示制御手段は、複数の接近点のうち隣り合う接近点同士が同一グループとされる一方で隣り合わない接近点同士が別グループとされるように前記グループ化手段によりグループ化されて複数のグループが生成された場合に、物体表面図形にて前記複数のグループのうち一のグループに属する接近点が含まれる領域である一の接近領域と他のグループに属する接近点が含まれる領域である他の接近領域とを区分して前記動作軌跡表示画面に表示させることを特徴とするロボットの動作軌跡表示装置。
  4. 請求項3に記載したロボットの動作軌跡表示装置において、
    複数の接近点のうち隣り合う接近点同士が同一グループとされる一方で隣り合わない接近点同士が別グループとされるように前記グループ化手段によりグループ化されて複数のグループが生成された場合に、複数のグループに跨って重複する接近点が存在するか否かを判定する重複判定手段を備え、
    前記表示制御手段は、複数のグループに跨って重複する接近点が存在すると前記重複判定手段により判定された場合に、重複する接近点が含まれる領域と重複する接近点が含まれない領域とを区分して前記動作軌跡表示画面に表示させることを特徴とするロボットの動作軌跡表示装置。
  5. 請求項1乃至4の何れかに記載したロボットの動作軌跡表示装置において、
    前記接近点特定手段により特定された隣り合う接近点同士が同一の物体表面図形にて一の表面上と他の表面上とに跨って存在するか否かを判定する跨り判定手段を備え、
    前記表示制御手段は、隣り合う接近点同士が同一の物体表面図形にて一の表面上と他の表面上とに跨って存在すると前記跨り判定手段により判定された場合に、隣り合う接近点同士が含まれる領域を一の表面上と他の表面上とに跨って前記動作軌跡表示画面に表示させることを特徴とするロボットの動作軌跡表示装置。
  6. 請求項1乃至5の何れかに記載したロボットの動作軌跡表示装置において、
    前記表示手段は、ロボットの特定箇所の動作軌跡と物体表面図形とを同一画面上に含む動作軌跡表示画面と、ロボットの特定箇所の動作軌跡を動画再生する動画再生表示画面とを同時に表示可能に構成され、
    前記接近点特定手段により特定された接近点が含まれる領域である接近領域のうち前記動作軌跡表示画面の最も中央側で且つ光軸の最も手前側に表示されている接近領域に対応するロボットの特定箇所の動作軌跡を再生区間として設定する再生区間設定手段と、
    前記動画再生表示画面に表示されている動画の拡縮率を設定する動画拡縮率設定手段と、
    前記動画拡縮率設定手段により設定された拡縮率に反比例するように動画の再生速度を設定する再生速度設定手段とを備え、
    前記表示制御手段は、前記再生区間設定手段により再生区間として設定されたロボットの特定箇所の動作軌跡の動画を、前記動画拡縮率設定手段により設定された拡縮率に反比例するように前記再生速度設定手段により設定された再生速度で前記動画再生表示画面に表示させることを特徴とするロボットの動作軌跡表示装置。
  7. 請求項6に記載したロボットの動作軌跡表示装置において、
    前記表示制御手段は、前記再生区間設定手段により再生区間として設定されたロボットの特定箇所の動作軌跡の動画を、前記動作軌跡表示画面の光軸と同一の光軸を有する視点、前記接領域と直交する光軸を有する視点、前記接近領域と平行で且つ動作軌跡と当該接近領域との中間に位置する光軸を有する視点の順序にしたがって前記動画再生表示画面に表示させることを特徴とするロボットの動作軌跡表示装置。
JP2010025366A 2010-02-08 2010-02-08 ロボットの動作軌跡表示装置 Active JP5445191B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010025366A JP5445191B2 (ja) 2010-02-08 2010-02-08 ロボットの動作軌跡表示装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010025366A JP5445191B2 (ja) 2010-02-08 2010-02-08 ロボットの動作軌跡表示装置

Publications (2)

Publication Number Publication Date
JP2011161549A JP2011161549A (ja) 2011-08-25
JP5445191B2 true JP5445191B2 (ja) 2014-03-19

Family

ID=44592847

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010025366A Active JP5445191B2 (ja) 2010-02-08 2010-02-08 ロボットの動作軌跡表示装置

Country Status (1)

Country Link
JP (1) JP5445191B2 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013099815A (ja) * 2011-11-08 2013-05-23 Fanuc Ltd ロボットプログラミング装置
JP5426719B2 (ja) * 2012-05-18 2014-02-26 ファナック株式会社 ロボットシステムの動作シミュレーション装置
JP6024723B2 (ja) * 2013-09-30 2016-11-16 キヤノンマーケティングジャパン株式会社 情報処理装置、その制御方法、及びプログラム
JP6350037B2 (ja) * 2014-06-30 2018-07-04 株式会社安川電機 ロボットシミュレータおよびロボットシミュレータのファイル生成方法
JP6589604B2 (ja) * 2015-12-01 2019-10-16 株式会社デンソーウェーブ ティーチング結果表示システム
WO2017103997A1 (ja) * 2015-12-15 2017-06-22 株式会社安川電機 ロボットシミュレーション装置、ロボットシミュレーション方法、ロボットシミュレーションプログラムおよびロボット
JP6743453B2 (ja) * 2016-03-30 2020-08-19 セイコーエプソン株式会社 ロボット制御装置、ロボットおよびシミュレーション装置
JP6838028B2 (ja) 2018-10-31 2021-03-03 ファナック株式会社 自動プログラム修正装置および自動プログラム修正方法

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2678005B2 (ja) * 1988-03-04 1997-11-17 ファナック株式会社 ロボットの干渉チェック方法
JPH0511843A (ja) * 1991-07-05 1993-01-22 Fujitsu Ltd ロボツトの軌道作成方法
JPH08108383A (ja) * 1994-10-05 1996-04-30 Fujitsu Ltd マニピュレータ制御装置
JP2003103491A (ja) * 2001-09-28 2003-04-08 Honda Motor Co Ltd ロボットの相互干渉検証方法および相互干渉表示パターン
JP2004082313A (ja) * 2002-08-29 2004-03-18 Nachi Fujikoshi Corp ロボットの動作シミュレーションモデルの作成装置
JP2005081445A (ja) * 2003-09-04 2005-03-31 Fanuc Ltd ロボットの干渉領域確認装置
JP4836458B2 (ja) * 2005-01-07 2011-12-14 株式会社神戸製鋼所 動作プログラムの作成方法
JP2009190113A (ja) * 2008-02-13 2009-08-27 Fanuc Ltd ロボットシミュレーション装置

Also Published As

Publication number Publication date
JP2011161549A (ja) 2011-08-25

Similar Documents

Publication Publication Date Title
JP5445191B2 (ja) ロボットの動作軌跡表示装置
JP7414919B2 (ja) シミュレータ装置及びシミュレーション方法
JP5087532B2 (ja) 端末装置、表示制御方法および表示制御プログラム
JP5953382B2 (ja) 3dモデル用注釈付け方法、およびコンピュータにより読取可能な非一時的なプログラム記憶媒体
EP3458942B1 (en) Display of three-dimensional model information in virtual reality
JP6303772B2 (ja) 入力制御装置、制御方法および制御プログラム
CN104070265A (zh) 焊缝信息设定装置、程序、自动示教系统以及焊缝信息设定方法
CN101887344A (zh) 信息处理设备和信息处理方法
JP4756899B2 (ja) 情報処理装置、情報処理方法
JP2012022632A (ja) 情報処理装置およびその制御方法
CN111487946A (zh) 机器人系统
US20220395985A1 (en) Information processing apparatus, information processing method, display apparatus, display method, robot system, article production method, program, and storage medium
JP5134409B2 (ja) プレゼンテーションシステム
US6346941B1 (en) Interference check result displaying method and interference check result displaying apparatus as well as computer-readable recording medium having interference check result displaying program recorded thereon
JP4458886B2 (ja) 複合現実感画像の記録装置及び記録方法
JP2003256025A (ja) ロボット動作教示方法及び装置
JP7439639B2 (ja) 情報提示システム及びプログラム
JP7370755B2 (ja) 情報処理装置、情報処理方法、プログラム、記録媒体、および物品の製造方法
JP6373710B2 (ja) 図形処理装置および図形処理プログラム
JP6526851B2 (ja) 図形処理装置および図形処理プログラム
JP2003281566A (ja) 画像処理装置および方法、記録媒体、並びにプログラム
JP3591876B2 (ja) 図形処理装置及び方法
JP2013160988A (ja) 画像再生装置、その制御方法、およびプログラム
US11308670B2 (en) Image processing apparatus and method
JP6972647B2 (ja) 三次元形状データの編集装置、及び三次元形状データの編集プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130109

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131121

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131126

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131209

R150 Certificate of patent or registration of utility model

Ref document number: 5445191

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250