JP3537362B2 - ロボットシステム用グラフィック表示装置 - Google Patents
ロボットシステム用グラフィック表示装置Info
- Publication number
- JP3537362B2 JP3537362B2 JP28950899A JP28950899A JP3537362B2 JP 3537362 B2 JP3537362 B2 JP 3537362B2 JP 28950899 A JP28950899 A JP 28950899A JP 28950899 A JP28950899 A JP 28950899A JP 3537362 B2 JP3537362 B2 JP 3537362B2
- Authority
- JP
- Japan
- Prior art keywords
- robot
- dimensional model
- screen
- display device
- dimensional
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1671—Programme controls characterised by programming, planning systems for manipulators characterised by simulation, either to verify existing program or to create and verify new program, CAD/CAM oriented, graphic oriented programming systems
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/35—Nc in input of data, input till input file format
- G05B2219/35314—Display workpiece and machine, chuck, jig, clamp, tool
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/36—Nc in input of data, input key till input tape
- G05B2219/36071—Simulate on screen, if operation value out of limits, edit program
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/36—Nc in input of data, input key till input tape
- G05B2219/36315—Library for shapes of tool holders, fixtures, chucks
Description
インプログラミングに利用され、ロボットの動作をアニ
メーションで動作させるロボットシステム用グラフィッ
ク表示装置に関する。
し、ロボットに教示した動作プログラムに基づいて、該
描画したロボットの3次元モデルをアニメーション動作
させて、教示プログラムの動作を確認し調整する方法は
従来から公知である。このロボットの3次元モデルを教
示プログラムに基づいてアニメーション動作させる動作
シミュレーションは、ロボット動作を確認したり、ロボ
ット作業と関係する周辺機器や機械、部品(ワーク)と
のロボット動作の関係、これらのものとロボットとの干
渉等を検出し、ロボット動作プログラムを修正する等の
作業に役立てている。
作業と関係する周辺機器や機械、部品の3次元モデル用
いるアニメーション動作によって教示プログラムのシミ
ュレーションを行う従来のロボットシステム用グラフィ
ック表示装置においては、ロボット作業と関係する周辺
機器や機械、部品の大きさが変化したとき、例えば、ロ
ボットアーム先端に装着するツールの大きさが変わった
ときや、シーリング材の塗布や溶接を行う部品の大きさ
が変わったとき等、再度これらの3次元モデルを作成し
登録しなければならないという問題があった。
本発明は、ロボットの3次元モデルを画面上に配置して
アニメーションで動作させ、ロボットの動作を画面上に
表示する手段を備えるロボットシステム用グラフィック
表示装置において、ロボットの3次元モデルと、ロボッ
トを用いたシステムで使用する周辺機器、機械または部
品の3次元モデルの1つ以上とを記憶する記憶手段と、
前記記憶手段に記憶された3次元モデルの中から1以上
を画面上で選択する手段と、前記選択した各3次元モデ
ルの寸法を画面上で調整する手段と、前記寸法を調整し
た各3次元モデルを画面上に配備して表示する手段とを
設け、前記寸法調整したロボットの3次元モデル、若し
くは該寸法調整したロボットの3次元モデルと前記寸法
調整した周辺機器、機械または部品の3次元モデルを、
1画面上に配備して表示することで、ロボットを用いた
システムの少なくとも一部を容易に近似することができ
るようにした。
合には、すでに寸法が調整されたロボットの3次元モデ
ルを記憶手段に記憶しておき、ロボットの3次元モデル
はこの、確定している3次元モデルを使用するようにす
る。
部分に対応するロボットの動作を画面上にアニメーショ
ンで表示させる手段をも設ける。
3次元モデルは分類され、分類された種類毎に画面上に
複数の異なったタイプが表示され、この表示されたタイ
プから3次元モデルを選択するようにしている。
ルを前記記憶手段に追加する手段を備え、新たな周辺機
器、機械、部品にも対応できるようにする。
手段を設け、前記情報を送受する手段を介してロボット
制御装置から送られてくる実際の周辺機器、機械または
部品の特徴を作る位置のデータ(例えば、ロボットまた
はロボットに装着されたツールにおけるロボットが位置
を認識できる部位を、前記周辺機器または機械または部
品の3次モデルに対応した実際の周辺機器、機械または
部品の特徴を作る位置と一致するまで移動させ、前記特
徴を作る位置を検出し、この検出した位置データ、又
は、ロボットにセンサを搭載させ該センサを用いて、前
記周辺機器、機械または部品の3次元モデルに対応した
実際の周辺機器、機械または部品の特徴を作る位置を検
出し、この検出した位置データ)に基づいて前記周辺機
器、機械または部品の3次元モデルの形状調整を行う。
アウトの平面図をスキャナ等で外部から取込み、画面上
に表示し、前記レイアウトに合わせてロボットの3次元
モデルや周辺機器、機械又は部品の3次元モデルを画面
上に配置することで、ロボットを用いた生産システムの
モデリングを行う。
ボットシステム用グラフィック表示装置1の要部ブロッ
ク図である。該ロボットシステム用グラフィック表示装
置1はプロセッサ10を備え、プロセッサ10にはバス
17を介して、ROM11,RAM12,バッテリでバ
ックアップされたCMOSメモリ等で構成された不揮発
性メモリ13,表示装置14,ロボット制御装置等と通
信回線で接続される通信インタフェース15,画像を取
り込むスキャナ16等が接続されている。
回路14a、液晶またはCRT等で構成された表示手段
14b、キーボード14c,マウス14d等を備え、グ
ラフィック制御回路14a、キーボード14c及びマウ
ス14dはバス17に接続されている。
モリ13にロボット動作に関係する各種周辺機器、機
械、部品等の3次元モデルを予め格納しておく。3次元
モデルを作成し格納するロボット動作に関係する各種周
辺機器、機械、部品としては、ロボットの直接作業対象
となる自動車の車体や各種機械部品等のワーク、ロボッ
トアーム先端に取り付けるエンドエフェクタのツールを
自動的に交換するツール自動交換装置等の周辺機器、ロ
ボットアーム先端に取り付けるエンドエフェクタ及び治
具、さらには、ロボット自体がある。本発明では、これ
らロボット動作に関係する物を周辺機器、機械、部品と
いう。
類毎に分類し、その3次元モデルを不揮発性メモリ13
に格納するようにする。本実施形態では図8に示すよう
に、ロボットの直接の作業対象になる機械部品等のワー
クが多いことから、これらワークを「workpiece1」、
「workpiece2」と2つの類に分け、各ワーク(部品)
の3次元モデルを格納するようにした例をあげている。
また、周辺機器等の機械は「device」として1分類を設
けている。更に、ロボットアーム先端手首に取り付ける
機械のエンドエフェクタは、スポットガン「spotgu
n」、アークツール「arctool」、ハンドツール「handto
ol」、その他のツール「tool」とに分け分類している。
さらに、治具「jig」及びロボット「robot」の分類を設
け、各分類毎にそれぞれ対応する物体の3次元モデルを
格納するようにしている。
次元モデル形状の入力処理を示すフローチャートであ
る。キーボード14c等から物体3次元モデル登録モー
ドを選択すると、プロセッサ10は図2に示す処理を開
始する。まず、物体の分類と物体名さらには部品名及び
その形状を入力するようメッセージが表示され、それに
基づいて、物体の分類と物体名及びその物体に対して複
数の部品がある場合には入力しようとする部品名を入力
し、従来と同様にモデリングシステムを用いて物体(部
品)の形状を多面体で定義した形式で入力する(ステッ
プA1)。この形状入力が終了すると、物体に対する寸
法線の定義と物体の形状が変化する際の拘束条件を入力
する(ステップA2)。寸法線の定義は、物体の寸法が
変化する可能性のある個所の稜線を選択し、寸法線に対
する引出線の長さ、寸法線の描画色を設定する。例え
ば、図9に示すような物体3次元モデル30の形状に対
して、この物体に対する座標系原点が頂点P1にあり、
頂点P1から頂点P4方向がY軸+方向、頂点P1から
頂点P2方向がX軸+方向、頂点P1から頂点P5方向
がZ軸−方向であった場合、この種類の物体はそのタイ
プに応じて形状が変化するとしても、Z軸方向にはこの
物体の長さは変化がなく、X、Y軸方向にのみその寸法
が変化する可能性がある例を示しており、この場合、変
化のある稜線に対して寸法線を定義する。頂点P2、P
3間、頂点P1、P2間、頂点P4、P11間、頂点P
11、P9間、の4つの寸法線を定義した例を示してい
る。
した寸法が変わると、それにつれて変化すべきものの変
化の態様を設定する。この実施形態では、物体の3次元
モデルを多面体形状で特定しているから、物体の形状が
変化するということは頂点から頂点間の寸法が変化する
ということであり、この形状変化のために寸法が変化し
たとき、座標値が変化すべき頂点の変化の態様を規定す
る拘束条件を設定する。そして、この形状変化に対する
整合性チェック条件をも設定する。図9で示す例で、頂
点P1と頂点P2間の寸法線の長さが変わったときの形
状作成上の拘束条件は、頂点P1と頂点P2間の寸法線
の長さ、即ち、頂点P2のX軸座標値が変わり、それと
ともに頂点P3、P7、P6のX軸座標値が変わること
を意味する。そこで、この頂点P2のX軸座標値と頂点
P3、P7、P6のそれぞれのX軸座標値は等しいとい
う拘束条件を設定する。このときの整合性チェック条件
として、頂点P2のX軸座標値は頂点P1のX軸座標値
より大きいという条件を設定する。
対する拘束条件としては、頂点P3のY軸座標値と頂点
P7、P9、P10のY軸座標値が等しいという拘束条
件が設定される。整合性チェック条件として、頂点P3
のY軸座標値は頂点P2のY軸座標値より大きいという
条件を設定する。
拘束条件としては、頂点P11のX軸座標値と頂点P
9、P10、P12のX軸座標値が等しいという拘束条
件が設定される。整合性チェック条件として、頂点P1
1のX軸座標値は頂点P4のX軸座標値より大きいとい
う条件を設定する。
拘束条件としては、頂点P9のY軸座標値と頂点P3、
P7、P10のY軸座標値が等しいという拘束条件が設
定される。整合性チェック条件として、頂点P9のY軸
座標値は頂点P11のY軸座標値より大きいという条件
を設定する。
束条件、整合性チェック条件が設定されると、プロセッ
サ10は、入力されたデータに基づいて物体形状を特定
するデータと前記寸法線定義等のデータを物体ライブラ
リとして不揮発性メモリ13に格納する(ステップA
3)。格納されるデータは、物体名(物体識別子)と共
に位相データ、幾何データ、寸法線データ、拘束条件デ
ータ、整合性チェックデータが記憶される。なお、以下
識別子をIDという。
頂点ID、稜線ID、頂点ID及びこれら位相データ間
のつながり関係を記憶する。これら位相データは、ステ
ップA1で作成された物体を近似した3次元モデルの多
面体形状より得られるデータである。
憶された稜線IDに対する稜線式、面IDに対する面の
式、頂点IDに対する3次元位置データが格納される。
この幾何データも、ステップA1で作成された物体を3
次元モデルに近似する多面体形状より得られるデータで
ある。
された寸法線データを記憶するもので、このデータは以
下のように記憶される。 「dim,物体ID,部品ID,頂点ID,頂点ID,寸法引出線の方
向,寸法引出線の長さ,寸法線の色」例えば、図9の頂点
P1、P2間の寸法線の場合、「dim,test2,Text4,1,2,
1,-200,2」となる。
est2」は物体名を表す物体ID、「Text4」は部品名を
表す部品ID、次の「1」及び「2」は頂点P1,P2
を表し、寸法値が変化したとき、前の頂点の座標値は変
わらず後の頂点の座標値(指令方向の座標値)が変わる
ことを意味する。この例では、頂点P1の座標値は変わ
らず頂点P2の座標値が変わることを意味する。次の
「1」は寸法引出線の方向を示し、「0」がX軸方向、
「1」がY軸方向、「2」がZ軸方向を示す。また次の
「−200」は寸法引出線の長さ、最後の「2」は寸法
線の表示色のコードである。上記例では、物体test2の
部品Text4の頂点P1とP2間に寸法線が設けられ、そ
の引出線は、Y軸−方向に200の長さでこの引出線及
び寸法線の表示色はコード「2」に対応する色で描画す
る、という寸法線を示すデータが記憶されることにな
る。
式は、次のようなデータとして記憶される。 「moveabs,物体ID,部品ID,頂点ID,方向,頂点ID,方向,」
例えば、図9の頂点P1、P2間の寸法線の場合の拘束
条件は、頂点P2のX軸座標値と頂点P3,P7,P6
のX軸座標値が等しいというものであるから、この拘束
条件は次のようにして記憶される。 「moveabs,test2,Text4,2,0,3,0 moveabs,test2,Text4,2,0,7,0 moveabs,test2,Text4,2,0,6,0」 「moveabs」は拘束条件のコード、「test2」、「Text
4,」は物体ID、部品IDであり、それに続く上記例
で、「2,0,3,0」は「頂点P2,方向0、頂点P
3、方向0」を示している。方向は「0」がX軸、
「1」がY軸、「2」がZ軸を示し、「2,0,3,
0」は、頂点P2のX軸座標値と頂点P3のX軸座標値
は等しいということを意味している。
して記憶される。 「checkifgtpos,物体ID,部品ID,頂点ID,方向,頂点ID,方
向,」この定義式で、先に記載された頂点IDの方向で
示される座標軸の値が後で示される頂点IDの方向で示
される座標軸の値より大きいときは整合性があり、大き
くないときには、不整合であるというチェック式であ
る。方向はX軸を「0」、Y軸を「1」、Z軸を「2」
としている。
4,2,0,1,0」となる。この定義式で、「checkifgtpos」
は、整合性チェックのコード、この式の後半の「2,0,1,
0」により、頂点P2のX軸の座標値が頂点P1のX軸
座標値より大きいか判断し大きいときには整合性あり、
小さいときには整合性なしと判断され、寸法線の長さを
入力した際にアラームを出力させるものである。
た場合には、寸法線データ、拘束条件データ、整合性チ
ェックデータは以下のように物体ライブラリに記憶され
る。
了を意味するコードである。
部品等の各種物体を分類してその形状、寸法線、拘束条
件、整合性チェックデータ等を上述したように入力し、
物体ライブラリとして、各物体の物体形状を特定するた
めの上記位相データ、幾何データ及び寸法線データ、拘
束条件データ、整合性チェックデータ等を不揮発性メモ
リ13に格納する。なお、こうして物体データが入力さ
れたときには、入力物体形状より、メニュー表示用の物
体形状縮小画像が作られ、メニュー用として記憶され
る。
ている状態でモニタリング動作を開始する。図3は、こ
のモニタリング動作手順を示す流れ図である。
と、プロセッサ10は、図8に示すように、物体ライブ
ラリメニュー画面を表示装置14の表示手段14bに表
示する(ステップB1)。なお、最初は、物体分類の最
初の項目「workpiece1」が選択状態にあり、この「wor
kpiece1」に登録されている物体(部品)3次元モデル
の形状メニューが中央部の形状メニュー表示欄21に表
示される。そこで、オペレータは、入力しようとする物
体の分類を分類欄20からマウス14d又はカーソル等
のポインティングディバイスを用いて選択し、分類欄の
各項目が選択されると、形状メュー表示欄21にはその
選択分類項目に対応する物体の3次元モデルの形状メニ
ューが表示される。例えば、「workpiece1」が選択さ
れれば、この分類の「workpiece1」として登録されて
いるワーク(部品)の3次元モデルの形状メニューが表
示される。又、例えば、分類項目「spotgun」が選択さ
れると、登録されているスポットガンの3次元モデルの
形状を表示する形状メニューが形状メニュー表示欄21
に表示される。又、分類項目「robot」が選択される
と、登録されている各種ロボットの3次元モデルの形状
メューが形状メニュー表示欄21に表示される。そこ
で、オペレータは、分類項目を選択し、その項目の物体
の3次元モデルの形状のメニューを表示させ、スクロー
ルバー22を操作しメニュー欄21の画面をスクロール
して、入力しようとする物体の形状に対応するメニュー
の画面をマウス14d等で選択する。図8の例では、
「workpiece1」の物体名「test2」が選択されている
状態を示し、選択物体IDが選択欄23に表示されてい
る(ステップB2)。
と、プロセッサ10は、不揮発性メモリ13に格納され
ている物体ライブラリから選択物体3次元モデルのデー
タを読み込みRAM12に記憶すると共に、物体3次元
モデルの位相データ、幾何データに基づいて選択物体3
次元モデルの形状が表示され、寸法線データに基づい
て、寸法線、寸法引出線が表示される(ステップB
3)。更に、設定されている寸法線データに対応する稜
線の長さを幾何データに記憶する頂点座標位置データに
基づいて算出し、設定されている寸法線データに対応す
る寸法線入力欄にその稜線の長さとが図9に示すように
表示される。
モデルの形状表示であり、符号31は、この表示物体3
次元モデルの変更可能な寸法の数値入力欄である。な
お、図9において、頂点P1〜P12は画面に表示され
るものではなく、説明を簡単にする上で、物体ライブラ
リとして記憶している頂点IDを参考までに示している
ものである。又、寸法数値入力欄31には物体ライブラ
リを作成したときの物体形状より求められた各寸法線の
長さ(頂点間の距離)が表示される。
の寸法に合わせるため、この表示形状に対して実際の物
体に対応した寸法を入力する。この場合、マウス14d
等で数値入力欄の1つを選択すると、その欄の寸法に対
応した寸法線、寸法引出線の表示色が変わり、選択する
稜線を判別することができる。例えば、図9において、
寸法1の欄を選択すると、この欄に対応した頂点P2と
頂点P3間の稜線が選択され、その長さを示す寸法線と
寸法引出線の表示色が変化する。色が変化した寸法線の
稜線に対応する実際の物体の長さ寸法を入力すれば、寸
法数値入力欄31の対応欄の表示値は入力値に変わる。
寸法の変更入力には順序があり、先に入力した寸法線の
寸法と後から入力した寸法線の寸法により、矛盾が生じ
た場合には、後から入力した寸法線の数値が優先され、
各頂点座標値はこの後から入力された寸法値に基づいて
変更される。例えば、頂点P2と頂点P3間の寸法線
(寸法1)の数値を入力した後、頂点P11と頂点P9
間の寸法線(寸法4)の数値を入力した場合、頂点P
3,頂点P7,頂点P9,頂点P10のY軸座標値は同
一でなければならないが、一致しない場合、後に入力し
た頂点P11と頂点P9間の寸法線(寸法4)の数値を
優先し、この数値が使用される。以下、寸法を変更する
稜線に対する数値入力が終了すると、プロセッサは物体
3次元モデルのデータとして記憶されている拘束条件デ
ータに基づいて、各頂点座標位置を算出し、物体ライブ
ラリから読み込まれRAM12に記憶する物体3次元モ
デルのデータの対応する頂点の座標値を変更する。な
お、表示形状もこの新たに入力された寸法値に基づいて
変更される(ステップB4)。
動作と関係する全ての物体に対してステップB1からB
5の処理を行い、物体ライブラリから、少なくともロボ
ット本体の3次元モデルのデータと、ロボット動作に関
係する周辺機器、機械、部品(ワーク)の物体3次元モ
デルのデータを読み出し、寸法の変更があるものは上述
した処理で寸法を変更し、必要のないものは物体ライブ
ラリから読み出した物体3次元モデルデータをそのまま
RAM12に格納される。
体3次元モデルのデータを読み出し、寸法変更処理が終
了すると(ステップB5)、このロボットシステムが設
置されるワークセルへの物体配置処理を行う(ステップ
B6)。
示す処理で、まず、ワークセルのレイアウトの平面図を
読み込み表示する(ステップC1)。このレイアウトの
平面図の読み込みは、いろいろな方法があるが、図4に
示した例は、CAD等で作成され記憶されている平面図
ファイルより通信インターフェース15を介して読み込
むか、若しくは、フロッピーディスク等の記憶手段から
図示していないドライバーを介して読み込む方法と、ペ
ーパ上に描かれたレイアウトの平面図をスキャナ16で
読み込む方法があり、どちらか一つの方法でワークセル
のレイアウトの平面図を読み込み表示装置の表示手段1
4bに表示させる。図10は、ワークセルのレイアウト
の平面図の一例を示すもので、この図では、テーブル上
のワークに対して、ロボットがアーク溶接作業を行うと
きのロボット、テーブル、ワーク等のレイアウト平面図
を示している。このような平面図が読み込まれ、表示手
段14bに表示される。
上の3点を指定しての対象物画像上に面を作成する。又
は、ワイヤフレーム上の3点を指定して、その3点を含
む閉じた多角形を検索し、あれば、その多角形により面
を作成する(ステップC2)。
定義するときには、物体定義指令を入力し、又物体ライ
ブラリから物体3次元モデルを読み込み寸法調整が終了
した物体3次元モデルを配置する場合には、物体配置指
令を入力する(ステップC3)。
面を指定し、高さ方向であるZ軸座標値を入力すること
により、指定面をZ軸方向に指定値だけリフトさせ、こ
の座標値は記憶される(ステップC4)。また、リフト
した面の形状修正処理を行い(ステップC5)、この場
合の処理は終了する。
を指定し、その面に配置対象の物体名(物体ID)を入
力して指定する(ステップC6)。プロセッサ10は、
この指定された面位置に指定された物体を移動させる
(ステップC7)。なお、複数の物体定義や対象物配置
があれば、ステップC3〜C7の処理が繰り返し実行さ
れる。こうしてワークセルへの物体配置処理が終了する
と、図3に戻り、外部からの情報による物体3次元モデ
ルの形状の変更動作処理が実施される(ステップB
7)。
作処理の流れ図である。実際のロボットのアーム先端に
取り付けたツール先端(TCP)を移動させて、実物体
の特徴を作る4点以上の位置に位置決めタッチアップす
ることにより4点の座標位置を検出する。又はビジョン
センサ等のセンサを用いるときには、このセンサにより
実物体の特徴を作る4点以上の位置を検出する(ステッ
プD1)。この検出した4点以上の位置データをロボッ
トシステム用グラフィック表示装置1にアップロードす
る(ステップD2)。
1では、受信した4点以上の位置に対応する物体3次元
モデルの位置を指定し、この検出点の位置と指定した3
次元モデル上の位置のずれを求め、指定した点の座標位
置が検出した位置になるように前述した拘束条件を用い
て3次元モデルの各頂点位置を調整する(ステップD
3)。こうして求められた頂点位置に基づいて、RAM
12に記憶する物体データの位相データ、幾何データ、
さらには寸法線データ等を変更し、表示手段14bに表
示する物体3次元モデルの形状も変更し(ステップD
4)、表示した物体3次元モデルの形状と実際の物体の
形状を一致させ、物体形状変更動作処理は終了する。
と、外部からの情報による物体の再配置処理を行う(ス
テップB8)。この処理は、表示した物体3次元モデル
の配置位置と実際の物体の配置位置とのずれを修正する
もので、この処理方法は、図6又は図7の処理によって
行われる。
付けたツール先端(TCP)を移動させ実物体の3点以
上にタッチアップ(位置決め)し、このタッチアップし
た点を通信線を介して本ロボットシステム用グラフィッ
ク表示装置1に送信する(ステップE1,E2)。本装
置1側では、受信した3点の位置よりロボットに対する
物体の相対位置を求め(ステップE3)、この求めた相
対位置に基づいて表示画面上の物体3次元モデルのレイ
アウトを変更する(ステップE4)。
るもので、ビジョンセンサにより物体の位置姿勢を取得
し、この取得した位置姿勢を本装置1に送信し(ステッ
プF1,F2)、装置1側では、受信した物体の位置姿
勢に基づいてロボットに対する物体の相対位置を求め
(ステップF3)、この求めた相対位置に基づいて表示
画面上の物体3次元モデルのレイアウトを変更する(ス
テップF4)。以上の処理によって、表示装置14の表
示手段14bに表示されたロボット、周辺機器、機械、
部品等の物体3次元モデルの形状、レイアウトと実際の
物体の形状とレイアウトはほぼ一致するものとなる。
と同様に作成し(ステップB9)、該動作プログラムに
よるシミュレーションを実行させ、従来と同様に、表示
画面上のロボット3次元モデルをアニメーション動作さ
せ、該動作プログラムを検証し、修正が必要であれば、
プログラムの修正を行い、動作プログラムを完成させる
(ステップB10)。
インターフェース15、通信回線を介してロボット制御
装置にダウンロードし(ステップB11)、ロボット制
御装置はダウンロードされた動作プログラムを実行する
(ステップB12)。
標準的な1タイプ(形状)を3次元モデルとして予め物
体ライブラリに格納しておき、使用するロボットの種
類、タイプ(形状)に応じて、物体ライブラリに記憶す
るロボット3次元モデルを選択し寸法を設定して、使用
するロボットの3次元モデルとしたが、使用ロボットに
変更がないような場合には、この使用ロボットの3次元
モデルを作成して記憶しておき、物体ライブラリから作
成することなく、直接この記憶するロボット3次元モデ
ルを読み出すようにしてもよい。
ボットや、周辺機器、機械、部品等が新たに生じた場合
には、図2に示す動作処理によってこの新たな物体の3
次元モデルを物体ライブラリに追加することによって、
ロボット、周辺機器、機械、部品(ワーク)の変化に対
応させる。
メーション動作させる場合に必要な、ロボット自体やロ
ボットの周辺機器、機械、部品(ワーク)の形状モデル
を容易に作成することができるので、ロボット動作のア
ニメーション画面の作成が容易となる。
装置の一実施形態の要部ブロック図である。
手順処理のフローチャートである。
ーチャートである。
理のフローチャートである。
動作処理の流れ図である。
よって、物体の再配置を行う処理のフローチャートであ
る。
体の再配置を行うときの処理のフローチャートである。
面の説明図である。
の説明図である。
明図である。
Claims (9)
- 【請求項1】 ロボットの3次元モデルを画面上に配置
してアニメーションで動作させ、ロボットの動作を画面
上に表示する手段と、 ロボットの3次元モデルと、ロボットを用いたシステム
で使用する周辺機器、機械または部品の3次元モデルの
1つ以上とを記憶する記憶手段と、 前記記憶手段に記憶された3次元モデルの中から1以上
を画面上で選択する手段と、 前記選択した各3次元モデルの寸法を画面上で調整する
手段と、 前記寸法を調整した各3次元モデルを画面上に配備して
表示する手段とを備え、 前記寸法調整したロボットの3次元モデル、若しくは該
寸法調整したロボットの3次元モデルと前記寸法調整し
た周辺機器、機械または部品の3次元モデルを、1画面
上に配備して表示することで、ロボットを用いたシステ
ムの少なくとも一部を近似することを特徴とするロボッ
トシステム用グラフィック表示装置。 - 【請求項2】 ロボットの3次元モデルを画面上に配置
してアニメーションで動作させ、ロボットの動作を画面
上に表示する手段と、 ロボットの3次元モデルを記憶する第1の記憶手段と、 ロボットを用いたシステムで使用する周辺機器、機械ま
たは部品の3次元モデルを1つ以上記憶する第2の記憶
手段と、 前記第2の記憶手段に記憶された3次元モデルの中の1
以上を画面上で選択する手段と、 前記選択した3次元モデルの寸法を画面上で調整する手
段と、 前記第1の記憶手段に記憶するロボットの3次元モデル
と前記寸法を調整した3次元モデルを画面上に配備して
表示する手段とを備え、 前記ロボットの3次元モデルと、前記寸法調整した周辺
機器、機械または部品の3次元モデルを、1画面上に配
備して表示することで、ロボットを用いたシステムの少
なくとも一部を近似することを特徴とするロボットシス
テム用グラフィック表示装置。 - 【請求項3】 ロボットプログラムの少なくとも一部分
に対応するロボットの動作を画面上にアニメーションで
表示させる手段を備えた請求項1、請求項2に記載のロ
ボットシステム用グラフィック表示装置。 - 【請求項4】 前記周辺機器及び機械または部品の3次
元モデルは分類され、分類された種類毎に画面上に複数
の異なったタイプが表示され、この表示されたタイプか
ら3次元モデルを選択するようにしたことを特徴とする
請求項1乃至3の内1項記載のロボットシステム用グラ
フィック表示装置。 - 【請求項5】 ロボット周辺機器、機械又は部品の3次
元モデルを前記記憶手段に追加する手段を備えたことを
特徴とする請求項1乃至4の内1項記載のロボットシス
テム用グラフィック表示装置。 - 【請求項6】 ロボット制御装置と情報を送受する手段
を備え、 前記情報を送受する手段を介してロボット制御装置から
送られてくる実際の周辺機器、機械または部品の特徴を
作る位置のデータに基づいて前記周辺機器、機械または
部品の3次元モデルの形状調整を行うことを特徴とする
請求項1乃至5の内1項記載のロボットシステム用グラ
フィック表示装置。 - 【請求項7】 ロボットを用いた作業システムのレイア
ウトの平面図を画面上に表示し、前記レイアウトに合わ
せてロボットの3次元モデルや周辺機器、機械又は部品
の3次元モデルを画面上に配置することで、ロボットを
用いた生産システムのモデリングを行えることを特徴と
する請求項1乃至6の内1項記載のロボットシステム用
グラフィック表示装置。 - 【請求項8】 前記レイアウトは、スキャナで外部から
取り込むことを特徴とする請求項7記載のロボットシス
テム用グラフィック表示装置。 - 【請求項9】 前記各3次元モデルには、モデルの一寸
法を変更したとき他の寸法をも自動的に変更する拘束条
件をも含む請求項1ないし請求項8のうち1項記載のロ
ボットシステム用グラフィック表示装置。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP28950899A JP3537362B2 (ja) | 1999-10-12 | 1999-10-12 | ロボットシステム用グラフィック表示装置 |
EP00308932A EP1092513B1 (en) | 1999-10-12 | 2000-10-11 | Graphic display apparatus for robot system |
DE60025683T DE60025683T2 (de) | 1999-10-12 | 2000-10-11 | Graphische Anzeigevorrichtung für ein Robotersystem |
US09/688,042 US7002585B1 (en) | 1999-10-12 | 2000-10-12 | Graphic display apparatus for robot system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP28950899A JP3537362B2 (ja) | 1999-10-12 | 1999-10-12 | ロボットシステム用グラフィック表示装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2001105359A JP2001105359A (ja) | 2001-04-17 |
JP3537362B2 true JP3537362B2 (ja) | 2004-06-14 |
Family
ID=17744185
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP28950899A Expired - Fee Related JP3537362B2 (ja) | 1999-10-12 | 1999-10-12 | ロボットシステム用グラフィック表示装置 |
Country Status (4)
Country | Link |
---|---|
US (1) | US7002585B1 (ja) |
EP (1) | EP1092513B1 (ja) |
JP (1) | JP3537362B2 (ja) |
DE (1) | DE60025683T2 (ja) |
Families Citing this family (57)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3854033B2 (ja) * | 2000-03-31 | 2006-12-06 | 株式会社東芝 | 機構シミュレーション装置及び機構シミュレーションプログラム |
ITPI20010007A1 (it) * | 2001-02-07 | 2002-08-07 | Giovanni Pioggia | Metodo per il controllo di un sistema meccanico articolato e/0 deformabile e sue applicazioni |
JP2003114706A (ja) * | 2001-10-05 | 2003-04-18 | Matsuura Tekkosho:Kk | 多関節汎用ロボットモデルの表示システム |
JP2003150219A (ja) * | 2001-11-12 | 2003-05-23 | Fanuc Ltd | 作業機械のシミュレーション装置 |
JP3673749B2 (ja) * | 2001-11-12 | 2005-07-20 | ファナック株式会社 | シミュレーション装置 |
JP3986354B2 (ja) | 2002-04-24 | 2007-10-03 | 株式会社イシダ | 組み合せ計量装置または包装装置 |
SE524796C2 (sv) * | 2002-12-10 | 2004-10-05 | Svensk Industriautomation Ab | Kollisionsskydd |
US8245150B2 (en) * | 2004-11-22 | 2012-08-14 | Caterpillar Inc. | Parts catalog system |
JP4153528B2 (ja) * | 2006-03-10 | 2008-09-24 | ファナック株式会社 | ロボットシミュレーションのための装置、プログラム、記録媒体及び方法 |
JP2007334678A (ja) * | 2006-06-15 | 2007-12-27 | Fanuc Ltd | ロボットシミュレーション装置 |
CN101539399B (zh) * | 2008-03-21 | 2012-03-14 | 鸿富锦精密工业(深圳)有限公司 | 影像量测机台绘制系统及方法 |
CN101545757B (zh) * | 2008-03-25 | 2012-01-25 | 鸿富锦精密工业(深圳)有限公司 | 影像量测机台动态模拟系统及方法 |
JP5581749B2 (ja) * | 2010-03-15 | 2014-09-03 | オムロン株式会社 | 表示装置、表示方法、プログラム、およびコンピュータ読み取り可能な記録媒体 |
US9015093B1 (en) | 2010-10-26 | 2015-04-21 | Michael Lamport Commons | Intelligent control with hierarchical stacked neural networks |
US8775341B1 (en) | 2010-10-26 | 2014-07-08 | Michael Lamport Commons | Intelligent control with hierarchical stacked neural networks |
US20120290130A1 (en) * | 2011-05-10 | 2012-11-15 | Agile Planet, Inc. | Method to Model and Program a Robotic Workcell |
US9566710B2 (en) | 2011-06-02 | 2017-02-14 | Brain Corporation | Apparatus and methods for operating robotic devices using selective state space training |
US9764468B2 (en) | 2013-03-15 | 2017-09-19 | Brain Corporation | Adaptive predictor apparatus and methods |
US9242372B2 (en) | 2013-05-31 | 2016-01-26 | Brain Corporation | Adaptive robotic interface apparatus and methods |
US9792546B2 (en) | 2013-06-14 | 2017-10-17 | Brain Corporation | Hierarchical robotic controller apparatus and methods |
US9384443B2 (en) | 2013-06-14 | 2016-07-05 | Brain Corporation | Robotic training apparatus and methods |
US9314924B1 (en) | 2013-06-14 | 2016-04-19 | Brain Corporation | Predictive robotic controller apparatus and methods |
US9436909B2 (en) | 2013-06-19 | 2016-09-06 | Brain Corporation | Increased dynamic range artificial neuron network apparatus and methods |
US9579789B2 (en) | 2013-09-27 | 2017-02-28 | Brain Corporation | Apparatus and methods for training of robotic control arbitration |
US9296101B2 (en) | 2013-09-27 | 2016-03-29 | Brain Corporation | Robotic control arbitration apparatus and methods |
US9597797B2 (en) | 2013-11-01 | 2017-03-21 | Brain Corporation | Apparatus and methods for haptic training of robots |
US9463571B2 (en) | 2013-11-01 | 2016-10-11 | Brian Corporation | Apparatus and methods for online training of robots |
JP6127925B2 (ja) * | 2013-11-11 | 2017-05-17 | 株式会社安川電機 | ロボットシミュレーション装置、ロボットシミュレーション方法、およびロボットシミュレーションプログラム |
US9248569B2 (en) | 2013-11-22 | 2016-02-02 | Brain Corporation | Discrepancy detection apparatus and methods for machine learning |
US9358685B2 (en) | 2014-02-03 | 2016-06-07 | Brain Corporation | Apparatus and methods for control of robot actions based on corrective user inputs |
US9346167B2 (en) | 2014-04-29 | 2016-05-24 | Brain Corporation | Trainable convolutional network apparatus and methods for operating a robotic vehicle |
US9958862B2 (en) | 2014-05-08 | 2018-05-01 | Yaskawa America, Inc. | Intuitive motion coordinate system for controlling an industrial robot |
US9123171B1 (en) * | 2014-07-18 | 2015-09-01 | Zspace, Inc. | Enhancing the coupled zone of a stereoscopic display |
JP5911933B2 (ja) * | 2014-09-16 | 2016-04-27 | ファナック株式会社 | ロボットの動作監視領域を設定するロボットシステム |
US9630318B2 (en) | 2014-10-02 | 2017-04-25 | Brain Corporation | Feature detection apparatus and methods for training of robotic navigation |
JP5927310B1 (ja) | 2015-01-14 | 2016-06-01 | ファナック株式会社 | ロボットシステムのシミュレーション装置 |
US9717387B1 (en) | 2015-02-26 | 2017-08-01 | Brain Corporation | Apparatus and methods for programming and training of robotic household appliances |
WO2017032407A1 (en) * | 2015-08-25 | 2017-03-02 | Abb Schweiz Ag | An industrial robot system and a method for programming an industrial robot |
US10296675B2 (en) * | 2015-12-30 | 2019-05-21 | Abb Schweiz Ag | System and method for determining dynamic motion data in robot trajectory |
US10241514B2 (en) | 2016-05-11 | 2019-03-26 | Brain Corporation | Systems and methods for initializing a robot to autonomously travel a trained route |
US9987752B2 (en) | 2016-06-10 | 2018-06-05 | Brain Corporation | Systems and methods for automatic detection of spills |
US10282849B2 (en) | 2016-06-17 | 2019-05-07 | Brain Corporation | Systems and methods for predictive/reconstructive visual object tracker |
US10016896B2 (en) | 2016-06-30 | 2018-07-10 | Brain Corporation | Systems and methods for robotic behavior around moving bodies |
JP6654532B2 (ja) * | 2016-09-05 | 2020-02-26 | 株式会社日立製作所 | 設計支援装置および設計支援方法 |
JP2018047509A (ja) | 2016-09-20 | 2018-03-29 | ファナック株式会社 | ロボットシミュレーション装置 |
US10274325B2 (en) | 2016-11-01 | 2019-04-30 | Brain Corporation | Systems and methods for robotic mapping |
US10001780B2 (en) | 2016-11-02 | 2018-06-19 | Brain Corporation | Systems and methods for dynamic route planning in autonomous navigation |
US10723018B2 (en) | 2016-11-28 | 2020-07-28 | Brain Corporation | Systems and methods for remote operating and/or monitoring of a robot |
US10377040B2 (en) | 2017-02-02 | 2019-08-13 | Brain Corporation | Systems and methods for assisting a robotic apparatus |
US10852730B2 (en) | 2017-02-08 | 2020-12-01 | Brain Corporation | Systems and methods for robotic mobile platforms |
US10293485B2 (en) | 2017-03-30 | 2019-05-21 | Brain Corporation | Systems and methods for robotic path planning |
JP6457587B2 (ja) | 2017-06-07 | 2019-01-23 | ファナック株式会社 | ワークの動画に基づいて教示点を設定するロボットの教示装置 |
CN107479504B (zh) * | 2017-08-21 | 2019-09-20 | 南京中车浦镇城轨车辆有限责任公司 | 一种数控加工特征自动识别及路径规划的方法 |
AT16425U1 (de) * | 2017-12-14 | 2019-08-15 | Wittmann Kunststoffgeraete | Verfahren zur Validierung von programmierten Ablaufsequenzen oder |
JP6816068B2 (ja) | 2018-07-06 | 2021-01-20 | ファナック株式会社 | ロボットプログラム生成装置 |
US10959792B1 (en) * | 2019-09-26 | 2021-03-30 | Auris Health, Inc. | Systems and methods for collision detection and avoidance |
JP7111911B1 (ja) * | 2021-04-28 | 2022-08-02 | ファナック株式会社 | 安全パラメータを設定する装置、教示装置、及び方法 |
Family Cites Families (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS59229615A (ja) * | 1983-05-23 | 1984-12-24 | Mitsubishi Electric Corp | 数値制御装置 |
JPS60195615A (ja) * | 1984-03-16 | 1985-10-04 | Hitachi Ltd | 多関節ロボツトの姿勢教示方法 |
NL8600831A (nl) * | 1986-04-02 | 1987-11-02 | Oce Nederland Bv | Werkwijze voor het opwekken en bewerken van modellen van twee- of driedimensionale objecten in een computer en voor het weergeven van die modellen op een display. |
JPH0628021A (ja) * | 1992-07-09 | 1994-02-04 | Fanuc Ltd | 対話形数値制御装置 |
JPH0699375A (ja) * | 1992-09-18 | 1994-04-12 | Kawasaki Heavy Ind Ltd | ロボット操作訓練装置 |
US5495410A (en) * | 1994-08-12 | 1996-02-27 | Minnesota Mining And Manufacturing Company | Lead-through robot programming system |
EP0852346B1 (en) * | 1995-09-19 | 2002-01-16 | Kabushiki Kaisha Yaskawa Denki | Robot language processor |
US5745387A (en) * | 1995-09-28 | 1998-04-28 | General Electric Company | Augmented reality maintenance system employing manipulator arm with archive and comparison device |
US5682886A (en) * | 1995-12-26 | 1997-11-04 | Musculographics Inc | Computer-assisted surgical system |
JPH09212219A (ja) * | 1996-01-31 | 1997-08-15 | Fuji Facom Corp | 三次元仮想モデル作成装置及び制御対象物の監視制御装置 |
US5822207A (en) * | 1996-05-06 | 1998-10-13 | Amadasoft America, Inc. | Apparatus and method for integrating intelligent manufacturing system with expert sheet metal planning and bending system |
JPH11134017A (ja) * | 1997-10-27 | 1999-05-21 | Honda Motor Co Ltd | オフラインティーチング方法 |
JP3655083B2 (ja) * | 1998-02-25 | 2005-06-02 | 富士通株式会社 | ロボットの位置決めを行うインタフェース装置 |
US6256595B1 (en) * | 1998-03-04 | 2001-07-03 | Amada Company, Limited | Apparatus and method for manually selecting, displaying, and repositioning dimensions of a part model |
JP2001105137A (ja) * | 1999-10-01 | 2001-04-17 | Toshiba Corp | 溶接用オフライン教示装置および同装置を用いた大型構造物の製造方法 |
-
1999
- 1999-10-12 JP JP28950899A patent/JP3537362B2/ja not_active Expired - Fee Related
-
2000
- 2000-10-11 EP EP00308932A patent/EP1092513B1/en not_active Expired - Lifetime
- 2000-10-11 DE DE60025683T patent/DE60025683T2/de not_active Expired - Lifetime
- 2000-10-12 US US09/688,042 patent/US7002585B1/en not_active Expired - Lifetime
Also Published As
Publication number | Publication date |
---|---|
EP1092513A2 (en) | 2001-04-18 |
EP1092513A3 (en) | 2004-04-07 |
DE60025683D1 (de) | 2006-04-13 |
DE60025683T2 (de) | 2006-07-20 |
US7002585B1 (en) | 2006-02-21 |
JP2001105359A (ja) | 2001-04-17 |
EP1092513B1 (en) | 2006-01-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3537362B2 (ja) | ロボットシステム用グラフィック表示装置 | |
EP1527850B1 (en) | Simulation apparatus | |
EP1936458B1 (en) | Device, method, program and recording medium for robot offline programming | |
EP2282873B1 (en) | A method and a system for facilitating calibration of an off-line programmed robot cell | |
EP1700667A1 (en) | Laser-welding teaching device and method | |
EP1847359A2 (en) | Robot simulation apparatus | |
US5341458A (en) | Method of and system for generating teaching data for robots | |
EP0322464A1 (en) | Method of robot arrangement determination | |
US20180036883A1 (en) | Simulation apparatus, robot control apparatus and robot | |
CN110370298A (zh) | 一种焊接机器人轨迹自动规划方法 | |
US6327518B1 (en) | Off-line teaching apparatus | |
JP4574580B2 (ja) | 作業ロボットのオフラインティーチング装置 | |
JP2787883B2 (ja) | 三次元レーザ加工機用シミュレーション装置 | |
JP3040906B2 (ja) | ロボットの動作時間評価方法および装置 | |
US20170269574A1 (en) | Robot control device that controls robot to perform machining operation, and robot program generator | |
JPH0736519A (ja) | ロボットのニアミスチェック方法 | |
JP2000112510A (ja) | ロボットの教示方法及びその装置 | |
WO2022269927A1 (ja) | プログラム作成装置 | |
JPH10207524A (ja) | センシングパターンのオフライン自動ティーチング方法及びセンシング動作シミュレーション方法 | |
JP2559081B2 (ja) | ティーチングデータ作成方法および装置 | |
JPH11165239A (ja) | 数値制御データ編集装置と数値制御データの編集方法 | |
JPS63148307A (ja) | Nc情報作成装置 | |
JP2002326175A (ja) | 作業ロボットシステムにおけるロボットプログラム作成装置並びに自動制御機器システムのプログラム作成装置。 | |
JPH03288211A (ja) | ハンドリングロボットのオフライン教示システム | |
JPH03296108A (ja) | ロボットの軌跡表示方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20010515 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20040316 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20080326 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090326 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100326 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100326 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110326 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120326 Year of fee payment: 8 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130326 Year of fee payment: 9 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130326 Year of fee payment: 9 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140326 Year of fee payment: 10 |
|
LAPS | Cancellation because of no payment of annual fees |