JP3708097B2 - ロボットの手動送り装置 - Google Patents

ロボットの手動送り装置 Download PDF

Info

Publication number
JP3708097B2
JP3708097B2 JP2003349905A JP2003349905A JP3708097B2 JP 3708097 B2 JP3708097 B2 JP 3708097B2 JP 2003349905 A JP2003349905 A JP 2003349905A JP 2003349905 A JP2003349905 A JP 2003349905A JP 3708097 B2 JP3708097 B2 JP 3708097B2
Authority
JP
Japan
Prior art keywords
robot
end effector
operation panel
manual feed
screen
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2003349905A
Other languages
English (en)
Other versions
JP2005111618A (ja
Inventor
淳 渡邉
達也 近江
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
FANUC Corp
Original Assignee
FANUC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by FANUC Corp filed Critical FANUC Corp
Priority to JP2003349905A priority Critical patent/JP3708097B2/ja
Priority to EP04023913A priority patent/EP1522912B1/en
Priority to US10/959,434 priority patent/US7181315B2/en
Priority to DE602004023040T priority patent/DE602004023040D1/de
Publication of JP2005111618A publication Critical patent/JP2005111618A/ja
Application granted granted Critical
Publication of JP3708097B2 publication Critical patent/JP3708097B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1671Programme controls characterised by programming, planning systems for manipulators characterised by simulation, either to verify existing program or to create and verify new program, CAD/CAM oriented, graphic oriented programming systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/06Control stands, e.g. consoles, switchboards
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D3/00Control of position or direction
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40311Real time simulation
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40562Position and orientation of end effector, teach probe, track them

Description

本発明は、ロボットを手動送りする装置に関し、更に詳しく言えば、ロボットに支持されたエンドエフェクタの姿勢変更に用いられる手動送り装置に関する。
一般に、ロボットにエンドエフェクタを支持して行なわれるアプリケーションにおいては、そのエンドエフェクタがワークに対して行なう作業の教示等のために、エンドエフェクタの姿勢を手動送りで調整することが広く行なわれている。例えば、ワークのハンドリングを行うロボットでは、治具上のワークをロボットに取り付けたハンドで把持する作業や、逆にハンドで把持したワークを治具上に載置する作業を教示する際に、ハンドの姿勢を何度も変更することが必要になる。
ここで、手動送りを行なうには、各軸送り(ロボット軸を指定して、その軸を手動で移動させる)を別にすれば、「手動送りが準拠する座標系」(以下、単に「手動送り座標系」とも言う)を指定する必要がある。指定される座標系には、ツール先端点を原点とするツール座標系が多用されているが、新たに手動送り用の座標系を設定し、それを指定する場合もある。手動送り用の座標系の設定には、いわゆる「3点教示」、「6点教示」などの手法が用いられる。
いずれにしろ、手動送り座標系を、ハンド(エンドエフェクタ)上あるいはその近傍に設定し、設定した手動送り座標系(ツール座標系であればツール先端点)の原点位置を中心として、手動送り座標系上での方向指定の手動送り操作で、その回りの方向に姿勢を変更する。ここで、手動送り座標系は一般に直交座標系であり、例えば教示操作盤上の6個のキー(+X軸周り、−X軸周り、+Y軸周り、−Y軸周り、+Z軸周り、−Z軸周り)の中から一つを選択操作し、ツール先端点の周りでツール座標系の各座標軸周りでの姿勢変更を行えるようになっている。
しかし、このやり方で、ハンド姿勢変更の中心点に希望する位置に一致する手動送り座標系の原点を設定しようとしても、それを視覚的に定めることができず、試行錯誤的な操作を繰り返す必要があった。また、一旦適正な位置に手動送り座標系を設定できたとしても、状況が変われば、再度設定を変える必要が生じるため、上記のやり方では、直交座標系(手動送り座標系)上での姿勢方向の手動送り操作が効果的に使用できなかった。
そこで、上記手法の変形として、少し姿勢を変えてはハンドの位置を調整し、また少し姿勢を変えてはハンドの位置を調整するといった、煩雑で熟練が必要な操作を行う作業によって、ハンド姿勢の調整を行なう手法も利用されていた。また、更に別の手法としては、ハンド上あるいはその近傍の複数の箇所に、予めツール先端点(一般には、手動送り用座標系;以下、同様)を複数設定しておき、その時々で有効となるツール先端点(一般には、手動送り用座標系の原点;以下、同様)を切替えながら、ハンドの姿勢を直交座標系での姿勢方向の手動送り操作で変更する方法もある。しかしこの手法でも、全ての状況に対応できるほど多数のツール先端点を指定することは現実的には不可能であり、さらに、複数のツール先端点を設定するには多くの工数を必要とするため、有効な解決方法とは言えない。このようなハンド姿勢調整作業における問題点は、エンドエフェクタがハンド以外のものであっても同様に存在する。
また、ロボットが実機ではなく、オフラインプログラミングシステム上のロボット、即ち、シミュレーションロボットである場合についても、シミュレーションシステム上で用意された仮想的な3次元空間(以下、「シミュレーション空間」とも言う)上でシミュレーションロボットに同様の姿勢変更を行なわせるケースでも同様の問題が生じ得る。即ち、シミュレーション空間でシミュレーションロボットの姿勢変更を手動送りで行なわせる場合にも、手動送りが準拠する座標系を適正且つ簡便に設定できるようにはなっておらず、オフラインシミュレーション上のエンドエフェクタの姿勢を自由に調整して、適正なオフライン教示を効率的に行なうことが困難であった。
上述したように従来手法に問題があるにも関わらず、有効な問題解決手段についての提案は未だなされておらず、それを記した公知文献は見当らない。そこで、本発明の目的は、特に熟練者でなくとも容易にロボットの実機あるいはシミュレーションロボットの手動送りを行えるようにし、上記したようなエンドエフェクタ姿勢調整作業を、特に熟練者でなくとも容易に遂行できるようにすることにある。
本発明は、グラフィック表示機能を有する教示操作盤を利用して、3Dグラフィック上で手動送り座標系を指定することができるようにして上記問題を解決したものである。
具体的に言えば、先ず請求項1の発明では、グラフィック表示機能を有する教示操作盤を備え、該教示操作盤に対する操作を受付けてロボットに付けられたエンドエフェクタの姿勢を変更するロボットの手動送り装置に、少なくとも前記エンドエフェクタの形状モデル情報を記憶する記憶手段と、前記教示操作盤の画面に前記エンドエフェクタの形状モデルをグラフィック表示する手段と、前記エンドエフェクタの形状モデルがグラフィック表示された画面上で、前記エンドエフェクタの姿勢変更中心位置の指定指令を受付ける手段と、前記指定された画面上の位置に対応する3次元位置を算出する手段と、エンドエフェクタの姿勢変更指令を受付けると、算出された前記3次元位置の回りに、前記エンドエフェクタの姿勢を変更する手段が装備される。
また、請求項1の発明では、ロボット制御装置と、該ロボット制御装置に接続され、グラフィック表示機能を有する教示操作盤とを備え、該教示操作盤に対する操作を受付けてロボットに付けられたエンドエフェクタの姿勢を変更するロボットの手動送り装置において、前記ロボット制御装置に、前記ロボット、前記エンドエフェクタ及び周辺機器を含めたロボットシステムのレイアウトの現在状態の情報を求める手段が設けられる。
そして、前記教示操作盤には、前記ロボット制御装置から前記レイアウトの現在状態の情報を取得して該教示操作盤の画面にグラフィック表示する手段と、前記レイアウトの現在状態がグラフィック表示された画面上で、前記エンドエフェクタの姿勢変更中心位置の指定指令を受付ける手段と、前記指定された画面上の位置を前記ロボット制御装置に転送する手段が設けられ、さらに、前記ロボット制御装置には、前記教示操作盤より転送された、前記指定された画面上の位置に対応する3次元位置を算出する手段と、エンドエフェクタの姿勢変更指令を受付けると、算出された前記3次元位置の回りに、前記エンドエフェクタの姿勢を変更する手段が設けられる。
請求項3に記載された発明では、ロボット制御装置と、該ロボット制御装置に通信手段によって接続された情報処理装置と、前記ロボット制御装置に接続され、グラフィック表示機能を有する教示操作盤とを備え、該教示操作盤に対する操作を受付けてロボットに付けられたエンドエフェクタの姿勢を変更するロボットの手動送り装置において、前記情報処理装置に、前記ロボット制御装置から前記ロボットの現在の状態を取得して該ロボット、前記エンドエフェクタ及び周辺機器を含めたロボットシステムのレイアウトの現在状態の情報を求める手段が設けられる。
そして、前記教示操作盤には、前記情報処理装置から前記ロボット制御装置を経由して、前記ロボットシステムのレイアウトの現在状態の情報を取得して該教示操作盤の画面にグラフィック表示する手段と、前記レイアウトの現在状態がグラフィック表示された画面上で、前記エンドエフェクタの姿勢変更中心位置の指定指令を受付ける手段と、前記指定された画面上の位置を前記ロボット制御装置を経由して前記情報処理装置に転送する手段が設けられ、さらに、前記情報処理装置には、前記教示操作盤より転送された、前記指定された画面上の位置に対応する3次元位置を算出する手段と、該算出した3次元位置を前記ロボット制御装置に転送する手段と、前記ロボット制御装置は、エンドエフェクタの姿勢変更指令を受付けると、算出された前記3次元位置の回りに、前記エンドエフェクタの姿勢を変更する手段が設けられる。
請求項4に記載された発明では、グラフィック表示機能を有するオフラインプログラミングシステムのシミュレーションロボットに付けられたエンドエフェクタの姿勢を変更するロボットの手動送り装置に、少なくとも前記エンドエフェクタの形状モデル情報を記憶する記憶手段と、前記エンドエフェクタの形状モデルがグラフィック表示された画面上で、前記エンドエフェクタの姿勢変更中心位置の指定指令を受付ける手段と、前記指定された画面上の位置に対応する3次元位置を算出する手段と、エンドエフェクタの姿勢変更指令を受付けると、算出された前記3次元位置の回りに、前記エンドエフェクタの姿勢を変更する手段が装備される。
そして、請求項5の発明は、上記各発明に係るロボット手動送り装置おいて、前記エンドエフェクタが可動部を有する場合に、前記可動部に前記エンドエフェクタの姿勢変更の中心位置が指定されたとき、前記可動部の動作に合わせて前記中心位置を変更する手段を装備させたものである。
本発明により、ロボット手動送りが容易となるので、熟練者でなくても適切なロボットの手動送り操作が可能となる。また、そのことを通して、ロボットシステムの教示の時間を短縮することが可能になる。さらに、オフラインプログラミング上のシミュレーションロボットの手動送りに適用することで、オフラインプログラミングに要する時間を短縮できる。
図1は、本発明の1つの実施形態における全体システム構成の概要を示した図である。同図において、手動送りされるロボット(実機の機構部;以下、単に「ロボット」という)は符号1で示されており、その各軸の動作がロボット制御装置10で制御されるようになっている。ロボット1のアーム先端にはエンドエフェクタが装着されている。エンドエフェクタはここでは可動式のハンド2である。その開閉は、例えばロボット1の付加軸(例えば6軸ロボットの第7軸)の動作で行なわれ、ロボット制御装置10は周知の態様でその動作制御を行い、また、ハンド2の現在の状態(付加軸の現在位置)の把握を随時行えるようになっている。
ロボット制御装置10には、ロボット1の他、教示操作盤20と周辺機器30が、それぞれインターフェイス(図示省略)を介して接続されている。教示操作盤20は、図2に示すように、図示を省略したCPU、メモリ等の他、表示画面21と各種の操作キー等を備えたもので、指定された座標系上でロボットを並進/回転させる手動送りの他、通常の機能(プログラムの編集や修正、位置データの入力や修正等)を備えている。図2において、手動送りの操作キーには符号a1〜a4、b1〜b4、c1〜c4が付されている。これら手動送りの操作の各キーは、押下状態(操作時)と非押下状態(非操作時)を持ち、押下状態(操作時)では下記のロボット移動を指定された座標系(手動送り座標系)上で小刻みに行う信号をロボット制御装置10に送り続け、押下状態を止めれば現在位置でロボット1を停止させる信号をロボット制御装置10に送るようになっている。
キーa1;+X軸方向への並進移動
キーa2;−X軸方向への並進移動
キーb1;+Y軸方向への並進移動
キーb2;−Y軸方向への並進移動
キーc1;+Z軸方向への並進移動
キーc2;−Z軸方向への並進移動
キーa3;+X軸周りの回転移動
キーa4;−X軸周りの回転移動
キーb3;+Y軸周りの回転移動
キーb4;−Y軸周りの回転移動
キーc3;+Z軸周りの回転移動
キーc4;−Z軸周りの回転移動
周辺機器30は例えばワーク搬送装置、工作機械等で、ロボット制御装置10からのリクエスト信号に応じて、随時、現在状態(例えばワーク搬送位置、工作機械のワーク導入扉の開閉状態等)を表わす信号をI/O信号としてロボット制御装置10に送るようになっている。
ここまで説明したシステムの構成と機能自体は公知のものである。以下、本発明の特徴を反映させた各部の構成と機能(特に、教示操作盤の画面上での手動送り座標系の指定機能)について説明する。
教示操作盤20は、例えばキーdを押下することで、「現在状態表示モード」に切り替わり、ロボット制御装置10から、ロボット1、ハンド2及び周辺機器30の現在状態のデータを十分短い周期で繰り返し受け取り、それらの現在状態を画面21上に3Dグラフィック表示するためのソフトウェアが装備されている。ロボット1、ハンド2、周辺機器30等の形状データやレイアウトデータは、例えば動作シミュレーション機能を備えたオフラインプログラミング装置で作成されたものが、予め教示操作盤20のメモリに格納されている。
3D表示の視線方向は、例えば教示操作盤20のキーe1〜e6を用いて自由に選べるようになっている。そして、オペレータが、このグラフィック表示された画面上で「手動送り座標系」の希望設定位置を指定し、例えばキーf(手動送り座標系設定キー)を押下することで、指定された位置に原点を持つ手動送り座標系が自動設定されるようになっている。表示画面の例、手動送り座標系の指定例、その際の処理等については後述するとして、先ず全体の手順の流れを示せば、図3のようになる。手順の各ステップの要点は下記の通りである。
ステップS1;教示操作盤20のキーdを押下して現在状態表示モードとし、画面21上に3Dグラフィック画像を表示させる。表示される画像には、少なくともハンド(エンドエフェクタ)2の現在状態を表わす画像が含まれる。そのために、ロボット制御装置10からロボット1の現在位置データ、ハンド2の開閉位置データ(付加軸の位置データ)を受け取り、記憶されているロボットのレイアウトデータ、ハンド2の形状データを合わせて、レイアウト空間内でのハンド2の占有領域が計算される。この計算結果に基づき、ハンド2の3D表示が行なわれる。
また、必要に応じて、ロボット1、周辺機器30、ワークなどの現在状態も併せて3Dグラフィック表示する。ロボット1の表示には、ハンド2の表示のためにロボット制御装置10から受け取ったロボット1の現在位置データ、記憶されているロボット1の形状データとレイアウトデータが利用できる。これらデータから、ハレイアウト空間内でのロボット1の占有領域が計算される。この計算結果に基づき、ロボット1(その一部または全部)の3D表示が行なわれる。
周辺機器30の表示については、ロボット制御装置10から周辺機器30の現在状態を表わす信号を受け取り、予め記憶させた周辺機器30の形状データと合わせて表示内容が決定される(後述する例を参照)。
更に、例えばハンド2にワークを把持した状態を表示させたい場合には、ハンドの形状データに付帯乃至包含させる形でワーク形状データ、及び、把持状態におけるハンド2との相対位置姿勢関係を教示操作盤20に記憶しておけば、ハンド2に把持されたワークの画像も3D表示できる(後述する例を参照)。
また、例えば周辺機器30が治具上にワークを載せて把持位置まで搬送する搬送装置(例えば工作機械の加工部品送り出し部)である場合、周辺機器30の現在状態でワークの位置が決まるので、ワーク形状データと併せて、ワークの現在位置を3D表示できる。
ステップS2;ユーザ(オペレータ)は、画面21上の希望する位置(点)を指定する。指定位置の選択は、例えばキー操作でポインタマークを動かすことで行なうことができるが、画面21にタッチパネル機能を持たせ、オペレータが針状のタッチツールで希望する点に触れることでそこにポインタを移動させ、手動送り座標系設定キーfを押下することで、指定操作完了としても良い。
ステップS3;教示操作盤20のCPUは、画面21上での位置指定を受けて、その点が対応する3次元位置(姿勢調整中心位置)を計算する。なお、ロボット、ハンド、周辺機器、ワーク等の形状データを含む、レイアウト関連データをロボット制御装置に用意しておき、教示操作盤20の画面21上での位置指定を受けて、その点の画面上位置データをロボット制御装置に転送し、ロボット制御装置のCPUがその点に対応する3次元位置(姿勢調整中心位置)を計算するようにしても良い。
ステップS4;手動送り座標系の姿勢(X軸、Y軸、Z軸の方向)を決めるためのデータをロボット制御装置10から受け取り、ステップS3で求めた3次元位置(姿勢調整中心位置)を原点とする手動送り座標系を設定する。設定された手動送り座標系の原点位置と各座標軸の方向を表わすデータは、ロボット制御装置に送られるとともに、教示操作盤のメモリにも格納される。また、手動送り座標系の原点位置と各座標軸の方向は直ちに画面上に表示される。
ここで、手動送り座標系の姿勢の決め方は適宜選択することが可能である。例えば「現在有効にされているツール座標系の姿勢」と一致させるように決めることができるし、あるいは、ロボットに設定されているワールド座標系の姿勢と同じ姿勢としても良い。また、後述する例のように、画面21で指定される図形に応じて定まる面の方向などを特定の軸(例えばZ軸)に対応させるような決め方もある。
ステップS5;手動送り座標系が設定されたら、オペレータは、キーa3、a4、b3、b4、c3、c4を使い分けて希望するエンドエフェクタ(ここではハンド2)の姿勢調整を行なう。この姿勢調整の中心点は、設定された手動送り座標系の原点となる。姿勢調整の中心点を変えたい場合には、例えば教示操作盤20の設定解除キーg(図2参照)を押下して、再度、ステップS2以下を実行する。
なお、姿勢調整過程で変化するハンド2及びその周辺(例えばアーム先端部)はリアルタイムで画面21に映し出される。また、もしも、周辺機器30の状態に変化があればそれも画面21に映し出される。更に、もしも手動送り座標系の原点がハンド2上に設定されており、且つ、例えば教示操作盤20(図2参照)のキーh1(ハンド開キー)、h2(ハンド閉キー)を操作してハンド2の開閉を行なった場合には、その開閉動作に追随して、手動送り座標系の原点位置が自動修正されるようになっている。そのための処理フローを図4に示した。このフローは、上記ステップS4の完了直後に開始される。各ステップの要点は、下記の通りである。
ステップSS1;設定された手動送り座標系の原点はハンド上にあるかを判断し、ハンド上にあればステップSS2へ進み、ハンド上になければ処理を終了する。
ステップSS2;ハンドの現在位置のデータ(付加軸の現在位置)をロボット制御装置から受け取り、前回のハンドの現在位置と比較し、変化があればステップSS3へ進み、なければ次回処理周期で再度ステップSS2を実行する。なお、最初の比較では、無条件に「変化なし」として、次回処理周期で再度ステップSS2を実行する。
ステップSS3;ハンドの現在位置の変化量に対応する原点位置を計算し、手動送り座標系の設定データを更新する。また、画面上での送り座標系の表示位置も更新する。以下、ステップSS2、SS3をハンドの状態に応じて繰り返し実行する。但し、設定解除キーgが押下されたら、即時、処理は終了する。なお、このようなエンドエフェクタ自体の状態変化に追随した手動送り座標系の位置変更は、エンドエフェクタがハンドの場合に限られるものではない。例えば、エンドエフェクタがスポット溶接ガンである場合に、スポット溶接ガンの可動部上に設定された手動送り座標系の原点位置変更を同様の態様で行なうことができる。 また、エンドエフェクタの現在状態を知るためのデータは、本実施形態では「付加軸の現在位置」としたが、エンドエフェクタの現在状態を知ることができる限り、他のデータであってもかまわない。例えば、ハンド開状態とハンド閉状態の間の変位量を予め入力しておき、現在状態を開状態か閉状態かの2段階で知り、それに応じて手動送り座標系の原点位置変更を行なっても良い。
次に、図5、図6を参照して、教示操作盤20の画面21を使って行なわれる手動送り座標系設定の例について説明する。先ず図5を参照すると、上述したステップS1(キーdの押下)で画面21上に表示された3D画像と、手動送り座標系の原点指定(ポインタによるピック)の例が示されている。本例で想定されている作業は、搬送装置(周辺機器の例)30上に載せて所定位置まで搬送されてきた治具32に、ワークを載置する作業である。表示されている画像は、ハンド2とそれに把持されたワークW、周辺機器30(ここでは治具を搬送するコンベアを符号30で示した)の現在状態を代表する治具31の現在位置の画像である。
オペレータは、これらの画像が表示された画面を見ながら、ハンド2の姿勢調整の中心点をポインタでピックする。ここでは、ワークW上の点Aをピックしたものとする。すると、上述したステップS3、S4が実行され、点Aを原点とする手動送り座標系が決定される。点Aの3次元位置は、点AがワークW上を指しているので、ワークWの占有領域の輪郭と、点Aを通る3D表示の視線に対応する直線との交点位置として計算される。決定結果は、ロボット制御装置10に送られ、手動送り座標系の設定が完了する。また、設定された座標系は、例えば図6に示したような画像で画面21に表示される。座標軸の方向の決め方は既述した通りである。
オペレータは、この画面を見ながら上記したステップS5で説明した態様でキーa3、a4、b3、b4、c3、c4を使い分けて希望するエンドエフェクタ(ここではハンド2)の姿勢調整を行なう。この姿勢調整の中心点は、言うまでもなく点Aとなる。既述の通り、姿勢調整過程で変化するハンド2及びその周辺(例えばアーム先端部)はリアルタイムで画面21に映し出される。また、もしも、周辺機器30の状態に変化があればそれも画面21に映し出され、ハンド2の開閉があればそれも画面21に映し出される。
更に、もしも手動送り座標系の原点がハンド2上(図5中に点Bで例示)に設定されている場合にハンド開閉があれば、上述したステップSS1〜SS3の処理により、手動送り座標系の原点位置が自動的に修正される。
手動送り座標系の原点の指定の仕方には、別のやり方もある。その第1の例を図7〜図8を参照して説明する。これは2方向からの点指定で手動送り座標系の原点の3D位置を確定させるやり方である。先ず、3D表示の視線方向を例えば教示操作盤20のキーe1〜e6を適宜操作して、レイアウト空間で定義されている座標系(例えば、ロボットに設定されているワールド座標系と一致)の1つの座標軸方向からの視線の3D表示とする。ここでは、図7に示したように、+Z方向からの視線で3D表示を行なうものとする。そして、図7に示した画像上で希望する点Cを指定する。これにより、手動送り座標系の原点位置のX座標とY座標が決まる。次いで、図8に示したように、+X方向からの視線で3D表示に切換え、図8に示した画像上で希望する点Dを指定する。これにより、手動送り座標系の原点位置のZ座標が決まる。これで、手動送り座標系の原点位置の3次元位置が確定するので、以下、前述した処理で手動送り座標系が設定され、表示される。図9は、設定された座標系の表示例を示す。この2方向からの指定による方法は、希望する原点が画面で見え難い位置にある場合や、何も物体が映っていない空中の点(例えば、ハンドの左右把持部の中間点)である場合などにおいても適用できる。
次に、手動送り座標系の原点の指定の仕方の第2の変形例を図10、図11を参照して説明する。これは3D表示画面上で手動送り座標系の原点を直接的に指定する代わりに、図形乃至図形要素を指定し、予め定められた所定のルールに従って座標系原点に定めるやり方である。図10は、3D画面上で円弧を指定する様子を表わしている。図10において、符号33は例えば治具32に形成されている穴で、棒状のワーク(ハンドに把持されているが、図示は省略)をこの穴に差し込む作業を教示した場合などに、この穴をポインタでピックする。すると、教示操作盤20のCPUは、この円弧33の中心の3次元位置を計算し、これを手動送り座標系の原点位置とする。
座標系の姿勢は、例えば+Z軸方向を、円弧33が定める平面に垂直で、且つ、レイアウト座標系上でZ座標値が小から大へ向かう方向と一致させるように定める。但し、円弧33が定める平面に立てた法線が、レイアウト座標系のXY平面に平行である場合には、X座標値が小から大へ向かう方向と一致させるように定める。それでも決まらない場合は、Y座標値が小から大へ向かう方向と一致させるように定める。また、+X軸方向は、例えばその「レイアウト座標系のXY平面上への射影」が、レイアウト座標系の+X軸方向に一致するように決めれば良い。このようにして、+Z軸方向と+X軸方向が決まれば、右手系の直交座標系は一意的に決まる。図11は、このようにして設定された手動送り座標系の表示例を示す。
ここで、円弧に代えて物体の面を指定する手法も採用し得る。指定された面が決まった時、例えばその面を取り囲む輪郭図形の重心位置を手動送り座標系の原点位置とする。座標系の姿勢の決め方は、上記の円弧の例と同様とする。物体の両端が明確な「線分」を指定する手法も採用し得る。その場合、例えば指定された線分の両端の中点を手動送り座標系の原点位置とすれば良い。座標系の姿勢の決め方は、例えば現在設定されているツール座標系の姿勢を転用すれば良い。
ところで、以上説明した実施形態では、図1に示したシステム構成を前提にしたが、パーソナルコンピュータなどの情報機器をレイアウト表示に必要な計算等に援用することができる。その場合の構成例を図12に示した。
同図において、手動送りされるロボット(実機の機構部;以下、単に「ロボット」という)は符号1で示されており、その各軸の動作がロボット制御装置10で制御される。ロボット1のアーム先端には、上述した実施形態と同じく、可動開閉式のハンド2が装着されている。ロボット制御装置10には、ロボット1、教示操作盤20、周辺機器30に加えて、パーソナルコンピュータ40が接続されている。教示操作盤20は基本的には、上述した実施形態で用いたもの同じものであるが、3Dグラフィック表示に関連したデータの記憶、取扱い、計算等について若干の違いがある。
即ち、図12に示したシステム構成では、3Dグラフィック表示に関連したデータの記憶、取扱い、計算等についてかなりの部分をパーソナルコンピュータ40に担わしており、図13のフローチャートに示した手順で手動送り座標系の設定を行なう。各ステップの要点は次のようになる。
ステップT1;例えば教示操作盤20のキーdを押下すると、それがロボット制御装置1を介してパーソナルコンピュータ40に伝えられる。するとパーソナルコンピュータ40は、ロボット1の現在位置を表わすデータ、周辺機器30の現在状態を表わすデータ、ハンド2の開閉位置(例えば付加軸の現在位置)等をロボット制御装置10から取得する。
ステップT2;パーソナルコンピュータ40は、そのメモリに予め格納されたロボット、ハンド、周辺機器、ワーク等の形状データ、レイアウトデータ等ど、ステップT1でロボット制御装置10から受け取ったデータに基づいて、少なくともエンドエフェクタの画像を含む3Dグラフィック画像を表わす信号を作成する。この信号を用いて実際にパーソナルコンピュータ40の画面上に3Dグラフィック表示を行なうこともできる。
ステップT3;ステップS2で作成されるエンドエフェクタの画像を含む3Dグラフィック画像を表わす信号を、ロボット制御装置10を介して教示操作盤20に転送し、教示操作盤20の画面21上にエンドエフェクタの画像を含む3Dグラフィック画像を表示させる。これにより表示される画像は、上述した実施形態で表示されるものと同様である。
ステップT4;上述した実施形態で説明したと同様のやり方で、手動送り座標系の原点(エンドエフェクタの姿勢変更の中心とする点)を指定する。
ステップT5;ステップT4で指定した点の情報をロボット制御装置10経由でパーソナルコンピュータ40に転送する。
ステップT6;これを受けたパーソナルコンピュータ40のCPUは、指定した点の3次元位置を計算する。計算方法は実施形態で説明したと同様である。
ステップT7;パーソナルコンピュータ40は、手動送り座標系の姿勢(X軸、Y軸、Z軸の方向)を決めるためのデータをロボット制御装置10から受け取り、ステップT6で求めた3次元位置(姿勢調整中心位置)を原点とする手動送り座標系を設定する。設定された手動送り座標系の原点位置と各座標軸の方向を表わすデータは、ロボット制御装置に送られるとともに、教示操作盤にも転送され、設定された手動送り座標系が、例えば図6の如く、画面21上に表示される。
ステップT8;手動送り座標系が設定されたら、オペレータは、教示操作盤20のキーa3、a4、b3、b4、c3、c4を使い分けて希望するエンドエフェクタ(ここではハンド2)の姿勢調整を行なう。この姿勢調整の中心点は、設定された手動送り座標系の原点となる。姿勢調整の中心点を変えたい場合には、例えば教示操作盤20の設定解除キーg(図2参照)を押下して、再度、ステップT1以下を実行する。この作業中も、上述した実施形態と同様、画面21にエンドエフェクタの現在姿勢、周辺機器の現在状態などがリアルタイムで表示される。但し、そのための計算とそれに基づく表示データ作成はパーソナルコンピュータ40によって行なわれ、それが教示操作盤20に転送され、画面21上のグラフィック表示に利用される。
なお、手動送り座標系の原点位置の指定と座標系設定(ステップT4〜ステップT7)は、前述したように、2方向からの点指定とそれに基づく座標系設定(図7〜図9と関連説明参照)や、図形乃至図形要素の指定とそれに基づく座標系設定(図10、図11と関連説明参照)によって行なうこともできる。その他、ハンド開閉に伴う原点修正なども実行可能である。但し、そのための計算とそれに基づく表示データ作成は教示操作盤20に代えてパーソナルコンピュータ40内で行なわれ、表示内容を表わすデータがロボット制御装置10を介して教示操作盤20へ転送され、画面21の表示に利用される。
更に、図12に示したシステム構成において、ロボット1の実機とロボット制御装置10をシステムから切り離し、パーソナルコンピュータ40にオフラインシミュレーション装置の機能を持つものを採用するとともに、教示操作盤20とパーソナルコンピュータ40を直結し(あるいはロボット制御装置10をデータ転送のみに利用し)、教示操作盤20の操作で、ロボットの実機ではなく、パーソナルコンピュータ40上に用意されたシミュレーションロボットを動作(画面上で動作)させるようにしても良い。その場合、上記ステップT1〜ステップT8は、図14のフローチャートに示した手順に置き換えられる。各ステップの要点は、次の通りである。
ステップU1;教示操作盤20のキーdを押下すると、それがパーソナルコンピュータ40に伝えられる。するとパーソナルコンピュータ40は、用意された動作シミュレーション用のシミュレーションロボットが、エンドエフェクタの姿勢調整直前の位置にある状態を、エンドエフェクタ画像や周辺機器画像とともにパーソナルコンピュータ40の画面上に3Dグラフィック画像で表示する。なお、表示されたシミュレーションロボットの位置、姿勢が不適当であれば、教示操作盤20の手動送り操作で、シミュレーションロボットの位置、姿勢を姿勢調整直前にふさわしいものとする。この手動送りの座標系には、例えばシミュレーションシステム上で設定されているワールド座標系やツール座標系を指定すれば良い。
ステップU2;パーソナルコンピュータ40は、その画像を表わす信号を教示操作盤20に転送し、教示操作盤20の画面21上にエンドエフェクタの画像を含む3Dグラフィック画像を表示させる。これにより表示される画像は、上述した実施形態で表示されるものと同様である。
ステップU3;上述した実施形態で説明したと同様のやり方で、手動送り座標系の原点(エンドエフェクタの姿勢変更の中心とする点)を指定する。
ステップU4;ステップU3で指定した点の情報をパーソナルコンピュータ40に転送する。
ステップU5;これを受けたパーソナルコンピュータ40のCPUは、指定した点の3次元位置を計算する。計算方法は実施形態で説明したと同様である。
ステップU6;パーソナルコンピュータ40は、手動送り座標系の姿勢(X軸、Y軸、Z軸の方向)を決めるためのデータをシミュレーション動作のためのデータから選び(例えばツール座標系の姿勢を選択)、ステップU5で求めた3次元位置(姿勢調整中心位置)を原点とする手動送り座標系を設定する。設定された手動送り座標系の原点位置と各座標軸の方向を表わすデータは、パーソナルコンピュータ40に記憶されるとともに、教示操作盤にも転送され、設定された手動送り座標系が、例えば図6の如く、画面21上に表示される。
ステップU7;手動送り座標系が設定されたら、オペレータは、教示操作盤20のキーa3、a4、b3、b4、c3、c4を使い分けて希望するエンドエフェクタ(ここではシミュレーションロボットに装着された仮想的なハンド2)の姿勢調整を行なう。この姿勢調整の中心点は、設定された手動送り座標系の原点となる。姿勢調整の中心点を変えたい場合には、例えば教示操作盤20の設定解除キーg(図2参照)を押下して、再度、ステップU1以下を実行する。この作業中も、上述した実施形態と同様、画面21にエンドエフェクタの現在姿勢、周辺機器の現在状態などがリアルタイムで表示される。但し、そのための計算とそれに基づく表示データ作成はパーソナルコンピュータ40によって行なわれ、それが教示操作盤20に転送され、画面21上のグラフィック表示に利用される。
なお、手動送り座標系の原点位置の指定と座標系設定(ステップU3〜ステップU6)は、前述したように、2方向からの点指定とそれに基づく座標系設定(図7〜図9と関連説明参照)や、図形乃至図形要素の指定とそれに基づく座標系設定(図10、図11と関連説明参照)によって行なうこともできる。その他、ハンド開閉に伴う原点修正なども実行可能である。但し、そのための計算とそれに基づく表示データ作成は、パーソナルコンピュータ40内で行なわれ、表示内容を表わすデータが教示操作盤20へ転送され、画面21の表示に利用される。
本発明の1つの実施形態における全体システム構成の概要を示した図である。 実施形態で使用される教示操作盤について説明する図である。 実施形態における手順の流れを記したフローチャートである。 ハンド開閉に応じた手動送り座標系の原点位置修正の処理について説明するフローチャートである。 手動送り座標系原点位置を画面上での指定の仕方の例を示す図である。 図5に示した指定方法で手動送り座標系の原点を指定された手動送り座標系の表示例を示す図である。 +Z方向の視線による3D表示画面上での原点指定について説明する図である。 +X方向の視線による3D表示画面上での原点指定について説明する図である。 図7及び図8に示した指定方法で手動送り座標系の原点を指定された手動送り座標系の表示例を示す図である。 3D表示画面上で円弧を指定して、手動送り座標系の原点を定める手法について説明する図である。 図10に示した指定方法で手動送り座標系の原点を指定された手動送り座標系の表示例を示す図である。 本発明の実施形態における全体システム構成の変形例の概要を示した図である。 図12に示したシステム構成を採用した場合における手順の流れを例記したフローチャートである。 シミュレーションロボットに対して手動送りを行なう例において、手順の流れを例記したフローチャートである。
符号の説明
1 ロボット(機構部)
2 ハンド(エンドエフェクタ)
10 ロボット制御装置
20 教示操作盤
30 周辺機器(ワーク搬送装置)
31,32 治具
33 円弧(穴)

Claims (5)

  1. グラフィック表示機能を有する教示操作盤を備え、該教示操作盤に対する操作を受付けてロボットに付けられたエンドエフェクタの姿勢を変更するロボットの手動送り装置において、
    少なくとも前記エンドエフェクタの形状モデル情報を記憶する記憶手段と、
    前記教示操作盤の画面に前記エンドエフェクタの形状モデルをグラフィック表示する手段と、
    前記エンドエフェクタの形状モデルがグラフィック表示された画面上で、前記エンドエフェクタの姿勢変更中心位置の指定指令を受付ける手段と、
    前記指定された画面上の位置に対応する3次元位置を算出する手段と、
    エンドエフェクタの姿勢変更指令を受付けると、算出された前記3次元位置の回りに、前記エンドエフェクタの姿勢を変更する手段とを備えた、ロボットの手動送り装置。
  2. ロボット制御装置と、該ロボット制御装置に接続され、グラフィック表示機能を有する教示操作盤とを備え、該教示操作盤に対する操作を受付けてロボットに付けられたエンドエフェクタの姿勢を変更するロボットの手動送り装置において、
    前記ロボット制御装置は、前記ロボット、前記エンドエフェクタ及び周辺機器を含めたロボットシステムのレイアウトの現在状態の情報を求める手段を備え、
    前記教示操作盤は、前記ロボット制御装置から前記レイアウトの現在状態の情報を取得して該教示操作盤の画面にグラフィック表示する手段と、前記レイアウトの現在状態がグラフィック表示された画面上で、前記エンドエフェクタの姿勢変更中心位置の指定指令を受付ける手段と、前記指定された画面上の位置を前記ロボット制御装置に転送する手段とを備え、
    さらに、前記ロボット制御装置は、前記教示操作盤より転送された、前記指定された画面上の位置に対応する3次元位置を算出する手段と、エンドエフェクタの姿勢変更指令を受付けると、算出された前記3次元位置の回りに、前記エンドエフェクタの姿勢を変更する手段とを備えた、ロボットの手動送り装置。
  3. ロボット制御装置と、該ロボット制御装置に通信手段によって接続された情報処理装置と、前記ロボット制御装置に接続され、グラフィック表示機能を有する教示操作盤とを備え、該教示操作盤に対する操作を受付けてロボットに付けられたエンドエフェクタの姿勢を変更するロボットの手動送り装置において、
    前記情報処理装置は、前記ロボット制御装置から前記ロボットの現在の状態を取得して該ロボット、前記エンドエフェクタ及び周辺機器を含めたロボットシステムのレイアウトの現在状態の情報を求める手段を備え、
    前記教示操作盤は、前記情報処理装置から前記ロボット制御装置を経由して、前記ロボットシステムのレイアウトの現在状態の情報を取得して該教示操作盤の画面にグラフィック表示する手段と、前記レイアウトの現在状態がグラフィック表示された画面上で、前記エンドエフェクタの姿勢変更中心位置の指定指令を受付ける手段と、前記指定された画面上の位置を前記ロボット制御装置を経由して前記情報処理装置に転送する手段とを備え、
    さらに、前記情報処理装置は、前記教示操作盤より転送された、前記指定された画面上の位置に対応する3次元位置を算出する手段と、該算出した3次元位置を前記ロボット制御装置に転送する手段と、
    前記ロボット制御装置は、エンドエフェクタの姿勢変更指令を受付けると、
    算出された前記3次元位置の回りに、前記エンドエフェクタの姿勢を変更する手段とを備えた、ロボットの手動送り装置。
  4. グラフィック表示機能を有するオフラインプログラミングシステムのシミュレーションロボットに付けられたエンドエフェクタの姿勢を変更するロボットの手動送り装置において、
    少なくとも前記エンドエフェクタの形状モデル情報を記憶する記憶手段と、
    前記エンドエフェクタの形状モデルがグラフィック表示された画面上で、前記エンドエフェクタの姿勢変更中心位置の指定指令を受付ける手段と、
    前記指定された画面上の位置に対応する3次元位置を算出する手段と、
    エンドエフェクタの姿勢変更指令を受付けると、算出された前記3次元位置の回りに、前記エンドエフェクタの姿勢を変更する手段とを備えた、ロボットの手動送り装置。
  5. 前記エンドエフェクタが可動部を有し、前記可動部に前記エンドエフェクタの姿勢変更の中心位置が指定されたとき、前記可動部の動作に合わせて前記中心位置を変更する手段を備えた、請求項1乃至4の内、何れか1項に記載のロボットの手動送り装置。
JP2003349905A 2003-10-08 2003-10-08 ロボットの手動送り装置 Expired - Fee Related JP3708097B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2003349905A JP3708097B2 (ja) 2003-10-08 2003-10-08 ロボットの手動送り装置
EP04023913A EP1522912B1 (en) 2003-10-08 2004-10-07 Manual-mode operating system for robot
US10/959,434 US7181315B2 (en) 2003-10-08 2004-10-07 Manual-mode operating system for robot
DE602004023040T DE602004023040D1 (de) 2003-10-08 2004-10-07 Manuelles Steuerungssystem für Roboter

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003349905A JP3708097B2 (ja) 2003-10-08 2003-10-08 ロボットの手動送り装置

Publications (2)

Publication Number Publication Date
JP2005111618A JP2005111618A (ja) 2005-04-28
JP3708097B2 true JP3708097B2 (ja) 2005-10-19

Family

ID=34309245

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003349905A Expired - Fee Related JP3708097B2 (ja) 2003-10-08 2003-10-08 ロボットの手動送り装置

Country Status (4)

Country Link
US (1) US7181315B2 (ja)
EP (1) EP1522912B1 (ja)
JP (1) JP3708097B2 (ja)
DE (1) DE602004023040D1 (ja)

Families Citing this family (69)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8944070B2 (en) 1999-04-07 2015-02-03 Intuitive Surgical Operations, Inc. Non-force reflecting method for providing tool force information to a user of a telesurgical system
US8010180B2 (en) 2002-03-06 2011-08-30 Mako Surgical Corp. Haptic guidance system and method
JP2005148789A (ja) * 2003-11-11 2005-06-09 Fanuc Ltd 音声入力によるロボット教示プログラム編集装置
JP4137909B2 (ja) * 2005-04-13 2008-08-20 ファナック株式会社 ロボットプログラム補正装置
US9789608B2 (en) 2006-06-29 2017-10-17 Intuitive Surgical Operations, Inc. Synthetic representation of a surgical robot
JP2007030060A (ja) * 2005-07-22 2007-02-08 Honda Motor Co Ltd 移動ロボットの制御装置
JP2007061983A (ja) * 2005-09-01 2007-03-15 Fanuc Ltd ロボット監視システム
JP4056542B2 (ja) * 2005-09-28 2008-03-05 ファナック株式会社 ロボットのオフライン教示装置
WO2007099511A2 (en) * 2006-03-03 2007-09-07 Syddansk Universitet Programmable robot and user interface
EP2037794B1 (en) * 2006-06-13 2021-10-27 Intuitive Surgical Operations, Inc. Minimally invasive surgical system
US10008017B2 (en) 2006-06-29 2018-06-26 Intuitive Surgical Operations, Inc. Rendering tool information as graphic overlays on displayed images of tools
US9718190B2 (en) * 2006-06-29 2017-08-01 Intuitive Surgical Operations, Inc. Tool position and identification indicator displayed in a boundary area of a computer display screen
US20090192523A1 (en) 2006-06-29 2009-07-30 Intuitive Surgical, Inc. Synthetic representation of a surgical instrument
US10258425B2 (en) * 2008-06-27 2019-04-16 Intuitive Surgical Operations, Inc. Medical robotic system providing an auxiliary view of articulatable instruments extending out of a distal end of an entry guide
JP4973926B2 (ja) * 2007-02-13 2012-07-11 株式会社安川電機 自動機械システムおよびその制御方法
US8903546B2 (en) 2009-08-15 2014-12-02 Intuitive Surgical Operations, Inc. Smooth control of an articulated instrument across areas with different work space conditions
US9084623B2 (en) 2009-08-15 2015-07-21 Intuitive Surgical Operations, Inc. Controller assisted reconfiguration of an articulated instrument during movement into and out of an entry guide
US9138129B2 (en) 2007-06-13 2015-09-22 Intuitive Surgical Operations, Inc. Method and system for moving a plurality of articulated instruments in tandem back towards an entry guide
US9469034B2 (en) 2007-06-13 2016-10-18 Intuitive Surgical Operations, Inc. Method and system for switching modes of a robotic system
US8620473B2 (en) 2007-06-13 2013-12-31 Intuitive Surgical Operations, Inc. Medical robotic system with coupled control modes
US9089256B2 (en) * 2008-06-27 2015-07-28 Intuitive Surgical Operations, Inc. Medical robotic system providing an auxiliary view including range of motion limitations for articulatable instruments extending out of a distal end of an entry guide
JP4835616B2 (ja) 2008-03-10 2011-12-14 トヨタ自動車株式会社 動作教示システム及び動作教示方法
US8864652B2 (en) * 2008-06-27 2014-10-21 Intuitive Surgical Operations, Inc. Medical robotic system providing computer generated auxiliary views of a camera instrument for controlling the positioning and orienting of its tip
JP2010152550A (ja) * 2008-12-24 2010-07-08 Canon Inc 作業装置及びその校正方法
JP5338408B2 (ja) * 2009-03-19 2013-11-13 株式会社デンソーウェーブ ロボットシミュレータ
US9206589B2 (en) * 2009-03-31 2015-12-08 Caterpillar Inc. System and method for controlling machines remotely
US9492927B2 (en) 2009-08-15 2016-11-15 Intuitive Surgical Operations, Inc. Application of force feedback on an input device to urge its operator to command an articulated instrument to a preferred pose
US8918211B2 (en) 2010-02-12 2014-12-23 Intuitive Surgical Operations, Inc. Medical robotic system providing sensory feedback indicating a difference between a commanded state and a preferred pose of an articulated instrument
EP2453325A1 (en) * 2010-11-16 2012-05-16 Universal Robots ApS Method and means for controlling a robot
DE102010063222B4 (de) * 2010-12-16 2019-02-14 Robert Bosch Gmbh Einrichtung und Verfahren zur Programmierung einer Handhabungsvorrichtung sowie Handhabungsvorrichtung
US9921712B2 (en) 2010-12-29 2018-03-20 Mako Surgical Corp. System and method for providing substantially stable control of a surgical tool
US9119655B2 (en) 2012-08-03 2015-09-01 Stryker Corporation Surgical manipulator capable of controlling a surgical instrument in multiple modes
CN102029612A (zh) * 2011-01-25 2011-04-27 南京工业大学 机械手控制器
BE1019786A3 (nl) * 2011-01-31 2012-12-04 Robojob Bv Met Beperkte Aansprakelijkheid Werkwijze voor het manipuleren van een reeks achtereenvolgens aangeboden identieke werkstukken door middel van een robot, evenals een inrichting en een grijper daarbij toegepast.
JP5848535B2 (ja) * 2011-07-05 2016-01-27 川崎重工業株式会社 ストレッチフォーミング装置
CN103889663B (zh) 2011-09-28 2016-09-28 Ur机器人有限公司 机器人的校准和编程
DE102012103031A1 (de) * 2012-04-05 2013-10-10 Reis Group Holding Gmbh & Co. Kg Verfahren zur Bedienung eines Industrieroboters
DE102012103032B3 (de) * 2012-04-05 2013-07-04 Reis Group Holding Gmbh & Co. Kg Verfahren zur Bedienung eines Industrieroboters
US9380934B2 (en) 2012-07-04 2016-07-05 Nidek Co., Ltd. Optometry apparatus controller, optometry system, and storage medium having optometry apparatus program stored therein
CN104470687A (zh) * 2012-07-20 2015-03-25 株式会社安川电机 机器人模拟器、机器人示教装置以及机器人示教方法
EP4316409A3 (en) 2012-08-03 2024-04-17 Stryker Corporation Systems for robotic surgery
US9820818B2 (en) 2012-08-03 2017-11-21 Stryker Corporation System and method for controlling a surgical manipulator based on implant parameters
US9226796B2 (en) 2012-08-03 2016-01-05 Stryker Corporation Method for detecting a disturbance as an energy applicator of a surgical instrument traverses a cutting path
JP5961088B2 (ja) * 2012-10-16 2016-08-02 川崎重工業株式会社 ストレッチフォーミングシステムおよびストレッチフォーミング方法
US10507066B2 (en) 2013-02-15 2019-12-17 Intuitive Surgical Operations, Inc. Providing information of tools by filtering image areas adjacent to or on displayed images of the tools
JP5716769B2 (ja) * 2013-02-21 2015-05-13 株式会社安川電機 ロボットシミュレータ、ロボット教示装置およびロボット教示方法
KR102101435B1 (ko) 2013-03-13 2020-04-17 스트리커 코포레이션 수술 절차들을 위한 준비시 수술실에 대상들을 배치하는 시스템
CA2897873A1 (en) 2013-03-13 2014-10-09 Stryker Corporation Systems and methods for establishing virtual constraint boundaries
JP6150386B2 (ja) * 2013-04-24 2017-06-21 国立大学法人横浜国立大学 ロボット教示方法
RU2688977C2 (ru) 2014-03-04 2019-05-23 Юниверсал Роботс А/С Система безопасности для промышленного робота
US10195746B2 (en) 2014-09-26 2019-02-05 Teradyne, Inc. Grasping gripper
JP6676286B2 (ja) 2015-05-12 2020-04-08 キヤノン株式会社 情報処理方法、および情報処理装置
EP3319761A4 (en) 2015-07-08 2019-03-06 Universal Robots A/S METHOD FOR EXTENDING END USER PROGRAMMING OF AN INDUSTRIAL ROBOT WITH THIRD PARTY CONTRIBUTIONS
US10620778B2 (en) * 2015-08-31 2020-04-14 Rockwell Automation Technologies, Inc. Augmentable and spatially manipulable 3D modeling
EP3777749A3 (en) 2015-12-31 2021-07-21 Stryker Corporation System and method for preparing surgery on a patient at a target site defined by a virtual object
TWI805545B (zh) 2016-04-12 2023-06-21 丹麥商環球機器人公司 用於藉由示範來程式化機器人之方法和電腦程式產品
JP6571616B2 (ja) 2016-09-05 2019-09-04 ファナック株式会社 ロボットシミュレーション装置
JP6581056B2 (ja) 2016-09-13 2019-09-25 ファナック株式会社 ロボット制御部と通信する教示操作盤を備えたロボットシステム
US11202682B2 (en) 2016-12-16 2021-12-21 Mako Surgical Corp. Techniques for modifying tool operation in a surgical robotic system based on comparing actual and commanded states of the tool relative to a surgical site
JP6823502B2 (ja) * 2017-03-03 2021-02-03 株式会社キーエンス ロボット設定装置、ロボット設定方法、ロボット設定プログラム及びコンピュータで読み取り可能な記録媒体並びに記録した機器
JP2018144162A (ja) * 2017-03-03 2018-09-20 株式会社キーエンス ロボット設定装置、ロボット設定方法、ロボット設定プログラム及びコンピュータで読み取り可能な記録媒体並びに記録した機器
JP7091609B2 (ja) * 2017-04-14 2022-06-28 セイコーエプソン株式会社 シミュレーション装置、ロボット制御装置およびロボット
JP6457587B2 (ja) 2017-06-07 2019-01-23 ファナック株式会社 ワークの動画に基づいて教示点を設定するロボットの教示装置
JP6506348B2 (ja) * 2017-06-14 2019-04-24 ファナック株式会社 ロボットの軌道を修正するロボットの教示装置
WO2019064914A1 (ja) * 2017-09-26 2019-04-04 日本電産株式会社 ロボット教示装置
JP7095262B2 (ja) * 2017-11-10 2022-07-05 株式会社安川電機 プログラミング支援装置、ロボットシステム及びプログラム生成方法
US11169601B2 (en) * 2018-07-12 2021-11-09 Toyota Research Institute, Inc. Methods and systems for determining teleoperating user intent via eye tracking
TW202218836A (zh) * 2020-11-02 2022-05-16 日商發那科股份有限公司 機器人控制裝置及機器人系統
WO2023148798A1 (ja) * 2022-02-01 2023-08-10 日本電気株式会社 指定装置、ロボットシステム、指定方法、および記録媒体

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6125207A (ja) * 1984-07-12 1986-02-04 Fanuc Ltd ツ−ル座標系の設定方式
US5086401A (en) * 1990-05-11 1992-02-04 International Business Machines Corporation Image-directed robotic system for precise robotic surgery including redundant consistency checking
US6788999B2 (en) * 1992-01-21 2004-09-07 Sri International, Inc. Surgical system
JP3274272B2 (ja) 1994-03-08 2002-04-15 ファナック株式会社 座標系の手動送り方法並びにロボット制御装置
JPH07295625A (ja) * 1994-04-28 1995-11-10 Fanuc Ltd ロボットのジョグ送り情報表示装置
JP3418456B2 (ja) * 1994-06-23 2003-06-23 ファナック株式会社 ロボット位置教示具及びロボット位置教示方法
JPH08161025A (ja) * 1994-12-08 1996-06-21 Kobe Steel Ltd 教示装置
JP3901772B2 (ja) * 1996-11-13 2007-04-04 三菱重工業株式会社 ロボットの教示操作方法
US6157873A (en) * 1998-04-09 2000-12-05 Motoman, Inc. Robot programming system and method
US6951535B2 (en) * 2002-01-16 2005-10-04 Intuitive Surgical, Inc. Tele-medicine system that transmits an entire state of a subsystem
DE19857436A1 (de) * 1998-12-12 2000-06-21 Kuka Roboter Gmbh Verfahren zum Behandeln des Spannungsabfalls in der Steuerung eines Roboters und zum Wiederanfahren eines Roboters nach Spannungsabfall
JP3673725B2 (ja) * 2001-04-05 2005-07-20 ファナック株式会社 ロボット用情報処理システム
US6728599B2 (en) * 2001-09-07 2004-04-27 Computer Motion, Inc. Modularity system for computer assisted surgery
US6839612B2 (en) * 2001-12-07 2005-01-04 Institute Surgical, Inc. Microwrist system for surgical procedures
US6925357B2 (en) * 2002-07-25 2005-08-02 Intouch Health, Inc. Medical tele-robotic system
EP1531749A2 (en) * 2002-08-13 2005-05-25 Microbotics Corporation Microsurgical robot system
US7158859B2 (en) * 2003-01-15 2007-01-02 Intouch Technologies, Inc. 5 degrees of freedom mobile robot
US7171286B2 (en) * 2003-02-24 2007-01-30 Intouch Technologies, Inc. Healthcare tele-robotic system with a robot that also functions as a remote station
JP4791967B2 (ja) * 2003-05-21 2011-10-12 ザ・ジョンズ・ホプキンス・ユニバーシティー 哺乳動物の咽喉および身体の他の部分の低侵襲手術のためのデバイス、システムおよび方法

Also Published As

Publication number Publication date
EP1522912A3 (en) 2008-07-16
EP1522912A2 (en) 2005-04-13
EP1522912B1 (en) 2009-09-09
US7181315B2 (en) 2007-02-20
US20050080515A1 (en) 2005-04-14
DE602004023040D1 (de) 2009-10-22
JP2005111618A (ja) 2005-04-28

Similar Documents

Publication Publication Date Title
JP3708097B2 (ja) ロボットの手動送り装置
US20210402590A1 (en) Robotic navigation system and method
CN110977931B (zh) 使用了增强现实和混合现实的机器人控制装置及显示装置
US9311608B2 (en) Teaching system and teaching method
EP1462896B1 (en) Robot teaching device
CN109834709B (zh) 设定微动坐标系的机器人控制装置
KR20180038479A (ko) 로봇시스템
CN108000523B (zh) 模拟机器人系统的动作的模拟装置、模拟方法及记录介质
US20170028549A1 (en) Robotic navigation system and method
WO2018212239A1 (ja) 遠隔操作ロボットシステム
JP2019217593A (ja) ロボットシステム、ロボットシステムの制御方法、ロボットシステムを用いた物品の組立方法、制御プログラム及び記録媒体
JP2010137298A (ja) 複腕ロボットの作業プログラム作成方法
CN114905487A (zh) 示教装置、示教方法以及记录介质
US10315305B2 (en) Robot control apparatus which displays operation program including state of additional axis
JP6841805B2 (ja) ロボット教示装置、ロボット教示方法、及び動作命令を記憶する方法
JP7401184B2 (ja) ロボットシステム
US20180354124A1 (en) Robot teaching device that sets teaching point based on motion image of workpiece
JPH1190868A (ja) ロボット制御装置
JP7068416B2 (ja) 拡張現実と複合現実を用いたロボット制御装置、ロボットの位置姿勢規定用コンピュータプログラム及びロボットの位置姿勢規定方法、相対位置姿勢取得用コンピュータプログラム及び相対位置姿勢取得方法
WO2022269927A1 (ja) プログラム作成装置
JP2001312305A (ja) ロボットのツール制御方法
JP2024044796A (ja) 画像生成装置
CN114905486A (zh) 示教装置、示教方法及记录介质
JPH03288211A (ja) ハンドリングロボットのオフライン教示システム
JPH03288209A (ja) ハンドリングロボットのオフライン教示システム

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20050712

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20050726

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20050802

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090812

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100812

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees