JP5203037B2 - 教示装置及び教示方法 - Google Patents

教示装置及び教示方法 Download PDF

Info

Publication number
JP5203037B2
JP5203037B2 JP2008124082A JP2008124082A JP5203037B2 JP 5203037 B2 JP5203037 B2 JP 5203037B2 JP 2008124082 A JP2008124082 A JP 2008124082A JP 2008124082 A JP2008124082 A JP 2008124082A JP 5203037 B2 JP5203037 B2 JP 5203037B2
Authority
JP
Japan
Prior art keywords
teaching
robot
workpiece
image
force information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2008124082A
Other languages
English (en)
Other versions
JP2009269155A (ja
Inventor
豊 原田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Azbil Corp
Original Assignee
Azbil Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Azbil Corp filed Critical Azbil Corp
Priority to JP2008124082A priority Critical patent/JP5203037B2/ja
Publication of JP2009269155A publication Critical patent/JP2009269155A/ja
Application granted granted Critical
Publication of JP5203037B2 publication Critical patent/JP5203037B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、例えばロボット等の教示の際に好適に使用可能な教示装置及び教示方法に関する。
生産現場において、溶接や塗装、組み立てなどの作業を行うロボットは、教示装置により作業対象の位置や順番などを予め教示した後、この教示内容に従って作業を行っている。この位置を教示する装置は、ロボットの動作機能が割り当てられた複数の押しボタンで構成されている。例えば特許文献1に記載されたように、教示装置は、移動方向の正逆動作が指示できる2つのボタン、指示した位置を記録領域に保存する確定ボタン、その他、移動速度を変更する速度調整ボタンや、位置を直接数値入力できる数値ボタンなどを有している。さらに現在位置の情報や複数の教示位置情報を表示させる機能を有するものもある。
特許第2584247号(2頁、図2)
しかしながら、このような教示装置には以下の解決すべき課題がある。
第1に、例えば棒状の部品の上端部をハンドで掴んで被組付け対象物に穿設された有底の穴に挿入するような作業を教示する場合、直接目視のみではワークの下端が穴にどの程度挿入されているか、即ちワークの下端が穴の底面にどの程度近づいているかを判断しづらく、ワークの下端が穴の底面に接触しているか否かが分からない。これに加えて、ワークの下端が穴の底面に接触している場合であってもその接触力が分からない。
第2に、ロボットの先端ツールであるハンドがロボット本体やその他の装置構成部品の陰になってハンドの把持したワークが教示者から直接見えないような場合、教示作業が困難になる。
第3に、例えば半導体チップ部品などの極めて小さいワークをロボットでピックアンドプレース(ハンドリング)する作業を教示する場合、この教示作業を直接目視によって行うことは困難である。
本発明の目的は、ロボットの教示を実際の目視によって行い難いような場合であっても教示作業を確実に行うことができる教示装置及び教示方法を提供することにある。
上述した課題を解決するために、請求項に記載の教示装置は、
ワークと関連する動作位置をロボットへ教示する教示装置において、
前記ロボットに設置された力検出部が検知するワーク把持部の受ける3次元の力情報を入力する力情報入力手段と、
前記ロボットの作業領域を撮影するカメラからの画像データを取得する画像情報入力手段と、
ロボット教示用の操作指令入力信号を入力する操作指令入力手段を備えると共に、
前記3次元の力情報と、前記画像データと、前記操作指令入力信号に基づき、教示の際に前記ワークを実際に撮像した画像及び前記ワーク把持部に作用する3次元の力情報の表示を同時に行う画像表示手段と、を備え、
少なくとも前記ロボットに備わったワークハンドリング用のハンド及び前記ワーク並びに前記ワークの被組付け対象物や被取り出し対象物の設計上の3次元モデルデータと前記実際に撮像した画像の位置を合わせ、前記3次元モデルデータを前記実際に撮像した画像に重ね合わせて前記画像表示手段に表示するようになっており、
前記ロボットの教示者が視覚可能な3次元モデルデータのワイヤフレームには、前記カメラで撮像した実画像のみからは前記ワークハンドリング用のハンド及び前記ワーク並びに前記ワークの被組付け対象物や被取り出し対象物の相対位置関係を前記ロボットの教示者が視覚できないデータも含まれていることを特徴としている。
また、本発明の請求項に記載の教示方法は、
ワークと関連する動作位置をロボットへ教示する教示方法において、
前記ロボットに設置された力検出部が検知するワーク把持部の受ける3次元の力情報を力情報入力手段に入力すると共に、
前記ロボットの作業領域を撮影するカメラからの画像データを画像情報入力手段で取得し、かつ
ロボット教示用の操作指令信号を操作指令入力手段に入力するようにした教示方法であって、
前記3次元力情報と、前記データと、前記操作指令入力信号に基づき、教示の際に画像表示手段に前記ワークを実際に撮像した画像及び3次元の力情報の表示を同時に行うことに加えて、
少なくとも前記ロボットに備わったワークハンドリング用のハンド及び前記ワーク並びに前記ワークの被組付け対象物や被取り出し対象物の設計上の3次元モデルデータと前記実際に撮像した画像の位置を合わせ、前記3次元モデルデータを前記実際に撮像した画像に重ね合わせるようになっており、
前記ロボットの教示者が視覚可能な3次元モデルデータのワイヤフレームには、前記カメラで撮像した実画像のみからは前記ワークハンドリング用のハンド及び前記ワーク並びに前記ワークの被組付け対象物や被取り出し対象物の相対位置関係を前記ロボットの教示者が視覚できないデータも含まれていることを特徴としている。
請求項に記載の教示装置及び請求項に記載の教示方法がこのような構成を有することで、教示時にロボット先端のハンドや他の装置などによりワークが視認できなくなってしまった場合や、例えば棒状の部品の上端部をハンドで掴んで被組付け対象物に穿設された有底の穴に挿入するような作業を教示する場合でも、ハンドやワーク、及びワークの被組付け対象物や被取り出し対象物の3次元モデルデータの輪郭をこれに対応する実際の画像に重ねて表示することができる。その結果、ワークと被組付け対象物や被取り出し対象物との相対位置関係を容易に認識することが可能となる。これにより、ロボットの教示作業や操作性が向上すると共に、微小なワークや脆弱なワークに無理な応力が発生するような教示を回避することができる。
本発明に係る教示装置によれば、ロボットの教示を実際の目視によって行い難いような場合であっても教示作業を確実に行うことができる教示装置及び教示方法を提供することができる。
以下、本発明の実施形態及び本発明に関連する実施形態に係る教示装置を図面を参照しながら詳細に説明する。最初に本発明に関連する実施形態に係る教示装置1について説明する。本発明に関連する実施形態に係る教示装置1は、画像処理部110と、画像処理部110に電気的に接続した教示操作部120と、画像処理部110で処理する画像を撮像するカメラ131,132(130)と、画像処理部110とロボットコントローラ200との間に介在した教示装置側情報送受信部(力情報入力手段)140を備えている。
画像処理部110は、画像生成部111と、画像生成部111にカメラ画像を送るカメラ画像入力部112を有し、カメラ画像入力部112には上述したカメラ130で撮像した画像を入力するようになっている。
カメラ130は、教示時に教示者が目視による教示が困難で教示作業の難しい作業ステーションごとに設置されている。具体的には、一例として図2に示すように、ロボットの先端ツールであるハンドHによってハンドリングされるワークWの取り出しや組み付けに関連する対象物を同時に撮像できる位置であって教示が困難な位置に設置されている。即ち、図2においては、ワークWを被取り出し対象物であるパレットから取り出す作業ステーションS1及びワークWを部品組付け対象物に組付ける作業ステーションS2にカメラ130がそれぞれ設置されている。
なお、カメラ130は、本実施形態では図2に示すように2台設置されているが、必ずしも2台に限定されず1台もしくは3台以上であっても良い。
画像生成部111には、教示時にハンドに備わった力センサ310によって検出される3次元の力情報が教示装置側情報送受信部140を介して入力されると共に、カメラ130によって実際に撮像した教示領域の実画像がカメラ画像入力部112から入力されるようになっている。そして、画像生成部111は、この実画像と3次元の力情報を教示操作部120の画像表示部121で同時に表示するための演算処理を行うようになっている。
教示操作部120は、画像生成部111で生成された画像を表示する画像表示部121と、ロボットへの教示内容を教示装置側情報送受信部140を介してロボットコントローラ200に伝える操作指令入力部122を有している。
画像処理部110と教示操作部120とは互いに電気的に接続され、図1においては実線で囲まれた教示ボックス内に収容されている。しかしながら、同図の二点鎖線で示すように、これらが別々の教示ボックス内に収容され、ケーブルで電気的に接続されていても良い。
図3は、図1に示した本発明に関連する実施形態にかかる教示操作部120を示す斜視図であり、画像処理部110と教示操作部120が分離して別々に構成され、これらがケーブルで電気的に接続された場合の教示操作部120を示している。図3に示すように、教示操作部120は、画像表示部121と操作指令入力部122のみを備えているので、小型化が図られて教示作業を行い易くしている。
ロボットコントローラ200は、教示装置側情報送受信部140との間で信号を送受信するコントローラ側情報送受信部240と、コントローラ側情報送受信部240に電気的に接続されロボット300の制御を行うロボット制御部210を有している。
教示装置1により教示されるロボット300は、ワークWをハンドリングする先端ツールであるハンド320と、ハンド320に備わった力センサ310をロボット本体部に有している。そして、ロボット300が直交座標型ロボットの場合、ロボットコントローラ200のロボット制御部210を介してロボットのXYZ方向の駆動モータをそれぞれ制御すると共に、ハンド320の回転軸回りの駆動モータを制御する。また、ロボット300が極座標型ロボットの場合、ロボットコントローラ200のロボット制御部210を介してロボット300のθ、r方向の駆動モータをそれぞれ制御すると共に、ハンド320の回転軸回りの駆動モータを制御する。
力センサ310は、ワークWを保持したハンド320が教示時にワークWを介して受ける反力をXYZ軸方向の分力ごとに3次元の力情報として検出する。そして、教示時に力センサ310の検出した3次元の力情報がコントローラ側情報送受信部240及び教示装置側情報送受信部(力情報入力手段)140を介して画像生成部111に伝えられるようになっている。
続いて、上述した本発明に関連する実施形態に係る教示装置1を用いたロボット300の教示方法について具体的に説明する。なお、この教示作業においては、脆性材料からなる円柱状のワークをある程度厚みがある金属製のプレート体の上面に形成された有底の穴に挿入する挿入作業をロボット300に教示する。従って、カメラ130はこの円柱状のワークをハンド320が把持してプレート体の有底の穴に挿入する作業を実画像として撮像できる位置に設置しておく。
そして、ロボット300に実際の教示作業を行う。具体的には、ワークをハンド320で保持したまま予め設定入力され教示作業に対応した位置にロボット300を位置決めし、ロボット300の教示操作部120の操作指令入力部122を介してロボット300を動かし、ハンド320に把持されたワークをプレート体の穴の上側開口部から挿入する。
次いで、ワークの下端部が穴の底面に当接するまでワークを下降させる。この教示動作の際、ハンド320に取り付けられた力センサ310が検出する反力を3次元の力情報としてコントローラ側情報送受信部240及び教示装置側情報送受信部140を介して画像生成部111に入力する。これと同時に、上述したカメラ130で撮像した実画像をカメラ画像入力部112を介して画像生成部111に入力する。そして、実画像と力センサ310が検出した3次元の力情報を画像生成部111で合成し、この合成した合成画像を教示操作部120の画像表示部121に表示させる。
図4は、この合成画像の一例を示しており、図5は、この合成画像の他の一例を示している。図4においては、実画像の右下片隅に力センサ310が検出した反力を3次元の力情報としてXYZ軸方向別々に棒グラフで表示している。この表示例では、棒グラフの長さが長くなればなるほど該当する軸方向の反力が大きいことを示している。図4では、特にZ軸方向において棒グラフの上部が濃いドットで示され、Z軸方向(ワークの挿入方向)に関して許容される反力より大きい反力が力センサ310で検出されたことを教示者に教えている。
図4の表示内容をより詳しく説明すると、この教示作業において力センサ310を介してワークの側面が穴の内周面から許容値以下の反力を受けると共に(図中X軸及びY軸に関する棒グラフ参照)、ワークの下端が穴の底面に押し付けられて許容値を超える反力を受け(図中Z軸に関する棒グラフ参照)、この教示作業においてワークを穴に挿入しすぎて不適切な教示を行っていることを教示操作部120の画像表示部121で教示者に知らせている。
本実施形態による教示装置1を用いない教示作業によると、教示者がワークの下端と穴の底面との相対位置関係を直接目視することができないが、本実施形態に係る教示装置を用いることで、それを瞬時に認識でき、適切な教示作業を手際良く行えるようになる。
なお、画像表示部121に実画像と力センサ310が受ける反力である3次元の力情報を同時に表示する表示の仕方については、図4に示すようにXYZ軸方向の反力を棒グラフとして別々に表示する代わりに、図5に示すようにこれらの3次元の力情報を合成した反力としてベクトル表示しても良い。この際、ベクトルの長さは合成した反力の大きさを表わし、ベクトルの向きは合成した反力の作用する方向を表わしている。
このようなベクトルによる3次元の力情報を画像表示部121の実画像においてワークが穴に挿入される位置に重ね合わせることで、教示者が画像表示部121を介して適切な教示作業を行っているか否かを瞬時に判断することができるようになる。
以上説明した本発明に関連する実施形態において、実際に撮像する領域を拡大して撮像するためのレンズをカメラに備えるようにしても良い。このようなレンズ付きカメラを用いることで、例えば2mm角や3mm角程度の極めて小さい半導体チップのピックアンドプレース作業を教示する際に、これを拡大して教示操作部120の画像表示部121に表示させるようにすることができ、実際の目視による教示作業よりもはるかに教示作業を行い易くすることができる。
続いて、本発明の実施形態に係る教示装置及びこれを用いた教示方法について説明する。なお、本発明に関連する実施形態に係る教示装置及びこれを用いた教示方法と同等の構成については、対応する符号を付して詳細な説明を省略する。
の実施形態に係る教示装置2は、本発明に関連する実施形態に係る教示装置1と異なり、図6に示すように、新たに3次元モデルデータ部153を画像処理部150内に備えると共に、画像処理部150の画像生成部151に画像マッチングさせる手動の画像マッチング機能を新たに備えている。
3次元モデルデータ部153は、ロボット先端ツールであるハンド320のCADデータと、ハンド320を介してハンドリングされるワークのCADデータと、ワークの被組付け対象物や被取り出し対象物(以下、「被組付け対象物」とする)のCADデータと、これらの周辺領域のロボット300のCADデータに基づいた3次元モデルデータを3次元モデルデータ部153に格納している。
そして、本実施形態では、カメラ130で撮像しカメラ画像入力部152で画像生成部151に入力された教示領域の実画像にこの3次元モデルデータ部153の3次元モデルデータをワイヤフレームとして画像生成部151で重ね合わすようになっている。
なお、上述した本発明に関連する実施形態に係る教示装置2では、画像生成部151にはカメラ130で撮像しカメラ画像入力部152を介して入力された実画像と3次元モデルデータ部153の3次元モデルデータのマッチングを行なうにあたって、教示者がカメラ130を3次元モデルデータに目視しながら手動で微調整して位置合わせする。
図7は、ロボット300の教示領域の実画像にこの部分に対応する3次元モデルデータを重ね合わせた状態を教示操作部120の画像表示部121に示した表示例である。同図から明らかなように、カメラ130で撮像した実画像のみではワークの下端部とプレート体の穴の底面との相対位置関係を教示者が視認することができないが、この相対位置関係を3次元モデルデータのワイヤフレームから視認することが可能となっている。
これによって、教示者がワークをプレート体の穴の上側開口部から挿入する教示を行う際に、ワークの下端が穴の底面にどの程度近づいたかを教示操作部120の画像表示部121から常に把握することができ、ワークの下端がプレート体の穴の底面に近づいた際にこれを認識して教示作業をより慎重に行うことができるようになる。その結果、教示者が教示時にワークの下端が穴の底面に当たるまでワークを穴に勢い良く挿入してワークの下端が穴の底面にあたって破損してしまうのを回避することができる。
なお、この際、ワークが被組付け対象物から反力を受け易い領域であってワイヤフレームで囲まれた特定領域を色付けすることによって、ワークと被組付け対象物との教示時の相対位置関係を強調表示して教示者がこれを一目で認識できるようにしても良い。
具体的には、図7に示す表示内容の場合、例えばワークの下端面のワイヤフレームで囲まれた楕円領域を半透明のピンク色で表示し、プレート体の穴の底面を半透明のグリーン色で表示しても良い。このように表示することによって、実際に撮像した実画像を残しながら、教示に際して最も重要となる部分であるワークと被組付け対象物の特定領域の相対位置関係を教示者が教示操作部120の画像表示部121から瞬時に認識することが可能となる。
なお、図7においては力センサ310が検出する教示時にワークが受ける反力である3次元の力情報を教示操作部120の画像表示部121に表示していない。しかしながら、本実施形態においても上述した本発明に関連する実施形態と同様にこの3次元の力情報を、図4に示す棒グラフを介してXYZ軸方向別々に棒グラフとして表示するか、図5に示すように合力としてベクトル表示するようになっている。
図8は、教示装置1,2の教示操作部120の他の変形例を示した斜視図である。同図から明らかなように、この変形例にかかる教示操作部120’は、画像表示部121’と操作指令入力部122’とが一体化しており、画像表示部121’に表示されたタッチスイッチを操作することによって教示作業を行うことができるようになっている。このような教示操作部120’を用いることで、教示操作部自体の大きさが小さくて済むので、教示作業を行い易くすることができる。
なお、上述の各実施形態においては、ハンド320で把持されたワークが被作業対象物から受ける反力を3次元の力情報として力センサ310で検出したが、これとは異なる力検出部を介して3次元の力情報を検出しても良い。具体的には、ロボットを駆動する例えばXYZ軸方向の各軸の駆動モータの電流値から計算されるトルクからロボット先端のハンドに伝わる反力をそれぞれ各軸ごとに求め、これを各軸ごとに棒グラフとして表示したりこの合力をベクトル表示しても良い。
また、上述の実施形態においては、実際の教示内容の一例としてロボット300のハンド320が円柱状のワークを保持し、この円柱状のワークをプレート体の上面に穿設された有底の穴にその穴の上部開口部からワークを挿入する教示動作を説明した。しかしながら、本発明の有用性はこのような教示内容に限定されるものではなく、例えば教示者の教示位置から教示すべき作業ステーションがロボット本体の影に隠れて教示者がこれを直接目視できない場合等においても十分に発揮することができる。
また、図1及び図6に示すように教示装置の教示操作部120と画像処理部110,150とが一体化して教示ボックス内に収容されている代わりに、教示操作部120と画像処理部110,150とがそれぞれ別々のボックス内に収容されてケーブルで互いに接続されていても良い(図1及び図6の一点鎖参照)。このようにすることで、画像処理部110,150をロボットの適所に固定することができると共に、教示操作部120のみを教示者が手で持って教示作業を行うことができる。その結果、カメラ130と画像処理部110,150を接続するケーブルを教示操作部120が有さなくなるので、教示操作部120から導出するケーブルの本数を減らし、太さを細くすることができ、教示作業を行い易くすることが可能となる。
また、上述の各実施形態においてカメラで撮像した画像は、ワークのピックアンドプレース作業においてワークを被組付け対象物に組付けるステーションにおける実画像であったが、これに加えて、図2に示すようにワークを被取り出し対象物から取り出すピッキングステーションにおいても本発明を適用すれば、同様の効果を得られる。
また、上述の各実施形態において、ハンドはワークを把持するタイプのロボットの教示について説明したが、このタイプには必ずしも限定されず、ロボットの先端ツールとしてワーク吸着用ノズルを備えたタイプのロボットの教示に本発明を適用しても同様の効果を得ることができる。
以上説明したように、本発明によると、教示時にハンドで把持されたワークが被組付け対象物や被取出し対象物から受ける反力を3次元の力情報としてこの教示領域の実画像と同時に表示するので、教示者がこの表示内容を見ながら教示操作を行うことができるようになる。その結果、ロボット先端ツールに把持されたワークと被組付け対象物や被取り出し対象物との接触状況が容易に把握でき、ワークに無理な応力を生じさせる誤った教示を行うのを回避できる。
また、この教示内容に従ってその後の作業を続けることで、ワークや被組付け対象物に組付け上の不良品を発生させるのを防止することができる。そのため、特に脆性材料でできたワークを被組付け対象物に組付ける教示作業を行う場合、ワークを破損させずに教示作業を行うことができる。
また、ハンドに把持されたワークと被組付け対象物との相対位置関係で最も慎重に教示すべき部分の領域が直接目視できない場合、特に本発明の実施形態にかかる教示装置を用いることで、ワークや被組付け対象物に無理な応力を発生させることなく教示作業を行うことができる。
また、例えばワークが半導体チップ部品のように極めて小さい部品であって直接目視による教示が行い難い場合、特にレンズ付きのカメラを介してこの教示領域を拡大した実画像として表示すると共に、ワークが受ける反力を3次元の力情報としてこの実画像と同時に表示させることで、このような難しい教示作業を容易に行うことができるようになる。
本発明に関連する実施形態に係る教示装置をロボットコントローラ及び教示されるロボットと共に示すブロック図である。 図1に示した教示装置のカメラの配置図の一例である。 図1に示した教示装置の教示操作部を示す斜視図である。 図1に示した教示装置の教示操作部の画像表示部に表示される表示内容である。 図4に示した表示内容とは異なる表示内容である。 本発明の実施形態に係る教示装置をロボットコントローラ及び教示されるロボットと共に示すブロック図である。 図6に示した教示装置の教示操作部の画像表示部に表示される表示内容である。 本発明の各実施形態に係る教示装置の教示操作部の変形例を示す斜視図である。
符号の説明
1,2 教示装置
110 画像処理部
110,150 画像処理部
111 画像生成部
112 カメラ画像入力部
120,120’ 教示操作部
121,121’ 画像表示部
122,122’ 操作指令入力部
130(131,132) カメラ
140 教示装置側情報送受信部
151 画像生成部
152 カメラ画像入力部
152 画像情報入力手段
153 3次元モデルデータ部
200 ロボットコントローラ
210 ロボット制御部
240 コントローラ側情報送受信部
300 ロボット
310 力センサ
320 ハンド
H ハンド
W ワーク

Claims (2)

  1. ワークと関連する動作位置をロボットへ教示する教示装置において、
    前記ロボットに設置された力検出部が検知するワーク把持部の受ける3次元の力情報を入力する力情報入力手段と、
    前記ロボットの作業領域を撮影するカメラからの画像データを取得する画像情報入力手段と、
    ロボット教示用の操作指令入力信号を入力する操作指令入力手段を備えると共に、
    前記3次元の力情報と、前記画像データと、前記操作指令入力信号に基づき、教示の際に前記ワークを実際に撮像した画像及び前記ワーク把持部に作用する3次元の力情報の表示を同時に行う画像表示手段と、を備え、
    少なくとも前記ロボットに備わったワークハンドリング用のハンド及び前記ワーク並びに前記ワークの被組付け対象物や被取り出し対象物の設計上の3次元モデルデータと前記実際に撮像した画像の位置を合わせ、前記3次元モデルデータを前記実際に撮像した画像に重ね合わせて前記画像表示手段に表示するようになっており、
    前記ロボットの教示者が視覚可能な3次元モデルデータのワイヤフレームには、前記カメラで撮像した実画像のみからは前記ワークハンドリング用のハンド及び前記ワーク並びに前記ワークの被組付け対象物や被取り出し対象物の相対位置関係を前記ロボットの教示者が視覚できないデータも含まれていることを特徴とする教示装置。
  2. ワークと関連する動作位置をロボットへ教示する教示方法において、
    前記ロボットに設置された力検出部が検知するワーク把持部の受ける3次元の力情報を力情報入力手段に入力すると共に
    前記ロボットの作業領域を撮影するカメラからの画像データを画像情報入力手段で取得し、かつ
    ロボット教示用の操作指令信号を操作指令入力手段に入力するようにした教示方法であって
    前記3次元力情報と、前記データと、前記操作指令入力信号に基づき、教示の際に画像表示手段に前記ワークを実際に撮像した画像及び3次元の力情報の表示を同時に行うことに加えて
    少なくとも前記ロボットに備わったワークハンドリング用のハンド及び前記ワーク並びに前記ワークの被組付け対象物や被取り出し対象物の設計上の3次元モデルデータと前記実際に撮像した画像の位置を合わせ、前記3次元モデルデータを前記実際に撮像した画像に重ね合わせるようになっており、
    前記ロボットの教示者が視覚可能な3次元モデルデータのワイヤフレームには、前記カメラで撮像した実画像のみからは前記ワークハンドリング用のハンド及び前記ワーク並びに前記ワークの被組付け対象物や被取り出し対象物の相対位置関係を前記ロボットの教示者が視覚できないデータも含まれていることを特徴とする教示方法
JP2008124082A 2008-05-09 2008-05-09 教示装置及び教示方法 Active JP5203037B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008124082A JP5203037B2 (ja) 2008-05-09 2008-05-09 教示装置及び教示方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008124082A JP5203037B2 (ja) 2008-05-09 2008-05-09 教示装置及び教示方法

Publications (2)

Publication Number Publication Date
JP2009269155A JP2009269155A (ja) 2009-11-19
JP5203037B2 true JP5203037B2 (ja) 2013-06-05

Family

ID=41436150

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008124082A Active JP5203037B2 (ja) 2008-05-09 2008-05-09 教示装置及び教示方法

Country Status (1)

Country Link
JP (1) JP5203037B2 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105108763A (zh) * 2015-09-16 2015-12-02 北京雅昌文化发展有限公司 对物品进行三维重建信息采集的系统
KR101716805B1 (ko) * 2014-12-26 2017-03-16 전자부품연구원 로봇 제어 시각화 장치
US11613012B2 (en) 2019-08-23 2023-03-28 Fanuc Corporation Robot controller

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6088583B2 (ja) * 2015-06-08 2017-03-01 ファナック株式会社 ロボットと力の表示機能を備えたロボット制御装置
JP6748019B2 (ja) * 2017-04-10 2020-08-26 ファナック株式会社 外力表示機能を有するロボットシステム、処理装置及び教示操作盤
JP7155664B2 (ja) * 2017-10-31 2022-10-19 セイコーエプソン株式会社 シミュレーション装置、制御装置およびロボット
JP6763846B2 (ja) * 2017-11-24 2020-09-30 ファナック株式会社 ロボットの教示操作を行う教示装置および教示方法
JP2020049558A (ja) * 2018-09-25 2020-04-02 ファナック株式会社 物品取り出しシステム
JP6773098B2 (ja) * 2018-10-17 2020-10-21 株式会社安川電機 ロボットシステム及びロボット制御方法
JP6878391B2 (ja) 2018-12-18 2021-05-26 ファナック株式会社 ロボットシステムとその調整方法
JP2020116702A (ja) * 2019-01-25 2020-08-06 アズビル株式会社 教示装置及び教示方法
JP6878646B2 (ja) * 2020-03-19 2021-05-26 ファナック株式会社 外力表示機能を有するロボットシステム及び処理装置

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11338532A (ja) * 1998-05-22 1999-12-10 Hitachi Ltd 教示装置
JP3940998B2 (ja) * 2002-06-06 2007-07-04 株式会社安川電機 ロボット装置
JP4949799B2 (ja) * 2006-10-16 2012-06-13 株式会社山武 作業支援装置および方法

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101716805B1 (ko) * 2014-12-26 2017-03-16 전자부품연구원 로봇 제어 시각화 장치
CN105108763A (zh) * 2015-09-16 2015-12-02 北京雅昌文化发展有限公司 对物品进行三维重建信息采集的系统
CN105108763B (zh) * 2015-09-16 2017-02-01 北京雅昌文化发展有限公司 对物品进行三维重建信息采集的系统
US11613012B2 (en) 2019-08-23 2023-03-28 Fanuc Corporation Robot controller

Also Published As

Publication number Publication date
JP2009269155A (ja) 2009-11-19

Similar Documents

Publication Publication Date Title
JP5203037B2 (ja) 教示装置及び教示方法
US10052765B2 (en) Robot system having augmented reality-compatible display
US20150273689A1 (en) Robot control device, robot, robotic system, teaching method, and program
WO2020090809A1 (ja) 外部入力装置、ロボットシステム、ロボットシステムの制御方法、制御プログラム、及び記録媒体
JP5471355B2 (ja) 3次元視覚センサ
US20030180697A1 (en) Multi-degree of freedom telerobotic system for micro assembly
US20190202058A1 (en) Method of programming an industrial robot
KR20040103382A (ko) 로봇 시스템
JP2018167334A (ja) 教示装置および教示方法
JPH08132372A (ja) ロボットの制御方法
KR102518131B1 (ko) 로봇 시스템
CN111093911B (zh) 机器人系统及其运行方法
WO2021246416A1 (ja) プログラミング装置
JP2019025578A (ja) 制御装置、ロボットシステムおよび制御方法
JP2018144228A (ja) ロボット制御装置、ロボット、ロボットシステム、教示方法、及びプログラム
JP2008168372A (ja) ロボット装置及び形状認識方法
CN117881507A (zh) 指令值生成装置、方法、以及程序
JP6657858B2 (ja) ロボット操作システム
JPH0421105A (ja) マニピユレータの立体教示装置
JP7401184B2 (ja) ロボットシステム
JP2019042853A (ja) 画像情報処理装置、把持システム、および画像情報処理方法
TW202218836A (zh) 機器人控制裝置及機器人系統
JP2011083883A (ja) ロボット装置
JPH0716900B2 (ja) ロボットへの動作自動教示方法
JP4613752B2 (ja) ロボットおよびロボットの情報表示方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110307

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120322

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120323

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120518

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20121128

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121220

A911 Transfer of reconsideration by examiner before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20130128

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130212

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130213

R150 Certificate of patent or registration of utility model

Ref document number: 5203037

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160222

Year of fee payment: 3