JP7259284B2 - 教示装置、教示方法 - Google Patents

教示装置、教示方法 Download PDF

Info

Publication number
JP7259284B2
JP7259284B2 JP2018219899A JP2018219899A JP7259284B2 JP 7259284 B2 JP7259284 B2 JP 7259284B2 JP 2018219899 A JP2018219899 A JP 2018219899A JP 2018219899 A JP2018219899 A JP 2018219899A JP 7259284 B2 JP7259284 B2 JP 7259284B2
Authority
JP
Japan
Prior art keywords
robot
teaching
reference object
presentation information
displayed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018219899A
Other languages
English (en)
Other versions
JP2019098513A (ja
Inventor
大介 由井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Wave Inc
Original Assignee
Denso Wave Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Wave Inc filed Critical Denso Wave Inc
Priority to US16/203,027 priority Critical patent/US11148299B2/en
Publication of JP2019098513A publication Critical patent/JP2019098513A/ja
Application granted granted Critical
Publication of JP7259284B2 publication Critical patent/JP7259284B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/06Control stands, e.g. consoles, switchboards
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/088Controls for manipulators by means of sensing devices, e.g. viewing or touching devices with position, velocity or acceleration sensors
    • B25J13/089Determining the position of the robot with reference to its environment
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • B25J9/1605Simulation of manipulator lay-out, design, modelling of manipulator
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • B25J9/163Programme controls characterised by the control loop learning, adaptive, model based, rule based expert control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39451Augmented reality for robot programming

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Human Computer Interaction (AREA)
  • Numerical Control (AREA)
  • Manipulator (AREA)

Description

本発明は、直接教示によりロボットを教示する教示装置、教示方法に関する。
ロボットは、教示によってどのような動作をするのかが記録され、記録した動作を再現することで実際の作業を行っている。この教示は、従来のようにプログラムにより動作を記録する手法の他に、近年では、作業者がロボットを操作することにより動作を記録する直接教示あるいはダイレクトティーチと呼ばれる手法も採用されつつある(例えば、特許文献1参照)。また、教示する際に、仮想現実(VR(Virtual Reality))、拡張現実(AR(Augmented Reality))、あるいは複合現実(MR(Mixed Reality))等の技術を利用することも提案されつつある。
特開2017-74669号公報
ロボットに所望の動作をさせるためには、ロボットに適切な位置や姿勢を教示する必要がある。しかしながら、直接教示によりロボットを教示する場合、大まかな位置や姿勢は比較的容易に教示できるものの、作業者が直接ロボットを操作することから、また、作業者の視覚に頼って操作することから、正しい位置や姿勢を教示することが難しいことがある。その場合、いわゆるファインティーチングを行うことにより詳細な位置決めは可能になるものの、ファインティーチングを行うと、直接教示を採用したメリットが薄れてしまう。
そこで、直接教示により教示する場合であってもロボットの位置や姿勢を容易に把握でき、適切且つ迅速に教示することができる教示装置、教示方法を提供する。
請求項1に記載した発明では、教示装置は、作業者の視野に情報を表示する装着型ディスプレイと、ロボットの位置および姿勢を特定可能な位置姿勢データを取得する取得部と、装着型ディスプレイに表示する情報を生成する生成部と、を備え、ロボットを作業者が操作する際、取得した位置姿勢データに基づいてロボットの周辺に位置する基準対象物に対するロボットの位置および姿勢の少なくとも一方を基準対象物側に示す提示情報を生成して装着型ディスプレイに表示する。
ロボットに例えばワークを載置面に載置する作業を教示する場合、ワークの損傷を防ぐために、ワークが載置面に水平となるように、また、載置する際に大きな衝撃が加わらないようにすることが求められる。
しかし、教示作業では、作業者の目の位置は載置面よりも上方であることが一般的であると想定され、その場合には、ロボットの手先を載置面よりも上方から見下ろす立体的な視野になる。その場合、ワークの底面と載置面との距離感が掴みづらく、また、手先の向きが視野内で手前方向や奥行き方向に傾いていたとしても、その傾きが把握しづらくなっている。
その一方で、直接教示つまりは作業者が手作業によりロボットを操作する場合には、ワークを載置面に水平且つ大きな衝撃が加わらないように載置するためには、ロボットを慎重に移動させる必要があり、直接教示のメリットが大きく薄れてしまうことになる。
そこで、作業者が教示する際、ロボットの周辺に位置する基準対象物に対するロボットの位置および姿勢の少なくとも一方を示す提示情報を生成して装着型ディスプレイに表示する。すなわち、教示装置は、現実には存在しない情報を作業者に提示する。
これにより、作業者は、基準対象物との距離や基準対象物に対するロボットの傾きを視覚的に把握できるようになり、いわゆるファインティーチングのような精密な位置決め作業を行わなくてもロボットの最終的な位置決めを容易に行うことが可能となる。
したがって、直接教示により教示する場合であってもロボットの位置や姿勢を容易に把握でき、適切且つ迅速に教示することができる。また、最終的な位置決めまで直接教示で行うことができるため、直接教示を採用したメリットを損なうこともない。
請求項2に記載した発明によれば、ロボットは、仮想的に再現されたものである。これにより、例えば大型のロボットや設置環境が作業に向いていない場合等、作業者が操作することが困難な状況であってもロボットを教示することができる。
請求項3に記載した発明によれば、ロボットは、現実に実在するものである。これにより、実在するロボットに対して教示することができる。
請求項4に記載した発明によれば、基準対象物は、仮想的に再現されたものである。実際のロボットの設置現場では、安全対策等の理由により、ロボットの周辺には、ロボットの位置や姿勢を判断する基準にできる物体が配置されていないことが想定されるが、基準対象物を仮想的に再現することにより、そのような状況であってもロボットを教示することができる。
請求項5に記載した発明によれば、基準対象物は、現実に実在するものである。これにより、実際の環境でロボットを教示することができ、周辺設備への衝突等を防止することができる。
請求項6に記載した発明によれば、ロボットの手先の向きを当該ロボットの姿勢とみなして提示情報を生成する。ロボットは、一般的に複数のアームを備えているものの、教示作業では、手先の位置と向きとを決めると考えられるため、ロボットの手先の向きをロボットの姿勢とみなすことにより、適切にロボットを教示することができる。
請求項7に記載した発明によれば、基準対象物に対するロボットの相対的な位置が予め設定されている基準距離を下回った場合、および、基準対象物に対するロボットの姿勢の傾きが予め設定されている基準角度を上回って傾いた場合に作業者に報知する報知部を備える。これにより、例えば現実に存在する周辺設備に衝突したり、安全の確保のために設定されている動作可能範囲を超えて教示してしまったりすることを防止することができる。
請求項8に記載した発明によれば、提示情報は、ロボットの移動方向側に位置する基準対象物の表面、ロボットの移動方向側に位置する基準対象物との間の空間、あるいは、基準対象物の表面に表示される他の提示情報と隣り合う位置であって、ロボットの手先、当該手先に取り付けられるツール、あるいは当該ツールが作業するワークと重ならない位置に、ロボットの姿勢に関わらず、基準対象物を基準として当該基準対象物に垂直あるいは水平方向となる態様で表示される。これにより、提示情報によって例えばツールが見えなくなることを抑制でき、表示として邪魔にならず、且つ、ロボットの姿勢との関連性を把握し易くすることができる。
請求項9に記載した教示方法の発明によれば、ロボットを作業者が操作する際、ロボットの周辺に位置する基準対象物に対するロボットの位置および姿勢の少なくとも一方を示す提示情報を、作業者が装着する装着型ディスプレイによって作業者の視野内の基準対象物側に重ねて表示する。これにより、基準対象物との距離や基準対象物に対するロボットの傾きを視覚的に把握できるようになり、直接教示を採用したメリットを損なうことがないため、上記した教示装置の発明と同様に、直接教示により教示する場合であってもロボットの位置や姿勢を容易に把握でき、適切且つ迅速に教示することができる。
実施形態の教示装置の構成を模式的に示す図 教示作業時の作業者の視野の一例を模式的に示す図 作業者の視野に提示情報を表示する態様の一例を模式的に示す図 提示情報を表示する処理の流れを示す図
以下、実施形態について図面を参照しながら説明する。
図1に示すように、教示システム1は、ロボット2、コントローラ3、教示装置を構成する画像処理装置4、および教示装置を構成する装着型ディスプレイ5を備えている。このうち、ロボット2およびコントローラ3は、詳細は後述するが現実空間に実在するものを用いることができるし、仮想現実空間に再現したものを用いることもできる。また、ロボット2およびコントローラ3は、作業者がロボット2を直接的にあるいは遠隔で操作することにより動作を記録する直接教示に対応した構成になっている。
ロボット2は、複数のアームを有する垂直多関節型のものであり、6軸ロボットや7軸ロボットと称される。ロボット2の手先2aは、フランジで構成されており、ツール6が取り付けられて例えばワーク7を把持する等の作業が行われる。
コントローラ3は、周知のように、ロボット2に組み込まれているモータを駆動することにより、ロボット2の動作を制御する。このとき、コントローラ3は、ロボット2の現在の姿勢、ここでは手先2aの位置や手先軸(J。図2参照)の向きを特定可能な制御データを保持している。
画像処理装置4は、制御部10、記憶部11、操作部12等を備えている。画像処理装置4は、コントローラ3および装着型ディスプレイ5との間で各種のデータを通信可能に構成されている。画像処理装置4の制御部10は、図示しないCPU、ROMおよびRAM等を備えたマイクロコンピュータを備えており、記憶部11に記憶したコンピュータプログラムに従って動作する。
また、制御部10は、本実施形態に関連して、取得部10aおよび生成部10bを備えている。これら取得部10aおよび生成部10bは、本実施形態では制御部10で実行されるコンピュータプログラムによってソフトウェアで実現されている。
取得部10aは、ロボット2の位置および姿勢を特定可能な位置姿勢データを取得する。このとき、取得部10aは、基準対象物に対するロボット2の位置を特定可能なデータを、例えば環境センサ8で検出した作業者の位置や後述する装着型ディスプレイ5に設けられている位置センサ5cから出力される位置情報により取得する。また、取得部10aは、ロボット2の位置を特定可能なデータをコントローラ3から取得する。そして、それらのデータを組み合わせて、ロボット2の位置および姿勢を特定可能な位置姿勢データを取得する。生成部10bは、詳細は後述するが、装着型ディスプレイ5に表示する情報を生成する。
記憶部11は、制御部10にて実行するコンピュータプログラム等を記憶している。操作部12は、スイッチやタッチパネル等で構成されており、画像処理装置4に対する作業者の操作を受け付ける。なお、図1に示す画像処理装置4の構成は一例であり、例えばティーチングペンダント等を利用することもできる。
装着型ディスプレイ5は、作業者が頭部に装着することで仮想的な情報を提示するものであり、ヘッドマウントディスプレイ等とも称される。装着型ディスプレイ5は、表示面5a、カメラ5b、および位置センサ5c等を備えている。表示面5aには、図示しない投影部から文字や図形あるいは記号等が投影される。また、表示面5aは、作業者に情報を報知する報知部としても機能する。
カメラ5bは、例えばCCDカメラで構成されており、作業者の視野内の物体を撮像する。この場合、装着型ディスプレイ5は、視野内の物体までの距離を検出可能ないわゆるディプスカメラを備える構成とすることができるし、図1では1つのカメラ5bを示しているものの、CCDカメラとディプスカメラの双方を備える構成や、複数のCCDカメラを備える構成等とすることもできる。
位置センサ5cは、例えばGPSのように作業者の位置を直接的に特定可能なセンサや、ジャイロセンサのように作業者の顔の向きつまりは視野の向きを特定可能なセンサなどで構成されている。この位置センサ5cは、カメラ5bの筐体内に設けられており、作業者の位置や視野の向きを位置情報として画像処理装置4に送信する。ただし、カメラ5bとは別体で位置センサ5cを設ける構成とすることができる。
また、教示システム1は、環境センサ8を備えている。この環境センサ8は、例えばCCDカメラやレーザレーダで構成することができ、ロボット2の周辺の物体の位置や形状あるは作業者の位置や顔の向きなどを検出する。ただし、必ずしもこれらの全てを環境センサ8で検出する必要は無く、装着型ディスプレイ5のカメラ5bや位置センサ5cにより作業者の位置や顔の向きなどを検出する構成の場合には、環境センサ8ではそれらを検出する必要は無い。逆に、環境センサ8で作業者の位置や顔の向きなどを検出する構成の場合には、装着型ディスプレイ5側でそれらを検出する必要は無い。
次に、上記した構成の作用について説明する。
図2は、一般的な教示の態様であって、手先2aに取り付けたツール6で把持しているワーク7を載置面(H1)上の目標位置(P)に載置する作業を直接教示により教示する際の作業者の視野を模式的に示している。なお、本実施形態では、最終的な位置決めまでを作業者が手作業で行うことを想定しており、図2に示す目標位置(P)は、作業者がワーク7を載置したいと考えている位置を説明するために示しているのであり、予め設定されている位置ではない。
さて、ワーク7を載置面(H1)に載置する場合には、ワーク7の損傷等を防ぐために、ワーク7が載置面(H1)に水平となるように、また、載置する際に大きな衝撃が加わらないようにすることが求められる。
しかし、教示作業では、作業者の目の位置は載置面(H1)よりも上方であることが一般的であると想定され、その場合には、図2に示すように載置面(H1)よりも上方から見下ろす立体的な視野になる。その場合、ワーク7の底面と載置面(H1)との距離感が掴みづらく、また、図2の左右方向や手前方向あるいは奥行き方向への傾きも把握しづらくなる。
その結果、手作業によりワーク7を載置面(H1)に水平且つ大きな衝撃が加わらないように載置するためには、ロボット2を慎重に移動させる必要があり、直接教示のメリットが大きく薄れてしまう。
そこで、直接教示により教示する場合であっても、特に最終的位置決めまでを手作業で行う場合であっても、ロボット2の位置や姿勢を容易に把握でき、適切且つ迅速に教示することができるようにしている。
具体的には、画像処理装置4は、ロボット2を作業者が操作する際、コントローラ3から位置姿勢データを取得し、図3に示すようにロボット2の周辺に位置するあるいは仮想的に設定された基準対象物としての垂直面(H2)に対するロボット2の位置および姿勢の少なくとも一方を示す提示情報(M1~M3)を生成して装着型ディスプレイ5に表示する。この基準対象物は、仮想的な物体を画像処理装置4にて生成することで仮想空間内に再現したものであってもよいし、カメラ5bで撮像した画像に含まれる現実空間に実在するものであってもよい。
このとき、基準対象物は、ロボット2の手先2aとの位置関係を作業者が直感的に把握できるように、例えば垂直面や水平面等を設定することができる。また、基準対象物は、ロボット2の周囲に実在する周辺設備や壁あるいは柱等を設定することができる。また、基準対象物は、ロボット2の可動範囲など、制御上の境界位置を設定することもできる。
次に、上記した提示情報を表示する処理の流れについて説明する。 図4に示すように、教示システム1は、まず、周辺3D情報を取得する(S1)。この周辺3D情報とは、ロボット2の周辺に存在する周辺設備や壁等の物体の位置や形状等のデータを含むものである。ただし、周辺3D情報の取得は、ロボット2の周辺に存在する周辺設備や壁等をCADデータに登録することにより事前に準備することができる。また、周辺3D情報の取得は、教示作業を開始する際に装着型ディスプレイ5のカメラ5bで撮像した画像を解析したり、環境センサ8で検出したロボット2の周辺の物体の位置や形状を用いたりすることによって取得することができる。
続いて、教示システム1は、ロボット2の姿勢を取得する(S2)。このロボット2の姿勢は、ロボット2を制御しているコントローラ3が保持する制御データから取得または特定することができる。そして、教示システム1は、作業者から見たロボット2の位置、つまりは、作業者とロボット2との位置関係を特定する(S2)。この場合、作業者とロボット2との位置関係は、作業者の位置とロボット2の設置位置との関係により特定することができる。あるいは、作業者とロボット2との位置関係は、ロボット2の3D形状データを予め記憶させておき、カメラ5bで撮像された画像にパターンマッチング等の画像処理を施すことにより、作業者から見たロボット2の向き、つまりは、作業者とロボット2との位置関係を特定することができる。
この場合、ロボット2の全体ではなく、手先2aやワーク7などの特徴を把握しやすい部位の全体或いは一部が視野に入っていれば、作業者とロボット2との位置関係を特定することができる。また、作業場に基準となる立ち位置を設定し、その立ち位置に作業者が位置しているときに位置情報を初期化し、ジャイロセンサにより立ち位置からの移動量を求めることによって作業者の位置を特定することもできる。
また、予めロボット2に向きや大きさが既知の目印等を添付し、その目印の向きや大きさを画像処理により求めることによっても、作業者とロボット2との位置関係を特定することができる。また、装着型ディスプレイ5にGPSを設けた場合や、環境センサ8により作業者の位置が特定できれば、作業者の位置に基づいてロボット2との位置関係を特定することもできる。また、環境センサ8のレーザレーダは基本的には位置が固定されていると考えられることから、レーザレーダから放射された光をカメラ5bで検出し、レーザレーダに対する位置を特定することにより、作業者の位置やロボット2に対する位置関係を特定することもできる。
続いて、教示システム1は、ロボット2の近傍、ここでは、ロボット2の手先2aや把持されているワーク7の近傍に規制要因があるかを判定する(S4)。ここで、規制要因とは、周辺設備や柱のように物理的に存在する物体や、例えばロボット2の動作範囲の境界など、ロボット2の移動を規制する要因となるものを意味している。このステップS4では、教示システム1は、例えば手先2aやワーク7から所定の距離範囲内に規制要因があるかを判定する。 そして、教示システム1は、規制要因がある場合には(S4:YES)、規制要因との位置関係を特定する(S5)。具体的には、教示システム1は、ロボット2の手先2aやワーク7と規制要因との間の距離、ならびに、その規制要因に対する角度を特定する。こうして特定された規制要因との位置関係が、提示情報として表示される。
位置関係を特定すると、教示システム1は、近傍の全ての規制要因の探索が完了したかを判定し(S6)、完了していない場合には(S6:NO)ステップS4に移行し、次の規制要因との位置関係を特定する。なお、所定の距離範囲内に存在する規制要因の全てをまず判定した後、各規制要因との位置関係をそれぞれ特定する処理の流れとすることもできる。
規制要因を特定すると、教示システム1は、基準対象物を設定する(S7)。このとき、基準対象物としては、例えば現在の手先2aの位置から所定の距離範囲内に存在する規制要因を設定することができる。例えば、図3の例であれば、載置面(H1)と垂直面(H2)とが規制要因と判定され、基準対象物として設定されている。ただし、例えば現在の手先2aの位置から最も近い1つの規制要因を基準対象物として選択することもできる。あるいは、基準対象物が1つであった場合、その基準対象物に垂直な平面を仮想的に設定し、実在の基準対象物に対する比較対象としての仮想的な基準対象物を設定することもできる。これにより、作業者が直感的に位置関係をより把握しやすくなる。
そして、教示システム1は、基準対象物を描画表示する(S8)。この場合、例えば図3の例であれば、物理的な載置面(H1)の縁を色つきの線で描画し、垂直面(H2)を異なる色の線で描画することにより、基準対象物を視覚的に把握可能な態様で表示面5aに表示する。ただし、物理的に存在する規制要因については描画表示せず、仮想的に設定された規制要因については描画表示する構成とすることができる。
続いて、教示システム1は、提示情報を表示し(S9)、手先2aやワーク7を例えば色つきの線で描画表示する(S10)。この場合、現実に実在するロボット2を教示する場合には、手先2aやワーク7の描画表示は行わない構成とすることもできる。一方、仮想空間内で仮想的に再現されたロボット2に対して教示作業をする場合には、基準対象物や手先2aあるいはワーク7は描画表示される。
その後、教示システム1は、ステップS2に移行して、作業者の移動や視野の変化に基づいて、提示情報を表示するための処理を繰り返す。このようにして、図3に示すような提示情報が作業者の視野内に表示される。この場合、周辺3D情報は基本的には変化しないと考えられるものの、ステップS1に移行し、作業者が移動したり視野が変化したりする度に周辺3D情報を再取得する構成とすることもできる。
具体的には、提示情報(M1)は、載置面(H1)にワーク7が載置された際の位置を提示する仮想的な画像であり、ワーク7が載置面(H1)に近づくに従って大きくなる。また、提示情報(M1)は、ワーク7が前面にくる態様で表示される。つまり、提示情報(M1)は、ロボット2が移動する際、手先2a側ここではワーク7に対して、ロボット2の移動方向に位置する載置面(H1)とは反対側となる後方側から光を照射した際のワーク7の影を表す態様で表示される。
そのため、ワーク7の見た目の幅と提示情報(M1)の見た目の幅とが一致し、且つ、提示情報(M1)が見えなくなった時点で、ワーク7が載置面(H1)に接したと判断できる。なお、垂直面(H2)に向かって移動している場合には、垂直面(H2)に影が生じる態様で表示することができる。また、このように手先2aやワーク7の移動先に位置する基準対象物に対する影のように提示情報(M1)を表示することにより、視覚的に移動方向と基準対象物への接近具合を提示することができる。
提示情報(M2)は、ロボット2の近傍に位置する物体、ここでは、載置面(H1)と垂直面(H2)とに対する手先軸(J)の傾きを視覚的に提示する。図3に示す2つの提示情報(M2)のうち、図示右方側の提示情報(M2)は、載置面(H1)に対する手先軸(J)の傾きを示すものであり、直角三角形の長辺を載置面(H1)に平行にし、短辺を右端側に位置させて斜辺が左下がりになるように表示することにより、手先軸(J)が垂直方向よりも図示左方側に傾いていることを作業者が直感的に把握できるようにしている。つまり、載置面(H1)も基準対象物の1つであり、提示情報(M2)は、載置面(H1)に対して見た目で水平となる態様で表示される。
一方、図3に示す図示左方側の提示情報(M2)は、垂直面(H2)に対する手先軸(J)の傾きを示すものであり、直角三角形の長辺を垂直面(H2)に平行にし、短辺を上端側に位置させて斜辺が右下がりになるように表示することにより、手先軸(J)が載置面(H1)に対して図示左方側に傾いていることを作業者が直感的に把握できるようにしている。つまり、この提示情報(M2)は、垂直面(H2)に対して見た目で水平となる態様で表示される。また、提示情報(M2)は、図形の代わりに数値を用いた表示とすることもできるし、図形と数値とを用いた表示とすることもできる。
また、この提示情報(M2)は、例えば基準対象物に対する姿勢が所定の基準角度以上傾いている場合に色分けして表示すること等により、作業者にロボット2が基準対象物に対して、つまりは、予想される向きに対して大きく傾いていることを報知する情報としても利用できる。
提示情報(M3)は、ロボット2と基準対象物との距離、より厳密には、ワーク7も含めてロボット2における最も基準対象物側になる部位と基準対象物との距離を提示するものであり、図3では、提示情報(M2)と同様に、載置面(H1)と垂直面(H2)とのそれぞれに対応して表示されている。提示情報(M3)は、所定の長さと幅とを有する長方形を、基準対象物までの距離に応じて内部を塗りつぶすことにより、ワーク7と基準対象物との間の距離を提示する。つまり、提示情報(M3)は、載置面(H1)や垂直面(H2)に対して見た目で垂直となる態様で表示される。
また、この提示情報(M3)は、本実施形態ではロボット2と基準対象物との距離が所定の基準距離を下回った場合に表示される。つまり、提示情報(M3)は、作業者にロボット2が基準対象物の近傍まで接近したことを報知する情報としても利用できる。また、提示情報(M3)は、図形の代わりに数値を用いた表示とすることもできるし、図形と数値とを用いた表示とすることもできる。
つまり、提示情報(M1~M3)は、ロボット2の移動方向側に位置する基準対象物(H1)の表面、ロボット2の移動方向側に位置する基準対象物(H1、H2)との間の空間、あるいは、基準対象物(H1)の表面に表示される他の提示情報(M1)と隣り合う位置(提示情報(M2)参照)であって、ロボット2の手先2a、当該手先2aに取り付けられるツール6、あるいは当該ツール6が作用ここでは把持するワーク7と重ならない位置に、ロボット2の姿勢に関わらず、基準対象物(H1、H2)を基準として当該基準対象物(H1、H2)に垂直あるいは水平方向となる態様で表示される。
これにより、教示装置は、仮想空間あるいは現実空間において、提示情報を生成して表示することにより、基準対象物に対するロボット2の位置および姿勢を視覚的且つ感覚的に容易に把握できるようにしている。
以上説明した教示装置によれば、次のような効果を得ることができる。
教示装置は、作業者の視野に情報を表示する装着型ディスプレイ5と、基準対象物に対するロボット2の位置および姿勢を特定可能な位置姿勢データを取得する取得部10aと、装着型ディスプレイ5に表示する情報を生成する生成部10bとを備え、ロボット2を作業者が操作する際、取得した位置姿勢データに基づいてロボット2の周辺に位置する基準対象物(H1、H2)に対するロボット2の位置および姿勢の少なくとも一方を示す提示情報(M1~M3)を生成して表示する。ただし、基準対象物は、ロボット2の近傍に仮想的に設定されたものも含んでいる。
ロボット2に例えばワーク7を載置面(H1)に載置する作業を教示する場合、ワーク7の損傷を防ぐために、ワーク7が載置面(H1)に水平となるように、また、載置する際に大きな衝撃が加わらないようにすることが求められるが、載置面(H1)よりも上方から見下ろす立体的な視野では、ワーク7と載置面(H1)との距離感が掴みづらく、また、手先2aの傾きが把握しづらくなっている。
そこで、作業者が教示する際、ロボット2の周辺に位置する基準対象物(H1、H2)に対するロボット2の位置および姿勢の少なくとも一方を示す提示情報(M1~M3)を生成して装着型ディスプレイ5に表示することにより、すなわち、現実空間には存在しない情報を作業者に提示する。
これにより、作業者は、基準対象物(H1、H2)との距離や基準対象物(H1、H2)に対するロボット2の傾きを視覚的に把握できるようになり、いわゆるファインティーチングのような精密な位置決め作業を行わなくてもロボット2の最終的な位置決めを容易に行うことが可能となる。
したがって、直接教示により教示する場合であってもロボット2の位置や姿勢を容易に把握でき、適切且つ迅速に教示することができる。また、最終的な位置決めまで直接教示で行うことができるため、直接教示を採用したメリットを損なうこともない。
教示装置は、仮想的に再現されたロボット2を対象として提示情報を生成および表示する。これにより、例えば大型ロボットや設置環境が作業に向いていない場合等、作業者が操作することが困難な状況であってもロボット2を教示することができる。
教示装置は、現実に実在するロボット2を対象として提示情報を生成および表示する。これにより、実在するロボット2に対して教示することができる。
教示装置は、基準対象物を仮想的に再現する。実際のロボット2の設置現場では、安全対策等の理由により、ロボット2の周辺にはロボットの位置や姿勢を判断する基準となる物体が配置されていないことが想定されるが、基準対象物を仮想的に再現することにより、そのような状況であってもロボット2を教示することができる。
教示装置は、現実に実在する基準対象物を対象とする。これにより、実際の環境でロボット2を教示することができ、周辺設備への衝突等を防止することができる。
教示装置は、ロボット2の手先の向きを当該ロボット2の姿勢とみなして提示情報を生成する。ロボット2は、一般的に複数のアームを備えているものの、教示作業では、手先の位置と向きとを決めると考えられるため、ロボット2の手先の向きをロボットの姿勢とみなすことにより、適切にロボット2を教示することができる。
教示装置は、基準対象物に対するロボット2の相対的な位置が予め設定されている基準距離を下回った場合、および、基準対象物に対するロボット2の姿勢の傾きが予め設定されている基準角度を上回って傾いた場合に作業者に報知する。これにより、例えば現実に存在する周辺設備に衝突したり、安全の確保のために設定されている動作可能範囲を超えて教示してしまったりすることを防止することができる。
教示装置は、提示情報を、ロボット2の移動方向側に位置する基準対象物の表面、ロボット2の移動方向側に位置する基準対象物との間の空間、あるいは、基準対象物の表面に表示される他の提示情報と隣り合う位置であって、ロボット2の手先2a、当該手先2aに取り付けられるツール6、あるいは当該ツール6が作用例えば把持するワーク7と重ならない位置に、ロボット2の姿勢に関わらず、基準対象物を基準として当該基準対象物に垂直あるいは水平方向となる態様で表示される。
つまり、提示情報は、本実施形態ではワーク7を中心としてワーク7に重ならない位置に表示される。これにより、提示情報を表示することによって作業者の視野を妨げてしまうことがない。また、提示情報は、ロボット2の姿勢例えば手先2aやワーク7の傾きを示す情報であるものの、基準対象物に対して垂直あるいは水平に表示することにより、すなわち、ロボット2ではなく基準対象物を基準とし態様で表示することにより、ロボット2の姿勢を視覚的により把握しやすくしている。これにより、提示情報によって例えばツールが見えなくなることを抑制でき、表示として邪魔にならず、且つ、ロボットの姿勢との関連性を把握し易くすることができる。
上記した教示装置では、ロボット2を作業者が操作する際、ロボット2の周辺に位置する基準対象物に対するロボット2の位置および姿勢の少なくとも一方を示す提示情報を、作業者の視野に重ねて表示する教示方法を採用している。これにより、基準対象物との距離や基準対象物に対するロボット2の傾きを視覚的に把握できるようになり、直接教示を採用したメリットを損なうことがないため、教示装置と同様に、直接教示により教示する場合であってもロボット2の位置や姿勢を容易に把握でき、適切且つ迅速に教示することができる。
上記した教示装置は、実施形態で示した構成に限定されず、要旨を逸脱しない範囲で適宜構成を変更することができる。
基準対象物の数や再現態様は一例であり、これに限定されない。また、基準対象物を仮想空間内に再現する場合、どのような基準対象物を再現するかは、ロボット2の移動方向に基づいて決定することができる。例えば、ロボット2が垂直方向へ移動している場合には、ロボット2の設置面に垂直な垂直面として再現することができるし、ロボット2が水平方向へ移動している場合には、ロボット2の設置面に平行な平行面として再現することができる。
実施形態では画像処理装置4と装着型ディスプレイ5とにより教示装置を構成する例を示したが、ロボット2を仮想空間内に再現する場合には、教示システム1が教示装置に相当することになる。
実施形態で示した提示情報の表示態様は一例であり、他の表示態様とすることができる。換言すると、提示情報は、ロボット2の位置や姿勢を提示できるものであれば、他の図形や文字あるいは記号を採用することができる。また、表示色を異ならせることにより移動方向の違いや傾きの大きさを提示することもできる。
提示情報は、ロボット2に最も近い基準対象物に対するものや、ロボット2からの距離が近い複数の基準対象物に対するもの、あるいは、ロボット2から所定の距離内に位置する基準対象物に対するもの等、複数を提示することができる。
提示情報は、ロボットの移動方向に位置する基準対象物に対して生成することができる。これにより、例えば現実に存在する周辺設備に衝突することを防止できる。この場合、安全を確保するために設定されている動作可能範囲の境界を基準対象物とすれば、安全の確保のために設定されている動作可能範囲を超えることも防止できる。
報知部は、表示面5aによる視覚的な報知を行う構成に限らず、スピーカやブザーにより聴覚的に報知する構成とすることができる。
実施形態では手先2aやワーク7から所定の距離範囲内に規制要因があるかを判定する例を示したが、過去の姿勢の変化に基づいて、手先2aの進行方向において所定の距離範囲内に規制要因があるかを判定する構成とすることもできる。
実施形態では提示情報を常に表示する例を示したが、手先2aやワーク7が作業者の視野に入ったことを画像処理により特定した場合に表示する構成とすることができる。
実施形態では装着型ディスプレイ5や環境センサ8により作業者とロボット2との位置関係を特定する例を示したが、環境センサ8としてCCDカメラを設け、そのCCDカメラで撮像した画像を画像処理することにより作業者とロボット2との位置関係を特定する構成とすることができる。
図面中、1は教示システム(教示装置)、2はロボット、4は画像処理装置(教示装置)、5は装着型ディスプレイ(教示装置)、5aは表示面(教示装置、報知部)、10aは取得部、10bは生成部を示す。

Claims (9)

  1. 直接教示によりロボットを教示する教示装置であって、
    作業者の視野に情報を表示する装着型ディスプレイと、
    基準対象物に対する前記ロボットの位置および姿勢を特定可能な位置姿勢データを取得する取得部と、
    前記装着型ディスプレイに表示する情報を生成する生成部と、を備え、
    前記生成部は、前記ロボットを作業者が操作する際、取得した前記位置姿勢データに基づいて前記ロボットの周辺に位置する基準対象物に対する前記ロボットの位置および姿勢の少なくとも一方を前記基準対象物側に示す提示情報を生成し、
    前記装着型ディスプレイは、前記提示情報を表示することを特徴とする教示装置。
  2. 前記ロボットは、仮想的に再現されたものであることを特徴とする請求項1記載の教示装置。
  3. 前記ロボットは、現実に実在するものであることを特徴とする請求項1記載の教示装置。
  4. 前記基準対象物は、仮想的に再現されたものであることを特徴とする請求項1から3のいずれか一項記載の教示装置。
  5. 前記基準対象物は、現実に実在するものであることを特徴とする請求項1から3のいずれか一項記載の教示装置。
  6. 前記生成部は、前記ロボットの手先の向きを当該ロボットの姿勢とみなして、前記提示情報を生成することを特徴とする請求項1から5のいずれか一項記載の教示装置。
  7. 前記基準対象物に対する前記ロボットの相対的な位置が予め設定されている基準距離を下回った場合、および、前記基準対象物に対する前記ロボットの姿勢の傾きが予め設定されている基準角度を上回って傾いた場合に作業者に報知する報知部を備えることを特徴とする請求項1から6のいずれか一項記載の教示装置。
  8. 前記提示情報は、前記ロボットの移動方向側に位置する前記基準対象物の表面、前記ロボットの移動方向側に位置する前記基準対象物との間の空間、あるいは、前記基準対象物の表面に表示される他の前記提示情報と隣り合う位置であって、前記ロボットの手先、当該手先に取り付けられるツール、あるいは当該ツールが作業するワークと重ならない位置に、前記ロボットの姿勢に関わらず、前記基準対象物を基準として当該基準対象物に垂直あるいは水平方向となる態様で表示されることを特徴とする請求項1から7のいずれか一項記載の教示装置。
  9. 直接教示によりロボットを教示する教示方法であって、
    前記ロボットを作業者が操作する際、前記ロボットの周辺に位置する基準対象物に対する前記ロボットの位置および姿勢の少なくとも一方を示す提示情報を、作業者が装着する装着型ディスプレイによって作業者の視野内の前記基準対象物側に重ねて表示することを特徴とする教示方法。
JP2018219899A 2017-11-28 2018-11-26 教示装置、教示方法 Active JP7259284B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US16/203,027 US11148299B2 (en) 2017-11-28 2018-11-28 Teaching apparatus and teaching method for robots

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017227866 2017-11-28
JP2017227866 2017-11-28

Publications (2)

Publication Number Publication Date
JP2019098513A JP2019098513A (ja) 2019-06-24
JP7259284B2 true JP7259284B2 (ja) 2023-04-18

Family

ID=66975194

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018219899A Active JP7259284B2 (ja) 2017-11-28 2018-11-26 教示装置、教示方法

Country Status (2)

Country Link
US (1) US11148299B2 (ja)
JP (1) JP7259284B2 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6787966B2 (ja) 2018-10-02 2020-11-18 ファナック株式会社 拡張現実と複合現実を用いたロボット制御装置及び表示装置
JP6806757B2 (ja) * 2018-11-16 2021-01-06 ファナック株式会社 動作プログラム作成装置
JP7517803B2 (ja) * 2019-10-23 2024-07-17 ファナック株式会社 ロボット教示システム、画像生成方法、及びプログラム
US12090669B2 (en) 2020-03-30 2024-09-17 Fanuc Corporation Off-line simulation system
WO2021245965A1 (ja) * 2020-06-05 2021-12-09 株式会社島津製作所 自動試料注入装置
EP4190513A4 (en) * 2020-08-03 2024-01-24 Mitsubishi Electric Corporation REMOTE CONTROL DEVICE
JP7068416B2 (ja) * 2020-10-27 2022-05-16 ファナック株式会社 拡張現実と複合現実を用いたロボット制御装置、ロボットの位置姿勢規定用コンピュータプログラム及びロボットの位置姿勢規定方法、相対位置姿勢取得用コンピュータプログラム及び相対位置姿勢取得方法
JP2022088884A (ja) * 2020-12-03 2022-06-15 セイコーエプソン株式会社 コンピュータープログラム、及び、ロボットの教示方法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017104944A (ja) 2015-12-10 2017-06-15 ファナック株式会社 仮想物体の画像をロボットの映像に重畳表示する映像表示装置を備えるロボットシステム

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017019068A (ja) * 2015-07-14 2017-01-26 セイコーエプソン株式会社 教示装置、ロボット、及びロボットシステム
JP2017074669A (ja) 2015-10-14 2017-04-20 株式会社リコー マニピュレータの制御装置、マニピュレータ駆動装置、及びロボットシステム
US9855664B2 (en) * 2015-11-25 2018-01-02 Denso Wave Incorporated Robot safety system
JP6348149B2 (ja) * 2016-07-08 2018-06-27 ファナック株式会社 ロボットを用いてレーザ加工を行うレーザ加工ロボットシステム
US11331803B2 (en) * 2017-04-17 2022-05-17 Siemens Aktiengesellschaft Mixed reality assisted spatial programming of robotic systems
JP6445092B2 (ja) * 2017-05-31 2018-12-26 ファナック株式会社 ロボットの教示のための情報を表示するロボットシステム

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017104944A (ja) 2015-12-10 2017-06-15 ファナック株式会社 仮想物体の画像をロボットの映像に重畳表示する映像表示装置を備えるロボットシステム

Also Published As

Publication number Publication date
US11148299B2 (en) 2021-10-19
JP2019098513A (ja) 2019-06-24
US20190314998A1 (en) 2019-10-17

Similar Documents

Publication Publication Date Title
JP7259284B2 (ja) 教示装置、教示方法
CA3016539C (en) Image processing method, display device, and inspection system
EP3055744B1 (en) A method and a device for verifying one or more safety volumes for a movable mechanical unit
JP6420229B2 (ja) 仮想物体の画像をロボットの映像に重畳表示する映像表示装置を備えるロボットシステム
US20210170603A1 (en) Method for using a multi-link actuated mechanism, preferably a robot, particularly preferably an articulated robot, by a user by means of a mobile display apparatus
EP3400587B1 (en) Systems and methods to provide weld training
US20160158937A1 (en) Robot system having augmented reality-compatible display
JP5390813B2 (ja) 空間情報表示装置及び支援装置
US10712566B2 (en) Information displaying system provided with head-mounted type display
JP7153594B2 (ja) 較正作業支援システム
JP2013161267A5 (ja)
US10406688B2 (en) Offline programming apparatus and method having workpiece position detection program generation function using contact sensor
US20240286272A1 (en) Robot teaching with scans in and out of robot workspace
JP7517803B2 (ja) ロボット教示システム、画像生成方法、及びプログラム
CN114939706A (zh) 基于面罩的焊接跟踪系统
JP2021167253A (ja) 可視化装置を備えたクレーン制御装置
WO2017155005A1 (en) Image processing method, display device, and inspection system
JP6368503B2 (ja) 障害物監視システム及びプログラム
KR102430282B1 (ko) 생산 라인에서의 작업자 위치 인식 방법 및 그 장치
US11919171B2 (en) Robot controller
JPH08322120A (ja) 高所作業用ブームの位置決め方法および位置決め支援装置
WO2024154218A1 (ja) プログラミング装置
EP4338897A1 (en) Weld angle correction device
US20240123611A1 (en) Robot simulation device
KR20170082028A (ko) 림 모션 장치

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210913

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220629

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220802

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20220830

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221102

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230307

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230320

R150 Certificate of patent or registration of utility model

Ref document number: 7259284

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150