JP2023038781A - ロボット教示システム、ロボット教示方法およびロボット教示用グローブ - Google Patents

ロボット教示システム、ロボット教示方法およびロボット教示用グローブ Download PDF

Info

Publication number
JP2023038781A
JP2023038781A JP2021145678A JP2021145678A JP2023038781A JP 2023038781 A JP2023038781 A JP 2023038781A JP 2021145678 A JP2021145678 A JP 2021145678A JP 2021145678 A JP2021145678 A JP 2021145678A JP 2023038781 A JP2023038781 A JP 2023038781A
Authority
JP
Japan
Prior art keywords
robot
teaching
instruction
virtual
teacher
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021145678A
Other languages
English (en)
Inventor
賢亮 小笠原
Kensuke Ogasawara
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2021145678A priority Critical patent/JP2023038781A/ja
Publication of JP2023038781A publication Critical patent/JP2023038781A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Manipulator (AREA)

Abstract

【課題】ロボット教示を効率よく行うことのできるロボット教示システム、ロボット教示方法およびロボット教示用グローブを提供する。【解決手段】ロボット教示システムは、仮想空間に仮想的なロボットを表示する表示部と、前記仮想的なロボットに対する教示者の指示を認識する認識部と、前記指示に基づいて実際のロボットを駆動できるか否かの駆動可否を報知する報知部と、を有する。また、前記報知部は、前記指示に基づいて前記実際のロボットを駆動できることを報知する。あるいは、前記指示に基づいて前記実際のロボットを駆動できないことを報知する。【選択図】図5

Description

本発明は、ロボット教示システム、ロボット教示方法およびロボット教示用グローブに関する。
例えば、特許文献1に記載されている教示システムでは、カメラで撮像した撮像映像に仮想ロボットを重畳させたAR映像をヘッドマウントディスプレイに表示し、ヘッドマウントディスプレイに表示された仮想ロボットを教示者が自身の指で操作して教示作業を行う。
特開2021-058949号公報
しかしながら、特許文献1の教示システムでは、実際のロボットが教示された動作を行うことができるか否かが教示作業中に分からない。そのため、仮に、実際のロボットが教示された動作を行うことができなかった場合には教示作業をやり直す必要がある。したがって、教示作業の効率が悪いという課題がある。
本発明のロボット教示システムは、仮想空間に仮想的なロボットを表示する表示部と、
前記仮想的なロボットに対する教示者の指示を認識する認識部と、
前記指示に基づいて実際のロボットを駆動できるか否かの駆動可否を報知する報知部と、を有する。
本発明のロボット教示方法は、仮想空間に仮想的なロボットを表示し、
前記仮想的なロボットに対する教示者の指示を認識し、
前記指示に基づいて実際のロボットを駆動できるか否かの駆動可否を報知する。
本発明のロボット教示用グローブは、仮想空間に仮想的なロボットを表示する表示部と、前記仮想的なロボットに対する教示者の指示を認識する認識部と、を有するロボット教示システムに用いられ、
前記教示者に装着して使用され、前記指示に基づいて実際のロボットを駆動できるか否かの駆動可否を報知する報知部を備える。
第1実施形態に係るロボット教示システムの全体構成を示す図である。 ヘッドマウントディスプレイに表示されるAR映像を示す図である。 ロボット教示用グローブの触覚部を示す図である。 教示方法を示すフローチャートである。 教示方法を示すフローチャートである。 第2実施形態に係るロボット教示システムで用いられるロボット教示用グローブを示す図である。
以下、本発明のロボット教示システム、ロボット教示方法およびロボット教示用グローブを添付図面に示す好適な実施形態に基づいて詳細に説明する。
<第1実施形態>
図1は、第1実施形態に係るロボット教示システムの全体構成を示す図である。図2は、ヘッドマウントディスプレイに表示されるAR映像を示す図である。図3は、ロボット教示用グローブの触覚部を示す図である。図4および図5は、それぞれ、教示方法を示すフローチャートである。
図1に示すロボット教示システム1は、仮想空間Sに表示した仮想的なロボットである仮想ロボット2に対してダイレクトティーチを行うことにより、実際のロボットであるロボット3に対する教示作業を行うことのできるシステムである。このようなロボット教示システム1は、ロボット3と、表示部としてのヘッドマウントディスプレイ4と、ロボット教示用グローブ5と、2台のカメラ61、62と、情報処理装置7と、を有する。
≪ヘッドマウントディスプレイ4≫
ヘッドマウントディスプレイ4は、教示者Uに装着される。また、ヘッドマウントディスプレイ4は、表示画面40と、教示者Uの正面を撮像するカメラ41と、を有する。また、図2に示すように、表示画面40には、カメラ41で撮像した現実世界の映像と仮想ロボット2とを重畳させた拡張現実映像(AR映像)が表示される。ただし、表示画面40に表示される映像は、拡張現実映像に限定されず、仮想現実映像(VR映像)、複合現実映像(MR映像)等であってもよい。
なお、表示部としては、その機能を発揮することができれば、ヘッドマウントディスプレイ4に限定されない。
≪ロボット教示用グローブ5≫
ロボット教示用グローブ5は、教示者Uの手に装着される手袋型のコントローラーである。図3に示すように、ロボット教示用グローブ5は、指の部分に配置された触覚部51を有し、教示者Uにリアルな触覚を提供することができる。また、この触覚部51は、教示者Uに対して特定の情報(後述する判定部74での判定結果)を報知する報知部8としても機能する。このように、報知部8を教示者Uの触覚を刺激する構成とすることにより、教示者Uに対してより確実な報知が可能となる。本実施形態の触覚部51は、手の甲Hに搭載されたサーボモーター511によって指Fに繋がれたワイヤロープ512を引っ張ったり緩めたりすることにより教示者Uに触覚を提供する構成となっている。
≪カメラ61、62≫
図1に示すように、カメラ61、62は、互いに異なる場所に設置され、それぞれ、教示者Uによる教示作業が行われるエリアすなわち仮想ロボット2が設置されるエリアを画角内に含むように配置されている。
≪情報処理装置7≫
情報処理装置7は、例えば、コンピューターから構成され、情報を処理するプロセッサー(CPU)と、プロセッサーに通信可能に接続されたメモリーと、外部インターフェースと、を有する。また、メモリーにはプロセッサーにより実行可能な各種プログラムが保存され、プロセッサーは、メモリーに記憶された各種プログラム等を読み込んで実行することができる。このような情報処理装置7は、図1に示すように、認識部71と、動作プログラム生成部72と、画像生成部73と、判定部74と、を有する。
認識部71は、2台のカメラ61、62が撮像した画像データ同士の視差からロボット教示用グローブ5の位置姿勢(座標)を検出する。認識部71は、さらに、ロボット教示用グローブ5の動きに基づいて、教示者Uが仮想ロボット2に対してどのような操作を加えたかを解析する。
動作プログラム生成部72は、認識部71で解析された情報に基づいて、ロボット3用の動作プログラムPを生成する。動作プログラム生成部72で生成された動作プログラムPは、ロボット3に送信される。
画像生成部73は、カメラ41で撮像した現実世界の映像と仮想ロボット2とを重畳させたAR映像を生成する。画像生成部73で生成されたAR映像は、ヘッドマウントディスプレイ4に送信され、ヘッドマウントディスプレイ4の表示画面40に表示される。また、画像生成部73は、教示者Uによって仮想ロボット2に何らかの操作が加えられた場合、その操作をAR映像に反映する。つまり、表示画面40には、教示者Uの操作通りに動く仮想ロボット2が表示される。そのため、教示者Uは、教示作業をより円滑にかつ精度よく行うことができる。
判定部74は、動作プログラム生成部72で生成された動作プログラムPに基づいてロボット3を駆動できるか否かの駆動可否を判定する。駆動可否の判定基準としては、特に限定されないが、例えば、動作プログラムPに基づくロボット3の動作がロボット3の可動範囲を超えているか否か、ロボット3の動作中にロボット3が取り得ない姿勢を含んでいるか否か、ロボット3の動作中にロボット3が周囲の構造体にぶつかるか否か、等が挙げられる。また、ロボット3が人と共存して作業を行う場合には、共同作業する人間と接触するか否か、等がさらに挙げられる。
≪ロボット3≫
図1に示すように、ロボット3は、6つの駆動軸を有する6軸ロボットである。ロボット3は、床に固定された基台31と、基台31に接続されたロボットアーム32と、ロボットアーム32の先端に装着されたエンドエフェクター33と、ロボット制御装置34と、を有する。
また、ロボットアーム32は、複数のアーム321、322、323、324、325、326が回動自在に連結されたロボティックアームであり、6つの関節J1~J6を備えている。このうち、関節J2、J3、J5は、曲げ関節であり、関節J1、J4、J6は、ねじり関節である。また、関節J1、J2、J3、J4、J5、J6には、それぞれ、駆動源であるモーターと、モーターの回転量(アームの回動角)を検出するエンコーダーとが設置されている。
また、ロボット制御装置34は、関節J1~J6およびエンドエフェクター33の駆動を制御してロボット3に所定の作業を行わせる。ロボット制御装置34は、例えば、コンピューターから構成され、情報を処理するプロセッサー(CPU)と、プロセッサーに通信可能に接続されたメモリーと、外部インターフェースと、を有する。また、メモリーにはプロセッサーにより実行可能な各種プログラムが保存され、プロセッサーは、メモリーに記憶された各種プログラム等を読み込んで実行することができる。
以上、ロボット教示システム1の全体構成について説明した。次に、このロボット教示システム1による教示方法について説明する。ロボット教示システム1による教示方法は、図4に示すように、教示作業に必要な各種情報を取得する情報取得ステップS1と、情報取得ステップS1で得られた情報に基づいて仮想空間Sを構築する仮想空間構築ステップS2と、仮想空間構築ステップS2で構築された仮想空間S内で仮想ロボット2に対して教示を行う教示ステップS3と、を有する。
[情報取得ステップS1]
情報取得ステップS1では、情報処理装置7が教示作業に必要な各種情報を教示者Uから取得する。各種情報としては、特に限定されず、教示の内容によっても異なるが、例えば、仮想ロボット2、作業対象物、仮想ロボット2の周囲にある構造体等の位置および形状に関する情報が挙げられる。各種情報の取得は、例えば、情報処理装置7が有する図示しない入力部を介して行われる。
[仮想空間構築ステップS2]
仮想空間構築ステップS2では、情報処理装置7が情報取得ステップS1で取得した各種情報に基づいて仮想空間Sを構築する。なお、本ステップで構築する仮想空間Sは、実際の作業環境と実質的に同じ空間である。言い換えると、仮想空間Sは、実際の作業環境を再現した空間である。これにより、教示作業をより正確に行うことができる。構築された仮想空間Sは、VR映像としてヘッドマウントディスプレイ4に送信され、ヘッドマウントディスプレイ4の表示画面40に表示される。図2の例では、ロボット3に対応する仮想ロボット2と共に、ロボット3の作業対象であるワークWおよびロボット3の周囲に存在する構造体Zが表示されている。ここで、表示画面40に表示されるAR映像は、原寸大であってもよいし、縮小サイズまたは拡大サイズであってもよい。図示の例では、教示を容易とするために縮小サイズのロボット2が表示されている。
[教示ステップS3]
教示ステップS3では、仮想空間構築ステップS2で構築された仮想空間S内で仮想ロボット2に対して教示を行う。このような教示ステップS3は、図5に示すように、教示者Uによる教示が行われるステップS31と、教示者Uからの教示に応じた動作プログラムPを生成するステップS32と、動作プログラムPに基づいてロボット3を駆動できるか否かの駆動可否を判定するステップS33と、判定結果を教示者Uに報知するステップS34と、教示終了指示の有無を判断するステップS35と、を有する。以下、具体的に説明する。
まず、ステップS31として、教示者Uは、ロボット教示用グローブ5を装着した自身の手で仮想ロボット2に対する操作を行う。この際、情報処理装置7は、認識部71において、カメラ61、62の画像データから教示者Uが仮想ロボット2に対してどのような操作を加えたかを解析する。すなわち、情報処理装置7は、教示者Uからの教示を受け付ける。さらに、情報処理装置7は、画像生成部73において、認識部71で解析した操作に応じて仮想ロボット2が動くAR映像を生成すると共に、ロボット教示用グローブ5の触覚部51を駆動して教示者Uに対して仮想ロボット2を実際に触っているかのような触覚を与える。これにより、教示者Uには、自身が仮想ロボット2を実際に操作しているような映像および感覚が提供される。そのため、より現実に近い環境で教示作業を行うことができる。
以下では、一例として、教示者Uが仮想ロボット2を動かして、エンドエフェクター33を開始点A1から、経由点A2、A3を経由して終了点Anまで移動させた場合について説明する。このように、教示者Uからの教示が行われると、ステップS32として、情報処理装置7は、動作プログラム生成部72において、教示者Uからの教示に応じた動作プログラムPを生成する。つまり、実際のロボット3を開始点A1から経由点A2、A3を経由して終了点Anまで移動させるための動作プログラムPを生成する。
次に、ステップS33として、情報処理装置7は、判定部74において、動作プログラムPに基づいてロボット3を駆動できるか否かの駆動可否を判定する。例えば、開始点A1から終了点Anまでの移動中に、周囲の構造体Zにぶつかる場合や、ロボット3が取り得ない姿勢となる場合、判定部74は、駆動「否」の判定を行う。一方、開始点A1から終了点Anまでの移動中に、周囲の構造体Zにぶつからず、ロボット3が取り得ない姿勢にもならない場合、判定部74は、駆動「可」の判定を行う。
次に、ステップS34として、情報処理装置7は、動作プログラムPに基づくロボット3の駆動が駆動「可」であるのか駆動「否」であるのかが分かるように、判定結果を教示者Uに報知する。これにより、教示者Uは、自身が行った教示に基づく作業が実際のロボット3で可能であるかを、教示作業を行いながら知ることができる。そのため、駆動「否」であった場合の修正が容易となり、教示作業の効率が向上する。
報知方法としては、特に限定されず、本実施形態ではロボット教示用グローブ5が有する触覚部51すなわち報知部8を用いて報知する。触覚部51を利用することにより、報知部8を別に設ける必要が無くなり、システムの構成が簡単となる。報知の際は、駆動「否」では触覚部51を用いた報知を行わず、駆動「可」のときだけ触覚部51を駆動して教示者Uの指に触覚を提供し、報知を行ってもよい。つまり、駆動「可」であることを報知してもよい。反対に、駆動「可」では触覚部51を用いた報知を行わず、駆動「否」のときだけ触覚部51を駆動して教示者Uの指に触覚を提供し、報知を行ってもよい。つまり、駆動「否」であることを報知してもよい。このような方法によれば、判定結果を教示者Uに対して、より明確に報知することができる。
なお、報知部8は、触覚部51と別に設けてもよい。この場合の報知部8としては、特に限定されず、例えば、指の部分にエアーバックを配置し、このエアーバックを膨らませたり萎ませたりすることにより教示者Uに対して報知を行ってもよい。また、バイブレーター等の振動により報知する構成、ヒーター等の熱により報知する構成等であってもよい。
また、情報処理装置7は、触覚に加えて、さらに、音により、判定部74での判定結果を報知する。例えば、触覚部51を介して駆動「可」であることを報知する場合には、それに対応させて、駆動「可」であるときにその旨を表す音を図示しないスピーカーから発生させる。反対に、触覚部51を介して駆動「否」であることを報知する場合には、それに対応させて、駆動「否」であるときにその旨を表す音を図示しないスピーカーから発生させる。このように、触覚のみならず音によっても判定結果を報知することにより、より確実に、判定結果を教示者Uに教示することができる。このような場合は、触覚部51とスピーカーとで報知部8が構成されていると言える。
また、情報処理装置7は、触覚および音に加えて、さらに、表示画面40に表示された仮想ロボット2の色を変化させることによっても、判定部74での判定結果を報知する。例えば、触覚部51を介して駆動「可」であることを報知する場合は、それに対応させて、駆動「可」であるときに仮想ロボット2の全体または一部を緑色に変化させる。反対に、触覚部51を介して駆動「否」であることを報知する場合は、それに対応させて、駆動「否」であるときに仮想ロボット2の全体または一部を赤色に変化させる。このように、触覚および音に加えて、さらに色の変化によって判定結果を報知することにより、より確実に、判定結果を教示者Uに教示することができる。このような場合は、触覚部51とスピーカーと表示画面40とで報知部8が構成されていると言える。
ここで、例えば、ロボット3の駆動中に周囲にある構造体Zとぶつかってしまう理由で駆動「否」となる場合は、構造体Zとぶつかる姿勢のときに、ぶつかる箇所だけを赤色に変更してもよい。また、ロボット3の駆動中にある関節J1が可動域を超えてしまう理由で駆動「否」となる場合には、関節J1が可動域を超えるときに、関節J1だけを赤色に変化させてもよい。このような方法によれば、駆動「否」という判定結果のみならず、駆動「否」となる原因を教示者Uに報知することができ、教示作業のやり直しをより効率的に行うことができる。
以上、ステップS31~S34について説明したが、ステップS32は、ステップS31が終了する前に開始してもよい。つまり、開始点A1から経由点A2、A3を経由して終了点Anまでの教示が終わってからステップS32を開始するのではなく、例えば、経由点A2の教示があった時点で、開始点A1から経由点A2までの動作プログラムPを生成し、経由点A3の教示があった時点で、経由点A2から経由点A3までの動作プログラムPを生成し、終了点Anの教示があった時点で、経由点A3から終了点Anまでの動作プログラムPを生成するように構成されていてもよい。つまり、動作プログラムPを動作させながら教示者Uによる指示を受け付け、指示を受け付けている中で駆動可否を報知してもよい。このような構成によれば、ステップS31と並行してステップS32~S34を行うことができるため、ステップS31中にステップS34における報知を行うことができる。そのため、教示者Uは、教示中にリアルタイムで駆動可否を知ることができ、よりスムーズな教示作業が可能となる。
次に、ステップS35として、情報処理装置7は、教示者Uからの教示終了指示の有無を判断する。そして、教示終了指示を受け付けていなければ、ステップS31~ステップS35を繰り返し行い、教示終了指示を受け付けた時点で教示ステップS3を終了する。
ここで、例えば、1度目の教示の結果が駆動「否」でステップS31から教示作業をやり直す場合、仮想ロボット2への教示を再びゼロから行ってもよいし、1度目の教示を利用して行ってもよい。例えば、経由点A2から経由点A3への移動中にロボット3が周囲の構造体Zとぶつかることを理由に駆動「否」となったことが分かっていれば、構造体Zとの接触を回避するように、1度目の教示に対して経由点A2と経由点A3との間に経由点A2.5を追加する教示を行うだけで教示作業を完了することができる。また、例えば、終了点Anでのロボット3の姿勢が、実際にはとり得ない姿勢であることを理由に駆動「否」となったことが分かっていれば、1度目の教示に対して終了点Anでのロボットアーム32の姿勢だけを変更する教示を行うだけで教示作業を完了することができる。そのため、教示作業のやり直しを効率的かつ簡単に行うことができる。
以上、ロボット教示システム1について説明した。このようなロボット教示システム1は、前述したように、仮想空間Sに仮想的なロボットである仮想ロボット2を表示する表示部としての表示画面40と、仮想ロボット2に対する教示者Uの指示を認識する認識部71と、教示者Uの指示に基づいて実際のロボット3を駆動できるか否かの駆動可否を報知する報知部8としての触覚部51と、を有する。このようなシステムによれば、教示者Uは、自身が行った教示に基づく作業が実際のロボット3で可能であるかを、教示作業を行いながら知ることができる。そのため、駆動「否」であった場合の修正が容易となり、教示作業の効率が向上する。
また、前述したように、ロボット教示システム1は、教示者Uの指示に基づく動作プログラムPを生成する動作プログラム生成部72を有し、動作プログラムPを動作させながら教示者Uによる指示を受け付け、指示を受け付けている中で駆動可否を報知する。これにより、教示者Uは、教示中にリアルタイムで駆動可否を知ることができ、よりスムーズな教示作業が可能となる。
また、前述したように、報知部8は、教示者Uの指示に基づいて実際のロボット3を駆動できること、すなわち駆動「可」であることを報知する。これにより、教示者Uに駆動可否を報知することができる。
また、前述したように、報知部8は、教示者Uの指示に基づいて実際のロボット3を駆動できないこと、すなわち駆動「否」であることを報知する。これにより、教示者Uに駆動可否を報知することができる。
また、前述したように、報知部8は、教示者Uに触覚を提供することにより駆動可否を報知する。これにより、教示者Uに駆動可否をより確実に報知することができる。
また、前述したように、報知部8は、音により駆動可否を報知する。これにより、教示者Uに駆動可否をより確実に報知することができる。
また、前述したように、報知部8は、仮想ロボット2の色を変化させることにより駆動可否を報知する。これにより、教示者Uに駆動可否をより確実に報知することができる。
また、前述したように、ロボット教示システム1を用いた教示方法は、仮想空間Sに仮想的なロボットである仮想ロボット2を表示し、仮想ロボット2に対する教示者Uの指示を認識し、教示者Uの指示に基づいて実際のロボット3を駆動できるか否かの駆動可否を報知する。このような教示方法によれば、教示者Uは、自身が行った教示に基づく作業が実際のロボット3で可能であるかを、教示作業を行いながら知ることができる。そのため、駆動「否」であった場合の修正が容易となり、教示作業の効率が向上する。
また、前述したように、ロボット教示用グローブ5は、仮想空間Sに仮想的なロボットである仮想ロボット2を表示する表示部としての表示画面40と、仮想ロボット2に対する教示者Uの指示を認識する認識部71と、を有するロボット教示システム1に用いられ、教示者Uに装着して使用され、教示者Uの指示に基づいて実際のロボット3を駆動できるか否かの駆動可否を報知する報知部8を備える。このようなロボット教示用グローブ5によれば、教示者Uは、自身が行った教示に基づく作業が実際のロボット3で可能であるかを、教示作業を行いながら知ることができる。そのため、駆動「否」であった場合の修正が容易となり、教示作業の効率が向上する。
<第2実施形態>
図6は、第2実施形態に係るロボット教示システムで用いられるロボット教示用グローブを示す図である。
本実施形態は、主に、ロボット教示用グローブ5の位置姿勢(座標)を検出する方法が異なること以外は、前述した第1実施形態と同様である。以下の説明では、本実施形態に関し前述した実施形態との相違点を中心に説明し、同様の事項に関してはその説明を省略する。また、本実施形態における図において、前述した実施形態と同様の構成については、同一符号を付している。
図6に示すように、本実施形態のロボット教示システム1では、カメラ61、62が省略されており、その代わりに、ロボット教示用グローブ5に指示部としての複数のトラッキングセンサー59が配置されている。トラッキングセンサー59は、認識部71で認識可能であり、3軸角速度および3軸加速度を独立して計測可能なIMUの他に、地磁気計や圧力計を備える一般的なものを使用することができる。
このような構成の場合、認識部71は、各トラッキングセンサー59からの出力に基づいてロボット教示用グローブ5の位置姿勢を検出し、教示者Uが仮想ロボット2に対してどのような操作を加えたかを解析する。つまり、教示者Uによる教示を認識する。本実施形態の構成によれば、カメラ61、62が必要ないため、より狭い空間で教示作業を行うことができる。
以上のように、本実施形態では、ロボット教示用グローブ5は、認識部71が認識可能な指示部としてのトラッキングセンサー59を有し、認識部71は、トラッキングセンサー59の動きに基づいて教示者Uの教示を認識する。これにより、より狭い空間で教示作業を行うことができる。
このような第2実施形態によっても、前述した第1実施形態と同様の効果を発揮することができる。
以上、本発明のロボット教示システム、ロボット教示方法およびロボット教示用グローブを図示の実施形態に基づいて説明したが、本発明は、これに限定されるものではなく、各部の構成は、同様の機能を有する任意の構成のものに置換することができる。また、本発明に、他の任意の構成物が付加されていてもよい。また、各実施形態を適宜組み合わせてもよい。
1…ロボット教示システム、2…仮想ロボット、3…ロボット、31…基台、32…ロボットアーム、321…アーム、322…アーム、323…アーム、324…アーム、325…アーム、326…アーム、33…エンドエフェクター、34…ロボット制御装置、4…ヘッドマウントディスプレイ、40…表示画面、41…カメラ、5…ロボット教示用グローブ、51…触覚部、511…サーボモーター、512…ワイヤロープ、59…トラッキングセンサー、61…カメラ、62…カメラ、7…情報処理装置、71…認識部、72…動作プログラム生成部、73…画像生成部、74…判定部、8…報知部、F…指、H…甲、J1…関節、J2…関節、J3…関節、J4…関節、J5…関節、J6…関節、P…動作プログラム、S…仮想空間、S1…情報取得ステップ、S2…仮想空間構築ステップ、S3…教示ステップ、S31…ステップ、S32…ステップ、S33…ステップ、S34…ステップ、S35…ステップ、U…教示者、W…ワーク、Z…構造体

Claims (10)

  1. 仮想空間に仮想的なロボットを表示する表示部と、
    前記仮想的なロボットに対する教示者の指示を認識する認識部と、
    前記指示に基づいて実際のロボットを駆動できるか否かの駆動可否を報知する報知部と、を有することを特徴とするロボット教示システム。
  2. 前記指示に基づく動作プログラムを生成する動作プログラム生成部を有し、
    前記動作プログラムを動作させながら前記教示者による指示を受け付け、前記指示を受け付けている中で前記駆動可否を報知する請求項1に記載のロボット教示システム。
  3. 前記報知部は、前記指示に基づいて前記実際のロボットを駆動できることを報知する請求項1または2に記載の教示システム。
  4. 前記報知部は、前記指示に基づいて前記実際のロボットを駆動できないことを報知する請求項1または2に記載の教示システム。
  5. 前記報知部は、前記教示者に触覚を提供することにより前記駆動可否を報知する請求項1ないし4のいずれか1項に記載の教示システム。
  6. 前記報知部は、音により前記駆動可否を報知する請求項1ないし4のいずれか1項に記載の教示システム。
  7. 前記報知部は、前記仮想的なロボットの色を変化させることにより前記駆動可否を報知する請求項1ないし4のいずれか1項に記載の教示システム。
  8. 仮想空間に仮想的なロボットを表示し、
    前記仮想的なロボットに対する教示者の指示を認識し、
    前記指示に基づいて実際のロボットを駆動できるか否かの駆動可否を報知することを特徴とするロボット教示方法。
  9. 仮想空間に仮想的なロボットを表示する表示部と、前記仮想的なロボットに対する教示者の指示を認識する認識部と、を有するロボット教示システムに用いられ、
    前記教示者に装着して使用され、前記指示に基づいて実際のロボットを駆動できるか否かの駆動可否を報知する報知部を備えることを特徴とするロボット教示用グローブ。
  10. 前記認識部が認識可能な指示部を有し、
    前記認識部は、前記指示部の動きに基づいて前記教示を認識する請求項9に記載のロボット教示用グローブ。
JP2021145678A 2021-09-07 2021-09-07 ロボット教示システム、ロボット教示方法およびロボット教示用グローブ Pending JP2023038781A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021145678A JP2023038781A (ja) 2021-09-07 2021-09-07 ロボット教示システム、ロボット教示方法およびロボット教示用グローブ

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021145678A JP2023038781A (ja) 2021-09-07 2021-09-07 ロボット教示システム、ロボット教示方法およびロボット教示用グローブ

Publications (1)

Publication Number Publication Date
JP2023038781A true JP2023038781A (ja) 2023-03-17

Family

ID=85514605

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021145678A Pending JP2023038781A (ja) 2021-09-07 2021-09-07 ロボット教示システム、ロボット教示方法およびロボット教示用グローブ

Country Status (1)

Country Link
JP (1) JP2023038781A (ja)

Similar Documents

Publication Publication Date Title
US11986259B2 (en) Association processes and related systems for manipulators
CN110800033A (zh) 虚拟现实腹腔镜式工具
JP6678832B2 (ja) 遠隔制御マニピュレータシステムおよび制御装置
CN111093903B (zh) 机器人系统及其运行方法
WO2011065035A1 (ja) ロボットの教示データを作成する方法およびロボット教示システム
CN111487946B (zh) 机器人系统
WO2011065034A1 (ja) ロボットの動作を制御する方法およびロボットシステム
JP2020015128A (ja) センシングシステム、作業システム、拡張現実画像の表示方法、拡張現実画像の記憶方法、およびプログラム
JP5028568B2 (ja) ロボット制御システム
CN112008692A (zh) 示教方法
JP5108032B2 (ja) 多関節構造体教示装置
JP7071070B2 (ja) ロボットシステム及びその運転方法
US11458618B2 (en) Collaborative operation support device
JP4997419B2 (ja) ロボット用動作変換システム
JP6625266B1 (ja) ロボット制御装置
JP2020011357A (ja) 制御装置、ヘッドマウントディスプレイおよびロボットシステム
JP2023038781A (ja) ロボット教示システム、ロボット教示方法およびロボット教示用グローブ
JP2782428B2 (ja) 仮想物体操作装置
WO2022195680A1 (ja) ロボットの作業教示装置及び作業教示方法
KR101474778B1 (ko) 다관절 로봇의 동작인식을 통한 제어장치 및 그 방법
JP5005585B2 (ja) 操作装置及びその方法
EP4300231A1 (en) Teaching method and teaching apparatus
CN117251058B (zh) 一种多信息体感交互系统的控制方法
JPH06110545A (ja) 教示データのプログラミング方法
JPH0557637A (ja) ロボツトハンドのマスタ・スレーブ対応動作制御装置