JP7386451B2 - 教示システム、教示方法及び教示プログラム - Google Patents

教示システム、教示方法及び教示プログラム Download PDF

Info

Publication number
JP7386451B2
JP7386451B2 JP2019183318A JP2019183318A JP7386451B2 JP 7386451 B2 JP7386451 B2 JP 7386451B2 JP 2019183318 A JP2019183318 A JP 2019183318A JP 2019183318 A JP2019183318 A JP 2019183318A JP 7386451 B2 JP7386451 B2 JP 7386451B2
Authority
JP
Japan
Prior art keywords
robot
image
user
function
virtual
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019183318A
Other languages
English (en)
Other versions
JP2021058949A (ja
Inventor
友和 田中
亨 高木
良則 佐藤
三雄 福富
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
MAMEZOU CO.,LTD.
Original Assignee
MAMEZOU CO.,LTD.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by MAMEZOU CO.,LTD. filed Critical MAMEZOU CO.,LTD.
Priority to JP2019183318A priority Critical patent/JP7386451B2/ja
Publication of JP2021058949A publication Critical patent/JP2021058949A/ja
Priority to JP2023188927A priority patent/JP2023181513A/ja
Application granted granted Critical
Publication of JP7386451B2 publication Critical patent/JP7386451B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Manipulator (AREA)
  • Numerical Control (AREA)

Description

本発明は、ロボットが実行する処理を教示する教示システム、教示方法及び教示プログラムに関する。
従来、ロボットに所定の作業を実行させるにあたって、様々なティーチングの手法が行われている。特許文献1には、ロボットの教示操作を行う教示装置であって、教示点の修正をハンドガイドまたはジョグ送りで修正する手法が開示されている。また、特許文献2には、拡張現実対応ディスプレイを用いて、実映像にロボットの状態や操作ガイドに関する情報をロボットの使用者に提供する技術が開示されている。また、特許文献3には、ロボットの動作プログラムをユーザが作成し、その動作に従った動作を仮想空間上のロボットに実行させて動作確認を行うことが開示されている。
特開2019-093491号公報 特開2016-107379号公報 特開2014-180707号公報
ところで、通常ロボットに対する教示においては、一般的には、上記特許文献1のように実際にユーザがロボットを動かさなければならないという煩雑さや、上記特許文献3のように、動作プログラムを作成するにあたって、専門的知識が必要になるという問題がある。しかしながら、今後、このようなロボットを一般のユーザにも簡単に操作でき、ロボットに対して実行すべき指示を出せるようなシステムが望まれている。
そこで、本発明は上記要望に鑑みて成されたものであり、専門知識がなくとも、ロボットが実行すべき処理を感覚的に教示することができる教示システム、教示方法、及び、教示プログラムを提供することを目的とする。
上記課題を解決するために、本発明に係る教示システムは、画像を表示する表示部と、ユーザの視野方向を撮像する撮像部と、表示部に表示する、仮想的なロボットと、撮像部により撮像された撮像映像とを合成した合成映像を生成する画像生成部と、画像生成部により生成された映像からユーザの手による仮想的なロボットに対する操作を検出する検出部と、検出部により検出された操作に基づき実際のロボットの動作命令を生成する命令生成部と、動作命令を実際のロボットに送信する送信部とを備える。
また、本発明の一態様に係る教示方法は、教示システムが実行するロボットへの教示方法であって、画像を表示する表示ステップと、ユーザの視野方向を撮像する撮像ステップと、表示ステップにおいて表示する、仮想的なロボットと、撮像ステップにより撮像された撮像映像とを合成した合成映像を生成する画像生成ステップと、画像生成ステップにより生成された映像からユーザの手による仮想的なロボットに対する操作を検出する検出ステップと、検出ステップにより検出された操作に基づき実際のロボットの動作命令を生成する命令生成ステップと、動作命令を実際のロボットに送信する送信ステップとを含む。
また、本発明の一態様に係る教示プログラムは、教示システムのコンピュータに、画像を表示する表示機能と、ユーザの視野方向を撮像する撮像機能と、表示機能が表示する、仮想的なロボットと、撮像機能により撮像された撮像映像とを合成した合成映像を生成する画像生成機能と、画像生成機能により生成された映像からユーザの手による仮想的なロボットに対する操作を検出する検出機能と、検出機能により検出された操作に基づき実際のロボットの動作命令を生成する命令生成機能と、動作命令を実際のロボットに送信する送信機能とを実現させる。
上記教示システムにおいて、ロボットは、物品を把持する把持部を有し、画像生成部は、更に、仮想的な物品を合成した合成映像を生成し、検出部は、ユーザが仮想的なロボットの把持部を操作して把持させた物品を特定するとともに、把持部に物品をリリースさせた場所または対象を特定し、命令生成部は、実際のロボットに対して、検出部が特定した物品を、場所又は対象まで運搬させる動作命令を生成することとしてもよい。
上記教示システムにおいて、ロボットは、自立移動可能なロボットであり、検出部は、ユーザが仮想的なロボットを合成映像内を移動させた移動経路を検出し、命令生成部は、実際のロボットに対して、検出部が特定した移動経路上を移動する動作命令を生成することとしてもよい。
上記教示システムにおいて、撮像部は、実際のロボットを含む映像を撮像映像として撮像し、合成映像は、仮想的なロボットを、撮影映像中の実際のロボットに対して重畳した合成映像を生成することとしてもよい。
上記教示システムにおいて、ロボットは、7軸ロボットであることとしてもよい。
本発明の一態様に係る教示システムは、仮想上のロボットに対するユーザからの感覚的な入力を解釈して、実際のロボットが実行すべき処理に対する教示命令を生成して出力することができる。したがって、実際のロボットを動かす煩雑さやロボットを動作させるための専門的知識がなくとも、ロボットに対する教示を実行することができる。
教示システムの構成例を示す概要図である。 教示システムに係る各装置の構成例を示すブロック図である。 オブジェクトの管理表の構成例を示すデータ概念図である。 映像の表示画面の一例であり、ユーザによるロボットの操作例を示す画面図である。 図4に続く映像の表示画面の一例であり、ユーザによるロボットの操作例を示す画面図である。 図5に続く映像の表示画面の一例であり、ユーザによるロボットの操作例を示す画面図である。 図6に続く映像の表示画面の一例であり、ユーザによるロボットの操作例を示す画面図である。 図7に続く映像の表示画面の一例であり、ユーザによるロボットの操作例を示す画面図である。 教示システムに係る各装置間のやり取りを示すシーケンス図である。 ヘッドマウントディスプレイの動作例を示すフローチャートである。 情報処理装置の動作例を示すフローチャートである。 ロボットの動作例を示すフローチャートである。 他のロボットを操作する際の例を示す画面図である。
以下、本発明の一実施態様に係る教示システムについて、図面を参照しながら詳細に説明する。
<実施の形態>
<概要>
図1は、本発明に係る教示システム1の概要を示す概要図である。図1に示すように、教示システム1には、情報処理装置120と、情報処理装置120から提供される映像を視聴可能なヘッドマウントディスプレイ110と、ロボット200とを含む。情報処理装置120は、ヘッドマウントディスプレイ110を装着したユーザ10に、仮想空間上のロボット200と、ゴミ箱20と、ペットボトル30とを含む映像を表示する。当該映像は、AR(Augumented Reality)映像であってもよいし、VR(Virtual Reality)映像であってもよいし、MR(Mixed Reality)映像であってもよい。ヘッドマウントディスプレイ110には撮像部(カメラ)が搭載され、その撮像部から得られた映像を情報処理装置120に送信する。ユーザ10は、視界内に存在する仮想ロボットに対して自身の指で操作するようにして、AR映像としてのロボットを操作する。この操作は撮像部が撮像した映像内に、ユーザの手が含まれ、その形状が予め定めた動作をしている場合にロボットに対する操作として検出する。例えば、ユーザは仮想ロボットのハンドを操作して、ペットボトル30を把持させ、ゴミ箱20の位置にまで持ってこさせ、リリースしたとする。情報処理装置120は、一連の操作を解析し、ユーザによる指示が「ペットボトルをゴミ箱に捨てる」ことであると解釈する。そして、その解釈にしたがって、実際のロボット200に対して、「ペットボトルを探索して、指定のゴミ箱に捨てろ」という内容の教示命令を生成して、送信する。これにより、ロボットに対するティーチングを簡便かつ容易な教示システム1を提供することができる。
なお、情報処理装置120は、他のユーザ10aがヘッドマウントディスプレイ110aを装着することでユーザ10aの位置から視聴可能な角度で、ユーザ10が視聴している映像と同様の映像を提供することとしてもよい。以下、詳細に説明する。
<構成>
図2は、教示システム1に係る各装置の機能構成の一例を示すブロック図である。図2に示すように教示システム1は、ヘッドマウントディスプレイ110と、情報処理装置120と、ロボット200とを含む。ヘッドマウントディスプレイ110と情報処理装置120とは互いに通信可能に接続され、同様に情報処理装置120とロボット200も互いに通信可能に接続されている。これらの接続は、無線接続であってもよいし、有線接続であってもよい。
図2に示すように、ヘッドマウントディスプレイ110は、通信部111と、記憶部112と、制御部113と、撮像部114と、表示部115とを備える。ヘッドマウントディスプレイ110は、ユーザに映像を提供する機能と、撮像する機能とを備えていれば、ヘッドマウントディスプレイ以外の機器によって実現されてよく、一例として、ウェアラブルグラスなどにより実現されてもよい。また、ユーザ視点の映像を撮像できるカメラだけをユーザの頭部等に装着し、映像はプロジェクタなどにより提供される構成としてもよい。
通信部111は、情報処理装置120と通信するための通信インターフェースである。通信部111は、情報処理装置120と通信ができれば、有線及び無線のいずれで通信を実行してもよく、また、通信プロトコルもいずれを用いてもよい。通信部111は、情報処理装置120からAR映像やVR映像、MR映像を受信し、制御部113に伝達したり、制御部113からの指示に従って、撮像部114が撮像した映像を情報処理装置120に送信したりする。
記憶部112は、ヘッドマウントディスプレイ110が動作上必要とする各種プログラム及びデータを記憶する機能を有する記憶媒体である。記憶部112は、例えば、HDD、SSD、フラッシュメモリなどにより実現することができるが、この限りではない。記憶部112は、情報処理装置120から提供された映像を表示するためのプログラムや、AR映像やVR映像、MR映像のデータそのものを記憶していてもよい。
制御部113は、ヘッドマウントディスプレイ110の各部を制御する機能を有するプロセッサである。制御部113は、記憶部112に記憶されている動作プログラムを実行することにより、ヘッドマウントディスプレイ110の各部を制御する。制御部113は、例えば、通信部111から伝達されたAR(VR、MR)映像を表示部115に表示させたり、撮像部114が撮像した映像を通信部111から情報処理装置120に送信させたりする。
撮像部114は、いわゆるカメラであり、特にユーザの正面方向(ユーザの視界)を撮像可能に配置されている。撮像部114は、撮像して得られた映像を、通信部111に伝達する。撮像部114により撮像された撮像映像は、逐次リアルタイムで情報処理装置120に送信されるが、この限りではなく、一定の時間長を有する撮像映像が得られてから、あるいは、撮像が終了してから得られた撮像映像を送信するようにしてもよい。
表示部115は、制御部113からの指示に従って、情報処理装置120から提供されたAR(VR、MR)映像を表示する。表示部115は、例えば、液晶モニタや有機ELディスプレイなどにより実現することができる。
以上がヘッドマウントディスプレイの構成である。次に、情報処理装置120について説明する。
図2に示すように、情報処理装置120は、通信部121と、記憶部122と、制御部123とを備える。情報処理装置120は、ヘッドマウントディスプレイ110に映像を提供するとともに、ロボット200に対する命令を生成して送信するサーバ、コンピュータシステムなどである。
通信部121は、ヘッドマウントディスプレイ110やロボット200と通信するための通信インターフェースである。通信部121は、ヘッドマウントディスプレイ110やロボット200と通信ができれば、有線及び無線のいずれで通信を実行してもよく、また、通信プロトコルもいずれを用いてもよい。通信部121は、ヘッドマウントディスプレイ110に対してAR(VR、MR)映像を送信したり、ヘッドマウントディスプレイ110から撮像部114により撮像された撮像映像を受信して制御部123に伝達したり、ロボット200に対して、その動作を規定する教示命令を送信したりする。通信部121は、ヘッドマウントディスプレイ110と通信するための回路と、ロボット200と通信するための回路とでそれぞれ別個に構成されてもよいし、共通の通信回路を共用して通信を行うこととしてもよい。また、通信部121は、ヘッドマウントディスプレイ110やロボット200以外の機器と通信を行ってもよい。
記憶部122は、情報処理装置120が動作上必要とする各種プログラム及びデータを記憶する機能を有する記憶媒体である。記憶部122は、例えば、HDD、SSD、フラッシュメモリなどにより実現することができるが、この限りではない。記憶部112は、ヘッドマウントディスプレイ100から提供された撮像映像からユーザによるロボットに対する指示内容を解析するための解析プログラムや、解析結果に基づいてロボットに対する教示命令を生成する教示命令生成プログラムを記憶していてもよい。
制御部123は、情報処理装置120の各部を制御する機能を有するプロセッサである。制御部123は、記憶部122に記憶されている動作プログラムを実行することにより、情報処理装置120の各部を制御する。
制御部123は、ヘッドマウントディスプレイ110から送信された撮像映像を解析する解析部として機能する。具体的には、制御部123は、制御部123が生成した映像に含まれる各オブジェクト(ロボット、ペットボトル、ゴミ箱)に対して、ユーザが何らかの操作を加えたか否かを解析する。制御部123は、ヘッドマウントディスプレイ110から送信された撮像映像の中にユーザの手指が含まれるか否かを解析する。これは、既存の画像解析技術により実現できるが、一例として、パターンマッチング等を利用することにより実現することができる。そして、ユーザの手指が含まれる場合に、その手指がどのような所作をしているかを解析する。また、ユーザの視界において、その手指が何を操作の対象としているのかを解析する。即ち、撮像映像中のユーザの手指の位置と、その位置に対して存在するオブジェクトを特定する。したがって、制御部123は、撮像映像を解析して、ユーザ10が、どの対象(オブジェクト)に対して、何の操作をしたのかを解析する。
制御部123は、撮像映像を解析した結果から、ユーザ10が、ロボットに何をさせたいのかを解釈する。そして、制御部123は、その解釈にしたがって、実際のロボット200に対する教示命令を生成する生成部として機能する。ここでいう教示命令とは、何を、どこに、どうする、という内容が含まれる命令であってよい。制御部123は、生成した教示命令を、通信部121を介して、実際のロボット200に送信する。
また、制御部123は、撮像映像の解析結果から次のAR映像またはVR映像またはMR映像を生成する生成部として機能する。制御部123は、解析結果から提供しているオブジェクトに対してユーザ10により何らかの操作が加えられた場合には、その操作後の状態を含むAR映像またはVR映像を生成する。AR(MR)映像の場合は、ヘッドマウントディスプレイ110から受信した撮像映像に対して、ヘッドマウントディスプレイ110の位置に応じた態様でのAR(MR)映像を合成することで、AR(MR)映像を生成する。そして、制御部123は、生成した映像を、通信部121を介して、ヘッドマウントディスプレイ110に送信する。なお、このとき、制御部123は、撮像映像中に、生成するオブジェクトの実物が含まれる場合には、その実物に重畳するように、仮想のオブジェクトのAR映像を生成することとしてもよい。
以上が、情報処理装置120の説明である。次に、ロボット200について説明する。
図2に示すように、ロボット200は、通信部201と、記憶部202と、制御部203と、駆動部204と、検出部205とを備える。ロボット200は、通信機能を備え、用途として必要とされる機能を実行できるロボットであれば、どのようなロボットであってもよい。ロボット200は、一例として、7軸ロボットであってよい。7軸ロボットは、回転軸を7個有する多関節のロボットであり、各軸の端部が連接することによってロボットアームとして形成され、一例として物品の運搬を実行したり、工場等での所定の工程を実行したりする。なお、ロボット200は、7軸ロボットに限定するものではなく、他の形態のロボット、例えば、6軸ロボットや5軸ロボットなどであってもよいし、あるいは、所定のアルゴリズムや指示に従って移動する移動ロボットや案内ロボットであってもよいし、ユーザ等の人間とコミュニケーションを交わすコミュニケーションロボットなどであってもよい。
通信部201は、情報処理装置120と通信するための通信インターフェースである。通信部201は、情報処理装置120と通信ができれば、有線及び無線のいずれで通信を実行してもよく、また、通信プロトコルもいずれを用いてもよい。通信部201は、情報処理装置120から、教示命令を受信して、制御部203に伝達する。また、通信部201は、制御部203からの指示に従って、自装置(ロボット200)の各部の動作状態やセンサ等を利用して収集したセンシングデータを情報処理装置120に送信することとしてもよい。
記憶部202は、ロボット200が動作上必要とする各種プログラム及びデータを記憶する機能を有する記憶媒体である。記憶部202は、例えば、HDD、SSD、フラッシュメモリなどにより実現することができるが、この限りではない。記憶部202は、情報処理装置120から指示された教示命令や、その教示命令を解釈してその命令内容を実行する実行プログラムを記憶していてもよい。また、動作上必要とするパターンマッチング等に用いる参照データなども保持していてもよい。
制御部203は、ロボット200の各部を制御する機能を有するプロセッサである。制御部203は、記憶部202に記憶されているプログラムを実行することにより、ロボット200の各部を制御する。制御部203は、予め定められた基準に従って、ロボット200を動作させることとしてよい。また、制御部203は、教示命令を受け付けた場合に、その教示命令に従って、検出部205が検出した状況に応じた動作を実行する。例えば、教示命令が、「ペットボトルを青いゴミ箱に捨てろ」というものであった場合に、検出部205が取得した周囲の画像を解析して、ペットボトルがあるか否か、そして、ゴミ箱がどこにあるかを特定する。そして、ペットボトルがあった場合に、ペットボトルを把持させ、ゴミ箱20の位置まで移動させるように、駆動部204を駆動させてロボット200を制御する。
また、制御部203は、情報処理装置120やリモートコントローラによりユーザから直接指示を受け付けた場合に、その指示に従ってロボット200を動作させることとしてもよい。
駆動部204は、ロボット200の各部を駆動させる機能を有する。ロボット200が7軸ロボットの場合であれば、駆動部204は、各軸を回動させるモータにより実現され、制御部203からの指示に従って駆動する。また、ロボット200が移動ロボットの場合で車輪により移動する場合には、その車輪を回転させるモータにより実現され、制御部203からの指示に従って駆動する。
検出部205は、ロボット200が自装置の周囲の情報や自装置の状態を検出する機能を有する。検出部205は、各種のセンサにより実現することができる。センサとしては、例えば、他の物体までの距離を測定可能な距離センサ(例えば、超音波センサ)、人を検知できる人センサ(例えば、赤外線センサ)、所定の方向(例えば、7軸ロボットの場合であれば、先端の向いている方向、移動ロボットの場合であれば進行方向)の画像を取得可能なイメージセンサなどにより実現することができる。どのようなセンサを用いるかは、ロボット200として果たすべき機能に応じて、選択されて、搭載される。
以上がロボット200の構成である。
<データ>
図3は、情報処理装置120が保持するデータであって、各オブジェクトを管理するためのオブジェクトデータの管理表300の構成例を示すデータ概念図である。図3に示すように、オブジェクトデータの管理表300は、物体ID301と、座標302と、属性情報303とが対応付けられた情報である。
物体ID301は、AR映像もしくはVR映像として、ユーザに提供する映像の中で存在させるオブジェクト各々を識別するための識別情報である。物体ID301は、例えば、ロボット200やペットボトル30などを仮想空間(拡張現実空間を含む)上に存在させる場合に、情報処理装置120もしくはそのオペレータが付与することとしてもよい。
座標302は、対応する物体ID301で示されるオブジェクトが、仮想空間上のどの位置に存在するかを示す情報である。座標302は、オブジェクトの特定の一点(例えば、中心点)の座標位置を示すものであってもよいし、オブジェクトの複数の特徴点各々の座標位置を示すものであってもよいし、オブジェクトが存在する座標範囲を示すものであってもよい。座標302は、実際のロボット200を存在させる現実空間の座標位置にリンクさせる。ここで、座標をリンクさせるとは、オブジェクト各々の位置や部屋の壁の位置などの対応関係をとることをいう。このとき、この対応が取れていれば、仮想物体であるオブジェクト等を規定する座標の座標系と、現実空間の座標系とは縮尺が異なってもよい。
座標302は、ユーザ10により対応する物体ID301で示されるオブジェクトが操作されて移動させられた場合に、制御部123によって、移動後の座標位置に修正される。
属性情報303は、対応する物体ID301で示されるオブジェクトの属性を示す情報である。属性とは、オブジェクトの性質を示す情報であり、形状、色、そのオブジェクトが何であるか、状態などを示す情報であるがこれらに限定するものではない。オブジェクトを特徴付ける情報であれば、その他の情報であってもよい。
図3によれば、物体ID301が「B011」であるオブジェクトは、座標(X1、Y1、Z1)に位置し、その属性情報303から、円筒形で青色のペットボトルであることが理解できる。なお、これがロボット200であれば、ロボット200を構成する各アーム毎に、その位置や形状が特定されてもよいし、一つの情報として属性情報303において、各軸の位置や各軸を駆動させる駆動部204(モータ)の軸角度(回動角、回転角と呼称してもよい)などの情報が定義されることとしてもよい。
なお、図3には図示していないが、その他に、各物体ID(オブジェクト)に対しては、さらに、実際に映像として用いる表示用データなども対応付けられていてもよい。
<操作具体例>
ここから、図4~図8を用いて、実際の操作の具体例を説明する。図4は、情報処理装置120から、ヘッドマウントディスプレイ110に提供される映像であって、ヘッドマウントディスプレイ110に表示される映像の一例である。図4は、図1におけるユーザ10が視認可能な映像の一例でもある。
図4は、まず、最初に、ヘッドマウントディスプレイ110の撮像部114により撮像された映像に基づいて情報処理装置120により生成されたAR映像が、ヘッドマウントディスプレイ110の表示部115に表示された表示画面400を示している。
図4に示すように表示画面400には、ロボット200aと、ゴミ箱20と、ペットボトル30が3本表示された状態を示している。これらのオブジェクトのうち、少なくともロボット200aと、ペットボトル30は、仮想的なものであり、情報処理装置120により生成された仮想データである。一方、ゴミ箱20は、撮像部114により撮像された実際のものであってもよいし、情報処理装置120により生成された仮想データであってもよい。また、図4には図示していないが、ロボット200aについては、実際にその位置にロボット200の実物を配置し、配置したロボット200を撮像した撮像映像に重畳させた態様で、仮想上のロボット200aを表示する態様としてよい。
図4に示すような状況下で、ユーザ10は、ロボット200aに対して操作を行う。例えば、一例として、図5に示すように、ユーザ10は、自身の指501で、ロボット200aに対する操作を行う。図5は、図4に示した表示画面400に続く光景であって、ヘッドマウントディスプレイ110の表示部115に表示される表示画面500の一例を示す図である。図5に示されるように、表示画面500では、ユーザ10の指501で、ロボット200aの先端部201aをつまむ(保持)するようにしていることが理解できる。これは、実際のロボット200を指でつかんでいるわけではなく、情報処理装置120が提供する映像の中で、ユーザ自身の指501で、仮想上のロボット200aをつまんだように見えるように指を動かすことを意味している。情報処理装置120は、撮像部114による撮像映像から、ユーザの指が所定の動き(ここでは、2本の指で、ロボット200aの先端部201aを挟み込むという動き)を検出して、ユーザにより、ロボット200aの先端が把持されたという解釈を行い、以降、ユーザの動きに応じて、ロボット200aを動かすように、AR映像を生成する。
図6は、そのようにして、ロボット200aを動かした後の、表示画面600を示している。図6に示すように、ユーザ10は、自身の指501で、先端部201aを挟んだ状態を維持した状態で、手を動かすことで、ロボット200aを仮想的に動かすことができる。図6は、図5に示す表示画面500に続く表示画面600を示している。図6には、先端部201aをペットボトル30aの位置まで移動させた状態を示している。
ここで、ユーザ10は、ロボット200aの先端部201aの把持部にペットボトル30aを把持させたいとする。そこで、一例として、図6に示す状態を所定時間維持することで、先端部201aの把持部にペットボトル30aを把持させた状態にすることができる。またあるいは、図示はしていないが、ユーザ10が指501をもう一度つまむ動作をすることで、把持部にペットボトル30aを把持させた状態にするように構成してもよい。
ユーザ10は、把持部にペットボトル30aを把持させた状態にすると、その状態でロボット200aを動かして、図7に示す表示画面700に示すように、ゴミ箱20の上まで先端部201aを移動させる。図7は、図6に示す表示画面600に続く表示画面700を示している。図7に示されるように、先端部201aの把持部はペットボトル30aを把持した状態の映像が、ユーザ10のヘッドマウントディスプレイ110の表示部115に表示される。
そして、図7に示す状態で、ユーザ10は、例えば、指をロボット200aの先端部201aから離すように動かすとする。図8は、図7に示す表示画面700に続く表示画面800を示している。図8に示すように、ユーザ10は、自身の指501をロボット200aの先端部201aから離すように動かす。図7と図8を比較すれば理解できるように、ユーザ10が指を先端部201aから離している。情報処理装置120は、この動作を示す撮像映像を解析することで、ユーザ10からの入力として受け付けて、ロボット200aの把持部によるペットボトル30aの把持状態を解除する。そして、これにより、情報処理装置120は、ペットボトル30aがゴミ箱20に落下するという映像をヘッドマウントディスプレイ110に提供することになる。
その一方で、情報処理装置120は、図4~図8に示すような態様で、ユーザ10に、仮想的にロボット200aを操作させて、ユーザ10がロボット200に実行させたい処理を認識することができる。この図4~図8に示す動作をユーザ10が仮想のロボット200aにさせることで、情報処理装置120は、一例として、ユーザ10は、ロボット200に対して、ペットボトルをゴミ箱に捨てさせる処理を実行したいという解釈をすることができる。そして、この解釈に従って、情報処理装置120は、ロボット200に対して、ペットボトルをゴミ箱に捨てるという教示命令を送信することができ、ロボット200は、ペットボトルをゴミ箱に捨てるという処理を学習することができる。
<動作>
ここから、教示システム1に係る各装置の動作について説明する。まず図9を用いて、教示システム1に係る各装置、即ち、ヘッドマウントディスプレイ110と、情報処理装置120と、ロボット200との間のやり取りについて説明する。
図9は、教示システム1に係る各装置の間のやり取りの例を示すシーケンス図である。図9に示すように、ヘッドマウントディスプレイ(HMD)110は、撮像部114が撮像した撮像映像(画像)を情報処理装置120に送信する(ステップS901)。
情報処理装置120は、撮像映像を受信すると、その撮像映像に、仮想ロボット200aを含むAR映像を生成して、ヘッドマウントディスプレイ110に送信する(ステップS902)。
ヘッドマウントディスプレイ110は、受信したAR映像を表示する(ステップS903)。ヘッドマウントディスプレイ110は、ユーザ10の仮想ロボット200aに対する動作(操作)を含む撮像映像を、情報処理装置120に送信する(ステップS904)。
情報処理装置120は、受信した撮像映像の内容を解析する(ステップS905)。そして、解析した内容から、ユーザが実際のロボット200に実行させたい処理を解釈し、その解釈に従った教示命令を生成する(ステップS906)。情報処理装置120は、生成した教示命令を、ロボット200に送信する(ステップS907)。
ロボット200は、教示命令を受信すると、その教示命令で示される命令を実行する(ステップS908)。これにより、教示システム1においては、ユーザは、拡張現実あるいは仮想現実で生成された仮想的なロボット200aを感覚的に操作するだけで、ロボット200に実行させた処理を教示することができる。
ここから、図9に示すシーケンスを実現するための各装置の動作例を説明する。図10は、ヘッドマウントディスプレイ110の動作例を示すフローチャートである。
図10に示すように、制御部113からの指示に従って、撮像部114は、撮影(撮像)を実行する(ステップS1001)。撮像部114は、撮像して得られた画像(もしくは映像。即ち動画)を、制御部113に伝達する。制御部113は、得られた撮像画像を、通信部111を介して、情報処理装置120に送信する(ステップS1002)。
ヘッドマウントディスプレイ110の通信部111は、仮想ロボットを含む映像を受信する。通信部111は、受信した映像を制御部113に伝達する。そして、制御部113は、伝達された映像を、表示部115に表示させる(ステップS1003)。これにより、ヘッドマウントディスプレイ110は、装着しているユーザ10に、仮想ロボット200aを含むAR映像(もしくはVR映像)を提供することができる。
ヘッドマウントディスプレイ110の制御部113は、ユーザからの終了入力を受け付けたか否かを判断する(ステップS1004)。ユーザからの終了入力は、例えば、図示しない電源ボタンの押下や、AR映像またはVR映像の提供の終了入力であるが、これらに限定するものではない。ユーザからの終了入力を受け付けていた場合には(ステップS1004のYES)、処理を終了する。ユーザからの終了入力を受け付けていない場合には(ステップS1004のNO)、ヘッドマウントディスプレイ110は、ステップS1001の処理に戻って、以降の処理を実行する。
ステップS1001~S1003の処理が繰り返されることにより、ヘッドマウントディスプレイ110は、操作対象を含むAR映像またはVR映像を表示しつつ、表示された仮想的なオブジェクトに対する入力を行っている様子を撮像した撮像映像を、情報処理装置120に送信することができる。
図11は、図9に示すやり取りを実現するための情報処理装置120の動作例を示すフローチャートである。図11に示すフローチャートは、一度、制御部123が生成したAR映像またはVR映像を既に提供している状態から開始している。
図11に示すように、情報処理装置120の通信部121は、ヘッドマウントディスプレイ110から、ヘッドマウントディスプレイ110が撮像した撮像画像を受信する(ステップS1101)。通信部121は、受信した撮像画像を、制御部123に伝達する。
制御部123は、通信部121から撮像画像を伝達されると、撮像画像の内容を解析する(ステップS1102)。画像の解析には一般的な画像認識技術を用いるとよい。
制御部123は、解析した結果から、仮想ロボット200aに対する操作があるか否かを判定する(ステップS1103)。仮想ロボット200aに対する操作とは、例えば、一例として、ユーザ10の指によるロボットの所定の位置の指定であったり、ロボットアームを動かす指示であったり、ロボットが実行可能な特定の処理の実行の指定であったりしてよく、これらは、ユーザの指による特定の動作を検出することにより特定することができる。
仮想ロボット200aに対する操作入力があると判定した場合に(ステップS1103のYES)、制御部123は、操作後の状態の仮想ロボット200aを含む合成画像を生成する(ステップS1104)。仮想ロボット200aに対する操作入力がないと判定した場合に(ステップS1103のNO)、制御部123は、仮想ロボット200aの状態を維持した合成画像を生成する(ステップS1105)。
そして、制御部123は生成した合成画像を、通信部121を介して、ヘッドマウントディスプレイ110に送信する(ステップS1106)。
制御部123は、仮想ロボット200aに対する入力が終了したか否かを判定する(ステップS1107)。制御部123は、例えば、情報処理装置120に対するユーザからの終了入力を受け付けたり、あるいは、ヘッドマウントディスプレイ110に対するユーザ10からの終了入力を検出したり、撮像映像中において、ユーザの手や指の特定の操作を検出したりすることによって、仮想ロボット200aに対する入力が終了したことを判定してよい。
仮想ロボット200aに対する入力が終了していないと判定した場合には(ステップS1107のNO)、ステップS1101の処理に戻って以降の処理を実行する。仮想ロボット200aに対する入力が終了したと判定した場合には(ステップS1107のYES)、制御部123は、仮想ロボット200aに対するユーザ10による一連の操作から、ユーザ10がロボット200に実行させた処理が何であるかを解釈する。そして、その解釈結果から、ロボット200に対する動作命令である教示命令を生成する(ステップS1108)。制御部123は、通信部121を介して、生成した教示命令を実際のロボット200に送信し(ステップS1109)、処理を終了する。
これにより、情報処理装置120は、ユーザからの詳細な入力(実際にロボット200を手で動かしてのティーチングや、時間毎の各駆動軸の細やかな指定によるティーチング)なしで、実際のロボット200に対する指示を出力することができる。
最後に、図12は、実際のロボット200の動作を示すフローチャートである。
図12に示すように、ロボット200の通信部201は、情報処理装置120から教示命令を受信する(ステップS1201)。通信部201は、受信した教示命令を、制御部203に伝達する。
制御部203は、受信した教示命令を記憶部202に記憶する(ステップS1202)。
制御部203は、教示命令の内容を解釈して、実行すべき処理内容を特定する(ステップS1203)。検出部205は、検出した周囲の状況を示すセンシングデータを制御部203に伝達する。これにより、制御部203は、ロボット200の周囲の状況を把握する(ステップS1204)。
制御部203は、伝達されたセンシングデータから、教示命令で示される状況に合致するか否かを判定する(S1205)。周囲の状況が教示命令で示される状況に合致すると判定した場合(ステップS1205のYES)、即ち、教示命令を実行すべき状況であると判定した場合に、制御部123は、教示命令で示される命令内容を、駆動部204を制御して実行し(ステップS1206)、処理を終了する。
これにより、ロボット200は、ユーザから詳細な指示なく、感覚的になされた指示に従って生成された教示命令にしたがって、ユーザの望む動作を実行することができる。
<まとめ>
従来のロボットに対するティーチングは、実際のロボットを動かしたりする場合には重労働となったり、プログラムによるティーチングであれば高度な専門知識を要求されたりするなど、通常のユーザには困難を伴うものがあった。これに対して、本実施の形態に係る教示システム1によれば、仮想上のロボットに対する間隔的な操作で、実際のロボットに対して実行すべき処理を教示することができるので、従来よりも、簡易かつ感覚的にロボットのティーチングを実行できる。したがって、本実施の形態に係る情報処理装置120及び情報処理装置120を含む教示システム1は、ロボットのティーチングの利便性の向上を促すことができる。
<変形例>
上記実施の形態に係る各装置は、上記実施の形態に限定されるものではなく、他の手法により実現されてもよいことは言うまでもない。以下、各種変形例について説明する。
(1)上記実施の形態においては、情報処理装置120と、ヘッドマウントディスプレイ110とを別個の装置として説明したが、これはその限りではない。ヘッドマウントディスプレイ110と情報処理装置120と一体に形成されてもよい。即ち、ヘッドマウントディスプレイ110は、情報処理装置120が保持する全ての機能を保持していてもよい。
また、ヘッドマウントディスプレイ110は、情報処理装置120の一部の機能(例えば、映像を生成する機能)を備えることとしてもよい。この場合、ヘッドマウントディスプレイ110の制御部113は、撮像部114で撮像した撮像映像に基づいて、ユーザ10が実行している操作内容を解析して、映像を生成し、表示部115に表示させる。その一方で、制御部113は、通信部111を介して撮像映像を情報処理装置120に送信し、情報処理装置120の制御部123は、その撮像映像から、ユーザ10がロボットに実行させたい処理内容を解釈して教示命令を生成するようにしてよい。
(2)上記実施の形態においては、ロボット200aの先端部201aを動作させる例を示したが、ロボット200aに対する操作は、その先端部201aに対する操作だけに限るものではない。例えば、ロボット200aを構成する複数の関節のうちのいずれかを1つの指(例えば、人差し指)で指示した状態で、他の2本の指(例えば、親指と中指)で1つの指の周りを回転させることで、関節の回転を指示する操作としてもよい。同様に、関節ではなくロボットを構成する軸のいずれかを指定して、同様の操作で軸の回転を指示する操作としてもよい。
(3)上記実施の形態においては、一具体例としてロボットの7軸ロボットにより物品の把持、運搬を教示する例を示したが、上述の通り、ロボットは7軸ロボットに限定するものではなく、また、実行する作業も把持、運搬作業に限定するものではない。図13には、ロボット200の他の例として、所謂、自動掃除ロボットを用いる例を示している。
図13は、ユーザ10aが視認している映像であって、ヘッドマウントディスプレイ110の表示部115に表示された映像を示している。ここでは、ロボット200の一例として、自動掃除ロボット200bを用いる例を示している。自動掃除ロボット200bは、自身のセンサで周囲の環境を確認して、移動経路を自動生成する機能を有するものがあるが、生成された移動経路での清掃は効率が悪い場合がある。そこで、教示システム1を利用して、ユーザが移動経路を指定することができる。図13の例では、点線で示される位置にあるロボット200bをユーザが自身の指1301で所定時間指し示す。このとき、ユーザは、実際のロボット200に触れている必要はなく、仮想上のロボット200bに触れているように見える状態であればよい。情報処理装置120は、ロボット200bに対してユーザが所定時間以上触れていることを検出すると、ロボット200bがユーザの指に追随するように移動する映像を生成する。ユーザは、指1301を移動させることで、ロボット200bが移動すべき移動経路を指示する。ここでは、矢印1302で示すように、指を移動させたとする。すると、情報処理装置120は、その操作から、矢印1302で示される位置を走行するように、図13に示す表示画面と、現実の位置との対応をとって、矢印1302で示す経路の実際の位置(現実座標系)を特定し、特定した座標系での移動経路での掃除を実行させる教示命令を生成する。そして、情報処理装置120は、生成した教示命令をロボット200に送信する。これによって、自動掃除ロボット200は、指定された経路での清掃を実行することができるので、効率的な清掃を行うことができる。
なお、ここでは、ロボット200bを指で所定時間以上指し示すことで、ロボット200bを操作できるようにしているが、これは一例であり、例えば、上記実施の形態と同様にロボット200bをつまむようにして指を動かすことで、ロボット200bを保持し、移動させて、その後につまむ動作を解除するように指を動かすことでロボット200bの移動経路を指定するように構成してもよい。仮想的なロボット200に対する操作方法は、ユーザが間隔的に操作できるものであれば、どのような操作方法であってもよい。
(4)上記実施の形態において、仮想的なロボット200aを実物のロボット200に重畳させたAR映像を表示させることとしてもよい旨を説明したが、更に、ユーザが仮想的なロボット200aを操作するごとに、その操作内容に連動させて、実物のロボット200も同時に(伝達のためのタイムラグは発生してもよい)動作させるように構成してもよい。
(5)上記実施の形態においては、特に説明していないが、ロボットに対する教示においてより細かく操作したい場合に、情報処理装置120は、ユーザが作業している箇所(例えば、仮想的なロボット200aに対する所定の入力を行って操作している箇所)の拡大映像をヘッドマウントディスプレイ110に提供することとしてよい。この拡大映像は、VR映像により別のウィンドウで操作箇所の拡大画像を表示することとしてもよいし、現在視認している映像をズームする態様で拡大画像を表示することとしてもよい。したがって、その拡大画像を提供することで、ユーザはロボット200aに対する指示入力を実行しやすくなる。なお、教示システム1は、作業箇所の拡大映像を提供するために、実物のロボットの作業箇所(上記実施の形態の例でいえば、把持部)を撮像するための撮像用カメラを備えてもよい。この撮像用カメラは、一例として、ロボット200の先端部201aに設けることとしてもよいし、ロボット200とは別個に外部から撮像できるように備えることとしてもよい。また、この撮像用カメラは、ロボット200とは別個に設ける場合であって、ロボットの作業箇所が移動するときに、その作業箇所の撮像を継続する(作業箇所を追随する)ための移動機構を設けてもよい。例えば、教示システム1において、撮像用カメラをロボット200とは別個のロボットアームに取り付けて、そのロボットアームが動くことによって、作業箇所の撮像を継続できるように構成してもよい。本変形例は、上記変形例(4)に示したように、仮想的なロボット200aを用いて、実際のロボット200をリアルタイムで操作する際に特に有用となる。
(6) 上記実施の形態においては、教示システムによりロボットに実行すべき内容教示する手法として、情報処理装置120が教示プログラム等を実行することにより、教示命令を生成することとしているが、これは装置に集積回路(IC(Integrated Circuit)チップ、LSI(Large Scale Integration))等に形成された論理回路(ハードウェア)や専用回路によって実現してもよい。また、これらの回路は、1または複数の集積回路により実現されてよく、上記実施の形態に示した複数の機能部の機能を1つの集積回路により実現されることとしてもよい。LSIは、集積度の違いにより、VLSI、スーパーLSI、ウルトラLSIなどと呼称されることもある。
また、上記教示プログラムは、プロセッサが読み取り可能な記録媒体に記録されていてよく、記録媒体としては、「一時的でない有形の媒体」、例えば、テープ、ディスク、カード、半導体メモリ、プログラマブルな論理回路などを用いることができる。また、上記教示プログラムは、当該教示プログラムを伝送可能な任意の伝送媒体(通信ネットワークや放送波等)を介して上記プロセッサに供給されてもよい。本発明は、上記歩行教示プログラムが電子的な伝送によって具現化された、搬送波に埋め込まれたデータ信号の形態でも実現され得る。
なお、上記教示プログラムは、例えば、C言語、C++、ActionScript、JavaScript(登録商標)などのスクリプト言語、Objective-C、Java(登録商標)などのオブジェクト指向プログラミング言語、HTML5などのマークアップ言語などを用いて実装できる。
(7)上記実施の形態及び各変形例は、適宜、必要に応じて組み合わせて、所望する機能を実現するように構成されてよい。
1 教示システム
110、110a ヘッドマウントディスプレイ
111 通信部
112 記憶部
113 制御部
114 撮像部
115 表示部
120 情報処理装置
121 通信部
122 記憶部
123 制御部
200 ロボット
201 通信部
202 記憶部
203 制御部
204 駆動部
205 検出部

Claims (8)

  1. 画像を表示する表示部と、
    ユーザの視野方向を撮像する撮像部と、
    前記表示部に表示する、仮想的なロボットと、前記撮像部により撮像された撮像映像とを合成した合成映像を生成する画像生成部と、
    前記画像生成部により生成された映像から前記ユーザの手による前記仮想的なロボットに対する操作を検出する検出部と、
    前記検出部により検出された操作に基づき実際のロボットの動作命令を生成する命令生成部と、
    前記動作命令を前記実際のロボットに送信する送信部とを備え
    前記ロボットは、物品を把持する把持部を有し、
    前記画像生成部は、更に、仮想的な物品を合成した前記合成映像を生成し、
    前記検出部は、前記ユーザが前記仮想的なロボットの前記把持部を操作して把持させた物品を特定するとともに、前記把持部に前記物品をリリースさせた場所または対象を特定し、
    前記命令生成部は、前記実際のロボットに対して、前記検出部が特定した物品を、前記場所又は対象まで運搬させる動作命令を生成する
    教示システム。
  2. 画像を表示する表示部と、
    ユーザの視野方向を撮像する撮像部と、
    前記表示部に表示する、仮想的なロボットと、前記撮像部により撮像された撮像映像とを合成した合成映像を生成する画像生成部と、
    前記画像生成部により生成された映像から前記ユーザの手による前記仮想的なロボットに対する操作を検出する検出部と、
    前記検出部により検出された操作に基づき実際のロボットの動作命令を生成する命令生成部と、
    前記動作命令を前記実際のロボットに送信する送信部とを備え
    前記ロボットは、自立移動可能なロボットであり、
    前記検出部は、前記ユーザが前記仮想的なロボットを前記合成映像内を移動させた移動経路を検出し、
    前記命令生成部は、前記実際のロボットに対して、前記検出部が特定した前記移動経路上を移動する動作命令を生成する
    教示システム。
  3. 前記撮像部は、前記実際のロボットを含む映像を前記撮像映像として撮像し、
    前記合成映像は、前記仮想的なロボットを、前記撮像映像中の実際のロボットに対して重畳した前記合成映像を生成する
    ことを特徴とする請求項1又は2に記載の教示システム。
  4. 前記ロボットは、7軸ロボットである
    ことを特徴とする請求項1~のいずれか一項に記載の教示システム。
  5. 教示システムが実行するロボットへの教示方法であって、
    画像を表示する表示ステップと、
    ユーザの視野方向を撮像する撮像ステップと、
    前記表示ステップにおいて表示する、仮想的なロボットと、前記撮像ステップにより撮像された撮像映像とを合成した合成映像を生成する画像生成ステップと、
    前記画像生成ステップにより生成された映像から前記ユーザの手による前記仮想的なロボットに対する操作を検出する検出ステップと、
    前記検出ステップにより検出された操作に基づき実際のロボットの動作命令を生成する命令生成ステップと、
    前記動作命令を前記実際のロボットに送信する送信ステップとを含み、
    前記ロボットは、物品を把持する把持部を有し、
    前記画像生成ステップは、更に、仮想的な物品を合成した前記合成映像を生成し、
    前記検出ステップは、前記ユーザが前記仮想的なロボットの前記把持部を操作して把持させた物品を特定するとともに、前記把持部に前記物品をリリースさせた場所または対象を特定し、
    前記命令生成ステップは、前記実際のロボットに対して、前記検出ステップが特定した物品を、前記場所又は対象まで運搬させる動作命令を生成する
    教示方法。
  6. 教示システムのコンピュータに、
    画像を表示する表示機能と、
    ユーザの視野方向を撮像する撮像機能と、
    前記表示機能が表示する、仮想的なロボットと、前記撮像機能により撮像された撮像映像とを合成した合成映像を生成する画像生成機能と、
    前記画像生成機能により生成された映像から前記ユーザの手による前記仮想的なロボットに対する操作を検出する検出機能と、
    前記検出機能により検出された操作に基づき実際のロボットの動作命令を生成する命令生成機能と、
    前記動作命令を前記実際のロボットに送信する送信機能とを実現させ
    前記ロボットは、物品を把持する把持部を有し、
    前記画像生成機能は、更に、仮想的な物品を合成した前記合成映像を生成し、
    前記検出機能は、前記ユーザが前記仮想的なロボットの前記把持部を操作して把持させた物品を特定するとともに、前記把持部に前記物品をリリースさせた場所または対象を特定し、
    前記命令生成機能は、前記実際のロボットに対して、前記検出機能が特定した物品を、前記場所又は対象まで運搬させる動作命令を生成する
    教示プログラム。
  7. 教示システムが実行するロボットへの教示方法であって、
    画像を表示する表示ステップと、
    ユーザの視野方向を撮像する撮像ステップと、
    前記表示ステップにおいて表示する、仮想的なロボットと、前記撮像ステップにより撮像された撮像映像とを合成した合成映像を生成する画像生成ステップと、
    前記画像生成ステップにより生成された映像から前記ユーザの手による前記仮想的なロボットに対する操作を検出する検出ステップと、
    前記検出ステップにより検出された操作に基づき実際のロボットの動作命令を生成する命令生成ステップと、
    前記動作命令を前記実際のロボットに送信する送信ステップとを含み、
    前記ロボットは、自立移動可能なロボットであり、
    前記検出ステップは、前記ユーザが前記仮想的なロボットを前記合成映像内を移動させた移動経路を検出し、
    前記命令生成ステップは、前記実際のロボットに対して、前記検出ステップが特定した前記移動経路上を移動する動作命令を生成する
    教示方法。
  8. 教示システムのコンピュータに、
    画像を表示する表示機能と、
    ユーザの視野方向を撮像する撮像機能と、
    前記表示機能が表示する、仮想的なロボットと、前記撮像機能により撮像された撮像映像とを合成した合成映像を生成する画像生成機能と、
    前記画像生成機能により生成された映像から前記ユーザの手による前記仮想的なロボットに対する操作を検出する検出機能と、
    前記検出機能により検出された操作に基づき実際のロボットの動作命令を生成する命令生成機能と、
    前記動作命令を前記実際のロボットに送信する送信機能とを実現させ、
    前記ロボットは、自立移動可能なロボットであり、
    前記検出機能は、前記ユーザが前記仮想的なロボットを前記合成映像内を移動させた移動経路を検出し、
    前記命令生成機能は、前記実際のロボットに対して、前記検出機能が特定した前記移動経路上を移動する動作命令を生成する
    教示プログラム。
JP2019183318A 2019-10-03 2019-10-03 教示システム、教示方法及び教示プログラム Active JP7386451B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019183318A JP7386451B2 (ja) 2019-10-03 2019-10-03 教示システム、教示方法及び教示プログラム
JP2023188927A JP2023181513A (ja) 2019-10-03 2023-11-02 教示システム、教示方法及び教示プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019183318A JP7386451B2 (ja) 2019-10-03 2019-10-03 教示システム、教示方法及び教示プログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023188927A Division JP2023181513A (ja) 2019-10-03 2023-11-02 教示システム、教示方法及び教示プログラム

Publications (2)

Publication Number Publication Date
JP2021058949A JP2021058949A (ja) 2021-04-15
JP7386451B2 true JP7386451B2 (ja) 2023-11-27

Family

ID=75379485

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2019183318A Active JP7386451B2 (ja) 2019-10-03 2019-10-03 教示システム、教示方法及び教示プログラム
JP2023188927A Pending JP2023181513A (ja) 2019-10-03 2023-11-02 教示システム、教示方法及び教示プログラム

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2023188927A Pending JP2023181513A (ja) 2019-10-03 2023-11-02 教示システム、教示方法及び教示プログラム

Country Status (1)

Country Link
JP (2) JP7386451B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2024108284A (ja) * 2023-01-31 2024-08-13 株式会社Screenホールディングス 作業支援方法および作業支援システム

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014180707A (ja) 2013-03-18 2014-09-29 Yaskawa Electric Corp ロボット装置及び被加工物の製造方法
US20160257000A1 (en) 2015-03-04 2016-09-08 The Johns Hopkins University Robot control, training and collaboration in an immersive virtual reality environment
JP2017047478A (ja) 2015-08-31 2017-03-09 セイコーエプソン株式会社 制御装置、ロボット及びロボットシステム
JP2017534091A (ja) 2014-08-25 2017-11-16 エックス デベロップメント エルエルシー ロボット装置の行為の仮想表現を表示する拡張現実のための方法及びシステム
JP2018015863A (ja) 2016-07-29 2018-02-01 川崎重工業株式会社 ロボットシステム、教示データ生成システム及び教示データ生成方法
JP2019042843A (ja) 2017-08-31 2019-03-22 川崎重工業株式会社 ロボットシステム及びその運転方法
JP2019063953A (ja) 2017-10-02 2019-04-25 株式会社オカムラ 作業システム、作業システムの制御方法及びプログラム

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
SE526119C2 (sv) * 2003-11-24 2005-07-05 Abb Research Ltd Metod och system för programmering av en industrirobot

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014180707A (ja) 2013-03-18 2014-09-29 Yaskawa Electric Corp ロボット装置及び被加工物の製造方法
JP2017534091A (ja) 2014-08-25 2017-11-16 エックス デベロップメント エルエルシー ロボット装置の行為の仮想表現を表示する拡張現実のための方法及びシステム
US20160257000A1 (en) 2015-03-04 2016-09-08 The Johns Hopkins University Robot control, training and collaboration in an immersive virtual reality environment
JP2017047478A (ja) 2015-08-31 2017-03-09 セイコーエプソン株式会社 制御装置、ロボット及びロボットシステム
JP2018015863A (ja) 2016-07-29 2018-02-01 川崎重工業株式会社 ロボットシステム、教示データ生成システム及び教示データ生成方法
JP2019042843A (ja) 2017-08-31 2019-03-22 川崎重工業株式会社 ロボットシステム及びその運転方法
JP2019063953A (ja) 2017-10-02 2019-04-25 株式会社オカムラ 作業システム、作業システムの制御方法及びプログラム

Also Published As

Publication number Publication date
JP2021058949A (ja) 2021-04-15
JP2023181513A (ja) 2023-12-21

Similar Documents

Publication Publication Date Title
US10179407B2 (en) Dynamic multi-sensor and multi-robot interface system
JP6816364B2 (ja) 制御装置、ロボット、及びロボットシステム
CN110394780B (zh) 机器人的仿真装置
JP6361213B2 (ja) ロボット制御装置、ロボット、ロボットシステム、教示方法、及びプログラム
WO2020221311A1 (zh) 基于可穿戴设备的移动机器人控制系统及控制方法
Du et al. Markerless kinect-based hand tracking for robot teleoperation
US7353082B2 (en) Method and a system for programming an industrial robot
CN104936748B (zh) 徒手机器人路径教导
US20050251290A1 (en) Method and a system for programming an industrial robot
CN109955254A (zh) 移动机器人控制系统及机器人末端位姿的遥操作控制方法
Fang et al. Head-mounted display augmented reality in manufacturing: A systematic review
JP2023181513A (ja) 教示システム、教示方法及び教示プログラム
JP2018183845A (ja) ロボットを操作するための操作装置、ロボットシステム、および操作方法
WO2017145423A1 (ja) 情報処理システム、情報処理装置、制御方法、及びプログラム
CN111459277B (zh) 基于混合现实的机械臂遥操作系统及交互界面构建方法
CN113183133B (zh) 面向多自由度机器人的手势交互方法、系统、装置及介质
CN106272409A (zh) 基于手势识别的机械臂控制方法及系统
WO2017145787A1 (ja) 遠隔操作装置、および遠隔操作方法、遠隔操作システム、並びにプログラム
KR20190059726A (ko) 가상현실 환경에서의 사용자와 객체 간 상호 작용 처리 방법
JP2018153874A (ja) 提示装置、提示方法およびプログラム、ならびに作業システム
JP2018144228A (ja) ロボット制御装置、ロボット、ロボットシステム、教示方法、及びプログラム
US12019438B2 (en) Teleoperation with a wearable sensor system
JP2006123153A (ja) コミュニケーションロボット用開発支援装置および開発支援プログラム
Naughton et al. Integrating Open-World Shared Control in Immersive Avatars
WO2023119657A1 (ja) 接触対象推定装置、方法およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220727

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230612

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230725

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230919

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231003

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231102

R150 Certificate of patent or registration of utility model

Ref document number: 7386451

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150