JP2021058949A - Teaching system, teaching method, and teaching program - Google Patents
Teaching system, teaching method, and teaching program Download PDFInfo
- Publication number
- JP2021058949A JP2021058949A JP2019183318A JP2019183318A JP2021058949A JP 2021058949 A JP2021058949 A JP 2021058949A JP 2019183318 A JP2019183318 A JP 2019183318A JP 2019183318 A JP2019183318 A JP 2019183318A JP 2021058949 A JP2021058949 A JP 2021058949A
- Authority
- JP
- Japan
- Prior art keywords
- robot
- image
- user
- unit
- teaching
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims description 34
- 238000003384 imaging method Methods 0.000 claims abstract description 34
- 238000001514 detection method Methods 0.000 claims abstract description 32
- 230000005540 biological transmission Effects 0.000 claims abstract description 10
- 230000002194 synthesizing effect Effects 0.000 claims abstract description 5
- 239000002131 composite material Substances 0.000 claims description 17
- 230000000007 visual effect Effects 0.000 abstract 1
- 230000010365 information processing Effects 0.000 description 72
- 238000004891 communication Methods 0.000 description 49
- 210000003811 finger Anatomy 0.000 description 32
- 230000006870 function Effects 0.000 description 32
- 230000008569 process Effects 0.000 description 19
- 239000010813 municipal solid waste Substances 0.000 description 15
- 238000010586 diagram Methods 0.000 description 9
- 238000004140 cleaning Methods 0.000 description 8
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 5
- 238000004458 analytical method Methods 0.000 description 5
- 230000004048 modification Effects 0.000 description 5
- 238000012986 modification Methods 0.000 description 5
- 230000003190 augmentative effect Effects 0.000 description 3
- 238000013523 data management Methods 0.000 description 2
- 238000010191 image analysis Methods 0.000 description 2
- 230000010354 integration Effects 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 230000008685 targeting Effects 0.000 description 1
- 210000003813 thumb Anatomy 0.000 description 1
Images
Landscapes
- Manipulator (AREA)
- Numerical Control (AREA)
Abstract
Description
本発明は、ロボットが実行する処理を教示する教示システム、教示方法及び教示プログラムに関する。 The present invention relates to a teaching system, a teaching method, and a teaching program that teach a process executed by a robot.
従来、ロボットに所定の作業を実行させるにあたって、様々なティーチングの手法が行われている。特許文献1には、ロボットの教示操作を行う教示装置であって、教示点の修正をハンドガイドまたはジョグ送りで修正する手法が開示されている。また、特許文献2には、拡張現実対応ディスプレイを用いて、実映像にロボットの状態や操作ガイドに関する情報をロボットの使用者に提供する技術が開示されている。また、特許文献3には、ロボットの動作プログラムをユーザが作成し、その動作に従った動作を仮想空間上のロボットに実行させて動作確認を行うことが開示されている。 Conventionally, various teaching methods have been used to make a robot perform a predetermined work. Patent Document 1 discloses a teaching device that performs a teaching operation of a robot, and a method of correcting a teaching point by a hand guide or a jog feed. Further, Patent Document 2 discloses a technique for providing a robot user with information on a robot state and an operation guide in an actual image by using an augmented reality compatible display. Further, Patent Document 3 discloses that a user creates an operation program of a robot, causes a robot in a virtual space to execute an operation according to the operation, and confirms the operation.
ところで、通常ロボットに対する教示においては、一般的には、上記特許文献1のように実際にユーザがロボットを動かさなければならないという煩雑さや、上記特許文献3のように、動作プログラムを作成するにあたって、専門的知識が必要になるという問題がある。しかしながら、今後、このようなロボットを一般のユーザにも簡単に操作でき、ロボットに対して実行すべき指示を出せるようなシステムが望まれている。 By the way, in the teaching to a normal robot, in general, the complexity that the user actually has to move the robot as in Patent Document 1 and the creation of an operation program as in Patent Document 3 are performed. There is a problem that specialized knowledge is required. However, in the future, there is a demand for a system in which such a robot can be easily operated by a general user and an instruction to be executed can be given to the robot.
そこで、本発明は上記要望に鑑みて成されたものであり、専門知識がなくとも、ロボットが実行すべき処理を感覚的に教示することができる教示システム、教示方法、及び、教示プログラムを提供することを目的とする。 Therefore, the present invention has been made in view of the above requirements, and provides a teaching system, a teaching method, and a teaching program capable of intuitively teaching a process to be executed by a robot without specialized knowledge. The purpose is to do.
上記課題を解決するために、本発明に係る教示システムは、画像を表示する表示部と、ユーザの視野方向を撮像する撮像部と、表示部に表示する、仮想的なロボットと、撮像部により撮像された撮像映像とを合成した合成映像を生成する画像生成部と、画像生成部により生成された映像からユーザの手による仮想的なロボットに対する操作を検出する検出部と、検出部により検出された操作に基づき実際のロボットの動作命令を生成する命令生成部と、動作命令を実際のロボットに送信する送信部とを備える。 In order to solve the above problems, the teaching system according to the present invention comprises a display unit that displays an image, an image pickup unit that captures the viewing direction of the user, a virtual robot that displays the image on the display unit, and an image pickup unit. An image generation unit that generates a composite image that combines the captured images, a detection unit that detects the user's manual operation on the robot from the image generated by the image generation unit, and a detection unit that detects it. It includes a command generation unit that generates an actual robot operation command based on the operation, and a transmission unit that transmits the operation command to the actual robot.
また、本発明の一態様に係る教示方法は、教示システムが実行するロボットへの教示方法であって、画像を表示する表示ステップと、ユーザの視野方向を撮像する撮像ステップと、表示ステップにおいて表示する、仮想的なロボットと、撮像ステップにより撮像された撮像映像とを合成した合成映像を生成する画像生成ステップと、画像生成ステップにより生成された映像からユーザの手による仮想的なロボットに対する操作を検出する検出ステップと、検出ステップにより検出された操作に基づき実際のロボットの動作命令を生成する命令生成ステップと、動作命令を実際のロボットに送信する送信ステップとを含む。 Further, the teaching method according to one aspect of the present invention is a teaching method to a robot executed by the teaching system, and is displayed in a display step of displaying an image, an imaging step of capturing an image of a user's viewing direction, and a display step. An image generation step that generates a composite image that combines the virtual robot and the image captured by the image generation step, and an operation on the virtual robot by the user from the image generated by the image generation step. It includes a detection step to be detected, a command generation step to generate an operation command of an actual robot based on an operation detected by the detection step, and a transmission step to transmit the operation command to the actual robot.
また、本発明の一態様に係る教示プログラムは、教示システムのコンピュータに、画像を表示する表示機能と、ユーザの視野方向を撮像する撮像機能と、表示機能が表示する、仮想的なロボットと、撮像機能により撮像された撮像映像とを合成した合成映像を生成する画像生成機能と、画像生成機能により生成された映像からユーザの手による仮想的なロボットに対する操作を検出する検出機能と、検出機能により検出された操作に基づき実際のロボットの動作命令を生成する命令生成機能と、動作命令を実際のロボットに送信する送信機能とを実現させる。 Further, the teaching program according to one aspect of the present invention includes a display function for displaying an image on the computer of the teaching system, an imaging function for capturing the viewing direction of the user, a virtual robot displayed by the display function, and the like. An image generation function that generates a composite image that combines the captured image captured by the image generation function, a detection function that detects the user's manual operation on the robot from the image generated by the image generation function, and a detection function. A command generation function for generating an actual robot operation command based on the operation detected by the robot and a transmission function for transmitting the operation command to the actual robot are realized.
上記教示システムにおいて、ロボットは、物品を把持する把持部を有し、画像生成部は、更に、仮想的な物品を合成した合成映像を生成し、検出部は、ユーザが仮想的なロボットの把持部を操作して把持させた物品を特定するとともに、把持部に物品をリリースさせた場所または対象を特定し、命令生成部は、実際のロボットに対して、検出部が特定した物品を、場所又は対象まで運搬させる動作命令を生成することとしてもよい。 In the above teaching system, the robot has a grip portion for gripping an article, an image generation unit further generates a composite image obtained by synthesizing a virtual article, and a detection unit allows a user to grip the virtual robot. The article is specified by operating the unit, and the place or target where the article is released by the grip is specified, and the command generation unit places the article specified by the detection unit on the actual robot. Alternatively, an operation command for carrying the robot to the target may be generated.
上記教示システムにおいて、ロボットは、自立移動可能なロボットであり、検出部は、ユーザが仮想的なロボットを合成映像内を移動させた移動経路を検出し、命令生成部は、実際のロボットに対して、検出部が特定した移動経路上を移動する動作命令を生成することとしてもよい。 In the above teaching system, the robot is a robot that can move independently, the detection unit detects the movement path in which the user moves the virtual robot in the composite video, and the command generation unit refers to the actual robot. Therefore, an operation command for moving on the movement path specified by the detection unit may be generated.
上記教示システムにおいて、撮像部は、実際のロボットを含む映像を撮像映像として撮像し、合成映像は、仮想的なロボットを、撮影映像中の実際のロボットに対して重畳した合成映像を生成することとしてもよい。 In the above teaching system, the imaging unit captures an image including an actual robot as an captured image, and the composite image generates a composite image in which a virtual robot is superimposed on the actual robot in the captured image. May be.
上記教示システムにおいて、ロボットは、7軸ロボットであることとしてもよい。 In the above teaching system, the robot may be a 7-axis robot.
本発明の一態様に係る教示システムは、仮想上のロボットに対するユーザからの感覚的な入力を解釈して、実際のロボットが実行すべき処理に対する教示命令を生成して出力することができる。したがって、実際のロボットを動かす煩雑さやロボットを動作させるための専門的知識がなくとも、ロボットに対する教示を実行することができる。 The teaching system according to one aspect of the present invention can interpret a sensory input from a user to a virtual robot and generate and output a teaching command for a process to be executed by an actual robot. Therefore, it is possible to execute the teaching to the robot without the complexity of moving the actual robot and the specialized knowledge for operating the robot.
以下、本発明の一実施態様に係る教示システムについて、図面を参照しながら詳細に説明する。 Hereinafter, the teaching system according to one embodiment of the present invention will be described in detail with reference to the drawings.
<実施の形態>
<概要>
図1は、本発明に係る教示システム1の概要を示す概要図である。図1に示すように、教示システム1には、情報処理装置120と、情報処理装置120から提供される映像を視聴可能なヘッドマウントディスプレイ110と、ロボット200とを含む。情報処理装置120は、ヘッドマウントディスプレイ110を装着したユーザ10に、仮想空間上のロボット200と、ゴミ箱20と、ペットボトル30とを含む映像を表示する。当該映像は、AR(Augumented Reality)映像であってもよいし、VR(Virtual Reality)映像であってもよいし、MR(Mixed Reality)映像であってもよい。ヘッドマウントディスプレイ110には撮像部(カメラ)が搭載され、その撮像部から得られた映像を情報処理装置120に送信する。ユーザ10は、視界内に存在する仮想ロボットに対して自身の指で操作するようにして、AR映像としてのロボットを操作する。この操作は撮像部が撮像した映像内に、ユーザの手が含まれ、その形状が予め定めた動作をしている場合にロボットに対する操作として検出する。例えば、ユーザは仮想ロボットのハンドを操作して、ペットボトル30を把持させ、ゴミ箱20の位置にまで持ってこさせ、リリースしたとする。情報処理装置120は、一連の操作を解析し、ユーザによる指示が「ペットボトルをゴミ箱に捨てる」ことであると解釈する。そして、その解釈にしたがって、実際のロボット200に対して、「ペットボトルを探索して、指定のゴミ箱に捨てろ」という内容の教示命令を生成して、送信する。これにより、ロボットに対するティーチングを簡便かつ容易な教示システム1を提供することができる。
<Embodiment>
<Overview>
FIG. 1 is a schematic diagram showing an outline of the teaching system 1 according to the present invention. As shown in FIG. 1, the teaching system 1 includes an
なお、情報処理装置120は、他のユーザ10aがヘッドマウントディスプレイ110aを装着することでユーザ10aの位置から視聴可能な角度で、ユーザ10が視聴している映像と同様の映像を提供することとしてもよい。以下、詳細に説明する。
The
<構成>
図2は、教示システム1に係る各装置の機能構成の一例を示すブロック図である。図2に示すように教示システム1は、ヘッドマウントディスプレイ110と、情報処理装置120と、ロボット200とを含む。ヘッドマウントディスプレイ110と情報処理装置120とは互いに通信可能に接続され、同様に情報処理装置120とロボット200も互いに通信可能に接続されている。これらの接続は、無線接続であってもよいし、有線接続であってもよい。
<Structure>
FIG. 2 is a block diagram showing an example of the functional configuration of each device according to the teaching system 1. As shown in FIG. 2, the teaching system 1 includes a head-mounted
図2に示すように、ヘッドマウントディスプレイ110は、通信部111と、記憶部112と、制御部113と、撮像部114と、表示部115とを備える。ヘッドマウントディスプレイ110は、ユーザに映像を提供する機能と、撮像する機能とを備えていれば、ヘッドマウントディスプレイ以外の機器によって実現されてよく、一例として、ウェアラブルグラスなどにより実現されてもよい。また、ユーザ視点の映像を撮像できるカメラだけをユーザの頭部等に装着し、映像はプロジェクタなどにより提供される構成としてもよい。
As shown in FIG. 2, the head-mounted
通信部111は、情報処理装置120と通信するための通信インターフェースである。通信部111は、情報処理装置120と通信ができれば、有線及び無線のいずれで通信を実行してもよく、また、通信プロトコルもいずれを用いてもよい。通信部111は、情報処理装置120からAR映像やVR映像、MR映像を受信し、制御部113に伝達したり、制御部113からの指示に従って、撮像部114が撮像した映像を情報処理装置120に送信したりする。
The communication unit 111 is a communication interface for communicating with the
記憶部112は、ヘッドマウントディスプレイ110が動作上必要とする各種プログラム及びデータを記憶する機能を有する記憶媒体である。記憶部112は、例えば、HDD、SSD、フラッシュメモリなどにより実現することができるが、この限りではない。記憶部112は、情報処理装置120から提供された映像を表示するためのプログラムや、AR映像やVR映像、MR映像のデータそのものを記憶していてもよい。
The
制御部113は、ヘッドマウントディスプレイ110の各部を制御する機能を有するプロセッサである。制御部113は、記憶部112に記憶されている動作プログラムを実行することにより、ヘッドマウントディスプレイ110の各部を制御する。制御部113は、例えば、通信部111から伝達されたAR(VR、MR)映像を表示部115に表示させたり、撮像部114が撮像した映像を通信部111から情報処理装置120に送信させたりする。
The
撮像部114は、いわゆるカメラであり、特にユーザの正面方向(ユーザの視界)を撮像可能に配置されている。撮像部114は、撮像して得られた映像を、通信部111に伝達する。撮像部114により撮像された撮像映像は、逐次リアルタイムで情報処理装置120に送信されるが、この限りではなく、一定の時間長を有する撮像映像が得られてから、あるいは、撮像が終了してから得られた撮像映像を送信するようにしてもよい。
The
表示部115は、制御部113からの指示に従って、情報処理装置120から提供されたAR(VR、MR)映像を表示する。表示部115は、例えば、液晶モニタや有機ELディスプレイなどにより実現することができる。
The
以上がヘッドマウントディスプレイの構成である。次に、情報処理装置120について説明する。
The above is the configuration of the head-mounted display. Next, the
図2に示すように、情報処理装置120は、通信部121と、記憶部122と、制御部123とを備える。情報処理装置120は、ヘッドマウントディスプレイ110に映像を提供するとともに、ロボット200に対する命令を生成して送信するサーバ、コンピュータシステムなどである。
As shown in FIG. 2, the
通信部121は、ヘッドマウントディスプレイ110やロボット200と通信するための通信インターフェースである。通信部121は、ヘッドマウントディスプレイ110やロボット200と通信ができれば、有線及び無線のいずれで通信を実行してもよく、また、通信プロトコルもいずれを用いてもよい。通信部121は、ヘッドマウントディスプレイ110に対してAR(VR、MR)映像を送信したり、ヘッドマウントディスプレイ110から撮像部114により撮像された撮像映像を受信して制御部123に伝達したり、ロボット200に対して、その動作を規定する教示命令を送信したりする。通信部121は、ヘッドマウントディスプレイ110と通信するための回路と、ロボット200と通信するための回路とでそれぞれ別個に構成されてもよいし、共通の通信回路を共用して通信を行うこととしてもよい。また、通信部121は、ヘッドマウントディスプレイ110やロボット200以外の機器と通信を行ってもよい。
The
記憶部122は、情報処理装置120が動作上必要とする各種プログラム及びデータを記憶する機能を有する記憶媒体である。記憶部122は、例えば、HDD、SSD、フラッシュメモリなどにより実現することができるが、この限りではない。記憶部112は、ヘッドマウントディスプレイ100から提供された撮像映像からユーザによるロボットに対する指示内容を解析するための解析プログラムや、解析結果に基づいてロボットに対する教示命令を生成する教示命令生成プログラムを記憶していてもよい。
The
制御部123は、情報処理装置120の各部を制御する機能を有するプロセッサである。制御部123は、記憶部122に記憶されている動作プログラムを実行することにより、情報処理装置120の各部を制御する。
The
制御部123は、ヘッドマウントディスプレイ110から送信された撮像映像を解析する解析部として機能する。具体的には、制御部123は、制御部123が生成した映像に含まれる各オブジェクト(ロボット、ペットボトル、ゴミ箱)に対して、ユーザが何らかの操作を加えたか否かを解析する。制御部123は、ヘッドマウントディスプレイ110から送信された撮像映像の中にユーザの手指が含まれるか否かを解析する。これは、既存の画像解析技術により実現できるが、一例として、パターンマッチング等を利用することにより実現することができる。そして、ユーザの手指が含まれる場合に、その手指がどのような所作をしているかを解析する。また、ユーザの視界において、その手指が何を操作の対象としているのかを解析する。即ち、撮像映像中のユーザの手指の位置と、その位置に対して存在するオブジェクトを特定する。したがって、制御部123は、撮像映像を解析して、ユーザ10が、どの対象(オブジェクト)に対して、何の操作をしたのかを解析する。
The
制御部123は、撮像映像を解析した結果から、ユーザ10が、ロボットに何をさせたいのかを解釈する。そして、制御部123は、その解釈にしたがって、実際のロボット200に対する教示命令を生成する生成部として機能する。ここでいう教示命令とは、何を、どこに、どうする、という内容が含まれる命令であってよい。制御部123は、生成した教示命令を、通信部121を介して、実際のロボット200に送信する。
The
また、制御部123は、撮像映像の解析結果から次のAR映像またはVR映像またはMR映像を生成する生成部として機能する。制御部123は、解析結果から提供しているオブジェクトに対してユーザ10により何らかの操作が加えられた場合には、その操作後の状態を含むAR映像またはVR映像を生成する。AR(MR)映像の場合は、ヘッドマウントディスプレイ110から受信した撮像映像に対して、ヘッドマウントディスプレイ110の位置に応じた態様でのAR(MR)映像を合成することで、AR(MR)映像を生成する。そして、制御部123は、生成した映像を、通信部121を介して、ヘッドマウントディスプレイ110に送信する。なお、このとき、制御部123は、撮像映像中に、生成するオブジェクトの実物が含まれる場合には、その実物に重畳するように、仮想のオブジェクトのAR映像を生成することとしてもよい。
Further, the
以上が、情報処理装置120の説明である。次に、ロボット200について説明する。
The above is the description of the
図2に示すように、ロボット200は、通信部201と、記憶部202と、制御部203と、駆動部204と、検出部205とを備える。ロボット200は、通信機能を備え、用途として必要とされる機能を実行できるロボットであれば、どのようなロボットであってもよい。ロボット200は、一例として、7軸ロボットであってよい。7軸ロボットは、回転軸を7個有する多関節のロボットであり、各軸の端部が連接することによってロボットアームとして形成され、一例として物品の運搬を実行したり、工場等での所定の工程を実行したりする。なお、ロボット200は、7軸ロボットに限定するものではなく、他の形態のロボット、例えば、6軸ロボットや5軸ロボットなどであってもよいし、あるいは、所定のアルゴリズムや指示に従って移動する移動ロボットや案内ロボットであってもよいし、ユーザ等の人間とコミュニケーションを交わすコミュニケーションロボットなどであってもよい。
As shown in FIG. 2, the
通信部201は、情報処理装置120と通信するための通信インターフェースである。通信部201は、情報処理装置120と通信ができれば、有線及び無線のいずれで通信を実行してもよく、また、通信プロトコルもいずれを用いてもよい。通信部201は、情報処理装置120から、教示命令を受信して、制御部203に伝達する。また、通信部201は、制御部203からの指示に従って、自装置(ロボット200)の各部の動作状態やセンサ等を利用して収集したセンシングデータを情報処理装置120に送信することとしてもよい。
The
記憶部202は、ロボット200が動作上必要とする各種プログラム及びデータを記憶する機能を有する記憶媒体である。記憶部202は、例えば、HDD、SSD、フラッシュメモリなどにより実現することができるが、この限りではない。記憶部202は、情報処理装置120から指示された教示命令や、その教示命令を解釈してその命令内容を実行する実行プログラムを記憶していてもよい。また、動作上必要とするパターンマッチング等に用いる参照データなども保持していてもよい。
The
制御部203は、ロボット200の各部を制御する機能を有するプロセッサである。制御部203は、記憶部202に記憶されているプログラムを実行することにより、ロボット200の各部を制御する。制御部203は、予め定められた基準に従って、ロボット200を動作させることとしてよい。また、制御部203は、教示命令を受け付けた場合に、その教示命令に従って、検出部205が検出した状況に応じた動作を実行する。例えば、教示命令が、「ペットボトルを青いゴミ箱に捨てろ」というものであった場合に、検出部205が取得した周囲の画像を解析して、ペットボトルがあるか否か、そして、ゴミ箱がどこにあるかを特定する。そして、ペットボトルがあった場合に、ペットボトルを把持させ、ゴミ箱20の位置まで移動させるように、駆動部204を駆動させてロボット200を制御する。
The
また、制御部203は、情報処理装置120やリモートコントローラによりユーザから直接指示を受け付けた場合に、その指示に従ってロボット200を動作させることとしてもよい。
Further, when the
駆動部204は、ロボット200の各部を駆動させる機能を有する。ロボット200が7軸ロボットの場合であれば、駆動部204は、各軸を回動させるモータにより実現され、制御部203からの指示に従って駆動する。また、ロボット200が移動ロボットの場合で車輪により移動する場合には、その車輪を回転させるモータにより実現され、制御部203からの指示に従って駆動する。
The
検出部205は、ロボット200が自装置の周囲の情報や自装置の状態を検出する機能を有する。検出部205は、各種のセンサにより実現することができる。センサとしては、例えば、他の物体までの距離を測定可能な距離センサ(例えば、超音波センサ)、人を検知できる人センサ(例えば、赤外線センサ)、所定の方向(例えば、7軸ロボットの場合であれば、先端の向いている方向、移動ロボットの場合であれば進行方向)の画像を取得可能なイメージセンサなどにより実現することができる。どのようなセンサを用いるかは、ロボット200として果たすべき機能に応じて、選択されて、搭載される。
以上がロボット200の構成である。
The
The above is the configuration of the
<データ>
図3は、情報処理装置120が保持するデータであって、各オブジェクトを管理するためのオブジェクトデータの管理表300の構成例を示すデータ概念図である。図3に示すように、オブジェクトデータの管理表300は、物体ID301と、座標302と、属性情報303とが対応付けられた情報である。
<Data>
FIG. 3 is a data conceptual diagram showing a configuration example of the object data management table 300 for managing each object, which is data held by the
物体ID301は、AR映像もしくはVR映像として、ユーザに提供する映像の中で存在させるオブジェクト各々を識別するための識別情報である。物体ID301は、例えば、ロボット200やペットボトル30などを仮想空間(拡張現実空間を含む)上に存在させる場合に、情報処理装置120もしくはそのオペレータが付与することとしてもよい。
The
座標302は、対応する物体ID301で示されるオブジェクトが、仮想空間上のどの位置に存在するかを示す情報である。座標302は、オブジェクトの特定の一点(例えば、中心点)の座標位置を示すものであってもよいし、オブジェクトの複数の特徴点各々の座標位置を示すものであってもよいし、オブジェクトが存在する座標範囲を示すものであってもよい。座標302は、実際のロボット200を存在させる現実空間の座標位置にリンクさせる。ここで、座標をリンクさせるとは、オブジェクト各々の位置や部屋の壁の位置などの対応関係をとることをいう。このとき、この対応が取れていれば、仮想物体であるオブジェクト等を規定する座標の座標系と、現実空間の座標系とは縮尺が異なってもよい。
座標302は、ユーザ10により対応する物体ID301で示されるオブジェクトが操作されて移動させられた場合に、制御部123によって、移動後の座標位置に修正される。
When the object indicated by the
属性情報303は、対応する物体ID301で示されるオブジェクトの属性を示す情報である。属性とは、オブジェクトの性質を示す情報であり、形状、色、そのオブジェクトが何であるか、状態などを示す情報であるがこれらに限定するものではない。オブジェクトを特徴付ける情報であれば、その他の情報であってもよい。
The
図3によれば、物体ID301が「B011」であるオブジェクトは、座標(X1、Y1、Z1)に位置し、その属性情報303から、円筒形で青色のペットボトルであることが理解できる。なお、これがロボット200であれば、ロボット200を構成する各アーム毎に、その位置や形状が特定されてもよいし、一つの情報として属性情報303において、各軸の位置や各軸を駆動させる駆動部204(モータ)の軸角度(回動角、回転角と呼称してもよい)などの情報が定義されることとしてもよい。
According to FIG. 3, the object whose
なお、図3には図示していないが、その他に、各物体ID(オブジェクト)に対しては、さらに、実際に映像として用いる表示用データなども対応付けられていてもよい。 Although not shown in FIG. 3, each object ID (object) may be associated with display data or the like that is actually used as an image.
<操作具体例>
ここから、図4〜図8を用いて、実際の操作の具体例を説明する。図4は、情報処理装置120から、ヘッドマウントディスプレイ110に提供される映像であって、ヘッドマウントディスプレイ110に表示される映像の一例である。図4は、図1におけるユーザ10が視認可能な映像の一例でもある。
<Specific operation example>
From here, a specific example of the actual operation will be described with reference to FIGS. 4 to 8. FIG. 4 is an image provided from the
図4は、まず、最初に、ヘッドマウントディスプレイ110の撮像部114により撮像された映像に基づいて情報処理装置120により生成されたAR映像が、ヘッドマウントディスプレイ110の表示部115に表示された表示画面400を示している。
In FIG. 4, first, the AR image generated by the
図4に示すように表示画面400には、ロボット200aと、ゴミ箱20と、ペットボトル30が3本表示された状態を示している。これらのオブジェクトのうち、少なくともロボット200aと、ペットボトル30は、仮想的なものであり、情報処理装置120により生成された仮想データである。一方、ゴミ箱20は、撮像部114により撮像された実際のものであってもよいし、情報処理装置120により生成された仮想データであってもよい。また、図4には図示していないが、ロボット200aについては、実際にその位置にロボット200の実物を配置し、配置したロボット200を撮像した撮像映像に重畳させた態様で、仮想上のロボット200aを表示する態様としてよい。
As shown in FIG. 4, the
図4に示すような状況下で、ユーザ10は、ロボット200aに対して操作を行う。例えば、一例として、図5に示すように、ユーザ10は、自身の指501で、ロボット200aに対する操作を行う。図5は、図4に示した表示画面400に続く光景であって、ヘッドマウントディスプレイ110の表示部115に表示される表示画面500の一例を示す図である。図5に示されるように、表示画面500では、ユーザ10の指501で、ロボット200aの先端部201aをつまむ(保持)するようにしていることが理解できる。これは、実際のロボット200を指でつかんでいるわけではなく、情報処理装置120が提供する映像の中で、ユーザ自身の指501で、仮想上のロボット200aをつまんだように見えるように指を動かすことを意味している。情報処理装置120は、撮像部114による撮像映像から、ユーザの指が所定の動き(ここでは、2本の指で、ロボット200aの先端部201aを挟み込むという動き)を検出して、ユーザにより、ロボット200aの先端が把持されたという解釈を行い、以降、ユーザの動きに応じて、ロボット200aを動かすように、AR映像を生成する。
Under the situation shown in FIG. 4, the
図6は、そのようにして、ロボット200aを動かした後の、表示画面600を示している。図6に示すように、ユーザ10は、自身の指501で、先端部201aを挟んだ状態を維持した状態で、手を動かすことで、ロボット200aを仮想的に動かすことができる。図6は、図5に示す表示画面500に続く表示画面600を示している。図6には、先端部201aをペットボトル30aの位置まで移動させた状態を示している。
FIG. 6 shows the
ここで、ユーザ10は、ロボット200aの先端部201aの把持部にペットボトル30aを把持させたいとする。そこで、一例として、図6に示す状態を所定時間維持することで、先端部201aの把持部にペットボトル30aを把持させた状態にすることができる。またあるいは、図示はしていないが、ユーザ10が指501をもう一度つまむ動作をすることで、把持部にペットボトル30aを把持させた状態にするように構成してもよい。
Here, the
ユーザ10は、把持部にペットボトル30aを把持させた状態にすると、その状態でロボット200aを動かして、図7に示す表示画面700に示すように、ゴミ箱20の上まで先端部201aを移動させる。図7は、図6に示す表示画面600に続く表示画面700を示している。図7に示されるように、先端部201aの把持部はペットボトル30aを把持した状態の映像が、ユーザ10のヘッドマウントディスプレイ110の表示部115に表示される。
When the
そして、図7に示す状態で、ユーザ10は、例えば、指をロボット200aの先端部201aから離すように動かすとする。図8は、図7に示す表示画面700に続く表示画面800を示している。図8に示すように、ユーザ10は、自身の指501をロボット200aの先端部201aから離すように動かす。図7と図8を比較すれば理解できるように、ユーザ10が指を先端部201aから離している。情報処理装置120は、この動作を示す撮像映像を解析することで、ユーザ10からの入力として受け付けて、ロボット200aの把持部によるペットボトル30aの把持状態を解除する。そして、これにより、情報処理装置120は、ペットボトル30aがゴミ箱20に落下するという映像をヘッドマウントディスプレイ110に提供することになる。
Then, in the state shown in FIG. 7, the
その一方で、情報処理装置120は、図4〜図8に示すような態様で、ユーザ10に、仮想的にロボット200aを操作させて、ユーザ10がロボット200に実行させたい処理を認識することができる。この図4〜図8に示す動作をユーザ10が仮想のロボット200aにさせることで、情報処理装置120は、一例として、ユーザ10は、ロボット200に対して、ペットボトルをゴミ箱に捨てさせる処理を実行したいという解釈をすることができる。そして、この解釈に従って、情報処理装置120は、ロボット200に対して、ペットボトルをゴミ箱に捨てるという教示命令を送信することができ、ロボット200は、ペットボトルをゴミ箱に捨てるという処理を学習することができる。
On the other hand, the
<動作>
ここから、教示システム1に係る各装置の動作について説明する。まず図9を用いて、教示システム1に係る各装置、即ち、ヘッドマウントディスプレイ110と、情報処理装置120と、ロボット200との間のやり取りについて説明する。
<Operation>
From here, the operation of each device related to the teaching system 1 will be described. First, with reference to FIG. 9, each device related to the teaching system 1, that is, the exchange between the head-mounted
図9は、教示システム1に係る各装置の間のやり取りの例を示すシーケンス図である。図9に示すように、ヘッドマウントディスプレイ(HMD)110は、撮像部114が撮像した撮像映像(画像)を情報処理装置120に送信する(ステップS901)。
FIG. 9 is a sequence diagram showing an example of communication between each device according to the teaching system 1. As shown in FIG. 9, the head-mounted display (HMD) 110 transmits the captured image (image) captured by the
情報処理装置120は、撮像映像を受信すると、その撮像映像に、仮想ロボット200aを含むAR映像を生成して、ヘッドマウントディスプレイ110に送信する(ステップS902)。
When the
ヘッドマウントディスプレイ110は、受信したAR映像を表示する(ステップS903)。ヘッドマウントディスプレイ110は、ユーザ10の仮想ロボット200aに対する動作(操作)を含む撮像映像を、情報処理装置120に送信する(ステップS904)。
The head-mounted
情報処理装置120は、受信した撮像映像の内容を解析する(ステップS905)。そして、解析した内容から、ユーザが実際のロボット200に実行させたい処理を解釈し、その解釈に従った教示命令を生成する(ステップS906)。情報処理装置120は、生成した教示命令を、ロボット200に送信する(ステップS907)。
The
ロボット200は、教示命令を受信すると、その教示命令で示される命令を実行する(ステップS908)。これにより、教示システム1においては、ユーザは、拡張現実あるいは仮想現実で生成された仮想的なロボット200aを感覚的に操作するだけで、ロボット200に実行させた処理を教示することができる。
Upon receiving the teaching command, the
ここから、図9に示すシーケンスを実現するための各装置の動作例を説明する。図10は、ヘッドマウントディスプレイ110の動作例を示すフローチャートである。
From here, an operation example of each device for realizing the sequence shown in FIG. 9 will be described. FIG. 10 is a flowchart showing an operation example of the head-mounted
図10に示すように、制御部113からの指示に従って、撮像部114は、撮影(撮像)を実行する(ステップS1001)。撮像部114は、撮像して得られた画像(もしくは映像。即ち動画)を、制御部113に伝達する。制御部113は、得られた撮像画像を、通信部111を介して、情報処理装置120に送信する(ステップS1002)。
As shown in FIG. 10, the
ヘッドマウントディスプレイ110の通信部111は、仮想ロボットを含む映像を受信する。通信部111は、受信した映像を制御部113に伝達する。そして、制御部113は、伝達された映像を、表示部115に表示させる(ステップS1003)。これにより、ヘッドマウントディスプレイ110は、装着しているユーザ10に、仮想ロボット200aを含むAR映像(もしくはVR映像)を提供することができる。
The communication unit 111 of the head-mounted
ヘッドマウントディスプレイ110の制御部113は、ユーザからの終了入力を受け付けたか否かを判断する(ステップS1004)。ユーザからの終了入力は、例えば、図示しない電源ボタンの押下や、AR映像またはVR映像の提供の終了入力であるが、これらに限定するものではない。ユーザからの終了入力を受け付けていた場合には(ステップS1004のYES)、処理を終了する。ユーザからの終了入力を受け付けていない場合には(ステップS1004のNO)、ヘッドマウントディスプレイ110は、ステップS1001の処理に戻って、以降の処理を実行する。
The
ステップS1001〜S1003の処理が繰り返されることにより、ヘッドマウントディスプレイ110は、操作対象を含むAR映像またはVR映像を表示しつつ、表示された仮想的なオブジェクトに対する入力を行っている様子を撮像した撮像映像を、情報処理装置120に送信することができる。
By repeating the processes of steps S1001 to S1003, the head-mounted
図11は、図9に示すやり取りを実現するための情報処理装置120の動作例を示すフローチャートである。図11に示すフローチャートは、一度、制御部123が生成したAR映像またはVR映像を既に提供している状態から開始している。
FIG. 11 is a flowchart showing an operation example of the
図11に示すように、情報処理装置120の通信部121は、ヘッドマウントディスプレイ110から、ヘッドマウントディスプレイ110が撮像した撮像画像を受信する(ステップS1101)。通信部121は、受信した撮像画像を、制御部123に伝達する。
As shown in FIG. 11, the
制御部123は、通信部121から撮像画像を伝達されると、撮像画像の内容を解析する(ステップS1102)。画像の解析には一般的な画像認識技術を用いるとよい。
When the captured image is transmitted from the
制御部123は、解析した結果から、仮想ロボット200aに対する操作があるか否かを判定する(ステップS1103)。仮想ロボット200aに対する操作とは、例えば、一例として、ユーザ10の指によるロボットの所定の位置の指定であったり、ロボットアームを動かす指示であったり、ロボットが実行可能な特定の処理の実行の指定であったりしてよく、これらは、ユーザの指による特定の動作を検出することにより特定することができる。
The
仮想ロボット200aに対する操作入力があると判定した場合に(ステップS1103のYES)、制御部123は、操作後の状態の仮想ロボット200aを含む合成画像を生成する(ステップS1104)。仮想ロボット200aに対する操作入力がないと判定した場合に(ステップS1103のNO)、制御部123は、仮想ロボット200aの状態を維持した合成画像を生成する(ステップS1105)。
When it is determined that there is an operation input to the
そして、制御部123は生成した合成画像を、通信部121を介して、ヘッドマウントディスプレイ110に送信する(ステップS1106)。
Then, the
制御部123は、仮想ロボット200aに対する入力が終了したか否かを判定する(ステップS1107)。制御部123は、例えば、情報処理装置120に対するユーザからの終了入力を受け付けたり、あるいは、ヘッドマウントディスプレイ110に対するユーザ10からの終了入力を検出したり、撮像映像中において、ユーザの手や指の特定の操作を検出したりすることによって、仮想ロボット200aに対する入力が終了したことを判定してよい。
The
仮想ロボット200aに対する入力が終了していないと判定した場合には(ステップS1107のNO)、ステップS1101の処理に戻って以降の処理を実行する。仮想ロボット200aに対する入力が終了したと判定した場合には(ステップS1107のYES)、制御部123は、仮想ロボット200aに対するユーザ10による一連の操作から、ユーザ10がロボット200に実行させた処理が何であるかを解釈する。そして、その解釈結果から、ロボット200に対する動作命令である教示命令を生成する(ステップS1108)。制御部123は、通信部121を介して、生成した教示命令を実際のロボット200に送信し(ステップS1109)、処理を終了する。
If it is determined that the input to the
これにより、情報処理装置120は、ユーザからの詳細な入力(実際にロボット200を手で動かしてのティーチングや、時間毎の各駆動軸の細やかな指定によるティーチング)なしで、実際のロボット200に対する指示を出力することができる。
As a result, the
最後に、図12は、実際のロボット200の動作を示すフローチャートである。
Finally, FIG. 12 is a flowchart showing the actual operation of the
図12に示すように、ロボット200の通信部201は、情報処理装置120から教示命令を受信する(ステップS1201)。通信部201は、受信した教示命令を、制御部203に伝達する。
As shown in FIG. 12, the
制御部203は、受信した教示命令を記憶部202に記憶する(ステップS1202)。
The
制御部203は、教示命令の内容を解釈して、実行すべき処理内容を特定する(ステップS1203)。検出部205は、検出した周囲の状況を示すセンシングデータを制御部203に伝達する。これにより、制御部203は、ロボット200の周囲の状況を把握する(ステップS1204)。
The
制御部203は、伝達されたセンシングデータから、教示命令で示される状況に合致するか否かを判定する(S1205)。周囲の状況が教示命令で示される状況に合致すると判定した場合(ステップS1205のYES)、即ち、教示命令を実行すべき状況であると判定した場合に、制御部123は、教示命令で示される命令内容を、駆動部204を制御して実行し(ステップS1206)、処理を終了する。
The
これにより、ロボット200は、ユーザから詳細な指示なく、感覚的になされた指示に従って生成された教示命令にしたがって、ユーザの望む動作を実行することができる。
Thereby, the
<まとめ>
従来のロボットに対するティーチングは、実際のロボットを動かしたりする場合には重労働となったり、プログラムによるティーチングであれば高度な専門知識を要求されたりするなど、通常のユーザには困難を伴うものがあった。これに対して、本実施の形態に係る教示システム1によれば、仮想上のロボットに対する間隔的な操作で、実際のロボットに対して実行すべき処理を教示することができるので、従来よりも、簡易かつ感覚的にロボットのティーチングを実行できる。したがって、本実施の形態に係る情報処理装置120及び情報処理装置120を含む教示システム1は、ロボットのティーチングの利便性の向上を促すことができる。
<Summary>
Teaching for conventional robots can be difficult for ordinary users, such as heavy labor when moving an actual robot, and high-level expertise is required for programmatic teaching. It was. On the other hand, according to the teaching system 1 according to the present embodiment, it is possible to teach the processing to be executed to the actual robot by the interval operation for the virtual robot, so that the processing to be executed can be taught to the actual robot. , Robot teaching can be performed easily and intuitively. Therefore, the teaching system 1 including the
<変形例>
上記実施の形態に係る各装置は、上記実施の形態に限定されるものではなく、他の手法により実現されてもよいことは言うまでもない。以下、各種変形例について説明する。
<Modification example>
It goes without saying that each device according to the above embodiment is not limited to the above embodiment and may be realized by another method. Hereinafter, various modification examples will be described.
(1)上記実施の形態においては、情報処理装置120と、ヘッドマウントディスプレイ110とを別個の装置として説明したが、これはその限りではない。ヘッドマウントディスプレイ110と情報処理装置120と一体に形成されてもよい。即ち、ヘッドマウントディスプレイ110は、情報処理装置120が保持する全ての機能を保持していてもよい。
(1) In the above embodiment, the
また、ヘッドマウントディスプレイ110は、情報処理装置120の一部の機能(例えば、映像を生成する機能)を備えることとしてもよい。この場合、ヘッドマウントディスプレイ110の制御部113は、撮像部114で撮像した撮像映像に基づいて、ユーザ10が実行している操作内容を解析して、映像を生成し、表示部115に表示させる。その一方で、制御部113は、通信部111を介して撮像映像を情報処理装置120に送信し、情報処理装置120の制御部123は、その撮像映像から、ユーザ10がロボットに実行させたい処理内容を解釈して教示命令を生成するようにしてよい。
Further, the head-mounted
(2)上記実施の形態においては、ロボット200aの先端部201aを動作させる例を示したが、ロボット200aに対する操作は、その先端部201aに対する操作だけに限るものではない。例えば、ロボット200aを構成する複数の関節のうちのいずれかを1つの指(例えば、人差し指)で指示した状態で、他の2本の指(例えば、親指と中指)で1つの指の周りを回転させることで、関節の回転を指示する操作としてもよい。同様に、関節ではなくロボットを構成する軸のいずれかを指定して、同様の操作で軸の回転を指示する操作としてもよい。
(2) In the above embodiment, an example of operating the
(3)上記実施の形態においては、一具体例としてロボットの7軸ロボットにより物品の把持、運搬を教示する例を示したが、上述の通り、ロボットは7軸ロボットに限定するものではなく、また、実行する作業も把持、運搬作業に限定するものではない。図13には、ロボット200の他の例として、所謂、自動掃除ロボットを用いる例を示している。
(3) In the above embodiment, as a specific example, an example of teaching gripping and transporting an article by a robot's 7-axis robot is shown, but as described above, the robot is not limited to the 7-axis robot. Further, the work to be performed is not limited to the gripping and transporting work. FIG. 13 shows an example in which a so-called automatic cleaning robot is used as another example of the
図13は、ユーザ10aが視認している映像であって、ヘッドマウントディスプレイ110の表示部115に表示された映像を示している。ここでは、ロボット200の一例として、自動掃除ロボット200bを用いる例を示している。自動掃除ロボット200bは、自身のセンサで周囲の環境を確認して、移動経路を自動生成する機能を有するものがあるが、生成された移動経路での清掃は効率が悪い場合がある。そこで、教示システム1を利用して、ユーザが移動経路を指定することができる。図13の例では、点線で示される位置にあるロボット200bをユーザが自身の指1301で所定時間指し示す。このとき、ユーザは、実際のロボット200に触れている必要はなく、仮想上のロボット200bに触れているように見える状態であればよい。情報処理装置120は、ロボット200bに対してユーザが所定時間以上触れていることを検出すると、ロボット200bがユーザの指に追随するように移動する映像を生成する。ユーザは、指1301を移動させることで、ロボット200bが移動すべき移動経路を指示する。ここでは、矢印1302で示すように、指を移動させたとする。すると、情報処理装置120は、その操作から、矢印1302で示される位置を走行するように、図13に示す表示画面と、現実の位置との対応をとって、矢印1302で示す経路の実際の位置(現実座標系)を特定し、特定した座標系での移動経路での掃除を実行させる教示命令を生成する。そして、情報処理装置120は、生成した教示命令をロボット200に送信する。これによって、自動掃除ロボット200は、指定された経路での清掃を実行することができるので、効率的な清掃を行うことができる。
FIG. 13 is an image visually recognized by the
なお、ここでは、ロボット200bを指で所定時間以上指し示すことで、ロボット200bを操作できるようにしているが、これは一例であり、例えば、上記実施の形態と同様にロボット200bをつまむようにして指を動かすことで、ロボット200bを保持し、移動させて、その後につまむ動作を解除するように指を動かすことでロボット200bの移動経路を指定するように構成してもよい。仮想的なロボット200に対する操作方法は、ユーザが間隔的に操作できるものであれば、どのような操作方法であってもよい。
Here, the
(4)上記実施の形態において、仮想的なロボット200aを実物のロボット200に重畳させたAR映像を表示させることとしてもよい旨を説明したが、更に、ユーザが仮想的なロボット200aを操作するごとに、その操作内容に連動させて、実物のロボット200も同時に(伝達のためのタイムラグは発生してもよい)動作させるように構成してもよい。
(4) In the above embodiment, it has been explained that the AR image in which the
(5)上記実施の形態においては、特に説明していないが、ロボットに対する教示においてより細かく操作したい場合に、情報処理装置120は、ユーザが作業している箇所(例えば、仮想的なロボット200aに対する所定の入力を行って操作している箇所)の拡大映像をヘッドマウントディスプレイ110に提供することとしてよい。この拡大映像は、VR映像により別のウィンドウで操作箇所の拡大画像を表示することとしてもよいし、現在視認している映像をズームする態様で拡大画像を表示することとしてもよい。したがって、その拡大画像を提供することで、ユーザはロボット200aに対する指示入力を実行しやすくなる。なお、教示システム1は、作業箇所の拡大映像を提供するために、実物のロボットの作業箇所(上記実施の形態の例でいえば、把持部)を撮像するための撮像用カメラを備えてもよい。この撮像用カメラは、一例として、ロボット200の先端部201aに設けることとしてもよいし、ロボット200とは別個に外部から撮像できるように備えることとしてもよい。また、この撮像用カメラは、ロボット200とは別個に設ける場合であって、ロボットの作業箇所が移動するときに、その作業箇所の撮像を継続する(作業箇所を追随する)ための移動機構を設けてもよい。例えば、教示システム1において、撮像用カメラをロボット200とは別個のロボットアームに取り付けて、そのロボットアームが動くことによって、作業箇所の撮像を継続できるように構成してもよい。本変形例は、上記変形例(4)に示したように、仮想的なロボット200aを用いて、実際のロボット200をリアルタイムで操作する際に特に有用となる。
(5) Although not particularly described in the above embodiment, when it is desired to perform more detailed operations in teaching the robot, the
(6) 上記実施の形態においては、教示システムによりロボットに実行すべき内容教示する手法として、情報処理装置120が教示プログラム等を実行することにより、教示命令を生成することとしているが、これは装置に集積回路(IC(Integrated Circuit)チップ、LSI(Large Scale Integration))等に形成された論理回路(ハードウェア)や専用回路によって実現してもよい。また、これらの回路は、1または複数の集積回路により実現されてよく、上記実施の形態に示した複数の機能部の機能を1つの集積回路により実現されることとしてもよい。LSIは、集積度の違いにより、VLSI、スーパーLSI、ウルトラLSIなどと呼称されることもある。
(6) In the above embodiment, as a method of teaching the contents to be executed to the robot by the teaching system, the
また、上記教示プログラムは、プロセッサが読み取り可能な記録媒体に記録されていてよく、記録媒体としては、「一時的でない有形の媒体」、例えば、テープ、ディスク、カード、半導体メモリ、プログラマブルな論理回路などを用いることができる。また、上記教示プログラムは、当該教示プログラムを伝送可能な任意の伝送媒体(通信ネットワークや放送波等)を介して上記プロセッサに供給されてもよい。本発明は、上記歩行教示プログラムが電子的な伝送によって具現化された、搬送波に埋め込まれたデータ信号の形態でも実現され得る。 Further, the teaching program may be recorded on a recording medium that can be read by a processor, and the recording medium may be a "non-temporary tangible medium" such as a tape, a disk, a card, a semiconductor memory, or a programmable logic circuit. Etc. can be used. Further, the teaching program may be supplied to the processor via an arbitrary transmission medium (communication network, broadcast wave, etc.) capable of transmitting the teaching program. The present invention can also be realized in the form of a data signal embedded in a carrier wave, in which the walking teaching program is embodied by electronic transmission.
なお、上記教示プログラムは、例えば、C言語、C++、ActionScript、JavaScript(登録商標)などのスクリプト言語、Objective-C、Java(登録商標)などのオブジェクト指向プログラミング言語、HTML5などのマークアップ言語などを用いて実装できる。 The teaching program includes, for example, script languages such as C language, C ++, ActionScript, and JavaScript (registered trademark), object-oriented programming languages such as Objective-C and Java (registered trademark), and markup languages such as HTML5. Can be implemented using.
(7)上記実施の形態及び各変形例は、適宜、必要に応じて組み合わせて、所望する機能を実現するように構成されてよい。 (7) The above-described embodiment and each modification may be appropriately combined as necessary to realize a desired function.
1 教示システム
110、110a ヘッドマウントディスプレイ
111 通信部
112 記憶部
113 制御部
114 撮像部
115 表示部
120 情報処理装置
121 通信部
122 記憶部
123 制御部
200 ロボット
201 通信部
202 記憶部
203 制御部
204 駆動部
205 検出部
1
Claims (7)
ユーザの視野方向を撮像する撮像部と、
前記表示部に表示する、仮想的なロボットと、前記撮像部により撮像された撮像映像とを合成した合成映像を生成する画像生成部と、
前記画像生成部により生成された映像から前記ユーザの手による前記仮想的なロボットに対する操作を検出する検出部と、
前記検出部により検出された操作に基づき実際のロボットの動作命令を生成する命令生成部と、
前記動作命令を前記実際のロボットに送信する送信部とを備える
教示システム。 A display unit that displays images and
An imaging unit that captures the user's field of view,
An image generation unit that generates a composite image that combines a virtual robot displayed on the display unit and an image captured by the image pickup unit.
A detection unit that detects an operation on the virtual robot by the user's hand from the video generated by the image generation unit, and a detection unit.
An instruction generation unit that generates an actual robot operation command based on the operation detected by the detection unit,
A teaching system including a transmission unit that transmits the operation command to the actual robot.
前記画像生成部は、更に、仮想的な物品を合成した前記合成映像を生成し、
前記検出部は、前記ユーザが前記仮想的なロボットの前記把持部を操作して把持させた物品を特定するとともに、前記把持部に前記物品をリリースさせた場所または対象を特定し、
前記命令生成部は、前記実際のロボットに対して、前記検出部が特定した物品を、前記場所又は対象まで運搬させる動作命令を生成する
ことを特徴とする請求項1に記載の教示システム。 The robot has a grip portion for gripping an article.
The image generation unit further generates the composite image obtained by synthesizing a virtual article.
The detection unit identifies an article gripped by the user by operating the grip portion of the virtual robot, and identifies a place or target at which the grip portion releases the article.
The teaching system according to claim 1, wherein the command generation unit generates an operation command for the actual robot to carry the article specified by the detection unit to the place or the target.
前記検出部は、前記ユーザが前記仮想的なロボットを前記合成映像内を移動させた移動経路を検出し、
前記命令生成部は、前記実際のロボットに対して、前記検出部が特定した前記移動経路上を移動する動作命令を生成する
ことを特徴とする請求項1に記載の教示システム。 The robot is a robot that can move independently.
The detection unit detects a movement path in which the user moves the virtual robot in the composite video, and then detects the movement path.
The teaching system according to claim 1, wherein the command generation unit generates an operation command for the actual robot to move on the movement path specified by the detection unit.
前記合成映像は、前記仮想的なロボットを、前記撮影映像中の実際のロボットに対して重畳した前記合成映像を生成する
ことを特徴とする請求項1〜3のいずれか一項に記載の教示システム。 The imaging unit captures an image including the actual robot as the captured image.
The teaching according to any one of claims 1 to 3, wherein the composite image generates the composite image in which the virtual robot is superimposed on the actual robot in the captured image. system.
ことを特徴とする請求項1〜4のいずれか一項に記載の教示システム。 The teaching system according to any one of claims 1 to 4, wherein the robot is a 7-axis robot.
画像を表示する表示ステップと、
ユーザの視野方向を撮像する撮像ステップと、
前記表示ステップにおいて表示する、仮想的なロボットと、前記撮像ステップにより撮像された撮像映像とを合成した合成映像を生成する画像生成ステップと、
前記画像生成ステップにより生成された映像から前記ユーザの手による前記仮想的なロボットに対する操作を検出する検出ステップと、
前記検出ステップにより検出された操作に基づき実際のロボットの動作命令を生成する命令生成ステップと、
前記動作命令を前記実際のロボットに送信する送信ステップとを含む
教示方法。 It is a teaching method to the robot executed by the teaching system.
Display steps to display images and
An imaging step that captures the user's field of view
An image generation step of generating a composite image obtained by synthesizing a virtual robot to be displayed in the display step and an image captured by the image pickup step.
A detection step for detecting an operation on the virtual robot by the user's hand from the video generated by the image generation step, and a detection step.
An instruction generation step that generates an actual robot operation instruction based on the operation detected by the detection step, and
A teaching method including a transmission step of transmitting the operation command to the actual robot.
画像を表示する表示機能と、
ユーザの視野方向を撮像する撮像機能と、
前記表示機能が表示する、仮想的なロボットと、前記撮像機能により撮像された撮像映像とを合成した合成映像を生成する画像生成機能と、
前記画像生成機能により生成された映像から前記ユーザの手による前記仮想的なロボットに対する操作を検出する検出機能と、
前記検出機能により検出された操作に基づき実際のロボットの動作命令を生成する命令生成機能と、
前記動作命令を前記実際のロボットに送信する送信機能とを実現させる
教示プログラム。 To the computer of the teaching system
Display function to display images and
An imaging function that captures the user's field of view,
An image generation function that generates a composite image that combines a virtual robot displayed by the display function and an image captured by the image pickup function.
A detection function that detects an operation on the virtual robot by the user's hand from the video generated by the image generation function, and a detection function.
An instruction generation function that generates an actual robot operation instruction based on the operation detected by the detection function, and
A teaching program that realizes a transmission function that transmits the operation command to the actual robot.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019183318A JP7386451B2 (en) | 2019-10-03 | 2019-10-03 | Teaching system, teaching method and teaching program |
JP2023188927A JP2023181513A (en) | 2019-10-03 | 2023-11-02 | Teaching system, teaching method, and teaching program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019183318A JP7386451B2 (en) | 2019-10-03 | 2019-10-03 | Teaching system, teaching method and teaching program |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023188927A Division JP2023181513A (en) | 2019-10-03 | 2023-11-02 | Teaching system, teaching method, and teaching program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021058949A true JP2021058949A (en) | 2021-04-15 |
JP7386451B2 JP7386451B2 (en) | 2023-11-27 |
Family
ID=75379485
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019183318A Active JP7386451B2 (en) | 2019-10-03 | 2019-10-03 | Teaching system, teaching method and teaching program |
JP2023188927A Pending JP2023181513A (en) | 2019-10-03 | 2023-11-02 | Teaching system, teaching method, and teaching program |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023188927A Pending JP2023181513A (en) | 2019-10-03 | 2023-11-02 | Teaching system, teaching method, and teaching program |
Country Status (1)
Country | Link |
---|---|
JP (2) | JP7386451B2 (en) |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1537959A2 (en) * | 2003-11-24 | 2005-06-08 | Abb Research Ltd. | A method and a system for programming an industrial robot |
JP2014180707A (en) * | 2013-03-18 | 2014-09-29 | Yaskawa Electric Corp | Robot device and method for manufacturing workpiece |
US20160257000A1 (en) * | 2015-03-04 | 2016-09-08 | The Johns Hopkins University | Robot control, training and collaboration in an immersive virtual reality environment |
JP2017047478A (en) * | 2015-08-31 | 2017-03-09 | セイコーエプソン株式会社 | Control device, robot, and robot system |
JP2017534091A (en) * | 2014-08-25 | 2017-11-16 | エックス デベロップメント エルエルシー | Method and system for augmented reality displaying a virtual representation of the action of a robotic device |
JP2018015863A (en) * | 2016-07-29 | 2018-02-01 | 川崎重工業株式会社 | Robot system, teaching data generation system, and teaching data generation method |
JP2019042843A (en) * | 2017-08-31 | 2019-03-22 | 川崎重工業株式会社 | Robot system and method for operating the same |
JP2019063953A (en) * | 2017-10-02 | 2019-04-25 | 株式会社オカムラ | Work system, method for controlling work system and program |
-
2019
- 2019-10-03 JP JP2019183318A patent/JP7386451B2/en active Active
-
2023
- 2023-11-02 JP JP2023188927A patent/JP2023181513A/en active Pending
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1537959A2 (en) * | 2003-11-24 | 2005-06-08 | Abb Research Ltd. | A method and a system for programming an industrial robot |
JP2014180707A (en) * | 2013-03-18 | 2014-09-29 | Yaskawa Electric Corp | Robot device and method for manufacturing workpiece |
JP2017534091A (en) * | 2014-08-25 | 2017-11-16 | エックス デベロップメント エルエルシー | Method and system for augmented reality displaying a virtual representation of the action of a robotic device |
US20160257000A1 (en) * | 2015-03-04 | 2016-09-08 | The Johns Hopkins University | Robot control, training and collaboration in an immersive virtual reality environment |
JP2017047478A (en) * | 2015-08-31 | 2017-03-09 | セイコーエプソン株式会社 | Control device, robot, and robot system |
JP2018015863A (en) * | 2016-07-29 | 2018-02-01 | 川崎重工業株式会社 | Robot system, teaching data generation system, and teaching data generation method |
JP2019042843A (en) * | 2017-08-31 | 2019-03-22 | 川崎重工業株式会社 | Robot system and method for operating the same |
JP2019063953A (en) * | 2017-10-02 | 2019-04-25 | 株式会社オカムラ | Work system, method for controlling work system and program |
Also Published As
Publication number | Publication date |
---|---|
JP7386451B2 (en) | 2023-11-27 |
JP2023181513A (en) | 2023-12-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10179407B2 (en) | Dynamic multi-sensor and multi-robot interface system | |
JP6816364B2 (en) | Controls, robots, and robot systems | |
Du et al. | Markerless kinect-based hand tracking for robot teleoperation | |
US20180307321A1 (en) | Build Status of a Buildable Product | |
Kim et al. | Touch and hand gesture-based interactions for directly manipulating 3D virtual objects in mobile augmented reality | |
JP6361213B2 (en) | Robot control apparatus, robot, robot system, teaching method, and program | |
US7353082B2 (en) | Method and a system for programming an industrial robot | |
US20140240225A1 (en) | Method for touchless control of a device | |
JP2020055075A (en) | Robot control device using augmented reality and composite reality and display device | |
US20070216642A1 (en) | System For 3D Rendering Applications Using Hands | |
US11284042B2 (en) | Mobile robot, system and method for capturing and transmitting image data to remote terminal | |
Fang et al. | Head-mounted display augmented reality in manufacturing: A systematic review | |
WO2017145423A1 (en) | Information processing system, information processing device, control method, and program | |
CN113183133B (en) | Gesture interaction method, system, device and medium for multi-degree-of-freedom robot | |
WO2017145787A1 (en) | Remote operation device, remote operation method, remote operation system, and program | |
JP6902369B2 (en) | Presentation device, presentation method and program, and work system | |
KR20190100133A (en) | Apparatus and method for providing augmented reality contents | |
JP2018144228A (en) | Robot control apparatus, robot, robot system, teaching method, and program | |
JP5342806B2 (en) | Display method and display device | |
JP7386451B2 (en) | Teaching system, teaching method and teaching program | |
US12019438B2 (en) | Teleoperation with a wearable sensor system | |
JP2006123153A (en) | Development support device and development support program for communication robot | |
CN109144235A (en) | Man-machine interaction method and system based on head hand co-operating | |
JPH11345073A (en) | Portable information terminal operation system | |
KR102612430B1 (en) | System for deep learning-based user hand gesture recognition using transfer learning and providing virtual reality contents |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220727 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230612 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230725 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230919 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231003 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231102 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7386451 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |