JP2022040894A - Lesson course system and lesson course method - Google Patents
Lesson course system and lesson course method Download PDFInfo
- Publication number
- JP2022040894A JP2022040894A JP2020145824A JP2020145824A JP2022040894A JP 2022040894 A JP2022040894 A JP 2022040894A JP 2020145824 A JP2020145824 A JP 2020145824A JP 2020145824 A JP2020145824 A JP 2020145824A JP 2022040894 A JP2022040894 A JP 2022040894A
- Authority
- JP
- Japan
- Prior art keywords
- instructor
- student
- avatar
- motion information
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 13
- 230000033001 locomotion Effects 0.000 claims abstract description 145
- 238000001514 detection method Methods 0.000 claims description 56
- 238000012549 training Methods 0.000 claims description 30
- 238000004891 communication Methods 0.000 description 37
- 238000010586 diagram Methods 0.000 description 15
- 238000012545 processing Methods 0.000 description 11
- 230000001133 acceleration Effects 0.000 description 10
- 210000003127 knee Anatomy 0.000 description 6
- 210000001624 hip Anatomy 0.000 description 5
- 210000003128 head Anatomy 0.000 description 4
- 239000007787 solid Substances 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
Images
Abstract
Description
本発明は、レッスン講習システム及びレッスン講習方法に関する。 The present invention relates to a lesson training system and a lesson training method.
自分のダンス映像と離れた場所にいる他人のダンス映像とを1つの表示部に投影することで、自分と他人とが一緒にダンスしているように体験できるダンス装置が知られている(例えば、特許文献1参照)。 There is known a dance device that allows you to experience as if you and another person are dancing together by projecting your own dance image and the dance image of another person at a remote location onto a single display unit (for example). , Patent Document 1).
特許文献1に記載の技術では、各自が互いの動作を見ることができるため、例えば他の受講者の目を気にすることなくダンス等のレッスンを受講したい場合には不向きである。 The technique described in Patent Document 1 is not suitable for taking lessons such as dance without worrying about the eyes of other students, for example, because each person can see each other's movements.
本発明は、上記に鑑みてなされたものであり、受講者が他の受講者の目を気にすることなく、体の動かし方を習得するためのレッスンを受講することが可能なレッスン講習システム及びレッスン講習方法を提供することを目的とする。 The present invention has been made in view of the above, and is a lesson training system that allows a student to take a lesson for learning how to move the body without worrying about the eyes of other students. And the purpose is to provide lesson training methods.
本発明に係るレッスン講習システムは、講師の体の動きをトラッキングし、トラッキング結果に基づいて講師モーション情報を生成し、前記講師を示す講師アバターが前記講師モーション情報に基づいて動く講師アバター映像を生成し、生成した前記講師アバター映像を送信する講師側システムと、受講者の体の動きをトラッキングし、トラッキング結果に基づいて受講者モーション情報を生成し、前記受講者を示す受講者アバターが前記受講者モーション情報に基づいて動く受講者アバター映像を生成するとともに、前記講師側システムから送信された前記講師アバター映像を受信し、生成した前記受講者アバター映像と、受信した前記講師アバター映像とを対応させて表示する受講者側システムとを備える。 The lesson training system according to the present invention tracks the movement of the instructor's body, generates instructor motion information based on the tracking result, and generates an instructor avatar image in which the instructor avatar indicating the instructor moves based on the instructor motion information. Then, the instructor side system that sends the generated instructor avatar image, the instructor's body movement is tracked, the instructor motion information is generated based on the tracking result, and the instructor avatar indicating the instructor is the instructor. Along with generating a student avatar image that moves based on the person motion information, the instructor avatar image transmitted from the instructor side system is received, and the generated student avatar image corresponds to the received instructor avatar image. It is equipped with a student-side system that allows and displays.
本発明に係るレッスン講習方法は、講師の体の動きをトラッキングし、トラッキング結果に基づいて講師モーション情報を生成し、前記講師を示す講師アバターが前記講師モーション情報に基づいて動く講師アバター映像を生成し、生成した前記講師アバター映像を送信し、受講者の体の動きをトラッキングし、トラッキング結果に基づいて受講者モーション情報を生成し、前記受講者を示す受講者アバターが前記受講者モーション情報に基づいて動く受講者アバター映像を生成するとともに、前記送信された前記講師アバター映像を受信し、生成した前記受講者アバター映像と、受信した前記講師アバター映像とを対応させて表示する。 The lesson training method according to the present invention tracks the movement of the instructor's body, generates instructor motion information based on the tracking result, and generates an instructor avatar image in which the instructor avatar indicating the instructor moves based on the instructor motion information. Then, the generated instructor avatar image is transmitted, the movement of the student's body is tracked, the student motion information is generated based on the tracking result, and the student avatar indicating the student is used as the student motion information. Along with generating a student avatar image that moves based on the above, the transmitted instructor avatar image is received, and the generated student avatar image and the received instructor avatar image are displayed in association with each other.
本発明によれば、受講者が他の受講者の目を気にすることなく、体の動かし方を習得するためのレッスンを受講することができる。 According to the present invention, a student can take a lesson for learning how to move the body without worrying about the eyes of other students.
以下、本発明に係るレッスン講習システム及びレッスン講習方法の実施形態を図面に基づいて説明する。なお、この実施形態によりこの発明が限定されるものではない。また、下記実施形態における構成要素には、当業者が置換可能かつ容易なもの、あるいは実質的に同一のものが含まれる。 Hereinafter, embodiments of the lesson training system and the lesson training method according to the present invention will be described with reference to the drawings. The present invention is not limited to this embodiment. In addition, the components in the following embodiments include those that can be easily replaced by those skilled in the art, or those that are substantially the same.
図1は、本実施形態に係るレッスン講習システム100の一例を示す機能ブロック図である。図1に示すように、レッスン講習システム100は、講師側システム10と、受講者側システム40と、サーバ30とを備える。レッスン講習システム100は、例えばダンス、ヨガ、体操等のように、体の動かし方を習得するレッスンを受講するためのシステムである。レッスン講習システム100は、例えば受講者側システム40が複数設けられる構成とすることで、複数の受講者に対して講習を行うことが可能である。
FIG. 1 is a functional block diagram showing an example of the
講師側システム10は、トラッキング装置11と、制御装置12と、表示装置13と、音声出力装置14とを有する。
The instructor-
トラッキング装置11は、講師の体の動きを検出する。トラッキング装置11は、検出部11a及び振動発生部11b(図2参照)を有する。検出部11aは、講師の体の各部に装着され、各部の位置、速度、加速度を検出する。本実施形態において、検出部11aは、例えば頭、肩、胸、肘、手、腰、膝、足等に装着される。検出部11aの装着箇所は上記に限定されず、他の箇所に装着される態様であってもよい。検出部11aは、検出結果を制御装置12に送信する。なお、検出部11aは、講師の体の各部の位置、速度、加速度を検出可能であれば、例えばカメラ等の他の構成であってもよい。振動発生部11bは、検出部11aと一体で設けられ、制御装置12の制御により振動する。
The
制御装置12は、講師側システム10の各部を制御する。制御装置12は、CPU(Central Processing Unit)等の処理装置と、RAM(Random Access Memory)又はROM(Read Only Memory)等の記憶装置を有する。制御装置12は、モーション生成部16と、アバター生成部17と、VR映像生成部18と、表示制御部19と、通信部20と、記憶部21とを有する。
The
モーション生成部16は、検出部11aの検出結果を取得する。モーション生成部16は、検出結果として取得した講師の体の各部の位置、速度、加速度の各情報に基づいて、講師の体の各部の動きを示す講師モーション情報を生成する。
The
アバター生成部17は、講師モーション情報に基づいて講師アバターが動く講師アバター映像を生成する。講師アバターは、予め記憶部21等に記憶される。講師アバターは、例えば仮想空間において3次元的に表示される態様とすることができる。
The
VR映像生成部18は、後述する通信部20がサーバ30から受信するVR(Virtual Reality:仮想現実)空間の情報を取得する。当該VR空間は、例えばダンス等のレッスンルームを示す三次元的な映像である。VR映像生成部18は、取得したVR空間の情報に基づいて、当該VR空間内に講師アバター映像又は後述する受講者アバター映像を組み合わせたVR映像を生成する。
The VR
表示制御部19は、表示装置13における表示動作を制御する。表示制御部19は、例えばVR映像生成部18で生成されたVR映像を表示装置13に表示させる。
The
通信部20は、サーバ30との間で情報の送受信を行う。通信部20は、サーバ30から、例えばVR空間の映像の情報、後述の受講者アバター映像の情報及び受講者モーション情報等の各情報を受信する。また、通信部20は、例えば制御装置12で生成された講師アバター映像の情報、講師モーション情報等の各情報をサーバ30に送信する。
The
記憶部21は、各種の情報を記憶する。記憶部21は、例えばハードディスクドライブ、ソリッドステートドライブ等のストレージを有している。なお、記憶部21として、リムーバブルディスク等の外部記憶媒体が用いられてもよい。記憶部21は、予め設定された講師アバターを記憶する。記憶部21は、制御装置12の各部が処理を行うためのプログラム、データ等の情報を記憶する。記憶部21は、サーバ30から受信したVR空間の映像情報を記憶する。
The
表示装置13は、表示制御部19の制御により、映像等の各種情報を表示する。表示装置13は、例えばVR映像生成部18で生成されたVR映像を表示可能である。表示装置13としては、例えばヘッドマウントディスプレイ等が挙げられるが、これに限定されず、フラットパネルディスプレイ等であってもよい。
The
音声出力装置14は、制御装置12の制御に基づいて、音声を出力する。音声出力装置14としては、例えばスピーカ等が用いられる。
The
受講者側システム40は、トラッキング装置41と、制御装置42と、表示装置43と、音声出力装置44とを有する。
The student-
トラッキング装置41は、受講者の体の動きを検出する。トラッキング装置41は、検出部41a及び振動発生部41b(図4参照)を有する。検出部41aは、受講者の体の各部に装着され、各部の位置、速度、加速度を検出する。本実施形態において、検出部41aは、例えば検出部11aと同様の箇所、つまり、頭、肩、胸、肘、手、腰、膝、足等に装着される。検出部41aの装着箇所は上記に限定されず、他の箇所に装着される態様であってもよい。検出部41aは、検出結果を制御装置42に送信する。なお、検出部41aは、受講者の体の各部の位置、速度、加速度を検出可能であれば、例えばカメラ等の他の構成であってもよい。振動発生部41bは、検出部41aと一体で設けられ、制御装置42の制御により振動する。
The
制御装置42は、受講者側システム40の各部を制御する。制御装置42は、CPU等の処理装置と、RAM又はROM等の記憶装置を有する。制御装置42は、モーション生成部46と、アバター生成部47と、半透過アバター生成部48と、VR映像生成部49と、表示制御部50と、ズレ情報出力部51と、通信部52と、記憶部53とを有する。
The
モーション生成部46は、検出部41aの検出結果を取得する。モーション生成部46は、検出結果として取得した受講者の体の各部の位置、速度、加速度の各情報に基づいて、受講者の体の各部の動きを示す受講者モーション情報を生成する。
The
アバター生成部47は、受講者モーション情報に基づいて受講者アバターが動く受講者アバター映像を生成する。アバター生成部47は、生成した受講者アバター映像を記憶部53に記憶する。なお、受講者アバターは、予め記憶部53等に記憶される。受講者アバターは、例えば仮想空間において3次元的に表示される態様とすることができる。
The
半透過アバター生成部48は、生成された受講者アバター映像について透明度を高めた状態とした半透過アバター映像を生成する。半透過アバター生成部48は、受講者アバター映像とは別個に半透過アバター映像を記憶部53に記憶する。
The semi-transparent
VR映像生成部49は、後述する通信部52で受信されるVR空間の情報を取得する。VR映像生成部49は、取得したVR空間の情報に基づいて、当該VR空間内に講師アバター映像と、受講者アバター映像又は半透過アバター映像とを組み合わせたVR映像を生成する。なお、講師アバター映像については、後述する通信部52によって受信する。VR映像生成部49は、講師アバター映像と受講者アバター映像とを組み合わせる場合、講師アバター映像に半透過アバター映像が重畳した状態で表示されるようにVR映像を生成することができる。VR映像生成部49は、例えば半透過アバターと講師アバターとをそれぞれの腰部を基準として重畳させることができる。また、VR映像生成部49は、講師アバター映像と半透過アバター映像とを組み合わせる場合、VR空間内に講師アバター映像と受講者アバター映像とが並んだ状態で表示されるようにVR映像を生成することができる。また、VR映像生成部49は、他の受講者側システム40で生成される受講者アバター映像についてはVR映像に組み合わせないようにする。これにより、他の受講者Sの受講者アバター映像が表示装置43に表示されることが回避される。なお、他の受講者側システム40で生成される受講者アバター映像については、例えばサーバ30から受信できないようにしてもよい。
The VR
表示制御部50は、表示装置43における表示動作を制御する。表示制御部50は、例えばVR映像生成部49で生成されたVR映像を表示装置43に表示させる。
The
ズレ情報出力部51は、講師の動きと受講者の動きとの間のズレを検出し、検出結果を出力する。ズレ情報出力部51は、通信部52で受信する講師モーション情報を取得する。ズレ情報出力部51は、取得した講師モーション情報と、上記のモーション生成部46で生成された受講者モーション情報とに基づいて、講師Tの動きと受講者Sの動きとのズレを算出する。ズレ情報出力部51は、例えば、検出部41aにおいて検出された箇所ごとにズレを算出することができる。この場合、ズレ情報出力部51は、講師Tに装着される各センサ11a間の距離と受講者Sに装着される各センサ41a間の距離とに基づいて、講師Tと受講者Sとの身長の比率を求める。そして、ズレ情報検出部51は、求めた結果を用いて、講師モーション情報に含まれる各値と受講者モーション情報に含まれる各値との縮尺を一致させる。ズレ情報出力部51は、縮尺が一致した状態で、講師Tの動きと受講者Sの動きとのズレを算出する。ズレ情報出力部51は、ズレの大きさが所定値よりも大きい場合、該当箇所の検出部41aと一体で設けられる振動発生部41bを振動させるように制御することができる。これにより、体のどの部位の動きを修正すればよいかを受講者に容易に知らせることができる。また、ズレ情報出力部51は、ズレの大きさが所定値よりも小さい場合であっても、ズレが生じているすべての該当箇所、またはズレが生じている該当箇所のうちズレが大きい順に所定数の該当箇所の検出部41aと一体で設けられる振動発生部41bを振動させるように制御してもよい。また、ズレ情報出力部51は、表示制御部50を介して、ズレの有無を表示装置43に表示させてもよいし、後述する音声出力装置44により音声として出力してもよい。
The deviation
通信部52は、サーバ30との間で情報の送受信を行う。通信部52は、サーバ30から、例えばVR空間の映像の情報、講師アバター映像の情報、講師モーション情報等の各情報を受信する。また、通信部52は、例えば制御装置42で生成された受講者アバター映像の情報、半透過アバター映像の情報、受講者モーション情報等の各情報をサーバ30に送信する。
The
記憶部53は、各種情報を記憶する。記憶部53は、例えばハードディスクドライブ、ソリッドステートドライブ等のストレージを有している。なお、記憶部53として、リムーバブルディスク等の外部記憶媒体が用いられてもよい。記憶部53は、予め設定された受講者アバターを記憶する。記憶部53は、制御装置42の各部が処理を行うためのプログラム、データ等の情報を記憶する。記憶部53は、サーバ30から受信したVR空間の映像情報を記憶する。
The
表示装置43は、表示制御部50の制御により、映像等の各種情報を表示する。表示装置43は、例えばVR空間映像を表示可能である。表示装置43としては、例えばヘッドマウントディスプレイ等が挙げられるが、これに限定されず、フラットパネルディスプレイ等であってもよい。
The
音声出力装置44は、制御装置42の制御に基づいて、音声を出力する。音声出力装置44としては、例えばスピーカ等が用いられる。
The
サーバ30は、通信部31と、処理部32と、記憶部33とを有する。通信部31は、講師側システム10の通信部20、及び後述する受講者側システム40の通信部52との間で情報の送受信を行う。処理部32は、各レッスン講習を管理する。不図示の入力部等により必要な情報が入力された場合、処理部32は、例えばレッスン講習ごとのVR空間の設定、VR空間に配置する講師用アバター映像及び受講者アバター映像の位置の設定、受講可能な最大受講者数等の設定等を行うことができる。
The
処理部32は、通信部31における情報の送受信を制御する。処理部32の制御により、通信部31を介してVR空間に関する情報、講師モーション情報、講師アバター映像の情報、受講者モーション情報及び受講者アバター映像の情報等の各種情報が送受信される。記憶部33は、各種の情報を記憶する。
The
記憶部33は、通信部31により送受信される各種情報を記憶する。なお、レッスン講習システム100は、記憶部33が例えばレッスン講習における講師Tの講師用アバターと、受講者Sの受講者用アバターとを記憶し、処理部32が講師用アバター映像、受講者用アバター映像、半透過アバター映像及びそれぞれのVR映像を生成してもよい。この場合、講師側システム10のアバター生成部17及びVR映像生成部18と、受講者側システム40のアバター生成部47、半透過アバター生成部48及びVR映像生成部49が設けられなくてもよい。これにより、講師側システム10及び受講者側システム40とサーバ30との間の通信量を抑制できる。
The
次に、上記のレッスン講習システム100を用いたレッスン講習方法を説明する。図2から図8は、レッスン講習方法の一例を示す図である。図2は、講師Tが動作する場合の一態様を示す図である。図2に示すように、講師Tは、体の各部に検出部11a及び振動発生部11bを装着した状態で、見本となる動作を行う。各検出部11aは、講師Tの動作に応じて体の各部の位置、速度、加速度を検出し、検出結果を制御装置12に送信する。制御装置12において、モーション生成部16は、検出部11aの検出結果を取得し、取得した検出結果に基づいて、講師の体の各部の動きを示す講師モーション情報を生成する。モーション生成部16は、生成した講師モーション情報を記憶部21に記憶する。通信部20は、生成された講師モーション情報をサーバ30に送信する。
Next, a lesson training method using the above
講師モーション情報が生成された後、アバター生成部17は、当該講師モーション情報に基づいて講師アバター映像を生成する。図3は、講師アバター映像の一例を示す図である。図3に示すように、アバター生成部17は、講師アバターATが講師の動作に対応した動作を行う講師アバター映像を生成する。アバター生成部17は、生成した講師アバター映像の情報を記憶部21に記憶する。通信部20は、生成された講師アバター映像の情報をサーバ30に送信する。
After the instructor motion information is generated, the
サーバ30は、通信部31により講師側システム10から送信された講師モーション情報及び講師アバター映像の情報を受信する。サーバ30は、受信した各情報を記憶部33に記憶する。
The
受講者側システム40では、受講者Sの所定の操作により通信部52がサーバ30にアクセスし、VR空間の映像の情報、講師モーション情報、講師アバター映像の情報を受信する。VR映像生成部49は、受信したVR空間の映像の情報及び講師アバター映像の情報に基づいてVR映像を生成する。表示制御部50は、生成したVR映像を表示装置43に表示させる。
In the
図4に示すように、異なる場所で異なる受講者側システム40を使用する受講者S1、S2は、それぞれ表示装置43に表示されるVR映像を見ながら、体の各部に検出部41a及び振動発生部41bを装着した状態で、講師アバターATの動きに沿って動作を行うことができる。各検出部41aは、受講者S1の動作に応じて体の各部の位置、速度、加速度を検出し、検出結果を制御装置42に送信する。制御装置42において、モーション生成部46は、検出部41aの検出結果を取得し、取得した検出結果に基づいて、受講者S1、S2の体の各部の動きを示す受講者モーション情報を生成する。モーション生成部46は、生成した受講者モーション情報を記憶部53に記憶する。通信部52は、生成された受講者モーション情報をサーバ30に送信する。
As shown in FIG. 4, the students S1 and S2 who use different student-
受講者モーション情報が生成された後、アバター生成部47は、当該受講者モーション情報に基づいて受講者アバター映像を生成する。図5は、受講者アバター映像の一例を示す図である。図5に示すように、アバター生成部47は、受講者アバターAS1、AS2が講師T(講師アバターAT)の動作に対応した動作を行う受講者アバター映像を生成する。また、半透過アバター生成部48は、生成された受講者アバター映像に基づいて、半透過アバター映像を生成する。アバター生成部47は、生成した受講者アバター映像及び半透過アバター映像の情報を記憶部53に記憶する。通信部52は、生成された受講者アバター映像及び半透過アバター映像の情報をサーバ30に送信する。
After the student motion information is generated, the
サーバ30は、通信部31により受講者側システム40から送信された受講者モーション情報、受講者アバター映像及び半透過アバター映像の情報を受信する。サーバ30は、受信した各情報を記憶部33に記憶する。
The
図6は、講師側システム10の表示装置13に表示されるVR映像の一例を示す図である。講師側システム10において、制御装置12は、サーバ30の記憶部33に記憶された受講者モーション情報、受講者アバター映像及び半透過アバター映像の情報を、通信部20を介して受信する。VR映像生成部18は、受信した各情報に基づいてVR映像を生成する。表示制御部19は、生成したVR映像を表示装置13に表示する。図6に示すように、受講者Sが複数の場合、表示制御部19は、複数の受講者アバターASについての受講者アバター映像を表示装置13に表示することができる。例えば、上記の受講者S1、S2の受講者アバターAS1、AS2をVR空間Vaに並べた状態で表示装置13に表示することができる。これにより、講師T側からは複数の受講者S(AS1、AS2)の動作をまとめて確認できる。
FIG. 6 is a diagram showing an example of a VR image displayed on the
図7及び図8は、受講者側システム40の表示装置43に表示されるVR映像の一例を示す図である。受講者側システム40において、VR映像生成部18は、サーバ30から受信した講師アバター映像と、生成した受講者アバター映像とがVR空間内で対応して配置されるようにVR映像を生成することができる。
7 and 8 are diagrams showing an example of a VR image displayed on the
VR映像生成部49は、例えば図7に示すように、講師アバターATと半透過アバターAHとがVR空間Vb内で重畳した状態のVR映像を生成することができる。表示制御部19は、生成されたVR映像を表示装置13に表示する。受講者Sは、表示装置43に重畳した状態で表示される講師アバターATと半透過アバターAHとを見比べることにより、受講者Sの動作と講師Tの動作との差異をより容易に把握できる。この場合、VR映像生成部18は、例えば講師アバターATの腰部の位置と半透過アバターAHの腰部の位置とを対応させることで、上半身のズレ及び下半身のズレを受講者Sにより明確に把握させることができる。
As shown in FIG. 7, for example, the VR
また、VR映像生成部49は、例えば図8に示すように、講師アバターATと受講者アバターAS1とがVR空間Vb内に並んだ状態のVR映像を生成することができる。表示制御部19は、生成されたVR映像を表示装置13に表示する。受講者Sは、表示装置43に並んだ状態で表示される講師アバターATと受講者アバターAS1とを見比べることにより、受講者Sの動作と講師Tの動作との差異を容易に把握できる。
Further, the VR
ズレ情報出力部51は、通信部52で受信した講師モーション情報を取得し、取得した講師モーション情報と、モーション生成部46で生成された受講者モーション情報とに基づいて、講師の動きと受講者の動きとのズレを算出する。ズレ情報出力部51は、ズレ情報出力部51は、ズレの大きさが所定値を超えた場合、該当箇所の検出部41aと一体で設けられる振動発生部41bを振動させるように制御することができる。
The deviation
例えば、ズレ情報出力部51は、ズレの算出の結果、講師アバターATに対して、受講者アバターAS1の右肩、左肩、右肘、左肘、左足の位置については所定値よりもズレが小さいが、頭、右腕、左腕、右膝、右足、左膝の各部の位置については所定値よりもズレが大きいと判定したとする。この場合、ズレ情報出力部51は、受講者Sの体に装着された検出部41aのうち、ズレが大きいと判定した頭、右腕、左腕、右膝、右足、左膝に装着された検出部41aと一体の振動発生部41bを振動させる。受講者Sは、振動発生部41bの振動により、講師Tの体の動きに対してズレが大きい部位を容易かつ素早く把握することが可能となり、動作修正につなげることができる。なお、ズレ情報出力部51は、ズレが大きい順に所定数の部位のみについて、振動発生部41bを振動させてもよい。この場合、受講者Sは、講師Tの体の動きに対して優先して修正すべき部位を、より容易に把握することができる。
For example, as a result of the deviation calculation, the deviation
図9は、本実施形態に係るレッスン講習方法の一例を示すフローチャートである。図9は、講師側システム10の動作である講師側ステップと受講者側システム40の動作である受講者側ステップとを対応させて示している。図9に示すように、講師側システム10において、トラッキング装置11は、講師Tの体の各部に装着された検出部11a及び振動発生部11bにより、講師Tの動作に応じて体の各部の位置、速度、加速度を検出し、検出結果を制御装置12に送信する(ステップS110)。また、受講者側システムにおいて、トラッキング装置41は、受講者Sの体の各部に装着された検出部41a及び振動発生部41bにより、受講者Sの動作に応じて体の各部の位置、速度、加速度を検出し、検出結果を制御装置42に送信する(ステップS210)。
FIG. 9 is a flowchart showing an example of the lesson training method according to the present embodiment. FIG. 9 shows the instructor-side step, which is the operation of the instructor-
講師側システム10において、モーション生成部16は、検出部11aの検出結果を取得し、取得した検出結果に基づいて、講師モーション情報を生成する(ステップS120)。また、受講者側システム40において、モーション生成部46は、検出部41aの検出結果を取得し、取得した検出結果に基づいて、受講者モーション情報を生成する(ステップS220)。
In the
講師側システム10において、アバター生成部17は、当該講師モーション情報に基づいて講師アバター映像を生成する(ステップS130)。また、受講者側システム40において、アバター生成部47は、当該受講者モーション情報に基づいて受講者アバター映像を生成する(ステップS230)。
In the
講師側システム10において、通信部20は、サーバ30との間で情報を送受信する(ステップS140)。ステップS140において、通信部20は、生成された講師モーション情報、講師アバター映像をサーバ30に送信する。また、ステップS140において、通信部20は、後述する受講者モーション情報、受講者アバター映像をサーバ30から受信する。また、受講者側システム40において、通信部52は、生成した各情報をサーバ30に送信する(ステップS240)。ステップS240において、通信部52は、生成された受講者モーション情報、受講者アバター映像をサーバ30に送信する。また、ステップS240において、通信部52は、上記の講師モーション情報、講師アバター映像をサーバ30から受信する。
In the
講師側システム10において、VR映像生成部18は、受信した各情報に基づいてVR映像を生成する。表示制御部19は、生成したVR映像を表示装置13に表示する(ステップS150)。講師Tは、表示装置13を見ることにより、受講者Sの動きが適正か否かを容易に把握することができる。また、受講者側システム40において、VR映像生成部49は、受信した各情報に基づいてVR映像を生成する。表示制御部50は、生成したVR映像を表示装置43に表示する(ステップS250)。受講者Sは、表示装置43を見ることにより、見本となる講師Tの動きを容易に把握することができる。
In the
また、受講者側システムにおいて、ズレ情報出力部51は、通信部52で受信した講師モーション情報を取得し、取得した講師モーション情報と、モーション生成部46で生成された受講者モーション情報とに基づいて、講師の動きと受講者の動きとのズレを算出する(ステップS260)。ズレ情報出力部51は、ズレ情報出力部51は、ズレの大きさが所定値より大きいか否かを判定する(ステップS270)。ズレ情報出力部51は、ズレの大きさが所定値よりも大きいと判定した場合(ステップS270のYes)、該当箇所の検出部41aと一体で設けられる振動発生部41bを振動させるように制御する(ステップS280)。ズレ情報出力部51は、ズレの大きさが所定値よりも大きくないと判定した場合(ステップS270のNo)、ステップS280をスキップする。
Further, in the student side system, the deviation
講師側システム10において、制御装置12は、VR映像を表示した後、全動作が完了したか否かを判定する(ステップS160)。制御装置12は、全動作が完了していないと判定した場合(ステップS160のNo)、ステップS110以降の動作を繰り返し行わせる。また、制御装置12は、全動作が完了したと判定した場合(ステップS160のYes)、動作を終了する。また、受講者側システム40において、制御装置42は、VR映像を表示した後又は振動を発生させた後、全動作が完了したか否かを判定する(ステップS260)。制御装置42は、全動作が完了していないと判定した場合(ステップS260のNo)、ステップS210以降の動作を繰り返し行わせる。また、制御装置42は、全動作が完了したと判定した場合(ステップS260のYes)、動作を終了する。
In the
以上のように、本実施形態に係るレッスン講習システム100は、講師Tの体の動きをトラッキングし、トラッキング結果に基づいて講師モーション情報を生成し、講師Tを示す講師アバターが講師モーション情報に基づいて動く講師アバター映像を生成し、生成した講師アバター映像を送信する講師側システム10と、受講者Sの体の動きをトラッキングし、トラッキング結果に基づいて受講者モーション情報を生成し、受講者Sを示す受講者アバターが受講者モーション情報に基づいて動く受講者アバター映像を生成するとともに、講師側システム10から送信された講師アバター映像を受信し、生成した受講者アバター映像と、受信した講師アバター映像とを対応させて表示する受講者側システム40とを備える。
As described above, the
また、本実施形態に係るレッスン講習方法は、講師Tの体の動きをトラッキングし、トラッキング結果に基づいて講師モーション情報を生成し、講師Tを示す講師アバターが講師モーション情報に基づいて動く講師アバター映像を生成し、受講者Sの体の動きをトラッキングし、トラッキング結果に基づいて受講者モーション情報を生成し、受講者Sを示す受講者アバターが受講者モーション情報に基づいて動く受講者アバター映像を生成し、生成した受講者アバター映像と、講師側ステップで生成された講師アバター映像とを対応させて表示する。 Further, in the lesson class method according to the present embodiment, the movement of the body of the instructor T is tracked, the instructor motion information is generated based on the tracking result, and the instructor avatar indicating the instructor T moves based on the instructor motion information. A student avatar image that generates a video, tracks the body movement of the student S, generates a student motion information based on the tracking result, and the student avatar indicating the student S moves based on the student motion information. Is generated, and the generated student avatar image and the instructor avatar image generated in the instructor side step are displayed in association with each other.
この構成によれば、講師側システム10から送信された講師アバター映像と、受講者側システム40で生成した受講者アバター映像とが受講者システム40の表示装置43に表示され、他の受講者Sについての映像が表示されないため、受講者Sが他の受講者Sの目を気にすることなくレッスン講習を受けることができる。また、講師アバター映像と受講者アバター映像とが対応して表示されるため、受講者Sは、見本となる講師Tの動作を受講者自身の動作と容易に対応させて把握することができる。これにより、適切な動作を受講者Sに直感的に理解させることができる。
According to this configuration, the instructor avatar image transmitted from the
本実施形態に係るレッスン講習システム100において、受講者側システム40は、講師アバター映像に受講者アバター映像を重畳させて表示する。これにより、受講者Sが講師Tの動作と受講者S自身の動作との一致部分又は不一致部分をより確実に把握することができる。
In the
本実施形態に係るレッスン講習システム100において、講師側システム10は、講師モーション情報を送信し、受講者側システム40は、講師側システム10から送信された講師モーション情報を受信し、受信した講師モーション情報と、生成した受講者モーション情報とに基づいて、講師Tの動きと受講者Sの動きとのズレを検出し、検出結果を出力する。これにより、講師Tの動きと受講者Sの動きとのズレを受講者Sにより確実に把握させることができる。
In the
本実施形態に係るレッスン講習システム100は、受講者側システム40は、検出されたズレのうち、ズレの大きさが所定値を超えた部位またはズレが大きい順に所定数の部位を振動させる。これにより、受講者Sは、講師Tの体の動きに対して優先して修正すべき部位を、より容易に把握することができる。
In the
本発明の技術範囲は上記実施形態に限定されるものではなく、本発明の趣旨を逸脱しない範囲で適宜変更を加えることができる。例えば、上記実施形態に係るレッスン講習システム100は、サーバ30が講師側システム10と受講者側システム40に対して別個に設けられた構成を例に挙げて説明したが、これに限定されない。例えば、サーバ30が設けられず、サーバ30の機能が講師側システム10及び受講者側システム40の少なくとも一方に搭載された構成であってもよい。
The technical scope of the present invention is not limited to the above-described embodiment, and changes can be made as appropriate without departing from the spirit of the present invention. For example, the
また、上記実施形態では、講師アバター及び受講者アバターが仮想空間に3次元的に表示させる態様を例に挙げて説明したが、これに限定されない。講師アバター及び受講者アバターは、例えば所定の方向から見た状態が仮想平面上に2次元的に表示される態様であってもよい。 Further, in the above embodiment, the mode in which the instructor avatar and the student avatar are displayed three-dimensionally in the virtual space has been described as an example, but the present invention is not limited to this. The instructor avatar and the student avatar may be, for example, a mode in which a state viewed from a predetermined direction is displayed two-dimensionally on a virtual plane.
AH…半透過アバター、S,S1,S2…受講者、T…講師、AS,AS1,AS2…受講者アバター、Va,Vb…VR空間、F…VR空間の底面、10…講師側システム、11,41…トラッキング装置、11a,41a…検出部、11b,41b…振動発生部、12,42…制御装置、13,43…表示装置、14,44…音声出力装置、16,46…モーション生成部、17,47…アバター生成部、18,49…VR映像生成部、19,50…表示制御部、20,31,52…通信部、21,33,53…記憶部、30…サーバ、32…VR情報処理部、40…受講者側システム、48…半透過アバター生成部、51…ズレ情報出力部、100…レッスン講習システム AH ... Semi-transparent avatar, S, S1, S2 ... Student, T ... Instructor, AS, AS1, AS2 ... Student avatar, Va, Vb ... VR space, F ... Bottom of VR space, 10 ... Instructor side system, 11 , 41 ... Tracking device, 11a, 41a ... Detection unit, 11b, 41b ... Vibration generation unit, 12,42 ... Control device, 13,43 ... Display device, 14,44 ... Audio output device, 16,46 ... Motion generation unit , 17,47 ... Avatar generation unit, 18,49 ... VR image generation unit, 19,50 ... Display control unit, 20,31,52 ... Communication unit, 21,33,53 ... Storage unit, 30 ... Server, 32 ... VR information processing department, 40 ... student side system, 48 ... semi-transparent avatar generation department, 51 ... deviation information output unit, 100 ... lesson training system
Claims (5)
受講者の体の動きをトラッキングし、トラッキング結果に基づいて受講者モーション情報を生成し、前記受講者を示す受講者アバターが前記受講者モーション情報に基づいて動く受講者アバター映像を生成するとともに、前記講師側システムから送信された前記講師アバター映像を受信し、生成した前記受講者アバター映像と、受信した前記講師アバター映像とを対応させて表示する受講者側システムと
を備えるレッスン講習システム。 The movement of the instructor's body is tracked, the instructor motion information is generated based on the tracking result, the instructor avatar indicating the instructor generates the instructor avatar image that moves based on the instructor motion information, and the generated instructor avatar image is used. The instructor side system to send and
The movement of the student's body is tracked, the student motion information is generated based on the tracking result, and the student avatar indicating the student generates a student avatar image that moves based on the student motion information. A lesson training system including a student side system that receives the teacher avatar video transmitted from the teacher side system and displays the generated student avatar video in correspondence with the received teacher avatar video.
請求項1に記載のレッスン講習システム。 The lesson training system according to claim 1, wherein the student-side system superimposes and displays the student avatar image on the instructor avatar image.
前記受講者側システムは、前記講師側システムから送信された前記講師モーション情報を受信し、受信した前記講師モーション情報と、生成した前記受講者モーション情報とに基づいて、前記講師の動きと前記受講者の動きとのズレを検出し、検出結果を出力する
請求項1又は請求項2に記載のレッスン講習システム。 The instructor-side system transmits the instructor motion information,
The student-side system receives the instructor motion information transmitted from the instructor-side system, and based on the received instructor motion information and the generated student motion information, the instructor's movement and the instructor's attendance. The lesson training system according to claim 1 or 2, wherein the deviation from the movement of the person is detected and the detection result is output.
請求項3に記載のレッスン講習システム。 The lesson training system according to claim 3, wherein the student-side system vibrates a predetermined number of parts of the detected deviations in the order of the deviations exceeding a predetermined value or the deviations in descending order.
受講者の体の動きをトラッキングし、トラッキング結果に基づいて受講者モーション情報を生成し、前記受講者を示す受講者アバターが前記受講者モーション情報に基づいて動く受講者アバター映像を生成するとともに、前記送信された前記講師アバター映像を受信し、生成した前記受講者アバター映像と、受信した前記講師アバター映像とを対応させて表示する
レッスン講習方法。 The movement of the instructor's body is tracked, the instructor motion information is generated based on the tracking result, the instructor avatar indicating the instructor generates the instructor avatar image that moves based on the instructor motion information, and the generated instructor avatar image is used. Send and
The movement of the student's body is tracked, the student motion information is generated based on the tracking result, and the student avatar indicating the student generates a student avatar image in which the student avatar moves based on the student motion information. A lesson class method in which the transmitted instructor avatar image is received, and the generated student avatar image and the received instructor avatar image are displayed in association with each other.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020145824A JP2022040894A (en) | 2020-08-31 | 2020-08-31 | Lesson course system and lesson course method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020145824A JP2022040894A (en) | 2020-08-31 | 2020-08-31 | Lesson course system and lesson course method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022040894A true JP2022040894A (en) | 2022-03-11 |
Family
ID=80499613
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020145824A Pending JP2022040894A (en) | 2020-08-31 | 2020-08-31 | Lesson course system and lesson course method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2022040894A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7410525B1 (en) | 2022-09-30 | 2024-01-10 | グリー株式会社 | Information processing system, control method, and server device |
-
2020
- 2020-08-31 JP JP2020145824A patent/JP2022040894A/en active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7410525B1 (en) | 2022-09-30 | 2024-01-10 | グリー株式会社 | Information processing system, control method, and server device |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11157070B2 (en) | Massive simultaneous remote digital presence world | |
Amemiya et al. | Orienting kinesthetically: A haptic handheld wayfinder for people with visual impairments | |
US20130198625A1 (en) | System For Generating Haptic Feedback and Receiving User Inputs | |
Stanney et al. | Virtual environments | |
CN103678859B (en) | Motion comparison method and motion comparison system | |
JP2006320424A (en) | Action teaching apparatus and method | |
KR101282953B1 (en) | System and Method for coaching the sports motions | |
US20090303179A1 (en) | Kinetic Interface | |
Whitman et al. | Virtual reality: its usefulness for ergonomic analysis | |
US11682157B2 (en) | Motion-based online interactive platform | |
JP2023501079A (en) | Co-located Pose Estimation in a Shared Artificial Reality Environment | |
US20200033940A1 (en) | Information processing apparatus, information processing method, and program | |
JP2022040894A (en) | Lesson course system and lesson course method | |
US20190355281A1 (en) | Learning support system and recording medium | |
CN110705063A (en) | Vibration simulation method, system and storage medium | |
Han et al. | Camera space synthesis of motion effects emphasizing a moving object in 4D films | |
US20220343604A1 (en) | Program, information processing device, and method | |
KR101618004B1 (en) | Interactive content providing apparatus based on the virtual reality and method thereof | |
US11887259B2 (en) | Method, system, and apparatus for full-body tracking with magnetic fields in virtual reality and augmented reality applications | |
US11107364B2 (en) | Method to enhance first-person-view experience | |
JP3190026B1 (en) | Humanoid robot experience presentation device and master-slave control device | |
WO2020073103A1 (en) | Virtual reality system | |
TWM466695U (en) | Interactive integration system of space information system and wearing type intelligent device | |
JP7027753B2 (en) | Information processing equipment and programs | |
JP2021111043A (en) | Climbing support device, computer program, climbing support method, learning model generation method and display system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230428 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20240221 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240227 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240408 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240423 |