JP2022040894A - Lesson course system and lesson course method - Google Patents

Lesson course system and lesson course method Download PDF

Info

Publication number
JP2022040894A
JP2022040894A JP2020145824A JP2020145824A JP2022040894A JP 2022040894 A JP2022040894 A JP 2022040894A JP 2020145824 A JP2020145824 A JP 2020145824A JP 2020145824 A JP2020145824 A JP 2020145824A JP 2022040894 A JP2022040894 A JP 2022040894A
Authority
JP
Japan
Prior art keywords
instructor
student
avatar
motion information
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020145824A
Other languages
Japanese (ja)
Inventor
善弘 新海
Yoshihiro Shinkai
秀章 塩澤
Hideaki Shiozawa
健太朗 児玉
Kentaro Kodama
馨 豊口
Kaoru Toyoguchi
知英 猪俣
Tomohide Inomata
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
JVCKenwood Corp
Original Assignee
JVCKenwood Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by JVCKenwood Corp filed Critical JVCKenwood Corp
Priority to JP2020145824A priority Critical patent/JP2022040894A/en
Publication of JP2022040894A publication Critical patent/JP2022040894A/en
Pending legal-status Critical Current

Links

Images

Abstract

To provide a lesson course system and a lesson course method by which a participant can take a lesson to learn how to move his or her body without caring about other participants.SOLUTION: A lesson course system includes: a lecturer side system for tracking a motion of a lecturer's body, generating lecturer motion information on the basis of a tracking result, generating a lecturer avatar image in which a lecturer avatar representing the lecturer moves on the basis of the lecturer motion information, and transmitting the generated lecturer avatar image; and a participant side system for tracking a motion of a participant's body, generating participant motion information on the basis of a tracking result, generating a participant avatar image in which a participant avatar representing the participant moves on the basis of the participant motion information, receiving the lecturer avatar image transmitted from the lecturer side system, and displaying the generated participant avatar image and the received lecturer avatar image in correspondence with each other.SELECTED DRAWING: Figure 1

Description

本発明は、レッスン講習システム及びレッスン講習方法に関する。 The present invention relates to a lesson training system and a lesson training method.

自分のダンス映像と離れた場所にいる他人のダンス映像とを1つの表示部に投影することで、自分と他人とが一緒にダンスしているように体験できるダンス装置が知られている(例えば、特許文献1参照)。 There is known a dance device that allows you to experience as if you and another person are dancing together by projecting your own dance image and the dance image of another person at a remote location onto a single display unit (for example). , Patent Document 1).

特開2016-174631号公報Japanese Unexamined Patent Publication No. 2016-174631

特許文献1に記載の技術では、各自が互いの動作を見ることができるため、例えば他の受講者の目を気にすることなくダンス等のレッスンを受講したい場合には不向きである。 The technique described in Patent Document 1 is not suitable for taking lessons such as dance without worrying about the eyes of other students, for example, because each person can see each other's movements.

本発明は、上記に鑑みてなされたものであり、受講者が他の受講者の目を気にすることなく、体の動かし方を習得するためのレッスンを受講することが可能なレッスン講習システム及びレッスン講習方法を提供することを目的とする。 The present invention has been made in view of the above, and is a lesson training system that allows a student to take a lesson for learning how to move the body without worrying about the eyes of other students. And the purpose is to provide lesson training methods.

本発明に係るレッスン講習システムは、講師の体の動きをトラッキングし、トラッキング結果に基づいて講師モーション情報を生成し、前記講師を示す講師アバターが前記講師モーション情報に基づいて動く講師アバター映像を生成し、生成した前記講師アバター映像を送信する講師側システムと、受講者の体の動きをトラッキングし、トラッキング結果に基づいて受講者モーション情報を生成し、前記受講者を示す受講者アバターが前記受講者モーション情報に基づいて動く受講者アバター映像を生成するとともに、前記講師側システムから送信された前記講師アバター映像を受信し、生成した前記受講者アバター映像と、受信した前記講師アバター映像とを対応させて表示する受講者側システムとを備える。 The lesson training system according to the present invention tracks the movement of the instructor's body, generates instructor motion information based on the tracking result, and generates an instructor avatar image in which the instructor avatar indicating the instructor moves based on the instructor motion information. Then, the instructor side system that sends the generated instructor avatar image, the instructor's body movement is tracked, the instructor motion information is generated based on the tracking result, and the instructor avatar indicating the instructor is the instructor. Along with generating a student avatar image that moves based on the person motion information, the instructor avatar image transmitted from the instructor side system is received, and the generated student avatar image corresponds to the received instructor avatar image. It is equipped with a student-side system that allows and displays.

本発明に係るレッスン講習方法は、講師の体の動きをトラッキングし、トラッキング結果に基づいて講師モーション情報を生成し、前記講師を示す講師アバターが前記講師モーション情報に基づいて動く講師アバター映像を生成し、生成した前記講師アバター映像を送信し、受講者の体の動きをトラッキングし、トラッキング結果に基づいて受講者モーション情報を生成し、前記受講者を示す受講者アバターが前記受講者モーション情報に基づいて動く受講者アバター映像を生成するとともに、前記送信された前記講師アバター映像を受信し、生成した前記受講者アバター映像と、受信した前記講師アバター映像とを対応させて表示する。 The lesson training method according to the present invention tracks the movement of the instructor's body, generates instructor motion information based on the tracking result, and generates an instructor avatar image in which the instructor avatar indicating the instructor moves based on the instructor motion information. Then, the generated instructor avatar image is transmitted, the movement of the student's body is tracked, the student motion information is generated based on the tracking result, and the student avatar indicating the student is used as the student motion information. Along with generating a student avatar image that moves based on the above, the transmitted instructor avatar image is received, and the generated student avatar image and the received instructor avatar image are displayed in association with each other.

本発明によれば、受講者が他の受講者の目を気にすることなく、体の動かし方を習得するためのレッスンを受講することができる。 According to the present invention, a student can take a lesson for learning how to move the body without worrying about the eyes of other students.

図1は、本実施形態に係るレッスン講習システムの一例を示す機能ブロック図である。FIG. 1 is a functional block diagram showing an example of a lesson training system according to the present embodiment. 図2は、講師が動作する場合の一態様を示す図である。FIG. 2 is a diagram showing one aspect when the instructor operates. 図3は、講師アバター映像の一例を示す図である。FIG. 3 is a diagram showing an example of the instructor avatar video. 図4は、受講者が動作する場合の一態様を示す図である。FIG. 4 is a diagram showing one aspect when the student operates. 図5は、受講者アバター映像の一例を示す図である。FIG. 5 is a diagram showing an example of a student avatar video. 図6は、講師側システムの表示装置に表示されるVR映像の一例を示す図である。FIG. 6 is a diagram showing an example of a VR image displayed on the display device of the instructor side system. 図7は、受講者側システムの表示装置に表示されるVR映像の一例を示す図である。FIG. 7 is a diagram showing an example of a VR image displayed on the display device of the student side system. 図8は、受講者側システムの表示装置に表示されるVR映像の一例を示す図である。FIG. 8 is a diagram showing an example of a VR image displayed on the display device of the student side system. 図9は、本実施形態に係るレッスン講習方法の一例を示すフローチャートである。FIG. 9 is a flowchart showing an example of the lesson training method according to the present embodiment.

以下、本発明に係るレッスン講習システム及びレッスン講習方法の実施形態を図面に基づいて説明する。なお、この実施形態によりこの発明が限定されるものではない。また、下記実施形態における構成要素には、当業者が置換可能かつ容易なもの、あるいは実質的に同一のものが含まれる。 Hereinafter, embodiments of the lesson training system and the lesson training method according to the present invention will be described with reference to the drawings. The present invention is not limited to this embodiment. In addition, the components in the following embodiments include those that can be easily replaced by those skilled in the art, or those that are substantially the same.

図1は、本実施形態に係るレッスン講習システム100の一例を示す機能ブロック図である。図1に示すように、レッスン講習システム100は、講師側システム10と、受講者側システム40と、サーバ30とを備える。レッスン講習システム100は、例えばダンス、ヨガ、体操等のように、体の動かし方を習得するレッスンを受講するためのシステムである。レッスン講習システム100は、例えば受講者側システム40が複数設けられる構成とすることで、複数の受講者に対して講習を行うことが可能である。 FIG. 1 is a functional block diagram showing an example of the lesson training system 100 according to the present embodiment. As shown in FIG. 1, the lesson training system 100 includes an instructor-side system 10, a student-side system 40, and a server 30. The lesson training system 100 is a system for taking lessons for learning how to move the body, such as dance, yoga, and gymnastics. The lesson training system 100 can provide training to a plurality of students by, for example, having a configuration in which a plurality of student-side systems 40 are provided.

講師側システム10は、トラッキング装置11と、制御装置12と、表示装置13と、音声出力装置14とを有する。 The instructor-side system 10 includes a tracking device 11, a control device 12, a display device 13, and an audio output device 14.

トラッキング装置11は、講師の体の動きを検出する。トラッキング装置11は、検出部11a及び振動発生部11b(図2参照)を有する。検出部11aは、講師の体の各部に装着され、各部の位置、速度、加速度を検出する。本実施形態において、検出部11aは、例えば頭、肩、胸、肘、手、腰、膝、足等に装着される。検出部11aの装着箇所は上記に限定されず、他の箇所に装着される態様であってもよい。検出部11aは、検出結果を制御装置12に送信する。なお、検出部11aは、講師の体の各部の位置、速度、加速度を検出可能であれば、例えばカメラ等の他の構成であってもよい。振動発生部11bは、検出部11aと一体で設けられ、制御装置12の制御により振動する。 The tracking device 11 detects the movement of the instructor's body. The tracking device 11 has a detection unit 11a and a vibration generation unit 11b (see FIG. 2). The detection unit 11a is attached to each part of the body of the instructor and detects the position, speed, and acceleration of each part. In the present embodiment, the detection unit 11a is attached to, for example, the head, shoulders, chest, elbows, hands, hips, knees, feet, and the like. The mounting location of the detection unit 11a is not limited to the above, and may be mounted on another location. The detection unit 11a transmits the detection result to the control device 12. The detection unit 11a may have other configurations such as a camera as long as it can detect the position, speed, and acceleration of each part of the body of the instructor. The vibration generation unit 11b is provided integrally with the detection unit 11a and vibrates under the control of the control device 12.

制御装置12は、講師側システム10の各部を制御する。制御装置12は、CPU(Central Processing Unit)等の処理装置と、RAM(Random Access Memory)又はROM(Read Only Memory)等の記憶装置を有する。制御装置12は、モーション生成部16と、アバター生成部17と、VR映像生成部18と、表示制御部19と、通信部20と、記憶部21とを有する。 The control device 12 controls each part of the instructor side system 10. The control device 12 has a processing device such as a CPU (Central Processing Unit) and a storage device such as a RAM (Random Access Memory) or a ROM (Read Only Memory). The control device 12 includes a motion generation unit 16, an avatar generation unit 17, a VR image generation unit 18, a display control unit 19, a communication unit 20, and a storage unit 21.

モーション生成部16は、検出部11aの検出結果を取得する。モーション生成部16は、検出結果として取得した講師の体の各部の位置、速度、加速度の各情報に基づいて、講師の体の各部の動きを示す講師モーション情報を生成する。 The motion generation unit 16 acquires the detection result of the detection unit 11a. The motion generation unit 16 generates instructor motion information indicating the movement of each part of the instructor's body based on the position, speed, and acceleration information of each part of the instructor's body acquired as a detection result.

アバター生成部17は、講師モーション情報に基づいて講師アバターが動く講師アバター映像を生成する。講師アバターは、予め記憶部21等に記憶される。講師アバターは、例えば仮想空間において3次元的に表示される態様とすることができる。 The avatar generation unit 17 generates an instructor avatar image in which the instructor avatar moves based on the instructor motion information. The instructor avatar is stored in the storage unit 21 or the like in advance. The instructor avatar can be displayed three-dimensionally in a virtual space, for example.

VR映像生成部18は、後述する通信部20がサーバ30から受信するVR(Virtual Reality:仮想現実)空間の情報を取得する。当該VR空間は、例えばダンス等のレッスンルームを示す三次元的な映像である。VR映像生成部18は、取得したVR空間の情報に基づいて、当該VR空間内に講師アバター映像又は後述する受講者アバター映像を組み合わせたVR映像を生成する。 The VR video generation unit 18 acquires information on the VR (Virtual Reality) space received from the server 30 by the communication unit 20 described later. The VR space is a three-dimensional image showing a lesson room such as a dance. Based on the acquired information in the VR space, the VR image generation unit 18 generates a VR image in which the instructor avatar image or the student avatar image described later is combined in the VR space.

表示制御部19は、表示装置13における表示動作を制御する。表示制御部19は、例えばVR映像生成部18で生成されたVR映像を表示装置13に表示させる。 The display control unit 19 controls the display operation in the display device 13. The display control unit 19 causes the display device 13 to display the VR image generated by the VR image generation unit 18, for example.

通信部20は、サーバ30との間で情報の送受信を行う。通信部20は、サーバ30から、例えばVR空間の映像の情報、後述の受講者アバター映像の情報及び受講者モーション情報等の各情報を受信する。また、通信部20は、例えば制御装置12で生成された講師アバター映像の情報、講師モーション情報等の各情報をサーバ30に送信する。 The communication unit 20 transmits / receives information to / from the server 30. The communication unit 20 receives, for example, information on the video in the VR space, information on the student avatar video described later, information on the student motion, and the like from the server 30. Further, the communication unit 20 transmits each information such as the information of the instructor avatar video generated by the control device 12 and the instructor motion information to the server 30.

記憶部21は、各種の情報を記憶する。記憶部21は、例えばハードディスクドライブ、ソリッドステートドライブ等のストレージを有している。なお、記憶部21として、リムーバブルディスク等の外部記憶媒体が用いられてもよい。記憶部21は、予め設定された講師アバターを記憶する。記憶部21は、制御装置12の各部が処理を行うためのプログラム、データ等の情報を記憶する。記憶部21は、サーバ30から受信したVR空間の映像情報を記憶する。 The storage unit 21 stores various types of information. The storage unit 21 has storage such as a hard disk drive or a solid state drive. An external storage medium such as a removable disk may be used as the storage unit 21. The storage unit 21 stores a preset instructor avatar. The storage unit 21 stores information such as programs and data for each unit of the control device 12 to perform processing. The storage unit 21 stores the video information in the VR space received from the server 30.

表示装置13は、表示制御部19の制御により、映像等の各種情報を表示する。表示装置13は、例えばVR映像生成部18で生成されたVR映像を表示可能である。表示装置13としては、例えばヘッドマウントディスプレイ等が挙げられるが、これに限定されず、フラットパネルディスプレイ等であってもよい。 The display device 13 displays various information such as images under the control of the display control unit 19. The display device 13 can display, for example, the VR image generated by the VR image generation unit 18. Examples of the display device 13 include, but are not limited to, a head-mounted display and the like, and a flat panel display and the like may be used.

音声出力装置14は、制御装置12の制御に基づいて、音声を出力する。音声出力装置14としては、例えばスピーカ等が用いられる。 The voice output device 14 outputs voice based on the control of the control device 12. As the audio output device 14, for example, a speaker or the like is used.

受講者側システム40は、トラッキング装置41と、制御装置42と、表示装置43と、音声出力装置44とを有する。 The student-side system 40 includes a tracking device 41, a control device 42, a display device 43, and an audio output device 44.

トラッキング装置41は、受講者の体の動きを検出する。トラッキング装置41は、検出部41a及び振動発生部41b(図4参照)を有する。検出部41aは、受講者の体の各部に装着され、各部の位置、速度、加速度を検出する。本実施形態において、検出部41aは、例えば検出部11aと同様の箇所、つまり、頭、肩、胸、肘、手、腰、膝、足等に装着される。検出部41aの装着箇所は上記に限定されず、他の箇所に装着される態様であってもよい。検出部41aは、検出結果を制御装置42に送信する。なお、検出部41aは、受講者の体の各部の位置、速度、加速度を検出可能であれば、例えばカメラ等の他の構成であってもよい。振動発生部41bは、検出部41aと一体で設けられ、制御装置42の制御により振動する。 The tracking device 41 detects the movement of the student's body. The tracking device 41 has a detection unit 41a and a vibration generation unit 41b (see FIG. 4). The detection unit 41a is attached to each part of the student's body and detects the position, speed, and acceleration of each part. In the present embodiment, the detection unit 41a is attached to, for example, a portion similar to the detection unit 11a, that is, the head, shoulders, chest, elbows, hands, hips, knees, feet, and the like. The mounting location of the detection unit 41a is not limited to the above, and may be mounted on another location. The detection unit 41a transmits the detection result to the control device 42. The detection unit 41a may have other configurations such as a camera as long as it can detect the position, speed, and acceleration of each part of the student's body. The vibration generation unit 41b is provided integrally with the detection unit 41a and vibrates under the control of the control device 42.

制御装置42は、受講者側システム40の各部を制御する。制御装置42は、CPU等の処理装置と、RAM又はROM等の記憶装置を有する。制御装置42は、モーション生成部46と、アバター生成部47と、半透過アバター生成部48と、VR映像生成部49と、表示制御部50と、ズレ情報出力部51と、通信部52と、記憶部53とを有する。 The control device 42 controls each part of the student side system 40. The control device 42 has a processing device such as a CPU and a storage device such as RAM or ROM. The control device 42 includes a motion generation unit 46, an avatar generation unit 47, a semi-transparent avatar generation unit 48, a VR image generation unit 49, a display control unit 50, a deviation information output unit 51, and a communication unit 52. It has a storage unit 53.

モーション生成部46は、検出部41aの検出結果を取得する。モーション生成部46は、検出結果として取得した受講者の体の各部の位置、速度、加速度の各情報に基づいて、受講者の体の各部の動きを示す受講者モーション情報を生成する。 The motion generation unit 46 acquires the detection result of the detection unit 41a. The motion generation unit 46 generates student motion information indicating the movement of each part of the student's body based on the position, speed, and acceleration information of each part of the student's body acquired as a detection result.

アバター生成部47は、受講者モーション情報に基づいて受講者アバターが動く受講者アバター映像を生成する。アバター生成部47は、生成した受講者アバター映像を記憶部53に記憶する。なお、受講者アバターは、予め記憶部53等に記憶される。受講者アバターは、例えば仮想空間において3次元的に表示される態様とすることができる。 The avatar generation unit 47 generates a student avatar image in which the student avatar moves based on the student motion information. The avatar generation unit 47 stores the generated student avatar image in the storage unit 53. The student avatar is stored in the storage unit 53 or the like in advance. The student avatar can be displayed three-dimensionally in, for example, a virtual space.

半透過アバター生成部48は、生成された受講者アバター映像について透明度を高めた状態とした半透過アバター映像を生成する。半透過アバター生成部48は、受講者アバター映像とは別個に半透過アバター映像を記憶部53に記憶する。 The semi-transparent avatar generation unit 48 generates a semi-transparent avatar image in which the generated student avatar image is in a state of increasing transparency. The semi-transparent avatar generation unit 48 stores the semi-transparent avatar image in the storage unit 53 separately from the student avatar image.

VR映像生成部49は、後述する通信部52で受信されるVR空間の情報を取得する。VR映像生成部49は、取得したVR空間の情報に基づいて、当該VR空間内に講師アバター映像と、受講者アバター映像又は半透過アバター映像とを組み合わせたVR映像を生成する。なお、講師アバター映像については、後述する通信部52によって受信する。VR映像生成部49は、講師アバター映像と受講者アバター映像とを組み合わせる場合、講師アバター映像に半透過アバター映像が重畳した状態で表示されるようにVR映像を生成することができる。VR映像生成部49は、例えば半透過アバターと講師アバターとをそれぞれの腰部を基準として重畳させることができる。また、VR映像生成部49は、講師アバター映像と半透過アバター映像とを組み合わせる場合、VR空間内に講師アバター映像と受講者アバター映像とが並んだ状態で表示されるようにVR映像を生成することができる。また、VR映像生成部49は、他の受講者側システム40で生成される受講者アバター映像についてはVR映像に組み合わせないようにする。これにより、他の受講者Sの受講者アバター映像が表示装置43に表示されることが回避される。なお、他の受講者側システム40で生成される受講者アバター映像については、例えばサーバ30から受信できないようにしてもよい。 The VR video generation unit 49 acquires information on the VR space received by the communication unit 52, which will be described later. The VR image generation unit 49 generates a VR image in which the instructor avatar image and the student avatar image or the translucent avatar image are combined in the VR space based on the acquired information of the VR space. The instructor avatar video is received by the communication unit 52, which will be described later. When the instructor avatar image and the student avatar image are combined, the VR image generation unit 49 can generate a VR image so that the semi-transparent avatar image is superimposed on the instructor avatar image. The VR image generation unit 49 can superimpose, for example, a translucent avatar and an instructor avatar with respect to their respective waists. Further, when the instructor avatar image and the translucent avatar image are combined, the VR image generation unit 49 generates a VR image so that the instructor avatar image and the student avatar image are displayed side by side in the VR space. be able to. Further, the VR video generation unit 49 prevents the student avatar video generated by the other student side system 40 from being combined with the VR video. As a result, it is possible to prevent the student avatar video of the other student S from being displayed on the display device 43. Note that the student avatar video generated by the other student-side system 40 may not be received from, for example, the server 30.

表示制御部50は、表示装置43における表示動作を制御する。表示制御部50は、例えばVR映像生成部49で生成されたVR映像を表示装置43に表示させる。 The display control unit 50 controls the display operation in the display device 43. The display control unit 50 causes the display device 43 to display, for example, the VR image generated by the VR image generation unit 49.

ズレ情報出力部51は、講師の動きと受講者の動きとの間のズレを検出し、検出結果を出力する。ズレ情報出力部51は、通信部52で受信する講師モーション情報を取得する。ズレ情報出力部51は、取得した講師モーション情報と、上記のモーション生成部46で生成された受講者モーション情報とに基づいて、講師Tの動きと受講者Sの動きとのズレを算出する。ズレ情報出力部51は、例えば、検出部41aにおいて検出された箇所ごとにズレを算出することができる。この場合、ズレ情報出力部51は、講師Tに装着される各センサ11a間の距離と受講者Sに装着される各センサ41a間の距離とに基づいて、講師Tと受講者Sとの身長の比率を求める。そして、ズレ情報検出部51は、求めた結果を用いて、講師モーション情報に含まれる各値と受講者モーション情報に含まれる各値との縮尺を一致させる。ズレ情報出力部51は、縮尺が一致した状態で、講師Tの動きと受講者Sの動きとのズレを算出する。ズレ情報出力部51は、ズレの大きさが所定値よりも大きい場合、該当箇所の検出部41aと一体で設けられる振動発生部41bを振動させるように制御することができる。これにより、体のどの部位の動きを修正すればよいかを受講者に容易に知らせることができる。また、ズレ情報出力部51は、ズレの大きさが所定値よりも小さい場合であっても、ズレが生じているすべての該当箇所、またはズレが生じている該当箇所のうちズレが大きい順に所定数の該当箇所の検出部41aと一体で設けられる振動発生部41bを振動させるように制御してもよい。また、ズレ情報出力部51は、表示制御部50を介して、ズレの有無を表示装置43に表示させてもよいし、後述する音声出力装置44により音声として出力してもよい。 The deviation information output unit 51 detects the deviation between the movement of the instructor and the movement of the student, and outputs the detection result. The deviation information output unit 51 acquires the instructor motion information received by the communication unit 52. The deviation information output unit 51 calculates the deviation between the movement of the instructor T and the movement of the student S based on the acquired instructor motion information and the student motion information generated by the motion generation unit 46. The deviation information output unit 51 can calculate the deviation for each location detected by the detection unit 41a, for example. In this case, the deviation information output unit 51 determines the height between the instructor T and the student S based on the distance between the sensors 11a mounted on the instructor T and the distance between the sensors 41a mounted on the student S. Find the ratio of. Then, the deviation information detection unit 51 uses the obtained result to match the scale of each value included in the instructor motion information with each value included in the student motion information. The deviation information output unit 51 calculates the deviation between the movement of the instructor T and the movement of the student S in a state where the scales match. When the size of the deviation is larger than a predetermined value, the deviation information output unit 51 can control the vibration generation unit 41b provided integrally with the detection unit 41a at the corresponding portion to vibrate. This makes it possible to easily inform the student of which part of the body the movement should be corrected. Further, even if the size of the deviation is smaller than the predetermined value, the deviation information output unit 51 is predetermined in the order of the largest deviation among all the corresponding parts where the deviation occurs or the corresponding parts where the deviation occurs. The vibration generation unit 41b provided integrally with the detection unit 41a at the corresponding portion of the number may be controlled to vibrate. Further, the deviation information output unit 51 may display the presence or absence of deviation on the display device 43 via the display control unit 50, or may output it as voice by the voice output device 44 described later.

通信部52は、サーバ30との間で情報の送受信を行う。通信部52は、サーバ30から、例えばVR空間の映像の情報、講師アバター映像の情報、講師モーション情報等の各情報を受信する。また、通信部52は、例えば制御装置42で生成された受講者アバター映像の情報、半透過アバター映像の情報、受講者モーション情報等の各情報をサーバ30に送信する。 The communication unit 52 transmits / receives information to / from the server 30. The communication unit 52 receives information such as VR space video information, lecturer avatar video information, and lecturer motion information from the server 30. Further, the communication unit 52 transmits each information such as the student avatar video information, the semi-transparent avatar video information, and the student motion information generated by the control device 42 to the server 30.

記憶部53は、各種情報を記憶する。記憶部53は、例えばハードディスクドライブ、ソリッドステートドライブ等のストレージを有している。なお、記憶部53として、リムーバブルディスク等の外部記憶媒体が用いられてもよい。記憶部53は、予め設定された受講者アバターを記憶する。記憶部53は、制御装置42の各部が処理を行うためのプログラム、データ等の情報を記憶する。記憶部53は、サーバ30から受信したVR空間の映像情報を記憶する。 The storage unit 53 stores various information. The storage unit 53 has storage such as a hard disk drive or a solid state drive. An external storage medium such as a removable disk may be used as the storage unit 53. The storage unit 53 stores a preset student avatar. The storage unit 53 stores information such as programs and data for each unit of the control device 42 to perform processing. The storage unit 53 stores the video information in the VR space received from the server 30.

表示装置43は、表示制御部50の制御により、映像等の各種情報を表示する。表示装置43は、例えばVR空間映像を表示可能である。表示装置43としては、例えばヘッドマウントディスプレイ等が挙げられるが、これに限定されず、フラットパネルディスプレイ等であってもよい。 The display device 43 displays various information such as images under the control of the display control unit 50. The display device 43 can display, for example, a VR spatial image. Examples of the display device 43 include, but are not limited to, a head-mounted display and the like, and a flat panel display and the like may be used.

音声出力装置44は、制御装置42の制御に基づいて、音声を出力する。音声出力装置44としては、例えばスピーカ等が用いられる。 The voice output device 44 outputs voice based on the control of the control device 42. As the audio output device 44, for example, a speaker or the like is used.

サーバ30は、通信部31と、処理部32と、記憶部33とを有する。通信部31は、講師側システム10の通信部20、及び後述する受講者側システム40の通信部52との間で情報の送受信を行う。処理部32は、各レッスン講習を管理する。不図示の入力部等により必要な情報が入力された場合、処理部32は、例えばレッスン講習ごとのVR空間の設定、VR空間に配置する講師用アバター映像及び受講者アバター映像の位置の設定、受講可能な最大受講者数等の設定等を行うことができる。 The server 30 has a communication unit 31, a processing unit 32, and a storage unit 33. The communication unit 31 transmits / receives information to / from the communication unit 20 of the instructor-side system 10 and the communication unit 52 of the student-side system 40, which will be described later. The processing unit 32 manages each lesson course. When necessary information is input by an input unit (not shown) or the like, the processing unit 32 sets, for example, the VR space for each lesson course, the position of the instructor avatar image and the student avatar image to be arranged in the VR space, and the like. It is possible to set the maximum number of students who can take the course.

処理部32は、通信部31における情報の送受信を制御する。処理部32の制御により、通信部31を介してVR空間に関する情報、講師モーション情報、講師アバター映像の情報、受講者モーション情報及び受講者アバター映像の情報等の各種情報が送受信される。記憶部33は、各種の情報を記憶する。 The processing unit 32 controls the transmission / reception of information in the communication unit 31. Under the control of the processing unit 32, various information such as information about the VR space, instructor motion information, instructor avatar video information, student motion information, and student avatar video information is transmitted and received via the communication unit 31. The storage unit 33 stores various types of information.

記憶部33は、通信部31により送受信される各種情報を記憶する。なお、レッスン講習システム100は、記憶部33が例えばレッスン講習における講師Tの講師用アバターと、受講者Sの受講者用アバターとを記憶し、処理部32が講師用アバター映像、受講者用アバター映像、半透過アバター映像及びそれぞれのVR映像を生成してもよい。この場合、講師側システム10のアバター生成部17及びVR映像生成部18と、受講者側システム40のアバター生成部47、半透過アバター生成部48及びVR映像生成部49が設けられなくてもよい。これにより、講師側システム10及び受講者側システム40とサーバ30との間の通信量を抑制できる。 The storage unit 33 stores various information transmitted / received by the communication unit 31. In the lesson training system 100, the storage unit 33 stores, for example, the instructor T's avatar for the instructor and the student S's student avatar in the lesson class, and the processing unit 32 stores the instructor's avatar video and the student's avatar. An image, a translucent avatar image, and each VR image may be generated. In this case, the avatar generation unit 17 and the VR image generation unit 18 of the instructor side system 10 and the avatar generation unit 47, the translucent avatar generation unit 48, and the VR image generation unit 49 of the student side system 40 may not be provided. .. As a result, the amount of communication between the instructor-side system 10 and the student-side system 40 and the server 30 can be suppressed.

次に、上記のレッスン講習システム100を用いたレッスン講習方法を説明する。図2から図8は、レッスン講習方法の一例を示す図である。図2は、講師Tが動作する場合の一態様を示す図である。図2に示すように、講師Tは、体の各部に検出部11a及び振動発生部11bを装着した状態で、見本となる動作を行う。各検出部11aは、講師Tの動作に応じて体の各部の位置、速度、加速度を検出し、検出結果を制御装置12に送信する。制御装置12において、モーション生成部16は、検出部11aの検出結果を取得し、取得した検出結果に基づいて、講師の体の各部の動きを示す講師モーション情報を生成する。モーション生成部16は、生成した講師モーション情報を記憶部21に記憶する。通信部20は、生成された講師モーション情報をサーバ30に送信する。 Next, a lesson training method using the above lesson training system 100 will be described. 2 to 8 are diagrams showing an example of a lesson training method. FIG. 2 is a diagram showing one aspect when the instructor T operates. As shown in FIG. 2, the instructor T performs a sample operation with the detection unit 11a and the vibration generation unit 11b attached to each part of the body. Each detection unit 11a detects the position, speed, and acceleration of each part of the body according to the operation of the instructor T, and transmits the detection result to the control device 12. In the control device 12, the motion generation unit 16 acquires the detection result of the detection unit 11a, and generates instructor motion information indicating the movement of each part of the instructor's body based on the acquired detection result. The motion generation unit 16 stores the generated instructor motion information in the storage unit 21. The communication unit 20 transmits the generated instructor motion information to the server 30.

講師モーション情報が生成された後、アバター生成部17は、当該講師モーション情報に基づいて講師アバター映像を生成する。図3は、講師アバター映像の一例を示す図である。図3に示すように、アバター生成部17は、講師アバターATが講師の動作に対応した動作を行う講師アバター映像を生成する。アバター生成部17は、生成した講師アバター映像の情報を記憶部21に記憶する。通信部20は、生成された講師アバター映像の情報をサーバ30に送信する。 After the instructor motion information is generated, the avatar generation unit 17 generates an instructor avatar image based on the instructor motion information. FIG. 3 is a diagram showing an example of the instructor avatar video. As shown in FIG. 3, the avatar generation unit 17 generates an instructor avatar image in which the instructor avatar AT performs an operation corresponding to the instructor's operation. The avatar generation unit 17 stores the generated information of the instructor avatar image in the storage unit 21. The communication unit 20 transmits the generated information of the instructor avatar video to the server 30.

サーバ30は、通信部31により講師側システム10から送信された講師モーション情報及び講師アバター映像の情報を受信する。サーバ30は、受信した各情報を記憶部33に記憶する。 The server 30 receives the instructor motion information and the instructor avatar video information transmitted from the instructor side system 10 by the communication unit 31. The server 30 stores each received information in the storage unit 33.

受講者側システム40では、受講者Sの所定の操作により通信部52がサーバ30にアクセスし、VR空間の映像の情報、講師モーション情報、講師アバター映像の情報を受信する。VR映像生成部49は、受信したVR空間の映像の情報及び講師アバター映像の情報に基づいてVR映像を生成する。表示制御部50は、生成したVR映像を表示装置43に表示させる。 In the student side system 40, the communication unit 52 accesses the server 30 by a predetermined operation of the student S, and receives the information of the image of the VR space, the instructor motion information, and the information of the instructor avatar image. The VR image generation unit 49 generates a VR image based on the received VR space image information and the instructor avatar image information. The display control unit 50 causes the display device 43 to display the generated VR image.

図4に示すように、異なる場所で異なる受講者側システム40を使用する受講者S1、S2は、それぞれ表示装置43に表示されるVR映像を見ながら、体の各部に検出部41a及び振動発生部41bを装着した状態で、講師アバターATの動きに沿って動作を行うことができる。各検出部41aは、受講者S1の動作に応じて体の各部の位置、速度、加速度を検出し、検出結果を制御装置42に送信する。制御装置42において、モーション生成部46は、検出部41aの検出結果を取得し、取得した検出結果に基づいて、受講者S1、S2の体の各部の動きを示す受講者モーション情報を生成する。モーション生成部46は、生成した受講者モーション情報を記憶部53に記憶する。通信部52は、生成された受講者モーション情報をサーバ30に送信する。 As shown in FIG. 4, the students S1 and S2 who use different student-side systems 40 at different places, while watching the VR image displayed on the display device 43, generate the detection unit 41a and vibration in each part of the body. With the part 41b attached, it is possible to perform an operation according to the movement of the instructor avatar AT. Each detection unit 41a detects the position, speed, and acceleration of each part of the body according to the movement of the student S1, and transmits the detection result to the control device 42. In the control device 42, the motion generation unit 46 acquires the detection result of the detection unit 41a, and generates the student motion information indicating the movement of each part of the body of the students S1 and S2 based on the acquired detection result. The motion generation unit 46 stores the generated student motion information in the storage unit 53. The communication unit 52 transmits the generated student motion information to the server 30.

受講者モーション情報が生成された後、アバター生成部47は、当該受講者モーション情報に基づいて受講者アバター映像を生成する。図5は、受講者アバター映像の一例を示す図である。図5に示すように、アバター生成部47は、受講者アバターAS1、AS2が講師T(講師アバターAT)の動作に対応した動作を行う受講者アバター映像を生成する。また、半透過アバター生成部48は、生成された受講者アバター映像に基づいて、半透過アバター映像を生成する。アバター生成部47は、生成した受講者アバター映像及び半透過アバター映像の情報を記憶部53に記憶する。通信部52は、生成された受講者アバター映像及び半透過アバター映像の情報をサーバ30に送信する。 After the student motion information is generated, the avatar generation unit 47 generates the student avatar image based on the student motion information. FIG. 5 is a diagram showing an example of a student avatar video. As shown in FIG. 5, the avatar generation unit 47 generates a student avatar image in which the student avatars AS1 and AS2 perform an operation corresponding to the operation of the instructor T (lecturer avatar AT). Further, the semi-transparent avatar generation unit 48 generates a semi-transparent avatar image based on the generated student avatar image. The avatar generation unit 47 stores the generated student avatar video and semi-transparent avatar video information in the storage unit 53. The communication unit 52 transmits the generated student avatar video and translucent avatar video information to the server 30.

サーバ30は、通信部31により受講者側システム40から送信された受講者モーション情報、受講者アバター映像及び半透過アバター映像の情報を受信する。サーバ30は、受信した各情報を記憶部33に記憶する。 The server 30 receives the student motion information, the student avatar video, and the semi-transparent avatar video information transmitted from the student side system 40 by the communication unit 31. The server 30 stores each received information in the storage unit 33.

図6は、講師側システム10の表示装置13に表示されるVR映像の一例を示す図である。講師側システム10において、制御装置12は、サーバ30の記憶部33に記憶された受講者モーション情報、受講者アバター映像及び半透過アバター映像の情報を、通信部20を介して受信する。VR映像生成部18は、受信した各情報に基づいてVR映像を生成する。表示制御部19は、生成したVR映像を表示装置13に表示する。図6に示すように、受講者Sが複数の場合、表示制御部19は、複数の受講者アバターASについての受講者アバター映像を表示装置13に表示することができる。例えば、上記の受講者S1、S2の受講者アバターAS1、AS2をVR空間Vaに並べた状態で表示装置13に表示することができる。これにより、講師T側からは複数の受講者S(AS1、AS2)の動作をまとめて確認できる。 FIG. 6 is a diagram showing an example of a VR image displayed on the display device 13 of the instructor side system 10. In the instructor side system 10, the control device 12 receives the student motion information, the student avatar video, and the translucent avatar video information stored in the storage unit 33 of the server 30 via the communication unit 20. The VR image generation unit 18 generates a VR image based on each received information. The display control unit 19 displays the generated VR image on the display device 13. As shown in FIG. 6, when there are a plurality of student S, the display control unit 19 can display the student avatar video for the plurality of student avatar AS on the display device 13. For example, the student avatars AS1 and AS2 of the students S1 and S2 can be displayed on the display device 13 in a state of being arranged in the VR space Va. As a result, the operation of the plurality of students S (AS1, AS2) can be confirmed collectively from the instructor T side.

図7及び図8は、受講者側システム40の表示装置43に表示されるVR映像の一例を示す図である。受講者側システム40において、VR映像生成部18は、サーバ30から受信した講師アバター映像と、生成した受講者アバター映像とがVR空間内で対応して配置されるようにVR映像を生成することができる。 7 and 8 are diagrams showing an example of a VR image displayed on the display device 43 of the student side system 40. In the student side system 40, the VR image generation unit 18 generates a VR image so that the instructor avatar image received from the server 30 and the generated student avatar image are arranged correspondingly in the VR space. Can be done.

VR映像生成部49は、例えば図7に示すように、講師アバターATと半透過アバターAHとがVR空間Vb内で重畳した状態のVR映像を生成することができる。表示制御部19は、生成されたVR映像を表示装置13に表示する。受講者Sは、表示装置43に重畳した状態で表示される講師アバターATと半透過アバターAHとを見比べることにより、受講者Sの動作と講師Tの動作との差異をより容易に把握できる。この場合、VR映像生成部18は、例えば講師アバターATの腰部の位置と半透過アバターAHの腰部の位置とを対応させることで、上半身のズレ及び下半身のズレを受講者Sにより明確に把握させることができる。 As shown in FIG. 7, for example, the VR image generation unit 49 can generate a VR image in which the instructor avatar AT and the translucent avatar AH are superimposed in the VR space Vb. The display control unit 19 displays the generated VR image on the display device 13. By comparing the instructor avatar AT and the translucent avatar AH displayed in a state of being superimposed on the display device 43, the student S can more easily grasp the difference between the operation of the student S and the operation of the instructor T. In this case, the VR image generation unit 18 makes the student S clearly grasp the deviation of the upper body and the deviation of the lower body by, for example, matching the position of the waist of the instructor avatar AT with the position of the waist of the translucent avatar AH. be able to.

また、VR映像生成部49は、例えば図8に示すように、講師アバターATと受講者アバターAS1とがVR空間Vb内に並んだ状態のVR映像を生成することができる。表示制御部19は、生成されたVR映像を表示装置13に表示する。受講者Sは、表示装置43に並んだ状態で表示される講師アバターATと受講者アバターAS1とを見比べることにより、受講者Sの動作と講師Tの動作との差異を容易に把握できる。 Further, the VR image generation unit 49 can generate a VR image in which the instructor avatar AT and the student avatar AS1 are arranged side by side in the VR space Vb, as shown in FIG. 8, for example. The display control unit 19 displays the generated VR image on the display device 13. The student S can easily grasp the difference between the operation of the student S and the operation of the instructor T by comparing the instructor avatar AT displayed side by side on the display device 43 with the student avatar AS1.

ズレ情報出力部51は、通信部52で受信した講師モーション情報を取得し、取得した講師モーション情報と、モーション生成部46で生成された受講者モーション情報とに基づいて、講師の動きと受講者の動きとのズレを算出する。ズレ情報出力部51は、ズレ情報出力部51は、ズレの大きさが所定値を超えた場合、該当箇所の検出部41aと一体で設けられる振動発生部41bを振動させるように制御することができる。 The deviation information output unit 51 acquires the instructor motion information received by the communication unit 52, and based on the acquired instructor motion information and the student motion information generated by the motion generation unit 46, the movement of the instructor and the student. Calculate the deviation from the movement of. The deviation information output unit 51 may control the deviation information output unit 51 to vibrate the vibration generating unit 41b provided integrally with the detection unit 41a at the corresponding location when the deviation size exceeds a predetermined value. can.

例えば、ズレ情報出力部51は、ズレの算出の結果、講師アバターATに対して、受講者アバターAS1の右肩、左肩、右肘、左肘、左足の位置については所定値よりもズレが小さいが、頭、右腕、左腕、右膝、右足、左膝の各部の位置については所定値よりもズレが大きいと判定したとする。この場合、ズレ情報出力部51は、受講者Sの体に装着された検出部41aのうち、ズレが大きいと判定した頭、右腕、左腕、右膝、右足、左膝に装着された検出部41aと一体の振動発生部41bを振動させる。受講者Sは、振動発生部41bの振動により、講師Tの体の動きに対してズレが大きい部位を容易かつ素早く把握することが可能となり、動作修正につなげることができる。なお、ズレ情報出力部51は、ズレが大きい順に所定数の部位のみについて、振動発生部41bを振動させてもよい。この場合、受講者Sは、講師Tの体の動きに対して優先して修正すべき部位を、より容易に把握することができる。 For example, as a result of the deviation calculation, the deviation information output unit 51 has a deviation smaller than a predetermined value for the positions of the right shoulder, left shoulder, right elbow, left elbow, and left foot of the student avatar AS1 with respect to the instructor avatar AT. However, it is assumed that the positions of the head, the right arm, the left arm, the right knee, the right foot, and the left knee are determined to be larger than the predetermined values. In this case, the deviation information output unit 51 is the detection unit 41a attached to the body of the student S, which is attached to the head, right arm, left arm, right knee, right foot, and left knee, which are determined to have a large deviation. The vibration generating portion 41b integrated with the 41a is vibrated. The vibration of the vibration generating portion 41b enables the student S to easily and quickly grasp the portion where the deviation is large with respect to the movement of the body of the instructor T, which can be linked to the motion correction. The deviation information output unit 51 may vibrate the vibration generating unit 41b only for a predetermined number of parts in descending order of deviation. In this case, the student S can more easily grasp the part to be corrected with priority on the body movement of the instructor T.

図9は、本実施形態に係るレッスン講習方法の一例を示すフローチャートである。図9は、講師側システム10の動作である講師側ステップと受講者側システム40の動作である受講者側ステップとを対応させて示している。図9に示すように、講師側システム10において、トラッキング装置11は、講師Tの体の各部に装着された検出部11a及び振動発生部11bにより、講師Tの動作に応じて体の各部の位置、速度、加速度を検出し、検出結果を制御装置12に送信する(ステップS110)。また、受講者側システムにおいて、トラッキング装置41は、受講者Sの体の各部に装着された検出部41a及び振動発生部41bにより、受講者Sの動作に応じて体の各部の位置、速度、加速度を検出し、検出結果を制御装置42に送信する(ステップS210)。 FIG. 9 is a flowchart showing an example of the lesson training method according to the present embodiment. FIG. 9 shows the instructor-side step, which is the operation of the instructor-side system 10, and the student-side step, which is the operation of the student-side system 40, in correspondence with each other. As shown in FIG. 9, in the instructor side system 10, the tracking device 11 is positioned by the detection unit 11a and the vibration generating unit 11b attached to each part of the body of the instructor T according to the movement of the instructor T. , Velocity and acceleration are detected, and the detection result is transmitted to the control device 12 (step S110). Further, in the student-side system, the tracking device 41 uses the detection unit 41a and the vibration generation unit 41b attached to each part of the body of the student S to determine the position and speed of each part of the body according to the movement of the student S. The acceleration is detected and the detection result is transmitted to the control device 42 (step S210).

講師側システム10において、モーション生成部16は、検出部11aの検出結果を取得し、取得した検出結果に基づいて、講師モーション情報を生成する(ステップS120)。また、受講者側システム40において、モーション生成部46は、検出部41aの検出結果を取得し、取得した検出結果に基づいて、受講者モーション情報を生成する(ステップS220)。 In the instructor side system 10, the motion generation unit 16 acquires the detection result of the detection unit 11a and generates instructor motion information based on the acquired detection result (step S120). Further, in the student side system 40, the motion generation unit 46 acquires the detection result of the detection unit 41a and generates the student motion information based on the acquired detection result (step S220).

講師側システム10において、アバター生成部17は、当該講師モーション情報に基づいて講師アバター映像を生成する(ステップS130)。また、受講者側システム40において、アバター生成部47は、当該受講者モーション情報に基づいて受講者アバター映像を生成する(ステップS230)。 In the instructor side system 10, the avatar generation unit 17 generates an instructor avatar image based on the instructor motion information (step S130). Further, in the student side system 40, the avatar generation unit 47 generates a student avatar image based on the student motion information (step S230).

講師側システム10において、通信部20は、サーバ30との間で情報を送受信する(ステップS140)。ステップS140において、通信部20は、生成された講師モーション情報、講師アバター映像をサーバ30に送信する。また、ステップS140において、通信部20は、後述する受講者モーション情報、受講者アバター映像をサーバ30から受信する。また、受講者側システム40において、通信部52は、生成した各情報をサーバ30に送信する(ステップS240)。ステップS240において、通信部52は、生成された受講者モーション情報、受講者アバター映像をサーバ30に送信する。また、ステップS240において、通信部52は、上記の講師モーション情報、講師アバター映像をサーバ30から受信する。 In the instructor side system 10, the communication unit 20 transmits / receives information to / from the server 30 (step S140). In step S140, the communication unit 20 transmits the generated instructor motion information and the instructor avatar video to the server 30. Further, in step S140, the communication unit 20 receives the student motion information and the student avatar video, which will be described later, from the server 30. Further, in the student side system 40, the communication unit 52 transmits each generated information to the server 30 (step S240). In step S240, the communication unit 52 transmits the generated student motion information and the student avatar video to the server 30. Further, in step S240, the communication unit 52 receives the instructor motion information and the instructor avatar video from the server 30.

講師側システム10において、VR映像生成部18は、受信した各情報に基づいてVR映像を生成する。表示制御部19は、生成したVR映像を表示装置13に表示する(ステップS150)。講師Tは、表示装置13を見ることにより、受講者Sの動きが適正か否かを容易に把握することができる。また、受講者側システム40において、VR映像生成部49は、受信した各情報に基づいてVR映像を生成する。表示制御部50は、生成したVR映像を表示装置43に表示する(ステップS250)。受講者Sは、表示装置43を見ることにより、見本となる講師Tの動きを容易に把握することができる。 In the instructor side system 10, the VR image generation unit 18 generates a VR image based on each received information. The display control unit 19 displays the generated VR image on the display device 13 (step S150). By looking at the display device 13, the instructor T can easily grasp whether or not the movement of the student S is appropriate. Further, in the student side system 40, the VR video generation unit 49 generates a VR video based on each received information. The display control unit 50 displays the generated VR image on the display device 43 (step S250). By looking at the display device 43, the student S can easily grasp the movement of the instructor T as a sample.

また、受講者側システムにおいて、ズレ情報出力部51は、通信部52で受信した講師モーション情報を取得し、取得した講師モーション情報と、モーション生成部46で生成された受講者モーション情報とに基づいて、講師の動きと受講者の動きとのズレを算出する(ステップS260)。ズレ情報出力部51は、ズレ情報出力部51は、ズレの大きさが所定値より大きいか否かを判定する(ステップS270)。ズレ情報出力部51は、ズレの大きさが所定値よりも大きいと判定した場合(ステップS270のYes)、該当箇所の検出部41aと一体で設けられる振動発生部41bを振動させるように制御する(ステップS280)。ズレ情報出力部51は、ズレの大きさが所定値よりも大きくないと判定した場合(ステップS270のNo)、ステップS280をスキップする。 Further, in the student side system, the deviation information output unit 51 acquires the instructor motion information received by the communication unit 52, and is based on the acquired instructor motion information and the student motion information generated by the motion generation unit 46. Then, the difference between the movement of the instructor and the movement of the student is calculated (step S260). The deviation information output unit 51 determines whether or not the deviation information output unit 51 is larger than a predetermined value (step S270). When the deviation information output unit 51 determines that the deviation size is larger than a predetermined value (Yes in step S270), the deviation information output unit 51 controls to vibrate the vibration generating unit 41b provided integrally with the detection unit 41a at the corresponding location. (Step S280). When the deviation information output unit 51 determines that the size of the deviation is not larger than the predetermined value (No in step S270), the deviation information output unit 51 skips step S280.

講師側システム10において、制御装置12は、VR映像を表示した後、全動作が完了したか否かを判定する(ステップS160)。制御装置12は、全動作が完了していないと判定した場合(ステップS160のNo)、ステップS110以降の動作を繰り返し行わせる。また、制御装置12は、全動作が完了したと判定した場合(ステップS160のYes)、動作を終了する。また、受講者側システム40において、制御装置42は、VR映像を表示した後又は振動を発生させた後、全動作が完了したか否かを判定する(ステップS260)。制御装置42は、全動作が完了していないと判定した場合(ステップS260のNo)、ステップS210以降の動作を繰り返し行わせる。また、制御装置42は、全動作が完了したと判定した場合(ステップS260のYes)、動作を終了する。 In the instructor side system 10, the control device 12 determines whether or not all the operations have been completed after displaying the VR image (step S160). When the control device 12 determines that all the operations have not been completed (No in step S160), the control device 12 causes the operations after step S110 to be repeated. Further, when it is determined that all the operations are completed (Yes in step S160), the control device 12 ends the operations. Further, in the student-side system 40, the control device 42 determines whether or not all the operations are completed after displaying the VR image or generating the vibration (step S260). When the control device 42 determines that all the operations have not been completed (No in step S260), the control device 42 causes the operations after step S210 to be repeated. Further, when it is determined that all the operations are completed (Yes in step S260), the control device 42 ends the operations.

以上のように、本実施形態に係るレッスン講習システム100は、講師Tの体の動きをトラッキングし、トラッキング結果に基づいて講師モーション情報を生成し、講師Tを示す講師アバターが講師モーション情報に基づいて動く講師アバター映像を生成し、生成した講師アバター映像を送信する講師側システム10と、受講者Sの体の動きをトラッキングし、トラッキング結果に基づいて受講者モーション情報を生成し、受講者Sを示す受講者アバターが受講者モーション情報に基づいて動く受講者アバター映像を生成するとともに、講師側システム10から送信された講師アバター映像を受信し、生成した受講者アバター映像と、受信した講師アバター映像とを対応させて表示する受講者側システム40とを備える。 As described above, the lesson training system 100 according to the present embodiment tracks the body movement of the instructor T, generates instructor motion information based on the tracking result, and the instructor avatar indicating the instructor T is based on the instructor motion information. The instructor side system 10 that generates the instructor avatar image that moves and sends the generated instructor avatar image, tracks the body movement of the student S, generates the student motion information based on the tracking result, and the student S The student avatar showing the above generates a student avatar image that moves based on the student motion information, and also receives the instructor avatar image transmitted from the instructor side system 10, and the generated instructor avatar image and the received instructor avatar. It is equipped with a student-side system 40 that displays images in correspondence with each other.

また、本実施形態に係るレッスン講習方法は、講師Tの体の動きをトラッキングし、トラッキング結果に基づいて講師モーション情報を生成し、講師Tを示す講師アバターが講師モーション情報に基づいて動く講師アバター映像を生成し、受講者Sの体の動きをトラッキングし、トラッキング結果に基づいて受講者モーション情報を生成し、受講者Sを示す受講者アバターが受講者モーション情報に基づいて動く受講者アバター映像を生成し、生成した受講者アバター映像と、講師側ステップで生成された講師アバター映像とを対応させて表示する。 Further, in the lesson class method according to the present embodiment, the movement of the body of the instructor T is tracked, the instructor motion information is generated based on the tracking result, and the instructor avatar indicating the instructor T moves based on the instructor motion information. A student avatar image that generates a video, tracks the body movement of the student S, generates a student motion information based on the tracking result, and the student avatar indicating the student S moves based on the student motion information. Is generated, and the generated student avatar image and the instructor avatar image generated in the instructor side step are displayed in association with each other.

この構成によれば、講師側システム10から送信された講師アバター映像と、受講者側システム40で生成した受講者アバター映像とが受講者システム40の表示装置43に表示され、他の受講者Sについての映像が表示されないため、受講者Sが他の受講者Sの目を気にすることなくレッスン講習を受けることができる。また、講師アバター映像と受講者アバター映像とが対応して表示されるため、受講者Sは、見本となる講師Tの動作を受講者自身の動作と容易に対応させて把握することができる。これにより、適切な動作を受講者Sに直感的に理解させることができる。 According to this configuration, the instructor avatar image transmitted from the instructor side system 10 and the student avatar image generated by the student side system 40 are displayed on the display device 43 of the student system 40, and the other student S. Since the video about is not displayed, the student S can take the lesson class without worrying about the eyes of other students S. Further, since the instructor avatar image and the student avatar image are displayed in correspondence with each other, the student S can easily grasp the operation of the sample instructor T in correspondence with the student's own operation. As a result, the student S can intuitively understand the appropriate operation.

本実施形態に係るレッスン講習システム100において、受講者側システム40は、講師アバター映像に受講者アバター映像を重畳させて表示する。これにより、受講者Sが講師Tの動作と受講者S自身の動作との一致部分又は不一致部分をより確実に把握することができる。 In the lesson training system 100 according to the present embodiment, the student side system 40 superimposes the student avatar image on the instructor avatar image and displays it. As a result, the student S can more reliably grasp the matching portion or the non-matching portion between the movement of the instructor T and the movement of the student S himself / herself.

本実施形態に係るレッスン講習システム100において、講師側システム10は、講師モーション情報を送信し、受講者側システム40は、講師側システム10から送信された講師モーション情報を受信し、受信した講師モーション情報と、生成した受講者モーション情報とに基づいて、講師Tの動きと受講者Sの動きとのズレを検出し、検出結果を出力する。これにより、講師Tの動きと受講者Sの動きとのズレを受講者Sにより確実に把握させることができる。 In the lesson training system 100 according to the present embodiment, the instructor side system 10 transmits the instructor motion information, and the student side system 40 receives the instructor motion information transmitted from the instructor side system 10 and receives the instructor motion. Based on the information and the generated student motion information, the deviation between the movement of the instructor T and the movement of the student S is detected, and the detection result is output. As a result, the deviation between the movement of the instructor T and the movement of the student S can be surely grasped by the student S.

本実施形態に係るレッスン講習システム100は、受講者側システム40は、検出されたズレのうち、ズレの大きさが所定値を超えた部位またはズレが大きい順に所定数の部位を振動させる。これにより、受講者Sは、講師Tの体の動きに対して優先して修正すべき部位を、より容易に把握することができる。 In the lesson training system 100 according to the present embodiment, the student-side system 40 vibrates a predetermined number of parts in the detected deviation in which the magnitude of the deviation exceeds a predetermined value or in descending order of the deviation. As a result, the student S can more easily grasp the part to be corrected with priority on the body movement of the instructor T.

本発明の技術範囲は上記実施形態に限定されるものではなく、本発明の趣旨を逸脱しない範囲で適宜変更を加えることができる。例えば、上記実施形態に係るレッスン講習システム100は、サーバ30が講師側システム10と受講者側システム40に対して別個に設けられた構成を例に挙げて説明したが、これに限定されない。例えば、サーバ30が設けられず、サーバ30の機能が講師側システム10及び受講者側システム40の少なくとも一方に搭載された構成であってもよい。 The technical scope of the present invention is not limited to the above-described embodiment, and changes can be made as appropriate without departing from the spirit of the present invention. For example, the lesson training system 100 according to the above embodiment has been described by exemplifying a configuration in which the server 30 is separately provided for the instructor side system 10 and the student side system 40, but the present invention is not limited to this. For example, the server 30 may not be provided, and the function of the server 30 may be installed in at least one of the instructor side system 10 and the student side system 40.

また、上記実施形態では、講師アバター及び受講者アバターが仮想空間に3次元的に表示させる態様を例に挙げて説明したが、これに限定されない。講師アバター及び受講者アバターは、例えば所定の方向から見た状態が仮想平面上に2次元的に表示される態様であってもよい。 Further, in the above embodiment, the mode in which the instructor avatar and the student avatar are displayed three-dimensionally in the virtual space has been described as an example, but the present invention is not limited to this. The instructor avatar and the student avatar may be, for example, a mode in which a state viewed from a predetermined direction is displayed two-dimensionally on a virtual plane.

AH…半透過アバター、S,S1,S2…受講者、T…講師、AS,AS1,AS2…受講者アバター、Va,Vb…VR空間、F…VR空間の底面、10…講師側システム、11,41…トラッキング装置、11a,41a…検出部、11b,41b…振動発生部、12,42…制御装置、13,43…表示装置、14,44…音声出力装置、16,46…モーション生成部、17,47…アバター生成部、18,49…VR映像生成部、19,50…表示制御部、20,31,52…通信部、21,33,53…記憶部、30…サーバ、32…VR情報処理部、40…受講者側システム、48…半透過アバター生成部、51…ズレ情報出力部、100…レッスン講習システム AH ... Semi-transparent avatar, S, S1, S2 ... Student, T ... Instructor, AS, AS1, AS2 ... Student avatar, Va, Vb ... VR space, F ... Bottom of VR space, 10 ... Instructor side system, 11 , 41 ... Tracking device, 11a, 41a ... Detection unit, 11b, 41b ... Vibration generation unit, 12,42 ... Control device, 13,43 ... Display device, 14,44 ... Audio output device, 16,46 ... Motion generation unit , 17,47 ... Avatar generation unit, 18,49 ... VR image generation unit, 19,50 ... Display control unit, 20,31,52 ... Communication unit, 21,33,53 ... Storage unit, 30 ... Server, 32 ... VR information processing department, 40 ... student side system, 48 ... semi-transparent avatar generation department, 51 ... deviation information output unit, 100 ... lesson training system

Claims (5)

講師の体の動きをトラッキングし、トラッキング結果に基づいて講師モーション情報を生成し、前記講師を示す講師アバターが前記講師モーション情報に基づいて動く講師アバター映像を生成し、生成した前記講師アバター映像を送信する講師側システムと、
受講者の体の動きをトラッキングし、トラッキング結果に基づいて受講者モーション情報を生成し、前記受講者を示す受講者アバターが前記受講者モーション情報に基づいて動く受講者アバター映像を生成するとともに、前記講師側システムから送信された前記講師アバター映像を受信し、生成した前記受講者アバター映像と、受信した前記講師アバター映像とを対応させて表示する受講者側システムと
を備えるレッスン講習システム。
The movement of the instructor's body is tracked, the instructor motion information is generated based on the tracking result, the instructor avatar indicating the instructor generates the instructor avatar image that moves based on the instructor motion information, and the generated instructor avatar image is used. The instructor side system to send and
The movement of the student's body is tracked, the student motion information is generated based on the tracking result, and the student avatar indicating the student generates a student avatar image that moves based on the student motion information. A lesson training system including a student side system that receives the teacher avatar video transmitted from the teacher side system and displays the generated student avatar video in correspondence with the received teacher avatar video.
前記受講者側システムは、前記講師アバター映像に前記受講者アバター映像を重畳させて表示する
請求項1に記載のレッスン講習システム。
The lesson training system according to claim 1, wherein the student-side system superimposes and displays the student avatar image on the instructor avatar image.
前記講師側システムは、前記講師モーション情報を送信し、
前記受講者側システムは、前記講師側システムから送信された前記講師モーション情報を受信し、受信した前記講師モーション情報と、生成した前記受講者モーション情報とに基づいて、前記講師の動きと前記受講者の動きとのズレを検出し、検出結果を出力する
請求項1又は請求項2に記載のレッスン講習システム。
The instructor-side system transmits the instructor motion information,
The student-side system receives the instructor motion information transmitted from the instructor-side system, and based on the received instructor motion information and the generated student motion information, the instructor's movement and the instructor's attendance. The lesson training system according to claim 1 or 2, wherein the deviation from the movement of the person is detected and the detection result is output.
前記受講者側システムは、前記検出されたズレのうち、ズレの大きさが所定値を超えた部位またはズレが大きい順に所定数の部位を振動させる
請求項3に記載のレッスン講習システム。
The lesson training system according to claim 3, wherein the student-side system vibrates a predetermined number of parts of the detected deviations in the order of the deviations exceeding a predetermined value or the deviations in descending order.
講師の体の動きをトラッキングし、トラッキング結果に基づいて講師モーション情報を生成し、前記講師を示す講師アバターが前記講師モーション情報に基づいて動く講師アバター映像を生成し、生成した前記講師アバター映像を送信し、
受講者の体の動きをトラッキングし、トラッキング結果に基づいて受講者モーション情報を生成し、前記受講者を示す受講者アバターが前記受講者モーション情報に基づいて動く受講者アバター映像を生成するとともに、前記送信された前記講師アバター映像を受信し、生成した前記受講者アバター映像と、受信した前記講師アバター映像とを対応させて表示する
レッスン講習方法。
The movement of the instructor's body is tracked, the instructor motion information is generated based on the tracking result, the instructor avatar indicating the instructor generates the instructor avatar image that moves based on the instructor motion information, and the generated instructor avatar image is used. Send and
The movement of the student's body is tracked, the student motion information is generated based on the tracking result, and the student avatar indicating the student generates a student avatar image in which the student avatar moves based on the student motion information. A lesson class method in which the transmitted instructor avatar image is received, and the generated student avatar image and the received instructor avatar image are displayed in association with each other.
JP2020145824A 2020-08-31 2020-08-31 Lesson course system and lesson course method Pending JP2022040894A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020145824A JP2022040894A (en) 2020-08-31 2020-08-31 Lesson course system and lesson course method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020145824A JP2022040894A (en) 2020-08-31 2020-08-31 Lesson course system and lesson course method

Publications (1)

Publication Number Publication Date
JP2022040894A true JP2022040894A (en) 2022-03-11

Family

ID=80499613

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020145824A Pending JP2022040894A (en) 2020-08-31 2020-08-31 Lesson course system and lesson course method

Country Status (1)

Country Link
JP (1) JP2022040894A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7410525B1 (en) 2022-09-30 2024-01-10 グリー株式会社 Information processing system, control method, and server device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7410525B1 (en) 2022-09-30 2024-01-10 グリー株式会社 Information processing system, control method, and server device

Similar Documents

Publication Publication Date Title
US11157070B2 (en) Massive simultaneous remote digital presence world
Amemiya et al. Orienting kinesthetically: A haptic handheld wayfinder for people with visual impairments
US20130198625A1 (en) System For Generating Haptic Feedback and Receiving User Inputs
Stanney et al. Virtual environments
CN103678859B (en) Motion comparison method and motion comparison system
JP2006320424A (en) Action teaching apparatus and method
KR101282953B1 (en) System and Method for coaching the sports motions
US20090303179A1 (en) Kinetic Interface
Whitman et al. Virtual reality: its usefulness for ergonomic analysis
US11682157B2 (en) Motion-based online interactive platform
JP2023501079A (en) Co-located Pose Estimation in a Shared Artificial Reality Environment
US20200033940A1 (en) Information processing apparatus, information processing method, and program
JP2022040894A (en) Lesson course system and lesson course method
US20190355281A1 (en) Learning support system and recording medium
CN110705063A (en) Vibration simulation method, system and storage medium
Han et al. Camera space synthesis of motion effects emphasizing a moving object in 4D films
US20220343604A1 (en) Program, information processing device, and method
KR101618004B1 (en) Interactive content providing apparatus based on the virtual reality and method thereof
US11887259B2 (en) Method, system, and apparatus for full-body tracking with magnetic fields in virtual reality and augmented reality applications
US11107364B2 (en) Method to enhance first-person-view experience
JP3190026B1 (en) Humanoid robot experience presentation device and master-slave control device
WO2020073103A1 (en) Virtual reality system
TWM466695U (en) Interactive integration system of space information system and wearing type intelligent device
JP7027753B2 (en) Information processing equipment and programs
JP2021111043A (en) Climbing support device, computer program, climbing support method, learning model generation method and display system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230428

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240221

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240227

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240408

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240423