JP7548644B1 - Correspondence education system, correspondence education providing method, and correspondence education providing program - Google Patents
Correspondence education system, correspondence education providing method, and correspondence education providing program Download PDFInfo
- Publication number
- JP7548644B1 JP7548644B1 JP2024017361A JP2024017361A JP7548644B1 JP 7548644 B1 JP7548644 B1 JP 7548644B1 JP 2024017361 A JP2024017361 A JP 2024017361A JP 2024017361 A JP2024017361 A JP 2024017361A JP 7548644 B1 JP7548644 B1 JP 7548644B1
- Authority
- JP
- Japan
- Prior art keywords
- user
- virtual space
- action
- animation
- content
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 61
- 230000033001 locomotion Effects 0.000 claims abstract description 118
- 230000009471 action Effects 0.000 claims description 61
- 230000008569 process Effects 0.000 claims description 51
- 230000008451 emotion Effects 0.000 claims description 7
- 230000003252 repetitive effect Effects 0.000 claims description 5
- 238000002716 delivery method Methods 0.000 claims 1
- 238000004891 communication Methods 0.000 abstract description 21
- 230000000007 visual effect Effects 0.000 abstract description 8
- 238000003860 storage Methods 0.000 description 20
- 230000001960 triggered effect Effects 0.000 description 20
- 238000012545 processing Methods 0.000 description 19
- 238000010586 diagram Methods 0.000 description 11
- 230000006870 function Effects 0.000 description 9
- 238000009826 distribution Methods 0.000 description 7
- 239000000463 material Substances 0.000 description 6
- 230000005540 biological transmission Effects 0.000 description 5
- 238000007654 immersion Methods 0.000 description 4
- 230000008859 change Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 230000008921 facial expression Effects 0.000 description 3
- 230000014509 gene expression Effects 0.000 description 3
- 230000001965 increasing effect Effects 0.000 description 3
- 239000004973 liquid crystal related substance Substances 0.000 description 3
- 238000012549 training Methods 0.000 description 3
- 230000002452 interceptive effect Effects 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 238000011112 process operation Methods 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 206010041243 Social avoidant behaviour Diseases 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 230000003213 activating effect Effects 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 230000004438 eyesight Effects 0.000 description 1
- 230000002250 progressing effect Effects 0.000 description 1
- 238000004549 pulsed laser deposition Methods 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000001755 vocal effect Effects 0.000 description 1
Landscapes
- Electrically Operated Instructional Devices (AREA)
- Processing Or Creating Images (AREA)
Abstract
【課題】アバターを介した相互コミュニケーションのための視覚効果を良好にすることができる通信教育システム、通信教育提供方法及び通信教育提供プログラムを得る。【解決手段】通信教育システムは、仮想空間上に展開される学習用コンテンツを用いて通信教育を提供する通信教育システムであって、少なくとも一つのプロセッサを備え、前記少なくとも一つのプロセッサは、指導者側又は生徒側のユーザのアバターオブジェクトを設定し、ネットワークを介して前記仮想空間に接続されたユーザ端末から前記ユーザの動作情報を取得し、取得された前記動作情報に基づいて、前記アバターオブジェクトの実動作アニメーションを作成し、前記仮想空間上に、前記学習用コンテンツとともに前記実動作アニメーションとを表示させる。【選択図】図5[Problem] To obtain a distance education system, a distance education providing method, and a distance education providing program that can improve the visual effects for mutual communication via avatars. [Solution] The distance education system provides distance education using learning content deployed in a virtual space, and includes at least one processor, which sets an avatar object of a user on the instructor or student side, acquires motion information of the user from a user terminal connected to the virtual space via a network, creates an actual motion animation of the avatar object based on the acquired motion information, and displays the actual motion animation together with the learning content in the virtual space. [Selected Figure] Figure 5
Description
本発明は、通信教育システム、通信教育提供方法及び通信教育提供プログラムに関する。 The present invention relates to a distance education system, a distance education provision method, and a distance education provision program.
近年、仮想空間を利用した通信教育においては、仮想空間における表現の自由度を利用した学習効果の高い教育方法の導入が検討されている。例えば、生徒側のユーザが好みのキャラクタに扮したアバターで仮想空間に参加することで、授業への積極的な参加を促し、学習効果を高めることが知られている。また、「知育」等の幼児教育の分野では、子供の興味を引き付ける外見的個性を指導者側のアバターに与えることで、子供の人見知りを克服し、学習効果を高めることが期待されている。 In recent years, in the field of distance learning using virtual space, the introduction of highly effective educational methods that take advantage of the freedom of expression in virtual space has been considered. For example, it is known that by having students participate in a virtual space with an avatar dressed as a character of their choice, they are encouraged to actively participate in classes and improve their learning outcomes. Also, in the field of early childhood education such as "intellectual training," it is hoped that by giving the instructor's avatar an appearance that attracts children's interest, children will be able to overcome their shyness and improve their learning outcomes.
特許文献1には、黒板の前で教師が授業を行う場面を撮影した原画像データを取得し、原画像データに基づいて、教師の動作を示すモーションデータを作成し、モーションデータに基づいて教師に対応するアバターの仕様を決定するコンテンツ制御システムが開示されている。 Patent Document 1 discloses a content control system that acquires original image data of a teacher teaching a lesson in front of a blackboard, creates motion data showing the teacher's movements based on the original image data, and determines the specifications of an avatar corresponding to the teacher based on the motion data.
しかしながら、特許文献1に記載された技術では、授業を行う場面において、教師とは異なる位置にアバターを配置した教育用コンテンツデータを出力する。従って、生徒側のユーザに対しては、実空間で授業を行う教師の姿と、アバターの画像とが提示されるため、ユーザがアバターオブジェクトを介してコミュニケーションを図るための視覚効果を得にくいことが考えられる。 However, the technology described in Patent Document 1 outputs educational content data in which an avatar is placed in a different position from the teacher during a lesson. Therefore, the student users are presented with both the teacher's figure teaching in real space and an image of the avatar, which may make it difficult for users to achieve a visual effect of communicating through the avatar object.
本発明は上記課題を解決するためになされたものであり、仮想空間上に展開される学習用コンテンツを用いて通信教育を行う際に、ユーザがアバターオブジェクトを介してコミュニケーションを図るための視覚効果を高めることができる通信教育システム、通信教育提供方法及び通信教育提供プログラムを得ることを目的とする。 The present invention has been made to solve the above problems, and aims to provide a distance learning system, a distance learning provision method, and a distance learning provision program that can enhance the visual effect for users to communicate through avatar objects when taking distance learning courses using learning content deployed in a virtual space.
本発明の第1の態様に係る通信教育システムは、仮想空間上に展開される学習用コンテンツを用いて通信教育を提供する通信教育システムであって、少なくとも一つのプロセッサを備え、前記少なくとも一つのプロセッサは、指導者側又は生徒側のユーザのアバターオブジェクトを設定し、ネットワークを介して前記仮想空間に接続されたユーザ端末から前記ユーザの動作情報を取得し、取得された前記動作情報に基づいて、前記アバターオブジェクトの実動作アニメーションを作成し、前記仮想空間上に、前記学習用コンテンツとともに前記実動作アニメーションを表示させる。 The distance learning system according to the first aspect of the present invention is a distance learning system that provides distance learning using learning content deployed in a virtual space, and includes at least one processor, which sets an avatar object of a user on the instructor's side or the student's side, acquires motion information of the user from a user terminal connected to the virtual space via a network, creates an actual motion animation of the avatar object based on the acquired motion information, and displays the actual motion animation together with the learning content in the virtual space.
第1の態様に係る通信教育システムによれば、ネットワークを介して仮想空間に接続されたユーザ端末からユーザの動作を取得し、取得された動作に基づいて、アバターオブジェクトの実動作アニメーションを作成する。そして、仮想空間上には、指導者側又は生徒側のユーザの動作に基づくアバターオブジェクトの実動作アニメーションが学習用コンテンツとともに表示される。これにより、仮想空間上に展開される学習用コンテンツを用いて通信教育を行う際に、ユーザがアバターオブジェクトを介してコミュニケーションを図るための視覚効果を高めることができる。 According to the distance learning system of the first aspect, the user's movements are acquired from a user terminal connected to a virtual space via a network, and an animation of the actual movements of an avatar object is created based on the acquired movements. Then, in the virtual space, the animation of the actual movements of the avatar object based on the movements of the user on the instructor's or student's side is displayed together with the learning content. This makes it possible to enhance the visual effect for users to communicate through the avatar object when taking distance learning using learning content deployed in the virtual space.
本発明の第2の態様に係る通信教育システムは、第1の態様に記載の構成において、前記少なくとも一つのプロセッサは、予め設定された予定動作に関する前記アバターオブジェクトの予定動作アニメーションを作成し、前記ユーザ端末に対して所定の操作が行われることにより、前記仮想空間上の前記アバターオブジェクトを、前記実動作アニメーションから前記予定動作アニメーションに切り替えて表示させる。 In the distance learning system according to the second aspect of the present invention, in the configuration described in the first aspect, the at least one processor creates a planned movement animation of the avatar object relating to a predetermined planned movement, and when a predetermined operation is performed on the user terminal, the avatar object in the virtual space is switched from the actual movement animation to the planned movement animation and displayed.
第2の態様に係る通信教育システムによれば、ユーザ端末に対して所定の操作が行われることにより、仮想空間上のアバターオブジェクトを実動作アニメーションから予定動作アニメーションに切り替えて表示させる。このため、予め設定された予定動作については、演出効果の高いアニメーション等を用いてコミュニケーションの一部を代替させることができる。これにより、ユーザがアバターオブジェクトを介してコミュニケーションを図るための視覚効果を高めることができる。 According to the distance learning system of the second aspect, a specific operation is performed on the user terminal, and the avatar object in the virtual space is switched from the actual movement animation to the planned movement animation. Therefore, for the planned movements that are set in advance, a part of the communication can be substituted by an animation with a high dramatic effect. This can enhance the visual effect for the user to communicate through the avatar object.
本発明の第3の態様に係る通信教育システムは、第2の態様に記載の構成において、前記少なくとも一つのプロセッサは、前記予定動作アニメーションが終了すると、前記アバターオブジェクトを再び前記実動作アニメーションに切り替えて表示させる。 The distance learning system according to the third aspect of the present invention is configured as described in the second aspect, and when the planned movement animation ends, the at least one processor switches the avatar object back to displaying the actual movement animation.
第3の態様に係る通信教育システムによれば、仮想空間上では、アバター画像は、予定動作アニメーションが終了すると、再び実動作アニメーションへと切り替えられる。これにより、アバターオブジェクトの動作として、ユーザの実動作の他に予め設定された予定動作を自然に盛り込むことができる。 According to the distance learning system of the third aspect, in the virtual space, when the planned movement animation ends, the avatar image switches back to the actual movement animation. This allows the avatar object's movements to naturally incorporate not only the user's actual movements, but also the pre-set planned movements.
本発明の第4の態様に係る通信教育システムは、第2の態様又は第3の態様に記載の構成において、前記予定動作には、前記ユーザの感情を示すリアクション動作が含まれる。 A distance learning system according to a fourth aspect of the present invention has the configuration described in the second or third aspect, and the planned actions include a reaction action indicating the user's emotions.
第4の態様に係る通信教育システムによれば、ユーザの感情を示すリアクション動作を予定動作として設定することにより、仮想空間上のアバターオブジェクトを介したユーザの感情表現を豊かに演出することができる。 According to the distance learning system of the fourth aspect, by setting reaction actions that indicate the user's emotions as scheduled actions, it is possible to richly express the user's emotions through avatar objects in a virtual space.
本発明の第5の態様に係る通信教育システムは、第2の態様又は第3の態様に記載の構成において、前記予定動作には、前記学習用コンテンツに含まれる所定のオブジェクトを操作する動作が含まれる。 In the distance learning system according to the fifth aspect of the present invention, in the configuration described in the second or third aspect, the planned action includes an action of operating a specified object included in the learning content.
第5の態様に係る通信教育システムによれば、学習用コンテンツに含まれる所定のオブジェクトを操作する動作を予定動作として設定することにより、仮想空間上のオブジェクトを使ったコミュニケーションを円滑にすることができる。 According to the distance learning system of the fifth aspect, by setting an action of manipulating a specific object included in learning content as a scheduled action, communication using objects in a virtual space can be facilitated.
本発明の第6の態様に係る通信教育システムは、第2の態様又は第3の態様に記載の構成において、前記予定動作には、所定の動作パターンを繰り返す繰り返し動作が含まれる。 In the distance learning system according to the sixth aspect of the present invention, in the configuration described in the second or third aspect, the planned motion includes a repetitive motion that repeats a predetermined motion pattern.
第6の態様に係る通信教育システムによれば、所定の動作パターンを繰り返す繰り返し動作を予定動作として設定することで、例えば、積極的な相互コミュニケーションが必要とされない場面では、アバターオブジェクトに所定の動作パターンを繰り返させて待機させることができる。これにより、ユーザの実動作が常にアバターオブジェクトの動きに反映されることによるユーザの疲労感を低減させることができる。 According to the correspondence education system of the sixth aspect, by setting a repetitive action that repeats a predetermined movement pattern as a scheduled action, for example, in a situation where active mutual communication is not required, it is possible to have the avatar object repeat the predetermined movement pattern while waiting. This makes it possible to reduce the user's sense of fatigue caused by the user's actual movements always being reflected in the movement of the avatar object.
本発明の第7の態様に係る通信教育システムは、第1の態様又は第2の態様に記載の構成において、前記アバターオブジェクトは、前記ユーザによって予め設定された任意のオブジェクトとされている。 The distance learning system according to the seventh aspect of the present invention is configured as described in the first or second aspect, in which the avatar object is an arbitrary object preset by the user.
第7の態様に係る通信教育システムによれば、ユーザは、任意のオブジェクトをアバターオブジェクトとして設定し、仮想空間上でコミュニケーションを図ることができる。 According to the seventh aspect of the distance learning system, a user can set any object as an avatar object and communicate in a virtual space.
本発明の第8の態様に係る通信教育システムは、第1の態様又は第2の態様に記載の構成において、前記アバターオブジェクトは、前記学習用コンテンツに含まれるオブジェクトとして予め設定されたオブジェクトの一つでとされている。 The distance learning system according to the eighth aspect of the present invention is configured as described in the first or second aspect, and the avatar object is one of the objects preset as objects included in the learning content.
第8の態様に係る通信教育システムによれば、ユーザは、学習用コンテンツに含まれるオブジェクトとして予め設定されたオブジェクトの一つをアバターオブジェクトとして設定し、仮想空間上でコミュニケーションを図ることができる。 According to the eighth aspect of the distance learning system, a user can set one of the objects that is pre-set as an object included in the learning content as an avatar object and communicate in a virtual space.
本発明の第9の態様に係る通信教育提供方法は、仮想空間上に展開される学習用コンテンツを用いて通信教育を提供する通信教育提供方法であって、指導者側又は生徒側のユーザのアバターオブジェクトを設定し、ネットワークを介して前記仮想空間に接続されたユーザ端末から前記ユーザの動作情報を取得し、取得された前記動作情報に基づいて、前記アバターオブジェクトの実動作アニメーションを作成し、前記仮想空間上に、前記学習用コンテンツとともに前記実動作アニメーションとを表示させる。 A ninth aspect of the present invention is a method for providing distance education using learning content deployed in a virtual space, which sets an avatar object of a user on the instructor's side or the student's side, acquires motion information of the user from a user terminal connected to the virtual space via a network, creates an animation of actual motion of the avatar object based on the acquired motion information, and displays the animation of actual motion together with the learning content in the virtual space.
本発明の第10の態様に係る通信教育提供プログラムは、仮想空間上に展開される学習用コンテンツを用いて通信教育を提供するための通信教育提供プログラムであって、指導者側又は生徒側のユーザのアバターオブジェクトを設定し、ネットワークを介して前記仮想空間に接続されたユーザ端末から前記ユーザの動作情報を取得し、取得された前記動作情報に基づいて、前記アバターオブジェクトの実動作アニメーションを作成し、前記仮想空間上に、前記学習用コンテンツとともに前記実動作アニメーションとを表示させる、処理をコンピュータに実行させる。 The correspondence education provision program according to the tenth aspect of the present invention is a correspondence education provision program for providing correspondence education using learning content deployed in a virtual space, and causes a computer to execute the following processes: setting an avatar object of a user on the instructor's side or the student's side, acquiring motion information of the user from a user terminal connected to the virtual space via a network, creating an actual motion animation of the avatar object based on the acquired motion information, and displaying the actual motion animation together with the learning content in the virtual space.
以上説明したように、本発明に係る通信教育システム、通信教育提供方法及び通信教育提供プログラムでは、仮想空間上に展開される学習用コンテンツを用いて通信教育を行う際に、ユーザがアバターオブジェクトを介してコミュニケーションを図るための視覚効果を高めることができる。 As described above, the distance education system, distance education provision method, and distance education provision program of the present invention can enhance the visual effect for users to communicate through avatar objects when taking distance education using learning content deployed in a virtual space.
以下、図1~図9を参照して、本実施形態に係る通信教育システム1について説明する。本実施形態に係る通信教育システム1は、ユーザに向けて学習用コンテンツを配信するコンピュータシステムである。コンテンツとは、コンピュータ又はコンピュータシステムによって提供され、人が認識可能な情報である。コンテンツを示す電子データのことをコンテンツデータという。コンテンツの表現形式は限定されない。コンテンツは、例えば、画像(例えば、写真、映像等)、文書、音声、音楽、又はこれらの中の任意の2以上の要素の組合せによって表現されてもよい。学習用コンテンツは、学習用に用いられる様々な態様の情報伝達又はコミュニケーションのために用いることができる。学習用コンテンツは、例えば、エンターテインメント、ニュース、知育、教育、医療、ゲーム、チャット、商取引、講演、セミナー、研修等の様々な場面又は目的で利用され得る。また、学習用コンテンツとは、指導者側のユーザが生徒側のユーザに向けて配信するコンテンツである。指導者とは学業、技芸などを教える人のことをいい、生徒とはその教えを受ける人のことをいう。指導者は配信者の一例であり、生徒は視聴者の一例である。指導者は教員免許を持つ人であってもよいし、教員免許を持たない人でもよい。指導者および生徒のそれぞれについて年齢および所属は限定されず、したがって、学習用コンテンツの目的および利用場面も限定されない。例えば、学習用コンテンツは、保育園、幼稚園、小学校、中学校、高等学校、大学、大学院、専門学校、予備校、オンライン学校などの各種の学校で用いられてよいし、家庭内など、学校以外の場所または場面で用いられてもよい。これに関連して、学習用コンテンツは、知育、幼児教育、義務教育、高等教育、生涯学習などの様々な目的で用いられ得る。配信とは、通信ネットワーク又は放送ネットワークを経由して情報をユーザに向けて送信する処理である。 The distance learning system 1 according to the present embodiment will be described below with reference to Figs. 1 to 9. The distance learning system 1 according to the present embodiment is a computer system that distributes learning content to users. Content is information provided by a computer or a computer system and recognizable by humans. Electronic data indicating content is called content data. The expression format of content is not limited. Content may be expressed, for example, by an image (for example, a photograph, a video, etc.), a document, a voice, music, or a combination of any two or more elements among these. Learning content can be used for various forms of information transmission or communication used for learning. Learning content can be used in various situations or purposes, such as entertainment, news, intellectual training, education, medical care, games, chat, business transactions, lectures, seminars, training, etc. In addition, learning content is content that is distributed by a user on the instructor side to a user on the student side. An instructor is a person who teaches academics, arts, etc., and a student is a person who receives the teaching. An instructor is an example of a distributor, and a student is an example of a viewer. An instructor may be a person with a teaching license or a person without a teaching license. There are no limitations on the age or affiliation of the instructor or student, and therefore there are no limitations on the purpose or use of the learning content. For example, the learning content may be used in various schools, such as nursery schools, kindergartens, elementary schools, junior high schools, high schools, universities, graduate schools, vocational schools, preparatory schools, and online schools, or may be used in places or situations other than schools, such as at home. In this regard, the learning content may be used for various purposes, such as intellectual development, early childhood education, compulsory education, higher education, and lifelong learning. Distribution is the process of transmitting information to users via a communication network or broadcasting network.
通信教育システム1は、コンテンツデータをユーザ端末30(30A,30B)に送信することで、学習用コンテンツをユーザに提供する。また、本実施形態では、学習用コンテンツは、少なくとも仮想空間に展開される画像を用いて表現される。すなわち、コンテンツデータには、少なくとも学習用コンテンツを示すコンテンツ画像が含まれる。コンテンツ画像は、人が視覚を通して何らかの情報を認識することができる像である。コンテンツ画像は、動画像(映像)でもよいし静止画でもよい。 The distance learning system 1 provides learning content to the user by transmitting content data to the user terminal 30 (30A, 30B). In this embodiment, the learning content is represented using at least images deployed in a virtual space. That is, the content data includes at least a content image showing the learning content. A content image is an image that allows a person to recognize some information through their eyesight. The content image may be a moving image (video) or a still image.
一例では、コンテンツ画像は、複数のオブジェクトが存在する仮想空間を表現する。複数のオブジェクトとは、仮想オブジェクトである。仮想オブジェクトは、現実世界には存在せず、コンピュータシステム上でのみ表現される物体である。仮想オブジェクトは、実写画像とは独立した画像素材を用いて、2次元又は3次元のコンピュータグラフィックス(CG)によって表現される。仮想オブジェクトの表現方法は限定されない。例えば、仮想オブジェクトは、アニメーション素材を用いて表現されてもよいし、実写画像に基づいて本物に近いように表現されてもよい。仮想空間は、コンピュータ上に表示される画像によって表現される仮想の2次元又は3次元の空間である。コンテンツ画像は、例えば、仮想空間内に設定された仮想カメラから見える風景を示す画像である。 In one example, the content image represents a virtual space in which multiple objects exist. The multiple objects are virtual objects. Virtual objects are objects that do not exist in the real world and are represented only on a computer system. Virtual objects are represented by two-dimensional or three-dimensional computer graphics (CG) using image materials independent of live-action images. There are no limitations on the method of representing virtual objects. For example, virtual objects may be represented using animation materials, or may be represented based on live-action images to resemble the real thing. The virtual space is a virtual two-dimensional or three-dimensional space represented by an image displayed on a computer. The content image is, for example, an image showing a landscape seen from a virtual camera set in the virtual space.
本実施形態では、仮想オブジェクトの一例として、ユーザの分身であるアバターオブジェクトがある。アバターオブジェクトは、撮影された人そのものではなく、原画像とは独立した画像素材を用いて、2次元又は3次元のコンピュータグラフィックス(CG)によって表現される。アバターオブジェクトの表現方法は限定されない。例えば、アバターオブジェクトは、アニメーション素材を用いて個性的な外観に表現されてもよいし、実写画像に基づいて本物に近いように表現されてもよい。また、アバターオブジェクトは、ユーザによって予め設定された任意のオブジェクトでもよいし、学習用コンテンツに含まれるオブジェクトとして予め設定されたオブジェクトの一つであってもよい。ユーザは、仮想空間上に配置されたアバターを介して、他のユーザへの情報伝達を行い、他のユーザとの相互コミュニケーションを図ることができる。また、ユーザは、仮想空間に展開された学習用コンテンツのコンテンツ画像を見ることで、拡張現実(AR:Augmented Reality)、仮想現実(VR:Virtual Reality)、又は複合現実(MR:Mixed Reality)を体験することができる。 In this embodiment, an example of a virtual object is an avatar object that is an alter ego of a user. The avatar object is not the person photographed, but is expressed by two-dimensional or three-dimensional computer graphics (CG) using image material independent of the original image. The method of expressing the avatar object is not limited. For example, the avatar object may be expressed with a unique appearance using animation material, or may be expressed based on a live-action image to be close to the real thing. In addition, the avatar object may be any object preset by the user, or may be one of the objects preset as an object included in the learning content. A user can transmit information to other users through an avatar placed in a virtual space and communicate with other users. In addition, a user can experience augmented reality (AR), virtual reality (VR), or mixed reality (MR) by viewing the content image of the learning content deployed in the virtual space.
(システムの全体概要)
図1実施形態に係る通信教育システム1の適用の一例を示す図である。本実施形態では、通信教育システム1は、サーバ10、コンテンツ作成装置20、及びユーザ端末30(30A,30B)と、を備える。通信教育システム1では、サーバ10、コンテンツ作成装置20及びユーザ端末30がネットワークNを介して接続されている。
(Overall system overview)
FIG. 1 is a diagram showing an example of application of the correspondence education system 1 according to the embodiment of FIG. In this embodiment, the correspondence education system 1 includes a server 10, a content creation device 20, and a user terminal 30 (30A, 30B). In the correspondence education system 1, the server 10, the content creation device 20, and the user terminal 30 are connected via a network N.
サーバ10は、サーバコンピュータであり、学習用コンテンツが登録されるコンテンツデータベース14Bを有する。また、サーバ10は、種々のユーザ情報が登録されるユーザデータベース14Cを有する。サーバ10は、ユーザ端末30からの要求により、ユーザ端末30に学習用コンテンツを配信する。また、サーバ10は、ユーザ端末からの要求により、ユーザの動作に対応するアバターオブジェクトのアニメーションを作成し、学習用コンテンツとともに仮想空間上に表示する。 The server 10 is a server computer, and has a content database 14B in which learning content is registered. The server 10 also has a user database 14C in which various user information is registered. The server 10 distributes learning content to the user terminal 30 in response to a request from the user terminal 30. The server 10 also creates animations of avatar objects corresponding to the user's movements in response to a request from the user terminal, and displays these animations in the virtual space together with the learning content.
コンテンツ作成装置20は、学習用コンテンツを作成するために用いられるコンピュータである。コンテンツ作成装置20で作成されたコンテンツは、サーバ10に送信され、コンテンツデータベース14Bに登録される。 The content creation device 20 is a computer used to create learning content. The content created by the content creation device 20 is sent to the server 10 and registered in the content database 14B.
ユーザ端末30は、コンテンツを利用するユーザによって用いられるコンピュータである。本実施形態の一例では、ユーザは、学習用コンテンツを配信する指導者と、指導者の指導のもと、学習用コンテンツを利用する生徒に対応する。図1では、指導者側のユーザが用いる端末がユーザ端末30Aとして示され、生徒側のユーザが用いる端末がユーザ端末30Bとして示されている。 The user terminal 30 is a computer used by a user who uses the content. In one example of this embodiment, the users correspond to an instructor who distributes the learning content and a student who uses the learning content under the instructor's guidance. In FIG. 1, the terminal used by the instructor's user is shown as user terminal 30A, and the terminal used by the student's user is shown as user terminal 30B.
(システムのハードウェア構成)
図2は、通信教育システム1に関連するハードウェア構成の一例を示す図である。
(System hardware configuration)
FIG. 2 is a diagram showing an example of a hardware configuration related to the correspondence education system 1. As shown in FIG.
(サーバ10)
一例として、サーバ10は、ハードウェア構成として、CPU(Central Processing Unit:プロセッサ)11、ROM(Read Only Memory)12、RAM(Random Access Memory)13、記憶部14、入力部15、表示部16、及び通信部17を備えている。各構成は、バス18を介して相互に通信可能に接続されている。
(Server 10)
As an example, the server 10 includes, as hardware components, a CPU (Central Processing Unit: processor) 11, a ROM (Read Only Memory) 12, a RAM (Random Access Memory) 13, a storage unit 14, an input unit 15, a display unit 16, and a communication unit 17. Each component is connected to each other via a bus 18 so as to be able to communicate with each other.
プロセッサとしてのCPU11は、オペレーティングシステム及びアプリケーションプログラムを実行する中央演算処理ユニットである。CPU11は、ROM12又は記憶部14からプログラムを読み出し、RAM13を作業領域としてプログラムを実行する。CPU11は、ROM12又は記憶部14に記録されたプログラムにしたがって、上記各構成の制御及び各種の演算処理を行う。 The CPU 11 as a processor is a central processing unit that executes an operating system and application programs. The CPU 11 reads out programs from the ROM 12 or the storage unit 14, and executes the programs using the RAM 13 as a working area. The CPU 11 controls each of the above components and performs various calculation processes according to the programs recorded in the ROM 12 or the storage unit 14.
ROM12は、各種プログラム及び各種データを格納する。RAM13は、作業領域として一時的にプログラム又はデータを記憶する。 ROM 12 stores various programs and data. RAM 13 temporarily stores programs or data as a working area.
記憶部14は、HDD(Hard Disk Drive)、SSD(Solid State Drive)又はフラッシュメモリ等の記憶装置により構成され、各種プログラム及び各種データを格納する。記憶部14には、CPU11に後述するアバター表示処理及びコンテンツ実行処理を実行させるためのサーバプログラム14Aが格納されている。また、記憶部14には、学習用コンテンツが登録されるコンテンツデータベース14Bと、ユーザに対応するアバターオブジェクトの画像が登録されるユーザデータベース14Cが格納されている。 The storage unit 14 is configured with a storage device such as a hard disk drive (HDD), a solid state drive (SSD) or a flash memory, and stores various programs and various data. The storage unit 14 stores a server program 14A for causing the CPU 11 to execute an avatar display process and a content execution process, which will be described later. The storage unit 14 also stores a content database 14B in which learning content is registered, and a user database 14C in which images of avatar objects corresponding to users are registered.
入力部15は、マウス等のポインティングデバイス、キーボード、マイク、及びカメラ等を含み、各種の入力を行うために使用される。 The input unit 15 includes a pointing device such as a mouse, a keyboard, a microphone, a camera, etc., and is used to perform various inputs.
表示部16は、例えば、液晶ディスプレイであり、種々の情報を表示する。表示部16は、タッチパネル方式を採用して、入力部15として機能してもよい。 The display unit 16 is, for example, a liquid crystal display, and displays various information. The display unit 16 may also function as the input unit 15 by adopting a touch panel system.
通信部17は、他の機器と通信するためのインターフェースである。当該通信には、例えば、イーサネット(登録商標)若しくはFDDI等の有線通信の規格、又は、4G、5G、Bluetooth(登録商標)、若しくはWi-Fi(登録商標)等の無線通信の規格が用いられる。通信部17は、ネットワークNに対して接続されている。 The communication unit 17 is an interface for communicating with other devices. For this communication, for example, a wired communication standard such as Ethernet (registered trademark) or FDDI, or a wireless communication standard such as 4G, 5G, Bluetooth (registered trademark), or Wi-Fi (registered trademark) is used. The communication unit 17 is connected to the network N.
(コンテンツ作成装置20)
コンテンツ作成装置20は、ハードウェア構成として、CPU21、ROM22、RAM23、記憶部24、入力部25、表示部26、及び通信部27を備えている。各構成は、バス28を介して相互に通信可能に接続されている。
(Content creating device 20)
The content creating device 20 includes, as its hardware configuration, a CPU 21, a ROM 22, a RAM 23, a storage unit 24, an input unit 25, a display unit 26, and a communication unit 27. Each component is connected to each other via a bus 28 so as to be able to communicate with each other.
CPU21は、オペレーティングシステム及びアプリケーションプログラムを実行する中央演算処理ユニットである。CPU21は、ROM22又は記憶部24からプログラムを読み出し、RAM23を作業領域としてプログラムを実行する。 The CPU 21 is a central processing unit that executes an operating system and application programs. The CPU 21 reads programs from the ROM 22 or the storage unit 24, and executes the programs using the RAM 23 as a working area.
ROM22は、各種プログラム及び各種データを格納する。RAM23は、作業領域として一時的にプログラム又はデータを記憶する。 The ROM 22 stores various programs and data. The RAM 23 temporarily stores programs or data as a working area.
記憶部24は、HDD、SSD又はフラッシュメモリ等の記憶装置により構成され、各種プログラム及び各種データを格納する。記憶部24には、CPU21に後述するコンテンツ作成処理を実行するためのクリエイタプログラム24Aが格納されている。 The storage unit 24 is configured with a storage device such as an HDD, SSD, or flash memory, and stores various programs and various data. The storage unit 24 stores a creator program 24A for causing the CPU 21 to execute the content creation process described below.
入力部25は、マウス等のポインティングデバイス、キーボード、マイク、及びカメラ等を含み、各種の入力を行うために使用される。 The input unit 25 includes a pointing device such as a mouse, a keyboard, a microphone, a camera, etc., and is used to perform various inputs.
表示部26は、例えば、液晶ディスプレイであり、種々の情報を表示する。表示部26は、タッチパネル方式を採用して、入力部25として機能してもよい。 The display unit 26 is, for example, a liquid crystal display, and displays various information. The display unit 26 may be a touch panel type and function as the input unit 25.
通信部27は、他の機器と通信するためのインターフェースである。通信部27は、ネットワークNに対して接続されている。 The communication unit 27 is an interface for communicating with other devices. The communication unit 27 is connected to the network N.
(ユーザ端末30)
ユーザ端末30は、ハードウェア構成として、CPU31、ROM32、RAM33、記憶部34、入力部35、表示部36、及び通信部37を備えている。各構成は、バス38を介して相互に通信可能に接続されている。
(User terminal 30)
The user terminal 30 includes, as its hardware configuration, a CPU 31, a ROM 32, a RAM 33, a storage unit 34, an input unit 35, a display unit 36, and a communication unit 37. Each component is connected to each other via a bus 38 so as to be able to communicate with each other.
CPU31は、オペレーティングシステム及びアプリケーションプログラムを実行する中央演算処理ユニットである。CPU31は、ROM32又は記憶部34からプログラムを読み出し、RAM33を作業領域としてプログラムを実行する。 The CPU 31 is a central processing unit that executes an operating system and application programs. The CPU 31 reads programs from the ROM 32 or the memory unit 34, and executes the programs using the RAM 33 as a working area.
ROM32は、各種プログラム及び各種データを格納する。RAM33は、作業領域として一時的にプログラム又はデータを記憶する。 ROM 32 stores various programs and data. RAM 33 temporarily stores programs or data as a working area.
記憶部34は、HDD、SSD又はフラッシュメモリ等の記憶装置により構成され、各種プログラム及び各種データを格納する。 The memory unit 34 is composed of a storage device such as a HDD, SSD, or flash memory, and stores various programs and data.
指導者側のユーザが利用するユーザ端末30Aには、記憶部34に、CPU31によって実行される指導者側アプリケーション34Aが格納されている。即ち、ユーザは、ユーザ端末30Aで指導者側アプリケーション34Aを実行することにより、指導者側のユーザとなる。 In the user terminal 30A used by the instructor-side user, an instructor-side application 34A executed by the CPU 31 is stored in the storage unit 34. That is, the user becomes a user on the instructor-side by executing the instructor-side application 34A on the user terminal 30A.
生徒側のユーザが利用するユーザ端末30Bには、記憶部34に、CPU31によって実行される生徒側アプリケーション34Bが格納されている。即ち、ユーザは、ユーザ端末30Aで生徒側アプリケーション34Bを実行することにより、生徒側のユーザとなる。 In the user terminal 30B used by the student user, a student application 34B executed by the CPU 31 is stored in the memory unit 34. That is, the user becomes a student user by executing the student application 34B on the user terminal 30A.
上記の指導者側アプリケーション34A及び生徒側アプリケーション34Bは、プログラムと称されるものであってもよい。 The instructor's application 34A and the student's application 34B may be referred to as programs.
入力部35は、マウス等のポインティングデバイス、キーボード、マイク、センサ及びカメラ等を含み、各種の入力を行うために使用される。ここで、本実施形態では、一例として、入力部35に含まれるカメラによってユーザを撮影し、撮影画像に基づいて、ユーザの動作情報(例えば、視線、ユーザの頭部の動き、ユーザの頭部以外の身体の一部(例えば手等)の動き(いわゆるジェスチャ)、表情等)を取得する。なお、この動作情報は、ジャイロセンサや加速度センサ等のセンサによって検出されたユーザのモーションデータでもよい。 The input unit 35 includes a pointing device such as a mouse, a keyboard, a microphone, a sensor, a camera, etc., and is used to perform various inputs. Here, in this embodiment, as an example, the camera included in the input unit 35 captures an image of the user, and based on the captured image, the user's motion information (e.g., line of sight, movement of the user's head, movement of parts of the user's body other than the head (e.g., hands, etc.) (so-called gestures), facial expressions, etc.) is obtained. Note that this motion information may be user motion data detected by a sensor such as a gyro sensor or an acceleration sensor.
表示部36は、例えば、液晶ディスプレイであり、種々の情報を表示する。表示部26は、タッチパネル方式を採用して、入力部35として機能してもよい。 The display unit 36 is, for example, a liquid crystal display, and displays various information. The display unit 26 may also function as the input unit 35 by adopting a touch panel system.
通信部37は、他の機器と通信するためのインターフェースである。通信部37は、ネットワークNに対して接続されている。 The communication unit 37 is an interface for communicating with other devices. The communication unit 37 is connected to the network N.
(コンテンツ作成処理に関するシステムの機能構成)
図3には、通信教育システム1のコンテンツ作成処理に関連する機能構成の一例を示す図である。コンテンツ作成処理とは、コンテンツ作成装置20によって学習用コンテンツを作成し、サーバ10に送信する処理である。
(System Functional Configuration Related to Content Creation Processing)
3 is a diagram showing an example of a functional configuration related to a content creation process of the correspondence education system 1. The content creation process is a process in which learning content is created by the content creation device 20 and transmitted to the server 10.
サーバ10は、コンテンツ作成処理に関する機能構成として、受信部101及びコンテンツ登録部102を備える。受信部101は、コンテンツ作成装置20から送信された学習用コンテンツデータを受信する。コンテンツ登録部102は、受信した学習用コンテンツデータをコンテンツデータベース14Bに保存(登録)する。 The server 10 includes a receiving unit 101 and a content registration unit 102 as functional components related to the content creation process. The receiving unit 101 receives learning content data transmitted from the content creation device 20. The content registration unit 102 stores (registers) the received learning content data in the content database 14B.
コンテンツ作成装置20は、コンテンツ作成処理に関する機能構成として、コンテンツ要素登録部201、操作情報取得部202、コンテンツ設定部203及び送信部204を備える。 The content creation device 20 includes a content element registration unit 201, an operation information acquisition unit 202, a content setting unit 203, and a transmission unit 204 as functional components related to the content creation process.
コンテンツ要素登録部201は、学習用コンテンツを構成するコンテンツ要素のデータを記憶部24に保存(登録)する。コンテンツ要素とは、例えば、仮想空間上に展開されるオブジェクトのデータや、テキストデータ、背景データ等である。 The content element registration unit 201 stores (registers) data of the content elements that make up the learning content in the storage unit 24. Content elements include, for example, data of objects deployed in a virtual space, text data, background data, etc.
操作情報取得部202は、コンテンツ制作者側のユーザの操作情報を取得する。具体的には、操作情報取得部202は、コンテンツ作成装置20の入力部25に入力された入力情報を操作情報として取得する。 The operation information acquisition unit 202 acquires operation information of a user on the content creator side. Specifically, the operation information acquisition unit 202 acquires input information input to the input unit 25 of the content creation device 20 as operation information.
コンテンツ設定部203は、操作情報取得部202で取得された操作情報に基づいて、学習用コンテンツの設定を行う。 The content setting unit 203 sets the learning content based on the operation information acquired by the operation information acquisition unit 202.
本実施形態の一例では、学習用コンテンツは、所定の学習シーンに対応付けられた複数のチャプタを含むように設定可能に構成されている。学習用コンテンツは、例えば、一のチャプタから他のチャプタへ移動することにより、学習シーンを切り替えて進行する。なお、学習シーンの定義は限定されない。例えば、幼児教育における読み聞かせ用の童話を提供する学習用コンテンツにおいては、学習シーンが童話のワンシーンを構成してもよい。また、例えば、特定の時代や所定の世界観をテーマとする仮想空間での体験を提供する学習用コンテンツにおいては、各学習シーンが、仮想空間内のマップにおける所定の地点を構成してもよい。また、例えば、予備校等の受験機関によって教材を提供する学習用コンテンツにおいては、各学習シーンが教材の学習項目に対応してもよい。 In one example of this embodiment, the learning content is configured to be configurable to include multiple chapters associated with specific learning scenes. The learning content progresses by switching learning scenes, for example, by moving from one chapter to another. The definition of a learning scene is not limited. For example, in learning content that provides a fairy tale to be read aloud in early childhood education, a learning scene may constitute one scene in a fairy tale. Also, for example, in learning content that provides an experience in a virtual space themed on a specific era or a specific worldview, each learning scene may constitute a specific point on a map in the virtual space. Also, for example, in learning content in which teaching materials are provided by an examination institution such as a cram school, each learning scene may correspond to a learning item in the teaching materials.
コンテンツ設定部203は、チャプタ毎に少なくとも一つのイベントを設定する機能を有する。各イベントは学習用コンテンツの進行に関与するイベントであり、例えば、学習シーンの切り替えを行うことが含まれる。また、学習用コンテンツの進行に関するイベントは、生徒側のユーザの反応を引き出すために同一の学習シーンの中で発動されるイベントであってもよい。この場合、指導者側のユーザに、学習用コンテンツの進行に関する判断材料として、生徒側のユーザの反応が提供される。 The content setting unit 203 has a function of setting at least one event for each chapter. Each event is an event that is involved in the progress of the learning content, and includes, for example, switching of learning scenes. Furthermore, an event related to the progress of the learning content may be an event that is triggered within the same learning scene in order to elicit a reaction from the student user. In this case, the reaction of the student user is provided to the instructor user as information for judging the progress of the learning content.
また、コンテンツ設定部203は、学習用コンテンツの各チャプタの並びと、各チャプタの所要時間を設定する機能を有する。学習用コンテンツは、実行中のチャプタについて予め設定された所要時間が経過すると次のチャプタへ移動することで学習シーンの切り替えを行うことができる。 The content setting unit 203 also has a function for setting the order of each chapter of the learning content and the required time for each chapter. The learning content can switch learning scenes by moving to the next chapter when a preset required time for the currently running chapter has elapsed.
コンテンツ設定部203は、各チャプタに含まれる複数のオブジェクトや背景を設定することができる。また、コンテンツ設定部203は、仮想オブジェクトとして学習用コンテンツに含まれるオブジェクトのうち、所定のオブジェクトをイベント発動のトリガーとなる実行オブジェクトとして設定する機能を有する。 The content setting unit 203 can set multiple objects and backgrounds included in each chapter. The content setting unit 203 also has a function of setting a specific object, which is included in the learning content as a virtual object, as an execution object that will be a trigger for activating an event.
また、コンテンツ設定部203は、仮想オブジェクトとして学習用コンテンツに含まれるオブジェクトのうち、所定のオブジェクトをアバターオブジェクトとして設定する機能を有する。アバターオブジェクトとして設定されたオブジェクトは、後述するアバターオブジェクト表示処理の実行により、対応するユーザの動作情報に基づくアニメーションによって表示される。 The content setting unit 203 also has a function of setting a specific object, which is included in the learning content as a virtual object, as an avatar object. The object set as the avatar object is displayed by animation based on the motion information of the corresponding user by executing the avatar object display process described below.
なお、学習用コンテンツに含まれる上記実行オブジェクト及びアバターオブジェクトは、コンテンツ制作者側のユーザによって予め設定される。 The execution objects and avatar objects included in the learning content are set in advance by the user on the content creator side.
コンテンツ設定部203は、イベントを発動させる所定の条件を設定する機能を有する。例えば、学習用コンテンツに含まれる実行オブジェクトが、指導者側又は生徒側のユーザ端末30を介して操作されることを条件にイベントが発動されるように設定してもよい。 The content setting unit 203 has a function of setting a predetermined condition for triggering an event. For example, an event may be set to be triggered on the condition that an execution object included in the learning content is operated via the user terminal 30 of the instructor or the student.
なお、ユーザ端末30を介して行われる実行オブジェクトへの操作には、タッチ操作、位置の移動操作、表示向きの変更操作を含んでおり、これらの操作のうちの一つ又はこれらの操作の組み合わせをイベントを発動させる所定の条件として設定することができる。即ち、ユーザ端末30を介して仮想空間上のオブジェクトに対して直接行われる操作をトリガーとしてイベントを発動させることができる。 Operations performed on an execution object via the user terminal 30 include touch operations, position movement operations, and display orientation change operations, and one or a combination of these operations can be set as a predetermined condition for triggering an event. In other words, an event can be triggered by an operation performed directly on an object in the virtual space via the user terminal 30.
ここで、本実施形態では、実行オブジェクトとして、指導者用オブジェクト、生徒用オブジェクト、相互オブジェクトの設定が可能となっている。指導者用オブジェクトは、指導者側アプリケーション34Aを介して操作可能なオブジェクトであり、指導者側のユーザの操作をトリガーとしてイベントを発動させることができる。生徒用オブジェクトは、生徒側アプリケーション34Bを介して操作可能なオブジェクトであり、生徒側のユーザの操作をトリガーとしてイベントを発動させることができる。相互オブジェクトは、指導者側アプリケーション34A及び生徒側アプリケーション34Bの双方から操作可能なオブジェクトである。 In this embodiment, it is possible to set instructor objects, student objects, and mutual objects as execution objects. Instructor objects are objects that can be operated via the instructor's application 34A, and can cause events to be triggered by operations by the instructor's user. Student objects are objects that can be operated via the student's application 34B, and can cause events to be triggered by operations by the student's user. Mutual objects are objects that can be operated from both the instructor's application 34A and the student's application 34B.
また、コンテンツ設定部203は、チャプタ内のタイムライン上にイベントが発動される所定時刻を設定し、チャプタ内において所定時刻が経過したことを条件としてイベントが発動されるように設定することができる。これにより、実行オブジェクトに対する操作が行われなかった場合でも、シナリオを進行させることができる。 The content setting unit 203 can also set a specific time on the timeline within a chapter at which an event is to be triggered, and set the event to be triggered when the specific time has passed within the chapter. This allows the scenario to progress even if no operation is performed on the execution object.
このようにして、本実施形態の学習用コンテンツには、コンテンツ設定部203野機能により、イベントが発動される複数の条件が設定可能となっている。これにより、指導者側又は生徒側のユーザによる学習用コンテンツへの関与によって学習用コンテンツの進行を積極的に変化させることができる。 In this way, the content setting unit 203 functions to set multiple conditions for triggering events in the learning content of this embodiment. This allows the progress of the learning content to be actively changed by the involvement of the instructor or student user in the learning content.
送信部204は、コンテンツ設定部203で作成された学習用コンテンツをサーバ10に送信する。 The transmission unit 204 transmits the learning content created by the content setting unit 203 to the server 10.
(コンテンツ作成処理の動作)
図4を参照して、コンテンツ作成処理の動作の一例を説明する。図4は、学習用コンテンツの制作時に、コンテンツ作成装置20に表示される表示画面の一例である。コンテンツ作成処理は、CPU21が記憶部24からクリエイタプログラム24Aを読み出して、RAM23に展開して実行することにより、行われる。
(Content Creation Process Operation)
An example of the operation of the content creation process will be described with reference to Fig. 4. Fig. 4 shows an example of a display screen displayed on the content creation device 20 when creating learning content. The content creation process is performed by the CPU 21 reading out the creator program 24A from the storage unit 24, expanding it in the RAM 23, and executing it.
図4に示されるように、表示画面400の上部には、作成中のチャプタを選択するためのチャプタ選択部401が設けられている。ユーザは、入力部25への入力操作によって、チャプタ選択部401に表示されたチャプタの中から任意のチャプタを選択し、選択したチャプタの設定を行う。 As shown in FIG. 4, a chapter selection section 401 for selecting a chapter being created is provided at the top of the display screen 400. The user selects an arbitrary chapter from among the chapters displayed in the chapter selection section 401 by performing an input operation on the input section 25, and sets the selected chapter.
また、表示画面400には、操作領域として第1操作フィールドF1~第3操作フィールドF3が設けられている。第1操作フィールドF1には、コンテンツ制作者側のユーザによって予め登録されたコンテンツ要素402が表示される。第2操作フィールドF2には、選択中のチャプタに対応する学習用コンテンツの学習シーンが表示される。コンテンツ作成処理では、例えば、マウス等のポインティングデバイスを用いたドラッグ&ドロップ操作により、第1操作フィールドF1から第2操作フィールドF2へと移動された任意のコンテンツ要素402を選択中のチャプタに含まれるオブジェクトやイベントとして設定する。図示の例では、第1操作フィールドF1に、第1風船Q1,第2風船Q2,キャラクターオブジェクトP1等のコンテンツ要素402として表示されている。そして、ドラッグ&ドロップ操作により、第1風船Q1が第1操作フィールドF1から第2操作フィールドF2へと移動されることにより、チャプタ1に含まれるオブジェクトとして設定された場合を示している。 The display screen 400 also has a first operation field F1 to a third operation field F3 as operation areas. The first operation field F1 displays content elements 402 registered in advance by a user on the content creator side. The second operation field F2 displays a learning scene of the learning content corresponding to the selected chapter. In the content creation process, for example, by a drag-and-drop operation using a pointing device such as a mouse, any content element 402 moved from the first operation field F1 to the second operation field F2 is set as an object or event included in the selected chapter. In the illustrated example, the first balloon Q1, the second balloon Q2, the character object P1, and other content elements 402 are displayed in the first operation field F1. The example shows a case where the first balloon Q1 is moved from the first operation field F1 to the second operation field F2 by a drag-and-drop operation and set as an object included in chapter 1.
図4に示されるように、第2操作フィールドF2に移動されたコンテンツ要素402(図示では第1風船Q1)は、第3操作フィールドF3に一覧として表示される。ユーザは、第3操作フィールドF3で任意のコンテンツ要素を選択し、選択したコンテンツ要素の詳細を設定することができる。例えば、第3操作フィールドF3における操作によって、任意の学習用コンテンツに含まれる所定のオブジェクトをイベント発動のトリガーとなる実行オブジェクトや、指導者側又は生徒側のユーザのアバターオブジェクトとして設定することができる。また、実行オブジェクトを設定した場合に、実行オブジェクトについて、生徒側又は指導者側のユーザ端末を介して行うことができる操作の中からイベント発動のトリガーとなる所定の操作を設定する。また、第3操作フィールドF3で任意のイベントを選択し、選択したイベントについて、チャプタ内のタイムライン上でイベントが発動される所定時刻を設定することができる。 As shown in FIG. 4, the content element 402 (first balloon Q1 in the figure) moved to the second operation field F2 is displayed as a list in the third operation field F3. The user can select any content element in the third operation field F3 and set the details of the selected content element. For example, by operating the third operation field F3, a specific object included in any learning content can be set as an execution object that triggers an event or an avatar object of the instructor or student user. When an execution object is set, a specific operation that triggers an event is set for the execution object from among operations that can be performed via the student or instructor user terminal. Also, an event can be selected in the third operation field F3 and a specific time at which the selected event is to be triggered on the timeline in the chapter can be set.
学習用コンテンツに含まれる複数のチャプタの設定作業が完了した後、ユーザによって、学習用コンテンツの送信を指示する操作が行われることにより、作成された学習用コンテンツがサーバ10に送信され、コンテンツ作成処理が終了する。 After completing the setting work for the multiple chapters included in the learning content, the user performs an operation to instruct the sending of the learning content, whereby the created learning content is sent to the server 10, and the content creation process ends.
(アバター表示処理及びコンテンツ実行処理に関するシステムの機能構成)
図5には、通信教育システム1のアバターオブジェクト表示処理及びコンテンツ実行処理に関する機能構成の一例を示す図である。アバターオブジェクト表示処理とは、指導者側又は生徒側のユーザのアバターオブジェクトを学習用コンテンツとともに仮想空間に表示させる処理である。また、コンテンツ実行処理とは、ユーザ端末30から受け付けた操作情報等に基づいて、学習用コンテンツを進行させる処理である。
(System Functional Configuration Related to Avatar Display Processing and Content Execution Processing)
5 is a diagram showing an example of a functional configuration related to an avatar object display process and a content execution process of the correspondence education system 1. The avatar object display process is a process for displaying an avatar object of a user on the instructor's side or the student's side together with learning content in a virtual space. The content execution process is a process for progressing through the learning content based on operation information and the like received from the user terminal 30.
サーバ10は、アバター表示処理及びコンテンツ実行処理に関する機能構成として、受信部101、アニメーション作成部103、コンテンツ実行部104、画像処理部105及び送信部106を備える。受信部101は、ユーザ端末30から送信されたデータ信号を受信する。ユーザ端末30から送信されるデータ信号には、ユーザ端末30で取得されたユーザの動作情報と、ユーザによって、ユーザ端末30に行われた操作情報が含まれる。また、操作情報には、ユーザ端末30を介して仮想空間に対して行われた操作に関する情報が含まれる。なお、ユーザの動作情報は、ユーザの身体全体の動作情報に限らず、ユーザの身体の一部の動作情報であってもよい。例えば、ユーザの頭部の動きと、表情の変化をユーザ情報として送信してもよい。 The server 10 includes a receiving unit 101, an animation creating unit 103, a content executing unit 104, an image processing unit 105, and a transmitting unit 106 as functional configurations related to the avatar display processing and the content execution processing. The receiving unit 101 receives a data signal transmitted from the user terminal 30. The data signal transmitted from the user terminal 30 includes user motion information acquired by the user terminal 30 and operation information performed by the user on the user terminal 30. The operation information includes information related to operations performed on the virtual space via the user terminal 30. Note that the user motion information is not limited to motion information of the user's entire body, but may be motion information of a part of the user's body. For example, the movement of the user's head and changes in facial expression may be transmitted as user information.
アニメーション作成部103は、受信部101で受信したユーザの動作情報に基づいて、ユーザに対応するアバターオブジェクトの実動作アニメーションを作成する。この実動作アニメーションは、実空間でのユーザの動作をアバターオブジェクトの画像(以下、アバター画像とも称される。)によって再現したアニメーションとなる。また、アニメーション作成部103は、予め設定された予定動作に関するアバター画像の予定動作アニメーションを作成する。アニメーション作成部103は、受信部101でユーザ端末30に対して所定の操作が行われたことを示す操作情報を受信すると、受信した操作に対応する予定動作アニメーションを作成する。 The animation creation unit 103 creates an actual movement animation of an avatar object corresponding to the user, based on the user's movement information received by the receiving unit 101. This actual movement animation is an animation that reproduces the user's movement in real space using an image of the avatar object (hereinafter also referred to as an avatar image). The animation creation unit 103 also creates a planned movement animation of the avatar image relating to a predetermined planned movement. When the receiving unit 101 receives operation information indicating that a predetermined operation has been performed on the user terminal 30, the animation creation unit 103 creates a planned movement animation corresponding to the received operation.
なお、アバターオブジェクトは、生徒側又は指導者側のユーザによって予め設定された任意のオブジェクトであってもよいし、学習用コンテンツに含まれるオブジェクトとして予め設定されたオブジェクトの一つであってもよい。本実施形態では、一例として、生徒側のユーザのアバターオブジェクトは、ユーザによって予め設定された任意のオブジェクトとなっている。一方で、指導者側のユーザのアバターオブジェクトは、学習用コンテンツに含まれるオブジェクトとして予め設定されたオブジェクトの一つとなっている。 The avatar object may be any object preset by a user on the student side or the instructor side, or may be one of the objects preset as objects included in the learning content. In this embodiment, as an example, the avatar object of the student user is any object preset by the user. On the other hand, the avatar object of the instructor user is one of the objects preset as objects included in the learning content.
予定動作には、ユーザの感情を示すリアクション動作が含まれる。例えば、「嬉しい」に対応づけられた所定の操作がユーザ端末30を介して行われることにより、アバター画像のキャラクタが飛び上がって喜ぶ動作のアニメーションが作成される。 The planned actions include reaction actions that indicate the user's emotions. For example, when a predetermined operation associated with "happy" is performed via the user terminal 30, an animation is created in which the character in the avatar image jumps up in joy.
また、予定動作には、学習用コンテンツに含まれる所定のオブジェクトを操作する動作が含まれる。例えば、「赤い風船を割る」に対応付けられて、仮想空間上のオブジェクトとして表示された赤い風船の上で、タッチ操作やクリック操作を行うことがトリガーとなる操作として設定されている場合、ユーザが当該操作を行うことにより、仮想空間上でユーザのアバターが赤い風船を割る動作のアニメーションが作成される。 The planned actions also include actions to operate specific objects included in the learning content. For example, if a planned action is associated with "popping a red balloon" and is set as a trigger action to be performed by touching or clicking on a red balloon displayed as an object in virtual space, when the user performs that action, an animation is created in the virtual space of the user's avatar popping the red balloon.
また、予定動作には、所定の動作パターンを繰り返す繰り返し動作が含まれる。例えば、「待機状態」に対応づけられた所定の操作がユーザ端末30を介して行われることにより、アバター画像のキャラクタが一定の動作パターンで揺れながら、待機するアニメーションが作成される。 The planned action also includes a repetitive action that repeats a predetermined movement pattern. For example, a predetermined operation associated with a "standby state" is performed via the user terminal 30, and an animation is created in which the character of the avatar image waits while swaying in a certain movement pattern.
なお、予定動作は上記の例に限定されず、種々の操作を予定動作として設定可能である。例えば、予定動作は、指導者側のアバターが生徒側のアバターに行う所定の動作であってもよいし、生徒側のアバターが指導者側のアバターに行う所定の動作であってもよい。予定動作は、学習用コンテンツの内容について指導者側のアバターが説明する動作であってもよい。 Note that the scheduled actions are not limited to the above examples, and various operations can be set as scheduled actions. For example, the scheduled action may be a predetermined action that the instructor's avatar performs on the student's avatar, or a predetermined action that the student's avatar performs on the instructor's avatar. The scheduled action may be an action in which the instructor's avatar explains the contents of the learning content.
コンテンツ実行部104は、受信部101操作情報に応じた処理を実行する。例えば、操作実行部13は、指導者側又は生徒側のユーザにより、所定の学習用コンテンツの利用開始操作(コンテンツの視聴開始を示す操作)がされた場合(すなわち、当該利用開始操作を示す操作情報が受信された場合)、指導者側及び生徒側のユーザ端末30に学習用コンテンツを配信する。これにより、ユーザ端末30では、仮想空間上に学習用コンテンツが展開されたコンテンツ画像を視聴することができる。また、コンテンツ実行部104は、学習用コンテンツの設定に従って、コンテンツを進行させる処理を実行する。 The content execution unit 104 executes processing according to the operation information of the receiving unit 101. For example, when a user on the instructor's side or the student's side performs an operation to start using a specific learning content (an operation indicating the start of viewing the content) (i.e., when operation information indicating the operation to start using the content is received), the operation execution unit 13 distributes the learning content to the user terminals 30 on the instructor's side and the student's side. This allows the user terminal 30 to view a content image in which the learning content is deployed in a virtual space. Furthermore, the content execution unit 104 executes processing to progress the content according to the settings of the learning content.
画像処理部105は、ユーザ端末30に仮想空間に展開された学習用コンテンツとともにアバターオブジェクトのアニメーションを表示させるためのデータを生成する。このデータは、画像そのものであってもよいし、画像を描画(レンダリング)するためのデータであってもよい。また、画像処理部105で生成されるデータは、音声等、画像以外のデータを含んでもよい。 The image processing unit 105 generates data for displaying animation of avatar objects on the user terminal 30 together with learning content deployed in a virtual space. This data may be the image itself, or data for drawing (rendering) the image. The data generated by the image processing unit 105 may also include data other than images, such as audio.
送信部106は、画像処理部105で生成されたデータをユーザ端末30に送信する。 The transmission unit 106 transmits the data generated by the image processing unit 105 to the user terminal 30.
ユーザ端末30は、アバターオブジェクト表示処理及びコンテンツ実行処理に関する機能構成として、動作情報取得部301、操作情報取得部302、送信部303、受信部304及び表示制御部305を備える。 The user terminal 30 has a motion information acquisition unit 301, an operation information acquisition unit 302, a transmission unit 303, a reception unit 304, and a display control unit 305 as functional configurations related to avatar object display processing and content execution processing.
動作情報取得部301は、ユーザの動作情報を取得する。例えば、操作情報取得部302は、入力部35に含まれるカメラによってユーザを撮影し、撮影画像に基づいて、ユーザの動作情報(例えば、視線、ユーザの頭部の動き、ユーザの頭部以外の身体の一部(例えば手等)の動き(いわゆるジェスチャ)、表情等)を取得する。操作情報取得部302は、ユーザにより入力された操作情報を取得する。例えば、ユーザが、マウス等のポインティングデバイス、キーボード、マイク、カメラ、センサ等を介して入力した操作情報を取得する。 The operation information acquisition unit 301 acquires operation information of the user. For example, the operation information acquisition unit 302 captures an image of the user using a camera included in the input unit 35, and acquires operation information of the user (for example, line of sight, movement of the user's head, movement of a part of the user's body other than the head (for example, a hand, etc.) (so-called gestures), facial expressions, etc.) based on the captured image. The operation information acquisition unit 302 acquires operation information input by the user. For example, it acquires operation information input by the user via a pointing device such as a mouse, a keyboard, a microphone, a camera, a sensor, etc.
操作情報取得部302は、ユーザにより入力された操作情報を取得する。例えば、入力部35に含まれるマウス等のポインティングデバイス、キーボード、マイク、センサ及びカメラ等を介して入力した操作情報を取得する。 The operation information acquisition unit 302 acquires operation information input by a user. For example, the operation information is acquired via a pointing device such as a mouse, a keyboard, a microphone, a sensor, a camera, etc., included in the input unit 35.
送信部303は、動作情報取得部301により取得されたユーザの動作情報及び、操作情報取得部302により取得された操作情報をサーバ10に送信する。受信部304は、サーバ10から配信中の学習用コンテンツとともにアバターオブジェクトのアニメーションを表示させるためのデータを受信する。表示制御部305は、受信部304により受信されたデータをユーザ端末30の表示部36に表示する。 The transmitting unit 303 transmits the user's motion information acquired by the motion information acquiring unit 301 and the operation information acquired by the operation information acquiring unit 302 to the server 10. The receiving unit 304 receives data for displaying an animation of an avatar object together with the learning content being distributed from the server 10. The display control unit 305 displays the data received by the receiving unit 304 on the display unit 36 of the user terminal 30.
(アバターオブジェクト表示処理の動作)
図6を参照して、アバター表示処理の動作の一例を説明する。アバターオブジェクト表示処理は、例えば、ネットワークNを介して所定の仮想空間がユーザ端末30で視聴される状態において、当該ユーザ端末30でアバターオブジェクトの表示を開始するための入力操作が行われることにより、開始される。アバターオブジェクト表示処理は、CPU11が記憶部14からサーバプログラム14Aを読み出して、RAM13に展開して実行することにより、行われる。
(Avatar object display processing operation)
An example of the operation of the avatar display process will be described with reference to Fig. 6. The avatar object display process is started, for example, when an input operation for starting display of an avatar object is performed on the user terminal 30 in a state in which a predetermined virtual space is viewed on the user terminal 30 via the network N. The avatar object display process is performed by the CPU 11 reading the server program 14A from the storage unit 14, expanding it in the RAM 13, and executing it.
図6に示されるように、ステップS10において、CPU11は、ユーザ端末30から、アバターオブジェクトの表示開始を示すアバターオブジェクト表示開始操作を受け付ける。具体的には、ユーザは、ユーザ端末30の入力部35を介した入力操作により、仮想空間上にアバターオブジェクトの表示を開始するための開始操作を実行する。 As shown in FIG. 6, in step S10, the CPU 11 receives an avatar object display start operation indicating the start of displaying an avatar object from the user terminal 30. Specifically, the user performs a start operation to start displaying an avatar object in the virtual space by inputting an input operation via the input unit 35 of the user terminal 30.
ステップS11において、CPU11は、ユーザ端末30から、ユーザの動作を示す動作情報を受け付ける。 In step S11, the CPU 11 receives motion information indicating the user's motion from the user terminal 30.
ステップS12において、CPU11は、取得したユーザの動作情報に基づいて、対応するアバター画像の実動作アニメーションを作成し、仮想空間上に学習用コンテンツとともに表示する。 In step S12, the CPU 11 creates an animation of the actual movements of the corresponding avatar image based on the acquired user movement information, and displays it in the virtual space together with the learning content.
ここで、図8を参照して学習用コンテンツの具体的な表示例について説明する。図8には、知育用の読み聞かせ絵本を提供する学習用コンテンツが仮想空間上に展開された状態が示されている。図示の表示画面500は、学習用コンテンツをユーザ端末30の表示部36に表示した場合の一例である。この表示画面500には、学習シーンとしての絵本のワンシーンを構成するチャプタが仮想空間に展開された状態が表示されている。図示の例では、野原を表す背景画像の中に学習用コンテンツに含まれるオブジェクトとして、複数の風船Q(Q1,Q2,Q3)と木Rが表示されている。また、アバターオブジェクトとして、絵本の読み聞かせを行う指導者側のユーザに対応する第1アバターP1と、生徒側のユーザに対応する第2アバターP2が仮想空間内の所定の位置に表示されている。 Now, a specific example of the display of learning content will be described with reference to FIG. 8. FIG. 8 shows a state in which learning content that provides an educational picture book to be read aloud is deployed in a virtual space. The illustrated display screen 500 is an example of a case in which learning content is displayed on the display unit 36 of the user terminal 30. This display screen 500 displays a state in which a chapter constituting one scene of a picture book as a learning scene is deployed in a virtual space. In the illustrated example, a number of balloons Q (Q1, Q2, Q3) and a tree R are displayed as objects included in the learning content in a background image representing a field. In addition, as avatar objects, a first avatar P1 corresponding to a user on the instructor side who reads the picture book aloud and a second avatar P2 corresponding to a user on the student side are displayed at predetermined positions in the virtual space.
指導者側の第1アバターP1は学習用コンテンツに含まれるオブジェクトとして、コンテンツ制作者側のユーザによって予め設定されたオブジェクトである。この第1アバターP1は、指導者側のユーザが操作権限を有する指導者用オブジェクトでもあり、指導者側のユーザのユーザ端末30でアバターオブジェクトの表示を開始するための入力操作が行われることにより、第1アバターP1の実動作アニメーションが表示される。 The first avatar P1 on the instructor's side is an object that is set in advance by the user on the content creator side as an object to be included in the learning content. This first avatar P1 is also an object for the instructor that the user on the instructor's side has the authority to operate, and an animation of the actual movements of the first avatar P1 is displayed when an input operation is performed on the user terminal 30 of the instructor's user to start displaying the avatar object.
生徒側の第2アバターP2は、生徒側のユーザによって予め設定された任意のオブジェクトである。この第2アバターP1は、生徒側のユーザが操作権限を有する生徒用オブジェクトでもあり、例えば、生徒側のユーザは、任意のアバター画像を設定して予めユーザデータベース14Cに格納する。そして、生徒側のユーザのユーザ端末30でアバターオブジェクトの表示を開始するための入力操作が行われることにより、仮想空間上の所定の位置に第2アバターP2の実動作アニメーションが表示される。 The second avatar P2 of the student is an arbitrary object set in advance by the student user. This second avatar P1 is also a student object that the student user has the authority to operate; for example, the student user sets an arbitrary avatar image and stores it in advance in the user database 14C. Then, an input operation to start displaying the avatar object is performed on the student user's user terminal 30, and an animation of the actual movement of the second avatar P2 is displayed at a specified position in the virtual space.
また、アバターオブジェクトの表示位置は、学習用コンテンツの示す仮想空間上の予め設定された位置でもよいし、ユーザ端末の操作情報に基づく任意の位置でもよい。また、アバターオブジェクトの表示位置が、学習用コンテンツの他のオブジェクトと重ならない位置に制御される構成としてもよい。 The display position of the avatar object may be a preset position in the virtual space indicated by the learning content, or may be any position based on operation information of the user terminal. The display position of the avatar object may also be controlled to a position that does not overlap with other objects in the learning content.
ステップS13において、CPU11は、ユーザ端末30から、予め設定された予定動作に対応する所定の操作情報を受信したかについて判定する。所定の操作情報を受信している場合、ステップS13の判定が肯定され、ステップS14の処理に進む。一方、所定の操作情報を受信していない場合、ステップS13の判定が否定され、ステップS16の処理に進む。 In step S13, the CPU 11 determines whether or not predetermined operation information corresponding to a preset scheduled operation has been received from the user terminal 30. If the predetermined operation information has been received, the determination in step S13 is affirmative, and the process proceeds to step S14. On the other hand, if the predetermined operation information has not been received, the determination in step S13 is negative, and the process proceeds to step S16.
ステップS14において、CPU11は、受信した所定の操作情報に対応づけられた予定動作について、ユーザのアバターオブジェクトを用いて予定動作アニメーションを作成する。そして、アバターオブジェクトを、実動作アニメーションから予定動作アニメーションへと切り替える。そして、CPU11はステップS15の処理に進む。 In step S14, the CPU 11 creates a planned action animation using the user's avatar object for the planned action associated with the received specific operation information. Then, the CPU 11 switches the avatar object from the actual action animation to the planned action animation. The CPU 11 then proceeds to processing in step S15.
ステップS15において、CPU11は、アバターオブジェクトを予定動作アニメーションから再び実動作アニメーションへと切り替える。具体的には、予定動作アニメーションの再生が終了すると、再び、ユーザの動作情報に基づく実動作アニメーションに切り替えて表示する。 In step S15, the CPU 11 switches the avatar object from the planned movement animation back to the actual movement animation. Specifically, when playback of the planned movement animation ends, the CPU 11 switches back to displaying the actual movement animation based on the user's movement information.
ステップS16において、CPU11は、アバター表示の終了を示す操作情報を受け付けたか否かについて判定する。具体的には、ユーザが、ユーザ端末30の入力部35を介した入力操作により、アバターオブジェクトの表示を終了するための終了操作を実行し、この操作情報が受け付けられると、ステップS16の判定が肯定される。ステップS16の判定が肯定されると、CPU11は、アバターオブジェクト表示処理を終了させる。一方、ステップS16の判定が否定されると、CPU11は、ステップS11の処理に戻る。 In step S16, the CPU 11 determines whether or not operation information indicating the end of the avatar display has been received. Specifically, when the user performs an end operation to end the display of the avatar object by inputting an input operation via the input unit 35 of the user terminal 30, and this operation information is received, the determination in step S16 is positive. If the determination in step S16 is positive, the CPU 11 ends the avatar object display process. On the other hand, if the determination in step S16 is negative, the CPU 11 returns to the process of step S11.
(コンテンツ実行処理の動作)
次に、図7を参照して、コンテンツ実行処理の動作の一例を説明する。コンテンツ実行処理は、例えば、ネットワークNを介して所定の仮想空間がユーザ端末30で視聴される状態において、当該ユーザ端末30で所定の学習用コンテンツの配信を開始することを要求する操作が行われることにより、開始される。学習用コンテンツの配信が開始されると、例えば、チャプタ1に対応する学習シーンが仮想空間上に展開される。
(Content execution process operation)
Next, an example of the operation of the content execution process will be described with reference to Fig. 7. The content execution process is started, for example, when a predetermined virtual space is being viewed on the user terminal 30 via the network N, and an operation is performed on the user terminal 30 to request the start of distribution of predetermined learning content. When the distribution of the learning content is started, for example, a learning scene corresponding to chapter 1 is developed in the virtual space.
ステップS20で、CPU11は、実行オブジェクトに所定の操作が行われたか否かについて判断する。具体的には、配信中のチャプタにおいて、所定のイベントに対応付けて予め実行オブジェクトとして設定されたオブジェクトに対し、オブジェクトの操作権限のあるユーザ端末30から所定の操作が行われたか否かについて判断する。実行オブジェクトに対して操作権限のあるユーザから所定の操作がおこなわれた場合、ステップS20の判定は肯定され、CPU11は、ステップS23の処理に進む。一方、実行オブジェクトに対して所定の操作がおこなわれなかった場合、ステップS20の判定は否定され、CPU11は、ステップS21の処理に進む。なお、実行オブジェクトに所定の操作が行われない場合には、チャプタに実行オブジェクトが設定されていない場合も含まれる。 In step S20, the CPU 11 determines whether a predetermined operation has been performed on the execution object. Specifically, the CPU 11 determines whether a predetermined operation has been performed on an object that has been set in advance as an execution object in association with a predetermined event in the chapter being distributed from a user terminal 30 that has the authority to operate the object. If a predetermined operation has been performed on the execution object by a user with the authority to operate the object, the determination in step S20 is positive, and the CPU 11 proceeds to the process of step S23. On the other hand, if a predetermined operation has not been performed on the execution object, the determination in step S20 is negative, and the CPU 11 proceeds to the process of step S21. Note that cases in which a predetermined operation has not been performed on the execution object also include cases in which no execution object has been set in the chapter.
ステップS21において、CPU11は、所定のイベントについて予め設定された所定のイベントの発動時刻が経過したか否かについて判定する。所定時刻が経過している場合、ステップS22の判定は肯定され、CPU11は、ステップS23の処理へ進む。一方、所定時刻が経過していない場合、ステップS21の判定は否定され、ステップS22の処理に進む。なお、イベント発動の所定時刻が経過していない場合には、イベントに所定時刻が設定されていない場合も含まれる。 In step S21, the CPU 11 determines whether or not a predetermined time for a specific event has elapsed. If the predetermined time has elapsed, the determination in step S22 is positive, and the CPU 11 proceeds to the process of step S23. On the other hand, if the predetermined time has not elapsed, the determination in step S21 is negative, and the CPU 11 proceeds to the process of step S22. Note that if the predetermined time for the event to be triggered has not elapsed, this also includes the case where no predetermined time is set for the event.
ステップS22において、CPU11は、配信中のチャプタについて、予め設定された所要時間が経過したか否かについて判定する。チャプタの所要時間が経過している場合、ステップS22の判定は肯定され、CPU11は、ステップS23の処理へ進む。一方、チャプタの所要時間が経過していない場合、ステップS22の判定は否定され、CPU11は、ステップS20の処理に戻る。なお、チャプタの所要時間が経過していない場合には、チャプタに所要時間が設定されていない場合も含まれる。 In step S22, the CPU 11 determines whether or not a preset required time has elapsed for the chapter being distributed. If the required time for the chapter has elapsed, the determination in step S22 is positive, and the CPU 11 proceeds to the process of step S23. On the other hand, if the required time for the chapter has not elapsed, the determination in step S22 is negative, and the CPU 11 returns to the process of step S20. Note that if the required time for the chapter has not elapsed, this also includes the case where no required time has been set for the chapter.
ステップS23において、CPU11は、イベントを発動させる。このイベントは、学習用コンテンツの進行に関与するイベントであり、例えば、イベントの発動によって学習シーンの切り替えが行われる。イベントの実行が終了すると、CPU11は、ステップS24の処理に進む。 In step S23, the CPU 11 triggers an event. This event is an event that is involved in the progress of the learning content, and for example, the learning scene is switched by the triggering of the event. When the execution of the event ends, the CPU 11 proceeds to the process of step S24.
ステップS24において、CPU11は、学習用コンテンツの配信が終了したか否かについて判定する。具体的には、ユーザ端末30で、学習用コンテンツの配信を終了することを要求する操作が行われたか否かについて判定する。学習用コンテンツの配信を終了することを要求する操作情報を受信している場合、ステップS24の判定が肯定され、CPU11は、コンテンツ実行処理を終了する。一方、学習用コンテンツの配信を終了することを要求する操作情報を受信していない場合、ステップS24の判定が否定され、CPU11は、ステップS20の処理に戻る。 In step S24, the CPU 11 determines whether the distribution of the learning content has ended. Specifically, the CPU 11 determines whether an operation has been performed on the user terminal 30 to request that the distribution of the learning content be ended. If operation information requesting that the distribution of the learning content be ended has been received, the determination in step S24 is positive, and the CPU 11 ends the content execution process. On the other hand, if operation information requesting that the distribution of the learning content be ended has not been received, the determination in step S24 is negative, and the CPU 11 returns to the process in step S20.
ここで、図8及び図9を参照し、上記コンテンツ実行処理による学習用コンテンツの進行の一例を説明する。 Here, with reference to Figures 8 and 9, an example of the progress of learning content through the above content execution process will be described.
図8の例では、知育用の読み聞かせ絵本を提供する学習用コンテンツにおいて、絵本のワンシーンを示す仮想空間上に三つの風船Q(Q1,Q2,Q3)のオブジェクトが表示されている。三つの風船は、例えば、子猫の閉じ込められた第1風船Q1と、赤色の第2風船Q2と、青色の第3風船Q3で構成されている。ここで、この学習用コンテンツでは、子猫の閉じ込められた第1風船Q1と赤色の第2風船Q2が実行オブジェクトとして設定されている。また、第1風船Q1及び第2風船Q2は相互オブジェクトでもあり、指導者側のユーザと、生徒側のユーザに操作権限が与えられている。 In the example of FIG. 8, in learning content that provides an educational picture book for reading aloud, three balloon Q (Q1, Q2, Q3) objects are displayed in a virtual space showing one scene from the picture book. The three balloons are, for example, a first balloon Q1 in which a kitten is trapped, a red second balloon Q2, and a blue third balloon Q3. Here, in this learning content, the first balloon Q1 in which the kitten is trapped and the red second balloon Q2 are set as execution objects. Furthermore, the first balloon Q1 and the second balloon Q2 are also mutual objects, and the instructor user and the student user are given the authority to operate them.
図9に示されるように、チャプタの所要時間内に、ユーザによって、仮想空間上の第1風船Q1のオブジェクトに操作が行われると、第1風船Q1に対応付けられたイベントが発動する。図示の例では、タッチパネル式のディスプレイの表示画面500上で、ユーザの手Hが第1風船Q1にタッチ操作を行うことをトリガーとしてイベントが発動される。第1風船Q1に対応付けられたイベントが発動すると、第1風船Q1が割れて、閉じ込められた子猫が登場するというシナリオAが進行する。なお、シナリオAの進行では、子猫が登場する学習シーンになると、子猫のオブジェクトが指導者側のユーザのアバターオブジェクトとして設定される。従って、上述のアバターオブジェクト表示処理が実行されることにより、指導者側のユーザが、子猫のオブジェクトを任意のアニメーションで表示させることができる。 9, when the user operates the object of the first balloon Q1 in the virtual space within the time required for the chapter, an event associated with the first balloon Q1 is triggered. In the illustrated example, the event is triggered when the user's hand H touches the first balloon Q1 on the display screen 500 of a touch panel display. When the event associated with the first balloon Q1 is triggered, scenario A progresses in which the first balloon Q1 breaks and a trapped kitten appears. In the progression of scenario A, when a learning scene in which a kitten appears is reached, the kitten object is set as the avatar object of the instructor user. Therefore, by executing the above-mentioned avatar object display process, the instructor user can display the kitten object with any animation.
一方、チャプタの所要時間内に、ユーザによって、仮想空間上の第2風船Q2のオブジェクトに操作が行われると、第2風船Q2に対応付けられたイベントが発動する。図示の例では、タッチパネル式のディスプレイの表示画面500上で、ユーザの手Hが第2風船Q2にタッチ操作を行うことをトリガーとしてイベントが発動される。第2風船Q2に対応付けられたイベントが発動すると、第2風船Q2が割れて、野原の上に落下する。そして、子猫の閉じ込められた第1風船Q1が風に乗って飛んでいくというシナリオBが進行する。 Meanwhile, if the user operates the object of the second balloon Q2 in the virtual space within the time required for the chapter, an event associated with the second balloon Q2 is triggered. In the illustrated example, the event is triggered when the user's hand H touches the second balloon Q2 on the display screen 500 of the touch panel display. When the event associated with the second balloon Q2 is triggered, the second balloon Q2 bursts and falls onto the field. Then, scenario B progresses, in which the first balloon Q1 with the kitten trapped inside is blown away by the wind.
一方、何れの実行オブジェクトにも操作が行われず、チャプタの所要時間が経過した場合、チャプタの所要時間の経過を条件としてイベントが発動される。図示の例では、チャプタの所要時間の経過に対応付けられたイベントが発動すると、子猫の閉じ込められた第1風船Q1が木Rのオブジェクトに引っ掛かり、子猫が木Rから降りられなくなるというシナリオCが進行する。このシナリオCでは、子猫が木Rから降りられなくなるという学習シーンへの切り替えの際に別のチャプタ―に移動する。 On the other hand, if no operation is performed on any of the execution objects and the time required for the chapter has elapsed, an event is triggered on the condition that the time required for the chapter has elapsed. In the illustrated example, when an event associated with the elapse of the time required for the chapter is triggered, scenario C progresses in which the first balloon Q1 in which the kitten is trapped gets caught on an object on tree R, and the kitten is unable to get down from tree R. In this scenario C, a move to another chapter occurs when switching to a learning scene in which the kitten is unable to get down from tree R.
以上のように、一例では、学習用コンテンツに対してユーザが行う操作によって、学習用コンテンツの進行が複数のパターンに分岐する。これにより、上記の例では、学習用コンテンツによって提供される読み聞かせ用の絵本がマルチシナリオを構成している。また、学習用コンテンツに設定される各イベントは、同一のチャプタ内で行われるイベントでもよいし、別のチャプタへ移動して行われるイベントであってもよい。 As described above, in one example, the progress of the learning content branches into multiple patterns depending on the operation performed by the user on the learning content. As a result, in the above example, the picture book for reading aloud provided by the learning content constitutes a multi-scenario. Furthermore, each event set in the learning content may be an event that takes place within the same chapter, or an event that takes place by moving to a different chapter.
(作用並びに効果)
以上説明したように、本実施形態に係る通信教育システム1では、ネットワークNを介して仮想空間に接続されたユーザ端末30(30A,30B)からユーザの動作情報を取得し、取得された動作情報に基づいて、アバターオブジェクトの実動作アニメーションを作成する。図8に示されるように、仮想空間上には、指導者側及び生徒側のユーザの動作に基づく第1アバターP1及び第2アバターP2(アバターオブジェクト)の実動作アニメーションが学習用コンテンツとともに表示される。これにより、実空間のユーザの動作が仮想空間上のアバターP1,P2の動作によって再現される。これにより、仮想空間上に展開される学習用コンテンツを用いて通信教育を行う際に、ユーザがアバターオブジェクトを介してコミュニケーションを図るための視覚効果を高めることができる。
(Action and Effects)
As described above, in the correspondence education system 1 according to the present embodiment, user motion information is acquired from the user terminal 30 (30A, 30B) connected to the virtual space via the network N, and an actual motion animation of the avatar object is created based on the acquired motion information. As shown in FIG. 8, an actual motion animation of the first avatar P1 and the second avatar P2 (avatar object) based on the motions of the instructor and student users is displayed together with the learning content in the virtual space. As a result, the motion of the user in the real space is reproduced by the motions of the avatars P1 and P2 in the virtual space. As a result, when a correspondence education is conducted using the learning content deployed in the virtual space, the visual effect for the user to communicate through the avatar object can be enhanced.
通信教育システム1は、ユーザ端末30に対して所定の操作が行われることにより、仮想空間上のアバターオブジェクトを実動作アニメーションから予定動作アニメーションに切り替えて表示させる。このため、予め設定された予定動作については、演出効果の高いアニメーション等を用いてコミュニケーションの一部を代替させることができる。これにより、ユーザがアバターオブジェクトを介してコミュニケーションを図るための視覚効果を高めることができる。 When a specific operation is performed on the user terminal 30, the distance learning system 1 switches the display of the avatar object in the virtual space from an actual movement animation to a planned movement animation. Therefore, for pre-set planned movements, part of the communication can be substituted with animations with a high dramatic effect. This enhances the visual effect for users to communicate through the avatar object.
通信教育システム1において、仮想空間上のアバターオブジェクトは、予定動作アニメーションが終了すると、再び実動作アニメーションへと切り替えられる。これにより、アバターオブジェクトの動作として、ユーザの実動作の他に予め設定された予定動作を自然に盛り込むことができる。 In the distance learning system 1, when the planned movement animation of the avatar object in the virtual space ends, it switches back to the actual movement animation. This allows the avatar object's movements to naturally incorporate pre-set planned movements in addition to the user's actual movements.
例えば、予定動作には、ユーザの感情を示すリアクション動作が含まれる。これにより、仮想空間上のアバターオブジェクトを介したユーザの感情表現を豊かに演出することができる。 For example, the planned actions include reaction actions that indicate the user's emotions. This allows for rich expression of the user's emotions through the avatar object in the virtual space.
また例えば、予定動作には、学習用コンテンツに含まれる所定のオブジェクトを操作する動作が含まれる。これにより、アバターオブジェクトを介して仮想空間上のオブジェクトを使ったコミュニケーションを円滑にすることができる。 For example, the planned actions may include actions to operate specific objects included in the learning content. This can facilitate communication using objects in the virtual space via the avatar object.
また例えば、予定動作には、所定の動作パターンを繰り返す繰り返し動作が含まれる。これにより、例えば、積極的な相互コミュニケーションが必要とされない場面では、アバターに所定の動作パターンを繰り返させて待機させることができる。これにより、ユーザの実動作が常にアバターの動きに反映されることによるユーザの疲労感を低減させることができる。 For example, the planned actions also include repetitive actions that repeat a predetermined movement pattern. This allows the avatar to wait and repeat a predetermined movement pattern, for example, in situations where active mutual communication is not required. This reduces the user's sense of fatigue caused by the user's actual movements always being reflected in the avatar's movements.
また、本実施形態では、ユーザは、任意のオブジェクトをアバターオブジェクトとして設定することができる。図8に示される例では、生徒側のユーザに対応する第2アバターP2を、生徒側のユーザの任意に設定することができる。これにより、ユーザは、任意のオブジェクトをアバターオブジェクトとして設定し、仮想空間上でコミュニケーションを図ることができる。 In addition, in this embodiment, the user can set any object as an avatar object. In the example shown in FIG. 8, the second avatar P2 corresponding to the student user can be set arbitrarily by the student user. This allows the user to set any object as an avatar object and communicate in the virtual space.
また、本実施形態では、ユーザは、学習用コンテンツに含まれるオブジェクトとして予め設定されたオブジェクトの一つをアバターオブジェクトとして設定することができる。図8に示される例では、指導者側のユーザに対応する第1アバターP1は、学習用コンテンツに含まれるオブジェクトとして予め設定されたオブジェクトの一つで構成されている。これにより、ユーザは、学習用コンテンツに含まれるオブジェクトとして予め設定されたオブジェクトの一つをアバターオブジェクトとして設定し、仮想空間上でコミュニケーションを図ることができる。 In addition, in this embodiment, the user can set one of the objects preset as an object included in the learning content as an avatar object. In the example shown in FIG. 8, the first avatar P1 corresponding to the instructor user is composed of one of the objects preset as an object included in the learning content. This allows the user to set one of the objects preset as an object included in the learning content as an avatar object and communicate in the virtual space.
さらに、本実施形態に係る通信教育システム1によれば、ネットワークNを介して接続された指導者側又は生徒側のユーザのユーザ端末30(30A,30B)を介して、仮想空間に対して行われた操作に関する操作情報を取得する。また、学習用コンテンツには、学習用コンテンツに含まれる所定のオブジェクトが実行オブジェクトとして設定されている。ここで、図9に示されるように、学習用コンテンツでは、ユーザ端末30を介して実行オブジェクト(Q1,Q2)が操作されることを条件として、学習用コンテンツの進行に関与するイベントを発動させることができる。これにより、ユーザのオブジェクトに対する操作によって、学習用コンテンツの進行を積極的に変化させることができるため、ユーザの学習用コンテンツへの没入感を高めることができる。 Furthermore, according to the distance learning system 1 of this embodiment, operation information regarding operations performed in the virtual space is acquired via the user terminal 30 (30A, 30B) of the instructor or student user connected via the network N. In addition, in the learning content, a specific object included in the learning content is set as an execution object. Here, as shown in FIG. 9, in the learning content, an event related to the progress of the learning content can be triggered on the condition that the execution object (Q1, Q2) is operated via the user terminal 30. This allows the progress of the learning content to be actively changed by the user's operation on the object, thereby increasing the user's immersion in the learning content.
具体的に、ユーザ端末30を介して行われる実行オブジェクトへの操作には、タッチ操作、位置の移動操作、表示向きの変更操作のうち、少なくとも一つが含まれる。このように、学習用コンテンツは、仮想空間上のオブジェクトを直接操作することによりイベントを発動させることができるため、ユーザの学習用コンテンツへの没入感を高めることができる。 Specifically, the operations performed on the execution object via the user terminal 30 include at least one of a touch operation, a position movement operation, and an operation to change the display orientation. In this way, the learning content can trigger events by directly operating objects in the virtual space, thereby enhancing the user's immersion in the learning content.
また、通信教育システムでは、学習用コンテンツは、複数の学習シーンを含むように設定することができる。ここで、学習用コンテンツに設定されたイベントには、学習シーンの切り替えが含まれる。これにより、ユーザのオブジェクトに対する操作により学習シーンを切り替えることができ、ユーザの学習用コンテンツへの没入感を高めることができる。また、学習用コンテンツは、学習シーンの切り替えにより、マルチシナリオを構成することができる。従って、同一の学習用コンテンツを繰り返し使用しても、ユーザの没入感を維持することができる。 Furthermore, in the distance learning system, the learning content can be set to include multiple learning scenes. Here, the events set in the learning content include switching of learning scenes. This allows the learning scene to be switched by the user's operation on the object, thereby increasing the user's sense of immersion in the learning content. Furthermore, the learning content can be configured as multiple scenarios by switching learning scenes. Therefore, the user's sense of immersion can be maintained even if the same learning content is used repeatedly.
また、学習用コンテンツの学習シーンは、予め設定された所要時間が経過すると、他の学習シーンへ移動するように設定可能に構成されている。これにより、例えば、生徒側のユーザの参加度合いや理解度が不足する場合でも、所要時間の経過により学習用コンテンツを進行させ、生徒側のユーザに行き詰まりを感じさせることを抑制する。また、学習シーンが自動で切り替わることにより、指導者側の負担を軽減させることができる。 In addition, the learning scene of the learning content can be configured to move to another learning scene after a preset required time has elapsed. This allows the learning content to progress as the required time elapses, even if the student user's level of participation or understanding is insufficient, preventing the student user from feeling stuck. Furthermore, by automatically switching learning scenes, the burden on the instructor can be reduced.
また、学習用コンテンツは、学習シーン毎にイベントを設定することができるため、学習用コンテンツの作成や改良が容易になる。 In addition, learning content can be created and improved easily because events can be set for each learning scene.
また、学習用コンテンツは、所定の学習シーンにおいてイベントが発動される所定時刻の設定が可能となっている。これにより、実行オブジェクトの操作とは別に、所定の学習シーンにおける所定時刻にイベントを発動させることができる。その結果、ユーザの参加度合いや理解度にバラつきがある場合でも、学習用コンテンツの進行が冗長になることを抑制することができる。 In addition, the learning content allows the user to set a specific time at which an event will be triggered in a specific learning scene. This allows an event to be triggered at a specific time in a specific learning scene, separate from the operation of an execution object. As a result, even if users' levels of participation and understanding vary, it is possible to prevent the progression of the learning content from becoming redundant.
また、学習用コンテンツは、予め登録された複数のオブジェクトの中から任意のオブジェクトを実行オブジェクトとして設定することができる。このため、例えば、学習用コンテンツに含まれる複数のオブジェクトの中から、生徒側のユーザの対象年齢に合わせて実行オブジェクトを変更させることが可能となる。これにより、生徒側のユーザの対象年齢や理解度等に応じて、共通のコンテンツ要素を使用して、学習用コンテンツに複数のバリエーションを設定することが可能となる。なお、本実施形態では、コンテンツ制作者側のユーザによって実行オブジェクトの設定が可能である例について説明したが、指導者側のユーザの操作によって実行オブジェクトが設定される構成であってもよい。 In addition, the learning content can set any object from among multiple pre-registered objects as the execution object. Therefore, for example, it is possible to change the execution object from among multiple objects included in the learning content to suit the target age of the student user. This makes it possible to set multiple variations of the learning content using common content elements according to the target age and level of understanding of the student user. Note that, although an example in which the execution object can be set by the user on the content creator side has been described in this embodiment, the execution object may also be set by the operation of the user on the instructor side.
また、上記の実行オブジェクトについて、教師用オブジェクト、生徒用オブジェクト及び相互オブジェクトの設定を行うことができる。これにより、実行オブジェクトに応じて、イベントの操作権限を変更することができる。従って、例えば、幼児向けの学習用コンテンツなど、ユーザの対象年齢が低い場合は、実行オブジェクトを指導者用オブジェクトとして設定することで、生徒側のユーザが端末操作を行わずに視聴できるコンテンツにすることができる。その一方で、大人向けの学習用コンテンツでは、生徒用オブジェクトや相互オブジェクトの数を増やし、生徒側のユーザがシナリオの進行に積極的に関与しやすいコンテンツにすることができる。 For the execution objects, teacher objects, student objects, and interactive objects can be set. This allows the operation authority of the event to be changed depending on the execution object. Therefore, for example, in the case of educational content for small children, where the target user age is young, the execution object can be set as a teacher object, making it possible to create content that student users can view without operating the terminal. On the other hand, in educational content for adults, the number of student objects and interactive objects can be increased, making it possible to create content that makes it easier for student users to actively participate in the progression of the scenario.
なお、上記実施形態において、仮想区間にアクセスする指導者側のユーザ及び生徒側のユーザの数は、特に限定されない。指導者側のユーザが複数居てもよいし、生徒側のユーザが複数いてもよい。若しくは、生徒側のユーザのみであってもよい In the above embodiment, the number of instructor users and student users who access the virtual section is not particularly limited. There may be multiple instructor users, multiple student users, or only student users.
また、上記実施形態では、仮想空間上に指導者側及び生徒側のユーザのアバターオブジェクトを表示したが、これに限らない。教師側のユーザのアバター画像だけを表示してもよい。 In addition, in the above embodiment, avatar objects of the instructor and student users are displayed in the virtual space, but this is not limited to this. It is also possible to display only the avatar image of the teacher user.
また、上記実施形態では、指導者側のユーザのアバターオブジェクトが学習用コンテンツに含まれるオブジェクトの一つである場合について説明したが、本発明はこれに限らない。指導者側のユーザによって任意に設定されるオブジェクトをアバターオブジェクトにしてもよい。また、生徒側のユーザのアバターオブジェクトが学習用コンテンツに含まれるオブジェクトの一つであってもよい。 In the above embodiment, the case where the avatar object of the instructor user is one of the objects included in the learning content has been described, but the present invention is not limited to this. The avatar object may be an object arbitrarily set by the instructor user. Also, the avatar object of the student user may be one of the objects included in the learning content.
さらに、上記実施形態でCPU11,21,31がソフトウェア(プログラム)を読み込んで実行した処理をCPU以外の各種のプロセッサが実行してもよい。この場合のプロセッサとしては、FPGA等の製造後に回路構成を変更可能なPLD、及びASIC等の特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路等が例示される。また、提供処理を、これらの各種のプロセッサのうちの1つで実行してもよいし、同種又は異種の2つ以上のプロセッサの組み合わせ(例えば、複数のFPGA、及びCPUとFPGAとの組み合わせ等)で実行してもよい。また、これらの各種のプロセッサのハードウェア的な構造は、より具体的には、半導体素子等の回路素子を組み合わせた電気回路である。 Furthermore, the processes executed by CPU 11, 21, 31 after reading the software (program) in the above embodiment may be executed by various processors other than the CPU. Examples of processors in this case include PLDs such as FPGAs, whose circuit configuration can be changed after manufacture, and dedicated electrical circuits such as ASICs, which are processors having a circuit configuration designed specifically to execute specific processes. The provision process may be executed by one of these various processors, or may be executed by a combination of two or more processors of the same or different types (e.g., multiple FPGAs, and a combination of a CPU and an FPGA). The hardware structure of these various processors is, more specifically, an electrical circuit that combines circuit elements such as semiconductor elements.
また、サーバプログラム14A、クリエイタプログラム24Aが、記憶部14及び記憶部24のそれぞれに予め記憶(インストール)されている態様を説明したが、これに限定されない。各プログラムは、CD(Compact Disk)、DVD(Digital Versatile Disk)、及びUSB(Universal Serial Bus)メモリ等の非一時的記録媒体に記録された形態で提供されてもよい。また、各プログラムは、ネットワークNを介して外部装置からダウンロードされる形態としてもよい。 Although the server program 14A and the creator program 24A have been described as being pre-stored (installed) in the storage unit 14 and the storage unit 24, respectively, this is not limiting. Each program may be provided in a form recorded on a non-transitory recording medium such as a CD (Compact Disk), a DVD (Digital Versatile Disk), or a USB (Universal Serial Bus) memory. Each program may also be downloaded from an external device via the network N.
1 通信教育システム
11 CPU(プロセッサ)
14A サーバプログラム(通信教育提供プログラム)
30 ユーザ端末
P1 第1アバター(指導者側のユーザのアバターオブジェクト)
P2 第2アバター(生徒側のユーザのアバターオブジェクト)
Q 風船(オブジェクト)
R 木(オブジェクト)
N ネットワーク
1 Correspondence education system 11 CPU (processor)
14A Server Program (Correspondence Education Program)
30 User terminal P1 First avatar (avatar object of the instructor user)
P2 Second avatar (avatar object of the student user)
Q Balloon (object)
R-tree (objects)
N Network
Claims (10)
少なくとも一つのプロセッサを備え、
前記少なくとも一つのプロセッサは、
指導者側又は生徒側のユーザのアバターオブジェクトを設定し、
ネットワークを介して前記仮想空間に接続されたユーザ端末に接続されたカメラから前記ユーザの動作情報を取得し、
取得された前記動作情報に基づいて、前記アバターオブジェクトの実動作アニメーションを作成し、
予め設定された予定動作に関する前記アバターオブジェクトの予定動作アニメーションを作成し、
前記仮想空間上に、前記学習用コンテンツとともに前記実動作アニメーションとを表示させ、
前記ユーザ端末に接続されたカメラを介してユーザによる所定の動作が前記動作情報として取得されることにより、前記仮想空間上の前記アバターオブジェクトを、前記実動作アニメーションから当該所定の動作と異なる前記予定動作アニメーションに切り替えて表示させる、
通信教育システム。 A distance learning system that provides distance learning using learning content deployed in a virtual space,
At least one processor,
The at least one processor:
Set the avatar object of the instructor or student user,
acquiring operation information of the user from a camera connected to a user terminal connected to the virtual space via a network;
creating an actual movement animation of the avatar object based on the acquired movement information;
creating a scheduled action animation of the avatar object with respect to a preset scheduled action;
Displaying the learning content and the actual movement animation in the virtual space;
a predetermined action by a user is acquired as the action information via a camera connected to the user terminal, and thereby the avatar object in the virtual space is switched from the actual action animation to the planned action animation different from the predetermined action and displayed;
Distance learning system.
少なくとも一つのプロセッサを備え、
前記少なくとも一つのプロセッサは、
指導者側又は生徒側のユーザのアバターオブジェクトを設定し、
ネットワークを介して前記仮想空間に接続されたユーザ端末から前記ユーザの動作情報を取得し、
取得された前記動作情報に基づいて、前記アバターオブジェクトの実動作アニメーションを作成し、
前記仮想空間上に、前記学習用コンテンツとともに前記実動作アニメーションとを表示させ、
指導者側及び生徒側のユーザの前記アバターオブジェクトの少なくとも一方は、前記学習用コンテンツのチャプタに含まれるキャラクターオブジェクトとして予め設定されたオブジェクトの一つである、
通信教育システム。 A distance learning system that provides distance learning using learning content deployed in a virtual space,
At least one processor,
The at least one processor:
Set the avatar object of the instructor or student user,
Acquire user operation information from a user terminal connected to the virtual space via a network;
creating an actual movement animation of the avatar object based on the acquired movement information;
Displaying the learning content and the actual movement animation in the virtual space;
At least one of the avatar objects of the instructor and student users is one of the objects preset as a character object included in a chapter of the learning content.
Distance learning system.
前記アバターオブジェクトを再び前記実動作アニメーションに切り替えて表示させる、請求項1に記載の通信教育システム。 When the scheduled action animation ends, the at least one processor:
The distance learning system according to claim 1 , wherein the avatar object is switched back to the actual action animation and displayed.
指導者側又は生徒側のユーザのアバターオブジェクトを設定し、
ネットワークを介して前記仮想空間に接続されたユーザ端末に接続されたカメラから前記ユーザの動作情報を取得し、
予め設定された予定動作に関する前記アバターオブジェクトの予定動作アニメーションを作成し、
取得された前記動作情報に基づいて、前記アバターオブジェクトの実動作アニメーションを作成し、
前記仮想空間上に、前記学習用コンテンツとともに前記実動作アニメーションとを表示させ、
前記ユーザ端末に接続されたカメラを介してユーザによる所定の動作が前記動作情報として取得されることにより、前記仮想空間上の前記アバターオブジェクトを、前記実動作アニメーションから当該所定の動作と異なる前記予定動作アニメーションに切り替えて表示させる、
通信教育提供方法。 A method for providing distance learning using learning content deployed in a virtual space, comprising:
Set the avatar object of the instructor or student user,
acquiring operation information of the user from a camera connected to a user terminal connected to the virtual space via a network;
creating a scheduled action animation of the avatar object with respect to a preset scheduled action;
creating an actual movement animation of the avatar object based on the acquired movement information;
Displaying the learning content and the actual movement animation in the virtual space;
a predetermined action by a user is acquired as the action information via a camera connected to the user terminal, and thereby the avatar object in the virtual space is switched from the actual action animation to the planned action animation different from the predetermined action and displayed;
Distance education delivery methods.
指導者側又は生徒側のユーザのアバターオブジェクトを設定し、
ネットワークを介して前記仮想空間に接続されたユーザ端末に接続されたカメラから前記ユーザの動作情報を取得し、
取得された前記動作情報に基づいて、前記アバターオブジェクトの実動作アニメーションを作成し、
予め設定された予定動作に関する前記アバターオブジェクトの予定動作アニメーションを作成し、
前記仮想空間上に、前記学習用コンテンツとともに前記実動作アニメーションとを表示させる、処理をコンピュータに実行させ、
記ユーザ端末に接続されたカメラを介してユーザによる所定の動作が前記動作情報として取得されることにより、前記仮想空間上の前記アバターオブジェクトを、前記実動作アニメーションから当該所定の動作と異なる前記予定動作アニメーションに切り替えて表示させる、
通信教育提供プログラム。 A correspondence education providing program for providing correspondence education using learning content deployed in a virtual space, comprising:
Set the avatar object of the instructor or student user,
acquiring operation information of the user from a camera connected to a user terminal connected to the virtual space via a network;
creating an actual movement animation of the avatar object based on the acquired movement information;
creating a scheduled action animation of the avatar object with respect to a preset scheduled action;
a computer is caused to execute a process of displaying the actual movement animation together with the learning content in the virtual space ;
a predetermined action by a user is acquired as the action information via a camera connected to the user terminal, and the avatar object in the virtual space is switched from the actual action animation to the planned action animation different from the predetermined action and displayed;
Distance education offering programs.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2024017361A JP7548644B1 (en) | 2024-02-07 | 2024-02-07 | Correspondence education system, correspondence education providing method, and correspondence education providing program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2024017361A JP7548644B1 (en) | 2024-02-07 | 2024-02-07 | Correspondence education system, correspondence education providing method, and correspondence education providing program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP7548644B1 true JP7548644B1 (en) | 2024-09-10 |
Family
ID=92673282
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2024017361A Active JP7548644B1 (en) | 2024-02-07 | 2024-02-07 | Correspondence education system, correspondence education providing method, and correspondence education providing program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7548644B1 (en) |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014029670A (en) | 2012-06-25 | 2014-02-13 | Konami Digital Entertainment Co Ltd | Message browsing system, server, terminal device, control method, and program |
JP2021006894A (en) | 2019-06-27 | 2021-01-21 | 株式会社ドワンゴ | Content distribution server, content generation device, education terminal, content distribution program and education program |
JP2021105707A (en) | 2019-12-26 | 2021-07-26 | 株式会社ドワンゴ | Program, information processing device, and method |
JP2021086146A5 (en) | 2020-07-08 | 2022-11-30 | ||
JP2022184724A (en) | 2021-05-31 | 2022-12-13 | 株式会社バーチャルキャスト | Content provision system, content provision method, and content provision program |
JP7256325B1 (en) | 2022-09-20 | 2023-04-11 | Kddi株式会社 | Information processing device, information processing method and program |
JP2023067892A (en) | 2020-06-29 | 2023-05-16 | グリー株式会社 | Information processing program, information processing method, and information processing device |
JP7281012B1 (en) | 2022-12-26 | 2023-05-24 | グリー株式会社 | Program, information processing method and information processing system |
JP2023145956A (en) | 2022-03-29 | 2023-10-12 | 株式会社国際電気通信基礎技術研究所 | information processing system |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7465736B2 (en) | 2019-11-28 | 2024-04-11 | 株式会社ドワンゴ | Content control system, content control method, and content control program |
-
2024
- 2024-02-07 JP JP2024017361A patent/JP7548644B1/en active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014029670A (en) | 2012-06-25 | 2014-02-13 | Konami Digital Entertainment Co Ltd | Message browsing system, server, terminal device, control method, and program |
JP2021006894A (en) | 2019-06-27 | 2021-01-21 | 株式会社ドワンゴ | Content distribution server, content generation device, education terminal, content distribution program and education program |
JP2021105707A (en) | 2019-12-26 | 2021-07-26 | 株式会社ドワンゴ | Program, information processing device, and method |
JP2023067892A (en) | 2020-06-29 | 2023-05-16 | グリー株式会社 | Information processing program, information processing method, and information processing device |
JP2021086146A5 (en) | 2020-07-08 | 2022-11-30 | ||
JP2022184724A (en) | 2021-05-31 | 2022-12-13 | 株式会社バーチャルキャスト | Content provision system, content provision method, and content provision program |
JP2023145956A (en) | 2022-03-29 | 2023-10-12 | 株式会社国際電気通信基礎技術研究所 | information processing system |
JP7256325B1 (en) | 2022-09-20 | 2023-04-11 | Kddi株式会社 | Information processing device, information processing method and program |
JP7281012B1 (en) | 2022-12-26 | 2023-05-24 | グリー株式会社 | Program, information processing method and information processing system |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11463611B2 (en) | Interactive application adapted for use by multiple users via a distributed computer-based system | |
US20240096227A1 (en) | Content provision system, content provision method, and content provision program | |
US20220360827A1 (en) | Content distribution system, content distribution method, and content distribution program | |
Carvalho et al. | Virtual Reality devices applied to digital games: a literature review | |
JP7548644B1 (en) | Correspondence education system, correspondence education providing method, and correspondence education providing program | |
JP7548645B1 (en) | Correspondence education system, correspondence education providing method, and correspondence education providing program | |
Tang et al. | Emerging human-toy interaction techniques with augmented and mixed reality | |
EP1395897B1 (en) | System for presenting interactive content | |
JP7011746B1 (en) | Content distribution system, content distribution method, and content distribution program | |
Aurelia et al. | A survey on mobile augmented reality based interactive, collaborative and location based storytelling | |
Ghosh et al. | Education Applications of 3D Technology | |
Giakalaras | Mixed Reality: A new way of experiencing videogames | |
KR20190059352A (en) | System for generating virtual and augmented reality images for experience using motion recognition camera and diorama and game method using the system | |
JP6733027B1 (en) | Content control system, content control method, and content control program | |
Carvalho et al. | The state of the art in virtual reality applied to digital games: a literature review | |
Im | Draw2Code: Low-Cost Tangible Programming for Young Children to Create Interactive AR Animations | |
Guinness | Accessible Off-the-Shelf: Lowering Barriers to Accessible Spatial Display Interaction | |
Lazoryshynets et al. | The project formation of virtual graphic images in applications for distance education systems | |
Lahovsky et al. | Bringing Children Closer to Science and the Universe with New Technology | |
Ausland | Anno Pipervika: A situated simulation | |
Karilainen | Creation of 3D scoreboard in virtual reality | |
Makarova et al. | Conditions for the successful mastering of virtual reality technology by schoolchildren | |
Pullambaku et al. | Multi-user and immersive experiencesin education: the Ename 1290 game, based on the use of MicrosoftKinect and Unity | |
Hsiao | Intuitive Approach to an Interactive Tutorial for the VirtuScope | |
Tripon et al. | Learn-o-Bot: Educational Application Using Augmented Reality and Sphero SPRK+. |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20240207 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20240207 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240416 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240617 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240723 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240822 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7548644 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |