JP6419924B1 - Learning support system and learning support method - Google Patents

Learning support system and learning support method Download PDF

Info

Publication number
JP6419924B1
JP6419924B1 JP2017213365A JP2017213365A JP6419924B1 JP 6419924 B1 JP6419924 B1 JP 6419924B1 JP 2017213365 A JP2017213365 A JP 2017213365A JP 2017213365 A JP2017213365 A JP 2017213365A JP 6419924 B1 JP6419924 B1 JP 6419924B1
Authority
JP
Japan
Prior art keywords
student
attribute information
teaching
teacher
processing unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017213365A
Other languages
Japanese (ja)
Other versions
JP2019086602A (en
Inventor
眞粧美 福島
眞粧美 福島
聖仁 中山
聖仁 中山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
UNO LABORATORIES, LTD.
Original Assignee
UNO LABORATORIES, LTD.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by UNO LABORATORIES, LTD. filed Critical UNO LABORATORIES, LTD.
Priority to JP2017213365A priority Critical patent/JP6419924B1/en
Application granted granted Critical
Publication of JP6419924B1 publication Critical patent/JP6419924B1/en
Publication of JP2019086602A publication Critical patent/JP2019086602A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Electrically Operated Instructional Devices (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

【課題】生徒にあった最適な教師を提示すること。【解決手段】コンピュータによって学習を支援する学習支援システムにおいて、生徒の属性情報を格納する格納手段(生徒DB611)と、生徒のそれぞれの学習の進捗状態を判定する判定手段(ティーチング処理部605)と、新たな生徒を登録する場合、当該新たな生徒に類似する属性情報を有する生徒を格納手段から検索する検索手段(ティーチング処理部605)と、検索手段によって取得された新たな生徒に類似する属性情報を有する生徒を担当する教師の中から、評価が相対的に高いと判定された教師を特定する特定手段(ティーチング処理部605)と、特定手段によって特定された教師を提示する提示手段(オブジェクト処理部608)と、を有する。【選択図】図4[PROBLEMS] To present an optimal teacher suitable for a student. In a learning support system that supports learning by a computer, a storage unit (student DB 611) for storing student attribute information, a determination unit (teaching processing unit 605) for determining the progress of each student's learning, and When registering a new student, a search unit (teaching processing unit 605) that searches the storage unit for a student having attribute information similar to the new student, and an attribute similar to the new student acquired by the search unit Identification means (teaching processing unit 605) for identifying a teacher determined to have a relatively high evaluation among teachers in charge of students having information, and presentation means (object) for presenting the teacher identified by the identification means And a processing unit 608). [Selection] Figure 4

Description

本発明は、学習支援システムおよび学習支援方法に関するものである。   The present invention relates to a learning support system and a learning support method.

特許文献1には、先生用端末に対して質問を発行してLANを介してメール送信する質問送信手段と、先生用端末から回答を受信する回答受信手段とを有する生徒用端末と、生徒用端末から質問を受信する質問受信手段と、生徒用端末に対して回答を、LANを介してメール送信する回答送信手段とを有する先生用端末から構成される技術が開示されている。   Patent Document 1 discloses a student terminal having a question transmitting means for issuing a question to a teacher terminal and sending an e-mail via a LAN, and an answer receiving means for receiving an answer from the teacher terminal; A technique is disclosed that includes a teacher terminal having a question receiving means for receiving a question from a terminal and an answer transmitting means for sending an answer to the student terminal via a LAN.

このような技術によれば、LAN上におけるCAIにおいて先生と生徒間で対話が可能な学習支援システムを実現することができる。   According to such a technique, it is possible to realize a learning support system capable of dialogue between a teacher and students in CAI on a LAN.

特開平09−185598号公報JP 09-185598 A

しかしながら、特許文献1に開示された技術では、教師と生徒との相性がよくない場合には、学習が思うように進展しないという問題点がある。   However, the technique disclosed in Patent Document 1 has a problem that learning does not progress as expected when the compatibility between the teacher and the student is not good.

本発明は、生徒にあった最適な教師を提示することが可能な学習支援システムおよび学習支援方法を提供することを目的としている。   An object of the present invention is to provide a learning support system and a learning support method capable of presenting an optimal teacher suitable for a student.

上記課題を解決するために、本発明は、コンピュータによって学習を支援する学習支援システムにおいて、生徒の測定可能な表層的な属性を示す表層属性情報と、前記表層属性情報以外の深層的な属性を示す深層属性情報とを格納する第1格納手段と、前記コンピュータによって描画されるアバターと、前記コンピュータによって合成される音声とを有する仮想的な教師を提示し、提示された前記仮想的な教師を介して学習内容を前記生徒に教授する教授手段と、前記仮想的な教師の前記アバターの種類、前記合成される音声の特徴、および、教授方法を示す属性情報を格納する第2格納手段と、前記生徒のそれぞれの学習の進捗状態を判定する判定手段と、新たな前記生徒を登録する場合、当該新たな前記生徒の前記表層属性情報と、前記深層属性情報とを参照して、類似する前記属性情報を有する前記生徒を前記第1格納手段から検索する検索手段と、前記検索手段によって取得された前記新たな前記生徒に類似する前記属性情報を有する前記生徒に対して提示される前記仮想的な教師の中から、評価が相対的に高いと判定された前記仮想的な教師に関する前記属性情報を前記第2格納手段から特定する特定手段と、前記特定手段によって特定された前記属性情報に基づいて、新たな前記生徒に対して前記仮想的な教師を前記教授手段に提示させる制御を行う制御手段と、を有し、前記教授手段による前記教授方法のうち効果が高い前記教授方法を特定して改変する改変手段を有し、前記教授手段は、前記改変手段によって改変された前記教授方法のうち、学習効果が高いものについては、他の前記生徒に対しても使用する、ことを特徴とする。
このような構成によれば、生徒にあった最適な教師を提示することが可能となる。
In order to solve the above-described problems, the present invention provides a learning support system that supports learning by a computer, and includes surface attribute information indicating measurable surface attributes of a student and deep attributes other than the surface attribute information. Presenting a virtual teacher having first storage means for storing deep attribute information to be displayed, an avatar drawn by the computer, and a voice synthesized by the computer, and displaying the presented virtual teacher Teaching means for teaching the student the learning content, second storage means for storing attribute information indicating the type of the avatar of the virtual teacher, the characteristics of the synthesized speech, and the teaching method ; The determination means for determining the progress of learning of each student, and when registering a new student, the surface attribute information of the new student, The attribute information similar to the new student acquired by the search means, the search means for searching the student having the attribute information similar to the first storage means with reference to layer attribute information Identifying means for identifying, from the second storage means, the attribute information related to the virtual teacher determined to have a relatively high evaluation among the virtual teachers presented to the students; based on said attribute information specified by the specifying means, and a control means for performing control to be presented to the teaching means the virtual teacher for the new the student, the teaching according to the teaching means has changing means for modifying to identify the effect is high the teaching method of the method, the teaching means, among the teaching methods that have been modified by the modification means are learning effect is higher For, also used for other of the student, and wherein the.
According to such a configuration, it is possible to present an optimal teacher suitable for the student.

また、本発明は、コンピュータによって学習を支援する学習支援方法において、生徒の測定可能な表層的な属性を示す表層属性情報と、前記表層属性情報以外の深層的な属性を示す深層属性情報とを格納手段に格納する第1格納ステップと、前記コンピュータによって描画されるアバターと、前記コンピュータによって合成される音声とを有する仮想的な教師を提示し、提示された前記仮想的な教師を介して学習内容を前記生徒に教授する教授ステップと、前記仮想的な教師の前記アバターの種類、前記合成される音声の特徴、および、教授方法を示す属性情報を前記格納手段に格納する第2格納ステップと、前記生徒のそれぞれの学習の進捗状態を判定する判定ステップと、新たな前記生徒を登録する場合、当該新たな前記生徒の前記表層属性情報と、前記深層属性情報とを参照して、類似する前記属性情報を有する前記生徒を前記格納手段から検索する検索ステップと、前記検索ステップにおいて取得された前記新たな前記生徒に類似する前記属性情報を有する前記生徒に対して提示される前記仮想的な教師の中から、評価が相対的に高いと判定された前記仮想的な教師に関する前記属性情報を前記格納手段から特定する特定ステップと、前記特定ステップにおいて特定された前記属性情報に基づいて、新たな前記生徒に対して前記仮想的な教師を前記教授ステップに提示させる制御を行う制御ステップと、を有し、前記教授ステップによる前記教授方法のうち効果が高い前記教授方法を特定して前記教授方法を改変する改変ステップを有し、前記教授ステップは、前記改変ステップにおいて改変された前記教授方法のうち、学習効果が高いものについては、他の前記生徒に対しても使用する、ことを特徴とする。
このような方法によれば、生徒にあった最適な教師を提示することが可能となる。
In the learning support method for supporting learning by a computer, the present invention provides surface attribute information indicating a measurable surface attribute of a student and deep attribute information indicating a deep attribute other than the surface attribute information. A virtual teacher having a first storage step of storing in the storage means, an avatar drawn by the computer, and a voice synthesized by the computer is presented, and learning is performed via the presented virtual teacher. A teaching step of teaching content to the student, a second storing step of storing attribute information indicating the type of the avatar of the virtual teacher, the characteristics of the synthesized speech, and a teaching method in the storage means; A determination step of determining the progress of learning of each of the students, and when registering a new student, the surface layer of the new student A search step of searching the student having the attribute information similar to the storage means with reference to sex information and the deep attribute information, and the similar to the new student acquired in the search step A specifying step of specifying, from the storage means, the attribute information related to the virtual teacher determined to have a relatively high evaluation among the virtual teachers presented to the students having attribute information; , on the basis of the said attribute information specified in the specifying step, and a control step of performing control to present the virtual teacher to the teaching steps for the new the student, the by the teaching step to identify the effect is high the teaching method of teaching methods have altered step of modifying the teaching methods, the teaching step, the modified scan Of the modified the teaching methods in-up, for those learning effect is high, also be used for other of the student, and wherein the.
According to such a method, it is possible to present an optimal teacher suitable for the student.

本発明によれば、生徒にあった最適な教師を提示することが可能な学習支援システムおよび学習支援方法を提供することが可能となる。   ADVANTAGE OF THE INVENTION According to this invention, it becomes possible to provide the learning assistance system and the learning assistance method which can show the optimal teacher suitable for the student.

本発明の実施形態に係る学習支援システムの構成例を示す図である。It is a figure which shows the structural example of the learning assistance system which concerns on embodiment of this invention. 図1に示すクライアント装置の詳細な構成例を示す図である。It is a figure which shows the detailed structural example of the client apparatus shown in FIG. 図1に示すサーバ装置の詳細な構成例を示す図である。It is a figure which shows the detailed structural example of the server apparatus shown in FIG. 図3に示すサーバ装置のハードウエアとソフトウエアとが協働することで実現される機能ブロックである。4 is a functional block realized by cooperation of hardware and software of the server apparatus shown in FIG. 3. 生徒の属性情報の一例を示す図である。It is a figure which shows an example of the attribute information of a student. 図5に示す生徒の属性情報の詳細を示す図である。It is a figure which shows the detail of the attribute information of the student shown in FIG. 教師の属性情報の一例を示す図である。It is a figure which shows an example of the attribute information of a teacher. 図7に示す教師の属性情報の詳細を示す図である。It is a figure which shows the detail of the attribute information of the teacher shown in FIG. 新たな生徒を登録する際に実行される処理の一例を示すフローチャートである。It is a flowchart which shows an example of the process performed when registering a new student. 教師のアバターの一例を示す図である。It is a figure which shows an example of a teacher's avatar. 教師から生徒へのティーチングを行う際に実行される処理の一例を示すフローチャートである。It is a flowchart which shows an example of the process performed when teaching from a teacher to a student. 図11の教師およびメソッドのモディファイ処理の詳細を示すフローチャートである。It is a flowchart which shows the detail of the modification process of the teacher of FIG. 11, and a method. 教師から生徒へのコーチングを行う際に実行される処理の一例を示すフローチャートである。It is a flowchart which shows an example of the process performed when performing coaching from a teacher to a student.

次に、本発明の実施形態について説明する。   Next, an embodiment of the present invention will be described.

(A)本発明の実施形態の構成の説明
図1は、本発明の実施形態に係る学習支援システムの構成例を示す図である。図1に示すように、学習支援システム1は、位置情報入力デバイス10、HMD(Head Mount Display)20、音声入出力デバイス30、クライアント装置40、および、サーバ装置60を有し、クライアント装置40とサーバ装置60はネットワーク50によって通信可能な状態で接続されている。
(A) Description of Configuration of Embodiment of the Present Invention FIG. 1 is a diagram illustrating a configuration example of a learning support system according to an embodiment of the present invention. As shown in FIG. 1, the learning support system 1 includes a position information input device 10, an HMD (Head Mount Display) 20, a voice input / output device 30, a client device 40, and a server device 60. The server device 60 is connected through a network 50 in a communicable state.

位置情報入力デバイス10は、例えば、生徒が手首等に装着するリストバンド型のデバイスとして構成される。位置情報入力デバイス10は、例えば、加速度センサによって手首の動きを検出し、生徒によって机上または空間に描画される情報を取得し、クライアント装置40に供給する。なお、位置情報入力デバイス10としては、例えば、ジョイスティック、ポインティング・スティック、タッチパッド、データグローブ、トラックボール、ペンタブレット、マウス、ライトペン、および、ジョイパッドを用いることもできる。   The position information input device 10 is configured as, for example, a wristband type device that a student wears on a wrist or the like. For example, the position information input device 10 detects wrist movement by an acceleration sensor, acquires information drawn on a desk or space by a student, and supplies the information to the client device 40. As the position information input device 10, for example, a joystick, a pointing stick, a touch pad, a data glove, a trackball, a pen tablet, a mouse, a light pen, and a joypad can be used.

HMD20は、生徒が頭部に装着して使うディスプレイであり、クライアント装置40から供給される映像を両目に対して異なる画像として表示する。また、HMD20は、加速度センサを有しており、頭部の方向を検出し、検出結果に応じた画像をクライアント装置40から供給することで、いわゆる、バーチャルリアリティ(VR)ディスプレイとして機能する。なお、HMD20は、完全に目を覆って外部の様子を見ることができない「非透過型」であっても、あるいは、ディスプレイをハーフミラーにして外部を見られるようにしたり、外部を写す小さなビデオカメラの映像が見られるようにした「透過型」であったりしてもよい。また、クライアント装置40に撮像素子を設け、この撮像素子によってHMD20の方向を検出するようにしてもよい。   The HMD 20 is a display that a student wears on the head and displays the video supplied from the client device 40 as different images for both eyes. Further, the HMD 20 has an acceleration sensor, and functions as a so-called virtual reality (VR) display by detecting the direction of the head and supplying an image corresponding to the detection result from the client device 40. Note that the HMD 20 is a “non-transparent” type that cannot completely cover the eyes and see the outside. Alternatively, the HMD 20 can be seen from the outside with a half-mirror display, or a small video that captures the outside. It may be a “transmission type” that allows a camera image to be seen. Moreover, an image sensor may be provided in the client device 40, and the direction of the HMD 20 may be detected by the image sensor.

音声入出力デバイス30は、音声を入力および出力するためのデバイスであり、例えば、マイクロフォンおよびスピーカまたはヘッドフォン等によって構成される。音声入出力デバイス30は、生徒の発話した音声を電気信号に変換してクライアント装置40に供給する。また、音声入出力デバイス30は、クライアント装置40から供給される電気信号を音声に変換して出力する。なお、HMD20によって検出される頭部の動きに応じて、ヘッドフォンから出力される音声の音量および位相を右耳と左耳で変化させることで、立体音響を実現するようにしてもよい。   The audio input / output device 30 is a device for inputting and outputting audio, and is configured by, for example, a microphone and a speaker or headphones. The voice input / output device 30 converts the voice uttered by the student into an electrical signal and supplies it to the client device 40. The voice input / output device 30 converts the electrical signal supplied from the client device 40 into voice and outputs the voice. Note that three-dimensional sound may be realized by changing the volume and phase of the sound output from the headphones between the right ear and the left ear in accordance with the head movement detected by the HMD 20.

ネットワーク50は、例えば、インターネットまたはLAN(Local Area Network)によって構成され、クライアント装置40とサーバ装置60の間で、パケット形式のデータを授受することで情報を送受信することができる。   The network 50 is configured by, for example, the Internet or a LAN (Local Area Network), and can exchange information between the client device 40 and the server device 60 by exchanging data in a packet format.

サーバ装置60は、例えば、ワークステーション等のコンピュータによって構成され、クライアント装置40からの要求に応じて、画像、音声、テキストデータを供給するとともに、クライアント装置40から供給される情報を処理する。   The server device 60 is configured by a computer such as a workstation, for example, and supplies image, sound, and text data in response to a request from the client device 40 and processes information supplied from the client device 40.

図2は、図1に示すクライアント装置40の詳細な構成例を示す図である。図2に示すように、クライアント装置40は、CPU(Central Processing Unit)41、ROM(Read Only Memory)42、RAM(Read Access Memory)43、HDD(Hard Disk Drive)44、GPU(Graphics Processing Unit)45、I/F(Interface)46、および、バス47を有している。   FIG. 2 is a diagram illustrating a detailed configuration example of the client device 40 illustrated in FIG. 1. As shown in FIG. 2, the client device 40 includes a CPU (Central Processing Unit) 41, a ROM (Read Only Memory) 42, a RAM (Read Access Memory) 43, an HDD (Hard Disk Drive) 44, and a GPU (Graphics Processing Unit). 45, an I / F (Interface) 46, and a bus 47.

ここで、CPU41は、ROM42、RAM43、および、HDD44に格納されているプログラムに基づいて演算処理を実行したり、装置の各部を制御したりする。   Here, the CPU 41 executes arithmetic processing based on programs stored in the ROM 42, the RAM 43, and the HDD 44, and controls each unit of the apparatus.

ROM42は、CPU41が実行する基本的なプログラムおよびデータを格納する半導体記憶装置である。RAM43は、CPU41が実行するプログラムを一時的に格納するとともに、プログラムを実行する際に生じるデータを一時的に格納する半導体記憶装置である。   The ROM 42 is a semiconductor storage device that stores basic programs and data executed by the CPU 41. The RAM 43 is a semiconductor memory device that temporarily stores a program executed by the CPU 41 and temporarily stores data generated when the program is executed.

HDD44は、CPU41が実行する基本的なプログラムおよびデータを格納する磁気記憶装置である。   The HDD 44 is a magnetic storage device that stores basic programs executed by the CPU 41 and data.

GPU45は、CPU41から供給される描画データに基づいて描画処理を実行し、得られた画像をHMD20に供給して表示させる。   The GPU 45 executes a drawing process based on the drawing data supplied from the CPU 41, and supplies the obtained image to the HMD 20 for display.

I/F46は、位置情報入力デバイス10、HMD20、および、音声入出力デバイス30から供給されるデータを入力するとともに、音声入出力デバイス30に対して音声データを供給する。また、I/F46は、ネットワーク50を介してサーバ装置60との間でデータを送受信する。   The I / F 46 inputs data supplied from the position information input device 10, the HMD 20, and the voice input / output device 30 and supplies voice data to the voice input / output device 30. Further, the I / F 46 transmits and receives data to and from the server device 60 via the network 50.

バス47は、CPU41、ROM42、RAM43、HDD44、GPU45、および、I/F46を相互に電気的に接続し、これらの間でデータの授受を可能とするための信号線群である。   The bus 47 is a signal line group for electrically connecting the CPU 41, ROM 42, RAM 43, HDD 44, GPU 45, and I / F 46 to each other and enabling data exchange between them.

図3は、図1に示すサーバ装置60の詳細な構成例を示す図である。図3に示すように、サーバ装置60は、CPU61、ROM62、RAM63、HDD64、I/F65、および、バス66を有している。   FIG. 3 is a diagram illustrating a detailed configuration example of the server device 60 illustrated in FIG. 1. As illustrated in FIG. 3, the server device 60 includes a CPU 61, a ROM 62, a RAM 63, an HDD 64, an I / F 65, and a bus 66.

ここで、CPU61は、ROM62、RAM63、および、HDD64に格納されているプログラムに基づいて演算処理を実行したり、装置の各部を制御したりする。   Here, the CPU 61 executes arithmetic processing based on programs stored in the ROM 62, the RAM 63, and the HDD 64, and controls each unit of the apparatus.

ROM62は、CPU61が実行する基本的なプログラムおよびデータを格納する半導体記憶装置である。RAM63は、CPU61が実行するプログラムを一時的に格納するとともに、プログラムを実行する際に生じるデータを一時的に格納する半導体記憶装置である。   The ROM 62 is a semiconductor memory device that stores basic programs and data executed by the CPU 61. The RAM 63 is a semiconductor storage device that temporarily stores a program executed by the CPU 61 and temporarily stores data generated when the program is executed.

HDD64は、CPU61が実行する基本的なプログラムおよびデータを格納する磁気記憶装置である。   The HDD 64 is a magnetic storage device that stores basic programs executed by the CPU 61 and data.

I/F65は、ネットワーク50を介してクライアント装置40との間でデータを送受信する。   The I / F 65 transmits and receives data to and from the client device 40 via the network 50.

バス66は、CPU61、ROM62、RAM63、HDD64、および、I/F65を相互に電気的に接続し、これらの間でデータの授受を可能とするための信号線群である。   The bus 66 is a signal line group for electrically connecting the CPU 61, the ROM 62, the RAM 63, the HDD 64, and the I / F 65 to each other and enabling data exchange between them.

図4は、図3に示すサーバ装置60において、ROM62およびHDD64に格納されているプログラムがCPU61によって実行されることで実現される機能ブロックである。図4に示す例は、位置情報処理部601、音声認識処理部602、音声合成処理部603、画像生成処理部604、ティーチング処理部605、コーチング処理部606、テキスト処理部607、オブジェクト処理部608、ティーチングDB(Data Base)609、コーチングDB610、生徒DB611、および、教師DB612を有している。   FIG. 4 is a functional block realized by the CPU 61 executing the programs stored in the ROM 62 and the HDD 64 in the server device 60 shown in FIG. The example shown in FIG. 4 includes a position information processing unit 601, a speech recognition processing unit 602, a speech synthesis processing unit 603, an image generation processing unit 604, a teaching processing unit 605, a coaching processing unit 606, a text processing unit 607, and an object processing unit 608. , A teaching DB (Data Base) 609, a coaching DB 610, a student DB 611, and a teacher DB 612.

ここで、位置情報処理部601は、クライアント装置40の位置情報入力デバイス10から入力され、クライアント装置40およびネットワーク50を介して伝送された位置情報を入力し、生徒の手首の動きを検出する処理を実行する。   Here, the position information processing unit 601 receives position information input from the position information input device 10 of the client device 40 and transmitted via the client device 40 and the network 50, and detects movement of the student's wrist. Execute.

音声認識処理部602は、クライアント装置40の音声入出力デバイス30から入力され、クライアント装置40およびネットワーク50を介して伝送された音声データを入力し、音声認識処理によってテキストデータに変換する処理を実行する。   The speech recognition processing unit 602 inputs speech data input from the speech input / output device 30 of the client device 40 and transmitted via the client device 40 and the network 50, and executes processing for converting into text data by speech recognition processing. To do.

音声合成処理部603は、テキスト処理部607から供給されるテキストデータと、音声の属性情報に基づいて音声データ(例えば、WAVデータ)に変換し、ネットワーク50を介してクライアント装置40に供給する。クライアント装置40では、音声データを音声入出力デバイス30に供給することで音声として出力する。なお、テキスト処理部607から供給される属性情報には、音声の基本周波数、性別、抑揚、発話の速度、フォルマント成分の配置、および、音声の大小に関する情報も供給され、これらの情報に基づいて音声を合成することで、話者の特徴や感情を含む音声を再現することができる。   The speech synthesis processing unit 603 converts the text data supplied from the text processing unit 607 and speech attribute information into speech data (for example, WAV data), and supplies the speech data to the client device 40 via the network 50. In the client device 40, the audio data is supplied to the audio input / output device 30 to be output as audio. The attribute information supplied from the text processing unit 607 is also supplied with information on the fundamental frequency of the voice, gender, inflection, speech rate, formant component placement, and the magnitude of the speech. By synthesizing speech, it is possible to reproduce speech that includes speaker characteristics and emotions.

画像生成処理部604は、オブジェクト処理部608から供給されるデータ(例えば、オブジェクトに関するデータ)に基づいてポリゴンデータを生成する処理を実行し、得られたポリゴンデータを、ネットワーク50を介してクライアント装置40に送信する。クライアント装置40では、ポリゴンデータを受信し、GPU45によって描画処理、レイアウト処理、および、レンダリング処理等によって画像を生成し、HMD20に供給して表示させる。   The image generation processing unit 604 executes processing for generating polygon data based on data (for example, data related to an object) supplied from the object processing unit 608, and the obtained polygon data is transmitted to the client device via the network 50. 40. In the client device 40, polygon data is received, an image is generated by the GPU 45 through drawing processing, layout processing, rendering processing, and the like, and is supplied to the HMD 20 for display.

ティーチング処理部605は、位置情報処理部601から供給される生徒の手首の位置およびテキスト処理部607から供給される生徒の発話に関する情報を入力し、ティーチングDB609に格納されているティーチングデータに基づいてオブジェクト処理部608に対してオブジェクト(例えば、教師のアバター)を描画するための情報を供給し、テキスト処理部607に対してオブジェクトに発話させるためのテキストデータを供給する。これにより、生徒に対して、所望の内容を教授するとともに、生徒からの反応を取得し、反応に応じた情報を生徒に対して提示する動作を実行することができる。   The teaching processing unit 605 inputs information on the position of the student's wrist supplied from the position information processing unit 601 and information on the student's utterance supplied from the text processing unit 607, and based on teaching data stored in the teaching DB 609. Information for drawing an object (for example, a teacher's avatar) is supplied to the object processing unit 608, and text data for causing the object to speak is supplied to the text processing unit 607. Accordingly, it is possible to execute an operation of teaching a student a desired content, obtaining a response from the student, and presenting information corresponding to the response to the student.

コーチング処理部606は、位置情報処理部601から供給される生徒の手首の位置およびテキスト処理部607から供給される生徒の発話に関する情報を入力するとともに、テキスト処理部607から供給される生徒の発話に関する情報を入力し、コーチングDB6410に格納されているコーチングデータに基づいてオブジェクト処理部608に対してオブジェクト(例えば、教師のアバター)を描画するための情報を供給し、テキスト処理部607に対してアバターに発話させるためのテキストデータを供給する。これにより、生徒から、より深い心理レベルでの意見や感想を聞き出し、聞き出した意見や感想を敷衍することができる。   The coaching processing unit 606 inputs information regarding the position of the student's wrist supplied from the position information processing unit 601 and information about the student's utterance supplied from the text processing unit 607, and the student's utterance supplied from the text processing unit 607. Is input to the object processing unit 608 based on the coaching data stored in the coaching DB 6410, and information for drawing an object (for example, a teacher's avatar) is supplied to the text processing unit 607. Supply text data for uttering avatar. In this way, students can hear deeper psychological opinions and impressions and spread the opinions and impressions they have heard.

テキスト処理部607は、音声認識処理部602から供給されるテキストデータに対して、自然言語解析処理としての形態素解析処理、構文解析処理、意味解析処理、および、文脈解析処理を実行し、得られた処理結果をティーチング処理部605およびコーチング処理部606に供給する。また、テキスト処理部607は、ティーチング処理部605およびコーチング処理部606から供給されるテキストデータに対して、必要に応じて、形態素解析処理、構文解析処理、意味解析処理、および、文脈解析処理を施し、テキストデータの変換処理等を実行して音声合成処理部603に供給する。   The text processing unit 607 executes the morphological analysis processing, the syntax analysis processing, the semantic analysis processing, and the context analysis processing as the natural language analysis processing on the text data supplied from the speech recognition processing unit 602, and is obtained. The processed result is supplied to the teaching processing unit 605 and the coaching processing unit 606. The text processing unit 607 performs morphological analysis processing, syntax analysis processing, semantic analysis processing, and context analysis processing on the text data supplied from the teaching processing unit 605 and the coaching processing unit 606 as necessary. The text data is converted and supplied to the speech synthesis processing unit 603.

オブジェクト処理部608は、ティーチング処理部605およびコーチング処理部606に供給から供給される情報に基づいて教師のアバターを生成し、画像生成処理部604に供給する。また、オブジェクト処理部608は、ティーチング処理部605およびコーチング処理部606に供給から供給される情報に基づいて、教示する内容を示すオブジェクト(例えば、問題文、画像、動画、および、立体画像)を生成し、画像生成処理部604に供給する。   The object processing unit 608 generates a teacher avatar based on information supplied from the supply to the teaching processing unit 605 and the coaching processing unit 606, and supplies the teacher avatar to the image generation processing unit 604. The object processing unit 608 also displays an object (for example, a question sentence, an image, a moving image, and a stereoscopic image) indicating the content to be taught based on information supplied from the supply to the teaching processing unit 605 and the coaching processing unit 606. To the image generation processing unit 604.

ティーチングDB609は、生徒に対して教授する学習内容を格納するデータベースである。コーチングDB610は、生徒に対して実施するコーチングに関する情報を格納するデータベースである。   The teaching DB 609 is a database that stores learning contents taught to students. The coaching DB 610 is a database that stores information related to coaching performed on students.

生徒DB611は、生徒に関する属性情報を格納したデータベースである。教師DB612は、教師に関する属性情報を格納したデータベースである。   The student DB 611 is a database that stores attribute information related to students. The teacher DB 612 is a database that stores attribute information related to teachers.

図5は、図4に示す生徒DB611に格納される生徒の属性情報の一例を示す図である。図5に示すように、生徒の属性情報としては、個人的属性情報と集団的属性情報とを有する。ここで、個人的属性情報は、個々の生徒のそれぞれの属性情報であり、表層属性情報と深層属性情報とを有する。表層属性情報とは外観から観察できる表面的な属性に関する情報であり、深層属性情報とは外観からは観察できない深層的な属性に関する情報である。また、複数の深層属性情報を包含する属性として集団的深層属性情報を有する。なお、集団的深層属性情報は、複数の深層属性情報を包含するとともに、時間の経過とともにその内容が変化する属性情報である。   FIG. 5 is a diagram showing an example of student attribute information stored in the student DB 611 shown in FIG. As shown in FIG. 5, student attribute information includes personal attribute information and collective attribute information. Here, the personal attribute information is attribute information of each student, and includes surface layer attribute information and deep layer attribute information. The surface layer attribute information is information regarding superficial attributes that can be observed from the appearance, and the deep layer attribute information is information regarding deep attributes that cannot be observed from the appearance. Further, collective deep attribute information is included as an attribute including a plurality of deep attribute information. The collective deep attribute information is attribute information that includes a plurality of deep attribute information and whose contents change over time.

図6は、図5に示す生徒の属性情報の一例を示す図である。図6の左側に示すように、生徒の属性情報を構成する表層属性は、例えば、年齢、性別、身長、体重、偏差値、および、IQ(Intelligence Quotient)を有している。もちろん、これらは一例であって、これら以外の属性情報を有していてもよい。   FIG. 6 is a diagram showing an example of student attribute information shown in FIG. As shown on the left side of FIG. 6, the surface layer attributes constituting the student attribute information include, for example, age, gender, height, weight, deviation value, and IQ (Intelligence Quotient). Of course, these are merely examples, and attribute information other than these may be included.

また、図6の右側に示すように、深層属性情報としては、興味、所属、問題、使命、懐疑、および、畏怖等を有している。なお、興味とは興味の対象を示し、所属とは生徒が所属していると考える地域または団体を示し、問題とは生徒が抱える問題意識を示し、使命とは生徒が思い描く自身の使命を示し、懐疑とは生徒が抱える懐疑の対象を示し、畏怖とは生徒が思い描く畏怖の対象を示す。もちろん、これらは一例であって、これら以外の属性情報を有していてもよい。   Further, as shown on the right side of FIG. 6, the deep attribute information includes interest, affiliation, problem, mission, skepticism, fear, and the like. Interest refers to the object of interest, affiliation refers to the region or group that the student is considered to belong to, problem refers to the student's awareness of the problem, and mission refers to the student's own mission Skepticism indicates the object of skepticism that the student has, and awe indicates the object of awe that the student envisions. Of course, these are merely examples, and attribute information other than these may be included.

図7は、図4に示す教師DB612に格納される属性情報の一例を示す図である。図7に示すように、教師の属性情報としては、生徒と同様に、個人的属性情報と集団的深層属性情報とを有する。ここで、個人的属性情報は、個々の教師のそれぞれの属性情報であり、表層属性情報と深層属性情報とを有する。表層属性情報とは外観から観察できる表面的な属性を示す情報であり、深層属性情報とは外観からは観察できない深層的な属性を示す情報である。また、複数の深層属性情報を包含する属性として集団的深層属性情報を有する。なお、集団的深層属性情報は、複数の深層属性情報を包含するとともに、時間の経過とともにその内容が変化する属性情報である。   FIG. 7 is a diagram illustrating an example of attribute information stored in the teacher DB 612 illustrated in FIG. As shown in FIG. 7, the teacher attribute information includes personal attribute information and collective deep attribute information as in the case of students. Here, the personal attribute information is attribute information of each teacher, and includes surface layer attribute information and deep layer attribute information. The surface layer attribute information is information indicating surface attributes that can be observed from the appearance, and the deep layer attribute information is information indicating deep attributes that cannot be observed from the appearance. Further, collective deep attribute information is included as an attribute including a plurality of deep attribute information. The collective deep attribute information is attribute information that includes a plurality of deep attribute information and whose contents change over time.

図8は、図7に示す教師の属性情報の一例を示す図である。図8に示すように、教師の属性情報を構成する表層属性情報は、例えば、年齢、性別、身長、体重、声の基本周波数、話すスピード、および、アバターを有している。もちろん、これらは一例であって、これら以外の属性情報を有していてもよい。   FIG. 8 is a diagram illustrating an example of teacher attribute information illustrated in FIG. 7. As shown in FIG. 8, the surface layer attribute information constituting the teacher attribute information includes, for example, age, sex, height, weight, fundamental frequency of voice, speaking speed, and avatar. Of course, these are merely examples, and attribute information other than these may be included.

また、深層属性情報としては、第1深層属性情報〜第3深層属性情報を有している。ここで、第1深層属性情報は、興味、所属、問題、使命、懐疑、および、畏怖等を有している。なお、興味とは教師の興味の対象を示し、所属とは教師が所属していると考える地域または団体を示し、問題とは教師が抱える問題意識を示し、使命とは教師が思い描く自身の使命を示し、懐疑とは教師が抱える懐疑の対象を示し、畏怖とは教師が思い描く畏怖の対象を示す。もちろん、これらは一例であって、これら以外の属性情報を有していてもよい。   Moreover, as deep layer attribute information, it has 1st deep layer attribute information-3rd deep layer attribute information. Here, the first deep attribute information has interest, affiliation, problem, mission, skepticism, fear, and the like. Interest indicates the interest of the teacher, affiliation indicates the region or group that the teacher thinks that the teacher belongs to, the problem indicates the teacher's awareness of the problem, and the mission is the mission that the teacher envisions The skepticism indicates the object of the skepticism that the teacher has, and the awe indicates the object of the awe that the teacher envisions. Of course, these are merely examples, and attribute information other than these may be included.

第2深層属性情報としては、教示の際の優先順位等を示し、理解重視、基礎重視、応用重視、進度重視、記憶重視、および、試験重視を有している。ここで、理解重視は生徒の理解を重視し、基礎重視は生徒の基礎力を重視し、応用重視は生徒の応用力を重視し、進度重視は学習の進度を重視し、記憶重視は生徒の記憶の定着を重視し、および、試験重視は生徒の試験結果を重視することを示す。なお、これらを、例えば、10を最大とする、1〜10の間の数値として示すようにしてもよい。もちろん、これらは一例であって、これら以外の属性情報を有していてもよい。   As the second deep attribute information, priority order at the time of teaching, etc. is shown, and emphasis on understanding, basic emphasis, application emphasis, progress emphasis, memory emphasis, and examination emphasis. Here, emphasis on understanding emphasizes student understanding, emphasis on basic emphasis on students' basic skills, emphasis on application emphasizes student's application skills, emphasis on progress emphasizes the progress of learning, and emphasis on memory means the importance of students. Emphasis is placed on memory consolidation, and emphasis on exams indicates emphasis on student test results. In addition, you may make it show these as a numerical value between 1-10 which makes 10 the largest, for example. Of course, these are merely examples, and attribute information other than these may be included.

第3深層属性情報としては、第1メソッド〜第6メソッドを有している。なお、これらのメソッドは教える際の方法を示している。第1メソッドとしては、例えば、語学の場合には単語の発音記号を先に教える方法を示し、第2メソッドとしては、例えば、単語を教えて発音記号は後から教える方法を示す。なお、メソッドとしては、教え方の非常に細かな方法であってもよいし、もう少し大まかな方法であってもよい。もちろん、これらは一例であって、これら以外の属性情報を有していてもよい。   As the third deep attribute information, there are a first method to a sixth method. These methods show how to teach. As a first method, for example, in the case of language, a method for teaching a phonetic symbol of a word first is shown. As a second method, for example, a method for teaching a word and teaching a phonetic symbol later is shown. Note that the method may be a very detailed method of teaching, or a slightly rougher method. Of course, these are merely examples, and attribute information other than these may be included.

(B)本発明の実施形態の動作の説明
つぎに、本発明の実施形態の動作について説明する。図9は、新たな生徒を登録する際にサーバ装置60において実行される処理の一例を示すフローチャートである。例えば、新たな生徒が図1に示す図1に示す学習支援システム1に登録する際には、図9に示す処理が開始される。図9に示す処理が開始されると、以下のステップが実行される。
(B) Description of Operation of the Embodiment of the Present Invention Next, the operation of the embodiment of the present invention will be described. FIG. 9 is a flowchart illustrating an example of processing executed in the server device 60 when a new student is registered. For example, when a new student registers in the learning support system 1 shown in FIG. 1 shown in FIG. 1, the process shown in FIG. 9 is started. When the process shown in FIG. 9 is started, the following steps are executed.

ステップS10では、新たに登録する生徒の年齢、性別、身長等の表層属性情報を入力する。より詳細には、図4に示すティーチング処理部605は、ティーチングDB609から新たな生徒の登録用のテキストデータ(例えば、表層属性情報の各項目を入力するように促すテキストデータ)を読み出し、テキスト処理部607を介して音声合成処理部603に供給する。この結果、音声合成処理部603によって、テキストデータが音声データに変換され、ネットワーク50を介してクライアント装置40に供給される。クライアント装置40は、受信した音声データを音声入出力デバイス30に供給する。音声入出力デバイス30は、新たな生徒の登録用のテキストデータに対応する音声を発生して出力する。なお、このとき、オブジェクト処理部608が登録用のアバター(例えば、ガイダンス役のアバター)を生成して、画像生成処理部604およびネットワーク50を介してクライアント装置40に供給し、HMD20にVR(Virtual Reality)画像として音声に同期して表示するようにしてもよい。生徒は、アバター画像による音声のガイダンスに応じて、位置情報入力デバイス10を操作することで、例えば、年齢、性別、身長、および、体重等を位置情報として入力する。このようにして入力された表層属性情報を示す位置情報は、クライアント装置40からネットワーク50を介してサーバ装置60に供給される。   In step S10, surface attribute information such as age, sex, and height of a newly registered student is input. More specifically, the teaching processing unit 605 shown in FIG. 4 reads text data for registering a new student from the teaching DB 609 (for example, text data that prompts each item of surface attribute information to be input), and performs text processing. The data is supplied to the speech synthesis processing unit 603 via the unit 607. As a result, the text data is converted into voice data by the voice synthesis processing unit 603 and supplied to the client device 40 via the network 50. The client device 40 supplies the received audio data to the audio input / output device 30. The voice input / output device 30 generates and outputs voice corresponding to new student registration text data. At this time, the object processing unit 608 generates a registration avatar (for example, a guidance avatar), supplies the avatar to the client device 40 via the image generation processing unit 604 and the network 50, and sends a VR (Virtual) to the HMD 20. Reality) The image may be displayed in synchronization with the sound. The student operates the position information input device 10 according to the voice guidance by the avatar image, and inputs, for example, age, sex, height, weight, and the like as position information. The position information indicating the surface layer attribute information input in this way is supplied from the client device 40 to the server device 60 via the network 50.

ステップS11では、サーバ装置60の位置情報処理部601は、クライアント装置40から供給された位置情報を処理して属性情報を取得し、ティーチング処理部605に供給する。ティーチング処理部605は、供給された表層属性情報を生徒DB611に新たな生徒の属性情報として登録する。   In step S <b> 11, the position information processing unit 601 of the server device 60 processes the position information supplied from the client device 40 to acquire attribute information, and supplies the attribute information to the teaching processing unit 605. The teaching processing unit 605 registers the supplied surface layer attribute information in the student DB 611 as new student attribute information.

ステップS12では、オブジェクト処理部608は、ステップS11で生徒DB611に登録された表層属性情報を参考にして生徒のアバターを生成し、生徒DB611に登録する。なお、このようにして生成された生徒のアバターは、オブジェクト処理部608から画像生成処理部604に供給し、ネットワーク50およびクライアント装置40を介してHMD20に表示し、必要に応じて修正等を行うようにしてもよい。例えば、頭髪の色、顔の表情、身長、体重等を、位置情報入力デバイス10から入力される情報に基づいて修正するようにしてもよい。   In step S12, the object processing unit 608 generates a student avatar with reference to the surface layer attribute information registered in the student DB 611 in step S11, and registers the student avatar in the student DB 611. The student avatars generated in this way are supplied from the object processing unit 608 to the image generation processing unit 604, displayed on the HMD 20 via the network 50 and the client device 40, and corrected as necessary. You may do it. For example, hair color, facial expression, height, weight, and the like may be corrected based on information input from the position information input device 10.

ステップS13では、ティーチング処理部605は、ティーチングDB609に登録されている学力テストに関するデータ(画像データおよびテキストデータ等)を読み出し、テキスト処理部607およびオブジェクト処理部608に供給する。オブジェクト処理部608は、学力テストを実施するためのオブジェクト(例えば、問題に関するオブジェクト)データと、それを説明するアバターとを生成し、画像生成処理部604に供給する。画像生成処理部604は、オブジェクト処理部608から供給されるオブジェクトデータに基づいてポリゴンを生成するとともにレンダリング処理等を実行し、ネットワーク50を介してクライアント装置40に供給する。クライアント装置40は、供給された情報をHMD20に表示させる。これにより、学力テストの問題と教師のアバターがHMD20に表示される。また、テキスト処理部607は、問題を説明するためのテキストデータを音声合成処理部603に供給する。音声合成処理部603は、テキスト処理部607から供給されるテキストデータに基づいて音声合成処理を実行し、得られた音声データを、ネットワーク50を介してクライアント装置40に供給する。クライアント装置40は、供給された音声情報を、音声入出力デバイス30を介して出力する。これにより、学力テストの問題と、教師のアバターの音声が音声入出力デバイス30から出力される。より詳細には、例えば、教師のアバターが「y=1/4×xのグラフを書いて下さい。」と発話するとともに、「y=1/4×xのグラフを書いて下さい。」が文字として表示される。また、HMD20には生徒の正面に仮想の方眼紙が表示される。生徒は、手を動かして求められている曲線を仮想の方眼紙に対して描画することができる。また、理科の場合には、教師のアバターが「酸素を発生させる実験を行って下さい。」と発話するとともに、「酸素を発生させる実験を行って下さい。」が文字として表示される。また、HMD20には生徒の正面に、試験管およびフラスコ等の実験器具と、過酸化水素水、塩酸、硫酸、アンモニア水、二酸化マンガン、白金、および、ホウ酸等の薬品が表示される。生徒は、手を動かして実験器具を配置するとともに、薬品を選択して投入することで、酸素を発生させる実行を行うことができる。なお、このような学力テストは、学科毎に行うことができる。 In step S <b> 13, the teaching processing unit 605 reads data (image data, text data, etc.) related to the achievement test registered in the teaching DB 609 and supplies the data to the text processing unit 607 and the object processing unit 608. The object processing unit 608 generates object (for example, object related to the problem) data for performing the achievement test and an avatar explaining the data, and supplies the data to the image generation processing unit 604. The image generation processing unit 604 generates a polygon based on the object data supplied from the object processing unit 608, executes a rendering process and the like, and supplies it to the client device 40 via the network 50. The client device 40 displays the supplied information on the HMD 20. Thereby, the academic ability test problem and the teacher's avatar are displayed on the HMD 20. In addition, the text processing unit 607 supplies text data for explaining the problem to the speech synthesis processing unit 603. The voice synthesis processing unit 603 executes voice synthesis processing based on the text data supplied from the text processing unit 607 and supplies the obtained voice data to the client device 40 via the network 50. The client device 40 outputs the supplied audio information via the audio input / output device 30. As a result, the academic ability test problem and the voice of the teacher's avatar are output from the voice input / output device 30. In more detail, for example, a teacher's avatar utters “Please write a graph of y = 1/4 × x 2 ” and “Please write a graph of y = 1/4 × x 2 ”. Is displayed as a character. The HMD 20 displays a virtual graph paper in front of the student. The student can draw a curve obtained by moving his / her hand on a virtual graph paper. In the case of science, the teacher's avatar utters “Please perform an experiment to generate oxygen.” And “Please perform an experiment to generate oxygen.” Is displayed as text. In addition, the HMD 20 displays laboratory instruments such as test tubes and flasks, and chemicals such as hydrogen peroxide, hydrochloric acid, sulfuric acid, ammonia water, manganese dioxide, platinum, and boric acid on the front of the student. The student can perform the operation of generating oxygen by moving hands and placing laboratory instruments and selecting and feeding chemicals. Such academic ability tests can be conducted for each department.

ステップS14では、ティーチング処理部605は、ステップS13で実施された学力テストの結果を取得して採点する。そして、採点した結果と、ティーチングDB609に格納されている全ての生徒に対する学力テストの結果に基づいて、新たに登録する生徒の偏差値を計算する。例えば、前述した数学のテストの例では、描画された曲線が完全に正しい場合には10点とし、形状(下に凸の曲線)のみが正しい場合には5点とし、何も描けない場合には0点として採点する。また、理科の実験の例では、全ての実験の手順が正しい場合には10点とし、手順の一部が間違っていても薬品の選択が正しい場合には5点とし、実験の手順も薬品の選択も間違っている場合には0点として採点することができる。以上のようにして採点した結果を合計することで偏差値を求めることができる。   In step S14, the teaching processing unit 605 obtains and scores the results of the achievement test performed in step S13. Then, based on the scored result and the result of the achievement test for all the students stored in the teaching DB 609, the deviation value of the newly registered student is calculated. For example, in the example of the mathematical test described above, if the drawn curve is completely correct, the score is 10 points. If only the shape (curved convex curve) is correct, the score is 5 points. Will be scored as 0 points. In addition, in the case of science experiments, if all the experimental procedures are correct, the score is 10 points, and even if part of the procedure is wrong, if the drug selection is correct, the score is 5 points. If the selection is wrong, it can be scored as 0 points. The deviation value can be obtained by summing up the results of scoring as described above.

ステップS15では、ティーチング処理部605は、ステップS14で算出した偏差値を、生徒DB611に表層属性情報の「偏差値」として登録する。例えば、新たに登録する生徒の偏差値として、「数学=65」、「英語=55」、「国語=67」、「社会=71」、および、「理科=72」が登録される。なお、学力テストだけでなく、IQテストも同様にして実施し、IQテストの結果を表層属性情報として、生徒DB611に登録するようにしてもよい。   In step S15, the teaching processing unit 605 registers the deviation value calculated in step S14 as the “deviation value” of the surface layer attribute information in the student DB 611. For example, “mathematics = 65”, “English = 55”, “national language = 67”, “society = 71”, and “science = 72” are registered as deviation values of newly registered students. Not only the academic ability test but also the IQ test may be performed in the same manner, and the result of the IQ test may be registered in the student DB 611 as surface layer attribute information.

ステップS16では、ティーチング処理部605は、ティーチングDB609に登録されている心理テストに関する情報を読み出し、テキスト処理部607およびオブジェクト処理部608に供給する。オブジェクト処理部608は、心理テストを実施するためのオブジェクトと、それを説明するアバターとを生成し、画像生成処理部604に供給する。画像生成処理部604は、オブジェクト処理部608から供給されるオブジェクト情報に基づいてポリゴンを生成するとともにレンダリング処理等を実行し、ネットワーク50を介してクライアント装置40に供給する。クライアント装置40は、供給された情報をHMD20に表示する。これにより、心理テストの問題と教師のアバターがHMD20に表示される。また、テキスト処理部607は、問題を説明するためのテキストデータと、音声の属性情報を音声合成処理部603に供給する。音声合成処理部603は、テキスト処理部607から供給されるテキストデータと、属性情報とに基づいて音声合成処理を実行し、得られた音声データを、ネットワーク50を介してクライアント装置40に供給する。クライアント装置40は、供給された音声情報を、音声入出力デバイス30を介して出力する。これにより、心理テストの問題と教師のアバターの音声が音声入出力デバイス30から出力される。より詳細には、例えば、HMD20の生徒の眼前に、複数の壊れかけた古城が表示され、複数の古城のそれぞれには、例えば、科学者、数学者、国文学者、社会学者等が住んでおり、今日は城主が不在とのナレーションがある。生徒は、これらの古城の1つを選択して、中に入ることを許されるとのナレーションがある。この結果、生徒が選んだ古城が、深層属性の「興味」を示すと判断される。例えば、「科学者」が住む古城を選択した場合には、興味の対象は「科学」であると判断される。なお、以上は一例であって、これ以外にも種々の心理テストを実行することができる。   In step S <b> 16, the teaching processing unit 605 reads information related to the psychological test registered in the teaching DB 609 and supplies the information to the text processing unit 607 and the object processing unit 608. The object processing unit 608 generates an object for executing a psychological test and an avatar explaining the object, and supplies the generated object to the image generation processing unit 604. The image generation processing unit 604 generates a polygon based on the object information supplied from the object processing unit 608, executes a rendering process and the like, and supplies it to the client device 40 via the network 50. The client device 40 displays the supplied information on the HMD 20. Thereby, the psychological test problem and the teacher's avatar are displayed on the HMD 20. Further, the text processing unit 607 supplies text data for explaining the problem and voice attribute information to the voice synthesis processing unit 603. The voice synthesis processing unit 603 executes voice synthesis processing based on the text data supplied from the text processing unit 607 and the attribute information, and supplies the obtained voice data to the client device 40 via the network 50. . The client device 40 outputs the supplied audio information via the audio input / output device 30. As a result, the psychological test problem and the voice of the teacher's avatar are output from the voice input / output device 30. More specifically, for example, a plurality of broken castles are displayed in front of the students of the HMD 20, and for example, scientists, mathematicians, scholars, sociologists, etc. live in each of the castles. , Today there is a narration that the castle owner is absent. There is a narration that students are allowed to select one of these castles and enter. As a result, it is determined that the old castle selected by the student shows “interest” in the deep attribute. For example, when an old castle where “scientists” live is selected, it is determined that the object of interest is “science”. Note that the above is an example, and various other psychological tests can be executed.

ステップS17では、ティーチング処理部605は、ステップS16で実施した心理テストの結果を、生徒DB611に深層属性情報として登録する。例えば、新たに登録する生徒の「興味」として「科学」が登録され、「所属」として「学校の科学部」が登録され、「問題」として「暗記科目が苦手」が登録され、「使命」として「将来は不治の病の薬を作る」が登録され、「懐疑」として「今の勉強方法が正しいのか」が登録され、「畏怖」として「元大学教授の祖父」が登録される。なお、以上は一例であって、これら以外を登録するようにしてもよい。また、「言葉」として登録するのではなく、例えば、数値で登録するようにしてもよい。例えば、深層属性として「外向性」および「内向性」を登録する場合、外向的傾向が強い場合には大きい値を、内向的傾向が強い場合には小さい値を登録するようにしてもよい。もちろん、外向性または内向性以外にも、社交性、神経質、粘着質、顕示質、分裂質、および、循環質等の指標を数値として登録するようにしてもよい。なお、深層属性情報は、固定ではなく、例えば、社会の変化に応じて、新たな深層属性情報を導入するようにしてもよい。一例として、集団への帰属意識が評価される社会状況である場合には帰属意識を深層属性情報として追加し、逆に評価されない社会状況である場合には独立意識を深層属性情報として追加するようにしてもよい。すなわち、集団的深層属性とは、社会に共通する深層的な心理属性であるので、社会の変化や流行等に伴って変化する属性と考えられるからである。   In step S17, the teaching processing unit 605 registers the result of the psychological test performed in step S16 as deep attribute information in the student DB 611. For example, “Science” is registered as the “interest” of the newly registered student, “School of Science” is registered as “Affiliation”, “I am not good at memorizing subjects” is registered as “Problems”, and “Mission” "Making medicines for incurable diseases in the future" is registered, "skepticism" is registered "whether the current study method is correct", and "grandfather of a former university professor" is registered as "awe". In addition, the above is an example and you may make it register other than these. In addition, instead of registering as “words”, for example, numerical values may be registered. For example, when “extroversion” and “introversion” are registered as the deep attributes, a large value may be registered when the outward tendency is strong, and a small value may be registered when the inward tendency is strong. Of course, in addition to extroversion or introversion, indices such as sociability, nervousness, adhesiveness, manifestation quality, mitotic quality, and circulation quality may be registered as numerical values. Note that the deep attribute information is not fixed, and new deep attribute information may be introduced according to changes in society, for example. As an example, if it is a social situation where the group's belonging consciousness is evaluated, the belonging consciousness is added as deep attribute information, and conversely, if it is a social situation where it is not evaluated, the independent consciousness is added as deep attribute information. It may be. In other words, the collective deep attribute is a deep psychological attribute common to society, and is considered to be an attribute that changes in accordance with changes in society and fashion.

ステップS18では、ティーチング処理部605は、ステップS11で登録した表層属性情報、ステップS15で登録した学力テストの結果、および、ステップS17で登録した心理テストの結果である深層属性情報と類似する属性を有する既存の生徒を生徒DB611から特定する。例えば、前述した種々の属性情報のそれぞれに対して重み値を設定し、重み値と各属性情報との積を合算した値を類似度として算出する。そして、類似度が大きい順に既存の生徒をソートし、ソートされた上位の生徒を類似する生徒として特定する。例えば、類似度を0〜100の値とする場合に、類似度が大きい順に生徒をソートし、上位の100名を選択することができる。なお、前述した重み値は、後述する処理における教師の評価を指標として、例えば、回帰分析等に基づく学習処理によって重み付けを変更し、類似度の判定精度を向上させるようにしてもよい。   In step S18, the teaching processing unit 605 obtains attributes similar to the surface attribute information registered in step S11, the achievement test result registered in step S15, and the deep attribute information that is the result of the psychological test registered in step S17. An existing student is identified from the student DB 611. For example, a weight value is set for each of the various attribute information described above, and a value obtained by adding the products of the weight value and each attribute information is calculated as the similarity. Then, the existing students are sorted in descending order of similarity, and the sorted upper students are identified as similar students. For example, when the degree of similarity is set to a value of 0 to 100, students can be sorted in descending order of degree of similarity and the top 100 names can be selected. Note that the weight values described above may be changed in weighting by a learning process based on, for example, regression analysis using the teacher's evaluation in the process described later as an index to improve the accuracy of similarity determination.

ステップS19では、ティーチング処理部605は、ステップS18で類似すると判定した生徒と相性が良いと判断される教師を特定する。例えば、前述の例では、類似度が高いと判定された上位100人の生徒を、偏差値が上昇している順番にソートする。そして、上位に位置する生徒が教師との相性がよい生徒として判断することができる。そして、類似度が高い生徒を担当する教師を相性の良い教師として特定することができる。例えば、相性が良いと推定される4人の教師を特定する。なお、偏差値の上昇傾向から相性を判断するのではなく、それ以外の指標値、例えば、生徒がリラックス(安心)できる、理解しやすい、話がしやすい等の指標によって、相性の良否を判定するようにしてもよい。   In step S19, the teaching processing unit 605 identifies a teacher who is determined to be compatible with the student determined to be similar in step S18. For example, in the above-described example, the top 100 students determined to have a high degree of similarity are sorted in the order of increasing deviation values. Then, it is possible to determine that the student located at the top is a student having good compatibility with the teacher. Then, it is possible to identify a teacher in charge of a student with a high degree of similarity as a compatible teacher. For example, four teachers estimated to be compatible are identified. The compatibility is not judged from the upward trend of the deviation value, but the quality of the compatibility is judged by other index values, for example, indicators that students can relax (relief), easy to understand, and easy to talk to. You may make it do.

ステップS20では、ティーチング処理部605は、ステップS19で特定した教師に関するデータを教師DB612から取得し、テキスト処理部607およびオブジェクト処理部608に供給する。例えば、ステップS19で特定した4人の教師に関するデータを教師DB612から選択し、テキスト処理部607およびオブジェクト処理部608に供給する。この結果、HMD20には、図10に示すような4人の教師のアバター画像および属性情報が表示される。生徒は、位置情報入力デバイス10を操作することで、所望の教師を選択し、当該教師の話を聞くことができる。もちろん、会話ができるようにしてもよい。このようなアバター画像を表示し、所望の教師の話し方等を聞くことで、生徒は自分が理想とする教師を特定することができる。例えば、生徒は図10において「××先生」を理想の教師として選択する。   In step S <b> 20, the teaching processing unit 605 acquires data related to the teacher specified in step S <b> 19 from the teacher DB 612 and supplies the data to the text processing unit 607 and the object processing unit 608. For example, data related to the four teachers identified in step S19 is selected from the teacher DB 612 and supplied to the text processing unit 607 and the object processing unit 608. As a result, the avatar images and attribute information of the four teachers as shown in FIG. 10 are displayed on the HMD 20. The student can select a desired teacher by operating the position information input device 10 and listen to the teacher's story. Of course, you may be able to talk. By displaying such an avatar image and listening to the desired teacher's way of speaking, the student can identify the ideal teacher. For example, the student selects “xx teacher” as an ideal teacher in FIG.

ステップS21では、ステップS20で選択した教師を担当教師として設定する。より詳細には、ティーチング処理部605は、ステップS20で選択した教師を、当該生徒の担当教師として生徒DB611に登録する。   In step S21, the teacher selected in step S20 is set as a teacher in charge. More specifically, the teaching processing unit 605 registers the teacher selected in step S20 in the student DB 611 as the teacher in charge of the student.

以上に説明したように、図9に示すフローチャートの処理により、生徒の表層属性情報および深層属性情報を登録するとともに、類似度が高い表層属性情報および深層属性情報を有する既存の生徒を特定し、特定した生徒と相性が良いと推定される教師を特定することができる。   As described above, by registering the surface attribute information and the deep attribute information of the student by the process of the flowchart shown in FIG. 9, the existing student having the surface attribute information and the deep attribute information having high similarity is specified, Teachers estimated to be compatible with the identified students can be identified.

つぎに、図11を参照して、ティーチング処理について説明する。図11に示すフローチャートの処理が開始されると、以下のステップが実行される。なお、以下のフローチャートは、例えば、生徒が授業(ティーチング)を受けるためにHMD20を装着するとともに、位置情報入力デバイス10および音声入出力デバイス30を装着した場合に実行される。   Next, the teaching process will be described with reference to FIG. When the processing of the flowchart shown in FIG. 11 is started, the following steps are executed. Note that the following flowchart is executed when, for example, the student wears the HMD 20 to receive a lesson (teaching) and the position information input device 10 and the voice input / output device 30.

ステップS30では、ティーチング処理部605は、生徒にとって初回のティーチングであるか否かを判定し、初回であると判定した場合(ステップS30:Y)にはステップS31に進み、それ以外の場合(ステップS30:N)にはステップS32に進む。例えば、生徒が初めて授業を受ける場合にはYと判定されてステップS31に進む。   In step S30, the teaching processing unit 605 determines whether or not it is the first teaching for the student, and when it is determined that it is the first time (step S30: Y), the process proceeds to step S31, and otherwise (step S30). In S30: N), the process proceeds to step S32. For example, when a student takes a lesson for the first time, it is determined as Y and the process proceeds to step S31.

ステップS31では、ティーチング処理部605は、生徒が選択した教科(例えば、国語、社会、理科、数学、英語等)と、選択した教科のその時点における偏差値、生徒の深層属性情報と、選択した教師の深層属性情報に基づいてカリキュラムを生成する。例えば、生徒が選択した教科が「英語」であり、その時点の偏差値が「50」であり、生徒の深層属性情報の興味が「科学」であり、教師の第2深層属性情報の基礎重視の配点が高く、第2メソッド(例えば、文法重視)の配点が高いとする。その場合、生徒の英語の成績は普通であり、生徒は論理的な思考能力が高く、また、教師は基礎重視で、かつ、文法重視であることから、文法を論理的に教授するカリキュラムを生成する。なお、以上は一例であって、これ以外の方法でカリキュラムを生成するようにしてもよい。   In step S31, the teaching processing unit 605 selects the subject selected by the student (eg, Japanese language, society, science, mathematics, English, etc.), the deviation value of the selected subject at that time, and the deep attribute information of the student. A curriculum is generated based on the deep attribute information of the teacher. For example, the subject selected by the student is “English”, the deviation value at that time is “50”, the student's interest in the deep attribute information is “science”, and the teacher attaches importance to the second deep attribute information. And the second method (for example, grammar-oriented) has a high score. In that case, the student's English grade is normal, the student has a high level of logical thinking ability, and the teacher emphasizes basics and grammar, so a curriculum that teaches grammar logically is generated. To do. The above is an example, and the curriculum may be generated by other methods.

ステップS32では、ティーチング処理部605は、例えば、ティーチングDB609に格納されている当該生徒のカリキュラムから前回終了した箇所を特定する。例えば、当該生徒が英語の文法の授業を受けている場合に、5文型のうち、第2文型の基礎問題まで前回の授業で進んだ場合には、応用問題から開始する。なお、このように、生徒がHMD20等を装着することで、前回からの授業が自動的に再開されるようにしたので、前回の授業の内容を記憶する必要がなく、迅速に授業を開始することができる。   In step S <b> 32, the teaching processing unit 605 identifies a location that was previously ended from the student curriculum stored in the teaching DB 609, for example. For example, when the student is taking a class on English grammar, if the student progresses to the basic problem of the second sentence type out of five sentence types, the application problem starts. In this way, since the class from the previous time is automatically resumed by the student wearing the HMD 20 or the like in this way, it is not necessary to memorize the contents of the previous class, and the class is started quickly. be able to.

ステップS33では、HMD20に教師のアバターが表示される。より詳細には、ティーチング処理部605は、生徒を特定するための情報(例えば、ID情報)に基づいて生徒DB611を検索して生徒を特定し、特定した生徒によって選択されている教師に関する情報を教師DB612から取得する。例えば、図10において、××先生が選択された場合には、××先生に対応する情報が教師DB612から取得される。このとき、アバターと声の属性情報(声の基本周波数、話すスピード、抑揚等)も取得される。   In step S <b> 33, the teacher's avatar is displayed on the HMD 20. More specifically, the teaching processing unit 605 searches the student DB 611 based on information for identifying a student (for example, ID information) to identify the student, and information on the teacher selected by the identified student. Obtained from the teacher DB 612. For example, in FIG. 10, when xx teacher is selected, information corresponding to xx teacher is acquired from the teacher DB 612. At this time, avatar and voice attribute information (voice fundamental frequency, speaking speed, intonation, etc.) is also acquired.

ステップS34では、ティーチング処理部605は、学習内容を表示する処理を実行する。より詳細には、ティーチング処理部605は、ティーチングDB609から当該生徒の学習内容に関する情報を取得し、テキスト処理部607およびオブジェクト処理部608に供給する。この結果、オブジェクト処理部608は、教師のアバターを表示(動作)させるための情報と、例えば、学習内容に関する情報(例えば、英語の場合には例文)とを生成し、画像生成処理部604に供給する。画像生成処理部604は、オブジェクト処理部608から供給される情報に基づいてポリゴン処理およびレンダリング処理等を実行し、得られた画像情報を、ネットワーク50を介してクライアント装置40に供給する。クライアント装置40は、受信したポリゴン情報に基づいて描画処理を実行し、HMD20に供給して表示させる。また、テキスト処理部607は、教師のアバターに発話させるためのテキストデータと、教師の音声の属性情報とを生成し、音声合成処理部603に供給する。音声合成処理部603は、テキスト処理部607から供給されるテキストデータに基づいて音声データを合成し、ネットワーク50を介してクライアント装置40に供給する。クライアント装置40は、受信した音声データを音声入出力デバイス30から出力する。これにより、例えば、図10に示す××先生のアバターがVR画像として合成されて、HMD20に表示されるとともに、仮想の黒板に××先生が英語の例文(例えば、「She is painting the wall blue.」)を表示することができる。なお、生徒の記憶への定着を促進するために、例文に応じたアバター(壁を青色に塗っている女性のアバター)と、例文(She is painting the wall blue.)と、文型(第5文型(SOVC))を表示するようにしてもよい。   In step S34, the teaching processing unit 605 executes processing for displaying the learning content. More specifically, the teaching processing unit 605 acquires information regarding the learning content of the student from the teaching DB 609 and supplies the information to the text processing unit 607 and the object processing unit 608. As a result, the object processing unit 608 generates information for displaying (operating) the teacher's avatar and information related to the learning content (for example, an example sentence in the case of English), and the image generation processing unit 604 generates the information. Supply. The image generation processing unit 604 executes polygon processing and rendering processing based on the information supplied from the object processing unit 608 and supplies the obtained image information to the client device 40 via the network 50. The client device 40 executes a drawing process based on the received polygon information, and supplies it to the HMD 20 for display. Also, the text processing unit 607 generates text data for uttering the teacher's avatar and attribute information of the teacher's voice, and supplies the text data to the speech synthesis processing unit 603. The voice synthesis processing unit 603 synthesizes voice data based on the text data supplied from the text processing unit 607 and supplies the synthesized voice data to the client device 40 via the network 50. The client device 40 outputs the received audio data from the audio input / output device 30. Thus, for example, the avatar of xx teacher shown in FIG. 10 is synthesized as a VR image and displayed on the HMD 20, and the xx teacher displays an English example sentence (for example, “She is painting the wall blue” . ”) Can be displayed. In order to encourage students to stay in memory, an avatar (she is painting the wall blue.), An example sentence (She is painting the wall blue.), A sentence pattern (fifth sentence pattern) (SOVC)) may be displayed.

ステップS35では、ティーチング処理部605は、生徒の反応を取得する。例えば、ティーチング処理部605は、音声認識処理部602によって、生徒の発話する音声の周波数特性の変化等から、生徒の反応(感情等)を取得する。例えば、周波数が通常よりも低下した場合には飽きていると判定することができる。また、ティーチング処理部605は、位置情報処理部601によって、生徒の動きを検出することで、生徒の反応を取得する。なお、生徒の表情をカメラ等で撮像し、撮像された画像に写った生徒の表情から生徒の反応を取得するようにしてもよい。なお、このときに取得したこれらの情報に基づいて、生徒の反応を、「活発」、「普通」、および、「鈍い」の3つに分類することができる。あるいは、最も活発な状態を10とする10段階評価で評価するようにしてもよい。   In step S35, the teaching processing unit 605 acquires a student's reaction. For example, the teaching processing unit 605 obtains the student's reaction (emotion etc.) from the change in the frequency characteristics of the speech uttered by the student by the voice recognition processing unit 602. For example, when the frequency is lower than usual, it can be determined that the user is bored. Also, the teaching processing unit 605 acquires the student's reaction by detecting the student's movement by the position information processing unit 601. The student's facial expression may be captured by a camera or the like, and the student's reaction may be acquired from the student's facial expression reflected in the captured image. Note that the student's reaction can be classified into three categories of “active”, “normal”, and “dull” based on the information acquired at this time. Or you may make it evaluate by 10-step evaluation which makes the most active state 10.

ステップS36では、ティーチング処理部605は、理解度テストを実施する。例えば、いまの例では、英語の第5文型に関する理解度テストを実行する。より詳細には、ティーチング処理部605は、ティーチングDB609から理解度テストに関する情報を取得し、テキスト処理部607とオブジェクト処理部608に供給する。この結果、HMD20に理解度テストの問題と教師のアバターが表示されるとともに、音声入出力デバイス30から音声によるガイダンスが出力される。生徒は、位置情報入力デバイス10を操作したり、音声入出力デバイス30に対して発話したりすることで、理解度テストに対して解答することができる。   In step S36, the teaching processing unit 605 performs an understanding level test. For example, in the present example, a comprehension test for the fifth sentence pattern in English is executed. More specifically, the teaching processing unit 605 acquires information related to the understanding level test from the teaching DB 609 and supplies the information to the text processing unit 607 and the object processing unit 608. As a result, the problem of understanding test and the teacher's avatar are displayed on the HMD 20, and voice guidance is output from the voice input / output device 30. The student can answer the comprehension test by operating the position information input device 10 or speaking to the voice input / output device 30.

ステップS37では、ティーチング処理部605は、教師の評価の入力を受ける。より詳細には、ティーチング処理部605は、ティーチングDB609から教師の評価に関する情報を取得し、テキスト処理部607とオブジェクト処理部608に供給する。この結果、HMD20に教師を評価するための情報(例えば、5段階評価をするための入力ボックス)が表示されるとともに、音声入出力デバイス30から音声によるガイダンスが出力される。生徒は、位置情報入力デバイス10を操作したり、音声入出力デバイス30に対して発話したりすることで、教師の評価をすることができる。   In step S <b> 37, the teaching processing unit 605 receives a teacher evaluation input. More specifically, the teaching processing unit 605 acquires information related to teacher evaluation from the teaching DB 609 and supplies the information to the text processing unit 607 and the object processing unit 608. As a result, information for evaluating the teacher (for example, an input box for five-step evaluation) is displayed on the HMD 20, and voice guidance is output from the voice input / output device 30. The student can evaluate the teacher by operating the position information input device 10 or speaking to the voice input / output device 30.

ステップS38では、ティーチング処理部605は、生徒の反応、理解度テストの結果、および、教師の評価を、生徒DB611に登録する。例えば、生徒の反応として「鈍い」が、理解度テストの結果として「偏差値50」が、また、教師の評価として「5段階評価で3」が当該生徒の現在の教師に対する評価として登録される。なお、理解度テスト、教師の評価、および、生徒の反応は毎回取得する必要はなく、必要に応じた頻度で取得し、登録するようにしてもよい。   In step S <b> 38, the teaching processing unit 605 registers the student reaction, the understanding test result, and the teacher evaluation in the student DB 611. For example, “dull” is registered as the student's response, “deviation value 50” is registered as the result of the comprehension test, and “3 in five-level evaluation” is registered as the evaluation of the current teacher of the student. . The comprehension test, teacher evaluation, and student response do not need to be acquired every time, but may be acquired and registered at a frequency as necessary.

ステップS39では、ティーチング処理部605は、ステップS38で登録された生徒の反応、理解度テストの結果、および、教師の評価に基づいて、教師およびメソッドをモディファイする処理を実行する。なお、この処理の詳細は、図12を参照して後述する。   In step S39, the teaching processing unit 605 executes processing for modifying the teacher and the method based on the student's reaction registered in step S38, the result of the understanding level test, and the teacher's evaluation. Details of this processing will be described later with reference to FIG.

以上の処理によれば、教師から生徒へのティーチング処理を実行することができる。   According to the above process, the teaching process from the teacher to the student can be executed.

つぎに、図12を参照して、図11のステップS39に示す教師およびメソッドのモディファイ処理の詳細について説明する。図12の処理が開始されると以下のステップが実行される。   Next, details of the teacher and method modification processing shown in step S39 of FIG. 11 will be described with reference to FIG. When the process of FIG. 12 is started, the following steps are executed.

ステップS50では、ティーチング処理部605は、表層属性情報および深層属性情報を変えたA/Bモデルを作成する。例えば、一例として、表層属性情報の声の基本周波数を変更したり、話すスピードを変更したり、アバターを変更したりすることができる。このとき、一度に全てを変更するのではなく、一部を変更した教師を1組作成(A/Bモデルを作成)とする。また、授業中に話す、たとえ話や、世間話の題材に影響を与える第1深層属性情報を、前述の場合と同様にA/Bテストに応じて変更するようにしてもよい。   In step S50, the teaching processing unit 605 creates an A / B model in which the surface layer attribute information and the deep layer attribute information are changed. For example, as an example, the fundamental frequency of the voice of the surface layer attribute information can be changed, the speaking speed can be changed, or the avatar can be changed. At this time, instead of changing all at once, one set of teachers who have changed part is created (A / B model is created). In addition, the first deep attribute information that affects the subject matter of parables and popular stories that are spoken during the class may be changed according to the A / B test in the same manner as described above.

ステップS51では、ティーチング処理部605は、ステップS50で作成したA/Bモデルを交互に提示するように設定する。この結果、例えば、音声の基本周波数が数ヘルツ高い教師Aと、基本周波数が数ヘルツ低い教師Bが交互に提示されるように設定される。また、授業中に話す、たとえ話や、世間話の題材に影響を与える第1深層属性情報の一部を変更した教師を1組作成し、これらをA/Bモデルとして設定するようにしてもよい。   In step S51, the teaching processing unit 605 performs setting so that the A / B model created in step S50 is alternately presented. As a result, for example, the teacher A is set so that the teacher A whose fundamental frequency is several hertz and the teacher B whose fundamental frequency is several hertz are alternately presented. In addition, a set of teachers that change part of the first deep attribute information that affects the subject matter of parables and popular stories that are spoken during class may be created and set as an A / B model. Good.

ステップS52では、ティーチング処理部605は、図11のステップS38で格納した生徒の反応、理解度テストの結果、および、教師の評価に基づいて、前回設定したA/Bモデルを選択する処理を実行する。例えば、生徒の反応、理解度テストの結果、および、教師の評価のそれぞれに対して重み関数を乗算して合算して得られる値を、A/Bモデルのそれぞれについて算出し、値が最も高いモデルを選択することができる。なお、3つ以上のモデルを用いて評価を行うようにしてもよいことは言うまでもない。   In step S52, the teaching processing unit 605 executes a process of selecting the A / B model set last time based on the student's reaction, the result of the understanding test, and the teacher's evaluation stored in step S38 of FIG. To do. For example, a value obtained by multiplying each of the student's reaction, the result of the comprehension test, and the teacher's evaluation by multiplying the weight function is calculated for each A / B model, and the highest value A model can be selected. Needless to say, the evaluation may be performed using three or more models.

ステップS53では、ティーチング処理部605は、図8に示す第3深層属性において、効果が高いメソッドを特定する。より詳細には、同一の生徒に適用した場合に効果が相対的に高い(理解度テストの結果が相対的に高い)メソッドを特定する。一例として、英語の場合には、発音記号を教えてから実際の発音を教える第1メソッドと、発音記号は教えずに発音を教える第2メソッドを比較した場合に、第1メソッドの方が第2メソッドに比べて理解度テストの結果がよい場合には第1メソッドを選択する。   In step S53, the teaching processing unit 605 identifies a method having a high effect in the third depth attribute illustrated in FIG. More specifically, a method that is relatively effective when applied to the same student (having a relatively high understanding test result) is identified. As an example, in the case of English, when comparing the first method that teaches pronunciation after teaching phonetic symbols, and the second method that teaches pronunciation without teaching phonetic symbols, the first method is the first method The first method is selected when the comprehension test result is better than the two methods.

ステップS54では、ティーチング処理部605は、メソッドを改変する処理を実行する。例えば、先程の英語の例では、発音記号を教えてから実際の発音を教える第1メソッドを、例えば、類似する複数の子音または母音を差異の対立構造として教えるメソッドとして改変する。なお、改変の方法としては、教える順番を変更する方法や、教える視点を変更する方法や、教える優先順位を変更する方法等がある。もちろん、これ以外の変更方法であってもよい。要は、教える内容を固定化するのではなく、変更することにより、より効果的なメソッドを得ることが目的であるので、小さな変化でもよい。   In step S54, the teaching processing unit 605 executes processing for modifying the method. For example, in the previous English example, the first method that teaches the phonetic symbols and then teaches the actual pronunciation is modified, for example, as a method that teaches a plurality of similar consonants or vowels as an opposing structure of differences. As a modification method, there are a method of changing the teaching order, a method of changing the teaching viewpoint, a method of changing the teaching priority, and the like. Of course, other changing methods may be used. In short, since the purpose is to obtain a more effective method by changing the teaching contents rather than fixing them, small changes may be possible.

ステップS55では、ティーチング処理部605は、改変したメソッドをコピーする。より詳細には、ステップS54で改変したメソッドを、別のメソッドとしてコピーする。例えば、前述の例では、発音記号を教えてから実際の発音を教える第1メソッドを、例えば、類似する複数の子音または母音を差異の対立構造として教えるメソッドとして改変し、これを、例えば、第7メソッド(新たなメソッド)としてコピーする。   In step S55, the teaching processing unit 605 copies the modified method. More specifically, the method modified in step S54 is copied as another method. For example, in the above example, the first method of teaching the phonetic symbol and then teaching the actual pronunciation is modified as, for example, a method of teaching a plurality of similar consonants or vowels as an opposing structure of differences, Copy as 7 methods (new method).

ステップS56では、ティーチング処理部605は、改変前後のメソッドの中から効果が低いメソッドを特定する。例えば、前述の例では、改変前の第1メソッドと、改変後の第7メソッドとを比較し、効果が相対的に低いメソッドとして第1メソッドを特定する。なお、改変前後のメソッドで、明らかに効果が低いメソッドが存在する場合には、当該メソッドを選択し、効果が略同じである場合には、例えば、乱数等に基づいて、アトランダムにいずれかを選択するようにしてもよい。   In step S56, the teaching processing unit 605 identifies a method having a low effect from the methods before and after the modification. For example, in the above-described example, the first method before modification is compared with the seventh method after modification, and the first method is specified as a method having a relatively low effect. Note that if there is a method that is clearly ineffective among the methods before and after modification, select the method, and if the effect is almost the same, for example, either randomly, based on random numbers, etc. May be selected.

ステップS57では、ティーチング処理部605は、ステップS56で特定された効果の低いメソッドを削除する。   In step S57, the teaching processing unit 605 deletes the method having the low effect identified in step S56.

ステップS58では、ティーチング処理部605は、改変前後のメソッドの中から効果が高いメソッドを特定する。例えば、前述の例では、改変前の第1メソッドと、改変後の第2メソッドとを比較し、効果が相対的に高いメソッドとして第7メソッドを特定する。なお、改変前後のメソッドで、効果が略同じである場合には、ステップS58の処理では、特定は行わない。ステップS58の処理は、効果が明らかに高いメソッドを特定する処理であるので、効果が明確でない場合には特定しない。   In step S58, the teaching processing unit 605 identifies a method having a high effect from the methods before and after the modification. For example, in the above-described example, the first method before modification and the second method after modification are compared, and the seventh method is identified as a method having a relatively high effect. Note that if the method before and after the modification has substantially the same effect, no identification is performed in the process of step S58. The process in step S58 is a process for specifying a method that has a clearly high effect, and is not specified when the effect is not clear.

ステップS59では、ティーチング処理部605は、ステップS58で特定された効果の高いメソッドを拡散する処理を実行する。より詳細には、図8に示すように、メソッドは第3深層属性情報に属し、また、図7に示すように、深層属性情報はそれぞれの教師の個人的属性情報に属する。このため、ある教師に属する(改変によって生じた)メソッドが効果的であると判明した場合には、当該メソッドを他の教師の深層属性情報に対しても拡散(コピー)することで、有効なメソッドを集団的深層属性情報として共有化することができる。ステップS59の処理が終了すると、元の処理に復帰(リターン)する。   In step S59, the teaching processing unit 605 executes a process for diffusing the highly effective method specified in step S58. More specifically, as shown in FIG. 8, the method belongs to the third deep attribute information, and as shown in FIG. 7, the deep attribute information belongs to the personal attribute information of each teacher. For this reason, if a method belonging to a certain teacher (caused by modification) is found to be effective, it is effective by diffusing (copying) that method to the deep attribute information of other teachers. Methods can be shared as collective deep attribute information. When the process of step S59 ends, the process returns (returns) to the original process.

以上の処理によれば、教師の表層属性情報および深層属性情報をA/Bテストによって、個々の生徒に対して最適なものに進化させることができる。また、メソッドについても、改変、コピー(複写)、選択(淘汰)することで、より効果的なメソッドに進化させることができる。   According to the above processing, the surface layer attribute information and the deep layer attribute information of the teacher can be evolved to be optimal for each student by the A / B test. Also, methods can be evolved into more effective methods by modification, copying (copying), and selection (淘汰).

つぎに、図13を参照して、教師が生徒に対して、コーチングを行う場合に実行される処理について説明する。なお、コーチングとは、対話によって生徒の自己実現や目標達成を導き出す方法である。教師は、生徒の話を傾聴し、感じたことを伝えて承認し、質問することで、自発的な行動を促すことができる。   Next, with reference to FIG. 13, processing executed when the teacher performs coaching on the student will be described. Coaching is a method of deriving students' self-realization and achievement of goals through dialogue. Teachers can encourage voluntary action by listening to the student's story, communicating and approving what they feel, and asking questions.

ステップS70では、コーチング処理部606は、コーチングのテーマを決定する。なお、コーチングのテーマを決定する方法としては、例えば、HMD20または音声入出力デバイス30を介してテーマの一覧を提示し、提示された中から選択してもらうことができる。あるいは、生徒と教師の会話の中で、所定のキーワードが出現した場合には、それをきっかけとしてコーチングのテーマを決定することができる。例えば、生徒から「将来は〇〇に関する職業を目指している。」等の発言があれば、「将来の進路」をコーチングのテーマとすることができる。   In step S70, the coaching processing unit 606 determines a coaching theme. As a method for determining the theme of coaching, for example, a list of themes can be presented via the HMD 20 or the voice input / output device 30 and selected from the presented lists. Alternatively, when a predetermined keyword appears in a conversation between a student and a teacher, the theme of coaching can be determined as a trigger. For example, if a student says such as “I'm aiming for a profession in the future”, “the future course” can be set as the theme of coaching.

ステップS71では、コーチング処理部606は、ステップS70で特定したテーマに対応する質問をコーチングDB610から取得する。例えば、前述した「将来の進路」であれば、「どういう職業にあこがれを持っているのですか?」、「その職業にあこがれを持つ理由はなんですか?」、「身近な人でその職業に就いている人はいますか?」、「あなたにとって働く目的や理由は何ですか?」等のような深層属性情報の「興味」、「(未来の)所属」、「問題(意識)」、「使命」、「懐疑」、および、「畏怖」を導き出すような質問を検索によって特定する。   In step S71, the coaching processing unit 606 acquires a question corresponding to the theme identified in step S70 from the coaching DB 610. For example, in the case of the “future career” mentioned above, “What kind of occupation do you have a longing for?” “What is the reason for having a longing for that occupation?” “Is there anyone who has a job?”, “What is the purpose and reason for working for you?”, Etc. “Interest”, “(Future) affiliation”, “Problem (consciousness)”, The search identifies questions that lead to “mission,” “skepticism,” and “awe”.

ステップS72では、音声認識処理部602は、生徒の発言を取得する。より詳細には、生徒によって発話され、音声入出力デバイス30によって音声データに変換され、クライアント装置40およびネットワーク50を介して伝送された音声データを取得する。この結果、生徒が発話した「将来は、英語を使った職業に就きたい。」が取得される。   In step S72, the voice recognition processing unit 602 acquires a student's remarks. More specifically, voice data uttered by a student, converted into voice data by the voice input / output device 30, and transmitted via the client device 40 and the network 50 is acquired. As a result, the student speaks “I want to find a job that uses English in the future.”

ステップS73では、音声認識処理部602は、ステップS72において、ネットワーク50を介して取得した音声データに対して音声認識処理を施し、テキスト処理部607によってテキスト化を実行する。前述した例では、発話された音声データ「将来は、英語を使った職業に就きたい。」がテキスト化される。   In step S73, the speech recognition processing unit 602 performs speech recognition processing on the speech data acquired via the network 50 in step S72, and the text processing unit 607 performs text conversion. In the example described above, the spoken voice data “I want to work in English in the future.” Is converted into text.

ステップS74では、コーチング処理部606は、ステップS73でテキスト化された生徒の発言を取得し、発言に対応する質問をコーチングDB610から取得する。例えば、前述の「将来は、英語を使った職業に就きたい。」が生徒の発言である場合、「何故、英語なのでしょうか?」が選択される。なお、このような会話の内容は、予め会話の内容を想定し、想定した会話に基づいて、コーチングの技法に基づいて、適切な会話を格納しておくことで実現できる。コーチングは、生徒の深層に埋もれた意見や感情を引き出すための会話であり、自由な会話(日常会話等)に比較すると、教師側は受動的であるので、準備すべき質問の数も少なくて済む。   In step S <b> 74, the coaching processing unit 606 acquires the student's statement made into text in step S <b> 73 and acquires a question corresponding to the statement from the coaching DB 610. For example, if the above-mentioned “I want to work in English in the future” is a student's statement, “Why is it English?” Is selected. Such conversation contents can be realized by presuming the conversation contents in advance and storing appropriate conversations based on the assumed conversation and based on the coaching technique. Coaching is a conversation to bring out opinions and emotions buried deep in the students. Compared with free conversation (daily conversation, etc.), teachers are passive, so there are fewer questions to prepare. That's it.

ステップS75では、コーチング処理部606は、ステップS74で取得した質問をテキスト処理部607に供給し、音声合成処理部603によって音声化して出力する。この結果、ステップS74で取得された質問が、クライアント装置40の音声入出力デバイス30から出力される。   In step S75, the coaching processing unit 606 supplies the question acquired in step S74 to the text processing unit 607, which is voiced by the speech synthesis processing unit 603 and output. As a result, the question acquired in step S74 is output from the voice input / output device 30 of the client device 40.

ステップS76では、コーチング処理部606は、コーチングによって結論に到達したか否かを判定し、到達したと判定した場合(ステップS76:Y)にはステップS77に進み、それ以外の場合(ステップS76:N)にはステップS72に戻って前述の場合と同様の処理を繰り返す。例えば、特定のキーワード(例えば、「そうか。」、「確かに。」、「なるほど。」等)を生徒が発話した場合、生徒の感情が高ぶっていると音声から推定される場合(例えば、音声の基本周波数が通常よりも高くなっている場合)、生徒が終了の意思表示をした場合(例えば、位置情報入力デバイス10から所定のコマンドを入力した場合)等には、結論に到達したと判定してステップS77に進むことができる。   In step S76, the coaching processing unit 606 determines whether or not a conclusion has been reached by coaching. If it is determined that the conclusion has been reached (step S76: Y), the process proceeds to step S77, and otherwise (step S76: In N), the process returns to step S72, and the same process as described above is repeated. For example, when a student utters a specific keyword (for example, “Yes?”, “Sure.”, “I see.”, Etc.), it is estimated from the voice that the student's emotion is high (for example, When the fundamental frequency of the voice is higher than normal), when the student makes an intention to end (for example, when a predetermined command is input from the position information input device 10), the conclusion is reached. Determination can be made and the process can proceed to step S77.

ステップS77では、コーチング処理部606は、ステップS76で到達した結論を格納する。例えば、「将来は、英語を使う職業に就きたいと思っていたが、人の役に立ちたいという思いが根本にあるので、医師または看護師になることを目指す。」を結論として生徒DB611に格納する。   In step S77, the coaching processing unit 606 stores the conclusion reached in step S76. For example, “I wanted to be a profession that uses English in the future, but I want to become a doctor or a nurse because there is a desire to help people.” As a conclusion, the result is stored in the student DB 611. .

ステップS78では、コーチング処理部606は、コーチングを行った生徒と類似する属性を有するとともに、過去に同じテーマでコーチングを行った生徒を生徒DB611から検索し、その結論を取得する。より詳細には、例えば、当該生徒と類似する深層属性情報を有するとともに、前述の例では「将来の進路」をテーマとしてコーチングを行ったことがある生徒を特定し、そのコーチングの結論を取得する。なお、深層属性情報の類否については、例えば、図6に示す深層属性情報のそれぞれと重み値との積和演算によって得られた値を比較することで類否を判断することができる。もちろん、これ以外の方法を用いてもよい。   In step S78, the coaching processing unit 606 searches the student DB 611 for a student having an attribute similar to that of the student who has been coached and coached in the past with the same theme, and obtains a conclusion thereof. More specifically, for example, a student who has deep attribute information similar to the student and has coached on the theme of “future course” in the above example is identified and the conclusion of the coaching is obtained. . As for the similarity of the deep attribute information, for example, the similarity can be determined by comparing the values obtained by the product-sum operation of each of the deep attribute information shown in FIG. 6 and the weight value. Of course, other methods may be used.

ステップS79では、コーチング処理部606は、結論の妥当性をフィードバックする。より詳細には、まず、ステップS78で取得した複数の結論と、今回の結論を比較する。その結果、複数の結論に含まれている結論と同じまたは同様の結論である場合には妥当である旨をフィードバックする。なお、Skip−gram等の手法を用いて、ある結論に類似する結論を推定するモデルを構築し、このような推定結果に基づいて、結果の妥当性を判断するようにしてもよい。また、将来の進路のようなテーマの場合、その進路に進んだ生徒(先輩)の実情報を登録し、その登録結果と比較するようにしてもよい。例えば、テーマが将来の進路である場合、実際に看護師や医師になった生徒の現時点での深層属性情報(例えば、仕事に対する満足度、働きやすさ、働きがい、給料の多寡、ワークライフバランス等を示す属性)について調査して登録し、このような深層属性情報との比較を行うようにしてもよい。このような比較により、例えば、進路に関しては、その分野において成功している人と、生徒との深層属性情報の比較を行うことで、生徒の才能や適性を的確に判断することができる。   In step S79, the coaching processing unit 606 feeds back the validity of the conclusion. More specifically, first, a plurality of conclusions acquired in step S78 are compared with the current conclusion. As a result, if the conclusion is the same as or similar to the conclusion included in a plurality of conclusions, the fact that it is appropriate is fed back. Note that a model that estimates a conclusion similar to a certain conclusion may be constructed using a technique such as Skip-gram, and the validity of the result may be determined based on such an estimation result. In the case of a theme such as a future course, actual information of a student (senior) who has advanced to the course may be registered and compared with the registration result. For example, when the theme is a future course, deep attribute information at the present time of students who have actually become nurses or doctors (for example, satisfaction with work, ease of work, decent work, salary level, work-life balance, etc. May be investigated and registered, and compared with such deep attribute information. With such a comparison, for example, regarding the career path, it is possible to accurately determine the talent and aptitude of the student by comparing the deep attribute information between the person who is successful in the field and the student.

以上のフローチャートによれば、生徒に対してコーチングを行うことで、例えば、将来の進路をより明確化し、モチベーションを高めることで、学習への意識を高めることができる。また、コーチングによって得られた結果を、深層属性情報として登録することで、生徒の属性をより正確に判断することができる。また、コーチングとして、サーバ装置60によって合成されたアバターを用いることで、利害関係を有する生身の人間と対峙する場合に比較し、予断が無い思考および判断を行うことで、より確からしい結論を得ることができる。   According to the above flowchart, by coaching the student, for example, the future course can be further clarified and the motivation can be increased, thereby increasing the awareness of learning. Further, by registering the result obtained by coaching as deep attribute information, it is possible to more accurately determine student attributes. Also, by using the avatar synthesized by the server device 60 as coaching, a more probable conclusion can be obtained by making thoughts and judgments without prejudice than when confronting a live human having a stake. be able to.

また、コーチングの際に教師側が使用する質問を、図12に基づいて説明した、ティーチングに関するメソッドの改変処理と同様の処理によって、改変して最適化を図るようにしてもよい。   In addition, the question used by the teacher during coaching may be modified and optimized by the same process as the method modification process related to teaching described with reference to FIG.

(C)変形実施形態の説明
以上の各実施形態は一例であって、本発明が上述した場合のみに限定されるものでないことはいうまでもない。例えば、以上の例では、位置情報処理部601、音声認識処理部602、音声合成処理部603、画像生成処理部604、ティーチング処理部605、コーチング処理部606、テキスト処理部607、オブジェクト処理部608、ティーチングDB609、コーチングDB610、生徒DB、および、教師DB612は、全てサーバ装置60に配置するようにしたが、これらをクライアント装置40に配置したり、これらをクライアント装置40およびサーバ装置60に分散して配置したりするようにしてもよい。
(C) Description of Modified Embodiment Each of the above embodiments is an example, and it is needless to say that the present invention is not limited to the case described above. For example, in the above example, the position information processing unit 601, the speech recognition processing unit 602, the speech synthesis processing unit 603, the image generation processing unit 604, the teaching processing unit 605, the coaching processing unit 606, the text processing unit 607, and the object processing unit 608. The teaching DB 609, the coaching DB 610, the student DB, and the teacher DB 612 are all arranged in the server device 60, but these are arranged in the client device 40, or they are distributed to the client device 40 and the server device 60. Or may be arranged.

また、以上の実施形態では、教師は、コンピュータによる処理によって生成したアバターおよび合成音声を使用するようにしたが、例えば、コンピュータによる教示を好まない生徒等に対しては、生身の人間による教師を割り当てるようにしてもよい。また、初期登録時およびコーチングの際には生身の人間による教師を割り当てるようにしてもよい。すなわち、図7および図8に示す教師の属性としては、生身の教師の属性データを含むようにしてもよい。   In the above embodiment, the teacher uses the avatar and the synthesized speech generated by the computer processing. However, for example, for a student who does not like the teaching by the computer, a teacher by a living person is used. You may make it allocate. In addition, at the time of initial registration and at the time of coaching, a live human teacher may be assigned. That is, the teacher attributes shown in FIGS. 7 and 8 may include real teacher attribute data.

また、以上の実施形態では、生徒側に配置される装置は、位置情報入力デバイス10、HMD20、音声入出力デバイス30、および、クライアント装置40としたが、これらに代えて、または、これらの一部を、携帯端末(例えば、スマートフォン)を用いるようにしてもよい。例えば、スマートフォンをヘッドマウント用のゴーグルに装着することで、HMD20、音声入出力デバイス30、および、クライアント装置40と代替することができる。もちろん、VR画像ではなく、2次元画像または映像を用いるようにしてもよい。   In the above embodiment, the devices arranged on the student side are the position information input device 10, the HMD 20, the voice input / output device 30, and the client device 40, but instead of these or one of them. The unit may be a mobile terminal (for example, a smartphone). For example, the HMD 20, the voice input / output device 30, and the client device 40 can be replaced by attaching a smartphone to head mounted goggles. Of course, a two-dimensional image or video may be used instead of the VR image.

また、以上の実施形態では、ティーチングでは、勉強を教えるようにしたが、これ以外の内容を教えるようにしてもよい。例えば、社員教育として業務内容や、顧客に対する対応等をティーチングするようにしてもよい。本実施形態では、VR映像を用いてティーチングを行うことから、例えば、社員教育では、実際の顧客のVR映像を用いることで、よりリアリティーが高い研修を行うことができる。   In the above embodiment, teaching is taught in teaching, but other contents may be taught. For example, it may be possible to teach work contents, correspondence to customers, etc. as employee training. In the present embodiment, since teaching is performed using VR video, for example, employee training can provide training with higher reality by using VR video of actual customers.

また、以上の実施形態では、教師の評価としては、学習の進捗状況等に基づいて判定するようにしたが、これ以外の方法によって判定するようにしてもよい。例えば、生徒自身ではなく、生徒の保護者が、生徒の学習に対しての取り組み方の変化等に基づいて判定するようにしてもよい。   In the above embodiment, the teacher's evaluation is determined based on the progress of learning and the like, but may be determined by other methods. For example, the student's guardian, not the student himself / herself, may make the determination based on a change in the student's approach to learning.

また、生徒自身が教師の属性(表層属性情報および深層属性情報)を自由に改変できるようにし、このようにして改変された教師を、例えば、他の生徒と有償/無償で交換可能としてもよい。これにより、生徒がより教え方がうまい教師を創造することができるとともに、このようにして創造された教師を複数の生徒が共有することができる。   In addition, the students themselves can freely modify the attributes of the teacher (surface attribute information and deep attribute information), and the teacher thus modified may be exchanged with other students, for example, for a fee / free of charge. . As a result, the teacher can create a teacher who is better at teaching, and a plurality of students can share the teacher created in this way.

また、メソッドの改変は、生徒が関与できるようにしてもよい。例えば、自分にあったメソッドを生徒自身が見つけることができるようにしてもよい。なお、このような改変によって得られたメソッドを、他の生徒と有償/無償で交換可能としてもよい。   The method modification may also allow the student to be involved. For example, students may be able to find a method that suits them. Note that the method obtained by such modification may be exchanged with other students for a fee / free of charge.

また、以上の実施形態では、教師と生徒がともに1名の場合を例に挙げて説明したが、教師および/または生徒が複数名であってもよい。例えば、教師が1名で、その教師と相性がよい生徒が複数名集まって授業を進めるようにしてもよい。また、教師が複数名で、それらの教師と相性がよい生徒が複数名集まって授業を進めるようにしてもよい。すなわち、教師と生徒の人数の比率は相互に単数および複数を問わない。   Further, in the above embodiment, the case where both the teacher and the student are described as an example, but a plurality of teachers and / or students may be provided. For example, there may be one teacher, and a plurality of students who are compatible with the teacher may gather to advance the class. Further, a plurality of teachers may be provided, and a plurality of students having good compatibility with those teachers may be gathered to advance the class. That is, the ratio of the number of teachers and students may be singular or plural.

また、学力テストとしては、自宅でVRによる受験が可能としてもよい。具体的には、会場に赴くことなく、生徒の都合がよい場所(例えば、自宅、学校、図書館等)で受験できるようにしてもよい。また、試験直後に、担当教師による答え合わせを行うことで、間違えを早期に訂正するとともに、記憶の定着を図るようにしてもよい。   As an academic ability test, it may be possible to take a VR examination at home. Specifically, it may be possible to take the examination at a place convenient for the student (for example, home, school, library, etc.) without visiting the venue. In addition, immediately after the test, an answer by the teacher in charge may be made to correct the mistake early and to fix the memory.

また、以上の実施形態では、参考書等については詳細に記載していないが、例えば、参考書、辞書、教材等を複数種類登録しておき、登録された参考書等の中から、自分のレベルに合致した、あるいは、学校で使用している教科書に合致した参考書等を選択可能としてもよい。   In the above embodiment, reference books are not described in detail, but for example, a plurality of types of reference books, dictionaries, teaching materials, etc. are registered, and the registered reference books etc. Reference books that match the level or that match the textbooks used at the school may be selectable.

また、図9,図11〜図19に示すフローチャートは一例であって、本発明がこれらのフローチャートに限定されるものではない。   Moreover, the flowcharts shown in FIGS. 9 and 11 to 19 are examples, and the present invention is not limited to these flowcharts.

1 :学習支援システム
10 :位置情報入力デバイス
20 :HMD
30 :音声入出力デバイス
40 :クライアント装置
41 :CPU
42 :ROM
43 :RAM
44 :HDD
46 :I/F
47 :バス
50 :ネットワーク
60 :サーバ装置
61 :CPU
62 :ROM
63 :RAM
64 :HDD
65 :I/F
66 :バス
601 :位置情報処理部
602 :音声認識処理部
603 :音声合成処理部
604 :画像生成処理部
605 :ティーチング処理部
606 :コーチング処理部
607 :テキスト処理部
608 :オブジェクト処理部
609 :ティーチングDB
610 :コーチングDB
611 :生徒DB
612 :教師DB
1: Learning support system 10: Position information input device 20: HMD
30: Audio input / output device 40: Client device 41: CPU
42: ROM
43: RAM
44: HDD
46: I / F
47: Bus 50: Network 60: Server device 61: CPU
62: ROM
63: RAM
64: HDD
65: I / F
66: Bus 601: Position information processing unit 602: Speech recognition processing unit 603: Speech synthesis processing unit 604: Image generation processing unit 605: Teaching processing unit 606: Coaching processing unit 607: Text processing unit 608: Object processing unit 609: Teaching DB
610: Coaching DB
611: Student DB
612: Teacher DB

Claims (2)

コンピュータによって学習を支援する学習支援システムにおいて、
生徒の測定可能な表層的な属性を示す表層属性情報と、前記表層属性情報以外の深層的な属性を示す深層属性情報とを格納する第1格納手段と、
前記コンピュータによって描画されるアバターと、前記コンピュータによって合成される音声とを有する仮想的な教師を提示し、提示された前記仮想的な教師を介して学習内容を前記生徒に教授する教授手段と、
前記仮想的な教師の前記アバターの種類、前記合成される音声の特徴、および、教授方法を示す属性情報を格納する第2格納手段と、
前記生徒のそれぞれの学習の進捗状態を判定する判定手段と、
新たな前記生徒を登録する場合、当該新たな前記生徒の前記表層属性情報と、前記深層属性情報とを参照して、類似する前記属性情報を有する前記生徒を前記第1格納手段から検索する検索手段と、
前記検索手段によって取得された前記新たな前記生徒に類似する前記属性情報を有する前記生徒に対して提示される前記仮想的な教師の中から、評価が相対的に高いと判定された前記仮想的な教師に関する前記属性情報を前記第2格納手段から特定する特定手段と、
前記特定手段によって特定された前記属性情報に基づいて、新たな前記生徒に対して前記仮想的な教師を前記教授手段に提示させる制御を行う制御手段と、を有し、
前記教授手段による前記教授方法のうち効果が高い前記教授方法を特定して改変する改変手段を有し、
前記教授手段は、前記改変手段によって改変された前記教授方法のうち、学習効果が高いものについては、他の前記生徒に対しても使用する、
ことを特徴とする学習支援システム。
In a learning support system that supports learning with a computer,
First storage means for storing surface attribute information indicating measurable surface attributes of the student and deep attribute information indicating deep attributes other than the surface attribute information;
Teaching means for presenting a virtual teacher having an avatar drawn by the computer and a voice synthesized by the computer, and teaching the student the learning content via the presented virtual teacher;
Second storage means for storing attribute information indicating the type of the avatar of the virtual teacher, the characteristics of the synthesized speech, and the teaching method ;
Determining means for determining a progress state of each of the students;
When registering a new student, a search for searching for the student having similar attribute information from the first storage means with reference to the surface attribute information and the deep attribute information of the new student Means,
The virtual teacher determined to have a relatively high evaluation among the virtual teachers presented to the student having the attribute information similar to the new student acquired by the search means Specifying means for specifying from the second storage means the attribute information related to a teacher,
Control means for performing control to present the virtual teacher to the teaching means for the new student based on the attribute information specified by the specifying means,
A modification means for identifying and modifying the teaching method that is highly effective among the teaching methods by the teaching means,
Among the teaching methods modified by the modifying means, the teaching means that has a high learning effect is also used for the other students.
A learning support system characterized by that.
コンピュータによって学習を支援する学習支援方法において、
生徒の測定可能な表層的な属性を示す表層属性情報と、前記表層属性情報以外の深層的な属性を示す深層属性情報とを格納手段に格納する第1格納ステップと、
前記コンピュータによって描画されるアバターと、前記コンピュータによって合成される音声とを有する仮想的な教師を提示し、提示された前記仮想的な教師を介して学習内容を前記生徒に教授する教授ステップと、
前記仮想的な教師の前記アバターの種類、前記合成される音声の特徴、および、教授方法を示す属性情報を前記格納手段に格納する第2格納ステップと、
前記生徒のそれぞれの学習の進捗状態を判定する判定ステップと、
新たな前記生徒を登録する場合、当該新たな前記生徒の前記表層属性情報と、前記深層属性情報とを参照して、類似する前記属性情報を有する前記生徒を前記格納手段から検索する検索ステップと、
前記検索ステップにおいて取得された前記新たな前記生徒に類似する前記属性情報を有する前記生徒に対して提示される前記仮想的な教師の中から、評価が相対的に高いと判定された前記仮想的な教師に関する前記属性情報を前記格納手段から特定する特定ステップと、
前記特定ステップにおいて特定された前記属性情報に基づいて、新たな前記生徒に対して前記仮想的な教師を前記教授ステップに提示させる制御を行う制御ステップと、を有し、
前記教授ステップによる前記教授方法のうち効果が高い前記教授方法を特定して前記教授方法を改変する改変ステップを有し、
前記教授ステップは、前記改変ステップにおいて改変された前記教授方法のうち、学習効果が高いものについては、他の前記生徒に対しても使用する、
ことを特徴とする学習支援方法。
In a learning support method for supporting learning by a computer,
A first storage step of storing in the storage means surface attribute information indicating a measurable surface attribute of the student and deep attribute information indicating a deep attribute other than the surface attribute information;
A teaching step of presenting a virtual teacher having an avatar drawn by the computer and a voice synthesized by the computer, and teaching the student the learning content through the presented virtual teacher;
A second storing step of storing in the storage means attribute information indicating the type of the avatar of the virtual teacher, the characteristics of the synthesized voice, and the teaching method ;
A determination step of determining a progress state of each of the students;
When registering a new student, a search step of searching for the student having the similar attribute information from the storage means with reference to the surface attribute information and the deep attribute information of the new student. ,
The virtual teacher determined to have a relatively high evaluation among the virtual teachers presented to the students having the attribute information similar to the new student acquired in the search step A specific step of identifying the attribute information related to a teacher from the storage means;
A control step of performing control to present the virtual teacher to the teaching step for the new student based on the attribute information specified in the specifying step;
A modification step of identifying the teaching method that is highly effective among the teaching methods by the teaching step and modifying the teaching method;
In the teaching step, the teaching method modified in the modification step is used for the other students for those having a high learning effect.
A learning support method characterized by that.
JP2017213365A 2017-11-05 2017-11-05 Learning support system and learning support method Active JP6419924B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017213365A JP6419924B1 (en) 2017-11-05 2017-11-05 Learning support system and learning support method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017213365A JP6419924B1 (en) 2017-11-05 2017-11-05 Learning support system and learning support method

Publications (2)

Publication Number Publication Date
JP6419924B1 true JP6419924B1 (en) 2018-11-07
JP2019086602A JP2019086602A (en) 2019-06-06

Family

ID=64098731

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017213365A Active JP6419924B1 (en) 2017-11-05 2017-11-05 Learning support system and learning support method

Country Status (1)

Country Link
JP (1) JP6419924B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109377797A (en) * 2018-11-08 2019-02-22 北京葡萄智学科技有限公司 Virtual portrait teaching method and device

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6864041B2 (en) * 2019-06-27 2021-04-21 株式会社ドワンゴ Information storage method and information storage system
JP6766228B1 (en) * 2019-06-27 2020-10-07 株式会社ドワンゴ Distance education system
JP6683864B1 (en) * 2019-06-28 2020-04-22 株式会社ドワンゴ Content control system, content control method, and content control program
JP6892478B2 (en) * 2019-06-28 2021-06-23 株式会社ドワンゴ Content control systems, content control methods, and content control programs
JP2021022157A (en) * 2019-07-26 2021-02-18 株式会社ベネッセコーポレーション Program, method for processing information, and information processor
JP2021063900A (en) * 2019-10-11 2021-04-22 大日本印刷株式会社 Information processing device, control method, and program

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001194985A (en) * 2000-01-12 2001-07-19 Nec Corp Method for dynamic adjustment of the degree of difficulty of teaching material
JP2003131549A (en) * 2001-10-24 2003-05-09 Nippon Telegr & Teleph Corp <Ntt> Device for assisting design of learning course, program for the same and recording medium with the program recorded thereon
JP2003177661A (en) * 2001-12-11 2003-06-27 Toyota Auto Body Co Ltd Learner support device and learner support method
JP2003263097A (en) * 2002-03-12 2003-09-19 Fujitsu Ltd Teaching material preparation support method, teaching material use managing method, server, and program
JP2004279808A (en) * 2003-03-17 2004-10-07 Univ Saga Telelearning system
JP2006030513A (en) * 2004-07-15 2006-02-02 Hitachi Ltd Education support device and education information managing server
JP2006139130A (en) * 2004-11-12 2006-06-01 Nomura Research Institute Ltd System and method for curriculum analysis
JP2010146562A (en) * 2008-12-19 2010-07-01 Xerox Corp System and method for recommending educational resource
JP2014102664A (en) * 2012-11-20 2014-06-05 Talkie System Co Ltd Content creation, recording, reproduction system
US20150206441A1 (en) * 2014-01-18 2015-07-23 Invent.ly LLC Personalized online learning management system and method
JP2017097030A (en) * 2015-11-18 2017-06-01 株式会社ジャストシステム Learning support device

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001194985A (en) * 2000-01-12 2001-07-19 Nec Corp Method for dynamic adjustment of the degree of difficulty of teaching material
JP2003131549A (en) * 2001-10-24 2003-05-09 Nippon Telegr & Teleph Corp <Ntt> Device for assisting design of learning course, program for the same and recording medium with the program recorded thereon
JP2003177661A (en) * 2001-12-11 2003-06-27 Toyota Auto Body Co Ltd Learner support device and learner support method
JP2003263097A (en) * 2002-03-12 2003-09-19 Fujitsu Ltd Teaching material preparation support method, teaching material use managing method, server, and program
JP2004279808A (en) * 2003-03-17 2004-10-07 Univ Saga Telelearning system
JP2006030513A (en) * 2004-07-15 2006-02-02 Hitachi Ltd Education support device and education information managing server
JP2006139130A (en) * 2004-11-12 2006-06-01 Nomura Research Institute Ltd System and method for curriculum analysis
JP2010146562A (en) * 2008-12-19 2010-07-01 Xerox Corp System and method for recommending educational resource
JP2014102664A (en) * 2012-11-20 2014-06-05 Talkie System Co Ltd Content creation, recording, reproduction system
US20150206441A1 (en) * 2014-01-18 2015-07-23 Invent.ly LLC Personalized online learning management system and method
JP2017097030A (en) * 2015-11-18 2017-06-01 株式会社ジャストシステム Learning support device

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
丹治翔: "「先生が何も教えない学習塾 人工知能で教材が成長 人間の役割は?」", WITHNEWS, JPN6017048622, 21 December 2015 (2015-12-21), pages [2017年12月6日検索] *
石臥薫子: "「AI先生は究極の「個別指導のプロ」だった 「何がわからないのか」を即座に解析」", AERA DOT., JPN6017048625, 4 September 2017 (2017-09-04), pages [2017年12月6日検索] *
金澤雅子: "小学校のテスト結果をAIで分析、最大6万種類の個別教材を提供 DNPから", ITMEDIA, JPN6017048624, 19 July 2017 (2017-07-19), pages [2017年12月6日検索] *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109377797A (en) * 2018-11-08 2019-02-22 北京葡萄智学科技有限公司 Virtual portrait teaching method and device

Also Published As

Publication number Publication date
JP2019086602A (en) 2019-06-06

Similar Documents

Publication Publication Date Title
JP6419924B1 (en) Learning support system and learning support method
Munhall et al. Visual prosody and speech intelligibility: Head movement improves auditory speech perception
Liew et al. Does speaker’s voice enthusiasm affect social cue, cognitive load and transfer in multimedia learning?
KR20160077200A (en) Computing technologies for diagnosis and therapy of language-related disorders
US11145222B2 (en) Language learning system, language learning support server, and computer program product
Aylett et al. Speech synthesis for the generation of artificial personality
Campoy-Cubillo et al. Assessing multimodal listening
Huenerfauth et al. Evaluating importance of facial expression in American Sign Language and pidgin signed English animations
Hoque et al. Rich nonverbal sensing technology for automated social skills training
Michalsky et al. Myth busted? Challenging what we think we know about charismatic speech
CN115713875A (en) Virtual reality simulation teaching method based on psychological analysis
Pérez-Espinosa et al. IESC-child: an interactive emotional children’s speech corpus
Greer et al. The evolution of verbal behavior in children.
Niebuhr et al. Virtual reality as a digital learning tool in entrepreneurship: How virtual environments help entrepreneurs give more charismatic investor pitches
Sekimoto et al. A phenomenology of the racialized tongue: Embodiment, language, and the bodies that speak
Walker et al. Using ASR technology in language training for specific purposes: A perspective from Quebec, Canada
CN117541444B (en) Interactive virtual reality talent expression training method, device, equipment and medium
Korre et al. Usability evaluation of spoken humanoid embodied conversational agents in mobile serious games
US11386920B2 (en) Interactive group session computing systems and related methods
CN117522643A (en) Talent training method, device, equipment and storage medium
KR20220128897A (en) Speaking Test System and Method with AI Avatar
Zucker Psychological aspects of speech-melody
Doumanis Evaluating humanoid embodied conversational agents in mobile guide applications
JP2019078989A (en) Multilingual learning system and language ability measurement system
Carvalho et al. Investigating and Comparing the Perceptions of Voice Interaction in Digital Games: Opportunities for Health and Wellness Applications

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171116

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20171116

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20171207

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171227

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180225

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180404

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20180526

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180720

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180913

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181010

R150 Certificate of patent or registration of utility model

Ref document number: 6419924

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350