JP6756130B2 - Learning support device, robot, learning support system, learning support method and program - Google Patents

Learning support device, robot, learning support system, learning support method and program Download PDF

Info

Publication number
JP6756130B2
JP6756130B2 JP2016059275A JP2016059275A JP6756130B2 JP 6756130 B2 JP6756130 B2 JP 6756130B2 JP 2016059275 A JP2016059275 A JP 2016059275A JP 2016059275 A JP2016059275 A JP 2016059275A JP 6756130 B2 JP6756130 B2 JP 6756130B2
Authority
JP
Japan
Prior art keywords
pseudo
learning
emotion
learning support
support device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016059275A
Other languages
Japanese (ja)
Other versions
JP2017173546A5 (en
JP2017173546A (en
Inventor
香莉 門澤
香莉 門澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2016059275A priority Critical patent/JP6756130B2/en
Publication of JP2017173546A publication Critical patent/JP2017173546A/en
Publication of JP2017173546A5 publication Critical patent/JP2017173546A5/ja
Application granted granted Critical
Publication of JP6756130B2 publication Critical patent/JP6756130B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、学習支援装置、ロボット、学習支援システム、学習支援方法及びプログラムに関する。 The present invention relates to a learning support device, a robot, a learning support system, a learning support method and a program.

ユーザの学習を支援する学習支援ロボットが広く利用されている。例えば、特許文献1は、ユーザが対話形式で学習することができる情報通信ロボット装置を開示している。特許文献1が開示する情報通信ロボット装置は、ユーザからの音声情報と予め記憶された教育情報に対応するフィードバック情報を用いて出力情報を生成してユーザに対して出力する。 Learning support robots that support user learning are widely used. For example, Patent Document 1 discloses an information communication robot device that allows a user to learn interactively. The information communication robot device disclosed in Patent Document 1 generates output information using voice information from the user and feedback information corresponding to the educational information stored in advance, and outputs the output information to the user.

特開2001−242780号公報Japanese Unexamined Patent Publication No. 2001-242780

しかしながら、特許文献1に開示された技術では、ユーザの音声を音声認識し、変換された文字列に対応する所定の学習指導を実行するため、多様性に乏しく画一的な学習の進め方になってしまう可能性がある。 However, in the technique disclosed in Patent Document 1, since the user's voice is recognized and the predetermined learning guidance corresponding to the converted character string is executed, the learning is not diverse and uniform. There is a possibility that it will end up.

本発明は、上述の事情に鑑みてなされたものであり、多様性のある学習の支援をすることができる学習支援装置などを提供することを目的とする。 The present invention has been made in view of the above circumstances, and an object of the present invention is to provide a learning support device or the like capable of supporting a variety of learning.

上記の目的を達成するため、本発明に係る学習支援装置は、
当該学習支援装置の互いに異なる複数の擬似感情を記憶する擬似感情記憶手段と、
複数の擬似性格のうちの1つに当該学習支援装置の擬似性格を設定する設定手段と、
前記設定された擬似性格に基づいて、前記複数の擬似感情の1つに当該学習支援装置の擬似感情を決定する擬似感情決定手段と、
前記擬似感情決定手段により決定された擬似感情に基づいて、学習者に対して実施する学習支援の内容を決定する学習指導内容決定手段と、を備える。
In order to achieve the above object, the learning support device according to the present invention
Pseudo-emotion storage means for storing a plurality of pseudo-emotions different from each other of the learning support device,
A setting means for setting the pseudo-character of the learning support device to one of the plurality of pseudo-characters, and
Based on the set pseudo-personality, one of the plurality of pseudo-emotions includes a pseudo-emotion determining means for determining the pseudo-emotion of the learning support device.
It is provided with a learning guidance content determining means for determining the content of learning support to be provided to the learner based on the pseudo emotion determined by the pseudo emotion determining means.

本発明によれば、多様性のある学習の支援をすることができる学習支援装置などを提供することができる。 According to the present invention, it is possible to provide a learning support device or the like that can support a variety of learning.

本発明の実施形態に係る学習支援システムの構成図である。It is a block diagram of the learning support system which concerns on embodiment of this invention. (A)は教師ロボットの機能的な構成を示す図であり、(B)は生徒ロボットの機能的な構成を示す図である。(A) is a diagram showing the functional configuration of the teacher robot, and (B) is a diagram showing the functional configuration of the student robot. (A)は擬似性格の分類を説明する図であり、(B)は擬似感情の分類および遷移を説明する図である。(A) is a diagram for explaining the classification of pseudo-personality, and (B) is a diagram for explaining the classification and transition of pseudo-emotion. 教師用学習履歴テーブルの一例を示す図である。It is a figure which shows an example of the learning history table for a teacher. 教師用学習関連事象テーブルの一例を示す図である。It is a figure which shows an example of the learning-related event table for teachers. 教師用学習関連事象テーブルの他の例を示す図である。It is a figure which shows another example of the learning-related event table for teachers. 教師用生体関連事象テーブルの一例を示す図である。It is a figure which shows an example of the biological-related event table for teachers. 教師用生体関連事象テーブルの他の例を示す図である。It is a figure which shows another example of the biological-related event table for teachers. 学習指導内容変更テーブルの一例を示す図である。It is a figure which shows an example of the learning instruction content change table. 生徒用学習関連事象テーブルの一例を示す図である。It is a figure which shows an example of the learning-related event table for students. (A)は教師ロボットが実行する学習指導処理の流れを示すフローチャートであり、(B)は生徒ロボットが実行する学習支援処理の流れを示すフローチャートである。(A) is a flowchart showing the flow of learning guidance processing executed by the teacher robot, and (B) is a flowchart showing the flow of learning support processing executed by the student robot.

以下、図面を参照しながら、本発明の実施形態に係る学習支援システムについて説明する。 Hereinafter, the learning support system according to the embodiment of the present invention will be described with reference to the drawings.

本発明の実施形態に係る学習支援システムは、ユーザ(学習者)Uの英会話の学習を支援するためのシステムである。学習支援システム1は、図1に示すように、教師ロボット100と、生徒ロボット200と、通信端末300と、を備える。 The learning support system according to the embodiment of the present invention is a system for supporting the learning of English conversation of the user (learner) U. As shown in FIG. 1, the learning support system 1 includes a teacher robot 100, a student robot 200, and a communication terminal 300.

教師ロボット100は、ユーザUに英会話を指導する教師役を担うロボットである。教師ロボット100は、外観的には人体を模した立体的な形状を有する。また、教師ロボット100は、擬似性格および擬似感情を有し、ユーザUの生体情報や学習状況によって変化する擬似感情に応じて適切な学習カリキュラムを選択して学習支援を実施する。ここで、擬似性格とは、一般的にひとが有する性格を教師ロボット100が有しているかのように擬似的に生成されたものである。また、擬似感情とは、実際にユーザUに接したひとが抱くであろう感情を教師ロボット100が抱いたかのように擬似的に生成されたものである。 The teacher robot 100 is a robot that plays a role of a teacher who teaches English conversation to user U. The teacher robot 100 has a three-dimensional shape that imitates a human body in appearance. Further, the teacher robot 100 has a pseudo-personality and a pseudo-emotion, and selects an appropriate learning curriculum according to the biometric information of the user U and the pseudo-emotion that changes depending on the learning situation, and provides learning support. Here, the pseudo-personality is one that is generated in a pseudo manner as if the teacher robot 100 generally has a personality that a person has. Further, the pseudo emotion is generated in a pseudo manner as if the teacher robot 100 had an emotion that a person who actually touched the user U would have.

教師ロボット100の擬似性格は、図3(A)に示すように、社交性および安定度の程度に応じて、「快活」、「冷静」、「怒りっぽい」、「陰気」の4つに分類されている。ユーザUは、教師ロボット100の起動時などに、通信端末300を介して所望の擬似性格を選択することができる。 As shown in FIG. 3A, the teacher robot 100 has four pseudo-characters, "cheerful", "calm", "angry", and "gloomy", depending on the degree of sociability and stability. It is classified. The user U can select a desired pseudo-personality via the communication terminal 300 when the teacher robot 100 is activated or the like.

教師ロボット100の擬似感情は、図3(B)に示すように、「喜」、「怒」、「哀」、「楽」の4つに分類されている。「喜」は、「喜び」や「うれしい」という感情状態であることを示す。「怒」は、「怒り」や「不機嫌」という感情状態であることを示す。「哀」は、「哀しい」や「不安」などの感情状態であることを示す。「楽」は、「平静」や「楽しい」などの感情状態であることを示す。これらの擬似感情の各々は、事象の発生状況に応じて他の擬似感情に遷移するものとする。また、ユーザUにより選択された擬似性格によって擬似感情の遷移の仕方が異なる。 As shown in FIG. 3B, the pseudo emotions of the teacher robot 100 are classified into four categories: “joy”, “anger”, “sorrow”, and “comfort”. "Happiness" indicates an emotional state of "joy" or "joy". "Angry" indicates an emotional state of "anger" or "grumpy". "Sorrow" indicates an emotional state such as "sad" or "anxiety". "Raku" indicates an emotional state such as "calm" or "fun". Each of these pseudo-emotions shall transition to another pseudo-emotion according to the occurrence of the event. In addition, the method of transition of pseudo emotions differs depending on the pseudo personality selected by the user U.

教師ロボット100は、機能的には、図2(A)に示すように、制御部110、生体情報取得部120、記憶部130,表現部140、通信部150を備える。 Functionally, as shown in FIG. 2A, the teacher robot 100 includes a control unit 110, a biological information acquisition unit 120, a storage unit 130, an expression unit 140, and a communication unit 150.

制御部110は、教師ロボット100全体の動作を制御する。制御部110は、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)を有するマイクロコンピュータにより構成される。制御部110は、CPUがROMに記憶された動作プログラムを読み出してRAM上で実行することにより、教師ロボット100の各部を制御する。 The control unit 110 controls the operation of the entire teacher robot 100. The control unit 110 is composed of a microcomputer having a CPU (Central Processing Unit), a ROM (Read Only Memory), and a RAM (Random Access Memory). The control unit 110 controls each unit of the teacher robot 100 by having the CPU read the operation program stored in the ROM and execute it on the RAM.

制御部110は、生体情報解析部111、学習状況判定部112、擬似感情決定部113、学習指導内容決定部114、表現決定部115、を有する。 The control unit 110 includes a biological information analysis unit 111, a learning situation determination unit 112, a pseudo emotion determination unit 113, a learning guidance content determination unit 114, and an expression determination unit 115.

生体情報解析部111は、後述する生体情報取得部120から取得した生体情報を時系列に解析し、ユーザUの生体状態の変化などを抽出してユーザUの状態を特定する。例えば、生体情報解析部111は、生体情報取得部120から取得した音声データを解析し、振幅大小、発声内容、発声頻度などから、ユーザUが集中しているかあるいは眠いかなどを特定する The biological information analysis unit 111 analyzes the biological information acquired from the biological information acquisition unit 120, which will be described later, in chronological order, extracts changes in the biological state of the user U, and identifies the state of the user U. For example, the biometric information analysis unit 111 analyzes the voice data acquired from the biometric information acquisition unit 120, and identifies whether the user U is concentrated or sleepy from the amplitude magnitude, utterance content, utterance frequency, and the like.

学習状況判定部112は、ユーザUの学習状況を判定する。具体的には、学習状況判定部112は、質問に対する回答の正誤の判定や回答速度(回答に要する時間)の測定などを行い、正答率や進捗状況など各種要素を勘案してユーザUの学習成績を評価する。 The learning status determination unit 112 determines the learning status of the user U. Specifically, the learning status determination unit 112 determines whether the answer to the question is correct or incorrect, measures the response speed (time required for the answer), and learns the user U in consideration of various factors such as the correct answer rate and the progress status. Evaluate your grades.

擬似感情決定部113は、教師ロボット100の擬似感情を決定する。擬似感情決定部113は、例えば、教師ロボット100の学習指導の開始時には、後述する記憶部130に記憶された教師用学習履歴テーブルを参照して擬似感情を決定する。また、擬似感情決定部113は、例えば、学習指導の実行中には、後述する記憶部130に記憶された教師用学習関連事象テーブルおよび教師用生体関連事象テーブルを参照して新たな擬似感情を決定する。 The pseudo emotion determination unit 113 determines the pseudo emotion of the teacher robot 100. For example, at the start of learning guidance of the teacher robot 100, the pseudo emotion determination unit 113 determines the pseudo emotion by referring to the teacher learning history table stored in the storage unit 130, which will be described later. Further, for example, during execution of learning guidance, the pseudo-emotion determination unit 113 refers to a teacher's learning-related event table and a teacher's biological-related event table stored in the storage unit 130, which will be described later, to generate a new pseudo-emotion. decide.

学習指導内容決定部114は、ユーザUに対して実施する学習指導内容を決定する。制御部110は、後述する記憶部130に記憶された教師用学習履歴テーブルを参照して実施する学習カリキュラムを決定する。また、学習指導内容決定部114は、擬似感情決定部113により擬似感情が変化するタイミングに合わせて後述する記憶部130に記憶された学習指導内容変更テーブルを参照して学習カリキュラムに含まれる科目の順番や進行度合いの変更を決定する。学習指導内容決定部114は、決定内容を通信部150を介して生徒ロボット200に伝達する。 The learning guidance content determination unit 114 determines the learning guidance content to be implemented for the user U. The control unit 110 determines the learning curriculum to be implemented with reference to the teacher learning history table stored in the storage unit 130 described later. In addition, the learning guidance content determination unit 114 refers to the learning guidance content change table stored in the storage unit 130, which will be described later, in accordance with the timing when the pseudo emotion changes by the pseudo emotion determination unit 113, and refers to the subjects included in the learning curriculum. Decide how to change the order and progress. The learning guidance content determination unit 114 transmits the determination content to the student robot 200 via the communication unit 150.

表現決定部115は、ユーザUの生体状態や学習状況などに応じて、ユーザUに対して教師ロボット100が実行する感情表現の内容を決定する。表現決定部115は、例えば、後述する記憶部130に記憶された教師用学習関連事象テーブルや教師用生体関連事象テーブルを参照して、所定の事象が発生するごとに、対応する表現内容を実行することを決定する。表現決定部115は、決定した表現内容に基づく指示データを表現部140に供給する。また、表現決定部115は、ユーザUの生体状態や学習状況などに応じて、生徒ロボット200に出力させる音声や実行させる動作を決定し、その決定内容を通信部150を介して生徒ロボット200に伝達する。 The expression determination unit 115 determines the content of the emotional expression executed by the teacher robot 100 for the user U according to the biological state of the user U, the learning situation, and the like. For example, the expression determination unit 115 refers to the teacher's learning-related event table and the teacher's biological-related event table stored in the storage unit 130, which will be described later, and executes the corresponding expression content each time a predetermined event occurs. Decide to do. The expression determination unit 115 supplies instruction data based on the determined expression content to the expression unit 140. Further, the expression determination unit 115 determines the voice to be output to the student robot 200 and the action to be executed according to the biological state and learning status of the user U, and the determined content is transmitted to the student robot 200 via the communication unit 150. introduce.

生体情報取得部120は、ユーザUの生体状態により変化する生体情報を取得する。生体情報取得部120は、例えば、マイクロフォンと音声入力インタフェースで構成され、ユーザUの音声を音声データに変換して生体情報解析部111に出力する。 The biological information acquisition unit 120 acquires biological information that changes depending on the biological state of the user U. The biometric information acquisition unit 120 is composed of, for example, a microphone and a voice input interface, converts the voice of the user U into voice data, and outputs the voice to the biometric information analysis unit 111.

記憶部130は、制御部110が教師ロボット100の各部を制御するために必要な種々のデータを記憶する。記憶部130は、例えば、フラシュメモリやHDD(Hard Disc Drive)などの不揮発性の記憶装置により構成される。記憶部130は、例えば、通信端末300を介してユーザUによって選択された擬似性格を示すデータを所定の記憶領域に記憶する。 The storage unit 130 stores various data necessary for the control unit 110 to control each unit of the teacher robot 100. The storage unit 130 is composed of, for example, a non-volatile storage device such as a flash memory or an HDD (Hard Disc Drive). The storage unit 130 stores, for example, data indicating a pseudo-personality selected by the user U via the communication terminal 300 in a predetermined storage area.

また、記憶部130が記憶するデータには、教師用学習履歴テーブルと、教師用学習関連事象テーブルと、教師用生体関連事象テーブルと、学習指導内容変更テーブルが含まれる。 Further, the data stored in the storage unit 130 includes a learning history table for teachers, a learning-related event table for teachers, a biological event table for teachers, and a learning guidance content change table.

教師用学習履歴テーブルは、ユーザUが学習支援システム1を利用した履歴と学習成績をまとめたテーブルである。教師用学習履歴テーブルは、図4に示すように、「開始日時」と「終了日時」と、「学習時間」と、「学習成績」の各データを対応付けて構成されている。ここで、本実施の形態では、ユーザUが幼児であると仮定し、教師ロボット100が実施する学習指導は1回30分程度で終了するように学習カリキュラムが組まれているものとする。また、学習カリキュラムには、おもに単語の反復発声や発音の矯正を指導する「単語」、おもに短い文章の反復発声などを指導する「文章」、リズムに合わせて単語や文章を反復発声させて発音やイントネーションを学ばせる「チャンツ」、身近な話題について英語でやりとりする「会話」、短い物語を読み聞かせる「ストーリ」、学習内容の理解度を確認する「復習」の5つの科目を含むこととする。「学習成績」は、これらの科目毎に正答率や習熟の度合いなどを考慮して「A」〜「C」の3段階で評価されている。なお、「−」は、実施されなかったことを意味する。 The learning history table for teachers is a table that summarizes the history and learning results of the user U using the learning support system 1. As shown in FIG. 4, the learning history table for teachers is configured by associating each data of "start date and time", "end date and time", "learning time", and "learning result". Here, in the present embodiment, it is assumed that the user U is an infant, and the learning curriculum is set so that the learning guidance performed by the teacher robot 100 is completed in about 30 minutes at a time. In addition, the learning curriculum includes "words" that mainly teach repeated utterances of words and correction of pronunciation, "sentences" that mainly teach repeated utterances of short sentences, and pronunciation by repeatedly uttering words and sentences according to the rhythm. Includes five subjects: "Chants" to learn pronunciation and intonation, "Conversation" to exchange familiar topics in English, "Story" to read a short story, and "Review" to check the degree of understanding of the learning content. To do. "Learning grade" is evaluated on a three-point scale from "A" to "C" in consideration of the correct answer rate and the degree of proficiency for each of these subjects. In addition, "-" means that it was not carried out.

教師用学習関連事象テーブルは、学習関連事象の発生を検知したときの対応を規定したテーブルであり、擬似性格ごとに設けられ、各々には異なる対応が規定されている。ここで、学習関連事象とは、質問に対する回答の正誤や学習進捗など学習の習得状況に関連する事象をいう。教師用学習関連事象テーブルは、図5、図6に示すように、現在の擬似感情ごとに、それぞれ、「学習関連事象」と「感情ポイント」と「表現内容」の各データを対応付けて構成されている。「学習関連事象」は、学習状況判定部112により判定されたユーザUの習熟の度合いを示す項目である。「学習関連事象」には、例えば、「正答(誤答)」、「学習進捗が良い(悪い)」などが挙げられる。「感情ポイント」は、発生事象ごとに各擬似感情に加算される数値である。各擬似感情の「感情ポイント」に異なる数値を設定することによって、発生事象の重要性や対応緊急性などに応じて各擬似感情に異なる重み付けがされる。「表現内容」は、発生事象ごとの出力音声や実行動作の概要である。なお、図5、図6に示す「表現内容」には、おもに発生事象ごとの教師ロボット100の表現がおもに規定されているが、発生事象に対応して生徒ロボット200に実行させる表現についても規定される。擬似感情決定部113は、この教師用学習関連事象テーブルを参照し、発生事象に応じて各擬似感情の累計値を算出する。また、擬似感情決定部113は、各擬似感情の感情ポイントの累計値のいずれかが所定の閾値を超えた場合には、現在の擬似感情から閾値を超えた擬似感情に遷移させることを決定する。 The learning-related event table for teachers is a table that defines the response when the occurrence of a learning-related event is detected, and is provided for each pseudo-personality, and different responses are defined for each. Here, the learning-related event refers to an event related to the learning acquisition status such as the correctness of the answer to the question and the learning progress. As shown in FIGS. 5 and 6, the learning-related event table for teachers is configured by associating each data of "learning-related event", "emotion point", and "expression content" for each current pseudo-emotion. Has been done. The “learning-related event” is an item indicating the degree of proficiency of the user U determined by the learning status determination unit 112. Examples of the "learning-related event" include "correct answer (wrong answer)" and "learning progress is good (bad)". The "emotion point" is a numerical value added to each pseudo emotion for each occurrence event. By setting different numerical values for the "emotion points" of each pseudo-emotion, each pseudo-emotion is weighted differently according to the importance of the event and the urgency of response. The "expression content" is an outline of the output voice and the execution operation for each event. The "expression content" shown in FIGS. 5 and 6 mainly defines the expression of the teacher robot 100 for each occurrence event, but also defines the expression to be executed by the student robot 200 in response to the occurrence event. Will be done. The pseudo-emotion determination unit 113 refers to the learning-related event table for teachers, and calculates the cumulative value of each pseudo-emotion according to the occurrence event. Further, the pseudo emotion determination unit 113 determines that when any of the cumulative values of the emotion points of each pseudo emotion exceeds a predetermined threshold value, the current pseudo emotion is changed to the pseudo emotion exceeding the threshold value. ..

図5に示すテーブルは、擬似性格が「快活」に設定されている場合に参照される教師用学習関連事象テーブルの一例であり、図6に示すテーブルは、擬似性格が「怒りっぽい」に設定されている場合に参照される教師用学習関連事象テーブルの一例である。 The table shown in FIG. 5 is an example of a learning-related event table for teachers that is referred to when the pseudo-personality is set to “cheerful”, and the table shown in FIG. 6 has a pseudo-personality of “angry”. This is an example of a learning-related event table for teachers that is referenced when it is set.

図5に示す教師用学習関連事象テーブルには、例えば、現在の擬似感情「喜」において、学習が予定通りに進んでいないことを示す事象「学習進捗が悪い」が検知されたときには、擬似感情「哀」に感情ポイント「2」、擬似感情「怒」および「楽」に感情ポイント「1」を加算するとともに、ユーザUを励ますような音声を出力したり元気づけるような動作を実行するように規定されている。一方、図6に示す教師用学習関連事象テーブルには、例えば、現在の擬似感情「喜」において、事象「学習進捗が悪い」が検知されたときには、擬似感情「怒」に感情ポイント「2」、擬似感情「哀」に感情ポイント「3」を加算するとともに、ユーザUを叱るような音声を出力するように規定されている。このように、設定された擬似性格に応じて学習関連事象に対する「感情ポイント」や「表現内容」を異ならせることによって、教師ロボット100に多様な学習指導を実施させることができる。 In the learning-related event table for teachers shown in FIG. 5, for example, when the event "learning progress is poor" indicating that learning is not progressing as planned is detected in the current pseudo emotion "joy", the pseudo emotion Add emotion point "2" to "sorrow" and emotion point "1" to pseudo emotion "anger" and "comfort", and output a voice that encourages user U or perform an action that encourages it. It is stipulated in. On the other hand, in the learning-related event table for teachers shown in FIG. 6, for example, when the event "learning progress is poor" is detected in the current pseudo emotion "joy", the emotion point "2" is added to the pseudo emotion "anger". , It is stipulated that the emotion point "3" is added to the pseudo emotion "sorrow" and the voice that scolds the user U is output. In this way, the teacher robot 100 can be made to carry out various learning guidances by making the "emotion points" and "expression contents" for the learning-related events different according to the set pseudo-personality.

教師用生体関連事象テーブルは、生体関連事象の発生を検知したときの対応を規定したテーブルであり、擬似性格ごとに設けられ、各々には異なる対応が規定されている。ここで、生体関連事象とは、生体情報から判断されるユーザUの状態やその変化などに起因する事象という。教師用生体関連事象テーブルは、図7、図8に示すように、現在の擬似感情ごとに、それぞれ、「生体関連事象」と「感情ポイント」と「表現内容」の各データを対応付けて構成されている。「生体関連事象」は、生体情報取得部120が取得した生体情報から検知されるユーザUの生体状態を示す項目である。「生体関連事象」には、例えば、「声が大きい(小さい)」、「返答が早い(遅い)」などが挙げられる。「感情ポイント」は、教師用学習関連事象テーブルの場合と同様、発生事象ごとに各擬似感情に加算される数値である。「表現内容」は、発生事象ごとの出力音声や実行動作の概要である。なお、図7、図8に示す「表現内容」には、おもに発生事象ごとの教師ロボット100の表現がおもに規定されているが、発生事象に対応して生徒ロボット200に実行させる表現についても規定される。擬似感情決定部113は、この教師用生体関連事象テーブルを参照し、発生事象に応じて各擬似感情の累計値を算出する。また、擬似感情決定部113は、各擬似感情の感情ポイントの累計値のいずれかが所定の閾値を超えた場合には、現在の擬似感情から閾値を超えた擬似感情に遷移させることを決定する。 The biological event table for teachers is a table that defines the response when the occurrence of a biological event is detected, and is provided for each pseudo-personality, and different responses are defined for each. Here, the biological-related event is referred to as an event caused by the state of the user U determined from the biological information or its change. As shown in FIGS. 7 and 8, the teacher's biological event table is configured by associating the data of "biological event", "emotion point", and "expression content" for each current pseudo-emotion. Has been done. The "biologically related event" is an item indicating the biological state of the user U detected from the biological information acquired by the biological information acquisition unit 120. Examples of the "biologically related event" include "loud (low) voice" and "quick (slow) response". The "emotion point" is a numerical value added to each pseudo emotion for each occurrence event, as in the case of the learning-related event table for teachers. The "expression content" is an outline of the output voice and the execution operation for each event. The "expression content" shown in FIGS. 7 and 8 mainly defines the expression of the teacher robot 100 for each occurrence event, but also defines the expression to be executed by the student robot 200 in response to the occurrence event. Will be done. The pseudo-emotion determination unit 113 refers to the teacher's biological-related event table, and calculates the cumulative value of each pseudo-emotion according to the event that occurs. Further, the pseudo emotion determination unit 113 determines that when any of the cumulative values of the emotion points of each pseudo emotion exceeds a predetermined threshold value, the current pseudo emotion is changed to the pseudo emotion exceeding the threshold value. ..

図7に示すテーブルは、擬似性格が「快活」に設定されている場合に参照される教師用生体関連事象テーブルの一例であり、図8に示すテーブルは、擬似性格が「怒りっぽい」に設定されている場合に参照される教師用生体関連事象テーブルの一例である。 The table shown in FIG. 7 is an example of a biological event table for teachers that is referred to when the pseudo-personality is set to “cheerful”, and the table shown in FIG. 8 has a pseudo-personality of “angry”. This is an example of a biological event table for teachers that is referred to when it is set.

図7に示す教師用生体関連事象テーブルには、例えば、現在の擬似感情「怒」において、ユーザUの回答の声が大きいことを示す事象「声が大きい」が検知されたときには、擬似感情「喜」、「哀」、「楽」に感情ポイント「1」を加算するとともに、ユーザUをほめるような音声を出力するように規定されている。一方、図8に示す教師用生体関連事象テーブルには、例えば、現在の擬似感情「怒」において、事象「声が大きい」が検知されたときには、擬似感情「哀」、「楽」に感情ポイント「1」を加算するとともに、頭を縦に振る動作を実行するように規定されている。このように、設定された擬似性格に応じて生体関連事象に対する「感情ポイント」や「表現内容」を異ならせることによって、教師ロボット100に多様な学習指導を実施させることができる。擬似感情決定部113は、この教師用生体関連事象テーブルを参照し、発生事象に応じて各擬似感情の累計値を算出する。また、擬似感情決定部113は、各擬似感情の感情ポイントの累計値のいずれかが所定の閾値を超えた場合には、現在の擬似感情から閾値を超えた擬似感情に遷移させることを決定する。 In the biological event table for teachers shown in FIG. 7, for example, when the event "loud" indicating that the answer of the user U is loud is detected in the current pseudo emotion "anger", the pseudo emotion " It is stipulated that the emotional point "1" is added to "joy", "sorrow", and "comfort", and a voice that compliments the user U is output. On the other hand, in the biological event table for teachers shown in FIG. 8, for example, when the event "loud" is detected in the current pseudo emotion "anger", the emotion points are set to the pseudo emotions "sorrow" and "comfort". It is stipulated that "1" is added and the action of shaking the head vertically is executed. In this way, the teacher robot 100 can be made to perform various learning guidances by making the "emotion points" and "expression contents" for the biological-related events different according to the set pseudo-personality. The pseudo-emotion determination unit 113 refers to the teacher's biological-related event table, and calculates the cumulative value of each pseudo-emotion according to the event that occurs. Further, the pseudo emotion determination unit 113 determines that when any of the cumulative values of the emotion points of each pseudo emotion exceeds a predetermined threshold value, the current pseudo emotion is changed to the pseudo emotion exceeding the threshold value. ..

学習指導内容変更テーブルは、擬似感情の遷移に伴って学習指導内容の変更内容が規定されたテーブルである。学習指導内容変更テーブルは、「遷移後の擬似感情」と「遷移前の擬似感情」と「学習指導内容」の各データを対応付けて構成されている。図9に示す学習指導内容変更テーブルには、例えば、擬似感情が「怒」から「喜」に遷移した場合には、実施する科目を「ユーザUの得意な科目に変更」、もしくは、実施中の科目において「難しい問題を出題」を選択的に実行するように規定されている。これは、ユーザUの学習成績または生体状態が改善したことに伴って教師ロボット100の擬似感情が好転したことを契機に、ユーザUからやる気やチャレンジ精神をさらに引き出すことを意図している。また、学習指導内容変更テーブルには、例えば、擬似感情が「楽」から「哀」に遷移した場合には、学習の「テンポを緩める」、もしくは、実施中の科目などに「関連しない話をする」を選択的に実行するように規定されている。これは、ユーザUの学習成績または生体状態が低下したことに伴って教師ロボット100の擬似感情が少々悪化したことを契機に、ユーザUに余裕を与えたり気分転換させることを意図している。 The learning instruction content change table is a table in which the change content of the learning instruction content is defined according to the transition of pseudo emotions. The learning instruction content change table is configured by associating each data of "pseudo-emotion after transition", "pseudo-emotion before transition", and "learning instruction content". In the learning guidance content change table shown in FIG. 9, for example, when the pseudo emotion changes from "angry" to "joy", the subject to be implemented is "changed to the subject that user U is good at" or is being implemented. It is stipulated that "questioning difficult questions" should be selectively executed in the subject of. This is intended to further motivate and challenge the user U when the pseudo-emotion of the teacher robot 100 improves as the learning result or the biological state of the user U improves. In addition, in the learning guidance content change table, for example, when the pseudo emotion changes from "easy" to "sorrow", "relax the tempo" of learning, or "talk unrelated to the subject being conducted". It is stipulated to selectively execute "to do". This is intended to give the user U a margin or change his mood when the pseudo emotion of the teacher robot 100 deteriorates a little as the learning result or the biological state of the user U deteriorates.

表現部140は、表現決定部115の決定内容に応じてユーザUに対して擬似的な感情表現を行う。表現部140は、音声出力部141、可動部142を有する。 The expression unit 140 performs a pseudo emotional expression to the user U according to the determination content of the expression determination unit 115. The expression unit 140 has an audio output unit 141 and a movable unit 142.

音声出力部141は、スピーカおよび音声出力インタフェースで構成され、表現決定部115により生成された音声データを音声に変換して外部に出力する。 The voice output unit 141 is composed of a speaker and a voice output interface, and converts the voice data generated by the expression determination unit 115 into voice and outputs the voice data to the outside.

可動部142は、教師ロボット100の部分的な部位であり、モータ等の駆動部材の駆動により変位する。教師ロボット100は、表現決定部115の決定内容に応じて可動部142が変位することにより、例えば、手足を動かす動作や頭を上下左右に振る動作やまぶたの開閉動作などを行い、擬似的な感情表現をする。 The movable portion 142 is a partial portion of the teacher robot 100 and is displaced by driving a driving member such as a motor. The teacher robot 100 displaces the movable portion 142 according to the determination content of the expression determination unit 115, thereby performing, for example, a movement of limbs, a movement of shaking the head up / down / left / right, an operation of opening / closing the eyelids, and the like. Express your emotions.

通信部150は、無線通信モジュールおよびアンテナにより構成され、生徒ロボット200および通信端末300とデータ通信を行う。通信部150は、例えば、生徒ロボット200に出力音声や実行動作に関する指示データを送信する。また、通信部150は、例えば、通信端末300からユーザUによる操作指示(教師ロボット100の擬似性格の選択操作など)や情報入力(質問に対する回答入力など)を受け付ける。 The communication unit 150 is composed of a wireless communication module and an antenna, and performs data communication with the student robot 200 and the communication terminal 300. The communication unit 150 transmits, for example, output voice and instruction data regarding the execution operation to the student robot 200. Further, the communication unit 150 receives, for example, an operation instruction (such as a pseudo character selection operation of the teacher robot 100) and information input (such as an answer input to a question) by the user U from the communication terminal 300.

生徒ロボット200は、ユーザUと共に教師ロボット100から英会話の指導を受ける生徒役を担うロボットである。生徒ロボット200は、教師ロボット100と同様、外観的には人体を模した立体的な形状を有する。また、生徒ロボット200は、教師ロボット100と同様の擬似性格および擬似感情を有し、ユーザUの生体情報や学習状況によって変化する擬似感情に応じてユーザUの学習意欲などを向上させるための学習支援を実施する。 The student robot 200 is a robot that plays the role of a student who receives instruction in English conversation from the teacher robot 100 together with the user U. Like the teacher robot 100, the student robot 200 has a three-dimensional shape that imitates the human body in appearance. Further, the student robot 200 has the same pseudo-personality and pseudo-emotion as the teacher robot 100, and learns to improve the learning motivation of the user U according to the biometric information of the user U and the pseudo-emotion that changes depending on the learning situation. Implement support.

生徒ロボット200は、機能的には、図2(B)に示すように、制御部210、生体情報取得部220、記憶部230,表現部240、通信部250を備える。 Functionally, as shown in FIG. 2B, the student robot 200 includes a control unit 210, a biological information acquisition unit 220, a storage unit 230, an expression unit 240, and a communication unit 250.

制御部210は、生徒ロボット200全体の動作を制御する。制御部210は、CPU、ROM、RAMを有するマイクロコンピュータにより構成される。制御部210は、CPUがROMに記憶された動作プログラムを読み出してRAM上で実行することにより、生徒ロボット200の各部を制御する。 The control unit 210 controls the operation of the entire student robot 200. The control unit 210 is composed of a microcomputer having a CPU, a ROM, and a RAM. The control unit 210 controls each unit of the student robot 200 by having the CPU read the operation program stored in the ROM and execute it on the RAM.

制御部210は、生体情報解析部211、学習状況判定部212、擬似感情決定部213、表現決定部215、を有する。これらの部位は、教師ロボット100が有する生体情報解析部111、学習状況判定部112、擬似感情決定部113、表現決定部115と概ね同様に構成される。 The control unit 210 includes a biological information analysis unit 211, a learning situation determination unit 212, a pseudo emotion determination unit 213, and an expression determination unit 215. These parts are substantially the same as the biological information analysis unit 111, the learning situation determination unit 112, the pseudo emotion determination unit 113, and the expression determination unit 115 included in the teacher robot 100.

生体情報解析部211は、生体情報取得部220から取得した生体情報を時系列に解析し、ユーザUの生体状態の変化などを抽出してユーザUの状態を特定する。 The biological information analysis unit 211 analyzes the biological information acquired from the biological information acquisition unit 220 in chronological order, extracts changes in the biological state of the user U, and identifies the state of the user U.

学習状況判定部212は、ユーザUの学習状況を判定する。具体的には、学習状況判定部212は、質問に対する回答の正誤の判定や回答速度の測定などを行い、正答率や進捗状況など各種要素を勘案してユーザUの学習成績を評価する。 The learning status determination unit 212 determines the learning status of the user U. Specifically, the learning status determination unit 212 determines whether the answer to the question is correct or incorrect, measures the response speed, and evaluates the learning performance of the user U in consideration of various factors such as the correct answer rate and the progress status.

擬似感情決定部213は、生徒ロボット200の擬似感情を決定する。擬似感情決定部213は、例えば、生徒ロボット200の学習支援の開始時には、後述する記憶部230に記憶された生徒用学習履歴テーブルを参照して擬似感情を決定する。また、擬似感情決定部213は、例えば、学習支援の実行中には、後述する記憶部230に記憶された生徒用学習関連事象テーブルおよび生徒用生体関連事象テーブルを参照して新たな擬似感情を決定する。 The pseudo emotion determination unit 213 determines the pseudo emotion of the student robot 200. For example, when the learning support of the student robot 200 is started, the pseudo emotion determination unit 213 determines the pseudo emotion by referring to the student learning history table stored in the storage unit 230, which will be described later. Further, for example, while the learning support is being executed, the pseudo emotion determination unit 213 refers to the student learning-related event table and the student biological-related event table stored in the storage unit 230, which will be described later, to generate a new pseudo emotion. decide.

表現決定部215は、ユーザUの生体状態や学習状況などに応じて、ユーザUに対して生徒ロボット200が実行する感情表現の内容を決定する。表現決定部215は、例えば、後述する記憶部230に記憶された生徒用学習関連事象テーブルや生徒用生体関連事象テーブルを参照して、所定の事象が発生するごとに、対応する表現内容を実行することを決定する。表現決定部215は、決定した表現内容に基づく指示データを表現部240に供給する。 The expression determination unit 215 determines the content of the emotional expression executed by the student robot 200 for the user U according to the biological state of the user U, the learning situation, and the like. For example, the expression determination unit 215 refers to the student learning-related event table and the student biological-related event table stored in the storage unit 230, which will be described later, and executes the corresponding expression content each time a predetermined event occurs. Decide to do. The expression determination unit 215 supplies instruction data based on the determined expression content to the expression unit 240.

生体情報取得部220は、ユーザUの状態により変化する生体情報を取得する。生体情報取得部220は、例えば、マイクロフォンと音声入力インタフェースで構成され、ユーザUの音声を音声データに変換して生体情報解析部211に出力する。 The biometric information acquisition unit 220 acquires biometric information that changes depending on the state of the user U. The biometric information acquisition unit 220 is composed of, for example, a microphone and a voice input interface, converts the voice of the user U into voice data, and outputs the voice to the biometric information analysis unit 211.

記憶部230は、制御部210が生徒ロボット200の各部を制御するために必要な種々のデータを記憶する。記憶部230は、例えば、フラシュメモリやHDDなどの不揮発性の記憶装置により構成される。記憶部230は、例えば、通信端末300を介してユーザUによって選択された擬似性格を示すデータを所定の記憶領域に記憶する。 The storage unit 230 stores various data necessary for the control unit 210 to control each unit of the student robot 200. The storage unit 230 is composed of, for example, a non-volatile storage device such as a flash memory or an HDD. The storage unit 230 stores, for example, data indicating a pseudo-personality selected by the user U via the communication terminal 300 in a predetermined storage area.

また、記憶部230が記憶するデータには、生徒用学習履歴テーブルと、生徒用学習関連事象テーブルと、生徒用生体関連事象テーブルと、が含まれる。これらの各テーブルは、前述した教師用学習履歴テーブル、教師用学習関連事象テーブル、教師用生体関連事象テーブルと概ね同様に構成される。なお、生徒用学習関連事象テーブルと生徒用生体関連事象テーブルにおける各発生事象に対応する「表現内容」は、生徒や友達としてふさわしい内容であることが望ましい。 Further, the data stored in the storage unit 230 includes a learning history table for students, a learning-related event table for students, and a biological event table for students. Each of these tables is configured in substantially the same manner as the above-mentioned teacher learning history table, teacher learning-related event table, and teacher biological-related event table. In addition, it is desirable that the "expression content" corresponding to each occurrence event in the student learning-related event table and the student biological-related event table is suitable for students and friends.

図10に示す擬似性格が「快活」のときに参照される生徒用学習関連事象テーブルには、例えば、現在の擬似感情「喜」において、事象「誤答」が検知されたときには、ユーザUにヒントを与えたり元気づける音声を出力するように規定されている。また、現在の擬似感情「怒」において、事象「学習進捗が良い」が検知されたときには、ユーザUをうらやましがる音声を出力するように規定されている。 In the learning-related event table for students referred to when the pseudo-personality shown in FIG. 10 is “cheerful”, for example, when the event “wrong answer” is detected in the current pseudo-emotion “joy”, the user U is notified. It is stipulated to output hints and cheerful voices. Further, in the current pseudo emotion "anger", when the event "learning progress is good" is detected, it is stipulated to output a voice enviing the user U.

表現部240は、表現決定部215の決定内容に応じてユーザUに対して擬似的な感情表現を行う。表現部240は、音声出力部241、可動部242を有する。 The expression unit 240 performs a pseudo emotional expression to the user U according to the decision content of the expression determination unit 215. The expression unit 240 has an audio output unit 241 and a movable unit 242.

音声出力部241は、スピーカおよび音声出力インタフェースで構成され、表現決定部215により生成された音声データを音声に変換して外部に出力する。 The voice output unit 241 is composed of a speaker and a voice output interface, converts voice data generated by the expression determination unit 215 into voice, and outputs the voice data to the outside.

可動部242は、生徒ロボット200の部分的な部位であり、モータ等の駆動部材の駆動により変位する。生徒ロボット200は、表現決定部215の決定内容に応じて可動部242が変位することにより、例えば、手足を動かす動作や頭を上下左右に振る動作やまぶたの開閉動作などを行い、擬似的な感情表現をする。 The movable portion 242 is a partial portion of the student robot 200, and is displaced by driving a driving member such as a motor. The student robot 200 displaces the movable portion 242 according to the determination content of the expression determination unit 215, thereby performing, for example, a motion of moving the limbs, a motion of shaking the head up / down / left / right, and an operation of opening / closing the eyelids. Express your emotions.

通信部250は、無線通信モジュールおよびアンテナにより構成され、教師ロボット100および通信端末300とデータ通信を行う。通信部250は、例えば、生徒ロボット200に出力音声や実行動作に関する指示データを送信する。また、通信部250は、例えば、通信端末300からユーザUによる操作指示(生徒ロボット200の擬似性格の選択操作など)や情報入力(質問に対する回答入力など)を受け付ける。 The communication unit 250 is composed of a wireless communication module and an antenna, and performs data communication with the teacher robot 100 and the communication terminal 300. The communication unit 250 transmits, for example, output voice and instruction data related to the execution operation to the student robot 200. Further, the communication unit 250 receives, for example, an operation instruction (such as a pseudo character selection operation of the student robot 200) and information input (such as an answer input to a question) by the user U from the communication terminal 300.

通信端末300は、例えば、スマートフォンやタブレット端末で構成され、教師ロボット100や生徒ロボット200と通信する。通信端末300は、例えば、教師ロボット100からの送信データに従って、質問に対する回答用の選択画像の表示、生徒ロボット200からの送信データに従って、質問に対する回答のヒントとなる画像の表示などを行う。また、通信端末300は、例えば、ユーザUによる教師ロボット100および生徒ロボット200の擬似性格の選択入力を受け付け、入力データを各ロボットに送信する。 The communication terminal 300 is composed of, for example, a smartphone or a tablet terminal, and communicates with the teacher robot 100 and the student robot 200. The communication terminal 300 displays, for example, a selected image for answering a question according to the data transmitted from the teacher robot 100, and displays an image as a hint for answering the question according to the data transmitted from the student robot 200. Further, the communication terminal 300 receives, for example, the selection input of the pseudo-characters of the teacher robot 100 and the student robot 200 by the user U, and transmits the input data to each robot.

次に、図11(A)に示すフローチャートを参照しながら、教師ロボット100が実行する学習指導処理について説明する。学習指導処理は、ユーザUの学習成績や生体情報に基づいて、ユーザUに対して実施する学習指導内容を適宜決定する処理である。制御部110は、ユーザUの操作により、通信端末300を介して学習開始を指示する操作信号を受信したことに応答して、学習指導処理を開始する。 Next, the learning guidance process executed by the teacher robot 100 will be described with reference to the flowchart shown in FIG. 11A. The learning guidance process is a process for appropriately determining the content of learning guidance to be performed for the user U based on the learning results and the biological information of the user U. The control unit 110 starts the learning guidance process in response to receiving an operation signal instructing the start of learning via the communication terminal 300 by the operation of the user U.

制御部110は、学習指導処理を開始すると、教師ロボット100の擬似性格を設定する(ステップS101)。制御部110は、ユーザUの操作による選択、あるいは、前回実行時の設定内容に応じて、教師ロボット100の擬似性格を「快活」、「冷静」、「怒りっぽい」、「陰気」のうちのいずれかに決定する。 When the control unit 110 starts the learning guidance process, the control unit 110 sets the pseudo-character of the teacher robot 100 (step S101). The control unit 110 sets the pseudo-character of the teacher robot 100 to be "cheerful", "calm", "angry", or "gloomy" according to the selection by the operation of the user U or the setting content at the time of the previous execution. Decide on one of.

次に、制御部110(擬似感情決定部113)は、教師ロボット100の擬似感情を決定する(ステップS102)。制御部110は、例えば、記憶部130に記憶された学習履歴テーブルを参照し、ユーザUの学習頻度や学習成績に応じて、教師ロボット100の擬似感情を決定する。例えば、前回利用時から数日が経過しており学習頻度が低い場合には、制御部110は、教師ロボット100の擬似感情を「哀」に決定する。また、前回利用時の学習成績が良い場合には、制御部110は、擬似感情を「喜」に決定する。なお、制御部110は、ステップS101において決定された擬似性格を加味して、教師ロボット100の擬似感情を決定してもよい。例えば、擬似性格が「怒りっぽい」に決定された場合には、前回利用時の学習成績が良い場合であっても、擬似感情を「楽」に決定するようにしてもよい。 Next, the control unit 110 (pseudo-emotion determination unit 113) determines the pseudo-emotion of the teacher robot 100 (step S102). For example, the control unit 110 refers to the learning history table stored in the storage unit 130, and determines the pseudo emotion of the teacher robot 100 according to the learning frequency and the learning result of the user U. For example, when several days have passed since the last use and the learning frequency is low, the control unit 110 determines the pseudo emotion of the teacher robot 100 as "sorrow". Further, when the learning result at the time of the previous use is good, the control unit 110 determines the pseudo emotion as "joy". The control unit 110 may determine the pseudo emotion of the teacher robot 100 in consideration of the pseudo personality determined in step S101. For example, when the pseudo-personality is determined to be "angry", the pseudo-emotion may be determined to be "easy" even if the learning result at the time of the previous use is good.

続いて、制御部110(学習指導内容決定部114)は、今回実施する学習カリキュラムを決定する(ステップS103)。制御部110は、記憶部130に記憶された生徒用学習履歴テーブルを参照し、ユーザUの学習頻度や前回までの学習成績に応じて、今回実施する学習カリキュラムを決定する。例えば、学習頻度が低い場合には、制御部110は、ユーザUの学習に対する意欲を向上させるために、比較的親しみやすい科目「チャンツ」を、他の科目よりも長時間実施したり、他の科目に先行して実施するように、学習カリキュラムを決定する。 Subsequently, the control unit 110 (learning instruction content determination unit 114) determines the learning curriculum to be implemented this time (step S103). The control unit 110 refers to the student learning history table stored in the storage unit 130, and determines the learning curriculum to be implemented this time according to the learning frequency of the user U and the learning results up to the previous time. For example, when the learning frequency is low, the control unit 110 may perform a relatively familiar subject "chants" for a longer time than other subjects, or may perform other subjects in order to improve the motivation of the user U for learning. Determine the learning curriculum so that it precedes the subject.

ステップS103の処理を実行した後、制御部110は、決定された学習カリキュラムに従って学習指導を開始する(ステップS104)。制御部110は、科目ごとに学習内容に応じた音声の出力や動作を実行するように表現部140を制御する。 After executing the process of step S103, the control unit 110 starts learning instruction according to the determined learning curriculum (step S104). The control unit 110 controls the expression unit 140 so as to output a voice or perform an operation according to the learning content for each subject.

続いて、制御部110は、学習指導を終了するか否かを判定する(ステップS105)。制御部110は、ユーザUの操作により、学習終了を指示する操作信号を受信したか否か、あるいは、今回の学習カリキュラムの全科目が実施済みであるか否かに応じて学習指導を終了するか否かを判定する。学習指導を終了すると判定した場合(ステップS105;YES)、制御部110は、学習指導処理を終了する。 Subsequently, the control unit 110 determines whether or not to end the learning guidance (step S105). The control unit 110 ends the learning guidance depending on whether or not the operation signal instructing the end of learning has been received by the operation of the user U, or whether or not all the subjects of the current learning curriculum have been implemented. Judge whether or not. When it is determined that the learning guidance is finished (step S105; YES), the control unit 110 ends the learning guidance process.

学習指導を継続すると判定した場合(ステップS105;NO)、制御部110は、学習関連事象または生体関連事象が発生したか否かを判定する(ステップS106)。制御部110は、生体情報解析部111の解析結果および学習状況判定部112の判定結果に基づき、記憶部130に記憶された教師用学習関連事象テーブルおよび教師用生体関連事象テーブルに規定されたいずれかの事象が発生したか否かを判定する。学習関連事象または生体関連事象が発生していないと判定した場合(ステップS106;NO)、制御部110は、処理をステップS104に戻し、学習指導を継続する。 When it is determined that the learning guidance is to be continued (step S105; NO), the control unit 110 determines whether or not a learning-related event or a biological-related event has occurred (step S106). The control unit 110 is defined in the teacher's learning-related event table and the teacher's biological-related event table stored in the storage unit 130 based on the analysis result of the biological information analysis unit 111 and the determination result of the learning status determination unit 112. It is determined whether or not the event has occurred. When it is determined that no learning-related event or biological-related event has occurred (step S106; NO), the control unit 110 returns the process to step S104 and continues the learning guidance.

一方、学習関連事象または生体関連事象が発生したと判定した場合(ステップS106;YES)、制御部110は、発生した事象に対応する表現内容を実行する(ステップS107)。制御部110(表現決定部115)は、教師用学習関連事象テーブルや教師用生体関連事象テーブルを参照し、発生した事象に対応する表現内容に応じた音声の出力や動作を実行するように表現部140を制御する。 On the other hand, when it is determined that a learning-related event or a biological-related event has occurred (step S106; YES), the control unit 110 executes the expression content corresponding to the generated event (step S107). The control unit 110 (expression determination unit 115) refers to the teacher's learning-related event table and the teacher's biological-related event table, and expresses so as to output voice and perform an operation according to the expression content corresponding to the generated event. The unit 140 is controlled.

続いて、制御部110(擬似感情決定部113)は、擬似感情の感情ポイントの累積値が閾値を超えたか否かを判定する(ステップS108)。いずれの擬似感情の感情ポイントの累積値も閾値を超えていないと判定した場合(ステップS108;NO)、制御部110は、処理をステップS104に戻し、学習指導を継続する。 Subsequently, the control unit 110 (pseudo emotion determination unit 113) determines whether or not the cumulative value of the emotion points of the pseudo emotion exceeds the threshold value (step S108). When it is determined that the cumulative value of the emotion points of any of the pseudo emotions does not exceed the threshold value (step S108; NO), the control unit 110 returns the process to step S104 and continues the learning guidance.

一方、いずれかの擬似感情の感情ポイントの累積値が閾値を超えたと判定した場合(ステップS108;YES)、制御部110(擬似感情決定部113)は、現在の擬似感情から閾値を超えた擬似感情に遷移させる(ステップS109)。 On the other hand, when it is determined that the cumulative value of the emotion points of any of the pseudo emotions exceeds the threshold value (step S108; YES), the control unit 110 (pseudo emotion determination unit 113) is a pseudo emotion that exceeds the threshold value from the current pseudo emotion. Transition to emotion (step S109).

また、制御部110(学習指導内容決定部114)は、擬似感情に遷移したことに伴って学習指導内容を変更する(ステップS110)。制御部110(学習指導内容決定部114)は、記憶部130に記憶された学習指導内容変更テーブルを参照し、遷移前後の擬似感情に対応する学習指導内容に変更することを決定する。 Further, the control unit 110 (learning instruction content determination unit 114) changes the learning instruction content in accordance with the transition to the pseudo emotion (step S110). The control unit 110 (learning instruction content determination unit 114) refers to the learning instruction content change table stored in the storage unit 130, and decides to change to the learning instruction content corresponding to the pseudo emotions before and after the transition.

ステップS110の処理を実行した後、制御部110は、処理をステップS104に戻し、学習カリキュラムに含まれる科目の順番や進行度合いを変更して学習指導を継続する。 After executing the process of step S110, the control unit 110 returns the process to step S104, changes the order and the degree of progress of the subjects included in the learning curriculum, and continues the learning guidance.

続いて、図11(B)に示すフローチャートを参照しながら、生徒ロボット200が実行する学習支援処理について説明する。学習支援処理は、ユーザUの学習成績や生体情報に基づいて、ユーザUに対して実施する学習支援内容を適宜決定する処理である。ここで、学習支援処理は、図11(A)に示す学習指導処理と概ね同様の処理が実行されるため、詳細な説明は省略する。制御部210は、ユーザUの操作により、通信端末300を介して学習開始を指示する操作信号を受信したことに応答して、学習支援処理を開始する。 Subsequently, the learning support process executed by the student robot 200 will be described with reference to the flowchart shown in FIG. 11B. The learning support process is a process for appropriately determining the learning support content to be performed for the user U based on the learning results and the biological information of the user U. Here, since the learning support process is substantially the same as the learning guidance process shown in FIG. 11A, detailed description thereof will be omitted. The control unit 210 starts the learning support process in response to receiving an operation signal instructing the start of learning via the communication terminal 300 by the operation of the user U.

制御部210は、学習支援処理を開始すると、生徒ロボット200の擬似性格を設定する(ステップS201)。制御部210は、ユーザUの操作による選択、あるいは、前回実行時の設定内容に応じて、生徒ロボット200の擬似性格を決定する。 When the control unit 210 starts the learning support process, the control unit 210 sets the pseudo-character of the student robot 200 (step S201). The control unit 210 determines the pseudo-character of the student robot 200 according to the selection by the operation of the user U or the setting content at the time of the previous execution.

次に、制御部210(擬似感情決定部213)は、生徒ロボット200の擬似感情を決定する(ステップS202)。制御部210は、例えば、記憶部230に記憶された学習履歴テーブルを参照し、ユーザUの学習頻度や学習成績に応じて、生徒ロボット200の擬似感情を決定する。 Next, the control unit 210 (pseudo-emotion determination unit 213) determines the pseudo-emotion of the student robot 200 (step S202). For example, the control unit 210 refers to the learning history table stored in the storage unit 230, and determines the pseudo emotion of the student robot 200 according to the learning frequency and the learning result of the user U.

続いて、制御部210は、今回実施する学習カリキュラムを取得する(ステップS203)。制御部210は、教師ロボット100の学習指導内容決定部114が決定した今回実施する学習カリキュラムを通信部250を介して取得する。 Subsequently, the control unit 210 acquires the learning curriculum to be implemented this time (step S203). The control unit 210 acquires the learning curriculum to be implemented this time, which is determined by the learning guidance content determination unit 114 of the teacher robot 100, via the communication unit 250.

ステップS203の処理を実行した後、制御部210は、取得した学習カリキュラムに従って学習支援を開始する(ステップS204)。制御部210は、科目ごとに学習内容に応じた音声の出力や動作を実行するように表現部240を制御する。なお、制御部210は、教師ロボット100の学習指導内容決定部114が学習カリキュラムに含まれる科目の順番や進行度合いを変更したことに伴って、その変更内容を教師ロボット100から受信した際には、変更内容に応じた音声の出力や動作を実行するように表現部240を制御する。 After executing the process of step S203, the control unit 210 starts learning support according to the acquired learning curriculum (step S204). The control unit 210 controls the expression unit 240 so as to output a voice or perform an operation according to the learning content for each subject. When the control unit 210 receives the change contents from the teacher robot 100 as the learning guidance content determination unit 114 of the teacher robot 100 changes the order and the degree of progress of the subjects included in the learning curriculum. , The expression unit 240 is controlled so as to output a voice or perform an operation according to the changed content.

続いて、制御部210は、学習支援を終了するか否かを判定する(ステップS205)。制御部210は、ユーザUの操作により、学習終了を指示する操作信号を受信したか否か、あるいは、今回の学習カリキュラムの全科目が実施済みであるか否かに応じて学習支援を終了するか否かを判定する。学習支援を終了すると判定した場合(ステップS205;YES)、制御部210は、学習支援処理を終了する。 Subsequently, the control unit 210 determines whether or not to end the learning support (step S205). The control unit 210 ends the learning support depending on whether or not the operation signal instructing the end of learning has been received by the operation of the user U, or whether or not all the subjects of the current learning curriculum have been implemented. Judge whether or not. When it is determined that the learning support is terminated (step S205; YES), the control unit 210 ends the learning support process.

学習支援を継続すると判定した場合(ステップS205;NO)、制御部210は、学習関連事象または生体関連事象が発生したか否かを判定する(ステップS206)。制御部210は、生体情報解析部211の解析結果および学習状況判定部212の判定結果に基づき、記憶部230に記憶された生徒用学習関連事象テーブルおよび生徒用生体関連事象テーブルに規定されたいずれかの事象が発生したか否かを判定する。学習関連事象または生体関連事象が発生していないと判定した場合(ステップS206;NO)、制御部210は、処理をステップS204に戻し、学習支援を継続する。 When it is determined that the learning support is to be continued (step S205; NO), the control unit 210 determines whether or not a learning-related event or a biological-related event has occurred (step S206). Based on the analysis result of the biological information analysis unit 211 and the determination result of the learning status determination unit 212, the control unit 210 is defined in the student learning-related event table and the student biological-related event table stored in the storage unit 230. It is determined whether or not the event has occurred. When it is determined that no learning-related event or biological-related event has occurred (step S206; NO), the control unit 210 returns the process to step S204 and continues learning support.

一方、学習関連事象または生体関連事象が発生したと判定した場合(ステップS206;YES)、制御部210は、発生した事象に対応する表現内容を実行する(ステップS207)。制御部210(表現決定部215)は、生徒用学習関連事象テーブルや生徒用生体関連事象テーブルを参照し、発生した事象に対応する表現内容に応じた音声の出力や動作を実行するように表現部240を制御する。 On the other hand, when it is determined that a learning-related event or a biological-related event has occurred (step S206; YES), the control unit 210 executes the expression content corresponding to the generated event (step S207). The control unit 210 (expression determination unit 215) refers to the student learning-related event table and the student biological-related event table, and expresses so as to output voice output or perform an operation according to the expression content corresponding to the generated event. The unit 240 is controlled.

続いて、制御部210(擬似感情決定部213)は、擬似感情の感情ポイントの累積値が閾値を超えたか否かを判定する(ステップS208)。いずれの擬似感情の感情ポイントの累積値も閾値を超えていないと判定した場合(ステップS208;NO)、制御部210は、処理をステップS204に戻し、学習指導を継続する。 Subsequently, the control unit 210 (pseudo emotion determination unit 213) determines whether or not the cumulative value of the emotion points of the pseudo emotion exceeds the threshold value (step S208). When it is determined that the cumulative value of the emotion points of any of the pseudo emotions does not exceed the threshold value (step S208; NO), the control unit 210 returns the process to step S204 and continues the learning guidance.

一方、いずれかの擬似感情の感情ポイントの累積値が閾値を超えたと判定した場合(ステップS208;YES)、制御部210(擬似感情決定部213)は、現在の擬似感情から閾値を超えた擬似感情に遷移させ(ステップS209)、処理をステップS204に戻し、学習支援を継続する。 On the other hand, when it is determined that the cumulative value of the emotion points of any of the pseudo emotions exceeds the threshold value (step S208; YES), the control unit 210 (pseudo emotion determination unit 213) is a pseudo emotion that exceeds the threshold value from the current pseudo emotion. Transition to emotion (step S209), return the process to step S204, and continue learning support.

このように、ユーザUにより学習開始が指示されたことに応答して、教師ロボット100は学習指導処理を、生徒ロボット200は学習支援処理をそれぞれ実行し、ユーザUに対して教師ロボット100と生徒ロボット200とが協働して学習支援を実施する。 In this way, in response to the instruction to start learning by the user U, the teacher robot 100 executes the learning guidance process, the student robot 200 executes the learning support process, and the teacher robot 100 and the student perform the learning support process for the user U. Learning support is provided in collaboration with the robot 200.

以上で述べたように、本実施の形態によれば、教師ロボット100および生徒ロボット200は、擬似性格が設定され、設定された擬似性格に応じて異なる態様で遷移する擬似感情を有している。また、各ロボットは、現在の擬似感情に応じてユーザUに対して音声や動作で感情表現をしながら学習指導を実施する。このように、教師ロボット100および生徒ロボット200を備える学習支援システム1はあたかも人格を備える実物の人間のようにユーザUに接することができ、多様性のある学習の支援をすることができる。また、学習支援システム1は、ユーザUの学力を向上させることに加えて、対人関係を築く能力を向上させることが可能である。 As described above, according to the present embodiment, the teacher robot 100 and the student robot 200 have a pseudo-personality, and have pseudo-emotions that transition in different modes according to the set pseudo-personality. .. In addition, each robot provides learning guidance to the user U while expressing emotions by voice or motion according to the current pseudo emotions. In this way, the learning support system 1 including the teacher robot 100 and the student robot 200 can come into contact with the user U as if it were a real human being having a personality, and can support diverse learning. Further, the learning support system 1 can improve the ability of the user U to build an interpersonal relationship in addition to improving the academic ability of the user U.

なお、本発明は、上記の実施の形態に限定されず、種々の変形および応用が可能である。上記の実施の形態は、次のように変形されてもよい。 The present invention is not limited to the above-described embodiment, and various modifications and applications are possible. The above embodiment may be modified as follows.

例えば、学習支援システム1において、教師ロボット100が備える機能の全部または一部を備える学習支援装置を教師ロボット100に代えて用いてもよい。学習支援装置は、少なくともコンピュータを備える電子機器であればよく、任意である。また、生徒ロボット200についても同様である。 For example, in the learning support system 1, a learning support device having all or part of the functions of the teacher robot 100 may be used instead of the teacher robot 100. The learning support device may be any electronic device including at least a computer. The same applies to the student robot 200.

例えば、擬似性格および擬似感情の分類は、上記の実施の形態に限らず任意である。擬似性格および擬似感情をさらに細かく分類し、これらの状態に対応する学習指導内容を設定してもよい。また、擬似感情を遷移させる手法も上記の実施の形態に限らず任意である。なお、擬似性格または擬似感情のいずれかを省略して、教師ロボット100の表現パターンを単純化してもよい。 For example, the classification of pseudo-personality and pseudo-emotion is not limited to the above embodiment and is arbitrary. Pseudo-personality and pseudo-emotion may be further classified, and learning instruction contents corresponding to these states may be set. Further, the method of transitioning the pseudo emotion is not limited to the above-described embodiment and is arbitrary. The expression pattern of the teacher robot 100 may be simplified by omitting either the pseudo personality or the pseudo emotion.

例えば、生体情報取得部120は、外部に設置されたセンサから生体情報を取得するように構成してもよい。生体情報取得部120は、例えば、顔(表情)検出センサ、GPS(Global Positioning System)センサ、加速度センサ、血圧センサ、脈拍センサ、脳波センサ、発汗センサ等の各種センサの計測値に基づいて、ユーザUの状態を認識し、ユーザUに対する表現内容や学習指導内容を決定するようにしてもよい。さらに、ユーザUの周辺環境(例えば、照明状態や騒音レベル)を考慮して、ユーザUに対する表現内容や学習指導内容を決定するようにしてもよい。 For example, the biometric information acquisition unit 120 may be configured to acquire biometric information from a sensor installed outside. The biological information acquisition unit 120 is based on the measured values of various sensors such as a face (expression) detection sensor, a GPS (Global Positioning System) sensor, an acceleration sensor, a blood pressure sensor, a pulse sensor, a brain wave sensor, and a sweating sensor. The state of U may be recognized, and the content of expression and the content of learning guidance for the user U may be determined. Further, the expression content and the learning guidance content for the user U may be determined in consideration of the surrounding environment of the user U (for example, the lighting state and the noise level).

上記の実施の形態において、教師ロボット100と生徒ロボット200は、概ね同様の機能を備えるものとして説明したが、生徒ロボット200が備える機能を簡略化してもよい。例えば、教師ロボット100が、生体情報解析部111が解析した結果を通信部150を介して生徒ロボット200に提供することにより、生徒ロボット200には生体情報取得部220や生体情報解析部211を搭載しないように構成してもよい。また、教師ロボット100が、擬似感情決定部113において生徒ロボット200の擬似感情を決定し、また、表現決定部115において生徒ロボット200のユーザUに対する表現を決定し、これらの決定内容を生徒ロボット200に指示することにより、生徒ロボット200には擬似感情決定部213や表現決定部215などを搭載しないように構成してもよい。 In the above embodiment, the teacher robot 100 and the student robot 200 have been described as having substantially the same functions, but the functions provided by the student robot 200 may be simplified. For example, the teacher robot 100 provides the student robot 200 with the result of analysis by the biological information analysis unit 111 via the communication unit 150, so that the student robot 200 is equipped with the biological information acquisition unit 220 and the biological information analysis unit 211. It may be configured not to. Further, the teacher robot 100 determines the pseudo emotions of the student robot 200 in the pseudo emotion determination unit 113, and determines the expression of the student robot 200 for the user U in the expression determination unit 115, and determines the contents of these determinations in the student robot 200. The student robot 200 may be configured not to have a pseudo emotion determination unit 213, an expression determination unit 215, or the like by instructing.

上記の実施の形態において、学習指導内容変更テーブルは、遷移前後の擬似感情の組合せに対応付けて変更する学習指導内容を規定した。しかし、遷移直前(感情ポイントの累計値が所定の閾値を超える直前)に発生した事象、あるいは、感情ポイントの累計値が所定の閾値を超えるまでに最も多く発生した事象に応じて異なる学習指導内容を規定してもよい。 In the above embodiment, the learning instruction content change table defines the learning instruction content to be changed in association with the combination of pseudo emotions before and after the transition. However, the learning instruction content differs depending on the event that occurred immediately before the transition (immediately before the cumulative value of emotion points exceeds the predetermined threshold value) or the event that occurred most frequently before the cumulative value of emotion points exceeded the predetermined threshold value. May be specified.

本発明は、本発明の広義の精神と範囲を逸脱することなく、様々な実施の形態及び変形が可能とされるものである。また、上述した実施の形態は、この発明を説明するためのものであり、本発明の範囲を限定するものではない。すなわち、本発明の範囲は、実施の形態ではなく、特許請求の範囲によって示される。そして、特許請求の範囲内及びそれと同等の発明の意義の範囲内で施される様々な変形が、この発明の範囲内とみなされる。 The present invention allows for various embodiments and modifications without departing from the broad spirit and scope of the present invention. Moreover, the above-described embodiment is for explaining the present invention, and does not limit the scope of the present invention. That is, the scope of the present invention is indicated by the scope of claims, not by the embodiment. Then, various modifications made within the scope of the claims and the equivalent meaning of the invention are considered to be within the scope of the present invention.

以下に、本願出願の当初の特許請求の範囲に記載された発明を付記する。 Hereinafter, the inventions described in the claims of the original application of the present application will be added.

(付記1)
学習者の状態によって変化する生体情報を取得する生体情報取得手段と、
前記生体情報取得手段が取得した前記生体情報に基づいて、前記学習者に対して実施する学習支援の内容を決定する学習指導内容決定手段と、を備える、
学習支援装置。
(Appendix 1)
Biometric information acquisition means for acquiring biometric information that changes depending on the learner's condition,
A learning guidance content determining means for determining the content of learning support to be provided to the learner based on the biometric information acquired by the biometric information acquiring means.
Learning support device.

(付記2)
前記生体情報取得手段が取得した前記生体情報に基づいて、前記学習者に対する表現を決定する表現決定手段、をさらに備える、
付記1に記載の学習支援装置。
(Appendix 2)
An expression determining means for determining an expression for the learner based on the biological information acquired by the biometric information acquiring means is further provided.
The learning support device according to Appendix 1.

(付記3)
前記学習者の学習状況を判定する学習状況判定手段、をさらに備え、
前記表現決定手段は、前記生体情報と前記学習状況判定手段による判定結果に基づいて、前記学習者に対する表現を決定し、
前記学習指導内容決定手段は、前記生体情報と前記学習状況判定手段による判定結果とに基づいて、前記学習者に対して実施する学習支援の内容を決定する、
付記2に記載の学習支援装置。
(Appendix 3)
Further provided with a learning situation determining means for determining the learning status of the learner,
The expression determining means determines the expression for the learner based on the biological information and the determination result by the learning situation determining means.
The learning guidance content determining means determines the content of learning support to be provided to the learner based on the biological information and the determination result by the learning situation determining means.
The learning support device according to Appendix 2.

(付記4)
複数の擬似性格から前記学習者により選択された擬似性格に基づいて、複数の擬似感情から1つの擬似感情を決定する擬似感情決定手段、をさらに備え、
前記表現決定手段は、前記生体情報と前記判定結果と前記擬似感情決定手段により決定された擬似感情とに基づいて、前記学習者に対する表現を決定し、
前記学習指導内容決定手段は、前記生体情報と前記判定結果と前記擬似感情決定手段により決定された擬似感情とに基づいて、前記学習者に対して実施する学習支援の内容を決定する、
付記3に記載の学習支援装置。
(Appendix 4)
Further provided with a pseudo emotion determining means for determining one pseudo emotion from a plurality of pseudo emotions based on the pseudo personality selected by the learner from the plurality of pseudo personalities.
The expression determining means determines the expression for the learner based on the biological information, the determination result, and the pseudo emotion determined by the pseudo emotion determining means.
The learning guidance content determining means determines the content of learning support to be provided to the learner based on the biological information, the determination result, and the pseudo emotion determined by the pseudo emotion determining means.
The learning support device according to Appendix 3.

(付記5)
前記複数の擬似感情の各々には、前記複数の擬似性格の各々に対応する異なる重み付けがなされている、
付記4に記載の学習支援装置。
(Appendix 5)
Each of the plurality of pseudo-emotions is given a different weight corresponding to each of the plurality of pseudo-personality.
The learning support device according to Appendix 4.

(付記6)
付記1から5のいずれか1つに記載の学習支援装置を搭載した教師役のロボット。
(Appendix 6)
A robot acting as a teacher equipped with the learning support device described in any one of Appendix 1 to 5.

(付記7)
付記6に記載の教師役のロボットと、
前記学習者と共に前記教師役のロボットから支援を受ける生徒役のロボットと、を備える、
学習支援システム。
(Appendix 7)
The robot acting as a teacher described in Appendix 6 and
A robot acting as a student who receives support from the robot acting as a teacher together with the learner.
Learning support system.

(付記8)
前記生徒役のロボットは、
前記学習者の状態によって変化する生体情報を取得する第2の生体情報取得手段と、
前記第2の生体情報取得手段が取得した前記生体情報に基づいて、前記学習者に対する表現を決定する第2の表現決定手段と、を備える、
付記7に記載の学習支援システム。
(Appendix 8)
The robot that plays the role of a student
A second biometric information acquisition means for acquiring biometric information that changes depending on the learner's state,
A second expression determining means for determining an expression for the learner based on the biological information acquired by the second biological information acquiring means is provided.
The learning support system described in Appendix 7.

(付記9)
前記生徒役のロボットは、前記教師役のロボットから、前記学習者の状態によって変化する生体情報を受信する、
付記8に記載の学習支援システム。
(Appendix 9)
The robot acting as a student receives biological information that changes depending on the state of the learner from the robot acting as a teacher.
The learning support system described in Appendix 8.

(付記10)
前記生徒役のロボットは、前記教師役のロボットから、前記学習者に対する表現を示す表現決定情報を受信する、付記7に記載の学習支援システム。
(Appendix 10)
The learning support system according to Appendix 7, wherein the robot acting as a student receives expression determination information indicating an expression for the learner from the robot acting as a teacher.

(付記11)
学習者の状態によって変化する生体情報を取得する生体情報取得ステップと、
前記生体情報取得ステップで取得した前記生体情報に基づいて、前記学習者に対して実施する学習支援の内容を決定する学習指導内容決定ステップと、を備える、
学習支援方法。
(Appendix 11)
The biometric information acquisition step to acquire biometric information that changes depending on the learner's state,
A learning guidance content determination step for determining the content of learning support to be provided to the learner based on the biometric information acquired in the biometric information acquisition step is provided.
Learning support method.

(付記12)
コンピュータに、
学習者の状態によって変化する生体情報を取得する生体情報取得処理と、
前記生体情報取得処理で取得した前記生体情報に基づいて、前記学習者に対して実施する学習支援の内容を決定する学習指導内容決定処理と、を実行させる、
、プログラム。
(Appendix 12)
On the computer
Biometric information acquisition processing that acquires biometric information that changes depending on the learner's state,
Based on the biometric information acquired in the biometric information acquisition process, the learning guidance content determination process for determining the content of the learning support to be performed on the learner is executed.
,program.

1…学習支援システム、100…教師ロボット、110…制御部、111…生体情報解析部、112…学習状況判定部、113…擬似感情決定部、114…学習指導内容決定部、115…表現決定部、120…生体情報取得部、130…記憶部、140…表現部、141…音声出力部、142…可動部、150…通信部、200…生徒ロボット、210…制御部、211…生体情報解析部、212…学習状況判定部、213…擬似感情決定部、215…表現決定部、220…生体情報取得部、230…記憶部、240…表現部、241…音声出力部、242…可動部、250…通信部、300…通信端末、U…ユーザ(学習者) 1 ... Learning support system, 100 ... Teacher robot, 110 ... Control unit, 111 ... Biological information analysis unit, 112 ... Learning situation determination unit, 113 ... Pseudo-emotion determination unit, 114 ... Learning guidance content determination unit, 115 ... Expression determination unit , 120 ... biometric information acquisition unit, 130 ... storage unit, 140 ... expression unit, 141 ... audio output unit, 142 ... movable unit, 150 ... communication unit, 200 ... student robot, 210 ... control unit, 211 ... biometric information analysis unit , 212 ... Learning situation determination unit, 213 ... Pseudo emotion determination unit, 215 ... Expression determination unit, 220 ... Biological information acquisition unit, 230 ... Storage unit, 240 ... Expression unit, 241 ... Audio output unit, 242 ... Movable unit, 250 ... communication unit, 300 ... communication terminal, U ... user (learner)

Claims (13)

学習者の学習を支援するための学習支援装置であって、
当該学習支援装置の互いに異なる複数の擬似感情を記憶する擬似感情記憶手段と、
複数の擬似性格のうちの1つに当該学習支援装置の擬似性格を設定する設定手段と、
前記設定手段により設定された擬似性格に基づいて、前記複数の擬似感情の1つに当該学習支援装置の擬似感情を決定する擬似感情決定手段と、
前記擬似感情決定手段により決定された擬似感情に基づいて、前記学習者に対して実施する学習支援の内容を決定する学習指導内容決定手段と、を備える、
学習支援装置。
It is a learning support device to support learners' learning.
Pseudo-emotion storage means for storing a plurality of pseudo-emotions different from each other of the learning support device,
A setting means for setting the pseudo-character of the learning support device to one of the plurality of pseudo-characters, and
Based on the pseudo-personality set by the setting means, the pseudo-emotion determining means for determining the pseudo-emotion of the learning support device in one of the plurality of pseudo-emotions,
A learning guidance content determining means for determining the content of learning support to be provided to the learner based on the pseudo emotion determined by the pseudo emotion determining means.
Learning support device.
前記設定手段は、当該学習支援装置の擬似性格をユーザの操作に基づいて設定する、
請求項に記載の学習支援装置。
The setting means sets the pseudo-character of the learning support device based on the user's operation.
The learning support device according to claim 1 .
前記学習者の状態によって変化する生体情報を取得する生体情報取得手段、をさらに備え、
前記学習指導内容決定手段は、前記取得された生体情報と、前決定された擬似感情とに基づいて、前記学習者に対して実施する学習支援の内容を決定する、
請求項又はに記載の学習支援装置。
Further provided with a biometric information acquisition means for acquiring biometric information that changes depending on the state of the learner.
The teaching content determining means determines said acquired biometric information, based on the pseudo been pre Symbol determined emotion, the contents of the learning support be performed on the learner,
The learning support device according to claim 1 or 2 .
前記学習者の学習状況を判定する学習状況判定手段、をさらに備え、
前記学習指導内容決定手段は、前記学習状況判定手段による判定結果と、前記生体情報と、前決定された擬似感情とに基づいて、前記学習者に対して実施する学習支援の内容を決定する、
請求項に記載の学習支援装置。
Further provided with a learning situation determining means for determining the learning status of the learner,
The learning instruction content determining means, and determination result by said learning condition determining means, the biometric information, based on a pseudo emotion that is pre-Symbol decision, determines the content of the learning support be performed on the learner ,
The learning support device according to claim 3 .
前記擬似感情決定手段は、前記設定された擬似性格及び前記判定された学習状況に基づいて、前記複数の擬似感情の1つに当該学習支援装置の擬似感情を決定する、
請求項に記載の学習支援装置。
The pseudo-emotion determining means determines the pseudo-emotion of the learning support device as one of the plurality of pseudo-emotions based on the set pseudo-personality and the determined learning situation.
The learning support device according to claim 4 .
前記判定結果と、前記生体情報と、前決定された擬似感情とに基づいて、前記学習者に対する表現を決定する表現決定手段、をさらに備える、
請求項に記載の学習支援装置。
Further comprising a result of judgment, and the biological information, based on the previous SL determined pseudo emotion, expression determining means for determining the expression for the learner, and
The learning support device according to claim 4 .
請求項1からのいずれか1項に記載の学習支援装置を搭載した教師役のロボット。 A robot acting as a teacher equipped with the learning support device according to any one of claims 1 to 6 . 請求項に記載の教師役のロボットと、
前記学習者と共に前記教師役のロボットから英会話の指導を受ける生徒役のロボットと、を備える、
学習支援システム。
The robot acting as a teacher according to claim 7 and
A robot acting as a student who receives instruction in English conversation from the robot acting as a teacher together with the learner.
Learning support system.
前記生徒役のロボットは、
前記学習者の状態によって変化する生体情報を取得する第2の生体情報取得手段と、
前記第2の生体情報取得手段が取得した前記生体情報に基づいて、前記学習者に対する表現を決定する第2の表現決定手段と、を備える、
請求項に記載の学習支援システム。
The robot that plays the role of a student
A second biometric information acquisition means for acquiring biometric information that changes depending on the learner's state,
A second expression determining means for determining an expression for the learner based on the biological information acquired by the second biological information acquiring means is provided.
The learning support system according to claim 8 .
前記生徒役のロボットは、前記教師役のロボットから、前記学習者の状態によって変化する生体情報を受信する、
請求項に記載の学習支援システム。
The robot acting as a student receives biological information that changes depending on the state of the learner from the robot acting as a teacher.
The learning support system according to claim 8 .
前記生徒役のロボットは、前記教師役のロボットから、前記学習者に対する表現を示す表現決定情報を受信する、
請求項に記載の学習支援システム。
The robot acting as a student receives expression determination information indicating an expression for the learner from the robot acting as a teacher.
The learning support system according to claim 8 .
学習者の学習を支援するための学習支援装置に適用される学習支援方法であって、
当該学習支援装置の互いに異なる複数の擬似感情を記憶する擬似感情記憶ステップと、
複数の擬似性格のうちの1つに当該学習支援装置の擬似性格を設定する設定ステップと、
前記設定された擬似性格に基づいて、前記複数の擬似感情の1つに当該学習支援装置の擬似感情を決定する擬似感情決定ステップと、
前記擬似感情決定ステップにより決定された擬似感情に基づいて、前記学習者に対して実施する学習支援の内容を決定する学習指導内容決定ステップと、を備える、
学習支援方法。
It is a learning support method applied to a learning support device for supporting learners' learning.
A pseudo-emotion memory step that memorizes a plurality of pseudo-emotions different from each other of the learning support device,
A setting step for setting the pseudo-character of the learning support device to one of the plurality of pseudo-characters, and
Based on the set pseudo-personality, one of the plurality of pseudo-emotions includes a pseudo-emotion determination step of determining the pseudo-emotion of the learning support device.
A learning guidance content determination step for determining the content of learning support to be provided to the learner based on the pseudo emotion determined by the pseudo emotion determination step is provided.
Learning support method.
学習者の学習を支援するための学習支援装置のコンピュータに、
当該学習支援装置の互いに異なる複数の擬似感情を記憶する機能と、
複数の擬似性格のうちの1つに当該学習支援装置の擬似性格を設定する設定機能と、
前記設定された擬似性格に基づいて、前記複数の擬似感情の1つに当該学習支援装置の擬似感情を決定する擬似感情決定機能と、
前記擬似感情決定機能により決定された擬似感情に基づいて、前記学習者に対して実施する学習支援の内容を決定する機能と、を実現させる、
プログラム。
To the computer of the learning support device to support the learner's learning,
The function of memorizing multiple pseudo emotions different from each other of the learning support device, and
A setting function that sets the pseudo-personality of the learning support device to one of the plurality of pseudo-personality,
Based on the set pseudo-personality, one of the plurality of pseudo-emotions has a pseudo-emotion determination function that determines the pseudo-emotion of the learning support device.
A function of determining the content of learning support to be provided to the learner based on the pseudo emotion determined by the pseudo emotion determination function is realized.
program.
JP2016059275A 2016-03-23 2016-03-23 Learning support device, robot, learning support system, learning support method and program Active JP6756130B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016059275A JP6756130B2 (en) 2016-03-23 2016-03-23 Learning support device, robot, learning support system, learning support method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016059275A JP6756130B2 (en) 2016-03-23 2016-03-23 Learning support device, robot, learning support system, learning support method and program

Publications (3)

Publication Number Publication Date
JP2017173546A JP2017173546A (en) 2017-09-28
JP2017173546A5 JP2017173546A5 (en) 2019-04-25
JP6756130B2 true JP6756130B2 (en) 2020-09-16

Family

ID=59971147

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016059275A Active JP6756130B2 (en) 2016-03-23 2016-03-23 Learning support device, robot, learning support system, learning support method and program

Country Status (1)

Country Link
JP (1) JP6756130B2 (en)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3762941A1 (en) * 2018-03-05 2021-01-13 Omron Corporation Device for predicting body weight of a person and device and method for health management
CN108428378A (en) * 2018-05-24 2018-08-21 牡丹江师范学院 Multi-functional elementary Chinese aiding device
JP7263895B2 (en) * 2018-05-30 2023-04-25 カシオ計算機株式会社 LEARNING DEVICE, ROBOT, LEARNING SUPPORT SYSTEM, LEARNING DEVICE CONTROL METHOD AND PROGRAM
CN109697904B (en) * 2019-02-28 2020-12-25 苏州阿杜机器人有限公司 Robot intelligent classroom auxiliary teaching system and method
CN110120170A (en) * 2019-04-19 2019-08-13 安徽智训机器人技术有限公司 A kind of educational robot with mood setting
JP6712027B1 (en) * 2019-12-27 2020-06-17 有限会社ソリューションゲート Learning support system
JP6990472B1 (en) 2021-03-23 2022-01-12 ユニロボット株式会社 A system for communicating with people and a program for that purpose

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1997044766A1 (en) * 1996-05-22 1997-11-27 Agent Based Curricula, Inc. Agent based instruction system and method
JP3936749B2 (en) * 1998-04-16 2007-06-27 クリエイター・リミテッド Interactive toys
JP2003021999A (en) * 2001-07-06 2003-01-24 Univ Saga System and method for creating educational material
JP2003200369A (en) * 2001-12-26 2003-07-15 Sony Corp Robot device, control method for the same, artificial agent, storage control device and storage control method
JP2005211232A (en) * 2004-01-28 2005-08-11 Victor Co Of Japan Ltd Communication support apparatus
TWI340660B (en) * 2006-12-29 2011-04-21 Ind Tech Res Inst Emotion abreaction device and using method of emotion abreaction device
US9079113B2 (en) * 2012-01-06 2015-07-14 J. T. Labs Limited Interactive personal robotic apparatus

Also Published As

Publication number Publication date
JP2017173546A (en) 2017-09-28

Similar Documents

Publication Publication Date Title
JP6756130B2 (en) Learning support device, robot, learning support system, learning support method and program
CN107225578B (en) Robot control device, robot control method and system
CN108182830B (en) Robot, robot control device, method, system, and storage medium
Neri et al. The pedagogy-technology interface in computer assisted pronunciation training
Brown et al. The positive effects of verbal encouragement in mathematics education using a social robot
US20180257236A1 (en) Apparatus, robot, method and recording medium having program recorded thereon
KR20030074473A (en) Method and apparatus for speech synthesis, program, recording medium, method and apparatus for generating constraint information and robot apparatus
Schodde et al. Adapt, explain, engage—a study on how social robots can scaffold second-language learning of children
US20220028296A1 (en) Information processing apparatus, information processing method, and computer program
Zwozdiak-Myers et al. Communicating with pupils
US9520068B2 (en) Sentence level analysis in a reading tutor
KR20160051020A (en) User-interaction toy and interaction method of the toy
Underhill Cinderella, integration and the pronunciation turn
JP7263895B2 (en) LEARNING DEVICE, ROBOT, LEARNING SUPPORT SYSTEM, LEARNING DEVICE CONTROL METHOD AND PROGRAM
JP2006068489A (en) Interactive pet robot
US11587460B2 (en) Method and system for adaptive language learning
Turketi Teaching English to children with ADHD
CN113168826A (en) Robot, speech synthesis program, and speech output method
Thomson The relationship between L2 speech perception and production
Beals et al. Speech and language technology for language disorders
EP4033487A1 (en) Method and system for measuring the cognitive load of a user
Rubin Development and evaluation of software tools for speech therapy
Beals Remediation and assistive technologies for communication deficits in autistic spectrum disorders
Kruijff-Korbayová et al. A conversational system for multi-session child-robot interaction with several games
Stephens et al. The Power of Live Delivery: Reading Empowered by Orature or Audio?

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190312

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190312

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191127

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200107

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200218

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200728

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200810

R150 Certificate of patent or registration of utility model

Ref document number: 6756130

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150