JP2017173546A - Learning support device, robot, learning support system, learning support method, and program - Google Patents

Learning support device, robot, learning support system, learning support method, and program Download PDF

Info

Publication number
JP2017173546A
JP2017173546A JP2016059275A JP2016059275A JP2017173546A JP 2017173546 A JP2017173546 A JP 2017173546A JP 2016059275 A JP2016059275 A JP 2016059275A JP 2016059275 A JP2016059275 A JP 2016059275A JP 2017173546 A JP2017173546 A JP 2017173546A
Authority
JP
Japan
Prior art keywords
learning
pseudo
learner
robot
expression
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016059275A
Other languages
Japanese (ja)
Other versions
JP6756130B2 (en
JP2017173546A5 (en
Inventor
香莉 門澤
Kaori Kadosawa
香莉 門澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2016059275A priority Critical patent/JP6756130B2/en
Publication of JP2017173546A publication Critical patent/JP2017173546A/en
Publication of JP2017173546A5 publication Critical patent/JP2017173546A5/ja
Application granted granted Critical
Publication of JP6756130B2 publication Critical patent/JP6756130B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Electrically Operated Instructional Devices (AREA)
  • Manipulator (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a learning support device capable of supporting diversity-carrying learning.SOLUTION: A teacher robot 100 comprises: a biological information acquisition unit 120 for acquiring biological information which varies according to the state of a learner; and a learning guidance content determination unit 114 for determining a content of learning support to be carried out for the learner on the basis of the biological information acquired by the biological information acquisition unit 120.SELECTED DRAWING: Figure 2

Description

本発明は、学習支援装置、ロボット、学習支援システム、学習支援方法及びプログラムに関する。   The present invention relates to a learning support device, a robot, a learning support system, a learning support method, and a program.

ユーザの学習を支援する学習支援ロボットが広く利用されている。例えば、特許文献1は、ユーザが対話形式で学習することができる情報通信ロボット装置を開示している。特許文献1が開示する情報通信ロボット装置は、ユーザからの音声情報と予め記憶された教育情報に対応するフィードバック情報を用いて出力情報を生成してユーザに対して出力する。   Learning support robots that support user learning are widely used. For example, Patent Document 1 discloses an information communication robot apparatus that allows a user to learn in an interactive manner. The information communication robot apparatus disclosed in Patent Document 1 generates output information using voice information from a user and feedback information corresponding to education information stored in advance, and outputs the output information to the user.

特開2001−242780号公報JP 2001-242780 A

しかしながら、特許文献1に開示された技術では、ユーザの音声を音声認識し、変換された文字列に対応する所定の学習指導を実行するため、多様性に乏しく画一的な学習の進め方になってしまう可能性がある。   However, the technique disclosed in Patent Document 1 recognizes a user's voice and executes a predetermined learning instruction corresponding to the converted character string. There is a possibility that.

本発明は、上述の事情に鑑みてなされたものであり、多様性のある学習の支援をすることができる学習支援装置などを提供することを目的とする。   The present invention has been made in view of the above-described circumstances, and an object thereof is to provide a learning support apparatus that can support various kinds of learning.

上記の目的を達成するため、本発明に係る学習支援装置は、
学習者の状態によって変化する生体情報を取得する生体情報取得手段と、
前記生体情報取得手段が取得した前記生体情報に基づいて、前記学習者に対して実施する学習支援の内容を決定する学習指導内容決定手段と、を備える。
In order to achieve the above object, a learning support apparatus according to the present invention provides:
Biometric information acquisition means for acquiring biometric information that changes depending on the state of the learner;
Learning instruction content determination means for determining the content of learning support to be performed for the learner based on the biological information acquired by the biological information acquisition means.

本発明によれば、多様性のある学習の支援をすることができる学習支援装置などを提供することができる。   ADVANTAGE OF THE INVENTION According to this invention, the learning assistance apparatus etc. which can support the learning with diversity can be provided.

本発明の実施形態に係る学習支援システムの構成図である。It is a block diagram of the learning assistance system which concerns on embodiment of this invention. (A)は教師ロボットの機能的な構成を示す図であり、(B)は生徒ロボットの機能的な構成を示す図である。(A) is a figure which shows the functional structure of a teacher robot, (B) is a figure which shows the functional structure of a student robot. (A)は擬似性格の分類を説明する図であり、(B)は擬似感情の分類および遷移を説明する図である。(A) is a figure explaining the classification | category of a pseudo personality, (B) is a figure explaining the classification | category and transition of a pseudo emotion. 教師用学習履歴テーブルの一例を示す図である。It is a figure which shows an example of the learning history table for teachers. 教師用学習関連事象テーブルの一例を示す図である。It is a figure which shows an example of the learning related event table for teachers. 教師用学習関連事象テーブルの他の例を示す図である。It is a figure which shows the other example of the learning related event table for teachers. 教師用生体関連事象テーブルの一例を示す図である。It is a figure which shows an example of the biometric event table for teachers. 教師用生体関連事象テーブルの他の例を示す図である。It is a figure which shows the other example of the biometrics related event table for teachers. 学習指導内容変更テーブルの一例を示す図である。It is a figure which shows an example of the learning guidance content change table. 生徒用学習関連事象テーブルの一例を示す図である。It is a figure which shows an example of the learning related event table for students. (A)は教師ロボットが実行する学習指導処理の流れを示すフローチャートであり、(B)は生徒ロボットが実行する学習支援処理の流れを示すフローチャートである。(A) is a flowchart which shows the flow of the learning instruction | indication process which a teacher robot performs, (B) is a flowchart which shows the flow of the learning assistance process which a student robot performs.

以下、図面を参照しながら、本発明の実施形態に係る学習支援システムについて説明する。   Hereinafter, a learning support system according to an embodiment of the present invention will be described with reference to the drawings.

本発明の実施形態に係る学習支援システムは、ユーザ(学習者)Uの英会話の学習を支援するためのシステムである。学習支援システム1は、図1に示すように、教師ロボット100と、生徒ロボット200と、通信端末300と、を備える。   The learning support system according to the embodiment of the present invention is a system for supporting learning of English conversation of a user (learner) U. As illustrated in FIG. 1, the learning support system 1 includes a teacher robot 100, a student robot 200, and a communication terminal 300.

教師ロボット100は、ユーザUに英会話を指導する教師役を担うロボットである。教師ロボット100は、外観的には人体を模した立体的な形状を有する。また、教師ロボット100は、擬似性格および擬似感情を有し、ユーザUの生体情報や学習状況によって変化する擬似感情に応じて適切な学習カリキュラムを選択して学習支援を実施する。ここで、擬似性格とは、一般的にひとが有する性格を教師ロボット100が有しているかのように擬似的に生成されたものである。また、擬似感情とは、実際にユーザUに接したひとが抱くであろう感情を教師ロボット100が抱いたかのように擬似的に生成されたものである。   The teacher robot 100 is a robot that plays the role of a teacher who teaches the user U English conversation. The teacher robot 100 has a three-dimensional shape imitating a human body in appearance. The teacher robot 100 has a pseudo personality and a pseudo emotion, selects an appropriate learning curriculum according to the pseudo emotion that changes according to the biometric information of the user U and the learning situation, and performs learning support. Here, the pseudo personality is generated in a pseudo manner as if the teacher robot 100 generally has the personality of a person. The pseudo emotion is generated in a pseudo manner as if the teacher robot 100 had an emotion that a person who actually touched the user U would have.

教師ロボット100の擬似性格は、図3(A)に示すように、社交性および安定度の程度に応じて、「快活」、「冷静」、「怒りっぽい」、「陰気」の4つに分類されている。ユーザUは、教師ロボット100の起動時などに、通信端末300を介して所望の擬似性格を選択することができる。   As shown in FIG. 3A, there are four types of pseudo personality of the teacher robot 100: “quiet”, “cool”, “angry”, and “disgust” according to the degree of sociality and stability. It is classified. The user U can select a desired pseudo personality via the communication terminal 300 when the teacher robot 100 is activated.

教師ロボット100の擬似感情は、図3(B)に示すように、「喜」、「怒」、「哀」、「楽」の4つに分類されている。「喜」は、「喜び」や「うれしい」という感情状態であることを示す。「怒」は、「怒り」や「不機嫌」という感情状態であることを示す。「哀」は、「哀しい」や「不安」などの感情状態であることを示す。「楽」は、「平静」や「楽しい」などの感情状態であることを示す。これらの擬似感情の各々は、事象の発生状況に応じて他の擬似感情に遷移するものとする。また、ユーザUにより選択された擬似性格によって擬似感情の遷移の仕方が異なる。   The pseudo emotions of the teacher robot 100 are classified into four types of “joy”, “anger”, “sorrow”, and “easy” as shown in FIG. “Joy” indicates an emotional state of “joy” or “happy”. “Angry” indicates an emotional state of “angry” or “moody”. “Sad” indicates an emotional state such as “sad” or “anxiety”. “Easy” indicates an emotional state such as “calm” or “fun”. Each of these pseudo emotions shall transition to other pseudo emotions according to the occurrence state of the event. Further, the way of transition of the pseudo emotion differs depending on the pseudo personality selected by the user U.

教師ロボット100は、機能的には、図2(A)に示すように、制御部110、生体情報取得部120、記憶部130,表現部140、通信部150を備える。   Functionally, the teacher robot 100 includes a control unit 110, a biological information acquisition unit 120, a storage unit 130, an expression unit 140, and a communication unit 150, as shown in FIG.

制御部110は、教師ロボット100全体の動作を制御する。制御部110は、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)を有するマイクロコンピュータにより構成される。制御部110は、CPUがROMに記憶された動作プログラムを読み出してRAM上で実行することにより、教師ロボット100の各部を制御する。   The control unit 110 controls the entire operation of the teacher robot 100. The control unit 110 includes a microcomputer having a central processing unit (CPU), a read only memory (ROM), and a random access memory (RAM). The control unit 110 controls each unit of the teacher robot 100 when the CPU reads out an operation program stored in the ROM and executes it on the RAM.

制御部110は、生体情報解析部111、学習状況判定部112、擬似感情決定部113、学習指導内容決定部114、表現決定部115、を有する。   The control unit 110 includes a biological information analysis unit 111, a learning state determination unit 112, a pseudo emotion determination unit 113, a learning instruction content determination unit 114, and an expression determination unit 115.

生体情報解析部111は、後述する生体情報取得部120から取得した生体情報を時系列に解析し、ユーザUの生体状態の変化などを抽出してユーザUの状態を特定する。例えば、生体情報解析部111は、生体情報取得部120から取得した音声データを解析し、振幅大小、発声内容、発声頻度などから、ユーザUが集中しているかあるいは眠いかなどを特定する   The biological information analysis unit 111 analyzes biological information acquired from the biological information acquisition unit 120 described later in time series, extracts changes in the biological state of the user U, etc., and identifies the state of the user U. For example, the biometric information analysis unit 111 analyzes the audio data acquired from the biometric information acquisition unit 120 and identifies whether the user U is concentrated or sleepy from the amplitude magnitude, the utterance content, the utterance frequency, and the like.

学習状況判定部112は、ユーザUの学習状況を判定する。具体的には、学習状況判定部112は、質問に対する回答の正誤の判定や回答速度(回答に要する時間)の測定などを行い、正答率や進捗状況など各種要素を勘案してユーザUの学習成績を評価する。   The learning status determination unit 112 determines the learning status of the user U. Specifically, the learning status determination unit 112 determines whether or not the answer to the question is correct and measures the response speed (the time required for the answer), and learns the user U in consideration of various factors such as the correct answer rate and progress. Evaluate your grades.

擬似感情決定部113は、教師ロボット100の擬似感情を決定する。擬似感情決定部113は、例えば、教師ロボット100の学習指導の開始時には、後述する記憶部130に記憶された教師用学習履歴テーブルを参照して擬似感情を決定する。また、擬似感情決定部113は、例えば、学習指導の実行中には、後述する記憶部130に記憶された教師用学習関連事象テーブルおよび教師用生体関連事象テーブルを参照して新たな擬似感情を決定する。   The pseudo emotion determination unit 113 determines the pseudo emotion of the teacher robot 100. For example, the pseudo emotion determination unit 113 determines pseudo emotions by referring to a teacher learning history table stored in the storage unit 130 described later at the start of learning instruction of the teacher robot 100. Further, for example, during execution of learning guidance, the pseudo emotion determination unit 113 refers to a teacher learning related event table and a teacher living body related event table stored in the storage unit 130, which will be described later, and generates new pseudo emotions. decide.

学習指導内容決定部114は、ユーザUに対して実施する学習指導内容を決定する。制御部110は、後述する記憶部130に記憶された教師用学習履歴テーブルを参照して実施する学習カリキュラムを決定する。また、学習指導内容決定部114は、擬似感情決定部113により擬似感情が変化するタイミングに合わせて後述する記憶部130に記憶された学習指導内容変更テーブルを参照して学習カリキュラムに含まれる科目の順番や進行度合いの変更を決定する。学習指導内容決定部114は、決定内容を通信部150を介して生徒ロボット200に伝達する。   The learning guidance content determination unit 114 determines the learning guidance content to be implemented for the user U. The control unit 110 determines a learning curriculum to be performed with reference to a teacher learning history table stored in the storage unit 130 described later. In addition, the learning instruction content determination unit 114 refers to a learning instruction content change table stored in the storage unit 130, which will be described later, in accordance with the timing when the pseudo emotion is changed by the pseudo emotion determination unit 113. Determine changes in order and progress. The learning instruction content determination unit 114 transmits the determination content to the student robot 200 via the communication unit 150.

表現決定部115は、ユーザUの生体状態や学習状況などに応じて、ユーザUに対して教師ロボット100が実行する感情表現の内容を決定する。表現決定部115は、例えば、後述する記憶部130に記憶された教師用学習関連事象テーブルや教師用生体関連事象テーブルを参照して、所定の事象が発生するごとに、対応する表現内容を実行することを決定する。表現決定部115は、決定した表現内容に基づく指示データを表現部140に供給する。また、表現決定部115は、ユーザUの生体状態や学習状況などに応じて、生徒ロボット200に出力させる音声や実行させる動作を決定し、その決定内容を通信部150を介して生徒ロボット200に伝達する。   The expression determination unit 115 determines the content of the emotion expression executed by the teacher robot 100 for the user U according to the biological state of the user U, the learning situation, and the like. For example, the expression determining unit 115 refers to a teacher learning related event table or a teacher biometric related event table stored in the storage unit 130 to be described later, and executes the corresponding expression content each time a predetermined event occurs. Decide what to do. The expression determination unit 115 supplies instruction data based on the determined expression content to the expression unit 140. In addition, the expression determination unit 115 determines the voice to be output to the student robot 200 and the operation to be performed according to the biological state of the user U, the learning situation, and the like, and the determination content is transmitted to the student robot 200 via the communication unit 150. introduce.

生体情報取得部120は、ユーザUの生体状態により変化する生体情報を取得する。生体情報取得部120は、例えば、マイクロフォンと音声入力インタフェースで構成され、ユーザUの音声を音声データに変換して生体情報解析部111に出力する。   The biological information acquisition unit 120 acquires biological information that changes depending on the biological state of the user U. The biological information acquisition unit 120 includes, for example, a microphone and a voice input interface, converts the voice of the user U into voice data, and outputs the voice data to the biological information analysis unit 111.

記憶部130は、制御部110が教師ロボット100の各部を制御するために必要な種々のデータを記憶する。記憶部130は、例えば、フラシュメモリやHDD(Hard Disc Drive)などの不揮発性の記憶装置により構成される。記憶部130は、例えば、通信端末300を介してユーザUによって選択された擬似性格を示すデータを所定の記憶領域に記憶する。   The storage unit 130 stores various data necessary for the control unit 110 to control each unit of the teacher robot 100. The storage unit 130 is configured by a non-volatile storage device such as a flash memory or an HDD (Hard Disc Drive). The storage unit 130 stores, for example, data indicating the pseudo personality selected by the user U via the communication terminal 300 in a predetermined storage area.

また、記憶部130が記憶するデータには、教師用学習履歴テーブルと、教師用学習関連事象テーブルと、教師用生体関連事象テーブルと、学習指導内容変更テーブルが含まれる。   The data stored in the storage unit 130 includes a teacher learning history table, a teacher learning related event table, a teacher biometric related event table, and a learning instruction content change table.

教師用学習履歴テーブルは、ユーザUが学習支援システム1を利用した履歴と学習成績をまとめたテーブルである。教師用学習履歴テーブルは、図4に示すように、「開始日時」と「終了日時」と、「学習時間」と、「学習成績」の各データを対応付けて構成されている。ここで、本実施の形態では、ユーザUが幼児であると仮定し、教師ロボット100が実施する学習指導は1回30分程度で終了するように学習カリキュラムが組まれているものとする。また、学習カリキュラムには、おもに単語の反復発声や発音の矯正を指導する「単語」、おもに短い文章の反復発声などを指導する「文章」、リズムに合わせて単語や文章を反復発声させて発音やイントネーションを学ばせる「チャンツ」、身近な話題について英語でやりとりする「会話」、短い物語を読み聞かせる「ストーリ」、学習内容の理解度を確認する「復習」の5つの科目を含むこととする。「学習成績」は、これらの科目毎に正答率や習熟の度合いなどを考慮して「A」〜「C」の3段階で評価されている。なお、「−」は、実施されなかったことを意味する。   The teacher learning history table is a table in which the history and learning results of the user U using the learning support system 1 are summarized. As shown in FIG. 4, the teacher learning history table is configured by associating each data of “start date and time”, “end date and time”, “learning time”, and “learning result”. Here, in this embodiment, it is assumed that the user U is an infant, and it is assumed that the learning curriculum is set so that the learning instruction performed by the teacher robot 100 is completed once in about 30 minutes. In addition, the learning curriculum mainly includes “words” that teach repetitive utterances of words and correction of pronunciation, “sentences” that mainly teach repetitive utterances of short sentences, and pronunciation by repeatedly uttering words and sentences according to rhythm. "Chants" that teaches how to learn and intonation, "conversations" that communicate in English on familiar topics, "story" that reads short stories, and "reviews" that check the level of understanding of learning content To do. The “learning results” are evaluated in three stages from “A” to “C” in consideration of the correct answer rate and the level of proficiency for each subject. Note that “-” means not implemented.

教師用学習関連事象テーブルは、学習関連事象の発生を検知したときの対応を規定したテーブルであり、擬似性格ごとに設けられ、各々には異なる対応が規定されている。ここで、学習関連事象とは、質問に対する回答の正誤や学習進捗など学習の習得状況に関連する事象をいう。教師用学習関連事象テーブルは、図5、図6に示すように、現在の擬似感情ごとに、それぞれ、「学習関連事象」と「感情ポイント」と「表現内容」の各データを対応付けて構成されている。「学習関連事象」は、学習状況判定部112により判定されたユーザUの習熟の度合いを示す項目である。「学習関連事象」には、例えば、「正答(誤答)」、「学習進捗が良い(悪い)」などが挙げられる。「感情ポイント」は、発生事象ごとに各擬似感情に加算される数値である。各擬似感情の「感情ポイント」に異なる数値を設定することによって、発生事象の重要性や対応緊急性などに応じて各擬似感情に異なる重み付けがされる。「表現内容」は、発生事象ごとの出力音声や実行動作の概要である。なお、図5、図6に示す「表現内容」には、おもに発生事象ごとの教師ロボット100の表現がおもに規定されているが、発生事象に対応して生徒ロボット200に実行させる表現についても規定される。擬似感情決定部113は、この教師用学習関連事象テーブルを参照し、発生事象に応じて各擬似感情の累計値を算出する。また、擬似感情決定部113は、各擬似感情の感情ポイントの累計値のいずれかが所定の閾値を超えた場合には、現在の擬似感情から閾値を超えた擬似感情に遷移させることを決定する。   The learning-related event table for teachers is a table that defines the correspondence when the occurrence of a learning-related event is detected, and is provided for each pseudo personality, and a different correspondence is defined for each. Here, the learning-related event refers to an event related to the learning situation such as correctness / incorrectness of answers to questions and learning progress. As shown in FIGS. 5 and 6, the teacher learning-related event table is configured by associating each data of “learning-related event”, “emotion point”, and “expression content” with respect to each current pseudo emotion, respectively. Has been. The “learning related event” is an item indicating the degree of proficiency of the user U determined by the learning status determination unit 112. Examples of the “learning related event” include “correct answer (incorrect answer)”, “learning progress is good (bad)”, and the like. The “emotion point” is a numerical value added to each pseudo emotion for each occurrence event. By setting different numerical values for the “emotion points” of each pseudo emotion, different weights are assigned to each pseudo emotion according to the importance of the occurrence event and the urgency of response. “Expression content” is an outline of output speech and execution operation for each occurrence event. The expression contents shown in FIGS. 5 and 6 mainly define the expression of the teacher robot 100 for each occurrence event, but also specify the expression to be executed by the student robot 200 in response to the occurrence event. Is done. The pseudo emotion determination unit 113 refers to the teacher learning related event table and calculates a cumulative value of each pseudo emotion according to the occurrence event. Moreover, the pseudo emotion determination unit 113 determines that a transition from the current pseudo emotion to the pseudo emotion exceeding the threshold is made when any of the cumulative values of the emotion points of each pseudo emotion exceeds a predetermined threshold. .

図5に示すテーブルは、擬似性格が「快活」に設定されている場合に参照される教師用学習関連事象テーブルの一例であり、図6に示すテーブルは、擬似性格が「怒りっぽい」に設定されている場合に参照される教師用学習関連事象テーブルの一例である。   The table shown in FIG. 5 is an example of a learning-related event table for teachers that is referred to when the pseudo personality is set to “cheerful”, and the table shown in FIG. 6 has the pseudo personality of “angry”. It is an example of the learning related event table for teachers referred when set.

図5に示す教師用学習関連事象テーブルには、例えば、現在の擬似感情「喜」において、学習が予定通りに進んでいないことを示す事象「学習進捗が悪い」が検知されたときには、擬似感情「哀」に感情ポイント「2」、擬似感情「怒」および「楽」に感情ポイント「1」を加算するとともに、ユーザUを励ますような音声を出力したり元気づけるような動作を実行するように規定されている。一方、図6に示す教師用学習関連事象テーブルには、例えば、現在の擬似感情「喜」において、事象「学習進捗が悪い」が検知されたときには、擬似感情「怒」に感情ポイント「2」、擬似感情「哀」に感情ポイント「3」を加算するとともに、ユーザUを叱るような音声を出力するように規定されている。このように、設定された擬似性格に応じて学習関連事象に対する「感情ポイント」や「表現内容」を異ならせることによって、教師ロボット100に多様な学習指導を実施させることができる。   In the learning-related event table for teachers shown in FIG. 5, for example, when an event “learning progress is poor” indicating that learning is not progressing as planned in the current pseudo emotion “joy” is detected, The emotion point “2” is added to the “sorrow”, the emotion point “1” is added to the pseudo emotion “anger” and “easy”, and an operation that outputs a voice or encourages the user U is executed. It is stipulated in. On the other hand, in the learning-related event table for teachers shown in FIG. 6, for example, when the event “learning progress is bad” is detected in the current pseudo emotion “joy”, the emotion point “2” is added to the pseudo emotion “anger”. In addition, the emotion point “3” is added to the pseudo emotion “sorrow”, and a voice that speaks the user U is output. In this way, by making the “emotion points” and “expression contents” for learning-related events different according to the set pseudo-character, it is possible to cause the teacher robot 100 to carry out various learning instructions.

教師用生体関連事象テーブルは、生体関連事象の発生を検知したときの対応を規定したテーブルであり、擬似性格ごとに設けられ、各々には異なる対応が規定されている。ここで、生体関連事象とは、生体情報から判断されるユーザUの状態やその変化などに起因する事象という。教師用生体関連事象テーブルは、図7、図8に示すように、現在の擬似感情ごとに、それぞれ、「生体関連事象」と「感情ポイント」と「表現内容」の各データを対応付けて構成されている。「生体関連事象」は、生体情報取得部120が取得した生体情報から検知されるユーザUの生体状態を示す項目である。「生体関連事象」には、例えば、「声が大きい(小さい)」、「返答が早い(遅い)」などが挙げられる。「感情ポイント」は、教師用学習関連事象テーブルの場合と同様、発生事象ごとに各擬似感情に加算される数値である。「表現内容」は、発生事象ごとの出力音声や実行動作の概要である。なお、図7、図8に示す「表現内容」には、おもに発生事象ごとの教師ロボット100の表現がおもに規定されているが、発生事象に対応して生徒ロボット200に実行させる表現についても規定される。擬似感情決定部113は、この教師用生体関連事象テーブルを参照し、発生事象に応じて各擬似感情の累計値を算出する。また、擬似感情決定部113は、各擬似感情の感情ポイントの累計値のいずれかが所定の閾値を超えた場合には、現在の擬似感情から閾値を超えた擬似感情に遷移させることを決定する。   The teacher-related bio-related event table is a table that defines the correspondence when the occurrence of the bio-related event is detected, and is provided for each pseudo personality, and a different correspondence is defined for each. Here, the bio-related event is an event caused by the state of the user U determined from the bio-information and the change thereof. As shown in FIGS. 7 and 8, the teacher's bio-related event table is configured by associating each data of “biological-related event”, “emotion point”, and “expression content” with respect to each current pseudo emotion. Has been. The “biological related event” is an item indicating the biological state of the user U detected from the biological information acquired by the biological information acquisition unit 120. Examples of “biological event” include “voice is loud (small)”, “response is fast (slow)”, and the like. The “emotion point” is a numerical value added to each pseudo emotion for each occurrence event, as in the case of the teacher learning related event table. “Expression content” is an outline of output speech and execution operation for each occurrence event. 7 and FIG. 8 mainly defines the expression of the teacher robot 100 for each occurrence event, but also defines the expression to be executed by the student robot 200 in response to the occurrence event. Is done. The pseudo emotion determination unit 113 refers to the biometric related event table for teachers and calculates a cumulative value of each pseudo emotion according to the occurrence event. Moreover, the pseudo emotion determination unit 113 determines that a transition from the current pseudo emotion to the pseudo emotion exceeding the threshold is made when any of the cumulative values of the emotion points of each pseudo emotion exceeds a predetermined threshold. .

図7に示すテーブルは、擬似性格が「快活」に設定されている場合に参照される教師用生体関連事象テーブルの一例であり、図8に示すテーブルは、擬似性格が「怒りっぽい」に設定されている場合に参照される教師用生体関連事象テーブルの一例である。   The table shown in FIG. 7 is an example of a biometric related event table for teachers that is referred to when the pseudo personality is set to “cheerful”, and the table shown in FIG. 8 has a pseudo personality of “angry”. It is an example of the biometric related event table for teachers referred when it is set.

図7に示す教師用生体関連事象テーブルには、例えば、現在の擬似感情「怒」において、ユーザUの回答の声が大きいことを示す事象「声が大きい」が検知されたときには、擬似感情「喜」、「哀」、「楽」に感情ポイント「1」を加算するとともに、ユーザUをほめるような音声を出力するように規定されている。一方、図8に示す教師用生体関連事象テーブルには、例えば、現在の擬似感情「怒」において、事象「声が大きい」が検知されたときには、擬似感情「哀」、「楽」に感情ポイント「1」を加算するとともに、頭を縦に振る動作を実行するように規定されている。このように、設定された擬似性格に応じて生体関連事象に対する「感情ポイント」や「表現内容」を異ならせることによって、教師ロボット100に多様な学習指導を実施させることができる。擬似感情決定部113は、この教師用生体関連事象テーブルを参照し、発生事象に応じて各擬似感情の累計値を算出する。また、擬似感情決定部113は、各擬似感情の感情ポイントの累計値のいずれかが所定の閾値を超えた場合には、現在の擬似感情から閾値を超えた擬似感情に遷移させることを決定する。   In the biometric event table for teachers shown in FIG. 7, for example, when an event “voice is loud” indicating that the voice of the answer of the user U is loud is detected in the current pseudo emotion “anger”, the pseudo emotion “ It is stipulated that an emotion point “1” is added to “joy”, “sorrow”, and “easy”, and a voice that compliments the user U is output. On the other hand, in the biometric event table for teachers shown in FIG. 8, for example, when the event “loud” is detected in the current pseudo emotion “anger”, the emotion points are expressed in the pseudo emotions “sorrow” and “easy”. It is specified to perform an operation of adding “1” and shaking the head vertically. In this way, by making the “emotion points” and “expression contents” for the biological related event different according to the set pseudo personality, the teacher robot 100 can perform various learning instructions. The pseudo emotion determination unit 113 refers to the biometric related event table for teachers and calculates a cumulative value of each pseudo emotion according to the occurrence event. Moreover, the pseudo emotion determination unit 113 determines that a transition from the current pseudo emotion to the pseudo emotion exceeding the threshold is made when any of the cumulative values of the emotion points of each pseudo emotion exceeds a predetermined threshold. .

学習指導内容変更テーブルは、擬似感情の遷移に伴って学習指導内容の変更内容が規定されたテーブルである。学習指導内容変更テーブルは、「遷移後の擬似感情」と「遷移前の擬似感情」と「学習指導内容」の各データを対応付けて構成されている。図9に示す学習指導内容変更テーブルには、例えば、擬似感情が「怒」から「喜」に遷移した場合には、実施する科目を「ユーザUの得意な科目に変更」、もしくは、実施中の科目において「難しい問題を出題」を選択的に実行するように規定されている。これは、ユーザUの学習成績または生体状態が改善したことに伴って教師ロボット100の擬似感情が好転したことを契機に、ユーザUからやる気やチャレンジ精神をさらに引き出すことを意図している。また、学習指導内容変更テーブルには、例えば、擬似感情が「楽」から「哀」に遷移した場合には、学習の「テンポを緩める」、もしくは、実施中の科目などに「関連しない話をする」を選択的に実行するように規定されている。これは、ユーザUの学習成績または生体状態が低下したことに伴って教師ロボット100の擬似感情が少々悪化したことを契機に、ユーザUに余裕を与えたり気分転換させることを意図している。   The learning instruction content change table is a table in which the changing contents of the learning instruction contents are specified in accordance with the transition of the pseudo emotion. The learning instruction content change table is configured by associating each data of “pseudo emotion after transition”, “pseudo emotion before transition”, and “learning instruction content”. In the learning instruction content change table shown in FIG. 9, for example, when the pseudo-emotion changes from “anger” to “joy”, the subject to be implemented is “change to a subject that user U is good at” or is being implemented. It is stipulated to selectively execute “Ask a difficult question” in the subject. This is intended to further draw out the motivation and challenge spirit from the user U in response to the improvement of the pseudo emotion of the teacher robot 100 accompanying the improvement in the learning result or biological state of the user U. Also, in the learning instruction content change table, for example, when the pseudo-emotion changes from “Easy” to “Sorrow”, “Lease the tempo” of learning or “ "Yes" is selectively executed. This is intended to give the user U a margin or change his mood when the pseudo-emotion of the teacher robot 100 is slightly deteriorated as the learning result or the biological state of the user U is lowered.

表現部140は、表現決定部115の決定内容に応じてユーザUに対して擬似的な感情表現を行う。表現部140は、音声出力部141、可動部142を有する。   The expression unit 140 performs pseudo emotion expression for the user U according to the determination content of the expression determination unit 115. The expression unit 140 includes an audio output unit 141 and a movable unit 142.

音声出力部141は、スピーカおよび音声出力インタフェースで構成され、表現決定部115により生成された音声データを音声に変換して外部に出力する。   The audio output unit 141 includes a speaker and an audio output interface, converts the audio data generated by the expression determination unit 115 into audio, and outputs the audio to the outside.

可動部142は、教師ロボット100の部分的な部位であり、モータ等の駆動部材の駆動により変位する。教師ロボット100は、表現決定部115の決定内容に応じて可動部142が変位することにより、例えば、手足を動かす動作や頭を上下左右に振る動作やまぶたの開閉動作などを行い、擬似的な感情表現をする。   The movable part 142 is a partial part of the teacher robot 100 and is displaced by driving of a driving member such as a motor. When the movable unit 142 is displaced according to the determination content of the expression determination unit 115, the teacher robot 100 performs, for example, an operation of moving the limbs, an operation of swinging the head up and down, left and right, and an eyelid opening and closing operation. Express emotions.

通信部150は、無線通信モジュールおよびアンテナにより構成され、生徒ロボット200および通信端末300とデータ通信を行う。通信部150は、例えば、生徒ロボット200に出力音声や実行動作に関する指示データを送信する。また、通信部150は、例えば、通信端末300からユーザUによる操作指示(教師ロボット100の擬似性格の選択操作など)や情報入力(質問に対する回答入力など)を受け付ける。   The communication unit 150 includes a wireless communication module and an antenna, and performs data communication with the student robot 200 and the communication terminal 300. For example, the communication unit 150 transmits output data and instruction data related to the execution operation to the student robot 200. In addition, the communication unit 150 receives, for example, an operation instruction (such as a selection operation of the pseudo personality of the teacher robot 100) or information input (such as an answer input to a question) from the communication terminal 300.

生徒ロボット200は、ユーザUと共に教師ロボット100から英会話の指導を受ける生徒役を担うロボットである。生徒ロボット200は、教師ロボット100と同様、外観的には人体を模した立体的な形状を有する。また、生徒ロボット200は、教師ロボット100と同様の擬似性格および擬似感情を有し、ユーザUの生体情報や学習状況によって変化する擬似感情に応じてユーザUの学習意欲などを向上させるための学習支援を実施する。   The student robot 200 is a robot that plays a role of student who receives English conversation instruction from the teacher robot 100 together with the user U. Similar to the teacher robot 100, the student robot 200 has a three-dimensional shape imitating a human body. In addition, the student robot 200 has the same pseudo personality and emotion as the teacher robot 100, and learning for improving the user's U willingness to learn according to the pseudo emotion that changes according to the biometric information and learning status of the user U. Provide support.

生徒ロボット200は、機能的には、図2(B)に示すように、制御部210、生体情報取得部220、記憶部230,表現部240、通信部250を備える。   The student robot 200 functionally includes a control unit 210, a biological information acquisition unit 220, a storage unit 230, an expression unit 240, and a communication unit 250, as shown in FIG.

制御部210は、生徒ロボット200全体の動作を制御する。制御部210は、CPU、ROM、RAMを有するマイクロコンピュータにより構成される。制御部210は、CPUがROMに記憶された動作プログラムを読み出してRAM上で実行することにより、生徒ロボット200の各部を制御する。   The control unit 210 controls the overall operation of the student robot 200. The control unit 210 is configured by a microcomputer having a CPU, a ROM, and a RAM. The control unit 210 controls each unit of the student robot 200 when the CPU reads out an operation program stored in the ROM and executes it on the RAM.

制御部210は、生体情報解析部211、学習状況判定部212、擬似感情決定部213、表現決定部215、を有する。これらの部位は、教師ロボット100が有する生体情報解析部111、学習状況判定部112、擬似感情決定部113、表現決定部115と概ね同様に構成される。   The control unit 210 includes a biological information analysis unit 211, a learning state determination unit 212, a pseudo emotion determination unit 213, and an expression determination unit 215. These parts are configured in substantially the same manner as the biological information analysis unit 111, the learning status determination unit 112, the pseudo emotion determination unit 113, and the expression determination unit 115 of the teacher robot 100.

生体情報解析部211は、生体情報取得部220から取得した生体情報を時系列に解析し、ユーザUの生体状態の変化などを抽出してユーザUの状態を特定する。   The biological information analysis unit 211 analyzes the biological information acquired from the biological information acquisition unit 220 in time series, extracts changes in the biological state of the user U, etc., and identifies the state of the user U.

学習状況判定部212は、ユーザUの学習状況を判定する。具体的には、学習状況判定部212は、質問に対する回答の正誤の判定や回答速度の測定などを行い、正答率や進捗状況など各種要素を勘案してユーザUの学習成績を評価する。   The learning status determination unit 212 determines the learning status of the user U. Specifically, the learning status determination unit 212 determines whether the answer to the question is correct, measures the response speed, and the like, and evaluates the learning result of the user U in consideration of various factors such as the correct answer rate and the progress status.

擬似感情決定部213は、生徒ロボット200の擬似感情を決定する。擬似感情決定部213は、例えば、生徒ロボット200の学習支援の開始時には、後述する記憶部230に記憶された生徒用学習履歴テーブルを参照して擬似感情を決定する。また、擬似感情決定部213は、例えば、学習支援の実行中には、後述する記憶部230に記憶された生徒用学習関連事象テーブルおよび生徒用生体関連事象テーブルを参照して新たな擬似感情を決定する。   The pseudo emotion determination unit 213 determines the pseudo emotion of the student robot 200. For example, when starting the learning support of the student robot 200, the pseudo emotion determination unit 213 determines a pseudo emotion by referring to a student learning history table stored in the storage unit 230, which will be described later. In addition, for example, during execution of learning support, the pseudo emotion determination unit 213 refers to a student learning related event table and a student living body related event table stored in the storage unit 230 described later, and generates a new pseudo emotion. decide.

表現決定部215は、ユーザUの生体状態や学習状況などに応じて、ユーザUに対して生徒ロボット200が実行する感情表現の内容を決定する。表現決定部215は、例えば、後述する記憶部230に記憶された生徒用学習関連事象テーブルや生徒用生体関連事象テーブルを参照して、所定の事象が発生するごとに、対応する表現内容を実行することを決定する。表現決定部215は、決定した表現内容に基づく指示データを表現部240に供給する。   The expression determination unit 215 determines the content of emotion expression executed by the student robot 200 for the user U according to the biological state of the user U, the learning situation, and the like. The expression determination unit 215 refers to, for example, a student learning related event table or a student biometric related event table stored in the storage unit 230 to be described later, and executes a corresponding expression content every time a predetermined event occurs. Decide what to do. The expression determination unit 215 supplies instruction data based on the determined expression content to the expression unit 240.

生体情報取得部220は、ユーザUの状態により変化する生体情報を取得する。生体情報取得部220は、例えば、マイクロフォンと音声入力インタフェースで構成され、ユーザUの音声を音声データに変換して生体情報解析部211に出力する。   The biometric information acquisition unit 220 acquires biometric information that changes depending on the state of the user U. The biological information acquisition unit 220 includes, for example, a microphone and a voice input interface, converts the voice of the user U into voice data, and outputs the voice data to the biological information analysis unit 211.

記憶部230は、制御部210が生徒ロボット200の各部を制御するために必要な種々のデータを記憶する。記憶部230は、例えば、フラシュメモリやHDDなどの不揮発性の記憶装置により構成される。記憶部230は、例えば、通信端末300を介してユーザUによって選択された擬似性格を示すデータを所定の記憶領域に記憶する。   The storage unit 230 stores various data necessary for the control unit 210 to control each unit of the student robot 200. The storage unit 230 is configured by a nonvolatile storage device such as a flash memory or an HDD, for example. The storage unit 230 stores, for example, data indicating the pseudo personality selected by the user U via the communication terminal 300 in a predetermined storage area.

また、記憶部230が記憶するデータには、生徒用学習履歴テーブルと、生徒用学習関連事象テーブルと、生徒用生体関連事象テーブルと、が含まれる。これらの各テーブルは、前述した教師用学習履歴テーブル、教師用学習関連事象テーブル、教師用生体関連事象テーブルと概ね同様に構成される。なお、生徒用学習関連事象テーブルと生徒用生体関連事象テーブルにおける各発生事象に対応する「表現内容」は、生徒や友達としてふさわしい内容であることが望ましい。   The data stored in the storage unit 230 includes a student learning history table, a student learning related event table, and a student biometric related event table. Each of these tables is configured in substantially the same manner as the above-described teacher learning history table, teacher learning related event table, and teacher biometric related event table. It should be noted that the “expression content” corresponding to each occurrence event in the student learning related event table and the student living body related event table is preferably content suitable for students and friends.

図10に示す擬似性格が「快活」のときに参照される生徒用学習関連事象テーブルには、例えば、現在の擬似感情「喜」において、事象「誤答」が検知されたときには、ユーザUにヒントを与えたり元気づける音声を出力するように規定されている。また、現在の擬似感情「怒」において、事象「学習進捗が良い」が検知されたときには、ユーザUをうらやましがる音声を出力するように規定されている。   In the learning related event table for students referred to when the pseudo personality shown in FIG. 10 is “lively”, for example, when an event “wrong answer” is detected in the current pseudo emotion “joy”, the user U is notified. It is stipulated to output a sound that gives hints or encourages them. Further, in the current pseudo emotion “angry”, when an event “learning progress is good” is detected, a voice envying the user U is output.

表現部240は、表現決定部215の決定内容に応じてユーザUに対して擬似的な感情表現を行う。表現部240は、音声出力部241、可動部242を有する。   The expression unit 240 performs pseudo emotion expression for the user U according to the determination content of the expression determination unit 215. The expression unit 240 includes an audio output unit 241 and a movable unit 242.

音声出力部241は、スピーカおよび音声出力インタフェースで構成され、表現決定部215により生成された音声データを音声に変換して外部に出力する。   The audio output unit 241 includes a speaker and an audio output interface. The audio output unit 241 converts the audio data generated by the expression determination unit 215 into audio and outputs the audio to the outside.

可動部242は、生徒ロボット200の部分的な部位であり、モータ等の駆動部材の駆動により変位する。生徒ロボット200は、表現決定部215の決定内容に応じて可動部242が変位することにより、例えば、手足を動かす動作や頭を上下左右に振る動作やまぶたの開閉動作などを行い、擬似的な感情表現をする。   The movable part 242 is a partial part of the student robot 200 and is displaced by driving of a driving member such as a motor. The student robot 200 displaces the movable unit 242 according to the determination content of the expression determining unit 215, and performs, for example, an operation of moving the limbs, an operation of shaking the head up and down, left and right, and an eyelid opening and closing operation. Express emotions.

通信部250は、無線通信モジュールおよびアンテナにより構成され、教師ロボット100および通信端末300とデータ通信を行う。通信部250は、例えば、生徒ロボット200に出力音声や実行動作に関する指示データを送信する。また、通信部250は、例えば、通信端末300からユーザUによる操作指示(生徒ロボット200の擬似性格の選択操作など)や情報入力(質問に対する回答入力など)を受け付ける。   The communication unit 250 includes a wireless communication module and an antenna, and performs data communication with the teacher robot 100 and the communication terminal 300. For example, the communication unit 250 transmits output data and instruction data related to the execution operation to the student robot 200. In addition, the communication unit 250 receives, for example, an operation instruction (such as a selection operation of a pseudo personality of the student robot 200) or information input (such as an answer input to a question) from the communication terminal 300.

通信端末300は、例えば、スマートフォンやタブレット端末で構成され、教師ロボット100や生徒ロボット200と通信する。通信端末300は、例えば、教師ロボット100からの送信データに従って、質問に対する回答用の選択画像の表示、生徒ロボット200からの送信データに従って、質問に対する回答のヒントとなる画像の表示などを行う。また、通信端末300は、例えば、ユーザUによる教師ロボット100および生徒ロボット200の擬似性格の選択入力を受け付け、入力データを各ロボットに送信する。   The communication terminal 300 includes, for example, a smartphone or a tablet terminal, and communicates with the teacher robot 100 and the student robot 200. For example, the communication terminal 300 displays a selection image for answering a question according to transmission data from the teacher robot 100, and displays an image serving as a hint for answering a question according to transmission data from the student robot 200. In addition, the communication terminal 300 receives, for example, a selection input of pseudo characters of the teacher robot 100 and the student robot 200 by the user U, and transmits input data to each robot.

次に、図11(A)に示すフローチャートを参照しながら、教師ロボット100が実行する学習指導処理について説明する。学習指導処理は、ユーザUの学習成績や生体情報に基づいて、ユーザUに対して実施する学習指導内容を適宜決定する処理である。制御部110は、ユーザUの操作により、通信端末300を介して学習開始を指示する操作信号を受信したことに応答して、学習指導処理を開始する。   Next, the learning instruction process executed by the teacher robot 100 will be described with reference to the flowchart shown in FIG. The learning instruction process is a process for appropriately determining the contents of learning instruction to be performed on the user U based on the learning result and biological information of the user U. The control unit 110 starts a learning instruction process in response to receiving an operation signal instructing to start learning via the communication terminal 300 by the operation of the user U.

制御部110は、学習指導処理を開始すると、教師ロボット100の擬似性格を設定する(ステップS101)。制御部110は、ユーザUの操作による選択、あるいは、前回実行時の設定内容に応じて、教師ロボット100の擬似性格を「快活」、「冷静」、「怒りっぽい」、「陰気」のうちのいずれかに決定する。   When starting the learning instruction process, the controller 110 sets the pseudo personality of the teacher robot 100 (step S101). The control unit 110 selects the pseudo-character of the teacher robot 100 among “quiet”, “cool”, “angry”, and “disgust” according to the selection by the operation of the user U or the setting content at the previous execution. Decide on either.

次に、制御部110(擬似感情決定部113)は、教師ロボット100の擬似感情を決定する(ステップS102)。制御部110は、例えば、記憶部130に記憶された学習履歴テーブルを参照し、ユーザUの学習頻度や学習成績に応じて、教師ロボット100の擬似感情を決定する。例えば、前回利用時から数日が経過しており学習頻度が低い場合には、制御部110は、教師ロボット100の擬似感情を「哀」に決定する。また、前回利用時の学習成績が良い場合には、制御部110は、擬似感情を「喜」に決定する。なお、制御部110は、ステップS101において決定された擬似性格を加味して、教師ロボット100の擬似感情を決定してもよい。例えば、擬似性格が「怒りっぽい」に決定された場合には、前回利用時の学習成績が良い場合であっても、擬似感情を「楽」に決定するようにしてもよい。   Next, the control unit 110 (pseudo emotion determination unit 113) determines the pseudo emotion of the teacher robot 100 (step S102). For example, the control unit 110 refers to the learning history table stored in the storage unit 130 and determines the pseudo emotion of the teacher robot 100 according to the learning frequency and learning result of the user U. For example, when several days have passed since the previous use and the learning frequency is low, the control unit 110 determines the pseudo emotion of the teacher robot 100 as “sorrow”. In addition, when the learning result at the previous use is good, the control unit 110 determines the pseudo emotion as “joy”. Note that the control unit 110 may determine the pseudo emotion of the teacher robot 100 in consideration of the pseudo personality determined in step S101. For example, if the pseudo personality is determined to be “angry”, the pseudo emotion may be determined to be “easy” even if the learning result at the previous use is good.

続いて、制御部110(学習指導内容決定部114)は、今回実施する学習カリキュラムを決定する(ステップS103)。制御部110は、記憶部130に記憶された生徒用学習履歴テーブルを参照し、ユーザUの学習頻度や前回までの学習成績に応じて、今回実施する学習カリキュラムを決定する。例えば、学習頻度が低い場合には、制御部110は、ユーザUの学習に対する意欲を向上させるために、比較的親しみやすい科目「チャンツ」を、他の科目よりも長時間実施したり、他の科目に先行して実施するように、学習カリキュラムを決定する。   Subsequently, the control unit 110 (learning instruction content determination unit 114) determines a learning curriculum to be performed this time (step S103). The control unit 110 refers to the student learning history table stored in the storage unit 130 and determines the learning curriculum to be implemented this time according to the learning frequency of the user U and the learning results up to the previous time. For example, when the learning frequency is low, the control unit 110 performs a relatively familiar course “Chants” for a longer time than other courses in order to improve the user U's willingness to learn, Determine the learning curriculum to be implemented prior to the subject.

ステップS103の処理を実行した後、制御部110は、決定された学習カリキュラムに従って学習指導を開始する(ステップS104)。制御部110は、科目ごとに学習内容に応じた音声の出力や動作を実行するように表現部140を制御する。   After executing the process of step S103, the control unit 110 starts learning guidance according to the determined learning curriculum (step S104). The control unit 110 controls the expression unit 140 so as to execute voice output and operation corresponding to the learning content for each subject.

続いて、制御部110は、学習指導を終了するか否かを判定する(ステップS105)。制御部110は、ユーザUの操作により、学習終了を指示する操作信号を受信したか否か、あるいは、今回の学習カリキュラムの全科目が実施済みであるか否かに応じて学習指導を終了するか否かを判定する。学習指導を終了すると判定した場合(ステップS105;YES)、制御部110は、学習指導処理を終了する。   Subsequently, the control unit 110 determines whether or not to end the learning instruction (step S105). The control unit 110 ends the learning instruction depending on whether an operation signal instructing the end of learning is received by the operation of the user U or whether all subjects of the current learning curriculum have been implemented. It is determined whether or not. When it determines with complete | finishing learning instruction | indication (step S105; YES), the control part 110 complete | finishes learning instruction processing.

学習指導を継続すると判定した場合(ステップS105;NO)、制御部110は、学習関連事象または生体関連事象が発生したか否かを判定する(ステップS106)。制御部110は、生体情報解析部111の解析結果および学習状況判定部112の判定結果に基づき、記憶部130に記憶された教師用学習関連事象テーブルおよび教師用生体関連事象テーブルに規定されたいずれかの事象が発生したか否かを判定する。学習関連事象または生体関連事象が発生していないと判定した場合(ステップS106;NO)、制御部110は、処理をステップS104に戻し、学習指導を継続する。   When it determines with continuing learning instruction | indication (step S105; NO), the control part 110 determines whether the learning related event or the biological body related event generate | occur | produced (step S106). Based on the analysis result of the biometric information analysis unit 111 and the determination result of the learning status determination unit 112, the control unit 110 is defined in any of the teacher learning related event table and the teacher biometric related event table stored in the storage unit 130. It is determined whether or not such an event has occurred. When it determines with the learning related event or the biological body related event not having generate | occur | produced (step S106; NO), the control part 110 returns a process to step S104, and continues learning instruction | indication.

一方、学習関連事象または生体関連事象が発生したと判定した場合(ステップS106;YES)、制御部110は、発生した事象に対応する表現内容を実行する(ステップS107)。制御部110(表現決定部115)は、教師用学習関連事象テーブルや教師用生体関連事象テーブルを参照し、発生した事象に対応する表現内容に応じた音声の出力や動作を実行するように表現部140を制御する。   On the other hand, when it is determined that a learning-related event or a biological-related event has occurred (step S106; YES), the control unit 110 executes the expression content corresponding to the generated event (step S107). The control unit 110 (the expression determination unit 115) refers to the teacher learning related event table and the teacher biometric event table, and performs an output and an operation according to the expression content corresponding to the generated event. The unit 140 is controlled.

続いて、制御部110(擬似感情決定部113)は、擬似感情の感情ポイントの累積値が閾値を超えたか否かを判定する(ステップS108)。いずれの擬似感情の感情ポイントの累積値も閾値を超えていないと判定した場合(ステップS108;NO)、制御部110は、処理をステップS104に戻し、学習指導を継続する。   Subsequently, the control unit 110 (pseudo emotion determination unit 113) determines whether or not the cumulative value of the emotion points of the pseudo emotion has exceeded a threshold value (step S108). If it is determined that the cumulative value of the emotion points of any pseudo emotion does not exceed the threshold value (step S108; NO), the control unit 110 returns the process to step S104 and continues the learning instruction.

一方、いずれかの擬似感情の感情ポイントの累積値が閾値を超えたと判定した場合(ステップS108;YES)、制御部110(擬似感情決定部113)は、現在の擬似感情から閾値を超えた擬似感情に遷移させる(ステップS109)。   On the other hand, when it is determined that the cumulative value of the emotion points of any of the pseudo emotions has exceeded the threshold (step S108; YES), the control unit 110 (pseudo emotion determination unit 113) performs a simulation that exceeds the threshold from the current pseudo emotion. Transition to emotion (step S109).

また、制御部110(学習指導内容決定部114)は、擬似感情に遷移したことに伴って学習指導内容を変更する(ステップS110)。制御部110(学習指導内容決定部114)は、記憶部130に記憶された学習指導内容変更テーブルを参照し、遷移前後の擬似感情に対応する学習指導内容に変更することを決定する。   Moreover, the control part 110 (learning instruction | indication content determination part 114) changes learning instruction | indication content with having changed to the pseudo emotion (step S110). The control unit 110 (learning instruction content determination unit 114) refers to the learning instruction content change table stored in the storage unit 130 and determines to change to learning instruction contents corresponding to the pseudo emotion before and after the transition.

ステップS110の処理を実行した後、制御部110は、処理をステップS104に戻し、学習カリキュラムに含まれる科目の順番や進行度合いを変更して学習指導を継続する。   After performing the process of step S110, the control part 110 returns a process to step S104, changes the order and progress degree of the subject contained in a learning curriculum, and continues learning instruction | indication.

続いて、図11(B)に示すフローチャートを参照しながら、生徒ロボット200が実行する学習支援処理について説明する。学習支援処理は、ユーザUの学習成績や生体情報に基づいて、ユーザUに対して実施する学習支援内容を適宜決定する処理である。ここで、学習支援処理は、図11(A)に示す学習指導処理と概ね同様の処理が実行されるため、詳細な説明は省略する。制御部210は、ユーザUの操作により、通信端末300を介して学習開始を指示する操作信号を受信したことに応答して、学習支援処理を開始する。   Next, the learning support process executed by the student robot 200 will be described with reference to the flowchart shown in FIG. The learning support process is a process of appropriately determining the content of learning support to be performed on the user U based on the learning result and biological information of the user U. Here, the learning support process is executed in the same manner as the learning instruction process shown in FIG. The control unit 210 starts the learning support process in response to receiving an operation signal instructing to start learning via the communication terminal 300 by the operation of the user U.

制御部210は、学習支援処理を開始すると、生徒ロボット200の擬似性格を設定する(ステップS201)。制御部210は、ユーザUの操作による選択、あるいは、前回実行時の設定内容に応じて、生徒ロボット200の擬似性格を決定する。   When starting the learning support process, the control unit 210 sets the pseudo personality of the student robot 200 (step S201). The control unit 210 determines the pseudo-character of the student robot 200 according to the selection by the operation of the user U or the setting content at the previous execution.

次に、制御部210(擬似感情決定部213)は、生徒ロボット200の擬似感情を決定する(ステップS202)。制御部210は、例えば、記憶部230に記憶された学習履歴テーブルを参照し、ユーザUの学習頻度や学習成績に応じて、生徒ロボット200の擬似感情を決定する。   Next, the control unit 210 (pseudo emotion determination unit 213) determines the pseudo emotion of the student robot 200 (step S202). For example, the control unit 210 refers to the learning history table stored in the storage unit 230 and determines the pseudo emotion of the student robot 200 according to the learning frequency and learning result of the user U.

続いて、制御部210は、今回実施する学習カリキュラムを取得する(ステップS203)。制御部210は、教師ロボット100の学習指導内容決定部114が決定した今回実施する学習カリキュラムを通信部250を介して取得する。   Subsequently, the control unit 210 acquires a learning curriculum to be executed this time (step S203). The control unit 210 acquires the learning curriculum to be executed this time determined by the learning instruction content determination unit 114 of the teacher robot 100 via the communication unit 250.

ステップS203の処理を実行した後、制御部210は、取得した学習カリキュラムに従って学習支援を開始する(ステップS204)。制御部210は、科目ごとに学習内容に応じた音声の出力や動作を実行するように表現部240を制御する。なお、制御部210は、教師ロボット100の学習指導内容決定部114が学習カリキュラムに含まれる科目の順番や進行度合いを変更したことに伴って、その変更内容を教師ロボット100から受信した際には、変更内容に応じた音声の出力や動作を実行するように表現部240を制御する。   After executing the process of step S203, the control unit 210 starts learning support according to the acquired learning curriculum (step S204). The control unit 210 controls the expression unit 240 to execute voice output and operation according to the learning content for each subject. When the learning instruction content determination unit 114 of the teacher robot 100 changes the order and progress of the subjects included in the learning curriculum, the control unit 210 receives the changed contents from the teacher robot 100. Then, the expression unit 240 is controlled so as to execute a sound output or operation according to the changed content.

続いて、制御部210は、学習支援を終了するか否かを判定する(ステップS205)。制御部210は、ユーザUの操作により、学習終了を指示する操作信号を受信したか否か、あるいは、今回の学習カリキュラムの全科目が実施済みであるか否かに応じて学習支援を終了するか否かを判定する。学習支援を終了すると判定した場合(ステップS205;YES)、制御部210は、学習支援処理を終了する。   Subsequently, the control unit 210 determines whether or not to end the learning support (step S205). The control unit 210 ends the learning support depending on whether an operation signal instructing the end of learning is received by the operation of the user U or whether all subjects of the current learning curriculum have been implemented. It is determined whether or not. When it determines with complete | finishing learning assistance (step S205; YES), the control part 210 complete | finishes a learning assistance process.

学習支援を継続すると判定した場合(ステップS205;NO)、制御部210は、学習関連事象または生体関連事象が発生したか否かを判定する(ステップS206)。制御部210は、生体情報解析部211の解析結果および学習状況判定部212の判定結果に基づき、記憶部230に記憶された生徒用学習関連事象テーブルおよび生徒用生体関連事象テーブルに規定されたいずれかの事象が発生したか否かを判定する。学習関連事象または生体関連事象が発生していないと判定した場合(ステップS206;NO)、制御部210は、処理をステップS204に戻し、学習支援を継続する。   When it determines with continuing learning support (step S205; NO), the control part 210 determines whether the learning related event or the biological body related event generate | occur | produced (step S206). Based on the analysis result of the biometric information analysis unit 211 and the determination result of the learning status determination unit 212, the control unit 210 determines any of the student-related event table for student and the biometric event table for student stored in the storage unit 230. It is determined whether or not such an event has occurred. When it determines with the learning related event or the biological body related event not having generate | occur | produced (step S206; NO), the control part 210 returns a process to step S204, and continues learning support.

一方、学習関連事象または生体関連事象が発生したと判定した場合(ステップS206;YES)、制御部210は、発生した事象に対応する表現内容を実行する(ステップS207)。制御部210(表現決定部215)は、生徒用学習関連事象テーブルや生徒用生体関連事象テーブルを参照し、発生した事象に対応する表現内容に応じた音声の出力や動作を実行するように表現部240を制御する。   On the other hand, when it is determined that a learning related event or a living body related event has occurred (step S206; YES), the control unit 210 executes the expression content corresponding to the generated event (step S207). The control unit 210 (expression determination unit 215) refers to the student learning-related event table and the student bio-related event table, and performs expression so as to execute sound output and operation corresponding to the expression content corresponding to the event that has occurred. The unit 240 is controlled.

続いて、制御部210(擬似感情決定部213)は、擬似感情の感情ポイントの累積値が閾値を超えたか否かを判定する(ステップS208)。いずれの擬似感情の感情ポイントの累積値も閾値を超えていないと判定した場合(ステップS208;NO)、制御部210は、処理をステップS204に戻し、学習指導を継続する。   Subsequently, the control unit 210 (pseudo emotion determination unit 213) determines whether or not the cumulative value of the emotion points of the pseudo emotion has exceeded a threshold value (step S208). If it is determined that the cumulative value of the emotion points of any pseudo emotion does not exceed the threshold (step S208; NO), the control unit 210 returns the process to step S204 and continues the learning instruction.

一方、いずれかの擬似感情の感情ポイントの累積値が閾値を超えたと判定した場合(ステップS208;YES)、制御部210(擬似感情決定部213)は、現在の擬似感情から閾値を超えた擬似感情に遷移させ(ステップS209)、処理をステップS204に戻し、学習支援を継続する。   On the other hand, when it is determined that the cumulative value of the emotion points of any of the pseudo emotions exceeds the threshold value (step S208; YES), the control unit 210 (pseudo emotion determination unit 213) performs the pseudo test that exceeds the threshold value from the current pseudo emotion. It changes to emotion (step S209), returns a process to step S204, and continues learning support.

このように、ユーザUにより学習開始が指示されたことに応答して、教師ロボット100は学習指導処理を、生徒ロボット200は学習支援処理をそれぞれ実行し、ユーザUに対して教師ロボット100と生徒ロボット200とが協働して学習支援を実施する。   In this way, in response to the instruction to start learning by the user U, the teacher robot 100 executes a learning instruction process and the student robot 200 executes a learning support process. The robot 200 cooperates to implement learning support.

以上で述べたように、本実施の形態によれば、教師ロボット100および生徒ロボット200は、擬似性格が設定され、設定された擬似性格に応じて異なる態様で遷移する擬似感情を有している。また、各ロボットは、現在の擬似感情に応じてユーザUに対して音声や動作で感情表現をしながら学習指導を実施する。このように、教師ロボット100および生徒ロボット200を備える学習支援システム1はあたかも人格を備える実物の人間のようにユーザUに接することができ、多様性のある学習の支援をすることができる。また、学習支援システム1は、ユーザUの学力を向上させることに加えて、対人関係を築く能力を向上させることが可能である。   As described above, according to the present embodiment, the teacher robot 100 and the student robot 200 have pseudo-characters that are set with pseudo-characters and transition in different manners according to the set pseudo-characters. . In addition, each robot performs learning guidance while expressing emotions by voice or action to the user U according to the current pseudo emotion. As described above, the learning support system 1 including the teacher robot 100 and the student robot 200 can contact the user U as if it were a real person with a personality, and can support diverse learning. In addition to improving the academic ability of the user U, the learning support system 1 can improve the ability to build an interpersonal relationship.

なお、本発明は、上記の実施の形態に限定されず、種々の変形および応用が可能である。上記の実施の形態は、次のように変形されてもよい。   In addition, this invention is not limited to said embodiment, A various deformation | transformation and application are possible. The above embodiment may be modified as follows.

例えば、学習支援システム1において、教師ロボット100が備える機能の全部または一部を備える学習支援装置を教師ロボット100に代えて用いてもよい。学習支援装置は、少なくともコンピュータを備える電子機器であればよく、任意である。また、生徒ロボット200についても同様である。   For example, in the learning support system 1, a learning support device that includes all or part of the functions of the teacher robot 100 may be used instead of the teacher robot 100. The learning support device may be any electronic device including at least a computer, and is arbitrary. The same applies to the student robot 200.

例えば、擬似性格および擬似感情の分類は、上記の実施の形態に限らず任意である。擬似性格および擬似感情をさらに細かく分類し、これらの状態に対応する学習指導内容を設定してもよい。また、擬似感情を遷移させる手法も上記の実施の形態に限らず任意である。なお、擬似性格または擬似感情のいずれかを省略して、教師ロボット100の表現パターンを単純化してもよい。   For example, the classification of pseudo personality and pseudo emotion is not limited to the above embodiment, but is arbitrary. The pseudo personality and the pseudo emotion may be further classified and learning instruction contents corresponding to these states may be set. Moreover, the method of changing the pseudo emotion is not limited to the above embodiment, but is arbitrary. Note that either the pseudo personality or the pseudo emotion may be omitted, and the expression pattern of the teacher robot 100 may be simplified.

例えば、生体情報取得部120は、外部に設置されたセンサから生体情報を取得するように構成してもよい。生体情報取得部120は、例えば、顔(表情)検出センサ、GPS(Global Positioning System)センサ、加速度センサ、血圧センサ、脈拍センサ、脳波センサ、発汗センサ等の各種センサの計測値に基づいて、ユーザUの状態を認識し、ユーザUに対する表現内容や学習指導内容を決定するようにしてもよい。さらに、ユーザUの周辺環境(例えば、照明状態や騒音レベル)を考慮して、ユーザUに対する表現内容や学習指導内容を決定するようにしてもよい。   For example, the biological information acquisition unit 120 may be configured to acquire biological information from a sensor installed outside. The biometric information acquisition unit 120 is a user based on measurement values of various sensors such as a face (expression) detection sensor, a GPS (Global Positioning System) sensor, an acceleration sensor, a blood pressure sensor, a pulse sensor, an electroencephalogram sensor, and a sweat sensor, for example. The state of U may be recognized, and the expression content and learning guidance content for the user U may be determined. Furthermore, the expression content and learning guidance content for the user U may be determined in consideration of the surrounding environment of the user U (for example, lighting state and noise level).

上記の実施の形態において、教師ロボット100と生徒ロボット200は、概ね同様の機能を備えるものとして説明したが、生徒ロボット200が備える機能を簡略化してもよい。例えば、教師ロボット100が、生体情報解析部111が解析した結果を通信部150を介して生徒ロボット200に提供することにより、生徒ロボット200には生体情報取得部220や生体情報解析部211を搭載しないように構成してもよい。また、教師ロボット100が、擬似感情決定部113において生徒ロボット200の擬似感情を決定し、また、表現決定部115において生徒ロボット200のユーザUに対する表現を決定し、これらの決定内容を生徒ロボット200に指示することにより、生徒ロボット200には擬似感情決定部213や表現決定部215などを搭載しないように構成してもよい。   In the above embodiment, the teacher robot 100 and the student robot 200 have been described as having substantially the same functions, but the functions provided in the student robot 200 may be simplified. For example, the teacher robot 100 provides the student robot 200 with the result analyzed by the biological information analysis unit 111 via the communication unit 150, so that the student robot 200 includes the biological information acquisition unit 220 and the biological information analysis unit 211. You may comprise so that it may not. In addition, the teacher robot 100 determines the pseudo emotion of the student robot 200 in the pseudo emotion determination unit 113, and determines the expression of the student robot 200 for the user U in the expression determination unit 115. The student robot 200 may be configured not to include the pseudo emotion determination unit 213, the expression determination unit 215, or the like.

上記の実施の形態において、学習指導内容変更テーブルは、遷移前後の擬似感情の組合せに対応付けて変更する学習指導内容を規定した。しかし、遷移直前(感情ポイントの累計値が所定の閾値を超える直前)に発生した事象、あるいは、感情ポイントの累計値が所定の閾値を超えるまでに最も多く発生した事象に応じて異なる学習指導内容を規定してもよい。   In the above embodiment, the learning guidance content change table defines the learning guidance content to be changed in association with the combination of pseudo emotions before and after the transition. However, depending on the event that occurred immediately before the transition (immediately before the cumulative value of emotion points exceeds the predetermined threshold) or the event that occurred most frequently before the cumulative value of emotion points exceeded the predetermined threshold, May be defined.

本発明は、本発明の広義の精神と範囲を逸脱することなく、様々な実施の形態及び変形が可能とされるものである。また、上述した実施の形態は、この発明を説明するためのものであり、本発明の範囲を限定するものではない。すなわち、本発明の範囲は、実施の形態ではなく、特許請求の範囲によって示される。そして、特許請求の範囲内及びそれと同等の発明の意義の範囲内で施される様々な変形が、この発明の範囲内とみなされる。   Various embodiments and modifications can be made to the present invention without departing from the broad spirit and scope of the present invention. The above-described embodiments are for explaining the present invention and do not limit the scope of the present invention. In other words, the scope of the present invention is shown not by the embodiments but by the claims. Various modifications within the scope of the claims and within the scope of the equivalent invention are considered to be within the scope of the present invention.

以下に、本願出願の当初の特許請求の範囲に記載された発明を付記する。   Hereinafter, the invention described in the scope of claims of the present application will be appended.

(付記1)
学習者の状態によって変化する生体情報を取得する生体情報取得手段と、
前記生体情報取得手段が取得した前記生体情報に基づいて、前記学習者に対して実施する学習支援の内容を決定する学習指導内容決定手段と、を備える、
学習支援装置。
(Appendix 1)
Biometric information acquisition means for acquiring biometric information that changes depending on the state of the learner;
Learning instruction content determination means for determining the content of learning support to be performed for the learner based on the biological information acquired by the biological information acquisition means,
Learning support device.

(付記2)
前記生体情報取得手段が取得した前記生体情報に基づいて、前記学習者に対する表現を決定する表現決定手段、をさらに備える、
付記1に記載の学習支援装置。
(Appendix 2)
Expression determining means for determining an expression for the learner based on the biological information acquired by the biological information acquiring means;
The learning support apparatus according to attachment 1.

(付記3)
前記学習者の学習状況を判定する学習状況判定手段、をさらに備え、
前記表現決定手段は、前記生体情報と前記学習状況判定手段による判定結果に基づいて、前記学習者に対する表現を決定し、
前記学習指導内容決定手段は、前記生体情報と前記学習状況判定手段による判定結果とに基づいて、前記学習者に対して実施する学習支援の内容を決定する、
付記2に記載の学習支援装置。
(Appendix 3)
Learning status determination means for determining the learning status of the learner,
The expression determining means determines an expression for the learner based on the biological information and a determination result by the learning status determining means,
The learning instruction content determination means determines the content of learning support to be performed for the learner based on the biological information and the determination result by the learning status determination means.
The learning support apparatus according to attachment 2.

(付記4)
複数の擬似性格から前記学習者により選択された擬似性格に基づいて、複数の擬似感情から1つの擬似感情を決定する擬似感情決定手段、をさらに備え、
前記表現決定手段は、前記生体情報と前記判定結果と前記擬似感情決定手段により決定された擬似感情とに基づいて、前記学習者に対する表現を決定し、
前記学習指導内容決定手段は、前記生体情報と前記判定結果と前記擬似感情決定手段により決定された擬似感情とに基づいて、前記学習者に対して実施する学習支援の内容を決定する、
付記3に記載の学習支援装置。
(Appendix 4)
Pseudo emotion determination means for determining one pseudo emotion from a plurality of pseudo emotions based on the pseudo personality selected by the learner from a plurality of pseudo characters;
The expression determining means determines an expression for the learner based on the biological information, the determination result, and the pseudo emotion determined by the pseudo emotion determining means,
The learning instruction content determination unit determines the content of learning support to be performed for the learner based on the biological information, the determination result, and the pseudo emotion determined by the pseudo emotion determination unit.
The learning support device according to attachment 3.

(付記5)
前記複数の擬似感情の各々には、前記複数の擬似性格の各々に対応する異なる重み付けがなされている、
付記4に記載の学習支援装置。
(Appendix 5)
Each of the plurality of pseudo emotions has a different weight corresponding to each of the plurality of pseudo personalities.
The learning support apparatus according to appendix 4.

(付記6)
付記1から5のいずれか1つに記載の学習支援装置を搭載した教師役のロボット。
(Appendix 6)
A teacher role robot equipped with the learning support device according to any one of appendices 1 to 5.

(付記7)
付記6に記載の教師役のロボットと、
前記学習者と共に前記教師役のロボットから支援を受ける生徒役のロボットと、を備える、
学習支援システム。
(Appendix 7)
A robot as a teacher as described in appendix 6,
A student role robot that receives support from the teacher role robot together with the learner,
Learning support system.

(付記8)
前記生徒役のロボットは、
前記学習者の状態によって変化する生体情報を取得する第2の生体情報取得手段と、
前記第2の生体情報取得手段が取得した前記生体情報に基づいて、前記学習者に対する表現を決定する第2の表現決定手段と、を備える、
付記7に記載の学習支援システム。
(Appendix 8)
The student role robot is
Second biological information acquisition means for acquiring biological information that changes according to the state of the learner;
Second expression determination means for determining an expression for the learner based on the biological information acquired by the second biological information acquisition means,
The learning support system according to appendix 7.

(付記9)
前記生徒役のロボットは、前記教師役のロボットから、前記学習者の状態によって変化する生体情報を受信する、
付記8に記載の学習支援システム。
(Appendix 9)
The student role robot receives biometric information that changes depending on the state of the learner from the teacher role robot.
The learning support system according to attachment 8.

(付記10)
前記生徒役のロボットは、前記教師役のロボットから、前記学習者に対する表現を示す表現決定情報を受信する、付記7に記載の学習支援システム。
(Appendix 10)
The learning support system according to appendix 7, wherein the student role robot receives expression determination information indicating an expression for the learner from the teacher role robot.

(付記11)
学習者の状態によって変化する生体情報を取得する生体情報取得ステップと、
前記生体情報取得ステップで取得した前記生体情報に基づいて、前記学習者に対して実施する学習支援の内容を決定する学習指導内容決定ステップと、を備える、
学習支援方法。
(Appendix 11)
A biometric information acquisition step of acquiring biometric information that changes according to the state of the learner;
Based on the biometric information acquired in the biometric information acquisition step, a learning instruction content determination step for determining the content of learning support to be performed for the learner,
Learning support method.

(付記12)
コンピュータに、
学習者の状態によって変化する生体情報を取得する生体情報取得処理と、
前記生体情報取得処理で取得した前記生体情報に基づいて、前記学習者に対して実施する学習支援の内容を決定する学習指導内容決定処理と、を実行させる、
、プログラム。
(Appendix 12)
On the computer,
Biometric information acquisition processing for acquiring biometric information that changes depending on the state of the learner;
Based on the biometric information acquired in the biometric information acquisition process, a learning instruction content determination process for determining the content of learning support to be performed for the learner is executed.
,program.

1…学習支援システム、100…教師ロボット、110…制御部、111…生体情報解析部、112…学習状況判定部、113…擬似感情決定部、114…学習指導内容決定部、115…表現決定部、120…生体情報取得部、130…記憶部、140…表現部、141…音声出力部、142…可動部、150…通信部、200…生徒ロボット、210…制御部、211…生体情報解析部、212…学習状況判定部、213…擬似感情決定部、215…表現決定部、220…生体情報取得部、230…記憶部、240…表現部、241…音声出力部、242…可動部、250…通信部、300…通信端末、U…ユーザ(学習者) DESCRIPTION OF SYMBOLS 1 ... Learning support system, 100 ... Teacher robot, 110 ... Control part, 111 ... Biometric information analysis part, 112 ... Learning situation determination part, 113 ... Pseudo emotion determination part, 114 ... Learning guidance content determination part, 115 ... Expression determination part DESCRIPTION OF SYMBOLS 120 ... Biometric information acquisition part 130 ... Memory | storage part 140 ... Expression part 141 ... Audio | voice output part 142 ... Movable part 150 ... Communication part 200 ... Student robot 210 ... Control part 211 ... Biometric information analysis part 212, learning state determination unit, 213 ... pseudo emotion determination unit, 215 ... expression determination unit, 220 ... biological information acquisition unit, 230 ... storage unit, 240 ... expression unit, 241 ... voice output unit, 242 ... movable unit, 250 ... communication unit, 300 ... communication terminal, U ... user (learner)

Claims (12)

学習者の状態によって変化する生体情報を取得する生体情報取得手段と、
前記生体情報取得手段が取得した前記生体情報に基づいて、前記学習者に対して実施する学習支援の内容を決定する学習指導内容決定手段と、を備える、
学習支援装置。
Biometric information acquisition means for acquiring biometric information that changes depending on the state of the learner;
Learning instruction content determination means for determining the content of learning support to be performed for the learner based on the biological information acquired by the biological information acquisition means,
Learning support device.
前記生体情報取得手段が取得した前記生体情報に基づいて、前記学習者に対する表現を決定する表現決定手段、をさらに備える、
請求項1に記載の学習支援装置。
Expression determining means for determining an expression for the learner based on the biological information acquired by the biological information acquiring means;
The learning support apparatus according to claim 1.
前記学習者の学習状況を判定する学習状況判定手段、をさらに備え、
前記表現決定手段は、前記生体情報と前記学習状況判定手段による判定結果に基づいて、前記学習者に対する表現を決定し、
前記学習指導内容決定手段は、前記生体情報と前記学習状況判定手段による判定結果とに基づいて、前記学習者に対して実施する学習支援の内容を決定する、
請求項2に記載の学習支援装置。
Learning status determination means for determining the learning status of the learner,
The expression determining means determines an expression for the learner based on the biological information and a determination result by the learning status determining means,
The learning instruction content determination means determines the content of learning support to be performed for the learner based on the biological information and the determination result by the learning status determination means.
The learning support apparatus according to claim 2.
複数の擬似性格から前記学習者により選択された擬似性格に基づいて、複数の擬似感情から1つの擬似感情を決定する擬似感情決定手段、をさらに備え、
前記表現決定手段は、前記生体情報と前記判定結果と前記擬似感情決定手段により決定された擬似感情とに基づいて、前記学習者に対する表現を決定し、
前記学習指導内容決定手段は、前記生体情報と前記判定結果と前記擬似感情決定手段により決定された擬似感情とに基づいて、前記学習者に対して実施する学習支援の内容を決定する、
請求項3に記載の学習支援装置。
Pseudo emotion determination means for determining one pseudo emotion from a plurality of pseudo emotions based on the pseudo personality selected by the learner from a plurality of pseudo characters,
The expression determining means determines an expression for the learner based on the biological information, the determination result, and the pseudo emotion determined by the pseudo emotion determining means,
The learning instruction content determination unit determines the content of learning support to be performed for the learner based on the biological information, the determination result, and the pseudo emotion determined by the pseudo emotion determination unit.
The learning support device according to claim 3.
前記複数の擬似感情の各々には、前記複数の擬似性格の各々に対応する異なる重み付けがなされている、
請求項4に記載の学習支援装置。
Each of the plurality of pseudo emotions has a different weight corresponding to each of the plurality of pseudo personalities.
The learning support device according to claim 4.
請求項1から5のいずれか1項に記載の学習支援装置を搭載した教師役のロボット。   A robot serving as a teacher equipped with the learning support device according to any one of claims 1 to 5. 請求項6に記載の教師役のロボットと、
前記学習者と共に前記教師役のロボットから支援を受ける生徒役のロボットと、を備える、
学習支援システム。
A robot as a teacher according to claim 6;
A student role robot that receives support from the teacher role robot together with the learner,
Learning support system.
前記生徒役のロボットは、
前記学習者の状態によって変化する生体情報を取得する第2の生体情報取得手段と、
前記第2の生体情報取得手段が取得した前記生体情報に基づいて、前記学習者に対する表現を決定する第2の表現決定手段と、を備える、
請求項7に記載の学習支援システム。
The student role robot is
Second biological information acquisition means for acquiring biological information that changes according to the state of the learner;
Second expression determination means for determining an expression for the learner based on the biological information acquired by the second biological information acquisition means,
The learning support system according to claim 7.
前記生徒役のロボットは、前記教師役のロボットから、前記学習者の状態によって変化する生体情報を受信する、
請求項8に記載の学習支援システム。
The student role robot receives biometric information that changes depending on the state of the learner from the teacher role robot.
The learning support system according to claim 8.
前記生徒役のロボットは、前記教師役のロボットから、前記学習者に対する表現を示す表現決定情報を受信する、請求項7に記載の学習支援システム。   The learning support system according to claim 7, wherein the student role robot receives expression determination information indicating an expression for the learner from the teacher role robot. 学習者の状態によって変化する生体情報を取得する生体情報取得ステップと、
前記生体情報取得ステップで取得した前記生体情報に基づいて、前記学習者に対して実施する学習支援の内容を決定する学習指導内容決定ステップと、を備える、
学習支援方法。
A biometric information acquisition step of acquiring biometric information that changes according to the state of the learner;
Based on the biometric information acquired in the biometric information acquisition step, a learning instruction content determination step for determining the content of learning support to be performed for the learner,
Learning support method.
コンピュータに、
学習者の状態によって変化する生体情報を取得する生体情報取得処理と、
前記生体情報取得処理で取得した前記生体情報に基づいて、前記学習者に対して実施する学習支援の内容を決定する学習指導内容決定処理と、を実行させる、
、プログラム。
On the computer,
Biometric information acquisition processing for acquiring biometric information that changes depending on the state of the learner;
Based on the biometric information acquired in the biometric information acquisition process, a learning instruction content determination process for determining the content of learning support to be performed for the learner is executed.
,program.
JP2016059275A 2016-03-23 2016-03-23 Learning support device, robot, learning support system, learning support method and program Active JP6756130B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016059275A JP6756130B2 (en) 2016-03-23 2016-03-23 Learning support device, robot, learning support system, learning support method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016059275A JP6756130B2 (en) 2016-03-23 2016-03-23 Learning support device, robot, learning support system, learning support method and program

Publications (3)

Publication Number Publication Date
JP2017173546A true JP2017173546A (en) 2017-09-28
JP2017173546A5 JP2017173546A5 (en) 2019-04-25
JP6756130B2 JP6756130B2 (en) 2020-09-16

Family

ID=59971147

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016059275A Active JP6756130B2 (en) 2016-03-23 2016-03-23 Learning support device, robot, learning support system, learning support method and program

Country Status (1)

Country Link
JP (1) JP6756130B2 (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108428378A (en) * 2018-05-24 2018-08-21 牡丹江师范学院 Multi-functional elementary Chinese aiding device
CN109697904A (en) * 2019-02-28 2019-04-30 苏州阿杜机器人有限公司 Robot wisdom classroom assisted teaching system and method
CN110120170A (en) * 2019-04-19 2019-08-13 安徽智训机器人技术有限公司 A kind of educational robot with mood setting
JP2019211762A (en) * 2018-05-30 2019-12-12 カシオ計算機株式会社 Learning device, robot, learning support system, learning device control method, and program
CN111684536A (en) * 2018-03-05 2020-09-18 欧姆龙株式会社 Apparatus for predicting weight of person, and apparatus and method for health management
JP2021108046A (en) * 2019-12-27 2021-07-29 有限会社ソリューションゲート Learning support system
JP6990472B1 (en) 2021-03-23 2022-01-12 ユニロボット株式会社 A system for communicating with people and a program for that purpose
JP7495699B1 (en) 2023-12-01 2024-06-05 株式会社フォーサイト Learning support system and learning support method

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000511304A (en) * 1996-05-22 2000-08-29 エージェント ベースド カリキュラー インコーポレイテッド Agent-based instruction system and method
JP2002505614A (en) * 1998-04-16 2002-02-19 クリエイター・リミテッド Interactive toys
JP2003021999A (en) * 2001-07-06 2003-01-24 Univ Saga System and method for creating educational material
JP2003200369A (en) * 2001-12-26 2003-07-15 Sony Corp Robot device, control method for the same, artificial agent, storage control device and storage control method
JP2005211232A (en) * 2004-01-28 2005-08-11 Victor Co Of Japan Ltd Communication support apparatus
US20080162142A1 (en) * 2006-12-29 2008-07-03 Industrial Technology Research Institute Emotion abreaction device and using method of emotion abreaction device
US20130178982A1 (en) * 2012-01-06 2013-07-11 Tit Shing Wong Interactive personal robotic apparatus

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000511304A (en) * 1996-05-22 2000-08-29 エージェント ベースド カリキュラー インコーポレイテッド Agent-based instruction system and method
JP2002505614A (en) * 1998-04-16 2002-02-19 クリエイター・リミテッド Interactive toys
JP2003021999A (en) * 2001-07-06 2003-01-24 Univ Saga System and method for creating educational material
JP2003200369A (en) * 2001-12-26 2003-07-15 Sony Corp Robot device, control method for the same, artificial agent, storage control device and storage control method
JP2005211232A (en) * 2004-01-28 2005-08-11 Victor Co Of Japan Ltd Communication support apparatus
US20080162142A1 (en) * 2006-12-29 2008-07-03 Industrial Technology Research Institute Emotion abreaction device and using method of emotion abreaction device
US20130178982A1 (en) * 2012-01-06 2013-07-11 Tit Shing Wong Interactive personal robotic apparatus

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
「PEPPER」がおすすめ料理のレシピをナビ! クックパットが動画提供を発表, JPN6020026951, ISSN: 0004312059 *
小野哲雄: "コミュニケーションや協同学習を促進するロボットの状況適応的な振る舞いの生成", 第30回日本ロボット学会学術講演会予稿集DVD−ROM 2012年, JPN6020026949, 17 September 2012 (2012-09-17), ISSN: 0004312058 *

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111684536A (en) * 2018-03-05 2020-09-18 欧姆龙株式会社 Apparatus for predicting weight of person, and apparatus and method for health management
CN108428378A (en) * 2018-05-24 2018-08-21 牡丹江师范学院 Multi-functional elementary Chinese aiding device
JP2019211762A (en) * 2018-05-30 2019-12-12 カシオ計算機株式会社 Learning device, robot, learning support system, learning device control method, and program
JP7263895B2 (en) 2018-05-30 2023-04-25 カシオ計算機株式会社 LEARNING DEVICE, ROBOT, LEARNING SUPPORT SYSTEM, LEARNING DEVICE CONTROL METHOD AND PROGRAM
CN109697904A (en) * 2019-02-28 2019-04-30 苏州阿杜机器人有限公司 Robot wisdom classroom assisted teaching system and method
CN110120170A (en) * 2019-04-19 2019-08-13 安徽智训机器人技术有限公司 A kind of educational robot with mood setting
JP2021108046A (en) * 2019-12-27 2021-07-29 有限会社ソリューションゲート Learning support system
JP6990472B1 (en) 2021-03-23 2022-01-12 ユニロボット株式会社 A system for communicating with people and a program for that purpose
JP2022147506A (en) * 2021-03-23 2022-10-06 ユニロボット株式会社 System and program for doing communications with people
JP7495699B1 (en) 2023-12-01 2024-06-05 株式会社フォーサイト Learning support system and learning support method

Also Published As

Publication number Publication date
JP6756130B2 (en) 2020-09-16

Similar Documents

Publication Publication Date Title
JP6756130B2 (en) Learning support device, robot, learning support system, learning support method and program
CN107225578B (en) Robot control device, robot control method and system
CN108182830B (en) Robot, robot control device, method, system, and storage medium
Pennington et al. Using technology for pronunciation teaching, learning, and assessment
JP6419924B1 (en) Learning support system and learning support method
KR101973791B1 (en) Method for correcting voice
JP2017201342A (en) Language Learning Robot Software
Zwozdiak-Myers et al. Communicating with pupils
Couper Applying theories of language and learning to teaching pronunciation
Underhill Cinderella, integration and the pronunciation turn
JP2006068489A (en) Interactive pet robot
JP7263895B2 (en) LEARNING DEVICE, ROBOT, LEARNING SUPPORT SYSTEM, LEARNING DEVICE CONTROL METHOD AND PROGRAM
Thomson The relationship between L2 speech perception and production
US11587460B2 (en) Method and system for adaptive language learning
Turketi Teaching English to children with ADHD
Ali Towards the development of a comprehensive pedagogical framework for pronunciation training based on adapted automatic speech recognition systems
JP2007148170A (en) Foreign language learning support system
KR101270010B1 (en) Method and the system of learning words based on speech recognition
FARMANOV et al. The main techniques of teaching different types of pronunciation in efl classes
Rubin Development and evaluation of software tools for speech therapy
KR101005768B1 (en) A language studying device
CN110556095A (en) Learning device, robot, learning support system, learning device control method, and storage medium
Cavalcante et al. Proof-of-concept evaluation of the mobile and personal speech assistant for the recognition of disordered speech
Stephens et al. The Power of Live Delivery: Reading Empowered by Orature or Audio?
Kruijff-Korbayová et al. A conversational system for multi-session child-robot interaction with several games

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190312

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190312

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191127

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200107

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200218

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200728

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200810

R150 Certificate of patent or registration of utility model

Ref document number: 6756130

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150