JP2017173546A - Learning support device, robot, learning support system, learning support method, and program - Google Patents
Learning support device, robot, learning support system, learning support method, and program Download PDFInfo
- Publication number
- JP2017173546A JP2017173546A JP2016059275A JP2016059275A JP2017173546A JP 2017173546 A JP2017173546 A JP 2017173546A JP 2016059275 A JP2016059275 A JP 2016059275A JP 2016059275 A JP2016059275 A JP 2016059275A JP 2017173546 A JP2017173546 A JP 2017173546A
- Authority
- JP
- Japan
- Prior art keywords
- learning
- pseudo
- learner
- robot
- expression
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Electrically Operated Instructional Devices (AREA)
- Manipulator (AREA)
Abstract
Description
本発明は、学習支援装置、ロボット、学習支援システム、学習支援方法及びプログラムに関する。 The present invention relates to a learning support device, a robot, a learning support system, a learning support method, and a program.
ユーザの学習を支援する学習支援ロボットが広く利用されている。例えば、特許文献1は、ユーザが対話形式で学習することができる情報通信ロボット装置を開示している。特許文献1が開示する情報通信ロボット装置は、ユーザからの音声情報と予め記憶された教育情報に対応するフィードバック情報を用いて出力情報を生成してユーザに対して出力する。
Learning support robots that support user learning are widely used. For example,
しかしながら、特許文献1に開示された技術では、ユーザの音声を音声認識し、変換された文字列に対応する所定の学習指導を実行するため、多様性に乏しく画一的な学習の進め方になってしまう可能性がある。
However, the technique disclosed in
本発明は、上述の事情に鑑みてなされたものであり、多様性のある学習の支援をすることができる学習支援装置などを提供することを目的とする。 The present invention has been made in view of the above-described circumstances, and an object thereof is to provide a learning support apparatus that can support various kinds of learning.
上記の目的を達成するため、本発明に係る学習支援装置は、
学習者の状態によって変化する生体情報を取得する生体情報取得手段と、
前記生体情報取得手段が取得した前記生体情報に基づいて、前記学習者に対して実施する学習支援の内容を決定する学習指導内容決定手段と、を備える。
In order to achieve the above object, a learning support apparatus according to the present invention provides:
Biometric information acquisition means for acquiring biometric information that changes depending on the state of the learner;
Learning instruction content determination means for determining the content of learning support to be performed for the learner based on the biological information acquired by the biological information acquisition means.
本発明によれば、多様性のある学習の支援をすることができる学習支援装置などを提供することができる。 ADVANTAGE OF THE INVENTION According to this invention, the learning assistance apparatus etc. which can support the learning with diversity can be provided.
以下、図面を参照しながら、本発明の実施形態に係る学習支援システムについて説明する。 Hereinafter, a learning support system according to an embodiment of the present invention will be described with reference to the drawings.
本発明の実施形態に係る学習支援システムは、ユーザ(学習者)Uの英会話の学習を支援するためのシステムである。学習支援システム1は、図1に示すように、教師ロボット100と、生徒ロボット200と、通信端末300と、を備える。
The learning support system according to the embodiment of the present invention is a system for supporting learning of English conversation of a user (learner) U. As illustrated in FIG. 1, the
教師ロボット100は、ユーザUに英会話を指導する教師役を担うロボットである。教師ロボット100は、外観的には人体を模した立体的な形状を有する。また、教師ロボット100は、擬似性格および擬似感情を有し、ユーザUの生体情報や学習状況によって変化する擬似感情に応じて適切な学習カリキュラムを選択して学習支援を実施する。ここで、擬似性格とは、一般的にひとが有する性格を教師ロボット100が有しているかのように擬似的に生成されたものである。また、擬似感情とは、実際にユーザUに接したひとが抱くであろう感情を教師ロボット100が抱いたかのように擬似的に生成されたものである。
The
教師ロボット100の擬似性格は、図3(A)に示すように、社交性および安定度の程度に応じて、「快活」、「冷静」、「怒りっぽい」、「陰気」の4つに分類されている。ユーザUは、教師ロボット100の起動時などに、通信端末300を介して所望の擬似性格を選択することができる。
As shown in FIG. 3A, there are four types of pseudo personality of the teacher robot 100: “quiet”, “cool”, “angry”, and “disgust” according to the degree of sociality and stability. It is classified. The user U can select a desired pseudo personality via the
教師ロボット100の擬似感情は、図3(B)に示すように、「喜」、「怒」、「哀」、「楽」の4つに分類されている。「喜」は、「喜び」や「うれしい」という感情状態であることを示す。「怒」は、「怒り」や「不機嫌」という感情状態であることを示す。「哀」は、「哀しい」や「不安」などの感情状態であることを示す。「楽」は、「平静」や「楽しい」などの感情状態であることを示す。これらの擬似感情の各々は、事象の発生状況に応じて他の擬似感情に遷移するものとする。また、ユーザUにより選択された擬似性格によって擬似感情の遷移の仕方が異なる。
The pseudo emotions of the
教師ロボット100は、機能的には、図2(A)に示すように、制御部110、生体情報取得部120、記憶部130,表現部140、通信部150を備える。
Functionally, the
制御部110は、教師ロボット100全体の動作を制御する。制御部110は、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)を有するマイクロコンピュータにより構成される。制御部110は、CPUがROMに記憶された動作プログラムを読み出してRAM上で実行することにより、教師ロボット100の各部を制御する。
The
制御部110は、生体情報解析部111、学習状況判定部112、擬似感情決定部113、学習指導内容決定部114、表現決定部115、を有する。
The
生体情報解析部111は、後述する生体情報取得部120から取得した生体情報を時系列に解析し、ユーザUの生体状態の変化などを抽出してユーザUの状態を特定する。例えば、生体情報解析部111は、生体情報取得部120から取得した音声データを解析し、振幅大小、発声内容、発声頻度などから、ユーザUが集中しているかあるいは眠いかなどを特定する
The biological information analysis unit 111 analyzes biological information acquired from the biological
学習状況判定部112は、ユーザUの学習状況を判定する。具体的には、学習状況判定部112は、質問に対する回答の正誤の判定や回答速度(回答に要する時間)の測定などを行い、正答率や進捗状況など各種要素を勘案してユーザUの学習成績を評価する。
The learning
擬似感情決定部113は、教師ロボット100の擬似感情を決定する。擬似感情決定部113は、例えば、教師ロボット100の学習指導の開始時には、後述する記憶部130に記憶された教師用学習履歴テーブルを参照して擬似感情を決定する。また、擬似感情決定部113は、例えば、学習指導の実行中には、後述する記憶部130に記憶された教師用学習関連事象テーブルおよび教師用生体関連事象テーブルを参照して新たな擬似感情を決定する。
The pseudo emotion determination unit 113 determines the pseudo emotion of the
学習指導内容決定部114は、ユーザUに対して実施する学習指導内容を決定する。制御部110は、後述する記憶部130に記憶された教師用学習履歴テーブルを参照して実施する学習カリキュラムを決定する。また、学習指導内容決定部114は、擬似感情決定部113により擬似感情が変化するタイミングに合わせて後述する記憶部130に記憶された学習指導内容変更テーブルを参照して学習カリキュラムに含まれる科目の順番や進行度合いの変更を決定する。学習指導内容決定部114は、決定内容を通信部150を介して生徒ロボット200に伝達する。
The learning guidance
表現決定部115は、ユーザUの生体状態や学習状況などに応じて、ユーザUに対して教師ロボット100が実行する感情表現の内容を決定する。表現決定部115は、例えば、後述する記憶部130に記憶された教師用学習関連事象テーブルや教師用生体関連事象テーブルを参照して、所定の事象が発生するごとに、対応する表現内容を実行することを決定する。表現決定部115は、決定した表現内容に基づく指示データを表現部140に供給する。また、表現決定部115は、ユーザUの生体状態や学習状況などに応じて、生徒ロボット200に出力させる音声や実行させる動作を決定し、その決定内容を通信部150を介して生徒ロボット200に伝達する。
The
生体情報取得部120は、ユーザUの生体状態により変化する生体情報を取得する。生体情報取得部120は、例えば、マイクロフォンと音声入力インタフェースで構成され、ユーザUの音声を音声データに変換して生体情報解析部111に出力する。
The biological
記憶部130は、制御部110が教師ロボット100の各部を制御するために必要な種々のデータを記憶する。記憶部130は、例えば、フラシュメモリやHDD(Hard Disc Drive)などの不揮発性の記憶装置により構成される。記憶部130は、例えば、通信端末300を介してユーザUによって選択された擬似性格を示すデータを所定の記憶領域に記憶する。
The
また、記憶部130が記憶するデータには、教師用学習履歴テーブルと、教師用学習関連事象テーブルと、教師用生体関連事象テーブルと、学習指導内容変更テーブルが含まれる。
The data stored in the
教師用学習履歴テーブルは、ユーザUが学習支援システム1を利用した履歴と学習成績をまとめたテーブルである。教師用学習履歴テーブルは、図4に示すように、「開始日時」と「終了日時」と、「学習時間」と、「学習成績」の各データを対応付けて構成されている。ここで、本実施の形態では、ユーザUが幼児であると仮定し、教師ロボット100が実施する学習指導は1回30分程度で終了するように学習カリキュラムが組まれているものとする。また、学習カリキュラムには、おもに単語の反復発声や発音の矯正を指導する「単語」、おもに短い文章の反復発声などを指導する「文章」、リズムに合わせて単語や文章を反復発声させて発音やイントネーションを学ばせる「チャンツ」、身近な話題について英語でやりとりする「会話」、短い物語を読み聞かせる「ストーリ」、学習内容の理解度を確認する「復習」の5つの科目を含むこととする。「学習成績」は、これらの科目毎に正答率や習熟の度合いなどを考慮して「A」〜「C」の3段階で評価されている。なお、「−」は、実施されなかったことを意味する。
The teacher learning history table is a table in which the history and learning results of the user U using the
教師用学習関連事象テーブルは、学習関連事象の発生を検知したときの対応を規定したテーブルであり、擬似性格ごとに設けられ、各々には異なる対応が規定されている。ここで、学習関連事象とは、質問に対する回答の正誤や学習進捗など学習の習得状況に関連する事象をいう。教師用学習関連事象テーブルは、図5、図6に示すように、現在の擬似感情ごとに、それぞれ、「学習関連事象」と「感情ポイント」と「表現内容」の各データを対応付けて構成されている。「学習関連事象」は、学習状況判定部112により判定されたユーザUの習熟の度合いを示す項目である。「学習関連事象」には、例えば、「正答(誤答)」、「学習進捗が良い(悪い)」などが挙げられる。「感情ポイント」は、発生事象ごとに各擬似感情に加算される数値である。各擬似感情の「感情ポイント」に異なる数値を設定することによって、発生事象の重要性や対応緊急性などに応じて各擬似感情に異なる重み付けがされる。「表現内容」は、発生事象ごとの出力音声や実行動作の概要である。なお、図5、図6に示す「表現内容」には、おもに発生事象ごとの教師ロボット100の表現がおもに規定されているが、発生事象に対応して生徒ロボット200に実行させる表現についても規定される。擬似感情決定部113は、この教師用学習関連事象テーブルを参照し、発生事象に応じて各擬似感情の累計値を算出する。また、擬似感情決定部113は、各擬似感情の感情ポイントの累計値のいずれかが所定の閾値を超えた場合には、現在の擬似感情から閾値を超えた擬似感情に遷移させることを決定する。
The learning-related event table for teachers is a table that defines the correspondence when the occurrence of a learning-related event is detected, and is provided for each pseudo personality, and a different correspondence is defined for each. Here, the learning-related event refers to an event related to the learning situation such as correctness / incorrectness of answers to questions and learning progress. As shown in FIGS. 5 and 6, the teacher learning-related event table is configured by associating each data of “learning-related event”, “emotion point”, and “expression content” with respect to each current pseudo emotion, respectively. Has been. The “learning related event” is an item indicating the degree of proficiency of the user U determined by the learning
図5に示すテーブルは、擬似性格が「快活」に設定されている場合に参照される教師用学習関連事象テーブルの一例であり、図6に示すテーブルは、擬似性格が「怒りっぽい」に設定されている場合に参照される教師用学習関連事象テーブルの一例である。 The table shown in FIG. 5 is an example of a learning-related event table for teachers that is referred to when the pseudo personality is set to “cheerful”, and the table shown in FIG. 6 has the pseudo personality of “angry”. It is an example of the learning related event table for teachers referred when set.
図5に示す教師用学習関連事象テーブルには、例えば、現在の擬似感情「喜」において、学習が予定通りに進んでいないことを示す事象「学習進捗が悪い」が検知されたときには、擬似感情「哀」に感情ポイント「2」、擬似感情「怒」および「楽」に感情ポイント「1」を加算するとともに、ユーザUを励ますような音声を出力したり元気づけるような動作を実行するように規定されている。一方、図6に示す教師用学習関連事象テーブルには、例えば、現在の擬似感情「喜」において、事象「学習進捗が悪い」が検知されたときには、擬似感情「怒」に感情ポイント「2」、擬似感情「哀」に感情ポイント「3」を加算するとともに、ユーザUを叱るような音声を出力するように規定されている。このように、設定された擬似性格に応じて学習関連事象に対する「感情ポイント」や「表現内容」を異ならせることによって、教師ロボット100に多様な学習指導を実施させることができる。
In the learning-related event table for teachers shown in FIG. 5, for example, when an event “learning progress is poor” indicating that learning is not progressing as planned in the current pseudo emotion “joy” is detected, The emotion point “2” is added to the “sorrow”, the emotion point “1” is added to the pseudo emotion “anger” and “easy”, and an operation that outputs a voice or encourages the user U is executed. It is stipulated in. On the other hand, in the learning-related event table for teachers shown in FIG. 6, for example, when the event “learning progress is bad” is detected in the current pseudo emotion “joy”, the emotion point “2” is added to the pseudo emotion “anger”. In addition, the emotion point “3” is added to the pseudo emotion “sorrow”, and a voice that speaks the user U is output. In this way, by making the “emotion points” and “expression contents” for learning-related events different according to the set pseudo-character, it is possible to cause the
教師用生体関連事象テーブルは、生体関連事象の発生を検知したときの対応を規定したテーブルであり、擬似性格ごとに設けられ、各々には異なる対応が規定されている。ここで、生体関連事象とは、生体情報から判断されるユーザUの状態やその変化などに起因する事象という。教師用生体関連事象テーブルは、図7、図8に示すように、現在の擬似感情ごとに、それぞれ、「生体関連事象」と「感情ポイント」と「表現内容」の各データを対応付けて構成されている。「生体関連事象」は、生体情報取得部120が取得した生体情報から検知されるユーザUの生体状態を示す項目である。「生体関連事象」には、例えば、「声が大きい(小さい)」、「返答が早い(遅い)」などが挙げられる。「感情ポイント」は、教師用学習関連事象テーブルの場合と同様、発生事象ごとに各擬似感情に加算される数値である。「表現内容」は、発生事象ごとの出力音声や実行動作の概要である。なお、図7、図8に示す「表現内容」には、おもに発生事象ごとの教師ロボット100の表現がおもに規定されているが、発生事象に対応して生徒ロボット200に実行させる表現についても規定される。擬似感情決定部113は、この教師用生体関連事象テーブルを参照し、発生事象に応じて各擬似感情の累計値を算出する。また、擬似感情決定部113は、各擬似感情の感情ポイントの累計値のいずれかが所定の閾値を超えた場合には、現在の擬似感情から閾値を超えた擬似感情に遷移させることを決定する。
The teacher-related bio-related event table is a table that defines the correspondence when the occurrence of the bio-related event is detected, and is provided for each pseudo personality, and a different correspondence is defined for each. Here, the bio-related event is an event caused by the state of the user U determined from the bio-information and the change thereof. As shown in FIGS. 7 and 8, the teacher's bio-related event table is configured by associating each data of “biological-related event”, “emotion point”, and “expression content” with respect to each current pseudo emotion. Has been. The “biological related event” is an item indicating the biological state of the user U detected from the biological information acquired by the biological
図7に示すテーブルは、擬似性格が「快活」に設定されている場合に参照される教師用生体関連事象テーブルの一例であり、図8に示すテーブルは、擬似性格が「怒りっぽい」に設定されている場合に参照される教師用生体関連事象テーブルの一例である。 The table shown in FIG. 7 is an example of a biometric related event table for teachers that is referred to when the pseudo personality is set to “cheerful”, and the table shown in FIG. 8 has a pseudo personality of “angry”. It is an example of the biometric related event table for teachers referred when it is set.
図7に示す教師用生体関連事象テーブルには、例えば、現在の擬似感情「怒」において、ユーザUの回答の声が大きいことを示す事象「声が大きい」が検知されたときには、擬似感情「喜」、「哀」、「楽」に感情ポイント「1」を加算するとともに、ユーザUをほめるような音声を出力するように規定されている。一方、図8に示す教師用生体関連事象テーブルには、例えば、現在の擬似感情「怒」において、事象「声が大きい」が検知されたときには、擬似感情「哀」、「楽」に感情ポイント「1」を加算するとともに、頭を縦に振る動作を実行するように規定されている。このように、設定された擬似性格に応じて生体関連事象に対する「感情ポイント」や「表現内容」を異ならせることによって、教師ロボット100に多様な学習指導を実施させることができる。擬似感情決定部113は、この教師用生体関連事象テーブルを参照し、発生事象に応じて各擬似感情の累計値を算出する。また、擬似感情決定部113は、各擬似感情の感情ポイントの累計値のいずれかが所定の閾値を超えた場合には、現在の擬似感情から閾値を超えた擬似感情に遷移させることを決定する。
In the biometric event table for teachers shown in FIG. 7, for example, when an event “voice is loud” indicating that the voice of the answer of the user U is loud is detected in the current pseudo emotion “anger”, the pseudo emotion “ It is stipulated that an emotion point “1” is added to “joy”, “sorrow”, and “easy”, and a voice that compliments the user U is output. On the other hand, in the biometric event table for teachers shown in FIG. 8, for example, when the event “loud” is detected in the current pseudo emotion “anger”, the emotion points are expressed in the pseudo emotions “sorrow” and “easy”. It is specified to perform an operation of adding “1” and shaking the head vertically. In this way, by making the “emotion points” and “expression contents” for the biological related event different according to the set pseudo personality, the
学習指導内容変更テーブルは、擬似感情の遷移に伴って学習指導内容の変更内容が規定されたテーブルである。学習指導内容変更テーブルは、「遷移後の擬似感情」と「遷移前の擬似感情」と「学習指導内容」の各データを対応付けて構成されている。図9に示す学習指導内容変更テーブルには、例えば、擬似感情が「怒」から「喜」に遷移した場合には、実施する科目を「ユーザUの得意な科目に変更」、もしくは、実施中の科目において「難しい問題を出題」を選択的に実行するように規定されている。これは、ユーザUの学習成績または生体状態が改善したことに伴って教師ロボット100の擬似感情が好転したことを契機に、ユーザUからやる気やチャレンジ精神をさらに引き出すことを意図している。また、学習指導内容変更テーブルには、例えば、擬似感情が「楽」から「哀」に遷移した場合には、学習の「テンポを緩める」、もしくは、実施中の科目などに「関連しない話をする」を選択的に実行するように規定されている。これは、ユーザUの学習成績または生体状態が低下したことに伴って教師ロボット100の擬似感情が少々悪化したことを契機に、ユーザUに余裕を与えたり気分転換させることを意図している。
The learning instruction content change table is a table in which the changing contents of the learning instruction contents are specified in accordance with the transition of the pseudo emotion. The learning instruction content change table is configured by associating each data of “pseudo emotion after transition”, “pseudo emotion before transition”, and “learning instruction content”. In the learning instruction content change table shown in FIG. 9, for example, when the pseudo-emotion changes from “anger” to “joy”, the subject to be implemented is “change to a subject that user U is good at” or is being implemented. It is stipulated to selectively execute “Ask a difficult question” in the subject. This is intended to further draw out the motivation and challenge spirit from the user U in response to the improvement of the pseudo emotion of the
表現部140は、表現決定部115の決定内容に応じてユーザUに対して擬似的な感情表現を行う。表現部140は、音声出力部141、可動部142を有する。
The
音声出力部141は、スピーカおよび音声出力インタフェースで構成され、表現決定部115により生成された音声データを音声に変換して外部に出力する。
The
可動部142は、教師ロボット100の部分的な部位であり、モータ等の駆動部材の駆動により変位する。教師ロボット100は、表現決定部115の決定内容に応じて可動部142が変位することにより、例えば、手足を動かす動作や頭を上下左右に振る動作やまぶたの開閉動作などを行い、擬似的な感情表現をする。
The
通信部150は、無線通信モジュールおよびアンテナにより構成され、生徒ロボット200および通信端末300とデータ通信を行う。通信部150は、例えば、生徒ロボット200に出力音声や実行動作に関する指示データを送信する。また、通信部150は、例えば、通信端末300からユーザUによる操作指示(教師ロボット100の擬似性格の選択操作など)や情報入力(質問に対する回答入力など)を受け付ける。
The
生徒ロボット200は、ユーザUと共に教師ロボット100から英会話の指導を受ける生徒役を担うロボットである。生徒ロボット200は、教師ロボット100と同様、外観的には人体を模した立体的な形状を有する。また、生徒ロボット200は、教師ロボット100と同様の擬似性格および擬似感情を有し、ユーザUの生体情報や学習状況によって変化する擬似感情に応じてユーザUの学習意欲などを向上させるための学習支援を実施する。
The
生徒ロボット200は、機能的には、図2(B)に示すように、制御部210、生体情報取得部220、記憶部230,表現部240、通信部250を備える。
The
制御部210は、生徒ロボット200全体の動作を制御する。制御部210は、CPU、ROM、RAMを有するマイクロコンピュータにより構成される。制御部210は、CPUがROMに記憶された動作プログラムを読み出してRAM上で実行することにより、生徒ロボット200の各部を制御する。
The
制御部210は、生体情報解析部211、学習状況判定部212、擬似感情決定部213、表現決定部215、を有する。これらの部位は、教師ロボット100が有する生体情報解析部111、学習状況判定部112、擬似感情決定部113、表現決定部115と概ね同様に構成される。
The
生体情報解析部211は、生体情報取得部220から取得した生体情報を時系列に解析し、ユーザUの生体状態の変化などを抽出してユーザUの状態を特定する。
The biological information analysis unit 211 analyzes the biological information acquired from the biological
学習状況判定部212は、ユーザUの学習状況を判定する。具体的には、学習状況判定部212は、質問に対する回答の正誤の判定や回答速度の測定などを行い、正答率や進捗状況など各種要素を勘案してユーザUの学習成績を評価する。 The learning status determination unit 212 determines the learning status of the user U. Specifically, the learning status determination unit 212 determines whether the answer to the question is correct, measures the response speed, and the like, and evaluates the learning result of the user U in consideration of various factors such as the correct answer rate and the progress status.
擬似感情決定部213は、生徒ロボット200の擬似感情を決定する。擬似感情決定部213は、例えば、生徒ロボット200の学習支援の開始時には、後述する記憶部230に記憶された生徒用学習履歴テーブルを参照して擬似感情を決定する。また、擬似感情決定部213は、例えば、学習支援の実行中には、後述する記憶部230に記憶された生徒用学習関連事象テーブルおよび生徒用生体関連事象テーブルを参照して新たな擬似感情を決定する。
The pseudo emotion determination unit 213 determines the pseudo emotion of the
表現決定部215は、ユーザUの生体状態や学習状況などに応じて、ユーザUに対して生徒ロボット200が実行する感情表現の内容を決定する。表現決定部215は、例えば、後述する記憶部230に記憶された生徒用学習関連事象テーブルや生徒用生体関連事象テーブルを参照して、所定の事象が発生するごとに、対応する表現内容を実行することを決定する。表現決定部215は、決定した表現内容に基づく指示データを表現部240に供給する。
The expression determination unit 215 determines the content of emotion expression executed by the
生体情報取得部220は、ユーザUの状態により変化する生体情報を取得する。生体情報取得部220は、例えば、マイクロフォンと音声入力インタフェースで構成され、ユーザUの音声を音声データに変換して生体情報解析部211に出力する。
The biometric
記憶部230は、制御部210が生徒ロボット200の各部を制御するために必要な種々のデータを記憶する。記憶部230は、例えば、フラシュメモリやHDDなどの不揮発性の記憶装置により構成される。記憶部230は、例えば、通信端末300を介してユーザUによって選択された擬似性格を示すデータを所定の記憶領域に記憶する。
The
また、記憶部230が記憶するデータには、生徒用学習履歴テーブルと、生徒用学習関連事象テーブルと、生徒用生体関連事象テーブルと、が含まれる。これらの各テーブルは、前述した教師用学習履歴テーブル、教師用学習関連事象テーブル、教師用生体関連事象テーブルと概ね同様に構成される。なお、生徒用学習関連事象テーブルと生徒用生体関連事象テーブルにおける各発生事象に対応する「表現内容」は、生徒や友達としてふさわしい内容であることが望ましい。
The data stored in the
図10に示す擬似性格が「快活」のときに参照される生徒用学習関連事象テーブルには、例えば、現在の擬似感情「喜」において、事象「誤答」が検知されたときには、ユーザUにヒントを与えたり元気づける音声を出力するように規定されている。また、現在の擬似感情「怒」において、事象「学習進捗が良い」が検知されたときには、ユーザUをうらやましがる音声を出力するように規定されている。 In the learning related event table for students referred to when the pseudo personality shown in FIG. 10 is “lively”, for example, when an event “wrong answer” is detected in the current pseudo emotion “joy”, the user U is notified. It is stipulated to output a sound that gives hints or encourages them. Further, in the current pseudo emotion “angry”, when an event “learning progress is good” is detected, a voice envying the user U is output.
表現部240は、表現決定部215の決定内容に応じてユーザUに対して擬似的な感情表現を行う。表現部240は、音声出力部241、可動部242を有する。
The
音声出力部241は、スピーカおよび音声出力インタフェースで構成され、表現決定部215により生成された音声データを音声に変換して外部に出力する。
The
可動部242は、生徒ロボット200の部分的な部位であり、モータ等の駆動部材の駆動により変位する。生徒ロボット200は、表現決定部215の決定内容に応じて可動部242が変位することにより、例えば、手足を動かす動作や頭を上下左右に振る動作やまぶたの開閉動作などを行い、擬似的な感情表現をする。
The
通信部250は、無線通信モジュールおよびアンテナにより構成され、教師ロボット100および通信端末300とデータ通信を行う。通信部250は、例えば、生徒ロボット200に出力音声や実行動作に関する指示データを送信する。また、通信部250は、例えば、通信端末300からユーザUによる操作指示(生徒ロボット200の擬似性格の選択操作など)や情報入力(質問に対する回答入力など)を受け付ける。
The
通信端末300は、例えば、スマートフォンやタブレット端末で構成され、教師ロボット100や生徒ロボット200と通信する。通信端末300は、例えば、教師ロボット100からの送信データに従って、質問に対する回答用の選択画像の表示、生徒ロボット200からの送信データに従って、質問に対する回答のヒントとなる画像の表示などを行う。また、通信端末300は、例えば、ユーザUによる教師ロボット100および生徒ロボット200の擬似性格の選択入力を受け付け、入力データを各ロボットに送信する。
The
次に、図11(A)に示すフローチャートを参照しながら、教師ロボット100が実行する学習指導処理について説明する。学習指導処理は、ユーザUの学習成績や生体情報に基づいて、ユーザUに対して実施する学習指導内容を適宜決定する処理である。制御部110は、ユーザUの操作により、通信端末300を介して学習開始を指示する操作信号を受信したことに応答して、学習指導処理を開始する。
Next, the learning instruction process executed by the
制御部110は、学習指導処理を開始すると、教師ロボット100の擬似性格を設定する(ステップS101)。制御部110は、ユーザUの操作による選択、あるいは、前回実行時の設定内容に応じて、教師ロボット100の擬似性格を「快活」、「冷静」、「怒りっぽい」、「陰気」のうちのいずれかに決定する。
When starting the learning instruction process, the
次に、制御部110(擬似感情決定部113)は、教師ロボット100の擬似感情を決定する(ステップS102)。制御部110は、例えば、記憶部130に記憶された学習履歴テーブルを参照し、ユーザUの学習頻度や学習成績に応じて、教師ロボット100の擬似感情を決定する。例えば、前回利用時から数日が経過しており学習頻度が低い場合には、制御部110は、教師ロボット100の擬似感情を「哀」に決定する。また、前回利用時の学習成績が良い場合には、制御部110は、擬似感情を「喜」に決定する。なお、制御部110は、ステップS101において決定された擬似性格を加味して、教師ロボット100の擬似感情を決定してもよい。例えば、擬似性格が「怒りっぽい」に決定された場合には、前回利用時の学習成績が良い場合であっても、擬似感情を「楽」に決定するようにしてもよい。
Next, the control unit 110 (pseudo emotion determination unit 113) determines the pseudo emotion of the teacher robot 100 (step S102). For example, the
続いて、制御部110(学習指導内容決定部114)は、今回実施する学習カリキュラムを決定する(ステップS103)。制御部110は、記憶部130に記憶された生徒用学習履歴テーブルを参照し、ユーザUの学習頻度や前回までの学習成績に応じて、今回実施する学習カリキュラムを決定する。例えば、学習頻度が低い場合には、制御部110は、ユーザUの学習に対する意欲を向上させるために、比較的親しみやすい科目「チャンツ」を、他の科目よりも長時間実施したり、他の科目に先行して実施するように、学習カリキュラムを決定する。
Subsequently, the control unit 110 (learning instruction content determination unit 114) determines a learning curriculum to be performed this time (step S103). The
ステップS103の処理を実行した後、制御部110は、決定された学習カリキュラムに従って学習指導を開始する(ステップS104)。制御部110は、科目ごとに学習内容に応じた音声の出力や動作を実行するように表現部140を制御する。
After executing the process of step S103, the
続いて、制御部110は、学習指導を終了するか否かを判定する(ステップS105)。制御部110は、ユーザUの操作により、学習終了を指示する操作信号を受信したか否か、あるいは、今回の学習カリキュラムの全科目が実施済みであるか否かに応じて学習指導を終了するか否かを判定する。学習指導を終了すると判定した場合(ステップS105;YES)、制御部110は、学習指導処理を終了する。
Subsequently, the
学習指導を継続すると判定した場合(ステップS105;NO)、制御部110は、学習関連事象または生体関連事象が発生したか否かを判定する(ステップS106)。制御部110は、生体情報解析部111の解析結果および学習状況判定部112の判定結果に基づき、記憶部130に記憶された教師用学習関連事象テーブルおよび教師用生体関連事象テーブルに規定されたいずれかの事象が発生したか否かを判定する。学習関連事象または生体関連事象が発生していないと判定した場合(ステップS106;NO)、制御部110は、処理をステップS104に戻し、学習指導を継続する。
When it determines with continuing learning instruction | indication (step S105; NO), the
一方、学習関連事象または生体関連事象が発生したと判定した場合(ステップS106;YES)、制御部110は、発生した事象に対応する表現内容を実行する(ステップS107)。制御部110(表現決定部115)は、教師用学習関連事象テーブルや教師用生体関連事象テーブルを参照し、発生した事象に対応する表現内容に応じた音声の出力や動作を実行するように表現部140を制御する。
On the other hand, when it is determined that a learning-related event or a biological-related event has occurred (step S106; YES), the
続いて、制御部110(擬似感情決定部113)は、擬似感情の感情ポイントの累積値が閾値を超えたか否かを判定する(ステップS108)。いずれの擬似感情の感情ポイントの累積値も閾値を超えていないと判定した場合(ステップS108;NO)、制御部110は、処理をステップS104に戻し、学習指導を継続する。
Subsequently, the control unit 110 (pseudo emotion determination unit 113) determines whether or not the cumulative value of the emotion points of the pseudo emotion has exceeded a threshold value (step S108). If it is determined that the cumulative value of the emotion points of any pseudo emotion does not exceed the threshold value (step S108; NO), the
一方、いずれかの擬似感情の感情ポイントの累積値が閾値を超えたと判定した場合(ステップS108;YES)、制御部110(擬似感情決定部113)は、現在の擬似感情から閾値を超えた擬似感情に遷移させる(ステップS109)。 On the other hand, when it is determined that the cumulative value of the emotion points of any of the pseudo emotions has exceeded the threshold (step S108; YES), the control unit 110 (pseudo emotion determination unit 113) performs a simulation that exceeds the threshold from the current pseudo emotion. Transition to emotion (step S109).
また、制御部110(学習指導内容決定部114)は、擬似感情に遷移したことに伴って学習指導内容を変更する(ステップS110)。制御部110(学習指導内容決定部114)は、記憶部130に記憶された学習指導内容変更テーブルを参照し、遷移前後の擬似感情に対応する学習指導内容に変更することを決定する。
Moreover, the control part 110 (learning instruction | indication content determination part 114) changes learning instruction | indication content with having changed to the pseudo emotion (step S110). The control unit 110 (learning instruction content determination unit 114) refers to the learning instruction content change table stored in the
ステップS110の処理を実行した後、制御部110は、処理をステップS104に戻し、学習カリキュラムに含まれる科目の順番や進行度合いを変更して学習指導を継続する。
After performing the process of step S110, the
続いて、図11(B)に示すフローチャートを参照しながら、生徒ロボット200が実行する学習支援処理について説明する。学習支援処理は、ユーザUの学習成績や生体情報に基づいて、ユーザUに対して実施する学習支援内容を適宜決定する処理である。ここで、学習支援処理は、図11(A)に示す学習指導処理と概ね同様の処理が実行されるため、詳細な説明は省略する。制御部210は、ユーザUの操作により、通信端末300を介して学習開始を指示する操作信号を受信したことに応答して、学習支援処理を開始する。
Next, the learning support process executed by the
制御部210は、学習支援処理を開始すると、生徒ロボット200の擬似性格を設定する(ステップS201)。制御部210は、ユーザUの操作による選択、あるいは、前回実行時の設定内容に応じて、生徒ロボット200の擬似性格を決定する。
When starting the learning support process, the
次に、制御部210(擬似感情決定部213)は、生徒ロボット200の擬似感情を決定する(ステップS202)。制御部210は、例えば、記憶部230に記憶された学習履歴テーブルを参照し、ユーザUの学習頻度や学習成績に応じて、生徒ロボット200の擬似感情を決定する。
Next, the control unit 210 (pseudo emotion determination unit 213) determines the pseudo emotion of the student robot 200 (step S202). For example, the
続いて、制御部210は、今回実施する学習カリキュラムを取得する(ステップS203)。制御部210は、教師ロボット100の学習指導内容決定部114が決定した今回実施する学習カリキュラムを通信部250を介して取得する。
Subsequently, the
ステップS203の処理を実行した後、制御部210は、取得した学習カリキュラムに従って学習支援を開始する(ステップS204)。制御部210は、科目ごとに学習内容に応じた音声の出力や動作を実行するように表現部240を制御する。なお、制御部210は、教師ロボット100の学習指導内容決定部114が学習カリキュラムに含まれる科目の順番や進行度合いを変更したことに伴って、その変更内容を教師ロボット100から受信した際には、変更内容に応じた音声の出力や動作を実行するように表現部240を制御する。
After executing the process of step S203, the
続いて、制御部210は、学習支援を終了するか否かを判定する(ステップS205)。制御部210は、ユーザUの操作により、学習終了を指示する操作信号を受信したか否か、あるいは、今回の学習カリキュラムの全科目が実施済みであるか否かに応じて学習支援を終了するか否かを判定する。学習支援を終了すると判定した場合(ステップS205;YES)、制御部210は、学習支援処理を終了する。
Subsequently, the
学習支援を継続すると判定した場合(ステップS205;NO)、制御部210は、学習関連事象または生体関連事象が発生したか否かを判定する(ステップS206)。制御部210は、生体情報解析部211の解析結果および学習状況判定部212の判定結果に基づき、記憶部230に記憶された生徒用学習関連事象テーブルおよび生徒用生体関連事象テーブルに規定されたいずれかの事象が発生したか否かを判定する。学習関連事象または生体関連事象が発生していないと判定した場合(ステップS206;NO)、制御部210は、処理をステップS204に戻し、学習支援を継続する。
When it determines with continuing learning support (step S205; NO), the
一方、学習関連事象または生体関連事象が発生したと判定した場合(ステップS206;YES)、制御部210は、発生した事象に対応する表現内容を実行する(ステップS207)。制御部210(表現決定部215)は、生徒用学習関連事象テーブルや生徒用生体関連事象テーブルを参照し、発生した事象に対応する表現内容に応じた音声の出力や動作を実行するように表現部240を制御する。
On the other hand, when it is determined that a learning related event or a living body related event has occurred (step S206; YES), the
続いて、制御部210(擬似感情決定部213)は、擬似感情の感情ポイントの累積値が閾値を超えたか否かを判定する(ステップS208)。いずれの擬似感情の感情ポイントの累積値も閾値を超えていないと判定した場合(ステップS208;NO)、制御部210は、処理をステップS204に戻し、学習指導を継続する。
Subsequently, the control unit 210 (pseudo emotion determination unit 213) determines whether or not the cumulative value of the emotion points of the pseudo emotion has exceeded a threshold value (step S208). If it is determined that the cumulative value of the emotion points of any pseudo emotion does not exceed the threshold (step S208; NO), the
一方、いずれかの擬似感情の感情ポイントの累積値が閾値を超えたと判定した場合(ステップS208;YES)、制御部210(擬似感情決定部213)は、現在の擬似感情から閾値を超えた擬似感情に遷移させ(ステップS209)、処理をステップS204に戻し、学習支援を継続する。 On the other hand, when it is determined that the cumulative value of the emotion points of any of the pseudo emotions exceeds the threshold value (step S208; YES), the control unit 210 (pseudo emotion determination unit 213) performs the pseudo test that exceeds the threshold value from the current pseudo emotion. It changes to emotion (step S209), returns a process to step S204, and continues learning support.
このように、ユーザUにより学習開始が指示されたことに応答して、教師ロボット100は学習指導処理を、生徒ロボット200は学習支援処理をそれぞれ実行し、ユーザUに対して教師ロボット100と生徒ロボット200とが協働して学習支援を実施する。
In this way, in response to the instruction to start learning by the user U, the
以上で述べたように、本実施の形態によれば、教師ロボット100および生徒ロボット200は、擬似性格が設定され、設定された擬似性格に応じて異なる態様で遷移する擬似感情を有している。また、各ロボットは、現在の擬似感情に応じてユーザUに対して音声や動作で感情表現をしながら学習指導を実施する。このように、教師ロボット100および生徒ロボット200を備える学習支援システム1はあたかも人格を備える実物の人間のようにユーザUに接することができ、多様性のある学習の支援をすることができる。また、学習支援システム1は、ユーザUの学力を向上させることに加えて、対人関係を築く能力を向上させることが可能である。
As described above, according to the present embodiment, the
なお、本発明は、上記の実施の形態に限定されず、種々の変形および応用が可能である。上記の実施の形態は、次のように変形されてもよい。 In addition, this invention is not limited to said embodiment, A various deformation | transformation and application are possible. The above embodiment may be modified as follows.
例えば、学習支援システム1において、教師ロボット100が備える機能の全部または一部を備える学習支援装置を教師ロボット100に代えて用いてもよい。学習支援装置は、少なくともコンピュータを備える電子機器であればよく、任意である。また、生徒ロボット200についても同様である。
For example, in the
例えば、擬似性格および擬似感情の分類は、上記の実施の形態に限らず任意である。擬似性格および擬似感情をさらに細かく分類し、これらの状態に対応する学習指導内容を設定してもよい。また、擬似感情を遷移させる手法も上記の実施の形態に限らず任意である。なお、擬似性格または擬似感情のいずれかを省略して、教師ロボット100の表現パターンを単純化してもよい。
For example, the classification of pseudo personality and pseudo emotion is not limited to the above embodiment, but is arbitrary. The pseudo personality and the pseudo emotion may be further classified and learning instruction contents corresponding to these states may be set. Moreover, the method of changing the pseudo emotion is not limited to the above embodiment, but is arbitrary. Note that either the pseudo personality or the pseudo emotion may be omitted, and the expression pattern of the
例えば、生体情報取得部120は、外部に設置されたセンサから生体情報を取得するように構成してもよい。生体情報取得部120は、例えば、顔(表情)検出センサ、GPS(Global Positioning System)センサ、加速度センサ、血圧センサ、脈拍センサ、脳波センサ、発汗センサ等の各種センサの計測値に基づいて、ユーザUの状態を認識し、ユーザUに対する表現内容や学習指導内容を決定するようにしてもよい。さらに、ユーザUの周辺環境(例えば、照明状態や騒音レベル)を考慮して、ユーザUに対する表現内容や学習指導内容を決定するようにしてもよい。
For example, the biological
上記の実施の形態において、教師ロボット100と生徒ロボット200は、概ね同様の機能を備えるものとして説明したが、生徒ロボット200が備える機能を簡略化してもよい。例えば、教師ロボット100が、生体情報解析部111が解析した結果を通信部150を介して生徒ロボット200に提供することにより、生徒ロボット200には生体情報取得部220や生体情報解析部211を搭載しないように構成してもよい。また、教師ロボット100が、擬似感情決定部113において生徒ロボット200の擬似感情を決定し、また、表現決定部115において生徒ロボット200のユーザUに対する表現を決定し、これらの決定内容を生徒ロボット200に指示することにより、生徒ロボット200には擬似感情決定部213や表現決定部215などを搭載しないように構成してもよい。
In the above embodiment, the
上記の実施の形態において、学習指導内容変更テーブルは、遷移前後の擬似感情の組合せに対応付けて変更する学習指導内容を規定した。しかし、遷移直前(感情ポイントの累計値が所定の閾値を超える直前)に発生した事象、あるいは、感情ポイントの累計値が所定の閾値を超えるまでに最も多く発生した事象に応じて異なる学習指導内容を規定してもよい。 In the above embodiment, the learning guidance content change table defines the learning guidance content to be changed in association with the combination of pseudo emotions before and after the transition. However, depending on the event that occurred immediately before the transition (immediately before the cumulative value of emotion points exceeds the predetermined threshold) or the event that occurred most frequently before the cumulative value of emotion points exceeded the predetermined threshold, May be defined.
本発明は、本発明の広義の精神と範囲を逸脱することなく、様々な実施の形態及び変形が可能とされるものである。また、上述した実施の形態は、この発明を説明するためのものであり、本発明の範囲を限定するものではない。すなわち、本発明の範囲は、実施の形態ではなく、特許請求の範囲によって示される。そして、特許請求の範囲内及びそれと同等の発明の意義の範囲内で施される様々な変形が、この発明の範囲内とみなされる。 Various embodiments and modifications can be made to the present invention without departing from the broad spirit and scope of the present invention. The above-described embodiments are for explaining the present invention and do not limit the scope of the present invention. In other words, the scope of the present invention is shown not by the embodiments but by the claims. Various modifications within the scope of the claims and within the scope of the equivalent invention are considered to be within the scope of the present invention.
以下に、本願出願の当初の特許請求の範囲に記載された発明を付記する。 Hereinafter, the invention described in the scope of claims of the present application will be appended.
(付記1)
学習者の状態によって変化する生体情報を取得する生体情報取得手段と、
前記生体情報取得手段が取得した前記生体情報に基づいて、前記学習者に対して実施する学習支援の内容を決定する学習指導内容決定手段と、を備える、
学習支援装置。
(Appendix 1)
Biometric information acquisition means for acquiring biometric information that changes depending on the state of the learner;
Learning instruction content determination means for determining the content of learning support to be performed for the learner based on the biological information acquired by the biological information acquisition means,
Learning support device.
(付記2)
前記生体情報取得手段が取得した前記生体情報に基づいて、前記学習者に対する表現を決定する表現決定手段、をさらに備える、
付記1に記載の学習支援装置。
(Appendix 2)
Expression determining means for determining an expression for the learner based on the biological information acquired by the biological information acquiring means;
The learning support apparatus according to
(付記3)
前記学習者の学習状況を判定する学習状況判定手段、をさらに備え、
前記表現決定手段は、前記生体情報と前記学習状況判定手段による判定結果に基づいて、前記学習者に対する表現を決定し、
前記学習指導内容決定手段は、前記生体情報と前記学習状況判定手段による判定結果とに基づいて、前記学習者に対して実施する学習支援の内容を決定する、
付記2に記載の学習支援装置。
(Appendix 3)
Learning status determination means for determining the learning status of the learner,
The expression determining means determines an expression for the learner based on the biological information and a determination result by the learning status determining means,
The learning instruction content determination means determines the content of learning support to be performed for the learner based on the biological information and the determination result by the learning status determination means.
The learning support apparatus according to
(付記4)
複数の擬似性格から前記学習者により選択された擬似性格に基づいて、複数の擬似感情から1つの擬似感情を決定する擬似感情決定手段、をさらに備え、
前記表現決定手段は、前記生体情報と前記判定結果と前記擬似感情決定手段により決定された擬似感情とに基づいて、前記学習者に対する表現を決定し、
前記学習指導内容決定手段は、前記生体情報と前記判定結果と前記擬似感情決定手段により決定された擬似感情とに基づいて、前記学習者に対して実施する学習支援の内容を決定する、
付記3に記載の学習支援装置。
(Appendix 4)
Pseudo emotion determination means for determining one pseudo emotion from a plurality of pseudo emotions based on the pseudo personality selected by the learner from a plurality of pseudo characters;
The expression determining means determines an expression for the learner based on the biological information, the determination result, and the pseudo emotion determined by the pseudo emotion determining means,
The learning instruction content determination unit determines the content of learning support to be performed for the learner based on the biological information, the determination result, and the pseudo emotion determined by the pseudo emotion determination unit.
The learning support device according to
(付記5)
前記複数の擬似感情の各々には、前記複数の擬似性格の各々に対応する異なる重み付けがなされている、
付記4に記載の学習支援装置。
(Appendix 5)
Each of the plurality of pseudo emotions has a different weight corresponding to each of the plurality of pseudo personalities.
The learning support apparatus according to
(付記6)
付記1から5のいずれか1つに記載の学習支援装置を搭載した教師役のロボット。
(Appendix 6)
A teacher role robot equipped with the learning support device according to any one of
(付記7)
付記6に記載の教師役のロボットと、
前記学習者と共に前記教師役のロボットから支援を受ける生徒役のロボットと、を備える、
学習支援システム。
(Appendix 7)
A robot as a teacher as described in appendix 6,
A student role robot that receives support from the teacher role robot together with the learner,
Learning support system.
(付記8)
前記生徒役のロボットは、
前記学習者の状態によって変化する生体情報を取得する第2の生体情報取得手段と、
前記第2の生体情報取得手段が取得した前記生体情報に基づいて、前記学習者に対する表現を決定する第2の表現決定手段と、を備える、
付記7に記載の学習支援システム。
(Appendix 8)
The student role robot is
Second biological information acquisition means for acquiring biological information that changes according to the state of the learner;
Second expression determination means for determining an expression for the learner based on the biological information acquired by the second biological information acquisition means,
The learning support system according to appendix 7.
(付記9)
前記生徒役のロボットは、前記教師役のロボットから、前記学習者の状態によって変化する生体情報を受信する、
付記8に記載の学習支援システム。
(Appendix 9)
The student role robot receives biometric information that changes depending on the state of the learner from the teacher role robot.
The learning support system according to attachment 8.
(付記10)
前記生徒役のロボットは、前記教師役のロボットから、前記学習者に対する表現を示す表現決定情報を受信する、付記7に記載の学習支援システム。
(Appendix 10)
The learning support system according to appendix 7, wherein the student role robot receives expression determination information indicating an expression for the learner from the teacher role robot.
(付記11)
学習者の状態によって変化する生体情報を取得する生体情報取得ステップと、
前記生体情報取得ステップで取得した前記生体情報に基づいて、前記学習者に対して実施する学習支援の内容を決定する学習指導内容決定ステップと、を備える、
学習支援方法。
(Appendix 11)
A biometric information acquisition step of acquiring biometric information that changes according to the state of the learner;
Based on the biometric information acquired in the biometric information acquisition step, a learning instruction content determination step for determining the content of learning support to be performed for the learner,
Learning support method.
(付記12)
コンピュータに、
学習者の状態によって変化する生体情報を取得する生体情報取得処理と、
前記生体情報取得処理で取得した前記生体情報に基づいて、前記学習者に対して実施する学習支援の内容を決定する学習指導内容決定処理と、を実行させる、
、プログラム。
(Appendix 12)
On the computer,
Biometric information acquisition processing for acquiring biometric information that changes depending on the state of the learner;
Based on the biometric information acquired in the biometric information acquisition process, a learning instruction content determination process for determining the content of learning support to be performed for the learner is executed.
,program.
1…学習支援システム、100…教師ロボット、110…制御部、111…生体情報解析部、112…学習状況判定部、113…擬似感情決定部、114…学習指導内容決定部、115…表現決定部、120…生体情報取得部、130…記憶部、140…表現部、141…音声出力部、142…可動部、150…通信部、200…生徒ロボット、210…制御部、211…生体情報解析部、212…学習状況判定部、213…擬似感情決定部、215…表現決定部、220…生体情報取得部、230…記憶部、240…表現部、241…音声出力部、242…可動部、250…通信部、300…通信端末、U…ユーザ(学習者)
DESCRIPTION OF
Claims (12)
前記生体情報取得手段が取得した前記生体情報に基づいて、前記学習者に対して実施する学習支援の内容を決定する学習指導内容決定手段と、を備える、
学習支援装置。 Biometric information acquisition means for acquiring biometric information that changes depending on the state of the learner;
Learning instruction content determination means for determining the content of learning support to be performed for the learner based on the biological information acquired by the biological information acquisition means,
Learning support device.
請求項1に記載の学習支援装置。 Expression determining means for determining an expression for the learner based on the biological information acquired by the biological information acquiring means;
The learning support apparatus according to claim 1.
前記表現決定手段は、前記生体情報と前記学習状況判定手段による判定結果に基づいて、前記学習者に対する表現を決定し、
前記学習指導内容決定手段は、前記生体情報と前記学習状況判定手段による判定結果とに基づいて、前記学習者に対して実施する学習支援の内容を決定する、
請求項2に記載の学習支援装置。 Learning status determination means for determining the learning status of the learner,
The expression determining means determines an expression for the learner based on the biological information and a determination result by the learning status determining means,
The learning instruction content determination means determines the content of learning support to be performed for the learner based on the biological information and the determination result by the learning status determination means.
The learning support apparatus according to claim 2.
前記表現決定手段は、前記生体情報と前記判定結果と前記擬似感情決定手段により決定された擬似感情とに基づいて、前記学習者に対する表現を決定し、
前記学習指導内容決定手段は、前記生体情報と前記判定結果と前記擬似感情決定手段により決定された擬似感情とに基づいて、前記学習者に対して実施する学習支援の内容を決定する、
請求項3に記載の学習支援装置。 Pseudo emotion determination means for determining one pseudo emotion from a plurality of pseudo emotions based on the pseudo personality selected by the learner from a plurality of pseudo characters,
The expression determining means determines an expression for the learner based on the biological information, the determination result, and the pseudo emotion determined by the pseudo emotion determining means,
The learning instruction content determination unit determines the content of learning support to be performed for the learner based on the biological information, the determination result, and the pseudo emotion determined by the pseudo emotion determination unit.
The learning support device according to claim 3.
請求項4に記載の学習支援装置。 Each of the plurality of pseudo emotions has a different weight corresponding to each of the plurality of pseudo personalities.
The learning support device according to claim 4.
前記学習者と共に前記教師役のロボットから支援を受ける生徒役のロボットと、を備える、
学習支援システム。 A robot as a teacher according to claim 6;
A student role robot that receives support from the teacher role robot together with the learner,
Learning support system.
前記学習者の状態によって変化する生体情報を取得する第2の生体情報取得手段と、
前記第2の生体情報取得手段が取得した前記生体情報に基づいて、前記学習者に対する表現を決定する第2の表現決定手段と、を備える、
請求項7に記載の学習支援システム。 The student role robot is
Second biological information acquisition means for acquiring biological information that changes according to the state of the learner;
Second expression determination means for determining an expression for the learner based on the biological information acquired by the second biological information acquisition means,
The learning support system according to claim 7.
請求項8に記載の学習支援システム。 The student role robot receives biometric information that changes depending on the state of the learner from the teacher role robot.
The learning support system according to claim 8.
前記生体情報取得ステップで取得した前記生体情報に基づいて、前記学習者に対して実施する学習支援の内容を決定する学習指導内容決定ステップと、を備える、
学習支援方法。 A biometric information acquisition step of acquiring biometric information that changes according to the state of the learner;
Based on the biometric information acquired in the biometric information acquisition step, a learning instruction content determination step for determining the content of learning support to be performed for the learner,
Learning support method.
学習者の状態によって変化する生体情報を取得する生体情報取得処理と、
前記生体情報取得処理で取得した前記生体情報に基づいて、前記学習者に対して実施する学習支援の内容を決定する学習指導内容決定処理と、を実行させる、
、プログラム。 On the computer,
Biometric information acquisition processing for acquiring biometric information that changes depending on the state of the learner;
Based on the biometric information acquired in the biometric information acquisition process, a learning instruction content determination process for determining the content of learning support to be performed for the learner is executed.
,program.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016059275A JP6756130B2 (en) | 2016-03-23 | 2016-03-23 | Learning support device, robot, learning support system, learning support method and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016059275A JP6756130B2 (en) | 2016-03-23 | 2016-03-23 | Learning support device, robot, learning support system, learning support method and program |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2017173546A true JP2017173546A (en) | 2017-09-28 |
JP2017173546A5 JP2017173546A5 (en) | 2019-04-25 |
JP6756130B2 JP6756130B2 (en) | 2020-09-16 |
Family
ID=59971147
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016059275A Active JP6756130B2 (en) | 2016-03-23 | 2016-03-23 | Learning support device, robot, learning support system, learning support method and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6756130B2 (en) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108428378A (en) * | 2018-05-24 | 2018-08-21 | 牡丹江师范学院 | Multi-functional elementary Chinese aiding device |
CN109697904A (en) * | 2019-02-28 | 2019-04-30 | 苏州阿杜机器人有限公司 | Robot wisdom classroom assisted teaching system and method |
CN110120170A (en) * | 2019-04-19 | 2019-08-13 | 安徽智训机器人技术有限公司 | A kind of educational robot with mood setting |
JP2019211762A (en) * | 2018-05-30 | 2019-12-12 | カシオ計算機株式会社 | Learning device, robot, learning support system, learning device control method, and program |
CN111684536A (en) * | 2018-03-05 | 2020-09-18 | 欧姆龙株式会社 | Apparatus for predicting weight of person, and apparatus and method for health management |
JP2021108046A (en) * | 2019-12-27 | 2021-07-29 | 有限会社ソリューションゲート | Learning support system |
JP6990472B1 (en) | 2021-03-23 | 2022-01-12 | ユニロボット株式会社 | A system for communicating with people and a program for that purpose |
JP7495699B1 (en) | 2023-12-01 | 2024-06-05 | 株式会社フォーサイト | Learning support system and learning support method |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000511304A (en) * | 1996-05-22 | 2000-08-29 | エージェント ベースド カリキュラー インコーポレイテッド | Agent-based instruction system and method |
JP2002505614A (en) * | 1998-04-16 | 2002-02-19 | クリエイター・リミテッド | Interactive toys |
JP2003021999A (en) * | 2001-07-06 | 2003-01-24 | Univ Saga | System and method for creating educational material |
JP2003200369A (en) * | 2001-12-26 | 2003-07-15 | Sony Corp | Robot device, control method for the same, artificial agent, storage control device and storage control method |
JP2005211232A (en) * | 2004-01-28 | 2005-08-11 | Victor Co Of Japan Ltd | Communication support apparatus |
US20080162142A1 (en) * | 2006-12-29 | 2008-07-03 | Industrial Technology Research Institute | Emotion abreaction device and using method of emotion abreaction device |
US20130178982A1 (en) * | 2012-01-06 | 2013-07-11 | Tit Shing Wong | Interactive personal robotic apparatus |
-
2016
- 2016-03-23 JP JP2016059275A patent/JP6756130B2/en active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000511304A (en) * | 1996-05-22 | 2000-08-29 | エージェント ベースド カリキュラー インコーポレイテッド | Agent-based instruction system and method |
JP2002505614A (en) * | 1998-04-16 | 2002-02-19 | クリエイター・リミテッド | Interactive toys |
JP2003021999A (en) * | 2001-07-06 | 2003-01-24 | Univ Saga | System and method for creating educational material |
JP2003200369A (en) * | 2001-12-26 | 2003-07-15 | Sony Corp | Robot device, control method for the same, artificial agent, storage control device and storage control method |
JP2005211232A (en) * | 2004-01-28 | 2005-08-11 | Victor Co Of Japan Ltd | Communication support apparatus |
US20080162142A1 (en) * | 2006-12-29 | 2008-07-03 | Industrial Technology Research Institute | Emotion abreaction device and using method of emotion abreaction device |
US20130178982A1 (en) * | 2012-01-06 | 2013-07-11 | Tit Shing Wong | Interactive personal robotic apparatus |
Non-Patent Citations (2)
Title |
---|
「PEPPER」がおすすめ料理のレシピをナビ! クックパットが動画提供を発表, JPN6020026951, ISSN: 0004312059 * |
小野哲雄: "コミュニケーションや協同学習を促進するロボットの状況適応的な振る舞いの生成", 第30回日本ロボット学会学術講演会予稿集DVD−ROM 2012年, JPN6020026949, 17 September 2012 (2012-09-17), ISSN: 0004312058 * |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111684536A (en) * | 2018-03-05 | 2020-09-18 | 欧姆龙株式会社 | Apparatus for predicting weight of person, and apparatus and method for health management |
CN108428378A (en) * | 2018-05-24 | 2018-08-21 | 牡丹江师范学院 | Multi-functional elementary Chinese aiding device |
JP2019211762A (en) * | 2018-05-30 | 2019-12-12 | カシオ計算機株式会社 | Learning device, robot, learning support system, learning device control method, and program |
JP7263895B2 (en) | 2018-05-30 | 2023-04-25 | カシオ計算機株式会社 | LEARNING DEVICE, ROBOT, LEARNING SUPPORT SYSTEM, LEARNING DEVICE CONTROL METHOD AND PROGRAM |
CN109697904A (en) * | 2019-02-28 | 2019-04-30 | 苏州阿杜机器人有限公司 | Robot wisdom classroom assisted teaching system and method |
CN110120170A (en) * | 2019-04-19 | 2019-08-13 | 安徽智训机器人技术有限公司 | A kind of educational robot with mood setting |
JP2021108046A (en) * | 2019-12-27 | 2021-07-29 | 有限会社ソリューションゲート | Learning support system |
JP6990472B1 (en) | 2021-03-23 | 2022-01-12 | ユニロボット株式会社 | A system for communicating with people and a program for that purpose |
JP2022147506A (en) * | 2021-03-23 | 2022-10-06 | ユニロボット株式会社 | System and program for doing communications with people |
JP7495699B1 (en) | 2023-12-01 | 2024-06-05 | 株式会社フォーサイト | Learning support system and learning support method |
Also Published As
Publication number | Publication date |
---|---|
JP6756130B2 (en) | 2020-09-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6756130B2 (en) | Learning support device, robot, learning support system, learning support method and program | |
CN107225578B (en) | Robot control device, robot control method and system | |
CN108182830B (en) | Robot, robot control device, method, system, and storage medium | |
Pennington et al. | Using technology for pronunciation teaching, learning, and assessment | |
JP6419924B1 (en) | Learning support system and learning support method | |
KR101973791B1 (en) | Method for correcting voice | |
JP2017201342A (en) | Language Learning Robot Software | |
Zwozdiak-Myers et al. | Communicating with pupils | |
Couper | Applying theories of language and learning to teaching pronunciation | |
Underhill | Cinderella, integration and the pronunciation turn | |
JP2006068489A (en) | Interactive pet robot | |
JP7263895B2 (en) | LEARNING DEVICE, ROBOT, LEARNING SUPPORT SYSTEM, LEARNING DEVICE CONTROL METHOD AND PROGRAM | |
Thomson | The relationship between L2 speech perception and production | |
US11587460B2 (en) | Method and system for adaptive language learning | |
Turketi | Teaching English to children with ADHD | |
Ali | Towards the development of a comprehensive pedagogical framework for pronunciation training based on adapted automatic speech recognition systems | |
JP2007148170A (en) | Foreign language learning support system | |
KR101270010B1 (en) | Method and the system of learning words based on speech recognition | |
FARMANOV et al. | The main techniques of teaching different types of pronunciation in efl classes | |
Rubin | Development and evaluation of software tools for speech therapy | |
KR101005768B1 (en) | A language studying device | |
CN110556095A (en) | Learning device, robot, learning support system, learning device control method, and storage medium | |
Cavalcante et al. | Proof-of-concept evaluation of the mobile and personal speech assistant for the recognition of disordered speech | |
Stephens et al. | The Power of Live Delivery: Reading Empowered by Orature or Audio? | |
Kruijff-Korbayová et al. | A conversational system for multi-session child-robot interaction with several games |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190312 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190312 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20191127 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200107 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200218 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200728 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200810 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6756130 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |