JP6763167B2 - Learning support device, learning support system, learning support method, robot and program - Google Patents

Learning support device, learning support system, learning support method, robot and program Download PDF

Info

Publication number
JP6763167B2
JP6763167B2 JP2016059277A JP2016059277A JP6763167B2 JP 6763167 B2 JP6763167 B2 JP 6763167B2 JP 2016059277 A JP2016059277 A JP 2016059277A JP 2016059277 A JP2016059277 A JP 2016059277A JP 6763167 B2 JP6763167 B2 JP 6763167B2
Authority
JP
Japan
Prior art keywords
distance
learning
learning support
user
support device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016059277A
Other languages
Japanese (ja)
Other versions
JP2017173548A (en
Inventor
中村 利久
利久 中村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2016059277A priority Critical patent/JP6763167B2/en
Publication of JP2017173548A publication Critical patent/JP2017173548A/en
Application granted granted Critical
Publication of JP6763167B2 publication Critical patent/JP6763167B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Electrically Operated Instructional Devices (AREA)
  • Toys (AREA)

Description

本発明は、学習支援装置、学習支援システム、学習支援方法、ロボット及びプログラムに関する。 The present invention relates to a learning support device, a learning support system, a learning support method, a robot and a program.

教育情報を記憶し、ユーザに教育情報を提供する自律型のロボット装置が知られている(例えば、特許文献1参照)。このロボット装置は、音声認識機能、映像認識機能、アクション機能などを備え、ユーザと一対一でインタラクティブに対応しながら、教育情報を提供する。 An autonomous robot device that stores educational information and provides educational information to a user is known (see, for example, Patent Document 1). This robot device is equipped with a voice recognition function, a video recognition function, an action function, and the like, and provides educational information while interacting with the user on a one-to-one basis.

特開2001−242780号公報Japanese Unexamined Patent Publication No. 2001-242780

語学学習等では、相手との位置関係、例えば、相手との距離や相対的な方向に応じて、使用すべき語彙や表現が異なる場合がある。また、多人数での会話の場面でも、参加者の空間的な位置関係により、使用すべき語彙や表現が異なる場合がある。
しかし、引用文献1に記載のロボット装置は、ユーザとのインタラクティブな応答は可能であるものの、相手との距離や位置関係、多人数が参加する場面等に応じた対応が困難である。
In language learning and the like, the vocabulary and expressions to be used may differ depending on the positional relationship with the other party, for example, the distance to the other party and the relative direction. Also, even in a conversation with a large number of people, the vocabulary and expressions to be used may differ depending on the spatial positional relationship of the participants.
However, although the robot device described in Cited Document 1 is capable of interactively responding to the user, it is difficult to respond according to the distance and positional relationship with the other party, the situation in which a large number of people participate, and the like.

本発明は、上記実情に鑑みてなされたものであり、位置関係に応じた対応が可能な学習支援装置、学習支援システム、学習支援方法、ロボット及びプログラムを提供することを目的とする。 The present invention has been made in view of the above circumstances, and an object of the present invention is to provide a learning support device, a learning support system, a learning support method, a robot, and a program capable of responding according to a positional relationship.

上記目的を達成するため、本発明に係る学習支援装置は、
離情報記憶手段と、
習情報を出力する出力手段と、を備え、
前記距離情報記憶手段は、前記出力手段と画像を表示する画像表示手段との第1の距離と、ユーザと前記画像表示手段との第2の距離とを記憶し
前記出力手段は、前記第1の距離に対応する表現で学習情報を出力し、
前記ユーザからの応答を取得し、該応答が前記第2の距離に適合するものであるか否かを判別する手段をさらに備える。
In order to achieve the above object, the learning support device according to the present invention
And the distance information storage means,
Comprising output means for outputting the learning information, and
The distance information storage means stores a first distance between the output means and an image display means for displaying an image, and a second distance between the user and the image display means .
The output means outputs learning information in an expression corresponding to the first distance.
Further provided is a means for obtaining a response from the user and determining whether or not the response conforms to the second distance.

本発明に係る学習支援システムは、
上述の学習支援装置と、生徒役の前記学習支援装置と、を備える。
The learning support system according to the present invention
The above-mentioned learning support device and the above-mentioned learning support device for a student role are provided.

本発明に係るロボットは、上述の学習支援装置を搭載した教師役のロボットである。 The robot according to the present invention is a robot acting as a teacher equipped with the above-mentioned learning support device.

本発明に係るロボットは、上述の学習支援装置を搭載した生徒役のロボットである。 The robot according to the present invention is a student-role robot equipped with the above-mentioned learning support device.

本発明に係る学習支援方法は、
コンピュータが、
出力手段と画像を表示する画像表示手段との第1の距離と、ユーザと前記画像表示手段との第2の距離とを記憶し、
前記第1の距離に対応する表現で学習情報を前記出力手段から出力し、
前記ユーザからの応答を取得し、該応答が前記第2の距離に適合するものであるか否かを判別する。
The learning support method according to the present invention
The computer
A first distance between the output means and the image display means for displaying an image and a second distance between the user and the image display means are stored.
The learning information is output from the output means in the expression corresponding to the first distance, and the learning information is output.
The response from the user is acquired, and it is determined whether or not the response conforms to the second distance.

本発明に係るプログラムは、
コンピュータに、
出力手段と画像を表示する画像表示手段との第1の距離と、ユーザと前記画像表示手段との第2の距離とを記憶させ、
前記第1の距離に対応する表現で学習情報を前記出力手段から出力させ、
前記ユーザからの応答を取得し、該応答が前記第2の距離に適合するものであるか否かを判別させる。
The program according to the present invention
On the computer
A first distance between the output means and the image display means for displaying an image and a second distance between the user and the image display means are stored.
The learning information is output from the output means in the expression corresponding to the first distance.
The response from the user is acquired, and it is determined whether or not the response conforms to the second distance.

本発明によれば、相対距離に対応した学習情報が提供可能となる。 According to the present invention, learning information corresponding to a relative distance can be provided.

実施形態に係る学習支援システムの構成を示す概略図である。It is a schematic diagram which shows the structure of the learning support system which concerns on embodiment. 実施形態に係る上位装置の構成を示すブロック図である。It is a block diagram which shows the structure of the higher-level apparatus which concerns on embodiment. 実施形態を説明するための英語会話シナリオの一例を示す図である。It is a figure which shows an example of the English conversation scenario for demonstrating an embodiment. 実施形態を説明するための英語会話シナリオの一例を示す図である。It is a figure which shows an example of the English conversation scenario for demonstrating an embodiment. (a)実施形態に係るロボットの構成を示す概略図である。(b)実施形態に係る表示装置の構成を示す概略図である。(A) It is a schematic diagram which shows the structure of the robot which concerns on embodiment. (B) It is a schematic diagram which shows the structure of the display device which concerns on embodiment. (a)各学習支援装置の相対的な位置関係の求め方を説明する図である。(b)各学習支援装置とユーザの相対的な位置関係の求め方を説明する図である。(A) It is a figure explaining how to obtain the relative positional relationship of each learning support device. (B) It is a figure explaining how to obtain the relative positional relationship between each learning support device and a user. 各学習支援装置間の距離と、各学習支援装置とユーザとの間の距離を求める処理のフローチャートである。It is a flowchart of the process of obtaining the distance between each learning support device, and the distance between each learning support device and a user. 求められた各学習支援装置間の距離が記憶されたテーブルである。It is a table in which the required distances between the learning support devices are stored. その他の実施形態に係る学習支援装置の構成図である。It is a block diagram of the learning support apparatus which concerns on other embodiment.

以下、本発明の実施形態に係る学習支援装置、学習支援システム、学習支援方法、ロボット及びプログラムを、図面を参照して説明する。 Hereinafter, the learning support device, the learning support system, the learning support method, the robot, and the program according to the embodiment of the present invention will be described with reference to the drawings.

本実施形態に係る学習支援システムは、学習者であるユーザと教師役と生徒役のロボット相互間の距離・方向等の位置関係に応じて、適切な語彙・表現などを選択して出力する英語学習用の学習支援システムである。各ロボットは、本実施の形態に係る学習支援装置を内蔵している。 The learning support system according to the present embodiment selects and outputs appropriate vocabulary and expressions according to the positional relationship between the learner user and the robots as teachers and students, such as distances and directions. It is a learning support system for learning. Each robot has a built-in learning support device according to the present embodiment.

図1に示すように、本実施の形態に係る学習支援システム100は、上位装置10と、複数の学習支援装置20(20A〜20D)とから構成される。学習支援装置20は、教師役ロボット20Aと、生徒役ロボット20B、20Cと、黒板代わりとなる表示装置20Dとに搭載されていている。学習支援装置20A〜20Dは、それぞれ、上位装置10に制御される。ユーザ、即ち、受講者STは、生徒役ロボット20B、20Cと共に生徒として授業に参加し、教師役ロボット20Aの指導に従って学習を進める。 As shown in FIG. 1, the learning support system 100 according to the present embodiment is composed of a higher-level device 10 and a plurality of learning support devices 20 (20A to 20D). The learning support device 20 is mounted on a teacher role robot 20A, a student role robots 20B and 20C, and a display device 20D instead of a blackboard. The learning support devices 20A to 20D are each controlled by the host device 10. The user, that is, the student ST, participates in the lesson as a student together with the student robots 20B and 20C, and proceeds with learning according to the guidance of the teacher robot 20A.

上位装置10は、学習支援装置20を制御して、学習の進行を制御する装置であり、図2に示すように、制御部11,ROM(Read Only Memory)12、RAM(Random Access Memory)13、外部装置と通信する外部通信装置14、学習支援装置20A〜20Dと通信するための内部通信装置15、から構成される。 The host device 10 is a device that controls the learning support device 20 to control the progress of learning, and as shown in FIG. 2, the control unit 11, the ROM (Read Only Memory) 12, and the RAM (Random Access Memory) 13 , An external communication device 14 that communicates with an external device, and an internal communication device 15 for communicating with learning support devices 20A to 20D.

制御部11は、CPU(Central Processing Unit)等から構成され、ROM12に記憶された学習進行プログラムを実行し、ROM12に記憶されている学習用の英語会話のシナリオを読み出し、シナリオに従って、各学習支援装置20の役割設定に応じて、相互に会話させながら、学習を進行する。 The control unit 11 is composed of a CPU (Central Processing Unit) and the like, executes a learning progress program stored in the ROM 12, reads out a learning English conversation scenario stored in the ROM 12, and supports each learning according to the scenario. Learning proceeds while having conversations with each other according to the role setting of the device 20.

ROM12は、制御部11が実行する学習進行プログラムと、複数の学習用の英会話のシナリオを記憶する。 The ROM 12 stores a learning progress program executed by the control unit 11 and a plurality of learning English conversation scenarios.

ROM12に記憶されている英会話のシナリオは、学習支援装置20A〜20C(ロボット20A〜20C)とユーザとの会話の内容や表示装置20Dの表示内容等を含む。会話中には、話者と相手との位置関係に応じて変化する表現を含む。 The English conversation scenario stored in the ROM 12 includes the content of the conversation between the learning support devices 20A to 20C (robots 20A to 20C) and the user, the display content of the display device 20D, and the like. During the conversation, expressions that change according to the positional relationship between the speaker and the other party are included.

シナリオは予め任意に作成されており、図3と図4に示されるシナリオを例として、学習の進行について以下説明する。 The scenario is arbitrarily created in advance, and the progress of learning will be described below by taking the scenarios shown in FIGS. 3 and 4 as examples.

図3に示すシナリオ1は、第1行で、教師役ロボット20Aと生徒役ロボット20Bが、互いに「Hello!」と挨拶して開始し、続いて、第2行で、教師役ロボット20Aが「How are you?」と問いかけ、第3行で、生徒役ロボット20Bが「I'm fine. Thank you.」と返し、続いて、第4行で、表示装置20Dが「りんご」の画像を表示する、ことが特定されている。なお、「りんご」の画像は、その画像データを記憶した記憶領域のアドレスなどで適宜特定される。 In scenario 1 shown in FIG. 3, the teacher robot 20A and the student robot 20B start by greeting each other with "Hello!" In the first line, and then the teacher robot 20A "" in the second line. Asked "How are you?", And in the third line, the student robot 20B returned "I'm fine. Thank you.", And then in the fourth line, the display device 20D displayed the image of "apple". It is specified to do. The image of the "apple" is appropriately specified by the address of the storage area in which the image data is stored.

続いて、第5行で、教師役ロボット20Aが「What is displayed on the screen?」とユーザSTに問いかけ、その時刻Tを記憶する。
続いて、第6行で、教師役ロボット20AがユーザSTからの音声を取得したか否かを判別し、Yesなら第8行へ、Noなら第7行に進む。
第6行でNoの場合、第7行で、教師役ロボット20Aは、時刻Tから20秒経過したか否かを判別し、Yesなら第9行へ、Noなら第6行に進む。
第6行でYesの場合、第8行で、教師役ロボット20AがユーザSTの音声が「An apple.」であるか否かを判別し、YESであれば、「Yes, very good.」と発声して、第9行に進み、NOであれば、「No.」と発声し、第6行の処理に戻る。
以下、同様の学習処理が進行する。
Then, in the fifth line, the teacher robot 20A asks the user ST "What is displayed on the screen?" And stores the time T.
Subsequently, in the sixth line, it is determined whether or not the teacher robot 20A has acquired the voice from the user ST, and if Yes, the process proceeds to the eighth line, and if No, the process proceeds to the seventh line.
If No in the 6th line, the teacher robot 20A determines in the 7th line whether or not 20 seconds have passed from the time T, and if Yes, the process proceeds to the 9th line.
In the case of Yes in the 6th line, in the 8th line, the teacher robot 20A determines whether or not the voice of the user ST is "An apple.", And if YES, "Yes, very good." Speak and proceed to the 9th line. If NO, say "No." and return to the processing of the 6th line.
Hereinafter, the same learning process proceeds.

一方、図4に示すシナリオ2では、第1行で、表示装置20Dが赤いりんごの画像を表示する。
次に、第2行で、教師用ロボット20Aは、表示装置20Dとの距離d(A−D)が、閾値TH1以下であるか否かを判別する。なお、閾値TH1は、単語の「This」と「That」を使い分ける基準となる距離である。Yesの場合、第3行に進み、Noの場合、第4行に進む。
On the other hand, in scenario 2 shown in FIG. 4, the display device 20D displays an image of a red apple in the first line.
Next, in the second line, the teacher robot 20A determines whether or not the distance d (AD) from the display device 20D is equal to or less than the threshold value TH1. The threshold value TH1 is a reference distance for properly using the words "This" and "That". If Yes, the process proceeds to the third line, and if No, the process proceeds to the fourth line.

第2行でYesの場合、第3行において、教師用ロボット20Aは、表示装置20Dを指さし、「What is this?」と発声し、この発声時刻Tを記憶する。
第2行でNoの場合、第4行において、教師用ロボット20Aは、表示装置20Dを指さし、「What is that?」と発声し、この発声時刻Tを記憶する。
このように、このシナリオでは、距離に応じて、単語、表現、選択肢、動作の内容を変更している。
In the case of Yes in the second line, in the third line, the teacher robot 20A points to the display device 20D, utters "What is this?", And stores the utterance time T.
When No in the second line, in the fourth line, the teacher robot 20A points to the display device 20D, utters "What is that?", And stores the utterance time T.
In this way, in this scenario, the contents of words, expressions, choices, and actions are changed according to the distance.

第5行で、教師役ロボット20AがユーザSTからの音声を取得したか否かを判別し、Yesなら第7行へ、Noなら第6行に進む。
第5行でNoの場合、第6行で、教師用ロボット20Aは、発声時刻Tから回答の制限時間である20秒を経過したか否かを判別する。Yes(回答の制限時間を経過した)の場合、制限時間内に回答が無かったので、第23行に進み対応する処理を行う。一方、No(回答の制限時間を経過していない)の場合、第5行に戻って回答を待機する。
なお、第23行以降の処理については、図示はされていないが、予め用意されているものとする。
In the fifth line, it is determined whether or not the teacher robot 20A has acquired the voice from the user ST, and if Yes, the process proceeds to the seventh line, and if No, the process proceeds to the sixth line.
If No in the 5th line, in the 6th line, the teacher robot 20A determines whether or not 20 seconds, which is the time limit for answering, has elapsed from the utterance time T. In the case of Yes (the time limit for answering has passed), there was no reply within the time limit, so the process proceeds to the 23rd line and the corresponding processing is performed. On the other hand, if No (the time limit for answering has not passed), the process returns to the fifth line and waits for a reply.
The processes from the 23rd line onward are not shown, but are prepared in advance.

第5行でYesの場合、第7行で、教師用ロボット20Aは、ユーザSTと表示装置20Dの距離d(ST−D)が、閾値TH1以下であるか否かを判別する。Yesの場合、第8行に進み、Noの場合、第9行に進む。
第7行でYesの場合、第8行で、教師役ロボット20Aは、ユーザSTの発声が「This is an apple.」であるか否かを判別し、Yesならば、「Yes, very good!」と発声し、第24行に進み、次の学習に進む。一方、Noならば、「No.」と発声し、第25行で、正解を教示する。
In the case of Yes in the fifth line, in the seventh line, the teacher robot 20A determines whether or not the distance d (ST-D) between the user ST and the display device 20D is equal to or less than the threshold value TH1. In the case of Yes, the process proceeds to the 8th line, and in the case of No, the process proceeds to the 9th line.
In the case of Yes in the 7th line, in the 8th line, the teacher robot 20A determines whether or not the utterance of the user ST is "This is an apple.", And if Yes, "Yes, very good!" Proceed to the 24th line and proceed to the next learning. On the other hand, if No, say "No." and teach the correct answer on the 25th line.

第7行でNoの場合、第9行で、教師役ロボット20Aは、ユーザSTの発声が「That is an apple.」であるか否かを判別し、Yesならば、「Yes, very good!」と発声し、第24行に進み、次の学習に進む。一方、Noならば、「No.」と発声し、第26行で、正解を教示する。
以下、同様の学習処理が進行する。
If No in the 7th line, the teacher robot 20A determines in the 9th line whether or not the utterance of the user ST is "That is an apple.", And if Yes, "Yes, very good!" Proceed to the 24th line and proceed to the next learning. On the other hand, if No, say "No." and teach the correct answer in the 26th line.
Hereinafter, the same learning process proceeds.

図2に示すRAM13は、制御部11のワークエリアとして機能する。 The RAM 13 shown in FIG. 2 functions as a work area of the control unit 11.

外部通信装置14は、外部装置と通信を行うための装置であり、NTP(Network Time Protocol)サーバ、GPS(Global Positioning System)衛星等から現在時刻情報を取得する。 The external communication device 14 is a device for communicating with an external device, and acquires current time information from an NTP (Network Time Protocol) server, a GPS (Global Positioning System) satellite, or the like.

内部通信装置15は、学習支援装置20A〜20Dと通信を行い、学習進行指示や現在時刻情報等を送受信する。 The internal communication device 15 communicates with the learning support devices 20A to 20D, and transmits / receives learning progress instructions, current time information, and the like.

図1に示す教師役ロボット20Aは、ユーザSTの教師を勤めるロボットであり、上位装置10の指示に従って、上述したシナリオに沿って、教師として講義を行う。 The teacher-acting robot 20A shown in FIG. 1 is a robot that serves as a teacher of the user ST, and gives a lecture as a teacher according to the above-mentioned scenario according to the instruction of the host device 10.

一方、生徒役ロボット20Bと20Cは、ユーザSTと共に生徒を勤めるロボットであり、上位装置10の指示に従って、上述したシナリオに従って、生徒として講義を受講する。 On the other hand, the student role robots 20B and 20C are robots that work as students together with the user ST, and take a lecture as a student according to the instruction of the host device 10 and the above-mentioned scenario.

各学習支援装置20は、それぞれ、ユーザSTが興味を示したり、愛着を感じたりするような、動物、キャラクタ、怪獣、妖怪等のぬいぐるみなどに収容される。 Each learning support device 20 is housed in a stuffed animal, a character, a monster, a youkai, or the like that the user ST is interested in or feels attached to.

教師役ロボット20Aと生徒役ロボット20Bと20Cは、実質的に同一の構成であり、図5(a)に示すように、制御部21,ROM22、RAM23、内部通信装置24、音波出力装置25、音波入力装置26、動作制御装置27、センサ群28とから構成される。 The teacher role robot 20A and the student role robots 20B and 20C have substantially the same configuration, and as shown in FIG. 5A, the control unit 21, ROM 22, RAM 23, internal communication device 24, sound wave output device 25, It is composed of a sound wave input device 26, an operation control device 27, and a sensor group 28.

制御部21は、CPU等から構成され、ROM22に記憶された学習進行プログラムを実行し、上位装置10からの指示に従って、学習処理を進行する。 The control unit 21 is composed of a CPU and the like, executes a learning progress program stored in the ROM 22, and proceeds with the learning process according to an instruction from the host device 10.

ROM22は、マスクROM,フラッシュメモリ等から構成され、制御部21が実行する学習進行プログラムを記憶する。 The ROM 22 is composed of a mask ROM, a flash memory, and the like, and stores a learning progress program executed by the control unit 21.

RAM23は、制御部21のワークエリアとして機能する。 The RAM 23 functions as a work area of the control unit 21.

内部通信装置24は、無線通信により、上位装置10の内部通信装置15と情報を送受信するためのものである。教師役ロボット20A、生徒役ロボット20B及び20Cは、内部通信装置24を介して、上位制御装置10から現在時刻情報や学習内容に係るデータ等を取得する。 The internal communication device 24 is for transmitting and receiving information to and from the internal communication device 15 of the host device 10 by wireless communication. The teacher role robot 20A, the student role robots 20B, and 20C acquire the current time information, data related to the learning content, and the like from the host control device 10 via the internal communication device 24.

音波出力装置25は、スピーカ等から構成され、制御部21の制御に従って、可聴音及び超音波を出力する。
音波入力装置26は、外部からの音波を検知するためのマイクロフォンアレイ、超音波センサ、A/D(Analog/Digital)変換器やノイズ除去機能を有する装置等から構成され、音声及び超音波を入力し、制御部21に供給する。
The sound wave output device 25 is composed of a speaker or the like, and outputs audible sound waves and ultrasonic waves under the control of the control unit 21.
The sound wave input device 26 is composed of a microphone array for detecting sound waves from the outside, an ultrasonic sensor, an A / D (Analog / Digital) converter, a device having a noise removing function, and the like, and inputs voice and ultrasonic waves. Then, it is supplied to the control unit 21.

ロボット20A〜20Cそれぞれの動作制御装置27は、ロボット20A〜20Cそれぞれの首、腕等の可動部の動きを制御する。
センサ群28は、方位計、タイマ、温度計等の各種センサを含み、測定値を制御部21に供給する。
The motion control device 27 for each of the robots 20A to 20C controls the movement of movable parts such as the neck and arms of each of the robots 20A to 20C.
The sensor group 28 includes various sensors such as an azimuth meter, a timer, and a thermometer, and supplies measured values to the control unit 21.

図1に示す表示装置20Dは、学習用の種々の画像を表示するものであり、図5(b)に示すように、制御部21、ROM22、RAM23、内部通信装置24、音波出力装置25、音波入力装置26、センサ群28、及び表示部29を備える。 The display device 20D shown in FIG. 1 displays various images for learning, and as shown in FIG. 5B, the control unit 21, ROM 22, RAM 23, internal communication device 24, sound wave output device 25, It includes a sound wave input device 26, a sensor group 28, and a display unit 29.

制御部21〜音波入力装置26の構成は、教師用ロボット20Aの構成と同一である。 The configuration of the control units 21 to the sound wave input device 26 is the same as that of the teacher robot 20A.

表示部29は、液晶表示装置等から構成され、授業における黒板と同様の機能を有し、制御部21の制御に従って文字、画像等を表示する。 The display unit 29 is composed of a liquid crystal display device or the like, has a function similar to that of a blackboard in class, and displays characters, images, and the like under the control of the control unit 21.

図3、図4に例示したシナリオで示したように、学習支援システム100では、近くにあるものを指すときは「this」、遠くにあるものを指すときは「that」というように、距離に応じて表現を変化させる。換言すると、距離に応じて、記憶している複数の選択肢の中から選択する選択肢を切り替え、あるいは、距離に応じて動作の内容を変更する。また、相手を指し示すこともある。このため、学習支援装置20は、ユーザSTと各学習支援装置20との間の位置関係を把握する。 As shown in the scenarios illustrated in FIGS. 3 and 4, in the learning support system 100, when pointing to something near, "this", when pointing to something far away, "that", and so on. Change the expression accordingly. In other words, the option to be selected from the plurality of stored options is switched according to the distance, or the content of the operation is changed according to the distance. It may also point to the other party. Therefore, the learning support device 20 grasps the positional relationship between the user ST and each learning support device 20.

以下、ユーザSTと各学習支援装置20との間の位置関係を求める手法を説明する。 Hereinafter, a method for obtaining the positional relationship between the user ST and each learning support device 20 will be described.

本実施の形態においては、各学習支援装置20から発せられた音波が、他の学習支援装置20に伝搬する時間から、各学習支援装置20間の距離を求める。距離の測定に使用する音波は、授業の邪魔にならないよう非可聴音、例えば、超音波を使用する。 In the present embodiment, the distance between the learning support devices 20 is obtained from the time when the sound waves emitted from the learning support devices 20 propagate to the other learning support devices 20. As the sound wave used for measuring the distance, an inaudible sound wave, for example, an ultrasonic wave is used so as not to interfere with the lesson.

教師役ロボット20Aが、音波出力装置25から音波を出射してから、生徒役ロボット20B、20Cが音波入力装置26で音波を検出するまでの時間をTab、Tacとすると、教師役ロボット20Aから生徒役ロボット20B、20Cまでの距離は、それぞれ、V*Tab、V*Tacと表現することができる。さらに、生徒役ロボット20Bが、音波出力装置25から音波を出射してから、生徒役ロボット20Cが音波入力装置26で音波を検出するまでの時間をTbcとすると、生徒役ロボット20Bから生徒役ロボット20Cまでの距離は、V*Tbcと表現することができる。ここで、Vは空気中の音の速度であり、331.5+ 0.61t m/s(tは摂氏温度)で表される。センサ群28中の温度計で求めた温度tから正確な音速を求めて使用してもよく、あるいは、固定の近似値、例えば、345m/sを使用してもよい。 Assuming that the time from when the teacher robot 20A emits a sound wave from the sound wave output device 25 until the student robots 20B and 20C detect the sound wave by the sound wave input device 26 is Tab and Tac, the student from the teacher robot 20A. The distances to the role robots 20B and 20C can be expressed as V * Tab and V * Tac, respectively. Further, assuming that the time from when the student role robot 20B emits a sound wave from the sound wave output device 25 until the student role robot 20C detects a sound wave by the sound wave input device 26 is Tbc, the student role robot 20B to the student role robot The distance to 20C can be expressed as V * Tbc. Here, V is the velocity of sound in the air and is represented by 331.5 + 0.61 t m / s (t is the temperature in degrees Celsius). An accurate sound velocity may be obtained from the temperature t obtained by the thermometer in the sensor group 28 and used, or a fixed approximate value, for example, 345 m / s may be used.

これら3つの距離を求めることで、図6(a)に示すように、3角形の3辺の距離が求められ、学習支援装置20A〜20Cの位置関係を特定することができる。表示装置20Dの位置も同様に求めることができる。 By obtaining these three distances, as shown in FIG. 6A, the distances of the three sides of the polygon can be obtained, and the positional relationship between the learning support devices 20A to 20C can be specified. The position of the display device 20D can be obtained in the same manner.

次に、ユーザSTから、学習支援装置20A〜20Cまでの距離をLa〜Lcとし、ユーザSTが発した音声を学習支援装置20A〜20Cの音波入力装置26が受信したタイミングをTA、TB,TCとすると、次の3式が成立する。
La−Lb=V*(TA−TB)
La−Lc=V*(TA−TC)
Lb−Lc=V*(TB−TC)
Next, the distance from the user ST to the learning support devices 20A to 20C is set to La to Lc, and the timing at which the sound wave input device 26 of the learning support devices 20A to 20C receives the voice emitted by the user ST is TA, TB, TC. Then, the following three equations hold.
La-Lb = V * (TA-TB)
La-Lc = V * (TA-TC)
Lb-Lc = V * (TB-TC)

従って、学習支援装置20A〜20Cの音波入力装置26が受信したユーザSTの音声の受信タイミングの差を求めれば、ユーザSTと各学習支援装置20A〜20Cまでの距離と配置を求めることができる。
上位装置10の制御部11は、学習支援装置20A〜20Dを制御して各距離を求め、求めた距離に基づいて、学習支援装置20A〜20DとユーザSTの空間配置を示すマップを作成し、作成したマップをRAM13に格納する。上位装置10は、RAM13に格納しているマップを適宜更新すると共に学習支援装置20A〜20Dに適宜提供する。学習支援装置20A〜20Dは、提供されたマップを距離情報記憶手段として機能するRAM23に格納させる。
Therefore, if the difference in the reception timing of the voice of the user ST received by the sound wave input devices 26 of the learning support devices 20A to 20C is obtained, the distance and arrangement between the user ST and each of the learning support devices 20A to 20C can be obtained.
The control unit 11 of the host device 10 controls the learning support devices 20A to 20D to obtain each distance, and based on the obtained distance, creates a map showing the spatial arrangement of the learning support devices 20A to 20D and the user ST. The created map is stored in the RAM 13. The host device 10 appropriately updates the map stored in the RAM 13 and appropriately provides the maps to the learning support devices 20A to 20D. The learning support devices 20A to 20D store the provided map in the RAM 23 that functions as a distance information storage means.

上記の処理のため、上位装置10の制御部11は、学習支援装置20A〜20Dが共通の時刻情報を保有するように、外部通信装置14を介して正確な時刻情報を取得し、内部通信装置15を介して、学習支援装置20A〜20Dに通知することにより、タイマを同期制御する。 For the above processing, the control unit 11 of the host device 10 acquires accurate time information via the external communication device 14 so that the learning support devices 20A to 20D have common time information, and the internal communication device. The timer is synchronously controlled by notifying the learning support devices 20A to 20D via the 15.

次に、上記構成を有する学習支援システム100の動作を説明する。 Next, the operation of the learning support system 100 having the above configuration will be described.

まず、各学習支援装置20A〜20Dは、適宜の間隔を置いて配置され、ユーザ(生徒)STは、この中に参加する。 First, the learning support devices 20A to 20D are arranged at appropriate intervals, and the user (student) ST participates in them.

学習をスタートすると、上位装置10の制御部11は、まず、図7に示す準備処理を開始し、内部通信装置15を介して学習支援装置20A〜20Dのタイマの同期を取る(ステップS1)。 When the learning is started, the control unit 11 of the host device 10 first starts the preparatory process shown in FIG. 7, and synchronizes the timers of the learning support devices 20A to 20D via the internal communication device 15 (step S1).

次に、制御部11は、1台の学習支援装置20を選択する(ステップS2)。
制御部11は、内部通信装置15を介して、選択した学習支援装置20に、超音波の出力を指示し、他の学習支援装置20に超音波の受信を指示する(ステップS3)。ここでは、選択した学習支援装置20を教師役ロボット20A、他の学習支援装置20を学習支援装置20B〜20Dとする。
Next, the control unit 11 selects one learning support device 20 (step S2).
The control unit 11 instructs the selected learning support device 20 to output ultrasonic waves and instructs another learning support device 20 to receive ultrasonic waves via the internal communication device 15 (step S3). Here, the selected learning support device 20 is a teacher robot 20A, and the other learning support devices 20 are learning support devices 20B to 20D.

学習支援装置20Aの制御部21は、内部通信装置24を介して上位装置10からの指示を受信し、音波出力装置25から超音波を出射する。他の学習支援装置20B〜20Dの制御部21は、内部通信装置24を介して上位装置10からの指示を受信し、音波入力装置26で教師役ロボット20Aから出射された超音波を受信する。 The control unit 21 of the learning support device 20A receives an instruction from the host device 10 via the internal communication device 24, and emits ultrasonic waves from the sound wave output device 25. The control units 21 of the other learning support devices 20B to 20D receive the instruction from the host device 10 via the internal communication device 24, and the sound wave input device 26 receives the ultrasonic waves emitted from the teacher robot 20A.

教師役ロボット20Aの制御部21は、超音波を出射した時刻TAを、センサ群28内のタイマから読み取り、内部通信装置24を介して自己の識別情報と共に上位装置10に通知し、他の学習支援装置20B〜20Dは超音波の受信時刻TB〜TDを自己の識別情報と共に上位装置10に通知する。 The control unit 21 of the teacher robot 20A reads the time TA at which the ultrasonic waves are emitted from the timer in the sensor group 28, notifies the host device 10 together with its own identification information via the internal communication device 24, and performs other learning. The support devices 20B to 20D notify the host device 10 of the ultrasonic reception times TB to TD together with their own identification information.

上位装置10の制御部11は、各学習支援装置20から、超音波の出射時刻と受信時刻とを受信する(ステップS4)。 The control unit 11 of the host device 10 receives the ultrasonic wave emission time and reception time from each learning support device 20 (step S4).

上位装置10の制御部11は、超音波の出射時刻TAから受信時刻TB〜TDまでの遅れ(時間差)、即ち、教師役ロボット20Aから他の学習支援装置20B〜20Dへの音波の伝搬時間を求め、さらに、音速Vを乗算して、距離を求め、図8に示すような距離テーブルに登録する(ステップS5)。 The control unit 11 of the host device 10 determines the delay (time difference) from the ultrasonic wave emission time TA to the reception time TB to TD, that is, the sound wave propagation time from the teacher robot 20A to the other learning support devices 20B to 20D. Further, the sound wave V is multiplied to obtain the distance, and the distance is registered in the distance table as shown in FIG. 8 (step S5).

続いて、制御部11は、全ての学習支援装置20から超音波を出射したか否かを判別し(ステップS6)、未送信の学習支援装置20が残っていれば(ステップS6;No)、ステップS2に戻って、処理を継続する。 Subsequently, the control unit 11 determines whether or not ultrasonic waves have been emitted from all the learning support devices 20 (step S6), and if untransmitted learning support devices 20 remain (step S6; No), The process returns to step S2 and continues the process.

以後、同様にして、超音波の送信元と受信先を切り替えながら、同様の動作を実行し、図8の表を埋める。 After that, in the same manner, the same operation is executed while switching between the source and the destination of the ultrasonic wave, and the table of FIG. 8 is filled.

全ての学習支援装置20の処理が終了すると(ステップS6;Yes)、図6に示したように、各学習支援装置20間の音波の伝達時間から距離を求めることにより、図6(a)に示す配置図を求める。 When the processing of all the learning support devices 20 is completed (step S6; Yes), as shown in FIG. 6, the distance is obtained from the sound wave transmission time between the learning support devices 20 to show FIG. 6A. Find the layout diagram shown.

続いて、上位装置10は、教師役ロボット20Aに、ユーザSTの発声を促すため、例えば、「こんにちは」と問いかけ、応答を求めるように指示する。また、各学習支援装置20に音声の取得を指示する(ステップS7)。
ユーザSTが問いかけに答えると、その音声は、各学習支援装置20の音波入力装置26で受信され、時刻情報と共に記録される。各学習支援装置20の制御部21は、記録した音声信号と時刻情報を自己の識別情報と共に上位装置10に送信する。
Subsequently, the high-level equipment 10, the teacher role robot 20A, to prompt the user utterances ST, for example, question as "Hello", an instruction to determine a response. In addition, each learning support device 20 is instructed to acquire voice (step S7).
When the user ST answers the question, the voice is received by the sound wave input device 26 of each learning support device 20 and recorded together with the time information. The control unit 21 of each learning support device 20 transmits the recorded audio signal and time information to the host device 10 together with its own identification information.

上位装置10の制御部11は、各学習支援装置20から送信されてきた音声波形の相互相関を求めることにより、ユーザSTが発した音声の受信タイミングのずれを求め、計算により各学習支援装置20からユーザSTまでの距離を求める。
こうして、上位装置10の制御部11は、学習支援装置20とユーザSTの位置関係を、図6(b)に示すようにマップ化し、RAM13に格納する。
The control unit 11 of the host device 10 obtains the deviation of the reception timing of the voice emitted by the user ST by obtaining the cross-correlation of the voice waveforms transmitted from each learning support device 20, and calculates each learning support device 20. Find the distance from to the user ST.
In this way, the control unit 11 of the host device 10 maps the positional relationship between the learning support device 20 and the user ST as shown in FIG. 6B and stores it in the RAM 13.

続いて、実際の学習を開始し、何れかのシナリオが選択される。
ここでは、図4に示すシナリオ2が選択されたとする。
すると、上位装置10の制御部11は、ROM12からシナリオ2を読み出し、RAM13に記憶しているマップと共に各学習支援装置20に送信する。各学習支援装置20は、受信したシナリオ2と配置マップをRAM23に格納する。
以後、学習支援装置20の制御部21は、与えられたシナリオ2とマップに従って、動作する。
Then, the actual learning is started, and one of the scenarios is selected.
Here, it is assumed that scenario 2 shown in FIG. 4 is selected.
Then, the control unit 11 of the host device 10 reads the scenario 2 from the ROM 12 and transmits it to each learning support device 20 together with the map stored in the RAM 13. Each learning support device 20 stores the received scenario 2 and the arrangement map in the RAM 23.
After that, the control unit 21 of the learning support device 20 operates according to the given scenario 2 and the map.

以下、図4を参照してシナリオ2に沿った学習処理を説明する。 Hereinafter, the learning process according to the scenario 2 will be described with reference to FIG.

まず、表示装置20Dがりんごの画像を表示部29に表示する(第1行)。
次に、教師役ロボット20Aの制御部21は、RAM23に記憶しているマップから、表示装置20Dまでの距離d(A−D)を求め、距離情報記憶手段として機能するRAM23に格納する。続いて、距離d(A−D)が、閾値TH1以下であるか否かを判別する(第2行)。距離d(A−D)は、教師役ロボット20Aと表示画像との距離を示す第1の距離に該当する。閾値TH1は、単語の「This」と「That」を使い分ける基準となる距離であり、例えば、50cmに設定されている。距離d(A−D)が、閾値TH1以下の場合、教師役ロボット20Aから表示装置20Dに表示されているりんごまでの距離が近い。このため、シナリオの第3行に進み、教師用ロボット20Aの制御部21は、距離情報が示す距離に対応する学習情報を出力する出力手段として機能し、動作制御装置27を制御して表示装置20Dを指さし、音波出力装置25を制御して、距離に対応した学習情報である「What is this?」を選択的に発声させる。さらにそのときの時刻TをRAM23に記憶する。
なお、教師役ロボット20Aが指さす方向は、例えば、マップと方位計等から求められる。
First, the display device 20D displays an image of an apple on the display unit 29 (first line).
Next, the control unit 21 of the teacher robot 20A obtains the distance d (AD) to the display device 20D from the map stored in the RAM 23, and stores the distance d (AD) in the RAM 23 functioning as the distance information storage means. Subsequently, it is determined whether or not the distance d (AD) is equal to or less than the threshold value TH1 (second row). The distance d (AD) corresponds to the first distance indicating the distance between the teacher acting robot 20A and the displayed image. The threshold value TH1 is a reference distance for properly using the words "This" and "That", and is set to, for example, 50 cm. When the distance d (AD) is equal to or less than the threshold value TH1, the distance from the teacher robot 20A to the apple displayed on the display device 20D is short. Therefore, proceeding to the third line of the scenario, the control unit 21 of the teacher robot 20A functions as an output means for outputting the learning information corresponding to the distance indicated by the distance information, and controls the motion control device 27 to display the device. Pointing to 20D, the sound wave output device 25 is controlled to selectively utter "What is this?", Which is learning information corresponding to the distance. Further, the time T at that time is stored in the RAM 23.
The direction pointed by the teacher robot 20A can be obtained from, for example, a map and an azimuth meter.

一方、RAM23に記憶されている距離d(A−D)が閾値TH1より大きい場合、教師役ロボット20Aから表示装置20Dに表示されているりんごまでの距離が遠い。このため、シナリオの第4行に進み、教師役ロボット20Aは、表示装置20Dを指さし、音波出力装置25を制御して、距離に対応した学習情報である「What is that?」を選択的に発声させる。このように、教師役ロボット20Aに搭載された学習支援装置は、学習相手との距離に応じて、出力する単語、出力する表現、選択する選択肢、動作の内容を変更し、異ならせている。 On the other hand, when the distance d (AD) stored in the RAM 23 is larger than the threshold value TH1, the distance from the teacher robot 20A to the apple displayed on the display device 20D is long. Therefore, proceeding to the fourth line of the scenario, the teacher robot 20A points to the display device 20D, controls the sound wave output device 25, and selectively selects “What is that?”, Which is learning information corresponding to the distance. Make them speak. In this way, the learning support device mounted on the teacher-acting robot 20A changes and makes different words to be output, expressions to be output, options to be selected, and contents of actions according to the distance to the learning partner.

次に、教師役ロボット20Aの制御部21は、ユーザSTからの音声を、音波入力装置26を介して取得したか否かを判別する(第5行)。受信していれば、RAM23に記憶されているユーザSTと表示装置20Dの距離d(ST−D)が、閾値TH1以下であるか否かを判別する(第7行)。距離d(ST−D)は、ユーザSTと表示画像との距離を示す第2の距離に該当する。Yesの場合、ユーザSTと表示されているりんごの距離が近いので、ユーザSTの発声が第2の距離に適合する「This is an apple.」であるか否かを、音声認識技術等を用いて判別し、Yesならば、「Yes, very good!」と発声し、Noならば、「No.」と発声する(第8行)。即ち、ユーザSTの応答が距離に即したものか否かを判定する。 Next, the control unit 21 of the teacher robot 20A determines whether or not the voice from the user ST has been acquired via the sound wave input device 26 (fifth line). If it has been received, it is determined whether or not the distance d (ST-D) between the user ST and the display device 20D stored in the RAM 23 is equal to or less than the threshold value TH1 (7th line). The distance d (ST-D) corresponds to a second distance indicating the distance between the user ST and the displayed image. In the case of Yes, since the distance between the user ST and the displayed apple is close, voice recognition technology or the like is used to determine whether or not the user ST's utterance is "This is an apple." That matches the second distance. If Yes, say "Yes, very good!", And if No, say "No." (8th line). That is, it is determined whether or not the response of the user ST is in line with the distance.

また、教師役ロボット20Aは、ユーザSTからの音声を取得した場合に、ユーザSTと表示装置20Dの距離d(ST−D)が、閾値TH1より大きければ、ユーザSTと表示されているりんごの距離が遠いので、ユーザSTの発声が第2の距離に適合する「That is an apple.」であるか否かを、音声認識技術等を用いて判別し(第9行)、Yesならば、「Yes, very good!」と発声し、Noならば、「No.」と発声する。即ち、ユーザSTの応答が距離に即したものか否かを判定する。 Further, when the teacher robot 20A acquires the voice from the user ST, if the distance d (ST-D) between the user ST and the display device 20D is larger than the threshold value TH1, the apple displayed as the user ST. Since the distance is long, it is determined by using voice recognition technology etc. whether or not the utterance of the user ST is "That is an apple." That matches the second distance (9th line), and if Yes, Say "Yes, very good!", And if No, say "No.". That is, it is determined whether or not the response of the user ST is in line with the distance.

また、教師役ロボット20Aは、ユーザSTからの音声を取得できていない場合には、発声時刻Tから制限時間の20秒を経過したか否かを判別する(第6行)。経過していなければ、第5行で発声を待機し、経過していれば、第23行に移行し、制限時間オーバーの処理に移る。 If the teacher robot 20A has not been able to acquire the voice from the user ST, it determines whether or not the time limit of 20 seconds has elapsed from the utterance time T (6th line). If it has not passed, the utterance is waited in the 5th line, and if it has passed, the process shifts to the 23rd line and the process of exceeding the time limit is started.

以上説明したように、上記実施の形態にかかる学習支援システム100では、ユーザSTと学習支援装置20相互間の距離に応じて、教師役ロボット20Aが発声する単語・表現が距離に応じた適切なものに変化する。また、ユーザSTの発言に関しても、距離に対応して適切なものであるか否かが検証され、評価が報知される。従って、高い学習効果が得られる。 As described above, in the learning support system 100 according to the above embodiment, the words / expressions uttered by the teacher robot 20A are appropriate according to the distance according to the distance between the user ST and the learning support device 20. It changes into something. Further, with respect to the remark of the user ST, it is verified whether or not it is appropriate according to the distance, and the evaluation is notified. Therefore, a high learning effect can be obtained.

また、ユーザSTと学習支援装置20相互間の向き・位置等を特定できるので、指し示したり、「I am in front of you.」と位置関係を指摘したりすることも可能であり、臨場感のある学習が可能である。 In addition, since the orientation and position between the user ST and the learning support device 20 can be specified, it is possible to point out or point out the positional relationship with "I am in front of you." Some learning is possible.

上記実施の形態においては、理解を容易にするため、距離に依存して使い分ける単語として、「That」と「This」を例示したが、他の単語や表現にも適用可能である。例えば、「here」と「there」、「short」と「long」、「small」と「large」等の単語、これらの単語を用いる表現などにも適用可能である。また、英語に限らず、「あれ」、「これ」、「ここ」、「そこ」、「あっち」、「こっち」、「そっち」など日本語等の他の任意の学習情報の提供に利用可能であり、ユーザSTの距離感に応じた違和感のない学習情報の提供が可能となる。 In the above embodiment, "That" and "This" are exemplified as words to be used properly depending on the distance in order to facilitate understanding, but they can also be applied to other words and expressions. For example, it can be applied to words such as "here" and "there", "short" and "long", "small" and "lage", and expressions using these words. In addition to English, it can be used to provide any other learning information such as Japanese such as "that", "this", "here", "there", "there", "this", "there". Therefore, it is possible to provide learning information that does not give a sense of discomfort according to the sense of distance of the user ST.

上記では、教師役ロボット20Aと表示装置20D(又は画像)との距離、ユーザST(生徒)と表示装置20D(又は画像)との距離に応じて単語を選択する利を示したが、さらに、教師役ロボット20AとユーザST(生徒)との距離、他の生徒役ロボット20B、20Cとの距離に応じて学習情報を選択して出力する例に広く適用できる。 In the above, the advantage of selecting a word according to the distance between the teacher robot 20A and the display device 20D (or image) and the distance between the user ST (student) and the display device 20D (or image) is shown. It can be widely applied to an example in which learning information is selected and output according to the distance between the teacher role robot 20A and the user ST (student) and the distance between the other student role robots 20B and 20C.

さらに、距離に依存する単語に限定されず、任意の表現に利用可能である。
例えば、ユーザST(生徒)が教師役ロボット20Aから基準より離れて座っている場合には、教師役ロボット20Aが「もっとそばにおいでよ」と呼びかけたり、また教師役ロボット20Aが「時計回りに答えてね。最初はB君、次はC君」等、位置情報を基にして授業を進めたりすることも可能であり、「正面にいるよ」、「右を向いて」、「左を向いて」等、距離や配置によって変化する学習情報(単語、単語を含む表現)を選択的に出力する場合に広く適用可能である。
また出力に係る内容は各ロボット20A〜20Cからの音声には限らず、例えば、表示装置20Dがりんごの画像と「Look at this apple.」と表示するなど、文章による出力も選択可能である。
Furthermore, it is not limited to words that depend on distance, and can be used for any expression.
For example, when the user ST (student) sits away from the teacher robot 20A, the teacher robot 20A calls out "Come closer", and the teacher robot 20A "answers clockwise". It is also possible to proceed with the class based on location information such as "Mr. B first, then Mr. C", "I'm in front", "Look to the right", "Look to the left" It can be widely applied when selectively outputting learning information (words, expressions including words) that change depending on the distance and arrangement, such as "te".
Further, the content related to the output is not limited to the voice from each robot 20A to 20C, and for example, the display device 20D can select a text output such as displaying an apple image and "Look at this apple.".

また、距離も2段階に限定されず、例えば3段階に分け、第1の基準より遠い場合いは、「もっとそばにおいでよ」と呼びかけ、距離が第1の基準より小さいが第2の基準より大きい場合には、「あと少しそばにおいでよ」と呼びかけ、距離が第2の基準以下の場合には、「そこにいてね」と呼びかけるなどしてもよい。 In addition, the distance is not limited to two stages, for example, it is divided into three stages, and if it is farther than the first standard, it calls "Come closer" and the distance is smaller than the first standard but more than the second standard. If it is large, you may call "Come a little closer", and if the distance is less than or equal to the second standard, you may call "Be there".

上記実施の形態においては、音波の伝達時間により距離を求めたが、距離の求め方自体は、既知の種々の手法を利用可能である。例えば、各学習支援装置20に配置する音波入力装置26をステレオ構成として、音源(他の学習支援装置20)から左右の音波入力装置26に入射する音の位相差で音源の距離と方向を求め、マップの作成に利用してもよい。 In the above embodiment, the distance is obtained from the transmission time of the sound wave, but various known methods can be used for the method of obtaining the distance itself. For example, the sound wave input device 26 arranged in each learning support device 20 has a stereo configuration, and the distance and direction of the sound source are obtained from the phase difference of the sounds incident on the left and right sound wave input devices 26 from the sound source (other learning support device 20). , May be used to create a map.

また、図9に示すように、各学習支援装置20にステレオカメラ31Rと31Lを配置し、ステレオカメラ31Rと31Lで撮影したステレオ画像中の他の学習支援装置20及びユーザSTの画像をパターンマッチング等で特定し、ステレオ画像中のその画像までの視差から、特定した画像までの距離を求めるようにしてもよい。 Further, as shown in FIG. 9, stereo cameras 31R and 31L are arranged in each learning support device 20, and the images of the other learning support device 20 and the user ST in the stereo images taken by the stereo cameras 31R and 31L are pattern-matched. Etc., and the distance to the specified image may be obtained from the parallax to the image in the stereo image.

上記実施の形態では、理解を容易にするため、学習開始時点の準備段階で図6(b)に例示するような配置マップを成形することとしたが、学習の途中でマップを作成し、あるいは、更新するようにしてもよい。
さらに、学習中の各学習支援装置20及びユーザSTが発する音声を用いて、マップの作成及び構成を行ってもよい。
In the above embodiment, in order to facilitate understanding, it was decided to form a layout map as illustrated in FIG. 6B at the preparatory stage at the start of learning, but a map is created in the middle of learning, or , May be updated.
Further, the map may be created and configured by using the voices emitted by each learning support device 20 and the user ST during learning.

また、距離が求められるならば、図6(a),(b)に例示するマップや、図8に示すテーブルを作成する必要はない。 Further, if the distance is required, it is not necessary to create the maps illustrated in FIGS. 6A and 6B and the table shown in FIG.

上記実施の形態においては、教師役ロボット20Aと表示装置20Dとを別体としたが、教師役ロボット20Aが表示装置20Dを備えるように構成してもよい。 In the above embodiment, the teacher-acting robot 20A and the display device 20D are separated, but the teacher-acting robot 20A may be configured to include the display device 20D.

また、上記実施の形態においては、上位装置10が、学習支援装置20間の調整を行ったが、学習支援装置20のうちの1台、例えば、教師役ロボット20Aが上位装置10の機能を兼ね備えるようにしてもよい。この場合、学習支援装置20相互間での通信を可能とする。 Further, in the above embodiment, the upper device 10 adjusts between the learning support devices 20, but one of the learning support devices 20, for example, the teacher robot 20A also has the functions of the upper device 10. You may do so. In this case, communication between the learning support devices 20 is possible.

上記実施の形態においては、各学習支援装置20が動作プログラムを記憶し、シナリオに沿って動作するように説明したが、全ての学習支援装置20がプログラムを記憶する必要はない。上位装置10又は何れかの学習支援装置20のみが動作プログラムを記憶し、他の学習支援装置20は、指示に従って、動作するようにしてもよい。 In the above embodiment, it has been described that each learning support device 20 stores an operation program and operates according to a scenario, but it is not necessary for all the learning support devices 20 to store the program. Only the host device 10 or any of the learning support devices 20 may store the operation program, and the other learning support devices 20 may operate according to the instructions.

シナリオに沿って、授業の進行を規定する例を示したが、プログラム自体で授業の進行を規定してもよい。 An example of defining the progress of the lesson is shown according to the scenario, but the progress of the lesson may be defined by the program itself.

ユーザSTのやる気を高めるために、最後の学習の終了時刻を記憶し、次に電源等を入れて学習を開始した時刻を求め、開始時刻が終了時刻から一定時間以内であれば喜びのメッセージなどの、機嫌が良いとする擬似感情が伝わる言葉を各学習支援装置20が選択して発するなどのシナリオを設けてもよい。なまた開始時刻が終了時刻から一定時間を過ぎている場合には、その長さの程度により、淡々とした言葉やもの悲しさを表現する言葉を各学習支援装置20に発するようにさせてもよい。また言葉だけではなく動作制御装置27を用いて、動作で擬似感情を表現させてもよい。 In order to motivate the user ST, the end time of the last learning is memorized, then the power is turned on to obtain the time when the learning is started, and if the start time is within a certain time from the end time, a message of joy etc. A scenario may be provided in which each learning support device 20 selects and utters a word that conveys a pseudo-emotion that the person is in a good mood. If the start time has passed a certain time from the end time, each learning support device 20 may be made to emit plain words or words expressing sadness depending on the degree of the length. .. Further, not only words but also motion control device 27 may be used to express pseudo emotions by motion.

上記実施の形態では、学習支援装置20を二次元に配置する例を示したが、3次元的に配置することも可能である。即ち、高さの異なる位置にロボットを配置してもよい。この場合、鉛直方向の配置を含めてマップを作成すればよい。 In the above embodiment, the example in which the learning support device 20 is arranged two-dimensionally is shown, but it is also possible to arrange the learning support device 20 three-dimensionally. That is, the robots may be arranged at positions having different heights. In this case, the map may be created including the arrangement in the vertical direction.

上記実施形態では、ユーザの人数が考慮されていないが、2人以上の場合には、声紋判定、音源の位置等を用いて、利用者を識別することができる。 In the above embodiment, the number of users is not taken into consideration, but in the case of two or more users, the users can be identified by using the voiceprint determination, the position of the sound source, and the like.

また、上述したように、ロボットの外観は、学習を楽しみながら継続等するため、子供に親しみやすい外観などにすることが望ましく、表情を変化できるようにしてもよい。ただし、これに限定されない。 Further, as described above, since the appearance of the robot continues while enjoying learning, it is desirable that the appearance be familiar to children, and the facial expression may be changed. However, it is not limited to this.

また、本発明に係る装置、システム、方法は、専用のシステムによらず、通常のコンピュータを用いても実現可能である。例えば、コンピュータに、上記動作、処理、工程を実行するためのプログラムを、フレキシブルディスク、CD−ROM(Compact Disk Read−Only Memory)、DVD(Digital Versatile Disk)、MO(Magneto Optical Disk)などのコンピュータ読み取り可能な記録媒体に記憶して配布し、これをコンピュータシステムにインストールすることにより、上述の処理を実行する電力供給システムを構成しても良い。 Further, the apparatus, system, and method according to the present invention can be realized by using an ordinary computer without using a dedicated system. For example, a computer such as a flexible disk, a CD-ROM (Compact Disk Read-Only Memory), a DVD (Digital Versaille Disk), or an MO (Magnet Optical Disk) can be provided with a program for executing the above operations, processes, and steps. A power supply system that executes the above-described processing may be configured by storing and distributing it on a readable recording medium and installing it in a computer system.

さらに、インターネット上のサーバ装置が有するディスク装置等にプログラムを記憶しておき、例えば、搬送波に重畳させて、コンピュータにダウンロード等するものとしてもよい。 Further, the program may be stored in a disk device or the like of a server device on the Internet, superimposed on a carrier wave, and downloaded to a computer.

また、OS(オペレーティングシステム)が機能の一部を提供する場合には、OSが提供する機能以外の機能を提供する部分のみを提供するようにしてもよい。 Further, when the OS (operating system) provides a part of the function, only the part that provides the function other than the function provided by the OS may be provided.

本発明は、本発明の広義の精神と範囲を逸脱することなく、様々な実施の形態及び変形が可能とされるものである。また、上述した実施の形態は、この発明を説明するためのものであり、本発明の範囲を限定するものではない。すなわち、本発明の範囲は、実施の形態ではなく、特許請求の範囲によって示される。そして、特許請求の範囲内及びそれと同等の発明の意義の範囲内で施される様々な変形が、この発明の範囲内とみなされる。 The present invention allows for various embodiments and modifications without departing from the broad spirit and scope of the present invention. Moreover, the above-described embodiment is for explaining the present invention, and does not limit the scope of the present invention. That is, the scope of the present invention is indicated by the scope of claims, not by the embodiment. Then, various modifications made within the scope of the claims and the equivalent meaning of the invention are considered to be within the scope of the present invention.

以下に、本願出願の当初の特許請求の範囲に記載された発明を付記する。 Hereinafter, the inventions described in the claims of the original application of the present application will be added.

(付記1)
学習相手との距離情報を記憶する距離情報記憶手段と、
前記距離情報記憶手段に記憶されている距離情報が示す距離に対応する学習情報を出力する出力手段と、
を備える学習支援装置。
(Appendix 1)
Distance information storage means for storing distance information with the learning partner,
An output means that outputs learning information corresponding to the distance indicated by the distance information stored in the distance information storage means, and an output means.
A learning support device equipped with.

(付記2)
前記出力手段は、前記距離情報記憶手段に記憶されている距離情報が示す距離に対応する学習情報を、音声で選択的に出力する、付記1に記載の学習支援装置。
(Appendix 2)
The learning support device according to Appendix 1, wherein the output means selectively outputs learning information corresponding to the distance indicated by the distance information stored in the distance information storage means by voice.

(付記3)
ユーザからの応答を取得し、該応答が前記距離情報記憶手段に記憶された距離情報に適合するものであるか否かを判別する手段を備える、
付記1または2に記載の学習支援装置。
(Appendix 3)
A means for acquiring a response from a user and determining whether or not the response conforms to the distance information stored in the distance information storage means.
The learning support device according to Appendix 1 or 2.

(付記4)
前記距離情報記憶手段は、前記出力手段と画像を表示する画像表示手段との第1の距離と、前記ユーザと前記画像表示手段との第2の距離を記憶し、
前記出力手段は、前記第1の距離に対応する表現で学習情報を出力し、
ユーザからの応答を取得し、該応答が前記第2の距離に適合するものであるか否かを判別する手段を備える、
付記3に記載の学習支援装置。
(Appendix 4)
The distance information storage means stores the first distance between the output means and the image display means for displaying an image, and the second distance between the user and the image display means.
The output means outputs learning information in an expression corresponding to the first distance.
A means for obtaining a response from a user and determining whether or not the response conforms to the second distance is provided.
The learning support device according to Appendix 3.

(付記5)
前記学習情報を記憶する学習情報記憶手段を更に備え、
前記学習情報は、距離に対応して異なる2つの表現を含み、
前記出力手段は、前記距離に応じて前記2つの表現の1つを選択して出力する、
付記1ないし4の何れか1つに記載の学習支援装置。
(Appendix 5)
Further provided with a learning information storage means for storing the learning information,
The learning information includes two expressions that differ according to the distance.
The output means selects and outputs one of the two expressions according to the distance.
The learning support device according to any one of Appendix 1 to 4.

(付記6)
さらに、ユーザ又は他の学習支援装置までの距離を求める測距手段と、
前記測距手段で求めた距離を前記距離情報記憶手段に記憶させる手段と、
を備える、
付記1ないし5の何れか1つに記載の学習支援装置。
(Appendix 6)
In addition, distance measuring means for determining the distance to the user or other learning support device,
A means for storing the distance obtained by the distance measuring means in the distance information storage means, and a means for storing the distance.
To prepare
The learning support device according to any one of Appendix 1 to 5.

(付記7)
前記測距手段は、非可聴音の到達時間に基づいて、距離を測定する、
付記6に記載の学習支援装置。
(Appendix 7)
The distance measuring means measures the distance based on the arrival time of the inaudible sound.
The learning support device according to Appendix 6.

(付記8)
付記1ないし7の何れか1つに記載の学習支援装置と、
生徒役の前記学習支援装置と、
を備える学習支援システム。
(Appendix 8)
The learning support device according to any one of Appendix 1 to 7 and
The learning support device that plays the role of a student
Learning support system equipped with.

(付記9)
ユーザに対して問題を出す教師役のロボットと、前記問題に応答する生徒役のロボットと、を含み、前記生徒役のロボットは、前記ユーザの学習を支援するように動作する、学習支援システムであって、
それぞれの距離を測定する測定手段を備え、
前記測定手段が測定した距離に応じて、前記動作の内容を異ならせる学習支援システム。
(Appendix 9)
A learning support system that includes a robot acting as a teacher that issues a problem to a user and a robot acting as a student responding to the problem, and the robot acting as a student operates to support the learning of the user. There,
Equipped with measuring means to measure each distance
A learning support system that changes the content of the operation according to the distance measured by the measuring means.

(付記10)
付記1ないし7の何れか1つに記載の学習支援装置を搭載した教師役のロボット。
(Appendix 10)
A robot acting as a teacher equipped with the learning support device described in any one of Appendix 1 to 7.

(付記11)
付記1ないし7の何れか1つに記載の学習支援装置を搭載した生徒役のロボット。
(Appendix 11)
A student-role robot equipped with the learning support device described in any one of Appendix 1 to 7.

(付記12)
学習相手との距離を記憶し、
学習情報の複数の選択肢のうち、記憶している距離に対応する選択肢を選択して出力する、
学習支援方法。
(Appendix 12)
Remember the distance to the learning partner,
Select and output the option corresponding to the memorized distance from multiple options of learning information.
Learning support method.

(付記13)
コンピュータに、
学習相手との距離を記憶する処理、
学習情報の複数の選択肢のうち、記憶している距離に対応する選択肢を選択して出力する処理、
を実行させるプログラム。
(Appendix 13)
On the computer
Processing to memorize the distance to the learning partner,
Processing to select and output the option corresponding to the memorized distance from multiple options of learning information,
A program that executes.

10…上位装置、20(20A〜20D)…学習支援装置、20A…教師役ロボット、20B、20C…生徒役ロボット、20D…表示装置、11、21…制御部、12、22…ROM、13、23…RAM、14…外部通信装置、15、24…内部通信装置、25…音波出力装置、26…音波入力装置、27…動作制御装置、28…センサ群、29…表示部、31R,31L…ステレオカメラ、100…学習支援システム、ST…受講者(ユーザ) 10 ... Upper device, 20 (20A to 20D) ... Learning support device, 20A ... Teacher role robot, 20B, 20C ... Student role robot, 20D ... Display device, 11, 21 ... Control unit, 12, 22 ... ROM, 13, 23 ... RAM, 14 ... external communication device, 15, 24 ... internal communication device, 25 ... sound wave output device, 26 ... sound wave input device, 27 ... motion control device, 28 ... sensor group, 29 ... display unit, 31R, 31L ... Stereo camera, 100 ... learning support system, ST ... student (user)

Claims (10)

離情報記憶手段と、
習情報を出力する出力手段と、を備え、
前記距離情報記憶手段は、前記出力手段と画像を表示する画像表示手段との第1の距離と、ユーザと前記画像表示手段との第2の距離とを記憶し、
前記出力手段は、前記第1の距離に対応する表現で前記学習情報を出力し、
前記ユーザからの応答を取得し、該応答が前記第2の距離に適合するものであるか否かを判別する判別手段をさらに備える、
習支援装置。
And the distance information storage means,
Comprising output means for outputting the learning information, and
The distance information storage means stores a first distance between the output means and an image display means for displaying an image, and a second distance between the user and the image display means.
The output means outputs the learning information in an expression corresponding to the first distance.
Further provided is a discriminating means for acquiring a response from the user and determining whether or not the response conforms to the second distance.
Learning support device.
前記出力手段は、前記学習情報を、音声で出力する、請求項1に記載の学習支援装置。 And the output means, the pre Kigaku learning information, forces out by voice, learning support device according to claim 1. 前記学習情報を記憶する学習情報記憶手段を更に備え、
前記学習情報は、前記第1の距離に対応して異なる2つの表現を含み、
前記出力手段は、前記第1の距離に応じて前記2つの表現の1つを選択して出力する、
請求項1又は2に記載の学習支援装置。
Further provided with a learning information storage means for storing the learning information,
The learning information includes two different expressions corresponding to the first distance.
The output means selects and outputs one of the two expressions according to the first distance.
The learning support device according to claim 1 or 2 .
さらに、ユーザ又は他の学習支援装置までの距離を求める測距手段と、
前記測距手段で求めた距離を前記距離情報記憶手段に記憶させる手段と、
を備える、
請求項1ないしの何れか1項に記載の学習支援装置。
In addition, distance measuring means for determining the distance to the user or other learning support device,
A means for storing the distance obtained by the distance measuring means in the distance information storage means, and a means for storing the distance.
To prepare
The learning support device according to any one of claims 1 to 3 .
前記測距手段は、非可聴音の到達時間に基づいて、前記距離を測定する、
請求項に記載の学習支援装置。
The distance measuring means, based on the arrival times of the non-audible sound, measuring the distance,
The learning support device according to claim 4 .
請求項1ないしの何れか1項に記載の学習支援装置と、
生徒役の前記学習支援装置と、
を備える学習支援システム。
The learning support device according to any one of claims 1 to 5 .
The learning support device that plays the role of a student
Learning support system equipped with.
請求項1ないしの何れか1項に記載の学習支援装置を搭載した教師役のロボット。 A robot acting as a teacher equipped with the learning support device according to any one of claims 1 to 5 . 請求項1ないしの何れか1項に記載の学習支援装置を搭載した生徒役のロボット。 A robot acting as a student equipped with the learning support device according to any one of claims 1 to 5 . コンピュータが、
出力手段と画像を表示する画像表示手段との第1の距離と、ユーザと前記画像表示手段との第2の距離とを記憶し、
前記第1の距離に対応する表現で学習情報を前記出力手段から出力し、
前記ユーザからの応答を取得し、該応答が前記第2の距離に適合するものであるか否かを判別する、
学習支援方法。
The computer
A first distance between the output means and the image display means for displaying an image and a second distance between the user and the image display means are stored.
The learning information is output from the output means in the expression corresponding to the first distance, and the learning information is output.
Obtaining a response from the user and determining whether the response is compatible with the second distance.
Learning support method.
コンピュータに、
出力手段と画像を表示する画像表示手段との第1の距離と、ユーザと前記画像表示手段との第2の距離とを記憶させ、
前記第1の距離に対応する表現で学習情報を前記出力手段から出力させ、
前記ユーザからの応答を取得し、該応答が前記第2の距離に適合するものであるか否かを判別させる、
ログラム。
On the computer
A first distance between the output means and the image display means for displaying an image and a second distance between the user and the image display means are stored.
The learning information is output from the output means in the expression corresponding to the first distance.
A response from the user is acquired, and it is determined whether or not the response conforms to the second distance.
Program.
JP2016059277A 2016-03-23 2016-03-23 Learning support device, learning support system, learning support method, robot and program Active JP6763167B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016059277A JP6763167B2 (en) 2016-03-23 2016-03-23 Learning support device, learning support system, learning support method, robot and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016059277A JP6763167B2 (en) 2016-03-23 2016-03-23 Learning support device, learning support system, learning support method, robot and program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2020150956A Division JP7078082B2 (en) 2020-09-09 2020-09-09 Learning support device, learning support system, learning support method, robot and program

Publications (2)

Publication Number Publication Date
JP2017173548A JP2017173548A (en) 2017-09-28
JP6763167B2 true JP6763167B2 (en) 2020-09-30

Family

ID=59972022

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016059277A Active JP6763167B2 (en) 2016-03-23 2016-03-23 Learning support device, learning support system, learning support method, robot and program

Country Status (1)

Country Link
JP (1) JP6763167B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111079727B (en) * 2019-06-09 2023-12-22 广东小天才科技有限公司 Click-to-read control method and electronic equipment
CN111079496B (en) * 2019-06-09 2023-05-26 广东小天才科技有限公司 Click-to-read state display method and electronic equipment

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000511304A (en) * 1996-05-22 2000-08-29 エージェント ベースド カリキュラー インコーポレイテッド Agent-based instruction system and method
WO1999054015A1 (en) * 1998-04-16 1999-10-28 Creator Ltd. Interactive toy
JP2002139989A (en) * 2000-10-31 2002-05-17 Atr Media Integration & Communications Res Lab Participatory polylogue system
JP4247149B2 (en) * 2004-03-30 2009-04-02 株式会社国際電気通信基礎技術研究所 robot
JP6308608B2 (en) * 2013-01-30 2018-04-11 国立大学法人三重大学 Foreign language conversation learning system based on direct method

Also Published As

Publication number Publication date
JP2017173548A (en) 2017-09-28

Similar Documents

Publication Publication Date Title
US10490095B2 (en) Robot control device, student role-playing robot, robot control method, and robot control system
US11151997B2 (en) Dialog system, dialog method, dialog apparatus and program
US11183187B2 (en) Dialog method, dialog system, dialog apparatus and program that gives impression that dialog system understands content of dialog
US20180165980A1 (en) Educational robot control device, student robot, teacher robot, learning support system, and robot control method
US11145222B2 (en) Language learning system, language learning support server, and computer program product
US20130066468A1 (en) Telepresence robot, telepresence system comprising the same and method for controlling the same
US10375465B2 (en) System and method for alerting a user of preference-based external sounds when listening to audio through headphones
JP6763167B2 (en) Learning support device, learning support system, learning support method, robot and program
US20240221718A1 (en) Systems and methods for providing low latency user feedback associated with a user speaking silently
JP2017123505A (en) Content playback device, content playback method, and program
JP7078082B2 (en) Learning support device, learning support system, learning support method, robot and program
JP2019211762A (en) Learning device, robot, learning support system, learning device control method, and program
JP6466391B2 (en) Language learning device
JP2019200257A (en) Learning support system and program
JP6308608B2 (en) Foreign language conversation learning system based on direct method
ES2692828T3 (en) Assistance procedure in following up a conversation for a person with hearing problems
WO2016157678A1 (en) Information processing device, information processing method, and program
KR20200095304A (en) Teaching materials for english coding education and board game instrument set for english coding education including the same
JP2017021245A (en) Language learning support device, language learning support method, and language learning support program
KR200287165Y1 (en) language learning appliance for multi-person
JP2006163269A (en) Language learning apparatus
KR102147835B1 (en) Apparatus for determining speech properties and motion properties of interactive robot and method thereof
JP7107248B2 (en) Dialogue system, dialogue method and program
WO2021256318A1 (en) Information processing device, information processing method, and computer program
US20240321131A1 (en) Method and system for facilitating ai-based language learning partner

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190218

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191216

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200218

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200324

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200811

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200824

R150 Certificate of patent or registration of utility model

Ref document number: 6763167

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150