JP2004287229A - Ubiquitous learning system, portable terminal, speech tact and information providing device, and program - Google Patents

Ubiquitous learning system, portable terminal, speech tact and information providing device, and program Download PDF

Info

Publication number
JP2004287229A
JP2004287229A JP2003080959A JP2003080959A JP2004287229A JP 2004287229 A JP2004287229 A JP 2004287229A JP 2003080959 A JP2003080959 A JP 2003080959A JP 2003080959 A JP2003080959 A JP 2003080959A JP 2004287229 A JP2004287229 A JP 2004287229A
Authority
JP
Japan
Prior art keywords
information
user
voice
objects
audio
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003080959A
Other languages
Japanese (ja)
Inventor
Reiko Yamada
玲子 山田
Takahiro Adachi
隆弘 足立
Akio Yuda
聴夫 湯田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ATR Advanced Telecommunications Research Institute International
Original Assignee
ATR Advanced Telecommunications Research Institute International
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ATR Advanced Telecommunications Research Institute International filed Critical ATR Advanced Telecommunications Research Institute International
Priority to JP2003080959A priority Critical patent/JP2004287229A/en
Publication of JP2004287229A publication Critical patent/JP2004287229A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Credit Cards Or The Like (AREA)
  • Electrically Operated Instructional Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a ubiquitous learning system, a speech tact, an information providing device, and a program that can put the whole space surrounding a user in learning environment and realize efficient learning. <P>SOLUTION: The ubiquitous learning system 10 includes a server 18 providing information regarding a plurality of objects 14 in a real space 12 and the speech tact 22 is a portable terminal communicating with the server by wireless. Each object 14 is provided with a wireless tag 16 in which object identification information is stored and held. When the user 20 operates the speech tact 22, the object identification information is acquired from the wireless tag 16 and sent to the server 18. The server 18 reads corresponding speech information out of object speech information DBs 72 and 74 based on the object identification information sent from the speech tact 22 and sends it back to the speech tact 22. The speech tact 22 outputs a sound based upon the received speech information. The server 18 can provide speech information whose speaking speed, language, level, etc., are altered according to the state of a recognition history etc. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

【0001】
【産業上の利用分野】
この発明はユビキタス学習システム、携帯端末、発話タクトおよび情報提供装置ならびにプログラムに関し、特にたとえば実空間に存在する複数の対象物を用いて学習するためのユビキタス学習システム、携帯端末、発話タクトおよび情報提供装置ならびにプログラムに関する。
【0002】
【従来の技術】
従来の学習システムの一例が特許文献1に開示される。この特許文献1のシステムは、表面にたとえば英単語の文字やその絵等が印刷されたカードないし冊子と、その文字等の内容に対応するたとえば英語の音声が記録されたCDを含む。カード等には、その音声のアドレス情報がバーコードとして設けられている。そして、カードプレイヤのバーコードリーダでそのカードのバーコード情報を読み取ることによって、CDのセットされたCDプレイヤにリモコン信号が送信されてそのカードの文字等の内容に対応する音声が再生される。
【0003】
【特許文献1】
特開平5−6135号公報
【0004】
【発明が解決しようとする課題】
しかし、従来技術では、学習者(ユーザ)は、学習をする際に、わざわざカードないし冊子のような教材を準備して、これに向かっていかねばならず、長期にわたっても効率よい学習が行えるかには疑問が残る。特に語学等の習得には、連続性や長期的な継続性が重要であり、たとえば語学留学などのようにその学習言語空間に常に身を置くことは効果的であると考えられる。
【0005】
さらに、従来技術のような教材を用いる場合には、学習レベルごとの教材を準備したとしても、ユーザのその時々の学習状況に適応することが不可能であり、学習効率が良くない。
【0006】
それゆえに、この発明の主たる目的は、新規な、ユビキタス学習システム、発話タクトおよび情報提供装置ならびにプログラムを提供することである。
【0007】
この発明の他の目的は、ユーザを取り巻く空間をまるまる学習環境とすることができる、ユビキタス学習システム、発話タクトおよび情報提供装置ならびにプログラムを提供することである。
【0008】
この発明の他の目的は、さらに、ユーザの学習状況に応じて効率よく学習できる、ユビキタス学習システム、発話タクトおよび情報提供装置ならびにプログラムを提供することである。
【0009】
【課題を解決するための手段】
第1の発明は、実空間に存在する複数の対象物に関する情報を提供する情報提供装置、および情報提供装置と無線を介して通信する携帯端末を備え、複数の対象物を用いて学習するためのユビキタス学習システムであって、複数の対象物には複数の対象物を識別するための対象物識別情報を記憶保持する複数の無線タグがそれぞれ設けられ、携帯端末は、ユーザによって操作される操作手段、操作手段からの操作に応じて無線タグから対象物識別情報を取得する取得手段、および取得手段によって取得した対象物識別情報を含む要求情報を情報提供装置に無線により送信する第1送信手段を含み、情報提供装置は、対象物識別情報ごとに関連付けられた対象物に関する音声情報を記憶する音声情報記憶手段、および携帯端末から送信された要求情報に基づいて、対応する音声情報を音声情報記憶手段から読み出す音声情報読出手段を含み、さらに、音声情報読出手段によって読み出された音声情報に基づいて音声を出力する音声出力手段を備える、ユビキタス学習システムである。
【0010】
第2の発明は、実空間に存在する複数の対象物を用いて学習するためのユビキタス学習システムにおいて、複数の対象物に関する情報を提供する情報提供装置と無線を介して通信可能な携帯端末であって、ユーザによって操作される操作手段、複数の対象物にそれぞれ設けられて複数の対象物を識別するための対象物識別情報を記憶保持する複数の無線タグから、操作手段からの操作に応じて対象物識別情報を取得する取得手段、および取得手段によって取得した対象物識別情報を含む要求情報を、情報提供装置へ無線により送信する第1送信手段を備える、携帯端末である。
【0011】
第3の発明は、実空間に存在する複数の対象物に関する情報を提供する情報提供装置と無線を介して通信し、複数の対象物に関する情報を音で出力する携帯型の発話タクトであって、ユーザによって操作される操作手段、複数の対象物を識別するための対象物識別情報を記憶保持して複数の対象物のそれぞれに設けられる複数の無線タグから、操作手段からの操作に応じて対象物識別情報を取得する取得手段、取得手段によって取得した対象物識別情報を含む要求情報を、情報提供装置へ無線により送信する第1送信手段、要求情報に応じて情報提供装置から送信された音声情報を無線により受信する第1受信手段、および第1受信手段によって受信した音声情報に基づいて音声を出力する音声出力手段を備える、発話タクトである。
【0012】
第4の発明は、実空間に存在する複数の対象物を用いて学習するためのユビキタス学習システムにおいて、複数の対象物に関する情報を提供する情報提供装置であって、複数の対象物を識別するための対象物識別情報ごとに関連付けられた対象物に関する音声情報を記憶する音声情報記憶手段、および端末から送信された対象物識別情報を含む要求情報に基づいて、対応する音声情報を音声情報記憶手段から読み出す音声情報読出手段を備える、情報提供装置である。
【0013】
第5の発明は、実空間に存在する複数の対象物を用いて学習するためのユビキタス学習システムにおいて、複数の対象物に関する情報を提供する情報提供装置と無線を介して通信可能な携帯端末に実行させるプログラムであって、携帯端末を、複数の対象物にそれぞれ設けられて複数の対象物を識別するための対象物識別情報を記憶保持する複数の無線タグから対象物識別情報を取得する取得手段、および取得手段によって取得した対象物識別情報含む要求情報を情報提供装置へ無線により送信する第1送信手段として機能させる、携帯端末のプログラムである。
【0014】
第6の発明は、実空間に存在する複数の対象物に関する情報を提供する情報提供装置と無線を介して通信し、前記複数の対象物に関する情報を音で出力する携帯型の発話タクトに実行させるプログラムであって、発話タクトを、複数の対象物を識別するための対象物識別情報を記憶保持して複数の対象物のそれぞれに設けられる複数の無線タグから対象物識別情報を取得する取得手段、取得手段によって取得した対象物識別情報を含む要求情報を情報提供装置へ無線により送信する第1送信手段、要求情報に応じて情報提供装置から送信された音声情報を無線により受信する第1受信手段、および第1受信手段によって受信した音声情報に基づいて音声を出力する音声出力手段として機能させる、発話タクトのプログラムである。
【0015】
第7の発明は、実空間に存在する複数の対象物を用いて学習するためのユビキタス学習システムにおいて、複数の対象物を識別するための対象物識別情報ごとに関連付けられた対象物に関する音声情報を記憶する音声情報記憶手段を備えて、複数の対象物に関する情報を提供する情報提供装置に実行させるプログラムであって、情報提供装置を、端末から送信された対象物識別情報を含む要求情報に基づいて、対応する音声情報を音声情報記憶手段から読み出す音声情報読出手段、および音声情報読出手段によって読み出された音声情報に基づいた情報を、音声出力手段へ提供する提供手段として機能させる、情報提供装置のプログラムである。
【0016】
【作用】
ユビキタス学習システムは、複数の対象物に関する情報を提供する情報提供装置、および情報提供装置と無線を介して通信する携帯端末を含む。複数の対象物は実空間に存在しており、対象物識別情報を記憶保持した複数の無線タグがそれぞれ設けられている。ユーザは携帯端末を持ってこの実空間内に入ることで学習をすることができる。学習する際には、ユーザは、たとえば携帯端末を対象物に近づけて指し示すなどして、操作手段を操作する。すると、取得手段は、ユーザによる操作手段の操作に応じて無線タグから対象物識別情報を取得する。第1送信手段は、取得した対象物識別情報を含む要求情報を情報提供装置に無線により送信する。一方、情報提供装置の音声情報記憶手段は、対象物識別情報ごとに関連付けられた対象物に関する音声情報を記憶している。音声情報読出手段は、携帯端末から送信された要求情報に基づいて、対応する音声情報を読み出す。そして、音声情報読出手段によって読み出された音声情報に基づく情報が、提供手段によってユビキタス学習システムの備える音声出力手段に提供され、音声出力手段は、読み出された音声情報に基づいて音声を出力する。したがって、ユーザは、出力された音声を聞くことによって学習することができる。このように、対象物の存在する実空間、すなわち、ユーザを取り巻く空間をまるまる学習環境とすることができる。
【0017】
たとえば、音声出力手段は携帯端末に設けられ得る。この場合、情報提供装置は第2送信手段を備えていて、この提供手段としての第2送信手段は、音声情報読出手段によって読み出した音声情報に基づいた返信情報を携帯端末へ送信する。一方、携帯端末は第1受信手段を備えていて、第1受信手段は、情報提供装置から送信された返信情報を無線により受信する。したがって、音声出力手段は、受信した返信情報に含まれる音声情報に基づいて、音声を出力する。このように、携帯端末が音声出力手段を備えた場合、対象物から識別情報を取得するだけでなく音声も出力するので、このような携帯端末は「発話タクト」という。
【0018】
また、情報提供装置は、文字情報記憶手段および文字情報読出手段をさらに含んでもよい。文字情報記憶手段には、対象物識別情報ごとに関連付けられた対象物に関する文字情報が記憶される。文字情報読出手段は、携帯端末から送信された要求情報に基づいて、対応する文字情報を読み出す。そして、文字情報読出手段によって読み出された文字情報に基づく情報が、提供手段によってユビキタス学習システムの備える表示手段に提供され、表示手段は、読み出された文字情報に基づいて文字を表示する。したがって、ユーザは、音声とともに文字によって学習することができ、効率よく学習を行える。
【0019】
また、発話タクト(または携帯端末)は、ユーザ識別情報,言語情報,およびレベル情報の少なくとも1つを含むユーザ情報を記憶する第1記憶手段を備えてよい。そして、第1送信手段によって送信する要求情報は、ユーザ情報を含んでよい。この場合、情報提供装置では、ユーザ識別情報、言語情報、およびレベルの少なくとも1つに基づいて、対応する音声情報が読み出されることとなる。したがって、ユーザはユーザ情報に対応する音声を聞くことができ、たとえば自らの学習したい言語およびレベルでの学習ができる。
【0020】
また、上述のようなユーザ情報は、ユーザ情報を記憶保持した無線タグから取得手段によって取得して、第1記憶手段に記憶するようにしてよい。この場合には、複数のユーザごとのユーザ用の無線タグを準備すれば、1つの発話タクトを複数のユーザで共用することができ、しかもそれぞれのユーザ情報に対応する音で学習を行える。
【0021】
また、情報提供装置での処理を指示する制御情報を記憶保持する無線タグを準備し、取得手段によって制御情報を取得するようにしてもよい。第1送信手段は、取得手段によって取得した制御情報を情報提供装置へ送信する。この場合には、情報提供装置側で行わせたい処理を指示することができる。
【0022】
また、発話タクトには表示手段が設けられてもよい。この場合、第1受信手段は、音声情報とともに文字情報を受信する。そして、表示手段は、受信した文字情報に基づいて文字を表示する。したがって、ユーザは、発話タクトによって音声および文字を用いた学習することができ、効率よく学習を行える。
【0023】
また、情報提供装置の音声情報記憶手段には、複数の言語によって発音される言語ごとの音声情報が記憶されてもよい。この場合、音声情報読出手段は、携帯端末(発話タクト)からの要求情報に基づいて、対応する言語による音声情報を読み出す。したがって、多言語の学習空間を構築することができ、ユーザは複数の言語の学習を行うことができる。
【0024】
また、情報提供装置の音声情報記憶手段には、複数のレベルごとの音声情報が記憶されてもよい。この場合、音声情報読出手段は、発話タクトからの要求情報に基づいて、対応するレベルの音声情報を読み出す。したがって、ユーザは複数のレベルごとの学習を、たとえば自らのレベルに合わせて行うことができる。
【0025】
また、情報提供装置はユーザ情報記憶手段およびユーザ情報読出手段をさらに含んでよい。ユーザ情報記憶手段は、ユーザ識別情報ごとに関連付けられた言語情報およびレベル情報の少なくとも一方を含むユーザ情報を記憶する。ユーザ情報読出手段は、要求情報に含まれるユーザ識別情報に基づいて、対応するユーザ情報を読み出す。そして、音声情報読出手段は、ユーザ情報に対応する音声情報を読み出す。したがって、ユーザは、自らの所望する学習言語またはレベル、学習言語およびレベルによる学習を行える。また、複数のユーザ間で異なる学習言語およびレベルに対応することができ、たとえば同時同空間に対して多言語の学習環境を構築できる。
【0026】
また、情報提供装置は、音声情報の発話速度を、対象物の認識履歴状況に応じて調節する速度調節手段を含んでよい。この場合には、ユーザの学習状況に適応した発話速度を有する音声情報を提供することができ、学習効率を向上することができる。あるいは、音声情報記憶手段に、発話速度の異なる複数の音声情報を記憶しておき、音声情報読出手段によって、対象物の認識履歴状況に応じて、対応する発話速度の音声情報を読み出すようにしてもよい。この場合にも、同様に、ユーザの学習状況に応じた効率のよい学習ができる。
【0027】
また、情報提供装置は、複数の対象物の認識すべき順序を定めた認識順序情報を記憶する認識順序記憶手段を含んでよい。この場合、音声情報記憶手段には、認識すべき対象物を指示する設問音声情報が記憶されている。判別手段は、端末から送信された対象物識別情報および認識順序情報に基づいて、その認識の成否を判別する。そして、音声情報読出手段は、判別手段によって認識が正解と判断されたとき、順序を1つ進めたその次に認識すべき対象物を指示する設問音声情報を読み出す。一方、判別手段によって認識が不適と判断されたときは、音声情報読出手段は、現在の認識すべき対象物を指示する設問音声情報を読み出す。この場合には、ユーザに対して、オリエンテーリングのように進路指示をするので、ゲーム感覚で学習を進めることができるし、また、ユーザが能動的に学習環境と向き合うようにすることができる。
【0028】
さらに、音声情報記憶手段には、複数の説明レベルごとの設問音声情報が記憶されてもよい。この場合、判別手段は、さらに、現在の認識すべき対象物に対する回答回数が第1所定数を超えたか否かを判断する。そして、音声情報読出手段は、判別手段によって回答回数が第1所定数を超えたと判断されたとき、それまでよりも分かり易い説明レベルの設問音声情報を読み出す。したがって、ユーザの学習状況に適した説明レベルを有する設問音声情報を提供することができるので、ユーザは効率よく学習を進めることができる。
【0029】
さらにまた、音声情報記憶手段には、複数の言語ごとの設問音声情報が記憶されてもよい。この場合には、判別手段は、さらに、現在の認識すべき対象物に対する回答回数が第2所定数になったか否かを判断する。そして、音声情報読出手段は、判別手段によって回答回数が第2所定数になったと判断されたとき、それまでよりもユーザの理解度の高い言語による設問音声情報を読み出す。したがって、ユーザの学習状況に適した言語による設問音声情報を提供することができるので、ユーザは効率よく学習を進めることができる。
【0030】
【発明の効果】
この発明によれば、ユーザを取り巻く空間をまるまる学習環境とすることができる。ユーザは、従来のように教材に向かうのではなく、その学習空間に身をおくことで、その環境の方が学習しようとするユーザに向かってくるようになり、したがって、学習効率の向上が期待できる。また、ユーザのその時々の学習状況に適応した音声情報を提供できるので、ユーザは効率よく学習を行うことができる。
【0031】
この発明の上述の目的,その他の目的,特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。
【0032】
【実施例】
図1を参照して、この実施例のユビキタス学習システム10は、実空間12に存在する複数の対象物14a,14b,…を用いて学習をするためのものである。このユビキタス学習システム10は、複数の対象物14a,14b,…にそれぞれ設けられる複数の無線タグ16a,16b,…、対象物14a,14b,…に関する情報を提供する情報提供装置としてのサーバ18、およびユーザ20によって操作される携帯端末としての発話タクト22を含む。発話タクト22は無線通信可能なものであり、基地局24,図示しないPHS網または携帯電話網,およびインタネット26等を介して、サーバ18と接続される。
【0033】
なお、複数の対象物14a,14b,…をまとめて参照符号「14」で表記し、複数の無線タグ16a,16b,…をまとめて参照符号「16」で表記することもある。また、対象物14に設けられる無線タグ16を対象物用無線タグ16ともいうものとする。
【0034】
サーバ18はコンピュータであり、図示は省略するが、その制御を担当するCPUを含み、CPUにはROM,RAM,HDD,通信装置等が接続される。ROMまたはHDD等には、このユビキタス学習の処理のためのプログラムおよびデータが、コンピュータ読取可能な記録媒体等から読み出されてインストールされている。さらに、サーバ18には、図1に示すように、ユーザ情報データベース(DB)70,対象物音声情報(第1言語)DB72,対象物音声情報(他言語)DB74およびナビゲートモード用音声情報DB76が接続される。この実施例では、複数の言語を学習可能にしており、複数の言語による音声情報が登録されている。各DBは、サーバ18に内蔵されてもよいし、あるいはサーバ本体の外部に別に設けられてもよい。また、場合によってはサーバ18は複数のコンピュータに分散して構成されてもよい。
【0035】
図2には、実空間12の一例としての部屋が示される。学習の行われる実空間12は、任意であるが、たとえば家庭,学校等が想定される。複数の対象物14はそこに設置されて存在するあらゆるものが該当し得る。この部屋12には、たとえば、壁28,壁紙30,扉32,三輪車34,ハンドル36,サドル38,時計40,キャビネット42、引き出し44,コーラン46,バイブル48,および『□□□』という題の本50などが存在している。これらには図示しないそれぞれの無線タグ16がたとえば内蔵または貼付等の適宜な方法で設けられている。したがって、部屋12に存在するこれらのものは学習の対象物14となる。このようにして、ユーザ20を取り巻く空間12をまるまる学習環境とすることができる。部屋12が、たとえばユーザ20の家庭の部屋あれば、ユーザ20の生活空間そのものがこのユビキタス学習システム10における学習空間となる。
【0036】
無線タグ16は、たとえばRFIDであり、識別情報用のメモリや通信用の制御回路等を備えるICチップ等を含む。対象物用無線タグ16には、それが設けられる対象物14を識別するための対象物識別情報が記憶保持されている。無線タグ16では、たとえば一定時間電波等を受けて電力を発生させることでICが動作し、識別情報を送るための電波等が出力される。無線タグ16は、その通信距離によって、密着型(通信距離:2mm以内)、近接型(10cm以内)、近傍型(70cm以内)などに分類され(ISO規格)、この実施例では、近接型または近傍型を適用するのが望ましい。この無線タグ16に記憶された情報の読取は、発話タクト22によってなされる。
【0037】
発話タクト22は携帯端末であり、すなわち、ユーザ20によって携帯可能なサイズや重さ等で形成されている。その形状は任意であるが、たとえば学習時に対象物14を指し示す指揮棒のような棒状等に形成される。発話タクト22にはたとえばバッテリまたはACアダプタ等を介して家庭用電源等から電源が与えられる。
【0038】
図3には、この発話タクト22の内部構成が示される。発話タクト22は、この発話タクト22の全体的な制御を担当するCPU52を含む。CPU52には、ROM54,RAM56,操作ボタン58,無線タグデータ読取装置60,無線通信装置62およびスピーカ64等が接続される。
【0039】
ROM54は、発話タクト22の動作のためのプログラムおよびデータ等を記憶する。RAM56は作業領域およびバッファ領域等として用いられる。操作ボタン58はユーザ20の操作入力手段であり、CPU52に操作入力信号を与える。たとえばこの実施例では1つの操作ボタン58が設けられ、ユーザ20は指一本で簡単に操作できる。無線タグデータ読取装置60は、無線タグ16から情報を読み取るための取得手段であり、CPU52の指示に従って、たとえばアンテナ等から一定時間電波等を送り、無線タグ16の返送する電波等を一定時間受信する。無線通信装置62はサーバ18と無線を介して情報を送受信するためのものであり、CPU52の指示に従って、読み取った情報等をサーバ18宛に送信し、サーバ18から音声データを含む返信データを受信する。スピーカ64には、CPU52からたとえばD/Aコンバータやアンプ等を介して音声信号が与えられて音声を出力する。なお、出力端子を設けてイヤホン等で聞けるようにしてもよい。
【0040】
図4にはRAM56のメモリマップの一例が示される。RAM56は、プログラム記憶領域66およびデータ記憶領域68を含む。プログラム記憶領域66には、ROM54から、この発話タクト22の動作のためのプログラムがロードされ、CPU56はプログラムに従って処理を実行する。このプログラムは、たとえば無線タグデータ読取制御プログラム,通信制御プログラム,音声再生プログラム等を含む。
【0041】
データ記憶領域68には、ROM54から動作に必要なデータ、無線タグ16から取得した読取データ、およびサーバ18から受信した音声データ等が書き込まれ、たとえばサーバアドレスやユーザ情報その他データを含む。ユーザ情報は、ユーザ識別情報としてのユーザコードを含み、その他たとえば、ユーザ名,言語およびレベル等を含んでよい。ユーザ情報は、後述のように、ユーザID用等の無線タグから取得されてもよいし、予めROM54に格納されていてもよい。
【0042】
図5には、サーバ18のRAMのメモリマップの一例が示される。サーバ18のRAMは、プログラム記憶領域78およびデータ記憶領域80を含む。プログラム記憶領域78には、ROMまたはHDD等から、サーバの動作のためのプログラムがロードされ、サーバのCPUはこのプログラムに従って処理を実行する。プログラムは、発話タクト22との通信を制御するための通信制御プログラム,基本応答モードプログラム,速度調節モードプログラム,ナビゲートモードプログラムおよびその他プログラム等を含む。このように、ユビキタス学習システム10は、基本応答モード,速度調節モードおよびナビゲートモード等の複数の学習モードを備えているが、各モードの詳細は後述する。データ記憶領域80には、プログラムの動作に必要なデータがROM,HDDおよび各データベース等から必要に応じて書き込まれ、また受信データ等も書き込まれる。
【0043】
図6には、ユーザ情報DB70に登録されるユーザ情報の一例を示す。ユーザ情報は、識別情報としてのユーザコードに関連付けられて、たとえば、ユーザ名,第1学習言語およびそのレベル,第2学習言語およびそのレベル,ユーザの母国語および現状モード等に関する情報が格納されている。ユーザ情報は予め登録されるが、たとえばユーザ20が携帯端末22から変更することも可能にされる。なお、この図6の例のように、一人のユーザに複数の学習言語を登録する場合には、基本的には第1学習言語およびそのレベルでの学習が行われるが、学習前等に第1学習言語等は変更可能にされる。
【0044】
図7には、対象物音声情報(第1言語)DB72に登録されるデータの一例が示される。対象物音声情報DB72には、対象物識別情報としての対象物コードごとに関連付けられて、たとえば、その対象物の名称(スペリング)の文字(テキスト)データ,その言語の種類(この実施例では、第1言語は英語である),および学習レベルごとの音声データ(この実施例ではLv0〜Lv2の3つのレベル)等が格納されている。具体的には、レベル0の音声データは、その対象物の単語を発音する発音の音声データであり、レベル1の音声データは、発音およびその対象物を説明する説明(その意味など)の音声データであり、レベル2の音声データは、発音およびその対象物を詳細に説明する詳細説明の音声データである。つまり、Lv0の場合は、単語帳的な機能を果たし、Lv1の場合は、辞書的な機能を果たし、Lv2の場合は、事典的な機能を果たす。また、この音声データは標準の発話速度を有するものである。なお、音声データは通信速度および回線負担等の観点から適宜な方式の圧縮ファイルであることが望ましい。
【0045】
また、図8には、対象物音声情報(他言語)DB74に登録されるデータの一例が示される。このDB74にも、同様に、対象物コードごとに関連付けられて、その対象物名のテキストデータ,その言語種類,および学習レベルLv0〜Lv2ごとの音声データが格納されている。言語の種類としては、たとえば日本語,韓国語,中国語,フランス語その他様々な言語が格納され得る。
【0046】
なお、この実施例では、第1言語と他言語とでデータベースを分けているが、データベースの設け方は任意であり、これらは1つのデータベースとして形成されてもよいし、あるいは、言語ごとにデータベースを形成するようにしてもよいのはもちろんである。
【0047】
このユビキタス学習システム10において、発話タクト22からサーバ18に送信されるデータには、ユーザ20を特定するために、ユーザ識別情報が含まれる。ユーザ識別情報は、上述のように、予め発話タクト22のROM54に格納されていてよく、この場合の発話タクト22は基本的にはユーザ20の専用端末といえる。
【0048】
また、ユーザ識別情報は、たとえば図9(A)に示すようなユーザIDシート82から取得されてもよい。ユーザIDシート82は、ユーザ識別情報を記憶保持したユーザ用の無線タグ84を含む。このシート82の材料および形状等は任意であるが、たとえば紙やプラスチック等によって、カード状等に形成され、無線タグ84が内蔵あるいは貼付等によって設けられる。このユーザ用無線タグ84には、ユーザコードとともに、たとえばユーザ名,学習言語およびレベル等が記憶され、その内容であるユーザ名,学習言語およびレベルは、シート82上に文字表示されている。
【0049】
また、ユーザIDシート82は、図9(B)に示すように、複数の学習言語およびレベルに関する情報を備えるものであってもよい。つまり、このユーザA用のユーザIDシート82は、3つのユーザ用の無線タグ84a,84bおよび84cを含み、これら無線タグ84a,84b,および84cには、ユーザコードとともに、学習言語が英語で、かつ、レベルがLv0,Lv1およびLv2であるユーザ情報がそれぞれ記憶されている。このようなシート82を用いた場合には、ユーザAは、学習したい言語およびレベルを複数から選択することが可能になる。このように、ユーザ情報をユーザIDシート82から取得するようにした場合には、1つの発話タクト22を複数のユーザで共用することも可能である。つまり、たとえば図9(C)に示すように、ユーザB用のユーザIDシート82を所有するユーザBは、たとえば他のユーザAの発話タクト22を用いて、自らの学習言語およびレベル(図例では韓国語のLv1または仏語のLv1)で学習できる。
【0050】
また、図10に示すような汎用学習言語設定用の制御IDシート86を使用することによって、どのユーザ20であっても、ユーザ情報DB70に登録されている学習言語およびレベルを変更することができるようにしてもよい。この制御IDシート86は制御用の無線タグ88を含み、この制御用の無線タグ88には、ユーザ情報DB70に登録されている学習言語およびレベルの情報の変更設定を指示する制御コードとともに、その変更内容(図例では中国語Lv2)等が記憶されている。さらに、このような制御IDシート86としては、ユーザ情報の設定変更だけでなく、後述のように、サーバ18側への各種の設定処理の指示が可能なものが準備される。
【0051】
対象物用無線タグ16,ユーザ用無線タグ84および制御用無線タグ88は、同じ製品が用いられてよいが、それぞれを区別可能なデータ属性情報を保持している。図11には、各無線タグのデータ構造の一例が示される。
【0052】
図11(A)に示すように、ユーザ用無線タグ84に記憶されるユーザIDデータは、たとえば、2バイトのデータ属性領域、8バイトのユーザコード領域、16バイトのユーザ名領域、さらに2バイトごとのデータ領域を含み、データ領域は必要に応じて拡張される。このデータ例“001 02516 ○○○ JPNLv3 ENGLv2 CHNLv0 …”では、「001」がデータ属性であり、この情報がユーザIDデータであることを示す。ユーザ一人一人に割り当てられる識別情報であるユーザコードおよびその名前に続いて、データ領域には、ユーザの語学レベルに関する情報が記憶され、「JPNLv3」は日本語がレベル3(母国語)であることを示し、以下、英語がレベル2であり、中国語がレベル0であり、これらは順に第1学習言語および第2学習言語の情報を示す。
【0053】
また、図11(B)に示すように、対象物用無線タグ16に記憶される対象物IDデータは、たとえば、2バイトのデータ属性領域、8バイトの対象物コード領域、16バイトの対象物名領域、さらに2バイトごとのデータ領域を含み、データ領域は必要に応じて拡張される。このデータ例“002 13076 □□□ 3900 Book Entity JPNLv1 …”では、「002」がデータ属性であり、この情報が対象物IDデータであることを示す。対象物14それぞれに割り当てられる識別情報である対象物コードおよびその名称に続いて、データ領域には、その対象物14の詳細情報が記憶され、たとえば価格、物の分類、実在物であるか他のものか、初期設定音声等の情報を含む。ここで、実在物の他のものとしてはたとえば感情などを設定することによって、“Love”や“Hate”等の感情を示す語を学習させることが可能になる。この場合、無線タグ16は、その感情を表すような対象物14に設けられてもよいし、あるいは、感情カードないしシート等に設けるようにしてもよい。また、初期設定音声は、その対象物14のデフォルトの音声データを示すもので、「JPNLv1」は日本語のレベル1の音声データを示し、たとえば学習言語に関する情報が未設定等の場合にこの初期設定音声に従った音声データがサーバ18で読み出される。
【0054】
さらに、図11(C)に示すように、制御用無線タグ88に記憶される制御IDデータは、たとえば2バイトのデータ属性領域、8バイトの制御コード領域および16バイトの制御名領域、さらに必要に応じて拡張されるデータ領域を含む。このデータ例“003 010200 ナビゲートON …”では、「003」がデータ属性であり、この情報がサーバ18側への設定処理指示に関する制御IDデータであることを示す。制御コードは、たとえば、図12に示すようにして設定される。つまり、8バイトのうち最初の2バイトは、制御操作対象の指定であり、たとえば、「01」はモード、「02」はユーザ情報、「03」は音声ファイル等を意味する。次の2バイトは、操作対象のうちの詳細な指定であり、たとえば、モードの場合、「00」は基本応答、「01」は速度調節、「02」はナビゲート等を意味する。続く2バイトは、設定情報であり、たとえば速度調節モードの場合、「00」がスタート、「01」がリフレッシュ、「02」が高速等を意味する。最後の2バイトでは、拡張データ領域に関する指定を行う。このような制御コードによって、サーバ18側へ様々な設定処理の指示が可能になる。
【0055】
このユビキタス学習システム10においては、たとえば、基本応答モード,速度調節モードおよびナビゲートモード等で学習をすることができる。いずれのモードにおいても、ユーザ20は、対象物14の対象物用無線タグ16から所定の通信可能な距離範囲内で無線タグデータ読取装置60をその無線タグ16へ向けて操作ボタン58を押し下げればよい。これによって、その対象物用無線タグ16の対象物IDデータを読み取ることができる。読み取った対象物識別情報はユーザ情報とともに要求情報として、無線通信装置62によってサーバ18宛に送信される。サーバ18では、そのユーザの現状モードのアプリケーションが起動され、受信した対象物識別情報(対象物コード)に基づいて、対応する音声データがデータベースから読み出される。なお、デフォルトは基本応答モードに設定される。そして、音声データは発話タクト22宛に送信される。音声データを受信した発話タクト22では、スピーカ64から音声として出力される。
【0056】
基本応答モードでは、取得した対象物コードならびにユーザ20の学習言語およびレベルに基づいて、対応する音声データが対象物音声情報DB72または74から読み出されて送信される。したがって、ユーザ20は、対象物音声情報DB72または74に登録されている音声を聞くことができる。たとえば、ユーザ20の学習言語およびレベルが英語のLv0であった場合において、図13に示すように、発話タクト22で時計40を指し示してその操作ボタン58を押し下げたときには、スピーカ64から“clock”という発音が出力される。このように、ユーザ20は、空間12内で学習の対象物14を実際に指し示すような身体動作をともなって学習をする。したがって、身体性および空間性を伴うことによって、従来のようなただ教材に向かうのみであった学習とは異なり、学習効率が向上することが期待できる。
【0057】
速度調節モードでは、ユーザ20の学習状況に合わせて発話速度を変化させた音声が出力される。発話速度は、ユーザ20の対象物14に対するアクセス履歴(認識履歴)の状況に基づいて、ユーザの速度適応レベルへ合わせていく。この速度調節モードでは、図14(A)に示すように、速度調節モード用のコントロールシート(制御IDシート)86が使用される。このシート86には、速度調節モードのスタート,リフレッシュおよび終了を指示する制御IDデータがそれぞれ記憶された3つの制御用の無線タグ88が設けられている。また、図14(B)に示すような速度調節モード用の速度固定コントロールシート86等も使用され得る。このシート86には、早い発話速度への固定,ノーマルな発話速度への固定および遅い発話速度への固定を指示する制御IDデータがそれぞれ記憶された3つの制御用の無線タグ88が設けられている。
【0058】
図14(A)のスタートに対応する無線タグ88を読み取ることによって、この速度調節モードを起動することができる。速度調節モードが起動されると、たとえば図15に示すような速度調節モード用のデータ記憶領域がサーバ18のRAMに生成される。このデータ領域には、たとえば、ユーザID(ユーザコード),適応係数,速度固定,今回認識した対象物ID(対象物コード),対象物14の認識履歴データとして1回前から9回前までに認識した対象物コード,試行回数,累計試行回数等が格納される。
【0059】
適応係数は発話速度を決定するためのものであり、図16に示すように、この実施例では、過去10回の履歴において認識された対象の種類Nに基づいて決定される。たとえば、N=1のとき、すなわち、1種類のものが10回聞かれたときに、ノーマル(100%)に対して50%(半分)の速度になり、N=10のとき、すなわち、10種類が1回ずつ聞かれたときに、ノーマルに対して200%(2倍)の速度になるように設定される。適応係数は、具体的には、図16に示すように、50%×1.16652(N−1)によって算出される。スタート時には100%程度となるように、たとえば1回前から9回前の認識履歴には、初期値として5種類のコードを設定しておく。なお、この履歴として参照する回数,最速の係数および最遅の係数等の設定値は適宜に変更され得る。
【0060】
この適応係数に基づいて、今回認識した対象物IDの音声データの発話速度が変更される。なお、他の実施例では、対象種類数N(適応係数)ごとの発話速度に設定された音声データを予めデータベースに記憶しておいてもよい。また、種類数Nごとに速度を分けずに、たとえば1−4,5−6,7−10等のように幾つかの範囲に区切って、低速,標準,高速等に分けるようにしてもよい。
【0061】
このように、過去の所定回数の履歴において、ユーザがアクセスした対象の種類に基づいて、適応係数を算出して発話速度を設定することによって、ユーザ20の語学レベルに適した速度に収束させることができる。たとえば、ユーザ20が成長するにつれて、違う対象を選択し続けて種類数Nが増加していくと思われ、したがって発話速度を早めていくことができる。しかし、分からないまたは聞き取りにくい対象が出てきた場合には、同じものを何度か選択して種類数Nが減少していくと思われ、したがって、適切に発話速度を遅くすることができる。図17には、この速度調節モードによって実現される各レベルのユーザ学習曲線(速度と試行回数との関係)の一例が示される。図17(A)は、優秀者の場合であり、開始後すぐに高速に達し、たまに分からないものがあれば速度が下がるが、全体(太線)としては高速に維持される。図17(B)は、標準的な者の場合であり、標準の速度は維持しつつ、分かる場合は速度は上がり、分からない場合は速度が下がるということが繰り返される(細線)が、全体(太線)としては徐々に高速へ近づいていく。また、図17(C)は、不慣れな者の場合であり、初めは低速になるが、学習が進むと、速度の上下を繰り返しつつも、全体(太線)としては徐々に速度が上がっていく。このように、速度調節モードでは、ユーザ20の学習状況(認識履歴の状況)に応じて発話速度が変化された音声データが提供されるので、ユーザは効率よく学習を行うことができる。
【0062】
ナビゲートモードは、認識すべき対象物14の順序が予め決定されていて、ユーザ20には次に認識すべき対象物14を指示する情報が提供される。したがって、オリエンテーリングのように、進路を指示していくので、ユーザはゲーム感覚で学習を進めることができ、また、ユーザ20が能動的に学習環境と向き合うようにすることができる。
【0063】
たとえば、図18には、ナビゲートモードの進路の様子の一例が示される。チェックポイントCP1から6の順に、ナビゲートモードの開始,扉32,時計40,キャビネット42,サドル38,ハンドル36が設定されている。各CPで出力される次のCPへの進路指示(設問)に正解することによって、さらに次のCPに進むための設問音声を聞くことができる。間違えた場合には、たとえば、間違いのアナウンスとともに、同じ設問が繰り返される。そして、第1所定回数(この実施例では3回)間違えたときには、レベルが変更されて分かり易いヒントになる音声データが提供される。それでも正解できずに、さらに、第2所定回数(この実施例では10回)間違えたときには、たとえば、ユーザ20がより理解し易いように、現在の学習言語よりも高い学習レベルに設定されている言語、すなわち、ユーザ理解度の高い言語(この実施例では母国語)による音声が出力される。さらに間違いのときは、たとえば強制的に次のCPへ進めるようにする。
【0064】
さらに詳しくは、ナビゲートモードが開始されたとき、CP1では、ユーザ20の学習言語(たとえば英語)で、たとえば、「ナビゲートモードを開始します。まず扉を見つけて下さい。」というCP2への進路を指示する設問音声が出力される。これに対して、ユーザ20が扉に行きその対象物用無線タグ16を認識させた場合には、英語で「そうです、これは扉です。部屋に入るときに開けるものですね。次に、時間を刻む器械を見つけて下さい。」というCP3へナビゲートする音声が出力される。これに対して、ユーザ20が本を認識した場合には、英語で「違います、それは本です。時間を刻む器械を見つけて下さい。」という音声が出力される。その後、このCP3への設問で3回(第1所定回数)間違えたとき、たとえば「違います、それはサドルです。」「キャビネットの上にある時計が時間を刻んでいます。」という音声が出力される。これはヒントになる音声データであり、さらに、ゆっくり発音されるように発話速度も遅くされる。これに正解した場合には、次のCP4への設問の音声が、元の速度で出力される。一方、不正解が10回(第2所定回数)続いた場合には、たとえば、言語が変えられて、ユーザ20の母国語である日本語で「違います、それはサドルです。時間を刻む器械を見つけて下さい。」という音声が出力される。このように、ナビゲートモードでは、ユーザ20の学習状況に応じて、発話速度および内容に基づく説明レベル、または言語等が変化された音声情報が提供されるので、ユーザ20は効率よく学習を進めることができる。
【0065】
なお、このようなナビゲートモードでの学習は、たとえば学校などの施設全体にわたって複数対象物14に無線タグ16を設けて大規模に実施するようにしてもよい。
【0066】
ナビゲートモードでは、図19(A)に示すように、ナビゲートモード用のコントロールシート(制御IDシート)86が使用される。このシート86には、ナビゲートモードのスタート,リスタートおよび終了を指示する制御IDデータがそれぞれ記憶された3つの制御用の無線タグ88が設けられている。また、図19(B)に示すようなナビゲートモード用の学習言語変更コントロールシート86等も使用され得る。このシート86には、英語,日本語および韓国語を指示する制御IDデータがそれぞれ記憶された3つの制御用の無線タグ88が設けられている。
【0067】
図19(A)のスタートに対応する無線タグ88を読み取ることによって、このナビゲートモードを起動することができる。ナビゲートモードが起動されると、たとえば図20に示すようなナビゲートモード用のデータ記憶領域がサーバ18のRAMに生成される。このデータ領域には、たとえば、ユーザID(ユーザコード),ユーザ学習言語,ユーザ母国語,現在いるチェックポイントCP,現在の回答レベルCAL,今回の認識の結果R,チェックポイントごとの回答回数および認識すべき識別情報等が格納される。開始時に相当するCP1の認識すべき情報はスタートの制御コードが設定され、CP2以降はそれぞれの対象物コードが設定され、この実施例では、順に扉32,時計40,キャビネット42,サドル38,ハンドル36の対象物コードが設定されている。このように、認識すべき対象物14の順序が定められた認識順序情報が記憶されている。なお、初期設定としては、現在いるCPは1、現在の回答レベルCALは2(レベル変更)以外の値、今回の認識の結果Rは開始時、各CPの回答回数は0が設定される。
【0068】
また、図21および図22には、ナビゲートモード用音声情報DB76に登録される定型音声データおよび設問音声データの一例が示される。このデータは、各チェックポイントCPにおける各認識の結果Rに関連付けられた、複数の学習言語(英語,日本語等)による定型音声データおよび設問音声データを含む。具体的には、R=開始時には、ナビゲートモードスタート時に出力される音声データが登録される。R=0は不正解時の音声データであり、R=1は正解時の音声データである。R=2は、3回間違えた場合に出力されるレベル変更された音声データであり、R=3は、10回間違えた場合に言語を変更して出力される音声データである。R=4は、R=3の音声に対してさらに間違えた場合に、次のCPへ移る前に出力される音声データである。開始時以外の定型音声は、正解または不正解のアナウンスのためのものであり、図21中の「_(下線)」部分には、そのときに認識した対象物14の名称が対象物音声情報DB72または74から読み出されて合成される。設問音声は、認識すべき対象物14を指示するためのものである。定型音声と設問音声とは合成されて、合成された音声データが発話タクト22へ送信されることとなる。
【0069】
図23には、発話タクト22の動作の一例が示される。発話タクト22では、電源が投入されると、ROM54からRAM56へプログラムおよびデータがロードされて起動され、ユーザ20からの操作を待機する状態になる。つまり、発話タクト22のCPU52は、まず、ステップS1で、操作ボタン58が押し下げられたかどうかを判断する。操作入力信号を受けた場合には、続くステップS3で、無線タグデータ読取装置60へ起動指示を与えて作動させ、読取装置60が無線タグから読み取ったID情報を取得する。続くステップS5からS9で、このID情報のデータ属性を判別する。
【0070】
ステップS5では、ユーザIDであるか否かを判断し、“YES”であれば、つまり、データ属性が「001」の場合には、続くステップS11で、取得したユーザ情報をメモリ(RAM)56の所定のデータ領域66に書き込む。このステップS5の処理は、図9のようなユーザIDシート82を使用する場合に必要な処理であり、ROM54にユーザ情報が予め記憶されている場合には不要である。ユーザIDシート82を使用する場合、他の無線タグからの読取を行う前にこのユーザ用の無線タグ84の読取を行う必要がある。ステップS11の処理を終了すると、ステップS1へ戻る。
【0071】
ステップS5で“NO”であれば、ステップS7で、対象物IDであるか否かを判断する。“YES”であれば、つまり、データ属性が「002」の場合には、ステップS13で、取得した対象物情報およびRAM56のユーザ情報に基づいて、要求情報としての送信データを生成する。この送信データには、ユーザコードおよび対象物コード等が含まれる。
【0072】
そして、ステップS15で、送信データの返信待ちキュー管理を処理し、ステップS17で、無線通信装置62によってサーバ18宛に送信データを送信させる。なお、キュー処理によって、単位時間(たとえば2秒)以内の操作ボタン58の二度押しなどを排除することができる。また、単位時間以上の複数入力であれば、複数回のデータが溜まっていたとしても入力順に送信することができる。ステップS17の処理を終了すると、ステップS1へ戻る。
【0073】
また、ステップS7で“NO”であれば、ステップS9で、制御IDであるか否かを判断する。“YES”であれば、つまり、データ属性が「003」である場合には、ステップS19で、取得した制御情報およびRAM56のユーザ情報に基づいて送信データを生成する。この送信データには、ユーザコードおよび制御コード等が含まれる。なお、制御コマンドがユーザ情報の変更設定の場合には、このステップS19の前に、RAM56のデータ領域68のユーザ情報を書き換えるようにしてもよい。そして、ステップS21で、無線通信装置62によってサーバ18宛に送信データを送信させる。このステップS21の処理を終了するとステップS1へ戻る。
【0074】
一方、ステップS1で“NO”であれば、続くステップS23で、サーバ18からデータを受信したか否かを判断する。送信データが対象物情報を含んでいた場合には、それに対応する音声データがサーバ18から送信されてくる。また、送信データが制御情報を含んでいた場合において、ナビゲートモードのスタートコードであったときにも、対応する開始時の音声データが送信されてくる。このステップS23で“YES”であれば、ステップS25で、受信データの返信待ちキュー管理を処理し、ステップS27で、受信した音声データを再生処理してスピーカ64に与えて、音として出力する。なお、キュー処理によって、複数のデータが溜まっていたとしても順に出力することができる。ステップS27の処理を終了すると、ステップS1へ戻る。
【0075】
図24から図30には、サーバ18の動作の一例が示される。図24は、メインフローを示し、サーバ18では、たとえば電源投入によってROMおよびHDD等からプログラムおよびデータがRAMにロードされて、処理が開始され、発話タクト22からの送信データの受信待機状態にされる。つまり、サーバ18のCPUは、図24の最初のステップS41で、発話タクト22からのデータ(要求情報)を受信したかどうかを判断し、“NO”であればこのステップS41を繰り返す。ステップS41で“YES”であれば、続くステップS43で、受信データからユーザ情報を取得する。このユーザ情報(ユーザIDデータ)に含まれるユーザコードによって、サーバ18にアクセスしたユーザ20を特定することできる。また、受信データから発話タクト22のアドレスも取得される。なお、ユーザ情報がない場合にはエラー処理を行い、たとえばユーザ情報の送信を促す音声データ等を発話タクト22へ送信するようにしてもよい。
【0076】
さらに、ステップS45で、受信したデータに制御情報が有るか否かを判断する。このステップS45で“YES”であれば、つまり、制御情報(制御IDデータ)があれば、ステップS47で、この制御情報に基づいて、制御情報設定を処理する。
【0077】
この制御情報設定処理S47の動作は図25に示される。図25の最初のステップS81で、制御情報に含まれる制御コード(図12)の解析をする。ステップS83で、操作対象がモード(「01」)であるか否かを判断し、“YES”であれば、続くステップS85で、詳細設定が基本応答モード(「00」)に関するものか否かを判断する。このステップS85で“YES”であれば、ステップS87で、制御情報の制御コードおよびデータ領域のデータ等に応じて、基本応答モードに関する設定処理を行ってリターンする。
【0078】
ステップS85で“NO”であれば、ステップS89で、詳細設定が速度調節モード(「01」)に関するものであるか否かを判断する。ステップS89で“YES”であれば、ステップS91で速度調節モードの設定を処理する。このステップS91の速度調節モード設定処理の詳細は図26に示されるが、これについては後述する。
【0079】
ステップS89で“NO”であれば、ステップS93で、詳細設定がナビゲートモード(「02」)に関するものであるか否かを判断する。ステップS93で、“YES”であれば、ステップS95で、ナビゲートモードの設定を処理する。このステップS95のナビゲートモード設定処理の詳細は図27に示されるが、これについても後述する。
【0080】
ステップS93で“NO”であれば、続くステップS97で、制御情報に応じたその他のモードに関する設定処理を行ってリターンする。
【0081】
一方、ステップS83で“NO”であれば、ステップS99で、操作対象がユーザ情報(「02」)であるか否かを判断し、“YES”であれば続くステップS101で、詳細設定がユーザ名(「01」)に関するものか否かを判断する。ステップS101で“YES”であれば、ステップS103で、制御コードおよびデータ領域のデータ等に応じて、ユーザ情報DB70のユーザ名に関する設定を処理してリターンする。
【0082】
ステップS101で“NO”であれば、ステップS105で現状モード(「04」)に関するものか否かを判断する。ステップS105で“YES”であれば、ステップS107で、制御コードおよびデータ領域のデータ等に応じて、ユーザ情報DB70の現状モードに関する設定を処理してリターンする。
【0083】
ステップS105で“NO”であれば、続くステップS109で、制御情報に応じて、ユーザ情報DB70のその他のデータに関する設定を処理してリターンする。
【0084】
他方、ステップS99で“NO”であれば、ステップS111で制御コードに応じたその他の設定を処理してリターンする。
【0085】
図25のステップS91の速度調節モード設定処理S91では、図26に示すように、まずステップS121で、制御コマンドがこの速度調節モードのスタート指示であるか否かを判断する。このステップS121で“YES”であれば、つまり、ユーザ20によって、図14(A)のコントロールシート86のスタートの制御用無線タグ88のデータが読み取られた場合には、ステップS123で、このユーザの速度調節モードのためのアプリケーションデータ領域(図15)をRAMに生成し、必要なデータを所定領域に書き込む。そして、ステップS125で、ユーザ情報DB70のこのユーザの現状モードを速度調節モードに設定して、リターンする。これによって、この後、ユーザ20が次に対象物14から対象物IDを取得した場合には、速度調節モードが実行され、その音声が出力されることとなる。
【0086】
一方、ステップS121で“NO”であれば、ステップS127以降の処理を行うが、これらは基本的に速度調節モードがスタートした後の処理であり、スタート前であれば、たとえばエラー処理をしてスタートの読取を促す音声等を送信するようにしてもよい。
【0087】
ステップS127で“YES”であれば、つまり、リフレッシュに相当する制御用無線タグ88が読み取られた場合には、続くステップS129で、データ領域(図15)のデータ(適応係数,認識履歴,試行回数等)を初期値に戻してリターンする。これによって、速度調節モードをスタートからやり直せることとなる。
【0088】
ステップS127で“NO”であれば、ステップS131で、速度調節モードの終了か否かが判断される。ステップS131で“YES”であれば、つまり、終了に相当する制御用無線タグ88が読み取られた場合には、続くステップS133で、ユーザ情報DB70のこのユーザの現状モードをデフォルトである基本応答モードに設定してリターンする。これによって、速度調節モードを終了することができる。
【0089】
一方、ステップS131で“NO”であれば、ステップS135で高速固定であるか否かが判断される。ステップS135で“YES”であれば、つまり、図14(B)に示すようなコントロールシート86の早い速度に相当する制御用無線タグ88が読み取られた場合には、図15のデータ領域の適応係数に高速の150%を設定するとともに、速度固定にフラグを設定して、リターンする。これによって、速度調節モードの発話速度は高速に固定される。
【0090】
また、ステップS135で“NO”であれば、ステップS139で、並速固定であるか否かが判断される。このステップS139で“YES”であれば、つまり、ノーマル速度に相当する制御用無線タグ88が読み取られた場合には、ステップS141で、データ領域の適応係数に並速の100%(標準)を設定するとともに速度固定にフラグを設定してリターンする。これによって、速度調節モードの発話速度は並速に固定される。
【0091】
また、ステップS139で“NO”であれば、ステップS143で、低速固定であるか否かが判断される。このステップS139で“YES”であれば、つまり、遅い速度に相当する制御用無線タグ88が読み取られた場合には、ステップS145で、データ領域の適応係数に低速の66%を設定するとともに、速度固定フラグを設定してリターンする。これによって、速度調節モードの発話速度は低速に固定される。
【0092】
また、ステップS143で“NO”であれば、続くステップS147で、制御情報に応じて、この速度調節モードにおけるその他のデータの設定を処理し、リターンする。
【0093】
図25のステップS95のナビゲートモード設定処理S95では、図27に示すように、まずステップS151で、制御コマンドがこのナビゲートモードのスタート指示であるか否かを判断する。ステップS151で“YES”であれば、つまり、ユーザ20によって、図19(A)のコントロールシート86のスタートの制御用無線タグ88のデータが読み取られた場合には、ステップS153で、このユーザのナビゲートモードのためのアプリケーションデータ領域(図20)をRAMに生成し、必要なデータを所定領域に書き込む。次に、ステップS155で、ユーザ情報DB70のこのユーザの現状モードをナビゲートモードに設定する。そして、ステップS157で、ナビゲートモード応答を処理する。このナビゲートモード応答処理S157の動作は図29および図30に詳細に示されるが、これについては後述する。このステップS157の処理によって、ナビゲートモードがスタートし、認識結果Rが開始時(初期値)の定型音声データおよび設問音声データが合成されて、発話タクト22へ送信され、ナビゲートモードの開始および次のCPの指示が音声として出力される。
【0094】
一方、ステップS151で“NO”であれば、ステップS159以降の処理を行うが、これらは基本的にナビゲートモードがスタートした後の処理であり、スタート前であれば、たとえばエラー処理をしてスタートの読取を促す音声等を送信するようにしてもよい。
【0095】
ステップS159では、リスタートであるか否かを判断する。“YES”であれば、つまり、コントロールシート86のリスタートの無線タグ88を読み取った場合には、ステップS161で、データ領域の更新データを初期値に戻す。つまり、たとえば、現在いるCPはスタートに、現在の回答レベルCALはレベル2以外に、今回の認識の結果Rは開始時に設定され、また、各CPの回答回数も0に戻される。そして、ステップS157で、ナビゲートモード応答を処理する。これにより、ナビゲートモードが最初からやり直され、開始時の音声が出力される。
【0096】
また、ステップS159で“NO”であれば、ステップS163で終了か否か判断する。ステップS163で“YES”であれば、つまり、終了に相当する制御用の無線タグ88が読み取られた場合には、ステップS165で、ユーザ情報DB70の現状モードを基本応答モードに設定してリターンする。これによって、ナビゲートモードを終了することができる。
【0097】
一方、ステップS163で“NO”であれば、続くステップS167で変更言語が英語であるか否かが判断される。このステップS167で“YES”であれば、つまり、図19(B)に示すようなコントロールシート86の英語に相当する制御用無線タグ88が読み取られた場合には、ステップS169で、データ領域のユーザ学習言語を英語に設定しリターンする。
【0098】
ステップS167で“NO”であれば、ステップS171で、変更言語が日本語であるか否か判断する。ステップS171で“YES”であれば、つまり、日本語に相当する無線タグ88が読み取られた場合には、ステップS173で、データ領域の学習言語を日本語に設定しリターンする。
【0099】
また、ステップS171で“NO”であれば、ステップS175で、変更言語が韓国であるか否か判断する。ステップS175で“YES”であれば、つまり、韓国語に相当する無線タグ88が読み取られた場合には、ステップS177で、データ領域の学習言語を韓国語に設定してリターンする。
【0100】
一方、ステップS175で“NO”であれば、続くステップS179で、制御情報に応じて、このナビゲートモードにおけるその他のデータ設定を処理してリターンする。
【0101】
図24に戻って、ステップS45で“NO”であれば、つまり、受信データに制御情報が含まれない場合には、続くステップS49で、受信データから対象物情報(対象物IDデータ)を取得する。これによって、対象物コードが得られ、認識した対象物14が特定される。
【0102】
ステップS51では、ユーザ情報に基づいて、ユーザ情報DB70からそのユーザの現状モードが読み出される。なお、このステップS51で、ユーザの現状モードを一旦読み出してRAMの所定のデータ領域80に書き込んだ後は、ステップS47の制御情報設定処理で現状モードの変更があった場合にだけユーザ情報DB70から読み出せばよい。
【0103】
そして、ステップS53,S55およびS57で現状モードの種類が判別され、それぞれのモードの応答処理が行われる。
【0104】
ステップS53では、現状モードが基本応答モードであるか否かが判断され、“YES”であれば、続くステップS59で、ユーザ情報DB70から返信情報選別フラグとしてユーザの学習言語情報およびレベル情報が取得される。この実施例の図6のように学習言語およびレベルが複数ある場合には、第1の学習言語およびレベルが取得される。なお、この学習言語およびレベルも、このステップS59で一旦ユーザ情報DB70から読み出してRAMの所定のデータ領域80に書き込んだ後は、ステップS47の制御情報設定処理で学習言語またはレベルの変更があった場合にだけユーザ情報DB70から読み出せばよい。
【0105】
続くステップS61では、選別フラグおよび対象物情報(対象物コード)に基づいて、対象物音声情報DB72または74から、対応する音声データを読み出して取得する。そして、ステップS63で、発話タクト22宛に返信情報としての音声データを送信する。なお、発話タクト22のアドレスは、発話タクト22からの送信データから取得され得る。したがって、上述のように、発話タクト22では、音声データが再生されて、スピーカ64からその音声が出力される。このステップS63の処理を終了すると、ステップS41に戻って、再び発話タクト22からのデータの受信を待つ。
【0106】
一方、ステップS53で“NO”であれば、ステップS55で、現状モードが速度調節モードであるか否かが判断される。このステップS55で“YES”であれば、続くステップS65で、速度調節モードの応答を処理する。このステップS65の速度調節モード応答処理S65の動作は、図28に示される。
【0107】
図28の最初のステップS191では、ユーザ情報に基づいて、ユーザ情報DB70から返信情報選別フラグ(学習言語およびレベル)を取得する。なお、このステップS191でも、上述の図24のステップS59のように、学習言語が複数ある場合には第1の学習言語およびレベルが取得される。また、この学習言語およびレベルも、このステップS191で一旦ユーザ情報DB70から読み出してRAMの所定のデータ領域80に書き込んだ後は、ステップS47の制御情報設定処理で学習言語またはレベルの変更があった場合にだけユーザ情報DB70から読み出せばよい。
【0108】
次に、ステップS193では、取得した対象物情報に基づいて、認識履歴データを更新する。具体的には、図15に示すデータ領域のうち、今回認識した対象物IDや、1回前〜9回前の認識履歴、試行回数等が更新される。
【0109】
ステップS195では、発話速度が固定されているか否かを判断し、“NO”であれば、つまり、データ領域の速度固定フラグが立っていなければ、ステップS197で、過去10回の履歴中の対象物14の種類Nをカウントする。そして、ステップS199で、履歴中の対象の種類Nに基づいて適応係数を算出し(図16)、データ領域に書き込む。
【0110】
一方、ステップS195で“YES”であれば、つまり、速度固定フラグが立っている場合には、適応係数が一定に固定されて、その算出を行う必要がないので、そのままステップS201へ進む。
【0111】
ステップS201では、選別フラグ(学習言語およびレベル)と対象物情報(今回認識した対象物ID)に基づいて、対象物音声情報DB72または74から、対応する音声データを読み出して取得する。
【0112】
続くステップS203で、適応係数に基づいて、音声データの発話速度の変更をする。この処理では、音声データのピッチ(音程)は元の音声データのままに維持され、その速度だけが適応係数に基づいて変更される。そして、ステップS205で、発話タクト22宛に返信情報としての音声データを送信する。したがって、上述のように、発話タクト22では、音声データが再生されて、スピーカ64からその速度が調節された音声が出力される。このステップS205の処理を終了すると、図24のステップS41に戻って、再び発話タクト22からのデータの受信を待つ。
【0113】
また、図24のステップS55で“NO”であれば、ステップS57で、現状モードがナビゲートモードであるか否かが判断される。ステップS57で“YES”であれば、続くステップS67で、ナビゲートモード応答を処理する。この図24のステップS67(および図27のステップS157)のナビゲートモード応答処理(S67,S157)の動作は、図29および図30に示される。
【0114】
図29の最初のステップS221では、データ領域(図20)の今回の認識の結果Rが開始時であるか否かが判断される。このステップS221で“YES”であれば、つまり、ナビゲートモードの開始時である場合には、次の図30のステップS255へ進む。一方、ステップS221で“NO”であれば、つまり、開始時以外であれば、続くステップS223で、取得した対象物ID(対象物コード)と次のチェックポイントCPに設定されている対象物ID(対象物コード)とが一致するか否かを判断する。すなわち、認識の成否が判別される。
【0115】
ステップS223で“YES”であれば、つまり、正解した場合には、ステップS225で、現在いるCP(図20)のデータに1を加算して次のCPへ進める。ステップS227では、次のCPの回答回数に1を加算し、ステップS229では、今回の認識の結果Rに1(正解)を設定する。これにより、正解時の音声が出力されることとなる。そして、ステップS231で、現在いる回答レベルCALを初期化する。ステップS231の処理を終了すると、次の図30のステップS253へ進む。
【0116】
一方、ステップS223で“NO”であれば、つまり、指示された対象物のID情報以外の情報を取得してしまった場合には、続くステップS235で、データ領域の認識結果Rが3(最終ヒント)に設定されているか否かを判断する。このステップS233で“YES”であれば、つまり、1つのチェックポイントCPに10回も回答したにもかかわらず正解できなかった場合には、ステップS235で、現在いるCPのデータに1を加算して、強制的に次のCPへ進めることとする。そして、ステップS237で、認識結果Rに4(次のCPへ)を設定する。これにより、次のCPへ強制的に進める音声が出力されることとなる。ステップS237の処理を終了すると、次の図30のステップS253へ進む。
【0117】
また、ステップS233で“NO”であれば、つまり、データ領域の認識結果Rが3(最終ヒントへ)でない場合には、ステップS239で、データ領域の現在いるCPの回答回数に1を加算し、ステップS241で今回の認識結果Rに0(不適)を設定する。これによって、不適時の音声が出力されることとなる。
【0118】
続くステップS243では、現在いるCPの回答回数が3(第1所定数)よりも大きいか否かが判断される。このステップS243で“YES”であれば、つまり、4度以上回答しても不適だった場合には、ステップS254で、認識結果Rに2(レベル変更)を設定し、ステップS247で、現在の回答レベルCALに2(説明レベル変更)を設定する。このように、この実施例では、4度回答しても不正解だった場合には、レベルを変更した(下げた)、すなわち、分かり易いヒントとなる音声を出力するようにしている。なお、ステップS243で“NO”であれば、つまり、現在いるCPの回答回数が3回以下であれば、次の図30のステップS253へ進む。
【0119】
ステップS249では、現在いるCPの回答回数が10(第2所定数)に等しいか否かを判断する。このステップS249で“YES”であれば、つまり、1つのCPで10度回答しても不正解であった場合には、ステップS251で、認識結果Rに3(最終ヒント)を設定する。これにより、最終ヒントとなる音声が出力されることとなる。この実施例では、最終ヒントとしては、たとえばユーザ20の現在適用しているの学習言語のレベルよりもレベルの高い、すなわち、ユーザ20の理解度の高い学習言語(たとえば母国語)が適用される。
【0120】
なお、ステップS249で“NO”であれば、つまり、現在いるCPの回答回数が10でない場合には、または、ステップS251の処理を終了すると、図30のステップS253へ進む。
【0121】
図30のステップS253では、データ領域(図20)の認識結果Rが3(最終ヒント)に設定されているか否かを判断する。このステップS253で“NO”であれば、つまり、最終ヒントを提供しない場合には、ステップS255で、データ領域からユーザ学習言語を取得する。このように、最終ヒントでない場合には、ユーザの学習言語による音声が出力される。
【0122】
次に、ステップS257で、学習言語および現在いるCP、認識結果R、現在の回答レベルCALに基づいて、ナビゲートモード用音声情報DB76(図21)から、対応する定型音声データを読み出して取得する。
【0123】
続くステップS259では、対象物情報および学習言語に基づいて、対象物音声情報DB72または74(図7または図8)から、対応する対象物音声データを読み出して取得する。この対象物音声データは、たとえば図21に示すように、Rが0、2および4等のときに、定型音声データと組み合わせるために用いられる。
【0124】
そして、ステップS261で、学習言語および現在いるCP、認識結果R、現在の説明レベルCALに基づいて、ナビゲートモード用音声情報DB76(図22)から、対応する設問音声データを読み出して取得する。
【0125】
一方、ステップS253で“YES”であれば、つまり、最終ヒントを提供する場合には、続くステップS263で、データ領域からユーザ母国語を取得する。このように、最終ヒントは、この実施例では、ユーザ母国語による音声で提供される。
【0126】
次に、ステップS265では、母国語および現在いるCP、認識結果R、現在回答レベルCALに基づいて、ナビゲートモード用音声DB76(図21)から、対応する定型音声データを読み出して取得する。
【0127】
続くステップS267で、対象物情報および母国語に基づいて、対象物音声情報DB72または74から、対応する対象物音声データを読み出して取得する。この対象物音声データも、たとえば図21に示すように、Rが0、2および4等のときに、定型音声データと組み合わせるために用いられる。
【0128】
そして、ステップS269では、母国語および現在いるCP、認識結果R、現在の回答レベルCALに基づいて、ナビゲートモード用音声情報DB76(図22)から、対応する設問音声データを読み出して取得する。
【0129】
ステップS261またはS269の処理を終了すると、ステップS271で、現在の回答レベルCALが2であるか否かが判断される。このステップS271で“YES”であれば、つまり、1つのCPで回答回数が3回を超えても正解されなくて説明レベルを変更する場合には、ステップS273で、対象物音声データの発話速度を、このレベル2と同程度に遅い速度に変更する。ナビゲートモード用音声情報DB76には、図21および図22に示すように、現在回答レベルCALが2のとき、すなわち、認識結果Rが2(レベル変更)のとき、レベルを下げるために、ゆっくりと発音される発話速度の音声が格納されている。そして、対象物音声情報は、これらナビゲートモード用の定型音声および設問音声と合成されるので、その発話速度を遅く変更する必要がある。
【0130】
ステップS271で“NO”であれば、またはステップS273の処理を終了すると、ステップS275で、定型音声データ、設問音声データおよび必要に応じて対象物音声データを合成して、1つの音声データを生成する。そして、ステップS277で、発話タクト22宛に返信情報としての音声データを送信する。したがって、上述のように、発話タクト22では、ユーザ20をナビゲートする音声データが再生されて、スピーカ64からその音声が出力される。このステップS277の処理を終了すると、図24のステップS41に戻って、再び発話タクト22からのデータの受信を待つ。
【0131】
図24に戻って、ステップS57で“NO”であれば、つまり、現状モードがナビゲートモードでもない場合には、続くステップS69でその他のモードの処理を実行し、ステップS41へ戻る。
【0132】
この実施例によれば、実空間12に存在する複数の対象物14にそれぞれの対象物用の無線タグ16を設けたので、ユーザ20を取り巻く空間12をまるまる学習環境とすることができ、ユーザ20はその学習空間に身をおくことができる。従来のように教材に向かうのではなく、学習空間に身をおくことで、その環境の方が学習者20に向かってくるようになり、したがって、学習効率の向上が期待できる。
【0133】
また、対象物識別情報に関連付けて複数の言語による音声データを準備しているので、多言語の空間を容易に構築することができる。また、複数のユーザ間で異なる学習言語に対応することができ、たとえば同時同空間に対して多言語の学習環境を構築することもできる。
【0134】
また、速度調節モードではユーザ20のその時の学習状況(認識履歴の状況)に適応して発話速度を変化させるようにし、また、ナビゲートモードでもユーザ20のその時の学習状況に応じて、発話速度および内容等の説明レベルや言語を変化させるようにしている。したがって、ユーザ20のその時々の学習状況に適応した音声データが提供されるので、ユーザ20は効率よく学習を行うことができる。
【0135】
なお、上述の実施例では、実空間12としてたとえば図2のような家庭や学校等における部屋などを想定しているが、このような実空間12は、たとえば博物館や美術館等のような展示物が展示されるものであってもよい。すなわち、この場合には、館内の展示物が対象物14である。音声データは、上述の実施例と同様に、たとえば初心者,中級者,上級者向けなど複数レベルに多段階化し、さらに多言語にも対応させてよい。これにより、入館者(ユーザ)20の言語や展示物に対する理解度に対応した説明音声を提供することができる。
【0136】
また、携帯端末としての発話タクト22は、たとえば図31に示す他の実施例のユビキタス学習システム10のように、PDAや、あるいは携帯電話機,ノート型PC等のような携帯通信端末によって構成してもよい。なお、図31では、図1で示した各DB70−76はサーバ18に内蔵しているものとして省略してある。この場合にも、この携帯通信端末22には、無線タグデータ読取装置60(図3)等を内蔵または拡張的に設けておく。また、発話タクトとして機能するのに必要なプログラムおよびデータあるいはプログラムの代替となるハードウェアを内蔵し、または、プログラム等は適宜な読取可能な記録媒体から読み出したり、通信ネットワーク(インタネット26等)上の配信サーバ等からダウンロードしたりして取得しておく。また、これらの携帯通信端末がLCD等のような表示装置を備える場合には、学習言語およびレベルの設定,学習モードの選択,制御指示の設定等は、ユーザIDシート82や制御IDシート86を用いて読み取る代わりに、表示装置に表示した入力画面上で入力することによって、その入力データをサーバ18へ送信するようにしてもよい。さらに、このように携帯端末22が表示装置を備える場合には、スピーカ64から音声を出力するとともに表示装置にその内容の文字を表示させるようにしてもよい(後述)。
【0137】
また、上述の各実施例では、発話タクト22は基地局24を介してサーバ18へアクセスするようにしているが、サーバ18との無線を介した接続形態は適宜変更可能である。たとえば、図32に示すように、発話タクト22は、たとえば無線LAN(電波方式,赤外線方式,IrDA赤外線方式等)によって、たとえば家庭または学校等のホームサーバ90に接続し、このホームサーバ90からインタネット26を介してサーバ18に接続するようにしてもよい。この図32では、構内の有線LAN上のアクセスポイント(ブリッジ)92を介してホームサーバ90に接続するインフラストラクチャモードが示されるが、アドホックモードで直接ホームサーバ90に接続するように構成してもよい。また、ブルートゥースによって接続するようにしてもよい。
【0138】
また、上述の各実施例では、サーバ18はインタネット26上に設けられたが、図33に示す他の実施例のように、サーバ18は、たとえば家庭や学校等におけるPCであってもよい。この場合、発話タクト22はたとえば無線LANやブルートゥース等によってPCサーバ18と接続される。
【0139】
また、上述の各実施例では、発話タクト22に音声を出力するための音声出力手段(スピーカ64等)が設けられたが、サーバ18から提供される音声データがユーザ20に聞こえればよいので、ユーザ20が学習する空間12内に存在すれば、発話タクト22以外に音声出力手段が設けられてよい。たとえば、図34に示すように、サーバ18が学習空間12内に存在する場合には、サーバ18にスピーカ94をアンプ等を介して接続しておき、このスピーカ94に音声データを提供することで、スピーカ94から音として出力させるようにしてもよい。
【0140】
また、上述の各実施例では、ユーザ識別情報によって複数のユーザ20に対応できるようにしたが、より簡単な構成では、ユーザ管理を行わないものであってもよい。この場合には、発話タクト22から対象物識別情報とともに、学習言語情報およびレベル情報の少なくとも1つをサーバ18に送信するようにすれば、複数言語および複数レベルのすくなくとも1つに対応した音声データを提供できる。また、さらに簡単な構成では、対象物識別情報のみをサーバ18に送信して、1つの言語およびレベルの音声データを返送するようにしてもよく、この場合は単言語の学習環境が構築される。
【0141】
また、上述の各実施例では、サーバ18は、対象物14の情報として音声情報を提供するようにしているが、さらに対象物14に関する文字情報を提供するようにしてもよい。たとえば、サーバ18では、対象物識別情報に関連付けて、複数言語および複数レベルの音声情報とともに、その音声の内容を示すその言語による文字情報(テキストデータまたは画像データ等)をデータベース72,74または76等に記憶しておく。たとえば図7の例では、Lv0に対応するその言語(英語)によるスペリングを示すテキストデータが示される。なお、この図7等では他のレベルの説明および詳細な説明等の文字データは図示を省略している。そして、サーバ18は、文字情報読出手段によって、受信した対象物識別情報に基づいて、対応する文字情報をデータベース72,74または76等から読み出す。発話タクト22(図3)にさらにLCD等のような表示装置を設けた場合または発話タクト22がたとえば図31のように表示装置を備えるPDA等の携帯通信端末22である場合等には、読み出した文字情報を音声情報とともに発話タクト22に送信する。これに応じて、発話タクト22では、音声を出力させるとともに、表示制御プログラム等によって、受信した文字情報に基づいてその文字を表示装置で表示させるようにする。つまり、たとえば上述した図13のような状況では、スピーカ64から“clock”の音声が出力されるとともに、図示しない表示装置には“clock”のスペリングが表示されることとなる。また、たとえば図33および図34のように、サーバ18が関連的に設けられる表示装置を含んでいて、かつ、ユーザ20の存在する実空間12内に設けられる場合には、サーバ18の表示装置に文字情報を与えて表示させるようにしてもよい。このように、文字情報を提供する場合には、ヒアリングのみならず、その音声の内容を示す文字によってたとえばスペリング等の学習を行うこともでき、したがって、聴覚と視覚とによってさらに効率よい学習を行うことができる。
【図面の簡単な説明】
【図1】この発明の一実施例のユビキタス学習システムの概観を示す図解図である。
【図2】図1実施例におけるユビキタス学習空間の一例を示す図解図である。
【図3】図1実施例における発話タクトの内部構成を示す図解図である。
【図4】発話タクトのRAMのメモリマップの一例を示す図解図である。
【図5】図1実施例におけるサーバのRAMのメモリマップの一例を示す図解図である。
【図6】図1実施例のユーザ情報DBに記憶されるユーザ情報の一例を示す図解図である。
【図7】図1実施例の対象物音声情報DB(第1言語)に記憶される対象物音声情報の一例を示す図解図である。
【図8】図1実施例の対象物音声情報DB(他言語)に記憶される対象物音声情報の一例を示す図解図である。
【図9】ユーザ用無線タグが設けられたユーザIDシートの一例を示す図解図である。
【図10】制御用無線タグが設けられた制御IDシートの一例を示す図解図である。
【図11】無線タグに記憶保持される識別データの構造の一例を示す図解図であり、(A)はユーザ用無線タグに記憶されるユーザIDデータを示し、(B)は対象物用無線タグに記憶される対象物IDデータを示し、(C)は制御用無線タグに記憶される制御IDデータを示す。
【図12】制御IDデータに含まれる制御コマンドのデータ構造の一例を示す図解図である。
【図13】対象物である時計が発話タクトによって認識されてその音声が出力される様子を示す図解図である。
【図14】速度調節モード用の制御IDシートの一例を示す図解図である。
【図15】サーバのRAMに形成される速度調節モード用データ記憶領域のメモリマップの一例を示す図解図である。
【図16】速度調節モードにおける適応係数の一例を示す図解図である。
【図17】速度調節モードにおける学習曲線の一例を示す図解図であり、(A)は優秀者の場合のイメージを示し、(B)は標準的な者の場合のイメージを示し、(C)は不慣れな者の場合のイメージを示す。
【図18】ナビゲートモードにおける進路の一例を示す図解図である。
【図19】ナビゲートモード用の制御IDシートの一例を示す図解図である。
【図20】サーバのRAMに形成されるナビゲートモード用データ記憶領域のメモリマップの一例を示す図解図である。
【図21】図1実施例のナビゲートモード用音声情報DBに記憶される定型音声情報の一例を示す図解図である。
【図22】ナビゲートモード用音声情報DBに記憶される設問音声情報の一例を示す図解図である。
【図23】図1実施例の発話タクトの動作の一例を示すフロー図である。
【図24】図1実施例のサーバの動作の一例を示すフロー図である。
【図25】サーバにおける制御情報設定処理の動作の一例を示すフロー図である。
【図26】サーバにおける速度調節モード設定処理の動作の一例を示すフロー図である。
【図27】サーバにおけるナビゲートモード設定処理の動作の一例を示すフロー図である。
【図28】サーバにおける速度調節モード応答処理の動作の一例を示すフロー図である。
【図29】サーバにおけるナビゲートモード応答処理の動作の一部を示すフロー図である。
【図30】図29の続きを示すフロー図である。
【図31】他の実施例のユビキタス学習システムの構成を示す図解図である。
【図32】他の実施例のユビキタス学習システムの構成を示す図解図である。
【図33】他の実施例のユビキタス学習システムの構成を示す図解図である。
【図34】他の実施例のユビキタス学習システムの構成を示す図解図である。
【符号の説明】
10 …ユビキタス学習システム
12 …実空間
14 …対象物
16 …対象物用無線タグ
18 …サーバ(情報提供装置)
22 …発話タクト(携帯端末)
52 …CPU
54 …ROM
56 …RAM
58 …操作ボタン
60 …無線タグデータ読取装置
62 …無線通信装置
64 …スピーカ
70 …ユーザ情報DB
72 …対象物音声情報DB(第1言語)
74 …対象物音声情報DB(他言語)
76 …ナビゲートモード用音声情報DB
84 …ユーザ用無線タグ
88 …制御用無線タグ
[0001]
[Industrial applications]
The present invention relates to a ubiquitous learning system, a mobile terminal, an utterance tact, an information providing device, and a program, and more particularly to, for example, a ubiquitous learning system, a mobile terminal, an utterance tact, and information providing for learning using a plurality of objects existing in a real space. Related to devices and programs.
[0002]
[Prior art]
An example of a conventional learning system is disclosed in Patent Document 1. The system disclosed in Patent Document 1 includes a card or a booklet on the surface of which, for example, letters or pictures of English words are printed, and a CD on which, for example, English voice corresponding to the contents of the letters or the like is recorded. The address information of the voice is provided as a bar code on a card or the like. Then, by reading the barcode information of the card with the barcode reader of the card player, a remote control signal is transmitted to the CD player on which the CD is set, and the sound corresponding to the contents such as characters of the card is reproduced.
[0003]
[Patent Document 1]
JP-A-5-6135
[0004]
[Problems to be solved by the invention]
However, in the prior art, a learner (user) must prepare a teaching material such as a card or a booklet when learning, and must go for it, and can learn efficiently over a long period of time? Questions remain. In particular, continuity and long-term continuity are important for learning a language, and it is considered effective to always stay in the learning linguistic space, such as studying abroad.
[0005]
Furthermore, in the case of using teaching materials as in the prior art, even if teaching materials are prepared for each learning level, it is impossible to adapt to the current learning situation of the user, and the learning efficiency is not good.
[0006]
Therefore, a main object of the present invention is to provide a novel ubiquitous learning system, an utterance tact, an information providing device, and a program.
[0007]
Another object of the present invention is to provide a ubiquitous learning system, an utterance tact, an information providing device, and a program that can make a space surrounding a user a full learning environment.
[0008]
It is another object of the present invention to provide a ubiquitous learning system, an utterance tact, an information providing device, and a program that can efficiently learn according to a learning situation of a user.
[0009]
[Means for Solving the Problems]
A first aspect of the present invention includes an information providing apparatus that provides information on a plurality of objects existing in a real space, and a mobile terminal that communicates with the information providing apparatus via wireless communication, for learning using a plurality of objects. Ubiquitous learning system, wherein the plurality of objects are each provided with a plurality of wireless tags for storing and holding object identification information for identifying the plurality of objects, and the mobile terminal is operated by a user. Means, acquisition means for acquiring object identification information from a wireless tag in response to an operation from an operation means, and first transmission means for wirelessly transmitting request information including the object identification information acquired by the acquisition means to an information providing apparatus. The information providing apparatus includes: a voice information storage unit configured to store voice information regarding an object associated with each piece of the object identification information; A ubiquitous device including a voice information reading unit that reads corresponding voice information from the voice information storage unit based on the information, and further including a voice output unit that outputs voice based on the voice information read by the voice information reading unit. It is a learning system.
[0010]
A second invention provides a ubiquitous learning system for learning using a plurality of objects existing in a real space, wherein the mobile terminal is capable of communicating with an information providing apparatus for providing information on the plurality of objects via radio. Operating means operated by the user, according to an operation from the operating means, from a plurality of wireless tags provided on each of the plurality of objects and storing and holding object identification information for identifying the plurality of objects; A portable terminal comprising: an obtaining unit that obtains target object identification information by using the first transmission unit that wirelessly transmits request information including the target object identification information obtained by the obtaining unit to the information providing apparatus.
[0011]
A third invention is a portable utterance tact that communicates via radio with an information providing device that provides information about a plurality of objects existing in a real space and outputs information about the plurality of objects as sounds. Operating means operated by the user, object identification information for identifying a plurality of objects is stored and stored, and a plurality of wireless tags provided on each of the plurality of objects are used in accordance with an operation from the operating means. Acquiring means for acquiring the object identification information, first transmitting means for wirelessly transmitting the request information including the object identification information acquired by the acquiring means to the information providing apparatus, transmitted from the information providing apparatus in response to the request information An utterance tact includes a first receiving unit that wirelessly receives audio information, and an audio output unit that outputs audio based on the audio information received by the first receiving unit.
[0012]
A fourth invention is an information providing apparatus for providing information on a plurality of objects in a ubiquitous learning system for learning using a plurality of objects existing in a real space, wherein the plurality of objects are identified. Voice information storage means for storing voice information relating to an object associated with each object identification information, and corresponding voice information based on request information including the object identification information transmitted from the terminal. An information providing apparatus including a voice information reading unit for reading from the unit.
[0013]
A fifth invention relates to a ubiquitous learning system for learning using a plurality of objects existing in a real space, wherein the mobile terminal is capable of communicating with an information providing apparatus for providing information on the plurality of objects via a wireless communication. A program to be executed, comprising: acquiring a mobile terminal to acquire object identification information from a plurality of wireless tags provided on a plurality of objects and storing and holding object identification information for identifying the plurality of objects. And a program for a portable terminal that functions as first transmitting means for wirelessly transmitting request information including object identification information acquired by the acquiring means to the information providing apparatus.
[0014]
According to a sixth aspect of the present invention, a portable utterance tact that communicates via radio with an information providing device that provides information on a plurality of objects existing in a real space and outputs the information on the plurality of objects as sound is executed. A program that causes the utterance tact to store and retain object identification information for identifying a plurality of objects and acquire the object identification information from a plurality of wireless tags provided for each of the plurality of objects. Means, first transmitting means for wirelessly transmitting request information including the object identification information acquired by the acquiring means to the information providing apparatus, and first transmitting means for wirelessly receiving audio information transmitted from the information providing apparatus in response to the request information. An utterance tact program that functions as a receiving unit and an audio output unit that outputs audio based on audio information received by the first receiving unit.
[0015]
According to a seventh aspect, in a ubiquitous learning system for learning using a plurality of objects existing in a real space, audio information on the object associated with each object identification information for identifying the plurality of objects is provided. Is a program to be executed by an information providing apparatus that provides information on a plurality of objects, the information providing apparatus comprising: An audio information reading means for reading corresponding audio information from the audio information storage means on the basis of the audio information read out by the audio information reading means; It is a program of a providing device.
[0016]
[Action]
The ubiquitous learning system includes an information providing device that provides information on a plurality of objects, and a mobile terminal that communicates with the information providing device wirelessly. The plurality of objects exist in a real space, and a plurality of wireless tags each storing and holding the object identification information are provided. The user can learn by entering the real space with the portable terminal. When learning, the user operates the operation means, for example, by pointing the mobile terminal close to the target object. Then, the acquisition unit acquires the object identification information from the wireless tag in accordance with the operation of the operation unit by the user. The first transmitting unit wirelessly transmits the request information including the acquired target object identification information to the information providing apparatus. On the other hand, the voice information storage means of the information providing device stores voice information relating to an object associated with each object identification information. The voice information reading means reads the corresponding voice information based on the request information transmitted from the mobile terminal. Then, information based on the voice information read by the voice information reading means is provided to the voice output means of the ubiquitous learning system by the providing means, and the voice output means outputs a voice based on the read voice information. I do. Therefore, the user can learn by listening to the output voice. In this way, the real space where the target object exists, that is, the space surrounding the user can be made a complete learning environment.
[0017]
For example, the audio output means can be provided in a mobile terminal. In this case, the information providing device includes a second transmitting unit, and the second transmitting unit as the providing unit transmits, to the portable terminal, reply information based on the voice information read by the voice information reading unit. On the other hand, the mobile terminal includes a first receiving unit, and the first receiving unit wirelessly receives the reply information transmitted from the information providing device. Therefore, the sound output means outputs a sound based on the sound information included in the received reply information. As described above, when the mobile terminal includes the voice output unit, the mobile terminal not only acquires the identification information from the target but also outputs the voice, and thus such a mobile terminal is referred to as “utterance tact”.
[0018]
The information providing device may further include a character information storage unit and a character information reading unit. The character information storage means stores character information relating to an object associated with each object identification information. The character information reading means reads the corresponding character information based on the request information transmitted from the mobile terminal. Then, information based on the character information read by the character information reading means is provided by the providing means to the display means provided in the ubiquitous learning system, and the display means displays characters based on the read character information. Therefore, the user can learn not only by voice but also by letters, and can learn efficiently.
[0019]
Further, the utterance tact (or the mobile terminal) may include a first storage unit that stores user information including at least one of user identification information, language information, and level information. Then, the request information transmitted by the first transmitting means may include user information. In this case, the information providing apparatus reads out the corresponding audio information based on at least one of the user identification information, the language information, and the level. Therefore, the user can hear the voice corresponding to the user information, and can, for example, learn in the language and level desired to learn.
[0020]
Further, the user information as described above may be acquired by the acquisition unit from the wireless tag storing and holding the user information, and may be stored in the first storage unit. In this case, if a user wireless tag is prepared for each of a plurality of users, one utterance tact can be shared by a plurality of users, and learning can be performed using sounds corresponding to the respective user information.
[0021]
Alternatively, a wireless tag that stores and holds control information for instructing a process in the information providing device may be prepared, and the acquisition unit may acquire the control information. The first transmitting unit transmits the control information acquired by the acquiring unit to the information providing device. In this case, a process to be performed on the information providing device side can be specified.
[0022]
The utterance tact may be provided with a display means. In this case, the first receiving means receives the character information together with the voice information. Then, the display means displays the character based on the received character information. Therefore, the user can learn using the voice and the character by the utterance tact, and can learn efficiently.
[0023]
Further, the voice information storage means of the information providing apparatus may store voice information for each language pronounced in a plurality of languages. In this case, the voice information reading means reads the voice information in the corresponding language based on the request information from the portable terminal (utterance tact). Therefore, a multilingual learning space can be constructed, and the user can learn a plurality of languages.
[0024]
Further, the voice information storage means of the information providing apparatus may store voice information for each of a plurality of levels. In this case, the voice information reading means reads the voice information of the corresponding level based on the request information from the utterance tact. Therefore, the user can perform learning for each of a plurality of levels, for example, in accordance with his / her own level.
[0025]
Further, the information providing device may further include a user information storage unit and a user information reading unit. The user information storage stores user information including at least one of language information and level information associated with each piece of user identification information. The user information reading means reads corresponding user information based on the user identification information included in the request information. Then, the audio information reading means reads the audio information corresponding to the user information. Therefore, the user can perform learning according to his / her desired learning language or level, learning language and level. Further, it is possible to cope with different learning languages and levels among a plurality of users, and for example, it is possible to construct a multilingual learning environment for the same simultaneous space.
[0026]
The information providing apparatus may include a speed adjusting unit that adjusts the speech speed of the voice information according to the recognition history state of the target object. In this case, it is possible to provide voice information having an utterance speed adapted to the learning situation of the user, and it is possible to improve learning efficiency. Alternatively, a plurality of pieces of voice information having different utterance speeds are stored in the voice information storage unit, and the voice information of the corresponding utterance speed is read by the voice information reading unit according to the recognition history state of the object. Is also good. Also in this case, similarly, efficient learning according to the learning situation of the user can be performed.
[0027]
The information providing apparatus may include a recognition order storage unit that stores recognition order information that defines an order in which a plurality of objects should be recognized. In this case, the question sound information indicating the object to be recognized is stored in the sound information storage means. The determining means determines whether or not the recognition is successful, based on the object identification information and the recognition order information transmitted from the terminal. When the recognition unit determines that the recognition is correct, the voice information reading unit reads out the question voice information indicating the object to be recognized next, which is advanced by one. On the other hand, when the discrimination means determines that the recognition is inappropriate, the voice information reading means reads the question voice information indicating the current object to be recognized. In this case, the course is instructed to the user as in orienteering, so that learning can proceed with a sense of game, and the user can actively face the learning environment.
[0028]
Further, the voice information storage means may store question voice information for each of a plurality of explanation levels. In this case, the determination means further determines whether or not the number of responses to the object to be recognized at present exceeds a first predetermined number. Then, when the determination means determines that the number of answers has exceeded the first predetermined number, the voice information reading means reads question voice information at an explanation level that is easier to understand than before. Therefore, it is possible to provide the question audio information having the explanation level suitable for the learning situation of the user, so that the user can efficiently proceed with the learning.
[0029]
Furthermore, the question sound information for each of a plurality of languages may be stored in the sound information storage means. In this case, the determination means further determines whether or not the number of responses to the current object to be recognized has reached the second predetermined number. When the determination unit determines that the number of answers has reached the second predetermined number, the voice information reading unit reads the question voice information in a language having a higher level of understanding of the user than before. Therefore, it is possible to provide the question audio information in a language suitable for the learning situation of the user, so that the user can efficiently proceed with the learning.
[0030]
【The invention's effect】
According to the present invention, the space surrounding the user can be made a complete learning environment. Instead of going to the teaching materials as in the past, the user will be more likely to learn in the environment by placing himself in the learning space, and therefore expect to improve learning efficiency. it can. In addition, since speech information adapted to the user's current learning situation can be provided, the user can efficiently learn.
[0031]
The above and other objects, features and advantages of the present invention will become more apparent from the following detailed description of embodiments with reference to the drawings.
[0032]
【Example】
Referring to FIG. 1, a ubiquitous learning system 10 of this embodiment is for learning using a plurality of objects 14a, 14b,. The ubiquitous learning system 10 includes a server 18 as an information providing device that provides information on a plurality of wireless tags 16a, 16b,... Provided on a plurality of objects 14a, 14b,. And an utterance tact 22 as a portable terminal operated by the user 20. The utterance tact 22 is capable of wireless communication, and is connected to the server 18 via a base station 24, a PHS network or a mobile phone network (not shown), the Internet 26, and the like.
[0033]
.. May be collectively denoted by reference numeral “14”, and the plurality of wireless tags 16a, 16b,... May be collectively denoted by reference numeral “16”. The wireless tag 16 provided on the object 14 is also referred to as an object wireless tag 16.
[0034]
The server 18 is a computer, and although not shown, includes a CPU for controlling the server, and a ROM, a RAM, an HDD, a communication device, and the like are connected to the CPU. A program or data for the ubiquitous learning process is read from a computer-readable recording medium or the like and installed in the ROM or the HDD. Further, as shown in FIG. 1, the server 18 includes a user information database (DB) 70, an object audio information (first language) DB 72, an object audio information (other language) DB 74, and a navigation mode audio information DB 76. Is connected. In this embodiment, a plurality of languages can be learned, and voice information in a plurality of languages is registered. Each DB may be built in the server 18 or may be separately provided outside the server body. In some cases, the server 18 may be configured to be distributed to a plurality of computers.
[0035]
FIG. 2 shows a room as an example of the real space 12. The real space 12 in which learning is performed is arbitrary, but, for example, a home, a school, or the like is assumed. The plurality of objects 14 may correspond to anything that is installed and existing there. In this room 12, for example, a wall 28, a wallpaper 30, a door 32, a tricycle 34, a steering wheel 36, a saddle 38, a clock 40, a cabinet 42, a drawer 44, a Koran 46, a bible 48, and a title “□□□” There are books 50 and the like. These are provided with respective wireless tags 16 (not shown) by an appropriate method such as a built-in method or a sticking method. Therefore, these objects existing in the room 12 become learning objects 14. In this way, the space 12 surrounding the user 20 can be a complete learning environment. If the room 12 is, for example, a room in the home of the user 20, the living space itself of the user 20 is a learning space in the ubiquitous learning system 10.
[0036]
The wireless tag 16 is, for example, an RFID, and includes an IC chip including a memory for identification information, a control circuit for communication, and the like. The object wireless tag 16 stores and holds object identification information for identifying the object 14 provided with the object wireless tag 16. In the wireless tag 16, for example, the IC operates by receiving electric waves or the like for a certain period of time to generate electric power, and outputs electric waves or the like for transmitting identification information. The wireless tag 16 is classified into a contact type (communication distance: within 2 mm), a proximity type (within 10 cm), a proximity type (within 70 cm), and the like according to the communication distance (ISO standard). It is desirable to apply the neighborhood type. Reading of the information stored in the wireless tag 16 is performed by the utterance tact 22.
[0037]
The utterance tact 22 is a portable terminal, that is, the utterance tact 22 is formed in a size and weight that can be carried by the user 20. Although the shape is arbitrary, for example, it is formed into a rod-like shape such as a baton indicating the object 14 during learning. The utterance tact 22 is supplied with power from a home power supply or the like via, for example, a battery or an AC adapter.
[0038]
FIG. 3 shows the internal configuration of the utterance tact 22. The utterance tact 22 includes a CPU 52 that controls the entire utterance tact 22. The ROM 52, the RAM 56, the operation buttons 58, the wireless tag data reading device 60, the wireless communication device 62, the speaker 64, and the like are connected to the CPU 52.
[0039]
The ROM 54 stores programs and data for the operation of the utterance tact 22. The RAM 56 is used as a work area, a buffer area, and the like. The operation button 58 is an operation input unit of the user 20, and supplies an operation input signal to the CPU 52. For example, in this embodiment, one operation button 58 is provided, and the user 20 can easily operate with one finger. The wireless tag data reading device 60 is an acquisition unit for reading information from the wireless tag 16. The wireless tag data reading device 60 transmits a radio wave or the like from an antenna or the like for a certain period of time according to an instruction of the CPU 52 and receives a radio wave or the like returned from the wireless tag 16 for a certain period of time. I do. The wireless communication device 62 transmits and receives information to and from the server 18 via wireless communication. The wireless communication device 62 transmits read information and the like to the server 18 according to instructions from the CPU 52, and receives reply data including audio data from the server 18. I do. The speaker 64 is provided with an audio signal from the CPU 52 via, for example, a D / A converter, an amplifier, or the like, and outputs audio. Note that an output terminal may be provided so that the user can listen with an earphone or the like.
[0040]
FIG. 4 shows an example of a memory map of the RAM 56. RAM 56 includes a program storage area 66 and a data storage area 68. The program for the operation of the utterance tact 22 is loaded from the ROM 54 into the program storage area 66, and the CPU 56 executes processing according to the program. This program includes, for example, a wireless tag data reading control program, a communication control program, a voice reproduction program, and the like.
[0041]
In the data storage area 68, data necessary for operation from the ROM 54, read data obtained from the wireless tag 16, voice data received from the server 18, and the like are written, and include, for example, a server address, user information, and other data. The user information includes a user code as user identification information, and may further include, for example, a user name, a language, a level, and the like. The user information may be acquired from a wireless tag for a user ID or the like as described later, or may be stored in the ROM 54 in advance.
[0042]
FIG. 5 shows an example of a memory map of the RAM of the server 18. The RAM of the server 18 includes a program storage area 78 and a data storage area 80. A program for operating the server is loaded from the ROM or the HDD into the program storage area 78, and the CPU of the server executes processing according to the program. The programs include a communication control program for controlling communication with the utterance tact 22, a basic response mode program, a speed adjustment mode program, a navigation mode program, and other programs. As described above, the ubiquitous learning system 10 has a plurality of learning modes such as a basic response mode, a speed adjustment mode, and a navigation mode, and details of each mode will be described later. In the data storage area 80, data necessary for the operation of the program is written from the ROM, HDD, each database, and the like as necessary, and also received data and the like are written.
[0043]
FIG. 6 shows an example of the user information registered in the user information DB 70. The user information is stored in association with a user code as identification information, for example, information on a user name, a first learning language and its level, a second learning language and its level, a user's native language and a current mode, and the like. I have. Although the user information is registered in advance, for example, the user 20 can change the information from the mobile terminal 22. When a plurality of learning languages are registered for one user as in the example of FIG. 6, learning is basically performed at the first learning language and its level. One learning language can be changed.
[0044]
FIG. 7 shows an example of data registered in the target object voice information (first language) DB 72. The object audio information DB 72 is associated with each object code as object identification information, and includes, for example, character (text) data of the name (spelling) of the object, the type of the language (in this embodiment, The first language is English), and audio data for each learning level (in this embodiment, three levels of Lv0 to Lv2) are stored. Specifically, the sound data of level 0 is sound data of pronunciation that pronounces a word of the object, and the sound data of level 1 is sound data of pronunciation (description and the like) explaining the object. The audio data of level 2 is audio data for detailed explanation of the pronunciation and its target in detail. That is, in the case of Lv0, the function of a word book is performed, in the case of Lv1, the function of a dictionary is performed, and in the case of Lv2, the function of a dictionary is performed. The voice data has a standard utterance speed. It is desirable that the audio data is a compressed file in an appropriate format from the viewpoint of the communication speed and the line load.
[0045]
FIG. 8 shows an example of data registered in the target object voice information (other language) DB 74. The DB 74 similarly stores text data of the object name, its language type, and audio data for each of the learning levels Lv0 to Lv2, associated with each object code. As the type of language, for example, Japanese, Korean, Chinese, French, and other various languages can be stored.
[0046]
In this embodiment, the database is divided into the first language and the other language. However, the database may be provided in any manner. These may be formed as one database, or the database may be formed for each language. May be formed.
[0047]
In the ubiquitous learning system 10, data transmitted from the utterance tact 22 to the server 18 includes user identification information for identifying the user 20. As described above, the user identification information may be stored in advance in the ROM 54 of the utterance tact 22, and the utterance tact 22 in this case can be basically referred to as a dedicated terminal of the user 20.
[0048]
Further, the user identification information may be obtained from a user ID sheet 82 as shown in FIG. 9A, for example. The user ID sheet 82 includes a user wireless tag 84 that stores and holds user identification information. Although the material and the shape of the sheet 82 are arbitrary, the sheet 82 is formed into a card shape or the like with paper or plastic, for example, and the wireless tag 84 is provided by being built in or attached. The user wireless tag 84 stores, for example, a user name, a learning language, a level, and the like together with a user code. The contents of the user name, the learning language, and the level are displayed in characters on a sheet 82.
[0049]
Further, as shown in FIG. 9B, the user ID sheet 82 may include information on a plurality of learning languages and levels. That is, the user ID sheet 82 for the user A includes wireless tags 84a, 84b, and 84c for three users. The wireless tags 84a, 84b, and 84c have a learning language in English along with the user code. In addition, user information having levels Lv0, Lv1, and Lv2 is stored. When such a sheet 82 is used, the user A can select a desired language and level from a plurality of languages. As described above, when the user information is obtained from the user ID sheet 82, one utterance tact 22 can be shared by a plurality of users. That is, as shown in FIG. 9C, for example, the user B owning the user ID sheet 82 for the user B uses his / her utterance tact 22 of another user A to learn his / her own learning language and level (see FIG. 9C). Can learn in Korean Lv1 or French Lv1).
[0050]
In addition, by using the control ID sheet 86 for setting a general-purpose learning language as shown in FIG. 10, any user 20 can change the learning language and the level registered in the user information DB 70. You may do so. The control ID sheet 86 includes a control wireless tag 88. The control wireless tag 88 includes a control code for instructing a change setting of learning language and level information registered in the user information DB 70, and the control code. Changes (Chinese Lv2 in the example in the figure) and the like are stored. Further, as such a control ID sheet 86, a sheet capable of not only changing the setting of the user information but also instructing various setting processes to the server 18 as described later is prepared.
[0051]
The same product may be used for the target wireless tag 16, the user wireless tag 84, and the control wireless tag 88, but they hold data attribute information that can be distinguished from each other. FIG. 11 shows an example of the data structure of each wireless tag.
[0052]
As shown in FIG. 11A, the user ID data stored in the user wireless tag 84 includes, for example, a 2-byte data attribute area, an 8-byte user code area, a 16-byte user name area, and a 2-byte data area. Data area, and the data area is extended as necessary. In this data example “001 02516 xxx JPNLv3 ENGLv2 CHNLv0...”, “001” is a data attribute, indicating that this information is user ID data. Following the user code and its name, which are identification information assigned to each user, information about the user's language level is stored in the data area. For "JPNLv3", Japanese is level 3 (native language). Hereafter, English is at level 2 and Chinese is at level 0, and these indicate information of the first learning language and the second learning language, respectively.
[0053]
As shown in FIG. 11B, the object ID data stored in the object wireless tag 16 includes, for example, a 2-byte data attribute area, an 8-byte object code area, and a 16-byte object The data area includes a name area and a data area for every two bytes, and the data area is extended as necessary. In this data example “002 13076 □□□ 3900 Book Entity JPNLv1...”, “002” is a data attribute, and indicates that this information is target ID data. Subsequent to the object code and its name, which are identification information assigned to each of the objects 14, detailed information of the object 14 is stored in the data area. For example, the price, the classification of the object, whether the object is an actual object or not. Or information such as an initial setting voice. Here, by setting, for example, an emotion as another thing of the real thing, it is possible to learn a word indicating an emotion, such as “Love” or “Hate”. In this case, the wireless tag 16 may be provided on the object 14 expressing the emotion, or may be provided on an emotion card or sheet. The default voice indicates default voice data of the object 14. "JPNLv1" indicates level 1 voice data of Japanese. For example, when information on a learning language is not set, this initial voice is displayed. Audio data according to the set audio is read by the server 18.
[0054]
Further, as shown in FIG. 11C, the control ID data stored in the control wireless tag 88 includes, for example, a data attribute area of 2 bytes, a control code area of 8 bytes, and a control name area of 16 bytes. Includes a data area that is extended in accordance with. In this data example “003 010200 Navigate ON...”, “003” is a data attribute, and indicates that this information is control ID data relating to a setting processing instruction to the server 18 side. The control code is set, for example, as shown in FIG. In other words, the first two bytes of the eight bytes are for specifying the control operation target. For example, “01” means the mode, “02” means the user information, and “03” means the audio file or the like. The next two bytes are a detailed specification of the operation target. For example, in the case of mode, “00” means basic response, “01” means speed adjustment, and “02” means navigation. The next two bytes are setting information. For example, in the case of the speed adjustment mode, “00” means start, “01” means refresh, and “02” means high speed. The last two bytes are used to specify the extension data area. Such control codes enable the server 18 to instruct various setting processes.
[0055]
In the ubiquitous learning system 10, for example, learning can be performed in a basic response mode, a speed adjustment mode, a navigation mode, and the like. In either mode, the user 20 pushes down the operation button 58 with the wireless tag data reader 60 directed toward the wireless tag 16 within a predetermined communicable distance from the target wireless tag 16 of the target 14. Just fine. Thus, the object ID data of the object wireless tag 16 can be read. The read object identification information is transmitted to the server 18 by the wireless communication device 62 as request information together with the user information. In the server 18, the application in the current mode of the user is activated, and the corresponding audio data is read from the database based on the received object identification information (object code). The default is set to the basic response mode. Then, the voice data is transmitted to the utterance tact 22. The utterance tact 22 that has received the audio data is output as audio from the speaker 64.
[0056]
In the basic response mode, based on the acquired object code and the learning language and level of the user 20, corresponding audio data is read from the object audio information DB 72 or 74 and transmitted. Therefore, the user 20 can hear the voice registered in the target object voice information DB 72 or 74. For example, in the case where the learning language and level of the user 20 are Lv0 of English, as shown in FIG. 13, when the utterance tact 22 points to the clock 40 and depresses the operation button 58, “clock” is output from the speaker 64. Is output. In this way, the user 20 learns with a physical movement that actually points to the learning object 14 in the space 12. Therefore, the learning efficiency can be expected to be improved due to the accompanying physical and spatial characteristics, unlike the conventional learning in which only the learning material is used.
[0057]
In the speed adjustment mode, a sound whose speech speed is changed according to the learning situation of the user 20 is output. The utterance speed is adjusted to the speed adaptation level of the user based on the status of the access history (recognition history) of the user 20 to the object 14. In this speed adjustment mode, as shown in FIG. 14A, a control sheet (control ID sheet) 86 for the speed adjustment mode is used. The sheet 86 is provided with three control wireless tags 88 each storing control ID data for instructing start, refresh, and end of the speed adjustment mode. A fixed speed control sheet 86 for the speed adjustment mode as shown in FIG. 14B may be used. The sheet 86 is provided with three control wireless tags 88 each storing control ID data for instructing fixing to a high utterance speed, fixing to a normal utterance speed, and fixing to a low utterance speed. I have.
[0058]
This speed adjustment mode can be started by reading the wireless tag 88 corresponding to the start in FIG. When the speed adjustment mode is activated, for example, a data storage area for the speed adjustment mode as shown in FIG. In this data area, for example, the user ID (user code), the adaptive coefficient, the fixed speed, the object ID (object code) recognized this time, and the recognition history data of the object 14 from one time to nine times before The recognized object code, the number of trials, the total number of trials, and the like are stored.
[0059]
The adaptation coefficient is used to determine the speech rate. As shown in FIG. 16, in this embodiment, the adaptation coefficient is determined based on the type N of the object recognized in the past ten histories. For example, when N = 1, that is, when one kind is heard 10 times, the speed becomes 50% (half) with respect to the normal (100%), and when N = 10, that is, 10 times When the type is heard once, the speed is set to be 200% (twice) that of the normal. Specifically, the adaptation coefficient is 50% × 1.16652 as shown in FIG. (N-1) It is calculated by At the start, for example, five types of codes are set as initial values in the recognition histories from the previous one to the previous nine so as to be about 100%. Note that the setting values such as the number of times referred to as the history, the fastest coefficient, and the slowest coefficient can be appropriately changed.
[0060]
Based on this adaptation coefficient, the speech speed of the voice data of the object ID recognized this time is changed. In another embodiment, the speech data set to the utterance speed for each target type number N (adaptive coefficient) may be stored in the database in advance. Instead of dividing the speed for each number N of types, the speed may be divided into several ranges, for example, 1-4, 5-6, 7-10, and divided into low speed, standard, high speed, and the like. .
[0061]
As described above, in the history of the predetermined number of times in the past, by calculating the adaptation coefficient based on the type of the target accessed by the user and setting the utterance speed, the convergence to the speed suitable for the language level of the user 20 is achieved. Can be. For example, as the user 20 grows, it is considered that the number of types N increases by continuing to select different targets, and therefore, the utterance speed can be increased. However, when an unknown or difficult-to-hear target appears, the same number is selected several times, and the number N of types is likely to decrease, so that the utterance speed can be appropriately reduced. FIG. 17 shows an example of a user learning curve (a relationship between the speed and the number of trials) of each level realized by the speed adjustment mode. FIG. 17 (A) shows the case of an excellent person, which reaches a high speed immediately after the start, and if there is something that is not known occasionally, the speed decreases, but is maintained at a high speed as a whole (thick line). FIG. 17B shows the case of a standard person. While the standard speed is maintained, the speed is increased if it is known, and the speed is decreased if it is not known (thin line). (Bold line) gradually approaching high speed. FIG. 17C shows a case of an unfamiliar person, in which the speed becomes low at first, but as learning progresses, the speed gradually increases as a whole (thick line) while repeating the speed up and down. . As described above, in the speed adjustment mode, the speech data whose utterance speed has been changed according to the learning status of the user 20 (the status of the recognition history) is provided, so that the user can efficiently learn.
[0062]
In the navigation mode, the order of the objects 14 to be recognized is determined in advance, and the user 20 is provided with information indicating the next object 14 to be recognized. Therefore, as in orienteering, the course is instructed, so that the user can proceed with learning as if playing a game, and the user 20 can actively face the learning environment.
[0063]
For example, FIG. 18 shows an example of a course in the navigation mode. The start of the navigation mode, the door 32, the clock 40, the cabinet 42, the saddle 38, and the handle 36 are set in the order of the check points CP1 to CP6. By correctly answering the route instruction (question) to the next CP output by each CP, it is possible to hear a question sound for proceeding to the next CP. If you make a mistake, for example, the same question is repeated with an announcement of the mistake. Then, when the first predetermined number of times (three times in this embodiment) is incorrect, the level is changed and audio data that is an easy-to-understand hint is provided. If the user is still unable to answer correctly and makes a second predetermined number of times (10 in this embodiment), the learning level is set higher than the current learning language, for example, so that the user 20 can easily understand. A voice in a language, that is, a language with a high degree of user understanding (in this embodiment, the native language) is output. In the case of further mistake, for example, forcibly proceed to the next CP.
[0064]
More specifically, when the navigating mode is started, in CP1, in the learning language (for example, English) of the user 20, for example, "Start navigating mode. Please find the door first." A question voice indicating a course is output. On the other hand, if the user 20 goes to the door and recognizes the wireless tag 16 for the object, the user 20 says in English, "Yes, this is the door. It opens when you enter the room. Please find the instrument that ticks the time. " On the other hand, if the user 20 recognizes the book, a voice is output in English saying "No, it is a book. Please find an instrument that keeps time." After that, if you make a mistake three times (first predetermined number) in this question to CP3, for example, a sound is output that says "No, it is a saddle.""The clock on the cabinet is ticking the time." Is done. This is voice data that serves as a hint, and the utterance speed is also slowed down so as to be pronounced slowly. If the answer is correct, the voice of the next question to CP4 is output at the original speed. On the other hand, if the incorrect answer continues ten times (the second predetermined number of times), for example, the language is changed and the user 20's native language Japanese is “No, it is a saddle. Please find me. " As described above, in the navigating mode, the speech information in which the description level based on the utterance speed and the content or the language or the like is changed according to the learning situation of the user 20 is provided, so that the user 20 proceeds with the learning efficiently. be able to.
[0065]
The learning in the navigation mode may be performed on a large scale by providing the wireless tags 16 on the plurality of objects 14 over the entire facility such as a school.
[0066]
In the navigation mode, as shown in FIG. 19A, a control sheet (control ID sheet) 86 for the navigation mode is used. The sheet 86 is provided with three control wireless tags 88 each storing control ID data for instructing start, restart, and end of the navigation mode. Further, a learning language change control sheet 86 for the navigation mode as shown in FIG. 19B may be used. The sheet 86 is provided with three control wireless tags 88 each storing control ID data indicating English, Japanese, and Korean.
[0067]
By reading the wireless tag 88 corresponding to the start in FIG. 19A, the navigation mode can be activated. When the navigation mode is activated, a data storage area for the navigation mode as shown in FIG. 20 is generated in the RAM of the server 18, for example. In this data area, for example, a user ID (user code), a user learning language, a user's native language, a current checkpoint CP, a current answer level CAL, a result R of the present recognition, the number of answers for each checkpoint, and a recognition Information to be identified is stored. At the start, information to be recognized by the CP1 is set with a start control code, and after CP2, respective object codes are set. In this embodiment, the door 32, the clock 40, the cabinet 42, the saddle 38, and the steering wheel are set in this order. 36 object codes are set. Thus, the recognition order information in which the order of the objects 14 to be recognized is determined is stored. As initial settings, the current CP is set to 1, the current answer level CAL is set to a value other than 2 (level change), the result R of the current recognition is set to the start time, and the number of answers to each CP is set to 0.
[0068]
FIGS. 21 and 22 show examples of standard voice data and question voice data registered in the navigation mode voice information DB 76. This data includes fixed speech data and question speech data in a plurality of learning languages (English, Japanese, etc.) associated with each recognition result R at each checkpoint CP. Specifically, when R = start, the audio data output at the start of the navigation mode is registered. R = 0 is voice data at the time of incorrect answer, and R = 1 is voice data at the time of correct answer. R = 2 is audio data whose level has been changed when the user makes three mistakes, and R = 3 is audio data which is output after changing the language when he makes ten mistakes. R = 4 is audio data output before moving to the next CP when a further mistake is made for the audio of R = 3. The standard voice other than at the start is for an announcement of a correct answer or an incorrect answer, and the "_ (underlined)" portion in FIG. It is read from the DB 72 or 74 and synthesized. The question voice is for instructing the target object 14 to be recognized. The standard voice and the question voice are synthesized, and the synthesized voice data is transmitted to the utterance tact 22.
[0069]
FIG. 23 shows an example of the operation of the utterance tact 22. In the utterance tact 22, when the power is turned on, the program and the data are loaded from the ROM 54 to the RAM 56, and the program is started. That is, the CPU 52 of the utterance tact 22 first determines whether or not the operation button 58 has been pressed in step S1. When the operation input signal is received, in a succeeding step S3, a start instruction is given to the wireless tag data reading device 60 to operate it, and the ID information read by the reading device 60 from the wireless tag is acquired. In the following steps S5 to S9, the data attribute of this ID information is determined.
[0070]
In step S5, it is determined whether or not it is a user ID. If "YES", that is, if the data attribute is "001", the acquired user information is stored in the memory (RAM) 56 in step S11. Is written in a predetermined data area 66 of the data. The process of step S5 is necessary when using the user ID sheet 82 as shown in FIG. 9, and is unnecessary when the user information is stored in the ROM 54 in advance. When the user ID sheet 82 is used, it is necessary to read the user wireless tag 84 before reading from another wireless tag. Upon completion of the process in the step S11, the process returns to the step S1.
[0071]
If “NO” in the step S5, it is determined in a step S7 whether or not the ID is the object ID. If “YES”, that is, if the data attribute is “002”, transmission data as request information is generated based on the acquired object information and the user information in the RAM 56 in step S13. This transmission data includes a user code, an object code, and the like.
[0072]
Then, in step S15, a reply queue management of the transmission data is processed, and in step S17, the transmission data is transmitted to the server 18 by the wireless communication device 62. Note that the queue processing can eliminate pressing the operation button 58 twice within a unit time (for example, 2 seconds). Further, if there are a plurality of inputs over a unit time, the data can be transmitted in the order of input even if a plurality of data are accumulated. Upon completion of the process in the step S17, the process returns to the step S1.
[0073]
If "NO" in the step S7, it is determined whether or not the control ID is the control ID in a step S9. If “YES”, that is, if the data attribute is “003”, transmission data is generated based on the obtained control information and the user information in the RAM 56 in step S19. This transmission data includes a user code, a control code, and the like. If the control command is a change setting of the user information, the user information in the data area 68 of the RAM 56 may be rewritten before step S19. Then, in step S21, the transmission data is transmitted to the server 18 by the wireless communication device 62. Upon completion of the process in the step S21, the process returns to the step S1.
[0074]
On the other hand, if “NO” in the step S1, it is determined whether or not data is received from the server 18 in a succeeding step S23. If the transmission data includes the object information, the corresponding audio data is transmitted from the server 18. Also, when the transmission data includes the control information, the corresponding start voice data is transmitted even when the start code is the navigation mode. If "YES" in this step S23, a reply waiting queue management of the received data is processed in a step S25, and in step S27, the received audio data is reproduced, given to the speaker 64, and output as a sound. Even if a plurality of data are accumulated by the queue processing, the data can be sequentially output. Upon completion of the process in the step S27, the process returns to the step S1.
[0075]
24 to 30 show an example of the operation of the server 18. FIG. 24 shows a main flow. In the server 18, for example, when the power is turned on, the program and data are loaded from the ROM and the HDD into the RAM, the processing is started, and the server 18 is put into a standby state for receiving the transmission data from the speech tact 22. You. That is, in the first step S41 of FIG. 24, the CPU of the server 18 determines whether or not data (request information) from the utterance tact 22 has been received. If “NO”, this step S41 is repeated. If “YES” in the step S41, in a succeeding step S43, user information is obtained from the received data. The user 20 accessing the server 18 can be specified by the user code included in the user information (user ID data). The address of the utterance tact 22 is also obtained from the received data. If there is no user information, error processing may be performed, and for example, voice data or the like for prompting transmission of the user information may be transmitted to the utterance tact 22.
[0076]
Further, in step S45, it is determined whether or not the received data includes control information. If “YES” in the step S45, that is, if there is the control information (control ID data), in a step S47, the control information setting is processed based on the control information.
[0077]
The operation of the control information setting process S47 is shown in FIG. In the first step S81 in FIG. 25, the control code (FIG. 12) included in the control information is analyzed. In a step S83, it is determined whether or not the operation target is the mode (“01”). If “YES”, in a succeeding step S85, it is determined whether or not the detailed setting is related to the basic response mode (“00”). Judge. If "YES" in the step S85, a setting process regarding the basic response mode is performed in a step S87 according to the control code of the control information and the data in the data area, and the process returns.
[0078]
If “NO” in the step S85, it is determined in a step S89 whether or not the detailed setting is related to the speed adjustment mode (“01”). If "YES" in the step S89, the setting of the speed adjustment mode is processed in a step S91. Details of the speed adjustment mode setting process in step S91 are shown in FIG. 26, which will be described later.
[0079]
If “NO” in the step S89, it is determined in a step S93 whether or not the detailed setting is related to the navigation mode (“02”). If “YES” is determined in the step S93, the setting of the navigation mode is processed in a step S95. The details of the navigation mode setting process in step S95 are shown in FIG. 27, which will also be described later.
[0080]
If “NO” in the step S93, in a succeeding step S97, a setting process for another mode according to the control information is performed, and the process returns.
[0081]
On the other hand, if “NO” in the step S83, it is determined whether or not the operation target is the user information (“02”) in a step S99, and if “YES”, the detailed setting is performed in a subsequent step S101. It is determined whether or not the name is related to the name (“01”). If “YES” in the step S101, in a step S103, the setting regarding the user name in the user information DB 70 is processed according to the control code and the data in the data area, and the process returns.
[0082]
If “NO” in the step S101, it is determined whether or not the current mode (“04”) relates to the current mode (a step S105). If “YES” is determined in the step S105, in a step S107, the setting regarding the current mode of the user information DB 70 is processed according to the control code and the data of the data area, and the process returns.
[0083]
If “NO” is determined in the step S105, in a succeeding step S109, the setting regarding other data of the user information DB 70 is processed according to the control information, and the process returns.
[0084]
On the other hand, if “NO” in the step S99, other settings corresponding to the control code are processed in a step S111, and the process returns.
[0085]
In the speed adjustment mode setting process S91 of step S91 in FIG. 25, as shown in FIG. 26, first, in step S121, it is determined whether or not the control command is an instruction to start the speed adjustment mode. If “YES” in the step S121, that is, if the data of the start control wireless tag 88 of the control sheet 86 in FIG. 14A is read by the user 20, in a step S123, the user An application data area (FIG. 15) for the speed adjustment mode is generated in the RAM, and necessary data is written in a predetermined area. Then, in step S125, the current mode of the user in the user information DB 70 is set to the speed adjustment mode, and the process returns. As a result, when the user 20 subsequently acquires the object ID from the object 14, the speed adjustment mode is executed and the sound is output.
[0086]
On the other hand, if “NO” in the step S121, the processes in and after the step S127 are performed. However, these are basically processes after the start of the speed adjustment mode. A voice or the like prompting the start reading may be transmitted.
[0087]
If “YES” in the step S127, that is, if the control wireless tag 88 corresponding to the refresh is read, in a succeeding step S129, the data (adaptive coefficient, recognition history, trial Is returned to the initial value, and the routine returns. As a result, the speed adjustment mode can be restarted from the start.
[0088]
If “NO” in the step S127, it is determined whether or not the speed adjustment mode is ended in a step S131. If “YES” in the step S131, that is, if the control wireless tag 88 corresponding to the end is read, in a succeeding step S133, the current status mode of the user in the user information DB 70 is set to the default basic response mode. And return. Thus, the speed adjustment mode can be ended.
[0089]
On the other hand, if “NO” in the step S131, it is determined in a step S135 whether or not the high speed is fixed. If “YES” in the step S135, that is, if the control wireless tag 88 corresponding to the high speed of the control sheet 86 as shown in FIG. 14B is read, the adaptation of the data area in FIG. The coefficient is set to 150% of the high speed, a flag is set to fixed speed, and the routine returns. As a result, the speech speed in the speed adjustment mode is fixed at a high speed.
[0090]
If “NO” in the step S135, it is determined in a step S139 whether or not the parallel speed is fixed. If “YES” in the step S139, that is, if the control wireless tag 88 corresponding to the normal speed is read, 100% (standard) of the parallel speed is set to the adaptive coefficient of the data area in a step S141. After setting, set a flag to fix speed and return. As a result, the utterance speed in the speed adjustment mode is fixed to the average speed.
[0091]
If “NO” in the step S139, it is determined in a step S143 whether or not the low speed is fixed. If “YES” in the step S139, that is, if the control wireless tag 88 corresponding to the low speed is read, in a step S145, the adaptive coefficient of the data area is set to 66% of the low speed, and Set the fixed speed flag and return. As a result, the utterance speed in the speed adjustment mode is fixed at a low speed.
[0092]
If “NO” in the step S143, in a succeeding step S147, setting of other data in the speed adjustment mode is processed according to the control information, and the process returns.
[0093]
In the navigation mode setting process S95 of step S95 in FIG. 25, as shown in FIG. 27, first, in step S151, it is determined whether or not the control command is a start instruction of the navigation mode. If “YES” in the step S151, that is, if the data of the control wireless tag 88 for the start of the control sheet 86 in FIG. 19A is read by the user 20, in a step S153, the user An application data area (FIG. 20) for the navigation mode is generated in the RAM, and necessary data is written in a predetermined area. Next, in step S155, the current mode of the user in the user information DB 70 is set to the navigation mode. Then, in step S157, the navigation mode response is processed. The operation of the navigation mode response process S157 is shown in detail in FIGS. 29 and 30, which will be described later. By the processing in step S157, the navigation mode starts, and the recognition result R is synthesized with the standard voice data and the question voice data at the start (initial value) and transmitted to the utterance tact 22 to start the navigation mode. The next CP instruction is output as voice.
[0094]
On the other hand, if “NO” in the step S151, the processes in and after the step S159 are performed. However, these are basically processes after the navigation mode is started. A voice or the like prompting the start reading may be transmitted.
[0095]
In the step S159, it is determined whether or not the restart is made. If “YES”, that is, if the restart wireless tag 88 of the control sheet 86 is read, the update data in the data area is returned to the initial value in step S161. That is, for example, the current CP is set to the start, the current answer level CAL is set to a level other than level 2, the result R of the current recognition is set at the start, and the number of answers of each CP is returned to 0. Then, in step S157, the navigation mode response is processed. As a result, the navigation mode is restarted from the beginning, and the sound at the start is output.
[0096]
If “NO” in the step S159, it is determined whether or not to end in a step S163. If “YES” in the step S163, that is, if the control wireless tag 88 corresponding to the end is read, in a step S165, the current mode of the user information DB 70 is set to the basic response mode, and the process returns. . Thus, the navigation mode can be ended.
[0097]
On the other hand, if “NO” in the step S163, it is determined whether or not the changed language is English in a succeeding step S167. If “YES” in the step S167, that is, if the control wireless tag 88 corresponding to English on the control sheet 86 as shown in FIG. 19B is read, the data area of the data area is read in a step S169. Set the user learning language to English and return.
[0098]
If “NO” in the step S167, it is determined whether or not the change language is Japanese in a step S171. If “YES” in the step S171, that is, if the wireless tag 88 corresponding to Japanese is read, the learning language of the data area is set to Japanese in a step S173, and the process returns.
[0099]
If “NO” in the step S171, it is determined whether or not the changed language is Korean in a step S175. If “YES” in the step S175, that is, if the wireless tag 88 corresponding to the Korean is read, the learning language of the data area is set to the Korean in a step S177, and the process returns.
[0100]
On the other hand, if “NO” in the step S175, in a succeeding step S179, other data setting in the navigation mode is processed according to the control information, and the process returns.
[0101]
Returning to FIG. 24, if “NO” in the step S45, that is, if the control information is not included in the received data, in a succeeding step S49, the object information (object ID data) is obtained from the received data. I do. Thereby, the object code is obtained, and the recognized object 14 is specified.
[0102]
In step S51, the current mode of the user is read from the user information DB 70 based on the user information. In step S51, after the current mode of the user is once read and written in the predetermined data area 80 of the RAM, the user information DB 70 is read only when the current mode is changed in the control information setting process in step S47. You just have to read it.
[0103]
Then, in steps S53, S55, and S57, the type of the current mode is determined, and response processing in each mode is performed.
[0104]
In step S53, it is determined whether or not the current mode is the basic response mode. If "YES", in the following step S59, the user's learning language information and level information are obtained as a reply information selection flag from the user information DB 70. Is done. When there are a plurality of learning languages and levels as shown in FIG. 6 of this embodiment, a first learning language and level are obtained. After the learning language and the level are once read out from the user information DB 70 in step S59 and written in the predetermined data area 80 of the RAM, the learning language or the level is changed in the control information setting process in step S47. Only in this case, it is necessary to read out from the user information DB 70.
[0105]
In a succeeding step S61, based on the selection flag and the object information (object code), the corresponding audio data is read out and acquired from the object audio information DB 72 or 74. Then, in step S63, voice data as reply information is transmitted to the utterance tact 22. Note that the address of the utterance tact 22 can be obtained from transmission data from the utterance tact 22. Therefore, as described above, in the utterance tact 22, the audio data is reproduced, and the audio is output from the speaker 64. Upon completion of the process in the step S63, the process returns to the step S41 and waits for the reception of the data from the speech tact 22 again.
[0106]
On the other hand, if “NO” in the step S53, it is determined whether or not the current mode is the speed adjustment mode in a step S55. If “YES” in the step S55, a response in the speed adjustment mode is processed in a succeeding step S65. The operation of the speed adjustment mode response process S65 in step S65 is shown in FIG.
[0107]
In the first step S191 in FIG. 28, a reply information selection flag (learning language and level) is acquired from the user information DB 70 based on the user information. Also in this step S191, as in step S59 in FIG. 24 described above, when there are a plurality of learning languages, the first learning language and the level are acquired. After the learning language and the level are once read from the user information DB 70 in step S191 and written in the predetermined data area 80 of the RAM, the learning language or the level is changed in the control information setting process in step S47. Only in this case, it is necessary to read out from the user information DB 70.
[0108]
Next, in step S193, the recognition history data is updated based on the acquired target object information. Specifically, in the data area shown in FIG. 15, the object ID recognized this time, the recognition history of one to nine previous times, the number of trials, and the like are updated.
[0109]
In step S195, it is determined whether or not the utterance speed is fixed. If "NO", that is, if the speed fixing flag in the data area is not set, in step S197, the target in the past ten histories is determined. The type N of the object 14 is counted. Then, in step S199, an adaptive coefficient is calculated based on the type N of the target in the history (FIG. 16), and written in the data area.
[0110]
On the other hand, if “YES” in the step S195, that is, if the speed fixing flag is set, the adaptive coefficient is fixed to a constant and the calculation does not need to be performed, so that the process proceeds to the step S201 as it is.
[0111]
In step S201, based on the selection flag (the learning language and the level) and the object information (the object ID recognized this time), the corresponding audio data is read from the object audio information DB 72 or 74 and acquired.
[0112]
In a succeeding step S203, the speech speed of the voice data is changed based on the adaptation coefficient. In this processing, the pitch (sound) of the audio data is maintained as it is, and only the speed is changed based on the adaptation coefficient. Then, in step S205, audio data as reply information is transmitted to the utterance tact 22. Therefore, as described above, in the utterance tact 22, the audio data is reproduced, and the audio whose speed is adjusted is output from the speaker 64. Upon completion of the process in step S205, the process returns to step S41 in FIG. 24, and waits for reception of data from the utterance tact 22 again.
[0113]
If “NO” in the step S55 of FIG. 24, it is determined in a step S57 whether or not the current mode is the navigation mode. If "YES" in the step S57, a navigation mode response is processed in a succeeding step S67. The operation of the navigation mode response process (S67, S157) in step S67 of FIG. 24 (and step S157 of FIG. 27) is shown in FIGS. 29 and 30.
[0114]
In the first step S221 in FIG. 29, it is determined whether the result R of the current recognition of the data area (FIG. 20) is the start time. If “YES” in the step S221, that is, if the navigation mode is started, the process proceeds to the next step S255 in FIG. On the other hand, if “NO” in the step S221, that is, if it is not the start time, in a succeeding step S223, the acquired object ID (object code) and the object ID set in the next checkpoint CP (Object code) is determined. That is, the success or failure of the recognition is determined.
[0115]
If “YES” in the step S223, that is, if the answer is correct, in a step S225, 1 is added to the data of the present CP (FIG. 20), and the process proceeds to the next CP. In step S227, 1 is added to the number of answers of the next CP, and in step S229, 1 (correct answer) is set to the result R of the current recognition. Thereby, the sound at the time of the correct answer is output. Then, in step S231, the current answer level CAL is initialized. Upon completion of the process in the step S231, the process proceeds to the next step S253 in FIG.
[0116]
On the other hand, if “NO” in the step S223, that is, if information other than the ID information of the instructed object is acquired, in a succeeding step S235, the recognition result R of the data area is 3 (final). Hint) is set. If “YES” in the step S233, that is, if the correct answer is not given despite answering one checkpoint CP ten times, in a step S235, 1 is added to the data of the present CP. Then, the next CP is forcibly advanced. Then, in step S237, 4 (to the next CP) is set in the recognition result R. As a result, a sound forcibly proceeding to the next CP is output. Upon completion of the process in the step S237, the process proceeds to the next step S253 in FIG.
[0117]
If “NO” in the step S233, that is, if the recognition result R of the data area is not 3 (to the final hint), 1 is added to the number of answers of the CP present in the data area in a step S239. In step S241, the current recognition result R is set to 0 (unsuitable). As a result, inappropriate sound is output.
[0118]
In a succeeding step S243, it is determined whether or not the number of answers of the current CP is larger than 3 (first predetermined number). If “YES” in the step S243, that is, if it is inappropriate even if the answer is answered four or more times, the recognition result R is set to 2 (level change) in a step S254, and the current value is set in a step S247. The answer level CAL is set to 2 (change explanation level). In this way, in this embodiment, if the answer is incorrect even after answering four times, the level is changed (lowered), that is, a sound that is an easy-to-understand hint is output. If “NO” in the step S243, that is, if the number of answers of the present CP is three or less, the process proceeds to the next step S253 in FIG.
[0119]
In step S249, it is determined whether or not the number of answers of the current CP is equal to 10 (the second predetermined number). If “YES” in the step S249, that is, if the answer is incorrect even if one CP is answered ten times, the recognition result R is set to 3 (final hint) in a step S251. As a result, a sound serving as a final hint is output. In this embodiment, as a final hint, for example, a learning language (for example, a native language) that is higher in level than the currently applied learning language of the user 20, that is, the user 20 has a high level of understanding, is applied. .
[0120]
If “NO” in the step S249, that is, if the number of answers of the present CP is not 10, or if the process of the step S251 is ended, the process proceeds to the step S253 in FIG.
[0121]
In step S253 of FIG. 30, it is determined whether or not the recognition result R of the data area (FIG. 20) is set to 3 (final hint). If “NO” in the step S253, that is, if the final hint is not provided, the user learning language is acquired from the data area in a step S255. As described above, when the hint is not the final hint, the voice in the learning language of the user is output.
[0122]
Next, in step S257, based on the learning language, the current CP, the recognition result R, and the current answer level CAL, the corresponding fixed form voice data is read out from the navigation mode voice information DB 76 (FIG. 21) and acquired. .
[0123]
In a succeeding step S259, based on the object information and the learning language, the corresponding object sound data is read out and acquired from the object sound information DB 72 or 74 (FIG. 7 or FIG. 8). This object audio data is used to combine with the standard audio data when R is 0, 2, 4 or the like, for example, as shown in FIG.
[0124]
Then, in step S261, based on the learning language, the current CP, the recognition result R, and the current explanation level CAL, the corresponding question voice data is read from the navigation mode voice information DB 76 (FIG. 22) and acquired.
[0125]
On the other hand, if “YES” in the step S253, that is, if the final hint is provided, the user native language is acquired from the data area in a succeeding step S263. Thus, the final hint is provided in this embodiment in audio in the user's native language.
[0126]
Next, in step S265, based on the native language, the current CP, the recognition result R, and the current answer level CAL, the corresponding standard voice data is read from the navigation mode voice DB 76 (FIG. 21) and acquired.
[0127]
In a succeeding step S267, based on the object information and the native language, the corresponding object sound data is read out from the object sound information DB 72 or 74 and acquired. This object audio data is also used to combine with the standard audio data when R is 0, 2 and 4, for example, as shown in FIG.
[0128]
Then, in step S269, based on the native language, the present CP, the recognition result R, and the current answer level CAL, the corresponding question voice data is read and acquired from the navigation mode voice information DB 76 (FIG. 22).
[0129]
When the processing in step S261 or S269 is completed, it is determined in step S271 whether the current answer level CAL is 2. If “YES” in the step S271, that is, if the answer is not correctly answered even if the number of answers exceeds 3 in one CP and the explanation level is changed, the utterance speed of the target object voice data is changed in the step S273. Is changed to a speed as slow as this level 2. As shown in FIGS. 21 and 22, when the current answer level CAL is 2, that is, when the recognition result R is 2 (level change), the navigation mode voice information DB 76 slowly lowers the level. Is stored at the utterance speed at which the utterance is pronounced. Since the target object voice information is synthesized with the fixed voice and the question voice for the navigation mode, it is necessary to change the utterance speed to be slow.
[0130]
If “NO” is determined in the step S271, or if the process in the step S273 is ended, in a step S275, one voice data is generated by synthesizing the fixed voice data, the question voice data, and the target voice data as necessary. I do. Then, in step S277, the voice data as reply information is transmitted to the utterance tact 22. Therefore, as described above, in the utterance tact 22, the audio data for navigating the user 20 is reproduced, and the audio is output from the speaker 64. Upon completion of the process in the step S277, the process returns to the step S41 in FIG. 24, and waits for reception of data from the speech tact 22 again.
[0131]
Returning to FIG. 24, if “NO” in the step S57, that is, if the current mode is not the navigating mode, the process of the other mode is executed in a succeeding step S69, and the process returns to the step S41.
[0132]
According to this embodiment, since the plurality of objects 14 existing in the real space 12 are provided with the wireless tags 16 for the respective objects, the space 12 surrounding the user 20 can be made a complete learning environment. 20 can put himself in the learning space. By placing yourself in the learning space instead of going to the teaching materials as in the related art, the environment comes to the learner 20, and therefore, improvement in learning efficiency can be expected.
[0133]
In addition, since audio data in a plurality of languages is prepared in association with the object identification information, a multilingual space can be easily constructed. Further, it is possible to cope with different learning languages among a plurality of users. For example, it is possible to construct a multilingual learning environment for the same space.
[0134]
In the speed adjustment mode, the utterance speed is changed in accordance with the current learning state (recognition history state) of the user 20. In the navigation mode, the utterance speed is changed according to the current learning state of the user 20. In addition, the description level and language of the contents and the like are changed. Therefore, since the voice data adapted to the current learning situation of the user 20 is provided, the user 20 can efficiently learn.
[0135]
In the above-described embodiment, the real space 12 is assumed to be, for example, a room in a home or a school as shown in FIG. 2. May be displayed. That is, in this case, the exhibit in the hall is the object 14. As in the above-described embodiment, the audio data may be multi-staged into a plurality of levels, for example, for beginners, intermediate players, and advanced users, and may correspond to multiple languages. As a result, it is possible to provide an explanation sound corresponding to the language of the visitor (user) 20 and the degree of understanding of the exhibit.
[0136]
Further, the utterance tact 22 as a portable terminal is configured by a portable communication terminal such as a PDA, or a portable telephone, a notebook PC, etc., as in the ubiquitous learning system 10 of another embodiment shown in FIG. 31, for example. Is also good. In FIG. 31, the DBs 70 to 76 shown in FIG. 1 are omitted because they are built in the server 18. Also in this case, the portable communication terminal 22 is provided with a built-in or extended wireless tag data reading device 60 (FIG. 3). In addition, a program and data necessary to function as an utterance tact, or hardware that substitutes for the program are built in, or the program or the like is read from a suitable readable recording medium, or is read on a communication network (such as the Internet 26). And download it from a distribution server or the like. When these portable communication terminals include a display device such as an LCD, the user ID sheet 82 and the control ID sheet 86 are used to set the learning language and level, select the learning mode, and set control instructions. Instead of using and reading, the input data may be transmitted to the server 18 by inputting on an input screen displayed on a display device. Further, when the portable terminal 22 is provided with a display device as described above, sound may be output from the speaker 64 and characters of the content may be displayed on the display device (described later).
[0137]
Further, in each of the above-described embodiments, the utterance tact 22 accesses the server 18 via the base station 24, but the form of connection to the server 18 via radio can be changed as appropriate. For example, as shown in FIG. 32, the utterance tact 22 is connected to, for example, a home server 90 such as a home or a school by a wireless LAN (radio wave system, infrared system, IrDA infrared system, etc.), and the home server 90 Alternatively, the server 18 may be connected to the server 18 via the server 26. Although FIG. 32 shows an infrastructure mode in which the home server 90 is connected to the home server 90 via an access point (bridge) 92 on a wired LAN in the premises, a configuration in which the home server 90 is directly connected to the home server 90 in an ad hoc mode is also shown. Good. Alternatively, the connection may be made by Bluetooth.
[0138]
Further, in each of the above-described embodiments, the server 18 is provided on the Internet 26. However, the server 18 may be, for example, a PC at home or school, as in the other embodiments shown in FIG. In this case, the utterance tact 22 is connected to the PC server 18 by, for example, a wireless LAN or Bluetooth.
[0139]
Further, in each of the above-described embodiments, the sound output unit (such as the speaker 64) for outputting the sound to the utterance tact 22 is provided. However, the sound data provided from the server 18 may be heard by the user 20. If it exists in the space 12 where the user 20 learns, a voice output unit may be provided in addition to the utterance tact 22. For example, as shown in FIG. 34, when the server 18 exists in the learning space 12, a speaker 94 is connected to the server 18 via an amplifier or the like, and audio data is provided to the speaker 94. Alternatively, the sound may be output from the speaker 94 as sound.
[0140]
Further, in each of the above-described embodiments, a plurality of users 20 can be handled by the user identification information. However, in a simpler configuration, user management may not be performed. In this case, if at least one of the learning language information and the level information is transmitted from the utterance tact 22 together with the object identification information to the server 18, the audio data corresponding to at least one of a plurality of languages and a plurality of levels is provided. Can be provided. In a simpler configuration, only the object identification information may be transmitted to the server 18 and audio data of one language and level may be returned. In this case, a monolingual learning environment is constructed. .
[0141]
Further, in each of the above-described embodiments, the server 18 provides the audio information as the information on the target 14, but may further provide the character information on the target 14. For example, the server 18 associates the character information (text data or image data, etc.) in the language indicating the content of the sound with the databases 72, 74 or 76 together with the sound information in a plurality of languages and in a plurality of levels in association with the object identification information. And so on. For example, in the example of FIG. 7, text data indicating spelling in the language (English) corresponding to Lv0 is shown. In FIG. 7 and the like, character data for other levels of description and detailed description are not shown. Then, the server 18 reads the corresponding character information from the database 72, 74 or 76 based on the received object identification information by the character information reading means. When the utterance tact 22 (FIG. 3) is further provided with a display device such as an LCD, or when the utterance tact 22 is a portable communication terminal 22 such as a PDA having a display device as shown in FIG. The transmitted character information is transmitted to the utterance tact 22 together with the voice information. In response to this, the utterance tact 22 outputs a voice and displays the character on the display device based on the received character information by a display control program or the like. That is, for example, in the situation as shown in FIG. 13 described above, the sound of “clock” is output from the speaker 64 and the spelling of “clock” is displayed on a display device (not shown). 33 and FIG. 34, when the server 18 includes a display device associated therewith and is provided in the real space 12 where the user 20 exists, the display device of the server 18 May be given character information and displayed. As described above, in the case of providing character information, learning such as spelling can be performed not only by hearing but also by characters indicating the contents of the voice, and therefore, more efficient learning is performed by hearing and vision. be able to.
[Brief description of the drawings]
FIG. 1 is an illustrative view showing an overview of a ubiquitous learning system according to an embodiment of the present invention;
FIG. 2 is an illustrative view showing one example of a ubiquitous learning space in the embodiment in FIG. 1;
FIG. 3 is an illustrative view showing an internal configuration of an utterance tact in the embodiment in FIG. 1;
FIG. 4 is an illustrative view showing one example of a memory map of a RAM of an utterance tact;
FIG. 5 is an illustrative view showing one example of a memory map of a RAM of the server in the embodiment in FIG. 1;
FIG. 6 is an illustrative view showing one example of user information stored in a user information DB of the embodiment in FIG. 1;
FIG. 7 is an illustrative view showing one example of object sound information stored in an object sound information DB (first language) of the embodiment in FIG. 1;
FIG. 8 is an illustrative view showing one example of object sound information stored in an object sound information DB (other language) of the embodiment in FIG. 1;
FIG. 9 is an illustrative view showing one example of a user ID sheet provided with a user wireless tag;
FIG. 10 is an illustrative view showing one example of a control ID sheet provided with a control wireless tag;
FIG. 11 is an illustrative view showing one example of a structure of identification data stored and held in a wireless tag; FIG. 11A shows user ID data stored in a user wireless tag; It shows the object ID data stored in the tag, and (C) shows the control ID data stored in the control wireless tag.
FIG. 12 is an illustrative view showing one example of a data structure of a control command included in control ID data;
FIG. 13 is an illustrative view showing a state in which a clock as an object is recognized by an utterance tact and its voice is output;
FIG. 14 is an illustrative view showing one example of a control ID sheet for a speed adjustment mode;
FIG. 15 is an illustrative view showing one example of a memory map of a speed adjustment mode data storage area formed in a RAM of a server;
FIG. 16 is an illustrative view showing one example of an adaptive coefficient in a speed adjustment mode;
FIG. 17 is an illustrative view showing one example of a learning curve in a speed adjustment mode, wherein (A) shows an image of an excellent person, (B) shows an image of a standard person, and (C) Shows an image of an unfamiliar person.
FIG. 18 is an illustrative view showing one example of a course in a navigation mode;
FIG. 19 is an illustrative view showing one example of a control ID sheet for a navigation mode;
FIG. 20 is an illustrative view showing one example of a memory map of a navigation mode data storage area formed in a RAM of a server;
FIG. 21 is an illustrative view showing one example of fixed form voice information stored in the navigation mode voice information DB of the embodiment in FIG. 1;
FIG. 22 is an illustrative view showing one example of question audio information stored in a navigation mode audio information DB;
FIG. 23 is a flowchart showing an example of the operation of the utterance tact of the embodiment in FIG. 1;
FIG. 24 is a flowchart showing an example of the operation of the server of the embodiment in FIG. 1;
FIG. 25 is a flowchart showing an example of the operation of a control information setting process in the server.
FIG. 26 is a flowchart showing an example of the operation of the speed adjustment mode setting process in the server.
FIG. 27 is a flowchart showing an example of the operation of a navigation mode setting process in the server.
FIG. 28 is a flowchart showing an example of the operation of the speed adjustment mode response process in the server.
FIG. 29 is a flowchart showing a part of an operation of a navigation mode response process in the server.
FIG. 30 is a flowchart showing a sequel to FIG. 29;
FIG. 31 is an illustrative view showing a configuration of a ubiquitous learning system according to another embodiment;
FIG. 32 is an illustrative view showing a configuration of a ubiquitous learning system according to another embodiment;
FIG. 33 is an illustrative view showing a configuration of a ubiquitous learning system according to another embodiment;
FIG. 34 is an illustrative view showing a configuration of a ubiquitous learning system according to another embodiment;
[Explanation of symbols]
10. ubiquitous learning system
12 ... real space
14 ... object
16… Wireless tags for objects
18… Server (information providing device)
22 ... Speech tact (mobile terminal)
52 ... CPU
54… ROM
56… RAM
58… Operation buttons
60… Wireless tag data reader
62… Wireless communication device
64… Speaker
70: User information DB
72… Object sound information DB (first language)
74… Object sound information DB (other languages)
76… Sound information DB for navigation mode
84: User wireless tag
88… Control wireless tag

Claims (23)

実空間に存在する複数の対象物に関する情報を提供する情報提供装置、および前記情報提供装置と無線を介して通信する携帯端末を備え、前記複数の対象物を用いて学習するためのユビキタス学習システムであって、
前記複数の対象物には前記複数の対象物を識別するための対象物識別情報を記憶保持する複数の無線タグがそれぞれ設けられ、
前記携帯端末は、
ユーザによって操作される操作手段、
前記操作手段からの操作に応じて前記無線タグから前記対象物識別情報を取得する取得手段、および
前記取得手段によって取得した前記対象物識別情報を含む要求情報を前記情報提供装置に無線により送信する第1送信手段を含み、
前記情報提供装置は、
前記対象物識別情報ごとに関連付けられた前記対象物に関する音声情報を記憶する音声情報記憶手段、および
前記携帯端末から送信された前記要求情報に基づいて、対応する前記音声情報を前記音声情報記憶手段から読み出す音声情報読出手段を含み、
さらに、前記音声情報読出手段によって読み出された前記音声情報に基づいて音声を出力する音声出力手段を備える、ユビキタス学習システム。
An ubiquitous learning system including an information providing device that provides information on a plurality of objects existing in a real space, and a mobile terminal that communicates with the information providing device via radio, and learning using the plurality of objects. And
The plurality of objects are each provided with a plurality of wireless tags that store and hold object identification information for identifying the plurality of objects,
The mobile terminal,
Operation means operated by the user,
Acquiring means for acquiring the object identification information from the wireless tag in response to an operation from the operation means, and wirelessly transmitting request information including the object identification information acquired by the acquiring means to the information providing apparatus. Including a first transmitting means,
The information providing device,
Voice information storage means for storing voice information relating to the object associated with each of the object identification information; and the voice information storage means for storing the corresponding voice information based on the request information transmitted from the portable terminal. Including voice information reading means for reading from
The ubiquitous learning system further includes audio output means for outputting audio based on the audio information read by the audio information reading means.
前記情報提供装置は、前記音声情報読出手段によって読み出した前記音声情報に基づいた返信情報を前記携帯端末へ送信する第2送信手段をさらに含み、
前記携帯端末は、前記情報提供装置から送信された前記返信情報を無線により受信する第1受信手段をさらに含み、
前記音声出力手段は、前記携帯端末に設けられていて、前記第1受信手段によって受信した前記返信情報に含まれる音声情報に基づいて音声を出力する、請求項1記載のユビキタス学習システム。
The information providing apparatus further includes a second transmitting unit that transmits reply information based on the audio information read by the audio information reading unit to the mobile terminal,
The mobile terminal further includes a first receiving unit that wirelessly receives the reply information transmitted from the information providing device,
2. The ubiquitous learning system according to claim 1, wherein the audio output unit is provided in the mobile terminal, and outputs audio based on audio information included in the reply information received by the first receiving unit. 3.
前記情報提供装置は、前記対象物識別情報ごとに関連付けられた前記対象物に関する文字情報を記憶する文字情報記憶手段、および前記携帯端末から送信された前記要求情報に基づいて、対応する前記文字情報を前記文字情報記憶手段から読み出す文字情報読出手段をさらに含み、
さらに、前記文字情報読出手段によって読み出された前記文字情報に基づいて文字を表示する表示手段を備える、請求項1または2記載のユビキタス学習システム。
The information providing device is configured to store character information relating to the object associated with each of the object identification information, and a corresponding character information based on the request information transmitted from the mobile terminal. Further comprising character information reading means for reading from the character information storage means,
3. The ubiquitous learning system according to claim 1, further comprising display means for displaying a character based on the character information read by the character information reading means.
実空間に存在する複数の対象物を用いて学習するためのユビキタス学習システムにおいて、前記複数の対象物に関する情報を提供する情報提供装置と無線を介して通信可能な携帯端末であって、
ユーザによって操作される操作手段、
前記複数の対象物にそれぞれ設けられて前記複数の対象物を識別するための対象物識別情報を記憶保持する複数の無線タグから、前記操作手段からの操作に応じて前記対象物識別情報を取得する取得手段、および
前記取得手段によって取得した前記対象物識別情報含む要求情報を、前記情報提供装置へ無線により送信する第1送信手段を備える、携帯端末。
In a ubiquitous learning system for learning using a plurality of objects existing in a real space, a mobile terminal capable of communicating via radio with an information providing apparatus for providing information on the plurality of objects,
Operation means operated by the user,
Acquiring the object identification information in response to an operation from the operation unit from a plurality of wireless tags provided on each of the plurality of objects and storing and holding the object identification information for identifying the plurality of objects. A mobile terminal comprising: an obtaining unit that performs wireless transmission of request information including the object identification information obtained by the obtaining unit to the information providing apparatus.
実空間に存在する複数の対象物に関する情報を提供する情報提供装置と無線を介して通信し、前記複数の対象物に関する情報を音で出力する携帯型の発話タクトであって、
ユーザによって操作される操作手段、
前記複数の対象物を識別するための対象物識別情報を記憶保持して前記複数の対象物のそれぞれに設けられる複数の無線タグから、前記操作手段からの操作に応じて前記対象物識別情報を取得する取得手段、
前記取得手段によって取得した前記対象物識別情報を含む要求情報を、前記情報提供装置へ無線により送信する第1送信手段、
前記要求情報に応じて前記情報提供装置から送信された音声情報を無線により受信する第1受信手段、および
前記第1受信手段によって受信した前記音声情報に基づいて音声を出力する音声出力手段を備える、発話タクト。
A portable utterance tact that communicates via radio with an information providing device that provides information on a plurality of objects existing in a real space, and outputs information on the plurality of objects by sound,
Operation means operated by the user,
The object identification information for identifying the plurality of objects is stored and retained, and the plurality of wireless tags provided for each of the plurality of objects is used to store the object identification information in accordance with an operation from the operation unit. Acquisition means for acquiring,
First transmission means for wirelessly transmitting request information including the object identification information acquired by the acquisition means to the information providing apparatus,
A first receiving unit that wirelessly receives audio information transmitted from the information providing device in response to the request information; and an audio output unit that outputs audio based on the audio information received by the first receiving unit. , Utterance tact.
前記ユーザを識別するためのユーザ識別情報,前記音声情報の言語に関する言語情報、および前記音声情報のレベルに関するレベル情報の少なくとも1つを含むユーザ情報を記憶する第1記憶手段をさらに備え、
前記第1送信手段によって送信される前記要求情報は、前記ユーザ情報を含む、請求項5記載の発話タクト。
First storage means for storing user information including at least one of user identification information for identifying the user, language information on a language of the audio information, and level information on a level of the audio information,
The utterance tact according to claim 5, wherein the request information transmitted by the first transmission unit includes the user information.
前記取得手段は、前記ユーザ情報を記憶保持する無線タグから前記ユーザ情報を取得し、
前記第1記憶手段には、前記取得手段によって取得した前記ユーザ情報が記憶される、請求項6記載の発話タクト。
The obtaining means obtains the user information from a wireless tag that stores and holds the user information,
The utterance tact according to claim 6, wherein the first storage unit stores the user information acquired by the acquisition unit.
前記取得手段は、前記情報提供装置での処理を指示する制御情報を記憶保持する無線タグから前記制御情報を取得し、
前記第1送信手段は、前記取得手段によって取得した前記制御情報を送信する、請求項5ないし7のいずれかに記載の発話タクト。
The obtaining unit obtains the control information from a wireless tag that stores and holds control information for instructing a process in the information providing device,
The utterance tact according to claim 5, wherein the first transmission unit transmits the control information acquired by the acquisition unit.
前記第1受信手段は前記音声情報とともに文字情報をさらに受信し、
前記第1受信手段によって受信した前記文字情報に基づいて文字を表示する表示手段をさらに備える、請求項5ないし8のいずれかに記載の発話タクト。
The first receiving means further receives character information together with the voice information,
The utterance tact according to any one of claims 5 to 8, further comprising a display unit that displays a character based on the character information received by the first receiving unit.
実空間に存在する複数の対象物を用いて学習するためのユビキタス学習システムにおいて、前記複数の対象物に関する情報を提供する情報提供装置であって、
前記複数の対象物を識別するための対象物識別情報ごとに関連付けられた前記対象物に関する音声情報を記憶する音声情報記憶手段、および
端末から送信された前記対象物識別情報を含む要求情報に基づいて、対応する前記音声情報を前記音声情報記憶手段から読み出す音声情報読出手段を備える、情報提供装置。
In a ubiquitous learning system for learning using a plurality of objects existing in a real space, an information providing apparatus for providing information on the plurality of objects,
Voice information storage means for storing voice information relating to the object associated with each of the plurality of object identification information for identifying the plurality of objects, and request information including the object identification information transmitted from a terminal; And an audio information reading device for reading the corresponding audio information from the audio information storage device.
前記音声情報記憶手段には、複数の言語によって発音される言語ごとの前記音声情報が記憶され、
前記音声情報読出手段は、前記要求情報に基づいて、対応する前記言語による音声情報を前記音声情報記憶手段から読み出す、請求項10記載の情報提供装置。
The voice information storage means stores the voice information for each language pronounced in a plurality of languages,
The information providing apparatus according to claim 10, wherein the voice information reading unit reads the voice information in the corresponding language from the voice information storage unit based on the request information.
前記音声情報記憶手段には、複数のレベルごとの前記音声情報が記憶され、
前記音声情報読出手段は、前記要求情報に基づいて、対応する前記レベルの前記音声情報を前記音声情報記憶手段から読み出す、請求項10または11記載の情報提供装置。
The voice information storage means stores the voice information for each of a plurality of levels,
12. The information providing apparatus according to claim 10, wherein the voice information reading unit reads the voice information of the corresponding level from the voice information storage unit based on the request information. 13.
ユーザを識別するためのユーザ識別情報ごとに関連付けられた言語情報およびレベル情報の少なくとも一方を含むユーザ情報を記憶するユーザ情報記憶手段、および
前記端末から送信された前記要求情報に含まれる前記ユーザ識別情報に基づいて、対応する前記ユーザ情報を前記ユーザ情報記憶手段から読み出すユーザ情報読出手段をさらに含み、
前記音声情報読出手段は、前記ユーザ情報読出手段によって読み出した前記ユーザ情報に対応する前記音声情報を読み出す、請求項10ないし12のいずれかに記載の情報提供装置。
User information storage means for storing user information including at least one of language information and level information associated with each user identification information for identifying a user, and the user identification included in the request information transmitted from the terminal Based on information, further includes a user information reading unit that reads the corresponding user information from the user information storage unit,
13. The information providing apparatus according to claim 10, wherein the voice information reading unit reads the voice information corresponding to the user information read by the user information reading unit.
前記音声情報読出手段によって読み出した前記音声情報の発話速度を、前記対象物の認識履歴状況に応じて調節する速度調節手段をさらに備える、請求項10ないし13のいずれかに記載の情報提供装置。14. The information providing apparatus according to claim 10, further comprising a speed adjusting unit that adjusts an utterance speed of the voice information read by the voice information reading unit according to a recognition history state of the object. 前記音声情報記憶手段には、発話速度の異なる複数の前記音声情報が記憶され、
前記音声情報読出手段は、前記対象物の認識履歴状況に応じて、対応する前記発話速度を有する前記音声情報を前記音声情報記憶手段から読み出す、請求項10ないし13のいずれかに記載の情報提供装置。
The voice information storage means stores a plurality of voice information having different utterance speeds,
14. The information providing device according to claim 10, wherein the voice information reading unit reads the voice information having the corresponding utterance speed from the voice information storage unit according to a recognition history state of the object. apparatus.
前記複数の対象物の認識すべき順序を定めた認識順序情報を記憶する認識順序記憶手段、および
前記端末から送信された前記対象物識別情報および前記認識順序情報に基づいて、その認識の成否を判別する判別手段をさらに備え、
前記音声情報記憶手段に記憶される前記音声情報は、認識すべき前記対象物を指示する設問音声情報を含み、
前記音声情報読出手段は、前記判別手段によって前記認識が正解と判断されたとき、順序を1つ進めたその次に認識すべき対象物を指示する前記設問音声情報を読み出し、前記判別手段によって前記認識が不適と判断されたとき、現在の認識すべき対象物を指示する前記設問音声情報を読み出す、請求項10ないし15のいずれかに記載の情報提供装置。
A recognition order storage unit that stores recognition order information that defines an order in which the plurality of objects are to be recognized; and, based on the object identification information and the recognition order information transmitted from the terminal, determine whether the recognition is successful. Further provided is a determining means for determining,
The voice information stored in the voice information storage means includes question voice information indicating the object to be recognized,
The voice information reading means reads out the question voice information indicating an object to be recognized next after increasing the order by one when the recognition is determined to be correct by the determination means, and The information providing apparatus according to any one of claims 10 to 15, wherein when the recognition is determined to be inappropriate, the question voice information indicating a current object to be recognized is read.
前記音声情報記憶手段には、複数の説明レベルごとの前記設問音声情報が記憶され、
前記判別手段は、さらに、現在の認識すべき対象物に対する回答回数が第1所定数を超えたか否かを判断し、
前記音声情報読出手段は、前記判別手段によって前記回答回数が前記第1所定数を超えたと判断されたとき、それまでよりも分かり易い前記説明レベルの前記設問音声情報を読み出す、請求項16記載の情報提供装置。
In the voice information storage means, the question voice information for each of a plurality of explanation levels is stored,
The determining means further determines whether or not the number of responses to the current object to be recognized exceeds a first predetermined number,
17. The question sound information according to claim 16, wherein the sound information reading means reads the question sound information at the explanation level which is easier to understand than when the judgment means judges that the number of answers has exceeded the first predetermined number. Information providing device.
前記音声情報記憶手段には、複数の言語ごとの前記設問音声情報が記憶され、前記判別手段は、さらに、現在の認識すべき対象物に対する回答回数が第2所定数になった否かを判断し、
前記音声情報読出手段は、前記判別手段によって前記回答回数が前記第2所定数になったと判断されたとき、それまでよりもユーザの理解度の高い前記言語による前記設問音声情報を読み出す、請求項16または17記載の情報提供装置。
The voice information storage means stores the question voice information for each of a plurality of languages, and the determination means further determines whether or not the number of answers to the current object to be recognized has reached a second predetermined number. And
The said audio | voice information reading means reads the said question audio | voice information in the said language whose user's understanding level is higher than before, when it is judged by the said identification means that the said answer frequency became the said 2nd predetermined number. 16. The information providing device according to 16 or 17.
前記対象物識別情報ごとに関連付けられた前記対象物に関する文字情報を記憶する文字情報記憶手段、および
前記端末から送信された前記要求情報に基づいて、対応する前記文字情報を前記文字情報記憶手段から読み出す文字情報読出手段をさらに備える、請求項10ないし18のいずれかに記載の情報提供装置。
From the character information storage unit, based on the request information transmitted from the terminal, based on the character information storage unit that stores character information related to the object associated with each of the object identification information, 19. The information providing apparatus according to claim 10, further comprising a character information reading unit for reading.
実空間に存在する複数の対象物を用いて学習するためのユビキタス学習システムにおいて、前記複数の対象物に関する情報を提供する情報提供装置と無線を介して通信可能な携帯端末に実行させるプログラムであって、
前記携帯端末を、
前記複数の対象物にそれぞれ設けられて前記複数の対象物を識別するための対象物識別情報を記憶保持する複数の無線タグから前記対象物識別情報を取得する取得手段、および
前記取得手段によって取得した前記対象物識別情報含む要求情報を前記情報提供装置へ無線により送信する第1送信手段として機能させる、携帯端末のプログラム。
In a ubiquitous learning system for learning using a plurality of objects existing in a real space, a program to be executed by a portable terminal communicable via radio with an information providing device for providing information on the plurality of objects. hand,
The mobile terminal,
An acquisition unit that acquires the object identification information from a plurality of wireless tags that are provided on the plurality of objects and that store and retain the object identification information for identifying the plurality of objects, and acquired by the acquisition unit; A program for a portable terminal, which functions as a first transmission unit that wirelessly transmits the requested information including the object identification information to the information providing apparatus.
実空間に存在する複数の対象物に関する情報を提供する情報提供装置と無線を介して通信し、前記複数の対象物に関する情報を音で出力する携帯型の発話タクトに実行させるプログラムであって、
前記発話タクトを、
前記複数の対象物を識別するための対象物識別情報を記憶保持して前記複数の対象物のそれぞれに設けられる複数の無線タグから前記対象物識別情報を取得する取得手段、
前記取得手段によって取得した前記対象物識別情報を含む要求情報を前記情報提供装置へ無線により送信する第1送信手段、
前記要求情報に応じて前記情報提供装置から送信された音声情報を無線により受信する第1受信手段、および
前記第1受信手段によって受信した前記音声情報に基づいて音声を出力する音声出力手段として機能させる、発話タクトのプログラム。
A program that communicates via radio with an information providing device that provides information on a plurality of objects existing in a real space, and causes a portable utterance tact to output the information on the plurality of objects by sound,
The utterance tact is
Acquisition means for storing and retaining the object identification information for identifying the plurality of objects and acquiring the object identification information from a plurality of wireless tags provided for each of the plurality of objects,
First transmitting means for wirelessly transmitting request information including the object identification information acquired by the acquiring means to the information providing apparatus,
Functioning as first receiving means for wirelessly receiving audio information transmitted from the information providing apparatus in response to the request information, and audio output means for outputting audio based on the audio information received by the first receiving means Let the utterance tact program.
実空間に存在する複数の対象物を用いて学習するためのユビキタス学習システムにおいて、前記複数の対象物を識別するための対象物識別情報ごとに関連付けられた前記対象物に関する音声情報を記憶する音声情報記憶手段を備えて、前記複数の対象物に関する情報を提供する情報提供装置に実行させるプログラムであって、
前記情報提供装置を、
端末から送信された前記対象物識別情報を含む要求情報に基づいて、対応する前記音声情報を前記音声情報記憶手段から読み出す音声情報読出手段、および前記音声情報読出手段によって読み出された前記音声情報に基づいた情報を、音声出力手段へ提供する提供手段として機能させる、情報提供装置のプログラム。
In a ubiquitous learning system for learning using a plurality of objects existing in a real space, a voice storing sound information on the objects associated with each object identification information for identifying the plurality of objects. A program that includes an information storage unit and is executed by an information providing apparatus that provides information on the plurality of objects,
The information providing device,
Voice information reading means for reading the corresponding voice information from the voice information storage means based on the request information including the object identification information transmitted from the terminal, and the voice information read by the voice information reading means A program for an information providing apparatus, which causes information based on the information to function as providing means for providing the information to an audio output means.
前記提供手段を、前記音声情報読出手段によって読み出した前記音声情報に基づいた返信情報を前記端末へ送信する第2送信手段として機能させる、請求項22記載の情報提供装置のプログラム。23. The program of the information providing apparatus according to claim 22, wherein the providing means causes the providing means to function as a second transmitting means for transmitting reply information based on the voice information read by the voice information reading means to the terminal.
JP2003080959A 2003-03-24 2003-03-24 Ubiquitous learning system, portable terminal, speech tact and information providing device, and program Pending JP2004287229A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003080959A JP2004287229A (en) 2003-03-24 2003-03-24 Ubiquitous learning system, portable terminal, speech tact and information providing device, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003080959A JP2004287229A (en) 2003-03-24 2003-03-24 Ubiquitous learning system, portable terminal, speech tact and information providing device, and program

Publications (1)

Publication Number Publication Date
JP2004287229A true JP2004287229A (en) 2004-10-14

Family

ID=33294669

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003080959A Pending JP2004287229A (en) 2003-03-24 2003-03-24 Ubiquitous learning system, portable terminal, speech tact and information providing device, and program

Country Status (1)

Country Link
JP (1) JP2004287229A (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008185994A (en) * 2007-01-31 2008-08-14 Initus Co Ltd Sound reproduction system
CN101853589A (en) * 2010-05-16 2010-10-06 冯德强 Electronic point-reading pointer
JP4831792B2 (en) * 2009-06-05 2011-12-07 禎一 笠原 Foreign language learning device
KR101158091B1 (en) * 2005-08-24 2012-06-22 주식회사 케이티 RFID tag, study device and System and Method for language education using these
KR101234858B1 (en) 2011-01-10 2013-02-22 한국과학기술원 Interactive teaching machine for learning words
JP2014006633A (en) * 2012-06-22 2014-01-16 Obic Co Ltd Language switching device, language switching method and language switching program
JP2016081548A (en) * 2014-10-16 2016-05-16 ヤマハ株式会社 Terminal device
JP2018160309A (en) * 2018-07-18 2018-10-11 ヤマハ株式会社 Terminal device and program
JP2019187723A (en) * 2018-04-24 2019-10-31 積水ハウス株式会社 Dwelling environment sensory facility

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101158091B1 (en) * 2005-08-24 2012-06-22 주식회사 케이티 RFID tag, study device and System and Method for language education using these
JP2008185994A (en) * 2007-01-31 2008-08-14 Initus Co Ltd Sound reproduction system
JP4831792B2 (en) * 2009-06-05 2011-12-07 禎一 笠原 Foreign language learning device
CN101853589A (en) * 2010-05-16 2010-10-06 冯德强 Electronic point-reading pointer
KR101234858B1 (en) 2011-01-10 2013-02-22 한국과학기술원 Interactive teaching machine for learning words
JP2014006633A (en) * 2012-06-22 2014-01-16 Obic Co Ltd Language switching device, language switching method and language switching program
JP2016081548A (en) * 2014-10-16 2016-05-16 ヤマハ株式会社 Terminal device
JP2019187723A (en) * 2018-04-24 2019-10-31 積水ハウス株式会社 Dwelling environment sensory facility
JP7198411B2 (en) 2018-04-24 2023-01-04 積水ハウス株式会社 Living environment experience facility
JP2018160309A (en) * 2018-07-18 2018-10-11 ヤマハ株式会社 Terminal device and program

Similar Documents

Publication Publication Date Title
US20210104232A1 (en) Electronic device for processing user utterance and method of operating same
JP4037081B2 (en) Information selection apparatus and method, information selection reproduction apparatus, and computer program for information selection
CN111433736A (en) Machine control system, machine control method, and program
US10599469B2 (en) Methods to present the context of virtual assistant conversation
CN107370649A (en) Household electric appliance control method, system, control terminal and storage medium
KR20190021143A (en) Voice data processing method and electronic device supporting the same
EP1450349A1 (en) In-vehicle controller and program for instructing computer to execute operation instruction method
JP3500383B1 (en) GAME DEVICE, GAME DEVICE CONTROL METHOD, AND PROGRAM
CN104488027A (en) Speech processing system and terminal device
JP2000123013A (en) Electronic conversation device, conversation expression collecting method and conversation promoting method
US20040189697A1 (en) Dialog control system and method
JP2004287229A (en) Ubiquitous learning system, portable terminal, speech tact and information providing device, and program
KR101789057B1 (en) Automatic audio book system for blind people and operation method thereof
JP7077375B2 (en) Response system
JP6231205B2 (en) Output message determination device and output message determination device control method
CN111429917A (en) Equipment awakening method and terminal equipment
KR101406983B1 (en) System, server and user terminal for text to speech using text recognition
JP2001022370A (en) Voice guidance device
CN108897508B (en) Voice question searching method based on split screen display and family education equipment
WO2005038683A1 (en) Language education system, language education method and language education program recorded media based on corpus retrieval system, which use the functions of questions and answers
CN111145734A (en) Voice recognition method and electronic equipment
CN101840640B (en) Interactive voice response system and method
US20210249018A1 (en) Method and apparatus for providing voice assistant service
WO2020149031A1 (en) Response processing device and response processing method
CN107767851B (en) Song playing method and mobile terminal

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20050705

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050719

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050920

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20051108