JP2004287229A - Ubiquitous learning system, portable terminal, speech tact and information providing device, and program - Google Patents
Ubiquitous learning system, portable terminal, speech tact and information providing device, and program Download PDFInfo
- Publication number
- JP2004287229A JP2004287229A JP2003080959A JP2003080959A JP2004287229A JP 2004287229 A JP2004287229 A JP 2004287229A JP 2003080959 A JP2003080959 A JP 2003080959A JP 2003080959 A JP2003080959 A JP 2003080959A JP 2004287229 A JP2004287229 A JP 2004287229A
- Authority
- JP
- Japan
- Prior art keywords
- information
- user
- voice
- objects
- audio
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Credit Cards Or The Like (AREA)
- Electrically Operated Instructional Devices (AREA)
Abstract
Description
【0001】
【産業上の利用分野】
この発明はユビキタス学習システム、携帯端末、発話タクトおよび情報提供装置ならびにプログラムに関し、特にたとえば実空間に存在する複数の対象物を用いて学習するためのユビキタス学習システム、携帯端末、発話タクトおよび情報提供装置ならびにプログラムに関する。
【0002】
【従来の技術】
従来の学習システムの一例が特許文献1に開示される。この特許文献1のシステムは、表面にたとえば英単語の文字やその絵等が印刷されたカードないし冊子と、その文字等の内容に対応するたとえば英語の音声が記録されたCDを含む。カード等には、その音声のアドレス情報がバーコードとして設けられている。そして、カードプレイヤのバーコードリーダでそのカードのバーコード情報を読み取ることによって、CDのセットされたCDプレイヤにリモコン信号が送信されてそのカードの文字等の内容に対応する音声が再生される。
【0003】
【特許文献1】
特開平5−6135号公報
【0004】
【発明が解決しようとする課題】
しかし、従来技術では、学習者(ユーザ)は、学習をする際に、わざわざカードないし冊子のような教材を準備して、これに向かっていかねばならず、長期にわたっても効率よい学習が行えるかには疑問が残る。特に語学等の習得には、連続性や長期的な継続性が重要であり、たとえば語学留学などのようにその学習言語空間に常に身を置くことは効果的であると考えられる。
【0005】
さらに、従来技術のような教材を用いる場合には、学習レベルごとの教材を準備したとしても、ユーザのその時々の学習状況に適応することが不可能であり、学習効率が良くない。
【0006】
それゆえに、この発明の主たる目的は、新規な、ユビキタス学習システム、発話タクトおよび情報提供装置ならびにプログラムを提供することである。
【0007】
この発明の他の目的は、ユーザを取り巻く空間をまるまる学習環境とすることができる、ユビキタス学習システム、発話タクトおよび情報提供装置ならびにプログラムを提供することである。
【0008】
この発明の他の目的は、さらに、ユーザの学習状況に応じて効率よく学習できる、ユビキタス学習システム、発話タクトおよび情報提供装置ならびにプログラムを提供することである。
【0009】
【課題を解決するための手段】
第1の発明は、実空間に存在する複数の対象物に関する情報を提供する情報提供装置、および情報提供装置と無線を介して通信する携帯端末を備え、複数の対象物を用いて学習するためのユビキタス学習システムであって、複数の対象物には複数の対象物を識別するための対象物識別情報を記憶保持する複数の無線タグがそれぞれ設けられ、携帯端末は、ユーザによって操作される操作手段、操作手段からの操作に応じて無線タグから対象物識別情報を取得する取得手段、および取得手段によって取得した対象物識別情報を含む要求情報を情報提供装置に無線により送信する第1送信手段を含み、情報提供装置は、対象物識別情報ごとに関連付けられた対象物に関する音声情報を記憶する音声情報記憶手段、および携帯端末から送信された要求情報に基づいて、対応する音声情報を音声情報記憶手段から読み出す音声情報読出手段を含み、さらに、音声情報読出手段によって読み出された音声情報に基づいて音声を出力する音声出力手段を備える、ユビキタス学習システムである。
【0010】
第2の発明は、実空間に存在する複数の対象物を用いて学習するためのユビキタス学習システムにおいて、複数の対象物に関する情報を提供する情報提供装置と無線を介して通信可能な携帯端末であって、ユーザによって操作される操作手段、複数の対象物にそれぞれ設けられて複数の対象物を識別するための対象物識別情報を記憶保持する複数の無線タグから、操作手段からの操作に応じて対象物識別情報を取得する取得手段、および取得手段によって取得した対象物識別情報を含む要求情報を、情報提供装置へ無線により送信する第1送信手段を備える、携帯端末である。
【0011】
第3の発明は、実空間に存在する複数の対象物に関する情報を提供する情報提供装置と無線を介して通信し、複数の対象物に関する情報を音で出力する携帯型の発話タクトであって、ユーザによって操作される操作手段、複数の対象物を識別するための対象物識別情報を記憶保持して複数の対象物のそれぞれに設けられる複数の無線タグから、操作手段からの操作に応じて対象物識別情報を取得する取得手段、取得手段によって取得した対象物識別情報を含む要求情報を、情報提供装置へ無線により送信する第1送信手段、要求情報に応じて情報提供装置から送信された音声情報を無線により受信する第1受信手段、および第1受信手段によって受信した音声情報に基づいて音声を出力する音声出力手段を備える、発話タクトである。
【0012】
第4の発明は、実空間に存在する複数の対象物を用いて学習するためのユビキタス学習システムにおいて、複数の対象物に関する情報を提供する情報提供装置であって、複数の対象物を識別するための対象物識別情報ごとに関連付けられた対象物に関する音声情報を記憶する音声情報記憶手段、および端末から送信された対象物識別情報を含む要求情報に基づいて、対応する音声情報を音声情報記憶手段から読み出す音声情報読出手段を備える、情報提供装置である。
【0013】
第5の発明は、実空間に存在する複数の対象物を用いて学習するためのユビキタス学習システムにおいて、複数の対象物に関する情報を提供する情報提供装置と無線を介して通信可能な携帯端末に実行させるプログラムであって、携帯端末を、複数の対象物にそれぞれ設けられて複数の対象物を識別するための対象物識別情報を記憶保持する複数の無線タグから対象物識別情報を取得する取得手段、および取得手段によって取得した対象物識別情報含む要求情報を情報提供装置へ無線により送信する第1送信手段として機能させる、携帯端末のプログラムである。
【0014】
第6の発明は、実空間に存在する複数の対象物に関する情報を提供する情報提供装置と無線を介して通信し、前記複数の対象物に関する情報を音で出力する携帯型の発話タクトに実行させるプログラムであって、発話タクトを、複数の対象物を識別するための対象物識別情報を記憶保持して複数の対象物のそれぞれに設けられる複数の無線タグから対象物識別情報を取得する取得手段、取得手段によって取得した対象物識別情報を含む要求情報を情報提供装置へ無線により送信する第1送信手段、要求情報に応じて情報提供装置から送信された音声情報を無線により受信する第1受信手段、および第1受信手段によって受信した音声情報に基づいて音声を出力する音声出力手段として機能させる、発話タクトのプログラムである。
【0015】
第7の発明は、実空間に存在する複数の対象物を用いて学習するためのユビキタス学習システムにおいて、複数の対象物を識別するための対象物識別情報ごとに関連付けられた対象物に関する音声情報を記憶する音声情報記憶手段を備えて、複数の対象物に関する情報を提供する情報提供装置に実行させるプログラムであって、情報提供装置を、端末から送信された対象物識別情報を含む要求情報に基づいて、対応する音声情報を音声情報記憶手段から読み出す音声情報読出手段、および音声情報読出手段によって読み出された音声情報に基づいた情報を、音声出力手段へ提供する提供手段として機能させる、情報提供装置のプログラムである。
【0016】
【作用】
ユビキタス学習システムは、複数の対象物に関する情報を提供する情報提供装置、および情報提供装置と無線を介して通信する携帯端末を含む。複数の対象物は実空間に存在しており、対象物識別情報を記憶保持した複数の無線タグがそれぞれ設けられている。ユーザは携帯端末を持ってこの実空間内に入ることで学習をすることができる。学習する際には、ユーザは、たとえば携帯端末を対象物に近づけて指し示すなどして、操作手段を操作する。すると、取得手段は、ユーザによる操作手段の操作に応じて無線タグから対象物識別情報を取得する。第1送信手段は、取得した対象物識別情報を含む要求情報を情報提供装置に無線により送信する。一方、情報提供装置の音声情報記憶手段は、対象物識別情報ごとに関連付けられた対象物に関する音声情報を記憶している。音声情報読出手段は、携帯端末から送信された要求情報に基づいて、対応する音声情報を読み出す。そして、音声情報読出手段によって読み出された音声情報に基づく情報が、提供手段によってユビキタス学習システムの備える音声出力手段に提供され、音声出力手段は、読み出された音声情報に基づいて音声を出力する。したがって、ユーザは、出力された音声を聞くことによって学習することができる。このように、対象物の存在する実空間、すなわち、ユーザを取り巻く空間をまるまる学習環境とすることができる。
【0017】
たとえば、音声出力手段は携帯端末に設けられ得る。この場合、情報提供装置は第2送信手段を備えていて、この提供手段としての第2送信手段は、音声情報読出手段によって読み出した音声情報に基づいた返信情報を携帯端末へ送信する。一方、携帯端末は第1受信手段を備えていて、第1受信手段は、情報提供装置から送信された返信情報を無線により受信する。したがって、音声出力手段は、受信した返信情報に含まれる音声情報に基づいて、音声を出力する。このように、携帯端末が音声出力手段を備えた場合、対象物から識別情報を取得するだけでなく音声も出力するので、このような携帯端末は「発話タクト」という。
【0018】
また、情報提供装置は、文字情報記憶手段および文字情報読出手段をさらに含んでもよい。文字情報記憶手段には、対象物識別情報ごとに関連付けられた対象物に関する文字情報が記憶される。文字情報読出手段は、携帯端末から送信された要求情報に基づいて、対応する文字情報を読み出す。そして、文字情報読出手段によって読み出された文字情報に基づく情報が、提供手段によってユビキタス学習システムの備える表示手段に提供され、表示手段は、読み出された文字情報に基づいて文字を表示する。したがって、ユーザは、音声とともに文字によって学習することができ、効率よく学習を行える。
【0019】
また、発話タクト(または携帯端末)は、ユーザ識別情報,言語情報,およびレベル情報の少なくとも1つを含むユーザ情報を記憶する第1記憶手段を備えてよい。そして、第1送信手段によって送信する要求情報は、ユーザ情報を含んでよい。この場合、情報提供装置では、ユーザ識別情報、言語情報、およびレベルの少なくとも1つに基づいて、対応する音声情報が読み出されることとなる。したがって、ユーザはユーザ情報に対応する音声を聞くことができ、たとえば自らの学習したい言語およびレベルでの学習ができる。
【0020】
また、上述のようなユーザ情報は、ユーザ情報を記憶保持した無線タグから取得手段によって取得して、第1記憶手段に記憶するようにしてよい。この場合には、複数のユーザごとのユーザ用の無線タグを準備すれば、1つの発話タクトを複数のユーザで共用することができ、しかもそれぞれのユーザ情報に対応する音で学習を行える。
【0021】
また、情報提供装置での処理を指示する制御情報を記憶保持する無線タグを準備し、取得手段によって制御情報を取得するようにしてもよい。第1送信手段は、取得手段によって取得した制御情報を情報提供装置へ送信する。この場合には、情報提供装置側で行わせたい処理を指示することができる。
【0022】
また、発話タクトには表示手段が設けられてもよい。この場合、第1受信手段は、音声情報とともに文字情報を受信する。そして、表示手段は、受信した文字情報に基づいて文字を表示する。したがって、ユーザは、発話タクトによって音声および文字を用いた学習することができ、効率よく学習を行える。
【0023】
また、情報提供装置の音声情報記憶手段には、複数の言語によって発音される言語ごとの音声情報が記憶されてもよい。この場合、音声情報読出手段は、携帯端末(発話タクト)からの要求情報に基づいて、対応する言語による音声情報を読み出す。したがって、多言語の学習空間を構築することができ、ユーザは複数の言語の学習を行うことができる。
【0024】
また、情報提供装置の音声情報記憶手段には、複数のレベルごとの音声情報が記憶されてもよい。この場合、音声情報読出手段は、発話タクトからの要求情報に基づいて、対応するレベルの音声情報を読み出す。したがって、ユーザは複数のレベルごとの学習を、たとえば自らのレベルに合わせて行うことができる。
【0025】
また、情報提供装置はユーザ情報記憶手段およびユーザ情報読出手段をさらに含んでよい。ユーザ情報記憶手段は、ユーザ識別情報ごとに関連付けられた言語情報およびレベル情報の少なくとも一方を含むユーザ情報を記憶する。ユーザ情報読出手段は、要求情報に含まれるユーザ識別情報に基づいて、対応するユーザ情報を読み出す。そして、音声情報読出手段は、ユーザ情報に対応する音声情報を読み出す。したがって、ユーザは、自らの所望する学習言語またはレベル、学習言語およびレベルによる学習を行える。また、複数のユーザ間で異なる学習言語およびレベルに対応することができ、たとえば同時同空間に対して多言語の学習環境を構築できる。
【0026】
また、情報提供装置は、音声情報の発話速度を、対象物の認識履歴状況に応じて調節する速度調節手段を含んでよい。この場合には、ユーザの学習状況に適応した発話速度を有する音声情報を提供することができ、学習効率を向上することができる。あるいは、音声情報記憶手段に、発話速度の異なる複数の音声情報を記憶しておき、音声情報読出手段によって、対象物の認識履歴状況に応じて、対応する発話速度の音声情報を読み出すようにしてもよい。この場合にも、同様に、ユーザの学習状況に応じた効率のよい学習ができる。
【0027】
また、情報提供装置は、複数の対象物の認識すべき順序を定めた認識順序情報を記憶する認識順序記憶手段を含んでよい。この場合、音声情報記憶手段には、認識すべき対象物を指示する設問音声情報が記憶されている。判別手段は、端末から送信された対象物識別情報および認識順序情報に基づいて、その認識の成否を判別する。そして、音声情報読出手段は、判別手段によって認識が正解と判断されたとき、順序を1つ進めたその次に認識すべき対象物を指示する設問音声情報を読み出す。一方、判別手段によって認識が不適と判断されたときは、音声情報読出手段は、現在の認識すべき対象物を指示する設問音声情報を読み出す。この場合には、ユーザに対して、オリエンテーリングのように進路指示をするので、ゲーム感覚で学習を進めることができるし、また、ユーザが能動的に学習環境と向き合うようにすることができる。
【0028】
さらに、音声情報記憶手段には、複数の説明レベルごとの設問音声情報が記憶されてもよい。この場合、判別手段は、さらに、現在の認識すべき対象物に対する回答回数が第1所定数を超えたか否かを判断する。そして、音声情報読出手段は、判別手段によって回答回数が第1所定数を超えたと判断されたとき、それまでよりも分かり易い説明レベルの設問音声情報を読み出す。したがって、ユーザの学習状況に適した説明レベルを有する設問音声情報を提供することができるので、ユーザは効率よく学習を進めることができる。
【0029】
さらにまた、音声情報記憶手段には、複数の言語ごとの設問音声情報が記憶されてもよい。この場合には、判別手段は、さらに、現在の認識すべき対象物に対する回答回数が第2所定数になったか否かを判断する。そして、音声情報読出手段は、判別手段によって回答回数が第2所定数になったと判断されたとき、それまでよりもユーザの理解度の高い言語による設問音声情報を読み出す。したがって、ユーザの学習状況に適した言語による設問音声情報を提供することができるので、ユーザは効率よく学習を進めることができる。
【0030】
【発明の効果】
この発明によれば、ユーザを取り巻く空間をまるまる学習環境とすることができる。ユーザは、従来のように教材に向かうのではなく、その学習空間に身をおくことで、その環境の方が学習しようとするユーザに向かってくるようになり、したがって、学習効率の向上が期待できる。また、ユーザのその時々の学習状況に適応した音声情報を提供できるので、ユーザは効率よく学習を行うことができる。
【0031】
この発明の上述の目的,その他の目的,特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。
【0032】
【実施例】
図1を参照して、この実施例のユビキタス学習システム10は、実空間12に存在する複数の対象物14a,14b,…を用いて学習をするためのものである。このユビキタス学習システム10は、複数の対象物14a,14b,…にそれぞれ設けられる複数の無線タグ16a,16b,…、対象物14a,14b,…に関する情報を提供する情報提供装置としてのサーバ18、およびユーザ20によって操作される携帯端末としての発話タクト22を含む。発話タクト22は無線通信可能なものであり、基地局24,図示しないPHS網または携帯電話網,およびインタネット26等を介して、サーバ18と接続される。
【0033】
なお、複数の対象物14a,14b,…をまとめて参照符号「14」で表記し、複数の無線タグ16a,16b,…をまとめて参照符号「16」で表記することもある。また、対象物14に設けられる無線タグ16を対象物用無線タグ16ともいうものとする。
【0034】
サーバ18はコンピュータであり、図示は省略するが、その制御を担当するCPUを含み、CPUにはROM,RAM,HDD,通信装置等が接続される。ROMまたはHDD等には、このユビキタス学習の処理のためのプログラムおよびデータが、コンピュータ読取可能な記録媒体等から読み出されてインストールされている。さらに、サーバ18には、図1に示すように、ユーザ情報データベース(DB)70,対象物音声情報(第1言語)DB72,対象物音声情報(他言語)DB74およびナビゲートモード用音声情報DB76が接続される。この実施例では、複数の言語を学習可能にしており、複数の言語による音声情報が登録されている。各DBは、サーバ18に内蔵されてもよいし、あるいはサーバ本体の外部に別に設けられてもよい。また、場合によってはサーバ18は複数のコンピュータに分散して構成されてもよい。
【0035】
図2には、実空間12の一例としての部屋が示される。学習の行われる実空間12は、任意であるが、たとえば家庭,学校等が想定される。複数の対象物14はそこに設置されて存在するあらゆるものが該当し得る。この部屋12には、たとえば、壁28,壁紙30,扉32,三輪車34,ハンドル36,サドル38,時計40,キャビネット42、引き出し44,コーラン46,バイブル48,および『□□□』という題の本50などが存在している。これらには図示しないそれぞれの無線タグ16がたとえば内蔵または貼付等の適宜な方法で設けられている。したがって、部屋12に存在するこれらのものは学習の対象物14となる。このようにして、ユーザ20を取り巻く空間12をまるまる学習環境とすることができる。部屋12が、たとえばユーザ20の家庭の部屋あれば、ユーザ20の生活空間そのものがこのユビキタス学習システム10における学習空間となる。
【0036】
無線タグ16は、たとえばRFIDであり、識別情報用のメモリや通信用の制御回路等を備えるICチップ等を含む。対象物用無線タグ16には、それが設けられる対象物14を識別するための対象物識別情報が記憶保持されている。無線タグ16では、たとえば一定時間電波等を受けて電力を発生させることでICが動作し、識別情報を送るための電波等が出力される。無線タグ16は、その通信距離によって、密着型(通信距離:2mm以内)、近接型(10cm以内)、近傍型(70cm以内)などに分類され(ISO規格)、この実施例では、近接型または近傍型を適用するのが望ましい。この無線タグ16に記憶された情報の読取は、発話タクト22によってなされる。
【0037】
発話タクト22は携帯端末であり、すなわち、ユーザ20によって携帯可能なサイズや重さ等で形成されている。その形状は任意であるが、たとえば学習時に対象物14を指し示す指揮棒のような棒状等に形成される。発話タクト22にはたとえばバッテリまたはACアダプタ等を介して家庭用電源等から電源が与えられる。
【0038】
図3には、この発話タクト22の内部構成が示される。発話タクト22は、この発話タクト22の全体的な制御を担当するCPU52を含む。CPU52には、ROM54,RAM56,操作ボタン58,無線タグデータ読取装置60,無線通信装置62およびスピーカ64等が接続される。
【0039】
ROM54は、発話タクト22の動作のためのプログラムおよびデータ等を記憶する。RAM56は作業領域およびバッファ領域等として用いられる。操作ボタン58はユーザ20の操作入力手段であり、CPU52に操作入力信号を与える。たとえばこの実施例では1つの操作ボタン58が設けられ、ユーザ20は指一本で簡単に操作できる。無線タグデータ読取装置60は、無線タグ16から情報を読み取るための取得手段であり、CPU52の指示に従って、たとえばアンテナ等から一定時間電波等を送り、無線タグ16の返送する電波等を一定時間受信する。無線通信装置62はサーバ18と無線を介して情報を送受信するためのものであり、CPU52の指示に従って、読み取った情報等をサーバ18宛に送信し、サーバ18から音声データを含む返信データを受信する。スピーカ64には、CPU52からたとえばD/Aコンバータやアンプ等を介して音声信号が与えられて音声を出力する。なお、出力端子を設けてイヤホン等で聞けるようにしてもよい。
【0040】
図4にはRAM56のメモリマップの一例が示される。RAM56は、プログラム記憶領域66およびデータ記憶領域68を含む。プログラム記憶領域66には、ROM54から、この発話タクト22の動作のためのプログラムがロードされ、CPU56はプログラムに従って処理を実行する。このプログラムは、たとえば無線タグデータ読取制御プログラム,通信制御プログラム,音声再生プログラム等を含む。
【0041】
データ記憶領域68には、ROM54から動作に必要なデータ、無線タグ16から取得した読取データ、およびサーバ18から受信した音声データ等が書き込まれ、たとえばサーバアドレスやユーザ情報その他データを含む。ユーザ情報は、ユーザ識別情報としてのユーザコードを含み、その他たとえば、ユーザ名,言語およびレベル等を含んでよい。ユーザ情報は、後述のように、ユーザID用等の無線タグから取得されてもよいし、予めROM54に格納されていてもよい。
【0042】
図5には、サーバ18のRAMのメモリマップの一例が示される。サーバ18のRAMは、プログラム記憶領域78およびデータ記憶領域80を含む。プログラム記憶領域78には、ROMまたはHDD等から、サーバの動作のためのプログラムがロードされ、サーバのCPUはこのプログラムに従って処理を実行する。プログラムは、発話タクト22との通信を制御するための通信制御プログラム,基本応答モードプログラム,速度調節モードプログラム,ナビゲートモードプログラムおよびその他プログラム等を含む。このように、ユビキタス学習システム10は、基本応答モード,速度調節モードおよびナビゲートモード等の複数の学習モードを備えているが、各モードの詳細は後述する。データ記憶領域80には、プログラムの動作に必要なデータがROM,HDDおよび各データベース等から必要に応じて書き込まれ、また受信データ等も書き込まれる。
【0043】
図6には、ユーザ情報DB70に登録されるユーザ情報の一例を示す。ユーザ情報は、識別情報としてのユーザコードに関連付けられて、たとえば、ユーザ名,第1学習言語およびそのレベル,第2学習言語およびそのレベル,ユーザの母国語および現状モード等に関する情報が格納されている。ユーザ情報は予め登録されるが、たとえばユーザ20が携帯端末22から変更することも可能にされる。なお、この図6の例のように、一人のユーザに複数の学習言語を登録する場合には、基本的には第1学習言語およびそのレベルでの学習が行われるが、学習前等に第1学習言語等は変更可能にされる。
【0044】
図7には、対象物音声情報(第1言語)DB72に登録されるデータの一例が示される。対象物音声情報DB72には、対象物識別情報としての対象物コードごとに関連付けられて、たとえば、その対象物の名称(スペリング)の文字(テキスト)データ,その言語の種類(この実施例では、第1言語は英語である),および学習レベルごとの音声データ(この実施例ではLv0〜Lv2の3つのレベル)等が格納されている。具体的には、レベル0の音声データは、その対象物の単語を発音する発音の音声データであり、レベル1の音声データは、発音およびその対象物を説明する説明(その意味など)の音声データであり、レベル2の音声データは、発音およびその対象物を詳細に説明する詳細説明の音声データである。つまり、Lv0の場合は、単語帳的な機能を果たし、Lv1の場合は、辞書的な機能を果たし、Lv2の場合は、事典的な機能を果たす。また、この音声データは標準の発話速度を有するものである。なお、音声データは通信速度および回線負担等の観点から適宜な方式の圧縮ファイルであることが望ましい。
【0045】
また、図8には、対象物音声情報(他言語)DB74に登録されるデータの一例が示される。このDB74にも、同様に、対象物コードごとに関連付けられて、その対象物名のテキストデータ,その言語種類,および学習レベルLv0〜Lv2ごとの音声データが格納されている。言語の種類としては、たとえば日本語,韓国語,中国語,フランス語その他様々な言語が格納され得る。
【0046】
なお、この実施例では、第1言語と他言語とでデータベースを分けているが、データベースの設け方は任意であり、これらは1つのデータベースとして形成されてもよいし、あるいは、言語ごとにデータベースを形成するようにしてもよいのはもちろんである。
【0047】
このユビキタス学習システム10において、発話タクト22からサーバ18に送信されるデータには、ユーザ20を特定するために、ユーザ識別情報が含まれる。ユーザ識別情報は、上述のように、予め発話タクト22のROM54に格納されていてよく、この場合の発話タクト22は基本的にはユーザ20の専用端末といえる。
【0048】
また、ユーザ識別情報は、たとえば図9(A)に示すようなユーザIDシート82から取得されてもよい。ユーザIDシート82は、ユーザ識別情報を記憶保持したユーザ用の無線タグ84を含む。このシート82の材料および形状等は任意であるが、たとえば紙やプラスチック等によって、カード状等に形成され、無線タグ84が内蔵あるいは貼付等によって設けられる。このユーザ用無線タグ84には、ユーザコードとともに、たとえばユーザ名,学習言語およびレベル等が記憶され、その内容であるユーザ名,学習言語およびレベルは、シート82上に文字表示されている。
【0049】
また、ユーザIDシート82は、図9(B)に示すように、複数の学習言語およびレベルに関する情報を備えるものであってもよい。つまり、このユーザA用のユーザIDシート82は、3つのユーザ用の無線タグ84a,84bおよび84cを含み、これら無線タグ84a,84b,および84cには、ユーザコードとともに、学習言語が英語で、かつ、レベルがLv0,Lv1およびLv2であるユーザ情報がそれぞれ記憶されている。このようなシート82を用いた場合には、ユーザAは、学習したい言語およびレベルを複数から選択することが可能になる。このように、ユーザ情報をユーザIDシート82から取得するようにした場合には、1つの発話タクト22を複数のユーザで共用することも可能である。つまり、たとえば図9(C)に示すように、ユーザB用のユーザIDシート82を所有するユーザBは、たとえば他のユーザAの発話タクト22を用いて、自らの学習言語およびレベル(図例では韓国語のLv1または仏語のLv1)で学習できる。
【0050】
また、図10に示すような汎用学習言語設定用の制御IDシート86を使用することによって、どのユーザ20であっても、ユーザ情報DB70に登録されている学習言語およびレベルを変更することができるようにしてもよい。この制御IDシート86は制御用の無線タグ88を含み、この制御用の無線タグ88には、ユーザ情報DB70に登録されている学習言語およびレベルの情報の変更設定を指示する制御コードとともに、その変更内容(図例では中国語Lv2)等が記憶されている。さらに、このような制御IDシート86としては、ユーザ情報の設定変更だけでなく、後述のように、サーバ18側への各種の設定処理の指示が可能なものが準備される。
【0051】
対象物用無線タグ16,ユーザ用無線タグ84および制御用無線タグ88は、同じ製品が用いられてよいが、それぞれを区別可能なデータ属性情報を保持している。図11には、各無線タグのデータ構造の一例が示される。
【0052】
図11(A)に示すように、ユーザ用無線タグ84に記憶されるユーザIDデータは、たとえば、2バイトのデータ属性領域、8バイトのユーザコード領域、16バイトのユーザ名領域、さらに2バイトごとのデータ領域を含み、データ領域は必要に応じて拡張される。このデータ例“001 02516 ○○○ JPNLv3 ENGLv2 CHNLv0 …”では、「001」がデータ属性であり、この情報がユーザIDデータであることを示す。ユーザ一人一人に割り当てられる識別情報であるユーザコードおよびその名前に続いて、データ領域には、ユーザの語学レベルに関する情報が記憶され、「JPNLv3」は日本語がレベル3(母国語)であることを示し、以下、英語がレベル2であり、中国語がレベル0であり、これらは順に第1学習言語および第2学習言語の情報を示す。
【0053】
また、図11(B)に示すように、対象物用無線タグ16に記憶される対象物IDデータは、たとえば、2バイトのデータ属性領域、8バイトの対象物コード領域、16バイトの対象物名領域、さらに2バイトごとのデータ領域を含み、データ領域は必要に応じて拡張される。このデータ例“002 13076 □□□ 3900 Book Entity JPNLv1 …”では、「002」がデータ属性であり、この情報が対象物IDデータであることを示す。対象物14それぞれに割り当てられる識別情報である対象物コードおよびその名称に続いて、データ領域には、その対象物14の詳細情報が記憶され、たとえば価格、物の分類、実在物であるか他のものか、初期設定音声等の情報を含む。ここで、実在物の他のものとしてはたとえば感情などを設定することによって、“Love”や“Hate”等の感情を示す語を学習させることが可能になる。この場合、無線タグ16は、その感情を表すような対象物14に設けられてもよいし、あるいは、感情カードないしシート等に設けるようにしてもよい。また、初期設定音声は、その対象物14のデフォルトの音声データを示すもので、「JPNLv1」は日本語のレベル1の音声データを示し、たとえば学習言語に関する情報が未設定等の場合にこの初期設定音声に従った音声データがサーバ18で読み出される。
【0054】
さらに、図11(C)に示すように、制御用無線タグ88に記憶される制御IDデータは、たとえば2バイトのデータ属性領域、8バイトの制御コード領域および16バイトの制御名領域、さらに必要に応じて拡張されるデータ領域を含む。このデータ例“003 010200 ナビゲートON …”では、「003」がデータ属性であり、この情報がサーバ18側への設定処理指示に関する制御IDデータであることを示す。制御コードは、たとえば、図12に示すようにして設定される。つまり、8バイトのうち最初の2バイトは、制御操作対象の指定であり、たとえば、「01」はモード、「02」はユーザ情報、「03」は音声ファイル等を意味する。次の2バイトは、操作対象のうちの詳細な指定であり、たとえば、モードの場合、「00」は基本応答、「01」は速度調節、「02」はナビゲート等を意味する。続く2バイトは、設定情報であり、たとえば速度調節モードの場合、「00」がスタート、「01」がリフレッシュ、「02」が高速等を意味する。最後の2バイトでは、拡張データ領域に関する指定を行う。このような制御コードによって、サーバ18側へ様々な設定処理の指示が可能になる。
【0055】
このユビキタス学習システム10においては、たとえば、基本応答モード,速度調節モードおよびナビゲートモード等で学習をすることができる。いずれのモードにおいても、ユーザ20は、対象物14の対象物用無線タグ16から所定の通信可能な距離範囲内で無線タグデータ読取装置60をその無線タグ16へ向けて操作ボタン58を押し下げればよい。これによって、その対象物用無線タグ16の対象物IDデータを読み取ることができる。読み取った対象物識別情報はユーザ情報とともに要求情報として、無線通信装置62によってサーバ18宛に送信される。サーバ18では、そのユーザの現状モードのアプリケーションが起動され、受信した対象物識別情報(対象物コード)に基づいて、対応する音声データがデータベースから読み出される。なお、デフォルトは基本応答モードに設定される。そして、音声データは発話タクト22宛に送信される。音声データを受信した発話タクト22では、スピーカ64から音声として出力される。
【0056】
基本応答モードでは、取得した対象物コードならびにユーザ20の学習言語およびレベルに基づいて、対応する音声データが対象物音声情報DB72または74から読み出されて送信される。したがって、ユーザ20は、対象物音声情報DB72または74に登録されている音声を聞くことができる。たとえば、ユーザ20の学習言語およびレベルが英語のLv0であった場合において、図13に示すように、発話タクト22で時計40を指し示してその操作ボタン58を押し下げたときには、スピーカ64から“clock”という発音が出力される。このように、ユーザ20は、空間12内で学習の対象物14を実際に指し示すような身体動作をともなって学習をする。したがって、身体性および空間性を伴うことによって、従来のようなただ教材に向かうのみであった学習とは異なり、学習効率が向上することが期待できる。
【0057】
速度調節モードでは、ユーザ20の学習状況に合わせて発話速度を変化させた音声が出力される。発話速度は、ユーザ20の対象物14に対するアクセス履歴(認識履歴)の状況に基づいて、ユーザの速度適応レベルへ合わせていく。この速度調節モードでは、図14(A)に示すように、速度調節モード用のコントロールシート(制御IDシート)86が使用される。このシート86には、速度調節モードのスタート,リフレッシュおよび終了を指示する制御IDデータがそれぞれ記憶された3つの制御用の無線タグ88が設けられている。また、図14(B)に示すような速度調節モード用の速度固定コントロールシート86等も使用され得る。このシート86には、早い発話速度への固定,ノーマルな発話速度への固定および遅い発話速度への固定を指示する制御IDデータがそれぞれ記憶された3つの制御用の無線タグ88が設けられている。
【0058】
図14(A)のスタートに対応する無線タグ88を読み取ることによって、この速度調節モードを起動することができる。速度調節モードが起動されると、たとえば図15に示すような速度調節モード用のデータ記憶領域がサーバ18のRAMに生成される。このデータ領域には、たとえば、ユーザID(ユーザコード),適応係数,速度固定,今回認識した対象物ID(対象物コード),対象物14の認識履歴データとして1回前から9回前までに認識した対象物コード,試行回数,累計試行回数等が格納される。
【0059】
適応係数は発話速度を決定するためのものであり、図16に示すように、この実施例では、過去10回の履歴において認識された対象の種類Nに基づいて決定される。たとえば、N=1のとき、すなわち、1種類のものが10回聞かれたときに、ノーマル(100%)に対して50%(半分)の速度になり、N=10のとき、すなわち、10種類が1回ずつ聞かれたときに、ノーマルに対して200%(2倍)の速度になるように設定される。適応係数は、具体的には、図16に示すように、50%×1.16652(N−1)によって算出される。スタート時には100%程度となるように、たとえば1回前から9回前の認識履歴には、初期値として5種類のコードを設定しておく。なお、この履歴として参照する回数,最速の係数および最遅の係数等の設定値は適宜に変更され得る。
【0060】
この適応係数に基づいて、今回認識した対象物IDの音声データの発話速度が変更される。なお、他の実施例では、対象種類数N(適応係数)ごとの発話速度に設定された音声データを予めデータベースに記憶しておいてもよい。また、種類数Nごとに速度を分けずに、たとえば1−4,5−6,7−10等のように幾つかの範囲に区切って、低速,標準,高速等に分けるようにしてもよい。
【0061】
このように、過去の所定回数の履歴において、ユーザがアクセスした対象の種類に基づいて、適応係数を算出して発話速度を設定することによって、ユーザ20の語学レベルに適した速度に収束させることができる。たとえば、ユーザ20が成長するにつれて、違う対象を選択し続けて種類数Nが増加していくと思われ、したがって発話速度を早めていくことができる。しかし、分からないまたは聞き取りにくい対象が出てきた場合には、同じものを何度か選択して種類数Nが減少していくと思われ、したがって、適切に発話速度を遅くすることができる。図17には、この速度調節モードによって実現される各レベルのユーザ学習曲線(速度と試行回数との関係)の一例が示される。図17(A)は、優秀者の場合であり、開始後すぐに高速に達し、たまに分からないものがあれば速度が下がるが、全体(太線)としては高速に維持される。図17(B)は、標準的な者の場合であり、標準の速度は維持しつつ、分かる場合は速度は上がり、分からない場合は速度が下がるということが繰り返される(細線)が、全体(太線)としては徐々に高速へ近づいていく。また、図17(C)は、不慣れな者の場合であり、初めは低速になるが、学習が進むと、速度の上下を繰り返しつつも、全体(太線)としては徐々に速度が上がっていく。このように、速度調節モードでは、ユーザ20の学習状況(認識履歴の状況)に応じて発話速度が変化された音声データが提供されるので、ユーザは効率よく学習を行うことができる。
【0062】
ナビゲートモードは、認識すべき対象物14の順序が予め決定されていて、ユーザ20には次に認識すべき対象物14を指示する情報が提供される。したがって、オリエンテーリングのように、進路を指示していくので、ユーザはゲーム感覚で学習を進めることができ、また、ユーザ20が能動的に学習環境と向き合うようにすることができる。
【0063】
たとえば、図18には、ナビゲートモードの進路の様子の一例が示される。チェックポイントCP1から6の順に、ナビゲートモードの開始,扉32,時計40,キャビネット42,サドル38,ハンドル36が設定されている。各CPで出力される次のCPへの進路指示(設問)に正解することによって、さらに次のCPに進むための設問音声を聞くことができる。間違えた場合には、たとえば、間違いのアナウンスとともに、同じ設問が繰り返される。そして、第1所定回数(この実施例では3回)間違えたときには、レベルが変更されて分かり易いヒントになる音声データが提供される。それでも正解できずに、さらに、第2所定回数(この実施例では10回)間違えたときには、たとえば、ユーザ20がより理解し易いように、現在の学習言語よりも高い学習レベルに設定されている言語、すなわち、ユーザ理解度の高い言語(この実施例では母国語)による音声が出力される。さらに間違いのときは、たとえば強制的に次のCPへ進めるようにする。
【0064】
さらに詳しくは、ナビゲートモードが開始されたとき、CP1では、ユーザ20の学習言語(たとえば英語)で、たとえば、「ナビゲートモードを開始します。まず扉を見つけて下さい。」というCP2への進路を指示する設問音声が出力される。これに対して、ユーザ20が扉に行きその対象物用無線タグ16を認識させた場合には、英語で「そうです、これは扉です。部屋に入るときに開けるものですね。次に、時間を刻む器械を見つけて下さい。」というCP3へナビゲートする音声が出力される。これに対して、ユーザ20が本を認識した場合には、英語で「違います、それは本です。時間を刻む器械を見つけて下さい。」という音声が出力される。その後、このCP3への設問で3回(第1所定回数)間違えたとき、たとえば「違います、それはサドルです。」「キャビネットの上にある時計が時間を刻んでいます。」という音声が出力される。これはヒントになる音声データであり、さらに、ゆっくり発音されるように発話速度も遅くされる。これに正解した場合には、次のCP4への設問の音声が、元の速度で出力される。一方、不正解が10回(第2所定回数)続いた場合には、たとえば、言語が変えられて、ユーザ20の母国語である日本語で「違います、それはサドルです。時間を刻む器械を見つけて下さい。」という音声が出力される。このように、ナビゲートモードでは、ユーザ20の学習状況に応じて、発話速度および内容に基づく説明レベル、または言語等が変化された音声情報が提供されるので、ユーザ20は効率よく学習を進めることができる。
【0065】
なお、このようなナビゲートモードでの学習は、たとえば学校などの施設全体にわたって複数対象物14に無線タグ16を設けて大規模に実施するようにしてもよい。
【0066】
ナビゲートモードでは、図19(A)に示すように、ナビゲートモード用のコントロールシート(制御IDシート)86が使用される。このシート86には、ナビゲートモードのスタート,リスタートおよび終了を指示する制御IDデータがそれぞれ記憶された3つの制御用の無線タグ88が設けられている。また、図19(B)に示すようなナビゲートモード用の学習言語変更コントロールシート86等も使用され得る。このシート86には、英語,日本語および韓国語を指示する制御IDデータがそれぞれ記憶された3つの制御用の無線タグ88が設けられている。
【0067】
図19(A)のスタートに対応する無線タグ88を読み取ることによって、このナビゲートモードを起動することができる。ナビゲートモードが起動されると、たとえば図20に示すようなナビゲートモード用のデータ記憶領域がサーバ18のRAMに生成される。このデータ領域には、たとえば、ユーザID(ユーザコード),ユーザ学習言語,ユーザ母国語,現在いるチェックポイントCP,現在の回答レベルCAL,今回の認識の結果R,チェックポイントごとの回答回数および認識すべき識別情報等が格納される。開始時に相当するCP1の認識すべき情報はスタートの制御コードが設定され、CP2以降はそれぞれの対象物コードが設定され、この実施例では、順に扉32,時計40,キャビネット42,サドル38,ハンドル36の対象物コードが設定されている。このように、認識すべき対象物14の順序が定められた認識順序情報が記憶されている。なお、初期設定としては、現在いるCPは1、現在の回答レベルCALは2(レベル変更)以外の値、今回の認識の結果Rは開始時、各CPの回答回数は0が設定される。
【0068】
また、図21および図22には、ナビゲートモード用音声情報DB76に登録される定型音声データおよび設問音声データの一例が示される。このデータは、各チェックポイントCPにおける各認識の結果Rに関連付けられた、複数の学習言語(英語,日本語等)による定型音声データおよび設問音声データを含む。具体的には、R=開始時には、ナビゲートモードスタート時に出力される音声データが登録される。R=0は不正解時の音声データであり、R=1は正解時の音声データである。R=2は、3回間違えた場合に出力されるレベル変更された音声データであり、R=3は、10回間違えた場合に言語を変更して出力される音声データである。R=4は、R=3の音声に対してさらに間違えた場合に、次のCPへ移る前に出力される音声データである。開始時以外の定型音声は、正解または不正解のアナウンスのためのものであり、図21中の「_(下線)」部分には、そのときに認識した対象物14の名称が対象物音声情報DB72または74から読み出されて合成される。設問音声は、認識すべき対象物14を指示するためのものである。定型音声と設問音声とは合成されて、合成された音声データが発話タクト22へ送信されることとなる。
【0069】
図23には、発話タクト22の動作の一例が示される。発話タクト22では、電源が投入されると、ROM54からRAM56へプログラムおよびデータがロードされて起動され、ユーザ20からの操作を待機する状態になる。つまり、発話タクト22のCPU52は、まず、ステップS1で、操作ボタン58が押し下げられたかどうかを判断する。操作入力信号を受けた場合には、続くステップS3で、無線タグデータ読取装置60へ起動指示を与えて作動させ、読取装置60が無線タグから読み取ったID情報を取得する。続くステップS5からS9で、このID情報のデータ属性を判別する。
【0070】
ステップS5では、ユーザIDであるか否かを判断し、“YES”であれば、つまり、データ属性が「001」の場合には、続くステップS11で、取得したユーザ情報をメモリ(RAM)56の所定のデータ領域66に書き込む。このステップS5の処理は、図9のようなユーザIDシート82を使用する場合に必要な処理であり、ROM54にユーザ情報が予め記憶されている場合には不要である。ユーザIDシート82を使用する場合、他の無線タグからの読取を行う前にこのユーザ用の無線タグ84の読取を行う必要がある。ステップS11の処理を終了すると、ステップS1へ戻る。
【0071】
ステップS5で“NO”であれば、ステップS7で、対象物IDであるか否かを判断する。“YES”であれば、つまり、データ属性が「002」の場合には、ステップS13で、取得した対象物情報およびRAM56のユーザ情報に基づいて、要求情報としての送信データを生成する。この送信データには、ユーザコードおよび対象物コード等が含まれる。
【0072】
そして、ステップS15で、送信データの返信待ちキュー管理を処理し、ステップS17で、無線通信装置62によってサーバ18宛に送信データを送信させる。なお、キュー処理によって、単位時間(たとえば2秒)以内の操作ボタン58の二度押しなどを排除することができる。また、単位時間以上の複数入力であれば、複数回のデータが溜まっていたとしても入力順に送信することができる。ステップS17の処理を終了すると、ステップS1へ戻る。
【0073】
また、ステップS7で“NO”であれば、ステップS9で、制御IDであるか否かを判断する。“YES”であれば、つまり、データ属性が「003」である場合には、ステップS19で、取得した制御情報およびRAM56のユーザ情報に基づいて送信データを生成する。この送信データには、ユーザコードおよび制御コード等が含まれる。なお、制御コマンドがユーザ情報の変更設定の場合には、このステップS19の前に、RAM56のデータ領域68のユーザ情報を書き換えるようにしてもよい。そして、ステップS21で、無線通信装置62によってサーバ18宛に送信データを送信させる。このステップS21の処理を終了するとステップS1へ戻る。
【0074】
一方、ステップS1で“NO”であれば、続くステップS23で、サーバ18からデータを受信したか否かを判断する。送信データが対象物情報を含んでいた場合には、それに対応する音声データがサーバ18から送信されてくる。また、送信データが制御情報を含んでいた場合において、ナビゲートモードのスタートコードであったときにも、対応する開始時の音声データが送信されてくる。このステップS23で“YES”であれば、ステップS25で、受信データの返信待ちキュー管理を処理し、ステップS27で、受信した音声データを再生処理してスピーカ64に与えて、音として出力する。なお、キュー処理によって、複数のデータが溜まっていたとしても順に出力することができる。ステップS27の処理を終了すると、ステップS1へ戻る。
【0075】
図24から図30には、サーバ18の動作の一例が示される。図24は、メインフローを示し、サーバ18では、たとえば電源投入によってROMおよびHDD等からプログラムおよびデータがRAMにロードされて、処理が開始され、発話タクト22からの送信データの受信待機状態にされる。つまり、サーバ18のCPUは、図24の最初のステップS41で、発話タクト22からのデータ(要求情報)を受信したかどうかを判断し、“NO”であればこのステップS41を繰り返す。ステップS41で“YES”であれば、続くステップS43で、受信データからユーザ情報を取得する。このユーザ情報(ユーザIDデータ)に含まれるユーザコードによって、サーバ18にアクセスしたユーザ20を特定することできる。また、受信データから発話タクト22のアドレスも取得される。なお、ユーザ情報がない場合にはエラー処理を行い、たとえばユーザ情報の送信を促す音声データ等を発話タクト22へ送信するようにしてもよい。
【0076】
さらに、ステップS45で、受信したデータに制御情報が有るか否かを判断する。このステップS45で“YES”であれば、つまり、制御情報(制御IDデータ)があれば、ステップS47で、この制御情報に基づいて、制御情報設定を処理する。
【0077】
この制御情報設定処理S47の動作は図25に示される。図25の最初のステップS81で、制御情報に含まれる制御コード(図12)の解析をする。ステップS83で、操作対象がモード(「01」)であるか否かを判断し、“YES”であれば、続くステップS85で、詳細設定が基本応答モード(「00」)に関するものか否かを判断する。このステップS85で“YES”であれば、ステップS87で、制御情報の制御コードおよびデータ領域のデータ等に応じて、基本応答モードに関する設定処理を行ってリターンする。
【0078】
ステップS85で“NO”であれば、ステップS89で、詳細設定が速度調節モード(「01」)に関するものであるか否かを判断する。ステップS89で“YES”であれば、ステップS91で速度調節モードの設定を処理する。このステップS91の速度調節モード設定処理の詳細は図26に示されるが、これについては後述する。
【0079】
ステップS89で“NO”であれば、ステップS93で、詳細設定がナビゲートモード(「02」)に関するものであるか否かを判断する。ステップS93で、“YES”であれば、ステップS95で、ナビゲートモードの設定を処理する。このステップS95のナビゲートモード設定処理の詳細は図27に示されるが、これについても後述する。
【0080】
ステップS93で“NO”であれば、続くステップS97で、制御情報に応じたその他のモードに関する設定処理を行ってリターンする。
【0081】
一方、ステップS83で“NO”であれば、ステップS99で、操作対象がユーザ情報(「02」)であるか否かを判断し、“YES”であれば続くステップS101で、詳細設定がユーザ名(「01」)に関するものか否かを判断する。ステップS101で“YES”であれば、ステップS103で、制御コードおよびデータ領域のデータ等に応じて、ユーザ情報DB70のユーザ名に関する設定を処理してリターンする。
【0082】
ステップS101で“NO”であれば、ステップS105で現状モード(「04」)に関するものか否かを判断する。ステップS105で“YES”であれば、ステップS107で、制御コードおよびデータ領域のデータ等に応じて、ユーザ情報DB70の現状モードに関する設定を処理してリターンする。
【0083】
ステップS105で“NO”であれば、続くステップS109で、制御情報に応じて、ユーザ情報DB70のその他のデータに関する設定を処理してリターンする。
【0084】
他方、ステップS99で“NO”であれば、ステップS111で制御コードに応じたその他の設定を処理してリターンする。
【0085】
図25のステップS91の速度調節モード設定処理S91では、図26に示すように、まずステップS121で、制御コマンドがこの速度調節モードのスタート指示であるか否かを判断する。このステップS121で“YES”であれば、つまり、ユーザ20によって、図14(A)のコントロールシート86のスタートの制御用無線タグ88のデータが読み取られた場合には、ステップS123で、このユーザの速度調節モードのためのアプリケーションデータ領域(図15)をRAMに生成し、必要なデータを所定領域に書き込む。そして、ステップS125で、ユーザ情報DB70のこのユーザの現状モードを速度調節モードに設定して、リターンする。これによって、この後、ユーザ20が次に対象物14から対象物IDを取得した場合には、速度調節モードが実行され、その音声が出力されることとなる。
【0086】
一方、ステップS121で“NO”であれば、ステップS127以降の処理を行うが、これらは基本的に速度調節モードがスタートした後の処理であり、スタート前であれば、たとえばエラー処理をしてスタートの読取を促す音声等を送信するようにしてもよい。
【0087】
ステップS127で“YES”であれば、つまり、リフレッシュに相当する制御用無線タグ88が読み取られた場合には、続くステップS129で、データ領域(図15)のデータ(適応係数,認識履歴,試行回数等)を初期値に戻してリターンする。これによって、速度調節モードをスタートからやり直せることとなる。
【0088】
ステップS127で“NO”であれば、ステップS131で、速度調節モードの終了か否かが判断される。ステップS131で“YES”であれば、つまり、終了に相当する制御用無線タグ88が読み取られた場合には、続くステップS133で、ユーザ情報DB70のこのユーザの現状モードをデフォルトである基本応答モードに設定してリターンする。これによって、速度調節モードを終了することができる。
【0089】
一方、ステップS131で“NO”であれば、ステップS135で高速固定であるか否かが判断される。ステップS135で“YES”であれば、つまり、図14(B)に示すようなコントロールシート86の早い速度に相当する制御用無線タグ88が読み取られた場合には、図15のデータ領域の適応係数に高速の150%を設定するとともに、速度固定にフラグを設定して、リターンする。これによって、速度調節モードの発話速度は高速に固定される。
【0090】
また、ステップS135で“NO”であれば、ステップS139で、並速固定であるか否かが判断される。このステップS139で“YES”であれば、つまり、ノーマル速度に相当する制御用無線タグ88が読み取られた場合には、ステップS141で、データ領域の適応係数に並速の100%(標準)を設定するとともに速度固定にフラグを設定してリターンする。これによって、速度調節モードの発話速度は並速に固定される。
【0091】
また、ステップS139で“NO”であれば、ステップS143で、低速固定であるか否かが判断される。このステップS139で“YES”であれば、つまり、遅い速度に相当する制御用無線タグ88が読み取られた場合には、ステップS145で、データ領域の適応係数に低速の66%を設定するとともに、速度固定フラグを設定してリターンする。これによって、速度調節モードの発話速度は低速に固定される。
【0092】
また、ステップS143で“NO”であれば、続くステップS147で、制御情報に応じて、この速度調節モードにおけるその他のデータの設定を処理し、リターンする。
【0093】
図25のステップS95のナビゲートモード設定処理S95では、図27に示すように、まずステップS151で、制御コマンドがこのナビゲートモードのスタート指示であるか否かを判断する。ステップS151で“YES”であれば、つまり、ユーザ20によって、図19(A)のコントロールシート86のスタートの制御用無線タグ88のデータが読み取られた場合には、ステップS153で、このユーザのナビゲートモードのためのアプリケーションデータ領域(図20)をRAMに生成し、必要なデータを所定領域に書き込む。次に、ステップS155で、ユーザ情報DB70のこのユーザの現状モードをナビゲートモードに設定する。そして、ステップS157で、ナビゲートモード応答を処理する。このナビゲートモード応答処理S157の動作は図29および図30に詳細に示されるが、これについては後述する。このステップS157の処理によって、ナビゲートモードがスタートし、認識結果Rが開始時(初期値)の定型音声データおよび設問音声データが合成されて、発話タクト22へ送信され、ナビゲートモードの開始および次のCPの指示が音声として出力される。
【0094】
一方、ステップS151で“NO”であれば、ステップS159以降の処理を行うが、これらは基本的にナビゲートモードがスタートした後の処理であり、スタート前であれば、たとえばエラー処理をしてスタートの読取を促す音声等を送信するようにしてもよい。
【0095】
ステップS159では、リスタートであるか否かを判断する。“YES”であれば、つまり、コントロールシート86のリスタートの無線タグ88を読み取った場合には、ステップS161で、データ領域の更新データを初期値に戻す。つまり、たとえば、現在いるCPはスタートに、現在の回答レベルCALはレベル2以外に、今回の認識の結果Rは開始時に設定され、また、各CPの回答回数も0に戻される。そして、ステップS157で、ナビゲートモード応答を処理する。これにより、ナビゲートモードが最初からやり直され、開始時の音声が出力される。
【0096】
また、ステップS159で“NO”であれば、ステップS163で終了か否か判断する。ステップS163で“YES”であれば、つまり、終了に相当する制御用の無線タグ88が読み取られた場合には、ステップS165で、ユーザ情報DB70の現状モードを基本応答モードに設定してリターンする。これによって、ナビゲートモードを終了することができる。
【0097】
一方、ステップS163で“NO”であれば、続くステップS167で変更言語が英語であるか否かが判断される。このステップS167で“YES”であれば、つまり、図19(B)に示すようなコントロールシート86の英語に相当する制御用無線タグ88が読み取られた場合には、ステップS169で、データ領域のユーザ学習言語を英語に設定しリターンする。
【0098】
ステップS167で“NO”であれば、ステップS171で、変更言語が日本語であるか否か判断する。ステップS171で“YES”であれば、つまり、日本語に相当する無線タグ88が読み取られた場合には、ステップS173で、データ領域の学習言語を日本語に設定しリターンする。
【0099】
また、ステップS171で“NO”であれば、ステップS175で、変更言語が韓国であるか否か判断する。ステップS175で“YES”であれば、つまり、韓国語に相当する無線タグ88が読み取られた場合には、ステップS177で、データ領域の学習言語を韓国語に設定してリターンする。
【0100】
一方、ステップS175で“NO”であれば、続くステップS179で、制御情報に応じて、このナビゲートモードにおけるその他のデータ設定を処理してリターンする。
【0101】
図24に戻って、ステップS45で“NO”であれば、つまり、受信データに制御情報が含まれない場合には、続くステップS49で、受信データから対象物情報(対象物IDデータ)を取得する。これによって、対象物コードが得られ、認識した対象物14が特定される。
【0102】
ステップS51では、ユーザ情報に基づいて、ユーザ情報DB70からそのユーザの現状モードが読み出される。なお、このステップS51で、ユーザの現状モードを一旦読み出してRAMの所定のデータ領域80に書き込んだ後は、ステップS47の制御情報設定処理で現状モードの変更があった場合にだけユーザ情報DB70から読み出せばよい。
【0103】
そして、ステップS53,S55およびS57で現状モードの種類が判別され、それぞれのモードの応答処理が行われる。
【0104】
ステップS53では、現状モードが基本応答モードであるか否かが判断され、“YES”であれば、続くステップS59で、ユーザ情報DB70から返信情報選別フラグとしてユーザの学習言語情報およびレベル情報が取得される。この実施例の図6のように学習言語およびレベルが複数ある場合には、第1の学習言語およびレベルが取得される。なお、この学習言語およびレベルも、このステップS59で一旦ユーザ情報DB70から読み出してRAMの所定のデータ領域80に書き込んだ後は、ステップS47の制御情報設定処理で学習言語またはレベルの変更があった場合にだけユーザ情報DB70から読み出せばよい。
【0105】
続くステップS61では、選別フラグおよび対象物情報(対象物コード)に基づいて、対象物音声情報DB72または74から、対応する音声データを読み出して取得する。そして、ステップS63で、発話タクト22宛に返信情報としての音声データを送信する。なお、発話タクト22のアドレスは、発話タクト22からの送信データから取得され得る。したがって、上述のように、発話タクト22では、音声データが再生されて、スピーカ64からその音声が出力される。このステップS63の処理を終了すると、ステップS41に戻って、再び発話タクト22からのデータの受信を待つ。
【0106】
一方、ステップS53で“NO”であれば、ステップS55で、現状モードが速度調節モードであるか否かが判断される。このステップS55で“YES”であれば、続くステップS65で、速度調節モードの応答を処理する。このステップS65の速度調節モード応答処理S65の動作は、図28に示される。
【0107】
図28の最初のステップS191では、ユーザ情報に基づいて、ユーザ情報DB70から返信情報選別フラグ(学習言語およびレベル)を取得する。なお、このステップS191でも、上述の図24のステップS59のように、学習言語が複数ある場合には第1の学習言語およびレベルが取得される。また、この学習言語およびレベルも、このステップS191で一旦ユーザ情報DB70から読み出してRAMの所定のデータ領域80に書き込んだ後は、ステップS47の制御情報設定処理で学習言語またはレベルの変更があった場合にだけユーザ情報DB70から読み出せばよい。
【0108】
次に、ステップS193では、取得した対象物情報に基づいて、認識履歴データを更新する。具体的には、図15に示すデータ領域のうち、今回認識した対象物IDや、1回前〜9回前の認識履歴、試行回数等が更新される。
【0109】
ステップS195では、発話速度が固定されているか否かを判断し、“NO”であれば、つまり、データ領域の速度固定フラグが立っていなければ、ステップS197で、過去10回の履歴中の対象物14の種類Nをカウントする。そして、ステップS199で、履歴中の対象の種類Nに基づいて適応係数を算出し(図16)、データ領域に書き込む。
【0110】
一方、ステップS195で“YES”であれば、つまり、速度固定フラグが立っている場合には、適応係数が一定に固定されて、その算出を行う必要がないので、そのままステップS201へ進む。
【0111】
ステップS201では、選別フラグ(学習言語およびレベル)と対象物情報(今回認識した対象物ID)に基づいて、対象物音声情報DB72または74から、対応する音声データを読み出して取得する。
【0112】
続くステップS203で、適応係数に基づいて、音声データの発話速度の変更をする。この処理では、音声データのピッチ(音程)は元の音声データのままに維持され、その速度だけが適応係数に基づいて変更される。そして、ステップS205で、発話タクト22宛に返信情報としての音声データを送信する。したがって、上述のように、発話タクト22では、音声データが再生されて、スピーカ64からその速度が調節された音声が出力される。このステップS205の処理を終了すると、図24のステップS41に戻って、再び発話タクト22からのデータの受信を待つ。
【0113】
また、図24のステップS55で“NO”であれば、ステップS57で、現状モードがナビゲートモードであるか否かが判断される。ステップS57で“YES”であれば、続くステップS67で、ナビゲートモード応答を処理する。この図24のステップS67(および図27のステップS157)のナビゲートモード応答処理(S67,S157)の動作は、図29および図30に示される。
【0114】
図29の最初のステップS221では、データ領域(図20)の今回の認識の結果Rが開始時であるか否かが判断される。このステップS221で“YES”であれば、つまり、ナビゲートモードの開始時である場合には、次の図30のステップS255へ進む。一方、ステップS221で“NO”であれば、つまり、開始時以外であれば、続くステップS223で、取得した対象物ID(対象物コード)と次のチェックポイントCPに設定されている対象物ID(対象物コード)とが一致するか否かを判断する。すなわち、認識の成否が判別される。
【0115】
ステップS223で“YES”であれば、つまり、正解した場合には、ステップS225で、現在いるCP(図20)のデータに1を加算して次のCPへ進める。ステップS227では、次のCPの回答回数に1を加算し、ステップS229では、今回の認識の結果Rに1(正解)を設定する。これにより、正解時の音声が出力されることとなる。そして、ステップS231で、現在いる回答レベルCALを初期化する。ステップS231の処理を終了すると、次の図30のステップS253へ進む。
【0116】
一方、ステップS223で“NO”であれば、つまり、指示された対象物のID情報以外の情報を取得してしまった場合には、続くステップS235で、データ領域の認識結果Rが3(最終ヒント)に設定されているか否かを判断する。このステップS233で“YES”であれば、つまり、1つのチェックポイントCPに10回も回答したにもかかわらず正解できなかった場合には、ステップS235で、現在いるCPのデータに1を加算して、強制的に次のCPへ進めることとする。そして、ステップS237で、認識結果Rに4(次のCPへ)を設定する。これにより、次のCPへ強制的に進める音声が出力されることとなる。ステップS237の処理を終了すると、次の図30のステップS253へ進む。
【0117】
また、ステップS233で“NO”であれば、つまり、データ領域の認識結果Rが3(最終ヒントへ)でない場合には、ステップS239で、データ領域の現在いるCPの回答回数に1を加算し、ステップS241で今回の認識結果Rに0(不適)を設定する。これによって、不適時の音声が出力されることとなる。
【0118】
続くステップS243では、現在いるCPの回答回数が3(第1所定数)よりも大きいか否かが判断される。このステップS243で“YES”であれば、つまり、4度以上回答しても不適だった場合には、ステップS254で、認識結果Rに2(レベル変更)を設定し、ステップS247で、現在の回答レベルCALに2(説明レベル変更)を設定する。このように、この実施例では、4度回答しても不正解だった場合には、レベルを変更した(下げた)、すなわち、分かり易いヒントとなる音声を出力するようにしている。なお、ステップS243で“NO”であれば、つまり、現在いるCPの回答回数が3回以下であれば、次の図30のステップS253へ進む。
【0119】
ステップS249では、現在いるCPの回答回数が10(第2所定数)に等しいか否かを判断する。このステップS249で“YES”であれば、つまり、1つのCPで10度回答しても不正解であった場合には、ステップS251で、認識結果Rに3(最終ヒント)を設定する。これにより、最終ヒントとなる音声が出力されることとなる。この実施例では、最終ヒントとしては、たとえばユーザ20の現在適用しているの学習言語のレベルよりもレベルの高い、すなわち、ユーザ20の理解度の高い学習言語(たとえば母国語)が適用される。
【0120】
なお、ステップS249で“NO”であれば、つまり、現在いるCPの回答回数が10でない場合には、または、ステップS251の処理を終了すると、図30のステップS253へ進む。
【0121】
図30のステップS253では、データ領域(図20)の認識結果Rが3(最終ヒント)に設定されているか否かを判断する。このステップS253で“NO”であれば、つまり、最終ヒントを提供しない場合には、ステップS255で、データ領域からユーザ学習言語を取得する。このように、最終ヒントでない場合には、ユーザの学習言語による音声が出力される。
【0122】
次に、ステップS257で、学習言語および現在いるCP、認識結果R、現在の回答レベルCALに基づいて、ナビゲートモード用音声情報DB76(図21)から、対応する定型音声データを読み出して取得する。
【0123】
続くステップS259では、対象物情報および学習言語に基づいて、対象物音声情報DB72または74(図7または図8)から、対応する対象物音声データを読み出して取得する。この対象物音声データは、たとえば図21に示すように、Rが0、2および4等のときに、定型音声データと組み合わせるために用いられる。
【0124】
そして、ステップS261で、学習言語および現在いるCP、認識結果R、現在の説明レベルCALに基づいて、ナビゲートモード用音声情報DB76(図22)から、対応する設問音声データを読み出して取得する。
【0125】
一方、ステップS253で“YES”であれば、つまり、最終ヒントを提供する場合には、続くステップS263で、データ領域からユーザ母国語を取得する。このように、最終ヒントは、この実施例では、ユーザ母国語による音声で提供される。
【0126】
次に、ステップS265では、母国語および現在いるCP、認識結果R、現在回答レベルCALに基づいて、ナビゲートモード用音声DB76(図21)から、対応する定型音声データを読み出して取得する。
【0127】
続くステップS267で、対象物情報および母国語に基づいて、対象物音声情報DB72または74から、対応する対象物音声データを読み出して取得する。この対象物音声データも、たとえば図21に示すように、Rが0、2および4等のときに、定型音声データと組み合わせるために用いられる。
【0128】
そして、ステップS269では、母国語および現在いるCP、認識結果R、現在の回答レベルCALに基づいて、ナビゲートモード用音声情報DB76(図22)から、対応する設問音声データを読み出して取得する。
【0129】
ステップS261またはS269の処理を終了すると、ステップS271で、現在の回答レベルCALが2であるか否かが判断される。このステップS271で“YES”であれば、つまり、1つのCPで回答回数が3回を超えても正解されなくて説明レベルを変更する場合には、ステップS273で、対象物音声データの発話速度を、このレベル2と同程度に遅い速度に変更する。ナビゲートモード用音声情報DB76には、図21および図22に示すように、現在回答レベルCALが2のとき、すなわち、認識結果Rが2(レベル変更)のとき、レベルを下げるために、ゆっくりと発音される発話速度の音声が格納されている。そして、対象物音声情報は、これらナビゲートモード用の定型音声および設問音声と合成されるので、その発話速度を遅く変更する必要がある。
【0130】
ステップS271で“NO”であれば、またはステップS273の処理を終了すると、ステップS275で、定型音声データ、設問音声データおよび必要に応じて対象物音声データを合成して、1つの音声データを生成する。そして、ステップS277で、発話タクト22宛に返信情報としての音声データを送信する。したがって、上述のように、発話タクト22では、ユーザ20をナビゲートする音声データが再生されて、スピーカ64からその音声が出力される。このステップS277の処理を終了すると、図24のステップS41に戻って、再び発話タクト22からのデータの受信を待つ。
【0131】
図24に戻って、ステップS57で“NO”であれば、つまり、現状モードがナビゲートモードでもない場合には、続くステップS69でその他のモードの処理を実行し、ステップS41へ戻る。
【0132】
この実施例によれば、実空間12に存在する複数の対象物14にそれぞれの対象物用の無線タグ16を設けたので、ユーザ20を取り巻く空間12をまるまる学習環境とすることができ、ユーザ20はその学習空間に身をおくことができる。従来のように教材に向かうのではなく、学習空間に身をおくことで、その環境の方が学習者20に向かってくるようになり、したがって、学習効率の向上が期待できる。
【0133】
また、対象物識別情報に関連付けて複数の言語による音声データを準備しているので、多言語の空間を容易に構築することができる。また、複数のユーザ間で異なる学習言語に対応することができ、たとえば同時同空間に対して多言語の学習環境を構築することもできる。
【0134】
また、速度調節モードではユーザ20のその時の学習状況(認識履歴の状況)に適応して発話速度を変化させるようにし、また、ナビゲートモードでもユーザ20のその時の学習状況に応じて、発話速度および内容等の説明レベルや言語を変化させるようにしている。したがって、ユーザ20のその時々の学習状況に適応した音声データが提供されるので、ユーザ20は効率よく学習を行うことができる。
【0135】
なお、上述の実施例では、実空間12としてたとえば図2のような家庭や学校等における部屋などを想定しているが、このような実空間12は、たとえば博物館や美術館等のような展示物が展示されるものであってもよい。すなわち、この場合には、館内の展示物が対象物14である。音声データは、上述の実施例と同様に、たとえば初心者,中級者,上級者向けなど複数レベルに多段階化し、さらに多言語にも対応させてよい。これにより、入館者(ユーザ)20の言語や展示物に対する理解度に対応した説明音声を提供することができる。
【0136】
また、携帯端末としての発話タクト22は、たとえば図31に示す他の実施例のユビキタス学習システム10のように、PDAや、あるいは携帯電話機,ノート型PC等のような携帯通信端末によって構成してもよい。なお、図31では、図1で示した各DB70−76はサーバ18に内蔵しているものとして省略してある。この場合にも、この携帯通信端末22には、無線タグデータ読取装置60(図3)等を内蔵または拡張的に設けておく。また、発話タクトとして機能するのに必要なプログラムおよびデータあるいはプログラムの代替となるハードウェアを内蔵し、または、プログラム等は適宜な読取可能な記録媒体から読み出したり、通信ネットワーク(インタネット26等)上の配信サーバ等からダウンロードしたりして取得しておく。また、これらの携帯通信端末がLCD等のような表示装置を備える場合には、学習言語およびレベルの設定,学習モードの選択,制御指示の設定等は、ユーザIDシート82や制御IDシート86を用いて読み取る代わりに、表示装置に表示した入力画面上で入力することによって、その入力データをサーバ18へ送信するようにしてもよい。さらに、このように携帯端末22が表示装置を備える場合には、スピーカ64から音声を出力するとともに表示装置にその内容の文字を表示させるようにしてもよい(後述)。
【0137】
また、上述の各実施例では、発話タクト22は基地局24を介してサーバ18へアクセスするようにしているが、サーバ18との無線を介した接続形態は適宜変更可能である。たとえば、図32に示すように、発話タクト22は、たとえば無線LAN(電波方式,赤外線方式,IrDA赤外線方式等)によって、たとえば家庭または学校等のホームサーバ90に接続し、このホームサーバ90からインタネット26を介してサーバ18に接続するようにしてもよい。この図32では、構内の有線LAN上のアクセスポイント(ブリッジ)92を介してホームサーバ90に接続するインフラストラクチャモードが示されるが、アドホックモードで直接ホームサーバ90に接続するように構成してもよい。また、ブルートゥースによって接続するようにしてもよい。
【0138】
また、上述の各実施例では、サーバ18はインタネット26上に設けられたが、図33に示す他の実施例のように、サーバ18は、たとえば家庭や学校等におけるPCであってもよい。この場合、発話タクト22はたとえば無線LANやブルートゥース等によってPCサーバ18と接続される。
【0139】
また、上述の各実施例では、発話タクト22に音声を出力するための音声出力手段(スピーカ64等)が設けられたが、サーバ18から提供される音声データがユーザ20に聞こえればよいので、ユーザ20が学習する空間12内に存在すれば、発話タクト22以外に音声出力手段が設けられてよい。たとえば、図34に示すように、サーバ18が学習空間12内に存在する場合には、サーバ18にスピーカ94をアンプ等を介して接続しておき、このスピーカ94に音声データを提供することで、スピーカ94から音として出力させるようにしてもよい。
【0140】
また、上述の各実施例では、ユーザ識別情報によって複数のユーザ20に対応できるようにしたが、より簡単な構成では、ユーザ管理を行わないものであってもよい。この場合には、発話タクト22から対象物識別情報とともに、学習言語情報およびレベル情報の少なくとも1つをサーバ18に送信するようにすれば、複数言語および複数レベルのすくなくとも1つに対応した音声データを提供できる。また、さらに簡単な構成では、対象物識別情報のみをサーバ18に送信して、1つの言語およびレベルの音声データを返送するようにしてもよく、この場合は単言語の学習環境が構築される。
【0141】
また、上述の各実施例では、サーバ18は、対象物14の情報として音声情報を提供するようにしているが、さらに対象物14に関する文字情報を提供するようにしてもよい。たとえば、サーバ18では、対象物識別情報に関連付けて、複数言語および複数レベルの音声情報とともに、その音声の内容を示すその言語による文字情報(テキストデータまたは画像データ等)をデータベース72,74または76等に記憶しておく。たとえば図7の例では、Lv0に対応するその言語(英語)によるスペリングを示すテキストデータが示される。なお、この図7等では他のレベルの説明および詳細な説明等の文字データは図示を省略している。そして、サーバ18は、文字情報読出手段によって、受信した対象物識別情報に基づいて、対応する文字情報をデータベース72,74または76等から読み出す。発話タクト22(図3)にさらにLCD等のような表示装置を設けた場合または発話タクト22がたとえば図31のように表示装置を備えるPDA等の携帯通信端末22である場合等には、読み出した文字情報を音声情報とともに発話タクト22に送信する。これに応じて、発話タクト22では、音声を出力させるとともに、表示制御プログラム等によって、受信した文字情報に基づいてその文字を表示装置で表示させるようにする。つまり、たとえば上述した図13のような状況では、スピーカ64から“clock”の音声が出力されるとともに、図示しない表示装置には“clock”のスペリングが表示されることとなる。また、たとえば図33および図34のように、サーバ18が関連的に設けられる表示装置を含んでいて、かつ、ユーザ20の存在する実空間12内に設けられる場合には、サーバ18の表示装置に文字情報を与えて表示させるようにしてもよい。このように、文字情報を提供する場合には、ヒアリングのみならず、その音声の内容を示す文字によってたとえばスペリング等の学習を行うこともでき、したがって、聴覚と視覚とによってさらに効率よい学習を行うことができる。
【図面の簡単な説明】
【図1】この発明の一実施例のユビキタス学習システムの概観を示す図解図である。
【図2】図1実施例におけるユビキタス学習空間の一例を示す図解図である。
【図3】図1実施例における発話タクトの内部構成を示す図解図である。
【図4】発話タクトのRAMのメモリマップの一例を示す図解図である。
【図5】図1実施例におけるサーバのRAMのメモリマップの一例を示す図解図である。
【図6】図1実施例のユーザ情報DBに記憶されるユーザ情報の一例を示す図解図である。
【図7】図1実施例の対象物音声情報DB(第1言語)に記憶される対象物音声情報の一例を示す図解図である。
【図8】図1実施例の対象物音声情報DB(他言語)に記憶される対象物音声情報の一例を示す図解図である。
【図9】ユーザ用無線タグが設けられたユーザIDシートの一例を示す図解図である。
【図10】制御用無線タグが設けられた制御IDシートの一例を示す図解図である。
【図11】無線タグに記憶保持される識別データの構造の一例を示す図解図であり、(A)はユーザ用無線タグに記憶されるユーザIDデータを示し、(B)は対象物用無線タグに記憶される対象物IDデータを示し、(C)は制御用無線タグに記憶される制御IDデータを示す。
【図12】制御IDデータに含まれる制御コマンドのデータ構造の一例を示す図解図である。
【図13】対象物である時計が発話タクトによって認識されてその音声が出力される様子を示す図解図である。
【図14】速度調節モード用の制御IDシートの一例を示す図解図である。
【図15】サーバのRAMに形成される速度調節モード用データ記憶領域のメモリマップの一例を示す図解図である。
【図16】速度調節モードにおける適応係数の一例を示す図解図である。
【図17】速度調節モードにおける学習曲線の一例を示す図解図であり、(A)は優秀者の場合のイメージを示し、(B)は標準的な者の場合のイメージを示し、(C)は不慣れな者の場合のイメージを示す。
【図18】ナビゲートモードにおける進路の一例を示す図解図である。
【図19】ナビゲートモード用の制御IDシートの一例を示す図解図である。
【図20】サーバのRAMに形成されるナビゲートモード用データ記憶領域のメモリマップの一例を示す図解図である。
【図21】図1実施例のナビゲートモード用音声情報DBに記憶される定型音声情報の一例を示す図解図である。
【図22】ナビゲートモード用音声情報DBに記憶される設問音声情報の一例を示す図解図である。
【図23】図1実施例の発話タクトの動作の一例を示すフロー図である。
【図24】図1実施例のサーバの動作の一例を示すフロー図である。
【図25】サーバにおける制御情報設定処理の動作の一例を示すフロー図である。
【図26】サーバにおける速度調節モード設定処理の動作の一例を示すフロー図である。
【図27】サーバにおけるナビゲートモード設定処理の動作の一例を示すフロー図である。
【図28】サーバにおける速度調節モード応答処理の動作の一例を示すフロー図である。
【図29】サーバにおけるナビゲートモード応答処理の動作の一部を示すフロー図である。
【図30】図29の続きを示すフロー図である。
【図31】他の実施例のユビキタス学習システムの構成を示す図解図である。
【図32】他の実施例のユビキタス学習システムの構成を示す図解図である。
【図33】他の実施例のユビキタス学習システムの構成を示す図解図である。
【図34】他の実施例のユビキタス学習システムの構成を示す図解図である。
【符号の説明】
10 …ユビキタス学習システム
12 …実空間
14 …対象物
16 …対象物用無線タグ
18 …サーバ(情報提供装置)
22 …発話タクト(携帯端末)
52 …CPU
54 …ROM
56 …RAM
58 …操作ボタン
60 …無線タグデータ読取装置
62 …無線通信装置
64 …スピーカ
70 …ユーザ情報DB
72 …対象物音声情報DB(第1言語)
74 …対象物音声情報DB(他言語)
76 …ナビゲートモード用音声情報DB
84 …ユーザ用無線タグ
88 …制御用無線タグ[0001]
[Industrial applications]
The present invention relates to a ubiquitous learning system, a mobile terminal, an utterance tact, an information providing device, and a program, and more particularly to, for example, a ubiquitous learning system, a mobile terminal, an utterance tact, and information providing for learning using a plurality of objects existing in a real space. Related to devices and programs.
[0002]
[Prior art]
An example of a conventional learning system is disclosed in
[0003]
[Patent Document 1]
JP-A-5-6135
[0004]
[Problems to be solved by the invention]
However, in the prior art, a learner (user) must prepare a teaching material such as a card or a booklet when learning, and must go for it, and can learn efficiently over a long period of time? Questions remain. In particular, continuity and long-term continuity are important for learning a language, and it is considered effective to always stay in the learning linguistic space, such as studying abroad.
[0005]
Furthermore, in the case of using teaching materials as in the prior art, even if teaching materials are prepared for each learning level, it is impossible to adapt to the current learning situation of the user, and the learning efficiency is not good.
[0006]
Therefore, a main object of the present invention is to provide a novel ubiquitous learning system, an utterance tact, an information providing device, and a program.
[0007]
Another object of the present invention is to provide a ubiquitous learning system, an utterance tact, an information providing device, and a program that can make a space surrounding a user a full learning environment.
[0008]
It is another object of the present invention to provide a ubiquitous learning system, an utterance tact, an information providing device, and a program that can efficiently learn according to a learning situation of a user.
[0009]
[Means for Solving the Problems]
A first aspect of the present invention includes an information providing apparatus that provides information on a plurality of objects existing in a real space, and a mobile terminal that communicates with the information providing apparatus via wireless communication, for learning using a plurality of objects. Ubiquitous learning system, wherein the plurality of objects are each provided with a plurality of wireless tags for storing and holding object identification information for identifying the plurality of objects, and the mobile terminal is operated by a user. Means, acquisition means for acquiring object identification information from a wireless tag in response to an operation from an operation means, and first transmission means for wirelessly transmitting request information including the object identification information acquired by the acquisition means to an information providing apparatus. The information providing apparatus includes: a voice information storage unit configured to store voice information regarding an object associated with each piece of the object identification information; A ubiquitous device including a voice information reading unit that reads corresponding voice information from the voice information storage unit based on the information, and further including a voice output unit that outputs voice based on the voice information read by the voice information reading unit. It is a learning system.
[0010]
A second invention provides a ubiquitous learning system for learning using a plurality of objects existing in a real space, wherein the mobile terminal is capable of communicating with an information providing apparatus for providing information on the plurality of objects via radio. Operating means operated by the user, according to an operation from the operating means, from a plurality of wireless tags provided on each of the plurality of objects and storing and holding object identification information for identifying the plurality of objects; A portable terminal comprising: an obtaining unit that obtains target object identification information by using the first transmission unit that wirelessly transmits request information including the target object identification information obtained by the obtaining unit to the information providing apparatus.
[0011]
A third invention is a portable utterance tact that communicates via radio with an information providing device that provides information about a plurality of objects existing in a real space and outputs information about the plurality of objects as sounds. Operating means operated by the user, object identification information for identifying a plurality of objects is stored and stored, and a plurality of wireless tags provided on each of the plurality of objects are used in accordance with an operation from the operating means. Acquiring means for acquiring the object identification information, first transmitting means for wirelessly transmitting the request information including the object identification information acquired by the acquiring means to the information providing apparatus, transmitted from the information providing apparatus in response to the request information An utterance tact includes a first receiving unit that wirelessly receives audio information, and an audio output unit that outputs audio based on the audio information received by the first receiving unit.
[0012]
A fourth invention is an information providing apparatus for providing information on a plurality of objects in a ubiquitous learning system for learning using a plurality of objects existing in a real space, wherein the plurality of objects are identified. Voice information storage means for storing voice information relating to an object associated with each object identification information, and corresponding voice information based on request information including the object identification information transmitted from the terminal. An information providing apparatus including a voice information reading unit for reading from the unit.
[0013]
A fifth invention relates to a ubiquitous learning system for learning using a plurality of objects existing in a real space, wherein the mobile terminal is capable of communicating with an information providing apparatus for providing information on the plurality of objects via a wireless communication. A program to be executed, comprising: acquiring a mobile terminal to acquire object identification information from a plurality of wireless tags provided on a plurality of objects and storing and holding object identification information for identifying the plurality of objects. And a program for a portable terminal that functions as first transmitting means for wirelessly transmitting request information including object identification information acquired by the acquiring means to the information providing apparatus.
[0014]
According to a sixth aspect of the present invention, a portable utterance tact that communicates via radio with an information providing device that provides information on a plurality of objects existing in a real space and outputs the information on the plurality of objects as sound is executed. A program that causes the utterance tact to store and retain object identification information for identifying a plurality of objects and acquire the object identification information from a plurality of wireless tags provided for each of the plurality of objects. Means, first transmitting means for wirelessly transmitting request information including the object identification information acquired by the acquiring means to the information providing apparatus, and first transmitting means for wirelessly receiving audio information transmitted from the information providing apparatus in response to the request information. An utterance tact program that functions as a receiving unit and an audio output unit that outputs audio based on audio information received by the first receiving unit.
[0015]
According to a seventh aspect, in a ubiquitous learning system for learning using a plurality of objects existing in a real space, audio information on the object associated with each object identification information for identifying the plurality of objects is provided. Is a program to be executed by an information providing apparatus that provides information on a plurality of objects, the information providing apparatus comprising: An audio information reading means for reading corresponding audio information from the audio information storage means on the basis of the audio information read out by the audio information reading means; It is a program of a providing device.
[0016]
[Action]
The ubiquitous learning system includes an information providing device that provides information on a plurality of objects, and a mobile terminal that communicates with the information providing device wirelessly. The plurality of objects exist in a real space, and a plurality of wireless tags each storing and holding the object identification information are provided. The user can learn by entering the real space with the portable terminal. When learning, the user operates the operation means, for example, by pointing the mobile terminal close to the target object. Then, the acquisition unit acquires the object identification information from the wireless tag in accordance with the operation of the operation unit by the user. The first transmitting unit wirelessly transmits the request information including the acquired target object identification information to the information providing apparatus. On the other hand, the voice information storage means of the information providing device stores voice information relating to an object associated with each object identification information. The voice information reading means reads the corresponding voice information based on the request information transmitted from the mobile terminal. Then, information based on the voice information read by the voice information reading means is provided to the voice output means of the ubiquitous learning system by the providing means, and the voice output means outputs a voice based on the read voice information. I do. Therefore, the user can learn by listening to the output voice. In this way, the real space where the target object exists, that is, the space surrounding the user can be made a complete learning environment.
[0017]
For example, the audio output means can be provided in a mobile terminal. In this case, the information providing device includes a second transmitting unit, and the second transmitting unit as the providing unit transmits, to the portable terminal, reply information based on the voice information read by the voice information reading unit. On the other hand, the mobile terminal includes a first receiving unit, and the first receiving unit wirelessly receives the reply information transmitted from the information providing device. Therefore, the sound output means outputs a sound based on the sound information included in the received reply information. As described above, when the mobile terminal includes the voice output unit, the mobile terminal not only acquires the identification information from the target but also outputs the voice, and thus such a mobile terminal is referred to as “utterance tact”.
[0018]
The information providing device may further include a character information storage unit and a character information reading unit. The character information storage means stores character information relating to an object associated with each object identification information. The character information reading means reads the corresponding character information based on the request information transmitted from the mobile terminal. Then, information based on the character information read by the character information reading means is provided by the providing means to the display means provided in the ubiquitous learning system, and the display means displays characters based on the read character information. Therefore, the user can learn not only by voice but also by letters, and can learn efficiently.
[0019]
Further, the utterance tact (or the mobile terminal) may include a first storage unit that stores user information including at least one of user identification information, language information, and level information. Then, the request information transmitted by the first transmitting means may include user information. In this case, the information providing apparatus reads out the corresponding audio information based on at least one of the user identification information, the language information, and the level. Therefore, the user can hear the voice corresponding to the user information, and can, for example, learn in the language and level desired to learn.
[0020]
Further, the user information as described above may be acquired by the acquisition unit from the wireless tag storing and holding the user information, and may be stored in the first storage unit. In this case, if a user wireless tag is prepared for each of a plurality of users, one utterance tact can be shared by a plurality of users, and learning can be performed using sounds corresponding to the respective user information.
[0021]
Alternatively, a wireless tag that stores and holds control information for instructing a process in the information providing device may be prepared, and the acquisition unit may acquire the control information. The first transmitting unit transmits the control information acquired by the acquiring unit to the information providing device. In this case, a process to be performed on the information providing device side can be specified.
[0022]
The utterance tact may be provided with a display means. In this case, the first receiving means receives the character information together with the voice information. Then, the display means displays the character based on the received character information. Therefore, the user can learn using the voice and the character by the utterance tact, and can learn efficiently.
[0023]
Further, the voice information storage means of the information providing apparatus may store voice information for each language pronounced in a plurality of languages. In this case, the voice information reading means reads the voice information in the corresponding language based on the request information from the portable terminal (utterance tact). Therefore, a multilingual learning space can be constructed, and the user can learn a plurality of languages.
[0024]
Further, the voice information storage means of the information providing apparatus may store voice information for each of a plurality of levels. In this case, the voice information reading means reads the voice information of the corresponding level based on the request information from the utterance tact. Therefore, the user can perform learning for each of a plurality of levels, for example, in accordance with his / her own level.
[0025]
Further, the information providing device may further include a user information storage unit and a user information reading unit. The user information storage stores user information including at least one of language information and level information associated with each piece of user identification information. The user information reading means reads corresponding user information based on the user identification information included in the request information. Then, the audio information reading means reads the audio information corresponding to the user information. Therefore, the user can perform learning according to his / her desired learning language or level, learning language and level. Further, it is possible to cope with different learning languages and levels among a plurality of users, and for example, it is possible to construct a multilingual learning environment for the same simultaneous space.
[0026]
The information providing apparatus may include a speed adjusting unit that adjusts the speech speed of the voice information according to the recognition history state of the target object. In this case, it is possible to provide voice information having an utterance speed adapted to the learning situation of the user, and it is possible to improve learning efficiency. Alternatively, a plurality of pieces of voice information having different utterance speeds are stored in the voice information storage unit, and the voice information of the corresponding utterance speed is read by the voice information reading unit according to the recognition history state of the object. Is also good. Also in this case, similarly, efficient learning according to the learning situation of the user can be performed.
[0027]
The information providing apparatus may include a recognition order storage unit that stores recognition order information that defines an order in which a plurality of objects should be recognized. In this case, the question sound information indicating the object to be recognized is stored in the sound information storage means. The determining means determines whether or not the recognition is successful, based on the object identification information and the recognition order information transmitted from the terminal. When the recognition unit determines that the recognition is correct, the voice information reading unit reads out the question voice information indicating the object to be recognized next, which is advanced by one. On the other hand, when the discrimination means determines that the recognition is inappropriate, the voice information reading means reads the question voice information indicating the current object to be recognized. In this case, the course is instructed to the user as in orienteering, so that learning can proceed with a sense of game, and the user can actively face the learning environment.
[0028]
Further, the voice information storage means may store question voice information for each of a plurality of explanation levels. In this case, the determination means further determines whether or not the number of responses to the object to be recognized at present exceeds a first predetermined number. Then, when the determination means determines that the number of answers has exceeded the first predetermined number, the voice information reading means reads question voice information at an explanation level that is easier to understand than before. Therefore, it is possible to provide the question audio information having the explanation level suitable for the learning situation of the user, so that the user can efficiently proceed with the learning.
[0029]
Furthermore, the question sound information for each of a plurality of languages may be stored in the sound information storage means. In this case, the determination means further determines whether or not the number of responses to the current object to be recognized has reached the second predetermined number. When the determination unit determines that the number of answers has reached the second predetermined number, the voice information reading unit reads the question voice information in a language having a higher level of understanding of the user than before. Therefore, it is possible to provide the question audio information in a language suitable for the learning situation of the user, so that the user can efficiently proceed with the learning.
[0030]
【The invention's effect】
According to the present invention, the space surrounding the user can be made a complete learning environment. Instead of going to the teaching materials as in the past, the user will be more likely to learn in the environment by placing himself in the learning space, and therefore expect to improve learning efficiency. it can. In addition, since speech information adapted to the user's current learning situation can be provided, the user can efficiently learn.
[0031]
The above and other objects, features and advantages of the present invention will become more apparent from the following detailed description of embodiments with reference to the drawings.
[0032]
【Example】
Referring to FIG. 1, a
[0033]
.. May be collectively denoted by reference numeral “14”, and the plurality of
[0034]
The
[0035]
FIG. 2 shows a room as an example of the
[0036]
The
[0037]
The
[0038]
FIG. 3 shows the internal configuration of the
[0039]
The
[0040]
FIG. 4 shows an example of a memory map of the
[0041]
In the
[0042]
FIG. 5 shows an example of a memory map of the RAM of the
[0043]
FIG. 6 shows an example of the user information registered in the
[0044]
FIG. 7 shows an example of data registered in the target object voice information (first language)
[0045]
FIG. 8 shows an example of data registered in the target object voice information (other language)
[0046]
In this embodiment, the database is divided into the first language and the other language. However, the database may be provided in any manner. These may be formed as one database, or the database may be formed for each language. May be formed.
[0047]
In the
[0048]
Further, the user identification information may be obtained from a
[0049]
Further, as shown in FIG. 9B, the
[0050]
In addition, by using the
[0051]
The same product may be used for the
[0052]
As shown in FIG. 11A, the user ID data stored in the
[0053]
As shown in FIG. 11B, the object ID data stored in the
[0054]
Further, as shown in FIG. 11C, the control ID data stored in the
[0055]
In the
[0056]
In the basic response mode, based on the acquired object code and the learning language and level of the
[0057]
In the speed adjustment mode, a sound whose speech speed is changed according to the learning situation of the
[0058]
This speed adjustment mode can be started by reading the
[0059]
The adaptation coefficient is used to determine the speech rate. As shown in FIG. 16, in this embodiment, the adaptation coefficient is determined based on the type N of the object recognized in the past ten histories. For example, when N = 1, that is, when one kind is heard 10 times, the speed becomes 50% (half) with respect to the normal (100%), and when N = 10, that is, 10 times When the type is heard once, the speed is set to be 200% (twice) that of the normal. Specifically, the adaptation coefficient is 50% × 1.16652 as shown in FIG. (N-1) It is calculated by At the start, for example, five types of codes are set as initial values in the recognition histories from the previous one to the previous nine so as to be about 100%. Note that the setting values such as the number of times referred to as the history, the fastest coefficient, and the slowest coefficient can be appropriately changed.
[0060]
Based on this adaptation coefficient, the speech speed of the voice data of the object ID recognized this time is changed. In another embodiment, the speech data set to the utterance speed for each target type number N (adaptive coefficient) may be stored in the database in advance. Instead of dividing the speed for each number N of types, the speed may be divided into several ranges, for example, 1-4, 5-6, 7-10, and divided into low speed, standard, high speed, and the like. .
[0061]
As described above, in the history of the predetermined number of times in the past, by calculating the adaptation coefficient based on the type of the target accessed by the user and setting the utterance speed, the convergence to the speed suitable for the language level of the
[0062]
In the navigation mode, the order of the
[0063]
For example, FIG. 18 shows an example of a course in the navigation mode. The start of the navigation mode, the
[0064]
More specifically, when the navigating mode is started, in CP1, in the learning language (for example, English) of the
[0065]
The learning in the navigation mode may be performed on a large scale by providing the wireless tags 16 on the plurality of
[0066]
In the navigation mode, as shown in FIG. 19A, a control sheet (control ID sheet) 86 for the navigation mode is used. The
[0067]
By reading the
[0068]
FIGS. 21 and 22 show examples of standard voice data and question voice data registered in the navigation mode
[0069]
FIG. 23 shows an example of the operation of the
[0070]
In step S5, it is determined whether or not it is a user ID. If "YES", that is, if the data attribute is "001", the acquired user information is stored in the memory (RAM) 56 in step S11. Is written in a
[0071]
If “NO” in the step S5, it is determined in a step S7 whether or not the ID is the object ID. If “YES”, that is, if the data attribute is “002”, transmission data as request information is generated based on the acquired object information and the user information in the
[0072]
Then, in step S15, a reply queue management of the transmission data is processed, and in step S17, the transmission data is transmitted to the
[0073]
If "NO" in the step S7, it is determined whether or not the control ID is the control ID in a step S9. If “YES”, that is, if the data attribute is “003”, transmission data is generated based on the obtained control information and the user information in the
[0074]
On the other hand, if “NO” in the step S1, it is determined whether or not data is received from the
[0075]
24 to 30 show an example of the operation of the
[0076]
Further, in step S45, it is determined whether or not the received data includes control information. If “YES” in the step S45, that is, if there is the control information (control ID data), in a step S47, the control information setting is processed based on the control information.
[0077]
The operation of the control information setting process S47 is shown in FIG. In the first step S81 in FIG. 25, the control code (FIG. 12) included in the control information is analyzed. In a step S83, it is determined whether or not the operation target is the mode (“01”). If “YES”, in a succeeding step S85, it is determined whether or not the detailed setting is related to the basic response mode (“00”). Judge. If "YES" in the step S85, a setting process regarding the basic response mode is performed in a step S87 according to the control code of the control information and the data in the data area, and the process returns.
[0078]
If “NO” in the step S85, it is determined in a step S89 whether or not the detailed setting is related to the speed adjustment mode (“01”). If "YES" in the step S89, the setting of the speed adjustment mode is processed in a step S91. Details of the speed adjustment mode setting process in step S91 are shown in FIG. 26, which will be described later.
[0079]
If “NO” in the step S89, it is determined in a step S93 whether or not the detailed setting is related to the navigation mode (“02”). If “YES” is determined in the step S93, the setting of the navigation mode is processed in a step S95. The details of the navigation mode setting process in step S95 are shown in FIG. 27, which will also be described later.
[0080]
If “NO” in the step S93, in a succeeding step S97, a setting process for another mode according to the control information is performed, and the process returns.
[0081]
On the other hand, if “NO” in the step S83, it is determined whether or not the operation target is the user information (“02”) in a step S99, and if “YES”, the detailed setting is performed in a subsequent step S101. It is determined whether or not the name is related to the name (“01”). If “YES” in the step S101, in a step S103, the setting regarding the user name in the
[0082]
If “NO” in the step S101, it is determined whether or not the current mode (“04”) relates to the current mode (a step S105). If “YES” is determined in the step S105, in a step S107, the setting regarding the current mode of the
[0083]
If “NO” is determined in the step S105, in a succeeding step S109, the setting regarding other data of the
[0084]
On the other hand, if “NO” in the step S99, other settings corresponding to the control code are processed in a step S111, and the process returns.
[0085]
In the speed adjustment mode setting process S91 of step S91 in FIG. 25, as shown in FIG. 26, first, in step S121, it is determined whether or not the control command is an instruction to start the speed adjustment mode. If “YES” in the step S121, that is, if the data of the start
[0086]
On the other hand, if “NO” in the step S121, the processes in and after the step S127 are performed. However, these are basically processes after the start of the speed adjustment mode. A voice or the like prompting the start reading may be transmitted.
[0087]
If “YES” in the step S127, that is, if the
[0088]
If “NO” in the step S127, it is determined whether or not the speed adjustment mode is ended in a step S131. If “YES” in the step S131, that is, if the
[0089]
On the other hand, if “NO” in the step S131, it is determined in a step S135 whether or not the high speed is fixed. If “YES” in the step S135, that is, if the
[0090]
If “NO” in the step S135, it is determined in a step S139 whether or not the parallel speed is fixed. If “YES” in the step S139, that is, if the
[0091]
If “NO” in the step S139, it is determined in a step S143 whether or not the low speed is fixed. If “YES” in the step S139, that is, if the
[0092]
If “NO” in the step S143, in a succeeding step S147, setting of other data in the speed adjustment mode is processed according to the control information, and the process returns.
[0093]
In the navigation mode setting process S95 of step S95 in FIG. 25, as shown in FIG. 27, first, in step S151, it is determined whether or not the control command is a start instruction of the navigation mode. If “YES” in the step S151, that is, if the data of the
[0094]
On the other hand, if “NO” in the step S151, the processes in and after the step S159 are performed. However, these are basically processes after the navigation mode is started. A voice or the like prompting the start reading may be transmitted.
[0095]
In the step S159, it is determined whether or not the restart is made. If “YES”, that is, if the
[0096]
If “NO” in the step S159, it is determined whether or not to end in a step S163. If “YES” in the step S163, that is, if the
[0097]
On the other hand, if “NO” in the step S163, it is determined whether or not the changed language is English in a succeeding step S167. If “YES” in the step S167, that is, if the
[0098]
If “NO” in the step S167, it is determined whether or not the change language is Japanese in a step S171. If “YES” in the step S171, that is, if the
[0099]
If “NO” in the step S171, it is determined whether or not the changed language is Korean in a step S175. If “YES” in the step S175, that is, if the
[0100]
On the other hand, if “NO” in the step S175, in a succeeding step S179, other data setting in the navigation mode is processed according to the control information, and the process returns.
[0101]
Returning to FIG. 24, if “NO” in the step S45, that is, if the control information is not included in the received data, in a succeeding step S49, the object information (object ID data) is obtained from the received data. I do. Thereby, the object code is obtained, and the recognized
[0102]
In step S51, the current mode of the user is read from the
[0103]
Then, in steps S53, S55, and S57, the type of the current mode is determined, and response processing in each mode is performed.
[0104]
In step S53, it is determined whether or not the current mode is the basic response mode. If "YES", in the following step S59, the user's learning language information and level information are obtained as a reply information selection flag from the
[0105]
In a succeeding step S61, based on the selection flag and the object information (object code), the corresponding audio data is read out and acquired from the object
[0106]
On the other hand, if “NO” in the step S53, it is determined whether or not the current mode is the speed adjustment mode in a step S55. If “YES” in the step S55, a response in the speed adjustment mode is processed in a succeeding step S65. The operation of the speed adjustment mode response process S65 in step S65 is shown in FIG.
[0107]
In the first step S191 in FIG. 28, a reply information selection flag (learning language and level) is acquired from the
[0108]
Next, in step S193, the recognition history data is updated based on the acquired target object information. Specifically, in the data area shown in FIG. 15, the object ID recognized this time, the recognition history of one to nine previous times, the number of trials, and the like are updated.
[0109]
In step S195, it is determined whether or not the utterance speed is fixed. If "NO", that is, if the speed fixing flag in the data area is not set, in step S197, the target in the past ten histories is determined. The type N of the
[0110]
On the other hand, if “YES” in the step S195, that is, if the speed fixing flag is set, the adaptive coefficient is fixed to a constant and the calculation does not need to be performed, so that the process proceeds to the step S201 as it is.
[0111]
In step S201, based on the selection flag (the learning language and the level) and the object information (the object ID recognized this time), the corresponding audio data is read from the object
[0112]
In a succeeding step S203, the speech speed of the voice data is changed based on the adaptation coefficient. In this processing, the pitch (sound) of the audio data is maintained as it is, and only the speed is changed based on the adaptation coefficient. Then, in step S205, audio data as reply information is transmitted to the
[0113]
If “NO” in the step S55 of FIG. 24, it is determined in a step S57 whether or not the current mode is the navigation mode. If "YES" in the step S57, a navigation mode response is processed in a succeeding step S67. The operation of the navigation mode response process (S67, S157) in step S67 of FIG. 24 (and step S157 of FIG. 27) is shown in FIGS. 29 and 30.
[0114]
In the first step S221 in FIG. 29, it is determined whether the result R of the current recognition of the data area (FIG. 20) is the start time. If “YES” in the step S221, that is, if the navigation mode is started, the process proceeds to the next step S255 in FIG. On the other hand, if “NO” in the step S221, that is, if it is not the start time, in a succeeding step S223, the acquired object ID (object code) and the object ID set in the next checkpoint CP (Object code) is determined. That is, the success or failure of the recognition is determined.
[0115]
If “YES” in the step S223, that is, if the answer is correct, in a step S225, 1 is added to the data of the present CP (FIG. 20), and the process proceeds to the next CP. In step S227, 1 is added to the number of answers of the next CP, and in step S229, 1 (correct answer) is set to the result R of the current recognition. Thereby, the sound at the time of the correct answer is output. Then, in step S231, the current answer level CAL is initialized. Upon completion of the process in the step S231, the process proceeds to the next step S253 in FIG.
[0116]
On the other hand, if “NO” in the step S223, that is, if information other than the ID information of the instructed object is acquired, in a succeeding step S235, the recognition result R of the data area is 3 (final). Hint) is set. If “YES” in the step S233, that is, if the correct answer is not given despite answering one checkpoint CP ten times, in a step S235, 1 is added to the data of the present CP. Then, the next CP is forcibly advanced. Then, in step S237, 4 (to the next CP) is set in the recognition result R. As a result, a sound forcibly proceeding to the next CP is output. Upon completion of the process in the step S237, the process proceeds to the next step S253 in FIG.
[0117]
If “NO” in the step S233, that is, if the recognition result R of the data area is not 3 (to the final hint), 1 is added to the number of answers of the CP present in the data area in a step S239. In step S241, the current recognition result R is set to 0 (unsuitable). As a result, inappropriate sound is output.
[0118]
In a succeeding step S243, it is determined whether or not the number of answers of the current CP is larger than 3 (first predetermined number). If “YES” in the step S243, that is, if it is inappropriate even if the answer is answered four or more times, the recognition result R is set to 2 (level change) in a step S254, and the current value is set in a step S247. The answer level CAL is set to 2 (change explanation level). In this way, in this embodiment, if the answer is incorrect even after answering four times, the level is changed (lowered), that is, a sound that is an easy-to-understand hint is output. If “NO” in the step S243, that is, if the number of answers of the present CP is three or less, the process proceeds to the next step S253 in FIG.
[0119]
In step S249, it is determined whether or not the number of answers of the current CP is equal to 10 (the second predetermined number). If “YES” in the step S249, that is, if the answer is incorrect even if one CP is answered ten times, the recognition result R is set to 3 (final hint) in a step S251. As a result, a sound serving as a final hint is output. In this embodiment, as a final hint, for example, a learning language (for example, a native language) that is higher in level than the currently applied learning language of the
[0120]
If “NO” in the step S249, that is, if the number of answers of the present CP is not 10, or if the process of the step S251 is ended, the process proceeds to the step S253 in FIG.
[0121]
In step S253 of FIG. 30, it is determined whether or not the recognition result R of the data area (FIG. 20) is set to 3 (final hint). If “NO” in the step S253, that is, if the final hint is not provided, the user learning language is acquired from the data area in a step S255. As described above, when the hint is not the final hint, the voice in the learning language of the user is output.
[0122]
Next, in step S257, based on the learning language, the current CP, the recognition result R, and the current answer level CAL, the corresponding fixed form voice data is read out from the navigation mode voice information DB 76 (FIG. 21) and acquired. .
[0123]
In a succeeding step S259, based on the object information and the learning language, the corresponding object sound data is read out and acquired from the object
[0124]
Then, in step S261, based on the learning language, the current CP, the recognition result R, and the current explanation level CAL, the corresponding question voice data is read from the navigation mode voice information DB 76 (FIG. 22) and acquired.
[0125]
On the other hand, if “YES” in the step S253, that is, if the final hint is provided, the user native language is acquired from the data area in a succeeding step S263. Thus, the final hint is provided in this embodiment in audio in the user's native language.
[0126]
Next, in step S265, based on the native language, the current CP, the recognition result R, and the current answer level CAL, the corresponding standard voice data is read from the navigation mode voice DB 76 (FIG. 21) and acquired.
[0127]
In a succeeding step S267, based on the object information and the native language, the corresponding object sound data is read out from the object
[0128]
Then, in step S269, based on the native language, the present CP, the recognition result R, and the current answer level CAL, the corresponding question voice data is read and acquired from the navigation mode voice information DB 76 (FIG. 22).
[0129]
When the processing in step S261 or S269 is completed, it is determined in step S271 whether the current answer level CAL is 2. If “YES” in the step S271, that is, if the answer is not correctly answered even if the number of answers exceeds 3 in one CP and the explanation level is changed, the utterance speed of the target object voice data is changed in the step S273. Is changed to a speed as slow as this
[0130]
If “NO” is determined in the step S271, or if the process in the step S273 is ended, in a step S275, one voice data is generated by synthesizing the fixed voice data, the question voice data, and the target voice data as necessary. I do. Then, in step S277, the voice data as reply information is transmitted to the
[0131]
Returning to FIG. 24, if “NO” in the step S57, that is, if the current mode is not the navigating mode, the process of the other mode is executed in a succeeding step S69, and the process returns to the step S41.
[0132]
According to this embodiment, since the plurality of
[0133]
In addition, since audio data in a plurality of languages is prepared in association with the object identification information, a multilingual space can be easily constructed. Further, it is possible to cope with different learning languages among a plurality of users. For example, it is possible to construct a multilingual learning environment for the same space.
[0134]
In the speed adjustment mode, the utterance speed is changed in accordance with the current learning state (recognition history state) of the
[0135]
In the above-described embodiment, the
[0136]
Further, the
[0137]
Further, in each of the above-described embodiments, the
[0138]
Further, in each of the above-described embodiments, the
[0139]
Further, in each of the above-described embodiments, the sound output unit (such as the speaker 64) for outputting the sound to the
[0140]
Further, in each of the above-described embodiments, a plurality of
[0141]
Further, in each of the above-described embodiments, the
[Brief description of the drawings]
FIG. 1 is an illustrative view showing an overview of a ubiquitous learning system according to an embodiment of the present invention;
FIG. 2 is an illustrative view showing one example of a ubiquitous learning space in the embodiment in FIG. 1;
FIG. 3 is an illustrative view showing an internal configuration of an utterance tact in the embodiment in FIG. 1;
FIG. 4 is an illustrative view showing one example of a memory map of a RAM of an utterance tact;
FIG. 5 is an illustrative view showing one example of a memory map of a RAM of the server in the embodiment in FIG. 1;
FIG. 6 is an illustrative view showing one example of user information stored in a user information DB of the embodiment in FIG. 1;
FIG. 7 is an illustrative view showing one example of object sound information stored in an object sound information DB (first language) of the embodiment in FIG. 1;
FIG. 8 is an illustrative view showing one example of object sound information stored in an object sound information DB (other language) of the embodiment in FIG. 1;
FIG. 9 is an illustrative view showing one example of a user ID sheet provided with a user wireless tag;
FIG. 10 is an illustrative view showing one example of a control ID sheet provided with a control wireless tag;
FIG. 11 is an illustrative view showing one example of a structure of identification data stored and held in a wireless tag; FIG. 11A shows user ID data stored in a user wireless tag; It shows the object ID data stored in the tag, and (C) shows the control ID data stored in the control wireless tag.
FIG. 12 is an illustrative view showing one example of a data structure of a control command included in control ID data;
FIG. 13 is an illustrative view showing a state in which a clock as an object is recognized by an utterance tact and its voice is output;
FIG. 14 is an illustrative view showing one example of a control ID sheet for a speed adjustment mode;
FIG. 15 is an illustrative view showing one example of a memory map of a speed adjustment mode data storage area formed in a RAM of a server;
FIG. 16 is an illustrative view showing one example of an adaptive coefficient in a speed adjustment mode;
FIG. 17 is an illustrative view showing one example of a learning curve in a speed adjustment mode, wherein (A) shows an image of an excellent person, (B) shows an image of a standard person, and (C) Shows an image of an unfamiliar person.
FIG. 18 is an illustrative view showing one example of a course in a navigation mode;
FIG. 19 is an illustrative view showing one example of a control ID sheet for a navigation mode;
FIG. 20 is an illustrative view showing one example of a memory map of a navigation mode data storage area formed in a RAM of a server;
FIG. 21 is an illustrative view showing one example of fixed form voice information stored in the navigation mode voice information DB of the embodiment in FIG. 1;
FIG. 22 is an illustrative view showing one example of question audio information stored in a navigation mode audio information DB;
FIG. 23 is a flowchart showing an example of the operation of the utterance tact of the embodiment in FIG. 1;
FIG. 24 is a flowchart showing an example of the operation of the server of the embodiment in FIG. 1;
FIG. 25 is a flowchart showing an example of the operation of a control information setting process in the server.
FIG. 26 is a flowchart showing an example of the operation of the speed adjustment mode setting process in the server.
FIG. 27 is a flowchart showing an example of the operation of a navigation mode setting process in the server.
FIG. 28 is a flowchart showing an example of the operation of the speed adjustment mode response process in the server.
FIG. 29 is a flowchart showing a part of an operation of a navigation mode response process in the server.
FIG. 30 is a flowchart showing a sequel to FIG. 29;
FIG. 31 is an illustrative view showing a configuration of a ubiquitous learning system according to another embodiment;
FIG. 32 is an illustrative view showing a configuration of a ubiquitous learning system according to another embodiment;
FIG. 33 is an illustrative view showing a configuration of a ubiquitous learning system according to another embodiment;
FIG. 34 is an illustrative view showing a configuration of a ubiquitous learning system according to another embodiment;
[Explanation of symbols]
10. ubiquitous learning system
12 ... real space
14 ... object
16… Wireless tags for objects
18… Server (information providing device)
22 ... Speech tact (mobile terminal)
52 ... CPU
54… ROM
56… RAM
58… Operation buttons
60… Wireless tag data reader
62… Wireless communication device
64… Speaker
70: User information DB
72… Object sound information DB (first language)
74… Object sound information DB (other languages)
76… Sound information DB for navigation mode
84: User wireless tag
88… Control wireless tag
Claims (23)
前記複数の対象物には前記複数の対象物を識別するための対象物識別情報を記憶保持する複数の無線タグがそれぞれ設けられ、
前記携帯端末は、
ユーザによって操作される操作手段、
前記操作手段からの操作に応じて前記無線タグから前記対象物識別情報を取得する取得手段、および
前記取得手段によって取得した前記対象物識別情報を含む要求情報を前記情報提供装置に無線により送信する第1送信手段を含み、
前記情報提供装置は、
前記対象物識別情報ごとに関連付けられた前記対象物に関する音声情報を記憶する音声情報記憶手段、および
前記携帯端末から送信された前記要求情報に基づいて、対応する前記音声情報を前記音声情報記憶手段から読み出す音声情報読出手段を含み、
さらに、前記音声情報読出手段によって読み出された前記音声情報に基づいて音声を出力する音声出力手段を備える、ユビキタス学習システム。An ubiquitous learning system including an information providing device that provides information on a plurality of objects existing in a real space, and a mobile terminal that communicates with the information providing device via radio, and learning using the plurality of objects. And
The plurality of objects are each provided with a plurality of wireless tags that store and hold object identification information for identifying the plurality of objects,
The mobile terminal,
Operation means operated by the user,
Acquiring means for acquiring the object identification information from the wireless tag in response to an operation from the operation means, and wirelessly transmitting request information including the object identification information acquired by the acquiring means to the information providing apparatus. Including a first transmitting means,
The information providing device,
Voice information storage means for storing voice information relating to the object associated with each of the object identification information; and the voice information storage means for storing the corresponding voice information based on the request information transmitted from the portable terminal. Including voice information reading means for reading from
The ubiquitous learning system further includes audio output means for outputting audio based on the audio information read by the audio information reading means.
前記携帯端末は、前記情報提供装置から送信された前記返信情報を無線により受信する第1受信手段をさらに含み、
前記音声出力手段は、前記携帯端末に設けられていて、前記第1受信手段によって受信した前記返信情報に含まれる音声情報に基づいて音声を出力する、請求項1記載のユビキタス学習システム。The information providing apparatus further includes a second transmitting unit that transmits reply information based on the audio information read by the audio information reading unit to the mobile terminal,
The mobile terminal further includes a first receiving unit that wirelessly receives the reply information transmitted from the information providing device,
2. The ubiquitous learning system according to claim 1, wherein the audio output unit is provided in the mobile terminal, and outputs audio based on audio information included in the reply information received by the first receiving unit. 3.
さらに、前記文字情報読出手段によって読み出された前記文字情報に基づいて文字を表示する表示手段を備える、請求項1または2記載のユビキタス学習システム。The information providing device is configured to store character information relating to the object associated with each of the object identification information, and a corresponding character information based on the request information transmitted from the mobile terminal. Further comprising character information reading means for reading from the character information storage means,
3. The ubiquitous learning system according to claim 1, further comprising display means for displaying a character based on the character information read by the character information reading means.
ユーザによって操作される操作手段、
前記複数の対象物にそれぞれ設けられて前記複数の対象物を識別するための対象物識別情報を記憶保持する複数の無線タグから、前記操作手段からの操作に応じて前記対象物識別情報を取得する取得手段、および
前記取得手段によって取得した前記対象物識別情報含む要求情報を、前記情報提供装置へ無線により送信する第1送信手段を備える、携帯端末。In a ubiquitous learning system for learning using a plurality of objects existing in a real space, a mobile terminal capable of communicating via radio with an information providing apparatus for providing information on the plurality of objects,
Operation means operated by the user,
Acquiring the object identification information in response to an operation from the operation unit from a plurality of wireless tags provided on each of the plurality of objects and storing and holding the object identification information for identifying the plurality of objects. A mobile terminal comprising: an obtaining unit that performs wireless transmission of request information including the object identification information obtained by the obtaining unit to the information providing apparatus.
ユーザによって操作される操作手段、
前記複数の対象物を識別するための対象物識別情報を記憶保持して前記複数の対象物のそれぞれに設けられる複数の無線タグから、前記操作手段からの操作に応じて前記対象物識別情報を取得する取得手段、
前記取得手段によって取得した前記対象物識別情報を含む要求情報を、前記情報提供装置へ無線により送信する第1送信手段、
前記要求情報に応じて前記情報提供装置から送信された音声情報を無線により受信する第1受信手段、および
前記第1受信手段によって受信した前記音声情報に基づいて音声を出力する音声出力手段を備える、発話タクト。A portable utterance tact that communicates via radio with an information providing device that provides information on a plurality of objects existing in a real space, and outputs information on the plurality of objects by sound,
Operation means operated by the user,
The object identification information for identifying the plurality of objects is stored and retained, and the plurality of wireless tags provided for each of the plurality of objects is used to store the object identification information in accordance with an operation from the operation unit. Acquisition means for acquiring,
First transmission means for wirelessly transmitting request information including the object identification information acquired by the acquisition means to the information providing apparatus,
A first receiving unit that wirelessly receives audio information transmitted from the information providing device in response to the request information; and an audio output unit that outputs audio based on the audio information received by the first receiving unit. , Utterance tact.
前記第1送信手段によって送信される前記要求情報は、前記ユーザ情報を含む、請求項5記載の発話タクト。First storage means for storing user information including at least one of user identification information for identifying the user, language information on a language of the audio information, and level information on a level of the audio information,
The utterance tact according to claim 5, wherein the request information transmitted by the first transmission unit includes the user information.
前記第1記憶手段には、前記取得手段によって取得した前記ユーザ情報が記憶される、請求項6記載の発話タクト。The obtaining means obtains the user information from a wireless tag that stores and holds the user information,
The utterance tact according to claim 6, wherein the first storage unit stores the user information acquired by the acquisition unit.
前記第1送信手段は、前記取得手段によって取得した前記制御情報を送信する、請求項5ないし7のいずれかに記載の発話タクト。The obtaining unit obtains the control information from a wireless tag that stores and holds control information for instructing a process in the information providing device,
The utterance tact according to claim 5, wherein the first transmission unit transmits the control information acquired by the acquisition unit.
前記第1受信手段によって受信した前記文字情報に基づいて文字を表示する表示手段をさらに備える、請求項5ないし8のいずれかに記載の発話タクト。The first receiving means further receives character information together with the voice information,
The utterance tact according to any one of claims 5 to 8, further comprising a display unit that displays a character based on the character information received by the first receiving unit.
前記複数の対象物を識別するための対象物識別情報ごとに関連付けられた前記対象物に関する音声情報を記憶する音声情報記憶手段、および
端末から送信された前記対象物識別情報を含む要求情報に基づいて、対応する前記音声情報を前記音声情報記憶手段から読み出す音声情報読出手段を備える、情報提供装置。In a ubiquitous learning system for learning using a plurality of objects existing in a real space, an information providing apparatus for providing information on the plurality of objects,
Voice information storage means for storing voice information relating to the object associated with each of the plurality of object identification information for identifying the plurality of objects, and request information including the object identification information transmitted from a terminal; And an audio information reading device for reading the corresponding audio information from the audio information storage device.
前記音声情報読出手段は、前記要求情報に基づいて、対応する前記言語による音声情報を前記音声情報記憶手段から読み出す、請求項10記載の情報提供装置。The voice information storage means stores the voice information for each language pronounced in a plurality of languages,
The information providing apparatus according to claim 10, wherein the voice information reading unit reads the voice information in the corresponding language from the voice information storage unit based on the request information.
前記音声情報読出手段は、前記要求情報に基づいて、対応する前記レベルの前記音声情報を前記音声情報記憶手段から読み出す、請求項10または11記載の情報提供装置。The voice information storage means stores the voice information for each of a plurality of levels,
12. The information providing apparatus according to claim 10, wherein the voice information reading unit reads the voice information of the corresponding level from the voice information storage unit based on the request information. 13.
前記端末から送信された前記要求情報に含まれる前記ユーザ識別情報に基づいて、対応する前記ユーザ情報を前記ユーザ情報記憶手段から読み出すユーザ情報読出手段をさらに含み、
前記音声情報読出手段は、前記ユーザ情報読出手段によって読み出した前記ユーザ情報に対応する前記音声情報を読み出す、請求項10ないし12のいずれかに記載の情報提供装置。User information storage means for storing user information including at least one of language information and level information associated with each user identification information for identifying a user, and the user identification included in the request information transmitted from the terminal Based on information, further includes a user information reading unit that reads the corresponding user information from the user information storage unit,
13. The information providing apparatus according to claim 10, wherein the voice information reading unit reads the voice information corresponding to the user information read by the user information reading unit.
前記音声情報読出手段は、前記対象物の認識履歴状況に応じて、対応する前記発話速度を有する前記音声情報を前記音声情報記憶手段から読み出す、請求項10ないし13のいずれかに記載の情報提供装置。The voice information storage means stores a plurality of voice information having different utterance speeds,
14. The information providing device according to claim 10, wherein the voice information reading unit reads the voice information having the corresponding utterance speed from the voice information storage unit according to a recognition history state of the object. apparatus.
前記端末から送信された前記対象物識別情報および前記認識順序情報に基づいて、その認識の成否を判別する判別手段をさらに備え、
前記音声情報記憶手段に記憶される前記音声情報は、認識すべき前記対象物を指示する設問音声情報を含み、
前記音声情報読出手段は、前記判別手段によって前記認識が正解と判断されたとき、順序を1つ進めたその次に認識すべき対象物を指示する前記設問音声情報を読み出し、前記判別手段によって前記認識が不適と判断されたとき、現在の認識すべき対象物を指示する前記設問音声情報を読み出す、請求項10ないし15のいずれかに記載の情報提供装置。A recognition order storage unit that stores recognition order information that defines an order in which the plurality of objects are to be recognized; and, based on the object identification information and the recognition order information transmitted from the terminal, determine whether the recognition is successful. Further provided is a determining means for determining,
The voice information stored in the voice information storage means includes question voice information indicating the object to be recognized,
The voice information reading means reads out the question voice information indicating an object to be recognized next after increasing the order by one when the recognition is determined to be correct by the determination means, and The information providing apparatus according to any one of claims 10 to 15, wherein when the recognition is determined to be inappropriate, the question voice information indicating a current object to be recognized is read.
前記判別手段は、さらに、現在の認識すべき対象物に対する回答回数が第1所定数を超えたか否かを判断し、
前記音声情報読出手段は、前記判別手段によって前記回答回数が前記第1所定数を超えたと判断されたとき、それまでよりも分かり易い前記説明レベルの前記設問音声情報を読み出す、請求項16記載の情報提供装置。In the voice information storage means, the question voice information for each of a plurality of explanation levels is stored,
The determining means further determines whether or not the number of responses to the current object to be recognized exceeds a first predetermined number,
17. The question sound information according to claim 16, wherein the sound information reading means reads the question sound information at the explanation level which is easier to understand than when the judgment means judges that the number of answers has exceeded the first predetermined number. Information providing device.
前記音声情報読出手段は、前記判別手段によって前記回答回数が前記第2所定数になったと判断されたとき、それまでよりもユーザの理解度の高い前記言語による前記設問音声情報を読み出す、請求項16または17記載の情報提供装置。The voice information storage means stores the question voice information for each of a plurality of languages, and the determination means further determines whether or not the number of answers to the current object to be recognized has reached a second predetermined number. And
The said audio | voice information reading means reads the said question audio | voice information in the said language whose user's understanding level is higher than before, when it is judged by the said identification means that the said answer frequency became the said 2nd predetermined number. 16. The information providing device according to 16 or 17.
前記端末から送信された前記要求情報に基づいて、対応する前記文字情報を前記文字情報記憶手段から読み出す文字情報読出手段をさらに備える、請求項10ないし18のいずれかに記載の情報提供装置。From the character information storage unit, based on the request information transmitted from the terminal, based on the character information storage unit that stores character information related to the object associated with each of the object identification information, 19. The information providing apparatus according to claim 10, further comprising a character information reading unit for reading.
前記携帯端末を、
前記複数の対象物にそれぞれ設けられて前記複数の対象物を識別するための対象物識別情報を記憶保持する複数の無線タグから前記対象物識別情報を取得する取得手段、および
前記取得手段によって取得した前記対象物識別情報含む要求情報を前記情報提供装置へ無線により送信する第1送信手段として機能させる、携帯端末のプログラム。In a ubiquitous learning system for learning using a plurality of objects existing in a real space, a program to be executed by a portable terminal communicable via radio with an information providing device for providing information on the plurality of objects. hand,
The mobile terminal,
An acquisition unit that acquires the object identification information from a plurality of wireless tags that are provided on the plurality of objects and that store and retain the object identification information for identifying the plurality of objects, and acquired by the acquisition unit; A program for a portable terminal, which functions as a first transmission unit that wirelessly transmits the requested information including the object identification information to the information providing apparatus.
前記発話タクトを、
前記複数の対象物を識別するための対象物識別情報を記憶保持して前記複数の対象物のそれぞれに設けられる複数の無線タグから前記対象物識別情報を取得する取得手段、
前記取得手段によって取得した前記対象物識別情報を含む要求情報を前記情報提供装置へ無線により送信する第1送信手段、
前記要求情報に応じて前記情報提供装置から送信された音声情報を無線により受信する第1受信手段、および
前記第1受信手段によって受信した前記音声情報に基づいて音声を出力する音声出力手段として機能させる、発話タクトのプログラム。A program that communicates via radio with an information providing device that provides information on a plurality of objects existing in a real space, and causes a portable utterance tact to output the information on the plurality of objects by sound,
The utterance tact is
Acquisition means for storing and retaining the object identification information for identifying the plurality of objects and acquiring the object identification information from a plurality of wireless tags provided for each of the plurality of objects,
First transmitting means for wirelessly transmitting request information including the object identification information acquired by the acquiring means to the information providing apparatus,
Functioning as first receiving means for wirelessly receiving audio information transmitted from the information providing apparatus in response to the request information, and audio output means for outputting audio based on the audio information received by the first receiving means Let the utterance tact program.
前記情報提供装置を、
端末から送信された前記対象物識別情報を含む要求情報に基づいて、対応する前記音声情報を前記音声情報記憶手段から読み出す音声情報読出手段、および前記音声情報読出手段によって読み出された前記音声情報に基づいた情報を、音声出力手段へ提供する提供手段として機能させる、情報提供装置のプログラム。In a ubiquitous learning system for learning using a plurality of objects existing in a real space, a voice storing sound information on the objects associated with each object identification information for identifying the plurality of objects. A program that includes an information storage unit and is executed by an information providing apparatus that provides information on the plurality of objects,
The information providing device,
Voice information reading means for reading the corresponding voice information from the voice information storage means based on the request information including the object identification information transmitted from the terminal, and the voice information read by the voice information reading means A program for an information providing apparatus, which causes information based on the information to function as providing means for providing the information to an audio output means.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003080959A JP2004287229A (en) | 2003-03-24 | 2003-03-24 | Ubiquitous learning system, portable terminal, speech tact and information providing device, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003080959A JP2004287229A (en) | 2003-03-24 | 2003-03-24 | Ubiquitous learning system, portable terminal, speech tact and information providing device, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2004287229A true JP2004287229A (en) | 2004-10-14 |
Family
ID=33294669
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003080959A Pending JP2004287229A (en) | 2003-03-24 | 2003-03-24 | Ubiquitous learning system, portable terminal, speech tact and information providing device, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2004287229A (en) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008185994A (en) * | 2007-01-31 | 2008-08-14 | Initus Co Ltd | Sound reproduction system |
CN101853589A (en) * | 2010-05-16 | 2010-10-06 | 冯德强 | Electronic point-reading pointer |
JP4831792B2 (en) * | 2009-06-05 | 2011-12-07 | 禎一 笠原 | Foreign language learning device |
KR101158091B1 (en) * | 2005-08-24 | 2012-06-22 | 주식회사 케이티 | RFID tag, study device and System and Method for language education using these |
KR101234858B1 (en) | 2011-01-10 | 2013-02-22 | 한국과학기술원 | Interactive teaching machine for learning words |
JP2014006633A (en) * | 2012-06-22 | 2014-01-16 | Obic Co Ltd | Language switching device, language switching method and language switching program |
JP2016081548A (en) * | 2014-10-16 | 2016-05-16 | ヤマハ株式会社 | Terminal device |
JP2018160309A (en) * | 2018-07-18 | 2018-10-11 | ヤマハ株式会社 | Terminal device and program |
JP2019187723A (en) * | 2018-04-24 | 2019-10-31 | 積水ハウス株式会社 | Dwelling environment sensory facility |
-
2003
- 2003-03-24 JP JP2003080959A patent/JP2004287229A/en active Pending
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101158091B1 (en) * | 2005-08-24 | 2012-06-22 | 주식회사 케이티 | RFID tag, study device and System and Method for language education using these |
JP2008185994A (en) * | 2007-01-31 | 2008-08-14 | Initus Co Ltd | Sound reproduction system |
JP4831792B2 (en) * | 2009-06-05 | 2011-12-07 | 禎一 笠原 | Foreign language learning device |
CN101853589A (en) * | 2010-05-16 | 2010-10-06 | 冯德强 | Electronic point-reading pointer |
KR101234858B1 (en) | 2011-01-10 | 2013-02-22 | 한국과학기술원 | Interactive teaching machine for learning words |
JP2014006633A (en) * | 2012-06-22 | 2014-01-16 | Obic Co Ltd | Language switching device, language switching method and language switching program |
JP2016081548A (en) * | 2014-10-16 | 2016-05-16 | ヤマハ株式会社 | Terminal device |
JP2019187723A (en) * | 2018-04-24 | 2019-10-31 | 積水ハウス株式会社 | Dwelling environment sensory facility |
JP7198411B2 (en) | 2018-04-24 | 2023-01-04 | 積水ハウス株式会社 | Living environment experience facility |
JP2018160309A (en) * | 2018-07-18 | 2018-10-11 | ヤマハ株式会社 | Terminal device and program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20210104232A1 (en) | Electronic device for processing user utterance and method of operating same | |
JP4037081B2 (en) | Information selection apparatus and method, information selection reproduction apparatus, and computer program for information selection | |
CN111433736A (en) | Machine control system, machine control method, and program | |
US10599469B2 (en) | Methods to present the context of virtual assistant conversation | |
CN107370649A (en) | Household electric appliance control method, system, control terminal and storage medium | |
KR20190021143A (en) | Voice data processing method and electronic device supporting the same | |
EP1450349A1 (en) | In-vehicle controller and program for instructing computer to execute operation instruction method | |
JP3500383B1 (en) | GAME DEVICE, GAME DEVICE CONTROL METHOD, AND PROGRAM | |
CN104488027A (en) | Speech processing system and terminal device | |
JP2000123013A (en) | Electronic conversation device, conversation expression collecting method and conversation promoting method | |
US20040189697A1 (en) | Dialog control system and method | |
JP2004287229A (en) | Ubiquitous learning system, portable terminal, speech tact and information providing device, and program | |
KR101789057B1 (en) | Automatic audio book system for blind people and operation method thereof | |
JP7077375B2 (en) | Response system | |
JP6231205B2 (en) | Output message determination device and output message determination device control method | |
CN111429917A (en) | Equipment awakening method and terminal equipment | |
KR101406983B1 (en) | System, server and user terminal for text to speech using text recognition | |
JP2001022370A (en) | Voice guidance device | |
CN108897508B (en) | Voice question searching method based on split screen display and family education equipment | |
WO2005038683A1 (en) | Language education system, language education method and language education program recorded media based on corpus retrieval system, which use the functions of questions and answers | |
CN111145734A (en) | Voice recognition method and electronic equipment | |
CN101840640B (en) | Interactive voice response system and method | |
US20210249018A1 (en) | Method and apparatus for providing voice assistant service | |
WO2020149031A1 (en) | Response processing device and response processing method | |
CN107767851B (en) | Song playing method and mobile terminal |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20050705 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20050719 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20050920 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20051108 |