JP7279310B2 - 電子機器、学習支援装置、学習支援システム、電子機器の制御方法、学習支援装置の制御方法、電子機器の制御プログラム及び学習支援装置の制御プログラム - Google Patents

電子機器、学習支援装置、学習支援システム、電子機器の制御方法、学習支援装置の制御方法、電子機器の制御プログラム及び学習支援装置の制御プログラム Download PDF

Info

Publication number
JP7279310B2
JP7279310B2 JP2018134045A JP2018134045A JP7279310B2 JP 7279310 B2 JP7279310 B2 JP 7279310B2 JP 2018134045 A JP2018134045 A JP 2018134045A JP 2018134045 A JP2018134045 A JP 2018134045A JP 7279310 B2 JP7279310 B2 JP 7279310B2
Authority
JP
Japan
Prior art keywords
learning support
output
voice
user
support device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018134045A
Other languages
English (en)
Other versions
JP2020012931A5 (ja
JP2020012931A (ja
Inventor
誠 北地
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2018134045A priority Critical patent/JP7279310B2/ja
Publication of JP2020012931A publication Critical patent/JP2020012931A/ja
Publication of JP2020012931A5 publication Critical patent/JP2020012931A5/ja
Application granted granted Critical
Publication of JP7279310B2 publication Critical patent/JP7279310B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Electrically Operated Instructional Devices (AREA)

Description

本発明は、電子機器、学習支援装置、学習支援システム、電子機器の制御方法、学習支援装置の制御方法、電子機器の制御プログラム及び学習支援装置の制御プログラムに関する。
ユーザと対話しながら英会話のレッスンなどの学習を行うための電子機器(学習支援装置)が知られている。例えば、特許文献1には、MP3等の音声圧縮方法等により予め作成した種々の会話データを用いて、対話式の会話を行うことができる装置に係る技術が開示されている。複数の学習支援装置が連携できれば、システム全体として動作の可能性が広がる。
特開2013-020030号公報
本発明は、複数の学習支援装置を連携させることができる電子機器、学習支援装置、学習支援システム、電子機器の制御方法、学習支援装置の制御方法、電子機器の制御プログラム及び学習支援装置の制御プログラムを得ることを目的とする。
本発明の一態様によれば、他の機器と連携してユーザに第1機能を提供する電子機器は、前記第1機能に係る情報をユーザに向けた音声として出力する出力手段と、前記第1機能に係る前記他の機器の連携を制御する場合に、前記出力手段が出力する前記ユーザに向けた音声に対して前記他の機器に向けた指示情報を音声透かしとして埋め込む埋込処理を行う制御手段とを備え、前記制御手段は、前記第1機能に係る連携を行う前記他の機器が存在するか否かを判断し、前記第1機能に係る連携を行う前記他の機器が存在すると判断された場合には、前記埋込処理を行うことで前記他の機器と連携して前記第1機能をユーザに提供し、前記第1機能に係る連携を行う前記他の機器が存在しないと判断された場合には、前記埋込処理を行わず、前記他の機器と連携せずに前記第1機能をユーザに提供するように制御する。
本発明によれば、複数の学習支援装置が連携できる。
図1は、学習支援装置の構成例の概略を示す図である。 図2は、学習支援システムが用いられている場面を模式的に示す図である。 図3Aは、第1の実施形態に係る学習支援システムによる英会話学習の進行の一例を示す図である。 図3Bは、第1の実施形態に係る学習支援システムによる英会話学習の進行の一例を示す図である。 図4は、第1の実施形態に係る学習支援装置の動作例の概要を示すフローチャートである。 図5は、第1の実施形態に係る学習支援装置の開始処理の一例の概要を示すフローチャートである。 図6は、第1の実施形態に係る学習支援装置の複数台処理の一例の概要を示すフローチャートである。 図7は、第2の実施形態に係る第1の装置の動作例の概要を示すフローチャートである。 図8は、第2の実施形態に係る第2の装置の動作例の概要を示すフローチャートである。 図9Aは、第2の実施形態に係る学習支援システムによる英会話学習の進行の一例を示す図である。 図9Bは、第2の実施形態に係る学習支援システムによる英会話学習の進行の一例を示す図である。
[第1の実施形態]
本発明の第1の実施形態について図面を参照して説明する。本実施形態は、複数の学習支援装置を有する学習支援システムに関する。学習支援装置は、ユーザと対話しながらユーザの英語学習を支援する。複数の学習支援装置は、音声透かしに係わる技術を用いて、互いに通信する。
〈学習支援システムの構成〉
図1は、第1の学習支援装置10と第2の学習支援装置20との2台の学習支援装置を含む学習支援システム1を示す。本実施形態では、第1の学習支援装置10と第2の学習支援装置20とは、同等の機能を有する。第1の学習支援装置10を例に挙げて、その構成について説明する。
第1の学習支援装置10は、バスライン19を介して互いに接続されたプロセッサ(制御手段)11と、read only memory(ROM)12と、random access memory(RAM)13と、ストレージ14と、マイク(取得手段)15と、スピーカー(出力手段)16と、入力装置17と、LED18とを備える。
プロセッサ11は、Central Processing Unit(CPU)、Application Specific Integrated Circuit(ASIC)、又はField Programmable Gate Array(FPGA)といった集積回路を含む。プロセッサ11は、1つの集積回路等で構成されてもよいし、複数の集積回路等が組み合わされて構成されてもよい。プロセッサ11の動作は、ROM12又はストレージ14等に記録されたプログラムに従って行われる。
プロセッサ11は、第1の学習支援装置10の動作の制御、各種信号処理等を行う。ROM12は、起動プログラム等を記録している。RAM13は、プロセッサ11の主記憶装置として機能する。ストレージ14には、フラッシュメモリといった半導体メモリが用いられ得る。ストレージ14は、これに限らず各種記憶装置に置換され得る。ストレージ14には、プロセッサ11で用いられるプログラム、パラメータ等各種情報が記録されている。
マイク15は、ユーザが発した声を捉えて音声信号を生成する。なお、マイク15は、後述のように、伝達情報を取得するように構成されたものである。スピーカー16は、ユーザに伝える音声(少なくとも音声を含む伝達情報)を発生する。入力装置17は、ボタンスイッチ、タッチパネルといった各種入力装置を含む。LED18は、ユーザに視覚的に情報を伝えるためのランプである。
以下の説明では、第1の学習支援装置10と第2の学習支援装置20とを区別せずに、その構成要素を、プロセッサ11、ROM12、RAM13、ストレージ14、マイク15、スピーカー16、入力装置17、LED18、バスライン19などと称することにする。
〈学習支援システムの動作の概要〉
図2は、学習支援システム1が用いられている場面を模式的に示す。図2には、小型のロボットを模した形状を有する第1の学習支援装置10及び第2の学習支援装置20の例が示されている。ユーザ90は、2台の学習支援装置と会話をしながら、英会話を学ぶ。本実施形態では、第1の学習支援装置10と第2の学習支援装置20とは、ユーザに向けて発した音声に、いわゆる音声透かしとして埋め込まれた音声信号を用いて情報を交換する。ここで交換される情報は、第1の学習支援装置10と第2の学習支援装置20とが協働するための情報である。
図2には、第1の学習支援装置10が「Good morning!」という音声をスピーカー16から出力している例を示している。第1の学習支援装置10は、この音声に対して音声透かしに係わる信号処理を施し、この音声に「挨拶をせよ」という信号を埋め込む。音声透かしに係わる音声は、人間であるユーザ90には認識できない。一方で、第2の学習支援装置20は、マイクで〈挨拶をせよ〉という音声信号が埋め込まれた「Good morning!」という音声を捉える。第2の学習支援装置20は、捉えた音声(伝達情報)を解析して〈挨拶をせよ〉という情報を取得する。第2の学習支援装置20は、この情報に基づいて、次は挨拶に関する音声出力を行えばよいと認識し、次の動作を決定する。
音声透かしで情報を音声に埋め込むには、種々の方法が用いられ得る。例えば、周波数領域に信号を変換する周期的位相変調法などといった方法、周波数領域に信号を変換しないエコー拡散法などといった方法など、種々の方法が知られているが、何れの方法が用いられてもよい。
本実施形態では、学習支援システム1は、何台の学習支援装置を含んでいてもよい。学習支援システム1を構成する各学習支援装置は、それぞれ同等の機能を有している。本実施形態では、各学習支援装置は、初めにお互いに割り当てられたID番号の情報を音声透かしを用いて交換する。このID番号を用いて各学習支援装置は、学習支援システム1が何台の学習支援装置を含んでいるかを認識する。また、各学習支援装置のうちID番号が小さい学習支援装置から会話を開始する。各学習支援装置は、会話に用いる様々な文章のデータを含むデータベースを記憶している。各文章には、文章番号が付されている。
〈英会話学習の進行例〉
図3A及び図3Bは、第1の学習支援装置10と第2の学習支援装置20との2台の学習支援装置を含む学習支援システム1による英会話学習の進行の一例を示す。ユーザの名前はTaroといい、この名前は、第1の学習支援装置10と第2の学習支援装置20とに予め登録されているものとする。第1の学習支援装置10と第2の学習支援装置20とには、それぞれ「A」及び「B」とニックネームがつけられているものとする。括弧[]内の数字は、文章番号を示す。括弧[]に続いて記されている文章は、学習支援システムから出力される音声の内容を示す。括弧()内に記されている文章は、前記学習支援システムから出力される音声に対して音声透かしで埋め込まれる情報の内容を示す。表の1列目に示した番号を括弧〈〉内に記す。
図3Aの例では、〈1〉ユーザが「Hello.」と発声することをきっかけに、第1の学習支援装置10と第2の学習支援装置20とが動作を開始する。〈2〉第1の学習支援装置10は、文章番号[3]の「Hi, Taro.」という音声に、自身のID番号が「0001」であることを示す情報を埋め込んだ音声を出力する。〈2〉第2の学習支援装置20は、文章番号[5]の「Hello, Taro.」という音声に、自身のID番号が「0002」であることを示す情報を埋め込んだ音声を出力する。
なお、ユーザが「Taro」であることは、予め登録されている。また、複数のユーザの名前が声紋など声の特徴と共に登録されており、声の特徴に応じてユーザが識別されてもよい。
第1の学習支援装置10は、第2の学習支援装置20が出力した音声を取得して、当該音声(伝達情報。以下、同様。)を解析する。第1の学習支援装置10は、解析された音声透かしに基づいて、IDが「0002」である学習支援装置が周囲に存在することを認識する。第1の学習支援装置10は、自機のID番号の方が小さいので、自機から会話を開始すると決定する。
第2の学習支援装置20は、第1の学習支援装置10が出力した音声を取得して、当該音声(伝達情報。以下、同様。)を解析する。第2の学習支援装置20は、解析された音声透かしに基づいて、IDが「0001」である学習支援装置が周囲に存在することを認識する。第2の学習支援装置20は、自機のID番号の方が大きいので、ID番号が小さい第1の学習支援装置10から会話を開始するはずであり、自機は待機することを決定する。
本実施形態では、学習する会話の大筋が学習支援装置のストレージ14に多数用意されている。学習支援装置は、これらの会話の大筋の中から、学習の進捗状況等に応じて1つを選択する。
〈3〉第1の学習支援装置10は、文章番号[15]の「Let's start the lesson today.」という音声に、「待機せよ」という第2の学習支援装置20向けの指示情報を埋め込んだ音声を出力する。
ユーザは、第1の学習支援装置10が出力した音声を聞き取って、レッスンが始まることを認識する。
第2の学習支援装置20は、第1の学習支援装置10が出力した音声を取得して、当該音声を解析する。第2の学習支援装置20は、解析された音声透かしに基づいて、引き続き待機すべきであると判断する。
〈4〉第1の学習支援装置10は、文章番号[22]の「He is my student.」という音声に、「[32]-[41]の何れかを発声せよ」という第2の学習支援装置20向けの指示情報を埋め込んだ音声を出力する。第1の学習支援装置10は、次に第2の学習支援装置20が音声を出力するように指示を出しているので、指示があるまで待機することを決める。
ユーザは、第1の学習支援装置10が出力した音声を聞き取る。
第2の学習支援装置20は、第1の学習支援装置10が出力した音声を取得して、当該音声を解析する。第2の学習支援装置20は、解析された音声透かしに基づいて、次に、[32]-[41]の何れかの文章を選択して音声出力するべきであると判断する。第2の学習支援装置20は、文章番号[33]を選択して、会話のストーリーを構築する。
〈5〉第2の学習支援装置20は、文章番号[33]の「Hello. My name is B.」という音声に、「待機せよ」という第1の学習支援装置10向けの指示情報を埋め込んだ音声を出力する。このとき、第2の学習支援装置20は、次に出力する文章も決めている。
ユーザは、第2の学習支援装置20が出力した音声を聞き取る。
第1の学習支援装置10は、第2の学習支援装置20が出力した音声を取得して、当該音声を解析する。第1の学習支援装置10は、解析された音声透かしに基づいて、引き続き待機すべきであると判断する。
〈6〉第2の学習支援装置20は、文章番号[48]の「We are classmates.」という音声に、「ユーザの発声後、[62]-[68]の何れかを発声せよ」という第1の学習支援装置10向けの指示情報を埋め込んだ音声を出力する。第2の学習支援装置20は、次に第1の学習支援装置10から指示があるまで待機することを決める。
ユーザは、第2の学習支援装置20が出力した音声を聞き取る。
第1の学習支援装置10は、第2の学習支援装置20が出力した音声を取得して、当該音声を解析する。第1の学習支援装置10は、解析された音声透かしに基づいて、ユーザの発声を待つべきであると判断する。
〈7〉ユーザは、第1の学習支援装置10も第2の学習支援装置20も音声を出力せず、自身が話す機会だと認識する。ユーザは、「Nice to meet you.」と発声する。
〈8〉第1の学習支援装置10は、このユーザの発声を捉えて、次に出力する文章を文章番号[63]と決定し、その音声を出力する。この際、第2の学習支援装置20に向けた指示を音声透かしで埋め込む。
以上のようにして、学習は進行していく。本実施形態では、文章の選択肢が2つ以上用意されている場面がある。このため、学習中の会話が変化し得る。図3Bに示す進行と図3Aに示す進行とを比較する。〈4〉において、第1の学習支援装置10が、文章番号[22]の「He is my student.」という音声に、「[32]-[41]の何れかを発声せよ」という第2の学習支援装置20向けの指示情報を埋め込んだ音声を出力するところまでは、図3Bに示す場合と図3Aに示す場合とは同様である。ただし、図3Bでは、〈2〉において、第1の学習支援装置10が文章番号[5]の「Hello, Taro.」という音声を出力し、第2の学習支援装置20が文章番号[3]の「Hi, Taro.」という音声を出力する点が図3Aと異なる。図3Aに示す場合では、〈5〉第2の学習支援装置20が文章番号[33]を選択しているのに対して、図3Bに示す場合では、〈5〉第2の学習支援装置20は、文章番号[37]を選択している。すなわち、第2の学習支援装置20は、文章番号[37]を選択して、会話のストーリーを構築する。
〈5〉第2の学習支援装置20は、文章番号[37]の「Oh, my new classmate.」という音声に、「待機せよ」という第1の学習支援装置10向けの指示情報を埋め込んだ音声を出力する。このとき、第2の学習支援装置20は、次に出力する文章も決めている。
ユーザは、第2の学習支援装置20が出力した音声を聞き取る。
第1の学習支援装置10は、第2の学習支援装置20が出力した音声を取得して、当該音声を解析する。第1の学習支援装置10は、解析された音声透かしに基づいて、引き続き待機すべきであると判断する。
〈6〉第2の学習支援装置20は、文章番号[52]の「What's your family name?」という音声に、「ユーザの発声後、待機せよ」という第1の学習支援装置10向けの指示情報を埋め込んだ音声を出力する。第2の学習支援装置20は、次にユーザ発声後にも、自機が音声を出力することを決める。
ユーザは、第2の学習支援装置20が出力した音声を聞き取る。
第1の学習支援装置10は、第2の学習支援装置20が出力した音声を取得して、当該音声を解析する。第1の学習支援装置10は、解析された音声透かしに基づいて、ユーザの発声と、その後の第2の学習支援装置20の音声出力を待つべきであると判断する。
〈7〉ユーザは、第2の学習支援装置20が出力した質問に対して答える。ユーザは、「My family name is Sato.」と発声する。
〈8〉第2の学習支援装置20は、このユーザの発声を捉えて、次に出力する文章を文章番号[68]と決定する。第2の学習支援装置20は、文章番号[68]の「Where are you from?」という音声に、「ユーザの発声後、[70]-[76]の何れかを発声せよ」という第1の学習支援装置10向けの指示情報を埋め込んだ音声を出力する。第2の学習支援装置20は、次に第1の学習支援装置10から指示があるまで待機することを決める。
ユーザは、第2の学習支援装置20が出力した音声を聞き取る。
第1の学習支援装置10は、第2の学習支援装置20が出力した音声を取得して、当該音声を解析する。第1の学習支援装置10は、解析された音声透かしに基づいて、ユーザの発声を待つべきであると判断する。
〈9〉ユーザは、第2の学習支援装置20が出力した質問に対して答える。ユーザは、「I'm from Tokyo.」と発声する。
〈10〉第1の学習支援装置10は、このユーザの発声を捉えて、次に出力する文章を文章番号[71]と決定し、その音声を出力する。この際、第2の学習支援装置20に向けての指示を音声透かしで埋め込む。
以上のようにして、学習は進行していく。図3Aに示す場合と図3Bに示す場合との違いのように、文章の選択によって、学習の進行は変化し得る。このため、ユーザも飽きることなく学習を継続することができ、また、様々な場面を学習することができる。このような文章の選択は、ランダムに行われてもよいし、学習の繰り返し回数に応じて行われてもよいし、学習している季節、曜日、時間帯等に応じて行われてもよいし、その他に応じて行われてもよい。
〈学習支援装置の動作〉
本実施形態に係る学習支援装置の動作について、図4に示すフローチャートを参照して説明する。
ステップS101において、学習支援装置は、開始処理を行う。開始処理は、学習の開始時の音声出力に自機のID番号を音声透かしで埋め込み、学習支援システム1を構成する学習支援装置の台数を決定する処理である。また、開始処理は、いずれの装置から音声出力を開始するかを決定する処理である。
ステップS102において、学習支援装置は、学習支援システム1を構成する学習支援装置は1台であるか否かを判定する。学習支援装置が1台であると判定されたとき、処理はステップS103に進む。ステップS103において、学習支援装置は、1台処理を行う。1台処理は、1台の学習支援装置で学習を進行していく処理である。1台の学習支援装置しか存在していないので、音声透かしを使った通信は行わない。1台処理では、学習支援装置は、ユーザと1対1の会話で学習を進める。
ステップS102において、学習支援システム1を構成する学習支援装置は2台以上であると判定されたとき、処理はステップS104に進む。ステップS104において、学習支援装置は、複数台処理を行う。複数台処理は、複数台の学習支援装置で学習を進行していく処理である。複数台処理では、学習支援装置は、ユーザを含めた多数の登場人物の会話で学習を進める。複数の学習支援装置は、互いに音声透かしを用いて通信を行う。
開始処理について図5に示すフローチャートを参照して説明する。
ステップS201において、学習支援装置は、開始時の音声を決定する。例えば、図3Aに示す例では、第1の学習支援装置10は文章番号[3]の文章を選択し、第2の学習支援装置20は文章番号[5]の文章を選択する。ステップS202において、学習支援装置は、ステップS201で選択した文章の音声に対して、音声透かしで自機のIDを埋め込む。例えば、図3Aに示す例では、第1の学習支援装置10は、文章番号[3]の音声に「0001」という自機のIDを埋め込み、第2の学習支援装置20は、文章番号[5]の音声に、「0002」という自機のIDを埋め込む。ステップS203において、学習支援装置は、音声透かしを埋め込んだ音声をスピーカー16から出力する。
ステップS201乃至ステップS203の処理と並行して、ステップS204乃至ステップS205の処理が行われる。ステップS204において、学習支援装置は、マイク15を用いて音声を取得する。ステップS205において、学習支援装置は、取得した音声に対して、音声透かしに含まれている内容を抽出する解析を行う。この解析結果に基づいて、学習支援装置は、音声透かしに含まれている内容を確認することができる。
ステップS206において、学習支援装置は、周囲に存在する学習支援装置の台数と、他の学習支援装置のIDとを特定する。ステップS207において、学習支援装置は、現在の学習環境に存在する学習支援装置が自機を含めて1台か否かを判定する。ここでは、例えば、開始処理が実行開始されてから所定時間内に学習支援装置が他の学習支援装置からの音声(音声透かしによるID番号の情報を含む音声)を取得したか否かにより判定する。学習支援装置が1台であるとき、ステップS208において、学習支援装置は、現在の学習環境に存在する学習支援装置の台数を1台に設定する。以上で開始処理を終了する。このとき、ステップS103で1台処理が行われる。
ステップS207において、学習支援装置が1台でないと判定されたとき、処理はステップS209に進む。ステップS209において、学習支援装置は、ステップS206で特定された周囲の学習支援装置のIDと自機のIDとを比較して、自機が1台目であるか否かを判定する。自機のID番号が他機のID番号よりも小さいとき、自機が1台目であると判定する。自機が1台目であるとき、処理はステップS210に進む。
ステップS210において、学習支援装置は、現在の学習環境に存在する学習支援装置の台数をステップS206で特定した台数に設定する。また、学習支援装置は、自機が会話を開始すべき1台目の学習支援装置であると設定する。以上で開始処理を終了する。
ステップS209において、自機が1台目でないと判定されたとき、処理はステップS211に進む。ステップS211において、学習支援装置は、現在の学習環境に存在する学習支援装置の台数をステップS206で特定した台数に設定する。また、学習支援装置は、自機は会話を開始すべき1台目の学習支援装置ではないと設定する。以上で開始処理を終了する。
ステップS104で行われる複数台処理について図6に示すフローチャートを参照して説明する。この処理は、上述の開始処理で学習支援システム1に含まれる学習支援装置が複数台であると判定されたときに行われる処理である。
ステップS301において、学習支援装置は、自機が1台目であるか否かを判定する。自機が1台目であるとき、処理はステップS302に進む。ステップS302において、学習支援装置は、これから行う学習の内容をストレージ14に用意された中から選択する。
ステップS303において、学習支援装置は、音声出力する文章を選択する。ステップS304において、学習支援装置は、他機に伝えるべき情報を決定し、当該情報を音声透かしとして、ステップS303で選択した文章に埋め込む信号処理を行う。このようにして、音声透かしで他機宛のメッセージが埋め込まれた文章の音声データが作成される。ステップS305において、学習支援装置は、ステップS304で作成された音声データに基づいて、スピーカー16から音声を出力する。この出力される音声は、ユーザに聞こえる学習に係る音声と、ユーザに聞こえない音声透かしとして埋め込まれた他の学習支援装置宛のメッセージとを含む。
ステップS306において、学習支援装置は、次の音声出力も自機であるか否かを判定する。次も自機が音声出力を行うとき、処理はステップS303に戻る。すなわち、ステップS303乃至ステップS305の処理を繰り返して、音声透かしが埋め込まれた音声を出力する。ステップS306において、次に音声出力するのが自機でないと判定されたとき、処理はステップS307に進む。
ステップS307において、学習支援装置は、次に発声するのがユーザであるか他機であるかを判定する。次に発声するのが他機であると判定されたとき、処理はステップS308に進む。また、ステップS301の判定において、自機が1台目でないと判定されたときも、次に発声するのが1台目である他機であるので、処理はステップS308に進む。
ステップS308において、学習支援装置は、他機が出力した音声をマイク15を用いて取得する。ステップS309において、学習支援装置は、他機が出力した音声を解析し、当該音声に埋め込まれた音声透かしに含まれる情報を抽出する。学習支援装置は、得られた情報を認識する。
ステップS310において、学習支援装置は、次に発声するのが自機であるか、他機であるか、ユーザであるかを判定する。次に発声するのが何れであるかは、音声透かしに埋め込まれた情報によって特定され得る。例えば、自機が1台目ではない場合であって、指示が図3Aの〈3〉の「待機せよ」のときには、次に発声するのが、他機であると分かる。また例えば、自機が1台目ではない場合であって、指示が図3Aの〈4〉の「[32]-[41]の何れかを発声せよ」のときには、次に発声すべきが自機であると分かる。また、この場合、次に出力する音声の内容も、音声透かしに埋め込まれている。例えば、自機が1台目である場合であって、指示が図3Bの〈6〉の「ユーザの発声後、待機せよ」のときには、次に発声するのがユーザであると分かる。
ステップS310において、次に発声すべきが自機であると判定されたとき、処理はステップS303に戻る。すなわち、上述したようにステップS303乃至ステップS305で、文章を選択し、音声透かしを埋め込んで、音声を出力する。
ステップS310において、次に発声すべきが他機であると判定されたとき、処理はステップS308に戻る。すなわち、ステップS308及びステップS309で、音声を取得して、音声透かしを認識する。
ステップS310において、次に発声すべきがユーザであると判定されたとき、処理はステップS311に進む。ステップS311において、学習支援装置は、マイク15を用いて音声を取得する。ステップS312において、学習支援装置は、取得した音声を解析する。
ステップS313において、学習支援装置は、ステップS312の解析結果に基づいて、次に発声するのもユーザであるか否かを判定する。例えば、ユーザが話し終わっていないとき、処理は次に発声するのもユーザであると判定される。次に発声するのもユーザであると判定されたとき、処理はステップS311に戻る。すなわち、ステップS311及びステップS312で、ユーザの声を取得して解析する。
ステップS313において、次に発声するのがユーザでないと判定されたとき、処理はステップS314に進む。ステップS314において、学習支援装置は、次に発声すべきが自機であるか他機であるかを判定する。次に発声するのが自機であると判定されたとき、処理はステップS303に戻る。一方、次に発声するのが他機であると判定されたとき、処理はステップS308に戻る。
以上のように、本実施形態に係る学習支援装置は、開始処理において、音声透かしを使って、現在の学習環境に存在する学習支援装置の台数を認識できる。また、学習支援装置は、開始処理において、複数の学習支援装置が存在するとき、何れの学習支援装置から学習を開始するかを決定することができる。上述の例では、最も小さいID番号を有する学習支援装置から開始することとしている。しかしながらこれに限らない。予め定められた各種規則に従って、開始する学習支援装置は決定され得る。
学習が開始すると、複数台処理において、音声を出力する学習支援装置が、次の動作に関する情報を、音声透かしを用いて出力する音声に埋め込んで出力する。この情報に基づいて、学習支援システム1に含まれる学習支援装置の各々が、次の動作に関する情報を共有することができる。共有した情報に基づいて学習支援装置の各々が動作するので、複数台の学習支援装置が連携して動作することができる。このようにして、学習支援装置同士の会話を模擬することもできる。また、音声透かしを用いることで、同じ音声再生に対しても異なる指示に関する情報を埋め込むことができ、単に学習機間で音声認識を行うことではできない変化する会話を演出することができる。
複数台の学習支援装置が連携するので、学習支援システム1は、様々な場面を想定した英会話の学習を実施することができる。例えば、先生役と生徒役とユーザの三者による英会話学習、友人役A、Bとユーザの三者による英会話学習、父親役と母親役とユーザの三者による英会話学習などが行われ得る。学習支援システム1によれば、1対1の状況に限定されない様々なシチュエーションが模擬され得る。このように第三者が入った学習によって、ユーザは人称の理解をより深める等、効果的な学習を行うことができる。なお、学習支援装置には、男性、女性、老人、大人、子ども等、複数種類の音声が登録されており、使用される音質は、選択された状況に応じて選択されてもよい。
また、上述の実施形態では、複数の文章の選択肢の中から任意に文章が選択されることで、会話のストーリー展開が様々に変化し得る。このように変化する会話によって、ユーザは、同じ場面であっても複数パターンの会話を学習することができ、効果の高い学習を行うことができる。文章の選択肢、又は選択される文章は、学習を行った回数によって変化してもよい。
また、本実施形態に係る学習支援システムでは、学習支援装置間の情報交換を音声透かしを用いて行う。このため、学習支援装置は特別な通信機器を必要としない。学習支援装置が本来有しているスピーカーとマイクが備わっていれば、複数の学習支援装置は、ユーザに認識されない方法で通信することができる。すなわち、学習支援装置は、ハードウェアを変更することなく、ソフトウェアの更新のみで本実施形態に係る機能を追加することができる。
[第2の実施形態]
第2の実施形態について説明する。第1の実施形態との相違点について説明し、同一の部分については、同一の符号を付してその説明を省略する。第1の実施形態では、第1の学習支援装置10及び第2の学習支援装置20を含む、学習支援システム1に含まれる学習支援装置は、同等の装置である。
これに対して、本実施形態では、学習支援システム1は、主となる第1の装置と、副となるその他の装置とを含む。本実施形態では、副となる装置を第2の装置と称することにする。第2の装置の数は、いくつであってもよい。本実施形態では、主となる第1の装置が、第2の装置の動作について、音声透かしに埋め込まれた情報を用いて指示する。第2の装置は、第1の装置が出力した音声を取得し、当該音声に音声透かしで埋め込まれた情報を取得する。第2の装置は、この情報に基づいて動作する。
第1の装置の動作について、図7に示すフローチャートを参照して説明する。
ステップS401において、第1の装置は、学習の進捗状況等に応じて、学習内容を選択する。
ステップS402において、第1の装置は、音声出力する文章を選択する。ステップS403において、第1の装置は、第2の装置に伝えるべき情報を決定し、当該情報を音声透かしとして、ステップS402で選択した文章に埋め込む信号処理を行う。このようにして、音声透かしで第2の装置宛の指示が埋め込まれた文章の音声データが作成される。ステップS404において、第1の装置は、ステップS403で作成された音声データに基づいて、スピーカー16から音声を出力する。この出力される音声は、ユーザに聞こえる学習に係る音声と、ユーザに聞こえない音声透かしとして埋め込まれた第2の装置宛の指示とを含む。
ステップS405において、第1の装置は、次の音声出力も自機であるか否かを判定する。次も自機が音声出力を行うとき、処理はステップS402に戻る。すなわち、ステップS402乃至ステップS404の処理を繰り返して、音声透かしが埋め込まれた音声を出力する。ステップS405において、次に音声出力するのが自機でないと判定されたとき、処理はステップS406に進む。
ステップS406において、第1の装置は、マイク15を用いて音声を取得する。ステップS407において、第1の装置は、取得した音声を解析する。第1の装置は、取得した音声に基づいて、ユーザが発言した内容は何か、第2の装置が指示した内容の音声を出力したか等の情報を取得する。
ステップS408において、第1の装置は、待機するか否かを判定する。ユーザが発声を継続しているとき、又は第2の装置等が音声出力を継続しているとき等は、第1の装置は待機すると判定する。待機するとき、処理はステップS406に戻る。すなわち、音声取得と音声解析とを繰り返す。待機しないとき、処理はステップS409に進む。
ステップS409において、第1の装置は、本学習を終了するか否かを判定する。終了しないとき、処理はステップS402に戻る。すなわち、再び第1の装置が音声出力を行い、このとき第2の装置宛の指示を音声透かしとして埋め込む。本処理を終了すると判定されたとき、処理は終了する。
第2の装置の動作について、図8に示すフローチャートを参照して説明する。
ステップS501において、第2の装置は、マイク15を用いて音声を取得する。ステップS502において、第2の装置は、取得した音声を解析し、第1の装置が出力した音声に含まれる音声透かしとして埋め込まれた情報を抽出し認識する。
ステップS503において、第2の装置は、第1の装置からの指示を判定する。指示が待機であったとき、処理はステップS501に戻る。すなわち、音声取得と音声透かしの認識を繰り返す。指示が音声出力であったとき、処理はステップS504に進む。ステップS504において、第2の装置は、指示に従って、スピーカー16から音声を出力する。その後、処理はステップS501に戻る。
以上のように、本実施形態では、第1の装置が主となり、学習支援システム1に含まれる各学習支援装置の動作を制御する。
第1の装置と第2の装置とを含む学習支援システム1による英会話学習の進行の一例を図9A及び図9Bに示す。
図9Aの例では、〈1〉ユーザが「Hello.」と発声することをきっかけに、第1の装置と第2の装置とが動作を開始する。〈2〉第1の装置は、文章番号[3]の「Hi, Taro.」という音声に、「待機せよ」という第2の装置向けの指示情報を埋め込んだ音声を出力する。この音声を取得した第2の装置は、待機する。
〈3〉第1の装置は、文章番号[15]の「Let's start the lesson today.」という音声に、「待機せよ」という第2の装置向けの指示情報を埋め込んだ音声を出力する。ユーザは、第1の装置が出力した音声を聞き取って、レッスンが始まることを認識する。第2の装置は、引き続き待機する。
〈4〉第1の装置は、文章番号[22]の「He is my student.」という音声に、「[33][48]を発声せよ」という第2の装置向けの指示情報を埋め込んだ音声を出力する。第1の装置は、第2の装置が音声を出力し終わるまで待機する。ユーザは、第1の装置が出力した音声を聞き取る。第2の装置は、第1の装置が出力した音声を取得して、解析された音声透かしに基づいて、文章番号[33]及び[48]の文章の音声を出力すべきであることを認識する。
〈5〉第2の装置は、文章番号[33]の「Hello. My name is B.」という音声を出力する。ユーザは、第2の装置が出力した音声を聞き取る。第1の装置は、第2の装置が出力した音声を取得して、当該音声を解析する。第1の装置は、文章番号[33]の音声が出力されたことを認識する。
〈6〉第2の装置は、文章番号[48]の「We are classmates.」という音声を出力する。第2の装置は、次に第1の装置から指示があるまで待機することを決める。ユーザは、第2の装置が出力した音声を聞き取る。
〈7〉ユーザは、第1の装置も第2の装置も音声を出力せず、自身が話す機会だと認識する。ユーザは、「Nice to meet you.」と発声する。
〈8〉第1の装置は、このユーザの発声を捉えて、次に出力する文章を文章番号[63]と決定し、その音声を出力する。この際、第2の装置に向けての指示を音声透かしで埋め込む。以上のようにして、学習は進行していく。
図9Bに示す進行について説明する。〈1〉ユーザが「Hello.」と発声することをきっかけに、第1の装置と第2の装置とが動作を開始する。〈2〉第1の装置は、文章番号[5]の「Hello, Taro.」という音声に、「待機せよ」という第2の装置向けの指示情報を埋め込んだ音声を出力する。この音声を取得した第2の装置は、待機する。
〈3〉第1の装置は、文章番号[15]の「Let's start the lesson today.」という音声に、「待機せよ」という第2の装置向けの指示情報を埋め込んだ音声を出力する。ユーザは、第1の装置が出力した音声を聞き取って、レッスンが始まることを認識する。第2の装置は、引き続き待機する。
〈4〉第1の装置は、文章番号[22]の「He is my student.」という音声に、「[37][52]を発声せよ、ユーザ発声後[68]を発声せよ」という第2の装置向けの指示情報を埋め込んだ音声を出力する。第1の装置は、第2の装置が[68]の音声を出力し終わるまで待機する。ユーザは、第1の装置が出力した音声を聞き取る。第2の装置は、第1の装置が出力した音声を取得して、解析された音声透かしに基づいて、文章番号[37]及び[52]の文章の音声を出力し、その後ユーザの発声を待ち、その後文章番号[68]の文章の音声を出力すべきであることを認識する。
〈5〉第2の装置は、文章番号[37]の「Oh, my new classmate.」という音声を出力する。ユーザは、第2の装置が出力した音声を聞き取る。〈6〉第2の装置は、文章番号[52]の「What's your family name?」という音声を出力する。ユーザは、第2の装置が出力した音声を聞き取る。
〈7〉ユーザは、第2の装置が出力した質問に対して答える。ユーザは、「My family name is Sato.」と発声する。
〈8〉第2の装置は、このユーザの発声を捉えて、文章番号[68]の「Where are you from?」という音声を出力する。第2の装置は、次に第1の装置から指示があるまで待機することを決める。ユーザは、第2の装置が出力した音声を聞き取る。
〈9〉ユーザは、第2の装置が出力した質問に対して答える。ユーザは、「I'm from Tokyo.」と発声する。
〈10〉第1の装置は、このユーザの発声を捉えて、次に出力する文章を文章番号[71]と決定し、その音声を出力する。この際、第2の装置に向けての指示を音声透かしで埋め込む。
本実施形態によっても、第1の実施形態の場合と同様の効果を得ることができる。第1の実施形態の場合と比較して、本実施形態によれば、第2の装置は、必要な機能が制限されるため、比較的安価に提供され得る。このため、学習支援システム1に含まれる学習支援装置の数を増やしやすい。
上述の第1の実施形態及び第2の実施形態は、何れも英会話学習の場面を一例として示したが、学習支援システム1は、英会話に限らず種々のユーザとの会話による学習に適用され得る。
なお、上述の第1の実施形態及び第2の実施形態では、発声している学習支援装置10あるいは20(第2の実施形態では、第1の装置)から出力された音声を、他の学習支援装置20あるいは10(第2の実施形態では、第2の装置)が認識する構成となっているが、これに限らない。例えば、発声している学習支援装置10あるいは20(第2の実施形態では、第1の装置)からは、他機への指示情報だけでなく自機が発声している旨を示す情報も音声透かしで埋め込まれた音声を出力し、他の学習支援装置20あるいは10(第2の実施形態では、第2の装置)がこれらの情報を認識する構成としてもよい。
なお、本発明は、上記実施形態に限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で種々に変形することが可能である。また、各実施形態は適宜組み合わせて実施してもよく、その場合組み合わせた効果が得られる。更に、上記実施形態には種々の発明が含まれており、開示される複数の構成要件から選択された組み合わせにより種々の発明が抽出され得る。例えば、実施形態に示される全構成要件からいくつかの構成要件が削除されても、課題が解決でき、効果が得られる場合には、この構成要件が削除された構成が発明として抽出され得る。
以下に、本願出願の当初の特許請求の範囲に記載された発明を付記する。
[1]
複数の学習支援装置とユーザとの会話による学習を実現するための学習支援装置であって、
少なくとも音声を含む伝達情報を出力するように構成された出力手段と、
ユーザに向けた音声に他の学習支援装置に向けた指示情報を音声透かしで埋め込んだ音声を含む伝達情報を、前記出力手段に出力させる制御手段と
を備える学習支援装置。
[2]
前記制御手段は、前記他の学習支援装置が出力すべき前記ユーザに向けた音声に関する情報を前記指示情報として作成する、[1]に記載の学習支援装置。
[3]
複数の学習支援装置とユーザとの会話による学習を実現するための学習支援装置であって、
少なくとも音声を含む伝達情報を出力するように構成された出力手段と、
他の学習支援装置からの出力された伝達情報を取得するように構成された取得手段と、
前記取得手段で捉えた他の学習支援装置から出力された伝達情報であって、ユーザに向けた音声に音声透かしで埋め込まれた指示情報を含む音声が含まれた伝達情報を解析して前記指示情報を抽出し、抽出された前記指示情報に基づいて、ユーザに向けた音声を含む伝達情報を前記出力手段に出力させる、制御手段と
を備える学習支援装置。
[4]
複数の学習支援装置とユーザとの会話による学習を実現するための学習支援システムであって、
少なくとも音声を含む伝達情報を出力するように構成された第1の出力手段と、
ユーザに向けた音声に他の学習支援装置に向けた指示情報を音声透かしで埋め込んだ音声を含む伝達情報を、前記第1の出力手段に出力させる第1の制御手段と
を備える第1の学習支援装置と、
少なくとも音声を含む伝達情報を出力するように構成された第2の出力手段と、
前記第1の学習支援装置からの出力された伝達情報を取得するように構成された取得手段と、
前記取得手段で捉えた前記第1の学習支援装置から出力された伝達情報であって、ユーザに向けた音声に音声透かしで埋め込まれた指示情報を含む音声が含まれた伝達情報を解析して前記指示情報を抽出し、抽出された前記指示情報に基づいて、ユーザに向けた音声を含む伝達情報を前記第2の出力手段に出力させる、第2の制御手段と
を備える第2の学習支援装置と
を具備する学習支援システム。
[5]
前記第1の学習支援装置は、前記第2の学習支援装置からの出力された伝達情報を取得するように構成された取得手段をさらに備え、
前記第1の制御手段は、当該取得手段で捉えた前記第2の学習支援装置から出力された伝達情報であって、ユーザに向けた音声に音声透かしで埋め込まれた指示情報を含む音声が含まれた伝達情報を解析して当該指示情報を抽出し、抽出された当該指示情報に基づいて、ユーザに向けた音声を含む伝達情報を前記第1の出力手段に出力させる、
[4]に記載の学習支援システム。
[6]
前記第1の学習支援装置と前記第2の学習支援装置との各々は、自機を特定する情報を音声透かしで埋め込んだ音声を含む伝達情報を出力し、
前記第1の学習支援装置と前記第2の学習支援装置との各々は、前記伝達情報を解析して他機を特定する前記情報を抽出し、抽出された前記情報に基づいて、前記学習を自機から開始するか否かを判定する、
[5]に記載の学習支援システム。
[7]
前記第2の学習支援装置は、前記第1の学習支援装置から出力された伝達情報に含まれる前記指示情報に基づいて前記音声を含む伝達情報を出力し、
前記第1の学習支援装置は、前記第2の学習支援装置から出力された伝達情報に含まれる前記指示情報に基づいて前記音声を含む伝達情報を出力する、
[5]又は[6]に記載の学習支援システム。
[8]
前記第1の学習支援装置は、前記第2の学習支援装置の動作を制御する、[4]に記載の学習支援システム。
[9]
複数の学習支援装置とユーザとの会話による学習を実現するための、出力手段を備える学習支援装置の制御方法であって、
ユーザに向けた音声に他の学習支援装置に向けた指示情報を音声透かしで埋め込んだ出力音声を含む伝達情報の信号を作成することと、
前記信号に基づいて前記出力手段に前記出力音声を含む伝達情報を出力させることと
を含む、学習支援装置の制御方法。
[10]
複数の学習支援装置とユーザとの会話による学習を実現するための、出力手段と取得手段とを備える学習支援装置の制御方法であって、
前記取得手段を用いて他の学習支援装置から出力された音声を含む伝達情報を取得することと、
前記取得手段で捉えた他の学習支援装置から出力された音声を含む伝達情報であって、ユーザに向けた音声に音声透かしで埋め込まれた指示情報を含む音声を含む伝達情報を解析することと、
前記指示情報を抽出することと、
抽出された前記指示情報に基づいて、ユーザに向けた音声を含む伝達情報を前記出力手段に出力させることと
を含む、学習支援装置の制御方法。
[11]
複数の学習支援装置とユーザとの会話による学習を実現するための、出力手段を備える学習支援装置の制御プログラムであって、
ユーザに向けた音声に他の学習支援装置に向けた指示情報を音声透かしで埋め込んだ出力音声を含む伝達情報の信号を作成することと、
前記信号に基づいて前記出力手段に前記出力音声を含む伝達情報を出力させることと
を前記学習支援装置に実行させるための制御プログラム。
[12]
複数の学習支援装置とユーザとの会話による学習を実現するための、出力手段と取得手段とを備える学習支援装置の制御プログラムであって、
前記取得手段を用いて他の学習支援装置から出力された音声を含む伝達情報を取得することと、
前記取得手段で捉えた他の学習支援装置から出力された音声を含む伝達情報であって、ユーザに向けた音声に音声透かしで埋め込まれた指示情報を含む音声を含む伝達情報を解析することと、
前記指示情報を抽出することと、
抽出された前記指示情報に基づいて、ユーザに向けた音声を含む伝達情報を前記出力手段に出力させることと
を前記学習支援装置に実行させるための制御プログラム。
1…学習支援システム、10…第1の学習支援装置、11…プロセッサ、12…ROM、13…RAM、14…ストレージ、15…マイク、16…スピーカー、17…入力装置、18…LED、19…バスライン、20…第2の学習支援装置。

Claims (17)

  1. 他の機器と連携してユーザに第1機能を提供する電子機器であって、
    前記第1機能に係る情報をユーザに向けた音声として出力する出力手段と、
    前記第1機能に係る前記他の機器の連携を制御する場合に、前記出力手段が出力する前記ユーザに向けた音声に対して前記他の機器に向けた指示情報を音声透かしとして埋め込む埋込処理を行う制御手段と
    を備え、
    前記制御手段は、前記第1機能に係る連携を行う前記他の機器が存在するか否かを判断し、前記第1機能に係る連携を行う前記他の機器が存在すると判断された場合には、前記埋込処理を行うことで前記他の機器と連携して前記第1機能をユーザに提供し、前記第1機能に係る連携を行う前記他の機器が存在しないと判断された場合には、前記埋込処理を行わず、前記他の機器と連携せずに前記第1機能をユーザに提供するように制御する、
    電子機器。
  2. 前記第1機能は、聞き取りを含むユーザの語学学習を支援する機能であり、
    前記出力手段は、前記ユーザが聞き取りを行う第1音声を出力し、
    前記制御手段は、前記ユーザが聞き取りを行う第2音声を前記他の機器に出力させるための前記指示情報を音声透かしとして埋め込む前記埋込処理を行う、請求項1に記載の電子機器。
  3. 他の機器と連携してユーザに第1機能を提供する電子機器であって、
    前記第1機能に係る情報をユーザに向けた音声として出力する出力手段と、
    前記第1機能に係る前記他の機器の連携を制御する場合に、前記出力手段が出力する前記ユーザに向けた音声に対して前記他の機器に向けた指示情報を音声透かしとして埋め込む埋込処理を行う制御手段と
    を備え、
    前記第1機能は、前記他の機器が出力する音声、および前記電子機器が出力する音声、
    および前記ユーザが発声する音声による会話の学習を支援する機能であり、
    前記他の機器および前記電子機器は、前記音声透かしとして埋め込まれた前記指示情報を認識するとともに、前記ユーザが発声する音声を認識する、
    電子機器。
  4. 複数の学習支援装置とユーザとの会話による学習を実現するための学習支援装置であって、
    少なくとも音声を含む伝達情報を出力するように構成された出力手段と、
    ユーザに向けた音声に他の学習支援装置に向けた指示情報を音声透かしで埋め込んだ音声を含む伝達情報を、前記出力手段に出力させる制御手段と
    を備える学習支援装置。
  5. 前記制御手段は、前記他の学習支援装置が出力すべき前記ユーザに向けた音声に関する情報を前記指示情報として作成する、請求項4に記載の学習支援装置。
  6. 複数の学習支援装置とユーザとの会話による学習を実現するための学習支援装置であって、
    少なくとも音声を含む伝達情報を出力するように構成された出力手段と、
    他の学習支援装置からの出力された伝達情報を取得するように構成された取得手段と、
    前記取得手段で捉えた他の学習支援装置から出力された伝達情報であって、ユーザに向けた音声に音声透かしで埋め込まれた指示情報を含む音声が含まれた伝達情報を解析して前記指示情報を抽出し、抽出された前記指示情報に基づいて、ユーザに向けた音声を含む伝達情報を前記出力手段に出力させる、制御手段と
    を備える学習支援装置。
  7. 複数の学習支援装置とユーザとの会話による学習を実現するための学習支援システムであって、
    少なくとも音声を含む伝達情報を出力するように構成された第1の出力手段と、
    ユーザに向けた音声に他の学習支援装置に向けた指示情報を音声透かしで埋め込んだ音声を含む伝達情報を、前記第1の出力手段に出力させる第1の制御手段と
    を備える第1の学習支援装置と、
    少なくとも音声を含む伝達情報を出力するように構成された第2の出力手段と、
    前記第1の学習支援装置からの出力された伝達情報を取得するように構成された取得手段と、
    前記取得手段で捉えた前記第1の学習支援装置から出力された伝達情報であって、ユーザに向けた音声に音声透かしで埋め込まれた指示情報を含む音声が含まれた伝達情報を解析して前記指示情報を抽出し、抽出された前記指示情報に基づいて、ユーザに向けた音声を含む伝達情報を前記第2の出力手段に出力させる、第2の制御手段と
    を備える第2の学習支援装置と
    を具備する学習支援システム。
  8. 前記第1の学習支援装置は、前記第2の学習支援装置からの出力された伝達情報を取得するように構成された取得手段をさらに備え、
    前記第1の制御手段は、当該取得手段で捉えた前記第2の学習支援装置から出力された伝達情報であって、ユーザに向けた音声に音声透かしで埋め込まれた指示情報を含む音声が含まれた伝達情報を解析して当該指示情報を抽出し、抽出された当該指示情報に基づいて、ユーザに向けた音声を含む伝達情報を前記第1の出力手段に出力させる、
    請求項7に記載の学習支援システム。
  9. 前記第1の学習支援装置と前記第2の学習支援装置との各々は、自機を特定する情報を音声透かしで埋め込んだ音声を含む伝達情報を出力し、
    前記第1の学習支援装置と前記第2の学習支援装置との各々は、前記伝達情報を解析して他機を特定する前記情報を抽出し、抽出された前記情報に基づいて、前記学習を自機から開始するか否かを判定する、
    請求項8に記載の学習支援システム。
  10. 前記第2の学習支援装置は、前記第1の学習支援装置から出力された伝達情報に含まれる前記指示情報に基づいて前記音声を含む伝達情報を出力し、
    前記第1の学習支援装置は、前記第2の学習支援装置から出力された伝達情報に含まれる前記指示情報に基づいて前記音声を含む伝達情報を出力する、
    請求項8又は9に記載の学習支援システム。
  11. 前記第1の学習支援装置は、前記第2の学習支援装置の動作を制御する、請求項7に記載の学習支援システム。
  12. 他の機器と連携してユーザに第1機能を提供する電子機器が、
    前記第1機能に係る情報をユーザに向けた音声として出力する出力処理と、
    前記第1機能に係る前記他の機器の連携を制御する場合に、前記出力処理により出力する前記ユーザに向けた音声に対して前記他の機器に向けた指示情報を音声透かしとして埋め込む埋込処理と、
    前記第1機能に係る連携を行う前記他の機器が存在するか否かを判断する判断処理と、
    前記第1機能に係る連携を行う前記他の機器が存在すると判断された場合には、前記埋込処理を行うことで前記他の機器と連携して前記第1機能をユーザに提供し、前記第1機能に係る連携を行う前記他の機器が存在しないと判断された場合には、前記埋込処理を行わず、前記他の機器と連携せずに前記第1機能をユーザに提供するように制御する制御処理と、
    を実行する電子機器の制御方法。
  13. 他の機器と連携してユーザに第1機能を提供する電子機器が、
    前記第1機能に係る情報をユーザに向けた音声として出力する出力処理と、
    前記第1機能に係る前記他の機器の連携を制御する場合に、前記出力処理により出力する前記ユーザに向けた音声に対して前記他の機器に向けた指示情報を音声透かしとして埋め込む埋込処理と、
    を実行し、
    前記第1機能は、前記他の機器が出力する音声、および前記電子機器が出力する音声、および前記ユーザが発声する音声による会話の学習を支援する機能であり、
    前記他の機器および前記電子機器は、前記音声透かしとして埋め込まれた前記指示情報を認識するとともに、前記ユーザが発声する音声を認識する、
    電子機器の制御方法。
  14. 複数の学習支援装置とユーザとの会話による学習を実現するための学習支援装置が、
    少なくとも音声を含む伝達情報を出力する出力処理と、
    ユーザに向けた音声に他の学習支援装置に向けた指示情報を音声透かしで埋め込んだ音声を含む伝達情報を、前記出力処理により出力させる制御処理と、
    を実行する学習支援装置の制御方法。
  15. 他の機器と連携してユーザに第1機能を提供する電子機器に、
    前記第1機能に係る情報をユーザに向けた音声として出力する出力処理と、
    前記第1機能に係る前記他の機器の連携を制御する場合に、前記出力処理により出力する前記ユーザに向けた音声に対して前記他の機器に向けた指示情報を音声透かしとして埋め込む埋込処理と、
    前記第1機能に係る連携を行う前記他の機器が存在するか否かを判断する判断処理と、
    前記第1機能に係る連携を行う前記他の機器が存在すると判断された場合には、前記埋込処理を行うことで前記他の機器と連携して前記第1機能をユーザに提供し、前記第1機能に係る連携を行う前記他の機器が存在しないと判断された場合には、前記埋込処理を行わず、前記他の機器と連携せずに前記第1機能をユーザに提供するように制御する制御処理と、
    を実行させる電子機器の制御プログラム。
  16. 他の機器と連携してユーザに第1機能を提供する電子機器に、
    前記第1機能に係る情報をユーザに向けた音声として出力する出力処理と、
    前記第1機能に係る前記他の機器の連携を制御する場合に、前記出力処理により出力する前記ユーザに向けた音声に対して前記他の機器に向けた指示情報を音声透かしとして埋め込む埋込処理と、
    を実行させ、
    前記第1機能は、前記他の機器が出力する音声、および前記電子機器が出力する音声、および前記ユーザが発声する音声による会話の学習を支援する機能であり、
    前記他の機器および前記電子機器は、前記音声透かしとして埋め込まれた前記指示情報を認識するとともに、前記ユーザが発声する音声を認識する、
    電子機器の制御プログラム。
  17. 複数の学習支援装置とユーザとの会話による学習を実現するための学習支援装置に、
    少なくとも音声を含む伝達情報を出力する出力処理と、
    ユーザに向けた音声に他の学習支援装置に向けた指示情報を音声透かしで埋め込んだ音声を含む伝達情報を、前記出力処理により出力させる制御処理と、
    を実行させる学習支援装置の制御プログラム。
JP2018134045A 2018-07-17 2018-07-17 電子機器、学習支援装置、学習支援システム、電子機器の制御方法、学習支援装置の制御方法、電子機器の制御プログラム及び学習支援装置の制御プログラム Active JP7279310B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018134045A JP7279310B2 (ja) 2018-07-17 2018-07-17 電子機器、学習支援装置、学習支援システム、電子機器の制御方法、学習支援装置の制御方法、電子機器の制御プログラム及び学習支援装置の制御プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018134045A JP7279310B2 (ja) 2018-07-17 2018-07-17 電子機器、学習支援装置、学習支援システム、電子機器の制御方法、学習支援装置の制御方法、電子機器の制御プログラム及び学習支援装置の制御プログラム

Publications (3)

Publication Number Publication Date
JP2020012931A JP2020012931A (ja) 2020-01-23
JP2020012931A5 JP2020012931A5 (ja) 2021-08-19
JP7279310B2 true JP7279310B2 (ja) 2023-05-23

Family

ID=69170972

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018134045A Active JP7279310B2 (ja) 2018-07-17 2018-07-17 電子機器、学習支援装置、学習支援システム、電子機器の制御方法、学習支援装置の制御方法、電子機器の制御プログラム及び学習支援装置の制御プログラム

Country Status (1)

Country Link
JP (1) JP7279310B2 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014192870A (ja) 2013-03-28 2014-10-06 Dainippon Printing Co Ltd 多言語同時再生システム
JP2016075890A (ja) 2014-07-29 2016-05-12 ヤマハ株式会社 端末装置、情報提供システム、情報提供方法およびプログラム
JP2016076201A (ja) 2014-07-29 2016-05-12 ヤマハ株式会社 情報管理システム、情報管理方法およびプログラム
JP2016086954A (ja) 2014-10-31 2016-05-23 ダイコク電機株式会社 遊技機、及び遊技場用システム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014192870A (ja) 2013-03-28 2014-10-06 Dainippon Printing Co Ltd 多言語同時再生システム
JP2016075890A (ja) 2014-07-29 2016-05-12 ヤマハ株式会社 端末装置、情報提供システム、情報提供方法およびプログラム
JP2016076201A (ja) 2014-07-29 2016-05-12 ヤマハ株式会社 情報管理システム、情報管理方法およびプログラム
JP2016086954A (ja) 2014-10-31 2016-05-23 ダイコク電機株式会社 遊技機、及び遊技場用システム

Also Published As

Publication number Publication date
JP2020012931A (ja) 2020-01-23

Similar Documents

Publication Publication Date Title
CN106537496B (zh) 终端装置、信息提供系统、信息呈现方法和信息提供方法
JP6767046B2 (ja) 音声対話システム、音声対話装置、ユーザー端末、および音声対話方法
JP5750380B2 (ja) 音声翻訳装置、音声翻訳方法および音声翻訳プログラム
JP2011085641A (ja) 語学学習支援システム及び語学学習支援方法
KR20190061191A (ko) 아동언어학습을 위한 음성인식 기반 학습 시스템 및 학습방법
JP2018174439A (ja) 会議支援システム、会議支援方法、会議支援装置のプログラム、および端末のプログラム
US10216732B2 (en) Information presentation method, non-transitory recording medium storing thereon computer program, and information presentation system
JP2017219845A (ja) 発話促進装置及び発話促進プログラム
KR100898104B1 (ko) 상호 대화식 학습 시스템 및 방법
JP6624476B2 (ja) 翻訳装置および翻訳システム
JP7279310B2 (ja) 電子機器、学習支援装置、学習支援システム、電子機器の制御方法、学習支援装置の制御方法、電子機器の制御プログラム及び学習支援装置の制御プログラム
JP2007193166A (ja) 対話装置、対話方法及びプログラム
JP2015087649A (ja) 発話制御装置、方法、発話システム、プログラム、及び発話装置
US11790913B2 (en) Information providing method, apparatus, and storage medium, that transmit related information to a remote terminal based on identification information received from the remote terminal
JP7519441B2 (ja) 使用者端末、及びその制御方法
KR101920653B1 (ko) 비교음 생성을 통한 어학학습방법 및 어학학습프로그램
JP2007286376A (ja) 音声案内システム
JP2005107595A (ja) 自動翻訳装置
Pekar et al. Applications of speech technologies in Western Balkan countries
JP2015187738A (ja) 音声翻訳装置、音声翻訳方法および音声翻訳プログラム
KR20020024828A (ko) 인터넷을 이용한 상호 대화식 언어 학습방법
KR200287165Y1 (ko) 단체 어학학습 장치
JP2004258231A (ja) 語学学習支援装置及び語学学習支援方法
JP2008286921A (ja) キーワード抽出装置、キーワード抽出方法及びそのプログラム、記録媒体
JP7530688B1 (ja) プログラム、コンピュータ、システムおよび情報処理方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210706

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210706

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220823

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221017

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221213

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20230104

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230208

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230411

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230424

R150 Certificate of patent or registration of utility model

Ref document number: 7279310

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150