JP6957994B2 - 音声出力制御装置、音声出力制御方法及びプログラム - Google Patents

音声出力制御装置、音声出力制御方法及びプログラム Download PDF

Info

Publication number
JP6957994B2
JP6957994B2 JP2017110521A JP2017110521A JP6957994B2 JP 6957994 B2 JP6957994 B2 JP 6957994B2 JP 2017110521 A JP2017110521 A JP 2017110521A JP 2017110521 A JP2017110521 A JP 2017110521A JP 6957994 B2 JP6957994 B2 JP 6957994B2
Authority
JP
Japan
Prior art keywords
output
voice
target data
output target
audio
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017110521A
Other languages
English (en)
Other versions
JP2018205522A (ja
JP2018205522A5 (ja
Inventor
元裕 大越
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2017110521A priority Critical patent/JP6957994B2/ja
Priority to CN201810568605.9A priority patent/CN108986784B/zh
Publication of JP2018205522A publication Critical patent/JP2018205522A/ja
Publication of JP2018205522A5 publication Critical patent/JP2018205522A5/ja
Application granted granted Critical
Publication of JP6957994B2 publication Critical patent/JP6957994B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/02Methods for producing synthetic speech; Speech synthesisers
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems

Description

本発明は、音声出力制御装置、音声出力制御方法及びプログラムに関するものである。
従来、外国語会話を学習する際に、教材音声を出力させたのち、ユーザによる復唱のための無音時間を設定する音声学習装置が知られている(特許文献1参照)。
特許文献1に記載の音声学習装置では、教材音声の出力に要した時間に応じて無音時間を設定して、ユーザが復唱するための時間だけ待機するようにしている。
特開2013−37251号公報
しかしながら、前述した特許文献1に記載の音声学習装置では、音声出力は画一的な方式であり、ユーザの習熟度に応じた適切な音声出力をするものではなかった。このため、より効率の良い方法で学習できる学習装置が望まれている。
本発明は、上記事情に鑑みてなされたものであり、効率の良い学習を実現できる音声出力制御装置、音声出力制御方法及びプログラムを提供することを目的とする。
上記目的を達成するために、本発明は、以下の構成によって把握される。
本発明の音声出力制御装置は、記憶手段に記憶されている一連の複数の出力対象データを、各出力対象データを音声出力した後にユーザによる発音を待ち受けるために前記一連の複数の出力対象データに対して共通して設定されている共通待機時間の間は次の出力対象データを音声出力せずに待機させながら順次音声出力させていき、前記一連の複数の出力対象データの音声出力中に、ユーザ操作に応じて音声出力を中断させ、前記音声出力が中断された状態で、ユーザ操作に応じて前記共通待機時間が第1待機時間から第2待機時間に変更された場合に、前記一連の複数の出力対象データの先頭の出力対象データから音声出力を再開させ、各出力対象データを音声出力した後にユーザによる発音を待ち受けるために、前記第2待機時間の間は次の出力対象データを音声出力せずに待機させながら順次音声出力させていき、前記音声出力が中断された状態で、ユーザ操作に応じて前記共通待機時間が変更されなかった場合には、前記音声出力の中断時の出力対象データから音声出力を再開させ、各出力対象データを音声出力した後にユーザによる発音を待ち受けるために、前記第1待機時間の間は次の出力対象データを音声出力せずに待機させながら順次音声出力させていく、制御部を備えることを特徴とする。
本発明によれば、効率の良い学習を実現できる音声出力制御装置、音声出力制御方法及びプログラムを提供できる。
本発明の実施形態の音声出力制御装置の構成を示すブロック図である。 本発明の実施形態の音声出力制御方法の全体の流れを示すフローチャートである。 ステップ1の学習形式である「聞いて理解」の処理を示すフローチャートである。 ステップ2の学習形式である「見ながらシャドーイング」の処理を示すフローチャートである。 ロールプレイ学習処理(ステップ1〜5での学習結果を確認するための、さらなる学習形式「ロールプレイで成果を確認」)の流れを示すフローチャートである。 ステップ1の学習形式である「聞いて理解」についてのユーザ操作に応じた表示・音声の出力動作を示す図である。 ステップ2の学習形式である「見ながらシャドーイング」についてのユーザ操作に応じた表示・音声の出力動作を示す図(その1)である。 ステップ2の学習形式である「見ながらシャドーイング」についてのユーザ操作に応じた表示・音声の出力動作を示す図(その2)である ステップ3の学習形式 である「重点的に発音練習」についてのユーザ操作に応じた表示・音声の出力動作を示す図である。 ステップ4の学習形式である「見ないでシャドーイング」についてのユーザ操作に応じた表示・音声の出力動作を示す図である。 ステップ5の学習形式である「会話練習」についてのユーザ操作に応じた表示・音声の出力動作を示す図である。 ステップ1〜5での学習結果を確認するための、さらなる学習形式「ロールプレイで成果を確認」の選択画面であり、(B)は相手の文章のみ発音され、自分の文章は無音でテキストが非表示である画面である。 ステップ1〜5の学習形式とは、別の学習形式「ロールプレイで練習」についてのユーザ操作に応じた表示・音声の出力動作を示す図(その1)である。 ステップ1〜5の学習形式とは、別の学習形式「ロールプレイで練習」についてのユーザ操作に応じた表示・音声の出力動作を示す図(その2)である。
(実施形態)
以下、図面を参照して本発明を実施するための形態(以下、実施形態)について詳細に説明する。なお、実施形態の説明の全体を通して同じ要素には同じ番号又は符号を付している。
図1は本発明の実施形態の音声出力制御装置10の構成を示すブロック図である。
音声出力制御装置10としては、例えば、電子辞書を用いることができ、外国語会話の学習に用いることができる。電子辞書のほか、スマートフォンやタブレット等のような、タッチパネルを搭載した装置やタッチパネルを搭載したパソコンやタッチパネルを搭載しないパソコン等の各種の情報表示装置(表示制御装置・音声出力制御装置10)を用いることができる。なお、以下の説明においては、中国人が、就活のための日本語会話を学習する場合について、説明する。したがって、日本語が外国語に該当する。
図1に示すように、音声出力制御装置10は、中央処理装置であるCPU11を有する。CPU11は、音声出力制御装置10に収容されているメモリ12(文データ(出力対象データ)記憶手段)が接続されている。メモリ12は、音声出力制御装置10を制御する音声出力制御プログラム、学習する外国語等の音声データである文データ、日本語及び中国語のテキストデータ、設定している待機時間、ユーザの学習する声を録音した録音音声データ等が記憶されている。メモリ12(文データ(出力対象データ)記憶手段)は、一連の複数の文データ(出力対象データ)を記憶している。なお文データ(各日本語テキストの録音音声データ)を記憶するかわりに、前記日本語のテキストデータを各文データとして記憶して音声合成機能により文データを合成して音声出力するようにしても良い。以下で「文データ(出力対象データ)」という場合「文音声データ(出力対象データ)」と上記日本語テキストの各文テキストデータ(出力対象データ)」のいずれも含むこととする。また、文データ(出力対象データ)や日本語テキストデータ、対訳中国語テキストデータは、本音声出力制御装置10と通信接続されたサーバ(図示せず)に記憶され、必要に応じて通信により取得して利用するようにしてもよい。
また、CPU11には、音声出力制御装置10の外部であるインターネットやCD等の記録媒体13aから所望のデータを読み込む記録媒体読取部13が接続されている。さらに、CPU11には、表示手段であるとともに入力手段でもあるタッチパネルからなる音声出力制御部17(音声出力制御手段)や、メイン画面14(テキスト表示手段)の周囲に設けられているタッチパネル以外の入力手段であるキー入力部15、ユーザが発音した音声を入力する音声入力部であるマイク16が接続されている。
メイン画面14(テキスト表示手段)は、音声出力制御部17(音声出力制御手段)により音声出力される出力対象データに対応するテキストを表示する。
また、CPU11には、スピーカ17aからの音声出力を制御する音声出力制御部17(音声出力制御手段)が接続されている。音声出力制御部17は、スピーカ17aから音声出力する音声出力部18、スピーカ17aから音声出力を中断する音声中断部19(音声中断手段)、中断した音声出力を再開する音声出力再開制御部20(音声出力再開制御手段)を有する。そして、CPU11には、ユーザが発音するための時間である待機時間を変更する待機時間変更部21(待機時間変更手段)及びユーザが指定した文データ(出力対象データ)を出力する指定音声データ出力制御部22(指定音声データ(出力対象)データ出力制御手段)が接続されている。
音声出力制御部17(音声出力制御手段)は、メモリ12(文データ(出力対象データ)記憶手段)に記憶された一連の複数の出力対象データについて、各文データ(出力対象データ)の音声出力の間に、第1待機時間と第2待機時間のうちのいずれかの待機時間待機させて音声出力する。
音声出力制御部17(音声出力制御手段)は、メイン画面14(テキスト表示手段)により文データ(出力対象データ)に対応するテキストが表示された状態で、ユーザ操作に応じて表示されたテキストに対応する文データ(出力対象データ)を音声出力した後に、ユーザに応じて表示されたテキストに含まれる出力対象データのユーザによる発音を待ち受けるための待機時間待機させる。
音声出力制御部17(音声出力制御手段)は、文データ(出力対象データ)に対応するテキストが表示されない状態で、出力対象データを音声出力した後に、ユーザによる文データ(出力対象データ)の発音を待ち受けるための待機時間待機させる。
音声中断部19(音声中断手段)は、音声出力制御部17(音声出力制御手段)による音声出力中に、ユーザ操作に応じて、音声出力を中断する。
待機時間変更部21(待機時間変更手段)は、音声中断部19(音声中断手段)により音声出力が中断された状態で、ユーザ操作に応じて、音声出力で採用されている第1又は第2待機時間の一方の待機時間を、他方の待機時間に変更する。
音声出力再開制御部20(音声出力再開制御手段)は、ユーザ操作に応じて音声中断部19(音声中断手段)によりユーザ操作に応じて音声出力が中断された状態で、ユーザ操作に応じて待機時間変更部21(待機時間変更手段)により待機時間が変更された場合に、一連の複数の文データ(出力対象データ)の先頭の文データ(出力対象データ)から音声出力を再開させ、ユーザ操作に応じて音声中断部19(音声中断手段)によりユーザ操作に応じて音声出力が中断された状態で、ユーザ操作に応じて音声中断部19(音声中断手段)により待機時間変更部21(待機時間変更手段)により待機時間が変更されなかった場合には、音声出力の中断時の文データ(出力対象データ)から音声出力を再開する。 音声出力再開制御部20(音声出力再開制御手段)は、ユーザ操作に応じて待機時間変更部21(待機時間変更手段)により待機時間が変更されず、ユーザ操作に応じて指定音声データ出力制御部22(指定文データ(出力対象データ)出力制御手段)により音声出力された場合には、音声出力の中断時の文データ(出力対象データ)から音声出力を再開させる。
指定音声データ出力制御部22(指定文データ(出力対象データ)出力制御手段)は、ユーザ操作に応じて音声中断部19(音声中断手段)により音声出力が中断された状態で、ユーザの指定操作に応じて指定された複数の文データ(出力対象データ)のいずれかの音声出力を実行する。
メモリ12(文データ(出力対象データ)記憶手段)は、相手パートの文データ(出力対象データ)と自分パートの文データ(出力対象データ)を記憶している。そして、メイン画面14(テキスト表示手段)は、相手パートの文データ(出力対象データ)に対応するテキストデータを表示し、自分パートの文データ(出力対象データ)に対応するテキストデータは表示せず、音声出力制御部17(音声出力制御手段)は、相手パートの文データ(出力対象データ)を音声出力し、自分パートの文データ(出力対象データ)は音声出力しないようにできる。又は、メイン画面14(テキスト表示手段)は、相手パートの文データ(出力対象データ)に対応するテキストデータを表示し、自分パートの文データ(出力対象データ)に対応するテキストデータを表示し、音声出力制御部17(音声出力制御手段)は、相手パートの文データ(出力対象データ)を音声出力し、自分パートの文データ(出力対象データ)は音声出力しないようにもできる。
次に、音声出力制御装置10を用いた学習方法(音声出力制御方法)について説明する。なお、以下の学習方法は、音声出力制御装置10のメモリ12に記憶されている音声出力制御プログラムを用いて実行される。
図2は、学習方法の全体の流れを示すフローチャートであり、図3は、ステップ1である「聞いて理解」の処理を示すフローチャートである。
図2、図6(A)に示すように、「日本語会話」15をユーザが選択すると、CPU11は学習(音声出力処理)をスタートし(ステップSS)、CPU11はメイン画面14に、学習形式の選択画面(図6(A)参照)が表示させる。ユーザが「シャドーイング学習」を選択すると(ステップS1)、CPU11はメイン画面14に、シャドーイング学習での各学習形式であるステップ1〜ステップ5の各学習形式と、ステップ1〜5での学習結果を確認するための、さらなる学習形式「ロールプレイで成果を確認」(図6(B)参照)とを一覧表示させる(ステップS2)。
ステップS2において、ステップ1〜ステップ5の各学習形式がユーザにより選択可能であるが、通常の学習においては、順に1から始められる。なお、途中まで学習が進んでいて、中断している場合等は、適宜のステップを選択して学習を進めることができる。
まず、ステップS2において、1「聞いて理解」がユーザにより選択されると、CPU11は1「聞いて理解」を本当に実行するか否を確認し(ステップS3)、ユーザが間違って選択したような場合には、CPU11はステップS2に戻って学習形式の選択画面で別の学習形式がユーザにより選択される。一方、1「聞いて理解」がユーザにより選択されると、CPU11は「聞いて理解」処理に進む(ステップS4)。CPU11は「聞いて理解」処理において、音声出力に合わせてテキストをスクロールさせ、ユーザは音とテキストで会話の内容を理解することができる。
図3に示すように、CPU11は1「聞いて理解」処理を開始すると(ステップSAS)、CPU11は指定単元の先頭の文を指定する(ステップSA1)。例えば、図6(C)に示すように、「すみません」という先頭の文をCPU11は指定し、指定された文を含む複数の文のテキストが表示し(ステップSA2)、指定の先頭の文「すみません」を音声出力し、ふつうの長さのポーズである第1待機時間(例0.2秒)だけ待機する(ステップSA3)。そして、次の文があるか否かを判断して(ステップSA4)、次の文があれば、次の文を指定して(ステップSA5)、ステップSA2に戻って、以降の処理を繰り返す。例えば、図6(D)に示すように、CPU11が指定した次の文である「はい、どうぞ」を音声出力し、ふつうの長さのポーズである第1待機時間(例0.2秒)だけ待機し、さらに次の文である「3年の王美雨と申します。就職のことでご相談したいんですが・・・。」を音声出力し、ふつうの長さのポーズである第1待機時間(例0.2秒)だけ待機し、順次、次の文を音声出力する。一方、次の文が無ければ図2のステップS4に戻る(リターン)(ステップSAE)。
そして、例えば、図6(C)に示す表示から図6(D)に示す表示に遷移するように、指定された文を含む複数の文のテキストは、音声出力に合わせて自動スクロールされて表示される。これにより、音声出力されている指定の文を含む複数の文のテキストを、常に表示でき、学習効果を高められる。
図2に戻って、1「聞いて理解」処理が終了すると、2「見ながらシャドーイング」を実行するか否かを確認する(ステップS5)具体的には、1「聞いて理解」処理が終了した時点で、ユーザが「次へ」のボタンを押すと、CPU11は2「見ながらシャドーイング」の実行画面(図7(B))に進む。一方、1「聞いて理解」処理が終了した時点で、ユーザが「戻る」ボタンを押すと、CPU11は学習形式 の選択画面(図6(A)参照)に戻る。ここで続いて2「見ながらシャドーイング」をユーザが選択した場合には、CPU11は「見ながらシャドーイング」処理に進む(ステップS6)。
また、1「聞いて理解」を実行することなしに、図7(A)に示すように、学習形式の選択画面においてユーザが2「見ながらシャドーイング」を選択した場合も、CPU11はステップS5の「見ながらシャドーイング」に進む。
図4は、ステップ2である「見ながらシャドーイング」の処理を示すフローチャートである。
図4に示すように、CPU11は「見ながらシャドーイング」処理を開始すると(ステップSBS)、CPU11は指定単元の先頭の文を指定する(ステップSB1)。例えば、図7(B)に示すように、「すみません」という文をCPU11は指定し、指定された文を含む複数の文のテキストが表示され(ステップSB2)、指定の文を音声出力する(ステップSB3)。ここでは、第1待機時間である「ふつうポーズ」(例えば、0.2秒)で音声出力される。すなわち、音声出力制御部17(音声出力制御手段)は、音声出力制御部17(音声出力制御手段)により文データ(出力対象データ)に対応するテキストが表示された状態で、表示されたテキストを音声出力した後、ユーザによる表示テキストに含まれる文データ(出力対象データ)の発音を待ち受けるための待機時間だけ待機させる。
そして、例えば、図7(B)に示す表示から図7(C)に示す表示に遷移するように、表示された指定された文を含む複数の文のテキストは、第1待機時間である「ふつうポーズ」を伴って、音声出力に合わせて自動スクロールする。
待機時間を変更したい場合には、ユーザは、停止ボタンを押して停止操作を行う(ステップSB4)。停止ボタンは、メイン画面14にタッチキーとして設けることもできるし、キー入力部15に設けることもできる。ユーザが待機時間を変更しない場合には、CPU11は次の文があるか否かを判断して(ステップSB5)、次の文があれば、次の文、例えば、図7(C)に示すように「はい、どうぞ」と指定して(ステップSB6)、ステップSB2に戻って、以降の処理を繰り返す。
ユーザが停止操作を行った場合には、CPU11は、ステップSB4においてメイン画面14の音声アイコンにユーザが触れて指定文の音声出力操作を行ったか否かを判断し(ステップSB7)、行った場合にCPU11は指定文の音声を出力して(ステップSB8)、ステップSB7に戻る。例えば、図7(D)に示すように、ユーザが、メイン画面14に表示された「はい、どうぞ」の指定文の左端に配置された音声アイコンに触れると、指定文の音声を出力する。したがって、指定文の音声出力操作を繰り返すことにより、何度でも指定文の音声出力を繰り返すことができる。
また、ステップSB7において、ユーザが指定文の音声出力操作を行っていない場合には、ユーザが待機時間変更操作を行ったか否かを判断する(ステップSB9)。ユーザが待機時間変更操作を行った場合には、変更プラグを変更有りに書き換え(ステップSB10)、ユーザが長めに変更か否かを判断する(ステップSB11)。ユーザが長めに変更した場合には、CPU11は待機時間を第2待機時間に設定する(ステップSB12)。第2待機時間としては、例えば、1秒とすることができる。例えば、図8(F)に示すように、ユーザが、メイン画面14に表示された停止ボタンに触れた後、ポーズ長めへボタンに触れると、図8(G)に示すように、CPU11はポーズ長めへボタンに換えて、ポーズふつうへボタンを表示する。続いて、CPU11は図8(H)に示すように、指定単元の先頭の文を含む複数の文のテキストを表示するとともに、第2待機時間である「長めポーズ」を伴って、指定単元の先頭の文から順に複数の文を音声出力する。
ステップSB11において、長めに変更ではない場合には、CPU11は待機時間を普通に変更して(ステップSB13)、待機時間を第1待機時間に設定する(ステップSB14)。第1待機時間としては、0.2秒とすることができる。このようにして、待機時間を変更した場合には、ステップSB1に戻って、先頭の文を指定して、以降の処理を繰り返す。
一方、ステップSB9においてユーザによる待機時間変更操作ではない場合には、CPU11はユーザが再生キーを押したか否かを判断して(ステップSB15)、ユーザが再生キーを押した場合には、CPU11はステップSB5に戻って以降の処理を繰り返す。例えば、図7(D)に示すように、「はい、どうぞ」を音声出力中に、ユーザが、メイン画面14に表示された停止ボタンに触れた後、図8(E)に示すように、ユーザが、メイン画面14に表示された再生ボタンに触れると、「はい、どうぞ」に続く次の文である「3年の王美雨と申します。就職のことでご相談したいんですが・・・。」をCPU11は音声出力する。
ユーザが再生キーを押していない場合には、CPU11は他の処理に移る。ステップSB5において、次が無いと判断された場合には、図2のステップS6に戻る(リターン)(ステップSBE)。
図2に示すように、CPU11はステップS6の2「見ながらシャドーイング」処理が終了すると、3「重点的に発音練習」をユーザが選択するか否かを確認する(ステップS7)。2「見ながらシャドーイング」処理が終了すると、3「重点的に発音練習」をユーザが選択しない場合には、ステップS2に戻って学習形式の選択画面で別の学習形式を選択する。3「重点的に発音練習」をユーザが選択した場合には、CPU11は図9(B)に示すように、特に重要な文のテキストを、イントネーションの線をつけて表示して、該当の文の音声を出力するので、ユーザは、これらの情報を参照して重要な文を重点的に練習することができる(ステップS8)。
また、図9(A)に示すように、学習形式の選択画面において3「重点的に発音練習」を選択した場合も、ステップS7の3「重点的に発音練習」に進む。
図2に示すように、ステップS8の3「重点的に発音練習」処理が終了すると、4「見ないでシャドーイング」を実行するか否かを確認する(ステップS9)。具体的には、3「重点的に発音練習」処理が終了した時点で、ユーザが「次へ」のボタンを押すと、CPU11は4「見ないでシャドーイング」の実行画面(図10(B))に進む。一方、3「重点的に発音練習」処理が終了した時点で、ユーザが「戻る」ボタンを押すと、CPU11は学習形式 の選択画面(図10(A)参照)に戻る。ここで続いて4「見ないでシャドーイング」をユーザが選択した場合には、CPU11は「見ないでシャドーイング」処理に進む(ステップS10)。図10(B)に示すように、CPU11は指定文の表示をせずに、文の音声を出力し、ユーザはその音声に続けてシャドーイングの練習をする(ステップS10)。すなわち、音声出力制御部17(音声出力制御手段)は、文データ(出力対象データ)に対応するテキストが表示されない状態で、文データ(出力対象データ)を音声出力した後に、ユーザによる文データ(出力対象データ)の発音を待ち受けるための待機時間だけ待機させる。
また、図10(A)に示すように、学習形式の選択画面において4「見ないでシャドーイング」を選択した場合も、ステップS9の4「見ないでシャドーイング」に進む。
図2に示すように、ステップS10の4「見ないでシャドーイング」処理が終了すると、5「会話練習」を実行するか否かを確認する(ステップS11)。具体的には、4「見ないでシャドーイング」処理が終了した時点で、ユーザが「次へ」のボタンを押すと、CPU11は5「会話練習」の実行画面(図11(B))に進む。一方、4「見ないでシャドーイング」処理が終了した時点で、ユーザが「戻る」ボタンを押すと、CPU11は学習形式 の選択画面(図11(A)参照)に戻る。ここで通常は、4「見ないでシャドーイング」処理が終了すると、5「会話練習」を続いて実行するが、実行しない場合には、ステップS2に戻って学習形式の選択画面で別の学習形式を選択する。続いて5「会話練習」を実行する場合には、図11(B)に示すように、CPU11は相手の文章(相手パートの文データ(出力対象データ))はテキスト非表示で音声出力のみ行ない、自分の文章(自分パートの文データ(出力対象データ))は無音でテキストが非表示である。このため、ユーザは自分の名前に置き換えて言う練習をすることができる(ステップS12)。
また、図11(A)に示すように、学習形式の選択画面において5「会話練習」を選択した場合も、ステップS11の5「会話練習」に進む。
図2に示すように、ステップS12の5「会話練習」処理が終了すると、6「ロールプレイで成果を確認」を実行するか否かを確認する(ステップS13)。具体的には、5「会話練習」処理が終了した時点で、ユーザが「次へ」のボタンを押すと、CPU11は6「ロールプレイで成果確認」の実行画面(図12(B))に進む。一方、5「会話練習」処理が終了した時点で、ユーザが「戻る」ボタンを押すと、CPU11は学習形式 の選択画面(図12(A)参照)に戻る。ここで6「ロールプレイで成果確認」をユーザが選択した場合にはCPU11は「見ながらシャドーイング」処理に進む(ステップS13、Yes)。
(図12(B)参照)、実行しない場合には、ステップS2に戻って学習形式の選択画面で別の学習形式を選択する。
また、図12(A)に示すように、学習形式の選択画面において「ロールプレイで成果確認」をユーザが選択した場合も、CPU11はステップS13の6「ロールプレイで成果確認」に進む。
そして、6「ロールプレイで成果確認」をユーザが選択した場合には、CPU11が相手の文のテキスト(相手パートの文データ(出力対象データ))を表示し、相手のパートの文(相手パートの文データ(出力対象データ))を音声出力し、自分の文(自分パートの文データ(出力対象データ))は音声出力せずに無音でかつテキスト(自分パートの文データ(出力対象データ))を表示せず、ユーザは予め暗記した自分のパートを暗唱して学習するための設定をCPU11は行う(ステップS14)。次いで、CPU11はユーザ文を表示しない設定をして(ステップS15)、ロールプレイ学習処理を実行する(ステップS16)。
図5は、ロールプレイ学習処理のフローチャートである。
図5に示すように、ロールプレイ学習処理を開始すると(ステップSCS)、ユーザの役(パート)を指定する(ステップSC1、図11(B)参照)。そして、先頭の文を指定して(ステップSC2)、指定の文はユーザの役(パート)か否かを判断する(ステップSC3)。ユーザの役(パート)の場合には、ユーザ文を表示する設定か否かを判断し(ステップSC4)、表示する設定の場合には、指定の文のテキストを表示して(ステップSC5)、ユーザが発音したユーザ音声を録音する(ステップSC6)。ステップSC4においてユーザ文を表示する設定ではないと判断された場合には、指定の文のテキストを表示せずに、ユーザが発音したユーザ音声を録音する(ステップSC6)。
一方、ステップSC3においてユーザ役ではないと判断された場合には、指定の文のテキストを表示して(ステップSC7)、指定の文の音声を出力する(ステップSC8)。そして、ステップSC6で録音した後及びステップSC8で音声を出力した後は、次の文があるか否かを判断し(ステップSC9)、次の文がある場合には、次の文を指定して(ステップSC10)、ステップSC3に戻り、以降の処理を繰り返す。また、次の文がない場合には、再度録音するか否かを判断して(ステップSC11)、再度録音する場合にはステップSC2に戻って、以降の処理を繰り返す。
再度録音を行わない場合には、終了するか否かを判断して(ステップSC12)、終了しない場合には、録音を聞くか否かを判断し(ステップSC13)、聞かない場合にはステップSC11に戻って以降の処理を繰り返す。録音を聞く場合には、ユーザの役を録音音声に置き換えて、先頭の文から順に音声出力する(ステップSC14)。音声出力が終了したら、ステップSC11に戻って以降の処理を繰り返す。ステップSC12において終了する場合には(ステップSCE)、図2のステップS16に戻って終了する(ステップSE)。
また、図2に示すように、音声出力処理をスタート(ステップSS)した後に、シャドーイング学習を選択しない場合には(ステップS1)、ロールプレイ練習が指定されたか否かを判断して(ステップS17)、ロールプレイ練習が指定されていない場合には他の処理を行う。一方、ロールプレイ練習が指定された場合には、ユーザ文を表示する設定にして(ステップS18)、前述したロールプレイ学習処理を行って(ステップS19)、終了する(ステップSE)。したがって、ロールプレイ練習の場合には、ユーザ文を表示してロールプレイが行われる。
具体的には、図13、図14に示すように、CPU11は、自分(ユーザ)のパートでは、文のテキスト(自分パートの文データ(出力対象データ))を表示して、音声は出力せず、ユーザは表示を見ながら発音する(図13(C)。一方、CPU11は、相手(CPU11)のパートでは、相手のパートの文のテキスト(相手パートの文データ(出力対象データ))を表示し、相手のパートの文(相手パートの文データ(出力対象データ))の音声を出力する。このように、「ロールプレイ練習」では、ユーザは自分のパート(自分パートの文データ(出力対象データ))を暗記していなくても、学習できるようになっている。
以上、本発明の好ましい実施形態について詳述したが、本発明に係る音声出力制御装置10、音声出力制御方法及び音声出力制御プログラムは上述した実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形、変化が可能である。
例えば、上記実施形態においては、中国人が、外国語としての日本語会話を学習する場合について例示したが、これに限らず、その他の言語の会話についても同様に適用できる。
また、例えば、上記実施形態においては、文データ(出力対象データ)記憶手段が、音声出力制御装置10のメモリ12に記憶されている場合について説明したが、これに限らず、文データ(出力対象データ)記憶手段がサーバ上に記憶されていて、利用するたびに順次ダウンロードするようにすることもできる。
また、例えば、上記実施形態においては、各出力対象データ(音声データ)の音声出力の間にCPU11の処理により第1待機時間又は第2待機時間だけ待機させて音声出力する場合について説明した。このほか、一連の文データ(出力対象データ)に第1待機時間のデータを含んだ第1音声データと、一連の文データ(出力対象データ)に第2待機時間のデータを含んだ第2音声データとを記憶しておき、CPU11が、待機時間に対応した第1音声データ又は第2音声データのいずれかを読み出して音声出力するようにしてもよい。
以上、説明した本発明の実施形態の音声出力制御装置10によれば、メモリ12に記憶された一連の複数の文データ(出力対象データ)について、各文データ(出力対象データ)の音声出力の間に、第1待機時間と第2待機時間のうちのいずれかの待機時間だけ待機させて音声出力させるようにしたので、ユーザは各文データ(出力対象データ)の音声出力の間に発音する待機時間を選択することができ、ユーザの習熟度に応じたシャドーイングを行うことができる。
また、音声出力が中断された状態で、ユーザ操作により、音声出力で採用されている第1又は第2待機時間の一方の待機時間を、他方の待機時間に変更するようにしたので、ユーザの習熟度に応じて、各文データ(出力対象データ)の音声出力の間の待機時間を設定することができる。そして、待機時間が変更された場合に、一連の複数の文データ(出力対象データ)の先頭の文データ(出力対象データ)から音声出力を再開させるので、待機時間を変更した場合に最初から学習しなおすことができる。また、待機時間が変更されなかった場合には、中断時の文データ(出力対象データ)から音声出力を再開させるので、続けて学習することができる。
また、本発明の実施形態の音声出力制御装置10によれば、音声出力が中断された状態で、ユーザにより指定された複数の文データ(出力対象データ)のうちのいずれかの音声出力を実行するようにしたので、聞きたい音声出力を何度でも聞くことができる。そして、待機時間が変更されず音声出力された場合には、中断時の文データ(出力対象データ)から音声出力を再開させるようにしたので、中断したところから続けて学習することができる。
また、本発明の実施形態の音声出力制御装置10によれば、文データ(出力対象データ)に対応するテキストを表示し、表示されたテキストを音声出力するので、ユーザは、テキストを見ながら音声出力を聞いて理解することができる。
また、本発明の実施形態の音声出力制御装置10によれば、文データ(出力対象データ)に対応するテキストを表示し、表示されたテキストを音声出力した後に、文データ(出力対象データ)を待機時間内に発音することで、シャドーイング学習を行うことができる。
また、本発明の実施形態の音声出力制御装置10によれば、文データ(出力対象データ)のイントネーションのポイントをメイン画面14に表示するとともに音声出力するので、特にポイントとなる箇所を重点的に学習することができる。
また、本発明の実施形態の音声出力制御装置10によれば、文データ(出力対象データ)に対応するテキストを表示せずに音声出力した後に、待機時間内に発音するので、見ないでシャドーイング学習を行うことができる。
また、本発明の実施形態の音声出力制御装置10によれば、相手パートと自分パートとが交互にある文データ(出力対象データ)において、文データ(出力対象データ)に対応するテキストを表示せずに音声出力した後に、さらに、相手パートの文データ(出力対象データ)のみ音声出力し、自分パートの文データ(出力対象データ)はテキスト表示も音声出力もしないので、テキストを見ずに会話練習を行うことができる。
また、本発明の実施形態の音声出力制御装置10によれば、相手パートと自分パートとが交互にある文データ(出力対象データ)において、相手パートの文データ(出力対象データ)のみ音声出力され、自分パートの文データ(出力対象データ)はテキスト表示も音声出力もされないので、ロールプレイにより学習の成果を確認することができる。
また、本発明の実施形態の音声出力制御装置10によれば、相手パートと自分パートとが交互にある文データ(出力対象データ)において、相手パート及び自分パートの文データ(出力対象データ)は、テキスト表示及び音声出力されるので、ロールプレイにより会話練習を行うことができる。
以上、説明した本発明の実施形態の音声出力制御方法によれば、文データ(出力対象データ)記憶手段に記憶された一連の複数の文データ(出力対象データ)について、各文データ(出力対象データ)の音声出力の間に、第1待機時間と第2待機時間のうちのいずれかの待機時間だけ待機させて音声出力させる音声出力制御ステップと、音声出力制御ステップによる音声出力中に、ユーザ操作に応じて、音声出力を中断させる音声中断ステップと、音声中断ステップにより音声出力が中断された状態で、ユーザ操作により、音声出力で採用されている第1又は第2待機時間の一方の待機時間を、他方の待機時間に変更する待機時間変更ステップと、待機時間変更ステップにより待機時間が変更された場合に、一連の複数の文データ(出力対象データ)の先頭の文データ(出力対象データ)から音声出力を再開させ、待機時間変更ステップにより待機時間が変更されなかった場合には、音声出力の中断時の文データ(出力対象データ)から音声出力を再開させる音声出力再開制御ステップと、を含む。このため、ユーザの習熟度に応じて、効率の良い学習を実現できる。
以上、説明した本発明の実施形態の音声出力制御プログラムによれば、コンピュータを、文データ(出力対象データ)記憶手段に記憶された一連の複数の文データ(出力対象データ)について、各文データ(出力対象データ)の音声出力の間に、第1待機時間と第2待機時間のうちのいずれかの待機時間だけ待機させて音声出力させる音声出力制御手段、音声出力制御手段による音声出力中に、ユーザ操作に応じて、音声出力を中断させる音声中断手段、音声中断手段により音声出力が中断された状態で、ユーザ操作により、音声出力で採用されている第1又は第2待機時間の一方の待機時間を、他方の待機時間に変更する待機時間変更手段、待機時間変更手段により待機時間が変更された場合に、一連の複数の文データ(出力対象データ)の先頭の文データ(出力対象データ)から音声出力を再開させ、待機時間変更手段により待機時間が変更されなかった場合には、音声出力の中断時の文データ(出力対象データ)から音声出力を再開させる音声出力再開制御手段、として機能させるためのコンピュータ読み込み可能である。このため、ユーザの習熟度に応じて、効率の良い学習を実現できる。
以下に、この出願の願書に最初に添付した特許請求の範囲に記載した発明を付記する。付記に記載した請求項の項番は、この出願の願書に最初に添付した特許請求の範囲のとおりである。
<請求項1>
文データ(出力対象データ)記憶手段に記憶された一連の複数の文データ(出力対象データ)について、各文データ(出力対象データ)の音声出力の間に、第1待機時間と第2待機時間のうちのいずれかの待機時間待機させて音声出力させる音声出力制御手段と、
前記音声出力制御手段による音声出力中に、ユーザ操作に応じて、音声出力を中断させる音声中断手段と、
前記音声中断手段により音声出力が中断された状態で、ユーザ操作に応じて前記音声出力で採用されている前記第1又は第2待機時間の一方の待機時間を、他方の待機時間に変更する待機時間変更手段と、
ユーザ操作に応じて前記音声中断手段によりユーザ操作に応じて音声出力が中断された状態で、ユーザ操作に応じて前記待機時間変更手段により待機時間が変更された場合に、前記一連の複数の文データ(出力対象データ)の先頭の文データ(出力対象データ)から音声出力を再開させ、ユーザ操作に応じて前記音声中断手段によりユーザ操作に応じて音声出力が中断された状態で、ユーザ操作に応じて前記待機時間変更手段により待機時間が変更されなかった場合には、前記音声出力の中断時の文データ(出力対象データ)から音声出力を再開させる音声出力再開制御手段と、
を備えることを特徴とする音声出力制御装置。
<請求項2>
ユーザ操作に応じて前記音声中断手段により音声出力が中断された状態で、ユーザの指定操作に応じて指定された前記複数の文データ(出力対象データ)のいずれかの音声出力を実行する指定文データ(出力対象データ)出力制御手段を備え、
前記音声出力再開制御手段は、ユーザ操作に応じて前記待機時間変更手段により待機時間が変更されず、ユーザ操作に応じて前記指定文データ(出力対象データ)出力制御手段により音声出力された場合には、前記音声出力の中断時の文データ(出力対象データ)から音声出力を再開させる、
ことを特徴とする請求項1に記載の音声出力制御装置。
<請求項3>
前記音声出力制御手段により音声出力される文データ(出力対象データ)に対応するテキストを表示するテキスト表示手段を有することを特徴とする請求項1又は請求項2に記載の音声出力制御装置。
<請求項4>
前記音声出力制御手段は、前記テキスト表示手段により前記文データ(出力対象データ)に対応するテキストが表示された状態で、ユーザ操作に応じて前記表示されたテキストに対応する文データ(出力対象データ)を音声出力した後に、ユーザに応じて前記表示されたテキストに含まれる前記文データ(出力対象データ)のユーザによる発音を待ち受けるための前記待機時間待機させる、
ことを特徴とする請求項3に記載の音声出力制御装置。
<請求項5>
前記音声出力制御手段は、前記文データ(出力対象データ)に対応するテキストが表示されない状態で、前記文データ(出力対象データ)を音声出力した後に、ユーザによる前記文データ(出力対象データ)の発音を待ち受けるための前記待機時間待機させる、
ことを特徴とする請求項1から請求項4までのいずれか1項に記載の音声出力制御装置。
<請求項6>
前記文データ(出力対象データ)憶手段は、相手パートの文データ(出力対象データ)と自分パートの文データ(出力対象データ)とを記憶しており、
前記テキスト表示手段は、前記相手パートの文データ(出力対象データ)を表示し、前記自分パートの文データ(出力対象データ)を表示せず、
前記音声出力制御手段は、前記相手パートの文データ(出力対象データ)を音声出力し、前記自分パートの文データ(出力対象データ)は音声出力しない、
ことを特徴とする請求項3に記載の音声出力制御装置。
<請求項7>
前記文データ(出力対象データ)記憶手段は、相手パートの文データ(出力対象データ)と自分パートの文データ(出力対象データ)とを記憶しており、
前記テキスト表示手段は、前記相手パートの文データ(出力対象データ)を表示し、前記自分パートの文データ(出力対象データ)を表示し、
前記音声出力制御手段は、前記相手パートの文データ(出力対象データ)を音声出力し、前記自分パートの文データ(出力対象データ)は音声出力しない、
ことを特徴とする請求項3に記載の音声出力制御装置。
<請求項8>
文データ(出力対象データ)記憶手段に記憶された一連の複数の文データ(出力対象データ)について、各文データ(出力対象データ)の音声出力の間に、第1待機時間と第2待機時間のうちのいずれかの待機時間待機させて音声出力させる音声出力制御ステップと、
前記音声出力制御ステップによる音声出力中に、ユーザ操作に応じて、音声出力を中断させる音声中断ステップと、
前記音声中断ステップにより音声出力が中断された状態で、ユーザ操作により、前記音声出力で採用されている前記第1又は第2待機時間の一方の待機時間を、他方の待機時間に変更する待機時間変更ステップと、
ユーザ操作に応じて前記音声中断ステップによりユーザ操作に応じて音声出力が中断された状態で、ユーザ操作に応じて前記待機時間変更ステップにより待機時間が変更された場合に、前記一連の複数の文データ(出力対象データ)の先頭の文データ(出力対象データ)から音声出力を再開させ、ユーザ操作に応じて前記音声中断ステップによりユーザ操作に応じて音声出力が中断された状態で、ユーザ操作に応じて前記待機時間変更ステップにより待機時間が変更されなかった場合には、前記音声出力の中断時の文データ(出力対象データ)から音声出力を再開させる音声出力再開制御ステップと、を含む
ことを特徴とする音声出力制御方法。
<請求項9>
コンピュータを、
文データ(出力対象データ)記憶手段に記憶された一連の複数の文データ(出力対象データ)について、各文データ(出力対象データ)の音声出力の間に、第1待機時間と第2待機時間のうちのいずれかの待機時間待機させて音声出力させる音声出力制御手段、
前記音声出力制御手段による音声出力中に、ユーザ操作に応じて、音声出力を中断させる音声中断手段、
前記音声中断手段により音声出力が中断された状態で、ユーザ操作により、前記音声出力で採用されている前記第1又は第2待機時間の一方の待機時間を、他方の待機時間に変更する待機時間変更手段、
ユーザ操作に応じて前記音声中断手段によりユーザ操作に応じて音声出力が中断された状態で、ユーザ操作に応じて前記待機時間変更手段により待機時間が変更された場合に、前記一連の複数の文データ(出力対象データ)の先頭の文データ(出力対象データ)から音声出力を再開させ、ユーザ操作に応じて前記音声中断手段によりユーザ操作に応じて音声出力が中断された状態で、ユーザ操作に応じて前記待機時間変更手段により待機時間が変更されなかった場合には、前記音声出力の中断時の文データ(出力対象データ)から音声出力を再開させる音声出力再開制御手段、
として機能させるためのコンピュータ読み込み可能なプログラム。
10 音声出力制御装置
12 メモリ(文データ(出力対象データ)記憶手段)
14 メイン画面(テキスト表示手段)
17 音声出力制御部(音声出力制御手段)
19 音声中断部(音声中断手段)
20 音声出力再開制御部(音声出力再開制御手段)
21 待機時間変更部(待機時間変更手段)
22 指定音声データ出力制御部(指定音声データ出力制御手段)

Claims (13)

  1. 記憶手段に記憶されている一連の複数の出力対象データを、各出力対象データを音声出力した後にユーザによる発音を待ち受けるために前記一連の複数の出力対象データに対して共通して設定されている共通待機時間の間は次の出力対象データを音声出力せずに待機させながら順次音声出力させていき、
    前記一連の複数の出力対象データの音声出力中に、ユーザ操作に応じて音声出力を中断させ、
    前記音声出力が中断された状態で、ユーザ操作に応じて前記共通待機時間が第1待機時間から第2待機時間に変更された場合に、前記一連の複数の出力対象データの先頭の出力対象データから音声出力を再開させ、各出力対象データを音声出力した後にユーザによる発音を待ち受けるために前記第2待機時間の間は次の出力対象データを音声出力せずに待機させながら順次音声出力させていき、
    前記音声出力が中断された状態で、ユーザ操作に応じて前記共通待機時間が変更されなかった場合には、前記音声出力の中断時の出力対象データから音声出力を再開させ、各出力対象データを音声出力した後にユーザによる発音を待ち受けるために前記第1待機時間の間は次の出力対象データを音声出力せずに待機させながら順次音声出力させていく、
    制御部を備える音声出力制御装置。
  2. 前記制御部は、前記一連の複数の出力対象データである一連の複数のテキストを表示させた状態で、各テキストを順次音声出力させていき、各出力対象データを音声出力した後にユーザによる発音を待ち受けるために前記共通待機時間の間は次の出力対象データを音声出力せずに待機させながら順次音声出力させていく、
    請求項1に記載の音声出力制御装置。
  3. 前記制御部は、前記音声出力が中断された状態で、前記共通待機時間を変更する操作、中断されている音声出力を再開させる操作、および指定されたテキストを音声出力させる操作、を含む複数の操作を受け付け、指定されたテキストを音声出力させる操作がなされた場合に、表示されている前記複数のテキストのうちの指定されたテキストを音声出力させる、
    請求項1または請求項2に記載の音声出力制御装置。
  4. 前記制御部は、前記音声出力が中断された状態で、前記中断されている音声出力を再開させる操作がなされるまでの間、前記共通待機時間を変更する操作、および前記指定されたテキストを音声出力させる操作、を繰り返し受け付ける、
    請求項3に記載の音声出力制御装置。
  5. 前記制御部は、前記一連の複数のテキストを、各出力対象データを音声出力した後にユーザによる発音を待ち受けるために前記共通待機時間の間は次の出力対象データを音声出力せずに待機させながら順次音声出力させていく際に、ユーザが選択した動作モードに応じて、前記一連の複数のテキストを表示するか否かを制御する、
    請求項1から請求項4までのいずれか1項に記載の音声出力制御装置。
  6. 前記制御部は、前記共通待機時間の待機中にユーザ音声を録音する、請求項1から請求項5までのいずれか1項に記載の音声出力制御装置。
  7. 前記制御部は、前記複数の出力対象データのそれぞれが、自分パートであるか相手パートであるかを判断し、前記自分パートであるか相手パートであるかの判断結果に応じて、各出力対象データを音声出力させるか否かを制御する、請求項1から請求項6までのいずれか1項に記載の音声出力制御装置。
  8. 前記記憶手段は、複数のパートに分けて出力対象データを記憶しており、
    前記制御部は、前記複数のパートの中から自分パートと相手パートを指定する、請求項7に記載の音声出力制御装置。
  9. 前記制御部は、前記複数の出力対象データのそれぞれが、自分パートであるか相手パートであるかを判断し、前記自分パートであるか相手パートであるかの判断結果に応じて、各出力対象データに対応するテキストを表示させるか否かを制御する、請求項7または請求項8に記載の音声出力制御装置。
  10. 前記記憶手段は、相手パートの出力対象データと自分パートの出力対象データとを記憶しており、
    前記制御部は、前記相手パートの出力対象データを表示し、前記自分パートの出力対象データを表示せず、前記相手パートの出力対象データを音声出力し、前記自分パートの出力対象データは音声出力しない、
    請求項7または請求項8に記載の音声出力制御装置。
  11. 前記記憶手段は、相手パートの出力対象データと自分パートの出力対象データとを記憶しており、
    前記制御部は、前記相手パートの出力対象データを表示し、前記自分パートの出力対象データを表示し、前記相手パートの出力対象データを音声出力し、前記自分パートの出力対象データは音声出力しない、
    請求項7または請求項8に記載の音声出力制御装置。
  12. 装置が、
    記憶手段に記憶されている一連の複数の出力対象データを、各出力対象データを音声出力した後にユーザによる発音を待ち受けるために前記一連の複数の出力対象データに対して共通して設定されている共通待機時間の間は次の出力対象データを音声出力せずに待機させながら順次音声出力させていき、
    前記一連の複数の出力対象データの音声出力中に、ユーザ操作に応じて音声出力を中断させ、
    前記音声出力が中断された状態で、ユーザ操作に応じて前記共通待機時間が第1待機時間から第2待機時間に変更された場合に、前記一連の複数の出力対象データの先頭の出力対象データから音声出力を再開させ、各出力対象データを音声出力した後にユーザによる発音を待ち受けるために前記第2待機時間の間は次の出力対象データを音声出力せずに待機させながら順次音声出力させていき、
    前記音声出力が中断された状態で、ユーザ操作に応じて前記共通待機時間が変更されなかった場合には、前記音声出力の中断時の出力対象データから音声出力を再開させ、各出力対象データを音声出力した後にユーザによる発音を待ち受けるために前記第1待機時間の間は次の出力対象データを音声出力せずに待機させながら順次音声出力させていく、
    処理を実行する音声出力制御方法。
  13. コンピュータに、
    記憶手段に記憶されている一連の複数の出力対象データを、各出力対象データを音声出力した後にユーザによる発音を待ち受けるために前記一連の複数の出力対象データに対して共通して設定されている共通待機時間の間は次の出力対象データを音声出力せずに待機させながら順次音声出力させていき、
    前記一連の複数の出力対象データの音声出力中に、ユーザ操作に応じて音声出力を中断させ、
    前記音声出力が中断された状態で、ユーザ操作に応じて前記共通待機時間が第1待機時間から第2待機時間に変更された場合に、前記一連の複数の出力対象データの先頭の出力対象データから音声出力を再開させ、各出力対象データを音声出力した後にユーザによる発音を待ち受けるために前記第2待機時間の間は次の出力対象データを音声出力せずに待機させながら順次音声出力させていき、
    前記音声出力が中断された状態で、ユーザ操作に応じて前記共通待機時間が変更されなかった場合には、前記音声出力の中断時の出力対象データから音声出力を再開させ、各出力対象データを音声出力した後にユーザによる発音を待ち受けるために前記第1待機時間の間は次の出力対象データを音声出力せずに待機させながら順次音声出力させていく、
    処理を実行させるためのコンピュータ読み込み可能なプログラム。
JP2017110521A 2017-06-05 2017-06-05 音声出力制御装置、音声出力制御方法及びプログラム Active JP6957994B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2017110521A JP6957994B2 (ja) 2017-06-05 2017-06-05 音声出力制御装置、音声出力制御方法及びプログラム
CN201810568605.9A CN108986784B (zh) 2017-06-05 2018-06-05 语音输出控制装置及语音输出控制方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017110521A JP6957994B2 (ja) 2017-06-05 2017-06-05 音声出力制御装置、音声出力制御方法及びプログラム

Publications (3)

Publication Number Publication Date
JP2018205522A JP2018205522A (ja) 2018-12-27
JP2018205522A5 JP2018205522A5 (ja) 2020-06-11
JP6957994B2 true JP6957994B2 (ja) 2021-11-02

Family

ID=64540083

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017110521A Active JP6957994B2 (ja) 2017-06-05 2017-06-05 音声出力制御装置、音声出力制御方法及びプログラム

Country Status (2)

Country Link
JP (1) JP6957994B2 (ja)
CN (1) CN108986784B (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113113013B (zh) * 2021-04-15 2022-03-18 北京帝派智能科技有限公司 一种智能语音交互打断处理方法、装置及系统

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4341111B2 (ja) * 1999-08-18 2009-10-07 ソニー株式会社 記録再生装置および記録再生方法
JP2003167502A (ja) * 2001-11-30 2003-06-13 Seiko Epson Corp 携帯型の語学学習装置
JP2003241780A (ja) * 2002-02-21 2003-08-29 Sanyo Electric Co Ltd 情報再生装置および情報再生方法
JP4622728B2 (ja) * 2005-08-03 2011-02-02 カシオ計算機株式会社 音声再生装置および音声再生処理プログラム
JP5842452B2 (ja) * 2011-08-10 2016-01-13 カシオ計算機株式会社 音声学習装置及び音声学習プログラム
JP5929879B2 (ja) * 2013-12-06 2016-06-08 カシオ計算機株式会社 音声出力装置、プログラム、及び音声出力方法
JP6535998B2 (ja) * 2014-09-16 2019-07-03 カシオ計算機株式会社 音声学習装置および制御プログラム
JP6613560B2 (ja) * 2014-12-12 2019-12-04 カシオ計算機株式会社 電子機器、学習支援方法およびプログラム

Also Published As

Publication number Publication date
JP2018205522A (ja) 2018-12-27
CN108986784B (zh) 2023-08-04
CN108986784A (zh) 2018-12-11

Similar Documents

Publication Publication Date Title
JP2016045420A (ja) 発音学習支援装置およびプログラム
WO2010133072A1 (zh) 发音评测装置及其方法
JP5842452B2 (ja) 音声学習装置及び音声学習プログラム
JP6466391B2 (ja) 言語学習装置
JP6957994B2 (ja) 音声出力制御装置、音声出力制御方法及びプログラム
JP6166831B1 (ja) 単語学習支援装置、単語学習支援プログラム、単語学習支援方法
JP6045175B2 (ja) 情報処理プログラム、情報処理装置、情報処理方法及び情報処理システム
US20100105015A1 (en) System and method for facilitating the decoding or deciphering of foreign accents
JP6641680B2 (ja) 音声出力装置、音声出力プログラムおよび音声出力方法
CN109559575B (zh) 学习辅助装置、学习辅助系统和学习辅助方法
JP7013702B2 (ja) 学習支援装置、学習支援方法、及び、プログラム
JP6746886B2 (ja) 学習支援装置及びその学習支援装置用のプログラム
JP2002156897A (ja) 発音学習装置
JP2019175245A (ja) 音声合成装置
JP2017126252A (ja) 音声翻訳装置、音声翻訳方法、及び音声翻訳プログラム
JP6225236B1 (ja) 情報処理装置、プログラムおよび情報処理方法
JP6383748B2 (ja) 音声翻訳装置、音声翻訳方法、及び音声翻訳プログラム
KR20160086169A (ko) 알파벳과 한글 상호간 오버래핑 방식이 적용된 학습용 단말기를 이용한 파닉스 학습 방법 및 학습용 단말기를 이용한 파닉스 학습 방법을 실행시키는 프로그램이 기록된 기록매체
JP6535999B2 (ja) 言語学習装置、言語学習方法及びプログラム
TWI470589B (zh) 雲端數位語音教學錄音系統
JP3507005B2 (ja) 外国語学習支援装置
JP5057764B2 (ja) 音声合成装置及び音声合成プログラム
JP2019012228A (ja) 制御装置、被操作機器、制御方法、および制御プログラム
KR100457400B1 (ko) 디지털 어학 학습기의 단위 문장 출력 방법
JP2004177635A (ja) 文章読み上げ装置、同装置のためのプログラム及び記録媒体

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200424

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200424

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201218

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210119

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210316

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210907

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210920

R150 Certificate of patent or registration of utility model

Ref document number: 6957994

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150