JP3655808B2 - Speech synthesis apparatus, speech synthesis method, portable terminal device, and program recording medium - Google Patents
Speech synthesis apparatus, speech synthesis method, portable terminal device, and program recording medium Download PDFInfo
- Publication number
- JP3655808B2 JP3655808B2 JP2000151297A JP2000151297A JP3655808B2 JP 3655808 B2 JP3655808 B2 JP 3655808B2 JP 2000151297 A JP2000151297 A JP 2000151297A JP 2000151297 A JP2000151297 A JP 2000151297A JP 3655808 B2 JP3655808 B2 JP 3655808B2
- Authority
- JP
- Japan
- Prior art keywords
- voice
- analysis
- speech
- instruction
- analysis result
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Machine Translation (AREA)
- Document Processing Apparatus (AREA)
Description
【0001】
【発明の属する技術分野】
この発明は、文字情報から音声を合成する音声合成装置および音声合成方法、携帯端末器、並びに、プログラム記録媒体に関する。
【0002】
【従来の技術】
従来、日本語解析時における解析誤りに起因する日本語文認識誤り等に対処する装置として、特開平4‐160630号公報に開示されているような規則音声合成装置がある。この規則音声合成装置においては、入力文字列に関する複数の日本語解析結果を確定順位と共に読上げ文バッファに保持しておき、これらの複数の日本語解析結果情報を利用するようにしている。この規則音声合成装置によれば、ある確定順位の日本語解析結果に基づく合成音声中に認識誤り(入力文字列の読み誤り)があるため、ユーザーが「違う」等と発声した場合に、確定順位が1つ低い日本語解析結果に基づいて合成音を生成することができ、入力文字列の読み誤り箇所を別の読み方で合成することができる。こうすることによって、上記読み誤りがあった場合に、繁雑な手間や作業を要せずに対話的に訂正作業ができるのである。
【0003】
【発明が解決しようとする課題】
しかしながら、上記従来の規則音声合成装置においては、以下のような問題がある。すなわち、上記読上げ文バッファに保持されている日本語解析結果の単位で読み誤りを訂正するようにしている。したがって、上記入力文字列でなる入力文(読上げ文)の読み誤り箇所を特定して、その箇所から読み直して読上げ文の途中から再発声させることはできないのである。そのために、長文の読上げ文における最後の個所で再発声を要求した場合でも、読上げ文の最初から発声し直すことになり、目的の合成音声が得られるまでに時間が掛るという問題がある。
【0004】
また、上記規則音声合成装置においては、入力文字列(読上げ文)の読み誤りには対処できるものの、ユーザが聞き取れなかった場合の聞き直しには、対処できないようになっている。特に、ユーザは文の後半のみが聞き取れなかった場合には、文の先頭から聞き直したいのではなく、聞き取れなかた後半の箇所のみを聞き直したいはずである。その場合に、読上げ文中の特定の位置から後のみを再発声させることは全くできないという問題がある。
【0005】
そこで、この発明の目的は、音声出力文中の特定位置から再発声を行うことができる音声合成装置を提供することにある。
【0006】
【課題を解決するための手段】
上記目的を達成するため、第1の発明は、入力された文字列情報を解析手段で解析し,この解析結果に基づいて音声合成手段によって音声を合成して出力する音声合成装置において、再発声を促すための指示を入力する指示入力手段と、上記指示入力手段からの指示を受けて,上記解析手段による解析結果に基づいて上記文字列情報中における再発声の開始位置を特定する位置特定手段と、上記音声合成手段に対して上記特定された開始位置からの音声合成を指示する制御手段を備えて、上記解析結果は文節間結合度を含み、上記位置特定手段は、上記文字列情報中における上記指示入力手段から指示を受けた時点に対応する位置より前の文節から、モーラ数と上記文節間結合度とに基づいて上記開始位置となる文節を特定するようになっていることを特徴としている。
【0007】
上記構成によれば、合成音声での再発声を促すための指示が指示入力手段から入力されると、位置特定手段によって、解析手段による解析結果に基づいて再発声の開始位置が特定される。したがって、ユーザは、出力合成音声が聞き取れない場合には、その時点で指示入力手段から指示を行うだけで、出力合成音声文中の特定位置から再発声を聞くことができ、長文の後半のみが聞き取れなかった場合でも少ない時間で聞き直しができる。
【0008】
さらに、再発声の開始位置を特定する指標としてモーラ数が用いられて、指示を受けた時点に近過ぎず且つ遠過ぎない文節が再発声の開始位置として選ばれる。さらに、再発声の開始位置を特定する指標として文節間結合度が用いられて、言語的に結合度合が弱く区切れ易い適切な文節が再発声の開始位置として選ばれる。
【0009】
また、第2の発明は、入力された文字列情報を解析手段で解析し,この解析結果に基づいて音声合成手段によって音声を合成して出力する音声合成装置において、再発声を促すための指示を入力する指示入力手段と、上記指示入力手段からの指示を受けて,上記解析手段による解析結果に基づいて上記文字列情報中における再発声の開始位置を特定する位置特定手段と、上記音声合成手段に対して上記特定された開始位置からの音声合成を指示する制御手段を備えて、上記解析結果は尤度を含み、上記位置特定手段は、上記文字列情報中における上記指示入力手段から指示を受けた時点に対応する位置以前の文節に関して、各解析結果の候補を入れ換えながら尤度の合計値を算出し、得られた尤度の合計値に基づいて上記再発声の開始位置を特定するようになっていることを特徴としている。
【0010】
上記構成によれば、各解析結果の候補を入れ換えながら算出された尤度の合計値に基づいて再発声の開始位置が特定される。したがって、入力された文字列情報「市場開放によってもたらされる」に基づいて合成音声「しじょーかいほうによっても、たらされる」が発声された場合に、上記尤度の合計値を次に高くする第2候補「よって」が選択されて、再発声の開始位置であるとして特定される。その結果、「よって、もたらされる」の合成音声が再発声される。
【0011】
また、上記第1の発明の音声合成装置は、上記解析結果を,尤度を含むように成すと共に、上記文字列情報中における上記指示入力手段から指示を受けた時点に対応する位置以前の文節に関して,各解析結果の候補を入れ換えながら尤度の合計値を算出し,得られた尤度の合計値に基づいて再発声を行う際の解析結果を選択する結果選択手段を備えることが望ましい。
【0012】
上記構成によれば、各解析結果の候補を入れ換えながら算出された尤度の合計値に基づいて再発声を行う際の解析結果が選択される。したがって、入力された文字列情報「市場開放によってもたらされる」に基づいて合成音声「いちば」が発声された場合に、発声の異なる第2候補「しじょー」が選択されて、「しじょーかいほうによってもたらされる」の合成音声が再発声される。
【0013】
また、上記第2の発明の音声合成装置は、上記解析結果を,上記尤度に加えて ,音韻明瞭度・単語出現確率および単語重要度の少なくとも一つを含むように成し、上記位置特定手段を,上記解析結果の尤度に加えて上記音韻明瞭度・単語出現確率及び単語重要度の少なくとも一つを用いて選出した上記再発声の開始位置候補に基づいて , 上記再発声の開始位置を特定するように成すことが望ましい。
【0014】
上記構成によれば、解析結果尤度に基づいて上記利用者による再発声指示の意図「読み誤り」が反映された位置が再発声の開始位置候補として選出される。さらに、音韻明瞭度または単語出現確率に基づいて上記意図「聞き取れない」が反映された位置が再発声の開始位置候補として選出される。あるいは、単語重要度に基づいて上記意図「重要個所の確認」が反映された位置が再発声の開始位置候補として選出される。
【0015】
また、この発明の音声合成装置は、上記音声合成手段を,上記解析手段による解析結果に基づいて音声合成情報列を生成する音声合成情報生成手段を有して,上記音声合成情報列に基づいて音声を合成するように成すと共に、上記制御手段の指示に従って,上記音声合成情報生成手段によって生成された音声合成情報列のうち上記再発声の開始位置以降における所定の音声合成情報列を他の音声合成情報列に変換する音声合成情報変換手段を備えることが望ましい。
【0016】
上記構成によれば、音声合成情報変換手段によって、上記再発声の開始位置以降における所定の音声合成情報列が他の音声合成情報列に変換される。したがって、聞き取れなかった個所の発声が、「発声速度を少し遅め」に、あるいは「発声ピッチを少し高め」に、あるいは「発声パワーを少し大きめ」に、あるいは「音韻長を少し長め」にして再発声を行うことが可能になる。
【0017】
また、この発明の音声合成装置は、上記解析結果は読み系列情報を含むと共に、文字とこの文字に対応した対応文とを記憶した文字文記憶手段と、上記制御手段の指示に従って,上記解析手段による解析結果のうち上記再発声の開始位置以降における所定の解析結果の読み系列を上記文字文記憶手段に記憶された対応文の解析結果列に変換する文字文変換手段を備えることが望ましい。
【0018】
上記構成によれば、文字文記憶手段に、文字「す」,「ず」及び「き」とこの文字に対応した対応文「すずめのす」,「すずめのすに濁点」および「切手のき」とを記憶しておけば、文字文変換手段によって、上記再発声の開始位置以降における所定の文「鈴木」の読み系列「すずき」が、対応文の列「すずめのす、すずめのすに濁点、切手のき」に変換されて再発声される。
【0019】
また、この発明の音声合成装置は、上記指示入力手段を、音声入力された指示を認識する音声認識手段で構成することが望ましい。
【0020】
上記構成によれば、ユーザの再発声要求意図が、ユーザの音声によって明示される。
【0021】
また、この発明の音声合成装置は、再発声を促す語彙を記憶した音声認識辞書と、単語と上記再発声を促す語彙との関連性の有無を記憶した解析辞書を備えて、上記音声認識手段は,上記音声認識辞書を用いて再発声を促す語彙を認識し、上記解析手段は,上記解析辞書を用いて上記再発声を促す語彙との関連性の有無を表わす関連情報を含む上記解析結果を生成し、上記位置特定手段は,上記解析手段からの関連情報に基づいて上記再発声の開始位置を特定するようになっていることが望ましい。
【0022】
上記構成によれば、上記音声認識辞書に「誰」,「いつ」,「どこで」等の再発声を促す語彙を登録しておくことによって、ユーザが知りたい情報が何かを問いかけるこれらの語彙が音声認識された場合には、これらの語彙との関連性が高い「鈴木さん」,「昨日」,「会社で」等の人名や時や場所を表す単語から再発声が行われる。
【0023】
また、第3の発明は、入力された文字列情報を解析し,この解析結果に基づいて音声を合成して出力する音声合成方法において、再発声を促すための指示を入力するステップと、上記入力された指示を受けて,上記入力された文字列情報の解析結果に基づいて上記文字列情報中における再発声の開始位置を特定するステップと、上記特定された開始位置から音声合成を行うステップを備えて、上記解析結果は文節間結合度を含み、上記開始位置を特定するステップでは、上記文字列情報中における上記指示入力手段から指示を受けた時点に対応する位置より前の文節から、モーラ数と上記文節間結合度とに基づいて上記開始位置となる文節を特定することを特徴としている。
【0024】
上記構成によれば、合成音声による再発声を促すための指示が入力されると、上記入力された文字列情報の解析結果に基づいて、合成音声による再発声の開始位置が特定される。したがって、ユーザは、出力合成音声が聞き取れない場合には、その時点で指示を行うだけで、出力合成音声文中の特定位置から再発声を聞くことができ、長文の後半のみが聞き取れなかった場合でも少ない時間で聞き直しができる。
【0025】
さらに、再発声の開始位置を特定する指標としてモーラ数が用いられて、指示を受けた時点に近過ぎず且つ遠過ぎない文節が再発声の開始位置として選ばれる。さらに、再発声の開始位置を特定する指標として文節間結合度が用いられて、言語的に結合度合が弱く区切れ易い適切な文節が再発声の開始位置として選ばれる。
【0026】
また、第4の発明の携帯端末器は、この発明の音声合成装置を備えたことを特徴としている。
【0027】
上記構成によれば、文字情報の少ない携帯端末器によって、比較的長い文面の電子メールの内容を合成音声出力によって知る場合に、再発声個所や次候補の選択が自動的に行われるため、非常に簡単な操作で的確な再発声や発声変更が行われる。
【0028】
また、第5の発明のプログラム記録媒体は、コンピュータを、入力された文字列情報を解析する解析手段と、上記解析手段による文節間結合度を含む解析結果に基づいて音声を合成する音声合成手段と、再発声を促すための指示を入力する指示入力手段と、上記指示入力手段からの指示を受けて,解析手段による解析結果に基づいて,上記文字列情報中における上記指示入力手段から指示を受けた時点に対応する位置より前の文節から,モーラ数と上記文節間結合度とに基づいて上記文字列情報中における再発声の開始位置となる文節を特定する位置特定手段と、上記音声合成手段に対して上記特定された開始位置からの音声合成を指示する制御手段として機能させる音声合成処理プログラムが記録されていることを特徴としている。
【0029】
上記構成によれば、上記第1の発明の場合と同様に、ユーザは、出力合成音声が聞き取れない場合には、その時点で指示を行うだけで、出力合成音声文中の特定位置から再発声を聞くことができ、長文の後半のみが聞き取れなかった場合でも少ない時間で聞き直しができる。
【0030】
さらに、再発声の開始位置を特定する指標としてモーラ数が用いられて、指示を受けた時点に近過ぎず且つ遠過ぎない文節が再発声の開始位置として選ばれる。さらに、再発声の開始位置を特定する指標として文節間結合度が用いられて、言語的に結合度合が弱く区切れ易い適切な文節が再発声の開始位置として選ばれる。
【0031】
【発明の実施の形態】
以下、この発明を図示の実施の形態により詳細に説明する。
<第1実施の形態>
図1は、本実施の形態の音声合成装置における構成を示すブロック図である。テキスト解析部1は、入力されたテキストの言語を解析し、得られたテキスト解析結果を解析記憶部3に一時的に記憶する。解析辞書メモリ2は、テキスト解析部1がテキスト解析を行う際に必要な解析辞書を含む言語データ等を格納している。上記音声合成情報生成手段としての音韻処理部4は、解析記憶部3に記憶されているテキスト解析結果に基づいて、読み系列情報(音韻記号列),アクセント情報および文節区切り情報等の音声合成情報を生成する。そうすると、音声合成部5は、音韻処理部4によって生成された音声合成情報列に基づいて、音声を合成してスピーカ(図示せず)から出力する。
【0032】
指示入力部6は、音声合成部5からの出力合成音声に対してユーザが再発声を促すための指示を入力する。この指示入力部6は、ボタンあるいはキーボード等で構成される。位置特定部7は、解析記憶部3に記憶されているテキスト解析結果に基づいて、上記テキスト中における再発声を開始する位置を特定する。制御部8は、指示入力部6からの指示を受けて位置特定部7に再発声開始位置を特定させ、特定された上記テキスト中の位置から以降のテキスト解析結果の読み出しを音韻処理部4に指示して再発声を開始させる。
【0033】
図2は、上記構成を有する音声合成装置の各部によって実行される音声合成処理動作のフローチャートである。以下、図2のフローチャートに従って、テキスト解析部1に「鈴木さんから商談の件でメールが来ています」という漢字仮名混じり文が入力された場合を例に上げて、本音声合成装置の動作を説明する。
【0034】
ここで、上記テキスト解析部1に対するテキストの入力は、キーボード,ペンあるいは音声認識装置等の文入力手段からの入力でもよいし、メールやWWW等のネットワークを経由した入力でも構わない。こうして、テキスト解析部1にテキストが入力されると音声合成処理動作がスタートする。
【0035】
ステップS1で、上記テキスト解析部1によってテキスト解析が行われる。すなわち、入力文が解析辞書メモリ2に格納された解析辞書を参照して形態素に分割され、読みや品詞等の情報が付与される。上記入力文の場合は、「鈴木(すずき:固有名詞)」,「さん(さん:接尾語)」,「から(から:助詞)」,「商談(しょーだん:名詞)」,「の(の:助詞)」,「件(けん:名詞)」,「で(で:助詞)」,「メール(めーる:名詞)」,「が(が:助詞)」,「来(き:動詞)」,「て(て:助詞)」,「い((い:動詞)」,「ます(ます:助動詞)」の形態素に分割される。
【0036】
ステップS2で、上記テキスト解析部1によってテキストの解析結果が解析記憶部3に記憶される。図3に解析記憶部3における格納状態の概念図を示す。図3において、解析結果尤度,アクセント情報および文節間結合度の欄には、後述するような数値情報が格納される。尚、上記ステップS1におけるテキスト解析処理においては、解析候補が複数得られる。そして、夫々の解析候補に尤度を付けた際に、尤度順位が最も高い解析候補をテキスト解析結果として解析記憶部3に記憶するのである。その場合、夫々の解析候補の尤度も解析記憶部3に記憶される。
【0037】
さらに、上記各解析結果の連接から文節が生成され、文節の情報が解析記憶部3に記憶される。それと共に、先行文節と後続文節との結合性の度合を表わす文節間結合度が計算され、文節毎のアクセント情報がアクセント規則等に基づいて計算される。そして、得られた文節間結合度およびアクセント情報も合わせて記憶される。
【0038】
上記文節間結合度は韻律を制御するために使用されるものであり、文節間結合度によってポーズの長さやフレーズ指令の大きさが決定される。すなわち、文節間結合度が大きければ両文節の結合は弱いために明確なポーズが入れられて、夫々の文節が独立に句を構成するのである。尚、上記文節間結合度の計算は、一般的には先行文節と後続文節との品詞パターン毎に設定された結合値が記載されたテーブル(図示せず)を用いて行われる。
【0039】
ステップS3で、上記音韻処理部4によって、上記解析記憶部3に格納されたテキスト解析結果に基づいて、解析結果尤度が最も高い単語の並びに対して音韻処理が行われる。ステップS4で、音声合成部5によって、上記ステップS3における音韻処理によって得られた音声合成情報列に基づいて音声が合成される。そして、合成音がスピーカ等から出力される。ステップS5で、上記スピーカから出力された音声に対して、ユーザから、聞き取り難い音声がある旨の指示が指示入力部6からあるか否かが判別される。その結果、あればステップS6に進み、無ければステップS8に進む。
【0040】
ステップS6で、上記制御部8および音声合成部5によって、その時点で合成音声の出力が中断される。ステップS7で、制御部8および位置特定部7によって、解析記憶部3の内容が参照されて、再発声開始文節が決定される。そして、決定された再発声開始文節以降のテキスト解析結果の読み出しが音韻処理部4に指示される。そうした後に、上記ステップS3に戻って、再発声開始文節以降の文節に関して、音韻処理及び音声合成が再度行われる。そして、上記ステップS5において、ユーザからの指示がないと判別されると、ステップS8に進む。尚、上記再発声開始文節の決定方法については後に詳述する。
【0041】
ステップS8で、上記テキスト解析部1に入力された次の文があるか否かが判別される。その結果、あれば上記ステップS1に戻って、次の文の処理に移行する。一方、無ければ音声合成処理動作を終了する。
【0042】
以下、上述した音声合成処理動作における上記ステップS4以降の処理に付いて、上記入力文「鈴木さんから商談の件でメールが来ています」に従って更に詳細に説明する。上記ステップS4において、スピーカから「鈴木さんから商談の件でメールが来ています」と出力された際に、図4に示すように、ユーザが「商談」の単語が聞き取り難かったとする。そして、「メールが」近傍まで音声出力された時点で、ユーザが「再発声」の指示を行うと、一旦音声合成/出力が中断されて、どの文節から再発声を行うかを決定する処理に移行する。
【0043】
再発声する文節位置を決める指標として、本実施の形態においては、その一例として、指示時点から先頭文節までのモーラ数と文節間結合度とを用いる。ここで、上記モーラ数を指標に入れる理由は、再発声開始文節の位置として指示時点に近過ぎず且つ遠過ぎない位置を選び易くするためである。再発声の指示時点に相当する文字から数えてモーラ数の少ない文節(すなわち接近している文節)から再発声を開始すると、本来聞き直したい箇所まで戻らない可能性がある。逆に、モーラ数が多すぎると、かなり遡った位置から再発声が開始されることになり、本来聞き直したい箇所まで到達するのに時間が掛り、再度聞き逃してしまう場合も発生する。そこで、図5に示すように、適切なモーラ数における評価関数値が最高の値になり、そのモーラ数から更にモーラ数が増えるに従って評価関数値が徐々に減るような評価関数f(x)を定義するのである。
【0044】
上の例文であれば、第4文節「メールが」の「が」の位置で再発声の指示が行われた場合、文節「メールが」までのモーラ数は4、文節「件で」までのモーラ数は7、文節「商談の」までのモーラ数は12、文節「鈴木さんから」までのモーラ数は19となる。そして、指示時点とのモーラ数差が「4」では少なすぎる一方、モーラ数差が「19」では多すぎると見なし、「件で」や「商談の」のあたりが妥当であると判断されるのである。
【0045】
また、上記文節間結合度を用いる理由は、適切な文節の区切れ目から再発声を開始させるためである。上述の例文であれば、文節間結合度Bは以下のような関係になる。尚、文節間結合度Bは、その値が大きいほど結合度合は弱い(すなわち区切れ易い)ことを表わす。また、B(a,b)における「a」は文節番号であり、「b」は候補番号である。
B(3,1)>B(1,1)>B(4,1)>B(2,1)>B(5,1)
【0046】
すなわち、第3文節「件で」と第4文節「メールが」との間の文節の結合度が最も弱く、第5文節「来て」と第6文節「います」との間の文節の結合度が最も強い。そして、第2文節「商談の」‐第3文節「件で」(B(2,1))と、第1文節「鈴木さんから」−第2文節「商談の」(B(1,1))とを比較した場合、後者の方が結合度は弱いので、文節「件で」から再発声を開始するよりも、文節「商談の」から再発声を開始する方がよいということになる。
【0047】
以上で述べたように、上記指示時点から文節先頭までのモーラ数と文節間結合度とに基づいて再発声する文節位置を決めることによって、上記指示時点に近過ぎず且つ遠過ぎない位置で、言語的にも適切な位置で発声を再開できる。したがって、本実施の形態においては、以下のように、上記指示時点から先頭文節までのモーラ数「x」と文節間結合度「y」とをパラメータとする関数g(x,y)を定義し、各文節毎に関数値を求めて比較することによって、再発声を開始する文節を最適に決めることができるのである。
g(x,y)=α・f(x)+β・y
【0048】
上述のように、本実施の形態においては、上記テキスト解析部1で得られたテキスト解析結果を記憶する解析記憶部3を設け、入力テキストの各文節毎に、構成単語,解析結果尤度,アクセント情報および文節間結合度を記憶しておく。そして、上記テキスト解析結果に基づいて出力された合成音声が聞き取り難い場合には、その時点で指示入力部6からその旨の指示がなされる。そうすると、制御部8の制御の下に、合成音声の出力が中断され、位置特定部7によって、上記指示時点から先頭文節までのモーラ数「x」と文節間結合度「y」とをパラメータとして定義された関数g(x,y)に基づいて、合成音声の出力を再開始する文節の位置が決定される。そして、その文節位置から合成音声の出力を再開するようにしている。
【0049】
したがって、ユーザは、出力合成音声が聞き取れない場合には、その時点で指示入力部6から指示を行うことによって、上記指示時点に近過ぎず且つ遠過ぎない位置で、言語的にも適切な位置から合成音声の出力を再開することができるのである。すなわち、テキスト解析部1に入力された漢字仮名混じり文「鈴木さんから商談の件でメールが来ています」に基づいて合成音声が出力された際に、ユーザが「商談」の単語が聞き取れなかったために「メールが」近傍で「再発声」の指示を行うと、位置特定部7によって第2文節「商談の」が再発声開始位置であると特定される。そして、「商談の件でメールが来ています」の合成音声が再発声されるのである。
【0050】
すなわち、本実施の形態によれば、音声出力文中の特定位置から再発声を行うことができ、長文の後半のみが聞き取れなかった場合に少ない時間で聞き直しができるのである。
【0051】
<第2実施の形態>
上記第1実施の形態によれば、テキスト中の特定位置から再発声を行うことができるのではあるが、テキスト中の特定位置から発声を変えて再発声を行うことはできない。本実施の形態は、このような場合に対処するものである。
【0052】
図6は、本実施の形態の音声合成装置における構成を示すブロック図である。解析辞書メモリ12,解析記憶部13,音韻処理部15,音声合成部16および指示入力部17は、上記第1実施の形態における解析辞書メモリ2,解析記憶部3,音韻処理部4,音声合成部5および指示入力部6と同じ構成を有して、同様に動作する。
【0053】
テキスト解析部11は、上記第1実施の形態で述べたようにテキスト解析処理の結果得られた複数の解析候補を、尤度順位の高い順に解析記憶部13に記憶する。また、位置特定部14は結果選択手段18を有している。この結果選択手段18は、解析記憶部13に記憶されている複数の解析候補の中から、解析結果尤度の合計の高い順に一つの解析候補の組み合わせを選択して音韻処理部15に送出する。
【0054】
制御部19は、上記指示入力部17からの再発声指示を受けて、位置特定部14に再発声開始位置の特定を指示する。位置特定部14は、制御部19からの指示を受けて、結果選択手段18によって、解析記憶部13に記憶されている複数の解析候補の中から、解析結果尤度の合計値が現在音声合成中の解析候補の組み合わせの次に大きな解析候補の組み合わせを選択し、この選択結果に基づいて再発声の開始位置を特定する。
【0055】
図7は、上記構成を有する音声合成装置の各部によって実行される音声合成処理動作のフローチャートである。以下、図7に従って、音声合成装置の動作を説明する。
【0056】
ステップS11およびステップS12で、上記第1実施の形態におけるステップS1およびステップS2と同様にして、テキスト解析およびテキスト解析結果の解析記憶部13への記憶が行われる。但し、本実施の形態においては、図8に示すように、1つの単語に複数の解析候補が存在する場合には、各解析候補の尤度が大きい順に第1候補,第2候補,…の欄に格納するようにしている。
【0057】
ステップS13で、上記制御部19によって、現在選択されている解析候補の組み合わせに関する解析結果尤度の合計値の順位をカウントする変数iの値が「1」に初期化される。ステップS14で、指示入力部17からの発声変更指示がない場合には、位置特定部14の結果選択手段18によって、解析結果尤度の合計値がi番目に大きい解析候補列が解析記憶部13から選択される。そして、音韻処理部15によって、上記選択された解析候補列に基づいて音韻処理が行われる。したがって、最初は、解析結果尤度が最も高い単語の並びに対して音韻処理が行われることになる。ステップS15で、音声合成部16によって、上記ステップS14における音韻処理で得られた音声合成情報列に基づいて音声が合成されて、合成音がスピーカ等から出力される。ステップS16で、上記スピーカから出力された音声に対して、合成誤りがある旨の発声変更指示が指示入力部17からあるか否かが判別される。その結果、あればステップS17に進み、無ければステップS22に進む。
【0058】
ステップS17で、上記制御部19及び音声合成部16によって、その時点(jp:発声変更指示があった時点の文節番号)(1≦jp≦jn:jは文節番号,nは文節数)で合成音声の出力が中断される。ステップS18で、結果選択手段18によって、解析記憶部13に記憶されているj≦jpの全文節の結果候補を入れ換えながら、解析結果尤度Kの全文節に関する合計値ΣK(j,p(j))を「i+1」番目に大きくする(ja,p(ja))(1≦ja≦jn)が求められる。但し、「ja」は、「i+1」番目に大きな解析結果尤度Kの合計値ΣKが得られた際に交換された文節の番号であり、「p(ja)」はその候補番号である。
【0059】
ステップS19で、上記結果選択手段18によって、上記ステップS18において得られた入れ換え解析候補の解析候補情報(ja,p(ja))に基づいて、「ja」番目の文節における「p(ja)」番目の解析候補(以下、解析候補(ja,p(ja))と言う)と、「ja+1」番目以降における直前の音声合成時に用いられた解析候補列「(ja+1,p(ja+1))〜(jn,p(jn))」とが選択されて、音韻処理部15に送出される。ステップS20で、制御部19によって、順位iの内容がインクリメントされる。ステップS21で、順位iが全解析候補の組み合わせ総数Nより大きいか否かが判別される。そして、「N」より大きければステップS22に進む。一方、「N」以下であれば上記ステップS14に戻る。以後、音韻処理部15によって、直前の音声合成時に用いられた「ja」番目の文節以降の解析候補列中における「ja」番目の文節の解析候補が解析候補(ja,p(ja))に置き換えらた解析候補列に基づいて合成音声が出力される。
【0060】
こうして、上記ステップS16において発声変更指示がないと判別されるか、上記ステップS21において順位iが「N」より大きいと判別されるまで、上記ステップS17〜ステップS21,ステップS14〜ステップS16の処理が繰り返される。
【0061】
ステップS22で、上記テキスト解析部11に入力された次の文があるか否かが判別される。その結果、あれば上記ステップS11に戻って、次の文の処理に移行する。一方、無ければ音声合成処理動作を終了する。
【0062】
以下、上述した音声合成処理動作における上記ステップS18以降の処理に付いて、入力文「市場開放によってもたらされる」に従って更に詳細に説明する。図8は、「市場開放によってもたらされる」と言うテキスト文に対する解析記憶部13の格納状態を示す。単語「市場」に対して読みが「いちば」である解析候補と読みが「しじょー」である解析候補の2つの解析候補が存在する。また、文節連鎖「よってもたらされる」に対して、文節区切り位置の違いによって「よっても/たらされる」と「よって/もたらされる」との2つの解析候補列が存在する。
【0063】
上記テキスト解析部11によるテキスト解析の結果、第1文節の第1候補「いちば」の解析結果尤度K(1,1)と、第1文節の第2候補「しじょー」の解析結果尤度K(1,2)との間には、
K(1,1)>K(1,2)
という関係が成立したものとする。これは、文字列「市場」は、「いちば」と読む可能性の方が高いと言うテキスト解析の誤解析の例である。
【0064】
また、上記第3,第4文節の文節連鎖における第1候補「よっても/たらされる」の解析結果尤度K(3,1),K(4,1)と、第2候補「よって/もたらされる」の解析結果尤度K(3,2),K(4,2)との間には、
K(3,1)+K(4,1)>K(3,2)+K(4,2)
という関係が成立したものとする。
【0065】
今、図9に示すように、テキスト「市場開放によってもたらされる」が音声合成されて1回目の合成音声「いちばかいほうーによって」が出力された際に、「よって」という発声が行われている時点(jp=3)で利用者が発声変更指示を入力した場合は、第1音節〜第3音節との解析結果候補が順次入れ換えられて解析結果尤度Kの合計値ΣK(j,p(j))が算出される。その場合、第1〜第3音節の解析結果尤度Kの合計値は、「K(1,1)+K(2,1)+K(3,1)」が1番大きく、次に「K(1,2)+K(2,1)+K(3,1)」が2番目に大きいので、「i+1」番目に大きな、すなわち2番目に大きな解析結果尤度Kの合計値ΣKを呈する解析候補情報(1,2)が得られる。その結果、結果選択手段18によって、第1文節における「2」番目の解析候補「市場(しじょー)」が選択され、直前の音声合成時に用いられた第2文節以降の解析候補列と共に音韻処理部15に送出される。こうして、合成音声「しじょーかいほーによってもたらされる」が出力されるのである。
【0066】
次に、2回目の音声出力時に「たらされる」という発声が行われている時点(jp=4)で利用者が発声変更指示を入力した場合は、第1〜第4音節の解析結果尤度Kの合計値は、「K(1,2)+K(2,1)+K(3,1)+K(4,1)」が2番目に大きく、「K(1,2)+K(2,1)+K(3,2)+K(4,2)」が3番目に大きい(上述の「しじょー」の選択によって第1文節の解析候補はK(1,2)に固定される)。したがって、解析候補情報列(3,2),(4,2)が選択されて、合成音声「よって、もたらされる」が出力されるのである。
【0067】
尚、上記発声変更指示を入力する時点が遅れた場合には、解析結果候補を入れ換える文節を誤る場合が生ずる。例えば、第1文節「いちば」の発声変更の指示を「たらされる」の発声が行われている時点で行ったために、第4文節「もたらされた」の発声変更が行われてしまうような場合である。このような場合でも、再度発声変更を指示することによって次候補の発声が行われるため、所望の合成音声が出力されるまで発声変更の指示を繰り返せばよい。
【0068】
上述のように、本実施の形態においては、上記位置特定部14に、解析記憶部13に記憶されたテキスト解析結果を選択する結果選択手段18を設けている。そして、上記テキスト解析結果に基づいて出力された合成音声が間違っている場合には、その時点で指示入力部17から音声変更指示がなされる。そうすると、制御部19の制御の下に、合成音声の出力が中断され、位置特定部14の結果選択手段18によって、発声変更指示があった位置の文節よりも前の全文節の結果候補を入れ換えながら、解析結果尤度Kの合計値ΣKを次に大きくする入れ換え解析候補(ja,p(ja))が求められ、解析候補列(ja,p(ja))〜(jn,p(jn))が選択される。そして、音韻処理部15によって、解析候補列(ja,p(ja))〜(jn,p(jn))に基づいて再度合成音声が出力されるようにしている。
【0069】
したがって、ユーザは、出力合成音声に間違いを見つけた場合には、その時点で指示入力部17から発声変更指示を行うことによって、次候補の合成音声の出力を行うことができるのである。すなわち、テキスト解析部11に入力された漢字仮名混じり文「市場開放によってもたらされる」に基づいて合成音声が出力された際に、ユーザが「よっても、たらされた」の発声を変更したい場合に発声変更の指示を行うと、結果選択手段18によって第3,第4文節の第1候補「よっても」,「たらされた」が第2候補「よって」,「もたらされた」に入れ換えられる。そして、入れ換えが発声した文節以降の文節列「よって、もたらされる」の合成音声が再発声されるのである。
【0070】
すなわち、本実施の形態によれば、音声出力文中の特定位置から発声を変えて再発声を行うことができ、長文の後半のみが間違っている場合に少ない時間で修正ができるのである。
【0071】
尚、後述するように、音声認識部を併用することによって、指示入力部17に「違う」と音声入力することによって次候補を発声させ、「もう一度」と音声入力することによって同じ発声を繰り返させることが可能となる。このように、利用者が指示を明示的に行うことによって、利用者の意図とは異なる合成音声が出力されないようにすることが可能になる。
【0072】
<第3実施の形態>
上記第1実施の形態によれば、音声出力文中の特定位置から再発声を行うことができるのではあるが、再発声の際に最初と全く同じ合成音を出力するとやはり聞き取れない可能性がある。本実施の形態は、そのような場合に対処するものであって、再発声に際しては、最初聞き取り難かった部分の発声速度等の音声合成情報列を変えるものである。
【0073】
図10は、本実施の形態の音声合成装置び構成を示すブロック図である。テキスト解析部21,解析辞書メモリ22,解析記憶部23,音韻処理部24,音声合成部25,指示入力部26および位置特定部27は、上記第1実施の形態におけるテキスト解析部1,解析辞書メモリ2,解析記憶部3,音韻処理部4,音声合成部5,指示入力部6および位置特定部7と同じ構成を有して、同様に動作する。
【0074】
音声合成情報変換部29は、上記音韻処理部24で生成された音声合成情報列を制御部28からの指示に従って他の音声合成情報列に変換する。こうして、利用者が聞き取り難かった個所の音声合成情報列を変えることによって、発声の性質が違う合成音を生成することができ、以前聞き取れなかった個所を聞き取り易くするのである。
【0075】
ここで、聞き取り易い発声に変換する例としては、下記のような変換方法がある。
(1) 発声速度を少し遅めにする。
(2) 発声ピッチを少し高めにする。
(3) 発声パワーを少し大きめにする。
(4) 音韻長を少し長めにする。
【0076】
例えば、パワーを変更する場合は次のようにする。すなわち、母音パワーに影響を与える要因としては、当該母音の種類,隣接音韻の種類,位置,ピッチ等があり、これらの値からパワーの値を推定できる。したがって、上記要因の値から推定されたパワーの値よりやや高めの数値を設定することによって、最初とは異なる合成音声を生成することができる。また、発声速度を変更する場合には、予め適切な速度の値が決められており、再発声時にはその適性値よりも所定値だけ遅くなるように設定することによって、最初とは異なる合成音声を生成するのである。
【0077】
以上のように、本実施の形態によれば、上記音声合成情報における推定された値や予め設定されている値を少し変えることで、先の合成音声とは音声合成情報列が異なる合成音声を生成して出力することができる。したがって、再発声時における聞き取り易さの向上を図ることができるのである。
【0078】
<第4実施の形態>
本実施の形態は、上記第3実施の形態の場合と同様に、再発声の際に最初と異なる合成音を出力するものであって、再発声に際しては、最初聞き取り難かった部分の音声を正確に伝達するものである。
【0079】
図11は、本実施の形態の音声合成装置び構成を示すブロック図である。テキスト解析部31,解析辞書メモリ32,解析記憶部33,音韻処理部34,音声合成部35,指示入力部36および位置特定部37は、上記第1実施の形態におけるテキスト解析部1,解析辞書メモリ2,解析記憶部3,音韻処理部4,音声合成部5,指示入力部6および位置特定部7と同じ構成を有して、同様に動作する。
【0080】
文字文記憶部39は、1文字とそれに対応する文とを対にして記憶しているメモリであり、例えば和文通話に用いる文等を記憶する。尚、上記「和文通話」は、「あ」という文字に対して「朝日のあ」、「い」という文字に対して「いろはのい」のような文を対応させ、正確に音声を伝達する目的で使用されるものである。
【0081】
文字文変換部40は、制御部38からの指示に従って、ユーザが聞き取り難かったと判断した個所(位置特定部37で特定された再発声開始位置に基づいて制御部38によって判断される)の解析結果における読み系列情報を、文字文記憶部39に記憶されている対応する文に変換する。例えば、「すずき」という合成音声をユーザが聞き取り難かったと判断した場合は、「すずめのす、すずめのすに濁点、切手のき」という上記和文通話で用いる文に変換する。そして、この変換文のテキスト解析結果を生成して音韻処理部34に送出するのである。
【0082】
以後、上記音韻処理部34によって、文字文変換部40で生成されたテキスト解析結果に基づいて音声合成情報列を生成し、音声合成部35によって、上記生成されたで音声合成情報列に基づいて合成音声が出力される。
【0083】
以上のごとく、本実施の形態によれば、指示入力部36からの指示に従って、例えば、合成音声「すずき」をユーザが聞き取り難かったと判断した場合は、制御部38及び文字文変換部40によって、読み系列情報「すずき」を上記和文通話で用いる文に変換し、この変換文のテキスト解析結果を生成するようにしている。したがって、読み系列情報「すずき」を再発声する際には、「すずめのす、すずめのすに濁点、切手のき」と再発声することができ、ユーザの聞き取り難い個所を更に明瞭にすることができるのである。
【0084】
<第5実施の形態>
上記第1実施の形態においては、文節間結合度とモーラ数とに基づいて再発声の開始位置を特定している。また、第2実施の形態においては、解析結果尤度に基づいて再発声の開始位置を特定している。本実施の形態においては、ユーザの再発声要求意図を反映した位置を再発声開始位置として設定するものである。
【0085】
図12は、本実施の形態の音声合成装置び構成を示すブロック図である。テキスト解析部41,解析辞書メモリ42,解析記憶部43,音韻処理部45,音声合成部46,指示入力部47および音声合成情報変換部51は、上記第3実施の形態におけるテキスト解析部21,解析辞書メモリ22,解析記憶部23,音韻処理部24,音声合成部25,指示入力部26および音声合成情報変換部29と同じ構成を有して、同様に動作する。また、結果選択部44は、上記第2実施の形態における結果選択手段18と同じ構成を有して、同様に動作する。
【0086】
位置特定部48は、開始位置候補選出手段49を有して、ユーザが再発声を要求した意図を反映させて再発声の開始位置を特定する。以下、位置特定部48の機能について説明する。
【0087】
上記テキスト解析部41に対する入力テキストの何れの個所から再発声を行うかを決めるためには、(1)聞き直したい要因、(2)聞き直したい項目、(3)再発声する個所としての妥当性を考慮する必要がある。さらに、聞き直したい要因としては、(a)読み間違い、(b)音韻が不明瞭、(c)出現頻度が低い単語の存在等が上げられる。また、聞き直したい項目としては、5W1Hのような文の意味を決定付ける単語がある。また、再発声する個所としての妥当性の尺度としては、(A)指示があった時点で音声出力されている文節と各文節の間のモーラ数、(B)文節間の結合度合の強さが上げられる。
【0088】
上記位置特定部48は、これらを総合的に判断して、再発声する文節の順序付けを行うのである。その場合の順序付けは、各文節毎に以下の関数値を求めることによって行う。
f(p1,p2,p3,p4,p5,p6)
ここで、p1:解析結果バラメータ
p2:音韻明瞭性パラメータ
p3:単語出現確率パラメータ
p4:単語重要度パラメータ
p5:文節間結合度パラメータ
p6:モーラ数パラメータ
【0089】
複数の解析結果が存在する場合、それらの解析結果の尤度が小さければ小さいほど解析を誤っている可能性が高いと言える。そこで、解析結果パラメータp1の一例として、上記解析結果尤度が第1位の候補と第2位の候補との解析結果尤度差の逆数が考えられる。
【0090】
また、不明瞭な音韻ほど聞き取れない可能性が高い。そこで、関数fのパラメータとして音韻明瞭性パラメータp2を用いるのである。すなわち、各音韻毎に明瞭性の度合を予め数値化(明瞭度)しておくのである。その場合、明瞭性の低い音韻の明瞭度の値を大きくするようにしておく。したがって、無声摩擦音等は高い明瞭度が与えられることになる。
【0091】
また、普段あまり使われない単語ほど聞き取れない傾向が強い。そこで、関数fのパラメータとして単語出現確率パラメータp3を用いるのである。また、聞き取れない場合に文の意味自体が全く分らなくなるような重要な単語ほど聞き直される可能性が高い。そこで、関数fのパラメータとして単語重要度パラメータp4を用いるのである。尚、後述する「誰」「どこ」「いつ」等の5W1Hに関連する単語は重要度が大きく設定される。
【0092】
上記文節間結合度パラメータp5は、既に第1実施の形態において述べたように、言語的に適切な文節の区切れ目から再発声を開始させるためのものである。文節間結合度が大きいほど文節間の結合度が弱く、再発声させる箇所としての適切さが増す。モーラ数パラメータp6についても上記第1実施の形態において述べた通りである。
【0093】
更に、上記指示入力部47から再発声の指示が入力された際に音声出力されている文字位置は、発声開始時間と指示発声時間との差と、指示発声時間と発声終了予定時間との差の比率から、おおよそ推定できる。
【0094】
上記関数fの決定方法は様々な方法が考えられるが、以下、観測データに基づく決定方法について述べる。尚、関数fの計算方法は,説明を簡単にするため、各パラメータ毎に重み係数を掛けてそれらの値を加算する方法とする。上記観測データは、図13に示すような、解析記憶部43に記憶されている情報と、指示入力部47に再発声の指示が入力された際に合成音声が出力されていた文字位置と、利用者が期待した読み開始位置と読み方とを記したもので構成される。これらの観測データを大量に用意し、ユーザが期待した解の確率が最大になるように重み係数を推定するのである。尚、上記重み係数の推定は、重回帰分析等の多変量解析手法を用いるのが一般的である。
【0095】
観測データの中に、解析結果が複数存在して各々の読み方が違うという指示が多ければ、解析結果パラメータp1の値が大きい場合には、読み誤りの可能性が高くなるように重みが学習されることになる。したがって、上記解析結果尤度が接近した次候補が存在する場合には、読み誤りと判断して、読みの次候補を再発声する確率が高くなるのである。
【0096】
上記位置特定部48の開始位置候補選出手段49には、上述のようにして得られた重み係数を有して再発声文節の順序付けを行う関数f(p1,p2,p3,p4,p5,p6)を搭載しておく。そして、指示入力部47に再発声指示が入力された場合に、制御部50からの指示に従って、解析記憶部43に記憶されている各文節の解析結果尤度K,音韻明瞭度C,単語出現頻度F,単語重要度S,文節間結合度B及びモーラ数Mの値を代入して、各文節の関数fの値を算出する。こうして、再発声の開始位置候補が選出される。そして、位置特定部48は、関数fの値が最大である文節を再発声開始位置であると特定して、特定位置を制御部50に返すのである。
【0097】
そうすると、上記制御部50は、上記再発声開始位置から所定数の文節に関して、結果選択部44に対して、上記第2実施の形態の場合と同様にして、解析記憶部43に記憶されている複数の解析候補の中から、解析結果尤度の合計値が現在合成音声出力中の解析候補の組み合わせの次に大きな解析候補の組み合わせを選択することを指示する。さらに、音声合成情報変換部51に対して、上記第3実施の形態の場合と同様にして、音声合成情報列の変換を指示するのである。その結果、上記関数fの値が最大である再発声開始文節以降の所定文節に関して、最も大きな要因となっているパラメータが解析結果パラメータp1である場合には、結果選択部44によって読み誤りが修正されることなる。さらに、音韻明瞭性パラメータp2あるいは単語出現確率パラメータp3である場合には、音声合成情報変換部51によって、発声パワーを少し大きくしたり、発声速度を少し遅めにしたりして再発声されることになる。
【0098】
このように、本実施の形態においては、解析記憶部43には、各文節毎に解析結果尤度K,音韻明瞭度C,単語出現頻度F,単語重要度S,文節間結合度Bおよびモーラ数Mを格納するようにしている。また、位置特定部48には、再発声文節の順序付けを行う関数f(p1,p2,p3,p4,p5,p6)を搭載した開始位置候補選出手段49を設けて、再発声指示があると、解析記憶部43に記憶されている各文節の解析結果尤度K,音韻明瞭度C,単語出現頻度F,単語重要度S,文節間結合度Bおよびモーラ数Mの値を用いて各文節の関数fの値を演算し、演算結果に基づいて再発声開始位置を特定するようにしている。そして、制御部50は、上記特定された再発声開始位置に関して、結果選択部44に対する次解析候補の組み合わせの選択、および、音韻変換部51に対する音声合成情報列の変換を指示するようにしている。
【0099】
したがって、本実施の形態によれば、「読み方が違う」,「区切り方が違う」,「聞きとり難い」等のユーザの再発声要求意図を反映して自動的に再発声位置を特定することができるのである。
【0100】
<第6実施の形態>
上記第5実施の形態によれば、「読み方が違う」,「区切り方が違う」,「聞きとり難い」等をユーザーが明示的に指示しなくても、その何れであるかを音声合成装置が自動的に判断して再発声開始位置を設定することができる。しかしながら、これらの情報を明示的に指示することで、より確実に再発声位置と再発声方法とを判断することができる。本実施の形態は、ユーザの再発声要求意図を明示的に指示することに関するものである。
【0101】
図14は、本実施の形態の音声合成装置における概略構成を示すブロック図である。テキスト解析部61,解析記憶部63,音韻処理部64および音声合成部65は、上記第1実施の形態におけるテキスト解析部1,解析記憶部3,音韻処理部4および音声合成部5と同じ構成を有して、同様に動作する。また、位置特定部68は、上記第5実施の形態における位置特定部48と同じ構成を有して、同様に動作する。
【0102】
音声認識部66は、マイクを備えて、入力された音声を、音声認識辞書メモリ67に格納された音声認識辞書を用いて認識する。音声認識辞書メモリ67は、音声認識する語彙を音声認識辞書として記憶している。ここで、音声認識辞書メモリ67には、「えっ」,「何」,「もう一度」等の再発声を促す語彙を登録することができる。また、「誰」,「いつ」,「どこで」等のユーザが知りたい情報が何かを問いかける語彙も登録することができる。
【0103】
また、解析辞書メモリ62には、各単語毎に、この単語が音声認識辞書メモリ67の登録語彙に関連するか否かの情報が付与されている。例えば、単語「鈴木」は、人名であり、登録語彙「誰」と関連する。あるいは、単語「6時」は、時間であり、登録語彙「いつ」と関連する等である。したがって、テキスト解析部61は上述のような関連単語情報をも解析結果として得ることができ、解析記憶部63に記憶されることになる。
【0104】
位置特定部68は、再発声文節の順序付けを行う関数f(p1,p2,p3,p4,p5,p6)を搭載した開始位置候補選出手段69を有している。そして、制御部70から再発声位置の特定が指示された場合には、解析記憶部63に格納された各文節の解析結果尤度K,音韻明瞭度C,単語出現頻度F,単語重要度S,文節間結合度Bおよびモーラ数Mの値を用いて、関数fの値を求める。そして、最も大きな関数fの値を呈する文節を再発声位置と特定するのである。
【0105】
その場合、上記音声認識部66によって、音声認識辞書メモリ67の登録語彙が認識された場合には、解析記憶部63に記憶されている解析結果の一つである上記関連単語情報を参照して上記認識語彙に関連する関連単語を探し出す。そして、上記関連単語に関する文節の関数f(p1,p2,p3,p4,p5,p6)を算出する際に、単語重要度パラメータp4の値を通常よりも大きくする(例えば、単語重要度パラメータp4の重み係数や関連単語の単語重要度Sの値を整数倍する)のである。こうすることによって、上記認識語彙に関連する単語が入力テキスト文中にあれば、その関連単語を含む文節の関数fの値が大きくなり、当該文節から再発声が開始されることになるのである。
【0106】
また、その場合、上記解析記憶部63には、入力されたテキスト文の全文の解析結果を残しておくようにすることによって、現在合成音声出力中のテキスト文に限定されることなく、以前に出力されたテキスト文に遡って再発声することが可能になる。さらに、第1実施の形態における位置特定部7による再発声の開始位置を特定する場合と同様の方法で、文節間結合度Bとモーラ数Mとの値を用いて終了位置を特定し、開始位置の特定と併用することによって、上記マイクからの「誰」という問いかけに対して、「鈴木さんから」と言うように、人名に関する文節だけを再発声することが実現可能になる。
【0107】
同様に、上記音声認識部66によって、「違う」等の読み変えを促す語彙が認識された場合には、関数f(p1,p2,p3,p4,p5,p6)を算出する際に、解析結果パラメータp1の値を通常よりも大きくするのである。こうすることによって、上記第5実施の形態における結果選択部44と同様の結果選択部を併用して、解析結果が複数ある文節において別の読み方を有する候補を選択して再発声するようにできる。
【0108】
上述のように、本実施の形態においては、上記位置特定部68に、上記第5実施の形態における位置特定部48と同様の機能を持たせている。そして、解析記憶部63に格納された各文節の解析結果尤度K,音韻明瞭度C,単語出現頻度F,単語重要度S,文節間結合度Bおよびモーラ数Mの値を用いて、関数f(p1,p2,p3,p4,p5,p6)の値を求め、最も大きな関数fの値を呈する文節を再発声位置と特定する。
【0109】
その際に、上記音声認識部66によって音声認識辞書メモリ67の登録語彙が認識された場合には、上記認識語彙「いつ」に関連する関連単語「6時」を含む文節の関数fを算出する際に、単語重要度パラメータp4の値を通常よりも大きくするようにしている。したがって、ユーザは、「いつ」と音声指示するだけで、所望する文節「6時…」から自動的に再発声を開始できるのである。
【0110】
また、上記音声認識部66によって、読み変えを促す語彙「違う」が認識された場合には、関数fを算出する際に、解析結果パラメータp1の値を通常よりも大きくするようにしている。したがって、ユーザは、「違う」と音声指示するだけで自動的に別の読み方の候補を選択して再発声できるのである。
【0111】
上記各実施の形態における音声合成装置は、携帯電話や電子手帳等の比較的文字情報の少ない携帯端末器に搭載することが有効である。すなわち、このような文字情報の少ない携帯端末器によって、比較的長い文面の電子メールの内容を知る場合には合成音声によって聞き取ることになる。ところが、テキスト音声合成の正解率や明瞭度を完全なものにするのは困難であり、誤解析や不明瞭な場合のリカバリー手段が必要なのである。
【0112】
上記各実施の形態における音声合成装置によれば、再発声開始位置や次候補の選択を自動的にできるため、非常に簡単な操作で再発声や発声変更を行うことができ、携帯端末器用の音声合成装置として非常に有効なのである。
【0113】
ところで、上記各実施の形態におけるテキスト解析部,音声合成部,指示入力部,位置特定部および制御部による上記解析手段,音声合成手段,指示入力手段,位置特定手段および制御手段としての機能は、プログラム記録媒体に記録された音声合成処理プログラムによって実現される。上記各実施の形態における上記プログラム記録媒体は、ROM(リード・オンリ・メモリ)でなるプログラムメディアである。あるいは、外部補助記憶装置に装着されて読み出されるプログラムメディアであってもよい。尚、何れの場合においても、上記プログラムメディアから音声合成処理プログラムを読み出すプログラム読み出し手段は、上記プログラムメディアに直接アクセスして読み出す構成を有していてもよいし、RAM(ランダム・アクセス・メモリ)に設けられたプログラム記憶エリア(図示せず)にダウンロードし、上記プログラム記憶エリアに対してアクセスして読み出す構成を有していてもよい。尚、上記プログラムメディアからRAMの上記プログラム記憶エリアにダウンロードするためのダウンロードプログラムは、予め本体装置に格納されているものとする。
【0114】
ここで、上記プログラムメディアとは、本体側と分離可能に構成され、磁気テープやカセットテープ等のテープ系、フロッピーディスク,ハードディスク等の磁気ディスクやCD(コンパクトディスク)−ROM,MO(光磁気)ディスク,MD(ミニディスク),DVD(ディジタルビデオディスク)等の光ディスクのディスク系、IC(集積回路)カードや光カード等のカード系、マスクROM,EPROM(紫外線消去型ROM),EEPROM(電気的消去型ROM),フラッシュROM等の半導体メモリ系を含めた、固定的にプログラムを坦持する媒体である。
【0115】
また、上記各実施の形態における音声合成装置は、インターネットを含む通信ネットワークと接続可能な構成を有して、上記プログラムメディアは、通信ネットワークからのダウンロード等によって流動的にプログラムを坦持する媒体であっても差し支えない。尚、その場合における上記通信ネットワークからダウンロードするためのダウンロードプログラムは、予め本体装置に格納されているものとする。あるいは、別の記録媒体からインストールされるものとする。
【0116】
尚、上記記録媒体に記録されるものはプログラムのみに限定されるものではなく、データも記録することが可能である。
【0117】
【発明の効果】
以上より明らかなように、第1の発明の音声合成装置は、指示入力手段から入力された再発声を促すための指示を受けて、位置特定手段によって、解析手段による解析結果に基づいて文字列情報中における再発声の開始位置を特定し、制御手段によって、音声合成手段に対して上記特定された開始位置からの音声合成を指示するので、ユーザは、出力合成音声が聞き取れない場合に、その時点で指示入力手段から指示を行うだけで、出力合成音声文中の特定位置から再発声を聞くことができ、長文の後半のみが聞き取れなかった場合でも少ない時間で聞き直しができる。
【0118】
さらに、上記解析結果を文節間結合度が含まれるように成し、上記位置特定手段を、上記文字列情報中における上記指示入力手段から指示を受けた時点に対応する位置より前の文節から、モーラ数と上記文節間結合度とに基づいて上記開始位置となる文節を特定するようにしたので、指示を受けた時点に近過ぎず且つ遠過ぎない文節であって、言語的に結合度合が弱く区切れ易い適切な文節を上記開始位置として選ぶことができる。
【0119】
また、第2の発明の音声合成装置は、上記解析結果を尤度が含まれるように成し、上記位置特定手段を、上記文字列情報中における上記指示入力手段から指示を受けた時点に対応する位置以前の文節に関して、各解析結果の候補を入れ換えながら尤度の合計値を算出し、得られた尤度の合計値に基づいて上記再発声の開始位置を特定するようにすれば、入力された文字列情報「市場開放によってもたらされる」に基づいて合成音声「しじょーかいほうによっても、たらされる」が発声された場合に、上記尤度の合計値を次に高くする第2候補「よって」を選択して、再発声の開始位置であると特定することができる。したがって、その場合には、文節「よって」の位置から合成音声「よって、もたらされる」を再発声することができる。
【0120】
また、上記第1の発明の音声合成装置は、上記解析結果を尤度が含まれるように成すと共に、結果選択手段によって、上記文字列情報中における上記指示入力手段から指示を受けた時点に対応する位置以前の文節に関して、各解析結果の候補を入れ換えながら尤度の合計値を算出し、得られた尤度の合計値に基づいて再発声を行う際の解析結果を選択すれば、入力された文字列情報「市場開放によってもたらされる」に基づいて合成音声「いちば」を発声した場合に、発声の異なる第2候補「しじょー」を選択して、「しじょーかいほうによってもたらされる」の合成音声を再発声することができる。
【0121】
また、上記第2の発明の音声合成装置は、上記解析結果を上記尤度に加えて音韻明瞭度,単語出現確率及び単語重要度の少なくとも一つが含まれるように成し、上記位置特定手段を、上記解析結果の尤度に加えて上記音韻明瞭度,単語出現確率および単語重要度の少なくとも一つを用いて選出した上記再発声の開始位置候補に基づいて上記再発声の開始位置を特定するように成せば、解析結果尤度に基づいて上記利用者による再発声指示の意図「読み誤り」が反映された位置を、再発声の開始位置候補として選出することができる。さらに、音韻明瞭度または単語出現確率に基づいて上記意図「聞き取れない」が反映された位置を、または、単語重要度に基づいて上記意図「重要個所の確認」が反映された位置を、再発声の開始位置候補として選出することができる。
【0122】
また、この発明の音声合成装置は、上記音声合成手段の音声合成情報生成手段によって、上記解析手段による解析結果に基づいて音声合成情報列を生成し、音声合成情報変換手段によって、上記音声合成情報生成手段で生成された音声合成情報列のうち上記再発声の開始位置以降における所定の音声合成情報列を他の音声合成情報列に変換すれば、聞き取れなかった個所の発声を、「発声速度を少し遅め」に、または「発声ピッチを少し高め」に、または「発声パワーを少し大きめ」に、または「音韻長を少し長め」に変更して再発声を行うことができる。
【0123】
また、この発明の音声合成装置は、上記解析結果を読み系列情報が含まれるように成すと共に、文字文変換手段によって、上記再発声の開始位置以降における所定の解析結果の読み系列を文字文記憶手段に記憶された対応文の解析結果列に変換すれば、例えば、上記文字文記憶手段に文字「す」,「ず」及び「き」と対応文「すずめのす」,「すずめのすに濁点」および「切手のき」とを記憶しておけば、上記再発声の開始位置以降における所定の文「鈴木」の読み系列「すずき」を、対応文の列「すずめのす、すずめのすに濁点、切手のき」に変換して再発声できる。
【0124】
また、この発明の音声合成装置は、上記指示入力手段を、音声入力された指示を認識する音声認識手段で構成すれば、ユーザの再発声要求意図をユーザの音声によって明示できる。
【0125】
また、この発明の音声合成装置は、上記音声認識手段によって音声認識辞書を用いて再発声を促す語彙を認識し、上記解析手段によって解析辞書を用いて上記再発声を促す語彙との関連性の有無を表わす関連情報を含む上記解析結果を生成し、上記位置特定手段によって上記解析手段からの関連情報に基づいて上記再発声の開始位置を特定するように成せば、上記音声認識辞書に「誰」,「いつ」,「どこで」等の再発声を促す語彙を登録しておくことによって、ユーザが知りたい情報が何かを問いかけるこれらの語彙が音声認識された場合には、これらの語彙との関連性が高い「鈴木さん」,「昨日」,「会社で」等の人名や時や場所を表す単語から再発声を行うことができる。
【0126】
また、第3の発明の音声合成方法は、再発声を促すための指示を行うステップと、入力された文字列情報の解析結果に基づいて上記文字列情報中における再発声の開始位置を特定するステップと、上記特定された開始位置から音声合成を行うステップを備えて、上記解析結果は文節間結合度を含み、上記開始位置を特定するステップでは、上記文字列情報中における上記指示入力手段から指示を受けた時点に対応する位置より前の文節から、モーラ数と上記文節間結合度とに基づいて上記開始位置となる文節を特定するようにしたので、ユーザは、出力合成音声が聞き取れない場合には、その時点で指示を行うだけで、出力合成音声文中の特定位置から再発声を聞くことができる。したがって、長文の後半のみが聞き取れなかった場合でも少ない時間で聞き直しを行うことができる。さらに、指示を受けた時点に近過ぎず且つ遠過ぎない文節であって、言語的に結合度合が弱く区切れ易い適切な文節を上記開始位置として選ぶことができる。
【0127】
また、第4の発明の携帯端末器は、この発明の音声合成装置を備えたので、文字情報の少ない携帯端末器によって、比較的長い文面の電子メールの内容を音声合成出力によって知る場合に、再発声個所や次候補の選択を自動的に行うことができる。したがって、非常に簡単な操作で的確な再発声や発声変更を行うことができる。
【0128】
また、第5の発明のプログラム記録媒体は、コンピュータを、上記第1の発明における解析手段,音声合成手段,指示入力手段,位置特定手段および制御手段として機能させる音声合成処理プログラムを記録しているので、上記第1の発明の場合と同様に、ユーザは、出力合成音声が聞き取れない場合にはその時点で指示を行うだけで、出力合成音声文中の特定位置から再発声を聞くことができる。したがって、長文の後半のみが聞き取れなかった場合でも少ない時間で聞き直しを行うことができる。さらに、指示を受けた時点に近過ぎず且つ遠過ぎない文節であって、言語的に結合度合が弱く区切れ易い適切な文節を上記開始位置として選ぶことができる。
【図面の簡単な説明】
【図1】 この発明の音声合成装置におけるブロック図である。
【図2】 図1に示す音声合成装置によって実行される音声合成処理動作のフローチャートである。
【図3】 図1における解析記憶部の格納状態を示す概念図である。
【図4】 「再発声」の指示を行った場合における合成音声出力例を示す図である。
【図5】 モーラ数と評価関数との関係を示す図である。
【図6】 図1とは異なる音声合成装置のブロック図である。
【図7】 図6に示す音声合成装置によって実行される音声合成処理動作のフローチャートである。
【図8】 図6における解析記憶部の格納状態を示す概念図である。
【図9】 「発声変更」の指示を行った場合における合成音声出力例を示す図である。
【図10】 図1および図6とは異なる音声合成装置のブロック図である。
【図11】 図1,図6および図10とは異なる音声合成装置のブロック図である。
【図12】 図1,図6,図10および図11とは異なる音声合成装置のブロック図である。
【図13】 図12における解析記憶部の格納状態を示す概念図である。
【図14】 図1,図6,図10〜図12とは異なる音声合成装置のブロック図である。
【符号の説明】
1,11,21,31,41,61…テキスト解析部、
2,12,22,32,42,62…解析辞書メモリ、
3,13,23,33,43,63…解析記憶部、
4,15,24,34,45,64…音韻処理部、
5,16,25,35,46,65…音声合成部、
6,17,26,36,47…指示入力部、
7,14,27,37,48,68…位置特定部、
8,19,28,38,50,70…制御部、
18…結果選択手段、
29,51…音声合成情報変換部、
39…文字文記憶部、
40…文字文変換部、
44…結果選択部、
49,69…開始位置候補選出手段、
66…音声認識部、
67…音声認識辞書メモリ。[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a speech synthesizer and a speech synthesis method for synthesizing speech from character information, a portable terminal device, and a program recording medium.
[0002]
[Prior art]
Conventionally, there is a regular speech synthesizer as disclosed in Japanese Patent Laid-Open No. 4-160630 as a device for dealing with a Japanese sentence recognition error caused by an analysis error at the time of Japanese analysis. In this regular speech synthesizer, a plurality of Japanese analysis results relating to an input character string are held in a reading sentence buffer together with a fixed order, and the plurality of pieces of Japanese analysis result information are used. According to this rule speech synthesizer, there is a recognition error (reading error in the input character string) in the synthesized speech based on the Japanese analysis result of a certain order of decision. A synthesized sound can be generated based on a Japanese analysis result that is one lower in rank, and a misread portion of the input character string can be synthesized by another reading method. By doing so, when there is an error in reading, the correction work can be performed interactively without requiring complicated labor and work.
[0003]
[Problems to be solved by the invention]
However, the conventional regular speech synthesizer has the following problems. That is, reading errors are corrected in units of Japanese analysis results held in the reading sentence buffer. Therefore, it is not possible to specify a reading error part of the input sentence (reading sentence) composed of the input character string, read it again from that part, and repeat the voice from the middle of the reading sentence. For this reason, even when a recurrence voice is requested at the last part of a long sentence, the voice is re-uttered from the beginning of the sentence, and there is a problem that it takes time until the desired synthesized voice is obtained.
[0004]
In addition, although the above-described regular speech synthesizer can cope with an error in reading an input character string (a reading sentence), it cannot cope with a re-listening when the user cannot hear it. In particular, when the user cannot hear only the latter half of the sentence, the user does not want to hear again from the beginning of the sentence, but wants to hear only the latter half of the sentence. In that case, there is a problem that it is impossible to make a voice replay only after a specific position in the read-out sentence.
[0005]
SUMMARY OF THE INVENTION An object of the present invention is to provide a speech synthesizer capable of performing recurrent voice from a specific position in a speech output sentence.
[0006]
[Means for Solving the Problems]
In order to achieve the above object, the first invention is a speech synthesizer that analyzes input character string information by an analysis unit, and synthesizes and outputs a speech by a speech synthesis unit based on the analysis result. An instruction input means for inputting an instruction for prompting, and a position specifying means for specifying a start position of a recurrent voice in the character string information based on an analysis result by the analysis means in response to an instruction from the instruction input means And control means for instructing the speech synthesis means to synthesize speech from the specified start position, and the analysis result includes a degree of inter-phrase coupling, and the position specification means is included in the character string information. The phrase that is the starting position is identified based on the number of mora and the degree of inter-phrase coupling from the phrase before the position corresponding to the time point when the instruction is received from the instruction input means. It is characterized in that.
[0007]
According to the above configuration, when an instruction for prompting the recurrent voice in the synthesized voice is input from the instruction input unit, the position specifying unit specifies the start position of the recurrent voice based on the analysis result by the analysis unit. Therefore, when the user cannot hear the output synthesized speech, the user can hear the recurrent voice from a specific position in the output synthesized speech sentence only by giving an instruction from the instruction input means at that time, and can hear only the latter half of the long sentence. You can listen again in less time even if you did not.
[0008]
Further, the number of mora is used as an index for specifying the start position of the recurrent voice, and a phrase that is not too close and not too far from the time when the instruction is received is selected as the start position of the recurrent voice. In addition, the inter-phrase coupling degree is used as an index for specifying the starting position of the recurrent voice, and an appropriate phrase that is linguistically weak and easily separated is selected as the starting position of the recurrent voice.
[0009]
The second invention is an instruction for prompting a recurrent voice in a speech synthesizer that analyzes input character string information by an analysis unit and synthesizes and outputs speech by a speech synthesis unit based on the analysis result. An instruction input means for inputting the position, a position specifying means for specifying a start position of a recurrent voice in the character string information based on an analysis result by the analysis means in response to an instruction from the instruction input means, and the speech synthesis Control means for instructing the means to synthesize speech from the specified starting position, the analysis result includes likelihood, and the position specifying means indicates from the instruction input means in the character string information For the clauses before the position corresponding to the time point received, the total likelihood value is calculated while replacing each analysis result candidate, and the starting position of the recurrent voice is specified based on the obtained total likelihood value. It is characterized that it is way.
[0010]
According to the above configuration, the start position of the recurrent voice is specified based on the total likelihood value calculated while replacing each analysis result candidate. Therefore, when the synthesized speech “It is also acted by Shijo Kaiho” is uttered based on the input character string information “Bringed by market opening”, the total likelihood value is The second candidate “hence” to be raised is selected and identified as the start position of the recurrent voice. As a result, the synthesized voice of “Thus brought” is replayed.
[0011]
In the speech synthesizer of the first invention, the analysis result includes the likelihood, and the phrase before the position corresponding to the time point when the instruction is received from the instruction input means in the character string information. It is desirable to provide a result selection means for calculating a total likelihood value while exchanging each analysis result candidate and selecting an analysis result when performing recurrent voice based on the obtained total likelihood value.
[0012]
According to the above configuration, an analysis result when performing recurrent voice is selected based on a total likelihood value calculated while replacing each analysis result candidate. Therefore, when the synthesized speech “Ichiba” is uttered based on the input character string information “provided by market opening”, the second candidate “Shijo” with a different utterance is selected, and “ The synthesized voice of `` Jokaibo '' is reoccurringThe
[0013]
MaThe aboveSecondThe speech synthesizer of the invention ofthe aboveLikelihoodIn addition to ,It includes at least one of phonetic intelligibility, word appearance probability, and word importance.LocateMeans,the aboveAnalysis resultofLikelihoodIn addition to the aboveUse at least one of phonetic intelligibility, word appearance probability, and word importanceBased on the starting position candidate for the recurrent voice selected above , Identify the starting position of the recurrent voiceIt is desirable to do so.
[0014]
According to the above configuration, based on the analysis result likelihood, the position reflecting the intention “reading error” of the recurrent voice instruction by the user is selected as a recurrent voice start position candidate.furtherBased on the phoneme intelligibility or the word appearance probability, a position reflecting the intention “cannot be heard” is selected as a start position candidate of the recurrent voice. Alternatively, a position where the intention “confirmation of important part” is reflected based on the word importance is selected as a start position candidate of the recurrent voice.
[0015]
The speech synthesizer according to the present invention further includes a speech synthesis information generation unit configured to generate a speech synthesis information sequence based on an analysis result of the analysis unit, and based on the speech synthesis information sequence. In addition to synthesizing speech, a predetermined speech synthesis information sequence after the start position of the recurrent voice in the speech synthesis information sequence generated by the speech synthesis information generation unit according to an instruction from the control unit It is desirable to include speech synthesis information conversion means for converting into a synthesis information string.
[0016]
According to the above configuration, the predetermined speech synthesis information sequence after the recurrent voice start position is converted into another speech synthesis information sequence by the speech synthesis information conversion means. Therefore, the utterance of the part that could not be heard is changed to “Slightly slowing the utterance speed”, “Slightly increasing the utterance pitch”, “Slightly increasing the utterance power”, or “Longer phoneme length”. It becomes possible to make a recurrent voice.
[0017]
Further, the speech synthesizer of the present invention is characterized in that the analysis result includes reading sequence information, character sentence storage means for storing characters and corresponding sentences corresponding to the characters, and the analysis means in accordance with instructions from the control means. It is desirable to provide character sentence conversion means for converting a reading sequence of a predetermined analysis result after the start position of the recurrent voice into the analysis result string of the corresponding sentence stored in the character sentence storage means.
[0018]
According to the above configuration, the text “s”, “z” and “ki” and the corresponding sentences “suzume no su”, “suzume no ni ku” and “stamp” ”Is stored by the text conversion means, the reading sequence“ Suzuki ”of the predetermined sentence“ Suzuki ”after the start position of the recurrent voice is converted into the corresponding sentence string“ Suzuminosu, It is converted to "Dakuten, stamp" and re-voiced.
[0019]
In the speech synthesizer according to the present invention, it is preferable that the instruction input means is constituted by a speech recognition means for recognizing an instruction inputted by speech.
[0020]
According to the above configuration, the user's intention to request re-utterance is clearly indicated by the user's voice.
[0021]
The speech synthesizer according to the present invention further includes a speech recognition dictionary storing a vocabulary that promotes recurrence and an analysis dictionary storing presence / absence of relevance between a word and the vocabulary that prompts recurrence. Recognizes the vocabulary that encourages recurrent voice using the speech recognition dictionary, and the analysis means uses the analysis dictionary to obtain the analysis result including related information indicating the presence or absence of relevance to the vocabulary that promotes recurrent voice Preferably, the position specifying means specifies the start position of the recurrent voice based on the related information from the analyzing means.
[0022]
According to the above configuration, by registering vocabularies that prompt recurrence such as “who”, “when”, and “where” in the speech recognition dictionary, these vocabularies that ask the user what information the user wants to know are asked. Is recognized, the recurrent voice is made from words representing names and times or places such as “Mr. Suzuki”, “Yesterday”, and “At work” which are highly related to these vocabularies.
[0023]
Also,ThirdIn the speech synthesis method of analyzing the input character string information and synthesizing and outputting the speech based on the analysis result, the step of inputting an instruction for prompting a recurrent voice, and the input instruction In response, the step of identifying the start position of the recurrent voice in the character string information based on the analysis result of the input character string information, and the step of performing speech synthesis from the identified start position, The analysis result includes inter-phrase connectivity, and in the step of specifying the start position, the number of mora and the above-mentioned from the clause before the position corresponding to the time point when the instruction is received from the instruction input means in the character string information. It is characterized in that the phrase that becomes the start position is specified based on the degree of inter-joint coupling.
[0024]
According to the above configuration, when an instruction for prompting recurrent voice by synthetic speech is input, the start position of the recurrent voice by synthetic speech is specified based on the analysis result of the input character string information. Therefore, if the user cannot hear the output synthesized speech, the user can hear the recurrent voice from a specific position in the output synthesized speech sentence only by giving an instruction at that time, and even if only the latter half of the long sentence cannot be heard You can listen again in less time.
[0025]
Further, the number of mora is used as an index for specifying the start position of the recurrent voice, and a phrase that is not too close and not too far from the time when the instruction is received is selected as the start position of the recurrent voice. In addition, the inter-phrase coupling degree is used as an index for specifying the starting position of the recurrent voice, and an appropriate phrase that is linguistically weak and easily separated is selected as the starting position of the recurrent voice.
[0026]
Also,4thThe portable terminal of the invention is characterized by comprising the speech synthesizer of the invention.
[0027]
According to the above configuration, when the content of an e-mail with a relatively long text is known by synthetic voice output with a portable terminal with little character information, the recurrent voice location and the next candidate are automatically selected. Accurate recurrence and utterance changes are performed with simple operation.
[0028]
Also,5thAccording to another aspect of the invention, there is provided a program recording medium comprising: a computer; an analyzing unit that analyzes input character string information; a voice synthesizing unit that synthesizes speech based on an analysis result including a degree of inter-phrase coupling by the analyzing unit; An instruction input means for inputting an instruction for prompting the user, and at the time when the instruction is received from the instruction input means in the character string information based on an analysis result by the analysis means in response to an instruction from the instruction input means. A position specifying means for specifying a phrase that is a starting position of a recurrent voice in the character string information based on the number of mora and the degree of inter-joint connection from the clause before the corresponding position, and for the speech synthesis means A voice synthesis processing program that functions as control means for instructing voice synthesis from the specified start position is recorded.
[0029]
According to the above configuration, as in the case of the first invention, when the user cannot hear the output synthesized speech, the user simply gives an instruction at that time and makes a recurrent voice from a specific position in the output synthesized speech sentence. You can listen to it, and if you can't hear only the second half of the long sentence, you can listen again in less time.
[0030]
Further, the number of mora is used as an index for specifying the start position of the recurrent voice, and a phrase that is not too close and not too far from the time when the instruction is received is selected as the start position of the recurrent voice. In addition, the inter-phrase coupling degree is used as an index for specifying the starting position of the recurrent voice, and an appropriate phrase that is linguistically weak and easily separated is selected as the starting position of the recurrent voice.
[0031]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, the present invention will be described in detail with reference to the illustrated embodiments.
<First embodiment>
FIG. 1 is a block diagram showing the configuration of the speech synthesizer according to the present embodiment. The
[0032]
The
[0033]
FIG. 2 is a flowchart of the speech synthesis processing operation executed by each unit of the speech synthesizer having the above configuration. In the following, the operation of the speech synthesizer will be described with reference to the flowchart of FIG. 2, taking as an example the case where a kana-kana mixed sentence “Mr. explain.
[0034]
Here, the text input to the
[0035]
In step S1, the
[0036]
In
[0037]
Further, a clause is generated from the concatenation of the respective analysis results, and the phrase information is stored in the
[0038]
The inter-phrase coupling degree is used for controlling the prosody, and the pause length and the phrase command size are determined by the inter-phrase coupling degree. That is, if the degree of coupling between phrases is large, the coupling between both phrases is weak, so a clear pause is put in, and each phrase independently constitutes a phrase. Note that the calculation of the degree of connection between clauses is generally performed using a table (not shown) in which connection values set for each part-of-speech pattern of the preceding clause and the subsequent clause are described.
[0039]
In step S3, the
[0040]
In step S6, the output of the synthesized speech is interrupted by the
[0041]
In step S8, it is determined whether or not there is a next sentence input to the
[0042]
Hereinafter, the processing after step S4 in the above-described speech synthesis processing operation will be described in more detail according to the above-mentioned input sentence “A mail has been received from Mr. Suzuki regarding the negotiation”. Assume that the user has difficulty in hearing the word “negotiation” as shown in FIG. 4 when the speaker outputs “E-mail is coming from Mr. Suzuki regarding the negotiation” in step S4. Then, when the voice is output to the vicinity of the “mail”, when the user gives an instruction of “repeated voice”, the speech synthesis / output is interrupted once, and the process of determining from which phrase the recurrent voice is started Transition.
[0043]
In this embodiment, as an example of the index for determining the position of a phrase that recurs, the number of mora from the point in time to the head phrase and the degree of inter-phrase coupling are used. Here, the reason why the number of mora is included in the index is to make it easy to select a position that is neither too close nor too far from the indicated time as the position of the recurrent voice start phrase. If a recurrent voice is started from a phrase with a small number of mora counted from the character corresponding to the point in time when the recurrent voice is instructed (that is, an approaching phrase), there is a possibility that it does not return to the point where it originally wants to re-listen. On the other hand, if the number of mora is too large, a recurrent voice is started from a position that goes back considerably, and it takes time to reach a point that is originally desired to be rehearsed, and may be missed again. Therefore, as shown in FIG. 5, the evaluation function f (x) is such that the evaluation function value at the appropriate number of mora becomes the highest value, and the evaluation function value gradually decreases as the number of mora further increases from the number of mora. Define it.
[0044]
In the above example, if a recurrent voice is instructed at the position of “GA” in the fourth sentence “E-mail”, the number of mora up to the phrase “E-mail” is 4, The number of mora is 7, the number of mora up to the phrase “business negotiations” is 12, and the number of mora up to the phrase “from Mr. Suzuki” is 19. Then, while the difference in the number of mora from the point in time is “4”, it is too small, while the difference in the number of mora is “19”, it is considered that the difference between “matter” and “negotiation” is appropriate. It is.
[0045]
The reason for using the inter-phrase coupling degree is to start recurrent voice from an appropriate segment break. In the case of the above-mentioned example sentence, the inter-phrase coupling degree B has the following relationship. The inter-phrase coupling degree B indicates that the greater the value is, the weaker the coupling degree is (that is, the more easily divided). In B (a, b), “a” is a phrase number, and “b” is a candidate number.
B (3,1)> B (1,1)> B (4,1)> B (2,1)> B (5,1)
[0046]
In other words, the combination of the clauses between the third clause “In case” and the fourth clause “Mail is” is the weakest, and the clause between the fifth clause “Come” and the sixth clause “Is” Strongest coupling. Then, the second phrase “Negotiation” – the third phrase “In case” (B (2,1)) and the first phrase “From Mr. Suzuki” —the second phrase “Negotiation” (B (1,1)) ), The latter is less coupled, so it is better to start recurring voices from the phrase “business negotiations” than to start recurring voices from the phrase “in case”.
[0047]
As described above, by determining the position of the recurring phrase based on the number of mora from the indicated time to the beginning of the phrase and the degree of inter-phrase coupling, at a position that is neither too close nor too far from the indicated time, Voice can be resumed at a language-appropriate position. Therefore, in the present embodiment, a function g (x, y) is defined that uses as parameters the number of mora “x” from the indicated point to the first phrase and the inter-phrase coupling degree “y” as follows. Thus, by determining the function value for each phrase and comparing it, it is possible to optimally determine the phrase at which the recurrent voice starts.
g (x, y) = α · f (x) + β · y
[0048]
As described above, in the present embodiment, the
[0049]
Therefore, if the user cannot hear the output synthesized speech, the user can give an instruction from the
[0050]
That is, according to the present embodiment, a recurrent voice can be made from a specific position in the voice output sentence, and when only the latter half of the long sentence cannot be heard, it can be rehearsed in a short time.
[0051]
<Second Embodiment>
According to the first embodiment, it is possible to perform recurrence from a specific position in the text, but it is not possible to perform recurrence by changing the utterance from a specific position in the text. The present embodiment addresses such a case.
[0052]
FIG. 6 is a block diagram showing a configuration of the speech synthesizer according to the present embodiment. The
[0053]
As described in the first embodiment, the
[0054]
The
[0055]
FIG. 7 is a flowchart of the speech synthesis processing operation executed by each unit of the speech synthesizer having the above configuration. The operation of the speech synthesizer will be described below with reference to FIG.
[0056]
In step S11 and step S12, text analysis and storage of the text analysis result in the
[0057]
In step S13, the
[0058]
In step S17, the
[0059]
In step S19, the result selection means 18 analyzes candidate information (j of the replacement analysis candidate obtained in step S18).a, p (ja))a"P (ja) "Th analysis candidate (hereinafter, analysis candidate (ja, p (ja)))) And "jaThe candidate analysis sequence “(ja+ 1, p (ja+1)) to (jn, p (jn)) ”Is selected and sent to the
[0060]
In this way, the processes in steps S17 to S21 and steps S14 to S16 are performed until it is determined in step S16 that there is no utterance change instruction or in step S21 it is determined that the order i is greater than “N”. Repeated.
[0061]
In step S22, it is determined whether or not there is a next sentence input to the
[0062]
Hereinafter, the processing after step S18 in the above-described speech synthesis processing operation will be described in more detail according to the input sentence “provided by market opening”. FIG. 8 shows the storage state of the
[0063]
As a result of the text analysis by the
K (1,1)> K (1,2)
This relationship is established. This is an example of misanalysis of text analysis that the character string “market” is more likely to be read as “Ichiba”.
[0064]
In addition, the analysis result likelihoods K (3,1), K (4,1) of the first candidate in the phrase chain of the third and fourth phrases and the second candidate “according / Between the analysis result likelihood K (3,2) and K (4,2)
K (3,1) + K (4,1)> K (3,2) + K (4,2)
This relationship is established.
[0065]
Now, as shown in FIG. 9, when the text “bred by market opening” is synthesized and the first synthesized speech “by the first person” is output, the utterance “That” is performed. (Jp= 3) When the user inputs an utterance change instruction, the analysis result candidates for the first syllable to the third syllable are sequentially replaced, and the total value ΣK (j, p (j)) of the analysis result likelihood K Is calculated. In this case, the total value of the analysis result likelihoods K of the first to third syllables is “K (1,1) + K (2,1) + K (3,1)” is the largest, and next is “K ( “1,2) + K (2,1) + K (3,1)” is the second largest, so that the candidate analysis information presents the total value ΣK of the “i + 1” th largest, that is, the second largest analysis result likelihood K. (1,2) is obtained. As a result, the result selection means 18 selects the “2” -th analysis candidate “market” in the first phrase, together with the analysis candidate strings after the second phrase used in the immediately preceding speech synthesis. It is sent to the
[0066]
Next, at the time when the utterance “it is done” is performed at the time of the second sound output (jp= 4), when the user inputs an utterance change instruction, the total value of the analysis result likelihood K of the first to fourth syllables is “K (1,2) + K (2,1) + K (3, 1) + K (4,1) ”is the second largest, and“ K (1,2) + K (2,1) + K (3,2) + K (4,2) ”is the third largest (see“ By selecting “Shijo”, the analysis candidate of the first phrase is fixed to K (1, 2)). Therefore, the analysis candidate information strings (3, 2) and (4, 2) are selected, and the synthesized speech “and thus” is output.
[0067]
If the time point for inputting the utterance change instruction is delayed, there may be a mistake in the phrase for replacing the analysis result candidates. For example, since the instruction to change the utterance of the first phrase “Ichiba” is given at the time when the utterance “to be done” is performed, the utterance change of the fourth phrase “bred” is performed. This is the case. Even in such a case, since the next candidate is uttered by instructing the utterance change again, the utterance change instruction may be repeated until the desired synthesized speech is output.
[0068]
As described above, in the present embodiment, the
[0069]
Therefore, if the user finds an error in the output synthesized speech, the user can output the next candidate synthesized speech by issuing an utterance change instruction from the
[0070]
That is, according to the present embodiment, it is possible to change the utterance from a specific position in the voice output sentence and perform the re-utterance, and when only the second half of the long sentence is wrong, the correction can be made in a short time.
[0071]
As will be described later, when the voice recognition unit is used in combination, the
[0072]
<Third Embodiment>
According to the first embodiment, the recurrent voice can be performed from a specific position in the voice output sentence, but if the same synthesized sound as the first is output at the time of the recurrent voice, there is a possibility that it cannot be heard again. . The present embodiment deals with such a case, and changes the speech synthesis information sequence such as the utterance speed of the portion that was difficult to hear at the time of recurrence.
[0073]
FIG. 10 is a block diagram showing the configuration of the speech synthesizer according to the present embodiment. The
[0074]
The speech synthesis
[0075]
Here, as an example of conversion into an audible utterance, there are the following conversion methods.
(1) Slightly slow down the utterance speed.
(2) Slightly increase the utterance pitch.
(3) Increase the utterance power a little.
(4) Make the phoneme length a little longer.
[0076]
For example, when changing the power, the following is performed. That is, factors affecting the vowel power include the type of the vowel, the type of adjacent phoneme, the position, the pitch, and the like, and the power value can be estimated from these values. Therefore, by setting a numerical value slightly higher than the power value estimated from the factor values, synthesized speech different from the original can be generated. In addition, when changing the utterance speed, an appropriate speed value is determined in advance, and by setting it to be slower than the appropriate value by a predetermined value at the time of recurrence, synthesized speech different from the initial one can be obtained. It generates.
[0077]
As described above, according to the present embodiment, a synthesized speech having a speech synthesis information sequence different from the previous synthesized speech can be obtained by slightly changing an estimated value or a preset value in the speech synthesis information. Can be generated and output. Therefore, it is possible to improve the easiness of hearing at the time of recurrent voice.
[0078]
<Fourth embodiment>
As in the case of the third embodiment, this embodiment outputs a synthesized sound that is different from the first when a recurrent voice is produced. To communicate.
[0079]
FIG. 11 is a block diagram showing the configuration of the speech synthesizer according to the present embodiment. The
[0080]
The text
[0081]
Analysis result of the part (determined by the
[0082]
Thereafter, the
[0083]
As described above, according to the present embodiment, in accordance with the instruction from the
[0084]
<Fifth embodiment>
In the first embodiment, the recurrent voice start position is specified based on the inter-phrase coupling degree and the number of mora. In the second embodiment, the recurrent voice start position is specified based on the analysis result likelihood. In the present embodiment, a position reflecting the user's intention to request re-utterance is set as a re-utterance start position.
[0085]
FIG. 12 is a block diagram showing the configuration of the speech synthesizer according to the present embodiment. The
[0086]
The
[0087]
In order to decide from which part of the input text to the
[0088]
The
f (p1, p2, p3, p4, p5, p6)
Where p1: analysis result parameter
p2: Phoneme clarity parameter
p3: Word appearance probability parameter
p4: Word importance parameter
p5: Inter-phrase connectivity parameter
p6: Number of mora parameters
[0089]
When there are a plurality of analysis results, it can be said that the smaller the likelihood of these analysis results, the higher the possibility that the analysis is erroneous. Therefore, as an example of the analysis result parameter p1, the reciprocal of the difference in the analysis result likelihood between the candidate having the first analysis result likelihood and the second candidate is considered.
[0090]
In addition, it is highly possible that an unclear phoneme cannot be heard. Therefore, the phoneme clarity parameter p2 is used as the parameter of the function f. That is, the degree of clarity is digitized (clarity) in advance for each phoneme. In that case, the intelligibility value of a phoneme having low intelligibility is increased. Therefore, high intelligibility is given to unvoiced frictional sound and the like.
[0091]
In addition, words that are not often used are more difficult to hear. Therefore, the word appearance probability parameter p3 is used as the parameter of the function f. In addition, if the word cannot be heard, the more important words that the meaning of the sentence itself is not understood at all are more likely to be reheard. Therefore, the word importance parameter p4 is used as the parameter of the function f. It should be noted that words related to 5W1H such as “who”, “where”, and “when”, which will be described later, are set to have a high importance.
[0092]
The inter-phrase connectivity parameter p5 is used to start a recurrent voice from a linguistically appropriate clause break, as already described in the first embodiment. The greater the inter-phrase coupling degree, the weaker the inter-phrase coupling degree, and the more appropriate the recurring voice is. The mora number parameter p6 is also as described in the first embodiment.
[0093]
Furthermore, the character position output when the recurrent voice instruction is input from the instruction input unit 47 includes the difference between the utterance start time and the instruction utterance time, and the difference between the instruction utterance time and the utterance end scheduled time. From the ratio, it can be estimated roughly.
[0094]
Various methods can be considered for determining the function f. Hereinafter, a determination method based on observation data will be described. Note that the calculation method of the function f is a method of multiplying each parameter by a weighting coefficient and adding the values in order to simplify the description. The observation data includes the information stored in the
[0095]
If there are many instructions in the observation data that there are multiple analysis results and each reading is different, if the value of the analysis result parameter p1 is large, the weight is learned so that the possibility of reading errors is high. Will be. Therefore, when there is a next candidate whose analysis result likelihood is close, it is determined that there is a reading error, and the probability of recurrence of the next candidate for reading increases.
[0096]
The starting position candidate selecting means 49 of the
[0097]
Then, the
[0098]
Thus, in the present embodiment, the
[0099]
Therefore, according to the present embodiment, the recurrent voice position is automatically identified by reflecting the user's recurrent voice request intention such as “reading is different”, “separation is different”, “difficult to hear”, etc. Can do it.
[0100]
<Sixth embodiment>
According to the fifth embodiment, even if the user does not explicitly indicate “difference in reading”, “difference in separation”, “difficult to hear”, etc., the speech synthesizer Can automatically determine the recurrent voice start position. However, by explicitly instructing such information, it is possible to more reliably determine the recurrent voice position and the recurrent voice method. The present embodiment relates to explicitly instructing the user's intention to request reoccurrence.
[0101]
FIG. 14 is a block diagram showing a schematic configuration in the speech synthesizer of the present embodiment. The
[0102]
The
[0103]
In addition, the
[0104]
The position specifying unit 68 has start position candidate selecting means 69 equipped with a function f (p1, p2, p3, p4, p5, p6) for ordering recurrent vocal phrases. When the
[0105]
In this case, when the vocabulary registered in the speech recognition dictionary memory 67 is recognized by the
[0106]
In that case, the
[0107]
Similarly, when the
[0108]
As described above, in the present embodiment, the position specifying unit 68 has the same function as the
[0109]
At this time, when the registered vocabulary in the speech recognition dictionary memory 67 is recognized by the
[0110]
In addition, when the
[0111]
It is effective to install the speech synthesizer in each of the above embodiments in a portable terminal device with relatively little text information such as a cellular phone or an electronic notebook. That is, when the content of an e-mail with a relatively long sentence is known by such a portable terminal with little character information, it is heard by synthetic voice. However, it is difficult to complete the accuracy rate and clarity of text-to-speech synthesis, and it is necessary to have a means of recovery in case of misanalysis or unclearness.
[0112]
According to the speech synthesizer in each of the above embodiments, since the recurrent voice start position and the selection of the next candidate can be automatically performed, the recurrent voice and utterance change can be performed with a very simple operation. It is very effective as a speech synthesizer.
[0113]
By the way, the functions as the analysis means, the speech synthesis means, the instruction input means, the position specification means and the control means by the text analysis section, the speech synthesis section, the instruction input section, the position specification section and the control section in the above embodiments are as follows: This is realized by a speech synthesis processing program recorded on a program recording medium. The program recording medium in each of the above embodiments is a program medium composed of a ROM (read only memory). Alternatively, it may be a program medium that is loaded into an external auxiliary storage device and read out. In any case, the program reading means for reading the voice synthesis processing program from the program medium may have a configuration in which the program medium is directly accessed and read, or the random access memory (RAM). You may have the structure which downloads to the provided program storage area (not shown), accesses the said program storage area, and reads. It is assumed that a download program for downloading from the program medium to the program storage area of the RAM is stored in the main unit in advance.
[0114]
Here, the program medium is configured to be separable from the main body side, and is a tape system such as a magnetic tape or a cassette tape, a magnetic disk such as a floppy disk or a hard disk, or a CD (compact disk) -ROM, MO (magneto-optical). Optical discs such as discs, MDs (mini discs), DVDs (digital video discs), card systems such as IC (integrated circuit) cards and optical cards, mask ROMs, EPROMs (ultraviolet erasable ROMs), EEPROMs (electrical This is a medium that carries a fixed program including a semiconductor memory system such as an erasable ROM) and a flash ROM.
[0115]
In addition, the speech synthesizer in each of the above embodiments has a configuration that can be connected to a communication network including the Internet, and the program medium is a medium that fluidly carries the program by downloading from the communication network or the like. There is no problem. In this case, it is assumed that a download program for downloading from the communication network is stored in the main device in advance. Or it shall be installed from another recording medium.
[0116]
It should be noted that what is recorded on the recording medium is not limited to a program, and data can also be recorded.
[0117]
【The invention's effect】
As is clear from the above, the speech synthesizer of the first invention receives the instruction for prompting the recurrent voice input from the instruction input unit, and the character string is determined by the position specifying unit based on the analysis result by the analyzing unit. Since the start position of the recurrent voice in the information is specified, and the control means instructs the voice synthesis means to synthesize the voice from the specified start position, when the user cannot hear the output synthesized voice, Just by giving an instruction from the instruction input means at the time, a recurrent voice can be heard from a specific position in the output synthesized speech sentence, and even if only the latter half of the long sentence cannot be heard, it can be heard again in a short time.
[0118]
Further, the analysis result is configured to include inter-phrase connectivity, and the position specifying unit is changed from a phrase before the position corresponding to the time point when the instruction is received from the instruction input unit in the character string information. Since the phrase that is the starting position is specified based on the number of mora and the degree of coupling between the phrases, the phrase is not too close and not too far from the point in time when the instruction is received. An appropriate phrase that is weak and easily separated can be selected as the start position.
[0119]
Further, the speech synthesizer of the second invention is configured such that the analysis result includes likelihood, and the position specifying means corresponds to a time point when an instruction is received from the instruction input means in the character string information. For the clause before the position to be calculated, the total likelihood value is calculated while replacing each analysis result candidate, and the start position of the recurrent voice is specified based on the obtained total likelihood value. When the synthesized speech “I am also driven by the way” is uttered based on the text string information “provided by market opening”, the next highest total value of the above-mentioned likelihood is raised. Two candidates “according” can be selected to identify the start position of the recurrent voice. Therefore, in that case, the synthesized speech “to be brought” can be replayed from the position of the phrase “to”.
[0120]
The speech synthesizer according to the first aspect of the present invention is configured so that the analysis result includes a likelihood and corresponds to a time point when the result selection unit receives an instruction from the instruction input unit in the character string information. For the clause before the position to be input, calculate the total likelihood value while replacing the candidates for each analysis result, and select the analysis result when performing recurrence based on the obtained total likelihood value. When the synthesized speech “Ichiba” is uttered based on the character string information “provided by market opening”, the second candidate “Shijo” with different utterances is selected and “Shijokai Can be re-speech "synthesized voice brought about byThe
[0121]
MaThe aboveSecondThe speech synthesizer of the invention ofthe aboveLikelihoodIn addition toPhonological clarity,At least one of word appearance probability and word importance is included, andLocateMeansthe aboveAnalysis resultofLikelihoodIn addition to the abovePhonological clarity,Using at least one of word appearance probability and word importanceThe start position of the recurrent voice is identified based on the selected start position of the recurrent voiceIf so, based on the analysis result likelihood, the position where the intention “reading error” of the recurrent voice instruction by the user is reflected,Can be selected as a starting position candidate for recurrent voice. furtherBased on phonological intelligibility or word appearance probability, the position reflecting the above intention “cannot be heard” or the position reflecting the above intention “confirm important part” based on the word importance Can be selected as a starting position candidate.
[0122]
In the speech synthesizer of the present invention, the speech synthesis information generation unit of the speech synthesis unit generates a speech synthesis information sequence based on the analysis result of the analysis unit, and the speech synthesis information conversion unit converts the speech synthesis information. If a predetermined speech synthesis information sequence after the start position of the recurrent voice in the speech synthesis information sequence generated by the generation means is converted into another speech synthesis information sequence, the utterance of the part that could not be heard is expressed as `` speech rate. The re-utterance can be performed by changing to “slightly late”, “slightly higher pitch”, “slightly higher utterance power”, or “longer phoneme length”.
[0123]
The speech synthesizer according to the present invention is configured so that the analysis result includes the reading sequence information, and the character sentence conversion means stores the reading sequence of the predetermined analysis result after the start position of the recurrent voice as a character sentence storage. If the corresponding sentence analysis result sequence stored in the means is converted into the character sentence storage means, for example, the characters “su”, “zu” and “ki” and the corresponding sentences “suzume no su”, “suzume no ni” If you memorize the “spot” and “stamp”, the reading sequence “Suzuki” of the given sentence “Suzuki” after the start position of the above recurrent voice will be used as the corresponding sentence column It can be re-voiced after converting to "Dakuten, stamp".
[0124]
In the speech synthesizer according to the present invention, if the instruction input means is composed of a voice recognition means for recognizing an instruction inputted by voice, the user's voice request intention can be clearly indicated by the user's voice.
[0125]
In the speech synthesizer of the present invention, the speech recognition means recognizes a vocabulary that promotes recurrence using a speech recognition dictionary, and the analysis means uses the analysis dictionary to determine the relevance of the vocabulary that prompts recurrence. If the analysis result including the related information indicating the presence / absence is generated and the position specifying unit specifies the start position of the recurrent voice based on the related information from the analyzing unit, the voice recognition dictionary stores “who” ”,“ When ”,“ where ”, etc., by registering vocabulary that prompts recurrence, if these vocabularies that ask the user what information they want to know are recognized by voice, It is possible to make a recurrence voice from words representing time and place, such as “Mr. Suzuki”, “Yesterday”, “In the company”, etc.
[0126]
Also,ThirdThe speech synthesis method of the invention includes a step of giving an instruction for prompting a recurrent voice, a step of specifying a start position of a recurrent voice in the character string information based on an analysis result of the input character string information, A step of performing speech synthesis from the specified start position, wherein the analysis result includes a degree of inter-phrase coupling, and in the step of specifying the start position, an instruction is received from the instruction input means in the character string information Since the phrase that becomes the start position is specified based on the number of mora and the degree of inter-phrase coupling from the phrase before the position corresponding to the time point, when the user cannot hear the output synthesized speech, Just by giving an instruction at that time, a recurrent voice can be heard from a specific position in the output synthesized speech sentence. Therefore, even if only the second half of the long sentence cannot be heard, it can be re-listened in a short time. Furthermore, an appropriate phrase that is not too close and not too far from the point in time when the instruction is received and that is linguistically weak and easily separated can be selected as the start position.
[0127]
Also,4thSince the portable terminal device of the invention is equipped with the speech synthesizer of the present invention, when the content of an e-mail with a relatively long sentence is known by speech synthesis output by a portable terminal device with little character information, The next candidate can be automatically selected. Therefore, accurate recurrence voices and utterance changes can be performed with a very simple operation.
[0128]
Also,5thSince the program recording medium of the invention records the speech synthesis processing program that causes the computer to function as the analysis means, speech synthesis means, instruction input means, position specifying means, and control means in the first invention, As in the case of the first invention, if the output synthesized speech cannot be heard, the user can hear the recurrent voice from a specific position in the output synthesized speech sentence only by giving an instruction at that time. Therefore, even if only the second half of the long sentence cannot be heard, it can be re-listened in a short time. Furthermore, an appropriate phrase that is not too close and not too far from the point in time when the instruction is received and that is linguistically weak and easily separated can be selected as the start position.
[Brief description of the drawings]
FIG. 1 is a block diagram of a speech synthesizer according to the present invention.
FIG. 2 is a flowchart of a speech synthesis processing operation executed by the speech synthesizer shown in FIG.
3 is a conceptual diagram showing a storage state of an analysis storage unit in FIG. 1. FIG.
FIG. 4 is a diagram showing an example of a synthesized voice output when an instruction of “recurrent voice” is given.
FIG. 5 is a diagram illustrating a relationship between the number of mora and an evaluation function.
FIG. 6 is a block diagram of a speech synthesizer different from FIG.
7 is a flowchart of a speech synthesis processing operation executed by the speech synthesizer shown in FIG.
8 is a conceptual diagram showing a storage state of an analysis storage unit in FIG.
FIG. 9 is a diagram showing an example of synthesized speech output when an instruction “change utterance” is given.
10 is a block diagram of a speech synthesizer different from those in FIGS. 1 and 6. FIG.
11 is a block diagram of a speech synthesizer different from those shown in FIGS. 1, 6 and 10. FIG.
12 is a block diagram of a speech synthesizer different from those shown in FIGS. 1, 6, 10 and 11. FIG.
13 is a conceptual diagram showing a storage state of an analysis storage unit in FIG.
14 is a block diagram of a speech synthesizer different from those shown in FIGS. 1, 6, and 10 to 12. FIG.
[Explanation of symbols]
1,11,21,31,41,61 ... text analysis part,
2, 12, 22, 32, 42, 62 ... analysis dictionary memory,
3, 13, 23, 33, 43, 63 ... analysis storage unit,
4, 15, 24, 34, 45, 64 ... phonological processing unit,
5, 16, 25, 35, 46, 65 ... speech synthesis unit,
6, 17, 26, 36, 47 ... instruction input unit,
7, 14, 27, 37, 48, 68 ... position specifying part,
8, 19, 28, 38, 50, 70 ... control unit,
18 ... result selection means,
29, 51 ... speech synthesis information conversion unit,
39 ... a text storage unit,
40 ... character sentence conversion part,
44 ... result selection part,
49, 69 ... start position candidate selection means,
66 ... voice recognition unit,
67: Voice recognition dictionary memory.
Claims (11)
再発声を促すための指示を入力する指示入力手段と、
上記指示入力手段からの指示を受けて、上記解析手段による解析結果に基づいて、上記文字列情報中における再発声の開始位置を特定する位置特定手段と、
上記音声合成手段に対して、上記特定された開始位置からの音声合成を指示する制御手段を備えて、
上記解析結果は文節間結合度を含み、
上記位置特定手段は、上記文字列情報中における上記指示入力手段から指示を受けた時点に対応する位置より前の文節から、モーラ数と上記文節間結合度とに基づいて上記開始位置となる文節を特定するようになっている
ことを特徴とする音声合成装置。In the speech synthesizer that analyzes the input character string information by the analysis means, and synthesizes and outputs the speech by the speech synthesis means based on the analysis result,
An instruction input means for inputting an instruction for prompting a recurrence voice;
In response to an instruction from the instruction input means, based on an analysis result by the analysis means, a position specifying means for specifying a start position of a recurrent voice in the character string information;
Control means for instructing the voice synthesis means to synthesize voice from the specified start position,
The above analysis results include inter-phrase connectivity,
The position specifying means is a phrase that becomes the start position based on the number of mora and the degree of inter-phrase coupling from a phrase before the position corresponding to the time point when the instruction is received from the instruction input means in the character string information. A speech synthesizer characterized in that the voice synthesizer is specified.
再発声を促すための指示を入力する指示入力手段と、
上記指示入力手段からの指示を受けて、上記解析手段による解析結果に基づいて、上記文字列情報中における再発声の開始位置を特定する位置特定手段と、
上記音声合成手段に対して、上記特定された開始位置からの音声合成を指示する制御手段
を備えて、
上記解析結果は尤度を含み、
上記位置特定手段は、上記文字列情報中における上記指示入力手段から指示を受けた時点に対応する位置以前の文節に関して、各解析結果の候補を入れ換えながら尤度の合計値を算出し、得られた尤度の合計値に基づいて上記再発声の開始位置を特定するようになっている
ことを特徴とする音声合成装置。In the speech synthesizer that analyzes the input character string information by the analysis means, and synthesizes and outputs the speech by the speech synthesis means based on the analysis result,
An instruction input means for inputting an instruction for prompting a recurrence voice;
In response to an instruction from the instruction input means, based on an analysis result by the analysis means, a position specifying means for specifying a start position of a recurrent voice in the character string information;
Control means for instructing the voice synthesis means to synthesize voice from the specified start position,
The analysis result includes likelihood,
The position specifying means calculates a total likelihood value while replacing candidates of each analysis result with respect to a clause before the position corresponding to the time point when the instruction is received from the instruction input means in the character string information. A speech synthesizer characterized in that the start position of the recurrent voice is specified based on the total likelihood value.
上記解析結果は尤度を含むと共に、
上記文字列情報中における上記指示入力手段から指示を受けた時点に対応する位置以前の文節に関して、各解析結果の候補を入れ換えながら尤度の合計値を算出し、得られた尤度の合計値に基づいて再発声を行う際の解析結果を選択する結果選択手段を備えた
ことを特徴とする音声合成装置。The speech synthesis apparatus according to claim 1,
The analysis result includes likelihood,
For the clause before the position corresponding to the time point when the instruction is received from the instruction input means in the character string information, the total likelihood value is calculated while replacing each analysis result candidate, and the obtained total likelihood value A speech synthesizer comprising: a result selection means for selecting an analysis result when performing recurrent voice based on the above.
上記解析結果は、上記尤度に加えて、音韻明瞭度 , 単語出現確率および単語重要度の少なくとも一つを含み、
上記位置特定手段は、上記解析結果の尤度に加えて上記音韻明瞭度 , 単語出現確率および単語重要度の少なくとも一つを用いて選出した上記再発声の開始位置候補に基づいて、上記再発声の開始位置を特定するようになっている
ことを特徴とする音声合成装置。 The speech synthesis apparatus according to claim 2 ,
The analysis result includes at least one of phonological clarity , word appearance probability, and word importance in addition to the likelihood ,
It said position specifying means, the phoneme clarity in addition to the likelihood of the analysis results, on the basis of the start position candidates of selection was the re-utterance using at least one word occurrence probability and word significance, the recurrence voice A speech synthesizer characterized in that the start position of the voice is specified.
上記音声合成手段は、上記解析手段による解析結果に基づいて音声合成情報列を生成する音声合成情報生成手段を有して、上記音声合成情報列に基づいて音声を合成するようになっており、
上記制御手段の指示に従って、上記音声合成情報生成手段によって生成された音声合成情報列のうち、上記再発声の開始位置以降における所定の音声合成情報列を他の音声合成情報列に変換する音声合成情報変換手段を備えた
ことを特徴とする音声合成装置。 In the speech synthesizer according to any one of claims 1 to 4,
The speech synthesis means has speech synthesis information generation means for generating a speech synthesis information sequence based on the analysis result by the analysis means, and synthesizes speech based on the speech synthesis information sequence,
Speech synthesis for converting a predetermined speech synthesis information sequence after the start position of the recurrent voice into another speech synthesis information sequence in the speech synthesis information sequence generated by the speech synthesis information generation unit in accordance with an instruction from the control unit A speech synthesizer characterized by comprising information conversion means .
上記解析結果は読み系列情報を含むと共に、
文字とこの文字に対応した対応文とを記憶した文字文記憶手段と、
上記制御手段の指示に従って、上記解析手段による解析結果のうち上記再発声の開始位置以降における所定の解析結果の読み系列を、上記文字文記憶手段に記憶された対応文の解析結果列に変換する文字文変換手段
を備えたことを特徴とする音声合成装置。The speech synthesizer according to any one of claims 1 to 4 ,
The analysis result includes reading sequence information,
A text storage means for storing a character and a corresponding sentence corresponding to the character;
In accordance with an instruction from the control means, a reading sequence of a predetermined analysis result after the start position of the recurrent voice in the analysis result by the analysis means is converted into an analysis result string of a corresponding sentence stored in the character sentence storage means. A speech synthesizer comprising a character sentence conversion means.
上記指示入力手段は、音声入力された指示を認識する音声認識手段で構成されていることを特徴とする音声合成装置。The speech synthesizer according to any one of claims 1 to 6 ,
The voice synthesizing apparatus according to claim 1, wherein the instruction input means includes voice recognition means for recognizing an instruction inputted by voice.
再発声を促す語彙を記憶した音声認識辞書と、
単語と上記再発声を促す語彙との関連性の有無を記憶した解析辞書
を備えて、
上記音声認識手段は、上記音声認識辞書を用いて再発声を促す語彙を認識し、
上記解析手段は、上記解析辞書を用いて、上記再発声を促す語彙との関連性の有無を表わす関連情報を含む上記解析結果を生成し、
上記位置特定手段は、上記解析手段からの関連情報に基づいて上記再発声の開始位置を特定する
ようになっていることを特徴とする音声合成装置。The speech synthesizer according to claim 7 .
A speech recognition dictionary that stores vocabulary that encourages recurrence,
An analysis dictionary that memorizes the relevance between words and the vocabulary that promotes recurrent voice
With
The voice recognition means recognizes a vocabulary that encourages recurrent voice using the voice recognition dictionary,
The analysis means uses the analysis dictionary to generate the analysis result including related information indicating the presence or absence of relevance with the vocabulary that prompts the recurrence voice,
The position specifying means specifies the start position of the recurrent voice based on the related information from the analyzing means.
Speech synthesis apparatus characterized in that it is so.
再発声を促すための指示を入力するステップと、
上記入力された指示を受けて、上記入力された文字列情報の解析結果に基づいて、上記文字列情報中における再発声の開始位置を特定するステップと、
上記特定された開始位置から音声合成を行うステップ
を備えて、
上記解析結果は文節間結合度を含み、
上記開始位置を特定するステップでは、上記文字列情報中における上記指示入力手段から指示を受けた時点に対応する位置より前の文節から、モーラ数と上記文節間結合度とに基づいて上記開始位置となる文節を特定する
ことを特徴とする音声合成方法。 In the speech synthesis method for analyzing the input character string information and synthesizing and outputting the speech based on the analysis result ,
Inputting instructions for prompting recurrence ;
In response to the input instruction, based on the analysis result of the input character string information, identifying the start position of the recurrent voice in the character string information;
Performing speech synthesis from the identified start position
With
The above analysis results include inter-phrase connectivity,
In the step of specifying the start position, the start position is determined based on the number of mora and the degree of inter-phrase coupling from the clause preceding the position corresponding to the time when the instruction is received from the instruction input means in the character string information. identify and become clause
Speech synthesis wherein a call.
入力された文字列情報を解析する解析手段と、
上記解析手段による文節間結合度を含む解析結果に基づいて音声を合成する音声合成手段と、
再発声を促すための指示を入力する指示入力手段と、
上記指示入力手段からの指示を受けて、上記解析手段による解析結果に基づいて、上記文字列情報中における上記指示入力手段から指示を受けた時点に対応する位置より前の文節から、モーラ数と上記文節間結合度とに基づいて上記文字列情報中における再発声の開始位置となる文節を特定する位置特定手段と、
上記音声合成手段に対して、上記特定された開始位置からの音声合成を指示する制御手段
として機能させる音声合成処理プログラムが記録されたことを特徴とするコンピュータ読出し可能なプログラム記録媒体。 Computer
An analysis means for analyzing the input character string information;
Speech synthesis means for synthesizing speech based on the analysis result including the inter-phrase coupling degree by the analysis means;
An instruction input means for inputting an instruction for prompting a recurrence voice;
In response to an instruction from the instruction input means, based on an analysis result by the analysis means, the number of mora from the clause before the position corresponding to the time point when the instruction input means is received in the character string information, and A position specifying means for specifying a phrase that is a starting position of a recurrent voice in the character string information based on the inter-phrase coupling degree;
Control means for instructing the voice synthesis means to synthesize voice from the specified start position
A computer-readable program recording medium on which is recorded a voice synthesis processing program that functions as a computer program .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2000151297A JP3655808B2 (en) | 2000-05-23 | 2000-05-23 | Speech synthesis apparatus, speech synthesis method, portable terminal device, and program recording medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2000151297A JP3655808B2 (en) | 2000-05-23 | 2000-05-23 | Speech synthesis apparatus, speech synthesis method, portable terminal device, and program recording medium |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2001331191A JP2001331191A (en) | 2001-11-30 |
JP3655808B2 true JP3655808B2 (en) | 2005-06-02 |
Family
ID=18656880
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2000151297A Expired - Fee Related JP3655808B2 (en) | 2000-05-23 | 2000-05-23 | Speech synthesis apparatus, speech synthesis method, portable terminal device, and program recording medium |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3655808B2 (en) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007086185A (en) * | 2005-09-20 | 2007-04-05 | Mitsubishi Electric Corp | Speech synthesizer |
JP5106608B2 (en) * | 2010-09-29 | 2012-12-26 | 株式会社東芝 | Reading assistance apparatus, method, and program |
JP7059813B2 (en) * | 2018-05-31 | 2022-04-26 | トヨタ自動車株式会社 | Voice dialogue system, its processing method and program |
JP7151181B2 (en) * | 2018-05-31 | 2022-10-12 | トヨタ自動車株式会社 | VOICE DIALOGUE SYSTEM, PROCESSING METHOD AND PROGRAM THEREOF |
CN113539235B (en) * | 2021-07-13 | 2024-02-13 | 标贝(青岛)科技有限公司 | Text analysis and speech synthesis method, device, system and storage medium |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS6191698A (en) * | 1984-10-12 | 1986-05-09 | 工業技術院長 | Sentence-voice converter |
JP3034911B2 (en) * | 1990-06-18 | 2000-04-17 | シャープ株式会社 | Text-to-speech synthesizer |
JPH09325796A (en) * | 1996-06-06 | 1997-12-16 | Oki Electric Ind Co Ltd | Document reading aloud device |
JPH10105370A (en) * | 1996-09-25 | 1998-04-24 | Canon Inc | Device and method for reading document aloud and storage medium |
-
2000
- 2000-05-23 JP JP2000151297A patent/JP3655808B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2001331191A (en) | 2001-11-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US6173263B1 (en) | Method and system for performing concatenative speech synthesis using half-phonemes | |
US6823309B1 (en) | Speech synthesizing system and method for modifying prosody based on match to database | |
EP1168299B1 (en) | Method and system for preselection of suitable units for concatenative speech | |
US6910012B2 (en) | Method and system for speech recognition using phonetically similar word alternatives | |
US6839667B2 (en) | Method of speech recognition by presenting N-best word candidates | |
US20080126093A1 (en) | Method, Apparatus and Computer Program Product for Providing a Language Based Interactive Multimedia System | |
US20070073540A1 (en) | Apparatus, method, and computer program product for speech recognition allowing for recognition of character string in speech input | |
EP2462586B1 (en) | A method of speech synthesis | |
WO2006106182A1 (en) | Improving memory usage in text-to-speech system | |
WO2004066271A1 (en) | Speech synthesizing apparatus, speech synthesizing method, and speech synthesizing system | |
US20060229874A1 (en) | Speech synthesizer, speech synthesizing method, and computer program | |
Chou et al. | A set of corpus-based text-to-speech synthesis technologies for Mandarin Chinese | |
US6963834B2 (en) | Method of speech recognition using empirically determined word candidates | |
Stöber et al. | Speech synthesis using multilevel selection and concatenation of units from large speech corpora | |
JP5152588B2 (en) | Voice quality change determination device, voice quality change determination method, voice quality change determination program | |
JP3655808B2 (en) | Speech synthesis apparatus, speech synthesis method, portable terminal device, and program recording medium | |
JP3050832B2 (en) | Speech synthesizer with spontaneous speech waveform signal connection | |
GB2313530A (en) | Speech Synthesizer | |
JP3576066B2 (en) | Speech synthesis system and speech synthesis method | |
JP3060276B2 (en) | Speech synthesizer | |
JP3201329B2 (en) | Speech synthesizer | |
JPH11259094A (en) | Regular speech synthesis device | |
JP3971577B2 (en) | Speech synthesis apparatus and speech synthesis method, portable terminal, speech synthesis program, and program recording medium | |
Kaur et al. | BUILDING AText-TO-SPEECH SYSTEM FOR PUNJABI LANGUAGE | |
Demenko et al. | The design of polish speech corpus for unit selection speech synthesis |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20040518 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20040601 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20040730 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20041116 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20050117 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20050120 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20050301 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20050304 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20080311 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090311 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100311 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100311 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110311 Year of fee payment: 6 |
|
LAPS | Cancellation because of no payment of annual fees |