JP3955881B2 - 音声合成方法および情報提供装置 - Google Patents

音声合成方法および情報提供装置 Download PDF

Info

Publication number
JP3955881B2
JP3955881B2 JP2006550642A JP2006550642A JP3955881B2 JP 3955881 B2 JP3955881 B2 JP 3955881B2 JP 2006550642 A JP2006550642 A JP 2006550642A JP 2006550642 A JP2006550642 A JP 2006550642A JP 3955881 B2 JP3955881 B2 JP 3955881B2
Authority
JP
Japan
Prior art keywords
time
synthesized speech
synthesized
text
reproduction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2006550642A
Other languages
English (en)
Other versions
JPWO2006070566A1 (ja
Inventor
夏樹 齋藤
孝浩 釜井
弓子 加藤
良文 廣瀬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Panasonic Holdings Corp
Original Assignee
Panasonic Corp
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp, Matsushita Electric Industrial Co Ltd filed Critical Panasonic Corp
Application granted granted Critical
Publication of JP3955881B2 publication Critical patent/JP3955881B2/ja
Publication of JPWO2006070566A1 publication Critical patent/JPWO2006070566A1/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/02Methods for producing synthetic speech; Speech synthesisers
    • G10L13/033Voice editing, e.g. manipulating the voice of the synthesiser

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Navigation (AREA)
  • Machine Translation (AREA)

Description

本発明は再生タイミングに制約のある複数の合成音コンテンツを漏れなく分かりやすく読み上げるための音声合成方法および音声合成装置に関する。
従来より、所望のテキストに対する合成音を生成して出力する音声合成装置が提供されている。状況に応じてメモリから自動で選択した文章を音声合成装置で読み上げることによって、ユーザに音声で情報提供を行う装置の用途は多く、例えばカーナビゲーションシステムでは、現在の位置や走行速度、設定された案内経路等の情報から、分岐点の数百メートル手前で分岐情報を報知したり、渋滞情報を受信してユーザに提示したりといったことを行う。
このような用途では、あらかじめ全ての合成音コンテンツの再生タイミングを決定しておくことは難しい。また、あらかじめ予測不能なタイミングで新たなテキストの読み上げを行う必要が生じることもある。例えば、曲がらなければならない交差点に差し掛かったところで、その先の渋滞情報を受信したような場合は、道案内の情報と渋滞情報の両方を、分かりやすくユーザに提示することが求められる。このための技術として、例えば特許文献1〜4がある。
特許文献1及び2の方式では、提示する音声コンテンツをあらかじめ優先度付けしておき、同時に複数の音声コンテンツを読み上げる必要が生じたときには優先度の高い方を再生し、優先度の低い方の再生を抑制するものである。
特許文献3の方式は、合成音の無音部分を短縮する等の方法で再生時間長に関する制約条件を満たすようにする方法である。特許文献4の方式では、環境の変化に応じて動的に圧縮率を変化させ、圧縮率に応じて文書を要約する。
特開昭60−128587号公報 特開2002−236029号公報 特開平6−67685号公報 特開2004−326877号公報
しかしながら、従来の方法では音声で読み上げるべきテキストを定型文として持っているだけであり、2つの音声を同時に再生する必要が生じた際、片方の音声の再生をキャンセルするか、もしくは再生を後回しにするか、もしくは再生スピードを上げることによって短い時間に多くの情報を詰め込むかというような方策しか取れない。このうち片方の音声のみ優先的に再生する方法では、2つの音声がどちらも同等の優先度を持っていた場合に問題が生じる。また、早送りや音声の短縮を用いる方法では、音声が聞き取りにくくなるという問題が生じる。また、特許文献4の方式では未出力の文書の文字数を減らすことにより要約を行なっている。このような要約方法では、圧縮率が高くなると、文書の中の文字数が多く削除されてしまい、要約後の文書の内容を明確に伝えることが難しくなるという問題がある。
本発明はこのような課題に鑑み、読み上げるテキストの内容を時間的制約条件に応じて変更することで、音声の聞きやすさを保ったままできるだけ多くの情報をユーザに提示することができるようにすることを目的とする。
上記目的を達成するために、本発明の音声合成方法は、テキストから合成される合成音声の再生時間長を予測する時間長予測ステップと、予測された再生時間長に基づいて、前記合成音声の再生タイミングに関する制約条件が満たされているか否かを判定する判定ステップと、前記制約条件が満たされないと判定された場合、前記テキストの合成音声の再生開始タイミングを前又は後にずらし、前記ずらした時間に相当する分、当該テキストに含まれる時間又は距離を表す内容を変更する内容変更ステップと、前記内容が変更された前記テキストから合成音声を合成し再生する音声合成ステップとを含む。従って、本発明によれば、合成音声の再生タイミングに関する制約条件が満たされないと判定された場合、前記テキストの合成音声の再生開始タイミングを前又は後にずらし、前記ずらした時間に相当する分、当該テキストに含まれる時間又は距離を表す内容を変更するので、タイミングをずらして合成音声を再生する場合でも、時間とともに変化する内容(時間又は距離)を元のテキストの本来の内容を変えずにユーザに伝えることができるという効果がある。
また、前記時間長予測ステップでは、複数の合成音声のうち、第1の合成音声の再生開始前に、再生を完了する必要のある第2の合成音声の再生時間長を予測し、前記判定ステップでは、前記第2の合成音声に対して予測された前記再生時間長に基づいて、前記第2の合成音声の再生完了が前記第1の合成音声の再生開始に間に合わないようであれば、前記制約条件が満たされないと判定し、前記内容変更ステップでは、前記制約条件が満たされないと判定された場合、前記第1の合成音声の再生開始タイミングを前記第2の合成音声の再生完了予測時刻まで遅らせ、前記第1の合成音声の元となるテキストの前記内容を変更し、前記音声合成ステップでは、前記第2の合成音声の再生完了後、前記内容が変更された前記テキストから前記第1の合成音声を合成し再生するとしてもよい。従って、本発明によれば、第1の合成音声と第2の合成音声の再生が重ならないように第1の合成音声の再生開始タイミングを遅らせることができ、かつ、第1の合成音声の元となるテキストに示されている時間又は距離を表す内容を、第1の合成音声再生開始タイミングを遅らせた分だけ変更することができる。これにより、第1の合成音声と第2の合成音声との両方を再生することができ、かつ、テキストが意味している本来の内容を正確にユーザに伝えることができるという効果がある。
また、前記内容変更ステップでは、さらに、前記第2の合成音声の元となるテキストを要約することによって前記第2の合成音声の再生時間を短縮し、前記第1の合成音声の再生開始タイミングを、短縮された前記第2の合成音声の再生完了後まで遅らせるとしてもよい。これにより、第1の合成音声の再生開始タイミングを遅らせる時間を短くすることができ、または、第1の合成音声の再生開始タイミングを遅らせずにすませることができるという効果がある。
なお、本発明は、このような音声合成装置として実現することができるだけでなく、このような音声合成装置が備える特徴的な手段をステップとする音声合成方法として実現したり、それらのステップをコンピュータに実行させるプログラムとして実現したりすることもできる。そして、そのようなプログラムは、CD−ROM等の記録媒体やインターネット等の伝送媒体を介して配信することができるのは言うまでもない。
本発明の音声合成装置では、所定の時刻までに読み上げる必要があるスケジュールを何らかの理由でその時刻までに読み上げられなかった場合でも、そのスケジュールが開始してしまうまでの間であれば、読み上げ時刻を変更して読み上げを行なうことができる。また、複数の合成音を同時に再生する必要が生じた場合、どの音声も再生されないことがないように、合成音の内容変更及び再生開始時刻の変更という手法を用いて、複数の合成音コンテンツを限られた時間内に再生することができるという効果を有する。さらに、単に合成音の再生開始時刻を変更するだけだと、再生される合成音の元になるテキストに含まれている、時間とともに変化する内容、具体的には、(予定)時刻や(移動)距離などが本来の内容と異なってくる。これに対し、本発明では、合成音の再生開始時刻が変更された分だけ、テキストに含まれている時間又は距離を表す内容を変更した後、音声を合成して再生するので、本来のテキストの内容を正しく再生することができるという効果がある。
以下、本発明の実施の形態について図面を用いて詳細に説明する。
(実施の形態1)
図1は、本発明の実施の形態1に係る音声合成装置の構成を示す構造図である。
本実施の形態の音声合成装置は、入力される2つのテキスト105aおよび105bを音声合成して再生する際に再生時間の重なりが無いかどうか判定し、重なりがある場合にはテキスト内容の要約と再生タイミングの変更によって再生時間の重なりを解消するものであって、テキスト記憶部100、時間長予測部102、時間制約充足判定部103、音声合成部104及びスケジュール管理部109を備える。テキスト記憶部100は、スケジュール管理部109から入力されるテキスト105a、bを保存する。表現変換部101は、請求項でいう「制約条件が満たされないと判定された場合、テキストの合成音声の再生開始タイミングを前又は後にずらし、ずらした時間に相当する分、当該テキストに含まれる時間又は距離を表す内容を変更する内容変更手段」の機能を備え、時間制約充足判定部103による判定結果に従って、テキスト記憶部100からテキスト105a、bを読み出して、読み出されたテキスト105a、bの要約を行なったり、合成音声の再生タイミングの変更に伴って、テキスト105a、bに含まれる、時間又は距離を表す内容を、ずらした時間(変更された再生タイミング)に相当する分、変更したりする。時間長予測部102は、請求項でいう「テキストから合成される合成音声の再生時間長を予測する」機能を有し、表現変換部101から出力されたテキスト105a、bを音声合成した際の再生時間長を予測する。時間制約充足判定部103は、請求項でいう「予測された再生時間長に基づいて、合成音声の再生タイミングに関する制約条件が満たされているか否かを判定する」機能を有し、時間長予測部102によって予測された再生時間長、スケジュール管理部109から入力される時間制約条件107及び再生時刻情報108a、bに基づいて、生成される合成音の再生時刻(再生タイミング)及び再生時間長に関する制約が充足されているかどうか判定する。音声合成部104は、請求項でいう「内容が変更されたテキストから合成音声を合成し再生する」機能を有し、表現変換部101を介して入力されるテキスト105a、bから合成音波形106a、bを生成する。スケジュール管理部109は、ユーザの入力等によってあらかじめ設定されたスケジュール情報を時刻に応じて呼び出し、テキスト105a、b、時間制約条件107及び再生時刻情報108a、bを生成して、音声合成部104に合成音を再生させる。時間制約充足判定部103は、2つの合成音波形106a、bの再生時刻情報108a、bと、時間長予測部102から得られるテキスト101aの時間長予測結果と、それらの満たすべき時間制約条件107を元に合成音の再生時間の重なりを判定する。なお、スケジュール管理部109によって、テキスト105a、bはあらかじめテキスト記憶部100内で再生開始時刻の順にソートされており、さらに再生の優先順位は全て同じで、テキスト105aより先にテキスト105bが再生されることは無いものとする。
図2は本実施の形態の音声合成装置の動作の流れを示すフローチャートである。以下、図2のフローチャートに沿って動作説明を行う。
初期状態S900から動作が開始し、まずテキスト記憶部100からテキストの取得が行われる(S901)。表現変換部101は、テキストが1つしか無く、後続テキストが存在しないか判定を行い(S902)、存在しなければ音声合成部104がそのテキストを音声合成して(S903)次のテキストが入力されるのを待つ。
後続テキストが存在する場合、時間制約充足判定部103による時間制約充足の判定が行われる(S904)。図3に、時間制約充足判定部103へのデータフローを示す。図3において、テキスト105aは「1キロ先で事故渋滞があります。速度に気を付けて下さい。」という文章であり、テキスト105bは「500メートル先、左折して下さい。」という文章である。テキスト105aとテキスト105bの再生時間が重ならないよう、時間制約条件107は「105bの再生開始前に105aの再生が完了する」というものになっている。一方再生時刻情報108aにより、テキスト105aはすぐ再生を始める必要があり、再生時刻情報108bにより、テキスト105bは3秒以内に再生を始める必要がある。時間制約充足判定部103は、時間長予測部102によってテキスト105aを音声合成した際の再生時間長の予測値を得て、それが3秒未満であるかどうか判定すればよい。もしテキスト105aの再生時間長の予測値が3秒未満であれば、テキスト105a及びテキスト105bは変更無しで音声合成され、出力される(S905)。
図4は、テキスト105aの再生時間長の予測値が3秒以上であり、時間制約充足判定部103が時間制約条件107を満たさないと判定した際の、表現変換部101に関わるデータフローを表す説明図である。
時間制約条件107を満たせない場合、時間制約充足判定部103は表現変換部101に指示して、テキスト105aの内容を要約させる(S906)。図4では、テキスト105aの「1キロ先で事故渋滞があります。速度に気を付けて下さい。」という文章からテキスト105a'の「1キロ先事故渋滞。速度に気を付けて。」という要約文が得られる。要約を行う具体的方法は何を用いても良いが、例えば文内の単語の重要度をtf*idfという指標で計り、ある適当な閾値以下の単語を含む文節を文章から削るようにすればよい。tf*idfとはある文書内に現れる単語の重要度を計るために広く使用されている指標で、当該文書内での当該単語の出現頻度tf(term frequency)に、当該単語の現れる文書の頻度の逆数(inverse document frequency)を掛けたものである。この値が大きいほど、当該単語が当該文書内でのみ頻出していることになり、重要度が高いと判断できる。この要約方法は、野畑 周、関根 聡、伊佐原 均、Ralph Grishman著 「自動獲得した言語的パタンを用いた重要文抽出システム」(言語処理学会第8回年次大会発表論文集、pp539-542, 2002)および特開平11−282881号公報などに開示されているので、ここでの詳細な説明は省略する。
こうして得られた要約文105a'について再度時間長予測部102により再生時間長の予測値を得て、制約が満たされているかどうか時間制約充足判定部103において判定する(S907)。制約が満たされていれば、要約文105a'を音声合成して合成音波形106aとして再生し、その後テキスト105bを音声合成して合成音波形106bとして再生すればよい(S908)。
図5は、要約文105a'の再生時間長の予測値も3秒以上であり、時間制約充足判定部103が時間制約条件107を満たせないと判定した際の、表現変換部101に関わるデータフローを表す説明図である。
要約文105a'でも時間制約条件107を満たせない場合、時間制約充足判定部103は次に合成音波形106bの出力タイミングを変更させることを試みる(S909)。例えば、合成音波形106bの再生開始時刻を遅らせることを試みる。即ち、もし要約文105a'の再生時間長の予測値が5秒であったとすれば、再生時刻情報108bを「5秒後に再生」と変更した上で、それに伴ってテキスト105bの文言を変更するように表現変換部101に指示する。この場合、表現変換部101は、現在の車速から計算して5秒後には100メートル進んでいるならば、「400メートル先、左折して下さい。」というテキスト105b'を作る。なお、合成音波形106bの再生時刻を変更せず、さらに、テキスト105bの内容を要約することで時間制約条件107が充足可能であれば、そのような処理を行っても良い。さらに、合成音波形106aの再生時刻情報108aが「直ちに再生」ではなく、例えば、「2秒後に再生」のように、合成音波形106aの再生時刻を例えば、「2秒」早めることができるだけの余裕がある場合には、合成音波形106aの再生時刻を早めて時間制約条件107を充足するようにしてもよい。このようにして作られたテキスト105b'を音声合成部104で音声合成して出力する(S910)。
以上のような方法を用いることで、2つの合成音コンテンツを同時に再生する必要が生じた際、その両方を限られた時間内に意味を変えずに再生することが可能となる。特に、車載のカーナビゲーション装置などの場合には、音声による道順案内の最中にも、予測できないタイミングで渋滞情報などの音声案内を行なう必要が頻繁に生じる。これに対して、本発明の音声合成装置では、時間制約充足判定部103は、出力タイミングのずれ分だけ、テキスト105bの時間又は距離を表す内容、例えば、車の走行距離などの内容を表す文言を変更するように表現変換部101に指示した上で、音声合成部104による合成音波形106bの出力タイミングを変更させる。具体的には、表現変換部101は、あるタイミングで「500メートル先、左折して下さい。」というテキスト105bの合成音声を再生すべき場合に、それをその2秒後に再生する場合、車の速度計から速度を取得して、現在の車速から計算して2秒後には100メートル進んでいるならば、「400メートル先、左折して下さい。」というテキスト105b'を作る。これにより、音声合成部104は、再生のタイミングが2秒遅れても、本来のテキスト105bと同じ意味内容を表す合成音声を出力することができる。要約によって多くの文字数が減じられた場合、ユーザが文言の内容を正しく聞き取りにくくなる傾向があるが、本発明の音声合成装置がカーナビゲーション装置などに組み込まれる場合には、このような不具合を抑制し、ユーザがより正確に本来のテキストの意味を聞き取ることができる案内を提供できるという効果がある。
なお、本実施の形態では入力されたテキストが全て同じ再生優先度を持っているとしたが、もし各テキストが違った再生優先度を持っている場合は、あらかじめ優先度順にテキストを並べ替えた上で処理を行えばよい。例えば、テキスト取得(S901)を行った直後の段階で、優先度が高いテキストをテキスト105a、優先度が低いテキストをテキスト105bとして並べ替えた上で、後の処理を同様に行う。さらに、優先度が高いテキストは要約せずに再生開始時刻どおりに再生して、優先度が低いテキストは要約して再生時間を短くしたり、再生開始時刻を早めるまたは遅くしたりするとしてもよい。また、優先度が低いテキストは、一旦、読み上げを中断して、優先度が高いテキストの合成音声を読み上げた後に、優先度の低い方をもう一度読み上げるとしてもよい。
なお、本実施の形態ではカーナビゲーションシステムへの適用を例として説明を行ったが、本発明の方法は再生時刻に制約条件の設定された合成音が複数同時に再生される可能性のある用途に対し汎用的に使える。
例えば音声合成を利用して広告の配信を行いつつ停留所の案内をも行う路線バスの車内アナウンスにおいて、「次は、○○停留所、○○停留所です」という案内の再生が終了した後に「小児科・内科の××医院はこの停留所で降りて徒歩2分です」という広告の読み上げを行おうとすると広告の読み上げの終了前に停留所に着いてしまうような場合、先の案内を「次は○○停留所です」のように要約して短くし、それでも足りなければ広告文も「××医院はこの停留所です」のように要約すればよい。
また、本発明は、上記の例以外にも、ユーザが登録したスケジュールを、設定された時刻になると合成音声で読み上げるスケジューラにも適用することができる。例えば、スケジューラが、10分後に会議が始まることを合成音声で案内するよう設定されていた場合、読み上げを開始する直前に、ユーザが他のアプリケーションを起動して作業をしたために、スケジューラは音声で案内することができず、ユーザの作業終了時には3〜4分経過してしまったという場合である。ただし、スケジュールを読み上げるべき設定時刻は、会議が始まる時刻より前に読み上げを完了できるよう、設定されている必要がある。この場合、スケジューラに本発明を適用することにより、何もなければ「10分後に会議が始まります。」と合成音声を再生したところであるが、直前の作業のために3〜4分経過してしまっているので、会議が始まる5分前まで音声の再生を遅らせ、合成音声のテキストを「10分後」から「5分後」に修正して音声を合成し、「5分後に会議が始まります。」と読み上げを行なうことができる。従って、本発明をスケジューラに適用した場合には、ユーザが登録したスケジュールを設定された時刻に読み上げることができなかった場合であっても、登録されたスケジュールが示す予定時刻(例えば、「10分後」)を、読み上げのタイミングを遅らせた分だけ(例えば、5分)変更するので、タイミングを(例えば、5分)遅らせて読み上げても、登録されたスケジュールと同じ予定時刻を表す内容(例えば、「5分後」)を読み上げることができる。すなわち、本発明によれば、スケジュールの読み上げタイミングをずらしても、本来の内容を正しく読み上げることができるという効果がある。
なお、ここでは、会議が始まる時刻より前にスケジュール(会議予定)の読み上げを完了する場合についてのみ説明したが、本発明はこれに限定されず、会議が始まってしまってからでも、例えば、あらかじめユーザに登録された時間の範囲内であれば、スケジュールの読みあげを行うとしてもよい。例えば、ユーザが「5分以内であれば、スケジュールの予定時刻を過ぎてしまってもスケジュールの読み上げを行なう」と登録していたとする。ユーザは、会議の10分前をスケジュールの読み上げ時刻と設定していたが、何らかの理由でスケジューラの読み上げが可能になるまでに、設定した時刻から13分が経過してしまったとする。このような場合でも、本発明のスケジューラによれば「会議は3分前に始まっています。」と読み上げを行なうことができる。
(実施の形態2)
上記実施の形態1では、先に再生されるべき合成音声と後に再生されるべき合成音声の再生タイミングが重なるようであれば、先に再生されるべき合成音声のテキストを要約して再生時間を短縮する。それでも、直後に再生される合成音声の再生開始までに再生が完了されない場合には、直後に再生される合成音声の再生開始時刻を遅らせるようにした。これに対し、本実施の形態2では、第1及び第2のテキストをまず連結し、その後、表現変換を行なう。すなわち、以下では、先に再生が開始される第1のテキストから合成された合成音波形106aは、すでに再生が一部開始されている場合について説明する。
図6は、本発明の実施の形態2に係る音声合成装置の構成を示す構造図である。
本実施の形態の音声合成装置は、入力される第1のテキスト105aの再生が既に開始した後に第2のテキスト105bが与えられ、かつ第1のテキスト105aの合成音波形106aを再生し終わった後に第2のテキスト105bの音声合成をして再生するのでは時間制約条件107を満たすことができないような状況に対処するためのものである。図1に示される構成と比較して、図6の構成はテキスト記憶部100に記憶されたテキスト105a及び105bを連結して1つのテキスト105cにするテキスト連結部500と、生成された合成音波形を再生するスピーカ装置507と、スピーカ装置507が再生する合成音波形データの参照を行う波形再生バッファ502と、スピーカ装置が波形再生バッファ502内のどの時間位置を再生中か表す再生位置ポインタ504と、音声合成部104が生成可能な合成音波形106のラベル情報501及び合成音波形505のラベル情報508と、前記再生位置ポインタ504を参照して波形再生バッファ502内の既読部分と合成音波形505内の位置の対応付けを行う既読部特定部503と、波形再生バッファ502内の未読部分を合成音波形505の対応する部分以降で置き換える未読部入替部506を持つ。
図7はこの音声合成装置の動作を示すフローチャートである。以下、このフローチャートに沿って本実施の形態における音声合成装置の動作の説明を行う。
動作開始(S1000)後、まず音声合成対象のテキストの取得が行われる(S1001)。次に、このテキストの合成音の再生に関わる制約条件の充足判定が行われる(S1002)が、最初の合成音は自由なタイミングで再生が行えるのでそのまま音声合成処理が行われ(S1003)、生成された合成音の再生が開始される(S1004)。
図8(a)は、先に入力されたテキスト105aの合成音を既に再生中の状態を示し、図8(b)はテキスト105bが後から与えられたときのデータフローを示す説明図である。テキスト105aとして「1キロ先で事故渋滞があります。速度に気を付けてください。」という文章が与えられており、そこへテキスト105bとして「500メートル先、左折して下さい。」という文章が与えられたとする。テキスト105bが与えられた時点で合成音波形106及びラベル情報501は既に生成済みであり、スピーカ装置507は波形再生バッファ502を介して合成音波形106を再生中であるものとする。また、時間制約条件107として、「テキスト105aの合成音の再生終了後にテキスト105bの合成音を再生し、2つの合成音の再生が5秒以内に完了する」という条件が与えられているものとする。
図9に、このときの波形再生バッファ502に関する処理の状態を示す。合成音波形106は波形再生バッファ502に保存されており、先頭から順番にスピーカ装置507で再生されている。再生位置ポインタ504には、スピーカ装置507が合成音波形106の先頭から何秒の部分を現在再生中なのかという情報が入っている。ラベル情報501は合成音波形106に対応するもので、テキスト105a内の各形態素が合成音波形106の先頭から何秒目に現れるかという情報や、各形態素がテキスト105aの先頭から数えて何番目に現れる形態素かという情報を含む。例えば、合成音波形106は先頭に0.5秒の無音区間を持ち、0.5秒の位置から最初の形態素「1」があり、0.8秒の位置から2番目の形態素「キロ」があり、1.0秒の位置から3番目の形態素「先」があり…という情報がラベル情報501には含まれる。
この状態で、時間制約充足判定部103は「時間制約条件107が満たされていない」という出力をテキスト連結部500及び表現変換部101に送る(S1002)。テキスト連結部はこの出力を受け取り、テキスト105a及びテキスト105bの内容を連結して、連結テキスト105cを生成する(S1005)。表現変換部101はこの連結テキスト105cを受け取って、前記実施の形態1と同様にして重要度の低い文節を削る(S1006)。このようにしてできた要約文について時間制約条件107が満たされているかどうか判定を行い(S1007)、満たされていない場合は、表現変換部107にさらに短く要約をやり直させることを繰り返す。その後、音声合成部104によって要約文を音声合成して変換合成音波形505と変換ラベル情報508を作る(S1008)。既読部特定部503は変換ラベル情報508に加え、現在再生中の合成音のラベル情報501及び再生位置ポインタ504から、合成音波形106の、現在までに再生が完了した部分が要約文ではどの部分までに当たるのかを特定する(S1009)。
既読部特定部503の行う処理の概略を、図10に示す。図10(a)は連結テキストの一例を示すラベル情報1である。図10(b)は、再生位置ポインタ504が示している再生完了位置の一例を示す図である。図10(c)は、変換ラベル情報の一例を示す図である。表現変換部101によってテキスト105cの「1キロ先で事故渋滞があります。速度に気を付けて下さい。500メートル先左折して下さい。」の再生が完了した部分はそのままで「1キロ先で事故渋滞があります。500メートル先左折。」に要約されたとすると、ラベル情報501と変換ラベル情報508を付き合わせることにより、要約文のどの位置に当たる部分までを既に再生したかが分かる。
また、合成音声がどこまで再生済みであるかは無視して、2つのテキストを連結し、自由に要約し、既に再生済みとなっている位置よりもあとの要約文から再生するとしてもよい。例えば、テキスト105cが「1キロ先渋滞。500メートル先左折。」に要約されたとする。図10(b)では再生位置ポインタ504が2.6sを示しており、ラベル情報501における2.6sの位置は8番目の形態素である「あり」の途中なので、要約文側では「1キロ先渋滞。」に当たる部分までが既に再生完了していると考えてよい。
既読部特定部503が計算した以上の情報を元に、時間制約充足判定部103は時間制約条件107が満たされているかどうかを判定する。変換ラベル情報508の内容から、要約文側でまだ再生されていない部分の時間長は2.4秒となり、ラベル情報501における8番目の形態素「あり」の残りの再生時間は0.3秒なので、波形再生バッファ502内の音声を続けて再生する変わりに9番目の形態素以降の音声波形を変換合成音波形505で入れ替えれば、2.7秒後に合成音の再生が終了することになる。本実施例の時間制約条件107はテキスト105a及び105bの内容が5秒以内に再生完了することであるため、前記のとおり要約文側でまだ再生されていない「500メートル先左折。」の部分の波形で波形再生バッファ502内の「ます。速度に気を付けて下さい。500メートル先、左折して下さい。」の部分の波形を上書きすればよい。未読部入替部506がこの処理を行う(S1010)。
以上のような方法を用いることで、先に第1の合成音が再生されている状態で第2の合成音の再生を要求された場合にも、2つの合成音コンテンツを限られた時間内に意味を変えずに再生することが可能となる。
(実施の形態3)
図11は、本発明の実施の形態3に係る音声合成装置の動作イメージを示す説明図である。
本実施の形態では、音声合成装置はスケジュール管理部1100の指示に従ってスケジュールの読み上げを行うとともに、緊急メッセージ受信部1101により突発的に割り込まれる緊急のメッセージの読み上げも行う。スケジュール管理部1100はユーザの入力等によってあらかじめ設定されたスケジュール情報を時刻に応じて呼び出し、テキスト情報105及び時間制約条件107を生成して合成音を再生させる。また、緊急メッセージ受信部は他ユーザからの緊急メッセージを受信してスケジュール管理部1100に受け渡し、スケジュール情報の読み上げタイミングを変更させて緊急メッセージの割り込みを行わせる。
図12は、本実施の形態の音声合成装置の動作を示すフローチャートである。本実施の形態の音声合成装置は、動作開始後にまず緊急メッセージ受信部1101が緊急メッセージを受け取っているか調べ(S1201)、緊急メッセージがあれば取得し(S1202)、合成音として再生を行う(S1203)。緊急メッセージの再生が完了するか、緊急メッセージが存在しなかった場合、スケジュール管理部1100は直ちに報知する必要のあるスケジュールテキストが存在するかどうか調べる(S1204)。存在しなければ再び緊急メッセージの待ち受けに戻り、存在すればスケジュールテキストの取得を行う(S1205)。取得したスケジュールテキストは、先に割り込まれた緊急メッセージの再生により、本来の再生タイミングから遅れている可能性がある。そこでまず、再生時間に関する制約の充足判定が行われる(S1206)。制約が満たされていなければ表現変換が行われ(S1207)、例えば「5分後に会議が始まります」というテキストが、緊急メッセージの読み上げによって本来の読み上げ時刻よりも読み上げ開始が3分遅れてしまった場合には、「2分後に会議が始まります」というテキストに変換された上で、音声合成処理が行われる(S1208)。その後、さらに後続テキストが存在するかどうか判定を行い(S1209)、存在する場合は制約充足判定から繰り返して音声合成処理を続行する。
以上のような方法を用いることで、ユーザに音声でスケジュールの報知を行いつつ、他ユーザなどから緊急メッセージなどを受け取ったときは、その緊急メッセージの読み上げをも行う。緊急メッセージの読み上げによって報知タイミングのずれてしまったスケジュールに関しては、タイミングのずれをテキストに反映させつつ、すなわち、読み上げのタイミングがずれた時間分、テキストに含まれる、時間又は距離を表す内容を修正しながら読み上げを行うことができるという効果がある。
なお、ブロック図(図1、6、8及び11など)の各機能ブロックは典型的には集積回路であるLSIとして実現される。これらは個別に1チップ化されても良いし、一部又は全てを含むように1チップ化されても良い。
(例えばメモリ以外の機能ブロックが1チップ化されていても良い。)
ここでは、LSIとしたが、集積度の違いにより、IC、システムLSI、スーパーLSI、ウルトラLSIと呼称されることもある。
また、集積回路化の手法はLSIに限るものではなく、専用回路又は汎用プロセサで実現してもよい。LSI製造後に、プログラムすることが可能なFPGA(Field Programmable Gate Array)や、LSI内部の回路セルの接続や設定を再構成可能なリコンフィギュラブル・プロセッサー を利用しても良い。
さらには、半導体技術の進歩又は派生する別技術によりLSIに置き換わる集積回路化の技術が登場すれば、当然、その技術を用いて機能ブロックの集積化を行ってもよい。バイオ技術の適応等が可能性としてありえる。
また、各機能ブロックのうち、符号化または復号化の対象となるデータを格納する手段だけ1チップ化せずに別構成としても良い。
本発明は、音声合成技術を用いてリアルタイムな情報提供を行うアプリケーションに利用でき、特にカーナビゲーションシステムや合成音によるニュース配信、およびPDA(Personal Digital Assistant)やパソコンなどでユーザのスケジュールを管理するスケジューラなど、合成音再生タイミングの事前のスケジューリングが困難な用途に特に有用である。
図1は、本発明の実施の形態1の音声合成装置の構成を示す構造図である。 図2は、本発明の実施の形態1の音声合成装置の動作を示すフローチャートである。 図3は、制約充足判定部へのデータフローを表す説明図である。 図4は、表現変換部に関わるデータフローを表す説明図である。 図5は、表現変換部に関わるデータフローを表す説明図である。 図6は、本発明の実施の形態2の音声合成装置の構成を示す構造図である。 図7は、本発明の実施の形態2の音声合成装置の動作を示すフローチャートである。 図8は、合成音の再生中に新たなテキストが与えられた状態を表す説明図である。 図9は、波形再生バッファに関する処理の状態を表す説明図である。 図10は、ラベル情報と再生位置ポインタの実例を表す説明図である。 図11は、本発明の実施の形態3の音声合成装置の構成を示す構造図である。 図12は、本発明の実施の形態3の音声合成装置の動作を示すフローチャートである。
符号の説明
100 テキスト記憶部
101 表現変換部
102 時間長予測部
103 時間制約充足判定部
104 音声合成部
105 テキスト
106 合成音波形
107 時間制約条件
108 再生時刻情報
500 テキスト連結部
501 ラベル情報
502 波形再生バッファ
503 既読部特定部
504 再生位置ポインタ
505 合成音波形
506 未読部入替部
507 スピーカ装置
508 変換ラベル情報
S900〜S1010 フローチャート内の各状態
1100 緊急メッセージ受信部
1101 スケジュール管理部
S900〜S1209 フローチャート内の各状態

Claims (8)

  1. テキストから合成される合成音声の再生時間長を予測する時間長予測ステップと、
    予測された再生時間長に基づいて、前記合成音声の再生タイミングに関する制約条件が満たされているか否かを判定する判定ステップと、
    前記制約条件が満たされないと判定された場合、前記テキストの合成音声の再生開始タイミングを前又は後にずらし、前記ずらした時間に相当する分、当該テキストに含まれる時間又は距離を表す内容を変更する内容変更ステップと、
    前記内容が変更された前記テキストから合成音声を合成し再生する音声合成ステップと
    を含むことを特徴とする音声合成方法。
  2. 前記時間長予測ステップでは、複数の合成音声のうち、第1の合成音声の再生開始前に、再生を完了する必要のある第2の合成音声の再生時間長を予測し、
    前記判定ステップでは、前記第2の合成音声に対して予測された前記再生時間長に基づいて、前記第2の合成音声の再生完了が前記第1の合成音声の再生開始に間に合わないようであれば、前記制約条件が満たされないと判定し、
    前記内容変更ステップでは、前記制約条件が満たされないと判定された場合、前記第1の合成音声の再生開始タイミングを前記第2の合成音声の再生完了予測時刻まで遅らせ、前記第1の合成音声の元となるテキストの前記内容を変更し、
    前記音声合成ステップでは、前記第2の合成音声の再生完了後、前記内容が変更された前記テキストから前記第1の合成音声を合成し再生する
    ことを特徴とする請求項1記載の音声合成方法。
  3. 前記内容変更ステップでは、さらに、前記第2の合成音声の元となるテキストを要約することによって前記第2の合成音声の再生時間を短縮し、前記第1の合成音声の再生開始タイミングを、短縮された前記第2の合成音声の再生完了後まで遅らせる
    ことを特徴とする請求項2記載の音声合成方法。
  4. 前記時間長予測ステップでは、あらかじめ設定された時刻までに再生を完了する必要のある合成音声の再生時間長を予測し、
    前記判定ステップでは、前記合成音声に対して予測された前記再生時間長に基づいて、前記合成音声の再生完了が前記設定時刻に間に合わないようであれば、前記制約条件が満たされないと判定し、
    前記内容変更ステップでは、前記制約条件が満たされないと判定された場合、前記合成音声の再生開始タイミングを前記設定時刻より所定の時間だけ遅らせ、前記合成音声の再生開始タイミングを遅らせた分だけ前記合成音声の元となるテキストに示されている前記時間を変更し、
    前記音声合成ステップでは、前記合成音声の再生完了後、前記内容が変更された前記テキストから前記合成音声を合成し再生する
    ことを特徴とする請求項1記載の音声合成方法。
  5. テキストから合成される合成音声の再生時間長を予測する時間長予測手段と、
    予測された再生時間長に基づいて、前記合成音声の再生タイミングに関する制約条件が満たされているか否かを判定する判定手段と、
    前記制約条件が満たされないと判定された場合、前記テキストの合成音声の再生開始タイミングを前又は後にずらし、前記ずらした時間に相当する分、当該テキストに含まれる時間又は距離を表す内容を変更する内容変更手段と、
    前記内容が変更された前記テキストから合成音声を合成し再生する音声合成手段と
    を備えることを特徴とする情報提供装置。
  6. 前記情報提供装置は、目的地までの経路に関する情報を音声で案内するカーナビゲーション装置として動作し、
    前記情報提供装置は、さらに、車の移動速度を取得する速度取得手段を備え、
    前記時間長予測手段は、複数の合成音声のうち、第1の合成音声の再生開始前に、再生を完了する必要のある第2の合成音声の再生時間長を予測し、
    前記判定手段は、前記第2の合成音声に対して予測された前記再生時間長に基づいて、前記第2の合成音声の再生完了が前記第1の合成音声の再生開始に間に合わないようであれば、前記制約条件が満たされないと判定し、
    前記内容変更手段は、前記制約条件が満たされないと判定された場合、前記第1の合成音声の再生開始タイミングを前記第2の合成音声の再生完了予測時刻まで遅らせ、前記速度取得手段によって取得された前記移動速度に基づいて、前記第1の合成音声の再生開始タイミングを、遅らせた分の移動距離だけ前記第1の合成音声の元となるテキストに示されている予め定められた地点までの距離を変更し、
    前記音声合成手段は、前記第2の合成音声の再生完了後、前記内容が変更された前記テキストから前記第1の合成音声を合成し再生する
    ことを特徴とする請求項5記載の情報提供装置。
  7. 前記情報提供装置は、ユーザが登録したスケジュールを、前記スケジュールの時刻より前のあらかじめ設定された時刻になると合成音声で読み上げるスケジューラとして動作し、
    前記情報提供装置は、さらに、ユーザのスケジュール、その時刻及び前記設定時刻の登録を受け付ける登録手段を備え、
    前記時間長予測手段は、前記設定時刻までに再生を完了する必要のある合成音声の再生時間長を予測し、
    前記判定手段は、前記合成音声に対して予測された前記再生時間長に基づいて、前記合成音声の再生完了が前記設定時刻に間に合わないようであれば、前記制約条件が満たされないと判定し、
    前記内容変更手段は、前記制約条件が満たされないと判定された場合、前記合成音声の再生開始タイミングを前記スケジュールの時刻より早い一定の時刻まで遅らせ、前記合成音声の再生開始タイミングを遅らせた分だけ前記合成音声の元となるテキストに示されている前記スケジュール開始までの時間を変更し、
    前記音声合成手段は、前記合成音声の再生完了後、前記内容が変更された前記テキストから前記合成音声を合成し再生する
    ことを特徴とする請求項5記載の情報提供装置。
  8. 情報提供装置のためのプログラムであって、コンピュータに
    テキストから合成される合成音声の再生時間長を予測する時間長予測ステップと、予測された再生時間長に基づいて、前記合成音声の再生タイミングに関する制約条件が満たされているか否かを判定する判定ステップと、前記制約条件が満たされないと判定された場合、前記テキストの合成音声の再生開始タイミングを前又は後にずらし、前記ずらした時間に相当する分、当該テキストに含まれる時間又は距離を表す内容を変更する内容変更ステップと、前記内容が変更された前記テキストから合成音声を合成し再生する音声合成ステップとを実行させるプログラム。
JP2006550642A 2004-12-28 2005-12-06 音声合成方法および情報提供装置 Expired - Fee Related JP3955881B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2004379154 2004-12-28
JP2004379154 2004-12-28
PCT/JP2005/022391 WO2006070566A1 (ja) 2004-12-28 2005-12-06 音声合成方法および情報提供装置

Publications (2)

Publication Number Publication Date
JP3955881B2 true JP3955881B2 (ja) 2007-08-08
JPWO2006070566A1 JPWO2006070566A1 (ja) 2008-06-12

Family

ID=36614691

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006550642A Expired - Fee Related JP3955881B2 (ja) 2004-12-28 2005-12-06 音声合成方法および情報提供装置

Country Status (4)

Country Link
US (1) US20070094029A1 (ja)
JP (1) JP3955881B2 (ja)
CN (1) CN1918628A (ja)
WO (1) WO2006070566A1 (ja)

Families Citing this family (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7761300B2 (en) * 2006-06-14 2010-07-20 Joseph William Klingler Programmable virtual exercise instructor for providing computerized spoken guidance of customized exercise routines to exercise users
JP4984708B2 (ja) * 2006-07-21 2012-07-25 富士通株式会社 音声対話機能を有する情報処理装置
JP4471128B2 (ja) * 2006-11-22 2010-06-02 セイコーエプソン株式会社 半導体集積回路装置、電子機器
JPWO2008075489A1 (ja) * 2006-12-18 2010-04-08 三菱電機株式会社 短縮文字列生成装置およびその表示装置ならびに音声出力装置
US9170120B2 (en) * 2007-03-22 2015-10-27 Panasonic Automotive Systems Company Of America, Division Of Panasonic Corporation Of North America Vehicle navigation playback method
JP5049704B2 (ja) * 2007-08-30 2012-10-17 三洋電機株式会社 ナビゲーション装置
US8145490B2 (en) * 2007-10-24 2012-03-27 Nuance Communications, Inc. Predicting a resultant attribute of a text file before it has been converted into an audio file
WO2009107441A1 (ja) * 2008-02-27 2009-09-03 日本電気株式会社 音声合成装置、テキスト生成装置およびその方法並びにプログラム
JP5018671B2 (ja) * 2008-07-07 2012-09-05 株式会社デンソー 車両用ナビゲーション装置
JP4785909B2 (ja) * 2008-12-04 2011-10-05 株式会社ソニー・コンピュータエンタテインメント 情報処理装置
US20120197630A1 (en) * 2011-01-28 2012-08-02 Lyons Kenton M Methods and systems to summarize a source text as a function of contextual information
JP5758713B2 (ja) * 2011-06-22 2015-08-05 株式会社日立製作所 音声合成装置、ナビゲーション装置および音声合成方法
WO2013018294A1 (ja) * 2011-08-01 2013-02-07 パナソニック株式会社 音声合成装置および音声合成方法
US8756052B2 (en) * 2012-04-30 2014-06-17 Blackberry Limited Methods and systems for a locally and temporally adaptive text prediction
JP5999839B2 (ja) * 2012-09-10 2016-09-28 ルネサスエレクトロニクス株式会社 音声案内システム及び電子機器
KR101978209B1 (ko) * 2012-09-24 2019-05-14 엘지전자 주식회사 이동 단말기 및 이의 제어 방법
US9734817B1 (en) * 2014-03-21 2017-08-15 Amazon Technologies, Inc. Text-to-speech task scheduling
WO2016199596A1 (ja) * 2015-06-10 2016-12-15 ソニー株式会社 信号処理装置、信号処理方法、およびプログラム
JP6272585B2 (ja) * 2016-01-18 2018-01-31 三菱電機株式会社 音声案内制御装置及び音声案内制御方法
WO2017130486A1 (ja) * 2016-01-28 2017-08-03 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
US9972301B2 (en) * 2016-10-18 2018-05-15 Mastercard International Incorporated Systems and methods for correcting text-to-speech pronunciation
US10614794B2 (en) * 2017-06-15 2020-04-07 Lenovo (Singapore) Pte. Ltd. Adjust output characteristic
JP7000171B2 (ja) * 2018-01-16 2022-01-19 エヌ・ティ・ティ・コミュニケーションズ株式会社 コミュニケーションシステム、コミュニケーション方法およびコミュニケーションプログラム
KR20210020656A (ko) * 2019-08-16 2021-02-24 엘지전자 주식회사 인공 지능을 이용한 음성 인식 방법 및 그 장치
CN113449141A (zh) * 2021-06-08 2021-09-28 阿波罗智联(北京)科技有限公司 语音播报方法、装置、电子设备及存储介质

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3384646B2 (ja) * 1995-05-31 2003-03-10 三洋電機株式会社 音声合成装置及び読み上げ時間演算装置
US5904728A (en) * 1996-10-11 1999-05-18 Visteon Technologies, Llc Voice guidance timing in a vehicle navigation system
US6324562B1 (en) * 1997-03-07 2001-11-27 Fujitsu Limited Information processing apparatus, multitask control method, and program recording medium
US6490562B1 (en) * 1997-04-09 2002-12-03 Matsushita Electric Industrial Co., Ltd. Method and system for analyzing voices
KR100240637B1 (ko) * 1997-05-08 2000-01-15 정선종 다중매체와의 연동을 위한 텍스트/음성변환 구현방법 및 그 장치
JP3287281B2 (ja) * 1997-07-31 2002-06-04 トヨタ自動車株式会社 メッセージ処理装置
US6182041B1 (en) * 1998-10-13 2001-01-30 Nortel Networks Limited Text-to-speech based reminder system
DE19908869A1 (de) * 1999-03-01 2000-09-07 Nokia Mobile Phones Ltd Verfahren zum Ausgeben von Verkehrsinformation in einem Kraftfahrzeug
US6574600B1 (en) * 1999-07-28 2003-06-03 Marketsound L.L.C. Audio financial data system
US6542868B1 (en) * 1999-09-23 2003-04-01 International Business Machines Corporation Audio notification management system
US20030014253A1 (en) * 1999-11-24 2003-01-16 Conal P. Walsh Application of speed reading techiques in text-to-speech generation
JP4465768B2 (ja) * 1999-12-28 2010-05-19 ソニー株式会社 音声合成装置および方法、並びに記録媒体
JP3540984B2 (ja) * 2000-06-26 2004-07-07 日本電信電話株式会社 音声合成装置、音声合成方法および音声合成プログラムを記憶した記憶媒体
US6823311B2 (en) * 2000-06-29 2004-11-23 Fujitsu Limited Data processing system for vocalizing web content
US7031924B2 (en) * 2000-06-30 2006-04-18 Canon Kabushiki Kaisha Voice synthesizing apparatus, voice synthesizing system, voice synthesizing method and storage medium
JP4680429B2 (ja) * 2001-06-26 2011-05-11 Okiセミコンダクタ株式会社 テキスト音声変換装置における高速読上げ制御方法
US7139713B2 (en) * 2002-02-04 2006-11-21 Microsoft Corporation Systems and methods for managing interactions from multiple speech-enabled applications
US6882906B2 (en) * 2002-10-31 2005-04-19 General Motors Corporation Vehicle information and interaction management
JP2004271979A (ja) * 2003-03-10 2004-09-30 Matsushita Electric Ind Co Ltd 音声合成装置

Also Published As

Publication number Publication date
WO2006070566A1 (ja) 2006-07-06
CN1918628A (zh) 2007-02-21
US20070094029A1 (en) 2007-04-26
JPWO2006070566A1 (ja) 2008-06-12

Similar Documents

Publication Publication Date Title
JP3955881B2 (ja) 音声合成方法および情報提供装置
US8027837B2 (en) Using non-speech sounds during text-to-speech synthesis
CN105027194B (zh) 话语主题的识别
US8386166B2 (en) Apparatus for text-to-speech delivery and method therefor
JP5321058B2 (ja) 情報付与システム、情報付与方法、情報付与プログラム及び情報付与プログラム記録媒体
JP6078964B2 (ja) 音声対話システム及びプログラム
US9240180B2 (en) System and method for low-latency web-based text-to-speech without plugins
US20120197630A1 (en) Methods and systems to summarize a source text as a function of contextual information
US20080082635A1 (en) Asynchronous Communications Using Messages Recorded On Handheld Devices
KR20210041553A (ko) 오디오 스트림 믹싱 시스템 및 방법
US20240087562A1 (en) Interactive content output
JP2006171579A (ja) 音声再生プログラムおよびその記録媒体、音声再生装置ならびに音声再生方法
JP5213273B2 (ja) 電子書籍装置及び電子書籍再生方法
JP2006018133A (ja) 分散型音声合成システム、端末装置及びコンピュータ・プログラム
US8219402B2 (en) Asynchronous receipt of information from a user
JP4409279B2 (ja) 音声合成装置及び音声合成プログラム
JP4228442B2 (ja) 音声応答装置
JP4428549B2 (ja) 案内情報修整装置,および,案内情報修整方法
JP2004226711A (ja) 音声出力装置及びナビゲーション装置
JP2003202233A (ja) 情報再生装置及び情報再生方法並びに記憶媒体
JPS63231493A (ja) 音声規則合成装置を用いた文章読み上げ方法
JP2007127994A (ja) 音声合成方法及び音声合成装置並びにプログラム
Girand Prenuclear accentual structure in conversational English: Form and function
JP2022117683A (ja) 案内装置
JPH11288292A (ja) 音声出力装置

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070410

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070507

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees