JP2007086185A - 音声合成装置 - Google Patents

音声合成装置 Download PDF

Info

Publication number
JP2007086185A
JP2007086185A JP2005272494A JP2005272494A JP2007086185A JP 2007086185 A JP2007086185 A JP 2007086185A JP 2005272494 A JP2005272494 A JP 2005272494A JP 2005272494 A JP2005272494 A JP 2005272494A JP 2007086185 A JP2007086185 A JP 2007086185A
Authority
JP
Japan
Prior art keywords
language information
speech
information
voice
output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005272494A
Other languages
English (en)
Other versions
JP2007086185A5 (ja
Inventor
Takahiro Otsuka
貴弘 大塚
Satoshi Furuta
訓 古田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2005272494A priority Critical patent/JP2007086185A/ja
Publication of JP2007086185A publication Critical patent/JP2007086185A/ja
Publication of JP2007086185A5 publication Critical patent/JP2007086185A5/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Machine Translation (AREA)

Abstract

【課題】従来は、文中の特定の文節または1文字を聞き直したい時、文内におけるその箇所の位置を覚えておく必要がある。また、聞き直したい箇所の指定は、一文を読み上げた後に行うので、読み上げが終了するまで、待たねばならず時間がかかる。
【解決手段】テキストを入力し、文解析処理して言語情報を得る文解析手段と、この言語情報を記憶する言語情報記憶手段と、ユーザからの制御情報を入力する入力処理手段と、入力処理手段からの制御情報の内容によって異なる範囲の言語情報を言語情報記憶手段から取得する言語情報取得手段と、言語情報取得手段が取得した言語情報から音声を生成する音声生成手段と、音声生成手段で生成された音声を出力する音声出力手段とを備える。
【選択図】図1

Description

この発明は、テキストを文解析して、その解析結果である言語情報から音声信号を生成し、出力する音声合成装置に関するものである。
テキスト音声合成を用いて、任意の文字列を読み上げる文章読み上げ技術として、たとえば、特開平4−177526公報に記載の技術がある。
この従来技術では、読み上げの途中で、聞き逃しや、聞き取りにくい部分、意味が理解できない場合に、元の音声とは異なる態様で文の読み上げを行う機能を設けている。読み直しを指示すると、指定位置から、指定された態様に従い、一文を読み上げる。
特開平4−177526号公報
上記従来の方法では、文中の特定の文節または1文字などを聞き直したい場合に、その箇所が文内のどの位置にあるか覚えておく必要がある問題点があった。また、聞き直したい箇所の指定は、一文を読み上げた後に行うので、読み上げが終了するまで、ユーザは待つ必要があり、時間がかかる問題点もあった。
そこで、この発明の目的は、ユーザが、聞き取れなかったり意味がわからなかったりする場合に、聞き直したい箇所を即座に聞き直すことがきることと、聞き取れない箇所を複数回聞き直すうちに、聞き直したい箇所を絞り込んで行くことで、効率よく読み上げ内容を正しく理解するような音声を生成する音声合成装置を提供することにある。
この発明に係る音声合成装置は、
テキスト文を入力し、文解析して言語情報を得、この言語情報から音声信号を生成して、テキスト文の読みを音声出力する音声合成装置であって、
テキスト文を入力し、文解析処理して言語情報を得る文解析手段と、
文解析手段で得た言語情報を記憶する言語情報記憶手段と、
ユーザからの制御情報を入力する入力処理手段と
入力処理手段からの制御情報の内容に基づき異なる範囲の言語情報を言語情報記憶手段から取得する言語情報取得手段と、
言語情報取得手段が取得した言語情報から音声を生成する音声生成手段と、
音声生成手段で生成された音声を出力する音声出力手段とを備える。
この発明に係る音声合成装置によれば、ユーザは、聞き取れなかった箇所、理解できなかった箇所を、即座に聞き直すことも可能になり、一回の聞き直しで理解できない場合には、聞き直しの範囲を限定していくことも可能で、読み上げ内容を容易に理解できる効果がある。
実施の形態1.
図1は、この発明の形態1における音声合成装置の構成図である。図1において文解析手段11は、入力したテキストを形態素解析や構文解析などの言語解析を実施することにより、その解析結果として、例えば、“よみ”の言語情報を出力する。
言語情報記憶手段12は、文解析手段11より出力された言語情報を記憶する。
入力処理手段15は、ユーザからの制御情報、例えば処理継続要求或いは再出力要求を受け付ける処理を実施する。
言語情報取得手段13は、言語情報記憶手段12に記憶されている言語情報の一部を入力処理手段15からの制御情報に基づき選択し、取得する処理を実施する。
言語情報編集手段14は、言語情報取得手段13で取得した言語情報を正しく認識可能に編集する処理、例えば言語情報“カ”に対し、“カキクケコノ カ”に編集を実施する。
音声生成手段16は、言語情報編集手段14で編集した言語情報から音声信号を生成する処理を実施する。
音声出力手段17は、音声生成手段16で生成した音声信号を音声に変換し出力する処理を実施する。
次に動作について図2で説明する。
文解析手段11は、テキストを入力すると、そのテキストに対して形態素解析や、構文解析などの解析を実施することにより、その解析結果として、例えば“よみ”の言語情報を出力する(ステップS1)。
言語情報の生成については、公知の技術を利用すればよいので、ここでは詳細な説明を省略する。
言語情報記憶手段12は、文解析手段11の出力を受け取ると、その言語情報を記憶する(ステップS2)。例えば、図3または図4に示すような情報を記憶する。ここでは、まず、図3の場合について説明し、図4の場合については後述する。
図3において文節番号31は、テキストを文解析手段11で解析して得られた文節に対し、付与された番号を記憶する。テキスト32は、文解析手段11に入力されたテキストを文解析手段11で文節ごとにわけて記憶する。よみ33は、各文節に対応した読みを記憶する。文字番号34は、よみ33の文字ごとに付与した番号を記憶する。文字35はよみ33を1文字ずつ記憶する。フラグ36は、文解析手段11で得られた区切り情報を記憶する。この区切り情報において、値0は文末であることを表し、値1は文節末であることを表し、値2は上記の値0または1以外であることを表している。
ステップS3では、次に示す[処理A]、[処理B]、[処理C]を行うことで、読み直しの処理を実施する。
[処理A]は一文の読み直しの処理、[処理B]は一文節の読み直しの処理、[処理C]は一語または単漢字の読み直しの処理を行うもので、それぞれ、[処理A]は図5、[処理B]は図6,[処理C]は図7,8,9を用いて説明し、ステップS3の(読み直し処理)の動作を詳しく説明する。
図5は一文の読み直しの処理を行う[処理A]の動作と処理データの例を表している。図5の処理番号51は、処理内容52ごと付与された番号である。処理データ例53は、動作を説明するためのデータの例である。
ここでは、「先生の回答を待った。返事はなかった。」がテキストとして文解析手段11に入力され、文解析の結果が、図3のように記憶されているとする。
(処理1)
開始文字番号を変数STで表し、これを初期化する。ここでは、最初の処理であるから入力された最初の文字から処理を行うので、STに1を代入する(処理データ例P01)。
(処理2)
言語情報取得手段13で、文字番号34がSTからフラグ0までの言語情報を言語情報記憶手段12から取り出す。つまり、ここでは一つの文を処理するので、フラグの値が文末の区切り情報値0までを取り出す。ここで取り出す言語情報がない場合は、ステップS3の動作を終了する。
言語情報記憶手段12には、図3で表す内容が記憶されているとすると、“センセーノ カイトーヲ マッタ”が言語情報取得手段13によって取り出される(処理データ例P02)。
(処理3)
音声生成手段16で、言語情報取得手段13によって取り出された言語情報“センセーノ カイトーヲ マッタ”から音声を生成する。音声信号の生成については、公知の技術を利用すればよいので、ここでは説明を省略する。
(処理4)
音声出力手段17で、音声生成手段16で生成した音声信号を文節単位で出力する。文節単位で出力を行う意味は、音声を途切れ途切れに出力するということではなく、他の処理へ移る単位を表している。ここでは、「センセーノ」を出力する(処理データ例P03)。
(処理5)
出力した文節の末の文字に対応するフラグの値によって、次の処理の内容を決める。フラグの値が0の場合は(処理6)へ移行し、フラグの値が0でない場合は(処理9)へ移行する。ここでは、文節末の文字は「ノ」で、そのフラグの値は1であるので、(処理9)へ移行する(処理データ例P04)。
(処理9)
音声の出力中に、入力処理手段15で受けたユーザからの制御情報によって、次に実施する処理を決める。すなわち、再出力要求があれば、[処理B]へ移行し、再出力要求がなければ、次の文節の音声を出力する(処理4)へ移行する。制御情報は、ユーザの操作に伴って入力される情報で、ボタンによる入力や、ソフトウエア上で実現されるボタン等による入力情報である。また、マイクを介して音情報を用いた入力方法でもよい。
入力処理手段15は、音声の出力中も動作させ、随時、ユーザからの入力を受け付け、即座にユーザが入力した制御情報による処理に移行する。
ここでは、再出力の要求がなかったことを想定し、次に実施する処理を(処理4)と決定する(処理データ例P05)。
(処理4)
ここでは、「カイトーヲ」を音声出力し(処理データ例P06)、(処理5)へ移る。
(処理5)
ここでは、文節末の文字は「ヲ」で、そのフラグは1であり、0でないので、(処理9)へ移行する(処理データ例P07)。
(処理9)
ここでは、再出力要求があったことを想定すると、次に実施する処理を、[処理B]と決定する(処理データ例P08)。
[処理B]は一文節毎の処理を行うもので、図6に[処理B]の動作と処理データの例を示している。図6の符号は、図5の符号と同一である。
(処理10)
言語情報取得手段13で、文字番号がSTに対応する文節番号の言語情報を言語情報記憶手段12から取り出す。ここの例では、STに1が代入されているので、文節番号1の言語情報“センセーノ”が取り出される(処理データ例P09)。
(処理11)
音声生成手段16で、言語情報取得手段13によって取り出された言語情報“センセーノ”から音声を生成する。
(処理12)
音声出力手段17で、音声生成手段16で生成された音声を出力する。ここでは、「センセーノ」を出力する(処理データ例P10)。
(処理13)
言語情報取得手段13で取り出された一文節の音声が出力されたので、入力処理手段15で、入力があるまで待機する。ここでは、継続要求を入力として受け取ったことを想定する(処理データ例P11)。
(処理14)
入力処理手段15で受け取った入力によって、次に実施する処理を決定する。すなわち、再出力要求の場合は、(処理C)へ移行し、継続要求の場合は、(処理15)へ移行する。
ここでは、継続要求を受け取ったことを想定するので、(処理15)へ移行する。
(処理15)
開始文字番号STを更新する。ここでは、「センセーノ」の出力が完了し、次の“カイトーヲ”を指定するように、開始文字番号STを設定する。すなわちSTに6を設定する(処理データ例P12) 。
(処理16)
(処理10)で言語情報取得手段13が言語情報記憶手段12から取り出した、言語情報の末尾のフラグによって、次に実施する処理を決定する。末尾のフラグが0の場合は、図5に示す[処理A]の(処理2)へ移行し、末尾のフラグが0でない場合は、図6に示す[処理B]の(処理10)へ移行する。ここでは、言語情報取得手段13により言語情報記憶手段12から取り出した言語情報“センセーノ”の末尾文字「ノ」に対応するフラグは1であり、0でないので、次に実施する処理を、[処理B]の(処理10)と決定する(処理データ例 P13)。
ここの例では、(処理10)で、文字番号がST=6に対応する文節番号2の言語情報“カイトーヲ”が取り出され(処理データ例 P14)、次に、(処理11)で音声生成手段16により音声生成を行い、(処理12)で音声出力手段17により「カイトーヲ」という音声の出力を行う(処理データ例P15)。次に、(処理13)で入力処理手段15からの入力をまつ。ここでは、再出力要求を受け取ったことを想定する(処理データ例P16)。再出力要求であるから(処理14)で、次に実施する処理を[処理C]と決定する。
[処理C]は一語毎または単漢字毎の読み直しの処理を行うもので、ここでは一語の読み直し処理の例について説明する。図7は[処理C]の動作と処理データの例を表しており、図7の符号は、図5の符号と同一である。
(処理17)
言語情報取得手段13で、開始文字番号STの言語情報を取り出す。ここの例ではSTに6が設定されているので、“カ”が取り出される(処理データ例P17)。
(処理24)
取り出された言語情報を、言語情報編集手段14によって編集する。言語情報編集手段14では、編集を行っても良いし、行わなくても良い。この例では、編集を行わずに、編集結果を“カ”とする。
(処理18)
音声生成手段16で、言語情報編集手段13によって編集された言語情報から音声を生成する。ここでは、「カ」を生成する。
(処理19)
音声出力手段17で、音声生成手段16で生成された音声を出力する。ここでは、「カ」を出力する(処理データ例P18)。
(処理20)
入力処理手段15で、入力があるまで待機する。ここでは、継続要求を入力として受け取ったことを想定する(処理データ例P19)。
(処理21)
入力処理手段15で受け取った入力によって、次に実施する処理を決定する。すなわち、再出力要求の場合は(処理19)へ移行し、継続要求の場合は(処理22)へ移行する。ここでは、継続要求を受け取ったことを想定するので(処理22)へ移行する。
(処理22)
開始文字番号STを更新する。ここでは、「カ」の出力が完了し、次の“イ”を指定するように、開始文字番号STを設定する。すなわちSTに7を設定する(処理データ例P20) 。
(処理23)
(処理17)で取り出した言語情報のフラグによって、次に実施する処理を決定する。フラグが0の場合は、[処理A]の(処理2)へ移行し、フラグが1の場合は、[処理B]の(処理10)へ移行し、フラグが2の場合は、(処理17)へ移行する。
ここでは、取り出された文字「カ」に対応するフラグは2なので、次に実施する処理を、(処理17)と決定する(処理データ例 P21) 。
ここの例では、(処理17)で、言語情報取得手段13によって“イ”が取り出され(処理データ例 P22)、次に、(処理18)で音声生成手段16により音声生成を行い、(処理19)で「イ」という音声出力を音声出力手段17で行う(処理データ例 P23)。次に、(処理20)で入力をまつ。ここでは、再出力要求を受け取ったことを想定する(処理データ例 P24)。再出力要求であるから(処理21)で、次に実施する処理を(処理19)と決定する。
(処理19)で音声出力手段17により「イ」という音声出力を行う(処理データ例 P25)。次に、(処理20)で入力をまつ。ここでは、継続要求を受け取ったことを想定する(処理データ例 P26)。(処理21)では、継続要求であるから次に実施する処理を、(処理22)と決定する。
(処理22)
開始文字番号STを更新する。ここでは、「イ」の出力が完了し、次の“ト”を指定するように、開始文字番号STを設定する。すなわちSTに8を設定する(処理データ例P27) 。
(処理23)
ここでは、言語情報取得手段13によって取り出された文字「イ」に対応するフラグは2なので、次に実施する処理を、(処理17)と決定する(処理データ例 P28) 。
(処理17)で、言語情報取得手段13によって“ト”が取り出され(処理データ例 P29)、次に、(処理18)で音声生成手段16により音声生成を行い、(処理19)で「ト」という音声出力を音声出力手段17により行う(処理データ例 P30)。次に、(処理20)で入力をまつ。ここでは、継続要求を受け取ったことを想定する(処理データ例P31)。(処理21)で、次に実施する処理を、(処理22)と決定する。
(処理22)で、開始文字番号STを更新する。ここでは、「ト」の出力が完了し、次の“ー”を指定するように、開始文字番号STを設定する。すなわちSTに9を設定する(処理データ例P32) 。(処理23)で、言語情報取得手段13によって取り出された文字「ト」に対応するフラグは2なので、次に実施する処理を(処理17)と決定する(処理データ例 P33) 。
(処理17)で、言語情報取得手段13によって“ー”が取り出され(処理データ例P34)、次に、(処理18)で音声生成手段16により音声生成を行い、(処理19)で「チョーオン」という音声出力を音声出力手段17により行う。ここでは、音声生成手段16が、“ー”が長音であることを判断し、「チョーオン」という音声信号を生成し、音声出力したことを示している(処理データ例P35)。次に、(処理20)で入力をまつ。ここでは、継続要求を受け取ったことを想定する(処理データ例P36) 。(処理21)で、次に実施する処理を(処理22)と決定する。
(処理22)で、開始文字番号STを更新する。ここでは、「チョーオン」の出力が完了し、次の“ン”を指定するように、開始文字番号STを設定する。すなわちSTに10を設定する(処理データ例P37)。(処理23)で、言語情報取得手段13により取り出された文字「ー」に対応するフラグは2なので、次に実施する処理を(処理17)と決定する(処理データ例 P38) 。
(処理17)で、言語情報取得手段13によって“ヲ”が取り出され(処理データ例P39)、次に、(処理18)で音声生成手段16により音声生成を行い、(処理19)で「ヲ」という音声出力を音声出力手段17により行う(処理データ例P40)。次に、(処理20)で入力をまつ。ここでは、継続要求を受け取ったことを想定する(処理データ例P41) 。(処理21)で、次に実施する処理を(処理22)と決定する。
(処理22)で、開始文字番号STを更新する。ここでは、「ヲ」の出力が完了し、次の“マ”を指定するように、開始文字番号STを設定する。すなわちSTに11を設定する(処理データ例P42)。(処理23)で、言語情報取得手段13により取り出された文字「ヲ」に対応するフラグは1で文節末であるので、次に実施する処理を次の文節とし、[処理B]の(処理10)と決定する(処理データ例 P43) 。
再び、図6を用いて[処理B]での動作を説明する。
(処理10)で、STに11が設定されているので、このSTに11に対応する文節番号3の言語情報“マッタ”が取り出され(処理データ例P44)、次に、(処理11)で音声生成手段16により音声生成を行い、(処理12)で音声出力手段17により「マッタ」という音声出力を行う(処理データ例P45)。
次に、(処理13)で入力をまつ。ここでは、継続要求を受け取ったことを想定する。(処理14)で、次に実施する処理を(処理15)と決定する(処理データ例P46)。
(処理15)
開始文字番号STを更新する。ここでは、「マッタ」の出力が完了し、次の“ヘンジワ”を指定するように、開始文字番号STを設定する。すなわちSTに14を設定する(処理データ例P47) 。
(処理16)
ここでは、「マッタ」の末尾文字「タ」に対応するフラグは0であるので、次に実施する処理を、[処理A]の(処理2)と決定する(処理データ例 P48) 。
再び、図5を用いて[処理A]での動作を説明する。
(処理2)で、”ヘンジワ ナカッタ”が言語情報取得手段13によって取り出される(処理データ例P49)。
このようにして、与えられたテキスト「先生の回答を待った。返事はなかった」から、一文「先生の回答を待った」についての音声出力が完了し、次の文「返事はなかった」へ処理を移す。
「返事はなかった」についての動作は、先に説明した「先生の回答を待った」についての動作と同様なので説明を省略する。
上記の例では説明されなかった、(処理6,7,8)について説明する。
(処理6)では、(処理4)で音声を出力した後、入力処理手段15から何らかの入力があるのを待機する。入力処理手段15で、ユーザからの制御情報の入力を受ける。
(処理7)では、(処理6)で受けた入力によって、次に実施する処理を決定する。すなわち、入力が、再出力要求の場合は(処理B)へ移行し、継続要求の場合は(処理8)へ移行する。
(処理8)では、開始文字番号STを更新する。すなわち、文節末の文字の次の文字の番号を設定する。ついで、次に、(処理2)へ移行する。
以上のように、この実施の形態によれば、ユーザは、聞き取れなかった箇所、理解できなかった箇所を、入力処理手段に再出力要求を入力することで、この再出力要求が即実行され、即座に聞き直すことが出来、一回の聞き直しで理解できない場合には、聞き直しの範囲を限定していくので、読み上げ内容を容易に理解できる効果がある。
実施の形態2.
上記実施の形態1では、[処理C]の(処理24)において、編集を行わなかったが、言語情報を編集して、言語情報を変更しても良い。
この実施の形態の場合の動作例を図8に示す。この動作は、図7の動作の、(処理24)が異なっている。
(処理24)では、言語情報取得手段13で得られた言語情報を、この言語情報に対応する予め用意された言語情報に変換する。図8に示す動作例では、言語情報取得手段13で得られた言語情報“カ”に対し、“カキクケコノ カ”に変換している。この様に変換して音声出力することで“カ”に対し。ユーザが正しく認識できるようになる。
言語情報の変換は、例えば、図10に示すテーブルを予め用意することで容易に変換することができる。
実施の形態3.
上記実施の形態1では、文解析手段11で解析した結果を図3のように記憶したが、図4に示すように記憶してもよい。この実施の形態では、図4に示すように、図3の文字35のみが図4の文字45のように異なっている。図4の文字45では、テキスト32の文字を一文字ずつ記憶する。
この実施の形態3の場合の動作例を図9に示す。この動作は、図8に示す実施の形態2における動作の(処理24)、(処理21)のみが異なっている。
すなわち、(処理24)では、言語情報取得手段13で得られた言語情報を、この言語情報に対応する予め用意された言語情報に変換する。図9に示す動作例では、図11のような変換を行っている。この言語情報の変換は、図11のような、単漢字、ひらがな、カタカナ、とそれを表す言語情報のテーブルを用意することで容易に変換することができる。
(処理20)で、再出力要求を受け付けた場合は、(処理24)で、先の読み上げとは異なる言語情報に変換する。一つの文字に対し、複数の言語情報を対応させるテーブルを用意することで、異なる言語情報に変換することができる。
図11のテーブルでは、”答”に対し、”トーアンノ トー”と、”トーベンノ トー”をテーブルに用意している。
このように、一つの文字に対し、複数の言語情報を対応させるテーブルを用意し、先の読み上げとは異なる言語情報に変換して、異なる表現の音声を出力することで、出力音声に対しユーザが正しく認識できるようになる。
上記実施の形態1では、文解析手段11で解析した結果を図3のように、文節番号31を用いたが、テキスト音声合成で扱う基本単位であってもよい。例えば、アクセントフレーズと呼ばれる、イントネーションのひとつのまとまりを表す単位などである。
上記各実施の形態では、テキストは日本語として説明したが、この発明は言語に依存するものでなく、英語、ドイツ語、中国語などでもよい。例えば英語では、日本語での文節の変わりに単語を対応させ、この発明を適用することができる。
カーナビゲーション等でユーザの視覚に制限があるようなシーンでの音声案内や対話装置に適用されることで音声情報をユーザが素早く、確実に理解できるものである。
この発明の実施の形態1に係る音声合成装置の構成を示すブロック図である。 実施の形態1に係る動作を説明するため図である。 実施の形態1に係る言語情報記憶手段に格納された情報例を説明するため図である。 実施の形態1に係る言語情報記憶手段に格納された他の情報例を説明するため図である。情報の例である。 実施の形態1に係る[処理A]の動作と、動作例を説明するための図である。 実施の形態1に係る[処理B]の動作と、動作例を説明するための図である。 実施の形態1に係る[処理C]の動作と、動作例を説明するための図である。 実施の形態1に係る別な[処理C]の動作と、動作例を説明するための図である。 実施の形態1に係るさらに別な[処理C]の動作と、動作例を説明するための図である。 一語の言語情報変換用テーブルの説明図である。 単漢字、ひらがな、カタカナ等の言語情報変換用テーブルの説明図である。
符号の説明
11 文解析手段、 12 言語情報記憶手段、 13 言語情報取得手段、 14 言語情報編集手段、 15 入力処理手段、、 16 音声生成手段、 17 音声出力手段、 31 文節番号、 32 テキスト、 33 よみ、 34 文字番号、 35、45 文字、 36 フラグ、 51 処理番号、 52 処理内容、 53 処理データ例。

Claims (5)

  1. テキスト文を入力し、文解析して言語情報を得、この言語情報から音声信号を生成して、テキスト文の読みを音声出力する音声合成装置であって、
    テキスト文を入力し、文解析処理して言語情報を得る文解析手段と、
    文解析手段で得た言語情報を記憶する言語情報記憶手段と、
    ユーザからの制御情報を入力する入力処理手段と
    入力処理手段からの制御情報の内容に基づき異なる範囲の言語情報を言語情報記憶手段から取得する言語情報取得手段と、
    言語情報取得手段が取得した言語情報から音声を生成する音声生成手段と、
    音声生成手段で生成された音声を出力する音声出力手段とを備えたことを特徴とする音声合成装置。
  2. 入力処理手段に入力するユーザからの制御情報は音声の再出力要求を含み、
    再出力要求の時は出力音声の範囲を先の出力範囲よりも狭くする処理を行うことを特徴とする請求項1記載の音声合成装置。
  3. 入力処理手段は音声出力手段が音声を出力中であっても、ユーザからの制御情報を入力し、入力処理手段以外の手段も、その制御情報に伴う処理に移行することを特徴とする請求項1または2に記載の音声合成装置。
  4. 言語情報取得手段が取得する言語情報は、句点にはさまれる言語情報、文節または単語を表す言語情報、1文字からなる言語情報の何れかであることを特徴とする請求項1乃至3の何れかに記載の音声合成装置。
  5. 言語情報取得手段で取得した1文字からなる言語情報を別な表現に編集処理する言語情報編集手段を備えたことを特徴とする請求項4記載の音声合成装置。
JP2005272494A 2005-09-20 2005-09-20 音声合成装置 Pending JP2007086185A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005272494A JP2007086185A (ja) 2005-09-20 2005-09-20 音声合成装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005272494A JP2007086185A (ja) 2005-09-20 2005-09-20 音声合成装置

Publications (2)

Publication Number Publication Date
JP2007086185A true JP2007086185A (ja) 2007-04-05
JP2007086185A5 JP2007086185A5 (ja) 2008-08-07

Family

ID=37973261

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005272494A Pending JP2007086185A (ja) 2005-09-20 2005-09-20 音声合成装置

Country Status (1)

Country Link
JP (1) JP2007086185A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120056397A (ko) * 2010-11-25 2012-06-04 삼성전자주식회사 전자장치 및 그 제어방법
WO2021073052A1 (zh) * 2019-10-14 2021-04-22 百度在线网络技术(北京)有限公司 导航播报的管理方法、装置及设备

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05197384A (ja) * 1992-01-23 1993-08-06 Nippon Telegr & Teleph Corp <Ntt> 音声読み上げ装置
JPH0955670A (ja) * 1995-08-17 1997-02-25 Nec Corp 音声出力形無線受信機
JPH11296340A (ja) * 1998-04-08 1999-10-29 Nippon Telegr & Teleph Corp <Ntt> 情報出力装置および方法と情報出力プログラムを記録した記録媒体
JP2001331191A (ja) * 2000-05-23 2001-11-30 Sharp Corp 音声合成装置および音声合成方法、携帯端末器、並びに、プログラム記録媒体
JP2003158580A (ja) * 2001-11-20 2003-05-30 Seiko Epson Corp 音声読上制御装置、音声読上制御方法、音声読上制御プログラム及び記録媒体
JP2003263184A (ja) * 2002-03-07 2003-09-19 Canon Inc 音声合成装置及びその方法、プログラム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05197384A (ja) * 1992-01-23 1993-08-06 Nippon Telegr & Teleph Corp <Ntt> 音声読み上げ装置
JPH0955670A (ja) * 1995-08-17 1997-02-25 Nec Corp 音声出力形無線受信機
JPH11296340A (ja) * 1998-04-08 1999-10-29 Nippon Telegr & Teleph Corp <Ntt> 情報出力装置および方法と情報出力プログラムを記録した記録媒体
JP2001331191A (ja) * 2000-05-23 2001-11-30 Sharp Corp 音声合成装置および音声合成方法、携帯端末器、並びに、プログラム記録媒体
JP2003158580A (ja) * 2001-11-20 2003-05-30 Seiko Epson Corp 音声読上制御装置、音声読上制御方法、音声読上制御プログラム及び記録媒体
JP2003263184A (ja) * 2002-03-07 2003-09-19 Canon Inc 音声合成装置及びその方法、プログラム

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120056397A (ko) * 2010-11-25 2012-06-04 삼성전자주식회사 전자장치 및 그 제어방법
KR101715381B1 (ko) * 2010-11-25 2017-03-10 삼성전자 주식회사 전자장치 및 그 제어방법
WO2021073052A1 (zh) * 2019-10-14 2021-04-22 百度在线网络技术(北京)有限公司 导航播报的管理方法、装置及设备
US11906320B2 (en) 2019-10-14 2024-02-20 Baidu Online Network Technology (Beijing) Co., Ltd. Method for managing navigation broadcast, and device

Similar Documents

Publication Publication Date Title
US6115686A (en) Hyper text mark up language document to speech converter
US6999932B1 (en) Language independent voice-based search system
US20060136220A1 (en) Controlling user interfaces with voice commands from multiple languages
JP2001502828A (ja) 言語間の翻訳のための方法および装置
WO2001045088A1 (en) Electronic translator for assisting communications
JP2002342212A (ja) 情報アクセス方法、情報アクセスシステムおよびプログラム
JP2000137596A (ja) 対話型音声応答システム
JPH1078952A (ja) 音声合成方法、音声合成装置、ハイパーテキストの制御方法及び制御装置
JP2011504624A (ja) 自動同時通訳システム
JPH1125098A (ja) 情報処理装置、リンク先ファイルの取得方法および記憶媒体
JPH10124293A (ja) 音声指令可能なコンピュータとそれ用の媒体
WO2018074658A1 (ko) 하이브리드 자막 효과 구현 단말 및 방법
JP2007086185A (ja) 音声合成装置
JP6676093B2 (ja) 異言語間コミュニケーション支援装置及びシステム
JP2003162524A (ja) 言語処理装置
JPH08272388A (ja) 音声合成装置及びその方法
JP2002123281A (ja) 音声合成装置
JP3414326B2 (ja) 音声合成用辞書登録装置及び方法
JP2658476B2 (ja) 文書点字化装置
JP2005266009A (ja) データ変換プログラムおよびデータ変換装置
JP3069532B2 (ja) かな漢字変換方法およびその装置並びにかな漢字変換方法をコンピュータに実行させるプログラムを記録したコンピュータ読み取り可能な記録媒体
JP3308402B2 (ja) 音声出力装置
JP3280729B2 (ja) 発音記号作成装置
JPH11272673A (ja) 文書処理方法および文書処理装置ならびに文書処理のためのコンピュータプログラムを記録した記録媒体
JP2009103921A (ja) 省略語判定装置、コンピュータプログラム、テキスト解析装置及び音声合成装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080617

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080617

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20101015

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101026

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101217

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110322

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110506

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20110621