JPH04243299A - 音声出力装置 - Google Patents
音声出力装置Info
- Publication number
- JPH04243299A JPH04243299A JP3018268A JP1826891A JPH04243299A JP H04243299 A JPH04243299 A JP H04243299A JP 3018268 A JP3018268 A JP 3018268A JP 1826891 A JP1826891 A JP 1826891A JP H04243299 A JPH04243299 A JP H04243299A
- Authority
- JP
- Japan
- Prior art keywords
- speech
- voice
- character string
- information
- synthesis
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 claims abstract description 27
- 230000002194 synthesizing effect Effects 0.000 claims abstract description 9
- 230000015572 biosynthetic process Effects 0.000 claims description 50
- 238000003786 synthesis reaction Methods 0.000 claims description 50
- 238000001308 synthesis method Methods 0.000 claims description 14
- 238000013500 data storage Methods 0.000 abstract description 13
- 230000033764 rhythmic process Effects 0.000 abstract 1
- 230000006870 function Effects 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 230000004044 response Effects 0.000 description 2
- 235000009508 confectionery Nutrition 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000012634 fragment Substances 0.000 description 1
- 239000004575 stone Substances 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
Abstract
(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。
め要約のデータは記録されません。
Description
【0001】
【産業上の利用分野】この発明は、ワードプロセッサ等
において入力された文字列に対応する音声を合成して出
力する音声出力装置に関する。
において入力された文字列に対応する音声を合成して出
力する音声出力装置に関する。
【0002】
【従来の技術】この種の音声出力装置として、入力され
る文字列を言語解析してその文字列の読み等の音韻情報
と単語間のポーズ及びアクセント等の韻律情報とを得て
、それらの情報に基づいて音声合成して入力された文字
列に対応する音声を発生する文章読み上げ装置(例えば
、特開平2−184897号公報参照)がある。
る文字列を言語解析してその文字列の読み等の音韻情報
と単語間のポーズ及びアクセント等の韻律情報とを得て
、それらの情報に基づいて音声合成して入力された文字
列に対応する音声を発生する文章読み上げ装置(例えば
、特開平2−184897号公報参照)がある。
【0003】また、文字列が入力されるとアクセント句
の境界等の記号を付して、その記号を基にして得たアク
セント,ポーズ(文節境界),イントネーション情報等
によって自然な音声を出力するようにした音声出力装置
も提案されている(例えば、特開平1−189720号
公報参照)。
の境界等の記号を付して、その記号を基にして得たアク
セント,ポーズ(文節境界),イントネーション情報等
によって自然な音声を出力するようにした音声出力装置
も提案されている(例えば、特開平1−189720号
公報参照)。
【0004】
【発明が解決しようとする課題】しかしながら、前者の
場合には入力される文字列中の単語を正しく認定する必
要があり、そのために予め各種の単語データを辞書形式
で登録しておくので、登録されていない単語を含む文字
列の音声を正しく出力することができない。そこで、あ
らゆる文字列の音声を発生させるためには大容量のメモ
リを設けなければならないという問題があった。
場合には入力される文字列中の単語を正しく認定する必
要があり、そのために予め各種の単語データを辞書形式
で登録しておくので、登録されていない単語を含む文字
列の音声を正しく出力することができない。そこで、あ
らゆる文字列の音声を発生させるためには大容量のメモ
リを設けなければならないという問題があった。
【0005】また、後者の場合には、入力される文字列
に対して言語解析をする際に、アクセント,ポーズ,イ
ントネーション等を付与する技術が難しく、不自然な音
声を発生させてしまうことがあるという問題があった。
に対して言語解析をする際に、アクセント,ポーズ,イ
ントネーション等を付与する技術が難しく、不自然な音
声を発生させてしまうことがあるという問題があった。
【0006】この発明は上記の点に鑑みてなされたもの
であり、大容量のメモリを使用しなくても入力される文
字列に対して自然な音声を容易に発生させることができ
るようにすることを目的とする。
であり、大容量のメモリを使用しなくても入力される文
字列に対して自然な音声を容易に発生させることができ
るようにすることを目的とする。
【0007】
【課題を解決するための手段】この発明は上記の目的を
達成するため、入力される文字列を言語解析してその文
字列の読み等の音韻情報と単語間のポーズ及びアクセン
ト等の韻律情報とを得て、それらの情報に基づいて音声
を合成して入力された文字列に対応する音声を発生する
音声出力装置において、主要な文字列に対応する音声デ
ータを格納したメモリを有し、入力された文字列に対応
するメモリ内の音声データを基にしてPCM方式による
音声合成を行なう主音声合成手段と、メモリ内に音声デ
ータが格納されていない文字列が入力された時に、音韻
情報と韻律情報により音声の素片データをもとに規則合
成方式によって音声合成を行なう副音声合成手段とを設
けたものである。
達成するため、入力される文字列を言語解析してその文
字列の読み等の音韻情報と単語間のポーズ及びアクセン
ト等の韻律情報とを得て、それらの情報に基づいて音声
を合成して入力された文字列に対応する音声を発生する
音声出力装置において、主要な文字列に対応する音声デ
ータを格納したメモリを有し、入力された文字列に対応
するメモリ内の音声データを基にしてPCM方式による
音声合成を行なう主音声合成手段と、メモリ内に音声デ
ータが格納されていない文字列が入力された時に、音韻
情報と韻律情報により音声の素片データをもとに規則合
成方式によって音声合成を行なう副音声合成手段とを設
けたものである。
【0008】あるいは、音韻情報と韻律情報により音声
の素片データをもとに規則合成方式によって音声合成を
行なう主音声合成手段と、音声として発生し難い特殊な
文字列に対応する音声データを格納したメモリを有し、
音声として発生し難い特殊な文字列が入力された時にメ
モリ内の音声データを基にしてPCM方式による音声合
成を行なう副音声合成手段とを設けてもよい。
の素片データをもとに規則合成方式によって音声合成を
行なう主音声合成手段と、音声として発生し難い特殊な
文字列に対応する音声データを格納したメモリを有し、
音声として発生し難い特殊な文字列が入力された時にメ
モリ内の音声データを基にしてPCM方式による音声合
成を行なう副音声合成手段とを設けてもよい。
【0009】さらに、上記2種類の主,副音声合成手段
を両方とも備え、それらのうちのいずれか一方を任意に
選択し得る切換手段を設けるとよい。
を両方とも備え、それらのうちのいずれか一方を任意に
選択し得る切換手段を設けるとよい。
【0010】なお、上記いずれの装置においても、文字
列に対応する音声データ及び音声の素片データの一方又
は両方をメモリカードに格納して持つようにするとよい
。
列に対応する音声データ及び音声の素片データの一方又
は両方をメモリカードに格納して持つようにするとよい
。
【0011】
【作用】上記第1番目の音声出力装置は、文字列が入力
されると通常の場合は主音声合成手段がメモリに格納し
た主要な文字列に対応する音声データをもとにしてPC
M方式による音声合成を行なって音声を発生させ、その
メモリに音声データが格納されていない文字列が入力さ
れた場合は副音声合成手段が音韻情報と韻律情報による
音声の素片データをもとに規則合成方式によって音声合
成を行なって音声を発生させる。
されると通常の場合は主音声合成手段がメモリに格納し
た主要な文字列に対応する音声データをもとにしてPC
M方式による音声合成を行なって音声を発生させ、その
メモリに音声データが格納されていない文字列が入力さ
れた場合は副音声合成手段が音韻情報と韻律情報による
音声の素片データをもとに規則合成方式によって音声合
成を行なって音声を発生させる。
【0012】上記第2番目の音声出力装置は、文字列が
入力されると通常の場合は主音声合成手段が音韻情報と
韻律情報による音声の素片データをもとに規則合成方式
によって音声合成を行なって音声を発生させ、音声とし
て発生し難い特殊な文字列が入力された場合は予めメモ
リに格納させておいたその特殊な文字列に対応する音声
データをもとにしてPCM方式による音声合成を行なっ
て音声を発生させる。
入力されると通常の場合は主音声合成手段が音韻情報と
韻律情報による音声の素片データをもとに規則合成方式
によって音声合成を行なって音声を発生させ、音声とし
て発生し難い特殊な文字列が入力された場合は予めメモ
リに格納させておいたその特殊な文字列に対応する音声
データをもとにしてPCM方式による音声合成を行なっ
て音声を発生させる。
【0013】上記第3番目の音声出力装置は、切換手段
の切り換えにより、上記第1番目と第2番目の音声出力
装置の機能のいずれか一方を任意に選択することができ
る。
の切り換えにより、上記第1番目と第2番目の音声出力
装置の機能のいずれか一方を任意に選択することができ
る。
【0014】さらに、いずれの場合にも、文字列に対応
する音声データ及び音声の素片データの一方又は両方を
メモリカードに格納して持たせれば、そのメモリカード
を交換することによって発生する音声の種類(例えば、
女声,男声等)を変えたりすることが簡単にできる。
する音声データ及び音声の素片データの一方又は両方を
メモリカードに格納して持たせれば、そのメモリカード
を交換することによって発生する音声の種類(例えば、
女声,男声等)を変えたりすることが簡単にできる。
【0015】
【実施例】以下、この発明の実施例を図面に基づいて具
体的に説明する。図1は、この発明による音声出力装置
の一実施例のハード構成を示すブロック図である。この
音声出力装置は、キーボード等の文字列を入力するため
の入力装置1と、本体2と、入力された文字列に対応す
る音声を出力するためのスピーカ等の出力装置3が接続
されている。
体的に説明する。図1は、この発明による音声出力装置
の一実施例のハード構成を示すブロック図である。この
音声出力装置は、キーボード等の文字列を入力するため
の入力装置1と、本体2と、入力された文字列に対応す
る音声を出力するためのスピーカ等の出力装置3が接続
されている。
【0016】本体2は、この装置全体の制御と入力装置
1から入力された文字列の言語解析の処理等を行なうC
PU4と、それぞれ主要な文字列に対応する音声データ
と音声の素片データを格納するROMである音声データ
格納部5及び素片データ格納部6と、入力された文字列
を格納するRAMであるワークエリア7と、音声データ
によってPCM方式による音声合成を、又は素片データ
によって規則合成方式による音声合成を行なうパルス符
号変調回路(ADPCM)あるいはデジタルシグナルプ
ロセッサ(DSP)を備えた音声合成部8と、上記各部
間のデータの遣り取りを行なうためのバス9とからなる
。
1から入力された文字列の言語解析の処理等を行なうC
PU4と、それぞれ主要な文字列に対応する音声データ
と音声の素片データを格納するROMである音声データ
格納部5及び素片データ格納部6と、入力された文字列
を格納するRAMであるワークエリア7と、音声データ
によってPCM方式による音声合成を、又は素片データ
によって規則合成方式による音声合成を行なうパルス符
号変調回路(ADPCM)あるいはデジタルシグナルプ
ロセッサ(DSP)を備えた音声合成部8と、上記各部
間のデータの遣り取りを行なうためのバス9とからなる
。
【0017】そして、入力装置1から文字列が入力され
ると、本体2によってその文字列に対応する音声が合成
されて出力装置3からその音声が発生される。
ると、本体2によってその文字列に対応する音声が合成
されて出力装置3からその音声が発生される。
【0018】次に、図2に示すフローチャートによって
図1に示した音声出力装置による音声発生の処理につい
て説明する。
図1に示した音声出力装置による音声発生の処理につい
て説明する。
【0019】入力装置1から文字列が入力されると、そ
の文字列のデータをワークエリア7に格納してCPU4
がその文字列に相当するコードの出力を行ない、そのコ
ードに対応する音声データが音声データ格納部5に格納
されていれば、そのコードに対応する音声データを読み
出して音声合成部8へ送り、音声合成部8によってその
音声データをもとにPCM方式の音声合成を行ない、出
力装置3からその音声を発生させる。
の文字列のデータをワークエリア7に格納してCPU4
がその文字列に相当するコードの出力を行ない、そのコ
ードに対応する音声データが音声データ格納部5に格納
されていれば、そのコードに対応する音声データを読み
出して音声合成部8へ送り、音声合成部8によってその
音声データをもとにPCM方式の音声合成を行ない、出
力装置3からその音声を発生させる。
【0020】一方、CPU4は入力された文字列に相当
するコードを出力して、そのコードに対応する音声デー
タが音声データ格納部5に格納(コード登録)されてい
なければ、文字列を言語解析して読み等の音韻情報と単
語間のポーズ及びアクセント等の韻律情報を得て、その
音韻情報及び韻律情報に対して音素となる素片データを
素片データ格納部6から読み出して音声合成部8へ送り
、音声合成部8によってその素片データをもとに規則合
成方式の音声合成を行ない、出力装置3から音声を発生
させる。
するコードを出力して、そのコードに対応する音声デー
タが音声データ格納部5に格納(コード登録)されてい
なければ、文字列を言語解析して読み等の音韻情報と単
語間のポーズ及びアクセント等の韻律情報を得て、その
音韻情報及び韻律情報に対して音素となる素片データを
素片データ格納部6から読み出して音声合成部8へ送り
、音声合成部8によってその素片データをもとに規則合
成方式の音声合成を行ない、出力装置3から音声を発生
させる。
【0021】すなわち、基本的には主要な文字列は予め
それらに対応して登録しておいた音声データを読み出し
、その音声データによるPCM方式によって合成した音
声を出力し、それを補助するものとして主要な文字列以
外が入力された時はその文字列を言語解析して得た音韻
情報及び韻律情報に対する素片データを読み出し、その
素片データによる規則合成方式によって合成した音声を
出力する。
それらに対応して登録しておいた音声データを読み出し
、その音声データによるPCM方式によって合成した音
声を出力し、それを補助するものとして主要な文字列以
外が入力された時はその文字列を言語解析して得た音韻
情報及び韻律情報に対する素片データを読み出し、その
素片データによる規則合成方式によって合成した音声を
出力する。
【0022】次に、この発明の他の実施例について説明
する。この実施例の音声出力装置としてのハード構成は
図1に示した前述の実施例と同様であるが、その音声デ
ータ格納部5に音声として発生し難い特殊な文字列に対
応する音声データのみを格納している。
する。この実施例の音声出力装置としてのハード構成は
図1に示した前述の実施例と同様であるが、その音声デ
ータ格納部5に音声として発生し難い特殊な文字列に対
応する音声データのみを格納している。
【0023】図3によってこの実施例における音声発生
の処理について説明する。入力された文字列をワークエ
リア7に格納してCPU4がその文字列に相当するコー
ドを出力し、そのコードに対応する音声データが音声デ
ータ格納部5に格納されているか否かをチェックするが
、通常は格納されていないので、CPU4はその文字列
を言語解析して読み等の音韻情報と単語間のポーズ及び
アクセント等の韻律情報を得て、その音韻情報及び韻律
情報に対して音素となる素片データを素片データ格納部
6から読み出して音声合成部8へ送り、音声合成部8に
よってその素片データをもとに規則合成方式の音声合成
を行ない、出力装置3からその音声を発生させる。
の処理について説明する。入力された文字列をワークエ
リア7に格納してCPU4がその文字列に相当するコー
ドを出力し、そのコードに対応する音声データが音声デ
ータ格納部5に格納されているか否かをチェックするが
、通常は格納されていないので、CPU4はその文字列
を言語解析して読み等の音韻情報と単語間のポーズ及び
アクセント等の韻律情報を得て、その音韻情報及び韻律
情報に対して音素となる素片データを素片データ格納部
6から読み出して音声合成部8へ送り、音声合成部8に
よってその素片データをもとに規則合成方式の音声合成
を行ない、出力装置3からその音声を発生させる。
【0024】入力された文字列が音声として発生し難い
特殊な文字列の場合には、予めその文字列に対する音声
データを音声データ格納部5に格納してあるので、それ
を読み出して音声合成部8へ送り、音声合成部8によっ
てその音声データをもとにPCM方式の音声合成を行な
い、出力装置3からその音声を発生させる。
特殊な文字列の場合には、予めその文字列に対する音声
データを音声データ格納部5に格納してあるので、それ
を読み出して音声合成部8へ送り、音声合成部8によっ
てその音声データをもとにPCM方式の音声合成を行な
い、出力装置3からその音声を発生させる。
【0025】この音声として発生し難い特殊な文字列は
、例えば「雨」と「飴」、「石」と「意志」等の読みは
同じでもアクセントの位置が異なる文字列や、通常の会
話中で用いられる問い文等である。
、例えば「雨」と「飴」、「石」と「意志」等の読みは
同じでもアクセントの位置が異なる文字列や、通常の会
話中で用いられる問い文等である。
【0026】すなわち、基本的には入力された文字列を
言語解析して得た音韻情報及び韻律情報に対する素片デ
ータを読み出し、その素片データによる規則合成方式に
よって合成した音声を出力し、それを補助するものとし
て特殊な文字列が入力された時は予めそれらに対応して
登録しておいた音声データを読み出し、その音声データ
によるPCM方式によって合成した音声を出力する。
言語解析して得た音韻情報及び韻律情報に対する素片デ
ータを読み出し、その素片データによる規則合成方式に
よって合成した音声を出力し、それを補助するものとし
て特殊な文字列が入力された時は予めそれらに対応して
登録しておいた音声データを読み出し、その音声データ
によるPCM方式によって合成した音声を出力する。
【0027】次に、この発明のさらに他の実施例につい
て説明する。この実施例も音声出力装置としてのハード
構成は図1に示した前述の実施例と同様であるが、音声
データ格納部5に主要な文字列に対応する音声データと
音声として発生し難い特殊な文字列に対応する音声デー
タとを格納している。
て説明する。この実施例も音声出力装置としてのハード
構成は図1に示した前述の実施例と同様であるが、音声
データ格納部5に主要な文字列に対応する音声データと
音声として発生し難い特殊な文字列に対応する音声デー
タとを格納している。
【0028】また、CPU4及び音声合成部8は、主要
な文字列は音声データでPCM方式により音声合成し、
それ以外の文字列は素片データによる規則合成方式で音
声合成する第1の音声合成処理機能と、通常は文字列の
素片データによる規則合成方式で音声合成し、音声とし
て発生し難い特殊な文字列は音声データによるPCM方
式で音声合成する第2の音声合成処理機能とを備えてい
て、そのうちのいずれか一方の機能を任意に選択するた
めのスイッチ等の切換手段を設けている。
な文字列は音声データでPCM方式により音声合成し、
それ以外の文字列は素片データによる規則合成方式で音
声合成する第1の音声合成処理機能と、通常は文字列の
素片データによる規則合成方式で音声合成し、音声とし
て発生し難い特殊な文字列は音声データによるPCM方
式で音声合成する第2の音声合成処理機能とを備えてい
て、そのうちのいずれか一方の機能を任意に選択するた
めのスイッチ等の切換手段を設けている。
【0029】図4のフローチャートによって、この実施
例による音声発生の処理について説明するが、この場合
スイッチONで第2の音声合成処理機能が選択されるも
のとする。文字列が入力されたらワークエリア7にそれ
を格納し、CPU4がスイッチがONか否かを判断し、
ONであれば第2の音声合成処理(第3図のフローチャ
ートによる)を実施し、スイッチがOFFなら第1の音
声合成処理(第2図のフローチャートによる)を実施し
、その合成音声データを出力して音声を発生する。なお
、スイッチがONの場合に第1の音声合成処理を行ない
、OFFの場合に第2の音声合成処理を行なうようにし
てもよい。
例による音声発生の処理について説明するが、この場合
スイッチONで第2の音声合成処理機能が選択されるも
のとする。文字列が入力されたらワークエリア7にそれ
を格納し、CPU4がスイッチがONか否かを判断し、
ONであれば第2の音声合成処理(第3図のフローチャ
ートによる)を実施し、スイッチがOFFなら第1の音
声合成処理(第2図のフローチャートによる)を実施し
、その合成音声データを出力して音声を発生する。なお
、スイッチがONの場合に第1の音声合成処理を行ない
、OFFの場合に第2の音声合成処理を行なうようにし
てもよい。
【0030】次に、図5及び図6によってさらに他の実
施例について説明する。図5及び図6は、図1に示した
音声出力装置の本体2に内蔵した音声データ格納部5あ
るいは素片データ格納部6を、それぞれ本体2に着脱可
能なメモリカードに換えたものであり、図5の実施例で
は素片データを格納したメモリカード10を本体2に図
示しないコネクタを介して装着すると、バス9,11を
介してCPU4によってその素片データが読み出し可能
になる。
施例について説明する。図5及び図6は、図1に示した
音声出力装置の本体2に内蔵した音声データ格納部5あ
るいは素片データ格納部6を、それぞれ本体2に着脱可
能なメモリカードに換えたものであり、図5の実施例で
は素片データを格納したメモリカード10を本体2に図
示しないコネクタを介して装着すると、バス9,11を
介してCPU4によってその素片データが読み出し可能
になる。
【0031】また、図6の実施例では音声データを格納
したメモリカード10を本体2に図示しないコネクタを
介して装着すると、バス9,11を介してCPU4によ
ってその音声データが読み出し可能になる。
したメモリカード10を本体2に図示しないコネクタを
介して装着すると、バス9,11を介してCPU4によ
ってその音声データが読み出し可能になる。
【0032】このように構成することによって、メモリ
カードに格納した素片データ又は音声データの変更が容
易になり、用途に応じたバリエーションに富んだ音声出
力が可能になる。
カードに格納した素片データ又は音声データの変更が容
易になり、用途に応じたバリエーションに富んだ音声出
力が可能になる。
【0033】
【発明の効果】この発明による音声出力装置によれば、
入力される文字列に対して予め登録しておくデータ量が
少なくてすむため、使用するメモリの容量を節約できる
。そして、入力された文字列に対して自然な音声を容易
に発生させることができる。
入力される文字列に対して予め登録しておくデータ量が
少なくてすむため、使用するメモリの容量を節約できる
。そして、入力された文字列に対して自然な音声を容易
に発生させることができる。
【0034】さらに、音声データ又は素片データをメモ
リカードに格納して音声出力装置に着脱可能にすれば、
データの変更が容易になり、用途に応じたバリエーショ
ンに富んだ音声(例えば、女声,男声等)を出力するこ
とができるようになる。
リカードに格納して音声出力装置に着脱可能にすれば、
データの変更が容易になり、用途に応じたバリエーショ
ンに富んだ音声(例えば、女声,男声等)を出力するこ
とができるようになる。
【図1】この発明による音声出力装置の一実施例のハー
ド構成を示すブロック図である。
ド構成を示すブロック図である。
【図2】その音声出力装置による音声発生の処理を示す
フローチャートである。
フローチャートである。
【図3】この発明の他の実施例による音声発生の処理を
示すフローチャートである。
示すフローチャートである。
【図4】この発明のさらに他の実施例による音声発生の
処理を示すフローチャートである。
処理を示すフローチャートである。
【図5】この発明による音声出力装置の他のハード構成
例を示すブロック図である。
例を示すブロック図である。
【図6】同じくこの発明による音声出力装置のさらに他
のハード構成例を示すブロック図である。
のハード構成例を示すブロック図である。
1 入力装置 2 音声出力装置の
本体 3 出力装置 4 CPU 5 音声データ格
納部 6 素片データ格納部 7 ワークエリア 8 音声合成部
9,11 バス 10 メモリカード
本体 3 出力装置 4 CPU 5 音声データ格
納部 6 素片データ格納部 7 ワークエリア 8 音声合成部
9,11 バス 10 メモリカード
Claims (4)
- 【請求項1】 入力される文字列を言語解析してその
文字列の読み等の音韻情報と単語間のポーズ及びアクセ
ント等の韻律情報とを得て、それらの情報に基づいて音
声を合成して入力された文字列に対応する音声を発生す
る音声出力装置において、主要な文字列に対応する音声
データを格納したメモリを有し、入力された文字列に対
応する前記メモリ内の音声データを基にしてPCM方式
による音声合成を行なう主音声合成手段と、前記メモリ
内に音声データが格納されていない文字列が入力された
時に、前記音韻情報と韻律情報により音声の素片データ
をもとに規則合成方式によって音声合成を行なう副音声
合成手段とを設けたことを特徴とする音声出力装置。 - 【請求項2】 入力される文字列を言語解析してその
文字列の読み等の音韻情報と単語間のポーズ及びアクセ
ント等の韻律情報とを得て、それらの情報に基づいて音
声を合成して入力された文字列に対応する音声を発生す
る音声出力装置において、前記音韻情報と韻律情報によ
り音声の素片データをもとに規則合成方式によって音声
合成を行なう主音声合成手段と、音声として発生し難い
特殊な文字列に対応する音声データを格納したメモリを
有し、音声として発生し難い特殊な文字列が入力された
時に前記メモリ内の音声データを基にしてPCM方式に
よる音声合成を行なう副音声合成手段とを設けたことを
特徴とする音声出力装置。 - 【請求項3】 入力される文字列を言語解析してその
文字列の読み等の音韻情報と単語間のポーズ及びアクセ
ント等の韻律情報とを得て、それらの情報に基づいて音
声を合成して入力された文字列に対応する音声を発生す
る音声出力装置において、主要な文字列に対応する音声
データを格納したメモリを有し、入力された文字列に対
応する前記メモリ内の音声データを基にしてPCM方式
による音声合成を行なう第1の主音声合成手段と、前記
メモリ内に音声データが格納されていない文字列が入力
された時に、前記音韻情報と韻律情報により音声の素片
データをもとに規則合成方式によって音声合成を行なう
第1の副音声合成手段と、前記音韻情報と韻律情報によ
り音声の素片データをもとに規則合成方式によって音声
合成を行なう第2の主音声合成手段と、音声として発生
し難い特殊な文字列に対応する音声データを格納したメ
モリを有し、音声として発生し難い特殊な文字列が入力
された時に前記メモリ内の音声データを基にしてPCM
方式による音声合成を行なう第2の副音声合成手段と、
前記第1の主,副音声合成手段と前記第2の主,副音声
合成手段のいずれか一方を任意に選択し得る切換手段を
設けたことを特徴とする音声出力装置。 - 【請求項4】 請求項第1項乃至第3項のいずれか一
項に記載の音声出力装置において、文字列に対応する音
声データ及び音声の素片データの一方又は両方をメモリ
カードに格納して持つようにしたことを特徴とする音声
出力装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP3018268A JPH04243299A (ja) | 1991-01-18 | 1991-01-18 | 音声出力装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP3018268A JPH04243299A (ja) | 1991-01-18 | 1991-01-18 | 音声出力装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH04243299A true JPH04243299A (ja) | 1992-08-31 |
Family
ID=11966911
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP3018268A Pending JPH04243299A (ja) | 1991-01-18 | 1991-01-18 | 音声出力装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH04243299A (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002156987A (ja) * | 2000-11-20 | 2002-05-31 | Fujitsu General Ltd | 音声合成システム |
WO2004097792A1 (ja) * | 2003-04-28 | 2004-11-11 | Fujitsu Limited | 音声合成システム |
-
1991
- 1991-01-18 JP JP3018268A patent/JPH04243299A/ja active Pending
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002156987A (ja) * | 2000-11-20 | 2002-05-31 | Fujitsu General Ltd | 音声合成システム |
WO2004097792A1 (ja) * | 2003-04-28 | 2004-11-11 | Fujitsu Limited | 音声合成システム |
US7143038B2 (en) | 2003-04-28 | 2006-11-28 | Fujitsu Limited | Speech synthesis system |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JPH1138989A (ja) | 音声合成装置及び方法 | |
JPH05165486A (ja) | テキスト音声変換装置 | |
JP3518898B2 (ja) | 音声合成装置 | |
JPH08335096A (ja) | テキスト音声合成装置 | |
JP3437064B2 (ja) | 音声合成装置 | |
JP2000187495A (ja) | 音声合成法方法、装置、および音声合成プログラムを記録した記録媒体 | |
JPH04243299A (ja) | 音声出力装置 | |
JPH07200554A (ja) | 文章読み上げ装置 | |
JPH08248993A (ja) | 音韻時間長制御方法 | |
JP2642617B2 (ja) | 音声合成装置 | |
JP2703253B2 (ja) | 音声合成装置 | |
JP3575919B2 (ja) | テキスト音声変換装置 | |
JPH05224688A (ja) | テキスト音声合成装置 | |
JP4056647B2 (ja) | 波形接続型音声合成装置および方法 | |
JP2573586B2 (ja) | 規則型音声合成装置 | |
JP2001236086A (ja) | テキスト音声合成出力機能を有するゲーム装置 | |
JP2536896B2 (ja) | 音声合成装置 | |
JP3397406B2 (ja) | 音声合成装置及び音声合成方法 | |
JP3870583B2 (ja) | 音声合成装置および記憶媒体 | |
JP2573585B2 (ja) | 音声スペクトルパタン生成装置 | |
JP2956936B2 (ja) | 音声合成装置の発声速度制御回路 | |
JP2578876B2 (ja) | 文章読み上げ装置 | |
Khudoyberdiev | The Algorithms of Tajik Speech Synthesis by Syllable | |
JP2001166787A (ja) | 音声合成装置および自然言語処理方法 | |
JPS62215299A (ja) | 文章読み上げ装置 |