JP3060276B2 - 音声合成装置 - Google Patents

音声合成装置

Info

Publication number
JP3060276B2
JP3060276B2 JP6195178A JP19517894A JP3060276B2 JP 3060276 B2 JP3060276 B2 JP 3060276B2 JP 6195178 A JP6195178 A JP 6195178A JP 19517894 A JP19517894 A JP 19517894A JP 3060276 B2 JP3060276 B2 JP 3060276B2
Authority
JP
Japan
Prior art keywords
generating
fundamental frequency
time
pattern
duration
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP6195178A
Other languages
English (en)
Other versions
JPH0863187A (ja
Inventor
伸之 片江
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP6195178A priority Critical patent/JP3060276B2/ja
Publication of JPH0863187A publication Critical patent/JPH0863187A/ja
Application granted granted Critical
Publication of JP3060276B2 publication Critical patent/JP3060276B2/ja
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は、音声合成装置に関し、
特に交通情報や天気概況の音声サービスなどに用いる、
合成すべき一群のメッセージのすべてに共通する固定情
報(以下、定型部と呼ぶ。)とメッセージ群で共通しな
い可変情報(以下、非定型部と呼ぶ。)からなる音声を
合成する音声合成装置に関する。
【0002】近年、社会一般の省力化・機械化の要請が
益々強くなり、各種音声サービスの分野も例外ではな
く、現在、交通情報や天気概況の音声サービス、銀行の
振り込み照会サービスなどに、音声合成装置が使用され
ている。このため、音声合成装置は聞取りやすく、自然
な韻律をもつ合成音声を提供する必要がある。
【0003】
【従来の技術】従来の音声合成装置では、定型部には、
あらかじめ録音しておいた音声を再生する録音編集方
式、あるいは該音声をなんらかの音声パラメータに変換
したものを蓄積しておき、そのパラメータから音声を合
成する分析合成方式が用いられている。また、固有名詞
や数字などの非定型部は、文字列から規則を用いて、音
声を生成する規則合成方式を用い、それぞれの方式で合
成した音声を接続して、あるいは切替えて出力するのが
一般的であった。
【0004】従来技術による音声合成装置の構成図を図
9に示す。 図中、1はテキスト入力手段、2はテキス
ト解析手段、3は定型部合成手段、4は非定型部合成手
段、5は出力音声接続手段、6は音声出力手段をそれぞ
れ示す。 テキスト入力手段1に入力されたテキスト
を、テキスト解析手段2において、単語辞書を参照しな
がら解析する。その結果、定型部の部分は定型部合成手
段3に入力され、蓄積してある定型部音声データから音
声を合成する。可変な情報からなる部分は、非定型部合
成手段4に入力され、文字列からの規則合成を行なう。
それぞれの合成手段で合成した音声を、文として継るよ
うに出力音声接続手段5で接続し、音声出力手段6を介
して出力する。
【0005】
【発明が解決しようとする課題】ところが、音声の品質
を見ると、規則合成方式の音声品質は録音編集方式や分
析合成方式に比べて劣っているのが現状である。
【0006】従って、録音編集方式または分析合成方式
による定型部と規則合成方式による非定型部とを接続し
た音声では、定型部と非定型部の品質にギャップがあ
り、文中の重要な情報を含む非定型部が聞き取りにくい
という問題があった。これに対して、文全体を同じ品質
で生成するほうが聞き取りやすく、特に近年、技術の改
良によって規則合成方式の音声品質が向上してきたこと
もあり、すべてを規則合成によって合成しても、十分に
実用に耐えうるようになってきた。もちろん、すべて規
則合成方式を用いれば、定型部を変更したい場合でも、
音声を再収録する手間も省ける。
【0007】ところで、我々が日常生活に用いている漢
字かな混じり文から音声を合成するとき、規則合成方式
では録音編集方式や分析合成方式とは異なり、辞書と規
則を参照しながら、自然な韻律(イントネーション、ア
クセント、ポーズ等)を生成する必要がある。この過程
で以下の2個の問題が存在する。
【0008】第1の問題は、漢字かな混じり文を解析し
て表音文字列を生成する過程におけるものである。ここ
で、表音文字列とは、音素(日本語ではローマ字表記と
ほぼ等しい。)列または音節(日本語では仮名文字表記
とほぼ等しい。)列に、ポーズ位置、アクセントの位置
を示す表記を含めた文字列のことである。日本語は単語
でわかち書きされておらず、漢字には幾通りもの読み方
があるため、辞書と規則から表音文字列を生成しようと
すると、誤読やアクセントの誤り、不自然なポーズの挿
入などが頻繁に起こる。 第1の問題は、韻律情報を含
む予め作成した入力文字列を記憶した記憶手段としての
音声変換用入力列ファイルから抽出した文字列規則合成
することにより解決されている(特開平4-107598参
照。)が、構成費用の低減が要求され。
【0009】第2の問題は、表音文字列から音響的(物
理的)なパラメータを生成する過程におけるものであ
る。例えば、イントネーションは声の高さの変化であ
り、有声音の音声が包含する最低周波数である基本周波
数の時間変化パターン(以下、F0パターンと称す
る。)を用いて制御するのが一般的である。これは数ミ
リ秒(msec)毎の基本周波数の時系列で表される。上記の
表音文字列からこのF0パターンを生成するための規則
として、有名なものに、藤崎モデルや点ピッチモデルな
どがあるが、人間の複雑な発声機構や、内容、意味によ
っても微妙に変化するF0パターンを簡単な規則によっ
て求めるのは困難である。また、発声がつかえたり間延
びしたりせずに自然になるように、各音素あるいは音節
の時間長を適切な値に設定している。ところが、この時
間長は音素あるいは音節の種類によって一意に決まるも
のではなく、この音素あるいは音節が置かれている文中
の位置や周辺の音韻環境によって複雑に影響されるもの
であり、これもまた単純な規則では求まらないものであ
る。
【0010】
【課題を解決するための手段】図2は本発明の概念図で
ある。 以下、同図と「今夜の[東京]地方の天気は
[晴れ]でしょう。」という例文によって説明する。
【0011】本文は「今夜の・・地方の天気は・・・で
しょう。」という定型部と「東京」「晴れ」という非定
型部から構成されており、非定型部はそれぞれ「神奈川
県」「雨」のような単語と置換することが可能であると
する。このような文を合成するときに、定型部に関して
は、同文を人間が発声した音声から定型部のF0パター
ンや持続時間長を抽出し、例えば、F0パターンであれ
ば数msec毎の基本周波数値の時系列として、持続時間長
であれば各音素の長さの系列として蓄積しておく。非定
型部に関しては、非定型部への入力が期待される単語あ
るいは文節などの音節数とアクセント型のすべての組合
せのF0パターンを蓄積しておき、入力文、またはそれ
を解析した表音文字列から、同じ音節数とアクセント型
の組合せのF0パターンを読み込む。このF0パターン
は、音節数とアクセント型だけでなく、文全体のF0パ
ターンの中で決まるものであるから、定型部のいずれの
位置に挿入するかによって、F0パターンはそれぞれ異
なるものを持ち、選択する必要がある。たとえば、「東
京」という単語であれば4モーラ0型であるから、定型
部の「今夜の・・・地方」の位置に挿入されるパターン
の中から4モーラ0型のF0パターンを選択する。非定
型部の持続時間長は規則により生成する。定型部と非定
型部に分けて検索した(あるいは生成した)F0パター
ンと持続時間長を順に接続することによって、文全体の
F0パターンを作成する。F0パターンは、文全体で連
続して接続される。
【0012】また、非定型部に関してF0パターンを蓄
積しておかずに、規則によって生成しても、文全体のF
0パターンをすべて規則で生成した場合よりも高品質な
音声が得られる。
【0013】
【作用】本発明の原理図を図1に示す。 図中、1はテ
キスト入力手段、7はテキスト解析手段、8は定型部F
0パターン・持続時間長生成手段、9は非定型部F0パ
ターン・持続時間長生成手段、10はF0パターン・持
続時間長接続編集手段、11は音響パラメータ生成手
段、12は音声信号生成手段、6は音声出力手段をそれ
ぞれ示す。 テキスト入力手段1に合成するテキストが
入力される。テキスト解析手段7では、入力テキストを
非定型部と定型部に分離する。入力されたテキストが通
常の漢字かな混じり文の場合は、定型部と非定型部に分
離するために、任意文の規則合成に用いるようなテキス
ト解析が必要であるが、ユーザインタフェースによっ
て、定型部と非定型部を分けて入力できる場合には、単
純に定型部と非定型部をそれぞれのF0パターン・持続
時間長生成手段に出力するだけでよい。又、テキスト解
析手段7では入力文から表音文字列(音素列または音節
列)を生成して音響パラメータ生成手段11に出力す
る。定型部については定型部F0パターン・持続時間長
生成手段8において、非定型部については非定型部F0
パターン・持続時間長生成手段9において、それぞれ、
F0パターンおよび持続時間長を生成する。これらのF
0パターンおよび持続時間長は、F0パターン・持続時
間長接続編集手段10において順次接続され、文全体の
F0パターンおよび持続時間長が生成される。音響パラ
メータ生成手段11では、音素列または音節列などの表
音文字列を基に、ホルマント等の音響パラメータを生成
する。音響パラメータは音声信号生成手段12に用いる
合成方式によって決まる。また、合成方式としては波形
を直接編集する波形編集方式があり、この方式を用いた
場合は音響パラメータではなく、それに相当するものと
して、波形接続情報を生成することになるが、ここで
は、音響パラメータに含めて扱う。音声信号生成手段1
2では、F0パターン、持続時間長、および音響パラメ
ータから、音声信号を生成し、音声出力手段6から出力
する。
【0014】
【実施例】F0パターン生成方法には3つのレベルが考
えられる。第1のレベルは、自然音声から抽出したF0
パターンをそのまま基本周波数の時系列の形式で蓄積し
ておき合成時に読み込む方法であり、最も自然な音声の
合成が期待されるものである。第2のレベルは、自然音
声のF0パターンをモデルにより近似して、そのモデル
のパラメータを蓄積しておき、合成時にパラメータから
基本周波数の時系列の形式に変換する方法である。第3
のレベルは、テキスト解析結果からモデルのパラメータ
を規則的に生成し、該パラメータから基本周波数の時系
列を生成する方法である。
【0015】また、持続時間長生成方法には2つのレベ
ルが考えられる。第1のレベルは、自然音声から抽出し
た持続時間長をそのまま時間長の系列として蓄積してお
き合成時に読み込む方法である。第2のレベルは、上記
の時間長をテキスト解析結果から規則的に生成する方法
である。非定型部と定型部のF0パターンおよび持続時
間長生成方法として、上記のレベルそれぞれの組合せが
考えられる。これらを実施例として以下に述べる。
【0016】本発明の第1の実施例の構成図を図3に示
す。 本実施例は特許の請求項2、4、8および9に対
応している。図中、011はテキスト入力部、71はテ
キスト解析部、72は定型/非定型判定部、73は出力
切替部、74は単語辞書、75は定型部文例蓄積部、8
1は定型部持続時間長読み込み部、82は定型部F0パ
ターン読み込み部、83は定型部持続時間長蓄積部、8
4は定型部F0パターン蓄積部、91は非定型部持続時
間長生成部、92は非定型部F0パターン読み込み部、
93はアクセント辞書、94は非定型部F0パターン蓄
積部、101は持続時間長接続編集部、102はF0パ
ターン接続編集部、111は音響パラメータ生成部、1
12は音響パラメータ蓄積部、121は音声信号生成
部、61は音声出力部を示す。
【0017】あらかじめ、定型部について自然音声より
抽出した定型部F0パターンを定型部F0パターン蓄積
部84に格納し、非定型部について、その音節数とアク
セント型のすべての組合せの非定型部F0パターンを非
定型部F0パターン蓄積部94に格納し、定型部につい
て自然音声より抽出した定型部持続時間長を定型部持続
時間長蓄積部83に格納してある。合成するテキストが
テキスト入力部011に入力される。入力が漢字かな混
じり表記である場合は、テキスト解析部71において、
単語辞書74を参照しながら、テキストを解析する。定
型/非定型判定部72では、定型部文例蓄積部75に格
納されている定型文例を参照し、解析結果を定型部と非
定型部に分離する。出力切替部73は定型部と非定型部
をそれぞれの持続時間長、F0パターン生成部に出力す
る。またこのとき、テキストを解析した結果として、入
力テキストの表音文字列(音素列または音節列など)を
音響パラメータ生成部111に出力する。
【0018】定型部については、定型部持続時間長読み
込み部81において、定型部持続時間長蓄積部83から
持続時間長を読み込み、又、定型部F0パターン読み込
み部82において、定型部F0パターン蓄積部84から
F0パターンを読み込み、それぞれ持続時間長接続編集
部101を経由し、F0パターン接続編集部102に出
力する。非定型部については、非定型部持続時間長生成
部91において、規則により持続時間長を生成する。規
則による持続時間長生成は、非定型部の各音素または音
節について時間長テーブルを検索し、音素環境などによ
って補正するといった方法がとられるのが一般的であ
る。次に、非定型部F0パターン読み込み部92では、
非定型部の単語のアクセントをアクセント辞書93から
獲得し、音節数とアクセント型から非定型部F0パター
ン蓄積部94を参照して、読み込んだF0パターンを持
続時間長接続編集部101、F0パターン接続編集部1
02に出力する。持続時間長接続編集部101では、定
型部と非定型部それぞれの音素時間長を順番に接続し、
文全体の持続時間長の系列を作成する。F0パターン接
続編集部102では、定型部と非定型部のそれぞれのF
0パターンを順番に接続し、文全体のF0パターンを作
成する。F0パターンは発声中連続であるので、二つの
定型部と非定型部で読み込んだF0パターンのそれぞれ
に不連続がある場合には、適切なスムージングを行なう
などの編集を行なわなければならない。
【0019】一方、音響パラメータ生成部111では、
入力の表音文字列をもとに音響パラメータを生成する。
音響パラメータ蓄積部112には、音響パラメータが格
納されている。ここで言う、音響パラメータとは、デー
タ容量を圧縮するために音声生成モデルを用いて音声デ
ータを数値化したものであり、ホルマント、PARCO
R、LSPなどの種類があり。これらの音響パラメータ
を用いた合成方式を、それぞれホルマント合成、PAR
COR合成、LSP合成と呼び、音声信号生成部121
によって実現される。 また、合成方式としては波形を
直接編集する波形編集方式があり、この方式を用いた場
合は音響パラメータではなく、それに相当するものとし
て、波形接続情報を生成することになるが、ここでは、
音響パラメータに含めて扱う。音響パラメータは、表音
文字ごと、あるいはそれを前後の音素環境などにより細
分化した単位で蓄積されている。表音文字列にしたがっ
てこれを読み込み、連接することによって、合成文の音
響パラメータ列が生成される。音声信号生成部121で
は、以上で生成された合成文の持続時間長、F0パター
ン、音響パラメータ列より音声信号を生成する。音声出
力部61では、その音声信号をDA変換することによ
り、合成音声として出力する。
【0020】本発明の第2の実施例の構成図を図4に示
す。 本実施例は特許の請求項3および5に対応してい
る。本実施例は、実施例1の定型部F0パターン読み込
み部82と定型部F0パターン蓄積部84を定型部F0
パラメータ読み込み部85、定型部F0パターン生成部
86、および定型部F0パラメータ蓄積部87に、ま
た、非定型部F0パターン読み込み部92と非定型部F
0パターン蓄積部94を非定型部F0パラメータ読み込
み部95、非定型部F0パターン生成部96、および非
定型部F0パラメータ蓄積部97に置き換えたものであ
る。
【0021】本実施例では、あらかじめ、自然音声から
抽出したF0パターンをモデルにより近似して、そのパ
ラメータを定型部F0パラメータ蓄積部87と非定型部
F0パラメータ蓄積部97に蓄積しておく。音声を合成
する際に、定型部に関しては、定型部F0パラメータ読
み込み部85において、定型部のF0パラメータを定型
部F0パラメータ蓄積部87から読みだし、定型部F0
パターン生成部86において、パラメータから基本周波
数の時系列(F0パターン)を生成する。同様に、非定
型部についても、非定型部F0パラメータ読み込み部9
5において、非定型部の単語のアクセントをアクセント
辞書93から獲得し、その音節数とアクセント型によっ
て、非定型部F0パラメータ蓄積部97から適切なF0
パラメータを読みだし、非定型部F0パターン生成部9
6において、パラメータから基本周波数の時系列(F0
パターン)を生成する。
【0022】本発明の第3の実施例の構成図を図5に示
す。本実施例は特許の請求項6に対応している。本実施
例は、実施例1の非定型部F0パターン読み込み部92
と非定型部F0パターン蓄積部94を非定型部F0パタ
ーン生成部98に置き換えたものである。その他の部分
の処理は実施例1と同様であるから、非定型部F0パタ
ーン生成部98についてのみ説明する。
【0023】非定型部F0パターン生成部98では、非
定型部の単語のアクセントをアクセント辞書93から獲
得し、文中の位置などを考慮してF0パターンを規則に
より生成する。F0パターンを規則により生成する方法
としては、藤崎モデルや点ピッチモデルなどのモデルを
用いる方式が一般的であり、この場合もこれらが応用で
きる。
【0024】本発明の第4の実施例の構成図を図6に示
す。 本実施例は請求項10および11に対応してい
る。本実施例は、実施例1のテキスト入力部のユーザイ
ンタフェイスを置き換えることで、テキストの解析をよ
り正確にしたものである。入力インターフェイス部01
2では、定型部文例蓄積部013より定型部を読みだ
し、ユーザインタフェースとして、図7または図8のよ
うに表示する。図7では、定型部には表示のみの機能し
かないカラムを、非定型部には、自由に単語の入力/編
集ができるエディット機能のあるカラムを用意し、使用
者に非定型部の入力を促す。このようなインターフェイ
スで入力すると、定型部と非定型部の判定が不必要で、
定型部のみを単語辞書74で検索することによって、テ
キスト解析が可能である。
【0025】図8では定型文例蓄積部13に、非定型部
の入力候補を蓄積しておき、非定型部のカラムを指定す
るとその箇所に入るべき入力候補が表示され、候補選択
手段を用いて、いずれを入力とするか指定できるという
インターフェイスを持っている。こちらも同様に、定型
部と非定型部の判定が不必要で、定型部のみを単語辞書
74で検索することによって、テキスト解析が可能であ
る。以降の処理は他の実施例と同様である。
【0026】
【発明の効果】以上説明した様に、本発明によれば、交
通情報や天気概況の音声サービスなどに用いる、定型文
音声を合成するための音声合成装置において、聞き取り
やすく、自然な韻律をもつ音声を合成することができ
る。
【図面の簡単な説明】
【図1】 本発明の原理図である。
【図2】 本発明の基本的な考え方を示した概念図であ
る。
【図3】 本発明の第1の実施例である。
【図4】 本発明の第2の実施例である。
【図5】 本発明の第3の実施例である。
【図6】 本発明の第4の実施例である。
【図7】 本発明のユーザインターフェースの第1の例
である。
【図8】 本発明のユーザインターフェースの第2の例
である。
【図9】 従来例である。
【符号の説明】
1 テキスト入力手段 2、7 テキスト解析手段 3 定型部合成手段 4 非定型部合成手段 5 出力音声接続手段 6 音声出力手段 8 定型部F0パターン・持続時間長生成手段 9 非定型部F0パターン・持続時間長生成手段 10 F0パターン・持続時間長接続編集手段(編集手
段と略す。) 11 音響パラメータ生成手段 12 音声信号生成手段 61 音声出力部 71、71’ テキスト解析部 72 定型/非定型判定部 73 出力切替部 74 単語辞書 75、013 定型部文例蓄積部 81 定型部持続時間長読み込み部 82 定型部F0パターン読み込み部 83 定型部持続時間長蓄積部 84 定型部F0パターン蓄積部 85 定型部F0パラメータ読み込み部 86 定型部F0パターン生成部 87 定型部F0パラメータ蓄積部 91 非定型部持続時間長生成部 92 非定型部F0パターン読み込み部 93 アクセント辞書 94 非定型部F0パターン蓄積部 95 非定型部F0パラメータ読み込み部 96、98 非定型部F0パターン生成部 97 非定型部F0パラメータ蓄積部 011 テキスト入力部 012 入力インターフェース部 101 持続時間長接続編集部 102 F0パターン接続編集部 111 音響パラメータ生成部 112 音響パラメータ蓄積部 121 音声信号生成部
───────────────────────────────────────────────────── フロントページの続き (56)参考文献 特開 昭57−4098(JP,A) 特開 平7−129188(JP,A) 特開 昭62−215299(JP,A) 特開 平4−349499(JP,A) 特開 平3−160500(JP,A) 特開 昭57−32498(JP,A) 特開 昭61−57998(JP,A) 特開 平7−110697(JP,A) (58)調査した分野(Int.Cl.7,DB名) G10L 11/00 - 13/08 G10L 19/00 - 21/06

Claims (11)

    (57)【特許請求の範囲】
  1. 【請求項1】 合成すべき一群のメッセージに共通する
    固定情報と該一群のメッセージ毎に異なる可変情報をつ
    なぎ合わせて一群のメッセージを合成する音声合成装置
    において、 基本周波数の時間変化パターンの生成にあたって、固定
    情報の基本周波数の時間変化パターンを生成する第1の
    生成手段と、可変情報の基本周波数の時間変化パターン
    を生成する第2の生成手段と、当該各生成手段により生
    成した基本周波数の時間変化パターンを順次接続して文
    の基本周波数の時間変化パターンを生成する編集手段
    と、該編集手段で生成された基本周波数の時間変化パタ
    ーンを用いて音声信号を合成する合成手段とを備えるこ
    とを特徴とする音声合成装置。
  2. 【請求項2】 請求項1に記載の第1の生成手段は、 自然音声より抽出した固定情報の基本周波数の時間変化
    パターンを、基本周波数の時系列の形式を用いて記憶す
    る手段と、入力文に適切な基本周波数の時系列を該記憶
    手段より読み込む手段とを備えることにより、基本周波
    数の時間変化パターンを生成することを特徴とする音声
    合成装置。
  3. 【請求項3】 請求項1に記載の第1の生成手段は、 自然音声より抽出した固定情報の基本周波数の時間変化
    パターンを、該基本周波数の時間変化パターンを近似し
    たモデルのパラメータの形式を用いて記憶する手段と、
    入力文に適切なパラメータを該憶記する手段より読み込
    む手段と、該パラメータより基本周波数の時系列を生成
    する手段を備えることにより、基本周波数の時間変化パ
    ターンを生成することを特徴とする音声合成装置。
  4. 【請求項4】 請求項1に記載の第2の生成手段は、可
    変情報の音節数とアクセント型の組合せについて自然音
    声より抽出した基本周波数の時間変化パターンを、基本
    周波数の時系列の形式を用いて記憶する手段と、入力文
    に適切な基本周波数の時系列を該記憶手段より選択し読
    み込む手段とを備えることにより、基本周波数の時間変
    化パターンを生成することを特徴とする音声合成装置。
  5. 【請求項5】 請求項1に記載の第2の生成手段は、 可変情報の音節数とアクセント型のすべての組合せにつ
    いて自然音声より抽出した基本周波数の時間変化パター
    ンを、該基本周波数の時間変化パターンを近似したモデ
    ルのパラメータの形式を用いて記憶する手段と、入力に
    適切なパラメータを該記憶手段より選択し読み込む手段
    と、該パラメータより基本周波数の時系列を生成する手
    段を備えることにより、基本周波数の時間変化パターン
    を生成することを特徴とする音声合成装置。
  6. 【請求項6】 請求項1に記載の第2の生成手段は、 可変情報の基本周波数の時間変化パターンを規則によっ
    て生成する手段を持つことを特徴とする音声合成装置。
  7. 【請求項7】 合成単位の各時間長の系列である持続時
    間長の生成にあたって、 固定情報の持続時間長を生成する第1の生成手段と、可
    変情報の持続時間長を生成する第2の生成手段と、当該
    各生成手段により生成した持続時間長を順次接続して、
    文の持続時間長を生成する編集手段と、該持続時間長を
    用いて音声信号を合成する手段とを備えることを特徴と
    する音声合成装置。
  8. 【請求項8】 請求項7に記載の第1の生成手段は、 自然音声より抽出した固定情報の持続時間長を記憶する
    手段と、入力文に適切な持続時間長を該記憶手段より読
    み込む手段とを備えることによって、持続時間長を生成
    することを特徴とする音声合成装置。
  9. 【請求項9】 請求項7に記載の第2の生成手段におい
    て、 可変情報の持続時間長を生成する生成手段を持つことを
    特徴とする音声合成装置。
  10. 【請求項10】 請求項1または請求項7に記載の音声
    合成装置において、当該音声合成装置が固定情報を提示
    し、ユーザが可変情報の入力および編集を行なうユーザ
    インターフェイスを用いて合成文を入力することによっ
    て、固定情報と可変情報を分離することを可能にするテ
    キスト入力手段を備えることを特徴とする音声合成装
    置。
  11. 【請求項11】 請求項1または請求項7に記載の音声
    合成装置において、 当該音声合成装置が固定情報の提示と可変情報の入力候
    補の提示を行ない、該候補の可変情報を指定する選択手
    段と、固定情報と可変情報を分離することを可能にする
    テキスト入力手段を備えることを特徴とする音声合成装
    置。
JP6195178A 1994-08-19 1994-08-19 音声合成装置 Expired - Lifetime JP3060276B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP6195178A JP3060276B2 (ja) 1994-08-19 1994-08-19 音声合成装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP6195178A JP3060276B2 (ja) 1994-08-19 1994-08-19 音声合成装置

Publications (2)

Publication Number Publication Date
JPH0863187A JPH0863187A (ja) 1996-03-08
JP3060276B2 true JP3060276B2 (ja) 2000-07-10

Family

ID=16336753

Family Applications (1)

Application Number Title Priority Date Filing Date
JP6195178A Expired - Lifetime JP3060276B2 (ja) 1994-08-19 1994-08-19 音声合成装置

Country Status (1)

Country Link
JP (1) JP3060276B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8626510B2 (en) 2009-03-25 2014-01-07 Kabushiki Kaisha Toshiba Speech synthesizing device, computer program product, and method

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1138989A (ja) 1997-07-14 1999-02-12 Toshiba Corp 音声合成装置及び方法
WO2006134736A1 (ja) 2005-06-16 2006-12-21 Matsushita Electric Industrial Co., Ltd. 音声合成装置、音声合成方法およびプログラム
JP2010175717A (ja) * 2009-01-28 2010-08-12 Mitsubishi Electric Corp 音声合成装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8626510B2 (en) 2009-03-25 2014-01-07 Kabushiki Kaisha Toshiba Speech synthesizing device, computer program product, and method

Also Published As

Publication number Publication date
JPH0863187A (ja) 1996-03-08

Similar Documents

Publication Publication Date Title
EP0831460B1 (en) Speech synthesis method utilizing auxiliary information
US6778962B1 (en) Speech synthesis with prosodic model data and accent type
Isewon et al. Design and implementation of text to speech conversion for visually impaired people
US6173263B1 (en) Method and system for performing concatenative speech synthesis using half-phonemes
US7233901B2 (en) Synthesis-based pre-selection of suitable units for concatenative speech
JP2002530703A (ja) 音声波形の連結を用いる音声合成
WO2004066271A1 (ja) 音声合成装置,音声合成方法および音声合成システム
Bettayeb et al. Speech synthesis system for the holy quran recitation.
Stöber et al. Speech synthesis using multilevel selection and concatenation of units from large speech corpora
JP3270356B2 (ja) 発話文書作成装置,発話文書作成方法および発話文書作成手順をコンピュータに実行させるプログラムを格納したコンピュータ読み取り可能な記録媒体
JP3060276B2 (ja) 音声合成装置
JPH0887297A (ja) 音声合成システム
JPH08335096A (ja) テキスト音声合成装置
JP4409279B2 (ja) 音声合成装置及び音声合成プログラム
van Rijnsoever A multilingual text-to-speech system
Furtado et al. Synthesis of unlimited speech in Indian languages using formant-based rules
Kaur et al. BUILDING AText-TO-SPEECH SYSTEM FOR PUNJABI LANGUAGE
JP3397406B2 (ja) 音声合成装置及び音声合成方法
JPH11212586A (ja) 音声合成装置
JPH02251998A (ja) 音声合成装置
JPH09292897A (ja) 音声合成装置
JP3404776B2 (ja) 信号再生装置
JPH1097290A (ja) 音声合成装置
FalDessai Development of a Text to Speech System for Devanagari Konkani
JPH08328578A (ja) テキスト音声合成装置

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20000321