JP2536169B2 - 規則型音声合成装置 - Google Patents

規則型音声合成装置

Info

Publication number
JP2536169B2
JP2536169B2 JP1195156A JP19515689A JP2536169B2 JP 2536169 B2 JP2536169 B2 JP 2536169B2 JP 1195156 A JP1195156 A JP 1195156A JP 19515689 A JP19515689 A JP 19515689A JP 2536169 B2 JP2536169 B2 JP 2536169B2
Authority
JP
Japan
Prior art keywords
voice
unit
data
voice data
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP1195156A
Other languages
English (en)
Other versions
JPH0358100A (ja
Inventor
幸夫 三留
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
Nippon Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Electric Co Ltd filed Critical Nippon Electric Co Ltd
Priority to JP1195156A priority Critical patent/JP2536169B2/ja
Publication of JPH0358100A publication Critical patent/JPH0358100A/ja
Application granted granted Critical
Publication of JP2536169B2 publication Critical patent/JP2536169B2/ja
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Description

【発明の詳細な説明】 (産業上の利用分野) 本発明は文字列から規則に従って音声を合成する際
に、単位となる音声データを編集し、その編集されたデ
ータから音声を生成する型の規則型音声合成装置に関す
るものである。
(従来の技術) 従来、文字列から規則に従って任意の音声を合成する
際に、人間が発声した音声を分析し、合成の基本単位と
なる音声データを抽出して記憶しておき、その単位音声
データを編集して音声を合成する方法が知られている。
このような、音声合成法の第1の従来例としては、電
子通信学会論文誌J61−D、No.11の858ページから865ペ
ージに掲載された佐藤による「PARCOR−VCV連鎖を用い
た音声合成方式」と題する論文に示されたものがある。
この従来例では、音声データとしてはパーコール(PA
RCOR)係数、即ち偏自己相関係数と呼ばれるパラメータ
を用いている。これは、線形予測法と呼ばれる音声分析
法によって音声を分析して抽出される。また、音声の基
本単位としてVCV(ここに、Vは母音、Cは子音を表
す)を用いている。
即ち、この従来例では、母音から子音さらに次の母音
までの音声を基本単位として、この音声データを編集し
て音声を合成している。このような単位音声データは、
例えば「あさ」(/asa/)などのように発声した音声を
分析して得られる。この例のほかにも、音声データとし
てLSP(エル・エス・ピー)と呼ばれるパラメータやホ
ルマントと呼ばれるパラメータを用いるものが知られて
いる。更に、単位音声としては、CV・VCやCVC等を用い
るものが知られている。これらの単位音声セットは、あ
る言語音声(例えば日本語)を構成する音素の組合わせ
を基に決定される。
また、第2の従来例として、日本音響学会昭和62年度
春季研究発表講演論文集3−6−13に記載された、中
島、浜田、嵯峨山による「合成単位を自動生成する規則
合成法の検討」と題する論文に示された例がある。
この例では、単語や文章を発声した音声を分析し音素
情報を付与した音声データベース(即ち、音声データの
どの部分が何という音素に対応しているかという対応関
係の情報を含んだ音素データベース)を用い、統計的手
法を用いて単位音声を抽出している。この第2の従来例
は、単位音声の決定方法に関して第1の従来例との間に
差異がある。
(発明が解決しようとする課題) これらの従来例によれば、文字列から任意の音声を合
成でき、しかも、個々の単位音声については、人間が発
声した音声を分析したデータを用いているため、明瞭性
が良いといった特長があるが、それぞれに、以下に述べ
るような問題を有していた。
第1の従来例では、単位音声を音素の組合わせに基づ
いて決定しているので、スペクトルの変化パターンが、
実際に単語や文章を発声した時とは必ずしも同一になら
ず合成音は滑らかさにかけた不自然な印象を受けること
が多かった。これは、単位の種類を増やすことによって
ある程度は解決できるが、単位音声の数を増やすために
は、原音声の収集や分析結果のデータから編集に必要な
部分のみを切り出す作業に多大の工数が必要なため、音
質の改善に限界があった。
一方、第2の従来例では、音声のデータベースが完備
されていれば、スペクトルの特徴を考慮した統計的手法
により、単位音声を抽出するので、比較的自然な音声を
合成できるが、音素情報を付与した音素データベースを
作成するためには、第1の従来例以上に膨大な工数が必
要である。これは、音声分析結果から、ある部分が何と
いう音素であるかを自動的に決定する良い方法がなく、
音声の知識を有した人間がスペクトルパターンを見て音
素情報を入力する必要があるからである。このような問
題があるため、別の話者の合成音声が必要になった場合
などには、その都度多額の開発コストがかかることにな
る。また、音声データベースのデータの量が少ない場合
は、良好な合成音声の得られる単位音声を抽出すること
は期待できない。
さらにまた、これら二通りの従来例ともに、単位音声
のデータを一旦作った後で、音質に問題が見つかった場
合に、部分的な修正が困難であるという問題もあった。
本発明の目的は、単位音声データの作成が容易で、し
かも合成音声の自然さ等に問題が発見されたときに簡単
にデータを修正でき、その結果自然で明瞭な音声を合成
できる規則型音声合成装置を提供することにある。
(課題を解決するための手段) 前述の課題を解決するために本発明は次の3つの態様
をもつ規則型音声合成装置を提案している。
本発明の第1の態様による規則型音声合成装置は、単
位となる音声である単位音声を分析して得られた音声デ
ータを編集し、その編集された音声データから音声を生
成する規則型音声合成装置において、前記単位音声デー
タを記憶する記憶手段と、前記記憶手段に記憶されてい
る単位音声データを読み出して編集する編集手段と、前
記編集された音声データから音声を生成する音声合成手
段と、入力音声を分析し入力音声データを得る入力音声
分析手段と、前記音声データと前記編集された音声デー
タとの間でパターンマッチングを行いパターン間距離を
抽出するパターンマッチング手段と、前記パターン間距
離の値に基づいて、前記入力音声データから新たな単位
音声データを抽出し前記記憶手段に書き込む手段とを備
える。
また、本発明の第2の態様による規則型音声合成装置
は、単位となる音声である単位音声を分析して得られた
音声データを編集し、その編集された音声データから音
声を生成する規則型音声合成装置において、前記単位音
声データを記憶する記憶手段と、前記記憶手段に記憶さ
れている単位音声データを読み出して編集する編集手段
と、前記編集された音声データから音声を生成する音声
合成手段と、入力音声を分析し入力音声データを得る第
1の音声分析手段と、前記入力音声および前記音声合成
回路で生成された合成音声を分析する第2の音声分析手
段と、前記第2の音声分析手段で分析された入力音声お
よび合成音声の二種類の分析データ間のパターンマッチ
ングを行いパターン間距離を抽出するパターンマッチン
グ手段と、前記パターン間距離の値に基づいて、前記第
1の音声分析手段で得られた前記入力音声データから新
たな単位音声データを抽出し前記記憶手段に書き込む手
段とを備える。
さらに、本発明の第3の態様による規則型音声合成装
置は、単位となる音声である単位音声を分析して得られ
た音声データを編集し、その編集された音声データから
音声を生成する規則型音声合成装置において、前記単位
音声データを記憶する記憶手段と、前記記憶手段に記憶
されている単位音声データを読み出し編集する編集手段
と、前記編集された音声データから音声を生成する音声
合成手段と、入力音声を分析して入力音声データを得る
音声分析手段と、前記入力音声データおよび前記編集さ
れた音声データを別のパラメータに変換するパラメータ
変換手段と、前記パラメータ変換手段により変換された
前記入力音声のデータと前記編集されたデータ相互の間
のパターンマッチングを行いパターン間距離を抽出する
パターンマッチング手段と、前記パターン間距離の値に
基づいて、前記音声分析手段で得られた前記入力音声デ
ータから新たな単位音声データを抽出し前記記憶手段に
書き込む手段とを備える。
(作用) 本発明では、まず従来例と同様にして単位音声データ
を作成し、単位音声データを記憶する手段に記憶させて
おく。但し、このデータはある言語音声を合成するため
の必要最小限のデータがあればいよい。例えば、日本語
用のCV・VC単位音声ならばその種類は300から400通り程
度あればよい。音声の合成は入力された文字列に基づい
て、この単位音声データを編集したデータを基に音声合
成回路で行われる。ここまでは、従来の規則型音声合成
装置と同様である。
さて、もし合成音声に不自然な部分があったら、その
とき合成した単語や文章と同一の音声を入力し、以下に
説明するようにして新たな単位音声データを抽出して記
憶する。この新しい単位音声データの抽出処理を行うか
否かは外部から指示しても良いし、音声入力部に音声検
出回路を設け、音声が入力されたことを検出したら実行
するようにしてもよい。
第1の発明では、この入力音声を分析し、その入力音
声の分析結果の音声データと前記の単位音声データを編
集したデータのパターンマッチングを行いパターン間の
距離を抽出する。これは、例えば従来から音声認識にお
いて用いられているダイナミックプログラミングに基づ
くパターンマッチング方法を利用することができる。こ
のパターン間距離が予め設定された基準値よりも大きい
ときは、その部分の合成用単位音声データが実際に単語
や文章としての発声との間に差異があることを示してい
るので、この部分の単位音声を新たに記憶しておくこと
で、合成音声の自然性を向上することができるようにな
る。
ここで基準値としては、同一の単語を繰り返し発声し
たとしても、常にまったく同一のスペクトルパターン変
化にはならないことを考慮して設定しておく必要があ
る。そのためには、同一の単語を繰り返し発声したとき
相互のパターン間距離を目安として設定しておけばよ
い。
また、入力音声のデータからの新しい単位音声の抽出
は、予め用意した単位音声の接続部の間のデータとパタ
ーンマッチングの対応がとれた部分を切り出すことで実
現できる。パターン間距離が大きいといっても、不自然
であるという程度の違いであり、同一の音素列について
比較しているのであるから、音声のどの部分が何という
音素に対応しているかという判定には、このパターンマ
ッチングの結果の対応関係は十分な情報を含んでいると
考えられる。
このとき、新たに抽出する単位音声は、必ずしもはじ
めに用意されたものと同一の単位でなくてもよい。例え
ば、はじめに、CV・VCを単位として用意しておき、単語
音声の入力データからはCVCとして抽出したものを記憶
するようにすれば、編集の際の接続が容易になるという
メリットがある。
上記の第1の発明では、入力音声を分析したデータと
単位音声を編集したデータとの間で距離を算出し、その
データの一部が単位音声として記憶されている。即ち、
パターンマッチングは音声合成に用いるデータ間で行う
ものである。そのため、この第1の発明では音声分析は
入力音声についてのみ行えばよく、装置は簡単な構成と
なる。この場合、前記第1の従来例のように音声合成の
ための線形予測係数やホルマントなどのパラメータ間で
距離を算出することになる。
これに対し、第2に発明では、音声合成のために記憶
しておくデータと音声のパターンマッチングに用いるデ
ータとは異なったパラメータを用いるようにしたもので
ある。これは、音声のパターンマッチングに適したパラ
メータとしてはほかにもケプストラム等のように、必ず
しも音声合成には適さないパラメータもあるためであ
る。そのために、第2の発明では、編集されたデータか
ら音声を合成して、その合成音声と入力音声を第2の音
声分析手段で分析して、パターンマッチングを行い、新
たな単位音声として記憶するデータは、第1の音声分析
手段で分析するものである。この場合、音声分析手段が
二通り必要であるが、音声合成とパターンマッチングの
それぞれに最適なパラメータを選ぶことができるので、
精度の高い判定が期待できる。
さらに、第3の発明では、音声合成のパラメータから
パターンマッチングのためのパラメータに変換すること
で第2の発明と同様の効果を実現するものである。この
ようなパラメータとしては、分析合成のための線形予測
係数から簡単に変換できるLPCケプストラムや群遅延ス
ペクトル等のパラメータがある。この第3の発明では、
合成音声を分析し直すことをせず、編集結果のデータを
変換するだけなので、少ない演算量で実現することがで
きる。
このようにこれらの本発明によれば、はじめに用意す
る単位音声データは必要最小限の量でよく、その後不自
然な部分のみ実際の音声を入力することで、適切なデー
タを自動的に記憶してより自然な音声を合成できるよう
になる規則型音声合成装置が得られる。
(実施例) 次に図面を用いて本発明の実施例を説明する。
第1図は、本発明の一実施例のブロック図である。
まず、主要構成要素の機能と動作を説明する。図にお
いて、音声データメモリ2には、音声合成に必要な単位
音声を分析したデータが記憶されていて、制御回路1か
ら単位音声の番号が送られると当該単位音声に対応する
データがデータ編集部3に送られる。
データ編集部3は、制御回路1から送られる韻律情報
を基に、音声データメモリ2から送られる単位音声デー
タを編集する。
その際、韻律情報を基に時間長を制御したり単位音声
間の補間を行ったり、ピッチ情報を基に音源の周期を決
定する等の処理も行う。このデータ編集部3の動作とそ
の制御は基本的には前記第1の従来例等と同様である。
但し、後に説明するように音声データ抽出部7において
新しい単位音声データを抽出するために、編集した音声
データの単位音声の境界には境界位置と単位音声番号を
示す特殊符号(音声データとしては存在しない符号)を
挿入しておく。
このデータ編集部3で編集された音声データは、バッ
ファメモリ10に一次的に蓄えられ、音声合成器4に送ら
れ、音声が合成される。この音声合成器4の構成は、音
声データメモリ2に記憶されているデータによって決ま
るもので、例えばパラメータとして、前記第1の従来例
のようにパーコール係数を用いるならば、音声合成器は
パーコール格子型回路構成になり、ホルマントパラメー
タを用いるならばカスケード型回路構成になる。なお、
音声データ中の単位音声境界等を示す特殊符号は音声合
成器4では無視される。
音声分析器5は、音声入力端子12から入力される音声
波形を分析し、音声データを生成する。この音声分析器
5の構成も音声データメモリ2に記憶させるデータの形
式で決まるものであり、例えばパーコール係数を用いる
場合は線形予測分析器の構成になる。
パターンマッチング部6は、音声分析器5から送られ
る入力音声の分析結果の音声データと前記のデータ編集
部3で編集されバッファメモリ10に蓄えられていたデー
タのパターンマッチングを行い、パターン間の距離を抽
出する。作用において説明したように、この処理は、例
えば従来から音声認識において用いられているダイナミ
ックプログラミングに基づくパターンマッチング方法を
利用して行うことができる。なお、音声データ中の単位
音声境界等を示す特殊符号はパターンマッチング部6で
は無視され、そのまま距離情報の間に挿入して音声デー
タ抽出部7に送られる。
音声データ抽出部7は、パターンマッチング部6から
送られるパターン間距離が予め設定された基準値以上で
あれば、音声分析器5から送られた音声データのうち、
距離情報とともに送られた境界情報の間の単位音声とな
る区間のみを音声データメモリ2へ送る。同時に、どの
単位音声が新たに抽出されたかを単位音声情報出力端子
14へと出力する。
さて次に、全体の動作を説明する。
まず、文字情報入力端子11から単位音声の番号や音素
の時間長やピッチ周波数などを表す文字情報が制御回路
1に入力される。制御回路1は、このうち単位音声の番
号を音声データメモリ2に、韻律情報をデータ編集部3
に送り、前述のように単位音声の音声データを編集さ
せ、結果をバッファメモリ10を介して音声合成器4に送
らせる。この音声データを基に、音声合成器4で合成さ
れた音声は合成音声出力端子13から出力される。
一方、文字情報入力端子11から単位音声の更新処理を
行うことを指示する特殊文字が入力されたら、制御回路
1は音声分析器5、バッファメモリ10、パターンマッチ
ング部6、音声データ抽出部7を制御して前記の処理を
行わせ、単位音声データを抽出する。
まず、音声入力端子12から音声が入力されると、音声
分析器5で分析され、パターンマッチング部6と音声デ
ータ抽出部7に分析結果が送られる。
パターンマッチング部6では、バッファメモリ10から
送られる編集された音声データと、音声分析器5から送
られる入力音声の分析結果の音声データとのパターンマ
ッチングが行われ、パターン間の距離が音声データ抽出
部7へ送られる。
この距離情報を基に、音声データ抽出部7で音声分析
器5から送られたデータから新しい単位音声データが抽
出されて、音声データメモリ2に書き込まれるととも
に、どの単位音声が抽出されたかを表す情報が単位音声
情報出力端子14から出力される。
本実施例では、文字入力としては単位音声の番号や韻
律情報を入力し合成音声が出力される構成としたが、例
えば漢字かな混じりのテキストから音声を合成するシス
テムは、この実施例の前処理としてテキストを解析し、
読みやアクセントを推定し、必要な単位音声を決定し韻
律情報を付与する処理を行うテキスト解析部や韻律処理
部と統合することで実現できる。また、本実施例の装置
からは抽出された単位音声情報が出力端子から出力され
るので、その後どの単位音声を使うかの決定は外部で行
う必要がある。
次に、第2図を用いて第2の発明の実施例を説明す
る。本実施例においても入出力の情報は前記第1の実施
例と同様であるとして説明する。
図において、音声データメモリ2、データ編集部3、
音声合成器4、音声分析器5、パターンマッチング部
6、音声データ抽出部7は前記の第1の実施例における
構成要素と同一の動作をする。但し、パターンマッチン
グ部6では距離を計算するパラメータが異なっており、
第2の音声分析器8で分析されたデータを用いる。
まず、文字情報入力端子11から文字情報が制御回路1
に入力されると、単位音声の番号が音声データメモリ2
に送られ、韻律情報がデータ編集部3に送られる。デー
タ編集部3で単位音声の音声データが編集され、この音
声データを基に音声合成器4で音声が合成され合成音声
出力端子13から出力される。
この合成音声は、さらに第2の音声分析器8に送ら
れ、分析結果のデータはバッファメモリ10に送られ、一
次記憶される。この間、第2の音声分析器8の入出力の
信号線はスイッチの切り替えにより音声合成器4から合
成音声を入力し、出力をバッファメモリ10に送るように
接続される。
文字情報入力端子11から単位音声の更新処理を行うこ
とを指示する特殊文字が入力されると、制御回路1は、
音声分析器5、第2の音声分析器8、バッファメモリ1
0、パターンマッチング部6、音声データ抽出部7を制
御し、単位音声データを抽出させる。
まず、音声入力端子12から音声が入力されると、音声
分析器5と第2の音声分析器8で分析され、前者の分析
結果は音声データ抽出部7に送られ、後者の分析結果は
パターンマッチング部6に送られる。このときの第2の
音声分析器8の入出力の信号線はスイッチの切り替えに
より音声入力端子12から音声を入力し、分析結果をパタ
ーンマッチング部6に送るように接続される。
パターンマッチング部6では、バッファメモリ10から
送られる合成音声の分析結果のデータと、第2の音声分
析器8から送られる入力音声の分析結果のデータとのパ
ターンマッチングが行われ、パターン間の距離が音声デ
ータ抽出部7へ送られる。この距離情報を基に、音声デ
ータ抽出部7で音声分析部5から送られたデータから新
しい単位音声データが抽出されて、音声データメモリ2
に書き込まれるとともに、どの単位音声が抽出されたか
を表す情報が単位音声情報出力端子14から出力される。
次に、第3図を用いて本発明の第3の実施例を説明す
る。第3図において、音声データメモリ2、データ編集
部3、音声合成器4、音声分析器5、パターンマッチン
グ部6、音声データ抽出部7は前記の第1の実施例にお
ける構成要素と同一の動作をする。但し、パターンマッ
チング部6では、距離を計算するパラメータが異なって
おり、パラメータ変換器9で変換されたデータを用い
る。パラメータ変換器9は音声合成のためのパラメータ
から音声パターンマッチングのためのパラメータに変換
する。
文字入力から音声が合成されるまでは、前記第2の実
施例と同様に行われる。
データ編集部3で編集されたデータは、音声合成器4
へ送られると同時にパラメータ変換器9に送られ、ここ
で変換されたデータはバッファメモリ10に一時記憶され
る。このとき、パラメータ変換器9の入出力は、スイッ
チの切り替えにより、データ編集部3から送られる編集
された音声データを入力し、変換結果のデータをバッフ
ァメモリ10に送るように接続される。
文字情報入力端子11から単位音声の更新処理を行うこ
とを指示する特殊文字が入力されると、制御回路1は、
音声分析器5、パラメータ変換器9、バッファメモリ1
0、パターンマッチング部6、音声データ抽出部7を制
御し単位音声データを抽出させる。音声入力端子12から
音声が入力されると、音声分析器5で分析された結果が
パラメータ変換器9と音声データ抽出部7へ送られる。
このときのパラメータ変換器9の入出力は、スイッチの
切り替えにより、音声分析器5から送られる分析結果の
音声データを入力し、変換結果のデータをパターンマッ
チング部6に送るように接続される。
パターンマッチング部6では、バッファメモリ10から
送られるパラメータ変換された合成音声のデータと、パ
ラメータ変換器9から送られる入力音声の分析結果をパ
ラメータ変換したデータとのパターンマッチングが行わ
れ、パターン間の距離が音声データ抽出部7へ送られ
る。この距離情報を基に、音声データ抽出部7で音声分
析部5から送られたデータから新しい単位音声データが
抽出されて、音声データメモリ2に書き込まれるととも
に、どの単位音声が抽出されたかを表す情報が単位音声
情報出力端子14から出力される。
(発明の効果) 以上説明したように本発明によれば、はじめに必要最
小限の単位音声データを作成して音声データメモリに書
き込んでおき、単語や文章の音声を合成しながらその単
語や文章を人間が実際に発声した自然音声を入力するこ
とで、自動的に不自然なスペクトル変化の部分を検出し
て新しい単位音声データを抽出するため、自然音声から
膨大な単位音声を人手によって切り出すという作業や音
素情報をもった音声データベースを作成するという作業
をせずに合成音声の自然さを改善することができるとい
う効果がある。
【図面の簡単な説明】
第1図は本発明の第1の実施例の構成を示すブロック
図、第2図は本発明の第2の実施例の構成を示すブロッ
ク図、第3図は本発明の第3の実施例の構成を示すブロ
ック図である。 1…制御回路、2…音声データメモリ、3…データ編集
部、4…音声合成器、5…音声分析器、6…パターンマ
ッチング部、7…音声データ抽出部、8…第2の音声分
析器、9…パラメータ変換器、10…バッファメモリ、11
…文字情報入力端子、12…音声入力端子、13…合成音声
出力端子、14…単位音声情報出力端子。

Claims (3)

    (57)【特許請求の範囲】
  1. 【請求項1】単位となる音声である単位音声を分析して
    得られた音声データを編集し、その編集された音声デー
    タから音声を生成する規則型音声合成装置において、前
    記単位音声データを記憶する記憶手段と、前記記憶手段
    に記憶されている単位音声データを読み出して編集する
    編集手段と、前記編集された音声データから音声を生成
    する音声合成手段と、入力音声を分析し入力音声データ
    を得る入力音声分析手段と、前記音声データと前記編集
    された音声データとの間でパターンマッチングを行いパ
    ターン間距離を抽出するパターンマッチング手段と、前
    記パターン間距離の値に基づいて、前記入力音声データ
    から新たな単位音声データを抽出し前記記憶手段に書き
    込む手段とを備えて成ることを特徴とする規則型音声合
    成装置。
  2. 【請求項2】単位となる音声である単位音声を分析して
    得られた音声データを編集し、その編集された音声デー
    タから音声を生成する規則型音声合成装置において、前
    記単位音声データを記憶する記憶手段と、前記記憶手段
    に記憶されている単位音声データを読み出して編集する
    編集手段と、前記編集された音声データから音声を生成
    する音声合成手段と、入力音声を分析し入力音声データ
    を得る第1の音声分析手段と、前記入力音声および前記
    音声合成手段で生成された合成音声を分析する第2の音
    声分析手段と、前記第2の音声分析手段で分析された入
    力音声および合成音声の二種類の分析データ間のパター
    ンマッチングを行いパターン間距離を抽出するパターン
    マッチング手段と、前記パターン間距離の値に基づい
    て、前記第1の音声分析手段で得られた前記入力音声デ
    ータから新たな単位音声データを抽出し前記記憶手段に
    書き込む手段とを備えて成ることを特徴とする規則型音
    声合成装置。
  3. 【請求項3】単位となる音声である単位音声を分析して
    得られた音声データを編集し、その編集された音声デー
    タから音声を生成する規則型音声合成装置において、前
    記単位音声データを記憶する記憶手段と、前記記憶手段
    に記憶されている単位音声データを読み出し編集する編
    集手段と、前記編集された音声データから音声を生成す
    る音声合成手段と、入力音声を分析して入力音声データ
    を得る音声分析手段と、前記入力音声データおよび前記
    編集された音声データを別のパラメータに変換するパラ
    メータ変換手段と、前記パラメータ変換手段により変換
    された前記入力音声のデータと前記編集されたデータ相
    互の間のパターンマッチングを行いパターン間距離を抽
    出するパターンマッチング手段と、前記パターン間距離
    の値に基づいて、前記音声分析手段で得られた前記入力
    音声データから新たな単位音声データを抽出し前記記憶
    手段に書き込む手段とを備えて成ることを特徴とする規
    則型音声合成装置。
JP1195156A 1989-07-27 1989-07-27 規則型音声合成装置 Expired - Lifetime JP2536169B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP1195156A JP2536169B2 (ja) 1989-07-27 1989-07-27 規則型音声合成装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP1195156A JP2536169B2 (ja) 1989-07-27 1989-07-27 規則型音声合成装置

Publications (2)

Publication Number Publication Date
JPH0358100A JPH0358100A (ja) 1991-03-13
JP2536169B2 true JP2536169B2 (ja) 1996-09-18

Family

ID=16336365

Family Applications (1)

Application Number Title Priority Date Filing Date
JP1195156A Expired - Lifetime JP2536169B2 (ja) 1989-07-27 1989-07-27 規則型音声合成装置

Country Status (1)

Country Link
JP (1) JP2536169B2 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4759827B2 (ja) * 2001-03-28 2011-08-31 日本電気株式会社 音声セグメンテーション装置及びその方法並びにその制御プログラム
JP2007256349A (ja) * 2006-03-20 2007-10-04 Oki Electric Ind Co Ltd 音声データ収録システムおよび音声データ収録方法
JP2008236717A (ja) * 2007-03-20 2008-10-02 Estec Corp スピーカー
US8131001B2 (en) 2007-08-07 2012-03-06 Onkyo Corporation Speaker diaphragm and electrodynamic loudspeaker using the same

Also Published As

Publication number Publication date
JPH0358100A (ja) 1991-03-13

Similar Documents

Publication Publication Date Title
US5940797A (en) Speech synthesis method utilizing auxiliary information, medium recorded thereon the method and apparatus utilizing the method
US4912768A (en) Speech encoding process combining written and spoken message codes
JPH031200A (ja) 規則型音声合成装置
US6212501B1 (en) Speech synthesis apparatus and method
JP2536169B2 (ja) 規則型音声合成装置
JP5062178B2 (ja) 音声収録システム、音声収録方法、および収録処理プログラム
JPH08335096A (ja) テキスト音声合成装置
JPH0887297A (ja) 音声合成システム
JP2001034284A (ja) 音声合成方法及び装置、並びに文音声変換プログラムを記録した記録媒体
JP3060276B2 (ja) 音声合成装置
EP1589524B1 (en) Method and device for speech synthesis
JP3522005B2 (ja) 音声合成装置
JP3397406B2 (ja) 音声合成装置及び音声合成方法
JP3034554B2 (ja) 日本語文章読上げ装置及び方法
JP2703253B2 (ja) 音声合成装置
JP3292218B2 (ja) 音声メッセージ作成装置
EP1640968A1 (en) Method and device for speech synthesis
JP2956936B2 (ja) 音声合成装置の発声速度制御回路
JP3297221B2 (ja) 音韻継続時間長制御方式
KR100608643B1 (ko) 음성 합성 시스템의 억양 모델링 장치 및 방법
JPH0756589A (ja) 音声合成方法
JP3133347B2 (ja) 韻律制御装置
JP2001166787A (ja) 音声合成装置および自然言語処理方法
JPS60144799A (ja) 自動通訳装置
JPH09325788A (ja) 音声合成装置及び方法