JPH0358100A - 規則型音声合成装置 - Google Patents

規則型音声合成装置

Info

Publication number
JPH0358100A
JPH0358100A JP1195156A JP19515689A JPH0358100A JP H0358100 A JPH0358100 A JP H0358100A JP 1195156 A JP1195156 A JP 1195156A JP 19515689 A JP19515689 A JP 19515689A JP H0358100 A JPH0358100 A JP H0358100A
Authority
JP
Japan
Prior art keywords
speech
voice
data
unit
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP1195156A
Other languages
English (en)
Other versions
JP2536169B2 (ja
Inventor
Yukio Mitome
幸夫 三留
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP1195156A priority Critical patent/JP2536169B2/ja
Publication of JPH0358100A publication Critical patent/JPH0358100A/ja
Application granted granted Critical
Publication of JP2536169B2 publication Critical patent/JP2536169B2/ja
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。

Description

【発明の詳細な説明】 (産業上の利用分!I’F) 本発明は文字列から規則に従って音声を合成する際に、
単位となる音声データを編集し、その編集されたデータ
から音声を生或する型の規則型音声合成装置に関するも
のである。
{従来の技術} 従来、文字列から規則に従って任意の音声を合成する際
に、人間が発声した音声を分析し、合成の基本単位とな
る音声データを抽出して記憶しておき、その単位音声デ
ータを編集して音声を合成する方法が知られている. このような、音声合成法の第1の従来例としては、電子
通信学会論文誌J61−D,No.11の858ページ
から865ページに掲載された佐藤によるr P A 
R C O R. − V C V連鎖を用いた音声合
成方式」と題する論文に示されたものがある。
この従来例では、音声データとしてはバーコール(PA
RCOR)係数、即ち偏自己相関係数と呼ばれるパラメ
ータを用いている.これは、線形予測法と呼ばれる音声
分析法によって音声を分析して抽出される.また、音声
の基本単位としてVCV (ここに、■は母音、Cは子
音を表す)を用いている. 即ち、この従来例では、母音から子音さらに次の母音ま
での音声を基本単位として、この音声データを編集して
音声を合成している.このような単位音声データは、例
えば「あさ」 (/asa/)などのように発声した音
声を分析して得られる.この例のほかにも、音声データ
としてLSP (エル・エス・ピー)と呼ばれるパラメ
ータやホルマントと呼ばれるパラメータを用いるものが
知られている.更に、単位音声としては、cv−vcや
CVC等を用いるものが知られている,これらの単位音
声セットは、ある言語音声《例えば日本語)を構戒する
音素の組合わせを基に決定される.また、第2の従来例
として、日本音響学会昭和62年度春季研究発表会講演
論文集3−6−13に掲載された、中島、浜田、嵯峨山
による「合成単位を自動生成する規則合成法の検討」と
題する論文に示された例がある. この例では、単語や文章を発声した音声を分析し音素情
報を付与した音声データベース(即ち、音声データのど
の部分が何という音素に対応しているかヒいう対応関係
の情報を含んだ音素データベース)を用い、統計的手法
を用いて単位音声を抽出している.この第2の従来例は
、単位音声の決定方法に関して第1の従来例との間に差
異がある. (発明が解決しようとする課U) これらの従来例によれば、文字列から任意の音声を合成
でき、しかも、個々の単位音声については、人間が発声
した音声を分析したデータを用いているため、明瞭性が
良いといった特長があるが、それぞれに、以下に述べる
ような問題を有していた. 第1の従来例では、単位音声を音素の組合わせに基づい
て決定しているので、スペクトルの変化パターンが、実
際に単語や文章を発声した時とは必ずしも同一にならず
合成音は滑らかさにかけた年自然な印象を受けることが
多かった.これは、単位の種類を増やすことによってあ
る程度は解決できるが、単位音声の数を増やすためには
、原音声の収集や分析結果のデータから編集に必要な部
分のみを切り出す作業に多大の工数が必要なため、音質
の改善に限界があった。
一方、第2の従来例では、音声のデータベースが完備さ
れていれば、スペクトルの特徴を考慮した統計的手法に
より、単位音声を抽出するので、比較的自然な音声を合
成できるが、音素情報を付与した音声データベースを作
或するためには、第1の従来例以上に膨大な工数が必要
である.これは、音声分析結果から、ある部分が何とい
う音素であるかを自動的に決定する良い方法がなく、音
声の知識を有した人間がスペクトルパターンを見て音素
情報を入力する必要があるからである.このような問題
があるため、別の話者の合成音声が必要になった場合な
どには、その都度多額の開発コストがかかることになる
.また、音声データベースのデータの量が少ない場合は
、良好な合成音声の得られる単位音声を抽出することは
期待できない. さらにまた、これら二通りの従来例ともに、単位音声の
データを一旦作った後で、音質に問題が見つかった場合
に、部分的な修正が困難であるという問題もあった。
本発明の目的は、単位音声データの作成が容易で、しか
も合成音声の自然さ等に問題が発見されたときに簡単に
データを修正でき、その結果自然で明瞭な音声を合成で
きる規則型音声合成装置を提供することにある。
《課題を解決するための手段) 前述の課題を解決するために本発明は次の3つの態様を
もつ規則型音声合成装置を提案している。
本発明の第1の!r!A様による規則型音声合成装置は
、単位となる音声である単位音声を分析して得られた音
声データを編集し、その編集された音声データから音声
を生成する規則型音声合成装置において、前記単位音声
データを記憶する記憶手段と、前記記憶手殴に記憶され
ている単位音声デー夕を読み出して編集する編集手段と
、前記編集された音声データから音声を生或する音声合
成手段と、入力音声を分析し入カ音声データを得る入方
音声分析手段と、前記音声データと前記編集された音声
データとの間でパターンマッチングを行いパターン間距
離を抽出するパターンマッチング手段と、前記パターン
間距離の値に基づいて、前記入力音声データから新たな
単位音声データを抽出し前記記憶手段に書き込む手段と
を備える.また、本発明の第2のn*による規則型音声
合成装置は、単位となる音声である単位音声を分析して
得られた音声データを編集し、その編集された音声デー
タから音声を生成する規則型音声合成装置において、前
記単位音声データを記憶する記憶手段と、前記記憶手段
に記憶されている単位音声データを読み出して編集する
編集手段と、前記編集された音声データから音声を生成
する音声合成手段と、入力音声を分析し入カ音声データ
を得る第1の音声分析手段と、前記入カ音声および前記
音声合成回路で生成された合成音声を分析する第2の音
声分析手段と、前記第2の音声分析手段で分析された入
力音声および合成音声の二種類の分析データ間のパター
ンマッチングを行いパターン間距離を抽出するパターン
マッチング手段と、前記パターン間VfiMの値に基づ
いて、前記第1の音声分析手段で得られた前記入力音声
データから新たな単位音声データを抽出し前記記憶手段
に書き込む手段とを備える. さらに、本発明の第3の態様による規則型音声合成装置
は、単位となる音声である単位音声を分析して得られた
音声データを編集し、その編集された音声データから音
声を生成する規則型音声合成装置において、前記単位音
声データを記憶する記憶手段と、前記記憶手段に記憶さ
れている単位音声データを読み出し編集する編集手段と
、前記編集された音声データから音声を生成する音声合
成手段と、入力音声を分析して入力音声データを得る音
声分析手段と、前記入力音声データおよび前記編集され
た音声データを別のパラメータに変換するパラメータ変
換手段と、前記パラメータ変換手段により変換された前
記入力音声のデータと前記編集されたデータ相互の間の
パターンマッチングを行いパターン間距離を抽出するパ
ターンマッチング手段と、前記パターン間距離の値に基
づいて、前記音声分析手段で得られた前記入力音声デー
タから新たな単位音声データを抽出し煎記記憶手段に書
き込む手段とを備える。
〈作用) 本発明では、まず従来例と同様にして単位音声データを
作或し、単位音声データを記憶する手段に記憶させてお
く.但し、このデータはある言語音声を合成するための
必要最小限のデータがあればよい.例えば、日本語用の
cv−vc単位音声ならばその種類は300から400
通り程度あればよい.音声の合成は入力された文字列に
基づいて、この単位音声データを編集したデータを基に
音声合成回路で行われる.ここまでは、従来の規則型音
声合成装置と同様である. さて、もし合成音声に不自然な部分があったら、そのと
き合成した単語や文章と同一の音声を入力し、以下に説
明するようにして新たな単位音声データを抽出して記憶
する。この新しい単位音声データの抽出処理を行うか否
かは外部から指示しても良いし、音声入力部に音声検出
回路を設け、音声が入力されたことを検出したら実行す
るようにしてもよい. 第1の発明では、この入力音声を分析し、その入力音声
の分析結果の音声データと前記の単位音声データを編集
したデータのパターンマッチングを行いパターン間の距
離を抽出する。これは、例えば従来から音声認識におい
て用いられているダイナミックプログラミングに基づく
パターンマッチング方法を利用することができる.この
パターン間距離が予め設定された基準値よりも大きいと
きは、その部分の合成用単位音声データが実際に単語や
文章としての発声との間に差異があることを示している
ので、この部分の単位音声を新たに記憶しておくことで
、合成音声の自然性を向上することができるようになる
. ここで基準値としては、同一の単語を繰り返し発声した
としても、常にまったく同一のスペクトルパターン変化
にはならないことを考慮して設定しておく必要がある.
そのためには、同一の単語を繰り返し発声したとき相互
のパターン間距離を目安として設定しておけばよい. また、入力音声のデータからの新しい単位音声の抽出は
、予め用意した単位音声の接続部の間のデータとパター
ンマッチングの対応がとれた部分を切り出すことで実現
できる.パターン間距離が大きいといっても、不自然で
あるという程度の違いであり、同一の音素列について比
較しているのであるから、音声のどの部分が何という音
素に対応しているかという判定には、このパターンマッ
チングの結果の対応関係は十分な情報を含んでいると考
えられる. このとき、新たに抽出する争位音声は、必ずしもはじめ
に用意されたものと同一の単位でなくてもよい.例えば
、はじめに、C■・VCを単位として用意しておき、単
語音声の入力データからはCVCとして抽出したものを
記憶するようにすれば、S集の際の接続が容易になると
いうメリットがある. 上記の第1の発明では、入力音声を分析したデータと単
位音声を編集したデータとの間で距離を算出し、そのデ
ータの一部が単位音声として記憶されている.即ち、パ
ターンマッチングは音声合成に用いるデータ間で行うも
のである.そのため、この第1の発明では音声分析は入
力音声についてのみ行えばよく、装置は簡牡な構成とな
る。この場合、前記第1の従来例のように音声合成のた
めの線形予測係数やホルマントなどのパラメータ間で距
離を算出することになる. これに対し、第2の発明では、音声合成のために記憶し
ておくデータと音声のパターンマッチングに用いるデー
タとは異なったパラメータを用いるようにしたものであ
る,これは、音声のパターンマッチングに適したパラメ
ータとしてはほかにもゲプストラム等のように、必ずし
も音声合成には適さないパラメータもあるためである。
そのために、第2の発明では、編集されたデータから音
声を合成して、その合成音声と入力音声を第2の音声分
析手段で分析して、パターンマッチングを行い、新たな
単位音声として記憶するデータは、第1の音声分析手段
で分析するものである.この場合、音声分析手段が二通
り必要であるが、音声合成とパターンマッチングのそれ
ぞれにI&適なパラメータを選ぶことができるので、精
度の高い判定が期待できる. さらに、第3の発明では、音声台或のパラメータからパ
ターンマッチングのためのパラメータに変換することで
第2の発明と同様の効果を実現するものである.このよ
うなパラメータとしては、分析合成のための線形予測係
数から簡単に変換できるLPGゲブストラムや群遅延ス
ペクトル等のパラメータがある.この第3の発明では、
合成音声を分析し直すことをせず、編集結果のデータを
変換するだけなので、少ない演算量で実現することがで
きる. このようにこれらの本発明によれば、はじめに用意する
単位音声データは必要最小限の量でよく、その後不自然
な部分のみ実際の音声を入力することで、適切なデータ
を自動的に記憶してより自然な音声を合成できるように
なる規則型音声合成装置が得られる. く実總例) 次に図面を用いて本発明の実施例を説明する,第1図は
、本発明の一実施例のブロック図である. まず、主要構成要素の機能と動作を説明する.図におい
て、音声データメモリ2には、音声合成に必要な単位音
声を分析したデータが記憶されていて、制御回路1から
単位音声の番号が送られると当該単位音声に対応するデ
ータがデータ編集部3に送られる. データ編集部3は、制御回路1から送られる韻律情報を
基に、音声データメモリ2から送られる単位音声データ
を編集する。
その際、韻律情報を基に時間長を制御したり貼位音声間
の補間を行ったり、ピッチ情報を基に音源の周期を決定
する等の処理も行う。このデータ編集部3の動作とその
制御は基本的には前記第1の従来例等と同様である.但
し、後に説明するように音声データ抽出部7において新
しい単位音声データを抽出するために、編集した音声デ
ータの単位音声の境界には境界位置と単位音声番号を示
す特殊符号(音声データとしては存在しない符号}を挿
入しておく. このデータ編集部3でtaXされた音声データは、バッ
ファメモリ10に一次的に蓄えられ、音声合成器4に送
られ、音声が合成される.この音声合成器4の構或は、
音声データメモリ2に記憶されているデータによって決
まるもので、例えばパラメータとして、前記第1の従来
例のようにバーコール係数を用いるならば、音声合成器
はバーコール格子型回路構成になり、ホルマントパラメ
ータを用いるならばカスゲード型回路構戒になる.なお
、音声データ中の単位音声境界等を示す特殊符号は音声
合成器4では無視される。
音声分析器5は、音声入力端子12から入力される音声
波形を分析し、音声データを生成する。
この看声分析器5の構戊も音声データメモリ2に記憶さ
せるデータの形式で決まるものであり、例えばパーコー
ル係数を用いる場合は線形予測分析器の!或になる. パターンマッチング部6は、音声分析器5から送られる
入力音声の分析結果の音声データε剪記のデータ編集部
3で編集されバッファメモリ10に蓄えられていたデー
タのパターンマッチングを行い、パターン間の距離を抽
出する。作用において説明したように、この処理は、例
えば従来から音声認識において用いられているダイナミ
ックプログラミングに基づくパターンマッチング方法を
利用して行うことができる.なお、音声データ中の単位
音声境界等を示す特殊符号はパターンマッチング部6で
は無視され、そのまま距離情報の間に挿入して音声デー
タ抽出部7に送られる.音声データ抽出部7は、パター
ンマッチング部6から送られるパターン間距離が予め設
定された基準値以上であれば、音声分析器5から送られ
た音声データのうち、距離情報とともに送られた境界情
報の間の単位音声となる区間のみを音声データメモリ2
へ送る.同時に、どの単位音声が新たに抽出されたかを
単位音声情報出力端子14へと出力する。
さて次に、全体の動作を説明する. まず、文字情報入力端子11がら単位音声の番号や音素
の時間長やピッチ周波数などを表す文字情報が制御回路
1に入力される.制御回路1は、このうち単位音声の番
号を音声データメモリ2に、韻律情報をデータ編集部3
に送り、前述のように単位音声の音声データを編集させ
、結果をバッファメモリ10を介して音声合威器4に送
らせる.この音声データを基に、音声合成器4で合成さ
れた音声は合成音声出力端子13から出力される。
一方、文字情報入力端子11から単位音声の更新処理を
行うことを指示する特殊文字が入力されたら、制御回路
1は音声分析器5、バッファメモリ10,パターンマッ
チング部6、音声データ抽出部7を制御して前記の処理
を行わせ、単位音声データを抽出する。
まず、音声入力端子12から音声が入力されると、音声
分析器5で分析され、パターンマッチング部6と音声デ
ータ抽出部7に分析結果が送られる. パターンマッチング部6では、バッファメモリ10から
送られる編集された音声データと、音声分析器5から送
られる入力音声の分析結果の音声データとのパターンマ
ッチングが行われ、パターン間の距離が音声データ抽出
部7へ送られる.この距離情報を基に、音声データ抽出
部7で音声分析部5から送られたデータから新しい単位
音声データが抽出されて、音声データメモリ2に書き込
まれるとともに、どの単位音声が抽出されたかを表す情
報が単位音声情報出力端子14から出力される. 本実施例では、文字入力としては単位音声の番号や韻律
情報を入力し合成音声が出力される構或としたが、例え
ば漢字かな混じりのテキストから音声を合成するシステ
ムは、この実施例の前処理としてテキストを解析し、読
みやアクセントを推定し、必要な単位音声を決定し韻律
情報を付与する処理を行うテキスト解析部や韻律処理部
と統合することで実現できる.また、本実施例の装置か
らは抽出された単位音声情報が出力端子から出力される
ので、その後どの単位音声を使うかの決定は外部で行う
必要がある. 次に、第2図を用いて第2の発明の実施例を説明する.
本実施例においても入出力の情報は前記第1の実施例と
同様であるとして説明する.図において、音声データメ
モリ2、データ編集部3、音声合成器4、音声分析器5
、パターンマッチング6、音声データ抽出部7は前記の
第1の実施例における構成要素と同一の動作をする.但
し、パターンマッチング部6では距離を計算するパラメ
ータが異なっており、第2の音声分析器8で分析された
データを用いる. まず、文字情報入力端子11から文字情報が制御回路1
に入力されると、単位音声の番号が音声データメモリ2
に送られ、韻律情報がデータilfI集部3に送られる
。データwJ集部3で単位音声の音声データがst&さ
れ、この音声データを基に音声合成器4で音声が合成さ
れ合成音声出力端子13から出力される. この合成音声は、さらに第2の音声分析器8に送られ、
分析結果のデータはバッファメモリ10に送られ、一次
記憶される,この間、第2の音声分析器8の入出力の信
号線はスイッチの切り替えにより音声合成器4から合成
音声を入力し、出力をバッファメモリ10に送るように
接続される。
文字情報入力端子11から単位音声の更新処理を行うこ
とを指示する特殊文字が入力されると、制御回路1は、
音声分析器5、第2の音声分析器8、バッファメモリ1
0、パターンマッチング部6、音声データ抽出部7を制
御し、単位音声データを抽出させる. まず、音声入力端子12から音声が入力されると、音声
分析器5と第2の音声分析器8で分析され、前者の分析
結果は音声データ抽出部7に送られ、後者の分析結果は
パターンマッチング部6に送られる。このときの第2の
音声分析器8の人出力の信−号線はスイッチの切り替え
により音声入力端子12から音声を入力し、分析結果を
パターンマッチング部6に送るように接続される。
パターンマッチング部6では、バッファメモリ10から
送られる合成音声の分析結果のデータと、第2の音声分
析器8から送られる入力音声の分析結果のデータとのパ
ターンマッチングが行われ、パターン間の距離が音声デ
ータ抽出部7へ送られる。この距離情報を基に、音声デ
ータ抽出部7で音声分析部5から送られたデータから新
しい単位音声データが抽出されて、音声データメモリ2
に書き込まれるとともに、どの単位音声が抽出されたか
を表す情報が単位音声情報出力端子14から出力される
. 次に、第3図を用いて本発明の第3の実施例を説明する
.第3図において、音声データメモリ2、データ編集部
3、音声合成器4、音声分析器5、パターンマッチング
部6 音声データ抽出部7は前記の第1の実施例におけ
る構成要素と同一の動作をする.但し、パターンマッチ
ング部6では、i?ili離を計算するパラメータが異
なっており、パラメータ変換器9で変換されたデータを
用いる。パラメータ変換器9は音声合成のためのパラメ
ータから音声パターンマッチングのためのパラメータに
変換する. 文字入力から音声が合成されるまでは、前記第2の実施
例と同様に行われる. データ編集部3で編集されたデータは、音声合成器4へ
送られると同時にパラメータ変換器9に送られ、ここで
変換されたデータはバッファメモリ10に一時記憶され
る.このとき、パラメータ変換器9の入出力は、スイッ
チの切り替えにより、データ編tI&部3から送られる
編集された音声データを入力し、変換結果のデータをバ
ッファメモリ10に送るように接続される. 文字情報入力端子11から単位音声の更新処理を行うこ
とを指示する特殊文字が入力されると、制御回路1は、
音声分析器5、パラメータ変換器9、バッファメモリ1
0、パターンマッチング部6、音声データ抽出部7を制
御し単位音声データを抽出させる.音声入力端子12か
ら音声が入力されると、音声分析器5で分析された結果
がパラメータ変換器9と音声データ抽出部7へ送られる
.このときのパラメータ変換器9の入出力は、スイッチ
の切り替えにより、音声分析器5から送られる分析結果
の音声データを入力し、変換結果のデータをパターンマ
ッチング部6に送るように接続される. パターンマッチング部6では、バッファメモリ10から
送られるパラメータ変換された合成音声のデータと、パ
ラメータ変換器9から送られる入力音声の分析結果をパ
ラメータ変換したデータとのパターンマッチングが行わ
れ、パターン間の距離が音声データ抽出部7へ送られる
。この距離情報を基に、音声データ抽出部7で音声分析
部5から送られたデータから新しい単位音声データが抽
出されて、音声データメモリ2に書き込まれるとともに
、どの単位音声が抽出されたかを表す情報が単位音声情
報出力端子14から出力される。
(発明の効果) 以上説明したように本発明によれば、はじめに必要最小
限の単位音声データを作戊して音声データメモリに書き
込んでおき、単語や文章の音声を合成しながらその単語
や文章を人間が実際に発声した自然音声を入力すること
で、自動的に不自然なスペクトル変化の部分を検出して
新しい単位音声データを抽出するため、自然音声から膨
大な単位音声を人手によって切り出すという作業や音素
情報をもった音声データベースを作或するという作業を
せずに合成音声の自然さを改薯することができるという
効果がある.
【図面の簡単な説明】
第1図は本発明の第1の実施例のta戒を示すブロック
図、第2図は本発明の第2の実施例の構成を示すブロッ
ク図、第3図は本発明の第3の実施例の横或を示すブロ
ック図である。 1・・・制御回路、2・・・音声データメモリ、3・・
・データ編集部、4・・・音声合成器、5・・・音声分
析器、6・・・パターンマッチング部、7・・・音声デ
ータ抽出部、8 器、■ 端子、 端子、 ・・第2の音声分析器、9・・・パラメータ変換0・・
・バッファメモリ、11・・・文字情報人力12・・・
音声入力端子、13・・・合成音声出力14・・・単位
音声情報出力端子,

Claims (3)

    【特許請求の範囲】
  1. (1)単位となる音声である単位音声を分析して得られ
    た音声データを編集し、その編集された音声データから
    音声を生成する規則型音声合成装置において、前記単位
    音声データを記憶する記憶手段と、前記記憶手段に記憶
    されている単位音声データを読み出して編集する編集手
    段と、前記編集された音声データから音声を生成する音
    声合成手段と、入力音声を分析し入力音声データを得る
    入力音声分析手段と、前記音声データと前記編集された
    音声データとの間でパターンマッチングを行いパターン
    間距離を抽出するパターンマッチング手段と、前記パタ
    ーン間距離の値に基づいて、前記入力音声データから新
    たな単位音声データを抽出し前記記憶手段に書き込む手
    段とを備えて成ることを特徴とする規則型音声合成装置
  2. (2)単位となる音声である単位音声を分析して得られ
    た音声データを編集し、その編集された音声データから
    音声を生成する規則型音声合成装置において、前記単位
    音声データを記憶する記憶手段と、前記記憶手段に記憶
    されている単位音声データを読み出して編集する編集手
    段と、前記編集された音声データから音声を生成する音
    声合成手段と、入力音声を分析し入力音声データを得る
    第1の音声分析手段と、前記入力音声および前記音声合
    成手段で生成された合成音声を分析する第2の音声分析
    手段と、前記第2の音声分析手段で分析された入力音声
    および合成音声の二種類の分析データ間のパターンマッ
    チングを行いパターン間距離を抽出するパターンマッチ
    ング手段と、前記パターン間距離の値に基づいて、前記
    第1の音声分析手段で得られた前記入力音声データから
    新たな単位音声データを抽出し前記記憶手段に書き込む
    手段とを備えて成ることを特徴とする規則型音声合成装
    置。
  3. (3)単位となる音声である単位音声を分析して得られ
    た音声データを編集し、その編集された音声データから
    音声を生成する規則型音声合成装置において、前記単位
    音声データを記憶する記憶手段と、前記記憶手段に記憶
    されている単位音声データを読み出し編集する編集手段
    と、前記編集された音声データから音声を生成する音声
    合成手段と、入力音声を分析して入力音声データを得る
    音声分析手段と、前記入力音声データおよび前記編集さ
    れた音声データを別のパラメータに変換するパラメータ
    変換手段と、前記パラメータ変換手段により変換された
    前記入力音声のデータと前記編集されたデータ相互の間
    のパターンマッチングを行いパターン間距離を抽出する
    パターンマッチング手段と、前記パターン間距離の値に
    基づいて、前記音声分析手段で得られた前記入力音声デ
    ータから新たな単位音声データを抽出し前記記憶手段に
    書き込む手段とを備えて成ることを特徴とする規則型音
    声合成装置。
JP1195156A 1989-07-27 1989-07-27 規則型音声合成装置 Expired - Lifetime JP2536169B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP1195156A JP2536169B2 (ja) 1989-07-27 1989-07-27 規則型音声合成装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP1195156A JP2536169B2 (ja) 1989-07-27 1989-07-27 規則型音声合成装置

Publications (2)

Publication Number Publication Date
JPH0358100A true JPH0358100A (ja) 1991-03-13
JP2536169B2 JP2536169B2 (ja) 1996-09-18

Family

ID=16336365

Family Applications (1)

Application Number Title Priority Date Filing Date
JP1195156A Expired - Lifetime JP2536169B2 (ja) 1989-07-27 1989-07-27 規則型音声合成装置

Country Status (1)

Country Link
JP (1) JP2536169B2 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002287785A (ja) * 2001-03-28 2002-10-04 Nec Corp 音声セグメンテーション装置及びその方法並びにその制御プログラム
JP2007256349A (ja) * 2006-03-20 2007-10-04 Oki Electric Ind Co Ltd 音声データ収録システムおよび音声データ収録方法
JP2008236717A (ja) * 2007-03-20 2008-10-02 Estec Corp スピーカー
US8131001B2 (en) 2007-08-07 2012-03-06 Onkyo Corporation Speaker diaphragm and electrodynamic loudspeaker using the same

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002287785A (ja) * 2001-03-28 2002-10-04 Nec Corp 音声セグメンテーション装置及びその方法並びにその制御プログラム
JP2007256349A (ja) * 2006-03-20 2007-10-04 Oki Electric Ind Co Ltd 音声データ収録システムおよび音声データ収録方法
JP2008236717A (ja) * 2007-03-20 2008-10-02 Estec Corp スピーカー
US8131001B2 (en) 2007-08-07 2012-03-06 Onkyo Corporation Speaker diaphragm and electrodynamic loudspeaker using the same

Also Published As

Publication number Publication date
JP2536169B2 (ja) 1996-09-18

Similar Documents

Publication Publication Date Title
US4912768A (en) Speech encoding process combining written and spoken message codes
US20090094035A1 (en) Method and system for preselection of suitable units for concatenative speech
JPH031200A (ja) 規則型音声合成装置
JPS62160495A (ja) 音声合成装置
JPH0887297A (ja) 音声合成システム
US6829577B1 (en) Generating non-stationary additive noise for addition to synthesized speech
JP2536169B2 (ja) 規則型音声合成装置
JPH08335096A (ja) テキスト音声合成装置
Kumar et al. Significance of durational knowledge for speech synthesis system in an Indian language
Takaki et al. Overview of NIT HMM-based speech synthesis system for Blizzard Challenge 2012
JP2001034284A (ja) 音声合成方法及び装置、並びに文音声変換プログラムを記録した記録媒体
EP1589524B1 (en) Method and device for speech synthesis
JP2008058379A (ja) 音声合成システム及びフィルタ装置
JP3060276B2 (ja) 音声合成装置
JPH0580791A (ja) 音声規則合成装置および方法
JP3081300B2 (ja) 残差駆動型音声合成装置
JP2703253B2 (ja) 音声合成装置
JP3397406B2 (ja) 音声合成装置及び音声合成方法
JPH05281984A (ja) 音声合成方法および装置
JP3522005B2 (ja) 音声合成装置
JP2001100777A (ja) 音声合成方法及び装置
KR100608643B1 (ko) 음성 합성 시스템의 억양 모델링 장치 및 방법
JP2956936B2 (ja) 音声合成装置の発声速度制御回路
JPH0667685A (ja) 音声合成装置
JP2862306B2 (ja) 音声認識装置