JPH1039895A - 音声合成方法および装置 - Google Patents

音声合成方法および装置

Info

Publication number
JPH1039895A
JPH1039895A JP8196635A JP19663596A JPH1039895A JP H1039895 A JPH1039895 A JP H1039895A JP 8196635 A JP8196635 A JP 8196635A JP 19663596 A JP19663596 A JP 19663596A JP H1039895 A JPH1039895 A JP H1039895A
Authority
JP
Japan
Prior art keywords
speech
type
accent
synthesized
phonemes
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP8196635A
Other languages
English (en)
Inventor
Hirofumi Nishimura
村 洋 文 西
Toshimitsu Minowa
輪 利 光 蓑
Yasuhiko Arai
居 康 彦 新
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP8196635A priority Critical patent/JPH1039895A/ja
Priority to DE69710525T priority patent/DE69710525T2/de
Priority to ES97305349T priority patent/ES2173389T3/es
Priority to EP97305349A priority patent/EP0821344B1/en
Priority to US08/897,830 priority patent/US6035272A/en
Priority to CN97115567.4A priority patent/CN1175052A/zh
Publication of JPH1039895A publication Critical patent/JPH1039895A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/06Elementary speech units used in speech synthesisers; Concatenation rules
    • G10L13/07Concatenation rules
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/02Methods for producing synthetic speech; Speech synthesisers
    • G10L13/04Details of speech synthesis systems, e.g. synthesiser structure or memory management

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Machine Translation (AREA)
  • Document Processing Apparatus (AREA)
  • Telephonic Communication Services (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

(57)【要約】 【課題】 音声片を変形、接続して音声を合成する音声
合成装置において、音声片の加工の際に音質が劣化する
のを防止する。 【解決手段】 音声片を加工、接続して音声を合成する
装置において、音声片を選択する際に、音声片が基の音
声のどの位置から切り出されているかを、基となる音声
のアクセント型とアクセント核の位置により決定し、韻
律の近い音声片を利用することにより音声片を加工する
際の音質の劣化を抑えることができる。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、音声合成方法およ
び装置に関し、特にテキストを音声に変換する音声合成
方法およびその装置に関する。
【0002】
【従来の技術】従来、音声片を接続して音声を合成する
音声合成方法において、その音声片のデータベースに
は、例えば「VCVを基本単位とする波形規則合成方式
の検討」(社)電子情報通信学会技術研究報告書SP9
6−8に開示されているように、アクセント型について
は特に留意されず、様々なアクセント型の音声が利用さ
れていた。
【0003】
【発明が解決しようとする課題】しかしながら、従来の
音声合成方法では、合成音声のピッチ周波数とデータベ
ース上にある音声片のピッチ周波数が大きく異なる場合
に、音声片のピッチ周波数を修正する際に音質が劣化す
るという問題があった。
【0004】本発明は、このピッチ周波数を修正する際
の音質の劣化を最小限に抑えることのできる音声合成方
法および装置を提供することを目的とする。
【0005】
【課題を解決するための手段】上記目的を達成するため
に、本発明は、合成する音声のピッチ周波数の時間変化
パターンと音声片のピッチ周波数の時間変化パターンが
近くなるように、音声片の基になる音声データを0型ア
クセントと1型アクセントで発声することにより合成音
声のピッチ周波数変動範囲をカバーするのに十分な音声
片の種類を確保し、合成する音声のアクセント型と当該
音声が使用される位置に応じて適切な音声片を選択する
ことにより、ピッチ周波数制御の際に起こる音質の劣化
を最小限に抑え、高い品質の合成音声が得られるように
したものである。
【0006】
【発明の実施の形態】本発明の請求項1に記載の発明
は、単語あるいは文節を0型アクセントと1型アクセン
トで発声したものをその発音表記(発音記号、ローマ
字、かな文字などによる声音の表記)とともに多数蓄積
した波形データベースを有し、これらの音声を母音の定
常部または無声子音の直前で区切り音声片として抽出で
きるようにし、これらの音声片を変形、接続して音声を
合成する際、合成すべき音声の発音表記と、音声片の発
音表記をもとに最長一致法などで検索して、検索された
音声片のうち0型アクセントのものを使用するのか1型
アクセントのものを使用するのかを、合成する音声のア
クセント型と合成する音声内で当該音声片が使用される
位置によって決定する音声合成方法であり、複雑な計算
をすることなくピッチ周波数の時間変化パターンの似て
いる音声片を選択することができ、ピッチ周波数の変更
に伴う音質の劣化を最小限に抑え、高い品質の合成音声
を得ることができるという作用を有する。
【0007】請求項2に記載の発明は、0型アクセント
と1型アクセントで発声した単語あるいは文節から構成
した音声片のアクセント型を示すデータと音声片の発音
表記を示すデータとその音声片を区切ることができる位
置を示すデータとを含む音声波形データベースと、合成
する音声の発音表記文字列と韻律情報を格納する手段
と、格納された発音表記文字列により音声波形データベ
ースから音声片の候補を検索する音声片候補検索手段
と、検索された音声片候補の中から実際に利用する音声
片を、合成する音声のアクセント型と音声片が使用され
る位置とから決定する手段とを備えた音声合成装置であ
り、少ない計算処理量で高い品質の合成音声を得ること
ができるという作用を有する。
【0008】請求項3に記載の発明は、0型アクセント
および1型アクセントで発声された2音節連鎖または3
音節連鎖を2回繰り返した単語音声により波形データベ
ースを構成した請求項1に記載の音声合成方法であり、
おおむね、VCVまたはVVCVという音韻連鎖(Vは
母音および撥音、Cは子音)のみで非常に効率よく波形
データベースを構築することができるという作用を有す
る。
【0009】請求項4に記載の発明は、2音節連鎖また
は3音節連鎖を2回繰り返した音声を0型アクセントと
1型アクセントで発声し、これらを用いて波形データベ
ースを構築する請求項3に記載の音声合成装置であり、
効率よくデータベースを構築することができるので、デ
ータベースのサイズを小さくすることができるという作
用を有する。
【0010】以下、本発明の実施の形態について、図1
から図10を用いて説明する。 (実施の形態1)図1は本発明の請求項1に対応する実
施の形態1における音声合成方法を説明するための音声
片選択の様子を示す特性図である。本実施の形態では、
単語あるいは文節を0型アクセントと1型アクセントで
発声したものをその発音表記とともに多数蓄積して波形
データベースとし、これらの音声を母音の定常部または
無声子音の直前で区切って抽出できるようにする。この
音声片を発音表記をもとに、合成すべき音声の表記との
間で最長一致法などで検索する。検索された音声片のう
ち0型アクセントのものを使用するのか1型アクセント
のものを使用するのかを、合成する音声のアクセント型
と当該音声片が使用される合成音中の位置によって決定
する。
【0011】以下、図1を参照して本実施の形態におけ
る音声合成方法について説明する。この例では「横浜
市」の合成における音声片選択の様子を示す。まず、図
1(a)の「よこはまし」という発音表記をもとに、デ
ータベースから最長一致法などを用いて音声片の長さを
決定する。この例では、「横浜区」という音声片の「よ
こはま」まで一致している場合を示している。次に、ピ
ッチ変動により0型アクセントのものを用いるのか、1
型アクセントのものを用いるのかを決定する。図1
(b)は1型アクセントで発声された「横浜区」、図1
(c)は0型アクセントで発声された「横浜区」のピッ
チ周波数の変化を示す。ここでは、発音表記としてロー
マ字を用いる。合成しようとする音声の「横浜市」のピ
ッチ周波数は図1(a)の実線で示される通り、yoで
上昇している。そこで、上昇するピッチ周波数を持つ0
型アクセントで発声された「横浜区」の第一音節yoか
ら第五音節kuの子音直前までを使用する。ashiの
部分ではアクセント核がありピッチ周波数が降下するた
め、図1(e)の0型ではなく、図1(d)の1型で発
声された「足柄」のashiの部分を使用する。このよ
うに、合成しようとする音声のピッチ周波数に最も近
く、発音表記が一致する音声片を選択する。
【0012】(実施の形態2)図2は本発明の請求項2
に対応する実施の形態2における合成音声装置の構成を
示す。図2において、100はホスト側から与えられる
発音を表記する文字列とアクセント型等の韻律情報を格
納するための入力バッファ、101は発音表記から合成
単位の検索を行う合成単位選択部、1011は入力バッ
ファ100の文字列中のどこから合成単位となる音声片
の検索を始めなければならないかを示す選択開始ポイン
タ、102は合成単位選択部101で選択された合成単
位の情報を保持するための合成単位選択バッファ、10
3は検索ルールテーブル104によって音声片を決定す
る使用音声片選定部、105は0型アクセントと1型ア
クセントで発声した単語あるいは文節から構成した音声
波形データベース、106はヘッダ情報から実際に音声
片を抜き出す音声片切り出し部、107は音声片切り出
し部106で切り出された音声片を合成する音声の韻律
に合わせるための音声片加工部、108は音声片加工部
107で加工された音声片を接続する音声片接続部、1
081はその接続処理用に加工済み音声片を一時的に格
納する接続用バッファ、109は音声片接続部108か
ら出力された合成音声を格納する合成音声格納バッフ
ァ、110は合成音声出力部である。111は入力バッ
ファ100に格納された文字と韻律情報から合成音声の
ピッチ周波数と音韻継続時間長を計算して音声片加工部
107に出力する韻律計算部である。
【0013】図3は図2の検索ルールテーブル104の
内容を示している。図2の合成単位選択バッファ102
に候補として挙げられた音声合成単位に対し、このテー
ブルにより音声片が決定される。まず、合成する音声が
1型アクセントかそれ以外かと、当該音声片が合成する
音声の中で適用される位置により、参照する欄が決ま
る。start の欄は音声データから音声片の切り出しを開
始する位置を示し、endは音声片の切り出しの際の最長
一致法の検索範囲終了位置を示す。表中の数字は2桁で
構成されており、十の位の数字が0の時は0型アクセン
トの音声から音声片を切り出し、1の時は1型アクセン
トの音声から音声片を切り出すことを意味する。一の位
の数字は音声の音節位置を示し、1の場合は1音節目、
2の場合は2音節目を意味する。ただし、end の欄で0
の場合は文節の最後の音節までを最長一致法の検索範囲
に含めることを意味し、*印の場合は合成する音声のア
クセント核を含まない位置までの発音表記を検索の対象
とする。
【0014】図4は波形データベース105のデータ構
造を示している。ヘッダ部1051には、音声片の発音
の際のアクセント型(0または1)を示すデータ105
2と、登録された音声の発音表記を示すデータ1053
と、音声片として区切ることのできる位置を示すデータ
1054が格納されている。また音声波形部1055に
は、音声片を切り出す前の音声波形データが格納されて
いる。
【0015】図5は入力バッファ100のデータ構造を
示している。ここには、発音表記が文字列で入力され、
さらに、モーラ数とアクセント型の韻律情報が数字で入
力される。発音表記はローマ字で記述し、韻律情報は2
桁の数字で構成し、十の位は単語のモーラ数、一の位は
アクセント型を記述する。
【0016】以下、本実施の形態における動作を図6の
フロー図を参照して説明する。まずホストからの発音表
記文字列と韻律情報を入力バッファ101に取り込む
(ステップ201)。次に、最長一致法により発音表記
を分割する(ステップ202)。分割された発音表記が
単語中でどの位置で利用されるかを調べる(ステップ2
03)。入力バッファ101に格納された発音表記文字
列(ここではローマ字を用いる)が例えばyokoha
mashiの場合、波形データベース105のヘッダ部
の発音表記群中で、yoで始まるものが合成単位選択部
101によって検索される。この場合、例えば「横
手」のyo、「横浜区」のyoが検索されたとする。次
に、この2つに対し、2文字目のkoまで一致するかチ
ェックがなされ、「横浜区」のyoko選ばれる。同様
に検索が進み、最終的にyokohamaが合成単位候
補となる。次に、合成単位選択部101はこの、yok
ohamaが「横浜市」の最初の音声片であり、「横浜
市」が1型以外のアクセント(4型である)であるた
め、検索ルールテーブル104の「1型以外アクセント
用、語頭、スタート、エンド」の欄を調べ、0型で発声
した「横浜区」の1音節目から4音節目までを切り出し
候補とする。この情報は使用音声選定部103に渡され
る。使用音声選定部103は、波形データベース105
のヘッダ部1051にある0型発声の「横浜区」の1音
節目と4音節目の区切り位置データ1054を調べ、波
形切り出し開始点をyoの先頭、波形切り出し終了点を
無声子音の前にセットする(ステップ204)。この時
点で、選択開始ポインタ1011はshiのsを指す。
以上の処理を分割した全ての発音表記について行なう
(ステップ205)。一方、韻律計算部111は、入力
バッファ100の韻律情報から音声片のピッチパター
ン、デュレーションおよびパワーを計算する(ステップ
206)。使用音声片選定部103で決定された音声片
は、音声片切り出し部106に渡され、波形が切り出さ
れ(ステップ207)、音声片加工部107に渡され、
韻律計算部111で計算された所望のピッチ周波数と音
韻継続時間長に合うように加工され(ステップ20
8)、音声片接続部108に渡されて接続処理が行われ
る(ステップ209)。文節中で最初の場合には、接続
すべき対象がないため、次の音声片との接続に備え、接
続用バッファにコピーされた後、合成音声格納バッファ
109に出力される(ステップ210)。次に、合成単
位選択部101は、入力バッファ100の選択開始ポイ
ンタがshiのsを指しているため、波形データベース
105のヘッダ部1051の発音表記群中でshiが含
まれるものが検索される。以下、同様にして上記の操作
を繰り返し音声合成を行う(ステップ211)。
【0017】(実施の形態3)次に、請求項3および4
に対応する本発明について具体的に説明する。本実施の
形態3では、波形データベース105を、図7に示すよ
うに語頭用音節と母音−子音−母音連鎖(VCV)、ま
たは母音−撥音−子音−母音連鎖(VNCV)を2回繰
り返したものを0型アクセントと1型アクセントで発声
したものから作成し、ここでは波形切り出し位置を母音
定常部のみとする。「横浜市」の合成における音声選択
の様子を図8を用いて説明する。また、ここでは、発音
表記としてローマ字を使用する。
【0018】2音節yoyoの連鎖波形が0型アクセン
トと1型アクセントで波形データベース105中に存在
し、合成する音声のアクセント型が4型であるので、語
頭に関しては0型と同じピッチ変動である。したがって
0型で発声したyoyoyoyoの第1音節のyoを先
頭の音声片とする。
【0019】次のokoは、図9に示すように、0型ア
クセントで発声した単語okookoの前半と後半のo
koが2種類と、1型アクセントで発声した単語oko
okoの前半と後半のokoが2種類あり、全部で4種
類のokoがある。合成すべき音声のピッチ周波数は、
この音声片の間で上昇するピッチ変動であるため、これ
ら4種類のokoのうち、上昇パターンであり、最も合
成すべきピッチ周波数に近い0型アクセントで発声した
okookoの1番目のoko(type0)を選択する。
【0020】その次のohaは、この間でピッチ周波数
が高い位置にあるので、0型アクセントと1型アクセン
トで発声したohaohaから得られる合計4種類のo
haのうち、ピッチ周波数が高い位置にある0型アクセ
ントによるohaohaの2番目のoha(type1)が
最も合成すべきピッチ周波数に近いので、これを選択す
る。ohaと同様にして、0型で発声されたamaam
aの2番目のamaを選択する。
【0021】ashiに関しては、“よこはまし”が4
型アクセントであるため、ashiの間でピッチ周波数
が降下する。そこで、0型アクセントと1型アクセント
で発声されたashiashiから得られる合計4種類
のashiのうち、ピッチ周波数が降下する1型アクセ
ントによるashiashiの1番目のashi(type
2)が最も合成すべきピッチ周波数に近いので、これを
選択する。このようにして選択した音声片を加工、接続
して音声を合成する。
【0022】なお、2音節または3音節を2回繰り返し
た単語から音声片データベースを構築しているが、2音
節連鎖の音声を3型アクセントで発声し、前半でtype
0、後半でtype2の音声片を得ると言うように、0型ア
クセントと1型アクセント以外のアクセント型のセット
でデータベースを構築できることは言うまでもない。さ
らに、2音節連鎖または3音節連鎖の前後に適当な音声
を挿入して発声した音声から切り出された合成単位を用
いても、上記が実施可能であるのは言うまでもない。
【0023】さらに、データベースになる音声は2連鎖
音節または3連鎖音節を2回繰り返した単語を0型アク
セントと1型アクセントで発声しているため、1つのV
CV発音表記に対して図5に示す4タイプのVCV音声
片が必ず存在している。したがって、合成音声のピッチ
周波数の時間変化をカバーするのに必要な音声片が全て
揃う。一方、音声片選択規則は最長一致法などを必要と
せず、単純に発音表記をVCV単位に分割して、図10
の検索テーブルを使って音声片を決定することもでき
る。
【0024】
【発明の効果】以上のように、本発明によれば、音声片
の韻律の変更を小さくすることができるので、韻律変更
による音質の劣化が抑制されるという効果が得られる。
【図面の簡単な説明】
【図1】本発明の実施の形態1における音声片選択の様
子を示す特性図
【図2】本発明の実施の形態2における音声合成装置の
構成を示すブロック図
【図3】同装置における検索ルールテーブルを示す一覧
【図4】同装置における波形データベースに登録される
音声片のデータ構造を示す模式図
【図5】同装置における入力バッファに格納される情報
の構造を示す模式図
【図6】同装置における動作を示すフロー図
【図7】本発明の実施の形態3における波形データベー
スに格納する音声片を示す一覧図
【図8】本発明の実施の形態3における音声片選択の様
子を示す特性図
【図9】本発明の実施の形態3における音声片のタイプ
を示す一覧図
【図10】本発明の実施の形態3における検索テーブル
を示す一覧図
【符号の説明】
100 入力バッファ 101 合成単位選択部 1011 検索開始ポインタ 102 合成単位選択バッファ 103 使用音声片選定部 104 検索ルールテーブル 105 波形データベース 106 音声片切り出し部 107 音声片加工部 108 音声片接続部 1081 接続用バッファ 109 合成音声格納バッファ 110 合成音声出力部 111 韻律計算部 1051 ヘッダ部 1052 アクセント型データ 1053 発音表記データ 1054 区切り位置データ 1055 音声波形部

Claims (4)

    【特許請求の範囲】
  1. 【請求項1】 単語あるいは文節を0型アクセントと1
    型アクセントで発声したものをその発音表記とともに多
    数蓄積した波形データベースを有し、これらの音声を母
    音の定常部または無声子音の直前で区切り音声片として
    抽出できるようにし、これらの音声片を変形、接続して
    音声を合成する際、合成すべき音声の発音表記と、音声
    片の発音表記をもとに最長一致法などで検索して、検索
    された音声片のうち0型アクセントのものを使用するの
    か1型アクセントのものを使用するのかを、合成する音
    声のアクセント型と合成する音声内で当該音声片が使用
    される位置によって決定する音声合成方法。
  2. 【請求項2】 0型アクセントと1型アクセントで発声
    した単語あるいは文節から構成した音声片のアクセント
    型を示すデータと音声片の発音表記を示すデータとその
    音声片を区切ることができる位置を示すデータとを含む
    音声波形データベースと、合成する音声の発音表記文字
    列と韻律情報を格納する手段と、前記格納された発音表
    記文字列により前記音声波形データベースから音声片の
    候補を検索する音声片候補検索手段と、検索された音声
    片候補の中から実際に利用する音声片を、合成する音声
    のアクセント型と音声片が使用される位置とから決定す
    る手段とを備えた音声合成装置。
  3. 【請求項3】 0型アクセントおよび1型アクセントで
    発声された2音節連鎖または3音節連鎖を2回繰り返し
    た単語音声によって波形データベースを構成した請求項
    1に記載の音声合成方法。
  4. 【請求項4】 2音節連鎖または3音節連鎖を2回繰り
    返した音声を0型アクセントと1型アクセントで発声
    し、これらを用いて音声波形データベースを構築する請
    求項2に記載の音声合成装置。
JP8196635A 1996-07-25 1996-07-25 音声合成方法および装置 Pending JPH1039895A (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
JP8196635A JPH1039895A (ja) 1996-07-25 1996-07-25 音声合成方法および装置
DE69710525T DE69710525T2 (de) 1996-07-25 1997-07-17 Verfahren und Vorrichtung zur Sprachsynthese
ES97305349T ES2173389T3 (es) 1996-07-25 1997-07-17 Procedimiento y dispositivo para la sintesis de señales vocales.
EP97305349A EP0821344B1 (en) 1996-07-25 1997-07-17 Method and apparatus for synthesizing speech
US08/897,830 US6035272A (en) 1996-07-25 1997-07-21 Method and apparatus for synthesizing speech
CN97115567.4A CN1175052A (zh) 1996-07-25 1997-07-25 语音合成方法和设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP8196635A JPH1039895A (ja) 1996-07-25 1996-07-25 音声合成方法および装置

Publications (1)

Publication Number Publication Date
JPH1039895A true JPH1039895A (ja) 1998-02-13

Family

ID=16361051

Family Applications (1)

Application Number Title Priority Date Filing Date
JP8196635A Pending JPH1039895A (ja) 1996-07-25 1996-07-25 音声合成方法および装置

Country Status (6)

Country Link
US (1) US6035272A (ja)
EP (1) EP0821344B1 (ja)
JP (1) JPH1039895A (ja)
CN (1) CN1175052A (ja)
DE (1) DE69710525T2 (ja)
ES (1) ES2173389T3 (ja)

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3587048B2 (ja) * 1998-03-02 2004-11-10 株式会社日立製作所 韻律制御方法及び音声合成装置
JP3180764B2 (ja) * 1998-06-05 2001-06-25 日本電気株式会社 音声合成装置
JP3644263B2 (ja) * 1998-07-31 2005-04-27 ヤマハ株式会社 波形形成装置及び方法
US6601030B2 (en) * 1998-10-28 2003-07-29 At&T Corp. Method and system for recorded word concatenation
JP3361066B2 (ja) * 1998-11-30 2003-01-07 松下電器産業株式会社 音声合成方法および装置
EP1163663A2 (en) 1999-03-15 2001-12-19 BRITISH TELECOMMUNICATIONS public limited company Speech synthesis
US7369994B1 (en) 1999-04-30 2008-05-06 At&T Corp. Methods and apparatus for rapid acoustic unit selection from a large speech corpus
JP3361291B2 (ja) * 1999-07-23 2003-01-07 コナミ株式会社 音声合成方法、音声合成装置及び音声合成プログラムを記録したコンピュータ読み取り可能な媒体
DE19942171A1 (de) * 1999-09-03 2001-03-15 Siemens Ag Verfahren zur Satzendebestimmung in der automatischen Sprachverarbeitung
JP2001100776A (ja) * 1999-09-30 2001-04-13 Arcadia:Kk 音声合成装置
GB0029022D0 (en) * 2000-11-29 2001-01-10 Hewlett Packard Co Locality-dependent presentation
US20040030555A1 (en) * 2002-08-12 2004-02-12 Oregon Health & Science University System and method for concatenating acoustic contours for speech synthesis
DE04735990T1 (de) * 2003-06-05 2006-10-05 Kabushiki Kaisha Kenwood, Hachiouji Sprachsynthesevorrichtung, sprachsyntheseverfahren und programm
US7577568B2 (en) * 2003-06-10 2009-08-18 At&T Intellctual Property Ii, L.P. Methods and system for creating voice files using a VoiceXML application
JP4080989B2 (ja) * 2003-11-28 2008-04-23 株式会社東芝 音声合成方法、音声合成装置および音声合成プログラム
US8666746B2 (en) * 2004-05-13 2014-03-04 At&T Intellectual Property Ii, L.P. System and method for generating customized text-to-speech voices
CN1787072B (zh) * 2004-12-07 2010-06-16 北京捷通华声语音技术有限公司 基于韵律模型和参数选音的语音合成方法
JP4551803B2 (ja) * 2005-03-29 2010-09-29 株式会社東芝 音声合成装置及びそのプログラム
US20070038455A1 (en) * 2005-08-09 2007-02-15 Murzina Marina V Accent detection and correction system
US7924986B2 (en) * 2006-01-27 2011-04-12 Accenture Global Services Limited IVR system manager
US20080027725A1 (en) * 2006-07-26 2008-01-31 Microsoft Corporation Automatic Accent Detection With Limited Manually Labeled Data
CN101261831B (zh) * 2007-03-05 2011-11-16 凌阳科技股份有限公司 一种音标分解与合成方法
US8321222B2 (en) * 2007-08-14 2012-11-27 Nuance Communications, Inc. Synthesis by generation and concatenation of multi-form segments
FR2993088B1 (fr) * 2012-07-06 2014-07-18 Continental Automotive France Procede et systeme de synthese vocale

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2761552B2 (ja) * 1988-05-11 1998-06-04 日本電信電話株式会社 音声合成方法
DE69028072T2 (de) * 1989-11-06 1997-01-09 Canon Kk Verfahren und Einrichtung zur Sprachsynthese
JP3070127B2 (ja) * 1991-05-07 2000-07-24 株式会社明電舎 音声合成装置のアクセント成分制御方式
JP3083640B2 (ja) * 1992-05-28 2000-09-04 株式会社東芝 音声合成方法および装置
JPH06250691A (ja) * 1993-02-25 1994-09-09 N T T Data Tsushin Kk 音声合成装置
JPH07152392A (ja) * 1993-11-30 1995-06-16 Fujitsu Ltd 音声合成装置
JP3450411B2 (ja) * 1994-03-22 2003-09-22 キヤノン株式会社 音声情報処理方法及び装置
JPH07319497A (ja) * 1994-05-23 1995-12-08 N T T Data Tsushin Kk 音声合成装置
JPH086591A (ja) * 1994-06-15 1996-01-12 Sony Corp 音声出力装置
JPH0863190A (ja) * 1994-08-17 1996-03-08 Meidensha Corp 音声合成装置の文末制御方法
JP3085631B2 (ja) * 1994-10-19 2000-09-11 日本アイ・ビー・エム株式会社 音声合成方法及びシステム
SE514684C2 (sv) * 1995-06-16 2001-04-02 Telia Ab Metod vid tal-till-textomvandling

Also Published As

Publication number Publication date
DE69710525T2 (de) 2002-07-18
US6035272A (en) 2000-03-07
EP0821344A2 (en) 1998-01-28
EP0821344A3 (en) 1998-11-18
ES2173389T3 (es) 2002-10-16
CN1175052A (zh) 1998-03-04
EP0821344B1 (en) 2002-02-20
DE69710525D1 (de) 2002-03-28

Similar Documents

Publication Publication Date Title
JPH1039895A (ja) 音声合成方法および装置
US8566099B2 (en) Tabulating triphone sequences by 5-phoneme contexts for speech synthesis
US7565291B2 (en) Synthesis-based pre-selection of suitable units for concatenative speech
US6778962B1 (en) Speech synthesis with prosodic model data and accent type
US6208968B1 (en) Computer method and apparatus for text-to-speech synthesizer dictionary reduction
JP3587048B2 (ja) 韻律制御方法及び音声合成装置
JPH10116089A (ja) 音声合成用の基本周波数テンプレートを収容する韻律データベース
JP2761552B2 (ja) 音声合成方法
US6847932B1 (en) Speech synthesis device handling phoneme units of extended CV
KR970002706A (ko) 한국어 텍스트/음성 변환 방법
Fotinea et al. Constructing a segment database for greek time domain speech synthesis
JP2880507B2 (ja) 音声合成方法
JPH08160983A (ja) 音声合成装置
JP2675883B2 (ja) 音声合成方式
JP2000172286A (ja) 中国語音声合成のための同時調音処理装置
Yiourgalis et al. Text-to-speech system for Greek
JPH07134596A (ja) 音声合成用音声持続時間処理方法及びその装置
JPH1097290A (ja) 音声合成装置
JP2003308084A (ja) 音声合成方法および音声合成装置
JPH1097289A (ja) 音声素片選択方法,音声合成装置,及び命令記憶媒体
Krivnova Main Principles and Overall Structure of TTS system for Russian Language
Hojjatkhah et al. Segmentation Words for Speech Synthesis in Persian Language Based On Silence
Morris et al. Speech Generation
Shih et al. DESIGN AND IMPLEMENTATION OF A GREEK TEXT-TO-SPEECH SYSTEM BASED ON CONCATENATIVE SYNTHESIS
JP2002297172A (ja) 音声合成方法、および音声合成装置