JP2000187495A - 音声合成法方法、装置、および音声合成プログラムを記録した記録媒体 - Google Patents

音声合成法方法、装置、および音声合成プログラムを記録した記録媒体

Info

Publication number
JP2000187495A
JP2000187495A JP10363283A JP36328398A JP2000187495A JP 2000187495 A JP2000187495 A JP 2000187495A JP 10363283 A JP10363283 A JP 10363283A JP 36328398 A JP36328398 A JP 36328398A JP 2000187495 A JP2000187495 A JP 2000187495A
Authority
JP
Japan
Prior art keywords
speaker
information
generating
reading
word dictionary
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP10363283A
Other languages
English (en)
Other versions
JP3576848B2 (ja
Inventor
Keiko Inagaki
敬子 稲垣
Yukio Mitome
幸夫 三留
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP36328398A priority Critical patent/JP3576848B2/ja
Publication of JP2000187495A publication Critical patent/JP2000187495A/ja
Application granted granted Critical
Publication of JP3576848B2 publication Critical patent/JP3576848B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

(57)【要約】 【課題】 話者の個人性を考慮した発音情報を生成す
る。 【解決手段】 話者別単語辞書3には、各単語の見出
し、品詞、読みとアクセント位置が記憶されている。音
声情報データ6には、話者別単語辞書3を作成した話者
が発声した文や単語から抽出された韻律パターンと音声
波形が、テキスト情報と発音情報、ラベル情報とともに
記憶されている。テキスト解析部2は入力端子1から入
力された入力テキストに対して話者別単語辞書3を用い
て読みとアクセント、ポーズからなる発音情報を生成す
る。韻律情報生成部4はテキスト解析部2で生成された
発音情報に基づいて、イントネーションやリズムのパタ
ンを、音声情報データ6に記憶されている規則やパタン
から生成する。合成音声生成部5は、発音情報と韻律情
報に基づいて音声情報データ6に記憶されている音声パ
タンを用いて合成音声を生成し、出力端子7から出力す
る。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、テキストに基づい
て合成音声を生成する音声合成方法および装置に関す
る。
【0002】
【従来の技術】従来、日本語テキストを音声に変換する
音声合成装置として様々の装置が開発されている。現在
では、より高品質な合成のために、合成音声の個人性の
向上が多く望まれている。個人性とは、合成音声が画一
的でなく、その人らしさを再現するものであり、あたか
も本人が話しているかのような合成音声を生成するため
には重要な要素である。この合成音声の個人性を向上さ
せる合成装置の従来例として特開平8―87297(従
来例1)がある。
【0003】図7は、この従来例1の音声合成装置の概
略構成を示すブロック図であり、任意の入力テキストを
合成音声に出力する場合を示している。この従来の音声
合成装置は音声情報検索部21と音声情報データベース
22と合成音声生成部23と合成音声生成規則24とか
ら構成されている。
【0004】音声情報検索部21は、テキストまたは発
音記号列が入力されると、自然音声を分析し、抽出した
音声特徴量およびこれに対応する発声内容を格納した音
声情報データベース22中に、入力テキストまたは発音
記号列に一致する発声内容が存在するか否かを検索し、
一致する発声内容が存在する場合は、これを合成音声生
成部23へ渡し、音声情報に応じた処理を施して合成音
声を生成する。また、音声情報検索部21は一致する発
声内容が存在しない場合には、入力テキストまたは入力
表音記号列をそのまま合成音声生成部23へ渡し、合成
音声生成部23は合成音声生成規則24に基づいて合成
音声を生成する。このように、音声情報データベース2
2にあらかじめ自然音声を記憶させておき、発声させた
い内容と同じものが音声情報データベース22にある場
合には、音声合成を行わず自然音声を出力することで、
元の話者の個人性を含む合成音声を生成している。
【0005】また、他の従来例として、特開平10―1
53998(従来例2)がある。これは、自然音声を補
助情報として使用し、規則合成により音声を合成する装
置で、単語辞書を参照して入力テキストの解析により得
た単語系列の各単語の音素系列に対する韻律情報を設定
し、音声波形辞書を参照して各単語の音素系列から音素
波形系列を求めている。また、入力自然音声から韻律情
報を抽出し、設定された韻律情報と抽出された韻律情報
のいずれかを選択し、その選択された韻律情報により音
声波形系列を制御し、合成音声を生成している。このよ
うに自然音声から抽出された韻律情報には、元の話者の
イントネーションや発声速度などの個人性が含まれてい
る。
【0006】
【発明が解決しようとする課題】従来例1の音声合成装
置では、自然音声から抽出した音声波形をそのまま使用
することで、合成音声の個人性を向上させている。ま
た、従来例2の音声合成装置では、自然音声から抽出し
た韻律パタンをそのまま用いて、元の話者の話し方を再
現することで個人性を向上させている。しかし、従来例
1、2では、一致する文が記憶したデータにない場合に
は、規則によりそれらを生成するため、自然音声から抽
出したパタンを使った合成音声と比較すると個人性は劣
化してしまう。従来例1、2において個人性を向上させ
るためには、膨大なデータが必要であり、すべての文を
網羅するパタンを用意することは困難である。また、従
来例1、2では、入力テキストを解析し、その発音情報
を単語辞書を用いて生成するが、この単語辞書は、どの
話者データに対しても共通であるため、テキストの解析
結果も同じである。しかし、たとえ同一の文であって
も、実際には発音情報が話者により微妙に異なることは
多々ある。この違いは、従来例1や2の方法では、対処
することができない。合成音声をより一層元の話者の発
声に近づけるためには、この発音情報を生成する時にも
個人性を考慮する必要がある。
【0007】本発明の目的は、合成音声の個人性を向上
させるために、話者の個人性を考慮した発音情報を生成
することができる音声合成方法および装置を提供するこ
とにある。
【0008】
【課題を解決するための手段】本発明の第1の音声合成
方法は、入力テキストに対し、話者の話すとおりの読み
とアクセントを持つ話者別単語辞書を用いて音韻情報を
生成するテキスト解析段階と、入力テキストの韻律情報
を生成する韻律情報生成段階と、音韻情報と前記韻律情
報に基づいて合成音声を生成する合成音声生成段階とを
有する。
【0009】本発明の第1の音声合成装置は、話者の話
すとおりの読みとアクセントを持つ話者別単語辞書と、
入力テキストに対して前記話者別単語辞書を用いて音韻
情報を生成するテキスト解析手段と、入力テキストの韻
律情報を生成する韻律情報生成手段と、音韻情報と韻律
情報に基づいて合成音声を生成する合成音声生成手段を
有する。
【0010】本発明の第2の音声合成法方法は、第1の
音声合成法方法において、話者別単語辞書が話者毎に存
在し、テキスト解析段階で、入力された話者情報から話
者別単語辞書を切り替える。
【0011】本発明の第2の音声合成装置は、話者の話
すとおりの読みとアクセントを持つ、話者毎の話者別単
語辞書と、入力された話者情報から話者別単語辞書を切
り替え、入力テキストに対して該話者別単語辞書を用い
て音韻情報を生成するテキスト解析手段と、入力テキス
トの韻律情報を生成する韻律情報生成手段と、音韻情報
と韻律情報に基づいて合成音声を生成する合成音声生成
手段を有する。
【0012】本発明の第3の音声合成方法は、入力テキ
ストに対し、国語辞典に記述されている通常の読みを持
つ単語辞書と、その読みを話読特有の読みに変換する読
み変換手段を用いて音韻情報を生成するテキスト解析段
階と、入力テキストの韻律情報を生成する韻律情報生成
段階と、記音律情報と韻律情報に基づいて合成音声を生
成する合成音声生成段階とを有する。
【0013】本発明の第3の音声合成装置は、国語辞典
に記述されている通常の読みを持つ単語辞書と、単語辞
書の読みを話者特有の読みに変換する読み変換手段と、
入力テキストに対して単語辞書と読み変換手段を用いて
音韻情報を生成するテキスト解析手段と、入力テキスト
の韻律情報を生成する韻律情報生成手段と、音韻情報と
韻律情報に基づいて合成音声を生成する合成音声生成手
段とを有する。
【0014】本発明の第4の音声合成方法は、入力テキ
ストに対して、国語辞典に記述されている通常の読みを
持つ単語辞書と、その読みを話読特有の読みに変換す
る、話者毎の読み変換手段を用いて、話者毎に読み変換
手段を切り替えて音韻情報情報を生成するテキスト解析
段階と、入力テキストの韻律情報を生成する韻律情報生
成段階と、音韻情報と韻律情報に基づいて合成音声を生
成する合成音声生成段階とを有する。
【0015】本発明の第4の音声合成装置は、国語辞典
に記述されている通常の読みを持つ単語辞書と、単語辞
書の読みを話者特有の読みに変換する、話者毎の読み変
換手段と、入力された話者情報から読み変換手段を切り
替え、入力テキストに対して単語辞書と読み変換手段を
用いて音韻情報を生成するテキスト解析手段と、入力テ
キストの韻律情報を生成する韻律情報生成手段と、音韻
情報と韻律情報に基づいて合成音声を生成する合成音声
生成手段を有する。
【0016】本発明の第5の音声合成方法は、入力テキ
ストに対して、話者の話すとおりの読みとアクセントを
持つ話者別単語辞書と、該話者別単語辞書の読みから話
者特有の読みに変換する読み変換手段を用いて、音韻情
報を生成するテキスト解析段階と、入力テキストの韻律
情報を生成する韻律情報生成段階と、音韻情報と韻律情
報に基づいて合成音声を生成する合成音声生成段階とを
有する。
【0017】本発明の第5の音声合成装置は、話者の話
すとおりの読みとアクセントを持つ話者別単語辞書と、
該話者別単語辞書の読みから話者特有の読みに変換する
読み変換手段と、入力テキストに対して、話者別単語辞
書と読み変換手段を用いて、音韻情報を生成するテキス
ト解析手段と、入力テキストの韻律情報を生成する韻律
情報生成手段と、音韻情報と韻律情報に基づいて合成音
声を生成する合成音声生成手段とを有する。
【0018】本発明の第6の音声合成方法は、入力テキ
ストに対して、話者の話すとおりの読みとアクセントを
持つ、話者毎の話者別単語辞書と、該話者別単語辞書の
読みから話者特有の読みに変換する、話者毎の読み変換
手段を用いて、話者毎に話者別単語辞書と読み変換手段
を切り替えて、音韻情報を生成するテキスト解析段階
と、入力テキストの韻律情報を生成する韻律情報生成段
階と、音韻情報と韻律情報に基づいて合成音声を生成す
る合成音声生成段階とを有する。
【0019】本発明の第6の音声合成装置は、話者の話
すとおりの読みとアクセントを持つ、話者毎の話者別単
語辞書と、該話者別単語辞書の読みから前記話者別単語
辞書と話者特有の読みに変換する、話者毎の読み変換手
段と、入力された話者情報から読み変換手段を切り替
え、入力テキストに対して、話者別単語辞書と読み変換
手段を用いて、音韻情報を生成するテキスト解析手段
と、入力テキストの韻律情報を生成する韻律情報生成手
段と、音韻情報と韻律情報に基づいて合成音声を生成す
る合成音声生成手段とを有する。
【0020】話者の発音に特化した韻律や変換手段を持
つことで、合成音声の発音情報が元の話者と同じものに
なる。
【0021】
【発明の実施の形態】次に、本発明の実施の形態につい
て図面を参照して詳細に説明する。 図1を参照する
と、本発明の第1の実施の形態は、テキストを入力する
入力端子1と、入力テキストと話者別単語辞書3を用い
て読みとアクセント、ポーズからなる発音情報を生成す
るテキスト解析部2と、テキスト解析部2で生成された
発音情報に基づいて、イントネーションやリズムのパタ
ンを、音声情報データ6に記憶されている規則やパタン
から生成する韻律情報生成部4と、発音情報と韻律情報
に基づいて音声情報データ6に記憶されている音声パタ
ンを用いて合成音声を生成する合成音声生成部5と、合
成音声生成部5で生成された合成音声を出力する出力端
子7で構成されている。話者別単語辞書3には、各単語
の見出し、品詞、読みとアクセント位置が記憶されてい
る。この話者別単語辞書3を作成する方法としては、例
えば以下のような方法がある。まず、従来音声合成に使
われるような標準的な日本語の発音の入った辞書を用意
しておく。次に、合成に使う話者が本人の発音に近い発
音辞書を作成するために、文や単語を発声したところか
ら抽出した発音情報を単語毎に分割し、該当する辞書の
発音情報と置き換えていく。または、音声合成に使用す
る話者が、音声情報データベースを作成するために収録
した文や単語をのデータがある場合には、そこから抽出
した発音情報を発音辞書に反映させる。このようにし
て、話者特有の発音情報を持つ辞書を作成していく。こ
の話者別単語辞書3には、合成に使う話者が実際に発声
した音声から発音情報を抽出し、記憶しておくため、従
来の発音辞書よりもより個人性が反映されたものとな
る。音声情報データ6には、話者別単語辞書3を作成し
た話者が発声した文や単語から抽出された韻律パタンと
音声波形が、テキスト情報と発音情報、ラベル情報とと
もに記憶されている。 次に、本実施形態の動作につい
て詳細に説明する。入力端子1からは、例えば「これを
校正してください。」という文がキーボード等の入力手
段を用いて入力される。テキスト解析部2では、上記入
力文に対し話者別単語辞書3を用いて、/これお;こー
せーしてくださ%い/(“;”は、ポーズ位置、“%”
は、アクセント位置を示す。)のような読みにアクセン
ト情報、ポーズ位置が入った発音情報が生成される。韻
律情報生成部4では、テキスト解析部3で生成された発
音情報にマッチする韻律パタンを音声情報データ6から
選択、編集し、韻律パタンを生成し、発音情報と共に合
成音声生成部5に供給する。合成音声生成部5では、発
音情報と韻律パタンを基に音声情報データ6より音声波
形を選択、編集し、合成音声を作成し、出力端子7より
出力する。表1、表2は話者別単語辞書3の一例であ
り、話者Aと話者Bの発声を基にそれぞれ作られた辞書で
あり、表3は従来音声合成に使われた発声辞書で、アク
セント辞典や国語辞典等の記述によるものである。表
1、表2、表3の単語辞書には、各単語に対し、発音情
報と品詞が記憶されている。
【0022】
【表1】
【0023】
【表2】
【0024】
【表3】 これら3つの単語辞書を比較すると、同じ単語の発音情
報が辞書によって異なっていることがわかる。例えば、
「英語」という単語は、表1の話者Aの辞書には、「え
いご」と「い」を比較的はっきり発声するように記述さ
れているが、表2の話者Bや表3では「えーご」と
「え」の長音化のように発声するように記述されてい
る。また、「服」は、表1の話者Aの辞書では、「ふ」
にアクセント核のある1型アクセントだが、表2の話者
Bではアクセントがない0型であり、表3の辞書では、
語尾につく2型となっている。このように、表1から表
3までの辞書のうちいずれかを使うかにより、合成音声
の発音情報は変化する。言い換えれば、ここに話者特有
の発音情報を記述しておくことで、話者の個人性を表現
することが可能となる。 次に、本発明の第2の実施の
形態について図面を参照して説明する。図2の本発明の
第2の実施の形態は、第1の実施の形態にある話者別単
語辞書3のかわりに、単語辞書8と読み変換部9を有す
る点で第1の実施形態と異なる。単語辞書8の構造は話
者別単語辞書3と同じであるが、発音情報がある特定の
話者の発声データを基に作成されたのではなく、国語辞
典やアクセント辞典を基に作成されたものである点で話
者別単語辞書3と異なっている。また、読み変換部9
は、単語辞書8で選択された単語の発音情報を規則によ
って変換し、テキスト解析部2へ渡す。このように単語
辞書8と読み変換部9を有することで、第2の実施形態
でも、話者に特化した読みを供給することが可能とな
る。読み変換部9に記憶されている変換規則は、例え
ば、音声合成に使用する話者が、音声情報データベース
を作成するために収録した文や単語のデータを用いて作
成することができる。この規則には、ある特定の単語の
変換規則を記述することもできるが、いくつか実例から
一般化した規則を記述してもよい。例えば、「絵」を/
えー/、「蚊」を/かー/、「子」を/こー/、と長音化す
る話者がいたとする。このような話者は、他の1モーラ
の単語「歯」や「名」等も同様に長音化させる傾向があ
る。そこで、音声合成に使用する話者の発音情報を基
に、話者の発音情報がない単語も変換させるような規則
を記述しておくこともできる。この場合、”「絵」、
「蚊」、「子」は長音化させる”というのが、特定の単
語の変換規則にあたり、”1モーラの単語は長音化す
る。”という規則が一般化された変換規則にあたる。こ
のように、変換規則を一般化しておくことで、音声合成
に使用する話者の発音情報がない単語でも話者特有の発
音情報を変換することができる。
【0025】次に、本発明の第3の実施の形態について
図面を参照して説明する。図3の本発明の第3の実施の
形態は、第1の実施の形態にある話者別単語辞書3と、
第2の実施の形態にある読み変換部9の両方を有する点
を特徴とする。入力端子1より入力されたテキストはテ
キスト解析部2において、まず、話者別単語辞書3を用
いて単語の発音情報が選択される。選択された発音情報
は、読み変換部9により変換規則にマッチする単語があ
る場合には、発音情報が変換され、テキスト解析部2へ
発音情報として戻される。話者別単語辞書3は、話者が
文や単語を発生した音声から抽出した発音情報を基に作
成されるため、話者が発生していない単語の発音情報は
標準的な日本語のままである。一方、読み変換部9に
は、話者が発生した音声から抽出した発音情報を基に、
それらが一般化された変換規則が格納されている。この
一般化された変換規則を使用することで、話者が発生し
ていないため話者別単語辞書3では変換できない発音情
報を話者性を考慮した発声情報に変換することができ
る。
【0026】次に、本発明の第4の実施の形態について
図面を参照して説明する。図4の本発明の実施形態は、
第1の実施形態にある話者別単語辞書3と音声情報デー
タ6の組を話者A,B,C毎に話者別単語辞書3Aと音声情報
データ6A、話者別単語辞書3Bと音声情報データ6B、
話者別単語辞書3Cと音声情報データ6Cを備えたもので
ある。話者情報に合わせて、対応する話者別単語辞書と
音声情報データを選択する。話者別単語辞書と音声情報
データには、あらかじめ話者情報を格納しておく。この
ように話者情報に合わせて、話者別単語辞書と音声情報
データを切り替えることでどの話者に対しても、その話
者特有の話し方をする合成音声を生成することができる
ようになる。図5は図4の複数の話者別の話者別単語辞
書と音声情報データの組の切り替え方法の一例を示すブ
ロック図である。テキスト解析部2、韻律情報生成部
4、合成音声部5と話者別単語辞書、音声情報データの
間にスイッチ10(ここでは単純化ため1個のみ示す)
を設け、このスイッチ10を話者情報によって切り替え
る。
【0027】なお、第2の実施形態の読み変換部9を話
者毎に備えてもよく、また第3の実施形態の話者別単語
辞書3と読み変換部9を話者毎に備えてもよい。
【0028】以上、合成に使用する話者の発音情報を話
者が実際に発声した音声から抽出し、話者別単語辞書や
読み変換規則を生成し、その話者の合成音声を作成する
際に使用することで、元の話者の発声をより忠実に再現
することが可能になる。さらに、これら話者別に話者別
単語辞書や読み変換規則と音声情報データを有し、選択
された話者に合わせてそれらを切り替えることで、どの
合成音声に対しても元の話者の特徴を反映させることが
でき、合成音声のバリエーションも増やすことができる
ようになる。
【0029】図6は本発明の第1の実施形態をコンピュ
ータを用いて実施した場合のブロック図である。
【0030】入力装置11はキーボード等で、テキスト
が入力される。記憶装置12、13はそれぞれ図1中の
話者別単語辞書3、音声情報データ6に相当する。記憶
装置14はハードディスクである。出力装置15は生成
された合成音声が出力される、スピーカ等である。記録
媒体16は、図1中のテキスト解析部2、韻律情報生成
部4、合成音声生成部5の各処理からなる音声合成プロ
グラムが記録されている、FD(フロッピィ・ディス
ク)、CD―ROM、MD(光磁気ディスク)等の記録媒体
である。データ処理装置17は記録媒体16から音声合
成プログラムを記憶装置14に読み込んで、これを実行
するCPU である。
【0031】なお、その他の実施形態も同様にしてコン
ピュータを用いて実施することができる。
【0032】
【発明の効果】以上説明したように、本発明は、話者の
発音に特化した辞書や変換手段を持ち、合成音声の発音
情報を元の話者と同じものにすることにより、合成音声
の個人性を向上させることが可能になる。
【図面の簡単な説明】
【図1】本発明の第1の実施の形態の音声合成装置のブ
ロック図である。
【図2】本発明の第2の実施の形態の音声合成装置のブ
ロック図である。
【図3】本発明の第3の実施の形態の音声合成装置のブ
ロック図である。
【図4】本発明の第4の実施の形態の音声合成装置のブ
ロック図である。
【図5】第4の実施形態における話者別単語辞書と音声
情報データのセットの切り替え方法の一例を示す図であ
る。
【図6】第1の実施の形態をコンピュータを用いて実行
する装置のブロック図である。
【図7】音声合成装置の従来例のブロック図である。
【符号の説明】
1 入力端子 2 テキスト解析部 3、3A〜3C 話者別単語辞書 4 韻律情報生成部 5 合成音声生成部 6、6A〜6C 音声情報データ 7 出力端子 8 単語辞書 9 読み変換部 10 スイッチ 11 入力装置 12、13、14 記憶装置 15 出力装置 16 記録媒体 17 データ処理装置 21 音声情報検索部 22 合成音声生成部 23 音声情報データベース 24 合成音声生成規則

Claims (18)

    【特許請求の範囲】
  1. 【請求項1】 入力テキストに対し、話者の話すとおり
    の読みとアクセントを持つ話者別単語辞書を用いて音韻
    情報を生成するテキスト解析段階と、 前記入力テキストの韻律情報を生成する韻律情報生成段
    階と、 前記音韻情報と前記韻律情報に基づいて合成音声を生成
    する合成音声生成段階とを有する音声合成方法。
  2. 【請求項2】 前記話者別単語辞書が話者毎に存在し、
    前記テキスト解析段階で、入力された話者情報から前記
    話者別単語辞書を切り替える、請求項1記載の方法。
  3. 【請求項3】 入力テキストに対し、国語辞典に記述さ
    れている通常の読みを持つ単語辞書と、その読みを話者
    特有の読みに変換する読み変換手段を用いて音韻情報を
    生成するテキスト解析段階と、 前記入力テキストの韻律情報を生成する韻律情報生成段
    階と、 前記音韻情報と前記韻律情報に基づいて合成音声を生成
    する合成音声生成段階とを有する音声合成方法。
  4. 【請求項4】 入力テキストに対し、国語辞典に記述さ
    れている通常の読みを持つ単語辞書と、その読みを話者
    特有の読みに変換する、話者毎の読み変換手段を用い
    て、話者毎に前記読み変換手段を切り替えて音韻情報を
    生成するテキスト解析段階と、 前記入力テキストの韻律情報を生成する韻律情報生成段
    階と、 前記音韻情報と前記韻律情報に基づいて合成音声を生成
    する合成音声生成段階とを有する音声合成方法。
  5. 【請求項5】 入力テキストに対して、話者の話すとお
    りの読みとアクセントを持つ話者別単語辞書と、該話者
    別単語辞書の読みから話者特有の読みに変換する読み変
    換手段を用いて、音韻情報を生成するテキスト解析段階
    と、 前記入力テキストの韻律情報を生成する韻律情報生成段
    階と、 前記音韻情報と前記韻律情報に基づいて合成音声を生成
    する合成音声生成段階とを有する音声合成方法。
  6. 【請求項6】 入力テキストに対して、話者の話すとお
    りの読みとアクセントを持つ、話者毎の話者別単語辞書
    と、該話者別単語辞書の読みから話者特有の読みに変換
    する、話者毎の読み変換手段を用いて、話者毎に話者別
    単語辞書と読み変換手段を切り替えて、音韻情報を生成
    するテキスト解析段階と、 前記入力テキストの韻律情報を生成する韻律情報生成段
    階と、 前記音韻情報と前記韻律情報に基づいて合成音声を生成
    する合成音声生成段階とを有する音声合成方法。
  7. 【請求項7】 話者の話すとおりの読みとアクセントを
    持つ話者別単語辞書と、 入力テキストに対して前記話者別単語辞書を用いて音韻
    情報を生成するテキスト解析手段と、 前記入力テキストの韻律情報を生成する韻律情報生成手
    段と、 前記音韻情報と前記韻律情報に基づいて合成音声を生成
    する合成音声生成手段を有する音声合成装置。
  8. 【請求項8】 話者の話すとおりの読みとアクセントを
    持つ、話者毎の話者別単語辞書と、 入力された話者情報から前記話者別単語辞書を切り替
    え、入力テキストに対して該話者別単語辞書を用いて音
    韻情報を生成するテキスト解析手段と、 前記入力テキストの韻律情報を生成する韻律情報生成手
    段と、 前記音韻情報と前記韻律情報に基づいて合成音声を生成
    する合成音声生成手段を有する音声合成装置。
  9. 【請求項9】 国語辞典に記述されている通常の読みを
    持つ単語辞書と、 前記単語辞書の読みを話者特有の読みに変換する読み変
    換手段と、 入力テキストに対して前記単語辞書と読み変換手段を用
    いて音韻情報を生成するテキスト解析手段と、 前記入力テキストの韻律情報を生成する韻律情報生成手
    段と、 前記音韻情報と前記韻律情報に基づいて合成音声を生成
    する合成音声生成手段を有する音声合成装置。
  10. 【請求項10】 国語辞典に記述されている通常の読み
    を持つ単語辞書と、 前記単語辞書の読みを話者特有の読みに変換する、話者
    毎の読み変換手段と、 入力された話者情報から前記読み変換手段を切り替え、
    入力テキストに対して前記単語辞書と該読み変換手段を
    用いて音韻情報を生成するテキスト解析手段と、 前記入力テキストの韻律情報を生成する韻律情報生成手
    段と、 前記音韻情報と前記韻律情報に基づいて合成音声を生成
    する合成音声生成手段を有する音声合成装置。
  11. 【請求項11】 話者の話すとおりの読みとアクセント
    を持つ、話者別単語辞書と、 該話者別単語辞書の読みから話者特有の読みに変換する
    読み変換手段と、 入力テキストに対して、前記話者別単語辞書と前記読み
    変換手段を用いて、音韻情報を生成するテキスト解析手
    段と、 前記入力テキストの韻律情報を生成する韻律情報生成手
    段と、 前記音韻情報と前記韻律情報に基づいて合成音声を生成
    する合成音声生成手段とを有する音声合成装置。
  12. 【請求項12】 話者の話すとおりの読みとアクセント
    を持つ、話者毎の話者別単語辞書と、 該話者別単語辞書の読みから話者特有の読みに変換す
    る、話者毎の読み変換手段と、 入力された話者情報から前記話者別単語辞書と前記読み
    変換手段を切り替え、入力テキストに対して、前記話者
    別単語辞書と前記読み変換手段を用いて、音韻情報を生
    成するテキスト解析手段と、 前記入力テキストの韻律情報を生成する韻律情報生成手
    段と、 前記音韻情報と前記韻律情報に基づいて合成音声を生成
    する合成音声生成手段とを有する音声合成装置。
  13. 【請求項13】 入力テキストに対し、話者の話すとお
    りの読みとアクセントを持つ話者別単語辞書を用いて音
    韻情報を生成するテキスト解析手順と、 前記入力テキストの韻律情報を生成する韻律情報生成手
    順と、 前記音韻情報と前記韻律情報に基づいて合成音声を生成
    する合成音声生成手順をコンピュータに実行させるため
    の音声合成プログラムを記録した記録媒体。
  14. 【請求項14】 前記話者別単語辞書が話者毎に存在
    し、前記テキスト解析手順で、入力れた話者情報から前
    記話者別単語辞書を切り替える、請求項13記載の記録
    媒体。
  15. 【請求項15】 入力テキストに対し、国語辞典に記述
    されている通常の読みを持つ単語辞書と、その読みを話
    者特有の読みに変換する読み変換手段を用いて音韻情報
    を生成するテキスト解析手順と、 前記入力テキストの韻律情報を生成する韻律情報生成手
    順と、 前記韻律情報と前記韻律情報に基づいて合成音声を生成
    する合成音声生成手順とをコンピュータに実行させるた
    めの音声合成プログラムを記録した記録媒体。
  16. 【請求項16】 入力テキストに対して、国語辞典に記
    述されている通常の読みを持つ単語辞書と、その読みを
    話者特有の読みに変換する、話者毎の読み変換手段を用
    いて、話者毎に前記読み変換手段を切り替えて音韻情報
    情報を生成するテキスト解析手順と、 前記入力テキストの韻律情報を生成する韻律情報生成手
    順と、 前記音韻情報と前記韻律情報に基づいて合成音声を生成
    する合成音声生成手順とをコンピュータに実行させるた
    めの音声合成プログラムを記録した記録媒体。
  17. 【請求項17】 入力テキストに対して、話者の話すと
    おりの読みとアクセントを持つ話者別単語辞書と、該話
    者別単語辞書の読みから話者特有の読みに変換する読み
    変換手段を用いて、音韻情報を生成するテキスト解析手
    順と、 前記入力テキストの韻律情報を生成する韻律情報生成手
    順と、 前記音韻情報と前記韻律情報に基づいて合成音声を生成
    する合成音声生成手順とをコンピュータに実行させるた
    めの音声合成プログラムを記録した記録媒体。
  18. 【請求項18】 入力テキストに対し、話者の話すとお
    りの読みとアクセントを持つ、話者毎の話者別単語辞書
    と、該話者別単語辞書の読みから話者特有の読みに変換
    する、話者毎の読み変換手段を用いて、話者毎に話者別
    単語辞書と読み変換手段を切り替えて、音韻情報を生成
    するテキスト解析手順と、 前記入力テキストの韻律情報を生成する韻律情報生成手
    順と、 前記音韻情報と前記韻律情報に基づいて合成音声を生成
    する合成音声生成手順とをコンピュータに実行させるた
    めの音声合成プログラムを記録した記録媒体。
JP36328398A 1998-12-21 1998-12-21 音声合成法方法、装置、および音声合成プログラムを記録した記録媒体 Expired - Fee Related JP3576848B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP36328398A JP3576848B2 (ja) 1998-12-21 1998-12-21 音声合成法方法、装置、および音声合成プログラムを記録した記録媒体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP36328398A JP3576848B2 (ja) 1998-12-21 1998-12-21 音声合成法方法、装置、および音声合成プログラムを記録した記録媒体

Publications (2)

Publication Number Publication Date
JP2000187495A true JP2000187495A (ja) 2000-07-04
JP3576848B2 JP3576848B2 (ja) 2004-10-13

Family

ID=18478950

Family Applications (1)

Application Number Title Priority Date Filing Date
JP36328398A Expired - Fee Related JP3576848B2 (ja) 1998-12-21 1998-12-21 音声合成法方法、装置、および音声合成プログラムを記録した記録媒体

Country Status (1)

Country Link
JP (1) JP3576848B2 (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002304186A (ja) * 2001-04-05 2002-10-18 Sharp Corp 音声合成装置、音声合成方法および音声合成プログラム
JP2003271172A (ja) * 2002-03-15 2003-09-25 Sony Corp 音声合成方法、音声合成装置、プログラム及び記録媒体、並びにロボット装置
WO2004111869A1 (en) * 2003-06-17 2004-12-23 Kwangwoon Foundation Exceptional pronunciation dictionary generation method for the automatic pronunciation generation in korean
JP2012108360A (ja) * 2010-11-18 2012-06-07 Mitsubishi Electric Corp 韻律作成装置
US8234117B2 (en) 2006-03-29 2012-07-31 Canon Kabushiki Kaisha Speech-synthesis device having user dictionary control
JP2013072957A (ja) * 2011-09-27 2013-04-22 Toshiba Corp 文書読み上げ支援装置、方法及びプログラム
CN107293284A (zh) * 2017-07-27 2017-10-24 上海传英信息技术有限公司 一种基于智能终端的语音合成方法及语音合成系统
CN115578995A (zh) * 2022-12-07 2023-01-06 北京邮电大学 面向语音对话场景的语音合成方法、系统及存储介质

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002304186A (ja) * 2001-04-05 2002-10-18 Sharp Corp 音声合成装置、音声合成方法および音声合成プログラム
JP2003271172A (ja) * 2002-03-15 2003-09-25 Sony Corp 音声合成方法、音声合成装置、プログラム及び記録媒体、並びにロボット装置
WO2004111869A1 (en) * 2003-06-17 2004-12-23 Kwangwoon Foundation Exceptional pronunciation dictionary generation method for the automatic pronunciation generation in korean
US8234117B2 (en) 2006-03-29 2012-07-31 Canon Kabushiki Kaisha Speech-synthesis device having user dictionary control
JP2012108360A (ja) * 2010-11-18 2012-06-07 Mitsubishi Electric Corp 韻律作成装置
JP2013072957A (ja) * 2011-09-27 2013-04-22 Toshiba Corp 文書読み上げ支援装置、方法及びプログラム
CN107293284A (zh) * 2017-07-27 2017-10-24 上海传英信息技术有限公司 一种基于智能终端的语音合成方法及语音合成系统
CN115578995A (zh) * 2022-12-07 2023-01-06 北京邮电大学 面向语音对话场景的语音合成方法、系统及存储介质
CN115578995B (zh) * 2022-12-07 2023-03-24 北京邮电大学 面向语音对话场景的语音合成方法、系统及存储介质

Also Published As

Publication number Publication date
JP3576848B2 (ja) 2004-10-13

Similar Documents

Publication Publication Date Title
Isewon et al. Design and implementation of text to speech conversion for visually impaired people
US6751592B1 (en) Speech synthesizing apparatus, and recording medium that stores text-to-speech conversion program and can be read mechanically
JP5198046B2 (ja) 音声処理装置及びそのプログラム
JP2008545995A (ja) ハイブリッド音声合成装置、方法および用途
JP3587048B2 (ja) 韻律制御方法及び音声合成装置
JP3576848B2 (ja) 音声合成法方法、装置、および音声合成プログラムを記録した記録媒体
WO2008056590A1 (fr) Dispositif de synthèse texte-parole, programme et procédé de synthèse texte-parole
JPH0887297A (ja) 音声合成システム
JPH08335096A (ja) テキスト音声合成装置
JP7406418B2 (ja) 声質変換システムおよび声質変換方法
JP3060276B2 (ja) 音声合成装置
JPH07200554A (ja) 文章読み上げ装置
Cheng et al. HMM-based mandarin singing voice synthesis using tailored synthesis units and question sets
JPH037995A (ja) 歌音声合成データの作成装置
JP2002123281A (ja) 音声合成装置
JPS62119591A (ja) 文章読上げ装置
JPH0229797A (ja) テキスト音声変換装置
JP2000056788A (ja) 音声合成装置の韻律制御方法
JP2001166787A (ja) 音声合成装置および自然言語処理方法
JP2000322075A (ja) 音声合成装置および自然言語処理方法
JP2003108170A (ja) 音声合成学習方法および音声合成学習装置
JP2001236086A (ja) テキスト音声合成出力機能を有するゲーム装置
JP2023139557A (ja) 音声合成装置、音声合成方法及びプログラム
KR20220125005A (ko) 화자 적합성이 향상된 음성합성 모델 생성방법
JPH07134713A (ja) 音声合成装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040604

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20040708

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20070716

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080716

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090716

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100716

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110716

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110716

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120716

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120716

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130716

Year of fee payment: 9

LAPS Cancellation because of no payment of annual fees