JP4264030B2 - 音声データ選択装置、音声データ選択方法及びプログラム - Google Patents

音声データ選択装置、音声データ選択方法及びプログラム Download PDF

Info

Publication number
JP4264030B2
JP4264030B2 JP2004155306A JP2004155306A JP4264030B2 JP 4264030 B2 JP4264030 B2 JP 4264030B2 JP 2004155306 A JP2004155306 A JP 2004155306A JP 2004155306 A JP2004155306 A JP 2004155306A JP 4264030 B2 JP4264030 B2 JP 4264030B2
Authority
JP
Japan
Prior art keywords
data
sound
sound piece
piece
speech
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2004155306A
Other languages
English (en)
Other versions
JP2005025173A (ja
Inventor
寧 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kenwood KK
Original Assignee
Kenwood KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority to JP2004155306A priority Critical patent/JP4264030B2/ja
Application filed by Kenwood KK filed Critical Kenwood KK
Priority to US10/559,573 priority patent/US20070100627A1/en
Priority to CN2004800187934A priority patent/CN1816846B/zh
Priority to PCT/JP2004/008088 priority patent/WO2004109660A1/ja
Priority to DE04735989T priority patent/DE04735989T1/de
Priority to KR1020057023078A priority patent/KR20060015744A/ko
Priority to EP04735989A priority patent/EP1632933A4/en
Publication of JP2005025173A publication Critical patent/JP2005025173A/ja
Application granted granted Critical
Publication of JP4264030B2 publication Critical patent/JP4264030B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/02Methods for producing synthetic speech; Speech synthesisers
    • G10L13/027Concept to speech synthesisers; Generation of natural phrases from machine-based concepts
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/06Elementary speech units used in speech synthesisers; Concatenation rules

Description

この発明は、音声データ選択装置、音声データ選択方法及びプログラムに関する。
音声を合成する手法として、録音編集方式と呼ばれる手法がある。録音編集方式は、駅の音声案内システムや、車載用のナビゲーション装置などに用いられている。
録音編集方式は、単語と、この単語を読み上げる音声を表す音声データとを対応付けておき、音声合成する対象の文章を単語に区切ってから、これらの単語に対応付けられた音声データを取得してつなぎ合わせる、という手法である(例えば、特許文献1参照)。
特開平10−49193号公報
しかし、音声データを単につなぎ合わせた場合、音声データ同士の境界では通常、音声のピッチ成分の周波数が不連続的に変化する、等の理由で、合成音声が不自然なものとなる。
この問題を解決する手法としては、同一の音素を互いに異なった韻律で読み上げる音声を表す複数の音声データを用意し、一方で音声合成する対象の文章に韻律予測を施して、予測結果に合致する音声データを選び出してつなぎ合わせる、という手法が考えられる。
しかし、音声データを音素毎に用意して録音編集方式により自然な合成音声を得ようとすると、音声データを記憶する記憶装置には膨大な記憶容量が必要となり、小型軽量な装置を用いる必要がある用途には適さない。また、検索する対象のデータの量も膨大なものとなるから、高速な処理が要求される用途にも適さない。
また、韻律予測は極めて複雑な処理であるので、韻律予測を用いたこの手法を実現するには、処理能力が高いプロセッサなどを用い、あるいは長時間をかけて処理を行わせる必要がある。従ってこの手法は、構成が簡単な装置を用いた高速な処理が要求される用途には適さない。
この発明は、上記実状に鑑みてなされたものであり、簡単な構成で高速に自然な合成音声を得るための音声データ選択装置、音声データ選択方法及びプログラムを提供することを目的とする。
上記目的を達成すべく、この発明の第1の観点にかかる音声データ選択装置は、
音声の波形を表す音声データを複数記憶する記憶手段と、
文章を表す文章情報を入力し、当該文章内の複数の音片のそれぞれについて韻律予測を行うことにより、当該音片の時間長、及び、当該音片のピッチの時間変化を予測する予測手段と、
前記文章情報が表す文章内の音片のそれぞれについて、当該音片と読みが共通する部分を有する音声データを前記記憶手段から1つ又は複数索出する検索部と、
前記索出されたそれぞれの音声データを前記文章情報が表す文章内の音片の順に従って接続してできる音声データの組み合わせのそれぞれについて評価値を求め、当該評価値が最大となる音声データの組み合わせを選択する選択手段と、
を備え、
前記評価値は、当該音声データが表す音片のピッチの時間変化と、当該音片と読みが共通する前記文章内の音片のピッチの時間変化の予測結果との相関を表す数値を用いて表される関数、及び、当該音声データが表す音片の発声スピードと、当該音片と読みが共通する前記文章内の音片の発声スピードとの差を用いて表される関数より得られ、
前記相関を表す数値は、当該音声データが表す音片のピッチの時間変化と、当該音片と読みが共通する前記文章内の音片のピッチの時間変化との間での1次回帰により得られる勾配及び/又は切片からなる、
ことを特徴とする。
前記選択手段は、更に、音声データが表す音片のピッチの時間変化を表すデータを一定の方向へ所定サンプル数だけ循環シフトしたものが表す関数と、当該音片と読みが共通する前記文章内の音片のピッチの時間変化の予測結果を表す関数との相関係数の最大値に基づいて、前記評価値を求めてもよい。
また、前記選択手段は、更に、前記索出されたそれぞれの音声データを文章情報が表す文章内の音片の順に従って接続した際に互いに隣接する音声データ同士の境界でのピッチ成分の周波数の差に基づいて、前記評価値を求めてもよい。
前記記憶手段は、音声データの読みを表す表音データを、当該音声データに対応付けて記憶していてもよく、
前記選択手段は、前記記憶手段に記憶される音声データのうち、前記文章内の音片の読みに合致する読みを表す表音データが対応付けられている音声データを、当該音片と読みが共通する音片の波形を表す音声データとしてもよい。
前記選択手段により選択された音声データを互いに結合することにより、合成音声を表すデータを生成する音声合成手段を更に備えていてもよい。
前記表音データは、複数の表音文字から構成され、
前記文章内の音片の読みに合致する読みを表す表音データが対応付けられていない場合、当該表音データを構成する複数の表音文字のそれぞれに対応する音声データを結合することにより、当該音片の波形を表す音声データを合成する欠落部分合成手段を備えていてもよく、
前記音声合成手段は、前記選択手段が選択した音声データ及び前記欠落部分合成手段が合成した音声データを互いに結合することにより、合成音声を表すデータを生成するものであってもよい。
また、この発明の第2の観点にかかる音声データ選択方法は、
記憶手段と処理手段を有する音声データ選択装置にて実行される音声データ選択方法であって、
前記記憶手段には、音声の波形を表す音声データが複数記憶され、
前記処理手段が、文章を表す文章情報を入力し、当該文章内の複数の音片のそれぞれについて韻律予測を行うことにより、当該音片の時間長、及び、当該音片のピッチの時間変化を予測し、
前記処理手段が、前記文章情報が表す文章内の音片のそれぞれについて、当該音片と読みが共通する部分を有する音声データを前記記憶手段から1つ又は複数索出し、
前記処理手段が、前記索出されたそれぞれの音声データを前記文章情報が表す文章内の音片の順に従って接続してできる音声データの組み合わせのそれぞれについて評価値を求め、当該評価値が最大となる音声データの組み合わせを選択し、
前記評価値は、当該音声データが表す音片のピッチの時間変化と、当該音片と読みが共通する前記文章内の音片のピッチの時間変化の予測結果との相関を表す数値を用いて表される関数、及び、当該音声データが表す音片の発声スピードと、当該音片と読みが共通する前記文章内の音片の発声スピードとの差を用いて表される関数より得られ、
前記相関を表す数値は、当該音声データが表す音片のピッチの時間変化と、当該音片と読みが共通する前記文章内の音片のピッチの時間変化との間での1次回帰により得られる勾配及び/又は切片からなる、
ことを特徴とする。
また、前記処理手段が、更に、音声データが表す音片のピッチの時間変化を表すデータを一定の方向へ所定サンプル数だけ循環シフトしたものが表す関数と、当該音片と読みが共通する前記文章内の音片のピッチの時間変化の予測結果を表す関数との相関係数の最大値に基づいて、前記評価値を求めてもよい。
また、前記処理手段が、更に、前記索出されたそれぞれの音声データを文章情報が表す文章内の音片の順に従って接続した際に互いに隣接する音声データ同士の境界でのピッチ成分の周波数の差に基づいて、前記評価値を求めてもよい。
また、この発明の第3の観点にかかるプログラムは、
コンピュータを、
音声の波形を表す音声データを複数記憶する記憶手段、
文章を表す文章情報を入力し、当該文章内の複数の音片のそれぞれについて韻律予測を行うことにより、当該音片の時間長、及び、当該音片のピッチの時間変化を予測する予測手段、
前記文章情報が表す文章内の音片のそれぞれについて、当該音片と読みが共通する部分を有する音声データを1つ又は複数索出する検索部、
前記索出されたそれぞれの音声データを前記文章情報が表す文章内の音片の順に従って接続してできる音声データの組み合わせのそれぞれについて評価値を求め、当該評価値が最大となる音声データの組み合わせを選択する選択手段、
として機能させ、
前記評価値は、当該音声データが表す音片のピッチの時間変化と、当該音片と読みが共通する前記文章内の音片のピッチの時間変化の予測結果との相関を表す数値を用いて表される関数、及び、当該音声データが表す音片の発声スピードと、当該音片と読みが共通する前記文章内の音片の発声スピードとの差を用いて表される関数より得られ、
前記相関を表す数値は、当該音声データが表す音片のピッチの時間変化と、当該音片と読みが共通する前記文章内の音片のピッチの時間変化との間での1次回帰により得られる勾配及び/又は切片からなる、
ことを特徴とする。
また、前記選択手段は、更に、音声データが表す音片のピッチの時間変化を表すデータを一定の方向へ所定サンプル数だけ循環シフトしたものが表す関数と、当該音片と読みが共通する前記文章内の音片のピッチの時間変化の予測結果を表す関数との相関係数の最大値に基づいて、前記評価値を求めてもよい。
また、前記選択手段は、更に、前記索出されたそれぞれの音声データを文章情報が表す文章内の音片の順に従って接続した際に互いに隣接する音声データ同士の境界でのピッチ成分の周波数の差に基づいて、前記評価値を求めてもよい。
この発明によれば、簡単な構成で高速に自然な合成音声を得るための音声データ選択装置、音声データ選択方法及びプログラムが実現される。
以下、この発明の実施の形態を、音声合成システムを例とし、図面を参照して説明する。
(第1の実施の形態)
図1は、この発明の第1の実施の形態に係る音声合成システムの構成を示す図である。図示するように、この音声合成システムは、本体ユニットMと、音片登録ユニットRとにより構成されている。
本体ユニットMは、言語処理部1と、一般単語辞書2と、ユーザ単語辞書3と、音響処理部4と、検索部5と、伸長部6と、波形データベース7と、音片編集部8と、検索部9と、音片データベース10と、話速変換部11とにより構成されている。
言語処理部1、音響処理部4、検索部5、伸長部6、音片編集部8、検索部9及び話速変換部11は、いずれも、CPU(Central Processing Unit)やDSP(Digital Signal Processor)等のプロセッサや、このプロセッサが実行するためのプログラムを記憶するメモリなどより構成されており、それぞれ後述する処理を行う。
なお、言語処理部1、音響処理部4、検索部5、伸長部6、音片編集部8、検索部9及び話速変換部11の一部又は全部の機能を単一のプロセッサが行うようにしてもよい。
一般単語辞書2は、PROM(Programmable Read Only Memory)やハードディスク装置等の不揮発性メモリより構成されている。一般単語辞書2には、表意文字(例えば、漢字など)を含む単語等と、この単語等の読みを表す表音文字(例えば、カナや発音記号など)とが、この音声合成システムの製造者等によって、あらかじめ互いに対応付けて記憶されている。
ユーザ単語辞書3は、EEPROM(Electrically Erasable/Programmable Read Only Memory)やハードディスク装置等のデータ書き換え可能な不揮発性メモリと、この不揮発性メモリへのデータの書き込みを制御する制御回路とにより構成されている。なお、プロセッサがこの制御回路の機能を行ってもよく、言語処理部1、音響処理部4、検索部5、伸長部6、音片編集部8、検索部9及び話速変換部11の一部又は全部の機能を行うプロセッサがユーザ単語辞書3の制御回路の機能を行うようにしてもよい。
ユーザ単語辞書3は、表意文字を含む単語等と、この単語等の読みを表す表音文字とを、ユーザの操作に従って外部より取得し、互いに対応付けて記憶する。ユーザ単語辞書3には、一般単語辞書2に記憶されていない単語等とその読みを表す表音文字とが格納されていれば十分である。
波形データベース7は、PROMやハードディスク装置等の不揮発性メモリより構成されている。波形データベース7には、表音文字と、この表音文字が表す単位音声の波形を表す波形データをエントロピー符号化して得られる圧縮波形データとが、この音声合成システムの製造者等によって、あらかじめ互いに対応付けて記憶されている。単位音声は、規則合成方式の手法で用いられる程度の短い音声であり、具体的には、音素や、VCV(Vowel-Consonant-Vowel)音節などの単位で区切られる音声である。なお、エントロピー符号化される前の波形データは、例えば、PCM(Pulse Code Modulation)化されたデジタル形式のデータからなっていればよい。
音片データベース10は、PROMやハードディスク装置等の不揮発性メモリより構成されている。
音片データベース10には、例えば、図2に示すデータ構造を有するデータが記憶されている。すなわち、図示するように、音片データベース10に格納されているデータは、ヘッダ部HDR、インデックス部IDX、ディレクトリ部DIR及びデータ部DATの4種に分かれている。
なお、音片データベース10へのデータの格納は、例えば、この音声合成システムの製造者によりあらかじめ行われ、及び/又は、音片登録ユニットRが後述する動作を行うことにより行われる。
ヘッダ部HDRには、音片データベース10を識別するデータや、インデックス部IDX、ディレクトリ部DIR及びデータ部DATのデータ量、データの形式、著作権等の帰属などを示すデータが格納される。
データ部DATには、音片の波形を表す音片データをエントロピー符号化して得られる圧縮音片データが格納されている。
なお、音片とは、音声のうち音素1個以上を含む連続した1区間をいい、通常は単語1個分又は複数個分の区間からなる。
また、エントロピー符号化される前の音片データは、上述の圧縮波形データの生成のためエントロピー符号化される前の波形データと同じ形式のデータ(例えば、PCMされたデジタル形式のデータ)からなっていればよい。
ディレクトリ部DIRには、個々の圧縮音声データについて、
(A) この圧縮音片データが表す音片の読みを示す表音文字を表すデータ(音片読みデータ)、
(B) この圧縮音片データが格納されている記憶位置の先頭のアドレスを表すデータ、
(C) この圧縮音片データのデータ長を表すデータ、
(D) この圧縮音片データが表す音片の発声スピード(再生した場合の時間長)を表すデータ(スピード初期値データ)、
(E) この音片のピッチ成分の周波数の時間変化を表すデータ(ピッチ成分データ)、
が、互いに対応付けられた形で格納されている。(なお、音片データベース10の記憶領域にはアドレスが付されているものとする。)
なお、図2は、データ部DATに含まれるデータとして、読みが「サイタマ」である音片の波形を表す、データ量1410hバイトの圧縮音片データが、アドレス001A36A6hを先頭とする論理的位置に格納されている場合を例示している。(なお、本明細書及び図面において、末尾に“h”を付した数字は16進数を表す。)
また、ピッチ成分データは、例えば、図示するように、音片のピッチ成分の周波数をサンプリングして得られたサンプルY(i)(サンプルの総数をnとして、iはn以下の正の整数)を表すデータであるものとする。
なお、上述の(A)〜(E)のデータの集合のうち少なくとも(A)のデータ(すなわち音片読みデータ)は、音片読みデータが表す表音文字に基づいて決められた順位に従ってソートされた状態で(例えば、表音文字がカナであれば、五十音順に従って、アドレス降順に並んだ状態で)、音片データベース10の記憶領域に格納されている。
インデックス部IDXには、ディレクトリ部DIRのデータのおおよその論理的位置を音片読みデータに基づいて特定するためのデータが格納されている。具体的には、例えば、音片読みデータがカナを表すものであるとして、カナ文字と、先頭1字がこのカナ文字であるような音片読みデータがどのような範囲のアドレスにあるかを示すデータとが、互いに対応付けて格納されている。
なお、一般単語辞書2、ユーザ単語辞書3、波形データベース7及び音片データベース10の一部又は全部の機能を単一の不揮発性メモリが行うようにしてもよい。
音片データベース10へのデータの格納は、図1に示す音片登録ユニットRにより行われる。音片登録ユニットRは、図示するように、収録音片データセット記憶部12と、音片データベース作成部13と、圧縮部14とにより構成されている。なお、音片登録ユニットRは音片データベース10とは着脱可能に接続されていてもよく、この場合は、音片データベース10に新たにデータを書き込むときを除いては、音片登録ユニットRを本体ユニットMから切り離した状態で本体ユニットMに後述の動作を行わせてよい。
収録音片データセット記憶部12は、ハードディスク装置等のデータ書き換え可能な不揮発性メモリより構成されている。
収録音片データセット記憶部12には、音片の読みを表す表音文字と、この音片を人が実際に発声したものを集音して得た波形を表す音片データとが、この音声合成システムの製造者等によって、あらかじめ互いに対応付けて記憶されている。なお、この音片データは、例えば、PCM化されたデジタル形式のデータからなっていればよい。
音片データベース作成部13及び圧縮部14は、CPU等のプロセッサや、このプロセッサが実行するためのプログラムを記憶するメモリなどより構成されており、このプログラムに従って後述する処理を行う。
なお、音片データベース作成部13及び圧縮部14の一部又は全部の機能を単一のプロセッサが行うようにしてもよく、また、言語処理部1、音響処理部4、検索部5、伸長部6、音片編集部8、検索部9及び話速変換部11の一部又は全部の機能を行うプロセッサが音片データベース作成部13や圧縮部14の機能を更に行ってもよい。また、音片データベース作成部13や圧縮部14の機能を行うプロセッサが、収録音片データセット記憶部12の制御回路の機能を兼ねてもよい。
音片データベース作成部13は、収録音片データセット記憶部12より、互いに対応付けられている表音文字及び音片データを読み出し、この音片データが表す音声のピッチ成分の周波数の時間変化と、発声スピードとを特定する。
発声スピードの特定は、例えば、この音片データのサンプル数を数えることにより特定すればよい。
一方、ピッチ成分の周波数の時間変化は、例えば、この音片データにケプストラム解析を施すことにより特定すればよい。具体的には、例えば、音片データが表す波形を時間軸上で多数の小部分へと区切り、得られたそれぞれの小部分の強度を、元の値の対数(対数の底は任意)に実質的に等しい値へと変換し、値が変換されたこの小部分のスペクトル(すなわち、ケプストラム)を、高速フーリエ変換の手法(あるいは、離散的変数をフーリエ変換した結果を表すデータを生成する他の任意の手法)により求める。そして、このケプストラムの極大値を与える周波数のうちの最小値を、この小部分におけるピッチ成分の周波数として特定する。
なお、ピッチ成分の周波数の時間変化は、例えば、特開2003−108172号公報に開示された手法に従って音片データをピッチ波形データへと変換してから、このピッチ波形データに基づいて特定するようにすると良好な結果が期待できる。具体的には、音片データをフィルタリングしてピッチ信号を抽出し、抽出されたピッチ信号に基づいて、音片データが表す波形を単位ピッチ長の区間へと区切り、各区間について、ピッチ信号との相関関係に基づいて位相のずれを特定して各区間の位相を揃えることにより、音片データをピッチ波形信号へと変換すればよい。そして、得られたピッチ波形信号を音片データとして扱い、ケプストラム解析を行う等することにより、ピッチ成分の周波数の時間変化を特定すればよい。
一方、音片データベース作成部13は、収録音片データセット記憶部12より読み出した音片データを圧縮部14に供給する。
圧縮部14は、音片データベース作成部13より供給された音片データをエントロピー符号化して圧縮音片データを作成し、音片データベース作成部13に返送する。
音片データの発声スピード及びピッチ成分の周波数の時間変化を特定し、この音片データがエントロピー符号化され圧縮音片データとなって圧縮部14より返送されると、音片データベース作成部13は、この圧縮音片データを、データ部DATを構成するデータとして、音片データベース10の記憶領域に書き込む。
また、音片データベース作成部13は、書き込んだ圧縮音片データが表す音片の読みを示すものとして収録音片データセット記憶部12より読み出した表音文字を、音片読みデータとして音片データベース10の記憶領域に書き込む。
また、書き込んだ圧縮音片データの、音片データベース10の記憶領域内での先頭のアドレスを特定し、このアドレスを上述の(B)のデータとして音片データベース10の記憶領域に書き込む。
また、この圧縮音片データのデータ長を特定し、特定したデータ長を、(C)のデータとして音片データベース10の記憶領域に書き込む。
また、この圧縮音片データが表す音片の発声スピード及びピッチ成分の周波数の時間変化を特定した結果を示すデータを生成し、スピード初期値データ及びピッチ成分データとして音片データベース10の記憶領域に書き込む。
次に、この音声合成システムの動作を説明する。
まず、言語処理部1が、この音声合成システムに音声を合成させる対象としてユーザが用意した、表意文字を含む文章(フリーテキスト)を記述したフリーテキストデータを外部から取得したとして説明する。
なお、言語処理部1がフリーテキストデータを取得する手法は任意であり、例えば、図示しないインターフェース回路を介して外部の装置やネットワークから取得してもよいし、図示しない記録媒体ドライブ装置にセットされた記録媒体(例えば、フロッピー(登録商標)ディスクやCD−ROMなど)から、この記録媒体ドライブ装置を介して読み取ってもよい。また、言語処理部1の機能を行っているプロセッサが、自ら実行している他の処理で用いたテキストデータを、フリーテキストデータとして、言語処理部1の処理へと引き渡すようにしてもよい。
フリーテキストデータを取得すると、言語処理部1は、このフリーテキストに含まれるそれぞれの表意文字について、その読みを表す表音文字を、一般単語辞書2やユーザ単語辞書3を検索することにより特定する。そして、この表意文字を、特定した表音文字へと置換する。そして、言語処理部1は、フリーテキスト内の表意文字がすべて表音文字へと置換した結果得られる表音文字列を、音響処理部4へと供給する。
音響処理部4は、言語処理部1より表音文字列を供給されると、この表音文字列に含まれるそれぞれの表音文字について、当該表音文字が表す単位音声の波形を検索するよう、検索部5に指示する。
検索部5は、この指示に応答して波形データベース7を検索し、表音文字列に含まれるそれぞれの表音文字が表す単位音声の波形を表す圧縮波形データを索出する。そして、索出された圧縮波形データを伸長部6へと供給する。
伸長部6は、検索部5より供給された圧縮波形データを、圧縮される前の波形データへと復元し、検索部5へと返送する。検索部5は、伸長部6より返送された波形データを、検索結果として音響処理部4へと供給する。
音響処理部4は、検索部5より供給された波形データを、言語処理部1より供給された表音文字列内での各表音文字の並びに従った順序で、音片編集部8へと供給する。
音片編集部8は、音響処理部4より波形データを供給されると、この波形データを、供給された順序で互いに結合し、合成音声を表すデータ(合成音声データ)として出力する。フリーテキストデータに基づいて合成されたこの合成音声は、規則合成方式の手法により合成された音声に相当する。
なお、音片編集部8が合成音声データを出力する手法は任意であり、例えば、図示しないD/A(Digital-to-Analog)変換器やスピーカを介して、この合成音声データが表す合成音声を再生するようにしてもよい。また、図示しないインターフェース回路を介して外部の装置やネットワークに送出してもよいし、図示しない記録媒体ドライブ装置にセットされた記録媒体へ、この記録媒体ドライブ装置を介して書き込んでもよい。また、音片編集部8の機能を行っているプロセッサが、自ら実行している他の処理へと、合成音声データを引き渡すようにしてもよい。
次に、音響処理部4が、外部より配信された、表音文字列を表すデータ(配信文字列データ)を取得したとする。(なお、音響処理部4が配信文字列データを取得する手法も任意であり、例えば、言語処理部1がフリーテキストデータを取得する手法と同様の手法で配信文字列データを取得すればよい。)
この場合、音響処理部4は、配信文字列データが表す表音文字列を、言語処理部1より供給された表音文字列と同様に扱う。この結果、配信文字列データが表す表音文字列に含まれる表音文字に対応する圧縮波形データが検索部5により索出され、圧縮される前の波形データが伸長部6により復元される。復元された各波形データは音響処理部4を介して音片編集部8へと供給され、音片編集部8が、この波形データを、配信文字列データが表す表音文字列内での各表音文字の並びに従った順序で互いに結合し、合成音声データとして出力する。配信文字列データに基づいて合成されたこの合成音声データも、規則合成方式の手法により合成された音声を表す。
次に、音片編集部8が、定型メッセージデータ及び発声スピードデータを取得したとする。
なお、定型メッセージデータは、定型メッセージを表音文字列として表すデータであり、発声スピードデータは、定型メッセージデータが表す定型メッセージの発声スピードの指定値(この定型メッセージを発声する時間長の指定値)を示すデータである。
また、音片編集部8が定型メッセージデータや発声スピードデータを取得する手法は任意であり、例えば、言語処理部1がフリーテキストデータを取得する手法と同様の手法で定型メッセージデータや発声スピードデータを取得すればよい。
定型メッセージデータ及び発声スピードデータが音片編集部8に供給されると、音片編集部8は、定型メッセージに含まれる音片の読みを表す表音文字に合致する表音文字が対応付けられている圧縮音片データをすべて索出するよう、検索部9に指示する。
検索部9は、音片編集部8の指示に応答して音片データベース10を検索し、該当する圧縮音片データと、該当する圧縮音片データに対応付けられている上述の音片読みデータ、スピード初期値データ及びピッチ成分データとを索出し、索出された圧縮波形データを伸長部6へと供給する。1個の音片につき複数の圧縮音片データが該当する場合も、該当する圧縮音片データすべてが、音声合成に用いられるデータの候補として索出される。一方、圧縮音片データを索出できなかった音片があった場合、検索部9は、該当する音片を識別するデータ(以下、欠落部分識別データと呼ぶ)を生成する。
伸長部6は、検索部9より供給された圧縮音片データを、圧縮される前の音片データへと復元し、検索部9へと返送する。検索部9は、伸長部6より返送された音片データと、索出された音片読みデータ、スピード初期値データ及びピッチ成分データとを、検索結果として話速変換部11へと供給する。また、欠落部分識別データを生成した場合は、この欠落部分識別データも話速変換部11へと供給する。
一方、音片編集部8は、話速変換部11に対し、話速変換部11に供給された音片データを変換して、当該音片データが表す音片の時間長を、発声スピードデータが示すスピードに合致するようにすることを指示する。
話速変換部11は、音片編集部8の指示に応答し、検索部9より供給された音片データを指示に合致するように変換して、音片編集部8に供給する。具体的には、例えば、検索部9より供給された音片データの元の時間長を、索出されたスピード初期値データに基づいて特定した上、この音片データをリサンプリングして、この音片データのサンプル数を、音片編集部8の指示したスピードに合致する時間長にすればよい。
また、話速変換部11は、検索部9より供給された音片読みデータ、スピード初期値データ及びピッチ成分データも音片編集部8に供給し、欠落部分識別データを検索部9より供給された場合は、更にこの欠落部分識別データも音片編集部8に供給する。
なお、発声スピードデータが音片編集部8に供給されていない場合、音片編集部8は、話速変換部11に対し、話速変換部11に供給された音片データを変換せずに音片編集部8に供給するよう指示すればよく、話速変換部11は、この指示に応答し、検索部9より供給された音片データをそのまま音片編集部8に供給すればよい。
音片編集部8は、話速変換部11より音片データ、音片読みデータ、スピード初期値データ及びピッチ成分データを供給されると、供給された音片データのうちから、定型メッセージを構成する音片の波形に最もよく近似できる波形を表す音片データを、音片1個につき1個ずつ選択する。
具体的には、まず、音片編集部8は、定型メッセージデータが表す定型メッセージに、例えば「藤崎モデル」や「ToBI(Tone and Break Indices)」等の韻律予測の手法に基づいた解析を加えることにより、この定型メッセージ内の各音片のピッチ成分の周波数の時間変化を予測する。そして、音片毎に、ピッチ成分の周波数の時間変化の予測結果をサンプリングしたものを表すデジタル形式のデータ(以下、予測結果データと呼ぶ)を生成する。
次に、音片編集部8は、定型メッセージ内のそれぞれの音片について、この音片のピッチ成分の周波数の時間変化の予測結果を表す予測結果データと、この音片と読みが合致する音片の波形を表す音片データのピッチ成分の周波数の時間変化を表すピッチ成分データとの相関を求める。
より具体的には、音片編集部8は、話速変換部11より供給された各々のピッチ成分データについて、例えば、数式1の右辺に示す値α及び数式2の右辺に示す値βを求める。
Figure 0004264030
(数2) β=my−(α・mx)
図3(a)に示すように、ある音片についての予測結果データ(サンプルの総数はn個とする)のi番目のサンプルの値X(i)(iは整数)の1次関数として、この音片と読みが合致する音片の波形を表す音片データについてのピッチ成分データ(サンプルの総数はn個とする)のi番目のサンプルY(i)の値を1次回帰させた場合、この1次関数の勾配はα、切片はβとなる。(勾配αの単位は例えば[ヘルツ/秒]であればよく、切片βの単位は例えば[ヘルツ]であればよい。)
なお、同一の読みの音片について、予測結果データとピッチ成分データとでサンプルの総数が互いに異なる場合は、両者のうち一方(または両方)を、1次補間やラグランジェ補間あるいはその他任意の手法により補間した上でリサンプリングし、両者のサンプルの総数を揃えてから相関を求めるようにすればよい。
一方、音片編集部8は、話速変換部11より供給されたスピード初期値データと、音片編集部8に供給された定型メッセージデータ及び発声スピードデータとを用いて、数式3の右辺の値dtを求める。この値dtは、音片データが表す音片の発声スピードと、この音片と読みが合致する定型メッセージ内の音片の発声スピードとの時間差を表す係数である。
(数3) dt=|(Xt−Yt)/Yt|
(ただし、Ytは音片データが表す音片の発声スピード、Xtはこの音片と読みが合致する定型メッセージ内の音片の発声スピード)
そして、音片編集部8は、1次回帰により得られた上述のα及びβの値と、上述の係数dtとに基づいて、定型メッセージ内の音片の読みと一致する音片を表す音片データのうち、数式4の右辺の値(評価値)cost1が最大となるものを選択する。
(数4) cost1=1/(W|1−α|+W|β|+dt)
(ただし、W及びWは所定の正の係数)
音片のピッチ成分の周波数の時間変化の予測結果と、この音片と読みが合致する音片の波形を表す音片データのピッチ成分の周波数の時間変化とが互いに近いほど、勾配αの値は1に近くなり、従って、値|1−α|は0に近くなる。そして、評価値cost1は、音片のピッチの予測結果と音片データのピッチとの相関が高いほど大きな値となるようにするため、値|1−α|の1次関数の逆数の形をとっているので、評価値cost1は、値|1−α|が0に近くなるほど大きな値となる。
一方、音声の抑揚は、音片のピッチ成分の周波数の時間変化により特徴付けられる。従って、勾配αの値は、音声の抑揚の差異を敏感に反映する性質を有する。
このため、合成されるべき音声について抑揚の正確さが重視される場合(例えば、電子メール等のテキストを読み上げる音声を合成する場合等)は、上述の係数Wの値をなるべく大きくすることが望ましい。
これに対し、音片のピッチ成分の基本周波数(ベースピッチ周波数)の予測結果と、この音片と読みが合致する音片の波形を表す音片データのベースピッチ周波数とが互いに近いほど、切片βの値は0に近くなる。従って、切片βの値は、音声のベースピッチ周波数の差異を敏感に反映する性質を有する。一方、評価値cost1は、値|β|の1次関数の逆数とみることもできる形をとっているので、評価値cost1は、値|β|が0に近くなるほど大きな値となる。
一方、音声のベースピッチ周波数は、音声の話者の声質を支配する要因であり、話者の性別による差異も顕著である。
このため、合成されるべき音声についてベースピッチ周波数の正確さが重視される場合(例えば、合成音声の話者の性別や声質を明確にする必要がある場合など)は、上述の係数Wの値をなるべく大きくすることが望ましい。
動作の説明に戻ると、音片編集部8は、定型メッセージ内の音片の波形に近い波形を表す音片データを選択する一方で、話速変換部11より欠落部分識別データも供給されている場合には、欠落部分識別データが示す音片の読みを表す表音文字列を定型メッセージデータより抽出して音響処理部4に供給し、この音片の波形を合成するよう指示する。
指示を受けた音響処理部4は、音片編集部8より供給された表音文字列を、配信文字列データが表す表音文字列と同様に扱う。この結果、この表音文字列に含まれる表音文字が示す音声の波形を表す圧縮波形データが検索部5により索出され、この圧縮波形データが伸長部6により元の波形データへと復元され、検索部5を介して音響処理部4へと供給される。音響処理部4は、この波形データを音片編集部8へと供給する。
音片編集部8は、音響処理部4より波形データを返送されると、この波形データと、話速変換部11より供給された音片データのうち音片編集部8が特定したものとを、定型メッセージデータが示す定型メッセージ内での各音片の並びに従った順序で互いに結合し、合成音声を表すデータとして出力する。
なお、話速変換部11より供給されたデータに欠落部分識別データが含まれていない場合は、音響処理部4に波形の合成を指示することなく直ちに、音片編集部8が特定した音片データを、定型メッセージデータが示す定型メッセージ内での各音片の並びに従った順序で互いに結合し、合成音声を表すデータとして出力すればよい。
以上説明した、この音声合成システムでは、音素より大きな単位であり得る音片の波形を表す音片データが、韻律の予測結果に基づいて、録音編集方式により自然につなぎ合わせられ、定型メッセージを読み上げる音声が合成される。音片データベース10の記憶容量は、音素毎に波形を記憶する場合に比べて小さくでき、また、高速に検索できる。このため、この音声合成システムは小型軽量に構成することができ、また高速な処理にも追随できる。
また、音片の波形の予測結果と音片データとの相関を複数の評価基準(例えば、1次回帰させた場合の勾配や切片による評価と、音片の時間差による評価、など)で評価した場合は、これらの評価の結果に食い違いが生じる場合が多々あり得る。しかし、この音声合成システムでは、複数の評価基準で評価した結果が1個の評価値に基づいて総合され、適正な評価が行われる。
なお、この音声合成システムの構成は上述のものに限られない。
例えば、波形データや音片データはPCM形式のデータである必要はなく、データ形式は任意である。
また、波形データベース7や音片データベース10は波形データや音片データを必ずしもデータ圧縮された状態で記憶している必要はない。波形データベース7や音片データベース10が波形データや音片データをデータ圧縮されていない状態で記憶している場合、本体ユニットMは伸長部6を備えている必要はない。
また、音片データベース作成部13は、図示しない記録媒体ドライブ装置にセットされた記録媒体から、この記録媒体ドライブ装置を介して、音片データベース10に追加する新たな圧縮音片データの材料となる音片データや表音文字列を読み取ってもよい。
また、音片登録ユニットRは、必ずしも収録音片データセット記憶部12を備えている必要はない。
また、音片編集部8は、特定の音片の韻律を表す韻律登録データをあらかじめ記憶し、定型メッセージにこの特定の音片が含まれている場合は、この韻律登録データが表す韻律を、韻律予測の結果として扱うようにしてもよい。
また、音片編集部8は、過去の韻律予測の結果を韻律登録データとして新たに記憶するようにしてもよい。
また、音片編集部8は、上述のα及びβの値を求める代わりに、話速変換部11より供給された各々のピッチ成分データについて、例えば、数式5の右辺に示す値Rxy(j)を、jの値を0以上n未満の各整数として、合計n個求め、得られたRxy(0)からRxy(n−1)までのn個の相関係数のうちの最大値を特定するようにしてもよい。
Figure 0004264030
Rxy(j)は、ある音片についての予測結果データ(サンプル総数n個。なお、数式5におけるX(i)は数式1におけるものと同一である)と、この音片と読みが合致する音片の波形を表す音片データについてのピッチ成分データ(サンプルの総数n個)を一定の方向へj個循環シフトして得られたサンプルの列(なお、数式5においてYj(i)は、このサンプルの列のi番目のサンプルの値である)との相関係数の値である。
なお、図3(b)は、Rxy(0)及びRxy(j)の値を求めるために用いる予測結果データ及びピッチ成分データの値の一例を示すグラフである。ただし、Y(p)の値(ただし、pは1以上n以下の整数)は、循環シフトを行う前のピッチ成分データのp番目のサンプルの値である。従って、例えば、音片データのサンプルが時刻の早い順に並んでおり、循環シフトが下位方向(つまり時刻が遅い方)へと行われるものとすれば、j<pの場合はYj(p)=Y(p−j)であり、一方、1≦p≦jの場合はYj(p)=Y(n−j+p)である。
そして、音片編集部8は、上述のRxy(j)の最大値と、上述の係数dtとに基づいて、定型メッセージ内の音片の読みと一致する音片を表す音片データのうち、数式6の右辺の値(評価値)cost2が最大となるものを選択すればよい。
(数6) cost2=1/(W|Rmax|+dt)
(ただし、Wは所定の係数、RmaxはRxy(0)〜Rxy(n−1)のうちの最大値)
なお、音片編集部8は、必ずしもピッチ成分データを種々循環シフトしたものについて上述の相関係数を求める必要はなく、例えば、Rxy(0)の値をそのまま相関係数の最大値として扱うようにしてもよい。
また、評価値cost1やcost2は、係数dtの項を含まなくてもよく、この場合、音片編集部8は、係数dtを求める必要がない。
あるいは、音片編集部8は、係数dtの値をそのまま評価値として用いてもよく、この場合、音片編集部は、勾配αや、切片βや、Rxy(j)の値を求める必要がない。
また、ピッチ成分データは音片データが表す音片のピッチ長の時間変化を表すデータであってもよい。この場合、音片編集部8は、予測結果データとして、音片のピッチ長の時間変化の予測結果を表すデータを作成するものとし、この音片と読みが合致する音片の波形を表す音片データのピッチ長の時間変化を表すピッチ成分データとの相関を求めるようにすればよい。
また、音片データベース作成部13は、マイクロフォン、増幅器、サンプリング回路、A/D(Analog-to-Digital)コンバータ及びPCMエンコーダなどを備えていてもよい。この場合、音片データベース作成部13は、収録音片データセット記憶部12より音片データを取得する代わりに、自己のマイクロフォンが集音した音声を表す音声信号を増幅し、サンプリングしてA/D変換した後、サンプリングされた音声信号にPCM変調を施すことにより、音片データを作成してもよい。
また、音片編集部8は、音響処理部4より返送された波形データを話速変換部11に供給することにより、当該波形データが表す波形の時間長を、発声スピードデータが示すスピードに合致させるようにしてもよい。
また、音片編集部8は、例えば、言語処理部1と共にフリーテキストデータを取得し、このフリーテキストデータが表すフリーテキストに含まれる音片の波形に最も近い波形を表す音片データを、定型メッセージに含まれる音片の波形に最も近い波形を表す音片データを選択する処理と実質的に同一の処理を行うことによって選択して、音声の合成に用いてもよい。
この場合、音響処理部4は、音片編集部8が選択した音片データが表す音片については、この音片の波形を表す波形データを検索部5に索出させなくてもよい。なお、音片編集部8は、音響処理部4が合成しなくてよい音片を音響処理部4に通知し、音響処理部4はこの通知に応答して、この音片を構成する単位音声の波形の検索を中止するようにすればよい。
また、音片編集部8は、例えば、音響処理部4と共に配信文字列データを取得し、この配信文字列データが表す配信文字列に含まれる音片の波形に最も近い波形を表す音片データを、定型メッセージに含まれる音片の波形に最も近い波形を表す音片データを選択する処理と実質的に同一の処理を行うことによって選択して、音声の合成に用いてもよい。この場合、音響処理部4は、音片編集部8が選択した音片データが表す音片については、この音片の波形を表す波形データを検索部5に索出させなくてもよい。
(第2の実施の形態)
次に、この発明の第2の実施の形態を説明する。この発明の第2の実施の形態に係る音声合成システムの物理的構成は、上述した第1の実施の形態における構成と実質的に同一である。
ただし、第2の実施の形態の音声合成システムにおける音片データベース10のディレクトリ部DIRには、例えば図4に示すように、個々の圧縮音声データについて、上述の(A)〜(D)のデータが互いに対応づけられた形で格納されているほか、上述の(E)のデータに代え、ピッチ成分データとして、(F)この圧縮音片データが表す音片の先頭と末尾におけるピッチ成分の周波数を表すデータが、これら(A)〜(D)のデータに対応付けられた形で格納されている。
なお、図4は、図2と同様、データ部DATに含まれるデータとして、読みが「サイタマ」である音片の波形を表す、データ量1410hバイトの圧縮音片データが、アドレス001A36A6hを先頭とする論理的位置に格納されている場合を例示している。)また、上述の(A)〜(D)及び(F)のデータの集合のうち少なくとも(A)のデータは、音片読みデータが表す表音文字に基づいて決められた順位に従ってソートされた状態で音片データベース10の記憶領域に格納されているものとする。
そして、音片登録ユニットRの音片データベース作成部13は、収録音片データセット記憶部12より、互いに対応付けられている表音文字及び音片データを読み出すと、この音片データが表す音声の発声スピードと、先頭及び末尾でのピッチ成分の周波数とを特定するものとする。
そして、読み出した音片データを圧縮部14に供給し、圧縮音片データの返送を受けると、この圧縮音片データ、収録音片データセット記憶部12より読み出した表音文字、この圧縮音片データの音片データベース10の記憶領域内での先頭のアドレス、この圧縮音片データのデータ長、及び、特定した発声スピードを示すスピード初期値データを、第1の実施の形態の音片データベース作成部13と同様の動作を行うことにより音片データベース10の記憶領域に書き込み、また、音声の先頭及び末尾におけるピッチ成分の周波数を特定した結果を示すデータを生成して、ピッチ成分データとして音片データベース10の記憶領域に書き込むものする。
なお、発声スピード及びピッチ成分の周波数の特定は、例えば、第1の実施の形態の音片データベース作成部13が行う手法と実質的に同一の手法により行えばよい。
次に、この音声合成システムの動作を説明する。
この音声合成システムの言語処理部1がフリーテキストデータを外部から取得した場合、及び、音響処理部4が配信文字列データを取得した場合の動作は、第1の実施の形態の音声合成システムが行う動作と実質的に同一である。(なお、言語処理部1がフリーテキストデータを取得する手法や音響処理部4が配信文字列データを取得する手法はいずれも任意であり、例えば、いずれも第1の実施の形態における言語処理部1や音響処理部4が行う手法と同様の手法によりフリーテキストデータあるいは配信文字列データを取得すればよい。)
次に、音片編集部8が、定型メッセージデータ及び発声スピードデータを取得したとする。(なお、音片編集部8が定型メッセージデータや発声スピードデータを取得する手法も任意であり、例えば、第1の実施の形態の音片編集部8が行う手法と同様の手法で定型メッセージデータや発声スピードデータを取得すればよい。)
定型メッセージデータ及び発声スピードデータが音片編集部8に供給されると、音片編集部8は、第1の実施の形態における音片編集部8と同様に、定型メッセージに含まれる音片の読みを表す表音文字に合致する表音文字が対応付けられている圧縮音片データをすべて索出するよう、検索部9に指示する。また、話速変換部11に対しても、第1の実施の形態における音片編集部8と同様に、話速変換部11に供給される音片データを変換して、当該音片データが表す音片の時間長を、発声スピードデータが示すスピードに合致するようにすることを指示する。
すると、検索部9、伸張部6及び話速変換部11が、第1の実施の形態における検索部9、伸張部6及び話速変換部11の動作と実質的に同一の動作を行い、この結果、話速変換部11から音片編集部8へと、音片データ、音片読みデータ及びピッチ成分データが供給される。また、欠落部分識別データが検索部9より話速変換部11へと供給された場合は、更にこの欠落部分識別データも音片編集部8へと供給される。
音片編集部8は、話速変換部11より音片データ、音片読みデータ及びピッチ成分データを供給されると、以下説明する手順に従い、供給された音片データのうちから、定型メッセージを構成する音片の波形とみなせる波形を表す音片データを、音片1個につき1個ずつ選択する。
具体的には、まず、音片編集部8は、話速変換部11より供給されたピッチ成分データに基づき、話速変換部11より供給された各音片データの先頭及び末尾の各時点でのピッチ成分の周波数を特定する。そして、話速変換部11より供給された音片データのうちから、定型メッセージ内で隣接する音片同士の境界でのピッチ成分の周波数の差の絶対値を定型メッセージ全体で累計した値が最小になる、という条件を満たすように、音片データを選択する。
音片データを選択する条件を、図5(a)〜(d)を参照して説明する。例えば、図5(a)に示すような、「このさきみぎかーぶです」という読みの定型メッセージを表す定型メッセージデータが音片編集部8に供給されたものとし、この定型メッセージが「このさき」、「みぎかーぶ」及び「です」という3個の音片からなるものとする。そして、図5(b)にリストを示すように、音片データベース10が、読みが「このさき」である圧縮音片データが3個(図5(b)において「A1」「A2」あるいは「A3」として表したもの)、読みが「みぎかーぶ」である圧縮音片データが2個(図5(b)において「B1」あるいは「B2」として表したもの)、読みが「です」である圧縮音片データが3個(図5(b)において「C1」「C2」あるいは「C3」として表したもの)、それぞれ索出され、伸長され、音片データとして音片編集部8へと供給されたとする。
一方、読みが「このさき」である各音片データが表す各音片の末尾におけるピッチ成分の周波数と読みが「みぎかーぶ」である各音片データが表す各音片の先頭におけるピッチ成分の周波数との差の絶対値は図5(c)に示す通りであったとする。(図5(c)は、例えば、音片データA1が表す音片の末尾におけるピッチ成分の周波数と音片データB1が表す音片の先頭におけるピッチ成分の周波数との差の絶対値は「123」であることを示している。なお、この絶対値の単位は、例えば「ヘルツ」である。)
また、読みが「みぎかーぶ」である各音片データが表す各音片の末尾におけるピッチ成分の周波数と読みが「です」である各音片データが表す各音片の先頭におけるピッチ成分の周波数との差の絶対値は図5(c)に示す通りであったとする。
この場合において、「このさきみぎかーぶです」という定型メッセージを読み上げる音声の波形を音片データを用いて生成した場合、隣接する音片同士の境界でのピッチ成分の周波数の差の絶対値の累計が最小になる組み合わせは、A3、B2及びC2という組み合わせである。従ってこの場合、音片編集部8は、図5(d)に示すように、音片データA3、B2及びC2を選択する。
この条件を満たす音片データを選択するために、音片編集部8は、例えば、定型メッセージ内で隣接する音片同士の境界でのピッチ成分の周波数の差の絶対値を距離として定義し、DP(Dynamic Programming)マッチングの手法により音片データを選ぶようにすればよい。
一方、音片編集部8は、話速変換部11より欠落部分識別データも供給されている場合には、欠落部分識別データが示す音片の読みを表す表音文字列を定型メッセージデータより抽出して音響処理部4に供給し、この音片の波形を合成するよう指示する。
指示を受けた音響処理部4は、音片編集部8より供給された表音文字列を、配信文字列データが表す表音文字列と同様に扱う。この結果、この表音文字列に含まれる表音文字が示す音声の波形を表す圧縮波形データが検索部5により索出され、この圧縮波形データが伸長部6により元の波形データへと復元され、検索部5を介して音響処理部4へと供給される。音響処理部4は、この波形データを音片編集部8へと供給する。
音片編集部8は、音響処理部4より波形データを返送されると、この波形データと、話速変換部11より供給された音片データのうち音片編集部8が選択したものとを、定型メッセージデータが示す定型メッセージ内での各音片の並びに従った順序で互いに結合し、合成音声を表すデータとして出力する。
なお、話速変換部11より供給されたデータに欠落部分識別データが含まれていない場合は、第1の実施の形態と同様、音響処理部4に波形の合成を指示することなく直ちに、音片編集部8が選択した音片データを、定型メッセージデータが示す定型メッセージ内での各音片の並びに従った順序で互いに結合し、合成音声を表すデータとして出力すればよい。
以上説明したように、この第2の実施の形態の音声合成システムでは、音片データ同士の境界でのピッチ成分の周波数の不連続的な変化の量の累計が定型メッセージ全体で最小となるように音片データが選ばれ、録音編集方式により自然につなぎ合わせられるため、合成音声が自然なものとなる。また、この音声合成システムでは、処理が複雑な韻律予測は行われないので、簡単な構成で高速な処理にも追随できる。
なお、この第2の実施の形態の音声合成システムの構成も、上述のものに限られない。
例えば、ピッチ成分データは音片データが表す音片の先頭及び末尾でのピッチ長を表すデータであってもよい。この場合、音片編集部8は、話速変換部11より供給された各音片データの先頭及び末尾でのピッチ長を話速変換部11より供給されたピッチ成分データに基づいて特定し、定型メッセージ内で隣接する音片同士の境界でのピッチ長の差の絶対値を定型メッセージ全体で累計した値が最小になる、という条件を満たすように、音片データを選択すればよい。
また、音片編集部8は、例えば、言語処理部1と共にフリーテキストデータを取得し、このフリーテキストデータが表すフリーテキストに含まれる音片の波形とみなせる波形を表す音片データを、定型メッセージに含まれる音片の波形とみなせる波形を表す音片データを抽出する処理と実質的に同一の処理を行うことによって抽出して、音声の合成に用いてもよい。
この場合、音響処理部4は、音片編集部8が抽出した音片データが表す音片については、この音片の波形を表す波形データを検索部5に索出させなくてもよい。なお、音片編集部8は、音響処理部4が合成しなくてよい音片を音響処理部4に通知し、音響処理部4はこの通知に応答して、この音片を構成する単位音声の波形の検索を中止するようにすればよい。
また、音片編集部8は、例えば、音響処理部4と共に配信文字列データを取得し、この配信文字列データが表す配信文字列に含まれる音片の波形とみなせる波形を表す音片データを、定型メッセージに含まれる音片の波形とみなせる波形を表す音片データを抽出する処理と実質的に同一の処理を行うことによって抽出して、音声の合成に用いてもよい。この場合、音響処理部4は、音片編集部8が抽出した音片データが表す音片については、この音片の波形を表す波形データを検索部5に索出させなくてもよい。
(第3の実施の形態)
次に、この発明の第3の実施の形態を説明する。この発明の第3の実施の形態に係る音声合成システムの物理的構成は、上述した第1の実施の形態における構成と実質的に同一である。
次に、この音声合成システムの動作を説明する。
この音声合成システムの言語処理部1がフリーテキストデータを外部から取得した場合、及び、音響処理部4が配信文字列データを取得した場合の動作は、第1又は第2の実施の形態の音声合成システムが行う動作と実質的に同一である。(なお、言語処理部1がフリーテキストデータを取得する手法や音響処理部4が配信文字列データを取得する手法はいずれも任意であり、例えば、いずれも第1又は第2の実施の形態における言語処理部1や音響処理部4が行う手法と同様の手法によりフリーテキストデータあるいは配信文字列データを取得すればよい。)
次に、音片編集部8が、定型メッセージデータ及び発声スピードデータを取得したとする。なお、音片編集部8が定型メッセージデータや発声スピードデータを取得する手法も任意であり、例えば、第1の実施の形態の音片編集部8が行う手法と同様の手法で定型メッセージデータや発声スピードデータを取得すればよい。あるいは、例えばこの音声合成システムがカーナビゲーションシステム等の車両内システムの一部をなすものであって、この車両内システムを構成するの他の装置(例えば、音声認識を行い、音声認識の結果得られた情報に基づいてエージェント処理を実行する装置など)が、ユーザーに対して発話する内容や発話スピードを決定し、決定結果を表すデータを生成するものである場合、この音声合成システムは、生成されたこのデータを受信(取得)し、定型メッセージデータ及び発声スピードデータとして扱うようにしてもよい。
定型メッセージデータ及び発声スピードデータが音片編集部8に供給されると、音片編集部8は、第1の実施の形態における音片編集部8と同様に、定型メッセージに含まれる音片の読みを表す表音文字に合致する表音文字が対応付けられている圧縮音片データをすべて索出するよう、検索部9に指示する。また、話速変換部11に対しても、第1の実施の形態における音片編集部8と同様に、話速変換部11に供給される音片データを変換して、当該音片データが表す音片の時間長を、発声スピードデータが示すスピードに合致するようにすることを指示する。
すると、検索部9、伸張部6及び話速変換部11が、第1の実施の形態における検索部9、伸張部6及び話速変換部11の動作と実質的に同一の動作を行い、この結果、話速変換部11から音片編集部8へと、音片データ、音片読みデータ、この音片データが表す音片の発声スピードを表すスピード初期値データ及びピッチ成分データが供給される。また、欠落部分識別データが検索部9より話速変換部11へと供給された場合は、更にこの欠落部分識別データも音片編集部8へと供給される。
音片編集部8は、話速変換部11より音片データ、音片読みデータ及びピッチ成分データを供給されると、話速変換部11より供給された各々のピッチ成分データについて上述の値α、βの組及び/又はRmaxを求め、また、このスピード初期値データと、音片編集部8に供給された定型メッセージデータ及び発声スピードデータとを用いて、上述の値dtを求める。
そして、音片編集部8は、話速変換部11より供給されたそれぞれの音片データにつき、自ら求めた当該音片データ(以下、音片データXと記す)についてのα、β、Rmax及びdtの値と、定型メッセージ内で当該音片データが表す音片の後に隣接する音片を表す音片データ(以下、音片データYと記す)のピッチ成分の周波数とに基づいて、数式7に示す評価値HXYを特定する。
(数7) HXY=(W・cost_A)+(W・cost_B)+(W・cost_C)
(ただし、W、W及びWはいずれも所定の係数であり、Wは0ではないものとする)
数式7の右辺に含まれる値cost_Aは、当該定型メッセージ内で互いに隣接する、音片データXが表す音片と音片データYが表す音片との境界でのピッチ成分の周波数の差の絶対値の逆数である。
なお、音片編集部8は、cost_Aの値を特定するため、話速変換部11より供給されたピッチ成分データに基づき、話速変換部11より供給された各音片データの先頭及び末尾の各時点でのピッチ成分の周波数を特定するようにすればよい。
また、数式7の右辺に含まれる値cost_Bは、音片データXについて数式8に従って評価値cost_Bを求めた場合の値である。
(数8) cost_B=1/(WB1|1−α|+WB2|β|+WB3・dt)
(ただし、WB1、WB2及びWB3は所定の正の係数)
また、数式7の右辺に含まれる値cost_Cは、音片データXについて数式9に従って評価値cost_Cを求めた場合における値である。
(数9) cost_C=1/(WC1|Rmax|+WC2・dt)
(ただし、WC1及びWC2は所定の係数)
あるいは、音片編集部8は、数式7〜数式9に代えて、数式10及び数式11に従って評価値HXYを特定するようにしてもよい。ただし、数式10に含まれるcost_B及びcost_Cについては、上述の係数WB3及びWC3の値はいずれも0とする。また、数式8及び数式9における(WB3・dt)及び(WC2・dt)の項を備えなくともよい。
(数10) HXY=(W・cost_A)+(W・cost_B)+(W・cost_C)+(W・cost_D)
(ただし、Wは0でない所定の係数)
(数11) cost_D=1/(Wd1・dt)
(ただし、Wd1は0でない所定の係数)
そして、音片編集部8は、話速変換部11より供給された各音片データのうちから、音片編集部8に供給された定型メッセージデータが表す定型メッセージを構成する音片1個につき1個ずつの音片データを選ぶことにより得られる各組み合わせのうち、組み合わせに属する各音片データの評価値HXYの総和が最大となるものを、定型メッセージを読み上げる音声を合成するための最適な音片データの組み合わせとして選択する。
つまり、例えば図5に示すように、定型メッセージデータが表す定型メッセージが音片A,B及びCより構成され、音片Aを表す音片データの候補として音片データA1,A2及びA3が索出され、音片Bを表す音片データの候補として音片データB1及びB2が索出され、音片Cを表す音片データの候補として音片データC1,C2及びC3が索出された場合、音片データA1,A2及びA3のうちから1個、音片データB1及びB2のうちから1個、音片データC1,C2及びC3のうちから1個、計3個選ぶことにより得られる組み合わせ計18通りのうち、組み合わせに属する各音片データの評価値HXYの総和が最大となるものを、定型メッセージを読み上げる音声を合成するための最適な音片データの組み合わせとして選択する。
ただし、総和を求めるために用いられる評価値HXYとしては、組み合わせ内での音片の接続関係を正しく反映したものが選ばれるものとする。つまり、例えば組み合わせ内に、音片pを表す音片データP及び音片qを表す音片データQが含まれており、定型メッセージ内では音片pが音片qに先行する形で互いに隣接するという場合、音片データPの評価値としては、音片pが音片qに先行する形で互いに隣接する場合における評価値HPQが用いられるものとする。
また、定型メッセージの末尾の音片(例えば、図5を参照して前述した例でいえば、音片C1,C2及びC3)については、後続する音片が存在しないため、cost_Aの値を定めることができない。このため、これら末尾の音片を表す音片データの評価値HXYを算定するにあたって、音片編集部8は、(W・cost_A)の値を0であるものとして扱い、一方、係数W,W及びWの値は、それぞれ、他の音片データの評価値HXYを算定する場合とは異なる所定の値であるものとして扱う。
なお、音片編集部8は、数式7あるいは数式11を用いて、音片データXについて、当該音片データXが表す音片の前に隣接する音片データYとの関係を表す評価値を含むものとして評価値HXYを特定してもよい。この場合は、定型メッセージの先頭の音片について、先行する音片が存在しないため、cost_Aの値を定めることができないこととなる。このため、これら先頭の音片を表す音片データの評価値HXYを算定するにあたって、音片編集部8は、(W・cost_A)の値を0であるものとして扱い、一方、係数W,W及びWの値は、それぞれ、他の音片データの評価値HXYを算定する場合とは異なる所定の値であるものとして扱うようにすればよい。
一方、音片編集部8は、話速変換部11より欠落部分識別データも供給されている場合には、欠落部分識別データが示す音片の読みを表す表音文字列を定型メッセージデータより抽出して音響処理部4に供給し、この音片の波形を合成するよう指示する。
指示を受けた音響処理部4は、音片編集部8より供給された表音文字列を、配信文字列データが表す表音文字列と同様に扱う。この結果、この表音文字列に含まれる表音文字が示す音声の波形を表す圧縮波形データが検索部5により索出され、この圧縮波形データが伸長部6により元の波形データへと復元され、検索部5を介して音響処理部4へと供給される。音響処理部4は、この波形データを音片編集部8へと供給する。
音片編集部8は、音響処理部4より波形データを返送されると、この波形データと、話速変換部11より供給された音片データのうち、評価値HXYの総和が最大となる組み合わせとして音片編集部8が選択した組み合わせに属するものとを、定型メッセージデータが示す定型メッセージ内での各音片の並びに従った順序で互いに結合し、合成音声を表すデータとして出力する。
なお、話速変換部11より供給されたデータに欠落部分識別データが含まれていない場合は、第1の実施の形態と同様、音響処理部4に波形の合成を指示することなく直ちに、音片編集部8が選択した音片データを、定型メッセージデータが示す定型メッセージ内での各音片の並びに従った順序で互いに結合し、合成音声を表すデータとして出力すればよい。
以上説明したように、この第3の実施の形態の音声合成システムでも、音片データが録音編集方式により自然につなぎ合わせられ、定型メッセージを読み上げる音声が合成される。音片データベース10の記憶容量は、音素毎に波形を記憶する場合に比べて小さくでき、また、高速に検索できる。このため、この音声合成システムは小型軽量に構成することができ、また高速な処理にも追随できる。
そして、第3の実施の形態の音声合成システムによれば、定型メッセージを読み上げる音声を合成するために選択される音片データの組み合わせの適切さを評価するための様々な評価基準(例えば、音片の波形の予測結果と音片データとの相関を1次回帰させた場合の勾配や切片による評価や、音片の時間差による評価や、音片データ同士の境界でのピッチ成分の周波数の不連続的な変化の量の累計、など)が、1個の評価値に影響を及ぼす形で総合的に反映され、この結果、最も自然な合成音声を合成するために選択すべき最適な音片データの組み合わせが、適正に決定される。
なお、この第3の実施の形態の音声合成システムの構成も、上述のものに限られない。
例えば、最適な音片データの組み合わせを選択するために音片編集部8が用いる評価値は数式7〜13に示すものに限られず、音片データが表す音片を互いに結合して得られる音声が、人の発する音声にどの程度類似又は相違しているかについての評価を表す任意の値であってよい。
また、評価値を表す数式(評価式)に含まれる変数ないし定数も必ずしも数式7〜13に含まれているものに限られず、評価式としては、音片データが表す音片の特徴を示す任意のパラメータや、あるいは当該音片を互いに結合して得られる音声の特徴を示す任意のパラメータや、あるいは当該音声を人が発した場合に当該音声に備わると予測される特徴を示す任意のパラメータを含んだ数式が用いられてよい。
また、最適な音片データの組み合わせを選択するための基準は必ずしも評価値の形で表現可能なものである必要はなく、音片データが表す音片を互いに結合して得られる音声が人の発する音声にどの程度類似又は相違しているかについての評価に基づいて音片データの最適な組み合わせを特定するに至るような基準である限り任意である。
また、音片編集部8は、例えば、言語処理部1と共にフリーテキストデータを取得し、このフリーテキストデータが表すフリーテキストに含まれる音片の波形とみなせる波形を表す音片データを、定型メッセージに含まれる音片の波形とみなせる波形を表す音片データを抽出する処理と実質的に同一の処理を行うことによって抽出して、音声の合成に用いてもよい。この場合、音響処理部4は、音片編集部8が抽出した音片データが表す音片については、この音片の波形を表す波形データを検索部5に索出させなくてもよい。なお、音片編集部8は、音響処理部4が合成しなくてよい音片を音響処理部4に通知し、音響処理部4はこの通知に応答して、この音片を構成する単位音声の波形の検索を中止するようにすればよい。
また、音片編集部8は、例えば、音響処理部4と共に配信文字列データを取得し、この配信文字列データが表す配信文字列に含まれる音片の波形とみなせる波形を表す音片データを、定型メッセージに含まれる音片の波形とみなせる波形を表す音片データを抽出する処理と実質的に同一の処理を行うことによって抽出して、音声の合成に用いてもよい。この場合、音響処理部4は、音片編集部8が抽出した音片データが表す音片については、この音片の波形を表す波形データを検索部5に索出させなくてもよい。
以上、この発明の実施の形態を説明したが、この発明にかかる音声データ選択装置は、専用のシステムによらず、通常のコンピュータシステムを用いて実現可能である。
例えば、パーソナルコンピュータに上述の第1の実施の形態における言語処理部1、一般単語辞書2、ユーザ単語辞書3、音響処理部4、検索部5、伸長部6、波形データベース7、音片編集部8、検索部9、音片データベース10及び話速変換部11の動作を実行させるためのプログラムを格納した媒体(CD−ROM、MO、フロッピー(登録商標)ディスク等)から該プログラムをインストールすることにより、当該パーソナルコンピュータに、上述の第1の実施の形態の本体ユニットMの機能を行わせることができる。
また、パーソナルコンピュータに、上述の第1の実施の形態における収録音片データセット記憶部12、音片データベース作成部13及び圧縮部14の動作を実行させるためのプログラムを格納した媒体から該プログラムをインストールすることにより、当該パーソナルコンピュータに、上述の第1の実施の形態の音片登録ユニットRの機能を行わせることができる。
そして、これらのプログラムを実行し、第1の実施の形態における本体ユニットMや音片登録ユニットRとして機能するパーソナルコンピュータが、図1の音声合成システムの動作に相当する処理として、図6〜図8に示す処理を行うものとする。
図6は、このパーソナルコンピュータがフリーテキストデータを取得した場合の処理を示すフローチャートである。
図7は、このパーソナルコンピュータが配信文字列データを取得した場合の処理を示すフローチャートである。
図8は、このパーソナルコンピュータが定型メッセージデータ及び発声スピードデータを取得した場合の処理を示すフローチャートである。
すなわち、まず、このパーソナルコンピュータが、外部より、上述のフリーテキストデータを取得すると(図6、ステップS101)、このフリーテキストデータが表すフリーテキストに含まれるそれぞれの表意文字について、その読みを表す表音文字を、一般単語辞書2やユーザ単語辞書3を検索することにより特定し、この表意文字を、特定した表音文字へと置換する(ステップS102)。なお、このパーソナルコンピュータがフリーテキストデータを取得する手法は任意である。
そして、このパーソナルコンピュータは、フリーテキスト内の表意文字をすべて表音文字へと置換した結果を表す表音文字列が得られると、この表音文字列に含まれるそれぞれの表音文字について、当該表音文字が表す単位音声の波形を波形データベース7より検索し、表音文字列に含まれるそれぞれの表音文字が表す単位音声の波形を表す圧縮波形データを索出する(ステップS103)。
次に、このパーソナルコンピュータは、索出された圧縮波形データを、圧縮される前の波形データへと復元し(ステップS104)、復元された波形データを、表音文字列内での各表音文字の並びに従った順序で互いに結合し、合成音声データとして出力する(ステップS105)。なお、このパーソナルコンピュータが合成音声データを出力する手法は任意である。
また、このパーソナルコンピュータが、外部より、上述の配信文字列データを任意の手法で取得すると(図7、ステップS201)、この配信文字列データが表す表音文字列に含まれるそれぞれの表音文字について、当該表音文字が表す単位音声の波形を波形データベース7より検索し、表音文字列に含まれるそれぞれの表音文字が表す単位音声の波形を表す圧縮波形データを索出する(ステップS202)。
次に、このパーソナルコンピュータは、索出された圧縮波形データを、圧縮される前の波形データへと復元し(ステップS203)、復元された波形データを、表音文字列内での各表音文字の並びに従った順序で互いに結合し、合成音声データとしてステップS105の処理と同様の処理により出力する(ステップS204)。
一方、このパーソナルコンピュータが、外部より、上述の定型メッセージデータ及び発声スピードデータを任意の手法により取得すると(図8、ステップS301)、まず、この定型メッセージデータが表す定型メッセージに含まれる音片の読みを表す表音文字に合致する表音文字が対応付けられている圧縮音片データをすべて索出する(ステップS302)。
また、ステップS302では、該当する圧縮音片データに対応付けられている上述の音片読みデータ、スピード初期値データ及びピッチ成分データも索出する。なお、1個の音片につき複数の圧縮音片データが該当する場合は、該当する圧縮音片データすべてを索出する。一方、圧縮音片データを索出できなかった音片があった場合は、上述の欠落部分識別データを生成する。
次に、このパーソナルコンピュータは、索出された圧縮音片データを、圧縮される前の音片データへと復元する(ステップS303)。そして、復元された音片データを、上述の音片編集部8が行う処理と同様の処理により変換して、当該音片データが表す音片の時間長を、発声スピードデータが示すスピードに合致させる(ステップS304)。なお、発声スピードデータが供給されていない場合は、復元された音片データを変換しなくてもよい。
次に、このパーソナルコンピュータは、音片の時間長が変換された音片データのうちから、定型メッセージを構成する音片の波形に最も近い波形を表す音片データを、上述の音片編集部8が行う処理と同様の処理を行うことにより、音片1個につき1個ずつ選択する(ステップS305〜S308)。
すなわち、このパーソナルコンピュータは、定型メッセージデータが表す定型メッセージに韻律予測の手法に基づいた解析を加えることにより、この定型メッセージの韻律を予測する(ステップS305)。そして、定型メッセージ内のそれぞれの音片について、この音片のピッチ成分の周波数の時間変化の予測結果と、この音片と読みが合致する音片の波形を表す音片データのピッチ成分の周波数の時間変化を表すピッチ成分データとの相関を求める(ステップS306)。より具体的には、索出された各々のピッチ成分データについて、例えば、上述した勾配α及び切片βの値を求める。
一方で、このパーソナルコンピュータは、索出されたスピード初期値データと、外部より取得した定型メッセージデータ及び発声スピードデータとを用いて、上述の値dtを求める(ステップS307)。
そして、このパーソナルコンピュータは、ステップS306で求めたα、βの値、及び、ステップS307で求めたdtの値に基づいて、定型メッセージ内の音片の読みと一致する音片を表す音片データのうち、上述の評価値cost1が最大となるものを選択する(ステップS308)。
なお、このパーソナルコンピュータは、ステップS306で、上述のα及びβの値を求める代わりに、上述のRxy(j)の最大値を求めるようにしてもよい。この場合は、ステップS308で、Rxy(j)の最大値と、ステップS307で求めた係数dtとに基づいて、定型メッセージ内の音片の読みと一致する音片を表す音片データのうち、上述の評価値cost2が最大となるものを選択すればよい。
一方、このパーソナルコンピュータは、欠落部分識別データを生成した場合、欠落部分識別データが示す音片の読みを表す表音文字列を定型メッセージデータより抽出し、この表音文字列につき、音素毎に、配信文字列データが表す表音文字列と同様に扱って上述のステップS202〜S203の処理を行うことにより、この表音文字列内の各表音文字が示す音声の波形を表す波形データを復元する(ステップS309)。
そして、このパーソナルコンピュータは、復元した波形データと、ステップS308で選択した音片データとを、定型メッセージデータが示す定型メッセージ内での各音片の並びに従った順序で互いに結合し、合成音声を表すデータとして出力する(ステップS310)。
また、パーソナルコンピュータに上述の第2の実施の形態における言語処理部1、一般単語辞書2、ユーザ単語辞書3、音響処理部4、検索部5、伸長部6、波形データベース7、音片編集部8、検索部9、音片データベース10及び話速変換部11の動作を実行させるためのプログラムを格納した媒体から該プログラムをインストールすることにより、当該パーソナルコンピュータに、上述の第2の実施の形態における本体ユニットMの機能を行わせることができる。
また、パーソナルコンピュータに上述の第2の実施の形態における収録音片データセット記憶部12、音片データベース作成部13及び圧縮部14の動作を実行させるためのプログラムを格納した媒体から該プログラムをインストールすることにより、当該パーソナルコンピュータに、上述の第2の実施の形態における音片登録ユニットRの機能を行わせることができる。
そして、これらのプログラムを実行し、第2の実施の形態における本体ユニットMや音片登録ユニットRとして機能するパーソナルコンピュータが、図1の音声合成システムの動作に相当する処理として、図6及び図7に示す上述の処理を行い、また、図9に示す処理を行うものとする。
図9は、このパーソナルコンピュータが定型メッセージデータ及び発声スピードデータを取得した場合の処理を示すフローチャートである。
すなわち、このパーソナルコンピュータが、外部より、上述の定型メッセージデータ及び発声スピードデータを任意の手法により取得すると(図9、ステップS401)、まず、上述のステップS302の処理と同様に、この定型メッセージデータが表す定型メッセージに含まれる音片の読みを表す表音文字に合致する表音文字が対応付けられている圧縮音片データと、該当する圧縮音片データに対応付けられている上述の音片読みデータ、スピード初期値データ及びピッチ成分データとを、すべて索出する(ステップS402)。なお、ステップS402でも、1個の音片につき複数の圧縮音片データが該当する場合は該当する圧縮音片データすべてを索出し、一方で圧縮音片データを索出できなかった音片があった場合は、上述の欠落部分識別データを生成する。
次に、このパーソナルコンピュータは、索出された圧縮音片データを、圧縮される前の音片データへと復元し(ステップS403)、復元された音片データを、上述の音片編集部8が行う処理と同様の処理により変換して、当該音片データが表す音片の時間長を、発声スピードデータが示すスピードに合致させる(ステップS404)。なお、発声スピードデータが供給されていない場合は、復元された音片データを変換しなくてもよい。
次に、このパーソナルコンピュータは、音片の時間長が変換された音片データのうちから、定型メッセージを構成する音片の波形とみなせる波形を表す音片データを、上述の第2の実施の形態における音片編集部8が行う処理と同様の処理を行うことにより、音片1個につき1個ずつ選択する(ステップS405〜S406)。
具体的には、まず、このパーソナルコンピュータは、音片の時間長が変換された各音片データの先頭及び末尾の各時点でのピッチ成分の周波数を、索出されたピッチ成分データに基づいて特定する(ステップS405)。そして、これらの音片データのうちから、定型メッセージ内で隣接する音片同士の境界でのピッチ成分の周波数の差の絶対値を定型メッセージ全体で累計した値が最小になる、という条件を満たすように、音片データを選択する(ステップS406)。この条件を満たす音片データを選択するために、このパーソナルコンピュータは、例えば、定型メッセージ内で隣接する音片同士の境界でのピッチ成分の周波数の差の絶対値を距離として定義し、DPマッチングの手法により音片データを選ぶようにすればよい。
一方、このパーソナルコンピュータは、欠落部分識別データを生成した場合、欠落部分識別データが示す音片の読みを表す表音文字列を定型メッセージデータより抽出し、この表音文字列につき、音素毎に、配信文字列データが表す表音文字列と同様に扱って上述のステップS202〜S203の処理を行うことにより、この表音文字列内の各表音文字が示す音声の波形を表す波形データを復元する(ステップS407)。
そして、このパーソナルコンピュータは、復元した波形データと、ステップS406で選択した音片データとを、定型メッセージデータが示す定型メッセージ内での各音片の並びに従った順序で互いに結合し、合成音声を表すデータとして出力する(ステップS408)。
また、パーソナルコンピュータに上述の第3の実施の形態における言語処理部1、一般単語辞書2、ユーザ単語辞書3、音響処理部4、検索部5、伸長部6、波形データベース7、音片編集部8、検索部9、音片データベース10及び話速変換部11の動作を実行させるためのプログラムを格納した媒体から該プログラムをインストールすることにより、当該パーソナルコンピュータに、上述の第3の実施の形態における本体ユニットMの機能を行わせることができる。
また、パーソナルコンピュータに上述の第3の実施の形態における収録音片データセット記憶部12、音片データベース作成部13及び圧縮部14の動作を実行させるためのプログラムを格納した媒体から該プログラムをインストールすることにより、当該パーソナルコンピュータに、上述の第3の実施の形態における音片登録ユニットRの機能を行わせることができる。
そして、これらのプログラムを実行し、第3の実施の形態における本体ユニットMや音片登録ユニットRとして機能するパーソナルコンピュータが、図1の音声合成システムの動作に相当する処理として、図6及び図7に示す上述の処理を行い、また、図10に示す処理を行うものとする。
図10は、このパーソナルコンピュータが定型メッセージデータ及び発声スピードデータを取得した場合の処理を示すフローチャートである。
すなわち、このパーソナルコンピュータが、外部より、上述の定型メッセージデータ及び発声スピードデータを任意の手法により取得すると(図10、ステップS501)、まず、上述のステップS302の処理と同様に、この定型メッセージデータが表す定型メッセージに含まれる音片の読みを表す表音文字に合致する表音文字が対応付けられている圧縮音片データと、該当する圧縮音片データに対応付けられている上述の音片読みデータ、スピード初期値データ及びピッチ成分データとを、すべて索出する(ステップS502)。なお、ステップS502でも、1個の音片につき複数の圧縮音片データが該当する場合は該当する圧縮音片データすべてを索出し、一方で圧縮音片データを索出できなかった音片があった場合は、上述の欠落部分識別データを生成する。
次に、このパーソナルコンピュータは、索出された圧縮音片データを、圧縮される前の音片データへと復元し(ステップS503)、復元された音片データを、上述の音片編集部8が行う処理と同様の処理により変換して、当該音片データが表す音片の時間長を、発声スピードデータが示すスピードに合致させる(ステップS504)。なお、発声スピードデータが供給されていない場合は、復元された音片データを変換しなくてもよい。
次に、このパーソナルコンピュータは、音片の時間長が変換された音片データのうちから、定型メッセージを読み上げる音声を合成するための最適な音片データの組み合わせを、上述の第3の実施の形態における音片編集部8が行う処理と同様の処理を行うことにより選択する(ステップS505〜S507)。
すなわち、まず、このパーソナルコンピュータは、ステップS502で索出された各々のピッチ成分データについて上述の値α、βの組及び/又はRmaxを求め、また、このスピード初期値データと、ステップS501で取得した定型メッセージデータ及び発声スピードデータとを用いて、上述の値dtを求める(ステップS505)。
次に、このパーソナルコンピュータは、ステップS504で変換されたそれぞれの音片データにつき、ステップS505で求めたα、β、Rmax及びdtの値と、定型メッセージ内で当該音片データが表す音片の後に隣接する音片を表す音片データのピッチ成分の周波数とに基づいて、上述した評価値HXYを特定する(ステップS506)。
そして、このパーソナルンピュータは、ステップS504で変換された各音片データのうちから、ステップS501で取得した定型メッセージデータが表す定型メッセージを構成する音片1個につき1個ずつの音片データを選ぶことにより得られる各組み合わせのうち、組み合わせに属する各音片データの評価値HXYの総和が最大となるものを、定型メッセージを読み上げる音声を合成するための最適な音片データの組み合わせとして選択する(ステップS507)。ただし、総和を求めるために用いられる評価値HXYとしては、組み合わせ内での音片の接続関係を正しく反映したものが選ばれるものとする。
一方、このパーソナルコンピュータは、欠落部分識別データを生成した場合、欠落部分識別データが示す音片の読みを表す表音文字列を定型メッセージデータより抽出し、この表音文字列につき、音素毎に、配信文字列データが表す表音文字列と同様に扱って上述のステップS202〜S203の処理を行うことにより、この表音文字列内の各表音文字が示す音声の波形を表す波形データを復元する(ステップS508)。
そして、このパーソナルコンピュータは、復元した波形データと、ステップS507で選択した組み合わせに属する音片データとを、定型メッセージデータが示す定型メッセージ内での各音片の並びに従った順序で互いに結合し、合成音声を表すデータとして出力する(ステップS509)。
なお、パーソナルコンピュータに本体ユニットMや音片登録ユニットRの機能を行わせるプログラムは、例えば、通信回線の掲示板(BBS)にアップロードし、これを通信回線を介して配信してもよく、また、これらのプログラムを表す信号により搬送波を変調し、得られた変調波を伝送し、この変調波を受信した装置が変調波を復調してこれらのプログラムを復元するようにしてもよい。
そして、これらのプログラムを起動し、OSの制御下に、他のアプリケーションプログラムと同様に実行することにより、上述の処理を実行することができる。
なお、OSが処理の一部を分担する場合、あるいは、OSが本願発明の1つの構成要素の一部を構成するような場合には、記録媒体には、その部分を除いたプログラムを格納してもよい。この場合も、この発明では、その記録媒体には、コンピュータが実行する各機能又はステップを実行するためのプログラムが格納されているものとする。
この発明の各実施の形態に係る音声合成システムの構成を示すブロック図である。 この発明の第1の実施の形態における音片データベースのデータ構造を模式的に示す図である。 (a)は、音片についてのピッチ成分の周波数の予測結果と、この音片と読みが合致する音片の波形を表す音片データのピッチ成分の周波数の時間変化とを1次回帰させる処理を説明するためのグラフであり、(b)は、相関係数を求めるために用いる予測結果データ及びピッチ成分データの値の一例を示すグラフである。 この発明の第2の実施の形態における音片データベースのデータ構造を模式的に示す図である。 (a)は、定型メッセージの読みを示す図であり、(b)は、音片編集部に供給された音片データのリストであり、(c)は、先行する音片の末尾におけるピッチ成分の周波数と後続の音片の先頭におけるピッチ成分の周波数との差の絶対値を示す図であり、(d)は、音片編集部がどの音片データを選択するかを示す図である。 この発明の各実施の形態に係る音声合成システムの機能を行うパーソナルコンピュータがフリーテキストデータを取得した場合の処理を示すフローチャートである。 この発明の各実施の形態に係る音声合成システムの機能を行うパーソナルコンピュータが配信文字列データを取得した場合の処理を示すフローチャートである。 この発明の第1の実施の形態に係る音声合成システムの機能を行うパーソナルコンピュータが定型メッセージデータ及び発声スピードデータを取得した場合の処理を示すフローチャートである。 この発明の第2の実施の形態に係る音声合成システムの機能を行うパーソナルコンピュータが定型メッセージデータ及び発声スピードデータを取得した場合の処理を示すフローチャートである。 この発明の第3の実施の形態に係る音声合成システムの機能を行うパーソナルコンピュータが定型メッセージデータ及び発声スピードデータを取得した場合の処理を示すフローチャートである。
符号の説明
M 本体ユニット
1 言語処理部
2 一般単語辞書
3 ユーザ単語辞書
4 音響処理部
5 検索部
6 伸長部
7 波形データベース
8 音片編集部
9 検索部
10 音片データベース
11 話速変換部
R 音片登録ユニット
12 収録音片データセット記憶部
13 音片データベース作成部
14 圧縮部
HDR ヘッダ部
IDX インデックス部
DIR ディレクトリ部
DAT データ部

Claims (12)

  1. 音声の波形を表す音声データを複数記憶する記憶手段と、
    文章を表す文章情報を入力し、当該文章内の複数の音片のそれぞれについて韻律予測を行うことにより、当該音片の時間長、及び、当該音片のピッチの時間変化を予測する予測手段と、
    前記文章情報が表す文章内の音片のそれぞれについて、当該音片と読みが共通する部分を有する音声データを前記記憶手段から1つ又は複数索出する検索部と、
    前記索出されたそれぞれの音声データを前記文章情報が表す文章内の音片の順に従って接続してできる音声データの組み合わせのそれぞれについて評価値を求め、当該評価値が最大となる音声データの組み合わせを選択する選択手段と、
    を備え、
    前記評価値は、当該音声データが表す音片のピッチの時間変化と、当該音片と読みが共通する前記文章内の音片のピッチの時間変化の予測結果との相関を表す数値を用いて表される関数、及び、当該音声データが表す音片の発声スピードと、当該音片と読みが共通する前記文章内の音片の発声スピードとの差を用いて表される関数より得られ、
    前記相関を表す数値は、当該音声データが表す音片のピッチの時間変化と、当該音片と読みが共通する前記文章内の音片のピッチの時間変化との間での1次回帰により得られる勾配及び/又は切片からなる、
    ことを特徴とする音声データ選択装置。
  2. 前記選択手段は、更に、音声データが表す音片のピッチの時間変化を表すデータを一定の方向へ所定サンプル数だけ循環シフトしたものが表す関数と、当該音片と読みが共通する前記文章内の音片のピッチの時間変化の予測結果を表す関数との相関係数の最大値に基づいて、前記評価値を求める、
    ことを特徴とする請求項1に記載の音声データ選択装置。
  3. 前記選択手段は、更に、前記索出されたそれぞれの音声データを文章情報が表す文章内の音片の順に従って接続した際に互いに隣接する音声データ同士の境界でのピッチ成分の周波数の差に基づいて、前記評価値を求める、
    ことを特徴とする請求項に記載の音声データ選択装置。
  4. 前記記憶手段は、音声データの読みを表す表音データを、当該音声データに対応付けて記憶し、
    前記選択手段は、前記記憶手段に記憶される音声データのうち、前記文章内の音片の読みに合致する読みを表す表音データが対応付けられている音声データを、当該音片と読みが共通する音片の波形を表す音声データとする、
    ことを特徴とする請求項1乃至3のいずれか1項に記載の音声データ選択装置。
  5. 前記選択手段により選択された音声データを互いに結合することにより、合成音声を表すデータを生成する音声合成手段を更に備える、
    ことを特徴とする請求項1乃至4のいずれか1項に記載の音声データ選択装置。
  6. 前記表音データは、複数の表音文字から構成され、
    前記文章内の音片の読みに合致する読みを表す表音データが対応付けられていない場合、当該表音データを構成する複数の表音文字のそれぞれに対応する音声データを結合することにより、当該音片の波形を表す音声データを合成する欠落部分合成手段を備え、
    前記音声合成手段は、前記選択手段が選択した音声データ及び前記欠落部分合成手段が合成した音声データを互いに結合することにより、合成音声を表すデータを生成する、
    ことを特徴とする請求項4に記載の音声データ選択装置。
  7. 記憶手段と処理手段を有する音声データ選択装置にて実行される音声データ選択方法であって、
    前記記憶手段には、音声の波形を表す音声データが複数記憶され、
    前記処理手段が、文章を表す文章情報を入力し、当該文章内の複数の音片のそれぞれについて韻律予測を行うことにより、当該音片の時間長、及び、当該音片のピッチの時間変化を予測し、
    前記処理手段が、前記文章情報が表す文章内の音片のそれぞれについて、当該音片と読みが共通する部分を有する音声データを前記記憶手段から1つ又は複数索出し、
    前記処理手段が、前記索出されたそれぞれの音声データを前記文章情報が表す文章内の音片の順に従って接続してできる音声データの組み合わせのそれぞれについて評価値を求め、当該評価値が最大となる音声データの組み合わせを選択し、
    前記評価値は、当該音声データが表す音片のピッチの時間変化と、当該音片と読みが共通する前記文章内の音片のピッチの時間変化の予測結果との相関を表す数値を用いて表される関数、及び、当該音声データが表す音片の発声スピードと、当該音片と読みが共通する前記文章内の音片の発声スピードとの差を用いて表される関数より得られ、
    前記相関を表す数値は、当該音声データが表す音片のピッチの時間変化と、当該音片と読みが共通する前記文章内の音片のピッチの時間変化との間での1次回帰により得られる勾配及び/又は切片からなる、
    ことを特徴とする音声データ選択方法。
  8. 前記処理手段が、更に、音声データが表す音片のピッチの時間変化を表すデータを一定の方向へ所定サンプル数だけ循環シフトしたものが表す関数と、当該音片と読みが共通する前記文章内の音片のピッチの時間変化の予測結果を表す関数との相関係数の最大値に基づいて、前記評価値を求める、
    ことを特徴とする請求項7に記載の音声データ選択方法。
  9. 前記処理手段が、更に、前記索出されたそれぞれの音声データを文章情報が表す文章内の音片の順に従って接続した際に互いに隣接する音声データ同士の境界でのピッチ成分の周波数の差に基づいて、前記評価値を求める、
    ことを特徴とする請求項に記載の音声データ選択方法。
  10. コンピュータを、
    音声の波形を表す音声データを複数記憶する記憶手段、
    文章を表す文章情報を入力し、当該文章内の複数の音片のそれぞれについて韻律予測を行うことにより、当該音片の時間長、及び、当該音片のピッチの時間変化を予測する予測手段、
    前記文章情報が表す文章内の音片のそれぞれについて、当該音片と読みが共通する部分を有する音声データを1つ又は複数索出する検索部、
    前記索出されたそれぞれの音声データを前記文章情報が表す文章内の音片の順に従って接続してできる音声データの組み合わせのそれぞれについて評価値を求め、当該評価値が最大となる音声データの組み合わせを選択する選択手段、
    として機能させ、
    前記評価値は、当該音声データが表す音片のピッチの時間変化と、当該音片と読みが共通する前記文章内の音片のピッチの時間変化の予測結果との相関を表す数値を用いて表される関数、及び、当該音声データが表す音片の発声スピードと、当該音片と読みが共通する前記文章内の音片の発声スピードとの差を用いて表される関数より得られ、
    前記相関を表す数値は、当該音声データが表す音片のピッチの時間変化と、当該音片と読みが共通する前記文章内の音片のピッチの時間変化との間での1次回帰により得られる勾配及び/又は切片からなる、
    ことを特徴とするプログラム。
  11. 前記選択手段は、更に、音声データが表す音片のピッチの時間変化を表すデータを一定の方向へ所定サンプル数だけ循環シフトしたものが表す関数と、当該音片と読みが共通する前記文章内の音片のピッチの時間変化の予測結果を表す関数との相関係数の最大値に基づいて、前記評価値を求める、
    ことを特徴とする請求項10に記載のプログラム。
  12. 前記選択手段は、更に、前記索出されたそれぞれの音声データを文章情報が表す文章内の音片の順に従って接続した際に互いに隣接する音声データ同士の境界でのピッチ成分の周波数の差に基づいて、前記評価値を求める、
    ことを特徴とする請求項10に記載のプログラム。
JP2004155306A 2003-06-04 2004-05-25 音声データ選択装置、音声データ選択方法及びプログラム Expired - Fee Related JP4264030B2 (ja)

Priority Applications (7)

Application Number Priority Date Filing Date Title
JP2004155306A JP4264030B2 (ja) 2003-06-04 2004-05-25 音声データ選択装置、音声データ選択方法及びプログラム
CN2004800187934A CN1816846B (zh) 2003-06-04 2004-06-03 用于选择话音数据的设备和方法
PCT/JP2004/008088 WO2004109660A1 (ja) 2003-06-04 2004-06-03 音声データを選択するための装置、方法およびプログラム
DE04735989T DE04735989T1 (de) 2003-06-04 2004-06-03 Einrichtung, verfahren und programm zur auswahl von voice-daten
US10/559,573 US20070100627A1 (en) 2003-06-04 2004-06-03 Device, method, and program for selecting voice data
KR1020057023078A KR20060015744A (ko) 2003-06-04 2004-06-03 음성 데이터를 선택하기 위한 장치, 방법 및 프로그램
EP04735989A EP1632933A4 (en) 2003-06-04 2004-06-03 DEVICE, METHOD AND PROGRAM FOR SELECTING VOICE DATA

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2003159880 2003-06-04
JP2003165582 2003-06-10
JP2004155306A JP4264030B2 (ja) 2003-06-04 2004-05-25 音声データ選択装置、音声データ選択方法及びプログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2008318839A Division JP4780188B2 (ja) 2003-06-04 2008-12-15 音声データ選択装置、音声データ選択方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2005025173A JP2005025173A (ja) 2005-01-27
JP4264030B2 true JP4264030B2 (ja) 2009-05-13

Family

ID=33514559

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004155306A Expired - Fee Related JP4264030B2 (ja) 2003-06-04 2004-05-25 音声データ選択装置、音声データ選択方法及びプログラム

Country Status (7)

Country Link
US (1) US20070100627A1 (ja)
EP (1) EP1632933A4 (ja)
JP (1) JP4264030B2 (ja)
KR (1) KR20060015744A (ja)
CN (1) CN1816846B (ja)
DE (1) DE04735989T1 (ja)
WO (1) WO2004109660A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7696194B2 (en) 2001-04-11 2010-04-13 Senju Pharmaceutical Co., Ltd. Visual function disorder improving agents

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004109659A1 (ja) * 2003-06-05 2004-12-16 Kabushiki Kaisha Kenwood 音声合成装置、音声合成方法及びプログラム
JP4516863B2 (ja) * 2005-03-11 2010-08-04 株式会社ケンウッド 音声合成装置、音声合成方法及びプログラム
JP2008185805A (ja) * 2007-01-30 2008-08-14 Internatl Business Mach Corp <Ibm> 高品質の合成音声を生成する技術
KR101395459B1 (ko) * 2007-10-05 2014-05-14 닛본 덴끼 가부시끼가이샤 음성 합성 장치, 음성 합성 방법 및 컴퓨터 판독가능 기억 매체
JP5093387B2 (ja) * 2011-07-19 2012-12-12 ヤマハ株式会社 音声特徴量算出装置
CN111506736B (zh) * 2020-04-08 2023-08-08 北京百度网讯科技有限公司 文本发音获取方法、装置和电子设备
CN112669810B (zh) * 2020-12-16 2023-08-01 平安科技(深圳)有限公司 语音合成的效果评估方法、装置、计算机设备及存储介质

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2761552B2 (ja) * 1988-05-11 1998-06-04 日本電信電話株式会社 音声合成方法
US5636325A (en) * 1992-11-13 1997-06-03 International Business Machines Corporation Speech synthesis and analysis of dialects
JPH07319497A (ja) * 1994-05-23 1995-12-08 N T T Data Tsushin Kk 音声合成装置
JP3583852B2 (ja) * 1995-05-25 2004-11-04 三洋電機株式会社 音声合成装置
JPH09230893A (ja) * 1996-02-22 1997-09-05 N T T Data Tsushin Kk 規則音声合成方法及び音声合成装置
JPH1097268A (ja) * 1996-09-24 1998-04-14 Sanyo Electric Co Ltd 音声合成装置
JP3587048B2 (ja) * 1998-03-02 2004-11-10 株式会社日立製作所 韻律制御方法及び音声合成装置
JPH11249679A (ja) * 1998-03-04 1999-09-17 Ricoh Co Ltd 音声合成装置
JPH11259083A (ja) * 1998-03-09 1999-09-24 Canon Inc 音声合成装置および方法
JP3180764B2 (ja) * 1998-06-05 2001-06-25 日本電気株式会社 音声合成装置
JP2001013982A (ja) * 1999-04-28 2001-01-19 Victor Co Of Japan Ltd 音声合成装置
JP2001034284A (ja) * 1999-07-23 2001-02-09 Toshiba Corp 音声合成方法及び装置、並びに文音声変換プログラムを記録した記録媒体
US6505152B1 (en) * 1999-09-03 2003-01-07 Microsoft Corporation Method and apparatus for using formant models in speech systems
JP2001092481A (ja) * 1999-09-24 2001-04-06 Sanyo Electric Co Ltd 規則音声合成方法
US7219061B1 (en) * 1999-10-28 2007-05-15 Siemens Aktiengesellschaft Method for detecting the time sequences of a fundamental frequency of an audio response unit to be synthesized
US6496801B1 (en) * 1999-11-02 2002-12-17 Matsushita Electric Industrial Co., Ltd. Speech synthesis employing concatenated prosodic and acoustic templates for phrases of multiple words
US6865533B2 (en) * 2000-04-21 2005-03-08 Lessac Technology Inc. Text to speech
CA2359771A1 (en) * 2001-10-22 2003-04-22 Dspfactory Ltd. Low-resource real-time audio synthesis system and method
US20040030555A1 (en) * 2002-08-12 2004-02-12 Oregon Health & Science University System and method for concatenating acoustic contours for speech synthesis

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7696194B2 (en) 2001-04-11 2010-04-13 Senju Pharmaceutical Co., Ltd. Visual function disorder improving agents

Also Published As

Publication number Publication date
CN1816846B (zh) 2010-06-09
WO2004109660A1 (ja) 2004-12-16
JP2005025173A (ja) 2005-01-27
CN1816846A (zh) 2006-08-09
EP1632933A4 (en) 2007-11-14
KR20060015744A (ko) 2006-02-20
US20070100627A1 (en) 2007-05-03
DE04735989T1 (de) 2006-10-12
EP1632933A1 (en) 2006-03-08

Similar Documents

Publication Publication Date Title
JP4516863B2 (ja) 音声合成装置、音声合成方法及びプログラム
KR101076202B1 (ko) 음성 합성 장치, 음성 합성 방법 및 프로그램이 기록된 기록 매체
JP4130190B2 (ja) 音声合成システム
JP4264030B2 (ja) 音声データ選択装置、音声データ選択方法及びプログラム
US7089187B2 (en) Voice synthesizing system, segment generation apparatus for generating segments for voice synthesis, voice synthesizing method and storage medium storing program therefor
JP4287785B2 (ja) 音声合成装置、音声合成方法及びプログラム
JP4411017B2 (ja) 話速変換装置、話速変換方法及びプログラム
JP2005018036A (ja) 音声合成装置、音声合成方法及びプログラム
JP4209811B2 (ja) 音声選択装置、音声選択方法及びプログラム
JP4407305B2 (ja) ピッチ波形信号分割装置、音声信号圧縮装置、音声合成装置、ピッチ波形信号分割方法、音声信号圧縮方法、音声合成方法、記録媒体及びプログラム
JP4780188B2 (ja) 音声データ選択装置、音声データ選択方法及びプログラム
WO2008056604A1 (fr) Système de collecte de son, procédé de collecte de son et programme de traitement de collecte
JP4184157B2 (ja) 音声データ管理装置、音声データ管理方法及びプログラム
JP4574333B2 (ja) 音声合成装置、音声合成方法及びプログラム
JP7183556B2 (ja) 合成音生成装置、方法、及びプログラム
JP2004361944A (ja) 音声データ選択装置、音声データ選択方法及びプログラム
JP2006145690A (ja) 音声合成装置、音声合成方法及びプログラム
JP2006145848A (ja) 音声合成装置、音片記憶装置、音片記憶装置製造装置、音声合成方法、音片記憶装置製造方法及びプログラム
JP2006195207A (ja) 音声合成装置、音声合成方法及びプログラム
JP2007240989A (ja) 音声合成装置、音声合成方法及びプログラム
JP2007240988A (ja) 音声合成装置、データベース、音声合成方法及びプログラム
JP2007240987A (ja) 音声合成装置、音声合成方法及びプログラム
JP2007240990A (ja) 音声合成装置、音声合成方法及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060825

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080708

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080905

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20081021

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20081215

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20090106

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090203

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090213

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120220

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120220

Year of fee payment: 3

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120220

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130220

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130220

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140220

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees