JP3994333B2 - 音声辞書作成装置、音声辞書作成方法、及び、プログラム - Google Patents

音声辞書作成装置、音声辞書作成方法、及び、プログラム Download PDF

Info

Publication number
JP3994333B2
JP3994333B2 JP2002277769A JP2002277769A JP3994333B2 JP 3994333 B2 JP3994333 B2 JP 3994333B2 JP 2002277769 A JP2002277769 A JP 2002277769A JP 2002277769 A JP2002277769 A JP 2002277769A JP 3994333 B2 JP3994333 B2 JP 3994333B2
Authority
JP
Japan
Prior art keywords
signal
pitch
unit
section
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2002277769A
Other languages
English (en)
Other versions
JP2003173198A (ja
Inventor
寧 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kenwood KK
Original Assignee
Kenwood KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kenwood KK filed Critical Kenwood KK
Priority to JP2002277769A priority Critical patent/JP3994333B2/ja
Publication of JP2003173198A publication Critical patent/JP2003173198A/ja
Application granted granted Critical
Publication of JP3994333B2 publication Critical patent/JP3994333B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

【0001】
この発明は、音声辞書作成装置音声辞書作成方法、及び、プログラムに関する。
【0002】
【従来の技術】
音声合成を行う等の目的で、声の信号をパラメータ化して扱う場合には、声の信号を、波形情報よりも周波数情報として扱うことが多くある。例えば音声合成では、一般に、声のピッチやフォルマントを利用した手法が多く採用されており、いわゆる規則合成方式も、そのような手法のひとつである(例えば、特許文献1参照)。
【0003】
【特許文献1】
特開平05−257494号公報
【0004】
ピッチやフォルマントを、人間の声の発生過程に即して説明すると、人間の声の発生過程はまず、声帯部を振動させて、パルスの列からなるような音を発生させることから始まる。このパルスは、言葉の音素毎に特有なある一定の周期で発生し、この周期が「ピッチ」と呼ばれている。このパルスのスペクトルは、ピッチの整数倍の間隔で並ぶ比較的強いスペクトル成分を含みつつ、幅広い周波数帯に分布する。
【0005】
次に、このパルスが声道を通過すると、このパルスは、声道や舌の形状によって作られる空間でフィルタリングされる。このフィルタリングの結果、このパルスのうちある周波数成分のみが強調されるような音ができる。(すなわち、フォルマントが生成される。)以上が、声の発生過程である。
【0006】
声道や舌を動かすと、声帯が発生したパルスのうち強調される周波数成分は変化する。このため、この変化と言葉とを対応付ければ、音声による会話が成立する。規則合成方式はこの点を利用した音声合成の手法である。
規則合成方式による音声合成は、具体的には、たとえば図9に示す手順で行われる。
【0007】
すなわち、規則合成方式においては、まず、音声を合成する対象の文章に形態素解析を施す(図9、ステップS101)。形態素解析は、文章を単語に区切り、得られた単語がどの種類の品詞で、活用する品詞の場合はどの活用形か、などを、単語の係り受けなどに基づいて特定する処理である。
【0008】
次に、この形態素解析の結果に基づき、文章を読み上げる音声の発音を表す発音記号の列を生成して(ステップS102)、得られた発音記号の列に基づいて音声のスペクトルの包絡線を決定し(ステップS104)、この包絡線に基づき、声道特性をシミュレートするフィルタの特性を決定する。
【0009】
なお、日本語の音声は、百数十種のCV(Consonant-Vowel)音節や、母音、撥音、無音など1モーラ(「モーラ」は音声の時間長の単位であり、1モーラは、短母音を含む音節1個の長さに相当する)の言語音が組み合わされてできていると考えられており、発音記号は、例えばこれらのCV音節や言語音を記号として示すものである。人間による音声の発声や聴取は、CV音節を音声の単位として行われていると考えられている。
【0010】
一方、合成されるべき音声の韻律を予測した結果を表す韻律記号の列を生成する(ステップS103)。音声の韻律とは、音声のアクセント、イントネーション、強勢などであり、「藤崎モデル」などの韻律予測の手法に従って予測される。
【0011】
次に、得られた韻律記号の列に基づいて、声帯が発するパルスの特徴を指定する音源パラメータを生成し(ステップS105)、音源パラメータに基づき、声帯が発するパルスの波形を表す音源信号を生成する(ステップS106)。
【0012】
そして、この音源信号を、特性を決定したフィルタでフィルタリングする(ステップS107)ことにより、音声を合成する。
具体的には、例えば図10に示すように、インパルス列発生源1が発生するインパルス列、及び白色雑音発生源2が発生する白色雑音の切り替えにより、音源信号をシミュレートする。そして、このシミュレーションにより得られる音源信号を、声道特性をシミュレートするデジタルフィルタ3でフィルタリングすることにより、音声を生成する。
【0013】
【発明が解決しようとする課題】
しかし、ここで問題になるのが、実際の人間の声帯や声道の変化の複雑さである。
まず、現実の人間の声帯は複雑な構造をもっており、ピッチは人間の感情や意識に影響されやすく、ある程度は一定とみなせる周期であるものの、現実には、ピッチは微妙にゆらぎを生じる。従って、同一話者が同じ言葉(音素)を複数ピッチ分発声した場合、ピッチの間隔は通常、一定しない。従って、声帯の特性をインパルス列で表現することは困難である。
このため、規則合成方式によって合成した音声は、実際の人間が発するものと異なり、機械的な音声になってしまう、という問題が生じていた。
【0014】
また、実際の人間の声道の変化も非常に複雑なため、スペクトル包絡を正確に予測することは困難である。従って、声道の特性をデジタルフィルタで性格に表現することも困難である。従って、声道をある程度単純化したモデルを想定して声道のフィルタ特性をシミュレートする等せざるを得ず、このことも、規則合成方式により合成した音声の音質が悪くなる原因となる。
【0015】
この発明は、上記実状に鑑みてなされたものであり、自然な音声を合成するための音声辞書作成装置音声辞書作成方法、及び、プログラムを提供することを目的とする。
【0016】
【課題を解決するための手段】
上記目的を達成すべく、この発明の第1の観点にかかる音声辞書作成装置は、
音声の波形を表す音声信号と、当該音声信号の発音を示す表音記号列とを取得する取得手段と、
前記取得手段により取得された音声信号をフィルタリングしてピッチ信号を抽出するフィルタであって、当該ピッチ信号がゼロクロスする周期の逆数を中心周波数とするバンドパスフィルタによりフィルタリングるフィルタと、
前記フィルタにより抽出されたピッチ信号がゼロクロスするタイミングで前記音声信号を区間に区切り、各区間について、当該区間内のピッチ信号と当該区間内の音声信号との相関が最も高くなるように当該音声信号の位相を変化させ、更に、当該位相が変化された音声信号の各区間のサンプル数がほぼ等しくなり且つ各区間のサンプリング間隔が等間隔になるようにサンプリングしてピッチ波形信号を生成する信号生成手段と、
前記信号生成手段により生成されたピッチ波形信号を直交変換することにより、前記ピッチ波形信号に含まれる所定個数分の基本周波数成分の時間変化をそれぞれ計算し、当該計算された所定個数分の時間変化を表すデータを1組とするデータの組を生成するデータ組生成手段と、
前記取得手段により取得された表音記号列から、当該音声信号の韻律を示す韻律記号列を生成する韻律生成手段と、
前記データ組生成手段により生成されたデータの組と、前記韻律生成手段により生成された韻律記号列とを出力する出力手段と、
を備えることを特徴とする。
【0017】
前記フィルタは、前記バンドパスフィルタ、又は、前記音声信号の前記基本周波数の逆数の絶対値を中心周波数とするバンドパスフィルタ、のいずれかを用いてフィルタリングするものであってもよい。
【0020】
また、この発明の第2の観点にかかる音声辞書作成装置は、
音声の波形を表す音声信号と、当該音声信号の発音を示す表音記号列とを取得する取得手段と、
前記取得手段により取得された音声信号がゼロクロスするタイミングで前記音声信号を区間に区切り、各区間について、当該区間内のピッチ信号と当該区間内の音声信号との相関が最も高くなるように当該音声信号の位相を変化させ、更に、当該位相が変化された音声信号の各区間のサンプル数がほぼ等しくなり且つ各区間のサンプリング間隔が等間隔になるようにサンプリングすることにより、当該音声信号をピッチ波形信号へと加工する信号生成手段と、
前記信号生成手段により生成されたピッチ波形信号を直交変換することにより、前記ピッチ波形信号に含まれる所定個数分の基本周波数成分の時間変化をそれぞれ計算し、当該計算された所定個数分の時間変化を表すデータを1組とするデータの組を生成するデータ組生成手段と、
前記取得手段により取得された表音記号列から、当該音声信号の韻律を示す韻律記号列を生成する韻律生成手段と、
前記データ組生成手段により生成されたデータの組と、前記韻律生成手段により生成された韻律記号列とを出力する出力手段と、
を備えることを特徴とする。
【0022】
また、この発明の第3の観点にかかる音声辞書作成方法は、
取得手段、抽出手段、信号生成手段、データ組生成手段、韻律生成手段、出力手段を有する装置にて実行される音声辞書作成方法であって、
前記取得手段が、音声の波形を表す音声信号と、当該音声信号の発音を示す表音記号列とを取得する取得ステップと、
前記抽出手段が、前記取得ステップにより取得された音声信号をフィルタリングしてピッチ信号を抽出する抽出ステップであって、当該ピッチ信号がゼロクロスする周期の逆数を中心周波数としてフィルタリングる抽出ステップ、
前記信号生成手段が、前記抽出ステップにより抽出されたピッチ信号がゼロクロスするタイミングで前記音声信号を区間に区切り、各区間について、当該区間内のピッチ信号と当該区間内の音声信号との相関が最も高くなるように当該音声信号の位相を変化させ、更に、当該位相が変化された音声信号の各区間のサンプル数がほぼ等しくなり且つ各区間のサンプリング間隔が等間隔になるようにサンプリングしてピッチ波形信号を生成する信号生成ステップと、
前記データ組生成手段が、前記信号生成ステップにより生成されたピッチ波形信号を直交変換することにより、前記ピッチ波形信号に含まれる所定個数分の基本周波数成分の時間変化をそれぞれ計算し、当該計算された所定個数分の時間変化を表すデータを1組とするデータの組を生成するデータ組生成ステップと、
前記韻律生成手段が、前記取得ステップにより取得された表音記号列から、当該音声信号の韻律を示す韻律記号列を生成する韻律生成ステップと、
前記出力手段が、前記データ組生成ステップにより生成されたデータの組と、前記韻律生成ステップにより生成された韻律記号列とを出力する出力ステップと、
を備えることを特徴とする。
【0024】
また、この発明の第4の観点にかかるプログラムは、
コンピュータを、
音声の波形を表す音声信号と、当該音声信号の発音を示す表音記号列とを取得する取得手段、
前記取得手段により取得された音声信号をフィルタリングしてピッチ信号を抽出するフィルタであって、当該ピッチ信号がゼロクロスする周期の逆数を中心周波数とするバンドパスフィルタによりフィルタリングるフィルタ、
前記フィルタにより抽出されたピッチ信号がゼロクロスするタイミングで前記音声信号を区間に区切り、各区間について、当該区間内のピッチ信号と当該区間内の音声信号との相関が最も高くなるように当該音声信号の位相を変化させ、更に、当該位相が変化された音声信号の各区間のサンプル数がほぼ等しくなり且つ各区間のサンプリング間隔が等間隔になるようにサンプリングしてピッチ波形信号を生成する信号生成手段、
前記信号生成手段により生成されたピッチ波形信号を直交変換することにより、前記ピッチ波形信号に含まれる所定個数分の基本周波数成分の時間変化をそれぞれ計算し、当該計算された所定個数分の時間変化を表すデータを1組とするデータの組を生成するデータ組生成手段、
前記取得手段により取得された表音記号列から、当該音声信号の韻律を示す韻律記号列を生成する韻律生成手段、
前記データ組生成手段により生成されたデータの組と、前記韻律生成手段により生成された韻律記号列とを出力する出力手段、
として機能させるためのものであることを特徴とする。
【0026】
【発明の実施の形態】
以下に、図面を参照して、この発明の実施の形態を説明する。
(第1の実施の形態:音声辞書生成システム)
図1は、この発明の第1の実施の形態に係る音声辞書生成システムの構成を示す図である。図示するように、この音声辞書生成システムは、記録媒体(例えば、フレキシブルディスクやMO(Magneto Optical disk)など)に記録されたデータを読み取る記録媒体ドライバ(フレキシブルディスクドライブや、MOドライブなど)SMD1と、記録媒体ドライバSMD1に接続されたコンピュータC1とより構成されている。
【0027】
コンピュータC1は、CPU(Central Processing Unit)やDSP(Digital Signal Processor)等からなるプロセッサや、RAM(Random Access Memory)等からなる揮発性メモリや、ハードディスク装置等からなる不揮発性メモリや、キーボード等からなる入力部や、CRT(陰極線管)等からなる表示部などからなっている。コンピュータC1は音声辞書生成プログラムを予め記憶しており、この音声辞書生成プログラムを実行することにより後述する処理を行う。
【0028】
また、コンピュータC1は、ハードディスクコントローラ等、音声辞書を記憶させる対象である外部の記憶装置(たとえば、ハードディスク装置等)Dへのアクセスを制御するアクセス制御回路等を備えており、このアクセス制御回路を介して、当該記憶装置Dに着脱可能に接続される。
【0029】
(第1の実施の形態:音声辞書生成システムの動作)
次に、この音声辞書生成システムの動作を、図2を参照して説明する。図2は、図1の音声辞書生成システムの動作の流れを示す図である。
【0030】
ユーザが、音声の波形を表す音声データと音声の発音を示す表音記号の列をテキスト形式等で表す表音データとを記録した記録媒体を記録媒体ドライバSMD1にセットして、コンピュータC1に、音声辞書生成プログラムの起動を指示すると、コンピュータC1は、音声辞書生成プログラムの処理を開始する。
【0031】
すると、まず、コンピュータC1は、記録媒体ドライバSMD1を介し、記録媒体より音声データ及び表音データを読み出す(図2、ステップSA1)。なお、音声データは、PCM(Pulse Code Modulation)変調されたディジタル信号の形式を有しており、音声のピッチより十分短い一定の周期でサンプリングされた音声を表しているものとする。
【0032】
なお、音声データ及び表音データは互いに別個の記録媒体に記録されていても差し支えなく、この場合は、たとえば、記録媒体ドライバSMD1に記録媒体をセットして記録媒体に記録されたデータをコンピュータC1に読み取らせる動作を、記録媒体の数ぶん繰り返すようにすればよい。また、表音データは、ユーザ等がコンピュータC1の入力部を操作して入力し、コンピュータC1に記憶させるようにしてもよい。
【0033】
次に、コンピュータC1は、記録媒体より読み出した表音データを解析し、この表音データが表す音声を、当該音声を構成する単位音声の発音を示す発音記号(たとえば、カナ文字等の表音文字)の列として表す、発音記号列を生成する(ステップSA2)。
また、コンピュータC1は、この表音データを解析し、この表音データが表す音声の韻律を、当該音声を構成する単位音声の韻律を示す韻律記号の列として表す、韻律記号列を生成する(ステップSA3)。
【0034】
なお、単位音声は、言語音を構成する単位として機能する音声であり、たとえば、子音1個と母音1個とが連結されたものからなるCV(Consonant-Vowel)音節などが、単位音声として機能する。
【0035】
一方、コンピュータC1は、記録媒体より読み出された音声データをフィルタリングすることにより、フィルタリングされた音声データ(ピッチ信号)を生成する(ステップSA4)。ピッチ信号は、音声データのサンプルリング間隔と実質的に同一のサンプリング間隔を有するディジタル形式のデータからなるものとする。
【0036】
なお、コンピュータC1は、ピッチ信号を生成するために行うフィルタリングの特性を、後述するピッチ長と、ピッチ信号の瞬時値が0となる時刻(ゼロクロスする時刻)とに基づくフィードバック処理を行うことにより決定する。
【0037】
すなわち、コンピュータC1は、読み出した音声データに、例えば、ケプストラム解析や、自己相関関数に基づく解析を施すことにより、この音声データが表す音声の基本周波数を特定し、この基本周波数の逆数の絶対値(すなわち、ピッチ長)を求める(ステップSA5)。(あるいは、コンピュータC1は、ケプストラム解析及び自己相関関数に基づく解析の両方を行うことにより基本周波数を2個特定し、これら2個の基本周波数の逆数の絶対値の平均をピッチ長として求めるようにしてもよい。)
【0038】
なお、ケプストラム解析としては、具体的には、まず、読み出した音声データの強度を、元の値の対数(対数の底は任意)に実質的に等しい値へと変換し、値が変換された音声データのスペクトル(すなわち、ケプストラム)を、高速フーリエ変換の手法(あるいは、離散的変数をフーリエ変換した結果を表すデータを生成する他の任意の手法)により求める。そして、このケプストラムの極大値を与える周波数のうちの最小値を基本周波数として特定する。
【0039】
一方、自己相関関数に基づく解析としては、具体的には、読み出した音声データを用いてまず、数式1の右辺により表される自己相関関数r(l)を特定する。そして、自己相関関数r(l)をフーリエ変換した結果得られる関数(ピリオドグラム)の極大値を与える周波数のうち、所定の下限値を超える最小の値を基本周波数として特定する。
【0040】
【数1】
Figure 0003994333
【0041】
一方、コンピュータC1は、ピッチ信号がゼロクロスする時刻が来るタイミングを特定する(ステップSA6)。そして、コンピュータC1は、ピッチ長とピッチ信号のゼロクロスの周期とが互いに所定量以上異なっているか否かを判別し(ステップSA7)、異なっていないと判別した場合は、ゼロクロスの周期の逆数を中心周波数とするようなバンドパスフィルタの特性で上述のフィルタリングを行うこととする(ステップSA8)。一方、所定量以上異なっていると判別した場合は、ピッチ長の逆数を中心周波数とするようなバンドパスフィルタの特性で上述のフィルタリングを行うこととする(ステップSA9)。なお、いずれの場合も、フィルタリングの通過帯域幅は、通過帯域の上限が音声データの表す音声の基本周波数の2倍以内に常に収まるような通過帯域幅であることが望ましい。
【0042】
次に、コンピュータC1は、生成したピッチ信号の単位周期(例えば1周期)の境界が来るタイミング(具体的には、ピッチ信号がゼロクロスするタイミング)で、記録媒体から読み出した音声データを区切る(ステップSA10)。そして、区切られてできる区間のそれぞれについて、この区間内の音声データの位相を種々変化させたものとこの区間内のピッチ信号との相関を求め、最も相関が高くなるときの音声データの位相を、この区間内の音声データの位相として特定する(ステップSA11)。そして、音声データのそれぞれの区間を、互いが実質的に同じ位相になるように移相する(ステップSA12)。
【0043】
具体的には、コンピュータC1は、それぞれの区間毎に、例えば、数式2の右辺により表される値corを、位相を表すφ(ただし、φは0以上の整数)の値を種々変化させた場合それぞれについて求める。そして、値corが最大になるようなφの値Ψを、この区間内の音声データの位相を表す値として特定する。この結果、この区間につき、ピッチ信号との相関が最も高くなる位相の値が定まる。そして、コンピュータC1は、この区間内の音声データを、(−Ψ)だけ移相する。
【0044】
【数2】
Figure 0003994333
【0045】
音声データを上述の通り移相することにより得られるデータ(ピッチ波形データ)が表す波形の一例を図3(c)に示す。図3(a)に示す位相前の音声データの波形のうち、「#1」及び「#2」として示す2個の区間は、図3(b)に示すように、ピッチのゆらぎの影響により互いに異なる位相を有している。これに対し、ピッチ波形データが表す波形の区間#1及び#2は、図3(c)に示すように、ピッチのゆらぎの影響が除去されて位相が揃っている。また、図3(a)に示すように、各区間の始点の値は0に近い値となっている。
【0046】
なお、区間の時間的な長さは、1ピッチ分程度であることが望ましい。区間が長いほど、区間内のサンプル数が増えて、ピッチ波形データのデータ量が増大し、あるいは、サンプリング間隔が増大してピッチ波形データが表す音声が不正確になる、という問題が生じる。
【0047】
次に、コンピュータC1は、ピッチ波形データの各区間をサンプリングし直す(リサンプリングする)。また、各区間の元のサンプル数を示すピッチ情報も生成する(ステップSA13)。なお、コンピュータC1は、ピッチ波形データの各区間のサンプル数が互いにほぼ等しくなるようにして、同一区間内では等間隔になるようリサンプリングするものとする。
記録媒体より読み出した音声データのサンプリング間隔が既知であるものとすれば、ピッチ情報は、この音声データの単位ピッチ分の区間の元の時間長を表す情報として機能する。
【0048】
次に、コンピュータC1は、ステップSA13でリサンプリングされたピッチ波形データにDCT(Discrete Cosine Transform)等の直交変換を施すことにより、スペクトル情報を生成する(ステップSA14)。
スペクトル情報は、ピッチ波形信号が表す音声の基本周波数成分の強度の時間変化を表すデータと、この音声のy個(yは自然数)の基本周波数成分の強度の時間変化を表すy個のデータとを含むデータである。従って、スペクトル情報は、音声の基本周波数成分(又は高調波成分)の強度の時間変化がないとき、この基本周波数成分(又は高調波成分)の強度を、直流信号の形で表す。
【0049】
次に、コンピュータC1は、ステップSA14で生成したスペクトル情報が表す各周波数成分の瞬時値に非線形圧縮を施して得られる値(具体的には、たとえば、瞬時値を上に凸な関数に代入して得られる値)に量子化したものに相当するスペクトル情報(非線形量子化後のスペクトル情報)を生成する(ステップSA15)。
【0050】
ステップSA15でコンピュータC1は、具体的には、例えば、非線形圧縮後の各周波数成分の瞬時値を、数式1の右辺に示す関数Xri(xi)を量子化した値に実質的に等しくなるようなものへと変更することにより非線形圧縮を行えばよい。
【0051】
【数3】
Xri(xi)=sgn(xi)・|xi|4/3・2{global_gain(xi)}/4
(ただし、sgn(δ)=(δ/|δ|)、xiはスペクトル情報が表す周波数成分の元の瞬時値、global_gain(xi)は、フルスケールを設定するためのxiの関数)
【0052】
また、ステップSA15でコンピュータC1は、非線形量子化された値を元の値に復元するためのデータ(圧縮情報)として、スペクトル情報にどのような特性の非線形量子化を施したかを示すデータを生成する。
【0053】
そして、コンピュータC1は、ステップSA15までの処理で生成した発音記号列、韻律記号列、ピッチ情報、圧縮情報及び非線形圧縮後のスペクトル情報を、同一の音声を表すもの同士が互いに対応付けられた形で、記憶装置Dの記憶領域に格納する(ステップSA16)。
互いに対応付けて記憶装置Dに記憶された発音記号列、韻律記号列、ピッチ情報、圧縮情報及び非線形圧縮後のスペクトル情報の組がなす集合が、音声辞書を構成する。
【0054】
以上説明した音声辞書生成システムにより生成される音声辞書に格納されるスペクトル情報は、単位ピッチ分の区間の時間長が規格化されピッチのゆらぎの影響が除去された音声データに基づいて生成されている。このため、このスペクトル情報は、音声の各周波数成分(基本周波数成分及び高調波成分)の強度の時間変化を正確に表すものとなる。また、ゆらぎを含んだ単位音声の各区間の元の時間長を表す情報も、この音声辞書に保存される。
【0055】
なお、この音声辞書生成システムの構成は上述のものに限られない。
たとえば、コンピュータC1は、音声辞書に格納すべきデータを、記録媒体ドライバSMD1にセットされた記録媒体に、記録媒体ドライバSMD1を介して書き込むようにしてもよい。
【0056】
また、コンピュータC1は、電話回線、専用回線、衛星回線等の通信回線を介して外部より音声データや表音データを取得するようにしてもよい。また、コンピュータC1、音声辞書に格納すべきデータを、通信回線等を介して外部に出力するようにしてもよい。これらの場合、コンピュータC1は、例えばモデムやDSU(Data Service Unit)等からなる通信制御部を備えていればよい。なお、コンピュータC1が通信回線を介して外部より音声データや表音データを取得する場合、記録媒体ドライバSMD1は不要である。
【0057】
また、コンピュータC1は、マイクロフォン、AF増幅器、サンプラー、A/D(Analog-to-Digital)コンバータ及びPCMエンコーダなどからなる集音装置を備えていてもよい。集音装置は、自己のマイクロフォンが集音した音声を表す音声信号を増幅し、サンプリングしてA/D変換した後、サンプリングされた音声信号にPCM変調を施すことにより、音声データを取得すればよい。なお、コンピュータC1が取得する音声データは、必ずしもPCM信号である必要はない。
【0058】
また、コンピュータC1は、ケプストラム解析又は自己相関係数に基づく解析のいずれかを行わなくてもよく、この場合は、ケプストラム解析又は自己相関係数に基づく解析のうち一方の手法で求めた基本周波数の逆数をそのままピッチ長として扱うようにすればよい。
【0059】
また、コンピュータC1が音声データの各区間内の音声データを移相する量は(−Ψ)である必要はなく、例えば、コンピュータC1は、初期位相を表す各区間に共通な実数をεとして、それぞれの区間につき、(−Ψ+ε)だけ、音声データを移相するようにしてもよい。また、コンピュータC1が音声データの音声データを区切る位置は、必ずしもピッチ信号がゼロクロスするタイミングである必要はなく、例えば、ピッチ信号が0でない所定の値となるタイミングであってもよい。
しかし、初期位相αを0とし、且つ、ピッチ信号がゼロクロスするタイミングで音声データを区切るようにすれば、各区間の始点の値は0に近い値になるので、音声データを各区間へと区切ることに各区間が含むようになるノイズの量が少なくなる。
【0060】
なお、コンピュータC1は専用のシステムである必要はなく、パーソナルコンピュータ等であってよい。また、音声辞書作成プログラムは、音声辞書生成プログラムを格納した媒体(CD−ROM、MO、フレキシブルディスク等)からコンピュータC1へとインストールするようにしてもよいし、通信回線の掲示板(BBS)に音声辞書生成プログラムをアップロードし、これを通信回線を介して配信してもよい。また、音声辞書生成プログラムを表す信号により搬送波を変調し、得られた変調波を伝送し、この変調波を受信した装置が変調波を復調して音声辞書生成プログラムを復元するようにしてもよい。
【0061】
また、音声辞書生成プログラムは、OSの制御下に、他のアプリケーションプログラムと同様に起動してコンピュータC1に実行させることにより、上述の処理を実行することができる。なお、OSが上述の処理の一部を分担する場合、記録媒体に格納される音声辞書生成プログラムは、当該処理を制御する部分を除いたものであってもよい。
【0062】
(第1の実施の形態:音声合成システム)
次に、この発明の第1の実施の形態に係る音声合成システムを説明する。
この音声合成システムは、例えば、図4に示す構成を有している。図示するように、この音声合成システムは、互いに接続されているコンピュータC2及び記録媒体ドライバSMD2からなっている。コンピュータC2は、図1に示す音声辞書生成システムのコンピュータC1と実質的に同一の物理的構成を有し、記録媒体ドライバSMD2は、図1の音声辞書生成システムの記録媒体ドライバSMD1と実質的に同一の物理的構成を有している。
【0063】
そして、コンピュータC2は更に、音声出力部を備えている。音声出力部は、たとえば、PCMデコーダの機能を行う制御回路と、D/A(Digital-to-Analog)コンバータと、AF(Audio Frequency)増幅器と、スピーカ等とを備えている。
【0064】
コンピュータC2は音声合成プログラムを予め記憶しており、この音声合成プログラムを実行することにより後述する処理を行う。
なお、同一のコンピュータが、コンピュータC1及びコンピュータC2の機能を行ってもよい。
【0065】
また、コンピュータC2は、スペクトルテーブル及び韻律テーブルを予め記憶する。
スペクトルテーブルは、音声の発音を識別する発音記号とこの発音記号が表す音声のスペクトルを表すスペクトル情報とを互いに対応付けて格納するデータベースである。
韻律テーブルは、音声の韻律を識別する韻律記号とこの韻律記号が表す韻律を特徴付けるパラメータを含んだ韻律情報とを互いに対応付けて格納するデータベースである。
なお、スペクトルテーブル及び韻律テーブルは、ユーザ等がコンピュータC2の入力部を操作して入力し、コンピュータC2に記憶させるようにしてもよい。
【0066】
また、コンピュータC2は、上述した記憶装置Dへのアクセスを制御するアクセス制御回路を介して、この記憶装置Dに着脱可能に接続される。なお、コンピュータC2に接続される記憶装置Dは、上述した音声辞書生成システムにより作成された音声辞書(又はこれと実質的に同一のデータ構造を有するデータの集合)を既に記憶しているものとする。すなわち、この記憶装置Dは、単位音声を表す発音記号列、韻律記号列、ピッチ情報、圧縮情報及び非線形圧縮後のスペクトル情報を、単位音声別に互いに対応付けて格納しているものとする。
【0067】
(第1の実施の形態:音声信号伸長器の動作)
次に、図1の音声信号伸長器の動作を、図5を参照して説明する。図5は、この音声信号伸長器の動作の流れを示す図である。
【0068】
ユーザが、音声を合成する対象の文章を記述したテキストデータを記録した記録媒体を記録媒体ドライバSMD2にセットして、コンピュータC2に、音声合成プログラムの起動を指示すると、コンピュータC2は、音声合成プログラムの処理を開始する。
すると、まず、コンピュータC2は、記録媒体ドライバSMD2を介し、記録媒体よりテキストデータを読み出す(図5、ステップSB1)。
【0069】
次に、コンピュータC2は、記録媒体より読み出したテキストデータが表す文章に形態素解析を施し、この文章を形態素(単語)の列へと分解する(ステップSB2)。そして、得られた形態素の列に基づいて、合成する対象の音声を構成する単位音声を発音する順に表す発音記号(たとえば、カナ文字等の表音文字)の列を表すデータを生成する(ステップSB3)。
【0070】
次に、コンピュータC2は、ステップSB3で得られたデータに含まれる発音記号をキーとして、この発音記号に対応付けられたスペクトル情報を、自己が記憶するスペクトルテーブルより索出する(ステップSB4)。すなわち、ステップSB3で得られたデータが表す発音記号が表す単位音声のスペクトルを特定する。
【0071】
一方、コンピュータC2は、ステップSB2で得られたデータが表す形態素の列に、たとえば藤崎モデルに基づいた解析を加えることにより、この形態素の列の韻律を特定し、特定した韻律を表す韻律記号の列を表すデータを生成する(ステップSB5)。
【0072】
次に、コンピュータC2は、ステップSB5で生成されたデータが表す韻律記号をキーとして、この韻律記号に対応付けられた韻律情報を、自己が記憶する韻律テーブルより索出する(ステップSB6)。すなわち、ステップSB5で生成されたデータが表す韻律記号が表す韻律を特徴付けるパラメータを特定する。
【0073】
次に、コンピュータC2は、ステップSB4で索出されたスペクトル情報やステップSB6で索出された韻律情報が表す音声にもっともよく近似できる単位音声を表す発音記号列、韻律記号列、ピッチ情報、圧縮情報及び非線形圧縮後のスペクトル情報の組を、音声辞書のうちから特定する(ステップSB7)。
【0074】
具体的には、ステップSB7でコンピュータC2は、たとえば、
(a) 音声辞書が記憶する同一の単位音声のスペクトル情報及びピッチ情報について、このスペクトル情報の値とステップSB4で索出されたスペクトル情報の値との相関係数、及び、このピッチ情報の値とステップSB6で索出された韻律情報が示すピッチの値との相関係数を求め、更に、求めた相関係数の平均値を求める。
(b) 上述した(a)の処理を、音声辞書がパラメータを記憶するすべての単位音声について行う。そして、各単位音声のうち、(a)の処理で求めた平均値が最も大きかったものを、ステップSB4で索出されたスペクトル情報及びステップSB6で索出された韻律情報が表す単位音声にもっとも近い単位音声として特定する。
【0075】
次に、コンピュータC2は、ステップSB7で特定されたスペクトル情報が表す各周波数成分の強度を、ステップSB7で特定された圧縮情報が表す特性で非線形量子化する以前の値に復元する(ステップSB8)。そして、強度の値が復元されたスペクトル情報に変換を施すことにより、このスペクトル情報により各周波数成分の非線形量子化後の強度が表されるピッチ波形データを復元する(ステップSB9)。なお、このピッチ波形データは、たとえば、PCM変調されたディジタル信号の形式を有しているものとする。
【0076】
コンピュータC2がステップSB9でスペクトル情報に施す変換は、このスペクトル情報を生成するために音素の波形に施した変換に対して実質的に逆変換の関係にあるような変換である。具体的には、たとえばこのスペクトル情報が音素にDCTを施して生成されたものである場合、サブバンド合成部B8は、このスペクトル情報にIDCT(Inverse DCT)を施すようにすればよい。
【0077】
次に、コンピュータC2は、ステップSB9で復元されたピッチ波形データの各区間の時間長を、ステップSB6で索出された韻律情報が示すピッチの時間長になるよう変更する(ステップSB10)。区間の時間長の変更は、たとえば区間内にあるサンプルの間隔を変更することにより行えばよい。
【0078】
そして、コンピュータC2は、ステップSB10で各区間の時間長を変更されたピッチ波形データを復調し、D/A変換及び増幅を行い、得られたアナログ信号を用いてスピーカを駆動することにより、合成音声を再生する(ステップSB11)。
【0079】
音声辞書に格納されるスペクトル情報は、上述の通り、単位ピッチ分の区間の時間長が規格化されピッチのゆらぎの影響が除去された音声データに基づいて生成されていて、音声の各周波数成分の強度の時間変化を正確に表すものであり、また、ゆらぎを含んだ単位音声の各区間の元の時間長を表す情報も音声辞書に保存されている。従って、上述した音声合成システムがこの音声辞書を用いて合成する音声は、人間が実際に発声した音声に近いものとなる。
【0080】
なお、この音声合成システムの構成も上述のものに限られない。
たとえば、コンピュータC2は、通信回線等を介して外部からテキストデータを取得するようにしてもよい。この場合、コンピュータC2は、モデムやDSU等からなる通信制御部を備えていればよい。
【0081】
また、コンピュータC2は、自己に供給されたデータが表す音声にもっともよく近似できる単位音声を特定するとき、一部の情報を他の情報より重視した形で特定を行ってもよい。
具体的には、たとえばステップSB7の上述した(a)の処理で、スペクトル情報をピッチ情報より重視するため、音声辞書が記憶するスペクトル情報の値とステップSB4で索出されたスペクトル情報の値との相関係数αに1より大きい重み係数βを乗じ、得られた値(α・β)を、相関係数の平均値の計算の際、値αに代えて用いるようにしてもよい。
【0082】
なお、コンピュータC2は専用のシステムである必要はなく、パーソナルコンピュータ等であってよい。また、音声合成プログラムは、音声合成プログラムを格納した媒体からコンピュータC2へとインストールするようにしてもよいし、通信回線の掲示板(BBS)に音声合成プログラムをアップロードし、これを通信回線を介して配信してもよい。また、音声合成プログラムを表す信号により搬送波を変調し、得られた変調波を伝送し、この変調波を受信した装置が変調波を復調して音声合成プログラムを復元するようにしてもよい。
【0083】
また、音声合成プログラムは、OSの制御下に、他のアプリケーションプログラムと同様に起動してコンピュータC2に実行させることにより、上述の処理を実行することができる。なお、OSが上述の処理の一部を分担する場合、記録媒体に格納される音声合成プログラムは、当該処理を制御する部分を除いたものであってもよい。
【0084】
(第2の実施の形態:音声辞書生成システム)
次に、この発明の第2の実施の形態を説明する。
図6は、この発明の第2の実施の形態に係る音声辞書生成システムの構成を示す図である。図示するように、この音声辞書生成システムは、音声データ入力部A1と、表音データ入力部A2と、記号列生成部A3と、ピッチ抽出部A4と、ピッチ長固定部A5と、サブバンド分割部A6と、非線形量子化部A7と、データ出力部A8とより構成されている。
【0085】
音声データ入力部A1及び表音データ入力部A2は、例えば、いずれも、記録媒体(例えば、フレキシブルディスクやMOなど)に記録されたデータを読み取る記録媒体ドライバ(フレキシブルディスクドライブや、MOドライブなど)等より構成されている。なお、音声データ入力部A1及び表音データ入力部A2の機能を単一の記録媒体ドライバが行ってもよい。
【0086】
音声データ入力部A1は、音声の波形を表す音声データを取得して、ピッチ抽出部A4及びピッチ長固定部A5に供給する。なお、音声データは、PCM変調されたディジタル信号の形式を有しており、音声のピッチより十分短い一定の周期でサンプリングされた音声を表しているものとする。
【0087】
表音データ入力部A2は、音声の発音を示す表音記号の列をテキスト形式等で表す表音データを入力して、記号列生成部A3に供給する。
【0088】
記号列生成部A3は、CPU等のプロセッサより構成されている。
記号列生成部A3は、表音データ入力部A2より供給された表音データを解析し、この表音データが表す音声を、当該音声を構成する単位音声の発音を示す発音記号の列として表す、発音記号列を生成する。また、記号列生成部A3は、この表音データを解析し、この表音データが表す音声の韻律を、当該音声を構成する単位音声の韻律を示す韻律記号の列として表す、韻律記号列を生成する。そして、記号列生成部A3は、生成した発音記号列及び韻律記号列を、データ出力部A8へと供給する。なお、単位音声は、上述した通り、言語音を構成する単位として機能する音声であり、たとえば上述のCV音節などからなる。
【0089】
ピッチ抽出部A4、ピッチ長固定部A5、サブバンド分割部A6及び非線形量子化部A7は、いずれも、DSPやCPU等のデータ処理装置より構成されている。
なお、ピッチ抽出部A4、ピッチ長固定部A5、サブバンド分割部A6及び非線形量子化部A7の一部又は全部の機能を単一のデータ処理装置が行うようにしてもよい。
【0090】
ピッチ抽出部A4は、音声データ入力部A1より供給された音声データを解析し、この音声データが表す音声の単位ピッチ分(たとえば、1ピッチ分)にあたる区間を特定する。そして、特定した各区間の先頭や末尾のタイミングを示すピッチ信号をピッチ長固定部A5へと供給する。
【0091】
ピッチ抽出部A4は、機能的には、たとえば図7に示すように、ケプストラム解析部A41と、自己相関解析部A42と、重み計算部A43と、BPF係数計算部A44と、バンドパスフィルタA45と、ゼロクロス解析部A46とより構成されている。
【0092】
なお、ケプストラム解析部A41、自己相関解析部A42、重み計算部A43、BPF係数計算部A44、バンドパスフィルタA45及びゼロクロス解析部A46の一部又は全部の機能を同一のDSPやCPUが行ってもよい。
【0093】
ピッチ抽出部A4は、ケプストラム解析と、自己相関関数に基づく解析とを併用して、ピッチの長さを特定する。
すなわち、まず、ケプストラム解析部A41は、音声データ入力部A1より供給される音声データにケプストラム解析を施すことにより、この音声データが表す音声の基本周波数を特定し、特定した基本周波数を示すデータを生成して重み計算部A43へと供給する。
【0094】
具体的には、ケプストラム解析部A41は、音声データ入力部A1より音声データを供給されると、まず、この音声データの強度を、元の値の対数に実質的に等しい値へと変換する。(対数の底は任意である。)
次に、ケプストラム解析部A41は、値が変換された音声データのスペクトル(すなわち、ケプストラム)を、高速フーリエ変換の手法(あるいは、離散的変数をフーリエ変換した結果を表すデータを生成する他の任意の手法)により求める。
そして、このケプストラムの極大値を与える周波数のうちの最小値を基本周波数として特定し、特定した基本周波数を示すデータを生成して重み計算部A43へと供給する。
【0095】
一方、自己相関解析部A42は、音声データ入力部A1より音声データを供給されると、音声データの波形の自己相関関数に基づいて、この音声データが表す音声の基本周波数を特定し、特定した基本周波数を示すデータを生成して重み計算部A43へと供給する。
【0096】
具体的には、自己相関解析部A42は、音声データ入力部A1より音声データを供給されるとまず、上述した自己相関関数r(l)を特定する。そして、特定した自己相関関数r(l)をフーリエ変換した結果得られるピリオドグラムの極大値を与える周波数のうち、所定の下限値を超える最小の値を基本周波数として特定し、特定した基本周波数を示すデータを生成して重み計算部A43へと供給する。
【0097】
重み計算部A43は、ケプストラム解析部A41及び自己相関解析部A42より基本周波数を示すデータを1個ずつ合計2個供給されると、これら2個のデータが示す基本周波数の逆数の絶対値の平均を求める。そして、求めた値(すなわち、平均ピッチ長)を示すデータを生成し、BPF係数計算部A44へと供給する。
【0098】
BPF係数計算部A44は、平均ピッチ長を示すデータを重み計算部A43より供給され、ゼロクロス解析部A46より後述のゼロクロス信号を供給されると、供給されたデータやゼロクロス信号に基づき、平均ピッチ長とピッチ信号とゼロクロスの周期とが互いに所定量以上異なっているか否かを判別する。そして、異なっていないと判別したときは、ゼロクロスの周期の逆数を中心周波数(バンドパスフィルタA45の通過帯域の中央の周波数)とするように、バンドパスフィルタA45の周波数特性を制御する。一方、所定量以上異なっていると判別したときは、平均ピッチ長の逆数を中心周波数とするように、バンドパスフィルタA45の周波数特性を制御する。
【0099】
バンドパスフィルタA45は、中心周波数が可変なFIR(Finite Impulse Response)型のフィルタの機能を行う。
具体的には、バンドパスフィルタA45は、自己の中心周波数を、BPF係数計算部A44の制御に従った値に設定する。そして、音声データ入力部A1より供給される音声データをフィルタリングして、フィルタリングされた音声データ(ピッチ信号)を、ゼロクロス解析部A46及びピッチ長固定部A5へと供給する。ピッチ信号は、音声データのサンプルリング間隔と実質的に同一のサンプリング間隔を有するディジタル形式のデータからなるものとする。
なお、バンドパスフィルタA45の帯域幅は、バンドパスフィルタA45の通過帯域の上限が音声データの表す音声の基本周波数の2倍以内に常に収まるような帯域幅であることが望ましい。
【0100】
ゼロクロス解析部A46は、バンドパスフィルタA45から供給されたピッチ信号の瞬時値が0となる時刻(ゼロクロスする時刻)が来るタイミングを特定し、特定したタイミングを表す信号(ゼロクロス信号)を、BPF係数計算部A44へと供給する。このようにして、音声データのピッチの長さが特定される。
ただし、ゼロクロス解析部A46は、ピッチ信号の瞬時値が0でない所定の値となる時刻が来るタイミングを特定し、特定したタイミングを表す信号を、ゼロクロス信号に代えてBPF係数計算部A44へと供給するようにしてもよい。
【0101】
ピッチ長固定部A5は、音声データ入力部A1より音声データを供給され、ピッチ抽出部A4よりピッチ信号を供給されると、供給された音声データを、供給されたピッチ信号が示すタイミング(たとえば、ピッチ信号の1周期の境界が来るタイミング)で分割することにより、この音声データを、上述した区間へと分割する。
【0102】
次に、ピッチ長固定部A5は、分割されてできる区間のそれぞれについて、この区間内の音声データの位相を種々変化させたものとこの区間内のピッチ信号との相関を求め、最も相関が高くなるときの音声データの位相を、この区間内の音声データの位相として特定する。このようにして、各区間につき音声データの位相が特定される。
【0103】
そして、ピッチ長固定部A5は、各区間の音声データの位相を、各区間の位相が揃うように移相する。具体的には、ピッチ長固定部A5は例えば、それぞれの区間毎に、上述した値Ψを特定してから、当該区間の音声データの位相を(−Ψ)だけ移相する。なお、区間の時間的な長さは、1ピッチ分程度であることが望ましい。
【0104】
次に、ピッチ長固定部A5は、移相された各区間をリサンプリングすることにより、各区間の時間長が互いに実質的に同一になるように揃える。そして、時間長が揃えられた音声データ(ピッチ波形データ)をサブバンド分割部A6へと供給する。
【0105】
また、ピッチ長固定部A5は、この音声データの各区間の元のサンプル数(音声データ入力部A1よりピッチ長固定部A5へと供給された時点におけるこの音声データの各区間のサンプル数)を示すピッチ情報を生成し、データ出力部A8へと供給する。音声データ入力部A1が取得した音声データのサンプリング間隔が既知であるとものとすれば、ピッチ情報は、この音声データの単位ピッチ分の区間の元の時間長を表すものとして機能する。
【0106】
サブバンド分割部A6は、ピッチ長固定部A5より供給されたピッチ波形データにDCT等の直交変換を施すことにより、スペクトル情報を生成する。そして、生成したスペクトル情報を非線形量子化部A7へと供給する。スペクトル情報は、第1の実施の形態の説明において上述したものと同様、ピッチ波形信号が表す音声の基本周波数成分の強度の時間変化を表すデータと、この音声のy個の基本周波数成分の強度の時間変化を表すy個のデータとを含むデータである。
【0107】
非線形量子化部A7は、サブバンド分割部A6よりスペクトル情報を供給されると、このスペクトル情報が表す各周波数成分の瞬時値に非線形圧縮を施して得られる値を量子化したものに相当するスペクトル情報を生成し、生成したスペクトル情報(非線形量子化後のスペクトル情報)をデータ出力部A8に供給する。具体的には、例えば、非線形量子化部A7は、非線形圧縮後の各周波数成分の瞬時値を、上述した関数Xri(xi)を量子化した値に実質的に等しくなるようなものへと変更することにより非線形圧縮を行えばよい。
【0108】
また、非線形量子化部A7は、非線形量子化された値を元の値に復元するためのデータ(圧縮情報)として、スペクトル情報にどのような特性の非線形量子化を施したかを示すデータを生成し、この圧縮情報をデータ出力部A8へと供給する。
【0109】
データ出力部A8は、ハードディスクコントローラ等、音声辞書を記憶させる対象である外部の記憶装置(たとえば、ハードディスク装置等)Dへのアクセスを制御する制御回路等より構成されており、当該記憶装置Dに接続される。
【0110】
データ出力部A8は、記号列生成部A3より発音記号列及び韻律記号列を供給され、ピッチ長固定部A5よりピッチ情報を供給され、非線形量子化部A7より圧縮情報及び非線形圧縮後のスペクトル情報を供給されると、供給された発音記号列、韻律記号列、ピッチ情報、圧縮情報及び非線形圧縮後のスペクトル情報を、同一の音声を表すもの同士が互いに対応付けられた形で、記憶装置Dの記憶領域に格納する。
【0111】
互いに対応付けて記憶装置Dに記憶された発音記号列、韻律記号列、ピッチ情報、圧縮情報及び非線形圧縮後のスペクトル情報の組がなす集合が、音声辞書を構成する。
【0112】
(第2の実施の形態:音声合成システム)
次に、この発明の第2の実施の形態に係る音声合成システムを説明する。
図8は、この音声合成システムの構成を示す図である。図示するように、この音声合成システムは、テキスト入力部B1と、形態素解析部B2と、発音記号生成部B3と、韻律記号生成部B4と、スペクトルパラメータ生成部B5と、音源パラメータ生成部B6と、辞書単位選択部B7と、サブバンド合成部B8と、ピッチ長調整部B9と、音声出力部B10とより構成されている。
【0113】
テキスト入力部B1は、たとえば、記録媒体ドライバ等より構成されている。テキスト入力部B1は、音声を合成する対象の文章を記述したテキストデータを外部から取得し、形態素解析部B2へと供給する。
【0114】
形態素解析部B2、発音記号生成部B3、韻律記号生成部B4、スペクトルパラメータ生成部B5及び音源パラメータ生成部B6は、いずれも、CPU等のデータ処理装置より構成されている。
なお、形態素解析部B2、発音記号生成部B3、韻律記号生成部B4、スペクトルパラメータ生成部B5及び音源パラメータ生成部B6の一部又は全部の機能を単一のデータ処理装置が行うようにしてもよい。
【0115】
形態素解析部B2は、テキスト入力部B1より供給されたテキストデータが表す文章に形態素解析を施し、この文章を形態素の列へと分解する。そして、得られた形態素の列を表すデータを、発音記号生成部B3及び韻律記号生成部B4へと供給する。
【0116】
発音記号生成部B3は、形態素解析部B2より供給されたデータが表す形態素の列に基づいて、合成する対象の音声を構成する単位音声を発音する順に表す発音記号(たとえば、カナ文字等の表音文字)の列を表すデータを生成し、このデータをスペクトルパラメータ生成部B5へと供給する。
【0117】
韻律記号生成部B4は、形態素解析部B2より供給されたデータが表す形態素の列に、たとえば藤崎モデルに基づいた解析を加えることにより、この形態素の列の韻律を特定し、特定した韻律を表す韻律記号の列を表すデータを生成し、このデータを音源パラメータ生成部B6へと供給する。
【0118】
スペクトルパラメータ生成部B5は、発音記号生成部B3より供給されたデータが表す発音記号が表す単位音声のスペクトルを特定し、特定したスペクトルを表すスペクトル情報と、供給された発音記号とを、辞書単位選択部B7へと供給する。
【0119】
スペクトルパラメータ生成部B5は、具体的には、たとえば、参照用の発音記号と、この参照用の発音記号が表す音声のスペクトルを表すスペクトル情報とを互いに対応付けて格納するスペクトルテーブルを予め記憶する。そして、発音記号生成部B3より供給されたデータが表す発音記号をキーとして、この発音記号に対応付けられたスペクトル情報をスペクトルテーブルより索出し(すなわち、発音記号生成部B3より供給されたデータが表す発音記号が表す単位音声のスペクトルを特定し)、索出したスペクトル情報を、辞書単位選択部B7へと供給する。
ただしこの場合、スペクトルパラメータ生成部B5は、データ処理装置に加え、更に、ハードディスク装置やROM(Read Only Memory)等の記憶装置を備えているものとする。
【0120】
音源パラメータ生成部B6は、韻律記号生成部B4より供給されたデータが表す韻律記号が表す韻律を特徴付けるパラメータ(たとえば、単位音声のピッチ、パワー及び持続期間)を特定し、特定したパラメータを表すデータ(韻律情報)を、辞書単位選択部B7及びピッチ長調整部B9へと供給する。
【0121】
音源パラメータ生成部B6は、具体的には、たとえば、参照用の韻律記号と、この参照用の韻律記号が表す韻律を特徴付けるパラメータを含んだ韻律情報とを互いに対応付けて格納する韻律テーブルを予め記憶する。そして、韻律記号生成部B4より供給されたデータが表す韻律記号をキーとして、この韻律記号に対応付けられた韻律情報を韻律テーブルより索出し(すなわち、韻律記号生成部B4より供給されたデータが表す韻律記号が表す韻律を特徴付けるパラメータを特定し)、索出した韻律情報を、辞書単位選択部B7へと供給する。
ただしこの場合、音源パラメータ生成部B6は、データ処理装置に加え、更に、ハードディスク装置やROM等の記憶装置を備えているものとする。なお、単一の記憶装置が、スペクトルパラメータ生成部B5の記憶装置及び音源パラメータ生成部B6の記憶装置の機能を行うようにしてもよい。
【0122】
辞書単位選択部B7、サブバンド合成部B8及びピッチ長調整部B9は、いずれも、DSPやCPU等のデータ処理装置より構成されている。
なお、辞書単位選択部B7、サブバンド合成部B8及びピッチ長調整部B9の一部又は全部の機能を単一のデータ処理装置が行うようにしてもよい。また、形態素解析部B2、発音記号生成部B3、韻律記号生成部B4、スペクトルパラメータ生成部B5及び音源パラメータ生成部B6の一部又は全部の機能を行うデータ処理装置が、辞書単位選択部B7、サブバンド合成部B8及びピッチ長調整部B9の一部又は全部の機能を行うようにしてもよい。
【0123】
辞書単位選択部B7は、上述した図6の音声辞書生成システムにより作成された音声辞書(又はこれと実質的に同一のデータ構造を有するデータの集合)を記憶する外部の記憶装置Dに接続される。すなわち、記憶装置Dは、単位音声を表す発音記号列、韻律記号列、ピッチ情報、圧縮情報及び非線形圧縮後のスペクトル情報を、単位音声別に互いに対応付けて格納しているものとする。
【0124】
辞書単位選択部B7は、スペクトルパラメータ生成部B5より発音記号及びスペクトル情報を供給され、音源パラメータ生成部B6より韻律情報を供給されると、供給されたこれらのデータが表す音声にもっともよく近似できる単位音声を表す発音記号列、韻律記号列、ピッチ情報、圧縮情報及び非線形圧縮後のスペクトル情報の組を、音声辞書のうちから特定する。
【0125】
具体的には、辞書単位選択部B7は、たとえば、
(a) 音声辞書が記憶する同一の単位音声のスペクトル情報及びピッチ情報について、このスペクトル情報の値とスペクトルパラメータ生成部B5より供給されたスペクトル情報の値との相関係数、及び、このピッチ情報の値と音源パラメータ生成部B6より供給された韻律情報が示すピッチの値との相関係数を求め、更に、求めた相関係数の平均値を求める。
(b) 上述した(a)の処理を、音声辞書がパラメータを記憶するすべての単位音声について行う。そして、各単位音声のうち、(a)の処理で求めた平均値が最も大きかったものを、スペクトルパラメータ生成部B5や音源パラメータ生成部B6より供給されたパラメータが表す単位音声にもっとも近い単位音声として特定する。
【0126】
そして、辞書単位選択部B7は、特定した単位音声を表すスペクトル情報及び圧縮情報をサブバンド合成部B8へと供給する。
【0127】
サブバンド合成部B8は、辞書単位選択部B7より供給されたスペクトル情報が表す各周波数成分の強度を、辞書単位選択部B7より供給された圧縮情報が表す特性で非線形量子化する以前の値に復元する。そして、強度の値が復元されたスペクトル情報に変換を施すことにより、このスペクトル情報により各周波数成分の非線形量子化後の強度が表されるピッチ波形データを復元する。そして、復元されたピッチ波形データを、ピッチ長調整部B9へと供給する。なお、このピッチ波形データは、たとえば、PCM変調されたディジタル信号の形式を有しているものとする。
【0128】
サブバンド合成部B8がスペクトル情報に施す変換は、このスペクトル情報を生成するために音素の波形に施した変換に対して実質的に逆変換の関係にあるような変換である。具体的には、たとえばこのスペクトル情報が音素にDCTを施して生成されたものである場合、サブバンド合成部B8は、このスペクトル情報にIDCTを施すようにすればよい。
【0129】
ピッチ長調整部B9は、サブバンド合成部B8より供給されたピッチ波形データの各区間の時間長を、音源パラメータ生成部B6より供給される韻律情報が示すピッチの時間長になるよう変更する。区間の時間長の変更は、たとえば区間内にあるサンプルの間隔を変更することにより行えばよい。
そして、ピッチ長調整部B9は、各区間の時間長を変更されたピッチ波形データ(すなわち、合成音声を表す音声データ)を音声出力部B10へと供給する。
【0130】
音声出力部B10は、たとえば、PCMデコーダの機能を行う制御回路と、D/Aコンバータと、AF増幅器と、スピーカ等とを備えている。
音声出力部B10は、ピッチ長調整部B9より、合成音声を表す音声データを供給されると、この音声データを復調し、D/A変換及び増幅を行い、得られたアナログ信号を用いてスピーカを駆動することにより、合成音声を再生する。
【0131】
以上説明した図6の音声辞書生成システムにより生成される音声辞書に格納されるスペクトル情報も、単位ピッチ分の区間の時間長が規格化されピッチのゆらぎの影響が除去された音声データに基づいて生成されている。このため、このスペクトル情報は、音声の各周波数成分(基本周波数成分及び高調波成分)の強度の時間変化を正確に表すものとなる。また、ゆらぎを含んだ単位音声の各区間の元の時間長を表す情報も、この音声辞書に保存される。
従って、上述した図8の音声合成システムがこの音声辞書を用いて合成する音声も、人間が実際に発声した音声に近いものとなる。
【0132】
なお、この音声辞書生成システムや音声合成システムの構成は上述のものに限られない。
たとえば、音声データ入力部A1は、電話回線、専用回線、衛星回線等の通信回線を介して外部より音声データを取得するようにしてもよい。この場合、音声データ入力部A1は、例えばモデムやDSU等からなる通信制御部を備えていればよい。
【0133】
また、音声データ入力部A1は、マイクロフォン、AF増幅器、サンプラー、A/Dコンバータ及びPCMエンコーダなどからなる集音装置を備えていてもよい。集音装置は、自己のマイクロフォンが集音した音声を表す音声信号を増幅し、サンプリングしてA/D変換した後、サンプリングされた音声信号にPCM変調を施すことにより、音声データを取得すればよい。なお、音声データ入力部A1が取得する音声データは、必ずしもPCM信号である必要はない。
【0134】
また、このピッチ抽出部A4は、ケプストラム解析部A41(又は自己相関解析部A42)を備えていなくてもよく、この場合、重み計算部A43は、ケプストラム解析部A41(又は自己相関解析部A42)が求めた基本周波数の逆数をそのまま平均ピッチ長として扱うようにすればよい。
【0135】
また、ゼロクロス解析部A46は、バンドパスフィルタA45から供給されたピッチ信号を、そのままゼロクロス信号としてBPF係数計算部A44へと供給するようにしてもよい。
【0136】
また、データ出力部A8は、音声辞書に格納すべきデータを、通信回線等を介して外部に出力するようにしてもよい。通信回線を介してデータを出力する場合、データ出力部A8は、例えばモデムやDSU等からなる通信制御部を備えていればよい。
また、データ出力部A8は、記録媒体ドライバを備えていてもよく、この場合、データ出力部A8は、音声辞書に格納すべきデータを、この記録媒体ドライバにセットされた記録媒体の記憶領域に書き込むようにしてもよい。
なお、単一のモデムやDSUや記録媒体ドライバが音声データ入力部A1及びデータ出力部A8を構成していてもよい。
【0137】
また、テキスト入力部B1は、通信回線等を介して外部からテキストデータを取得するようにしてもよい。この場合、テキスト入力部B1は、モデムやDSU等からなる通信制御部を備えていればよい。
【0138】
また、辞書単位選択部B7は、自己に供給されたデータが表す音声にもっともよく近似できる単位音声を特定するとき、一部の情報を他の情報より重視した形で特定を行ってもよい。
具体的には、辞書単位選択部B7は、たとえば、上述した(a)の処理で、スペクトル情報をピッチ情報より重視するため、音声辞書が記憶するスペクトル情報の値とスペクトルパラメータ生成部B5より供給されたスペクトル情報の値との相関係数αに1より大きい重み係数βを乗じ、得られた値(α・β)を、相関係数の平均値の計算の際、値αに代えて用いるようにしてもよい。
【0139】
【発明の効果】
以上説明したように、この発明によれば、自然な音声を合成するための音声辞書作成装置音声辞書作成方法、及び、プログラムが実現される。
【図面の簡単な説明】
【図1】この発明の第1の実施の形態に係る音声辞書生成システムの構成を示すブロック図である。
【図2】図1の音声辞書生成システムの動作の流れを示す図である。
【図3】(a)及び(b)は、移相される前の音声データの波形を示すグラフであり、(c)は、ピッチ波形データの波形を表すグラフである。
【図4】この発明の第1の実施の形態に係る音声合成システムの構成を示すブロック図である。
【図5】図4の音声合成システムの動作の流れを示す図である。
【図6】この発明の第2の実施の形態に係る音声辞書生成システムの構成を示すブロック図である。
【図7】図6のピッチ抽出部の構成を示すブロック図である。
【図8】この発明の第2の実施の形態に係る音声合成システムの構成を示すブロック図である。
【図9】規則合成方式による音声合成の手順を説明するための図である。
【図10】音声合成の概念を模式的に説明するための図である。
【符号の説明】
C1、C2 コンピュータ
SMD1、SMD2 記録媒体ドライバ
D 記憶装置
A1 音声データ入力部
A2 表音データ入力部
A3 記号列生成部
A4 ピッチ抽出部
A41 ケプストラム解析部
A42 自己相関解析部
A43 重み計算部
A44 BPF係数計算部
A45 バンドパスフィルタ
A46 ゼロクロス解析部
A5 ピッチ長固定部
A6 サブバンド分割部
A7 非線形量子化部
A8 データ出力部
B1 テキスト入力部
B2 形態素解析部
B3 発音記号生成部
B4 韻律記号生成部
B5 スペクトルパラメータ生成部
B6 音源パラメータ生成部
B7 辞書単位選択部
B8 サブバンド合成部
B9 ピッチ長調整部
B10 音声出力部
1 インパルス列発生源
2 白色雑音発生源
3 デジタルフィルタ

Claims (5)

  1. 音声の波形を表す音声信号と、当該音声信号の発音を示す表音記号列とを取得する取得手段と、
    前記取得手段により取得された音声信号をフィルタリングしてピッチ信号を抽出するフィルタであって、当該ピッチ信号がゼロクロスする周期の逆数を中心周波数とするバンドパスフィルタによりフィルタリングるフィルタと、
    前記フィルタにより抽出されたピッチ信号がゼロクロスするタイミングで前記音声信号を区間に区切り、各区間について、当該区間内のピッチ信号と当該区間内の音声信号との相関が最も高くなるように当該音声信号の位相を変化させ、更に、当該位相が変化された音声信号の各区間のサンプル数がほぼ等しくなり且つ各区間のサンプリング間隔が等間隔になるようにサンプリングしてピッチ波形信号を生成する信号生成手段と、
    前記信号生成手段により生成されたピッチ波形信号を直交変換することにより、前記ピッチ波形信号に含まれる所定個数分の基本周波数成分の時間変化をそれぞれ計算し、当該計算された所定個数分の時間変化を表すデータを1組とするデータの組を生成するデータ組生成手段と、
    前記取得手段により取得された表音記号列から、当該音声信号の韻律を示す韻律記号列を生成する韻律生成手段と、
    前記データ組生成手段により生成されたデータの組と、前記韻律生成手段により生成された韻律記号列とを出力する出力手段と、
    を備えることを特徴とする音声辞書作成装置。
  2. 前記フィルタは、前記バンドパスフィルタ、又は、前記音声信号の前記基本周波数の逆数の絶対値を中心周波数とするバンドパスフィルタ、のいずれかを用いてフィルタリングする
    ことを特徴とする請求項1に記載の音声辞書作成装置。
  3. 音声の波形を表す音声信号と、当該音声信号の発音を示す表音記号列とを取得する取得手段と、
    前記取得手段により取得された音声信号がゼロクロスするタイミングで前記音声信号を区間に区切り、各区間について、当該区間内のピッチ信号と当該区間内の音声信号との相関が最も高くなるように当該音声信号の位相を変化させ、更に、当該位相が変化された音声信号の各区間のサンプル数がほぼ等しくなり且つ各区間のサンプリング間隔が等間隔になるようにサンプリングすることにより、当該音声信号をピッチ波形信号へと加工する信号生成手段と、
    前記信号生成手段により生成されたピッチ波形信号を直交変換することにより、前記ピッチ波形信号に含まれる所定個数分の基本周波数成分の時間変化をそれぞれ計算し、当該計算された所定個数分の時間変化を表すデータを1組とするデータの組を生成するデータ組生成手段と、
    前記取得手段により取得された表音記号列から、当該音声信号の韻律を示す韻律記号列を生成する韻律生成手段と、
    前記データ組生成手段により生成されたデータの組と、前記韻律生成手段により生成された韻律記号列とを出力する出力手段と、
    を備えることを特徴とする音声辞書作成装置。
  4. 取得手段、抽出手段、信号生成手段、データ組生成手段、韻律生成手段、出力手段を有する装置にて実行される音声辞書作成方法であって、
    前記取得手段が、音声の波形を表す音声信号と、当該音声信号の発音を示す表音記号列とを取得する取得ステップと、
    前記抽出手段が、前記取得ステップにより取得された音声信号をフィルタリングしてピ ッチ信号を抽出する抽出ステップであって、当該ピッチ信号がゼロクロスする周期の逆数を中心周波数としてフィルタリングる抽出ステップと、
    前記信号生成手段が、前記抽出ステップにより抽出されたピッチ信号がゼロクロスするタイミングで前記音声信号を区間に区切り、各区間について、当該区間内のピッチ信号と当該区間内の音声信号との相関が最も高くなるように当該音声信号の位相を変化させ、更に、当該位相が変化された音声信号の各区間のサンプル数がほぼ等しくなり且つ各区間のサンプリング間隔が等間隔になるようにサンプリングしてピッチ波形信号を生成する信号生成ステップと、
    前記データ組生成手段が、前記信号生成ステップにより生成されたピッチ波形信号を直交変換することにより、前記ピッチ波形信号に含まれる所定個数分の基本周波数成分の時間変化をそれぞれ計算し、当該計算された所定個数分の時間変化を表すデータを1組とするデータの組を生成するデータ組生成ステップと、
    前記韻律生成手段が、前記取得ステップにより取得された表音記号列から、当該音声信号の韻律を示す韻律記号列を生成する韻律生成ステップと、
    前記出力手段が、前記データ組生成ステップにより生成されたデータの組と、前記韻律生成ステップにより生成された韻律記号列とを出力する出力ステップと、
    を備えることを特徴とする音声辞書作成方法。
  5. コンピュータを、
    音声の波形を表す音声信号と、当該音声信号の発音を示す表音記号列とを取得する取得手段、
    前記取得手段により取得された音声信号をフィルタリングしてピッチ信号を抽出するフィルタであって、当該ピッチ信号がゼロクロスする周期の逆数を中心周波数とするバンドパスフィルタによりフィルタリングるフィルタ、
    前記フィルタにより抽出されたピッチ信号がゼロクロスするタイミングで前記音声信号を区間に区切り、各区間について、当該区間内のピッチ信号と当該区間内の音声信号との相関が最も高くなるように当該音声信号の位相を変化させ、更に、当該位相が変化された音声信号の各区間のサンプル数がほぼ等しくなり且つ各区間のサンプリング間隔が等間隔になるようにサンプリングしてピッチ波形信号を生成する信号生成手段、
    前記信号生成手段により生成されたピッチ波形信号を直交変換することにより、前記ピッチ波形信号に含まれる所定個数分の基本周波数成分の時間変化をそれぞれ計算し、当該計算された所定個数分の時間変化を表すデータを1組とするデータの組を生成するデータ組生成手段、
    前記取得手段により取得された表音記号列から、当該音声信号の韻律を示す韻律記号列を生成する韻律生成手段、
    前記データ組生成手段により生成されたデータの組と、前記韻律生成手段により生成された韻律記号列とを出力する出力手段、
    として機能させるためのプログラム。
JP2002277769A 2001-09-27 2002-09-24 音声辞書作成装置、音声辞書作成方法、及び、プログラム Expired - Fee Related JP3994333B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002277769A JP3994333B2 (ja) 2001-09-27 2002-09-24 音声辞書作成装置、音声辞書作成方法、及び、プログラム

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2001298610 2001-09-27
JP2001-298610 2001-09-27
JP2002277769A JP3994333B2 (ja) 2001-09-27 2002-09-24 音声辞書作成装置、音声辞書作成方法、及び、プログラム

Publications (2)

Publication Number Publication Date
JP2003173198A JP2003173198A (ja) 2003-06-20
JP3994333B2 true JP3994333B2 (ja) 2007-10-17

Family

ID=26623177

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002277769A Expired - Fee Related JP3994333B2 (ja) 2001-09-27 2002-09-24 音声辞書作成装置、音声辞書作成方法、及び、プログラム

Country Status (1)

Country Link
JP (1) JP3994333B2 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7558389B2 (en) * 2004-10-01 2009-07-07 At&T Intellectual Property Ii, L.P. Method and system of generating a speech signal with overlayed random frequency signal
JP2007286198A (ja) * 2006-04-13 2007-11-01 Toyota Motor Corp 音声合成出力装置
CN114203154A (zh) * 2021-12-09 2022-03-18 北京百度网讯科技有限公司 语音风格迁移模型的训练、语音风格迁移方法及装置

Also Published As

Publication number Publication date
JP2003173198A (ja) 2003-06-20

Similar Documents

Publication Publication Date Title
EP1422690B1 (en) Apparatus and method for generating pitch waveform signal and apparatus and method for compressing/decompressing and synthesizing speech signal using the same
JP4170217B2 (ja) ピッチ波形信号生成装置、ピッチ波形信号生成方法及びプログラム
JPH031200A (ja) 規則型音声合成装置
US6212501B1 (en) Speech synthesis apparatus and method
JP5360489B2 (ja) 音素符号変換装置および音声合成装置
JP3994333B2 (ja) 音声辞書作成装置、音声辞書作成方法、及び、プログラム
US6829577B1 (en) Generating non-stationary additive noise for addition to synthesized speech
JP4407305B2 (ja) ピッチ波形信号分割装置、音声信号圧縮装置、音声合成装置、ピッチ波形信号分割方法、音声信号圧縮方法、音声合成方法、記録媒体及びプログラム
JP3994332B2 (ja) 音声信号圧縮装置、音声信号圧縮方法、及び、プログラム
JP2004294969A (ja) 音声信号圧縮装置、音声信号圧縮方法及びプログラム
JP2001034284A (ja) 音声合成方法及び装置、並びに文音声変換プログラムを記録した記録媒体
JP3081300B2 (ja) 残差駆動型音声合成装置
JP3394281B2 (ja) 音声合成方式および規則合成装置
JP2001312300A (ja) 音声合成装置
JP3495275B2 (ja) 音声合成装置
JPH09325788A (ja) 音声合成装置及び方法
JP3967571B2 (ja) 音源波形生成装置、音声合成装置、音源波形生成方法およびプログラム
JP2001100777A (ja) 音声合成方法及び装置
JPH02236600A (ja) 合成音声情緒付与回路
Rank et al. VieCtoS speech synthesizer, technical overview
JPH03189697A (ja) 規則音声合成装置
JPH1195797A (ja) 音声合成装置及び方法
JPS61259300A (ja) 音声合成方式
Kim et al. On the Implementation of Gentle Phone’s Function Based on PSOLA Algorithm
KHAN Acquisition of Duration Modification of Speech Systems

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20041129

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20061107

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20061121

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070122

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070410

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070608

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070703

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070718

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100810

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 3994333

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100810

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110810

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110810

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120810

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120810

Year of fee payment: 5

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120810

Year of fee payment: 5

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120810

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130810

Year of fee payment: 6

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees