JP5631915B2 - 音声合成装置、音声合成方法、音声合成プログラムならびに学習装置 - Google Patents

音声合成装置、音声合成方法、音声合成プログラムならびに学習装置 Download PDF

Info

Publication number
JP5631915B2
JP5631915B2 JP2012075967A JP2012075967A JP5631915B2 JP 5631915 B2 JP5631915 B2 JP 5631915B2 JP 2012075967 A JP2012075967 A JP 2012075967A JP 2012075967 A JP2012075967 A JP 2012075967A JP 5631915 B2 JP5631915 B2 JP 5631915B2
Authority
JP
Japan
Prior art keywords
speech
model
unit
statistical
spectrum
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2012075967A
Other languages
English (en)
Other versions
JP2013205697A (ja
Inventor
大和 大谷
大和 大谷
正統 田村
正統 田村
眞弘 森田
眞弘 森田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2012075967A priority Critical patent/JP5631915B2/ja
Priority to US13/727,011 priority patent/US9110887B2/en
Publication of JP2013205697A publication Critical patent/JP2013205697A/ja
Application granted granted Critical
Publication of JP5631915B2 publication Critical patent/JP5631915B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/02Methods for producing synthetic speech; Speech synthesisers

Description

本発明の実施形態は、音声合成装置、音声合成方法、音声合成プログラムならびに学習装置に関する。
統計モデルに基づく合成音声の品質は、統計モデルの構築に用いられる音声パラメータの品質に左右される。音声パラメータとしては、比較的次元数が少ないものを統計モデルの構築に用いることが必要である。
特開2009−139406号公報 特許第3732793号公報
K. Tokuda, T. Yoshimura, T. Masuko, T. Kobayashi, T. Kitamura, Speech parameter generation algorithms for HMM-based speech synthesis, Proc. of ICASSP, pp.1315-1318, June 2000.
音声の制限された帯域ごとの情報を表現する基底モデルを用いて抽出された音声パラメータを統計モデルに基づく音声合成に適用することにより、合成音声の品質を向上することが望まれている。
実施形態によれば、音声合成装置が提供される。この音声合成装置は、テキストデータを解析することにより言語的な情報を表す言語情報データを出力する言語解析部と、音声に含まれる音響情報を統計的にモデル化した複数の統計モデルを保持する統計モデル保持部と、前記言語情報データに基づいて前記複数の統計モデルからいずれかの統計モデルを選択するモデル選択部と、前記モデル選択部において選択された統計モデルを用いて複数の音声パラメータの系列を生成するパラメータ生成部と、それぞれが制限された帯域ごとの音声の情報を表現する複数の基底ベクトルを含む基底モデルを保持する基底モデル保持部と、前記複数の音声パラメータの系列と前記基底モデルとをフィルタ処理することにより合成音声を出力するフィルタ処理部と、を具備する。
第1の実施形態に係る音声合成装置を示す図 第1の実施形態に係るスペクトル特徴量抽出部を示す図 第2の実施形態に係る音声合成装置を示す図 第2の実施形態に係る位相特徴量抽出部を示す図 第2の実施形態に係る音声波形生成部の第1構成例を示す図 第2の実施形態に係る音声波形生成部の第2構成例を示す図
(第1の実施形態)
図1は、第1の実施形態に係る統計モデルを利用した音声合成装置を示すブロック図である。この音声合成装置は、合成音声を生成するために必要な合成辞書である統計モデルをオフラインで学習する辞書学習部101と、辞書学習部101で作成された合成辞書を用いて任意の音声波形をオンラインで生成する音声合成部102とで構成される。本明細書では、最初に辞書学習部101による統計モデルの学習について説明し、次に音声合成部102による音声合成の処理について説明する。
まず統計モデルの学習について説明する。
辞書学習部101は、音声データ保持部103、言語情報抽出部104、基本周波数抽出部105、雑音強度比計算部106、スペクトル包絡抽出部107、スペクトル特徴量抽出部108、統計モデル学習部109から構成される。
音声データ保持部103は、合成辞書として用いる統計モデルの学習に必要な音声データが格納されている。具体的には、音声データは、話者が発声した複数の音声波形データとそれら音声波形データに対応するテキストデータである。テキストデータとしては、任意の音声波形データに対応する漢字、仮名、英数字、記号などが混在したテキストデータのほか、音声波形データが表現する話者の発声方法、すなわち発声した際の音韻列やアクセント、ポーズ位置やポーズの長さなどの情報を含んだテキストデータであってもよい。
言語情報抽出部104は、音声データ保持部103に保持されているテキストデータを解析することにより言語的な情報を抽出する。具体的には、音素、句末位置、文長、呼気段落長、呼気段落位置、アクセント句長、アクセント句位置、単語長、単語位置、モーラ長、モーラ位置、アクセント型、係り受け情報、文法情報および各特徴の先行、先々行、後続、後々続に関する情報および音素境界情報などが言語情報抽出部104により抽出されて言語情報データ1が出力される。
基本周波数抽出部105は、音声データ保持部103に保持されている音声データに含まれる基本周波数の系列(以下「F0系列」)2を抽出する。人は声帯を振るわせることで音源を生成し咽頭から口唇にかけて形成される声道と呼ばれる空間を通じて音声を発声する。F0系列2はこのときの短時間区間(フレーム)当たりの声帯の振動回数(周波数)の情報である。本実施形態では、抽出したF0系列2を自然対数の値に変換したもの、および対数F0の時間変動情報を用いることとする。
雑音強度比計算部106は、音声データ保持部103に保持されている音声データから短時間区間内における帯域毎の周期性と非周期性の度合いを計算する。本実施形態では、さらに雑音強度比の時間変化量3も計算する。
スペクトル包絡抽出部107は、音声データ保持部103に保持されている音声データから短時間のスペクトル包絡を抽出する。スペクトル包絡とは、咽頭から口唇にかけて形成される声道の各周波数における振幅特性および位相特性といった伝達特性を表す特徴量である。この伝達特性が時間方向に変化することで様々な音韻や声色を表現することができる。本実施形態では、スペクトル包絡における振幅特性のみを用い、この振幅特性を自然対数に変換した対数振幅スペクトルを利用する。
スペクトル特徴量抽出部108は、スペクトル包絡抽出部107により抽出された対数振幅スペクトルのスペクトル包絡から、スパース基底モデル保持部110に保持された基底モデルを用いてスペクトル特徴量4を抽出する。基底モデルは、音声の制限された帯域ごとの情報を表現する。
本実施形態では、スペクトル特徴量4の抽出にスパース基底モデル(Sparse Base Model、以下「SBM」)を用いる。SBMは、空間的に疎な複数の基底を有する基底モデルである。このようなSBMとして、特許文献1に開示された基底モデルを用いてもよい。特許文献1で開示された基底モデルは次のような特徴を持つ。
(1)SBMにおける基底は、周波数軸上で単一の最大値を与えるピーク周波数を含む所定の周波数帯域に値が存在し、前記周波数帯域の外側は値を零(または計算上では無視可能な値)とし、フーリエ変換やコサイン変換で用いられるような周期的な基底のように同じ最大値を複数持たない。このようにSBMの基底は、帯域が制限されており、かつ、周期的な基底のように同じ最大値を複数持つものではない。この点でケプストラム分析に用いられる基底とは相違する。
(2)基底モデルの持つ基底ベクトルの数はスペクトル包絡がもつ分析点数(量子化された音声波形信号を分析するときに用いる分析点数)よりも数が少なく、その数は分析点数の半分未満の数である。
(3)ピーク周波数位置が隣り合う2つの基底間には重なりがある。すなわちピーク周波数が隣り合う2つの基底は、値の存在する周波数の範囲が重なる。
SBMの基底ベクトルは例えば次式(1)(2)により定義される。
Figure 0005631915
また、SBMは、上記のような特徴をもつ基底ベクトルの重みづけ線形結合により、次式(3)のように対数振幅スペクトルx(k)を表現することができる。
Figure 0005631915
ここで、cはSBMの各基底ベクトルに対する重みである。
本実施形態では、SBMの各基底ベクトルの重みcがスペクトル特徴量4である。スペクトル特徴量4の抽出には、特許文献1記載されているような非負最小二乗誤差法を利用してもよい。すなわち、SBMの重み付けされた各基底ベクトルの線形結合と対数振幅スペクトルの誤差が最小となるように、各基底ベクトルの重みcを最適化する。この場合、最適化は、スペクトル特徴量4の値が必ず零以上であるという制約の下で行われる。
本実施形態において、SBMの基底の数は例えば50とする。0ラジアンからπ/2ラジアンまでの低帯域の基底について、1番目から34番目までの基底としては、メルケプストラム分析で用いられるオールパスフィルタの伸縮係数値(ここでは0.35)に基づいたメル尺度で作成されたものを用いる。高帯域の周波数分解能を高いものとするため、π/2ラジアンからπラジアンまでの高帯域について、35番目から50番目までの基底については、線形尺度で作成されたものを用いる。
なお、SBMの低帯域の基底について、上記メル尺度以外の尺度が用いられてもよい。例えば、線形尺度やバーク尺度、ERB(Equivalent Rectangular Bandwidth)尺度などを用いてもよい。
また、スパースコーディング法を用いてSBMの基底を自動的に決定してもよい。
図2は、第1の実施形態に係るスペクトル特徴量抽出部108の構成例を示すブロック図である。スペクトル特徴量抽出部108は、スペクトル特徴量算出部119と変換部120を有する。スペクトル特徴量算出部119は、上述したようにスペクトル包絡抽出部107により抽出されたスペクトル包絡(ここでは対数振幅スペクトル包絡)からスペクトル特徴量4を算出する。ここで得られたスペクトル特徴量4を統計モデル学習109に導入してもよいが、これをそのまま用いると学習が適切に行われない場合がある。そこで本実施形態では、統計モデル学習で容易に扱えるようにするための変換処理を施す。具体的には、スペクトル特徴量算出部119により算出されたスペクトル特徴量4に対して変換部120が変換処理を施してスペクトル特徴量4’を出力する。変換部120による変換処理の方法としては離散フーリエ変換、離散サイン変換、離散コサイン変換などの直交変換を利用することができるが、離散コサイン変換、修正離散コサイン変換または高速コサイン変換を用いることが好ましい。
例えば変換部120による変換処理の方法として離散コサイン変換(DCT−II)を利用する場合、統計モデルの学習に適用すべく変換されたスペクトル特徴量4’に相当するCは次式(4)のように表される。
Figure 0005631915
上式で表されるスペクトル特徴量4’は、統計モデル学習部109に渡されて統計モデルの学習に用いられる。上記の変換によれば、各スペクトル特徴量間の相関が平均的に減少することから、統計モデルの学習を適切に行うことができる。
統計モデル学習部109は、言語情報抽出部104により得られた言語情報データ1、基本周波数抽出部105により得られたF0系列(基本周波数)2、雑音強度比抽出部106により得られた雑音強度比3、およびスペクトル特徴量抽出部108により得られたスペクトル特徴量4’を用いて統計モデルを学習する。
学習された統計モデルは統計モデル保持部110によって保持される。統計モデルとしては、非特許文献1に示されているような隠れマルコフモデルまたは隠れセミマルコフモデルを用いても良い。なお、統計モデルとして上記の隠れマルコフモデルのほか、混合正規分布モデルや条件付き確率場などを用いても良い。
次に、音声合成部102による音声合成の処理について説明する。
図1に示すように、音声合成部102は、テキスト解析部113、モデル選択部114、パラメータ生成部115、音源信号生成部116、スペクトル復元部117、フィルタ処理部118を含む。
テキスト解析部113は、入力された任意のテキストデータ5を解析し、言語情報データを抽出する。具体的には、音素、句末位置、文長、呼気段落長、呼気段落位置、アクセント句長、アクセント句位置、単語長、単語位置、モーラ長、モーラ位置、アクセント型、係り受け情報、文法情報および各特徴の先行、先々行、後続、後々続に関する情報などである。テキスト解析部113に入力可能なテキストデータ5としては、プレーンのテキストデータのほか、ユーザが文の読み方、すなわち音韻列やアクセント位置、ポーズ位置やポーズ長などを任意に決定したテキストデータを入力してもよい。
モデル選択部114は、テキスト解析部113で得られた言語情報データに最も適合した統計モデルを統計モデル保持部111から選択する。パラメータ生成部115は、モデル選択部114で選択された統計モデルを用いて複数の音声パラメータの系列、すなわち基本周波数の系列6、雑音強度比の系列7、およびスペクトル特徴量の系列8を生成する。
ここで用いるパラメータ生成法としては、非特許文献1に示されているように、統計モデルが持つ各音声特徴量および時間変動量の平均情報および分散情報を用いて一文ごとに各音声特徴量系列を生成してもよい。そのほか、統計モデルが持つ各音声特徴量および時間変動量の平均情報および分散情報を用いて再帰的に特徴量系列を求めてもよい。あるいは、音声特徴量の平均情報の系列をそのまま出力し、各平均情報に区分線形補間やスプライン補間などの補間処理を行ったものを出力してもよい。
また、パラメータを生成する際にパラメータ強調処理を行うことにより、品質の向上を図ることが望ましい。
音源信号生成部116は、パラメータ生成部115により生成された基本周波数の系列6および雑音強度比の系列7を用いて音源信号を生成する。具体的な音源信号の生成方法として、まず基本周波数の系列6に基づいてパルス信号系列および雑音信号系列を生成する。次に雑音信号とパルス信号系列の重みづけ和を行うことにより音源信号を生成する。ここで重みづけ和を行うための重み情報として、雑音強度比の系列7に基づいて生成される重み情報を用いる。
スペクトル復元部117は、パラメータ生成部115により生成されたスペクトル特徴量の系列8から、スパース基底モデル保持部110において保持されている基底モデルを用いてスペクトル包絡を復元する。本実施形態では、スパース基底モデル(SBM)を用いている。対数振幅スペクトル包絡は、SBMの基底ベクトルにスペクトル特徴量4による重みづけを行って線形結合することにより復元可能である。特に本実施形態ではスペクトル特徴量4を離散コサイン変換により変換したスペクトル特徴量4’(C)を用いている。このためスペクトル復元部117は、次式(5)に示す逆離散コサイン変換
Figure 0005631915
によりスペクトル特徴量4’をSBMのスペクトル特徴量4へ変換したのちに式(3)に示した線形結合を行うことで対数振幅スペクトル包絡を復元する。
フィルタ処理部118は、音源信号生成部116で得られた音源信号およびスペクトル復元部117において得られた対数振幅スペクトル包絡の系列を畳み込むことで合成音声9を生成する。
なお、音源信号生成部116、スペクトル復元部117およびフィルタ処理部118は、各音声特徴量の系列を1フレームずつ入力することで逐次的に処理が可能である。
以上説明した実施形態によれば、音声の制限された帯域ごとの情報を表現する基底モデルを用いて抽出された音声パラメータを統計モデルに基づく音声合成に適用することにより、合成音声の品質を向上することができる。本実施形態では、SBMに基づくスペクトル特徴量(対数振幅スペクトル包絡のパラメータ)を統計モデル学習部109の学習に用いることとした。スペクトル特徴量は、スパース基底モデル(SBM)保持部110に保持されたSBMを用いてスペクトル特徴量抽出部108により抽出されたものである。特に本実施形態では、スペクトル特徴量が統計モデルの学習に適したものとなるように、変換部120がスペクトル特徴量に離散コサイン変換を施す構成とした。
なお、本実施形態ではSBMを利用することとしたが、SBMに代えて、非負値行列因子分解によって得られる基底や特許文献2で示されているホルマント波形(FWF)モデルのような空間的に疎な基底を持つ基底モデルを用いてもよい。ここで、FWFモデルとは、音声波形をスペクトル包絡が持ついくつかのピーク形状(ホルマント)を表現する窓関数と、窓関数と同じ数だけ用意された正弦波との線形結合によって表現されるモデルである。スペクトル包絡のホルマントを表す窓関数は、周波数軸上においてはある限られた周波数帯域において値を持ち、そのほかの帯域においては零となるような特性を持つため、SBMと同様にスパースな基底モデルとして扱うことが可能である。このようなモデルは本実施形態および次に説明する第2の実施形態において利用可能である。
(第2の実施形態)
図3は、第2の実施形態に係る音声合成装置を示すブロック図である。第1の実施形態と同様、この音声合成装置は、合成音声を生成するために必要な合成辞書である統計モデルをオフラインで学習する辞書学習部201と、辞書学習部201で作成された合成辞書を用いて任意の音声波形をオンラインで生成する音声合成部202とで構成される。
上述した第1の実施形態は、SBMに基づく統計モデルの学習および音声合成においてスペクトル特徴量4’を利用するものであった。これに対し第2の実施形態は、スペクトル特徴量4’のみならず位相特徴量を利用する。
最初に辞書学習部201による統計モデルの学習について説明し、次に音声合成部202による音声合成の処理について説明する。
まず統計モデルの学習について説明する。
辞書学習部201は、音声データ保持部203、言語情報抽出部204、基本周波数抽出部205、雑音強度比計算部206、スペクトル包絡抽出部207、スペクトル特徴量抽出部208、位相特徴量抽出部209、統計モデル学習部210から構成される。
音声データ保持部203は、合成辞書として用いる統計モデルの学習に必要な音声データが格納されている。音声データの具体例は第1の実施形態と同様である。言語情報抽出部204は、音声データ保持部103に保持されているテキストデータを解析することにより言語的な情報を抽出する。言語情報データの具体例は第1の実施形態と同様である。
また、第1の実施形態と同様に、基本周波数抽出部205は、基本周波数の系列(「F0系列」)2を抽出し、雑音強度比計算部206は、雑音強度比の時間変化量3等を計算する。
スペクトル包絡抽出部207は、第1の実施形態と同様に音声データから短時間のスペクトル包絡を抽出するが、特に本実施形態では、対数振幅スペクトルのみならず位相スペクトルの抽出も行う。
スペクトル特徴量抽出部208は、スペクトル包絡抽出部207により抽出された対数振幅スペクトル包絡から、スパース基底モデル保持部211に保持されている基底モデルを用いてスペクトル特徴量4’を抽出する。このスペクトル特徴量4’の抽出については第1の実施形態と同様である。
図4は、第2の実施形態に係る位相特徴量抽出部209の構成例を示すブロック図である。位相特徴量抽出部209は、変換部217と位相特徴量算出部218を有する。変換部217は、スペクトル包絡抽出部207により抽出された極座標表現の位相スペクトルを直交座標表現の位相スペクトルに変換する。位相特徴量算出部218は、変換部217により直交座標表現に変換された位相スペクトルから位相特徴量10’を算出する。この場合、位相特徴量算出部218は、スパース基底モデル保持部211に保持されている基底モデルを用いて位相特徴量10’を抽出する。
本実施形態では、位相特徴量のアンラップ問題に適切に対処するために変換部217を設ける構成とした。
位相には2πの不定性という特性がある。数値計算において、位相の値が−π〜πの範囲で変化すると、周波数軸上の値が細切れの状態で抽出される。そのため、位相が連続的に変化するように、2πの整数倍だけずらす処理(アンラップ)を施すことが考えられる。
本実施形態では、このようなアンラップを行っても位相の遅延特性が正確には求まらないことに着目した。また、統計モデルの学習において、この場合の扱いが難しくなることも予想される。
そこで、本実施形態では、角度による表現を次式(5)のように再表現する。
Figure 0005631915
変換部217は、極座標における表現である位相スペクトルθ(k)を複素平面の座標における表現、すなわち直交座標における表現である位相スペクトルξ(k)に変換する。位相スペクトルξ(k)は、複素平面における単位円上の値を表す。すなわち、実数を余弦の値とし、虚数を正弦の値とする。
このような直交座標における表現とすることにより、上記のアンラップ問題を回避することができる。しかも、統計モデルの学習において扱いやすい形へと変換することができる。
位相特徴量算出部218は、変換部217により直交座標表現に変換された位相スペクトルから、SBMを用いて位相特徴量10’を算出する。この位相特徴量10’の算出には、対数振幅スペクトル包絡の場合と同様、特許文献1記載されているような非負最小二乗誤差法を利用してもよい。すなわち、SBMの重み付けされた各基底ベクトルの線形結合と位相スペクトル包絡の誤差が最小となるように、各基底ベクトルの重みを最適化する。
なお、本実施形態では、位相を直交座標表現で扱っているが、そのほかに群遅延による表現を用いてもよい。
統計モデル学習部210は、言語情報抽出部204により得られた言語情報データ1、基本周波数抽出部205により得られたF0系列(基本周波数)2、雑音強度比抽出部206により得られた雑音強度比3、スペクトル特徴量抽出部108により得られたスペクトル特徴量4’、および位相特徴量抽出部209により得られた位相特徴量10’を用いて統計モデルを学習する。
学習された統計モデルは統計モデル保持部212によって保持される。統計モデルとしては、非特許文献1に示されているような隠れマルコフモデルまたは隠れセミマルコフモデルを用いても良い。なお、統計モデルとして上記の隠れマルコフモデルのほか、混合正規分布モデルや条件付き確率場などを用いても良い。
次に、音声合成部202による音声合成の処理について説明する。
図1に示すように、音声合成部202は、テキスト解析部213、モデル選択部214、パラメータ生成部215、音源波形生成部216を含む。
テキスト解析部213は、入力された任意のテキストデータ5を解析し、言語情報データを抽出する。言語情報データの具体例は第1の実施形態と同様である。
モデル選択部214は、テキスト解析部213で得られた言語情報データに最も適合した統計モデルを統計モデル保持部211から選択する。パラメータ生成部215は、モデル選択部214で選択された統計モデルを用いて複数の音声パラメータの系列、すなわち基本周波数の系列6、雑音強度比の系列7、スペクトル特徴量の系列8、および位相特徴量の系列11を生成する。
ここで用いるパラメータ生成法としては、非特許文献1に示されているように、統計モデルが持つ各音声特徴量および時間変動量の平均情報および分散情報を用いて一文ごとに各音声特徴量系列を生成してもよい。そのほか、統計モデルが持つ各音声特徴量および時間変動量の平均情報および分散情報を用いて再帰的に特徴量系列を求めてもよい。あるいは、音声特徴量の平均情報の系列をそのまま出力し、各平均情報に区分線形補間やスプライン補間などの補間処理を行ったものを出力してもよい。
また、パラメータを生成する際にパラメータ強調処理を行うことにより、品質の向上を図ることが望ましい。
音声波形生成部216は、パラメータ生成部215で得られたパラメータ系列を用いて合成音声9を生成する。
音声波形生成部216の2つの構成例を図5および図6に示す。以下、図5および図6それぞれの構成例における音声波形の生成方法について述べる。
図5は、音声波形生成部216の第1の構成例を示すブロック図である。
音源信号生成部301は、まず、基本周波数の情報6に基づいたパルス信号系列および雑音信号系列を生成する。次に雑音信号とパルス信号系列を雑音強度比の系列7の情報に基づいて生成された重み情報を用いて重みづけ和を行い、音源信号を生成する。
位相復元部302は、パラメータ生成部215において生成された位相特徴量11を式(3)に適用し、スパース基底モデル保持部211に保持されている基底モデルを用いて位相スペクトルを復元する。本実施形態では、スパース基底モデルとしてSBMを用いており、座標表現された位相スペクトルをSBMの線形結合により復元する。ただし、復元された位相スペクトルは、その絶対値が単位円上に存在しないことがあるため、位相スペクトルの値が単位円上に存在するように適宜変形を加える。
スペクトル復元部303は、パラメータ生成部215において生成されたスペクトル特徴量の系列8と、スパース基底モデル保持部211に保持されているSBMとを用いて対数振幅スペクトルを復元する。
複素スペクトル生成部304は、位相復元部302およびスペクトル復元部303において得られた位相スペクトルおよび対数振幅スペクトルから複素スペクトルを生成する。
ここで、位相スペクトルは複素数平面における座標表現であるため、対数振幅スペクトルを線形表現の振幅スペクトルに変換した後、位相スペクトルの実部の値および虚部の値それぞれを振幅スペクトルとかけ合わせることで容易に複素スペクトルが得られる。
フィルタ処理部305は、音源信号生成部301で得られた音源信号および複素スペクトル生成部304において得られた複素スペクトル系列を畳み込むことで合成音声9を生成する。
なお、図5に示されるブロック図の処理は、各音声特徴量の系列を1フレームずつ入力することで逐次的に処理が可能である。
図6は、音声波形生成部216の第2の構成例を示すブロック図である。
位相復元部401は、パラメータ生成部215において生成された位相特徴量11を式(3)に適用し、スパース基底モデル保持部211に保持されている基底モデルを用いて位相スペクトルを復元する。本実施形態では、スパース基底モデルとしてSBMを用いており、座標表現された位相スペクトルをSBMの線形結合により復元する。ただし、復元された位相スペクトルは、その絶対値が単位円上に存在しないことがあるため、位相スペクトルの値が単位円上に存在するように適宜変形を加える。
マルチパルス信号生成部402は、基本周波数の系列6と位相復元部401で復元された位相スペクトルを用いてマルチパルス信号系列を生成する。ここでは、まず、基本周波数の情報6に基づいたパルス信号系列を生成する。次に、位相スペクトル系列とパルス信号系列をかけ合わせることでマルチパルス信号系列を生成する。
音源信号生成部403は、マルチパルス信号生成部402で得られたマルチパルス信号系列と雑音強度比の系列7を用いて音源信号を生成する。ここでは、マルチパルス信号と雑音信号系列について、雑音強度比の系列7の情報に基づいて生成された重み情報を用いて重みづけ和を行うことにより音源信号を生成する。
スペクトル復元部404は、パラメータ生成部215において生成されたスペクトル特徴量の系列8と、スパース基底モデル保持部211に保持されているSBMを用いて対数振幅スペクトルを復元する。
フィルタ処理部405は、音源信号生成部403で得られた音源信号およびスペクトル復元部404により得られた振幅スペクトル系列を畳み込むことで合成音声9を生成する。なお、図6に示されるブロック図の処理は、各音声特徴量の系列を1フレームずつ入力することで逐次的に処理が可能である。
以上説明した音声合成装置は、上記のプログラムをコンピュータ装置にあらかじめインストールすることで実現してもよいし、CD−ROMなどの記憶媒体に記憶して、あるいはネットワークを介して上記のプログラムを配布して、このプログラムをコンピュータ装置に適宜インストールすることで実現してもよい。また、本実施形態に記載した手法は、上記のコンピュータ装置に内蔵あるいは外付けされたメモリ、ハードディスクもしくはCD−R、CD−RW、DVD−RAM、DVD−Rなどの記憶媒体などを適宜利用して実現することができる。
以上説明した実施形態によれば、音声の制限された帯域ごとの情報を表現する基底モデルを用いて抽出された音声パラメータを統計モデルに基づく音声合成に適用することにより、合成音声の品質を向上することができる。本実施形態では、SBMに基づくスペクトル特徴量(対数振幅スペクトル包絡のパラメータ)を統計モデル学習部109の学習に用いることとした。スペクトル特徴量は、スパース基底モデル(SBM)保持部110に保持されたSBMを用いてスペクトル特徴量抽出部108により抽出されたものである。特に本実施形態では、位相のアンラップ問題に適切に対処するために、変換部21が極座標表現の位相スペクトルを直交座標表現の位相スペクトルに変換する構成とした。
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
101…辞書学習部;
102…音声合成部;
103…音声データ保持部;
104…言語情報抽出部;
105…基本周波数抽出部;
106…雑音強度比計算部;
107…スペクトル包絡抽出部;
108…スペクトル特徴量抽出部;
109…統計モデル学習部;
110…スパース基底モデル保持部;
111…統計モデル保持部;
112…テキスト解析部;
113…モデル選択部;
114…パラメータ生成部;
115…音源信号生成部;
116…スペクトル復元部;
117…フィルタ処理部

Claims (16)

  1. テキストデータを解析することにより言語的な情報を表す言語情報データを出力する言語解析部と、
    音声に含まれる音響情報を統計的にモデル化した複数の統計モデルを保持する統計モデル保持部と、
    前記言語情報データに基づいて前記複数の統計モデルからいずれかの統計モデルを選択するモデル選択部と、
    前記モデル選択部において選択された統計モデルを用いて複数の音声パラメータの系列を生成するパラメータ生成部と、
    それぞれが制限された帯域ごとの音声の情報を表現する複数の基底ベクトルを含む基底モデルを保持する基底モデル保持部と、
    前記複数の音声パラメータの系列と前記基底モデルとをフィルタ処理することにより合成音声を出力するフィルタ処理部と、を具備し、
    前記複数の音声パラメータの系列のいずれかは、前記複数の基底ベクトルを線形結合する際に各基底ベクトルに適用される重みを表し
    前記複数の音声パラメータの系列のいずれかは、前記基底モデルを用いて抽出された複数のスペクトル特徴量に対し各スペクトル特徴量間の相関を平均的に減少させるように変換を施したのちのスペクトル特徴量により学習した統計モデルから生成される、音声合成装置。
  2. テキストデータを解析することにより言語的な情報を表す言語情報データを出力する言語解析部と、
    音声に含まれる音響情報を統計的にモデル化した複数の統計モデルを保持する統計モデル保持部と、
    前記言語情報データに基づいて前記複数の統計モデルからいずれかの統計モデルを選択するモデル選択部と、
    前記モデル選択部において選択された統計モデルを用いて複数の音声パラメータの系列を生成するパラメータ生成部と、
    それぞれが制限された帯域ごとの音声の情報を表現する複数の基底ベクトルを含む基底モデルを保持する基底モデル保持部と、
    前記複数の音声パラメータの系列と前記基底モデルとをフィルタ処理することにより合成音声を出力するフィルタ処理部と、を具備し、
    前記複数の音声パラメータの系列のいずれかは、前記複数の基底ベクトルを線形結合する際に各基底ベクトルに適用される重みを表し、
    前記複数の音声パラメータの系列のいずれかは、前記基底モデルを用いて抽出された、音声信号に含まれる周波数帯域ごとの極座標表現の複数の位相特徴量を直交座標表現の位相特徴量に変換したのちの位相特徴量により学習した統計モデルから生成される、音声合成装置。
  3. 前記複数の基底ベクトルの各々は、限られた周波数帯域のみに値を持ち、当該限られた周波数帯域の外側の帯域には零または計算上では無視可能な値を持つ、請求項1または2に記載の装置。
  4. 前記複数の基底ベクトルの数は、量子化された音声波形信号を分析するときに用いる分析点数の半分未満である請求項1乃至のいずれかに記載の装置。
  5. 前記複数の基底ベクトルの各々は、周波数帯域ごとで可変の周波数尺度に基づいた周波数位置にピークを持つ請求項1乃至のいずれかに記載の装置。
  6. 前記音声パラメータの系列は、前記基底モデルが持つ複数の基底ベクトルと同じ次元数を持つ請求項1乃至のいずれかに記載の装置。
  7. 前記複数の音声パラメータの系列は、スペクトル包絡を示す特徴量、音声の周期・非周期性を示す特徴量、音声の位相特性を示す特徴量の少なくともいずれかである請求項1乃至のいずれかに記載の装置。
  8. 前記スペクトル包絡の特徴量と、前記複数の基底ベクトルとを線形結合することによりスペクトル包絡を復元するスペクトル復元部をさらに具備する請求項に記載の装置。
  9. 前記位相特性を示す特徴量と、前記複数の基底ベクトルとを線形結合することにより位相スペクトルを復元する位相復元部をさらに具備する請求項に記載の装置。
  10. 前記位相スペクトルからマルチパルス音源信号を生成する生成部をさらに具備する請求項記載の装置。
  11. 音声データに基づく言語情報データと、前記音声データに基づき前記基底モデルを用いて抽出された音響特徴量とを用いて前記統計モデルの学習を行う学習部をさらに具備する請求項1に記載の装置。
  12. テキストデータを解析することにより言語的な情報を表す言語情報データを出力するステップと、
    音声に含まれる音響情報を統計的にモデル化した複数の統計モデルを保持するステップと、
    前記言語情報データに基づいて前記複数の統計モデルからいずれかの統計モデルを選択するステップと、
    選択された統計モデルを用いて複数の音声パラメータの系列を生成するステップと、
    それぞれが制限された帯域ごとの音声の情報を表現する複数の基底ベクトルを含む基底モデルを保持するステップと、
    前記複数の音声パラメータの系列と前記基底モデルとをフィルタ処理することにより合成音声を出力するステップと、を具備し、
    前記複数の音声パラメータの系列のいずれかは、前記複数の基底ベクトルを線形結合する際に各基底ベクトルに適用される重みを表し、
    前記複数の音声パラメータの系列のいずれかは、前記基底モデルを用いて抽出された複数のスペクトル特徴量に対し各スペクトル特徴量間の相関を平均的に減少させるように変換を施したのちのスペクトル特徴量により学習した統計モデルから生成される、音声合成方法。
  13. テキストデータを解析することにより言語的な情報を表す言語情報データを出力するステップと、
    音声に含まれる音響情報を統計的にモデル化した複数の統計モデルを保持するステップと、
    前記言語情報データに基づいて前記複数の統計モデルからいずれかの統計モデルを選択するステップと、
    選択された統計モデルを用いて複数の音声パラメータの系列を生成するステップと、
    それぞれが制限された帯域ごとの音声の情報を表現する複数の基底ベクトルを含む基底モデルを保持するステップと、
    前記複数の音声パラメータの系列と前記基底モデルとをフィルタ処理することにより合成音声を出力するステップと、を具備し、
    前記複数の音声パラメータの系列のいずれかは、前記複数の基底ベクトルを線形結合する際に各基底ベクトルに適用される重みを表し、
    前記複数の音声パラメータの系列のいずれかは、前記基底モデルを用いて抽出された、音声信号に含まれる周波数帯域ごとの極座標表現の複数の位相特徴量を直交座標表現の位相特徴量に変換したのちの位相特徴量により学習した統計モデルから生成される、音声合成方法。
  14. コンピュータを、
    テキストデータを解析することにより言語的な情報を表す言語情報データを出力する言語解析部、
    音声に含まれる音響情報を統計的にモデル化した複数の統計モデルを保持する統計モデル保持部、
    前記言語情報データに基づいて前記複数の統計モデルからいずれかの統計モデルを選択するモデル選択部、
    前記モデル選択部において選択された統計モデルを用いて複数の音声パラメータの系列を生成するパラメータ生成部、
    それぞれが制限された帯域ごとの音声の情報を表現する複数の基底ベクトルを含む基底モデルを保持する基底モデル保持部、
    前記複数の音声パラメータの系列と前記基底モデルとをフィルタ処理することにより合成音声を出力するフィルタ処理部、として機能させるためのプログラムであって、
    前記複数の音声パラメータの系列のいずれかは、前記複数の基底ベクトルを線形結合する際に各基底ベクトルに適用される重みを表し、
    前記複数の音声パラメータの系列のいずれかは、前記基底モデルを用いて抽出された複数のスペクトル特徴量に対し各スペクトル特徴量間の相関を平均的に減少させるように変換を施したのちのスペクトル特徴量により学習した統計モデルから生成される、プログラム。
  15. コンピュータを、
    テキストデータを解析することにより言語的な情報を表す言語情報データを出力する言語解析部、
    音声に含まれる音響情報を統計的にモデル化した複数の統計モデルを保持する統計モデル保持部、
    前記言語情報データに基づいて前記複数の統計モデルからいずれかの統計モデルを選択するモデル選択部、
    前記モデル選択部において選択された統計モデルを用いて複数の音声パラメータの系列を生成するパラメータ生成部、
    それぞれが制限された帯域ごとの音声の情報を表現する複数の基底ベクトルを含む基底モデルを保持する基底モデル保持部、
    前記複数の音声パラメータの系列と前記基底モデルとをフィルタ処理することにより合成音声を出力するフィルタ処理部、として機能させるためのプログラムであって、
    前記複数の音声パラメータの系列のいずれかは、前記複数の基底ベクトルを線形結合する際に各基底ベクトルに適用される重みを表し、
    前記複数の音声パラメータの系列のいずれかは、前記基底モデルを用いて抽出された、音声信号に含まれる周波数帯域ごとの極座標表現の複数の位相特徴量を直交座標表現の位相特徴量に変換したのちの位相特徴量により学習した統計モデルから生成される、プログラム。
  16. 音声データに基づく言語情報データと、前記音声データに基づき前記基底モデルを用いて抽出された音響特徴量とを用い、請求項1乃至11のいずれかに記載の音声合成装置に適用される統計モデルの学習を行う学習装置。
JP2012075967A 2012-03-29 2012-03-29 音声合成装置、音声合成方法、音声合成プログラムならびに学習装置 Expired - Fee Related JP5631915B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2012075967A JP5631915B2 (ja) 2012-03-29 2012-03-29 音声合成装置、音声合成方法、音声合成プログラムならびに学習装置
US13/727,011 US9110887B2 (en) 2012-03-29 2012-12-26 Speech synthesis apparatus, speech synthesis method, speech synthesis program product, and learning apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012075967A JP5631915B2 (ja) 2012-03-29 2012-03-29 音声合成装置、音声合成方法、音声合成プログラムならびに学習装置

Publications (2)

Publication Number Publication Date
JP2013205697A JP2013205697A (ja) 2013-10-07
JP5631915B2 true JP5631915B2 (ja) 2014-11-26

Family

ID=49236201

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012075967A Expired - Fee Related JP5631915B2 (ja) 2012-03-29 2012-03-29 音声合成装置、音声合成方法、音声合成プログラムならびに学習装置

Country Status (2)

Country Link
US (1) US9110887B2 (ja)
JP (1) JP5631915B2 (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110017894A (zh) * 2019-05-14 2019-07-16 广东石油化工学院 变压器运行状态振声检测中随机噪声的滤除方法和装置
CN110017892A (zh) * 2019-05-10 2019-07-16 广东石油化工学院 一种变压器的异常状态振声的检测方法和装置
CN110031089A (zh) * 2019-05-15 2019-07-19 广东石油化工学院 一种变压器运行状态振声检测信号的滤波方法和装置
CN110081968A (zh) * 2019-05-31 2019-08-02 广东石油化工学院 一种变压器振动信号的模拟方法和装置
CN110514295A (zh) * 2019-08-31 2019-11-29 广东石油化工学院 一种利用svd分解的变压器运行状态振声检测信号滤波方法和系统
CN110657881A (zh) * 2019-09-14 2020-01-07 广东石油化工学院 一种利用稀疏反演的变压器振声信号滤波方法和系统
CN110702215A (zh) * 2019-10-19 2020-01-17 广东石油化工学院 一种利用回归树的变压器运行状态振声检测方法和系统

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
BR112016016310B1 (pt) * 2014-01-14 2022-06-07 Interactive Intelligence Group, Inc Sistema para sintetizar discurso para um texto provido e método para gerar parâmetros
US9865247B2 (en) * 2014-07-03 2018-01-09 Google Inc. Devices and methods for use of phase information in speech synthesis systems
WO2016042659A1 (ja) * 2014-09-19 2016-03-24 株式会社東芝 音声合成装置、音声合成方法およびプログラム
WO2017046904A1 (ja) 2015-09-16 2017-03-23 株式会社東芝 音声処理装置、音声処理方法及び音声処理プログラム
WO2017046887A1 (ja) 2015-09-16 2017-03-23 株式会社東芝 音声合成装置、音声合成方法、音声合成プログラム、音声合成モデル学習装置、音声合成モデル学習方法及び音声合成モデル学習プログラム
CN106297823A (zh) * 2016-08-22 2017-01-04 东南大学 一种基于环境噪声标准化变换的语音情感特征选择方法
JP6805037B2 (ja) * 2017-03-22 2020-12-23 株式会社東芝 話者検索装置、話者検索方法、および話者検索プログラム
CN107607302B (zh) * 2017-08-31 2018-07-17 国网江苏省电力公司电力科学研究院 基于多维缩放统计分析的高压断路器机械故障诊断方法
CN108182936B (zh) * 2018-03-14 2019-05-03 百度在线网络技术(北京)有限公司 语音信号生成方法和装置
JP7088796B2 (ja) * 2018-09-19 2022-06-21 日本放送協会 音声合成に用いる統計モデルを学習する学習装置及びプログラム
WO2020158891A1 (ja) * 2019-02-01 2020-08-06 ヤマハ株式会社 音信号合成方法およびニューラルネットワークの訓練方法
CN113066472A (zh) * 2019-12-13 2021-07-02 科大讯飞股份有限公司 合成语音处理方法及相关装置
CN111785303B (zh) * 2020-06-30 2024-04-16 合肥讯飞数码科技有限公司 模型训练方法、模仿音检测方法、装置、设备及存储介质

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002268699A (ja) * 2001-03-09 2002-09-20 Sony Corp 音声合成装置及び音声合成方法、並びにプログラムおよび記録媒体
JP3732793B2 (ja) * 2001-03-26 2006-01-11 株式会社東芝 音声合成方法、音声合成装置及び記録媒体
US20030191645A1 (en) * 2002-04-05 2003-10-09 Guojun Zhou Statistical pronunciation model for text to speech
JP3973492B2 (ja) * 2002-06-04 2007-09-12 日本電信電話株式会社 音声合成方法及びそれらの装置、並びにプログラム及びそのプログラムを記録した記録媒体
US20060229877A1 (en) * 2005-04-06 2006-10-12 Jilei Tian Memory usage in a text-to-speech system
JP4455610B2 (ja) * 2007-03-28 2010-04-21 株式会社東芝 韻律パタン生成装置、音声合成装置、プログラムおよび韻律パタン生成方法
US8244534B2 (en) * 2007-08-20 2012-08-14 Microsoft Corporation HMM-based bilingual (Mandarin-English) TTS techniques
JP5159279B2 (ja) * 2007-12-03 2013-03-06 株式会社東芝 音声処理装置及びそれを用いた音声合成装置。
JP5325130B2 (ja) * 2010-01-25 2013-10-23 日本電信電話株式会社 Lpc分析装置、lpc分析方法、音声分析合成装置、音声分析合成方法及びプログラム
JP5085700B2 (ja) 2010-08-30 2012-11-28 株式会社東芝 音声合成装置、音声合成方法およびプログラム
JP5660437B2 (ja) * 2010-09-06 2015-01-28 独立行政法人情報通信研究機構 無声フィルタ学習装置、音声合成装置、無声フィルタ学習方法、およびプログラム

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110017892A (zh) * 2019-05-10 2019-07-16 广东石油化工学院 一种变压器的异常状态振声的检测方法和装置
CN110017892B (zh) * 2019-05-10 2021-06-11 广东石油化工学院 一种变压器的异常状态振声的检测方法和装置
CN110017894A (zh) * 2019-05-14 2019-07-16 广东石油化工学院 变压器运行状态振声检测中随机噪声的滤除方法和装置
CN110017894B (zh) * 2019-05-14 2021-06-18 广东石油化工学院 变压器运行状态振声检测中随机噪声的滤除方法和装置
CN110031089A (zh) * 2019-05-15 2019-07-19 广东石油化工学院 一种变压器运行状态振声检测信号的滤波方法和装置
CN110031089B (zh) * 2019-05-15 2021-06-11 广东石油化工学院 一种变压器运行状态振声检测信号的滤波方法和装置
CN110081968A (zh) * 2019-05-31 2019-08-02 广东石油化工学院 一种变压器振动信号的模拟方法和装置
CN110081968B (zh) * 2019-05-31 2021-06-11 广东石油化工学院 一种变压器振动信号的模拟方法和装置
CN110514295B (zh) * 2019-08-31 2021-04-06 广东石油化工学院 一种利用svd分解的变压器运行状态振声检测信号滤波方法和系统
CN110514295A (zh) * 2019-08-31 2019-11-29 广东石油化工学院 一种利用svd分解的变压器运行状态振声检测信号滤波方法和系统
CN110657881B (zh) * 2019-09-14 2021-04-06 广东石油化工学院 一种利用稀疏反演的变压器振声信号滤波方法和系统
CN110657881A (zh) * 2019-09-14 2020-01-07 广东石油化工学院 一种利用稀疏反演的变压器振声信号滤波方法和系统
CN110702215B (zh) * 2019-10-19 2021-04-06 广东石油化工学院 一种利用回归树的变压器运行状态振声检测方法和系统
CN110702215A (zh) * 2019-10-19 2020-01-17 广东石油化工学院 一种利用回归树的变压器运行状态振声检测方法和系统

Also Published As

Publication number Publication date
JP2013205697A (ja) 2013-10-07
US20130262087A1 (en) 2013-10-03
US9110887B2 (en) 2015-08-18

Similar Documents

Publication Publication Date Title
JP5631915B2 (ja) 音声合成装置、音声合成方法、音声合成プログラムならびに学習装置
US11170756B2 (en) Speech processing device, speech processing method, and computer program product
Jemine Real-time voice cloning
JP6392012B2 (ja) 音声合成辞書作成装置、音声合成装置、音声合成辞書作成方法及び音声合成辞書作成プログラム
JPH04313034A (ja) 合成音声生成方法及びテキスト音声合成装置
EP4266306A1 (en) A speech processing system and a method of processing a speech signal
JP5807921B2 (ja) 定量的f0パターン生成装置及び方法、f0パターン生成のためのモデル学習装置、並びにコンピュータプログラム
KR20180078252A (ko) 성문 펄스 모델 기반 매개 변수식 음성 합성 시스템의 여기 신호 형성 방법
JP6271748B2 (ja) 音声処理装置、音声処理方法及びプログラム
US10446133B2 (en) Multi-stream spectral representation for statistical parametric speech synthesis
JP5726822B2 (ja) 音声合成装置、方法及びプログラム
JP6542823B2 (ja) 音響モデル学習装置、音声合成装置、それらの方法、及びプログラム
Wen et al. Pitch-scaled spectrum based excitation model for HMM-based speech synthesis
JP6840124B2 (ja) 言語処理装置、言語処理プログラムおよび言語処理方法
JP7357518B2 (ja) 音声合成装置及びプログラム
JP6902759B2 (ja) 音響モデル学習装置、音声合成装置、方法およびプログラム
Hsu et al. Dictionary update for NMF-based voice conversion using an encoder-decoder network
JP6137708B2 (ja) 定量的f0パターン生成装置、f0パターン生成のためのモデル学習装置、並びにコンピュータプログラム
US20120323569A1 (en) Speech processing apparatus, a speech processing method, and a filter produced by the method
Yeh et al. A consistency analysis on an acoustic module for Mandarin text-to-speech
JP7079455B1 (ja) 音響モデル学習装置、方法およびプログラム、並びに、音声合成装置、方法およびプログラム
Kaur et al. Formant Text to Speech Synthesis Using Artificial Neural Networks
JP6479637B2 (ja) 文章セット生成装置、文章セット生成方法、プログラム
Sulír et al. The influence of adaptation database size on the quality of HMM-based synthetic voice based on the large average voice model
Barakat et al. The effect of speech features and HMM parameters on the quality of HMM based Arabic synthesis system

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20131205

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20131212

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20131219

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20131226

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20140109

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140325

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140528

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140617

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140818

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140909

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20141008

LAPS Cancellation because of no payment of annual fees