JP4802135B2 - 話者認証登録及び確認方法並びに装置 - Google Patents

話者認証登録及び確認方法並びに装置 Download PDF

Info

Publication number
JP4802135B2
JP4802135B2 JP2007099947A JP2007099947A JP4802135B2 JP 4802135 B2 JP4802135 B2 JP 4802135B2 JP 2007099947 A JP2007099947 A JP 2007099947A JP 2007099947 A JP2007099947 A JP 2007099947A JP 4802135 B2 JP4802135 B2 JP 4802135B2
Authority
JP
Japan
Prior art keywords
utterance
speaker
registration
registered
acoustic feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2007099947A
Other languages
English (en)
Other versions
JP2007279743A (ja
JP2007279743A5 (ja
Inventor
ジアン・ルアン
ペイ・ディン
レイ・ヘ
ジー・ハオ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Publication of JP2007279743A publication Critical patent/JP2007279743A/ja
Publication of JP2007279743A5 publication Critical patent/JP2007279743A5/ja
Application granted granted Critical
Publication of JP4802135B2 publication Critical patent/JP4802135B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/04Training, enrolment or model building

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Description

本発明は、情報処理技術に関し、詳細には、話者認証に関する。
各話者が発話するときの発音特徴を使って、様々な話者を識別することによって、話者認証を行うことができる。K. Yu, J. Mason, J. Oglesbyによる論文“Speaker recognition using hidden Markov models, dynamic time warping and vector quantization” (Vision, Image and Signal Processing, TEE Proceedings, Vol. 142, Oct. 1995, pp. 313-18)には、HMM(隠れマルコフモデル)、DTW(動的時間伸縮)、VQ(ベクトル量子化)という、3つの一般的な種類の話者識別エンジン技術が紹介されている。
普通、話者認証のプロセスは、登録と確認という2つの段階を含む。登録の段階では、話者の話者テンプレートが、同じ話者(ユーザ)によって発話されたパスワードを含む発声に基づいて生成される。確認の段階では、話者テンプレートに基づいて、試験発声が、同じ話者によって発話された同じパスワードを有する発声であるかどうかが判定される。
登録の段階では、一般に、雑音のない音声データによる訓練を通じて、話者テンプレートが取得され、確認の段階では、実際に入力される音声は、雑音を有する。よって、雑音のある入力データと雑音のないテンプレートの間で整合(マッチング)を行えば、明らかに、認証精度の低下がもたらされることになる。
実質的には、試験発声と登録テンプレートの間の整合は、試験発声の音響的特徴を、登録テンプレートの音響的特徴と比較するものである。したがって、登録の段階においてであれ、確認の段階においてであれ、話者認証のために、発声から音響的特徴を選択し、抽出することは、かなり重要である。
発声からの音響的特徴の抽出における最も重要な作業は、発声信号から話者を特徴付けることのできる基本特徴を抽出することである。発声の抽出される音響的特徴は、異なる話者を有効に区別することができると同時に、同じ話者からの複数の発声間の変化について相対的安定性を保つことができる必要がある。by J. W. Piconeによる文献“Signal Modeling Techniques in Speech Recognition” (Proceedings of the IEEE, 1993, 81(9): 1215-1247)には、音声および話者認識で広く使用されるMFCC(メル周波数ケプストラム係数)という発声特徴が紹介されている。MFCCは、人間の耳の聴覚特性を考慮に入れた、人間の聴覚系に関する研究結果の増進によって導き出された音響的特徴であり、スペクトルを、メル周波数尺度に基づく非線形スペクトルに変換し、次いでこれがケプストラム領域に変換され、これによって、人間の聴覚特性が適切にシミュレートされる。
MFCCの抽出プロセスは以下の通りである。まず、発声が、時間領域から周波数領域に高速フーリエ変換され、次いで、これの対数エネルギースペクトルの畳み込みが、メル尺度と共に三角フィルタバンクを使用して取得され、最後に、個々のフィルタの出力によって形成されるエネルギーベクトルが離散コサイン変換され、これの最初のN個の係数が取得される。
しかしながら、MFCCを使用する際の短所は、話者に依存する適応フィルタバンクではなく、固定式フィルタバンクが使用されることである。確認の段階では、試験発声と話者テンプレートの間の歪みの大きさが、しばしば、ユークリッド距離、マハラノビスの距離などのような、対称距離関数として想定される。固定式フィルタバンクも対称距離も、個々の信号またはテンプレートの固有の詳細なスペクトル構造を無視する。これは、特に、テキスト依存話者確認のような2分決定問題では、先験情報を無駄にするものである。
しかしながら、MFCCを使用する際の短所は、話者に依存する適応フィルタバンクではなく、固定式フィルタバンクが使用されることである。確認の段階では、試験発声と話者テンプレートの間の歪みの大きさが、しばしば、ユークリッド距離、マハラノビスの距離などのような、対称距離関数として想定される。固定式フィルタバンクも対称距離も、個々の信号またはテンプレートの固有の詳細なスペクトル構造を無視する。これは、特に、テキスト依存話者確認のような2分決定問題では、先験情報を無駄にするものである。
前述の従来技術における問題を解決するために、本発明は、話者認証の登録の方法および装置、話者認証の確認の方法および装置、並びに話者認証のシステムを提供する。
本発明の一態様によれば、話者認証の登録の方法であって、話者の登録発声から音響的特徴ベクトルシーケンスを抽出することと、音響的特徴ベクトルシーケンスを使って話者テンプレートを生成することとを備え、音響的特徴ベクトルシーケンスを抽出する上記ステップが、登録発声に基づいて、登録発声のスペクトルにおけるフォルマントの位置とエネルギーをフィルタリングする、話者の登録発声のためのフィルタバンクを生成することと、生成されたフィルタバンクによって登録発声のスペクトルをフィルタリングすることと、フィルタリングされた登録発声から音響的特徴ベクトルシーケンスを生成することとを備える話者認証登録方法が提供される。
本発明の別の態様によれば、話者認証の確認の方法であって、入力発声から音響的特徴ベクトルシーケンスを抽出することと、上記の話者認証の登録の方法を使って生成される話者テンプレートと抽出された音響的特徴ベクトルシーケンスに基づいて、入力発声が、話者によって発話された登録済みのパスワードの発声であるかどうか判定することとを備え、入力発声から音響的特徴ベクトルシーケンスを抽出する上記ステップは、登録時に話者の登録発声のために生成されるフィルタバンクを使って入力発声のスペクトルをフィルタリングすることと、上記フィルタリングされた入力発声から音響的特徴ベクトルシーケンスを生成することとを備える話者認証確認方法が提供される。
本発明の別の態様によれば、話者認証の登録の装置であって、話者によって発話されるパスワードを含む登録発声を入力するように構成された発声入力ユニットと、上記登録発声から音響的特徴ベクトルシーケンスを抽出するように構成された音響的特徴抽出器と、音響的特徴ベクトルシーケンスを使って話者テンプレートを生成するように構成されたテンプレート生成器とを備え、音響的特徴抽出器が、登録発声に基づいて話者の登録発声のためのフィルタバンクを生成するように構成されたフィルタバンク生成器と、生成される登録発声のためのフィルタバンクを用いて、登録発声のスペクトルをフィルタリングするように構成されたフィルタリングユニットとを備える話者認証登録装置が提供される。
本発明の別の態様によれば、話者認証の確認の装置であって、発声を入力するように構成された発声入力ユニットと、入力発声から音響的特徴ベクトルシーケンスを抽出するように構成された音響的特徴抽出器と、前述の話者認証の登録の方法を使って生成される登録済みの話者テンプレートを、抽出される音響的特徴ベクトルシーケンスと比較することによって、入力発声が、話者によって発話された登録済みパスワードの発声であるかどうか判定するように構成された判定ユニットとを備え、音響的特徴抽出器が、登録時に話者の登録発声のために生成されるフィルタバンクを使って入力発声のスペクトルをフィルタリングするように構成されたフィルタリングユニットを備える話者認証確認装置が提供される。
本発明の別の態様によれば、話者認証のシステムであって、前述の話者認証登録装置及び
前述の話者認証確認装置とを備えるシステムが提供される。
次に、図面を参照して、本発明の好ましい実施形態ごとの詳細な説明を行う。
図1は、本発明の一実施形態による話者認証の登録の方法を示すフローチャートである。図1に示すように、まずステップ101で、話者によって発話されたパスワードを含む発声が入力される。ここで、パスワードは、登録の段階でユーザによって設定される、確認のための特定の句または発音シーケンスである。
ステップ105で、話者によって発話された上記登録発声が前処理される。
このステップでは、登録発声が、従来方式で前処理され、例えば、まず、登録発声が、アナログ/ディジタル変換され、次いで、フレーム化され、雑音のある登録発声信号として、フィルタリングされて、雑音のない信号になる。この後、登録発声は、事前重み付け技術を使って低周波数干渉が除去され、フィルタリングされた発声データから、これの短期エネルギーと、短期ゼロ交差率が算出され、発声データの短期エネルギーと短期ゼロ交差率を検出することによって、無音部、白色雑音、および無声音が除去され、有効な有声音が残る。発声信号の前処理については、by J. W. Piconeによる文献“Signal Modeling Techniques in Speech Recognition” (Proceedings of the IEEE, 1993, 81(9): 12 15-1247)を参照すると、発声信号の前処理の手順が詳細に記載されている。
ステップ110で、前処理された登録発声の各フレームが、線形予測符号化解析されて、フレームの線形予測符号化係数ベクトルが取得される。
また、線形予測符号化解析は、線形予測符号化とも呼ばれ、LPCと省略される。より厳密には、線形予測符号化は、最適な線形の1ステップ先を読む純粋予測を意味し、低情報速度を有する少数の時間変化パラメータによって発声信号の波形を表し、発声パラメータ(基本音周波数、フォルマント、パワースペクトルなど)を正確に推定することができる。
このステップでは、登録発声のスペクトルピークがLPC解析を用いて推定され、これによって、登録発声の発声パラメータ(本実施形態では主に、フォルマント)が推定される。特に、このステップでは、登録発声中の各フレーム(一般に、発声信号のサンプリング周波数は、8kHzであり、典型的なフレーム長は10〜30ミリ秒である)が、LPC解析されて、フレームの発声パラメータを特徴付けるLPC係数ベクトルが取得される。
当業者には周知のように、発声の線形予測符号化解析は、一般に、以下を含む。すなわち、主要発声信号の各サンプリング値に関して、これが、いくつかの過去のサンプリング値の重み和(線形結合)によって表される。個々の重み付け係数の決定原理は、予測される最小誤りの二乗平均値を求める(すなわち、いわゆる最小二乗平均規則に従う)ものであり、予測される誤りは、実際のサンプリング値と予測値の差である。
線形予測符号化解析に関しては、例えば、by Fikret Gurgen, Shigeki Sagayama, Sadaoki Furuiによる文献“A Study of Line Spectrum Pair Frequency Representation for Speech Recognition” (IEICE Trans. Fundamentals, Vol. E75-A, No. 1, Jan. 1992, 98-102)を参照されたい。
次に、ステップ115で、上記登録発声のためにフィルタバンクが生成される。本実施形態では、上記で取得される登録発声中の各フレームの線形予測符号化係数ベクトルが、LSP(線スペクトル対)解析されてフレームの線スペクトル対が取得され、かかる線スペクトル対が、登録発声のためのフィルタバンクとしての線スペクトル対グループへと形成される。
LSPは、発声データのLPCスペクトルの代替表現とみなすこともできる。LSP係数は、以下のように順方向と逆方向の予測多項式を組み合わせることによって、LPC予測係数から取得できる。
P(z)=A(z)+B(z)、Q(z)=A(z)−B(z)
但し、結果多項式P(z)と(z)は、z=+1におけるP(z)の乗根、およびz=−1におけるQ(z)の乗根と、それぞれ、対称と逆対称である。PとQの残りの乗根は、すべて、Z領域内の単位円上にあり、これらは、共役対として生じる。各乗根の角度、{oi,i=1,2,...,M}を線スペクトル対(LSP)という。
LSP解析に関しては、Fikret Gurgen, Shigeki Sagayama, Sadaoki Furuiによる文献“A Study of Line Spectrum Pair Frequency Representation for Speech Recognition” (IEICE Trans. Fundamentals, Vol. E75-A, No. 1, Jan. 1992, 98-102)もを参照されたい。
次いで、ステップ120で、上記前処理済み登録発声データのスペクトルが取得される。具体的には、このステップでは、ステップ105で前処理される登録発声データの各フレームが、高速フーリエ変換され、これによって、フレームのフレームスペクトルが取得される。各フレームのフレームスペクトルを組み合わせることにより、登録発声のスペクトルが形成される。
ステップ125で、登録発声の上記スペクトルがフィルタリングされる。具体的には、このステップでは、登録発声データ中の各フレームのフレームスペクトルが、ステップ115で取得されたフィルタバンク、すなわち、線スペクトル対グループによってフィルタリングされる。線スペクトル対グループは、登録発声の線形予測解析から導出され、この中の線スペクトル対は、登録発声データのスペクトルにおけるフォルマントの位置を正確に示し、線スペクトル対の間隔は、フォルマントの強度を示すため、このステップでは、フォルマントの「位置+強度」の形の音響的特徴ベクトルが、かかる線スペクトル対グループを使ってフレームのフレームスペクトルをフィルタリングすることによって、登録発声中の各フレームから抽出される。全フレームの音響的特徴ベクトルが、登録発声の音響的特徴ベクトルシーケンスを形成する。
次に、ステップ130で、登録発声のための話者テンプレートが生成される。具体的には、この実施形態では、話者テンプレートは、上記抽出音響的特徴ベクトルシーケンスと、発声のために設定された識別閾値を備える。ここで、話者テンプレート生成方法は、本発明では特に限定されておらず、音響的特徴に基づいて話者テンプレートを生成することのできる、当分野で既知の任意の方法が適用できる。
以上が、本実施形態による話者認証登録方法の詳細な説明である。本実施形態では、ステップ120がステップ110と115の後に行われるものとされているが、本実施形態は、かかる実施方法だけに限定されるものではないことに留意すべきである。そうではなく、実際の実現形態では、ステップ120は、ステップ110と115の前に行われてもよく、ステップ110、115と同時に行われてもよい。かかる実現形態でも、本発明の目的を達成することができる。
また、上記話者認証登録プロセスは1つの登録発声のためのものであることも留意すべきである。実際の実現形態では、登録発声の抽出される音響的特徴をより正確にするために、しばしば、登録発声の訓練が必要とされる。すなわち、特徴抽出は、話者の複数の登録発声のそれぞれについて行われ、複数の抽出音響的特徴グループ(話者テンプレート)がマージされる。テンプレートをマージするときには、例えば、DTWベースのテンプレートマージ方法が適用されてもよく、この詳細な内容については、by W. H. Abdulla, D. Chow, and G. Sinによる文献“Cross-words reference template for DTW-based speech recognition systems” (IEEE TENCON 2003, pp. 1576-1579)で参照することができる。
複数の登録発声の場合、本実施形態によれば、音響的特徴(話者テンプレート)のマージに加えて、確認プロセスで使用するために、特徴抽出プロセスの後で、個々の特徴抽出プロセスによって個々に生成されるフィルタバンクもまたマージされ、保存される必要がある。本実施形態では、フィルタバンクのマージには、以下のような方法を用いることができる。すなわち、複数のフィルタバンクの平均を取る、そこで特徴付けられるフォルマントの位置範囲が、複数のフィルタバンクにおいて最も狭いフィルタバンクを取る、そこで特徴付けられるフォルマントの位置範囲が複数のフィルタバンクにおいて最も広いフィルタバンクを取る、などである。
図2は、本発明の別の実施形態による話者認証登録方法を示すフローチャートである。以下では、本実施形態を図2との関連で説明し、前述の実施形態と同じ部分については適宜省略する。
本実施形態と図1に示す実施形態の違いは、登録発声の特徴抽出時にフィルタバンクを生成する方法、よって、生成されるフィルタバンクが異なる点にある。
図2に示すように、ステップ201と205は、図1に示す実施形態のステップと実質的に同じである。次に、ステップ210で、上記登録発声の各フレームが、フォルマント予測解析されて、フレームのフォルマント位置ベクトルが取得される。フォルマント予測解析に関しては、by L Welling, H Ney による文献“Formant Estimation for Speech Recognition” (IEEE Transaction on Speech and Audio Processing, vol.6, NO.1, JANUARY 1998)及びby A Watanabeによる文献“Formant Estimation Method Using Inverse-Filter Control” (IEEE Transactions on Speech and Audio Processing, VOL.9, NO.4, MAY 2001)を参照されたい。本実施形態では、上記で取得される登録発声中の各フレームのフォルマント位置ベクトルが、登録発声のためのフィルタバンクとしての、フォルマント位置ベクトルグループへと形成される。
ステップ215は、図1に示す実施形態の上記ステップ120と同じであり、登録発声データ中の各フレームが高速フーリエ変換され、これによって、フレームのフレームスペクトルが取得される。
ステップ220で、登録発声中の各フレームのフレームスペクトルがフィルタリングされる。具体的には、登録発声中の各フレームのフレームスペクトルが、ステップ210で取得されたフィルタバンク(本実施形態ではフォルマント位置ベクトルグループ)によってフィルタリングされ、これによって、フォルマントの位置を示すフレームの音響的特徴ベクトルが取得される。そして、全フレームの音響的特徴ベクトルが、登録発声の音響的特徴ベクトルシーケンスへと形成される。
以下のステップ225は、図1に示す実施形態のステップ130と同じであり、登録発声のための話者テンプレートが生成される。
同様に、本実施形態では、ステップ215は、ステップ210の後で行われるものとされているが、本発明は、かかる実施方法だけに限定されるものではない。そうではなく、実際の実現形態では、ステップ215は、ステップ210の前に行われてもよく、ステップ210と同時に行われてもよい。
本実施形態によれば、登録発声の訓練を行ってもよい。すなわち、話者の複数の登録発声について、個々に、特徴抽出が行われ、複数の抽出音響的特徴グループ(話者テンプレート)がマージされる。この場合、本実施形態によれば、個々の音響的特徴シーケンス(話者テンプレート)のマージに加えて、確認プロセスで使用するために、特徴抽出プロセスの後で、個々の特徴抽出プロセスによって個々に生成されるフィルタバンクもまたマージされ、保存される必要がある。
図3は、本発明の一実施形態による話者認証確認方法を示すフローチャートである。以下では、本実施形態を図3と併せて説明する。
ステップ301で、確認すべき発声が入力される。
ステップ305で、入力発声が前処理される。このステップでの入力発声の前処理の方法は、上記図1に示す実施形態における登録発声の前処理の方法と同じであり、したがって、これ以上繰り返して説明しない。
ステップ310で、上記前処理された入力発声のスペクトルが取得される。具体的には、このステップでは、上記前処理された入力発声中の各フレームが高速フーリエ変換され、これによって、入力発声データ中の各フレームのフレームスペクトルが取得される。全フレームのフレームスペクトルを組み合わせることによって、入力発声のスペクトルが形成される。
ステップ315で、入力発声の上記スペクトルがフィルタリングされる。具体的には、このステップでは、入力発声データ中の各フレームのフレームスペクトルが、登録段階において話者自身からの登録発声のために生成されるフィルタバンク(図1に示す登録方法の場合には線スペクトル対グループであり、図2に示す登録方法の場合にはフォルマント位置ベクトルグループである)を利用してフィルタリングされる。フィルタリングによって、フォルマントの「位置+強度」の形の音響的特徴ベクトルが、入力発声中の各フレームから抽出される。全フレームの音響的特徴ベクトルが、入力発声の音響的特徴ベクトルシーケンスを形成する。
次に、ステップ320で、音響的特徴ベクトルシーケンスと話者テンプレートのDTW整合が行われて、距離が計算される。従来方式の話者認証のプロセスとして、距離を計算するプロセスは、普通、以下の通りである。
(1)音響的特徴ベクトルシーケンス中のフレームと、話者テンプレート中のフレームの間の全ノード距離(局部距離)が計算される。図4に、本発明による音響的特徴で特徴付けられる例示的入力発声データと話者テンプレートの対応するフレーム対を示す。本発明による音響的特徴は、フォルマントの「位置+強度」の形であるため、本発明による話者テンプレートと入力発声データの間の距離の計算は、これらの間の「強度(エネルギー)」の差について行われる。具体的には、このステップでは、ある帯域における話者テンプレートと入力発声データのエネルギー差が計算され、全帯域における計算されたエネルギー差が合計されて、フレームノード対の間の距離が取得される。
(2)上記計算されたノード距離に基づいて、音響的特徴ベクトルシーケンスと話者テンプレートのDTW整合が行われて、最適整合パスが取得される。
(3)音響的特徴ベクトルシーケンスと話者テンプレートの間のグローバル距離(最適整合パス上の全ノード距離の合計)が計算される。
ここで、音響的特徴ベクトルシーケンスと話者テンプレートの間の整合距離の計算は、本発明では特に限定されておらず、このため、現在と将来における様々な手段および改善された手段が適用されてもよく、例えば、ローカル距離(局部距離)とグローバル距離を計算するときに、様々な線形、非線形変換が適用され、これによって、認証の信頼性がさらに高められてもよいことに留意すべきである。
次に、ステップ325で、グローバル距離が事前設定閾値より小さいかどうかが判定される。事前設定閾値より小さい場合、ステップ330で、同じ話者によって発話された同じパスワードであると確認され、確認に成功する。そうでない場合、ステップ335で、確認に成功しなかったとみなされる。
本実施形態では、入力発声と登録発声の歪みの大きさが、登録発声を入力発声データに変更することによって生じる非対称歪みを計算することによって取得される。これは、従来の距離関数よりも、実際に正確であり、理論上は信頼性が高い。本実施形態による非対称歪みの大きさは、ある種の「カルバック識別情報量(Kullback discrimination information)」または「有向発散(directed divergence)」に等しい。提示される歪みの大きさに基づく最終決定は、最小判別情報理論と整合する。最小判別情報理論に関しては、X. L. Zhu による“Fundamentals of Applied Information Theory” (Chapter 7, Tsinghua University Press, Beijing, 2000)を参照されたい。
一般に、登録発声データは雑音が低く、通常は、複数回の訓練を通じて取得され、したがって、これは、雑音のない発声とみなされる可能性がある。また、確認プロセスにおいて、入力発声は、現実的な状況下で入力され、したがって、雑音による汚染が不可避的に生じる。本実施形態によれば、確認段階で使用されるフィルタバンクは、入力発声ではなく、登録発声に基づいて生成され、したがって、フィルタリングプロセスは、入力発声データに組み込まれている雑音による影響を受けない。すなわち、本実施形態では、雑音のある入力発声データが、雑音のない登録データの先験的スペクトル構造によって分解される。よって、本実施形態は、雑音のない登録データの先験的情報をうまく利用し、環境雑音に対する耐性を提供する。
さらに、本実施形態では、フォルマントピーク位置およびフォルマント強度を分解することによってスペクトル構造の正確な記述を提供することができる。
同じ発明概念の下で、図5は、本発明の一実施形態による話者認証登録装置を示すブロック図である。以下では、本実施形態を図5と併せて説明する。図5に示すように、本実施形態による話者認証登録装置500は、話者によって発話されるパスワードを含む登録発声を入力するように構成された発声入力ユニット501と、発声入力ユニット501を介して入力される登録発声を従来方式で前処理するように構成された前処理ユニット502と、前処理ユニット502によって前処理される登録発声中の各フレームを高速フーリエ変換し、これによって、フレームのフレームスペクトルを取得し、全フレームのフレームスペクトルが組み合わさって登録発声のスペクトルが形成されるように構成されたスペクトル生成器503と、スペクトル生成器503によって取得されるスペクトルを特徴とする登録発声から音響的特徴ベクトルシーケンスを抽出するように構成された音響的特徴抽出器504と、音響的特徴抽出器504によって抽出される音響的特徴ベクトルシーケンスを使って話者テンプレートを生成するように構成されたテンプレート生成器505とを備える。
図5に示すように、上記音響的特徴抽出器504は、前処理ユニット502によって処理される登録発声中の各フレームをLPC解析して、フレームの線形予測係数ベクトルを取得するように構成されたLPC解析器5041と、LPC解析器5041によって生成されるフレームの線形予測係数ベクトルに基づいて、各フレームの線スペクトル対を計算し、全フレームの線スペクトル対が、登録発声のためのフィルタバンクとしての、線スペクトル対グループを形成するように構成されたLSP生成器5042と、LSP生成器5042によって生成される登録発声のためのフィルタバンク(すなわち、線スペクトル対グループ)を用いて、スペクトル生成器503によって取得される登録発声のスペクトルをフィルタリングし、これによって、登録発声の音響的特徴を取得するように構成されたフィルタリングユニット5043とをさらに備える。
本実施形態では、抽出される音響的特徴は、フォルマントの「位置+強度」の形を取る。登録発声を利用して話者テンプレートを生成するときには、登録発声の抽出される音響的特徴をより正確にするために、しばしば、登録発声の訓練が行われる。すなわち、話者の複数の登録発声について、個々に、特徴抽出が行われ、複数の抽出音響的特徴グループ(話者テンプレート)がマージされる。この場合、本実施形態によれば、個々の音響的特徴シーケンス(話者テンプレート)のマージに加えて、確認プロセスで使用するために、特徴抽出プロセスの後で、音響的特徴抽出器によって同じ話者からの異なる発声について個々に生成されるフィルタバンクも、マージされ、保存される必要がある。
本実施形態による話者認証の登録の装置500およびこれの様々な構成要素は、専用の回路またはチップを用いて構築することもでき、コンピュータ(プロセッサ)を介して対応するプログラムを実行することによって実施することもできる。また、本実施形態の話者認証の登録の装置500は、図1の実施形態の話者認証の登録の方法を実用化するものであってもよい。
図6は、本発明の別の実施形態による話者認証登録装置を示すブロック図である。本実施形態を図6と併せて説明する。上記の実施形態の部分と類似の部分の説明は、適宜省略する。
本実施形態による発声登録装置600の構造は、音響的特徴抽出器604が音響的特徴抽出器504と異なることを除けば、図5の装置と同じである。本実施形態の音響的特徴抽出器604は、前処理ユニット602によって処理される登録発声中の各フレームを、フォルマント推定解析を使って解析することによってフレームのフォルマント位置ベクトルを取得し、全フレームのフォルマント位置ベクトルが、登録発声のためのフィルタバンクとしての、フォルマント位置ベクトルグループを形成するように構成されたフォルマント推定解析器6041と、フォルマント推定解析器6041によって生成される登録発声のためのフィルタバンク(フォルマント位置ベクトルグループ)を用いて、スペクトル生成器603によって取得される登録発声のスペクトルをフィルタリングし、これによって、登録発声の音響的特徴を取得するように構成されたフィルタリングユニット6042とを備える。
本実施形態では、抽出される音響的特徴もまた、「位置+強度」の形を取る。本実施形態による話者認証登録装置600およびこれの様々な構成要素は、専用の回路またはチップを用いて構築することもでき、コンピュータ(プロセッサ)を介して対応するプログラムを実行することによって実施することもできる。また、本実施形態の話者認証の登録の装置600は、図2の実施形態の話者認証の登録の方法を実用化するものであってもよい。
同じ発明概念の下で、図7は、本発明の一実施形態による話者認証確認装置を示すブロック図である。本実施形態を、図7と併せて説明する。
図7に示すように、本実施形態による話者認証確認装置700は、発声を入力するように構成された発声入力ユニット701と、発声入力ユニット701を介して入力される入力発声を従来方式で前処理するように構成された前処理ユニット702と、前処理ユニット702によって処理される入力発声の各フレームを高速フーリエ変換し、これによって、フレームのフレームスペクトルを取得し、全フレームのフレームスペクトルが入力発声のスペクトルを形成するように構成されたスペクトル生成器703と、上記スペクトル生成器703によって取得されるスペクトルを特徴とする入力発声に基づいて音響的特徴ベクトルシーケンスを抽出するように構成された音響的特徴抽出器704と、上記図1または図2に示す話者認証の登録の方法を利用して生成される登録済みの話者テンプレート707を、音響的特徴抽出器704によって抽出される発声特徴ベクトルシーケンスと比較することによって、上記入力発声が、話者によって発話された登録済みパスワードの発声であるかどうか判定するように構成された判定ユニット705と備える。
図7に示すように、音響的特徴抽出器704は、登録時に話者自身の登録発声のために生成されるフィルタバンク706(線スペクトル対グループまたはフォルマント位置ベクトルグループ)を利用して音響的特徴を抽出することによって、上記入力発声のスペクトルをフィルタリングするように構成されたフィルタリングユニットをさらに備える。
入力発声の音響的特徴を、登録時に登録発声に基づいて生成される話者テンプレートと比較するときに、本実施形態の判定ユニット705は、入力発声と登録発声の間の歪みを計算し、歪みが事前設定された閾値より小さいかどうか判定する。事前設定された閾値より小さい場合、同じ話者によって発話された同じパスワードであると確認され、確認に成功する。そうでない場合、確認に成功しなかったとみなされる。
本実施形態による話者認証確認装置700およびこれの様々な構成要素は、専用の回路またはチップを用いて構築することもでき、コンピュータ(プロセッサ)を介して対応するプログラムを実行することによって実施することもできる。また、本実施形態の話者認証確認装置700は、図3と併せて説明している実施形態の話者認証確認方法を実用化するものとすることもできる。
本実施形態によれば、確認段階で使用されるフィルタバンクは、入力発声ではなく、登録発声に基づいて生成され、したがって、フィルタリングプロセスは、入力発声データに組み込まれている雑音の影響を受けない。すなわち、本実施形態では、雑音のある入力発声データが、雑音のない登録データの先験的スペクトル構造によって分解される。
同じ発明概念の下で、図8は、本発明の一実施形態による話者認証のシステムを示すブロック図である。以下では、本実施形態を、図8と併せて説明する。
図8に示すように、本実施形態による話者認証のシステムは、上記実施形態で言及している話者認証の登録の装置500とすることのできる登録の装置500と、上記実施形態で言及している話者認証の確認の装置700とすることのできる確認装置700とを備える。登録装置500によって生成される話者テンプレートとフィルタバンクは、ネットワーク、内部チャネル、ディスク他の記録媒体など、任意の通信手段によって確認装置700に移される。確認装置700は、フィルタバンクを用いて入力発声の音響的特徴を抽出し、入力発声の抽出音響的特徴に基づいて、話者テンプレートとの歪み測定を行い、これによって、入力発声と登録発声が、同じ話者によって発話された同じパスワードであるかどうか判定して、対応する認証を成し遂げる。
以上では、話者認証登録方法および装置、話者認証確認方法および装置、ならびに話者認証システムを、いくつかの例示的実施形態を用いて詳細に説明しているが、これらの実施形態は網羅的なものではない。当業者であれば、本発明の精神と範囲を超えずに、様々な変形および改変を行うことができよう。したがって、本発明は、これらの実施形態だけに限定されず、本発明の範囲は、もっぱら、添付の特許請求の範囲によって定義されるものである。
本発明の一実施形態による話者認証登録方法を示すフローチャートである。 本発明の別の実施形態による話者認証登録方法を示すフローチャートである。 本発明の一実施形態による話者認証確認方法を示すフローチャートである。 本発明の音響的特徴で特徴付けられる、例示的登録発声と入力発声との比較図である。 本発明の一実施形態による話者認証登録装置を示すフローチャートである。 本発明の別の実施形態による話者認証登録装置を示すブロック図である。 本発明の一実施形態による話者認証確認装置を示すブロック図である。 本発明の一実施形態による話者認証システムを示すブロック図である。

Claims (10)

  1. 話者認証の登録の方法であって、
    話者の登録発声から音響的特徴ベクトルシーケンスを抽出することと、
    前記音響的特徴ベクトルシーケンスを使って話者テンプレートを生成することと、
    を備え、
    音響的特徴ベクトルシーケンスを抽出する前記ステップは、
    前記登録発声に基づいて、前記登録発声のスペクトルにおけるフォルマントの位置とエネルギーをフィルタリングする、前記話者の前記登録発声のためのフィルタバンクを生成することと、
    前記生成されたフィルタバンクによって前記登録発声の前記スペクトルをフィルタリングすることと、
    前記フィルタリングされた登録発声から前記音響的特徴ベクトルシーケンスを生成することと、
    を備える話者認証登録方法。
  2. 前記登録発声のためのフィルタバンクを生成する前記ステップは、
    前記登録発声中の各フレームをLPC解析して、前記フレームのLPC係数ベクトルを取得することと、
    前記取得された各フレームのLPC係数ベクトルをLSP解析して、前記フレームの線スペクトル対(LSP)を取得することと、
    前記登録発声中の全フレームの前記LSPを、前記登録発声のための前記フィルタバンクとして組み合わせることと、
    を備える、請求項1に記載の話者認証登録方法。
  3. 前記登録発声のためのフィルタバンクを生成する前記ステップは、
    フォルマント推定法を使って前記登録発声中の各フレームを解析することによって、前記フレームのフォルマント位置ベクトルを取得することと、
    前記登録発声中の全フレームの前記フォルマント位置ベクトルを、前記フィルタバンクとして組み合わせることと、
    を備える、請求項1に記載の話者認証登録方法。
  4. 前記登録発声の前記スペクトルをフィルタリングする前記ステップは、
    前記登録発声中の各フレームを高速フーリエ変換して、前記フレームのフレームスペクトルを取得することと、
    前記フィルタバンクを用いて各フレームの前記フレームスペクトルをフィルタリングすることと、
    を備える、請求項1に記載の話者認証登録方法。
  5. 話者の登録発声から音響的特徴ベクトルシーケンスを抽出する前記ステップは、
    話者の複数の登録発声から複数の音響的特徴ベクトルシーケンスを抽出することを備え、
    話者テンプレートを生成する前記ステップは、
    抽出された前記複数の音響的特徴ベクトルシーケンスをマージして前記話者テンプレートを生成することを備える、請求項1に記載の話者認証登録方法。
  6. 前記各登録発声に関して、前記登録発声の前記スペクトルをフィルタリングするためにフィルタバンクが生成され、
    前記方法は、前記話者の前記複数の登録発声のために個々に生成された複数のフィルタバンクをマージすることをさらに備える、請求項に記載の話者認証登録方法。
  7. 話者認証の確認の方法であって、
    入力発声から音響的特徴ベクトルシーケンスを抽出することと、
    話者テンプレートと、前記抽出された音響的特徴ベクトルシーケンスに基づいて、前記入力発声が、話者によって発話された登録済みパスワードの発声であるかどうか判定することと、
    を備え、
    前記話者テンプレートは、請求項1から6のいずれか1項に記載の話者認証登録方法を使って生成され、
    入力発声から音響的特徴ベクトルシーケンスを抽出する前記ステップは、
    登録時に前記話者の登録発声のために生成されるフィルタバンクを使って前記入力発声のスペクトルをフィルタリングすることと、
    前記フィルタリングされた入力発声から前記音響的特徴ベクトルシーケンスを生成することと、
    を備える方法。
  8. 話者認証の登録の装置であって、
    話者によって発話されるパスワードを含む登録発声を入力するように構成された発声入力ユニットと、
    前記登録発声から音響的特徴ベクトルシーケンスを抽出するように構成された音響的特徴抽出器と、
    前記音響的特徴ベクトルシーケンスを使って話者テンプレートを生成するように構成されたテンプレート生成器と、
    を備え、
    前記音響的特徴抽出器は、
    前記登録発声の各フレームをLPC解析して、フレームの線形予測係数ベクトルを取得するように構成されたLPC解析器と、
    前記LPC解析器によって生成されるフレームの線形予測係数ベクトルに基づいて、各フレームの線スペクトル対を計算し、全フレームの線スペクトル対が、登録発声のためのフィルタバンクとしての、線スペクトル対グループを形成するように構成されたフィルタバンク生成器と、
    前記登録発声のための前記生成されるフィルタバンクを用いて、前記登録発声のスペクトルをフィルタリングするように構成されたフィルタリングユニットと、
    を備える、話者認証登録装置。
  9. 話者認証の確認の装置であって、
    発声を入力するように構成された発声入力ユニットと、
    前記入力発声から音響的特徴ベクトルシーケンスを抽出するように構成された音響的特徴抽出器と、
    請求項1から6のいずれか1項に記載の話者認証の登録の方法を使って生成される登録済みの話者テンプレートを、前記抽出される音響的特徴ベクトルシーケンスと比較することによって、前記入力発声が、話者によって発話された登録済みパスワードの発声であるかどうか判定するように構成された判定ユニットと、
    を備え、
    前記音響的特徴抽出器は、
    登録時に前記話者の登録発声のために生成されるフィルタバンクを使って前記入力発声のスペクトルをフィルタリングするように構成されたフィルタリングユニットを備える話者認証確認装置。
  10. 話者認証のシステムであって、
    請求項8項に記載の話者認証登録装置と、
    請求項9に記載の話者認証確認装置と、
    を備えるシステム。
JP2007099947A 2006-04-06 2007-04-06 話者認証登録及び確認方法並びに装置 Expired - Fee Related JP4802135B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN200610073144.5 2006-04-06
CNA2006100731445A CN101051464A (zh) 2006-04-06 2006-04-06 说话人认证的注册和验证方法及装置

Publications (3)

Publication Number Publication Date
JP2007279743A JP2007279743A (ja) 2007-10-25
JP2007279743A5 JP2007279743A5 (ja) 2009-07-02
JP4802135B2 true JP4802135B2 (ja) 2011-10-26

Family

ID=38576542

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007099947A Expired - Fee Related JP4802135B2 (ja) 2006-04-06 2007-04-06 話者認証登録及び確認方法並びに装置

Country Status (3)

Country Link
US (1) US7877254B2 (ja)
JP (1) JP4802135B2 (ja)
CN (1) CN101051464A (ja)

Families Citing this family (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1953052B (zh) * 2005-10-20 2010-09-08 株式会社东芝 训练时长预测模型、时长预测和语音合成的方法及装置
CN101051459A (zh) * 2006-04-06 2007-10-10 株式会社东芝 基频和停顿预测及语音合成的方法和装置
US20080243503A1 (en) * 2007-03-30 2008-10-02 Microsoft Corporation Minimum divergence based discriminative training for pattern recognition
CN101465123B (zh) * 2007-12-20 2011-07-06 株式会社东芝 说话人认证的验证方法和装置以及说话人认证系统
WO2010019831A1 (en) 2008-08-14 2010-02-18 21Ct, Inc. Hidden markov model for speech processing with training method
WO2010066269A1 (en) * 2008-12-10 2010-06-17 Agnitio, S.L. Method for verifying the identify of a speaker and related computer readable medium and computer
US8732350B2 (en) * 2008-12-19 2014-05-20 Nvidia Corporation Method and system for improving direct memory access offload
US9208108B2 (en) * 2008-12-19 2015-12-08 Nvidia Corporation Method and system for improved flash controller commands selection
US8694750B2 (en) * 2008-12-19 2014-04-08 Nvidia Corporation Method and system for data structure management
FR2940498B1 (fr) * 2008-12-23 2011-04-15 Thales Sa Procede et systeme pour authentifier un utilisateur et/ou une donnee cryptographique
US8683293B2 (en) * 2009-12-16 2014-03-25 Nvidia Corporation Method and system for fast two bit error correction
US20110161553A1 (en) * 2009-12-30 2011-06-30 Nvidia Corporation Memory device wear-leveling techniques
US9594675B2 (en) * 2009-12-31 2017-03-14 Nvidia Corporation Virtualization of chip enables
US20110320201A1 (en) * 2010-06-24 2011-12-29 Kaufman John D Sound verification system using templates
US9465728B2 (en) 2010-11-03 2016-10-11 Nvidia Corporation Memory controller adaptable to multiple memory devices
US10235509B2 (en) 2013-08-22 2019-03-19 Staton Techiya, Llc Methods and systems for a voice ID verification database and service in social networking and commercial business transactions
CN103594091B (zh) * 2013-11-15 2017-06-30 努比亚技术有限公司 一种移动终端及其语音信号处理方法
US9646613B2 (en) 2013-11-29 2017-05-09 Daon Holdings Limited Methods and systems for splitting a digital signal
CN104320255A (zh) * 2014-09-30 2015-01-28 百度在线网络技术(北京)有限公司 生成账户认证数据的方法、账户认证的方法以及装置
CN104990553A (zh) * 2014-12-23 2015-10-21 上海安悦四维信息技术有限公司 一种手持车机C-Pad智能导航系统及工作方法
CN105575385A (zh) * 2015-12-16 2016-05-11 中国建设银行股份有限公司 语音密码设置系统及方法、语音密码验证系统及方法
US10614813B2 (en) * 2016-11-04 2020-04-07 Intellisist, Inc. System and method for performing caller identity verification using multi-step voice analysis
JP7048619B2 (ja) * 2016-12-29 2022-04-05 サムスン エレクトロニクス カンパニー リミテッド 共振器を利用した話者認識方法及びその装置
CN107195028B (zh) * 2017-04-27 2018-07-06 深圳昌恩智能股份有限公司 一种高精度无线语音识别门禁系统
CN111345016A (zh) * 2017-09-13 2020-06-26 深圳传音通讯有限公司 一种智能终端的启动控制方法及启动控制系统
CN107945787A (zh) * 2017-11-21 2018-04-20 上海电机学院 一种基于虚拟仪器技术的声控登陆管理系统及方法
CN109872721A (zh) * 2017-12-05 2019-06-11 富士通株式会社 语音认证方法、信息处理设备以及存储介质
CN109003364A (zh) * 2018-07-04 2018-12-14 深圳市益鑫智能科技有限公司 一种基于语音识别的智能家居门禁系统
CN110322887B (zh) * 2019-04-28 2021-10-15 武汉大晟极科技有限公司 一种多类型音频信号能量特征提取方法
CN110838294B (zh) * 2019-11-11 2022-03-04 效生软件科技(上海)有限公司 一种语音验证方法、装置、计算机设备及存储介质
CN111128198B (zh) * 2019-12-25 2022-10-28 厦门快商通科技股份有限公司 一种声纹识别方法、装置、存储介质、服务器及系统

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4133976A (en) 1978-04-07 1979-01-09 Bell Telephone Laboratories, Incorporated Predictive speech signal coding with reduced noise effects
GB2140256A (en) 1983-04-08 1984-11-21 Brock Nannestad George A procedure and apparatus for corrected reproduction of acoustic recordings
JPS61278899A (ja) * 1985-06-05 1986-12-09 株式会社東芝 話者照合用フイルタ
EP0248593A1 (en) * 1986-06-06 1987-12-09 Speech Systems, Inc. Preprocessing system for speech recognition
JPS63106699A (ja) * 1986-10-23 1988-05-11 松下電器産業株式会社 ホルマント抽出装置
US5548647A (en) * 1987-04-03 1996-08-20 Texas Instruments Incorporated Fixed text speaker verification method and apparatus
JPH02232698A (ja) * 1989-03-06 1990-09-14 Sony Corp 音声認識装置
JPH0598859A (ja) * 1991-10-07 1993-04-20 Yuhshin Co Ltd 音声照合装置
JPH05134697A (ja) * 1991-11-14 1993-05-28 Oki Electric Ind Co Ltd 音声認識装置
US5522012A (en) * 1994-02-28 1996-05-28 Rutgers University Speaker identification and verification system
JP3550871B2 (ja) * 1996-04-26 2004-08-04 松下電工株式会社 音声認識方法及び装置
JPH1097274A (ja) * 1996-09-24 1998-04-14 Kokusai Denshin Denwa Co Ltd <Kdd> 話者認識方法及び装置
JP3402100B2 (ja) 1996-12-27 2003-04-28 カシオ計算機株式会社 音声制御ホスト装置
FR2762464B1 (fr) 1997-04-16 1999-06-25 France Telecom Procede et dispositif de codage d'un signal audiofrequence par analyse lpc "avant" et "arriere"
US5940791A (en) * 1997-05-09 1999-08-17 Washington University Method and apparatus for speech analysis and synthesis using lattice ladder notch filters
US6400310B1 (en) * 1998-10-22 2002-06-04 Washington University Method and apparatus for a tunable high-resolution spectral estimator
US6195632B1 (en) 1998-11-25 2001-02-27 Matsushita Electric Industrial Co., Ltd. Extracting formant-based source-filter data for coding and synthesis employing cost function and inverse filtering
US6978238B2 (en) 1999-07-12 2005-12-20 Charles Schwab & Co., Inc. Method and system for identifying a user by voice
US20030018471A1 (en) * 1999-10-26 2003-01-23 Yan Ming Cheng Mel-frequency domain based audible noise filter and method
KR20050049103A (ko) 2003-11-21 2005-05-25 삼성전자주식회사 포만트 대역을 이용한 다이얼로그 인핸싱 방법 및 장치
US7536304B2 (en) * 2005-05-27 2009-05-19 Porticus, Inc. Method and system for bio-metric voice print authentication
US7778831B2 (en) * 2006-02-21 2010-08-17 Sony Computer Entertainment Inc. Voice recognition with dynamic filter bank adjustment based on speaker categorization determined from runtime pitch

Also Published As

Publication number Publication date
US20070239451A1 (en) 2007-10-11
CN101051464A (zh) 2007-10-10
US7877254B2 (en) 2011-01-25
JP2007279743A (ja) 2007-10-25

Similar Documents

Publication Publication Date Title
JP4802135B2 (ja) 話者認証登録及び確認方法並びに装置
Togneri et al. An overview of speaker identification: Accuracy and robustness issues
Dhingra et al. Isolated speech recognition using MFCC and DTW
Kumar et al. Design of an automatic speaker recognition system using MFCC, vector quantization and LBG algorithm
Senthil Raja et al. Speaker recognition under stressed condition
Sapijaszko et al. An overview of recent window based feature extraction algorithms for speaker recognition
Maazouzi et al. MFCC and similarity measurements for speaker identification systems
Nijhawan et al. A new design approach for speaker recognition using MFCC and VAD
Omer Joint MFCC-and-vector quantization based text-independent speaker recognition system
CN113241059B (zh) 语音唤醒方法、装置、设备及存储介质
Bhukya et al. End point detection using speech-specific knowledge for text-dependent speaker verification
Wang et al. Robust Text-independent Speaker Identification in a Time-varying Noisy Environment.
Kumar et al. Effective preprocessing of speech and acoustic features extraction for spoken language identification
Nair et al. A reliable speaker verification system based on LPCC and DTW
Ouzounov Cepstral features and text-dependent speaker identification–A comparative study
Jagtap et al. Speaker verification using Gaussian mixture model
Lipeika Optimization of formant feature based speech recognition
Xiao et al. Inventory based speech enhancement for speaker dedicated speech communication systems
Krishnamoorthy et al. Application of combined temporal and spectral processing methods for speaker recognition under noisy, reverberant or multi-speaker environments
Mousa MareText independent speaker identification based on K-mean algorithm
Chaudhary Short-term spectral feature extraction and their fusion in text independent speaker recognition: A review
Upadhyay et al. Analysis of different classifier using feature extraction in speaker identification and verification under adverse acoustic condition for different scenario
Thakur et al. Speaker Authentication Using GMM-UBM
Sangwan Feature Extraction for Speaker Recognition: A Systematic Study
Sarangi et al. Gaussian Filter Based Data-Driven Cepstral Features for Robust Speaker Verification System

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090519

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090519

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110225

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110301

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110427

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110712

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110808

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140812

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140812

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees