JP2012504250A - 音声認識方法 - Google Patents
音声認識方法 Download PDFInfo
- Publication number
- JP2012504250A JP2012504250A JP2011513765A JP2011513765A JP2012504250A JP 2012504250 A JP2012504250 A JP 2012504250A JP 2011513765 A JP2011513765 A JP 2011513765A JP 2011513765 A JP2011513765 A JP 2011513765A JP 2012504250 A JP2012504250 A JP 2012504250A
- Authority
- JP
- Japan
- Prior art keywords
- model
- environment
- speech
- noise
- speech recognition
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 80
- 238000009826 distribution Methods 0.000 claims abstract description 23
- 230000003068 static effect Effects 0.000 claims description 13
- 239000000654 additive Substances 0.000 claims description 12
- 230000000996 additive effect Effects 0.000 claims description 12
- 239000011159 matrix material Substances 0.000 claims description 10
- 230000006870 function Effects 0.000 claims description 7
- 238000003909 pattern recognition Methods 0.000 claims description 6
- 238000012549 training Methods 0.000 claims description 6
- 238000013519 translation Methods 0.000 claims description 5
- 238000006243 chemical reaction Methods 0.000 claims description 2
- 239000013598 vector Substances 0.000 description 17
- 239000000203 mixture Substances 0.000 description 11
- 238000010586 diagram Methods 0.000 description 7
- 230000009466 transformation Effects 0.000 description 7
- 230000005236 sound signal Effects 0.000 description 6
- 238000012360 testing method Methods 0.000 description 6
- 238000000844 transformation Methods 0.000 description 6
- 238000004364 calculation method Methods 0.000 description 5
- 230000006872 improvement Effects 0.000 description 5
- 230000006978 adaptation Effects 0.000 description 4
- 238000012545 processing Methods 0.000 description 4
- 230000008569 process Effects 0.000 description 3
- 108090000461 Aurora Kinase A Proteins 0.000 description 2
- 102100032311 Aurora kinase A Human genes 0.000 description 2
- 238000002474 experimental method Methods 0.000 description 2
- 241000747049 Aceros Species 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000005315 distribution function Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 238000010183 spectrum analysis Methods 0.000 description 1
- 230000005477 standard model Effects 0.000 description 1
- 238000013179 statistical model Methods 0.000 description 1
- 238000013518 transcription Methods 0.000 description 1
- 230000035897 transcription Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/20—Speech recognition techniques specially adapted for robustness in adverse environments, e.g. in noise, of stress induced speech
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
- G10L15/065—Adaptation
Landscapes
- Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- Machine Translation (AREA)
Abstract
Description
第1の雑音環境において観測系列を備える音声入力を受信することと、
音響モデルを用いて観測系列から生じる単語系列の尤度を判定することとを具備する。音響モデルを用いて観測系列から生じる単語系列の尤度を判定することは、
第2の雑音環境において音声を認識するようにトレーニングされ、観測に関連している単語またはその一部の確率分布に関連する複数のモデルパラメータを持つ、観測系列を備える入力信号の音声認識を行うための音響モデルを準備することと、
第2の環境においてトレーニングされたモデルを第1の環境のモデルに適応させることとを具備する。
音声認識方法は、言語モデルを用いて所与の言語において生じる観測系列の尤度を判定することと、
音響モデル及び言語モデルによって判定された尤度を組み合わせ、音声入力信号から同定された単語系列を出力することとを更に具備する。
第2の環境においてトレーニングされたモデルを第1の環境のモデルに適応させることは、確率分布のグループについて導出された二次またはより高次のテーラー展開係数を用いることを具備する。同一の展開係数が、グループ全体で使用される。
観測系列を備える音声入力のための受信器と、
音響モデルを用いて観測系列から生じる単語系列の尤度を判定するように適合されたプロセッサとを具備する。このプロセッサは、
音声入力の第1の雑音環境と異なる第2の雑音環境において音声を認識するようにトレーニングされ、観測に関連している単語またはその一部の確率分布に関連する複数のモデルパラメータを持つ、入力信号の音声認識を行うための音響モデルを準備し、
第2の環境でトレーニングされたモデルを第1の環境のモデルに適応させるように、適合されている。
プロセッサは、言語モデルを用いて所与の言語において生じる観測系列の尤度を判定し、
音響モデル及び言語モデルによって判定された尤度を組み合わせるように、更に適合され、
装置は、音声入力信号から同定された単語系列を出力するために適合された出力を更に具備する。
第2の環境においてトレーニングされたモデルを第1の環境のモデルに適応させることは、確率分布のグループについて導出された二次またはより高次のテーラー展開係数を用いることを具備する。同一の展開係数が、グループ全体で使用される。
第2の雑音環境において音声を認識するようにトレーニングされ、観測に関連している単語またはその一部の確率分布に関連する複数のモデルパラメータを持つ、観測系列を備える入力信号に音声認識を行うためのモデルを準備することと、
第2の環境においてトレーニングされたモデルを第1の環境のモデルに適応させることとを具備する。
第2の環境においてトレーニングされたモデルを第1の環境のモデルに適応させることは、確率分布のグループについて導出された二次またはより高次のテーラー展開係数を用いることを具備する。同一の展開係数が、グループ全体で使用される。
第2の雑音環境においてパターンを認識するようにトレーニングされ、観測に関連しているパターンの成分の確率分布に関連する複数のモデルパラメータを持つ、観測系列を備える入力信号にパターン認識を行うためのモデルを準備することと、
第2の環境においてトレーニングされたモデルを第1の環境のモデルに適応させることとを具備する。
第2の環境においてトレーニングされたモデルを第1の環境のモデルに適応させることは、確率分布のグループについて導出された二次またはより高次のテーラー展開係数を用いることを具備する。同一の展開係数が、グループ全体で使用される。
従って、この方法は、低次の係数がより多くの回帰クラスについて計算され、かつ、高次の係数がより少ないクラスについて計算される状態で、異なる回帰クラスレベルがテーラー展開係数の異なる次数について使用されるということに適合可能である。
Claims (20)
- 第1の雑音環境において観測系列を備える音声入力を受信することと、
音響モデルを用いて前記観測系列から生じる単語系列の尤度を判定することと
を具備する音声認識方法において、
前記音響モデルを用いて前記観測系列から生じる単語系列の尤度を判定することは、
第2の雑音環境において音声を認識するようにトレーニングされ、観測に関連している単語またはその一部の確率分布に関連する複数のモデルパラメータを持つ、観測系列を備える入力信号に音声認識を行うための音響モデルを準備することと、
第2の環境においてトレーニングされたモデルを第1の環境のモデルに適応させることと
を具備し、
前記音声認識方法は、
言語モデルを用いて所与の言語において生じる観測系列の尤度を判定することと、
前記音響モデル及び前記言語モデルによって判定された尤度を組み合わせ、前記音声入力信号から同定された単語系列を出力することと
を更に具備し、
前記第2の環境においてトレーニングされたモデルを前記第1の環境のモデルに適応させることは、確率分布のグループについて導出された二次またはより高次のテーラー展開係数を用いることを具備し、
同一の展開係数が、前記グループ全体で使用される、
音声認識方法。 - 前記グループは、前記モデルの初期トレーニングの間の回帰によって形成される回帰クラスである、請求項1に従う音声認識方法。
- 前記グループは更に組み合わせられて集約グループを形成し、j次テーラー係数は前記グループについて計算及び使用され、j+1次テーラー係数は前記集約グループについて計算及び使用される、請求項1または2のいずれかに従う音声認識方法。
- 前記モデルパラメータは静的平均及び静的分散を備える、請求項1乃至3のいずれか1項に従う音声認識方法。
- 前記モデルパラメータは、平均及び分散のデルタ項及びデルタデルタ項も備え、二次またはより高次の項は前記デルタデルタ項について計算されない、請求項4に従う音声認識方法。
- 雑音パラメータは、加法性雑音についての成分及び畳み込み性雑音についての成分を備える、請求項1乃至5のいずれか1項に従う音声認識方法。
- 雑音パラメータの平均が前記テーラー展開係数を判定するために推定及び使用される、請求項1乃至7のいずれか1項に従う音声認識方法。
- 前記平均の初期推定は、音声が存在しない前記音声入力信号の一部から得られる、請求項8に従う音声認識方法。
- 確率関数がガウスである、請求項1乃至9のいずれか1項に従う音声認識システム。
- 前記音響モデルが隠れマルコフモデルである、請求項1乃至10のいずれか1項に従う音声認識システム。
- 前記第1の環境は雑音のある環境であり、前記第2の環境は雑音のない環境である、請求項1乃至11のいずれか1項に従う音声認識システム。
- 請求項1乃至12のいずれか1項に従って音声入力信号を認識することと、
認識音声を異なる言語に翻訳することと、
前記認識音声を前記異なる言語で出力することと
を具備する、音声翻訳方法。 - 前記認識音声を出力することは、テキスト−音声変換法を使用することを具備する、請求項13に従う音声翻訳方法。
- 第1及び第2の雑音環境の間で音声認識モデルを適応させる方法において、前記方法は、
第2の雑音環境において音声を認識するようにトレーニングされ、観測に関連している単語またはその一部の確率分布に関連する複数のモデルパラメータを持つ、観測系列を備える入力信号に音声認識を行うためのモデルを準備することと、
第2の環境においてトレーニングされたモデルを第1の環境のモデルに適応させることと
を具備し、
前記第2の環境においてトレーニングされたモデルを前記第1の環境のモデルに適応させることは、確率分布のグループについて導出された二次またはより高次のテーラー展開係数を用いることを具備し、
同一の展開係数が、前記グループ全体で使用される、
方法。 - 第1及び第2の雑音環境の間でパターン認識モデルを適応させる方法において、前記方法は、
第2の雑音環境においてパターンを認識するようにトレーニングされ、観測に関連しているパターンの成分の確率分布に関連する複数のモデルパラメータを持つ、観測系列を備える入力信号にパターン認識を行うためのモデルを準備することと、
第2の環境においてトレーニングされたモデルを第1の環境のモデルに適応させることと
を具備し、
前記第2の環境においてトレーニングされたモデルを前記第1の環境のモデルに適応させることは、確率分布のグループについて導出された二次またはより高次のテーラー展開係数を用いることを具備し、
同一の展開係数が、前記グループ全体で使用される、
方法。 - 請求項1乃至16のいずれか1項の方法をコンピュータに行わせるように構成されたプログラムを実行するコンピュータ。
- 観測系列を備える音声入力のための受信器と、
音響モデルを用いて前記観測系列から生じる単語系列の尤度を判定するように適合されたプロセッサと
を具備する音声認識装置において、
前記プロセッサは、
前記音声入力の第1の雑音環境と異なる第2の雑音環境において音声を認識するためにトレーニングされ、観測に関連している単語またはその一部の確率分布に関連する複数のモデルパラメータを持つ、入力信号に音声認識を行うための音響モデルを準備し、
第2の環境においてトレーニングされたモデルを第1の環境のモデルに適応させる
ように適合され、
前記プロセッサは、
言語モデルを用いて所与の言語において生じる観測系列の尤度を判定し、
前記音響モデル及び前記言語モデルによって判定された尤度を組み合わせる
ように更に適合され、
前記装置は、音声入力信号から同定された単語系列を出力するように適合された出力を更に具備し、
前記第2の環境においてトレーニングされたモデルを前記第1の環境のモデルに適応させることは、確率分布のグループについて導出された二次またはより高次のテーラー展開係数を用いることを具備し、
同一の展開係数が、前記グループ全体で使用される、
装置。 - 前記グループを更に組み合わせて集約グループを形成するように更に適合され、j次テーラー係数は前記グループについて計算及び使用され、j+1次テーラー係数は前記集約グループについて計算及び使用される、請求項18に従う音声認識装置。
- 前記出力は、ディスプレイ、プリンタ、または、更なる装置によって読み取り可能な電子信号を備える、請求項18または19のいずれかに従う装置。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
GB0817824A GB2464093B (en) | 2008-09-29 | 2008-09-29 | A speech recognition method |
GB0817824.6 | 2008-09-29 | ||
PCT/JP2009/067135 WO2010035892A1 (en) | 2008-09-29 | 2009-09-24 | Speech recognition method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2012504250A true JP2012504250A (ja) | 2012-02-16 |
JP5242782B2 JP5242782B2 (ja) | 2013-07-24 |
Family
ID=40019748
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011513765A Expired - Fee Related JP5242782B2 (ja) | 2008-09-29 | 2009-09-24 | 音声認識方法 |
Country Status (4)
Country | Link |
---|---|
US (1) | US8417522B2 (ja) |
JP (1) | JP5242782B2 (ja) |
GB (1) | GB2464093B (ja) |
WO (1) | WO2010035892A1 (ja) |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101416237B (zh) * | 2006-05-01 | 2012-05-30 | 日本电信电话株式会社 | 基于源和室内声学的概率模型的语音去混响方法和设备 |
GB2478314B (en) * | 2010-03-02 | 2012-09-12 | Toshiba Res Europ Ltd | A speech processor, a speech processing method and a method of training a speech processor |
US8660842B2 (en) * | 2010-03-09 | 2014-02-25 | Honda Motor Co., Ltd. | Enhancing speech recognition using visual information |
GB2482874B (en) | 2010-08-16 | 2013-06-12 | Toshiba Res Europ Ltd | A speech processing system and method |
US8972256B2 (en) | 2011-10-17 | 2015-03-03 | Nuance Communications, Inc. | System and method for dynamic noise adaptation for robust automatic speech recognition |
US9899040B2 (en) | 2012-05-31 | 2018-02-20 | Elwha, Llc | Methods and systems for managing adaptation data |
US9899026B2 (en) | 2012-05-31 | 2018-02-20 | Elwha Llc | Speech recognition adaptation systems based on adaptation data |
US10431235B2 (en) | 2012-05-31 | 2019-10-01 | Elwha Llc | Methods and systems for speech adaptation data |
US9275638B2 (en) * | 2013-03-12 | 2016-03-01 | Google Technology Holdings LLC | Method and apparatus for training a voice recognition model database |
US9177546B2 (en) * | 2013-08-28 | 2015-11-03 | Texas Instruments Incorporated | Cloud based adaptive learning for distributed sensors |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06289891A (ja) * | 1993-04-02 | 1994-10-18 | Mitsubishi Electric Corp | 音声認識装置 |
JPH09258768A (ja) * | 1996-03-25 | 1997-10-03 | Mitsubishi Electric Corp | 騒音下音声認識装置及び騒音下音声認識方法 |
JPH10149191A (ja) * | 1996-09-20 | 1998-06-02 | Nippon Telegr & Teleph Corp <Ntt> | モデル適応方法、装置およびその記憶媒体 |
JPH1195786A (ja) * | 1997-09-16 | 1999-04-09 | Nippon Telegr & Teleph Corp <Ntt> | パターン認識方法および装置とパターン認識プログラムを格納した記録媒体 |
JP2002091485A (ja) * | 2000-09-18 | 2002-03-27 | Pioneer Electronic Corp | 音声認識システム |
JP2004264816A (ja) * | 2002-09-06 | 2004-09-24 | Microsoft Corp | 再帰的構成における反復ノイズ推定法 |
JP2004325897A (ja) * | 2003-04-25 | 2004-11-18 | Pioneer Electronic Corp | 音声認識装置及び音声認識方法 |
JP2005062890A (ja) * | 2003-08-19 | 2005-03-10 | Microsoft Corp | クリーン信号確率変数の推定値を識別する方法 |
JP2006084732A (ja) * | 2004-09-15 | 2006-03-30 | Univ Of Tokyo | 多項式近似に基づく雑音下音声認識のためのモデル適応法 |
JP2010078650A (ja) * | 2008-09-24 | 2010-04-08 | Toshiba Corp | 音声認識装置及びその方法 |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6026359A (en) * | 1996-09-20 | 2000-02-15 | Nippon Telegraph And Telephone Corporation | Scheme for model adaptation in pattern recognition based on Taylor expansion |
WO2001003113A1 (en) * | 1999-07-01 | 2001-01-11 | Koninklijke Philips Electronics N.V. | Robust speech processing from noisy speech models |
US7668718B2 (en) * | 2001-07-17 | 2010-02-23 | Custom Speech Usa, Inc. | Synchronized pattern recognition source data processed by manual or automatic means for creation of shared speaker-dependent speech user profile |
US7047047B2 (en) * | 2002-09-06 | 2006-05-16 | Microsoft Corporation | Non-linear observation model for removing noise from corrupted signals |
US7457745B2 (en) * | 2002-12-03 | 2008-11-25 | Hrl Laboratories, Llc | Method and apparatus for fast on-line automatic speaker/environment adaptation for speech/speaker recognition in the presence of changing environments |
US7076422B2 (en) * | 2003-03-13 | 2006-07-11 | Microsoft Corporation | Modelling and processing filled pauses and noises in speech recognition |
US7165026B2 (en) * | 2003-03-31 | 2007-01-16 | Microsoft Corporation | Method of noise estimation using incremental bayes learning |
JP5229216B2 (ja) * | 2007-02-28 | 2013-07-03 | 日本電気株式会社 | 音声認識装置、音声認識方法及び音声認識プログラム |
-
2008
- 2008-09-29 GB GB0817824A patent/GB2464093B/en not_active Expired - Fee Related
-
2009
- 2009-09-24 WO PCT/JP2009/067135 patent/WO2010035892A1/en active Application Filing
- 2009-09-24 JP JP2011513765A patent/JP5242782B2/ja not_active Expired - Fee Related
-
2010
- 2010-04-20 US US12/763,438 patent/US8417522B2/en not_active Expired - Fee Related
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06289891A (ja) * | 1993-04-02 | 1994-10-18 | Mitsubishi Electric Corp | 音声認識装置 |
JPH09258768A (ja) * | 1996-03-25 | 1997-10-03 | Mitsubishi Electric Corp | 騒音下音声認識装置及び騒音下音声認識方法 |
JPH10149191A (ja) * | 1996-09-20 | 1998-06-02 | Nippon Telegr & Teleph Corp <Ntt> | モデル適応方法、装置およびその記憶媒体 |
JPH1195786A (ja) * | 1997-09-16 | 1999-04-09 | Nippon Telegr & Teleph Corp <Ntt> | パターン認識方法および装置とパターン認識プログラムを格納した記録媒体 |
JP2002091485A (ja) * | 2000-09-18 | 2002-03-27 | Pioneer Electronic Corp | 音声認識システム |
JP2004264816A (ja) * | 2002-09-06 | 2004-09-24 | Microsoft Corp | 再帰的構成における反復ノイズ推定法 |
JP2004325897A (ja) * | 2003-04-25 | 2004-11-18 | Pioneer Electronic Corp | 音声認識装置及び音声認識方法 |
JP2005062890A (ja) * | 2003-08-19 | 2005-03-10 | Microsoft Corp | クリーン信号確率変数の推定値を識別する方法 |
JP2006084732A (ja) * | 2004-09-15 | 2006-03-30 | Univ Of Tokyo | 多項式近似に基づく雑音下音声認識のためのモデル適応法 |
JP2010078650A (ja) * | 2008-09-24 | 2010-04-08 | Toshiba Corp | 音声認識装置及びその方法 |
Also Published As
Publication number | Publication date |
---|---|
US8417522B2 (en) | 2013-04-09 |
WO2010035892A1 (en) | 2010-04-01 |
GB0817824D0 (en) | 2008-11-05 |
JP5242782B2 (ja) | 2013-07-24 |
US20100204988A1 (en) | 2010-08-12 |
GB2464093B (en) | 2011-03-09 |
GB2464093A (en) | 2010-04-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5242782B2 (ja) | 音声認識方法 | |
JP3457431B2 (ja) | 信号識別方法 | |
JP5058284B2 (ja) | 音声認識システム、方法及びプログラム | |
US8620655B2 (en) | Speech processing system and method | |
JP2011180596A (ja) | 音声プロセッサ、音声処理方法および音声プロセッサの学習方法 | |
KR20010005674A (ko) | 인식 시스템 | |
CN113571047B (zh) | 一种音频数据的处理方法、装置及设备 | |
KR20040088368A (ko) | 스위칭 상태 공간 모델들을 갖는 변분 추론을 사용하는음성 인식 방법 | |
CN110998723B (zh) | 使用神经网络的信号处理装置及信号处理方法、记录介质 | |
JP4705414B2 (ja) | 音声認識装置、音声認識方法、音声認識プログラムおよび記録媒体 | |
JP2010078650A (ja) | 音声認識装置及びその方法 | |
Nakamura et al. | A mel-cepstral analysis technique restoring high frequency components from low-sampling-rate speech. | |
Liao et al. | Joint uncertainty decoding for robust large vocabulary speech recognition | |
JP6420198B2 (ja) | 閾値推定装置、音声合成装置、その方法及びプログラム | |
JPH10149191A (ja) | モデル適応方法、装置およびその記憶媒体 | |
US9311916B2 (en) | Apparatus and method for improving voice recognition | |
JP4464797B2 (ja) | 音声認識方法、この方法を実施する装置、プログラムおよびその記録媒体 | |
KR100612843B1 (ko) | 은닉 마코프 모델를 위한 확률밀도함수 보상 방법, 그에따른 음성 인식 방법 및 장치 | |
Huang et al. | An SNR-incremental stochastic matching algorithm for noisy speech recognition | |
Loweimi et al. | Use of generalised nonlinearity in vector taylor series noise compensation for robust speech recognition | |
JPH1195786A (ja) | パターン認識方法および装置とパターン認識プログラムを格納した記録媒体 | |
JP6000094B2 (ja) | 話者適応化装置、話者適応化方法、プログラム | |
JP5885686B2 (ja) | 音響モデル適応化装置、音響モデル適応化方法、プログラム | |
Liao et al. | Uncertainty decoding for noise robust automatic speech recognition | |
Aubert | Eigen-MLLRs applied to unsupervised speaker enrollment for large vocabulary continuous speech recognition |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120911 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20121107 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20121211 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130212 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20130312 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20130403 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20160412 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20160412 Year of fee payment: 3 |
|
LAPS | Cancellation because of no payment of annual fees |