JP4874464B2 - 遷移音声フレームのマルチパルス補間的符号化 - Google Patents

遷移音声フレームのマルチパルス補間的符号化 Download PDF

Info

Publication number
JP4874464B2
JP4874464B2 JP2000617441A JP2000617441A JP4874464B2 JP 4874464 B2 JP4874464 B2 JP 4874464B2 JP 2000617441 A JP2000617441 A JP 2000617441A JP 2000617441 A JP2000617441 A JP 2000617441A JP 4874464 B2 JP4874464 B2 JP 4874464B2
Authority
JP
Japan
Prior art keywords
speech
samples
sample
frame
pitch
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP2000617441A
Other languages
English (en)
Other versions
JP2002544551A5 (ja
JP2002544551A (ja
Inventor
ダス、アミタバ
マンジュナス、シャラス
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Qualcomm Inc
Original Assignee
Qualcomm Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Qualcomm Inc filed Critical Qualcomm Inc
Publication of JP2002544551A publication Critical patent/JP2002544551A/ja
Publication of JP2002544551A5 publication Critical patent/JP2002544551A5/ja
Application granted granted Critical
Publication of JP4874464B2 publication Critical patent/JP4874464B2/ja
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/16Vocoder architecture
    • G10L19/18Vocoders using multiple modes
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/08Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
    • G10L19/10Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters the excitation function being a multipulse excitation

Description

【0001】
【発明の属する技術分野】
本発明は、全般的には音声の処理に関し、より詳しくは遷移音声フレームのマルチパルス補間的な符号化に関する。
【0002】
【従来の技術】
音声をディジタル技術により送信することが、特に、長距離及びディジタル無線電話用途において、広く行われている。したがって、このことにより、再構築された音声(speech)の認識される品質を維持しつつ、チャネル上で送信可能な情報の最少量を決定することに関心が向けられている。音声が単なるサンプル化及ディジタル化により送信される場合、一秒間当たり64キロビット程度でのデータレートが要求され、これにより従来のアナログ電話の音声品質を実現する。しかしながら、音声分析、及びこれに続く適切な符号化、送信、受信器での再統合を介して、データレートを大きく低減することが可能となる。
【0003】
人間が音声を生成するモデルと関連付けされているパラメータを抽出することにより音声を圧縮する技術を用いた機器は音声符号器と呼ばれる。音声符号器は、入力された音声信号を時間のブロック、又は分析フレームに分割する。音声符号器は、典型的には、符号器と復号器とを具備する。符号器は、入力された音声フレームを分析し、ある関連したパラメータを抽出する。次いで、このパラメータを、例えば1組のビットまたは2値データのパケット等の2値により代表されたものに量子化する。データパケットは、通信チャネル上で受信器又は復号器に送信される。復号器は、データパケットを処理し、それらを逆量子化して、パラメータを生成し、逆量子化されたパラメータを用いて音声のフレームを再合成する。
【0004】
音声符号器の機能は、音声内において固有で自然な冗長部分を除去することによりディジタル化された音声信号を低ビットレートの信号へと圧縮する。このディジタル圧縮は、入力された音声フレームを、1組のパラメータにより表現すること、及び量子化によりパラメータを1組のビットによって表現することにより行われる。入力音声フレームがビット数Nであって、音声符号器により生成されたデータパケットがビット数Nである場合、この音声符号器によりなされる圧縮率は、C=N/Nとなる。目指すべきことは、目的の圧縮率を実現しつつ、復号された音声の品質を高く保つことである。音声符号器の性能は、(1)音声モデル、または上記した分析及び合成処理を組み合わせた動作がどれほど優れているか、(2)フレームごとに目標とするビットレートNビットにおいて、パラメータの量子化処理がどれほど優れているかに依存する。したがって、音声モデルの目標とするところは、各フレームに対し少ない組のパラメータを用いて、音声信号の本質、または目的の音声の質をつかむことである。
【0005】
音声符号器は、時間領域符号器として実施することができる。この時間領域符号器は、高い時間分解能処理を用いて時間ごとに音声の小さな区分(典型的にはミリ秒(ms)のサブフレーム)を符号化することにより、時間領域音声波形を捕獲する。各サブフレームに対し、従来から知られている種々の検索アルゴリズムを用いて、コードブックのスペースからの高精度な代表となるものを見つける。または、音声符号器は、周波数領域符号器として実施することができる。この周波数領域符号器は、1組のパラメータ(分析)を用いて入力音声フレームの短期間の音声スペクトルを捕獲し、対応する合成処理を用いてこのスペクトルパラメータから音声の波形を再構築する。パラメータ量子化器は、公知の量子化技術にしたがって、符号ベクトルの保存された代表物によりパラメータを表すことにより、パラメータを保存する。この量子化技術は、A.Gersho & R.M. Gray, Vector Quantization and Signal Compression (1992)に記載されている。
【0006】
周知の時間領域音声符号器は、L.B. Rabiner & R.W. Schafer, Digital Processing of Speech Signals 396-453 (1978) に記載されたCode Excited Linear Predictive (CELP) 符号器であって、この符号器は以下、参照することにより完全に包含される。CELP符号器において、音声信号中の短期間の相関、または冗長さが、線形予測(LP)分析を用いて除去される。この線形予測分析は、短期間のフォルマントフィルタの係数を見つけることである。入力音声フレームに短期間予測フィルタを適用することにより、LP残余信号が生成される。このLP残余信号は、さらにモデル化され、長期間予測フィルタパラメータ及び後続の推計学のコードブックを用いて量子化される。したがって、CELP符号化により、時間領域音声波形を符号化する作業は、別個のLP短期間フィルタの定数を符号化する作業とLPの残余を符号化する作業とに分割される。時間領域符号化は、固定されたレート(すなわち、各フレームに対し同じビット数、N0を用いて)、または可変レート(フレームの内容が異なるタイプに対し異なるビットレートが用いられる)により実行することができる。可変レート符号器は、コーデックパラメータを、目標とする品質を得るのに十分なレベルまで符号化するのに必要なビット数のみを用いるよう試みる。可変レートCELP符号器の例は、US. Patent NO. 5,414,796 に記載され、この出願は、本発明の譲受人に譲渡され、以下参照することにより完全に包含される。
【0007】
CELP符号器のような時間領域符号器は、典型的には、フレームごとに大きなビット数N0に依存することにより、時間領域音声波形の正確さを保つことができる。このような符号器は、典型的には、比較的大きなフレーム毎ビット数N (例えば8kbps以上)にて与えられた、非常に高い音声品質をもたらす。しかしながら、低ビットレート(4kbps以下)においては、時間領域符号器は、高品質及びしっかりとした性能を保てない。これは、利用可能なビット数が少ないためである。低ビットレートにおいては、制限されたコードブックスペースは、従来の時間領域符号器の波形を合致させる機能を削除する。この合致機能は、より高いレートの商用形態において用いられ、成功を収めている。
【0008】
現在、中または低ビットレート(すなわち、2.4〜4kbps以下)にて動作する高品質な音声符号器を開発するための研究に対する関心及び商業的な需要が高い。この応用分野には、無線電話、衛星通信、インターネット電話、種々のマルチメディア及び音声ストリーム用途、音声メール、他の音声保存システムが含まれる。このような力は、パケットが失われる状況下でのしっかりした性能に対する要求または高容量に対する需要である。種々の近時の音声符号化の標準化の取り組みは、低レート音声アルゴリズムの研究開発を推進する他の力である。低レート音声符号器により、使用可能な帯域でより多くのチャネルまたは使用者が生みだされ、適当なチャネル符号器の付加層と接続された低レート音声符号器は、符号器の仕様の全体的なビット予算に合い、チャネル誤り条件下でのしっかりとした性能をもたらす。
【0009】
低ビットレートにおいて音声を効率的に符号化する有効な技術の1つは、多モード符号化である。多モード符号化技術の例は、Amitava Das et al., Multimode and Variable-Rate Coding of Speech, in Speech Coding and Synthesis ch. 7 (W.B. Kleijn & K.K. Paliwal eds., 1995)に記載されている。従来の多モード符号器は、入力音声フレームの異なるタイプに対して異なるモード、又は符号化−復号アルゴリズムを適用する。各モード、又は符号化−復号処理は、例えば有声音声(voiced speech)、無声音声(unvoiced speech)、遷移音声(例えば有声音声と無声音声との間)、背景雑音(非音声(non-speech))等の音声区分のあるタイプを最適に表すように、最も効率的な方法でカスタマイズされている。外部、開ループモード決定メカニズムは、入力音声フレームを検査し、フレームにどのモードを適用すべきかの決定を行う。この開ループモード決定は、典型的には、入力フレームから適当数のパラメータを抽出し、ある時間及びスペクトル特性についてパラメータを評価し、この評価に基づいてモード決定の基礎を作成する。したがって、出力音声の正確な状態、すなわち、音声品質または他の性能の測定値の点で出力音声がどれほど入力音声と近いか、を予め知ること無しにモードの決定が行われる。
【0010】
高い音声品質を保つために、遷移音声フレームを正確に表すことが重要である。このことは、フレームごとのビット数が制限された低ビットレート音声符号器に対して、難しいことが従来から証明されている。したがって、低ビットレートで符号化された遷移音声フレームを正確に表す音声符号器が要求される。
【0011】
【課題を解決するための手段】
本発明は、低ビットレートにおいて、正確に遷移音声フレームを表す音声符号器にむけられたものである。したがって、本発明の第1の態様において、遷移音声フレームを符号化する方法は、適切に、遷移音声サンプルの第1フレームを前記第1フレームのサンプルの第1部分集合により表す工程と、遷移音声サンプルの第2の、先に受信したフレームから抽出したサンプルの第2部分集合と前記第1部分集合とを補間して、前記第1部分集合に含まれない第1フレームの他のサンプルを合成する工程と、を含む。
【0012】
本発明の他の態様において、遷移音声フレームを符号化するための音声符号器は、適切に、遷移音声サンプルの第1フレームを前記第1フレームのサンプルの第1部分集合により表すための手段と、遷移音声サンプルの第2の、先に受信したフレームから抽出したサンプルの第2部分集合と前記第1部分集合とを補間して、前記第1部分集合に含まれない第1フレームの他のサンプルを合成するための手段と、を含む。
【0013】
本発明の他の態様において、音声の遷移フレームを符号化するための音声符号器は、適切に、遷移音声サンプルの第1フレームを前記第1フレームのサンプルの第1部分集合により表すように構成された抽出器と、前記抽出器と接続され、遷移音声サンプルの第2の、先に受信したフレームから抽出したサンプルの第2部分集合と前記第1部分集合を補間して、前記第1部分集合に含まれない第1フレームの他のサンプルを合成する補間器と、を含む。
【0014】
【発明の実施の形態】
図1において、第1符号器10は、ディジタル化された音声サンプルs(n)を受信し、送信媒体(メディア)12または通信チャネル12上で第1復号器14に送信するためにサンプルs(n)を符号化する。復号器14は、符号化された音声のサンプルを復号し、出力音声信号sSYNTH(n)を合成する。反対方向に送信するために、第2符号器16は、ディジタル化された音声サンプルs(n)を符号化する。この音声サンプルs(n)は、通信チャネル18上で送信される。第2符号器20は、符号化された音声サンプルを受信、符号化し、合成された出力音声信号sSYNTH(n)を生成する。
【0015】
音声サンプルs(n)は、ディジタル化及び量子化された音声信号を表す。このディジタル化及び量子化は、例えばパルス符号変調(PCM)、圧伸μローまたはAロー等を含む公知の種々の方法に沿って行われたものである。従来から知られているように、音声サンプルs(n)は、入力データのフレームへと整理される。各フレームは、所定数のディジタル化された音声サンプルs(n)から成る。実施形態例の1つでは、サンプルレート8kHzが用いられ、各20msフレームは、160のサンプルからなる。上記した実施形態では、データ送信レートは、フレームごとに変えられ、適宜13.2kbps(完全レート)から6.2kbps(半分レート)、2.6kbps(4分の1レート)、1kbps(8分の1レート)とすることができる。データ送信レートが可変であることは有利である。これは、比較的少ない音声情報を含むフレームに対してより低いビットレートを選択して適用できるからである。当業者により理解されるように、他のサンプルレート、フレームサイズ、データ送信レートを用いることもできる。
【0016】
第1符号器10と第2復号器20とにより、第1音声符号器、または音声コーデックが構成される。同様に、第2符号器16と第1復号器14とにより第2音声符号器が構成される。ディジタル信号処理器(DSP)、特定用途向け回路(ASIC)、ディスクリート型独立ゲートロジック、ファームウェア、または、従来からのあらゆるプログラム可能ソフトウェアモジュール及びマイクロプロセッサによって、音声符号器を実現できることは、当業者には理解される。ソフトウェアモジュールは、公知のRAMメモリ、フラッシュメモリ、レジスタ、または他のいかなる形態の書き込み可能な保存メディア上に設けることができる。また、いかなる従来からのプロセッサ、コントローラ、及び状態機器をマイクロプセッサとして代用できる。音声符号器用に特別に設計されたASICの例は、U.S. Patent No. 5,727,123に記載され、この出願は本願の譲受人に譲渡され、ここに参照することにより完全に包含される。また、1994年2月16日に出願されたVOCODER ASICと題するU.S. Application Serial No. 08/197,417に記載され、この出願は、本願の譲受人に譲渡され、ここに参照することにより完全に包含される。
【0017】
図2において、音声符号器に使用できる符号器100は、モード決定モジュール102、ピッチ推定モジュール104、LP分析モジュール106、LP分析フィルタ108、LP量子化モジュール110、及び残余量子化モジュール112を含む。入力音声フレームs(n)はモード決定モジュール102、ピッチ推定モジュール104、LP分析モジュール106、及びLP分析フィルタ108に供給される。モード決定モジュール102は、モードインデックスI、及び各入力音声フレームs(n)の周期性に基づいてモードMを生成する。周期性にしたがって音声フレームを分類する種々の方法は、METHOD AND APPARATUS FOR PERFORMING REDUCED RATE VARIABLE RATE VOCODINGと題して1997年3月11日に出願されたU.S. Application Serial No. 08/815,354に記載される。この出願は、本願の譲受人に譲渡され、ここに参照することにより完全に包含される。このような方法は、電気通信工業会工業暫定基準(Telecommunication Industry association Industry Interim Standards)TIA/EIA IS-127 及び TIA/EIA IS-733に包含される。
【0018】
【数1】
Figure 0004874464
【数2】
Figure 0004874464
図2の符号器100及び図3の復号器200の種々のモジュールの動作及び実施は公知であり、上述したU.S. Patent No. 5,414,796 及びL.B. Rabiner & R.W. Schafer, Digital Processing of Speech Signals 396-453 (1978) に記載されている。
【0019】
図4のフローチャートに図示されるように、実施形態の1つに従った音声符号器は、送信のための音声サンプルの処理において一連のステップを踏む。ステップ300において、音声符号器は、連続するフレーム内の音声信号のディジタルサンプルを受信する。あるフレームを受信する、音声符号器はステップ302に移行する。ステップ302において、音声符号器は、フレームのエネルギーを検知する。このエネルギーは、フレームの音声活動の測定値である。音声の検出は、ディジタル化された音声サンプルの振幅を2乗したものを加算し、その結果としてのエネルギーを閾値と比較することにより行われる。実施形態の1つにおいては、閾値は背景雑音の変化レベルに基づいて適合している。可変閾値音声活動検知器は、上述したU.S. Patent No. 5,414,796に記載されている。無声音声の幾つかは、非常に低エネルギーのサンプルであるため、誤って背景雑音として符号化される恐れがある。これが発生することを防止するため、低エネルギーサンプルのスペクトルティルトを用いて、無声音声を背景雑音から区別しても良い。このような方法は、上述したU.S. Patent No. 5,414,796に記載されている。
【0020】
フレームのエネルギーを検出した後、音声符号器はステップ304に移行する。ステップ304において、音声符号器は、検出されたフレームエネルギーが音声情報を含むフレームとして分類するのに十分か否かを決定する。検出されたフレームのエネルギーが所定の閾値レベル以下である場合、音声符号器はステップ306に移行する。ステップ306において、符号器はフレームを背景雑音(すなわち非音声、または無音)として符号化する。実施形態の1つにおいては、背景雑音フレームは1/8レート、または1kbpsにて符号化される。ステップ304において、検出されたフレームのエネルギーが所定の閾レベルと同じかそれ以上である場合、そのフレームは音声として分類され、音声符号器はステップ308に移行する。
【0021】
ステップ308において、音声符号器は、フレームが無声音声か否かを決定する。すなわち、音声符号器はフレームの周期性を調べる。周期性を決定する方法であって、種々の公知のものには、例えばゼロ交差を用いたり、正規化された自動相関機能(NACF)が含まれる。特に、ゼロ交差及びNACFを用いて周期性を検出することは、METHOD AND APPARATUS FOR PERFORMING REDUCED RATE VARIABLE RATE VOCODING と題して1997年3月11日に出願されたU.S. Application Serial No. 08/815,354に記載されている。この出願は、本願の譲受人に譲渡され、ここに参照することにより完全に包含される。加えて、上記方法を用いて無声音声から有声音声を区別することは、電気通信工業会暫定基準TIA/EIA IS-127及びTIA/EIA IS-733に包含される。ステップ308において、フレームが非声音声であると決定された場合、音声符号器はステップ310に移行する。ステップ310において、音声符号器は、フレームを無声音声として符号化する。実施形態の1つでは、無声音声フレームは、4分の1レート又は2.6kbpsで符号化される。ステップ308において、フレームが無声音声であると決定されなかった場合、音声符号器はステップ312に移行する。
【0022】
ステップ312において、音声符号器は、周期性決定方法を用いてフレームが遷移音声であるかを決定する。この方法は、公知であり、上述したU.S. Application Serial No. 08/815/354に記載されている。フレームが遷移音声であると決定した場合、音声符号器はステップ314に移行する。ステップ314において、フレームは遷移音声(すなわち、無声音声から有声音声への遷移)として符号化される。実施形態の1つでは、遷移音声フレームは、図6を参照して後述するマルチパルス補間的符号化法に従って符号化される。
【0023】
ステップ312において、音声符号器が、フレームが遷移音声ではないと決定した場合、音声符号器は、ステップ316に移行する。ステップ316において、音声符号器はフレームを有声音声として符号化する。実施形態では有声音声のフレームは最大のレート又は13.2kbpsで符号化される。
【0024】
当業者によれば、図4に示すステップに続行することにより、音声信号または対応するLP残余のいずれかを符号化できることは理解される。雑音、無声,遷移,有声音声の波形特性は、図5(A)中の時間に関する関数としてみることができる。雑音、無声音声,遷移,及び有声LP残余は、図5(B)のグラフにおいて、時間に関する関数としてみることができる。
【0025】
実施形態では、音声符号器は、マルチパルス補間的符号化アルゴリズムを用いて、図6のフローチャート中に示される方法ステップに従って遷移音声フレームを符号化する。ステップ400において、音声符号器は現在のKサンプルLP音声残余フレームS[n]及びフレームS[n]の直接の将来の近傍のピッチ期間Mを推定する。ここで、n=1,2,……,Kである。実施形態の1つにおいては、LP音声残余フレームS[n]は、160のサンプル(すなわち、K=160)からなる。ピッチ周期Mは、フレーム内において繰り返される基本の周期である。次に、音声符号器はステップ402に移行する。ステップ402において、音声符号器は、現在の残余フレームの最後のMサンプルを有するピッチ基本型Xを抽出する。ピッチ基本形Xは、適宜、フレームS[n]の最後のピッチ周期(M個のサンプル)とすることができる。または、ピッチ基本形Xは、フレームS[n]の任意のピッチ周期Mとしてもよい。音声符号器は、次いでステップ404に移行する。
【0026】
ステップ404において、符号器は、Mサンプル、ピッチ基本形Xからの位置Piから振幅Qi及び符号Siを有するN個の重要サンプル又はパルスを選択する。ここで、i=1,2,……,Nである。したがって、N個の「最良」のサンプルがMサンプルピッチ基本形Xから選択され、M−N個の選択されていないサンプルは、ピッチ基本形X内に残される。次に、音声符号器は、ステップ406に移行する。ステップ406において、音声符号器は、Bpビットにより位置を符号化する。次に、音声符号器は、ステップ408に移行する。ステップ408において、音声符号器は、Bsビットによりパルスの符号を符号化する。次に、音声符号器は、ステップ410に移行する。ステップ410において、音声符号器は、Baビットによりパルスの振幅を符号化する。N個のパルスの振幅Qiの量子化された値はZiにより参照される。ここでi=1,2,……,Kである。次に、音声符号器は、ステップ412に移行する。
【0027】
ステップ412において、音声符号器は、パルスを抽出する。実施形態の1つでは、パルスを抽出するステップは、個のパルス全てを絶対(すなわち符号なし)振幅に従って並べ、最も高いN個のパルス(すなわち、最大の絶対振幅を有するN個のパルス)を選択することにより行われる。他の実施形態では、パルスを抽出するステップは、続く記載に従って、知覚的な重要さの見地からN個の最良のパルスを選択する。
【0028】
図7に示すように、音声信号を、フィルタを通すことによってLP残余領域から音声領域に変換する。逆に、音声信号を、逆のフィルタによって音声領域からLP残余領域に変換してもよい。実施形態に従って、図7に示すように、ピッチ基本形Xは、H(z)として参照される第1LP合成フィルタ500に入力される。第1LP合成フィルタ500は、S(n)として参照されるピッチ基本形Xの知覚的に重みづけされた音声領域版を生成する。形状コードブック502は、形状ベクトル値を生成し、このベクトル値は乗算器504に供給される。利得コードブック506は、利得ベクトル値を生成し、このベクトルは乗算器504に供給される。乗算器504は、形状ベクトル値を利得ベクトル値により乗算し、形状−利得生成値を生成する。形状−利得生成値は、第1加算器508に供給される。数がN個のパルス(後述するように数Nはサンプル数であり、このサンプル数は、ピッチ基本形Xとモデル基本形e_mod[n]との間の形状−利得誤りEを最小とする)もまた第1加算器508に供給される。第1加算器508は、N個のパルスを形状−利得生成値に加算して、モデル基本形e_mod[n]を生成する。e_mod[n]は、H(z)として参照される第2LP合成フィルタ510に供給される。この第2LP合成フィルタ510は、Se(n)として参照されるモデル基本形e_mod[n]の知覚的に重みづけされた音声領域版を生成する。音声領域値S(n)及びSe(n)は、第2加算器512に供給される。この第2加算器512は、Se(n)からS(n)を減算して、2乗加算計算機514に差の値を供給する。この2乗加算計算機514は、差の値の2乗値を計算して、エネルギー又は誤り値Eを生成する。
【0029】
図6を参照して上述した他の実施形態に従って、LP合成フィルタH(z)(図示せぬ)、または知覚的に重みづけされたLP合成フィルタH(z/α)、現遷移音声フレームに対するインパルス応答は、H(n)として参照される。ピッチ基本形Xのモデルはe_mod[n]として参照される。知覚的に重みづけされた音声領域誤りEは、以下の式に従って定義される。
【0030】
【数3】
Figure 0004874464
ここで、
Se(n)=H(n)e_mod[n]
であり、また、
S(n)=H(n)
であり、「」は、公知の適切なフィルタ動作または畳み込み動作を意味し、Se(n),S(n)は、それぞれピッチ基本形e_mod[n],Xの知覚的に重みづけされた音声領域版を示す。記載した他の実施形態では、後述するようにピッチ基本形XのM個のサンプルからN個の最良のサンプルが選択されて、e_mod[n]を形成する。の可能な組合せのうちのj番目の組として示されるN個のサンプルが、適宜選択され、j=1,2,3,……,に属する全てのjに対して誤りEjが最小となるようにe_mod(n)が生成される。ここで、Eは,以下の数式に従って定義される。
【0031】
【数4】
Figure 0004874464
また、
Se(n)=H(n)e_mod[n]
である。
【0032】
パルスを抽出した後、音声符号器は、ステップ414に移行する。ステップ414において、ピッチ基本形Xの残りのM−Nのサンプルは、他の実施形態と関連した2つの可能な方法の1つに従って表現される。1つの実施形態においては、ピッチ基本形Xの残りのM−N個のサンプルは、M−N個のサンプルをゼロ値で置換することにより選択される。他の実施形態においては、ピッチ基本形Xの残りのM−N個のサンプルは、M−N個のサンプルをコードブックを用いたRsビットの形状ベクトル及びコードブックを用いたRgビットの利得、と置換することにより選択される。したがって、利得gと形状ベクトルHは、M−N個のサンプルを表す。利得g及び形状ベクトルHは、歪Ejkを最小化することによってコードブックから選択された構成値g及びHを有する。歪Ejkは、以下の等式により与えられる。
【0033】
【数5】
Figure 0004874464
また、
Sejk(n)=H(n)e_modjk[n]
である。ここで、モデル基本形e_modjk[n]は、上記したMのパルスと、j番目の利得コードワードg及びk番目の符号語Hにより表されたM−N個のサンプルと、により形成される。この選択は、Ejkの最小値をもたらす組合せ{j,k}を選択することによって、複合的に最適とされ方法により行われる。次いで、音声符号器は、ステップ416に移行する。
【0034】
ステップ416において、符号化されたピッチ基本形Yが計算される。符号化されたピッチ基本形Yは、元のピッチ基本形Xをモデルとしている。すなわち、N個のパルスを位置Piに戻し、振幅QiをSiZiにて置換し、残りのM−N個のサンプルをゼロ(1つの実施形態)または選択された、上記した(他の実施形態)利得−形状の代表gHからのサンプルのいずれかにより置換する。符号化されたピッチ基本形Yは、再構築又は合成されたNの「最良」のサンプルに、再構築又は合成された残りのM−N個のサンプルを加えたものに対応する。次に、音声符号器はステップ418に移行する。
【0035】
ステップ418において、音声符号器は、過去の(すなわち、直前の)復号された残余フレームからMサンプル「過去基本形」Wを抽出する。過去基本形Wは、復号された過去の残余フレームから最後のM個のサンプルを取り出すことによって抽出される。または、ピッチ基本形Xが現在フレームのM個のサンプルの対応する組から取り出されていた場合、過去基本形Wは、過去フレームのM個のサンプルの他の組から構築することができる次に、音声符号器は、ステップ420に移行する。
【0036】
ステップ420において、音声符号器は、残余SSYNTH[n]の復号された現在フレームのK個のサンプル全体を再構築する。この再構築は、従来の任意の補間方法により、適宜実現される。この方法は、最後のM個のサンプルは再構築されたピッチ基本形Yにより形成され、最初のK−M個のサンプルは、過去基本形W及び符号化された現在のピッチ基本形Yを補間することにより形成される。1つの実施形態では、以下のステップに従ってこの補間を実施することができる。
【0037】
W及びYが適宜並べられ、最適な相対位置及び補間に際し用いられる平均のピッチ期間が得られる。配置Aは、現在のピッチ基本形Yの回転として得られる。このピッチ基本形Yは、回転されたYをWと最大に相互相関したものに対応する。可能な各配列Aにおける相互相関C[A]、−この配列Aは0からM−1までの値又は範囲0からM−1までの部分集合であるが−、この相互相関C[A]は、以下の等式に従って形成される。
【0038】
【数6】
Figure 0004874464
次に、以下の等式に従って平均ピッチ期間Lavが形成される。
【0039】
Lav=(160−M)M/(MNp−A
ここで、
Np=round{A/M+(160−M)/M}
である。以下の等式に従って補間が行われ、最初のK−Mのサンプルが計算される。
【0040】
SYNTH={(160−n−M)W[(nα)%M]+
nY[(nα+A)%M]}/(160−M)
ここで、α=M/Lavであり、インデックスn’(これはnα又はnα+Aに等しい)に対する非整数値のサンプルが、n’の分数値において望まれる正確さに基づいた従来の補間方法を用いて計算される。上記等式における丸め動作及びモジューロ動作(シンボル%にて示される)は公知である。時間に関した元の遷移音声、符合化されていない残余、符号化/量子化された残余、及び復号/再構築された音声は、それぞれ図8(A)〜(D)に示されている。
【0041】
1つの実施形態において、符号化された遷移残余フレームを、閉ループ技術に従って計算して良い。従って、符号化された遷移残余フレームは、上記したように計算される。次に、フレーム全体に対して、知覚信号−雑音率(PSNR)が計算される。PSNRが所定の閾値を越える場合、CELP等の高レート、高精度の波形符号化方法が用いられてフレームが符号化される。このような技術は、CLOSED-LOOP MULTIMODE MIXED-DOMAIN LINEAR PREDICTION (MDLP) SPEECH CODERと題して1999年2月26日に出願されたU.S. Application Serial No. 09/259,151に記載される。この出願は、本願の譲受人に譲渡されている。可能な場合に上記した低ビットレート音声の符号化方法を用いることにより、また低ビットレート音声の符号化方法により目標とする歪の計測値をもたらさない場合に高レートのCELP音声符号化方法を代用することにより、低平均符号化レートを用いつつ、遷移音声フレームを比較的高音質(使用された閾値又は歪計測値により決定される)で符号化できる。
【0042】
このように、新規な、遷移音声フレーム用のマルチパルス補間的な符号器が開示された。当業者は、ここに開示された実施形態と関連して種々の示された論理ブロック及びアルゴリズムのステップを、ディジタルプロセッサ(DSP)、特定用途向け回路(ASIC)、独立ゲートまたはトランジスタロジック、例えばレジスタ及びFIFO等のディスクリート型ハードウェア部品、一連のファームウェア指示を実行するプロセッサ、または他のあらゆる従来からのプログラム可能ソフトウェアモジュール及びプロセッサ、を用いて実行、実施できることを理解するであろう。プロセッサは、適宜マイクロプロセッサとすることができ、しかし、代わりとして、プロセッサは従来からのあらゆるプロセッサ、コントローラ、マイクロコントローラ、又はステートマシンとすることができる。ソフトウェアモジュールは、RAMメモリ、フラッシュメモリ、レジスタ、又は公知の他のあらゆる形態の書き込み可能保存メディア上に設けることができる。当業者は、さらに、上記を通じて参照したデータ、指示、命令、情報、信号、ビット、シンボル及びチップは、適宜、電圧、電流、電磁波、磁場または磁気素粒子、光場または光粒子、またはこれらの組合せにより表されることを、理解するであろう。
【0043】
本発明の好適な実施形態は、このように開示された。しかしながら、本発明の思想及び範疇から逸脱することなく多くの改良を開示された実施形態に適用できることは、当業者にとって明らかであろう。したがって、請求の範囲に従ったものを除いて、本発明は限定されない。
【図面の簡単な説明】
【図1】 音声符号器による各端部における通信チャネルのブロック図。
【図2】 符号器のブロック図。
【図3】 復号器のブロック図。
【図4】 音声符号化決定処理を示すフローチャート。
【図5】 音声信号振幅対時間、線形予測残余対時間のグラフ。
【図6】 遷移音声フレーム用のマルチパルス補間的符号化処理を示すフローチャート。
【図7】 LP残余領域信号を濾波して音声領域信号を生成するシステム、または音声領域信号を逆に濾波してLP残余領域信号を生成するシステムを示すブロック図。
【図8】 振幅,元の遷移音声,符号化されていない残余,符号化/量子化された残余,復号/再構築された音声、対時間をそれぞれ示すグラフ。

Claims (21)

  1. 遷移音声残余サンプルの第1フレームからピッチ基本形Xを抽出する工程と、
    前記サンプルのピッチ基本形Xを単純化する工程であって、符号化されたピッチ基本形Yを計算するための工程と、
    前記サンプルのピッチ基本形Yと、遷移音声残余サンプルの先に受信した第2フレームから抽出した過去基本形Wとを用いて補間する工程であって、前記第1フレームのうちの前記ピッチ基本形Xに含まれない他のサンプルを再構築するための工程と、
    を具備する遷移音声フレームを符号化する方法。
  2. 前記単純化する工程は、
    前記サンプルのピッチ基本形Xから知覚的に重大なサンプルを選択する工程と、
    選択されていない全てのサンプルにゼロ値を割り当てる工程と、
    を具備する請求項の方法。
  3. 前記知覚的に重大なサンプルは、前記遷移音声残余サンプルの第1フレームと遷移音声残余サンプルの合成された第1フレームとの間の知覚的に重みづけされた音声領域誤りを最小とするよう選択されたサンプルである請求項の方法。
  4. 前記単純化する工程は、
    前記サンプルのピッチ基本形Xから絶対値の比較的高い振幅を有するサンプルを選択する工程と、
    選択されていない全てのサンプルにゼロ値を割り当てる工程と、
    をさらに具備する請求項の方法。
  5. 前記単純化する工程は、
    前記サンプルのピッチ基本形Xから知覚的に重大なサンプルを選択する工程と、
    選択されていない全てのサンプルの部分を量子化する工程と、
    を具備する請求項の方法。
  6. 前記知覚的に重大なサンプルは、前記遷移音声残余サンプルの第1フレームと遷移音声残余サンプルの合成された第1フレームとの間の利得及び形状誤りを最小とするよう選択されたサンプルである請求項の方法。
  7. 前記単純化する工程は、
    前記サンプルのピッチ基本形Xから絶対値の比較的高い振幅を有するサンプルを選択する工程と、
    選択されていない全てのサンプルの部分を量子化する工程と、
    を具備する請求項の方法。
  8. 遷移音声残余サンプルの第1フレームからピッチ基本形Xを抽出するための手段と、
    前記サンプルのピッチ基本形Xを単純化するための手段であって、符号化されたピッチ基本形Yを計算するための手段と、
    前記サンプルのピッチ基本形Yと、遷移音声残余サンプルの先に受信した第2フレームから抽出した過去基本形Wとを用いて補間するための手段であって、前記第1フレームのうちの前記ピッチ基本形Xに含まれない他のサンプルを再構築するための手段と、
    を具備する遷移音声フレームを符号化するための音声符号器。
  9. 前記単純化するための手段は、
    前記サンプルのピッチ基本形Xから知覚的に重大なサンプルを選択するための手段と、
    選択されていない全てのサンプルにゼロ値を割り当てるための手段と、
    を具備する請求項の音声符号器。
  10. 前記知覚的に重大なサンプルは、前記遷移音声残余サンプルの第1フレームと遷移音声残余サンプルの合成された第1フレームとの間の知覚的に重みづけされた音声領域誤りを最小とするよう選択されたサンプルである請求項の音声符号器。
  11. 前記単純化するための手段は、
    前記サンプルのピッチ基本形Xから絶対値の比較的高い振幅を有するサンプルを選択するための手段と、
    選択されていない全てのサンプルにゼロ値を割り当てるための手段と、
    をさらに具備する請求項の音声符号器。
  12. 前記単純化するための手段は、
    前記サンプルのピッチ基本形Xから知覚的に重大なサンプルを選択するための手段と、
    選択されていない全てのサンプルの部分を量子化するための手段と、
    を具備する請求項の音声符号器。
  13. 前記知覚的に重大なサンプルは、前記遷移音声残余サンプルの第1フレームと遷移音声残余サンプルの合成された第1フレームとの間の利得及び形状誤りを最小とするよう選択されたサンプルである請求項12の音声符号器。
  14. 前記単純化するための手段は、
    前記サンプルのピッチ基本形Xから絶対値の比較的高い振幅を有するサンプルを選択するための手段と、
    選択されていない全てのサンプルの部分を量子化するための手段と、
    を具備する請求項の音声符号器。
  15. 遷移音声残余サンプルの第1フレームからピッチ基本形Xを抽出するように構成された抽出器と、
    前記サンプルのピッチ基本形Xを単純化して、符号化されたピッチ基本形Yを計算するように構成された計算器と、
    前記抽出器と接続され、前記サンプルのピッチ基本形Yと、遷移音声残余サンプルの先に受信した第2フレームから抽出した過去基本形Wとを用いて補間して、前記第1フレームのうちの前記ピッチ基本形Xに含まれない他のサンプルを再構築するように構成された補間器と、
    を具備する遷移音声フレームを符号化するための音声符号器。
  16. 前記サンプルのピッチ基本形Xから知覚的に重大なサンプルを選択するように構成されたパルス選択器をさらに具備し、選択されていない全てのサンプルにゼロ値が割り当てられる請求項15の音声符号器。
  17. 前記知覚的に重大なサンプルは、前記遷移音声残余サンプルの第1フレームと遷移音声残余サンプルの合成された第1フレームとの間の知覚的に重みづけされた音声領域誤りを最小とするよう選択されたサンプルである請求項16の音声符号器。
  18. 前記サンプルのピッチ基本形Xから絶対値の比較的高い振幅を有するサンプルを選択するように構成されたパルス選択器をさらに具備し、選択されていない全てのサンプルの部分は量子化される請求項15の音声符号器。
  19. 前記サンプルのピッチ基本形Xから知覚的に重大なサンプルを選択するように構成されたパルス選択器をさらに具備し、選択されていない全てのサンプルの部分は量子化される請求項15の音声符号器。
  20. 前記知覚的に重大なサンプルは、前記遷移音声残余サンプルの第1フレームと遷移音声残余サンプルの合成された第1フレームとの間の利得及び形状誤りを最小とするよう選択されたサンプルである請求項19の音声符号器。
  21. 前記サンプルのピッチ基本形Xから絶対値の比較的高い振幅を有するサンプルを選択するように構成されたパルス選択器をさらに具備し、選択されていない全てのサンプルの部分は量子化される請求項15の音声符号器。
JP2000617441A 1999-05-07 2000-05-08 遷移音声フレームのマルチパルス補間的符号化 Expired - Lifetime JP4874464B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US09/307,294 US6260017B1 (en) 1999-05-07 1999-05-07 Multipulse interpolative coding of transition speech frames
US09/307,294 1999-05-07
PCT/US2000/012656 WO2000068935A1 (en) 1999-05-07 2000-05-08 Multipulse interpolative coding of transition speech frames

Publications (3)

Publication Number Publication Date
JP2002544551A JP2002544551A (ja) 2002-12-24
JP2002544551A5 JP2002544551A5 (ja) 2007-06-28
JP4874464B2 true JP4874464B2 (ja) 2012-02-15

Family

ID=23189096

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000617441A Expired - Lifetime JP4874464B2 (ja) 1999-05-07 2000-05-08 遷移音声フレームのマルチパルス補間的符号化

Country Status (11)

Country Link
US (1) US6260017B1 (ja)
EP (1) EP1181687B1 (ja)
JP (1) JP4874464B2 (ja)
KR (1) KR100700857B1 (ja)
CN (1) CN1188832C (ja)
AT (1) ATE310303T1 (ja)
AU (1) AU4832200A (ja)
DE (1) DE60024080T2 (ja)
ES (1) ES2253226T3 (ja)
HK (1) HK1044614B (ja)
WO (1) WO2000068935A1 (ja)

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6456964B2 (en) * 1998-12-21 2002-09-24 Qualcomm, Incorporated Encoding of periodic speech using prototype waveforms
US6681203B1 (en) * 1999-02-26 2004-01-20 Lucent Technologies Inc. Coupled error code protection for multi-mode vocoders
GB2355607B (en) * 1999-10-20 2002-01-16 Motorola Israel Ltd Digital speech processing system
US6757301B1 (en) * 2000-03-14 2004-06-29 Cisco Technology, Inc. Detection of ending of fax/modem communication between a telephone line and a network for switching router to compressed mode
US7606703B2 (en) * 2000-11-15 2009-10-20 Texas Instruments Incorporated Layered celp system and method with varying perceptual filter or short-term postfilter strengths
WO2002097796A1 (en) * 2001-05-28 2002-12-05 Intel Corporation Providing shorter uniform frame lengths in dynamic time warping for voice conversion
WO2003042648A1 (fr) * 2001-11-16 2003-05-22 Matsushita Electric Industrial Co., Ltd. Codeur de signal vocal, decodeur de signal vocal, procede de codage de signal vocal et procede de decodage de signal vocal
WO2007120308A2 (en) * 2005-12-02 2007-10-25 Qualcomm Incorporated Systems, methods, and apparatus for frequency-domain waveform alignment
KR100883652B1 (ko) * 2006-08-03 2009-02-18 삼성전자주식회사 음성 구간 검출 방법 및 장치, 및 이를 이용한 음성 인식시스템
CN101540612B (zh) * 2008-03-19 2012-04-25 华为技术有限公司 编码、解码系统、方法及装置
US8195452B2 (en) * 2008-06-12 2012-06-05 Nokia Corporation High-quality encoding at low-bit rates
WO2010007211A1 (en) * 2008-07-17 2010-01-21 Nokia Corporation Method and apparatus for fast nearestneighbor search for vector quantizers
CN101615911B (zh) 2009-05-12 2010-12-08 华为技术有限公司 一种编解码方法和装置
KR20110001130A (ko) * 2009-06-29 2011-01-06 삼성전자주식회사 가중 선형 예측 변환을 이용한 오디오 신호 부호화 및 복호화 장치 및 그 방법
JP5525540B2 (ja) 2009-10-30 2014-06-18 パナソニック株式会社 符号化装置および符号化方法
CN102222505B (zh) * 2010-04-13 2012-12-19 中兴通讯股份有限公司 可分层音频编解码方法系统及瞬态信号可分层编解码方法
US8990094B2 (en) * 2010-09-13 2015-03-24 Qualcomm Incorporated Coding and decoding a transient frame
US11270721B2 (en) * 2018-05-21 2022-03-08 Plantronics, Inc. Systems and methods of pre-processing of speech signals for improved speech recognition

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02160300A (ja) * 1988-12-13 1990-06-20 Nec Corp 音声符号化方式
JPH10214100A (ja) * 1997-01-31 1998-08-11 Sony Corp 音声合成方法

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4441201A (en) * 1980-02-04 1984-04-03 Texas Instruments Incorporated Speech synthesis system utilizing variable frame rate
CA1255802A (en) 1984-07-05 1989-06-13 Kazunori Ozawa Low bit-rate pattern encoding and decoding with a reduced number of excitation pulses
CA1252568A (en) 1984-12-24 1989-04-11 Kazunori Ozawa Low bit-rate pattern encoding and decoding capable of reducing an information transmission rate
JP2707564B2 (ja) 1987-12-14 1998-01-28 株式会社日立製作所 音声符号化方式
JPH01207800A (ja) 1988-02-15 1989-08-21 Nec Corp 音声合成方式
JP3102015B2 (ja) * 1990-05-28 2000-10-23 日本電気株式会社 音声復号化方法
EP1675100A2 (en) 1991-06-11 2006-06-28 QUALCOMM Incorporated Variable rate vocoder
US5233660A (en) * 1991-09-10 1993-08-03 At&T Bell Laboratories Method and apparatus for low-delay celp speech coding and decoding
US5884253A (en) 1992-04-09 1999-03-16 Lucent Technologies, Inc. Prototype waveform speech coding with interpolation of pitch, pitch-period waveforms, and synthesis filter
US5784532A (en) 1994-02-16 1998-07-21 Qualcomm Incorporated Application specific integrated circuit (ASIC) for performing rapid speech compression in a mobile telephone system
TW271524B (ja) * 1994-08-05 1996-03-01 Qualcomm Inc
JP3747492B2 (ja) * 1995-06-20 2006-02-22 ソニー株式会社 音声信号の再生方法及び再生装置
SE506341C2 (sv) * 1996-04-10 1997-12-08 Ericsson Telefon Ab L M Metod och anordning för rekonstruktion av en mottagen talsignal
US6029133A (en) * 1997-09-15 2000-02-22 Tritech Microelectronics, Ltd. Pitch synchronized sinusoidal synthesizer
EP1424346A4 (en) * 2001-07-31 2008-05-07 Mitsubishi Chem Corp POLYMERIZATION PROCESS AND NOZZLE FOR USE IN THE POLYMERIZATION PROCESS

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02160300A (ja) * 1988-12-13 1990-06-20 Nec Corp 音声符号化方式
JPH10214100A (ja) * 1997-01-31 1998-08-11 Sony Corp 音声合成方法

Also Published As

Publication number Publication date
ATE310303T1 (de) 2005-12-15
CN1355915A (zh) 2002-06-26
HK1044614B (zh) 2005-07-08
US6260017B1 (en) 2001-07-10
ES2253226T3 (es) 2006-06-01
EP1181687A1 (en) 2002-02-27
CN1188832C (zh) 2005-02-09
DE60024080D1 (de) 2005-12-22
WO2000068935A1 (en) 2000-11-16
DE60024080T2 (de) 2006-08-03
HK1044614A1 (en) 2002-10-25
JP2002544551A (ja) 2002-12-24
AU4832200A (en) 2000-11-21
EP1181687B1 (en) 2005-11-16
KR20010112480A (ko) 2001-12-20
KR100700857B1 (ko) 2007-03-29

Similar Documents

Publication Publication Date Title
US6584438B1 (en) Frame erasure compensation method in a variable rate speech coder
KR100679382B1 (ko) 가변 속도 음성 코딩
KR100895589B1 (ko) 로버스트한 음성 분류를 위한 방법 및 장치
US7426466B2 (en) Method and apparatus for quantizing pitch, amplitude, phase and linear spectrum of voiced speech
US6260009B1 (en) CELP-based to CELP-based vocoder packet translation
JP5543405B2 (ja) フレームエラーに対する感度を低減する符号化体系パターンを使用する予測音声コーダ
JP4270866B2 (ja) 非音声のスピーチの高性能の低ビット速度コード化方法および装置
JP4874464B2 (ja) 遷移音声フレームのマルチパルス補間的符号化
JP4489960B2 (ja) 音声の無声セグメントの低ビットレート符号化
US6678649B2 (en) Method and apparatus for subsampling phase spectrum information
WO2003001172A1 (en) Method and device for coding speech in analysis-by-synthesis speech coders
KR20020081352A (ko) 유사주기 신호의 위상을 추적하는 방법 및 장치
Drygajilo Speech Coding Techniques and Standards

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070508

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070508

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100525

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100824

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101207

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20110307

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20110314

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20110407

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20110414

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110502

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110830

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110922

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111025

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20111124

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141202

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4874464

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term