JP2008503786A - オーディオ信号の符号化及び復号化 - Google Patents

オーディオ信号の符号化及び復号化 Download PDF

Info

Publication number
JP2008503786A
JP2008503786A JP2007517598A JP2007517598A JP2008503786A JP 2008503786 A JP2008503786 A JP 2008503786A JP 2007517598 A JP2007517598 A JP 2007517598A JP 2007517598 A JP2007517598 A JP 2007517598A JP 2008503786 A JP2008503786 A JP 2008503786A
Authority
JP
Japan
Prior art keywords
signal
audio
excitation signal
rpe
excitation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007517598A
Other languages
English (en)
Inventor
ブリンケル,アルベルテュス セー デン
イェー ヘリットス,アンドレアス
パロウ,フェリペ リエラ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Koninklijke Philips NV
Koninklijke Philips Electronics NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koninklijke Philips NV, Koninklijke Philips Electronics NV filed Critical Koninklijke Philips NV
Publication of JP2008503786A publication Critical patent/JP2008503786A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/08Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/06Determination or coding of the spectral characteristics, e.g. of the short-term prediction coefficients
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/08Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
    • G10L19/10Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters the excitation function being a multipulse excitation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/08Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
    • G10L19/10Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters the excitation function being a multipulse excitation
    • G10L19/113Regular pulse excitation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/08Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
    • G10L19/12Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters the excitation function being a code excitation, e.g. in code excited linear prediction [CELP] vocoders

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Abstract

デジタルオーディオ信号を符号化する方法において、信号の時間セグメント毎に、スペクトル平滑化信号(r)と場合によってスペクトル平滑化パラメータ(LPP)とを得るために信号がスペクトル的に平滑化される。スペクトル平滑化信号は、RPE又はCELP技術によって生成された励振信号に一致する第1の部分励振信号(px)と、自由な位置及び振幅を有する一組の追加パルスである第2の部分励振信号(pEP)とを有する励振信号によってモデル化される。第1及び第2の部分励振信号を有するオーディオ・ビットストリームが生成される。追加パルスは、スパイクの発生時点又は好ましくはRPE時間グリッドの時点に対応する位置において励振信号に付加され得る。

Description

本発明は広帯域信号、特に、例えば音声(スピーチ)信号等のオーディオ信号、の符号化及び復号化に関する。本発明は、符号器及び復号器の双方、本発明に従って符号化された音声ビットストリーム、並びに上記音声ビットストリームが記憶されたデータ記憶媒体に関する。
広帯域信号、例えば32kHz以上で標本化されたオーディオ信号(スピーチ信号が含まれる)を伝送するときには、信号のビットレートを低減するために圧縮又は符号化の技術が用いられ、それに応じて伝送に要する帯域幅が狭められている。
線形予測符号化(linear predictive coding;LPC)は音声の符号化においてよく用いられる技術である。LPCの主な考え方は、入力信号を出力信号がスペクトル的に平滑な信号になる予測フィルタ(分析)に掛けることである。スペクトル的に平滑化された信号はより少ないビットで符号化可能である。予測フィルタの時間とともにゆっくり変化するパラメータ内に信号構造の重要部分を保持することにより、ビットレートの低減が達成される。予測フィルタから出力されるスペクトル的に平滑化された信号は、通常、残差(residual)と呼ばれている。故に、残差という用語と平滑化された信号という用語は入れ替え可能な同義語である。
必要なビットレートをさらに低減するため、平滑化された信号にモデル化処理が適用され励振信号と呼ばれる新たな信号が得られる。この手順は残差モデル化と呼ばれている。励振信号は、予測合成フィルタを通過したときに、スペクトル的に平滑化された信号が合成に用いられたときに生成される出力の(適当な基準に従った)良い近似を作り出すように計算される。この処理は合成による分析(analysis-by-synthesis)と呼ばれている。励振信号の形態に課された一定の制約により、その表現はビットレートの観点から非常に効率的なものにされる。
励振信号を計算するための良く知られた3つの方法は、RPE(regular pulse excitation)(非特許文献1参照)、MPE(multi-pulse excitation)(非特許文献2参照)及びCELPのような方法(非特許文献10参照)である。これらは基本的に励振信号に課される制約において異なっている。RPEでは励振は間に0を有する等間隔の非0値から成らなければならない。(例えば、8kHzで標本化する)狭帯域音声では、2、4及び8の間引き率(decimation factor)が一般的である。他方、MPEでは非常に少ないパルス(狭帯域音声の5ms毎に典型的に3個から4個)が用いられるが、それらは如何なるグリッドにも制約されず何処に配置されてもよい。励振の計算時には、通常、量子化によって導入される誤差も考慮に入れられる。RPE及びMPEの何れの方法も同一ビットレートでは同様の性能が得られることが示されている。CELPでは高圧縮率を実現するために僅かなコードブックが使用可能である。
線形予測符号化は入力標本間の短期の相関を除去するが、分析フィルタの長さが短いため、LPCは長期の相関を除去することは殆どできない。長期の相関は平滑化された信号内にしばしば存在し、音声の場合には発声された言葉に対応する(準)周期性に主に起因している。これらの周期性はパルス列の形態をした残差信号内にはっきりと現れる(図8a参照)。粗い量子化を伴う後続のモデル化段階は、これらのほぼ周期的なパルスを含むセグメントをモデル化する際にそれらの高ダイナミックレンジのために困難を伴うことになり、励振の質は乏しいものとなる。これは、長期予測器(long-term predictor;LTP)(非特許文献3参照)を用いてこれらの周期構造を残差から除去することにより回避可能であり、それにより、残差モデル化段階に入力される新たな残差が生成される(非特許文献5参照)。一般に、長期線形予測器は遅延と予測係数の小セットとで記述される。
波形は厳密には周期的ではないが、理想的な周期性からのこれらのずれは(8kHzで標本化する)狭帯域信号の場合にはLTP性能に大きくは影響しない。なぜなら、波形周期の変動を吸収するには単一の遅延でまかなわれる期間で十分だからである。さらに、2つ又は3つの予測係数を有するLTPはこれらの揺らぎに対してシステムをより堅牢なものにする。4つ以上の予測係数を有するLTPは、フィルタが長くなるほど不安定になる傾向にあり、より多くの安定化手順が必要とされるので実用的ではない(非特許文献4参照)。今日の大抵の音声符号化においてLTPは首尾よく使用される。
(44.1kHzで標本化する)広帯域音声及びオーディオ信号へのLPC及びパルス励振の適用は何年か前に試験されているが、成功は限定的である(非特許文献5及び6参照)。しかしながら、線形予測分野の最近の発展(非特許文献7参照)により、これらの技術への興味が再び喚起され、近年、線形予測広帯域符号化に関する幾つかの新たな取り組みが発表されている(非特許文献8及び9参照)。
広帯域音声及びオーディオの符号化に長期予測を利用することには幾つかの課題が存在する。それらの課題は使用される高い標本化速度(32kHz以上)に起因するものであり、狭帯域音声の場合には経験しなかったものである。第1に、狭帯域の状況と異なり、残差の周期性の揺らぎをうまく追尾するためには、LTPに多数の予測係数が必要とされる。上述のように、2、3個を超える予測係数を含むLTPは不安定性問題のために非実用的である(非特許文献4参照)。(1、2又は3個の予測係数の)短いLTPは使用可能であるが、それにより得られる利益は最低限のものである。さらなる課題は最適な遅延を探索することの計算の複雑さが高くなることである。これは、狭帯域信号と比較して信号セグメントが遙かに多数の標本群を含むことに起因している。
何れの理由も(44.1kHzで標本化する)広帯域オーディオ又は音声符号化におけるLTPの使用を好ましくないものにしている。そうは言うものの、残差信号には準周期性パルス列が存在しており、後続のパルスモデル化段階に深刻な問題を引き起こす場合がある。一例として、図5のaは、ドイツ人男性のスピーチにおける発声部分に対応した残差信号の数フレーム(フレーム当たり240標本で1500標本)を示している。準周期性構造が明らかに存在している。図5のbは、残差から計算された、間引き2と3水準量子化とを用いたRPE信号を示している。最後に、図5のcは原信号と再構成信号との間の誤差を示している。誤差信号のピークは残差のピークに密接に従っており、これらのセグメントではパルスモデル化はあまりよくないことを示している。音声信号においては、一般に、発声セグメントでのモデル化誤差により、符号化された信号に存在する損失が認識されることになる。
従来のパルス符号器により達成される最終的な信号品質は、主として2つのパラメータ、すなわち、フレーム当たりのパルス数及び得られた信号を量子化するために用いられる水準数、によって決定される。パルス数及び量子化の水準数が大きいほど、符号化された信号の表現は正確になる。逆に、高い圧縮率を実現するためには、パルス数及び量子化水準数は最小にされなければならない。
使用されるフレーム当たりのパルス数に関係なく、信号が大きいダイナミックレンジを示すときには必ず、信号の非常に粗い量子化は問題となる。なぜなら、信号の一部が適切に表されないからである。これは、残差が時折の大きい信号振幅を準周期的(パルス列のような周期性)に含むときに遭遇する状況である。この問題は、RPE又はMPEの場合のように標本の一部がゼロにさせられるときや、CELP符号器の場合のように僅かなコードブックが使用されるときに深刻になる。
本発明者の知見によれば、RPE、MPE又はCELP(又はそれらの変形)のような、音声符号化において残差モデル化のために従来使われている種々の合成による分析技術は、適切に機能するLTP機構が現状では欠けているため広帯域符号化には不十分である。
P.Kroon、E.D.F.Deprettere、R.J.Sluyter、「Regular-pulse excitation ― a novel approach to effective multipulse coding of speech」、IEEE Trans. Acoustics, Speech and Signal Processing、1986年、34巻、p.1054-1063 B.S.Atal、J.R.Remde、「A new model of Ipc excitation for producing natural-sounding speech at low bit rates」、Proc. IEEE ICASSP-82、1982年4月、p.614-617 R.P.Ramachandran、P.Kabal、「Pitch prediction filters in speech coding」、IEEE Trans. Acoust. Speech Signal Process、1989年、37巻、p.467-478 R.P.Ramachandran、P.Kabal、「Stability and performance analysis of pitch filters in speech coders」、IEEE Trans. Acoust. Speech Signal Process、1987年、35巻、p.937-945 S.Singhal、「High quality audio coding using multipulse lpc」、Proc. IEEE ICASSP-90、1990年4月、p.1101-1104 X.Lin、R.A.Salami、R.Steele、「High quality audio coding using analysis-by-synthesis technique」、Proc. IEEE ICASSP-91、1991年4月、p.3617-3620 A.Harma、M.Karjalainen、L.Savioja、V.Valimaki、U.K.Laine、J.Huopaniemi、「Frequency-warped signal processing for audio applications」、J. Audio Eng. Soc.、2000年、48巻、p.1011-1031 R.Yu、C.C.Ko、「A warped linear-prediction-based subband audio coding algorithm」、IEEE Trans. Speech Audio Process、2002年、10巻、p.1-8 G.D.T.Schuller、B.Yu、D.Huang、B.Edler、「Perceptual audio coding using adaptive pre- and post-filter and lossless compression」、IEEE Trans. Speech and Audio Processing、2002年、10巻、p.379-390 W.B.Kleijn、K.K.Paliwal、「Speech coding and synthesis」、Elsevier、1995年、p.79-119
本発明は、広帯域のオーディオ信号の符号化及び復号化を提供することを目的とする。
上記問題は、RPE及び数個の追加パルス、又はCELP及び数個の追加パルスの何れかの組み合わせにより軽減される。なぜなら、追加パルスは、長期の相関を示す残差信号に一般に現れる準周期性スパイクをモデル化するのに効果的に利用可能だからである。
本発明の一態様に従ったデジタルオーディオ信号を符号化する方法においては、前記信号の時間セグメント毎に:
− スペクトル平滑化信号を得るために前記信号をスペクトル的に平滑化するステップ、
− 第1及び第2の部分励振信号を有する励振信号によって前記スペクトル平滑化信号をモデル化するステップであり:
− 第1の部分励振信号は、RPE又はCELPパルスモデル化技術によって生成された励振信号に一致し、且つ
− 第2の部分励振信号は、前記スペクトル平滑化信号内のスパイクをモデル化する自由な位置及び振幅を有する一組の追加パルスである、
ところのモデル化するステップ、及び
− 前記第1及び第2の部分励振信号を有するオーディオ・ビットストリームを生成するステップ、
が実行される。
本発明の他の一態様に従った、デジタルオーディオ信号の時間セグメントを符号化するように適応されたオーディオ符号器は、
− 前記信号をスペクトル的に平滑化してスペクトル平滑化信号を出力するスペクトル平滑化ユニット、
− 第1及び第2の部分励振信号を有する励振信号を計算するように適応された計算ユニットであり:
− 第1の部分励振信号は、RPE又はCELP技術によって生成された励振信号に一致し、且つ
− 第2の部分励振信号は、前記スペクトル平滑化信号内のスパイクをモデル化する自由な位置及び振幅を有する一組の追加パルスである、
ところの計算ユニット、及び
− 前記第1及び第2の部分励振信号を有するオーディオ・ビットストリームを生成するオーディオ・ビットストリーム生成器、
を有する。
さらに、本発明の他の一態様に従った、受け取ったオーディオ・ビットストリームを復号化する方法においては、前記オーディオ・ビットストリームはオーディオ信号の複数のセグメントの各々毎に:
− RPE又はCELPパルスモデル化技術によって生成された励振信号に一致する第1の部分励振信号、及び
− スペクトル平滑化信号内のスパイクをモデル化する、自由な位置及び振幅を有する一組の追加パルスである第2の部分励振信号、
を有し、
− 当該方法は前記第1及び第2の部分励振信号とスペクトル平滑化パラメータとの組み合わせに基づいて出力信号を合成する手段を有する。
対応して、本発明の他の一態様に従った、オーディオ・ビットストリームを受け取って復号化するオーディオ再生機においては、前記オーディオ・ビットストリームはオーディオ信号の複数のセグメントの各々毎に:
− RPE又はCELP技術によって生成された励振信号に一致する第1の部分励振信号、及び
− スペクトル平滑化信号内のスパイクをモデル化する、自由な位置及び振幅を有する一組の追加パルスである第2の部分励振信号、
を有し、
− 当該オーディオ再生機は前記部分励振信号及びスペクトル平滑化パラメータから出力信号を合成する手段を有する。
最後には、本発明は、オーディオ・ビットストリームであって、オーディオ信号の複数のセグメントの各々毎に:
− RPE又はCELP技術によって生成された励振信号に一致する第1の部分励振信号、及び
− スペクトル平滑化信号内のスパイクをモデル化する、自由な位置及び振幅を有する一組の追加パルスである第2の部分励振信号、
を有することを特徴とするオーディオ・ビットストリームと、
このようなオーディオ・ビットストリームが格納された記憶媒体とに関する。
例として添付図面を参照しながら本発明の実施形態について説明する。
図1は、典型的な合成による分析型(analysis-by-synthesis)の励振符号器を示している。一般に、符号化処理は2段階から成り、フレーム毎を原則にして機能する。第1段階では、入力信号がフレーム依存型の線形予測分析フィルタ(LPC)に通され、残差とも呼ばれるスペクトル的に平滑化された信号rと、スペクトル平滑化を記述する線形予測パラメータ(LPP)とが得られる。スペクトル平滑化信号rは、例えばRPE符号器などの残差モデル化段階に送られ、そこではスペクトル平滑化信号にパルスモデル化処理が適用されて励振信号xが得られる。パラメータLPPと励振信号xを記述するパラメータpxとはオーディオ・ビットストリームASに結合される。
図2は、典型的な合成による分析型の復号器を示している。復号器はパラメータpx及びパラメータLPPを含むオーディオ・ビットストリームASを受け取る。復号器はパラメータpxに従って励振信号xを生成し、且つその信号をパラメータLPPによって特定されるフィルタパラメータを有する線形予測合成フィルタに送る。線形予測合成フィルタはフレーム毎に更新され、原信号の近似信号を生成する。
本発明に従って、パルスモデルを拡張し、それにより従来のRPE信号を追加パルスで補足することによって、スペクトル平滑化信号、特に、パルス的な系列における準周期性の符号化問題が解決される。ここで、追加パルスは自由な利得/位置を具備している。すなわち、追加パルスの時間位置はRPEの時間グリッドに制約される必要はなく、また、追加パルスの利得は従来のRPE信号の量子化グリッドに制約される必要はない。これらの追加パルスの目的は、別の手法ではモデル化されない残差スパイクをモデル化することである。これにより、残りの信号をモデル化するために一層大きな自由度がRPE信号に与えられる。故に、追加パルスは残差スパイクをより厳密にモデル化するために追加されるものである。この手順は、MPEパルスが信号スパイクをモデル化し、RPEパルスが残りの残差をモデル化する、RPEとMPEとの進歩的な融合と解釈することができる。RPE及びMPEはLTPを用いない場合には相補的に機能させられ得るものであるが、これまで競合技術と見なされてきたものであり、この手順は自明なものではない。
追加パルス数Kは任意に設定可能であるが、実用的にはフレーム当たり1つ又は2つに制限される。なぜなら、人間の会話における声の高さは50Hzから400Hzの範囲内にあり、そして、処理は通常5msのセグメントで行われるため、結果として所与の何れのセグメントにおいても唯一又は2つのサイクル、すなわち、1つ又は2つの大きいピークが存在するからである。
本発明に係る方法の好適な一実施形態においては、量子化の水準数は3(1、0、-1)に固定される。間引き率(decimation factor)は任意に設定可能であるが、優良品質及び良品質を得るためには、それぞれ、2及び8の間引きが好ましい。間引き率2を有するRPE手法においてさえも、RPE手法全体の性能の大部分はパルスの非常に粗い量子化によって決定される。
本発明に従って、RPE/追加パルスの同時最適化がフレーム毎に以下のように実行される。通常の量子化されていないRPE信号の計算から始められ(非特許文献1参照)、大きさがK(追加パルス番号)番目に大きいパルスに対応する位置が追加パルス位置として選定される。それから、RPE信号は(3水準に)量子化され、RPE信号及び各追加パルスの利得の結合最適化計算が実行される。取り得るRPEオフセットの各々に対してこの手順が繰り返され、再構成誤差の平均が最小となる解が選択される。故に、励振信号xは2つの部分励振信号で構成されることになる。すなわち、従来のRPE励振信号xRPEと、k=1,…,Kに関するデルタ関数gkδkの和から成る第2の部分励振信号で構成される。ここで、デルタ関数は全体が0で特定の1つの時点にのみ振幅1を有する信号として定義されるものであり、gkはそれに付随する利得である。
図3は、本発明に従った符号器の一実施形態を示している。符号器はデジタル入力信号を受け取り、そのデジタル入力信号は、線形予測符号化(LPC)を用いる線形予測分析フィルタ10に入力される。線形予測分析フィルタ10は線形予測パラメータ(LPP)とスペクトル平滑化された残差rを生成する。故に、線形予測パラメータ(LPP)はスペクトル平滑パラメータとしても参照される。残差rは残差モデル化段階11に入力され、残差モデル化段11は出力として、RPE又はCELPの制約に従って励振を記述するパラメータpxと、追加パルスを記述するパラメータpEPとを生成する。オーディオ・ビットストリーム生成器12は、パラメータpxとpEPとを結合させることにより、励振信号を記述するオーディオ・ビットストリームASを生成する。スペクトル平滑パラメータLPPはオーディオ・ビットストリームに含まれもてよいし、あるいは後方適応型の線形予測アルゴリズムを用いる復号器にて生成されてもよい。
図4は、図3の符号器に対応した復号器を示している。受信されたオーディオ・ビットストリームASはデマルチプレクサ21にて、線形予測パラメータ(LPP)、RPE又はCELPの励振信号パラメータpx及び追加パルスパラメータpEPに対応するパラメータストリームに分離される。励振生成器22はパラメータpx及びpEPを用いて励振信号xを生成する。励振信号xは線形予測合成フィルタ23に送られ、線形予測合成フィルタ23は出力として符号器の入力信号の近似を作成する。パラメータLPPがオーディオ・ビットストリームに含まれない場合、これらのパラメータLPPは後方適応型の線形予測を用いてキャップx(x^)から生成可能である。
入力されてくる各フレームに対して、図3のブロック11‘残差モデル化’に従った2つの部分励振信号を計算する効率的なアルゴリズムは、以下のようにまとめることができる:
オフセットj毎に、以下を実行(do)
最適RPE非量子化振幅A(j)を計算、
大きさがK番目に大きいパルスの位置を選定、
K個の部分励振信号δk(j)、k=1,…,Kを生成、
A(j)を量子化してAq(j)に、
Aq(j)から部分励振信号x(j)を生成、
最適利得gx(j),g1(j),…,gK(j)を計算、
全体の励振x(j)=gx(j)xRPE(j)+g1(j)δ1(j)+…+gK(j)δK(j)を作成、
現在のオフセットjに関する再構成誤差の平均値e(j)を計算
終了(end)
平均値が最小となるx(j)であるxoptを選択。
最適なRPE非量子化振幅の計算は非特許文献1に従って実行される。最適利得の計算は次の線形方程式系を解くことによって行われる:
Figure 2008503786

ここで、sx(j)は合成された信号のRPE励振による近似部分(すなわち、合成フィルタのインパルス応答を用いたx(j)の畳み込み(convolution))、sδi(j)は合成された信号のi番目の追加パルスによる近似部分(すなわち、合成フィルタのインパルス応答を用いたδi(j)の畳み込み(convolution))、そしてsは原オーディオ信号を表している。この式は原セグメントと部分励振からのその再構成との間の誤差電力の最小化から得られる。
なお、部分最適化ではあるものの、この手順はやはりRPE信号及び追加パルスの位置及び振幅の同時最適化を行うものである。
最適なRPE/追加パルス結合パルス信号を設計するためには、例えば上述のような、網羅的な計算が必要とされる。この手順が有する非常に高度な複雑性は、結合されたRPE/追加パルス励振を計算するためのより単純な手法の必要性を生じさせるものである。
故に、本発明の好適な一実施形態においては、追加パルスはRPEグリッド上にあるように、すなわち、RPEパルスと一致するように制限される。これが意味することは、追加パルスはそれがモデル化する残差パルスと必ずしも厳密に一致しなくてもよいが、次の又は最も近接したRPEパルスグリッド位置にオフセットされるということである。この手法は2つの重大な効果、すなわち、符号器の複雑性が大幅に緩和されるという効果と、追加パルスの位置を符号化することに費やされるビット数が削減されるためにビットレートが低減されるという効果とを有する。
従来のRPE又はCELP信号に追加パルスを付加することの結果、ビットレートは増大する。しかしながら、このビットレートの増大は全ビットレートと比較するとささやかなものである。一例として、間引き2及び3水準量子化(1.6ビット/パルス)のRPEを用いた毎秒44,100標本の平滑化信号についての符号化は、約40kb/sのビットレートをもたらす。5msのフレーム長を仮定すると、上記技術を用いた2つの追加パルスの付加は、この速度を約43.6kb/sに上昇させる。
この与えられたアルゴリズムにおいては、追加パルス位置の緻密な探索は不要である。それにもかかわらず、その結果はこのように得られたRPEグリッドに制約された追加パルスは残差からパルス的な周期性を除去するのに効果的であることを示すものとなる。
図6のa乃至cは本発明に従った方法の性能を例示している。図6aは、図5a(ドイツ人男性のスピーチの残差)と同一のスペクトル平滑化信号を示しており、周期的又は準周期的ピーク、すなわち、スパイクSを有している。図6bは、フレーム当たり2つ付加された追加パルスPを具備する計算されたRPE信号(間引き2、3水準量子化)を示しており、追加パルスは図6aの平滑化信号における準周期的スパイクSをモデル化する働きをしている。図6cは、原信号と再構成信号との間の差である誤差を示しており、図5cの誤差信号における大きなピークがここでは大幅に除去され、誤差信号は概してランダム信号により近く見えることを示している。
図7、8、9及びそれらに対応する記述は、本発明に好適に適応される文献(本出願人の内部参照番号PHNL031414EPP)における開示を反映している。
図7は、本発明に従ってパラメトリック符号器を用いてRPEと追加パルス技術とを結合させる符号器を示している。パラメトリック符号器のRPE符号器との結合は先述の文献(PHNL031414EPP)に記載されている。パラメトリック符号器は国際公開第01/69593号パンフレットに記載されている。図7において、入力オーディオ信号sは先ずブロックTSA(Transient and Sinusoidal Analysis;非定常・正弦波解析)にて処理される。このブロックは過渡信号及び正弦波に関連するパラメータを生成する。ビットレートをBとすると、ブロックBRC(ビットレート制御)は好ましくは、正弦波及び過渡信号の全ビットレートが最大でもBとなるように、正弦波数を制限し且つ過渡信号を保存する。ビットレートBは典型的に約20kHzに設定される。
ブロックTSAで生成されブロックBRCで変更された過渡パラメータ及び正弦波パラメータ(CT及びCS)を用いて、ブロックTSSによって波形が生成される。この信号が入力信号sから引かれ、信号r1が得られる。一般に、信号r1は実質的な正弦波成分及び過渡成分を含んでいない。
線形予測フィルタを用いるブロックSEにて、信号r1からスペクトル包絡線が評価されて除去される。線形予測フィルタは、例えば、タップ付き遅延線(tapped-delay-line)又はラゲールフィルタに基づく。選択されたフィルタの予測係数Psが、従来式のノイズ符号CNの一部として検出器に伝送されるオーディオ・ビットストリームASに書き込まれる。そして、従来技術で説明されたように、例えば線スペクトル線(LSP)係数又は線スペクトル周波数(LSF)係数を利得とともに生成するブロックTEにて、時間包絡線が除去される。如何なる場合も、時間平滑化により得られる係数Ptは、従来式のノイズ符号CNの一部として検出器に伝送されるオーディオ・ビットストリームASに書き込まれる。係数Ps及びPtは典型的に4kbit/sから5kbit/sのビットレート割当量を必要とする。
パルス列符号器は第1のスペクトル平滑化段階を使用するので、図3の残差モデル化段階11は、ブロックSEで生成されるスペクトル平滑化信号r2に、ビットレート割当量が残差モデル化に割り当てられているか否かに従って選択的に適用可能である。他の一実施形態では、破線で図示されるように、ブロックTEで生成されたスペクトル的かつ時間的に平滑化された信号r3に残差モデル化が適用される。残差モデル化からの出力(px及びpEP)はデータL0に含まれる。
実験により、少ないパルス(例えば、高い間引き率(例としてD=8)のRPE、又は僅かなコードブックのCELP)を用いると、残差モデル化は時折、再構成信号の輝度に損失をもたらすことが示されている。この問題は、低レベルのノイズを励振に付加することによって緩和される。ノイズレベルを決定するため、例えば、励振から生成される信号と残差信号r2/r3との間のエネルギー差/電力差に基づいて、利得gが計算される。この利得もまたレイヤーL0情報の一部として検出器に伝送される。
先述の文献(PHNL031414EPP)においては、図7は記載されているが、それが具備するモデル化はRPEモデル化器であった。それにもかかわらず、パラメータのモデル化との組み合わせの場合には、励振パルスに追加パルスを含むことは若干のビットレートの増大という犠牲を伴いながらも品質の観点から有利であることが見出された。
図8は、図7の符号器に対応した復号器を示している。デマルチプレクサ(DEMUX)は、従来技術と同様に、入力されるオーディオ・ビットストリームASを読み込み、正弦波符号、過渡符号及びノイズ符号(Cs、Ct及びCN(Ps、Pt))をそれぞれの合成器SiS、TrS及びTEG/SEGに提供する。従来技術のように、白色ノイズ生成器(WNG)が時間包絡線生成器TEGへの入力信号を供給する。その情報が利用可能な実施形態においては、図4の22に等しい残差生成器がレイヤーL0から励振信号を生成し、この励振信号がブロックMxにて混合され、励振信号r2’が得られる。符号器から見て取れるように、ノイズ符号CN(Ps、Pt)及びレイヤーL0は同一残差r2から独立して生成されるので、それらが生成する信号は合成された励振信号r2’に的確なエネルギーレベルをもたらすように修正された利得になる必要がある。この実施形態においては、ブロックTEG及び励振生成器により生成された信号が混合器(Mx)にて結合される。
それから、励振信号r2’はスペクトル包絡線生成器(SEG)に送られ、スペクトル包絡線生成器は符号Psに従って合成ノイズ信号r1’を生成する。この信号は従来の過渡合成器及び正弦波合成器により生成された合成信号に足し合わされ、出力信号キャップx(x^)が生成される。
他の一実施形態では、(破線で図示されるように、)励振生成器によって生成されたパラメータがWNGから出力された信号の時間包絡線を成形するようにノイズ符号Ptと組み合わせて使用され、時間的に成形されたノイズ信号が生成される。
図9は、図7の実施形態に対応した復号器の第2実施形態を示しており、残差モデル化段階が残差信号r3を処理している。ここでは、白色ノイズ生成器(WNG)により生成され、符号器で決定された利得(g)及びCNに基づいてブロックWeにより処理された信号と、励振生成器により生成された励振信号とが足し合わされ、励振信号r3’が構築される。当然ながら、レイヤーL0情報が利用不能な場合には、白色雑音はブロックWeによる影響を受けずに、励振信号r3’として時間包絡線生成器(TEG)ブロックに提供される。
そして、ブロックTEGによって時間包絡線係数Ptが励振信号r3’に与えられ、先述のように処理される合成信号r2’が得られる。これは次の点で有利である。すなわち、上述のように、励振信号は一般に幾分の輝度損失を生じさせるが、それが適切に重み付けされた追加ノイズ系列を用いて是正され得る。この重み付けは利得係数g及びCNに各々が基づく単純な振幅又はスペクトルの成形を含み得る。
上述のように、信号はブロックSEG(スペクトル包絡線生成器)にて例えば線形予測合成フィルタによってフィルタリングされ、SEGはスペクトル包絡線を信号に足し合わせる。そして、上述のように、それにより得られた信号は合成された正弦波信号及び過渡信号に足し合わせられる。
図8又は図9の何れかに示されるように、励振生成器が用いられない場合、復号化手法はノイズ符号器のみを使用する従来の正弦波符号器に似たものとなる。励振生成器が用いられる場合、励振信号が足し合わされて再構成信号の質が高められる、すなわち、高音質が得られる。
なお、図9の実施形態においては、フレーム毎にその全体に固定の利得が用いられる標準的なパルス符号器(RPE又はMPE)とは対照的に、時間包絡線が信号r2’に組み込まれる。このような時間包絡線を用いることにより、より優れた音質が得られる。なぜなら、フレーム毎に利得が固定されるのと比較して利得プロファイルの柔軟性が高められるからである。
上述のハイブリッド法は広範囲のビットレートで動作することが可能であり、また、何れのビットレートでも最新の符号器と同等の品質を提供するものである。この方法においては、パラメトリック(正弦波)符号器から供給されるデータによって構成されるベースレイヤーは、入力信号の主要な、あるいは基本的な特徴を含んでおり、非常に低いビットレートで中音質から高音質のオーディオ信号が得られる。
図7の符号器への先述の文献PHNL031414EPPに関する変更と同様に、図8及び9の復号器も適応されてきた。文献PHNL031414EPPのブロックPTGは図4の励振生成器22で置き換えられてきた。
従来技術に従った符号器を示す図である。 図1の符号器に対応した復号器を示す図である。 本発明に従った符号器の好適な実施形態を示す図である。 本発明に従った図3の符号器に対応した復号器の好適な実施形態を示す図である。 ドイツ人男性のスピーチの伝統的なRPE符号化(b)を用いて符号化された残差(a)、及びそれに付随する誤差(c)の一例を示す図である。 ドイツ人男性のスピーチの本発明に係る方法(b)を用いて符号化された残差(a、図5aと同一)、及びそれに付随する誤差(c)の一例を示す図である。 パラメトリック符号器を図3の符号器と組み合わせた符号器の一実施形態を示す図である。 図7の符号器に対応した復号器の第1実施形態を示す図である。 図7の符号器に対応した復号器の第2実施形態を示す図である。

Claims (21)

  1. デジタルオーディオ信号を符号化する方法であって、前記信号の時間セグメント毎に:
    − スペクトル平滑化信号を得るために前記信号をスペクトル的に平滑化するステップ、
    − 第1及び第2の部分励振信号を有する励振信号によって前記スペクトル平滑化信号をモデル化するステップであり:
    − 第1の部分励振信号は、RPE又はCELPパルスモデル化技術によって生成された励振信号に一致し、且つ
    − 第2の部分励振信号は、前記スペクトル平滑化信号内のスパイクをモデル化する自由な位置及び振幅を有する一組の追加パルスである、
    ところのモデル化するステップ、及び
    − 前記第1及び第2の部分励振信号を有するオーディオ・ビットストリームを生成するステップ、
    が実行されることを特徴とする方法。
  2. 前記1つ又は複数の追加パルスが前記スパイクの発生時点に実質的に一致する時点の位置において前記励振信号に付加されることを特徴とする請求項1に記載の方法。
  3. 前記1つ又は複数の追加パルスがRPE時間グリッド上の時点の位置において前記励振信号に付加されることを特徴とする請求項1に記載の方法。
  4. 前記第1の部分励振信号のパルス、及び前記第2の部分励振信号の前記1つ又は複数の追加パルスが、何れもRPE時間グリッド上の時点の位置にあることを特徴とする請求項1に記載の方法。
  5. 前記追加パルスの位置が、残差信号から計算された量子化されていないRPE励振信号の幾つかの極値の位置として決定されることを特徴とする請求項3に記載の方法。
  6. 前記オーディオ・ビットストリームがさらにスペクトル平滑化パラメータを有することを特徴とする請求項1に記載の方法。
  7. デジタルオーディオ信号の時間セグメントを符号化するように適応されたオーディオ符号器であって:
    − 前記信号をスペクトル的に平滑化してスペクトル平滑化信号を出力するスペクトル平滑化ユニット、
    − 第1及び第2の部分励振信号を有する励振信号を計算するように適応された計算ユニットであり:
    − 第1の部分励振信号は、RPE又はCELP技術によって生成された励振信号に一致し、且つ
    − 第2の部分励振信号は、前記スペクトル平滑化信号内のスパイクをモデル化する自由な位置及び振幅を有する一組の追加パルスである、
    ところの計算ユニット、及び
    − 前記第1及び第2の部分励振信号を有するオーディオ・ビットストリームを生成するオーディオ・ビットストリーム生成器、
    を有するオーディオ符号器。
  8. 前記計算ユニットが、前記1つ又は複数の追加パルスを前記スパイクの発生時点に一致する時点の位置において前記励振信号に付加するように適応されていることを特徴とする請求項7に記載のオーディオ符号器。
  9. 前記計算ユニットが、前記1つ又は複数の追加パルスをRPE時間グリッド上の時点の位置において前記励振信号に付加するように適応されていることを特徴とする請求項7に記載のオーディオ符号器。
  10. 前記第1の部分励振信号のパルス、及び前記第2の部分励振信号の前記1つ又は複数の追加パルスが、何れもRPE時間グリッド上の時点の位置にあることを特徴とする請求項7に記載のオーディオ符号器。
  11. 前記追加パルスの位置が、残差信号から計算された量子化されていないRPE励振信号の幾つかの極値の位置として決定されることを特徴とする請求項7に記載のオーディオ符号器。
  12. 前記オーディオ・ビットストリームがさらにスペクトル平滑化パラメータを有することを特徴とする請求項7に記載のオーディオ符号器。
  13. 受け取ったオーディオ・ビットストリームを復号化する方法であって、前記オーディオ・ビットストリームがオーディオ信号の複数のセグメントの各々毎に:
    − RPE又はCELPパルスモデル化技術によって生成された励振信号に一致する第1の部分励振信号、及び
    − スペクトル平滑化信号内のスパイクをモデル化する、自由な位置及び振幅を有する一組の追加パルスである第2の部分励振信号、
    を有し、
    − 当該方法が前記第1及び第2の部分励振信号とスペクトル平滑化パラメータとの組み合わせに基づいて出力信号を合成する手段を有する、
    ことを特徴とする方法。
  14. 前記スペクトル平滑化パラメータが後方適応型線形予測アルゴリズムを用いて生成されることを特徴とする請求項13に記載の方法。
  15. 前記スペクトル平滑化パラメータが前記オーディオ・ビットストリームに含まれることを特徴とする請求項13に記載の方法。
  16. オーディオ・ビットストリームを受け取って復号化するオーディオ再生機であって、前記オーディオ・ビットストリームがオーディオ信号の複数のセグメントの各々毎に:
    − RPE又はCELP技術によって生成された励振信号に一致する第1の部分励振信号、及び
    − スペクトル平滑化信号内のスパイクをモデル化する、自由な位置及び振幅を有する一組の追加パルスである第2の部分励振信号、
    を有し、
    − 当該オーディオ再生機が前記部分励振信号及びスペクトル平滑化パラメータから出力信号を合成する手段を有する、
    ことを特徴とするオーディオ再生機。
  17. 後方適応型線形予測アルゴリズムを用いて前記スペクトル平滑化パラメータを生成する手段を有することを特徴とする請求項16に記載のオーディオ再生機。
  18. 前記オーディオ・ビットストリームとともに受け取ったスペクトル平滑化パラメータを用いるように適応されていることを特徴とする請求項16に記載のオーディオ再生機。
  19. オーディオ・ビットストリームであって、オーディオ信号の複数のセグメントの各々毎に:
    − RPE又はCELP技術によって生成された励振信号に一致する第1の部分励振信号、及び
    − スペクトル平滑化信号内のスパイクをモデル化する、自由な位置及び振幅を有する一組の追加パルスである第2の部分励振信号、
    を有することを特徴とするオーディオ・ビットストリーム。
  20. スペクトル平滑化パラメータをさらに有することを特徴とする請求項19に記載のオーディオ・ビットストリーム。
  21. 請求項19又は20に記載のオーディオ・ビットストリームが格納された記憶媒体。
JP2007517598A 2004-06-22 2005-06-15 オーディオ信号の符号化及び復号化 Pending JP2008503786A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
EP04102880 2004-06-22
PCT/IB2005/051972 WO2006000956A1 (en) 2004-06-22 2005-06-15 Audio encoding and decoding

Publications (1)

Publication Number Publication Date
JP2008503786A true JP2008503786A (ja) 2008-02-07

Family

ID=34970592

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007517598A Pending JP2008503786A (ja) 2004-06-22 2005-06-15 オーディオ信号の符号化及び復号化

Country Status (6)

Country Link
US (1) US20080275709A1 (ja)
EP (1) EP1761916A1 (ja)
JP (1) JP2008503786A (ja)
KR (1) KR20070029751A (ja)
CN (1) CN101099199A (ja)
WO (1) WO2006000956A1 (ja)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20070090217A (ko) * 2004-12-28 2007-09-05 마츠시타 덴끼 산교 가부시키가이샤 스케일러블 부호화 장치 및 스케일러블 부호화 방법
US9420332B2 (en) * 2006-07-06 2016-08-16 Qualcomm Incorporated Clock compensation techniques for audio decoding
KR100788706B1 (ko) * 2006-11-28 2007-12-26 삼성전자주식회사 광대역 음성 신호의 부호화/복호화 방법
MX2009009229A (es) * 2007-03-02 2009-09-08 Panasonic Corp Dispositivo de codificacion y metodo de codificacion.
KR100826808B1 (ko) * 2007-03-27 2008-05-02 주식회사 만도 안티록 브레이크 시스템용 밸브
KR101441897B1 (ko) * 2008-01-31 2014-09-23 삼성전자주식회사 잔차 신호 부호화 방법 및 장치와 잔차 신호 복호화 방법및 장치
EP2830052A1 (en) * 2013-07-22 2015-01-28 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Audio decoder, audio encoder, method for providing at least four audio channel signals on the basis of an encoded representation, method for providing an encoded representation on the basis of at least four audio channel signals and computer program using a bandwidth extension
CN105280190B (zh) * 2015-09-16 2018-11-23 深圳广晟信源技术有限公司 带宽扩展编码和解码方法以及装置
CN111210832B (zh) * 2018-11-22 2024-06-04 广州广晟数码技术有限公司 基于频谱包络模板的带宽扩展音频编解码方法及装置

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01293399A (ja) * 1988-05-20 1989-11-27 Nec Corp 音声符号化復号化装置及び音声符号化装置ならびに音声復号化装置
US6041298A (en) * 1996-10-09 2000-03-21 Nokia Mobile Phones, Ltd. Method for synthesizing a frame of a speech signal with a computed stochastic excitation part

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0342687B1 (en) * 1988-05-20 1995-04-12 Nec Corporation Coded speech communication system having code books for synthesizing small-amplitude components
SE506379C3 (sv) * 1995-03-22 1998-01-19 Ericsson Telefon Ab L M Lpc-talkodare med kombinerad excitation
US6377915B1 (en) * 1999-03-17 2002-04-23 Yrp Advanced Mobile Communication Systems Research Laboratories Co., Ltd. Speech decoding using mix ratio table
US6959274B1 (en) * 1999-09-22 2005-10-25 Mindspeed Technologies, Inc. Fixed rate speech compression system and method
US7233896B2 (en) * 2002-07-30 2007-06-19 Motorola Inc. Regular-pulse excitation speech coder
US7451091B2 (en) * 2003-10-07 2008-11-11 Matsushita Electric Industrial Co., Ltd. Method for determining time borders and frequency resolutions for spectral envelope coding

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01293399A (ja) * 1988-05-20 1989-11-27 Nec Corp 音声符号化復号化装置及び音声符号化装置ならびに音声復号化装置
US6041298A (en) * 1996-10-09 2000-03-21 Nokia Mobile Phones, Ltd. Method for synthesizing a frame of a speech signal with a computed stochastic excitation part

Also Published As

Publication number Publication date
KR20070029751A (ko) 2007-03-14
EP1761916A1 (en) 2007-03-14
US20080275709A1 (en) 2008-11-06
WO2006000956A1 (en) 2006-01-05
CN101099199A (zh) 2008-01-02

Similar Documents

Publication Publication Date Title
US10249313B2 (en) Adaptive bandwidth extension and apparatus for the same
TWI455114B (zh) 多模式音訊編解碼器及其適用碼簿激發線性預測編碼技術
US6260009B1 (en) CELP-based to CELP-based vocoder packet translation
US10026411B2 (en) Speech encoding utilizing independent manipulation of signal and noise spectrum
US8392178B2 (en) Pitch lag vectors for speech encoding
JP2008503786A (ja) オーディオ信号の符号化及び復号化
KR20090073253A (ko) 스피치 신호에서 천이 프레임을 코딩하기 위한 방법 및 장치
USRE43099E1 (en) Speech coder methods and systems
EP1756807B1 (en) Audio encoding
KR101849613B1 (ko) 스피치 관련 스펙트럼 정형 정보를 사용하는 오디오 신호의 인코딩 및 오디오 신호의 디코딩을 위한 개념
RU2644123C2 (ru) Принцип для кодирования аудиосигнала и декодирования аудиосигнала с использованием детерминированной и шумоподобной информации
KR100389895B1 (ko) 음성 부호화 및 복호화방법 및 그 장치
WO2004090864A2 (en) Method and apparatus for the encoding and decoding of speech
JP3510168B2 (ja) 音声符号化方法及び音声復号化方法
JP2853170B2 (ja) 音声符号化復号化方式
KR20100006491A (ko) 무성음 부호화 및 복호화 방법 및 장치
JPH06130994A (ja) 音声符号化方法
JP3071800B2 (ja) 適応ポストフィルタ
Unver Advanced Low Bit-Rate Speech Coding Below 2.4 Kbps

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080612

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110614

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20111122