JP6503051B2 - オーディオ信号を処理するための方法および装置、オーディオデコーダならびにオーディオエンコーダ - Google Patents

オーディオ信号を処理するための方法および装置、オーディオデコーダならびにオーディオエンコーダ Download PDF

Info

Publication number
JP6503051B2
JP6503051B2 JP2017504689A JP2017504689A JP6503051B2 JP 6503051 B2 JP6503051 B2 JP 6503051B2 JP 2017504689 A JP2017504689 A JP 2017504689A JP 2017504689 A JP2017504689 A JP 2017504689A JP 6503051 B2 JP6503051 B2 JP 6503051B2
Authority
JP
Japan
Prior art keywords
filter
current frame
filtered
filtering
audio signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017504689A
Other languages
English (en)
Other versions
JP2017522606A (ja
Inventor
エマニュエル ラベリ
エマニュエル ラベリ
マヌエル ジャンダー
マヌエル ジャンダー
グジェゴジュ ピェトルズィク
グジェゴジュ ピェトルズィク
マルティーン ディーツ
マルティーン ディーツ
マルク ゲイヤー
マルク ゲイヤー
Original Assignee
フラウンホッファー−ゲゼルシャフト ツァ フェルダールング デァ アンゲヴァンテン フォアシュンク エー.ファオ
フラウンホッファー−ゲゼルシャフト ツァ フェルダールング デァ アンゲヴァンテン フォアシュンク エー.ファオ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by フラウンホッファー−ゲゼルシャフト ツァ フェルダールング デァ アンゲヴァンテン フォアシュンク エー.ファオ, フラウンホッファー−ゲゼルシャフト ツァ フェルダールング デァ アンゲヴァンテン フォアシュンク エー.ファオ filed Critical フラウンホッファー−ゲゼルシャフト ツァ フェルダールング デァ アンゲヴァンテン フォアシュンク エー.ファオ
Publication of JP2017522606A publication Critical patent/JP2017522606A/ja
Application granted granted Critical
Publication of JP6503051B2 publication Critical patent/JP6503051B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/06Determination or coding of the spectral characteristics, e.g. of the short-term prediction coefficients
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/26Pre-filtering or post-filtering
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/005Correction of errors induced by the transmission channel, if related to the coding algorithm
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • G10L19/022Blocking, i.e. grouping of samples in time; Choice of analysis windows; Overlap factoring
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • G10L19/03Spectral prediction for preventing pre-echo; Temporary noise shaping [TNS], e.g. in MPEG2 or MPEG4
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/08Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
    • G10L19/09Long term prediction, i.e. removing periodical redundancies, e.g. by using adaptive codebook or pitch predictor
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/08Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
    • G10L19/12Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters the excitation function being a code excitation, e.g. in code excited linear prediction [CELP] vocoders
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/16Vocoder architecture
    • G10L19/18Vocoders using multiple modes
    • G10L19/20Vocoders using multiple modes using sound class specific coding, hybrid encoders or object based coding
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • G10L21/0264Noise filtering characterised by the type of parameter measurement, e.g. correlation techniques, zero crossing techniques or predictive techniques
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03MCODING; DECODING; CODE CONVERSION IN GENERAL
    • H03M7/00Conversion of a code where information is represented by a given sequence or number of digits to a code where the same, similar or subset of information is represented by a different sequence or number of digits
    • H03M7/30Compression; Expansion; Suppression of unnecessary data, e.g. redundancy reduction
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L2019/0001Codebooks
    • G10L2019/0011Long term prediction filters, i.e. pitch estimation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0316Speech enhancement, e.g. noise reduction or echo cancellation by changing the amplitude
    • G10L21/0364Speech enhancement, e.g. noise reduction or echo cancellation by changing the amplitude for improving intelligibility
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • G11B27/038Cross-faders therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04BTRANSMISSION
    • H04B1/00Details of transmission systems, not covered by a single one of groups H04B3/00 - H04B13/00; Details of transmission systems not characterised by the medium used for transmission
    • H04B1/06Receivers
    • H04B1/10Means associated with receiver for limiting or suppressing noise or interference
    • H04B1/1027Means associated with receiver for limiting or suppressing noise or interference assessing signal quality or detecting noise/interference for the received signal

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Computational Linguistics (AREA)
  • Signal Processing (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Quality & Reliability (AREA)
  • Theoretical Computer Science (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Signal Processing For Digital Recording And Reproducing (AREA)
  • Transmission Systems Not Characterized By The Medium Used For Transmission (AREA)
  • Soundproofing, Sound Blocking, And Sound Damping (AREA)
  • Stereophonic System (AREA)

Description

本発明は、オーディオ信号の分野に関し、より具体的には、複数のオーディオフレームを含むオーディオ信号を処理するための方法に関し、連続的なフィルタ処理されたオーディオフレームの間の不連続点が低減されるか、または除かれる。
オーディオ信号処理の分野において、オーディオ信号は、さまざまな理由、たとえば、長期予測フィルタが、オーディオ信号におけるハーモニックスのセットを完全に減衰するか、または、さらに抑制するために、オーディオ信号エンコーダで用いられうるために、フィルタ処理されうる。
オーディオ信号は、複数のオーディオフレームを含み、フレームは、長期予測フィルタを用いてフィルタ処理される。オーディオ信号の2つの連続フレームを考慮する場合、過去フレームおよび現フレーム、パラメータcのセットを有する線形フィルタH(z)が、オーディオ信号をフィルタ処理するために使用される。より具体的には、過去フレームは、いわゆるフィルタ処理された過去フレームを作り出すパラメータc0の最初のセットを使用して、フィルタH(z)を用いてフィルタ処理される。現フレームは、フィルタ処理された現フレームを作り出すパラメータc1のセットを使用して、フィルタH(z)を用いてフィルタ処理される。図1は、周知の方法に従ってオーディオ信号の連続フレームを処理するためのブロック図である。複数のオーディオフレームを含むオーディオ信号100が供給される。オーディオ信号100は、フィルタブロック102に供給され、そして、オーディオ信号100の現フレームnがフィルタ処理される。オーディオ信号100の側のフィルタブロックは、オーディオ信号の現フレームのためのフィルタパラメータcnのセットを受信する。フィルタブロック102は、オーディオ信号の現フレームnをフィルタ処理し、そして、連続的にフィルタ処理されたフレームを含むフィルタ処理されたオーディオ信号104を出力する。図1において、フィルタ処理された現フレームn、フィルタ処理された過去フレームn−1およびフィルタ処理された最後から2番目のフレームn−2が概略的に表現される。フィルタ処理されたフレームは、フィルタ処理されたフレームの間のフィルタ処理によって取り込まれうる不連続点106a,106bを概略的に示すために、その間のそれぞれのギャップを用いて、図1において、概略的に表現される。フィルタブロック102は、過去フレームn−1および現フレームnのためのそれぞれのフィルタパラメータc0およびc1を用いて、オーディオ信号のフレームのフィルタ処理をもたらす。一般に、フィルタブロック102は、線形フィルタH(z)でありえ、この種の線形フィルタH(z)の1つの例は、上述した長期予測フィルタ

H(z)=1−g・z-T

である。ここで、フィルタパラメータは、ゲイン「g」およびピッチラグ「T」である。より一般的な形において、長期予測フィルタは、以下のように記載されうる。

H(z)=1−g・A(z)・z-T

ここで、A(z)はFIRフィルタである。長期予測フィルタは、オーディオ信号においてハーモニックスのセットを完全に減衰するか、または、さらに抑制するために、使用されうる。しかしながら、この種の長期予測フィルタを使用する場合、そして、過去フレームのフィルタパラメータc0が、現フレームのフィルタパラメータc1と異なる場合、フィルタ処理された過去フレームn−1とフィルタ処理された現フレームnとの間において、不連続点106a,106b(図1を参照)を取り入れる高い確率がある。この不連続点は、フィルタ処理されたオーディオ信号104において、たとえば、「クリック」において、アーティファクトを作り出しうる。
それゆえに、今回は、望まれていないアーティファクトを作り出しうる不連続点を結果として得る連続フレームのフィルタ処理の有する上記した課題からみて、可能な不連続点を取り除く技術が必要である。オーディオ信号のフィルタ処理されたフレームの不連続点の除去を取り扱っているいくつかの技術方法は、公知技術である。
線形フィルタH(z)がFIRフィルタである場合において、現フレームは、フィルタ処理された現フレームを作り出すために現フレームのフィルタパラメータc1を用いてフィルタ処理される。加えて、現フレームの最初の部分は、フィルタ処理されたフレーム部分を作り出すために過去フレームのフィルタパラメータc0を用いてフィルタ処理され、そうすると、重畳加算またはクロスフェード演算がフィルタ処理された現フレームおよびフィルタ処理されたフレーム部分の最初の部分を通じて実行される。図2は、不連続点を取り除くために連続的なオーディオフレームを処理するためのこの種の従来の方法のブロック図を示す。図1と比較したとき、フィルタブロック102は、重畳加算またはクロスフェード演算を実行するためのさらなる処理ブロック108を含む。フィルタ処理されたオーディオ信号104において、図1のギャップのない連続的なフィルタ処理されたフレームn,n−1,およびn−2を示している図2において概略的に示されるように、連続的なフィルタされたフレームの間の不連続点がないか、低減されうる。
他の従来技術の方法において、フィルタH(z)は、再帰的要素を有するフィルタ、たとえば、IIRフィルタでありうる。この種の場合において、図2に関して上記のとおりの方法は、サンプルごとに適用される。第1のステップにおいて、処理は、第1のフィルタ処理されたサンプルを得ている過去フレームn−1のフィルタパラメータc0を用いてフィルタ処理された現フレームnの最初の部分の第1のサンプルから始める。サンプルは、第2のフィルタ処理されたサンプルを作り出す現フレームnのフィルタパラメータc1でフィルタ処理される。それから、重畳加算またはクロスフェード演算が、フィルタ処理された現フレームnのサンプルに対応して得る第1および第2のフィルタ処理されたサンプルに基づいて実行される。それから、次のサンプルが処理され、そして、現フレームnの最初の部分の最後のサンプルが処理されるまで、上記ステップは繰り返される。現フレームnの残りのサンプルは、現フレームnのフィルタパラメータc1を用いて処理される。
連続的なフィルタ処理されたフレームから不連続点を取り除くための上述の周知の方法のための例は、たとえば、変換コーダに関連して米国特許第5012517号(特許文献1)において、スピーチ帯域拡大に関連して欧州特許第0732687号(特許文献2)において、変換オーディオコーダに関連して米国特許第5999899号(特許文献3)において、または、復号化されたスピーチポストフィルタに関連して米国特許第7353168号(特許文献4)において記載されている。
上記の方法は、望まれていない信号の不連続点を取り除くために効率的である一方、これらの方法は、効果的であるための現フレーム(最初の部分)の特定部分を動作するので、フレーム部分の長さが、十分に長く、たとえば、20msのフレーム長さの場合、フレーム部分または最初の部分の長さは、5msの長さと同じくらいでありうる。特定の場合、これは、あまりに長く、特に、状況において、過去フレームのフィルタパラメータc0が現フレームに当てはまらず、これは、付加的なアーティファクトを結果として得る。1つの例は、急速に変化するピッチを有するハーモニックオーディオ信号であり、そして、長期予測フィルタは、ハーモニックスの振幅を低減するように設計される。その場合において、ピッチラグは、あるフレームから次のフレームまで異なる。現フレームにおける推定されたピッチを有する長期予測フィルタは、現フレームにおけるハーモニックスの振幅を効果的に低減するが、しかし、オーディオ信号のピッチが異なる他のフレーム(たとえば、次のフレームの最初の部分)において使用される場合、それは、ハーモニックスの振幅を低減しないだろう。信号における非調和に関連した要素の振幅を低減することによって、信号における歪みを取り込むように、事態を悪化さえさせうる。
米国特許第5012517号明細書 欧州特許第0732687号明細書 米国特許第5999899号明細書 米国特許第7353168号明細書
フィルタされたオーディオ信号におけるいかなる潜在的な歪みを作り出すことなく、フィルタされたオーディオフレームの中の不連続点を取り除くための改良された方法を提供することが本発明の基本的な目的である。
この目的は、独立クレームに記載の方法および装置によって達成される。
本発明は、オーディオ信号を処理する方法を提供し、方法は、線形予測フィルタ処理を使用してオーディオ信号のフィルタ処理された過去フレームとフィルタ処理された現フレームとの間の不連続点を取り除くステップを含む。
線形予測フィルタは、
Figure 0006503051
として定義され、Mはフィルタの次数であり、amは、フィルタ係数(a0=1を有する)である。この種のフィルタは、線形予測符号化(Linear Predictive Coding;LPC)としても公知である。
実施態様によれば、方法は、オーディオ信号の現フレームをフィルタ処理するステップと、過去フレームの最後の一部に基づいて定義される線形予測フィルタの初期状態を用いて所定の信号を線形予測フィルタ処理することによって得られる信号によってフィルタ処理された現フレームの最初の部分を修正することによって不連続点を取り除くステップと、を含む。
実施形態によれば、線形予測フィルタの初期状態は、現フレームをフィルタ処理するためのフィルタパラメータのセットを用いてフィルタ処理された、フィルタ処理されていない過去フレームの最後の一部に基づいて定義される。
実施形態によれば、方法は、フィルタ処理されたまたはフィルタ処理されていないオーディオ信号における線形予測フィルタを推定するステップを含む。
実施形態によれば、線形予測フィルタを推定するステップは、レビンソン−ダービン・アルゴリズムを用いて、オーディオ信号の過去または現フレーム基づくか、または、オーディオ信号の過去のフィルタ処理されたフレームに基づくフィルタを推定するステップを含む。
実施形態によれば、線形予測フィルタは、オーディオ・コーデックの線形予測フィルタを含む。
実施形態によれば、不連続点を取り除くステップは、フィルタ処理された現フレームの最初の部分を処理するステップを含み、現フレームの最初の部分は、現フレームにおけるサンプルの合計以下である所定のサンプル数を有し、そして、現フレームの最初の部分を処理するステップは、フィルタ処理された現フレームの最初の部分からゼロ入力応答(zero−input−response;ZIR)の最初の部分を取り去るステップを含む。
実施形態によれば、方法は、フィルタ処理された現フレームを作り出すために、FIRフィルタのような非再帰フィルタを用いて、オーディオ信号の現フレームをフィルタ処理するステップを含む。
実施形態によれば、方法は、IIRフィルタのような再帰フィルタを用いてサンプルごとにオーディオ信号のフィルタ処理されていない現フレームを処理するステップを含み、そして、現フレームの最初の部分のサンプルを処理するステップは、
フィルタ処理されたサンプルを作り出すために、現フレームのフィルタパラメータを用いて再帰フィルタによりサンプルをフィルタ処理するステップと、
フィルタ処理された現フレームの対応するサンプルを作り出すために、フィルタ処理されたサンプルから対応するZIRサンプルを取り去るステップと、を含む。
実施形態によれば、フィルタ処理するステップおよび取り去るステップは、現フレームの最初の部分における最後のサンプルが処理されるまで、繰り返され、方法は、現フレームのフィルタパラメータを用いて、再帰フィルタにより現フレームにおける残りのサンプルをフィルタ処理するステップをさらに含む。
実施形態によれば、方法は、ZIRを生成するステップを含み、ZIRを生成するステップは、
フィルタ処理された信号の第1部分を作り出すために、フィルタおよび現フレームをフィルタ処理するために使用されるフィルタパラメータを用いて、フィルタ処理されていない過去フレームのM個の最後のサンプルをフィルタ処理するステップであって、Mは、線形予測フィルタの次数である、フィルタ処理するステップと、
フィルタ処理された信号の第2部分を生成するために、過去フレームのフィルタパラメータを用いてフィルタ処理された、フィルタ処理された過去フレームのM個の最後のサンプルを、フィルタ処理された信号の第1部分から取り去るステップと、
線形予測フィルタおよびフィルタ処理された信号の第2部分に等しい初期状態を用いてゼロサンプルのフレームをフィルタ処理することによって、線形予測フィルタのZIRを生成するステップと、を含む。
実施形態によれば、方法は、その振幅が急速にゼロに減少するようなZIRのウィンドウ処理を含む。
本発明は、前述の追加の不必要な歪みを結果として得る信号の不連続点を取り除くための従来の方法において認識された問題が、主に、過去フレームのためのフィルタパラメータに基づいて現フレームまたは少なくともその部分の処理に起因するといった発明者の知見に基づく。本発明の方法によれば、これは回避される。すなわち、本発明の方法は、過去フレームのフィルタパラメータを用いて現フレームの部分をフィルタ処理せず、前述の課題を回避する。実施形態によれば、不連続点を取り除くために、LPC(linear predictive filter)フィルタ(線形予測フィルタ)が不連続点を取り除くために使用される。LPCフィルタは、オーディオ信号において推定され、したがって、LPCフィルタを用いた場合、オーディオ信号のスペクトル形状が不連続点をマスキングするために、オーディオ信号のスペクトル形状の良好なモデルである。実施形態において、LPCフィルタは、フィルタ処理されていないオーディオ信号に基づくか、または、前述の線形フィルタH(z)によってフィルタ処理されたオーディオ信号に基づいて、推定されうる。実施形態によれば、LPCフィルタは、オーディオ信号、たとえば、現フレームおよび/または過去フレーム、ならびにレビンソン−ダービン・アルゴリズムを用いることによって推定されうる。それは、レビンソン−ダービン・アルゴリズムを用いて、過去のフィルタ処理されたフレーム信号のみに基づいて、計算されることもできる。
さらに、他の実施形態において、オーディオ信号を処理するためのオーディオ・コーデックは、線形フィルタH(z)を使用し、そして、変換ベースのオーディオ・コーデックにおける量子化ノイズを形づくるために、たとえば、量子化されるか、または、されない、LPCフィルタを使用することもできる。この種の実施形態において、この既存のLPCフィルタが、新規なLPCフィルタを推定するために必要な付加的な複雑さのない不連続点を平滑化するために、直接使用されうる。
以下に、本発明の実施形態は、添付の図面を参照して説明される。
図1は、従来の方法に従うオーディオ信号の連続フレームを処理するためのブロック図を示す。 図2は、不連続点を取り除くための連続オーディオフレームを処理するのための他の従来の方法のブロック図を示す。 図3は、エンコーダ側および/またはデコーダ側でのオーディオ信号の連続フレームの間の不連続点を取り除くための本発明の方法を実施しているオーディオ信号を送信するためのシステムの簡略化したブロック図を示す。 図4は、実施形態によるオーディオ信号の連続フレームの間の不連続点を取り除くための本発明の方法を表現しているフロー図を示す。 図5は、不連続点の取り除くにもかかわらず、出力信号において望まれていない歪みを回避している本発明の実施形態による現オーディオフレームを処理するための概略ブロック図を示す。 図6は、ZIRを生成するための図5のブロックの機能を表しているフロー図を示す。 図7は、フィルタブロックが、IIRフィルタのような再帰フィルタを含む場合におけるフィルタ処理された現フレームの最初の部分を処理するための図5におけるブロックの機能を表しているフロー図を示す。 図8は、フィルタブロックが、FIRフィルタのような非再帰フィルタを含む場合におけるフィルタ処理された現フレームの最初の部分を処理するための図5におけるブロックの機能を表しているフロー図を示す。
以下において、発明の方法の実施形態は、より詳細に説明される。そして、なお、添付の図面において、同じまたは類似の機能を有する要素は、同じ参照番号によって表示される。
図3は、エンコーダ側および/またはデコーダ側での発明の方法を実施しているオーディオ信号を送信するためのシステムの簡略化したブロック図を示す。図3のシステムは、オーディオ信号204を入力装置202において受信しているエンコーダ200を含む。エンコーダは、オーディオ信号204を受信している符号化プロセッサ206を含み、エンコーダの出力装置208で供給される符号化オーディオ信号を生成する。符号化プロセッサは、不連続点を回避するために受信されるオーディオ信号の連続オーディオフレームを処理するための発明の方法を実施するためにプログラムされるか、または構築されうる。他の実施形態において、エンコーダは、送信システムの一部であることを必要としないが、符号化されたオーディオ信号を生成することは独立型装置であるか、または、オーディオ信号送信器の一部でありうる。実施形態によれば、エンコーダ200は、212で示されるように、オーディオ信号の無線通信を許容するためのアンテナ210を含みうる。他の実施形態において、エンコーダ200は、たとえば、参照符合214で示されるように、有線の接続線を用いて、出力装置208で供給される符号化オーディオ信号を出力しうる。
図3のシステムは、たとえば、有線214またはアンテナ254を介して、エンコーダ250によって処理される符号化オーディオ信号を受信する入力装置252を有するデコーダ250をさらに含む。エンコーダ250は、符号化信号において作動し、出力装置260で復号化オーディオ信号258を供給している復号化プロセッサ256を含む。復号化プロセッサ256は、不連続点が回避されるというような方法で、フィルタ処理される連続フレームにおける発明の方法に従って作動するために実施されうる。他の実施形態において、デコーダは、送信システムの一部である必要はなく、むしろ、符号化オーディオ信号を復号化するための独立型装置でもよく、あるいは、オーディオ信号受信器の一部でもよい。
以下において、符号化プロセッサ206および復号化プロセッサ256のうちの少なくとも1つにおいて実施されうる本発明の方法の実施形態が、さらに詳細に記載される。図4は、本発明の方法の実施形態に従うオーディオ信号の現フレームを処理するためのフロー図を示す。現フレームの処理が記載され、そして、過去フレームが後述する同じ技術を用いて既に処理されると仮定される。本発明によれば、ステップS100において、オーディオ信号の現フレームが受信される。現フレームは、たとえば、図1および図2(フィルタブロック102を参照)に関して上記のとおりの方法において、ステップS102において、フィルタ処理される。本発明の方法によれば、フィルタ処理された過去フレームn−1とフィルタ処理された現フレームnとの間の不連続点(図1または図2を参照)は、ステップS104で示されるように線形予測フィルタ処理を用いて取り除かれる。実施形態によれば、線形予測フィルタは、
Figure 0006503051
として定義され、Mはフィルタの次数であり、amは、フィルタ係数(a0=1を有する)である。この種のフィルタは、線形予測符号化(Linear Predictive Coding;LPC)としても公知である。実施形態によれば、フィルタ処理された現フレームは、フィルタ処理された現フレームの少なくとも一部に線形予測フィルタ処理を適用することによって処理される。不連続点は、過去フレームの最後の部分に基づいて定義される線形予測符号化フィルタの初期状態を用いて所定の信号を線形予測フィルタ処理することによって得られる信号によってフィルタ処理された現フレームの最初の部分を修正することによって取り除かれうる。線形予測符号化フィルタの初期状態は、現フレームのためのフィルタパラメータのセットを用いてフィルタ処理された過去フレームの最後の部分に基づいて定義されうる。本発明の方法は、過去フレームのために使用されるフィルタ係数を用いてオーディオ信号の現フレームをフィルタ処理する必要はなく、それによって、それらが、図2に関して上記の従来技術の方法において経験があるように、現フレームおよび過去フレームのためのフィルタパラメータの不適当な組み合わせのために起こる課題を回避するとして、有利である。
図5は、不連続点を取り除くにもかかわらず、出力信号において望まれていない歪みを回避する本発明の実施形態によるオーディオ信号の現オーディオフレームを処理するための概略ブロック図を示す。図5において、図1および図2におけるように同じ参照符合が使用される。オーディオ信号100の現フレームnが受信され、そして、オーディオ信号100の各フレームは、複数のサンプルを有する。オーディオ信号100の現フレームnは、フィルタブロック102によって処理される。図1および図2の従来技術の方法と比較した場合、図5に関して記載されるように実施形態によれば、フィルタ処理された現フレームは、ブロック110によって概略的に示されるようにZIRサンプルに基づいてさらに処理される。過去フレームn−1に基づいて、そして、LPCフィルタに基づく、本実施形態によれば、ZIRサンプルは、ブロック112によって概略的に示されるように、作り出される。
処理ブロック110および112の機能は、これから、より詳細に記載される。図6は、ZIRサンプルを生成するための処理ブロック112の機能を表しているフロー図を示す。前述のように、オーディオ信号100のフレームは、それぞれのフレームのために選択され、あるいは決定されたフィルタパラメータcを用いて線形フィルタH(z)によりフィルタ処理される。フィルタH(z)は、たとえば、IIRフィルタである再帰フィルタであり、または、たとえば、FIRフィルタである非再帰フィルタでありうる。処理ブロック112において、量子化されるか、あるいは量子化されないLPCフィルタが用いられる。LPCフィルタは、次数Mであり、そして、フィルタ処理されたあるいはフィルタ処理されていないオーディオ信号に推定されるか、またはオーディオ・コーデックにおいて使用されもしたLPCフィルタでありうる。ステップS200において、過去フレームn−1のM(M=LPCフィルタの次数)個の最後のサンプルは、また、現フレームnのフィルタパラメータまたは係数c1を用いて、フィルタH(z)によりフィルタ処理される。ステップS200は、このことにより、フィルタ処理された信号の第1部分を作り出す。ステップS202において、フィルタ処理された過去フレームn−1(過去フレームn−1のフィルタパラメータまたは係数c0を用いてフィルタ処理された過去フレームのM個の最後のサンプル)のM個の最後のサンプルは、ステップS200によって供給されたフィルタ処理された信号の第1部分から取り去られ、それによって、フィルタ処理された信号の第2部分が作り出される。ステップS204において、次数Mを有するLPCフィルタが、適用され、より詳しくは、LPCフィルタのゼロ入力応答(ZIR)が、ゼロサンプルのフレームをフィルタ処理することによって、ステップS204において生成される。ここで、フィルタの初期状態は、フィルタ処理された信号の第2部分に等しく、それによって、ZIRを生成する。実施形態によれば、ZIRは、その振幅が急速にゼロに減少するようなウィンドウ処理をしうる。
図5に関して上記されるように、ZIRは、処理ブロック110において適用され、その機能は、線形フィルタH(z)として、IIRフィルタのような再帰フィルタを用いた場合のために、図7のフロー図に関して記載される。図5に関して記載される実施形態によれば、望まれていない歪みを回避するとともに、現フレームおよび過去フレームの間の不連続点を取り除くために、現フレームnのフィルタ処理ステップは、サンプルごとに現フレームnを処理(フィルタ処理)するステップを含む。ここで、最初の部分のサンプルは、本発明の方法により処理される。さらに具体的には、現フレームnの最初の部分のM個のサンプルが処理され、最初のステップS300において、変数mが0にセットされる。次のステップS302において、現フレームnのサンプルmは、フィルタH(z)および現フレームnのためのフィルタ係数またはパラメータc1を用いてフィルタ処理される。このように、従来の方法の他に、本発明の方法によれば、現フレームは、過去フレームから係数を使用してフィルタ処理されず、結果として、現フレームからのみの係数が、不連続点が取り除かれる事実にもかかわらず、従来の方法において存在する望まれていない歪みを回避する。ステップS302は、フィルタ処理されたサンプルmを得て、そして、ステップS304において、サンプルmに対応するZIRサンプルは、フィルタ処理された現フレームnの対応するサンプルを得ているフィルタ処理されたサンプルmから取り去られる。ステップS306において、現フレームnの最初の部分の最後のサンプルMが処理されるかどうかが決定される。最初の部分のすべてのM個のサンプルが処理されたわけではない場合、変数mは増加し、そして、方法ステップS302からS306が現フレームnの次のサンプルに対して繰り返される。一旦、最初の部分の全てのM個のサンプルが処理されると、ステップS308において、現フレームnの残っているサンプルが、現フレームのフィルタパラメータc1を用いてフィルタ処理され、それにより、連続フレームの間の不連続点の取り除くことに望まれていない歪みを回避している発明の方法に従って、処理されるフィルタ処理された現フレームnを供給する。
他の実施形態によれば、線形フィルタH(z)は、FIRフィルタのような非再帰フィルタであり、そして、ZIRは、図5に関して上述のとおり、処理ブロック110において適用される。この実施形態の機能は、図8のフロー図に関して記載される。ステップS400において、現フレームnは、現フレームのためのフィルタ係数またはパラメータc1を用いてフィルタH(z)によりフィルタ処理される。このように、従来の方法の他に、本発明の実施形態によれば、現フレームは、過去フレームからの係数を用いてフィルタ処理されず、結果として、現フレームからの係数のみで、不連続点を取り除くという事実にもかかわらず、従来の方法において存在する望まれていない歪みを回避する。ステップS402において、ZIRの最初の部分は、フィルタ処理された現フレームの対応する最初の部分から取り去られ、それによって、本発明の方法に従ってフィルタ処理され/処理される最初の部分を有するフィルタ処理された現フレームnを供給し、そして、現フレームのためのフィルタ係数またはパラメータc1を用いてフィルタ処理された部分のみを残し、それによって、連続フレームの間の不連続点の取り除くのに応じて望まれていない歪みを回避する。
本発明の方法は、オーディオ信号がフィルタ処理された場合に、上述のとおりのような状況において適用されうる。実施形態によれば、本発明の方法は、たとえば、信号ハーモニックスの間の符号化ノイズのレベルを低減するためのオーディオ・コーデックポストフィルタを用いる場合、デコーダ側でも適用されうる。デコーダ側でオーディオフレームを処理するために、実施形態によれば、ポストフィルタは、以下の式でありえ、

H(z)=(1−B(z))/(1−A(z)・Z-T

ここで、B(z)およびA(z)は2つのFIRフィルタであり、そして、H(z)フィルタパラメータは、FIRフィルタB(z)およびA(z)の係数であり、そして、Tはピッチラグを示す。この種の筋書きにおいて、たとえば、過去のフィルタのフレームパラメータc0が現フレームのフィルタパラメータc1と異なる場合、フィルタは、2つのフィルタ処理されたフレームの間の不連続点を取り込むこともでき、そして、この種の不連続点は、たとえば、「クリック」のようなフィルタ処理されたオーディオ信号104におけるアーティファクトを作り出しうる。この不連続点は、詳細に上述したように、フィルタ処理された現フレームを処理することによって取り除かれる。
記載された概念のいくつかの態様が、装置との関連で記載されるが、これらの態様も、対応する方法の説明を表わすことは明らかであり、ブロックあるいはデバイスは、方法のステップ、または方法のステップの特徴に対応する。類似して、方法のステップとの関連で記載される態様は、装置に対応する、ブロック、アイテムまたは特徴の説明を表す。
特定の実現要求に応じて、本発明の実施の形態は、ハードウェアにおいて、または、ソフトウェアにおいて、実行されうる。その実現態様は、それぞれの方法が実行されるように、プログラミング可能なコンピュータ・システムと協働するか、(または、協働することができる、)そこに格納された電子的に読み込み可能な制御信号を有するデジタル記憶媒体、たとえば、フロッピー(登録商標)ディスク、DVD、ブルーレイディスク、CD、ROM、PROM、EPROM、EEPROM、またはFLASHメモリを使用して実行されうる。従って、デジタル記憶媒体は、コンピュータ読み込み可能でもよい。
本発明による若干の実施の形態は、本願明細書において記載される方法のうちの1つが実行されるように、プログラミング可能なコンピュータ・システムと協働することができる電子的に読み込み可能な信号を有するデータキャリアを含む。
通常、本発明の実施の形態は、プログラムコードを有するコンピュータ・プログラム製品として実施され、コンピュータ・プログラム製品がコンピュータ上で実行する場合、プログラムコードは、方法のうちの1つを実行するために作動される。プログラムコードは、機械可読キャリアに、たとえば、格納されうる。
他の実施の形態は、機械可読キャリアに格納され、本願明細書において記載される方法のうちの1つを実行するためのコンピュータ・プログラムを含む。
換言すれば、従って、コンピュータ・プログラムがコンピュータ上で実行する場合、本発明の方法の実施の形態は、本願明細書において記載される方法のうちの1つを実行するためのプログラムコードを含むコンピュータ・プログラムである。
従って、本発明の方法の更なる実施の形態は、その上に記録され、本願明細書において記載される方法のうちの1つを実行するためのコンピュータ・プログラムを含むデータキャリア(または、デジタル記憶媒体、またはコンピュータ可読媒体)である。
従って、本発明の方法の更なる実施の形態は、本願明細書において記載される方法のうちの1つを実行するためのコンピュータ・プログラムを表しているデータストリームまたは一連の信号である。たとえば、データストリームまたは一連の信号は、データ通信接続、たとえば、インターネットを介して転送されるように構成されうる。
更なる実施の形態は、本願明細書において記載される方法のうちの1つを実行するために構成され、または適応される処理手段、たとえば、コンピュータ、またはプログラミング可能な論理回路を含む。
更なる実施の形態は、その上にインストールされ、本願明細書において記載される方法のうちの1つを実行するためのコンピュータ・プログラムを有するコンピュータを含む。
いくつかの実施の形態において、プログラミング可能な論理回路(たとえば、現場でプログラム可能なゲートアレイ(FPGA:Field Programmable Gate Array))が、本願明細書において記載されるいくつかまたは全ての機能を実行するために使用されうる。いくつかの実施の形態において、現場でプログラム可能なゲートアレイは、本願明細書において記載される方法の1つを実行するために、マイクロプロセッサと協働しうる。一般に、方法は、いくつかのハードウェア装置によって、好ましくは実行される。
上述した実施の形態は、本発明の原則の例を表すだけである。本願明細書において記載される装置の修正および変更は、他の当業者にとって明らかであるものと理解される。従って、間近に迫った特許請求の範囲だけによってのみ制限され、ならびに、本願発明の記述および説明によって表された明細書の詳細な記載によっては、制限されないことが真意である。

Claims (14)

  1. オーディオ信号(100)を処理する方法であって、前記方法は、
    線形予測フィルタ処理を使用して前記オーディオ信号のフィルタ処理された過去フレームとフィルタ処理された現フレームとの間の不連続点(106a,106b)を取り除くステップ(S102,S104,S300−S308,S400−S402)を含み、
    前記方法は、前記オーディオ信号の前記現フレームをフィルタ処理するステップと、前記現フレームをフィルタ処理するためのフィルタパラメータのセットを用いてフィルタ処理された、フィルタ処理されていない前記過去フレームの最後の一部に基づいて定義される前記線形予測フィルタの初期状態を用いて所定の信号を線形予測フィルタ処理することによって得られる信号によってフィルタ処理された前記現フレームの最初の部分を修正することによって前記不連続点を取り除くステップと、
    を含む、方法。
  2. ィルタ処理されたまたはフィルタ処理されていない前記オーディオ信号(100)における前記線形予測フィルタを推定するステップをさらに含む、請求項1に記載の方法。
  3. 前記線形予測フィルタを推定するステップは、レビンソン−ダービン・アルゴリズムを用いて、前記オーディオ信号(100)の前記過去および/または現フレームに基づいて、または、前記オーディオ信号(100)のフィルタ処理された前記過去のフレームに基いて前記フィルタを推定するステップを含む、請求項2に記載の方法。
  4. 前記線形予測フィルタは、オーディオ・コーデックの線形予測フィルタを含む、請求項1に記載の方法。
  5. 前記不連続点を取り除くステップは、フィルタ処理された前記現フレームの前記最初の部分を処理するステップを含み、前記現フレームの前記最初の部分は、前記現フレームにおけるサンプルの合計以下である所定のサンプル数を有し、そして、前記現フレームの前記最初の部分を処理するステップは、フィルタ処理された前記現フレームの前記最初の部分からゼロ入力応答(ZIR)の最初の部分を取り去るステップ(S304,S402)を含む、請求項1ないし請求項4のいずれかに記載の方法。
  6. ィルタ処理された前記現フレームを作り出すために、FIRフィルタのような非再帰フィルタを用いて、前記オーディオ信号の前記現フレームをフィルタ処理するステップ(S400)を含む、請求項5に記載の方法。
  7. IIRフィルタのような再帰フィルタを用いてサンプルごとに前記オーディオ信号のフィルタ処理されていない前記現フレームを処理するステップを含み、そして、前記現フレームの前記最初の部分のサンプルを処理するステップは、
    フィルタ処理されたサンプルを作り出すために、前記現フレームの前記フィルタパラメータを用いて前記再帰フィルタにより前記サンプルをフィルタ処理するステップ(S302)と、
    ィルタ処理された前記現フレームの対応するサンプルを作り出すために、前記フィルタ処理されたサンプルから対応するZIRサンプルを取り去るステップ(S304)と、
    を含む、請求項5に記載の方法。
  8. フィルタ処理するステップ(S302)および取り去るステップ(S304)は、前記現フレームの前記最初の部分における前記最後のサンプルが処理されるまで、繰り返され、そして、前記方法は、前記現フレームの前記フィルタパラメータを用いて、前記再帰フィルタにより前記現フレームにおける前記残りのサンプルをフィルタ処理するステップ(S306)を、さらに含む、請求項7に記載の方法。
  9. 前記ZIRを生成するステップを含み、
    前記ZIRを生成するステップは、
    フィルタ処理された信号の第1部分を作り出すために、前記フィルタおよび前記現フレームをフィルタ処理するために使用される前記フィルタパラメータを用いて、フィルタ処理されていない前記過去フレームのM個の前記最後のサンプルをフィルタ処理するステップ(S200)であって、Mは、前記線形予測フィルタの次数である、フィルタ処理するステップと、
    フィルタ処理された信号の第2部分を生成するために、前記過去フレームの前記フィルタパラメータを用いてフィルタ処理された、フィルタ処理された前記過去フレームの前記M個の最後のサンプルを、フィルタ処理された信号の前記第1部分から取り去るステップ(S202)と、
    前記線形予測フィルタおよびフィルタ処理された信号の前記第2部分に等しい初期状態を用いてゼロサンプルのフレームをフィルタ処理することによって、線形予測フィルタのZIRを生成するステップ(S204)と、
    を含む、請求項5ないし請求項8のいずれかに記載の方法。
  10. その振幅が急速にゼロに減少するようなZIRのウィンドウ処理を含む、請求項9に記載の方法。
  11. コンピュータ・プログラムが、コンピュータにおいて実行される場合、請求項1ないし請求項10のうちの1つの方法を実行するためのコンピュータ・プログラム。
  12. オーディオ信号(100)を処理するための装置であって、前記装置は、
    前記オーディオ信号のフィルタ処理された過去フレームとフィルタ処理された現フレームとの間の不連続点を取り除くために、線形予測フィルタ処理を使用するように構成されるプロセッサ(102,110,112)を含み、
    前記プロセッサ(102,110,112)は、前記オーディオ信号の前記現フレームをフィルタ処理し、そして、前記現フレームをフィルタ処理するためのフィルタパラメータのセットを用いてフィルタ処理された、フィルタ処理されていない前記過去フレームの最後の一部に基づいて定義される前記線形予測フィルタの初期状態を用いて所定の信号を線形予測フィルタ処理することによって得られる信号によってフィルタ処理された前記現フレームの最初の部分を修正することによって前記不連続点を取り除くように構成される、装置。
  13. 請求項12の装置を含む、オーディオデコーダ(250)。
  14. 請求項12の装置を含む、オーディオエンコーダ(200)。
JP2017504689A 2014-07-28 2015-07-03 オーディオ信号を処理するための方法および装置、オーディオデコーダならびにオーディオエンコーダ Active JP6503051B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP14178821.6A EP2980796A1 (en) 2014-07-28 2014-07-28 Method and apparatus for processing an audio signal, audio decoder, and audio encoder
EP14178821.6 2014-07-28
PCT/EP2015/065219 WO2016015950A1 (en) 2014-07-28 2015-07-03 Method and apparatus for precessing an audio signal, audio decoder, and audio encoder

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2019054137A Division JP6864382B2 (ja) 2014-07-28 2019-03-22 オーディオ信号を処理するための方法および装置、オーディオデコーダならびにオーディオエンコーダ

Publications (2)

Publication Number Publication Date
JP2017522606A JP2017522606A (ja) 2017-08-10
JP6503051B2 true JP6503051B2 (ja) 2019-04-17

Family

ID=51224879

Family Applications (4)

Application Number Title Priority Date Filing Date
JP2017504689A Active JP6503051B2 (ja) 2014-07-28 2015-07-03 オーディオ信号を処理するための方法および装置、オーディオデコーダならびにオーディオエンコーダ
JP2019054137A Active JP6864382B2 (ja) 2014-07-28 2019-03-22 オーディオ信号を処理するための方法および装置、オーディオデコーダならびにオーディオエンコーダ
JP2021052578A Active JP7202545B2 (ja) 2014-07-28 2021-03-26 オーディオ信号を処理するための方法および装置、オーディオデコーダならびにオーディオエンコーダ
JP2022196100A Pending JP2023036651A (ja) 2014-07-28 2022-12-08 オーディオ信号を処理するための方法および装置、オーディオデコーダならびにオーディオエンコーダ

Family Applications After (3)

Application Number Title Priority Date Filing Date
JP2019054137A Active JP6864382B2 (ja) 2014-07-28 2019-03-22 オーディオ信号を処理するための方法および装置、オーディオデコーダならびにオーディオエンコーダ
JP2021052578A Active JP7202545B2 (ja) 2014-07-28 2021-03-26 オーディオ信号を処理するための方法および装置、オーディオデコーダならびにオーディオエンコーダ
JP2022196100A Pending JP2023036651A (ja) 2014-07-28 2022-12-08 オーディオ信号を処理するための方法および装置、オーディオデコーダならびにオーディオエンコーダ

Country Status (18)

Country Link
US (5) US20170133028A1 (ja)
EP (6) EP2980796A1 (ja)
JP (4) JP6503051B2 (ja)
KR (5) KR101997006B1 (ja)
CN (2) CN113012704B (ja)
AR (1) AR101287A1 (ja)
AU (1) AU2015295709B2 (ja)
CA (6) CA3193319A1 (ja)
ES (4) ES2960422T3 (ja)
HK (1) HK1259289A1 (ja)
MX (1) MX362737B (ja)
MY (1) MY179016A (ja)
PL (4) PL4030426T3 (ja)
PT (3) PT3175452T (ja)
RU (1) RU2665282C1 (ja)
SG (1) SG11201700684YA (ja)
TW (1) TWI595480B (ja)
WO (1) WO2016015950A1 (ja)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2980796A1 (en) * 2014-07-28 2016-02-03 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Method and apparatus for processing an audio signal, audio decoder, and audio encoder
EP3483879A1 (en) 2017-11-10 2019-05-15 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Analysis/synthesis windowing function for modulated lapped transformation
EP3483882A1 (en) 2017-11-10 2019-05-15 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Controlling bandwidth in encoders and/or decoders
WO2019091576A1 (en) 2017-11-10 2019-05-16 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Audio encoders, audio decoders, methods and computer programs adapting an encoding and decoding of least significant bits
EP3483884A1 (en) 2017-11-10 2019-05-15 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Signal filtering
EP3483878A1 (en) 2017-11-10 2019-05-15 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Audio decoder supporting a set of different loss concealment tools
WO2019091573A1 (en) 2017-11-10 2019-05-16 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for encoding and decoding an audio signal using downsampling or interpolation of scale parameters
EP3483880A1 (en) 2017-11-10 2019-05-15 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Temporal noise shaping
EP3483886A1 (en) 2017-11-10 2019-05-15 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Selecting pitch lag
EP3483883A1 (en) 2017-11-10 2019-05-15 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Audio coding and decoding with selective postfiltering
CN117040487B (zh) * 2023-10-08 2024-01-02 武汉海微科技有限公司 音频信号处理的滤波方法、装置、设备及存储介质

Family Cites Families (49)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4969192A (en) * 1987-04-06 1990-11-06 Voicecraft, Inc. Vector adaptive predictive coder for speech and audio
US5012517A (en) 1989-04-18 1991-04-30 Pacific Communication Science, Inc. Adaptive transform coder having long term predictor
BR9206143A (pt) * 1991-06-11 1995-01-03 Qualcomm Inc Processos de compressão de final vocal e para codificação de taxa variável de quadros de entrada, aparelho para comprimir im sinal acústico em dados de taxa variável, codificador de prognóstico exitado por córdigo de taxa variável (CELP) e descodificador para descodificar quadros codificados
US5784532A (en) * 1994-02-16 1998-07-21 Qualcomm Incorporated Application specific integrated circuit (ASIC) for performing rapid speech compression in a mobile telephone system
EP0732687B2 (en) 1995-03-13 2005-10-12 Matsushita Electric Industrial Co., Ltd. Apparatus for expanding speech bandwidth
JP3653826B2 (ja) * 1995-10-26 2005-06-02 ソニー株式会社 音声復号化方法及び装置
US5960389A (en) * 1996-11-15 1999-09-28 Nokia Mobile Phones Limited Methods for generating comfort noise during discontinuous transmission
SE9700772D0 (sv) * 1997-03-03 1997-03-03 Ericsson Telefon Ab L M A high resolution post processing method for a speech decoder
FR2762464B1 (fr) * 1997-04-16 1999-06-25 France Telecom Procede et dispositif de codage d'un signal audiofrequence par analyse lpc "avant" et "arriere"
GB2326572A (en) 1997-06-19 1998-12-23 Softsound Limited Low bit rate audio coder and decoder
US7072832B1 (en) 1998-08-24 2006-07-04 Mindspeed Technologies, Inc. System for speech encoding having an adaptive encoding arrangement
GB2356538A (en) * 1999-11-22 2001-05-23 Mitel Corp Comfort noise generation for open discontinuous transmission systems
US6584438B1 (en) * 2000-04-24 2003-06-24 Qualcomm Incorporated Frame erasure compensation method in a variable rate speech coder
US7512535B2 (en) 2001-10-03 2009-03-31 Broadcom Corporation Adaptive postfiltering methods and systems for decoding speech
US20040098255A1 (en) * 2002-11-14 2004-05-20 France Telecom Generalized analysis-by-synthesis speech coding method, and coder implementing such method
AU2003302114A1 (en) * 2002-11-21 2004-06-15 Nippon Telegraph And Telephone Corporation Digital signal processing method, processor thereof, program thereof, and recording medium containing the program
US7613606B2 (en) * 2003-10-02 2009-11-03 Nokia Corporation Speech codecs
CA2457988A1 (en) 2004-02-18 2005-08-18 Voiceage Corporation Methods and devices for audio compression based on acelp/tcx coding and multi-rate lattice vector quantization
US7930184B2 (en) * 2004-08-04 2011-04-19 Dts, Inc. Multi-channel audio coding/decoding of random access points and transients
JP4606264B2 (ja) * 2005-07-19 2011-01-05 三洋電機株式会社 ノイズキャンセラ
EP2030199B1 (en) * 2006-05-30 2009-10-28 Koninklijke Philips Electronics N.V. Linear predictive coding of an audio signal
CN101197134A (zh) * 2006-12-05 2008-06-11 华为技术有限公司 消除编码模式切换影响的方法和装置以及解码方法和装置
US8000969B2 (en) * 2006-12-19 2011-08-16 Nuance Communications, Inc. Inferring switching conditions for switching between modalities in a speech application environment extended for interactive text exchanges
CN101231850B (zh) * 2007-01-23 2012-02-29 华为技术有限公司 编解码方法及装置
US8069051B2 (en) * 2007-09-25 2011-11-29 Apple Inc. Zero-gap playback using predictive mixing
CN101527138B (zh) * 2008-03-05 2011-12-28 华为技术有限公司 超宽带扩展编码、解码方法、编解码器及超宽带扩展系统
EP2104096B1 (en) * 2008-03-20 2020-05-06 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for converting an audio signal into a parameterized representation, apparatus and method for modifying a parameterized representation, apparatus and method for synthesizing a parameterized representation of an audio signal
CA2871268C (en) * 2008-07-11 2015-11-03 Nikolaus Rettelbach Audio encoder, audio decoder, methods for encoding and decoding an audio signal, audio stream and computer program
MX2011000369A (es) * 2008-07-11 2011-07-29 Ten Forschung Ev Fraunhofer Codificador y decodificador de audio para codificar marcos de señales de audio muestreadas.
ES2683077T3 (es) * 2008-07-11 2018-09-24 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Codificador y decodificador de audio para codificar y decodificar tramas de una señal de audio muestreada
AU2009267518B2 (en) * 2008-07-11 2012-08-16 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Apparatus and method for encoding/decoding an audio signal using an aliasing switch scheme
KR20100007738A (ko) 2008-07-14 2010-01-22 한국전자통신연구원 음성/오디오 통합 신호의 부호화/복호화 장치
CN101355692B (zh) * 2008-07-30 2013-03-20 浙江大学 一种实时跟踪运动目标区域的智能监控装置
EP2169670B1 (en) * 2008-09-25 2016-07-20 LG Electronics Inc. An apparatus for processing an audio signal and method thereof
RU2557455C2 (ru) * 2009-06-23 2015-07-20 Войсэйдж Корпорейшн Прямая компенсация наложения спектров во временной области с применением в области взвешенного или исходного сигнала
KR101734948B1 (ko) 2009-10-09 2017-05-12 삼성전자주식회사 파워 헤드룸 보고, 자원 할당 및 전력 제어 방법
RU2591011C2 (ru) * 2009-10-20 2016-07-10 Фраунхофер-Гезелльшафт цур Фёрдерунг дер ангевандтен Форшунг Е.Ф. Кодер аудиосигнала, декодер аудиосигнала, способ кодирования или декодирования аудиосигнала с удалением алиасинга (наложения спектров)
EP2524374B1 (en) 2010-01-13 2018-10-31 Voiceage Corporation Audio decoding with forward time-domain aliasing cancellation using linear-predictive filtering
US8423355B2 (en) * 2010-03-05 2013-04-16 Motorola Mobility Llc Encoder for audio signal including generic audio and speech frames
PL3451333T3 (pl) * 2010-07-08 2023-01-23 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Koder wykorzystujący kasowanie aliasingu w przód
CN101976566B (zh) * 2010-07-09 2012-05-02 瑞声声学科技(深圳)有限公司 语音增强方法及应用该方法的装置
US8738385B2 (en) * 2010-10-20 2014-05-27 Broadcom Corporation Pitch-based pre-filtering and post-filtering for compression of audio signals
FR2969805A1 (fr) * 2010-12-23 2012-06-29 France Telecom Codage bas retard alternant codage predictif et codage par transformee
US9037456B2 (en) * 2011-07-26 2015-05-19 Google Technology Holdings LLC Method and apparatus for audio coding and decoding
CN102368385B (zh) * 2011-09-07 2013-08-14 中科开元信息技术(北京)有限公司 后向块自适应Golomb-Rice编解码方法及装置
US9043201B2 (en) * 2012-01-03 2015-05-26 Google Technology Holdings LLC Method and apparatus for processing audio frames to transition between different codecs
JP6126006B2 (ja) * 2012-05-11 2017-05-10 パナソニック株式会社 音信号ハイブリッドエンコーダ、音信号ハイブリッドデコーダ、音信号符号化方法、及び音信号復号方法
EP2980796A1 (en) 2014-07-28 2016-02-03 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Method and apparatus for processing an audio signal, audio decoder, and audio encoder
EP2980797A1 (en) * 2014-07-28 2016-02-03 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Audio decoder, method and computer program using a zero-input-response to obtain a smooth transition

Also Published As

Publication number Publication date
US20220148609A1 (en) 2022-05-12
MY179016A (en) 2020-10-26
KR102304326B1 (ko) 2021-09-23
TW201606754A (zh) 2016-02-16
AU2015295709A1 (en) 2017-03-16
PL3654333T3 (pl) 2022-07-04
EP2980796A1 (en) 2016-02-03
KR20190080982A (ko) 2019-07-08
EP4030426A1 (en) 2022-07-20
CA2955674C (en) 2023-08-15
PL4030426T3 (pl) 2024-02-12
JP2021107932A (ja) 2021-07-29
MX362737B (es) 2019-02-06
MX2017001245A (es) 2017-07-07
KR20220150992A (ko) 2022-11-11
US20230335147A1 (en) 2023-10-19
CA3193319A1 (en) 2016-02-04
BR112017001362A2 (pt) 2017-11-21
JP6864382B2 (ja) 2021-04-28
PT3654333T (pt) 2022-05-19
EP4030426C0 (en) 2023-08-16
JP7202545B2 (ja) 2023-01-12
CN106575507A (zh) 2017-04-19
CA3193306A1 (en) 2016-02-04
EP3175452B1 (en) 2018-07-11
US12014746B2 (en) 2024-06-18
US11869525B2 (en) 2024-01-09
PL3407351T3 (pl) 2020-06-29
CA3193309A1 (en) 2016-02-04
RU2665282C1 (ru) 2018-08-28
EP3654333B1 (en) 2022-03-09
ES2773690T3 (es) 2020-07-14
PL3175452T3 (pl) 2019-01-31
HK1259289A1 (zh) 2019-11-29
AU2015295709B2 (en) 2017-12-21
EP3407351A1 (en) 2018-11-28
CA3193302A1 (en) 2016-02-04
EP4030426B1 (en) 2023-08-16
EP3407351B1 (en) 2020-01-01
US20170133028A1 (en) 2017-05-11
CN113012704B (zh) 2024-02-09
US20240135943A1 (en) 2024-04-25
ES2914632T3 (es) 2022-06-14
JP2023036651A (ja) 2023-03-14
AR101287A1 (es) 2016-12-07
KR102459857B1 (ko) 2022-10-27
CN113012704A (zh) 2021-06-22
EP4235667A3 (en) 2023-09-13
KR20210118224A (ko) 2021-09-29
TWI595480B (zh) 2017-08-11
SG11201700684YA (en) 2017-02-27
PT3175452T (pt) 2018-10-22
ES2685984T3 (es) 2018-10-15
KR20170036084A (ko) 2017-03-31
KR102615475B1 (ko) 2023-12-19
EP4235667A2 (en) 2023-08-30
PT3407351T (pt) 2020-03-31
US20220157328A1 (en) 2022-05-19
KR101997006B1 (ko) 2019-07-08
KR20230173744A (ko) 2023-12-27
EP3654333A1 (en) 2020-05-20
EP3175452A1 (en) 2017-06-07
WO2016015950A1 (en) 2016-02-04
CA2955674A1 (en) 2016-02-04
CN106575507B (zh) 2021-02-02
CA3193316A1 (en) 2016-02-04
JP2019164348A (ja) 2019-09-26
JP2017522606A (ja) 2017-08-10
ES2960422T3 (es) 2024-03-04

Similar Documents

Publication Publication Date Title
JP6503051B2 (ja) オーディオ信号を処理するための方法および装置、オーディオデコーダならびにオーディオエンコーダ

Legal Events

Date Code Title Description
A529 Written submission of copy of amendment under article 34 pct

Free format text: JAPANESE INTERMEDIATE CODE: A529

Effective date: 20170302

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170302

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180413

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180417

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20180712

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20180914

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180925

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190220

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190322

R150 Certificate of patent or registration of utility model

Ref document number: 6503051

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250