JP2015535620A - 時間雑音/パッチ整形を用いる符号化オーディオ信号の符号化および復号化装置および方法 - Google Patents

時間雑音/パッチ整形を用いる符号化オーディオ信号の符号化および復号化装置および方法 Download PDF

Info

Publication number
JP2015535620A
JP2015535620A JP2015544509A JP2015544509A JP2015535620A JP 2015535620 A JP2015535620 A JP 2015535620A JP 2015544509 A JP2015544509 A JP 2015544509A JP 2015544509 A JP2015544509 A JP 2015544509A JP 2015535620 A JP2015535620 A JP 2015535620A
Authority
JP
Japan
Prior art keywords
spectral
frequency
spectrum
representation
prediction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015544509A
Other languages
English (en)
Other versions
JP6144773B2 (ja
Inventor
ディッシュ,ザッシャ
ナゲル,フレデリク
ガイガー,ラルフ
トシュカーナ,バラユィ・ナゲントラン
シュミット,コンスタンティン
バイエル,シュテファン
ノイカム,クリスティアン
エトラー,ベアント
ヘルムリッヒ,クリスティアン
Original Assignee
フラウンホーファー−ゲゼルシャフト・ツール・フェルデルング・デル・アンゲヴァンテン・フォルシュング・アインゲトラーゲネル・フェライン
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by フラウンホーファー−ゲゼルシャフト・ツール・フェルデルング・デル・アンゲヴァンテン・フォルシュング・アインゲトラーゲネル・フェライン filed Critical フラウンホーファー−ゲゼルシャフト・ツール・フェルデルング・デル・アンゲヴァンテン・フォルシュング・アインゲトラーゲネル・フェライン
Publication of JP2015535620A publication Critical patent/JP2015535620A/ja
Application granted granted Critical
Publication of JP6144773B2 publication Critical patent/JP6144773B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/008Multichannel audio signal coding or decoding using interchannel correlation to reduce redundancy, e.g. joint-stereo, intensity-coding or matrixing
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • G10L19/0212Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders using orthogonal transformation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • G10L19/022Blocking, i.e. grouping of samples in time; Choice of analysis windows; Overlap factoring
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • G10L19/022Blocking, i.e. grouping of samples in time; Choice of analysis windows; Overlap factoring
    • G10L19/025Detection of transients or attacks for time/frequency resolution switching
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • G10L19/028Noise substitution, i.e. substituting non-tonal spectral components by noisy source
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • G10L19/03Spectral prediction for preventing pre-echo; Temporary noise shaping [TNS], e.g. in MPEG2 or MPEG4
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • G10L19/032Quantisation or dequantisation of spectral components
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/06Determination or coding of the spectral characteristics, e.g. of the short-term prediction coefficients
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/16Vocoder architecture
    • G10L19/18Vocoders using multiple modes
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Processing of the speech or voice signal to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/038Speech enhancement, e.g. noise reduction or echo cancellation using band spreading techniques
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Processing of the speech or voice signal to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/038Speech enhancement, e.g. noise reduction or echo cancellation using band spreading techniques
    • G10L21/0388Details of processing therefor
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • G10L25/06Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being correlation coefficients
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • G10L25/18Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being spectral information of each sub-band
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • G10L25/21Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being power information
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03MCODING; DECODING; CODE CONVERSION IN GENERAL
    • H03M7/00Conversion of a code where information is represented by a given sequence or number of digits to a code where the same, similar or subset of information is represented by a different sequence or number of digits
    • H03M7/30Compression; Expansion; Suppression of unnecessary data, e.g. redundancy reduction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S1/00Two-channel systems
    • H04S1/007Two-channel systems in which the audio signals are in digital form
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • G10L19/0204Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders using subband decomposition
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • G10L19/0204Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders using subband decomposition
    • G10L19/0208Subband vocoders

Abstract

【課題】【解決手段】符合化オーディオ信号を復号する装置は、スペクトル予測残差値である第1セットの第1スペクトル部の第1復号表示を生成するスペクトル領域オーディオデコーダ(602)と、第1セットの第1スペクトル部に含まれる第1スペクトル部を用いて、第1セットの第1スペクトル部とともにスペクトル予測残差値を含む再構築第2スペクトル部を生成する周波数再生成器(604)と、第1セットの第1スペクトル部および再構築第2スペクトル部のスペクトル予測残差値により、エンコードされたオーディオ信号に含まれる予測フィルタ情報(607)を用いて、周波数に対して逆予測を実行する逆予測フィルタ(606)と、を備える。【選択図】図6A

Description

本発明は、オーディオ符号化および復号化に関し、特に、IGF(Intelligent gap filling)を用いるオーディオ符号化に関する。
オーディオ符号化は信号圧縮の一分野であり、音響心理学の知識を用いて、オーディオ信号における冗長性および非関連性を利用する処理を行う。今日において、オーディオコーデックは、典型的には、ほぼ全ての種のオーディオ信号の知覚的に透明な符号化のために、チャネルあたり60kbps程度を要する。さらに新しいコーデックは、帯域幅拡張(BWE)などの技術を用いて、信号におけるスペクトルの類似性を活用して、符号化ビットレートの削減を試みている。あるBWEスキームにおいては、オーディオ信号の高周波数(HF)成分を示すよう設定された低ビットレートパラメータが用いられる。HFスペクトルは、低周波数(LF)域からのスペクトルコンテンツによって充足され、スペクトルの形状、傾きおよび時間的連続性が、オリジナル信号の音質および色彩を保つよう調整される。そのようなBWE手法によって、オーディオコーデックは、チャネルあたり24kbps程度の低ビットレートであっても、良好な品質を保つことができる。
オーディオ信号の蓄積または送信については、厳格なビットレート制限が適用されることがよくある。過去においては、極めて低ビットレートしか利用可能でない場合には、符号化する側において、強制的に、送信オーディオ帯域幅を大幅に低減させられていた。
今日における近代オーディオコーデックは、帯域幅拡張(BWE)法を用いて、広帯域信号を符号化できる(非特許文献1)。これらのアルゴリズムは、高周波数コンテンツ(HF)のパラメータ表現に依拠している。このパラメータ表現は、復号信号の波形符号化された低周波数部(LF)から、HFスペクトル領域に移転(「パッチング」)させて、パラメータ駆動の後処理を行うことにより、生成される。BWEスキームにおいては、所与のいわゆるクロスオーバー周波数の上へのHFスペクトル領域の再構築が、しばしば、スペクトルパッチングに基づいて行われる。一般的に、HF領域は、複数の近接パッチから構成され、これらのパッチのそれぞれは、所与のクロスオーバー周波数より下のLFスペクトルのバンドパス(BP)領域から供給される。最新のシステムは、例えば、近接するサブバンド係数一式をソースから対象領域にコピーすることによって、直交ミラーフィルタバンク(QMF)などのフィルタバンク表現内において、パッチングを効率的に実施する。
今日のオーディオコーデックに見られる、圧縮効率を向上させかつ低ビットレートでオーディオ帯域幅を拡張する別の技術としては、オーディオスペクトルの適宜な部分を、パラメータ駆動により合成置換する技術が挙げられる。例えば、オリジナルのオーディオ信号におけるノイズ様の信号部分は、デコーダ内で生成され副情報パラメータによりスケーリングされた人工ノイズによって、主観的品質を実質的に損なうことなく置換される。一例としては、MPEG−4アドバンストオーディオコーディング(AAC)に含まれる、知覚的ノイズ置換(PNS)ツールが挙げられる(非特許文献5)。
低ビットレートでオーディオ帯域幅を拡張する他の規定としては、MPEG−Dの音声音響統合符号化方式(USAC)に含まれる、ノイズ充填技術が挙げられる(非特許文献7)。粗すぎる量子化による量子化装置のデッドゾーンから推測されるスペクトルギャップ(ゼロ)は、デコーダにおける人工ノイズにより事後に充填され、パラメータによって決定される事後処理によってスケーリングされる。
別の最新システムは、精密スペクトル置換(ASR)と称される(非特許文献2−4)。波形コーデックに加えて、ASRは、専用の信号合成段階を採用し、この信号合成段階によって、信号内の知覚的に重要な正弦部分が、デコーダにより復元される。また、非特許文献5に記載のシステムは、波形符号器のHF領域における正弦モデリングに依拠して、低ビットレートでも相当の知覚的品質を有する拡張オーディオ帯域幅を実現している。これらの方法は全て、変形離散コサイン変換(MDCT)とは別の第2領域へのデータ変換を含み、また、HF正弦成分の保存のためのかなり複雑な分析/合成段階を含む。
図13Aは、例えば、高効率アドバンストオーディオコーディング(HE−AAC)において使用されている帯域幅拡張技術用の、オーディオエンコーダの概略図である。ライン1300上のオーディオ信号は、ローパス1302およびハイパス1304からなるフィルタシステムに入力される。ハイパスフィルタ1304から出力された信号は、パラメータ抽出器/符号器1306に入力される。パラメータ抽出器/符号器1306は、例えば、スペクトル包絡線パラメータやノイズ付加パラメータ、欠落高調波パラメータ、逆フィルタリングパラメータなどのパラメータを計算し、符号化するよう構成される。これらの抽出パラメータは、ビットストリーム多重変換器1308に入力される。ローパス出力信号は、ダウンサンプラ1310およびコア符号器1312の機能を一般的に有する処理器に入力される。ローパス1302は、帯域幅を制限して、ライン1300上のオリジナル入力オーディオ信号よりも、相当に狭い帯域幅に符号化されるようにする。コア符号器において生じる全ての機能が、削減された帯域の信号上で機能すれば良いといという事実により、かなりの符号化利得が得られる。例えば、ライン1300上のオーディオ信号の帯域幅が20キロヘルツであり、かつローパスフィルタ1302が仮に4キロヘルツの帯域幅を有しているとすると、サンプリング定理を満たすためには、ダウンサンプラの後段の信号が8キロヘルツのサンプリング周波数を有することで理論上は十分であり、これは、オーディオ信号1300において必要となる少なくとも40キロヘルツのサンプリングレートの、実質的削減である。
図13Bは、対応する帯域幅拡張デコーダの概略図である。デコーダは、ビットストリーム多重変換器1320を有する。ビットストリーム多重分離器1320は、コアデコーダ1322用の入力信号、およびパラメトリックデコーダ1324用の入力信号を抽出する。コアデコーダ出力信号は、上述の例においては、8キロヘルツのサンプリングレートを有し、したがって、4キロヘルツの帯域幅を有する。一方、完全な帯域幅再構築のためには、高周波数再構築器1330の出力信号は、少なくとも40キロヘルツのサンプリングレートを要する20キロヘルツでなければならない。これを可能にするためには、デコーダ処理器が、アップサンプラ1325およびフィルタバンク1326の機能を有することが必要となる。そして高周波数再構築器1330は、フィルタバンク1326より出力され周波数分析された低周波数信号を受信して、図13Aのハイパスフィルタ1304によって定義された周波数範囲を、周波数帯域のパラメータ表現を用いて再構築する。高周波数再構築器1330は、低周波数範囲におけるソース範囲を利用して上位の周波数範囲を再生成したり、スペクトル包絡線を調整したり、ノイズを付与するなど、様々な機能を有している。また、高周波数再構築器1330には、欠落高調波を上位の周波数範囲に導入する機能や、図13Aの符号器において適用され算出された場合には逆フィルタを行い、高周波数範囲が一般的には低周波数範囲ほど音調がないという事実に対処する機能がある。HE−AACにおいては、デコーダ側において欠落高調波が再合成され、再構築帯域のちょうど真ん中に配置される。したがって、所定の再構築帯域において決定された全ての欠落高調波線は、オリジナル信号で配置されていた周波数値には配置されない。その代わりに、これらの欠落高調波線は、所定帯域の中心周波数に配置される。よって、オリジナル信号中の欠落高調波線が、オリジナル信号中の再構築帯域の境界に非常に近接して配置されると、この欠落高調波線を再構築信号において帯域の中心に配置することにより生じる周波数エラーは、個別の再構築帯域の50%近くになり、これについてパラメータが生成され送られる。
さらに、一般的なオーディオコア符号器は、スペクトル領域で機能するにも関わらず、コアデコーダはなお時間領域信号を生成し、この時間領域信号が、再びフィルタバンク1326機能によりスペクトル領域に変換される。これによって追加的な処理遅延が発生し、またまずスペクトル領域から周波数領域に変形し、そして一般的には再び異なる周波数領域へと変形する直列処理によって、アーティファクトが発生する恐れがある。もちろん、これによって、計算が相当程度複雑になり、相当量の電力が必要となる。この電力の問題は、帯域幅拡張技術が携帯電話やタブレット、ノートパソコンなどの携帯機器に適用された場合、特に問題となる。
現在のオーディオコーデックは、符号化スキームの不可分の一部として、BWEを用いて低ビットレートオーディオ符号化を実施する。しかしながら、BWE技術は、高周波数(HF)コンテンツのみを置換することに限定されている。さらに、BWE技術は、所定のクロスオーバー周波数より上の、知覚的に重要なコンテンツを、波形符号化することはできない。したがって、現代のオーディオコーデックは、信号の音の高調波の正確な配列がほとんどのシステムにおいて考慮されないため、BWEが実行されると、HFの詳細または音質のいずれかが喪失される。
BWEシステムの現代技術に関する別の課題としては、オーディオ信号を、BWEを実行するための新たな領域に変換する必要があることである(例:MDCTからQMF領域への変換)。これによって、同期性の煩雑化、追加的計算の煩雑性およびメモリ要件の増加などにつながる。
特に、帯域幅拡張システムがフィルタバンクまたは時間周波数変換領域において実行された場合、帯域幅拡張信号の時間的形状を制御するのに、限られた可能性しか存在しない。一般的に、時間的粒度は、近接する変換窓間において用いられるホップサイズによって制限される。これによって、帯域幅拡張スペクトル範囲において、不要なプリエコーまたはポストエコーが生じ得る。時間的粒度を増すためには、より短いホップサイズまたはより短い帯域幅拡張フレームを用いることができるが、これによってビッドレートのオーバーヘッドが生じてしまう。というのも、所定の時間中、時間フレーム毎の多くのパラメータ(一般的には所定のパラメータ一式)が送信される必要があるためである。さもなければ、例えば個々の時間フレームが大きくなりすぎてしまうと、特にオーディオ信号における過渡部に、プリエコーおよびポストエコーが生じてしまう。
本発明の目的は、エンコーディング/復号化概念に対して改善をもたらすことにある。
この目的は、請求項1に記載の符号化オーディオ信号を復号化する装置、請求項10のオーディオ信号を符号化する装置、請求項16に記載の復号化方法、請求項18に記載の符号化方法、または請求項19に記載のコンピュータプログラムによって達成される。
本発明は、特に、オーディオ信号において頻繁に発生する過渡部を有する信号について、時間領域雑音整形(TNS)技術または時間領域タイル整形(TTS)技術と高周波数再構築とを組み合わせることにより、品質を改善しビットレートを削減することができるという知見に基づくものである。エンコーダ側のTNS/TTS処理が、周波数の予測によって実行され、オーディオ信号の時間的包絡線を再構築する。実施次第では(つまり、時間領域雑音整形フィルタが、ソース周波数範囲だけでなく目的周波数範囲までをも対象とする周波数範囲において決定され、周波数再生成デコーダにおいて再構築される場合には)、ギャップ充填開始周波数に達するまで、時間的包絡線がコアオーディオ信号に対して適用されるだけでなく、時間的包絡線が再構築第2スペクトル部のスペクトル範囲にも適用される。したがって、時間領域タイル整形がなければ生じていたプリエコーまたはポストエコーが減少または除去される。これは、所定のギャップ充填開始周波数に達するまでのコア周波数範囲内のみならず、コア周波数範囲を超えた周波数範囲内においても、周波数に対する逆予測を適用することにより達成される。このため、周波数の再生成または周波数タイルの再生成が、周波数に対する予測適用の前に、デコーダ側において実施される。しかしながら、周波数に対する予測は、フィルタリング後のまたは包絡線整形前の(全)スペクトル値の後のスペクトル残差値に対して、エネルギー情報計算が実施されたか否か次第で、スペクトル包絡線整形の前または後のいずれかに適用すればよい。
1つ以上の周波数タイルに対するTTS処理によって、ソース範囲および再構築範囲間、または近接する2つ再構築範囲もしくは周波数タイル間の相関性の継続が追加的に設定される。
実施においては、複素TNS/TTSフィルタリングを使用するのが好ましい。それによって、MDCTのようなクリティカルサンプルされた実数表現において、(時間的)エイリアシングアーティファクトが避けられる。複素TNSフィルタは、複素変形変換に加えて、変形離散コサイン変換だけでなく変形離散サイン変換を適用することにより、エンコーダ側で算出できる。それにも関わらず、変形離散コサイン変換値(つまり、複素変換の実数部分)のみが送信される。しかしながら、デコーダ側においては、前回のまたは後続のフレームのMDCTスペクトルを使って、当該変換の虚数部分を推定することができる。そして、それによってデコーダ側においては、周波数に対する逆予測、ならびに特にソース範囲と再構築範囲の境界線、および再構築範囲における周波数近接周波数タイル間の境界線に対する予測において、複素フィルタを再び適用することができる。
他の側面は、帯域幅拡張の分離に関する問題と、コア符号化に関する問題が、コアデコーダが機能する同じスペクトル領域において帯域幅拡張を実施することにより、解決され克服されるという知見に基づいている。したがって、全てのオーディオ信号範囲を符号化し復号化するフルレートのコアデコーダが提供される。これは、エンコーダ側におけるダウンサンプラ、およびデコーダ側におけるアップサンプラを要しない。その代わりに、すべての処理がフルサンプリングレートまたはフル帯域幅領域において実施される。高符号化ゲインを得るために、オーディオ信号は、高解像度で符号化される第1セットの第1スペクトル部を見つけるべく分析される。一実施形態においては、この第1セットの第1スペクトル部には、オーディオ信号の音調部が含まれる。一方、第2セットの第2スペクトル部を構成するオーディオ信号における非音調成分またはノイズ成分は、低スペクトル解像度でパラメトリックに符号化される。そして、符号化オーディオ信号は、波形保存手法により高スペクトル解像度で符号化された第1セットの第1スペクトル部、および第1セットから供給される周波数「タイル」を用いて低解像度でパラメトリックに符号化された第2セットの第2スペクトル部のみを必要とする。デコーダ側においては、フル帯域デコーダとしてのコアデコーダは、波形保存手法により(つまり、何か追加的周波数の再生成がなされたことを知らなくとも)、第1セットの第1スペクトル部を再構築する。しかしながら、そのように生成されたスペクトルは、たくさんのスペクトルギャップを有する。これらのギャップは、パラメータデータ適用する周波数再生成、およびソーススペクトル範囲(つまり、フルレートオーディオデコーダによって再構築される第1スペクトル部)を用いて、発明的なインテリジェントギャップ充填(IGF)技術により、事後に充填される。
他の実施形態においては、帯域幅複製または周波数タイル充填よりもむしろ、ノイズ充填によってのみ再構築されたスペクトル部が、第3セットの第3スペクトル部を構成する。符号化概念は、コア符号化/復号化および周波数再生成用の単一領域において機能するという事実のため、IGFは、周波数再生成を伴わないノイズ充填をするか、または異なる周波数範囲の周波数タイルを使って周波数再生成することのいずれかにより、より高周波数の範囲を充填するのに限定されるのみならず、より低周波数の範囲を充填することもできる。
さらに、スペクトルエネルギーに関する情報、個別エネルギーに関する情報または個別エネルギー情報、残存エネルギーに関する情報または残存エネルギー情報、タイルエネルギーに関する情報またはタイルエネルギー情報、あるいは欠落エネルギーに関する情報または欠落エネルギー情報は、エネルギー値を有するのみならず、(例えば絶対的な)振幅値、レベル値またはその他値をも有し、これらから最終的なエネルギー値が求められる。したがって、エネルギーに関する情報は、例えばエネルギー情報それ自体、および/またはレベルおよび/または振幅および/または絶対振幅の値を含んでもよい。
他の側面は、相関状況がソースレンジにとって重要であるのみならず、対象範囲にとっても重要であるという知見に基づく。さらに、本発明は、ソースレンジと対象レンジとで、異なる相関状況が生じ得る状況を加味している。例えば、高周波数ノイズを有する音声信号を検討してみると、スピーカを真ん中に配置したときに、少量の倍音を有する音声信号を含む低周波数帯域が、左チャンネルおよび右チャンネルにおいて相関が高い状況がありえる。しかしながら、高周波数部分については、左側には異なる高周波数ノイズがある一方、右側には別の高周波数ノイズがあるか、または高周波数ノイズがないということがありえるという事実から、強固な相関はありえない。よって、この状況を無視した直接的なギャップ充填が実施されてしまうと、高周波数部分も相関をもってしまい、これによって、再構築信号において、重大な空間分離アーティファクトが生成されるおそれがある。この問題を解決するためには、再構築帯域用のパラメータデータ、または、一般的に、第1セットの第1スペクトル部を使用して再構築されなければならない第2セットの第2スペクトル部用のパラメータデータを計算して、第2スペクトル部(換言すると、再構築帯域)の第1または第2の異な2チャンネル表現のいずれかを識別する。したがって、エンコーダ側において、2チャンネル識別は、第2スペクトル部、つまり、再構築帯域のためのエネルギー情報が追加的に計算される部分について、計算される。そして、デコーダ側における周波数再生成器は、第1セットの第1スペクトル部の第1部分、つまりスペクトル包絡線エネルギー情報やその他スペクトル包絡線データなどのような第2部分のためのソースデータおよびパラメータデータに依拠して、さらに第2部分のための2チャンネル識別情報(再考下のこの再構築帯域のための2チャンネル識別情報)に依拠して、第2スペクトル部を再生成する。
2チャンネル識別情報は、各再構築帯域についてフラグとして送信されることが好ましく、またエンコーダからデコーダにデータが送信され、そしてデコーダが、コア帯域について好適に算出されたフラグが示すコア信号を復号する。実施においては、コア信号は、ステレオ表現(例えば、右/左、中央/サイド)の両方ともに蓄積され、そしてIGF周波数タイル充填については、インテリジェントギャップ充填または再構築帯域(つまり対象範囲)について2チャンネル識別情報フラグによって示される対象タイル表現に合うよう、ソースタイル表現が選択される。
この手順は、ステレオ信号(つまり左チャンネルおよび右チャンネル)について機能するのみならず、多チャンネル信号についても機能する。多チャンネル信号の場合、異なるチャンネルの異なる組み合わせについて、左右チャンネルを第1組み合わせとし、左サラウンドチャンネルおよび右サラウンドチャンネルを第2組み合わせとし、中央チャンネルおよび重低音強調効果チャンネルを第3組み合わせとするなどして、処理をすることができる。7.1チャンネルや11.1チャンネルなどのより高度な出力チャンネルフォーマットについては、その他の組み合わせとしてもよい。
その他の側面は、信号適応周波数タイル充填スキームを適用することにより、オーディオ品質における所定の品質低下が改善されるという知見に基づく。このため、所定の目標領域にもっとも適合するソース領域候補を見つけるべく、エンコーダ側の分析がなされる。対象領域のために、所定のソース領域を選択的な追加情報とともに特定する整合情報は、サイド情報として生成されデコーダに対して送信される。デコーダは、整合情報を用いて、周波数タイル充填処理を行う。このため、デコーダは、送信済データストリームまたはデータファイルから整合情報を読み取り、所定の再構築帯域のために特定されたソース領域にアクセスする。そして、もし整合情報において示されている場合には、再構築帯域のためのスペクトル生データを生成するために、このソース領域データについて追加的に処理を実行する。そして、音調部などの第1スペクトル部も有する再構築帯域を最終的に入手するために、スペクトル包絡線情報を使って、周波数タイル充填処理の結果(つまり、再構築帯域のスペクトル生データ)を形作る。しかしながら、これらの音調部は、適応タイル充填スキームによって生成されるわけではなく、これらの第1スペクトル部は、オーディオデコーダまたはコアデコーダによって直接に出力される。
適応スペクトルタイル選択スキームは、低粒度で実行してもよい。実施においては、ソース領域を、一般的なオーバーラップソース領域と対象領域とに細分化し、あるいは再構築帯域を、非オーバーラップ周波数対象領域により得る。そして、各ソース領域と各対象領域との間の類似性を符号器側で決定し、もっとも整合するソース領域と対象領域の組み合わせを整合情報として特定する。一方、デコーダ側において、整合情報で特定されたソース領域を、再構築帯域のためのスペクトル生データを生成するために用いる。
高粒度化するために、各ソース領域は、類似性が最大の場合には、所定程度遅滞させるために、シフト可能とされる。この遅滞は、周波数ビンと同程度の精度を有してもよく、そしてソース領域と対象領域とのよりよい整合が図れる。
さらに、もっともよく整合する組み合わせを特定することのみを追加して、この相関遅延も、整合情報内で送信されてもよく、またサイン(正負符合)さえもが送信されてもよい。このサインが符号器側において負であると判定された場合は、対応するサインフラグも整合情報内で送信され、そしてデコーダ側で、ソース領域のスペクトル値に対して−1が乗じられるか、あるいは複素数表現の場合には、180度「回転」させる。
本発明のさらなる実施形態によると、タイル白色化手順を実施する。スペクトルの白色化によって、粗いスペクトル包絡線情報が除去され、タイル類似性を評価するのに主要なスペクトル微細構造が強調される。したがって、周波数タイルおよび/またはソース信号は、クロス相関度を計算する前に白色化される。所定の手順によってタイルのみが白色化される場合には、デコーダに対して、同様の所定の白色化手順がIGF内の周波数タイルについて適用されるべきであることを示す白色化フラグが送信される。
タイルの選択に関して、相関の遅延を利用して、再生成されたスペクトルを変形ビンの整数分だけシフトすることが好ましい。基礎となる変形によっては、スペクトルのシフトにおいては、追加的な修正を要する。奇数の遅延の場合には、時間的シーケンスの−1/1を変更することにより、タイルを乗数によって追加的に変調して、全てのその他帯域の周波数逆転表現がMDCT内で相殺される。さらに、相関結果のサインは、周波数タイルを生成する際に適用される。
さらに、迅速に変化するソース領域により同じ再構築領域または対象領域についてアーティファクトが生じるのを避けられるよう確保するために、タイルの切り詰めおよび安定化処理をすることが好ましい。このため、識別された異なるソース領域間の類似性分析を実施し、ソースタイルが類似性の閾値を超えて他のソースタイルと類似するときには、このソースタイルは、潜在的ソースタイルのセットから除外されてもよい。というのも、これは、他のソースタイルと高い相関を有するからである。また、タイル選択安定化処理の一種として、現在のフレームにおけるいずれのソースタイルも、現在のフレームにおける対象タイルと相関を有しない(所定の閾値を超えない)場合には、タイルの順番を前回フレームから保つことが好ましい。
オーディオ符号化システムは、広範囲のビットレートにより、任意のオーディオ信号を効率的に符号化する。高ビットレートにおいては、本発明のシステムは、透明性に集中する一方、低ビットレートにおいては、知覚的な不快感が最小限化される。そのため、利用可能なビットレートの主要な部分は、エンコーダにおいて、知覚的にもっとも適切な信号構造に波形符号化することに用いられる。そして、その結果としてのスペクトルギャップは、デコーダにおいて、元来のスペクトルに大まかに近接した信号コンテンツによって充填される。エンコーダからデコーダに対して送信される専用のサイド情報によって、相当に限られたビット配分のみが、パラメータ駆動されるいわゆるスペクトルインテリジェントギャップ充填(IGF)を制御するのに消費される。
本発明の好適な実施形態を、以下、添付図面を参照して説明する。
本発明によると、効果がある。
図1aは、オーディオ信号を符号化する装置を示す図である。 図1bは、図1aのエンコーダと整合する符号化されたオーディオ信号を復号するデコーダを示す図である。 図2aは、デコーダの好適な実施形態を示す図である。 図2bは、エンコーダの好適な実施形態を示す図である。 図3aは、図1bのスペクトル領域デコーダによって生成されたスペクトル表現を示す概略図である。 図3bは、換算係数帯域用の換算係数と、再構築帯域用のエネルギーと、ノイズ充填帯域用のノイズ充填情報との関係を示す表である。 図4aは、スペクトル部の選択を第1および第2セットのスペクトル部に対して適用するスペクトル領域エンコーダの機能を示す図である。 図4bは、図4aの機能の実施形態を示す図である。 図5aは、MDCTエンコーダの機能を示す図である。 図5bは、MDCT技術とデコーダの機能を示す図である。 図5cは、周波数再生成器の実施形態を示す図である。 図6aは、時間的ノイズ整形/時間的タイル整形機能を有するオーディオコーダを示す図である。 図6bは、時間的ノイズ整形/時間的タイル整形技術を有するデコーダを示す図である。 図6cは、時間的ノイズ整形/時間的タイル整形機能のさらなる機能を、異なる順番のスペクトル予測フィルタおよびスペクトル整形器とともに示す図である。 図7aは、時間的タイル整形(TTS)機能の実施形態を示す図である。 図7bは、図7aのエンコーダの実施形態と整合するデコーダの実施形態を示す図である。 図7cは、オリジナル信号のスペクトルと、TTSを有しない拡張信号のスペクトルを示す図である。 図7dは、インテリジェントギャップ充填周波数と時間的タイル整形エネルギーとの間の通信を示す周波数表現を示す図である。 図7eは、オリジナル信号のスペクトルと、TTSを有する拡張信号のスペクトルを占めす図である。 図8aは、周波数生成を伴う2チャンネルデコーダを示す図である。 図8bは、表現とソース/目標レンジの異なる組合せを示す表である。 図8cは、図8aの周波数生成を伴う2チャンネルデコーダの機能を示すフローチャートである。 図8dは、図8aのデコーダの詳細なる実施形態を示す図である。 図8eは、図8aのデコーダによって復号されるべき2チャンネル処理のためのエンコーダの実施形態を示す図である。 図9aは、エネルギー値を再生周波数範囲に使用する周波数生成技術を有するデコーダを示す図である。 図9bは、図9aの周波数再生成器のさらに詳細なる実施形態を示す図である。 図9cは、図9bの機能を概略的に示す図である。 図9dは、図9aのデコーダのさらなる実施形態を示す図である。 図10aは、図9aのデコーダと整合するエンコーダのブロック図である。 図10bは、図10aのパラメータ計算器のさらなる機能の実施形態を示すブロック図である。 図10cは、図10aのパラメータ計算器のさらなる機能の実施形態を示すブロック図である。 図10dは、図10aのパラメータ計算器のさらなる機能の実施形態を示すブロック図である。 図11aは、デコーダにおけるスペクトルタイル充填手順のために、所定のソース範囲の特定をする別のデコーダを示す図である。 図11bは、図11aの周波数再生成器のさらなる機能を示す図である。 図11cは、図11aのデコーダと連携して使用されるエンコーダを示す図である。 図11dは、図11cのパラメータ計算器の実施形態を示すブロック図である。 図12aおよび12bは、ソース範囲および対象範囲を示す周波数図である。 図12cは、2つの信号の相関性例の見取り図である。 図13aは、帯域幅拡張を有する従来の符号器を示す図である。 図13bは、帯域幅拡張を有する従来のデコーダを示す図である。
図1aは、オーディオ信号99を符号化する装置を示す。オーディオ信号99は、あるサンプリングレートを有するオーディオ信号をスペクトル表現101へと変換する時間スペクトル変換器100に入力され、変換されたスペクトル表現101が、時間スペクトル変換器により出力される。スペクトル101は、スペクトル表現101を分析するスペクトル分析器102に入力される。スペクトル分析器101は、第1スペクトル解像度により符号化されるべき第1セットの第1スペクトル部103(第1スペクトル部の集合)と、第2スペクトル解像度により符号化されるべき別の第2セットの第2スペクトル部105(第2スペクトル部の集合)とを決定するよう構成される。第2スペクトル解像度は、第1スペクトル解像度よりも小さい。第2セットの第2スペクトル部105は、第2スペクトル解像度を有するスペクトル包絡線情報を計算するパラメータ計算器すなわちパラメトリック符号器104に入力される。さらに、第1スペクトル解像度を有する第1セットの第1スペクトル部の第1符号化表現107を生成するために、スペクトル領域オーディオコーダ106が設けられる。また、パラメータ計算器すなわちパラメトリック符号器104は、第2セットの第2スペクトル部の第2符号化表現109を生成するよう構成される。第1符号化表現107と第2符号化表現109とは、ビットストリーム多重変換装置またはビットストリーム形成器108に入力され、ビットストリーム形成器108は、最終的に、送信または蓄積装置における蓄積のために、符号化されたオーディオ信号を出力する。
一般的に、図3aの306などの第1スペクトル部は、307aや307bのような2つの第2スペクトル部によって取り囲まれている。コア符号化周波数範囲が帯域的に制限されているHE AACの場合には、この限りではない。
図1bは、図1aのエンコーダと整合するデコーダを示す。第1符号化表現107は、第1セットの第1スペクトル部の第1復号化表現を生成するスペクトル領域オーディオデコーダ112に入力される。さらに、第2符号化表現109は、第1スペクトル解像度よりも低い第2スペクトル解像度を有する第2セットの第2スペクトル部の第2復号化表現を生成するパラメトリックデコーダ114に入力される。
デコーダは、第1解像度を有する再構築第2スペクトル部を、第1スペクトル部を使って再生成する周波数再生成器116をさらに有する。周波数再生成器116は、タイル充填手順を実行する。つまり、第1セットの第1スペクトル部のタイルまたは部分を使って、第1セットの第1スペクトル部を、第2スペクトル部を有する再構築レンジまたは再構築帯域にコピーする。そして、一般的には、パラメトリックデコーダ114により出力された復号された第2表現により示されるように、すなわち、第2セットの第2スペクトル部に関する情報を使って、スペクトル包絡線整形処理、またはその他の手順を実行する。復号化された第1セットの第1スペクトル部と、線117上の周波数再生成器116の出力に示される再構築された第2セットのスペクトル部とは、スペクトル時間変換器118に入力される。このスペクトル時間変換器118は、第1復号表現と再構築された第2スペクトル部とを、所定の高サンプリングレートを有する時間表現119に変換するよう構成される。
図2bは、図1aのエンコーダの実施形態を示す。オーディオ入力信号99は、図1aの時間スペクトル変換器100に対応する分析フィルタバンク220に入力される。そして、TNSブロック222において、時間ノイズ整形処理が実行される。したがって、図2bのブロック音調マスク226に対応する図1aのスペクトル分析器102は、時間ノイズ整形/時間タイル整形処理が適用されないときには、全スペクトル値となり、図2bのブロック222に示すTNS処理が適用されるときには、スペクトル残差値となる。2チャンネル信号または多チャンネル信号の場合、ジョイントチャンネル符号化228が追加的に実施されてもよく、図1aのスペクトル領域エンコーダ106には、ジョイントチャンネル符号化ブロック228が含まれてもよい。さらに、可逆データ圧縮を実施するエントロピー符号器232が設けられ、これは、図1aのスペクトル領域エンコーダ106の一部となる。
スペクトル分析器/音調マスク226は、TNSブロック222の出力を、コア帯域と、第1セットの第1スペクトル部103に対応する音調成分と、図1aの第2セットの第2スペクトル部105に対応する残留成分とに分別する。IGFパラメータ抽出符号化手順として表示されるブロック224は、図1aのパラメトリック符号器104に対応し、ビットストリーム多重変換装置230は、図1aのビットストリーム多重変換装置108に対応する。
分析フィルタバンク222がMDCT(変更離散コサイン変換フィルタバンク)として実施され、MDCTを使って、変更離散コサイン変換を周波数分析ツールとして機能させて、信号99を時間−周波数領域に変換することが好ましい。
スペクトル分析器226は、音調マスクを適用することが好ましい。この音調マスク推定段階は、信号中のノイズ様成分から音調成分を分別するのに用いられる。これによって、コア符号器228が全ての音調成分を心理音響モジュールによって符号化することができる。音調マスク推定段は、いくつもの異なる方法によって実施されてもよく、音声/オーディオ符号化(非特許文献8,9)用の正弦およびノイズモデリング、または非特許文献10に記載されるHILNモデル系オーディオコーダにおいて用いられる正弦トラック推定段と機能的に同様に実施されるのが好ましい。実施形態としては、生死軌跡を維持する必要なく簡単に実施できることが好ましいが、その他の音調またはノイズ検知器を用いてもよい。
IGFモジュールは、ソース領域と対象領域との間に存在する類似性を計算する。対象領域は、ソース領域からのスペクトルにより表現される。ソース領域と対象領域との類似点を測ることは、クロス相関性アプローチを用いて行われる。対象領域は、非オーバーラップ周波数タイルnTarに分解される。対象領域における全てのタイルについて、固定開始周波数からソースタイルnSrcが整形される。これらのソースタイルは、0および1の間の要素によってオーバーラップし、ここで0とは0%のオーバーラップを、1とは100%のオーバーラップを意味する。これらのソースタイルのそれぞれは、対象タイルに最もマッチするソースタイルを見つけるための様々な遅延において、対象タイルと相関性を有する。最もマッチするタイルの数は、tileNum[idxtar]に記憶され、対象と最も相関性を有する遅延は、xcorrlag[idxtar][idxsrc]に記憶され、相関性のサインは、xcorrsign[idxtar][idxsrc]に記憶される。相関性が極めて否定的な場合には、ソースタイルは、デコーダにおけるタイル充填処理の前に、−1を乗じる必要がある。IGFモジュールはまた、音調成分が音調マスクを使って保存されていないため、スペクトルにおける音調成分を上書きしないよう注意する必要がある。帯域側のエネルギーパラメータは、対象領域のエネルギーを蓄積するのに用いられ、これによってスペクトルを正確に再構築することができる。
この方法は、正弦曲線間のギャップがソース領域からの最も整合する「整形ノイズ」により充填される一方、マルチ音調信号の倍音グリットがコア符号器によって保存されるという点で、伝統的なSBR(非特許文献1)に対して利点がある。ASR(精密スペクトル置換)(非特許文献2−4)と比べて、このシステムの別の利点としては、デコーダにおいて信号の重要部分を作り出する信号合成段がないということが挙げられる。その代わり、この作業はコア符号器によって実行される。よって、スペクトルの重要性分を保存できる。提案システムの別の利点としては、その機能が提案する継続的なスケーラビリティが挙げられる。全てのタイルについて単にtileNum[idxtar]とxcorrlag=0とを使用することは、総粒度マッチングと称され、低ビットレートに使用することができる。一方、可変的なxcorrlagを全てのタイルに使用すると、対象スペクトルとソーススペクトルの整合性がより良くなる。
さらに、トリリングやミュージカルノイズなどの周波数領域アーティファクトを除去するタイル選択安定化技術が提案されている。
ステレオチャンネルのペアの場合には、追加的ジョイントステレオ処理が適用される。この処理は必要であり、というのも、ある目標レンジにおいては、信号が高い相関性を有する定位音源である場合があるためである。この特定の領域について選択された音源領域があまり相関を有しない場合には、目標領域についてエネルギーが整合していても、相関しない音源領域によって空間像が悪化する場合がある。エンコーダは、一般的にはスペクトル値のクロス相関処理をして、各目標領域のエネルギー帯域を分析して、もし所定の閾値を超過している場合には、このエネルギー帯域にジョイントフラグを設定する。デコーダにおいて、左右チャンネルのエネルギー帯域は、このジョイントステレオフラグが設定されていない場合、個別に処理される。ジョイントステレオフラグが設定されている場合、両方のエネルギーおよびパッチングがジョイントステレオ領域において実行される。IGF領域におけるジョイントステレオ情報は、コア符号処理におけるジョイントステレオ情報と同様に信号化され、予測の場合には、予測の方向性がダウンミックスからの残差なのか、それともその逆なのか、を示すフラグが含まれる。
エネルギーは、L/R領域の送信済エネルギーから計算することができる。
midNrg[k]=leftNrg[k]+rightNrg[k];
sideNrg[k]=eftNrg[k]−rightNrg[k];
ここで、kは変形領域における周波数指数である。
その他の解決としては、ジョイントステレオが積極的な帯域については、ジョイントステレオ領域において直接エネルギーを計算および送信し、デコーダ側にける追加的エネルギー変形を不要とすることが挙げられる。
ソースタイルは、常に、ミッド/サイドマトリック:
midTile[k]=0.5・(leftTile[k]+rightTile[k]
sideTile[k]=0.5・(leftTile[k]−rightTile[k]
エネルギー調整:
midTile[k]=midTile[k]*midNrg[k];
sideTile[k]=sideTile[k]*sideNrg[k];
ジョイントステレオ→LR変形:
何ら追加的予測パラメータが符号化されていない場合:
leftTile[k]=midTile[k]+sideTile[k]
rightTile[k]=midTile[k]−sideTile[k]
追加的な予測パラメータが必要な場合で、信号化された方向性がミッドからサイドの場合:
sideTile[k]=sideTile[k]−predictionCoeff・midTile[k]
leftTile[k]=midTile[k]+sideTile[k]
rightTile[k]=midTile[k]−sideTile[k]
信号化された方向性がサイドからミッドの場合:
midTile1[k]=midTile[k]−predictionCoeff・sideTile[k]
leftTile[k]=midTile1[k]−sideTile[k]
rightTile[k]=midTile1[k]+sideTile[k]
に従って生成される。
この処理によって、相関性の高い目標領域と定位目標領域とを再生成するのに用いられたタイルから生じた左右チャンネルが、たとえ音源領域が相関を有しないとしても、当該領域のステレオイメージを保存し、相関性を有する定位音源を示すよう確保できる。
つまり、ビットストリームにおいては、例えばL/RまたはM/Sのいずれを総合ジョイントステレオ符号化処理に用いるべきかを示すジョイントステレオフラグが送信される。デコーダにおいては、まずコア帯域についてジョイントステレオフラグの示す通り、コア信号が復号される。第二に、コア信号は、L/RおよびM/S表現の両方に蓄積される。IGFタイル充填について、ソースタイル表現が選択され、IGF帯域に関するジョイントステレオ情報の示す対象タイル表現に合うようされる。
時間ノイズ整形(TNS)は、標準技術であり、AAC(非特許文献11−13)の一部である。TNSは、知覚的符号化の基本スキームを延長したものと考えられ、フィルタバンクと量子化段の間に、オプションとしての処理工程を挿入する。TNSモジュールのメイン作業は、過渡的な信号の時間的マスキング領域において、生成された量子化ノイズを隠すことであり、これによって、効率的な符号化スキームとなる。まず、TNSは、例えばMDCTのような変形領域において、「前方予測」を用いて予測係数セットを算出する。そして、これらの係数は、信号の時間的包絡線をフラット化するのに用いられる。量子化によってTNSフィルタスペクトルが影響を受けるため、量子化ノイズも一時的にフラットである。デコーダ側において、逆TNSフィルタリングを適用することで、量子化ノイズがTNSフィルタの時間的包絡線に従って整形され、よって量子化ノイズがその過渡性によりマスクされる。
IGFは、MDCT表現に基づく。効率的符号化のためには、好ましくは、約20msの長ブロックを用いなければならない。このような長ブロック内における信号が過渡を含む場合、IGFスペクトル帯域において、タイル充填により、可聴のプリ・ポストエコーが発生する。図7cは、過渡開始前の、IGFによる一般的なプリエコー効果を示す。左側において、オリジナル信号のスペクトル写真が示され、右側において、TNSフィルタリングなしで拡張された帯域幅のスペクトル写真が示される。
このプリエコー効果は、IGF環境においてTNSを用いることにより低減される。ここでTNSは、デコーダにおけるスペクトル再生成がTNS残差信号に対して実行されるため、時間タイル整形ツール(TTS)として用いられている。必要となるTTS予測係数は、通常通り、エンコーダ側における全スペクトルを用いて計算され、適用される。TNS/TTS開始および停止周波数は、IGFツールのIGF開始周波数fIGFsrartによって影響されない。伝統的なTNSと比較して、TTS停止周波数は、fIGFsrartよりも高いIGFツールの停止周波数まで増加される。デコーダ側において、TNS/TTS係数が再び全スペクトルにて適用される。つまり、コアスペクトル+再生成スペクトル+音調マップからの音調成分である(図7eを参照)。TTSの適用は、再生成スペクトルの時間包絡線がオリジナル信号の包絡線と整合するよう形成するのに必要である。したがって、示されたプリエコーは低減される。さらに、TNSには通常のことではあるが、それによってfIGFsrartより下の信号における量子化ノイズが依然として形成される。
伝統的なデコーダにおいては、オーディオ信号に対するスペクトルパッチングは、パッチ境界におけるスペクトル相関を害する。それによって、分散が生じ、オーディオ信号の時間包絡線が害される。よって、残差信号に対してIGFタイル充填を実施する別のメリットとしては、整形フィルタを適用した後、タイル境界がシームレスに相関し、信号をより忠実に時間的に再生することができることが挙げられる。
発明にかかるエンコーダにおいては、TNS/TTSフィルタリング処理、音調マスク処理およびIGFパラメータ予測処理を経たスペクトルは、音調成分を除き、IGF開始周波数より上の信号は存在しない。まばらなスペクトルが今、算術符号化および予測符号化の原則によって、コア符号器により符号化される。これらの符号化成分は、信号のビットとともに、オーディオのビットストリームを形成する。
図2aは、対応するデコーダの実施形態を示す。符号化オーディオ信号に相当する図2aのビットストロームは、図1bであればブロック112および114に接続される多重分離装置/デコーダに入力される。ビットストリーム多重分離装置は、入力オーディオ信号を、図1bの第1符号化表現107と図1bの第2符号化表現109とに分離する。第1セットの第1スペクトル部を有する第1符号化表現は、図1bのスペクトル領域デコーダ112に対応するジョイントチャンネル復号ブロック204に入力される。第2符号化表現は、図2aに図示されないパラメトリックデコーダ114に入力され、そして図1bの周波数再生成器116に対応するIGFブロック202に入力される。周波数再生成に必要な第1セットの第1スペクトル部は、線203を経てIGFブロック202に入力される。さらに、ジョイントチャンネル復号処理204の後、音調マスクブロック206において、音調マスク206の出力がスペクトル領域符号器112の出力と対応するよう、特定のコア復号処理が適用される、そして、合成器208による合成が実行され、合成器208の出力がフルレンジのスペクトルを有するが、それでいて、TNS/TTSフィルタ領域内にあるというフレーム構成が作成される。そして、ブロック210において、逆TNS/TTS処理が、線109を介して供給されるTNS/TTSフィルタ情報を用いて実行される。つまり、好ましくは、TTSサイド情報が、スペクトル領域エンコーダ106によって生成される第1符号化表現に含まれる。スペクトル領域エンコーダ106は、例えば、直接的なAACまたはUSACコアエンコーダであってもよく、あるいは第2符号化表現に含まれてもよい。ブロック210の出力において、最大周波数までの全スペクトルを得ることができ、これはオリジナル入力信号のサンプリングレートによって定められるフルレンジの周波数である。そして、スペクトル/時間変換が合成フィルタバンク212において実行され、オーディオ出力信号が最終的に得られる。
図3aは、スペクトル表現を表す概略図である。スペクトルは、スケールファクタ帯域SCBに分割され、図3aにおける図示例においては、7つのスケールファクタ帯域SCB1〜SCB7がある。スケールファクタ帯域は、AAC規格に定められるAACスケールファクタ帯域であってもよく、図3aにその概略が図示される通り、上側の周波数まで増加する帯域を有してもよい。スペクトルの当初から(つまり低周波数から)インテリジェントギャップ充填を実行するのではなく、IGF手順を309にて図示するIGF開始周波数で開始することが好ましい。したがって、コア周波数帯域は、最低周波数からIGF開始周波数まで存在する。IGF開始周波数より上においては、スペクトル分析を適用して、高解像度のスペクトル成分304、305、306、307(第1セットの第1スペクトル部)を、第2セットの第2スペクトル部の示す低解像度成分から分離する。図3aは、スペクトル領域エンコーダ106またはジョイントチャンネル符号器228に例示的に入力されるスペクトルを示し、つまりコアエンコーダがフルレンジで機能しているが、相当量のスペクトル値0を符号化している。これらのスペクトル値0は、ゼロに量子化されるか、または量子化の前または後にゼロに設定される。いずれにせよ、エンコーダは、フルレンジで動作し、スペクトルがその通り表現されているかのように、すなわち、いずれのインテリジェントギャップ充填についても、第2セットの第2スペクトル部の符号化が低スぺクトル解像度で符号化されていることも、知る必要なしに動作する。
好適には、高解像度は、MDCT線のようなスペクトル線の線単位の符号化によって定義づけられ、一方、第2解像度または低解像度は、例えばいくつもの周波数線を対象とするスケールファクタ帯域について、そのスケールファクタ帯域あたりの単一スペクトル値のみを計算することにより定義づけられる。したがって、第2低解像度は、スペクトル解像度については、一般にAACやUSACコアエンコーダなどのコアエンコーダによって適用される線単位符号化によって定義される第1または高解像度よりも、ずっと低い。
スケールファクタまたはエネルギー計算について、その状況が図3bに図示される。エンコーダがコアエンコーダであるという事実、および各帯域において第1セットのスペクトル部の成分が含まれ得る(ただし、必ずしも含まれる必要はない)という事実に伴い、コアエンコーダは、IGF開始周波数309より下のコア範囲のみならず、IGF開始周波数より上の最大周波数fIGFstop(これはサンプリング周波数、つまりfs/2の半分以下である)に達するまでの帯域について、IGF開始周波数各帯域についてスケールファクタを計算する。よって、本実施形態において、図3aにおける符号化音調部位302、304、305、306、307は、スケールファクタSCB1〜SCB7とともに、高解像度スペクトルデータに対応する。低解像度スペクトルデータは、IGF開始周波数から開始して計算され、スケールファクタSF4〜SF7とともに送信される、エネルギー情報値E、E、E、Eに対応する。
特に、コアエンコーダが低ビットレート状況下にある場合、コア帯域、つまりIGF開始周波数よりも低い周波数(スケールファクタ帯域SCB1〜SCB3)において、追加的ノイズ充填手順が適用されてもよい。ノイズ充填においては、ゼロに量子化されたいくつもの近接するスペクトル線が存在する。デコーダ側においては、これらのゼロに量子化されたスペクトル値は再度合成され、この合成されたスペクトル値について、図3bに308として示されるNFなどのノイズ充填エネルギーを用いて、その大きさが調整される。特に、USACのように、スケールファクタについて絶対ベースまたは相対ベースで設定され得るノイズ充填エネルギーは、ゼロに量子化されたスペクトル値のセットのエネルギーに対応する。これらのノイズ充填スペクトル線はまた、第3セットの第3スペクトル部位と考えられ、直接的なノイズ充填合成により、ソースレンジおよびエネルギー情報値E、E、E、Eからのスペクトル値を用いた周波数タイルを再構築するためのその他の周波数からの周波数タイルを用いた周波数再生成に依拠する周波数タイルIGF手順を適用せずに、再生成される。
エネルギー情報が計算される帯域は、スケールファクタ帯域と一致することが好ましい。別の実施形態においては、例えばスケールファクタ帯域4および5について単一のエネルギー情報値のみが送信されるよう、エネルギー情報値のグループ分けが適用されるが、この実施形態においても、グループ分けされた再構築帯域は、スケールファクタ帯域の境界と一致する。もし異なる帯域分別が適用された場合には、所定の再計算または同期化計算を適用してもよく、所定の実施形態によってはこれが合理的である。
図1aのスペクトル領域エンコーダ106は、図4aに図示されるような心理音響的に駆動されるエンコーダであることが好ましい。一般的には、例えばMPEG2/4のAAC規格またはMPEG1/2レイヤ3規格に示される通り、スペクトル範囲(図4aの401)に変換された後の符号化対象のオーディオ信号は、スケールファクタ算出器400に転送される。スケールファクタ算出器は、心理音響モデルによる制御により、量子化対象のオーディオ信号をさらに受信するか、またはMPEG1/2レイヤ3規格またはMPEGAAC規格の通り、オーディオ信号の復号スペクトル表現を受信する。心理音響モデルは、各スケールファクタ帯域について、心理音響閾値を表現するスケールファクタを算出する。さらに、スケールファクタは、公知の内側および外側反復ループの連携により、またはその他適切なエンコーディング手順により、所定のビットレート条件が満たされるよう調整される。そして、量子化対象スペクトル値と算出スケールファクタとが量子化処理器404に入力される。直接的なオーディオ符号化動作においては、量子化対象スペクトル値は、スケールファクタによって重み付けされ、この重み付けされたスペクトル値が、一般的に上位の振幅範囲まで圧縮する機能を有する固定量子化装置に入力される。そして、量子化処理器の出力においては、エントロピーエンコーダに転送される量子化インデックスが確かに存在する。一般的に、このエントロピーエンコーダは、近接する周波数値のためのゼロ量子化インデックスまたは当該分野におけるいわゆるゼロ値「ラン」のために、特定のかつ相当に効率のよい符号機能を有する。
しかしながら、図1aのオーディオエンコーダにおいては、量子化処理器は、一般的に、スペクトル分析器から第2スペクトル部に関する情報を受信する。したがって、量子化処理器404は、その出力において、スペクトル分析器102によって識別された第2スペクトル部がゼロであるか、またはエンコーダもしくはデコーダによってゼロ表現であると認められた表現(特にスペクトルにゼロ値の「ラン」が存在する場合に、相当に効率的に符号化できる表現)を有するよう確保する。
図4bは、量子化処理器の実施形態を図示する。MDCTスペクトル値は、ゼロ設定ブロック410に入力することができる。そして、ブロック412におけるスケールファクタによる重み付けが実施される前に、第2スペクトル部が既にゼロに設定される。追加的実施形態においては、ブロック410が設けられず、重み付けブロック412の後に、ブロック418においてゼロ設定の連携が実施される。さらに別の実施形態においては、量子化ブロック420における量子化の後に、ゼロ設定ブロック422においてゼロ設定手順が実施されてもよい。この実施形態においては、ブロック410および418は存在しない。概して、ブロック410、418および422のうち少なくとも1つが、具体的な実施形態に応じて設けられる。
そして、ブロック422の出力において、図3aに図示されるものに対応する量子化スペクトルが得られる。そして、この量子化スペクトルは、図2bにおける232のようなエントロピー符号器に入力される。このエントロピー符号器は、例えばUSAC規格に定義されるハフマン符号器または演算符号器であってもよい。
ゼロ設定ブロック410、418および422は、互いに交互に、または並列に設けられるが、スペクトル分析器424によって制御される。スペクトル分析器は、公知の音調検知器を有することが好ましく、またはスペクトルを高解像度で符号化される成分と低解像度で符号化される成分とに分別することができる異なる種の検知器を有することが好ましい。その他スペクトル分析器において実行されるアルゴリズムは、異なるスペクトル部に関する解像度要件を、スペクトル情報または関連メタデータに応じて決定する音声活動検出器、ノイズ検出器、音声検出器、その他検出器であってもよい。
図5aは、例えばAACやUSACにおいて実施される、図1aの時間スペクトル変換器100の好ましい実施形態を図示する。時間スペクトル変換器100は、過渡検知器504によって制御される窓回路502を有する。過渡検知器504が過渡を検知すると、長い窓から短い窓への切り替えが窓回路502に対して指示される。そして、窓回路502は、オーバーラップしているブロックについて、各窓フレームが一般的に2048値のような2つのN値を有する場合には、窓フレームを計算する。その後、ブロック変換器506内での変換が実施され、このブロック変換器が追加的デシメーションを提供する。そして、デシメーション/変換の結合が実行され、MDCTスペクトル値などのN値を有するスペクトルフレームが得られる。そのため、長窓動作については、ブロック506の入力におけるフレームが、例えば2048値のような2つのN値を有し、そしてスペクトルフレームが1024値を有する。しかしながら、その後、長窓と比較して各短ブロックが1/8の窓時間領域値しか有さず、かつ各スペクトルブロックが長ブロックと比較して1/8のスペクトル値しか有さない場合に8つの短ブロックが実行されたときには、短ブロックに対する切替が実行される。そのため、このデシメーションが窓回路の50%オーバーラップ動作と結合したとき、スペクトルは、時間領域オーディオ信号99のクリティカルサンプルバージョンである。
続いて、図1bの周波数再生成器116およびスペクトル時間変換器118の特定の実施形態、または図2aのブロック208および212の結合動作の具体的実施形態を示す図5bを参照する。図5bにおいて、特定の再構築帯域が、図3aのスケールファクタ帯域6のように考慮される。この再構築帯域における第1スペクトル部(つまり図3aの第1スペクトル部306)は、フレーム構築/調整ブロック510に入力される。その上、スケールファクタ帯域6のための再構築第2スペクトル部も、フレーム構築器/調整器510に入力される。また、図3bにおけるEのような、スケールファクタ帯域6のためのエネルギー情報もまた、ブロック510に入力される。再構築帯域における再構築第2スペクトル部は、ソースレンジを使って周波数タイル充填により既に生成されており、この再構築帯域が対象レンジに対応する。ここで、フレームのエネルギー調整を実行し、例えば、図2aの結合器208の出力において得られる、N値を有する完全な再構築フレームを最終的に得る。そして、ブロック512において、逆ブロック変換/補間処理を実行して、例えば、ブロック512の入力における124スペクトル値について、248時間領域値を得る。その後、ブロック514において合成窓処理が実行され、これもまた、符号化されたオーディオ信号においてサイド情報として送信される長窓/短窓指示により制御される。そして、ブロック516において、前回時間フレームとのオーバーラップ/追加処理が実行される。各新規の時間フレームが2N値の場合、Nの時間領域値が最終的に出力されるよう、MDCTは、50%オーバーラップ処理を適用することが好ましい。50%オーバーラップ処理によってクリティカルサンプルが提供され、あるフレームから次のフレームへの継続的クロスオーバーが、ブロック516におけるオーバーラップ/追加処理により提供されるという事実からすると、50%オーバーラップ処理が特に好ましい。
図3aの301に示す通り、ノイズ充填処理は、IGF開始周波数より下で追加的に適用されるのみならず、図3aのスケールファクタ帯域6と合致する対象再構築帯域などのような、IGF開始周波数より上においても追加的に適用されてもよい。そして、ノイズ充填スペクトル値も、フレーム構築器/調整器510に入力されてもよく、ノイズ充填スペクトル値がこのブロック内にて調整されてもよい。あるいは、ノイズ充填スペクトル値は、フレーム構築器/調整器510に入力されるよりも前に、ノイズ充填エネルギーを用いて既に調整されていてもよい。
好ましくは、IGF処理(つまりその他の部分からのスペクトル値を使った周波数タイル充填処理)は、全スペクトルに対して適用されてもよい。したがって、スペクトルタイル充填処理は、IGF開始周波数より上の高帯域のみならず、低帯域においても適用されてもよい。また、周波数タイル充填によらないノイズ充填もまた、IGF開始周波数より下のみならず、IGF開始周波数より上でも適用されてもよい。但し、ノイズ充填処理がIGF開始周波数よりも下に限定され、かつ図3aに示される通り、周波数タイル充填処理がIGF開始周波数よりも上に限定されているときに、高品質および高効率のオーディオエンコーディングが得られることが判明している。
対象タイル(TT)(IGF開始周波数より大きい周波数を有する)は、フルレート符号器のスケールファクタ帯域境界に結合させることが好ましい。ソースタイル(ST)は、ここから情報を得られるが、IGF開始周波数よりも低周波数であり、スケールファクタ帯域境界と結合していない。STの大きさは、関連するTTの大きさに対応すべきである。これを以下の例を使って示す。TT[0]は、10MDCTビンの長さを有する。これはまさに、2つの後続のSCBの長さ(例えば4+6)に相当する。そして、TT[0]と相関性を有する可能性のある全てのSTもまた、10ビンの長さを有する。TT[0]に近接する第2対象タイルTT[1]は、15ビンの長さを有する(7+8の長さを有するSCB)。そして、そのSTは、TT[0]用の10ビンではなく、15ビンの長さを有する。
対象タイルの長さを有するSTについて、TTを見つけられない場合が生じたとき(例えば、TTの長さが利用可能なソースレンジよりも大きいとき)には、相関性は計算されず、対象タイルTTが完全に充填されるまで、ソースレンジが何度もこのTTにコピーされる(このコピーは、第2コピーの最も低い周波数を有する周波数線が、第1コピーの最も高い周波数を有する周波数線の直後に周波数的に来るよう、次から次になされる。)。
そして、図1bの周波数生成器116または図2aのIGFブロック202のさらなる好適実施形態を示す図5cを参照する。ブロック522は、対象帯域IDのみならず、さらにソース帯域IDをも受信する周波数タイル生成器である。例示的に、エンコーダ側において、図3aのスケールファクタ帯域3がスケールファクタ帯域7の再構築にかなり適していると決定されている。したがって、ソース帯域IDは2であり、対象帯域IDは7である。この情報に基づき、周波数タイル生成器522は、スペクトル成分523の生の第2部を生成するために、コピー処理や倍音タイル充填処理、その他タイル充填処理を適用する。スペクトル成分の生の第2部は、第1セットの第1スペクトル部に含まれる周波数解像度と同じ周波数解像度を有している。
そして、図3aの307などのような再構築帯域の第1スペクトル部は、フレーム構築器524に入力され、生の第2部523もフレーム構築器524に入力される。その後、再構築されたフレームは、ゲイン係数算出器528によって算出された再構築帯域のゲイン係数を利用して、調整器526により調整される。ただし、重要な点としては、フレームにおける第1スペクトル部は、調整器526による影響を受けず、再構築フレームのための生の第2部のみが調整器526の影響を受けることである。このため、ゲイン係数算出器528は、ソース帯域または生の第2部523を分析し、さらに、スケールファクタ帯域7が想定される場合には、調整器526によって出力される調整後フレームのエネルギーがエネルギーEを有するよう、再構築帯域における第1スペクトル部を追加的に分析して、正しいゲイン係数527を最終的に見出す。
この意味では、HE−AACと比べて、本発明による周波数再構築の正確性が高いことを評価することが非常に重要である。これは、図3aにおけるスケールファクタ帯域7について説明される。図13aに図示される従来のエンコーダは、高解像度で符号化されるべきスペクトル部307を「欠落倍音」として検知する。そして、このスペクトル成分のエネルギーが、スケールファクタ帯域7などの再構築帯域に関するスペクトル包線絡情報とともに、デコーダに送信される。その後、デコーダが欠落倍音を再生成する。しかしながら、欠落倍音307が図13aに示す従来のデコーダによって再構築されるスペクトル値が、再構築周波数390によって示される周波数における帯域7の中央に存在する。よって、本発明は、図13dの従来のデコーダによって生じる周波数エラー391を避けることができる。
一実施形態において、スペクトル分析器を実行して、第1スペクトル部と第2スペクトル部の類似性を算出し、算出された類似性に基づき、再構築範囲の第2スペクトル部について、この第2スペクトル部とできる限りマッチする第1スペクトル部を決定する。そして、可変的ソース範囲/対象範囲の実行において、パラメトリックコーダは、第2符号化表現において、各対象範囲について整合する対象範囲を表現する整合情報を追加的に導入する。デコーダ側において、この情報は、図5cの周波数タイル生成器522によって用いられる。図5cは、ソース帯域IDおよび対象帯域IDに基づく生の第2部523の生成を図示する。
さらに、図3aに示す通り、スペクトル分析器は、最大限の分析周波数まで、スペクトル表現を分析するよう構成される。この最大限の分析周波数は、サンプリング周波数の半分を少しだけ下回り、少なくともサンプリング周波数の1/4かまたは一般的にはこれより高い方が好ましい。
図示される通り、エンコーダは、低解像度処理をすることなく動作し、またデコーダは、高解像度処理をすることなく動作する。つまり、スペクトル領域オーディオコーダは、オリジナルの入力オーディオ信号のサンプリングレートにより定義されるナイキスト周波数を有するスペクトル表現を生成するよう構成される。
さらに、図3aに図示される通り、スペクトル分析器は、ギャップ充填開始周波数から開始し、スペクトル表現に含まれる最大周波数に示される最大周波数で終了するスペクトル表現を分析するよう構成される。そして、最大周波数からギャップ充填開始周波数までのスペクトル部が第1セットのスペクトル部に属し、例えば304、305、306、307などのギャップ充填周波数より上の周波数値を有するさらなるスペクトル部が、第1セットの第1スペクトル部に追加的に含まれている。
上述の通り、スペクトル領域オーディオデコーダ112は、第1復号表現のスペクトル値によって示される最大周波数が、サンプリングレートを有する時間表現に含まれる最大周波数と等しくなるよう構成され、第1セットの第1スペクトル部における最大周波数のスペクトル値が、ゼロまたはゼロとは異なる値である。いずれにせよ、スペクトル成分の第1セットにおけるこの最大周波数については、スケールファクタ帯域のスケールファクタが存在する。このスケールファクタは、図3aおよび3bの関係で議論された通り、このスケールファクタ帯域における全てのスペクトル値がゼロに設定されたか否かを問わず、生成され送信される。
したがって、本発明は、ノイズ置換やノイズ充填(これらの技術は、ローカル信号コンテンツのようなノイズの効率的表現に特化している)などのような圧縮効率を向上させるその他のパラメータ技術について、本発明によると音調成分の正確な周波数再生が可能であるという利点を有する。今日まで、いずれの従来技術も、低帯域(LF)と高帯域(HF)における固定された演繹分割の制限のない、スペクトルギャップ充填による任意の信号コンテンツの効率的パラメータ表現について、提案していない。
本発明のシステムの実施形態は、従来技術のアプローチを改善し、高圧縮効率を実現し、知覚的な不快感をほとんどなくし、低ビットレートであっても全オーディオ帯域を提供する。
一般的なシステムは、下記から構成される。
・全帯域コア符号化
・インテリジェントギャップ充填(タイル充填またはノイズ充填)
・音調マスクにより選択されたコア内におけるまばらな音調部分
・充填を含む、全帯域のためのジョイントステレオペア符号化
・タイル上のTNS
・IGFレンジにおけるスペクトル白色化
より効率的なシステムに向かっての第1ステップとしては、スペクトルデータを、コア符号器の1つとは異なる第2変形領域に変換する必要性を除去することである。例えばAACなどの多くのオーディオコーデックは、MDCTを基本的な変換として用いているので、MDCT領域においてBWEも実行できると便利である。BWEシステムの第2要件としては、音調グリッドを保存する必要性がある。これによって、HF音調成分が保存され、符号化オーディオの質が既存のシステムよりも優れたものになる。BWEスキームについて、上記の要件の両方に対処するために、インテリジェントギャップ充填(IGF)と称される新システムが提案されている。図2bは、エンコーダ側における提案システムのブロック図を示し、図2aは、デコーダ側におけるシステムを示す。
図6aは、本発明の別の実施形態における符号化オーディオ信号を復号する装置を示す。この復号装置は、第1セットのスペクトル部の第1復号表現を生成するスペクトル領域オーディオデコーダ602と、スペクトル領域オーディオデコーダ602の下流に接続され、第1セットの第1スペクトル部に含まれる第1スペクトル部を用いて、再構築第2スペクトル部を生成する周波数再生成器604とを備える。603として図示される通り、第1スペクトル部および第2スペクトル部におけるスペクトル値は、スペクトル予測残差値である。これらのスペクトル予測残差値を全スペクトル表現に変換するために、スペクトル予測フィルタ606が設けられる。逆予測フィルタは、第1セットの第1周波数および再構築された第2スペクトル部のスペクトル残差値を用いて、周波数に対して逆予測を行うよう構成される。スペクトル逆予測フィルタ606は、符号化オーディオ信号に含まれるフィルタ情報によって構成される。図6bは、図6aの実施形態の詳細なる実施を図示する。スペクトル予測残差値603は、再構築帯域または所定の第2周波数部のための生のスペクトル値を生成する周波数タイル生成器612に入力される。この生データは、高解像度の第1スペクトル表現と同じ解像度を有し、スペクトル整形器614に入力される。スペクトル整形器は、ビットストリームに送信される包絡線情報を用いてスペクトルを整形する。このスペクトル整形されたデータは、スペクトル予測フィルタ616に適用される。スペクトル予測フィルタ616は、ビットストリームを介してエンコーダからデコーダに送信されるフィルタ情報607を使って、全スペクトル値のフレームを最終的に生成する。
図6bにおいては、エンコーダ側において、ビットストリームを介して送信され、線607を介して使用されるフィルタ情報が、包絡線情報を計算した後に計算されると想定されている。したがって、換言すると、図6bのデコーダに整合するエンコーダは、スペクトル残差値をまず算出し、そして例えば図7aに示す通り、スペクトル残差値を用いて包絡線情報を計算する。しかしながら、エンコーダ側においてTNSまたはTTSフィルタリングより前に包絡線情報が算出される場合、その他の実施形態が、所定の実施形態にとっても便利である。そして、スペクトル予測フィルタ622は、ブロック624においてスペクトル整形を実施するために適用される。よって、換言すると、全スペクトル値は、スペクトル整形処理624が適用される前に生成される。
複素数値を有するTNSフィルタまたはTTSフィルタが算出されることが好ましい。これは図7aに図示される。オリジナルオーディオ信号が複素MDCTブロック702に入力される。そして、TTSフィルタ計算およびTTSフィルタリングが複素領域において実行される。その後、ブロック706において、IGFサイド情報が算出され、符号化等のためのスペクトル分析などのその他処理も算出される。そして、ブロック706により生成された第1セットの第1スペクトル部は、708として図示される心理音響モデルにより駆動するエンコーダにより符号化され、図7aにおいてX(k)として示される第1セットの第1スペクトル部が得られる。これらの全てのデータは、ビットストリーム多重変換装置710に転送される。
デコーダ側においては、符号化されたデータが多重分離装置720に入力され、IGFサイド情報およびTTSサイド情報と、第1セットの第1スペクトル部の符号化表現とを分別する。
そして、1つ以上の実数スペクトルから複素スペクトルを計算するために、ブロック724が用いられる。その後、実数スペクトルおよび複素スペクトルの両方が、ブロック726に入力され、再構築帯域のための第2セットの第2スペクトルにおける再構築周波数値が生成される。タイル充填された全帯域フレームが完全に入手できると、逆TTS処理728が実行され、デコーダ側では、最終逆複素MDCT処理がブロック730において実行される。したがって、コア帯域または個別のタイル帯域において適用されたときのみならず、コア/タイル境界またはタイル/タイル境界に適用された場合にも、複素TNSフィルタ情報の利用によって、タイル境界処理が自動的に生成され、最終的にはタイル間のスペクトル相関が再導入される。このタイル境界に対するスペクトル相関は、周波数タイルを生成し、周波数タイルの生データに対してスペクトル包絡線調整を実施するだけでは得ることはできない。
図7cは、オリジナル信号(左のパネル)とTTSを有しない拡張信号との比較を示す。750で示される上部周波数範囲において、拡張部として示される強いアーティファクトが見られる。しかしながら、これは、750の同じスペクトル部が図7cのアーティファクト関連成分750と比較したとき、図7eにおいては生じない。
本発明の実施形態またはオーディオ符号化システムは、利用可能なビットレートの主要部分を用いて、信号における知覚的に最も関連ある構造のみを、エンコーダにおいて波形符号化する。そして、それによって生じたスペクトルギャップは、オリジナルスペクトルにおおよそ近似する信号コンテンツを用いて、デコーダにおいて充填される。パラメータ駆動されるいわゆるスペクトルインテリジェントギャップ充填(IGF)を制御するために、相当に限られたビット配分のみが、エンコーダからデコーダに送信される専用サイド情報により消費される。
オーディオ信号の蓄積または送信については、厳格なビットレート制限が適用されることが多い。過去において、符号器は、相当な低ビットレートしか利用可能でない場合には、送信オーディオ帯域を徹底的に削減することを強制されていた。今日においては、近代のオーディオコーデックは、スペクトル帯域レプリケーション(SBR)(非特許文献1)などの帯域幅拡張(BWE)方法を使って、広帯域信号を符号化することができる。これらのアルゴリズムは、高周波数コンテンツ(HF)のパラメータ表現に依存している。この周波数コンテンツは、HFスペクトル領域への転換(「パッチング」)およびパラメータ駆動の後処理によって、復号信号の波形符号化された低周波数部分(LF)から生成される。BWEスキームにおいては、いわゆる所定のクロスオーバー周波数より上のHFスペクトル領域は、スペクトルパッチングに基づき再構築されることが多い。一般的に、HF領域は、複数の近接パッチから構成され、これらの各パッチは、所定のクロスオーバー周波数よりも下のLFスペクトルのバンドパス(BP)から供給される。従来のシステムは、近接するサブバンド係数のセットをソースから対象領域にコピーすることにより、フィルタバンク表現内において、効率的にパッチングを実施する。
もしBWEシステムがフィルタバンクまたは時間周波数変換領域において実施された場合、帯域幅拡張信号の時間的形状を制御する可能性はかなり限られている。一般的に、時間的粒度は、近接する変換窓間において用いられるホップサイズによって制限される。これによって、帯域幅拡張スペクトル範囲において、不要なプリエコーまたはポストエコーが生じ得る。
知覚的オーディオ符号化から、オーディオ信号の時間包絡線の形は、時間包絡線整形(TNS)(非特許文献14)のようなスペクトルフィルタリング技術を用いて復元することができることが知られている。しかしながら、従来技術から知られているTNSフィルタリングは、実数スペクトルに対する実数フィルタである。実数スペクトルに対する実数フィルタは、特に基礎となる実数変換が変形離散コサイン変換(MDCT)の場合には、エイリアジングアーティファクトによって著しく害される恐れがある。
時間包絡線タイル整形処理は、複素変形離散コサイン変換(CMDCT)などから得られたような複素数スペクトルに対して、複素フィルタリングを適用する。それによって、エイリアジングアーティファクトを避けることができる。
時間タイル整形は、以下から構成される:
・複素フィルタ係数の推定と、エンコーダにおけるオリジナル信号のスペクトルに対する平坦化フィルタの適用
・サイド情報におけるフィルタ係数の送信
・デコーダにおけるタイル充填再構築スペクトルに対する整形フィルタの適用
本発明は、オーディオ変換符号化から知られる従来技術を拡張するものである。特に、周波数方向に沿う直列予測により、時間ノイズ整形(TNS)を拡張して、帯域幅拡張の点で変形使用できるようするものである。
さらに、本発明による帯域幅拡張アルゴリズムは、インテリジェントギャップ充填(IGF)に基づくものであるが、信号表現として、実数のクリティカルサンプルMDCT表現に依拠するIGF規格設定に対して、オーバーサンプルの複素数変換(CMDCT)を採用するものである。CMDCTは、実数部分におけるMDCT係数と、各複素数スペクトル係数の虚数部分におおけるMDST係数との組合せと見ることができる。
IGFの観点から新たなアプローチが記載されているが、本発明の方法は、オーディオ信号のフィルタバンク表現に基づくいかなるBWE方法とも組み合わせて用いることができる。
新規性の観点では、周波数方向に沿った直列予測は、時間ノイズ整形としては使用されず、むしろ時間タイル整形(TTS)技術として使用される。タイル充填された信号成分が、従来の知覚的変換コーデックのTNSによる量子化ノイズ整形に対して、TTSによって時間的に整形されるという事実により、このようにリネームも正当化される。
図7aは、IGFおよび新たなTTSアプローチを使用したBWEエンコーダのブロック図である。
基礎となるエンコーディングスキームは、次の通り機能する。
・時間領域信号x(n)のCMDCTを計算して周波数領域信号X(k)を求め、
・複素数TTSフィルタを算出し、
・BWEについてサイド情報を入手して、デコーダによって再生されるべきスペクトル情報を除去し、
・心理音響モジュール(PAM)を用いて量子化を適用し、
・データを蓄積/送信し、実数MDCT係数のみが送信される。
図7bは、対応するデコーダを示す。デコーダにおいては、エンコーダにおける処理を主に反対にしたものである。
ここで、基礎的復号スキームは、次の通り機能する。
・MDCT値からMDST係数を予測し(この処理において、1ブロック復号遅延が追加される)、MDCTおよびMDSTを結合して、複素数CMDCT係数にし、
・後処理とともにタイル充填を実行し、
・送信されたTTSフィルタ係数を利用して逆TTSフィルタリングを適用し、
・逆CMDCTを計算する。
なお、上記の代わりに、TTS分析とIGFパラメータ予測がエンコーダにおいて一貫して反転されるのであれば、TTS分析とIGF後処理のデコーダにおける順番を反対にしてもよい。
効率的な変換符号化のために、約20msのいわゆる「長ブロック」を使用して、合理的な変換ゲインを達成することが好ましい。当該長ブロック内の信号が過渡を含む場合には、タイル充填によって、可聴のプリ・ポストエコーが再構築スペクトル帯域において発生する。図7cは、IGFにより過渡を害する典型的なプリ・ポストエコー効果を示す。図7cの左パネルにおいて、オリジナル信号のスペクトルが示され、右パネルにおいて、本発明のTTSフィルタリングを適用せずにタイル充足された信号のスペクトルが示される。この例においては、コア帯域およびタイル充填帯域間におけるIGF開始周波数fIGFstartまたはfSplitが、f/4に選択されている。図7cの右パネルにおいては、過渡を取り囲む、明確なプリ・ポストエコーを見ることでき、特に再現された周波数領域のスペクトル上端において顕著である。
TTSモジュールにおける主なタスクとしては、これらの不要な信号成分を過渡の周囲に密接した近隣に閉じ込め、人間の知覚の時間的マスク効果により支配される時間領域においてこれらを隠すことが挙げられる。したがって、CMDCT領域における「前方予測」を用いて、必要なTTS予測係数を計算し適用する。
TTSとIGFを組み合せてコーデックとした実施形態においては、IGFタイルが完全に1つのTTSフィルタ(平坦化フィルタまたは整形フィルタ)によってフィルタされるか、またはされないよう、所定のTTSパラメータとIGFパラメータを並べることが重要である。したがって、全てのTTSstart[..]周波数またはTTSstop[..]は、1つのIGFタイルに含まれるのではなく、それぞれのfIGF...周波数について並べられる。図7dは、3つのTTSフィルタについてのTTSおよびIGF処理エリアの例を示す。
TTS停止周波数は、IGFツールの停止周波数に調整され、これはfIGFstartよりも高い。もしTTSが2つ以上のフィルタを用いる場合には、2つのTTSフィルタ間におけるクロスオーバー周波数がIGF分割周波数とマッチするよう確保されなければならない。そうでなければ、1つのTTSサブフィルタが、fIGFstartを超過して、オーバーシェイピングのように不要なアーティファクトにつながってしまう。
図7aおよび7bに示す変形実施形態においては、デコーダにおいてIGFエネルギーが正しく調整されるか追加的注意が必要である。特に、TTSおよびIGF処理の一環で、異なる予測ゲインを有する異なるTTSフィルタがソース領域に対して平坦化フィルタとして適用され、1つのIGFタイルの対象スペクトル領域に対して当該平坦化フィルタの正確な対面とではない整形フィルタとして適用される場合には、注意が必要である。この場合、二つの適用TTSフィルタの予測ゲイン比は、もはや等しいものではなく、この比に基づくエネルギー調整が適用されなければならない。
別の変形実施形態においては、IGF後処理とTTSの順番が反対とされる。デコーダにおいて、これは、IGF後処理によるエネルギー調整が、TTSフィルタリングの後に算出され、よって合成変換前の最終処理工程であることを意味する。したがって、符号化において、異なるTTSフィルタゲインが1つのタイルについて適用されたか否かを問わず、最終エネルギーは常に、IGF処理によって正しく調整される。
デコーダ側においては、TTSフィルタ係数が全スペクトルに対して再び適用され、つまり再生成スペクトルによって拡張されたコアスペクトルに適用される。TTSの適用は、再生成されたスペクトルの時間包絡線を、オリジナル信号の包絡線と再びマッチさせるよう変形するために必要である。したがって、プリエコーが低減される。また、それによって、過去のTNSにはよくあるように、fIGFstartよりも下の信号における量子化ノイズが時間的になお形成される。
伝統的な符号器のおいては、オーディオ信号に対するスペクトルパッチング(例:SBR)は、パッチ境界におけるスペクトル相関性を害し、それによってオーディオ信号に分散がもたらされ、時間的包絡線が害される。したがって、IGFタイル充填を残差信号に対して実行する別のメリットとしては、TTS整形フィルタの適用後、タイル境界がシームレスに相関され、より信号を忠実に時間的に再現することができる。
このように処理された信号の結果が図7eに示される。フィルタされないバージョン(図7cの右パネル)と比較すると、TTSフィルタされた信号においては、不要なプリ・ポストエコー(図7eの右パネル)がよく低減されている。
さらに、上述の通り、図7aは、図7bのデコーダまたは図6aのデコーダと一致するエンコーダを示す。基本的に、オーディオ信号を符号化する装置は、702のようなオーディオ信号をスペクトル表現に変換する時間スペクトル変換器を備える。スペクトル表現は実数スペクトル表現であってもよいし、またはブロック702に示すように、複素数スペクトル表現であってもよい。さらに、704などの周波数に対して予測を行う予測フィルタが、スペクトル残差値を生成するために設けられる。予測フィルタ704は、オーディオ信号から抽出される予測フィルタ情報によって定義され、図7aに714で示す通り、ビットストリーム多重変換装置710に転送される。さらに、心理音響により駆動するオーディオエンコーダ704のようなオーディオ符号器が設けられる。オーディオ符号器は、スペクトル残差値の第1スペクトル部位の第1セットを符号化して、第1スペクトル値の符号化された第1セットを得るよう構成される。さらに、図7aにおいて706で示されるようなパラメトリック符号器が、第2セットの第2スペクトル部を符号化するために設けられる。第1セットの第1スペクトル部は、第2セットの第2スペクトル部と比較して、より高いスペクトル解像度で符号化されることが好ましい。
最後に、図7aに図示される通り、パラメトリック符号化された第2セットの第2スペクトル部、符号化された第1セットの第1スペクトル部、および「TTSサイド情報」として図7aにおいて714として示されるフィルタ情報、を含む符号化された信号を出力するため、出力インターフェイスが設けられる。
予想フィルタ704は、スペクトル表現のスペクトル値を使ってフィルタ情報を計算するよう構成されたフィルタ情報計算器を有することが好ましい。さらに、予想フィルタは、フィルタ情報を計算するために用いられるものと同じスペクトル表現のスペクトル値を使って、スペクトル残差値を計算するよう構成されることが好ましい。
TTSフィルタ704は、従来のオーディオエンコーダと同様に、TNSツールをAAC規格に従って適用するよう構成されることが好ましい。
以下、図8aないし8eを参照して、2チャンネル復号処理を用いたさらなる実施形態を説明する。また、図2aおよび2bにおける対応する構成(ジョイントチャンネル符号器228およびジョイントチャンネルデコーダ204)に関する記載も参照する。
図8aは、復号2チャンネル信号を生成するオーディオデコーダを示す。このオーディオデコーダは、符号化された2チャンネル信号を復号して第1セットの第1スペクトル部を得る4つのオーディオデコーダ802と、第2セットの第2スペクトル部のためのパラメータデータと、第2スペクトル部について第1か第2の異なる2チャンネル表現のいずれかを識別する2チャンネル識別情報とを提供するパラメトリックデコーダ804と、を有する。さらに、周波数再生成器806が、第1セットの第1スペクトル部のに含まれる第1スペクトル部と、第2部のためのパラメータデータと、第2部のための2チャンネル識別情報とに基づいて、第2スペクトル部を再生成するよう設けられる。図8bは、ソースレンジおよび目標レンジにおける2チャンネル表現の異なる組合せを示す。ソースレンジが第1の2チャンネル表現にある一方、目標レンジもまた第1の2チャンネル表現にあってもよい。あるいは、ソースレンジが第1の2チャンネル表現にある一方、目標レンジが第2の2チャンネル表現あってもよい。さらに、図8bの第2列に示す通り、ソースレンジが第2の2チャンネル表現にある一方、目標レンジが第1の2チャンネル表現にあってもよい。最後に、ソースレンジと目標レンジの両方が、第2の2チャンネル表現にあってもよい。一実施形態においては、第1の2チャンネル表現は、2チャンネル信号の2チャンネルが個別に表現されている別個の2チャンネル表現である。そして、第2の2チャンネル表現は、2チャンネル表現における2つのチャンネルが統合的に表現された統合表現(つまり、対応するスピーカに出力するのに必要なように、別個の2チャンネル表現を再計算するために、さらなる処理または表現変換が必要な表現)である。
一実施形態において、第1の2チャンネル表現が左/右(L/R)表現である一方、第2の2チャンネル表現が統合ステレオ表現であってもよい。しかしながら、左/右またはM/Sまたはステレオ予測ではない他の2チャンネル表現が適用されてもよく、本発明において使用されてもよい。
図8cは、図8aのオーディオデコーダによって実施される処理のフローチャートである。ステップ812において、オーディオデコーダ802は、ソースレンジの復号をおこなう。図3aについて、ソースレンジは、スケールファクタ帯域SCB1ないしSCB3を含む。さらに、各スケールファクタ帯域について2チャンネル識別情報があってもよく、スケールファクタ帯域1が例えば第1表現(例えばL/R)である一方、第3スケールファクタ帯域がM/Sや予想ダウンミックス/残差のような第2の2チャンネル表現であってもよい。したがって、ステップ812に関しては、異なる帯域について異なる表現となることがありえる。そして、ステップ814において、周波数再生成器806は、周波数再生成のためにソースレンジを選択するよう構成される。ステップ816において、周波数再生成器806は、ソースレンジの表現をチェックし、ブロック818において、周波数再生成器806は、ソースレンジの2チャンネル表現と目標レンジの2チャンネル表現とを比較する。もし両方の表現が同じであれば、周波数再生成器806は、2チャンネル信号の各チャンネルについて個別の周波数を再生成する。しかしながら、ブロック818に示す通り、これらの表現が同じでない場合には、信号フロー824が取られ、ブロック822がソースレンジからの他方の2チャンネル表現を計算し、この計算した2チャンネル表現を使って目標レンジを再生成する。したがって、図8aのデコーダは、第1の2チャンネル表現となっているソースレンジを使って、第2の2チャンネル識別情報を有していると示される目標レンジを再生成することができる。本発明によると、同様の2チャンネル識別情報を有するソースレンジを使って、目標レンジを再生成することがおのずと追加的に可能となる。さらに、本発明によると、統合2チャンネル表現を示す2チャンネル識別情報を有する目標レンジを再生成することが可能となり、またこの表現を、2チャンネル信号用の対応する拡声器に蓄積または送信するのに必要となる、個別のチャンネル表現に変換することも可能となる。
2チャンネル表現の2チャンネルは、左チャンネルや右チャンネルのような二つのステレオチャンネルであってもよいことを強調しておく。しかしながら、信号は、例えば5チャンネルやサブウーファーチャンネル、またはもっと多くのチャンネルを有している多チャンネル信号であってもよい。そして、図8aないし8eを参照して上述した通り、1対の2チャンネルが例えば、左チャンネルと右チャンネルの場合、左サラウンドチャンネルと右サラウンドチャンネルの場合、および中央チャンネルとLFE(サブウーファー)チャンネルの場合には、対による2チャンネル処理を実施することができる。その他の組合せを使って、例えば3つの2チャンネル処理手順により、6つの入力信号が表現されてもよい。
図8dは、図8aに対応する本発明のデコーダのブロック図である。ソースレンジすなわちコアのデコーダ830は、オーディオデコーダ802に対応する。その他のブロック832、834、836、838、840、842および846は、図8aの周波数再生成器806の一部である。特に、ブロック832は、ブロック832の出力において、第1表現におけるソースレンジと第2の2チャンネル表現におけるソースレンジとの完全なセットが存在するよう、ソースレンジ表現を個別の帯域に変換する表現変換器である。これらの2つの完全なソースレンジ表現は、ソースレンジの両方の表現について、蓄積部834に記憶することができる。
そして、ブロック836は、ソースレンジIDを入力として使って、さらに対象レンジについて2チャンネルIDを入力として使用して、周波数タイル再生成処理を適用する。対象レンジについての2チャンネルIDに基づいて、周波数タイル生成器は蓄積部834にアクセスして、835において周波数タイル生成器に入力された対象レンジに係る2チャンネルIDにマッチするソースレンジの2チャンネル表現を受信する。そのため、対象レンジについての2チャンネルIDが統合ステレオ処理を示すときには、周波数タイル生成器836は、蓄積部834にアクセスして、ソースレンジID833によって示されるソースレンジの統合ステレオ表現を得る。
周波数タイル生成器836は、この処理を各対象レンジについて実行する。周波数タイル生成器の出力は、2チャンネル識別情報によって識別されたチャンネル表現における各チャンネルが存在するようになされる。そして、包絡線調整器838による包絡線調整が実施される。包絡線調整は、2チャンネル識別により識別された2チャンネル領域において実行される。このため、包絡線調整パラメータが必要となり、これらのパラメータは、上述と同様の2チャンネル表現において、エンコーダからデコーダに送信される。包絡線調整器による処理対象となる対象レンジにおける2チャンネル識別情報が、当該対象レンジについて包絡線データとは異なる2チャンネル表現を示す2チャンネル識別情報を有している場合には、パラメータ変換器840が包絡線パラメータの必要な2チャンネル表現に変換する。例えば、ある帯域の2チャンネル識別情報が統合ステレオ符号処理を示し、当該対象レンジのパラメータがL/R包絡線パラメータとして送信された場合には、正しいパラメータ表現が対象レンジのスペクトル包絡線調整に使用されるよう、パラメータ変換器が上述のL/R包絡線パラメータから統合ステレオ包絡線パラメータを算出する。
他の好適な実施形態においては、対象帯域において統合ステレオが用いられている場合、包絡線パラメータが統合ステレオパラメータとして既に送信されている。
異なる2チャンネル表現を有する対象レンジのセットが包絡線調整器838へ入力されることが想定される場合には、包絡線調整器838の出力もまた、異なる2チャンネル表現を有する対象レンジのセットとなる。対象レンジが例えばM/Sのように統合表現を有する場合には、この対象レンジは、表現変換器842によって処理される。表現変換器842は、拡声器への蓄積または送信のために必要となる個別表現を算出する。しかしながら、対象レンジが既に個別の表現を有している場合には、信号フロー844がとられ、表現変換器842が迂回される。ブロック842の出力において、個別の2チャンネル表現である2チャンネルスペクトル表現が得られ、これはブロック846によって示される通りさらに処理される。このさらなる処理は、例えば周波数/時間変換処理やその他必要な処理であってもよい。
第2スペクトル部が周波数帯域に対応することが好ましく、また2チャネル識別情報が、図8bの表に対応するフラグ配列(各周波数帯域について1つのフラグが存在するもの。)として提供されることが好ましい。そして、パラメトリックデコーダは、フラグが設定されたか否かをチェックし、フラグに従って、周波数再生成器106が第1スペクトル部位の第1表現または第2表現のいずれかを用いるよう制御する構成である。
一実施形態においては、図3aのIGF開始周波数309から開始する再構築レンジのみが、異なる再構築帯域について2チャンネル識別情報を有する。さらなる実施形態においては、これがIGF開始周波数309よりも下の周波数に適用されてもよい。
またさらなる実施形態において、ソース帯域識別情報および対象帯域識別情報は、類似性分析によって最適に決定することができる。しかしながら、ソースレンジと対象レンジに固定の関連性がある場合には、本発明の2チャンネル処理が適用されてもよい。ソースレンジは、高効率のAAC処理から知られるマルチプルパッチの処理に類似する2以上の周波数タイル充填処理を用いる倍音周波数タイル充填処理またはコピー周波数タイル充填処理のいずれかによって、周波数についてより広い対象レンジを再形成するために使用することができる。
図8eは、2チャンネルオーディオ信号を符号化するオーディオエンコーダを示す。エンコーダは、2チャンネルオーディオ信号をスペクトル表現に変換する時間スペクトル変換器860を有する。さらに、スペクトル分析器866は、2チャンネルオーディオチャンネルのオーディオ信号をスペクトル表現へと変換する。さらに、スペクトル分析器866は、いずれのスペクトル部位が高解像度で符号化されるかを決定するため(つまり、第1スペクトル部位の第1セットを見出し、さらに第2スペクトル部位の第2セットを見出すため)に、分析をするよう設けられる。
さらに、2チャンネル分析器864は、第2セットの第2スペクトル部を分析して、第1の2チャンネル表現かまたは第2の2チャンネル表現かを識別する2チャンネル識別情報を決定するよう設けられる。
2チャンネル分析器の結果によっては、第2スペクトル表現おける帯域は、第1の2チャンネル表現または第2の2チャンネル表現を用いてパラメータ化され、これがパラメトリックエンコーダ868により実行される。コア周波数レンジ(つまり、図3aにおけるIGF開始周波数309よりも下の周波数帯域)は、コアエンコーダ870によって符号化される。ブロック868および870の結果は、出力インターフェイス872に入力される。上述の通り、2チャンネル分析器は、IGF開始周波数より上の各帯域かまたは全部の周波数帯域について、2チャンネル識別情報を提供し、この2チャンネル識別情報が出力インターフェイス872により出力される符号化された信号873に含まれるよう、この2チャンネル識別情報が出力インターフェイス872に対して送られる。
さらに、オーディオエンコーダが帯域変換器862をさらに備えることが好ましい。2チャンネル分析器862の決定に基づき、時間スペクトル変換器862の出力信号が、2チャンネル分析器、特に2チャンネルID835によって示される表現に変換される。よって、帯域変換器862の出力は、各周波数帯域が第1の2チャンネル表現または第2の2チャンネル表現のいずれかにあってもよい周波数帯域のセットである。本発明が全帯域に適用された場合、つまりソースレンジと再構築レンジの両方が帯域変換器によって処理される場合、スペクトル分析器860は、この表現を分析する。しかしながら、その代わりに、スペクトル分析器860はまた、時間スペクトル変換器の信号出力を、制御線861の示すところにより、分析してもよい。したがって、スペクトル分析器860は、帯域変換器862の出力か、または帯域変換器862によって処理される前の時間スペクトル変換器860の出力かのいずれに対して、好適な音調分析を適用してもよい。さらに、スペクトル分析器は、所定の対象レンジに最も整合するソースレンジの識別を、帯域変換器862または時間スペクトル変換器860のいずれかの結果に基づいて行なってもよい。
次に、図3aおよび図3bを参照して既に説明したエネルギー情報値の好適な算出を図示する図9ないし9dを参照する。
現在のオーディオコーダは、様々な技術を適用して、所定のオーディオ信号を表現するデータ量を最小限にしている。USAC(非特許文献1)のようなオーディオコーデックは、MDCTのような時間周波数変換を適用して、所定のオーディオ信号のスペクトル表現を得ている。これらのMDCT係数は、人間の聴覚システムの心理音響的側面を活用して、量子化されている。利用可能なビットレートが減少した場合、量子化が粗くなり、ゼロのスペクトル値が大量にもたらされて、デコーダ側において可聴なアーティファクトを生成してしまう。知覚品質を改善するために、従来のデコーダは、これらのゼロスペクトルの部位をランダムノイズにより充填する。IGF手法は、残りのゼロではない信号からタイルを採取し、スペクトルにおけるこれらのギャップを充填する。復号オーディオ信号の知覚品質にとって、スペクトル係数のスペクトル包絡線とエネルギー分散とが保存されることが重要である。ここで説明されるエネルギー調整方法においては、送信されたサイド情報を用いて、オーディオ信号のスペクトルMDCT包絡線が再構築される。
eSBR(非特許文献15)においては、少なくとも2つのファクタにより、オーディオ信号が低解像度処理され,スペクトルの高周波数部分が完全にゼロ設定とされる(非特許文献1、17)。この削除された部位は、デコーダ側においてパラメータ技術であるeSBRにより置き換えられる。eSBRは、追加的変換として、QMF変換(空の高周波数部位を置換してオーディオ信号を再サンプルするために利用される変換)の使用を示唆する(非特許文献17)。これによって、オーディオコーダにおいては、計算がより複雑となり、またメモリ消費が増えてしまう。
USAC符号器(非特許文献15)は、スペクトルホール(ゼロのスペクトル線)をランダムノイズにより充填する可能性を提供するが、ランダムノイズは過渡信号の時間的微細構造を保全することはできず、また、音調信号の倍音構造を保存することもできないという欠点がある。
デコーダ側においてeSBRが動作するエリアは、エンコーダにより完全に削除された(非特許文献1)。したがって、eSBRは、高周波数領域における音調線を削除し、オリジナル信号の倍音構造を歪ませがちである。eSBRのQMF周波数解像度はかなり低く、正弦波成分の再挿入は基礎となるフィルタバンクの解像度が粗い場合にのみ可能なので、再生周波数レンジにおけるeSBRによる音調成分の再生成は、その精度が非常に低いものとする。
eSBRは、パッチされたエリアのエネルギーを調整する技術の、スペクトル包絡線調整(非特許文献1)を用いる。この技術は、QMF周波数時間グリッド上の送信済エネルギー値を使って、スペクトル包絡線を再整形する。この従来技術は、部分的に削除されたスペクトルを取り扱わず、また高時間解像度のため、適切なエネルギー値を送信するのに相当量のビットを必要とするか、またはこのエネルギー値に粗い量子化を適用するかのいずれかになりがちである。
IGFの手法は、非特許文献15に記載されるように算出される伝統的なMDCT変換を用いるため、追加的変換を要しない。
ここで説明されるエネルギー調整方法は、エンコーダにより生成されたサイド情報を用いて、オーディオ信号のスペクトル包絡線を再構築する。サイド情報は、以下に概略を示すようにしてエンコーダにより生成される:
a)窓化されたMDCT変換を入力オーディオ信号に対して適用し(非特許文献16、セクション4.6)、選択的に窓化されたMDSTを算出するか、または窓化されたMDSTを、算出されたMDCTから予測し、
b)TNS/TTSをMDCT係数に適用し(非特許文献15、セクション7.8)、
c)IGF開始周波数fIGFstartより上でかつIGF停止周波数fIGFstopまでの各MDCTスケールファクタ帯域について、平均エネルギーを算出し、
d)平均エネルギー値を量子化する。
IGFstartおよびfIGFstopは、ユーザの設定するパラメータである。
ステップc)およびd)で算出された値は、サイド情報として損失なく符号化され、ビットストリームとともにデコーダに送信される。
デコーダは、送信された値を受信し、これらを用いてスペクトル包絡線を調整する:
a)送信されたMDCT値を逆量子化し、
b)信号化される場合には伝統的なUSACノイズ充填処理を適用し、
c)IGFタイル充填処理を適用し、
d)送信されたエネルギー値を逆量子化し、
e)帯域側でスペクトル包絡線スケールファクタを調整し、
f)信号化される場合には、TNS/TTSを適用する。
を、窓長2Nの窓化されたオーディオ信号の、MDCT変換された実数スペクトル表現とする。この変換は、非特許文献16に記載されている。エンコーダは、このx^に対して選択的にTNSを適用する。
非特許文献16、4.6.2において、スケールファクタ帯域におけるx^の区画が記載されている。スケールファクタ帯域はインデックスのセットであり、scbと示されている。
k=0,1,2,…max_sfbの各scbの限界は、配列swb_offsetによって定義され(非特許文献16、4.6.2)、そこでは、swb_offset[k]とswb_offset[k+1]−1とが、scbkに含まれる最低および最高スペクトル係数線について、第1および最後のインデックスを定義している。ここで、スケールファクタ帯域を次のように表現する。
scb:={swb_offset[k],1+swb_offset[k],2+swb_offset[k],…,swb_offset[k+1]−1}
もしエンコーダがIGFツールを使用する場合には、ユーザがIGF開始周波数およびIGF停止周波数を定義する。これらの二つの値は、最もフィットするスケールファクタ帯域インデックスigfStartSfbおよびigfStopSfbに対してマップされる。両方とも、ビットストリームにてデコーダへと信号伝達される。
非特許文献16には、長ブロックおよび短ブロック変換の両方が記載される。長ブロックについては、スペクトル係数の1セットのみが、スケールファクタの1セットとともにデコーダに送信される。短ブロックについては、異なる8つのスペクトル係数セットを有する8つの短窓が計算される。ビットレートを節約するために、これら8つの短ブロック窓のスケールファクタは、エンコーダによってグループ分けされる。
IGFの場合、個々で説明される方法は、デコーダに送信されるスペクトル値をグループ分けするために、過去のスケールファクタ帯域
を用いる。ここで、
k=igfStartSfb,1+igfStartSfb,2+igfStartSfb,…igfEndSfb
である。量子化については、以下が計算される。
全ての値E^が、デコーダに送信される。
ここで、エンコーダが、num_window_groupスケールファクタセットをグループ分けすることを決定するものとする。8つの短窓のインデックスとしての集合{0,1,2,..,7}におけるこのグループ区画を、wにより表現する。wは、wにおけるl番目の部分集合を意味し、lは、窓グループのインデックス0≦l≦num_window_groupを意味する。
短ブロック計算においては、ユーザが定義したIGF開始/停止周波数を、適切なスケールファクタ帯域にマップする。しかしながら、簡略化のため、短ブロックについても、k=igfStartSfb,1+igfStartSfb,2+igfStartSfb,…igfEndSfbと表現する。
IGFエネルギー算出においては、グループ化情報を用いて、値Ek,lをグループ分けする。
量子化については、
を計算する。全ての値E^k,lが、デコーダに送信される。
上述の符号化式は、実数MDCT係数x^のみを用いて動作する。IGFレンジにおいてより安定的なエネルギー分布を得るには、つまり時間的振幅のばらつきを低減させるには、代替的手法を用いて値E^kを計算することができる。
x^
を、窓長2Nの窓化されたオーディオ信号のMDCT変換された実数スペクトル表現とし、x^
を、オーディオ信号の同じ部位のMDST変換実数スペクトル表現とする。MDSTスペクトル表現x^は、x^から算出されるか、または予測されるかの、いずれであってもよい。
は、実数部分としてx^を有し、虚数部分としてx^を有する窓化されたオーディオ信号の複素スペクトル表現を意味する。エンコーダは、x^およびx^に対してTNSを選択的に適用する。
ここで、IGFレンジにおけるオリジナル信号のエネルギーは、以下をもって計ることができる。
再構築帯域の実数および複素数エネルギー、つまりIGFレンジscbkの再構築においてデコーダ側で用いるべきタイルは、以下にしたがって算出される。
ここで、trは、scbに依拠する、関連ソースタイルレンジのインデックスセットである。上記2つの式において、インデックス集合scbの代わりに集合
(「scb 」とも表す。後で定義する)を使用して、trを生成してより正確なEおよびEを達成することもできる。Etk>0であれば、
を算出し、それ以外は、f=0とする。
を用いて、安定的な値Eが計算される。その理由は、EをMDCT値のみを用いて計算することは、MDCT値がパーセバルの定理に従わないという事実の障害があり、したがってMDCT値は、スペクトル値の完全なエネルギー情報を反映していないためである。E^は、上述の通り算出される。
上述の通り、短ブロックについては、スケールファクタセットnum_windows_groupをグループ分けする決定は、エンコーダが行うものと想定する。上述の通り、wは、wにおけるl番目の部分集合を意味し、lは、窓グループのインデックス0≦l≦num_window_groupを意味する。
繰り返しになるが、より安定的なEk,lを算出する上述の代替バージョンを計算する。ここで、数8に示すc^の定義を用いる。x^は、MDCT変換され窓化された長さ2Nのオーディオ信号、x^は、MDST変換された窓化された長さ2Nのオーディオ信号である。この計算は、
となる。
同様に、
を計算し、ファクタfk,lを、
とし、これを用いて、前回算出されたErk,lを調節する。
E^k,lが、上述の通り算出される。
複素再構築帯域またはMDCT値のいずれかから抽出した再構築帯域のエネルギーのみならず、ソースレンジからのエネルギー情報も使用する手順によって、エネルギー再構築が改善される。
特に、パラメータ算出器1006は、再構築帯域のエネルギーに関する情報、および再構築帯域を再構築するのに使用されるソースレンジのエネルギーに関する情報を使って、再構築帯域のためのエネルギー情報を算出するよう構成される。
また、パラメータ算出器1006は、オリジナル信号の複素スペクトルの再構築帯域に関するエネルギー情報(Eok)を算出し、また再構築帯域の再構築に使用されるオリジナル信号の複素スペクトルの実数部分のソースレンジに関するさらなるエネルギー情報(Erk)を算出するよう構成される。そして、パラメータ算出器は、エネルギー情報(Eok)とさらなるエネルギー情報(Erk)とを使って、再構築帯域についてエネルギー情報を算出するよう構成される。
さらに、パラメータ算出器1006は、オリジナル信号の複素スペクトルの再構築対象スケールファクタ帯域に関する第1エネルギー情報(Eok)を決定し、再構築対象スケールファクタ帯域を再構築するのに使用されるオリジナル信号の複素スペクトルのソースレンジに関する第2エネルギー情報(Etk)を決定し、再構築対象スケールファクタ帯域を再構築するのに使用されるオリジナル信号の複素スペクトルの実数部分のソースレンジに関する第3エネルギー(Erk)を決定し、第1エネルギー情報、第2エネルギー情報および第3エネルギー情報の少なくとも2つにおける関係に基づき重み付け情報を決定し、この重み付け情報を使って第1エネルギー情報と第3エネルギー情報の1つに重みを付けて重み付けエネルギー情報を入手し、この重み付けエネルギー情報を当該再構築帯域のエネルギー情報として使用するよう構成される。
計算の例を以下に示すが、上述の一般原則を参照すると、当業者にとっては、その他の多くも明らかであろう。
A)
f_k=E_ok/E_tk;
E_k=sqrt(f_k*E_rk);
B)
f_k=E_tk/E_ok;
E_k=sqrt((1/f_k)*E_rk);
C)
f_k=E_rk/E_tk;
E_k=sqrt(f_k*E_ok)
D)
f_k=E_tk/E_rk;
E_k=sqrt((1/f_k)*E_ok)
これら全ての例では、実数のMDCT値のみがデコーダ側で処理されるが、実際の計算は、オーバーラップおよび追加に伴い、複素数を使って黙示的に実行される時間領域エイリアジングキャンセル手順により実施されるという事実に基づくものである。しかしながら、再構築帯域920のさらなるスペクトル部位922、923のタイルエネルギー情報の決定処理918は、再構築帯域920において周波数を有する第1スペクトル部位921とは異なる周波数値のために、実数のMDCT値に依拠している。したがって、一般的に、デコーダに送信されるエネルギー情報は、オリジナル信号の複素スペクトルの再構築帯域に関するエネルギー情報Eokよりも小さくなる。例えば、上記Cの事例については、これは、ファクタf_k(重み付け情報)が1より小さいことを意味する。
デコーダ側においては、もしIGFツールがONとして信号化された場合、送信された値E^はビットストリームから入手され、k=igfStartSfb,1+igfStartSfb,2+igfStartSfb,…igfEndSfbなるすべてのkに対して、
に従って逆量子化される。
デコーダは、送信MDCT値をx∈Rに逆量子化し、残りの残存エネルギー
を算出する。ここで、kは、上述の定義のレンジ内にある。
ここでは、
とする。この集合には、スケールファクタ帯域scbの全インデックスが含まれ、エンコーダによってゼロに量子化される。
IGFサブバンド入手手法(ここでは説明しない)を使って、送信されたMDCTの非ゼロ値を使うことにより、MDCTスペクトル値の粗い量子化からエンコーダ側において生じるスペクトルギャップを充填する。xには、これまでの全てのゼロ値を置換する値が追加的に含まれている。このタイルエネルギーは、
によって算出される。ここで、kは、上述の定義のレンジ内にある。
再構築帯域において欠落するエネルギーは、
mE:=│scb│E −sE
によって算出される。調整のためのゲインファクタは、
によって得られる。
g’=min(g,10)
を用い、スペクトル包絡線調整は、上述で定義されたレンジにおける全てのi∈scb とkに対して、
:=g’x
となる。これは、xのスペクトル包絡線を、オリジナルスペクトル包絡線x^の形状に再整形する。
短窓シーケンスを用いる場合、上述の全ての計算は原則的に同じであるが、スケールファクタ帯域のグループ分けを考慮する必要がある。Ek,lは、ビットストリームから得られた、逆量子化されグループ分けされたエネルギー値を示す。
および
を計算する。インデックスjは、短ブロックシーケンスの窓インデックスを示す。
mEk,l:=│scb│Ek,l −sEk,l
と、
を計算し、
g’=min(g,10)
を用い、i∈scb に対して、
:=g’x
を適用する。
低ビットレート応用では、Eの対グループ分けが、それほど大きな精度の低下を引き起こすことなく可能である。この方法は、長ブロックでのみ適用され、
となる。ここで、k=igfStartSfb,1+igfStartSfb,2+igfStartSfb,…igfEndSfbである。繰り返しになるが、量子化の後、全ての値Ek>>1がデコーダに送信される。
図9aは、符号化オーディオ信号を復号する装置を示す。このオーディオ信号は、第1セットの第1スペクトル部の符号化表現、および第2セットの第2スペクトル部についてのスペクトルエネルギーを示すパラメータデータの符号化表現を含んでいる。第1セットの第1スペクトル部は、図9aにおいて901aで示され、パラメータデータの符号化表現は、図9aの901bで示される。オーディオデコーダ900は、第1セットの第1スペクトル部の符号化表現901aを復号して、復号化された第1セットの第1スペクトル部904を得るよう設けられる。また、オーディオデコーダ900は、パラメータデータの符号化表現を復号して、個別の再構築帯域について個別のエネルギーを示す第2セットの第2スペクトル部についての復号パラメータデータ902を得る。ここで、第2スペクトル部は、再構築帯域内に存在している。さらに、周波数再生成器906は、第2スペクトル部を有する再構築帯域のスペクトル値を再構築するために設けられる。さらに、周波数再生成器906は、第1セットの第1スペクトル部に含まれる第1スペクトル部と、再構築帯域に係る個別のエネルギー情報を用いる。ここで、再構築帯域には、第1スペクトル部と第2スペクトル部が含まれる。周波数再生成器906は、残存エネルギー情報を決定する算出器912を有する。この残存エネルギー情報には、再構築帯域内に周波数を有する第1スペクトル部の累積エネルギーが含まれる。さらに、周波数再生成器906は、再構築帯域のさらなるスペクトル部のタイルエネルギー情報を決定し、第1スペクトル部とは異なる周波数値のための計算器918を有する。これらの周波数値は、再構築帯域に周波数を有するものであり、さらなるスペクトル部は、再構築帯域の第1スペクトル部とは異なる第1スペクトル部を用いて、周波数再構築により生成されるものである。
周波数再生成器906は、再構築帯域における欠落エネルギーのための計算器914をさらに有する。この計算器914は、再構築帯域についての個別エネルギーおよびブロック912により生成された残存エネルギーを用いて動作する。さらに、周波数再生成器906は、欠落エネルギー情報、およびブロック918により生成されたタイルエネルギー情報に基づき、再構築帯域におけるさらなるスペクトル部を調整するスペクトル包絡線調整器916を有する。
再構築帯域920の一例を示す図9cを参照する。再構築帯域は、図3aにおける第1スペクトル部306などの再構築帯域における第1スペクトル部を有し、これは921としてその概略が示される。さらに、再構築帯域920における残りのスペクトル値は、例えば、図3aのインテリジェントギャップ充填開始周波数309より下のスケールファクタ帯域1、2、3からのソース領域を用いて生成されることとなる。周波数生成器906は、第2スペクトル部922および923のための生スペクトル値を生成するよう構成される。そして、図9cに示される通り、周波数帯域922および923におけるスペクトル値を最終的に調整するために、そして再構築帯域920における再構築および調整第2スペクトル部を得るために、ゲインファクタgが計算される。これらの第2スペクトル部は、第1スペクトル部921と同じスペクトル解像度、つまり同じ線距離を有している。図9cにおいて921で示される再構築帯域における第1スペクトル部は、オーディオデコーダ900によって復号され、図9bのブロック916の実施する包絡線調整によっては影響を受けないことを理解することが重要である。その代わり、921で示される再構築帯域における第1スペクトル部は、線904を介して、全帯域または全レートのオーディオデコーダ900により出力されるため、そのままに放置される。
以下において、実数を用いた一例について説明する。ブロック912により算出された残りの残存エネルギーは、例えば5エネルギー単位だとする。このエネルギーは、第1スペクトル部位921において例示的に示された4つのスペクトル線のエネルギーである。
さらに、図3bまたは図3aのスケールファクタ帯域6に対応する再構築帯域に係るエネルギー数E3は、10単位に等しい。重要なこととしては、エネルギー値には、スペクトル部922および923のエネルギーのみならず、エンコーダ側で算出された再構築帯域920の全エネルギー(つまり、例えば、音調マスクを用いてスペクトル分析を実行する前のもの)も含まれる。したがって、10エネルギー単位は、再構築帯域における第1および第2スペクトル部を対象とする。そして、ブロック922、923のソースレンジデータのエネルギーまたはブロック922、923用の生の対象レンジデータのエネルギーは、8エネルギー単位であるという前提とする。よって、5単位の欠落エネルギーが計算される。
タイルエネルギーtEkにより分割された欠落エネルギーに基づき、0.79のゲインファクタが計算される。そして、第2スペクトル部位922、923の生のスペクトルラインに対して、算出されたゲインファクタを乗じる。よって、第2スペクトル部922、923のスペクトル値のみが調整され、第1スペクトル部921のスペクトル線は、この包絡線調整によって影響を受けない。第2スペクトル部922、923について生のスペクトル値を乗じた後、完全なる再構築帯域が計算される。これは、再構築帯域における第1スペクトル部から構成され、再構築帯域920における第2スペクトル部922、923のスペクトル線から構成される。
帯域922、923の生のスペクトルデータを生成するためのソースレンジは、周波数について、IGF開始周波数309より下であり、再構築帯域920はIGF開始周波数309よりも上であることが好ましい。
さらに、再構築帯域境界がスケールファクタ帯域境界と一致することが好ましい。よって、一実施形態において、再構築帯域は、コアオーディオデコーダの対応スケールファクタ帯域の大きさを有するか、またはエネルギーペアリングが適用されたとき、再構築帯域のエネルギー値が整数2以上のスケールファクタ帯域のエネルギーを提供する大きさを有する。したがって、スケールファクタ帯域4、スケールファクタ帯域5およびスケールファクタ帯域6についてエネルギー蓄積が実施されるとの前提の場合には、再構築帯域920の低周波数境界は、スケールファクタ帯域4の下限境界と等しくなり、再構築帯域920の高周波数境界は、スケールファクタ帯域6の上限境界と一致する。
以下において、図9aのデコーダのさらなる機能を示すために、図9dについて説明する。オーディオデコーダ900は、第1セットのスペクトル部の第1スペクトル部に対応する逆量子化スペクトル値を受信する。そして、図3bに示すようなスケールファクタ帯域のためのスケールファクタが、追加的に逆スケールブロック940に提供される。逆スケールブロック940は、図3aのIGF開始周波数309より下の全ての第1セットの第1スペクトル部を提供し、さらにIGF開始周波数より上の第1スペクトル部(つまり、図3aの第1スペクトル部304、305、306、307であり、これらは全て図9dの941に示す通り、再構築帯域内に位置している)を提供する。さらに、再構築帯域における周波数タイル充填に用いられるソース帯域の第1スペクトル部は、包絡線調整器/計算器942に提供され、このブロックは、図9dにおいて943で示す通り、符号化されたオーディオ信号に対してパラメータサイド情報として提供された再構築帯域のエネルギー情報を追加的に受信する。そして、包絡線調整器/計算器942は、図9bおよび9cの機能を提供し、再構築帯域における第2スペクトル部のために、調整されたスペクトル値を最終的に出力する。再構築帯域における第2スペクトル部に係るこれらの調整スペクトル値922、923、並びに図9dにおいて線941により示される再構築帯域の第1スペクトル部921は、統合すると、再構築帯域の全スペクトル表現をなしている。
以下において、符号化されたオーディオ信号を提供または生成するために、オーディオ信号を符号化するオーディオエンコーダの好適実施形態を説明する図10aおよび10bを参照する。このエンコーダは、スペクトル分析器1004に供給する時間/スペクトル変換器1002を有し、このスペクトル分析器1004は、パラメータ計算器1006に接続する一方、オーディオエンコーダ1008にも他方で接続する。オーディオエンコーダ1008は、第1セットの第1スペクトル部の符号化表現を提供し、第2セットの第2スペクトル部を対象としない。一方で、パラメータ計算器1006は、第1および第2スペクトル部を対象とする再構築帯域のエネルギー情報を提供する。さらに、オーディオエンコーダ1008は、第1スペクトル解像度を有する第1スペクトル部位の第1セットの第1符号化表現を生成するよう構成される。ここで、オーディオエンコーダ1008は、ブロック1002によって生成されるスペクトル表現の全ての帯域に係るスケールファクタを提供する。これに加えて、図3bに示す通り、エンコーダは、図3aに示すIGF開始周波数309よりも上の周波数に位置する再構築帯域については少なくとも、エネルギー情報を提供する。したがって、再構築帯域がスケールファクタ帯域またはスケールファクタ帯域群と好適に一致しているので、オーディオエンコーダ1008からの対応スケールファクタと、パラメータ計算器1006によって出力されるエネルギー情報という2つの値が与えられる。
オーディオエンコーダは、異なる周波数帯域幅を有する(つまり異なる数のスペクトル値を有する)スケールファクタ帯域を有することが好ましい。したがって、パラメータ計算器は、特定の再構築帯域の帯域幅について、異なる帯域幅のためのエネルギーを正規化する正規化器1012を有する。このため、正規化器1012は、入力として、帯域におけるエネルギーと、帯域におけるいくつものスペクトル値を受信し、再構築/スケールファクタ帯域毎に正規化されたエネルギーを出力する。
さらに、図10aのパラメータ計算器1006aは、図10aにおける線1007により示されるコアまたはオーディオエンコーダ1008から制御情報を受信するエネルギー値計算器を有する。この制御信号には、オーディオエンコーダによって使用される長/短ブロックに関する情報、および/またはグループ化情報が含まれる場合がある。したがって、長/短ブロックに関する情報および短窓に関するグループ化情報が「時間」グループ分けに関するものである一方、グループ化情報はまた、スペクトルグループ分け(つまり、2つのスケールファクタ帯域を単一の再構築帯域にグルース分けすること)に言及してもよい。よって、エネルギー値計算器1014は、スペクトル部位のみがグループ分けされているとき、第1予備第2スペクトル部を対象とするグループ分けされた各帯域について、単一のエネルギー値を出力する。
図10dは、スペクトルグループ分けを実施するためのさらなる実施形態を示す。このため、ブロック1016は、2つの近接帯域のエネルギー値を計算するよう構成される。そして、ブロック1018において、近接する帯域のエネルギー値を比較し、エネルギー値がそれほど異ならない場合、または例えば、閾値で規定したほど異ならない場合には、ブロック1020に示すように、両方の帯域について、単一の(正規化された)値が生成される。線1019に示す通り、ブロック1018を迂回してもよい。さらに、ブロック1020により実行される2つ以上の帯域に係る単一値の生成は、エンコーダビットレート制御1024により制御されてもよい。このため、ビットレートを低減する必要がある場合には、ブロック1018における比較において、エネルギー情報値のグループ分けが許されない場合であったとしても、符号化されたビットレート制御処理1024により、ブロック1020を制御して、2つ以上の帯域について単一の正規化値を生成させる。
オーディオエンコーダが2つ以上の短窓のグループ分けを行っているときには、このグループ分けがエネルギー情報についても適用される。コアエンコーダが2つ以上の短ブロックのグループ分けを行うときには、これら2つ以上のブロックについて、スケールファクトの単一セットのみを計算し送出する。デコーダ側においては、オーディオデコーダは、スケールファクタの同じセットを両方のグループ分けされた窓に適用する。
エネルギー情報計算に関して、再構築帯域におけるスペクトル値が2つ以上の短窓に対して蓄積される。つまり、短ブロックおよび後続の短ブロックについての所定の再構築帯域におけるスペクトル値は一緒に蓄積され、2つの短ブロックを対象とするこの再構築帯域については、単一のエネルギー情報値しか送信されないことを意味する。そして、デコーダ側においては、図9aないし9dに関して説明された包絡線調整は、各短ブロックについて個別には実施されず、グループ分けされた短窓のセットについて一緒に実施される。
周波数におけるグループ分けまたは時間におけるグループ分けが実施された場合であっても、正規化によって、デコーダ側のエネルギー値情報計算について、一方のエネルギー情報値と再構築帯域またはグループ分けされた再構築帯域のセットにおけるスペクトルライン量のみが簡単に知られるよう、対応する正規化が再び実施される。
従来のBWEスキームにおいては、いわゆる所定のクロスオーバー周波数より上のHFスペクトル領域は、スペクトルパッチングに基づき再構築されることが多い。一般的に、HF領域は、複数の近接パッチから構成され、これらの各パッチは、所定のクロスオーバー周波数よりも下のLFスペクトルのバンドパス(BP)から供給される。信号のフィルタバンク表現内において、このようなシステムは、近接するサブバンド係数のセットをLFスペクトルから対象領域にコピーする。一般的に、この選択されたセットの境界は、システムに依存するものであり、信号に依存するものではない。ある信号コンテンツについて、この静的パッチ選択が再構築信号の不快な音質や色合いにつながってしまう場合がある。
その他のアプローチにおいては、信号適応単側波帯(SSB)変調により、LF信号がHFへと変換される。そのようなアプローチは、時間領域サンプルにおいて高いサンプリングレートで動作するため、(非特許文献1)に比べて計算の複雑さは大きい。また、パッチングは、特に非音調信号(例:無声音声)の場合には、不安定になる可能性がある。よって、従来の信号適応パッチングは、信号を害する恐れがあった。
本発明によるアプローチは、インテリジェントギャップ充填(IGF)と称され、その好適実施形態においては、時間周波数変換(例:変形離散コサイン変換(MDCT))に基づくBWEシステムにおいて適用される。それにも拘わらず、本発明の教示は、例えば直交ミラーフィルタバンク(QMF)系のシステム内においても同様に、広く適用できる。
MDCTに基づくIGF構成の利点としては、MDCTベースのオーディオコーダ(例:MPEGアドバンストオーディオコーディング(AAC))におけるシームレスな統合ができる点である。波形オーディオ符号化およびBWEについて同じ変換を共有することで、オーディオコーデックの全体的な計算上の複雑性が、大幅に除去される。
さらに、本発明によると、従来の適応パッチングスキームに内在する安定性の問題についての解決手段が提供される。
提案に係るシステムは、ある信号についての制御不能なパッチ選択により、音質変化や信号着色が誘発され得るという知見に基づくものである。もし信号がスペクトルソース領域(SSR)における音調ではあるが、スペクトル対象領域(STR)ではノイズに等しい場合には、ノイズのようなSTRを音調SSRによりパッチングすることで、不自然な音質となってしまう恐れがある。信号の音調構造は、パッチング過程で不整列とされたり、さらには破壊されたりするため、信号の音質もまた変化し得る。
提案に係るIGFシステムは、特定のSSRと特定のSTR間の類似性基準として、クロス相関性を用いて、インテリジェントタイル選択を実施する。2つの信号のクロス相関性によって、これらの信号の類似性に関する基準、および最大限の相関とそのサインの遅れに関する基準が提供される。したがって、相関性ベースのタイル選択のアプローチは、コピーされたスペクトルのスペクトルオフセットを正確に音調して、スペクトルがオリジナルスペクトルの構造に可能な限り近似するよう用いることができる。
提案システムの基本的な貢献としては、適切な類似性基準の選択肢、およびタイル選択プロセスの安定化技術が挙げられる。提案技術は、瞬間信号適応性と時間的安定性との間の最適なバランスを同時に提供する。時間的安定性を提供することは、SSRおよびSTRとはほとんど類似性を有しないため、低クロス相関性値を呈する信号にとっては特に重要であり、また採用される類似性基準が曖昧な場合にも重要である。このような場合、安定化によって、適応タイル選択の疑似ランダム挙動が防止される。
例えば、従来のBWEにおいてよく問題を生じる信号区分は、図12a(左)に示される通り、エネルギーを任意のスペクトル領域に明確に注力させていることがその特徴としてあげられる。対象領域におけるスペクトル包絡線および再構築スペクトルの音調を調整する方法はあるものの、一部の信号については、図12a(右)に示す通り、これらの方法は音質を保全できない。図12aに示す例において、オリジナル信号の対象領域における、いわゆるクロスオーバー周波数fxoverスペクトル(図12a、左)よりも上のスペクトル振幅は、ほぼ直線的に減少する。一方で、再構築スペクトル(図12a、右)においては、音質色彩アーティファクトとして知覚される沈下とピークとの明確なセットが存在する。
新たなアプローチの重要なステップとしては、セットとなったタイルの中から類似性に基づく後続の選択がなされるよう、当該タイルのセットを定義することが上げられる。まず、ソース領域および対象領域のタイル境界を、それぞれに従って定義する必要がある。そのため、コア符号器のIGF開始周波数fIGFstartと可能な限りの高周波数fIGFstopとの間における対象領域を、任意の整数のタイルに分割し、これらのそれぞれが個別のあらかじめ設定された大きさを有する。そして、ターゲットタイルtar[idx_tar]のそれぞれについて、同サイズのソースタイルのセットsrc[idx_srcが生成される。これによって、IGFシステムの基本的自由度が決定される。ソースタイルnSrcの総数は、ソース領域の帯域幅
bwsrc=(fIGFstart−fIGFmin
によって決定される。ここで、fIGFminは、整数nSrc個のソースタイルがbwsrcに適合するよう、タイル選択において利用可能な最低周波数である。ソースタイルの最小数は0である。
さらに選択および調整の自由度を増すために、ソースタイルは、0および1の間のオーバーラップファクタにおいて、それぞれオーバーラップするよう定義されてもよく、ここで0とはオーバーラップがないこと、および1とは100%オーバーラップしていることを意味する。100%オーバーラップする場合とは、単一のソースタイルのみが利用可能か、あるいは利用可能なソースタイルが一切ないことを意味する。
図12bは、タイルセットのタイル境界の例を示す。この場合において、全ての対象タイルは、ソースタイルのそれぞれと相互に関連している。この例では、ソースタイルは、50%オーバーラップしている。
対象タイルについて、xcorr_maxLagビンまでの遅延をもって、様々なソースタイルを使ってクロス相関を算出する。ある対象タイルidx_tarおよびソースタイルidx_srcについて、xcorr_val[idx_tar][idx_src}が、タイル間の絶対クロス相関最大値を与え、一方、xcorr_lag[idx_tar][idx_src]が、最大値が生じる遅延を与え、xcorr_sign[idx_tar][idx_src]が、xcorr_lag[idx_tar][idx_src]におけるクロス相関のサインを与える。
パラメータxcorr_lagは、ソースタイルと対象タイルとの整合の近さを制御するのに用いられる。このパラメータによって、アーティファクトが減少し、信号の音質と色彩の保全によりよく役立つ。
あるシナリオでは、特定の対象タイルの大きさが、利用可能なソースタイルの大きさよりも大きいことがありえる。この場合、利用可能なソースタイルが必要な限りの頻度において繰り返され、当該特定タイルを完全に充填する。対象タイルにおいて、クロス相関遅延xcorr_lagおよびサインxcorr_signという意味で、ソースタイルを最も良い位置に置くために、大きな対象タイルと小さなソースタイルとの間のクロス相関を実施することが依然として可能である。
生のスペクトルタイルとオリジナル信号のクロス相関は、強固なフォルマント構造を有するオーディオスペクトルに対して適用される類似性基準としては、最適ではないかもしれない。スペクトルの白色化によって、粗いスペクトル包絡線情報が除去され、類似性を評価するのに重要なスペクトル微細構造が強調される。白色化によって、IGFにより処理される領域に関する、符号器でのSTR包絡線整形が容易になされる。したがって、クロス相関性度を計算する前に、タイルおよびソース信号は、選択的に白色化される。
他の形態においては、タイルのみが事前に設定された手順に従って白色化される。送信される白色化フラグは、デコーダに対して、同様の所定の白色化手順がIGF内のタイルについて適用されるべきであることを示す。
信号を白色化するためには、まずスペクトル包絡線予測が計算される。そして、MDCTスペクトルは、スペクトル包絡線によって分割される。スペクトル包絡線予測は、MDCTスペクトル、MDCTスペクトル、MDCTスペクトルエネルギー、MDCT系複素電力スペクトル、または電力スペクトル予測に基づき、予測される。包絡線が予測される信号を、以下「基礎信号」という。
MDCT系複素電力スペクトルまたは電力スペクトル予測に基づき計算された包絡線は、音調成分に対して時間的ばらつきがないという利点を有する。
もし基礎信号がエネルギー領域にあるのであれば、MDCTスペクトルは、信号を正しく白色化するために、包絡線の平方根により分割される必要がある。包絡線の算出方法としては、以下のものがある。
・基礎信号を離散コサイン変換(DCT)により変換し、低いDCT係数のみを保持し(最上をゼロにセットし)、逆DCTを計算する、
・時間領域オーディオフレームに基づき算出された線形予測係数(LPC)セットのスペクトル包絡線を計算する、
・基礎信号をローパスフィルタによりフィルタリングする。
最後のアプローチが選択されることが好ましい。計算上の複雑性が低いことを求めるアプリケーションについては、MDCTスペクトルの白色化に対して簡略化がなされてもよい。まず、移動平均の手段により包絡線を計算する。これには、MDCTビン毎に2つの処理器サイクルしか要しない。そして、分割および平方根の計算を避けるために、スペクトル包絡線は、##2nに近接させられる。ここで、##nは、包絡線の整数対数である。この領域において、平方根演算は、単にシフト演算となり、さらに包絡線による分割は、別のシフト演算により実行される。
各ソースタイルと各対象タイルとの相関性を計算した後、全てのnTar対象タイルについて、最も高い相関を有するソースタイルを選択してこれを置換する。オリジナルスペクトル構造と最も整合させるために、相関の遅延を利用して、再生成されたスペクトルを変形ビンの整数分だけ調整する。奇数の遅延の場合には、MDCTにおけるひとつおきの帯域の周波数反転表現を補てんするために、タイルは、−1/1の交互の時間的シーケンスにより、乗法を通じて追加的に調整される。
図12cは、ソースタイルと対象タイルとの相関の例を示す。この例において、相関の遅延は5である。そして、ソースタイルは、BWEアルゴリズムのコピー段において、高周波数ビンに向かって5ビンだけ調節される必要がある。また、最大相関値が負であり、上述の追加的調節は奇数遅延を対処するので、タイルのサインを反転させる必要がある。
よって、エンコーダからデコーダに対して送信されるサイド情報の総量は、次のデータにより構成される。
・tileNum[nTar]:対象タイル毎に選択されたソースタイルのインデックス
・tileSign[nTar]:対象タイルのサイン
・tileMod[nTar]:対象タイル毎の相関遅延
タイル除去および安定化は、IGFにおいて重要なステップである。その必要性と優位性を、例えば安定的なピッチパイプ音のような静的な音調オーディオ信号を想定した具体例により説明する。論理的には、所定の対象領域について、ソースタイルがフレームを超えた同じソース領域から常に選択される場合には、最小のアーティファクトしか導入されない。信号が静的だという想定であったとしても、この条件は、全てのフレームについてあてはまるわけではない。というのも、他の同程度に類似するソース領域の類似性基準(例えば、相関性)によって、類似結果(例えば、クロス相関性)が支配され得るからである。これによって、近接フレーム間のtileNum[nTar]が、2つまたは3つの非常に類似する選択肢の間で迷うこととなる。これが、アーティファクトのような不快なミュージカルノイズの原因となりうる。
このようなアーティファクトを除去するために、ソースタイルの集合について、残りのソース集合が最大限までに非類似となるよう除去処理を行わなければならない。これは、ソースタイルの集合
S={s1,s2,...sn}
の全体に対して、以下のように達成される。いずれのソースタイルsについても、他の全てのソースタイルと関連付けられ、sとsとの最も良い相関を見つけ、これをマトリックスSに蓄積する。ここで、S[i][j]は、sとsとの間の最大絶対クロス相関値を含む。段に沿ってマトリックスSを加えると、ソースタイルsとその他のソースタイルTとのクロス相関の和が得られる。
T[i]=S[i][1]+S[i][2]...+S[i][n]
ここで、Tは、ソースがいかに他のソースタイルに類似しているかの基準を示す。いずれかのソースタイルiについて、
T > 閾値
が成立しているならば、ソースタイルiは、潜在的ソースのセットから除外される。というのも、他のソースと非常に相関しているからである。式の条件を満たすタイルセットから最も低い相関のタイルを選択し、この部分集合の代表的タイルとする。このように、ソースタイルがそれぞれ最大限にまで非類似となるよう確保される。
タイル除去方法には、以前のフレームで用いられた除去タイルセットの記録が含まれる。以前のフレームにおいてアクティブであったタイルは、除去の候補が他に存在すれば、次のフレームでも維持される。
フレームkにおけるタイル{s,s...,s}のうち、タイルs、s、およびsがアクティブであるとすると、フレームk+1においては、sが他のタイルと最大限まで相関を有し、s、s、およびsが除去されるべき場合であったとしても、sは前回のフレームにおいて有用なソースタイルであったため、保持される。したがって、ソースタイルのセットにおいてこれを保持することは、タイル選択の時間的継続性を実施するのに有益である。この方法は、T[i][j]と表すソースiと対象jとの間のクロス相関が高い場合に適用される。
タイル選択安定化処理の追加的方法として、現在のフレームにおけるいずれのソースタイルも対象タイルとあまり相関を有しない場合には、タイル順番を前回フレームk−1から保つ方法が挙げられる。この方法は、T[i][j]と表すソースiと対象jとの間のクロス相関が、全てのi、jについて極めて低い場合に適用される。
例えば、暫定的な閾値を用いて、
[i][j]<0.6
とすると、このフレームkの全てのnTarについて、
tileNum[nTar]=tileNum[nTar]k−1
となる。
上述の2つの技術は、フレームを超えて高速で変化するセットタイル数から生じるアーティファクトを大幅に削減する。このタイル削減および安定化方法の別の付加的メリットとしては、追加的情報を何らデコーダに送る必要がなく、またデコーダの構造を変更する必要がないことが挙げられる。この提案に係るタイル除去方法は、タイル化されたスペクトル領域におけるアーティファクトなどの潜在的なミュージカルノイズや過剰なノイズを除去する素晴らしい方法である。
図11aは、符号化されたオーディオ信号を復号するオーディオデコーダを示す。オーディオデコーダは、第1セットの第1スペクトル部の第1復号表現を生成するオーディオ(コア)デコーダ1102を有し、この復号表現は、第1スペクトル解像度を有する。
さらに、オーディオデコーダは、第1スペクトル解像度よりも低い第2スペクトル解像度を有する第2セットの第2スペクトル部の第2復号表現を生成するパラメトリックデコーダ1104を有する。さらに、第1入力1101として第1スペクトル部を受信し、1103で示す第2入力としてパラメータ情報を受信する周波数生成器1106が設けられる。このパラメータ情報には、各対象周波数タイルまたは対象再構築帯域についてのソースレンジ情報が含まれる。周波数生成器1106は、対象レンジのスペクトルデータを生成するために、整合情報にて特定されたソースレンジからのスペクトル値を使って、周波数再生成を実行する。その後、第1スペクトル部1101と周波数再生成器1107の出力との両方が、スペクトル時間変換器1108に入力され、最終的に復号オーディオ信号を生成する。
オーディオデコーダ1102は、時間領域オーディオデコーダやパラメータオーディオデコーダなどのような他のオーディオ復号であってもよいが、スペクトル領域オーディオデコーダであることが好ましい。
図11bに示す通り、周波数再生成器1106は、奇数遅延のためのソースレンジ選択タイル変調器を示すブロック1120の機能や、白色化フラグ1123が提供される場合には、白色化フィルタ1122、さらには、ブロック1128にて実行され図示される調節機能を有するスペクトル包絡線を有してもよい。なお、ブロック1128は、当該調節機能の実行に際しては、ブロック1120またはブロック1122のいずれか、またはこれら両ブロックの連携により生成された生のスペクトルデータを用いる。いずれにせよ、周波数再生成器1106は、受信した白色化フラグ1123に反応するスイッチ1124を含んでもよい。白色化フラグがセットされると、奇数遅延のためのソースレンジ選択器/タイル調整器の出力が、白色化フィルタ1122に入力される。しかしながら、このとき、白色化フラグ1123は、所定の再構築帯域については設定されず、ブロック1120の出力が、白色化されることなくスペクトル包絡線調整ブロック1128へと提供されるよう、バイパス線1126が起動される。
ビットストリームにおいては、2つ以上のレベルの白色化(1123)が信号化されており、これらのレベルは、タイル毎に信号化される。各タイルについて3つのレベルが信号化されている場合、これらは次の方法によって符号化される。
bit = readBit(1);
if(bit == 1) {
for(tile_index = 0..nT)
/*same levels as last frame*/
whitening_level[tile_index] = whitening_level_prev_frame[tile_index];
} else {
/*first tile:*/
tile_index = 0;
bit = readBit(1);
if(bit == 1) {
whitening_level[tile_index] = MID_WHITENING;
} else {
bit = readBit(1);
if(bit == 1) {
whitening_level[tile_index] = STRONG_WHITENING;
} else {
whitening_level[tile_index] = OFF; /*no−whitening*/


/*remaining tiles:*/
bit = readBit(1);
if(bit == 1) {
/*flattening levels for remaining tiles same as first.*/
/*No further bits have to be read*/
for(tile_index = 1..nT)
whitening_level[tile_index] = whitening_level[0];
} else {
/*read bits for remaining tiles as for first tile*/
for(tile_index = 1..nT) {
bit = readBit(1);
if(bit == 1) {
whitening_level[tile_index] = MID_WHITENING;
} else {
bit = readBit(1);
if(bit == 1) {
whitening_level[tile_index] = STRONG_WHITENING;
} else {
whitening_level[tile_index] = OFF; /*no−whitening*/




MID_WHITENINGおよびSTRONG_WHITENINGは、包絡線が計算される方法(上述の通り)に違いを有する、異なる白色化フィルタ(1122)を意味する。
デコーダ側の周波数再生成器は、粗いスペクトルタイル選択スキームのみが適用された場合、ソースレンジID1121によって制御されてもよい。しかしながら、微細に調整したスペクトルタイル選択スキームが適用されると、追加的に、ソースレンジ遅延1119が提供される。さらに、相関計算が負の結果だった場合には、ページデータスペクトル線のそれぞれに対して−1を乗じて負のサインに対処するよう、相関のサインもブロック1120に対して追加的に適用される。
したがって、図11aおよび11bにて説明される本発明は、所定の目標または対象レンジについて最も整合するソースレンジがエンコーダ側で計算され、デコーダ側で適用されるという事実により、最適なオーディオ品質が得られるよう確保する。
図11cは、オーディオ信号を符号化するオーディオエンコーダであって、時間スペクトル変換器1130、その後段に接続されたペクトル分析器1132、パラメータ計算器1134およびコア符号器1136を有するものを示す。コア符号器1136は、符号化されたソースレンジを出力し、パラメータ計算器1134は、対象レンジの整合情報を出力する。
符号化されたソースレンジは、図11aに示すデコーダが周波数再生成を実施する位置に置かれるよう、対象レンジの整合情報とともにデコーダに送信される。
パラメータ計算器1134は、第1スペクトル部と第2スペクトル部の類似性を算出し、算出された類似性に基づき、第2スペクトル部について、この第2スペクトル部とできる限り整合する第1スペクトル部位決定する。図12aおよび12bに示される異なるソースレンジと対象レンジの整合結果が、第2スペクトル部を有する選択された整合ペアを決定するのが好ましく、またパラメータ計算器は、整合ペアを符号化されたオーディオ信号において特定する、この整合情報を提供するよう構成される。このパラメータ計算器1134は、第2セットの第2スペクトル部において事前に設定された対象領域、または例えば図12bに示す、第1セットの第1スペクトル部において事前に設定されたソース領域を使用するよう構成されることが好ましい。事前に設定された対象領域がオーバーラップしないか、または事前に設定されたソース領域がオーバーラップすることが好ましい。事前に設定されたソース領域が、図3aのギャップ充填開始周波数309より下の第1スペクトル部位の第1セットの部分集合である場合には、低スペクトル領域を対象とする事前に設定された対象領域は、いずれの対象レンジもギャップ充填開始周波数より上に位置し、かつソースレンジがギャップ充填開始周波数より下に位置するよう、その低周波数側境界においてギャップ充填開始周波に一致することが好ましい。
上述の通り、ソース領域に何ら遅延がないソース領域を有する対象領域と、ソース領域は同じだが所定の遅延があるものとを比較することにより、微細な粒度が得られる。これらの遅延は、図11dのクロス相関性計算器1140において適用され、整合ペア選択は、タイル選択器1144によって最終的に行われる。
さらに、ブロック1142に示される、ソースおよび/またはターゲットレンジの白色化を実施することが好ましい。そしてこのブロック1142は、図11bのデコーダ側スイッチ1123を制御するのに用いられるビットストリームに対して、白色化フラグを提供する。さらに、クロス相関計算器1140が負の結果を出した場合には、この負の結果もデコーダに対して信号化される。したがって、好適実施形態においては、タイル選択器は、対象レンジ、遅延、サインのためのソースレンジIDを出力し、ブロック1142は、追加的に白色化フラグを提供する。
さらに、パラメータ計算器1134は、類似性の閾値に基づきソースパッチを潜在的ソースタイルの集合から落とすよう潜在的ソースレンジの数を削減して、ソースタイル除去1146を実施するよう構成される。したがって、2つのソースタイルが類似性の閾値と同等にまたはこれを超過して類似する場合には、これらの2つのソースタイルのうち1つが潜在的ソースの集合から除去され、除去されたソースタイルは、以後の処理において一切使用されない。特に、タイル選択器1144は、この除去タイルを選択することはできないし、またブロック1140において実施される、異なるソースレンジと対象レンジとの間のクロス相関計算には使用されない。
異なる図面を参照して異なる実施形態を説明した。図1aないし5cは、全レートまたは全帯域エンコーダ/デコーダスキームに関する。図6aないし7eは、TNSまたはTTS処理を有するエンコーダ/デコーダに関する。図8aないし8eは、特定2チャンネル処理を有するエンコーダ/デコーダスキームに関する。図9aないし10dは、特定エネルギー情報計算および適用に関し、図11aないし12cは、タイル選択の所定方法に関する。
これらの異なる側面は、それぞれ独立して、発明として使用できるが、図2aおよび2bに基本的に示すように、一緒に適用されてもよい。しかしながら、特定2チャンネル処理は、図13に示すエンコーダ/デコーダスキームについても適用可能であり、デコーダ側における再構築帯域または適応ソースレンジ識別および対応アプリケーションにおける、TNS/TTS処理、包絡線エネルギー情報計算および適用についても同様のことがいえる。一方で、全レートの側面は、TNS/TTS処理とともに、またはこの処理を伴わずして適用されてもよく、また2チャンネル処理を伴っても伴わなくともよく、適応ソースレンジ識別を伴っても伴わなくともよい。あるいは、スペクトル包絡線表現の他の種のエネルギー計算とともに適用されてもよい。したがって、これらの個別の一側面の特徴は、他の側面にも適用できる。
一部の側面については、エンコーディングまたは復号化の装置の文脈において説明されたが、これらの側面は、対応する方法の記載も示すことは明らかであり、ブロックや装置は、方法ステップまたは方法ステップの特徴に対応する。同様に、方法の観点から説明された側面もまた、対応するブロックもしくは物品または対応する装置の特徴の説明としても機能するものである。一部のまたは全ての方法ステップは、例えば、マイクロプロセッサ、プログラム可能なコンピュータ、または電子回路などのハードウェア装置によって(またはこれを用いて)実行されてもよい。一部の実施形態において、最も重要な方法ステップの1つ以上がこのような装置によって実行されてもよい。
所定の実施に係る要件次第では、発明の実施形態は、ハードウェアで実行されてもよいし、ソフトウェアで実行されてもよい。実施は、例えばフレキシブルディスク、ハードディスクドライブ(HDD)、DVD、ブルーレイ、CD、ROM、PROM、EPROM、EEPROM(登録商標)、またはフラッシュメモリなどのような、電子的に読み取り可能な制御信号が蓄積されたデジタル蓄積媒体を用いてすることができ、当該方法が実行されるようこれらのデジタル蓄積媒体がプログラム可能なコンピュータシステムと連携する(または連携することできる)。したがって、デジタル蓄積媒体は、コンピュータに読み取り可能である。
本発明による一部の実施形態では、電子的に読み取り可能な制御信号を有するデータキャリアを含み、当該キャリアは、開示される方法のいずれかが実施されるよう、プログラム可能なコンピュータシステムと連携することができる。
概して、本発明の実施形態は、プログラムコードを有するコンピュータプログラム製品として実行されてもよく、このようなプログラムコードは、コンピュータプログラム製品がコンピュータにおいて実行されるとき、上記方法のいずれかを実施するよう動作する。このプログラムコードは、例えば機械で読み取り可能なキャリアに蓄積されてもよい。
その他の実施形態においては、開示されるいずれかの方法を実行する、機械で読み取り可能なキャリアに蓄積されたコンピュータプログラムを有する。
つまり、本発明に係る方法は、その一実施形態においては、コンピュータプログラムがコンピュータで実行されたとき、開示されるいずれかの方法を実行するプログラムコードを有するコンピュータプログラムとして構成される。
本発明に係る方法のさらなる実施形態は、したがって、開示される方法のいずれかを実施するコンピュータプログラムが蓄積されたデータキャリア(またはデジタル蓄積媒体またはコンピュータに読み取り可能な媒体)として構成される。データキャリア、デジタル蓄積媒体、または蓄積媒体は、一般的には有形でおよび/または固定的である。
本発明に係る方法のさらなる実施形態は、したがって、開示される方法のいずれかを実施するコンピュータプログラムを示すデータストリームまたは信号シーケンスとして構成される。このデータストリームまたは信号シーケンスは、例えば、データコミュニケーション接続(例えばインターネットなど)を介して送られるよう構成されてもよい。
その他の実施形態においては、開示されるいずれかの方法を実行するよう構成または適応された処理手段、例えばコンピュータ、プログラム可能な論理機構を有する。
その他の実施形態においては、開示されるいずれかの方法を実行するコンピュータプログラムをインストールしたコンピュータを有する。
本発明によるその他の実施形態においては、開示されるいずれかの方法を実行するコンピュータプログラムを、受信器に対して移動(例えば電子的にまたは選択的に)させるよう構成された装置またはシステムを有する。受信器は、例えばコンピュータや携帯機器、メモリ機器などであってもよい。装置またはシステムは、例えば、コンピュータプログラムを受信器側に移動させるファイルサーバを有してもよい。
一部の実施形態においては、開示される方法の機能の一部または全部を実行するために、プログラム可能な論理機構(例えば、フィールドプログラマブルゲートアレイ)を用いてもよい。一部の実施形態においては、開示される方法のいずれかを実行するために、フィールドプログラマブルゲートアレイとマイクロプロセッサとを連携させてもよい。一般に、これらの方法はハードウェア装置によって実行されることが好ましい。
上述の実施形態は、本発明の原理を単に示すに過ぎない。この明細書に開示する構成や詳細に対して変更または変形を施すことができることは、当業者にとって明らかであると理解される。したがって、次に続く特許請求の範囲によってのみ制限される趣旨であり、実施形態の記載または説明によってなされた特定の詳細によっては、何ら限定されない。
Dietz, L. Liljeryd, K. Kjoerling and O. Kunz, "Spectral Band Replication, a novel approach in audio coding," in 112th AES Convention, Munich, May 2002. Ferreira, D. Sinha, "Accurate Spectral Replacement", Audio Engineering Society Convention, Barcelona, Spain 2005. D. Sinha, A. Ferreira1 and E. Harinarayanan, "A Novel Integrated Audio Bandwidth Extension Toolkit (ABET)", Audio Engineering Society Convention, Paris, France 2006. R. Annadana, E. Harinarayanan, A. Ferreira and D. Sinha, "New Results in Low Bit Rate Speech Coding and Bandwidth Extension", Audio Engineering Society Convention, San Francisco, USA 2006. T. Zernicki, M. Bartkowiak, "Audio bandwidth extension by frequency scaling of sinusoidal partials", Audio Engineering Society Convention, San Francisco, USA 2008. J. Herre, D. Schulz, Extending the MPEG−4 AAC Codec by Perceptual Noise Substitution, 104th AES Convention, Amsterdam, 1998, Preprint 4720. M. Neuendorf, M. Multrus, N. Rettelbach, et al., MPEG Unified Speech and Audio Coding−The ISO/MPEG Standard for High−Efficiency Audio Coding of all Content Types, 132nd AES Convention, Budapest, Hungary, April, 2012. McAulay, Robert J., Quatieri, Thomas F. "Speech Analysis/Synthesis Based on a Sinusoidal Representation". IEEE Transactions on Acoustics, Speech, And Signal Processing, Vol 34(4), August 1986. Smith, J.O., Serra, X. "PARSHL: An analysis/synthesis program for non−harmonic sounds based on a sinusoidal representation", Proceedings of the International Computer Music Conference, 1987. Purnhagen, H.; Meine, Nikolaus, "HILN−the MPEG−4 parametric audio coding tools", Circuits and Systems, 2000. Proceedings. ISCAS 2000 Geneva. The 2000 IEEE International Symposium on , vol.3, no., pp.201,204 vol.3, 2000 International Standard ISO/IEC 13818−3, "Generic Coding of Moving Pictures and Associated Audio: Audio", Geneva, 1998. M. Bosi, K. Brandenburg, S. Quackenbush, L. Fielder, K. Akagiri, H. Fuchs, M. Dietz, J. Herre, G. Davidson, Oikawa: "MPEG−2 Advanced Audio Coding", 101st AES Convention, Los Angeles 1996 J. Herre, "Temporal Noise Shaping, Quantization and Coding methods in Perceptual Audio Coding: A Tutorial introduction", 17th AES International Conference on High Quality Audio Coding, August 1999 J. Herre, "Temporal Noise Shaping, Quantization and Coding methods in Perceptual Audio Coding: A Tutorial introduction", 17th AES International Conference on High Quality Audio Coding, August 1999 International Standard ISO/IEC 23001−3:2010, Unified speech and audio coding Audio, Geneva, 2010. International Standard ISO/IEC 14496−3:2005, Information technology − Coding of audio−visual objects − Part 3: Audio, Geneva, 2005. P. Ekstrand, "Bandwidth Extension of Audio Signals by Spectral Band Replication", in Proceedings of 1st IEEE Benelux Workshop on MPCA, Leuven, November 2002 F. Nagel, S. Disch, S. Wilde, A continuous modulated single sideband bandwidth extension, ICASSP International Conference on Acoustics, Speech and Signal Processing, Dallas, Texas (USA), April 2010

Claims (19)

  1. 符号化オーディオ信号を復号する装置であって、
    第1セットの第1スペクトル部の第1復号表現をスペクトル予測残差値として生成するスペクトル領域オーディオデコーダ(602)と、
    前記第1セットの第1スペクトル部を用いて、前記第1セットの第1スペクトル部とともにスペクトル予測残差値を含む再構築第2スペクトル部を生成する周波数再生成器(604)と、
    前記第1セットの第1スペクトル部および前記再構築第2スペクトル部の前記スペクトル予測残差値により、前記符号化オーディオ信号に含まれる予測フィルタ情報(607)を用いて、周波数に対して逆予測を実行する逆予測フィルタ(606、616、626)と、
    を備えることを特徴とする装置。
  2. 請求項1に記載の装置において、前記逆予測フィルタ(606)の入力信号または出力信号のスペクトル包絡線を整形するスペクトル包絡線整形器(614)をさらに備えることを特徴とする装置。
  3. 請求項2に記載の装置において、
    前記符号化オーディオ信号は、前記第2スペクトル部のためのスペクトル包絡線情報を含み、このスペクトル包絡線情報は、前記第1復号表現に関連づけられる第1スペクトル解像度よりも低い第2スペクトル解像度を有し、
    前記スペクトル包絡線整形器(624)は、前記フィルタ情報(607)が予測フィルタリング前のオーディオ信号を用いて決定される場合に、前記逆予測フィルタ(622)の出力に対してスペクトル包絡線整形処理を行うよう構成され、あるいは、
    前記スペクトル包絡整形器(614)は、前記予測フィルタ情報(607)がエンコーダにおける予測フィルタリングの後のオーディオ信号を用いて決定されるとき、前記逆予測フィルタ(616)の入力に対してスペクトル包絡線整形処理を行うよう構成される
    ことを特徴とする装置。
  4. 請求項1から3のいずれか1項に記載の装置において、前記逆予測フィルタ(210)の出力または前記逆予測フィルタ(210)の包絡線整形出力を時間表示に変換する周波数時間変換器(212)をさらに備えることを特徴とする装置。
  5. 請求項1から4のいずれか1項に記載の装置において、前記逆予測フィルタ(606)は、前記予測フィルタ情報(607)によって定義される複素フィルタであることを特徴とする装置。
  6. 請求項1から5のいずれか1項に記載の装置において、前記スペクトル領域オーディオデコーダ(602)は、前記逆予測フィルタ(606)の出力の時間周波数変換により生成される時間領域信号のサンプリングレートと等しいナイキスト周波数を有するよう前記第1復号表現を生成するよう構成されることを特徴とする装置。
  7. 請求項1から6のいずれか1項に記載の装置において、前記スペクトル領域オーディオデコーダ(602)は、前記第1復号表現における最大周波数のスペクトル値により示される最大周波数が、前記逆予測フィルタ(606)の出力の周波数時間変換により生成された時間表現に含まれる最大周波数と等しくなるよう構成され、前記第1表現における前記最大周波数のスペクトル値は、ゼロであるかまたはゼロとは異なることを特徴とする装置。
  8. 請求項1から7のいずれか1項に記載の装置において、
    第1セットの第1スペクトル部の前記第1復号表現は実数スペクトル値を含み、
    前記装置は、前記第1セットの第1スペクトル部の実数値から前記第1セットの第1スペクトル部の虚数値を予測する予測器(724)を備え、
    前記逆予測フィルタ(728)は、複素数予測フィルタ情報(714)により定義された複素逆予測フィルタであり、
    前記装置は、複素数スペクトルを時間領域オーディオ信号に変換するよう構成された周波数時間変換器(730)をさらに備える
    ことを特徴とする装置。
  9. 請求項1から8のいずれか1項に記載の装置において、前記逆予測フィルタ(606、728)は、複数のサブフィルタを適用するよう構成され、各サブフィルタの周波数境界が、周波数タイルと一致する再構築帯域の周波数境界と一致することを特徴とする装置。
  10. オーディオ信号を符号化する装置であって、
    オーディオ信号(99)をスペクトル表現に変換する時間スペクトル変換器(100、702)と、
    前記スペクトル表現の周波数に対する予測を行なってスペクトル残差値を生成するフィルタであり、前記オーディオ信号から抽出されるフィルタ情報により定義される予測フィルタ(704)と、
    前記スペクトル残差値の第1セットの第1スペクトル部を符号化し、第1スペクトル解像度を有する符号化された第1セットの第1スペクトル値を得るオーディオエンコーダ(708)と、
    前記スペクトル残差値で表される、または前記第1スペクトル解像度よりも低い第2スペクトル解像度を有するスペクトル表現値で表される、第2セットの第2スペクトル部をパラメトリックに符号化するパラメトリックエンコーダ(706)と、
    前記符号化された第2セット、前記符号化された第1セットおよび前記フィルタ情報(714)を含む符号化信号を出力する出力インターフェース(710)と、
    を備えることを特徴とする装置。
  11. 請求項10に記載の装置において、前記時間スペクトル変換器は、変形離散コサイン変換を実施するよう構成され、前記スペクトル残差値は、変形離散コサイン変換のスペクトル残差値であることを特徴とする装置。
  12. 請求項10または11に記載の装置において、前記予測フィルタ(704)は、フィルタ情報計算器を備え、このフィルタ情報計算器は、スペクトル表現のスペクトル値を使って前記フィルタ情報を計算するよう構成され、前記予測フィルタは、前記スペクトル表現のスペクトル値を使ってスペクトル残差値を計算するよう構成され、前記フィルタ情報を計算するためのスペクトル値および前記予測フィルタに入力されるスペクトル値は、同じオーディオ信号から抽出されることを特徴とする装置。
  13. 請求項10から12のいずれか1項に記載の装置において、前記予測フィルタは、TNS開始周波数からTNS停止周波数までのスペクトル値を使って前記フィルタ情報を計算するフィルタ計算器を備え、前記TNS開始周波数は4kHzより小さく、前記TNS停止周波数は9kHzより大きいことを特徴とする装置。
  14. 請求項10から13のいずれか1項に記載の装置において、ギャップ充填周波数を使用して、前記オーディオエンコーダ(708)によって符号化される第1セットの第1スペクトル部を決定する分析器(102、706)を備え、
    前記ギャップ充填開始周波数より下のスペクトル部は第1スペクトル部であり、
    前記TNS停止周波数は、前記ギャップ充填周波数より大きい
    ことを特徴とする装置。
  15. 請求項10から14のいずれか1項に記載の装置において、
    前記時間周波数変換器(702)は、複素スペクトル表示を提供するよう構成され、
    前記予測フィルタは、複素数スペクトル表現を用いる周波数に対して予測を実行するよう構成され、
    前記フィルタ情報(714)は、複素逆予測フィルタを定義するよう構成される
    ことを特徴とする装置。
  16. 符号化オーディオ信号を復号する方法において、
    スペクトル予測残差値である第1セットの第1スペクトル部の第1符号化表現を生成し(602)、
    前記第1セットの第1スペクトル部に含まれる第1スペクトル部を用いて、前記第1セットの第1スペクトル部とともにスペクトル予測残差値を含む再構築第2スペクトル部を再生成し(604)、
    前記第1セットの第1スペクトル部および前記再構築第2スペクトル部の前記スペクトル予測残差値により、前記符号化オーディオ信号に含まれる予測フィルタ情報(607)を用いて、周波数に対して逆予測を実行し(606、616、626)、
    前記逆予測フィルタ(606)の入力信号または出力信号のスペクトル包絡線を形成する(614)
    ことを特徴とする方法。
  17. 請求項16に記載の方法において、
    前記符号化オーディオ信号は、前記第2スペクトル部のためのスペクトル包絡性情報を有し、このスペクトル包絡線情報は、前記第1復号表現と関連付けられる第1スペクトル解像度よりも低い第2スペクトル解像度を有し、
    前記再生成(604)は、前記フィルタ情報(607)が予測フィルタリング前のオーディオ信号を用いて決定される場合に、周波数に対して逆予測を実行するステップ(606、616、626)の出力に対してスペクトル包絡線整形処理を行うスペクトル包絡整形(624)を含むか、あるいは、
    前記再生成(604)は、前記予測フィルタ情報(607)がエンコーダにおける予測フィルタリングの後のオーディオ信号を用いて決定されたとき、周波数に対して逆予測を実行するステップ(606、616、626)の入力に対してスペクトル包絡線整形処理を行うスペクトル包絡線整形(624)を含む
    ことを特徴とする方法。
  18. オーディオ信号を符号化する方法において、
    オーディオ信号(99)をスペクトル表現に変換し(100、702)、
    前記オーディオ信号からのフィルタ情報により定義される予測フィルタにより、前記スペクトル表現の周波数を予測してスペクトル残差値を生成し(704)、
    前記スペクトル残差値の第1セットの第1スペクトル部を符号化して、第1スペクトル解像度を有する符号化された第1セットの第1スペクトル値を取得し(708)、
    前記スペクトル残差値で表される、または前記第1スペクトル解像度よりも低い第2スペクトル解像度を有するスペクトル表示値で表される、第2セットの第2スペクトル部をパラメトリックに符号化し(706)と、
    前記符号化された第2セット、前記符号化された第1セットおよび前記フィルタ情報(714)を含む符号化信号を出力する(710)
    ことを特徴とする方法。
  19. コンピュータまたはプロセッサにおいて実行されたとき、請求項16または18に記載の方法を実施することを特徴とするコンピュータプログラム。
JP2015544509A 2013-07-22 2014-07-15 時間雑音/パッチ整形を用いる符号化オーディオ信号の符号化および復号化装置および方法 Active JP6144773B2 (ja)

Applications Claiming Priority (11)

Application Number Priority Date Filing Date Title
EP13177350 2013-07-22
EP13177353.3 2013-07-22
EP13177353 2013-07-22
EP13177350.9 2013-07-22
EP13177346.7 2013-07-22
EP13177348.3 2013-07-22
EP13177348 2013-07-22
EP13177346 2013-07-22
EP13189358.8 2013-10-18
EP13189358.8A EP2830061A1 (en) 2013-07-22 2013-10-18 Apparatus and method for encoding and decoding an encoded audio signal using temporal noise/patch shaping
PCT/EP2014/065123 WO2015010954A1 (en) 2013-07-22 2014-07-15 Apparatus and method for encoding and decoding an encoded audio signal using temporal noise/patch shaping

Publications (2)

Publication Number Publication Date
JP2015535620A true JP2015535620A (ja) 2015-12-14
JP6144773B2 JP6144773B2 (ja) 2017-06-07

Family

ID=49385156

Family Applications (11)

Application Number Title Priority Date Filing Date
JP2016528415A Active JP6306702B2 (ja) 2013-07-22 2014-07-15 符号化オーディオ信号の復号装置、方法およびコンピュータプログラム
JP2016528412A Active JP6310074B2 (ja) 2013-07-22 2014-07-15 インテリジェントギャップ充填フレームワーク内の2チャネル処理を用いるオーディオ符号器、オーディオ復号器およびその方法
JP2016528413A Active JP6321797B2 (ja) 2013-07-22 2014-07-15 符号化装置、符号化方法およびコンピュータプログラム
JP2016528417A Active JP6400702B2 (ja) 2013-07-22 2014-07-15 符号化オーディオ信号の復号装置、方法およびコンピュータプログラム
JP2016528414A Active JP6389254B2 (ja) 2013-07-22 2014-07-15 復号装置、復号方法およびコンピュータプログラム
JP2016528416A Active JP6186082B2 (ja) 2013-07-22 2014-07-15 オーディオ信号を適応スペクトルタイル選択を用いて復号化および符号化する装置および方法
JP2015544509A Active JP6144773B2 (ja) 2013-07-22 2014-07-15 時間雑音/パッチ整形を用いる符号化オーディオ信号の符号化および復号化装置および方法
JP2017182327A Active JP6705787B2 (ja) 2013-07-22 2017-09-22 復号装置、復号方法およびコンピュータプログラム
JP2017216774A Active JP6568566B2 (ja) 2013-07-22 2017-11-09 符号化オーディオ信号の復号装置、方法およびコンピュータプログラム
JP2017234677A Active JP6691093B2 (ja) 2013-07-22 2017-12-06 オーディオエンコーダ、符号化方法およびコンピュータプログラム
JP2020000087A Active JP7092809B2 (ja) 2013-07-22 2020-01-06 再構築帯域に対するエネルギ情報を用いてオーディオ信号を復号化または符号化する装置および方法

Family Applications Before (6)

Application Number Title Priority Date Filing Date
JP2016528415A Active JP6306702B2 (ja) 2013-07-22 2014-07-15 符号化オーディオ信号の復号装置、方法およびコンピュータプログラム
JP2016528412A Active JP6310074B2 (ja) 2013-07-22 2014-07-15 インテリジェントギャップ充填フレームワーク内の2チャネル処理を用いるオーディオ符号器、オーディオ復号器およびその方法
JP2016528413A Active JP6321797B2 (ja) 2013-07-22 2014-07-15 符号化装置、符号化方法およびコンピュータプログラム
JP2016528417A Active JP6400702B2 (ja) 2013-07-22 2014-07-15 符号化オーディオ信号の復号装置、方法およびコンピュータプログラム
JP2016528414A Active JP6389254B2 (ja) 2013-07-22 2014-07-15 復号装置、復号方法およびコンピュータプログラム
JP2016528416A Active JP6186082B2 (ja) 2013-07-22 2014-07-15 オーディオ信号を適応スペクトルタイル選択を用いて復号化および符号化する装置および方法

Family Applications After (4)

Application Number Title Priority Date Filing Date
JP2017182327A Active JP6705787B2 (ja) 2013-07-22 2017-09-22 復号装置、復号方法およびコンピュータプログラム
JP2017216774A Active JP6568566B2 (ja) 2013-07-22 2017-11-09 符号化オーディオ信号の復号装置、方法およびコンピュータプログラム
JP2017234677A Active JP6691093B2 (ja) 2013-07-22 2017-12-06 オーディオエンコーダ、符号化方法およびコンピュータプログラム
JP2020000087A Active JP7092809B2 (ja) 2013-07-22 2020-01-06 再構築帯域に対するエネルギ情報を用いてオーディオ信号を復号化または符号化する装置および方法

Country Status (20)

Country Link
US (24) US10332539B2 (ja)
EP (20) EP2830065A1 (ja)
JP (11) JP6306702B2 (ja)
KR (7) KR101809592B1 (ja)
CN (12) CN110660410B (ja)
AU (7) AU2014295301B2 (ja)
BR (11) BR122022010958B1 (ja)
CA (8) CA2918524C (ja)
ES (9) ES2908624T3 (ja)
HK (1) HK1211378A1 (ja)
MX (7) MX354657B (ja)
MY (5) MY184847A (ja)
PL (8) PL3407350T3 (ja)
PT (7) PT3017448T (ja)
RU (7) RU2646316C2 (ja)
SG (7) SG11201600464WA (ja)
TR (1) TR201816157T4 (ja)
TW (7) TWI555009B (ja)
WO (7) WO2015010953A1 (ja)
ZA (5) ZA201502262B (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021119383A (ja) * 2016-01-22 2021-08-12 フラウンホッファー−ゲゼルシャフト ツァ フェルダールング デァ アンゲヴァンテン フォアシュンク エー.ファオ 改良されたミッド/サイド決定を持つ包括的なildを持つmdct m/sステレオのための装置および方法

Families Citing this family (81)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104221082B (zh) 2012-03-29 2017-03-08 瑞典爱立信有限公司 谐波音频信号的带宽扩展
TWI546799B (zh) 2013-04-05 2016-08-21 杜比國際公司 音頻編碼器及解碼器
EP2830065A1 (en) 2013-07-22 2015-01-28 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for decoding an encoded audio signal using a cross-over filter around a transition frequency
EP2830051A3 (en) 2013-07-22 2015-03-04 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Audio encoder, audio decoder, methods and computer program using jointly encoded residual signals
BR112016004299B1 (pt) * 2013-08-28 2022-05-17 Dolby Laboratories Licensing Corporation Método, aparelho e meio de armazenamento legível por computador para melhora de fala codificada paramétrica e codificada com forma de onda híbrida
FR3011408A1 (fr) * 2013-09-30 2015-04-03 Orange Re-echantillonnage d'un signal audio pour un codage/decodage a bas retard
EP3518237B1 (en) * 2014-03-14 2022-09-07 Telefonaktiebolaget LM Ericsson (publ) Audio coding method and apparatus
EP2980794A1 (en) 2014-07-28 2016-02-03 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Audio encoder and decoder using a frequency domain processor and a time domain processor
EP2980795A1 (en) 2014-07-28 2016-02-03 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Audio encoding and decoding using a frequency domain processor, a time domain processor and a cross processor for initialization of the time domain processor
KR102547480B1 (ko) 2014-12-09 2023-06-26 돌비 인터네셔널 에이비 Mdct-도메인 에러 은닉
TWI758146B (zh) 2015-03-13 2022-03-11 瑞典商杜比國際公司 解碼具有增強頻譜帶複製元資料在至少一填充元素中的音訊位元流
GB201504403D0 (en) 2015-03-16 2015-04-29 Microsoft Technology Licensing Llc Adapting encoded bandwidth
US10847170B2 (en) 2015-06-18 2020-11-24 Qualcomm Incorporated Device and method for generating a high-band signal from non-linearly processed sub-ranges
EP3171362B1 (en) * 2015-11-19 2019-08-28 Harman Becker Automotive Systems GmbH Bass enhancement and separation of an audio signal into a harmonic and transient signal component
EP3182411A1 (en) 2015-12-14 2017-06-21 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for processing an encoded audio signal
PT3405951T (pt) 2016-01-22 2020-02-05 Fraunhofer Ges Forschung Aparelhos e métodos para codificar ou descodificar um sinal de áudio multicanal utilizando sincronização de controlo de quadro
EP3208800A1 (en) * 2016-02-17 2017-08-23 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for stereo filing in multichannel coding
DE102016104665A1 (de) * 2016-03-14 2017-09-14 Ask Industries Gmbh Verfahren und Vorrichtung zur Aufbereitung eines verlustbehaftet komprimierten Audiosignals
US10741196B2 (en) 2016-03-24 2020-08-11 Harman International Industries, Incorporated Signal quality-based enhancement and compensation of compressed audio signals
US10141005B2 (en) 2016-06-10 2018-11-27 Apple Inc. Noise detection and removal systems, and related methods
JP6976277B2 (ja) 2016-06-22 2021-12-08 ドルビー・インターナショナル・アーベー 第一の周波数領域から第二の周波数領域にデジタル・オーディオ信号を変換するためのオーディオ・デコーダおよび方法
US10249307B2 (en) * 2016-06-27 2019-04-02 Qualcomm Incorporated Audio decoding using intermediate sampling rate
US10812550B1 (en) * 2016-08-03 2020-10-20 Amazon Technologies, Inc. Bitrate allocation for a multichannel media stream
EP3288031A1 (en) 2016-08-23 2018-02-28 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for encoding an audio signal using a compensation value
US9679578B1 (en) 2016-08-31 2017-06-13 Sorenson Ip Holdings, Llc Signal clipping compensation
EP3306609A1 (en) * 2016-10-04 2018-04-11 Fraunhofer Gesellschaft zur Förderung der Angewand Apparatus and method for determining a pitch information
US10362423B2 (en) * 2016-10-13 2019-07-23 Qualcomm Incorporated Parametric audio decoding
EP3324406A1 (en) 2016-11-17 2018-05-23 Fraunhofer Gesellschaft zur Förderung der Angewand Apparatus and method for decomposing an audio signal using a variable threshold
US10304468B2 (en) * 2017-03-20 2019-05-28 Qualcomm Incorporated Target sample generation
US10090892B1 (en) * 2017-03-20 2018-10-02 Intel Corporation Apparatus and a method for data detecting using a low bit analog-to-digital converter
EP3382704A1 (en) * 2017-03-31 2018-10-03 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for determining a predetermined characteristic related to a spectral enhancement processing of an audio signal
EP3382700A1 (en) 2017-03-31 2018-10-03 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for post-processing an audio signal using a transient location detection
EP3382701A1 (en) 2017-03-31 2018-10-03 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for post-processing an audio signal using prediction based shaping
ES2881704T3 (es) 2017-05-18 2021-11-30 Fraunhofer Ges Forschung Dispositivo de red de gestión
US11188422B2 (en) 2017-06-02 2021-11-30 Apple Inc. Techniques for preserving clone relationships between files
DK3642839T3 (da) * 2017-06-19 2022-07-04 Rtx As Audiosignalkodning og -afkodning
CN110998722B (zh) 2017-07-03 2023-11-10 杜比国际公司 低复杂性密集瞬态事件检测和译码
CN111386568B (zh) * 2017-10-27 2023-10-13 弗劳恩霍夫应用研究促进协会 使用神经网络处理器生成带宽增强的音频信号的装置、方法或计算机可读存储介质
EP3483880A1 (en) 2017-11-10 2019-05-15 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Temporal noise shaping
EP3483882A1 (en) * 2017-11-10 2019-05-15 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Controlling bandwidth in encoders and/or decoders
EP3483884A1 (en) 2017-11-10 2019-05-15 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Signal filtering
EP3483878A1 (en) 2017-11-10 2019-05-15 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Audio decoder supporting a set of different loss concealment tools
EP3483879A1 (en) 2017-11-10 2019-05-15 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Analysis/synthesis windowing function for modulated lapped transformation
WO2019091573A1 (en) 2017-11-10 2019-05-16 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for encoding and decoding an audio signal using downsampling or interpolation of scale parameters
WO2019091576A1 (en) 2017-11-10 2019-05-16 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Audio encoders, audio decoders, methods and computer programs adapting an encoding and decoding of least significant bits
EP3483886A1 (en) 2017-11-10 2019-05-15 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Selecting pitch lag
EP3483883A1 (en) 2017-11-10 2019-05-15 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Audio coding and decoding with selective postfiltering
TWI702594B (zh) 2018-01-26 2020-08-21 瑞典商都比國際公司 用於音訊信號之高頻重建技術之回溯相容整合
US11076252B2 (en) * 2018-02-09 2021-07-27 Mitsubishi Electric Corporation Audio signal processing apparatus and audio signal processing method
US10950251B2 (en) * 2018-03-05 2021-03-16 Dts, Inc. Coding of harmonic signals in transform-based audio codecs
EP3576088A1 (en) * 2018-05-30 2019-12-04 Fraunhofer Gesellschaft zur Förderung der Angewand Audio similarity evaluator, audio encoder, methods and computer program
AU2019298307A1 (en) * 2018-07-04 2021-02-25 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Multisignal audio coding using signal whitening as preprocessing
CN109088617B (zh) * 2018-09-20 2021-06-04 电子科技大学 比率可变数字重采样滤波器
US10957331B2 (en) 2018-12-17 2021-03-23 Microsoft Technology Licensing, Llc Phase reconstruction in a speech decoder
US10847172B2 (en) * 2018-12-17 2020-11-24 Microsoft Technology Licensing, Llc Phase quantization in a speech encoder
EP3671741A1 (en) * 2018-12-21 2020-06-24 FRAUNHOFER-GESELLSCHAFT zur Förderung der angewandten Forschung e.V. Audio processor and method for generating a frequency-enhanced audio signal using pulse processing
WO2020146870A1 (en) * 2019-01-13 2020-07-16 Huawei Technologies Co., Ltd. High resolution audio coding
JP7262593B2 (ja) * 2019-01-13 2023-04-21 華為技術有限公司 ハイレゾリューションオーディオ符号化
KR102470429B1 (ko) * 2019-03-14 2022-11-23 붐클라우드 360 인코포레이티드 우선순위에 의한 공간 인식 다중 대역 압축 시스템
CN110265043B (zh) * 2019-06-03 2021-06-01 同响科技股份有限公司 自适应有损或无损的音频压缩和解压缩演算方法
WO2020253941A1 (en) * 2019-06-17 2020-12-24 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Audio encoder with a signal-dependent number and precision control, audio decoder, and related methods and computer programs
US11527252B2 (en) 2019-08-30 2022-12-13 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. MDCT M/S stereo
TWI702780B (zh) 2019-12-03 2020-08-21 財團法人工業技術研究院 提升共模瞬變抗擾度的隔離器及訊號產生方法
CN111862953B (zh) * 2019-12-05 2023-08-22 北京嘀嘀无限科技发展有限公司 语音识别模型的训练方法、语音识别方法及装置
CN113192517B (zh) * 2020-01-13 2024-04-26 华为技术有限公司 一种音频编解码方法和音频编解码设备
US11158297B2 (en) * 2020-01-13 2021-10-26 International Business Machines Corporation Timbre creation system
US20230085013A1 (en) * 2020-01-28 2023-03-16 Hewlett-Packard Development Company, L.P. Multi-channel decomposition and harmonic synthesis
CN111199743B (zh) * 2020-02-28 2023-08-18 Oppo广东移动通信有限公司 音频编码格式确定方法、装置、存储介质及电子设备
CN111429925B (zh) * 2020-04-10 2023-04-07 北京百瑞互联技术有限公司 一种降低音频编码速率的方法及系统
CN113593586A (zh) * 2020-04-15 2021-11-02 华为技术有限公司 音频信号编码方法、解码方法、编码设备以及解码设备
CN111371459B (zh) * 2020-04-26 2023-04-18 宁夏隆基宁光仪表股份有限公司 一种适用于智能电表的多操作高频替换式数据压缩方法
CN113808596A (zh) * 2020-05-30 2021-12-17 华为技术有限公司 一种音频编码方法和音频编码装置
CN113808597A (zh) * 2020-05-30 2021-12-17 华为技术有限公司 一种音频编码方法和音频编码装置
CN113113033A (zh) * 2021-04-29 2021-07-13 腾讯音乐娱乐科技(深圳)有限公司 一种音频处理方法、设备及可读存储介质
CN113365189B (zh) * 2021-06-04 2022-08-05 上海傅硅电子科技有限公司 多声道无缝切换方法
CN115472171A (zh) * 2021-06-11 2022-12-13 华为技术有限公司 编解码方法、装置、设备、存储介质及计算机程序
CN113593604A (zh) * 2021-07-22 2021-11-02 腾讯音乐娱乐科技(深圳)有限公司 检测音频质量方法、装置及存储介质
TWI794002B (zh) * 2022-01-28 2023-02-21 緯創資通股份有限公司 多媒體系統以及多媒體操作方法
CN114582361B (zh) * 2022-04-29 2022-07-08 北京百瑞互联技术有限公司 基于生成对抗网络的高解析度音频编解码方法及系统
WO2023224665A1 (en) * 2022-05-17 2023-11-23 Google Llc Asymmetric and adaptive strength for windowing at encoding and decoding time for audio compression
WO2024085551A1 (ko) * 2022-10-16 2024-04-25 삼성전자주식회사 패킷 손실 은닉을 위한 전자 장치 및 방법

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013524281A (ja) * 2010-04-09 2013-06-17 ドルビー・インターナショナル・アーベー Mdctベース複素予測ステレオ符号化

Family Cites Families (263)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62234435A (ja) * 1986-04-04 1987-10-14 Kokusai Denshin Denwa Co Ltd <Kdd> 符号化音声の復号化方式
US6289308B1 (en) 1990-06-01 2001-09-11 U.S. Philips Corporation Encoded wideband digital transmission signal and record carrier recorded with such a signal
CN1038089C (zh) 1993-05-31 1998-04-15 索尼公司 信号编码或译码装置及信号编码或译码方法
JP3465697B2 (ja) * 1993-05-31 2003-11-10 ソニー株式会社 信号記録媒体
TW272341B (ja) * 1993-07-16 1996-03-11 Sony Co Ltd
GB2281680B (en) * 1993-08-27 1998-08-26 Motorola Inc A voice activity detector for an echo suppressor and an echo suppressor
BE1007617A3 (nl) * 1993-10-11 1995-08-22 Philips Electronics Nv Transmissiesysteem met gebruik van verschillende codeerprincipes.
US5502713A (en) * 1993-12-07 1996-03-26 Telefonaktiebolaget Lm Ericsson Soft error concealment in a TDMA radio system
JPH07336231A (ja) * 1994-06-13 1995-12-22 Sony Corp 信号符号化方法及び装置、信号復号化方法及び装置、並びに記録媒体
DE69619284T3 (de) * 1995-03-13 2006-04-27 Matsushita Electric Industrial Co., Ltd., Kadoma Vorrichtung zur Erweiterung der Sprachbandbreite
US6041295A (en) 1995-04-10 2000-03-21 Corporate Computer Systems Comparing CODEC input/output to adjust psycho-acoustic parameters
JP3747492B2 (ja) 1995-06-20 2006-02-22 ソニー株式会社 音声信号の再生方法及び再生装置
JP3246715B2 (ja) * 1996-07-01 2002-01-15 松下電器産業株式会社 オーディオ信号圧縮方法,およびオーディオ信号圧縮装置
JPH10124088A (ja) * 1996-10-24 1998-05-15 Sony Corp 音声帯域幅拡張装置及び方法
SE512719C2 (sv) * 1997-06-10 2000-05-02 Lars Gustaf Liljeryd En metod och anordning för reduktion av dataflöde baserad på harmonisk bandbreddsexpansion
DE19730130C2 (de) * 1997-07-14 2002-02-28 Fraunhofer Ges Forschung Verfahren zum Codieren eines Audiosignals
US6253172B1 (en) * 1997-10-16 2001-06-26 Texas Instruments Incorporated Spectral transformation of acoustic signals
US5913191A (en) 1997-10-17 1999-06-15 Dolby Laboratories Licensing Corporation Frame-based audio coding with additional filterbank to suppress aliasing artifacts at frame boundaries
DE19747132C2 (de) * 1997-10-24 2002-11-28 Fraunhofer Ges Forschung Verfahren und Vorrichtungen zum Codieren von Audiosignalen sowie Verfahren und Vorrichtungen zum Decodieren eines Bitstroms
US6029126A (en) * 1998-06-30 2000-02-22 Microsoft Corporation Scalable audio coder and decoder
US6253165B1 (en) * 1998-06-30 2001-06-26 Microsoft Corporation System and method for modeling probability distribution functions of transform coefficients of encoded signal
US6453289B1 (en) 1998-07-24 2002-09-17 Hughes Electronics Corporation Method of noise reduction for speech codecs
US6061555A (en) 1998-10-21 2000-05-09 Parkervision, Inc. Method and system for ensuring reception of a communications signal
US6400310B1 (en) * 1998-10-22 2002-06-04 Washington University Method and apparatus for a tunable high-resolution spectral estimator
SE9903553D0 (sv) 1999-01-27 1999-10-01 Lars Liljeryd Enhancing percepptual performance of SBR and related coding methods by adaptive noise addition (ANA) and noise substitution limiting (NSL)
JP3762579B2 (ja) 1999-08-05 2006-04-05 株式会社リコー デジタル音響信号符号化装置、デジタル音響信号符号化方法及びデジタル音響信号符号化プログラムを記録した媒体
US6978236B1 (en) 1999-10-01 2005-12-20 Coding Technologies Ab Efficient spectral envelope coding using variable time/frequency resolution and time/frequency switching
EP1147514B1 (en) * 1999-11-16 2005-04-06 Koninklijke Philips Electronics N.V. Wideband audio transmission system
US7742927B2 (en) 2000-04-18 2010-06-22 France Telecom Spectral enhancing method and device
SE0001926D0 (sv) 2000-05-23 2000-05-23 Lars Liljeryd Improved spectral translation/folding in the subband domain
CN100431355C (zh) * 2000-08-16 2008-11-05 多尔拜实验特许公司 响应补充信息修改音频或视频感知编码系统的一个或多个参数
US7003467B1 (en) 2000-10-06 2006-02-21 Digital Theater Systems, Inc. Method of decoding two-channel matrix encoded audio to reconstruct multichannel audio
SE0004163D0 (sv) 2000-11-14 2000-11-14 Coding Technologies Sweden Ab Enhancing perceptual performance of high frequency reconstruction coding methods by adaptive filtering
US20020128839A1 (en) 2001-01-12 2002-09-12 Ulf Lindgren Speech bandwidth extension
US20040054525A1 (en) 2001-01-22 2004-03-18 Hiroshi Sekiguchi Encoding method and decoding method for digital voice data
JP2002268693A (ja) 2001-03-12 2002-09-20 Mitsubishi Electric Corp オーディオ符号化装置
SE522553C2 (sv) 2001-04-23 2004-02-17 Ericsson Telefon Ab L M Bandbreddsutsträckning av akustiska signaler
US6934676B2 (en) 2001-05-11 2005-08-23 Nokia Mobile Phones Ltd. Method and system for inter-channel signal redundancy removal in perceptual audio coding
SE0202159D0 (sv) 2001-07-10 2002-07-09 Coding Technologies Sweden Ab Efficientand scalable parametric stereo coding for low bitrate applications
JP2003108197A (ja) * 2001-07-13 2003-04-11 Matsushita Electric Ind Co Ltd オーディオ信号復号化装置およびオーディオ信号符号化装置
DE60230856D1 (de) * 2001-07-13 2009-03-05 Panasonic Corp Audiosignaldecodierungseinrichtung und audiosignalcodierungseinrichtung
DE60220307T2 (de) * 2001-10-25 2008-02-07 Koninklijke Philips Electronics N.V. Verfahren zur übertragung breitbandiger tonsignale über einen übertragungskanal mit verminderter bandbreite
JP3923783B2 (ja) * 2001-11-02 2007-06-06 松下電器産業株式会社 符号化装置及び復号化装置
JP4308229B2 (ja) 2001-11-14 2009-08-05 パナソニック株式会社 符号化装置および復号化装置
AU2002352182A1 (en) * 2001-11-29 2003-06-10 Coding Technologies Ab Methods for improving high frequency reconstruction
US7240001B2 (en) 2001-12-14 2007-07-03 Microsoft Corporation Quality improvement techniques in an audio encoder
US6934677B2 (en) 2001-12-14 2005-08-23 Microsoft Corporation Quantization matrices based on critical band pattern information for digital audio wherein quantization bands differ from critical bands
US7146313B2 (en) 2001-12-14 2006-12-05 Microsoft Corporation Techniques for measurement of perceptual audio quality
US7206740B2 (en) * 2002-01-04 2007-04-17 Broadcom Corporation Efficient excitation quantization in noise feedback coding with general noise shaping
DE60323331D1 (de) 2002-01-30 2008-10-16 Matsushita Electric Ind Co Ltd Verfahren und vorrichtung zur audio-kodierung und -dekodierung
US20030187663A1 (en) * 2002-03-28 2003-10-02 Truman Michael Mead Broadband frequency translation for high frequency regeneration
RU2316154C2 (ru) 2002-04-10 2008-01-27 Конинклейке Филипс Электроникс Н.В. Кодирование стереофонических сигналов
US20030220800A1 (en) * 2002-05-21 2003-11-27 Budnikov Dmitry N. Coding multichannel audio signals
US7447631B2 (en) 2002-06-17 2008-11-04 Dolby Laboratories Licensing Corporation Audio coding system using spectral hole filling
CN1659927A (zh) * 2002-06-12 2005-08-24 伊科泰克公司 房间内扬声器声音的数字均衡方法及其使用
KR100462615B1 (ko) * 2002-07-11 2004-12-20 삼성전자주식회사 적은 계산량으로 고주파수 성분을 복원하는 오디오 디코딩방법 및 장치
US7502743B2 (en) * 2002-09-04 2009-03-10 Microsoft Corporation Multi-channel audio encoding and decoding with multi-channel transform selection
DE20321883U1 (de) 2002-09-04 2012-01-20 Microsoft Corp. Computervorrichtung und -system zum Entropiedecodieren quantisierter Transformationskoeffizienten eines Blockes
US7299190B2 (en) * 2002-09-04 2007-11-20 Microsoft Corporation Quantization and inverse quantization for audio
US7318027B2 (en) 2003-02-06 2008-01-08 Dolby Laboratories Licensing Corporation Conversion of synthesized spectral components for encoding and low-complexity transcoding
FR2852172A1 (fr) * 2003-03-04 2004-09-10 France Telecom Procede et dispositif de reconstruction spectrale d'un signal audio
RU2244386C2 (ru) 2003-03-28 2005-01-10 Корпорация "Самсунг Электроникс" Способ восстановления высокочастотной составляющей аудиосигнала и устройство для его реализации
CN1774957A (zh) 2003-04-17 2006-05-17 皇家飞利浦电子股份有限公司 音频信号生成
US7318035B2 (en) * 2003-05-08 2008-01-08 Dolby Laboratories Licensing Corporation Audio coding systems and methods using spectral component coupling and spectral component regeneration
US20050004793A1 (en) 2003-07-03 2005-01-06 Pasi Ojala Signal adaptation for higher band coding in a codec utilizing band split coding
EP1667109A4 (en) * 2003-09-17 2007-10-03 Beijing E World Technology Co METHOD AND DEVICE FOR QUANTIFYING MULTI-RESOLUTION VECTOR FOR AUDIO CODING AND DECODING
US7447317B2 (en) 2003-10-02 2008-11-04 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V Compatible multi-channel coding/decoding by weighting the downmix channel
DE10345995B4 (de) 2003-10-02 2005-07-07 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zum Verarbeiten eines Signals mit einer Sequenz von diskreten Werten
DE10345996A1 (de) * 2003-10-02 2005-04-28 Fraunhofer Ges Forschung Vorrichtung und Verfahren zum Verarbeiten von wenigstens zwei Eingangswerten
RU2374703C2 (ru) 2003-10-30 2009-11-27 Конинклейке Филипс Электроникс Н.В. Кодирование или декодирование аудиосигнала
US7460990B2 (en) * 2004-01-23 2008-12-02 Microsoft Corporation Efficient coding of digital media spectral data using wide-sense perceptual similarity
DE102004007191B3 (de) * 2004-02-13 2005-09-01 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Audiocodierung
DE102004007200B3 (de) * 2004-02-13 2005-08-11 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Audiocodierung
DE102004007184B3 (de) 2004-02-13 2005-09-22 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Verfahren und Vorrichtung zum Quantisieren eines Informationssignals
CA2457988A1 (en) * 2004-02-18 2005-08-18 Voiceage Corporation Methods and devices for audio compression based on acelp/tcx coding and multi-rate lattice vector quantization
DE602005022641D1 (de) 2004-03-01 2010-09-09 Dolby Lab Licensing Corp Mehrkanal-Audiodekodierung
US7739119B2 (en) 2004-03-02 2010-06-15 Ittiam Systems (P) Ltd. Technique for implementing Huffman decoding
US7272567B2 (en) * 2004-03-25 2007-09-18 Zoran Fejzo Scalable lossless audio codec and authoring tool
CN1677491A (zh) * 2004-04-01 2005-10-05 北京宫羽数字技术有限责任公司 一种增强音频编解码装置及方法
CN1677492A (zh) * 2004-04-01 2005-10-05 北京宫羽数字技术有限责任公司 一种增强音频编解码装置及方法
EP1852851A1 (en) * 2004-04-01 2007-11-07 Beijing Media Works Co., Ltd An enhanced audio encoding/decoding device and method
CN1677493A (zh) * 2004-04-01 2005-10-05 北京宫羽数字技术有限责任公司 一种增强音频编解码装置及方法
RU2382419C2 (ru) * 2004-04-05 2010-02-20 Конинклейке Филипс Электроникс Н.В. Многоканальный кодер
US7668711B2 (en) 2004-04-23 2010-02-23 Panasonic Corporation Coding equipment
KR20070009644A (ko) * 2004-04-27 2007-01-18 마츠시타 덴끼 산교 가부시키가이샤 스케일러블 부호화 장치, 스케일러블 복호화 장치 및 그방법
DE102004021403A1 (de) * 2004-04-30 2005-11-24 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Informationssignalverarbeitung durch Modifikation in der Spektral-/Modulationsspektralbereichsdarstellung
ATE394774T1 (de) * 2004-05-19 2008-05-15 Matsushita Electric Ind Co Ltd Kodierungs-, dekodierungsvorrichtung und methode dafür
US7649988B2 (en) 2004-06-15 2010-01-19 Acoustic Technologies, Inc. Comfort noise generator using modified Doblinger noise estimate
WO2006003891A1 (ja) * 2004-07-02 2006-01-12 Matsushita Electric Industrial Co., Ltd. 音声信号復号化装置及び音声信号符号化装置
US7465389B2 (en) 2004-07-09 2008-12-16 Exxonmobil Research And Engineering Company Production of extra-heavy lube oils from Fischer-Tropsch wax
US6963405B1 (en) 2004-07-19 2005-11-08 Itt Manufacturing Enterprises, Inc. Laser counter-measure using fourier transform imaging spectrometers
KR100608062B1 (ko) * 2004-08-04 2006-08-02 삼성전자주식회사 오디오 데이터의 고주파수 복원 방법 및 그 장치
TWI497485B (zh) 2004-08-25 2015-08-21 Dolby Lab Licensing Corp 用以重塑經合成輸出音訊信號之時域包絡以更接近輸入音訊信號之時域包絡的方法
EP1798724B1 (en) 2004-11-05 2014-06-18 Panasonic Corporation Encoder, decoder, encoding method, and decoding method
US7983904B2 (en) * 2004-11-05 2011-07-19 Panasonic Corporation Scalable decoding apparatus and scalable encoding apparatus
KR100721537B1 (ko) * 2004-12-08 2007-05-23 한국전자통신연구원 광대역 음성 부호화기의 고대역 음성 부호화 장치 및 그방법
WO2006062202A1 (ja) * 2004-12-10 2006-06-15 Matsushita Electric Industrial Co., Ltd. 広帯域符号化装置、広帯域lsp予測装置、帯域スケーラブル符号化装置及び広帯域符号化方法
KR100707174B1 (ko) * 2004-12-31 2007-04-13 삼성전자주식회사 광대역 음성 부호화 및 복호화 시스템에서 고대역 음성부호화 및 복호화 장치와 그 방법
US20070147518A1 (en) * 2005-02-18 2007-06-28 Bruno Bessette Methods and devices for low-frequency emphasis during audio compression based on ACELP/TCX
ES2350494T3 (es) * 2005-04-01 2011-01-24 Qualcomm Incorporated Procedimiento y aparatos para codificar y decodificar una parte de banda alta de una señal de habla.
NZ562188A (en) 2005-04-01 2010-05-28 Qualcomm Inc Methods and apparatus for encoding and decoding an highband portion of a speech signal
US7983922B2 (en) 2005-04-15 2011-07-19 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Apparatus and method for generating multi-channel synthesizer control signal and apparatus and method for multi-channel synthesizing
DE602006004959D1 (de) * 2005-04-15 2009-03-12 Dolby Sweden Ab Zeitliche hüllkurvenformgebung von entkorrelierten signalen
US8892448B2 (en) * 2005-04-22 2014-11-18 Qualcomm Incorporated Systems, methods, and apparatus for gain factor smoothing
US7698143B2 (en) 2005-05-17 2010-04-13 Mitsubishi Electric Research Laboratories, Inc. Constructing broad-band acoustic signals from lower-band acoustic signals
JP2006323037A (ja) * 2005-05-18 2006-11-30 Matsushita Electric Ind Co Ltd オーディオ信号復号化装置
EP1899959A2 (en) 2005-05-26 2008-03-19 LG Electronics Inc. Method of encoding and decoding an audio signal
US8315863B2 (en) * 2005-06-17 2012-11-20 Panasonic Corporation Post filter, decoder, and post filtering method
US7548853B2 (en) * 2005-06-17 2009-06-16 Shmunk Dmitry V Scalable compressed audio bit stream and codec using a hierarchical filterbank and multichannel joint coding
US8082157B2 (en) 2005-06-30 2011-12-20 Lg Electronics Inc. Apparatus for encoding and decoding audio signal and method thereof
US8032368B2 (en) * 2005-07-11 2011-10-04 Lg Electronics Inc. Apparatus and method of encoding and decoding audio signals using hierarchical block swithcing and linear prediction coding
US7539612B2 (en) * 2005-07-15 2009-05-26 Microsoft Corporation Coding and decoding scale factor information
KR100803205B1 (ko) 2005-07-15 2008-02-14 삼성전자주식회사 저비트율 오디오 신호 부호화/복호화 방법 및 장치
CN100539437C (zh) 2005-07-29 2009-09-09 上海杰得微电子有限公司 一种音频编解码器的实现方法
JP4640020B2 (ja) 2005-07-29 2011-03-02 ソニー株式会社 音声符号化装置及び方法、並びに音声復号装置及び方法
EP1938663A4 (en) 2005-08-30 2010-11-17 Lg Electronics Inc DEVICE FOR ENCODING AND DECODING AUDIO SIGNAL AND CORRESPONDING METHOD
US7974713B2 (en) 2005-10-12 2011-07-05 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Temporal and spatial shaping of multi-channel audio signals
KR100866885B1 (ko) * 2005-10-20 2008-11-04 엘지전자 주식회사 멀티채널 오디오 신호의 부호화 및 복호화 방법과 그 장치
US8620644B2 (en) 2005-10-26 2013-12-31 Qualcomm Incorporated Encoder-assisted frame loss concealment techniques for audio coding
KR20070046752A (ko) * 2005-10-31 2007-05-03 엘지전자 주식회사 신호 처리 방법 및 장치
US7720677B2 (en) * 2005-11-03 2010-05-18 Coding Technologies Ab Time warped modified transform coding of audio signals
KR100717058B1 (ko) * 2005-11-28 2007-05-14 삼성전자주식회사 고주파 성분 복원 방법 및 그 장치
US8255207B2 (en) 2005-12-28 2012-08-28 Voiceage Corporation Method and device for efficient frame erasure concealment in speech codecs
US7831434B2 (en) 2006-01-20 2010-11-09 Microsoft Corporation Complex-transform channel coding with extended-band frequency coding
KR100959971B1 (ko) * 2006-01-27 2010-05-27 돌비 스웨덴 에이비 복소 변조된 필터뱅크를 이용한 효율적인 필터링
EP1852848A1 (en) * 2006-05-05 2007-11-07 Deutsche Thomson-Brandt GmbH Method and apparatus for lossless encoding of a source signal using a lossy encoded data stream and a lossless extension data stream
KR20070115637A (ko) * 2006-06-03 2007-12-06 삼성전자주식회사 대역폭 확장 부호화 및 복호화 방법 및 장치
US8682652B2 (en) * 2006-06-30 2014-03-25 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Audio encoder, audio decoder and audio processor having a dynamically variable warping characteristic
US7873511B2 (en) * 2006-06-30 2011-01-18 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Audio encoder, audio decoder and audio processor having a dynamically variable warping characteristic
EP2337224B1 (en) * 2006-07-04 2017-06-21 Dolby International AB Filter unit and method for generating subband filter impulse responses
US9454974B2 (en) * 2006-07-31 2016-09-27 Qualcomm Incorporated Systems, methods, and apparatus for gain factor limiting
US8260609B2 (en) * 2006-07-31 2012-09-04 Qualcomm Incorporated Systems, methods, and apparatus for wideband encoding and decoding of inactive frames
US8135047B2 (en) 2006-07-31 2012-03-13 Qualcomm Incorporated Systems and methods for including an identifier with a packet associated with a speech signal
JP2010503881A (ja) 2006-09-13 2010-02-04 テレフオンアクチーボラゲット エル エム エリクソン(パブル) 音声・音響送信器及び受信器のための方法及び装置
DE602007013415D1 (de) * 2006-10-16 2011-05-05 Dolby Sweden Ab Erweiterte codierung und parameterrepräsentation einer mehrkanaligen heruntergemischten objektcodierung
RU2420815C2 (ru) 2006-10-25 2011-06-10 Фраунхофер-Гезелльшафт Цур Фердерунг Дер Ангевандтен Форшунг Е.Ф. Устройство и способ для генерации значений подполос звукового сигнала и устройство и способ для генерации отсчетов звукового сигнала во временной области
US20080243518A1 (en) * 2006-11-16 2008-10-02 Alexey Oraevsky System And Method For Compressing And Reconstructing Audio Files
US8170359B2 (en) 2006-11-28 2012-05-01 Panasonic Corporation Encoding device and encoding method
WO2008072524A1 (ja) 2006-12-13 2008-06-19 Panasonic Corporation オーディオ信号符号化方法及び復号化方法
US8200351B2 (en) 2007-01-05 2012-06-12 STMicroelectronics Asia PTE., Ltd. Low power downmix energy equalization in parametric stereo encoders
TR201906713T4 (tr) * 2007-01-10 2019-05-21 Koninklijke Philips Nv Audio kod çözücü.
US20080208538A1 (en) 2007-02-26 2008-08-28 Qualcomm Incorporated Systems, methods, and apparatus for signal separation
US20080208575A1 (en) * 2007-02-27 2008-08-28 Nokia Corporation Split-band encoding and decoding of an audio signal
JP5294713B2 (ja) 2007-03-02 2013-09-18 パナソニック株式会社 符号化装置、復号装置およびそれらの方法
KR101355376B1 (ko) 2007-04-30 2014-01-23 삼성전자주식회사 고주파수 영역 부호화 및 복호화 방법 및 장치
KR101411900B1 (ko) 2007-05-08 2014-06-26 삼성전자주식회사 오디오 신호의 부호화 및 복호화 방법 및 장치
CN101067931B (zh) * 2007-05-10 2011-04-20 芯晟(北京)科技有限公司 一种高效可配置的频域参数立体声及多声道编解码方法与系统
RU2422922C1 (ru) * 2007-06-08 2011-06-27 Долби Лэборетериз Лайсенсинг Корпорейшн Гибридное извлечение аудиоканалов объемного звука посредством управляемого объединения компонент сигналов окружения и компонент матрично-декодируемых сигналов
US7774205B2 (en) 2007-06-15 2010-08-10 Microsoft Corporation Coding of sparse digital media spectral data
CN101325059B (zh) * 2007-06-15 2011-12-21 华为技术有限公司 语音编解码收发方法及装置
US7885819B2 (en) 2007-06-29 2011-02-08 Microsoft Corporation Bitstream syntax for multi-process audio decoding
US8428957B2 (en) * 2007-08-24 2013-04-23 Qualcomm Incorporated Spectral noise shaping in audio coding based on spectral dynamics in frequency sub-bands
CN101809657B (zh) 2007-08-27 2012-05-30 爱立信电话股份有限公司 用于噪声填充的方法和设备
MX2010001394A (es) * 2007-08-27 2010-03-10 Ericsson Telefon Ab L M Frecuencia de transicion adaptiva entre llenado de ruido y extension de anchura de banda.
DE102007048973B4 (de) * 2007-10-12 2010-11-18 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zum Erzeugen eines Multikanalsignals mit einer Sprachsignalverarbeitung
US8527265B2 (en) 2007-10-22 2013-09-03 Qualcomm Incorporated Low-complexity encoding/decoding of quantized MDCT spectrum in scalable speech and audio codecs
KR101373004B1 (ko) * 2007-10-30 2014-03-26 삼성전자주식회사 고주파수 신호 부호화 및 복호화 장치 및 방법
US9177569B2 (en) * 2007-10-30 2015-11-03 Samsung Electronics Co., Ltd. Apparatus, medium and method to encode and decode high frequency signal
EP2207166B1 (en) * 2007-11-02 2013-06-19 Huawei Technologies Co., Ltd. An audio decoding method and device
EP2218068A4 (en) 2007-11-21 2010-11-24 Lg Electronics Inc METHOD AND APPARATUS FOR SIGNAL PROCESSING
US8688441B2 (en) * 2007-11-29 2014-04-01 Motorola Mobility Llc Method and apparatus to facilitate provision and use of an energy value to determine a spectral envelope shape for out-of-signal bandwidth content
CN101933086B (zh) * 2007-12-31 2013-06-19 Lg电子株式会社 处理音频信号的方法和设备
ATE500588T1 (de) * 2008-01-04 2011-03-15 Dolby Sweden Ab Audiokodierer und -dekodierer
US20090180531A1 (en) 2008-01-07 2009-07-16 Radlive Ltd. codec with plc capabilities
KR101413967B1 (ko) 2008-01-29 2014-07-01 삼성전자주식회사 오디오 신호의 부호화 방법 및 복호화 방법, 및 그에 대한 기록 매체, 오디오 신호의 부호화 장치 및 복호화 장치
ES2401817T3 (es) 2008-01-31 2013-04-24 Agency For Science, Technology And Research Procedimiento y dispositivo de distribución/truncado de la velocidad de transmisión de bits para codificación de audio escalable
BRPI0907508B1 (pt) * 2008-02-14 2020-09-15 Dolby Laboratories Licensing Corporation Método, sistema e método para modificar uma entrada estéreo que inclui sinais de entrada esquerdo e direito
AU2009221444B2 (en) * 2008-03-04 2012-06-14 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Mixing of input data streams and generation of an output data stream therefrom
EP2252996A4 (en) * 2008-03-05 2012-01-11 Voiceage Corp SYSTEM AND METHOD FOR ENHANCING A DECODED TONAL SIGNAL SIGNAL
EP3273442B1 (en) 2008-03-20 2021-10-20 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for synthesizing a parameterized representation of an audio signal
KR20090110244A (ko) * 2008-04-17 2009-10-21 삼성전자주식회사 오디오 시맨틱 정보를 이용한 오디오 신호의 부호화/복호화 방법 및 그 장치
WO2009135532A1 (en) 2008-05-09 2009-11-12 Nokia Corporation An apparatus
US20090319263A1 (en) 2008-06-20 2009-12-24 Qualcomm Incorporated Coding of transitional speech frames for low-bit-rate applications
EP2144171B1 (en) * 2008-07-11 2018-05-16 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Audio encoder and decoder for encoding and decoding frames of a sampled audio signal
MY178597A (en) 2008-07-11 2020-10-16 Fraunhofer Ges Forschung Audio encoder, audio decoder, methods for encoding and decoding an audio signal, and a computer program
EP2346030B1 (en) * 2008-07-11 2014-10-01 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Audio encoder, method for encoding an audio signal and computer program
RU2536679C2 (ru) * 2008-07-11 2014-12-27 Фраунхофер-Гезелльшафт цур Фёрдерунг дер ангевандтен Передатчик сигнала активации с деформацией по времени, кодер звукового сигнала, способ преобразования сигнала активации с деформацией по времени, способ кодирования звукового сигнала и компьютерные программы
JP5010743B2 (ja) 2008-07-11 2012-08-29 フラウンホーファー−ゲゼルシャフト・ツール・フェルデルング・デル・アンゲヴァンテン・フォルシュング・アインゲトラーゲネル・フェライン スペクトル傾斜で制御されたフレーミングを使用して帯域拡張データを計算するための装置及び方法
MY155538A (en) 2008-07-11 2015-10-30 Fraunhofer Ges Forschung An apparatus and a method for generating bandwidth extension output data
EP2144230A1 (en) 2008-07-11 2010-01-13 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Low bitrate audio encoding/decoding scheme having cascaded switches
BR122021007798B1 (pt) * 2008-07-11 2021-10-26 Fraunhofer-Gesellschaft Zur Forderung Der Angewandten Forschung E. V. Codificador de áudio e decodificador de áudio
AU2009267525B2 (en) * 2008-07-11 2012-12-20 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Audio signal synthesizer and audio signal encoder
EP2154911A1 (en) 2008-08-13 2010-02-17 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. An apparatus for determining a spatial output multi-channel audio signal
US8463603B2 (en) 2008-09-06 2013-06-11 Huawei Technologies Co., Ltd. Spectral envelope coding of energy attack signal
US8532983B2 (en) 2008-09-06 2013-09-10 Huawei Technologies Co., Ltd. Adaptive frequency prediction for encoding or decoding an audio signal
WO2010031049A1 (en) 2008-09-15 2010-03-18 GH Innovation, Inc. Improving celp post-processing for music signals
JP5295372B2 (ja) * 2008-09-17 2013-09-18 フランス・テレコム デジタルオーディオ信号におけるプリエコーの減衰
EP2224433B1 (en) * 2008-09-25 2020-05-27 Lg Electronics Inc. An apparatus for processing an audio signal and method thereof
US9947340B2 (en) * 2008-12-10 2018-04-17 Skype Regeneration of wideband speech
EP4231294B1 (en) 2008-12-15 2023-11-15 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Audio bandwidth extension decoder
EP2360687A4 (en) * 2008-12-19 2012-07-11 Fujitsu Ltd VOICE BAND EXTENSION DEVICE AND VOICE BAND EXTENSION METHOD
CA3231911A1 (en) 2009-01-16 2010-07-22 Dolby International Ab Cross product enhanced harmonic transposition
JP4977157B2 (ja) 2009-03-06 2012-07-18 株式会社エヌ・ティ・ティ・ドコモ 音信号符号化方法、音信号復号方法、符号化装置、復号装置、音信号処理システム、音信号符号化プログラム、及び、音信号復号プログラム
KR101367604B1 (ko) * 2009-03-17 2014-02-26 돌비 인터네셔널 에이비 적응형으로 선택가능한 좌/우 또는 미드/사이드 스테레오 코딩과 파라메트릭 스테레오 코딩의 조합에 기초한 진보된 스테레오 코딩
EP2239732A1 (en) 2009-04-09 2010-10-13 Fraunhofer-Gesellschaft zur Förderung der Angewandten Forschung e.V. Apparatus and method for generating a synthesis audio signal and for encoding an audio signal
JP4932917B2 (ja) * 2009-04-03 2012-05-16 株式会社エヌ・ティ・ティ・ドコモ 音声復号装置、音声復号方法、及び音声復号プログラム
CN101521014B (zh) * 2009-04-08 2011-09-14 武汉大学 音频带宽扩展编解码装置
US8391212B2 (en) * 2009-05-05 2013-03-05 Huawei Technologies Co., Ltd. System and method for frequency domain audio post-processing based on perceptual masking
EP2249333B1 (en) * 2009-05-06 2014-08-27 Nuance Communications, Inc. Method and apparatus for estimating a fundamental frequency of a speech signal
CN101556799B (zh) 2009-05-14 2013-08-28 华为技术有限公司 一种音频解码方法和音频解码器
TWI643187B (zh) * 2009-05-27 2018-12-01 瑞典商杜比國際公司 從訊號的低頻成份產生該訊號之高頻成份的系統與方法,及其機上盒、電腦程式產品、軟體程式及儲存媒體
CN101609680B (zh) * 2009-06-01 2012-01-04 华为技术有限公司 压缩编码和解码的方法、编码器和解码器以及编码装置
PL2273493T3 (pl) 2009-06-29 2013-07-31 Fraunhofer Ges Forschung Kodowanie i dekodowanie z rozszerzaniem szerokości pasma
EP2452323B1 (en) 2009-07-07 2018-03-14 Xtralis Technologies Ltd Chamber condition
US8793617B2 (en) * 2009-07-30 2014-07-29 Microsoft Corporation Integrating transport modes into a communication stream
US9031834B2 (en) 2009-09-04 2015-05-12 Nuance Communications, Inc. Speech enhancement techniques on the power spectrum
GB2473267A (en) 2009-09-07 2011-03-09 Nokia Corp Processing audio signals to reduce noise
RU2591661C2 (ru) * 2009-10-08 2016-07-20 Фраунхофер-Гезелльшафт цур Фёрдерунг дер ангевандтен Форшунг Е.Ф. Многорежимный декодировщик аудио сигнала, многорежимный кодировщик аудио сигналов, способы и компьютерные программы с использованием кодирования с линейным предсказанием на основе ограничения шума
KR101137652B1 (ko) * 2009-10-14 2012-04-23 광운대학교 산학협력단 천이 구간에 기초하여 윈도우의 오버랩 영역을 조절하는 통합 음성/오디오 부호화/복호화 장치 및 방법
MX2012004593A (es) 2009-10-20 2012-06-08 Fraunhofer Ges Forschung Codec multimodo de audio y codificacion de celp adaptada a este.
MY166169A (en) 2009-10-20 2018-06-07 Fraunhofer Ges Forschung Audio signal encoder,audio signal decoder,method for encoding or decoding an audio signal using an aliasing-cancellation
ES2906085T3 (es) * 2009-10-21 2022-04-13 Dolby Int Ab Sobremuestreo en un banco de filtros de reemisor combinado
US8484020B2 (en) * 2009-10-23 2013-07-09 Qualcomm Incorporated Determining an upperband signal from a narrowband signal
US8856011B2 (en) 2009-11-19 2014-10-07 Telefonaktiebolaget L M Ericsson (Publ) Excitation signal bandwidth extension
CN102081927B (zh) 2009-11-27 2012-07-18 中兴通讯股份有限公司 一种可分层音频编码、解码方法及系统
CA2779453C (en) 2009-12-07 2015-12-22 Dolby Laboratories Licensing Corporation Decoding of multichannel audio encoded bit streams using adaptive hybrid transformation
KR101764926B1 (ko) 2009-12-10 2017-08-03 삼성전자주식회사 음향 통신을 위한 장치 및 방법
AU2010332925B2 (en) * 2009-12-16 2013-07-11 Dolby International Ab SBR bitstream parameter downmix
EP2357649B1 (en) * 2010-01-21 2012-12-19 Electronics and Telecommunications Research Institute Method and apparatus for decoding audio signal
CN102194457B (zh) * 2010-03-02 2013-02-27 中兴通讯股份有限公司 音频编解码方法、系统及噪声水平估计方法
CN103038819B (zh) * 2010-03-09 2015-02-18 弗兰霍菲尔运输应用研究公司 用以使用补丁边界对准处理输入音频信号的装置及方法
EP2369861B1 (en) 2010-03-25 2016-07-27 Nxp B.V. Multi-channel audio signal processing
EP2375409A1 (en) 2010-04-09 2011-10-12 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Audio encoder, audio decoder and related methods for processing multi-channel audio signals using complex prediction
AU2011240239B2 (en) 2010-04-13 2014-06-26 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Audio or video encoder, audio or video decoder and related methods for processing multi-channel audio or video signals using a variable prediction direction
US8886523B2 (en) 2010-04-14 2014-11-11 Huawei Technologies Co., Ltd. Audio decoding based on audio class with control code for post-processing modes
CN102947882B (zh) 2010-04-16 2015-06-17 弗劳恩霍夫应用研究促进协会 使用制导带宽扩展和盲带宽扩展生成宽带信号的装置、方法
US8600737B2 (en) 2010-06-01 2013-12-03 Qualcomm Incorporated Systems, methods, apparatus, and computer program products for wideband speech coding
WO2011155170A1 (ja) 2010-06-09 2011-12-15 パナソニック株式会社 帯域拡張方法、帯域拡張装置、プログラム、集積回路およびオーディオ復号装置
US9047875B2 (en) 2010-07-19 2015-06-02 Futurewei Technologies, Inc. Spectrum flatness control for bandwidth extension
US9236063B2 (en) * 2010-07-30 2016-01-12 Qualcomm Incorporated Systems, methods, apparatus, and computer-readable media for dynamic bit allocation
JP6075743B2 (ja) 2010-08-03 2017-02-08 ソニー株式会社 信号処理装置および方法、並びにプログラム
US8489403B1 (en) 2010-08-25 2013-07-16 Foundation For Research and Technology—Institute of Computer Science ‘FORTH-ICS’ Apparatuses, methods and systems for sparse sinusoidal audio processing and transmission
KR101826331B1 (ko) 2010-09-15 2018-03-22 삼성전자주식회사 고주파수 대역폭 확장을 위한 부호화/복호화 장치 및 방법
AR085895A1 (es) * 2011-02-14 2013-11-06 Fraunhofer Ges Forschung Generacion de ruido en codecs de audio
EP2702589B1 (en) 2011-04-28 2017-04-05 Dolby International AB Efficient content classification and loudness estimation
WO2012158705A1 (en) 2011-05-19 2012-11-22 Dolby Laboratories Licensing Corporation Adaptive audio processing based on forensic detection of media processing history
WO2012158333A1 (en) 2011-05-19 2012-11-22 Dolby Laboratories Licensing Corporation Forensic detection of parametric audio coding schemes
DE102011106033A1 (de) * 2011-06-30 2013-01-03 Zte Corporation Verfahren und System zur Audiocodierung und -decodierung und Verfahren zur Schätzung des Rauschpegels
US20130006644A1 (en) 2011-06-30 2013-01-03 Zte Corporation Method and device for spectral band replication, and method and system for audio decoding
JP6001657B2 (ja) 2011-06-30 2016-10-05 サムスン エレクトロニクス カンパニー リミテッド 帯域幅拡張信号生成装置及びその方法
JP6037156B2 (ja) * 2011-08-24 2016-11-30 ソニー株式会社 符号化装置および方法、並びにプログラム
JP5942358B2 (ja) 2011-08-24 2016-06-29 ソニー株式会社 符号化装置および方法、復号装置および方法、並びにプログラム
KR20130022549A (ko) 2011-08-25 2013-03-07 삼성전자주식회사 마이크 노이즈 제거 방법 및 이를 지원하는 휴대 단말기
US9384749B2 (en) 2011-09-09 2016-07-05 Panasonic Intellectual Property Corporation Of America Encoding device, decoding device, encoding method and decoding method
BR112014007481A2 (pt) 2011-09-29 2017-04-04 Dolby Int Ab detecção de alta qualidade em sinais de rádio fm estéreo
EP3321931B1 (en) * 2011-10-28 2019-12-04 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Encoding apparatus and encoding method
EP3279895B1 (en) * 2011-11-02 2019-07-10 Telefonaktiebolaget LM Ericsson (publ) Audio encoding based on an efficient representation of auto-regressive coefficients
JP6069341B2 (ja) * 2011-11-30 2017-02-01 ドルビー・インターナショナル・アーベー オーディオ・コーデックからの向上したクロマ抽出のための方法、エンコーダ、デコーダ、ソフトウェア・プログラム、記憶媒体
JP5817499B2 (ja) * 2011-12-15 2015-11-18 富士通株式会社 復号装置、符号化装置、符号化復号システム、復号方法、符号化方法、復号プログラム、及び符号化プログラム
CN103165136A (zh) * 2011-12-15 2013-06-19 杜比实验室特许公司 音频处理方法及音频处理设备
US9390721B2 (en) 2012-01-20 2016-07-12 Panasonic Intellectual Property Corporation Of America Speech decoding device and speech decoding method
KR101398189B1 (ko) 2012-03-27 2014-05-22 광주과학기술원 음성수신장치 및 음성수신방법
CN104221082B (zh) * 2012-03-29 2017-03-08 瑞典爱立信有限公司 谐波音频信号的带宽扩展
KR20140130248A (ko) * 2012-03-29 2014-11-07 텔레폰악티에볼라겟엘엠에릭슨(펍) 하모닉 오디오 신호의 변환 인코딩/디코딩
CN102750955B (zh) * 2012-07-20 2014-06-18 中国科学院自动化研究所 基于残差信号频谱重构的声码器
US9589570B2 (en) 2012-09-18 2017-03-07 Huawei Technologies Co., Ltd. Audio classification based on perceptual quality for low or medium bit rates
EP2903004A4 (en) 2012-09-24 2016-11-16 Samsung Electronics Co Ltd METHOD AND APPARATUS FOR HAMPERING FRAME ERRORS, AND METHOD AND APPARATUS FOR DECODING AUDIO DATA
US9129600B2 (en) 2012-09-26 2015-09-08 Google Technology Holdings LLC Method and apparatus for encoding an audio signal
US9135920B2 (en) 2012-11-26 2015-09-15 Harman International Industries, Incorporated System for perceived enhancement and restoration of compressed audio signals
PL3054446T3 (pl) 2013-01-29 2024-02-19 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Koder audio, dekoder audio, sposób dostarczania kodowanej informacji audio, sposób dostarczania zdekodowanej informacji audio, program komputerowy i kodowana reprezentacja, stosujące adaptacyjne względem sygnału rozszerzenie szerokości pasma
EP2830065A1 (en) 2013-07-22 2015-01-28 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for decoding an encoded audio signal using a cross-over filter around a transition frequency
EP2830055A1 (en) 2013-07-22 2015-01-28 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Context-based entropy coding of sample values of a spectral envelope
EP2980795A1 (en) 2014-07-28 2016-02-03 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Audio encoding and decoding using a frequency domain processor, a time domain processor and a cross processor for initialization of the time domain processor

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013524281A (ja) * 2010-04-09 2013-06-17 ドルビー・インターナショナル・アーベー Mdctベース複素予測ステレオ符号化

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021119383A (ja) * 2016-01-22 2021-08-12 フラウンホッファー−ゲゼルシャフト ツァ フェルダールング デァ アンゲヴァンテン フォアシュンク エー.ファオ 改良されたミッド/サイド決定を持つ包括的なildを持つmdct m/sステレオのための装置および方法
JP7280306B2 (ja) 2016-01-22 2023-05-23 フラウンホッファー-ゲゼルシャフト ツァ フェルダールング デァ アンゲヴァンテン フォアシュンク エー.ファオ 改良されたミッド/サイド決定を持つ包括的なildを持つmdct m/sステレオのための装置および方法
US11842742B2 (en) 2016-01-22 2023-12-12 Fraunhofer-Gesellschaft zur Foerderung der angewandten Forschung V. Apparatus and method for MDCT M/S stereo with global ILD with improved mid/side decision

Also Published As

Publication number Publication date
WO2015010952A9 (en) 2017-10-26
US10147430B2 (en) 2018-12-04
PT3025328T (pt) 2018-11-27
EP3025337A1 (en) 2016-06-01
MY187943A (en) 2021-10-30
WO2015010947A1 (en) 2015-01-29
TWI541797B (zh) 2016-07-11
BR112015007533A2 (ja) 2017-08-22
EP3025337B1 (en) 2021-12-08
ES2959641T3 (es) 2024-02-27
AU2014295298A1 (en) 2016-03-10
EP2830059A1 (en) 2015-01-28
WO2015010949A1 (en) 2015-01-29
KR20160034975A (ko) 2016-03-30
CN110310659B (zh) 2023-10-24
MX355448B (es) 2018-04-18
ES2667221T3 (es) 2018-05-10
US20190074019A1 (en) 2019-03-07
CN105518776B (zh) 2019-06-14
US20150287417A1 (en) 2015-10-08
JP6568566B2 (ja) 2019-08-28
US20180102134A1 (en) 2018-04-12
JP6321797B2 (ja) 2018-05-09
KR20160030193A (ko) 2016-03-16
MX353999B (es) 2018-02-07
BR112016000740A2 (pt) 2017-08-22
AU2014295300B2 (en) 2017-05-25
PL3506260T3 (pl) 2024-02-19
SG11201502691QA (en) 2015-05-28
CN105453175B (zh) 2020-11-03
TW201517024A (zh) 2015-05-01
WO2015010948A1 (en) 2015-01-29
CN111554310A (zh) 2020-08-18
KR101774795B1 (ko) 2017-09-05
AU2014295298B2 (en) 2017-05-25
CN105453176B (zh) 2019-08-23
JP6400702B2 (ja) 2018-10-03
US11769513B2 (en) 2023-09-26
MY184847A (en) 2021-04-27
RU2640634C2 (ru) 2018-01-10
JP6306702B2 (ja) 2018-04-04
EP2883227A1 (en) 2015-06-17
BR112016001072B1 (pt) 2022-07-12
HK1211378A1 (en) 2016-05-20
RU2016105619A (ru) 2017-08-23
CN110660410A (zh) 2020-01-07
EP2883227B1 (en) 2016-08-17
SG11201600506VA (en) 2016-02-26
RU2016105759A (ru) 2017-08-25
CA2918810C (en) 2020-04-28
EP3025340B1 (en) 2019-03-27
AU2014295296B2 (en) 2017-10-19
BR112016001125A2 (ja) 2017-08-22
BR122022011238B1 (pt) 2023-12-19
BR122022010960B1 (pt) 2023-04-04
CA2918807A1 (en) 2015-01-29
US10847167B2 (en) 2020-11-24
TR201816157T4 (tr) 2018-11-21
PT3407350T (pt) 2020-10-27
US20190043522A1 (en) 2019-02-07
PT3017448T (pt) 2020-10-08
BR112016001072A2 (ja) 2017-08-22
EP3025340A1 (en) 2016-06-01
US20220270619A1 (en) 2022-08-25
EP3506260B1 (en) 2023-08-16
JP6389254B2 (ja) 2018-09-12
AU2014295297B2 (en) 2017-05-25
US20160133265A1 (en) 2016-05-12
EP3017448B1 (en) 2020-07-08
AU2014295300A1 (en) 2016-03-10
ES2813940T3 (es) 2021-03-25
EP2830063A1 (en) 2015-01-28
US11922956B2 (en) 2024-03-05
EP2830064A1 (en) 2015-01-28
US11250862B2 (en) 2022-02-15
US10332539B2 (en) 2019-06-25
RU2635890C2 (ru) 2017-11-16
RU2651229C2 (ru) 2018-04-18
TW201523589A (zh) 2015-06-16
MX356161B (es) 2018-05-16
CA2973841A1 (en) 2015-01-29
RU2649940C2 (ru) 2018-04-05
US20210295853A1 (en) 2021-09-23
KR20160046804A (ko) 2016-04-29
JP2016530556A (ja) 2016-09-29
BR112015007533B1 (pt) 2022-09-27
EP3506260A1 (en) 2019-07-03
US10276183B2 (en) 2019-04-30
US20220139407A1 (en) 2022-05-05
US20200082841A1 (en) 2020-03-12
EP2830061A1 (en) 2015-01-28
MX2016000940A (es) 2016-04-25
CN104769671A (zh) 2015-07-08
EP3025344B1 (en) 2017-06-21
BR112016000740B1 (pt) 2022-12-27
CN110310659A (zh) 2019-10-08
AU2014295295B2 (en) 2017-10-19
ES2827774T3 (es) 2021-05-24
US20160140973A1 (en) 2016-05-19
EP3742444A1 (en) 2020-11-25
CN105580075B (zh) 2020-02-07
CA2918807C (en) 2019-05-07
WO2015010952A1 (en) 2015-01-29
ZA201601046B (en) 2017-05-31
EP3407350A1 (en) 2018-11-28
JP6186082B2 (ja) 2017-08-23
PL3017448T3 (pl) 2020-12-28
KR20150060752A (ko) 2015-06-03
EP3025343B1 (en) 2018-02-14
WO2015010950A1 (en) 2015-01-29
US20160210974A1 (en) 2016-07-21
WO2015010953A1 (en) 2015-01-29
CA2918804A1 (en) 2015-01-29
KR101764723B1 (ko) 2017-08-14
PT3025343T (pt) 2018-05-18
BR122022010958B1 (pt) 2024-01-30
US20230352032A1 (en) 2023-11-02
TWI555009B (zh) 2016-10-21
US20220157325A1 (en) 2022-05-19
SG11201600496XA (en) 2016-02-26
US10593345B2 (en) 2020-03-17
WO2015010954A1 (en) 2015-01-29
US10002621B2 (en) 2018-06-19
RU2016105618A (ru) 2017-08-28
ES2698023T3 (es) 2019-01-30
PL3407350T3 (pl) 2020-12-28
US10134404B2 (en) 2018-11-20
MY182831A (en) 2021-02-05
RU2016105610A (ru) 2017-08-25
US20160140980A1 (en) 2016-05-19
JP2022123060A (ja) 2022-08-23
US10311892B2 (en) 2019-06-04
CA2918835A1 (en) 2015-01-29
US20160140981A1 (en) 2016-05-19
SG11201600494UA (en) 2016-02-26
CA2918701C (en) 2020-04-14
US10515652B2 (en) 2019-12-24
US10332531B2 (en) 2019-06-25
BR122022011231B1 (pt) 2024-01-30
TWI545561B (zh) 2016-08-11
MX354002B (es) 2018-02-07
CA2886505A1 (en) 2015-01-29
US20170154631A1 (en) 2017-06-01
EP3025328A1 (en) 2016-06-01
KR20160042890A (ko) 2016-04-20
PT2883227T (pt) 2016-11-18
CA2973841C (en) 2019-08-20
EP3975180A1 (en) 2022-03-30
US11222643B2 (en) 2022-01-11
US11049506B2 (en) 2021-06-29
KR101826723B1 (ko) 2018-03-22
CA2918701A1 (en) 2015-01-29
CA2918524A1 (en) 2015-01-29
KR20160024924A (ko) 2016-03-07
JP2016529545A (ja) 2016-09-23
EP4246512A3 (en) 2023-12-13
JP7092809B2 (ja) 2022-06-28
SG11201600401RA (en) 2016-02-26
CN112466312A (zh) 2021-03-09
EP3025344A1 (en) 2016-06-01
RU2016105613A (ru) 2017-08-28
JP2016527557A (ja) 2016-09-08
EP2830065A1 (en) 2015-01-28
PL3025343T3 (pl) 2018-10-31
BR112016001125B1 (pt) 2022-01-04
ZA201601010B (en) 2017-11-29
KR101681253B1 (ko) 2016-12-01
PL3025337T3 (pl) 2022-04-11
TW201517023A (zh) 2015-05-01
CA2918524C (en) 2018-05-22
TW201513098A (zh) 2015-04-01
CN111554310B (zh) 2023-10-20
MY180759A (en) 2020-12-08
EP3025328B1 (en) 2018-08-01
TW201514974A (zh) 2015-04-16
ZA201601111B (en) 2017-08-30
AU2014295301B2 (en) 2017-05-25
US20190198029A1 (en) 2019-06-27
ZA201502262B (en) 2016-09-28
MX2016000935A (es) 2016-07-05
US20160140979A1 (en) 2016-05-19
BR112016000947B1 (pt) 2022-06-21
CN111179963A (zh) 2020-05-19
MX2016000943A (es) 2016-07-05
US11289104B2 (en) 2022-03-29
MX2016000854A (es) 2016-06-23
US20210217426A1 (en) 2021-07-15
RU2643641C2 (ru) 2018-02-02
US20190251986A1 (en) 2019-08-15
MX2015004022A (es) 2015-07-06
PT3025340T (pt) 2019-06-27
US11769512B2 (en) 2023-09-26
CA2886505C (en) 2017-10-31
EP3017448A1 (en) 2016-05-11
US20180144760A1 (en) 2018-05-24
MX354657B (es) 2018-03-14
AU2014295302B2 (en) 2016-06-30
EP2830056A1 (en) 2015-01-28
KR101822032B1 (ko) 2018-03-08
CN105453175A (zh) 2016-03-30
US11735192B2 (en) 2023-08-22
RU2646316C2 (ru) 2018-03-02
EP2830054A1 (en) 2015-01-28
CN105518776A (zh) 2016-04-20
KR20160041940A (ko) 2016-04-18
AU2014295296A1 (en) 2016-03-10
TWI555008B (zh) 2016-10-21
US20190371355A1 (en) 2019-12-05
BR112016000852A2 (pt) 2017-08-22
JP2018077487A (ja) 2018-05-17
RU2016105473A (ru) 2017-08-23
JP6705787B2 (ja) 2020-06-03
CN105518777B (zh) 2020-01-31
EP3025343A1 (en) 2016-06-01
CN110660410B (zh) 2023-10-24
JP6144773B2 (ja) 2017-06-07
JP2016527556A (ja) 2016-09-08
AU2014295297A1 (en) 2016-03-10
SG11201600464WA (en) 2016-02-26
CN105580075A (zh) 2016-05-11
US20180268842A1 (en) 2018-09-20
ES2728329T3 (es) 2019-10-23
BR122022010965B1 (pt) 2023-04-04
CN105518777A (zh) 2016-04-20
CA2918835C (en) 2018-06-26
EP4246512A2 (en) 2023-09-20
CA2918804C (en) 2018-06-12
RU2015112591A (ru) 2016-10-27
PL2883227T3 (pl) 2017-03-31
MX2016000924A (es) 2016-05-05
AU2014295295A1 (en) 2016-03-10
MX340575B (es) 2016-07-13
JP2018041100A (ja) 2018-03-15
TW201523590A (zh) 2015-06-16
MX362036B (es) 2019-01-04
TW201517019A (zh) 2015-05-01
EP3407350B1 (en) 2020-07-29
JP2016525713A (ja) 2016-08-25
CN104769671B (zh) 2017-09-26
US20210065723A1 (en) 2021-03-04
US10573334B2 (en) 2020-02-25
ES2638498T3 (es) 2017-10-23
ES2599007T3 (es) 2017-01-31
PL3025340T3 (pl) 2019-09-30
CN105453176A (zh) 2016-03-30
JP6691093B2 (ja) 2020-04-28
ZA201601011B (en) 2017-05-31
KR101807836B1 (ko) 2018-01-18
MX2016000857A (es) 2016-05-05
PL3025328T3 (pl) 2019-02-28
BR112016000852B1 (pt) 2021-12-28
AU2014295302A1 (en) 2015-04-02
EP3506260C0 (en) 2023-08-16
ES2908624T3 (es) 2022-05-03
US10984805B2 (en) 2021-04-20
JP2020060792A (ja) 2020-04-16
RU2607263C2 (ru) 2017-01-10
BR112016000947A2 (ja) 2017-08-22
CA2918810A1 (en) 2015-01-29
JP2016529546A (ja) 2016-09-23
KR101809592B1 (ko) 2018-01-18
CN105556603A (zh) 2016-05-04
JP2018013796A (ja) 2018-01-25
CN105556603B (zh) 2019-08-27
MY175978A (en) 2020-07-19
PT3025337T (pt) 2022-02-23
AU2014295301A1 (en) 2016-03-10
EP3723091A1 (en) 2020-10-14
TWI545560B (zh) 2016-08-11
TWI549121B (zh) 2016-09-11
TWI545558B (zh) 2016-08-11
SG11201600422SA (en) 2016-02-26
US11257505B2 (en) 2022-02-22
US10347274B2 (en) 2019-07-09
JP6310074B2 (ja) 2018-04-11

Similar Documents

Publication Publication Date Title
JP6691093B2 (ja) オーディオエンコーダ、符号化方法およびコンピュータプログラム
JP7483792B2 (ja) 符号化オーディオ信号を復号する復号装置および復号方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150529

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160705

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20160930

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170104

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170411

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170511

R150 Certificate of patent or registration of utility model

Ref document number: 6144773

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250